JP2008206037A - Image processing apparatus and image processing program - Google Patents

Image processing apparatus and image processing program Download PDF

Info

Publication number
JP2008206037A
JP2008206037A JP2007042249A JP2007042249A JP2008206037A JP 2008206037 A JP2008206037 A JP 2008206037A JP 2007042249 A JP2007042249 A JP 2007042249A JP 2007042249 A JP2007042249 A JP 2007042249A JP 2008206037 A JP2008206037 A JP 2008206037A
Authority
JP
Japan
Prior art keywords
image
document
feature
abnormality
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007042249A
Other languages
Japanese (ja)
Other versions
JP5056063B2 (en
Inventor
Hideaki Ashikaga
英昭 足利
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2007042249A priority Critical patent/JP5056063B2/en
Publication of JP2008206037A publication Critical patent/JP2008206037A/en
Application granted granted Critical
Publication of JP5056063B2 publication Critical patent/JP5056063B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To obtain an image processing apparatus and image processing program capable of easily excluding an abnormal document. <P>SOLUTION: On the basis of pre-postscript image data and post-postscript image data acquired by an image reader 30, an image processing apparatus 20 extracts a feature region including a predetermined feature in an image of each document, then derives a predetermined feature amount from the relevant feature region, and specifies the feature region in which similarity of the feature amount between images of each document is equal to or higher than a predetermined degree. When carrying out alignment processing over the entire image of each document to at least either the pre-postscript image data or the post-postscript image data, on the basis of at least one of the number of extracted feature regions in the images of pre-postscript and post-postscript documents, the number of specified feature regions and a physical quantity indicating position deviation between the images of the pre-postscript and post-postscript documents as a target of the alignment processing, presence/absence of abnormality in at least either the pre-postscript and post-postscript documents is determined. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、画像処理装置及び画像処理プログラムに関する。   The present invention relates to an image processing apparatus and an image processing program.

従来、帳票等の予め定められた原稿に対する追記箇所を特定するための技術として、特許文献1及び特許文献2には、追記前画像と追記後画像の位置合わせを行った後、追記前画像データと追記後画像データの単色化・二値化を行い、これによって得られた追記後画像データと追記前画像データとの間で所定演算を行うことにより追記箇所を抽出する技術が開示されている。   Conventionally, as a technique for specifying a location to be added to a predetermined document such as a form, Patent Literature 1 and Patent Literature 2 describe that before pre-recording and post-recording image alignment, And the post-recording image data are monochromatized and binarized, and a technique for extracting a postscript location by performing a predetermined calculation between the post-recording image data obtained thereby and the pre-recording image data is disclosed. .

また、特許文献3には、分割位置情報をバーコードに格納して印刷文書に付加し、それを元に領域分割及び位置合わせを実施して、差分を抽出することにより追記箇所を抽出する技術が開示されている。   Japanese Patent Application Laid-Open No. 2003-228688 describes a technique for extracting additional writing locations by storing divided position information in a barcode and adding it to a print document, performing region division and alignment based on the information, and extracting differences. Is disclosed.

また、特許文献4には、追記前後の画像を所定個数に分割し、各分割領域毎に画像の位置合わせを行った後、追記前画像を膨張させて、追記前画像データと追記後画像データの各画素単位で排他的論理和を算出することにより追記箇所を抽出する技術が開示されている。   Further, in Patent Document 4, the images before and after the additional recording are divided into a predetermined number, the images are aligned for each divided region, and then the image before the additional recording is expanded to obtain the image data before the additional recording and the image data after the additional recording. A technique for extracting a postscript location by calculating an exclusive OR for each pixel of the above is disclosed.

更に、特許文献5には、追記前文書の画像と追記後文書の画像とを取得し、両画像の位置合わせを行い、両画像を格子状の小領域に分割して各分割領域毎に黒字率、画像濃度の総和、及び色毎の濃度の総和を比較し、これによって追記がある分割領域を特定して、当該追記がある分割領域毎に両画像の再位置合わせ(微調整)を行い、当該微調整後の分割領域において、追記後画像から追記前画像を差し引くことにより追記画像を抽出する技術が開示されている。
特開2004−080601号公報 特開2004−240598号公報 特開2003−018393号公報 特開2004−341914号公報 特開2004−213230号公報
Further, in Patent Document 5, an image of a document before appending and an image of a document after appending are acquired, both the images are aligned, and both images are divided into grid-like small areas, and a black character is obtained for each divided area. The ratio, the sum of the image densities, and the sum of the densities for each color are compared, thereby identifying the divided areas with additional writing, and realigning (fine-tuning) both images for each divided area with the additional writing. In addition, a technique for extracting a postscript image by subtracting a pre-recording image from a post-recording image in the finely adjusted divided area is disclosed.
JP 2004-080601 A JP 2004-240598 A JP 2003-018393 A JP 2004-341914 A JP 2004-213230 A

本発明は、以上のような技術背景においてなされたものであり、簡易に異常な原稿を除外することのできる画像処理装置及び画像処理プログラムを提供することを目的とする。   The present invention has been made in the technical background as described above, and an object thereof is to provide an image processing apparatus and an image processing program that can easily exclude an abnormal document.

上記目的を達成するために、請求項1に記載の画像処理装置は、修正が行われる前の原稿である第1原稿の画像を示す第1画像情報、及び修正が行われた後の前記原稿である第2原稿の画像を示す第2画像情報を取得する取得手段と、前記第1画像情報及び前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における予め定められた特徴を有する特徴領域を抽出する抽出手段と、前記第1画像情報及び前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における前記特徴領域から予め定められた特徴量を導出する導出手段と、前記第1原稿の画像及び前記第2原稿の画像の間で前記特徴量の類似度が所定度合以上である前記特徴領域を特定する特定手段と、前記特定手段による特定結果に基づいて、前記第1画像情報及び前記第2画像情報の少なくとも一方に対して前記第1原稿の画像と前記第2原稿の画像の画像全体における位置合わせ処理を実行する位置合わせ手段と、前記抽出手段によって抽出された前記第1原稿の画像における特徴領域の数、前記抽出手段によって抽出された前記第2原稿の画像における特徴領域の数、前記特定手段によって特定された特徴領域の数、及び前記位置合わせ手段による位置合わせ処理の対象とされる前記第1原稿の画像と前記第2原稿の画像との間の位置ずれを示す物理量の少なくとも1つに基づいて、前記第1原稿及び前記第2原稿の少なくとも一方の異常の有無を判定する判定手段と、前記判定手段により異常があると判定された場合に当該異常によって生じる不具合の発生を防止するものとして予め定められた処理を実行する実行手段と、を備えている。   In order to achieve the above object, the image processing apparatus according to claim 1, the first image information indicating an image of a first document that is a document before correction is performed, and the document after correction is performed. Acquisition means for acquiring second image information indicating an image of the second document, and based on the first image information and the second image information, the first document image and the second document image in advance Based on extraction means for extracting a feature area having a predetermined feature, and the feature area in the image of the first document and the image of the second document based on the first image information and the second image information. Deriving means for deriving the obtained feature amount, identifying means for identifying the feature region in which the similarity of the feature amount is a predetermined degree or more between the image of the first document and the image of the second document, Based on specific results by specific means A positioning unit that executes a positioning process on the entire image of the first document image and the second document image with respect to at least one of the first image information and the second image information; and the extraction unit The number of feature areas in the image of the first document extracted by the above, the number of feature areas in the image of the second document extracted by the extraction means, the number of feature areas specified by the specifying means, and the position The first document and the second document are based on at least one of physical quantities indicating a positional deviation between the image of the first document and the image of the second document, which is a target of alignment processing by the aligning unit. And determining means for determining the presence or absence of at least one abnormality, and preventing occurrence of a malfunction caused by the abnormality when the determining means determines that there is an abnormality It includes an execution unit for executing predetermined processing as to the.

また、請求項2に記載の発明は、請求項1に記載の発明において、前記判定手段が、前記第1原稿の画像における特徴領域の数、前記第2原稿の画像における特徴領域の数、前記特定手段によって特定された特徴領域の数、及び前記物理量の少なくとも1つが、各々に対応するものとして予め定められた範囲内であるか否かを判定することにより前記異常の有無を判定し、前記実行手段が、前記判定手段により異常があると判定された場合に、当該異常があることを提示する処理を前記予め定められた処理として実行するものである。   According to a second aspect of the present invention, in the first aspect of the invention, the determination unit includes the number of feature regions in the image of the first document, the number of feature regions in the image of the second document, Determining the presence or absence of the abnormality by determining whether the number of feature regions specified by the specifying means and at least one of the physical quantities are within a predetermined range corresponding to each of the physical regions, When the execution means determines that there is an abnormality by the determination means, a process for presenting the presence of the abnormality is executed as the predetermined process.

また、請求項3に記載の発明は、請求項1に記載の発明において、前記導出手段により導出された前記第1原稿の画像と前記第2原稿の画像の何れか一方の画像の特徴量を、当該画像を90度、180度、及び270度の3種類の角度で回転させた場合の各々の特徴量に変換する変換手段を更に備え、前記特定手段が、前記導出手段によって導出された前記一方の画像の特徴量及び前記変換手段によって得られた3種類の特徴量の各特徴量と、他方の画像の特徴量との間の類似度が所定度合以上である前記特徴領域を特定し、前記判定手段が、前記特定手段によって特定された前記一方の画像及び前記他方の画像の組み合わせ毎の特徴領域の数の最大値が所定数以上であるか否かを判定することにより前記異常の有無を判定し、前記実行手段が、前記判定手段により異常があると判定された場合に、当該異常があることを提示する処理を前記予め定められた処理として実行し、前記判定手段により異常がないと判定された場合に、前記位置合わせ手段による位置合わせ処理を実行させる処理を前記予め定められた処理として実行するものである。   According to a third aspect of the present invention, in the first aspect of the present invention, the feature amount of one of the first document image and the second document image derived by the deriving unit is obtained. , Further comprising conversion means for converting the image into respective feature amounts when the image is rotated at three angles of 90 degrees, 180 degrees, and 270 degrees, and the specifying means is derived by the derivation means Identifying the feature region in which the similarity between the feature amount of one image and the feature amounts of the three types of feature amounts obtained by the converting means and the feature amount of the other image is a predetermined degree or more; Whether the abnormality is present or not by determining whether the maximum value of the number of feature regions for each combination of the one image and the other image specified by the specifying unit is equal to or greater than a predetermined number And the execution means When the determination means determines that there is an abnormality, the process of presenting the abnormality is executed as the predetermined process, and when the determination means determines that there is no abnormality, The process for executing the alignment process by the alignment means is executed as the predetermined process.

また、請求項4に記載の発明は、請求項1に記載の発明において、前記判定手段が、前記特定手段によって特定された特徴領域の数が所定数以上であるか否かを判定することにより前記異常の有無を判定し、前記実行手段が、前記判定手段により異常があると判定された場合に、前記第1原稿の画像及び前記第2原稿の画像の少なくとも一方を所定角度だけ回転させた状態として、再度前記特定手段及び前記判定手段による処理を実行させる処理を前記予め定められた処理として実行し、前記判定手段により異常がないと判定された場合に、前記位置合わせ手段による位置合わせ処理を実行させる処理を前記予め定められた処理として実行するものである。   According to a fourth aspect of the present invention, in the first aspect of the invention, the determining unit determines whether or not the number of feature regions specified by the specifying unit is a predetermined number or more. The presence / absence of the abnormality is determined, and when the execution unit determines that there is an abnormality by the determination unit, at least one of the image of the first document and the image of the second document is rotated by a predetermined angle. As the state, the processing for executing the processing by the specifying unit and the determination unit again is executed as the predetermined processing, and when it is determined by the determination unit that there is no abnormality, the alignment processing by the alignment unit Is executed as the predetermined process.

また、請求項5に記載の発明は、請求項1に記載の発明において、前記第1原稿及び前記第2原稿の少なくとも一方が、候補となる複数の原稿が存在するものであり、前記判定手段が、前記第1原稿の画像における特徴領域の数、前記第2原稿の画像における特徴領域の数、前記特定手段によって特定された特徴領域の数、及び前記物理量の少なくとも1つが、各々に対応するものとして予め定められた範囲内であるか否かを判定することにより前記異常の有無を判定し、前記実行手段が、前記判定手段により異常があると判定された場合に、前記複数の原稿の残りの原稿の何れかを適用して、前記取得手段、前記抽出手段、前記導出手段、前記特定手段、及び前記判定手段による処理を再度実行させる処理を前記予め定められた処理として実行し、前記判定手段により異常がないと判定された場合に、前記位置合わせ手段による位置合わせ処理を実行させる処理を前記予め定められた処理として実行するものである。   The invention according to claim 5 is the invention according to claim 1, wherein at least one of the first document and the second document includes a plurality of candidate documents, and the determination unit However, at least one of the number of feature areas in the image of the first document, the number of feature areas in the image of the second document, the number of feature areas specified by the specifying unit, and the physical quantity corresponds to each of The presence or absence of the abnormality is determined by determining whether or not it is within a predetermined range, and when the execution unit determines that there is an abnormality by the determination unit, the plurality of originals Applying any of the remaining manuscripts, processing that causes the processing by the acquisition unit, the extraction unit, the derivation unit, the specification unit, and the determination unit to be executed again is the predetermined process. And line, if it is determined that there is no abnormality by the determining means, and executes a process of executing the registration process by the positioning means as a processing said predetermined.

また、請求項6に記載の発明は、請求項1乃至請求項5の何れか1項記載の発明において、前記位置合わせ手段が、前記第1原稿の画像と前記第2原稿の画像のずれ量に基づいて補正係数を算出し、前記位置合わせ処理として前記補正係数を用いた前記第1画像情報及び前記第2画像情報の少なくとも一方に対する補正処理を実行するものであり、前記物理量が、前記補正係数であるものである。   According to a sixth aspect of the invention, in the invention according to any one of the first to fifth aspects of the invention, the positioning unit is configured to shift a deviation amount between the image of the first original and the image of the second original. A correction coefficient is calculated based on the correction coefficient, and a correction process is performed on at least one of the first image information and the second image information using the correction coefficient as the alignment process, and the physical quantity is the correction value. It is a coefficient.

更に、請求項7に記載の発明は、請求項1乃至請求項6の何れか1項記載の発明において、前記特定手段によって特定された特徴領域の数に代えて、当該特定領域の数と、前記抽出手段によって抽出された前記第1原稿の画像又は前記第2原稿の画像における特徴領域の数との比を用いるものである。   Furthermore, in the invention described in claim 7, in the invention described in any one of claims 1 to 6, in place of the number of feature areas specified by the specifying means, A ratio with the number of feature regions in the image of the first document or the image of the second document extracted by the extraction unit is used.

一方、上記目的を達成するために、請求項8に記載の画像処理プログラムは、修正が行われる前の原稿である第1原稿の画像を示す第1画像情報、及び修正が行われた後の前記原稿である第2原稿の画像を示す第2画像情報を取得する取得ステップと、前記第1画像情報及び前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における予め定められた特徴を有する特徴領域を抽出する抽出ステップと、前記第1画像情報及び前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における前記特徴領域から予め定められた特徴量を導出する導出ステップと、前記第1原稿の画像及び前記第2原稿の画像の間で前記特徴量の類似度が所定度合以上である前記特徴領域を特定する特定ステップと、前記特定ステップによる特定結果に基づいて、前記第1画像情報及び前記第2画像情報の少なくとも一方に対して前記第1原稿の画像と前記第2原稿の画像の画像全体における位置合わせ処理を実行する位置合わせステップと、前記抽出ステップによって抽出された前記第1原稿の画像における特徴領域の数、前記抽出ステップによって抽出された前記第2原稿の画像における特徴領域の数、前記特定ステップによって特定された特徴領域の数、及び前記位置合わせステップによる位置合わせ処理の対象とされる前記第1原稿の画像と前記第2原稿の画像との間の位置ずれを示す物理量の少なくとも1つに基づいて、前記第1原稿及び前記第2原稿の少なくとも一方の異常の有無を判定する判定ステップと、前記判定ステップにより異常があると判定された場合に当該異常によって生じる不具合の発生を防止するものとして予め定められた処理を実行する実行ステップと、をコンピュータに実行させるものである。   On the other hand, in order to achieve the above object, the image processing program according to claim 8 includes: first image information indicating an image of a first document that is a document before correction is performed; and after the correction is performed. An acquisition step for acquiring second image information indicating an image of the second document as the document, and an image of the first document and an image of the second document based on the first image information and the second image information An extraction step for extracting a feature region having a predetermined feature in the image, and, based on the first image information and the second image information, from the feature region in the image of the first document and the image of the second document A deriving step for deriving a predetermined feature amount, and a specifying step for identifying the feature region where the similarity of the feature amount is equal to or greater than a predetermined degree between the image of the first document and the image of the second document. The above A position for performing alignment processing on the entire image of the image of the first document and the image of the second document for at least one of the first image information and the second image information based on the identification result of the fixed step A matching step, the number of feature regions in the image of the first document extracted by the extraction step, the number of feature regions in the image of the second document extracted by the extraction step, and the feature specified by the specifying step Based on the number of areas and at least one of the physical quantities indicating the positional deviation between the image of the first document and the image of the second document that are to be subjected to the alignment process in the alignment step, the first A determination step for determining whether or not there is an abnormality in at least one of the first document and the second document, and if there is an abnormality in the determination step It is intended to execute an executing step of executing a predetermined processing as to prevent the occurrence of problems caused by the abnormal if it is constant, to a computer.

請求項1及び請求項8記載の発明によれば、本発明を適用しない場合に比較して、簡易に異常な原稿を除外することができる、という効果が得られる。   According to the first and eighth aspects of the present invention, it is possible to easily remove abnormal originals compared to the case where the present invention is not applied.

また、請求項2記載の発明によれば、本発明を適用しない場合に比較して、より簡易に異常な原稿を除外することができる、という効果が得られる。   In addition, according to the second aspect of the present invention, it is possible to easily remove an abnormal document more easily than when the present invention is not applied.

また、請求項3記載の発明によれば、第1画像情報及び第2画像情報を取得する際に第1原稿と第2原稿との間の上下方向が90度、180度、及び270度の何れかの角度だけずれている場合でも、自動的に上記上下方向を修正した上で画像処理を実行することができる、という効果が得られる。   According to the third aspect of the present invention, when the first image information and the second image information are acquired, the vertical direction between the first document and the second document is 90 degrees, 180 degrees, and 270 degrees. Even when the angle is shifted by any angle, an effect is obtained that the image processing can be executed after the vertical direction is automatically corrected.

また、請求項4記載の発明によれば、第1画像情報及び第2画像情報を取得する際に第1原稿と第2原稿との間の上下方向がずれている場合でも、自動的に上記上下方向を修正した上で画像処理を実行することができる、という効果が得られる。   According to the invention of claim 4, even when the vertical direction between the first document and the second document is shifted when the first image information and the second image information are acquired, the above-mentioned is automatically performed. An effect is obtained that image processing can be executed after correcting the vertical direction.

また、請求項5記載の発明によれば、第1原稿及び第2原稿の少なくとも一方に、候補となる複数の原稿が存在する場合でも、自動的に正しい原稿を選択的に適用して画像処理を実行することができる、という効果が得られる。   According to the fifth aspect of the present invention, even when a plurality of candidate originals exist in at least one of the first original and the second original, the correct original is automatically selectively applied to perform image processing. The effect that can be executed is obtained.

また、請求項6記載の発明によれば、本発明の物理量として本発明の位置合わせ処理において用いられる補正係数を兼用して適用することができる結果、より簡易に異常な原稿を除外することができる、という効果が得られる。   Further, according to the invention described in claim 6, as a physical quantity of the present invention, the correction coefficient used in the alignment processing of the present invention can also be applied, and as a result, an abnormal document can be more easily excluded. The effect of being able to be obtained is obtained.

更に、請求項7記載の発明によれば、本発明を適用しない場合に比較して、より高精度に異常な原稿を除外することができる、という効果が得られる。   Furthermore, according to the seventh aspect of the invention, it is possible to obtain an effect that an abnormal document can be excluded with higher accuracy than when the present invention is not applied.

以下、図面を参照して本発明の実施の形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

[第1の実施の形態]
図1には、本発明が適用された画像処理システム10の構成例が示されている。同図に示されるように、本実施の形態に係る画像処理システム10は、パーソナル・コンピュータ等の画像処理装置20と、スキャナ等の画像読取装置30とを備えている。画像処理装置20と画像読取装置30は電気的に接続されており、画像処理装置20は画像読取装置30による読み取りによって得られた画像データを画像読取装置30から取得することができる。
[First Embodiment]
FIG. 1 shows a configuration example of an image processing system 10 to which the present invention is applied. As shown in the figure, the image processing system 10 according to the present embodiment includes an image processing device 20 such as a personal computer and an image reading device 30 such as a scanner. The image processing device 20 and the image reading device 30 are electrically connected, and the image processing device 20 can acquire image data obtained by reading by the image reading device 30 from the image reading device 30.

本実施の形態に係る画像処理システム10は、手書きによる追記や押印等による追記が行われる前の原稿(以下、「追記前原稿」という。)と、当該追記が行われた後の原稿(以下、「追記後原稿」という。)を画像読取装置30によって読み取り、これによって得られた2つの画像データに基づき、画像処理装置20により、追記が行われた箇所を特定し、特定した箇所から追記された画像部分を検出する処理を行うものである。なお、以下では、追記前原稿の読み取りによって得られた画像データを「追記前画像データ」といい、追記後原稿の読み取りによって得られた画像データを「追記後画像データ」という。   The image processing system 10 according to the present embodiment includes a document before additional writing by handwriting or stamping (hereinafter referred to as “original document before adding”) and a document after the additional writing (hereinafter referred to as “original document”). , “Added document”) is read by the image reading device 30, and based on the two image data obtained by this, the image processing device 20 identifies the location where the additional recording has been performed, and appends from the identified location. The process which detects the image part performed is performed. In the following, image data obtained by reading a document before appending is referred to as “image data before appending”, and image data obtained by reading a document after appending is referred to as “image data after appending”.

本実施の形態に係る画像読取装置30は、読み取りによって得る画像データを、各画素値(画素情報)が複数ビット(本実施の形態では、8ビット)で構成されるものとして取得するものとされている。また、本実施の形態に係る画像処理システム10では、画像読取装置30として、読み取り対象とする原稿の画像をR(赤)、G(緑)、B(青)の3原色に分解して読み取るカラー・スキャナを適用している。なお、画像読取装置30としては、このような複数ビット構成のカラー・スキャナに限らず、複数ビット構成のモノクロ・スキャナ(所謂グレイスケール・モノクロ・スキャナ)、1ビット(2値)構成のカラー・スキャナ、1ビット構成のモノクロ・スキャナ等を適用することもできる。   The image reading device 30 according to the present embodiment acquires image data obtained by reading as each pixel value (pixel information) is composed of a plurality of bits (8 bits in the present embodiment). ing. In the image processing system 10 according to the present embodiment, the image reading apparatus 30 separates and reads an image of a document to be read into three primary colors R (red), G (green), and B (blue). A color scanner is applied. The image reading device 30 is not limited to such a multi-bit color scanner, but a multi-bit monochrome scanner (so-called grayscale monochrome scanner), a 1-bit (binary) color scanner. A scanner, a monochrome scanner having a 1-bit configuration, or the like can also be applied.

次に、図2を参照して、画像処理システム10において特に重要な役割を有する画像処理装置20の電気系の要部構成を説明する。   Next, with reference to FIG. 2, the main configuration of the electrical system of the image processing apparatus 20 having a particularly important role in the image processing system 10 will be described.

同図に示すように、本実施の形態に係る画像処理装置20は、画像処理装置20全体の動作を司るCPU(中央処理装置)20Aと、CPU20Aによる各種処理プログラムの実行時のワークエリア等として用いられるRAM(Random Access Memory)20Bと、各種制御プログラムや各種パラメータ等が予め記憶されたROM(Read Only Memory)20Cと、各種情報を記憶するために用いられる記憶手段であるハードディスク20Dと、各種情報を入力するために用いられるキーボード20Eと、各種情報を表示するために用いられるディスプレイ20Fと、外部装置との各種情報の授受を司る入出力インタフェース(I/F)20Gと、が備えられており、これら各部はシステムバスBUSにより電気的に相互に接続されている。ここで、入出力インタフェース20Gには、前述した画像読取装置30が接続されている。   As shown in the figure, the image processing apparatus 20 according to the present embodiment includes a CPU (central processing unit) 20A that controls the operation of the entire image processing apparatus 20, and a work area when the CPU 20A executes various processing programs. A RAM (Random Access Memory) 20B, a ROM (Read Only Memory) 20C in which various control programs, various parameters, and the like are stored in advance, a hard disk 20D that is a storage means used for storing various information, and various types A keyboard 20E used for inputting information, a display 20F used for displaying various types of information, and an input / output interface (I / F) 20G for exchanging various types of information with external devices are provided. These units are electrically connected to each other by a system bus BUS. Here, the image reading device 30 described above is connected to the input / output interface 20G.

従って、CPU20Aは、RAM20B、ROM20C、及びハードディスク20Dに対するアクセス、キーボード20Eを介した各種入力情報の取得、ディスプレイ20Fに対する各種情報の表示、及び入出力インタフェース20Gを介した画像読取装置30との各種情報の授受を、各々行うことができる。   Accordingly, the CPU 20A accesses the RAM 20B, ROM 20C and hard disk 20D, acquires various input information via the keyboard 20E, displays various information on the display 20F, and various information with the image reading device 30 via the input / output interface 20G. Can be exchanged.

図3は、本実施の形態に係る画像処理装置20の機能的な構成を示す機能ブロック図である。   FIG. 3 is a functional block diagram showing a functional configuration of the image processing apparatus 20 according to the present embodiment.

同図に示されるように、本実施の形態に係る画像処理装置20は、第1位置合わせ部21と、第2位置合わせ部22と、追記検出部23と、記憶部24と、追記領域選択部25と、異常検出部26と、異常通知部27とを備えている。   As shown in the figure, the image processing apparatus 20 according to the present embodiment includes a first alignment unit 21, a second alignment unit 22, an additional recording detection unit 23, a storage unit 24, and an additional recording area selection. Unit 25, abnormality detection unit 26, and abnormality notification unit 27.

なお、上記第1位置合わせ部21は、追記前画像データ及び追記後画像データの少なくとも一方に対して、追記前画像データにより示される追記前画像と、追記後画像データにより示される追記後画像との間で、画像読取装置30において読み取る際の追記前原稿と追記後原稿の傾斜角の違いや、読み取り環境の違い等に起因して画像全体に対して発生する、対応する画素の位置のずれを補正する位置合わせ処理を実行する。なお、本実施の形態に係る第1位置合わせ部21では、追記前画像データ及び追記後画像データに基づいて、追記前画像及び追記後画像における予め定められた特徴(本実施の形態では、2値化画像データにおける黒画素の連結画像及び白画素の連結画像)を有する特徴領域を抽出し、追記前画像及び追記後画像の対応する特徴領域同士が重なり合うように、追記前画像データ及び追記後画像データの少なくとも一方を変換する。   The first alignment unit 21 has an image before additional recording indicated by the image data before additional recording and an image after additional recording indicated by the image data after additional recording for at least one of the image data before additional recording and the image data after additional recording. Between the positions of the corresponding pixels that occur with respect to the entire image due to the difference in the inclination angle between the original document after the additional recording and the original document after the additional recording, the reading environment, or the like. Alignment processing for correcting is performed. In the first alignment unit 21 according to the present embodiment, based on the pre-addition image data and the post-addition image data, predetermined characteristics (in the present embodiment, 2 (A connected image of black pixels and a connected image of white pixels in the valued image data) is extracted, and before-addition image data and after-addition so that corresponding feature regions of the before-addition image and after-addition image overlap each other. At least one of the image data is converted.

ここで、本実施の形態に係る第1位置合わせ部21では、当該変換として、追記前画像データ及び追記後画像データの何れか一方に対してアフィン変換を行うことによる変換を適用しているが、これに限らず、追記前画像データ及び追記後画像データの何れか一方に対する共一次変換、一次等角変換、二次等角変換、射影変換、拡大・縮小、回転、平行移動等の他の従来既知の変換手法を適用する形態とすることもできる。   Here, in the first alignment unit 21 according to the present embodiment, the conversion is performed by performing affine transformation on either one of the pre-addition image data and the post-addition image data. However, the present invention is not limited to this, but the bilinear transformation, the primary conformal transformation, the secondary equiangular transformation, the projective transformation, enlargement / reduction, rotation, translation, etc. for any one of the pre-append image data and the post-append image data A conventionally known conversion method may be applied.

ところで、第1位置合わせ部21による画像の位置合わせでは、画像読取装置30による画像読み取り時においてスキャン速度のむらや、光学系のひずみ等に起因して発生する追記前画像及び追記後画像の局所的なひずみまで補正(位置合わせ)することは困難である。   By the way, in the image alignment by the first alignment unit 21, local images of the pre-recorded image and the post-recorded image generated due to uneven scanning speed, distortion of the optical system, etc. when the image is read by the image reading device 30. It is difficult to correct (align) up to a large distortion.

そこで、上記第2位置合わせ部22は、後述する追記領域選択部25により、第1位置合わせ部21によって抽出された特徴領域から選択された追記領域のみを対象として、追記前画像データ及び追記後画像データの少なくとも一方に対し、追記前画像及び追記後画像との間で対応する画素の位置のずれを補正する位置合わせ処理を実行する。   Therefore, the second alignment unit 22 targets only the additional region selected from the feature region extracted by the first alignment unit 21 by the additional region selection unit 25 to be described later and the post-addition image data. An alignment process for correcting a shift of the corresponding pixel position between the pre-recording image and the post-recording image is performed on at least one of the image data.

なお、本実施の形態に係る第2位置合わせ部22では、パターン・マッチング処理により、対応する画素の位置ずれを極力なくすように、追記前画像データ及び追記後画像データの少なくとも一方を変換する。   Note that the second alignment unit 22 according to the present embodiment converts at least one of the image data before additional recording and the image data after additional recording so as to eliminate the positional deviation of the corresponding pixel as much as possible by the pattern matching process.

ここで、本実施の形態に係る第2位置合わせ部22では、当該変換として、追記前画像データ及び追記後画像データの対応する追記領域間の相関係数を算出し、当該相関係数が最も高くなるように追記前画像及び追記後画像の少なくとも一方を平行移動する変換を適用しているが、これに限らず、追記前画像データ及び追記後画像データの何れか一方に対するアフィン変換、共一次変換、一次等角変換、二次等角変換、射影変換、拡大・縮小、回転、平行移動等の他の従来既知の変換手法を適用する形態とすることもできる。   Here, in the second alignment unit 22 according to the present embodiment, as the conversion, the correlation coefficient between the additional recording areas corresponding to the image data before additional recording and the image data after additional recording is calculated, and the correlation coefficient is the highest. Applying a transformation that translates at least one of the pre-recording image and post-recording image so as to increase, but not limited to this, affine transformation, bilinear for either pre-recording image data or post-recording image data Other conventionally known conversion methods such as transformation, primary equiangular transformation, secondary equiangular transformation, projective transformation, enlargement / reduction, rotation, translation, etc. may be applied.

一方、上記追記検出部23は、第2位置合わせ部22によって追記領域に対する位置合わせ処理が実行された、当該追記領域に対応する追記前画像データ及び追記後画像データに基づいて、追記の画像を検出し、検出結果を示す情報を記憶部24に記憶する。   On the other hand, the additional recording detection unit 23 performs an additional recording image based on the pre-recording image data and post-recording image data corresponding to the additional recording region, for which the second alignment unit 22 performed the alignment process on the additional recording region. Information is detected and information indicating the detection result is stored in the storage unit 24.

なお、本実施の形態に係る追記検出部23では、上記追記の画像の検出を、追記領域に対応する追記前画像データに対して、当該追記前画像データにより示される画像に対する予め定められたドット数(一例として、1ドット)の画像膨張処理を施した後、当該追記前画像データを、追記後画像データから、対応する画素毎で、かつR,G,Bの各々別に減算することにより行っているが、これに限らず、例えば、上記画像膨張処理を行わずに当該減算を行うことにより行う形態や、当該減算として、追記領域に対応する追記前画像データから追記後画像データを、対応する画素毎で、かつR,G,Bの各々別に減算する処理を適用する形態、二値化された追記前画像データ及び追記後画像データの対応する画素毎の差分を算出することにより行う形態等の、他の従来既知の追記検出処理を適用する形態とすることもできる。   In the additional recording detection unit 23 according to the present embodiment, detection of the additional recording image is performed with respect to the pre-recording image data corresponding to the additional recording area with predetermined dots for the image indicated by the pre-addition image data. After performing image expansion processing for a number (for example, 1 dot), the image data before additional recording is subtracted from the image data after additional recording for each corresponding pixel and for each of R, G, and B. However, the present invention is not limited to this, for example, the form that is performed by performing the subtraction without performing the image expansion processing, or the post-recording image data corresponding to the post-recording image data corresponding to the additional recording area as the subtraction. By applying a process of subtracting each of R, G, and B separately for each pixel to be processed, calculating a difference for each corresponding pixel in the binarized pre-addition image data and post-addition image data It may also be in the form of applying such form performing other conventional known write-once detection process.

また、上記追記領域選択部25は、第1位置合わせ部21によって抽出された特徴領域のうち、追記が行われた特徴領域である追記領域を選択し、選択した追記領域を示す追記領域情報を第2位置合わせ部22及び追記検出部23に出力する。   Further, the additional recording area selection unit 25 selects the additional recording area that is the feature area where the additional recording has been performed from the feature areas extracted by the first alignment unit 21, and adds additional recording area information indicating the selected additional recording area. The data is output to the second alignment unit 22 and the postscript detection unit 23.

更に、上記異常検出部26は、第1位置合わせ部21によって導出された各種情報に基づいて追記前原稿及び追記後原稿の少なくとも一方に異常があるか否かを判定し、判定結果を示す情報(以下、「異常判定情報」という。)を上記異常通知部27に出力する。   Further, the abnormality detection unit 26 determines whether or not there is an abnormality in at least one of the original document after appending and the original document after appending based on various information derived by the first alignment unit 21, and indicates the determination result. (Hereinafter referred to as “abnormality determination information”) is output to the abnormality notification unit 27.

そして、当該異常通知部27は、異常検出部26から上記異常判定情報が入力されると、当該異常判定情報が、異常があることを示す場合に、当該異常があることを提示する処理を実行するものである。なお、本実施の形態に係る異常通知部27では、上記異常があることを提示する処理として、ディスプレイ20Fにより異常がある旨を示すメッセージを表示する処理を適用しているが、これに限らず、例えば、他の装置やプログラムに異常がある旨を通知する処理、音声再生装置によって異常がある旨を示す音声を発する処理等の、異常がある旨を提示する他の処理を適用することもできる。   Then, when the abnormality determination information is input from the abnormality detection unit 26, the abnormality notification unit 27 executes a process of presenting the abnormality when the abnormality determination information indicates that there is an abnormality. To do. In addition, in the abnormality notification part 27 which concerns on this Embodiment, although the process which displays the message which shows that there exists abnormality on the display 20F is applied as a process which shows that there exists the said abnormality, it is not restricted to this. For example, other processes that indicate that there is an abnormality, such as a process that notifies that there is an abnormality in another apparatus or program, a process that emits a sound indicating that there is an abnormality by the audio reproduction apparatus, or the like may be applied. it can.

次に、図4を参照して、本実施の形態に係る第1位置合わせ部21の構成について説明する。   Next, with reference to FIG. 4, the structure of the 1st position alignment part 21 which concerns on this Embodiment is demonstrated.

同図に示されるように、本実施の形態に係る第1位置合わせ部21は、一対の特徴領域抽出部21A,21Bと、対応付部21Cと、補正パラメータ算出部21Dと、画像変換部21Eとを備えている。   As shown in the figure, the first alignment unit 21 according to the present embodiment includes a pair of feature region extraction units 21A and 21B, an association unit 21C, a correction parameter calculation unit 21D, and an image conversion unit 21E. And.

なお、上記特徴領域抽出部21Aは追記前画像データが、上記特徴領域抽出部21Bは追記後画像データが、各々入力されるものであり、特徴領域抽出部21A,21Bは、入力された画像データに基づいて、追記前画像及び追記後画像における前述した予め定められた特徴(本実施の形態では、2値化画像データにおける黒画素の連結画像及び白画素の連結画像)を有する特徴領域を抽出した後、当該特徴領域から予め定められた特徴量(本実施の形態では、後述する重心位置、大きさ、画素数、筆跡長(図8も参照。))を、入力された画像データに基づいて導出し、特徴領域情報として出力する。   The feature region extraction unit 21A receives pre-addition image data, the feature region extraction unit 21B receives post-addition image data, and the feature region extraction units 21A and 21B input image data. Based on the above, a feature region having the above-described predetermined feature (in this embodiment, a connected image of black pixels and a connected image of white pixels) in the pre-recorded image and the post-recorded image is extracted. After that, a predetermined feature amount (in this embodiment, a center of gravity position, a size, the number of pixels, and a handwriting length (see also FIG. 8)), which is determined in advance from the feature region, is based on the input image data. And output as feature area information.

また、上記対応付部21Cは、追記前画像及び追記後画像の間で、特徴領域抽出部21A,21Bから出力された特徴領域情報により示される特徴量の類似度が所定度合以上である特徴領域の対を特定し、特定した特徴領域の対を対応付ける特定特徴領域情報を作成して出力する。   In addition, the association unit 21C has a feature region in which the similarity of the feature amount indicated by the feature region information output from the feature region extraction units 21A and 21B is greater than or equal to a predetermined degree between the pre-recording image and the post-recording image. Specific feature region information is created and output. The specific feature region information is associated with the specified feature region pair.

また、上記補正パラメータ算出部21Dは、対応付部21Cから出力された特定特徴領域情報により示される、対応する特徴領域のずれ量に基づいて、追記前画像及び追記後画像の全体的なずれをなくするための補正係数を算出する。そして、上記画像変換部21Eは、補正パラメータ算出部21Dによって算出された補正係数を用いて、追記前画像データ又は追記後画像データ(ここでは、追記後画像データ)に対し、追記前画像及び追記後画像の全体的な位置合わせを行うための画像変換(ここでは、アフィン変換)を実行する。   In addition, the correction parameter calculation unit 21D calculates the overall shift between the pre-addition image and the post-addition image based on the shift amount of the corresponding feature region indicated by the specific feature region information output from the association unit 21C. A correction coefficient for eliminating it is calculated. Then, the image conversion unit 21E uses the correction coefficient calculated by the correction parameter calculation unit 21D, and the pre-additional image and the additional recording for the pre-additional image data or the post-additional image data (here, the post-additional image data). Image transformation (here, affine transformation) for performing overall alignment of the subsequent image is executed.

なお、アフィン変換に適用する補正係数は、幅方向移動量、縦方向移動量、回転角、及び倍率である。補正係数は、一方の画像(ここでは、追記後画像)に対して補正係数に基づく変換を実行した場合に、追記前画像及び追記後画像の対応する特徴領域の重心位置の誤差が最も小さくなる値として算出される。具体的には、例えば、最小二乗法を適用して、追記前画像及び追記後画像の対応する特徴領域の重心位置の誤差の総和が最も小さくなる補正係数として幅方向移動量、縦方向移動量、回転角、及び倍率の各値を求める。なお、最小二乗法を適用した補正係数の算出手法については、一例として特開平9−93431号公報に記載されている。   The correction coefficients applied to the affine transformation are the width direction movement amount, the vertical direction movement amount, the rotation angle, and the magnification. As for the correction coefficient, when conversion based on the correction coefficient is performed on one image (here, the post-recording image), the error of the centroid position of the corresponding feature region of the pre-recording image and the post-recording image becomes the smallest. Calculated as a value. Specifically, for example, by applying the least square method, the movement amount in the width direction and the movement amount in the vertical direction are the correction coefficients that minimize the sum of the errors of the centroid positions of the corresponding feature regions of the pre-addition image and the post-addition image. , Rotation angle, and magnification are obtained. A method for calculating a correction coefficient using the least square method is described in Japanese Patent Laid-Open No. 9-93431 as an example.

そして、本実施の形態に係る追記領域選択部25では、特徴領域抽出部21Aから出力された追記前画像に対応する特徴領域情報、特徴領域抽出部21Bから出力された追記後画像に対応する特徴領域情報、及び対応付部21Cから出力された特定特徴領域情報に基づいて、特徴領域抽出部21A,21Bによって抽出された特徴領域のうち、特定特徴領域情報により示される特徴領域に含まれない特徴領域を追記が行われた領域である追記領域として選択し、選択した追記領域を示す追記領域情報を作成して第2位置合わせ部22及び追記検出部23に出力する。   Then, in the additional area selection unit 25 according to the present embodiment, the characteristic area information corresponding to the pre-additional image output from the characteristic area extraction unit 21A and the characteristic corresponding to the post-additional image output from the characteristic area extraction unit 21B. Features not included in the feature region indicated by the specific feature region information among the feature regions extracted by the feature region extraction units 21A and 21B based on the region information and the specific feature region information output from the association unit 21C The area is selected as the additional recording area, which is the area where the additional recording has been performed, and additional recording area information indicating the selected additional recording area is created and output to the second alignment unit 22 and the additional recording detection unit 23.

なお、本実施の形態に係る追記領域選択部25では、上記追記領域の選択を、特徴領域抽出部21Bによって抽出された追記後画像における特徴領域のうち、特定特徴領域情報により示される特徴領域に含まれない特徴領域を追記領域として選択することにより行っているが、これに限らず、特徴領域抽出部21Aによって抽出された追記前画像における特徴領域のうち、特定特徴領域情報により示される特徴領域に含まれない特徴領域を追記領域として選択することにより行う形態とすることもできる。   In the additional area selection unit 25 according to the present embodiment, the additional area selection is performed on the characteristic area indicated by the specific characteristic area information among the characteristic areas in the post-recording image extracted by the characteristic area extraction unit 21B. This is performed by selecting a feature area that is not included as an additional recording area. However, the present invention is not limited to this, and the feature area indicated by the specific feature area information among the feature areas in the pre-additional image extracted by the feature area extraction unit 21A. It is also possible to adopt a form in which the feature region not included in the item is selected as the additional recording region.

また、本実施の形態に係る異常検出部26では、特徴領域抽出部21Aから出力された特徴領域情報、特徴領域抽出部21Bから出力された特徴領域情報、対応付部21Cから出力された特定特徴領域情報、及び補正パラメータ算出部21Dから出力された補正係数に基づいて、追記前原稿及び追記後原稿の少なくとも一方に異常があるか否かを判定し、この結果を示す異常判定情報を異常通知部27に出力する。   In the abnormality detection unit 26 according to the present embodiment, the feature region information output from the feature region extraction unit 21A, the feature region information output from the feature region extraction unit 21B, and the specific feature output from the association unit 21C Based on the area information and the correction coefficient output from the correction parameter calculation unit 21D, it is determined whether or not there is an abnormality in at least one of the pre-addition original and the post-addition original, and abnormality determination information indicating the result is notified of abnormality. To the unit 27.

なお、本実施の形態に係る異常検出部26では、特徴領域抽出部21Aから出力された特徴領域情報により示される追記前画像における特徴領域の数、特徴領域抽出部21Bから出力された追記後画像における特徴領域情報により示される特徴領域の数、対応付部21Cから出力された特定特徴領域情報により示される、特徴領域抽出部21A,21Bから出力された特徴領域情報により示される特徴量の類似度が所定度合以上である特徴領域の対の数、及び補正パラメータ算出部21Dから出力された補正係数の少なくとも1つが、各々に対応するものとして予め定められた範囲内であるか否かを判定することにより、上記異常の有無を判定するものとされている。   In the anomaly detection unit 26 according to the present embodiment, the number of feature regions in the pre-addition image indicated by the feature region information output from the feature region extraction unit 21A and the post-addition image output from the feature region extraction unit 21B The number of feature areas indicated by the feature area information and the similarity of the feature quantity indicated by the feature area information output from the feature area extraction units 21A and 21B indicated by the specific feature area information output from the association unit 21C It is determined whether or not at least one of the number of feature region pairs whose A is greater than or equal to a predetermined degree and the correction coefficient output from the correction parameter calculation unit 21D is within a predetermined range corresponding to each of them. Thus, the presence or absence of the abnormality is determined.

次に、図5を参照して、本実施の形態に係る特徴領域抽出部21A,21Bの構成について説明する。なお、特徴領域抽出部21A及び特徴領域抽出部21Bは入力される画像データが異なるのみで同一の構成とされているため、ここでは、特徴領域抽出部21Aの構成について説明する。   Next, with reference to FIG. 5, the structure of the feature area extraction units 21A and 21B according to the present embodiment will be described. Note that the feature region extraction unit 21A and the feature region extraction unit 21B have the same configuration except that the input image data is different. Therefore, the configuration of the feature region extraction unit 21A will be described here.

同図に示されるように、本実施の形態に係る特徴領域抽出部21Aは、前処理部40と、連結領域抽出部42と、重心算出部44と、特徴量算出部46とを備えている。   As shown in the figure, the feature region extraction unit 21A according to the present embodiment includes a preprocessing unit 40, a connected region extraction unit 42, a centroid calculation unit 44, and a feature amount calculation unit 46. .

なお、上記前処理部40は、入力された追記前画像データに対して、単色化処理及び二値化処理を実行する。ここで、上記単色化処理は、追記前画像データを輝度情報のみの画素データとする処理である。また、上記二値化処理は、単色化処理によって得られた単色画像を所定の閾値レベルで1(黒)又は0(白)の何れかの値に変換する処理である。なお、入力画像がモノクロ画像である場合は、上記単色化処理を省略することができる。   Note that the pre-processing unit 40 performs monochromatic processing and binarization processing on the input pre-recording image data. Here, the monochromatic process is a process in which the pre-addition image data is converted to pixel data of only luminance information. The binarization process is a process for converting a monochrome image obtained by the monochrome process into a value of 1 (black) or 0 (white) at a predetermined threshold level. Note that when the input image is a monochrome image, the monochromatic processing can be omitted.

また、上記連結領域抽出部42は、前処理部40によって二値化処理が施された追記前画像データに対して、前記特徴領域として連結領域を抽出する連結領域抽出処理を実行する。なお、上記連結領域抽出処理は、一例として特開平12−295438号公報に記載されている手法等を適用して実行することができる。ここで、連結領域(特徴領域)は二値化画像における黒画素の連続領域(黒ラン)、或いは黒画素ではない白画素の連続領域(白ラン)として抽出される。上記連結領域抽出処理は、例えば、予め抽出条件として、所定の大きさ(面積又は画素数)の範囲(最小、最大)を設定し、その範囲にある連続する同一画素値の領域等、予め定められた設定条件に基づいて実行される。   The connected region extracting unit 42 performs a connected region extracting process for extracting a connected region as the feature region on the pre-additional image data that has been binarized by the preprocessing unit 40. In addition, the said connection area | region extraction process can be performed applying the method etc. which are described in Unexamined-Japanese-Patent No. 12-295438 as an example. Here, the connected region (feature region) is extracted as a continuous region (black run) of black pixels in the binarized image or a continuous region (white run) of white pixels that are not black pixels. In the connected region extraction processing, for example, a range (minimum, maximum) of a predetermined size (area or number of pixels) is set in advance as an extraction condition, and a region of continuous identical pixel values in the range is determined in advance. It is executed based on the set conditions.

ここで、図6を参照して、上記連結領域抽出処理によって抽出される連結領域の具体例について説明する。   Here, with reference to FIG. 6, the specific example of the connection area | region extracted by the said connection area | region extraction process is demonstrated.

同図には、二値化処理が施された追記前画像80と追記後画像90とが示されている。これらの画像から、一定条件の下に黒画素の連続領域(黒ラン)を有する画像データや白画素の連続領域(白ラン)を有する画像データを連結領域として抽出する。同図に示す例では、追記前画像80から黒文字画像である‘A’、‘B’と白抜き文字画像である‘A’が、連結領域81〜83として抽出され、追記後画像90から黒文字画像である‘A’、‘B’と白抜き文字画像である‘A’が、連結領域91〜93として抽出された例が示されている。なお、実際の処理において抽出される連結領域のデータ数は、設計条件にもよるが、数百〜数千個単位のデータの抽出が行われる。   In the figure, a pre-recording image 80 and a post-recording image 90 that have been binarized are shown. From these images, image data having a continuous region of black pixels (black run) and image data having a continuous region of white pixels (white run) are extracted as connected regions under certain conditions. In the example shown in the figure, black character images “A” and “B” and white character images “A” are extracted from the pre-addition image 80 as connected regions 81 to 83, and black characters are extracted from the post-addition image 90. An example in which “A” and “B” as images and “A” as an outline character image are extracted as connected regions 91 to 93 is shown. Note that the number of data in the connected area extracted in the actual processing is extracted in units of hundreds to thousands, although it depends on the design conditions.

更に、上記重心算出部44は、連結領域抽出部42によって抽出された連結領域(特徴領域)の重心を算出し、上記特徴量算出部46は、各連結領域の特徴量(ここでは、大きさ、画素数、筆跡長)を算出する。なお、本実施の形態では、重心算出部44と特徴量算出部46とを区別しているが、重心も連結領域の1つの特徴量として、特徴量算出部46において算出する構成としてもよいことは言うまでもない。   Further, the center of gravity calculation unit 44 calculates the center of gravity of the connected region (feature region) extracted by the connected region extraction unit 42, and the feature amount calculation unit 46 calculates the feature amount (here, the size) of each connected region. , Number of pixels, handwriting length). In the present embodiment, the centroid calculating unit 44 and the feature amount calculating unit 46 are distinguished from each other. However, the feature amount calculating unit 46 may calculate the centroid as one feature amount of the connected region. Needless to say.

次に、図7及び図8を参照して、連結領域から求められる重心及び特徴量について説明する。図7に示す文字‘A’が、例えば追記前画像80から抽出された1つの連結領域70である。図8は、追記前画像80と追記後画像90とから抽出された連結領域についての重心と特徴量の各情報からなるテーブルを示している。   Next, with reference to FIGS. 7 and 8, the center of gravity and the feature amount obtained from the connected region will be described. The character ‘A’ shown in FIG. 7 is, for example, one connected region 70 extracted from the pre-additional image 80. FIG. 8 shows a table made up of information on the center of gravity and feature amounts for the connected regions extracted from the pre-recording image 80 and post-recording image 90.

まず、図7を参照して、連結領域70の重心及び特徴量の詳細について説明する。   First, with reference to FIG. 7, details of the center of gravity and the feature amount of the connection region 70 will be described.

重心72は、連結領域としての文字A70の重心位置を示す情報であり、例えば、追記前画像80をXY座標面とした場合の座標データ(x,y)として算出する(図8も参照。)。   The centroid 72 is information indicating the position of the centroid of the character A70 as a connected area, and is calculated as, for example, coordinate data (x, y) when the pre-append image 80 is an XY coordinate plane (see also FIG. 8). .

また、大きさは、図7に示される連結領域70を外接するように囲む外接矩形74の幅L及び高さHにより‘L,H’として求める。また、画素数は、連結領域70自体の構成全画素数として算出する。更に、筆跡長は、図7に示すように、連結領域70を細線化して、幅が1画素の線として変換した連結領域細線化データ76における構成画素数として算出する。   The size is obtained as ‘L, H’ by the width L and the height H of the circumscribed rectangle 74 that circumscribes the connecting region 70 shown in FIG. 7. Further, the number of pixels is calculated as the total number of pixels of the connection region 70 itself. Further, as shown in FIG. 7, the handwriting length is calculated as the number of constituent pixels in the connection region thinning data 76 obtained by thinning the connection region 70 and converting it as a line having a width of one pixel.

重心算出部44及び特徴量算出部46は、比較対象となる追記前画像80と追記後画像90から、連結領域抽出部42によって抽出された連結領域(特徴領域)の各々について、重心位置と、上記大きさ、画素数、筆跡長等が含まれた特徴量情報とを算出し、一例として図8に示されるように、追記前画像80に対応する特徴領域情報50Aと、追記後画像90に対応する特徴領域情報50Bとして整理する。同図に示されるように、追記前画像80と追記後画像90の各々から抽出された各連結領域について唯一無二のID(Identification)が付与され、当該IDによって対応付けられるように、各連結領域の重心位置と、特徴量、すなわち、大きさ、画素数、筆跡長の各情報が特徴領域情報としてハードディスク20D等の記憶手段により記録される。   The center-of-gravity calculation unit 44 and the feature amount calculation unit 46, for each of the connected regions (feature regions) extracted by the connected region extraction unit 42 from the pre-addition image 80 and the post-addition image 90 to be compared, The feature amount information including the size, the number of pixels, the handwriting length, and the like is calculated. As shown in FIG. 8 as an example, the feature region information 50A corresponding to the pre-addition image 80 and the post-addition image 90 are displayed. The corresponding feature area information 50B is organized. As shown in the figure, each connection area extracted from each of the pre-recording image 80 and post-recording image 90 is given a unique ID (Identification), and each connection area is associated with the ID. The information on the center of gravity of the area and the feature amount, that is, the size, the number of pixels, and the handwriting length are recorded as feature area information by a storage unit such as the hard disk 20D.

ところで、本実施の形態に係る対応付部21C(図4参照。)は、前述したように、追記前画像及び追記後画像の間で、特徴領域抽出部21A,21Bから出力された特徴領域情報により示される特徴量の類似度が所定度合以上である特徴領域の対を特定し、特定した特徴領域の対を対応付ける特定特徴領域情報を作成する。   Incidentally, the association unit 21C (see FIG. 4) according to the present embodiment, as described above, includes the feature region information output from the feature region extraction units 21A and 21B between the pre-addition image and the post-addition image. A feature region pair whose feature quantity similarity indicated by is equal to or greater than a predetermined degree is specified, and specific feature region information for associating the specified feature region pair is created.

ここで、対応付部21Cでは、一例として、特徴領域抽出部21Aによって記録された特徴領域情報50Aと特徴領域抽出部21Bによって記録された特徴領域情報50Bを入力し、両特徴領域情報に記録された情報に基づくパターン・マッチング処理を行い、この結果に基づいて特定特徴領域情報を作成する。   Here, as an example, the association unit 21C inputs the feature region information 50A recorded by the feature region extraction unit 21A and the feature region information 50B recorded by the feature region extraction unit 21B, and is recorded in both feature region information. Pattern matching processing based on the obtained information is performed, and specific feature region information is created based on the result.

なお、本実施の形態に係る対応付部21Cでは、追記前画像及び追記後画像の何れか一方の画像から抽出した特徴領域の重心位置から予め定められた距離内に重心位置が位置する他方の画像の特徴領域を、各特徴領域情報における重心位置に基づいて特定することにより、類似度が所定度合以上である特徴領域の候補となる特徴領域を絞り込み、絞り込んだ特徴領域のみを対象として、各特徴領域情報における特徴量(大きさ、画素数、筆跡長)の少なくとも1つの情報の類似度を算出し、当該類似度が所定度合以上となる特徴領域の対を示す情報を特定特徴領域情報として作成する。なお、本実施の形態では、上記類似度として、適用した特徴量間の距離(一例として、ユークリッド距離)の逆数を適用しているが、これに限らず、追記前画像及び追記後画像の各特徴領域情報により示される特徴量の類似の度合を示すものであれば如何なるものも適用できることは言うまでもない。   In addition, in the associating unit 21C according to the present embodiment, the other center where the center of gravity is located within a predetermined distance from the center of gravity of the feature region extracted from one of the pre-recording image and post-recording image. By specifying the feature region of the image based on the barycentric position in each feature region information, the feature regions that are candidates for feature regions having a similarity equal to or higher than a predetermined degree are narrowed down, and only the narrowed feature regions are targeted. The similarity of at least one piece of information of the feature amount (size, number of pixels, handwriting length) in the feature region information is calculated, and information indicating a pair of feature regions whose similarity is equal to or higher than a predetermined degree is used as the specific feature region information. create. In the present embodiment, the reciprocal of the distance between applied feature amounts (for example, Euclidean distance) is applied as the similarity, but the present invention is not limited to this, and each of the pre-append image and post-append image Needless to say, any method can be used as long as it indicates the degree of similarity of the feature amount indicated by the feature region information.

図9には、本実施の形態に係る特定特徴領域情報のデータ構造の一例が模式的に示されている。同図に示されるように、本実施の形態に係る対応付部21Cでは、類似度が所定度合以上となった追記前画像及び追記後画像の各特徴領域に付与されたIDが対応付けられたものとして特定特徴領域情報を作成する。   FIG. 9 schematically shows an example of the data structure of the specific feature area information according to the present embodiment. As shown in the figure, in the associating unit 21C according to the present embodiment, the IDs assigned to the feature regions of the pre-recording image and the post-recording image whose similarity is equal to or higher than a predetermined degree are associated with each other. Specific feature region information is created as a thing.

なお、以上のように構成された画像処理装置20の各構成要素(第1位置合わせ部21、第2位置合わせ部22、追記検出部23、追記領域選択部25、異常検出部26、異常通知部27)による処理は、プログラムを実行することにより、コンピュータを利用してソフトウェア構成により実現することができる。この場合、当該プログラムに本発明の画像処理プログラムが含まれることになる。但し、ソフトウェア構成による実現に限られるものではなく、ハードウェア構成や、ハードウェア構成とソフトウェア構成の組み合わせによって実現することもできることは言うまでもない。   Each component of the image processing apparatus 20 configured as described above (the first alignment unit 21, the second alignment unit 22, the additional recording detection unit 23, the additional recording region selection unit 25, the abnormality detection unit 26, and an abnormality notification) The processing by the unit 27) can be realized by a software configuration using a computer by executing a program. In this case, the program includes the image processing program of the present invention. However, the present invention is not limited to realization by a software configuration, and needless to say, it can also be realized by a hardware configuration or a combination of a hardware configuration and a software configuration.

以下では、本実施の形態に係る画像処理システム10が、上記プログラム(以下、「画像処理プログラム」という。)を実行することにより上記各構成要素による処理を実現するものとされている場合について説明する。この場合、当該画像処理プログラムを画像処理装置20に予めインストールしておく形態や、コンピュータ読み取り可能な記録媒体に格納された状態で提供される形態、有線又は無線による通信手段を介して配信される形態等を適用することができる。   Hereinafter, a description will be given of a case where the image processing system 10 according to the present embodiment is configured to realize processing by each of the above-described components by executing the above-described program (hereinafter referred to as “image processing program”). To do. In this case, the image processing program is installed in the image processing apparatus 20 in advance, provided in a state stored in a computer-readable recording medium, or distributed via wired or wireless communication means. Forms and the like can be applied.

次に、図10を参照して、本実施の形態に係る画像処理システム10の作用を説明する。なお、図10は、画像処理装置20のCPU20Aにより実行される画像処理プログラムの処理の流れを示すフローチャートである。また、ここでは、錯綜を回避するために、処理対象とする追記前画像データ及び追記後画像データが同一サイズの原稿画像を示すものとして画像読取装置30から入力され、ハードディスク20Dの所定領域に予め記憶されている場合について説明する。   Next, the operation of the image processing system 10 according to the present embodiment will be described with reference to FIG. FIG. 10 is a flowchart showing the flow of processing of the image processing program executed by the CPU 20A of the image processing apparatus 20. Further, here, in order to avoid complications, the pre-addition image data and post-addition image data to be processed are input from the image reading device 30 as indicating the same size of the original image, and are previously stored in a predetermined area of the hard disk 20D. The case where it is stored will be described.

同図のステップ100では、図11に示される前処理ルーチン・プログラムを実行する。以下、図11を参照して、当該前処理ルーチン・プログラムについて説明する。   In step 100 of the figure, the preprocessing routine program shown in FIG. 11 is executed. The preprocessing routine program will be described below with reference to FIG.

同図のステップ200では、処理対象とする追記前画像データをハードディスク20Dから読み出すことにより取得し、次のステップ202では、前述した特徴領域抽出部21Aによる処理と同様の処理によって追記前画像に対応する特徴領域情報(図8(A)も参照。)を導出する。例えば、追記前画像80が図12(A)に示されるものである場合、本ステップ202の処理では、図12(B)に示される特徴領域(本実施の形態では、連結領域)に関する特徴領域情報が導出されることになる。   In step 200 of the figure, the pre-addition image data to be processed is acquired by reading from the hard disk 20D, and in the next step 202, the pre-addition image is handled by the same process as the process performed by the feature area extraction unit 21A described above. Feature region information (see also FIG. 8A) is derived. For example, if the pre-append image 80 is the one shown in FIG. 12A, in the processing of this step 202, the feature region relating to the feature region shown in FIG. 12B (the connected region in this embodiment). Information will be derived.

次のステップ204では、上記ステップ202の処理によって導出された特徴領域情報により示される特徴領域の数が所定数(一例として、4)以上であるか否かを判定し、否定判定となった場合はステップ206に移行して、予め定められたエラー通知処理E1を実行した後、上記画像処理プログラムを終了する。なお、本実施の形態に係る前処理ルーチン・プログラムでは、上記エラー通知処理E1として、「特徴領域が少なすぎて位置合わせを行うことができません。」というメッセージをディスプレイ20Fにより表示する処理を適用しているが、これに限るものでないことは言うまでもない。   In the next step 204, it is determined whether or not the number of feature regions indicated by the feature region information derived by the processing in step 202 is equal to or greater than a predetermined number (for example, 4). Shifts to step 206, executes a predetermined error notification process E1, and then ends the image processing program. In the pre-processing routine program according to the present embodiment, as the error notification process E1, a process of displaying a message “The feature area is too small to perform alignment” on the display 20F is applied. Needless to say, this is not a limitation.

一方、上記ステップ204において肯定判定となった場合はステップ208に移行し、処理対象とする追記後画像データをハードディスク20Dから読み出すことにより取得し、次のステップ210では、前述した特徴領域抽出部21Bによる処理と同様の処理によって追記後画像に対応する特徴領域情報(図8(B)も参照。)を導出する。例えば、追記後画像90が図12(A)に示されるものである場合、本ステップ210の処理では、図12(B)に示される特徴領域(本実施の形態では、連結領域)に関する特徴領域情報が導出されることになる。   On the other hand, if the determination in step 204 is affirmative, the process proceeds to step 208 where the post-recording image data to be processed is acquired by reading from the hard disk 20D. In the next step 210, the above-described feature region extraction unit 21B is acquired. The characteristic area information (see also FIG. 8B) corresponding to the post-recording image is derived by the same process as that described above. For example, when the post-recording image 90 is the one shown in FIG. 12A, in the processing of this step 210, the feature region relating to the feature region shown in FIG. 12B (the connected region in the present embodiment). Information will be derived.

次のステップ212では、上記ステップ210の処理によって導出された特徴領域情報により示される特徴領域の数が所定数(一例として、4)以上であるか否かを判定し、否定判定となった場合はステップ214に移行して、予め定められたエラー通知処理E2を実行した後、上記画像処理プログラムを終了する。なお、本実施の形態に係る前処理ルーチン・プログラムでは、上記エラー通知処理E2として、上記エラー通知処理E1と同様に、「特徴領域が少なすぎて位置合わせを行うことができません。」というメッセージをディスプレイ20Fにより表示する処理を適用しているが、これに限るものでないことは言うまでもない。   In the next step 212, it is determined whether or not the number of feature regions indicated by the feature region information derived by the processing in step 210 is equal to or greater than a predetermined number (for example, 4). Shifts to step 214, executes a predetermined error notification process E2, and then ends the image processing program. In the pre-processing routine program according to the present embodiment, as the error notification processing E2, the message “The feature area is too small to perform alignment” is the same as the error notification processing E1. Although the process which displays with the display 20F is applied, it cannot be overemphasized that it is not restricted to this.

一方、上記ステップ212において肯定判定となった場合はステップ216に移行し、以上の処理によって導出した特徴領域情報に基づいて、前述した対応付部21Cによる処理と同様の処理により特定特徴領域情報を作成する。本ステップ216の処理により、一例として図12(C)に示される特徴領域が対応付けられた特定特徴領域情報(図9も参照。)が作成されることになる。   On the other hand, if the determination in step 212 is affirmative, the process proceeds to step 216. Based on the feature region information derived by the above processing, the specific feature region information is obtained by the same processing as the processing by the association unit 21C described above. create. By the process of step 216, specific feature region information (see also FIG. 9) associated with the feature region shown in FIG. 12C as an example is created.

次のステップ218では、上記ステップ216の処理によって作成された特定特徴領域情報により示される、当該ステップ216の処理によって対応付けられた特徴領域の数が所定数(一例として、30)以上であるか否かを判定し、否定判定となった場合はステップ220に移行して、予め定められたエラー通知処理E3を実行した後、上記画像処理プログラムを終了する。なお、本実施の形態に係る前処理ルーチン・プログラムでは、上記エラー通知処理E3として、「異なる原稿を位置合わせしようとしております。」というメッセージをディスプレイ20Fにより表示する処理を適用しているが、これに限るものでないことは言うまでもない。   In the next step 218, whether or not the number of feature areas associated by the process of step 216 indicated by the specific feature area information created by the process of step 216 is a predetermined number (for example, 30) or more. If NO is determined and the determination is NO, the process proceeds to step 220, and after executing a predetermined error notification process E3, the image processing program is terminated. In the preprocessing routine program according to the present embodiment, as the error notification process E3, a process of displaying the message “I am trying to align different documents” on the display 20F is applied. Needless to say, this is not a limitation.

一方、上記ステップ218において肯定判定となった場合はステップ222に移行し、作成した特定特徴領域情報に基づいて、前述した補正パラメータ算出部21Dによる処理と同様の処理により、追記前画像及び追記後画像の全体的なずれをなくすための補正係数を算出し、次のステップ224では、上記ステップ222の処理によって算出された補正係数(ここでは、幅方向移動量、縦方向移動量、回転角、及び倍率の4種類の補正係数)が各々所定範囲内であるか否かを判定し、否定判定となった場合(ここでは、上記4種類の少なくとも1つの補正係数が対応する範囲内とならなかった場合)はステップ226に移行して、予め定められたエラー通知処理E4を実行した後、上記画像処理プログラムを終了する。なお、本実施の形態に係る前処理ルーチン・プログラムでは、上記所定範囲として、幅方向移動量及び縦方向移動量の2種類の補正係数については±20mm以内である範囲を適用し、回転角については±3度以内である範囲を適用し、更に、倍率については±5%以内である範囲を適用しているが、これらに限らないことも言うまでもない。また、本実施の形態に係る前処理ルーチン・プログラムでは、上記エラー通知処理E4として、上記エラー通知処理E3と同様に、「異なる原稿を位置合わせしようとしております。」というメッセージをディスプレイ20Fにより表示する処理を適用しているが、これに限るものでないことは言うまでもない。   On the other hand, when an affirmative determination is made in step 218, the process proceeds to step 222, and based on the created specific feature region information, the same process as the process performed by the correction parameter calculation unit 21D described above is performed, and the post-addition image and the post-addition process A correction coefficient for eliminating the overall image shift is calculated, and in the next step 224, the correction coefficient calculated by the process of step 222 (here, the movement amount in the width direction, the movement amount in the vertical direction, the rotation angle, When the negative determination is made (in this case, at least one of the four types of correction coefficients does not fall within the corresponding range). In the case of the above, the process proceeds to step 226, and after executing a predetermined error notification process E4, the image processing program is terminated. In the preprocessing routine program according to the present embodiment, as the predetermined range, a range that is within ± 20 mm is applied to the two types of correction coefficients of the width direction movement amount and the vertical direction movement amount, and the rotation angle is determined. Applies a range that is within ± 3 degrees, and further applies a range that is within ± 5% for the magnification, but it goes without saying that the range is not limited thereto. In the preprocessing routine program according to the present embodiment, as the error notification process E4, a message “A different document is about to be aligned” is displayed on the display 20F as in the error notification process E3. It is needless to say that the processing is applied but is not limited to this.

一方、上記ステップ224において肯定判定となった場合は本前処理ルーチン・プログラムを終了して、画像処理プログラムのステップ102(図10参照。)に移行する。   On the other hand, if the determination in step 224 is affirmative, the pre-processing routine program is terminated and the process proceeds to step 102 (see FIG. 10) of the image processing program.

ステップ102では、上記前処理ルーチン・プログラムにおいて算出した補正係数を用いて、前述した画像変換部21Eによる処理と同様の処理により追記前画像及び追記後画像の全体的な位置合わせを行うための画像変換処理(本実施の形態では、アフィン変換処理)を実行し、更に、次のステップ104では、前述した追記領域選択部25による処理と同様の処理により、上記前処理ルーチン・プログラムにおいて導出された特徴領域のうち、追記が行われた特徴領域である追記領域を選択し、選択した特徴領域(追記領域)を示す追記領域情報を作成する。   In step 102, using the correction coefficient calculated in the pre-processing routine program, an image for performing overall alignment of the pre-addition image and the post-addition image by the same processing as the processing by the image conversion unit 21E described above. Conversion processing (in this embodiment, affine transformation processing) is executed. Further, in the next step 104, the above-described preprocessing routine program is derived by the same processing as the processing by the additional write area selection unit 25 described above. Of the feature areas, a write-once area that is a feature area to which additional writing has been performed is selected, and additional-write area information indicating the selected feature area (additional write area) is created.

本ステップ104の処理において、当該追記領域の選択を、特徴領域抽出部21Bによって抽出された追記後画像の特徴領域のうち、特定特徴領域情報により示される特徴領域に含まれない領域を追記領域として選択することにより行う場合には、一例として図12(D)に示される特徴領域を示す追記領域情報が作成され、上記追記領域の選択を、特徴領域抽出部21Aによって抽出された追記前画像の特徴領域のうち、特定特徴領域情報により示される特徴領域に含まれない領域を追記領域として選択することにより行う場合には、一例として図12(E)に示される特徴領域を示す追記領域情報が作成されることになる。   In the process of step 104, the additional area is selected by selecting an area that is not included in the feature area indicated by the specific feature area information from among the feature areas of the post-record image extracted by the feature area extraction unit 21B. In the case of performing the selection, additional record area information indicating the feature area shown in FIG. 12D is created as an example, and the selection of the additional record area is performed on the pre-addition image extracted by the feature area extraction unit 21A. In the case of performing by selecting a region not included in the feature region indicated by the specific feature region information among the feature regions as the additional recording region, the additional recording region information indicating the characteristic region illustrated in FIG. Will be created.

次のステップ106では、追記前画像の幅(ここでは、当該画像の水平方向の画素数)で、かつ追記前画像の高さ(ここでは、当該画像の垂直方向の画素数)の白色画像を示す画像データ(以下、「白色画像データ」という。)を作成し、次のステップ108では、変数iに0を代入する。   In the next step 106, a white image having the width of the image before additional recording (here, the number of pixels in the horizontal direction of the image) and the height of the image before additional recording (here, the number of pixels in the vertical direction of the image) is acquired. The image data shown (hereinafter referred to as “white image data”) is created, and in the next step 108, 0 is substituted into the variable i.

次のステップ110では、一例として次に示すように、上記ステップ104の処理によって作成した追記領域情報により示される追記領域のうちの何れか1つの追記領域(以下、「処理対象追記領域」という。)の範囲を示す座標(以下、「追記領域座標」という。)を導出する。   In the next step 110, as will be described below as an example, any one of the additional write areas indicated by the additional write area information created by the process in step 104 (hereinafter referred to as “process target additional write area”). ) Are derived (hereinafter referred to as “additional area coordinates”).

まず、処理対象追記領域に対応する重心位置及び大きさの各情報を、上記ステップ202の処理によって導出した、上記ステップ102の処理によって画像変換処理の対象とされなかった画像(ここでは、追記前画像)の特徴領域情報から取得する。   First, the information on the center of gravity position and the size corresponding to the processing target additional recording area is derived by the processing of step 202 and is not the target of the image conversion processing by the processing of step 102 (here, before the additional recording) It is acquired from the feature area information of (image).

次に、取得した重心位置情報により示される重心位置を中心とする、取得した大きさ情報により示される幅L及び高さHを有する矩形領域の角点(本実施の形態では、左上角点及び右下角点)の位置座標を上記追記領域座標として算出する。   Next, the corner point of the rectangular area having the width L and the height H indicated by the acquired size information centered on the center of gravity position indicated by the acquired center of gravity position information (in this embodiment, the upper left corner point and The position coordinates of the lower right corner point) are calculated as the additional recording area coordinates.

次のステップ112では、追記前画像データ及び追記後画像データ(上記ステップ102の処理によって画像変換処理が実行されたもの)における、上記ステップ110の処理により導出した追記領域座標により示される追記領域を対象として、追記前画像と追記後画像の位置合わせを行う画像変換処理を、前述した第2位置合わせ部22による処理と同様に実行する。   In the next step 112, the additional recording area indicated by the additional recording area coordinates derived by the process of step 110 in the pre-additional image data and post-additional image data (image conversion process executed by the process of step 102) is determined. As an object, the image conversion process for aligning the pre-recording image and the post-recording image is executed in the same manner as the process performed by the second positioning unit 22 described above.

次のステップ114では、上記ステップ112の処理によって画像変換処理が実行された後の追記領域に対応する追記前画像及び追記後画像の各画像データに基づいて、前述した追記検出部23による処理と同様の処理により追記の画像を検出し、次のステップ116にて、上記ステップ114の処理によって得られた画像データ(ここでは、画像膨張処理後の追記前画像データを、対応する追記後画像データから、対応する画素毎に減算することにより得られる画像データ)を、上記ステップ106の処理によって作成した白色画像データに対して重畳(上書き)する。   In the next step 114, based on the respective image data of the pre-recording image and post-recording image corresponding to the post-recording region after the image conversion processing is executed by the processing of step 112, the above-described processing by the postscript detection unit 23 is performed. The image to be added is detected by the same processing, and in the next step 116, the image data obtained by the processing in step 114 (here, the image data before additional after the image expansion processing is used as the corresponding post-addition image data). Then, the image data obtained by subtraction for each corresponding pixel) is superimposed (overwritten) on the white image data created by the processing of step 106 described above.

次のステップ118では、変数iの値を1だけインクリメントし、次のステップ120にて、変数iの値が、上記ステップ104の処理によって選択された追記領域の数N以下であるか否かを判定し、肯定判定となった場合は上記ステップ110に戻り、当該ステップ110以降の処理を再び実行する一方、否定判定となった場合にはステップ122に移行する。なお、上記ステップ110〜ステップ120の処理を繰り返し実行する際には、それまでに処理対象としなかった追記領域を処理対象追記領域として適用するようにする。   In the next step 118, the value of the variable i is incremented by 1. In the next step 120, it is determined whether or not the value of the variable i is equal to or smaller than the number N of additional write areas selected by the process of step 104. If the determination is affirmative, the process returns to step 110, and the processing after step 110 is executed again. On the other hand, if the determination is negative, the process proceeds to step 122. Note that, when the processes of Steps 110 to 120 are repeatedly executed, an additional write area that has not been set as a processing target until then is applied as a processing target additional write area.

ステップ122では、以上の処理によって追記画像が重畳された白色画像データを用いて追記画像を出力し、その後に本画像処理プログラムを終了する。なお、本実施の形態に係る画像処理プログラムでは、上記ステップ122による追記画像を出力する処理として、ディスプレイ20Fによる表示による出力、及び図示しないプリンタ(所謂画像形成装置)による印刷による出力の双方を適用しているが、これに限定されるものではなく、これらの何れか一方の出力を行う形態や、音声合成装置により音声によって出力する形態等、他の出力形態を適用することができることは言うまでもない。また、本実施の形態に係る画像処理プログラムでは、白色画像データに対して追記画像を重畳することにより、検出した追記画像を記録する場合について説明したが、これに限定されるものではなく、検出した追記画像の位置を示す座標を記録する形態等、追記画像を特定することのできる情報を記録する他の形態とすることができることも言うまでもない。   In step 122, the additional image is output using the white image data on which the additional image is superimposed by the above processing, and then the image processing program is terminated. In the image processing program according to the present embodiment, both the output by display on the display 20F and the output by printing by a printer (so-called image forming apparatus) (not shown) are applied as the process of outputting the additional image at step 122. However, the present invention is not limited to this, and it goes without saying that other output forms such as a form in which any one of these is output or a form in which sound is output by a speech synthesizer can be applied. . In the image processing program according to the present embodiment, the case where the detected additional image is recorded by superimposing the additional image on the white image data has been described. However, the present invention is not limited to this. It goes without saying that other forms of recording information that can specify the additional recording image, such as a recording form of the coordinates indicating the position of the additional recording image, can be used.

[第2の実施の形態]
本第2の実施の形態に係る画像処理システムの構成は、第1位置合わせ部21の構成のみ上記第1の実施の形態に係る画像処理システムと異なるので、まず、本第2の実施の形態に係る第1位置合わせ部21’の構成について、図13を参照しつつ詳細に説明する。なお、図13における図4と同一の構成要素については図4と同一の符号を付して、その説明を省略する。
[Second Embodiment]
The configuration of the image processing system according to the second embodiment is different from the image processing system according to the first embodiment only in the configuration of the first alignment unit 21. First, the second embodiment is described. The configuration of the first alignment unit 21 ′ according to will be described in detail with reference to FIG. In FIG. 13, the same components as those in FIG. 4 are denoted by the same reference numerals as those in FIG.

同図に示すように、本第2の実施の形態に係る第1位置合わせ部21’は、90度回転部21Fと選択部21Gが新たに設けられている点と、対応付部21Cに代えて対応付部21C’が用いられている点のみが上記第1の実施の形態に係る第1位置合わせ部21と異なっている。   As shown in the figure, the first alignment unit 21 ′ according to the second embodiment is different from the corresponding unit 21C in that a 90-degree rotation unit 21F and a selection unit 21G are newly provided. The only difference from the first alignment unit 21 according to the first embodiment is that the corresponding portion 21C ′ is used.

なお、上記90度回転部21Fは、特徴領域抽出部21Bにより導出された追記後画像の特徴領域情報により示される特徴量を、当該追記後画像を90度、180度、及び270度の3種類の角度で回転させた場合の各々の特徴量となるように変換するものであり、これによって得られた特徴領域情報を各々出力する。   The 90-degree rotation unit 21F uses the feature amount indicated by the feature region information of the post-recording image derived by the feature region extraction unit 21B, and the post-recording image has three types of 90 degrees, 180 degrees, and 270 degrees. The characteristic area information obtained by this conversion is output respectively.

本実施の形態に係る特徴領域情報は、一例として図8に示されるように、特徴領域の位置を、その重心位置のXY座標系における座標値により表現しており、90度回転部21Fでは、当該座標値を、追記後画像を90度、180度、及び270度の3種類の角度で回転させた場合の座標値に座標変換することにより、上記変換を行っている。   As shown in FIG. 8 as an example, the feature region information according to the present embodiment represents the position of the feature region by the coordinate value in the XY coordinate system of the barycentric position. In the 90-degree rotation unit 21F, The above-described conversion is performed by converting the coordinate value into a coordinate value when the post-recording image is rotated at three angles of 90 degrees, 180 degrees, and 270 degrees.

このように、本実施の形態に係る第1位置合わせ部21’では、90度回転部21Fが特徴領域抽出部21Bに接続されて追記後画像に対応する特徴領域情報を作成するものとされているが、これに限らず、特徴領域抽出部21Aに接続されて追記前画像に対応する特徴領域情報を作成するものとしてもよい。   As described above, in the first alignment unit 21 ′ according to the present embodiment, the 90-degree rotation unit 21F is connected to the feature region extraction unit 21B to create feature region information corresponding to the post-addition image. However, the present invention is not limited to this, and the feature region information corresponding to the pre-addition image may be created by being connected to the feature region extraction unit 21A.

一方、上記対応付部21C’は、特徴領域抽出部21Aから出力された特徴領域情報により示される特徴量と、特徴領域抽出部21B及び90度回転部21Fから出力された特徴領域情報により示される特徴量(追記後画像が90度、180度、270度の3種類の角度で回転された場合の特徴量と回転されない場合の特徴量)との間の類似度が所定度合以上である特徴領域の対を特定し、特定した特徴領域の対を対応付ける特定特徴領域情報を作成して出力する。これにより、一例として図9に示されるような特定特徴領域情報が4組分(追記前画像と回転されていない追記後画像の組み合わせ、追記前画像と90度回転された追記後画像の組み合わせ、追記前画像と180度回転された追記後画像の組み合わせ、追記前画像と270度回転された追記後画像の組み合わせの4組分)作成されて出力されることになる。   On the other hand, the association unit 21C ′ is indicated by the feature amount indicated by the feature region information output from the feature region extraction unit 21A and the feature region information output from the feature region extraction unit 21B and the 90-degree rotation unit 21F. A feature region in which a similarity between a feature amount (a feature amount when the post-recording image is rotated at three angles of 90 degrees, 180 degrees, and 270 degrees and a feature amount when the image is not rotated) is a predetermined degree or more Specific feature region information is created and output. The specific feature region information is associated with the specified feature region pair. Thus, as an example, the specific feature area information as shown in FIG. 9 includes four sets (combination of the image before appending and the image after appending not rotated, the combination of the image before appending and the image after appending rotated 90 degrees, The combination of the pre-recording image and the post-recording image rotated by 180 degrees, and the combination of the pre-recording image and the post-recording image rotated by 270 degrees) are generated and output.

更に、上記選択部21Gは、対応付部21C’から出力された4組の特定特徴領域情報から、対応付けされた特徴領域の数が最大のものを選択して補正パラメータ算出部21D、追記領域選択部25、及び異常検出部26に出力すると共に、当該特徴領域の数が最大である特定特徴領域情報において対応付けされた追記後画像の特徴領域情報を選択して追記領域選択部25及び異常検出部26に出力する。   Further, the selection unit 21G selects a correction parameter calculation unit 21D, a write-once region, and selects the one with the largest number of associated feature regions from the four sets of specific feature region information output from the association unit 21C ′. While outputting to the selection part 25 and the abnormality detection part 26, the feature area information of the post-recording image matched in specific feature area information with the largest number of the said feature area is selected, and the additional recording area selection part 25 and abnormality Output to the detector 26.

次に、本第2の実施の形態に係る画像処理システム10の作用を、上記各構成要素による処理を、画像処理プログラムを実行することによってソフトウェア構成により実現する場合について説明する。なお、本第2の実施の形態に係る画像処理プログラムは、前処理ルーチン・プログラムを除いて上記第1の実施の形態に係るものと同様であるので、以下では、図14を参照して、本第2の実施の形態に係る前処理ルーチン・プログラムのみについて説明する。   Next, a case will be described in which the operation of the image processing system 10 according to the second embodiment is realized by a software configuration by executing an image processing program for the processing by each of the above constituent elements. The image processing program according to the second embodiment is the same as that according to the first embodiment except for the preprocessing routine program, and therefore, hereinafter, referring to FIG. Only the preprocessing routine program according to the second embodiment will be described.

同図のステップ300では、処理対象とする追記前画像データをハードディスク20Dから読み出すことにより取得し、次のステップ302では、前述した特徴領域抽出部21Aによる処理と同様の処理によって追記前画像に対応する特徴領域情報(図8(A)も参照。)を導出する。例えば、追記前画像80が図12(A)に示されるものである場合、本ステップ302の処理では、図12(B)に示される特徴領域(本実施の形態では、連結領域)に関する特徴領域情報が導出されることになる。   In step 300 of the figure, the pre-addition image data to be processed is acquired by reading from the hard disk 20D, and in the next step 302, the pre-addition image is handled by the same processing as the processing by the feature region extraction unit 21A described above. Feature region information (see also FIG. 8A) is derived. For example, if the pre-append image 80 is the one shown in FIG. 12A, in the process of this step 302, the feature region relating to the feature region shown in FIG. 12B (in this embodiment, the connected region). Information will be derived.

次のステップ304では、上記ステップ302の処理によって導出された特徴領域情報により示される特徴領域の数が所定数(一例として、4)以上であるか否かを判定し、否定判定となった場合はステップ306に移行して、予め定められたエラー通知処理E1を実行した後、上記画像処理プログラムを終了する。なお、本実施の形態に係る前処理ルーチン・プログラムでは、上記エラー通知処理E1として、「特徴領域が少なすぎて位置合わせを行うことができません。」というメッセージをディスプレイ20Fにより表示する処理を適用しているが、これに限るものでないことは言うまでもない。   In the next step 304, it is determined whether or not the number of feature regions indicated by the feature region information derived by the processing in step 302 is equal to or greater than a predetermined number (for example, 4). Shifts to step 306, executes a predetermined error notification process E1, and then ends the image processing program. In the pre-processing routine program according to the present embodiment, as the error notification process E1, a process of displaying a message “The feature area is too small to perform alignment” on the display 20F is applied. Needless to say, this is not a limitation.

一方、上記ステップ304において肯定判定となった場合はステップ308に移行し、処理対象とする追記後画像データをハードディスク20Dから読み出すことにより取得し、次のステップ310では、前述した特徴領域抽出部21Bによる処理と同様の処理によって追記後画像に対応する特徴領域情報(図8(B)も参照。)を導出する。例えば、追記後画像90が図12(A)に示されるものである場合、本ステップ310の処理では、図12(B)に示される特徴領域(本実施の形態では、連結領域)に関する特徴領域情報が導出されることになる。   On the other hand, if the determination in step 304 is affirmative, the process proceeds to step 308, where post-append image data to be processed is acquired by reading from the hard disk 20D. In the next step 310, the above-described feature region extraction unit 21B is acquired. The characteristic area information (see also FIG. 8B) corresponding to the post-recording image is derived by the same process as that described above. For example, when the post-recording image 90 is the one shown in FIG. 12A, in the process of this step 310, the feature region related to the feature region shown in FIG. 12B (the connected region in this embodiment). Information will be derived.

次のステップ312では、上記ステップ310の処理によって導出された特徴領域情報により示される特徴領域の数が所定数(一例として、4)以上であるか否かを判定し、否定判定となった場合はステップ314に移行して、予め定められたエラー通知処理E2を実行した後、上記画像処理プログラムを終了する。なお、本実施の形態に係る前処理ルーチン・プログラムでは、上記エラー通知処理E2として、上記エラー通知処理E1と同様に、「特徴領域が少なすぎて位置合わせを行うことができません。」というメッセージをディスプレイ20Fにより表示する処理を適用しているが、これに限るものでないことは言うまでもない。   In the next step 312, it is determined whether or not the number of feature regions indicated by the feature region information derived by the processing in step 310 is equal to or greater than a predetermined number (for example, 4). Shifts to step 314, executes a predetermined error notification process E2, and then ends the image processing program. In the pre-processing routine program according to the present embodiment, as the error notification processing E2, the message “The feature area is too small to perform alignment” is the same as the error notification processing E1. Although the process which displays with the display 20F is applied, it cannot be overemphasized that it is not restricted to this.

一方、上記ステップ312において肯定判定となった場合はステップ316に移行し、以上の処理によって導出した特徴領域情報に基づいて、前述した対応付部21C’による処理と同様の処理により特定特徴領域情報J1を作成し、RAM20Bに記憶する。本ステップ316の処理により、一例として図12(C)に示される特徴領域が対応付けられた特定特徴領域情報(図9も参照。)が作成され、記憶されることになる。   On the other hand, if the determination in step 312 is affirmative, the process proceeds to step 316, and based on the feature region information derived by the above processing, the specific feature region information is processed by the same processing as the processing by the association unit 21C ′ described above. J1 is created and stored in the RAM 20B. By the process of step 316, specific feature region information (see also FIG. 9) associated with the feature region shown in FIG. 12C as an example is created and stored.

次のステップ318では、前述した90度回転部21Fによる処理と同様の処理により、特徴領域抽出部21Bにより導出された追記後画像の特徴領域情報により示される特徴量を、当該追記後画像を90度の角度で回転させた場合の特徴量となるように変換し、次のステップ320にて、上記ステップ302の処理によって得られた特徴領域情報と、上記ステップ318の処理によって得られた特徴領域情報に基づいて、前述した対応付部21C’による処理と同様の処理により特定特徴領域情報J2を作成し、RAM20Bに記憶する。   In the next step 318, the feature amount indicated by the feature region information of the post-recording image derived by the feature region extraction unit 21B is converted into the post-recording image by the same processing as the processing by the 90-degree rotation unit 21F described above. In the next step 320, the feature area information obtained by the process of step 302 and the feature area obtained by the process of step 318 are converted. Based on the information, the specific feature region information J2 is created by the same processing as the processing by the association unit 21C ′ described above, and stored in the RAM 20B.

次のステップ322では、前述した90度回転部21Fによる処理と同様の処理により、上記ステップ318の処理により導出された90度回転された状態の追記後画像の特徴領域情報により示される特徴量を、当該追記後画像を更に90度回転させた場合の特徴量(元の追記後画像を180度回転させた場合の特徴量)となるように変換し、次のステップ324にて、上記ステップ302の処理によって得られた特徴領域情報と、上記ステップ322の処理によって得られた特徴領域情報に基づいて、前述した対応付部21C’による処理と同様の処理により特定特徴領域情報J3を作成し、RAM20Bに記憶する。   In the next step 322, the feature amount indicated by the feature region information of the post-recorded image in the rotated state derived by the process of step 318 is derived by the same process as the process by the 90-degree rotation unit 21F described above. Then, the post-recording image is converted so as to become a feature amount when the image is further rotated by 90 degrees (a feature amount when the original post-recording image is rotated by 180 degrees), and in the next step 324, the above step 302 is performed. Based on the feature region information obtained by the processing of step 322 and the feature region information obtained by the processing of step 322, specific feature region information J3 is created by the same processing as the processing by the association unit 21C ′ described above, Store in the RAM 20B.

次のステップ326では、前述した90度回転部21Fによる処理と同様の処理により、上記ステップ322の処理により導出された180度回転された状態の追記後画像の特徴領域情報により示される特徴量を、当該追記後画像を更に90度回転させた場合の特徴量(元の追記後画像を270度回転させた場合の特徴量)となるように変換し、次のステップ328にて、上記ステップ302の処理によって得られた特徴領域情報と、上記ステップ326の処理によって得られた特徴領域情報に基づいて、前述した対応付部21C’による処理と同様の処理により特定特徴領域情報J4を作成し、RAM20Bに記憶する。   In the next step 326, the feature amount indicated by the feature area information of the post-recorded image in the state rotated by 180 degrees derived by the process of step 322 is obtained by the same process as the process by the 90-degree rotation unit 21F described above. Then, the post-recording image is converted so as to become a feature amount when the image is further rotated by 90 degrees (a feature amount when the original post-recording image is rotated by 270 degrees). Based on the feature region information obtained by the processing of step 326 and the feature region information obtained by the processing of step 326, specific feature region information J4 is created by the same processing as the processing by the association unit 21C ′ described above, Store in the RAM 20B.

次のステップ330では、以上の処理によりRAM20Bに記憶された特定特徴領域情報J1〜J4を読み出し、各特定特徴領域情報において対応付けされている特徴領域の数の最大値のものを選択しその数の、特徴領域抽出部21Aにより抽出された特徴領域の数に対する比率が、所定率(一例として、60%)以上であるか否かを判定し、否定判定となった場合はステップ332に移行して、予め定められたエラー通知処理E3を実行した後、上記画像処理プログラムを終了する。なお、本実施の形態に係る前処理ルーチン・プログラムでは、上記エラー通知処理E3として、「異なる原稿を位置合わせしようとしております。」というメッセージをディスプレイ20Fにより表示する処理を適用しているが、これに限るものでないことは言うまでもない。   In the next step 330, the specific feature region information J1 to J4 stored in the RAM 20B is read out by the above processing, and the one with the maximum number of feature regions associated with each specific feature region information is selected and the number thereof. It is determined whether or not the ratio of the number of feature regions extracted by the feature region extraction unit 21A is equal to or higher than a predetermined rate (for example, 60%). If the determination is negative, the process proceeds to step 332. Then, after executing the predetermined error notification process E3, the image processing program is terminated. In the preprocessing routine program according to the present embodiment, as the error notification process E3, a process of displaying the message “I am trying to align different documents” on the display 20F is applied. Needless to say, this is not a limitation.

一方、上記ステップ330において肯定判定となった場合はステップ334に移行し、上記ステップ330の処理において対応付けされている特徴領域の数が最大とされた特定特徴領域情報に基づいて、前述した補正パラメータ算出部21Dによる処理と同様の処理により、追記前画像及び追記後画像の全体的なずれをなくすための補正係数を算出し、次のステップ336では、上記ステップ334の処理によって算出された補正係数(ここでは、幅方向移動量、縦方向移動量、回転角、及び倍率の4種類の補正係数)が各々所定範囲内であるか否かを判定し、否定判定となった場合(ここでは、上記4種類の少なくとも1つの補正係数が対応する範囲内とならなかった場合)はステップ338に移行して、予め定められたエラー通知処理E4を実行した後、上記画像処理プログラムを終了する。なお、本実施の形態に係る前処理ルーチン・プログラムでは、上記所定範囲として、幅方向移動量及び縦方向移動量の2種類の補正係数については±20mm以内である範囲を適用し、回転角については±3度以内である範囲を適用し、更に、倍率については±5%以内である範囲を適用しているが、これらに限らないことも言うまでもない。また、本実施の形態に係る前処理ルーチン・プログラムでは、上記エラー通知処理E4として、上記エラー通知処理E3と同様に、「異なる原稿を位置合わせしようとしております。」というメッセージをディスプレイ20Fにより表示する処理を適用しているが、これに限るものでないことは言うまでもない。   On the other hand, if the determination in step 330 is affirmative, the process proceeds to step 334, and the correction described above is performed based on the specific feature region information in which the number of feature regions associated in the processing of step 330 is maximized. A correction coefficient for eliminating an overall shift between the pre-recording image and the post-recording image is calculated by a process similar to the process by the parameter calculation unit 21D. In the next step 336, the correction calculated by the process of step 334 is performed. When the coefficients (here, the four types of correction coefficients of the movement amount in the width direction, the movement amount in the vertical direction, the rotation angle, and the magnification) are within a predetermined range, and when the negative determination is made (here If at least one of the four types of correction coefficients does not fall within the corresponding range), the process proceeds to step 338, and a predetermined error notification process E is performed. After executing, it terminates the image processing program. In the preprocessing routine program according to the present embodiment, as the predetermined range, a range that is within ± 20 mm is applied to the two types of correction coefficients of the width direction movement amount and the vertical direction movement amount, and the rotation angle is determined. Applies a range that is within ± 3 degrees, and further applies a range that is within ± 5% for the magnification, but it goes without saying that the range is not limited thereto. In the preprocessing routine program according to the present embodiment, as the error notification process E4, a message “A different document is about to be aligned” is displayed on the display 20F as in the error notification process E3. It is needless to say that the processing is applied but is not limited to this.

一方、上記ステップ336において肯定判定となった場合は本前処理ルーチン・プログラムを終了して、画像処理プログラムのステップ102(図10参照。)に移行する。   On the other hand, if the determination in step 336 is affirmative, the pre-processing routine program is terminated, and the process proceeds to step 102 (see FIG. 10) of the image processing program.

[第3の実施の形態]
本第3の実施の形態では、上記第2の実施の形態の変形例について説明する。なお、本第3の実施の形態に係る画像処理システム10の構成は、上記第2の実施の形態に係るものと略同様であるので、ここでの説明は省略する。
[Third Embodiment]
In the third embodiment, a modification of the second embodiment will be described. The configuration of the image processing system 10 according to the third embodiment is substantially the same as that according to the second embodiment, and a description thereof will be omitted here.

以下、本第3の実施の形態に係る画像処理システム10の作用を、各構成要素による処理を、画像処理プログラムを実行することによってソフトウェア構成により実現する場合について説明する。なお、本第3の実施の形態に係る画像処理プログラムは、前処理ルーチン・プログラムを除いて上記第1,第2の実施の形態に係るものと同様であるので、以下では、図15を参照して、本第3の実施の形態に係る前処理ルーチン・プログラムのみについて説明する。   Hereinafter, the case where the operation of the image processing system 10 according to the third embodiment is realized by a software configuration by executing an image processing program for the processing by each component will be described. Note that the image processing program according to the third embodiment is the same as that according to the first and second embodiments except for the preprocessing routine program, and therefore, refer to FIG. 15 below. Only the preprocessing routine program according to the third embodiment will be described.

同図のステップ400では、処理対象とする追記前画像データをハードディスク20Dから読み出すことにより取得し、次のステップ402では、前述した特徴領域抽出部21Aによる処理と同様の処理によって追記前画像に対応する特徴領域情報(図8(A)も参照。)を導出する。例えば、追記前画像80が図12(A)に示されるものである場合、本ステップ402の処理では、図12(B)に示される特徴領域(本実施の形態では、連結領域)に関する特徴領域情報が導出されることになる。   In step 400 of the figure, the pre-addition image data to be processed is acquired by reading from the hard disk 20D, and in the next step 402, the pre-addition image is handled by the same process as the process performed by the feature area extraction unit 21A described above. Feature region information (see also FIG. 8A) is derived. For example, if the pre-append image 80 is as shown in FIG. 12A, in the process of this step 402, the feature area related to the feature area shown in FIG. 12B (in this embodiment, a connected area). Information will be derived.

次のステップ404では、上記ステップ402の処理によって導出された特徴領域情報により示される特徴領域の数が所定数(一例として、4)以上であるか否かを判定し、否定判定となった場合はステップ406に移行して、予め定められたエラー通知処理E1を実行した後、上記画像処理プログラムを終了する。なお、本実施の形態に係る前処理ルーチン・プログラムでは、上記エラー通知処理E1として、「特徴領域が少なすぎて位置合わせを行うことができません。」というメッセージをディスプレイ20Fにより表示する処理を適用しているが、これに限るものでないことは言うまでもない。   In the next step 404, it is determined whether or not the number of feature regions indicated by the feature region information derived by the processing in step 402 is equal to or greater than a predetermined number (for example, 4). Shifts to step 406, executes a predetermined error notification process E1, and then ends the image processing program. In the pre-processing routine program according to the present embodiment, as the error notification process E1, a process of displaying a message “The feature area is too small to perform alignment” on the display 20F is applied. Needless to say, this is not a limitation.

一方、上記ステップ404において肯定判定となった場合はステップ408に移行し、処理対象とする追記後画像データをハードディスク20Dから読み出すことにより取得し、次のステップ410では、前述した特徴領域抽出部21Bによる処理と同様の処理によって追記後画像に対応する特徴領域情報(図8(B)も参照。)を導出する。例えば、追記後画像90が図12(A)に示されるものである場合、本ステップ410の処理では、図12(B)に示される特徴領域(本実施の形態では、連結領域)に関する特徴領域情報が導出されることになる。   On the other hand, if the determination in step 404 is affirmative, the process proceeds to step 408, where post-append image data to be processed is acquired by reading from the hard disk 20D. In the next step 410, the above-described feature region extraction unit 21B is acquired. The characteristic area information (see also FIG. 8B) corresponding to the post-recording image is derived by the same process as that described above. For example, when the post-recording image 90 is the one shown in FIG. 12A, in the process of this step 410, the feature region relating to the feature region shown in FIG. 12B (in this embodiment, the connected region). Information will be derived.

次のステップ412では、上記ステップ410の処理によって導出された特徴領域情報により示される特徴領域の数が所定数(一例として、4)以上であるか否かを判定し、否定判定となった場合はステップ414に移行して、予め定められたエラー通知処理E2を実行した後、上記画像処理プログラムを終了する。なお、本実施の形態に係る前処理ルーチン・プログラムでは、上記エラー通知処理E2として、上記エラー通知処理E1と同様に、「特徴領域が少なすぎて位置合わせを行うことができません。」というメッセージをディスプレイ20Fにより表示する処理を適用しているが、これに限るものでないことは言うまでもない。   In the next step 412, it is determined whether or not the number of feature regions indicated by the feature region information derived by the processing in step 410 is greater than or equal to a predetermined number (for example, 4). Shifts to step 414, executes a predetermined error notification process E2, and then ends the image processing program. In the pre-processing routine program according to the present embodiment, as the error notification processing E2, the message “The feature area is too small to perform alignment” is the same as the error notification processing E1. Although the process which displays with the display 20F is applied, it cannot be overemphasized that it is not restricted to this.

一方、上記ステップ412において肯定判定となった場合はステップ416に移行し、以上の処理によって導出した特徴領域情報に基づいて、前述した対応付部21C’による処理と同様の処理により特定特徴領域情報を作成し、RAM20Bに記憶する。本ステップ416の処理により、一例として図12(C)に示される特徴領域が対応付けられた特定特徴領域情報(図9も参照。)が作成され、記憶されることになる。   On the other hand, if the determination in step 412 is affirmative, the process proceeds to step 416, and based on the feature region information derived by the above processing, the specific feature region information is processed by the same processing as the processing by the association unit 21C ′ described above. Is stored in the RAM 20B. By the processing of step 416, specific feature region information (see also FIG. 9) associated with the feature region shown in FIG. 12C as an example is created and stored.

次のステップ418では、上記ステップ416の処理によって作成された特定特徴領域情報において対応付けされている特徴領域の数の、特徴領域抽出部21Aにより抽出された特徴領域の数に対する比率が、所定率(一例として、60%)以上であるか否かを判定し、否定判定となった場合はステップ420に移行する。   In the next step 418, the ratio of the number of feature regions associated in the specific feature region information created by the processing in step 416 to the number of feature regions extracted by the feature region extraction unit 21A is a predetermined rate. (For example, 60%) or not is determined, and if a negative determination is made, the process proceeds to step 420.

ステップ420では、前述した90度回転部21Fによる処理と同様の処理により、特徴領域抽出部21Bにより導出された追記後画像の特徴領域情報により示される特徴量を、当該追記後画像を90度の角度で回転させた場合の特徴量となるように変換し、次のステップ422にて、上記ステップ420の処理による追記後画像の回転角度が360度に達したか否かを判定し、否定判定となった場合は上記ステップ416に戻る一方、肯定判定となった場合にはステップ424に移行する。   In step 420, the feature amount indicated by the feature region information of the post-recording image derived by the feature region extraction unit 21B is obtained by performing the same process as the process performed by the 90-degree rotation unit 21F described above, and the post-recording image is displayed by 90 degrees. In the next step 422, it is determined whether or not the rotation angle of the postscript image after the process of step 420 has reached 360 degrees, and a negative determination is made. If YES, the process returns to step 416. If YES, the process proceeds to step 424.

なお、上記ステップ416〜ステップ422の処理を繰り返し実行する際に、上記ステップ416では、直前の上記ステップ420の処理によって得られた特徴領域情報を適用して特定特徴領域情報を作成する。   When repeatedly executing the processing from step 416 to step 422, in step 416, the specific region information is created by applying the feature region information obtained by the previous step 420.

ステップ424では、予め定められたエラー通知処理E3を実行した後、上記画像処理プログラムを終了する。なお、本実施の形態に係る前処理ルーチン・プログラムでは、上記エラー通知処理E3として、「異なる原稿を位置合わせしようとしております。」というメッセージをディスプレイ20Fにより表示する処理を適用しているが、これに限るものでないことは言うまでもない。   In step 424, after executing a predetermined error notification process E3, the image processing program is terminated. In the preprocessing routine program according to the present embodiment, as the error notification process E3, a process of displaying the message “I am trying to align different documents” on the display 20F is applied. Needless to say, this is not a limitation.

一方、上記ステップ418において肯定判定となった場合はステップ426に移行し、直前の上記ステップ416の処理において作成された特定特徴領域情報に基づいて、前述した補正パラメータ算出部21Dによる処理と同様の処理により、追記前画像及び追記後画像の全体的なずれをなくすための補正係数を算出し、次のステップ428では、上記ステップ426の処理によって算出された補正係数(ここでは、幅方向移動量、縦方向移動量、回転角、及び倍率の4種類の補正係数)が各々所定範囲内であるか否かを判定し、否定判定となった場合(ここでは、上記4種類の少なくとも1つの補正係数が対応する範囲内とならなかった場合)はステップ430に移行して、予め定められたエラー通知処理E4を実行した後、上記画像処理プログラムを終了する。なお、本実施の形態に係る前処理ルーチン・プログラムでは、上記所定範囲として、幅方向移動量及び縦方向移動量の2種類の補正係数については±20mm以内である範囲を適用し、回転角については±3度以内である範囲を適用し、更に、倍率については±5%以内である範囲を適用しているが、これらに限らないことも言うまでもない。また、本実施の形態に係る前処理ルーチン・プログラムでは、上記エラー通知処理E4として、上記エラー通知処理E3と同様に、「異なる原稿を位置合わせしようとしております。」というメッセージをディスプレイ20Fにより表示する処理を適用しているが、これに限るものでないことは言うまでもない。   On the other hand, if the determination in step 418 is affirmative, the process proceeds to step 426, and based on the specific feature region information created in the immediately preceding step 416, the same processing as that performed by the correction parameter calculation unit 21D described above. Through the process, a correction coefficient for eliminating the overall deviation between the pre-recording image and the post-recording image is calculated. In the next step 428, the correction coefficient (here, the movement amount in the width direction) calculated by the process of step 426 is calculated. When the negative determination is made (in this case, at least one of the above four types of correction), it is determined whether each of the four types of correction coefficients (vertical movement amount, rotation angle, and magnification) is within a predetermined range. If the coefficient does not fall within the corresponding range), the process proceeds to step 430, and after executing a predetermined error notification process E4, the image process To end the program. In the preprocessing routine program according to the present embodiment, as the predetermined range, a range that is within ± 20 mm is applied to the two types of correction coefficients of the width direction movement amount and the vertical direction movement amount, and the rotation angle is determined. Applies a range that is within ± 3 degrees, and further applies a range that is within ± 5% for the magnification, but it goes without saying that the range is not limited thereto. In the preprocessing routine program according to the present embodiment, as the error notification process E4, a message “A different document is about to be aligned” is displayed on the display 20F as in the error notification process E3. It is needless to say that the processing is applied but is not limited to this.

一方、上記ステップ428において肯定判定となった場合は本前処理ルーチン・プログラムを終了して、画像処理プログラムのステップ102(図10参照。)に移行する。   On the other hand, if the determination in step 428 is affirmative, the pre-processing routine program is terminated and the process proceeds to step 102 (see FIG. 10) of the image processing program.

[第4の実施の形態]
本第4の実施の形態では、追記前原稿及び追記後原稿の少なくとも一方が、候補となる複数の原稿が存在するものである場合に、当該候補となる原稿から正しいものを選択して追記画像を抽出するための画像処理を行う場合の形態例について説明する。なお、ここでは、錯綜を回避するために、追記前原稿のみに候補となる複数の原稿が存在する場合の形態例について説明する。また、本第4の実施の形態に係る画像処理システム10の構成は、上記第1の実施の形態に係るものと略同様であるので、ここでの説明は省略する。
[Fourth Embodiment]
In the fourth embodiment, when at least one of the original before appending and the original after appending includes a plurality of candidate originals, a correct one is selected from the candidate originals and the postscript image is added. An example in the case of performing image processing for extracting the image will be described. Here, in order to avoid complications, a description will be given of an example in which a plurality of candidate documents exist only in the document before the additional writing. The configuration of the image processing system 10 according to the fourth embodiment is substantially the same as that according to the first embodiment, and a description thereof will be omitted here.

以下、本第4の実施の形態に係る画像処理システム10の作用を、各構成要素による処理を、画像処理プログラムを実行することによってソフトウェア構成により実現する場合について説明する。なお、本第4の実施の形態に係る画像処理プログラムは、前処理ルーチン・プログラムを除いて上記第1〜第3の実施の形態に係るものと同様であるので、以下では、図16を参照して、本第4の実施の形態に係る前処理ルーチン・プログラムのみについて説明する。また、ここでは、錯綜を回避するために、処理対象とする各々異なる追記前原稿(処理候補原稿)を示す複数の追記前画像データと、処理対象とする単一の追記後原稿を示す追記後画像データが同一サイズの原稿画像を示すものとして画像読取装置30から入力され、ハードディスク20Dの所定領域に予め記憶されている場合について説明する。   Hereinafter, a case will be described in which the operation of the image processing system 10 according to the fourth embodiment is realized by a software configuration by executing an image processing program. The image processing program according to the fourth embodiment is the same as that according to the first to third embodiments except for the pre-processing routine program, and therefore, refer to FIG. 16 below. Only the preprocessing routine program according to the fourth embodiment will be described. Also, here, in order to avoid complications, a plurality of pre-additional image data indicating different pre-addition originals (processing candidate originals) to be processed and a single post-addition original to be processed A case will be described in which image data is input from the image reading device 30 as indicating an original document image of the same size and stored in advance in a predetermined area of the hard disk 20D.

同図のステップ500では、処理対象とする追記後画像データをハードディスク20Dから読み出すことにより取得し、次のステップ502では、前述した特徴領域抽出部21Bによる処理と同様の処理によって追記後画像に対応する特徴領域情報(図8(B)も参照。)を導出する。例えば、追記後画像90が図12(A)に示されるものである場合、本ステップ502の処理では、図12(B)に示される特徴領域(本実施の形態では、連結領域)に関する特徴領域情報が導出されることになる。   In step 500 of the figure, post-recording image data to be processed is acquired by reading from the hard disk 20D, and in the next step 502, the post-recording image is processed by the same process as the process performed by the feature region extraction unit 21B described above. Feature region information (see also FIG. 8B) is derived. For example, when the post-recording image 90 is the one shown in FIG. 12A, in the processing of this step 502, the feature region related to the feature region shown in FIG. 12B (the connected region in this embodiment). Information will be derived.

次のステップ504では、上記ステップ502の処理によって導出された特徴領域情報により示される特徴領域の数が所定数(一例として、4)以上であるか否かを判定し、否定判定となった場合はステップ506に移行して、予め定められたエラー通知処理E2を実行した後、上記画像処理プログラムを終了する。なお、本実施の形態に係る前処理ルーチン・プログラムでは、上記エラー通知処理E2として、「特徴領域が少なすぎて位置合わせを行うことができません。」というメッセージをディスプレイ20Fにより表示する処理を適用しているが、これに限るものでないことは言うまでもない。   In the next step 504, it is determined whether or not the number of feature regions indicated by the feature region information derived by the processing in step 502 is equal to or greater than a predetermined number (for example, 4). The process proceeds to step 506, executes a predetermined error notification process E2, and then ends the image processing program. In the pre-processing routine program according to the present embodiment, as the error notification process E2, a process of displaying a message “The feature area is too small to perform alignment” on the display 20F is applied. Needless to say, this is not a limitation.

一方、上記ステップ504において肯定判定となった場合はステップ508に移行し、処理対象とする複数の追記前画像データから何れか1つの画像データ(以下、「処理対象追記前画像データ」という。)をハードディスク20Dから読み出すことにより取得し、次のステップ510では、処理対象追記前画像データに対する前述した特徴領域抽出部21Aによる処理と同様の処理によって追記前画像に対応する特徴領域情報(図8(A)も参照。)を導出する。例えば、追記前画像80が図12(A)に示されるものである場合、本ステップ510の処理では、図12(B)に示される特徴領域(本実施の形態では、連結領域)に関する特徴領域情報が導出されることになる。   On the other hand, if an affirmative determination is made in step 504, the process proceeds to step 508, and one of the plurality of pre-additional image data to be processed (hereinafter referred to as “pre-processing target image data”). Is read out from the hard disk 20D, and in the next step 510, feature area information corresponding to the image before the additional recording (FIG. See also A). For example, if the pre-append image 80 is the one shown in FIG. 12A, in the processing of this step 510, the feature region relating to the feature region shown in FIG. 12B (in this embodiment, the connected region). Information will be derived.

次のステップ512では、上記ステップ510の処理によって導出された特徴領域情報により示される特徴領域の数が所定数(一例として、4)以上であるか否かを判定し、否定判定となった場合は後述するステップ522に移行する一方、肯定判定となった場合にはステップ514に移行する。   In the next step 512, it is determined whether or not the number of feature regions indicated by the feature region information derived by the processing in step 510 is equal to or greater than a predetermined number (for example, 4). Shifts to step 522 to be described later, and shifts to step 514 if an affirmative determination is made.

ステップ514では、以上の処理によって導出した特徴領域情報に基づいて、前述した対応付部21Cによる処理と同様の処理により特定特徴領域情報を作成し、RAM20Bに記憶する。本ステップ514の処理により、一例として図12(C)に示される特徴領域が対応付けられた特定特徴領域情報(図9も参照。)が作成され、記憶されることになる。   In step 514, based on the feature region information derived by the above processing, specific feature region information is created by the same processing as the processing by the association unit 21C described above, and stored in the RAM 20B. By the process of step 514, specific feature region information (see also FIG. 9) associated with the feature region shown in FIG. 12C as an example is created and stored.

次のステップ516では、上記ステップ514の処理によって作成された特定特徴領域情報において対応付けされている特徴領域の数の、特徴領域抽出部21Aにより抽出された特徴領域の数に対する比率が、所定率(一例として、60%)以上であるか否かを判定し、否定判定となった場合は後述するステップ522に移行する一方、肯定判定となった場合にはステップ518に移行する。   In the next step 516, the ratio of the number of feature regions associated in the specific feature region information created by the processing in step 514 to the number of feature regions extracted by the feature region extraction unit 21A is a predetermined rate. (For example, 60%) is determined. If the determination is negative, the process proceeds to step 522 to be described later, whereas if the determination is affirmative, the process proceeds to step 518.

ステップ518では、上記ステップ514の処理において作成された特定特徴領域情報に基づいて、前述した補正パラメータ算出部21Dによる処理と同様の処理により、追記前画像及び追記後画像の全体的なずれをなくすための補正係数を算出し、次のステップ520では、上記ステップ518の処理によって算出された補正係数(ここでは、幅方向移動量、縦方向移動量、回転角、及び倍率の4種類の補正係数)が各々所定範囲内であるか否かを判定し、否定判定となった場合(ここでは、上記4種類の少なくとも1つの補正係数が対応する範囲内とならなかった場合)はステップ522に移行する。なお、本実施の形態に係る前処理ルーチン・プログラムでは、上記所定範囲として、幅方向移動量及び縦方向移動量の2種類の補正係数については±20mm以内である範囲を適用し、回転角については±3度以内である範囲を適用し、更に、倍率については±5%以内である範囲を適用しているが、これらに限らないことも言うまでもない。   In step 518, based on the specific feature area information created in the process of step 514, the overall shift between the pre-recording image and the post-recording image is eliminated by the same process as the process performed by the correction parameter calculation unit 21D described above. In the next step 520, the correction coefficients calculated by the processing in step 518 (here, four types of correction coefficients including the width direction movement amount, the vertical direction movement amount, the rotation angle, and the magnification) are calculated. ) Is determined to be within a predetermined range, and if a negative determination is made (in this case, at least one of the four types of correction coefficients is not within the corresponding range), the process proceeds to step 522. To do. In the preprocessing routine program according to the present embodiment, as the predetermined range, a range that is within ± 20 mm is applied to the two types of correction coefficients of the width direction movement amount and the vertical direction movement amount, and the rotation angle is determined. Applies a range that is within ± 3 degrees, and further applies a range that is within ± 5% for the magnification, but it goes without saying that the range is not limited thereto.

ステップ522では、本前処理ルーチン・プログラムが実行されてから未だ処理対象としていない追記前画像データがハードディスク20Dの所定領域に記憶されているか否かを判定し、肯定判定となった場合は上記ステップ508に戻る一方、否定判定となった場合にはステップ524に移行する。なお、上記ステップ508〜ステップ522の処理を繰り返し実行する際に、ステップ508では、それまでに読み出していない追記前画像データをハードディスク20Dから読み出すようにする。   In step 522, it is determined whether or not pre-additional image data that has not yet been processed since this pre-processing routine program has been executed is stored in a predetermined area of the hard disk 20D. On the other hand, if the determination is negative, the process proceeds to step 524. When the processes in steps 508 to 522 are repeatedly executed, in step 508, the pre-additional image data that has not been read is read from the hard disk 20D.

ステップ524では、予め定められたエラー通知処理E5を実行した後、上記画像処理プログラムを終了する。なお、本実施の形態に係る前処理ルーチン・プログラムでは、上記エラー通知処理E5として、「候補の中に対応する追記前画像がありません。」というメッセージをディスプレイ20Fにより表示する処理を適用しているが、これに限るものでないことは言うまでもない。   In step 524, after executing a predetermined error notification process E5, the image processing program is terminated. In the preprocessing routine program according to the present embodiment, as the error notification process E5, a process of displaying a message “There is no pre-additional image corresponding to the candidate” on the display 20F is applied. However, it goes without saying that this is not a limitation.

一方、上記ステップ520において肯定判定となった場合は本前処理ルーチン・プログラムを終了して、画像処理プログラムのステップ102(図10参照。)に移行する。   On the other hand, if the determination in step 520 is affirmative, the preprocessing routine program is terminated and the process proceeds to step 102 (see FIG. 10) of the image processing program.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。発明の要旨を逸脱しない範囲で上記実施の形態に多様な変更または改良を加えることができ、当該変更または改良を加えた形態も本発明の技術的範囲に含まれる。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. Various modifications or improvements can be added to the above-described embodiment without departing from the gist of the invention, and embodiments to which such modifications or improvements are added are also included in the technical scope of the present invention.

また、上記の実施の形態は、クレーム(請求項)にかかる発明を限定するものではなく、また実施の形態の中で説明されている特徴の組合せの全てが発明の解決手段に必須であるとは限らない。前述した実施の形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜の組み合せにより種々の発明を抽出できる。実施の形態に示される全構成要件から幾つかの構成要件が削除されても、効果が得られる限りにおいて、この幾つかの構成要件が削除された構成が発明として抽出され得る。   The above embodiments do not limit the invention according to the claims (claims), and all the combinations of features described in the embodiments are essential for the solution of the invention. Is not limited. The above-described embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. Even if some constituent requirements are deleted from all the constituent requirements shown in the embodiment, as long as an effect is obtained, a configuration from which these some constituent requirements are deleted can be extracted as an invention.

例えば、上記各実施の形態では、画像処理をソフトウェア構成によって実現した場合について説明したが、本発明はこれに限定されるものではなく、例えば、当該画像処理をハードウェア構成により実現する形態とすることもできる。この場合の形態例としては、例えば、図3に示した画像処理装置20の各構成要素(第1位置合わせ部21(21’)、第2位置合わせ部22、追記検出部23、追記領域選択部25、異常検出部26)と同一の処理を実行する機能デバイスを作成して用いる形態が例示できる。この場合は、上記各実施の形態に比較して、画像処理の高速化が期待できる。   For example, although cases have been described with the above embodiments where image processing is realized by a software configuration, the present invention is not limited to this, and for example, the image processing is realized by a hardware configuration. You can also. As a form example in this case, for example, each component of the image processing apparatus 20 shown in FIG. 3 (first alignment unit 21 (21 ′), second alignment unit 22, additional recording detection unit 23, additional recording area selection) The form which produces and uses the functional device which performs the process same as the part 25 and the abnormality detection part 26) can be illustrated. In this case, the image processing can be speeded up as compared with the above embodiments.

また、上記各実施の形態では、本発明を所定原稿に対する追記画像を抽出する画像処理を行う画像処理システムに適用した場合について説明したが、本発明はこれに限定されるものではなく、例えば、所定原稿に対する追記画像に加えて消去画像も抽出する画像処理を行う画像処理システム等、複数の原稿画像を用いた他の画像処理を行う画像処理システムに適用する形態とすることもできる。この場合も、上記各実施の形態と同様の効果を奏することができる。   In each of the above embodiments, the case where the present invention is applied to an image processing system that performs image processing for extracting a postscript image for a predetermined document has been described. However, the present invention is not limited to this, and for example, The present invention can also be applied to an image processing system that performs other image processing using a plurality of document images, such as an image processing system that performs image processing that extracts an erased image in addition to a postscript image for a predetermined document. Also in this case, the same effects as those of the above embodiments can be obtained.

また、上記第1の実施の形態の前処理ルーチン・プログラムでは、特定特徴領域情報により対応付けられた特徴領域の数が所定数以上であるか否かを判定しているのに対し、上記第2〜第4の実施の形態の前処理ルーチン・プログラムでは、特定特徴領域情報により対応付けられた特徴領域の数の、特徴領域抽出部により抽出された特徴領域の数に対する比率が所定率以上であるか否かを判定する場合について説明したが、本発明はこれに限定されるものではなく、上記第1の実施の形態の前処理ルーチン・プログラムでは上記第2〜第4の実施の形態の前処理ルーチン・プログラムの比率を用いる形態としてもよく、逆に、上記第2〜第4の実施の形態の前処理ルーチン・プログラムでは上記第1の実施の形態の前処理ルーチン・プログラムの特徴領域の数を用いる形態としてもよい。   In the preprocessing routine program of the first embodiment, it is determined whether or not the number of feature regions associated with the specific feature region information is a predetermined number or more. In the pre-processing routine programs of the second to fourth embodiments, the ratio of the number of feature regions associated with the specific feature region information to the number of feature regions extracted by the feature region extraction unit is a predetermined rate or more. Although the case where it is determined whether or not there has been described, the present invention is not limited to this, and the preprocessing routine program of the first embodiment described above is the same as that of the second to fourth embodiments. The ratio of the preprocessing routine program may be used. Conversely, in the preprocessing routine program of the second to fourth embodiments, the preprocessing routine program of the first embodiment is used. The number of feature areas of may be in the form used.

また、上記各実施の形態では、本発明の位置ずれを示す物理量として、追記前画像及び追記後画像の全体的な位置合わせを行うための画像変換(上記各実施の形態では、アフィン変換)の際に用いる補正係数を適用した場合について説明したが、本発明はこれに限定されるものではなく、追記前画像及び追記後画像の位置ずれ量そのものを適用する形態等、追記前画像と追記後画像との間の位置ずれを示す他の物理量を適用する形態とすることもできる。この場合も、上記各実施の形態と同様の効果を奏することができる。   Further, in each of the above embodiments, as a physical quantity indicating the positional deviation of the present invention, image conversion for performing overall alignment of the pre-recording image and the post-recording image (affine transformation in each of the above embodiments) is performed. However, the present invention is not limited to this and the present invention is not limited to this. It is also possible to adopt a form in which another physical quantity indicating a positional deviation from the image is applied. Also in this case, the same effects as those of the above embodiments can be obtained.

また、上記各実施の形態では、異常通知部による異常状態の通知法として、異常の内容を示すメッセージをディスプレイ20Fにより表示することによる通知を適用した場合について説明したが、本発明はこれに限定されるものではなく、例えば、当該メッセージを画像形成装置により印刷することによる通知、当該メッセージを音声再生装置により発音することによる通知、上位プログラムへの通知等、他の通知法を適用する形態とすることもできる。この場合も、上記各実施の形態と同様の効果を奏することができる。   In each of the above-described embodiments, the case has been described where notification by displaying a message indicating the content of an abnormality on the display 20F is applied as an abnormal state notification method by the abnormality notification unit, but the present invention is not limited thereto. For example, other notification methods such as notification by printing the message by the image forming apparatus, notification by sounding the message by the audio reproduction apparatus, notification to a higher-level program, etc. You can also Also in this case, the same effects as those of the above embodiments can be obtained.

その他、上記各実施の形態で説明した画像処理システム10や画像処理装置20の構成(図1〜図5,図13参照。)は一例であり、本発明の主旨を逸脱しない範囲内において不要な部分を削除したり、新たな部分を追加したりすることができることは言うまでもない。   In addition, the configurations (see FIGS. 1 to 5 and 13) of the image processing system 10 and the image processing apparatus 20 described in the above embodiments are merely examples, and are not necessary within the scope of the present invention. Needless to say, you can delete parts or add new ones.

また、上記各実施の形態で説明した各種情報のデータ構造(図8,図9参照。)も一例であり、本発明の主旨を逸脱しない範囲内において変更を加えることができることは言うまでもない。   The data structures of various information described in the above embodiments (see FIGS. 8 and 9) are also examples, and it goes without saying that changes can be made without departing from the gist of the present invention.

更に、上記各実施の形態で説明した画像処理プログラム及び前処理ルーチン・プログラムの処理の流れ(図10,図11,図14〜図16参照。)も一例であり、本発明の主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりすることができることは言うまでもない。   Furthermore, the processing flow of the image processing program and the preprocessing routine program described in the above embodiments (see FIGS. 10, 11, and 14 to 16) is an example, and does not depart from the gist of the present invention. It goes without saying that unnecessary steps can be deleted, new steps can be added, and the processing order can be changed within the range.

実施の形態に係る画像処理システムの構成を示す模式図である。1 is a schematic diagram illustrating a configuration of an image processing system according to an embodiment. 実施の形態に係る画像処理装置の電気系の要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the electric system of the image processing apparatus which concerns on embodiment. 実施の形態に係る画像処理装置の機能的な構成を示す機能ブロック図である。It is a functional block diagram which shows the functional structure of the image processing apparatus which concerns on embodiment. 実施の形態に係る画像処理装置の機能的な構成のうち、第1,第4の実施の形態に係る第1位置合わせ部の構成を示すブロック図である。It is a block diagram which shows the structure of the 1st position alignment part which concerns on the 1st, 4th embodiment among the functional structures of the image processing apparatus which concerns on embodiment. 実施の形態に係る画像処理装置の機能的な構成のうち、特徴領域抽出部の構成を示すブロック図である。It is a block diagram which shows the structure of a characteristic area extraction part among the functional structures of the image processing apparatus which concerns on embodiment. 実施の形態に係る連結領域(特徴領域)の説明に供する図である。It is a figure where it uses for description of the connection area | region (characteristic area | region) which concerns on embodiment. 実施の形態に係る連結領域から求められる重心及び特徴量の各情報の説明に供する図である。It is a figure with which it uses for description of each information of the gravity center calculated | required from the connection area | region which concerns on embodiment, and a feature-value. 実施の形態に係る特徴領域情報のデータ構造を示す模式図である。It is a schematic diagram which shows the data structure of the characteristic area information which concerns on embodiment. 実施の形態に係る特定特徴領域情報のデータ構造を示す模式図である。It is a schematic diagram which shows the data structure of the specific feature area information which concerns on embodiment. 実施の形態に係る画像処理プログラムの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the image processing program which concerns on embodiment. 第1の実施の形態に係る前処理ルーチン・プログラムの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the pre-processing routine program which concerns on 1st Embodiment. 実施の形態に係る画像処理プログラムの処理内容の説明に供する図である。It is a figure where it uses for description of the processing content of the image processing program which concerns on embodiment. 実施の形態に係る画像処理装置の機能的な構成のうち、第2,第3の実施の形態に係る第1位置合わせ部の構成を示すブロック図である。It is a block diagram which shows the structure of the 1st position alignment part which concerns on 2nd, 3rd embodiment among the functional structures of the image processing apparatus which concerns on embodiment. 第2の実施の形態に係る前処理ルーチン・プログラムの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the pre-processing routine program which concerns on 2nd Embodiment. 第3の実施の形態に係る前処理ルーチン・プログラムの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the pre-processing routine program which concerns on 3rd Embodiment. 第4の実施の形態に係る前処理ルーチン・プログラムの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the pre-processing routine program which concerns on 4th Embodiment.

符号の説明Explanation of symbols

10 画像処理システム
20 画像処理装置
20A CPU
20D ハードディスク
20F ディスプレイ
21,21’ 第1位置合わせ部
21A 特徴領域抽出部
21B 特徴領域抽出部
21C,21C’ 対応付部(特定手段)
21D 補正パラメータ算出部
21E 画像変換部(位置合わせ手段)
21F 90度回転部(変換手段)
21G 選択部
22 第2位置合わせ部
23 追記検出部
24 記憶部
25 追記領域選択部
26 異常検出部(判定手段)
27 異常通知部(実行手段)
30 画像読取装置(取得手段)
40 前処理部
42 連結領域抽出部(抽出手段)
44 重心算出部(導出手段)
46 特徴量算出部(導出手段)
DESCRIPTION OF SYMBOLS 10 Image processing system 20 Image processing apparatus 20A CPU
20D hard disk 20F display 21, 21 ′ first alignment unit 21A feature region extraction unit 21B feature region extraction unit 21C, 21C ′ corresponding unit (specifying means)
21D correction parameter calculation unit 21E image conversion unit (positioning means)
21F 90 degree rotating part (conversion means)
21G selection part 22 2nd position alignment part 23 Additional recording detection part 24 Storage part 25 Additional recording area selection part 26 Abnormality detection part (determination means)
27 Abnormality notification unit (execution means)
30 Image reader (acquiring means)
40 Pre-processing unit 42 Connected region extraction unit (extraction means)
44 Center of gravity calculation unit (derivation means)
46 feature amount calculation unit (derivation means)

Claims (8)

修正が行われる前の原稿である第1原稿の画像を示す第1画像情報、及び修正が行われた後の前記原稿である第2原稿の画像を示す第2画像情報を取得する取得手段と、
前記第1画像情報及び前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における予め定められた特徴を有する特徴領域を抽出する抽出手段と、
前記第1画像情報及び前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における前記特徴領域から予め定められた特徴量を導出する導出手段と、
前記第1原稿の画像及び前記第2原稿の画像の間で前記特徴量の類似度が所定度合以上である前記特徴領域を特定する特定手段と、
前記特定手段による特定結果に基づいて、前記第1画像情報及び前記第2画像情報の少なくとも一方に対して前記第1原稿の画像と前記第2原稿の画像の画像全体における位置合わせ処理を実行する位置合わせ手段と、
前記抽出手段によって抽出された前記第1原稿の画像における特徴領域の数、前記抽出手段によって抽出された前記第2原稿の画像における特徴領域の数、前記特定手段によって特定された特徴領域の数、及び前記位置合わせ手段による位置合わせ処理の対象とされる前記第1原稿の画像と前記第2原稿の画像との間の位置ずれを示す物理量の少なくとも1つに基づいて、前記第1原稿及び前記第2原稿の少なくとも一方の異常の有無を判定する判定手段と、
前記判定手段により異常があると判定された場合に当該異常によって生じる不具合の発生を防止するものとして予め定められた処理を実行する実行手段と、
を備えた画像処理装置。
Acquisition means for acquiring first image information indicating an image of a first document that is a document before correction and second image information indicating an image of a second document that is the document after correction; ,
Extracting means for extracting a feature region having a predetermined feature in the image of the first document and the image of the second document based on the first image information and the second image information;
Derivation means for deriving a predetermined feature amount from the feature region in the image of the first document and the image of the second document based on the first image information and the second image information;
Specifying means for specifying the feature region in which the similarity of the feature amount is equal to or greater than a predetermined degree between the image of the first document and the image of the second document;
Based on the result of specification by the specifying means, alignment processing is performed on the entire image of the first document image and the second document image for at least one of the first image information and the second image information. Alignment means;
The number of feature areas in the image of the first document extracted by the extraction means, the number of feature areas in the image of the second document extracted by the extraction means, the number of feature areas specified by the specification means, And the at least one physical quantity indicating a positional deviation between the image of the first document and the image of the second document to be subjected to the alignment process by the alignment unit, and the first document and the Determination means for determining the presence / absence of at least one abnormality of the second document;
An execution means for executing a process predetermined as preventing the occurrence of a malfunction caused by the abnormality when the determination means determines that there is an abnormality;
An image processing apparatus.
前記判定手段は、前記第1原稿の画像における特徴領域の数、前記第2原稿の画像における特徴領域の数、前記特定手段によって特定された特徴領域の数、及び前記物理量の少なくとも1つが、各々に対応するものとして予め定められた範囲内であるか否かを判定することにより前記異常の有無を判定し、
前記実行手段は、前記判定手段により異常があると判定された場合に、当該異常があることを提示する処理を前記予め定められた処理として実行する
請求項1記載の画像処理装置。
The determination means includes at least one of the number of feature areas in the image of the first document, the number of feature areas in the image of the second document, the number of feature areas specified by the specifying means, and the physical quantity, respectively. Determining the presence or absence of the abnormality by determining whether or not it is within a predetermined range as corresponding to
The image processing apparatus according to claim 1, wherein when the determination unit determines that there is an abnormality, the execution unit executes a process of presenting the abnormality as the predetermined process.
前記導出手段により導出された前記第1原稿の画像と前記第2原稿の画像の何れか一方の画像の特徴量を、当該画像を90度、180度、及び270度の3種類の角度で回転させた場合の各々の特徴量に変換する変換手段を更に備え、
前記特定手段は、前記導出手段によって導出された前記一方の画像の特徴量及び前記変換手段によって得られた3種類の特徴量の各特徴量と、他方の画像の特徴量との間の類似度が所定度合以上である前記特徴領域を特定し、
前記判定手段は、前記特定手段によって特定された前記一方の画像及び前記他方の画像の組み合わせ毎の特徴領域の数の最大値が所定数以上であるか否かを判定することにより前記異常の有無を判定し、
前記実行手段は、前記判定手段により異常があると判定された場合に、当該異常があることを提示する処理を前記予め定められた処理として実行し、前記判定手段により異常がないと判定された場合に、前記位置合わせ手段による位置合わせ処理を実行させる処理を前記予め定められた処理として実行する
請求項1記載の画像処理装置。
The feature amount of one of the image of the first document and the image of the second document derived by the deriving unit is rotated at three angles of 90 degrees, 180 degrees, and 270 degrees. Conversion means for converting each feature amount in the case of
The specifying means is a degree of similarity between the feature quantity of the one image derived by the derivation means and the feature quantities of the three types of feature quantities obtained by the conversion means, and the feature quantity of the other image. Identifying the feature region that is greater than or equal to a predetermined degree,
The determination means determines whether or not the abnormality exists by determining whether or not a maximum value of the number of feature regions for each combination of the one image and the other image specified by the specification means is a predetermined number or more. Determine
The execution means executes the process of presenting the presence of the abnormality as the predetermined process when the determination means determines that there is an abnormality, and the determination means determines that there is no abnormality The image processing apparatus according to claim 1, wherein a process for executing an alignment process by the alignment unit is executed as the predetermined process.
前記判定手段は、前記特定手段によって特定された特徴領域の数が所定数以上であるか否かを判定することにより前記異常の有無を判定し、
前記実行手段は、前記判定手段により異常があると判定された場合に、前記第1原稿の画像及び前記第2原稿の画像の少なくとも一方を所定角度だけ回転させた状態として、再度前記特定手段及び前記判定手段による処理を実行させる処理を前記予め定められた処理として実行し、前記判定手段により異常がないと判定された場合に、前記位置合わせ手段による位置合わせ処理を実行させる処理を前記予め定められた処理として実行する
請求項1記載の画像処理装置。
The determination means determines the presence or absence of the abnormality by determining whether or not the number of feature regions specified by the specifying means is a predetermined number or more,
When the determination unit determines that there is an abnormality, the execution unit sets the at least one of the image of the first document and the image of the second document as being rotated by a predetermined angle, and again specifies the specification unit and The process for executing the process by the determination unit is executed as the predetermined process, and the process for executing the alignment process by the alignment unit when the determination unit determines that there is no abnormality is the predetermined process. The image processing apparatus according to claim 1, wherein the image processing apparatus executes the processed process.
前記第1原稿及び前記第2原稿の少なくとも一方は、候補となる複数の原稿が存在するものであり、
前記判定手段は、前記第1原稿の画像における特徴領域の数、前記第2原稿の画像における特徴領域の数、前記特定手段によって特定された特徴領域の数、及び前記物理量の少なくとも1つが、各々に対応するものとして予め定められた範囲内であるか否かを判定することにより前記異常の有無を判定し、
前記実行手段は、前記判定手段により異常があると判定された場合に、前記複数の原稿の残りの原稿の何れかを適用して、前記取得手段、前記抽出手段、前記導出手段、前記特定手段、及び前記判定手段による処理を再度実行させる処理を前記予め定められた処理として実行し、前記判定手段により異常がないと判定された場合に、前記位置合わせ手段による位置合わせ処理を実行させる処理を前記予め定められた処理として実行する
請求項1記載の画像処理装置。
At least one of the first document and the second document has a plurality of candidate documents,
The determination means includes at least one of the number of feature areas in the image of the first document, the number of feature areas in the image of the second document, the number of feature areas specified by the specifying means, and the physical quantity, respectively. Determining the presence or absence of the abnormality by determining whether or not it is within a predetermined range as corresponding to
The execution means applies any one of the remaining originals of the plurality of originals when the determination means determines that there is an abnormality, and the acquisition means, the extraction means, the derivation means, and the specification means And a process for executing the process by the determination unit again as the predetermined process, and a process for executing the alignment process by the alignment unit when the determination unit determines that there is no abnormality. The image processing apparatus according to claim 1, wherein the image processing apparatus is executed as the predetermined process.
前記位置合わせ手段は、前記第1原稿の画像と前記第2原稿の画像のずれ量に基づいて補正係数を算出し、前記位置合わせ処理として前記補正係数を用いた前記第1画像情報及び前記第2画像情報の少なくとも一方に対する補正処理を実行するものであり、
前記物理量は、前記補正係数である
請求項1乃至請求項5の何れか1項記載の画像処理装置。
The alignment unit calculates a correction coefficient based on a shift amount between the image of the first document and the image of the second document, and the first image information and the first image using the correction coefficient as the alignment process. Correction processing is performed on at least one of the two image information,
The image processing apparatus according to claim 1, wherein the physical quantity is the correction coefficient.
前記特定手段によって特定された特徴領域の数に代えて、当該特定領域の数と、前記抽出手段によって抽出された前記第1原稿の画像又は前記第2原稿の画像における特徴領域の数との比を用いる
請求項1乃至請求項6の何れか1項記載の画像処理装置。
Instead of the number of feature areas specified by the specifying means, a ratio between the number of the specific areas and the number of feature areas in the image of the first document or the image of the second document extracted by the extraction means. The image processing apparatus according to any one of claims 1 to 6.
修正が行われる前の原稿である第1原稿の画像を示す第1画像情報、及び修正が行われた後の前記原稿である第2原稿の画像を示す第2画像情報を取得する取得ステップと、
前記第1画像情報及び前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における予め定められた特徴を有する特徴領域を抽出する抽出ステップと、
前記第1画像情報及び前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における前記特徴領域から予め定められた特徴量を導出する導出ステップと、
前記第1原稿の画像及び前記第2原稿の画像の間で前記特徴量の類似度が所定度合以上である前記特徴領域を特定する特定ステップと、
前記特定ステップによる特定結果に基づいて、前記第1画像情報及び前記第2画像情報の少なくとも一方に対して前記第1原稿の画像と前記第2原稿の画像の画像全体における位置合わせ処理を実行する位置合わせステップと、
前記抽出ステップによって抽出された前記第1原稿の画像における特徴領域の数、前記抽出ステップによって抽出された前記第2原稿の画像における特徴領域の数、前記特定ステップによって特定された特徴領域の数、及び前記位置合わせステップによる位置合わせ処理の対象とされる前記第1原稿の画像と前記第2原稿の画像との間の位置ずれを示す物理量の少なくとも1つに基づいて、前記第1原稿及び前記第2原稿の少なくとも一方の異常の有無を判定する判定ステップと、
前記判定ステップにより異常があると判定された場合に当該異常によって生じる不具合の発生を防止するものとして予め定められた処理を実行する実行ステップと、
をコンピュータに実行させる画像処理プログラム。
An acquisition step of acquiring first image information indicating an image of a first document that is a document before correction and second image information indicating an image of a second document that is the document after correction; ,
An extraction step of extracting a feature region having a predetermined feature in the image of the first document and the image of the second document based on the first image information and the second image information;
A derivation step for deriving a predetermined feature amount from the feature region in the image of the first document and the image of the second document based on the first image information and the second image information;
A specifying step of specifying the feature region in which the similarity of the feature amount is a predetermined degree or more between the image of the first document and the image of the second document;
Based on the identification result of the identifying step, alignment processing is performed on at least one of the first image information and the second image information in the entire image of the first document image and the second document image. An alignment step;
The number of feature regions in the image of the first document extracted by the extraction step, the number of feature regions in the image of the second document extracted by the extraction step, the number of feature regions specified by the specification step, And based on at least one of physical quantities indicating a positional deviation between the image of the first document and the image of the second document to be subjected to the alignment process in the alignment step. A determination step of determining whether or not there is an abnormality in at least one of the second originals;
An execution step of executing a process predetermined as preventing occurrence of a malfunction caused by the abnormality when it is determined that there is an abnormality in the determination step;
An image processing program for causing a computer to execute.
JP2007042249A 2007-02-22 2007-02-22 Image processing apparatus and image processing program Expired - Fee Related JP5056063B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007042249A JP5056063B2 (en) 2007-02-22 2007-02-22 Image processing apparatus and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007042249A JP5056063B2 (en) 2007-02-22 2007-02-22 Image processing apparatus and image processing program

Publications (2)

Publication Number Publication Date
JP2008206037A true JP2008206037A (en) 2008-09-04
JP5056063B2 JP5056063B2 (en) 2012-10-24

Family

ID=39782999

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007042249A Expired - Fee Related JP5056063B2 (en) 2007-02-22 2007-02-22 Image processing apparatus and image processing program

Country Status (1)

Country Link
JP (1) JP5056063B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015075926A (en) * 2013-10-09 2015-04-20 富士ゼロックス株式会社 Image processor and image processing program
JP2015087314A (en) * 2013-10-31 2015-05-07 キヤノン株式会社 Measurement device, measurement method, lithography device, and article manufacturing method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06103410A (en) * 1992-09-18 1994-04-15 Minolta Camera Co Ltd Picture processor
JP2001148779A (en) * 1999-09-08 2001-05-29 Sharp Corp Image processing unit and image composite method
JP2005208977A (en) * 2004-01-23 2005-08-04 Fuji Xerox Co Ltd Document filing device and method
JP2006235786A (en) * 2005-02-23 2006-09-07 Fuji Xerox Co Ltd Image processor, image processing method and computer program
JP2007006059A (en) * 2005-06-23 2007-01-11 Fuji Xerox Co Ltd Image processing apparatus, image processing method and computer program
JP2007036406A (en) * 2005-07-25 2007-02-08 Konica Minolta Business Technologies Inc Image editing device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06103410A (en) * 1992-09-18 1994-04-15 Minolta Camera Co Ltd Picture processor
JP2001148779A (en) * 1999-09-08 2001-05-29 Sharp Corp Image processing unit and image composite method
JP2005208977A (en) * 2004-01-23 2005-08-04 Fuji Xerox Co Ltd Document filing device and method
JP2006235786A (en) * 2005-02-23 2006-09-07 Fuji Xerox Co Ltd Image processor, image processing method and computer program
JP2007006059A (en) * 2005-06-23 2007-01-11 Fuji Xerox Co Ltd Image processing apparatus, image processing method and computer program
JP2007036406A (en) * 2005-07-25 2007-02-08 Konica Minolta Business Technologies Inc Image editing device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015075926A (en) * 2013-10-09 2015-04-20 富士ゼロックス株式会社 Image processor and image processing program
JP2015087314A (en) * 2013-10-31 2015-05-07 キヤノン株式会社 Measurement device, measurement method, lithography device, and article manufacturing method

Also Published As

Publication number Publication date
JP5056063B2 (en) 2012-10-24

Similar Documents

Publication Publication Date Title
JP5616308B2 (en) Document modification detection method by character comparison using character shape feature
JP5387193B2 (en) Image processing system, image processing apparatus, and program
JP5861503B2 (en) Image inspection apparatus and method
JP2007241356A (en) Image processor and image processing program
JP2010186389A (en) Apparatus and program for processing information
CN110569845A (en) test paper image correction method and related device
JP5600524B2 (en) Image processing apparatus, image processing method, program, and storage medium
JP6413542B2 (en) Image processing apparatus and image processing program
JP5145833B2 (en) Two-dimensional code reading device, two-dimensional code reading method, two-dimensional code reading program, and recording medium
JP4910635B2 (en) Image processing apparatus and image processing program
JP5056063B2 (en) Image processing apparatus and image processing program
JP2005184685A (en) Image processing device, program, and recording medium
JP2010066865A (en) Difference extraction device and difference extraction program
JP2010079507A (en) Image processor and image processing program
JP2017174031A (en) Image processing apparatus and image processing program
JP5742283B2 (en) Image processing apparatus and image processing program
JP4803001B2 (en) Image processing apparatus and image processing program
JP2008269131A (en) Image processor and image processing program
JP2006237858A (en) Image processing apparatus, image processing method, program for allowing computer to execute the method, and recording medium
JP4552757B2 (en) Image processing apparatus, image processing method, and image processing program
JP6225096B2 (en) Form reading program, form reading method, and information processing apparatus
JP5146199B2 (en) Difference extraction apparatus and difference extraction program
JP5434273B2 (en) Image processing apparatus and image processing program
JP2009267730A (en) Image processor and image processing method
JP2009230603A (en) Image processor and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120611

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120703

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120716

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150810

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5056063

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees