JP5146199B2 - Difference extraction apparatus and difference extraction program - Google Patents

Difference extraction apparatus and difference extraction program Download PDF

Info

Publication number
JP5146199B2
JP5146199B2 JP2008214846A JP2008214846A JP5146199B2 JP 5146199 B2 JP5146199 B2 JP 5146199B2 JP 2008214846 A JP2008214846 A JP 2008214846A JP 2008214846 A JP2008214846 A JP 2008214846A JP 5146199 B2 JP5146199 B2 JP 5146199B2
Authority
JP
Japan
Prior art keywords
image
difference extraction
invalid area
images
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008214846A
Other languages
Japanese (ja)
Other versions
JP2010049587A (en
Inventor
俊哉 小山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2008214846A priority Critical patent/JP5146199B2/en
Publication of JP2010049587A publication Critical patent/JP2010049587A/en
Application granted granted Critical
Publication of JP5146199B2 publication Critical patent/JP5146199B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、差分抽出装置及び差分抽出プログラムに関する。   The present invention relates to a difference extraction apparatus and a difference extraction program.

紙原稿に対し、手書きで追記や押印、あるいは修正液を用いて削除などを行ったり、コンピュータ等を用いて原稿データに編集を加えたりする場合が少なくない。これらの元の原稿に対する手書きによる追記や押印、コンピュータを用いた追加、削除等元の原稿に対して何らかの変更を加えることを「修正」と総称することにすると、修正した部分を把握するために修正前の原稿と修正後の原稿とを比較して差異部分を抽出したいというニーズは少なからずある。従来では、比較対象の画像データを領域分割し、分割画像を比較などして差分を抽出する技術が提案されている(例えば、特許文献1,2)。   There are many cases in which a paper document is manually added, deleted, or deleted using a correction liquid, or the document data is edited using a computer or the like. To make any changes to the original document, such as handwritten additions or seals to these original documents, additions using computers, deletions, etc. There are many needs to extract a difference portion by comparing a document before correction with a document after correction. Conventionally, a technique has been proposed in which image data to be compared is divided into regions and a difference is extracted by comparing the divided images (for example, Patent Documents 1 and 2).

特開2004−178002号公報JP 2004-178002 A 特開2004−287682号公報JP 2004-287682 A

ところで、差分抽出を行う際に、比較対象の画像に写真画像、絵柄画像といった特定の種類の画像が含まれている場合、これらの画像はスキャナの特性変動の影響により、濃度や色彩の変化が生じやすいため、差分が抽出される可能性が大きくなる。   By the way, when performing difference extraction, if a comparison target image includes a specific type of image such as a photographic image or a pattern image, these images may change in density or color due to the influence of scanner characteristic fluctuations. Since it is likely to occur, the possibility that a difference is extracted increases.

本発明は、原稿に修正を加えていなくても画像間の差異が抽出される可能性を低減させることを目的とする。   An object of the present invention is to reduce the possibility that a difference between images is extracted even if a document is not modified.

本発明に係る差分抽出装置は、第1の画像と、第1の画像との差分抽出対象となる第2の画像と、を受け付ける受付手段と、第1又は第2の画像の少なくとも一方の画像の中から、差分抽出処理を実行する際に有効な処理結果が得られない画像を含む領域を無効領域として特定する無効領域特定手段と、第1及び第2の各画像から無効領域を除いた画像領域を比較することによって差分抽出処理を行う差分抽出処理手段と、前記無効領域特定手段により特定された無効領域を判別可能な態様で前記差分抽出処理手段による処理の結果得られた差分抽出画像を出力する画像出力手段と、を有し、前記画像出力手段は、前記差分抽出画像を印刷する場合、第1及び第2の各画像から前記無効領域特定手段により特定された無効領域部分の画像を切り出し、その切り出した無効領域部分の各画像を前記差分抽出画像とは別に印刷することを特徴とする。 The difference extraction apparatus according to the present invention includes a receiving unit that receives a first image and a second image that is a difference extraction target between the first image and at least one of the first and second images. The invalid area specifying means for specifying an area including an image for which an effective processing result cannot be obtained when executing the difference extraction process as an invalid area, and the invalid area is excluded from each of the first and second images Difference extraction processing means for performing difference extraction processing by comparing image areas, and a differential extraction image obtained as a result of the processing by the difference extraction processing means in a manner capable of discriminating the invalid area specified by the invalid area specifying means have a, and an image output means for outputting said image output unit, wherein when printing the difference extraction image, the image of the invalid area portion identified by the invalid area specifying means from the first and second of each image Turn off Out, characterized by printing separately from each image the difference extraction image in the clipped invalid area portion.

また、前記差分抽出処理手段は、第1及び第2の各画像の無効領域を除いた画像領域から特徴点を抽出する特徴点抽出部と、前記第1及び第2の各画像の無効領域を除いた画像領域から抽出された特徴点を対応付けることによって第1又は第2の画像の少なくとも一方の画像の位置、歪みを補正する補正部と、前記補正部による補正後の第1及び第2の各画像を比較することによって差分抽出を行う差分抽出部と、を有し、前記無効領域特定手段は、更に第1又は第2の画像の少なくとも一方の画像の中から、当該画像に含まれている部分画像の種類及びその部分画像の領域を特定し、前記特徴点抽出部は、前記第1又は第2の画像の少なくとも一方の画像の無効領域を除いた画像領域における前記特定された部分画像の種類に応じた方法にて当該部分画像の領域から特徴点を抽出することを特徴とする。
The difference extraction processing means includes a feature point extraction unit that extracts a feature point from an image area excluding the invalid area of each of the first and second images, and an invalid area of each of the first and second images. A correction unit that corrects the position and distortion of at least one of the first and second images by associating feature points extracted from the excluded image region, and the first and second corrected after the correction unit A difference extraction unit that performs difference extraction by comparing each image, and the invalid area specifying unit is further included in the image from at least one of the first and second images. A type of the partial image and a region of the partial image, and the feature point extraction unit includes the specified partial image in the image region excluding the invalid region of at least one of the first or second images. Depending on the type of And extracting feature points from the region of the partial image.

本発明に係る差分抽出プログラムは、コンピュータ、第1の画像と、第1の画像との差分抽出対象となる第2の画像とを受け付ける受付手段、第1又は第2の画像の少なくとも一方の画像の中から、差分抽出処理を実行する際に有効な処理結果が得られない画像を含む領域を無効領域として特定する無効領域特定手段、第1及び第2の各画像から無効領域を除いた画像領域を比較することによって差分抽出処理を行う差分抽出処理手段前記無効領域特定手段により特定された無効領域を判別可能な態様で前記差分抽出処理手段による処理の結果得られた差分抽出画像を出力する画像出力手段として機能させ、前記画像出力手段は、前記差分抽出画像を印刷する場合、第1及び第2の各画像から前記無効領域特定手段により特定された無効領域部分の画像を切り出し、その切り出した無効領域部分の各画像を前記差分抽出画像とは別に印刷することを特徴とする。 Difference extraction program according to the present invention, a computer, a first image, a second receiving means for receiving an image comprising the difference extraction target from the first image, the first or the second image at least one of An invalid area specifying means for specifying, as an invalid area, an area including an image from which an effective processing result cannot be obtained when executing difference extraction processing, and removing the invalid area from the first and second images. Difference extraction processing means for performing difference extraction processing by comparing image areas, and a difference extraction image obtained as a result of the processing by the difference extraction processing means in a manner capable of discriminating the invalid area specified by the invalid area specifying means image output means for outputting, to function as the image output unit, the case of printing a difference extraction image, no specified by the invalid area specifying means from the first and second of each image Cut out the image of the area portion, wherein the print separately from each image the difference extraction image in the clipped invalid area portion.

請求項1、記載の発明によれば、原稿に修正を加えていなくても画像間の差異が抽出される可能性を低減させることができる。 According to the first and third aspects of the invention, it is possible to reduce the possibility that a difference between images is extracted even if the original is not corrected.

また、請求項1,3記載の発明によれば、差分抽出処理に用いなかった無効領域に差分があるか否かを視認により確認することができる。 Further , according to the first and third aspects of the present invention, it is possible to visually confirm whether or not there is a difference in the invalid area that is not used in the difference extraction process.

請求項記載の発明によれば、画像の種類に応じた特徴点を用いて画像の位置や歪みの補正を行わない場合に比べて、画像間の差異が抽出される可能性を低減させることができる。
According to the second aspect of the present invention, it is possible to reduce a possibility that a difference between images is extracted as compared with a case where correction of the position and distortion of an image is not performed using a feature point corresponding to the type of image. Can do.

以下、図面に基づいて、本発明の好適な実施の形態について説明する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.

実施の形態1.
図1は、本発明に係る差分抽出装置の一実施の形態を示したブロック構成図、図2は、本実施の形態における差分抽出装置を形成するコンピュータのハードウェア構成図である。本実施の形態において差分抽出装置を形成するコンピュータは、従前から存在する汎用的なハードウェア構成で実現できる。すなわち、コンピュータは、図2に示したようにCPU1、ROM2、RAM3、ハードディスクドライブ(HDD)4を接続したHDDコントローラ5、入力手段として設けられたマウス6とキーボード7、画像出力先となるディスプレイ8とプリンタ9、及び原稿を読み取るスキャナ10をそれぞれ接続する入出力コントローラ11、通信手段として設けられたネットワークコントローラ12を内部バス13に接続して構成される。
Embodiment 1 FIG.
FIG. 1 is a block configuration diagram showing an embodiment of a difference extraction apparatus according to the present invention, and FIG. 2 is a hardware configuration diagram of a computer forming the difference extraction apparatus in the present embodiment. The computer forming the difference extraction device in the present embodiment can be realized with a general-purpose hardware configuration that has existed in the past. That is, as shown in FIG. 2, the computer includes a CPU 1, a ROM 2, a RAM 3, an HDD controller 5 to which a hard disk drive (HDD) 4 is connected, a mouse 6 and a keyboard 7 provided as input means, and a display 8 serving as an image output destination. And an input / output controller 11 for connecting a printer 9 and a scanner 10 for reading an original document, and a network controller 12 provided as a communication means to an internal bus 13.

図1に戻り、本実施の形態における差分抽出装置は、画像読取部20、無効領域特定部30、差分抽出部40及び画像出力部50を有している。差分抽出装置は、一般に、元の原稿(以下、「修正前原稿」)に対して修正が加えられたことにより原稿(以下、「修正後原稿」)が生成された場合に、その修正後原稿に加えられた修正箇所を修正前原稿との差分として抽出するが、画像読取部20は、差分の抽出をするために比較する修正前原稿と修正後原稿とをスキャナ10を用いて読み取ることで修正前画像と修正後画像とを生成する。無効領域特定部30は、修正前画像又は修正後画像の少なくとも一方の画像の中から、差分抽出処理の結果として有効な処理結果が得られない画像として予め設定されている画像種別の領域を抽出し、その抽出した画像領域を無効領域として特定する。差分抽出部40は、差分抽出画像処理を実施することによって修正前画像と修正後画像との差分を示す差分抽出画像を生成する。   Returning to FIG. 1, the difference extracting apparatus according to the present embodiment includes an image reading unit 20, an invalid area specifying unit 30, a difference extracting unit 40, and an image output unit 50. In general, the difference extraction apparatus, when an original (hereinafter referred to as “corrected original”) is generated by correcting the original original (hereinafter referred to as “original before correction”), the corrected original. The image reading unit 20 uses the scanner 10 to read the pre-correction original and the post-correction original to be compared in order to extract the difference. A pre-correction image and a post-correction image are generated. The invalid area specifying unit 30 extracts an area of an image type set in advance as an image from which an effective processing result cannot be obtained as a result of the difference extraction process from at least one of the pre-correction image and the post-correction image. Then, the extracted image area is specified as an invalid area. The difference extraction unit 40 generates a difference extraction image indicating a difference between the pre-correction image and the post-correction image by performing the difference extraction image processing.

差分抽出部40は、全体位置・歪み補正部41、大略差分抽出部42、分割領域算出部43、領域分割部44、局所位置・歪み補正部45、詳細差分抽出部46及び差分合成部47を有しているが、これらの構成要素41〜47については、動作の説明と共に説明する。   The difference extraction unit 40 includes an overall position / distortion correction unit 41, an approximate difference extraction unit 42, a divided region calculation unit 43, a region division unit 44, a local position / distortion correction unit 45, a detailed difference extraction unit 46, and a difference synthesis unit 47. Although it has, these components 41-47 are demonstrated with description of operation | movement.

画像出力部50は、差分抽出部40により得られた差分抽出画像を出力する。特に、本実施の形態における画像出力部50は、差分抽出画像を、無効領域特定部30により特定された無効領域が判別可能なように出力するが、その際に画像出力部50に含まれる無効領域組込部51は、無効領域以外の部分と判別可能な状態で無効領域部分を差分抽出画像に組み込む。   The image output unit 50 outputs the difference extraction image obtained by the difference extraction unit 40. In particular, the image output unit 50 according to the present embodiment outputs the difference extracted image so that the invalid area specified by the invalid area specifying unit 30 can be identified. The area incorporation unit 51 incorporates the invalid area part into the difference extraction image in a state where it can be distinguished from the part other than the invalid area.

図3は、図1に示した全体位置・歪み補正部41のブロック構成図である。本実施の形態における全体位置・歪み補正部41は、第1特徴点抽出部411、第2特徴点抽出部412、対応特徴点判定部413、補正係数算出部414及び位置・歪み補正部415を有している。これらの構成要素411〜415については、動作の説明と共に説明する。   FIG. 3 is a block diagram of the overall position / distortion correction unit 41 shown in FIG. The overall position / distortion correction unit 41 in the present embodiment includes a first feature point extraction unit 411, a second feature point extraction unit 412, a corresponding feature point determination unit 413, a correction coefficient calculation unit 414, and a position / distortion correction unit 415. Have. These components 411 to 415 will be described together with the description of the operation.

差分抽出装置における各構成要素20〜50は、差分抽出装置を形成するコンピュータと、コンピュータに搭載されたCPU1で動作するプログラムとの協調動作により実現される。   Each component 20-50 in a difference extraction apparatus is implement | achieved by the cooperative operation | movement of the program which operate | moves with the computer which forms the difference extraction apparatus, and CPU1 mounted in the computer.

また、本実施の形態で用いるプログラムは、通信手段により提供することはもちろん、CD−ROMやDVD−ROM等のコンピュータ読み取り可能な記録媒体に格納して提供することも可能である。通信手段や記録媒体から提供されたプログラムはコンピュータにインストールされ、コンピュータのCPUがインストールプログラムを順次実行することで各種処理が実現される。   Further, the program used in this embodiment can be provided not only by communication means but also by storing it in a computer-readable recording medium such as a CD-ROM or DVD-ROM. The program provided from the communication means or the recording medium is installed in the computer, and various processes are realized by the CPU of the computer sequentially executing the installation program.

次に、本実施の形態における差分抽出処理について図4に示したフローチャートを用いて説明する。   Next, the difference extraction process in the present embodiment will be described with reference to the flowchart shown in FIG.

原稿に加えられた修正箇所を抽出するために、比較対象となる修正前原稿及び修正後原稿をスキャナ10にスキャンさせ読み取らせることで、画像読取部20は、修正前原稿の読取画像(以下、「修正前画像」)と修正後原稿の読取画像(以下、「修正後画像」)をそれぞれ生成する(ステップ101)。   In order to extract the correction portion added to the document, the image reading unit 20 scans and reads the uncorrected document to be compared and the corrected document to be read by the scanner 10. “Pre-correction image”) and a read image of the original after correction (hereinafter “corrected image”) are generated (step 101).

修正前画像と修正後画像の各画像は、無効領域特定部30と差分抽出部40それぞれに入力されることになる。なお、図1では、修正前画像と修正後画像の双方の画像が無効領域特定部30に入力されることになるが、実際には、以降の説明から明らかになるように修正前画像又は修正後画像の少なくとも一方が入力されればよい。   Each image of the pre-correction image and the post-correction image is input to the invalid area specifying unit 30 and the difference extracting unit 40, respectively. In FIG. 1, both the uncorrected image and the corrected image are input to the invalid area specifying unit 30, but actually, the uncorrected image or the corrected image as will be apparent from the following description. It is sufficient that at least one of the rear images is input.

送られてきた修正前画像又は修正後画像を受け付けると、無効領域特定部30は、受け付けた画像を次のように処理することによって無効領域を特定する(ステップ102)。ここで、無効領域というのは、差分抽出対象の画像(修正前画像又は修正後画像)に含まれている画像であって差分抽出処理の結果として有効な処理結果が得られないと考えられる画像が含まれている領域のことである。例えば、写真画像や絵柄、グラフィック及びグラデーションの各画像(以下、「絵柄画像」と総称)などは、スキャナの特性変動の影響を受けることによって、二値化後の黒画素と白画素が実際より大きく異なる可能性が高くなる。比較対象の画像の位置合わせをするための前処理として各画像から特徴点を抽出することになるが、各画像の画素値が大きく異なると、この処理において抽出される特徴点が大きく異なることになるため、位置歪み補正の精度が低下する可能性が生じる。   When the sent pre-correction image or post-correction image is received, the invalid area specifying unit 30 specifies the invalid area by processing the received image as follows (step 102). Here, the invalid area is an image included in the difference extraction target image (pre-correction image or post-correction image) and is considered to be an image in which an effective processing result cannot be obtained as a result of the differential extraction processing. Is a region that contains For example, photographic images, images, graphics, and gradation images (hereinafter collectively referred to as “image images”) are affected by variations in the characteristics of the scanner, so that the black and white pixels after binarization are actually The possibility of a large difference is high. Feature points are extracted from each image as a pre-process for aligning the images to be compared. However, if the pixel values of each image differ greatly, the feature points extracted in this processing will differ greatly. Therefore, there is a possibility that the accuracy of the positional distortion correction is lowered.

このように、高精度な差分抽出が期待できない種類の画像に対して差分抽出処理を実施してしまうと、前述した処理精度の低下等様々な弊害を招きやすい。このような弊害を招きやすい画像の種類としては、前述した写真画像や絵柄画像、更に小ポイント文字を含む画像などが考えられる。従って、本実施の形態においては、差分抽出対象の画像のうちこれらの差分抽出に適切でない画像を含む領域を差分抽出処理の対象外とするために無効領域として特定するようにした。   As described above, if the difference extraction process is performed on a type of image for which high-precision difference extraction cannot be expected, various adverse effects such as a reduction in the processing accuracy described above are likely to be caused. Examples of the types of images that are likely to cause such harmful effects include the above-described photographic images and design images, and images that include small point characters. Therefore, in the present embodiment, an area including an image that is not suitable for the difference extraction among the difference extraction target images is specified as an invalid area in order to exclude the difference extraction process.

無効領域というのは上記の通りであるので、図4におけるステップ102では、無効領域特定部30は、修正前画像又は修正後画像を受け付けると、その画像に対して画像処理を行うことで、受け付けた画像に含まれている画像の種類を判別する。そして、写真画像や絵柄画像等の無効領域とすべき画像の種類として予め設定されている種類の画像が含まれている領域を抽出すると、その領域を無効領域として特定する。なお、差分抽出対象の画像に含まれる画像領域のうち差分抽出処理が施される領域、換言すると当該画像に含まれる無効領域以外の領域を「有効領域」と称することにする。   Since the invalid area is as described above, in step 102 in FIG. 4, when the invalid area specifying unit 30 accepts the image before correction or the image after correction, the invalid area is received by performing image processing on the image. The type of image included in the selected image is determined. Then, when an area including an image of a preset type as an image type to be an invalid area such as a photographic image or a pattern image is extracted, the area is specified as an invalid area. Note that, among the image areas included in the difference extraction target image, an area on which the difference extraction process is performed, in other words, an area other than the invalid area included in the image is referred to as an “effective area”.

無効領域特定部30は、以上のようにして差分抽出対象の画像の中の処理対象外の領域を特定するため、前述したように修正前画像又は修正後画像のいずれか一方の画像を処理対象とすればよい。このようにして、無効領域を特定すると、無効領域特定部30は、画像中の無効領域が現れる位置情報、具体的には画像上における座標情報を差分抽出部40の全体位置・歪み補正部41及び大略差分抽出部42、更に画像出力部50に送る。   As described above, the invalid area specifying unit 30 specifies either the pre-correction image or the post-correction image as the processing target in order to specify the non-processing area in the difference extraction target image as described above. And it is sufficient. When the invalid area is identified in this way, the invalid area identifying unit 30 uses the position information where the invalid area appears in the image, specifically the coordinate information on the image, as the overall position / distortion correcting unit 41 of the difference extracting unit 40. And roughly to the difference extraction unit 42 and further to the image output unit 50.

なお、差分抽出処理の誤った結果としては、差分がないのにもかかわらず差分有りと誤って抽出される場合と、差分があるのにもかかわらず差分無しとして差分が抽出されない場合とが考えられる。小ポイント文字は、特に後者に該当する可能性があるため、本実施の形態では、処理結果の信頼性向上のために小ポイント文字を含む画像領域も無効領域に含めるようにした。   In addition, as a wrong result of the difference extraction process, there are a case where there is no difference and a case where the difference is erroneously extracted, and a case where there is a difference and no difference is extracted because there is no difference. It is done. Since the small point character may correspond to the latter in particular, in this embodiment, the image region including the small point character is also included in the invalid region in order to improve the reliability of the processing result.

無効領域の位置情報が送られてくると、差分抽出部40における全体位置・歪み補正部41は、修正前画像及び修正後画像の両画像の無効領域を除いた領域(有効領域)から全体位置歪み補正のための特徴点を抽出する(ステップ103)。なお、各画像がグレーやカラーなどの多値画像である場合には、各画像を二値化しておく。より具体的には、図3に示したように、第1特徴点抽出部411は、画像読取部20から送られてきた修正前画像から、無効領域特定部30から送られてきた無効領域の位置情報に該当する領域部分を除いた有効領域を抽出し、その有効領域において特徴点抽出処理を施す。第2特徴点抽出部412も同様に、画像読取部20から送られてきた修正後画像から、無効領域特定部30から送られてきた無効領域の位置情報に該当する領域部分を除いた有効領域を抽出し、その有効領域において特徴点抽出処理を施す。そして、対応特徴点判定部413は、抽出された両画像の特徴点から、それぞれ対応する特徴点ペアを特定する。続いて、補正係数算出部414は、特徴点ペアを用いて、例えば、修正前画像を基準として位置が合うように修正後画像の位置や歪みの補正を行うための全体位置歪み補正のための補正係数(移動、拡縮倍率、回転角度)を算出する。位置・歪み補正部415は、算出された補正係数を用いて修正後画像の位置歪みを補正する(ステップ104)。   When the position information of the invalid area is sent, the overall position / distortion correction unit 41 in the difference extraction unit 40 determines the total position from the area (effective area) excluding the invalid area of both the pre-correction image and the post-correction image. Feature points for distortion correction are extracted (step 103). When each image is a multi-valued image such as gray or color, each image is binarized. More specifically, as shown in FIG. 3, the first feature point extraction unit 411 detects the invalid area sent from the invalid area specifying unit 30 from the pre-correction image sent from the image reading unit 20. An effective area excluding the area corresponding to the position information is extracted, and feature point extraction processing is performed in the effective area. Similarly, the second feature point extraction unit 412 also removes the effective area from the corrected image sent from the image reading unit 20 by excluding the area corresponding to the position information of the invalid area sent from the invalid area specifying unit 30. Are extracted, and feature point extraction processing is performed in the effective area. Then, the corresponding feature point determination unit 413 specifies a corresponding feature point pair from the extracted feature points of both images. Subsequently, the correction coefficient calculation unit 414 uses the feature point pair, for example, for correction of the overall position distortion for correcting the position and distortion of the post-correction image so that the position is matched with respect to the pre-correction image. Correction coefficients (movement, scaling ratio, rotation angle) are calculated. The position / distortion correction unit 415 corrects the positional distortion of the corrected image using the calculated correction coefficient (step 104).

全体位置・歪み補正部41から修正前画像及び位置歪み補正後の修正後画像を受け取ると、大略差分抽出部42は、各画像の有効領域を対象に大略差分を抽出する(ステップ105)。続いて、分割領域算出部43は、大略差分画像を解析して差分がありそうな領域を特定し、領域分割部44は、その特定された領域および周辺領域に該当する部分を、修正前画像と位置歪み補正をした修正後画像からそれぞれ切り出す。そして、局所位置・歪み補正部45は、位置合わせの基準画像となる修正前画像から切り出した部分画像領域と、それに対応する修正後画像から切り出した部分画像領域との位置合わせを行うために、修正後画像の位置歪みを補正する。そして、局所位置・歪み補正部45から修正前画像及び位置歪み補正後の修正後画像を受け取ると、詳細差分抽出部46は、切り出された領域画像同士を詳細に比較して詳細差分を抽出する(ステップ106)。この詳細差分の抽出処理を全ての部分画像領域に対して繰り返し行う。   When the pre-correction image and the post-correction image after the positional distortion correction are received from the overall position / distortion correction unit 41, the approximate difference extraction unit 42 extracts the approximate difference for the effective area of each image (step 105). Subsequently, the divided region calculation unit 43 analyzes the approximate difference image to identify a region likely to have a difference, and the region division unit 44 determines the portion corresponding to the identified region and the surrounding region as the pre-correction image. And cut out from the corrected image corrected for positional distortion. Then, the local position / distortion correction unit 45 performs alignment between the partial image region cut out from the pre-correction image serving as the reference image for alignment and the corresponding partial image region cut out from the post-correction image. Correct the positional distortion of the corrected image. Upon receiving the pre-correction image and the post-correction image after the positional distortion correction from the local position / distortion correction unit 45, the detailed difference extraction unit 46 compares the extracted region images in detail and extracts the detailed difference. (Step 106). This detailed difference extraction process is repeated for all partial image areas.

なお、大略差分の抽出とは、例えば、各画像の有効領域の黒画素の個数を数え、それらの間に差分があるかを抽出するようなものであってよい。この場合、個数の差が一定範囲外の場合に両画像間に差分がある可能性があるものとみなすようにしてもよい。   Note that the approximate difference extraction may be, for example, counting the number of black pixels in the effective area of each image and extracting whether there is a difference between them. In this case, when the difference in the number is outside a certain range, it may be considered that there is a possibility that there is a difference between both images.

そして、大略差分画像の解析に際しては、例えば、両画像の有効領域の黒画素の出現度数の分布を表すヒストグラムを生成して差分がありそうな領域を特定するようにしてもよい。   Then, when analyzing the difference image, for example, a histogram indicating the distribution of the appearance frequency of black pixels in the effective area of both images may be generated to specify an area likely to have a difference.

また、詳細差分の抽出とは、例えば、差分がありそうな部分画像領域毎に各画像の黒画素の出現位置を確認して、異なる出現位置の黒画素が一定数以上存在する場合に差分があるとみなすようにしてもよい。   Further, the extraction of the detailed difference is, for example, confirming the appearance position of the black pixel of each image for each partial image area where the difference is likely to occur, and the difference is determined when there are a certain number or more of black pixels at different appearance positions. It may be considered that there is.

以上説明した差分抽出部40における処理は、差分抽出対象の画像から無効領域を除いた有効領域に対して行うこと以外は、基本的には従来の差分抽出処理と同じでよい。そして最後に、差分合成部47は、詳細差分抽出のために分割した画像を合成して、1つの差分抽出画像を生成する(ステップ107)。   The process in the difference extraction unit 40 described above may be basically the same as the conventional difference extraction process, except that the process is performed on the effective area excluding the invalid area from the difference extraction target image. Finally, the difference synthesizer 47 synthesizes the images divided for the detailed difference extraction to generate one difference extracted image (step 107).

画像出力部50は、無効領域特定部30から送られてきた無効領域の位置情報に加えて、差分合成部47から送られてきた差分抽出画像を受け付けると、画像出力部50における無効領域組込部51は、受け付けた差分抽出画像に対して、無効領域が有効領域や有効領域内の差分抽出領域と視覚により判別可能なように組み込む(ステップ108)。そして、画像出力部50は、差分抽出画像を出力する(ステップ109)。出力先は、プリンタ9、ディスプレイ8、HDD4、あるいはネットワークコントローラ12を介して外部機器としてもよい。   When the image output unit 50 receives the difference extraction image sent from the difference synthesis unit 47 in addition to the position information of the invalid region sent from the invalid region specifying unit 30, the image output unit 50 incorporates the invalid region in the image output unit 50. The unit 51 incorporates the received difference extraction image so that the invalid region can be visually distinguished from the effective region and the difference extraction region in the effective region (step 108). And the image output part 50 outputs a difference extraction image (step 109). The output destination may be an external device via the printer 9, the display 8, the HDD 4, or the network controller 12.

また、無効領域を判別可能とする方法としては、差分抽出画像上における無効領域部分を線で囲む枠を描画したり、シェードをかけたり、無効領域内を他と異なる色で着色したり、これらを組み合わせたりしてもよい。あるいは、例えば差分抽出画像を印刷する場合、修正前後の各画像上から無効領域部分の画像を切り出して差分抽出画像とは別に印刷してもよい。本実施の形態では、無効領域に関しては差分抽出処理を実施しないので、ユーザは、視認により差分の有無を確認する必要が生じることから、比較しやすいように各画像から切り出した無効領域部分の画像を並べて印刷する。   In addition, as a method of making it possible to determine the invalid area, a frame surrounding the invalid area on the difference extraction image is drawn, shaded, or the invalid area is colored with a different color, May be combined. Alternatively, for example, when printing a differential extraction image, an image of the invalid area portion may be cut out from each image before and after correction and printed separately from the differential extraction image. In the present embodiment, since the difference extraction process is not performed for the invalid area, the user needs to confirm the presence / absence of the difference by visual recognition. Therefore, the image of the invalid area portion cut out from each image for easy comparison. Print side by side.

実施の形態2.
上記実施の形態1では、無効領域を無条件に差分抽出処理の対象領域から外すようにした。本実施の形態では、実施の形態1において特定した無効領域以外の有効領域に含まれる画像の種別に応じた方法で特徴点の抽出を行うことができるようにした。
Embodiment 2. FIG.
In the first embodiment, the invalid area is unconditionally excluded from the target area for the difference extraction process. In the present embodiment, feature points can be extracted by a method according to the type of image included in an effective area other than the invalid area specified in the first embodiment.

図5は、本実施の形態における差分抽出装置を示したブロック構成図である。なお、実施の形態1同じ構成要素には同じ符号を付け、説明を省略する。本実施の形態は、図1に示した無効領域特定部30の代わりに領域分離部60を設けたこと以外は実施の形態1と同じでよい。   FIG. 5 is a block diagram showing the difference extraction apparatus in the present embodiment. In addition, the same code | symbol is attached | subjected to the same component of Embodiment 1, and description is abbreviate | omitted. The present embodiment may be the same as the first embodiment except that an area separation unit 60 is provided instead of the invalid area specifying unit 30 shown in FIG.

次に、本実施の形態における差分抽出処理について図6に示したフローチャートを用いて説明する。なお、図4に示した実施の形態1と同じ処理には、同じ番号を付け説明を適宜省略する。   Next, difference extraction processing in the present embodiment will be described using the flowchart shown in FIG. The same processes as those in the first embodiment shown in FIG.

画像読取部20が修正前原稿及び修正後原稿をそれぞれ読み取ることで生成された修正前画像と修正後画像は、領域分離部60と差分抽出部40それぞれに入力される(ステップ101)。なお、領域分離部60には、修正前画像又は修正後画像の少なくとも一方が入力されればよい。   The pre-correction image and the post-correction image generated by the image reading unit 20 reading the pre-correction original and the post-correction original are input to the region separation unit 60 and the difference extraction unit 40, respectively (step 101). Note that at least one of the pre-correction image and the post-correction image may be input to the region separation unit 60.

送られてきた修正前画像又は修正後画像を受け付けると、領域分離部60は、受け付けた画像を解析することによってその画像に含まれている画像の種類を判別し、画像の種類毎に分類する。つまり、受け付けた画像のどの領域にどの種類の画像で形成されているのかを判別する。画像の種類としては、例えば、文字、線画、表罫線、写真、絵柄及びその他の種類に分類する。そして、本実施の形態では、写真、絵柄及びその他の種類に属する画像の領域を、実施の形態1で説明した無効領域として特定する。このようにして、画像を分類し、また無効領域を特定すると(ステップ201)、領域分離部60は、分類した各画像の種類及び当該画像の領域が現れる位置情報、無効領域が現れる位置情報を差分抽出部40の全体位置・歪み補正部41及び大略差分抽出部42、更に画像出力部50に送る。このように、本実施の形態では、有効領域に含まれる画像領域の画像を種類毎に分類したことを特徴としている。   Upon receiving the sent pre-correction image or post-correction image, the region separation unit 60 analyzes the received image to determine the type of image included in the image, and classifies the image by type. . That is, it is determined which type of image is formed in which area of the received image. The types of images are classified into, for example, characters, line drawings, table ruled lines, photographs, designs, and other types. In the present embodiment, a region of an image belonging to a photo, a pattern, and other types is specified as the invalid region described in the first embodiment. When the images are classified in this manner and the invalid area is specified (step 201), the area separating unit 60 obtains the type of each classified image, the position information where the area of the image appears, and the position information where the invalid area appears. The image is sent to the overall position / distortion correction unit 41 and the approximate difference extraction unit 42 of the difference extraction unit 40 and the image output unit 50. As described above, the present embodiment is characterized in that the images in the image area included in the effective area are classified by type.

無効領域の位置情報が送られてくると、差分抽出部40における全体位置・歪み補正部41は、修正前画像及び修正後画像の両画像の無効領域を除いた領域(有効領域)から全体位置歪み補正のための特徴点を抽出する(ステップ202)。この際、全体位置・歪み補正部41は、有効領域に含まれる画像領域の画像に対し、当該画像の種類に適合した方法にて特徴点を抽出する。例えば、文字画像であれば、文字単位で特徴点を抽出し、線画画像や表罫線画像であれば、線の交差や折れ曲りの画像部分を特徴点として抽出する、というように画像の種類に応じて最適な特徴点の抽出方法や処理パラメータを採用する。このようにして、より正確な特徴点を抽出すると、全体位置・歪み補正部41は、抽出した両画像の特徴点を用いて修正後画像の位置歪みを補正する(ステップ104)。   When the position information of the invalid area is sent, the overall position / distortion correction unit 41 in the difference extraction unit 40 determines the total position from the area (effective area) excluding the invalid area of both the pre-correction image and the post-correction image. Feature points for distortion correction are extracted (step 202). At this time, the overall position / distortion correction unit 41 extracts feature points from the image in the image area included in the effective area by a method suitable for the type of the image. For example, if the image is a character image, feature points are extracted in units of characters, and if the image is a line drawing image or a table ruled line image, an image portion of line intersection or bending is extracted as a feature point. Accordingly, an optimum feature point extraction method and processing parameters are adopted. When more accurate feature points are extracted in this way, the overall position / distortion correction unit 41 corrects the positional distortion of the corrected image using the extracted feature points of both images (step 104).

この後の差分抽出部40における処理(ステップ105〜107)及び画像出力部50における処理(ステップ108〜109)は、実施の形態1と同じでよいので説明を省略する。   Since the subsequent processing in the difference extraction unit 40 (steps 105 to 107) and the processing in the image output unit 50 (steps 108 to 109) may be the same as those in the first embodiment, description thereof will be omitted.

なお、本実施の形態では、差分抽出装置の本来の目的である、修正前原稿と修正後原稿との差分を抽出することによって修正箇所及びその内容を確認する処理に適用した場合を例にして説明した。このため、本実施の形態では、修正前後の原稿を、スキャナ10を用いて読み取って、第1の画像に相当する修正前画像と、第1の画像との差分抽出対象となる第2の画像として修正後画像とを生成するようにした。ただ、差分抽出対象は、修正前後の原稿に必ずしも限定する必要はなく、単に比較したい原稿に適用してもよい。また、スキャナ10により原稿を読み取って画像データを生成するのではなく、画像読取部20は、比較対象の各画像データを、HDD4から読み出したり、ネットワークコントローラ12を経由して取得したりしてもよい。   In the present embodiment, the case where the present invention is applied to the original purpose of the difference extraction apparatus, which is a process for confirming a correction location and its contents by extracting the difference between the original document before correction and the original document after correction. explained. For this reason, in the present embodiment, the original before and after correction is read using the scanner 10, and the second image to be extracted as a difference between the pre-correction image corresponding to the first image and the first image. As a result, the modified image is generated. However, the difference extraction target is not necessarily limited to the originals before and after the correction, and may be simply applied to the originals to be compared. Further, instead of reading the document by the scanner 10 and generating image data, the image reading unit 20 may read each image data to be compared from the HDD 4 or obtain it via the network controller 12. Good.

また、本実施の形態では、1台のコンピュータにて差分抽出装置を形成することを想定したが、複数台のコンピュータや他の機器を組み合わせて実現してもよい。例えば、本実施の形態では、コンピュータにプリンタ9やスキャナ10を接続して画像読取部20を構成したが、画像形成装置に搭載されたプリンタやスキャナを利用するように構成してもよい。   Further, in the present embodiment, it is assumed that the difference extraction device is formed by one computer, but may be realized by combining a plurality of computers and other devices. For example, in the present embodiment, the printer 9 and the scanner 10 are connected to the computer and the image reading unit 20 is configured. However, a printer and a scanner mounted on the image forming apparatus may be used.

本発明に係る差分抽出装置の実施の形態1を示したブロック構成図である。It is the block block diagram which showed Embodiment 1 of the difference extraction apparatus which concerns on this invention. 実施の形態1における差分抽出装置を形成するコンピュータのハードウェア構成図である。2 is a hardware configuration diagram of a computer forming the difference extraction device in Embodiment 1. FIG. 図1に示した全体位置・歪み補正部のブロック構成図である。It is a block block diagram of the whole position and distortion correction | amendment part shown in FIG. 実施の形態1における差分抽出処理を示したフローチャートである。3 is a flowchart showing difference extraction processing in the first embodiment. 実施の形態2における差分抽出装置を示したブロック構成図である。FIG. 6 is a block configuration diagram showing a difference extraction device in a second embodiment. 実施の形態2における差分抽出処理を示したフローチャートである。10 is a flowchart illustrating difference extraction processing in the second embodiment.

符号の説明Explanation of symbols

1 CPU、2 ROM、3 RAM、4 ハードディスクドライブ(HDD)、5 HDDコントローラ、6 マウス、7 キーボード、8 ディスプレイ、9 プリンタ、10 スキャナ、11 入出力コントローラ、12 ネットワークコントローラ、13 内部バス、20 画像読取部、30 無効領域特定部、40 差分抽出部、41 全体位置・歪み補正部、42 大略差分抽出部、43 分割領域算出部、44 領域分割部、45 局所位置・歪み補正部、46 詳細差分抽出部、47 差分合成部、50 画像出力部、51 無効領域組込部、60 領域分離部、411 第1特徴点抽出部、412 第2特徴点抽出部、413 対応特徴点判定部、414 補正係数算出部、415 位置・歪み補正部。   1 CPU, 2 ROM, 3 RAM, 4 hard disk drive (HDD), 5 HDD controller, 6 mouse, 7 keyboard, 8 display, 9 printer, 10 scanner, 11 I / O controller, 12 network controller, 13 internal bus, 20 images Reading unit, 30 Invalid region specifying unit, 40 Difference extracting unit, 41 Overall position / distortion correcting unit, 42 Roughly difference extracting unit, 43 Divided region calculating unit, 44 Region dividing unit, 45 Local position / distortion correcting unit, 46 Detailed difference Extraction unit, 47 Difference composition unit, 50 Image output unit, 51 Invalid region incorporation unit, 60 Region separation unit, 411 First feature point extraction unit, 412 Second feature point extraction unit, 413 Corresponding feature point determination unit, 414 correction Coefficient calculation unit, 415 Position / distortion correction unit.

Claims (3)

第1の画像と、第1の画像との差分抽出対象となる第2の画像と、を受け付ける受付手段と、
第1又は第2の画像の少なくとも一方の画像の中から、差分抽出処理を実行する際に有効な処理結果が得られない画像を含む領域を無効領域として特定する無効領域特定手段と、
第1及び第2の各画像から無効領域を除いた画像領域を比較することによって差分抽出処理を行う差分抽出処理手段と、
前記無効領域特定手段により特定された無効領域を判別可能な態様で前記差分抽出処理手段による処理の結果得られた差分抽出画像を出力する画像出力手段と、
を有し、
前記画像出力手段は、前記差分抽出画像を印刷する場合、第1及び第2の各画像から前記無効領域特定手段により特定された無効領域部分の画像を切り出し、その切り出した無効領域部分の各画像を前記差分抽出画像とは別に印刷することを特徴とする差分抽出装置。
Accepting means for accepting a first image and a second image that is a difference extraction target of the first image;
An invalid area specifying means for specifying, as an invalid area, an area including an image from which an effective processing result is not obtained when executing the difference extraction process from at least one of the first and second images;
Difference extraction processing means for performing difference extraction processing by comparing image areas obtained by removing invalid areas from the first and second images;
Image output means for outputting a difference extraction image obtained as a result of the processing by the difference extraction processing means in a manner capable of discriminating the invalid area specified by the invalid area specifying means ;
I have a,
When printing the difference extraction image, the image output means cuts out an image of the invalid area portion specified by the invalid area specifying means from each of the first and second images, and outputs each image of the cut out invalid area portion. Is printed separately from the difference extraction image .
請求項1記載の差分抽出装置において、
前記差分抽出処理手段は、
第1及び第2の各画像の無効領域を除いた画像領域から特徴点を抽出する特徴点抽出部と、
前記第1及び第2の各画像の無効領域を除いた画像領域から抽出された特徴点を対応付けることによって第1又は第2の画像の少なくとも一方の画像の位置、歪みを補正する補正部と、
前記補正部による補正後の第1及び第2の各画像を比較することによって差分抽出を行う差分抽出部と、
を有し、
前記無効領域特定手段は、更に第1又は第2の画像の少なくとも一方の画像の中から、当該画像に含まれている部分画像の種類及びその部分画像の領域を特定し、
前記特徴点抽出部は、前記第1又は第2の画像の少なくとも一方の画像の無効領域を除いた画像領域における前記特定された部分画像の種類に応じた方法にて当該部分画像の領域から特徴点を抽出することを特徴とする差分抽出装置。
The difference extraction device according to claim 1,
The difference extraction processing means includes:
A feature point extraction unit that extracts a feature point from the image area excluding the invalid area of each of the first and second images;
A correction unit that corrects the position and distortion of at least one of the first and second images by associating the feature points extracted from the image area excluding the invalid area of each of the first and second images;
A difference extraction unit that performs difference extraction by comparing the first and second images after correction by the correction unit;
Have
The invalid area specifying means further specifies the type of the partial image included in the image and the area of the partial image from at least one of the first or second images,
The feature point extraction unit is characterized from a region of the partial image by a method according to the type of the specified partial image in an image region excluding an invalid region of at least one of the first or second images. A difference extraction apparatus characterized by extracting points.
コンピュータ
第1の画像と、第1の画像との差分抽出対象となる第2の画像とを受け付ける受付手段
第1又は第2の画像の少なくとも一方の画像の中から、差分抽出処理を実行する際に有効な処理結果が得られない画像を含む領域を無効領域として特定する無効領域特定手段
第1及び第2の各画像から無効領域を除いた画像領域を比較することによって差分抽出処理を行う差分抽出処理手段
前記無効領域特定手段により特定された無効領域を判別可能な態様で前記差分抽出処理手段による処理の結果得られた差分抽出画像を出力する画像出力手段
として機能させ、
前記画像出力手段は、前記差分抽出画像を印刷する場合、第1及び第2の各画像から前記無効領域特定手段により特定された無効領域部分の画像を切り出し、その切り出した無効領域部分の各画像を前記差分抽出画像とは別に印刷することを特徴とする差分抽出プログラム。
The computer,
Accepting means for accepting a first image and a second image to be extracted from the first image,
An invalid area specifying means for specifying, as an invalid area, an area including an image from which an effective processing result cannot be obtained when executing the difference extraction process from at least one of the first and second images;
Difference extraction processing means for performing difference extraction processing by comparing image regions obtained by removing invalid regions from the first and second images,
Image output means for outputting a difference extraction image obtained as a result of the processing by the difference extraction processing means in a manner capable of determining the invalid area specified by the invalid area specifying means ;
Function as
When printing the difference extraction image, the image output means cuts out an image of the invalid area portion specified by the invalid area specifying means from each of the first and second images, and outputs each image of the cut out invalid area portion. Is printed separately from the difference extraction image .
JP2008214846A 2008-08-25 2008-08-25 Difference extraction apparatus and difference extraction program Expired - Fee Related JP5146199B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008214846A JP5146199B2 (en) 2008-08-25 2008-08-25 Difference extraction apparatus and difference extraction program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008214846A JP5146199B2 (en) 2008-08-25 2008-08-25 Difference extraction apparatus and difference extraction program

Publications (2)

Publication Number Publication Date
JP2010049587A JP2010049587A (en) 2010-03-04
JP5146199B2 true JP5146199B2 (en) 2013-02-20

Family

ID=42066599

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008214846A Expired - Fee Related JP5146199B2 (en) 2008-08-25 2008-08-25 Difference extraction apparatus and difference extraction program

Country Status (1)

Country Link
JP (1) JP5146199B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5246201B2 (en) * 2010-04-12 2013-07-24 富士ゼロックス株式会社 Image processing apparatus and image processing program

Also Published As

Publication number Publication date
JP2010049587A (en) 2010-03-04

Similar Documents

Publication Publication Date Title
EP2270746B1 (en) Method for detecting alterations in printed document using image comparison analyses
JP5934762B2 (en) Document modification detection method by character comparison using character shape characteristics, computer program, recording medium, and information processing apparatus
JP5121599B2 (en) Image processing apparatus, image processing method, program thereof, and storage medium
JP5861503B2 (en) Image inspection apparatus and method
JP2011022867A (en) Image processing device, image processing system and program
JP4565396B2 (en) Image processing apparatus and image processing program
JP2010074342A (en) Image processing apparatus, image forming apparatus, and program
JP5200786B2 (en) Difference extraction apparatus and difference extraction program
JP4275973B2 (en) Retouched image extraction apparatus, program, storage medium, and retouched image extraction method
JP2010146218A (en) Image processing apparatus, image processing method, computer program
JP4760883B2 (en) Image processing apparatus and image processing program
US20180068199A1 (en) Image processing apparatus, method for controlling the same, and computer-readable storage medium
JP2021044803A (en) Image processing device, image processing method, and program
JP5146199B2 (en) Difference extraction apparatus and difference extraction program
JP4910635B2 (en) Image processing apparatus and image processing program
JP2002342710A (en) Character segmenting device and character segmenting method used for the same device and its program
JP5109548B2 (en) Image processing apparatus and program
JP2021013124A (en) Image processing apparatus, image processing method, and program
JP5056063B2 (en) Image processing apparatus and image processing program
JP4803001B2 (en) Image processing apparatus and image processing program
JP4083723B2 (en) Image processing device
JPH07230525A (en) Method for recognizing ruled line and method for processing table
JP5807464B2 (en) Image identification apparatus and image identification method
JP2009060216A (en) Image processor, and image processing program
JP2007328652A (en) Image processing device and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110809

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121030

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121112

R150 Certificate of patent or registration of utility model

Ref document number: 5146199

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151207

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees