JP2007041832A - Difference image extraction apparatus - Google Patents
Difference image extraction apparatus Download PDFInfo
- Publication number
- JP2007041832A JP2007041832A JP2005224923A JP2005224923A JP2007041832A JP 2007041832 A JP2007041832 A JP 2007041832A JP 2005224923 A JP2005224923 A JP 2005224923A JP 2005224923 A JP2005224923 A JP 2005224923A JP 2007041832 A JP2007041832 A JP 2007041832A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- image
- difference
- written
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、未書込みの印刷物と書き込みがされた印刷物との差分画像を抽出する差分画像抽出装置に関する。 The present invention relates to a difference image extraction apparatus that extracts a difference image between an unwritten print and a written print.
配布された印刷物にコメントを書き込んだ後に、そのコメントだけを抜き出したい場合がある。このような場合、未書込みの印刷物の原本と書き込みがされた印刷物とをスキャナ等の画像入力装置で取り込み、画像データとして比較を行う場合には、2つの画像データの位置を合わせる必要がある。
印刷物に位置合わせ用のマークが印刷されている場合には、それを基準に2つの画像データの位置を合わせ、その後、両画像データの差分を抽出すると、印刷物に書き込まれたコメントだけを抽出することができる。
After writing a comment on the distributed printout, you may want to extract only that comment. In such a case, when the original unwritten print and the written print are captured by an image input device such as a scanner and compared as image data, the positions of the two image data must be aligned.
When a mark for alignment is printed on the printed material, the positions of the two image data are aligned based on the mark, and then the difference between the two image data is extracted, so that only the comment written on the printed material is extracted. be able to.
ところが、位置合わせ用のマークが印刷されていない印刷物では、どこを位置合わせの基準に用いるかで位置合わせの精度が大きく異なる。例えば、絵や図形などの領域を位置合わせの基準に用いると、スキャン時の画像の濃度や色彩の変化或いは図形の形状等によって、位置合わせが難しい場合がある。
この問題を解決するため、例えば、特許文献1には、画像データの文字認識処理を行い、その中から2つの文字を抽出し、その抽出した文字の位置情報を基に、位置合わせを行う技術が開示されている。
In order to solve this problem, for example,
しかし、従来のように、予め印刷物に位置合せ用のマークを印刷するのにも工数を要するし、また、特許文献1の技術では、文字認識処理をする必要があり、文字認識処理に工数が必要となる。
そこで、本発明は、位置合せ用のマークがない画像データに対しても、文字認識処理を行うことなく、少ない工数で高い精度の位置合せをすることのできる差分画像抽出装置を提供することを目的とする。
However, as in the prior art, man-hours are required to print the alignment mark on the printed material in advance, and the technique of
Therefore, the present invention provides a differential image extraction apparatus that can perform high-precision alignment with a small number of man-hours without performing character recognition processing even on image data without alignment marks. Objective.
上記課題を解決するため、本発明は、末書込みの印刷物と、書き込みがされた印刷物との差分を抽出する差分画像抽出装置であって、2つの印刷物の画像を取得する画像取得手段と、末書込みの印刷物の文字領域を抽出する画像抽出手段と、抽出した文字領域と書込みがされた印刷物の画像データとを照合して両印刷物の位置合せをする位置合せ手段と、位置合せした状態で2つの印刷物の差分画像を抽出する差分抽出手段とを備えることとしている。 In order to solve the above-described problems, the present invention provides a differential image extraction apparatus that extracts a difference between a last-printed printed matter and a written matter that has been written, an image obtaining unit that obtains images of two printed matters, An image extracting means for extracting the character area of the printed material to be written, an alignment means for matching the extracted character area with the image data of the written printed material to align both printed materials, and 2 in the aligned state Difference extraction means for extracting a difference image of two printed matters.
上述のような構成によって、絵や図形領域よりも精度の高い文字領域を位置合せの基準とするので、位置合せのマークがなくても精度の高い位置合せをして、差分画像を効率的に抽出することができる。
また、前記画像抽出手段は、前記画像取得手段で取得された末書込みの印刷物の画像を各画素毎に黒画素と白画素とに2値化した画像データとする2値化部と、前記2値化部で黒画素とされた画像データを末書込みの印刷物の紙面の縦方向と横方向とに投影したヒストグラムを生成するヒストグラム生成部と、生成されたヒストグラムの形状から文字領域を判定する判定部と、前記判定部で判定された文字領域からM行N列の画像データをテンプレートとして抽出するテンプレート抽出部とを有することとしている。
With the configuration as described above, a character area with higher accuracy than the picture or graphic area is used as a reference for alignment. Therefore, even if there is no alignment mark, high-precision alignment is performed, and the difference image is efficiently obtained. Can be extracted.
In addition, the image extraction unit includes a binarization unit that converts the image of the last written print acquired by the image acquisition unit into image data binarized into a black pixel and a white pixel for each pixel; A histogram generation unit that generates a histogram obtained by projecting image data that has been converted to black pixels in the value conversion unit into the vertical and horizontal directions of the last-printed printed matter, and a determination that determines a character area from the shape of the generated histogram And a template extraction unit that extracts M rows and N columns of image data from the character region determined by the determination unit as a template.
このような構成によって、画像データを文字部分に相当する黒画素と背景部分に相当する白画素とに弁別し、文字領域を絵や図形領域と区別して判定することができる。
また、前記位置合せ手段は、前記書込みがされた印刷物の画像を各画素毎に黒画素と白画素とに2値化した画像データとする対象2値化部と、前記テンプレート抽出部で抽出されたテンプレートと前記対象2値化部で2値化された画像データとが一致する領域を認識する一致領域認識部と、前記一致領域認識部で一致するとした領域の座標値を前記テンプレートの座標値と一致させる位置合せ部とを有することとしている。
With such a configuration, the image data can be discriminated into black pixels corresponding to the character portion and white pixels corresponding to the background portion, and the character region can be discriminated from the picture or graphic region.
Further, the alignment means is extracted by the target binarization unit that converts the written image of the printed material into image data binarized into black pixels and white pixels for each pixel, and the template extraction unit. A matching area recognition unit for recognizing a region where the template and the image data binarized by the target binarization unit match, and a coordinate value of the region determined to be a match by the matching region recognition unit. And an alignment portion to be matched.
このような構成によって、前記画像取得手段で取得された末書込みの印刷物と書込みがされた印刷物との画像データの位置が多少ずれていた場合でも、正確に位置合せがされるので差分画像を精度よく得ることができる。
また、前記差分抽出手段は、前記末書込みの印刷物の文字領域と判定された領域に白画素の集合である余白領域を加えた領域と、書込みがされた印刷物の対応する領域とを抽出する領域抽出部と、抽出された両領域の画像データの差分を計算する計算部とを有することとしている。
With such a configuration, even if the position of the image data of the last-written printed matter acquired by the image acquiring unit and the written printed matter is slightly deviated, accurate alignment is performed, so that the difference image is accurate. Can get well.
In addition, the difference extracting unit extracts a region obtained by adding a blank region that is a set of white pixels to a region determined as the character region of the last-written printed material, and a region corresponding to the written printed material. An extraction unit and a calculation unit that calculates a difference between the extracted image data of both regions are included.
このような構成によって、画像取得手段で取得される画像で濃度差が大きくなる場合のある絵や図形データ領域を除外して、差分画像が抽出されるので、正確な差分画像を得ることができる。
また、前記計算部で計算された差分が「0」でないとき、黒画素として出力する出力手段を更に備えることとしている。
With such a configuration, a differential image is extracted by excluding a picture or graphic data area that may have a large density difference in an image acquired by the image acquisition means, so an accurate differential image can be obtained. .
In addition, when the difference calculated by the calculation unit is not “0”, output means for outputting as a black pixel is further provided.
このような構成によって、未書込みの印刷物と書込みがされた印刷物との差分である書込みを黒画素として正確に出力することができる。
また、前記テンプレート抽出部は、複数のM行N列の画像データを抽出できるとき、そのうちの最大のものを抽出することとしている。
このような構成によって、位置合わせに用いるテンプレートが印刷物の紙面に局在することがなくなるので、正確な位置合わせが可能となる。
With such a configuration, writing that is the difference between an unwritten print and a written print can be accurately output as a black pixel.
In addition, when the template extraction unit can extract a plurality of M rows and N columns of image data, it extracts the largest one of them.
With such a configuration, a template used for alignment is not localized on the paper surface of the printed material, and thus accurate alignment is possible.
また、本発明は、末書込みの印刷物と、書き込みがされた印刷物との差分を抽出する差分画像抽出装置の差分画像抽出方法であって、2つの印刷物の画像を取得する画像取得ステップと、末書込みの印刷物の文字領域を抽出する画像抽出ステップと、抽出した文字領域と書込みがされた印刷物の画像とを照合して両印刷物の位置合せをする位置合せステップと、位置合せした状態で2つの印刷物の差分画像を抽出する差分抽出ステップとを有することとしている。 The present invention also provides a differential image extraction method of a differential image extraction apparatus that extracts a difference between a final printed material and a written material, an image acquisition step for acquiring images of two printed materials, An image extraction step for extracting the character area of the printed material to be written, an alignment step for comparing the extracted character region and the written image of the printed material to align the two printed materials, and two states in the aligned state And a difference extraction step for extracting a difference image of the printed matter.
このような方法によって、絵や図形領域よりも精度の高い文字領域を位置合せの基準とするので、位置合せのマークがなくても、未書込みの印刷物と書込みがされた印刷物との精度の高い位置合わせをして、差分画像を効率的に抽出することができる。 By using such a method, a character area with higher accuracy than a picture or graphic area is used as a reference for alignment. Therefore, even if there is no alignment mark, the accuracy of unprinted printed matter and written printed matter is high. It is possible to extract the difference image efficiently by performing alignment.
以下、本発明に係る差分画像抽出装置の実施の形態について、図面を用いて説明する。
(一実施の形態)
図1は、本発明に係る差分画像抽出装置の一実施の形態のハードウェア構成の外観図である。
この差分画像抽出装置は、スキャナ101とパーソナルコンピュータ(以下「PC」という)102とから構成される。
Hereinafter, embodiments of a differential image extracting apparatus according to the present invention will be described with reference to the drawings.
(One embodiment)
FIG. 1 is an external view of a hardware configuration of an embodiment of a differential image extraction apparatus according to the present invention.
This differential image extraction apparatus includes a scanner 101 and a personal computer (hereinafter referred to as “PC”) 102.
スキャナ101は、載置された原稿を走査し、デジタル画像データに変換し、PC102にデジタル画像データを出力する。
この原稿には、基準となる未書込みの印刷物と、メモ等の書込みがされた印刷物とがある。
PC102は、CPUを内蔵し、差分画像を抽出するためのプログラムをROMに記憶している。CPUは、このプログラムに従い、画像認識抽出部、位置合せ部、差分抽出部等の機能を発揮する。
The scanner 101 scans the placed document, converts it into digital image data, and outputs the digital image data to the PC 102.
This document includes a non-written printed matter as a reference and a printed matter on which a memo or the like is written.
The PC 102 has a built-in CPU and stores a program for extracting a difference image in the ROM. In accordance with this program, the CPU exhibits functions such as an image recognition extraction unit, a registration unit, and a difference extraction unit.
PC102は、スキャナ101から入力された未書込みの印刷物と書込みがされた印刷物とのデジタル画像データから、例えばメモ等の差分画像データを抽出し、液晶ディスプレイ等からなる表示部103に差分画像を表示する。
図2は、この差分画像抽出装置における差分画像の抽出手順の概略を説明する図である。
The PC 102 extracts difference image data such as a memo from the digital image data of the unwritten print and the written print input from the scanner 101, and displays the difference image on the
FIG. 2 is a diagram for explaining the outline of the difference image extraction procedure in the difference image extraction apparatus.
(1)先ず、スキャナ101は未書込みの印刷物201のデジタル画像データを取得し、PC102に出力する。
PC102の制御部において、入力されたデジタル画像データを所定のしきい値で2値化した画像データ202に変換する。次に、この2値化画像データ202を用いて、文字領域を抽出する。この際、未書込みの印刷物201の紙面の横方向と縦方向との黒画素のヒストグラム203、204を生成して文字領域を認識する。
(1) First, the scanner 101 acquires digital image data of an unwritten printed
The control unit of the PC 102 converts the input digital image data into
(2)次に、文字領域の所定の部分をテンプレート207として抽出する。
図3は、このテンプレート207を文字領域から抽出する画像認識抽出ステップの一例を説明するための図である。
未書込みの印刷物のデジタル画像データの各画素の画像データを所定のしきい値で黒画素と白画素との2値化画像データに変換する。このしきい値は、未書込みの印刷物の何も印刷されていない紙面の画像データが白画素になるように選ばれている。
(2) Next, a predetermined part of the character area is extracted as a
FIG. 3 is a diagram for explaining an example of an image recognition extraction step for extracting the
The image data of each pixel of the digital image data of the unwritten printed matter is converted into binary image data of black pixels and white pixels with a predetermined threshold value. This threshold value is selected so that the image data of the unprinted printed matter on the paper surface is white pixels.
この未書込みの印刷物の2値化画像データ301から紙面302の横方向の黒画素のヒストグラム310と縦方向の黒画素のヒストグラム320とを生成する。
生成した横方向のヒストグラム310の形状は、黒画素が多数存在する領域331、333、335と、白画素領域332、334、336とがそれぞれ交互にあり、黒画素が多数存在する領域337がある。このヒストグラム310の形状で規則的に黒画素領域331、333、335と白画素領域332、334、336とが繰り返す領域は、黒画素領域331等が文字行の存在領域であり、白画素領域332等がその行間であると判定する。黒画素領域337には、白画素領域が介在しないので、文字領域とは判定できないので、絵又は図形領域205であると判定する。
A
The shape of the generated
また、生成した縦方向のヒストグラム320の形状は、黒画素領域341、343、345と白画素領域342、344、346とがそれぞれ交互にあり、黒画素領域347が続いている。規則的に黒画素領域341等と白画素領域342等とが繰り返す領域は、黒画素領域341等が文字列の存在領域であり、白画素領域342等がその文字間であると判定する。また黒画素領域347は、絵又は図形領域205であると判定する。
Further, the generated
これによって、紙面302において、領域306を共有する文字領域350と文字領域351と、絵図形領域205とが存在すると判定する。なお、その他の領域は、余白を形成している。
次に、文字領域350から最大のM行N列の画像データを抽出する。更に、文字領域351から最大のM´行N´列の画像データを抽出する。M×Nの値とM´×N´の値とを比較し、大きい値を採用し、M行N列の画像データとする。この未書込みの印刷物の2値化画像データ301では、文字領域351のM´行N´列の方が文字領域350のそれより大きいので、文字領域351からM行N列の画像データをテンプレートとして採用する。
As a result, it is determined that the character area 350, the
Next, the maximum M rows and N columns of image data are extracted from the character area 350. Further, the maximum M ′ row N ′ column image data is extracted from the
なお、テンプレートをなるべく大きくとるのは、対象物との位置合せを行うとき、誤差をなるべく小さくするためである。
このテンプレートの左上部304の位置(X1,Y1)と右下部305の位置(XM,YN)との紙面302の一隅、例えば左上部を原点(0,0)とした座標値を求める。
再び、図2を参照して、説明する。
The reason for making the template as large as possible is to make the error as small as possible when aligning with the object.
A coordinate value with the origin (0, 0) at one corner of the
Again, a description will be given with reference to FIG.
(3)メモ212が書き込まれた印刷物211をスキャナ101で読み、デジタル画像データを取得し、PC102に出力する。
PC102において、所定のしきい値で2値化した2値化画像データ213を得る。
(4)次に、基準となる未書込みの印刷物の2値化画像データ202から抽出されたテンプレート207と書込みがされた印刷物の2値化画像データ213とを照合し、テンプレート207と一致する領域214を見つける。
(3) The printed
In the
(4) Next, the
(5)領域214が見つかると、その左上部と右下部との座標値を紙面215の左上部を原点として求め、テンプレート207の(X1,Y1)、(XM,YN)とそれぞれ一致するよう書込みがされた印刷物の2値化画像データを移動し、位置補正をする。
図4は、この位置補正ステップを説明するための図である。
位置合せステップにおいて、未書込みの印刷物401のテンプレート207が書込みがされた印刷物402のいずれの領域と一致するかをテンプレート207の2値化画像データを書込みがされた印刷物の2値化画像データ213の範囲を変えながら見つける。
(5) When the
FIG. 4 is a diagram for explaining the position correction step.
In the alignment step, the
テンプレート207の2値化画像データと所定の一致度以上の領域214が見つけられると、書込みがされた印刷物402の紙面の左上部403を原点(0,0)として、領域214の左上部404の座標(X1´,Y1´)と、右下部405の座標(XM´,YN´)を求める。
なお、所定の一致度とは、テンプレート207の各画素の画像データと領域214の各画素の画像データとが、例えば、95%以上一致している状態で、範囲をずらして一致度を比べても、これ以上一致する領域がないことを言う。
When an
Note that the predetermined degree of coincidence means that the degree of coincidence is compared by shifting the range in a state where the image data of each pixel of the
次に、位置補正ステップでは予め求めてあるテンプレート207の未書込みの印刷物401の紙面の左上部303を原点(0,0)とするテンプレート207の左上部304の座標(X1,Y1)と領域214の座標(X1´,Y1´)とを比較し、テンプレート207の右下部305の座標(XM,YN)と領域214の座標(XM´,YN´)とを比較し、書込みがされた印刷物402が未書込みの印刷物401と同一の位置となるようにする。
Next, in the position correction step, the coordinates (X 1 , Y 1 ) of the upper
例えば、X1−X1´=−1.00,XM−XM´=−1.00,Y1−Y1´=0,YN−YN´=0であれば、書込みがされた印刷物402画像データを矢符406に示すように左方に1.00だけ平行移動する。勿論、上下、左右の平行移動だけで位置補正できない場合、例えば、画像データ213が傾いているときには、回転移動を行う。
再び図2を参照して説明する。
For example, if X 1 −X 1 ′ = −1.00, X M −X M ′ = −1.00, Y 1 −Y 1 ′ = 0, Y N −Y N ′ = 0, writing is performed. The printed
A description will be given with reference to FIG. 2 again.
未書込みの印刷物201で絵図形領域205と判定された領域に対応する書込みがされた印刷物211の領域216を差分抽出の対象から除外する。これは、絵等では、画素の階調が文字領域のように明確に黒画素と白画素とのように2値化を正しくすることが困難であり、未書込みの印刷物201と書込みがされた印刷物211との2値化画像データの一致度が低いと考えられるからである。
The
最後に、差分抽出ステップにおいて、未書込みの印刷物201の2値化画像データ202と位置補正された書込みがされた印刷物211の2値化画像データ217との差分を抽出する。対応する各画素の2値化データが同一であれば、白画素となり、同一でなければ黒画素となる。
この結果、差分画像として、メモ212が抽出される。この差分画像データ208を出力し、PC102の表示部103に差分画像を表示する。
Finally, in the difference extraction step, a difference between the
As a result, a
なお、上記実施の形態では、差分画像抽出装置は、スキャナ101とPC102とで構成されるとしたけれども、PC102にプリンタを接続した構成とし、差分画像をプリンタから出力するようにしてもよい。
また、上記実施の形態では、テンプレート207を文字領域351とほぼ一致させたけれども、文字領域351の一部としてもよい。
In the above embodiment, the differential image extraction apparatus is configured by the scanner 101 and the
In the above embodiment, the
また、上記実施の形態では、文字領域を判定するのに、ヒストグラムを生成して判定したけれども、紙面を分割し、分割した各領域で黒画素と白画素との比を求め、その比が所定の範囲内にある領域を文字領域と判定する等、他の方法によって文字領域を判定してもよい。
次に、本実施の形態の動作を図5、図6のフローチャートを用いて説明する。
In the above embodiment, the character area is determined by generating a histogram. However, the page is divided, the ratio of the black pixel to the white pixel is obtained in each divided area, and the ratio is predetermined. The character area may be determined by other methods, such as determining an area within the range as a character area.
Next, the operation of this embodiment will be described with reference to the flowcharts of FIGS.
先ず、基準となる未書込みの印刷物をスキャナ101で画像データに変換し、PC102に出力する(S502)。
PC102において、入力された画像データを画素ごとに黒画素と白画素とに2値化した画像データに変換する(S504)。
次に、未書込みの印刷物の紙面の縦方向と横方向とに黒画素のヒストグラムを生成し(S506)、ヒストグラムの形状が各方向で略「0」を規制的に繰り返す領域があるか否かを判定する(S508)。
First, a reference unwritten print is converted into image data by the scanner 101 and output to the PC 102 (S502).
In the
Next, a histogram of black pixels is generated in the vertical direction and the horizontal direction of the page of the unwritten printed matter (S506), and whether or not there is a region where the histogram shape regularly repeats substantially “0” in each direction. Is determined (S508).
あるときには、その領域を文字領域と判定し(S510)、S514に移る。
ないときには、その領域を絵図形領域と判定し(S512)、文字領域がないので、処理を終了する。
S514において、文字領域からM行N列の画像データを抽出する(S514)。他の文字領域からM´行N´列の画像データを抽出できるか判定する(S516)。
If there is, the area is determined as a character area (S510), and the process proceeds to S514.
If not, the area is determined to be a graphic area (S512). Since there is no character area, the process ends.
In S514, image data of M rows and N columns is extracted from the character area (S514). It is determined whether image data of M ′ rows and N ′ columns can be extracted from other character regions (S516).
抽出できたときにはM×N>M´×N´か否かを判定し(S518)、否であれば、M´行N´列の画像データをM行N列の画像データと置換し(S520)、S516に戻る。
S518でM×N>M´×N´のとき、S516で他の文字領域からM´行N´列の画像データを抽出できないとき、M行N列の画像データをテンプレートとして記憶する(S522)。
When the extraction has been completed, it is determined whether or not M × N> M ′ × N ′ (S518). If not, the image data in M ′ rows and N ′ columns is replaced with image data in M rows and N columns (S520). ), The process returns to S516.
When M × N> M ′ × N ′ in S518, when image data of M ′ rows and N ′ columns cannot be extracted from other character areas in S516, the image data of M rows and N columns is stored as a template (S522). .
次に、書込みがされた印刷物をスキャナ101で画像データに変換し、PC102に出力する(S602)。
PC102において、入力された画像データを画素ごとに黒画素と白画素とに2値化した画像データに変換する(S604)。
S522で記憶されたテンプレートの画像データと書込みがされた印刷物の画像データとを照合する(S606)。一致する領域があるか否かを判定する(S608)。なければ、処理を終了し、あるときには、その書込みがされた印刷物の領域の画像データの位置(X1´,Y1´)、(XM´,YN´)と、テンプレートの画像データの位置(X1,Y1)、(XM,YN)とのそれぞれの差ΔX1,ΔXM,ΔY1,ΔYNを計算し、書込みがされた印刷物の画像データを移動する補正値を求める(S610)。
Next, the written material that has been written is converted into image data by the scanner 101 and output to the PC 102 (S602).
In the
The template image data stored in S522 is collated with the written image data of the printed matter (S606). It is determined whether there is a matching area (S608). If not, the process is terminated, and in some cases, the position (X 1 ′, Y 1 ′), (X M ′, Y N ′) of the image data area in which the writing has been performed, and the template image data Differences ΔX 1 , ΔX M , ΔY 1 , ΔY N from the positions (X 1 , Y 1 ) and (X M , Y N ) are calculated, and correction values for moving the image data of the printed matter that has been written are calculated. Obtain (S610).
求めた補正値に従い書込みがされた印刷物の画像データを移動する(S612)。
次に、絵図形領域を除いて、未書込みの印刷物と書込みがされた印刷物との2値化画像データの差分を抽出し(S614)、差分が「0」を白画素に、差分が「0」以外を黒画素として出力し(S616)、処理を終了する。
The image data of the printed material written according to the obtained correction value is moved (S612).
Next, the difference between the binarized image data between the unwritten printed material and the written printed material is extracted except for the graphic region (S614), the difference is “0” as a white pixel, and the difference is “0”. ”Are output as black pixels (S616), and the process ends.
本発明に係る差分画像抽出装置は、位置合せ用のマークが予め記録されていない未書込みの印刷物と書込みがされた印刷物との差分画像を正しく抽出できるので事務処理分野で活用される。 The differential image extraction apparatus according to the present invention can be used in the field of business processing because it can correctly extract a differential image between an unwritten printed material in which a mark for alignment is not recorded in advance and a written printed material.
101 スキャナ
102 PC
103 表示部
103 display
Claims (7)
2つの印刷物の画像を取得する画像取得手段と、
末書込みの印刷物の文字領域を抽出する画像抽出手段と、
抽出した文字領域と書込みがされた印刷物の画像データとを照合して両印刷物の位置合せをする位置合せ手段と、
位置合せした状態で2つの印刷物の差分画像を抽出する差分抽出手段とを備えることを特徴とする差分画像抽出装置。 A differential image extraction device that extracts a difference between a printed matter at the end of writing and a printed matter that has been written,
Image acquisition means for acquiring images of two printed materials;
Image extracting means for extracting the character area of the last-printed printed matter;
An alignment unit that compares the extracted character area with the written image data of the printed material to align both printed materials;
A difference image extraction apparatus comprising: difference extraction means for extracting a difference image between two printed materials in the aligned state.
前記画像取得手段で取得された末書込みの印刷物の画像を各画素毎に黒画素と白画素とに2値化した画像データとする2値化部と、
前記2値化部で黒画素とされた画像データを末書込みの印刷物の紙面の縦方向と横方向とに投影したヒストグラムを生成するヒストグラム生成部と、
生成されたヒストグラムの形状から文字領域を判定する判定部と、
前記判定部で判定された文字領域からM行N列の画像データをテンプレートとして抽出するテンプレート抽出部とを有することを特徴とする請求項1記載の差分画像抽出装置。 The image extracting means includes
A binarization unit that converts the image of the last written print acquired by the image acquisition unit into image data binarized into a black pixel and a white pixel for each pixel;
A histogram generation unit that generates a histogram by projecting image data that has been converted into black pixels in the binarization unit in the vertical direction and the horizontal direction of the paper surface of the last written print;
A determination unit for determining a character area from the shape of the generated histogram;
The difference image extraction apparatus according to claim 1, further comprising: a template extraction unit that extracts image data of M rows and N columns as a template from the character region determined by the determination unit.
前記書込みがされた印刷物の画像を各画素毎に黒画素と白画素とに2値化した画像データとする対象2値化部と、
前記テンプレート抽出部で抽出されたテンプレートと前記対象2値化部で2値化された画像データとが一致する領域を認識する一致領域認識部と、
前記一致領域認識部で一致するとした領域の座標値を前記テンプレートの座標値と一致させる位置合せ部とを有することを特徴とする請求項2記載の差分画像抽出装置。 The alignment means includes
An object binarization unit that converts the written image of the printed material into image data binarized into black pixels and white pixels for each pixel;
A matching region recognition unit for recognizing a region where the template extracted by the template extraction unit and the image data binarized by the target binarization unit match;
The difference image extracting apparatus according to claim 2, further comprising: an alignment unit configured to match the coordinate value of the area determined by the matching area recognition unit with the coordinate value of the template.
前記末書込みの印刷物の文字領域と判定された領域に白画素の集合である余白領域を加えた領域と、書込みがされた印刷物の対応する領域とを抽出する領域抽出部と、
抽出された両領域の画像データの差分を計算する計算部とを有することを特徴とする請求項3記載の差分画像抽出装置。 The difference extraction means includes
An area extracting unit that extracts an area determined by adding a blank area that is a set of white pixels to an area determined as a character area of the last written printed matter, and a corresponding region of the written printed matter;
The difference image extraction apparatus according to claim 3, further comprising a calculation unit that calculates a difference between the extracted image data of both regions.
2つの印刷物の画像を取得する画像取得ステップと、
末書込みの印刷物の文字領域を抽出する画像抽出ステップと、
抽出した文字領域と書込みがされた印刷物の画像とを照合して両印刷物の位置合せをする位置合せステップと、
位置合せした状態で2つの印刷物の差分画像を抽出する差分抽出ステップとを有することを特徴とする差分画像抽出方法。 A difference image extraction method of a difference image extraction device that extracts a difference between a printed matter at the end of writing and a printed matter that has been written,
An image acquisition step of acquiring images of two printed materials;
An image extraction step for extracting the character area of the last-printed printed matter;
An alignment step in which the extracted character area and the written image of the printed material are collated to align both printed materials;
A difference image extraction method comprising: a difference extraction step of extracting a difference image between two printed materials in the aligned state.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005224923A JP2007041832A (en) | 2005-08-03 | 2005-08-03 | Difference image extraction apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005224923A JP2007041832A (en) | 2005-08-03 | 2005-08-03 | Difference image extraction apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007041832A true JP2007041832A (en) | 2007-02-15 |
Family
ID=37799759
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005224923A Pending JP2007041832A (en) | 2005-08-03 | 2005-08-03 | Difference image extraction apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007041832A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010079507A (en) * | 2008-09-25 | 2010-04-08 | Fuji Xerox Co Ltd | Image processor and image processing program |
JP2014188691A (en) * | 2013-03-26 | 2014-10-06 | Seiko Epson Corp | Image processing apparatus and dot blank detection method of the same |
JP2015207903A (en) * | 2014-04-21 | 2015-11-19 | 富士ゼロックス株式会社 | Image processing apparatus, image forming apparatus, and program |
US9262700B2 (en) | 2013-03-26 | 2016-02-16 | Seiko Epson Corporation | Image processing device and method of detecting missing dots in an image processing device |
US9377983B2 (en) | 2014-03-13 | 2016-06-28 | Ricoh Company, Ltd. | Information processing apparatus, information processing method, and program |
-
2005
- 2005-08-03 JP JP2005224923A patent/JP2007041832A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010079507A (en) * | 2008-09-25 | 2010-04-08 | Fuji Xerox Co Ltd | Image processor and image processing program |
US8311322B2 (en) | 2008-09-25 | 2012-11-13 | Fuji Xerox Co., Ltd. | Image processing apparatus, image processing method, and computer readable medium |
JP2014188691A (en) * | 2013-03-26 | 2014-10-06 | Seiko Epson Corp | Image processing apparatus and dot blank detection method of the same |
US9262700B2 (en) | 2013-03-26 | 2016-02-16 | Seiko Epson Corporation | Image processing device and method of detecting missing dots in an image processing device |
US9377983B2 (en) | 2014-03-13 | 2016-06-28 | Ricoh Company, Ltd. | Information processing apparatus, information processing method, and program |
JP2015207903A (en) * | 2014-04-21 | 2015-11-19 | 富士ゼロックス株式会社 | Image processing apparatus, image forming apparatus, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4646797B2 (en) | Image processing apparatus, control method therefor, and program | |
JP4310288B2 (en) | Image processing apparatus and method, program, and storage medium | |
Gebhardt et al. | Document authentication using printing technique features and unsupervised anomaly detection | |
JP5934762B2 (en) | Document modification detection method by character comparison using character shape characteristics, computer program, recording medium, and information processing apparatus | |
US20040139391A1 (en) | Integration of handwritten annotations into an electronic original | |
TW200842734A (en) | Image processing program and image processing device | |
US7969631B2 (en) | Image processing apparatus, image processing method and computer readable medium storing image processing program | |
JP2007041832A (en) | Difference image extraction apparatus | |
US7630572B2 (en) | Image processing apparatus, image processing method, and computer program | |
Alomran et al. | Automated scoring system for multiple choice test with quick feedback | |
JP4565396B2 (en) | Image processing apparatus and image processing program | |
JP5601027B2 (en) | Image processing apparatus and image processing program | |
CN106803269B (en) | Method and device for perspective correction of document image | |
JP4910635B2 (en) | Image processing apparatus and image processing program | |
JP4741363B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP3223878B2 (en) | Character string collating device, method and recording medium | |
JP4552757B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP4549355B2 (en) | Form identification method and recording medium | |
JP5277750B2 (en) | Image processing program, image processing apparatus, and image processing system | |
JP2019101647A (en) | Information processing device, control method therefor, and program | |
JP5298830B2 (en) | Image processing program, image processing apparatus, and image processing system | |
JP2007102265A (en) | Identification card recognition device and method | |
JP2006277509A (en) | Dot texture superposition notation part shape restoration method and program therefor | |
JP2008135857A (en) | Image processor and image processing program | |
JP3606218B2 (en) | Document classification device, character reading device, authenticity determination device, and methods thereof |