JP4861250B2 - Image processing apparatus and control method thereof - Google Patents
Image processing apparatus and control method thereof Download PDFInfo
- Publication number
- JP4861250B2 JP4861250B2 JP2007146097A JP2007146097A JP4861250B2 JP 4861250 B2 JP4861250 B2 JP 4861250B2 JP 2007146097 A JP2007146097 A JP 2007146097A JP 2007146097 A JP2007146097 A JP 2007146097A JP 4861250 B2 JP4861250 B2 JP 4861250B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- reduced
- image
- allowable range
- reduced image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012545 processing Methods 0.000 title claims description 37
- 238000000034 method Methods 0.000 title claims description 35
- 230000009467 reduction Effects 0.000 claims description 51
- 238000000605 extraction Methods 0.000 claims description 40
- 230000008569 process Effects 0.000 claims description 19
- 238000001514 detection method Methods 0.000 claims description 11
- 239000000284 extract Substances 0.000 claims description 8
- 238000003702 image correction Methods 0.000 claims description 8
- 238000011946 reduction process Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 description 13
- 238000004422 calculation algorithm Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Landscapes
- Editing Of Facsimile Originals (AREA)
- Image Processing (AREA)
Description
本発明は、文書画像中の文字列の行間隔に基づき当該文書画像に埋め込まれた透かし情報を抽出する画像処理技術に関するものである。 The present invention relates to an image processing technique for extracting watermark information embedded in a document image based on line spacing of character strings in the document image.
文書画像に著作権や複写制御等の情報を持たせるため、非特許文献1の198ページ〜199ページの記載に示されるように、行間隔を利用して情報を埋め込む方法(以下、行間透かしと呼ぶ。)が知られている。図2は、行間透かしの概念を示す図である。行間透かしを用いた文書画像から埋め込まれた情報を抽出する場合には、まず当該文書画像内の文字列間の行間隔を求めることになる。行間隔を求めるため、一般的には文書画像に対して全走査を行いヒストグラムを求め、当該ヒストグラムから行間隔を導出する。そして、導出された行間隔と埋め込み時に使用した規則とに従って情報を抽出する。規則とは、例えば、図2に示すように、2値情報の「0」を埋め込みたい場合は行間隔U,Dに対しU>Dとなるよう設定することである。一方、2値情報の「1」を埋め込みたい場合は行間隔U,Dに対しU<Dとなるよう設定する。
しかしながら、上述の行間透かしを用いた文書画像から埋め込まれた情報を抽出する方法においては以下の問題点がある。すなわち、行間隔を測定するために、文書画像に対して全走査を行い、ヒストグラムを求める必要があり、情報抽出処理に時間がかかる。特に埋め込む情報が複製制御情報の場合、複写機内で複写制御情報を抽出し、抽出した情報から複写可能か否かの判断を行い、その後、複写処理を行うため、一枚の文書を複写する一連の処理にかなりの時間を有することになる。また、入力された文書画像の文字列方向と走査方向が傾いているとヒストグラムから行間隔を導出できない。そのため、文書画像を入力しなおすか、あるいは入力された文書画像に対し回転操作等の画像処理を行うなどの煩雑な操作が必要があった。また、入力された文書画像の文字の大きさ(解像度)などによっては情報抽出処理を実行できず、文書画像を入力しなおす必要があった。 However, the above-described method for extracting embedded information from a document image using a line watermark has the following problems. That is, in order to measure the line spacing, it is necessary to perform a full scan on the document image and obtain a histogram, and the information extraction process takes time. In particular, if the information to be embedded is copy control information, copy control information is extracted in the copier, a determination is made as to whether or not copying is possible from the extracted information, and then a single document is copied to perform copy processing. Will have a considerable amount of time. Also, if the character string direction and the scanning direction of the input document image are inclined, the line spacing cannot be derived from the histogram. Therefore, it is necessary to perform complicated operations such as re-inputting the document image or performing image processing such as rotation operation on the input document image. Further, the information extraction process cannot be executed depending on the character size (resolution) of the input document image, and it is necessary to input the document image again.
上述の問題点の少なくとも1つを解決するため、本発明の画像処理装置は以下の構成を備える。すなわち、文書画像を入力し、当該文書画像中の文字列の行間隔から、埋め込まれた透かし情報を抽出する画像処理装置であって、文書画像を画像データとして入力する入力手段と、入力した前記画像データの第1の方向の画素数をW0、前記第1の方向と直交した第2の方向の画素数をH0としたとき、前記画像データから少なくとも前記第1の方向の画素数がW1(1<W1<W0)に縮小された縮小画像データを生成する画像縮小手段と、前記画像縮小手段で生成された前記縮小画像データを前記第2の方向に走査して、前記画像データにおける平均文字高さを検出する検出手段と、前記検出手段により検出された平均文字高さが予め設定された許容範囲内にある場合には、前記縮小画像データを透かし抽出対象画像データとして出力し、前記平均文字高さが前記許容範囲外にある場合には、変倍後の平均文字高さが前記許容範囲内に収まる変倍率を前記平均文字高さと前記許容範囲とに基づいて設定し、該変倍率で前記縮小画像データを前記第2の方向に変倍し、変倍後の画像データを透かし抽出対象画像データとして出力する縮小画像補正手段と、前記縮小画像補正手段から出力された前記透かし抽出対象画像データを前記第2の方向に走査し、各文字列行間隔を検出し、透かし情報を抽出する透かし情報抽出手段と、を備える。 In order to solve at least one of the above-described problems, the image processing apparatus of the present invention has the following configuration. That is, an image processing apparatus that inputs a document image and extracts embedded watermark information from line spacing of character strings in the document image, the input means for inputting the document image as image data, and the input When the number of pixels in the first direction of the image data is W0 and the number of pixels in the second direction orthogonal to the first direction is H0, the number of pixels in the first direction is at least W1 ( An image reduction unit that generates reduced image data reduced to 1 <W1 <W0), and the reduced image data generated by the image reduction unit is scanned in the second direction to obtain an average character in the image data. A detecting means for detecting the height, and when the average character height detected by the detecting means is within a preset allowable range, the reduced image data is output as watermark extraction target image data; , Wherein when the average character height is outside the allowable range, and set based on the magnification of the average character height after scaling falls within the allowable range and the average character height and the allowable range, scaled the reduced image data before Symbol second direction in the displacement ratio, the reduced image correcting means for outputting as an extraction target image data the watermark image data after zooming output from the reduced image correcting means Watermark information extraction means for scanning the watermark extraction target image data in the second direction, detecting each character string line interval, and extracting watermark information;
上述の問題点の少なくとも1つを解決するため、本発明の画像処理装置の制御方法は以下の構成を備える。すなわち、文書画像を入力し、当該文書画像中の文字列の行間隔から、埋め込まれた透かし情報を抽出する画像処理装置の制御方法であって、文書画像を画像データとして入力する入力工程と、入力した前記画像データの第1の方向の画素数をW0、前記第1の方向と直交した第2の方向の画素数をH0としたとき、前記画像データから少なくとも前記第1の方向の画素数がW1(1<W1<W0)に縮小された縮小画像データを生成する画像縮小工程と、前記画像縮小工程で生成された前記縮小画像データを前記第2の方向に走査して、前記画像データにおける平均文字高さを検出する検出工程と、前記検出工程により検出された平均文字高さが予め設定された許容範囲内にある場合には、前記縮小画像データを透かし抽出対象画像データとして出力し、前記平均文字高さが前記許容範囲外にある場合には、変倍後の平均文字高さが前記許容範囲内に収まる変倍率を前記平均文字高さと前記許容範囲とに基づいて設定し、該変倍率で前記縮小画像データを前記第2の方向に変倍し、変倍後の画像データを透かし抽出対象画像データとして出力する縮小画像補正工程と、前記縮小画像補正工程から出力された前記透かし抽出対象画像データを前記第2の方向に走査し、各文字列行間隔を検出し、透かし情報を抽出する透かし情報抽出工程と、を備える。 In order to solve at least one of the above-described problems, the control method of the image processing apparatus of the present invention has the following configuration. That is, a control method of an image processing apparatus that inputs a document image and extracts embedded watermark information from line spacing of character strings in the document image, and an input step of inputting the document image as image data; When the number of pixels in the first direction of the input image data is W0 and the number of pixels in the second direction orthogonal to the first direction is H0, at least the number of pixels in the first direction from the image data. Reducing image data reduced to W1 (1 <W1 <W0), and scanning the reduced image data generated in the image reduction step in the second direction to obtain the image data A detection step of detecting an average character height in the image, and when the average character height detected by the detection step is within a preset allowable range, the reduced image data is converted into watermark extraction target image data. And outputs, when said average character height is outside the allowable range, based on the magnification ratio average character height after scaling falls within the allowable range and the average character height and the allowable range set Te, and scaling the reduced image data before Symbol second direction in the displacement ratio, the reduced image correcting step of outputting as the extraction target image data the watermark image data after zooming, the reduced image correction step A watermark information extracting step of scanning the watermark extraction target image data output from the second direction, detecting each character string line interval, and extracting watermark information.
本発明によれば、文書画像中の文字列の行間隔に基づいて文書画像に埋め込まれた透かし情報をより効率的に抽出可能とする技術を提供することができる。 According to the present invention, it is possible to provide a technique capable of more efficiently extracting watermark information embedded in a document image based on the line spacing of character strings in the document image.
以下に、図面を参照して、この発明の好適な実施の形態を詳しく説明する。なお、以下の実施の形態はあくまで例示であり、本発明の範囲を限定する趣旨のものではない。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. The following embodiments are merely examples, and are not intended to limit the scope of the present invention.
(第1実施形態)
本発明に係る画像処理装置の第1実施形態として、紙の文書原稿を画像読取装置(スキャナ)で読み込み、読み込んだ文書画像データに対し透かし情報の抽出を行う画像処理装置を例に挙げて以下に説明する。
(First embodiment)
As a first embodiment of an image processing apparatus according to the present invention, an image processing apparatus that reads a paper document original with an image reading apparatus (scanner) and extracts watermark information from the read document image data will be described as an example. Explained.
<装置構成>
図1は、第1実施形態における画像処理装置11の主要な機能構成を示すブロック図である。図1に示すように、画像処理装置11は、画像入力部101、画像縮小部102、情報抽出部103、サイズ判定部104、制御部110、操作部111から構成される。
<Device configuration>
FIG. 1 is a block diagram illustrating a main functional configuration of the
画像入力部101は、上述の透かし情報の埋め込まれた文書画像に対応する画像データを入力する機能部である。具体的には、外部のスキャナにより読み取られ生成された紙の文書原稿に基づいた画像データをUSBなどの外部機器接続用インタフェースにより入力する。もちろん、イーサネット(登録商標)などのネットワークを介して画像データを入力するよう構成してもよい。
The
画像縮小部102は、画像入力部101により入力された画像データに対し、第1の方向(たとえば画像の水平方向)と、第1の方向と直交する第2の方向(たとえば画像の垂直方向)へそれぞれ縮小する機能部である。入力された画像データがビットマップ(ラスタ)形式である場合、一般的には、上述の第1および第2の方向は画像データを構成する画素の配列方向と一致する。なお、ここでは直交する2つの方向に縮小する構成であると説明したが、後述するように、1つの方向のみに縮小する構成としてもよい。
The
サイズ判定部104は、画像データ内に存在するオブジェクトのサイズが予め指定された範囲内であるか否かを判定する機能部である。具体的には、画像データを走査して得られる有意画素の連続数が、予め指定された連続数の範囲であるか否かを判定する。
The
情報抽出部103は、画像縮小部102により生成された縮小画像データから、透かし情報に対応するバイナリ(2値)情報を抽出する機能部である。具体的には、画像縮小部102により生成された縮小画像データに対し、有意画素の有無を検出することにより実行される。そして、有意画素が検出された部分を文字列領域として判定し、有意画素が検出されない領域を行間部分として判定する。そして、行間部分として判定された複数の行間それぞれに対応する長さ(連続する画素数)に基づいて、各行間に対応する2値(0または1)を決定する。なお、行間部分の長さと2値との対応や情報量(ビット数)などの、透かし情報の埋め込みアルゴリズムについては、予め情報抽出部103に設定されているものとする。
The
制御部110は、上述の各機能部が連係して動作するよう制御するための機能部である。また、操作部111はユーザからの指示を受け付けるための機能部である。なお、上述の各機能部の動作の詳細については後述する。
The
<透かし情報の埋め込まれた画像データ>
第1実施形態では、透かし情報の埋め込みアルゴリズムは以下の通りであるとして説明する。もちろん、文字列の行間隔に基づいて透かし情報を埋め込むものであれば、他のアルゴリズムであっても適用可能である。
<Image data with embedded watermark information>
In the first embodiment, the watermark information embedding algorithm will be described as follows. Of course, other algorithms can be applied as long as the watermark information is embedded based on the line spacing of the character string.
図2は、透かし情報が埋め込まれた文書原稿を例示的に示す図である。図2においては、白色の用紙に黒色で文字が記録されている。また、複数の行からなる文字列のそれぞれの間隔(行間隔)についてU,Dの2種類を用いて、2値情報を埋め込んでいる。具体的には、連続する2つの行間(UnおよびDn:nは自然数)に対して、以下のように行間を設定する。 FIG. 2 is a diagram exemplarily showing a document original in which watermark information is embedded. In FIG. 2, black characters are recorded on white paper. Also, binary information is embedded by using two types of U and D for each interval (line interval) of a character string composed of a plurality of lines. Specifically, the line spacing is set as follows with respect to the space between two consecutive rows (U n and D n : n is a natural number).
「0」を埋め込む場合: Un>Dn
「1」を埋め込む場合: Un<Dn
そして、当該透かし情報入り文書原稿は、電荷結合素子(CCD)などの光学センサを有するスキャナにより読み取られ、画像データIが生成される。ここでは、生成された文書画像データIは、紙原稿の文字部分が黒、背景部分が白である2値画像であるとして説明する。なお、以降では文字部分に対応する”黒画素”のことを”有意画素”と呼ぶこともある。
When embedding “0”: U n > D n
When embedding “1”: U n <D n
Then, the watermarked document original is read by a scanner having an optical sensor such as a charge coupled device (CCD), and image data I is generated. Here, the generated document image data I is described as a binary image in which the text portion of the paper document is black and the background portion is white. Hereinafter, the “black pixel” corresponding to the character portion may be referred to as a “significant pixel”.
図3は、透かし情報の埋め込まれた2値画像データを例示的に示す図である。ここで、図3(a)は、横書きの文字原稿が正しい方向で記録された画像データを示している。一方、図3(b)と図3(c)とは傾きのある文書画像である。上述のように紙の文書原稿をスキャナにより読み取る際には、基準方向とのずれやユーザによる紙原稿配置のミスなどにより、図3(b)と図3(c)のような画像データが入力されることがある。 FIG. 3 is a diagram exemplarily showing binary image data in which watermark information is embedded. Here, FIG. 3A shows image data in which a horizontally written character document is recorded in the correct direction. On the other hand, FIG. 3B and FIG. 3C are tilted document images. As described above, when a paper document original is read by the scanner, image data as shown in FIGS. 3B and 3C is input due to a deviation from the reference direction or a misplacement of the paper original by the user. May be.
<装置の動作>
以下、画像処理装置11が、画像データIから透かし情報を抽出する動作をフローチャートを参照して詳細に説明する。
<Operation of the device>
Hereinafter, an operation in which the
図10は、第1実施形態に係る画像処理装置11の動作フローチャートである。なお、以下のフローはたとえばユーザによる操作部111を介した画像読取指示をトリガに実行される。
FIG. 10 is an operation flowchart of the
ステップS1001では、画像入力部101は、透かし情報入り文書画像に対応する画像データIをスキャナから受信し、画像データIを画像縮小部102に供給する。ここでは、画像データIの水平方向画素数はW0、垂直方向画素数はH0であるとする。
In step S <b> 1001, the
ステップS1002では、画像縮小部102は、画像入力部101より供給された画像データIを水平方向と垂直方向へそれぞれ縮小し、水平方向の縮小画像データIsh、垂直方向の縮小画像データIsvを生成する。そして、縮小画像データIshおよび縮小画像データIsvを情報抽出部103に供給する。ここでは、第1の縮小画像データである縮小画像データIshは少なくとも水平方向画素数がW1(1<W1<W0)に縮小されたデータであるとする。そして、第2の縮小画像データである縮小画像データIsvは少なくとも垂直方向画素数がH1(1<H1<H0)に縮小されたデータであるとする。
In step S1002, the
図4は、画像データIを水平方向に縮小した縮小画像データIsh、および、垂直方向へ縮小した縮小画像データIsvの例を示す図である。なお、図4(a)は図3(a)の文書画像、図4(b)は図3(b)の文書画像、図4(c)は図3(c)の文書画像のそれぞれに基づいて生成した縮小画像データである。 FIG. 4 is a diagram illustrating an example of reduced image data Ish obtained by reducing the image data I in the horizontal direction and reduced image data Isv reduced in the vertical direction. 4A is based on the document image in FIG. 3A, FIG. 4B is based on the document image in FIG. 3B, and FIG. 4C is based on the document image in FIG. 3C. Reduced image data generated in this way.
なお、ここで、水平・垂直の2つの方向に対して縮小画像を生成するのは、図3(c)に示すように90度傾きのある画像データIが入力された場合に対応するためである。このような状況は、スキャナによる読み取りではしばしば発生する。そのため、あらかじめ画像データIの入力方向が保障されている場合は、文字列方向に対応する1方向のみに縮小を行うよう構成してもよい。 Here, the reason why the reduced image is generated in the two directions of horizontal and vertical is to cope with the case where the image data I having a 90 degree inclination is input as shown in FIG. is there. Such a situation often occurs when reading with a scanner. Therefore, if the input direction of the image data I is guaranteed in advance, the image data I may be reduced in only one direction corresponding to the character string direction.
図4から、画像縮小部102による縮小により、文字列方向に縮小した縮小画像に対しては、複数の文字列が複数の有意画素の固まり(オブジェクト)として表現されることがわかる。以下、当該縮小画像の生成についてさらに詳しく説明する。
From FIG. 4, it can be seen that a plurality of character strings are expressed as a group (object) of a plurality of significant pixels for a reduced image reduced in the character string direction by reduction by the
画像縮小部102が実行する縮小処理の具体的な計算手法としては、入力された画像データに対し単に一定周期での画素の間引きによる縮小が考えられる。しかし、文字列部分と行間部分とをより正確に識別するために、以下のようなバイリニア法を利用した計算を行うとよい。
As a specific calculation method of the reduction process executed by the
バイリニア法では、画像データIの中の近接する4つの画素の画素値に基づいて、対応する縮小画像データの画素の画素値を算出する。この場合、4つの画素の少なくとも1つが黒である場合計算結果は中間調(グレー)となる(図5左)。具体的には、白を0黒を1として演算した結果が0より大きく1より小さい値となる。 In the bilinear method, the pixel value of the corresponding reduced image data pixel is calculated based on the pixel values of four adjacent pixels in the image data I. In this case, if at least one of the four pixels is black, the calculation result is halftone (gray) (left in FIG. 5). Specifically, the result of calculating white as 0 and black as 1 is a value greater than 0 and less than 1.
行間部分には有意画素である黒画素は存在しないため、1つでも黒画素が存在する場合、当該近接する4つの画素の存在する部分は文字列領域であると推定できる。そのため、中間調として算出された部分を有意画素である黒へと変換させる(図5右)ことにより、文字列領域と行間領域とをより高精度に分割することができる。つまり、文字列領域には有意画素が存在しない場合がある(画数の少ない文字など)が、行間領域には有意画素は一般に存在することは無いことを利用しているのである。 Since there is no black pixel that is a significant pixel in the inter-line portion, if there is even one black pixel, it can be estimated that the portion where the four adjacent pixels are present is a character string region. Therefore, the character string area and the line space area can be divided with higher accuracy by converting the portion calculated as the halftone into black as a significant pixel (right in FIG. 5). In other words, there are cases where there are no significant pixels in the character string area (characters with a small number of strokes), but there is generally no significant pixel in the line spacing area.
なお、画像縮小部102による水平・垂直方向への縮小率は、オブジェクトが認識できる程度の大きさとなる縮小率であればよい。具体的な縮小率の値は予め指定した固定値としてもよいし、入力された画像データの付加データ(スキャナによる読取解像度情報など)に基づいて随時決定してもよい。また、ここでは縮小画像を生成するアルゴリズムの一例としてバイリニア法を適用したが、本発明はこれに限定されることはない。ニアレストレイバー、バイキュービックなど、種々の計算手法を利用して縮小可能である。
The reduction ratio in the horizontal and vertical directions by the
ステップS1003では、サイズ判定部104は、縮小画像データIshまたはIsvに基づいて、文字高さあるいは文字列間の距離(行間隔)を検出する。具体的には、縮小画像データIshまたはIsvに対して、ステップS1002で縮小した方向と直交する方向へ1走査を行うことにより実現される。つまり、縮小画像データIshに対しては垂直方向、縮小画像データIsvに対しては水平方向に走査する。なお、以降のステップでは、縮小画像データIshに対しては垂直方向に走査を行ったものとして説明する。
In step S1003, the
文字列間の距離(行間隔)の検出は具体的には、縮小画像における有意画素の固まりの大きさ検出を行う。さらに具体的には、検出された連続する有意画素部分(文字列部分に相当)、あるいは、連続する有意画素非検出の部分(行間に相当)の代表的距離を導出する。有意画素非検出の部分の代表的距離とは図2に示した距離UnやDnに相当し、有意画素非検出の連続画素数のことである。その際、最初の文字列(1行目)の長さ、あるいは、最初の行間隔部分(1行目と2行目との間)のみに基づいて決定してもよいし、複数行に対する平均値から導出するよう構成してもよい。つまり、平均文字高さを用いるようにしても良い。ここでは、平均文字高さを行間隔の代表的距離として決定するものとして説明する。 Specifically, the distance between character strings (line spacing) is detected by detecting the size of significant pixels in a reduced image. More specifically, the representative distance of the detected consecutive significant pixel portion (corresponding to the character string portion) or the consecutive significant pixel non-detected portion (corresponding to the space between lines) is derived. The representative distance of the significant pixel non-detection portion corresponds to the distances U n and D n shown in FIG. 2 and is the number of consecutive pixels where no significant pixel is detected. At that time, it may be determined based on the length of the first character string (first line) or only the first line interval part (between the first line and the second line), or an average over a plurality of lines You may comprise so that it may derive | lead-out from a value. That is, the average character height may be used. Here, the description will be made assuming that the average character height is determined as a representative distance between lines.
ステップS1004では、サイズ判定部104は、ステップS1003で決定した代表的距離が、予め設定された長さ(画素数)の範囲内(許容範囲内)であるか、当該許容範囲外(上限値よりも長いあるいは下限値よりも短い)であるかを判定する。許容範囲内である場合はステップS1005に、範囲外である場合はステップS1007に進む。ここでは、設定された範囲が10<L<30(画素)であるとする。
In step S1004, the
ステップS1007では、サイズ判定部104は、範囲の上限値(30)よりも長いか下限値(10)よりも短いかを判定する。上限値よりも長い場合、ステップS1008に進む。一方、下限値よりも短い場合、ステップS1010に進む。
In step S1007, the
ステップS1008では、サイズ判定部104は、ステップS1003で決定した代表的距離と範囲の上限値とに基づいて、予め設定された範囲内(つまり許容範囲内)に収まる垂直方向の縮小率を求める。例として、値Lが40(画素)であれば、25%(=10/40)〜75%(=30/40)の縮小率で縮小画像を垂直方向に縮小(変倍)する。なお、垂直方向の縮小時には、画像の鮮鋭化を目的として、ぼかし処理及び先鋭化処理を加えてもよい。そして、ステップS1009に進む。
In step S1008, the
ステップS1010では、サイズ判定部104は、ステップS1003で決定した代表的距離と範囲の下限値とに基づいて、予め設定された範囲内に収まる垂直方向の拡大率を求める。例として、値Lが5であれば、200%(=10/5)〜600%(=30/5)の拡大率で縮小画像を垂直方向に拡大(変倍)する。なお、垂直方向の拡大時には、画像の鮮鋭化を目的として、ぼかし処理及び先鋭化処理を加えてもよい。なお、ステップS1002におけるIsh画像生成時に、垂直方向に対して縮小を行っていた場合には、ステップS1002に戻り、再度適切な縮小率で縮小画像を再生成するよう構成してもよい。そして、ステップS1009に進む。
In step S1010, the
ステップS1009では、サイズ判定部104は、ステップS1008またはステップS1010において決定した縮小率に基づいて、ステップS1002で生成した縮小画像に対し、垂直方向に縮小あるいは拡大する。つまり、縮小画像補正手段として機能する。
In step S1009, the
ステップS1005では、情報抽出部103は、画像縮小部102より供給された縮小画像データ(透かし抽出対象画像データ)あるいは変倍後のデータを用いて各文字列領域間の長さ(各文字列行間隔)を計測する。ここでは、水平方向に縮小した縮小画像データIshに対して計測するものとする。具体的な計測方法は以下の通りである。
In step S1005, the
図6は、縮小画像データIshの拡大図である。まず、情報抽出部103は、縮小画像データIshに対し縮小方向(ここでは水平方向)と直交する方向(ここでは垂直方向)へ、走査を行うことにより有意画素の有無を検出する。そして、有意画素の有無が反転する位置を文字列領域を行間領域との境界として決定する。
FIG. 6 is an enlarged view of the reduced image data Ish. First, the
たとえば、図6における矢印に沿って反転位置を検出した場合、x1〜x10の各画素位置が検出されることになる。このとき、行間隔であるU1、D1、U2、D2のそれぞれの長さは、U1=x3−x2、D1=x5−x4、U2=x7−x6、D2=x9−x8である(単位は画素(pix))。
For example, when the inversion position is detected along the arrow in FIG. 6, each pixel position of x 1 to x 10 is detected. At this time, the length of each of U 1, D 1, U 2 ,
前述のように、ステップS1002における縮小処理の結果、文字列領域が文字の並び方向に縮小されると同時に、中間調部分が有意画素に変換されている。そのため、文字列領域における有意画素(ここでは黒)の密度が結果的に高くなっている。その結果、情報抽出部103は、文字列領域と行間領域との境界をより高精度に検出可能であり、行間隔を高精度に計測可能である。
As described above, as a result of the reduction process in step S1002, the character string area is reduced in the character arrangement direction, and at the same time, the halftone portion is converted into a significant pixel. As a result, the density of significant pixels (here, black) in the character string region is increased. As a result, the
なお、上述の方法は、縮小画像データIshが図4(b)に示すよう多少傾いている場合においても有効である。図8は、図4(b)の縮小画像データIshに対する走査を例示的に示す図である。この場合、矢印に沿った行間隔の長さは、図6の場合とは異なる結果となる。具体的には、文字列の傾きθ(度)としたとき、長さが1/cosθ倍になる。ただし、各行間隔の相対的長さ関係は変化しない。 The above-described method is effective even when the reduced image data Ish is slightly inclined as shown in FIG. FIG. 8 is a diagram exemplarily showing scanning for the reduced image data Ish in FIG. In this case, the length of the line interval along the arrow is different from the case of FIG. Specifically, when the inclination of the character string is θ (degrees), the length is 1 / cos θ times. However, the relative length relationship between the line intervals does not change.
なお、上述のバイリニア法を利用した縮小画像データを利用する場合、一般的には1回の走査で十分である。しかし、より高精度に検出を行うときには、縮小した画像に対して、複数の走査を行い、複数回における平均値を行間隔としてもよい。また、縮小画像データを間引きにより生成した場合にも、複数回の走査は有効である。 Note that when the reduced image data using the above-described bilinear method is used, one scan is generally sufficient. However, when detection is performed with higher accuracy, a plurality of scans may be performed on the reduced image, and the average value may be used as the line interval. Even when the reduced image data is generated by thinning, a plurality of scans are effective.
図7は、縮小画像データIshに対し複数回の走査を実行する様子を例示的に示す図である。図7では、黒色オブジェクトで示される文字列部分が、より現実の縮小画像データに近いものとして示している。つまり、図6のような理想的な矩形オブジェクトではなく、非有意画素(白色画素)を含んだものとして示されている。そのため、走査位置によってオブジェクト間(行間隔)の計測値が微妙に異なることになる。 FIG. 7 is a diagram exemplarily showing a state where a plurality of scans are performed on the reduced image data Ish. In FIG. 7, the character string portion indicated by the black object is shown as being closer to the actual reduced image data. That is, it is shown as including an insignificant pixel (white pixel) instead of the ideal rectangular object as shown in FIG. For this reason, the measurement value between objects (line interval) differs slightly depending on the scanning position.
例えば、図中に示すように走査位置を3箇所(矢印(1)(2)(3))行った値がそれぞれ、
矢印(1): U1=10[pix]、D1=4[pix]、U2=4[pix]、D2=12[pix]
矢印(2): U1= 8[pix]、D1=5[pix]、U2=6[pix]、D2=10[pix]
矢印(3): U1= 6[pix]、D1=3[pix]、U2=5[pix]、D2= 8[pix]
であったとする。その場合、例えばそれぞれの長さの平均値である、
U1=8[pix]、D1= 4[pix]、U2=5[pix]、D2=10[pix]
をオブジェクト間の距離(行間隔)と決定するとよい。
For example, as shown in the figure, values obtained by performing three scanning positions (arrows (1), (2), and (3))
Arrow (1): U 1 = 10 [pix], D 1 = 4 [pix], U 2 = 4 [pix], D 2 = 12 [pix]
Arrow (2): U 1 = 8 [pix], D 1 = 5 [pix], U 2 = 6 [pix], D 2 = 10 [pix]
Arrow (3): U 1 = 6 [pix], D 1 = 3 [pix], U 2 = 5 [pix], D 2 = 8 [pix]
Suppose that In that case, for example, the average value of each length,
U 1 = 8 [pix], D 1 = 4 [pix], U 2 = 5 [pix], D 2 = 10 [pix]
May be determined as the distance between objects (line spacing).
ステップS1006では、情報抽出部103は、ステップS1005で導出した行間隔に基づいて透かし情報を導出する。具体的には、情報抽出部103に予め設定された埋め込みアルゴリズムに対応させて透かし情報を算出する。例えば、図6では、U1<D1、U2>D2であることから透かし情報は「10(2進)」として導出される。
In step S1006, the
ただし、ステップS1005で、図4(c)に示す縮小画像データIshに対して計測した場合、オブジェクト間の距離を計測することができない。そのため、ステップS1005で、透かし画像を抽出することができない。つまり、ステップS1001において、90度回転した状態で画像データIが入力されていたため、縮小画像データIshは一般的に黒色のべた画像となってしまっているからである。 However, when measurement is performed on the reduced image data Ish shown in FIG. 4C in step S1005, the distance between the objects cannot be measured. Therefore, a watermark image cannot be extracted in step S1005. That is, in step S1001, the image data I is input in a state rotated by 90 degrees, and therefore the reduced image data Ish is generally a black solid image.
ステップS1011では、制御部110は、ステップS1006において情報が抽出できたか否かを判定する。情報が抽出できたか否かの判断は、例えば、Un,Dnが計測できた場合は、情報が抽出できたとし、Un,Dnが計測できなかった場合は抽出ができなかったと判定する。あるいは、予め設定された埋め込みアルゴリズムで規定された値以外の値が検出された場合に情報が抽出できなかったとする。また、読み取り結果に対して、予め指定された誤検出/未検出の判定を行うことにより決定してもよい。
In step S1011, the
そして、情報が抽出できたと判定した場合はフローを終了する。一方、抽出できなかった場合は垂直方向の縮小画像データIsvを対象としてステップS1003以下のフローを再度実行するとよい。なお、情報抽出部103は、縮小画像データIsvに対し縮小方向(ここでは垂直方向)と直交する方向(ここでは水平方向)へ、走査を行うことにより有意画素の有無を検出することに注意する(図9)。なお、そのとき使用される、画像縮小部102および情報抽出部103が、それぞれ、第2の画像縮小手段および第2の透かし情報抽出手段となる。さらに、サイズ判定部104が第2の検出手段および第2の縮小画像補正手段となる。また、第2の縮小画像データに基づいて第2の透かし抽出対象画像データが生成される。
And when it determines with information being able to be extracted, a flow is complete | finished. On the other hand, if it cannot be extracted, the flow from step S1003 onward may be executed again for the reduced image data Isv in the vertical direction. Note that the
以上のような動作フローを経て、画像処理装置11は、画像データIから透かし情報を抽出する。
Through the operation flow as described above, the
なお、上述の説明においては、図3に示したパターンの文書画像データであるとして説明した。つまり、ほぼ正常な方向か90度回転入力される文書画像データであるとした。これらに加え、上下あるいは左右逆に入力される場合は、図6〜図9に示した走査方向に加え逆方向の走査も実行するよう構成するとよい。さらに、そのような状況が想定される場合には、透かし情報の埋め込みアルゴリズムとして読取開始方向に依存しないよう構成したアルゴリズムを用いることも好適である。 In the above description, the document image data having the pattern shown in FIG. 3 is described. That is, it is assumed that the document image data is input in a substantially normal direction or rotated by 90 degrees. In addition to these, when the input is performed upside down or horizontally, it is preferable that the scanning in the reverse direction is executed in addition to the scanning direction shown in FIGS. Furthermore, when such a situation is assumed, it is also preferable to use an algorithm configured so as not to depend on the reading start direction as the watermark information embedding algorithm.
例えば、埋め込む情報が「101(2進)」や「11010(2進)」で、スタートビットを「0」、ストップビットを「11」とした場合、情報は、「010111(2進)」、「01101011(2進)」となる。さらに、どちらからでも読み取りが可能なように「010111000101(2進)」、「0110101100101001(2進)」のようにした情報を埋め込めば、上から下の走査1回のみで情報の抽出が可能である。なお、上記情報の後半部分がビット反転しているのは、判定条件が
「0」を埋め込む場合: Un>Dn
「1」を埋め込む場合: Un<Dn
の場合、反対方向から読むとUnとDnの順序が反対となり、ビット反転するためである。
For example, if the information to be embedded is “101 (binary)” or “11010 (binary)”, the start bit is “0”, and the stop bit is “11”, the information is “010111 (binary)”, “01101011 (binary)”. Furthermore, if information such as “010111000101 (binary)” and “0110101100101001 (binary)” is embedded so that reading can be performed from either side, information can be extracted by only one scan from top to bottom. is there. The latter part of the information is bit-inverted when the determination condition is embedded with “0”: U n > D n
When embedding “1”: U n <D n
In this case, reading from the opposite direction reverses the order of U n and D n and reverses the bit.
また、上記とは別に、スタートビット、ストップビットを同じ「0」としておけば、埋め込む情報が「101(2進)」の場合は「001010(2進)」となる。反対方向から読むと「101011(2進)」で、スタートビットが「1」となっている。よって、情報部分を反転させ「010100(2進)」さらに反対方向に並べかえることにより「001010(2進)」となり、抽出することができる。 In addition to the above, if the start bit and the stop bit are set to the same “0”, the information to be embedded is “001010 (binary)” when the information to be embedded is “101 (binary)”. When read from the opposite direction, “101011 (binary)” and the start bit is “1”. Therefore, by reversing the information portion and rearranging “010100 (binary)” in the opposite direction, it becomes “001010 (binary)” and can be extracted.
なお、第1実施形態では、図2に示したような、透かし情報を1組(2つ)の行間隔の相対的長さに対応させて埋め込むアルゴリズムを用いて説明を行った。しかし、最初に述べたように本発明は、この埋め込みアルゴリズムに限定されることない。例えば、最初の行間隔(文字列の1行目と2行目との間)を基準として、2つ目(文字列の2行目と3行目との間)以降の行間隔を最初の行間隔との相対的長さに対応させて情報を埋め込むアルゴリズムなどでもよい。また、相対的行間隔による2値情報ではなく、行間隔に基づくより多値の情報を埋め込むようにしてもよい。つまり、行間隔を使用した任意の埋め込みアルゴリズム全般に対し有効な手法である。 In the first embodiment, description has been made using an algorithm for embedding watermark information in correspondence with the relative length of one set (two) of line intervals as shown in FIG. However, as described first, the present invention is not limited to this embedding algorithm. For example, on the basis of the first line interval (between the first and second lines of the character string), the line interval after the second (between the second and third lines of the character string) An algorithm that embeds information corresponding to the relative length to the line spacing may be used. Further, instead of the binary information based on the relative line spacing, multi-value information based on the line spacing may be embedded. In other words, this is an effective technique for any arbitrary embedding algorithm using line spacing.
以上説明したように、第1実施形態に係る画像処理装置によれば、より高精度にあるいはより高速に、透かし情報を抽出することが可能となる。また、入力された画像データが傾きを有していた場合であっても、煩雑な操作を行うことなく情報を抽出可能となる。 As described above, according to the image processing apparatus according to the first embodiment, it is possible to extract watermark information with higher accuracy or higher speed. Further, even when the input image data has a tilt, information can be extracted without performing a complicated operation.
(変形例)
一般的に画像縮小部102による縮小率は小さく設定される(例えば5%)。そのため、入力された画像データIにおける文字列の幅(横方向の長さ)が短い場合、過度に縮小され、情報抽出部103による情報抽出の精度が低下し得る。そのため、縮小画像データ内のオブジェクトについて、画像縮小部102による縮小方向の大きさを検出することも有用である。
(Modification)
Generally, the reduction rate by the
以下では、縮小画像データ内のオブジェクトの画像縮小部102による縮小方向の大きさに基づいて、より好適な縮小画像データを生成する構成について説明する。
Hereinafter, a configuration for generating more preferable reduced image data based on the size of the object in the reduced image data in the reduction direction by the
<装置の動作>
図12は、変形例に係る画像処理装置11の動作フローチャートである。以下のフローはたとえばユーザによる操作部111を介した画像読取指示をトリガに実行される。なお、ステップS1201、S1202、S1205、S1206、および、S1211については、上述の第1実施形態(図10)における対応するステップと同様であるので説明は省略する。
<Operation of the device>
FIG. 12 is an operation flowchart of the
ステップS1203では、サイズ判定部104は、縮小画像データIshまたはIsvに基づいて、文字列幅(横の長さ)を検出する。具体的には、縮小画像データIshまたはIsvに対して、ステップS1002で縮小した方向へ1走査を行うことにより実現される。つまり、縮小画像データIshに対しては水平方向、縮小画像データIsvに対しては垂直方向に走査する。なお、以降のステップでは、縮小画像データIshに対しては水平方向に走査を行ったものとして説明する。
In step S1203, the
文字列幅(横の長さ)の検出は具体的には、縮小画像における有意画素の固まりの大きさ検出を行う。さらに具体的には、検出された連続する有意画素部分(文字列部分に相当)の代表的距離を導出する。その際、最初の文字列(1行目)の幅、のみに基づいて決定してもよいし、複数行に対する幅の平均値から導出するよう構成してもよい。 Specifically, the character string width (horizontal length) is detected by detecting the size of a group of significant pixels in the reduced image. More specifically, a representative distance between detected consecutive significant pixel portions (corresponding to character string portions) is derived. At this time, it may be determined based only on the width of the first character string (first line), or may be derived from the average value of the widths for a plurality of lines.
ステップS1204では、サイズ判定部104は、ステップS1003で決定した代表的距離が、予め設定された長さ(画素数)の範囲内であるか、当該範囲外(上限値よりも長いあるいは下限値よりも短い)であるかを判定する。範囲内である場合はステップS1205に、範囲外である場合はステップS1207に進む。ここでは、設定された範囲が10<L<30(画素)であるとする。
In step S1204, the
ステップS1207では、サイズ判定部104は、範囲の上限値(30)よりも長いか下限値(10)よりも短いかを判定する。上限値よりも長い場合、ステップS1208に進む。一方、下限値よりも短い場合、ステップS1210に進む。
In step S1207, the
ステップS1208では、サイズ判定部104は、ステップS1203で決定した代表的距離と範囲の上限値とに基づいて、予め設定された範囲内に収まるような縮小画像データIshに対する水平方向の縮小率を求める。例として、値Lが40(画素)であれば、25%(=10/40)〜75%(=30/40)の縮小率で縮小画像データIshを水平方向に再縮小する。そして、ステップS1209に進む。
In step S1208, the
ステップS1210では、サイズ判定部104は、ステップS1203で決定した代表的距離と範囲の下限値とに基づいて、予め設定された範囲内に収まる画像データIに対する水平方向の縮小率を求める。つまり、縮小オブジェクトの幅が予め設定された範囲内に収まるような、画像縮小部102による縮小率の値を導出する。
In step S1210, the
例として、画像縮小部102による縮小率の初期値が5%である場合を考える。値Lが5であれば、Ishが200%(=10/5)〜600%(=30/5)となっていれば良いことから、画像縮小部102による縮小率の値を2倍〜6倍とする。つまり、画像縮小部102の縮小率を10%〜30%の間の値として導出し、導出した値を画像縮小部102に設定する。そして、ステップS1002に進む。
As an example, let us consider a case where the initial value of the reduction ratio by the
つまり、縮小画像データIshに対し拡大処理を行うのではなく、ステップS1201で入力された画像データIに対して再度縮小を行う点が上述の第1実施形態の場合と異なる。このような処理により、画像拡大処理に伴う画質劣化を防止することが可能となる。 That is, the difference from the first embodiment described above is that the image data I input in step S1201 is reduced again without performing the enlargement process on the reduced image data Ish. By such processing, it is possible to prevent image quality deterioration associated with image enlargement processing.
そして、このようにして生成された縮小画像データをIshから透かし情報を抽出することにより、より精度の高い情報抽出が可能となる。 Then, by extracting the watermark information from the Ish from the reduced image data generated in this way, it is possible to extract information with higher accuracy.
(第2実施形態)
第2実施形態では、スキャナなどで読み取った文書画像をコンピュータ(PC)上で動作するプログラムにより、透かし情報の抽出を実行する形態について説明する。
(Second Embodiment)
In the second embodiment, a description will be given of a form in which watermark information is extracted from a document image read by a scanner or the like by a program that operates on a computer (PC).
<機器構成>
図11は、PCの内部構成を示す図である。
<Equipment configuration>
FIG. 11 is a diagram showing an internal configuration of the PC.
同図において、1101はCPUで、RAM1102やROM1103に格納されているプログラムやデータに基づいて、図1に示した、機能ブロックの各部を実現する。
In the figure,
1102はRAMで、外部記憶装置1108からロードされたプログラムやデータ、他のコンピュータシステム1114からI/F(インターフェース)1115を介してダウンロードしたプログラムやデータを一時的に記憶するエリアを備える。さらに、CPU1101が各種の処理を行うために必要とするエリアをも備える。
1103はROMで、コンピュータの機能プログラムや設定データなどを記憶する。1104はディスプレイ制御装置で、画像や文字等をディスプレイ1105に表示させるための制御処理を行う。1105はディスプレイで、画像や文字などを表示する。なお、ディスプレイとしてはCRTや液晶画面などが適用可能である。
1106は操作入力デバイスで、キーボードやマウスなど、CPU1101に各種の指示を入力することのできるデバイスにより構成されている。1107は操作入力デバイス1106を介して入力された各種の指示等をCPU1101に通知するためのI/Oである。
1108はハードディスクなどの大容量情報記憶装置として機能する外部記憶装置で、OS(オペレーティングシステム)や各種アプリケーションプログラム、さらに、入出力原稿画像などを記憶する。外部記憶装置1108への情報の書き込みや外部記憶装置1108からの情報の読み出しはI/O1109を介して行われる。
1110は文書や画像を出力する為のプリンタで、出力データはI/O1111を介してRAM1102、もしくは外部記憶装置1108から送られる。なお、文書や画像を出力する為のプリンタとしては、例えばインクジェットプリンタ、レーザビームプリンタ、熱転写型プリンタ、ドットインパクトプリンタなどが挙げられる。
1112は文書や画像を読み取るためのスキャナで、入力データはI/O1113を介してRAM1102、もしくは外部記憶装置1108に送られる。
1116は、CPU1101、ROM1103、RAM1102、I/O1111、I/O1109、ディスプレイ制御装置1104、I/F1115、I/O1107、I/O1113を繋ぐバスである。
<装置の動作>
外部記憶装置1108には、アプリケーションプログラムとして、第1実施形態で説明した各機能部および動作フローを実現するための、画像処理プログラムが記憶されている。ユーザによる、操作入力デバイス1106を介した、当該画像処理プログラムの起動指示に基づき、第1実施形態で説明した動作フローが開始される。なお、詳細動作は第1実施形態とほぼ同様であるため省略する。
<Operation of the device>
The
(他の実施形態)
以上、本発明の実施形態について詳述したが、本発明は、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
(Other embodiments)
Although the embodiments of the present invention have been described in detail above, the present invention may be applied to a system constituted by a plurality of devices or may be applied to an apparatus constituted by one device.
なお、本発明は、前述した実施形態の機能を実現するプログラムを、システム或いは装置に直接或いは遠隔から供給し、そのシステム或いは装置が、供給されたプログラムコードを読み出して実行することによっても達成される。従って、本発明の機能処理をコンピュータで実現するために、コンピュータにインストールされるプログラムコード自体も本発明の技術的範囲に含まれる。 The present invention can also be achieved by supplying a program that realizes the functions of the above-described embodiments directly or remotely to a system or apparatus, and the system or apparatus reads and executes the supplied program code. The Accordingly, the program code itself installed in the computer in order to realize the functional processing of the present invention by the computer is also included in the technical scope of the present invention.
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。 In this case, the program may be in any form as long as it has a program function, such as an object code, a program executed by an interpreter, or script data supplied to the OS.
プログラムを供給するための記録媒体としては、例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク(CD、DVD)、光磁気ディスク、磁気テープ、不揮発性のメモリカード、ROMなどがある。 Examples of the recording medium for supplying the program include a floppy (registered trademark) disk, a hard disk, an optical disk (CD, DVD), a magneto-optical disk, a magnetic tape, a nonvolatile memory card, and a ROM.
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。その他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行い、その処理によっても前述した実施形態の機能が実現され得る。 Further, the functions of the above-described embodiments are realized by the computer executing the read program. In addition, based on the instructions of the program, an OS or the like running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments can also be realized by the processing.
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によっても前述した実施形態の機能が実現される。 Further, the program read from the recording medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instructions of the program, and the functions of the above-described embodiments are realized by the processing.
11 画像処理装置
101 画像入力部
102 画像縮小部
103 情報抽出部
104 サイズ判定部
110 制御部
111 操作部
DESCRIPTION OF
Claims (4)
文書画像を画像データとして入力する入力手段と、
入力した前記画像データの第1の方向の画素数をW0、前記第1の方向と直交した第2の方向の画素数をH0としたとき、前記画像データから少なくとも前記第1の方向の画素数がW1(1<W1<W0)に縮小された縮小画像データを生成する画像縮小手段と、
前記画像縮小手段で生成された前記縮小画像データを前記第2の方向に走査して、前記画像データにおける平均文字高さを検出する検出手段と、
前記検出手段により検出された平均文字高さが予め設定された許容範囲内にある場合には、前記縮小画像データを透かし抽出対象画像データとして出力し、前記平均文字高さが前記許容範囲外にある場合には、変倍後の平均文字高さが前記許容範囲内に収まる変倍率を前記平均文字高さと前記許容範囲とに基づいて設定し、該変倍率で前記縮小画像データを前記第2の方向に変倍し、変倍後の画像データを透かし抽出対象画像データとして出力する縮小画像補正手段と、
前記縮小画像補正手段から出力された前記透かし抽出対象画像データを前記第2の方向に走査し、各文字列行間隔を検出し、透かし情報を抽出する透かし情報抽出手段と、
を備えることを特徴とする画像処理装置。 An image processing apparatus that inputs a document image and extracts embedded watermark information from line spacing of character strings in the document image,
An input means for inputting a document image as image data;
When the number of pixels in the first direction of the input image data is W0 and the number of pixels in the second direction orthogonal to the first direction is H0, at least the number of pixels in the first direction from the image data. Image reduction means for generating reduced image data reduced to W1 (1 <W1 <W0);
Detecting means for scanning the reduced image data generated by the image reducing means in the second direction to detect an average character height in the image data;
When the average character height detected by the detection means is within a preset allowable range, the reduced image data is output as watermark extraction target image data, and the average character height is outside the allowable range. in some cases, set on the basis of the magnification of the average character height after scaling falls within the allowable range and the average character height and the allowable range, the pre-Symbol the reduced image data in the modified magnification Reduced image correction means for scaling in the direction 2 and outputting the scaled image data as watermark extraction target image data;
Watermark information extraction means for scanning the watermark extraction target image data output from the reduced image correction means in the second direction, detecting each character string line interval, and extracting watermark information;
An image processing apparatus comprising:
前記情報抽出手段で有効な文字列行間隔が検出されなかった場合、前記画像データから少なくとも前記第2の方向の画素数がH1(1<H1<H0)に縮小された第2の縮小画像データを生成する第2の画像縮小手段と、
前記第2の画像縮小手段で生成された前記第2の縮小画像データを前記第1の方向に走査して、前記画像データにおける第2の平均文字高さを検出する第2の検出手段と、
前記第2の検出手段により検出された第2の平均文字高さが前記許容範囲内にある場合には、前記第2の縮小画像データを第2の透かし抽出対象画像データとして出力し、前記第2の平均文字高さが前記許容範囲外にある場合には、変倍後の第2の平均文字高さが前記許容範囲内に収まる第2の変倍率を前記第2の平均文字高さと前記許容範囲とに基づいて設定し、該第2の変倍率で前記第2の縮小画像データを前記第1の方向に変倍し、変倍後の画像データを第2の透かし抽出対象画像データとして出力する第2の縮小画像補正手段と、
前記第2の縮小画像補正手段から出力された前記第2の透かし抽出対象画像データを前記第1の方向に走査し、各文字列行間隔を検出し、透かし情報を抽出する第2の透かし情報抽出手段と、
を備えることを特徴とする請求項1に記載の画像処理装置。 Furthermore,
If the effective character string line interval is not detected by the information extraction unit, the second reduced image data in which the number of pixels in the second direction is reduced to H1 (1 <H1 <H0) from the image data. Second image reduction means for generating
Second detection means for detecting the second average character height in the image data by scanning the second reduced image data generated by the second image reduction means in the first direction;
When the second average character height detected by the second detecting means is within the allowable range, and outputs the second reduced image data as the second watermark extraction target image data, the second When the average character height of 2 is outside the allowable range, a second scaling factor at which the second average character height after scaling is within the allowable range is determined as the second average character height and the second average character height. set based on the allowable range, scaled before Symbol first direction the second reduced image data at the magnification ratio of the second, the image data after the zooming second watermark extraction target image data Second reduced image correction means for outputting as:
Second watermark information for scanning the second watermark extraction target image data output from the second reduced image correcting means in the first direction, detecting each character string line interval, and extracting watermark information Extraction means;
The image processing apparatus according to claim 1, further comprising:
文書画像を画像データとして入力する入力工程と、
入力した前記画像データの第1の方向の画素数をW0、前記第1の方向と直交した第2の方向の画素数をH0としたとき、前記画像データから少なくとも前記第1の方向の画素数がW1(1<W1<W0)に縮小された縮小画像データを生成する画像縮小工程と、
前記画像縮小工程で生成された前記縮小画像データを前記第2の方向に走査して、前記画像データにおける平均文字高さを検出する検出工程と、
前記検出工程により検出された平均文字高さが予め設定された許容範囲内にある場合には、前記縮小画像データを透かし抽出対象画像データとして出力し、前記平均文字高さが前記許容範囲外にある場合には、変倍後の平均文字高さが前記許容範囲内に収まる変倍率を前記平均文字高さと前記許容範囲とに基づいて設定し、該変倍率で前記縮小画像データを前記第2の方向に変倍し、変倍後の画像データを透かし抽出対象画像データとして出力する縮小画像補正工程と、
前記縮小画像補正工程から出力された前記透かし抽出対象画像データを前記第2の方向に走査し、各文字列行間隔を検出し、透かし情報を抽出する透かし情報抽出工程と、
を備えることを特徴とする画像処理装置の制御方法。 A method for controlling an image processing apparatus that inputs a document image and extracts embedded watermark information from line spacing of character strings in the document image,
An input process for inputting a document image as image data;
When the number of pixels in the first direction of the input image data is W0 and the number of pixels in the second direction orthogonal to the first direction is H0, at least the number of pixels in the first direction from the image data. An image reduction process for generating reduced image data reduced to W1 (1 <W1 <W0);
A detection step of scanning the reduced image data generated in the image reduction step in the second direction to detect an average character height in the image data;
If the average character height detected by the detection step is within a preset allowable range, the reduced image data is output as watermark extraction target image data, and the average character height is outside the allowable range. in some cases, set on the basis of the magnification of the average character height after scaling falls within the allowable range and the average character height and the allowable range, the pre-Symbol the reduced image data in the modified magnification A reduced image correction step for scaling in the direction 2 and outputting the scaled image data as watermark extraction target image data;
A watermark information extraction step of scanning the watermark extraction target image data output from the reduced image correction step in the second direction, detecting each character string line interval, and extracting watermark information;
An image processing apparatus control method comprising:
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007146097A JP4861250B2 (en) | 2007-05-31 | 2007-05-31 | Image processing apparatus and control method thereof |
US12/128,221 US8064636B2 (en) | 2007-05-31 | 2008-05-28 | Image processing apparatus and method of controlling the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007146097A JP4861250B2 (en) | 2007-05-31 | 2007-05-31 | Image processing apparatus and control method thereof |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2008301281A JP2008301281A (en) | 2008-12-11 |
JP2008301281A5 JP2008301281A5 (en) | 2010-02-25 |
JP4861250B2 true JP4861250B2 (en) | 2012-01-25 |
Family
ID=40174348
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007146097A Expired - Fee Related JP4861250B2 (en) | 2007-05-31 | 2007-05-31 | Image processing apparatus and control method thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4861250B2 (en) |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6086706A (en) * | 1993-12-20 | 2000-07-11 | Lucent Technologies Inc. | Document copying deterrent method |
JP4532349B2 (en) * | 2005-06-07 | 2010-08-25 | 株式会社リコー | Image processing method, image processing apparatus, image processing program, and recording medium |
-
2007
- 2007-05-31 JP JP2007146097A patent/JP4861250B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2008301281A (en) | 2008-12-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4310288B2 (en) | Image processing apparatus and method, program, and storage medium | |
US7106884B2 (en) | Digital watermark embedding apparatus for document, digital watermark extraction apparatus for document, and their control method | |
JP4555212B2 (en) | Watermark information embedding device, watermark information embedding method, and computer program | |
JP2009071626A (en) | Image processor, image processing method, image processing program, and recording medium | |
JP2006050551A (en) | Image processing apparatus, image processing method, program and storage medium | |
US8064636B2 (en) | Image processing apparatus and method of controlling the same | |
US7209572B2 (en) | Digital watermark embedding apparatus, digital watermark extraction apparatus, and methods thereof | |
US8059859B2 (en) | Image processing apparatus and method of controlling the same | |
JP3980983B2 (en) | Watermark information embedding method, watermark information detecting method, watermark information embedding device, and watermark information detecting device | |
JP4140519B2 (en) | Image processing apparatus, program, and recording medium | |
US7269274B2 (en) | Digital watermark embedding method, digital watermark extraction method, digital watermark embedding apparatus, and digital watermark extraction apparatus | |
JP5111242B2 (en) | Image processing apparatus and method | |
JP4861250B2 (en) | Image processing apparatus and control method thereof | |
JP2006237858A (en) | Image processing apparatus, image processing method, program for allowing computer to execute the method, and recording medium | |
JP4861251B2 (en) | Image processing apparatus and control method thereof | |
JP4146047B2 (en) | Image tilt detection method and document image processing apparatus | |
US7969618B2 (en) | Image forming apparatus, image forming system, computer readable recording medium, and image forming method | |
JP4789867B2 (en) | Image processing apparatus and control method thereof | |
JP2009010937A (en) | Picture processing apparatus, and controlling method thereof | |
JP4324058B2 (en) | Image processing apparatus and method | |
JP2008301284A (en) | Image processing apparatus and control method thereof | |
JP2008301283A (en) | Image processing apparatus and control method thereof | |
JP2007312049A (en) | Information embedding processing system, additional information embedding device, and additional information restoring device | |
JP2010103862A (en) | Document processing apparatus and method | |
JP4803242B2 (en) | Image processing apparatus and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100108 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100108 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110613 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110715 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110912 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111007 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111104 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141111 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |