JP2011216070A - Method for restoring hidden character and image processor - Google Patents

Method for restoring hidden character and image processor Download PDF

Info

Publication number
JP2011216070A
JP2011216070A JP2010241157A JP2010241157A JP2011216070A JP 2011216070 A JP2011216070 A JP 2011216070A JP 2010241157 A JP2010241157 A JP 2010241157A JP 2010241157 A JP2010241157 A JP 2010241157A JP 2011216070 A JP2011216070 A JP 2011216070A
Authority
JP
Japan
Prior art keywords
character
image block
line segment
target
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010241157A
Other languages
Japanese (ja)
Other versions
JP5561100B2 (en
Inventor
Ranran Jo
蘭蘭 常
Shun Son
俊 孫
Misako Suwa
美佐子 諏訪
Hiroaki Takebe
浩明 武部
Hao Yu
浩 于
Satoshi Naoi
聡 直井
Yoshinobu Hotta
悦伸 堀田
Yuan He
源 何
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JP2011216070A publication Critical patent/JP2011216070A/en
Application granted granted Critical
Publication of JP5561100B2 publication Critical patent/JP5561100B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a method for restoring hidden characters and an image processor which accurately restores hidden characters.SOLUTION: In the method for restoring hidden characters, the image processor calculates an image block size in accordance with widths of strokes of target characters including hidden characters to be restored, and marks an original area in a target area of an input image including the target characters. The image processor generates reference image blocks having pixels of the original area as centers respectively, and extracts a boundary of a foreground of the input image to be complemented. The image processor calculates, for each pixel on the boundary of the foreground, complementation priorities in accordance with complexities of image blocks having the pixels on the boundary as centers respectively, and uses the most similar image block among the reference image blocks to complement an image block wherein the pixel having the highest priority is taken as the center. If the foreground has not been completely complemented, the image processor extracts the boundary of the foreground in the input image to be complemented.

Description

本発明は、一般的に文字認識に関し、具体的には、隠蔽された文字の復元方法及び画像処理装置に関する。   The present invention generally relates to character recognition, and more particularly to a method for restoring a concealed character and an image processing apparatus.

従来、光学文字認識(OCR、Optical Character Recognition)システムは、例えば、撮像された対象物の文字を認識し、認識した文字を出力する。また、近年、デジタルカメラの普及及び機能の増加に伴い、OCRは、一層頻繁に使用されるようになっている。例えば、カメラは、携帯型「スキャナー」として、ハードコピー文書、書物、新聞、及びスローガン、ポスター及びその他の媒体等からテキストを撮像する。   2. Description of the Related Art Conventionally, an optical character recognition (OCR) system, for example, recognizes a character of an imaged object and outputs the recognized character. In recent years, with the spread of digital cameras and the increase in functions, OCR has been used more frequently. For example, the camera is a portable “scanner” that captures text from hardcopy documents, books, newspapers, slogans, posters, and other media.

このようなテキストの認識において、OCRシステムは、誤って文字を認識する場合がある。例えば、罫線とテキスト中の文字ストロークが接触・交差している場合に、誤認識を低減するOCRシステムに関する技術が開示されている。また、認識対象であるテキストに書き込みがされている場合に、テキスト中の文字と書き込み部分とを区別するOCRシステムに関する技術が開示されている。   In such text recognition, the OCR system may recognize characters by mistake. For example, a technique relating to an OCR system that reduces erroneous recognition when a ruled line and a character stroke in a text are in contact with or intersecting with each other is disclosed. In addition, a technique related to an OCR system that distinguishes between characters in a text and a writing portion when the text to be recognized is written is disclosed.

特開2002−366900号公報JP 2002-366900 A 特開2010−55353号公報JP 2010-55353 A 特開2010−55354号公報JP 2010-55354 A

しかしながら、上述した従来の技術では、隠蔽された文字を正確に復元することができないという課題があった。   However, the above-described conventional technique has a problem that the concealed character cannot be accurately restored.

一般的に、OCRシステムは、文書画像における可視的な透かし文字が、前景の内容に隠蔽されることで、可視的な透かし文字を認識し難しいことになる。図22は、前景に隠蔽された透かし文字の一例を示す図である。図22に示すように、透かし中の文字は、前景により遮られる。このため、OCRシステムは、正確に透かし中の文字を復元することができない。また、OCRシステムは、透かし中の文字を復元し、復元した文字を認識することになるので、透かし中の文字「関係者外秘」を直接には認識できない。   In general, the OCR system makes it difficult to recognize a visible watermark character by hiding the visible watermark character in the document image in the foreground content. FIG. 22 is a diagram illustrating an example of a watermark character concealed in the foreground. As shown in FIG. 22, the characters in the watermark are blocked by the foreground. For this reason, the OCR system cannot accurately restore characters in the watermark. Further, since the OCR system restores the characters in the watermark and recognizes the restored characters, it cannot directly recognize the characters “related party confidential” in the watermark.

さらに、デジタルカメラによってテキストを撮像する場合、テキストは、常に、光線の不均一、希望しない又は存在している隠蔽物、さらにカメラ内部の処理の影響によって、テキスト中の文字が遮られることになる。このような遮りは、OCRシステムによるテキスト中の文字の認識を困難にする。   In addition, when text is captured by a digital camera, the text will always be obstructed by characters in the text due to non-uniform light rays, unwanted or existing obstructions, and processing effects inside the camera. . Such blockage makes it difficult to recognize characters in the text by the OCR system.

開示の技術は、上記に鑑みてなされたものであって、隠蔽された文字を正確に復元することができる、隠蔽された文字の復元方法及び画像処理装置を提供することを目的とする。   The disclosed technology has been made in view of the above, and an object of the present invention is to provide a method for restoring a concealed character and an image processing apparatus capable of accurately restoring the concealed character.

第1の案では、隠蔽された文字の復元方法は、復元対象である隠蔽された文字を含む目標文字の筆画の幅に応じて画像ブロックサイズを算出するステップと、目標文字を含む入力画像の目標領域において元領域を標記するステップと、元領域における画素に対してそれぞれを中心とする各参考画像ブロックを生成するステップと、補完対象である入力画像の前景の境界を抽出するステップと、前景の境界における画素毎に、当該画素を中心とする画像ブロックの複雑度に応じて補完優先順位を算出するステップと、参考画像ブロックにおける最も類似している画像ブロックを使用して、最も高い優先順位を有する画素を中心とする画像ブロックを補完するステップと、前景の補完が全て完了していなければ、補完対象である入力画像における前景の境界の抽出処理を実行するステップとを含む。   In the first proposal, a method for restoring a concealed character includes a step of calculating an image block size according to a stroke width of a target character including a concealed character to be restored, and an input image including the target character. Marking the original area in the target area; generating each reference image block centered on each of the pixels in the original area; extracting the foreground boundary of the input image to be complemented; and foreground For each pixel at the boundary, the step of calculating the complement priority according to the complexity of the image block centered on the pixel, and the highest priority using the most similar image block in the reference image block If the image block centered on a pixel having a pixel and the foreground completion are not all completed, And performing a process of extracting the boundary of the scene.

好ましくは、画像ブロック内部の背景画素が占める割合を計測して算出した信頼係数と、画像ブロック内部の補完対象である目標文字画素が占める割合を計測して算出した信頼係数と、画像ブロック内部の異なる勾配ベクトルの数に基づいた複雑度とから補完優先順位を算出する。   Preferably, the reliability coefficient calculated by measuring the proportion occupied by the background pixels in the image block, the reliability coefficient calculated by measuring the proportion occupied by the target character pixel that is the complement target inside the image block, and the inside of the image block Complementary priority is calculated from the complexity based on the number of different gradient vectors.

具体的な一実施例において、画像ブロックサイズを目標文字の筆画の幅から算出する。   In a specific embodiment, the image block size is calculated from the stroke width of the target character.

第1の案の好ましい実施例の一つによれば、目標文字を含む入力画像の目標領域において元領域を標記するステップは、目標文字における画素及びその画像ブロックにおける全ての隣接する画素を含む第一のマスクを生成するステップと、前景画素及びその画像ブロックにおける全ての隣接する画素以外の目標領域全体を含む第二のマスクを生成するステップと、第一のマスクと第二のマスクの重複領域を元領域として抽出するステップとを含む。   According to one preferred embodiment of the first scheme, the step of marking the original region in the target region of the input image containing the target character includes the pixel in the target character and all adjacent pixels in the image block. Generating a first mask, generating a second mask including the entire target area except foreground pixels and all adjacent pixels in the image block, and overlapping areas of the first mask and the second mask Extracting as a source region.

第1の案の好ましい実施例の一つによる隠蔽された文字の復元方法は、入力画像を圧縮すること、及び/又は、参考画像ブロックを選別することを実行するステップを更に含む。   The hidden character restoration method according to one of the preferred embodiments of the first scheme further comprises the steps of compressing the input image and / or selecting the reference image block.

第2の案では、隠蔽された文字の復元方法は、目標文字の輪郭画素を抽出するステップと、抽出された輪郭画素に基づいて目標文字の線分を捕捉するステップと、捕捉された線分に基づいて、一つの筆画の対になる線分であると想定される平行線分を選択するステップと、選択された平行線分に基づいて共線線分を平行線ペアとして連結するステップと、目標文字のグレー値を使用して各平行線ペアのそれぞれにより限定された領域を補完するステップとを更に含む。   In the second proposal, the hidden character restoration method includes a step of extracting a contour pixel of a target character, a step of capturing a line segment of the target character based on the extracted contour pixel, and a captured line segment. Selecting a parallel line segment that is assumed to be a line segment to be paired with one stroke, and connecting collinear segments as a parallel line pair based on the selected parallel line segment, and And supplementing the region defined by each of the parallel line pairs using the gray value of the target character.

第2の案の別の好ましい実施例の一つによる隠蔽された文字の復元方法は、捕捉された線分に基づいて目標文字の筆画の幅を推定するステップと、目標文字の投影軸における文字幅と文字高さを推定するステップとを更に含む。ここで、Hough変換領域においては、選択された平行線分は下記の条件を満たす。
1)線分1(θ1、ρ1)、線分2(θ2、ρ2)と筆画の幅SWについては、θ1=θ2及びa*SW<|ρ1−ρ2|<b*SWを満足する(ここで、θは線分の回転角度を示し、ρは線分の零点までの距離を示し、a*SWとb*SWは閾値である)。
2)水平線分については、水平方向θに沿う投影線の間の距離は文字幅よりも小さい一方、垂直線分については、垂直方向(90−θ)に沿う投影線の間の距離は文字高さよりも小さい。
3)二本の線分の間における画素は背景ではなく筆画の内部に位置する。
及び、前記の共線線分は下記の条件を満たす。
1)線分1(θ1、ρ1)、線分2(θ2、ρ2)と筆画の幅SWについては、θ1=θ2及び|ρ1−ρ2|が閾値より小さいことを満足する。
2)水平線分については、水平方向θに沿う投影線の間の距離は文字幅よりも小さい一方、垂直線分については、垂直方向(90−θ)に沿う投影線の間の距離は文字高さよりも小さい。
3)二本の線分の間における画素は背景ではなく筆画の内部に位置することを満足する。
A method for restoring a concealed character according to another preferred embodiment of the second scheme includes the step of estimating a stroke width of a target character based on a captured line segment, and a character on a projection axis of the target character. Estimating the width and the character height. Here, in the Hough transform region, the selected parallel line segment satisfies the following condition.
1) For the line segment 1 (θ1, ρ1), the line segment 2 (θ2, ρ2) and the stroke width SW, θ1 = θ2 and a * SW <| ρ1-ρ2 | <b * SW are satisfied (here , Θ represents the rotation angle of the line segment, ρ represents the distance to the zero point of the line segment, and a * SW and b * SW are threshold values).
2) For the horizontal line segment, the distance between the projected lines along the horizontal direction θ is smaller than the character width, while for the vertical line segment, the distance between the projected lines along the vertical direction (90−θ) is the character height. Smaller than that.
3) Pixels between two line segments are located inside the stroke, not the background.
And the said collinear segment satisfy | fills the following conditions.
1) For line segment 1 (θ1, ρ1), line segment 2 (θ2, ρ2) and stroke width SW, θ1 = θ2 and | ρ1−ρ2 | are satisfied to be smaller than the threshold values.
2) For the horizontal line segment, the distance between the projected lines along the horizontal direction θ is smaller than the character width, while for the vertical line segment, the distance between the projected lines along the vertical direction (90−θ) is the character height. Smaller than that.
3) It is satisfied that the pixel between the two line segments is located inside the stroke, not the background.

第3の案では、隠蔽された文字の復元方法は、入力画像におけるテキスト領域を認識対象である目標文字、背景と前景に分割するステップと、上述の方法によってテキスト領域中の認識対象である隠蔽された文字を復元するステップと、及び復元された文字を認識するステップとを含む。   In the third proposal, a method for restoring a concealed character includes a step of dividing a text area in an input image into a target character that is a recognition target, a background and a foreground, and a concealment that is a recognition target in the text area by the method described above. Restoring the restored character and recognizing the restored character.

第3の案の好ましい実施例の一つによる隠蔽された文字の復元方法は、テキスト領域から認識対象である目標文字を含む目標領域を抽出するステップを更に含む。   The hidden character restoration method according to one of the preferred embodiments of the third proposal further includes a step of extracting a target area including a target character to be recognized from the text area.

第3の案の具体的な実施例の一つにおいて、テキスト領域から認識対象である目標文字を含む目標領域を抽出するステップは、目標文字の輪郭画素を抽出すること、水平方向θと垂直方向(90−θ)において輪郭画素に対してHough変換を実行するステップと(ここでθは目標文字の回転角度を示す)、水平方向θと垂直方向(90−θ)に沿ってHough変換中の最小と最大距離値ρh1、ρh2、ρv1とρv2を求めるステップと、四本の線(ρh1、90−θ)、(ρh2、90−θ)、(ρv1、θ)、(ρv2、θ)を使用して四つの角を算出するステップと、四つの角を覆う領域を目標領域として切り出すステップとを含む。 In one specific embodiment of the third plan, the step of extracting the target area including the target character to be recognized from the text area is performed by extracting a contour pixel of the target character, horizontal direction θ and vertical direction A step of performing Hough conversion on the contour pixel at (90-θ) (where θ indicates the rotation angle of the target character), and Hough conversion is being performed along the horizontal direction θ and the vertical direction (90-θ). Determining the minimum and maximum distance values ρ h1 , ρ h2 , ρ v1 and ρ v2 , four lines (ρ h1 , 90−θ), (ρ h2 , 90−θ), (ρ v1 , θ), It includes a step of calculating four corners using (ρ v2 , θ) and a step of cutting out a region covering the four corners as a target region.

第4の案では、画像処理装置は、復元対象である隠蔽された文字を含む目標文字の筆画の幅に基づいて画像ブロックサイズを算出する画像ブロックサイズ算出部と、目標文字を含む入力画像の目標領域において元領域を標記する元領域標記部とを有する。また、画像処理装置は、元領域における画素に対してそれぞれを中心とする各参考画像ブロックを生成する参考画像ブロック生成部と、補完対象である入力画像の前景の境界を抽出する境界抽出部とを有する。画像処理装置は、前景の境界における画素毎に、当該画素を中心とする画像ブロックの複雑度に応じて補完優先順位を算出する補完優先順位算出部を有する。また、画像処理装置は、参考画像ブロックにおける最も類似している画像ブロックを使用して、最も高い優先順位を有する画素を中心とする画像ブロックを補完する前景補完部を有する。そして、画像処理装置は、前景の補完が全て完了していない場合には、境界抽出部の処理を実行する判断部を有する。   In the fourth plan, the image processing apparatus includes: an image block size calculating unit that calculates an image block size based on a stroke width of a target character including a hidden character to be restored; and an input image including the target character. An original area marking portion for marking the original area in the target area. Further, the image processing apparatus includes a reference image block generation unit that generates each reference image block centered on each pixel in the original region, a boundary extraction unit that extracts a foreground boundary of the input image to be complemented, Have The image processing apparatus includes a complementary priority calculating unit that calculates a complementary priority for each pixel at the boundary of the foreground according to the complexity of the image block centered on the pixel. In addition, the image processing apparatus includes a foreground complementing unit that complements an image block centered on a pixel having the highest priority by using the most similar image block in the reference image block. The image processing apparatus includes a determination unit that executes the process of the boundary extraction unit when all of the foreground interpolation is not completed.

補完優先順位算出部は、画像ブロック内部の背景画素が占める割合を計測して算出した信頼係数と、画像ブロック内部の補完対象である目標文字画素が占める割合を計測して算出した信頼係数と、画像ブロック内部の異なる勾配ベクトルの数に基づいた複雑度とから補完優先順位を算出する。   The complementation priority calculating unit measures the reliability coefficient calculated by measuring the ratio of the background pixels in the image block, the reliability coefficient calculated by measuring the ratio of the target character pixel to be complemented in the image block, Complementary priority is calculated from the complexity based on the number of different gradient vectors inside the image block.

第4の案の実施例の一つによる画像処理装置において、画像ブロックサイズを目標文字の筆画の幅から算出する。   In the image processing apparatus according to one of the fourth proposed embodiments, the image block size is calculated from the stroke width of the target character.

第4の案による画像処理装置において、元領域標記部は、目標文字における画素及びその画像ブロックにおける全ての隣接する画素を含む第一のマスクを生成する。また、元領域標記部は、前景画素及びその画像ブロックにおける全ての隣接する画素以外の目標領域全体を含む第二のマスクを生成する。そして、元領域標記部は、第一のマスクと第二のマスクの重複領域を元領域として抽出する。   In the image processing apparatus according to the fourth plan, the original region marking unit generates a first mask including the pixel in the target character and all adjacent pixels in the image block. In addition, the original region marking unit generates a second mask that includes the entire target region other than the foreground pixels and all adjacent pixels in the image block. Then, the original area marking part extracts an overlapping area between the first mask and the second mask as an original area.

第4の案の好ましい実施例の一つによる画像処理装置は、入力画像を圧縮し、参考画像ブロックを選別する。   An image processing apparatus according to one of the preferred embodiments of the fourth proposal compresses an input image and selects a reference image block.

第5の案では、画像処理装置は、目標文字の輪郭画素を抽出する輪郭画素抽出部と、抽出された輪郭画素に基づいて目標文字の線分を捕捉する線分捕捉部とを有する。また、画像処理装置は、捕捉された線分に基づいて、一つの筆画の対になる線分であると想定される平行線分を選択する平行線分選択部と、選択された平行線分に基づいて共線線分を平行線ペアとして連結する共線線分連結部とを有する。そして、画像処理装置は、目標文字のグレー値を使用して各平行線ペアのそれぞれにより限定された領域を補完する領域補完部を有する。   In the fifth plan, the image processing apparatus includes a contour pixel extracting unit that extracts a contour pixel of a target character, and a line segment capturing unit that captures a line segment of the target character based on the extracted contour pixel. Further, the image processing apparatus includes a parallel line selection unit that selects a parallel line segment that is assumed to be a line segment that forms a pair of strokes based on the captured line segment, and the selected parallel line segment. And a collinear line connecting part for connecting the collinear line segments as parallel line pairs. The image processing apparatus includes a region complementing unit that supplements a region limited by each parallel line pair using the gray value of the target character.

第5の案の実施例の一つによる画像処理装置は、捕捉された線分に基づいて目標文字の筆画の幅を推定する筆画幅推定部と、目標文字の投影軸における文字幅と文字高さを推定するサイズ範囲推定部とを更に含む。ここで、Hough変換領域においては、前記の選択された平行線分は下記の条件を満たす。
1)線分1(θ1、ρ1)、線分2(θ2、ρ2)と筆画の幅SWについては、θ1=θ2及びa*SW<|ρ1−ρ2|<b*SWを満足すること(ここで、θは線分の回転角度を示し、ρは線分の零点までの距離を示し、a*SWとb*SWは閾値である)。
2)水平線分については、水平方向θに沿う投影線の間の距離は文字幅よりも小さい、一方、垂直線分については、垂直方向(90−θ)に沿う投影線の間の距離は文字高さよりも小さい。
3)二本の線分の間における画素は背景ではなく筆画の内部に位置することを満足する。
及び、前記の共線線分は下記の条件を満たす。
1)線分1(θ1、ρ1)、線分2(θ2、ρ2)と筆画の幅SWについては、θ1=θ2及び|ρ1−ρ2|が閾値より小さいことを満足する。
2)水平線分については、水平方向θに沿う投影線の間の距離は文字幅よりも小さい、かつ、垂直線分については、垂直方向(90−θ)に沿う投影線の間の距離は文字高さよりも小さい。
3)二本の線分の間における画素は背景ではなく筆画の内部に位置することを満足する。
An image processing apparatus according to one of the embodiments of the fifth plan includes a stroke width estimation unit that estimates a stroke width of a target character based on a captured line segment, and a character width and a character height on a projection axis of the target character. And a size range estimation unit for estimating the size. Here, in the Hough transform region, the selected parallel line segment satisfies the following condition.
1) As for line segment 1 (θ1, ρ1), line segment 2 (θ2, ρ2) and stroke width SW, θ1 = θ2 and a * SW <| ρ1-ρ2 | <b * SW must be satisfied (here Where θ represents the rotation angle of the line segment, ρ represents the distance to the zero point of the line segment, and a * SW and b * SW are threshold values).
2) For the horizontal line segment, the distance between the projected lines along the horizontal direction θ is smaller than the character width, while for the vertical line segment, the distance between the projected lines along the vertical direction (90−θ) is the character. Smaller than height.
3) It is satisfied that the pixel between the two line segments is located inside the stroke, not the background.
And the said collinear segment satisfy | fills the following conditions.
1) For line segment 1 (θ1, ρ1), line segment 2 (θ2, ρ2) and stroke width SW, it is satisfied that θ1 = θ2 and | ρ1−ρ2 | are smaller than the threshold values.
2) For the horizontal line segment, the distance between the projected lines along the horizontal direction θ is smaller than the character width, and for the vertical line segment, the distance between the projected lines along the vertical direction (90−θ) is the character. Smaller than height.
3) It is satisfied that the pixel between the two line segments is located inside the stroke, not the background.

第6の案では、画像処理装置は、入力画像におけるテキスト領域を認識対象である目標文字、背景と前景に分割する分割部、上述のような隠蔽された文字の復元装置、及び復元された文字を認識する文字認識部とを有する。   In a sixth plan, the image processing apparatus includes a target character that is a recognition target in a text area in an input image, a dividing unit that divides the text region into a background and a foreground, a hidden character restoration device as described above, and a restored character. And a character recognition unit for recognizing.

第6の案の実施例の一つによる画像処理装置は、テキスト領域から認識対象である目標文字を含む目標領域を抽出する目標領域抽出部を更に含む。   The image processing apparatus according to one of the embodiments of the sixth plan further includes a target area extracting unit that extracts a target area including a target character to be recognized from the text area.

第6の案の具体的な実施例の一つにおいて、目標領域抽出部は、目標文字の輪郭画素を抽出し、水平方向θと垂直方向(90−θ)において輪郭画素に対してHough変換を実行し、ここで、θは目標文字の回転角度を示し、水平方向θと垂直方向(90−θ)に沿ってHough変換中の最小と最大距離値ρh1、ρh2、ρv1とρv2を求め、四本の線(ρh1、90−θ)、(ρh2、90−θ)、(ρv1、θ)、(ρv2、θ)を使用して四つの角を算出し、更に四つの角を覆う領域を目標領域として切り出す。 In one specific example of the sixth plan, the target area extraction unit extracts the contour pixel of the target character, and performs Hough transform on the contour pixel in the horizontal direction θ and the vertical direction (90−θ). Where θ represents the rotation angle of the target character and the minimum and maximum distance values ρ h1 , ρ h2 , ρ v1 and ρ v2 during Hough transform along the horizontal direction θ and the vertical direction (90-θ). And calculate four angles using four lines (ρ h1 , 90−θ), (ρ h2 , 90−θ), (ρ v1 , θ), (ρ v2 , θ), and A region covering the four corners is cut out as a target region.

また、第7の案では、記憶媒体は、機器で読取可能なプログラムコードを含み、情報処理装置においてプログラムコードが実行されると、プログラムコードが情報処理装置に隠蔽された文字の復元方法を実行させる。   Further, in the seventh plan, the storage medium includes a program code that can be read by the device, and when the program code is executed in the information processing apparatus, a method for restoring characters in which the program code is hidden in the information processing apparatus is executed. Let

また、第8の案では、プログラム製品は、機器で実行可能な命令を含み、情報処理装置において命令が実行されると、命令が情報処理装置に隠蔽された文字の復元方法を実行させる。   In the eighth plan, the program product includes an instruction that can be executed by the device. When the instruction is executed in the information processing apparatus, the instruction is executed by the information processing apparatus.

本願の開示する隠蔽された文字の復元方法及び画像処理装置の一つの態様によれば、隠蔽された文字を正確に復元することができるという効果を奏する。   According to one aspect of the concealed character restoration method and the image processing apparatus disclosed in the present application, there is an effect that the concealed character can be accurately restored.

図1は、実施例1に係る隠蔽された文字の復元方法の処理の処理手順を示すフローチャートである。FIG. 1 is a flowchart of a process procedure of a hidden character restoration method according to the first embodiment. 図2Aは、最初に入力した隠蔽付の画像の一例を示す図である。FIG. 2A is a diagram illustrating an example of a concealed image input first. 図2Bは、7×7サイズの画像ブロックが選択された場合の復元結果を示す図である。FIG. 2B is a diagram illustrating a restoration result when a 7 × 7 size image block is selected. 図2Cは、17×17サイズの画像ブロックが選択された場合の復元結果を示す図である。FIG. 2C is a diagram illustrating a restoration result when a 17 × 17 size image block is selected. 図3は、標記された元領域の一例を示す図である。FIG. 3 is a diagram illustrating an example of the marked original area. 図4Aは、複雑度が最も低い画像ブロックの一例を示す図である。FIG. 4A is a diagram illustrating an example of an image block having the lowest complexity. 図4Bは、複雑度が低い画像ブロックの一例を示す図である。FIG. 4B is a diagram illustrating an example of an image block with low complexity. 図4Cは、複雑度が高い画像ブロックの一例を示す図である。FIG. 4C is a diagram illustrating an example of an image block with high complexity. 図4Dは、複雑度が最も高い画像ブロックの一例を示す図である。FIG. 4D is a diagram illustrating an example of an image block having the highest complexity. 図5は、実施例2に係る隠蔽された文字の復元方法の処理の処理手順を示すフローチャートである。FIG. 5 is a flowchart of a process procedure of the hidden character restoration method according to the second embodiment. 図6は、復元対象である隠蔽された文字の一例を示す図である。FIG. 6 is a diagram illustrating an example of a hidden character to be restored. 図7は、図6における目標文字の輪郭画素を抽出した一例を示す図である。FIG. 7 is a diagram illustrating an example in which the outline pixel of the target character in FIG. 6 is extracted. 図8は、図7における目標文字の輪郭画素に対して捕捉した文字線分の一例を示す図である。FIG. 8 is a diagram showing an example of a character line segment captured with respect to the contour pixel of the target character in FIG. 図9は、実施例2において目標文字サイズを推定する一例を示す図である。FIG. 9 is a diagram illustrating an example of estimating the target character size in the second embodiment. 図10は、実施例2において二本の線分の間における画素の帰属を判定する一例を示す図である。FIG. 10 is a diagram illustrating an example of determining pixel attribution between two line segments in the second embodiment. 図11は、図8に示した捕捉した文字線分から選択された平行線分の一例を示す図である。FIG. 11 is a diagram showing an example of parallel line segments selected from the captured character line segments shown in FIG. 図12は、図11に示した平行線分に対して共線線分の連結処理を実行した結果の一例を示す図である。FIG. 12 is a diagram illustrating an example of a result of executing the collinear line connecting process on the parallel line segments illustrated in FIG. 11. 図13は、実施例2において目標文字の平行線分の間の領域を補完する一例を示す図である。FIG. 13 is a diagram illustrating an example of complementing a region between parallel line segments of a target character in the second embodiment. 図14Aは、補完前の目標文字の一例を模式的に示す図である。FIG. 14A is a diagram schematically illustrating an example of a target character before completion. 図14Bは、補完後の目標文字の一例を模式的に示す図である。FIG. 14B is a diagram schematically illustrating an example of the target character after completion. 図15は、実施例3に係る隠蔽された文字の復元方法の処理の処理手順を示すフローチャートである。FIG. 15 is a flowchart of the process procedure of the hidden character restoration method according to the third embodiment. 図16Aは、実施例3における認識対象である隠蔽された文字を含む入力画像の一例を示す図である。FIG. 16A is a diagram illustrating an example of an input image including a concealed character that is a recognition target in the third embodiment. 図16Bは、図16Aに示す入力画像に対して、画像テキスト領域分割ステップを実行した結果の一例を示す図である。FIG. 16B is a diagram illustrating an example of a result obtained by performing an image text region dividing step on the input image illustrated in FIG. 16A. 図16Cは、図16Bに示す画像テキスト領域に対して目標領域を抽出する処理を実行した結果の一例を示す図である。FIG. 16C is a diagram illustrating an example of a result of executing a process of extracting a target area with respect to the image text area illustrated in FIG. 16B. 図16Dは、図16Cに示す目標領域に対して隠蔽された文字を復元する処理を実行した結果の一例を示す図である。FIG. 16D is a diagram illustrating an example of a result of executing the process of restoring the concealed character with respect to the target area illustrated in FIG. 16C. 図16Eは、図16Dに示す復元後の隠蔽された文字を認識する処理を実行した結果の一例を示す図である。FIG. 16E is a diagram illustrating an example of a result of executing the process of recognizing a hidden character after restoration illustrated in FIG. 16D. 図17は、実施例3における目標文字の抽出方法の一例を模式的に示した図である。FIG. 17 is a diagram schematically illustrating an example of a target character extraction method according to the third embodiment. 図18は、実施例4に係る画像処理装置の構成を示すブロック図である。FIG. 18 is a block diagram illustrating the configuration of the image processing apparatus according to the fourth embodiment. 図19は、実施例5に係る画像処理装置の構成を示すブロック図である。FIG. 19 is a block diagram illustrating the configuration of the image processing apparatus according to the fifth embodiment. 図20は、実施例6に画像処理装置の構成を示すブロック図である。FIG. 20 is a block diagram illustrating the configuration of the image processing apparatus according to the sixth embodiment. 図21は、開示技術による隠蔽された文字の復元方法を実行する情報処理装置の構成を示すブロック図である。FIG. 21 is a block diagram illustrating a configuration of an information processing apparatus that executes a method for restoring a concealed character according to the disclosed technology. 図22は、前景に隠蔽された透かし文字の一例を示す図である。FIG. 22 is a diagram illustrating an example of a watermark character concealed in the foreground.

以下に図面と合わせて開示技術の実施例を説明する。説明を簡潔で明確にするために、実際の実施形態の全ての特徴を明細書に記載していないが、いかなる実施例を実用化する場合にも、開発者は、具体的な目的を達成できるように、実施形態に応じて多くの決定を行うことになる。例えば、システム及び業務に関連する制約条件に適合させてもよく、また、これらの制約条件を実施形態によって変更してもよい。これら以外にも、開発作業は非常に複雑で時間を必要とするが、この開示技術からアイデアを得る当業者にとって、これらの作業は実用化に伴う義務に過ぎない。   Hereinafter, embodiments of the disclosed technology will be described with reference to the drawings. For the sake of brevity and clarity, not all features of the actual embodiment are described in the specification, but the developer can achieve specific objectives in any practical application. As such, many decisions will be made depending on the embodiment. For example, it may be adapted to constraints related to the system and business, and these constraints may be changed according to the embodiment. In addition to these, the development work is very complicated and time-consuming, but for those skilled in the art who have an idea from the disclosed technology, these work are merely duties associated with practical use.

ここで、開示技術が不明確になるのを避けるために、図面には開示技術と直接関係する装置の構造及び/又は処理のステップのみを示し、開示技術と直接関係しない他のものを省略した。また、開示技術の一つの図面又は一種の実施形態に記載された要素及び特徴は、その他の一つ又は複数の図面あるいは実施形態に示された要素及び特徴と組み合わせてもよい。   Here, in order to avoid obscuring the disclosed technology, only the structure of the apparatus and / or processing steps directly related to the disclosed technology are shown in the drawings, and others not directly related to the disclosed technology are omitted. . In addition, elements and features described in one drawing or one embodiment of the disclosed technology may be combined with elements and features shown in one or more other drawings or embodiments.

以下の図面に基づく開示技術の実施例についての説明を参照すると、開示技術の目的、特徴と利点がより理解し易くなる。図面における要素及び特徴は、開示技術の仕組みを示すために過ぎない。図面には、同一又は類似の技術的特徴又は要素には、同一または類似の符号を付している。   Referring to the following description of embodiments of the disclosed technology based on the drawings, the objects, features, and advantages of the disclosed technology can be more easily understood. Elements and features in the drawings are only intended to illustrate the mechanism of the disclosed technology. In the drawings, the same or similar technical features or elements are denoted by the same or similar reference numerals.

以下に、図面に基づいて、開示技術による隠蔽された文字の復元方法について詳しく説明する。例えば、画像処理装置は、図22に示した透かしを分離、復元して、認識する。   Hereinafter, a hidden character restoration method according to the disclosed technology will be described in detail based on the drawings. For example, the image processing apparatus recognizes the watermark shown in FIG. 22 by separating and restoring it.

図1は、実施例1に係る隠蔽された文字の復元方法の処理の処理手順を示すフローチャートである。図1に示したように、実施例1に係る隠蔽された文字の復元方法において、画像処理装置は、入力画像圧縮ステップS210、画像ブロックサイズ算出ステップS220、元領域標記ステップS230、参考画像ブロック生成ステップS240を実行する。続いて、画像処理装置は、参考画像ブロック選別ステップS250、境界抽出ステップS260、補完優先順位算出ステップS270、前景補完ステップS280、及び判定ステップS290を実行する。   FIG. 1 is a flowchart of a process procedure of a hidden character restoration method according to the first embodiment. As shown in FIG. 1, in the method for restoring a concealed character according to the first embodiment, the image processing apparatus performs an input image compression step S210, an image block size calculation step S220, an original region marking step S230, and a reference image block generation. Step S240 is executed. Subsequently, the image processing apparatus executes a reference image block selection step S250, a boundary extraction step S260, a complementation priority calculation step S270, a foreground complementation step S280, and a determination step S290.

画像処理装置は、処理の速度を上げるため、ステップS210で入力画像を圧縮する。入力画像の圧縮方法は、圧縮後の画像のサイズが適切であり、かつ筆画の幅が十分であれば、当分野における任意の公知の技術を利用してもよい。なお、この入力画像圧縮ステップS210は省略可能なステップである。すなわち、画像処理装置は、入力画像を圧縮せずに画像ブロックサイズ算出ステップS220から処理を開始してもよい。   In order to increase the processing speed, the image processing apparatus compresses the input image in step S210. As a method for compressing an input image, any known technique in the art may be used as long as the size of the image after compression is appropriate and the stroke width is sufficient. This input image compression step S210 is an optional step. That is, the image processing apparatus may start processing from the image block size calculating step S220 without compressing the input image.

画像処理装置は、画像ブロックサイズ算出ステップS220において、復元対象である隠蔽された文字(すなわち認識対象である隠蔽された文字である)を含む目標文字の筆画の幅に応じて画像ブロックサイズを算出する。実験によると、画像ブロックサイズによって、最後の復元結果への影響が異なることを判明している。図2A〜図2Cは、画像ブロックサイズによる隠蔽された文字の復元品質への影響の例を示している。図2Aは、最初に入力した隠蔽付の画像の一例を示す図であり、図2Bは、7×7サイズの画像ブロックが選択された場合の復元結果を示す図であり、図2Cは17×17サイズの画像ブロックが選択された場合の復元結果を示す図である。これらは、同じ寸法サイズのテキスト画像に対して異なる画像ブロックサイズを選択した場合、画像処理装置による復元効果が異なることを示す。   In the image block size calculation step S220, the image processing apparatus calculates the image block size according to the stroke width of the target character including the concealed character to be restored (that is, the concealed character to be recognized). To do. Experiments have shown that the effect on the final restoration result differs depending on the image block size. 2A to 2C show examples of the influence on the restoration quality of concealed characters due to the image block size. FIG. 2A is a diagram illustrating an example of a concealed image that is input first, FIG. 2B is a diagram illustrating a restoration result when a 7 × 7 size image block is selected, and FIG. 2C is a diagram illustrating 17 × It is a figure which shows the decompression | restoration result when a 17 size image block is selected. These indicate that when different image block sizes are selected for text images having the same size, the restoration effect of the image processing apparatus is different.

好ましくは、開示技術の具体的な一例によれば、画像ブロックサイズSを式(5)により算出する。   Preferably, according to a specific example of the disclosed technique, the image block size S is calculated by Expression (5).

Figure 2011216070
Figure 2011216070

ここで、SWは、目標文字の筆画の幅を示す。画像処理装置は、実施例1により算出した画像ブロックサイズを選択した場合、隠蔽された文字を正確に復元する。   Here, SW indicates the width of the stroke of the target character. When the image block size calculated according to the first embodiment is selected, the image processing apparatus accurately restores the concealed characters.

画像ブロックサイズを算出した後、画像処理装置は、元領域標記ステップS230において、目標文字を含む入力画像の目標領域において元領域を標記する。具体的には、実施例1によれば、画像処理装置は、まず目標文字における画素及び該画素の画像ブロックにおける全ての隣接する画素を含む第一のマスクを生成する。次に、画像処理装置は、前景画素及び該前景画素の画像ブロックにおける全ての隣接する画素以外の目標領域全体を含む第二のマスクを生成する。そして、画像処理装置は、第一のマスクと第二のマスクの重複領域を元領域として抽出する。例えば、画像処理装置は、元領域標記ステップS230において、図3に示すように元領域を標記する。なお、図3は、標記された元領域の一例を示す図である。   After calculating the image block size, the image processing apparatus marks the original area in the target area of the input image including the target character in the original area marking step S230. Specifically, according to the first embodiment, the image processing apparatus first generates a first mask including the pixel in the target character and all adjacent pixels in the image block of the pixel. Next, the image processing apparatus generates a second mask that includes the entire target area other than the foreground pixels and all adjacent pixels in the image block of the foreground pixels. Then, the image processing apparatus extracts an overlapping area between the first mask and the second mask as an original area. For example, in the original area marking step S230, the image processing apparatus marks the original area as shown in FIG. FIG. 3 is a diagram illustrating an example of the marked original area.

次に、画像処理装置は、参考画像ブロック生成ステップS240において、ステップS230で標記された元領域における画素に対して参考画像ブロックを生成する。ここで、画像処理装置は、元領域における画素のそれぞれを一つの参考画像ブロックの中心とする。言い換えると、画像処理装置は、元領域における画素に対してそれぞれを中心とする各参考画像ブロックを生成する。画像処理装置は、参考画像ブロックの画像ブロックサイズとして、ステップS220で算出した画像ブロックサイズの大きさを選択する。   Next, in the reference image block generation step S240, the image processing apparatus generates a reference image block for the pixels in the original area marked in step S230. Here, the image processing apparatus sets each pixel in the original region as the center of one reference image block. In other words, the image processing device generates each reference image block centered on each of the pixels in the original region. The image processing apparatus selects the size of the image block size calculated in step S220 as the image block size of the reference image block.

生成された参考画像ブロックの数が多く、かつ類似する画像ブロックが多い場合、画像処理装置は、参考画像ブロック選別ステップS250において、ステップS240で生成した参考画像ブロックを選別する。そして、画像処理装置は、類似度の高い参考画像ブロックを一つの参考画像ブロックに合併する。これにより、画像処理装置は、記憶スペースを節約し、かつ後述の前景補完時の探索速度を向上する。なお、画像処理装置は、参考画像ブロック選別ステップS250を実行せずに、境界抽出ステップS260を実行しても良い。   If the number of generated reference image blocks is large and there are many similar image blocks, the image processing apparatus selects the reference image blocks generated in step S240 in the reference image block selection step S250. Then, the image processing apparatus merges the reference image blocks having a high degree of similarity into one reference image block. As a result, the image processing apparatus saves storage space and improves the search speed at the time of foreground interpolation described later. Note that the image processing apparatus may execute the boundary extraction step S260 without executing the reference image block selection step S250.

次に、画像処理装置は、境界抽出ステップS260において、補完対象である入力画像の前景の境界を抽出する。続いて、画像処理装置は、補完優先順位算出ステップS270において、前景の境界における画素毎に、該画素を中心とする画像ブロックの複雑度に応じて補完優先順位を算出する。   Next, in the boundary extraction step S260, the image processing apparatus extracts the foreground boundary of the input image to be complemented. Subsequently, in the complementation priority calculation step S270, the image processing apparatus calculates the complementation priority for each pixel at the foreground boundary according to the complexity of the image block centered on the pixel.

次に、画像処理装置は、前景補完ステップS280において、参考画像ブロックにおける最も類似している画像ブロックを使用して、最も高い優先順位を有する画素を中心とする画像ブロックを補完する。言い換えると、画像処置装置は、最高の優先順位を有する画素に対して、参考画像ブロックから最も類似する画像ブロックを探索する。そして、画像処理装置は、探索された画像ブロックを当該最高の優先順位を有する画素を中心とする画像ブロックに複製して、補完後の前景の境界を更新する。画像処理装置は、参考画像ブロックを探索する場合に、任意の公知の技術、例えばユークリッド距離等により、補完対象である画像ブロックと最も類似した参考画像ブロックを探索する。   Next, in the foreground interpolation step S280, the image processing apparatus uses the most similar image block in the reference image block to complement the image block centered on the pixel having the highest priority. In other words, the image processing device searches for the most similar image block from the reference image block for the pixel having the highest priority. Then, the image processing apparatus copies the searched image block to an image block centered on the pixel having the highest priority, and updates the foreground boundary after complementation. When searching for a reference image block, the image processing apparatus searches for a reference image block most similar to the image block to be complemented by any known technique, for example, the Euclidean distance.

その後、画像処理装置は、判定ステップS290において、前景の補完が全て完了していない場合には、補完対象である入力画像における前景の境界の抽出処理を実行する。言い換えると、画像処理装置は、前景全体の補完が完了したか否かを判定し、補完していない前景の境界がまだ存在していると判定した場合には、境界抽出ステップS260に戻って、以降の処理を順次に実行する。   After that, in the determination step S290, when all foreground interpolation has not been completed, the image processing apparatus executes foreground boundary extraction processing in the input image to be complemented. In other words, the image processing apparatus determines whether or not the completion of the entire foreground has been completed, and if it is determined that there is still a foreground boundary that has not been completed, the process returns to the boundary extraction step S260, The subsequent processing is executed sequentially.

一方、画像処理装置は、判定ステップS290において、前景全体の補完が完了したと判定した場合には、処理を終了する。   On the other hand, if the image processing apparatus determines that the completion of the entire foreground has been completed in determination step S290, the image processing apparatus ends the process.

実施例1によれば、画像処理装置は、主に画像ブロックの構成の複雑度に基づいて補完の順序を特定する。これは、補完時の再構成誤差は、前に補完された領域から、次の補完対象である領域まで影響するからである。したがって、画像処理装置は、再構成誤差が生じる可能性が低い画像ブロックを先に再構成してから、複雑度の順で、再構成する必要がある画像ブロックを補完する。これによって、画像処理装置は、最後に再構成された文字の誤差を最小にする。そして、複雑な構成を有する画像ブロックより、簡単な構成を有する画像ブロックは、参考画像ブロックから正確な類似参考画像ブロックを容易に探索することができる。図4A〜図4Dはそれぞれ異なる複雑度を持つ画像ブロックを示している。これにより、図4Aから図4Dまで画像ブロックの複雑度は次第に増加し、簡単な画像ブロックであるほど基本の筆画の要素に近づく。一方、複雑な構成を有する画像ブロックの内部に、一致の特徴を具体化する。   According to the first embodiment, the image processing apparatus specifies the order of complementation mainly based on the complexity of the configuration of the image block. This is because the reconstruction error at the time of complementation affects from the previously complemented region to the next region to be complemented. Therefore, the image processing apparatus first reconstructs image blocks that are unlikely to cause reconstruction errors, and then complements the image blocks that need to be reconstructed in the order of complexity. Thereby, the image processing apparatus minimizes the error of the last reconstructed character. An image block having a simpler configuration than an image block having a complicated configuration can easily search for an accurate similar reference image block from the reference image block. 4A to 4D show image blocks having different complexity levels. As a result, the complexity of the image block gradually increases from FIG. 4A to FIG. 4D, and the simpler the image block, the closer to the basic stroke elements. On the other hand, the matching feature is embodied in an image block having a complicated configuration.

前述のように、簡単な構成を有する画像ブロックを再構成することは、通常、小さい誤差を導入する。したがって、開示技術による具体的な例において、構成の複雑度を計測する因数を使用して補完優先順位に反映する。ここで、画像ブロックの異なるエッジ方向の種類により複雑度C(p)を定義する。   As mentioned above, reconstructing an image block with a simple configuration usually introduces small errors. Therefore, in a specific example according to the disclosed technology, a factor for measuring the complexity of the configuration is used to reflect the result in the complement priority. Here, the complexity C (p) is defined by the types of different edge directions of the image block.

また、下記の式(4)で示すように、画像ブロック内部の異なる勾配ベクトルの数Ngvに基づいて複雑度C(p)を算出する。計算の複雑度を低減するため、実施例1には、下記の式(1)で示した簡単な算式を適用して補完優先順位P(p)を算出する。式(1)中の項R(p)とW(p)は信頼係数を構成し、かつ下記の式(2)と式(3)によりそれぞれ算出される。ここで、信頼係数R(p)は、画像ブロック内部の背景画素が占める割合を計測することで算出される。また、W(p)は、画像ブロック内部の補完対象である目標文字画素が占める割合を計測することで算出される。そして、その内部に補完対象である目標文字画素が存在していない画像ブロックの信頼係数を0とすることにより、再構成の結果に影響せず処理速度を向上することができる。 Also, as shown in the following equation (4), the complexity C (p) is calculated based on the number N gv of different gradient vectors inside the image block. In order to reduce the computational complexity, the complementary priority P (p) is calculated by applying the simple formula shown in the following formula (1) to the first embodiment. The terms R (p) and W (p) in the equation (1) constitute a reliability coefficient and are calculated by the following equations (2) and (3), respectively. Here, the reliability coefficient R (p) is calculated by measuring the ratio of the background pixels in the image block. Further, W (p) is calculated by measuring the ratio of the target character pixel that is the complement target within the image block. Then, by setting the reliability coefficient of the image block in which the target character pixel to be complemented does not exist to 0 inside, the processing speed can be improved without affecting the result of the reconstruction.

Figure 2011216070
Figure 2011216070

ここで、前記の式(1)で示した補完優先順位の算出式は、一例に過ぎず、実用化に際しては、状況によって異なる重み係数を使用して複雑度Cに重み付けすることができるので、状況に適した効果を得られる。 Here, calculation expression of the complementary priority indicated by the above formula (1) is only one example, in practical use, it is possible to weight the complexity C p use different weighting factors depending on the situation The effect suitable for the situation can be obtained.

実施例1における隠蔽された文字の復元方法によれば、画像ブロックの構成の複雑度に応じて補完順序を特定することにより、不正確な補完順序による顕著な再構成誤差を避けることができる。また、実施例1における隠蔽された文字の復元方法によれば、更に、復元対象である隠蔽された文字の筆画の幅に基づいて画像ブロックサイズの大きさを特定する。したがって、異なる字体に対して、最適なサイズのマッチング画像ブロックを使用して補完を行うことにより、最適な再構成結果を取得することができる。   According to the hidden character restoration method in the first embodiment, by specifying the complement order according to the complexity of the configuration of the image block, it is possible to avoid a remarkable reconstruction error due to an inaccurate complement order. Further, according to the method for restoring a concealed character in the first embodiment, the size of the image block size is further specified based on the stroke width of the concealed character to be restored. Therefore, an optimal reconstruction result can be acquired by performing complementation for different fonts using a matching image block of an optimal size.

なお、実施例1による隠蔽された文字の復元方法において、画像処理装置は、入力画像圧縮ステップS210と参考画像ブロック選別ステップS250とを実行しなくてもよく、システム性能と状況に応じて、何れかのステップを選択的に実行するようにしてもよい。   In the hidden character restoration method according to the first embodiment, the image processing apparatus does not need to execute the input image compression step S210 and the reference image block selection step S250, depending on the system performance and the situation. These steps may be selectively executed.

次に図5〜図14に基づいて実施例2による隠蔽された文字の復元方法の処理を説明する。図5は、実施例2に係る隠蔽された文字の復元方法の処理の処理手順を示すフローチャートであり、図6は、復元対象である隠蔽された文字の一例を示す図である。   Next, processing of the hidden character restoration method according to the second embodiment will be described with reference to FIGS. FIG. 5 is a flowchart illustrating a processing procedure of a hidden character restoration method according to the second embodiment, and FIG. 6 is a diagram illustrating an example of a hidden character to be restored.

ここで、図6に示した復元対象である隠蔽された文字を一例として、図5に示した隠蔽された文字の処理の処理手順を詳しく説明する。   Here, the processing procedure of the concealed character processing shown in FIG. 5 will be described in detail by taking the concealed character to be restored shown in FIG. 6 as an example.

図5に示したように、実施例2に係る隠蔽された文字の復元方法において、画像処理装置は、文字輪郭画素抽出ステップS610、文字線分捕捉ステップS620、文字筆画幅推定ステップS630、文字大きさ範囲推定ステップS640を実行する。続いて、画像処理装置は、平行線分選択ステップS650、共線線分連結ステップS660及び領域補完ステップS670を実行する。   As shown in FIG. 5, in the concealed character restoration method according to the second embodiment, the image processing apparatus performs a character outline pixel extraction step S610, a character line segment capturing step S620, a character stroke width estimation step S630, a character size. The range estimation step S640 is executed. Subsequently, the image processing apparatus executes a parallel line segment selecting step S650, a collinear line connecting step S660, and a region complementing step S670.

文字輪郭画素抽出ステップS610において、画像処理装置は、目標文字の輪郭画素を抽出する。図7は、図6における目標文字の輪郭画素を抽出した一例を示す図である。   In character outline pixel extraction step S610, the image processing apparatus extracts outline pixels of the target character. FIG. 7 is a diagram illustrating an example in which the outline pixel of the target character in FIG. 6 is extracted.

次に、文字線分捕捉ステップS620において、画像処理装置は、抽出された輪郭画素に基づいて目標文字の線分を捕捉する。例えば、画像処理装置は、Hough変換の結果に応じて、抽出された輪郭画素により、目標文字の水平方向θと垂直方向(90−θ)における線分を捕捉する。また、画像処理装置は、文字筆画幅推定ステップS630において、捕捉された線分に基づいて目標文字の筆画の幅を推定する。言い換えると、画像処理装置は、二本の隣接する線分の間の最近距離の平均値を使用して目標文字の筆画の幅を粗略に推定する。図8は、図7における目標文字の輪郭画素に対して捕捉した文字線分の一例を示す図である。なお、図中の四角枠内の部分が復元対象である部分であり、すなわち、興味のある線分である。   Next, in the character line segment capturing step S620, the image processing apparatus captures the line segment of the target character based on the extracted contour pixels. For example, the image processing apparatus captures a line segment in the horizontal direction θ and the vertical direction (90−θ) of the target character by using the extracted outline pixel according to the result of the Hough conversion. The image processing apparatus estimates the stroke width of the target character based on the captured line segment in the character stroke width estimation step S630. In other words, the image processing apparatus roughly estimates the stroke width of the target character using the average value of the nearest distances between two adjacent line segments. FIG. 8 is a diagram showing an example of a character line segment captured with respect to the contour pixel of the target character in FIG. In addition, the part in the square frame in a figure is a part which is a decompression | restoration object, ie, an interesting line segment.

次に、文字大きさ範囲推定ステップS640において、画像処理装置は、目標文字のサイズの範囲を推定する。すなわち、画像処理装置は、目標文字の投影軸における文字幅と文字高さを推定する。図9は、実施例2において目標文字サイズを推定する一例を示す図である。なお、図中に示した「w」は文字の水平軸に投影された文字幅であり、「h」は文字の垂直軸に投影された文字高さである。   Next, in the character size range estimation step S640, the image processing apparatus estimates the range of the target character size. That is, the image processing apparatus estimates the character width and character height on the projection axis of the target character. FIG. 9 is a diagram illustrating an example of estimating the target character size in the second embodiment. In the figure, “w” is the character width projected on the horizontal axis of the character, and “h” is the character height projected on the vertical axis of the character.

ここで、実施例2に係る隠蔽された文字の復元方法において、画像処理装置は、文字筆画幅推定ステップS630と文字大きさ範囲推定ステップS640とは、実行しなくてもよい。例えば、画像処理装置は、文字線分捕捉ステップS620の実行後に、この二つのステップを実行せずに、次の平行線分選択ステップS650を実行してもよい。   Here, in the hidden character restoration method according to the second embodiment, the image processing apparatus may not execute the character stroke width estimation step S630 and the character size range estimation step S640. For example, after executing the character line segment capturing step S620, the image processing apparatus may execute the next parallel line segment selecting step S650 without performing these two steps.

平行線分選択ステップS650において、画像処理装置は、捕捉された線分に基づいて平行線分を選択する。ここで、選択された平行線分は、一つの筆画の対になる線分と推定することができる。言い換えると、画像処理装置は、捕捉された線分に基づいて、一つの筆画の対になる線分であると推定される平行線分を選択する。   In the parallel line segment selection step S650, the image processing apparatus selects a parallel line segment based on the captured line segment. Here, the selected parallel line segment can be estimated as a line segment to be paired with one stroke. In other words, the image processing apparatus selects a parallel line segment that is presumed to be a line segment that forms a pair of one stroke based on the captured line segment.

実施例2において、画像処理装置は、既に筆画幅と文字高さを取得しているならば、以下の三つの条件に従って平行線分を選択する。Hough変換領域において、線分1(θ1、ρ1)、線分2(θ2、ρ2)と筆画幅SWについては、θは線分の回転角度を示し、ρは線分の零点までの距離を示す。
条件1)θ1=θ2及びa*SW<|ρ1−ρ2|<b*SWを満足しており、ここで、a*SWとb*SWは閾値であり、例えばそれぞれ1.5*SWと0.5*SWである。
条件2)水平線分については、水平方向θに沿う投影線の間の距離は文字幅よりも小さい、かつ、垂直線分については、垂直方向(90−θ)に沿う投影線の間の距離は文字高さよりも小さい。
条件3)二本の線分の間における画素は背景ではなく筆画の内部に位置する。
図10は、実施例2において二本の線分の間における画素の帰属を判定する一例を示す図である。図10に示したように、選択された画素が二本の平行線分における各点の間の連結線上に位置するかどうかを検査することによって画素の帰属を判定する。また、図11は、図8に示した捕捉した文字線分から選択された平行線分の一例を示す図である。
In the second embodiment, if the image processing apparatus has already acquired the stroke width and the character height, the image processing apparatus selects parallel line segments according to the following three conditions. In the Hough transform region, for line segment 1 (θ1, ρ1), line segment 2 (θ2, ρ2) and stroke width SW, θ indicates the rotation angle of the line segment, and ρ indicates the distance to the zero point of the line segment. .
Condition 1) θ1 = θ2 and a * SW <| ρ1-ρ2 | <b * SW are satisfied, where a * SW and b * SW are threshold values, for example, 1.5 * SW and 0, respectively. .5 * SW.
Condition 2) For the horizontal line segment, the distance between the projected lines along the horizontal direction θ is smaller than the character width, and for the vertical line segment, the distance between the projected lines along the vertical direction (90−θ) is It is smaller than the character height.
Condition 3) A pixel between two line segments is located inside the stroke, not the background.
FIG. 10 is a diagram illustrating an example of determining pixel attribution between two line segments in the second embodiment. As shown in FIG. 10, pixel attribution is determined by examining whether the selected pixel is located on a connecting line between each point in two parallel line segments. FIG. 11 is a diagram showing an example of parallel line segments selected from the captured character line segments shown in FIG.

続いて、共線線分連結ステップS660において、選択された平行線分に基づいて、共線線分を平行線ペアとして連結する。   Subsequently, in the collinear line connecting step S660, the collinear line is connected as a parallel line pair based on the selected parallel line segment.

同様に、開示技術の具体的な一実施例によれば、筆画の幅と文字高さを取得した後に、以下の三つの条件に従って共線線分を選択することができる。Hough変換領域において、線分1(θ1、ρ1)、線分2(θ2、ρ2)と筆画幅SWについては、θは線分の回転角度を示し、ρは線分の零点までの距離を示す。
条件1)θ1=θ2及び|ρ1−ρ2|が閾値、例えば1より小さいことを満足する。
条件2)水平線分については、水平方向θに沿う投影線の間の距離は文字幅よりも小さい、かつ、垂直線分については、垂直方向(90−θ)に沿う投影線の間の距離は文字高さよりも小さい。
条件3)二本の線分の間における画素は背景ではなく筆画の内部に位置する。
図12は、図11に示した平行線分に対して共線線分の連結処理を実行した結果の一例を示す図である。
Similarly, according to a specific embodiment of the disclosed technology, after acquiring the stroke width and the character height, the collinear line segment can be selected according to the following three conditions. In the Hough transform region, for line segment 1 (θ1, ρ1), line segment 2 (θ2, ρ2) and stroke width SW, θ indicates the rotation angle of the line segment, and ρ indicates the distance to the zero point of the line segment. .
Condition 1) Satisfy that θ1 = θ2 and | ρ1−ρ2 | are smaller than a threshold, for example, 1.
Condition 2) For the horizontal line segment, the distance between the projected lines along the horizontal direction θ is smaller than the character width, and for the vertical line segment, the distance between the projected lines along the vertical direction (90−θ) is It is smaller than the character height.
Condition 3) A pixel between two line segments is located inside the stroke, not the background.
FIG. 12 is a diagram illustrating an example of a result of executing the collinear line connecting process on the parallel line segments illustrated in FIG. 11.

最後に、領域補完ステップS670において、目標文字のグレー値を使用して各平行線ペアのそれぞれにより限定された領域を補完する。図13は、実施例2において目標文字の平行線分の間の領域を補完する一例を示す図である。   Finally, in the region complementation step S670, the region limited by each of the parallel line pairs is complemented using the gray value of the target character. FIG. 13 is a diagram illustrating an example of complementing a region between parallel line segments of a target character in the second embodiment.

画像処理装置は、領域補完ステップS670の処理を完了した後に、隠蔽された目標文字の部分的な筆画を復元する。したがって、画像処理装置は、その後の文字認識処理を便宜として、認識の精度を向上する。図14に示したように、図14Aは、補完前の目標文字の一例を模式的に示す図であり、図14Bは、補完後の目標文字の一例を模式的に示す図である。   The image processing apparatus restores a partial stroke of the concealed target character after completing the processing of the area complementation step S670. Therefore, the image processing apparatus improves the accuracy of recognition for the convenience of subsequent character recognition processing. As shown in FIG. 14, FIG. 14A is a diagram schematically illustrating an example of a target character before complementing, and FIG. 14B is a diagram schematically illustrating an example of a target character after complementing.

以上のように、図面に基づいて開示技術の実施例1及び実施例2に係る、隠蔽された文字の復元方法を詳しく説明した。画像処理装置は、この二つの隠蔽された文字の復元方法を組合せて使用してもよい。この結果、画像処理装置は、より正確に、隠蔽された文字を復元する。そして、画像処理装置は、次に説明する隠蔽された文字の効率的な認識処理をより正確に実行する。   As described above, the hidden character restoration method according to the first and second embodiments of the disclosed technology has been described in detail with reference to the drawings. The image processing apparatus may use a combination of the two hidden character restoration methods. As a result, the image processing apparatus restores the concealed character more accurately. Then, the image processing apparatus more accurately executes an efficient recognition process for concealed characters described below.

図15は、実施例3に係る隠蔽された文字の復元方法の処理の処理手順を示すフローチャートである。図15に示したように、実施例3に係る隠蔽された文字の復元方法において、画像処理装置は、画像テキスト領域分割ステップS1610、目標領域抽出ステップS1620、文字筆画復元ステップS1630、及び文字認識ステップS1640を実行する。   FIG. 15 is a flowchart of the process procedure of the hidden character restoration method according to the third embodiment. As shown in FIG. 15, in the method for restoring a concealed character according to the third embodiment, the image processing apparatus performs an image text region segmentation step S1610, a target region extraction step S1620, a character stroke restoration step S1630, and a character recognition step. S1640 is executed.

画像テキスト領域分割ステップS1610において、画像処理装置は、入力画像に対して検出、分割と量子化を実行して、入力画像におけるテキスト領域を認識対象である目標文字、背景及び前景に分割する。当該ステップにおいて、画像処理装置は、まず入力画像におけるテキスト領域を検出する。画像処理装置は、テキスト文字の相違する特徴、例えば垂直エッジグレー値、テクスチャ又はエッジの方向の変化等に基づいて、テキスト領域を検出する。テキスト領域の検出に関する研究は、既に深く進められており、また、それも開示技術の要点ではないので、ここでは詳細な説明を省略する。次に、画像処理装置は、必要な特定画像調整処理を実行することによって、所望の画像を生成する。例えば、画像処理装置は、画像斜め補正処理、ノイズ除去処理、画像拡大/縮小処理等を実行する。当該ステップを実行した後に、画像処理装置は、テキスト領域を目標文字、前景と背景に分割して、異なるグレー値を割り当てる。図16Aは、実施例3における認識対象である隠蔽された文字を含む入力画像の一例を示す図である。図16Bは、図16Aに示す入力画像に対して、画像テキスト領域分割ステップを実行した結果の一例を示す図である。   In the image text area division step S1610, the image processing apparatus performs detection, division, and quantization on the input image, and divides the text area in the input image into target characters, backgrounds, and foregrounds to be recognized. In this step, the image processing apparatus first detects a text area in the input image. The image processing device detects a text region based on different features of the text character, such as vertical edge gray value, texture or edge direction change. The research on the detection of the text area has already been deeply advanced, and since this is not the gist of the disclosed technique, a detailed description is omitted here. Next, the image processing apparatus generates a desired image by executing necessary specific image adjustment processing. For example, the image processing apparatus executes an image oblique correction process, a noise removal process, an image enlargement / reduction process, and the like. After executing this step, the image processing apparatus divides the text area into target characters, foreground and background, and assigns different gray values. FIG. 16A is a diagram illustrating an example of an input image including a concealed character that is a recognition target in the third embodiment. FIG. 16B is a diagram illustrating an example of a result obtained by performing an image text region dividing step on the input image illustrated in FIG. 16A.

目標領域抽出ステップS1620において、画像処理装置は、テキスト領域から認識対象である目標文字を含む目標領域を抽出する。   In target area extraction step S1620, the image processing apparatus extracts a target area including a target character to be recognized from the text area.

図17は、実施例3における目標文字の抽出方法の一例を模式的に示した図である。実施例3において、画像処理装置は、図17に示した下記のステップに従ってテキスト領域から認識対象である目標文字を含む目標領域を抽出する。すなわち、画像処理装置は、目標文字の輪郭画素を抽出し、水平方向θと垂直方向(90−θ)において輪郭画素に対してHough変換を実行する。ここで、θは、目標文字の回転角度を示す。水平方向θと垂直方向(90−θ)に沿ってHough変換中の最小と最大距離値ρh1、ρh2、ρv1とρv2を求め、四本の線(ρh1、90−θ)、(ρh2、90−θ)、(ρv1、θ)、(ρv2、θ)を使用して四つの角を算出する。また、算出した四つの角を覆う領域を目標領域として切り出す。図16Cは、図16Bに示す画像テキスト領域に対して目標領域を抽出する処理を実行した結果の一例を示す図である。 FIG. 17 is a diagram schematically illustrating an example of a target character extraction method according to the third embodiment. In the third embodiment, the image processing apparatus extracts a target area including a target character to be recognized from a text area according to the following steps shown in FIG. That is, the image processing apparatus extracts the contour pixel of the target character, and performs Hough conversion on the contour pixel in the horizontal direction θ and the vertical direction (90−θ). Here, θ represents the rotation angle of the target character. Find the minimum and maximum distance values ρ h1 , ρ h2 , ρ v1 and ρ v2 during the Hough transform along the horizontal direction θ and the vertical direction (90−θ), and four lines (ρ h1 , 90−θ), Four angles are calculated using (ρ h2 , 90−θ), (ρ v1 , θ), (ρ v2 , θ). Further, a region covering the calculated four corners is cut out as a target region. FIG. 16C is a diagram illustrating an example of a result of executing a process of extracting a target area with respect to the image text area illustrated in FIG. 16B.

ここで、当該目標領域抽出ステップS1620は、開示技術に対して必須のものではない。つまり、画像処理装置は、画像テキスト領域分割ステップS1610の終了後に、当該ステップを実行せず、文字筆画復元ステップS1630を実行してもよい。   Here, the target area extraction step S1620 is not essential for the disclosed technology. That is, the image processing apparatus may execute the character and stroke restoration step S1630 without executing the step after the image text region dividing step S1610 ends.

文字筆画復元ステップS1630において、画像処理装置は、実施例1及び実施例2に記載の方法によりテキスト領域における認識対象である隠蔽された文字を復元する。図16Dは、図16Cに示す目標領域に対して隠蔽された文字を復元する処理を実行した結果の一例を示す図である。   In the character and stroke restoration step S1630, the image processing apparatus restores the concealed character that is the recognition target in the text area by the method described in the first and second embodiments. FIG. 16D is a diagram illustrating an example of a result of executing the process of restoring the concealed character with respect to the target area illustrated in FIG. 16C.

最後に、文字認識ステップS1640において、画像処理装置は、文字筆画復元ステップS1630で復元された文字を認識する。図16Eは、図16Dに示す復元後の隠蔽された文字を認識する処理を実行した結果の一例を示す図である。   Finally, in the character recognition step S1640, the image processing apparatus recognizes the character restored in the character stroke restoration step S1630. FIG. 16E is a diagram illustrating an example of a result of executing the process of recognizing a hidden character after restoration illustrated in FIG. 16D.

以上に、図1〜図17に基づいて実施例1〜実施例3に係る隠蔽された文字の復元方法の処理過程を説明した。以下に図18〜図20を基づいて開示技術による画像処理装置の動作を説明する。   The process of the hidden character restoration method according to the first to third embodiments has been described above with reference to FIGS. The operation of the image processing apparatus according to the disclosed technology will be described below with reference to FIGS.

図18は、実施例4に係る画像処理装置1900の構成を示すブロック図である。図18に示すように、実施例4に係る画像処理装置1900は、圧縮部1910、画像ブロックサイズ算出部1920、元領域標記部1930、参考画像ブロック生成部1940、選別部1950、境界抽出部1960、補完優先順位算出部1970、前景補完部1980及び判定部1990を備える。圧縮部1910は、入力画像を圧縮するように配置される。画像ブロックサイズ算出部1920は、復元対象である隠蔽された文字を含む目標文字の筆画の幅に応じて画像ブロックサイズを算出するように配置される。元領域標記部1930は、目標文字を含む入力画像における目標領域において元領域を標識するように配置される。参考画像ブロック生成部1940は、元領域における画素に対して参考画像ブロックを生成するように配置される。ここで、元領域における画素のそれぞれを一つの参考画像ブロックの中心とする。選別部1950は、選考画像ブロックを選別するように配置される。境界抽出部1960は、補完対象である入力画像における前景の境界を抽出するように配置される。補完優先順位算出部1970は、前景の境界における画素毎に当該画素を中心とする画像ブロックの複雑度に応じて補完優先順位を算出するように配置される。前景補完部1980は、参考画像ブロック中の最も類似している画像ブロックを使用して最高の優先順位を有する画素を中心とする画像ブロックを補完するように配置される。判定部1990は、前景の補完が全て完了していない場合に境界抽出部1960、補完優先順位算出部1970及び前景補完部1980の処理を繰返して実行するように配置される。   FIG. 18 is a block diagram illustrating a configuration of an image processing apparatus 1900 according to the fourth embodiment. As illustrated in FIG. 18, the image processing apparatus 1900 according to the fourth embodiment includes a compression unit 1910, an image block size calculation unit 1920, an original region marking unit 1930, a reference image block generation unit 1940, a selection unit 1950, and a boundary extraction unit 1960. , A complementary priority calculating unit 1970, a foreground complementing unit 1980, and a determining unit 1990. The compression unit 1910 is arranged to compress the input image. The image block size calculation unit 1920 is arranged to calculate the image block size according to the stroke width of the target character including the hidden character to be restored. The original area marking unit 1930 is arranged to mark the original area in the target area in the input image including the target character. The reference image block generation unit 1940 is arranged to generate a reference image block for the pixels in the original region. Here, each pixel in the original area is set as the center of one reference image block. The selection unit 1950 is arranged to select the selection image block. The boundary extraction unit 1960 is arranged so as to extract the foreground boundary in the input image to be complemented. The complementary priority calculating unit 1970 is arranged so as to calculate the complementary priority for each pixel at the foreground boundary according to the complexity of the image block centered on the pixel. The foreground complementing unit 1980 is arranged to complement the image block centered on the pixel having the highest priority using the most similar image block in the reference image block. The determination unit 1990 is arranged so as to repeatedly execute the processes of the boundary extraction unit 1960, the complementation priority calculation unit 1970, and the foreground complementation unit 1980 when the foreground complementation is not completed.

実施例4に係る画像処理装置1900によれば、画像ブロックサイズ算出部1920は下記の式(5)により画像ブロックサイズを算出する。ここでSWは目標文字の筆画の幅を示す。   According to the image processing apparatus 1900 according to the fourth embodiment, the image block size calculation unit 1920 calculates the image block size by the following equation (5). Here, SW indicates the width of the stroke of the target character.

Figure 2011216070
Figure 2011216070

実施例4に係る画像処理装置1900によれば、元領域標記部1930は、目標文字における画素及びその画像ブロックにおける全ての隣接する画素を含む第一のマスクを生成する。また、元領域標記部1930は、前景画素及びその画像ブロックにおける全ての隣接する画素以外の目標領域全体を含む第二のマスクを生成する。そして、元領域標記部1930は、第一のマスクと第二のマスクの重複領域を元領域として抽出する。   According to the image processing apparatus 1900 according to the fourth embodiment, the original area marking unit 1930 generates a first mask that includes pixels in the target character and all adjacent pixels in the image block. In addition, the original area marking unit 1930 generates a second mask that includes the entire target area except foreground pixels and all adjacent pixels in the image block. Then, the original area marking unit 1930 extracts an overlapping area between the first mask and the second mask as an original area.

同様に、補完優先順位算出部1970は、下記の式により補完優先順位P(p)を算出する。   Similarly, the complementary priority order calculating unit 1970 calculates the complementary priority order P (p) by the following formula.

Figure 2011216070
Figure 2011216070

実施例4に係る画像処理装置1900に含まれる圧縮部1910における処理は、実施例1に係る隠蔽された文字の復元方法に含まれる入力画像圧縮ステップS210と同様である。また、画像ブロックサイズ算出部1920における処理は、画像ブロックサイズ算出ステップS220と同様であり、元領域標記部1930における処理は、元領域標記ステップS230と同様である。また、参考画像ブロック生成部1940における処理は、参考画像ブロック生成ステップS240における処理と同様であり、選別部1950における処理は、参考画像ブロック選別ステップS250における処理と同様である。また、境界抽出部1960における処理は、境界抽出ステップS260における処理と同様であり、補完優先順位算出部1970における処理は、補完優先順位算出ステップS270における処理と同様である。また、前景補完部1980における処理は、前景補完ステップS280における処理と同様である。したがって、説明を簡潔にするために、これらの詳細な説明を省略する。   The processing in the compression unit 1910 included in the image processing apparatus 1900 according to the fourth embodiment is the same as the input image compression step S210 included in the hidden character restoration method according to the first embodiment. The processing in the image block size calculation unit 1920 is the same as that in the image block size calculation step S220, and the processing in the original region marking unit 1930 is the same as in the original region marking step S230. The process in the reference image block generation unit 1940 is the same as the process in the reference image block generation step S240, and the process in the selection unit 1950 is the same as the process in the reference image block selection step S250. Further, the process in the boundary extraction unit 1960 is the same as the process in the boundary extraction step S260, and the process in the complement priority calculation unit 1970 is the same as the process in the complement priority calculation step S270. Further, the processing in the foreground complementing unit 1980 is the same as the processing in the foreground complementing step S280. Therefore, for the sake of brevity, these detailed descriptions are omitted.

なお、実施例4に係る画像処理装置1900は、実用化に際して、圧縮部1910と選別部1950とを有さず、選択的に設置するように構成されてもよい。   Note that the image processing apparatus 1900 according to the fourth embodiment may be configured to be selectively installed without the compression unit 1910 and the selection unit 1950 in practical use.

図19は、実施例5に係る画像処理装置2000の構成を示すブロック図である。図19に示したように、実施例5に係る画像処理装置2000は、輪郭画素抽出部2010、線分捕捉部2020、筆画幅推定部2030、サイズ範囲推定部2040、平行線分選択部2050、共線線分連結部2060及び領域補完部2070を備える。輪郭画素抽出部2010は、目標文字の輪郭画素を抽出するように配置される。線分捕捉部2020は、抽出された輪郭画素に基づいて目標文字の線分を捕捉するように配置される。筆画幅推定部2030は、捕捉された線分に基づいて目標文字の筆画の幅を推定するように配置される。サイズ範囲推定部2040は、目標文字の投影軸における文字幅と文字高さを推定するように配置される。平行線分選択部2050は、捕捉された線分に基づいて一つの筆画の対になる線分であると想定される平行線分を選択するように配置される。共線線分連結部2060は、選択された平行線分に基づいて共線線分を平行線ペアとして連結するように配置される。領域補完部2070は、目標文字のグレー値を使用して各平行線ペアのそれぞれにより限定された領域を補完するように配置される。   FIG. 19 is a block diagram illustrating the configuration of the image processing apparatus 2000 according to the fifth embodiment. As illustrated in FIG. 19, the image processing apparatus 2000 according to the fifth embodiment includes an outline pixel extraction unit 2010, a line segment capture unit 2020, a stroke width estimation unit 2030, a size range estimation unit 2040, a parallel line segment selection unit 2050, A collinear line connecting unit 2060 and a region complementing unit 2070 are provided. The contour pixel extraction unit 2010 is arranged to extract the contour pixels of the target character. The line segment capturing unit 2020 is arranged to capture the line segment of the target character based on the extracted contour pixels. The stroke width estimation unit 2030 is arranged to estimate the stroke width of the target character based on the captured line segment. The size range estimation unit 2040 is arranged to estimate the character width and character height on the projection axis of the target character. The parallel line segment selection unit 2050 is arranged to select a parallel line segment that is assumed to be a pair of strokes based on the captured line segment. The collinear line connecting unit 2060 is arranged to connect the collinear line as a parallel line pair based on the selected parallel line. The area complementing unit 2070 is arranged to complement the area limited by each parallel line pair using the gray value of the target character.

同様に、選択された平行線分は、Hough変換領域において下記の条件を満足しなければならない。
条件1)線分1(θ1、ρ1)、線分2(θ2、ρ2)と筆画の幅SWについては、θ1=θ2及びa*SW<|ρ1−ρ2|<b*SWを満足しており、θは線分の回転角度を示し、ρは線分の零点までの距離を示し、a*SWとb*SWは閾値である。
条件2)水平線分については、水平方向θに沿う投影線の間の距離は文字幅よりも小さい、一方、垂直線分については、垂直方向(90−θ)に沿う投影線の間の距離は文字高さよりも小さい。
条件3)二本の線分の間における画素は背景ではなく筆画の内部に位置する。
Similarly, the selected parallel line segment must satisfy the following condition in the Hough transform region.
Condition 1) Line segment 1 (θ1, ρ1), line segment 2 (θ2, ρ2) and stroke width SW satisfy θ1 = θ2 and a * SW <| ρ1-ρ2 | <b * SW. , Θ represents the rotation angle of the line segment, ρ represents the distance to the zero point of the line segment, and a * SW and b * SW are threshold values.
Condition 2) For the horizontal line segment, the distance between the projected lines along the horizontal direction θ is smaller than the character width, while for the vertical line segment, the distance between the projected lines along the vertical direction (90−θ) is It is smaller than the character height.
Condition 3) A pixel between two line segments is located inside the stroke, not the background.

共線線分は、下記の条件を満足しなければならない。
条件1)線分1(θ1、ρ1)、線分2(θ2、ρ2)と筆画幅SWについては、θ1=θ2及び|ρ1−ρ2|が閾値より小さいことを満足する。
条件2)水平線分については、水平方向θに沿う投影線の間の距離は文字幅よりも小さい、かつ、垂直線分については、垂直方向(90−θ)に沿う投影線の間の距離は文字高さよりも小さい。
条件3)二本の線分の間における画素は背景ではなく筆画の内部に位置する。
The collinear segment must satisfy the following conditions.
Condition 1) For line segment 1 (θ1, ρ1), line segment 2 (θ2, ρ2) and stroke width SW, θ1 = θ2 and | ρ1−ρ2 | are satisfied to be smaller than the threshold value.
Condition 2) For the horizontal line segment, the distance between the projected lines along the horizontal direction θ is smaller than the character width, and for the vertical line segment, the distance between the projected lines along the vertical direction (90−θ) is It is smaller than the character height.
Condition 3) A pixel between two line segments is located inside the stroke, not the background.

実施例5に係る画像処理装置2000に含まれる輪郭画素抽出部2010における処理は、実施例2に係る隠蔽された文字の復元方法における文字輪郭画素抽出ステップS610における処理と同様である。また、線分捕捉部2020における処理は、文字線分捕捉ステップS620における処理と同様である。筆画幅推定部2030における処理は、文字筆画幅推定ステップS630における処理と同様である。サイズ範囲推定部2040における処理は、文字サイズ範囲推定ステップS640における処理と同様である。平行線分選択部2050における処理は、平行線分選択ステップS650における処理と同様である。共線線分連結部2060における処理は、共線線分連結ステップS660における処理と同様である。領域補完部2070における処理は、領域補完ステップS670における処理と同様である。したがって、ここでは、説明を簡潔にするために、これら構成部の詳細な説明を省略する。   The processing in the contour pixel extraction unit 2010 included in the image processing apparatus 2000 according to the fifth embodiment is the same as the processing in the character contour pixel extraction step S610 in the hidden character restoration method according to the second embodiment. The processing in the line segment capturing unit 2020 is the same as the processing in the character line segment capturing step S620. The process in the stroke width estimation unit 2030 is the same as the process in the character stroke width estimation step S630. The processing in the size range estimation unit 2040 is the same as the processing in the character size range estimation step S640. The process in the parallel line segment selection unit 2050 is the same as the process in the parallel line segment selection step S650. The process in the collinear line connecting unit 2060 is the same as the process in the collinear line connecting step S660. The process in the area complementing unit 2070 is the same as the process in the area complementing step S670. Therefore, for the sake of brevity, detailed description of these components is omitted here.

同様に、実施例5に係る画像処理装置2000は、筆画幅推定部2030とサイズ範囲推定部2040とを設置しなくてもよく、システム設計の要求と使用状況に応じて選択的に設置することができるものである。   Similarly, the image processing apparatus 2000 according to the fifth embodiment does not need to install the stroke width estimation unit 2030 and the size range estimation unit 2040, and selectively installs them according to the system design requirements and usage conditions. It is something that can be done.

隠蔽された文字の復元方法と同様に、実施例5及び実施例6に係る画像処理装置を組合せて使用してもよい。この結果、画像処理装置は、より良い復元効果を発揮して、更に、次に説明する隠蔽された文字の効率的な認識処理を正確に実行する。   Similarly to the hidden character restoration method, the image processing apparatuses according to the fifth and sixth embodiments may be used in combination. As a result, the image processing apparatus exhibits a better restoration effect, and further accurately executes the concealed character efficient recognition process described below.

図20は、実施例6に係る画像処理装置2100の構成を示すブロック図である。図20に示したように、実施例6に係る画像処理装置2100は、分割部2110、目標領域抽出部2120、隠蔽された文字の復元装置2130及び文字認識部2140を有する。分割部2110は、入力画像におけるテキスト領域を認識対象である目標文字、背景及び前景に分割するように配置される。目標領域抽出部2120は、テキスト領域から認識対象である目標文字を含む目標領域を抽出するように配置される。隠蔽された文字の復元装置2130は、隠蔽された文字を復元するように配置され、例えば、実施例4に係る画像処理装置1900又は実施例5に係る画像処理装置2000である。文字認識部2140は、復元された文字を認識するように配置される。   FIG. 20 is a block diagram illustrating the configuration of the image processing apparatus 2100 according to the sixth embodiment. As illustrated in FIG. 20, the image processing apparatus 2100 according to the sixth embodiment includes a dividing unit 2110, a target area extracting unit 2120, a hidden character restoration device 2130, and a character recognition unit 2140. The dividing unit 2110 is arranged to divide a text area in the input image into a target character, a background, and a foreground that are recognition targets. The target area extraction unit 2120 is arranged to extract a target area including a target character that is a recognition target from the text area. The concealed character restoration device 2130 is arranged to restore the concealed character, and is, for example, the image processing device 1900 according to the fourth embodiment or the image processing device 2000 according to the fifth embodiment. Character recognition unit 2140 is arranged to recognize the restored character.

同様に、具体的な一実施例において、目標領域抽出部2120は、目標文字の輪郭画素を抽出し、水平方向θと垂直方向(90−θ)において輪郭画素に対してHough変換を実行する。ここで、θは目標文字の回転角度を示す。水平方向θと垂直方向(90−θ)に沿ってHough変換中の最小と最大距離値ρh1、ρh2、ρv1とρv2を求め、四本の線(ρh1、90−θ)、(ρh2、90−θ)、(ρv1、θ)、(ρv2、θ)を使用して四つの角を算出する。また、算出した四つの角を覆う領域を目標領域として切り出す。 Similarly, in a specific embodiment, the target area extraction unit 2120 extracts the contour pixel of the target character, and performs Hough conversion on the contour pixel in the horizontal direction θ and the vertical direction (90−θ). Here, θ represents the rotation angle of the target character. Find the minimum and maximum distance values ρ h1 , ρ h2 , ρ v1 and ρ v2 during the Hough transform along the horizontal direction θ and the vertical direction (90−θ), and four lines (ρ h1 , 90−θ), Four angles are calculated using (ρ h2 , 90−θ), (ρ v1 , θ), (ρ v2 , θ). Further, a region covering the calculated four corners is cut out as a target region.

実施例6に係る画像処理装置2100に含まれる分割部2110における処理は、図15〜図17を参照して説明した隠蔽された文字の復元方法における画像テキスト領域分割ステップS1610における処理と同様である。また、目標領域抽出部2120における処理は、目標領域抽出ステップS1620における処理と同様である。隠蔽された文字の復元装置2130における処理は、文字筆画復元ステップS1630における処理と同様である。すなわち、隠蔽された文字の復元装置2130は、実施例1又は実施例2に係る隠蔽された文字に復元方法を実行する。文字認識部2140における処理は、文字認識ステップS1640における処理と同様である。したがって、説明を簡潔にするために、ここではこれらの構成部の詳細な説明を省略する。   Processing in the dividing unit 2110 included in the image processing apparatus 2100 according to the sixth embodiment is the same as the processing in the image text region dividing step S1610 in the hidden character restoration method described with reference to FIGS. . Further, the process in the target area extraction unit 2120 is the same as the process in the target area extraction step S1620. The processing in the concealed character restoration device 2130 is the same as the processing in the character and stroke restoration step S1630. That is, the hidden character restoration apparatus 2130 executes the restoration method for the hidden characters according to the first or second embodiment. The processing in character recognition unit 2140 is the same as the processing in character recognition step S1640. Therefore, for the sake of brevity, detailed description of these components is omitted here.

ここで、実施例6に係る画像処理装置2100は、目標領域抽出部2120を設置しなくてもよく、システム設計の要求と使用状況に応じて選択的に設置してもよい。   Here, the image processing apparatus 2100 according to the sixth embodiment may not be provided with the target area extraction unit 2120, and may be selectively installed according to the system design requirements and usage conditions.

上述の画像処理装置における各構成モジュール、各構成部は、ソフトウェア、ファームウェア、ハードウェアあるいはそれらの組合せによって配置されてもよい。なお、配置に使用可能な具体的な手法又は方式は公知の技術であり、ここでは説明しない。ソフトウェア又はファームウェアにより実現する場合に、記憶媒体又はネットワークから専用のハードウェア構成を持つコンピュータ(例えば図21に示した情報処理装置1100)に対して当該ソフトウェアを構成するプログラムをインストールする。各種プログラムがインストールされると、情報処理装置1100は、各種機能等を実行する。   Each component module and each component in the above-described image processing apparatus may be arranged by software, firmware, hardware, or a combination thereof. In addition, the specific method or system which can be used for arrangement | positioning is a well-known technique, and is not demonstrated here. When realized by software or firmware, a program that configures the software is installed from a storage medium or a network to a computer having a dedicated hardware configuration (for example, the information processing apparatus 1100 illustrated in FIG. 21). When various programs are installed, the information processing apparatus 1100 executes various functions and the like.

図21は、開示技術による隠蔽された文字の復元方法を実行する情報処理装置1100の構成を示すブロック図である。図21においては、中央処理装置(CPU)1101は、読取専用メモリ(ROM)1102に記憶されたプログラム又は記憶部1108からランダムアクセスメモリ(RAM)1103にアップロードされたプログラムに従って、各種の処理を実行する。また、RAM1103は、CPU1101が各種の処理を実行するとき等に必要なデータを記憶してもよい。CPU1101、ROM1102及びRAM1103は、バス1104を介して互いに接続されている。同様に入力/出力インタフェース1105は、バス1104に接続されている。   FIG. 21 is a block diagram illustrating a configuration of an information processing apparatus 1100 that executes a method for restoring a concealed character according to the disclosed technology. In FIG. 21, the central processing unit (CPU) 1101 executes various processes according to a program stored in a read-only memory (ROM) 1102 or a program uploaded from the storage unit 1108 to the random access memory (RAM) 1103. To do. The RAM 1103 may store data necessary when the CPU 1101 executes various processes. The CPU 1101, ROM 1102, and RAM 1103 are connected to each other via a bus 1104. Similarly, the input / output interface 1105 is connected to the bus 1104.

入力部1106と、出力部1107と、記憶部1108と、通信部1109とは、入力/出力インタフェース1105に接続されている。ここで、入力部1106はキーボード、マウス等を含む。出力部1107は、例えばブラウン管(CRT)や液晶ディスプレイ(LCD)等のディスプレイとスピーカ等を含む。記憶部1108は、ハードディスク等を含む。通信部1109は、例えばLANカード等のネットワークインターフェースカード、モデム等を含む。通信部1109は、例えばインターネット等のネットワークを経由して通信処理を実行する。入力/出力インタフェース1105は、ドライブ1110とも接続されていてもよい。そして、ドライブ1110には、例えば、磁気ディスク、光ディスク、光磁気ディスク、半導体メモリ等のような着脱可能な媒体1111が取り付けられていてもよい。そして、着脱可能な媒体1111から読み出されるコンピュータプログラムが記憶部1108にインストールされるようにしてもよい。   The input unit 1106, the output unit 1107, the storage unit 1108, and the communication unit 1109 are connected to the input / output interface 1105. Here, the input unit 1106 includes a keyboard, a mouse, and the like. The output unit 1107 includes a display such as a cathode ray tube (CRT) or a liquid crystal display (LCD) and a speaker. The storage unit 1108 includes a hard disk and the like. The communication unit 1109 includes a network interface card such as a LAN card, a modem, and the like. The communication unit 1109 executes communication processing via a network such as the Internet, for example. The input / output interface 1105 may also be connected to the drive 1110. The drive 1110 may be attached with a removable medium 1111 such as a magnetic disk, an optical disk, a magneto-optical disk, and a semiconductor memory. Then, a computer program read from the removable medium 1111 may be installed in the storage unit 1108.

ソフトウェアで一連の処理を実行する場合、例えばインターネット等のネットワーク、又は、例えば着脱可能な媒体1111のような記憶媒体からソフトウェアを構成するプログラムをインストールする。   When a series of processing is executed by software, a program constituting the software is installed from a network such as the Internet or a storage medium such as a removable medium 1111.

このような記憶媒体は、図21に示したような、媒体中にプログラムが記憶されているものであって、デバイスから分離してユーザにプログラムを提供する着脱可能な媒体1111に限定されるものではない。例えば、記憶媒体は、ROM1102、記憶部1108に含まれるハードディスクなどでも良い。これらの記憶媒体にプログラムが記憶されており、かつこれらを含むデバイスと一緒にユーザに提供される。なお、着脱可能な媒体1111は、例えば、フロッピー(登録商標)等の磁気ディスク、コンパクトディスクリードオンリーメモリ(CD−ROM)やディジタルヴァーサタイルディスク(DVD)等の光ディスク、ミニディスク(登録商標)等の光磁気ディスク及び半導体メモリである。   Such a storage medium is such that the program is stored in the medium as shown in FIG. 21, and is limited to a removable medium 1111 that provides the program to the user separately from the device. is not. For example, the storage medium may be a ROM 1102, a hard disk included in the storage unit 1108, or the like. Programs are stored in these storage media, and are provided to the user together with a device including them. The removable medium 1111 is, for example, a magnetic disk such as a floppy (registered trademark), an optical disk such as a compact disk read-only memory (CD-ROM) or a digital versatile disk (DVD), a mini disk (registered trademark), or the like. Magneto-optical disk and semiconductor memory.

開示技術は、機器で読取可能な命令コードが記憶されたプログラム製品を更に提供する。命令コードが機器で読取られて実行されると、開示技術による実施例の方法を実行することができる。   The disclosed technology further provides a program product in which an instruction code readable by a device is stored. When the instruction code is read and executed by the device, the method of the embodiment according to the disclosed technology can be executed.

また、機器で読取り可能な命令コードが記憶されたプログラム製品を搭載する記憶媒体も開示技術に含まれる。なお、記憶媒体は、フロッピー(登録商標)ディスク、光ディスク、光磁気ディスク、メモリカード、メモリスティック等を含むが、これらに限定されるものではない。   The disclosed technology also includes a storage medium on which a program product in which an instruction code readable by a device is stored. Note that the storage medium includes, but is not limited to, a floppy (registered trademark) disk, an optical disk, a magneto-optical disk, a memory card, a memory stick, and the like.

以上の実施例の記載においては、実施形態の一例について説明した。また、実施例の記載においては示した特徴は、同一あるいは同様の形態で一つ又は複数の他の実施形態で使用されたり、他の実施例における特徴と組み合わせたり、あるいは他の実施例における特徴と置き換えたりしてもよい。   In the description of the above examples, an example of the embodiment has been described. Also, the features shown in the description of the embodiments may be used in one or more other embodiments in the same or similar form, combined with features in other embodiments, or features in other embodiments. Or may be replaced.

ここで、専門用語“含む/有する”が本文で使用される場合には、特徴、要素、ステップ又は構成部の存在を意味し、一つ又は複数の他の特徴、要素、ステップ又は構成部の存在又は付加を排除するものではない。   Here, when the term “including / having” is used in the text, it means the presence of a feature, element, step or component, and one or more other features, elements, steps or components. It does not exclude the presence or addition.

なお、開示技術の方法は明細書において説明した時間順に実行されることには限定されず、その他の時間順に従って、並列にあるいは独立に実行されてもよい。したがって、本明細書で説明した方法の実行順序は開示技術の技術的範囲を限定するものではない。   The method of the disclosed technology is not limited to being executed in the time order described in the specification, and may be executed in parallel or independently according to other time orders. Therefore, the execution order of the method described in this specification does not limit the technical scope of the disclosed technology.

上記に開示技術の実施例を記載することにより、開示技術を説明したが、全ての実施例はいずれも一例に過ぎず、限定的なものではない。当業者であれば、添付の特許請求の範囲と開示技術の技術的思想に基づいて、開示技術に対する各種の修正、改良あるいは同様な装置等を設計する場合がある。これらの修正、改良あるいは同様な装置等は、当然、開示技術の保護範囲内に含まれるものであると考えられる。   Although the disclosed technology has been described above by describing the embodiments of the disclosed technology, all of the embodiments are merely examples and are not limiting. A person skilled in the art may design various modifications and improvements to the disclosed technology or similar devices based on the appended claims and the technical idea of the disclosed technology. These modifications, improvements or similar devices are naturally considered to be within the protection scope of the disclosed technology.

以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。   The following supplementary notes are further disclosed with respect to the embodiments including the above examples.

(付記1)画像処理装置が、
復元対象である隠蔽された文字を含む目標文字の筆画の幅に応じて画像ブロックサイズを算出するステップと、
前記目標文字を含む入力画像の目標領域において元領域を標記するステップと、
前記元領域における画素に対してそれぞれを中心とする各参考画像ブロックを生成するステップと、
補完対象である入力画像の前景の境界を抽出するステップと、
前記前景の境界における画素毎に、当該画素を中心とする画像ブロックの複雑度に応じて補完優先順位を算出するステップと、
前記参考画像ブロックにおける最も類似している画像ブロックを使用して、最も高い優先順位を有する画素を中心とする画像ブロックを補完するステップと、
前記前景の補完が全て完了していない場合には、前記補完対象である入力画像における前景の境界の抽出処理を実行するステップと
を含む隠蔽された文字の復元方法。
(Appendix 1) An image processing apparatus
Calculating an image block size according to a stroke width of a target character including a hidden character to be restored; and
Marking the original region in the target region of the input image containing the target character;
Generating each reference image block centered on each of the pixels in the original region;
Extracting the foreground boundary of the input image to be complemented;
For each pixel at the foreground boundary, calculating a complementation priority according to the complexity of the image block centered on the pixel;
Complementing the image block centered on the pixel with the highest priority using the most similar image block in the reference image block;
A concealed character restoration method comprising: performing foreground boundary extraction processing in the input image to be complemented when all of the foreground completion has not been completed.

(付記2)画像処理装置が、
画像ブロック内部の背景画素が占める割合を計測して算出した信頼係数と、画像ブロック内部の補完対象である目標文字画素が占める割合を計測して算出した信頼係数と、画像ブロック内部の異なる勾配ベクトルの数に基づいた複雑度とから前記補完優先順位を算出する付記1に記載の隠蔽された文字の復元方法。
(Appendix 2) The image processing apparatus is
A confidence coefficient calculated by measuring the percentage of background pixels in the image block, a confidence coefficient calculated by measuring the percentage of target character pixels to be complemented in the image block, and different gradient vectors in the image block The method for restoring a concealed character according to supplementary note 1, wherein the complementary priority is calculated from the complexity based on the number of characters.

(付記3)画像処理装置が、
前記画像ブロックサイズを目標文字の筆画の幅から算出する付記1に記載の隠蔽された文字の復元方法。
(Supplementary Note 3) The image processing apparatus is
The hidden character restoration method according to attachment 1, wherein the image block size is calculated from a stroke width of a target character.

(付記4)前記目標文字を含む入力画像の目標領域において元領域を標記するステップは、
前記目標文字における画素及び該画素の画像ブロックにおける全ての隣接する画素を含む第一のマスクを生成するステップと、
前景画素及び該前景画素の画像ブロックにおける全ての隣接する画素以外の目標領域全体を含む第二のマスクを生成するステップと、
前記第一のマスクと第二のマスクの重複領域を元領域として抽出するステップと
を含む、付記1に記載の隠蔽された文字の復元方法。
(Supplementary Note 4) The step of marking the original area in the target area of the input image including the target character includes:
Generating a first mask including pixels in the target character and all adjacent pixels in an image block of the pixels;
Generating a second mask that includes the entire target region other than the foreground pixels and all adjacent pixels in the image block of the foreground pixels;
The method for restoring a concealed character according to appendix 1, further comprising: extracting an overlapping area between the first mask and the second mask as an original area.

(付記5)画像処理装置が、
入力画像を圧縮すること、及び/又は、参考画像ブロックを選別することを実行するステップを更に含む、付記1に記載の隠蔽された文字の復元方法。
(Supplementary Note 5) The image processing apparatus is
The hidden character restoration method according to claim 1, further comprising the step of compressing the input image and / or selecting the reference image block.

(付記6)画像処理装置が、
前記目標文字の輪郭画素を抽出するステップと、
前記抽出された輪郭画素に基づいて目標文字の線分を捕捉するステップと、
前記捕捉された線分に基づいて、一つの筆画の対になる線分であると推定される平行線分を選択するステップと、
前記選択された平行線分に基づいて共線線分を平行線ペアとして連結するステップと、
前記目標文字のグレー値を使用して各平行線ペアのそれぞれにより限定された領域を補完するステップと
を更に含む、付記1〜付記5の何れかに記載の隠蔽された文字の復元方法。
(Appendix 6) The image processing apparatus
Extracting contour pixels of the target character;
Capturing a line segment of a target character based on the extracted contour pixels;
Selecting a parallel line segment that is presumed to be a line segment of a stroke based on the captured line segment; and
Connecting collinear segments as parallel line pairs based on the selected parallel segments;
The method for restoring a concealed character according to any one of supplementary notes 1 to 5, further comprising: complementing a region limited by each parallel line pair using the gray value of the target character.

(付記7)画像処理装置が、
前記捕捉された線分に基づいて目標文字の筆画の幅を推定するステップと、
前記目標文字の投影軸における文字幅と文字高さを推定するステップとを更に含み、
Hough変換領域においては、前記の選択された平行線分は、
線分1(θ1、ρ1)、線分2(θ2、ρ2)と筆画の幅SWについては、θ1=θ2及びa*SW<|ρ1−ρ2|<b*SWとし、θは線分の回転角度を示し、ρは線分の零点までの距離を示し、a*SWとb*SWは閾値であること、
水平線分については、水平方向θに沿う投影線の間の距離は文字幅よりも小さい一方、垂直線分については、垂直方向(90−θ)に沿う投影線の間の距離は文字高さよりも小さいこと、
二本の線分の間における画素は背景ではなく筆画の内部に位置すること
とを満たし、
前記の共線線分は、
線分1(θ1、ρ1)、線分2(θ2、ρ2)と筆画の幅SWについては、θ1=θ2及び|ρ1−ρ2|が閾値より小さいこと、
水平線分については、水平方向θに沿う投影線の間の距離は文字幅よりも小さい一方、垂直線分については、垂直方向(90−θ)に沿う投影線の間の距離は文字高さよりも小さいこと、
二本の線分の間における画素は背景ではなく筆画の内部に位置すること
とを満たす、付記6に記載の隠蔽された文字の復元方法。
(Supplementary note 7) The image processing apparatus is
Estimating a stroke width of the target character based on the captured line segment;
Further including estimating a character width and a character height on the projection axis of the target character,
In the Hough transform region, the selected parallel line segment is
For line segment 1 (θ1, ρ1), line segment 2 (θ2, ρ2) and stroke width SW, θ1 = θ2 and a * SW <| ρ1-ρ2 | <b * SW, where θ is the rotation of the line segment Indicates the angle, ρ indicates the distance to the zero point of the line segment, a * SW and b * SW are threshold values,
For the horizontal line segment, the distance between the projected lines along the horizontal direction θ is smaller than the character width, while for the vertical line segment, the distance between the projected lines along the vertical direction (90−θ) is larger than the character height. Small,
Satisfy that the pixel between the two line segments is located inside the stroke, not the background,
The collinear line is
For line segment 1 (θ1, ρ1), line segment 2 (θ2, ρ2) and stroke width SW, θ1 = θ2 and | ρ1-ρ2 |
For the horizontal line segment, the distance between the projected lines along the horizontal direction θ is smaller than the character width, while for the vertical line segment, the distance between the projected lines along the vertical direction (90−θ) is larger than the character height. Small,
The method for restoring a concealed character according to appendix 6, wherein the pixel between two line segments is located inside the stroke, not the background.

(付記8)画像処理装置が、
入力画像におけるテキスト領域を認識対象である目標文字、背景及び前景に分割するステップと、
復元された文字を認識するステップと
を更に実行する付記1〜付記7の何れかに記載の隠蔽された文字の復元方法。
(Appendix 8) The image processing apparatus is
Dividing the text region in the input image into target characters, background and foreground to be recognized;
The method for reconstructing a concealed character according to any one of appendix 1 to appendix 7, further comprising the step of recognizing the restored character.

(付記9)画像処理装置が、
テキスト領域から認識対象である目標文字を含む目標領域を抽出するステップを更に含む、付記8に記載の隠蔽された文字の復元方法。
(Supplementary note 9) The image processing apparatus
9. The method for restoring a concealed character according to appendix 8, further comprising: extracting a target region including a target character that is a recognition target from the text region.

(付記10)前記テキスト領域から認識対象である目標文字を含む目標領域を抽出するステップは、
前記目標文字の輪郭画素を抽出するステップと、
θは目標文字の回転角度を示し、水平方向θと垂直方向(90−θ)において輪郭画素に対してHough変換を実行するステップと、
水平方向θと垂直方向(90−θ)に沿ってHough変換中の最小と最大距離値ρh1、ρh2、ρv1とρv2を求めるステップと、
四本の線(ρh1、90−θ)、(ρh2、90−θ)、(ρv1、θ)、(ρv2、θ)を使用して四つの角を算出するステップと、
前記四つの角を覆う領域を目標領域として切り出すステップと
を含む、付記9に記載の隠蔽された文字の復元方法。
(Additional remark 10) The step which extracts the target area | region containing the target character which is recognition object from the said text area | region is the following.
Extracting contour pixels of the target character;
θ indicates the rotation angle of the target character, and Hough conversion is performed on the contour pixel in the horizontal direction θ and the vertical direction (90−θ);
Obtaining minimum and maximum distance values ρ h1 , ρ h2 , ρ v1 and ρ v2 during Hough transform along the horizontal direction θ and the vertical direction (90−θ);
Calculating four angles using four lines (ρ h1 , 90−θ), (ρ h2 , 90−θ), (ρ v1 , θ), (ρ v2 , θ);
The method for restoring a concealed character according to appendix 9, comprising: cutting out an area covering the four corners as a target area.

(付記11)復元対象である隠蔽された文字を含む目標文字の筆画の幅に基づいて画像ブロックサイズを算出するように配置された画像ブロックサイズ算出部と、
前記目標文字を含む入力画像の目標領域において元領域を標記するように配置された元領域標記部と、
前記元領域における画素に対してそれぞれを中心とする各参考画像ブロックを生成するように配置された参考画像ブロック生成部と、
補完対象である入力画像の前景の境界を抽出するように配置された境界抽出部と、
前記前景の境界における画素毎に、当該画素を中心とする画像ブロックの複雑度に応じて補完優先順位を算出するように配置された補完優先順位算出部と、
前記参考画像ブロックにおける最も類似している画像ブロックを使用して、最も高い優先順位を有する画素を中心とする画像ブロックを補完するように配置された前景補完部と、
前記前景の補完が全て完了していない場合には、前記境界抽出部の処理を実行するように配置された判定部と
を備える画像処理装置。
(Supplementary Note 11) An image block size calculating unit arranged to calculate an image block size based on a stroke width of a target character including a hidden character to be restored;
An original area marking portion arranged to mark the original area in the target area of the input image including the target character;
A reference image block generator arranged to generate each reference image block centered on each of the pixels in the original region;
A boundary extraction unit arranged to extract the boundary of the foreground of the input image to be complemented;
A complementary priority calculating unit arranged to calculate a complementary priority according to the complexity of the image block centered on the pixel for each pixel at the boundary of the foreground;
A foreground complementing unit arranged to complement the image block centered on the pixel having the highest priority using the most similar image block in the reference image block;
An image processing apparatus comprising: a determination unit arranged to execute the processing of the boundary extraction unit when all of the foreground complement has not been completed.

(付記12)前記補完優先順位算出部は、画像ブロック内部の背景画素が占める割合を計測して算出した信頼係数と、画像ブロック内部の補完対象である目標文字画素が占める割合を計測して算出した信頼係数と、画像ブロック内部の異なる勾配ベクトルの数に基づいた複雑度とから前記補完優先順位を算出する、付記11に記載の画像処理装置。 (Additional remark 12) The said complementation priority calculation part measures and calculates the reliability coefficient calculated by measuring the ratio for which the background pixel in an image block occupies, and the ratio for which the target character pixel which is the complement object in an image block occupies The image processing apparatus according to appendix 11, wherein the complementary priority is calculated from the reliability coefficient obtained and the complexity based on the number of different gradient vectors inside the image block.

(付記13)前記画像ブロックサイズ算出部は、前記画像ブロックサイズを目標文字の筆画の幅から算出する、付記11に記載の画像処理装置。 (Additional remark 13) The said image block size calculation part is an image processing apparatus of Additional remark 11 which calculates the said image block size from the width | variety of the stroke of a target character.

(付記14)前記元領域標記部は、
前記目標文字における画素及び該画素の画像ブロックにおける全ての隣接する画素を含む第一のマスクを生成し、
前景画素及び該前景画素の画像ブロックにおける全ての隣接する画素以外の目標領域全体を含む第二のマスクを生成し、
前記第一のマスクと第二のマスクの重複領域を元領域として抽出する、
付記11に記載の画像処理装置。
(Supplementary Note 14)
Generating a first mask including a pixel in the target character and all adjacent pixels in an image block of the pixel;
Generating a second mask that includes the entire target region except foreground pixels and all adjacent pixels in the image block of the foreground pixels;
Extracting an overlapping region of the first mask and the second mask as an original region;
The image processing apparatus according to appendix 11.

(付記15)入力画像を圧縮するように配置された圧縮部と、
参考画像ブロックを選別するように配置された選別部と
を更に備える、付記11に記載の画像処理装置。
(Supplementary note 15) a compression unit arranged to compress an input image;
The image processing apparatus according to appendix 11, further comprising: a sorting unit arranged to sort the reference image block.

(付記16)前記目標文字の輪郭画素を抽出するように配置された輪郭画素抽出部と、
前記抽出された輪郭画素に基づいて目標文字の線分を捕捉するように配置された線分捕捉部と、
前記捕捉された線分に基づいて、一つの筆画の対になる線分であると推定される平行線分を選択するように配置された平行線分選択部と、
前記選択された平行線分に基づいて共線線分を平行線ペアとして連結するように配置された共線線分連結部と、
前記目標文字のグレー値を使用して各平行線ペアのそれぞれにより限定された領域を補完するように配置された領域補完部と
を更に備える、付記11〜付記15の何れかに記載の画像処理装置。
(Supplementary Note 16) An outline pixel extraction unit arranged to extract outline pixels of the target character;
A line segment capture unit arranged to capture a line segment of a target character based on the extracted contour pixels;
A parallel line selection unit arranged to select a parallel line segment that is presumed to be a line segment to be paired with one stroke based on the captured line segment;
A collinear line connecting portion arranged to connect collinear line segments as parallel line pairs based on the selected parallel line segments;
The image processing according to any one of Supplementary Note 11 to Supplementary Note 15, further comprising: a region complementing unit arranged to supplement a region limited by each of the parallel line pairs using the gray value of the target character. apparatus.

(付記17)前記捕捉された線分に基づいて目標文字の筆画の幅を推定するように配置された筆画幅推定部と、
前記目標文字の投影軸における文字幅と文字高さを推定するように配置されたサイズ範囲推定部とを更に備え、
Hough変換領域においては、前記の選択された平行線分は、
線分1(θ1、ρ1)、線分2(θ2、ρ2)と筆画の幅SWについては、θ1=θ2及びa*SW<|ρ1−ρ2|<b*SWとし、θは線分の回転角度を示し、ρは線分の零点までの距離を示し、a*SWとb*SWは閾値であること、
水平線分については、水平方向θに沿う投影線の間の距離は文字幅よりも小さい一方、垂直線分については、垂直方向(90−θ)に沿う投影線の間の距離は文字高さよりも小さいこと、
二本の線分の間における画素は背景ではなく筆画の内部に位置することを満たし、
前記の共線線分は、
線分1(θ1、ρ1)、線分2(θ2、ρ2)と筆画の幅SWについては、θ1=θ2及び|ρ1−ρ2|が閾値より小さいこと、
水平線分については、水平方向θに沿う投影線の間の距離は文字幅よりも小さい一方、垂直線分については、垂直方向(90−θ)に沿う投影線の間の距離は文字高さよりも小さいこと、
二本の線分の間における画素は背景ではなく筆画の内部に位置すること
とを満たす、付記16に記載の画像処理装置。
(Supplementary Note 17) A stroke width estimation unit arranged to estimate a stroke width of a target character based on the captured line segment;
A size range estimator arranged to estimate a character width and a character height on the projection axis of the target character,
In the Hough transform region, the selected parallel line segment is
For line segment 1 (θ1, ρ1), line segment 2 (θ2, ρ2) and stroke width SW, θ1 = θ2 and a * SW <| ρ1-ρ2 | <b * SW, where θ is the rotation of the line segment Indicates the angle, ρ indicates the distance to the zero point of the line segment, a * SW and b * SW are threshold values,
For the horizontal line segment, the distance between the projected lines along the horizontal direction θ is smaller than the character width, while for the vertical line segment, the distance between the projected lines along the vertical direction (90−θ) is larger than the character height. Small,
Satisfy that the pixel between the two line segments is located inside the stroke, not the background,
The collinear line is
For line segment 1 (θ1, ρ1), line segment 2 (θ2, ρ2) and stroke width SW, θ1 = θ2 and | ρ1-ρ2 |
For the horizontal line segment, the distance between the projected lines along the horizontal direction θ is smaller than the character width, while for the vertical line segment, the distance between the projected lines along the vertical direction (90−θ) is larger than the character height. Small,
The image processing apparatus according to appendix 16, wherein the pixel between the two line segments satisfies that the pixel is located inside the stroke, not the background.

(付記18)入力画像におけるテキスト領域を認識対象である目標文字、背景と前景に分割するように配置された分割部と、
復元された文字を認識するように配置された文字認識部と
を更に有する、付記11〜付記17の何れかに記載の画像処理装置。
(Supplementary Note 18) A dividing unit arranged to divide a text area in an input image into a target character to be recognized, a background, and a foreground;
The image processing apparatus according to any one of supplementary notes 11 to 17, further comprising: a character recognition unit arranged to recognize the restored character.

(付記19)テキスト領域から認識対象である目標文字を含む目標領域を抽出するように配置された目標領域抽出部を更に備える、付記18に記載の隠蔽された画像処理装置。 (Supplementary note 19) The concealed image processing device according to supplementary note 18, further comprising a target area extracting unit arranged to extract a target area including a target character to be recognized from the text area.

(付記20)前記目標領域抽出部は、
前記目標文字の輪郭画素を抽出し、
θは目標文字の回転角度を示し、水平方向θと垂直方向(90−θ)において輪郭画素に対してHough変換を実行し、
水平方向θと垂直方向(90−θ)に沿ってHough変換中の最小と最大距離値ρh1、ρh2、ρv1とρv2を求め、
四本の線(ρh1、90−θ)、(ρh2、90−θ)、(ρv1、θ)、(ρv2、θ)を使用して四つの角を算出し、
前記四つの角を覆う領域を目標領域として切り出す、
付記19に記載の隠蔽された画像処理装置。
(Supplementary note 20) The target area extraction unit
Extracting outline pixels of the target character;
θ represents the rotation angle of the target character, and Hough transformation is performed on the contour pixel in the horizontal direction θ and the vertical direction (90−θ).
Find the minimum and maximum distance values ρ h1 , ρ h2 , ρ v1 and ρ v2 during the Hough transform along the horizontal direction θ and the vertical direction (90−θ),
Use the four lines (ρ h1 , 90−θ), (ρ h2 , 90−θ), (ρ v1 , θ), (ρ v2 , θ) to calculate the four angles,
Cutting out the area covering the four corners as a target area,
The concealed image processing apparatus according to appendix 19.

1100 情報処理装置
1101 中央処理総理(CPU)
1102 読取専用メモリ(ROM)
1103 ランダムアクセスメモリ(RAM)
1104 バス
1105 入力/出力インタフェース
1106 入力部
1107 出力部
1108 記憶部
1109 通信部
1110 ドライブ
1111 着脱可能な媒体
1900 画像処理装置
1910 圧縮部
1920 画像ブロックサイズ算出部
1930 元領域標記部
1940 参考画像ブロック生成部
1950 選別部
1960 境界抽出部
1970 補完優先順位算出部
1980 前景補完部
1990 判定部
2000 画像処理装置
2010 輪郭画素抽出部
2020 線分捕捉部
2030 筆画幅推定部
2040 サイズ範囲推定部
2050 平行線分選択部
2060 共線線分連結部
2070 領域補完部
2100 画像処理装置
2110 分割部
2120 目標領域抽出部
2130 隠蔽された文字の復元装置
2140 文字認識部
1100 Information processing apparatus 1101 Central processing prime minister (CPU)
1102 Read only memory (ROM)
1103 Random Access Memory (RAM)
DESCRIPTION OF SYMBOLS 1104 Bus 1105 Input / output interface 1106 Input part 1107 Output part 1108 Storage part 1109 Communication part 1110 Drive 1111 Removable medium 1900 Image processing apparatus 1910 Compression part 1920 Image block size calculation part 1930 Original area mark part 1940 Reference image block generation part 1950 Selection unit 1960 Boundary extraction unit 1970 Complementary priority calculation unit 1980 Foreground complementation unit 1990 Determination unit 2000 Image processing device 2010 Outline pixel extraction unit 2020 Line segment capture unit 2030 Stroke width estimation unit 2040 Size range estimation unit 2050 Parallel line segment selection unit 2060 Collinear line connecting unit 2070 Region complementing unit 2100 Image processing device 2110 Dividing unit 2120 Target region extracting unit 2130 Concealed character restoration device 2140 Character recognition unit

Claims (9)

画像処理装置が、
復元対象である隠蔽された文字を含む目標文字の筆画の幅に応じて画像ブロックサイズを算出するステップと、
前記目標文字を含む入力画像の目標領域において元領域を標記するステップと、
前記元領域における画素に対してそれぞれを中心とする各参考画像ブロックを生成するステップと、
補完対象である入力画像の前景の境界を抽出するステップと、
前記前景の境界における画素毎に、当該画素を中心とする画像ブロックの複雑度に応じて補完優先順位を算出するステップと、
前記参考画像ブロックにおける最も類似している画像ブロックを使用して、最も高い優先順位を有する画素を中心とする画像ブロックを補完するステップと、
前記前景の補完が全て完了していない場合には、前記補完対象である入力画像における前景の境界の抽出処理を実行するステップと
を含む隠蔽された文字の復元方法。
The image processing device
Calculating an image block size according to a stroke width of a target character including a hidden character to be restored; and
Marking the original region in the target region of the input image containing the target character;
Generating each reference image block centered on each of the pixels in the original region;
Extracting the foreground boundary of the input image to be complemented;
For each pixel at the foreground boundary, calculating a complementation priority according to the complexity of the image block centered on the pixel;
Complementing the image block centered on the pixel with the highest priority using the most similar image block in the reference image block;
A concealed character restoration method comprising: performing foreground boundary extraction processing in the input image to be complemented when all of the foreground completion has not been completed.
画像処理装置が、
画像ブロック内部の背景画素が占める割合を計測して算出した信頼係数と、画像ブロック内部の補完対象である目標文字画素が占める割合を計測して算出した信頼係数と、画像ブロック内部の異なる勾配ベクトルの数に基づいた複雑度とから前記補完優先順位を算出する請求項1に記載の隠蔽された文字の復元方法。
The image processing device
A confidence coefficient calculated by measuring the percentage of background pixels in the image block, a confidence coefficient calculated by measuring the percentage of target character pixels to be complemented in the image block, and different gradient vectors in the image block The concealed character restoration method according to claim 1, wherein the complement priority is calculated from a complexity based on the number of characters.
画像処理装置が、
前記画像ブロックサイズを目標文字の筆画の幅から算出する請求項1に記載の隠蔽された文字の復元方法。
The image processing device
The hidden character restoration method according to claim 1, wherein the image block size is calculated from a stroke width of a target character.
前記目標文字を含む入力画像の目標領域において元領域を標記するステップは、
前記目標文字における画素及び該画素の画像ブロックにおける全ての隣接する画素を含む第一のマスクを生成するステップと、
前景画素及び該前景画素の画像ブロックにおける全ての隣接する画素以外の目標領域全体を含む第二のマスクを生成するステップと、
前記第一のマスクと第二のマスクの重複領域を元領域として抽出するステップと
を含む、請求項1に記載の隠蔽された文字の復元方法。
Marking the original region in the target region of the input image containing the target character,
Generating a first mask including pixels in the target character and all adjacent pixels in an image block of the pixels;
Generating a second mask that includes the entire target region other than the foreground pixels and all adjacent pixels in the image block of the foreground pixels;
The method for restoring a concealed character according to claim 1, further comprising: extracting an overlapping area of the first mask and the second mask as an original area.
画像処理装置が、
入力画像を圧縮すること、及び/又は、参考画像ブロックを選別することを実行するステップを更に含む、請求項1に記載の隠蔽された文字の復元方法。
The image processing device
The method of claim 1, further comprising: compressing an input image and / or selecting a reference image block.
画像処理装置が、
前記目標文字の輪郭画素を抽出するステップと、
前記抽出された輪郭画素に基づいて目標文字の線分を捕捉するステップと、
前記捕捉された線分に基づいて、一つの筆画の対になる線分であると推定される平行線分を選択するステップと、
前記選択された平行線分に基づいて共線線分を平行線ペアとして連結するステップと、
前記目標文字のグレー値を使用して各平行線ペアのそれぞれにより限定された領域を補完するステップと
を更に含む、請求項1〜請求項5の何れかに記載の隠蔽された文字の復元方法。
The image processing device
Extracting contour pixels of the target character;
Capturing a line segment of a target character based on the extracted contour pixels;
Selecting a parallel line segment that is presumed to be a line segment of a stroke based on the captured line segment; and
Connecting collinear segments as parallel line pairs based on the selected parallel segments;
The method for restoring a concealed character according to any one of claims 1 to 5, further comprising: complementing a region defined by each parallel line pair using the gray value of the target character. .
画像処理装置が、
前記捕捉された線分に基づいて目標文字の筆画の幅を推定するステップと、
前記目標文字の投影軸における文字幅と文字高さを推定するステップとを更に含み、
Hough変換領域においては、前記の選択された平行線分は、
線分1(θ1、ρ1)、線分2(θ2、ρ2)と筆画の幅SWについては、θ1=θ2及びa*SW<|ρ1−ρ2|<b*SWとし、θは線分の回転角度を示し、ρは線分の零点までの距離を示し、a*SWとb*SWは閾値であること、
水平線分については、水平方向θに沿う投影線の間の距離は文字幅よりも小さい一方、垂直線分については、垂直方向(90−θ)に沿う投影線の間の距離は文字高さよりも小さいこと、
二本の線分の間における画素は背景ではなく筆画の内部に位置すること
とを満たし、
前記の共線線分は、
線分1(θ1、ρ1)、線分2(θ2、ρ2)と筆画の幅SWについては、θ1=θ2及び|ρ1−ρ2|が閾値より小さいこと、
水平線分については、水平方向θに沿う投影線の間の距離は文字幅よりも小さい一方、垂直線分については、垂直方向(90−θ)に沿う投影線の間の距離は文字高さよりも小さいこと、
二本の線分の間における画素は背景ではなく筆画の内部に位置すること
とを満たす、請求項6に記載の隠蔽された文字の復元方法。
The image processing device
Estimating a stroke width of the target character based on the captured line segment;
Further including estimating a character width and a character height on the projection axis of the target character,
In the Hough transform region, the selected parallel line segment is
For line segment 1 (θ1, ρ1), line segment 2 (θ2, ρ2) and stroke width SW, θ1 = θ2 and a * SW <| ρ1-ρ2 | <b * SW, where θ is the rotation of the line segment Indicates the angle, ρ indicates the distance to the zero point of the line segment, a * SW and b * SW are threshold values,
For the horizontal line segment, the distance between the projected lines along the horizontal direction θ is smaller than the character width, while for the vertical line segment, the distance between the projected lines along the vertical direction (90−θ) is larger than the character height. Small,
Satisfy that the pixel between the two line segments is located inside the stroke, not the background,
The collinear line is
For line segment 1 (θ1, ρ1), line segment 2 (θ2, ρ2) and stroke width SW, θ1 = θ2 and | ρ1-ρ2 |
For the horizontal line segment, the distance between the projected lines along the horizontal direction θ is smaller than the character width, while for the vertical line segment, the distance between the projected lines along the vertical direction (90−θ) is larger than the character height. Small,
The method for restoring a concealed character according to claim 6, wherein the pixel between the two line segments is located inside the stroke, not the background.
画像処理装置が、
入力画像におけるテキスト領域を認識対象である目標文字、背景及び前景に分割するステップと、
復元された文字を認識するステップと
を更に実行する請求項1〜請求項7の何れかに記載の隠蔽された文字の復元方法。
The image processing device
Dividing the text region in the input image into target characters, background and foreground to be recognized;
The method for recognizing a concealed character according to claim 1, further comprising: recognizing the reconstructed character.
復元対象である隠蔽された文字を含む目標文字の筆画の幅に基づいて画像ブロックサイズを算出するように配置された画像ブロックサイズ算出部と、
前記目標文字を含む入力画像の目標領域において元領域を標記するように配置された元領域標記部と、
前記元領域における画素に対してそれぞれを中心とする各参考画像ブロックを生成するように配置された参考画像ブロック生成部と、
補完対象である入力画像の前景の境界を抽出するように配置された境界抽出部と、
前記前景の境界における画素毎に、当該画素を中心とする画像ブロックの複雑度に応じて補完優先順位を算出するように配置された補完優先順位算出部と、
前記参考画像ブロックにおける最も類似している画像ブロックを使用して、最も高い優先順位を有する画素を中心とする画像ブロックを補完するように配置された前景補完部と、
前記前景の補完が全て完了していない場合には、前記境界抽出部の処理を実行するように配置された判定部と
を備える画像処理装置。
An image block size calculator arranged to calculate the image block size based on the stroke width of the target character including the hidden character to be restored;
An original area marking portion arranged to mark the original area in the target area of the input image including the target character;
A reference image block generator arranged to generate each reference image block centered on each of the pixels in the original region;
A boundary extraction unit arranged to extract the boundary of the foreground of the input image to be complemented;
A complementary priority calculating unit arranged to calculate a complementary priority according to the complexity of the image block centered on the pixel for each pixel at the boundary of the foreground;
A foreground complementing unit arranged to complement the image block centered on the pixel having the highest priority using the most similar image block in the reference image block;
An image processing apparatus comprising: a determination unit arranged to execute the processing of the boundary extraction unit when all of the foreground complement has not been completed.
JP2010241157A 2010-03-31 2010-10-27 Hidden character restoration method and image processing apparatus Active JP5561100B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201010137689.4 2010-03-31
CN2010101376894A CN102208022A (en) 2010-03-31 2010-03-31 Shaded character recovery device and method thereof, shaded character recognition device and method thereof

Publications (2)

Publication Number Publication Date
JP2011216070A true JP2011216070A (en) 2011-10-27
JP5561100B2 JP5561100B2 (en) 2014-07-30

Family

ID=44696844

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010241157A Active JP5561100B2 (en) 2010-03-31 2010-10-27 Hidden character restoration method and image processing apparatus

Country Status (2)

Country Link
JP (1) JP5561100B2 (en)
CN (1) CN102208022A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140107163A (en) * 2014-08-13 2014-09-04 최승규 The method and device to recover a shredded document
CN110796585A (en) * 2019-10-28 2020-02-14 中国人民解放军空军工程大学 Image hiding method based on deep learning
CN114511853A (en) * 2022-04-21 2022-05-17 华南理工大学 Character image writing track recovery effect discrimination method
CN117331523B (en) * 2023-10-26 2024-04-26 湖南给力达电子有限公司 Image processing method for flexible display screen bending interface

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103679764B (en) * 2012-08-31 2016-12-21 西门子公司 A kind of image generating method and device
CN109117843B (en) * 2018-08-01 2022-04-15 百度在线网络技术(北京)有限公司 Character occlusion detection method and device
CN109522900B (en) * 2018-10-30 2020-12-18 北京陌上花科技有限公司 Natural scene character recognition method and device
CN111340030B (en) * 2020-02-14 2021-12-21 北京市商汤科技开发有限公司 Image processing method and device, electronic equipment and computer readable storage medium
CN114820876A (en) * 2021-01-28 2022-07-29 北京字跳网络技术有限公司 Method, device and equipment for processing outline effect of characters and storage medium
CN113313215B (en) * 2021-07-30 2021-10-29 腾讯科技(深圳)有限公司 Image data processing method, image data processing device, computer equipment and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06309498A (en) * 1993-02-25 1994-11-04 Fujitsu Ltd Picture extracting system
JPH1185904A (en) * 1997-09-03 1999-03-30 Matsushita Graphic Commun Syst Inc Method for segmenting character and device for recognizing character using the same
JP2009043102A (en) * 2007-08-09 2009-02-26 Fujitsu Ltd Character recognition program, character recognition device, and character recognition method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07121734A (en) * 1993-10-21 1995-05-12 Fuji Xerox Co Ltd Character image editing device
JPH08339416A (en) * 1995-06-13 1996-12-24 Kobe Steel Ltd Character reading method
CN101377811B (en) * 2007-08-31 2010-06-30 北京万集科技有限责任公司 Method and system for recognizing license plate
CN101520852B (en) * 2008-02-29 2011-09-07 富士通株式会社 Vanishing point detecting device and detecting method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06309498A (en) * 1993-02-25 1994-11-04 Fujitsu Ltd Picture extracting system
JPH1185904A (en) * 1997-09-03 1999-03-30 Matsushita Graphic Commun Syst Inc Method for segmenting character and device for recognizing character using the same
JP2009043102A (en) * 2007-08-09 2009-02-26 Fujitsu Ltd Character recognition program, character recognition device, and character recognition method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140107163A (en) * 2014-08-13 2014-09-04 최승규 The method and device to recover a shredded document
KR101635675B1 (en) 2014-08-13 2016-07-01 최승규 The method and device to recover a shredded document
CN110796585A (en) * 2019-10-28 2020-02-14 中国人民解放军空军工程大学 Image hiding method based on deep learning
CN114511853A (en) * 2022-04-21 2022-05-17 华南理工大学 Character image writing track recovery effect discrimination method
CN114511853B (en) * 2022-04-21 2022-07-12 华南理工大学 Character image writing track recovery effect discrimination method
CN117331523B (en) * 2023-10-26 2024-04-26 湖南给力达电子有限公司 Image processing method for flexible display screen bending interface

Also Published As

Publication number Publication date
JP5561100B2 (en) 2014-07-30
CN102208022A (en) 2011-10-05

Similar Documents

Publication Publication Date Title
JP5561100B2 (en) Hidden character restoration method and image processing apparatus
US9584729B2 (en) Systems and methods for improving video captured using mobile devices
US10943106B2 (en) Recognizing text in image data
US20190304066A1 (en) Synthesis method of chinese printed character images and device thereof
JP6115323B2 (en) Document processing apparatus, document processing method, and scanner
US8861884B1 (en) Training classifiers for deblurring images
JP5554984B2 (en) Pattern recognition method and pattern recognition apparatus
JP5896245B2 (en) How to crop a text image
US11244144B2 (en) Age recognition method, computer storage medium and electronic device
RU2631765C1 (en) Method and system of correcting perspective distortions in images occupying double-page spread
JP2016523397A (en) Method and system for information recognition
JP5695257B1 (en) Image processing apparatus, image processing method, and image processing program
CN114255337A (en) Method and device for correcting document image, electronic equipment and storage medium
CN112308866A (en) Image processing method, image processing device, electronic equipment and storage medium
JP6542230B2 (en) Method and system for correcting projected distortion
US9077926B2 (en) Image processing method and image processing apparatus
JP2014535101A (en) Method and apparatus for facilitating detection of text in an image
Xie et al. Feature dimensionality reduction for example-based image super-resolution
CN116452426B (en) Panorama stitching method and device
JP4983526B2 (en) Data processing apparatus and data processing program
CN115272201A (en) Method, system, apparatus, and medium for enhancing generalization of polyp segmentation model
Rosner et al. Image skew detection: A comprehensive study
JP5865687B2 (en) Image feature extraction device and program thereof
JP6379980B2 (en) Image processing apparatus, image processing program, and image processing method
JP2014029677A (en) Image processing device, image processing method, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130805

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140513

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140526

R150 Certificate of patent or registration of utility model

Ref document number: 5561100

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150