JP2016086273A - Binarization method of image, program, and binarizing device - Google Patents

Binarization method of image, program, and binarizing device Download PDF

Info

Publication number
JP2016086273A
JP2016086273A JP2014217393A JP2014217393A JP2016086273A JP 2016086273 A JP2016086273 A JP 2016086273A JP 2014217393 A JP2014217393 A JP 2014217393A JP 2014217393 A JP2014217393 A JP 2014217393A JP 2016086273 A JP2016086273 A JP 2016086273A
Authority
JP
Japan
Prior art keywords
pixel
peak
value
difference
binarization
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014217393A
Other languages
Japanese (ja)
Other versions
JP6335097B2 (en
Inventor
政憲 横田
Masanori Yokota
政憲 横田
滋子 文野
Shigeko Fumino
滋子 文野
雅史 前田
Masafumi Maeda
雅史 前田
鵜飼 和歳
Kazutoshi Ukai
和歳 鵜飼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Glory Ltd
Original Assignee
Glory Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Glory Ltd filed Critical Glory Ltd
Priority to JP2014217393A priority Critical patent/JP6335097B2/en
Publication of JP2016086273A publication Critical patent/JP2016086273A/en
Application granted granted Critical
Publication of JP6335097B2 publication Critical patent/JP6335097B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To realize binarization which substantially prevents blur or crush.SOLUTION: A binarizing device detects a pixel, as a ho horizontal peak pixel, having an extremal value when an input image of a multiple value is scanned along in a horizontal direction. A first to a forth differences (DIF, DIF, DIF, and DIF) of a pixel value (v[x,y]) of the horizontal peak pixel and the other reference pixel value (v[x-1,y], v[x+1,y], v[x-2,y], and v[x+2,y]) are calculated with reference to a pixel value of continuous five pixels in the horizontal direction including the horizontal peak pixel as a center. A sum of a left side edge intensity based on the difference (DIFand DIF) in the left side of horizontal peak pixel and a right edge intensity based on the difference (DIFand DIF) of the right side of horizontal peak pixel is obtained as a horizontal peak intensity. In the case where an absolute value of the horizontal peak intensity is equal to a predetermined value or more, the horizontal peak pixel is binarized into 0 or 1 in accordance with a code of the horizontal peak intensity, and the same process is performed in a vertical direction.SELECTED DRAWING: Figure 7

Description

本発明は、スキャナ等で読取った多値画像を二値化する二値化方法及びそれを実現するためのプログラム、並びに、二値化装置に関する。   The present invention relates to a binarization method for binarizing a multilevel image read by a scanner or the like, a program for realizing the binarization method, and a binarization apparatus.

二値化処理では、スキャナ等を介して取り込んだ多値の入力画像(濃淡画像)を或る閾値と比較することで入力画像の各画素を二値化し、これによって二値化画像を得る。例えば、閾値未満の画素値を有する画素を黒であると判断し(黒の画素値にて二値化し)、閾値以上の画素値を有する画素を白であると判断する(白の画素値にて二値化する)。予め定められた固定値を閾値として用いる場合もあるし、入力画像に基づき判別分析法等を用いて閾値を設定する場合もある。   In the binarization processing, each pixel of the input image is binarized by comparing a multi-value input image (grayscale image) captured via a scanner or the like with a certain threshold value, thereby obtaining a binarized image. For example, a pixel having a pixel value less than the threshold is determined to be black (binarization with a black pixel value), and a pixel having a pixel value equal to or greater than the threshold is determined to be white (the white pixel value is And binarize). A predetermined fixed value may be used as a threshold value, or a threshold value may be set using a discriminant analysis method or the like based on an input image.

二値化を最適化するための閾値の設定方法が様々に提案されているが、スキャナの分解能不足等に起因して、細い黒線部分が閾値以上となって白であると判断されたり、黒領域に隣接する白色部分が閾値未満となって黒であると判断されたりすることがある。前者は“かすれ”と呼ばれ、後者は“つぶれ”と呼ばれる。   Various threshold setting methods for optimizing binarization have been proposed, but due to insufficient resolution of the scanner etc., it is judged that the thin black line part is more than the threshold and is white, The white part adjacent to the black region may be determined to be black because it is less than the threshold value. The former is called “blurred” and the latter is called “collapsed”.

つぶれ又はかすれの対象となり得る画素は、通常、近傍画素に比べて濃度が淡い尾根又は濃度が濃い谷になることに注目し、特許文献1では、近傍画素に比べて尾根又は谷になっている画素を検出し、検出画素に対しては閾値を用いずに二値化を行う一方、非検出画素に対しては閾値を用いて二値化を行っている。特許文献1では、注目画素が尾根又は谷の画素に相当するかを検出する際、注目画素の隣接画素のみ(特許文献1の図7)、又は、注目画素から1画素分隔てた位置に配置される画素のみ(特許文献1の図8又は図9)を参照している。   Focusing on the fact that the pixel that can be the target of crushing or blurring is usually a ridge having a lighter density or a valley having a higher density than the neighboring pixels, and in Patent Document 1, it is a ridge or a valley compared to the neighboring pixels. Pixels are detected and binarization is performed without using a threshold for detected pixels, while binarization is performed for non-detected pixels using a threshold. In Patent Document 1, when detecting whether a pixel of interest corresponds to a pixel of a ridge or a valley, only the pixel adjacent to the pixel of interest (FIG. 7 of Patent Document 1) or a position separated by one pixel from the pixel of interest Only the pixels to be processed (FIG. 8 or FIG. 9 of Patent Document 1) are referred to.

特開平5−284356号公報JP-A-5-284356

特許文献1の方法により、二値化の過程でかすれ及びつぶれを或る程度は解消できる。即ち、二値化の過程で、或る程度は、かすれた部分を黒と判定し且つつぶれた部分を白と判定することができる。しかしながら、その方法には改善の余地がある(詳細は後述)。   By the method of Patent Document 1, blurring and crushing can be solved to some extent in the binarization process. That is, in the binarization process, it is possible to determine a faint portion as black and a collapsed portion as white to some extent. However, there is room for improvement in the method (details will be described later).

そこで本発明は、かすれやつぶれの解消に寄与する画像の二値化方法、プログラム及び二値化装置を提供することを目的とする。   Therefore, an object of the present invention is to provide an image binarization method, a program, and a binarization apparatus that contribute to the elimination of blurring and crushing.

本発明に係る二値化方法は、多値の入力画像を二値化する二値化方法であって、前記入力画像を所定方向に沿って走査したときに極値をとる画素をピーク画素として抽出するピーク画素抽出工程と、前記所定方向に沿って連続して並ぶ5つの画素を含み且つ前記ピーク画素を中心画素として含む評価画素群中の各画素の画素値に基づいて、前記ピーク画素を二値化する二値化工程と、を含むことを特徴とする。   A binarization method according to the present invention is a binarization method for binarizing a multi-valued input image, and a pixel having an extreme value when the input image is scanned along a predetermined direction is defined as a peak pixel. Extracting the peak pixel based on a pixel value of each pixel in an evaluation pixel group including a peak pixel extracting step to extract and five pixels arranged continuously along the predetermined direction and including the peak pixel as a central pixel; And a binarization step for binarization.

具体的には例えば、前記二値化方法において、前記評価画素群は、前記所定方向において前記ピーク画素の両隣に位置する第1画素及び第2画素と、前記所定方向において前記ピーク画素から見て前記第1画素の外側に位置する第3画素及び前記第2画素の外側に位置する第4画素を含み、前記第1画素は前記ピーク画素及び前記第3画素間に位置するとともに、前記第2画素は前記ピーク画素及び前記第4画素間に位置し、前記二値化工程では、前記ピーク画素と前記第1〜第4画素との間における画素値の第1〜第4差分に基づき、前記ピーク画素を二値化すると良い。   Specifically, for example, in the binarization method, the evaluation pixel group includes a first pixel and a second pixel located on both sides of the peak pixel in the predetermined direction, and the peak pixel in the predetermined direction. A third pixel located outside the first pixel and a fourth pixel located outside the second pixel, wherein the first pixel is located between the peak pixel and the third pixel, and the second pixel The pixel is located between the peak pixel and the fourth pixel, and in the binarization step, based on first to fourth differences in pixel values between the peak pixel and the first to fourth pixels, It is preferable to binarize the peak pixel.

より具体的には例えば、前記二値化方法は、前記ピーク画素における第1エッジ強度及び第2エッジ強度の和を前記ピーク画素のピーク強度として導出するピーク強度導出工程を更に含み、前記ピーク強度導出工程では、前記第1差分と前記第3差分が同符号であって又は前記第1差分がゼロであって且つ前記第3差分の絶対値が前記第1差分の絶対値より大きいとき、前記第3差分を前記第1エッジ強度として導出する一方で、そうでないとき、前記第1差分を前記第1エッジ強度として導出し、前記第2差分と前記第4差分が同符号であって又は前記第2差分がゼロであって且つ前記第4差分の絶対値が前記第2差分の絶対値より大きいとき、前記第4差分を前記第2エッジ強度として導出する一方で、そうでないとき、前記第2差分を前記第2エッジ強度として導出し、前記二値化工程では、前記ピーク強度の絶対値が所定値以上のとき、前記ピーク強度の符号に基づいて前記ピーク画素を二値化すると良い。   More specifically, for example, the binarization method further includes a peak intensity derivation step of deriving a sum of the first edge intensity and the second edge intensity in the peak pixel as the peak intensity of the peak pixel, and the peak intensity In the derivation step, when the first difference and the third difference have the same sign or the first difference is zero and the absolute value of the third difference is larger than the absolute value of the first difference, Deriving a third difference as the first edge strength, otherwise, deriving the first difference as the first edge strength, and the second difference and the fourth difference have the same sign or When the second difference is zero and the absolute value of the fourth difference is greater than the absolute value of the second difference, the fourth difference is derived as the second edge strength, while when not, 2 differences Derives a serial second edge intensity, the binarization process, when the absolute value of the peak intensity is a predetermined value or more, may binarizing said peak pixel based on the sign of the peak intensity.

そして例えば、前記二値化工程では、前記ピーク強度の絶対値が前記所定値未満のピーク画素、及び、前記ピーク画素以外の画素については、閾値を用いて二値化すると良い。   For example, in the binarization step, the peak pixels whose absolute value of the peak intensity is less than the predetermined value and pixels other than the peak pixels may be binarized using a threshold value.

また例えば、前記閾値は、予め設定された固定値であって良い、又は、前記入力画像に基づいて設定されても良い。   Further, for example, the threshold value may be a fixed value set in advance, or may be set based on the input image.

そして、前記二値化方法をコンピュータに実現させるためのプログラムを形成すると良い。   And it is good to form the program for making a computer implement | achieve the said binarization method.

また本発明に係る二値化装置は、多値の入力画像を二値化する二値化装置であって、前記入力画像を取得する入力画像取得部と、前記入力画像を所定方向に沿って走査したときに極値をとる画素をピーク画素として抽出するピーク画素抽出部と、前記所定方向に沿って連続して並ぶ5つの画素を含み且つ前記ピーク画素を中心画素として含む評価画素群中の各画素の画素値に基づいて、前記ピーク画素を二値化する二値化部と、を備えることを特徴とする。   The binarization apparatus according to the present invention is a binarization apparatus that binarizes a multi-value input image, the input image acquisition unit acquiring the input image, and the input image along a predetermined direction. A peak pixel extraction unit that extracts a pixel that takes an extreme value when scanned as a peak pixel, and an evaluation pixel group that includes five pixels arranged continuously along the predetermined direction and includes the peak pixel as a central pixel. A binarization unit that binarizes the peak pixel based on a pixel value of each pixel.

本発明によれば、連続する5つの画素を含んだ評価画素群中の各画素の画素値に基づいてピーク画素を二値化するため、ピーク画素の近傍の濃淡変化を詳細に考慮することができ、かすれやつぶれの生じにくい(換言すれば、かすれやつぶれが解消された)良好な二値化を実現できる。   According to the present invention, since the peak pixel is binarized based on the pixel value of each pixel in the evaluation pixel group including five consecutive pixels, it is possible to consider in detail the change in shading near the peak pixel. Therefore, it is possible to realize a good binarization in which fading or crushing is difficult to occur (in other words, fading or crushing is eliminated).

本発明の第1実施形態に係る第1実施形態に係る文字認識装置の概略全体ブロック図である。It is a schematic whole block diagram of the character recognition apparatus which concerns on 1st Embodiment which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係り、二次元画像に関する軸、方向、及び、画素の位置を定義するための図である。FIG. 4 is a diagram for defining an axis, a direction, and a pixel position related to a two-dimensional image according to the first embodiment of the present invention. 本発明の第1実施形態に係り、入力画像における画素値と濃度の関係(a)及び二値化画像における画素値と色の関係(b)を示す図である。It is a figure which concerns on 1st Embodiment of this invention and shows the relationship (a) of the pixel value and density in an input image, and the relationship (b) of the pixel value and color in a binarized image. 本発明の第1実施形態に係り、入力画像の濃淡分布の例を示す図である。It is a figure which concerns on 1st Embodiment of this invention and shows the example of the light / dark distribution of an input image. 本発明の第1実施形態に係る二値化処理のフローチャートである。It is a flowchart of the binarization process which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る二値化処理のフローチャートである。It is a flowchart of the binarization process which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係り、水平エッジ強度の導出方法を説明するための図である。It is a figure for demonstrating the derivation | leading-out method of horizontal edge intensity | strength concerning 1st Embodiment of this invention. 本発明の第1実施形態に係り、水平ピーク強度との関連において、つぶれ候補画素又はかすれ候補画素への分類条件を説明するための図である。It is a figure for demonstrating the classification | category conditions to a collapse candidate pixel or a blurred candidate pixel regarding 1st Embodiment of this invention in relation to a horizontal peak intensity | strength. 本発明の第1実施形態に係り、垂直ピーク強度との関連において、つぶれ候補画素又はかすれ候補画素への分類条件を説明するための図である。It is a figure for demonstrating the classification conditions to a collapse candidate pixel or a blur candidate pixel regarding 1st Embodiment of this invention in relation to a vertical peak intensity | strength. 本発明の第1実施形態に係り、二値化の具体例を示す図である。It is a figure which concerns on 1st Embodiment of this invention and shows the specific example of binarization. 本発明の第1実施形態の矛盾解決処理が適用される具体例を示す図である。It is a figure which shows the specific example to which the contradiction resolution process of 1st Embodiment of this invention is applied. 本発明の第2実施形態に係る文字認識装置の一部ブロック図である。It is a partial block diagram of the character recognition apparatus which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る文字認識手順の説明図である。It is explanatory drawing of the character recognition procedure which concerns on 2nd Embodiment of this invention. 図1の二値化画像生成部の機能ブロック図である。It is a functional block diagram of the binarized image generation part of FIG.

以下、本発明の実施形態の例を、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。尚、本明細書では、記述の簡略化上、情報、信号、物理量又は部材等を参照する記号又は符号を記すことによって、該記号又は符号に対応する情報、信号、物理量又は部材等の名称を省略又は略記することがある。   Hereinafter, an example of an embodiment of the present invention will be specifically described with reference to the drawings. In each of the drawings to be referred to, the same part is denoted by the same reference numeral, and redundant description regarding the same part is omitted in principle. In this specification, for simplification of description, the names of information, signals, physical quantities, members, etc. corresponding to the symbols or signs are indicated by writing symbols or signs referring to information, signals, physical quantities, members, etc. Omitted or abbreviated.

<<第1実施形態>>
本発明の第1実施形態を説明する。図1は、第1実施形態に係る文字認識装置1の概略全体ブロック図である。文字認識装置1は、入力画像取得部10と、二値化画像生成部20と、文字認識処理部30と、出力部40と、を備える。
<< First Embodiment >>
A first embodiment of the present invention will be described. FIG. 1 is a schematic overall block diagram of a character recognition device 1 according to the first embodiment. The character recognition device 1 includes an input image acquisition unit 10, a binarized image generation unit 20, a character recognition processing unit 30, and an output unit 40.

入力画像取得部10は、カメラ、スキャナ又は通信回線(インターネット網など)を介して入力画像を取得する。入力画像は任意の文字を含む二次元画像である。文字を含む画像とは、詳細には、文字についての画像情報を含んだ画像を意味する。文字を含む二次元画像は、例えば、手書き又は印字による文字が記載された帳票の画像であって良い。入力画像取得部10は、取得した入力画像を記憶する入力画像記憶部としても機能する。   The input image acquisition unit 10 acquires an input image via a camera, a scanner, or a communication line (Internet network or the like). The input image is a two-dimensional image including arbitrary characters. In detail, the image including characters means an image including image information about characters. The two-dimensional image including characters may be, for example, an image of a form on which handwritten or printed characters are described. The input image acquisition unit 10 also functions as an input image storage unit that stores the acquired input image.

二値化画像生成部20は、入力画像を二値化することで二値化画像を生成する。文字認識処理部30は、二値化画像に対し公知の文字認識処理を適用することで入力画像に含まれている文字を認識する。出力部40は、文字認識処理部30による文字の認識結果を出力する。文字認識処理部30による文字の認識結果は、データとして文字認識装置1に接続又は内包されたメモリ(不図示)に出力されても良いし、映像として文字認識装置1に接続又は内包された表示装置(不図示)に出力されても良いし、通信回線を介して文字認識装置1の外部装置(不図示)に出力されても良い。入力画像取得部10と二値化画像生成部20と文字認識処理部30と出力部40とは、二値化画像生成処理及び文字認識処理並びに制御を行う演算部(不図示)と、二値化画像生成処理及び文字認識処理並びに制御を行うプログラムが記憶されたメモリ(不図示)と、画像データ及び演算データを格納する記憶部(不図示)とで構成される。   The binarized image generation unit 20 generates a binarized image by binarizing the input image. The character recognition processing unit 30 recognizes characters included in the input image by applying a known character recognition process to the binarized image. The output unit 40 outputs a character recognition result by the character recognition processing unit 30. The character recognition result by the character recognition processing unit 30 may be output as data to a memory (not shown) connected to or included in the character recognition device 1, or displayed as a video connected to or included in the character recognition device 1. It may be output to a device (not shown) or may be output to an external device (not shown) of the character recognition device 1 via a communication line. The input image acquisition unit 10, the binarized image generation unit 20, the character recognition processing unit 30, and the output unit 40 are a calculation unit (not shown) that performs binarized image generation processing, character recognition processing, and control, and binary processing. A memory (not shown) in which a program for performing a digitized image generation process, a character recognition process, and control is stored, and a storage unit (not shown) in which image data and calculation data are stored.

図2に示す如く、入力画像又は二値化画像などの任意の二次元画像は、互いに直交するX軸及びY軸方向の夫々に沿って複数の画素が配列されることで形成される。X軸は二次元画像の水平方向に平行であって且つY軸は二次元画像の垂直方向に平行であるものとする。二次元画像について方向を考える場合、水平方向は左右方向に平行であって且つ垂直方向は上下方向に平行であるとする。二次元画像中の或る1つの画素を記号P[x,y]にて表す。二次元画像において、画素P[x,y]から右、左、下、上にi画素分だけ離れた位置に配置される画素を、夫々、記号P[x+i,y]、P[x−i,y]、P[x,y+i]、P[x,y−i]にて表す(iは整数)。   As shown in FIG. 2, an arbitrary two-dimensional image such as an input image or a binarized image is formed by arranging a plurality of pixels along each of the X axis and Y axis directions orthogonal to each other. It is assumed that the X axis is parallel to the horizontal direction of the two-dimensional image and the Y axis is parallel to the vertical direction of the two-dimensional image. When considering directions for a two-dimensional image, it is assumed that the horizontal direction is parallel to the left-right direction and the vertical direction is parallel to the up-down direction. A certain pixel in the two-dimensional image is represented by a symbol P [x, y]. In the two-dimensional image, pixels arranged at positions separated by i pixels on the right, left, lower, and upper sides from the pixel P [x, y] are represented by symbols P [x + i, y] and P [xi, respectively. , Y], P [x, y + i], and P [x, y−i] (i is an integer).

入力画像は、3段階以上で画素値が量子化された多値の画像である。即ち、入力画像を形成する各画素の画素値は、3段階以上のデジタル値の何れかをとる。ここでは、入力画像が8ビットで表現されたグレースケール画像であるとする。従って、入力画像の各画素の画素値は、0以上且つ255以下の何れかの整数値をとる。図3(a)に示す如く、入力画像中の或る画素において、画素値が0であるとき当該画素の濃度が最も濃く(従って輝度が最も低く)、画素値が0から255に向けて増大するにつれて当該画素の濃度が淡くなっていくものとする(従って輝度が増大していくものとする)。二値化画像では、各画素が黒画素(黒色を有する画素)又は白画素(白色を有する画素)に分類される。図3(b)に示す如く、二値化画像中の或る画素において、画素値が0であれば当該画素は白画素であり、画素値が1であれば当該画素は黒画素である。尚、入力画像及び二値化画像において、画素値と濃度の関係は、ここで想定されるものに限定されない。   The input image is a multi-valued image in which pixel values are quantized in three or more stages. That is, the pixel value of each pixel forming the input image takes one of three or more digital values. Here, it is assumed that the input image is a grayscale image expressed by 8 bits. Therefore, the pixel value of each pixel of the input image takes an integer value of 0 or more and 255 or less. As shown in FIG. 3A, in a certain pixel in the input image, when the pixel value is 0, the density of the pixel is the highest (and therefore the luminance is the lowest), and the pixel value increases from 0 to 255. It is assumed that the density of the pixel becomes lighter as the time goes on (thus, the luminance increases). In the binarized image, each pixel is classified into a black pixel (pixel having black color) or a white pixel (pixel having white color). As shown in FIG. 3B, in a certain pixel in the binarized image, if the pixel value is 0, the pixel is a white pixel, and if the pixel value is 1, the pixel is a black pixel. In the input image and the binarized image, the relationship between the pixel value and the density is not limited to that assumed here.

入力画像の二値化を行う際、かすれやつぶれが問題になることがある。本来黒画素と判断されるべきであるが、周辺の濃度が相対的に薄いこと及びスキャナの分解能不足等に起因して白画素と判断されうる画素が、かすれの部分に相当する。一方、本来白画素と判断されるべきであるが、周辺の濃度が相対的に濃いこと及びスキャナの分解能不足等に起因して黒画素と判断されうる画素が、つぶれの部分に相当する。   When binarizing an input image, blurring or collapse may be a problem. Originally, it should be determined as a black pixel, but a pixel that can be determined as a white pixel due to a relatively low density in the periphery and insufficient resolution of the scanner corresponds to a faint portion. On the other hand, a pixel that should be originally determined as a white pixel, but a pixel that can be determined as a black pixel due to a relatively high density in the periphery and insufficient resolution of the scanner, corresponds to a collapsed portion.

図4に、文字「職」を含んだ入力画像の濃淡分布の例を示す。図4では、X軸に平行なA線に沿って入力画像の画素値を走査したときの濃淡分布(画素値の分布)の様子と、Y軸に平行なB線に沿って入力画像の画素値を走査したときの濃淡分布(画素値の分布)の様子が示されている。図4において、白丸の部分が白と判断されるべきつぶれの部分に相当し、黒丸の部分が黒と判断されるべきかすれの部分に相当する。   FIG. 4 shows an example of the light and shade distribution of the input image including the character “job”. In FIG. 4, the density distribution (pixel value distribution) when the pixel values of the input image are scanned along the A line parallel to the X axis, and the pixels of the input image along the B line parallel to the Y axis. A shade distribution (pixel value distribution) when a value is scanned is shown. In FIG. 4, the white circle portion corresponds to a collapsed portion that should be determined as white, and the black circle portion corresponds to a blurred portion that should be determined as black.

本実施形態では、二値化画像の生成過程において、入力画像の各画素がかすれ又はつぶれの画素になりえるか否かを推定し、その推定結果を利用して、本来あるべき二値化画像を生成する。例えば、かすれの画素と推定される画素(後述のかすれ候補画素に相当)は「1」の画素、即ち黒画素に二値化すると共に、つぶれの画素と推定される画素(後述のつぶれ候補画素に相当)は「0」の画素、即ち白画素に二値化する。   In this embodiment, in the process of generating a binarized image, it is estimated whether each pixel of the input image can be a faint or collapsed pixel, and the binarized image that should be originally used is obtained by using the estimation result. Is generated. For example, a pixel that is estimated to be a faint pixel (corresponding to a faint candidate pixel that will be described later) is binarized to a pixel of “1”, that is, a black pixel, and a pixel that is estimated to be a crushed pixel (a shadow candidate pixel that will be described later) 2) is binarized into “0” pixels, that is, white pixels.

[フローチャート]
図5及び図6に、入力画像から二値化画像を生成するための二値化処理のフローチャートを示す。二値化画像生成部20によって二値化処理が実行される。二値化処理では、まず、図5のステップS11〜ステップS17の処理が順次実行される。
[flowchart]
5 and 6 are flowcharts of the binarization process for generating the binarized image from the input image. A binarization process is executed by the binarized image generation unit 20. In the binarization process, first, the processes in steps S11 to S17 in FIG. 5 are sequentially performed.

ステップS11において、二値化画像生成部20は、入力画像を水平方向に沿って走査したときに画素値が極値をとっている画素(換言すれば、入力画像の水平方向において画素値が極値をとっている画素)を水平ピーク画素として入力画像から抽出する。つまり例えば、入力画像中の或る注目画素P[x,y]の画素値vに関し、“v[x−1,y]<v[x,y]”且つ“v[x,y]>v[x+1,y]”が成立する場合、又は、“v[x−1,y]>v[x,y]”且つ“v[x,y]<v[x+1,y]”が成立する場合、注目画素P[x,y]は水平ピーク画素として抽出される。ここで、v[x,y]は、入力画像中の画素P[x,y]の画素値を表す。従って例えば、v[x−1,y]、v[x+1,y]は、夫々、入力画像において画素P[x,y]の左に隣接する画素P[x−1,y]の画素値、画素P[x,y]の右に隣接する画素P[x+1,y]の画素値を表す。   In step S <b> 11, the binarized image generation unit 20 detects a pixel whose pixel value is an extreme value when the input image is scanned along the horizontal direction (in other words, the pixel value is extremely high in the horizontal direction of the input image). A pixel having a value) is extracted from the input image as a horizontal peak pixel. That is, for example, regarding the pixel value v of a certain pixel of interest P [x, y] in the input image, “v [x−1, y] <v [x, y]” and “v [x, y]> v When [x + 1, y] ”is satisfied, or when“ v [x−1, y]> v [x, y] ”and“ v [x, y] <v [x + 1, y] ”are satisfied. The target pixel P [x, y] is extracted as a horizontal peak pixel. Here, v [x, y] represents the pixel value of the pixel P [x, y] in the input image. Therefore, for example, v [x−1, y] and v [x + 1, y] are respectively the pixel values of the pixel P [x−1, y] adjacent to the left of the pixel P [x, y] in the input image, The pixel value of the pixel P [x + 1, y] adjacent to the right of the pixel P [x, y] is represented.

注目画素P[x,y]と注目画素P[x,y]の隣接画素P[x−1,y]及び/又はP[x+1,y]とで画素値が互いに同じであっても、注目画素P[x,y]は水平ピーク画素となりうる。例えば、 “v[x−1,y]=v[x,y]”であっても、“v[x−2,y]<v[x,y]”且つ“v[x,y]>v[x+1,y]”が成立する場合又は“v[x−2,y]>v[x,y]”且つ“v[x,y]<v[x+1,y]”が成立する場合には、注目画素P[x,y]が水平ピーク画素として抽出されても良い。   Even if the pixel value of the pixel of interest P [x, y] and the adjacent pixel P [x-1, y] and / or P [x + 1, y] of the pixel of interest P [x, y] are the same, The pixel P [x, y] can be a horizontal peak pixel. For example, even if “v [x−1, y] = v [x, y]”, “v [x−2, y] <v [x, y]” and “v [x, y]> v [x + 1, y] ”holds or“ v [x−2, y]> v [x, y] ”and“ v [x, y] <v [x + 1, y] ”hold The pixel of interest P [x, y] may be extracted as a horizontal peak pixel.

ステップS12において、二値化画像生成部20は、水平ピーク画素ごとに水平ピーク強度を導出する。但し、この水平ピーク強度を導出する際には、水平ピーク画素の左右2画素ずつの画素値を参照し、左側及び右側のエッジ強度の和を水平ピーク強度とする。   In step S12, the binarized image generation unit 20 derives the horizontal peak intensity for each horizontal peak pixel. However, when this horizontal peak intensity is derived, the pixel values of the left and right pixels of the horizontal peak pixel are referred to, and the sum of the left and right edge intensity is set as the horizontal peak intensity.

図7(a)及び(b)を参照し、水平ピーク画素が画素P[x,y]であると仮定して、ステップS12における水平ピーク強度の導出方法を具体的に説明する。   With reference to FIGS. 7A and 7B, assuming that the horizontal peak pixel is the pixel P [x, y], the method for deriving the horizontal peak intensity in step S12 will be specifically described.

二値化画像生成部20は、まず、水平ピーク画素P[x,y]を基準として、画素P[x,y]及びP[x−1,y]間の画素値の差分DIFL1、画素P[x,y]及びP[x−2,y]間の画素値の差分DIFL2、画素P[x,y]及びP[x+1,y]間の画素値の差分DIFR1、並びに、画素P[x,y]及びP[x+2,y]間の画素値の差分DIFR2を求める。差分DIFL1及びDIFL2は、水平ピーク画素P[x,y]の左側におけるエッジ強度を示す一方で、差分DIFR1及びDIFR2は、水平ピーク画素P[x,y]の右側におけるエッジ強度を示し、それらは下記式(A1)〜(A4)にて表される。
DIFL2=v[x,y]−v[x−2,y] ・・・(A1)
DIFL1=v[x,y]−v[x−1,y] ・・・(A2)
DIFR1=v[x,y]−v[x+1,y] ・・・(A3)
DIFR2=v[x,y]−v[x+2,y] ・・・(A4)
First, the binarized image generation unit 20 uses the horizontal peak pixel P [x, y] as a reference, the pixel value difference DIF L1 between the pixels P [x, y] and P [x−1, y], the pixel A pixel value difference DIF L2 between P [x, y] and P [x−2, y], a pixel value difference DIF R1 between pixels P [x, y] and P [x + 1, y], and a pixel A pixel value difference DIF R2 between P [x, y] and P [x + 2, y] is obtained. Differences DIF L1 and DIF L2 indicate the edge strength on the left side of horizontal peak pixel P [x, y], while differences DIF R1 and DIF R2 indicate the edge strength on the right side of horizontal peak pixel P [x, y]. They are represented by the following formulas (A1) to (A4).
DIF L2 = v [x, y] −v [x−2, y] (A1)
DIF L1 = v [x, y] −v [x−1, y] (A2)
DIF R1 = v [x, y] −v [x + 1, y] (A3)
DIF R2 = v [x, y] −v [x + 2, y] (A4)

続いて、二値化画像生成部20は、差分DIFL1と差分DIFL2が同符号(同極性)であって又は差分DIFL1がゼロであって、且つ、差分DIFL2の絶対値が差分DIFL1の絶対値より大きいとき、差分DIFL2を左側エッジ強度として求め、そうでないとき、差分DIFL1を左側エッジ強度として求める。また、二値化画像生成部20は、差分DIFR1と差分DIFR2が同符号(同極性)であって又は差分DIFR1がゼロであって、且つ、差分DIFR2の絶対値が差分DIFR1の絶対値より大きいとき、差分DIFR2を右側エッジ強度として求め、そうでないとき、差分DIFR1を右側エッジ強度として求める。そして、二値化画像生成部20は、水平ピーク画素P[x,y]に対して求めた左側エッジ強度と右側エッジ強度の和を、水平ピーク画素P[x,y]の水平エッジ強度として導出する。 Subsequently, the binarized image generation unit 20 determines that the difference DIF L1 and the difference DIF L2 have the same sign (same polarity) or the difference DIF L1 is zero, and the absolute value of the difference DIF L2 is the difference DIF. When larger than the absolute value of L1 , the difference DIF L2 is obtained as the left edge strength, and when not, the difference DIF L1 is obtained as the left edge strength. Further, the binary image generation unit 20 has the difference DIF R1 and the difference DIF R2 of the same sign (same polarity) or the difference DIF R1 is zero, and the absolute value of the difference DIF R2 is the difference DIF R1. Is greater than the absolute value of DIF R2 , the difference DIF R2 is determined as the right edge strength, otherwise the difference DIF R1 is determined as the right edge strength. Then, the binarized image generation unit 20 uses the sum of the left edge intensity and the right edge intensity obtained for the horizontal peak pixel P [x, y] as the horizontal edge intensity of the horizontal peak pixel P [x, y]. To derive.

従って例えば、図7(a)に示す如く、“v[x−2,y]>v[x−1,y]>v[x,y]”且つ“v[x,y]<v[x+1,y]<v[x+2,y]”が成立する場合においては、水平ピーク画素P[x,y]の水平エッジ強度は“DIFL2+DIFR2”となる。或いは例えば、図7(b)に示す如く、“v[x−2,y]>v[x−1,y]>v[x,y]”且つ“v[x,y]<v[x+1,y]”且つ“v[x+1,y]>v[x+2,y]”が成立する場合においては、水平ピーク画素P[x,y]の水平エッジ強度は“DIFL2+DIFR1”となる。 Therefore, for example, as shown in FIG. 7A, “v [x−2, y]> v [x−1, y]> v [x, y]” and “v [x, y] <v [x + 1”. , Y] <v [x + 2, y] ”, the horizontal edge intensity of the horizontal peak pixel P [x, y] is“ DIF L2 + DIF R2 ”. Or, for example, as shown in FIG. 7B, “v [x−2, y]> v [x−1, y]> v [x, y]” and “v [x, y] <v [x + 1”. , Y] ”and“ v [x + 1, y]> v [x + 2, y] ”, the horizontal edge intensity of the horizontal peak pixel P [x, y] is“ DIF L2 + DIF R1 ”.

ステップS12に続くステップS13において、二値化画像生成部20は、水平ピーク画素ごとに候補判定処理を実行する。ステップS13の候補判定処理においては、水平ピーク画素の水平ピーク強度の符号(極性)及び水平ピーク強度の絶対値に基づき、水平ピーク画素を、かすれ候補画素、つぶれ候補画素及び非候補画素の何れかに分類する。   In step S13 subsequent to step S12, the binarized image generation unit 20 executes candidate determination processing for each horizontal peak pixel. In the candidate determination process of step S13, the horizontal peak pixel is any one of the blurred candidate pixel, the collapse candidate pixel, and the non-candidate pixel based on the sign (polarity) of the horizontal peak intensity of the horizontal peak pixel and the absolute value of the horizontal peak intensity. Classify into:

水平ピーク画素が画素P[x,y]であると仮定して、ステップS13における候補判定処理を具体的に説明する。図8を参照する。二値化画像生成部20は、水平ピーク画素P[x,y]の水平ピーク強度が負であって且つ負の所定値THHL以下であるケースCASEH1においては、水平ピーク画素P[x,y]をかすれ候補画素に分類し、水平ピーク画素P[x,y]の水平ピーク強度が正であって且つ正の所定値THHU以上であるCASEH2においては、水平ピーク画素P[x,y]をつぶれ候補画素に分類し、ケースCASEH1及びCASEH2の何れにも当てはまらないケースCASEH3においては、水平ピーク画素P[x,y]を非候補画素に分類する。所定値THHLの絶対値と所定値THHUの絶対値は互いに同じであるが、互いに異ならせても良い。 Assuming that the horizontal peak pixel is the pixel P [x, y], the candidate determination process in step S13 will be specifically described. Please refer to FIG. In the case CASE H1 in which the horizontal peak intensity of the horizontal peak pixel P [x, y] is negative and equal to or less than the negative predetermined value TH HL, the binarized image generation unit 20 performs the horizontal peak pixel P [x, y] is classified as a blurred candidate pixel. In CASE H2 in which the horizontal peak intensity of the horizontal peak pixel P [x, y] is positive and is equal to or greater than a predetermined positive value TH HU , the horizontal peak pixel P [x, y] is classified as a collapse candidate pixel, and in case CASE H3 , which does not apply to any of the cases CASE H1 and CASE H2 , the horizontal peak pixel P [x, y] is classified as a non-candidate pixel. The absolute value of the predetermined value TH HL and the absolute value of the predetermined value TH HU are the same, but may be different from each other.

かすれ候補画素に分類された画素は、かすれの可能性の高い画素であると推定され、後に原則として「1」の画素値にて二値化される(図6のステップS25等参照)。つぶれ候補画素に分類された画素は、つぶれの可能性の高い画素であると推定され、後に原則として「0」の画素値にて二値化される(図6のステップS26等参照)。このため、注目画素が水平方向において極値をとっているという理由だけで、当該注目画素をつぶれ候補画素又はつぶれ候補画素に分類すると、ノイズ等の影響を受けやすくなる。このため、ステップS13では、水平ピーク強度の絶対値が所定値以上である場合に限って、注目画素をかすれ候補画素又はつぶれ候補画素に分類するようにしている。後述のステップS16についても同様である。   A pixel classified as a blurred candidate pixel is estimated to be a pixel with a high possibility of blurring, and is binarized with a pixel value of “1” in principle (see step S25 in FIG. 6). Pixels classified as collapse candidate pixels are presumed to be pixels that are highly likely to be collapsed, and are later binarized with a pixel value of “0” in principle (see step S26 in FIG. 6). For this reason, if the pixel of interest is classified as a collapse candidate pixel or a collapse candidate pixel simply because the pixel of interest has an extreme value in the horizontal direction, the pixel is easily affected by noise or the like. For this reason, in step S13, only when the absolute value of the horizontal peak intensity is greater than or equal to a predetermined value, the target pixel is classified as a blurred candidate pixel or a collapsed candidate pixel. The same applies to step S16 described later.

ステップS14において、二値化画像生成部20は、入力画像を垂直方向に沿って走査したときに画素値が極値をとっている画素(換言すれば、入力画像の垂直方向において画素値が極値をとっている画素)を垂直ピーク画素として入力画像から抽出する。つまり例えば、入力画像中の或る注目画素P[x,y]の画素値vに関し、“v[x,y−1]<v[x,y]”且つ“v[x,y]>v[x,y+1]”が成立する場合、又は、“v[x,y−1]>v[x,y]”且つ“v[x,y]<v[x,y+1]”が成立する場合、注目画素P[x,y]は垂直ピーク画素として抽出される。   In step S <b> 14, the binarized image generation unit 20 determines whether the pixel value has an extreme value when the input image is scanned along the vertical direction (in other words, the pixel value has an extreme value in the vertical direction of the input image). A pixel having a value) is extracted from the input image as a vertical peak pixel. That is, for example, regarding the pixel value v of a certain pixel of interest P [x, y] in the input image, “v [x, y−1] <v [x, y]” and “v [x, y]> v When [x, y + 1] ”is satisfied, or when“ v [x, y−1]> v [x, y] ”and“ v [x, y] <v [x, y + 1] ”are satisfied. The target pixel P [x, y] is extracted as a vertical peak pixel.

注目画素P[x,y]と注目画素P[x,y]の隣接画素P[x,y−1]及び/又はP[x,y+1]とで画素値が互いに同じであっても、注目画素P[x,y]は垂直ピーク画素となりうる。例えば、 “v[x,y−1]=v[x,y]”であっても、“v[x,y−2]<v[x,y]”且つ“v[x,y]>v[x,y+1]”が成立する場合又は“v[x,y−2]>v[x,y]”且つ“v[x,y]<v[x,y+1]”が成立する場合には、注目画素P[x,y]が垂直ピーク画素として抽出されても良い。   Even if the pixel value of the pixel of interest P [x, y] and the adjacent pixel P [x, y-1] and / or P [x, y + 1] of the pixel of interest P [x, y] are the same, The pixel P [x, y] can be a vertical peak pixel. For example, even if “v [x, y−1] = v [x, y]”, “v [x, y−2] <v [x, y]” and “v [x, y]> When v [x, y + 1] ”is satisfied or when“ v [x, y−2]> v [x, y] ”and“ v [x, y] <v [x, y + 1] ”are satisfied. The pixel of interest P [x, y] may be extracted as a vertical peak pixel.

ステップS15において、二値化画像生成部20は、垂直ピーク画素ごとに垂直ピーク強度を導出する。但し、この垂直ピーク強度を導出する際には、垂直ピーク画素の上下2画素ずつの画素値を参照し、上側及び下側のエッジ強度の和を垂直ピーク強度とする。   In step S15, the binarized image generation unit 20 derives the vertical peak intensity for each vertical peak pixel. However, when deriving the vertical peak intensity, the pixel values of the upper and lower pixels of the vertical peak pixel are referred to, and the sum of the upper and lower edge intensity is set as the vertical peak intensity.

垂直ピーク画素が画素P[x,y]であると仮定して、ステップS15における垂直ピーク強度の導出方法を具体的に説明する。   Assuming that the vertical peak pixel is the pixel P [x, y], the method for deriving the vertical peak intensity in step S15 will be specifically described.

二値化画像生成部20は、まず、垂直ピーク画素P[x,y]を基準として、画素P[x,y]及びP[x,y−1]間の画素値の差分DIFU1、画素P[x,y]及びP[x,y−2]間の画素値の差分DIFU2、画素P[x,y]及びP[x,y+1]間の画素値の差分DIFD1、並びに、画素P[x,y]及びP[x,y+2]間の画素値の差分DIFD2を求める。差分DIFU1及びDIFU2は、垂直ピーク画素P[x,y]の上側におけるエッジ強度を示す一方で、差分DIFD1及びDIFD2は、垂直ピーク画素P[x,y]の下側におけるエッジ強度を示し、それらは下記式(B1)〜(B4)にて表される。
DIFU2=v[x,y]−v[x,y−2] ・・・(B1)
DIFU1=v[x,y]−v[x,y−1] ・・・(B2)
DIFD1=v[x,y]−v[x,y+1] ・・・(B3)
DIFD2=v[x,y]−v[x,y+2] ・・・(B4)
First, the binarized image generation unit 20 uses the vertical peak pixel P [x, y] as a reference, the pixel value difference DIF U1 between the pixels P [x, y] and P [x, y−1], the pixel The pixel value difference DIF U2 between P [x, y] and P [x, y-2], the pixel value difference DIF D1 between the pixels P [x, y] and P [x, y + 1], and the pixel A pixel value difference DIF D2 between P [x, y] and P [x, y + 2] is obtained. Differences DIF U1 and DIF U2 indicate the edge strength above the vertical peak pixel P [x, y], while differences DIF D1 and DIF D2 indicate the edge strength below the vertical peak pixel P [x, y]. These are represented by the following formulas (B1) to (B4).
DIF U2 = v [x, y] -v [x, y-2] (B1)
DIF U1 = v [x, y] −v [x, y−1] (B2)
DIF D1 = v [x, y] −v [x, y + 1] (B3)
DIF D2 = v [x, y] -v [x, y + 2] (B4)

続いて、二値化画像生成部20は、差分DIFU1と差分DIFU2が同符号(同極性)であって又は差分DIFU1がゼロであって、且つ、差分DIFU2の絶対値が差分DIFU1の絶対値より大きいとき、差分DIFU2を上側エッジ強度として求め、そうでないとき、差分DIFU1を上側エッジ強度として求める。また、二値化画像生成部20は、差分DIFD1と差分DIFD2が同符号(同極性)であって又は差分DIFD1がゼロであって、且つ、差分DIFD2の絶対値が差分DIFD1の絶対値より大きいとき、差分DIFD2を下側エッジ強度として求め、そうでないとき、差分DIFD1を下側エッジ強度として求める。そして、二値化画像生成部20は、垂直ピーク画素P[x,y]に対して求めた上側エッジ強度と下側エッジ強度の和を、垂直ピーク画素P[x,y]の垂直エッジ強度として導出する。 Subsequently, the binarized image generation unit 20 determines that the difference DIF U1 and the difference DIF U2 have the same sign (same polarity) or the difference DIF U1 is zero and the absolute value of the difference DIF U2 is the difference DIF. When the absolute value of U1 is larger, the difference DIF U2 is obtained as the upper edge strength, and when not, the difference DIF U1 is obtained as the upper edge strength. Further, the binary image generation unit 20 has the difference DIF D1 and the difference DIF D2 having the same sign (same polarity) or the difference DIF D1 is zero, and the absolute value of the difference DIF D2 is the difference DIF D1. Is greater than the absolute value of the difference DIF D2 as the lower edge strength, otherwise the difference DIF D1 is determined as the lower edge strength. Then, the binarized image generation unit 20 uses the sum of the upper edge intensity and the lower edge intensity obtained for the vertical peak pixel P [x, y] as the vertical edge intensity of the vertical peak pixel P [x, y]. Derived as

ステップS15に続くステップS16において、二値化画像生成部20は、垂直ピーク画素ごとに候補判定処理を実行する。ステップS16の候補判定処理においては、垂直ピーク画素の垂直ピーク強度の符号(極性)及び垂直ピーク強度の絶対値に基づき、垂直ピーク画素を、かすれ候補画素、つぶれ候補画素及び非候補画素の何れかに分類する。   In step S16 subsequent to step S15, the binarized image generation unit 20 performs candidate determination processing for each vertical peak pixel. In the candidate determination processing in step S16, the vertical peak pixel is any one of the blurred candidate pixel, the collapse candidate pixel, and the non-candidate pixel based on the sign (polarity) of the vertical peak intensity of the vertical peak pixel and the absolute value of the vertical peak intensity. Classify into:

垂直ピーク画素が画素P[x,y]であると仮定して、ステップS16における候補判定処理を具体的に説明する。図9を参照する。二値化画像生成部20は、垂直ピーク画素P[x,y]の垂直ピーク強度が負であって且つ負の所定値THVL以下であるケースCASEV1においては、垂直ピーク画素P[x,y]をかすれ候補画素に分類し、垂直ピーク画素P[x,y]の垂直ピーク強度が正であって且つ正の所定値THVU以上であるCASEV2においては、垂直ピーク画素P[x,y]をつぶれ候補画素に分類し、ケースCASEV1及びCASEV2の何れにも当てはまらないケースCASEV3においては、垂直ピーク画素P[x,y]を非候補画素に分類する。所定値THVLの絶対値と所定値THVUの絶対値は互いに同じであるが、互いに異ならせても良い。所定値THHL(図8参照)と所定値THVL(図9参照)は互いに同じであるが、互いに異ならせても良い。所定値THHU(図8参照)と所定値THVU(図9参照)は互いに同じであるが、互いに異ならせても良い。 Assuming that the vertical peak pixel is the pixel P [x, y], the candidate determination process in step S16 will be specifically described. Please refer to FIG. In the case CASE V1 in which the vertical peak intensity of the vertical peak pixel P [x, y] is negative and is equal to or less than the negative predetermined value TH VL, the binarized image generation unit 20 performs the vertical peak pixel P [x, y] are classified as fading candidate pixels. In CASE V2 in which the vertical peak intensity of the vertical peak pixel P [x, y] is positive and equal to or greater than a predetermined positive value TH VU , the vertical peak pixel P [x, y] is classified as a collapse candidate pixel, and in case CASE V3 , which does not apply to either case CASE V1 or CASE V2 , the vertical peak pixel P [x, y] is classified as a non-candidate pixel. The absolute value of the predetermined value TH VL and the absolute value of the predetermined value TH VU are the same, but may be different from each other. The predetermined value TH HL (see FIG. 8) and the predetermined value TH VL (see FIG. 9) are the same, but may be different from each other. The predetermined value TH HU (see FIG. 8) and the predetermined value TH VU (see FIG. 9) are the same, but may be different from each other.

水平ピーク強度の算出に使用する左側エッジ強度を第1エッジ強度、右側エッジ強度を第2エッジ強度とも呼ぶ。また、垂直ピーク強度の算出に使用する上側エッジ強度を第1エッジ強度、下側エッジ強度を第2エッジ強度とも呼ぶ。   The left edge intensity used for the calculation of the horizontal peak intensity is also called a first edge intensity, and the right edge intensity is also called a second edge intensity. Further, the upper edge strength used for calculating the vertical peak strength is also referred to as a first edge strength, and the lower edge strength is also referred to as a second edge strength.

尚、図5のフローチャートでは、ステップS11〜S13の処理の後にステップS14〜S16の処理が実行されているが、ステップS11〜S13の処理よりも先にステップS14〜S16の処理を実行するようにしても良いし、ステップS11〜S13の処理とステップS14〜S16の処理を同時に実行するようにしても良い。また、式(A1)〜(A4)及び式(B1)〜(B4)にて差分を算出する際、基準となるピーク画素P[x,y]の画素値v[x,y]から近傍画素の画素値(v[x−1,y]等)を引いているが、近傍画素の画素値からピーク画素P[x,y]の画素値v[x,y]を引くようにしても良い。但し、その場合、ステップS13及びS16において、かすれ候補画素とつぶれ候補画素への分類の仕方を逆にする必要がある。   In the flowchart of FIG. 5, the processes of steps S14 to S16 are executed after the processes of steps S11 to S13. However, the processes of steps S14 to S16 are executed before the processes of steps S11 to S13. Alternatively, the processes in steps S11 to S13 and the processes in steps S14 to S16 may be executed simultaneously. Further, when calculating the difference using the expressions (A1) to (A4) and the expressions (B1) to (B4), the neighboring pixels are calculated from the pixel value v [x, y] of the reference peak pixel P [x, y]. However, the pixel value v [x, y] of the peak pixel P [x, y] may be subtracted from the pixel value of the neighboring pixel. . However, in that case, in steps S13 and S16, it is necessary to reverse the classification method into the blurred candidate pixel and the collapsed candidate pixel.

ステップS17において、二値化画像生成部20は、入力画像の画素の内、水平ピーク画素でも垂直ピーク画素でもない画素を非候補画素に分類する。   In step S <b> 17, the binarized image generation unit 20 classifies pixels that are neither horizontal peak pixels nor vertical peak pixels among the pixels of the input image as non-candidate pixels.

ステップS17の後、ステップS21に進む(図6参照)。ステップS21以降の処理においては、原則として、かすれ候補画素に分類された画素を「1」の画素、即ち黒画素に二値化すると共に(ステップS25、S28)、つぶれ候補画素に分類された画素を「0」の画素、即ち白画素に二値化する(ステップS26、S30)。但し、ステップS13及びS16の分類結果が互いに矛盾しあうこともありえるため、その矛盾に対する手当ても用意しておく(ステップS31)。以下、二値化画像生成部20にて実行されるステップS21〜S34の処理を詳説する。   After step S17, the process proceeds to step S21 (see FIG. 6). In the processing after step S21, in principle, the pixels classified as the blurred candidate pixels are binarized into “1” pixels, that is, black pixels (steps S25 and S28), and the pixels classified as the collapsed candidate pixels. Is binarized into “0” pixels, that is, white pixels (steps S26 and S30). However, since the classification results in steps S13 and S16 may conflict with each other, a measure for the contradiction is also prepared (step S31). Hereinafter, the processes of steps S21 to S34 executed by the binarized image generation unit 20 will be described in detail.

ステップS21において、二値化画像生成部20は、かすれ候補画素又はつぶれ候補画素に分類された全ての画素を第1〜第N候補画素に設定する。Nは、かすれ候補画素又はつぶれ候補画素に分類された画素の総数を表す。   In step S <b> 21, the binarized image generation unit 20 sets all pixels classified as a blurred candidate pixel or a collapsed candidate pixel as first to Nth candidate pixels. N represents the total number of pixels classified as a blurred candidate pixel or a collapsed candidate pixel.

単一の画素P[x,y]が、水平ピーク画素として抽出されてステップS13にてかすれ候補画素又はつぶれ候補画素に分類されると共に、垂直ピーク画素として抽出されてステップS16にてかすれ候補画素又はつぶれ候補画素に分類されることもある。このような分類が行われた単一の画素P[x,y]は、第1〜第N候補画素の内の2つの候補画素(例えば第1及び第2候補画素)を占めるのではなく、第1〜第N候補画素の内の1つの候補画素(例えば第1候補画素)に設定される。従って、このような分類が行われた場合、ステップS13にてかすれ候補画素又はつぶれ候補画素に分類された水平ピーク画素の総数と、ステップS16にてかすれ候補画素又はつぶれ候補画素に分類された垂直ピーク画素の総数との和は、Nよりも大きくなる。   A single pixel P [x, y] is extracted as a horizontal peak pixel and classified as a blurred candidate pixel or a collapsed candidate pixel in step S13, and is extracted as a vertical peak pixel and blurred candidate pixel in step S16. Or it may be classified as a collapse candidate pixel. The single pixel P [x, y] subjected to such classification does not occupy two candidate pixels (for example, the first and second candidate pixels) among the first to Nth candidate pixels, One candidate pixel (for example, the first candidate pixel) among the first to Nth candidate pixels is set. Therefore, when such classification is performed, the total number of horizontal peak pixels classified into the blurred candidate pixel or the collapsed candidate pixel in Step S13 and the vertical classified as the blurred candidate pixel or the collapsed candidate pixel in Step S16. The sum of the total number of peak pixels is larger than N.

ステップS21に続くステップS22にて変数jに1が代入された後、ステップS23に進む。ステップS23において、二値化画像生成部20は、第j候補画素が水平ピーク画素であって且つ垂直ピーク画素であるか否かを判定する。第j候補画素が水平ピーク画素であって且つ垂直ピーク画素である場合にはステップS27に進み、そうでない場合、即ち、第j候補画素が水平ピーク画素及び垂直ピーク画素のどちらか一方である場合には、ステップS24に進む。   In step S22 following step S21, 1 is assigned to the variable j, and then the process proceeds to step S23. In step S <b> 23, the binarized image generation unit 20 determines whether or not the jth candidate pixel is a horizontal peak pixel and a vertical peak pixel. If the jth candidate pixel is a horizontal peak pixel and a vertical peak pixel, the process proceeds to step S27. Otherwise, the jth candidate pixel is either the horizontal peak pixel or the vertical peak pixel. The process proceeds to step S24.

ステップS24において、二値化画像生成部20は、第j候補画素がかすれ候補画素に分類されているか否かを判定し、第j候補画素がかすれ候補画素に分類されている場合にはステップS25に進む一方、そうでない場合、即ち第j候補画素がつぶれ候補画素に分類されている場合にはステップS26に進む。ステップS25において、二値化画像生成部20は、第j候補画素に「1」の画素値を設定する。ステップS26において、二値化画像生成部20は、第j候補画素に「0」の画素値を設定する。ステップS25又はS26の後、ステップS32に進む。   In step S24, the binarized image generation unit 20 determines whether or not the jth candidate pixel is classified as a blurred candidate pixel. If the jth candidate pixel is classified as a blurred candidate pixel, step S25 is performed. On the other hand, if not, that is, if the j-th candidate pixel is classified as a collapsed candidate pixel, the process proceeds to step S26. In step S <b> 25, the binarized image generation unit 20 sets a pixel value of “1” to the jth candidate pixel. In step S <b> 26, the binarized image generation unit 20 sets a pixel value of “0” to the jth candidate pixel. After step S25 or S26, the process proceeds to step S32.

第j候補画素に「1」又は「0」の画素値を設定することで第j候補画素が二値化される(後述のステップS28、S30及びS31においても同様)。第j候補画素に「1」、「0」の画素値を設定するとは、第j候補画素に対応する、二値化画像内の画素の画素値に、夫々、「1」、「0」を代入することを意味する。換言すれば、第j候補画素に「1」、「0」の画素値を設定するとは、第j候補画素に対応する、二値化画像内の画素を、夫々、黒画素、白画素に設定することを意味する。   By setting a pixel value of “1” or “0” to the j-th candidate pixel, the j-th candidate pixel is binarized (the same applies to steps S28, S30, and S31 described later). Setting the pixel values of “1” and “0” for the jth candidate pixel means that “1” and “0” are respectively set to the pixel values of the pixels in the binarized image corresponding to the jth candidate pixel. It means to assign. In other words, setting the pixel values of “1” and “0” for the jth candidate pixel means that the pixels in the binarized image corresponding to the jth candidate pixel are set to black pixels and white pixels, respectively. It means to do.

ステップS27において、二値化画像生成部20は、第j候補画素がステップS13及びS16にて共にかすれ候補画素に分類されたか否かを判定する。第j候補画素がステップS13及びS16にて共にかすれ候補画素に分類されている場合、二値化画像生成部20は、ステップS28にて第j候補画素に「1」の画素値を設定してからステップS32に進むが、そうでない場合、ステップS27からステップS29に進む。   In step S27, the binarized image generation unit 20 determines whether or not the jth candidate pixel has been classified as a blurred candidate pixel in steps S13 and S16. When the jth candidate pixel is classified as a blurred candidate pixel in steps S13 and S16, the binarized image generation unit 20 sets a pixel value of “1” to the jth candidate pixel in step S28. The process proceeds from step S32 to step S32. If not, the process proceeds from step S27 to step S29.

ステップS29において、二値化画像生成部20は、第j候補画素がステップS13及びS16にて共につぶれ候補画素に分類されたか否かを判定する。第j候補画素がステップS13及びS16にて共につぶれ候補画素に分類されている場合、二値化画像生成部20は、ステップS30にて第j候補画素に「0」の画素値を設定してからステップS32に進む一方、そうでない場合、ステップS31に進む。   In step S29, the binarized image generation unit 20 determines whether or not the jth candidate pixel has been classified as a collapsed candidate pixel in steps S13 and S16. When the jth candidate pixel is classified as a collapsed candidate pixel in steps S13 and S16, the binarized image generation unit 20 sets a pixel value of “0” to the jth candidate pixel in step S30. From step S32, the process proceeds to step S31. Otherwise, the process proceeds to step S31.

共通画素に対するステップS13及びS16の分類結果が互いに矛盾しあう場合、共通画素としての第j候補画素について、ステップS31に至る。つまり、単一の共通画素である第j候補画素が、水平ピーク画素として抽出されてステップS13にてかすれ候補画素に分類されると共に、垂直ピーク画素として抽出されてステップS16にてつぶれ候補画素に分類された場合、又は、単一の共通画素である第j候補画素が、水平ピーク画素として抽出されてステップS13にてつぶれ候補画素に分類されると共に、垂直ピーク画素として抽出されてステップS16にてかすれ候補画素に分類された場合、ステップS31に至る。   When the classification results of steps S13 and S16 for the common pixel are inconsistent with each other, the process reaches step S31 for the jth candidate pixel as the common pixel. That is, the j-th candidate pixel, which is a single common pixel, is extracted as a horizontal peak pixel and classified as a blurred candidate pixel in step S13, and is extracted as a vertical peak pixel and becomes a collapsed candidate pixel in step S16. If classified, or the jth candidate pixel, which is a single common pixel, is extracted as a horizontal peak pixel and classified as a collapsed candidate pixel in step S13, and extracted as a vertical peak pixel in step S16. If the pixel is classified as a blurred candidate pixel, the process proceeds to step S31.

ステップS31において、二値化画像生成部20は、矛盾解決処理により第j候補画素に「1」又は「0」の画素値を設定し、その後、ステップS32に進む。   In step S31, the binarized image generation unit 20 sets a pixel value of “1” or “0” to the jth candidate pixel by the contradiction resolution process, and then proceeds to step S32.

説明の具体化のため、第j候補画素が画素P[x,y]であると仮定して、矛盾解決処理を説明する。矛盾解決処理では、上述の差分DIFL1及びDIFL2に基づく左側エッジ強度の絶対値(以下、記号|EGL|にて表す)と、上述の差分DIFR1及びDIFR2に基づく右側エッジ強度の絶対値(以下、記号|EGR|にて表す)と、上述の差分DIFU1及びDIFU2に基づく上側エッジ強度の絶対値(以下、記号|EGU|にて表す)と、上述の差分DIFD1及びDIFD2に基づく下側エッジ強度の絶対値(以下、記号|EGD|にて表す)を参照する。絶対値|EGL|、|EGR|、|EGU|及び|EGD|は、第j候補画素としての画素P[x,y]に対して求められたものであり、差分DIFL1等の算出式は上記式(A1)〜(A4)及び式(B1)〜(B4)に従う。左側、右側、上側及び下側エッジ強度の算出方法についても上述した通りである。 For the sake of specific description, the contradiction resolution process will be described on the assumption that the jth candidate pixel is the pixel P [x, y]. In the contradiction resolution process, the absolute value of the left edge strength based on the above-mentioned difference DIF L1 and DIF L2 (hereinafter represented by the symbol | EG L |) and the absolute value of the right edge strength based on the above-described difference DIF R1 and DIF R2 A value (hereinafter represented by the symbol | EG R |), an absolute value of the upper edge intensity (hereinafter represented by the symbol | EG U |) based on the above-described differences DIF U1 and DIF U2 , and the above-described difference DIF D1 And the absolute value of the lower edge strength based on DIF D2 (hereinafter represented by the symbol | EG D |). The absolute values | EG L |, | EG R |, | EG U |, and | EG D | are obtained for the pixel P [x, y] as the j-th candidate pixel, and the difference DIF L1 etc. Is calculated according to the above formulas (A1) to (A4) and formulas (B1) to (B4). The calculation method of the left side, right side, upper side, and lower side edge strength is also as described above.

二値化画像生成部20は、矛盾解決処理において、下記式(C1)が成立するならば、ステップS13の分類結果よりもステップS16の分類結果を優先して第j候補画素を二値化し、そうでないならば、ステップS16の分類結果よりもステップS13の分類結果を優先して第j候補画素を二値化する。式(C1)において、左辺は、|EGU|及び|EGD|の内の小さい方の絶対値を表し、右辺は、|EGL|及び|EGR|の内の小さい方の絶対値を表す。エッジ強度の絶対値が最も小さな方向、即ち最も画素値の近い方向の結果を採用しないことで、つぶれ、かすれの判断を行っている。
Min(|EGU|,|EGD|)>Min(|EGL|,|EGR|)
・・・(C1)
In the contradiction resolution process, the binarized image generation unit 20 binarizes the jth candidate pixel by giving priority to the classification result in step S16 over the classification result in step S13 if the following formula (C1) is satisfied. Otherwise, the jth candidate pixel is binarized with priority given to the classification result of step S13 over the classification result of step S16. In the formula (C1), the left side represents the smaller absolute value of | EG U | and | EG D |, and the right side represents the smaller absolute value of | EG L | and | EG R |. Represent. By not adopting the result in the direction where the absolute value of the edge intensity is the smallest, that is, the direction where the pixel value is closest, the determination of crushing or fading is performed.
Min (| EG U |, | EG D |)> Min (| EG L |, | EG R |)
... (C1)

従って例えば、第j候補画素としての画素P[x,y]がステップS13にてかすれ候補画素に分類される一方でステップS16にてつぶれ候補画素に分類されたとき、式(C1)が成立するならば画素P[x,y]は最終的につぶれ候補画素に分類される一方、式(C1)が不成立ならば画素P[x,y]は最終的にかすれ候補画素に分類される。或いは例えば、第j候補画素としての画素P[x,y]がステップS13にてつぶれ候補画素に分類される一方でステップS16にてかすれ候補画素に分類されたとき、式(C1)が成立するならば画素P[x,y]は最終的にかすれ候補画素に分類される一方、式(C1)が不成立ならば画素P[x,y]は最終的につぶれ候補画素に分類される。   Therefore, for example, when the pixel P [x, y] as the jth candidate pixel is classified as a blurred candidate pixel in step S13, but is classified as a collapsed candidate pixel in step S16, Expression (C1) is established. Then, the pixel P [x, y] is finally classified as a collapsed candidate pixel, while if the expression (C1) is not established, the pixel P [x, y] is finally classified as a blurred candidate pixel. Alternatively, for example, when the pixel P [x, y] as the jth candidate pixel is classified as a collapse candidate pixel in step S13, but is classified as a blur candidate pixel in step S16, Expression (C1) is established. Then, the pixel P [x, y] is finally classified as a blurred candidate pixel, while if the expression (C1) is not established, the pixel P [x, y] is finally classified as a collapsed candidate pixel.

矛盾解決処理において、画素P[x,y]が最終的にかつぶれ候補画素に分類されたとき、第j候補画素に「0」の画素値が設定され、画素P[x,y]が最終的にかすれ候補画素に分類されたとき、第j候補画素に「1」の画素値が設定される。   In the contradiction resolution processing, when the pixel P [x, y] is finally classified as a candidate for squashing, a pixel value of “0” is set to the jth candidate pixel, and the pixel P [x, y] is final. When the pixel is classified as a faint candidate pixel, a pixel value of “1” is set to the jth candidate pixel.

ステップS32において、変数jが値Nと一致しているか否かが判断され、“j=N”が成立するならばステップS34に進むが、“j=N”が成立しないならばステップS33にて変数jに1を加算してからステップS23に戻ってステップS23以降の処理を繰り返す。   In step S32, it is determined whether or not the variable j matches the value N. If “j = N” is satisfied, the process proceeds to step S34. If “j = N” is not satisfied, the process proceeds to step S33. After adding 1 to the variable j, the process returns to step S23 to repeat the processes after step S23.

ステップS34において、二値化画像生成部20は、ステップS13、S16及びS17にて非候補画素に分類された各画素を所定の閾値thを用いて二値化する。つまり、非候補画素ごとに、非候補画素の画素値が閾値th以上ならば非候補画素に「0」の画素値を設定する一方で非候補画素の画素値が閾値th未満ならば非候補画素に「1」の画素値を設定する。ステップS34における二値化の方法として、公知の任意の二値化方法を用いることができる。従って例えば、ステップS34で用いる閾値thは、予め設定された固定値であっても良いし、各非候補画素の画素値に基づき判別分析法を用いて設定されるものであっても良いし、各非候補画素の画素値に基づき特許第3831797号公報に記載の方法を用いて設定されるものであっても良い。二値化画像生成部20は、各非候補画素の画素値に基づき閾値thを設定する閾値設定部(不図示)を内包しうる。   In step S34, the binarized image generation unit 20 binarizes each pixel classified as a non-candidate pixel in steps S13, S16, and S17 using a predetermined threshold th. That is, for each non-candidate pixel, if the pixel value of the non-candidate pixel is equal to or greater than the threshold th, a pixel value of “0” is set to the non-candidate pixel, while if the pixel value of the non-candidate pixel is less than the threshold th, the non-candidate pixel A pixel value of “1” is set in. Any known binarization method can be used as the binarization method in step S34. Therefore, for example, the threshold th used in step S34 may be a fixed value set in advance, or may be set using a discriminant analysis method based on the pixel value of each non-candidate pixel, It may be set using the method described in Japanese Patent No. 3831797 based on the pixel value of each non-candidate pixel. The binarized image generation unit 20 can include a threshold setting unit (not shown) that sets the threshold th based on the pixel value of each non-candidate pixel.

ステップS34の処理の終了を以って入力画像の全画素が二値化されるため、二値化処理を終える。   Since all the pixels of the input image are binarized by the end of the process of step S34, the binarization process is finished.

二値化を介した文字の認識において、小さな文字を認識しようとすると、つぶれやかすれにより正しく認識できない場合があるが、本実施形態では、かすれやつぶれが生じにくい二値化を実現できるため、小さな文字をも正確に認識できるようになる。また、つぶれを解消して二値化を行うことができるため、互いに接触する程度に近接した文字同士の分離にも有益な効果を発揮する。   In the recognition of characters through binarization, when trying to recognize small characters, it may not be correctly recognized due to crushing or blurring, but in this embodiment, it is possible to realize binarization that does not easily cause blurring or blurring. Even small characters can be recognized accurately. In addition, since squashing can be eliminated and binarization can be performed, a beneficial effect is also exhibited in separating characters that are close enough to contact each other.

[具体的な二値化の例]
次に具体的な画像の例を示して、二値化の例を示す。図10(a)を参照し、単純なモデルとして、互いに平行且つ密接した3本の細い第1〜第3の黒線311〜313が描かれた紙面310を用意し、紙面310上の描画内容をスキャナで取り込むことで入力画像320が得られた状況を考える。黒線321〜323は、夫々、入力画像320上の第1〜第3の黒線に相当する。第1〜第3の黒線の夫々は上下方向に伸びる黒色の線分であって、第1〜第3の黒線は左右方向に並んでいる。また、図10(b)に示す如く、スキャナによる取り込み時において、黒線311〜313の夫々は1画素分の幅を有し、且つ、黒線311及び312の中心間隔並びに黒線312及び313の中心間隔は共に1.5画素分の幅を有しているものとする。図10(b)において、記号PSCANが付された四角形はスキャナの取り込み時における画素を表している(但し、一部の画素にしか記号PSCANを付していない)。更に、スキャナの取り込み時において、或る特定の画素315の中心が黒線311の中心線上に位置していることを想定する、結果、特定の画素315に対して1、2、3、4、5、6、7画素分だけ右に位置している画素は、夫々、白、グレー、グレー、白、黒、白、白の濃淡情報を取り込み、且つ、特定の画素315に対して左側に位置している画素は全て白の濃淡情報を取り込むことになる。グレーの濃淡情報を取り込むことになる画素は、画素の半分だけ黒線312上に位置する画素である。
[Specific binarization example]
Next, a specific example of an image is shown, and an example of binarization is shown. Referring to FIG. 10A, as a simple model, a paper surface 310 on which three thin first to third black lines 311 to 313 are drawn in parallel and closely to each other is prepared, and the drawing contents on the paper surface 310 are prepared. Let us consider a situation in which an input image 320 is obtained by capturing the image with a scanner. The black lines 321 to 323 correspond to the first to third black lines on the input image 320, respectively. Each of the first to third black lines is a black line segment extending in the vertical direction, and the first to third black lines are arranged in the left-right direction. Further, as shown in FIG. 10B, at the time of capturing by the scanner, each of the black lines 311 to 313 has a width corresponding to one pixel, and the center interval between the black lines 311 and 312 and the black lines 312 and 313. Assume that both of the center intervals have a width of 1.5 pixels. In FIG. 10B, a square with a symbol P SCAN represents a pixel at the time of capturing by the scanner (however, only a part of the pixels has a symbol P SCAN ). Further, it is assumed that the center of a specific pixel 315 is located on the center line of the black line 311 at the time of capturing of the scanner. As a result, 1, 2, 3, 4, Pixels located to the right by 5, 6 and 7 pixels respectively capture white, gray, gray, white, black, white and white shading information and are located on the left side with respect to a specific pixel 315 All of the pixels that have been taken in will capture the shade information of white. Pixels that will capture gray shade information are pixels that are located on the black line 312 by half of the pixels.

そうすると、入力画像320上における黒線321〜323の部分の拡大図は、図10(c)のようになる(図10(b)及び(c)では、ハッチングの斜線密度によって色の濃さを表現している)。画素P[x−2,y]は上記の特定の画素315に相当する。故に、画素P[x−2,y]の中心が黒線321の中心に位置しており、入力画像320において、画素P[x−4,y]〜P[x+5,y]の濃淡情報は、夫々、白、白、黒、白、グレー、グレー、白、黒、白、白となる。このような入力画像320について、仮に一般的な閾値を用いた二値化を行った場合、画素P[x,y]及びP[x+1,y]の画素値が閾値以上であったなら、画素P[x,y]及びP[x+1,y]は白画素であると判定される。即ち、画素P[x,y]及びP[x+1,y]の位置において、二値化により黒線322がかすれて消滅することになる。画素P[x,y+1]及びP[x+1,y+1]などについても同様である。   Then, an enlarged view of the black lines 321 to 323 on the input image 320 is as shown in FIG. 10C (in FIG. 10B and FIG. 10C, the color density is changed by the hatched diagonal density. expressing). The pixel P [x−2, y] corresponds to the specific pixel 315 described above. Therefore, the center of the pixel P [x−2, y] is located at the center of the black line 321, and in the input image 320, the density information of the pixels P [x−4, y] to P [x + 5, y] is , White, white, black, white, gray, gray, white, black, white, white, respectively. If such an input image 320 is binarized using a general threshold, if the pixel values of the pixels P [x, y] and P [x + 1, y] are equal to or greater than the threshold, the pixel P [x, y] and P [x + 1, y] are determined to be white pixels. That is, at the positions of the pixels P [x, y] and P [x + 1, y], the black line 322 is faded and disappears by binarization. The same applies to the pixels P [x, y + 1] and P [x + 1, y + 1].

一方、本実施形態の方法によれば、入力画像320において画素P[x,y]及び/又はP[x+1,y]が極小値をとるため、その部分のエッジ強度にもよるが、図5のステップS11〜S13の処理を経て画素P[x,y]及び/又はP[x+1,y]がかすれ候補画素に分類されることとなり、結果、画素P[x,y]及び/又はP[x+1,y]に「1」の画素値が設定される。つまり、二値化画像上においてかすれが解消されることになる。   On the other hand, according to the method of the present embodiment, since the pixel P [x, y] and / or P [x + 1, y] has a minimum value in the input image 320, depending on the edge strength of that portion, FIG. The pixels P [x, y] and / or P [x + 1, y] are blurred and classified as candidate pixels through the processes in steps S11 to S13. As a result, the pixels P [x, y] and / or P [ A pixel value of “1” is set in x + 1, y]. That is, the blur is eliminated on the binarized image.

かすれの解消(抑制)を狙った方法として、以下のような参考方法α1及びα2もある。参考方法α1は、上記特許文献1において図7を用いる方法に対応し、参考方法α2は、上記特許文献1において図8又は図9を用いる方法に対応する。参考方法α1及びα2では、近傍画素に比べて尾根又は谷になっている画素を検出し、検出画素に対しては閾値を用いずに二値化を行う一方、非検出画素に対しては閾値を用いて二値化を行う。   As methods aiming at elimination (suppression) of blurring, there are the following reference methods α1 and α2. The reference method α1 corresponds to the method using FIG. 7 in Patent Document 1, and the reference method α2 corresponds to the method using FIG. 8 or FIG. 9 in Patent Document 1. In the reference methods α1 and α2, pixels that are ridges or valleys compared to neighboring pixels are detected, and binarization is performed without using threshold values for the detected pixels, while threshold values are used for non-detected pixels. Binarization is performed using.

但し、左右方向に着目した場合、参考方法α1では、注目画素の左右隣接画素のみが近傍画素として参照される。このため、画素P[x,y]が注目画素である場合、注目画素[x,y]と近傍画素P[x,y+1]は共にグレーのため、それらの画素値の差分が閾値(特許文献1のTh3に相当)以上にはならず、注目画素P[x,y]が尾根又は谷として検出されない。よって、従来の閾値を用いた二値化処理にさらされ、結果、閾値に依存するが、画素P[x,y]の部分がかすれる(即ち、画素P[x,y]が白画素に二値化される)。また、参考方向α1では、縦方向、横方向、2種類の斜め方向の内、2つ以上の方向において尾根又は谷とならなければ、尾根又は谷の画素として検出されないため(特許文献1の図7及び段落[0016]〜[0019]参照)、この点からも、注目画素P[x,y]は従来の閾値を用いた二値化処理にさらされる可能性が高い。画素P[x+1,y]についても同様である。   However, when focusing on the left and right direction, in the reference method α1, only the left and right adjacent pixels of the target pixel are referred to as neighboring pixels. For this reason, when the pixel P [x, y] is the pixel of interest, the pixel of interest [x, y] and the neighboring pixel P [x, y + 1] are both gray, and the difference between the pixel values is a threshold value (Patent Document) The pixel of interest P [x, y] is not detected as a ridge or valley. Therefore, it is exposed to a binarization process using a conventional threshold, and as a result, depending on the threshold, the portion of the pixel P [x, y] is faded (that is, the pixel P [x, y] is converted into a white pixel). Valued). Further, in the reference direction α1, if the ridge or valley does not become a ridge or valley in two or more of the two types of oblique directions, the pixel is not detected as a ridge or valley pixel (FIG. 1). 7 and paragraphs [0016] to [0019]), also from this point, the pixel of interest P [x, y] is highly likely to be subjected to binarization processing using a conventional threshold value. The same applies to the pixel P [x + 1, y].

また、左右方向に着目した場合、参考方法α2では、注目画素から左に1画素分隔てて位置する画素及び注目画素から右に1画素分隔てて位置する画素のみが近傍画素として参照される。このため、画素P[x,y]が注目画素である場合、注目画素P[x,y]についての近傍画素P[x−2,y]及び[x+2,y]が黒画素、白画素であるが故に、注目画素P[x,y]及び近傍画素P[x−2,y]間の画素値の差と注目画素P[x,y]及び近傍画素P[x+2,y]間の画素値の差が同符号とならず、注目画素P[x,y]が尾根又は谷として検出されない。よって、従来の閾値を用いた二値化処理にさらされ、結果、閾値に依存するが、画素P[x,y]の部分がかすれる(即ち、画素P[x,y]が白画素に二値化される)。また、参考方向α2では、縦方向、横方向、複数種類の斜め方向の内、少なくとも2つ以上の方向において尾根又は谷とならなければ、尾根又は谷の画素として検出されないため(特許文献1の図8、図9及び段落[0021]〜[0026]参照)、この点からも、注目画素P[x,y]は従来の閾値を用いた二値化処理にさらされる可能性が高い。画素P[x+1,y]についても同様である。   When attention is paid to the left-right direction, in the reference method α2, only pixels located one pixel to the left from the target pixel and pixels located one pixel to the right from the target pixel are referred to as neighboring pixels. Therefore, when the pixel P [x, y] is the target pixel, the neighboring pixels P [x−2, y] and [x + 2, y] for the target pixel P [x, y] are black pixels and white pixels. Therefore, the pixel value difference between the target pixel P [x, y] and the neighboring pixel P [x−2, y] and the pixel between the target pixel P [x, y] and the neighboring pixel P [x + 2, y] The difference in value does not have the same sign, and the pixel of interest P [x, y] is not detected as a ridge or valley. Therefore, it is exposed to a binarization process using a conventional threshold, and as a result, depending on the threshold, the portion of the pixel P [x, y] is faded (that is, the pixel P [x, y] is converted into a white pixel). Valued). In addition, in the reference direction α2, the pixel is not detected as a pixel of a ridge or a valley unless it becomes a ridge or a valley in at least two or more directions among the vertical direction, the horizontal direction, and a plurality of oblique directions (see Patent Document 1). From FIG. 8, FIG. 9 and paragraphs [0021] to [0026]), the pixel of interest P [x, y] is highly likely to be subjected to a binarization process using a conventional threshold. The same applies to the pixel P [x + 1, y].

かすれに注目して、本実施形態の方法と参考方法α1及びα2とを対比説明したが、つぶれに関しても同様のことがいえる。   The method of the present embodiment and the reference methods α1 and α2 have been described by focusing on fading, but the same can be said for the collapse.

次に、図11を参照して矛盾解決処理が適用される具体例を説明する。単純なモデルとして、互いに平行且つ密接した2本の太い第4及び第5の黒線411及び412が描かれた紙面410を用意し、紙面410上の描画内容をスキャナで取り込むことで入力画像420が得られた状況を考える。黒線421及び422は、夫々、入力画像420上の第4及び第5の黒線に相当する。第4及び第5の黒線の夫々は左右方向に伸びる黒色の線分であって、第4及び第5の黒線は上下方向に並んでいる。紙面410において黒線411及び412間の隙間はスキャナ取り込みの1画素分程度であり、図11に示す如く、入力画像420における黒線421及び422間の隙間に位置する各画素の濃淡情報はグレーとなっている。また、図11に示す如く、入力画像420において、黒線421及び422間の中心付近に画素P[x,y]が存在しているものとする。   Next, a specific example to which the contradiction resolution process is applied will be described with reference to FIG. As a simple model, a paper surface 410 on which two thick fourth and fifth black lines 411 and 412 that are parallel and in close contact with each other are prepared, and the input image 420 is obtained by capturing the drawing content on the paper surface 410 with a scanner. Consider the situation where Black lines 421 and 422 correspond to fourth and fifth black lines on the input image 420, respectively. Each of the fourth and fifth black lines is a black line segment extending in the left-right direction, and the fourth and fifth black lines are arranged in the vertical direction. On the paper 410, the gap between the black lines 411 and 412 is about one pixel captured by the scanner. As shown in FIG. 11, the grayscale information of each pixel located in the gap between the black lines 421 and 422 in the input image 420 is gray. It has become. Also, as shown in FIG. 11, in the input image 420, it is assumed that a pixel P [x, y] exists in the vicinity of the center between the black lines 421 and 422.

上述のような想定の下、黒線421及び422間の隙間に位置する各画素は、図5のステップS16においてつぶれ候補画素に分類され易くなる。例えば、画素P[x−3,y]〜P[x+3,y]が全てステップS16にてつぶれ候補画素に分類されたとする。但し、ここでは、紙面410上における黒線411又は412の太さのぶれや傾き、スキャナと紙面410との位置関係及びノイズなどに起因して、画素P[x−3,y]〜P[x+3,y]の内、画素P[x,y]のみがステップS13にてかすれ候補画素にも分類されたとする。この場合、画素P[x,y]については矛盾解決処理が適用される。   Under the assumption as described above, each pixel located in the gap between the black lines 421 and 422 is easily classified as a collapse candidate pixel in step S16 of FIG. For example, it is assumed that the pixels P [x−3, y] to P [x + 3, y] are all classified as collapse candidate pixels in step S16. However, here, the pixels P [x−3, y] to P [] are caused by the blurring or inclination of the black line 411 or 412 on the paper surface 410, the positional relationship between the scanner and the paper surface 410, noise, and the like. It is assumed that only pixel P [x, y] among x + 3, y] is also classified as a blurred candidate pixel in step S13. In this case, the contradiction resolution process is applied to the pixel P [x, y].

この際、画素P[x,y]における水平方向のエッジ強度が垂直方向のエッジ強度よりも相対的に小さくなりやすいため、上記式(C1)が成立しやすくなり、最終的に画素P[x,y]はつぶれ候補画素に分類されるようになる。結果、画素P[x−3,y]〜P[x+3,y]は全て「0」の画素値にて二値化されることになる。水平方向のエッジ強度が垂直方向のエッジ強度よりも相対的に小さい場合、水平方向の濃淡変化は相対的に少ないのであるから(同程度の濃淡情報を有した画素が水平方向に並んでいるのであるから)、水平方向のエッジ強度に基づく分類結果(ステップS13の分類結果)を無視して、垂直方向のエッジ強度に基づく分類結果(ステップS16の分類結果)を優先的に採用した方が適正であると考えられる。   At this time, since the edge strength in the horizontal direction of the pixel P [x, y] tends to be relatively smaller than the edge strength in the vertical direction, the above formula (C1) is easily established, and finally the pixel P [x , Y] are classified as collapse candidate pixels. As a result, the pixels P [x−3, y] to P [x + 3, y] are all binarized with a pixel value of “0”. When the horizontal edge strength is relatively smaller than the vertical edge strength, the change in the gray level in the horizontal direction is relatively small (because pixels having the same level of gray level information are arranged in the horizontal direction). Therefore, it is better to preferentially adopt the classification result based on the edge strength in the vertical direction (classification result in step S16) ignoring the classification result based on the edge strength in the horizontal direction (classification result in step S13). It is thought that.

以下、上述の二値化方法を基本とした幾つかの変形方法を説明する。   Hereinafter, several deformation methods based on the above-described binarization method will be described.

[第1変形方法]
図5のステップS13又はS16において、或る注目画素P[x,y]がかすれ候補画素に分類されたとき、注目画素P[x,y]の1以上の近傍画素をもかすれ候補画素に分類するようにしても良く、或る注目画素P[x,y]がつぶれ候補画素に分類されたとき、注目画素P[x,y]の1以上の近傍画素をもつぶれ候補画素に分類するようにしても良い。この場合、注目画素P[x,y]と共にかすれ候補画素又はつぶれ候補画素に分類された近傍画素は、非候補画素の群から削除され(即ち図6のステップS34の処理が適用されず)、注目画素P[x,y]と同一の画素値に二値化される。ここで、注目画素P[x,y]の1以上の近傍画素は、例えば、注目画素P[x,y]の4近傍画素の全部又は一部、或いは、注目画素P[x,y]の8近傍画素の全部又は一部である。
[First Modification Method]
When a certain pixel of interest P [x, y] is classified as a blurred candidate pixel in step S13 or S16 of FIG. 5, one or more neighboring pixels of the pixel of interest P [x, y] are also classified as a blurred candidate pixel. When a certain target pixel P [x, y] is classified as a collapse candidate pixel, one or more neighboring pixels of the target pixel P [x, y] are also classified as a collapse candidate pixel. Anyway. In this case, the neighboring pixels classified as the blurred candidate pixel or the collapsed candidate pixel together with the target pixel P [x, y] are deleted from the group of non-candidate pixels (that is, the process of step S34 in FIG. 6 is not applied). It is binarized to the same pixel value as the target pixel P [x, y]. Here, the one or more neighboring pixels of the target pixel P [x, y] are, for example, all or a part of the four neighboring pixels of the target pixel P [x, y] or the target pixel P [x, y]. All or part of 8 neighboring pixels.

[第2変形方法]
図6のステップS25又はS28において、かすれ候補画素である第i候補画素に対して無条件に「1」の画素値を設定するのではなく、第i候補画素の画素値が所定の閾値thA以上ならば第i候補画素に「0」の画素値を設定する一方で第i候補画素の画素値が閾値thA未満ならば第i候補画素に「1」の画素値を設定するようにしても良い。
[Second Modification Method]
In step S25 or S28 of FIG. 6, the pixel value of the i-th candidate pixel is not set unconditionally to the i-th candidate pixel that is a blurred candidate pixel, but the pixel value of the i-th candidate pixel is a predetermined threshold th A. If this is the case, a pixel value of “0” is set for the i-th candidate pixel, while a pixel value of “1” is set for the i-th candidate pixel if the pixel value of the i-th candidate pixel is less than the threshold th A. Also good.

同様に、図6のステップS26又はS30において、つぶれ候補画素である第i候補画素に対して無条件に「0」の画素値を設定するのではなく、第i候補画素の画素値が所定の閾値thB以上ならば第i候補画素に「0」の画素値を設定する一方で第i候補画素の画素値が閾値thB未満ならば第i候補画素に「1」の画素値を設定するようにしても良い。 Similarly, in step S26 or S30 of FIG. 6, the pixel value of the i-th candidate pixel is not set to a predetermined value for the i-th candidate pixel that is a collapse candidate pixel, but is set unconditionally. If the threshold value is equal to or greater than the threshold th B, the pixel value of “0” is set to the i th candidate pixel, while if the pixel value of the i th candidate pixel is less than the threshold th B , the pixel value of “1” is set to the i th candidate pixel You may do it.

ここで、閾値thA及びthBは、“thA>thB”を満たすように予め定められていると良い。これにより、かすれ候補画素は、画素値が比較的大きくても(比較的淡い画素であっても;図3(a)参照)「1」の画素値が設定され易くなるため、二値化画像上のかすれの発生が抑制される。同様に、つぶれ候補画素は、画素値が比較的小さくても(比較的濃い画素であっても;図3(a)参照)「0」の画素値が設定され易くなるため、二値化画像上のつぶれの発生が抑制される。 Here, the thresholds th A and th B may be determined in advance so as to satisfy “th A > th B ”. As a result, even if the pixel value of the blurred candidate pixel is relatively large (even if it is a relatively light pixel; see FIG. 3A), the pixel value “1” is easily set. The occurrence of fading on the top is suppressed. Similarly, even if the collapse candidate pixel has a relatively small pixel value (even if it is a relatively dark pixel; see FIG. 3A), a pixel value of “0” is easily set. The occurrence of crushing is suppressed.

更に、閾値thA及びthBは、図6のステップS34で用いる閾値thとの関係において“thA>th>thB”を満たしていても良い。 Furthermore, the thresholds th A and th B may satisfy “th A >th> th B ” in relation to the threshold th used in step S34 in FIG.

<<第2実施形態>>
本発明の第2実施形態を説明する。第2実施形態及び後述の第3実施形態は第1実施形態を基礎とする実施形態であり、第2及び第3実施形態において特に述べない事項に関しては、矛盾の無い限り、第1実施形態の記載が第2及び第3実施形態にも適用される。
<< Second Embodiment >>
A second embodiment of the present invention will be described. The second embodiment and the third embodiment to be described later are embodiments based on the first embodiment, and matters not specifically described in the second and third embodiments are the same as those in the first embodiment unless there is a contradiction. The description also applies to the second and third embodiments.

二値化画像生成部20は、図12に示す如く、互いに異なる第1〜第Mの二値化処理(換言すれば、M種類の二値化方法)を用いて単一の入力画像IMを二値化することで、M枚の二値化画像を生成するようにしても良い。ここで、Mは2以上の任意の整数である。第iの二値化処理を用いて生成された二値化画像を記号IB[i]にて表す。二値化画像生成部20に第1〜第Mの二値化処理を実行するM個の二値化処理部(不図示)が内包されている、と考えても良い。   As shown in FIG. 12, the binarized image generation unit 20 generates a single input image IM by using different first to Mth binarization processes (in other words, M types of binarization methods). By binarizing, M binarized images may be generated. Here, M is an arbitrary integer of 2 or more. A binarized image generated using the i-th binarization process is represented by symbol IB [i]. It may be considered that the binarized image generation unit 20 includes M binarization processing units (not shown) that execute the first to Mth binarization processes.

ここで、第1の二値化処理は第1実施形態で述べた二値化処理である。従って、二値化画像IB[1]は、図5及び図6の二値化処理を用いて得られる二値化画像である。第2の二値化処理は、例えば、公知の判別分析法を用いた二値化処理であって良い。この場合、入力画像IMの各画素の画素値に基づき判別分析法を用いて閾値を設定し、設定した閾値を用いて入力画像IMの各画素を二値化することで二値化画像IB[2]が得られる。   Here, the first binarization process is the binarization process described in the first embodiment. Therefore, the binarized image IB [1] is a binarized image obtained by using the binarization processing of FIGS. The second binarization process may be a binarization process using a known discriminant analysis method, for example. In this case, a threshold value is set using a discriminant analysis method based on the pixel value of each pixel of the input image IM, and each pixel of the input image IM is binarized using the set threshold value, whereby the binarized image IB [ 2] is obtained.

文字認識処理部30は、二値化画像生成部20にて生成された二値化画像ごとに、二値化画像の各画素の画素値に基づき二値化画像から画像特徴量を抽出し、二値化画像IB[1]〜IB[M]の画像特徴量を合成することで合成画像特徴量を生成する。そして、文字認識処理部30は、合成画像特徴量に基づき入力画像IMに含まれている文字を認識する。ここにおいける合成は平均(単純平均又は加重平均)であって良い。   The character recognition processing unit 30 extracts an image feature amount from the binarized image based on the pixel value of each pixel of the binarized image for each binarized image generated by the binarized image generating unit 20, A composite image feature value is generated by combining the image feature values of the binarized images IB [1] to IB [M]. Then, the character recognition processing unit 30 recognizes characters included in the input image IM based on the composite image feature amount. The composition here may be an average (simple average or weighted average).

図13を参照し、M=2であると仮定して、文字認識処理部30の動作を詳説する。図13の例では、入力画像IMに「職」という漢字の画像情報が含まれており、入力画像IMから二値化画像IB[1]及びIB[2]が得られる。文字認識処理部30は、二値化画像IB[1]の各画素の画素値に基づく二値化画像IB[1]の輪郭情報を用いて画像特徴量IF[1]を生成する一方で、二値化画像IB[2]の各画素の画素値に基づく二値化画像IB[2]の輪郭情報を用いて画像特徴量IF[2]を生成する。画像特徴量IF[i]は、二値化画像IB[i]の特徴を表す複数次元の量から成り、ここでは例として、二値化画像IB[i]の特徴を表す200次元の量から成るものとする。そうすると、画像特徴量IF[i]は、200次元の特徴ベクトルにて表現される。   With reference to FIG. 13, assuming that M = 2, the operation of the character recognition processing unit 30 will be described in detail. In the example of FIG. 13, the input image IM includes kanji image information “job”, and binarized images IB [1] and IB [2] are obtained from the input image IM. The character recognition processing unit 30 generates the image feature amount IF [1] using the contour information of the binarized image IB [1] based on the pixel value of each pixel of the binarized image IB [1]. The image feature amount IF [2] is generated using the contour information of the binarized image IB [2] based on the pixel value of each pixel of the binarized image IB [2]. The image feature quantity IF [i] is composed of a plurality of dimensional quantities representing the characteristics of the binarized image IB [i]. Here, as an example, the image feature quantity IF [i] is derived from a 200-dimensional quantity representing the characteristics of the binarized image IB [i]. Shall be. Then, the image feature amount IF [i] is expressed by a 200-dimensional feature vector.

文字認識処理部30は、画像特徴量IF[1]及びIF[2]の平均をとることで合成画像特徴量IFCMBを生成する。ここにおける平均は単純平均であっても良いし、加重平均であっても良い。 The character recognition processing unit 30 generates the composite image feature value IF CMB by taking the average of the image feature values IF [1] and IF [2]. The average here may be a simple average or a weighted average.

文字認識処理部30には、テンプレートTPを含む複数のテンプレートを記憶するテンプレート記憶部31が備えられている。各テンプレートは文字の画像特徴量を示している。図13に示すテンプレートTPは、「職」という漢字の画像特徴量を示している。テンプレート記憶部31は、文字認識装置1の外部装置(不図示)に設けられるものであっても良く、インターネット網等の通信回線を介して記憶部31の記憶内容が文字認識処理部30に供給されても良い。   The character recognition processing unit 30 includes a template storage unit 31 that stores a plurality of templates including the template TP. Each template indicates the image feature amount of the character. A template TP shown in FIG. 13 shows an image feature amount of a Chinese character “job”. The template storage unit 31 may be provided in an external device (not shown) of the character recognition device 1, and the storage content of the storage unit 31 is supplied to the character recognition processing unit 30 via a communication line such as the Internet network. May be.

文字認識処理部30は、合成画像特徴量IFCMBと、記憶部31内の各テンプレートによる画像特徴量との類似度を計算し、計算結果に基づき入力画像IMに含まれている文字が何であるかを認識する。合成画像特徴量IFCMBと或るテンプレートによる画像特徴量との類似度は、合成画像特徴量IFCMBを表す第1特徴ベクトルと、当該テンプレートの画像特徴量を表す第2特徴ベクトルとを共通の特徴空間に配置したときの、第1及び第2特徴ベクトル間のユークリッド距離にて表される。合成画像特徴量IFCMBとテンプレートTPとの間のユークリッド距離が所定の基準値以下であるとき、文字認識処理部30は、入力画像IMに含まれている文字がテンプレートTPに対応する文字「職」であると認識する。 The character recognition processing unit 30 calculates the similarity between the composite image feature value IF CMB and the image feature value of each template in the storage unit 31, and what is the character included in the input image IM based on the calculation result. Recognize. The similarity between the composite image feature amount IF CMB and the image feature amount of a certain template is the same as the first feature vector representing the composite image feature amount IF CMB and the second feature vector representing the image feature amount of the template. It is represented by the Euclidean distance between the first and second feature vectors when arranged in the feature space. When the Euclidean distance between the composite image feature value IF CMB and the template TP is equal to or smaller than a predetermined reference value, the character recognition processing unit 30 determines that the character included in the input image IM corresponds to the character “job” corresponding to the template TP. ”.

第1実施形態の二値化処理を用いれば、かすれた文字やつぶれた文字でも良好な文字認識結果を得ることが可能であるが、あらゆるケースにおいて最良の結果を出すとは限らない。例えば、原理上、ノイズに反応しやすいので、本来白の部分をかすれ候補画素に分類することもありえるし、ベタ塗り領域中の比較的濃度の薄い部分をつぶれ候補画素に分類することもありえる。これを考慮し、第2実施形態では、複数の二値化処理を介して得た複数の画像特徴量の合成結果を用いて文字認識を行う。これにより、複数の二値化処理の利点を得た状態で(或る二値化処理が不得手とする部分を他の二値化処理にて補填したような状態で)文字認識を行うことができ、単体の二値化処理を用いる場合よりも良好な文字認識結果を得ることが可能となる。   If the binarization processing of the first embodiment is used, it is possible to obtain a good character recognition result even with a faint character or a crushed character, but the best result is not always obtained in every case. For example, in principle, since it is easy to react to noise, it is possible to classify the originally white portion as a blurred candidate pixel, and it is also possible to classify a relatively lightly dark portion in the solid area as a collapsed candidate pixel. Considering this, in the second embodiment, character recognition is performed by using a composite result of a plurality of image feature amounts obtained through a plurality of binarization processes. As a result, character recognition is performed in a state where the advantages of a plurality of binarization processes are obtained (in a state in which a portion that is not good at a certain binarization process is compensated by another binarization process). Thus, a better character recognition result can be obtained than when a single binarization process is used.

第1実施形態の二値化処理を第1の二値化処理として利用する場合の例を挙げたが、第1〜第Mの二値化処理は任意であって良い。例えば、つぶれよりもかすれに対して良好な結果を出す二値化処理を第1の二値化処理として用い、且つ、かすれよりもつぶれに対して良好な結果を出す二値化処理を第2の二値化処理として用いるようにすれば、かすれた文字及びつぶれた文字の双方に対して良好な文字認識結果を得ることが可能となる。   Although the example in the case of utilizing the binarization process of 1st Embodiment as a 1st binarization process was given, the 1st-Mth binarization process may be arbitrary. For example, a binarization process that gives a better result against blurring than squash is used as the first binarization process, and a binarization process that gives a better result against squashing than blurring is used as the second binarization process. If it is used as the binarization process, it becomes possible to obtain a good character recognition result for both the blurred character and the crushed character.

<<第3実施形態>>
本発明の第3実施形態を説明する。第3実施形態では、第1又は第2実施形態に適用可能な応用技術及び変形技術などを説明する。
<< Third Embodiment >>
A third embodiment of the present invention will be described. In the third embodiment, application techniques and modification techniques applicable to the first or second embodiment will be described.

二値化画像生成部20の構成を、図14の機能ブロック図で表すことができる。図14の二値化画像生成部20は、ステップS11及びS14の処理を実行するピーク画素抽出部21と、ステップS12及びS15の処理を実行するピーク強度導出部22と、二値化部23と、を備える。二値化部23は、ステップS13、S16及びS17の処理を実行する画素分類部23aと、ステップS22〜S33の処理を実行する候補用二値化部23bと、ステップS34の処理を実行する非候補用二値化部23cと、を備える。   The configuration of the binarized image generation unit 20 can be represented by the functional block diagram of FIG. The binarized image generation unit 20 of FIG. 14 includes a peak pixel extraction unit 21 that executes the processes of steps S11 and S14, a peak intensity derivation unit 22 that executes the processes of steps S12 and S15, and a binarization unit 23. . The binarization unit 23 executes the processing of steps S13, S16, and S17, the candidate binarization unit 23b that executes the processing of steps S22 to S33, and the processing of step S34. A binarization unit for candidates 23c.

文字認識装置1は、専用のハードウェアにより実現されても良いし、専用のハードウェアを含むコンピュータ上で専用のプログラム(ソフトウェア)を実行することにより実現されても良いし、汎用のコンピュータ上で専用のプログラム(ソフトウェア)を実行することにより実現されても良い。上記専用のプログラムは、第1又は第2実施形態で述べた二値化方法(入力画像から二値化画像を生成する方法)をコンピュータに実現させる。   The character recognition device 1 may be realized by dedicated hardware, may be realized by executing a dedicated program (software) on a computer including the dedicated hardware, or on a general-purpose computer. It may be realized by executing a dedicated program (software). The dedicated program causes a computer to realize the binarization method described in the first or second embodiment (a method for generating a binarized image from an input image).

第1及び第2実施形態では、文字を含む入力画像を二値化する方法を説明したが、第1及び第2実施形態で述べた二値化方法を含む本発明の二値化方法は、これに限定されるものではない。例えば、バーコード又はQRコード(登録商標)をカメラ又はスキャナで取り込むことで得た入力画像や、印鑑の印影を含む紙面をカメラ又はスキャナで取り込むことで得た入力画像に対して、本発明の二値化方法を適用して良い。   In the first and second embodiments, the method of binarizing an input image including characters has been described, but the binarization method of the present invention including the binarization method described in the first and second embodiments is It is not limited to this. For example, for an input image obtained by capturing a barcode or QR code (registered trademark) with a camera or scanner, or an input image obtained by capturing a paper surface including a seal stamp with a camera or scanner, A binarization method may be applied.

第1実施形態では、水平方向と垂直方向の夫々において、極値をとる画素の抽出等を行っているが、水平方向と垂直方向の一方に対してのみ極値をとる画素の抽出等を行うことも可能である(この場合、矛盾削減処理は不要となる)。例えば、水平方向に対してのみ、つぶれやかすれの発生が問題視される場合には、図5からステップS14〜S16の処理を削除すると共に、図6からステップS23及びS27〜S31の処理を削除すると良い。この場合、図6のステップS22の後、ステップS24を介してステップS25又はS26の処理を実行した後に、ステップS32に移行すれば良い。垂直方向に対してのみ、つぶれやかすれの発生が問題視される場合も同様にすればよい。入力画像が一次元画像である場合も同様である。   In the first embodiment, extraction of a pixel having an extreme value is performed in each of the horizontal direction and the vertical direction. However, extraction of a pixel having an extreme value is performed only in one of the horizontal direction and the vertical direction. (In this case, contradiction reduction processing is unnecessary). For example, when the occurrence of crushing or fading is regarded as a problem only in the horizontal direction, the processes of steps S14 to S16 are deleted from FIG. 5, and the processes of steps S23 and S27 to S31 are deleted from FIG. Good. In this case, after step S22 of FIG. 6, after performing the process of step S25 or S26 via step S24, the process may proceed to step S32. The same applies when the occurrence of crushing or fading is regarded as a problem only in the vertical direction. The same applies when the input image is a one-dimensional image.

<<本発明の考察>>
第1〜第3実施形態にて具現化された本発明の技術について考察する。
<< Consideration of the Present Invention >>
The technique of the present invention embodied in the first to third embodiments will be considered.

本発明の一側面に係る二値化方法Wは、多値の入力画像を二値化する二値化方法であって、前記入力画像を所定方向に沿って走査したときに極値をとる画素をピーク画素として抽出するピーク画素抽出工程(ステップS11、S14)と、前記所定方向に沿って連続して並ぶ5つの画素を含み且つ前記ピーク画素を中心画素として含む評価画素群中の各画素の画素値に基づいて、前記ピーク画素を二値化する二値化工程と、を含むことを特徴とする。   A binarization method W according to one aspect of the present invention is a binarization method for binarizing a multi-value input image, and a pixel that takes an extreme value when the input image is scanned along a predetermined direction. Pixel extraction step (steps S11 and S14) for extracting each pixel in the evaluation pixel group including the five pixels continuously arranged along the predetermined direction and the peak pixel as a central pixel. And a binarization step of binarizing the peak pixel based on a pixel value.

上記評価画素群中の各画素の画素値に基づいてピーク画素を二値化するため(例えば、画素P[x−2,y]〜画素P[x+2,y]から成る評価画素群中の各画素の画素値に基づいて水平ピーク画素P[x,y]を二値化するため)、ピーク画素の近傍の濃淡変化を詳細に考慮することができ、かすれやつぶれの生じにくい(換言すれば、かすれやつぶれが解消された)良好な二値化を実現できる。   In order to binarize the peak pixel based on the pixel value of each pixel in the evaluation pixel group (for example, each evaluation pixel group consisting of pixel P [x−2, y] to pixel P [x + 2, y]) Since the horizontal peak pixel P [x, y] is binarized based on the pixel value of the pixel), the change in shading near the peak pixel can be taken into consideration in detail, and blurring and squashing are unlikely to occur (in other words, , Good binarization can be realized.

尚、第1実施形態では、評価画素群がピーク画素(水平又は垂直ピーク画素)を中心画素として含んだ5つの画素にて形成されているが、評価画素群がピーク画素(水平又は垂直ピーク画素)を中心画素として含んだ7つ以上の画素にて形成されていても良い。   In the first embodiment, the evaluation pixel group is formed of five pixels including a peak pixel (horizontal or vertical peak pixel) as a central pixel. However, the evaluation pixel group is a peak pixel (horizontal or vertical peak pixel). ) As a central pixel.

二値化方法Wにおける所定方向は、例えば第1実施形態における水平方向又は垂直方向であって良く、水平方向と垂直方向を含むと考えても良い。第1実施形態では例えば、画素P[x,y]がピーク画素の一種である水平ピーク画素として抽出されたとき(ステップS11)、画素P[x−2,y]〜P[x+2,y]を含む評価画素群中の各画素の画素値v[x−2,y]〜v[x+2,y]に基づき、ステップS12及びS13並びに図6のステップS21以降の処理を介して水平ピーク画素P[x,y]が二値化される。第1実施形態に係る二値化工程は、ステップS25、S26、S28及びS30の処理の全部又は一部を含むと考えて良い。   The predetermined direction in the binarization method W may be, for example, the horizontal direction or the vertical direction in the first embodiment, and may be considered to include the horizontal direction and the vertical direction. In the first embodiment, for example, when the pixel P [x, y] is extracted as a horizontal peak pixel which is a kind of peak pixel (step S11), the pixels P [x−2, y] to P [x + 2, y]. Based on the pixel values v [x−2, y] to v [x + 2, y] of each pixel in the evaluation pixel group including the horizontal peak pixel P through steps S12 and S13 and the processing after step S21 in FIG. [X, y] is binarized. The binarization process according to the first embodiment may be considered to include all or part of the processes of steps S25, S26, S28, and S30.

具体的には例えば、前記二値化方法Wにおいて、前記評価画素群は、前記所定方向において前記ピーク画素の両隣に位置する第1画素及び第2画素と、前記所定方向において前記ピーク画素から見て前記第1画素の外側に位置する第3画素及び前記第2画素の外側に位置する第4画素を含み(例えば、前記所定方向において前記ピーク画素から見て前記第1画素より遠くに位置する第3画素及び前記第2画素より遠くに位置する第4画素を含み;より具体的には例えば、前記所定方向において前記ピーク画素から1画素分隔てて位置する第3画素及び第4画素を含み)、前記第1画素は前記ピーク画素及び前記第3画素間に位置するとともに、前記第2画素は前記ピーク画素及び前記第4画素間に位置し、前記二値化工程では、前記ピーク画素と前記第1〜第4画素との間における画素値の第1〜第4差分(例えば、DIFL1、DIFR1、DIFL2、DIFR2;図7(a)又は(b)参照)に基づき、前記ピーク画素を二値化すると良い。 Specifically, for example, in the binarization method W, the evaluation pixel group includes a first pixel and a second pixel located on both sides of the peak pixel in the predetermined direction, and the peak pixel in the predetermined direction. A third pixel located outside the first pixel and a fourth pixel located outside the second pixel (for example, located farther from the first pixel when viewed from the peak pixel in the predetermined direction) Including a third pixel and a fourth pixel positioned farther than the second pixel; more specifically, for example, including a third pixel and a fourth pixel positioned one pixel apart from the peak pixel in the predetermined direction ), The first pixel is located between the peak pixel and the third pixel, and the second pixel is located between the peak pixel and the fourth pixel. In the binarization step, the peak image is Based on; first to fourth difference between the pixel value (see FIG. 7 (a) or (b) for example, DIF L1, DIF R1, DIF L2, DIF R2) between the first to fourth pixel and The peak pixel may be binarized.

第1差分及び第2差分だけ、或いは、第3差分及び第4差分だけを考慮するのではなく、ピーク画素の両側の2画素分の差分から成る計4つの差分に基づいてピーク画素を二値化するため、ピーク画素の近傍の濃淡変化を詳細に考慮することができ、かすれやつぶれの生じにくい(換言すれば、かすれやつぶれが解消された)良好な二値化を実現できる。   Rather than considering only the first difference and the second difference, or only the third difference and the fourth difference, the peak pixel is binarized based on a total of four differences consisting of the difference of two pixels on both sides of the peak pixel. Therefore, it is possible to consider in detail the density change in the vicinity of the peak pixel, and it is possible to realize good binarization that is less likely to cause blurring or squashing (in other words, the blurring or squashing is eliminated).

第1実施形態では例えば、画素P[x,y]がピーク画素の一種である水平ピーク画素として抽出されたとき(ステップS11)、画素値v[x−2,y]〜v[x+2,y]に応じた第1〜第4差分(例えば、DIFL1、DIFR1、DIFL2、DIFR2;図7(a)又は(b)参照)に基づき、ステップS12及びS13並びに図6のステップS21以降の処理を介して水平ピーク画素P[x,y]が二値化される(例えばステップS25、S26)。 In the first embodiment, for example, when the pixel P [x, y] is extracted as a horizontal peak pixel which is a kind of peak pixel (step S11), the pixel values v [x-2, y] to v [x + 2, y ] Based on the first to fourth differences (for example, DIF L1 , DIF R1 , DIF L2 , DIF R2 ; see FIG. 7A or FIG. 7B), Steps S12 and S13 and Step S21 in FIG. The horizontal peak pixel P [x, y] is binarized through the process (for example, steps S25 and S26).

より詳細には例えば、前記二値化方法Wは、前記ピーク画素における第1エッジ強度及び第2エッジ強度の和を前記ピーク画素のピーク強度として導出するピーク強度導出工程(ステップS12、S15)を更に含み、前記ピーク強度導出工程では、前記第1差分(例えばDIFL1)と前記第3差分(例えばDIFL2)が同符号であって又は前記第1差分がゼロであって且つ前記第3差分の絶対値が前記第1差分の絶対値より大きいとき、前記第3差分を前記第1エッジ強度(例えば左側エッジ強度)として導出する一方で、そうでないとき、前記第1差分を前記第1エッジ強度として導出し、前記第2差分(例えばDIFR1)と前記第4差分(例えばDIFR2)が同符号であって又は前記第2差分がゼロであって且つ前記第4差分の絶対値が前記第2差分の絶対値より大きいとき、前記第4差分を前記第2エッジ強度(例えば右側エッジ強度)として導出する一方で、そうでないとき、前記第2差分を前記第2エッジ強度として導出すると良い。この際、前記二値化工程では、前記ピーク強度の絶対値が所定値以上のとき、前記ピーク強度の符号に基づいて前記ピーク画素を二値化すると良い。 More specifically, for example, the binarization method W includes a peak intensity derivation step (steps S12 and S15) for deriving the sum of the first edge intensity and the second edge intensity at the peak pixel as the peak intensity of the peak pixel. Further, in the peak intensity derivation step, the first difference (for example, DIF L1 ) and the third difference (for example, DIF L2 ) have the same sign or the first difference is zero and the third difference When the absolute value of the first difference is larger than the absolute value of the first difference, the third difference is derived as the first edge strength (for example, the left edge strength), while otherwise, the first difference is calculated as the first edge. Derived as an intensity, the second difference (for example, DIF R1 ) and the fourth difference (for example, DIF R2 ) have the same sign or the second difference is zero and the absolute value of the fourth difference When the value is larger than the absolute value of the second difference, the fourth difference is derived as the second edge strength (for example, right edge strength), while otherwise, the second difference is used as the second edge strength. Derived. At this time, in the binarization step, when the absolute value of the peak intensity is equal to or greater than a predetermined value, the peak pixel may be binarized based on the sign of the peak intensity.

これにより、図10(a)〜(c)を用いて説明したような入力画像に対しても、かすれやつぶれの生じにくい良好な二値化を実現できる。   Thereby, it is possible to realize good binarization that is less likely to cause blurring or crushing even for an input image as described with reference to FIGS.

第1実施形態では例えば、画素P[x,y]がピーク画素の一種である水平ピーク画素として抽出され(ステップS11)、且つ、水平ピーク画素P[x,y]の水平ピーク強度が所定値以上のとき、水平ピーク強度の符号に応じた水平ピーク画素P[x,y]のかすれ候補画素又はつぶれ候補画素への分類を介して、水平ピーク画素P[x,y]が二値化される(例えばステップS25、S26)。   In the first embodiment, for example, the pixel P [x, y] is extracted as a horizontal peak pixel which is a kind of peak pixel (step S11), and the horizontal peak intensity of the horizontal peak pixel P [x, y] is a predetermined value. At the above, the horizontal peak pixel P [x, y] is binarized through the classification of the horizontal peak pixel P [x, y] according to the sign of the horizontal peak intensity into the blurred candidate pixel or the collapse candidate pixel. (For example, steps S25 and S26).

そして例えば、前記二値化方法Wに係る前記二値化工程では、前記ピーク強度の絶対値が前記所定値未満のピーク画素、及び、前記ピーク画素以外の画素については、閾値を用いて二値化すると良い(ステップS34)。   And, for example, in the binarization step according to the binarization method W, a peak pixel whose absolute value of the peak intensity is less than the predetermined value and pixels other than the peak pixel are binarized using a threshold value. (Step S34).

前記二値化方法Wにおいて、前記閾値は、予め設定された固定値であって良い、又は、前記入力画像に基づいて設定されるものであって良い。   In the binarization method W, the threshold value may be a preset fixed value, or may be set based on the input image.

本発明の実施形態は、特許請求の範囲に示された技術的思想の範囲内において、適宜、種々の変更が可能である。以上の実施形態は、あくまでも、本発明の実施形態の例であって、本発明ないし各構成要件の用語の意義は、以上の実施形態に記載されたものに制限されるものではない。上述の説明文中に示した具体的な数値は、単なる例示であって、当然の如く、それらを様々な数値に変更することができる。   The embodiment of the present invention can be appropriately modified in various ways within the scope of the technical idea shown in the claims. The above embodiment is merely an example of the embodiment of the present invention, and the meaning of the term of the present invention or each constituent element is not limited to that described in the above embodiment. The specific numerical values shown in the above description are merely examples, and as a matter of course, they can be changed to various numerical values.

1 文字認識装置
10 入力画像取得部
20 二値化画像生成部
21 ピーク画素抽出部
22 ピーク強度導出部
23 二値化部
30 文字認識処理部
40 出力部
DESCRIPTION OF SYMBOLS 1 Character recognition apparatus 10 Input image acquisition part 20 Binary image generation part 21 Peak pixel extraction part 22 Peak intensity | strength derivation part 23 Binary part 30 Character recognition process part 40 Output part

Claims (7)

多値の入力画像を二値化する二値化方法であって、
前記入力画像を所定方向に沿って走査したときに極値をとる画素をピーク画素として抽出するピーク画素抽出工程と、
前記所定方向に沿って連続して並ぶ5つの画素を含み且つ前記ピーク画素を中心画素として含む評価画素群中の各画素の画素値に基づいて、前記ピーク画素を二値化する二値化工程と、を含む
ことを特徴とする二値化方法。
A binarization method for binarizing a multi-value input image,
A peak pixel extraction step of extracting, as a peak pixel, a pixel that takes an extreme value when the input image is scanned along a predetermined direction;
A binarization step of binarizing the peak pixel based on a pixel value of each pixel in an evaluation pixel group including five pixels continuously arranged along the predetermined direction and including the peak pixel as a central pixel And a binarization method comprising:
前記評価画素群は、前記所定方向において前記ピーク画素の両隣に位置する第1画素及び第2画素と、前記所定方向において前記ピーク画素から見て前記第1画素の外側に位置する第3画素及び前記第2画素の外側に位置する第4画素を含み、前記第1画素は前記ピーク画素及び前記第3画素間に位置するとともに、前記第2画素は前記ピーク画素及び前記第4画素間に位置し、
前記二値化工程では、前記ピーク画素と前記第1〜第4画素との間における画素値の第1〜第4差分に基づき、前記ピーク画素を二値化する
ことを特徴とする請求項1に記載の二値化方法。
The evaluation pixel group includes a first pixel and a second pixel located on both sides of the peak pixel in the predetermined direction, a third pixel located outside the first pixel when viewed from the peak pixel in the predetermined direction, and A fourth pixel located outside the second pixel, wherein the first pixel is located between the peak pixel and the third pixel, and the second pixel is located between the peak pixel and the fourth pixel. And
2. The binarization step binarizes the peak pixel based on first to fourth differences in pixel values between the peak pixel and the first to fourth pixels. The binarization method described in 1.
前記ピーク画素における第1エッジ強度及び第2エッジ強度の和を前記ピーク画素のピーク強度として導出するピーク強度導出工程を更に含み、
前記ピーク強度導出工程では、前記第1差分と前記第3差分が同符号であって又は前記第1差分がゼロであって且つ前記第3差分の絶対値が前記第1差分の絶対値より大きいとき、前記第3差分を前記第1エッジ強度として導出する一方で、そうでないとき、前記第1差分を前記第1エッジ強度として導出し、
前記第2差分と前記第4差分が同符号であって又は前記第2差分がゼロであって且つ前記第4差分の絶対値が前記第2差分の絶対値より大きいとき、前記第4差分を前記第2エッジ強度として導出する一方で、そうでないとき、前記第2差分を前記第2エッジ強度として導出し、
前記二値化工程では、前記ピーク強度の絶対値が所定値以上のとき、前記ピーク強度の符号に基づいて前記ピーク画素を二値化する
ことを特徴とする請求項2に記載の二値化方法。
A peak intensity deriving step of deriving the sum of the first edge intensity and the second edge intensity at the peak pixel as the peak intensity of the peak pixel;
In the peak intensity derivation step, the first difference and the third difference have the same sign or the first difference is zero and the absolute value of the third difference is greater than the absolute value of the first difference When deriving the third difference as the first edge strength, otherwise deriving the first difference as the first edge strength,
When the second difference and the fourth difference have the same sign or the second difference is zero and the absolute value of the fourth difference is larger than the absolute value of the second difference, the fourth difference is While deriving as the second edge strength, otherwise deriving the second difference as the second edge strength,
3. The binarization according to claim 2, wherein, in the binarization step, when the absolute value of the peak intensity is equal to or greater than a predetermined value, the peak pixel is binarized based on a sign of the peak intensity. Method.
前記二値化工程では、前記ピーク強度の絶対値が前記所定値未満のピーク画素、及び、前記ピーク画素以外の画素については、閾値を用いて二値化する
ことを特徴とする請求項3に記載の二値化方法。
4. The binarization step, wherein a peak pixel whose absolute value of the peak intensity is less than the predetermined value and pixels other than the peak pixel are binarized using a threshold value. The binarization method described.
前記閾値は、予め設定された固定値である、又は、前記入力画像に基づいて設定される
ことを特徴とする請求項4に記載の二値化方法。
The binarization method according to claim 4, wherein the threshold value is a preset fixed value or is set based on the input image.
請求項1〜5の何れかに記載の二値化方法をコンピュータに実現させるためのプログラム。   The program for making a computer implement | achieve the binarization method in any one of Claims 1-5. 多値の入力画像を二値化する二値化装置であって、
前記入力画像を取得する入力画像取得部と、
前記入力画像を所定方向に沿って走査したときに極値をとる画素をピーク画素として抽出するピーク画素抽出部と、
前記所定方向に沿って連続して並ぶ5つの画素を含み且つ前記ピーク画素を中心画素として含む評価画素群中の各画素の画素値に基づいて、前記ピーク画素を二値化する二値化部と、を備える
ことを特徴とする二値化装置。
A binarization device for binarizing a multi-value input image,
An input image acquisition unit for acquiring the input image;
A peak pixel extraction unit that extracts, as a peak pixel, a pixel that takes an extreme value when the input image is scanned along a predetermined direction;
A binarization unit that binarizes the peak pixel based on a pixel value of each pixel in an evaluation pixel group that includes five pixels continuously arranged along the predetermined direction and includes the peak pixel as a central pixel And a binarization apparatus comprising:
JP2014217393A 2014-10-24 2014-10-24 Image binarization method, program, and binarization apparatus Active JP6335097B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014217393A JP6335097B2 (en) 2014-10-24 2014-10-24 Image binarization method, program, and binarization apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014217393A JP6335097B2 (en) 2014-10-24 2014-10-24 Image binarization method, program, and binarization apparatus

Publications (2)

Publication Number Publication Date
JP2016086273A true JP2016086273A (en) 2016-05-19
JP6335097B2 JP6335097B2 (en) 2018-05-30

Family

ID=55971917

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014217393A Active JP6335097B2 (en) 2014-10-24 2014-10-24 Image binarization method, program, and binarization apparatus

Country Status (1)

Country Link
JP (1) JP6335097B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05284356A (en) * 1992-02-13 1993-10-29 Seiko Epson Corp Picture information binarization method and picture information binarization
JPH0832802A (en) * 1994-07-12 1996-02-02 Fuji Xerox Co Ltd Image processing unit
JPH11177815A (en) * 1997-12-09 1999-07-02 Dainippon Screen Mfg Co Ltd Image data processor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05284356A (en) * 1992-02-13 1993-10-29 Seiko Epson Corp Picture information binarization method and picture information binarization
JPH0832802A (en) * 1994-07-12 1996-02-02 Fuji Xerox Co Ltd Image processing unit
JPH11177815A (en) * 1997-12-09 1999-07-02 Dainippon Screen Mfg Co Ltd Image data processor

Also Published As

Publication number Publication date
JP6335097B2 (en) 2018-05-30

Similar Documents

Publication Publication Date Title
CN107609549B (en) Text detection method for certificate image in natural scene
CN111401372B (en) Method for extracting and identifying image-text information of scanned document
KR101403876B1 (en) Method and Apparatus for Vehicle License Plate Recognition
US8750619B2 (en) Character recognition
JP5588987B2 (en) Text positioning for image and video OCR
JP4952625B2 (en) Perspective transformation distortion generating document image correcting apparatus and method
Gebhardt et al. Document authentication using printing technique features and unsupervised anomaly detection
US9965695B1 (en) Document image binarization method based on content type separation
US8947736B2 (en) Method for binarizing scanned document images containing gray or light colored text printed with halftone pattern
RU2659745C1 (en) Reconstruction of the document from document image series
Lee et al. License plate detection using local structure patterns
CN110598566A (en) Image processing method, device, terminal and computer readable storage medium
RU2581786C1 (en) Determination of image transformations to increase quality of optical character recognition
Roy et al. Wavelet-gradient-fusion for video text binarization
CN102737240B (en) Method of analyzing digital document images
Gilly et al. A survey on license plate recognition systems
Kanter Color Crack: Identifying Cracks in Glass
Bijalwan et al. Automatic text recognition in natural scene and its translation into user defined language
CN105721738B (en) A kind of chromoscan file and picture preprocess method
JP6335097B2 (en) Image binarization method, program, and binarization apparatus
Nor et al. Image segmentation and text extraction: application to the extraction of textual information in scene images
JP4890351B2 (en) Image processing apparatus, image processing program, computer-readable recording medium storing the image processing program, and image processing method
JP2019021085A (en) Image processing program, image processing method, and image processing device
Xu Content Understanding for Imaging Systems: Page Classification, Fading Detection, Emotion Recognition, and Saliency Based Image Quality Assessment and Cropping
Sagum Incorporating deblurring techniques in multiple recognition of license plates from video sequences

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170803

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180329

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180417

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180427

R150 Certificate of patent or registration of utility model

Ref document number: 6335097

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150