JP2000235618A - Character detecting device - Google Patents

Character detecting device

Info

Publication number
JP2000235618A
JP2000235618A JP11037108A JP3710899A JP2000235618A JP 2000235618 A JP2000235618 A JP 2000235618A JP 11037108 A JP11037108 A JP 11037108A JP 3710899 A JP3710899 A JP 3710899A JP 2000235618 A JP2000235618 A JP 2000235618A
Authority
JP
Japan
Prior art keywords
image
character
edge
line pair
edge line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11037108A
Other languages
Japanese (ja)
Inventor
Hideo Kawamura
秀男 川村
Hiroyasu Miyahara
景泰 宮原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP11037108A priority Critical patent/JP2000235618A/en
Publication of JP2000235618A publication Critical patent/JP2000235618A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a character detecting device capable of correctly detecting a character even in an image in which many edge points are generated. SOLUTION: This device is provided with an image inputting and storing means 1 which inputs an image and stores it as an input image, an edge image generating means 2 which generates an edge image from the input image, an edge line pair detecting means 3 which extracts two edge lines existing at a prescribed distance in the edge image as an edge line pair and generates an edge line pair distribution image and a character position detecting means 4 which connects adjacent edge line pairs from the edge line pair distribution image on the basis of the direction of each edge line pair, finds a connection area as a character area and outputs a character position. Thus, an edge occurring on a road surface, etc., is prevented from being detected mistakenly.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、画像中より文字
を検出する文字検出装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a character detecting device for detecting a character in an image.

【0002】[0002]

【従来の技術】従来の文字検出装置について図面を参照
しながら説明する。図11は、例えば特開平7−105
340号公報に示された従来の表示プレート検出装置の
構成を示すブロック図である。
2. Description of the Related Art A conventional character detection device will be described with reference to the drawings. FIG. 11 shows, for example, Japanese Patent Laid-Open No. 7-105.
FIG. 1 is a block diagram illustrating a configuration of a conventional display plate detection device disclosed in Japanese Patent Publication No. 340.

【0003】図11において、1はカメラから画像をデ
ジタル変換しフレームメモリに格納する画像入力・蓄積
手段、2は前記画像中の輝度変化点を検出しエッジ画像
を求めるエッジ画像生成手段、1001は前記エッジ画
像より所定範囲内に存在するエッジの対を検出するペア
・エッジ検出手段、1002はペア・エッジ検出手段1
001で得られたエッジ対よりプレート位置を検出する
プレート位置検出手段である。
In FIG. 11, reference numeral 1 denotes an image input / storage means for digitally converting an image from a camera and storing it in a frame memory; 2, an edge image generation means for detecting a luminance change point in the image to obtain an edge image; A pair edge detecting means for detecting a pair of edges existing within a predetermined range from the edge image;
Plate position detection means for detecting a plate position from the edge pair obtained in step 001.

【0004】つぎに、前述した従来の文字検出装置の動
作について図面を参照しながら説明する。図12は、従
来の文字検出装置において、エッジ画像を作成する垂直
エッジ検出マスクを示す図である。
Next, the operation of the above-described conventional character detection device will be described with reference to the drawings. FIG. 12 is a diagram showing a vertical edge detection mask for creating an edge image in a conventional character detection device.

【0005】まず、画像入力・蓄積手段1は、撮像画像
をフレームメモリに格納する。次に、エッジ画像生成手
段2では、前記蓄積画像より垂直エッジを抽出し、エッ
ジ画像を作成する。このエッジ画像生成方法は、入力画
像において注目画素を設定し、注目画素値及びその8近
傍画素値に、図12に示す垂直エッジ検出マスク100
3の対応する画素値を掛け、加算した値を注目画素にお
ける微分値としてエッジ画像に格納し、漸次、注目画素
を更新し全画素について前記操作を行う。
First, the image input / accumulation means 1 stores a captured image in a frame memory. Next, the edge image generating means 2 extracts a vertical edge from the accumulated image to create an edge image. In this edge image generation method, a target pixel is set in an input image, and a vertical edge detection mask 100 shown in FIG.
The corresponding pixel value is multiplied by 3, and the added value is stored in the edge image as a differential value of the pixel of interest, the pixel of interest is updated gradually, and the above operation is performed for all pixels.

【0006】次に、ペア・エッジ検出手段1001で
は、前記エッジ画像を水平方向に走査して近接する暗部
から明部に変化するアップエッジおよび明部から暗部に
変化するダウンエッジを検出して、アップエッジとダウ
ンエッジ間の距離が所定範囲内にある時はこのアップエ
ッジとダウンエッジをペア・エッジとして登録する。そ
して、プレート位置検出手段1002では、前記ペア・
エッジがある一定以上存在する部分領域をナンバープレ
ート領域として抽出する。
Next, the pair edge detecting means 1001 scans the edge image in the horizontal direction to detect an up edge changing from a dark portion to a bright portion and a down edge changing from a bright portion to a dark portion. When the distance between the up edge and the down edge is within a predetermined range, the up edge and the down edge are registered as a pair edge. Then, in the plate position detecting means 1002, the pair
A partial area where an edge exists for a certain number or more is extracted as a license plate area.

【0007】[0007]

【発明が解決しようとする課題】上述したような従来の
文字検出装置では、近接するエッジ点のペアが多い領域
を文字の存在する領域としているため、エッジ点が多く
発生する領域、例えば路面等の文字の存在しない部分を
文字領域として誤って検出してしまうという問題点があ
った。
In the above-described conventional character detection device, a region where there are many pairs of adjacent edge points is defined as a region where a character exists. Therefore, a region where many edge points occur, for example, a road surface or the like. There is a problem that a portion where no character is present is erroneously detected as a character area.

【0008】この発明は、前述した問題点を解決するた
めになされたもので、エッジ点が多く発生する画像にお
いても正しく文字を検出することができる文字検出装置
を得ることを目的とする。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problem, and has as its object to provide a character detecting device capable of correctly detecting characters even in an image having many edge points.

【0009】[0009]

【課題を解決するための手段】この発明に係る文字検出
装置は、画像中の文字を検出する文字検出装置におい
て、画像を入力し入力画像として蓄積する画像入力・蓄
積手段と、前記入力画像からエッジ画像を作成するエッ
ジ画像生成手段と、前記エッジ画像で所定距離に存在す
る2本のエッジ線をエッジ線対として抽出し、エッジ線
対分布画像を作成するエッジ線対検出手段と、前記エッ
ジ線対分布画像から隣接するエッジ線対を各エッジ線対
の方向に基づいて連結し、連結領域を文字領域として求
め、文字位置を出力する文字位置検出手段とを備えたも
のである。
According to the present invention, there is provided a character detecting apparatus for detecting a character in an image, comprising: an image inputting / accumulating means for inputting an image and storing the input image; Edge image generating means for creating an edge image; edge line pair detecting means for extracting two edge lines existing at a predetermined distance from the edge image as an edge line pair to create an edge line pair distribution image; A character position detecting means for connecting adjacent edge line pairs from the line pair distribution image based on the direction of each edge line pair, obtaining a connected region as a character region, and outputting a character position.

【0010】また、この発明に係る文字検出装置は、前
記文字位置検出手段で求めた各文字領域について文字で
あるか否か検定する検定手段をさらに備えたものであ
る。
Further, the character detecting apparatus according to the present invention further comprises a testing means for testing whether or not each of the character areas obtained by the character position detecting means is a character.

【0011】さらに、この発明に係る文字検出装置は、
前記エッジ線対検出手段が、エッジ線対分布画像を細分
化した部分領域でエッジ線対が得られないときに該部分
領域について再度エッジ線対検出を行うものである。
Further, the character detecting device according to the present invention is
The edge line pair detecting means detects an edge line pair again in a partial region obtained by subdividing the edge line pair distribution image when an edge line pair cannot be obtained.

【0012】[0012]

【発明の実施の形態】実施の形態1.この発明の実施の
形態1に係る文字検出装置について図面を参照しながら
説明する。図1は、この発明の実施の形態1に係る文字
検出装置の構成を示すブロック図である。なお、各図
中、同一符号は同一又は相当部分を示す。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiment 1 A character detection device according to Embodiment 1 of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a character detection device according to Embodiment 1 of the present invention. In the drawings, the same reference numerals indicate the same or corresponding parts.

【0013】図1において、1は画像を入力し、入力画
像として蓄積する画像入力・蓄積手段、2は前記入力画
像からエッジ画像を生成するエッジ画像生成手段、3は
前記エッジ画像から文字線の輪郭部に相当する2本の対
となるエッジ線をエッジ線対として抽出し、エッジ線対
分布画像を作成するエッジ線対検出手段、4は前記エッ
ジ線対分布画像より前記入力画像中の文字を検出し文字
位置を出力する文字位置検出手段である。
In FIG. 1, reference numeral 1 denotes an image inputting / accumulating means for inputting an image and accumulating it as an input image, 2 an edge image generating means for generating an edge image from the input image, and 3 a character line from the edge image. An edge line pair detecting means for extracting two pairs of edge lines corresponding to the contour portion as an edge line pair and creating an edge line pair distribution image, and a character in the input image based on the edge line pair distribution image. Character position detecting means for detecting a character position and outputting a character position.

【0014】図2は、エッジ画像生成手段2で用いる3
×3画素からなるラプラシアンフィルタの例を示す図で
ある。同図において、5はラプラシアンフィルタ、6は
注目画素に対応するフィルタ値である。
FIG. 2 is a diagram showing a configuration of the edge image generating means 2.
FIG. 3 is a diagram illustrating an example of a Laplacian filter composed of × 3 pixels. In the figure, 5 is a Laplacian filter, and 6 is a filter value corresponding to the pixel of interest.

【0015】図3は、エッジ線対検出手段3の動作を説
明する図である。同図において、101から104まで
はエッジ線対を検出するエッジ線対検出マスク例であ
り、101は前記エッジ画像において垂直線を、102
は水平線を、103は左上がり方向の斜め線を、104
は右上がり方向の斜め線からなる2本の対となる直線を
検出するエッジ線対検出マスク、105〜108はエッ
ジ線対検出マスク値例、109は文字画像、110は文
字画像のエッジ画像、111は文字線の輪郭間の距離L
である。
FIG. 3 is a diagram for explaining the operation of the edge line pair detecting means 3. In the figure, reference numerals 101 to 104 denote an example of an edge line pair detection mask for detecting an edge line pair.
Is a horizontal line, 103 is a diagonal line that rises to the left, 104
Is an edge line pair detection mask for detecting two pairs of straight lines formed by oblique lines in the upward direction, 105 to 108 are examples of edge line pair detection mask values, 109 is a character image, 110 is an edge image of a character image, 111 is the distance L between the contours of the character line
It is.

【0016】つぎに、前述した実施の形態1に係る文字
検出装置の動作について図面を参照しながら説明する。
図4は、この発明の実施の形態1に係る文字検出装置の
動作を示すフローチャートである。また、図5は、エッ
ジ線対検出手段3の動作を説明するフローチャートであ
る。さらに、図6は、文字位置検出手段4の動作を説明
する図である。
Next, the operation of the character detecting apparatus according to the first embodiment will be described with reference to the drawings.
FIG. 4 is a flowchart showing the operation of the character detection device according to Embodiment 1 of the present invention. FIG. 5 is a flowchart for explaining the operation of the edge line pair detecting means 3. FIG. 6 is a diagram for explaining the operation of the character position detecting means 4.

【0017】図4のステップS101において、画像入
力・蓄積手段1は、カメラ等からの画像を入力画像とし
てフレーム・メモリー等に多値にて蓄積する。次に、ス
テップS102において、エッジ画像生成手段2は、前
記入力画像における輝度変化を表すエッジ画像を作成す
る。
In step S101 of FIG. 4, the image input / accumulation means 1 accumulates an image from a camera or the like as an input image in a frame memory or the like in multiple values. Next, in step S102, the edge image generation means 2 generates an edge image representing a change in luminance in the input image.

【0018】例えば、図3の文字画像「1234」10
9を入力画像とした場合、該エッジ画像110は文字を
構成する輪郭線の画像になる。エッジ画像生成方法は、
例えば「コンピュータ画像処理入門」(総研出版、田村
秀行監修、PP.123−125)で開示されているラプラ
シアンフィルターによる微分画像生成方法で行う。入力
画像において注目画素を設定し、注目画素及びその8近
傍画素にラプラシアンフィルタ5の対応する画素値を掛
け、加算した値を注目画素における微分値としてエッジ
画像に格納する。本動作は漸次注目画素を更新し全画素
について行う。
For example, the character image "1234" 10 in FIG.
When 9 is an input image, the edge image 110 is an image of an outline constituting a character. Edge image generation method,
For example, a differential image generation method using a Laplacian filter disclosed in “Introduction to Computer Image Processing” (supervised by Soken Publishing, Hideyuki Tamura, PP. 123-125). The target pixel is set in the input image, the target pixel and its eight neighboring pixels are multiplied by the corresponding pixel value of the Laplacian filter 5, and the added value is stored in the edge image as a differential value of the target pixel. This operation is performed for all the pixels by gradually updating the target pixel.

【0019】ステップS103において、エッジ線対検
出手段3では、前記エッジ画像と所定のエッジ線対検出
マスク値105〜108との相関値を算出する。例え
ば、エッジ線対検出マスク値は、輪郭線に対応する部分
を0より大きな値とし、それ以外は0となる図3に示す
符号105〜108に示す値とする。
In step S103, the edge line pair detecting means 3 calculates a correlation value between the edge image and predetermined edge line pair detection mask values 105 to 108. For example, the edge line pair detection mask value is set to a value larger than 0 for a portion corresponding to the contour line, and is set to values other than the values indicated by reference numerals 105 to 108 in FIG.

【0020】図5のフローチャートを用いてエッジ線対
検出手段3の動作を説明する。ここで、エッジ線対分布
画像はエッジ線対検出マスク毎に相関値を格納する。
The operation of the edge line pair detecting means 3 will be described with reference to the flowchart of FIG. Here, the edge line pair distribution image stores a correlation value for each edge line pair detection mask.

【0021】ステップS201において、処理対象エッ
ジ線対検出マスクを表す変数iを1で初期化する。
In step S201, a variable i representing a processing target edge line pair detection mask is initialized to 1.

【0022】次に、ステップS202において、変数i
に対応する所定のエッジ線対検出マスクを選択し、この
エッジ線対検出マスクとエッジ画像の全画素値におい
て、前記エッジ画像生成方法と同様に、エッジ画像につ
いて注目画素を設定し、該エッジ線対検出マスクの対応
するエッジ画像の画素値と該エッジ線対検出マスク値を
掛け、加算した値を注目画素における相関値として、選
択したエッジ線対検出マスクのエッジ線対分布画像に格
納する。
Next, in step S202, the variable i
Is selected, and for all pixel values of the edge line pair detection mask and the edge image, a pixel of interest is set for the edge image in the same manner as in the edge image generation method. The pixel value of the corresponding edge image of the paired detection mask is multiplied by the edge line paired detection mask value, and the added value is stored as a correlation value at the pixel of interest in the edge line paired distribution image of the selected edge line paired detection mask.

【0023】漸次、注目画素を更新し全画素について前
記操作を行うためステップS203では、全画素につい
て前記処理が終了したか判定する。終了した場合はS2
05へ進み、終了していない場合にはS204へ進み注
目画素を更新して前記動作を繰り返す。
In step S203, it is determined whether or not the processing has been completed for all pixels in order to update the pixel of interest gradually and perform the above operation for all pixels. If finished, S2
The process proceeds to step S05, and if not completed, the process proceeds to step S204 to update the target pixel and repeat the above operation.

【0024】次に、ステップS205において、所定エ
ッジ線対検出マスク105〜108について全て実行し
たかを、変数iが所定文字線対検出マスク数と一致する
かで判定する。全ての所定エッジ線対検出マスクが終了
していない場合(i≠所定文字線対検出マスク数)はス
テップS206に進み、変数iを1増加させ、ステップ
S202へ進む。全ての所定エッジ線対検出マスクが終
了した場合(i=所定文字線対検出マスク数)は、ステ
ップS207へ進む。
Next, in step S205, it is determined whether or not all of the predetermined edge line pair detection masks 105 to 108 have been executed based on whether the variable i matches the predetermined character line pair detection mask number. If all the predetermined edge line pair detection masks have not been completed (i ≠ the number of predetermined character line pair detection masks), the process proceeds to step S206, in which the variable i is increased by 1, and the process proceeds to step S202. When all the predetermined edge line pair detection masks have been completed (i = the number of predetermined character line pair detection masks), the process proceeds to step S207.

【0025】各エッジ線対検出マスク105〜108に
対応するエッジ線対分布画像において、ステップS20
7で注目画素を設定する。
In the edge line pair distribution image corresponding to each of the edge line pair detection masks 105 to 108, step S20 is performed.
At step 7, the target pixel is set.

【0026】次に、ステップS208において、水平・
斜め線検出マスク106〜108では副走査方向に距離
L111の画素値、垂直方向検出マスク105では主走
査方向に距離L111の画素値を参照し、2本の対とな
るエッジ線対が注目画素において存在するか判定する。
Next, in step S208, the horizontal
The oblique line detection masks 106 to 108 refer to the pixel value of the distance L111 in the sub-scanning direction, and the vertical direction detection mask 105 refers to the pixel value of the distance L111 in the main scanning direction. Determine if it exists.

【0027】例えば、下記の式1が満足するか否かで判
定する。
For example, it is determined whether or not the following equation 1 is satisfied.

【0028】 |V(x,y)−V(x+a,y+b)|<VTh かつV(x,y)>Vth1 かつV(x+a,y+b)>Vth2 ・・・(式1)| V (x, y) -V (x + a, y + b) | <VTh and V (x, y)> Vth1 and V (x + a, y + b)> Vth2 (Equation 1)

【0029】ここで、V(x,y)はエッジ線対分布画
像における注目画素値、(x,y)は注目画素の座標、
V(x+a,y+b)は水平・斜め線検出マスク106
〜108ではa=0,b=Lとなる画素値、垂直方向検
出マスク105ではa=L,b=0となる画素値、VT
h,Vth1及びVth2は所定のしきい値である。
Here, V (x, y) is the pixel value of interest in the edge line pair distribution image, (x, y) is the coordinates of the pixel of interest,
V (x + a, y + b) is a horizontal / diagonal line detection mask 106
To 108, the pixel value of a = 0, b = L, the vertical direction detection mask 105, the pixel value of a = L, b = 0, VT
h, Vth1 and Vth2 are predetermined thresholds.

【0030】上記の式1が満足する場合は、注目画素に
おいてエッジ線対があるとみなしステップS210へ進
み、エッジ線対分布画像における注目画素値を1とす
る。満足しない場合はステップS209へ進み、注目画
素値を0としステップS211へ進む。
If the above expression 1 is satisfied, it is considered that there is an edge line pair in the target pixel, and the flow advances to step S210 to set the target pixel value in the edge line pair distribution image to 1. If the condition is not satisfied, the process proceeds to step S209, sets the target pixel value to 0, and proceeds to step S211.

【0031】漸次、注目画素を更新し全画素について前
記操作を行うためステップS211で全画素を注目画素
としたか判定する。全画素について前記処理が終了した
場合はエッジ線対検出手段3の処理を終了する。終了し
ていない場合は、ステップS212で注目画素を更新
し、ステップS208へ進み上記動作を繰り返す。
In order to update the pixel of interest gradually and perform the above-described operation on all the pixels, it is determined in step S211 whether all the pixels have been set as the pixel of interest. When the above processing is completed for all the pixels, the processing of the edge line pair detecting means 3 is completed. If not, the target pixel is updated in step S212, and the process proceeds to step S208 to repeat the above operation.

【0032】ステップS104において、文字位置検出
手段4は、前記エッジ線対分布画像に基づいて文字位置
を検出する。この文字位置検出手段4の動作を図6を用
いて説明する。
In step S104, the character position detecting means 4 detects a character position based on the edge line pair distribution image. The operation of the character position detecting means 4 will be described with reference to FIG.

【0033】前記エッジ線対分布画像で注目画素の隣接
する8近傍についてエッジ線対が滑らかに連結する領域
を文字として検出する。
In the edge line pair distribution image, a region where the edge line pairs are smoothly connected to each other in the vicinity of eight adjacent pixels of interest is detected as a character.

【0034】ステップS301において、エッジ線対分
布画像において注目画素を設定する。この時、注目画素
にラベルがついていない場合は新たなラベル番号を注目
画素に与える。
In step S301, a target pixel is set in the edge line pair distribution image. At this time, if the target pixel has no label, a new label number is given to the target pixel.

【0035】次に、ステップS302において、変数i
を1で初期化する。
Next, in step S302, the variable i
Is initialized with 1.

【0036】次に、ステップS303において、隣接8
近傍i番目の画素に対応する、各エッジ線対検出マスク
105〜108で検出したエッジ線対分布画像での画素
値のいずれかが1である場合、下記の式2が満足するか
どうかを調べ、満足する場合には、ステップS305で
滑らかに連結するエッジ線対があるとして注目画素と同
一のラベルを隣接画素、すなわち値が1である該エッジ
線対分布画像に与える。
Next, in step S303, the adjacent 8
If any of the pixel values in the edge line pair distribution image detected by each of the edge line pair detection masks 105 to 108 corresponding to the i-th pixel in the vicinity is 1, it is checked whether the following expression 2 is satisfied. If it satisfies, in step S305, it is determined that there is an edge line pair that is smoothly connected, and the same label as the pixel of interest is given to the adjacent pixel, that is, the edge line pair distribution image whose value is 1.

【0037】 |θ注目エッジ線対方向−θ隣接エッジ線対方向|<Th ・・・(式2)| Θ attention edge line pair direction−θ adjacent edge line pair direction | <Th (Equation 2)

【0038】ここで、θ注目エッジ線対方向は注目点の
エッジ方向、θ隣接エッジ線対方向は注目点の隣接8近
傍画素のエッジ方向、Thは所定角度である。
Here, the θ target edge line pair direction is the edge direction of the target point, the θ adjacent edge line pair direction is the edge direction of eight neighboring pixels adjacent to the target point, and Th is a predetermined angle.

【0039】ステップS304では変数iを更新する。
次に、ステップS306において、注目画素の8近傍に
ついて前記処理を行ったか変数iの値で判定する。変数
iの値が8の場合はステップS307で注目画素を更新
し、ステップS308へ進む。
In step S304, the variable i is updated.
Next, in step S306, it is determined based on the value of the variable i whether or not the above-described processing has been performed on eight neighborhoods of the target pixel. If the value of the variable i is 8, the pixel of interest is updated in step S307, and the process proceeds to step S308.

【0040】ステップS307において、新たな注目画
素にラベルが付いているかチェックしラベルが付いてい
ない場合は、新たなラベル番号を注目画素に与える。変
数iの値が8以外の場合はステップS303へ進む。
In step S307, it is checked whether a label is attached to the new pixel of interest. If no label is attached, a new label number is given to the pixel of interest. If the value of the variable i is other than 8, the process proceeds to step S303.

【0041】ステップS308において、前記エッジ線
対分布画像において全画素について注目画素として前記
処理を実行した場合は、ステップS309で同一のラベ
ルとなる画素からなる領域を文字領域として出力する。
全画素について注目画素としていない場合はステップS
302へ進む。
In step S308, if the above processing is executed for all pixels in the edge line pair distribution image as target pixels, an area consisting of pixels having the same label is output as a character area in step S309.
If not all pixels are set as the target pixel, step S
Go to 302.

【0042】以上のように、本実施の形態によれば、文
字を構成する輪郭部に対応するエッジ線対とその隣接す
るエッジ線対との連続性をエッジ線対の方向変位に基づ
いて1つの文字領域として検出するようにしたことで、
例えば路面等に多く発生するエッジ領域を誤って文字領
域として検出することがなくなる。
As described above, according to the present embodiment, the continuity between an edge line pair corresponding to a contour portion forming a character and an adjacent edge line pair is determined based on the directional displacement of the edge line pair. By detecting as one character area,
For example, an edge region that frequently occurs on a road surface or the like is not erroneously detected as a character region.

【0043】なお、本実施の形態では、エッジ線対検出
マスクを水平・垂直・左上がり・右上がり斜め線からな
るとしたが、これ以外の角度とする検出マスクを複数用
いてもよい。また、エッジ線対検出マスクにおいて直線
を検出するとしたが、更に曲線部を検出するマスクを複
数用いてもよい。
In this embodiment, the edge line pair detection mask is made up of horizontal, vertical, left-up, and right-up diagonal lines, but a plurality of detection masks having other angles may be used. Although the straight line is detected in the edge line pair detection mask, a plurality of masks for detecting a curved portion may be used.

【0044】実施の形態2.この発明の実施の形態2に
係る文字検出装置について図面を参照しながら説明す
る。図7は、この発明の実施の形態2に係る文字検出装
置の構成を示すブロック図である。
Embodiment 2 A character detection device according to a second embodiment of the present invention will be described with reference to the drawings. FIG. 7 is a block diagram showing a configuration of a character detection device according to Embodiment 2 of the present invention.

【0045】図7において、7は文字位置検出手段4の
結果をエッジ線対分布画像により文字であるか否か検定
する検定手段である。なお、この検定手段7以外は実施
の形態1と同一である。
In FIG. 7, reference numeral 7 denotes a testing means for testing whether or not the result of the character position detecting means 4 is a character based on an edge line pair distribution image. The configuration other than the test means 7 is the same as that of the first embodiment.

【0046】つぎに、前述した実施の形態2に係る文字
検出装置の動作について図面を参照しながら説明する。
図8は、この発明の実施の形態2に係る文字検出装置の
動作を示すフローチャートである。また、図9は、検定
手段7の動作を説明するフローチャートである。
Next, the operation of the character detecting device according to the second embodiment will be described with reference to the drawings.
FIG. 8 is a flowchart showing the operation of the character detecting device according to Embodiment 2 of the present invention. FIG. 9 is a flowchart for explaining the operation of the test means 7.

【0047】ステップS401〜S404までは、上記
の実施の形態1と同一の動作である。
Steps S401 to S404 are the same operations as in the first embodiment.

【0048】次に、ステップS405において、前記文
字位置検出手段4が出力する文字位置を検定手段7によ
り検定する。
Next, in step S405, the character position output from the character position detecting means 4 is verified by the verifying means 7.

【0049】検定手段7の動作を図9のフローチャート
を用いて説明する。まず、ステップS501において、
変数iを1で初期化する。
The operation of the test means 7 will be described with reference to the flowchart of FIG. First, in step S501,
The variable i is initialized with 1.

【0050】次に、ステップS502において、文字位
置i番目の領域面積および幅・高さが所定範囲以内であ
るかを下記の式3〜5によりチェックする。
Next, in step S502, it is checked whether the area, width, and height of the i-th region of the character position are within a predetermined range by using the following expressions 3 to 5.

【0051】 |S−S標準|<Sth ・・・(式3)| SS Standard | <Sth (Equation 3)

【0052】 |W−W標準|<Wth ・・・(式4)| W−W standard | <Wth (Equation 4)

【0053】 |H−H標準|<Hth ・・・(式5)| H−H standard | <Hth (Equation 5)

【0054】ここで、Sは文字位置i番目の領域面積、
S標準は検出対象文字の標準的な文字領域面積、Wは文
字位置i番目の幅、W標準は検出対象文字の標準的な
幅、Hは文字位置i番目の高さ、H標準は検出対象文字
の標準的な高さ、Sth、Wth、Hthは所定閾値で
あり、例えば次の式6〜8で予め求めたものである。
Where S is the area of the i-th character position area,
S standard is the standard character area area of the character to be detected, W is the i-th width of the character position, W standard is the standard width of the character to be detected, H is the i-th height of the character position, and H standard is the detection target. The standard heights of the characters, Sth, Wth, and Hth, are predetermined thresholds, which are obtained in advance by the following equations 6 to 8, for example.

【0055】 Sth=α0×L+β0 ・・・(式6)Sth = α0 × L + β0 (Equation 6)

【0056】 Wth=α1×L+β1 ・・・(式7)Wth = α1 × L + β1 (Formula 7)

【0057】 Hth=α2×L+β2 ・・・(式8)Hth = α2 × L + β2 (Equation 8)

【0058】ここで、α0、α1、α2、β0、β1、
β2は予め定めた定数、Lはエッジ線対検出マスク10
5〜108のエッジ線間距離111である。
Here, α0, α1, α2, β0, β1,
β2 is a predetermined constant, L is an edge line pair detection mask 10
The edge line distance 111 is 5 to 108.

【0059】上記の式3〜5を全て満足する場合はステ
ップS503に進み、満足しない場合にはステップS5
07で当該文字位置を削除しステップS506へ進む。
If all of the above expressions 3 to 5 are satisfied, the process proceeds to step S503; otherwise, the process proceeds to step S5.
In step 07, the character position is deleted, and the flow advances to step S506.

【0060】次に、ステップS503において、文字位
置領域に対応する前記エッジ線対分布画像の領域を所定
の大きさに正規化する。正規化方法は、例えば「コンピ
ュータ画像処理入門」(総研出版、田村秀行監修、P
P.113−115)で開示されている線形補完法によ
り行う。
Next, in step S503, the area of the edge line pair distribution image corresponding to the character position area is normalized to a predetermined size. The normalization method is described in, for example, "Introduction to Computer Image Processing" (Supervised by Soken Publishing, Hideyuki Tamura,
P. 113-115).

【0061】次に、ステップS504において、前記正
規化エッジ線対分布画像と、予め検出対象文字において
求めておいたエッジ線対分布画像(辞書)とを下記の式
9により照合し相違度を求める。但し、Σの範囲は、k
=1〜エッジ線対検出マスク数である。
Next, in step S504, the normalized edge line pair distribution image is compared with the edge line pair distribution image (dictionary) previously obtained for the character to be detected by the following equation 9 to determine the degree of difference. . However, the range of Σ is k
= 1 to the number of edge line pair detection masks.

【0062】 Diff=Σ|Ek(x,y)−Dk(x,y)| ・・・(式9)Diff = Σ | Ek (x, y) −Dk (x, y) | (Equation 9)

【0063】ここで、Diffは文字位置i番目の相違
度、Ek(x,y)は座標x,座標yの点のk番目のエ
ッジ線対検出マスクで検出したエッジ線対分布画像画素
値、Dk(x,y)は予めk番目のエッジ線対検出マス
クで検出した座標x,座標yの辞書での画素値である。
Here, Diff is the ith difference degree at the character position, Ek (x, y) is the edge line pair distribution image pixel value detected by the kth edge line pair detection mask at the point of coordinates x and y, Dk (x, y) is a pixel value in the dictionary of the coordinates x and y detected in advance by the k-th edge line pair detection mask.

【0064】次に、ステップS505において、前記相
違度が所定閾値より小さいか判定する。所定閾値より小
さい場合はステップS506へ進む。所定閾値以上の場
合はステップS507へ進み文字位置を削除する。
Next, in step S505, it is determined whether the difference is smaller than a predetermined threshold. If it is smaller than the predetermined threshold, the process proceeds to step S506. If it is equal to or greater than the predetermined threshold, the process proceeds to step S507, and the character position is deleted.

【0065】次に、ステップS506において、全文字
位置について実行したか変数iで判定する。全て終了し
ていない場合はステップS508へ進み、変数iを更新
した後、ステップS502へ進む。全て終了した場合
は、検定手段7の処理を終了する。
Next, in step S506, it is determined based on a variable i whether or not execution has been performed for all character positions. If all of them have not been completed, the process proceeds to step S508, and after updating the variable i, the process proceeds to step S502. When all the processes have been completed, the process of the test means 7 is completed.

【0066】以上のように、本実施の形態によれば、検
定手段7にて文字領域の大きさによる検定とエッジ線対
分布照合による検定を行うことで、文字でない領域の誤
検出を低減できる。
As described above, according to the present embodiment, erroneous detection of a non-character area can be reduced by performing the test based on the size of the character area and the test based on the edge line pair distribution comparison in the test means 7. .

【0067】なお、本実施の形態では照合をエッジ線対
分布画像で行うとしたが、文字位置に対応する入力画像
と検出対象文字間との照合としてもよい。画像間の照合
法は、たとえば「コンピュータ画像処理入門」(総研出
版、田村秀行監修、PP.149−150)で開示されてい
る正規化相関法で照合してもよい。
In this embodiment, the collation is performed on the edge line pair distribution image. However, the collation may be performed between the input image corresponding to the character position and the detection target character. The matching method between images may be matched by a normalized correlation method disclosed in, for example, "Introduction to Computer Image Processing" (published by Soken Publishing, Hideyuki Tamura, PP. 149-150).

【0068】実施の形態3.上記の実施の形態1では、
所定エッジ線対検出マスクによりエッジ線対を検出する
ようにしたものであるが、この実施の形態3では、エッ
ジ線対が所定数検出できない場合にエッジ線検出マスク
を変更して再度検出するものである。
Embodiment 3 In the first embodiment,
Although the edge line pairs are detected by the predetermined edge line pair detection mask, in the third embodiment, when the predetermined number of edge line pairs cannot be detected, the edge line detection mask is changed and detected again. It is.

【0069】この発明の実施の形態3に係る文字検出装
置について図面を参照しながら説明する。図10は、こ
の発明の実施の形態3に係る文字検出装置の動作を示す
フローチャートである。なお、この実施の形態3の構成
は、上記の実施の形態1の構成を示す図1と同一であ
る。
A character detecting device according to Embodiment 3 of the present invention will be described with reference to the drawings. FIG. 10 is a flowchart showing the operation of the character detecting device according to Embodiment 3 of the present invention. The configuration of the third embodiment is the same as FIG. 1 showing the configuration of the first embodiment.

【0070】ステップS601及びステップS602の
動作は、上記の実施の形態1と同一の動作である。
The operations in steps S601 and S602 are the same as those in the first embodiment.

【0071】次に、ステップS603において、エッジ
画像を部分領域に分割する。分割方法は、例えば矩形領
域(所定幅W、所定高さH)にn分割する。
Next, in step S603, the edge image is divided into partial areas. The division method is, for example, n division into rectangular regions (predetermined width W, predetermined height H).

【0072】次に、ステップS604において、分割領
域番号を表す変数iを1で初期化する。
Next, in step S604, a variable i representing a division area number is initialized to 1.

【0073】次に、ステップS605において、部分領
域iでエッジ線対分布画像を作成する。エッジ線対分布
画像生成方法は、上記の実施の形態1と同一である。
Next, in step S605, an edge line pair distribution image is created in the partial area i. The method of generating an edge line pair distribution image is the same as in the first embodiment.

【0074】次に、ステップS606において、i番目
の部分領域でエッジ線対数が所定数以下であるか判定す
る。エッジ線対が所定数を超える場合はステップS60
7へ進む。エッジ線対数が所定数以下の場合はステップ
S610へ進み、エッジ線対検出マスクをステップS6
03で使用したエッジ線間距離L111を変更し、ステ
ップS605へ進む。
Next, in step S606, it is determined whether the number of edge line pairs in the i-th partial area is equal to or smaller than a predetermined number. If the number of edge line pairs exceeds a predetermined number, step S60
Proceed to 7. If the number of edge line pairs is equal to or smaller than the predetermined number, the process proceeds to step S610, and the edge line pair detection mask is set to step S6.
The distance L111 between the edge lines used in step S03 is changed, and the process proceeds to step S605.

【0075】次に、ステップS607において、全部分
領域について実行したか判定する。変数iが全部分領域
数nと同一な場合は全ての部分領域について処理が終了
したとして、ステップS608へ進む。変数iが全部分
領域数nと一致しない場合には、全ての部分領域につい
て処理が終了していないものとしてステップS605へ
進む。そして、ステップS608及びS609は、実施
の形態1と同一の動作をする。
Next, in step S607, it is determined whether the process has been performed for all partial areas. If the variable i is equal to the total number n of partial areas, it is determined that the processing has been completed for all partial areas, and the process proceeds to step S608. If the variable i does not match the total partial area number n, it is determined that the processing has not been completed for all partial areas, and the process proceeds to step S605. Steps S608 and S609 perform the same operation as in the first embodiment.

【0076】以上のように、本実施の形態によれば、エ
ッジ線間距離が適合しない文字が画像中に含まれる場合
においても、エッジ線対数が部分領域において所定数に
満たない場合に再度エッジ線間距離を変更して検出する
ようにしたことで、文字領域をもれなく検出できる。
As described above, according to the present embodiment, even when a character whose distance between edge lines does not match is included in the image, if the number of edge line pairs is less than the predetermined number in the partial area, the edge is re-established. Since the detection is performed by changing the distance between lines, the character area can be detected without fail.

【0077】なお、本実施の形態では、文字サイズに適
合するエッジ線間距離Lを変更するとしたが、エッジ画
像を拡大・縮小処理を行い所定のエッジ線検出マスクと
の相関値を求めるようにしてもよい。
In this embodiment, the distance L between the edge lines matching the character size is changed. However, the edge image is enlarged / reduced to obtain a correlation value with a predetermined edge line detection mask. You may.

【0078】[0078]

【発明の効果】この発明に係る文字検出装置は、以上説
明したとおり、画像中の文字を検出する文字検出装置に
おいて、画像を入力し入力画像として蓄積する画像入力
・蓄積手段と、前記入力画像からエッジ画像を作成する
エッジ画像生成手段と、前記エッジ画像で所定距離に存
在する2本のエッジ線をエッジ線対として抽出し、エッ
ジ線対分布画像を作成するエッジ線対検出手段と、前記
エッジ線対分布画像から隣接するエッジ線対を各エッジ
線対の方向に基づいて連結し、連結領域を文字領域とし
て求め、文字位置を出力する文字位置検出手段とを備え
たので、路面等に発生するエッジを誤って検出すること
がなくなるという効果を奏する。
As described above, the character detecting device according to the present invention is an image inputting / accumulating means for inputting an image and storing it as an input image in the character detecting device for detecting characters in an image. Edge image generating means for creating an edge image from the image, two edge lines existing at a predetermined distance in the edge image are extracted as an edge line pair, and an edge line pair detecting means for creating an edge line pair distribution image; It is provided with character position detecting means for connecting adjacent edge line pairs from the edge line pair distribution image based on the direction of each edge line pair, obtaining a connected region as a character region, and outputting a character position. There is an effect that the generated edge is not erroneously detected.

【0079】また、この発明に係る文字検出装置は、以
上説明したとおり、前記文字位置検出手段で求めた各文
字領域について文字であるか否か検定する検定手段をさ
らに備えたので、文字位置候補の大きさによる検定とエ
ッジ線対分布照合による検定を行い、文字でない領域の
誤検出を低減できるという効果を奏する。
Further, as described above, the character detecting apparatus according to the present invention further includes the verification means for verifying whether or not each character area obtained by the character position detection means is a character. And the test based on the edge line pair distribution matching, the erroneous detection of a non-character area can be reduced.

【0080】さらに、この発明に係る文字検出装置は、
以上説明したとおり、前記エッジ線対検出手段が、エッ
ジ線対分布画像を細分化した部分領域でエッジ線対が得
られないときに該部分領域について再度エッジ線対検出
を行うので、エッジ線対検出マスクに適合しない文字が
画像中に含まれる場合においても、エッジ線対数が部分
領域において所定数に満たない場合に再度エッジ線対検
出マスクを変更して検出するようにし、文字領域をもれ
なく検出できるという効果を奏する。
Further, the character detecting device according to the present invention
As described above, the edge line pair detecting means performs the edge line pair detection again on the partial region obtained by subdividing the edge line pair distribution image when the edge line pair cannot be obtained in the partial region. Even when characters that do not match the detection mask are included in the image, if the number of edge line pairs is less than the predetermined number in the partial area, the edge line pair detection mask is changed and detected again, and the character area is completely detected. It has the effect of being able to.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 この発明の実施の形態1に係る文字検出装置
の構成を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of a character detection device according to Embodiment 1 of the present invention.

【図2】 この発明の実施の形態1に係る文字検出装置
のエッジ画像生成手段で用いる3×3画素からなるラプ
ラシアンフィルタ例を示す図である。
FIG. 2 is a diagram illustrating an example of a Laplacian filter composed of 3 × 3 pixels used in an edge image generation unit of the character detection device according to the first embodiment of the present invention.

【図3】 この発明の実施の形態1に係る文字検出装置
のエッジ線対検出手段の動作を示す図である。
FIG. 3 is a diagram illustrating an operation of an edge line pair detection unit of the character detection device according to the first embodiment of the present invention.

【図4】 この発明の実施の形態1に係る文字検出装置
の動作を示すフローチャートである。
FIG. 4 is a flowchart showing an operation of the character detection device according to Embodiment 1 of the present invention.

【図5】 この発明の実施の形態1に係る文字検出装置
のエッジ線対検出手段の動作を示すフローチャートであ
る。
FIG. 5 is a flowchart showing an operation of an edge line pair detecting means of the character detecting device according to the first embodiment of the present invention.

【図6】 この発明の実施の形態1に係る文字検出装置
の文字位置検出手段の動作を示すフローチャートであ
る。
FIG. 6 is a flowchart showing an operation of a character position detection unit of the character detection device according to Embodiment 1 of the present invention.

【図7】 この発明の実施の形態2に係る文字検出装置
の構成を示すブロック図である。
FIG. 7 is a block diagram showing a configuration of a character detection device according to Embodiment 2 of the present invention.

【図8】 この発明の実施の形態2に係る文字検出装置
の動作を示すフローチャートである。
FIG. 8 is a flowchart showing an operation of the character detection device according to Embodiment 2 of the present invention.

【図9】 この発明の実施の形態2に係る文字検出装置
の検定手段の動作を示すフローチャートである。
FIG. 9 is a flowchart illustrating an operation of a verification unit of the character detection device according to the second embodiment of the present invention.

【図10】 この発明の実施の形態3に係る文字検出装
置のエッジ線対検出手段の動作を示すフローチャートで
ある。
FIG. 10 is a flowchart showing an operation of an edge line pair detection unit of the character detection device according to Embodiment 3 of the present invention.

【図11】 従来の文字検出装置の構成を示すブロック
図である。
FIG. 11 is a block diagram showing a configuration of a conventional character detection device.

【図12】 従来の文字検出装置における垂直エッジを
検出するマスク例を示す図である。
FIG. 12 is a diagram illustrating an example of a mask for detecting a vertical edge in a conventional character detection device.

【符号の説明】[Explanation of symbols]

1 画像入力・蓄積手段、2 エッジ画像生成手段、3
エッジ線対検出手段、4 文字位置検出手段、7 検
定手段。
1 image input / storage means, 2 edge image generation means, 3
Edge line pair detecting means, 4 character position detecting means, 7 testing means.

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 画像中の文字を検出する文字検出装置に
おいて、 画像を入力し入力画像として蓄積する画像入力・蓄積手
段と、 前記入力画像からエッジ画像を作成するエッジ画像生成
手段と、 前記エッジ画像で所定距離に存在する2本のエッジ線を
エッジ線対として抽出し、エッジ線対分布画像を作成す
るエッジ線対検出手段と、 前記エッジ線対分布画像から隣接するエッジ線対を各エ
ッジ線対の方向に基づいて連結し、連結領域を文字領域
として求め、文字位置を出力する文字位置検出手段とを
備えたことを特徴とする文字検出装置。
1. A character detecting device for detecting characters in an image, an image inputting / accumulating unit for inputting an image and storing the image as an input image; an edge image generating unit for generating an edge image from the input image; Edge line pair detecting means for extracting two edge lines existing at a predetermined distance from the image as an edge line pair and creating an edge line pair distribution image; A character detection device comprising: character position detection means for connecting based on the direction of a line pair, determining a connected region as a character region, and outputting a character position.
【請求項2】 前記文字位置検出手段で求めた各文字領
域について文字であるか否か検定する検定手段をさらに
備えたことを特徴とする請求項1記載の文字検出装置。
2. The character detecting apparatus according to claim 1, further comprising a verification unit for verifying whether or not each of the character areas obtained by the character position detection unit is a character.
【請求項3】 前記エッジ線対検出手段は、エッジ線対
分布画像を細分化した部分領域でエッジ線対が得られな
いときに該部分領域について再度エッジ線対検出を行う
ことを特徴とする請求項1記載の文字検出装置。
3. The edge line pair detecting means, when an edge line pair cannot be obtained in a partial region obtained by subdividing the edge line pair distribution image, performs edge line pair detection again on the partial region. The character detection device according to claim 1.
JP11037108A 1999-02-16 1999-02-16 Character detecting device Pending JP2000235618A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11037108A JP2000235618A (en) 1999-02-16 1999-02-16 Character detecting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11037108A JP2000235618A (en) 1999-02-16 1999-02-16 Character detecting device

Publications (1)

Publication Number Publication Date
JP2000235618A true JP2000235618A (en) 2000-08-29

Family

ID=12488416

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11037108A Pending JP2000235618A (en) 1999-02-16 1999-02-16 Character detecting device

Country Status (1)

Country Link
JP (1) JP2000235618A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011128924A (en) * 2009-12-18 2011-06-30 Kddi Corp Comic image analysis apparatus, program, and search apparatus and method for extracting text from comic image
US8144255B2 (en) 2009-06-30 2012-03-27 Kabushiki Kaisha Toshiba Still subtitle detection apparatus and image processing method therefor
WO2014030406A1 (en) * 2012-08-24 2014-02-27 楽天株式会社 Image processing device, image processing method, program, and information storage medium

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8144255B2 (en) 2009-06-30 2012-03-27 Kabushiki Kaisha Toshiba Still subtitle detection apparatus and image processing method therefor
JP2011128924A (en) * 2009-12-18 2011-06-30 Kddi Corp Comic image analysis apparatus, program, and search apparatus and method for extracting text from comic image
WO2014030406A1 (en) * 2012-08-24 2014-02-27 楽天株式会社 Image processing device, image processing method, program, and information storage medium
JP2014044470A (en) * 2012-08-24 2014-03-13 Rakuten Inc Image processing device, image processing method, and program

Similar Documents

Publication Publication Date Title
JP4928310B2 (en) License plate recognition device, control method thereof, computer program
JP4741704B2 (en) Device, method and computer program for confirming road signs in images
US8401333B2 (en) Image processing method and apparatus for multi-resolution feature based image registration
US8611662B2 (en) Text detection using multi-layer connected components with histograms
US9390310B2 (en) Striped pattern image examination support device, striped pattern image examination support method and program
CN111340701A (en) Circuit board image splicing method for screening matching points based on clustering method
JP2019102061A (en) Text line segmentation method
JP2019102061A5 (en)
JP6177541B2 (en) Character recognition device, character recognition method and program
US9319669B2 (en) Image processing device and image processing method
JP2000235618A (en) Character detecting device
JP5010627B2 (en) Character recognition device and character recognition method
Manikandan et al. An enhanced algorithm for Character Segmentation in document image processing
US20040146194A1 (en) Image matching method, image matching apparatus, and wafer processor
JP2011022938A (en) Character recognition device, character recognition program and character recognition method
JP3303246B2 (en) Image processing device
JP4172236B2 (en) Facial image processing apparatus and program
JP2868134B2 (en) Image processing method and apparatus
US7139429B2 (en) Image recognition scheme
JP2009098867A (en) Character string recognition method, computer program and storage medium
Tai et al. Braille document parameters estimation for optical character recognition
Sovani et al. A feedback based method for license plate image binarization
JP4383797B2 (en) Inclination detection method, inclination detection apparatus, and program
CN115879489A (en) Method and device for positioning distorted two-dimensional code
JP3074691B2 (en) Character recognition device