JPH0765125A - Recognition device for object character string whose character array is already known - Google Patents

Recognition device for object character string whose character array is already known

Info

Publication number
JPH0765125A
JPH0765125A JP5237484A JP23748493A JPH0765125A JP H0765125 A JPH0765125 A JP H0765125A JP 5237484 A JP5237484 A JP 5237484A JP 23748493 A JP23748493 A JP 23748493A JP H0765125 A JPH0765125 A JP H0765125A
Authority
JP
Japan
Prior art keywords
character
image
cut
character recognition
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5237484A
Other languages
Japanese (ja)
Other versions
JP3275475B2 (en
Inventor
Yoshimasa Asougawa
佳誠 麻生川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP23748493A priority Critical patent/JP3275475B2/en
Publication of JPH0765125A publication Critical patent/JPH0765125A/en
Application granted granted Critical
Publication of JP3275475B2 publication Critical patent/JP3275475B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Character Input (AREA)
  • Character Discrimination (AREA)

Abstract

PURPOSE:To correctly segment characters even in the case of dirt, a blur, misbinarization, etc., by scanning an extraction window corresponding to the character array which is already known and determining a character segmentation position. CONSTITUTION:Binary image data have a blur 20 and a noise 21 resulting from input conditions and a failure in binarization. The extraction window 22 is scanned for the binary image data and feature quantities are extracted by scanning points 25. The extraction window 22 has size and arrangement corresponding to the character array which is already known; and hatched parts 23 correspond to character areas and their peripheral blank part 24 corresponds to a background area. The feature quantities are represented as the result obtained by subtracting the number of all black pixels in the background area 24 from the number of all black pixels in the character areas 23. The position 26 of the extracted window 22 a where the feature quantity is minimum is regarded as the character segmentation position. Then characters in the character areas 23 in the extracted window 22 at the position 26 are segmented.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【技術分野】この発明は入力画像において文字配列が既
知である文字列を文字認識する装置に関する。
TECHNICAL FIELD The present invention relates to an apparatus for character recognition of a character string whose character array is known in an input image.

【0002】[0002]

【背景技術】文字配列が既知である従来の文字列認識処
理は,文字列周辺の画像データを2値化し,2値化画像
上で連結している文字を抽出するラベリング処理または
垂直および水平方向の投影長データを利用した方法によ
り,文字の切出し位置を決定し,それにより得られた結
果から文字認識処理を行なうものであった。
BACKGROUND ART A conventional character string recognition process in which a character array is known is a labeling process that binarizes image data around a character string and extracts connected characters on a binarized image, or vertical and horizontal directions. By using the projection length data of, the character cutting position is determined, and the character recognition processing is performed from the result obtained.

【0003】しかしながら,このような方法では入力画
像が良好で安定しているような場合には正しい結果が得
られるが,屋外での環境変動や対象文字列周辺の変化,
汚れ,掠れ,および2値化ミスなどで文字間の分離が明
確でない場合に十分対応することが困難であった。
However, in such a method, a correct result can be obtained when the input image is good and stable, but the environmental change in the outdoors and the change around the target character string,
It was difficult to deal with the case where the separation between characters was not clear due to dirt, blurring, or an error in binarization.

【0004】[0004]

【発明の開示】この発明は,文字配列が既知である対象
文字列について,屋外における入力条件の変動や文字列
周辺の変化,汚れ,掠れ,または2値化ミスなどが発生
した場合においても正しく文字を切出すことのできる文
字認識装置を提供するものである。
DISCLOSURE OF THE INVENTION The present invention is applicable to a target character string whose character sequence is already known, even when a change in input conditions outdoors, a change around the character string, dirt, blurring, or a binarization error occurs. A character recognition device capable of cutting out a character is provided.

【0005】[0005]

【課題を解決するための手段】この発明による文字認識
装置は,文字配列が既知である対象文字列を含む画像を
入力する入力手段,上記入力画像を2値化する2値化手
段,上記2値化手段により2値化された画像データに対
して,既知である文字配列に対応する大きさと配置を持
つ抽出ウィンドゥを走査し,抽出ウィンドゥの位置毎に
特徴量を算出する特徴量算出手段,上記特徴量算出手段
によって得られた特徴量に基づいて文字切出し位置を決
定する切出し位置決定手段,上記切出し位置決定手段に
よって決定された位置の抽出ウィンドゥにしたがって切
出された画像データについて,あらかじめ記憶されてい
る基準パターンに基づき文字認識処理を行う文字認識手
段,および上記文字認識手段によって得られた結果を出
力する出力手段,を備えたものである。
A character recognition apparatus according to the present invention comprises an input means for inputting an image containing a target character string whose character arrangement is known, a binarizing means for binarizing the input image, and the above-mentioned 2 A feature amount calculation unit that scans an extraction window having a size and an arrangement corresponding to a known character array with respect to the image data binarized by the value conversion unit, and calculates a feature amount for each position of the extraction window. The cutout position determining means for determining the character cutout position based on the feature amount obtained by the feature amount calculating means, and the image data cut out in accordance with the extraction window of the position determined by the cutout position determining means are stored in advance. A character recognition means for performing a character recognition process based on the reference pattern, and an output means for outputting the result obtained by the character recognition means, It includes those were.

【0006】この発明による文字認識方法は,文字配列
が既知である対象文字列を含む画像の入力を受付け,受
付けた入力画像に対して2値化処理を行ない,2値化さ
れた画像データに対して,既知である文字配列に対応す
る大きさと配置を持つ抽出ウィンドゥを走査し,抽出ウ
ィンドゥの位置毎に特徴量を算出し,算出した特徴量に
基づいて文字切出し位置を決定し,決定された位置の抽
出ウィンドゥにしたがって切出された画像データについ
て,あらかじめ記憶されている基準パターンに基づき文
字認識処理を行い,得られた結果を出力する出力するも
のである。
A character recognition method according to the present invention receives an input of an image containing a target character string whose character arrangement is known, performs binarization processing on the received input image, and converts the input image into binarized image data. On the other hand, the extraction window having the size and arrangement corresponding to the known character array is scanned, the feature amount is calculated for each position of the extraction window, and the character cutout position is determined based on the calculated feature amount. The character recognition processing is performed on the image data cut out according to the extraction window of the position based on the reference pattern stored in advance, and the obtained result is output.

【0007】この発明によると,切出し位置決定手段と
して1文字毎に切出し位置を抽出するのではなく,既知
である文字配列の並び,大きさを利用して,その文字配
列に対応する抽出ウィンドゥを走査させることにより,
文字列中の文字切出し位置を決定する。したがって,屋
外での環境変動や対象文字列周辺の変化,汚れ,掠れ,
2値化ミス,または文字間の分離が明確でない場合でも
正しく文字を切出すことができ,正しい文字認識意処理
を行なうことが可能となる。
According to the present invention, the extraction position for each character is not extracted as the extraction position determining means, but the extraction window corresponding to the character array is utilized by utilizing the known arrangement and size of the character array. By scanning,
Determines the character cutout position in the character string. Therefore, environmental changes outdoors, changes around the target character string, dirt, blurring,
It is possible to correctly cut out a character even if there is a mistake in binarization or the separation between characters is not clear, and it is possible to perform correct character recognition processing.

【0008】この発明による文字認識装置の他の実施態
様においては,上記切出し位置決定手段によって決定さ
れた位置の近傍において文字毎に切出し位置を微調整す
る切出し位置調整手段が付加される。
In another embodiment of the character recognition device according to the present invention, a cutting position adjusting means for finely adjusting the cutting position for each character in the vicinity of the position determined by the cutting position determining means is added.

【0009】この実施態様によると,CPUが文字切出
し位置を決定した後に,決定された切出し位置の近傍に
おいて各文字毎に切出し位置を微調整する。したがっ
て,各文字の大きさ,位置などにばらつきがある場合
や,「1」「I」などが他の文字と比べて細いフォント
の場合や,アルファベットの大文字,小文字が混ざって
るような場合でも正しい文字認識処理を行なうことがで
きる。
According to this embodiment, after the CPU determines the character cutout position, the cutout position is finely adjusted for each character in the vicinity of the determined cutout position. Therefore, it is correct even when there are variations in the size and position of each character, when the font such as "1" and "I" is thinner than other characters, and when uppercase and lowercase letters of the alphabet are mixed. Character recognition processing can be performed.

【0010】この発明による文字認識装置のさらに他の
実施態様においては,認識対象の大きさに応じた複数種
類の抽出ウィンドゥを用いる。
In still another embodiment of the character recognition apparatus according to the present invention, a plurality of types of extraction windows are used according to the size of the recognition target.

【0011】この実施態様によると,CPUが抽出ウィ
ンドゥを走査する際に,あらかじめ想定される複数の文
字配列に対応する複数の抽出ウィンドゥを走査し,得ら
れた特徴量から対応する文字配列と切出し位置を決定す
る。したがって,ナンバー・プレートのごとき大きさの
異なる複数の文字配列が存在するような対象文字列にお
いても,対応する文字配列の正しい決定と正しい文字認
識処理を行なうことができる。
According to this embodiment, when the CPU scans the extraction window, it scans a plurality of extraction windows corresponding to a plurality of character arrays assumed in advance, and extracts the corresponding character array and cutout from the obtained feature amount. Determine the position. Therefore, even in a target character string such as a license plate in which a plurality of character arrays of different sizes exist, the correct determination of the corresponding character array and the correct character recognition processing can be performed.

【0012】この発明による文字認識装置のさらに他の
実施態様においては,上記特徴量算出手段によって得ら
れた特徴量に基づいて複数の切出し位置候補を抽出する
切出し位置候補抽出手段,および上記切出し位置候補抽
出手段により抽出された各候補について切出し位置とし
ての適合性を算出し,もっとも適合性の高い候補を選択
する切出し位置候補選択手段が付加される。
In still another embodiment of the character recognition device according to the present invention, a cutout position candidate extracting means for extracting a plurality of cutout position candidates based on the feature amount obtained by the feature amount calculating means, and the cutout position. A cut-out position candidate selecting means for calculating suitability as a cut-out position for each candidate extracted by the candidate extracting means and selecting a candidate having the highest suitability is added.

【0013】この実施態様によると,CPUが抽出ウィ
ンドゥを走査して得られる特徴量から複数の切出し位置
候補を抽出して,各切出し位置候補の適合性を算出し,
最も適合性の高い候補について文字認識を行なう。した
がって,劣悪な入力状態や2値化の不具合などで正しい
切出し位置の特徴量が最大値をとらない場合にも正しい
文字認識を行なうことができる。
According to this embodiment, the CPU extracts a plurality of cutout position candidates from the feature amount obtained by scanning the extraction window, and calculates the suitability of each cutout position candidate.
Character recognition is performed on the most suitable candidate. Therefore, correct character recognition can be performed even when the feature amount of the correct cutout position does not take the maximum value due to a bad input state or a problem of binarization.

【0014】この発明による文字認識装置のさらに他の
実施態様においては,上記特徴量算出手段によって得ら
れた特徴量に基づいて複数の切出し位置候補を抽出し,
各候補に優先順位をつける切出し位置候補優先順位決定
手段,および上記切出し位置候補優先順位決定手段によ
って決定された優先順位にしたがい切出し位置として適
切か否かを順次判定し,適切と判定したものがあった時
点でその適切と判定したものを切出し位置と決定する切
出し位置候補判定手段が付加される。
In still another embodiment of the character recognition device according to the present invention, a plurality of cutout position candidates are extracted based on the feature amount obtained by the feature amount calculating means,
The cut-out position candidate priority order determining means for giving priority to each candidate, and whether or not the cut-out position is appropriate according to the priority order determined by the cut-out position candidate priority order determining means are sequentially determined. A cutout position candidate determination means for determining the cutout position when it is determined to be appropriate at that time is added.

【0015】この実施態様によると,CPUが抽出ウィ
ンドゥを走査して得られる特徴量から複数の切出し位置
候補を抽出して各切出し位置候補に優先順位を設定し,
優先順位にしたがい切出し位置として各候補が適切か否
かを順次判定し,適切と判定したものがあった時点で文
字認識を行なう。したがって,劣悪な入力状態や2値化
の不具合などで正しい切出し位置の特徴量が最大値をと
らない場合にも正しい文字認識を行なうことができ,さ
らに処理時間の短縮ができる。
According to this embodiment, the CPU extracts a plurality of cutout position candidates from the feature amount obtained by scanning the extraction window, and sets the priority order to each cutout position candidate.
Whether or not each candidate is appropriate as the cut-out position is sequentially determined according to the priority order, and character recognition is performed when there is an appropriate one. Therefore, correct character recognition can be performed even when the feature amount of the correct cutout position does not take the maximum value due to a bad input state or a problem of binarization, and the processing time can be further shortened.

【0016】この発明による文字認識装置のさらに他の
実施態様においては,大きさの異なる複数の抽出ウィン
ドゥを用意しておき,画像の位置に応じて使用する抽出
ウィンドゥを切替える抽出ウィンドゥ切替手段が付加さ
れる。
In still another embodiment of the character recognition device according to the present invention, a plurality of extraction windows having different sizes are prepared, and extraction window switching means for switching the extraction window to be used according to the position of the image is added. To be done.

【0017】この実施態様によると,あらかじめ大きさ
の異なる複数の抽出ウィンドゥを用意しておき,CPU
が抽出ウィンドゥを走査する際に,画像の位置に応じて
使用する抽出ウィンドゥを切替える。したがって,対象
文字列が画像入力手段に対して既知の一定方向に移動し
ているため,入力画像を取込むタイミングによって画像
中の文字の大きさが変わってしまうような場合,たとえ
ば接近してくる車両のナンバープレートのようなものに
対しても正しい文字認識処理を行なうことができる。
According to this embodiment, a plurality of extraction windows having different sizes are prepared in advance, and the CPU
Switches the extraction window to be used according to the position of the image when scanning the extraction window. Therefore, since the target character string is moving in a known fixed direction with respect to the image input means, when the size of the character in the image changes depending on the timing of capturing the input image, for example, it approaches. Correct character recognition processing can be performed even for things such as vehicle license plates.

【0018】この発明による文字認識装置のさらに他の
実施態様においては,上記入力手段により入力された画
像からエッジ・データを抽出し,それを基に文字領域を
限定する文字領域限定手段,上記文字領域限定手段によ
り限定された領域の画像を2値化する上記2値化手段,
および上記2値化手段により2値化された2値画像が通
常文字であるか反転文字であるかを判定し,反転文字の
場合には2値画像を反転させる反転手段が付加される。
In still another embodiment of the character recognition device according to the present invention, the edge data is extracted from the image input by the input means, and the character area is limited based on the extracted edge data. The binarizing means for binarizing the image of the area limited by the area limiting means,
Further, a inverting means for determining whether the binary image binarized by the binarizing means is a normal character or a reverse character and inverting the binary image in the case of a reverse character is added.

【0019】この実施態様によると,CPUは2値化さ
れた文字行周辺画像から反転文字を検出し,反転文字の
場合には2値化画像を反転させる。したがって,ナンバ
ープレートのごとき反転文字が含まれる場合(たとえば
緑色の地に白の文字)でも正しい文字認識処理を行なう
ことができる。
According to this embodiment, the CPU detects a reversed character from the binarized character line peripheral image, and in the case of a reversed character, reverses the binarized image. Therefore, the correct character recognition process can be performed even when a reverse character such as a license plate is included (for example, a white character on a green background).

【0020】この発明による他の文字認識装置は,文字
配列が既知である対象文字列を含む画像を入力する入力
手段,上記入力画像を2値化する2値化手段,上記2値
化手段によって2値化された画像を水平方向に投影し,
水平方向投影長データを作成する水平方向投影長データ
作成手段,上記水平方向投影長データ作成手段により作
成された水平方向投影長データに基づいて文字行の切出
し位置を決定する文字行切出し手段,上記文字行切出し
手段により切出された画像の垂直方向投影長データに対
して,既知である文字配列に対応する一次元抽出ウィン
ドゥを水平方向に走査し,各抽出ウィンドゥの位置毎に
特徴量を算出する特徴量算出手段,上記特徴量算出手段
により算出された特徴量に基づいて垂直方向切出し位置
を決定する切出し位置決定手段,上記文字行切出し手段
によって切出された文字行および上記垂直方向切出し位
置決定手段によって決定された垂直方向切出し位置によ
って決定される範囲内の画像データについて,あらかじ
め記憶されている基準パターンに基づき文字認識処理を
行う文字認識手段,および上記文字認識手段によって得
られた結果を出力する出力手段,を備えたものである。
Another character recognition apparatus according to the present invention comprises an input means for inputting an image including a target character string whose character arrangement is known, a binarizing means for binarizing the input image, and the binarizing means. Project the binarized image horizontally,
Horizontal projection length data creating means for creating horizontal projection length data, character line cutout means for determining a cutout position of a character line based on the horizontal projection length data created by the horizontal projection length data creating means, With respect to the vertical projection length data of the image cut out by the character line cutting means, a one-dimensional extraction window corresponding to a known character array is horizontally scanned, and a feature amount is calculated for each position of each extraction window. Characteristic amount calculating means, a cutting position determining means for determining a vertical direction cutting position based on the characteristic amount calculated by the characteristic amount calculating means, a character line cut by the character line cutting means and the vertical direction cutting position The image data within the range determined by the vertical cutting position determined by the determination means is stored in advance. Output means for outputting a result obtained by the character recognition means, and said character recognition means performs character recognition processing based on the quasi-pattern, but with a.

【0021】この発明によると,CPUが文字行切出し
を行なうことによって抽出ウィンドゥの走査範囲を絞
り,文字配列を一次元化した抽出ウィンドゥを走査す
る。したがって,文字認識処理時間の迅速化がはかれ
る。
According to the present invention, the CPU cuts the character line to narrow the scanning range of the extraction window and scans the extraction window in which the character array is one-dimensional. Therefore, the character recognition processing time can be shortened.

【0022】この発明によるさらに他の文字認識装置
は,文字配列が既知である対象文字列を含む画像を入力
する入力手段,上記入力手段により入力された画像から
水平方向エッジ・データを抽出し,文字行の切出し位置
を決定する文字行切出し位置決定手段,上記文字行切出
し手段によって切出された文字行画像を2値化する文字
行2値化手段,上記文字行2値化手段により2値化され
た画像の垂直方向投影長データに対して,既知である文
字配列に対応する一次元抽出ウィンドゥを水平方向に走
査し,各抽出ウィンドゥの位置毎に特徴量を算出する特
徴量算出手段,上記特徴量算出手段により算出された特
徴量に基づいて垂直方向切出し位置を決定する切出し位
置決定手段,上記文字行切出し手段によって切出された
文字行および上記垂直方向切出し位置決定手段によって
決定された垂直方向切出し位置によって決定される範囲
内の画像データについて,あらかじめ記憶されている基
準パターンに基づき文字認識処理を行う文字認識手段,
および上記文字認識手段によって得られた結果を出力す
る出力手段,を備えたものである。
Still another character recognizing device according to the present invention is an input means for inputting an image including a target character string whose character arrangement is known, horizontal edge data is extracted from the image input by the input means, Character line cutout position determining means for determining the cutout position of the character line, character line binarizing means for binarizing the character line image cut out by the character line cutting means, and binary by the character line binarizing means A feature amount calculation means for horizontally scanning a one-dimensional extraction window corresponding to a known character array with respect to the vertical projection length data of the converted image, and calculating a feature amount for each position of each extraction window, Cutout position determining means for determining a vertical cutout position based on the feature amount calculated by the feature amount calculating means, the character line cut out by the character line cutting means, and the hanging line. The image data within the range determined by the vertical cut position determined by the direction cropping position determining means, the character recognition means for performing character recognition process on the basis of the reference pattern stored in advance,
And output means for outputting the result obtained by the character recognition means.

【0023】この発明によると,CPUが文字行切出し
を行なうことによって抽出ウィンドゥの2値化範囲およ
び走査範囲を絞り,文字配列を一次元化した抽出ウィン
ドゥを走査する。したがって,文字認識処理時間の迅速
化がはかれ,同時にメモリ量の節約が可能となる。
According to the present invention, the CPU cuts out character lines to narrow the binarization range and scanning range of the extraction window, and scans the extraction window in which the character array is one-dimensional. Therefore, the character recognition processing time can be shortened, and at the same time, the amount of memory can be saved.

【0024】この発明のより現実に適し文字認識装置
は,既知である複数種類の文字配列についてそれぞれ複
数の文字行に対して垂直方向に一元化された抽出ウィン
ドゥ,ならびに文字配列が既知である対象文字列を含む
画像を入力する入力手段,上記入力手段によって入力さ
れた画像からエッジ・データを抽出し,それを基に文字
領域を限定する文字領域限定手段,上記文字領域限定手
段によって限定された領域の画像を2値化する文字領域
2値化手段,上記文字領域2値化手段によって2値化さ
れた2値画像が通常文字であるか反転文字であるかを判
定し,反転文字の場合には2値画像を反転させる反転手
段,上記反転手段によって得られた2値画像を文字行に
対して垂直方向に投影し,垂直方向投影長データを作成
する投影長データ作成手段,上記文字領域限定手段によ
って得られた領域の位置から対応する一次元抽出ウィン
ドゥを選択し,上記投影長データ作成手段によって得ら
れた垂直方向投影長データに対して選択された一次元抽
出ウィンドゥを走査して特徴量を算出する特徴量算出手
段,上記特徴量算出手段によって得られた特徴量から複
数の切出し位置候補を抽出し,各候補に優先順位を付け
る切出し位置候補優先順位決定手段,上記切出し位置候
補優先順位決定手段によって決定された優先順位にした
がい決定された各文字の切出し位置をその近傍において
微調整しながら切出し位置として適切か否かを順次判定
し,適切と判定したものがあった時点でその適切と判定
したものを切出し位置と決定する切出し位置候補調整判
定手段,上記切出し位置候補調整判定手段によって切出
された画像に対して,あらかじめ記憶されている基準パ
ターンに基づき文字認識処理を行う文字認識手段,およ
び上記文字認識手段によって得られた結果を出力する出
力手段,を備えたものである。
The character recognition device according to the present invention is more practically applicable to an extraction window in which a plurality of known character arrays are unified in the vertical direction with respect to a plurality of character lines, and a target character whose character array is known. Input means for inputting images including columns, character area limiting means for extracting edge data from the image input by the input means, and limiting character areas based on the extracted edge data, area limited by the character area limiting means Character area binarizing means for binarizing the image of the above, and whether the binary image binarized by the character area binarizing means is a normal character or a reverse character is determined. Is an inversion means for inverting the binary image, and a projection length data creation for creating a vertical projection length data by projecting the binary image obtained by the inversion means in the vertical direction with respect to the character line. Means, the corresponding one-dimensional extraction window is selected from the position of the area obtained by the character area limiting means, and the one-dimensional extraction window selected for the vertical projection length data obtained by the projection length data creating means is selected. A feature amount calculation means for scanning the feature amount to calculate a feature amount, a plurality of cutout position candidates extracted from the feature amount obtained by the feature amount calculation means, and a cutout position candidate priority determination means for prioritizing each candidate, According to the priority order determined by the cut-out position candidate priority determining means, while finely adjusting the cut-out position of each character determined in the vicinity thereof, it is sequentially determined whether or not it is appropriate as the cut-out position, and the one determined to be appropriate is Cut-out position candidate adjustment determination means for determining the cut-out position when it is determined to be appropriate, and the cut-out position candidate adjustment determination A character recognition means for performing character recognition processing on an image cut out by a step based on a reference pattern stored in advance, and an output means for outputting a result obtained by the character recognition means. is there.

【0025】この発明によると,CPUが文字領域の限
定と反転文字判定を行なうことによりナンバー・プレー
トのごとき反転文字が含まれる場合でも正しい文字認識
処理を行なうことができ,複数種類の文字配列に対応す
る一次元抽出ウィンドゥを走査することでナンバー・プ
レ−トのごとき複数種類の文字配列が考えられる場合で
も正しい文字認識処理を行なうことができ,限定された
領域の位置によって一次元抽出ウィンドゥを切替えるこ
とによって文字列の画像中の位置によって大きさが変わ
る場合に対しても正しい文字認識処理を行なうことがで
き,複数の切出し位置候補を抽出し優先順位にしたがっ
て調整,判定を行なうことでノイズなどの影響によって
正しい切出し位置の特徴量が最大にならない場合や一次
元抽出ウィンドゥと実際の文字の位置にずれが生じた場
合でも高速に切出し位置を決定でき正しい文字認識処理
を行なうことができ,2値化された文字列画像を文字列
と垂直方向に投影して得られた投影長データに対して一
次元抽出ウィンドゥを走査することで文字切出し位置を
決定することができる。
According to the present invention, the CPU limits the character area and determines the reverse character so that the correct character recognition processing can be performed even when the reverse character such as a license plate is included, and a plurality of kinds of character arrangements can be obtained. By scanning the corresponding one-dimensional extraction window, correct character recognition processing can be performed even when multiple types of character arrangements such as number plates are conceivable, and the one-dimensional extraction window can be selected depending on the position of the limited area. By switching, the correct character recognition processing can be performed even when the size of the character string changes depending on the position in the image. Noise is extracted by extracting multiple cut-out position candidates and adjusting and judging according to the priority order. When the feature amount at the correct cutout position is not maximized due to the influence of, for example, one-dimensional extraction window Even if the actual position of the character is misaligned, the cut-out position can be determined at high speed and correct character recognition processing can be performed, and the binarized character string image was obtained by projecting in the direction perpendicular to the character string. The character cut-out position can be determined by scanning the one-dimensional extraction window with respect to the projection length data.

【0026】[0026]

【実施例】図1は,文字認識装置を道路上を走行する車
両のナンバープレートの読取り適用した実施例の配置構
成図である。
1 is a layout diagram of an embodiment in which a character recognition device is applied to read a license plate of a vehicle traveling on a road.

【0027】道路4の両側に支柱3が立設され,これら
の支柱の上部に横棧2が渡され,この横棧2にテレビ
(ビデオ)カメラ1が設置されている。カメラ1は道路
4上の所定範囲において,矢印で示すようにカメラ1に
向かう方向に走行して来る車両5のナンバー・プレート
を撮像し,撮像した画像を表す映像信号を出力する。カ
メラ1から出力される映像信号は,I/O制御装置11
を通じて後述する文字認識装置に与えられる。道路4の
どちらか一方の側部に支柱3を立設して,その上部にカ
メラ1を設置するようにしてもよい。また,陸橋,その
他の建造物にカメラ1を取付けて,道路4上を走行する
車両のナンバー・プレートを撮像することもできる。
The pillars 3 are erected on both sides of the road 4, the horizontal shafts 2 are passed over the pillars, and the television (video) camera 1 is installed on the horizontal shafts 2. The camera 1 images a license plate of a vehicle 5 traveling in a direction toward the camera 1 as shown by an arrow in a predetermined range on the road 4, and outputs a video signal representing the captured image. The video signal output from the camera 1 is the I / O control device 11
Through the character recognition device described later. The pillar 3 may be erected on either side of the road 4 and the camera 1 may be installed above it. It is also possible to attach the camera 1 to an overpass or other structure and take an image of the license plate of a vehicle traveling on the road 4.

【0028】図2は,図1に示す配置構成を道路4の側
面から見た図である。
FIG. 2 is a view of the arrangement shown in FIG. 1 as seen from the side of the road 4.

【0029】図2に示すように,道路4上に渡された横
棧2に設置されたカメラ1の視覚θは比較的狭く設定さ
れているため,一画像においてカメラ1から認識対象物
までの距離の遠近に応じて場所により大きさが異なると
いうことが殆ど無く,ナンバー・プレート6の画像が歪
められることはない。
As shown in FIG. 2, since the visual angle θ of the camera 1 installed on the horizontal shaft 2 passed on the road 4 is set to be relatively narrow, the image from the camera 1 to the recognition target object in one image is set. There is almost no difference in size depending on the location depending on the distance, and the image of the license plate 6 is not distorted.

【0030】この文字認識装置は,対象文字列の配列が
既知のものであれば,車両のナンバー・プレート以外に
も幅広く応用することができる。たとえば,プリント基
板上ののIC,ライン上を流れている製品の型番,鉄道
車両の番号,流通業における配送物に表示された配送先
を示す文字,記号,紙上に書かれた文字列の読取りおよ
びその確認等に応用できる。
This character recognition device can be widely applied to other than the license plate of the vehicle as long as the arrangement of the target character string is known. For example, reading ICs on a printed circuit board, model numbers of products flowing on a line, numbers of railway vehicles, letters and symbols indicating delivery destinations displayed on deliveries in the distribution industry, and character strings written on paper. And its confirmation, etc.

【0031】第1実施例First embodiment

【0032】図3は,文字認識装置の電気的構成を示し
ている。
FIG. 3 shows the electrical construction of the character recognition device.

【0033】CPU10は,前述のカメラ1により取込
まれた入力画像データに対して,後述する入力画像の2
値化,抽出ウィンドゥの走査,特徴量の算出,切出し位
置の決定,および切出された画像の文字認識処理を行な
う。
The CPU 10 sets the input image data captured by the camera 1 to the input image data 2 to be described later.
It performs value conversion, scanning of extraction windows, calculation of feature quantities, determination of cutout positions, and character recognition processing of cutout images.

【0034】I/O制御装置11は,カメラ1により入
力された画像を取込み,画像保存用RAM12にバス・
ライン19を介して伝送する入力制御,およびCPU1
0によって認識処理された結果を,たとえば表示装置に
出力する出力制御を行なう。
The I / O control device 11 takes in an image input by the camera 1 and stores it in the image storage RAM 12 in a bus.
Input control transmitted via line 19, and CPU1
Output control is performed to output the result of recognition processing by 0 to, for example, a display device.

【0035】画像保存用RAM12は,バス・ライン1
9を介してI/O制御装置11から伝送された入力画像
データ,およびCPU10において2値化処理が済んだ
2値画像データを一時的に記憶しておくメモリである。
The image storage RAM 12 is a bus line 1
This is a memory for temporarily storing the input image data transmitted from the I / O control device 11 via 9 and the binary image data that has been binarized by the CPU 10.

【0036】演算用RAM13は,抽出ウィンドゥを走
査することで得られる特徴量や,文字認識処理に利用す
る特徴量を一時的に記憶しておくメモリである。
The calculation RAM 13 is a memory for temporarily storing the feature amount obtained by scanning the extraction window and the feature amount used for the character recognition processing.

【0037】2値化プログラムROM14は,入力され
た画像を2値化する処理のために必要なプログラムを記
憶しておく読出し専用メモリである。
The binarization program ROM 14 is a read-only memory for storing a program necessary for binarizing the input image.

【0038】切出し制御プログラムROM15は,2値
化された2値画像データに対して後述する抽出ウィンド
ゥROM16に記憶されている抽出ウィンドゥを走査し
て特徴量を算出し,文字切出し位置を決定する処理を行
なうために必要なプログラムを記憶しておく読出し専用
メモリである。
The cut-out control program ROM 15 scans an extraction window stored in an extraction window ROM 16 to be described later with respect to the binarized binary image data, calculates a feature amount, and determines a character cut-out position. It is a read-only memory that stores the programs necessary for performing.

【0039】抽出ウィンドゥROM16は,あらかじめ
想定される対象文字列の文字配列に対応した抽出ウィン
ドゥを記憶しておく読出し専用メモリである。
The extraction window ROM 16 is a read-only memory for storing an extraction window corresponding to a character array of a target character string which is assumed in advance.

【0040】文字認識プログラムROM17は,画像保
存用RAM12に記憶されている入力画像の演算用RA
M13に記憶されている文字切出し結果に対応する部分
と,文字認識辞書ROM18にあらかじめ記憶されてい
る基準パターンに基づきCPU10が行う文字認識処理
に必要なプログラムを記憶しておく読出し専用メモリで
ある。
The character recognition program ROM 17 is a RA for calculating the input image stored in the image storage RAM 12.
It is a read-only memory for storing a portion of the character recognition result stored in M13 and a program necessary for the character recognition processing performed by the CPU 10 based on a reference pattern stored in advance in the character recognition dictionary ROM 18.

【0041】文字認識辞書ROM18は,文字認識処理
時に必要な基準パターンをあらかじめ記憶しておく読出
し専用メモリである。
The character recognition dictionary ROM 18 is a read-only memory for storing in advance reference patterns necessary for character recognition processing.

【0042】以上のI/O制御装置11,画像保存用R
AM12,演算用RAM13,2値化プログラムROM
14,切出し制御プログラムROM15,抽出ウィンド
ゥROM16,文字認識プログラムROM17,および
文字認識辞書ROM18は,それぞれバス・ライン19
を介してCPU10と接続されている。
The above I / O control device 11 and image storage R
AM 12, calculation RAM 13, binarization program ROM
14, the cut-out control program ROM 15, the extraction window ROM 16, the character recognition program ROM 17, and the character recognition dictionary ROM 18 are respectively bus lines 19
It is connected to the CPU 10 via.

【0043】文字認識処理においてCPU10が行なう
特徴量算出処理および切出し位置決定処理について,図
4を用いて説明する。
The feature amount calculation process and the cutout position determination process performed by the CPU 10 in the character recognition process will be described with reference to FIG.

【0044】図4(A)は文字配列のわかっている文字
列が含まれる入力画像データを2値化することにより得
られた画像データを表す。
FIG. 4A shows the image data obtained by binarizing the input image data containing the character string whose character array is known.

【0045】入力条件や2値化の失敗ににより,文字列
の2値化結果に図に示すような掠れ20,ノイズ21が
発生した場合は,従来のようなラベリングや投影長を利
用した文字切出し方法では正確な文字切出し位置を決定
することが困難であり,その結果文字認識に不具合が発
生することが多かった。
When blurring 20 and noise 21 as shown in the figure occur in the binarization result of a character string due to an input condition or a binarization failure, a character using conventional labeling or projection length is used. It was difficult to determine the exact character cutout position by the cutout method, and as a result, there were often problems with character recognition.

【0046】そこで,ここでは図4(A)に示すような
2値画像データから文字列を切出すため,図4(B)に
示す抽出ウィンドゥ22を走査することにより特徴量を
算出して,切出し位置を決定する。図4(B)の抽出ウ
ィンドゥ22は4桁の文字列を切出すためのものであ
り,斜線の部分23が文字領域に,周囲の空白の部分2
4が背景領域にそれぞれ対応する。走査させる抽出ウィ
ンドゥ22の位置をその左上の角の点25(これを走査
点という。)で表わす。
Therefore, here, in order to cut out a character string from the binary image data as shown in FIG. 4A, the feature amount is calculated by scanning the extraction window 22 shown in FIG. 4B. Determine the cutout position. The extraction window 22 of FIG. 4 (B) is for cutting out a 4-digit character string, and the hatched portion 23 is the character area and the surrounding blank portion 2
4 corresponds to the background area, respectively. The position of the extraction window 22 to be scanned is represented by a point 25 at the upper left corner (this is called a scanning point).

【0047】図4(C)は2値画像データから4桁の文
字列の切出し位置を決定するため,上述の抽出ウィンド
ゥ22を走査している状態を示す。
FIG. 4C shows a state in which the above-mentioned extraction window 22 is being scanned in order to determine the cut-out position of the 4-digit character string from the binary image data.

【0048】特徴量は,文字領域23に含まれる全ての
黒画素の数から背景領域24に含まれる全ての黒画素の
数を減算した結果で表わされる。この特徴量の算出は,
走査点25のそれぞれについて行われる。一般的に,抽
出ウィンドゥ22はラスタ方向へ,すなわち画像データ
の左上から始まり,左から右へ,上から下へと走査され
る。
The feature amount is represented by a result obtained by subtracting the number of all black pixels included in the background area 24 from the number of all black pixels included in the character area 23. The calculation of this feature is
This is performed for each of the scanning points 25. In general, the extraction window 22 is scanned in the raster direction, that is, starting from the top left of the image data, from left to right, top to bottom.

【0049】図4(D)は,抽出ウィンドゥ22が特徴
量が最大値を示す位置26にある状態を示す。この位置
にある抽出ウィンドゥ22の文字領域23内の文字を切
出すことにより,正しい文字認識処理を行なうことがで
きる。特徴量が最大値を示す抽出ウィンドゥ22の位置
を文字切出し位置という。
FIG. 4D shows a state in which the extraction window 22 is at the position 26 where the feature amount shows the maximum value. By cutting out the character in the character area 23 of the extraction window 22 at this position, the correct character recognition processing can be performed. The position of the extraction window 22 where the feature amount shows the maximum value is called a character cutout position.

【0050】図5は,文字認識装置における文字認識処
理を示すフローチャートである。
FIG. 5 is a flowchart showing a character recognition process in the character recognition device.

【0051】図1に示すカメラ1が撮像した車両のナン
バー・プレート6の映像は,I/O制御装置11を介し
て画像データとして入力され(ステップ30),画像保
存用RAM12に記憶される。記憶された画像データに
対して2値化処理プログラムROM14に記憶されてい
るプログラムに基づき2値化処理が行われ(ステップ3
1),2値化された画像データは画像保存用RAM12
に記憶される。
The image of the vehicle license plate 6 taken by the camera 1 shown in FIG. 1 is input as image data via the I / O control device 11 (step 30) and stored in the image storage RAM 12. Binarization processing is performed on the stored image data based on the program stored in the binarization processing program ROM 14 (step 3
1), the binarized image data is the image storage RAM 12
Memorized in.

【0052】つぎに,この2値画像データに対して抽出
ウィンドゥROM16に記憶されている抽出ウィンドゥ
22を走査して,走査点25毎に特徴量が算出され,得
られた特徴量は演算用RAM13に記憶される(ステッ
プ32〜36)。ここで,変数iは前述の走査点25を
示すカウンタであり,走査点25の最大値はNである。
すなわち,抽出ウィンドゥ22の走査は,画像の左上の
走査点i=1から開始し,左から右,上から下へと走査
して,右下の走査点i=Nで終了するものとする。抽出
ウィンドゥ22をカウンタiの示す走査点に移動し(ス
テップ33),文字領域23に含まれる黒画素の総数か
ら,背景領域24に含まれる黒画素の総数を減算するこ
とによって特徴量が算出され,演算用RAM13に記憶
される(ステップ34)。この処理は2値画像データ全
体を走査し終えるまで繰返される(ステップ35)。
Then, the extraction window 22 stored in the extraction window ROM 16 is scanned with respect to the binary image data, the characteristic amount is calculated for each scanning point 25, and the obtained characteristic amount is used as the calculation RAM 13 (Steps 32 to 36). Here, the variable i is a counter indicating the above-mentioned scanning point 25, and the maximum value of the scanning point 25 is N.
That is, the scanning of the extraction window 22 starts from the scanning point i = 1 at the upper left of the image, scans from the left to the right, from the top to the bottom, and ends at the scanning point i = N at the lower right. The extraction window 22 is moved to the scanning point indicated by the counter i (step 33), and the feature amount is calculated by subtracting the total number of black pixels included in the background region 24 from the total number of black pixels included in the character region 23. , Is stored in the calculation RAM 13 (step 34). This process is repeated until the scanning of the entire binary image data is completed (step 35).

【0053】走査が終了し,全走査点における特徴量が
算出されると,切出し制御プログラムROM15に記憶
されているプログラムに基づき,演算用RAM13に記
憶されている特徴量の中から最大の特徴量が見付け出さ
れ,その特徴量を生じさせた走査点の位置が文字切出し
位置として決定される(ステップ37)。結果は演算用
RAM13に記憶され,画像保存用RAM12に記憶さ
れている入力画像データのうち,文字切出し位置の抽出
ウィンドゥ22の文字領域23に含まれる画像データが
切出される。すなわち,文字認識処理のために抽出され
る(ステップ38)。
When the scanning is completed and the characteristic amounts at all the scanning points are calculated, the maximum characteristic amount among the characteristic amounts stored in the calculation RAM 13 is calculated based on the program stored in the cutout control program ROM 15. Is found, and the position of the scanning point that caused the feature amount is determined as the character cut-out position (step 37). The result is stored in the calculation RAM 13, and out of the input image data stored in the image storage RAM 12, the image data included in the character area 23 of the extraction window 22 at the character cutting position is cut out. That is, it is extracted for character recognition processing (step 38).

【0054】最後に,文字認識プログラムROM17に
記憶されているプログラムと文字認識辞書ROM18に
記憶されている基準パターンに基づき,切出された画像
データに対して文字認識処理が行われる(ステップ3
9)。文字認識処理は通常のパターン・マッチング,ま
たはその他の方法により実行される。文字認識結果はI
/O制御装置11を介して出力され(ステップ40),
全処理が終了する。
Finally, character recognition processing is performed on the cut out image data based on the program stored in the character recognition program ROM 17 and the reference pattern stored in the character recognition dictionary ROM 18 (step 3).
9). Character recognition processing is performed by normal pattern matching or other methods. Character recognition result is I
Is output via the I / O controller 11 (step 40),
All processing ends.

【0055】第2実施例Second embodiment

【0056】第2実施例は,第1実施例の処理に切出し
位置調整処理を付加したものである。
In the second embodiment, a cutout position adjusting process is added to the process of the first embodiment.

【0057】図3の電気的構成は,第2実施例でもその
まま用いられる。
The electrical configuration of FIG. 3 can be used as it is in the second embodiment.

【0058】カメラ1と認識対象であるナンバー・プレ
ート6との位置関係によっては,画像上でナンバー・プ
レート6の文字の間隔が狭くなったり広くなったりする
ことがある。第1実施例においては,抽出ウィンドゥ2
2における文字領域23の相互間隔は,あらかじめ定め
られている。したがって,図6(A)に示すように,正
しい切出し位置であっても全ての文字領域23に全ての
文字が収まらない状態が生じることがある。このような
場合には,正確な文字認識処理を行うことはできない。
Depending on the positional relationship between the camera 1 and the license plate 6 to be recognized, the space between the characters on the license plate 6 may become narrow or wide on the image. In the first embodiment, the extraction window 2
The mutual spacing of the character areas 23 in 2 is predetermined. Therefore, as shown in FIG. 6 (A), there may occur a state in which not all the characters fit in all the character areas 23 even at the correct cutout position. In such a case, accurate character recognition processing cannot be performed.

【0059】そこで,抽出ウィンドゥ22が第1実施例
の方法によって切出し位置にもたらされた後,抽出ウィ
ンドゥ22を文字毎に分割する。すなわち,図6(B)
に示すように,抽出ウィンドゥ22の文字領域23を含
む範囲に1文字毎に抽出ウィンドゥ50を設け,この抽
出ウィンドゥ50内に文字領域23に対する文字領域5
1を設定する。抽出ウィンドゥ50内において,文字領
域51の外側の部分を背景領域52とする。
Therefore, after the extraction window 22 is brought to the cutout position by the method of the first embodiment, the extraction window 22 is divided for each character. That is, FIG. 6 (B)
As shown in FIG. 5, the extraction window 50 is provided for each character in the range including the character area 23 of the extraction window 22, and the character area 5 for the character area 23 is provided in the extraction window 50.
Set 1. In the extraction window 50, a portion outside the character area 51 is a background area 52.

【0060】特徴量は抽出ウィンドゥ50毎に算出され
る。文字領域51に含まれる黒画素の総数から背景領域
52に含まれる黒画素の総数を減算し,この減算結果が
抽出ウィンドゥ50における特徴量となる。特徴量が最
大となるように,図6(C)に示すように抽出ウィンド
ゥ50を上下左右に動かして,各抽出ウィンドゥ50の
位置が微調整される。
The feature amount is calculated for each extraction window 50. The total number of black pixels included in the background area 52 is subtracted from the total number of black pixels included in the character area 51, and the result of the subtraction becomes the feature amount in the extraction window 50. The position of each extraction window 50 is finely adjusted by moving the extraction window 50 vertically and horizontally as shown in FIG. 6C so that the feature amount becomes maximum.

【0061】図7は第2実施例の文字認識処理を示す,
第5図に相当するフローチャートである。
FIG. 7 shows the character recognition processing of the second embodiment.
It is a flowchart corresponding to FIG.

【0062】ステップ30〜37の処理は,図5におけ
る各処理と同様である。
The processing of steps 30 to 37 is the same as each processing in FIG.

【0063】ステップ37において抽出ウィンドゥ22
が位置決めされた後,上述したように分割された抽出ウ
ィンドゥ50を用いて,各文字毎に抽出ウィンドゥ50
に位置が微調整される(ステップ60)。抽出ウィンド
ゥ50毎に切出し位置が定まると,各抽出ウィンドゥ5
0内の文字領域51内の画像データが切出され(ステッ
プ38),切出された画像データに基づいて文字認識処
理が行われる(ステップ39)。
In step 37, the extraction window 22
After the character is positioned, the extraction window 50 for each character is extracted using the extraction window 50 divided as described above.
Is finely adjusted (step 60). When the extraction position is determined for each extraction window 50, each extraction window 5
The image data in the character area 51 within 0 is cut out (step 38), and character recognition processing is performed based on the cut out image data (step 39).

【0064】第3実施例Third embodiment

【0065】第3実施例は,第1実施例の処理にナンバ
ープレートにおいてその文字の大きさが車種により異な
ることに対処するために,複数の抽出ウィンドゥを用い
る処理を付加したものである。
In the third embodiment, a process using a plurality of extraction windows is added to the process of the first embodiment in order to deal with the fact that the size of the characters on the license plate differs depending on the vehicle type.

【0066】図3の電気的構成は,第3実施例でもその
まま用いられる。
The electrical configuration of FIG. 3 can be used as it is in the third embodiment.

【0067】車両のナンバー・プレートには,図8に示
すように,大型車両用のナンバー・プレート6A,およ
び中型車両用のナンバー・プレート6Bの2種類がある
ため,走査する抽出ウィンドゥもナンバー・プレートの
大きさにあわせて2種類用意する必要がある。
As shown in FIG. 8, there are two types of vehicle license plates, a license plate 6A for large vehicles and a license plate 6B for medium-sized vehicles. Therefore, the extraction window to be scanned is also licensed. It is necessary to prepare two types according to the size of the plate.

【0068】そこで,あらかじめ想定される大きさの異
なった複数(この場合は2種類)の抽出ウィンドゥ(2
2Aおよび22B)を用意しておき,各抽出ウィンドゥ
を走査して,その各走査点でそれぞれ特徴量を算出し,
全ての特徴量の中で最大値を示すものを生じさせた抽出
ウィンドゥの位置を切出し位置として決定する。
Therefore, a plurality of (in this case, two types) extraction windows (2 in this case) of different sizes are assumed.
2A and 22B) are prepared, each extraction window is scanned, and the feature amount is calculated at each scanning point,
The position of the extraction window that produces the maximum value among all the feature amounts is determined as the cutout position.

【0069】図9および図10は第3実施例の文字認識
処理を示す,第5図に相当するフローチャートである。
9 and 10 are flow charts showing the character recognition processing of the third embodiment and corresponding to FIG.

【0070】抽出ウィンドゥROM16にあらかじめ記
憶されている複数種類の抽出ウィンドゥを走査するため
のカウンタjが設けられる。カウンタjはj=1に設定
され(ステップ80),このカウンタjによって選択さ
れる抽出ウィンドゥを用いて(ステップ81)2値画像
が走査され,各走査点で特徴量が算出される(ステップ
32〜36)。
A counter j for scanning a plurality of types of extraction windows stored in advance in the extraction window ROM 16 is provided. The counter j is set to j = 1 (step 80), the binary image is scanned using the extraction window selected by the counter j (step 81), and the feature amount is calculated at each scanning point (step 32). ~ 36).

【0071】この処理は,カウンタjをインクリメント
しながら(ステップ83)記憶されているn個の抽出ウ
ィンドゥ(前述のナンバー・プレートの場合はn=2)
の全てを用いて繰返し行われる(ステップ82)。切出
し位置は算出された特徴量,すなわち全走査点N×全抽
出ウィンドゥnの特徴量の中で最大値を生じさせる抽出
ウィンドゥの位置に決定される。
This process is performed by incrementing the counter j (step 83) and storing n extraction windows (n = 2 in the case of the above-mentioned license plate).
(Step 82). The cut-out position is determined as the position of the extracted window that produces the maximum value among the calculated feature amounts, that is, the feature amounts of all scanning points N × all extracted windows n.

【0072】第4実施例Fourth Embodiment

【0073】図3の電気的構成は,第4実施例でもその
まま用いられる。
The electrical configuration of FIG. 3 can be used as it is in the fourth embodiment.

【0074】図11および図12は第4実施例の文字認
識処理を示す,第5図に相当するフローチャートであ
る。ここでは第1実施例の抽出ウィンドゥ22が用いら
れるものとする。
11 and 12 are flow charts corresponding to FIG. 5 showing the character recognition processing of the fourth embodiment. Here, the extraction window 22 of the first embodiment is used.

【0075】ステップ30〜36の処理は,図5に示す
ものと同様である。
The processing of steps 30 to 36 is the same as that shown in FIG.

【0076】ステップ90において切出し制御プログラ
ムROM15に記憶されているプログラムに基づき,演
算用RAM13に記憶されている抽出ウィンドゥ22を
走査して得られた特徴量の中から,その値が大きい順に
上位m個を切出し位置候補として選択する。
In step 90, based on the program stored in the cut-out control program ROM 15, the extraction window 22 stored in the calculation RAM 13 is scanned, and the characteristic values obtained in this order from the largest value are ranked m in descending order. The individual is selected as a cutout position candidate.

【0077】つぎに,選択された各候補について,画像
保存用RAM12に記憶されている入力画像,2値画像
のうちの各候補位置における文字領域に含まれる画像デ
ータを参照しながら,文字列の切出し位置としての適合
性を算出する(ステップ91〜94)。適合性が最大値
を示す候補位置を文字切出し位置として決定する(ステ
ップ95)。適合性は,文字らしさを表わす値であり、
具体的には文字領域23に含まれる黒画素の総数や文字
特徴量等によって表わされる。
Next, referring to the image data included in the character area at each candidate position of the input image and the binary image stored in the image storage RAM 12 for each selected candidate, the character string The suitability as the cutout position is calculated (steps 91 to 94). The candidate position having the maximum compatibility is determined as the character cutout position (step 95). Relevance is a value that represents character-likeness,
Specifically, it is represented by the total number of black pixels included in the character area 23, the character feature amount, and the like.

【0078】第5実施例Fifth embodiment

【0079】図3の電気的構成は,第5実施例でもその
まま用いられる。
The electrical configuration of FIG. 3 can be used as it is in the fifth embodiment.

【0080】図13および図14は第5実施例の文字認
識処理を示す,第5図に相当するフローチャートであ
る。
FIGS. 13 and 14 are flow charts corresponding to FIG. 5, showing the character recognition processing of the fifth embodiment.

【0081】ステップ30〜36の処理は,図5に示す
ものと同様である。また,抽出ウィンドゥ22を走査し
て得られた特徴量の中から,その値が大きい順に上位m
個を切出し位置候補として選択する処理(ステップ9
0)は,前述の第4実施例と同様である。
The processing of steps 30 to 36 is the same as that shown in FIG. In addition, among the feature values obtained by scanning the extraction window 22, the upper m
Processing for selecting individual pieces as cut-out position candidates (step 9)
0) is the same as in the fourth embodiment.

【0082】ここでは,さらに算出された特徴量の値の
大きい順に,優先順位を決定する(ステップ100)。
決定された優先順位にしたがって,第4実施例と同様
に,画像保存用RAM12に記憶されている入力画像,
2値画像のうちの各候補位置における文字領域に含まれ
る画像データを参照しながら,文字列の切出し位置とし
ての適合性を算出する(ステップ91〜94)。ここで
はすでに候補位置の優先順位が決まっているので,あら
かじめ定められたしきい値と適合性を比較し(ステップ
101),しきい値以上の適合性を示す候補位置であれ
ば,各文字の切出し位置として決定される(ステップ1
02)。
Here, the priority is determined in descending order of the calculated value of the feature quantity (step 100).
According to the determined priority order, the input images stored in the image storage RAM 12 are the same as in the fourth embodiment.
The suitability as the cut-out position of the character string is calculated with reference to the image data included in the character area at each candidate position in the binary image (steps 91 to 94). Here, since the priority of the candidate positions has already been determined, the suitability is compared with a predetermined threshold value (step 101). Determined as the cutout position (step 1
02).

【0083】第6実施例Sixth Embodiment

【0084】第6実施例は,第1実施例の処理に走査位
置によって大きさの異なる抽出ウィンドゥを切替えなが
ら走査する処理を付加したものである。
In the sixth embodiment, the processing of the first embodiment is added with the processing of scanning while switching the extraction windows of different sizes depending on the scanning position.

【0085】図3の電気的構成は,第5実施例でもその
まま用いられる。
The electrical configuration of FIG. 3 can be used as it is in the fifth embodiment.

【0086】図1に示したように車両の進行方向に対し
て前方から見下ろして撮像する場合,図2のようにカメ
ラ1の視角θが比較的狭く設定されていれば,一画像に
おいてカメラ1から認識対象物までの距離の遠近に応じ
て場所により大きさが異なるということが殆ど無く,ナ
ンバー・プレート6の画像が歪められることはない。し
かし,図15(A)のように視角θが大きく設定されて
いる場合には,車両が前方にあるとき(図15(B)で
は車両が下側にあるとき)5Aと,車両が後方にあると
き(図15(B)では車両が上側にあるとき)5Bとで
は,対象文字列(6Cおよび6D)の大きさが違ってし
まい,正しい文字認識処理を行うことはできない。
As shown in FIG. 1, when the image is taken looking down from the front with respect to the traveling direction of the vehicle, if the viewing angle θ of the camera 1 is set to be relatively narrow as shown in FIG. The size of the image of the license plate 6 hardly changes depending on the location depending on the distance from the object to the recognition object, and the image of the license plate 6 is not distorted. However, when the viewing angle θ is set to be large as shown in FIG. 15 (A), when the vehicle is in the front (in FIG. 15 (B), the vehicle is on the lower side), 5A and when the vehicle is in the rear. At some time (when the vehicle is on the upper side in FIG. 15B), the size of the target character strings (6C and 6D) differs from 5B, and correct character recognition processing cannot be performed.

【0087】そこで,抽出ウィンドゥを走査する際に,
画面の位置によって大きさの異なる複数の抽出ウィンド
ゥ(22Cおよび22D)を切替えながら走査を行な
い,得られた特徴量から文字切出し位置を決定する。
Therefore, when scanning the extraction window,
Scanning is performed while switching a plurality of extraction windows (22C and 22D) having different sizes depending on the position of the screen, and the character cut-out position is determined from the obtained feature amount.

【0088】図16は第6実施例の文字認識処理を示
す,第5図に相当するフローチャートである。
FIG. 16 is a flow chart corresponding to FIG. 5, showing the character recognition processing of the sixth embodiment.

【0089】ステップ120において,切出し制御プロ
グラムROM15に記憶されているプログラムに基づ
き,演算用RAM13に記憶されている大きさの異なっ
た複数の抽出ウィンドゥから走査位置,すなわち走査点
iに対応する位置に適した大きさの抽出ウィンドゥを選
択し,切替えながら走査を行ない,得られた特徴量の中
から文字切出し位置を決定する。
In step 120, based on the program stored in the cut-out control program ROM 15, the plurality of extraction windows of different sizes stored in the calculation RAM 13 are moved to the scanning position, that is, the position corresponding to the scanning point i. An extraction window of an appropriate size is selected, scanning is performed while switching, and the character cut-out position is determined from the obtained feature quantities.

【0090】第7実施例Seventh Embodiment

【0091】第7実施例は,白地のナンバー・プレート
および緑地のナンバー・プレートに対処するものであ
る。
The seventh embodiment deals with a white license plate and a green license plate.

【0092】図17は,第7実施例による文字認識装置
の電気的構成を示す,図3に相当する図である。図3に
示すものと同一物についてはは同一符号を付し,重複説
明を避ける。
FIG. 17 is a diagram corresponding to FIG. 3, showing the electrical construction of the character recognition device in the seventh embodiment. The same components as those shown in FIG. 3 are designated by the same reference numerals to avoid redundant description.

【0093】文字領域限定プログラムROM130は,
画像保存用RAM12に記憶されている入力画像データ
から文字領域を限定する処理のために必要なプログラム
を記憶しておく読出し専用メモリである。
The character area limited program ROM 130 is
It is a read-only memory that stores a program necessary for the process of limiting the character area from the input image data stored in the image storage RAM 12.

【0094】反転文字判定プログラムROM131は,
画像保存用RAM12に記憶されている2値画像データ
のうち,定められた文字領域に含まれる画像が反転文字
であるか否かを判定し,反転文字が入力されている場合
には,画像保存用RAM12に記憶されている該当部分
の2値画像データを反転させる処理のために必要なプロ
グラムを記憶しておく読出し専用メモリである。
The reverse character determination program ROM 131 is
Of the binary image data stored in the image storage RAM 12, it is determined whether the image included in the defined character area is a reverse character, and if the reverse character is input, the image is saved. It is a read-only memory that stores a program necessary for the process of inverting the binary image data of the corresponding portion stored in the RAM 12 for use.

【0095】以上の文字領域限定プログラムROM13
0および反転文字判定プログラムROM131は,それ
ぞれバス・ライン19を介してCPU10と接続されて
いる。
Character area limited program ROM 13 described above
The 0 and the reverse character determination program ROM 131 are connected to the CPU 10 via the bus line 19, respectively.

【0096】第7実施例は,第1実施例の処理に文字領
域を限定する処理および定められた文字領域に含まれる
2値画像を反転させる処理を付加したものである。
The seventh embodiment is obtained by adding the process of limiting the character area and the process of inverting the binary image included in the predetermined character area to the processing of the first embodiment.

【0097】車両のナンバー・プレートには,図18
(A)に示すように,白地に緑色の文字列(通常文字)
が書かれた白色プレート6Eと,それを反転した緑地に
白色の文字列(反転文字)が書かれた緑色プレート6F
の2種類がある。そのため,正しい文字認識処理を行な
うには,反転文字をさらに反転し直す必要がある。
The number plate of the vehicle is shown in FIG.
As shown in (A), a green character string (normal characters) on a white background
Is written on the white plate 6E, and the green plate is the inverted green plate on which the white character string (reverse character) is written.
There are two types. Therefore, in order to perform correct character recognition processing, it is necessary to reverse the reversed character.

【0098】図18(B)は,文字配列はわかっている
が,通常文字か反転文字かわからない文字列が含まれる
入力画像データの例を示す。ここでは,まず大体の文字
領域(文字が書かれている領域)を限定し,その限定領
域内で2値化処理を行なう。2値化画像データに基づい
て反転文字か否かを判定し,反転文字の場合は,反転し
た上で文字認識処理を行なう。
FIG. 18B shows an example of input image data including a character string whose character array is known but which is not known as a normal character or a reverse character. Here, first, the character region (the region in which the characters are written) is generally limited, and the binarization process is performed within the limited region. It is determined based on the binarized image data whether the character is a reverse character. If the character is a reverse character, the character is recognized after being reversed.

【0099】文字領域の決定は,I/O制御装置11を
通じて入力された画像データについて,画素毎にまたは
適当な小領域毎にエッジ成分を算出し(エッジ・データ
算出),高い値のエッジ・データ(エッジらしさが大き
い)が集まっている範囲を文字領域とすることにより行
われる。エッジ・データを抽出することにより,白黒
(緑)反転文字に関係なく文字の存在を示す情報が出て
くるため,文字領域を限定することができる。
The character area is determined by calculating the edge component for each pixel or for each appropriate small area in the image data input through the I / O control device 11 (edge data calculation), This is performed by setting a range in which data (having a large edge likelihood) is collected as a character area. By extracting the edge data, information indicating the existence of the character appears regardless of the black and white (green) inverted character, and therefore the character area can be limited.

【0100】図19および図20は第7実施例の文字認
識処理を示す,第5図に相当するフローチャートであ
る。
19 and 20 are flowcharts corresponding to FIG. 5, showing the character recognition processing of the seventh embodiment.

【0101】画像データの入力(ステップ30)の後
に,文字領域限定プログラムROM130に記憶されて
いるプログラムに基づき,画像保存用RAM12に記憶
されている入力画像からエッジ・データを抽出し(ステ
ップ150)それを基に文字領域の抽出を行なう(ステ
ップ151)。
After inputting the image data (step 30), the edge data is extracted from the input image stored in the image storage RAM 12 based on the program stored in the character area limiting program ROM 130 (step 150). The character area is extracted based on this (step 151).

【0102】ステップ152において,2値化プログラ
ムROM14に記憶されているプログラムに基づき,画
像保存用RAM12に記憶されている限定された文字領
域の画像データを2値化して画像保存用RAM12に記
憶させる。
In step 152, based on the program stored in the binarization program ROM 14, the image data of the limited character area stored in the image storage RAM 12 is binarized and stored in the image storage RAM 12. .

【0103】ステップ153において,反転文字判定プ
ログラムROM130に記憶されているプログラムに基
づき,画像保存用RAM12に記憶されている限定され
た文字領域の2値画像に含まれる黒画素と白画素の数を
数えることにより,通常文字であるか反転文字であるか
を判定する。黒画素の数よりも白画素の数が多い場合に
は通常文字と,逆に白画素の数よりも黒画素の数が多い
場合には反転文字と判定する。反転文字の場合には,画
像保存用RAM12に記憶されている2値画像を白黒反
転させる(ステップ154)。通常文字の場合には,画
像データはそのままに保存される。
In step 153, the number of black pixels and white pixels included in the binary image of the limited character area stored in the image storage RAM 12 is determined based on the program stored in the reverse character determination program ROM 130. By counting, it is determined whether it is a normal character or a reverse character. When the number of white pixels is larger than the number of black pixels, it is determined as a normal character, and when the number of black pixels is greater than the number of white pixels, it is determined as a reverse character. In the case of reverse characters, the binary image stored in the image storage RAM 12 is reversed in black and white (step 154). In the case of normal characters, the image data is saved as it is.

【0104】以上の処理の中,第1実施例で示したステ
ップ32〜40にしたがう切出し位置決定,および文字
認識処理が文字領域内の2値化された画像データについ
て行われる。
Among the above processing, the cutout position determination and the character recognition processing according to steps 32 to 40 shown in the first embodiment are performed on the binarized image data in the character area.

【0105】第8実施例Eighth Embodiment

【0106】第8実施例は,切出された範囲において一
次元抽出ウィンドゥを走査し,切出し位置を決定するも
のである。
In the eighth embodiment, the one-dimensional extraction window is scanned in the cut out range to determine the cut out position.

【0107】図21は,第8実施例による文字認識装置
の電気的構成を示す,図3に相当する図である。図3に
示すものと同一物についてはは同一符号を付し,重複説
明を避ける。
FIG. 21 is a diagram corresponding to FIG. 3, showing the electrical construction of the character recognition device in the eighth embodiment. The same components as those shown in FIG. 3 are designated by the same reference numerals to avoid redundant description.

【0108】文字行切出しプログラムROM160は,
画像保存用RAM12に記憶されている画像に対して,
文字行の切出しを行なう処理に必要なプログラムを記憶
しておく読出し専用プログラムである。
The character line cutout program ROM 160 is
For images stored in the image storage RAM 12,
This is a read-only program that stores a program necessary for the process of cutting out a character line.

【0109】切出し制御プログラムROM15Aは,一
次元抽出ウィンドゥを用いた切出し処理を行なうのに必
要なプログラムを記憶しておく読出し専用プログラムで
ある。
The cut-out control program ROM 15A is a read-only program for storing the program necessary for performing the cut-out processing using the one-dimensional extraction window.

【0110】抽出ウィンドゥROM16Aは,一次元抽
出ウィンドゥを記憶しておく読出し専用プログラムであ
る。
The extraction window ROM 16A is a read-only program for storing the one-dimensional extraction window.

【0111】以上の文字行切出しプログラムROM16
0,切出し制御プログラムROM15A,および抽出ウ
ィンドゥROM16Aはそれぞれバス・ライン19を介
してCPU10と接続されている。
The above character line cutout program ROM 16
0, the cutout control program ROM 15A, and the extraction window ROM 16A are connected to the CPU 10 via the bus line 19, respectively.

【0112】第8実施例による文字行切出し処理につい
て,図22,図23および図24を用いて説明する。
A character line cutout process according to the eighth embodiment will be described with reference to FIGS. 22, 23 and 24.

【0113】2値化画像データに対して水平方向投影長
データ141が算出される(ステップ180)。この水
平方向投影長データ141に基づいて,文字行切出しが
行われる(ステップ181)。水平方向投影長データ1
41が所定値以上の範囲V1が切出されることになる。
Horizontal projection length data 141 is calculated for the binarized image data (step 180). A character line is cut out based on the horizontal projection length data 141 (step 181). Horizontal projection length data 1
A range V1 in which 41 is a predetermined value or more is cut out.

【0114】文字行切出しにより定められた範囲V1内
において,垂直方向投影長データ140が算出される。
The vertical projection length data 140 is calculated within the range V1 defined by the character line cutout.

【0115】一次元抽出ウィンドゥ170が用いられ
る。この一次元抽出ウィンドゥ170は文字範囲171
とそれらの間の背景範囲172とから構成される。この
一次元抽出ウィンドゥ170が定められた範囲において
水平方向に走査される。
A one-dimensional extraction window 170 is used. This one-dimensional extraction window 170 has a character range 171.
And a background range 172 between them. This one-dimensional extraction window 170 is scanned in the horizontal direction within a predetermined range.

【0116】各走査位置において,一次元抽出ウィンド
ゥ170内の文字範囲171に属する垂直方向投影長デ
ータの総和から背景範囲172に属する垂直方向投影長
データの総和が減算され,特徴量となる(ステップ18
2,34)。
At each scanning position, the sum of the vertical projection length data belonging to the background range 172 is subtracted from the sum of the vertical projection length data belonging to the character range 171 in the one-dimensional extraction window 170 to obtain a feature amount (step 18
2, 34).

【0117】特徴量が最大値を示す一次元抽出ウィンド
ゥ170の位置が最終的に切出される範囲V2となる
(ステップ37,38)。
The position of the one-dimensional extraction window 170 showing the maximum feature amount is the range V2 to be finally cut out (steps 37, 38).

【0118】範囲V1とV2によって抽出される領域に
属する画像データに基づいて,文字認識処理が行われる
(ステップ39,40)。
Character recognition processing is performed based on the image data belonging to the areas extracted by the ranges V1 and V2 (steps 39 and 40).

【0119】この実施例では,一次元抽出ウィンドゥ1
70の走査は,水平方向に一回行なえばよいので,切出
し処理が迅速になる。
In this embodiment, the one-dimensional extraction window 1
Since the scanning of 70 only needs to be performed once in the horizontal direction, the cutting process becomes quick.

【0120】第9実施例Ninth Embodiment

【0121】第9実施例は,第8実施例と同様に,切出
された範囲において一次元抽出ウィンドゥを走査し切出
し位置を決定するものであるが,2値化処理以前の段階
で処理範囲を切出すため,2値化処理に用するメモリ量
の節約が可能となる。
Like the eighth embodiment, the ninth embodiment scans the one-dimensional extraction window in the cut-out range to determine the cut-out position. However, the processing range is before the binarization process. Therefore, the amount of memory used for the binarization processing can be saved.

【0122】第9実施例による文字行切出し処理につい
て,図25,図26および図27を用いて説明する。
The character line cutout process according to the ninth embodiment will be described with reference to FIGS. 25, 26 and 27.

【0123】まず,図25(A)に示すような画像デー
タが入力される(ステップ30)。ここでは,この入力
画像データ全体を2値化処理をするのではなく,文字行
を切出し,その文字行に対してのみ2値化処理を行な
う。
First, image data as shown in FIG. 25A is input (step 30). Here, the entire input image data is not binarized, but a character line is cut out and binarized only on the character line.

【0124】ステップ200において,画像保存用RA
M12に記憶されている入力画像データについて文字行
切出しプログラム160に記憶されているプログラムに
よって水平方向のエッジ・データが抽出され,それを基
に文字切出しが行われる。
In step 200, the image storage RA
With respect to the input image data stored in M12, the horizontal line edge data is extracted by the program stored in the character line cutout program 160, and the character cutout is performed based on the extracted edge data.

【0125】ステップ31において,切出された文字行
に対してのみ2値化処理が行なわれ,2値化画像につい
て垂直方向投影長データが作成され(ステップ20
1),演算用RAM13に記憶される。図25(B)
は,文字領域が切出され,垂直方向投影長データが作成
された状態を示す。
In step 31, binarization processing is performed only on the cut-out character line, and vertical projection length data is created for the binarized image (step 20).
1), stored in the calculation RAM 13. FIG. 25 (B)
Indicates that the character area is cut out and vertical projection length data is created.

【0126】前述の第8実施例と同様に,この垂直方向
投影長データ170に対して,抽出ウィンドゥROM1
6Aに記憶されている一次元化された抽出ウィンドゥ1
70を走査させ(ステップ182),特徴量を算出する
(ステップ34)。
Similar to the above-described eighth embodiment, the extraction window ROM 1 is applied to the vertical projection length data 170.
One-dimensionalized extraction window 1 stored in 6A
70 is scanned (step 182), and the characteristic amount is calculated (step 34).

【0127】第10実施例Tenth Example

【0128】第10実施例は,この発明のより現実に適
した文字認識装置を示すものであり,第1〜第9実施例
の中から複数の処理を選択し,組合わせたものである。
図28〜31のフローチャートを用いて説明する。
The tenth embodiment shows a more practical character recognition device of the present invention, which is a combination of a plurality of processes selected from the first to ninth embodiments.
It demonstrates using the flowchart of FIGS.

【0129】図1に示すカメラ1が撮像した車両のナン
バープレート6の映像がI/O制御装置11を介して画
像データとして入力される(ステップ30)。
The image of the vehicle license plate 6 taken by the camera 1 shown in FIG. 1 is input as image data through the I / O control device 11 (step 30).

【0130】入力された画像データについてエッジ・デ
ータが抽出され(ステップ150),このエッジ・デー
タと文字領域限定プログラムに基づき文字領域が限定さ
れる(ステップ151)。
Edge data is extracted from the input image data (step 150), and the character area is limited based on the edge data and the character area limiting program (step 151).

【0131】入力画像の上記文字領域に対応する部分の
画像データは,2値化処理プログラムに基づき2値化処
理が行われる(ステップ152)。
The image data of the portion of the input image corresponding to the character area is binarized based on the binarization program (step 152).

【0132】反転文字判定プログラムに基づき,限定さ
れた文字領域の2値画像に含まれる黒画素と白画素の数
を数え,通常文字であるか反転文字であるかを判定する
(ステップ153)。反転文字の場合には,記憶されて
いる2値画像を白黒反転させ(ステップ154),通常
文字の場合には,画像データはそのままに保存される。
Based on the reverse character determination program, the number of black pixels and white pixels included in the binary image of the limited character area is counted, and it is determined whether it is a normal character or a reverse character (step 153). In the case of a reverse character, the stored binary image is inverted in black and white (step 154), and in the case of a normal character, the image data is saved as it is.

【0133】切出し制御プログラムにしたがい,記憶さ
れている2値画像を垂直方向に投影して垂直方向投影長
データが作成される。
According to the cutout control program, the stored binary image is projected in the vertical direction to create vertical projection length data.

【0134】あらかじめ記憶されている複数種類の抽出
ウィンドゥを走査するためのカウンタj(最大値はn。
ここではn=2)がj=1に設定され(ステップ8
0),抽出ウィンドゥjが選択される(ステップ8
1)。走査点を示すカウンタi(最大値はN)がi=1
に設定され,走査点iに対応する位置に適した大きさの
抽出ウィンドゥを走査して,走査点毎に特徴量が算出さ
れる(ステップ32〜36)。
Counter j for scanning a plurality of types of extraction windows stored in advance (the maximum value is n.
Here, n = 2) is set to j = 1 (step 8
0), the extraction window j is selected (step 8).
1). The counter i indicating the scanning point (the maximum value is N) is i = 1
Is set, and the extraction window having a size suitable for the position corresponding to the scanning point i is scanned, and the feature amount is calculated for each scanning point (steps 32 to 36).

【0135】抽出ウィンドゥを走査して得られた特徴量
の中から,その値が大きい順に上位m個を切出し位置候
補として選択し(ステップ90),算出された特徴量の
値の大きい順に,優先順位を決定する(ステップ10
0)。
Among the feature values obtained by scanning the extraction window, the m uppermost ones are selected as cut-out position candidates in descending order of their value (step 90), and the calculated feature value is prioritized in descending order. Determine ranking (step 10)
0).

【0136】決定された優先順位にしたがい,記憶され
ている入力画像,2値画像のうちの各候補位置における
文字領域に含まれる画像データを参照し,抽出ウィンド
ゥを上下左右に微調整しながら,文字列の切出し位置と
しての適合性を算出する(ステップ91〜94)。あら
かじめ定められたしきい値と適合性を比較し(ステップ
101),しきい値以上の適合性を示す候補位置であれ
ば,各文字の切出し位置として決定される(ステップ1
02)。
According to the determined priority order, referring to the image data included in the character area at each candidate position of the stored input image and binary image, while finely adjusting the extraction window vertically and horizontally, The suitability as the cut-out position of the character string is calculated (steps 91 to 94). The suitability is compared with a predetermined threshold value (step 101), and if the candidate position shows the suitability equal to or higher than the threshold value, it is determined as the cutout position of each character (step 1).
02).

【0137】記憶されている入力画像データのうち,文
字切出し位置の抽出ウィンドゥの文字領域に含まれる画
像データが切出され,文字認識プログラムと文字認識辞
書ROM18に記憶されている基準パターンに基づき,
切出された画像データに対して文字認識処理が行われる
(ステップ39)。文字認識結果はI/O制御装置11
を介して出力され(ステップ40),全処理が終了す
る。
From the stored input image data, the image data included in the character area of the extraction window of the character cut-out position is cut out, and based on the character recognition program and the reference pattern stored in the character recognition dictionary ROM 18,
Character recognition processing is performed on the cut out image data (step 39). The character recognition result is the I / O control device 11
(Step 40), and the whole process ends.

【0138】この第10実施例のように,第1〜第9実
施例の中から任意の2つ以上を選んで,矛盾しない範囲
で適宜組合わせることが可能である。
As in the tenth embodiment, any two or more of the first to ninth embodiments can be selected and appropriately combined within a range that does not contradict.

【図面の簡単な説明】[Brief description of drawings]

【図1】文字認識装置を道路を走行する車両のナンバー
プレートの読取りに用いた実施例の配置構成図である。
FIG. 1 is an arrangement configuration diagram of an embodiment in which a character recognition device is used to read a license plate of a vehicle traveling on a road.

【図2】図1に示す実施例の配置構成図を道路の側面か
ら見た図である。
FIG. 2 is a view of a layout configuration diagram of the embodiment shown in FIG. 1 viewed from a side surface of a road.

【図3】第1実施例における文字認識装置の電気的構成
を示すブロック図である。
FIG. 3 is a block diagram showing an electrical configuration of the character recognition device in the first embodiment.

【図4】(A)は入力画像の例,(B)は抽出ウィンド
ゥの例,(C)は2値画像上で抽出ウィンドゥを走査さ
せている状態,(D)は切出し位置に位置決めされた抽
出ウィンドゥをそれぞれ示す。
4A is an example of an input image, FIG. 4B is an example of an extraction window, FIG. 4C is a state in which the extraction window is scanned on a binary image, and FIG. 4D is positioned at a cutout position. The extraction windows are shown respectively.

【図5】第1実施例における文字認識処理を示すフロー
チャートである。
FIG. 5 is a flowchart showing a character recognition process in the first embodiment.

【図6】(A)は切出し位置に位置決めされた抽出ウィ
ンドゥの文字領域と文字とがずれている状態,(B)は
文字毎に抽出ウィンドゥを分割した状態,(C)は切出
し位置を微調整している状態をそれぞれ示す。
6A is a state in which the character region of the extraction window positioned at the cutout position and the character are misaligned, FIG. 6B is a state in which the extraction window is divided for each character, and FIG. The respective adjustment states are shown.

【図7】第2実施例における文字認識処理を示す,図5
に相当するフローチャートである。
FIG. 7 shows a character recognition process in the second embodiment, FIG.
It is a flowchart corresponding to.

【図8】大型車両用のナンバープレートと中形車両用の
ナンバープレートとを対比させた図である。
FIG. 8 is a view comparing a license plate for a large vehicle and a license plate for a medium-sized vehicle.

【図9】第3実施例における文字認識処理を示す,図5
に相当するフローチャートの一部である。
FIG. 9 shows a character recognition process in the third embodiment, and FIG.
Is a part of the flowchart corresponding to.

【図10】第3実施例における文字認識処理を示す,図
5に相当するフローチャートの一部である。
FIG. 10 is a part of a flowchart corresponding to FIG. 5, showing a character recognition process in the third embodiment.

【図11】第4実施例における文字認識処理を示す,図
5に相当するフローチャートの一部である。
FIG. 11 is a part of a flowchart corresponding to FIG. 5, showing a character recognition process in the fourth embodiment.

【図12】第4実施例における文字認識処理を示す,図
5に相当するフローチャートの一部である。
FIG. 12 is a part of a flowchart corresponding to FIG. 5, showing a character recognition process in the fourth embodiment.

【図13】第5実施例における文字認識処理を示す,図
5に相当するフローチャートの一部である。
FIG. 13 is a part of a flowchart corresponding to FIG. 5, showing a character recognition process in the fifth embodiment.

【図14】第5実施例における文字認識処理を示す,図
5に相当するフローチャートの一部である。
FIG. 14 is a part of a flowchart corresponding to FIG. 5, showing a character recognition process in the fifth embodiment.

【図15】(A)は,図1に示す配置構成を道路4の側
面から見た図であり,図2よりもカメラの視覚が大きく
設定されている状態,(B)は(A)に示すカメラの位
置から見た図であり,距離の遠近に応じて場所により大
きさが異なっている状態をそれぞれ示す。
15A is a view of the arrangement shown in FIG. 1 as seen from the side of the road 4, in which the vision of the camera is set larger than in FIG. 2, and FIG. It is the figure which looked at from the position of the camera shown, and shows the state where the size differs according to the location according to the distance.

【図16】第6実施例における文字認識処理を示す,図
5に相当するフローチャートである。
FIG. 16 is a flowchart corresponding to FIG. 5, showing a character recognition process in the sixth embodiment.

【図17】第7実施例における文字認識装置の電気的構
成を示すブロック図である。
FIG. 17 is a block diagram showing an electrical configuration of a character recognition device in a seventh embodiment.

【図18】(A)は通常文字(白地に緑)のナンバープ
レートと反転文字(緑地に白)のナンバープレートの対
比,(B)は入力画像,(C)は文字領域が切出された
状態を示す。
FIG. 18A is a comparison between a license plate of normal characters (green on a white background) and a license plate of reverse characters (white on a green background), (B) is an input image, and (C) is a character region cut out. Indicates the status.

【図19】第7実施例における文字認識処理を示す,図
5に相当するフローチャートの一部である。
FIG. 19 is a part of a flowchart corresponding to FIG. 5, showing a character recognition process in the seventh embodiment.

【図20】第7実施例における文字認識処理を示す,図
5に相当するフローチャートの一部である。
FIG. 20 is a part of a flowchart corresponding to FIG. 5, showing a character recognition process in the seventh embodiment.

【図21】第8実施例および第9実施例における文字認
識装置の電気的構成を示すブロック図である。
FIG. 21 is a block diagram showing an electrical configuration of a character recognition device in an eighth embodiment and a ninth embodiment.

【図22】水平方向投影長データを用いて2値画像から
文字行が切出され,その領域において垂直方向投影長デ
ータが抽出された状態,および垂直方向投影長データ上
を走査する一次元抽出ウィンドゥの例を示す。
FIG. 22 shows a state in which a character line is cut out from a binary image using horizontal projection length data and vertical projection length data is extracted in that area, and one-dimensional extraction is performed on the vertical projection length data. An example of Windu is shown.

【図23】第8実施例における文字認識処理を示す,図
5に相当するフローチャートの一部である。
FIG. 23 is a part of a flowchart corresponding to FIG. 5, showing a character recognition process in the eighth embodiment.

【図24】第8実施例における文字認識処理を示す,図
5に相当するフローチャートの一部である。
FIG. 24 is a part of a flowchart corresponding to FIG. 5, showing a character recognition process in the eighth embodiment.

【図25】(A)は入力画像,(B)はエッジ・データ
を用いて入力画像から文字行が切出され,その領域にお
いて垂直方向投影長データが抽出された状態,および垂
直方向投影長データ上を走査する一次元抽出ウィンドゥ
の例を示す。
FIG. 25A is a state in which a character line is cut out from the input image by using edge data and FIG. 25B is a state in which vertical direction projection length data is extracted in that area, and the vertical direction projection length. An example of a one-dimensional extraction window for scanning over data is shown.

【図26】第9実施例における文字認識処理を示す,図
5に相当するフローチャートの一部である。
FIG. 26 is a part of a flowchart corresponding to FIG. 5, showing a character recognition process in the ninth embodiment.

【図27】第9実施例における文字認識処理を示す,図
5に相当するフローチャートの一部である。
FIG. 27 is a part of a flowchart corresponding to FIG. 5, showing a character recognition process in the ninth embodiment.

【図28】第10実施例における文字認識処理を示す,
図5に相当するフローチャートの一部である。
FIG. 28 shows character recognition processing in the tenth embodiment,
6 is a part of a flowchart corresponding to FIG. 5.

【図29】第10実施例における文字認識処理を示す,
図5に相当するフローチャートの一部である。
FIG. 29 shows character recognition processing in the tenth embodiment,
6 is a part of a flowchart corresponding to FIG. 5.

【図30】第10実施例における文字認識処理を示す,
図5に相当するフローチャートの一部である。
FIG. 30 shows character recognition processing in the tenth embodiment,
6 is a part of a flowchart corresponding to FIG. 5.

【図31】第10実施例における文字認識処理を示す,
図5に相当するフローチャートの一部である。
FIG. 31 shows a character recognition process in the 10th embodiment,
6 is a part of a flowchart corresponding to FIG. 5.

【符号の説明】[Explanation of symbols]

1 テレビ(ビデオ)カメラ 5 車両 6 ナンバー・プレート 22 抽出マスク 23 文字領域 24 背景領域 25 走査点 170 一次元抽出ウィンドゥ 1 TV (video) camera 5 Vehicle 6 License plate 22 Extraction mask 23 Character area 24 Background area 25 Scan point 170 One-dimensional extraction window

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 文字配列が既知である対象文字列を含む
画像を入力する入力手段,上記入力画像を2値化する2
値化手段,上記2値化手段により2値化された画像デー
タに対して,既知である文字配列に対応する大きさと配
置を持つ抽出ウィンドゥを走査し,抽出ウィンドゥの位
置毎に特徴量を算出する特徴量算出手段,上記特徴量算
出手段によって得られた特徴量に基づいて文字切出し位
置を決定する切出し位置決定手段,上記切出し位置決定
手段によって決定された位置の抽出ウィンドゥにしたが
って切出された画像データについて,あらかじめ記憶さ
れている基準パターンに基づき文字認識処理を行う文字
認識手段,および上記文字認識手段によって得られた結
果を出力する出力手段,を備えた文字認識装置。
1. Input means for inputting an image containing a target character string whose character arrangement is known, and 2 for binarizing the input image.
The binarizing unit scans the image data binarized by the binarizing unit with an extraction window having a size and arrangement corresponding to a known character array, and calculates a feature amount for each position of the extraction window. And a cut-out position determining unit that determines a character cut-out position based on the feature amount obtained by the feature amount calculating unit, and the extraction window of the position determined by the cut-out position determining unit. A character recognition device comprising: a character recognition means for performing character recognition processing on image data based on a reference pattern stored in advance; and an output means for outputting a result obtained by the character recognition means.
【請求項2】 上記切出し位置決定手段によって決定さ
れた位置の近傍において文字毎に切出し位置を微調整す
る切出し位置調整手段を備えた請求項1に記載の文字認
識装置。
2. The character recognition device according to claim 1, further comprising cutout position adjusting means for finely adjusting the cutout position for each character in the vicinity of the position determined by the cutout position determining means.
【請求項3】 認識対象の大きさに応じた複数種類の抽
出ウィンドゥを用いる請求項1に記載の文字認識装置。
3. The character recognition device according to claim 1, wherein a plurality of types of extraction windows are used according to the size of the recognition target.
【請求項4】 上記特徴量算出手段によって得られた特
徴量に基づいて複数の切出し位置候補を抽出する切出し
位置候補抽出手段,および上記切出し位置候補抽出手段
により抽出された各候補について切出し位置としての適
合性を算出し,もっとも適合性の高い候補を選択する切
出し位置候補選択手段,を備えた請求項1に記載の文字
認識装置。
4. A cut-out position candidate extracting means for extracting a plurality of cut-out position candidates based on the feature amount obtained by the feature amount calculating means, and a cut-out position for each candidate extracted by the cut-out position candidate extracting means. 2. The character recognition device according to claim 1, further comprising: a cutout position candidate selecting unit that calculates the suitability of and selects a candidate having the highest suitability.
【請求項5】 上記特徴量算出手段によって得られた特
徴量に基づいて複数の切出し位置候補を抽出し,各候補
に優先順位をつける切出し位置候補優先順位決定手段,
および上記切出し位置候補優先順位決定手段によって決
定された優先順位にしたがい切出し位置として適切か否
かを順次判定し,適切と判定したものがあった時点でそ
の適切と判定したものを切出し位置と決定する切出し位
置候補判定手段,を備えた請求項1に記載の文字認識装
置。
5. A cut-out position candidate priority order determination unit that extracts a plurality of cut-out position candidates based on the feature amount obtained by the feature amount calculation unit and prioritizes each candidate.
And whether or not the cutout position is appropriate according to the priority order determined by the cutout position candidate priority order determination means, and when there is one that is determined to be appropriate, the one that is determined to be appropriate is determined as the cutout position. The character recognition device according to claim 1, further comprising: a cutout position candidate determination unit.
【請求項6】 大きさの異なる複数の抽出ウィンドゥを
用意しておき,画像の位置に応じて使用する抽出ウィン
ドゥを切替える抽出ウィンドゥ切替手段を備えた請求項
1に記載の文字認識装置。
6. The character recognition device according to claim 1, further comprising extraction window switching means for preparing a plurality of extraction windows having different sizes and switching the extraction window to be used in accordance with the position of the image.
【請求項7】 上記入力手段により入力された画像から
エッジ・データを抽出し,それを基に文字領域を限定す
る文字領域限定手段,上記文字領域限定手段により限定
された領域の画像を2値化する上記2値化手段,および
上記2値化手段により2値化された2値画像が通常文字
であるか反転文字であるかを判定し,反転文字の場合に
は2値画像を反転させる反転手段,を備えた請求項1に
記載の文字認識装置。
7. A character area limiting means for extracting edge data from an image input by the input means and limiting a character area based on the extracted edge data, and a binary image of an area limited by the character area limiting means. It is determined whether the binarizing means for digitizing and the binary image binarized by the binarizing means are normal characters or reverse characters, and in the case of reverse characters, the binary image is reversed. The character recognition device according to claim 1, further comprising a reversing means.
【請求項8】 文字配列が既知である対象文字列を含む
画像を入力する入力手段,上記入力画像を2値化する2
値化手段,上記2値化手段によって2値化された画像を
水平方向に投影し,水平方向投影長データを作成する水
平方向投影長データ作成手段,上記水平方向投影長デー
タ作成手段により作成された水平方向投影長データに基
づいて文字行の切出し位置を決定する文字行切出し手
段,上記文字行切出し手段により切出された画像の垂直
方向投影長データに対して,既知である文字配列に対応
する一次元抽出ウィンドゥを水平方向に走査し,各抽出
ウィンドゥの位置毎に特徴量を算出する特徴量算出手
段,上記特徴量算出手段により算出された特徴量に基づ
いて垂直方向切出し位置を決定する切出し位置決定手
段,上記文字行切出し手段によって切出された文字行お
よび上記垂直方向切出し位置決定手段によって決定され
た垂直方向切出し位置によって決定される範囲内の画像
データについて,あらかじめ記憶されている基準パター
ンに基づき文字認識処理を行う文字認識手段,および上
記文字認識手段によって得られた結果を出力する出力手
段,を備えた文字認識装置。
8. Input means for inputting an image containing a target character string whose character arrangement is known, and 2 for binarizing the input image.
Created by the binarizing unit, the horizontal projection length data creating unit that projects the image binarized by the binarizing unit in the horizontal direction, and creates the horizontal projection length data, and the horizontal projection length data creating unit. Character line cutout means for determining the cutout position of the character line based on the horizontal projection length data, and known character arrangement for the vertical projection length data of the image cut out by the character line cutout means The one-dimensional extraction window is scanned in the horizontal direction, and the feature amount calculation means calculates the feature amount for each position of each extraction window, and the vertical cut-out position is determined based on the feature amount calculated by the feature amount calculation means. The cut-out position determining means, the character line cut out by the character line cutting-out means, and the vertical direction cut-out position determined by the vertical cut-out position determining means. A character provided with character recognition means for performing character recognition processing based on a prestored reference pattern for image data within the range determined by the above; and output means for outputting a result obtained by the character recognition means. Recognition device.
【請求項9】 文字配列が既知である対象文字列を含む
画像を入力する入力手段,上記入力手段により入力され
た画像から水平方向エッジ・データを抽出し,文字行の
切出し位置を決定する文字行切出し位置決定手段,上記
文字行切出し手段によって切出された文字行画像を2値
化する文字行2値化手段,上記文字行2値化手段により
2値化された画像の垂直方向投影長データに対して,既
知である文字配列に対応する一次元抽出ウィンドゥを水
平方向に走査し,各抽出ウィンドゥの位置毎に特徴量を
算出する特徴量算出手段,上記特徴量算出手段により算
出された特徴量に基づいて垂直方向切出し位置を決定す
る切出し位置決定手段,上記文字行切出し手段によって
切出された文字行および上記垂直方向切出し位置決定手
段によって決定された垂直方向切出し位置によって決定
される範囲内の画像データについて,あらかじめ記憶さ
れている基準パターンに基づき文字認識処理を行う文字
認識手段,および上記文字認識手段によって得られた結
果を出力する出力手段,を備えた文字認識装置。
9. Input means for inputting an image including a target character string whose character arrangement is known, characters for extracting horizontal edge data from the image input by said input means, and determining a cutout position of a character line. Line cut-out position determining means, character line binarizing means for binarizing the character line image cut out by the character line cutting means, and vertical projection length of the image binarized by the character line binarizing means. A one-dimensional extraction window corresponding to a known character array is horizontally scanned with respect to the data, and a feature amount calculation means for calculating a feature amount for each position of each extraction window is calculated by the feature amount calculation means. A cutout position determining means for determining a vertical cutout position based on the characteristic amount, a character line cut out by the character line cutting out means, and a vertical direction cutout position determining means. Character recognition means for performing character recognition processing on the image data within the range determined by the vertical cutout position based on a previously stored reference pattern, and output means for outputting the result obtained by the character recognition means, Character recognition device.
【請求項10】 既知である複数種類の文字配列につい
てそれぞれ複数の文字行に対して垂直方向に一元化され
た抽出ウィンドゥ,ならびに文字配列が既知である対象
文字列を含む画像を入力する入力手段,上記入力手段に
よって入力された画像からエッジ・データを抽出し,そ
れを基に文字領域を限定する文字領域限定手段,上記文
字領域限定手段によって限定された領域の画像を2値化
する文字領域2値化手段,上記文字領域2値化手段によ
って2値化された2値画像が通常文字であるか反転文字
であるかを判定し,反転文字の場合には2値画像を反転
させる反転手段,上記反転手段によって得られた2値画
像を文字行に対して垂直方向に投影し,垂直方向投影長
データを作成する投影長データ作成手段,上記文字領域
限定手段によって得られた領域の位置から対応する一次
元抽出ウィンドゥを選択し,上記投影長データ作成手段
によって得られた垂直方向投影長データに対して選択さ
れた一次元抽出ウィンドゥを走査して特徴量を算出する
特徴量算出手段,上記特徴量算出手段によって得られた
特徴量から複数の切出し位置候補を抽出し,各候補に優
先順位を付ける切出し位置候補優先順位決定手段,上記
切出し位置候補優先順位決定手段によって決定された優
先順位にしたがい決定された各文字の切出し位置をその
近傍において微調整しながら切出し位置として適切か否
かを順次判定し,適切と判定したものがあった時点でそ
の適切と判定したものを切出し位置と決定する切出し位
置候補調整判定手段,上記切出し位置候補調整判定手段
によって切出された画像に対して,あらかじめ記憶され
ている基準パターンに基づき文字認識処理を行う文字認
識手段,および上記文字認識手段によって得られた結果
を出力する出力手段,を備えた文字認識装置。
10. An extraction window in which a plurality of known character arrays are unified in the vertical direction with respect to a plurality of character lines, and an input means for inputting an image including a target character string whose character array is known, A character area limiting unit that extracts edge data from the image input by the input unit and limits the character area based on the extracted edge data, and a character area 2 that binarizes the image of the area limited by the character area limiting unit. Valuing means, inverting means for determining whether the binary image binarized by the character area binarizing means is a normal character or a reverse character, and inverting the binary image in the case of a reverse character, The binary image obtained by the reversing means is projected in the vertical direction on the character line, and the projection length data creating means for creating the vertical projection length data is obtained by the character area limiting means. A corresponding one-dimensional extraction window is selected from the position of the selected region, and the selected one-dimensional extraction window is scanned with respect to the vertical projection length data obtained by the projection length data creating means to calculate the feature amount. By the feature amount calculating means, the plurality of cutout position candidates are extracted from the feature amounts obtained by the feature amount calculating means, and the cutout position candidate priority order determining means and the cutout position candidate priority order determining means assign a priority to each candidate. According to the determined priority, the cut-out position of each character determined is finely adjusted in the vicinity thereof to sequentially judge whether or not it is appropriate as the cut-out position, and when there is one that is judged to be appropriate, it is judged to be appropriate. A cut-out position candidate adjustment determining unit that determines an object as a cut-out position, and an image extracted by the cut-out position candidate adjustment determining unit Character recognition means performs character recognition processing based on the reference pattern being beforehand stored, and a character recognition apparatus having an output unit, which outputs the result obtained by the character recognition means.
JP23748493A 1993-08-30 1993-08-30 Character string recognition device with known character sequence Expired - Lifetime JP3275475B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP23748493A JP3275475B2 (en) 1993-08-30 1993-08-30 Character string recognition device with known character sequence

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP23748493A JP3275475B2 (en) 1993-08-30 1993-08-30 Character string recognition device with known character sequence

Publications (2)

Publication Number Publication Date
JPH0765125A true JPH0765125A (en) 1995-03-10
JP3275475B2 JP3275475B2 (en) 2002-04-15

Family

ID=17016015

Family Applications (1)

Application Number Title Priority Date Filing Date
JP23748493A Expired - Lifetime JP3275475B2 (en) 1993-08-30 1993-08-30 Character string recognition device with known character sequence

Country Status (1)

Country Link
JP (1) JP3275475B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004097721A1 (en) * 2003-04-25 2004-11-11 Sharp Kabushiki Kaisha Image processing device, image processing method, image processing program, and computer-readable recording medium containing the program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004097721A1 (en) * 2003-04-25 2004-11-11 Sharp Kabushiki Kaisha Image processing device, image processing method, image processing program, and computer-readable recording medium containing the program

Also Published As

Publication number Publication date
JP3275475B2 (en) 2002-04-15

Similar Documents

Publication Publication Date Title
US8059868B2 (en) License plate recognition apparatus, license plate recognition method, and computer-readable storage medium
JPH08241411A (en) System and method for evaluation of document image
JPH08287184A (en) Picture cutting-out device and character recognition device
JP2006155126A (en) Vehicle number recognition device
JPH0765125A (en) Recognition device for object character string whose character array is already known
JP2845370B2 (en) Character recognition method
JP7075770B2 (en) Character recognition system, character sharpening system, character sharpening program, character sharpening method, and character sharpening image display device
JP4172236B2 (en) Facial image processing apparatus and program
JP3058791B2 (en) Method of extracting figure of image recognition device
JP3476595B2 (en) Image area division method and image binarization method
JP3187895B2 (en) Character area extraction method
JPH0468481A (en) Character segmenting device
JPH02273884A (en) Detecting and correcting method for distortion of document image
JPH0573718A (en) Area attribute identifying system
JP2715930B2 (en) Line detection method
CN115830607A (en) Text recognition method and device based on artificial intelligence, computer equipment and medium
JPH0660220A (en) Area extracting method for document image
CN117292389A (en) Decimal point digital recognition system and method applied to scanning recognition and electronic equipment
JP2611660B2 (en) Document vertical direction discrimination method and apparatus
JP2974167B2 (en) Large Classification Recognition Method for Characters
JPH05274472A (en) Image recognizing device
JPH05128305A (en) Area dividing method
JPH06251196A (en) Character segmenting device
JPS63200286A (en) Line segmenting system
JPH05128309A (en) Edge detecting method for character recognition

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090208

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100208

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110208

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110208

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120208

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120208

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130208

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140208

Year of fee payment: 12