JP3275475B2 - Character string recognition device with known character sequence - Google Patents

Character string recognition device with known character sequence

Info

Publication number
JP3275475B2
JP3275475B2 JP23748493A JP23748493A JP3275475B2 JP 3275475 B2 JP3275475 B2 JP 3275475B2 JP 23748493 A JP23748493 A JP 23748493A JP 23748493 A JP23748493 A JP 23748493A JP 3275475 B2 JP3275475 B2 JP 3275475B2
Authority
JP
Japan
Prior art keywords
character
character recognition
extraction
image
extraction window
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP23748493A
Other languages
Japanese (ja)
Other versions
JPH0765125A (en
Inventor
佳誠 麻生川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP23748493A priority Critical patent/JP3275475B2/en
Publication of JPH0765125A publication Critical patent/JPH0765125A/en
Application granted granted Critical
Publication of JP3275475B2 publication Critical patent/JP3275475B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Character Input (AREA)
  • Character Discrimination (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【技術分野】この発明は入力画像において文字配列が既
知である文字列を文字認識する装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus for recognizing a character string having a known character arrangement in an input image.

【0002】[0002]

【背景技術】文字配列が既知である従来の文字列認識処
理は,文字列周辺の画像データを2値化し,2値化画像
上で連結している文字を抽出するラベリング処理または
垂直および水平方向の投影長データを利用した方法によ
り,文字の切出し位置を決定し,それにより得られた結
果から文字認識処理を行なうものであった。
2. Description of the Related Art Conventional character string recognition processing in which a character arrangement is known is performed by labeling processing in which image data around a character string is binarized and connected characters are extracted on a binarized image, or in vertical and horizontal directions. The character extraction position is determined by a method using the projection length data, and character recognition processing is performed from the result obtained.

【0003】しかしながら,このような方法では入力画
像が良好で安定しているような場合には正しい結果が得
られるが,屋外での環境変動や対象文字列周辺の変化,
汚れ,掠れ,および2値化ミスなどで文字間の分離が明
確でない場合に十分対応することが困難であった。
[0003] In such a method, however, correct results can be obtained when the input image is good and stable.
It has been difficult to adequately cope with cases where the separation between characters is not clear due to dirt, shading, and binarization errors.

【0004】[0004]

【発明の開示】この発明は,文字配列が既知である対象
文字列について,屋外における入力条件の変動や文字列
周辺の変化,汚れ,掠れ,または2値化ミスなどが発生
した場合においても正しく文字を切出すことのできる文
字認識装置を提供するものである。
DISCLOSURE OF THE INVENTION The present invention can be applied to a target character string whose character sequence is known, even if the input conditions fluctuate outdoors, changes around the character string, dirt, blur, or binarization error occur. An object of the present invention is to provide a character recognition device capable of extracting characters.

【0005】この発明による第1の文字認識装置は,文
字配列が既知である対象文字列を含む画像を入力する入
力手段,上記入力画像を2値化する2値化手段,上記2
値化手段により2値化された画像データに対して,既知
である文字配列に対応する配置を持つ複数種類の異なる
大きさの抽出ウィンドゥをそれぞれ走査し,複数種類の
抽出ウィンドゥのそれぞれについて抽出ウィンドゥの位
置毎に特徴量を算出する特徴量算出手段,上記特徴量算
出手段によって得られた特徴量に基づいて文字切出し位
置を決定する切出し位置決定手段,上記切出し位置決定
手段によって決定された位置の抽出ウィンドゥにしたが
って切出された画像データについて,あらかじめ記憶さ
れている基準パターンに基づき文字認識処理を行う文字
認識手段,および上記文字認識手段によって得られた結
果を出力する出力手段を備えたものである。
A first character recognition device according to the present invention comprises: input means for inputting an image including a target character string whose character arrangement is known; binarizing means for binarizing the input image;
The image data binarized by the binarizing unit is scanned with a plurality of types of extraction windows of different sizes each having an arrangement corresponding to a known character arrangement, and an extraction window is extracted for each of the plurality of types of extraction windows. A feature value calculating means for calculating a feature value for each position, a cutout position determining means for determining a character cutout position based on the feature value obtained by the feature value calculating means, and a position of the position determined by the cutout position determining means. Character recognition means for performing character recognition processing on image data cut out according to the extraction window based on a reference pattern stored in advance, and output means for outputting a result obtained by the character recognition means. is there.

【0006】[0006]

【0007】第1の発明によると,切出し位置決定手段
として1文字毎に切出し位置を抽出するのではなく,既
知である文字配列の並び,大きさを利用して,その文字
配列に対応する抽出ウィンドゥを走査させることによ
り,文字列中の文字切出し位置を決定する。したがっ
て,屋外での環境変動や対象文字列周辺の変化,汚れ,
掠れ,2値化ミス,または文字間の分離が明確でない場
合でも正しく文字を切出すことができ,正しい文字認識
処理を行なうことが可能となる。
According to the first aspect of the present invention, instead of extracting a cutout position for each character as a cutout position determining means, a known character arrangement and size are used to extract a character arrangement corresponding to the character arrangement. By scanning the window, the character cutout position in the character string is determined. Therefore, environmental changes outdoors, changes around the target character string, dirt,
Characters can be correctly cut out even when the image is blurred, binarization error, or separation between characters is not clear, and correct character recognition processing can be performed.

【0008】[0008]

【0009】[0009]

【0010】[0010]

【0011】また,CPUが抽出ウィンドゥを走査する
際に,あらかじめ想定される複数の文字配列に対応する
複数の大きさの異なる抽出ウィンドゥをそれぞれ走査
し,得られた特徴量から対応する文字配列の切出し位置
を決定する。したがって,ナンバー・プレートのごとき
大きさの異なる複数の文字配列が存在するような対象文
字列においても,対応する文字配列の正しい決定と正し
い文字認識処理を行なうことができる。
Further, when the CPU scans the extraction window, the CPU scans a plurality of extraction windows having different sizes corresponding to a plurality of character arrays assumed in advance, and obtains a character array corresponding to the character array from the obtained feature amounts. Determine the cutting position. Therefore, even in a target character string in which a plurality of character arrays having different sizes such as license plates exist, the corresponding character array can be correctly determined and the correct character recognition process can be performed.

【0012】[0012]

【0013】[0013]

【0014】[0014]

【0015】[0015]

【0016】この発明による第2の文字認識装置は,文
字配列が既知である対象文字列を含む画像を入力する入
力手段,上記入力画像を2値化する2値化手段,上記2
値化手段により2値化された画像データに対して,既知
である文字配列に対応する配置を持つ複数種類の大きさ
の異なる抽出ウィンドゥを,画像上の位置に応じて切替
えて走査し,抽出ウィンドゥの位置毎に特徴量を算出す
る特徴量算出手段,上記特徴量算出手段によって得られ
た特徴量に基づいて文字切出し位置を決定する切出し位
置決定手段,上記切出し位置決定手段によって決定され
た位置の抽出ウィンドゥにしたがって切出された画像デ
ータについて,あらかじめ記憶されている基準パターン
に基づき文字認識処理を行う文字認識手段,および上記
文字認識手段によって得られた結果を出力する出力手段
を備えているものである。
According to a second character recognition device of the present invention, there is provided an input means for inputting an image including a target character string whose character arrangement is known, a binarizing means for binarizing the input image,
For image data binarized by the binarizing means, a plurality of types of extraction windows of different sizes having arrangements corresponding to known character arrangements are switched according to the position on the image, and scanning is performed. A feature value calculating means for calculating a feature value for each window position, a cutout position determining means for determining a character cutout position based on the feature value obtained by the feature value calculating means, and a position determined by the cutout position determining means Character recognition means for performing character recognition processing based on a reference pattern stored in advance for image data cut out according to the extraction window of (1), and output means for outputting a result obtained by the character recognition means. Things.

【0017】第2の発明によると,切出し位置決定手段
として1文字毎に切出し位置を抽出するのではなく,既
知である文字配列の並び,大きさを利用して,その文字
配列に対応する抽出ウィンドゥを走査させることによ
り,文字列中の文字切出し位置を決定する。したがっ
て,屋外での環境変動や対象文字列周辺の変化,汚れ,
掠れ,2値化ミス,または文字間の分離が明確でない場
合でも正しく文字を切出すことができ,正しい文字認識
処理を行なうことが可能となる。また,あらかじめ大き
さの異なる複数の抽出ウィンドゥを用意しておき,CP
Uが抽出ウィンドゥを走査する際に,画像上の走査位置
に応じて使用する抽出ウィンドゥを切替えているので,
対象文字列が画像入力手段に対して既知の一定方向に移
動しているために入力画像を取込むタイミングによって
画像中の文字の大きさが変わってしまうような場合,た
とえば接近してくる車両のナンバープレートのようなも
のに対しても正しい文字認識処理を行なうことができ
る。
According to the second aspect of the present invention, instead of extracting the cutout position for each character as the cutout position determining means, the arrangement and size of a known character array are used to extract the cutout position corresponding to the character array. By scanning the window, the character cutout position in the character string is determined. Therefore, environmental changes outdoors, changes around the target character string, dirt,
Characters can be correctly cut out even when the image is blurred, binarization error, or separation between characters is not clear, and correct character recognition processing can be performed. In addition, a plurality of extraction windows having different sizes are prepared in advance, and the CP
When U scans the extraction window, the extraction window to be used is switched according to the scanning position on the image.
If the size of the characters in the image changes depending on the timing at which the input image is taken because the target character string is moving in a known fixed direction with respect to the image input means, for example, when the approaching vehicle Correct character recognition processing can also be performed on things such as license plates.

【0018】[0018]

【0019】[0019]

【0020】[0020]

【0021】[0021]

【0022】[0022]

【0023】[0023]

【0024】[0024]

【0025】[0025]

【0026】[0026]

【実施例】図1は,文字認識装置を道路上を走行する車
両のナンバープレートの読取り適用した実施例の配置構
成図である。
FIG. 1 is an arrangement diagram of an embodiment in which a character recognition device is applied to read a license plate of a vehicle running on a road.

【0027】道路4の両側に支柱3が立設され,これら
の支柱の上部に横棧2が渡され,この横棧2にテレビ
(ビデオ)カメラ1が設置されている。カメラ1は道路
4上の所定範囲において,矢印で示すようにカメラ1に
向かう方向に走行して来る車両5のナンバー・プレート
を撮像し,撮像した画像を表す映像信号を出力する。カ
メラ1から出力される映像信号は,I/O制御装置11
を通じて後述する文字認識装置に与えられる。道路4の
どちらか一方の側部に支柱3を立設して,その上部にカ
メラ1を設置するようにしてもよい。また,陸橋,その
他の建造物にカメラ1を取付けて,道路4上を走行する
車両のナンバー・プレートを撮像することもできる。
The pillars 3 are erected on both sides of the road 4, and the horizontal support 2 is passed over these columns, and the television (video) camera 1 is installed on the horizontal support 2. The camera 1 captures an image of a license plate of a vehicle 5 traveling in a direction toward the camera 1 as indicated by an arrow in a predetermined range on a road 4, and outputs a video signal representing the captured image. The video signal output from the camera 1 is transmitted to the I / O control device 11
To a character recognition device described later. The column 3 may be erected on either side of the road 4 and the camera 1 may be installed above the column. Further, the camera 1 can be attached to an overpass or other building to take an image of a license plate of a vehicle traveling on the road 4.

【0028】図2は,図1に示す配置構成を道路4の側
面から見た図である。
FIG. 2 is a view of the arrangement shown in FIG.

【0029】図2に示すように,道路4上に渡された横
棧2に設置されたカメラ1の視覚θは比較的狭く設定さ
れているため,一画像においてカメラ1から認識対象物
までの距離の遠近に応じて場所により大きさが異なると
いうことが殆ど無く,ナンバー・プレート6の画像が歪
められることはない。
As shown in FIG. 2, since the visual angle θ of the camera 1 installed on the horizontal ridge 2 passed on the road 4 is set to be relatively narrow, the distance from the camera 1 to the recognition target in one image is set. There is almost no difference in size depending on the location depending on the distance, and the image of the license plate 6 is not distorted.

【0030】この文字認識装置は,対象文字列の配列が
既知のものであれば,車両のナンバー・プレート以外に
も幅広く応用することができる。たとえば,プリント基
板上ののIC,ライン上を流れている製品の型番,鉄道
車両の番号,流通業における配送物に表示された配送先
を示す文字,記号,紙上に書かれた文字列の読取りおよ
びその確認等に応用できる。
This character recognition device can be widely applied to other than a vehicle license plate as long as the arrangement of the target character strings is known. For example, reading the IC on the printed circuit board, the model number of the product flowing on the line, the number of the railcar, the characters and symbols indicating the delivery destination displayed on the delivery goods in the distribution industry, and the character strings written on paper And its confirmation.

【0031】第1実施例First Embodiment

【0032】図3は,文字認識装置の電気的構成を示し
ている。
FIG. 3 shows the electrical configuration of the character recognition device.

【0033】CPU10は,前述のカメラ1により取込
まれた入力画像データに対して,後述する入力画像の2
値化,抽出ウィンドゥの走査,特徴量の算出,切出し位
置の決定,および切出された画像の文字認識処理を行な
う。
The CPU 10 converts the input image data captured by the camera 1 into two
It performs digitization, scanning of an extraction window, calculation of a feature amount, determination of a cutout position, and character recognition processing of the cutout image.

【0034】I/O制御装置11は,カメラ1により入
力された画像を取込み,画像保存用RAM12にバス・
ライン19を介して伝送する入力制御,およびCPU1
0によって認識処理された結果を,たとえば表示装置に
出力する出力制御を行なう。
The I / O control device 11 captures the image input by the camera 1 and stores the image in the image storage RAM 12
Input control transmitted via line 19 and CPU 1
For example, output control is performed to output the result of the recognition process using a 0 to a display device.

【0035】画像保存用RAM12は,バス・ライン1
9を介してI/O制御装置11から伝送された入力画像
データ,およびCPU10において2値化処理が済んだ
2値画像データを一時的に記憶しておくメモリである。
The image storage RAM 12 has a bus line 1
9 is a memory for temporarily storing input image data transmitted from the I / O control device 11 through the CPU 9 and binary image data subjected to the binarization processing in the CPU 10.

【0036】演算用RAM13は,抽出ウィンドゥを走
査することで得られる特徴量や,文字認識処理に利用す
る特徴量を一時的に記憶しておくメモリである。
The calculation RAM 13 is a memory for temporarily storing a feature obtained by scanning the extraction window and a feature used for character recognition processing.

【0037】2値化プログラムROM14は,入力され
た画像を2値化する処理のために必要なプログラムを記
憶しておく読出し専用メモリである。
The binarization program ROM 14 is a read-only memory that stores a program necessary for binarizing an input image.

【0038】切出し制御プログラムROM15は,2値
化された2値画像データに対して後述する抽出ウィンド
ゥROM16に記憶されている抽出ウィンドゥを走査し
て特徴量を算出し,文字切出し位置を決定する処理を行
なうために必要なプログラムを記憶しておく読出し専用
メモリである。
The extraction control program ROM 15 scans an extraction window stored in an extraction window ROM 16 to be described later with respect to the binarized binary image data, calculates a characteristic amount, and determines a character extraction position. Is a read-only memory for storing a program necessary for performing the above operation.

【0039】抽出ウィンドゥROM16は,あらかじめ
想定される対象文字列の文字配列に対応した抽出ウィン
ドゥを記憶しておく読出し専用メモリである。
The extraction window ROM 16 is a read-only memory that stores an extraction window corresponding to a character arrangement of a target character string assumed in advance.

【0040】文字認識プログラムROM17は,画像保
存用RAM12に記憶されている入力画像の演算用RA
M13に記憶されている文字切出し結果に対応する部分
と,文字認識辞書ROM18にあらかじめ記憶されてい
る基準パターンに基づきCPU10が行う文字認識処理
に必要なプログラムを記憶しておく読出し専用メモリで
ある。
The character recognition program ROM 17 stores a calculation RA of the input image stored in the image storage RAM 12.
It is a read-only memory that stores a portion corresponding to the character extraction result stored in M13 and a program necessary for the character recognition process performed by the CPU 10 based on the reference pattern stored in the character recognition dictionary ROM 18 in advance.

【0041】文字認識辞書ROM18は,文字認識処理
時に必要な基準パターンをあらかじめ記憶しておく読出
し専用メモリである。
The character recognition dictionary ROM 18 is a read-only memory in which reference patterns necessary for character recognition processing are stored in advance.

【0042】以上のI/O制御装置11,画像保存用R
AM12,演算用RAM13,2値化プログラムROM
14,切出し制御プログラムROM15,抽出ウィンド
ゥROM16,文字認識プログラムROM17,および
文字認識辞書ROM18は,それぞれバス・ライン19
を介してCPU10と接続されている。
The above I / O control device 11 and image storage R
AM12, arithmetic RAM13, binarized program ROM
14, a cutout control program ROM 15, an extraction window ROM 16, a character recognition program ROM 17, and a character recognition dictionary ROM 18
Is connected to the CPU 10 via the.

【0043】文字認識処理においてCPU10が行なう
特徴量算出処理および切出し位置決定処理について,図
4を用いて説明する。
The characteristic value calculation processing and cutout position determination processing performed by the CPU 10 in the character recognition processing will be described with reference to FIG.

【0044】図4(A)は文字配列のわかっている文字
列が含まれる入力画像データを2値化することにより得
られた画像データを表す。
FIG. 4A shows image data obtained by binarizing input image data containing a character string whose character arrangement is known.

【0045】入力条件や2値化の失敗ににより,文字列
の2値化結果に図に示すような掠れ20,ノイズ21が
発生した場合は,従来のようなラベリングや投影長を利
用した文字切出し方法では正確な文字切出し位置を決定
することが困難であり,その結果文字認識に不具合が発
生することが多かった。
If the character string binarization results in blurring 20 and noise 21 as shown in the figure due to input conditions or failure of binarization, the character string using labeling and projection length as in the prior art is used. With the clipping method, it is difficult to determine an accurate character clipping position, and as a result, a problem often occurs in character recognition.

【0046】そこで,ここでは図4(A)に示すような
2値画像データから文字列を切出すため,図4(B)に
示す抽出ウィンドゥ22を走査することにより特徴量を
算出して,切出し位置を決定する。図4(B)の抽出ウ
ィンドゥ22は4桁の文字列を切出すためのものであ
り,斜線の部分23が文字領域に,周囲の空白の部分2
4が背景領域にそれぞれ対応する。走査させる抽出ウィ
ンドゥ22の位置をその左上の角の点25(これを走査
点という。)で表わす。
Therefore, in order to extract a character string from the binary image data as shown in FIG. 4A, the feature amount is calculated by scanning the extraction window 22 shown in FIG. Determine the cutting position. The extraction window 22 shown in FIG. 4B is for extracting a four-digit character string. A hatched portion 23 is a character area, and a surrounding blank portion 2 is shown.
4 respectively correspond to the background areas. The position of the extraction window 22 to be scanned is represented by a point 25 at the upper left corner thereof (this is referred to as a scanning point).

【0047】図4(C)は2値画像データから4桁の文
字列の切出し位置を決定するため,上述の抽出ウィンド
ゥ22を走査している状態を示す。
FIG. 4C shows a state in which the above-described extraction window 22 is being scanned in order to determine the cut-out position of a 4-digit character string from the binary image data.

【0048】特徴量は,文字領域23に含まれる全ての
黒画素の数から背景領域24に含まれる全ての黒画素の
数を減算した結果で表わされる。この特徴量の算出は,
走査点25のそれぞれについて行われる。一般的に,抽
出ウィンドゥ22はラスタ方向へ,すなわち画像データ
の左上から始まり,左から右へ,上から下へと走査され
る。
The feature quantity is represented by a result obtained by subtracting the number of all black pixels included in the background area 24 from the number of all black pixels included in the character area 23. The calculation of this feature is
This is performed for each of the scanning points 25. Generally, the extraction window 22 is scanned in the raster direction, that is, from the upper left of the image data, and is scanned from left to right and from top to bottom.

【0049】図4(D)は,抽出ウィンドゥ22が特徴
量が最大値を示す位置26にある状態を示す。この位置
にある抽出ウィンドゥ22の文字領域23内の文字を切
出すことにより,正しい文字認識処理を行なうことがで
きる。特徴量が最大値を示す抽出ウィンドゥ22の位置
を文字切出し位置という。
FIG. 4D shows a state in which the extraction window 22 is located at the position 26 where the feature value has the maximum value. By extracting characters in the character area 23 of the extraction window 22 at this position, correct character recognition processing can be performed. The position of the extraction window 22 at which the feature value has the maximum value is called a character cutout position.

【0050】図5は,文字認識装置における文字認識処
理を示すフローチャートである。
FIG. 5 is a flowchart showing a character recognition process in the character recognition device.

【0051】図1に示すカメラ1が撮像した車両のナン
バー・プレート6の映像は,I/O制御装置11を介し
て画像データとして入力され(ステップ30),画像保
存用RAM12に記憶される。記憶された画像データに
対して2値化処理プログラムROM14に記憶されてい
るプログラムに基づき2値化処理が行われ(ステップ3
1),2値化された画像データは画像保存用RAM12
に記憶される。
The image of the license plate 6 of the vehicle captured by the camera 1 shown in FIG. 1 is input as image data via the I / O control device 11 (step 30) and stored in the image storage RAM 12. A binarization process is performed on the stored image data based on a program stored in the binarization process program ROM 14 (step 3).
1) The binarized image data is stored in an image storage RAM 12
Is stored.

【0052】つぎに,この2値画像データに対して抽出
ウィンドゥROM16に記憶されている抽出ウィンドゥ
22を走査して,走査点25毎に特徴量が算出され,得
られた特徴量は演算用RAM13に記憶される(ステッ
プ32〜36)。ここで,変数iは前述の走査点25を
示すカウンタであり,走査点25の最大値はNである。
すなわち,抽出ウィンドゥ22の走査は,画像の左上の
走査点i=1から開始し,左から右,上から下へと走査
して,右下の走査点i=Nで終了するものとする。抽出
ウィンドゥ22をカウンタiの示す走査点に移動し(ス
テップ33),文字領域23に含まれる黒画素の総数か
ら,背景領域24に含まれる黒画素の総数を減算するこ
とによって特徴量が算出され,演算用RAM13に記憶
される(ステップ34)。この処理は2値画像データ全
体を走査し終えるまで繰返される(ステップ35)。
Next, the binary image data is scanned by the extraction window 22 stored in the extraction window ROM 16 to calculate the characteristic amount for each scanning point 25. The obtained characteristic amount is stored in the arithmetic RAM 13 (Steps 32-36). Here, the variable i is a counter indicating the scanning point 25 described above, and the maximum value of the scanning point 25 is N.
That is, the scanning of the extraction window 22 starts at the upper left scanning point i = 1 of the image, scans from left to right, from top to bottom, and ends at the lower right scanning point i = N. The feature amount is calculated by moving the extraction window 22 to the scanning point indicated by the counter i (step 33) and subtracting the total number of black pixels included in the background area 24 from the total number of black pixels included in the character area 23. Are stored in the operation RAM 13 (step 34). This process is repeated until the entire binary image data has been scanned (step 35).

【0053】走査が終了し,全走査点における特徴量が
算出されると,切出し制御プログラムROM15に記憶
されているプログラムに基づき,演算用RAM13に記
憶されている特徴量の中から最大の特徴量が見付け出さ
れ,その特徴量を生じさせた走査点の位置が文字切出し
位置として決定される(ステップ37)。結果は演算用
RAM13に記憶され,画像保存用RAM12に記憶さ
れている入力画像データのうち,文字切出し位置の抽出
ウィンドゥ22の文字領域23に含まれる画像データが
切出される。すなわち,文字認識処理のために抽出され
る(ステップ38)。
When the scanning is completed and the characteristic amounts at all the scanning points are calculated, the largest characteristic amount among the characteristic amounts stored in the arithmetic RAM 13 is calculated based on the program stored in the cutout control program ROM 15. Are found, and the position of the scanning point that caused the characteristic amount is determined as a character cutout position (step 37). The result is stored in the operation RAM 13, and image data included in the character area 23 of the character extraction position extraction window 22 is extracted from the input image data stored in the image storage RAM 12. That is, it is extracted for character recognition processing (step 38).

【0054】最後に,文字認識プログラムROM17に
記憶されているプログラムと文字認識辞書ROM18に
記憶されている基準パターンに基づき,切出された画像
データに対して文字認識処理が行われる(ステップ3
9)。文字認識処理は通常のパターン・マッチング,ま
たはその他の方法により実行される。文字認識結果はI
/O制御装置11を介して出力され(ステップ40),
全処理が終了する。
Finally, based on the program stored in the character recognition program ROM 17 and the reference pattern stored in the character recognition dictionary ROM 18, a character recognition process is performed on the extracted image data (step 3).
9). Character recognition processing is performed by normal pattern matching or other methods. Character recognition result is I
Output via the / O control device 11 (step 40),
All processing ends.

【0055】第2実施例Second Embodiment

【0056】第2実施例は,第1実施例の処理に切出し
位置調整処理を付加したものである。
The second embodiment is obtained by adding a cutout position adjusting process to the process of the first embodiment.

【0057】図3の電気的構成は,第2実施例でもその
まま用いられる。
The electrical configuration of FIG. 3 is used as it is in the second embodiment.

【0058】カメラ1と認識対象であるナンバー・プレ
ート6との位置関係によっては,画像上でナンバー・プ
レート6の文字の間隔が狭くなったり広くなったりする
ことがある。第1実施例においては,抽出ウィンドゥ2
2における文字領域23の相互間隔は,あらかじめ定め
られている。したがって,図6(A)に示すように,正
しい切出し位置であっても全ての文字領域23に全ての
文字が収まらない状態が生じることがある。このような
場合には,正確な文字認識処理を行うことはできない。
Depending on the positional relationship between the camera 1 and the license plate 6 to be recognized, the character spacing on the license plate 6 may become narrower or wider on the image. In the first embodiment, the extraction window 2
2 are predetermined in advance. Therefore, as shown in FIG. 6A, a state may occur in which all characters do not fit in all the character areas 23 even at the correct cutout position. In such a case, accurate character recognition processing cannot be performed.

【0059】そこで,抽出ウィンドゥ22が第1実施例
の方法によって切出し位置にもたらされた後,抽出ウィ
ンドゥ22を文字毎に分割する。すなわち,図6(B)
に示すように,抽出ウィンドゥ22の文字領域23を含
む範囲に1文字毎に抽出ウィンドゥ50を設け,この抽
出ウィンドゥ50内に文字領域23に対する文字領域5
1を設定する。抽出ウィンドゥ50内において,文字領
域51の外側の部分を背景領域52とする。
Then, after the extraction window 22 is brought to the cutout position by the method of the first embodiment, the extraction window 22 is divided for each character. That is, FIG.
As shown in the figure, an extraction window 50 is provided for each character in a range including the character region 23 of the extraction window 22, and a character region 5 corresponding to the character region 23 is provided in the extraction window 50.
Set 1. In the extraction window 50, a portion outside the character region 51 is defined as a background region 52.

【0060】特徴量は抽出ウィンドゥ50毎に算出され
る。文字領域51に含まれる黒画素の総数から背景領域
52に含まれる黒画素の総数を減算し,この減算結果が
抽出ウィンドゥ50における特徴量となる。特徴量が最
大となるように,図6(C)に示すように抽出ウィンド
ゥ50を上下左右に動かして,各抽出ウィンドゥ50の
位置が微調整される。
The feature amount is calculated for each extraction window 50. The total number of black pixels included in the background area 52 is subtracted from the total number of black pixels included in the character area 51, and the result of the subtraction becomes a feature amount in the extraction window 50. As shown in FIG. 6C, the position of each extraction window 50 is finely adjusted by moving the extraction window 50 up and down and left and right so that the feature amount is maximized.

【0061】図7は第2実施例の文字認識処理を示す,
第5図に相当するフローチャートである。
FIG. 7 shows a character recognition process according to the second embodiment.
6 is a flowchart corresponding to FIG.

【0062】ステップ30〜37の処理は,図5におけ
る各処理と同様である。
The processing in steps 30 to 37 is the same as each processing in FIG.

【0063】ステップ37において抽出ウィンドゥ22
が位置決めされた後,上述したように分割された抽出ウ
ィンドゥ50を用いて,各文字毎に抽出ウィンドゥ50
に位置が微調整される(ステップ60)。抽出ウィンド
ゥ50毎に切出し位置が定まると,各抽出ウィンドゥ5
0内の文字領域51内の画像データが切出され(ステッ
プ38),切出された画像データに基づいて文字認識処
理が行われる(ステップ39)。
In step 37, the extraction window 22
Is positioned, the extraction window 50 divided for each character is used by using the extraction window 50 divided as described above.
The position is finely adjusted (step 60). When the extraction position is determined for each extraction window 50, each extraction window 5
Image data in the character area 51 in 0 is cut out (step 38), and character recognition processing is performed based on the cut out image data (step 39).

【0064】第3実施例Third Embodiment

【0065】第3実施例は,第1実施例の処理にナンバ
ープレートにおいてその文字の大きさが車種により異な
ることに対処するために,複数の抽出ウィンドゥを用い
る処理を付加したものである。
In the third embodiment, processing using a plurality of extraction windows is added to the processing of the first embodiment in order to cope with the fact that the character size of the license plate differs depending on the vehicle type.

【0066】図3の電気的構成は,第3実施例でもその
まま用いられる。
The electrical configuration of FIG. 3 is used as it is in the third embodiment.

【0067】車両のナンバー・プレートには,図8に示
すように,大型車両用のナンバー・プレート6A,およ
び中型車両用のナンバー・プレート6Bの2種類がある
ため,走査する抽出ウィンドゥもナンバー・プレートの
大きさにあわせて2種類用意する必要がある。
As shown in FIG. 8, there are two types of vehicle license plates, a license plate 6A for a large vehicle and a license plate 6B for a medium-sized vehicle. It is necessary to prepare two types according to the size of the plate.

【0068】そこで,あらかじめ想定される大きさの異
なった複数(この場合は2種類)の抽出ウィンドゥ(2
2Aおよび22B)を用意しておき,各抽出ウィンドゥ
を走査して,その各走査点でそれぞれ特徴量を算出し,
全ての特徴量の中で最大値を示すものを生じさせた抽出
ウィンドゥの位置を切出し位置として決定する。
Therefore, a plurality of (two in this case) extraction windows (2
2A and 22B) are prepared, each extracted window is scanned, and the characteristic amount is calculated at each scanning point.
The position of the extraction window in which the one showing the maximum value among all the feature values is generated is determined as the cutout position.

【0069】図9および図10は第3実施例の文字認識
処理を示す,第5図に相当するフローチャートである。
FIG. 9 and FIG. 10 are flowcharts showing the character recognition processing of the third embodiment and corresponding to FIG.

【0070】抽出ウィンドゥROM16にあらかじめ記
憶されている複数種類の抽出ウィンドゥを走査するため
のカウンタjが設けられる。カウンタjはj=1に設定
され(ステップ80),このカウンタjによって選択さ
れる抽出ウィンドゥを用いて(ステップ81)2値画像
が走査され,各走査点で特徴量が算出される(ステップ
32〜36)。
A counter j for scanning a plurality of types of extraction windows stored in advance in the extraction window ROM 16 is provided. The counter j is set to j = 1 (step 80), the binary image is scanned using the extraction window selected by the counter j (step 81), and the feature amount is calculated at each scanning point (step 32). ~ 36).

【0071】この処理は,カウンタjをインクリメント
しながら(ステップ83)記憶されているn個の抽出ウ
ィンドゥ(前述のナンバー・プレートの場合はn=2)
の全てを用いて繰返し行われる(ステップ82)。切出
し位置は算出された特徴量,すなわち全走査点N×全抽
出ウィンドゥnの特徴量の中で最大値を生じさせる抽出
ウィンドゥの位置に決定される。
In this processing, while the counter j is incremented (step 83), the stored n extraction windows (n = 2 in the case of the license plate described above) are stored.
(Step 82). The cut-out position is determined to be the calculated feature amount, that is, the position of the extraction window that produces the maximum value among the feature amounts of all the scanning points N × all the extraction windows n.

【0072】第4実施例Fourth Embodiment

【0073】図3の電気的構成は,第4実施例でもその
まま用いられる。
The electrical configuration shown in FIG. 3 is used as it is in the fourth embodiment.

【0074】図11および図12は第4実施例の文字認
識処理を示す,第5図に相当するフローチャートであ
る。ここでは第1実施例の抽出ウィンドゥ22が用いら
れるものとする。
FIGS. 11 and 12 are flow charts showing the character recognition processing of the fourth embodiment and corresponding to FIG. Here, it is assumed that the extraction window 22 of the first embodiment is used.

【0075】ステップ30〜36の処理は,図5に示す
ものと同様である。
The processing of steps 30 to 36 is the same as that shown in FIG.

【0076】ステップ90において切出し制御プログラ
ムROM15に記憶されているプログラムに基づき,演
算用RAM13に記憶されている抽出ウィンドゥ22を
走査して得られた特徴量の中から,その値が大きい順に
上位m個を切出し位置候補として選択する。
In step 90, based on the program stored in the cut-out control program ROM 15, from among the characteristic amounts obtained by scanning the extraction window 22 stored in the arithmetic RAM 13, the upper m Are selected as cutout position candidates.

【0077】つぎに,選択された各候補について,画像
保存用RAM12に記憶されている入力画像,2値画像
のうちの各候補位置における文字領域に含まれる画像デ
ータを参照しながら,文字列の切出し位置としての適合
性を算出する(ステップ91〜94)。適合性が最大値
を示す候補位置を文字切出し位置として決定する(ステ
ップ95)。適合性は,文字らしさを表わす値であり、
具体的には文字領域23に含まれる黒画素の総数や文字
特徴量等によって表わされる。
Next, for each selected candidate, the character string of the character string is referred to while referring to the image data contained in the character area at each candidate position of the input image and the binary image stored in the image storage RAM 12. The suitability as the cutout position is calculated (steps 91 to 94). A candidate position where the suitability has the maximum value is determined as a character cutout position (step 95). Compatibility is a value that represents characteriness.
Specifically, it is represented by the total number of black pixels included in the character area 23, the character feature amount, and the like.

【0078】第5実施例Fifth Embodiment

【0079】図3の電気的構成は,第5実施例でもその
まま用いられる。
The electrical configuration of FIG. 3 is used as it is in the fifth embodiment.

【0080】図13および図14は第5実施例の文字認
識処理を示す,第5図に相当するフローチャートであ
る。
FIGS. 13 and 14 are flowcharts showing the character recognition processing of the fifth embodiment and corresponding to FIG.

【0081】ステップ30〜36の処理は,図5に示す
ものと同様である。また,抽出ウィンドゥ22を走査し
て得られた特徴量の中から,その値が大きい順に上位m
個を切出し位置候補として選択する処理(ステップ9
0)は,前述の第4実施例と同様である。
The processing of steps 30 to 36 is the same as that shown in FIG. In addition, among the feature amounts obtained by scanning the extraction window 22, the top m
(Step 9)
0) is the same as in the fourth embodiment.

【0082】ここでは,さらに算出された特徴量の値の
大きい順に,優先順位を決定する(ステップ100)。
決定された優先順位にしたがって,第4実施例と同様
に,画像保存用RAM12に記憶されている入力画像,
2値画像のうちの各候補位置における文字領域に含まれ
る画像データを参照しながら,文字列の切出し位置とし
ての適合性を算出する(ステップ91〜94)。ここで
はすでに候補位置の優先順位が決まっているので,あら
かじめ定められたしきい値と適合性を比較し(ステップ
101),しきい値以上の適合性を示す候補位置であれ
ば,各文字の切出し位置として決定される(ステップ1
02)。
Here, priorities are determined in descending order of the calculated feature values (step 100).
According to the determined priorities, similarly to the fourth embodiment, the input image stored in the image
The suitability as the cutout position of the character string is calculated with reference to the image data included in the character area at each candidate position in the binary image (steps 91 to 94). Here, since the priority order of the candidate positions has already been determined, the suitability is compared with a predetermined threshold value (step 101). It is determined as a cutout position (step 1
02).

【0083】第6実施例Sixth Embodiment

【0084】第6実施例は,第1実施例の処理に走査位
置によって大きさの異なる抽出ウィンドゥを切替えなが
ら走査する処理を付加したものである。
The sixth embodiment is obtained by adding a process of scanning while switching the extraction windows having different sizes depending on the scanning position to the process of the first embodiment.

【0085】図3の電気的構成は,第5実施例でもその
まま用いられる。
The electrical configuration shown in FIG. 3 is used as it is in the fifth embodiment.

【0086】図1に示したように車両の進行方向に対し
て前方から見下ろして撮像する場合,図2のようにカメ
ラ1の視角θが比較的狭く設定されていれば,一画像に
おいてカメラ1から認識対象物までの距離の遠近に応じ
て場所により大きさが異なるということが殆ど無く,ナ
ンバー・プレート6の画像が歪められることはない。し
かし,図15(A)のように視角θが大きく設定されて
いる場合には,車両が前方にあるとき(図15(B)で
は車両が下側にあるとき)5Aと,車両が後方にあると
き(図15(B)では車両が上側にあるとき)5Bとで
は,対象文字列(6Cおよび6D)の大きさが違ってし
まい,正しい文字認識処理を行うことはできない。
As shown in FIG. 1, when taking an image while looking down from the front in the traveling direction of the vehicle, if the viewing angle θ of the camera 1 is set relatively narrow as shown in FIG. There is almost no difference in size depending on the location depending on the distance from the object to the recognition target, and the image of the license plate 6 is not distorted. However, when the viewing angle θ is set to a large value as shown in FIG. 15A, when the vehicle is in front (in FIG. 15B, when the vehicle is on the lower side), 5A and when the vehicle is At a certain time (when the vehicle is on the upper side in FIG. 15B), the size of the target character strings (6C and 6D) is different from that of 5B, and correct character recognition processing cannot be performed.

【0087】そこで,抽出ウィンドゥを走査する際に,
画面の位置によって大きさの異なる複数の抽出ウィンド
ゥ(22Cおよび22D)を切替えながら走査を行な
い,得られた特徴量から文字切出し位置を決定する。
Therefore, when scanning the extraction window,
Scanning is performed while switching a plurality of extraction windows (22C and 22D) having different sizes depending on the position on the screen, and a character cutout position is determined from the obtained feature amount.

【0088】図16は第6実施例の文字認識処理を示
す,第5図に相当するフローチャートである。
FIG. 16 is a flow chart showing the character recognition processing of the sixth embodiment and corresponding to FIG.

【0089】ステップ120において,切出し制御プロ
グラムROM15に記憶されているプログラムに基づ
き,演算用RAM13に記憶されている大きさの異なっ
た複数の抽出ウィンドゥから走査位置,すなわち走査点
iに対応する位置に適した大きさの抽出ウィンドゥを選
択し,切替えながら走査を行ない,得られた特徴量の中
から文字切出し位置を決定する。
In step 120, based on the program stored in the cut-out control program ROM 15, the scanning position, that is, the position corresponding to the scanning point i, is extracted from a plurality of extraction windows of different sizes stored in the arithmetic RAM 13. An extraction window having a suitable size is selected, scanning is performed while switching, and a character cutout position is determined from the obtained feature amounts.

【0090】第7実施例Seventh Embodiment

【0091】第7実施例は,白地のナンバー・プレート
および緑地のナンバー・プレートに対処するものであ
る。
The seventh embodiment deals with a white license plate and a green license plate.

【0092】図17は,第7実施例による文字認識装置
の電気的構成を示す,図3に相当する図である。図3に
示すものと同一物についてはは同一符号を付し,重複説
明を避ける。
FIG. 17 is a diagram corresponding to FIG. 3 and showing the electrical configuration of the character recognition device according to the seventh embodiment. The same components as those shown in FIG. 3 are denoted by the same reference numerals, and redundant description will be avoided.

【0093】文字領域限定プログラムROM130は,
画像保存用RAM12に記憶されている入力画像データ
から文字領域を限定する処理のために必要なプログラム
を記憶しておく読出し専用メモリである。
The character area limited program ROM 130 is
This is a read-only memory that stores a program necessary for processing for limiting a character area from input image data stored in the image storage RAM 12.

【0094】反転文字判定プログラムROM131は,
画像保存用RAM12に記憶されている2値画像データ
のうち,定められた文字領域に含まれる画像が反転文字
であるか否かを判定し,反転文字が入力されている場合
には,画像保存用RAM12に記憶されている該当部分
の2値画像データを反転させる処理のために必要なプロ
グラムを記憶しておく読出し専用メモリである。
The inverted character determination program ROM 131 stores
In the binary image data stored in the image storage RAM 12, it is determined whether or not an image included in a predetermined character area is a reverse character. It is a read-only memory that stores a program necessary for inverting the binary image data of the corresponding part stored in the RAM 12 for use.

【0095】以上の文字領域限定プログラムROM13
0および反転文字判定プログラムROM131は,それ
ぞれバス・ライン19を介してCPU10と接続されて
いる。
The above character area limited program ROM 13
The 0 and inverted character determination program ROM 131 are connected to the CPU 10 via the bus line 19, respectively.

【0096】第7実施例は,第1実施例の処理に文字領
域を限定する処理および定められた文字領域に含まれる
2値画像を反転させる処理を付加したものである。
In the seventh embodiment, a process for limiting the character area and a process for inverting the binary image included in the determined character area are added to the processing of the first embodiment.

【0097】車両のナンバー・プレートには,図18
(A)に示すように,白地に緑色の文字列(通常文字)
が書かれた白色プレート6Eと,それを反転した緑地に
白色の文字列(反転文字)が書かれた緑色プレート6F
の2種類がある。そのため,正しい文字認識処理を行な
うには,反転文字をさらに反転し直す必要がある。
FIG. 18 shows the license plate of the vehicle.
As shown in (A), a green character string (normal character) on a white background
Is written on a white plate 6E, and a green plate 6F on which a white character string (reversed characters) is written
There are two types. Therefore, in order to perform a correct character recognition process, it is necessary to further reverse the inverted character.

【0098】図18(B)は,文字配列はわかっている
が,通常文字か反転文字かわからない文字列が含まれる
入力画像データの例を示す。ここでは,まず大体の文字
領域(文字が書かれている領域)を限定し,その限定領
域内で2値化処理を行なう。2値化画像データに基づい
て反転文字か否かを判定し,反転文字の場合は,反転し
た上で文字認識処理を行なう。
FIG. 18B shows an example of input image data including a character string whose character arrangement is known but which is not known as a normal character or an inverted character. Here, first, an approximate character area (an area where characters are written) is limited, and binarization processing is performed within the limited area. It is determined whether or not the character is an inverted character based on the binarized image data. If the character is an inverted character, character recognition processing is performed after the character is inverted.

【0099】文字領域の決定は,I/O制御装置11を
通じて入力された画像データについて,画素毎にまたは
適当な小領域毎にエッジ成分を算出し(エッジ・データ
算出),高い値のエッジ・データ(エッジらしさが大き
い)が集まっている範囲を文字領域とすることにより行
われる。エッジ・データを抽出することにより,白黒
(緑)反転文字に関係なく文字の存在を示す情報が出て
くるため,文字領域を限定することができる。
The character area is determined by calculating an edge component for each pixel or an appropriate small area of the image data input through the I / O control device 11 (calculation of edge data), and determining an edge data having a high value. This is performed by defining a range in which data (having a large edge likeness) is gathered as a character area. By extracting the edge data, information indicating the presence of a character is output irrespective of the black-and-white (green) inverted character, so that the character area can be limited.

【0100】図19および図20は第7実施例の文字認
識処理を示す,第5図に相当するフローチャートであ
る。
FIGS. 19 and 20 are flowcharts showing the character recognition processing of the seventh embodiment and corresponding to FIG.

【0101】画像データの入力(ステップ30)の後
に,文字領域限定プログラムROM130に記憶されて
いるプログラムに基づき,画像保存用RAM12に記憶
されている入力画像からエッジ・データを抽出し(ステ
ップ150)それを基に文字領域の抽出を行なう(ステ
ップ151)。
After inputting the image data (step 30), edge data is extracted from the input image stored in the image storage RAM 12 based on the program stored in the character area limited program ROM 130 (step 150). Based on this, a character area is extracted (step 151).

【0102】ステップ152において,2値化プログラ
ムROM14に記憶されているプログラムに基づき,画
像保存用RAM12に記憶されている限定された文字領
域の画像データを2値化して画像保存用RAM12に記
憶させる。
In step 152, based on the program stored in the binarization program ROM 14, the image data of the limited character area stored in the image storage RAM 12 is binarized and stored in the image storage RAM 12. .

【0103】ステップ153において,反転文字判定プ
ログラムROM130に記憶されているプログラムに基
づき,画像保存用RAM12に記憶されている限定され
た文字領域の2値画像に含まれる黒画素と白画素の数を
数えることにより,通常文字であるか反転文字であるか
を判定する。黒画素の数よりも白画素の数が多い場合に
は通常文字と,逆に白画素の数よりも黒画素の数が多い
場合には反転文字と判定する。反転文字の場合には,画
像保存用RAM12に記憶されている2値画像を白黒反
転させる(ステップ154)。通常文字の場合には,画
像データはそのままに保存される。
In step 153, based on the program stored in the inverted character determination program ROM 130, the number of black pixels and white pixels included in the limited character area binary image stored in the image storage RAM 12 is determined. By counting, it is determined whether the character is a normal character or a reverse character. If the number of white pixels is larger than the number of black pixels, it is determined that the character is a normal character. Conversely, if the number of black pixels is larger than the number of white pixels, the character is determined to be a reversed character. If the character is an inverted character, the binary image stored in the image storage RAM 12 is inverted between black and white (step 154). In the case of normal characters, the image data is stored as it is.

【0104】以上の処理の中,第1実施例で示したステ
ップ32〜40にしたがう切出し位置決定,および文字
認識処理が文字領域内の2値化された画像データについ
て行われる。
In the above processing, the extraction position determination and the character recognition processing according to steps 32 to 40 shown in the first embodiment are performed on the binarized image data in the character area.

【0105】第8実施例Eighth Embodiment

【0106】第8実施例は,切出された範囲において一
次元抽出ウィンドゥを走査し,切出し位置を決定するも
のである。
In the eighth embodiment, a one-dimensional extraction window is scanned in the cut area to determine a cut position.

【0107】図21は,第8実施例による文字認識装置
の電気的構成を示す,図3に相当する図である。図3に
示すものと同一物についてはは同一符号を付し,重複説
明を避ける。
FIG. 21 is a diagram corresponding to FIG. 3 and showing the electrical configuration of the character recognition device according to the eighth embodiment. The same components as those shown in FIG. 3 are denoted by the same reference numerals, and redundant description will be avoided.

【0108】文字行切出しプログラムROM160は,
画像保存用RAM12に記憶されている画像に対して,
文字行の切出しを行なう処理に必要なプログラムを記憶
しておく読出し専用プログラムである。
The character line segmentation program ROM 160
For an image stored in the image storage RAM 12,
This is a read-only program that stores a program necessary for a process of extracting a character line.

【0109】切出し制御プログラムROM15Aは,一
次元抽出ウィンドゥを用いた切出し処理を行なうのに必
要なプログラムを記憶しておく読出し専用プログラムで
ある。
The extraction control program ROM 15A is a read-only program that stores a program necessary for performing extraction processing using the one-dimensional extraction window.

【0110】抽出ウィンドゥROM16Aは,一次元抽
出ウィンドゥを記憶しておく読出し専用プログラムであ
る。
The extraction window ROM 16A is a read-only program that stores a one-dimensional extraction window.

【0111】以上の文字行切出しプログラムROM16
0,切出し制御プログラムROM15A,および抽出ウ
ィンドゥROM16Aはそれぞれバス・ライン19を介
してCPU10と接続されている。
The above character line cutout program ROM 16
0, the extraction control program ROM 15A, and the extraction window ROM 16A are connected to the CPU 10 via the bus line 19, respectively.

【0112】第8実施例による文字行切出し処理につい
て,図22,図23および図24を用いて説明する。
The character line cutout processing according to the eighth embodiment will be described with reference to FIGS. 22, 23 and 24.

【0113】2値化画像データに対して水平方向投影長
データ141が算出される(ステップ180)。この水
平方向投影長データ141に基づいて,文字行切出しが
行われる(ステップ181)。水平方向投影長データ1
41が所定値以上の範囲V1が切出されることになる。
The horizontal projection length data 141 is calculated for the binarized image data (step 180). A character line is cut out based on the horizontal projection length data 141 (step 181). Horizontal projection length data 1
A range V1 where 41 is equal to or larger than a predetermined value is cut out.

【0114】文字行切出しにより定められた範囲V1内
において,垂直方向投影長データ140が算出される。
The vertical projection length data 140 is calculated within a range V1 determined by character line segmentation.

【0115】一次元抽出ウィンドゥ170が用いられ
る。この一次元抽出ウィンドゥ170は文字範囲171
とそれらの間の背景範囲172とから構成される。この
一次元抽出ウィンドゥ170が定められた範囲において
水平方向に走査される。
The one-dimensional extraction window 170 is used. This one-dimensional extraction window 170 has a character range 171.
And a background range 172 therebetween. The one-dimensional extraction window 170 is scanned in the horizontal direction in a predetermined range.

【0116】各走査位置において,一次元抽出ウィンド
ゥ170内の文字範囲171に属する垂直方向投影長デ
ータの総和から背景範囲172に属する垂直方向投影長
データの総和が減算され,特徴量となる(ステップ18
2,34)。
At each scanning position, the total sum of the vertical projection length data belonging to the background range 172 is subtracted from the total sum of the vertical projection length data belonging to the character range 171 in the one-dimensional extraction window 170 to obtain a feature amount (step 18
2, 34).

【0117】特徴量が最大値を示す一次元抽出ウィンド
ゥ170の位置が最終的に切出される範囲V2となる
(ステップ37,38)。
The position of the one-dimensional extraction window 170 at which the feature value has the maximum value is the range V2 from which the image is finally cut out (steps 37 and 38).

【0118】範囲V1とV2によって抽出される領域に
属する画像データに基づいて,文字認識処理が行われる
(ステップ39,40)。
A character recognition process is performed based on the image data belonging to the area extracted by the ranges V1 and V2 (steps 39 and 40).

【0119】この実施例では,一次元抽出ウィンドゥ1
70の走査は,水平方向に一回行なえばよいので,切出
し処理が迅速になる。
In this embodiment, the one-dimensional extraction window 1
Since the scan 70 only needs to be performed once in the horizontal direction, the cutout processing is quick.

【0120】第9実施例Ninth Embodiment

【0121】第9実施例は,第8実施例と同様に,切出
された範囲において一次元抽出ウィンドゥを走査し切出
し位置を決定するものであるが,2値化処理以前の段階
で処理範囲を切出すため,2値化処理に用するメモリ量
の節約が可能となる。
In the ninth embodiment, similar to the eighth embodiment, the one-dimensional extraction window is scanned in the cut-out range to determine the cut-out position, but the processing range is determined before the binarization process. , The amount of memory used for the binarization processing can be saved.

【0122】第9実施例による文字行切出し処理につい
て,図25,図26および図27を用いて説明する。
The character line cutout processing according to the ninth embodiment will be described with reference to FIGS. 25, 26 and 27.

【0123】まず,図25(A)に示すような画像デー
タが入力される(ステップ30)。ここでは,この入力
画像データ全体を2値化処理をするのではなく,文字行
を切出し,その文字行に対してのみ2値化処理を行な
う。
First, image data as shown in FIG. 25A is input (step 30). Here, instead of performing binarization processing on the entire input image data, a character line is cut out and binarization processing is performed only on the character line.

【0124】ステップ200において,画像保存用RA
M12に記憶されている入力画像データについて文字行
切出しプログラム160に記憶されているプログラムに
よって水平方向のエッジ・データが抽出され,それを基
に文字切出しが行われる。
In step 200, the image storage RA
With respect to the input image data stored in M12, horizontal edge data is extracted by a program stored in the character line extraction program 160, and character extraction is performed based on the data.

【0125】ステップ31において,切出された文字行
に対してのみ2値化処理が行なわれ,2値化画像につい
て垂直方向投影長データが作成され(ステップ20
1),演算用RAM13に記憶される。図25(B)
は,文字領域が切出され,垂直方向投影長データが作成
された状態を示す。
In step 31, binarization processing is performed only on the extracted character lines, and vertical projection length data is created for the binarized image (step 20).
1), stored in the arithmetic RAM 13; FIG. 25 (B)
Indicates that the character area has been cut out and the vertical projection length data has been created.

【0126】前述の第8実施例と同様に,この垂直方向
投影長データ170に対して,抽出ウィンドゥROM1
6Aに記憶されている一次元化された抽出ウィンドゥ1
70を走査させ(ステップ182),特徴量を算出する
(ステップ34)。
In the same manner as in the above-described eighth embodiment, the extraction window ROM 1
One-dimensional extraction window 1 stored in 6A
70 is scanned (step 182), and the feature amount is calculated (step 34).

【0127】第10実施例Tenth embodiment

【0128】第10実施例は,この発明のより現実に適
した文字認識装置を示すものであり,第1〜第9実施例
の中から複数の処理を選択し,組合わせたものである。
図28〜31のフローチャートを用いて説明する。
The tenth embodiment shows a character recognition device more suitable for the present invention, and is a combination of a plurality of processes selected from the first to ninth embodiments.
This will be described with reference to the flowcharts in FIGS.

【0129】図1に示すカメラ1が撮像した車両のナン
バープレート6の映像がI/O制御装置11を介して画
像データとして入力される(ステップ30)。
The image of the license plate 6 of the vehicle taken by the camera 1 shown in FIG. 1 is input as image data via the I / O control device 11 (step 30).

【0130】入力された画像データについてエッジ・デ
ータが抽出され(ステップ150),このエッジ・デー
タと文字領域限定プログラムに基づき文字領域が限定さ
れる(ステップ151)。
Edge data is extracted from the input image data (step 150), and a character area is limited based on the edge data and a character area limitation program (step 151).

【0131】入力画像の上記文字領域に対応する部分の
画像データは,2値化処理プログラムに基づき2値化処
理が行われる(ステップ152)。
The image data of the portion corresponding to the character area of the input image is subjected to the binarization processing based on the binarization processing program (step 152).

【0132】反転文字判定プログラムに基づき,限定さ
れた文字領域の2値画像に含まれる黒画素と白画素の数
を数え,通常文字であるか反転文字であるかを判定する
(ステップ153)。反転文字の場合には,記憶されて
いる2値画像を白黒反転させ(ステップ154),通常
文字の場合には,画像データはそのままに保存される。
Based on the inverted character determination program, the number of black pixels and white pixels included in the binary image of the limited character area is counted, and it is determined whether the character is a normal character or an inverted character (step 153). In the case of inverted characters, the stored binary image is inverted between black and white (step 154). In the case of ordinary characters, the image data is stored as it is.

【0133】切出し制御プログラムにしたがい,記憶さ
れている2値画像を垂直方向に投影して垂直方向投影長
データが作成される。
In accordance with the clipping control program, the stored binary image is projected in the vertical direction to create vertical projection length data.

【0134】あらかじめ記憶されている複数種類の抽出
ウィンドゥを走査するためのカウンタj(最大値はn。
ここではn=2)がj=1に設定され(ステップ8
0),抽出ウィンドゥjが選択される(ステップ8
1)。走査点を示すカウンタi(最大値はN)がi=1
に設定され,走査点iに対応する位置に適した大きさの
抽出ウィンドゥを走査して,走査点毎に特徴量が算出さ
れる(ステップ32〜36)。
A counter j (the maximum value is n) for scanning a plurality of types of extraction windows stored in advance.
Here, n = 2) is set to j = 1 (step 8)
0), extraction window j is selected (step 8)
1). The counter i indicating the scanning point (the maximum value is N) is i = 1
And the extraction window having a size suitable for the position corresponding to the scanning point i is scanned, and the feature amount is calculated for each scanning point (steps 32 to 36).

【0135】抽出ウィンドゥを走査して得られた特徴量
の中から,その値が大きい順に上位m個を切出し位置候
補として選択し(ステップ90),算出された特徴量の
値の大きい順に,優先順位を決定する(ステップ10
0)。
From the feature quantities obtained by scanning the extraction window, the top m pieces are selected as cut-out position candidates in descending order of their values (step 90), and priority is given to the calculated feature quantity values in descending order. Determine the ranking (Step 10
0).

【0136】決定された優先順位にしたがい,記憶され
ている入力画像,2値画像のうちの各候補位置における
文字領域に含まれる画像データを参照し,抽出ウィンド
ゥを上下左右に微調整しながら,文字列の切出し位置と
しての適合性を算出する(ステップ91〜94)。あら
かじめ定められたしきい値と適合性を比較し(ステップ
101),しきい値以上の適合性を示す候補位置であれ
ば,各文字の切出し位置として決定される(ステップ1
02)。
In accordance with the determined priority, reference is made to the image data contained in the character area at each candidate position among the stored input image and binary image, and the extraction window is finely adjusted vertically, horizontally, and Compatibility as a character string cutout position is calculated (steps 91 to 94). The suitability is compared with a predetermined threshold value (step 101). If the candidate position indicates suitability equal to or higher than the threshold value, it is determined as a cutout position of each character (step 1).
02).

【0137】記憶されている入力画像データのうち,文
字切出し位置の抽出ウィンドゥの文字領域に含まれる画
像データが切出され,文字認識プログラムと文字認識辞
書ROM18に記憶されている基準パターンに基づき,
切出された画像データに対して文字認識処理が行われる
(ステップ39)。文字認識結果はI/O制御装置11
を介して出力され(ステップ40),全処理が終了す
る。
From the stored input image data, image data included in the character area of the character extraction position extraction window is extracted, and based on the character recognition program and the reference pattern stored in the character recognition dictionary ROM 18.
A character recognition process is performed on the extracted image data (step 39). Character recognition result is I / O control device 11
(Step 40), and the entire process ends.

【0138】この第10実施例のように,第1〜第9実
施例の中から任意の2つ以上を選んで,矛盾しない範囲
で適宜組合わせることが可能である。
As in the tenth embodiment, it is possible to select two or more arbitrary ones from the first to ninth embodiments and appropriately combine them within a contradictory range.

【図面の簡単な説明】[Brief description of the drawings]

【図1】文字認識装置を道路を走行する車両のナンバー
プレートの読取りに用いた実施例の配置構成図である。
FIG. 1 is a layout diagram of an embodiment in which a character recognition device is used to read a license plate of a vehicle running on a road.

【図2】図1に示す実施例の配置構成図を道路の側面か
ら見た図である。
FIG. 2 is a diagram showing the layout of the embodiment shown in FIG. 1 as viewed from the side of a road.

【図3】第1実施例における文字認識装置の電気的構成
を示すブロック図である。
FIG. 3 is a block diagram illustrating an electrical configuration of the character recognition device according to the first embodiment.

【図4】(A)は入力画像の例,(B)は抽出ウィンド
ゥの例,(C)は2値画像上で抽出ウィンドゥを走査さ
せている状態,(D)は切出し位置に位置決めされた抽
出ウィンドゥをそれぞれ示す。
4A is an example of an input image, FIG. 4B is an example of an extraction window, FIG. 4C is a state in which the extraction window is scanned on a binary image, and FIG. Each of the extraction windows is shown.

【図5】第1実施例における文字認識処理を示すフロー
チャートである。
FIG. 5 is a flowchart illustrating a character recognition process according to the first embodiment.

【図6】(A)は切出し位置に位置決めされた抽出ウィ
ンドゥの文字領域と文字とがずれている状態,(B)は
文字毎に抽出ウィンドゥを分割した状態,(C)は切出
し位置を微調整している状態をそれぞれ示す。
FIG. 6A shows a state in which the character is shifted from the character area of the extraction window positioned at the extraction position, FIG. 6B shows a state in which the extraction window is divided for each character, and FIG. Each state of adjustment is shown.

【図7】第2実施例における文字認識処理を示す,図5
に相当するフローチャートである。
FIG. 7 shows a character recognition process in the second embodiment,
5 is a flowchart corresponding to FIG.

【図8】大型車両用のナンバープレートと中形車両用の
ナンバープレートとを対比させた図である。
FIG. 8 is a diagram comparing a license plate for a large vehicle with a license plate for a medium-sized vehicle.

【図9】第3実施例における文字認識処理を示す,図5
に相当するフローチャートの一部である。
FIG. 9 shows a character recognition process in the third embodiment,
Is a part of the flowchart corresponding to.

【図10】第3実施例における文字認識処理を示す,図
5に相当するフローチャートの一部である。
FIG. 10 is a part of a flowchart corresponding to FIG. 5, showing a character recognition process in the third embodiment.

【図11】第4実施例における文字認識処理を示す,図
5に相当するフローチャートの一部である。
FIG. 11 is a part of a flowchart corresponding to FIG. 5, illustrating a character recognition process in the fourth embodiment.

【図12】第4実施例における文字認識処理を示す,図
5に相当するフローチャートの一部である。
FIG. 12 is a part of a flowchart corresponding to FIG. 5, illustrating a character recognition process in the fourth embodiment.

【図13】第5実施例における文字認識処理を示す,図
5に相当するフローチャートの一部である。
FIG. 13 is a part of a flowchart corresponding to FIG. 5, showing a character recognition process in the fifth embodiment.

【図14】第5実施例における文字認識処理を示す,図
5に相当するフローチャートの一部である。
FIG. 14 is a part of a flowchart corresponding to FIG. 5, illustrating a character recognition process in the fifth embodiment.

【図15】(A)は,図1に示す配置構成を道路4の側
面から見た図であり,図2よりもカメラの視覚が大きく
設定されている状態,(B)は(A)に示すカメラの位
置から見た図であり,距離の遠近に応じて場所により大
きさが異なっている状態をそれぞれ示す。
15 (A) is a view of the arrangement shown in FIG. 1 as viewed from the side of the road 4, in a state where the visual sense of the camera is set to be larger than in FIG. 2, and FIG. 15 (B) is in FIG. It is the figure seen from the position of the camera shown, and shows the state from which the size differs according to the distance depending on the distance.

【図16】第6実施例における文字認識処理を示す,図
5に相当するフローチャートである。
FIG. 16 is a flowchart corresponding to FIG. 5, illustrating a character recognition process in the sixth embodiment.

【図17】第7実施例における文字認識装置の電気的構
成を示すブロック図である。
FIG. 17 is a block diagram illustrating an electrical configuration of a character recognition device according to a seventh embodiment.

【図18】(A)は通常文字(白地に緑)のナンバープ
レートと反転文字(緑地に白)のナンバープレートの対
比,(B)は入力画像,(C)は文字領域が切出された
状態を示す。
18A is a comparison between a license plate of a normal character (green on a white background) and a license plate of a reversed character (white on a green background), FIG. 18B is an input image, and FIG. 18C is a character region cut out. Indicates the status.

【図19】第7実施例における文字認識処理を示す,図
5に相当するフローチャートの一部である。
FIG. 19 is a part of a flowchart corresponding to FIG. 5, illustrating a character recognition process in the seventh embodiment.

【図20】第7実施例における文字認識処理を示す,図
5に相当するフローチャートの一部である。
FIG. 20 is a part of a flowchart corresponding to FIG. 5, illustrating a character recognition process in the seventh embodiment.

【図21】第8実施例および第9実施例における文字認
識装置の電気的構成を示すブロック図である。
FIG. 21 is a block diagram illustrating an electrical configuration of a character recognition device according to an eighth embodiment and a ninth embodiment.

【図22】水平方向投影長データを用いて2値画像から
文字行が切出され,その領域において垂直方向投影長デ
ータが抽出された状態,および垂直方向投影長データ上
を走査する一次元抽出ウィンドゥの例を示す。
FIG. 22 shows a state in which a character line is cut out from a binary image using horizontal projection length data and vertical projection length data is extracted in the region, and one-dimensional extraction for scanning over vertical projection length data. Here is an example of a window.

【図23】第8実施例における文字認識処理を示す,図
5に相当するフローチャートの一部である。
FIG. 23 is a part of a flowchart corresponding to FIG. 5, illustrating the character recognition processing in the eighth embodiment.

【図24】第8実施例における文字認識処理を示す,図
5に相当するフローチャートの一部である。
FIG. 24 is a part of a flowchart corresponding to FIG. 5, illustrating a character recognition process in the eighth embodiment.

【図25】(A)は入力画像,(B)はエッジ・データ
を用いて入力画像から文字行が切出され,その領域にお
いて垂直方向投影長データが抽出された状態,および垂
直方向投影長データ上を走査する一次元抽出ウィンドゥ
の例を示す。
FIG. 25A shows a state in which a character line is cut out from an input image using edge data, and FIG. 25B shows a state in which vertical projection length data is extracted in that area; 5 shows an example of a one-dimensional extraction window for scanning over data.

【図26】第9実施例における文字認識処理を示す,図
5に相当するフローチャートの一部である。
FIG. 26 is a part of a flowchart corresponding to FIG. 5, illustrating the character recognition processing in the ninth embodiment.

【図27】第9実施例における文字認識処理を示す,図
5に相当するフローチャートの一部である。
FIG. 27 is a part of a flowchart corresponding to FIG. 5, illustrating the character recognition processing in the ninth embodiment.

【図28】第10実施例における文字認識処理を示す,
図5に相当するフローチャートの一部である。
FIG. 28 shows a character recognition process in a tenth embodiment.
It is a part of the flowchart corresponding to FIG.

【図29】第10実施例における文字認識処理を示す,
図5に相当するフローチャートの一部である。
FIG. 29 shows a character recognition process in a tenth embodiment.
It is a part of the flowchart corresponding to FIG.

【図30】第10実施例における文字認識処理を示す,
図5に相当するフローチャートの一部である。
FIG. 30 shows a character recognition process in a tenth embodiment.
It is a part of the flowchart corresponding to FIG.

【図31】第10実施例における文字認識処理を示す,
図5に相当するフローチャートの一部である。
FIG. 31 shows a character recognition process in a tenth embodiment.
It is a part of the flowchart corresponding to FIG.

【符号の説明】 1 テレビ(ビデオ)カメラ 5 車両 6 ナンバー・プレート 22 抽出マスク 23 文字領域 24 背景領域 25 走査点 170 一次元抽出ウィンドゥ[Description of Signs] 1 TV (video) camera 5 Vehicle 6 License plate 22 Extraction mask 23 Character area 24 Background area 25 Scanning point 170 One-dimensional extraction window

フロントページの続き (56)参考文献 特開 平3−97085(JP,A) 特開 昭63−136179(JP,A) 特開 平1−213769(JP,A) 特開 平3−265985(JP,A) 特開 昭63−318688(JP,A) 特開 平5−28317(JP,A) 特開 昭63−257883(JP,A) 特開 昭63−158677(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06K 9/34 G06K 9/20 340 Continuation of the front page (56) References JP-A-3-97085 (JP, A) JP-A-63-136179 (JP, A) JP-A-1-213769 (JP, A) JP-A-3-265985 (JP) JP-A-63-318688 (JP, A) JP-A-5-28317 (JP, A) JP-A-63-257883 (JP, A) JP-A-63-158677 (JP, A) (58) Field surveyed (Int. Cl. 7 , DB name) G06K 9/34 G06K 9/20 340

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 文字配列が既知である対象文字列を含む
画像を入力する入力手段, 上記入力画像を2値化する2値化手段, 上記2値化手段により2値化された画像データに対し
て,既知である文字配列に対応する配置を持つ複数種類
の異なる大きさの抽出ウィンドゥをそれぞれ走査し,複
数種類の抽出ウィンドゥのそれぞれについて抽出ウィン
ドゥの位置毎に特徴量を算出する特徴量算出手段, 上記特徴量算出手段によって得られた特徴量に基づいて
文字切出し位置を決定する切出し位置決定手段, 上記切出し位置決定手段によって決定された位置の抽出
ウィンドゥにしたがって切出された画像データについ
て,あらかじめ記憶されている基準パターンに基づき文
字認識処理を行う文字認識手段,および上記文字認識手
段によって得られた結果を出力する出力手段, を備えた文字認識装置。
An input unit for inputting an image including a target character string whose character sequence is known; a binarizing unit for binarizing the input image; an image data binarized by the binarizing unit; On the other hand, a feature amount calculation for scanning a plurality of types of extraction windows of different sizes each having an arrangement corresponding to a known character arrangement and calculating a feature amount for each position of the extraction window for each of the plurality of types of extraction windows Means, a cut-out position determining means for determining a character cut-out position based on the feature amount obtained by the feature amount calculating means, and image data cut out according to the position extraction window determined by the cut-out position determining means, Character recognition means for performing character recognition processing based on a pre-stored reference pattern, and Output means for outputting a result, the character recognition apparatus having a.
【請求項2】 文字配列が既知である対象文字列を含む
画像を入力する入力手段, 上記入力画像を2値化する2値化手段, 上記2値化手段により2値化された画像データに対し
て,既知である文字配列に対応する配置を持つ複数種類
の大きさの異なる抽出ウィンドゥを,画像上の位置に応
じて切替えて走査し,抽出ウィンドゥの位置毎に特徴量
を算出する特徴量算出手段, 上記特徴量算出手段によって得られた特徴量に基づいて
文字切出し位置を決定する切出し位置決定手段, 上記切出し位置決定手段によって決定された位置の抽出
ウィンドゥにしたがって切出された画像データについ
て,あらかじめ記憶されている基準パターンに基づき文
字認識処理を行う文字認識手段,および上記文字認識手
段によって得られた結果を出力する出力手段, を備えた文字認識装置。
2. An input unit for inputting an image including a target character string whose character sequence is known, a binarizing unit for binarizing the input image, and an image data binarized by the binarizing unit. On the other hand, a plurality of extraction windows of different sizes having a layout corresponding to a known character arrangement are scanned by switching according to the position on the image, and a feature amount is calculated for each position of the extraction window. Calculating means, a cutout position determining means for determining a character cutout position based on the feature amount obtained by the feature amount calculating means, and image data cut out according to the position extraction window determined by the cutout position determining means. Character recognition means for performing character recognition processing based on a reference pattern stored in advance, and an output means for outputting a result obtained by the character recognition means. , The character recognition device equipped with.
JP23748493A 1993-08-30 1993-08-30 Character string recognition device with known character sequence Expired - Lifetime JP3275475B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP23748493A JP3275475B2 (en) 1993-08-30 1993-08-30 Character string recognition device with known character sequence

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP23748493A JP3275475B2 (en) 1993-08-30 1993-08-30 Character string recognition device with known character sequence

Publications (2)

Publication Number Publication Date
JPH0765125A JPH0765125A (en) 1995-03-10
JP3275475B2 true JP3275475B2 (en) 2002-04-15

Family

ID=17016015

Family Applications (1)

Application Number Title Priority Date Filing Date
JP23748493A Expired - Lifetime JP3275475B2 (en) 1993-08-30 1993-08-30 Character string recognition device with known character sequence

Country Status (1)

Country Link
JP (1) JP3275475B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4322041B2 (en) * 2003-04-25 2009-08-26 シャープ株式会社 Image processing apparatus, image processing method, image processing program, and computer-readable recording medium storing the program

Also Published As

Publication number Publication date
JPH0765125A (en) 1995-03-10

Similar Documents

Publication Publication Date Title
JP3338537B2 (en) Image tilt detector
US7302098B2 (en) Character segmentation method and apparatus
JP3878401B2 (en) Image processing apparatus, image processing method, and recording medium recording the same
US4562594A (en) Method and apparatus for segmenting character images
US8077976B2 (en) Image search apparatus and image search method
US7689004B2 (en) Method and apparatus for evaluating the quality of document images
JP2002133426A (en) Ruled line extracting device for extracting ruled line from multiple image
JPH05233873A (en) Area dividing method
US6625300B1 (en) Car sensing method and car sensing apparatus
JP2761467B2 (en) Image segmentation device and character recognition device
JPH0715703B2 (en) Character reading method
JP3275475B2 (en) Character string recognition device with known character sequence
JP3268552B2 (en) Area extraction method, destination area extraction method, destination area extraction apparatus, and image processing apparatus
JP3476595B2 (en) Image area division method and image binarization method
JPH03232100A (en) Number plate reader
JP3187895B2 (en) Character area extraction method
JP3019897B2 (en) Line segmentation method
JP2003317107A (en) Method and device for ruled-line detection
JP4439054B2 (en) Character recognition device and character frame line detection method
JPH0573718A (en) Area attribute identifying system
JP2715930B2 (en) Line detection method
JPH0660220A (en) Area extracting method for document image
JPH05274472A (en) Image recognizing device
JP2929710B2 (en) Character reading method
CN114882484A (en) License plate positioning method and device, electronic equipment and computer readable storage medium

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090208

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100208

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110208

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110208

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120208

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120208

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130208

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140208

Year of fee payment: 12