JPH06215293A - Device for recognizing vehicle number - Google Patents

Device for recognizing vehicle number

Info

Publication number
JPH06215293A
JPH06215293A JP5006445A JP644593A JPH06215293A JP H06215293 A JPH06215293 A JP H06215293A JP 5006445 A JP5006445 A JP 5006445A JP 644593 A JP644593 A JP 644593A JP H06215293 A JPH06215293 A JP H06215293A
Authority
JP
Japan
Prior art keywords
image
code
recognition
area
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5006445A
Other languages
Japanese (ja)
Other versions
JP2903923B2 (en
Inventor
Tadaaki Kitamura
忠明 北村
Yoshiki Kobayashi
小林  芳樹
Yoshiyuki Sato
良幸 佐藤
Norio Tanaka
紀夫 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP5006445A priority Critical patent/JP2903923B2/en
Publication of JPH06215293A publication Critical patent/JPH06215293A/en
Application granted granted Critical
Publication of JP2903923B2 publication Critical patent/JP2903923B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To provide a vehicle number recognizing device capable of cter excellently recognizing 'KANJI' (Chinese character) and cursive 'KANA' chara-(Japanese syllabary) in addition to numerals from the image of a number plate photographed by a usual television (TV) camera. CONSTITUTION:A plate extracting part 1 segments a plate area from an input image, a serial number extracting part 2 extracts a serial number from the plate area, a respective-code area coordinate calculating part 3 obtains the area coordinated of respective codes for a branch of the land transportation department, a vehicle sort, a purpose, etc., by using the coordinate string of the obtained serial number and respective codes are respectively recognized by a numeral recognizing part 5, a purpose code recognizing part 6 and a land transportation branch code recognizing part 7 in accordance with respective code areas. Each recognizing part recognizes a various density picture obtained by subtracting a background image from the input image as a featured value. Since the various density picture is recognized, 'KANJI' and cursive 'KANA' character can be effectively recognized by a usual TV camera even if brightness, dirt, a fold, etc., are generated.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】画像処理による種々の計測などが
行なわれているが、文字認識、特に車のナンバープレー
ト(以下、プレートと称す)の文字を自動認識する車番
認識装置に関する。
BACKGROUND OF THE INVENTION The present invention relates to a vehicle number recognition device for automatically recognizing characters on a car license plate (hereinafter referred to as a plate), although various measurements are performed by image processing.

【0002】[0002]

【従来の技術】プレートの文字認識は、これまで多くの
方式が開発されてきており、最近では漢字の認識やひら
がなの認識などが可能な全文字認識車番認識システムが
開発されている。
2. Description of the Related Art Many types of plate character recognition have been developed so far, and recently, an all character recognition vehicle number recognition system capable of recognizing kanji and hiragana has been developed.

【0003】ところで、通常のOCRなどの漢字認識で
は、1文字当たり32×32画素程度の分解能で文字を
認識している事が多い。この様な分解能でナンバープレ
ートを撮影すると撮影視野が非常に狭くなるため、特開
昭62−121586号のように複数のテレビカメラで分割撮影
し、プレート内の陸運支局コード,用途コードなどを認
識していることが多い。あるいは解像度が高い特殊なテ
レビカメラで撮影し、その画像を処理することが多い。
By the way, in kanji character recognition such as ordinary OCR, characters are often recognized with a resolution of about 32 × 32 pixels per character. When the license plate is photographed with such a resolution, the field of view becomes extremely narrow. Therefore, as in JP-A-62-121586, multiple television cameras are used to divide the image to recognize the Land Transport Office code, application code, etc. on the plate. I often do Alternatively, it is often the case that the image is processed by shooting with a special TV camera having a high resolution.

【0004】また通常の車番認識システムでは、入力し
た画像を最適に2値化処理し、その2値画像を処理して
プレート内の文字を認識しているが、2値化処理するこ
とによって情報が失われてしまうために、低分解能の画
像からプレート内の全ての文字を認識する事ができなく
なってしまう。このため、高分解能で撮影することが行
なわれている。
In a normal vehicle number recognition system, an input image is optimally binarized, and the binary image is processed to recognize the characters on the plate. The loss of information makes it impossible to recognize all the characters in the plate from the low resolution image. Therefore, high-resolution imaging is performed.

【0005】一方、濃淡画像を用いて顔画像を認識する
方式としては、例えば、「ニューラルネットワークを利
用した分解能の異なるモザイク顔による男女及び個人識
別」,テレビジョン学会誌,Vol.46,No.1(1
992)が知られている。この手法は、顔の画像をモザ
イク状に分解能を落とし、落とした画像の各画素データ
を特徴量としてニューラルネットワークに入力して認識
するものである。
On the other hand, as a method of recognizing a face image using a grayscale image, for example, "identification of a man and a woman by a mosaic face having different resolutions using a neural network", Journal of Television Society, Vol. 46, No. 1 (1
992) is known. In this method, the resolution of a face image is reduced in a mosaic manner, and each pixel data of the dropped image is input as a feature amount to a neural network for recognition.

【0006】[0006]

【発明が解決しようとする課題】上記複数のテレビカメ
ラで1台の車両を撮影する方式は、どのテレビカメラに
プレートが撮影されているかを識別することが必要であ
ると共に、認識処理する画像処理装置自体が複数の映像
信号を入力できる構成にする必要があり、非常にコスト
が高くなってしまう。また、高解像度のテレビカメラを
用いるシステムでは、カメラが高価、画像処理のための
入力系(A/D変換器)などが特殊仕様となるばかりで
なく、画像処理の対象画素数が膨大になるため超高速な
画像処理プロセッサを要するという問題があった。
In the method of photographing one vehicle with a plurality of television cameras described above, it is necessary to identify which television camera the plate is photographed, and image processing for recognition processing is performed. The device itself needs to have a configuration capable of inputting a plurality of video signals, which results in a very high cost. In addition, in a system using a high-resolution TV camera, not only is the camera expensive and the input system (A / D converter) for image processing has special specifications, but the number of target pixels for image processing becomes enormous. Therefore, there is a problem that an ultra-high-speed image processor is required.

【0007】また上記モザイク化による濃淡画像からの
認識手法を、プレートの文字認識に適用しようとした場
合、プレートの色の変化やプレートその物の明るさ変
化、更に認識文字の位置変動が大きいなどの課題がある
ため、顔画像認識処理方式をそのままプレートの文字認
識にては適用できないという問題があった。
Further, when the above-described mosaic image recognition method from a grayscale image is applied to character recognition of a plate, a change in the color of the plate, a change in the brightness of the plate itself, and a large change in the position of the recognized character are caused. However, there is a problem that the face image recognition processing method cannot be directly applied to the character recognition of the plate.

【0008】本発明の目的は、通常のテレビカメラ1台
でプレート上の全ての文字を良好に認識し得る車番認識
装置を提供することにある。
An object of the present invention is to provide a vehicle number recognizing device capable of satisfactorily recognizing all characters on a plate with one ordinary TV camera.

【0009】[0009]

【課題を解決するための手段】上記目的を達成するため
本発明では、テレビカメラより取り込まれ画像メモリに
入力された入力画像からナンバープレート領域を切り出
すナンバープレート領域抽出部と、切り出されたナンバ
ープレート領域から一連番号を2値画像として抽出する
一連番号抽出部と、この抽出された一連番号を構成する
各数字の座標を用いてナンバープレート中の陸運支局コ
ード,車種コード及び用途コードの各領域の座標を決定
する各コード領域座標算出部と、決定された各コード領
域の濃淡画像の特徴量を用いて陸運支局コードを認識す
る陸運支局コード認識部と前記特徴量を用いて車種コー
ドを認識する数字認識部及び前記特徴量を用いて用途と
コードを認識する用途コード認識部とを有する文字認識
部とから車番認識装置を構成したものである。
In order to achieve the above object, according to the present invention, a license plate area extracting section for cutting out a license plate area from an input image taken in from a television camera and inputted in an image memory, and a cut out license plate. Using the serial number extraction unit that extracts the serial number from the area as a binary image, and the coordinates of each numeral that constitutes the extracted serial number, the area of the Land Transport Office code, vehicle type code, and usage code in the license plate Each code area coordinate calculation unit that determines the coordinates, recognizes the Land Transport Office code by using the feature amount of the grayscale image of each determined code area, and recognizes the vehicle type code by using the Land Transport Office code recognition unit and the feature amount Car number recognition from a character recognition unit that has a number recognition unit and a usage code recognition unit that recognizes a use and a code using the feature quantity One in which you configure the location.

【0010】[0010]

【作用】本発明によれば、テレビカメラから取り込まれ
た入力画像からナンバープレートが切り出され、この切
り出されたナンバープレート中の大文字数字の一連番号
が2値画像として抽出される。この抽出された一連番号
の座標列から、ナンバープレート中の陸運支局コード,
車種コード,用途コードの各領域が大まかに決定され
る。更に具体的には、この決定された大まかな各領域内
についてそれぞれ背景の濃度を除去した文字だけの画像
が作成され、この文字画像を用いて各領域毎に文字の占
める領域が詳細に決定される。この決定された詳細文字
領域の画像から濃淡の特徴量をm×n個抽出し、この濃
淡データを0〜1の実数に正規化処理し、この正規化処
理されたデータをニューラルネットワークに入力し、陸
運支局コード,車種コード,用途コードがそれぞれ認識
されることにより、低分解能の入力画像からでもプレー
トの色,明るさ変化または位置変動に影響されることな
くプレート認識が可能となる。
According to the present invention, the license plate is cut out from the input image taken in from the television camera, and the serial number of uppercase letters in the cut out license plate is extracted as a binary image. From the coordinate sequence of this extracted serial number, the Land Transport Office code in the license plate,
The areas of the vehicle type code and the usage code are roughly determined. More specifically, an image of only the characters in which the background density is removed is created in each of the determined rough regions, and the region occupied by the characters is determined in detail for each region using this character image. It From the image of the determined detailed character area, m × n grayscale feature amounts are extracted, the grayscale data is normalized to a real number of 0 to 1, and the normalized data is input to the neural network. By recognizing the Land Transport Office code, the vehicle type code, and the application code, it is possible to recognize the plate even from a low-resolution input image without being affected by the color, brightness change, or position change of the plate.

【0011】[0011]

【実施例】以下、本発明の実施例を図面を用いて説明す
る。
Embodiments of the present invention will be described below with reference to the drawings.

【0012】図1は本発明のプレート認識装置の構成を
示す。処理の流れを簡単に説明すると、入力した画像か
らプレートを抽出するプレート抽出部1と、プレート内
の一連番号を抽出する一連番号抽出部2と、該抽出され
た一連番号の座標から陸運支局コード,車種コード,用
途コードの各座標位置を算出する各コード領域座標算出
部3と、各コードを認識する文字認識処理部4からな
る。文字認識部は各コード領域毎にどのような文字が存
在しているかがあらかじめ分かるため、数字認識部5,
陸運支局コード(地名)認識部7,用途コード(ひらが
な)認識部6に分かれている。プレート認識手順を説明
する前に、まず最初に、濃淡画像からの文字認識手順を
説明する。プレートの文字位置は図2のように規格化さ
れているため(寸法の単位はmm)、例えば一連番号の座
標が求まれば、その座標から相対的に各文字領域を特定
できる。しかしながら、実際にはプレートの折れ,曲が
りなどにより領域を正確には特定できない。したがっ
て、文字領域を一連番号の座標からおおざっぱに設定
し、その領域から正確な文字領域を決定し認識する事に
なる。したがって、文字領域が大まかに領域Aとして設
定されている場合に対する認識処理について以下図3を
用いて説明する。処理の手順は(1)背景差分処理8,
(2)文字領域の詳細座標抽出9,(3)濃淡特徴量抽
出10,(4)認識11である。
FIG. 1 shows the construction of the plate recognition apparatus of the present invention. The process flow will be briefly described. A plate extraction unit 1 that extracts a plate from an input image, a serial number extraction unit 2 that extracts a serial number in the plate, and a Land Transport Office code from the coordinates of the extracted serial number. Each code area coordinate calculation unit 3 for calculating each coordinate position of the vehicle type code and the usage code, and the character recognition processing unit 4 for recognizing each code. Since the character recognition unit knows in advance what kind of character exists in each code area, the number recognition unit 5,
It is divided into a land transportation branch code (place name) recognition section 7 and a usage code (hiragana) recognition section 6. Before describing the plate recognition procedure, first, the character recognition procedure from the grayscale image will be described. Since the character position of the plate is standardized as shown in FIG. 2 (the unit of dimension is mm), for example, if the coordinates of the serial number are obtained, each character area can be relatively specified from the coordinates. However, in reality, the region cannot be accurately specified due to the bending or bending of the plate. Therefore, the character area is roughly set from the coordinates of the serial number, and an accurate character area is determined and recognized from the area. Therefore, the recognition processing for the case where the character area is roughly set as the area A will be described below with reference to FIG. The processing procedure is (1) background difference processing 8,
(2) Detailed coordinate extraction 9 of the character area, (3) grayscale feature amount extraction 10, and (4) recognition 11.

【0013】(1)背景差分処理 プレートの明るさ変化や、プレートの色変化に対応でき
るように、文字線の画像情報だけを抽出する背景差分処
理を実行する。この処理は、認識対象画像から直接背景
画像を作成するもので、図3のように処理対象画像10
0の領域A全体の背景画像101を作成する。例えば、
処理対象画像100の文字が背景に比べ暗い場合は、局
所最大値フィルタを数回実行し、同じく局所最小値フィ
ルタ処理を数回実行し背景画像を作成する。この背景画
像101から処理対象画像100を差し引けば背景差分
画像102が作成できる。この様な処理を行なう目的
は、常に文字の線を明るく、背景を「0」の値に変換
し、認識処理を簡単化するためである。なお、文字が背
景より明るい場合(日本車の場合、緑地のプレートな
ど)は局所最小値フィルタを数回実行し、同じく局所最
大値フィルタを数回実行して背景画像を作成し、入力画
像から背景画像を差し引けばよい。
(1) Background subtraction processing Background subtraction processing for extracting only image information of character lines is executed so as to cope with changes in plate brightness and changes in plate color. In this processing, a background image is created directly from the recognition target image, and the processing target image 10 is generated as shown in FIG.
A background image 101 of the entire area A of 0 is created. For example,
When the characters of the processing target image 100 are darker than the background, the local maximum value filter is executed several times, and similarly the local minimum value filter processing is executed several times to create the background image. A background difference image 102 can be created by subtracting the processing target image 100 from the background image 101. The purpose of performing such processing is to make the character line always bright and to convert the background into a value of "0" to simplify the recognition processing. If the text is brighter than the background (for Japanese cars, green plates, etc.), the local minimum value filter is executed several times, and the local maximum value filter is executed several times to create the background image. Subtract the background image.

【0014】ここで、局所最大値フィルタ処理は、例え
ば、3×3画素の局所領域の最大濃度を求め、その濃度
を中心位置の濃度と置き換える処理をラスタースキャン
で全面走査するもので、2値画像の膨張処理に相当す
る。また、局所最小値フィルタ処理は、局所領域の最小
濃度を中心位置の濃度と置き換える処理で、2値画像の
収縮処理に相当する。この様な背景差分処理は特開昭6
3−153682号公報に記載されている。
In the local maximum value filtering process, for example, the maximum density of a local area of 3 × 3 pixels is obtained, and the process of replacing the density with the density at the center position is performed by raster scanning, and is binary. This corresponds to image expansion processing. The local minimum value filtering process is a process of replacing the minimum density of the local region with the density of the central position, and corresponds to the contraction process of the binary image. Such background difference processing is disclosed in Japanese Patent Laid-Open No.
No. 3-153682.

【0015】(2)文字領域の詳細座標抽出 上記背景差分処理は、大まかな領域Aを処理するもので
あるが、この領域をそのまま認識処理したのでは、文字
の位置ずれなどのため、誤認識が発生しやすくなる。こ
のため、上記背景差分画像102を用いて認識のための
漢字領域の詳細座標を算出する。この処理は図3のよう
に背景差分処理画像102に対し垂直(x軸投影分
布),水平方向(y軸投影分布)にそれぞれ濃度の累積
投影分布を求め、この頻度が所定のしきい値を越えた座
標を各方向毎に求め、文字領域Bの座標を求める。この
場合のしきい値は、背景画像を引いていることから文字
線以外はほとんど濃度が「0」であるので、文字線の最
低濃度程度にしておけばよい。ノイズが多い画像の場合
は、背景の濃度が完全には「0」にならないので、背景
濃度の累積値が影響してしまうが、この場合はあらかじ
めしきい値以下(例えば、おおざっぱな領域の最大濃度
のn分の1や、文字線の最低濃度の半分の値など)の濃
度画素を除去した画像を作成し、この画像の濃度投影分
布を使って座標を求めればよい(あるいは、しきい値以
上の濃度だけを累積する)。
(2) Extraction of Detailed Coordinates of Character Area The background difference processing described above roughly processes the area A. However, if this area is recognized as it is, it will be erroneously recognized because of character misalignment. Is likely to occur. Therefore, the detailed coordinates of the Kanji area for recognition are calculated using the background difference image 102. In this process, as shown in FIG. 3, cumulative projection distributions of densities are calculated in the vertical direction (x-axis projection distribution) and in the horizontal direction (y-axis projection distribution) with respect to the background difference processed image 102, and this frequency has a predetermined threshold value. The coordinates that have been exceeded are obtained for each direction, and the coordinates of the character area B are obtained. In this case, since the background image is drawn and the density is almost "0" except for the character lines, the threshold value may be set to about the minimum density of the character lines. In the case of an image with a lot of noise, the background density does not become "0" completely, so the cumulative value of the background density has an effect, but in this case, it is less than the threshold value beforehand (for example, the maximum of rough areas). It is only necessary to create an image from which density pixels of 1 / n of the density or half of the minimum density of the character line have been removed, and to calculate the coordinates using the density projection distribution of this image (or the threshold value). Only the above concentrations are accumulated).

【0016】処理対象画像から直接文字領域の詳細座標
を求めることも考えられるが、プレートの明るさが変化
した場合に上記しきい値を設定することが非常に困難で
あり、詳細領域決定はできない。これに対し、背景差分
画像からの領域決定は、文字以外の濃度をほとんど
「0」にすることができるため、しきい値が設定しやす
くなり、詳細領域決定が容易に実行可能である。この結
果、プレートの曲がり,折れなどに対しても、良好に領
域決定が可能である。
Although it is possible to directly obtain the detailed coordinates of the character area from the image to be processed, it is very difficult to set the above threshold value when the brightness of the plate changes, and the detailed area cannot be determined. . On the other hand, in the area determination from the background difference image, since the density of characters other than the character can be set to almost “0”, the threshold value can be easily set, and the detailed area determination can be easily executed. As a result, it is possible to favorably determine the area even when the plate is bent or bent.

【0017】なお、上記処理を実行した場合に、しきい
値以上の濃度投影分布がない場合や、しきい値以上の濃
度分布が有っても、求まった詳細領域の大きさが極端に
小さい場合は対象となる文字がないものと判断すること
が可能である。
When the above processing is executed, the size of the detailed region obtained is extremely small when there is no density projection distribution above the threshold value or even when there is a density distribution above the threshold value. In this case, it can be determined that there is no target character.

【0018】(3)特徴量抽出 次に、漢字領域の詳細座標が領域Bとして求まった後
は、認識するための特徴量を求める。ここでは、濃淡画
像の濃度値を特徴量に用いているが、いくつかの処理が
考えられる。(a)文字領域が小さいため、詳細領域の
濃度データ全てを特徴量として用いる。
(3) Feature Extraction Next, after the detailed coordinates of the Chinese character region are obtained as the region B, the feature amount for recognition is obtained. Here, the density value of the grayscale image is used as the feature amount, but some processing is conceivable. (A) Since the character area is small, all the density data of the detailed area is used as the feature amount.

【0019】(b)詳細領域の画像からm×n個の特徴
量を抽出する(モザイク化)。などがある。
(B) Extracting m × n feature quantities from the image of the detailed area (mosaicing). and so on.

【0020】上記(a)の方法は、1.5m の視野を5
12×256画素で画像を取り込みと漢字1文字の画素
数は約14×7画素となるため特徴量の数が約100個
となり、ニューラルネットワークなどで認識する場合な
どは特に、学習,認識に時間がかかる。一方、(b)の
方式はデータを縮小するため、サンプリングする画素デ
ータの位置がずれることにより、誤認識する可能性があ
るが、処理時間的には有効である。このため、本発明で
は、(b)の方式を採用する。サンプリングの問題に対
しては、特徴量としてサンプリングする位置が多少ずれ
ても問題ないように、詳細領域を平滑化処理し、平滑化
処理した画像からm×n個のデータを抽出するようにし
ている。具体的処理を図4に示す。
In the method (a), the field of view of 1.5 m is 5
When the image is captured with 12 × 256 pixels, the number of pixels of one Kanji character is about 14 × 7 pixels, so the number of feature amounts is about 100, and especially when recognizing with a neural network, it takes time to learn and recognize. Takes. On the other hand, since the method (b) reduces the data, the position of the pixel data to be sampled may be misaligned, which may cause an erroneous recognition, but it is effective in terms of processing time. Therefore, the method (b) is adopted in the present invention. For the problem of sampling, the detail region is smoothed and m × n data is extracted from the smoothed image so that there is no problem even if the position of sampling as the feature amount is slightly shifted. There is. Specific processing is shown in FIG.

【0021】(a)背景差分画像102の詳細領域Bを
数回平滑化処理し、画像をぼかす(画像104)。
(A) The detail region B of the background difference image 102 is smoothed several times to blur the image (image 104).

【0022】(b)ぼかし画像104の領域Bをm×n
画素に縮小する(画像106)。上記、平滑化の程度
を、この縮小率によって変化させることも考えられる。
(B) The area B of the blurred image 104 is m × n
It is reduced to pixels (image 106). It is also conceivable that the degree of smoothing described above is changed by this reduction rate.

【0023】(c)m×n画素の縮小画像106の濃度
データf(i,j)を読み取る。
(C) The density data f (i, j) of the m × n pixel reduced image 106 is read.

【0024】このようにして求まった特徴量データをニ
ューラルネットワークで認識する場合は、通常0〜1の
実数に変換する必要がある。ここでは、式1のような演
算で変換している。
When recognizing the feature amount data thus obtained by the neural network, it is usually necessary to convert the data into a real number of 0 to 1. Here, the conversion is performed by the calculation as shown in Expression 1.

【0025】 t(i,j)={f(i,j)−ming}/(maxg−ming) …式1 ここで、t(i,j)は(i,j)座標における特徴量
データ、 f(i,j)は(i,j)座標における濃度データ、 ming,maxgはm×n画素の画像での最小濃度,最大濃度
である。
T (i, j) = {f (i, j) -ming} / (maxg-ming) Equation 1 Here, t (i, j) is the feature amount data at the (i, j) coordinate, f (i, j) is the density data at the (i, j) coordinate, and ming, maxg are the minimum density and the maximum density in the image of m × n pixels.

【0026】なお、m×n個の特徴量を抽出するための
正規化方法には上記のほかに以下の手法が考えられる。
In addition to the above, the following method can be considered as a normalization method for extracting m × n feature quantities.

【0027】(a)背景差分画像102に対し、サンプ
ル点のずれなどを考慮して、背景差分画像を平滑化処理
104し、その画像から直接m×n個データを抽出す
る。
(A) With respect to the background difference image 102, the background difference image is subjected to the smoothing process 104 in consideration of the deviation of the sample points, and m × n pieces of data are directly extracted from the image.

【0028】(b)背景差分画像102に対し、m×n
画素にメッシュ状に分割し、そのメッシュ毎の平均濃度
を算出する。
(B) For the background difference image 102, m × n
The pixels are divided into meshes, and the average density of each mesh is calculated.

【0029】以上のような処理で濃淡の特徴量データが
求まれば、ニューラルネットワークでの学習,認識処理
を行なう。ニューラルネットワークでの学習,認識処理
は一般的な処理でよいため説明は省略する。
When the grayscale feature amount data is obtained by the above processing, learning and recognition processing by a neural network is performed. Since learning and recognition processing by the neural network may be general processing, description thereof will be omitted.

【0030】このように、背景差分処理を実行すること
で、認識対象の明るさ変化や位置変動に影響されること
なく濃淡画像から必要な特徴量を抽出し、文字を認識す
る事が可能となる。
As described above, by performing the background subtraction process, it is possible to extract the required feature amount from the grayscale image and recognize the character without being affected by the brightness change or the position change of the recognition target. Become.

【0031】これまで、文字認識の手法について説明し
たが、プレート認識に適用した場合の手順について以下
説明する。プレートの認識が一般の文字認識と異なる点
は、 (1)入力した画像のどこにプレートがあるか分からな
い。
Although the character recognition method has been described above, the procedure when applied to plate recognition will be described below. The point that plate recognition differs from general character recognition is: (1) I do not know where the plate is in the input image.

【0032】(2)プレートの色が数種類ある。(2) There are several types of plate colors.

【0033】(3)車両全面部を撮影する位置によりプ
レートの大きさが変化する(文字の大きさが変化す
る)。
(3) The size of the plate changes (the size of the characters changes) depending on the position where the entire surface of the vehicle is photographed.

【0034】(4)プレートの大きさに、中型,大型が
ある(中型と、大型の文字の大きさ比率は3対2であ
る)。
(4) The size of the plate includes medium size and large size (the size ratio of medium size and large size character is 3: 2).

【0035】(5)認識対象文字数は、ある程度限定さ
れている。
(5) The number of characters to be recognized is limited to some extent.

【0036】(6)陸運支局コードは、2文字,3文字
の漢字全体で1つの地名を表しているため、コード領域
全体を処理して地名のパターン判別を行なえばよい。な
どである。
(6) Since the Land Transport Office code represents one place name with two or three Chinese characters, the entire code area may be processed to determine the place name pattern. And so on.

【0037】したがって、プレートの抽出処理や、プレ
ートの色判別,文字の大きさに依存しない認識処理など
を実行することが重要である。反面、(5)のように一
般の文字認識に比べ認識対象字数が少ないため、低分解
能な文字でも濃淡画像を用いれば、認識することが可能
である。また、(6)のように地名のパターン判別であ
るため、「鳥取」「島根」の「鳥」「島」などの類似文
字判別は不要となる。以下に、認識手順を示す。
Therefore, it is important to execute a plate extraction process, a plate color discrimination process, a recognition process that does not depend on the size of characters, and the like. On the other hand, since the number of characters to be recognized is smaller than that in general character recognition as in (5), even a low-resolution character can be recognized by using a grayscale image. Further, since the pattern of the place name is discriminated as in (6), it is not necessary to discriminate similar characters such as "bird", "island" of "Tottori", "Shimane". The recognition procedure is shown below.

【0038】図5にプレートの認識手順を示す。処理の
流れは、(1)画像入力12。(2)プレート位置の特定
13。(3)プレート色の判定14。(4)一連番号の
抽出15。(5)一連番号の各座標を求め、それぞれの
コード領域の座標決定16。(6)一連番号の認識1
7。(7)車種コードの認識18。(8)陸運支局コー
ドの認識19。(9)用途コードの認識20。となる。
以下、順次詳細を説明する。
FIG. 5 shows a plate recognition procedure. The flow of processing is (1) image input 12. (2) Identification of plate position 13. (3) Plate color determination 14. (4) Extraction of serial number 15. (5) Obtain each coordinate of the serial number and determine 16 the coordinate of each code area. (6) Recognition of serial number 1
7. (7) Recognition of vehicle type code 18. (8) Recognition of Land Transport Bureau Code 19. (9) Recognition 20 of the usage code. Becomes
The details will be sequentially described below.

【0039】(1)画像入力 テレビカメラからの画像を画像メモリに取り込む。通常
電子式シャッターカメラを用いるため、フィールド画像
しか取り込めないため、縦方向の分解能が悪い。ここで
は横512画素,縦256画素で画像を取り込むものと
して以下説明する。視野幅を1.5m とすると、漢字,
ひらがなの文字は1文字40×40mmであるため、約1
4画素×7画素程度の大きさとなり、一般の文字認識で
の分解能32〜40画素に比べかなり小さな文字を認識
する必要がある。ただし、認識対象数は少ない。
(1) Image input The image from the television camera is taken into the image memory. Since an electronic shutter camera is usually used, only a field image can be captured, so the vertical resolution is poor. Here, description will be given below assuming that an image is captured with 512 pixels in the horizontal direction and 256 pixels in the vertical direction. If the field of view is 1.5m, kanji,
Hiragana characters are 40 x 40 mm per character, so about 1
The size is about 4 pixels × 7 pixels, and it is necessary to recognize a considerably smaller character than the resolution of 32 to 40 pixels in general character recognition. However, the number of recognition targets is small.

【0040】(2)プレート位置決定 取り込んだ画像のどこにプレートがあるかは車の走行位
置,プレートの取付け位置によって変動する。このた
め、入力画像からプレートの位置を認識する必要があ
る。このための方式には色々あるが、ここでは特開昭61
−141087号公報記載の方式を採用する。すなわち、図6
に示すように、入力した画像108に対し、水平方向の
微分処理を行ない110、これを所定の2値化しきい値
で2値化した後に、2値画像を整形するために膨張処理
を行なう112。車両全面部の模様は、ほとんどが水平
の縞模様であるため、水平方向に微分(垂直のエッジを
強調)処理を行なうことで、プレート以外の背景を除去
できることに着目した手法である。したがって、得られ
た整形画像の各領域の大きさ(面積,縦,横サイズなど)
がプレートの形状に類似している領域がプレート候補位
置となる。なお、プレート候補は、画面下側から優先的
に探している。
(2) Plate Position Determination Where the plate is in the captured image varies depending on the traveling position of the vehicle and the mounting position of the plate. Therefore, it is necessary to recognize the position of the plate from the input image. There are various methods for this, but here, Japanese Patent Laid-Open No.
-1441087 The method described in the official gazette is adopted. That is, FIG.
As shown in FIG. 11, the input image 108 is subjected to horizontal differentiation processing 110, binarized by a predetermined binarization threshold value, and then dilation processing 112 is performed to shape the binary image. . Since most of the pattern on the entire surface of the vehicle is a horizontal striped pattern, it is a method that focuses on the fact that the background other than the plate can be removed by performing differentiation (emphasizing vertical edges) in the horizontal direction. Therefore, the size of each area of the obtained shaped image (area, vertical, horizontal size, etc.)
An area where is similar to the shape of the plate is the plate candidate position. It should be noted that the plate candidates are preferentially searched from the lower side of the screen.

【0041】(3)プレート色の判定 プレート候補位置が特定できると、その領域の色を判別
する。日本車には大きく分けて白地に緑文字,緑地に白
文字があるので、文字が背景より明るいか暗いかを判定
する必要がある。ここでは、求まった領域の濃度頻度分
布を用いて判定する。すなわち、図7に示すように、プ
レートの文字の占める面積とプレートの文字以外の占め
る面積を比較すると、必ずプレートの文字以外(背景)
の方が広いため、頻度分布の最大頻度を示す濃度maxgが
平均濃度avg より明るければ背景が白(白地プレー
ト),暗ければ背景が緑色(緑地プレート)であると判
定する。
(3) Judgment of plate color When the plate candidate position can be specified, the color of the area is judged. Japanese cars are roughly divided into green characters on a white background and white characters on a green background, so it is necessary to judge whether the characters are brighter or darker than the background. Here, the determination is performed using the density frequency distribution of the obtained area. That is, as shown in FIG. 7, when comparing the area occupied by the characters on the plate with the area occupied by the characters other than the characters on the plate, it is sure that characters other than the characters on the plate (background)
Is wider, the background is white (white background plate) if the density maxg showing the maximum frequency of the frequency distribution is brighter than the average density avg, and the background is green (green background plate) if dark.

【0042】この判定結果を以下の文字抽出で用いる。
なお、色判定を誤る場合があるが、一連番号の数字が抽
出できない場合は色判定を逆に設定し、再度繰り返す処
理を行なう。
This determination result is used in the following character extraction.
Although the color determination may be erroneous, if the serial number cannot be extracted, the color determination is set in reverse and the process is repeated.

【0043】プレート色判定方式には、上記のほかに平
均濃度より明るい画素数と暗い画素数を比較する方法も
あるが、処理時間の点で、上記最大頻度の濃度と平均濃
度を比較することが良い。
In addition to the above, there is also a method of comparing the number of pixels brighter than the average density and the number of dark pixels in the plate color determination method. However, in terms of processing time, the density of the maximum frequency is compared with the average density. Is good.

【0044】(4)一連番号の抽出 各コードの位置決めをプレート領域の濃淡画像から直接
求めることができればよいが、なかなか困難である。し
たがって、一連番号を2値画像として抽出し、この数字
の座標から相対的に決定する。したがって、色判定がで
きると、一連番号を2値画像として抽出する(一連番号
の文字サイズは、陸運支局コードや車種コードに比べ大
きいため、2値画像でも文字の潰れなどは発生しにく
い)。このときの抽出方法は前記背景差分処理方式を用
いる。この方法は、前述したように、背景画像の濃度で
文字領域の濃度と置き換えて背景だけの画像を作成し、
2値化対象濃淡画像からこの背景画像を差し引くことで
文字だけの濃度情報を得ることができる(背景差分画像
と以下称す)。この結果、文字を抽出する2値化しきい
値を簡単に設定できるため、鮮明な2値画像を作成する
ことができる。このとき、前述したように日本のプレー
トには大きく分けて白地,緑地があるため、文字の色に
よって背景の作成方法を切り替える。
(4) Extraction of serial number It is only necessary that the positioning of each code can be obtained directly from the grayscale image of the plate area, but it is quite difficult. Therefore, the serial number is extracted as a binary image and relatively determined from the coordinates of the numbers. Therefore, if the color can be determined, the serial number is extracted as a binary image (the character size of the serial number is larger than that of the Land Transport Office code or vehicle type code, so that the binary image is less likely to be crushed). The extraction method at this time uses the background difference processing method. As described above, this method replaces the density of the character image with the density of the background image to create an image of the background only,
By subtracting this background image from the binarization target grayscale image, it is possible to obtain density information of only characters (hereinafter referred to as background difference image). As a result, it is possible to easily set the binarization threshold value for extracting characters, so that a clear binary image can be created. At this time, as described above, the Japanese plate is roughly divided into a white background and a green background, so the method of creating the background is switched depending on the color of the characters.

【0045】 ・文字色が背景に比べ暗い場合(白地プレート) (a)2値化対象濃淡画像に対し、局所最大値フィルタ
を数回実行し、文字領域を背景の濃度で埋める。
When the character color is darker than the background (white background plate) (a) The local maximum value filter is executed several times for the binarization target grayscale image to fill the character area with the background density.

【0046】(b)局所最大値フィルタの回数と同じ回
数局所最小値フィルタを実行する。
(B) The local minimum value filter is executed the same number of times as the local maximum value filter.

【0047】(c)ノイズを軽減するため、平滑化処理
して背景画像を作成する。
(C) In order to reduce noise, smoothing processing is performed to create a background image.

【0048】(d)作成した背景画像から2値化対象濃
淡画像を画素毎の演算で差分処理する。
(D) The binary image to be binarized from the created background image is subjected to difference processing by calculation for each pixel.

【0049】(e)プレートの背景領域の差分画像はほ
とんど「0」に近い値であり、文字領域はその文字のコ
ントラストの大きさの濃度が抽出できる。このため、し
きい値をノイズを抽出しない、「0」近傍の値で2値化
処理すれば鮮明な画像を作成できる。
(E) The difference image in the background area of the plate has a value close to "0", and the density of the contrast of the character can be extracted from the character area. Therefore, a clear image can be created by binarizing the threshold value with a value near "0" without extracting noise.

【0050】 ・文字色が背景に比べ明るい場合(緑地プレート) 背景より明るい場合は、上記処理のうち(a)(b)の処
理を局所最小値フィルタ,局所最大値フィルタの順に処
理して文字の濃度を周囲の背景濃度で削るような処理を
して背景を作成し、2値化対象濃淡画像から背景画像を
差し引く。又は、2値化対象濃淡画像を反転処理して、
上記白地プレートの処理を実行してもよい。反転処理は
取り込んだ画像が8ビット画像なら f(x,y)=255−g(x,y)を実行する。
When the character color is brighter than the background (green plate) When the character color is brighter than the background, the processing of (a) and (b) of the above processing is performed in the order of the local minimum value filter and the local maximum value filter. A background is created by performing a process of removing the density of the background density with the surrounding background density, and the background image is subtracted from the binarization target grayscale image. Alternatively, the grayscale image to be binarized is inverted,
You may perform the process of the said white background plate. The inversion process executes f (x, y) = 255-g (x, y) if the captured image is an 8-bit image.

【0051】ここで、f(x,y)は反転画像,g
(x,y)は2値化対象濃淡画像である。
Here, f (x, y) is an inverted image, g
(X, y) is a binarization target grayscale image.

【0052】以上の処理により、一連番号の2値画像が
鮮明に抽出できる。
By the above processing, the binary image of the serial number can be clearly extracted.

【0053】なお、取り込んだ画像のプレート位置が画
面枠にある場合に、上記背景差分処理を実行すると、文
字を抽出できない場合が発生する。これは、図8のよう
に、入力画像108からプレート領域を切り出し11
3、このプレート領域に対し局所最大値フィルタ処理を
行なうと114のように図では左側の領域については濃
度の膨張処理が行なえない。この画像に対し、局所最小
値フィルタ処理を実行すると115のように左側の濃度
が縮小された背景画像が作成されてしまう。したがっ
て、背景画像115からプレート画像とで差分処理する
と116のように左側の文字が欠けた画像になってしま
う。これは、画像メモリ上では最大値フィルタ処理が画
面枠を越えた領域では処理できないため、最小値フィル
タのみの処理となり、結果的に背景差分画像は画面枠近
傍付近で文字画像を抽出できなくなってしまうためであ
る。そこで、本発明では、プレート領域が求まったら、
図9のようにその領域の画像を画面中央(局所最大値フ
ィルタ処理の回数だけ画面枠から離れていればよい)に
移動し117、その位置で背景差分処理を実行してい
る。この処理により、画面枠付近でプレートが撮影され
ても局所最大値フィルタを正確に実行できるため、良好
に文字を抽出できる。
If the background position difference processing is executed when the plate position of the captured image is in the screen frame, there may be a case where characters cannot be extracted. This cuts out the plate area from the input image 108 as shown in FIG.
3. If local maximum value filter processing is performed on this plate area, the density expansion processing cannot be performed on the area on the left side in the figure, such as 114. If the local minimum value filtering process is executed on this image, a background image with reduced density on the left side is created as in 115. Therefore, when the difference processing from the background image 115 to the plate image is performed, an image in which the character on the left side is missing like 116 is obtained. This is because the maximum value filter processing cannot be processed in the area beyond the screen frame on the image memory, so only the minimum value filter is processed, and as a result, the background difference image cannot extract character images near the screen frame. This is because it ends up. Therefore, in the present invention, if the plate area is obtained,
As shown in FIG. 9, the image in the area is moved to the center of the screen (it is enough to be separated from the screen frame by the number of times of the local maximum filter processing) 117, and the background difference processing is executed at that position. By this processing, even if the plate is photographed in the vicinity of the screen frame, the local maximum value filter can be accurately executed, so that characters can be extracted well.

【0054】(5)各コード領域の座標決定 抽出した一連番号の2値画像の各座標領域を求め、ノイ
ズか文字かを2値画像の領域の大きさや文字列の配列規
則などによりチェックした後に、一連番号の各数字画像
の中心座標,平均高さ(画素),数字の桁間隔から陸運
支局コード,車種コード,用途コードの位置を特定す
る。各コードの位置座標は図2のように大型,中型プレ
ートで異なるため、一連番号の文字の平均高さを用い、
文字の高さが所定値以上の場合は、大型プレートである
と判断し、各プレート種別に従いプレートの位置関係で
算出する。ここで、文字の高さから画像の分解能を算出
し、この分解能で水平方向の相対位置を求めると、プレ
ートの下向きの傾きにより、文字の高さが変化し、これ
に伴い各コード領域の水平座標を正確に決定できなくな
ってしまう。そこで、各コード領域の位置決めは、文字
の平均高さから垂直方向(y方向)の分解能(mm/画
素)を算出し、文字間隔(抽出した文字パターンの各文
字の中心X座標の間隔)から水平方向(x方向)の分解
能(mm/画素)を算出し、それぞれの分解能で各コード
領域の座標を算出する。このように、x,y方向それぞ
れの分解能で各コード領域の座標を算出する事により、
プレートの下向きの傾きや、プレートの取り込み位置で
プレートの大きさが変化するが、このような変化に良好
に対応可能である。
(5) Determining coordinates of each code area After obtaining each coordinate area of the binary image of the extracted serial number and checking whether it is noise or a character by the size of the area of the binary image or the arrangement rule of the character string, etc. The position of the Land Transport Office code, vehicle type code, and usage code is specified from the center coordinates of each number image of the serial number, the average height (pixels), and the digit spacing. Since the position coordinates of each code are different for large and medium plates as shown in Fig. 2, use the average height of the characters of the serial number.
When the height of the character is equal to or larger than a predetermined value, it is determined that the plate is a large plate, and the plate positional relationship is calculated according to each plate type. Here, if the image resolution is calculated from the height of the character and the horizontal relative position is obtained with this resolution, the height of the character changes due to the downward tilt of the plate, and the horizontal position of each code area is accordingly changed. The coordinates cannot be determined accurately. Therefore, for the positioning of each code area, the resolution (mm / pixel) in the vertical direction (y direction) is calculated from the average height of the characters, and the character interval (interval of the center X coordinate of each character of the extracted character pattern) is calculated. The resolution (mm / pixel) in the horizontal direction (x direction) is calculated, and the coordinates of each code area are calculated at each resolution. In this way, by calculating the coordinates of each code area with the resolution in each of the x and y directions,
Although the size of the plate changes depending on the downward inclination of the plate and the position where the plate is taken in, it is possible to favorably cope with such a change.

【0055】ただし、ここで算出する領域は図10のよ
うに、陸運支局コード領域51,車種コード領域52,
用途コード領域53は大きめの領域設定となる。詳細位
置決めは前述の詳細領域算出処理で決定する。特に陸運
支局コードは文字数が不明であるため、2文字の地名と
想定してプレート取付けねじ54を始点に一連番号の2
桁目の終点X座標を領域のX座標として求めておき、後
述する認識処理で詳細に位置決めする。
However, the areas calculated here are, as shown in FIG. 10, the Land Transport Office code area 51, the vehicle type code area 52,
The usage code area 53 has a larger area setting. The detailed positioning is determined by the detailed area calculation process described above. In particular, since the number of characters of the Land Transport Bureau code is unknown, it is assumed that it is a two-character place name, and the plate mounting screw 54 is used as the starting point for the serial number 2
The end point X coordinate of the digit is obtained as the X coordinate of the area, and the positioning is performed in detail by the recognition process described later.

【0056】なお、プレートには1桁から4桁までの一
連番号があるが、文字間隔が求まるのは2桁以上である
ため、1桁の場合は文字高さから推定する。あるいは、
数字の変わりに刻印されているドットの間隔から推定す
る。
The plate has a serial number of 1 to 4 digits, but since the character spacing can be found in 2 or more digits, if it is 1 digit, it is estimated from the character height. Alternatively,
It is estimated from the intervals of the dots that are marked instead of the numbers.

【0057】(6)各文字の認識 文字の認識方式には2値画像から特徴量を抽出し、これ
をニューラルネットワークに入力して認識する方法もあ
るが、低分解能な文字を認識するために、文字のつぶれ
や欠けなどが発生しやすい。そこで、前記したような濃
淡画像での認識を実行する。各認識対象領域とプレート
の色が上記処理で求まっているため、その領域毎に以下
の処理を実行する。
(6) Recognizing Characters There is a method for recognizing characters by extracting a feature amount from a binary image and inputting the feature amount into a neural network for recognition. , Characters are likely to be crushed or missing. Therefore, the recognition with the grayscale image as described above is executed. Since the color of each recognition target area and plate has been obtained by the above processing, the following processing is executed for each area.

【0058】(a)領域毎にプレート色に応じた背景差
分画像を作成する(一連番号抽出時に実行するプレート
領域全体の背景差分画像を用いることも考えられるが、
処理時間,プレートの汚れなどを考慮すると、各領域毎
に最適な背景差分処理を行なうことが望ましい)。
(A) A background difference image corresponding to the plate color is created for each area (a background difference image of the entire plate area, which is executed at the time of extracting the serial number, may be used.
Considering processing time, plate stains, etc., it is desirable to perform optimal background subtraction processing for each area).

【0059】(b)背景差分画像の濃度投影分布(x,
y方向)から詳細な文字領域を抽出する。
(B) Density projection distribution (x,
A detailed character area is extracted from (y direction).

【0060】(c)詳細な文字領域の画像をm×n画素
に正規化する。
(C) The image of the detailed character area is normalized to m × n pixels.

【0061】(d)m×n個の特徴量データで学習し、
認識する。
(D) Learning with m × n feature amount data,
recognize.

【0062】上記処理は前記した文字認識処理の手法で
ある。
The above processing is a method of the character recognition processing described above.

【0063】ところで、プレート認識においては、各文
字領域にどのような文字があるかがあらかじめ決まって
いるため、ここでは3つのニューラルネットワークを用
意している。
By the way, in the plate recognition, it is determined in advance what kind of character is in each character area, so three neural networks are prepared here.

【0064】すなわち、大文字,小文字の数字認識用,
陸運支局コード(漢字,ひらがな)認識用,用途コード
(ひらがな)認識用である。ネットワークの概要は、以
下の通りである(ネットワーク規模は一例である)。
That is, for uppercase and lowercase numeral recognition,
It is for recognition of Land Transport Office code (Kanji, Hiragana) and usage code (Hiragana). The outline of the network is as follows (the network scale is an example).

【0065】 (a)大文字数字,小文字数字のネットワーク ネットワーク規模は図11のように、入力24(4×
6),中間12,出力10個である。なお、数字認識に
ついては文字の大きさがある程度確保されているため、
一般的な2値画像での認識方式を採用しても認識可能で
ある。ただし、2値画像の場合は欠けなどに対して対応
しにくいため、処理時間の範囲内で濃淡画像での認識処
理を実行することが望ましい。また、ここでは、大文
字,小文字を同じネットワークで認識しているが、ネッ
トワークをそれぞれに分けることも考えられる。
(A) Network of Uppercase Numbers and Lowercase Numbers The network scale is as shown in FIG.
6), intermediate 12 and output 10. As for the number recognition, the size of the characters is secured to some extent,
It can be recognized even if a general binary image recognition method is adopted. However, in the case of a binary image, it is difficult to deal with a chipping or the like, so it is desirable to perform the recognition process on the grayscale image within the processing time range. Further, although the uppercase and lowercase letters are recognized in the same network here, it may be possible to divide the network into each.

【0066】(b)陸運支局コード用ネットワーク ネットワーク規模は図12のように、入力64(16×
4),中間32,出力100個である。ここで、陸運支
局コードはコードエリア全体を1つのパターンとして認
識するようにしているため、地名の数だけを分離すれば
よい。したがって、出力ニューロンは100個程度で良
い。このようにすることで、「島根」「鳥取」の「島」
「鳥」の類似文字識別や、ひらがな,漢字の区別も必要
なくなる。この様な文字全体をシンボルとして認識する
方式は、金 他2名:ニューラルネットワークを用いた
車両番号認識;1990年電子情報通信学会春季全国大
会7−228に記載されている(画像データは入力画像
そのもののデータを入力しているため、プレート色別に
学習する必要がある)。
(B) Network for Land Transport Branch Code The network scale is as shown in FIG.
4), intermediate 32, and output 100. Here, since the Land Transport Office code recognizes the entire code area as one pattern, only the number of place names needs to be separated. Therefore, about 100 output neurons are sufficient. By doing this, the “island” of “Shimane” and “Tottori”
It is no longer necessary to identify similar characters of "bird" and distinguish between hiragana and kanji. Such a method of recognizing the whole character as a symbol is described by Kim et al .: Vehicle number recognition using a neural network; 1990 Spring National Convention of the Institute of Electronics, Information and Communication Engineers 7-228 (image data is input image. Since you are entering the data itself, it is necessary to learn by plate color).

【0067】(c)用途コード用ネットワーク ネットワーク規模は図13のように、入力32(8×
4),中間16,出力46個である。ひらがなの用途コ
ード認識については、「は」「ほ」や「さ」「き」とい
った類似文字があるため、最終的には類似文字判別を実
行する必要がある。類似文字判別処理にはいくつかの処
理が考えられるが、1つは特徴量の数を多くした(分解
能を高めた)ネットワークで再度識別する方法、もう1
つは特徴のある位置を再度チェックし判定する方法であ
る。特徴量を多くする方式は、最初は8×4個の特徴量
で分類し、例えば、「は」や「ほ」に認識結果が出た場
合は、モザイク化を密に、例えば12×6画素に正規化
し、この画像の特徴量をニューラルネットワークに入力
し、「は」「ほ」の識別を行なう。したがって、類似文
字の数だけの詳細分類用ネットワークを設けることにな
る。
(C) Use code network The network scale is as shown in FIG.
4), intermediate 16 and output 46. Regarding the hiragana usage code recognition, since there are similar characters such as "ha", "ho", "sa", and "ki", it is necessary to finally perform similar character discrimination. There are several possible similar character discrimination processes. One is a method of re-identification with a network in which the number of features is increased (the resolution is increased).
One is a method of checking the characteristic position again and making a determination. In the method of increasing the feature amount, the feature amount is first classified into 8 × 4 feature amounts. For example, when the recognition result is “ha” or “ho”, the mosaic is densely performed, for example, 12 × 6 pixels. Then, the feature amount of this image is input to the neural network, and "ha" and "ho" are identified. Therefore, as many detailed classification networks as the number of similar characters are provided.

【0068】また、特徴のある位置をチェックする方式
を図14に示す。「は」「ほ」の違いは図14(a)の
ように文字の右上に横棒が1本か2本の違いであり、
「さ」「き」は図14(b)のように上部の横棒の違い
である。したがって、この画像に対し水平方向の濃度の
投影分布から横棒の本数をチェックすればよい。このチ
ェックの方式には、濃度投影分布の山,谷の数を調べる
方式や、濃度の投影分布その物を特徴データとしてニュ
ーラルネットワークに入力し判定する方式などが考えら
れる。又は、用途コード領域を図15の(1)〜(8)の
ように分割し、それぞれの領域の画素データを特徴量と
して判定する方式が考えられる。例えば、「は」と
「ほ」は(2)の分割,「ぬ」と「め」は(4)の分割,
「ま」と「よ」は(5)の分割で分類するようにする。
「ぬ」と「め」の場合を図15(9),(10)に示
す。このような分類手法の場合は、図16のようにあら
かじめ類似文字だけでの学習をその類似文字判定に適し
た特徴量を用いて学習しておき、その結果の複数のニュ
ーラルネットワークの荷重係数22,23,24(図1
6では3個しか図示していないが、図15の場合なら8
個の荷重係数を記憶)を荷重係数記憶部25に用意して
おく。この時点で、どの文字がどの特徴量を用いて判定
するかが決定される。認識の流れは、前述の用途コード
認識部6の認識出力結果に基づき、方式判定部21でど
の荷重係数22,23,24を用いて類似判定するかを
決定し、ニューラルネットワークによる判定処理部26
では、方式判定部21で判定した荷重係数を用いてニュ
ーラルネットワークの想起処理により類似判定する。こ
のような処理により、用途コードの認識率を向上するこ
とが可能である。
FIG. 14 shows a method of checking a characteristic position. The difference between "ha" and "ho" is that there is one or two horizontal bars in the upper right of the character as shown in Fig. 14 (a).
“Sa” and “ki” are the differences in the horizontal bars at the top, as shown in FIG. Therefore, the number of horizontal bars may be checked from the projected distribution of density in the horizontal direction for this image. The checking method may be a method of checking the number of peaks or troughs of the density projection distribution, or a method of inputting the density projection distribution itself as feature data to a neural network for determination. Alternatively, a method may be considered in which the usage code area is divided as shown in (1) to (8) of FIG. 15 and the pixel data of each area is determined as a feature amount. For example, "ha" and "ho" are divided by (2), "nu" and "me" are divided by (4),
“Ma” and “yo” are classified by dividing (5).
The cases of "nu" and "me" are shown in FIGS. 15 (9) and 15 (10). In the case of such a classification method, as shown in FIG. 16, learning using only similar characters is performed in advance by using a feature amount suitable for the similar character determination, and the resulting weighting factors 22 of a plurality of neural networks are acquired. , 23, 24 (Fig. 1
6 shows only three, but in the case of FIG. 15, it is 8
The individual weighting factors are stored in the weighting factor storage unit 25. At this point in time, it is determined which character is used for which characteristic amount to determine. The flow of recognition is based on the recognition output result of the application code recognition unit 6 described above, the method determination unit 21 determines which weighting coefficient 22, 23, 24 is used for the similarity determination, and the determination processing unit 26 by the neural network.
Then, the similarity determination is performed by the neural network recall process using the weighting factor determined by the method determination unit 21. By such processing, it is possible to improve the recognition rate of the usage code.

【0069】ここで、各コードを認識する場合の順番で
あるが、一連番号,車種コード,陸運支局コード,用途
コードの順に認識している。この順番付の理由は、陸運
支局コードの領域を正確に求めるためである。すなわ
ち、陸運支局コードは地名の文字数が2〜4文字(例
「足立」「春日部」「尾張小牧」)と変化するが、前述
の領域座標算出処理では地名の文字数を最も頻度の多い
2文字と想定して座標を決定しているため、最終的な認
識処理ではこの座標を微調整することが必要である。し
たがって、車種コードを切り出す処理を実行した後、陸
運支局コードのx座標の終点座標を車種コードの1桁目
の始点x座標座標としている。
Here, the order in which each code is recognized is as follows: the serial number, the vehicle type code, the Land Transport Office code, and the usage code are recognized in this order. The reason for this ordering is to accurately obtain the area of the Land Transport Office code. That is, the Land Transport Office code has 2 to 4 characters for the place name (for example,
"Adachi", "Kasukabe", "Owari Komaki"), but in the above-mentioned area coordinate calculation process, the coordinates are determined assuming that the number of characters of the place name is the most frequent two characters, so the final recognition process Then, it is necessary to fine-tune this coordinate. Therefore, after the process of cutting out the vehicle type code is executed, the end point coordinate of the x coordinate of the Land Transport Office code is set as the start point x coordinate coordinate of the first digit of the vehicle type code.

【0070】また、車種コードに従い用途コードの使用
文字が限定されているため、車種コードの認識結果をも
とに用途コードの認識結果の妥当性チェックが可能であ
る。このため、車種コードの認識の後に用途コードの認
識を実行している。
Further, since the characters used in the usage code are limited according to the vehicle type code, it is possible to check the validity of the recognition result of the usage code based on the recognition result of the vehicle type code. For this reason, the usage code is recognized after the vehicle type code is recognized.

【0071】以上説明したように、背景差分画像に対し
てモザイク化した画像データを特徴量に用いることで、
明るさ変動に影響しない特徴量を抽出することができる
ため、文字認識率を向上することが可能である。更に、
プレートの色に関係なく常に文字画像を明るく抽出でき
るため、プレートの色別にデータを学習する必要がな
く、認識を単純化する事ができる。また、各文字領域の
詳細な座標決定が濃淡画像のまま実行できるため、位置
合わせ精度が高い。このため、前記顔画像認識のように
入力画像を単にモザイク化する方法では文字位置の特定
が困難,明るさ変化に対応できないなどの問題がある
が、背景差分画像に対してモザイク化することでこれら
問題を解決できるため、認識率の向上が図れる。
As described above, by using the image data mosaiced to the background difference image as the feature quantity,
Since the feature amount that does not affect the brightness variation can be extracted, the character recognition rate can be improved. Furthermore,
Since the character image can always be extracted brightly regardless of the plate color, it is not necessary to learn the data for each plate color, and the recognition can be simplified. Further, since the detailed coordinate determination of each character area can be performed with the grayscale image as it is, the alignment accuracy is high. For this reason, there is a problem that it is difficult to specify the character position and it is not possible to cope with the brightness change in the method of simply mosaicing the input image like the face image recognition. However, by mosaicing the background difference image, Since these problems can be solved, the recognition rate can be improved.

【0072】このような背景差分画像の利用は、プレー
ト認識だけでなく、文字色が変化するような場合や、明
るさのレベルが大きく変化するような場合などに有効で
ある。
The use of such a background difference image is effective not only for plate recognition, but also when the character color changes or when the brightness level changes significantly.

【0073】図17は本発明のハードウエア構成を示す
もので、テレビカメラ30からのアナログ映像信号をデ
ィジタル信号に変換するためのA/D変換器31と、デ
ィジタル信号を記憶するための画像メモリ32と画像メ
モリに対して画像処理するための画像処理プロセッサ3
3と種々の演算及び各種ハードウエアをコントロールす
るCPU34からなる。画像メモリ32は通常のテレビ
カメラの映像や、画像処理の途中経過画像などを格納す
るためのメモリであり、画素数は512×512程度の容量を
持つメモリを複数枚設けている。この画像メモリは、濃
淡画像だけでなく、2値画像メモリも複数枚設けてい
る。画像処理プロセッサ33は、画像の局所最大値フィ
ルタ,局所最小値フィルタ処理,画素毎の差分処理,平
滑化処理,微分処理,2値化処理,2値画像の膨張処
理,ラベリング処理,ヒストグラム処理など一般的な画
像処理機能を実行する。ニューラルネットワークの演算
は処理時間が大きくなるが、一般的なCPU34で演算
しても、専用のDSPやニューロチップなどを用いても
よいが、いずれにしても所要の性能を確保可能である。
次に処理性能を向上させるための手法について説明す
る。
FIG. 17 shows a hardware configuration of the present invention. An A / D converter 31 for converting an analog video signal from the television camera 30 into a digital signal, and an image memory for storing the digital signal. Image processor 3 for performing image processing on 32 and the image memory
3 and a CPU 34 for controlling various arithmetic operations and various hardware. The image memory 32 is a memory for storing an image of a normal television camera, images in the middle of image processing, and the like, and a plurality of memories each having a capacity of about 512 × 512 pixels are provided. This image memory is provided with not only a grayscale image but also a plurality of binary image memories. The image processor 33 includes a local maximum value filter of the image, a local minimum value filter process, a pixel-by-pixel difference process, a smoothing process, a differential process, a binarization process, a binary image expansion process, a labeling process, a histogram process, and the like. Performs general image processing functions. Although the calculation time of the neural network becomes long, the calculation may be performed by the general CPU 34 or a dedicated DSP or neurochip may be used, but in any case, the required performance can be secured.
Next, a method for improving processing performance will be described.

【0074】(1)認識率の向上 認識装置の設置場所によって陸運支局コードの出現頻度
は大きく異なるため、システムにあらかじめ設置位置を
入力しておくことで、認識率を向上することが可能であ
る。陸運支局コードの種類の頻度分布は、例えば、「水
戸」近辺で撮影する場合は、「水戸」ナンバーが約8割
を占め、残りの2割が「土浦」あるいは県外ナンバーで
ある。首都圏なら「横浜」「習志野」「足立」などが多
い。このように、特に、地方でのプレートの頻度分布
は、ある特定の陸運支局コードのみの頻度が極端に多
い。このため、あいまいな認識結果を出力した場合は、
陸運支局コードを強制的に最も出現頻度の多いコードと
認識することにより認識率を向上することが可能であ
る。
(1) Improvement of recognition rate Since the appearance frequency of the Land Transport Office code varies greatly depending on the installation location of the recognition device, it is possible to improve the recognition rate by inputting the installation position in the system in advance. . In the frequency distribution of the types of Land Transport Bureau codes, for example, when shooting in the vicinity of “Mito”, the “Mito” number occupies about 80%, and the remaining 20% is “Tsuchiura” or the number outside the prefecture. In the Tokyo metropolitan area, there are many “Yokohama”, “Narashino”, and “Adachi”. Thus, especially in the frequency distribution of plates in rural areas, the frequency of only a specific Land Transport Office code is extremely high. Therefore, if you output an ambiguous recognition result,
It is possible to improve the recognition rate by forcibly recognizing the Land Transport Bureau code as the code with the highest frequency of appearance.

【0075】具体的に説明すると、全通行車両に対する
陸運支局コードの認識率を例えば90%、「水戸」ナン
バーの割合を8割とすると、「水戸」ナンバーの認識台
数は80%×90%=72%が認識できる。また、「水
戸」以外の陸運支局コードは20%であるので、20%
×90%=18%が認識できる。すなわち、72%+1
8%=90%が認識できる。この場合、認識できない車
両(完全に陸支コードが見えない車両は除く)の認識結
果を強制的に「水戸」とすると、「水戸」の認識率72
%が最高80%になり、トータル98%(最大8%の向
上)の認識率になる。したがって、あらかじめシステム
に設置場所を入力しておくことで、曖昧な車両は全てそ
の地区の最高頻度の地名に置き換えることができ、見か
け上の認識率向上が図れる。この様な効果は特に地方に
設置するほど効果が期待でき、首都圏などのように、数
種類の陸運支局コードの頻度が多い場合などはこの手法
は採用できない。
More specifically, assuming that the recognition rate of the Land Transport Office code for all vehicles is 90% and the ratio of "Mito" numbers is 80%, the number of recognized "Mito" numbers is 80% × 90% = 72% can be recognized. In addition, the code for the Land Transport Office other than "Mito" is 20%, so 20%
× 90% = 18% can be recognized. That is, 72% + 1
8% = 90% can be recognized. In this case, if the recognition result of unrecognizable vehicles (excluding vehicles whose land support code cannot be completely seen) is forced to be "Mito", the recognition rate of "Mito" is 72.
% Is up to 80%, resulting in a total recognition rate of 98% (up to 8% improvement). Therefore, by entering the installation location in the system in advance, all ambiguous vehicles can be replaced with the most frequent place names in the area, and the apparent recognition rate can be improved. Such an effect can be expected to be more effective when installed in rural areas, and this method cannot be adopted when the frequency of several types of Land Transport Bureau codes is high, such as in the Tokyo metropolitan area.

【0076】システムの動作を図18を用いて説明する
と、キーボードなどの地名入力部43から設置場所を入
力し、この地名に対する変換コード名を変換テーブル4
1から引き出す。この変換テーブル41は図19のよう
に地名毎に記憶されている。認識処理が開始されると、
テレビカメラ30の映像を処理して車番認識処理部40
で認識し、そのときの陸運支局コードの認識結果を認識
結果変換処理部42に入力し、曖昧な認識結果を出力し
た場合には、この場合に限り、変換テーブルから引き出
した変換コード名を変わりに出力する。曖昧な認識結果
か否かの判定は、例えばニューラルネットワークの全て
の出力ニューロンの出力があるしきい値以下の場合や、
最大出力ニューロンの値と、第2出力ニューロンの値が
余り変わらない場合は、認識不能と判断し、正常に認識
した場合は、出力ニューロンの値があるニューロンだけ
高くなるのでこの判別は容易である。なお、地名入力部
は、設置場所を入力するのでなく、変換地名を直接入力
しても構わない。地名を変換しない場合は、変換テーブ
ルにその旨のコードを記憶しておく。
The operation of the system will be described with reference to FIG. 18. The installation place is input from the place name input section 43 such as a keyboard, and the conversion code name for this place name is converted into the conversion table 4.
Draw from one. This conversion table 41 is stored for each place name as shown in FIG. When the recognition process starts,
The vehicle number recognition processing unit 40 processes the video of the TV camera 30.
If the recognition result of the Land Transport Office code at that time is input to the recognition result conversion processing unit 42 and an ambiguous recognition result is output, the conversion code name extracted from the conversion table is changed only in this case. Output to. Whether or not it is an ambiguous recognition result is determined, for example, when the outputs of all output neurons of the neural network are below a certain threshold,
When the value of the maximum output neuron and the value of the second output neuron are not so different, it is determined that the recognition is impossible, and when the value is normally recognized, the value of the output neuron is increased by a certain neuron, so this determination is easy. . Note that the place name input unit may directly input the converted place name instead of inputting the installation place. When the place name is not converted, a code to that effect is stored in the conversion table.

【0077】以上のように、カメラの設置位置に従い、
認識不能文字をそのカメラ設置位置に対応した陸運支局
コードに置き換えて認識結果を出力することで、認識率
を向上することが容易に可能となる。
As described above, according to the installation position of the camera,
The recognition rate can be easily improved by replacing the unrecognizable character with the Land Transport Office code corresponding to the camera installation position and outputting the recognition result.

【0078】(2)学習データの収集方法 プレート認識は対象が車両であるため、プレートの汚れ
方,折れ方,曲がり方,プレートの見え方など無限の組
み合わせがある。ニューラルネットワークで認識する場
合の問題点は、最適に学習しなければ認識率が向上しな
いことにある。すなわち、きれいなプレートだけを教え
込んだだけでは変形プレートを認識できない。数字,用
途コード(ひらがな)はどの場所で撮影しても、各カテ
ゴリ毎の出現頻度は同様であるため、上記変形パターン
などのデータを収集することができるが、陸運支局コー
ドは各地方毎に各カテゴリ毎の出現頻度が異なるため、
全てのカテゴリの変形パターンなどをあらかじめ収集す
ることは不可能である。また、車番認識システムを全国
で同時に運用開始すれば短期間にデータを収集すること
ができるが、実際には全国に設置するにはかなりの時間
を要し、全国のデータを収集するには非常に時間がかか
る。そこで、特に陸運支局コードを学習する場合のデー
タ収集方法について述べる。
(2) Learning data collection method Since the object of plate recognition is a vehicle, there are infinite combinations of how the plate becomes dirty, how it is bent, how it bends, and how the plate looks. The problem with recognition with a neural network is that the recognition rate does not improve unless optimal learning is performed. That is, the deformed plate cannot be recognized only by instructing only a clean plate. No matter where you shoot the numbers and usage codes (Hiragana), the appearance frequency for each category is the same, so you can collect data such as the above deformation patterns, but the Land Transport Bureau code is for each region. Since the appearance frequency for each category is different,
It is impossible to collect deformation patterns of all categories in advance. Also, if you start operating the car number recognition system all over the country at the same time, you can collect data in a short period of time, but in reality it will take a considerable time to install it throughout the country, It takes a very long time. Therefore, the data collection method for learning the Land Transport Bureau code will be described.

【0079】陸運支局コードの字体は標準字体が用意さ
れているので、この字体についてあらかじめ学習する。
この学習は、文字の曲がり,汚れなどは一切ない。した
がって、実際のプレートの文字を認識した場合、変形な
どがない文字しか認識できないため、最初は認識不能文
字が多い。ところで、陸運支局コードの出現頻度は前述
したように各地区で異なるため、例えば、水戸近辺での
撮影なら、「水戸」以外のコードを認識結果として出力
した場合(水戸のナンバーを誤認識した場合や水戸以外
のナンバーで変形がない場合)や認識不能の結果を出力
した場合は、その画像の特徴量を格納しておき、保守員
が画像を確認し、誤認識している場合は正しい結果(陸
運支局名やそれに該当するコード番号など)を入力する
ようにし、前記特徴量データと上記正しい結果をペアに
した学習データを収集する。ある程度データが収集でき
ればその学習データで学習すると、認識率がデータの数
に見合った分だけ向上する。さらに同様なデータ収集を
行なえば、徐々に認識不能の文字が減少する(認識率が
向上していく)ため、上記データ収集作業は徐々に減っ
てくる。この結果、認識率向上のための作業時間を大幅
に短縮可能である。この時、この画像その物をファイル
(VTRやレーザーディスクなど)に自動格納しておけ
ば、後日保守員がこれらの画像を見ながら学習データ
(特徴量データとカテゴリ名のペア)を作成することも
できる。
Since the standard font is prepared as the font of the Land Transport Office code, this font will be learned in advance.
In this learning, there is no bending of the letters or stains. Therefore, when the characters on the actual plate are recognized, only characters that are not deformed can be recognized, and therefore many characters cannot be recognized at first. By the way, the frequency of appearance of the Land Transport Bureau code is different in each area as described above.For example, when shooting in the vicinity of Mito, when a code other than "Mito" is output as a recognition result (when the Mito number is erroneously recognized, If there is no deformation with a number other than or Mito) or if an unrecognizable result is output, the characteristic amount of that image is stored, and if the maintenance staff checks the image and misrecognizes it, the correct result is obtained. (Land Transport Office name and corresponding code number, etc.) are input, and learning data in which the feature amount data and the correct result are paired are collected. If data can be collected to some extent, learning with the learning data will improve the recognition rate by an amount commensurate with the number of data. Further, if similar data collection is performed, unrecognizable characters are gradually reduced (recognition rate is improved), and thus the data collection work is gradually reduced. As a result, the working time for improving the recognition rate can be significantly shortened. At this time, if this image itself is automatically stored in a file (VTR, laser disk, etc.), maintenance personnel can later create learning data (feature amount data and category name pair) while looking at these images. You can also

【0080】図20にメンテナンス処理の構成を示す。
システムには、設置場所に対する出現頻度の多い地名を
1つないし複数記憶する頻度テーブル44を図21のよ
うに設け、あらかじめシステムの設置場所を地名入力部
43から入力しておく。認識処理を実行している間は、
認識結果を車番認識処理部40から入力し、該頻度テー
ブル44の該当地名に対するコード以外の認識結果が求
まった場合や認識不能と出力した場合は、その時の画像
を入力画像表示装置48に表示し、正しい結果を問い合
わせるものである。問い合わせにより、入力画像表示装
置に表示されているプレート画像を確認し、その画像の
陸運支局名あるいは該当コード番号をカテゴリ入力部4
7から入力し、車番認識処理部で求めた画像の特徴量と
カテゴリをペアにして学習データ記憶部46に格納す
る。この学習データ記憶部46には、最終的にはシステ
ムが設置されている場所で珍しい地名、あるいは変形な
どが激しいプレート(既存の学習データで認識できない
パターン)の陸運支局コードの画像に対する特徴量と、
カテゴリのペアが蓄積されていく。したがって、蓄積さ
れたデータを学習し直すことで、変形パターンなどの認
識率を向上することが可能である。
FIG. 20 shows the configuration of the maintenance process.
The system is provided with a frequency table 44 for storing one or a plurality of place names having a high appearance frequency with respect to the installation place, as shown in FIG. 21, and the installation place of the system is input in advance from the place name input unit 43. While performing the recognition process,
When the recognition result is input from the vehicle number recognition processing unit 40 and the recognition result other than the code for the corresponding place name in the frequency table 44 is obtained or it is output as unrecognizable, the image at that time is displayed on the input image display device 48. And inquire about the correct result. Check the plate image displayed on the input image display device by inquiry, and enter the name of the Land Transport Office or the corresponding code number of the image in the category input section 4
7, the feature amount and the category of the image obtained by the vehicle number recognition processing unit are paired and stored in the learning data storage unit 46. In the learning data storage unit 46, the feature amount for the image of the Land Transport Office code of a place name (a pattern that cannot be recognized by the existing learning data) of a place that is rare at the place where the system is installed or a plate that is severely deformed in the end is stored. ,
Category pairs are accumulated. Therefore, by re-learning the accumulated data, it is possible to improve the recognition rate of deformation patterns and the like.

【0081】また、大容量の画像ファイルがあれば上記
頻度の多い地名以外が認識結果の場合や認識不能と出力
した場合には、その時の入力画像をファイルに記憶する
と共に、特徴量データと時刻をデータファイルに記憶す
る。保守員はある程度データが蓄積されたら、データフ
ァイルの時刻と画像ファイルの時刻を突き合わせながら
誤認識している場合は(あるいは、全てのデータに対
し)正しい認識地名を入力する。このようにすることに
より、滅多に現われないプレートの陸運支局コードの画
像データを蓄積することが可能である。また、これらの
データが全国各地で収集できれば、最終的には全てを認
識できるネットワークを作成するための学習処理を実行
する。
When there is a large-capacity image file, if a recognition result is obtained for a place name other than the above-mentioned frequently-used place name, or if it is output as unrecognizable, the input image at that time is stored in the file and the feature amount data and time are stored. To a data file. When the data is accumulated to some extent, the maintenance staff inputs the correct recognition place name if the data file time and the image file time are matched and if the data is mistakenly recognized (or for all data). By doing so, it is possible to store the image data of the Land Transport Office code of the plate that rarely appears. Further, if these data can be collected all over the country, the learning process is finally executed to create a network that can recognize all of them.

【0082】この様にカメラ設置位置に対応した出現頻
度の多い陸運支局名を記憶することで、カメラ設置位置
において出現頻度が低いカテゴリ(陸運支局名)及び変
形パターンの学習データを順次収集でき、最終的には種
々の変形パターンなどのデータを効率的に収集可能とな
る。
By storing the name of the land transportation branch office having a high frequency of appearance corresponding to the camera installation position in this manner, the learning data of the category (land transportation branch office name) having a low appearance frequency and the deformation pattern at the camera installation position can be sequentially collected, Eventually, data such as various deformation patterns can be efficiently collected.

【0083】なお、上述の実施例では、ネットワークの
構成を一例として詳細に述べたが、ネットワークの大き
さは認識できる大きさならどのような大きさでも構わな
い。また、ニューラルネットワークでの認識を例として
述べたが、濃淡の特徴量を統計処理で分類する方式や、
ファジー処理での認識も可能である。
In the above embodiment, the network configuration is described in detail as an example, but the size of the network may be any size as long as it is recognizable. In addition, although recognition with a neural network has been described as an example, a method of classifying grayscale feature amounts by statistical processing,
Recognition by fuzzy processing is also possible.

【0084】[0084]

【発明の効果】本発明によれば、背景差分画像に対して
モザイク化した画像データを特徴量に用いることで、明
るさ変動に影響しない特徴量を抽出することができるた
め、低分解の文字であっても、文字認識率を向上するこ
とが可能である。更に、プレートの色に関係なく常に文
字画像を常に明るく抽出できるため、プレートの色別に
データを学習する必要がなく、認識を単純化する事がで
きる。
According to the present invention, by using the image data mosaiced to the background difference image as the feature amount, the feature amount that does not affect the brightness variation can be extracted, so that the character with low resolution can be extracted. Even with this, it is possible to improve the character recognition rate. Further, since the character image can always be extracted brightly regardless of the color of the plate, it is not necessary to learn the data for each color of the plate, and the recognition can be simplified.

【0085】また、ひらがなの類似文字判定部を備える
ことで、用途コードの認識率を向上することが可能であ
る。
Further, the use of the hiragana-similar character determination unit makes it possible to improve the recognition rate of the usage code.

【0086】また、認識装置を設置する場所名をシステ
ムに入力することで、陸運支局コードの出現頻度に応じ
た処理(学習のための判断,認識率向上)を実行でき、
システムの性能向上を図ることが可能である。
By inputting the name of the place where the recognition device is installed into the system, processing (judgment for learning, improvement of recognition rate) according to the frequency of appearance of the Land Transport Office code can be executed,
It is possible to improve the system performance.

【図面の簡単な説明】[Brief description of drawings]

【図1】図1は本発明の構成を示す図である。FIG. 1 is a diagram showing a configuration of the present invention.

【図2】図2はナンバープレートの寸法図である。FIG. 2 is a dimensional diagram of a license plate.

【図3】図3は本発明の濃淡画像からの文字認識の手順
を示す図である。
FIG. 3 is a diagram showing a procedure of character recognition from a grayscale image according to the present invention.

【図4】図4は濃淡画像からの特徴量抽出手法を説明す
る図である。
FIG. 4 is a diagram illustrating a feature amount extraction method from a grayscale image.

【図5】図5はナンバープレートの文字を認識する手順
を示す図である。
FIG. 5 is a diagram showing a procedure for recognizing characters on a license plate.

【図6】図6は入力画像からナンバープレート領域を抽
出する手法を示す図である。
FIG. 6 is a diagram showing a method of extracting a license plate area from an input image.

【図7】図7はナンバープレートの色を判定する手法を
示す図である。
FIG. 7 is a diagram showing a method of determining the color of a license plate.

【図8】図8はナンバープレートの撮影位置が画面枠近
傍にある場合に文字抽出する場合の問題を説明する図で
ある。
FIG. 8 is a diagram illustrating a problem in the case of extracting characters when the shooting position of the license plate is near the screen frame.

【図9】図9は図8に示す問題を解決するための手法を
示す図である。
FIG. 9 is a diagram showing a method for solving the problem shown in FIG.

【図10】図10は各コード領域座標を大まかに決定す
る場合の説明図である。
FIG. 10 is an explanatory diagram for roughly determining each code area coordinate.

【図11】図11は数字認識用のニューラルネットワー
クの構成を示す図である。
FIG. 11 is a diagram showing a configuration of a neural network for digit recognition.

【図12】図12は用途コード認識用のニューラルネッ
トワークの構成を示す図である。
FIG. 12 is a diagram showing a configuration of a neural network for use code recognition.

【図13】図13は陸運支局コード認識用のニューラル
ネットワークの構成を示す図である。
FIG. 13 is a diagram showing a configuration of a neural network for recognizing Land Transport Office code.

【図14】図14は用途コード(ひらがな)の類似文字
判定のために、濃度の投影分布を特徴量として用いた場
合の手法を示す図である。
FIG. 14 is a diagram illustrating a method in which a projected distribution of density is used as a feature amount for determining similar characters in a usage code (hiragana).

【図15】図15は用途コード(ひらがな)の類似文字
判定のために、文字領域を小ブロックに分けた画像のデ
ータを特徴量として用いた場合の特徴量の種類を示す図
である。
FIG. 15 is a diagram showing types of feature amounts when image data obtained by dividing a character region into small blocks is used as a feature amount for determining similar characters of a usage code (hiragana).

【図16】図16は小ブロックに分けた特徴量を用いて
類似判定する場合の構成を示す図である。
FIG. 16 is a diagram showing a configuration in the case of performing similarity determination using a feature amount divided into small blocks.

【図17】図17は本発明のハードウエア構成を示す図
である。
FIG. 17 is a diagram showing a hardware configuration of the present invention.

【図18】図18は陸運支局コードの認識率向上が可能
な装置構成を示す図である。
FIG. 18 is a diagram showing a device configuration capable of improving the recognition rate of the Land Transport Office code.

【図19】図19はナンバープレートを認識する場所に
対する、陸運支局コードの最も多い頻度のコード名を記
憶する変換テーブルを示す図である。
FIG. 19 is a diagram showing a conversion table for storing a code name of the most frequent Land Transport Office code for a place where a license plate is recognized.

【図20】図20は陸運支局コードの学習データを蓄積
するためのシステム構成を示す図である。
FIG. 20 is a diagram showing a system configuration for accumulating learning data of a Land Transport Office code.

【図21】図21はナンバープレートを認識する場所に
対する、陸運支局コードの頻度の多い地名を記憶する頻
度テーブルを示す図である。
FIG. 21 is a diagram showing a frequency table for storing a place name with a high frequency of Land Transport Office code for a place where a license plate is recognized.

【符号の説明】[Explanation of symbols]

1…プレート抽出部、2…一連番号抽出部、3…各コー
ド領域座標算出部、4…文字認識部、5…数字認識部、
6…用途コード認識部、7…陸運支局コード認識部、3
2…画像メモリ、33…画像処理プロセッサ。
1 ... Plate extraction unit, 2 ... Serial number extraction unit, 3 ... Code area coordinate calculation unit, 4 ... Character recognition unit, 5 ... Number recognition unit,
6 ... Usage code recognition unit, 7 ... Land Transport Office code recognition unit, 3
2 ... Image memory, 33 ... Image processor.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 田中 紀夫 茨城県日立市大みか町五丁目2番1号 株 式会社日立製作所大みか工場内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Norio Tanaka 52-1 Omika-cho, Hitachi-shi, Ibaraki Hitachi Ltd. Omika factory

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】車両のナンバープレートを撮影するテレビ
カメラと、当該テレビカメラからの映像信号をディジタ
ル化するA/D変換器と、当該A/D変換器からのディ
ジタル映像を記憶する画像メモリと、該画像メモリに入
力された入力画像からナンバープレート領域を切り出す
ナンバープレート領域抽出部と、切り出されたナンバー
プレート領域から一連番号を2値画像として抽出する一
連番号抽出部と、当該抽出された一連番号を構成する各
数字の座標を用いて前記ナンバープレート中の陸運支局
コード,車種コード及び用途コードの各領域の座標を決
定する各コード領域座標算出部と、決定された各コード
領域の濃淡画像の特徴量を用いて陸運支局コードを認識
する陸運支局コード認識部、前記特徴量を用いて車種コ
ードを認識する数字認識部及び前記特徴量を用いて用途
とコードを認識する用途コード認識部とを有する文字認
識部を備えたことを特徴とする車番認識装置。
1. A television camera for photographing a license plate of a vehicle, an A / D converter for digitizing a video signal from the television camera, and an image memory for storing a digital image from the A / D converter. A license plate area extracting unit that cuts out a license plate area from the input image input to the image memory, a serial number extracting unit that extracts a serial number as a binary image from the cut out license plate area, and the extracted serial number. Each code area coordinate calculation unit that determines the coordinates of each area of the Land Transport Office code, vehicle type code and usage code in the license plate by using the coordinates of each number constituting the number, and a grayscale image of each determined code area The Land Transport Office code recognition unit that recognizes the Land Transport Office code using the feature quantity of the Recognition unit and vehicle number recognition apparatus characterized by having a character recognition unit and a recognizing application code recognition unit applications and code using the feature quantity.
【請求項2】請求項1において、前記各コード領域座標
算出部は、抽出された一連番号の平均高さから垂直方向
の画像分解能を算出し、且つ前記一連番号の文字間隔か
ら水平方向の画像分解能を算出し、算出した垂直方向の
画像分解能から前記各コード領域のY方向の座標を一連
番号の位置から相対的に決定するとともに前記算出した
水平方向の画像分解能から前記各コード領域のX方向の
座標を一連番号の位置から相対的に決定することを特徴
とする車番認識装置。
2. The code area coordinate calculating unit according to claim 1, wherein the image resolution in the vertical direction is calculated from the average height of the extracted serial numbers, and the image in the horizontal direction is calculated from the character spacing of the serial numbers. The resolution is calculated, the Y-direction coordinate of each code area is relatively determined from the calculated vertical image resolution from the position of the serial number, and the X-direction of each code area is calculated from the calculated horizontal image resolution. A vehicle number recognition device characterized in that the coordinates of the vehicle number are relatively determined from the position of the serial number.
【請求項3】請求項1において、前記文字認識部は、入
力した画像の前記各コード領域の背景画像を除去した背
景差分処理画像を作成し、当該背景差分処理画像の画像
データを所定の大きさになるよう平滑化処理し、当該平
滑化処理により正規化された正規化画像データを用いて
文字認識を行なうことを特徴とする車番認識装置。
3. The character recognition section according to claim 1, wherein the character recognition section creates a background difference processed image in which the background image of each code area of the input image is removed, and the image data of the background difference processed image is set to a predetermined size. A vehicle number recognition device characterized by performing a smoothing process to obtain a desired size, and performing character recognition using the normalized image data normalized by the smoothing process.
【請求項4】請求項1において、前記文字認識部は、前
記車種コードを認識し、当該認識された車種コードの先
頭文字のX始点座標を用いて前記陸運支局コードの領域
の座標を制御するとともに、前記用途コードの認識結果
の妥当性を前記車種コードの認識結果に基づいてチェッ
クすることを特徴とする車番認識装置。
4. The character recognition unit according to claim 1, wherein the character recognition unit recognizes the vehicle type code, and controls the coordinates of the area of the Land Transport Office code by using the X start point coordinate of the first character of the recognized vehicle type code. At the same time, the vehicle number recognition device is characterized in that the validity of the recognition result of the usage code is checked based on the recognition result of the vehicle type code.
【請求項5】請求項1において、前記用途コード認識部
は、入力した画像の用途コード領域の背景画像を除去し
た背景差分処理画像を作成し、該用途コード領域の背景
差分処理画像の画像データを所定の大きさになるよう平
滑化処理し、平滑化処理により正規化された正規化画像
データを用いて文字認識し、当該認識結果に応じて類似
文字識別処理を実行することを特徴とする車番認識装
置。
5. The usage code recognition unit according to claim 1, wherein a background difference processed image is created by removing a background image of the usage code area of the input image, and image data of the background difference processed image of the usage code area is created. Is smoothed to a predetermined size, character recognition is performed using the normalized image data normalized by the smoothing processing, and similar character identification processing is executed according to the recognition result. Vehicle number recognition device.
【請求項6】請求項5において、前記類似文字識別処理
における特徴量として、前記用途コード領域の背景差分
処理画像のX方向濃度投影分布又はY方向濃度投影分布
を用いることを特徴とする車番認識装置。
6. The vehicle number according to claim 5, wherein the X-direction density projection distribution or the Y-direction density projection distribution of the background difference processed image of the usage code area is used as the feature quantity in the similar character identification processing. Recognition device.
【請求項7】請求項5において、前記類似文字識別処理
における特徴量として、前記用途コード領域の背景差分
処理画像に対し前記用途コード領域を4分割した時のそ
れぞれの画像データ、左右2分割又は上下2分割したと
きの画像データを用いることを特徴とする車番認識装
置。
7. The image data obtained when the usage code area is divided into four with respect to the background difference processed image of the usage code area, the left and right half-division, or the feature quantity in the similar character identification processing according to claim 5. A vehicle number recognizing device characterized by using image data obtained by vertically dividing into two.
【請求項8】車両のナンバープレートを撮影するテレビ
カメラと、当該テレビカメラからの映像信号を処理して
ナンバープレート上の文字を認識する車番認識処理部
と、前記カメラを設置した地名を入力する地名入力手段
と、前記設置地名とその設置地名における陸運支局コー
ドの最大頻度を示す地名を記憶する変換テーブルと、前
記車番認識部から得られた陸運支局コードの認識結果が
曖昧な場合は、前記地名入力手段から入力された地名に
該当する前記変換テーブル中の最大頻度地名を認識結果
として出力する認識結果変換処理部を設けたことを特徴
とする車番認識装置。
8. A TV camera for photographing a license plate of a vehicle, a car number recognition processing unit for processing a video signal from the TV camera to recognize characters on the license plate, and a place name where the camera is installed are input. The place name input means, a conversion table that stores the place name indicating the maximum frequency of the Land Transport Office code in the installation place name and the installation place name, and the recognition result of the Land Transport Office code obtained from the vehicle number recognition unit is ambiguous The vehicle number recognition device, further comprising: a recognition result conversion processing unit that outputs a maximum frequency place name in the conversion table corresponding to the place name input from the place name input means as a recognition result.
【請求項9】車両のナンバープレートを撮影するテレビ
カメラと、当該テレビカメラからの映像信号を処理して
ナンバープレート上の文字を認識する車番認識処理部
と、前記カメラを設置した地名を入力する地名入力手段
と、前記設置地名とその設置地名における陸運支局コー
ドの出現頻度の多い地名を少なくとも1以上記憶する頻
度テーブルと、前記車番認識部から得られた陸運支局コ
ードの認識結果が前記頻度テーブル中の頻度地名に一致
していない場合あるいは認識不能と判断した場合は、車
番認識処理部で処理した画像を入力画像表示装置に表示
すると共に、カテゴリ入力部からその入力画像に撮影さ
れている陸運支局コードの地名あるいは地名コード番号
を入力し、前記車番認識処理部で求めた陸運支局コード
の特徴量と当該地名に相当するデータを学習データとし
て学習データ記憶部に記憶する学習データ判断部を設け
たことを特徴とする車番認識装置。
9. A TV camera for photographing a license plate of a vehicle, a car number recognition processing unit for processing a video signal from the TV camera to recognize characters on the license plate, and a place name where the camera is installed are input. A place name input means, a frequency table for storing at least one place name with a high frequency of occurrence of land transportation office code in the installation place name, and the recognition result of the land transportation office code obtained from the vehicle number recognition unit If it does not match the frequency place name in the frequency table, or if it is determined that it cannot be recognized, the image processed by the vehicle number recognition processing unit is displayed on the input image display device, and the input image is captured from the category input unit. Enter the place name or place name code number of the Land Transport Office code that is present, and the feature amount of the Land Transport Office code obtained by the vehicle number recognition processing unit and the place name. Corresponding vehicle number recognition apparatus characterized in that a learning data determination unit to be stored in the learning data storage unit as the learning data data.
JP5006445A 1993-01-19 1993-01-19 Car number recognition device Expired - Fee Related JP2903923B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5006445A JP2903923B2 (en) 1993-01-19 1993-01-19 Car number recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5006445A JP2903923B2 (en) 1993-01-19 1993-01-19 Car number recognition device

Publications (2)

Publication Number Publication Date
JPH06215293A true JPH06215293A (en) 1994-08-05
JP2903923B2 JP2903923B2 (en) 1999-06-14

Family

ID=11638615

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5006445A Expired - Fee Related JP2903923B2 (en) 1993-01-19 1993-01-19 Car number recognition device

Country Status (1)

Country Link
JP (1) JP2903923B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006018339A (en) * 2004-06-30 2006-01-19 Hitachi Ltd License plate recognition device and method
WO2006126348A1 (en) * 2005-05-02 2006-11-30 Calsonic Kansei Corp. Number recognizing device, and recognition method therefor
JP2007531094A (en) * 2004-03-23 2007-11-01 リアルアイズスリーディー A method for extracting original data from images obtained from camera photographs
JP2008108063A (en) * 2006-10-25 2008-05-08 Hitachi Ltd Vehicle recognition device
JP2009004888A (en) * 2007-06-19 2009-01-08 Noritsu Koki Co Ltd Image correction method and image correction device
JP2011113440A (en) * 2009-11-30 2011-06-09 Fujitsu Ltd Number plate recognition program and number plate recognition device
US8059868B2 (en) 2007-03-02 2011-11-15 Canon Kabushiki Kaisha License plate recognition apparatus, license plate recognition method, and computer-readable storage medium
WO2014129016A1 (en) * 2013-02-25 2014-08-28 三菱重工業株式会社 Character recognition device, character recognition method, and recording medium
JP5988184B1 (en) * 2016-01-18 2016-09-07 株式会社大都製作所 Parking lot management system
JP6535860B1 (en) * 2018-01-29 2019-07-03 ファーストアカウンティング株式会社 Journal element analysis device, accounting processor, journal element analysis method, journal element analysis program
JP2019135669A (en) * 2018-01-29 2019-08-15 ファーストアカウンティング株式会社 Classification element analysis device, accounting processor, classification element analysis method, and classification element analysis program
JP2020144595A (en) * 2019-03-06 2020-09-10 三菱電機株式会社 Pattern learning system, pattern learning method and pattern learning program
US11113519B2 (en) 2018-07-27 2021-09-07 Fujitsu Limited Character recognition apparatus, character recognition program, and character recognition method

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007531094A (en) * 2004-03-23 2007-11-01 リアルアイズスリーディー A method for extracting original data from images obtained from camera photographs
JP2006018339A (en) * 2004-06-30 2006-01-19 Hitachi Ltd License plate recognition device and method
WO2006126348A1 (en) * 2005-05-02 2006-11-30 Calsonic Kansei Corp. Number recognizing device, and recognition method therefor
JP2008108063A (en) * 2006-10-25 2008-05-08 Hitachi Ltd Vehicle recognition device
US8059868B2 (en) 2007-03-02 2011-11-15 Canon Kabushiki Kaisha License plate recognition apparatus, license plate recognition method, and computer-readable storage medium
JP2009004888A (en) * 2007-06-19 2009-01-08 Noritsu Koki Co Ltd Image correction method and image correction device
JP2011113440A (en) * 2009-11-30 2011-06-09 Fujitsu Ltd Number plate recognition program and number plate recognition device
JP2014164529A (en) * 2013-02-25 2014-09-08 Mitsubishi Heavy Ind Ltd Character recognition device, character recognition method, and program
WO2014129016A1 (en) * 2013-02-25 2014-08-28 三菱重工業株式会社 Character recognition device, character recognition method, and recording medium
JP5988184B1 (en) * 2016-01-18 2016-09-07 株式会社大都製作所 Parking lot management system
JP2017130174A (en) * 2016-01-18 2017-07-27 株式会社大都製作所 Parking lot management system
JP6535860B1 (en) * 2018-01-29 2019-07-03 ファーストアカウンティング株式会社 Journal element analysis device, accounting processor, journal element analysis method, journal element analysis program
WO2019146117A1 (en) * 2018-01-29 2019-08-01 ファーストアカウンティング株式会社 Journal element analysis device, accounting processing device, journal element analysis method and journal element analysis program
JP2019135669A (en) * 2018-01-29 2019-08-15 ファーストアカウンティング株式会社 Classification element analysis device, accounting processor, classification element analysis method, and classification element analysis program
US11113519B2 (en) 2018-07-27 2021-09-07 Fujitsu Limited Character recognition apparatus, character recognition program, and character recognition method
JP2020144595A (en) * 2019-03-06 2020-09-10 三菱電機株式会社 Pattern learning system, pattern learning method and pattern learning program

Also Published As

Publication number Publication date
JP2903923B2 (en) 1999-06-14

Similar Documents

Publication Publication Date Title
Al-Ghaili et al. Vertical-edge-based car-license-plate detection method
US6754369B1 (en) License plate reading apparatus and method
US4757551A (en) Character recognition method and system capable of recognizing slant characters
EP2783328B1 (en) Text detection using multi-layer connected components with histograms
CN107045634B (en) Text positioning method based on maximum stable extremum region and stroke width
CN106815583B (en) Method for positioning license plate of vehicle at night based on combination of MSER and SWT
JP2903923B2 (en) Car number recognition device
Khalifa et al. Malaysian Vehicle License Plate Recognition.
Herwanto et al. Zoning feature extraction for handwritten Javanese character recognition
JPH09311905A (en) Line detecting method and character recognition device
Hommos et al. Hd Qatari ANPR system
JP4224328B2 (en) Car number recognition device
CN110363192B (en) Object image identification system and object image identification method
KR100295360B1 (en) Image Processing Method Using Shading Algorithm
JP3268552B2 (en) Area extraction method, destination area extraction method, destination area extraction apparatus, and image processing apparatus
JP2005250786A (en) Image recognition method
Chowdhury et al. Projection Profile based Number Plate Localization and Recognition
JP3113769B2 (en) Character recognition device
CN111241862A (en) Bar code positioning method based on edge characteristics
JP2001126027A (en) Number plate recognition system
JPH10261047A (en) Character recognition device
Al-Ghaili et al. Car license plate detection method for malaysian plates-styles by using a web camera
CN117115701A (en) Platform truck operation behavior identification method for customs auxiliary management
JP3104355B2 (en) Feature extraction device
JP2670074B2 (en) Vehicle number recognition device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090326

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090326

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100326

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110326

Year of fee payment: 12

LAPS Cancellation because of no payment of annual fees