WO2016068325A1 - 文字認識装置、文字認識方法、およびプログラム - Google Patents

文字認識装置、文字認識方法、およびプログラム Download PDF

Info

Publication number
WO2016068325A1
WO2016068325A1 PCT/JP2015/080821 JP2015080821W WO2016068325A1 WO 2016068325 A1 WO2016068325 A1 WO 2016068325A1 JP 2015080821 W JP2015080821 W JP 2015080821W WO 2016068325 A1 WO2016068325 A1 WO 2016068325A1
Authority
WO
WIPO (PCT)
Prior art keywords
character
image
deterioration
dictionary
character recognition
Prior art date
Application number
PCT/JP2015/080821
Other languages
English (en)
French (fr)
Inventor
秀人 濱走
相澤 知禎
匡史 日向
Original Assignee
オムロン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オムロン株式会社 filed Critical オムロン株式会社
Priority to EP15855057.4A priority Critical patent/EP3214580B1/en
Priority to CN201580039458.0A priority patent/CN106663212B/zh
Priority to US15/327,381 priority patent/US10049309B2/en
Publication of WO2016068325A1 publication Critical patent/WO2016068325A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/242Division of the character sequences into groups prior to recognition; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Definitions

  • the present invention relates to character recognition processing, and more particularly to character recognition processing capable of recognizing degraded character images at high speed.
  • OCR optical character recognition
  • a license plate recognition system that recognizes characters drawn by photographing a license plate posted on a vehicle traveling on a road with a camera.
  • cameras were installed above the road for each lane, but recently, cameras with fixed installation on poles built on the roadside have appeared in view of restrictions on equipment conditions and costs. ing.
  • the distance from the camera differs depending on the lane, so the number of the license plate in the lane near the camera and the size of the license plate in the lane far from the camera are different It becomes.
  • the character image in the license plate of the far lane becomes small, and the character image may be deteriorated by the normalization process.
  • Patent Document 1 is a technique for recognizing a deteriorated character image.
  • Patent Document 1 discloses that dictionaries having various deterioration levels are created in advance, and the deterioration level of a dictionary to be used is determined based on the similarity between a character image to be recognized and a test sample having the same deterioration level. is doing.
  • Patent Document 1 has the following problems.
  • a dictionary to be used is determined based on a test sample. Therefore, in the case where there is a variation in the size and blur of the image to be recognized, such as recognition of a character image in a vehicle license plate in an outdoor environment, and the optimal dictionary deterioration level varies from image to image or from character to character. Is difficult to determine, and the determined dictionary may not be the optimal dictionary.
  • the present invention has been made in view of the above circumstances, and it is an object of the present invention to provide a technique capable of accurately and rapidly recognizing a deteriorated character image.
  • the present invention has the following configuration.
  • storage means for storing a plurality of dictionary databases corresponding to a plurality of deterioration levels generated from images obtained by degrading an original character image at a plurality of different deterioration levels, and image input
  • An image input unit that receives the image, an extraction unit that extracts a character image from the image, a use order determination unit that determines a use order of the plurality of dictionary databases based on a degree of deterioration of the extracted character image, and the use Character recognition means for recognizing characters included in the extracted character image using a dictionary database according to the order, and when the recognition result does not satisfy a predetermined condition, the dictionary database of the next usage order is used When character recognition is performed and the recognition result satisfies the predetermined condition, the recognition is performed without performing recognition using the dictionary database of the next usage order.
  • Character recognition means for outputting the result, a character recognition device comprising a.
  • the use order determining means in the present invention stores a correspondence relationship between the deterioration degree of the character image and the dictionary database in advance and determines the use order using the correspondence relationship.
  • the use order determining means in the present invention is obtained as a method of obtaining a deterioration level corresponding to the degree of deterioration of the character image from the correspondence relationship and first using a dictionary database corresponding to the obtained deterioration level. It is also preferable that the order of use is determined as one used in order from a dictionary database corresponding to a deterioration level close to the deterioration level.
  • the correspondence relationship is generated based on a result of collating a plurality of test images using all dictionary databases corresponding to the plurality of deterioration levels.
  • the dictionary database that is expected to be correctly recognized is determined to be used earlier, so that the recognition result satisfies a predetermined condition at an early stage. Satisfaction can be expected and the processing speed can be further increased.
  • the predetermined condition may include a condition that the highest collation score in character recognition using the dictionary database is equal to or greater than a predetermined threshold.
  • the predetermined condition may include a condition that a difference between the highest collation score and the second highest collation score in character recognition using the dictionary database is equal to or greater than a predetermined threshold.
  • the deterioration degree of the character image is determined based on how small the character size included in the character image extracted by the extracting means is compared with the size after the normalization process. Is preferred. Further, in the normalization process, the character image is transformed into a square having a predetermined size, and the deterioration degree of the character image is determined based on the length of one side of the square by the length of the character image extracted by the extraction unit. It is also preferable that it is determined based on a value obtained by subtracting the larger of the size or the lateral size. In character recognition, recognition processing is performed by normalizing the size of the extracted character image. If the size of the extracted character image is smaller than the size after normalization, normalization processing (enlargement processing) The character image deteriorates. Therefore, the degree of deterioration of the character image can be determined based on the size of the character image before normalization processing.
  • the deterioration of the character image also occurs due to blurring, character blurring, character crushing, and noise superimposition. Therefore, as the degree of deterioration of the character image, a value obtained by evaluating the amount of blur, the character blurring state, the character crushing state, the noise superimposing amount, or the like can be adopted.
  • the image includes at least a part of a vehicle
  • the extraction unit extracts characters drawn on a license plate posted on the vehicle as the character image from the image.
  • the present invention can be understood as a character recognition device including at least a part of the above means.
  • the present invention can also be understood as a character recognition method.
  • it can also be grasped as a computer program for causing a computer to execute each step of these methods, or a computer-readable storage medium storing the program in a non-temporary manner.
  • a deteriorated character image can be recognized accurately and at high speed.
  • FIG. 1 It is a block diagram which shows the hardware constitutions and functional structure of the character recognition apparatus concerning embodiment.
  • the flowchart which shows the flow of the preparation process of a deterioration dictionary.
  • the flowchart which shows the whole flow of a character recognition process.
  • the flowchart which shows the detailed flow of the character recognition process with respect to one extracted character.
  • the character recognition device is a device that can recognize with high accuracy and high speed even when the size of characters in an input image is smaller than a predetermined normalized size.
  • the size of the character image for one character
  • the character image becomes blurred due to the enlargement process at the time of conversion to the normalized size, and the character recognition accuracy decreases.
  • the size of the character image in the input image is preferably equal to or larger than the normalized size, and it can be said that the character image smaller than the normal size is deteriorated. In the present embodiment, even a character image having such deterioration can be recognized with high accuracy and at high speed.
  • FIG. 1A is a diagram illustrating a hardware configuration of the character recognition device 10 according to the present embodiment.
  • the character recognition device 10 includes an image input unit 11, a calculation device 12, a storage device 13, an input device 14, an output device 15, and a communication device 16.
  • the image input unit 11 is an interface that receives image data from the camera 20. In the present embodiment, the image data is directly received from the camera 20, but the image data may be received via the communication device 16 or the image data may be received via a recording medium.
  • the arithmetic device 12 is a general-purpose processor such as a CPU, and executes a program stored in the storage device 13 to realize processing to be described later.
  • the storage device 13 includes a main storage device and an auxiliary storage device, stores a program executed by the arithmetic device 12, and stores image data and temporary data during execution of the program.
  • the input device 14 includes a keyboard and a mouse, and is a device for a user to input an instruction to the character recognition device.
  • the output device 15 includes a display device, a speaker, and the like, and is a device for the character recognition device to output to the user.
  • the communication device 16 is a device for the character recognition device 10 to communicate with an external computer. The form of communication may be wired or wireless, and the communication standard may be arbitrary.
  • the arithmetic unit 12 implements the function shown in FIG. 1B by executing a program. That is, the arithmetic unit 12 implements functional units of a character extraction unit 110, a character recognition unit 111, and a character recognition dictionary database 116.
  • the character recognition unit 111 includes a deterioration degree evaluation unit 112, a usage order determination unit 113, a feature amount acquisition unit 114, and a collation unit 115. The processing content of each part will be described below.
  • the character recognition dictionary database 116 stores a plurality of deterioration level dictionaries (character recognition databases). As shown in FIG. 2, each deterioration level dictionary is generated from an image obtained by degrading a clear character image (original character image) at each deterioration level. For example, the original character image is a clear image of 65 ⁇ 65 pixels. In the figure, only one image is shown for one character, but actually, a plurality of images for one character are used for creating a dictionary.
  • the character recognition device 10 itself may execute this dictionary creation processing, or another device may execute this dictionary creation processing and store the created dictionary data in the character recognition dictionary database 116. Good.
  • the degradation level of the dictionary to be created is designated (S10).
  • S10 the degradation level of the dictionary to be created.
  • S11 a target character for creating a dictionary.
  • the order of character designation may be arbitrary.
  • step S12 conversion processing (hereinafter referred to as degradation processing) for degrading the original character image of the designated character is performed at the designated degradation level (if the designated degradation level is 0, nothing is performed). Absent). Since there are a plurality of original character images for the character designated as described above, conversion processing is performed for all of them.
  • blurring processing blur addition processing in which each pixel value is replaced with an average value (simple average or weighted average) of pixel values of surrounding pixels is employed as the conversion processing.
  • the deterioration level corresponds to the blur intensity in the blur process.
  • other conversion processes may be employed as long as the process can add blur to the image.For example, a reduction process is performed on the size according to the degradation level, and then an enlargement process is performed to restore the original size. Also good.
  • each character image subjected to the deterioration process is converted into a predetermined normalized size.
  • the normalization is converted into a square of 50 ⁇ 50 pixels.
  • the size of the original image is larger than the normalized size, but the size of the original image and the normalized size may be the same.
  • the character size conversion process can be executed by any known algorithm such as bilinear interpolation, bicubic interpolation, or nearest neighbor interpolation. If the character image is not a square and is a rectangle with different vertical and horizontal lengths, it is converted to enlargement or reduction while maintaining the aspect ratio so that the longer of the vertical and horizontal directions becomes the normalized size. The result may be placed in the center of the image. At this time, the average value of the luminance values of the outer peripheral pixels may be calculated and set from the character image as the conversion result as the luminance value of the pixels in the margin portion.
  • a character feature amount (feature amount vector) representing a character feature is acquired from each character image after the deterioration process and the normalization process.
  • a method for acquiring character features a pixel feature extraction method, a contour feature extraction method, a gradient feature extraction method, and the like are widely used, but any character feature extraction method may be used.
  • the direction of the contour line for each pixel may be represented by a chain code, and a histogram of the chain code in each small area may be used as the character feature amount, or the sum of the pixel values for each small region may be used as the character feature amount.
  • step S15 dictionary data for identifying the designated character is created using the plurality of character feature values acquired in step S14.
  • the dictionary is used to calculate the similarity between the input character (character feature amount) and the character (character feature amount) targeted by the dictionary.
  • a dictionary created using a character feature amount acquired from a character image after deterioration processing is called a deterioration dictionary. Any known method such as a subspace method, neural network, support vector machine (SVM), or discriminant analysis can be used as a character recognition method.
  • a dictionary can be created by a known method according to the method used. .
  • step S16 it is determined whether or not dictionary creation has been completed for all characters at the degradation level. If not, the process returns to step S11 to create a dictionary for unprocessed characters.
  • step S17 it is determined whether dictionary creation for all degradation levels is completed. If not completed, the process returns to step S10 to create a dictionary for the unprocessed degradation level.
  • FIG. 4 is a flowchart showing an overall flow of character recognition processing performed by the character recognition device 10.
  • the character recognition device 10 acquires image data in which characters are captured from the camera 20 via the image input unit 11.
  • the character extraction unit 110 extracts a character string from the received image, and further extracts a character image character by character from the character string. In the character extraction process, it is preferable to perform linear conversion so as to correct the inclination of the character and extract a rectangular character area having no inclination.
  • the character recognizing unit 111 collates the extracted character with each character in the dictionary in the character recognition dictionary database 116, and recognizes a character included in the extracted character image.
  • a character image means an image of an area extracted as one character.
  • step S220 the deterioration degree evaluation unit 112 calculates the deterioration degree from the character image.
  • the deterioration degree of a character image represents that deterioration is so large that a numerical value is large.
  • FIG. 6 is a diagram showing the character image extracted in step S21.
  • the character image is rectangular, and its horizontal size (number of pixels) is w and vertical size (number of pixels) is h. In the processing so far, it is assumed that processing for correcting the inclination of characters has been performed.
  • the processing for converting the size of the image is not performed, and the sizes w and h are the same as those on the input image.
  • R 0 is the length (number of pixels) of one side of the square normalized image, and is 50 pixels in this embodiment.
  • Max is a function representing the maximum value. When max (w, h) is larger than R0 , the degree of degradation r is zero.
  • the deterioration degree in the present embodiment evaluates how small the size of the character image is compared with the size after normalization. If such an evaluation is possible, the degree of deterioration may be determined by a method other than the above. For example, the difference between the length of one side of the normalized image size and the length of one side regardless of the size relationship between the horizontal size and the vertical size may be used as the degree of deterioration. Alternatively, the degree of deterioration may be a value obtained by subtracting the area of the character image from the area of the normalized image.
  • the usage order determination unit 113 determines the usage order (priority order) of the dictionary based on the degree of deterioration of the character image.
  • the use order determining unit 113 stores in advance the correspondence between the deterioration level of the character image and the deterioration level of the dictionary, which indicates which deterioration level dictionary should be used according to the deterioration degree of the character image, as shown in FIG. is doing.
  • the use order determining unit 113 obtains a deterioration level corresponding to the degree of deterioration calculated in step S220 from this correspondence, and determines the dictionary of the obtained deterioration level as a dictionary to be used first.
  • the use order of the dictionaries is determined so that the dictionaries having deterioration levels close to the deterioration levels corresponding to the calculated deterioration degrees are used in order.
  • the distance between the deterioration levels may be defined by an appropriate measure, and in this embodiment, the difference between the deterioration levels (numerical values) is set as the distance between the deterioration levels.
  • the dictionary with the lower deterioration level is used. Is used first.
  • a deterioration level dictionary in which a difference from a deterioration level obtained from the deterioration degree of a character image is a predetermined value or more may not be used for character recognition. This is because there is a high possibility that accurate recognition cannot be performed if the difference in deterioration level is large.
  • the correspondence relationship can be created, for example, by performing collation using a test sample (test image) in advance. Specifically, the test samples of various deterioration levels (image sizes) and all the deterioration level dictionaries are collated with brute force, and the correspondence between the deterioration degree and the deterioration level is obtained based on the accuracy of the collation result. be able to. That is, the deterioration level of the dictionary that can most accurately identify a test sample having a certain degree of deterioration as a whole can be determined as the deterioration level corresponding to the degree of deterioration. Correspondence can also be determined theoretically. For example, the correspondence between the degree of deterioration and the deterioration level can be obtained according to how much the original character image is blurred when creating the deterioration dictionary.
  • step S223 the feature amount acquisition unit 114 acquires a character feature amount from the character image. Since the character feature amount acquisition process is the same as the process at the time of dictionary creation process, repeated description is omitted. Note that it is preferable to normalize the size, position, thickness, inclination, and the like before extracting the character feature amount so as to minimize the variation of the character. In particular, in the normalization processing of the character image size, the same size as the normalization size (50 ⁇ 50 pixels in the present embodiment) at the time of creating the dictionary is converted.
  • the collation unit 115 collates the dictionary with the characters in the order of use determined in step S221 and outputs a recognition result.
  • step S224 1 is substituted into the variable i.
  • step S225 the input character is collated with each character in the dictionary by using the i-th dictionary.
  • a similarity (collation score) between each character in the dictionary whose use order is i-th and the input character is obtained.
  • the character that gives the highest matching score is the input character identification result.
  • the collation unit 115 determines whether the obtained identification result is a reliable result.
  • the matching score obtained in step S225 satisfies a predetermined condition.
  • a predetermined condition for example, a condition that the highest matching score is a predetermined threshold value or more, or a condition that a difference between the highest matching score and the second highest matching score is a predetermined threshold value or more is adopted. it can.
  • the process proceeds to step S228, and the collation unit 115 determines the character that gives the highest collation score as the input character. Output as recognition result.
  • step S227 the variable i is incremented and collation is performed using the dictionary of the next usage order. If reliable results are not obtained even if collation is performed using dictionaries of all deterioration levels, an error indicating that character recognition cannot be performed may be returned. The identification result of the input character may be determined based on this.
  • the highest matching score is 81 points, which satisfies the above conditions. Therefore, the character “ki” giving the highest matching score is output as the recognition result.
  • the description is focused on the processing when the character image is deteriorated.
  • the character recognition device can recognize the character image that has not deteriorated with high accuracy and at high speed. If the character image is not degraded, it is determined that a dictionary with a degradation level of 0 is used first, and the identification result using this dictionary is expected to be reliable. Can be obtained.
  • the case where the size of the input character image is small has been described as an example of the cause of the deterioration of the input character image from the ideal state.
  • the deterioration of the input character image also occurs due to other causes.
  • the deterioration also occurs due to defocusing, blurring of characters, crushing of characters, superimposition of noise, and the like. Even when these deteriorations occur, character recognition can be performed with high accuracy and high speed by the same method as in the above embodiment.
  • the original character image is subjected to multiple intensity (degradation level) blurring processing, and a degradation dictionary is created from each of them to evaluate the blurring (degradation level) of the input character image.
  • the collation order of the dictionaries may be determined in the usage order according to the degree of blur.
  • noise superposition as an example, Gaussian noise is added to the original character image, a degraded image is created from each, the amount of noise in the input character image is evaluated, and the dictionary is sorted in the order of use according to the amount of noise. What is necessary is just to determine a collation order.
  • the noise amount is calculated as a standard deviation value when the frequency reaches a peak using a standard deviation calculated from a plurality of local regions of the input character image as a histogram. Can be obtained.
  • a deterioration dictionary is created by subjecting an original character image to two deterioration processes, a blur addition process and a blur addition process. At this time, deterioration processing is performed by combining a plurality of blur-added strengths and blur-added strengths, and respective deterioration dictionaries are created. Then, the deterioration dictionary may be used in the order of use determined based on the size of the input character image and the degree of blur.
  • the character recognition device can be mounted on an arbitrary device such as a desktop computer, a notebook computer, a slate computer, or a smartphone terminal.
  • each function of the character recognition device described above does not have to be executed by one device, and a plurality of devices may share and execute each function.
  • the character recognition device of the present invention can be applied to a license plate recognition system.
  • the license plate recognition system includes, for example, a camera (imaging device) installed on a pole built on the roadside and the character recognition device described above, and the camera photographs at least a part of the vehicle on the road. Then, the character recognition device extracts and recognizes the characters drawn on the license plate posted on the vehicle from the captured image. According to such a license plate recognition system, even when the vehicle is far away from the camera and only a small character image can be obtained, the characters drawn on the license plate attached to the vehicle can be accurately and fast. Can be recognized.
  • Character recognition apparatus 110 Character extraction part 111: Character recognition part 112: Degradation degree evaluation part 113: Usage order determination part 114: Feature-value acquisition part 115: Collation part 116: Dictionary database for character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Character Discrimination (AREA)
  • Character Input (AREA)

Abstract

文字認識装置は、オリジナル文字画像を複数の異なる劣化レベルで劣化させた画像から生成された、複数の劣化レベルにそれぞれ対応する複数の辞書データベースを記憶する記憶手段と、画像の入力を受け付ける画像入力手段と、前記画像から文字画像を抽出する抽出手段と、抽出された文字画像の劣化度に基づいて、前記複数の劣化レベルに対応する辞書データベースの利用順序を決定する利用順序決定手段と、前記利用順序にしたがって辞書データベースを用いて、前記抽出された文字画像に含まれる文字の認識を行い、当該文字認識における認識結果が所定の条件を満たした場合に、次の利用順序の辞書データベースを用いた認識を行わずに認識結果を出力する文字認識手段と、を備える。これにより、劣化した文字画像を精度よくかつ高速に認識できる。

Description

文字認識装置、文字認識方法、およびプログラム
 本発明は、文字認識処理に関し、特に、劣化した文字画像を高速に認識可能な文字認識処理に関する。
 手書きや印刷された文字を光学的に読み取って認識する光学文字認識(OCR)における課題の一つとして、劣化した文字画像を精度良く認識することがある。文字認識処理では、認識対象の文字画像のサイズが十分大きく、ピンぼけや、かすれ、つぶれ、ノイズなどがない理想的な状態であると認識の精度が高い。しかしながら、文字画像のサイズが小さかったり、ピンぼけや、かすれ、つぶれ、ノイズが存在したりすると、文字の認識精度が低下してしまう。例えば、文字画像のサイズが小さいと、正規化処理により文字サイズが拡大されぼけが発生するため、理想的な文字画像から作成された辞書を用いた文字認識の精度が低下してしまう。このように認識対象の文字画像が理想的な状態から外れた場合は、文字画像が劣化しているといえる。
 例えば、OCRの応用として、道路を走行する車両に掲示されたナンバープレートをカメラで撮影して描かれている文字を認識するナンバープレート認識システムが知られている。従来は車線ごとにカメラを道路上方に設置するものが主流であったが、近年、設備条件の制約やコストの観点から、道路路側に建てられたポール上にカメラを固定設置するものが登場している。複数車線の道路で道路路側に設置する方式を用いた場合、車線によってカメラからの距離が異なるので、カメラに近い車線のナンバープレートの大きさと、カメラから遠い車線のナンバープレートの大きさは異なるものとなる。遠い車線のナンバープレート中の文字画像が小さくなり、正規化処理によって文字画像の劣化が生じ得る。
 劣化した文字画像に対する認識の手法として、特許文献1が挙げられる。特許文献1では、あらかじめ様々な劣化レベルの辞書を作成しておき、認識対象の文字画像と同じ劣化レベルのテストサンプルとの類似度を元に、利用する辞書の劣化レベルを決定することを開示している。
特開2006-59351号公報 国際公開第2012/173205号明細書
 しかしながら、特許文献1の手法では次のような問題がある。この手法では、テストサンプルをもとに利用する辞書を決定する。したがって、屋外環境における車両ナンバープレート中の文字画像の認識のように、認識対象画像のサイズやぼけ具合にばらつきがあり、画像ごとあるいは文字ごとに最適な辞書の劣化レベルが異なるケースにおいては、辞書の決定が難しく、また決定された辞書が最適な辞書ではないこともある。
 この問題を解決する手法として、作成した様々な劣化レベルの辞書に対して総当たりで認識を行うことが考えられる。しかしながら、入力された文字画像に対する照合回数が増大し(一つの辞書に含まれる文字数をk、劣化辞書の数をnとすると、k×n回の照合が必要となる)、処理時間が増大してしまう。
 本発明は上記実情に鑑みなされたものであって、劣化した文字画像を精度よくかつ高速に認識可能とする技術を提供することにある。
 上記目的を達成するため本発明は、以下の構成を有する。
 本発明の第一の態様は、オリジナル文字画像を複数の異なる劣化レベルで劣化させた画像から生成された、複数の劣化レベルにそれぞれ対応する複数の辞書データベースを記憶する記憶手段と、画像の入力を受け付ける画像入力手段と、前記画像から文字画像を抽出する抽出手段と、抽出された文字画像の劣化度に基づいて、前記複数の辞書データベースの利用順序を決定する利用順序決定手段と、前記利用順序にしたがって辞書データベースを用いて前記抽出された文字画像に含まれる文字の認識を行う文字認識手段であって、認識結果が所定の条件を満たさない場合は次の利用順序の辞書データベースを用いた文字認識を行い、認識結果が前記所定の条件を満たす場合は次の利用順序の辞書データベースを用いた認識を行わずに当該認識結果を出力する文字認識手段と、を備える文字認識装置である。
 このような構成によれば、複数の劣化レベルの辞書データベースを保有しているため劣化した文字画像の認識を精度良く行える。さらに、全ての辞書データベースを用いた認識処理を行う必要がなく、認識結果が所定の条件を満たした時点で認識処理を終了するので、全ての劣化レベルの辞書データベースを用いて認識を行う場合よりも高速な文字認識が可能となる。
 また、本発明における前記利用順序決定手段は、前記文字画像の劣化度と前記辞書データベースの対応関係をあらかじめ記憶しており、当該対応関係を用いて前記利用順序を決定する、ことが好ましい。
 また、本発明における前記利用順序決定手段は、前記文字画像の劣化度に対応する劣化レベルを前記対応関係から求め、求められた劣化レベルに対応する辞書データベースを最初に利用するものとして、求められた劣化レベルに近い劣化レベルに対応する辞書データベースから順番に利用するものものとして、前記利用順序を決定する、ことも好ましい。
 また、前記対応関係は、複数のテスト画像を前記複数の劣化レベルに対応する全ての辞書データベースを用いて照合を行った結果に基づいて生成される、ことが好ましい。
 このような構成によれば、認識対象の文字画像の劣化度に応じて、正しく認識ができると期待される辞書データベースほど早い利用順序として決定されるので、早い段階で認識結果が所定の条件を満足することが期待でき更に処理の高速化が実現できる。
 また、前記所定の条件は、前記辞書データベースを用いた文字認識における最も高い照合スコアが所定の閾値以上という条件を含むものとすることができる。
 また、前記所定の条件は、前記辞書データベースを用いた文字認識における最も高い照合スコアと2番目に高い照合スコアとの差が所定の閾値以上という条件を含むものとすることができる。
 このような条件を満たせば文字認識の信頼性が高いといえるので、信頼性の低い識別結果を出力することを回避でき、処理の高速化と認識精度の向上とを両立させることができる。
 また、前記文字画像の劣化度は、前記抽出手段によって抽出された文字画像に含まれる文字の大きさが、正規化処理後の大きさと比較してどれだけ小さいかに基づいて決定される、ことが好ましい。さらに、前記正規化処理では、文字画像を所定の大きさを有する正方形に変形し、前記文字画像の劣化度は、前記正方形の一辺の長さから、前記抽出手段によって抽出された文字画像の縦サイズまたは横サイズの大きい方を引いた値に基づいて決定される、ことも好ましい。文字認識においては、抽出された文字画像のサイズを正規化して認識処理が行われ、抽出された文字画像のサイズが正規化後のサイズよりも小さい場合には、正規化処理(拡大処理)によって文字画像が劣化する。したがって、正規化処理前の文字画像のサイズに基づいて文字画像の劣化度を決定することができる。
 また、文字画像の劣化は、抽出された文字画像の大きさが正規化サイズよりも小さい場合以外に、ぼけの発生、文字のかすれ、文字のつぶれ、ノイズの重畳によっても発生する。したがって、文字画像の劣化度として、ぼけ量の大きさ、文字のかすれ具合、文字のつぶれ具合、ノイズの重畳量などを評価した値を採用することもできる。
 また、前記画像は、車両の少なくとも一部分を含み、前記抽出手段は、前記画像から前記車両に掲示されているナンバープレート上に描かれた文字を前記文字画像として抽出する、ことも好ましい。
 なお、本発明は、上記手段の少なくとも一部を含む文字認識装置として捉えることができる。また、本発明は、文字認識方法として捉えることもできる。また、これらの方法の各ステップをコンピュータに実行させるためのコンピュータプログラムや、当該プログラムを非一時的に記憶したコンピュータ読取可能な記憶媒体として捉えることもできる。上記構成および処理の各々は技術的な矛盾が生じない限り互いに組み合わせて本発明を構成することができる。
 本発明によれば、劣化した文字画像を精度よくかつ高速に認識可能となる。
実施形態にかかる文字認識装置のハードウェア構成および機能構成を示すブロック図である。 劣化辞書の作成処理を説明する図。 劣化辞書の作成処理の流れを示すフローチャート。 文字認識処理の全体の流れを示すフローチャート。 抽出された1文字に対する文字認識処理の詳細な流れを示すフローチャート。 文字画像の劣化度を説明する図。 劣化度と辞書の劣化レベルの対応表、および利用順序決定アルゴリズムを説明する図。 文字認識処理における識別結果の信頼性判定処理を説明する図。
 以下に図面を参照して、この発明を実施するための好ましい形態を例示的に詳しく説明する。ただし、以下の実施形態に記載されている構成部品の寸法、材質、形状、その相対配置などは、特に記載がない限りは、この発明の範囲をそれらのみに限定する趣旨のものではない。
(第1の実施形態)
 本実施形態に係る文字認識装置は、入力画像中の文字の大きさが所定の正規化サイズよりも小さい場合でも精度良くかつ高速に認識可能な装置である。文字画像(一文字分)の大きさが正規化サイズよりも小さい場合は、正規化サイズに変換する際の拡大処理によって文字画像がぼけた画像となり、文字の認識精度が低下する。入力画像中の文字画像の大きさは、正規化サイズ以上であることが望ましく、正規サイズよりも小さい文字画像は劣化しているといえる。本実施形態では、このような劣化が生じている文字画像であっても、精度良くかつ高速に認識可能とする。
 <構成>
 図1(a)は、本実施形態に係る文字認識装置10のハードウェア構成を示す図である。文字認識装置10は、画像入力部11、演算装置12、記憶装置13、入力装置14、出力装置15、通信装置16を含む。画像入力部11は、カメラ20から画像データを受け取るインタフェースである。なお本実施形態ではカメラ20から直接画像データを受け取っているが、通信装置16を介して画像データを受け取ったり、記録媒体を経由して画像データを受け取ったりしてもよい。演算装置12は、CPUなどの汎用のプロセッサであり、記憶装置13に格納されたプログラムを実行して、後述する処理を実現する。記憶装置13は、主記憶装置および補助記憶装置を含み、演算装置12によって実行されるプログラムを格納するとともに、画像データやプログラム実行中の一時データを格納する。入力装置14は、キーボードやマウスなどからなり、ユーザが文字認識装置に指示を入力するための装置である。出力装置15は、表示装置やスピーカーなどからなり、文字認識装置がユーザに対する出力を行うための装置である。通信装置16は、文字認識装置10が外部のコンピュータと通信を行うための装置である。通信の形態は、有線であっても無線であってもよく、通信規格は任意であってよい。
 演算装置12は、プログラムを実行することにより、図1(b)に示すような機能を実現する。すなわち、演算装置12は、文字抽出部110、文字認識部111、文字認識用辞書データベース116の機能部を実現する。文字認識部111は、劣化度評価部112、利用順序決定部113、特徴量取得部114、照合部115を含む。各部の処理内容については以下で説明する。
 <辞書作成処理>
 文字認識用辞書データベース116には、複数の劣化レベルの辞書(文字認識用データベース)が格納される。図2に示すように、各劣化レベルの辞書は、鮮明な文字画像(オリジナル文字画像)を各劣化レベルで劣化させた画像から生成されるものである。例えば、オリジナル文字画像は、65×65画素の鮮明な画像である。図では1つの文字について1つの画像のみが示されているが、実際には1つの文字について複数の画像が辞書作成に用いられる。
 以下、辞書作成処理について図3のフローチャートを参照して説明する。なお、文字認識装置10自体がこの辞書作成処理を実行してもよいし、他の装置がこの辞書作成処理を実行して、作成された辞書データを文字認識用辞書データベース116に格納してもよい。
 辞書作成処理においては、まず、作成する辞書の劣化レベルが指定される(S10)。ここでは、劣化レベル0,3,5,7,9,11の辞書を作成するものとする。ステップS10での劣化レベルの指定順序は任意であって構わない。次に、辞書を作成する対象の文字が指定される(S11)。文字の指定順序は任意であって構わない。
 ステップS12では、指定された劣化レベルで、指定された文字のオリジナル文字画像を劣化させる変換処理(以下、劣化処理という)が施される(指定された劣化レベルが0の場合はなにも行わない)。上述のように指定された文字についてオリジナル文字画像は複数存在するので、その全てについて変換処理が施される。本実施形態では、各画素値を、周辺画素の画素値の平均値(単純平均や重み付け平均)で置き換えるぼかし処理(ぼけ付加処理)を変換処理として採用する。劣化レベルは、ぼかし処理におけるぼかし強度に対応する。なお、画像にぼけを付加できる処理であれば、他の変換処理を採用してもよく、例えば、劣化レベルに応じたサイズに縮小処理を施してから、元のサイズに戻す拡大処理を施してもよい。
 ステップS13では、劣化処理が施されたそれぞれの文字画像が、所定の正規化サイズに変換される。本実施形態では、この正規化によって50×50画素の正方形に変換される。本実施形態ではオリジナル画像のサイズは正規化サイズよりも大きいが、オリジナル画像のサイズと正規化サイズは同じであっても構わない。文字サイズの変換処理は、バイリニア補間、バイキュービック補間、ニアレストネイバ補間など既知の任意のアルゴリズムによって実行することができる。文字画像が正方形でなく、縦横の長さが異なる長方形である場合には、縦横のいずれか長い方を正規化サイズになるように縦横比を維持したまま拡大または縮小の変換をして、その結果を画像の中心に配置してもよい。この際、余白部分の画素の輝度値には、変換結果の文字画像から外周画素の輝度値の平均値を算出して設定してもよい。
 ステップS14では、劣化処理および正規化処理後のそれぞれの文字画像から、文字の特徴を表す文字特徴量(特徴量ベクトル)が取得される。文字の特徴を取得する方法として、画素特徴抽出法、輪郭特徴抽出法、勾配特徴抽出法などが広く用いられるがどのような文字特徴抽出方法を用いても構わない。例えば、画素ごとに輪郭線の方向をチェインコードで表し各小領域におけるチェインコードのヒストグラムを文字特徴量としてもよいし、小領域ごとの画素値の総和を文字特徴量としてもよい。
 ステップS15では、ステップS14によって取得される複数の文字特徴量を用いて、指定された文字を識別するための辞書データが作成される。辞書は、入力された文字(の文字特徴量)と、辞書が対象とする文字(の文字特徴量)の類似度を算出するために用いられる。本出願では劣化処理後の文字画像から取得した文字特徴量を用いて作成された辞書を劣化辞書と呼ぶ。文字認識の手法として、部分空間法、ニューラルネットワーク、サポートベクタマシン(SVM)、判別分析など既知の任意の手法を採用可能であり、採用する方式に応じて公知の方法により辞書を作成すればよい。
 ここまでの処理により、ステップS10で指定された劣化レベルにおける、ステップS11で指定された文字についての辞書作成が完了する。ステップS16では、当該劣化レベルにおいて全ての文字についての辞書作成が完了したかどうか判定し、完了していない場合は、ステップS11に戻って未処理の文字について辞書を作成する。指定された劣化レベルにおいて全ての文字についての辞書作成が完了したら、ステップS17に進んで、全ての劣化レベルについての辞書作成が完了したか判定する。完了していない場合は、ステップS10に戻って未処理の劣化レベルについて辞書を作成する。全ての劣化レベルにおいて辞書作成が完了したら、辞書作成処理は終了する。
 <文字認識処理>
 図4は、文字認識装置10によって行われる文字認識処理の全体的な流れを示すフローチャートである。ステップS20で、文字認識装置10は画像入力部11を介してカメラ20から文字が写った画像データを取得する。ステップS21において、文字抽出部110が、受け取った画像から文字列を抽出し、そこからさらに1文字ずつ文字画像を抽出する。文字抽出処理では、文字の傾きを補正するように線型変換を施して、傾きのない矩形状の文字領域を抽出することが好ましい。ステップS22において、文字認識部111が、切り出された文字と文字認識用辞書データベース116内の辞書内の各文字とを照合して、切り出された文字画像に含まれる文字を認識する。
 ステップS22における文字認識処理の詳細を、図5のフローチャートを参照して説明する。図5に示すフローチャートの処理は、ステップS21において抽出された文字画像のそれぞれについて実行される。また、ここでの説明において文字画像とは、1つの文字として抽出された領域の画像を意味する。
 ステップS220において、劣化度評価部112は、文字画像からその劣化度を算出する。文字画像の劣化度は、数値が大きいほど劣化が大きいことを表す。劣化度の算出方法の一例を、図6を参照して説明する。図6は、ステップS21において抽出された文字画像を示す図である。文字画像は矩形であり、その横方向のサイズ(画素数)をw、縦方向のサイズ(画素数)をhとする。なお、ここまでの処理において、文字の傾きを補正する処理が施されているものとする。ただし、画像のサイズを変換する処理(拡大縮小処理)は施されていないものとし、サイズwおよびhは入力画像上での大きさと同一とする。本実施形態においては、劣化度rを次のように決定する。
 r = R - max(w,h)
 ここで、Rは正方形の正規化画像の一辺の長さ(画素数)であり、本実施形態では50画素である。また、maxは最大値を表す関数である。
 なお、max(w,h)がRよりも大きいときは、劣化度rはゼロとする。
 本実施形態における劣化度は、文字画像の大きさが正規化後のサイズと比較してどの程度小さいかを評価するものといえる。なおこのような評価が可能であれば、上記以外の方法によって劣化度を決定してもよい。例えば、横サイズと縦サイズの大小関係にかかわらずいずれか一方と正規化画像サイズの一辺の長さの差を劣化度としてもよい。あるいは、正規化画像の面積から文字画像の面積を引いた値を劣化度としてもよい。ただし、縦サイズと横サイズの大きい方に基づいて劣化度を決定することで、数字の「1」やアルファベットの「l」(エル)や漢数字の「一」のように縦長あるいは横長の文字画像でも劣化度を適切に計算できる。
 ステップS221において、利用順序決定部113は、文字画像の劣化度に基づいて辞書の利用順序(優先順位)を決定する。利用順序決定部113は、図7に示すような、文字画像の劣化度に応じてどの劣化レベルの辞書を用いるべきかを表す、文字画像の劣化度と辞書の劣化レベルの対応関係をあらかじめ格納している。利用順序決定部113は、ステップS220において算出した劣化度に対応する劣化レベルをこの対応関係から求め、求めた劣化レベルの辞書を最初に利用する辞書として決定する。そして、算出された劣化度に対応する劣化レベルに近い劣化レベルの辞書から順番に利用するように辞書の利用順序を決定する。劣化レベル間の距離は適当な測度によって定義すればよく、本実施形態では、劣化レベル(数値)の差を劣化レベル間の距離とする。ここで、劣化度に対応する劣化レベルと同じ近さの劣化レベルを有する辞書が複数存在する場合には、どちらを先に利用してもよいが、本実施形態では劣化レベルが低い方の辞書を先に利用する。
 なお、文字認識処理において全ての劣化レベルの辞書を使う必要は必ずしもない。したがって、決定される利用順序に全ての劣化レベルが含まれていなくても良い。例えば、文字画像の劣化度から求められる劣化レベルとの差が所定値以上離れている劣化レベルの辞書は、文字認識に使わないようにしても良い。劣化レベルの差が大きいと正確な認識が行えない可能性が高いためである。
 図7に示すような劣化度と劣化レベルの対応関係の作成方法について簡単に説明する。対応関係は、例えば、事前にテストサンプル(テスト画像)を用いた照合を行って作成することができる。具体的には、様々な劣化度(画像サイズ)のテストサンプルと、全ての劣化レベルの辞書と総当たりで照合を行い、照合結果の正確さに基づいて劣化度と劣化レベルの対応関係を求めることができる。すなわち、ある劣化度のテストサンプルを全体として最も正確に識別できる辞書の劣化レベルを、当該劣化度に対応する劣化レベルとして決定できる。また、対応関係は、理論的に決定することもできる。例えば、劣化辞書を作成する際にオリジナル文字画像をどれだけぼかしたかに応じて、劣化度と劣化レベルの対応関係を求めることもできる。
 ステップS223において、特徴量取得部114は、文字画像から文字特徴量を取得する。文字特徴量の取得処理は、辞書作成処理時の処理と同じであるため、繰り返しの説明は省略する。なお、文字特徴量の抽出前に、大きさ、位置、太さ、傾きなどを正規化して、文字の変動をできるだけなくすことが好ましい。特に、文字画像の大きさの正規化処理では、辞書作成時の正規化サイズ(本実施形態では50×50画素)と同じサイズを変換する。
 ステップS225~S228の処理において、照合部115が、ステップS221において決定された利用順序で辞書と文字との照合を行って認識結果を出力する。まず、ステップS224において、変数iに1を代入する。ステップS225において、利用順序がi番目の辞書を用いて、入力文字と辞書内の各文字との照合を行う。この照合の結果として、利用順序がi番目の辞書内の各文字と入力文字との間の類似度(照合スコア)が得られる。最も高い照合スコアを与える文字が、入力文字の識別結果である。ステップS226において、照合部115は、得られた識別結果が信頼のできる結果であるか否かを判定する。具体的には、ステップS225において得られた照合スコアが所定の条件を満たすか否かを判定する。所定の条件として、例えば、最も高い照合スコアが所定の閾値以上であるという条件や、最も高い照合スコアと2番目に高い照合スコアとの差が所定の閾値以上であるという条件を採用することができる。i番目の辞書を用いた識別結果がこのような条件を満たし信頼できる結果であると判定される場合は、ステップS228に進み、照合部115は、最も高い照合スコアを与える文字を、入力文字の認識結果として出力する。一方、上記の条件を満たさない場合には、ステップS227に進み、変数iをインクリメントして、次の利用順序の辞書を用いた照合を行う。なお、全ての劣化レベルの辞書を用いて照合を行っても信頼できる結果が得られない場合には、文字認識ができない旨を示すエラーを返してもよいし、これまでの照合処理の結果に基づいて入力文字の識別結果を決定してもよい。
 文字照合処理の動作例を図8を参照して説明する。ここでは、文字画像の劣化度rが33であり、したがって、劣化辞書の利用順序が、劣化レベル9,7,11,5,3の順番であると仮定する。まず、利用順序が1番目である劣化レベル9の辞書を用いて、文字の照合が行われる。図中の劣化文字画像の下に示す数字は、入力文字との照合スコア(100点満点)を表す。ここで、照合結果が信頼できると判定する条件を、最も高い照合スコアが80点以上であるという条件とする。そうすると、劣化レベル9の辞書との照合では最も高い照合スコアが78点であるため、信頼できる認識が行えなかったと判定される。そして、利用順序が2番目である劣化レベル7の辞書を用いた照合が行われる。今回は、最も高い照合スコアが81点であり上記の条件を満たす。したがって、最も高い照合スコアを与える文字「き」が認識結果として出力される。
 <有利な効果>
 本実施形態によれば、複数の劣化レベルの辞書を用いた文字認識処理において、全ての劣化レベルの辞書と総当たりをせずに文字の認識結果を得ることができるので、総当たりで実施する手法と比べて処理を高速化することができる。この際、最終的な文字認識結果を得るための条件として、照合結果が信頼できるものであることを担保する判定を行っているので、認識処理の精度も保つことができる。さらに、入力文字画像の劣化度に応じて利用する辞書の順序を決定しているため、信頼できる結果を得るために多数の劣化レベルの辞書を用いた照合を行う必要がなく、1個乃至数個の辞書との照合を行うだけで信頼できる結果を得ることができる。
 なお、上記の説明では、文字画像が劣化している場合の処理を中心に説明をしているが、本実施形態の文字認識装置は劣化していない文字画像を精度良く高速に認識できる。文字画像が劣化していない場合は、劣化レベル0の辞書が最初に用いられるものとして決定され、この辞書を用いた識別結果は信頼できると期待されるので、1つの辞書との照合処理によって正確な識別結果を得ることができる。
(その他の実施形態)
 上記の実施形態の説明は、本発明を例示的に説明するものに過ぎず、本発明は上記の具体的な形態には限定されない。本発明は、その技術的思想の範囲内で種々の変形が可能である。
 上記の実施形態の説明では、入力文字画像が理想状態から劣化する原因として入力文字画像のサイズが小さい場合を例に挙げて説明したが、入力文字画像の劣化はその他の原因によっても生じる。例えば、ピンぼけ、文字のかすれ、文字のつぶれ、ノイズの重畳などによっても劣化は生じる。これらの劣化が生じた場合であっても、上記の実施形態と同様の方法により、精度良く高速に文字認識を行うことができる。文字のかすれを例に説明すると、オリジナル文字画像に対して複数の強度(劣化レベル)のかすれの付加処理を施してそれぞれから劣化辞書を作成し、入力文字画像のかすれ具合(劣化度)を評価し、ぼけ具合に応じた利用順序で辞書の照合順序を決定すればよい。ノイズの重畳を例に説明すると、オリジナル文字画像に対してガウシアンノイズを付加して、それぞれから劣化画像を作成し、入力文字画像のノイズ量を評価し、ノイズ量に応じた利用順序で辞書の照合順序を決定すればよい。ノイズ量は、例えば国際公開WO2012/173205に開示されているように、入力文字画像の複数の局所領域から計算される標準偏差をヒストグラムにして頻度がピークとなるときの標準偏差の値を算出することで求めることができる。
 また、複数の原因による劣化が生じた場合にも精度良く正確に識別することもできる。例えば、文字サイズが小さいことと文字のかすれによる2つの劣化に対処する場合を例に説明する。まず、オリジナル文字画像に対して、ぼけ付加処理およびかすれ付加処理の2つの劣化処理を施して劣化辞書を作成する。この際、ぼけ付加の強度とかすれ付加の強度を複数組み合わせて劣化処理を施して、それぞれ劣化辞書を作成する。そして、入力文字画像の大きさおよびかすれ具合に基づいて決定された利用順序で劣化辞書を用いればよい。
 上記の説明では、汎用プロセッサがソフトウェアプログラムを実行することによって機能を提供する例を説明したが、専用のハードウェア回路を用いて上記の機能を提供しても構わない。
 本実施形態にかかる文字認識装置は、デスクトップ型コンピュータ、ノート型コンピュータ、スレート型コンピュータ、スマートフォン端末など任意の装置に実装することができる。また、上記で説明した文字認識装置の各機能は1つの装置によって実行される必要はなく、複数の装置がそれぞれの機能を分担して実行してもかまわない。
 本発明の文字認識装置は、ナンバープレート認識システムに適用することができる。ナンバープレート認識システムは、例えば、道路路側に建てられたポール上に設置されたカメラ(撮像装置)と、上記で説明した文字認識装置とから構成され、カメラが道路上の車両の少なくとも一部分を撮影し、文字認識装置が撮影画像から車両に掲示されているナンバープレートに描かれている文字を抽出および認識する。このようなナンバープレート認識システムによれば、車両がカメラから離れた位置にあり小さな文字画像しか得られないような場合でも、車両に取り付けられているナンバープレートに描かれた文字を精度よくかつ高速に認識することができる。
10:文字認識装置
110:文字抽出部  111:文字認識部
112:劣化度評価部 113:利用順序決定部 114:特徴量取得部
115:照合部    116:文字認識用辞書データベース

Claims (11)

  1.  オリジナル文字画像を複数の異なる劣化レベルで劣化させた画像から生成された、複数の劣化レベルにそれぞれ対応する複数の辞書データベースを記憶する記憶手段と、
     画像の入力を受け付ける画像入力手段と、
     前記画像から文字画像を抽出する抽出手段と、
     抽出された文字画像の劣化度に基づいて、前記複数の辞書データベースの利用順序を決定する利用順序決定手段と、
     前記利用順序にしたがって辞書データベースを用いて前記抽出された文字画像に含まれる文字の認識を行う文字認識手段であって、認識結果が所定の条件を満たさない場合は次の利用順序の辞書データベースを用いた文字認識を行い、認識結果が前記所定の条件を満たす場合は次の利用順序の辞書データベースを用いた認識を行わずに当該認識結果を出力する文字認識手段と、
     を備える文字認識装置。
  2.  前記利用順序決定手段は、前記文字画像の劣化度と前記辞書データベースの対応関係をあらかじめ記憶しており、当該対応関係を用いて前記利用順序を決定する、
     請求項1に記載の文字認識装置。
  3.  前記利用順序決定手段は、前記文字画像の劣化度に対応する劣化レベルを前記対応関係から求め、求められた劣化レベルに対応する辞書データベースを最初に利用するものとして、求められた劣化レベルに近い劣化レベルに対応する辞書データベースから順番に利用するものとして、前記利用順序を決定する、
     請求項2に記載の文字認識装置。
  4.  前記対応関係は、複数のテスト画像を前記複数の劣化レベルに対応する全ての辞書データベースを用いて照合を行った結果に基づいて生成される、
     請求項2または3に記載の文字認識装置。
  5.  前記所定の条件は、前記辞書データベースを用いた文字認識における最も高い照合スコアが所定の閾値以上という条件を含む、
     請求項1から4のいずれか1項に記載の文字認識装置。
  6.  前記所定の条件は、前記辞書データベースを用いた文字認識における最も高い照合スコアと2番目に高い照合スコアとの差が所定の閾値以上という条件を含む、
     請求項1から4のいずれか1項に記載の文字認識装置。
  7.  前記文字画像の劣化度は、前記抽出手段によって抽出された文字画像の大きさが、正規化処理後の大きさと比較してどの程度小さいかに基づいて決定される、
     請求項1から6のいずれか1項に記載の文字認識装置。
  8.  前記正規化処理では、文字画像を所定の大きさを有する正方形に変形し、
     前記文字画像の劣化度は、前記正方形の一辺の長さから、前記抽出手段によって抽出された文字画像の縦サイズまたは横サイズの大きい方を引いた値に基づいて決定される、
     請求項7に記載の文字認識装置。
  9.  前記画像は、車両の少なくとも一部分を含み、
     前記抽出手段は、前記画像から前記車両に掲示されているナンバープレート上に描かれた文字を前記文字画像として抽出する、
     請求項1から8のいずれか1項に記載の文字認識装置。
  10.  オリジナル文字画像を複数の異なる劣化レベルで劣化させた画像から生成された、複数の劣化レベルにそれぞれ対応する複数の辞書データベースを記憶するコンピュータによって実行される文字認識方法であって、
     画像の入力を受け付ける画像入力ステップと、
     前記画像から文字画像を抽出する抽出ステップと、
     抽出された文字画像の劣化度に基づいて、前記複数の辞書データベースの利用順序を決定する利用順序決定ステップと、
     前記利用順序にしたがって辞書データベースを用いて前記抽出された文字画像に含まれる文字の認識を行う文字認識ステップであって、認識結果が所定の条件を満たさない場合は次の利用順序の辞書データベースを用いた文字認識を行い、認識結果が前記所定の条件を満たす場合は次の利用順序の辞書データベースを用いた認識を行わずに当該認識結果を出力する文字認識ステップと、
     を含む文字認識方法。
  11.  請求項10に記載の方法の各ステップをコンピュータに実行させるためのプログラム。
     
PCT/JP2015/080821 2014-10-31 2015-10-30 文字認識装置、文字認識方法、およびプログラム WO2016068325A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP15855057.4A EP3214580B1 (en) 2014-10-31 2015-10-30 Character recognition device, character recognition method, and program
CN201580039458.0A CN106663212B (zh) 2014-10-31 2015-10-30 文字识别装置、文字识别方法以及计算机可读存储介质
US15/327,381 US10049309B2 (en) 2014-10-31 2015-10-30 Character recognition device, character recognition method and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014222944A JP6341059B2 (ja) 2014-10-31 2014-10-31 文字認識装置、文字認識方法、およびプログラム
JP2014-222944 2014-10-31

Publications (1)

Publication Number Publication Date
WO2016068325A1 true WO2016068325A1 (ja) 2016-05-06

Family

ID=55857658

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/080821 WO2016068325A1 (ja) 2014-10-31 2015-10-30 文字認識装置、文字認識方法、およびプログラム

Country Status (5)

Country Link
US (1) US10049309B2 (ja)
EP (1) EP3214580B1 (ja)
JP (1) JP6341059B2 (ja)
CN (1) CN106663212B (ja)
WO (1) WO2016068325A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018045230A1 (en) 2016-08-31 2018-03-08 Viavi Solutions Inc. Orienting magnetically-orientable flakes

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018225133A1 (ja) * 2017-06-05 2018-12-13 楽天株式会社 画像処理装置、画像処理方法、および画像処理プログラム
CN109784151A (zh) * 2018-12-10 2019-05-21 重庆邮电大学 一种基于卷积神经网络的脱机手写汉字识别方法
CN110544222B (zh) * 2019-09-05 2023-01-03 重庆瑞信展览有限公司 一种视觉传达图像清晰化处理方法和系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05108886A (ja) * 1991-10-16 1993-04-30 Nec Eng Ltd 光学文字読取装置
JPH08241378A (ja) * 1995-03-03 1996-09-17 Fuji Electric Co Ltd 低品質文字の認識方法
JPH11175662A (ja) * 1997-12-12 1999-07-02 Nippon Telegr & Teleph Corp <Ntt> パターン認識方法および装置とパターン認識方法をコンピュータに実行させるためのプログラムを記録した記録媒体
JP2005149395A (ja) * 2003-11-19 2005-06-09 Mitsubishi Heavy Ind Ltd 文字認識装置、ナンバープレート認識システム
JP2009037621A (ja) * 2007-08-03 2009-02-19 Fujitsu Ltd 低品質文字の識別方法及び装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3277792B2 (ja) * 1996-01-31 2002-04-22 株式会社日立製作所 データ圧縮方法および装置
CN100373399C (zh) * 2004-08-18 2008-03-05 富士通株式会社 建立劣化字典的方法和装置
CN100409251C (zh) * 2005-08-26 2008-08-06 富士通株式会社 用于退化文字行的字符识别装置和方法
CN101571921B (zh) * 2008-04-28 2012-07-25 富士通株式会社 关键字识别方法和装置
CN101882219B (zh) * 2009-05-08 2013-09-11 财团法人工业技术研究院 图像辨识以及输出方法及其系统
US8761540B2 (en) 2011-06-14 2014-06-24 Kabushiki Kaisha Toshiba Method and system for estimating noise level
US9002066B2 (en) * 2013-05-06 2015-04-07 Xerox Corporation Methods, systems and processor-readable media for designing a license plate overlay decal having infrared annotation marks
US9875532B2 (en) * 2013-08-15 2018-01-23 Nec Corporation Information processing device that implements image processing, and image processing method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05108886A (ja) * 1991-10-16 1993-04-30 Nec Eng Ltd 光学文字読取装置
JPH08241378A (ja) * 1995-03-03 1996-09-17 Fuji Electric Co Ltd 低品質文字の認識方法
JPH11175662A (ja) * 1997-12-12 1999-07-02 Nippon Telegr & Teleph Corp <Ntt> パターン認識方法および装置とパターン認識方法をコンピュータに実行させるためのプログラムを記録した記録媒体
JP2005149395A (ja) * 2003-11-19 2005-06-09 Mitsubishi Heavy Ind Ltd 文字認識装置、ナンバープレート認識システム
JP2009037621A (ja) * 2007-08-03 2009-02-19 Fujitsu Ltd 低品質文字の識別方法及び装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MINAKO SWAKI ET AL.: "Recognition of Characters in Bookshelf Images using Automatic Dictionary Selection based on Estimated Degradation", THE JOURNAL OF THE INSTITUTE OF IMAGE INFORMATION AND TELEVISION ENGINEERS, vol. 54, no. 6, 20 June 2000 (2000-06-20), pages 881 - 886, XP055439005 *
See also references of EP3214580A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018045230A1 (en) 2016-08-31 2018-03-08 Viavi Solutions Inc. Orienting magnetically-orientable flakes

Also Published As

Publication number Publication date
EP3214580A4 (en) 2018-06-27
US20170277982A1 (en) 2017-09-28
EP3214580A1 (en) 2017-09-06
CN106663212A (zh) 2017-05-10
CN106663212B (zh) 2019-12-24
JP6341059B2 (ja) 2018-06-13
JP2016091186A (ja) 2016-05-23
US10049309B2 (en) 2018-08-14
EP3214580B1 (en) 2022-09-28

Similar Documents

Publication Publication Date Title
US8644561B2 (en) License plate optical character recognition method and system
WO2020098250A1 (zh) 字符识别方法、服务器及计算机可读存储介质
US8867828B2 (en) Text region detection system and method
US8483440B2 (en) Methods and systems for verifying automatic license plate recognition results
JP5047005B2 (ja) 画像処理方法、パターン検出方法、パターン認識方法及び画像処理装置
KR101247147B1 (ko) 디지털 영상 획득 장치에서의 얼굴 탐색 및 검출
WO2016068325A1 (ja) 文字認識装置、文字認識方法、およびプログラム
CN107977658B (zh) 图像文字区域的识别方法、电视机和可读存储介质
CN110717497B (zh) 图像相似度匹配方法、装置及计算机可读存储介质
US20130294696A1 (en) Image processing method and apparatus
CN111899243A (zh) 一种图像清晰度评价方法、设备和计算机可读存储介质
US8744189B2 (en) Character region extracting apparatus and method using character stroke width calculation
US9117132B2 (en) System and method facilitating designing of classifier while recognizing characters in a video
US9679218B2 (en) Method and apparatus for image matching
CN108460388B (zh) 定位标志的检测方法、装置及计算机可读存储介质
KR101461108B1 (ko) 인식기, 차량모델인식장치 및 방법
CN112419275B (zh) 图像质量确定方法、装置及系统
CN115063826A (zh) 一种基于深度学习的移动端驾驶证识别方法和系统
CN111178340B (zh) 图像识别方法及图像识别模型的训练方法
WO2013104322A1 (en) Object recognizing method and object recognizing device
Bui et al. Predicting mobile-captured document images sharpness quality
CN115482551A (zh) 一种问题地图检测方法、电子设备和系统
CN111160353A (zh) 车牌识别方法、装置及设备
Lajish et al. Mobile phone based vehicle license plate recognition for road policing
CN117078913B (zh) 对象倾斜矫正方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15855057

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2015855057

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 15327381

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE