JP2017207910A - Character recognition device, character recognition program and character recognition method - Google Patents

Character recognition device, character recognition program and character recognition method Download PDF

Info

Publication number
JP2017207910A
JP2017207910A JP2016099709A JP2016099709A JP2017207910A JP 2017207910 A JP2017207910 A JP 2017207910A JP 2016099709 A JP2016099709 A JP 2016099709A JP 2016099709 A JP2016099709 A JP 2016099709A JP 2017207910 A JP2017207910 A JP 2017207910A
Authority
JP
Japan
Prior art keywords
image
character
unit
extraction
character recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016099709A
Other languages
Japanese (ja)
Other versions
JP6744126B2 (en
Inventor
佳憲 沖
Yoshinori Oki
佳憲 沖
藤田 稔
Minoru Fujita
稔 藤田
佐藤 義之
Yoshiyuki Sato
義之 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Digital Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Digital Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Digital Solutions Corp filed Critical Toshiba Corp
Priority to JP2016099709A priority Critical patent/JP6744126B2/en
Publication of JP2017207910A publication Critical patent/JP2017207910A/en
Application granted granted Critical
Publication of JP6744126B2 publication Critical patent/JP6744126B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Character Input (AREA)
  • Character Discrimination (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique capable of more easily recognizing a numerical value at a counter part.SOLUTION: A character recognition device includes: an image acquisition part 101 for acquiring a picked-up image in which an area including a plurality of characters in parallel is imaged in gradation; a filter processing part 102 for generating a binary image in which the picked-up image is binarized; a character extraction part 104 for extracting a plurality of partial images respectively including a plurality of characters in the picked-up image on the basis of a lengthwise direction projection in which a total brightness is calculated for each ordinate of the binary image and a crosswise direction projection in which a total brightness is calculated for each abscissa of the binary image; and a matching processing part 107 for recognizing characters by matching each of the plurality of partial images with previously stored dictionary data.SELECTED DRAWING: Figure 3

Description

本発明の実施形態は、文字を認識する技術に関する。   Embodiments described herein relate generally to a technique for recognizing characters.

従来、電力、水道、ガスなどを供給する事業者による課金業務は、作業員がその供給量を示すメータを検針することによって行われる。このようなメータの検針作業は、メータにおいて並列された複数の数字ドラムにより数値を示すカウンタ部を作業員が目視することによってなされるため、数値の読み間違えなどの人為的なミスが起こり得る。   Conventionally, billing work by a company that supplies power, water, gas, and the like is performed by an operator reading a meter indicating the supply amount. Such meter reading work is performed by an operator visually observing a counter unit that indicates a numerical value by a plurality of numerical drums arranged in parallel in the meter. Therefore, human error such as erroneous reading of the numerical value may occur.

これに対し、0から9の数字を縦に並べた照合用モデル画像を用意し、現字形計器の指示値表示部を撮像した画像データから各桁の画像領域を個別に切り出し、切り出した画像から数字部分を抽出し、この数字部分と照合用モデル画像とを比較して照合を行い、指示値を読み取る現字形計器認識処理装置、が知られている(特許文献1)。   On the other hand, a model image for collation in which numbers from 0 to 9 are arranged vertically is prepared, and image areas of each digit are individually cut out from the image data obtained by imaging the indicated value display section of the current character type instrument, and the cut image is used. There is known a current-type instrument recognition processing device that extracts a numerical part, compares the numerical part with a model image for verification, performs verification, and reads an indicated value (Patent Document 1).

特開2003−242444号公報JP 2003-242444 A

しかしながら、上述の技術によれば、認識対象とするカウンタ部における各数値の位置を人手で設定する必要があり、カウンタ部の数値の認識に際して作業が発生して煩雑である、という問題があった。   However, according to the above-described technique, it is necessary to manually set the position of each numerical value in the counter unit to be recognized, and there is a problem that the operation is troublesome when the numerical value of the counter unit is recognized. .

本発明の実施形態は、上述した問題点を解決するためになされたものであり、より容易にカウンタ部の数値を認識することができる技術を提供することを目的とする。   Embodiments of the present invention have been made to solve the above-described problems, and an object of the present invention is to provide a technique that can more easily recognize the value of the counter unit.

上述した課題を解決するため、本発明の実施形態は、並列する複数の文字を含む領域が階調で撮像された撮像画像を取得する画像取得部と、前記撮像画像を二値化した二値化画像を生成するフィルタ処理部と、前記二値化画像の縦座標毎に合計輝度値を算出した縦方向射影と、前記二値化画像の横座標毎に合計輝度値を算出した横方向射影とに基づいて、前記撮像画像における複数の文字のそれぞれを含む複数の部分画像を抽出する文字抽出部と、前記複数の部分画像のそれぞれと予め記憶された辞書データとをマッチングして文字を認識するマッチング処理部とを備える。   In order to solve the above-described problem, an embodiment of the present invention includes an image acquisition unit that acquires a captured image in which a region including a plurality of parallel characters is captured with gradation, and a binary that is obtained by binarizing the captured image. A filter processing unit that generates a binarized image, a vertical projection that calculates a total luminance value for each ordinate of the binarized image, and a horizontal projection that calculates a total luminance value for each abscissa of the binarized image Based on the above, a character extraction unit that extracts a plurality of partial images including each of a plurality of characters in the captured image, and a character stored by matching each of the plurality of partial images with prestored dictionary data are recognized. A matching processing unit.

実施形態に係る文字認識装置が組み込まれたメータ読取装置を含むメータ読取システムの全体構成を示す図である。It is a figure showing the whole meter reading system composition containing a meter reading device with which a character recognition device concerning an embodiment was built. 水道メータの構成を示す概略図である。It is the schematic which shows the structure of a water meter. 水道メータの表示部の構成を示す概略図である。It is the schematic which shows the structure of the display part of a water meter. 文字認識装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of a character recognition apparatus. 文字認識装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of a character recognition apparatus. 文字認識装置の全体動作を示すフローチャートである。It is a flowchart which shows the whole operation | movement of a character recognition apparatus. 撮像画像を示す図である。It is a figure which shows a captured image. フィルタ処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a filter process. ソーベルフィルタのカーネルを示す図である。It is a figure which shows the kernel of a Sobel filter. エッジ強調画像を示す図である。It is a figure which shows an edge emphasis image. 二値化画像を示す図である。It is a figure which shows a binarized image. 細線化画像を示す図である。It is a figure which shows a thinning image. 回転補正処理の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a rotation correction process. 境界線L及び回転角θを示す図である。It is a figure which shows the boundary line L and rotation angle (theta). 文字領域抽出処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a character area extraction process. 二値化画像における対象領域を示す図である。It is a figure which shows the object area | region in a binarized image. 撮像画像における対象領域を示す図である。It is a figure which shows the object area | region in a captured image. 二値化画像におけるノイズを示す図である。It is a figure which shows the noise in a binarized image. y方向射影を示す図である。It is a figure which shows a y direction projection. 第1文字領域抽出処理の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a 1st character area extraction process. x方向射影を示す図である。It is a figure which shows x direction projection. 部分撮像画像を示す図である。It is a figure which shows a partial captured image. 位置補正処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a position correction process. 並列文字領域抽出処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a parallel character area extraction process. 文字判定処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a character determination process. 右上角と左下角とを結ぶ対角線により分割された2つの領域を示す図である。It is a figure which shows two area | regions divided | segmented by the diagonal line which connects an upper right corner and a lower left corner. 左上角と右下角とを結ぶ対角線により分割された2つの領域を示す図である。It is a figure which shows two area | regions divided | segmented by the diagonal connecting the upper left corner and the lower right corner. 左右に分割された2つの領域を示す図である。It is a figure which shows two area | regions divided | segmented into right and left. 合計輝度値による文字判定に用いられる画像を示す図である。It is a figure which shows the image used for the character determination by a total luminance value. 文字領域抽出処理による抽出結果を示す図である。It is a figure which shows the extraction result by a character area extraction process. 文字高さと抽出ウィンドウ間の距離との相関関係を示すグラフである。It is a graph which shows the correlation with the distance between character height and an extraction window. 部分撮像画像を二値化した二値画像及び特徴量算出処理結果を画像で表わした結果を示す図である。It is a figure which shows the result which represented the binary image which binarized the partial captured image, and the feature-value calculation process result with the image. 特徴量パターンを示す図である。It is a figure which shows a feature-value pattern. マッチング処理の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a matching process. 数字の変形箇所を示す図である。It is a figure which shows the deformation | transformation location of a number. マッチング処理に用いられるカーネル関数を示す図である。It is a figure which shows the kernel function used for a matching process. 特徴量画像で表現された5と6との違いを示す図である。It is a figure which shows the difference between 5 and 6 expressed by the feature-value image. カウンタ値判定処理の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a counter value determination process. 499から500に変化するカウンタ部を示す図である。It is a figure which shows the counter part which changes from 499 to 500. 回転が不十分なカウンタ部を示す図である。It is a figure which shows the counter part with insufficient rotation.

以下、本発明の実施形態について図面を参照しつつ説明する。   Embodiments of the present invention will be described below with reference to the drawings.

(全体構成)
実施形態に係る文字認識装置が組み込まれたメータ読取装置を含むメータ読取システム、文字認識装置による文字認識対象である水道メータの構成、水道メータの表示部の構成について説明する。図1は、実施形態に係るメータ読取装置を含むメータ読取システムを含む検針システムの全体構成を示す図である。図2は、水道メータの構成を示す概略図である。図3は、水道メータの表示部の構成を示す概略図である。
(overall structure)
A meter reading system including a meter reading device incorporating a character recognition device according to an embodiment, a configuration of a water meter that is a character recognition target by the character recognition device, and a configuration of a display unit of the water meter will be described. FIG. 1 is a diagram illustrating an overall configuration of a meter reading system including a meter reading system including a meter reading device according to an embodiment. FIG. 2 is a schematic diagram showing the configuration of the water meter. FIG. 3 is a schematic diagram showing the configuration of the display unit of the water meter.

図1に示すように、メータ読取システムは、水道メータ9の表示部93に表示される水の流量を読み取り、読み取った流量を無線通信により送信するメータ読取装置1と、送信された流量を受信するスマートフォン2とを備える。   As shown in FIG. 1, the meter reading system reads the flow rate of water displayed on the display unit 93 of the water meter 9 and transmits the read flow rate by wireless communication, and receives the transmitted flow rate. Smartphone 2 to be provided.

水道メータ9は、図2に示すように、水の流量を計測する本体部90と、本体部90に水を流入させる流入口91と、本体部90から水を流出させる流出口92と、本体部90の上部に設けられて本体部90により計測された水の流量に係る情報を表示する表示部93とを備える。水道メータ9は、使用時には表示部93が上方を向くように設置される。   As shown in FIG. 2, the water meter 9 includes a main body 90 that measures the flow rate of water, an inlet 91 that allows water to flow into the main body 90, an outlet 92 that allows water to flow out from the main body 90, and a main body A display unit 93 provided on an upper part of the unit 90 and displaying information related to the flow rate of water measured by the main body unit 90. The water meter 9 is installed such that the display unit 93 faces upward when in use.

表示部93は、図3に示すように、円盤状に構成された表示盤930、視認可能に表示盤930に設けられたパイロット931、1L単位の積算値メータ932、10L単位の積算値メータ933、流量を立方メートル単位の数値により示すカウンタ部934を備える。表示盤930は、少なくともカウンタ部934が設けられる領域が半円状に黒に着色され、それ以外の領域が白に着色され、これらの領域の境界部は直線となっている。カウンタ部934は、4桁もしくは5桁の整数と1桁の小数により流量を示し、これらの数値は、それぞれ、側面部に0〜9の数値が円環状に配置された数字ドラムが回転することにより変化される。4桁もしくは5桁の整数を示す数字ドラムはそれぞれ背景色が黒に着色されるとともに数字が白に着色され、1桁の小数を示す数字ドラムは背景色が白に着色されるとともに数字が赤に着色されているものとする。なお、整数を示す数字ドラムは、背景色の輝度と数字の色の輝度とが互いに異なるものであればよい。また、これらの数字ドラムは、本体部90と表示盤930とにより構成される空間に内蔵されており、表示盤930に設けられた開口から外部より視認可能となっているものとする。また、水道メータ9の設置時には、表示盤930の面方向は水平方向を向くものとする。   As shown in FIG. 3, the display unit 93 includes a display panel 930 configured in a disk shape, a pilot 931 provided on the display panel 930 so as to be visible, an integrated value meter 932 in 1 L units, and an integrated value meter 933 in 10 L units. , And a counter unit 934 that indicates the flow rate by a numerical value in cubic meters. In the display panel 930, at least a region where the counter unit 934 is provided is colored semi-circularly black, the other regions are colored white, and the boundary between these regions is a straight line. The counter unit 934 indicates the flow rate by an integer of 4 digits or 5 digits and a decimal number of 1 digit, and these numerical values are obtained by rotating a numerical drum in which numerical values of 0 to 9 are arranged in an annular shape on the side surfaces. It is changed by. Number drums showing 4-digit or 5-digit integers are colored black and the numbers are colored white, and number drums showing single-digit decimal numbers are colored white and the numbers are red. It shall be colored. It should be noted that the number drum indicating the integer may be any one in which the brightness of the background color and the brightness of the number color are different from each other. These number drums are incorporated in a space formed by the main body 90 and the display board 930 and are visible from the outside through an opening provided in the display board 930. In addition, when the water meter 9 is installed, the surface direction of the display panel 930 is assumed to be in the horizontal direction.

メータ読取装置1は、図1に示すように、本体部10と、本体部10に内蔵される文字認識装置11と、本体部10の下部に設けられた略円筒状の撮像フード12と、撮像フード12内に設けられたカメラ13と、カメラ13による撮像対象に対して赤色光を照射するLED13aと、メータ読取装置1を操作するための操作部14と、メータ読取装置1に係る各種情報を表示するディスプレイ15とを備える。メータ読取装置1は、水道メータ9の表示部93におけるカウンタ部934の整数部を読み取るものであり、そのため、撮像フード12は本体部9上に載置可能に構成され、カメラ13は撮像フード12に対して表示盤930の略全体を撮像可能に設けられるものとする。また、メータ読取装置1の使用者は、カメラ13の撮像領域内にカウンタ部934と表示盤930における境界部とが含まれるようにメータ読取装置1を水道メータ9上に載置するものとする。   As shown in FIG. 1, the meter reading device 1 includes a main body unit 10, a character recognition device 11 built in the main body unit 10, a substantially cylindrical imaging hood 12 provided at a lower portion of the main body unit 10, and an imaging. A camera 13 provided in the hood 12, an LED 13 a that irradiates red light to an object to be imaged by the camera 13, an operation unit 14 for operating the meter reading device 1, and various information related to the meter reading device 1. And a display 15 for displaying. The meter reading device 1 reads the integer part of the counter unit 934 in the display unit 93 of the water meter 9. Therefore, the imaging hood 12 is configured to be placed on the main body unit 9, and the camera 13 is configured to be the imaging hood 12. In contrast, it is assumed that substantially the entire display panel 930 can be imaged. In addition, the user of the meter reading device 1 places the meter reading device 1 on the water meter 9 so that the imaging portion of the camera 13 includes the counter unit 934 and the boundary portion of the display panel 930. .

(文字認識装置の構成)
文字認識装置のハードウェア構成及び機能構成について説明する。図4は、文字認識装置のハードウェア構成を示すブロック図である。図5は、文字認識装置の機能構成を示すブロック図である。
(Configuration of character recognition device)
The hardware configuration and functional configuration of the character recognition device will be described. FIG. 4 is a block diagram illustrating a hardware configuration of the character recognition device. FIG. 5 is a block diagram illustrating a functional configuration of the character recognition device.

文字認識装置11は、図4に示すように、ハードウェアとして、MPU(Micro Processing Unit)110、メモリ111、記憶装置112、通信部113、入出力I/F(interface)114を備える。MPU110及びメモリ111は、協働して各種機能を実行し、記憶装置112は各種機能により実行される処理に用いられる各種データを記憶する。通信部113は、スマートフォン2との通信を行う。入出力I/F114は、カメラ13、LED13a、操作部14、ディスプレイ15とのデータ入出力を行う。   As shown in FIG. 4, the character recognition device 11 includes, as hardware, an MPU (Micro Processing Unit) 110, a memory 111, a storage device 112, a communication unit 113, and an input / output I / F (interface) 114. The MPU 110 and the memory 111 cooperate to execute various functions, and the storage device 112 stores various data used for processing executed by the various functions. The communication unit 113 communicates with the smartphone 2. The input / output I / F 114 performs data input / output with the camera 13, the LED 13 a, the operation unit 14, and the display 15.

また、文字認識装置11は、図5に示すように、MPU110及びメモリ111により実行される機能として、画像取得部101、フィルタ処理部102、回転補正部103、文字抽出部104、スケール調整部105、特徴量算出部106、マッチング処理部107、カウンタ値判定部108、カウンタ値送信部109を備える。画像取得部101は、カメラ13により撮像された撮像画像を取得する。フィルタ処理部102は、取得された撮像画像に各種フィルタを適用する。回転補正部103は、フィルタが適用された画像に基づいて、撮像された表示部93が正立するように撮像画像を回転させる。文字抽出部104は、撮像画像からカウンタ部934における個々の数値を含む部分画像を抽出する。スケール調整部105は、部分画像のスケールを調整する。特徴量算出部106は、部分画像から特徴量を算出する。マッチング処理部107は、部分画像の特徴量と予め用意された特徴量辞書とのマッチングを行うことにより部分画像内の数値を認識する。カウンタ値判定部108は、認識されたカウンタ部934の数値に対する判定を行う。カウンタ値送信部109は、通信部113を介して、認識され判定されたカウンタ部934の数値をスマートフォン2へ送信する。   As shown in FIG. 5, the character recognition device 11 includes, as functions executed by the MPU 110 and the memory 111, an image acquisition unit 101, a filter processing unit 102, a rotation correction unit 103, a character extraction unit 104, and a scale adjustment unit 105. , A feature amount calculation unit 106, a matching processing unit 107, a counter value determination unit 108, and a counter value transmission unit 109. The image acquisition unit 101 acquires a captured image captured by the camera 13. The filter processing unit 102 applies various filters to the acquired captured image. The rotation correcting unit 103 rotates the captured image based on the image to which the filter is applied so that the captured display unit 93 is upright. The character extraction unit 104 extracts a partial image including individual numerical values in the counter unit 934 from the captured image. The scale adjustment unit 105 adjusts the scale of the partial image. The feature amount calculation unit 106 calculates a feature amount from the partial image. The matching processing unit 107 recognizes the numerical value in the partial image by matching the feature amount of the partial image with a feature amount dictionary prepared in advance. The counter value determination unit 108 performs determination on the recognized numerical value of the counter unit 934. The counter value transmitting unit 109 transmits the numerical value of the recognized and determined counter unit 934 to the smartphone 2 via the communication unit 113.

(文字認識装置の全体動作)
文字認識装置の全体動作について説明する。図6は、文字認識装置の全体動作を示すフローチャートである。図7は、撮像画像を示す図である。
(Whole operation of character recognition device)
The overall operation of the character recognition device will be described. FIG. 6 is a flowchart showing the overall operation of the character recognition apparatus. FIG. 7 is a diagram illustrating a captured image.

図6に示すように、まず、画像取得部101がカメラ13により撮像された撮像画像として、図7に示すようなモノクロ濃淡画像を取得する(S101)。ここで、撮像画像におけるカウンタ部934における小数部の数字は白の背景に赤で着色されているため、LED13aにより照射される赤色光により、白の矩形部となっており、従って、本実施形態においては認識対象とせず数字でない領域として扱われるものとする。   As shown in FIG. 6, first, the image acquisition unit 101 acquires a monochrome grayscale image as shown in FIG. 7 as a captured image captured by the camera 13 (S101). Here, since the number of the decimal part in the counter unit 934 in the captured image is colored red on a white background, it is a white rectangular part by the red light irradiated by the LED 13a. In, it is assumed that it is not recognized and treated as a non-numeric area.

次に、フィルタ処理部102が後述するフィルタ処理を実行し(S102)、回転補正部103が後述する回転補正処理を実行する(S103)。   Next, the filter processing unit 102 executes filter processing described later (S102), and the rotation correction unit 103 executes rotation correction processing described later (S103).

次に、文字抽出部104が回転補正処理により正立された撮像画像に対して、後述する文字領域抽出処理を実行し(S104)、スケール調整部105が文字領域抽出処理により抽出された各部分画像のスケールを調整し(S105)、特徴量算出部106が後述する特徴量算出処理を実行し(S106)、マッチング処理部107が各部分画像における数値を認識する(S107)。   Next, the character extraction unit 104 executes character region extraction processing (described later) on the captured image erected by the rotation correction processing (S104), and the scale adjustment unit 105 extracts each part extracted by the character region extraction processing. The scale of the image is adjusted (S105), the feature amount calculation unit 106 executes a feature amount calculation process described later (S106), and the matching processing unit 107 recognizes a numerical value in each partial image (S107).

次に、カウンタ値判定部108が後述するカウンタ値判定処理を行い(S108)、カウンタ値送信部109がカウンタ値判定処理により確定されたカウンタ部934のカウンタ値をスマートフォン2へ送信する(S109)。   Next, the counter value determination unit 108 performs a counter value determination process described later (S108), and the counter value transmission unit 109 transmits the counter value of the counter unit 934 determined by the counter value determination process to the smartphone 2 (S109). .

(フィルタ処理)
フィルタ処理について説明する。図8は、フィルタ処理の動作を示すフローチャートである。図9は、ソーベルフィルタのカーネルを示す図である。図10は、エッジ強調画像を示す図である。図11は、二値化画像を示す図である。図12は、細線化画像を示す図である。
(Filter processing)
The filtering process will be described. FIG. 8 is a flowchart showing the operation of the filter process. FIG. 9 is a diagram illustrating a kernel of the Sobel filter. FIG. 10 is a diagram illustrating an edge enhanced image. FIG. 11 is a diagram illustrating a binarized image. FIG. 12 shows a thinned image.

図8に示すように、まず、フィルタ処理部102は、撮像画像取得部101により取得された撮像画像に対して、図9(a)に示すような縦方向のカーネルと図9(b)に示すような横方向のカーネルとを用いたソーベルフィルタを適用して、図10に示すような輝度の変化が大きいエッジ箇所が強調されたエッジ強調画像を生成する(S201)。   As shown in FIG. 8, first, the filter processing unit 102 applies a vertical kernel as shown in FIG. 9A to the captured image acquired by the captured image acquisition unit 101, and FIG. 9B. By applying a Sobel filter using a horizontal kernel as shown, an edge-enhanced image in which an edge portion having a large luminance change is emphasized as shown in FIG. 10 is generated (S201).

次に、フィルタ処理部102は、エッジ強調画像を所定の閾値により二値化して、図11に示すような二値化画像を生成し(S202)、更に、この二値化画像に対して、線を1ピクセル幅だけ残す細線化処理を行い、図12に示すような細線化画像を生成する(S203)。   Next, the filter processing unit 102 binarizes the edge-enhanced image with a predetermined threshold value to generate a binarized image as shown in FIG. 11 (S202). Further, for the binarized image, Thinning processing is performed to leave the line only by one pixel width, and a thinned image as shown in FIG. 12 is generated (S203).

このように、フィルタ処理によれば、後述する処理に用いられる二値化画像及び細線化画像が生成される。   As described above, according to the filter processing, a binarized image and a thinned image used for processing to be described later are generated.

(回転補正処理)
回転補正処理の動作について説明する。図13は、回転補正処理の動作を示すフローチャートである。図14は、境界線L及び回転角θを示す図である。
(Rotation correction processing)
The operation of the rotation correction process will be described. FIG. 13 is a flowchart showing the operation of the rotation correction process. FIG. 14 is a diagram illustrating the boundary line L and the rotation angle θ.

図13に示すように、まず、回転補正部103は、細線化画像に基づいて、表示盤930における境界部を検出する(S301)。ここで、回転補正部103は、ハフ変換によって、細線化画像において図14に示すような最長の直線を境界線Lとして検出することによって、表示盤930における境界部、すなわち、黒に着色された半円状の領域の直線部分を検出する。   As shown in FIG. 13, first, the rotation correction unit 103 detects a boundary portion on the display panel 930 based on the thinned image (S301). Here, the rotation correction unit 103 is colored in the boundary portion of the display panel 930, that is, black by detecting the longest straight line as shown in FIG. A straight portion of a semicircular area is detected.

次に、回転補正部103は、水平線y=0と境界線Lとのなす角θを検出し(S302)、この角θが0となるように、撮像画像及び二値化画像を−θ回転させる(S303)。ここで、二値化画像は、上述したステップS202において生成された画像である。また、以降の説明において、画像の左上隅を原点とし、水平方向右向きにx軸、垂直方向下向きにy軸をとるものとする。   Next, the rotation correction unit 103 detects an angle θ between the horizontal line y = 0 and the boundary line L (S302), and rotates the captured image and the binarized image by −θ so that the angle θ becomes zero. (S303). Here, the binarized image is an image generated in step S202 described above. In the following description, it is assumed that the upper left corner of the image is the origin, the x axis is in the horizontal direction rightward, and the y axis is in the vertical direction downward.

画像の回転後、回転補正部103は、回転補正した撮像画像について、倒立状態であるか否かを判定する(S304)。ここで、倒立状態とは、回転補正した撮像画像において表示部93が倒立している状態、即ち、境界線が平行となっているものの、カウンタ部934における数字が上下に反転している状態を示し、回転補正部103は、細線化画像における境界線Lが回転された線に相当する撮像画像における境界線上の点から上方側の10ピクセル、下方側の10ピクセルについて、それぞれ輝度値の加算を行い、上方の合計値が下方の合計値より大きい場合に倒立状態と判定する。   After the rotation of the image, the rotation correction unit 103 determines whether the rotation-corrected captured image is in an inverted state (S304). Here, the inverted state is a state in which the display unit 93 is inverted in the rotation-corrected captured image, that is, a state in which the numbers in the counter unit 934 are inverted up and down although the boundary lines are parallel. The rotation correction unit 103 adds luminance values to 10 pixels on the upper side and 10 pixels on the lower side from the point on the boundary line in the captured image corresponding to the line in which the boundary line L in the thinned image is rotated. When the upper total value is larger than the lower total value, it is determined that the head is inverted.

倒立状態である場合(S304,YES)、回転補正部103は、回転補正した撮像画像及び回転補正した二値化画像を180°回転させ(S305)、回転補正処理を終了する。   In the inverted state (S304, YES), the rotation correcting unit 103 rotates the rotation-corrected captured image and the rotation-corrected binarized image by 180 ° (S305), and ends the rotation correction process.

一方、倒立状態ではない場合(S304,NO)、回転補正部103は、回転補正処理を終了する。   On the other hand, when it is not the inverted state (S304, NO), the rotation correction unit 103 ends the rotation correction process.

このように、回転補正処理によれば、メータ読取装置1の使用者は、水道メータ9のカウンタ値の読み取りにおいて、撮像画像上において表示部93が正立するように、即ちカウンタ部934における数字の上下方向と撮像画像の上下方向とが一致するように、メータ読取装置1を設置する必要がない。   As described above, according to the rotation correction process, the user of the meter reading device 1 can read the counter value of the water meter 9 so that the display unit 93 stands upright on the captured image, that is, the number in the counter unit 934. It is not necessary to install the meter reading device 1 so that the vertical direction of the image and the vertical direction of the captured image coincide with each other.

(文字領域抽出処理)
文字領域抽出処理の動作について説明する。図15は、文字領域抽出処理の動作を示すフローチャートである。図16は、二値化画像における対象領域を示す図である。図17は、撮像画像における対象領域を示す図である。図18は、二値化画像におけるノイズを示す図である。図19は、y方向射影を示す図である。
(Character area extraction processing)
The operation of the character area extraction process will be described. FIG. 15 is a flowchart showing the operation of the character area extraction process. FIG. 16 is a diagram illustrating a target area in a binarized image. FIG. 17 is a diagram illustrating a target area in a captured image. FIG. 18 is a diagram illustrating noise in a binarized image. FIG. 19 is a diagram showing y-direction projection.

図15に示すように、文字抽出部104は、回転補正部103により表示部93が正立するように回転された撮像画像及び二値化画像から、図16、図17に示すように対象領域を抽出する(S401)。ここで、対象領域は境界線から上方に位置して上下方向に所定距離を有し、かつカウンタ部934が含まれる領域である。このとき小数点が対象領域に含まれないように対象領域下端と境界線との距離を設定する。例えば小数点部分が境界線から10ピクセル上にある場合、境界線から60ピクセル上方の位置から、境界線から10ピクセル上方の位置までの領域を対象領域として設定する。   As shown in FIG. 15, the character extraction unit 104 uses a captured image and a binarized image rotated so that the display unit 93 is erected by the rotation correction unit 103, as shown in FIGS. 16 and 17. Is extracted (S401). Here, the target area is an area located above the boundary line, having a predetermined distance in the vertical direction, and including the counter unit 934. At this time, the distance between the lower end of the target area and the boundary line is set so that the decimal point is not included in the target area. For example, when the decimal point portion is 10 pixels above the boundary line, an area from a position 60 pixels above the boundary line to a position 10 pixels above the boundary line is set as the target area.

次に、文字抽出部104は、対象領域として抽出した二値化画像(以後、単に二値化画像と称する。撮像画像も同様。)から図18に示すようなノイズNを除去する(S402)。ノイズNは、表示盤930に設けられた開口部に起因するものであり、文字抽出部104は、横方向に所定幅以上連続する白画素をノイズNと判定し、該当箇所を黒画素に変更する。ここで、所定幅は、少なくともカウンタ部934における一桁分の文字幅以上とすると良く、例えば30ピクセルに設定される。更に、文字抽出部104は、所定幅以上連続する白画素から上下1ピクセルに存在する白画素についてもノイズNと判定して黒画素に変更する。   Next, the character extraction unit 104 removes noise N as shown in FIG. 18 from the binarized image extracted as the target region (hereinafter simply referred to as a binarized image; the same applies to the captured image) (S402). . The noise N is caused by an opening provided in the display panel 930. The character extraction unit 104 determines that white pixels that are continuous by a predetermined width or more in the horizontal direction are noise N, and changes the corresponding portion to a black pixel. To do. Here, the predetermined width may be at least the character width of one digit in the counter unit 934, and is set to 30 pixels, for example. Further, the character extraction unit 104 determines that the white pixel existing in the upper and lower pixels from the white pixel continuous by a predetermined width or more is also determined as noise N and changes it to a black pixel.

ノイズNの除去後、文字抽出部104は、二値化画像のy方向射影Pを以下の式により算出する(S403)。ここで、射影Pは、y座標毎に算出される合計輝度値を示す。 After removing the noise N, the character extraction unit 104 calculates the y-direction projection P y of the binarized image using the following formula (S403). Here, the projection P y indicates a total luminance value calculated for each y coordinate.


は二値化画像、Wは二値化画像の幅。図19に射影Pの例を示す。

F 1 is a binarized image, and W 1 is the width of the binarized image. An example of a projection P y in Figure 19.

次に、文字抽出部104は、予め設定された所定の閾値Tと射影Pとに基づいて文字高さHを算出する(S404)。ここで、文字抽出部104は、P(y)≧Tとなるような、2つのy座標により示されるy方向の区間を探索し、該当する区間のうち、最大の区間を文字高さHとする。なお、この文字高さHは、対象領域のy方向の範囲として用いられる。これによって、処理対象領域に占める文字を構成する領域の割合を増加させることができ、延いては、文字の認識の精度を高めることができる。 Next, the character extracting unit 104 calculates the character height H c based with predetermined thresholds T 1 which is set in advance in the projection P y (S404). Here, the character extraction unit 104 searches for a section in the y direction indicated by the two y coordinates such that P y (y) ≧ T 1, and among the corresponding sections, the maximum section is the character height. Let Hc . The character height Hc is used as a range in the y direction of the target area. Thereby, the ratio of the area | region which comprises the character which occupies for a process target area | region can be increased, and the recognition accuracy of a character can be raised by extension.

次に、文字抽出部104は、後述する第1文字領域抽出処理を実行し(S405)、更に、後述する並列文字領域抽出処理を実行し(S406)、文字領域抽出処理を終了する。   Next, the character extraction unit 104 executes a first character area extraction process to be described later (S405), further executes a parallel character area extraction process to be described later (S406), and ends the character area extraction process.

(第1文字領域抽出処理)
第1文字領域抽出処理の動作について説明する。図20は、第1文字領域抽出処理の動作を示すフローチャートである。図21は、x方向射影を示す図である。図22は、部分撮像画像を示す図である。
(First character area extraction processing)
The operation of the first character area extraction process will be described. FIG. 20 is a flowchart showing the operation of the first character area extraction process. FIG. 21 is a diagram showing x-direction projection. FIG. 22 is a diagram illustrating a partially captured image.

図20に示すように、文字抽出部104は、まず、二値化画像のx方向射影Pを以下の式により算出する(S501)。ここで、射影Pは、x座標毎に算出される合計輝度値を示す。 As shown in FIG. 20, the character extraction unit 104 first calculates the x-direction projection P x of the binarized image using the following equation (S501). Here, the projection P x indicates a total luminance value calculated for each x coordinate.


は二値化画像の高さ。図21に射影Pの例を示す。

H 1 is the height of the binarized image. An example of a projection P x Figure 21.

次に、文字抽出部104は、射影Pのx方向の重心座標xgを以下の式により算出する(S502)。 Next, the character extraction unit 104 calculates the center-of-gravity coordinates xg in the x direction of the projection P x by the following formula (S502).

次に、文字抽出部104は、x方向に予め設定されたウィンドウ幅Wsを用いて、幅(2・Ws)を持つ抽出ウィンドウを射影Pに設け、その抽出ウィンドウの中心をx方向にxg−Wsからxg+Wsの間を1ピクセルごと左から右に移動しながら抽出ウィンドウ内の射影Pの合計を算出する。この抽出ウィンドウ内の射影Pの合計が最大となる抽出ウィンドウの中心座標xを算出する(S504)。 Next, using the window width Ws preset in the x direction, the character extraction unit 104 provides an extraction window having a width (2 · Ws) in the projection P x and sets the center of the extraction window in the x direction to xg calculating the sum of the projection P x within the extraction window while moving between xg + Ws from the left by one pixel to the right from -ws. The total projection P x in the extraction window to calculate the center coordinates x c of the extraction window having the maximum (S504).

次に、文字抽出部104は、後述する位置補正処理により抽出ウィンドウの中心座標xのx方向位置を補正し(S505)、撮像画像における抽出ウィンドウ内の領域の画像を図22に示すような部分撮像画像として抽出し(S506)、文字領域抽出処理を終了する。図22には、カウンタ値における一の位の”5”を含む部分画像が示される。 Then, the character extraction unit 104 corrects the x-direction position of the center coordinates x c of the extraction window by the position correcting process which will be described later (S505), the image of the region within the extraction window in the captured image as shown in FIG. 22 Extracted as a partially picked-up image (S506), and the character region extraction processing is terminated. FIG. 22 shows a partial image including the first place “5” in the counter value.

このように、二値化画像における射影Pの重心座標Xgを初期値として抽出ウィンドウの中心座標xを算出することにより、重心座標Xgを抽出ウィンドウの中心にセットする場合に比べ、より文字が存在する可能性が高い領域に対して、最初に抽出ウィンドウをセットすることができる。なお、この抽出ウィンドウは、並列文字領域抽出処理により左右に移動し最適位置に補正される。 Thus, by calculating the center coordinate x c in the extraction window barycentric coordinates Xg projection P x in the binarized image as an initial value, compared with the case of setting the center of the extraction window barycentric coordinates Xg, more characters The extraction window can be set first for regions where there is a high probability of being present. Note that this extraction window is moved to the left and right by the parallel character area extraction process and is corrected to the optimum position.

(位置補正処理)
位置補正処理について説明する。図23は、位置補正処理の動作を示すフローチャートである。
(Position correction processing)
The position correction process will be described. FIG. 23 is a flowchart showing the operation of the position correction process.

図23に示すように、まず、文字抽出部104は、中心座標xを中心としてウィンドウ幅Wsを左右に有する抽出ウィンドウを回転補正された撮像画像にセットし、この抽出ウィンドウ内の回転補正された撮像画像を部分撮像画像として抽出し(S601)、この部分撮像画像を判別分析法により二値化する(S602)。 As shown in FIG. 23, first, the character extracting unit 104 sets the extraction window having a window width Ws in lateral to the center coordinate x c in the rotation correction captured image, the rotation correction in this extraction window The captured image is extracted as a partially captured image (S601), and the partially captured image is binarized by a discriminant analysis method (S602).

次に、文字抽出部104は、二値化された部分撮像画像におけるx方向の重心座標xgを以下の式により算出する(S603)。 Next, the character extraction unit 104 calculates the centroid coordinates x c g in the x direction in the binarized partially captured image by the following formula (S603).


2Bは二値化された部分撮像画像、Hは部分撮像画像の高さ。

F 2B is a binarized partially captured image, and H 2 is the height of the partially captured image.

次に、文字抽出部104は、中心座標xと重心座標xgとが一致するか否かを判定する(S604)。ここで、文字抽出部104は、xg−Ws=0である場合に中心座標xと重心座標xgとが一致すると判定する。 Next, the character extracting unit 104 determines whether the center coordinates x c and the center of gravity coordinates x c g match (S604). Here, the character extraction unit 104 determines that the center coordinate x c and the center-of-gravity coordinate x c g match when x c g−Ws = 0.

中心座標xと重心座標xgとが一致する場合(S604,YES)、文字抽出部104は、位置補正処理を終了する。 When the center coordinates x c and the geometric center coordinates x c g match (S604, YES), the character extracting unit 104 ends the position correction processing.

一方、中心座標xと重心座標xgとが一致しない場合(S604,NO)、文字抽出部104は、中心座標xをx方向にシフトして抽出ウィンドウを移動させ(S605)、移動された抽出ウィンドウ内の回転補正した撮像画像を部分撮像画像として抽出する(S601)。抽出ウィンドウの移動においては、中心座標xには、重心座標xgからウィンドウ幅Wsを減算した値に中心座標xを加算した値が代入される。 On the other hand, if the center coordinate x c and the center-of-gravity coordinate x c g do not match (S604, NO), the character extraction unit 104 shifts the center coordinate x c in the x direction and moves the extraction window (S605). The rotation-corrected captured image in the extracted window is extracted as a partially captured image (S601). In the movement of the extraction window, the center coordinates x c, a value obtained by adding the center coordinate x c to a value obtained by subtracting the window width Ws from the center of gravity coordinates x c g is substituted.

このように、位置補正処理によれば、中心座標xと重心座標xgとが一致するように抽出ウィンドウのx方向位置を変化させることにより、抽出ウィンドウにより抽出される部分撮像画像による文字抽出の精度を向上させることができる。 As described above, according to the position correction process, by changing the position of the extraction window in the x direction so that the center coordinate x c and the center of gravity coordinate x c g coincide with each other, the character based on the partially captured image extracted by the extraction window is displayed. The accuracy of extraction can be improved.

(並列文字領域抽出処理)
並列文字領域抽出処理の動作について説明する。図24は、並列文字領域抽出処理の動作を示すフローチャートである。
(Parallel character area extraction processing)
The operation of the parallel character area extraction process will be described. FIG. 24 is a flowchart showing the operation of the parallel character area extraction process.

図24に示すように、まず、文字抽出部104は、二値化画像及び撮像画像に設定された抽出ウィンドウの中心座標xを予め設定された文字間隔値分右方向へ動かし(S701)、後述する文字判定処理を実行し(S702)、この文字判定処理により抽出ウィンドウ内に文字があると判定されたか否かを判定する(S703)。 As shown in FIG. 24, first, the character extracting unit 104 moves the center coordinate x c in the extraction window that is set to the binary image and the captured image into predetermined character spacing value to the right direction (S701), A character determination process to be described later is executed (S702), and it is determined whether or not it is determined by this character determination process that there is a character in the extraction window (S703).

抽出ウィンドウ内に文字があると判定されない場合(S703,NO)、文字抽出部104は、第1文字領域抽出処理により二値化画像及び撮像画像に設定された抽出ウィンドウの中心座標xを文字間隔値分左方向へ動かし(S704)、文字判定処理を実行し(S705)、この文字判定処理により抽出ウィンドウ内に文字があると判定されたか否かを判定する(S706)。 If in the extraction window is not determined that there is a character (S703, NO), the character extracting unit 104, the center coordinates x c of the set extraction window by the first character area extraction processing to the binary image and the captured image characters The character is moved leftward by the interval value (S704), character determination processing is executed (S705), and it is determined whether or not it is determined by this character determination processing that there is a character in the extraction window (S706).

抽出ウィンドウ内に文字があると判定されない場合(S706,NO)、文字抽出部104は、並列文字領域抽出処理を終了する。   If it is not determined that there is a character in the extraction window (S706, NO), the character extraction unit 104 ends the parallel character region extraction process.

一方、抽出ウィンドウ内に文字があると判定された場合(S706,YES)、文字抽出部104は、上述した位置補正処理により抽出ウィンドウの中心座標xの位置を補正し(S707)、抽出ウィンドウ内の領域の撮像画像を部分撮像画像として抽出し(S708)、再度、抽出ウィンドウの中心座標xを文字間隔値分左方向へ動かす。(S704)。 On the other hand, if it is determined that there is a character in the extraction window (S706, YES), the character extraction unit 104 corrects the position of the center coordinates x c of the extraction window by the above-described position correction processing (S707), extraction window extracting a captured image area of the inner as partial captured image (S 708), again, moving the center coordinate x c of the extraction window to character spacing values to the left direction. (S704).

また、ステップS703において、抽出ウィンドウ内に文字があると判定された場合(S703,YES)、文字抽出部104は、上述した位置補正処理により抽出ウィンドウの中心座標xの位置を補正し(S709)、抽出ウィンドウ内の回転補正された撮像画像を部分撮像画像として抽出し(S710)、再度、抽出ウィンドウの中心座標xを文字間隔値分右方向へ動かす(S701)。 Further, in step S703, if it is determined that there is a character in the extraction window (S703, YES), the character extraction unit 104 corrects the position of the center coordinates x c of the extraction window by the above-described position correction processing (S709 ), rotation correction captured image in the extraction window is extracted as a partial captured image (S710), again, moving the center coordinate x c of the extraction window to character spacing values to the right direction (S701).

このように、並列文字領域抽出処理によれば、第1文字領域抽出処理により決定された抽出ウィンドウを左右に動かして、第1文字領域抽出処理により特定された領域に並列する数値の領域を特定することができる。また、並列文字領域抽出処理による左右方向それぞれへの探索は、文字判定処理により抽出ウィンドウ内に文字が存在しないと判定された場合に抽出ウィンドウがカウンタ部934の数値部分よりも外方の端部側へ達したと見做され終了される。   As described above, according to the parallel character area extraction process, the numerical window parallel to the area specified by the first character area extraction process is specified by moving the extraction window determined by the first character area extraction process left and right. can do. Further, in the search in the left and right directions by the parallel character area extraction process, when the character determination process determines that there is no character in the extraction window, the extraction window has an end portion outside the numerical value portion of the counter unit 934. It is considered that it has reached the side and is finished.

(文字判定処理)
文字判定処理の動作について説明する。図25は、文字判定処理の動作を示すフローチャートである。図26は、右上角と左下角とを結ぶ対角線により分割された2つの領域を示す図である。図27は、左上角と右下角とを結ぶ対角線により分割された2つの領域を示す図である。図28は、左右に分割された2つの領域を示す図である。図29は、合計輝度値による文字判定に用いられる画像を示す図である。図30は、文字領域抽出処理による抽出結果を示す図である。
(Character determination processing)
The operation of the character determination process will be described. FIG. 25 is a flowchart showing the operation of the character determination process. FIG. 26 is a diagram illustrating two regions divided by a diagonal line connecting the upper right corner and the lower left corner. FIG. 27 is a diagram illustrating two regions divided by a diagonal line connecting the upper left corner and the lower right corner. FIG. 28 is a diagram showing two regions divided into left and right. FIG. 29 is a diagram illustrating an image used for character determination based on the total luminance value. FIG. 30 is a diagram illustrating an extraction result obtained by the character region extraction process.

図25に示すように、まず、文字抽出部104は、二値化画像における抽出ウィンドウ内の合計輝度値が所定比率未満であるかを判定する(S801)。ここで、文字抽出部104は、具体的には、白画素の数が抽出ウィンドウ内の総画素数の16分の1未満であるか否かを判定する。この判定によれば、抽出ウィンドウ内に白画素が極端に少ない場合に抽出ウィンドウ内に文字が存在しないと判定される。   As shown in FIG. 25, first, the character extraction unit 104 determines whether the total luminance value in the extraction window in the binarized image is less than a predetermined ratio (S801). Here, specifically, the character extraction unit 104 determines whether or not the number of white pixels is less than 1/16 of the total number of pixels in the extraction window. According to this determination, when there are extremely few white pixels in the extraction window, it is determined that no character exists in the extraction window.

合計輝度値が所定比率未満ではない場合(S801,NO)、文字抽出部104は、図26に示すように、二値化画像における抽出ウィンドウ内の領域を右上角から左下角への対角線により分割した領域A、領域Bとし(S802)、これらの領域間に合計輝度値の偏りがあるか否かを判定する(S803)。ここで、文字抽出部104は、具体的には、領域Aにおける合計輝度値をS、領域Bにおける合計輝度値をSとした際、SがSの5倍以上である場合、または、SがSの5倍以上である場合に領域Aと領域Bとの間に合計輝度値の偏りがあると判定する。 If the total luminance value is not less than the predetermined ratio (S801, NO), the character extraction unit 104 divides the region in the extraction window in the binarized image by a diagonal line from the upper right corner to the lower left corner as shown in FIG. Region A and region B (S802), and it is determined whether or not there is a bias in the total luminance value between these regions (S803). Here, the character extraction unit 104, specifically, when the total luminance value in the region A S A, the total luminance value in the region B was set to S B, if S A is greater than or equal to 5 times the S B, Alternatively, it is determined that there is a bias in the total luminance value between the region A and the region B when S B is 5 times or more of S A.

領域間に輝度値の偏りがない場合(S803,NO)、文字抽出部104は、図27に示すように、二値化画像における抽出ウィンドウ内の領域を左上角から右下角への対角線により分割した領域A、領域Bとし(S804)、これらの領域間に合計輝度値の偏りがあるか否かを判定する(S805)。ここで、文字抽出部104は、具体的には、上述の判定と同様に、領域Aにおける合計輝度値をS、領域Bにおける合計輝度値をSとした際、SがSの5倍以上である場合、または、SがSの5倍以上である場合に領域Aと領域Bとの間に合計輝度値の偏りがあると判定する。 When there is no luminance value bias between the regions (S803, NO), the character extraction unit 104 divides the region in the extraction window in the binarized image by a diagonal line from the upper left corner to the lower right corner as shown in FIG. Region A and region B (S804), and it is determined whether there is a bias in the total luminance value between these regions (S805). Here, specifically, the character extraction unit 104, when the total luminance value in the region A is S A and the total luminance value in the region B is S B , as in the above determination, S A is S B. If it is 5 times or more, or determines that the S B is skewed a total luminance value between the regions a and B when it is more than five times the S a.

領域間に輝度値の偏りがない場合(S805,NO)、文字抽出部104は、図28に示すように、二値化画像における抽出ウィンドウ内の領域を中心縦線に分割した領域A、領域Bとし(S806)、これらの領域間に合計輝度値の偏りがあるか否かを判定する(S807)。ここで、文字抽出部104は、具体的には、領域Aにおける合計輝度値をS、領域Bにおける合計輝度値をSとした際、SがSの10倍以上である場合、または、SがSの10倍以上である場合に領域Aと領域Bとの間に合計輝度値の偏りがあると判定する。 When there is no luminance value bias between the regions (S805, NO), the character extraction unit 104 divides the region in the extraction window in the binarized image into a central vertical line as shown in FIG. B (S806), it is determined whether there is a bias in the total luminance value between these areas (S807). Here, the character extraction unit 104, specifically, when the total luminance value in the region A S A, the total luminance value in the region B was set to S B, if S A is greater than or equal to 10 times the S B, Alternatively, when S B is 10 times or more of S A , it is determined that there is a bias in the total luminance value between region A and region B.

領域間に合計輝度値の偏りがない場合(S807,NO)、文字抽出部104は、撮像画像における抽出ウィンドウ内の領域について、ソーベルフィルタを適用した画像と元画像とを加算し、更に判定判別法により二値化した判定用部分画像を生成する(S808)。生成後、文字抽出部104は、図29(a)に示すような二値化画像における抽出ウィンドウ内の合計輝度値と、図29(b)に示すような判定用部分画像における合計輝度値との差が、予め設定された所定値以上であるか否かを判定する(S809)。本実施の形態においては、この判定に用いる所定値を175とする。   When there is no bias of the total luminance value between the regions (S807, NO), the character extraction unit 104 adds the image to which the Sobel filter is applied and the original image for the region in the extraction window in the captured image, and further determines. A determination partial image binarized by the discrimination method is generated (S808). After the generation, the character extraction unit 104 calculates the total luminance value in the extraction window in the binarized image as shown in FIG. 29A and the total luminance value in the determination partial image as shown in FIG. It is determined whether or not the difference is greater than or equal to a predetermined value set in advance (S809). In the present embodiment, the predetermined value used for this determination is 175.

合計輝度値の差が所定値以上ではない場合(S809,NO)、文字抽出部104は、抽出ウィンドウ内の領域に文字があると判定し(S810)、文字判定処理を終了する。   If the difference between the total luminance values is not greater than or equal to the predetermined value (S809, NO), the character extraction unit 104 determines that there is a character in the area within the extraction window (S810), and ends the character determination process.

一方、合計輝度値の差が所定値以上である場合(S809,YES)、文字抽出部104は、抽出ウィンドウ内の領域に文字がないと判定し(S811)、文字判定処理を終了する。   On the other hand, if the difference between the total luminance values is equal to or greater than the predetermined value (S809, YES), the character extraction unit 104 determines that there is no character in the area in the extraction window (S811), and ends the character determination process.

また、ステップS807において、領域間に合計輝度値の偏りがある場合(S807,YES)、文字抽出部104は、抽出ウィンドウ内の領域に文字がないと判定する(S811)。   In step S807, if there is a bias in the total luminance value between the regions (S807, YES), the character extraction unit 104 determines that there are no characters in the region in the extraction window (S811).

また、ステップS805において、領域間に合計輝度値の偏りがある場合(S805,YES)、文字抽出部104は、抽出ウィンドウ内の領域に文字がないと判定する(S811)。   In step S805, if there is a bias in the total luminance value between the regions (S805, YES), the character extraction unit 104 determines that there are no characters in the region in the extraction window (S811).

また、ステップS803において、領域間に合計輝度値の偏りがある場合(S803,YES)、文字抽出部104は、抽出ウィンドウ内の領域に文字がないと判定する(S811)。   In step S803, if there is a bias in the total luminance value between the regions (S803, YES), the character extraction unit 104 determines that there are no characters in the region in the extraction window (S811).

また、ステップS801において、合計輝度値が所定比率未満である場合(S801,YES)、文字抽出部104は、抽出ウィンドウ内の領域に文字がないと判定する(S811)。   In step S801, when the total luminance value is less than the predetermined ratio (S801, YES), the character extraction unit 104 determines that there is no character in the area in the extraction window (S811).

このように、文字判定処理によれば、抽出ウィンドウ内の合計輝度値に基づいて、抽出ウィンドウ内に文字が存在するか否かを判定することができる。また、位置補正処理を含む第1文字領域抽出処理と、文字判定処理及び位置補正処理を含む並列文字領域抽出処理とを含む文字抽出処理によれば、図30に示すように、例えば、W1〜W6の順に抽出ウィンドウの位置が移動される。このうち、W1、W3、W4、W5は文字があると判定され、W2はステップS809の判定により文字がないと判定され、W6は、ステップS803の判定により文字がないと判定される。なお、抽出ウィンドウW1、W3、W4、W5により抽出された部分撮像画像は、桁数を示す桁値が対応付けられるものとし、この桁値は、最も右側に位置するものを0として、1ずつ増加するようになっている。   Thus, according to the character determination process, it is possible to determine whether or not a character exists in the extraction window based on the total luminance value in the extraction window. Further, according to the character extraction process including the first character area extraction process including the position correction process and the parallel character area extraction process including the character determination process and the position correction process, as illustrated in FIG. The position of the extraction window is moved in the order of W6. Among these, W1, W3, W4, and W5 are determined to have characters, W2 is determined to have no characters by the determination in step S809, and W6 is determined to have no characters by the determination in step S803. The partial captured images extracted by the extraction windows W1, W3, W4, and W5 are associated with digit values indicating the number of digits. It has come to increase.

(スケール調整処理)
スケール処理について説明する。図31は、文字高さと抽出ウィンドウ間の距離との相関関係を示すグラフである。
(Scale adjustment processing)
The scale process will be described. FIG. 31 is a graph showing the correlation between the character height and the distance between the extraction windows.

カメラ13と表示部93との距離や、水道メータ9の種別の違いなどによって、撮像画像における文字の大きさが特徴量辞書を作成するときに使用した文字の大きさと異なる状況が存在する。これに対し、スケール調整部105は、スケール調整処理により部分撮像画像のスケールを調整する。ここで、スケール調整に係る倍率は、図31に示すような事前に計測された文字同士の間隔と文字高さとの相関関係から得られた近似直線によって決定され、本実施の形態において、この近似直線はy=0.9709x−5.3309とする。   Depending on the distance between the camera 13 and the display unit 93, the difference in the type of the water meter 9, and the like, there are situations where the character size in the captured image differs from the character size used when creating the feature dictionary. On the other hand, the scale adjustment unit 105 adjusts the scale of the partially captured image by the scale adjustment process. Here, the scale factor for scale adjustment is determined by an approximate line obtained from the correlation between the distance between the characters measured in advance as shown in FIG. 31 and the character height. The straight line is y = 0.9709x−5.3309.

スケール調整部105は、まず、文字として判定された複数の抽出ウィンドウにおいて、隣り合う抽出ウィンドウの中心座標x間の距離をそれぞれ算出し、算出した距離の平均値を近似直線に代入することによって文字高さを算出する。更に、スケール調整部105は、算出された文字高さに基づいて、部分撮像画像のスケールを調整する。 Scaling unit 105, first, in a plurality of extraction window that is determined as a character, by calculating the distance between the center coordinate x c of the extraction window adjacent each substitutes the average value of the calculated distance to the approximate line Calculate the text height. Furthermore, the scale adjustment unit 105 adjusts the scale of the partially captured image based on the calculated character height.

(特徴量算出処理)
特徴量算出処理について説明する。図32は、部分撮像画像を二値化した二値画像及び特徴量算出処理結果を画像で表わした結果を示す図である。図33は、特徴量パターンを示す図である。
(Feature amount calculation process)
The feature amount calculation process will be described. FIG. 32 is a diagram illustrating a binary image obtained by binarizing the partially captured image and a result of representing the feature amount calculation processing result as an image. FIG. 33 is a diagram illustrating a feature amount pattern.

特徴量算出部106は、まず、例えば微分ヒストグラム法によって、図32(a)に示すように部分撮像画像を二値化し、この二値化画像を図32(b)に示すように特徴量算出する。ここで特徴量算出部106は、二値化画像をx方向に、左領域、中領域、右領域に三分割し、y座標(行)毎にそれぞれの領域内に含まれる輝度値に基づいて、各領域を0または1に設定する。本実施形態においては、白画素が3ピクセル以上続く場合に1と設定し、それ以外の場合に0と設定する。このように行ごとに算出した特徴量集合を作成する。これを以後特徴量画像と呼ぶ。この特徴量画像において、各y座標(行)は、図33において3ビット(0〜7の値)で表現される。このように、部分撮像画像を特徴量の集合として表わすことによりマッチング処理における堅牢性が向上するとともに、部分撮像画像を後述するマッチング処理に適したものとすることができる。   The feature amount calculation unit 106 first binarizes the partially captured image as shown in FIG. 32A by, for example, a differential histogram method, and calculates the feature amount as shown in FIG. 32B. To do. Here, the feature amount calculation unit 106 divides the binarized image into three parts in the x direction, the left region, the middle region, and the right region, and based on the luminance value included in each region for each y coordinate (row). Each area is set to 0 or 1. In the present embodiment, 1 is set when the white pixel continues for 3 pixels or more, and 0 is set otherwise. In this way, a feature amount set calculated for each row is created. This is hereinafter referred to as a feature image. In this feature amount image, each y coordinate (row) is represented by 3 bits (values of 0 to 7) in FIG. Thus, by representing the partially captured image as a set of feature amounts, robustness in the matching process is improved, and the partially captured image can be suitable for the matching process described later.

(マッチング処理)
マッチング処理について説明する。図34は、マッチング処理の動作を示すフローチャートである。図35は、数字の変形箇所を示す図である。図36は、マッチング処理に用いられるカーネル関数を示す図である。図37は、特徴量化された5と6との違いを示す図である。
(Matching process)
The matching process will be described. FIG. 34 is a flowchart showing the operation of the matching process. FIG. 35 is a diagram illustrating a deformed portion of a number. FIG. 36 is a diagram showing a kernel function used for the matching process. FIG. 37 is a diagram illustrating the difference between the feature quantities 5 and 6. In FIG.

図34に示すように、まず、マッチング処理部107は、未選択の特徴量画像を選択し(S901)、未選択の特徴量辞書を選択する(S902)。   As shown in FIG. 34, first, the matching processing unit 107 selects an unselected feature amount image (S901), and selects an unselected feature amount dictionary (S902).

ここで、特徴量辞書について説明する。特徴量辞書は、円筒状の数字ドラムの側面を円周方向に3°ずつずらして全周を撮像した120枚の画像をそれぞれの特徴量算出を行い集合としたものである。図35に示すように、カウンタ部934の文字は数字ドラムの側面に表示され、この側面の断面形状は円弧を描いているため、数字ドラム中心から上下に離れるにつれ文字の変形が増大する。また、数字ドラムの側面には0〜9の数値が配置されており、カウンタ値の変化途中においては、例えば、隣り合って配置される2つの数値が同時に視認可能となる。そのため、このように個々の数字を撮像した画像だけでなく、変化途中も考慮した画像をも用いることによって、より精度の高いマッチングを行うことができる。なお、これら120個の特徴量辞書のそれぞれには、0.0〜9.9の値が対応付けられており、この値において、整数部はカウンタ値として表示される数字を示し、小数部は数字ドラムの回転方向に隣り合う数字への変化度合を示す。例えば、9から0へ変化する途中の状態であって、上方に9の一部と下方に0の一部とが撮像された特徴量辞書には9.5が設定される。この特徴量辞書に対応付けられる値はカウンタ値判定処理に用いられる。   Here, the feature amount dictionary will be described. The feature amount dictionary is a set of 120 images obtained by capturing the entire circumference by shifting the side surface of the cylindrical number drum by 3 ° in the circumferential direction and calculating the respective feature amounts. As shown in FIG. 35, the character of the counter unit 934 is displayed on the side surface of the number drum, and the cross-sectional shape of this side surface draws an arc, so that the deformation of the character increases as it moves up and down from the center of the number drum. In addition, numerical values of 0 to 9 are arranged on the side surfaces of the numeric drum, and for example, two numerical values arranged adjacent to each other can be visually recognized during the change of the counter value. Therefore, by using not only an image obtained by capturing individual numbers in this way but also an image that considers the middle of a change, matching with higher accuracy can be performed. Each of these 120 feature quantity dictionaries is associated with a value of 0.0 to 9.9. In this value, the integer part indicates a number displayed as a counter value, and the decimal part is Indicates the degree of change to the number adjacent to the rotation direction of the number drum. For example, 9.5 is set in the feature amount dictionary in which a part of 9 is imaged upward and a part of 0 is imaged in the middle while changing from 9 to 0. The value associated with the feature dictionary is used for the counter value determination process.

次に、マッチング処理部107は、選択した特徴量画像及び特徴量辞書との類似度Rを以下の式により算出する(S903)。   Next, the matching processing unit 107 calculates the similarity R between the selected feature image and the feature dictionary using the following formula (S903).


I(h)はh行における特徴量画像の特徴量、T(h)はh行における特徴量辞書の特徴量を示す。テルソン積記号は特徴量の組み合わせに対して設定されたカーネル値を決定する演算を示し、後述するカーネル関数が用いられる。また、

I (h) represents the feature amount of the feature amount image in the h row, and T (h) represents the feature amount of the feature amount dictionary in the h row. The Telson product symbol indicates an operation for determining a kernel value set for a combination of feature amounts, and a kernel function described later is used. Also,


であり、この処理によればh行とマッチングする対象を特徴量辞書h−Δh行〜h+Δh行の合計2・Δh+1行の中で演算値が最大のものがマッチング結果として採用される。これにより、スケール調整処理によりスケール調整の誤差が生じた場合であっても、この誤差がマッチングに及ぼす影響を低減することができる。

According to this process, the target to be matched with the h row is selected as the matching result with the maximum calculated value in the total 2 · Δh + 1 rows of the feature amount dictionary h−Δh row to h + Δh row. Thereby, even when a scale adjustment error occurs due to the scale adjustment process, the influence of this error on matching can be reduced.

類似度Rの算出に用いられるカーネル関数は、図36に示すように、特徴量の組み合わせに対して、個々に重みを設定したものであり、区別すべき特徴量の組み合わせに対しては小さな値がセットされる。例えば、図37に示すような特徴量画像で表現された5と6とでは、その違いは一部分のみとなっているが、ここで、特徴量[001]=1と特徴量[101]=5に対して小さな値を設定することによって、マッチング処理における5と6の判別性能を向上させることができる。   As shown in FIG. 36, the kernel function used to calculate the similarity R is obtained by individually setting a weight for a combination of feature amounts, and a small value for a combination of feature amounts to be distinguished. Is set. For example, the difference between 5 and 6 expressed by the feature amount image as shown in FIG. 37 is only a part, but here, the feature amount [001] = 1 and the feature amount [101] = 5. By setting a small value for, the discrimination performance of 5 and 6 in the matching process can be improved.

類似度Rの算出後、マッチング処理部107は、未選択の特徴量辞書があるか否かを判定する(S904)。   After calculating the similarity R, the matching processing unit 107 determines whether there is an unselected feature amount dictionary (S904).

未選択の特徴量辞書がない場合(S904,NO)、マッチング処理部107は、算出された類似度Rが最大である特徴量辞書を選択し(S905)、この特徴量辞書に対応付けられた値を取得し(S906)、未選択の特徴量画像があるか否かを判定する(S907)。   When there is no unselected feature quantity dictionary (S904, NO), the matching processing unit 107 selects a feature quantity dictionary having the maximum calculated similarity R (S905), and is associated with this feature quantity dictionary. A value is acquired (S906), and it is determined whether there is an unselected feature amount image (S907).

未選択の特徴量画像がない場合(S907,NO)、マッチング処理を終了する。   If there is no unselected feature amount image (S907, NO), the matching process is terminated.

一方、未選択の特徴量画像がある場合(S907,YES)、マッチング処理部107は、再度、未選択の特徴量画像を選択する(S901)。   On the other hand, when there is an unselected feature value image (S907, YES), the matching processing unit 107 selects an unselected feature value image again (S901).

また、ステップS904において、未選択の特徴量辞書がある場合(S904,YES)、マッチング処理部107は、再度、未選択の特徴量辞書を選択する(S902)。   If there is an unselected feature value dictionary in step S904 (S904, YES), the matching processing unit 107 selects an unselected feature value dictionary again (S902).

(カウンタ値判定処理)
カウンタ値判定処理について説明する。図38は、カウンタ値判定処理の動作を示すフローチャートである。図39は、499から500に変化するカウンタ部を示す図である。
(Counter value judgment processing)
The counter value determination process will be described. FIG. 38 is a flowchart showing the operation of the counter value determination process. FIG. 39 is a diagram illustrating a counter unit that changes from 499 to 500.

図38に示すように、まず、カウンタ値判定部109は、最下位の桁を0とした変数nに0を代入し(S1001)、nがカウンタ値の桁数を示し、予め設定される設定桁数(本実施形態においては4)より小さいか否かを判定する(S1002)。   As shown in FIG. 38, first, the counter value determination unit 109 assigns 0 to a variable n with the least significant digit being 0 (S1001), where n indicates the number of digits of the counter value and is set in advance. It is determined whether or not it is smaller than the number of digits (4 in the present embodiment) (S1002).

nが設定桁数より小さい場合(S1002,YES)、n桁についてマッチング処理により取得された取得値(類似度Rが最大となる特徴量辞書に対応付けられた値)が9+Δnから10−Δnの区間内であるか否かを判定する(S1003)。ここで、Δnは予め設定する値であり桁上がりが発生しているかの判定を調整するパラメータとなっており、本実施の形態においては、0.3に設定されているものとする。   When n is smaller than the set number of digits (S1002, YES), the acquired value acquired by the matching process for n digits (the value associated with the feature dictionary having the maximum similarity R) is 9 + Δn to 10−Δn. It is determined whether it is within a section (S1003). Here, Δn is a parameter that is set in advance and is a parameter that adjusts the determination of whether a carry has occurred. In this embodiment, it is assumed that Δn is set to 0.3.

取得値が9+Δnから10−Δnの区間内である場合(S1003,YES)、カウンタ値判定部109は、n桁を後に判定の対象とする桁である判定保留桁に追加し(S1004)、nをインクリメントし(S1005)、再度、nが設定桁数より小さいか否かを判定する(S1002)。   When the acquired value is within the interval from 9 + Δn to 10−Δn (S1003, YES), the counter value determination unit 109 adds n digits to the determination pending digit that is a digit to be determined later (S1004), and n Is incremented (S1005), and it is determined again whether n is smaller than the set number of digits (S1002).

一方、取得値が9+Δnから10−Δnの区間外である場合(S1003,NO)、カウンタ値判定部109は、n桁目の取得値の小数部が(1−Δn)以下であるか否かを判定する(S1006)。   On the other hand, when the acquired value is outside the interval from 9 + Δn to 10−Δn (S1003, NO), the counter value determining unit 109 determines whether or not the decimal part of the acquired value of the nth digit is (1−Δn) or less. Is determined (S1006).

n桁についての取得値の小数部が(1−Δn)以下である場合(S1006,YES)、カウンタ値判定部109は、n桁目の取得値の整数部をn桁目の読取値とし(S1007)、変数mに0を代入し(S1008)、mが判定保留桁のうち最大のものである最大判定保留桁より小さいか否かを判定する(S1009)。   When the fractional part of the acquired value for n digits is equal to or less than (1-Δn) (S1006, YES), the counter value determining unit 109 sets the integer part of the acquired value for the nth digit as the reading value for the nth digit ( S1007), 0 is substituted into the variable m (S1008), and it is determined whether m is smaller than the maximum determination hold digit which is the maximum among the determination hold digits (S1009).

mが最大判定保留桁より小さい場合(S1009,YES)、カウンタ値判定部109は、m桁が判定保留桁かどうかを判定する(S1010)。   When m is smaller than the maximum determination pending digit (S1009, YES), the counter value determination unit 109 determines whether the m digit is a determination pending digit (S1010).

m桁が判定保留桁である場合(S1010,YES)、m桁の読取値を9としてm桁を判定保留桁から解除し(S1011)、mをインクリメントし(S1012)、再度、mが最大判定保留桁より小さいか否かを判定する(S1009)。ここで、読取値とは、最終的にカウンタ部932のカウンタ値として読み取られる値である。   When the m digit is the determination pending digit (S1010, YES), the m digit reading value is set to 9, the m digit is released from the determination pending digit (S1011), m is incremented (S1012), and m is determined to be the maximum again. It is determined whether it is smaller than the reserved digit (S1009). Here, the read value is a value that is finally read as a counter value of the counter unit 932.

一方、m桁が判定保留桁ではない場合(S1010,NO)、カウンタ値判定部109は、mをインクリメントする(S1012)。   On the other hand, when the m digit is not the determination pending digit (S1010, NO), the counter value determination unit 109 increments m (S1012).

また、ステップS1009において、mが最大判定保留桁以上である場合(S1009,NO)、カウンタ値判定部109は、nをインクリメントする(S1005)。   In step S1009, when m is equal to or greater than the maximum determination hold digit (S1009, NO), the counter value determination unit 109 increments n (S1005).

また、ステップS1006において、n桁についての取得値の小数部が(1−Δn)より大きい場合(S1006,NO)、カウンタ値判定部109は、n桁目の取得値の整数部+1をn桁目の読取値とし(S1013)、mに0を代入し(S1014)、mが最大判定保留桁より小さいか否かを判定する(S1015)。   In step S1006, when the fractional part of the acquired value for n digits is larger than (1−Δn) (S1006, NO), the counter value determining unit 109 sets the integer part + 1 of the acquired value for the nth digit to n digits. The read value of the eye (S1013), 0 is substituted for m (S1014), and it is determined whether m is smaller than the maximum determination hold digit (S1015).

mが最大判定対象保留桁より小さい場合(S1015,YES)、カウンタ値判定部109は、m桁が判定保留桁かどうかを判定する(S1016)。   When m is smaller than the maximum determination target hold digit (S1015, YES), the counter value determination unit 109 determines whether the m digit is a determination hold digit (S1016).

m桁が判定保留桁である場合(S1016,YES)、カウンタ値判定部109は、m桁の読取値を0としてm桁を判定保留桁から解除し(S1017)、mをインクリメントし(S1018)、再度、mが最大判定保留桁より小さいか否かを判定する(S1015)。   When the m digit is the determination pending digit (S1016, YES), the counter value determining unit 109 sets the m digit reading value to 0, cancels the m digit from the determination pending digit (S1017), and increments m (S1018). Then, it is determined again whether m is smaller than the maximum determination hold digit (S1015).

一方、m桁が判定保留桁ではない場合(S1016,NO)、カウンタ値判定部109は、mをインクリメントする(S1018)。   On the other hand, when the m digit is not the determination pending digit (S1016, NO), the counter value determination unit 109 increments m (S1018).

また、ステップS1015において、mが最大判定保留桁以上である場合(S1015,NO)、カウンタ値判定部109は、nをインクリメントする(S1005)。   In step S1015, when m is equal to or greater than the maximum determination hold digit (S1015, NO), the counter value determination unit 109 increments n (S1005).

また、ステップS1002において、nが設定桁数より小さくない場合(S1002、NO)、カウンタ値判定部109は、カウンタ値判定処理を終了する。   In step S1002, if n is not smaller than the set number of digits (S1002, NO), the counter value determination unit 109 ends the counter value determination process.

このように、カウンタ値判定処理によれば、図39に示すような、カウンタ値が[0499]から[0500]に変化している際の撮像画像について、0と9との間にある桁(判定対象桁)よりも上位の桁がより大きな数字へ変化中であるか否かを判定することによって、判定対象桁の数字を正しく読み取ることができる。なお、回転が不十分なカウンタ部を示す図40からわかるように、数字が変化途中でなくとも数字の上下方向における重心が中心位置から大きくずれている水道メータも存在するため、カウンタ値判定処理における小数部の閾値Δnを0.3程度に設定することが望ましい。   As described above, according to the counter value determination processing, as shown in FIG. 39, the digit (between 0 and 9) of the captured image when the counter value changes from [0499] to [0500] ( By determining whether or not the digit higher than the determination target digit) is changing to a larger number, the number of the determination target digit can be read correctly. In addition, as can be seen from FIG. 40 showing the counter portion that is not sufficiently rotated, there is a water meter in which the center of gravity in the vertical direction of the number is greatly deviated from the center position even if the number is not in the middle of the change. It is desirable to set the threshold value Δn of the decimal part at about 0.3.

本実施の形態において、文字認識プログラムは上述した文字認識装置の内部に予めインストールされているものとして記載したが、本発明における文字認識プログラムは記憶媒体に記憶されたものも含まれる。ここで記憶媒体とは、磁気テープ、磁気ディスク(ハードディスクドライブ等)、光ディスク(CD−ROM、DVDディスク等)、光磁気ディスク(MO等)、フラッシュメモリ等、欠陥検査装置に対し脱着可能な媒体や、さらにネットワークを介することで伝送可能な媒体等、上述した文字認識装置としてのコンピュータで読み取りや実行が可能な全ての媒体をいう。   In the present embodiment, the character recognition program is described as being installed in advance in the above-described character recognition device. However, the character recognition program in the present invention includes one stored in a storage medium. Here, the storage medium is a medium that is removable from the defect inspection apparatus, such as a magnetic tape, a magnetic disk (hard disk drive, etc.), an optical disk (CD-ROM, DVD disk, etc.), a magneto-optical disk (MO, etc.), and a flash memory. Further, it refers to all media that can be read and executed by a computer as the character recognition device described above, such as media that can be transmitted via a network.

発明の実施形態を説明したが、この実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although an embodiment of the invention has been described, this embodiment is presented as an example and is not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

11 文字認識装置、101 画像取得部、102 フィルタ処理部、104 文字抽出部、107 マッチング処理部。 11 character recognition device, 101 image acquisition unit, 102 filter processing unit, 104 character extraction unit, 107 matching processing unit

Claims (8)

並列する複数の文字を含む領域が階調で撮像された撮像画像を取得する画像取得部と、
前記撮像画像を二値化した二値化画像を生成するフィルタ処理部と、
前記二値化画像の縦座標毎に合計輝度値を算出した縦方向射影と、前記二値化画像の横座標毎に合計輝度値を算出した横方向射影とに基づいて、前記撮像画像における複数の文字のそれぞれを含む複数の部分画像を抽出する文字抽出部と、
前記複数の部分画像のそれぞれと予め記憶された辞書データとをマッチングして文字を認識するマッチング処理部と
を備える文字認識装置。
An image acquisition unit that acquires a captured image in which a region including a plurality of parallel characters is captured in gradation;
A filter processing unit that generates a binarized image obtained by binarizing the captured image;
Based on a vertical projection in which a total luminance value is calculated for each ordinate of the binarized image and a horizontal projection in which a total luminance value is calculated for each abscissa of the binarized image, a plurality of images in the captured image A character extraction unit that extracts a plurality of partial images including each of the characters;
A character recognition device comprising: a matching processing unit that recognizes a character by matching each of the plurality of partial images with dictionary data stored in advance.
前記文字抽出部は、前記縦方向射影に基づく縦方向範囲と所定の横幅とを有する第1抽出ウィンドウの横方向位置を前記横方向射影の重心に基づいて決定し、該第1抽出ウィンドウを前記撮像画像にセットし、前記第1抽出ウィンドウ内の画像を部分画像として抽出することを特徴とする請求項1に記載の文字認識装置。   The character extraction unit determines a horizontal position of a first extraction window having a vertical range based on the vertical projection and a predetermined horizontal width based on a center of gravity of the horizontal projection, and the first extraction window is determined as the first extraction window. The character recognition apparatus according to claim 1, wherein the character recognition apparatus is set to a captured image, and the image in the first extraction window is extracted as a partial image. 前記文字抽出部は、前記第1抽出ウィンドウと同等の縦方向範囲及び横幅とを有し、該第1抽出ウィンドウに対して横方向に所定距離単位で順次移動される第2抽出ウィンドウを前記撮像画像にセットし、前記第2抽出ウィンドウ内の画像を部分画像として抽出することを特徴とする請求項2に記載の文字認識装置。   The character extraction unit has a vertical range and a horizontal width equivalent to those of the first extraction window, and images the second extraction window that is sequentially moved in units of a predetermined distance in the horizontal direction with respect to the first extraction window. The character recognition apparatus according to claim 2, wherein the character recognition device is set to an image, and the image in the second extraction window is extracted as a partial image. 前記文字抽出部は、前記第2抽出ウィンドウを前記第1抽出ウィンドウに対して横方向一方へ順次移動させ、該第2抽出ウィンドウ内の領域画像が文字を含むか否かを該領域画像の合計輝度値に基づいて判定し、該領域画像が文字を含まない場合、前記第1抽出ウィンドウに対して横方向逆方へ順次移動させることを特徴とする請求項3に記載の文字認識装置。   The character extraction unit sequentially moves the second extraction window in one horizontal direction with respect to the first extraction window, and determines whether or not the region image in the second extraction window includes characters. 4. The character recognition device according to claim 3, wherein the character recognition device makes a determination based on a luminance value, and sequentially moves the region image in a laterally opposite direction with respect to the first extraction window when the region image does not include a character. 前記複数の部分画像のそれぞれの特徴量を算出して特徴量の集合である特徴量集合を生成する特徴量算出部を更に備え、
前記マッチング処理部は、予め記憶された特徴量の集合である前記辞書データと、前記特徴量集合との類似度を算出することにより文字を認識することを特徴とする請求項1〜請求項5のいずれか一項に記載の文字認識装置。
A feature amount calculation unit that calculates a feature amount of each of the plurality of partial images and generates a feature amount set that is a set of feature amounts;
The said matching process part recognizes a character by calculating the similarity degree between the said dictionary data which is a set of the feature-values memorize | stored previously, and the said feature-value set. The character recognition apparatus as described in any one of.
前記マッチング処理部は、前記辞書データに含まれる特徴量と前記特徴量集合に含まれる特徴量との組み合わせに対して予め設定された重みに基づいて、前記類似度を算出することを特徴とする請求項5に記載の文字認識装置。   The matching processing unit calculates the similarity based on a weight set in advance for a combination of a feature amount included in the dictionary data and a feature amount included in the feature amount set. The character recognition device according to claim 5. 並列する複数の文字を含む領域が階調で撮像された撮像画像を取得し、
前記撮像画像を二値化した二値化画像を生成し、
前記二値化画像の縦座標毎に合計輝度値を算出した縦方向射影と、前記二値化画像の横座標毎に合計輝度値を算出した横方向射影とに基づいて、前記撮像画像における複数の文字のそれぞれを含む複数の部分画像を抽出し、
前記複数の部分画像のそれぞれと予め記憶された辞書データとをマッチングして文字を認識する
処理をコンピュータに実行させる文字認識プログラム。
Acquire a captured image in which a region including a plurality of characters in parallel is captured with gradation,
Generating a binarized image obtained by binarizing the captured image;
Based on a vertical projection in which a total luminance value is calculated for each ordinate of the binarized image and a horizontal projection in which a total luminance value is calculated for each abscissa of the binarized image, a plurality of images in the captured image Extract multiple partial images containing each of the characters
A character recognition program for causing a computer to execute processing for recognizing a character by matching each of the plurality of partial images with dictionary data stored in advance.
コンピュータが、
並列する複数の文字を含む領域が階調で撮像された撮像画像を取得し、
前記撮像画像を二値化した二値化画像を生成し、
前記二値化画像の縦座標毎に合計輝度値を算出した縦方向射影と、前記二値化画像の横座標毎に合計輝度値を算出した横方向射影とに基づいて、前記撮像画像における複数の文字のそれぞれを含む複数の部分画像を抽出し、
前記複数の部分画像のそれぞれと予め記憶された辞書データとをマッチングして文字を認識する文字認識方法。
Computer
Acquire a captured image in which a region including a plurality of characters in parallel is captured with gradation,
Generating a binarized image obtained by binarizing the captured image;
Based on a vertical projection in which a total luminance value is calculated for each ordinate of the binarized image and a horizontal projection in which a total luminance value is calculated for each abscissa of the binarized image, a plurality of images in the captured image Extract multiple partial images containing each of the characters
A character recognition method for recognizing a character by matching each of the plurality of partial images with dictionary data stored in advance.
JP2016099709A 2016-05-18 2016-05-18 Character recognition device, character recognition program, character recognition method Active JP6744126B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016099709A JP6744126B2 (en) 2016-05-18 2016-05-18 Character recognition device, character recognition program, character recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016099709A JP6744126B2 (en) 2016-05-18 2016-05-18 Character recognition device, character recognition program, character recognition method

Publications (2)

Publication Number Publication Date
JP2017207910A true JP2017207910A (en) 2017-11-24
JP6744126B2 JP6744126B2 (en) 2020-08-19

Family

ID=60417250

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016099709A Active JP6744126B2 (en) 2016-05-18 2016-05-18 Character recognition device, character recognition program, character recognition method

Country Status (1)

Country Link
JP (1) JP6744126B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110781901A (en) * 2019-10-29 2020-02-11 湖北工业大学 Instrument ghost character recognition method based on BP neural network prediction threshold
CN110969063A (en) * 2018-09-30 2020-04-07 中移物联网有限公司 Meter reading method, meter reading equipment, remote meter reading device, remote meter reading system and storage medium
JP2020154554A (en) * 2019-03-19 2020-09-24 株式会社Third Instrument reading system
JP7429307B2 (en) 2020-07-03 2024-02-07 深▲セン▼思謀信息科技有限公司 Character string recognition method, device, equipment and medium based on computer vision

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110969063A (en) * 2018-09-30 2020-04-07 中移物联网有限公司 Meter reading method, meter reading equipment, remote meter reading device, remote meter reading system and storage medium
CN110969063B (en) * 2018-09-30 2023-08-18 中移物联网有限公司 Meter reading method, meter reading equipment, remote meter reading device, system and storage medium
JP2020154554A (en) * 2019-03-19 2020-09-24 株式会社Third Instrument reading system
JP7093321B2 (en) 2019-03-19 2022-06-29 株式会社Third Instrument reading system
CN110781901A (en) * 2019-10-29 2020-02-11 湖北工业大学 Instrument ghost character recognition method based on BP neural network prediction threshold
CN110781901B (en) * 2019-10-29 2023-04-28 湖北工业大学 Instrument ghost character recognition method based on BP neural network prediction threshold
JP7429307B2 (en) 2020-07-03 2024-02-07 深▲セン▼思謀信息科技有限公司 Character string recognition method, device, equipment and medium based on computer vision

Also Published As

Publication number Publication date
JP6744126B2 (en) 2020-08-19

Similar Documents

Publication Publication Date Title
CN107292857B (en) Image processing apparatus and method, and computer-readable storage medium
US8103077B2 (en) Method and system for locating opaque regions in chest X-ray radiographs
US8401247B2 (en) Image processing apparatus, biometric authentication apparatus, image processing method and recording medium
JP6744126B2 (en) Character recognition device, character recognition program, character recognition method
US8682048B2 (en) Image processing device, image processing method, computer-readable recording device
JP6352695B2 (en) Character detection apparatus, method and program
CN107067536B (en) A kind of image boundary determines method, apparatus, equipment and storage medium
KR20130049091A (en) Apparatus and method for detecting error of lesion contour, apparatus and method for correcting error of lesion contour and, apparatus for insecting error of lesion contour
JP2018055255A (en) Information processing apparatus, information processing method, and program
US20220292317A1 (en) Defect classification apparatus, method and program
JP2017102500A (en) Area extraction device, area extraction program, and area extraction method
EP3955207A1 (en) Object detection device
JP2013080389A (en) Vanishing point estimation method, vanishing point estimation device, and computer program
JP4541995B2 (en) Figure recognition method
JP2011107878A (en) Position detection apparatus and position detection method
JP2011087144A (en) Telop character area detection method, telop character area detection device, and telop character area detection program
JP5708305B2 (en) Image recognition apparatus, image recognition method, and computer program for image recognition
KR20130082849A (en) Apparatus and method of diagnosis of medical image for providing diagnosis source
KR100194583B1 (en) Facial component extraction system and its extraction method
JP7418158B2 (en) Information processing device, information processing method and program
JP5397103B2 (en) Face position detection device, face position detection method, and program
JP4870721B2 (en) Image feature extraction apparatus, image feature extraction method, program, and recording medium
JP2017053812A (en) Three-dimensional measurement device, illumination device, pattern generation device, and method
CN106295486B (en) The processing method and processing unit of file and picture
JP7393655B2 (en) Route recognition program, information processing device, and route recognition method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20180406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180406

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190408

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200630

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200730

R150 Certificate of patent or registration of utility model

Ref document number: 6744126

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350