JP6868057B2 - Reading system, reading method, program, storage medium, and mobile - Google Patents

Reading system, reading method, program, storage medium, and mobile Download PDF

Info

Publication number
JP6868057B2
JP6868057B2 JP2019098707A JP2019098707A JP6868057B2 JP 6868057 B2 JP6868057 B2 JP 6868057B2 JP 2019098707 A JP2019098707 A JP 2019098707A JP 2019098707 A JP2019098707 A JP 2019098707A JP 6868057 B2 JP6868057 B2 JP 6868057B2
Authority
JP
Japan
Prior art keywords
score
characters
image
character
character image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019098707A
Other languages
Japanese (ja)
Other versions
JP2020194281A (en
Inventor
利和 瀧
利和 瀧
翼 日下
翼 日下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Digital Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Digital Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Digital Solutions Corp filed Critical Toshiba Corp
Priority to JP2019098707A priority Critical patent/JP6868057B2/en
Priority to US16/879,887 priority patent/US11694451B2/en
Priority to CN202010461274.6A priority patent/CN112001392A/en
Publication of JP2020194281A publication Critical patent/JP2020194281A/en
Application granted granted Critical
Publication of JP6868057B2 publication Critical patent/JP6868057B2/en
Priority to US18/321,104 priority patent/US20230290161A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • G06V30/153Segmentation of character regions using recognition of characters or words
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/16Image preprocessing
    • G06V30/168Smoothing or thinning of the pattern; Skeletonisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/02Recognising information on displays, dials, clocks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Character Input (AREA)
  • Character Discrimination (AREA)

Description

本発明の実施形態は、読取システム、読取方法、プログラム、記憶媒体、及び移動体に関する。 Embodiments of the present invention relate to reading systems, reading methods, programs, storage media, and mobiles.

セグメントディスプレイに表示された文字(例えば数字)を読み取るシステムがある。読取システムについて、信頼性の向上が望まれている。 There is a system that reads the characters (for example, numbers) displayed on the segment display. It is desired to improve the reliability of the reading system.

特開2001−291054号公報Japanese Unexamined Patent Publication No. 2001-291554

本発明が解決しようとする課題は、信頼性を向上できる、読取システム、読取方法、プログラム、記憶媒体、及び移動体を提供することである。 An object to be solved by the present invention is to provide a reading system, a reading method, a program, a storage medium, and a mobile body capable of improving reliability.

実施形態に係る読取システムは、読取部及び算出部を備える。前記読取部は、複数のセグメントを含むセグメントディスプレイによって表示された文字を写した文字画像から、前記文字を読み取る。前記算出部は、第1スコアを算出する第1処理を実行し、前記第1スコアを用いて読み取りの確度を算出する前記第1処理において、前記算出部は、前記複数のセグメントに対応する複数の判定領域を前記文字画像に設定し、前記複数の判定領域のそれぞれにおいて、前記文字を示す細線化された画素に含まれる線の数と、前記判定領域と重なる前記線の角度と、に基づいて前記第1スコアを算出する。
The reading system according to the embodiment includes a reading unit and a calculation unit. The reading unit reads the characters from a character image of the characters displayed by the segment display including the plurality of segments. The calculation unit executes the first process of calculating the first score, and calculates the reading accuracy using the first score . In the first process, the calculation unit sets a plurality of determination regions corresponding to the plurality of segments in the character image, and includes each of the plurality of determination regions in the thin-lined pixels indicating the characters. The first score is calculated based on the number of lines to be drawn and the angle of the lines overlapping the determination area.

実施形態に係る読取システムの構成を表すブロック図である。It is a block diagram which shows the structure of the reading system which concerns on embodiment. 実施形態に係る読取システムによる処理を例示する図である。It is a figure which illustrates the process by the reading system which concerns on embodiment. 実施形態に係る読取システムによる処理を説明するための図である。It is a figure for demonstrating the processing by the reading system which concerns on embodiment. 実施形態に係る読取システムによる処理を説明するための図である。It is a figure for demonstrating the processing by the reading system which concerns on embodiment. 実施形態に係る読取システムによる処理を説明するための図である。It is a figure for demonstrating the processing by the reading system which concerns on embodiment. 実施形態に係る読取システムによる処理を説明するための図である。It is a figure for demonstrating the processing by the reading system which concerns on embodiment. 実施形態に係る読取システムによる処理を説明するための図である。It is a figure for demonstrating the processing by the reading system which concerns on embodiment. 実施形態に係る読取システムによる処理を説明するための図である。It is a figure for demonstrating the processing by the reading system which concerns on embodiment. 判定結果の組み合わせと数字との対応を例示する表である。It is a table exemplifying the correspondence between the combination of judgment results and numbers. 実施形態に係る読取システムによる処理を説明するための図である。It is a figure for demonstrating the processing by the reading system which concerns on embodiment. 実施形態に係る読取システムによる処理を説明するための図である。It is a figure for demonstrating the processing by the reading system which concerns on embodiment. 実施形態に係る読取システムによる処理を例示するフローチャートである。It is a flowchart which illustrates the process by the reading system which concerns on embodiment. 実施例における読取結果と確度を表すグラフである。It is a graph which shows the reading result and accuracy in an Example. セグメントディスプレイ及び判定領域の設定を例示する模式図である。It is a schematic diagram which illustrates the setting of a segment display and a determination area. 実施形態に係る読取システムの構成を表すブロック図である。It is a block diagram which shows the structure of the reading system which concerns on embodiment. 実施形態に係る別の読取システムの構成を表すブロック図である。It is a block diagram which shows the structure of another reading system which concerns on embodiment. 実施形態に係る別の読取システムの動作を説明する模式図である。It is a schematic diagram explaining the operation of another reading system which concerns on embodiment. 実施形態に係る読取システムによる処理を例示するフローチャートである。It is a flowchart which illustrates the process by the reading system which concerns on embodiment. 実施形態に係る読取システムによる処理を例示するフローチャートである。It is a flowchart which illustrates the process by the reading system which concerns on embodiment.

以下に、本発明の各実施形態について図面を参照しつつ説明する。
本願明細書と各図において、既に説明したものと同様の要素には同一の符号を付して詳細な説明は適宜省略する。
Hereinafter, each embodiment of the present invention will be described with reference to the drawings.
In the present specification and each figure, the same elements as those already described are designated by the same reference numerals, and detailed description thereof will be omitted as appropriate.

図1は、実施形態に係る読取システムの構成を表すブロック図である。
実施形態に係る読取システムは、セグメントディスプレイが撮影された画像から、セグメントディスプレイに表示された文字を読み取るために用いられる。セグメントディスプレイでは、複数のセグメントにより1つの文字が表示される。複数のセグメントの少なくとも一部が点灯し、残りのセグメントが消灯することで、文字が表示される。実施形態に係る読取システムは、この文字を画像から読み取る。セグメントディスプレイには、複数の文字が表示されても良い。この場合、複数の文字のそれぞれが、複数のセグメントの少なくとも一部の点灯により表示される。
FIG. 1 is a block diagram showing a configuration of a reading system according to an embodiment.
The reading system according to the embodiment is used to read the characters displayed on the segment display from the image captured by the segment display. In the segment display, one character is displayed by a plurality of segments. Characters are displayed by turning on at least a part of multiple segments and turning off the remaining segments. The reading system according to the embodiment reads this character from the image. A plurality of characters may be displayed on the segment display. In this case, each of the plurality of characters is displayed by lighting at least a part of the plurality of segments.

読み取り対象のセグメントディスプレイに含まれるセグメントの数は、任意である。例えば、読み取り対象のセグメントディスプレイは、7つのセグメントにより1つの文字が表示される、いわゆる7セグメントディスプレイである。7セグメントディスプレイは、数を示す文字(数字)を表示する。アルファベットを表示する14セグメントディスプレイ又は16セグメントディスプレイが読み取り対象であっても良い。ここでは、主として、実施形態に係る読取システムにより、7セグメントディスプレイに表示された数字を読み取る場合について説明する。 The number of segments included in the segment display to be read is arbitrary. For example, the segment display to be read is a so-called 7-segment display in which one character is displayed by seven segments. The 7-segment display displays letters (numbers) indicating numbers. A 14-segment display or a 16-segment display displaying an alphabet may be a reading target. Here, a case where the numbers displayed on the 7-segment display are read by the reading system according to the embodiment will be mainly described.

図1に表したように、実施形態に係る読取システム1は、処理装置10を備える。処理装置10は、受付部11、前処理部12、抽出部13、細線化部14、読取部15、算出部16、及び出力部17を含む。 As shown in FIG. 1, the reading system 1 according to the embodiment includes a processing device 10. The processing device 10 includes a reception unit 11, a preprocessing unit 12, an extraction unit 13, a thinning unit 14, a reading unit 15, a calculation unit 16, and an output unit 17.

図2(a)〜図2(d)は、実施形態に係る読取システムによる処理を例示する図である。
処理装置10には、セグメントディスプレイが撮影された画像が入力される。受付部11は、入力された画像を受け付ける。例えば、外部の撮像装置がセグメントディスプレイを撮影し、画像を生成する。撮像装置は、処理装置10へ画像を送信する。又は、画像は、外部の記憶装置から処理装置10へ送信されても良い。受付部11は、処理装置10へ送信された画像を受け付ける。画像には、セグメントディスプレイ以外のものが写っていても良い。ここでは、受付部11が受け付けた画像を、入力画像と呼ぶ。
2 (a) to 2 (d) are diagrams illustrating processing by the reading system according to the embodiment.
An image captured by the segment display is input to the processing device 10. The reception unit 11 receives the input image. For example, an external imaging device captures a segment display and generates an image. The image pickup apparatus transmits an image to the processing apparatus 10. Alternatively, the image may be transmitted from the external storage device to the processing device 10. The reception unit 11 receives the image transmitted to the processing device 10. The image may show something other than the segment display. Here, the image received by the reception unit 11 is referred to as an input image.

図2(a)は、処理装置10に送信された入力画像Aの一例である。図2(a)の例では、複数の数字がセグメントディスプレイに表示されている。それぞれの数字は、複数のセグメントにより表示されている。 FIG. 2A is an example of the input image A transmitted to the processing device 10. In the example of FIG. 2A, a plurality of numbers are displayed on the segment display. Each number is represented by multiple segments.

前処理部12は、セグメントディスプレイに表示された数字を読み取る前に、入力画像に前処理を加える。前処理により、数字の読み取りの精度を向上させることができる。例えば、前処理部12は、二値化部12a、膨張処理部12b、及び収縮処理部12cを含む。 The preprocessing unit 12 applies preprocessing to the input image before reading the numbers displayed on the segment display. Preprocessing can improve the accuracy of reading numbers. For example, the pretreatment unit 12 includes a binarization unit 12a, an expansion processing unit 12b, and a shrinkage processing unit 12c.

二値化部12aは、入力画像を二値化する。二値化された入力画像は、互いに異なる2つの色(第1色と第2色)で表される。ここでは、第1色が白であり、第2色が黒である場合を説明する。 The binarization unit 12a binarizes the input image. The binarized input image is represented by two different colors (first color and second color). Here, the case where the first color is white and the second color is black will be described.

例えば、セグメントディスプレイの背景は、暗い色である。点灯しているセグメントは、背景よりも明るい。このため、二値化された入力画像において、点灯しているセグメントは、白色で表される。消灯しているセグメント及び背景は、黒色で表される。すなわち、二値化された入力画像では、白色の画素により数字が示される。 For example, the background of the segment display is a dark color. The lit segment is brighter than the background. Therefore, in the binarized input image, the lit segment is represented in white. The off-lit segments and background are shown in black. That is, in the binarized input image, numbers are indicated by white pixels.

又は、液晶ディスプレイを用いたセグメントディスプレイでは、文字が背景よりも暗い色で表される。この場合、二値化された入力画像において、各画素の色を反転させる。反転させることで、上述した場合と同様に、白色の画素により数字が示される。以降では、点灯しているセグメントが白色で表され、消灯しているセグメント及び背景が黒色で表される場合について説明する。 Alternatively, in a segment display using a liquid crystal display, the characters are represented by a color darker than the background. In this case, in the binarized input image, the color of each pixel is inverted. By inverting, the numbers are indicated by the white pixels, as in the case described above. Hereinafter, a case where the lit segment is represented in white and the lit segment and the background are represented in black will be described.

例えば、入力画像は、赤(Red)と緑(Green)と青(Blue)との3つの原色を用いて示されるRGBカラーモデルとしてデータ化されている。二値化処理では、まず、この入力画像を、色相(Hue)と彩度(Saturation)と輝度(Value)との三つの成分からなるHSV色空間で示すデータに変換する。次に、HSV色空間のデータのヒストグラム解析を行う。続いて、各画素のヒストグラムに基づいて閾値を算出する。この閾値と各画素のヒストグラムに基づき、各画素を白色と黒色に二値化する。 For example, the input image is digitized as an RGB color model shown using three primary colors of red (Red), green (Green), and blue (Blue). In the binarization process, first, this input image is converted into data shown in an HSV color space composed of three components of hue, saturation, and luminance. Next, a histogram analysis of the data in the HSV color space is performed. Subsequently, the threshold value is calculated based on the histogram of each pixel. Based on this threshold value and the histogram of each pixel, each pixel is binarized into white and black.

膨張処理部12bは、二値画像において、白色の画素を膨張させる。例えば、膨張処理部12bは、白色画素に隣接する画素を白色に変更する。隣接する画素が元から白色の場合は、変更されない。例えば、ノイズ等の影響により、白色画素が集まった部分に黒色の画素が点在することがある。膨張処理により、点在する黒色画素が白色画素に変更される。これにより、ノイズ等の影響を低減し、数字の読み取り精度を向上させることができる。また、膨張処理により、近接する白色画素の集合同士を繋げることができる。近接する白色画素の集合同士が繋がることで、1つの数字に対応して1つの画素の集合が生成される。これにより、後述する文字画像の抽出が容易となる。 The expansion processing unit 12b expands the white pixels in the binary image. For example, the expansion processing unit 12b changes the pixel adjacent to the white pixel to white. If the adjacent pixels are originally white, they are not changed. For example, due to the influence of noise or the like, black pixels may be scattered in a portion where white pixels are gathered. By the expansion process, the scattered black pixels are changed to white pixels. As a result, the influence of noise and the like can be reduced, and the reading accuracy of numbers can be improved. Further, by the expansion process, it is possible to connect a set of adjacent white pixels. By connecting a set of adjacent white pixels to each other, a set of one pixel is generated corresponding to one number. This facilitates the extraction of the character image described later.

収縮処理部12cは、二値画像において、白色画素を収縮させる。例えば、収縮処理部12cは、黒色の画素に隣接する画素を黒色に変更する。隣接する画素が元から黒色の場合は、変更されない。収縮処理により、膨張した白色画素の数が減少する。 The shrinkage processing unit 12c shrinks the white pixel in the binary image. For example, the shrinkage processing unit 12c changes the pixel adjacent to the black pixel to black. If the adjacent pixel is originally black, it is not changed. The shrinkage process reduces the number of expanded white pixels.

図2(b)は、前処理(二値化、膨張処理、及び収縮処理)が行われた入力画像Aの一例である。図2(b)に表すように、これらの前処理により、各数字に対応した白色画素の集合が生成される。 FIG. 2B is an example of the input image A that has been preprocessed (binarized, expanded, and contracted). As shown in FIG. 2B, these preprocessings generate a set of white pixels corresponding to each number.

前処理部12は、上述した膨張処理及び収縮処理を、複数回実行しても良い。例えば、前処理部12は、膨張処理を2回以上実行した後に、収縮処理を2回以上実行する。前処理部12は、収縮処理を2回以上実行した後に、膨張処理を2回以上実行しても良い。例えば、膨張処理の実行回数と、収縮処理の実行回数は、同じに設定される。又は、膨張処理の実行回数が、収縮処理の実行回数と異なっていても良い。例えば、膨張処理の実行回数は、収縮処理の実行回数よりも多く設定される。 The pretreatment unit 12 may execute the above-mentioned expansion treatment and contraction treatment a plurality of times. For example, the pretreatment unit 12 executes the expansion process twice or more, and then executes the contraction process twice or more. The pretreatment unit 12 may execute the expansion treatment twice or more after executing the contraction treatment twice or more. For example, the number of times the expansion process is executed and the number of times the contraction process is executed are set to be the same. Alternatively, the number of times the expansion process is executed may be different from the number of times the contraction process is executed. For example, the number of executions of the expansion process is set to be larger than the number of executions of the contraction process.

前処理部12は、1回の膨張処理及び1回の収縮処理を含む処理セットを、複数回実行しても良い。1つの処理セットでは、膨張処理及び収縮処理の一方が実行された後、他方が実行される。1つの処理セットにおける膨張処理と収縮処理の順序が、別の処理セットにおける膨張処理と収縮処理の順序と異なっていても良い。 The pretreatment unit 12 may execute a treatment set including one expansion treatment and one contraction treatment a plurality of times. In one set of treatments, one of the expansion and contraction treatments is performed and then the other. The order of expansion and contraction treatments in one treatment set may be different from the order of expansion and contraction treatments in another treatment set.

前処理部12は、別の処理をさらに実行しても良い。例えば、入力画像にセグメントディスプレイ以外の物体が含まれる場合、前処理部12は、入力画像からセグメントディスプレイが撮影された部分を切り出しても良い。入力画像が歪んでいる場合、前処理部12は、歪みの補正を行っても良い。 The preprocessing unit 12 may further execute another process. For example, when the input image includes an object other than the segment display, the preprocessing unit 12 may cut out a portion where the segment display is captured from the input image. If the input image is distorted, the preprocessing unit 12 may correct the distortion.

前処理部12は、処理された入力画像を抽出部13へ出力する。抽出部13は、入力画像から文字画像を抽出する。文字画像は、入力画像の一部であり、セグメントディスプレイにより表示された1つの数字が写されている。 The preprocessing unit 12 outputs the processed input image to the extraction unit 13. The extraction unit 13 extracts a character image from the input image. The character image is a part of the input image, and one number displayed by the segment display is copied.

例えば、抽出部13は、ラベリング処理部13a及び切出部13bを含む。前処理部12から抽出部13には、二値化された入力画像が出力される。ラベリング処理部13aは、白色画素の集合に、ラベル(値)を付与する。「白色画素の集合」とは、白色画素同士が互いに隣接し、1つの白色の塊となっている部分を言う。白色画素の集合において、ある白色画素は、少なくとも1つの白色画素に隣接している。1つの白色画素の集合は、セグメントディスプレイに表示された1つの数字に対応する。白色画素の集合が複数存在する場合、ラベリング処理部13aにより、それぞれの白色画素の集合にラベルが付与される。 For example, the extraction unit 13 includes a labeling processing unit 13a and a cutting unit 13b. The binarized input image is output from the preprocessing unit 12 to the extraction unit 13. The labeling processing unit 13a assigns a label (value) to the set of white pixels. The “set of white pixels” refers to a portion in which white pixels are adjacent to each other and form a single white mass. In a set of white pixels, a white pixel is adjacent to at least one white pixel. One set of white pixels corresponds to one number displayed on the segment display. When there are a plurality of sets of white pixels, the labeling processing unit 13a assigns a label to each set of white pixels.

切出部13bは、入力画像から、ラベリングされた集合を含む部分を切り出す。切り出された部分が、文字画像となる。ラベリングされた集合が複数存在する場合、切出部13bは、複数の文字画像を切り出す。複数の文字画像は、それぞれ複数のラベリングされた集合を含む。例えば、文字画像の形状は、四角形である。文字画像は、第1方向と、第1方向と交差する第2方向と、に配列された複数の画素を含む。例えば、文字画像は、そのサイズが予め設定された値となるように切り出される。切り出される文字画像のサイズは、後述するマスクのサイズに対応する。図2(c)は、入力画像Aと、文字画像B1〜B4と、を表す。 The cutout portion 13b cuts out a portion including the labeled set from the input image. The cut out part becomes a character image. When there are a plurality of labeled sets, the cutout unit 13b cuts out a plurality of character images. Each of the plurality of character images contains a plurality of labeled sets. For example, the shape of the character image is a quadrangle. The character image includes a plurality of pixels arranged in a first direction and a second direction intersecting the first direction. For example, the character image is cut out so that its size becomes a preset value. The size of the character image to be cut out corresponds to the size of the mask described later. FIG. 2C shows the input image A and the character images B1 to B4.

抽出部13は、抽出した(切り出した)文字画像を、細線化部14へ出力する。細線化部14は、文字画像に細線化処理を行う。すなわち、細線化部14は、文字画像に含まれる白色画素の集合に対して、線幅が1画素となるように処理する。図2(d)は、図2(c)で表した文字画像B1〜B4を細線化した結果を表す。 The extraction unit 13 outputs the extracted (cut out) character image to the thinning unit 14. The thinning unit 14 performs thinning processing on the character image. That is, the thinning unit 14 processes the set of white pixels included in the character image so that the line width is one pixel. FIG. 2D shows the result of thinning the character images B1 to B4 represented by FIG. 2C.

細線化部14は、前処理部12から出力された二値画像を細線化しても良い。例えば、切出部13bは、文字画像を切り出すと、その切り出した位置を保存する。細線化部14は、細線化した二値画像を、抽出部13へ出力する。切出部13bは、細線化された二値画像の一部を、保存した切り出し位置で切り出す。これにより、図2(d)に表した、細線化された文字画像が得られる。 The thinning unit 14 may thin the binary image output from the preprocessing unit 12. For example, when the character image is cut out, the cutout portion 13b saves the cut out position. The thinning unit 14 outputs the thinned binary image to the extraction unit 13. The cutout portion 13b cuts out a part of the thinned binary image at the saved cutout position. As a result, the thinned character image shown in FIG. 2D can be obtained.

読取部15は、例えば、細線化された文字画像から、文字を読み取る。読取部15は、細線化する前の文字画像から文字を読み取っても良い。算出部16は、抽出された文字画像を用いてスコアを算出する。具体的には、算出部16は、以下の第1処理〜第7処理を実行する。また、算出部16は、第1処理〜第7処理を実行して得られた第1スコア〜第7スコアを用いて、読み取りの確度を算出する。 The reading unit 15 reads characters from, for example, a thinned character image. The reading unit 15 may read characters from the character image before thinning. The calculation unit 16 calculates the score using the extracted character image. Specifically, the calculation unit 16 executes the following first to seventh processes. Further, the calculation unit 16 calculates the reading accuracy by using the first score to the seventh score obtained by executing the first to seventh processes.

以下では、文字画像が良好であり、数字が正しく読み取られる可能性が高いほど、各スコア及び確度が高く算出される例を説明する。スコア及び確度が高いほど、読み取りの信頼性が高いことを示す。文字画像が良好とは、例えば、文字画像に文字以外のものが含まれていない、解像度が十分に高い、歪みが小さいなどの状態を指す。この例に限らず、文字画像が良好であるほど、各スコア及び確度は低く算出されても良い。この場合、スコア及び確度が低いほど、読み取りの信頼性が高いことを示す。 In the following, an example will be described in which each score and accuracy are calculated higher as the character image is better and the number is more likely to be read correctly. The higher the score and accuracy, the more reliable the reading. A good character image means, for example, a state in which the character image does not contain anything other than characters, the resolution is sufficiently high, and the distortion is small. Not limited to this example, the better the character image, the lower each score and accuracy may be calculated. In this case, the lower the score and accuracy, the higher the reliability of the reading.

図3(a)、図3(b)、図4(a)〜図4(f)、図5(a)〜図5(c)、図6(a)〜図6(e)、図7(a)、図7(b)、図8(a)〜図8(e)、図10(a)〜図10(c)、図11(a)、及び図11(b)は、実施形態に係る読取システムによる処理を説明するための図である。
図9は、判定結果の組み合わせと数字との対応を例示する表である。
3 (a), 3 (b), 4 (a) to 4 (f), 5 (a) to 5 (c), 6 (a) to 6 (e), 7 (A), FIGS. 7 (b), 8 (a) to 8 (e), 10 (a) to 10 (c), 11 (a), and 11 (b) are embodiments. It is a figure for demonstrating the processing by the reading system which concerns on.
FIG. 9 is a table illustrating the correspondence between the combination of determination results and the numbers.

第1処理において、算出部16は、細線化された文字画像に、複数の判定領域を設定する。設定される判定領域の数は、1つの文字の表示に用いられるセグメントの数以上であれば良い。例えば、設定される判定領域の数は、1つの数字を表示するために用いられるセグメントの数と同じである。例えば、7セグメントディスプレイに表示された数字を読み取る場合、7つの判定領域が1つの文字画像に設定される。各判定領域の位置は、抽出された文字画像のサイズに基づいて決定される。例えば、記憶装置20は、判定領域の設定位置に関する情報を記憶している。算出部16は、記憶装置20に記憶された情報と、文字画像のサイズと、に基づいて判定領域の位置及びサイズを決定する。又は、切り出される文字画像のサイズが予め定められているときには、各判定領域の位置及びサイズが予め定められていても良い。 In the first process, the calculation unit 16 sets a plurality of determination areas in the thinned character image. The number of determination areas to be set may be equal to or greater than the number of segments used for displaying one character. For example, the number of determination areas set is the same as the number of segments used to display one number. For example, when reading a number displayed on a 7-segment display, seven determination areas are set in one character image. The position of each determination area is determined based on the size of the extracted character image. For example, the storage device 20 stores information regarding the set position of the determination area. The calculation unit 16 determines the position and size of the determination area based on the information stored in the storage device 20 and the size of the character image. Alternatively, when the size of the character image to be cut out is predetermined, the position and size of each determination area may be predetermined.

ここでは、文字画像のサイズに基づいて判定領域の位置及びサイズが決定される例について説明する。図3(a)は、判定領域の設定方法を説明するための模式図である。図3(a)に表した文字画像Bは、複数の画素Pから構成される。文字画像Bには、判定領域DR1〜DR7が設定される。判定領域DR1及びDR2は、第1方向D1(横方向)に沿って並んでいる。判定領域DR3及びDR4は、第1方向D1に沿って並んでいる。判定領域DR1及びDR2は、判定領域DR3及びDR4と第2方向D2(縦方向)において離れている。判定領域DR5〜DR7は、第2方向D2に沿って並んでいる。 Here, an example in which the position and size of the determination area are determined based on the size of the character image will be described. FIG. 3A is a schematic diagram for explaining a method of setting a determination area. The character image B shown in FIG. 3A is composed of a plurality of pixels P. Judgment areas DR1 to DR7 are set in the character image B. The determination areas DR1 and DR2 are arranged along the first direction D1 (horizontal direction). The determination regions DR3 and DR4 are arranged along the first direction D1. The determination areas DR1 and DR2 are separated from the determination areas DR3 and DR4 in the second direction D2 (vertical direction). The determination areas DR5 to DR7 are arranged along the second direction D2.

図3(a)に表した判定領域DR5〜DR7のように、一部の判定領域の配列方向は、第2方向D2に平行ではなく、第2方向D2に対して傾いていても良い。例えば、一部の判定領域の配列方向と第2方向D2との間の角度は、0度よりも大きく20度以下に設定される。同様に、別の一部の判定領域の配列方向が、第1方向D1に対して傾いていても良い。例えば、別の一部の判定領域の配列方向と第1方向D1との間の角度は、0度よりも大きく20度以下に設定される。このような配列も、複数の判定領域が第1方向D1又は第2方向D2に沿って並ぶ場合に含まれる。 As shown in the determination regions DR5 to DR7 shown in FIG. 3A, the arrangement direction of some of the determination regions may not be parallel to the second direction D2 but may be inclined with respect to the second direction D2. For example, the angle between the arrangement direction of a part of the determination region and the second direction D2 is set to be larger than 0 degrees and 20 degrees or less. Similarly, the arrangement direction of another part of the determination region may be tilted with respect to the first direction D1. For example, the angle between the arrangement direction of another part of the determination region and the first direction D1 is set to be larger than 0 degrees and 20 degrees or less. Such an arrangement is also included when a plurality of determination regions are arranged along the first direction D1 or the second direction D2.

図3(a)に表した文字画像Bの第1方向D1における長さ(画素数)をL1とする。文字画像Bの第2方向D2における長さをL2とする。また、文字画像Bは、第1辺S1〜第4辺S4を有する。第1辺S1及び第2辺S2は、第1方向D1に平行である。第3辺S3及び第4辺S4は、第2方向D2に平行である。 Let L1 be the length (number of pixels) of the character image B shown in FIG. 3A in the first direction D1. Let L2 be the length of the character image B in the second direction D2. Further, the character image B has a first side S1 to a fourth side S4. The first side S1 and the second side S2 are parallel to the first direction D1. The third side S3 and the fourth side S4 are parallel to the second direction D2.

例えば、判定領域DR1及びDR2は、第1辺S1からL2/4離れた位置を基準に設定される。例えば、判定領域DR3及びDR4は、第2辺S2からL2/4離れた位置を基準に設定される。例えば、判定領域DR5〜DR7は、第3辺S3と第4辺S4の中間位置を基準に設定される。例えば、判定領域DR5及びDR7は、中間位置から第1方向D1にずれた位置に設定される。例えば、判定領域DR5〜DR7のそれぞれの第2方向D2における長さは、L2/3に設定される。これらの基準となる位置に関する情報は、例えば記憶装置20に記憶される。また、判定領域は、別の判定領域と重ならないように設定される。各判定領域には、基準となる位置の画素Pと、その周囲の画素Pと、が含まれる。各判定領域のサイズは、例えば、文字画像Bのサイズに応じて設定される。 For example, the determination areas DR1 and DR2 are set with reference to a position L2 / 4 away from the first side S1. For example, the determination areas DR3 and DR4 are set with reference to a position L2 / 4 away from the second side S2. For example, the determination areas DR5 to DR7 are set with reference to an intermediate position between the third side S3 and the fourth side S4. For example, the determination areas DR5 and DR7 are set at positions deviated from the intermediate position in the first direction D1. For example, the length of each of the determination regions DR5 to DR7 in the second direction D2 is set to L2 / 3. Information about these reference positions is stored in, for example, a storage device 20. Further, the determination area is set so as not to overlap with another determination area. Each determination area includes a pixel P at a reference position and pixels P around the pixel P. The size of each determination area is set according to, for example, the size of the character image B.

文字画像のサイズに対して判定領域を設定する基準となる位置、文字画像のサイズに対する判定領域のサイズは、読み取り対象のセグメントディスプレイ、入力画像の特性などに応じて適宜変更可能である。複数の判定領域の位置は、文字画像のサイズ(第1方向における長さ及び第2方向における長さ)に基づいて決定されて良い。 The reference position for setting the determination area with respect to the size of the character image and the size of the determination area with respect to the size of the character image can be appropriately changed according to the segment display to be read, the characteristics of the input image, and the like. The positions of the plurality of determination regions may be determined based on the size of the character image (length in the first direction and length in the second direction).

算出部16は、それぞれの判定領域において、細線化された画素の状態を判定する。画素の状態としては、判定領域と重なる線の数が用いられる。線とは、数字を示す複数の画素の一部であり、画素が連なったものを指す。例えば、図3(a)及び図3(b)に表した例では、文字画像が鮮明であると、各判定領域において検出される線の数は、多くて1本である。1つの判定領域において2本以上の線が検出されると、文字画像が不鮮明であったり、文字が歪んでいる、又は文字が正しく写されていない可能性がある。 The calculation unit 16 determines the state of the thinned pixels in each determination area. As the pixel state, the number of lines overlapping the determination area is used. A line is a part of a plurality of pixels indicating a number, and refers to a series of pixels. For example, in the examples shown in FIGS. 3A and 3B, if the character image is clear, the number of lines detected in each determination area is at most one. If two or more lines are detected in one determination area, the character image may be unclear, the characters may be distorted, or the characters may not be correctly copied.

算出部16は、それぞれの判定領域における画素の状態に基づいて、第1スコアを算出する。例えば、算出部16は、1つの判定領域において、多くの線が検出されるほど、第1スコアをより低く算出する。また、算出部16は、2本以上の線が検出された判定領域の数が多いほど、第1スコアをより低く算出する。算出部16は、線が判定領域内において途切れているときに、第1スコアを低下させても良い。算出部16は、1つの線の近くに、離散した別の線があるとき、第1スコアを低下させても良い。 The calculation unit 16 calculates the first score based on the state of the pixels in each determination area. For example, the calculation unit 16 calculates the first score lower as more lines are detected in one determination area. Further, the calculation unit 16 calculates the first score lower as the number of determination regions in which two or more lines are detected increases. The calculation unit 16 may lower the first score when the line is interrupted in the determination area. The calculation unit 16 may lower the first score when there are other discrete lines near one line.

算出部16は、画素の状態として、線の角度を用いても良い。例えば、図3(a)及び図3(b)に表した例では、文字画像が鮮明であると、判定領域DR1〜DR4では、第2方向D2に沿った線が検出される。判定領域DR5〜DR7では、第1方向D1に沿った線が検出される。算出部16は、各判定領域において検出された線が、予め設定された方向に対して傾いているほど、第1スコアをより低く算出する。 The calculation unit 16 may use the angle of the line as the pixel state. For example, in the examples shown in FIGS. 3A and 3B, if the character image is clear, a line along the second direction D2 is detected in the determination areas DR1 to DR4. In the determination areas DR5 to DR7, a line along the first direction D1 is detected. The calculation unit 16 calculates the first score lower as the line detected in each determination region is tilted with respect to the preset direction.

又は、算出部16は、各判定領域における線の数と線の角度の両方に基づいて第1スコアを算出しても良い。これにより、第1スコアを用いて算出される確度の信頼性を高めることができる。 Alternatively, the calculation unit 16 may calculate the first score based on both the number of lines and the angle of the lines in each determination area. This makes it possible to increase the reliability of the accuracy calculated using the first score.

図4(a)、図4(c)、及び図5(a)は、文字画像の一例である。図4(b)は、図4(a)の文字画像の一部である。図4(b)は、図4(a)の文字画像に対して設定された判定領域DR5を拡大して表している。図4(d)及び図4(e)は、図4(c)の文字画像の一部である。図4(d)は、図4(c)の文字画像に対して設定された判定領域DR5を拡大して表している。図4(e)は、図4(c)の文字画像に対して設定された判定領域DR6を拡大して表している。図5(b)及び図5(c)は、図5(a)の文字画像の一部である。図5(b)は、図5(a)の文字画像に対して設定された判定領域DR6を拡大して表している。図5(c)は、図5(a)の文字画像に対して設定された判定領域DR7を拡大して表している。 4 (a), 4 (c), and 5 (a) are examples of character images. FIG. 4B is a part of the character image of FIG. 4A. FIG. 4B is an enlarged representation of the determination area DR5 set for the character image of FIG. 4A. 4 (d) and 4 (e) are a part of the character image of FIG. 4 (c). FIG. 4D shows an enlarged determination area DR5 set for the character image of FIG. 4C. FIG. 4E is an enlarged representation of the determination area DR6 set for the character image of FIG. 4C. 5 (b) and 5 (c) are a part of the character image of FIG. 5 (a). FIG. 5B is an enlarged representation of the determination area DR6 set for the character image of FIG. 5A. FIG. 5C is an enlarged representation of the determination area DR7 set for the character image of FIG. 5A.

算出部16は、各判定領域において、所定方向に延びる線を探索する。具体的には、算出部16は、第1方向D1に延びる判定領域DR1〜DR4においては、第2方向D2に延びる線を探索する。算出部16は、第2方向D2に延びる判定領域DR5〜DR7においては、第1方向D1に延びる線を探索する。 The calculation unit 16 searches for a line extending in a predetermined direction in each determination region. Specifically, the calculation unit 16 searches for a line extending in the second direction D2 in the determination areas DR1 to DR4 extending in the first direction D1. The calculation unit 16 searches for a line extending in the first direction D1 in the determination areas DR5 to DR7 extending in the second direction D2.

図4(b)の例では、画素が連なる線Li1が、第1方向D1に沿っている。また、判定領域DR5に存在する線の数は、1本である。このため、判定領域DR5に関して、第1スコアは高く算出される。 In the example of FIG. 4B, the line Li1 in which the pixels are connected is along the first direction D1. Further, the number of lines existing in the determination area DR5 is one. Therefore, the first score is calculated high with respect to the determination area DR5.

図4(d)の例では、判定領域DR5に第1方向D1に沿う複数の線Li2及びLi3が存在する。このため、判定領域DR5に関して、第1スコアは低く算出される。
図4(e)の例では、判定領域DR6に複数の線Li4及びLi5が存在する。線Li4の端部の第1方向D1における位置は、線Li5の端部の第1方向D1における位置と一致している。線Li4とLi5の第2方向D2における距離が短いとき、これらの線は、一本の線で表されるべきものであると考えられる。例えば、算出部16は、線Li4とLi5の第2方向D2における距離が予め設定された値以下のとき、一本で表示されるべき線が離散していると判定し、第1スコアを低く算出する。
In the example of FIG. 4D, a plurality of lines Li2 and Li3 along the first direction D1 exist in the determination region DR5. Therefore, the first score is calculated low with respect to the determination area DR5.
In the example of FIG. 4 (e), a plurality of lines Li4 and Li5 are present in the determination region DR6. The position of the end of the line Li4 in the first direction D1 coincides with the position of the end of the line Li5 in the first direction D1. When the distance between the lines Li4 and Li5 in the second direction D2 is short, it is considered that these lines should be represented by a single line. For example, when the distance between the lines Li4 and Li5 in the second direction D2 is equal to or less than a preset value, the calculation unit 16 determines that the lines to be displayed by one line are discrete, and lowers the first score. calculate.

図5(b)の例では、線Li6が判定領域内で途切れている。図5(c)の例では、線Li7の角度が第1方向D1に対して傾いている。図5(b)又は図5(c)に表した例では、それぞれ、判定領域DR6及びDR7に関して、第1スコアは低く算出される。 In the example of FIG. 5B, the line Li6 is interrupted in the determination region. In the example of FIG. 5C, the angle of the line Li7 is inclined with respect to the first direction D1. In the example shown in FIG. 5B or FIG. 5C, the first score is calculated low for the determination areas DR6 and DR7, respectively.

第2処理において、算出部16は、記憶装置20を参照し、1つの文字画像とマスクとを用いて適合率を算出する。適合率は、複数のセグメントに基づく文字が、文字画像にどの程度明確に現れているかを示す。 In the second process, the calculation unit 16 refers to the storage device 20 and calculates the precision ratio using one character image and the mask. The precision rate indicates how clearly characters based on multiple segments appear in the character image.

まず、算出部16は、文字画像とマスクとの論理積を計算する。マスクは、1つの数字を表示するための複数のセグメントの全てが点灯した状態に対応する。論理積により得られた処理画像では、マスクにおいて白色で表され、且つ文字画像において白色で表されている領域のみが、白色で表される。 First, the calculation unit 16 calculates the logical product of the character image and the mask. The mask corresponds to a state in which all of a plurality of segments for displaying one number are lit. In the processed image obtained by the logical product, only the region represented in white in the mask and represented in white in the character image is represented in white.

算出部16は、処理画像に対する文字画像の一致率を適合率として算出する。すなわち、文字画像において白色で表された領域の面積a2に対する、処理画像において白色で表された領域の面積a1の割合(a1/a2)が、適合率として算出される。各画像における面積は、白色で表されたピクセル数に対応する。この計算に代えて、算出部16は、処理画像において黒色で表された領域の面積に対する、文字画像において黒色で表された領域の面積の割合を、適合率として算出しても良い。 The calculation unit 16 calculates the matching rate of the character image with respect to the processed image as the matching rate. That is, the ratio (a1 / a2) of the area a1 of the region represented by white in the processed image to the area a2 of the region represented by white in the character image is calculated as the precision ratio. The area in each image corresponds to the number of pixels represented in white. Instead of this calculation, the calculation unit 16 may calculate the ratio of the area of the area represented by black in the character image to the area of the area represented by black in the processed image as the precision ratio.

図6(a)及び図6(d)は、文字画像の一例である。図6(b)及び図6(e)は、マスクの一例である。図6(c)及び図6(f)は、論理積の結果を表す画像である。
一例として、図6(a)に表した文字画像と、図6(b)に表したマスクと、の論理積により、図6(c)に表した処理画像が得られる。算出部16は、図6(a)に表した画像と図6(c)に表した画像とを用いて、適合率を算出する。別の一例として、図6(d)に表した文字画像と、図6(e)に表したマスクと、の論理積により、図6(f)に表した処理画像が得られる。算出部16は、図6(d)に表した画像と図6(f)に表した画像とを用いて、適合率を算出する。
6 (a) and 6 (d) are examples of character images. 6 (b) and 6 (e) are examples of masks. 6 (c) and 6 (f) are images showing the result of the logical product.
As an example, the processed image shown in FIG. 6 (c) can be obtained by the logical product of the character image shown in FIG. 6 (a) and the mask shown in FIG. 6 (b). The calculation unit 16 calculates the precision ratio using the image shown in FIG. 6 (a) and the image shown in FIG. 6 (c). As another example, the processed image shown in FIG. 6 (f) can be obtained by the logical product of the character image shown in FIG. 6 (d) and the mask shown in FIG. 6 (e). The calculation unit 16 calculates the precision ratio using the image shown in FIG. 6 (d) and the image shown in FIG. 6 (f).

図6(d)の画像から図6(f)の画像への変化に比べて、図6(a)の画像から図6(c)の画像への変化は小さい。このため、図6(a)の画像は、図6(d)の画像に比べて、適合率は高く算出される。例えば、算出部16は、算出された適合率を第2スコアとして出力する。すなわち、適合率が高いほど、より高い第2スコアが出力される。算出部16は、適合率に基づいて算出された別の値を第2スコアとして出力しても良い。 The change from the image of FIG. 6 (a) to the image of FIG. 6 (c) is smaller than the change from the image of FIG. 6 (d) to the image of FIG. 6 (f). Therefore, the conformity rate of the image of FIG. 6A is calculated to be higher than that of the image of FIG. 6D. For example, the calculation unit 16 outputs the calculated precision rate as the second score. That is, the higher the precision rate, the higher the second score is output. The calculation unit 16 may output another value calculated based on the precision rate as the second score.

第3処理において、算出部16は、文字画像の長さの比を算出する。算出部16は、比が予め設定された値と近いほど、第3スコアをより高く算出する。値は、1つの数字を表示するためのセグメントの集合の長さの比に対応する。 In the third process, the calculation unit 16 calculates the ratio of the lengths of the character images. The calculation unit 16 calculates the third score higher as the ratio is closer to the preset value. The value corresponds to the ratio of the lengths of the set of segments to display one number.

例えば図7(a)に表した文字画像について、算出部16は、第1方向D1における長さL3と、第2方向D2における長さL4と、の比を算出する。図7(a)の文字画像は鮮明であり、且つ写された文字の歪みが小さい。このため、長さL3と長さL4の比と、予め設定された値と、の差は小さい。算出部16は、図7(a)に表した文字画像について、第3スコアを高く算出する。 For example, with respect to the character image shown in FIG. 7A, the calculation unit 16 calculates the ratio of the length L3 in the first direction D1 and the length L4 in the second direction D2. The character image of FIG. 7A is clear and the distortion of the copied characters is small. Therefore, the difference between the ratio of the length L3 and the length L4 and the preset value is small. The calculation unit 16 calculates a high third score for the character image shown in FIG. 7A.

一方、図7(b)に表した文字画像では、セグメントディスプレイにおける光の反射の影響で、第1方向D1の長さが長い。このため、長さL5と長さL6の比と、予め設定された値と、の差は大きい。算出部16は、図7(b)に表した文字画像について、第3スコアを低く算出する。光の反射の他には、セグメントディスプレイへの付着物、画像におけるノイズなどの影響によっても、第1方向D1における長さと第2方向D2における長さの比が、予め設定された値から変化しうる。 On the other hand, in the character image shown in FIG. 7B, the length of the first direction D1 is long due to the influence of light reflection on the segment display. Therefore, the difference between the ratio of the length L5 and the length L6 and the preset value is large. The calculation unit 16 calculates the third score low for the character image shown in FIG. 7B. In addition to the reflection of light, the ratio of the length in the first direction D1 to the length in the second direction D2 changes from the preset value due to the influence of deposits on the segment display, noise in the image, and the like. sell.

第4処理において、算出部16は、第1処理と同様に、1つの文字画像に複数の判定領域を設定する。判定領域の設定方法は、第1処理と同様である。算出部16は、各判定領域において、文字の一部の有無を検出する。具体的な一例として、算出部16は、各判定領域において、文字を示す画素の数を検出する。点灯するセグメントが白色で表されるときには、算出部16は、各判定領域における白色画素の数を検出する。算出部16は、検出された画素数を予め設定された閾値と比較し、各判定領域において、数字の一部が存在するか判定する。具体的には、算出部16は、検出された画素数が閾値以上であれば、その判定領域に数字の一部が存在すると判定する。 In the fourth process, the calculation unit 16 sets a plurality of determination areas in one character image as in the first process. The method of setting the determination area is the same as that of the first process. The calculation unit 16 detects the presence or absence of a part of the character in each determination area. As a specific example, the calculation unit 16 detects the number of pixels indicating characters in each determination area. When the lit segment is represented in white, the calculation unit 16 detects the number of white pixels in each determination region. The calculation unit 16 compares the detected number of pixels with a preset threshold value, and determines whether or not a part of the numbers exists in each determination area. Specifically, if the number of detected pixels is equal to or greater than the threshold value, the calculation unit 16 determines that a part of the numbers exists in the determination area.

例えば、細線化された文字画像に対して複数の判定領域を設定するときには、閾値は、1に設定される。細線化されていない文字画像に対して複数の判定領域を設定するときには、閾値は、1より大きな値であっても良い。 For example, when setting a plurality of determination areas for a thinned character image, the threshold value is set to 1. When setting a plurality of determination regions for a character image that is not thinned, the threshold value may be a value larger than 1.

算出部16は、例えば、各判定領域における判定結果を“0”又は“1”で示す。“0”は、その判定領域に数字の一部が存在しないことを示す。“1”は、その判定領域に数字の一部が存在することを示す。図3(b)の例では、判定領域DR2、DR3、及びDR5〜DR7で、数字の一部が存在すると判定される。この結果は、例えば、0と1を用いて、“0110111”と表される。 The calculation unit 16 indicates, for example, the determination result in each determination area by “0” or “1”. “0” indicates that a part of the number does not exist in the determination area. “1” indicates that a part of the number exists in the determination area. In the example of FIG. 3B, it is determined that a part of the numbers is present in the determination areas DR2, DR3, and DR5 to DR7. This result is represented as "0110111" using, for example, 0 and 1.

図8(a)〜図8(e)は、その他の数字が写された文字画像と、各文字画像における判定領域の設定例と、を表す。図8(a)〜図8(e)に表した文字画像に対しても、図3(b)と同様に複数の判定領域が設定され、各判定領域において数字の一部の有無が判定される。 8 (a) to 8 (e) show a character image in which other numbers are copied, and an example of setting a determination area in each character image. Similar to FIG. 3B, a plurality of determination areas are set for the character images shown in FIGS. 8A to 8E, and the presence or absence of a part of the numbers is determined in each determination area. To.

算出部16は、記憶装置20を参照する。記憶装置20には、セグメントディスプレイに表示されうる各数字の型が記憶されている。型は、算出部16による判定結果の組み合わせと同様に、0と1を用いて表される。図9は、記憶装置20に記憶された型を例示している。算出部16は、判定結果の組み合わせと一致する型を検索する。 The calculation unit 16 refers to the storage device 20. The storage device 20 stores the type of each number that can be displayed on the segment display. The type is represented by using 0 and 1 as in the combination of the determination results by the calculation unit 16. FIG. 9 illustrates a type stored in the storage device 20. The calculation unit 16 searches for a type that matches the combination of determination results.

例えば、図3(b)の例では、判定結果の組み合わせは、“0110111”と表される。算出部16は、この組み合わせと一致する型を検索する。検索の結果、算出部16による判定結果の組み合わせは、数字の“2”に対応する型と一致する。一致する型があるとき、算出部16は、第4スコアを高く算出する。一致する型がないとき、算出部16は、第4スコアを低く算出する。 For example, in the example of FIG. 3B, the combination of determination results is represented as "0110111". The calculation unit 16 searches for a type that matches this combination. As a result of the search, the combination of the determination results by the calculation unit 16 matches the type corresponding to the number "2". When there is a matching type, the calculation unit 16 calculates the fourth score higher. When there is no matching type, the calculation unit 16 calculates the fourth score low.

第5処理において、算出部16は、複数の文字の位置のばらつきと、複数の文字の配列方向と、に基づいて、第5スコアを算出する。 In the fifth process, the calculation unit 16 calculates the fifth score based on the variation in the positions of the plurality of characters and the arrangement directions of the plurality of characters.

まず、算出部16は、入力画像における、複数の文字画像のそれぞれの重心位置を算出する。算出部16は、複数の重心位置に基づいて、直線を生成する。直線は、例えば、複数の重心位置の回帰直線である。算出部16は、回帰直線を用いて、複数の重心位置のばらつきを求める。ばらつきは、例えば、標準偏差又は平均二乗誤差で表される。算出部16は、ばらつきが大きいほど、第5スコアを低く算出する。 First, the calculation unit 16 calculates the position of the center of gravity of each of the plurality of character images in the input image. The calculation unit 16 generates a straight line based on a plurality of positions of the center of gravity. The straight line is, for example, a regression line at a plurality of center of gravity positions. The calculation unit 16 uses a regression line to obtain variations in the positions of a plurality of centers of gravity. The variability is represented, for example, by the standard deviation or the mean square error. The calculation unit 16 calculates the fifth score lower as the variation becomes larger.

また、算出部16は、複数の文字の配列方向と、予め設定された基準方向と、の差を算出する。算出部16は、その差が大きいほど、第5スコアを低く算出する。文字の配列方向は、例えば、回帰直線で表される。算出部16は、基準方向に沿う線と回帰直線との間の角度を、配列方向と基準方向との差として用いる。算出部16は、その角度を予め設定された閾値と比較しても良い。算出部16は、角度が閾値を超えるときに第5スコアを低く算出する。 Further, the calculation unit 16 calculates the difference between the arrangement direction of the plurality of characters and the preset reference direction. The calculation unit 16 calculates the fifth score lower as the difference increases. The character arrangement direction is represented by, for example, a regression line. The calculation unit 16 uses the angle between the line along the reference direction and the regression line as the difference between the arrangement direction and the reference direction. The calculation unit 16 may compare the angle with a preset threshold value. The calculation unit 16 calculates the fifth score low when the angle exceeds the threshold value.

例えば、算出部16は、図10(a)に表した複数の文字画像B5〜B7のそれぞれについて、重心位置を算出する。この結果、例えば、重心位置C5〜C7が算出される。算出部16は、重心位置C5〜C7に基づいて、直線CLを生成する。例えば、基準方向は、第1方向D1と平行に設定される。図10(a)に表した例では、重心位置C5〜C7のばらつきは、小さい。また、直線CLは、第1方向D1に沿っている。このため、図10(a)に表した複数の文字画像について、第5スコアは高く算出される。 For example, the calculation unit 16 calculates the position of the center of gravity for each of the plurality of character images B5 to B7 shown in FIG. 10A. As a result, for example, the positions C5 to C7 of the center of gravity are calculated. The calculation unit 16 generates a straight line CL based on the positions C5 to C7 of the center of gravity. For example, the reference direction is set parallel to the first direction D1. In the example shown in FIG. 10A, the variation of the center of gravity positions C5 to C7 is small. Further, the straight line CL is along the first direction D1. Therefore, the fifth score is calculated high for the plurality of character images shown in FIG. 10A.

図10(b)に表した例では、直線CLは第1方向D1に沿うが、重心位置C5〜C7のばらつきが大きい。このため、図10(b)に表した複数の文字画像に基づく第5スコアは、図10(a)に表した複数の文字画像に基づく第5スコアよりも低く算出される。さらに、図10(c)に表した例では、直線CLが第1方向D1に対して傾いている。このため、図10(b)に表した複数の文字画像に基づく第5スコア、及び図10(c)に表した複数の文字画像に基づく第5スコアは、図10(a)に表した複数の文字画像に基づく第5スコアよりも低く算出される。 In the example shown in FIG. 10B, the straight line CL follows the first direction D1, but the center of gravity positions C5 to C7 vary widely. Therefore, the fifth score based on the plurality of character images shown in FIG. 10B is calculated to be lower than the fifth score based on the plurality of character images shown in FIG. 10A. Further, in the example shown in FIG. 10C, the straight line CL is tilted with respect to the first direction D1. Therefore, the fifth score based on the plurality of character images shown in FIG. 10B and the fifth score based on the plurality of character images shown in FIG. 10C are a plurality of scores shown in FIG. 10A. It is calculated to be lower than the fifth score based on the character image of.

第6処理において、算出部16は、画像に写された文字の数を、予め設定された最小文字数及び最大文字数と比較する。例えば、算出部16は、文字画像の数(ラベリングされた集合の数)を、最小文字数及び最大文字数と比較する。算出部16は、文字の数が、最小文字数以上、最大文字数以下のとき、第6スコアを高く算出する。算出部16は、文字の数が、最小文字数未満又は最大文字数を超えるとき、第6スコアを低く算出する。 In the sixth process, the calculation unit 16 compares the number of characters copied in the image with the preset minimum number of characters and maximum number of characters. For example, the calculation unit 16 compares the number of character images (the number of labeled sets) with the minimum number of characters and the maximum number of characters. The calculation unit 16 calculates the sixth score higher when the number of characters is equal to or greater than the minimum number of characters and equal to or less than the maximum number of characters. The calculation unit 16 calculates the sixth score low when the number of characters is less than the minimum number of characters or exceeds the maximum number of characters.

第7処理において、算出部16は、入力画像において小数点が認識されたか判定する。記憶装置20には、入力画像に写るセグメントディスプレイが小数点を含むか予め登録されている。算出部16は、認識結果を、記憶装置20に登録された情報と比較する。算出部16は、認識結果が記憶装置20に登録された情報と一致するとき、第7スコアを高く算出する。算出部16は、認識結果が記憶装置20に登録された情報と一致しないとき、第7スコアを低く算出する。例えば、セグメントディスプレイが小数点を表示する構成であるにも拘わらず、小数点が認識されないとき、算出部16は、第7スコアを低く算出する。 In the seventh process, the calculation unit 16 determines whether the decimal point is recognized in the input image. In the storage device 20, whether the segment display displayed in the input image includes a decimal point is registered in advance. The calculation unit 16 compares the recognition result with the information registered in the storage device 20. When the recognition result matches the information registered in the storage device 20, the calculation unit 16 calculates the seventh score high. When the recognition result does not match the information registered in the storage device 20, the calculation unit 16 calculates the seventh score low. For example, when the decimal point is not recognized even though the segment display is configured to display the decimal point, the calculation unit 16 calculates the seventh score low.

図11(a)は、小数点が認識される画像の一例である。図11(b)は、小数点が認識されない画像の一例である。例えば、セグメントディスプレイの表示が小数点を含むと予め登録されているとき、図11(a)の画像に基づく第7スコアは高く算出され、図11(b)の画像に基づく第7スコアは低く算出される。 FIG. 11A is an example of an image in which the decimal point is recognized. FIG. 11B is an example of an image in which the decimal point is not recognized. For example, when the display of the segment display is pre-registered to include a decimal point, the 7th score based on the image of FIG. 11A is calculated high, and the 7th score based on the image of FIG. 11B is calculated low. Will be done.

算出部16は、以上で説明した第1スコア〜第7スコアを用いて、読取部15による数字の読み取りの確度を算出する。例えば、算出部16は、第1スコア〜第7スコアの合計を確度とする。算出部16は、第1スコア〜第7スコアの少なくとも一部にそれぞれ重みを掛け合わせ、それらの合計を確度としても良い。又は、算出部16は、第1スコア〜第7スコアの一部を用いて算出された値と、第1スコア〜第7スコアの他部のそれぞれと、のうち最も低いスコアを確度としても良い。 The calculation unit 16 calculates the accuracy of reading the numbers by the reading unit 15 using the first score to the seventh score described above. For example, the calculation unit 16 uses the sum of the first score to the seventh score as the accuracy. The calculation unit 16 may multiply at least a part of the first score to the seventh score by weights, and use the total of them as the accuracy. Alternatively, the calculation unit 16 may use the lowest score of the value calculated using a part of the first score to the seventh score and each of the other parts of the first score to the seventh score as the accuracy. ..

入力画像から複数の文字画像が切り出される場合、各文字画像について、第1スコア〜第4スコアが算出される。
例えば、算出部16は、複数の第1スコアを比較し、最も低い第1スコアを確度の算出に用いる。同様に、算出部16は、複数の第2スコアのうち最も低い第2スコア、複数の第3スコアのうち最も低い第3スコア、及び複数の第4スコアのうち最も低い第4スコアを、確度の算出に用いる。
又は、算出部16は、文字画像ごとに、第1スコア〜第4スコアの合計を算出しても良い。算出部16は、複数の合計値から最も低いものを選定し、選定された合計値を確度の算出に用いる。合計値を算出する際、算出部16は、スコアごとに重み付けをしても良い。
When a plurality of character images are cut out from the input image, the first score to the fourth score are calculated for each character image.
For example, the calculation unit 16 compares a plurality of first scores and uses the lowest first score to calculate the accuracy. Similarly, the calculation unit 16 determines the accuracy of the lowest second score among the plurality of second scores, the lowest third score among the plurality of third scores, and the lowest fourth score among the plurality of fourth scores. Used to calculate.
Alternatively, the calculation unit 16 may calculate the total of the first score to the fourth score for each character image. The calculation unit 16 selects the lowest total value from a plurality of total values, and uses the selected total value to calculate the accuracy. When calculating the total value, the calculation unit 16 may weight each score.

出力部17は、例えば、読み取った数字に基づく情報と、確度と、を外部の出力装置へ出力する。例えば、情報は、読み取った数字を含む。情報は、読み取った数字に基づいて算出された結果を含んでも良い。情報は、複数の読み取った数字を基に算出された値を含んでも良い。出力部17は、読取部15が数字を読み取った画像、数字を読み取ったときの時刻などをさらに出力しても良い。出力部17は、これらのデータを含むファイルを、CSVなどの所定の形式で出力しても良い。出力部17は、FTP(File Transfer Protocol)などを用いて外部のサーバへデータを送信しても良い。又は、出力部17は、データベース通信を行い、ODBC(Open Database Connectivity)などを用いて外部のデータベースサーバへデータを挿入してもよい。 The output unit 17 outputs, for example, information based on the read numbers and accuracy to an external output device. For example, the information includes the numbers read. The information may include results calculated based on the numbers read. The information may include a value calculated based on a plurality of read numbers. The output unit 17 may further output an image in which the reading unit 15 reads the numbers, a time when the numbers are read, and the like. The output unit 17 may output a file containing these data in a predetermined format such as CSV. The output unit 17 may transmit data to an external server using FTP (File Transfer Protocol) or the like. Alternatively, the output unit 17 may perform database communication and insert data into an external database server using ODBC (Open Database Connectivity) or the like.

処理装置10は、例えば、中央演算処理装置からなる処理回路を含む。複数の処理装置10により、受付部11、前処理部12、抽出部13、細線化部14、読取部15、算出部16、及び出力部17の各機能が実現されても良い。記憶装置20は、例えば、ハードディスクドライブ(HDD)、ネットワーク接続ハードディスク(NAS)、組み込み用マルチメディアカード(eMMC)、ソリッドステートドライブ(SSD)、及びソリッドステートハイブリッドドライブ(SSHD)の少なくともいずれかを含む。処理装置10と記憶装置20は、有線又は無線で接続される。又は、処理装置10と記憶装置20は、ネットワークを介して相互に接続されていても良い。 The processing device 10 includes, for example, a processing circuit including a central processing unit. The functions of the reception unit 11, the preprocessing unit 12, the extraction unit 13, the thinning unit 14, the reading unit 15, the calculation unit 16, and the output unit 17 may be realized by the plurality of processing devices 10. The storage device 20 includes, for example, at least one of a hard disk drive (HDD), a network-attached hard disk (NAS), an embedded multimedia card (eMMC), a solid state drive (SSD), and a solid state hybrid drive (SSHD). .. The processing device 10 and the storage device 20 are connected by wire or wirelessly. Alternatively, the processing device 10 and the storage device 20 may be connected to each other via a network.

図12は、実施形態に係る読取システムによる処理を例示するフローチャートである。
受付部11は、処理装置10へ送信された入力画像を受け付ける(ステップSt11)。二値化部12aは、入力画像を二値化する(ステップSt12a)。膨張処理部12bは、二値化された入力画像を膨張処理する(ステップSt12b)。収縮処理部12cは、二値化及び膨張処理された入力画像を収縮処理する(ステップSt12c)。ラベリング処理部13aは、入力画像に含まれる白色画素の集合にラベルを付与する(ステップSt13a)。切出部13bは、入力画像から、文字画像を切り出す(ステップSt13b)。細線化部14は、入力画像又は文字画像における白色画素の集合を細線化する(ステップSt14)。読取部15は、1つの文字画像に示される数字を読み取る(ステップSt15)。算出部16は、1つの文字画像に対して第1処理〜第4処理を実行し、第1スコア〜第4スコアを算出する(ステップSt16a)。
FIG. 12 is a flowchart illustrating processing by the reading system according to the embodiment.
The reception unit 11 receives the input image transmitted to the processing device 10 (step St11). The binarization unit 12a binarizes the input image (step St12a). The expansion processing unit 12b expands the binarized input image (step St12b). The shrinking processing unit 12c shrinks the input image that has been binarized and expanded (step St12c). The labeling processing unit 13a assigns a label to a set of white pixels included in the input image (step St13a). The cutout portion 13b cuts out a character image from the input image (step St13b). The thinning unit 14 thins a set of white pixels in an input image or a character image (step St14). The reading unit 15 reads the numbers shown in one character image (step St15). The calculation unit 16 executes the first to fourth processes on one character image, and calculates the first score to the fourth score (step St16a).

ステップSt15及びSt16aは、iがラベル数と同じになるまで繰り返される。すなわち、最初に、iは0に設定される。1つの白色画素の集合について、数字の読取及び第1処理〜第4処理が完了すると、iに1が加えられる。ステップSt15及びSt16aは、iがラベル数未満である間、繰り返される。すなわち、切り出された文字画像が複数存在するときには、各文字画像について、ステップSt15及びSt16aが実行される。 Steps St15 and St16a are repeated until i is equal to the number of labels. That is, first, i is set to 0. For one set of white pixels, 1 is added to i when the reading of numbers and the first to fourth processes are completed. Steps St15 and St16a are repeated as long as i is less than the number of labels. That is, when there are a plurality of cut out character images, steps St15 and St16a are executed for each character image.

算出部16は、第5処理〜第7処理を実行し、第5スコア〜第7スコアを算出する(ステップS16b)、算出部16は、第1スコア〜第7スコアを用いて確度を算出する(ステップSt16c)。 The calculation unit 16 executes the fifth to seventh processes and calculates the fifth score to the seventh score (step S16b), and the calculation unit 16 calculates the accuracy using the first score to the seventh score. (Step St16c).

図12のフローチャートに表したステップの順番は、適宜変更可能である。第1処理〜第4処理の前に第5処理〜第7処理が実行されても良い。例えば、第1処理〜第7処理と並行して、ステップSt15の読取が実行されても良い。第1処理〜第4処理と並行して第5処理〜第7処理が実行されても良い。又は、ステップSt14における細線化の前に、細線化されていない文字画像を用いた処理(例えば、第2処理、第3処理、第5処理〜第7処理など)が実行されても良い。 The order of the steps shown in the flowchart of FIG. 12 can be changed as appropriate. The fifth to seventh processes may be executed before the first to fourth processes. For example, the reading of step St15 may be executed in parallel with the first to seventh processes. The fifth to seventh processes may be executed in parallel with the first to fourth processes. Alternatively, before the thinning in step St14, a process using the non-thinned character image (for example, a second process, a third process, a fifth process to a seventh process, etc.) may be executed.

実施形態の効果を説明する。
実施形態に係る読取システム1によれば、数字が読み取られるとともに、その読み取りの確度が算出される。例えば、ユーザは、確度から、読み取られた数字がどの程度信頼できるか確認できる。ユーザは、異常な数字が出力されたときでも、その確度に基づき、実際にその数字がセグメントディスプレイに表示されていそうかを確認できる。
読取システム1は、数字及び確度に加えて、数字を読み取った画像が出力されても良い。これにより、確度が低いときでも、ユーザが実際に表示された数字を画像から容易に確認できるようになる。
実施形態によれば、読取システム1の信頼性を向上できる。
The effect of the embodiment will be described.
According to the reading system 1 according to the embodiment, the numbers are read and the accuracy of the reading is calculated. For example, the accuracy allows the user to see how reliable the numbers read are. Even when an abnormal number is output, the user can check whether the number is actually displayed on the segment display based on the accuracy.
The reading system 1 may output an image in which the numbers are read, in addition to the numbers and accuracy. This allows the user to easily see the actually displayed numbers from the image, even when the accuracy is low.
According to the embodiment, the reliability of the reading system 1 can be improved.

上述した実施形態では、第1処理〜第7処理の全てを実行し、第1スコア〜第7スコアを用いて確度を算出する例を示した。読取システム1は、第1処理〜第7処理の少なくともいずれかを実行し、算出された第1スコア〜第7スコアの少なくともいずれかを用いて確度を算出しても良い。 In the above-described embodiment, an example is shown in which all of the first to seventh processes are executed and the accuracy is calculated using the first score to the seventh score. The reading system 1 may execute at least one of the first to seventh processes and calculate the accuracy using at least one of the calculated first to seventh scores.

例えば、読取システム1は、第1処理〜第4処理の少なくともいずれかを実行する。第1処理〜第4処理は、セグメントディスプレイの特徴に対応した処理であり、これらの処理の少なくともいずれかを実行することで確度の信頼性を高めることができる。好ましくは、読取システム1は、第1処理及び第2処理の少なくともいずれかを実行する。第1処理及び第2処理は、セグメントディスプレイの表示態様に対応した処理であり、これらの処理の少なくともいずれかを実行することで確度の信頼性をさらに高めることができる。 For example, the reading system 1 executes at least one of the first process to the fourth process. The first to fourth processes are processes corresponding to the characteristics of the segment display, and the reliability of accuracy can be improved by executing at least one of these processes. Preferably, the reading system 1 performs at least one of the first and second processes. The first process and the second process are processes corresponding to the display mode of the segment display, and the reliability of the accuracy can be further improved by executing at least one of these processes.

例えば、読取システム1は、第1処理及び第2処理の少なくともいずれかと、第3処理及び第4処理の少なくともいずれかと、を実行する。好ましくは、読取システム1は、第5処理〜第7処理の少なくともいずれかをさらに実行する。より多くの処理を実行し、それらの処理によって算出されたスコアを用いて確度を算出することで、確度の信頼性を高めることができる。 For example, the reading system 1 executes at least one of the first process and the second process, and at least one of the third process and the fourth process. Preferably, the reading system 1 further performs at least one of the fifth to seventh processes. By executing more processes and calculating the accuracy using the scores calculated by those processes, the reliability of the accuracy can be improved.

読取システム1では、セグメントディスプレイに表示された文字を読み取る際、細線化処理が行われる。細線化処理では、文字を示す画素の集合が細線化される。これにより、入力画像におけるセグメントディスプレイの文字の太さに拘わらず、文字を示す画素の集合の幅を均一にできる。このため、セグメントディスプレイの文字の太さに拘わらず、文字を高精度に読み取ることができる。 In the reading system 1, when the characters displayed on the segment display are read, the line thinning process is performed. In the thinning process, a set of pixels indicating characters is thinned. As a result, the width of the set of pixels indicating the characters can be made uniform regardless of the thickness of the characters on the segment display in the input image. Therefore, the characters can be read with high accuracy regardless of the thickness of the characters on the segment display.

また、第1処理及び第4処理では、文字画像に複数の判定領域が設定される。そして、複数の判定領域のそれぞれにおいて、画素の数の検出結果に基づいてスコアが算出される。画素の数の検出結果を用いることで、文字の書体に拘わらず、スコアを算出することができる。 Further, in the first process and the fourth process, a plurality of determination areas are set in the character image. Then, in each of the plurality of determination areas, the score is calculated based on the detection result of the number of pixels. By using the detection result of the number of pixels, the score can be calculated regardless of the typeface of the character.

(実施例)
第1処理〜第7処理における第1スコア〜第7スコアの算出方法の一例を説明する。
第1処理において、算出部16は、それぞれの判定領域において、所定の方向に沿う直線を探索する。第1スコアは、初期値が0である。判定領域において、複数の直線が見つかったときには、第1スコアを5追加する。複数の直線が所定距離内で離散しているときには、第1スコアを5追加する。角度が予め設定された閾値を超えているときには、第1スコアを2追加する。直線が見つからないときは、第1スコアを5追加する。この合計値を所定の方向に並ぶピクセル×5で割った値を判定領域のスコアとする。この処理を判定領域ごとに実行する。このスコアの総和を用いて、(7−総和)/7で得られる値を第1スコアとする。
第2処理において、算出部16は、算出された適合率を第2スコアとして決定する。
第3処理において、算出部16は、文字画像の第1方向D1における長さと文字画像の第2方向D2における長さとの比R1を算出する。算出部16は、予め設定された比R2を参照する。算出部16は、比R2が比R1よりも大きいとき、V=R1/R2を算出する。算出部16は、比R1が比R2よりも大きいとき、V=R2/R1を算出する。
算出部16は、1.0から値Vの絶対値を減じて得られた値を、第3スコアとする。
(Example)
An example of the calculation method of the first score to the seventh score in the first process to the seventh process will be described.
In the first process, the calculation unit 16 searches for a straight line along a predetermined direction in each determination area. The initial value of the first score is 0. When a plurality of straight lines are found in the determination area, the first score is added by 5. When a plurality of straight lines are discrete within a predetermined distance, a first score of 5 is added. When the angle exceeds a preset threshold, the first score is added by 2. If no straight line is found, add 5 to the first score. The value obtained by dividing this total value by the pixels × 5 arranged in a predetermined direction is used as the score of the determination area. This process is executed for each determination area. Using the sum of these scores, the value obtained by (7-sum) / 7 is set as the first score.
In the second process, the calculation unit 16 determines the calculated precision as the second score.
In the third process, the calculation unit 16 calculates the ratio R1 of the length of the character image in the first direction D1 and the length of the character image in the second direction D2. The calculation unit 16 refers to the preset ratio R2. The calculation unit 16 calculates V = R1 / R2 when the ratio R2 is larger than the ratio R1. The calculation unit 16 calculates V = R2 / R1 when the ratio R1 is larger than the ratio R2.
The calculation unit 16 uses a value obtained by subtracting the absolute value of the value V from 1.0 as the third score.

第4処理において、算出部16は、判定結果の組み合わせが、登録された型のいずれかと一致すれば、第4スコアを「1」とする。算出部16は、判定結果の組み合わせが登録された型のいずれとも一致しなければ、第4スコアを「0」とする。
第5処理において、第5スコアは、最初に1.0に設定される。算出部16は、複数の文字の重心位置に基づく直線を生成する。算出部16は、所定方向に対する直線の傾きが、予め設定された閾値を超えるとき、第5スコアを0.4減点する。直線と文字の重心位置との間の距離が予め設定された閾値を超えるとき、第5スコアを0.2減点する。直線と文字の重心位置との間の距離は、文字ごとに判定される。
第6処理において、算出部16は、文字の数が、最小文字数以上、最大文字数以下のとき、第6スコアを「1」とする。算出部16は、文字の数が、最小文字数未満又は最大文字数を超えるとき、第6スコアを「0」とする。
第7処理において、算出部16は、画像に基づいて小数点が在るか認識した結果が、予め登録された情報と一致すれば、第7スコアを「1」とする。算出部16は、小数点の認識結果が予め登録された情報と一致しないとき、第7スコアを「0」とする。
In the fourth process, the calculation unit 16 sets the fourth score to "1" if the combination of the determination results matches any of the registered types. If the combination of determination results does not match any of the registered types, the calculation unit 16 sets the fourth score to "0".
In the fifth process, the fifth score is initially set to 1.0. The calculation unit 16 generates a straight line based on the positions of the centers of gravity of a plurality of characters. The calculation unit 16 deducts 0.4 points from the fifth score when the slope of the straight line with respect to the predetermined direction exceeds a preset threshold value. When the distance between the straight line and the position of the center of gravity of the character exceeds a preset threshold value, the fifth score is deducted by 0.2 points. The distance between the straight line and the position of the center of gravity of the character is determined for each character.
In the sixth process, the calculation unit 16 sets the sixth score to "1" when the number of characters is equal to or greater than the minimum number of characters and equal to or less than the maximum number of characters. When the number of characters is less than the minimum number of characters or exceeds the maximum number of characters, the calculation unit 16 sets the sixth score to "0".
In the seventh process, if the result of recognizing whether or not there is a decimal point based on the image matches the information registered in advance, the calculation unit 16 sets the seventh score to "1". The calculation unit 16 sets the seventh score to "0" when the recognition result of the decimal point does not match the information registered in advance.

算出部16は、以下の計算を実行する。
=W×S+W×S+W×S+W×S
は、第1スコアである。Wは、第1スコアに対する重みである。Sは、第2スコアである。Wは、第2スコアに対する重みである。Sは、第3スコアである。Wは、第3スコアに対する重みである。Sは、第5スコアである。Wは、第5スコアに対する重みである。
The calculation unit 16 executes the following calculation.
S 0 = W 1 x S 1 + W 2 x S 2 + W 3 x S 3 + W 4 x S 4
S 1 is the first score. W 1 is a weight for the first score. S 2 is the second score. W 2 is a weight for the second score. S 3 is the third score. W 3 is a weight for the third score. S 5 is the fifth score. W 5 is a weight for the fifth score.

算出部16は、算出されたスコアS、第4スコア、第6スコア、及び第7スコアから、最も低いスコアを抽出し、そのスコアを確度とする。従って、第4スコア、第6スコア、又は第7スコアが0であると、確度は0となる。 The calculation unit 16 extracts the lowest score from the calculated scores S 0 , the fourth score, the sixth score, and the seventh score, and uses that score as the accuracy. Therefore, if the 4th score, the 6th score, or the 7th score is 0, the accuracy is 0.

図13は、実施例における読取結果と確度を表すグラフである。
図13において、色が濃いプロットは、読取システム1による読み取り結果が正しいかを示す。読み取り結果が実際の画像に示された数字と一致しているときに、縦軸の値が「1」となっている。色が薄いプロットは、算出された確度を表す。直線SLは、確度の平均値を表す。図13では、約140回の読み取りを実行したときの結果を表している。
FIG. 13 is a graph showing the reading result and the accuracy in the embodiment.
In FIG. 13, the dark plot indicates whether the reading result by the reading system 1 is correct. When the reading result matches the number shown in the actual image, the value on the vertical axis is "1". Light-colored plots represent the calculated accuracy. The straight line SL represents the average value of accuracy. FIG. 13 shows the result when reading is executed about 140 times.

図13の例では、8回目、38回目、及び52回目の読み取りで、誤った数字を読み取っている。これらの読み取り時には、いずれも、平均値よりもかなり低い確度が算出された。例えば、ユーザは、確度から、これらの読み取り時における読取結果に注意した方が良いことがわかる。また、その他の読取結果について、確度が高いことから、異常な数字が読み取られていたとしても、実際にその数字が表示されている可能性が高いことが分かる。 In the example of FIG. 13, erroneous numbers are read in the 8th, 38th, and 52nd readings. At each of these readings, accuracy was calculated to be significantly lower than the mean. For example, it can be seen from the accuracy that the user should pay attention to the reading results at the time of these readings. In addition, since the accuracy of other reading results is high, it can be seen that even if an abnormal number is read, it is highly possible that the number is actually displayed.

また、算出部16は、確度を第1閾値と比較しても良い。例えば、確度が第1閾値よりも低いとき、読取システム1は、数字を読み取る際に実行する画像処理を、それまでと異なる条件で再度実行する。例えば、画像の切り出し、歪みの補正、膨張処理、又は収縮処理などが、それまでと異なる条件で実行されることで、数字を正確に読み取れるようになる可能性がある。 Further, the calculation unit 16 may compare the accuracy with the first threshold value. For example, when the accuracy is lower than the first threshold value, the reading system 1 re-executes the image processing executed when reading the numbers under different conditions. For example, by performing image cropping, distortion correction, expansion processing, contraction processing, and the like under different conditions, it is possible that the numbers can be read accurately.

読取システム1は、確度が第1閾値を超えるとき、読み取った数字を出力し、確度が第1閾値以下のとき、読み取った数字、確度、及び文字画像を出力しても良い。読取システム1は、確度が第1閾値を超えるとき、確度をさらに出力しても良い。この方法によれば、ユーザは、確度が低いときのみ文字画像を確認すれば良い。ユーザによる確認の手間を削減できる。 The reading system 1 may output the read numbers when the accuracy exceeds the first threshold value, and may output the read numbers, the accuracy, and the character image when the accuracy is equal to or less than the first threshold value. The reading system 1 may further output the accuracy when the accuracy exceeds the first threshold value. According to this method, the user only needs to check the character image when the accuracy is low. The time and effort of confirmation by the user can be reduced.

第1閾値は、例えば、ユーザにより予め設定される。又は、第1閾値は、過去の規定回数又は規定期間における確度の算出結果に基づいて計算されても良い。 The first threshold is set in advance by the user, for example. Alternatively, the first threshold value may be calculated based on the calculation result of the certainty in the past specified number of times or specified period.

以上では、読取システム1により、入力画像が処理される例を説明した。この例に限らず、実施形態に係る読取システム1に、処理された画像が入力されても良い。例えば、撮像装置で画像が取得されると、別の処理装置により文字画像が抽出される。別の処理装置は、読取システム1に、抽出した文字画像を送信する。読取システム1は、受信した文字画像から数字の読み取り及び確度の算出を実行しても良い。 In the above, an example in which the input image is processed by the reading system 1 has been described. Not limited to this example, the processed image may be input to the reading system 1 according to the embodiment. For example, when an image is acquired by an imaging device, a character image is extracted by another processing device. Another processing device transmits the extracted character image to the reading system 1. The reading system 1 may read numbers and calculate accuracy from the received character image.

また、以上で説明した実施形態では、読取システム1により、7セグメントディスプレイに表示された数字を読み取る例を説明した。読取システム1は、7セグメントディスプレイ以外にも適用可能である。例えば、14セグメントディスプレイ又は16セグメントディスプレイについても、上述した処理と同様の処理により、文字を読み取ることができる。 Further, in the embodiment described above, an example of reading the numbers displayed on the 7-segment display by the reading system 1 has been described. The reading system 1 can be applied to other than the 7-segment display. For example, with respect to the 14-segment display or the 16-segment display, characters can be read by the same processing as described above.

図14(a)及び図14(c)は、セグメントディスプレイを例示する模式図である。図14(b)及び図14(d)は、判定領域の設定を例示する模式図である。
図14(a)は、14セグメントディスプレイの一例を表す。14セグメントディスプレイでは、14のセグメントにより1つの文字が表示される。この場合、算出部16は、文字画像に対して、14以上の判定領域を設定する。算出部16は、例えば図14(b)に表したように、文字画像Bに対して、14の判定領域DRを設定する。算出部16は、設定した判定領域DRに基づき、第1処理及び第4処理を実行する。また、算出部16は、14の全てのセグメントが点灯した状態に対応するマスクを用いて、第2処理を実行する。
14 (a) and 14 (c) are schematic views illustrating a segment display. 14 (b) and 14 (d) are schematic views illustrating the setting of the determination region.
FIG. 14A shows an example of a 14-segment display. On a 14-segment display, one character is displayed by 14 segments. In this case, the calculation unit 16 sets 14 or more determination areas for the character image. The calculation unit 16 sets the determination area DR of 14 for the character image B, for example, as shown in FIG. 14 (b). The calculation unit 16 executes the first process and the fourth process based on the set determination area DR. Further, the calculation unit 16 executes the second process by using the mask corresponding to the state in which all the segments 14 are lit.

図14(c)は、16セグメントディスプレイの一例を表す。16セグメントディスプレイでは、16のセグメントにより1つの文字が表示される。この場合、算出部16は、文字画像に対して、16以上の判定領域を設定する。算出部16は、例えば図14(d)に表したように、文字画像Bに対して、16の判定領域DRを設定する。算出部16は、設定した判定領域DRに基づき、第1処理及び第4処理を実行する。また、算出部16は、16の全てのセグメントが点灯した状態に対応するマスクを用いて、第2処理を実行する。 FIG. 14C shows an example of a 16-segment display. On a 16-segment display, one character is displayed by 16 segments. In this case, the calculation unit 16 sets 16 or more determination areas for the character image. The calculation unit 16 sets 16 determination areas DR for the character image B, for example, as shown in FIG. 14D. The calculation unit 16 executes the first process and the fourth process based on the set determination area DR. Further, the calculation unit 16 executes the second process by using the mask corresponding to the state in which all the segments of 16 are lit.

図15は、実施形態に係る読取システムの構成を表すブロック図である。
実施形態に係る読取システム1は、処理装置10及び撮像装置30を備える。図15の例では、読取システム1は、記憶装置20及び出力装置40をさらに備える。
FIG. 15 is a block diagram showing the configuration of the reading system according to the embodiment.
The reading system 1 according to the embodiment includes a processing device 10 and an imaging device 30. In the example of FIG. 15, the reading system 1 further includes a storage device 20 and an output device 40.

撮像装置30は、セグメントディスプレイを撮影し、画像を生成する。撮像装置30は、生成した画像を処理装置10へ送信する。又は、撮像装置30は、画像を記憶装置20に記憶しても良い。処理装置10は、記憶装置20にアクセスし、記憶された画像を参照する。撮像装置30が動画を取得する場合、撮像装置30は、その動画から静止画像を取り出して処理装置10に送信する。撮像装置30は、例えばカメラを含む。 The image pickup apparatus 30 photographs the segment display and generates an image. The image pickup apparatus 30 transmits the generated image to the processing apparatus 10. Alternatively, the image pickup device 30 may store the image in the storage device 20. The processing device 10 accesses the storage device 20 and refers to the stored image. When the imaging device 30 acquires a moving image, the imaging device 30 extracts a still image from the moving image and transmits it to the processing device 10. The image pickup apparatus 30 includes, for example, a camera.

処理装置10は、読み取った文字に基づく情報を出力装置40へ送信する。出力装置40は、処理装置10から受信した情報を、ユーザが認識できるように出力する。出力装置40は、例えば、モニタ、プリンタ、プロジェクタ、及びスピーカの少なくともいずれかを含む。 The processing device 10 transmits information based on the read characters to the output device 40. The output device 40 outputs the information received from the processing device 10 so that the user can recognize it. The output device 40 includes, for example, at least one of a monitor, a printer, a projector, and a speaker.

処理装置10、記憶装置20、撮像装置30、及び出力装置40は、例えば、有線又は無線で相互に接続される。又は、これらはネットワークを介して相互に接続されていても良い。又は、処理装置10、記憶装置20、撮像装置30、及び出力装置40の少なくとも2つ以上が、1つの装置に組み込まれていても良い。例えば、処理装置10が、撮像装置30の画像処理部などに組み込まれていても良い。 The processing device 10, the storage device 20, the image pickup device 30, and the output device 40 are connected to each other by, for example, by wire or wirelessly. Alternatively, they may be connected to each other via a network. Alternatively, at least two or more of the processing device 10, the storage device 20, the image pickup device 30, and the output device 40 may be incorporated in one device. For example, the processing device 10 may be incorporated in an image processing unit or the like of the image pickup device 30.

図16は、実施形態に係る別の読取システムの構成を表すブロック図である。
図16に表した読取システム2は、移動体50をさらに備える。移動体50は、所定の領域内を移動する。移動体50が移動する領域内には、セグメントディスプレイが設けられている。移動体50は、例えば、無人搬送車(AGV)である。移動体50は、ドローンなどの飛翔体であっても良い。移動体50は、自立歩行するロボットであっても良い。移動体50は、無人で所定の作業を行うフォークリフトやクレーンなどであっても良い。
FIG. 16 is a block diagram showing the configuration of another reading system according to the embodiment.
The reading system 2 shown in FIG. 16 further includes a moving body 50. The moving body 50 moves within a predetermined area. A segment display is provided in the area where the moving body 50 moves. The moving body 50 is, for example, an automatic guided vehicle (AGV). The moving body 50 may be a flying body such as a drone. The moving body 50 may be a robot that walks independently. The moving body 50 may be a forklift, a crane, or the like that performs a predetermined work unmanned.

例えば、処理装置10及び撮像装置30は、移動体50に搭載される。処理装置10は、移動体50とは別に設けられ、移動体50とネットワークを介して接続されても良い。移動体50がセグメントディスプレイを撮影可能な位置に移動したとき、撮像装置30は、セグメントディスプレイを撮影し、画像を生成する。 For example, the processing device 10 and the imaging device 30 are mounted on the moving body 50. The processing device 10 may be provided separately from the mobile body 50 and may be connected to the mobile body 50 via a network. When the moving body 50 moves to a position where the segment display can be photographed, the image pickup apparatus 30 photographs the segment display and generates an image.

図16に表したように、読取システム2は、取得装置60をさらに備えても良い。取得装置60は、移動体50に搭載される。例えば、セグメントディスプレイに対応して、固有の識別情報を有する識別体が設けられる。取得装置60は、識別体が有する識別情報を取得する。 As shown in FIG. 16, the reading system 2 may further include an acquisition device 60. The acquisition device 60 is mounted on the moving body 50. For example, an classifier having unique identification information is provided corresponding to the segment display. The acquisition device 60 acquires the identification information possessed by the discriminator.

図16に表したように、読取システム2は、制御装置70をさらに備えても良い。制御装置70は、移動体50を制御する。移動体50は、制御装置70から送信される指令に基づいて、所定の領域内を移動する。制御装置70は、移動体50に搭載されても良いし、移動体50とは別に設けられても良い。制御装置70は、例えば、中央演算処理装置からなる処理回路を含む。1つの処理回路が、処理装置10及び制御装置70の両方として機能しても良い。 As shown in FIG. 16, the reading system 2 may further include a control device 70. The control device 70 controls the moving body 50. The moving body 50 moves within a predetermined area based on a command transmitted from the control device 70. The control device 70 may be mounted on the moving body 50 or may be provided separately from the moving body 50. The control device 70 includes, for example, a processing circuit including a central processing unit. One processing circuit may function as both the processing device 10 and the control device 70.

例えば、識別体は、ID情報を有するradio frequency(RF)タグである。識別体は、ID情報を含む電磁界又は電波を発する。取得装置60は、識別体から発せられた電磁界又は電波を受信し、ID情報を取得する。 For example, the discriminator is a radio frequency (RF) tag that has ID information. The discriminator emits an electromagnetic field or radio wave containing ID information. The acquisition device 60 receives the electromagnetic field or radio wave emitted from the discriminator and acquires the ID information.

又は、識別体は、1次元又は2次元のバーコードであっても良い。取得装置60は、バーコードリーダである。取得装置60は、バーコードを読み取ることで、そのバーコードが有する識別情報を取得する。 Alternatively, the discriminator may be a one-dimensional or two-dimensional barcode. The acquisition device 60 is a barcode reader. The acquisition device 60 acquires the identification information possessed by the barcode by reading the barcode.

図16に表したように、処理装置10は、紐付部18をさらに含んでも良い。例えば、取得装置60は、識別情報を取得すると、処理装置10に送信する。紐付部18は、送信された識別情報と、読み取った文字と、を紐付け、記憶装置20に記憶する。 As shown in FIG. 16, the processing device 10 may further include a tying portion 18. For example, when the acquisition device 60 acquires the identification information, it transmits it to the processing device 10. The linking unit 18 associates the transmitted identification information with the read characters and stores them in the storage device 20.

図17は、実施形態に係る別の読取システムの動作を説明する模式図である。
例えば、移動体50は、所定の軌道Tに沿って移動する移動体である。移動体50には、撮像装置30及び取得装置60が搭載されている。処理装置10は、移動体50に搭載されても良いし、移動体50とは別に設けられても良い。軌道Tは、移動体50が、セグメントディスプレイSD1及びSD2の前を通過するように設けられている。
FIG. 17 is a schematic diagram illustrating the operation of another reading system according to the embodiment.
For example, the moving body 50 is a moving body that moves along a predetermined orbit T. The moving body 50 is equipped with an image pickup device 30 and an acquisition device 60. The processing device 10 may be mounted on the moving body 50 or may be provided separately from the moving body 50. The orbit T is provided so that the moving body 50 passes in front of the segment displays SD1 and SD2.

例えば、移動体50は、軌道Tに沿って移動し、撮像装置30によりセグメントディスプレイSD1又はSD2を撮影可能な位置に着くと、減速又は停止する。例えば、移動体50は、減速又は停止すると、撮像装置30に撮像の指令を送信する。又は、制御装置70から撮像装置30へ撮像の指令が送信されても良い。撮像装置30は、指令を受信すると、移動体50が減速又は停止している間に、セグメントディスプレイSD1又はSD2を撮影する。 For example, the moving body 50 moves along the orbit T, and when the imaging device 30 reaches a position where the segment display SD1 or SD2 can be photographed, the moving body 50 decelerates or stops. For example, when the moving body 50 decelerates or stops, it transmits an imaging command to the imaging device 30. Alternatively, an imaging command may be transmitted from the control device 70 to the imaging device 30. Upon receiving the command, the image pickup apparatus 30 photographs the segment display SD1 or SD2 while the moving body 50 is decelerating or stopping.

又は、移動体50は、撮像装置30がセグメントディスプレイSD1又はSD2をぶれずに撮影できる程度の速度で軌道Tに沿って移動する。撮像装置30によりセグメントディスプレイSD1又はSD2を撮影可能な位置に着くと、移動体50又は上記制御装置から撮像の指令が送信される。撮像装置30は、指令を受信すると、セグメントディスプレイSD1又はSD2を撮影する。撮像装置30は、撮影して画像を生成すると、移動体50に搭載された又は移動体50とは別に設けられた処理装置10へ、画像を送信する。 Alternatively, the moving body 50 moves along the orbit T at a speed at which the imaging device 30 can shoot the segment display SD1 or SD2 without blurring. When the imaging device 30 arrives at a position where the segment display SD1 or SD2 can be photographed, an imaging command is transmitted from the moving body 50 or the control device. Upon receiving the command, the image pickup apparatus 30 photographs the segment display SD1 or SD2. When the image pickup device 30 takes a picture and generates an image, the image pickup device 30 transmits the image to a processing device 10 mounted on the moving body 50 or provided separately from the moving body 50.

セグメントディスプレイSD1近傍には、識別体ID1が設けられている。セグメントディスプレイSD2近傍には、識別体ID2が設けられている。例えば、取得装置60は、移動体50が減速又は停止している間に、識別体ID1又はID2の識別情報を取得する。 An identification body ID1 is provided in the vicinity of the segment display SD1. An identification body ID 2 is provided in the vicinity of the segment display SD2. For example, the acquisition device 60 acquires the identification information of the identification body ID1 or ID2 while the moving body 50 is decelerating or stopping.

例えば、移動体50がセグメントディスプレイSD1の前に移動する。撮像装置30は、セグメントディスプレイSD1を撮影し、画像を生成する。処理装置10は、この画像から、セグメントディスプレイSD1に表示された文字を識別する。また、取得装置60は、セグメントディスプレイSD1に対応する識別体ID1の識別情報を取得する。処理装置10は、識別された文字と、識別情報と、を紐付ける。 For example, the moving body 50 moves in front of the segment display SD1. The image pickup apparatus 30 photographs the segment display SD1 and generates an image. The processing device 10 identifies the characters displayed on the segment display SD1 from this image. Further, the acquisition device 60 acquires the identification information of the identification body ID1 corresponding to the segment display SD1. The processing device 10 associates the identified character with the identification information.

又は、移動体50がセグメントディスプレイの前に移動した際、最初に、取得装置60が識別体の識別情報を取得しても良い。例えば、移動体50には、特定のセグメントディスプレイの文字を読み取るよう指令が送信される。この指令には、そのセグメントディスプレイの位置を示す情報が含まれる。記憶装置20には、各識別情報と各識別体の位置とが紐付けられて記憶されている。取得装置60が識別情報を取得すると、移動体50は、記憶装置20にアクセスする。移動体50は、その識別情報に紐付けられた識別体の位置を参照する。移動体50は、参照した識別体の位置が、文字を読み取るよう指令されたセグメントディスプレイの位置と合致しているか判定する。合致している場合、移動体50は、撮像装置30によりセグメントディスプレイSD1を撮影する。すなわち、この方法では、識別情報の読み取りが、セグメントディスプレイの文字を読み取る際のインターロックとして機能する。 Alternatively, when the moving body 50 moves in front of the segment display, the acquisition device 60 may first acquire the identification information of the identifying body. For example, a command is transmitted to the mobile body 50 to read characters on a specific segment display. This directive contains information indicating the position of the segment display. In the storage device 20, each identification information and the position of each identification body are associated and stored. When the acquisition device 60 acquires the identification information, the mobile body 50 accesses the storage device 20. The mobile body 50 refers to the position of the discriminator associated with the identification information. The mobile body 50 determines whether the position of the referenced discriminator matches the position of the segment display instructed to read the characters. If they match, the moving body 50 takes a picture of the segment display SD1 by the image pickup apparatus 30. That is, in this method, the reading of the identification information functions as an interlock when reading the characters on the segment display.

図18及び図19は、実施形態に係る読取システムによる処理を例示するフローチャートである。
図18及び図19を参照して、実施形態に係る読取システムによる処理の一例について説明する。
図18に表したように、撮像装置30が、セグメントディスプレイを撮影し、画像(第1画像)を取得する(ステップSt21)。処理装置10に取得された画像が入力される。処理装置10は、画像に写されたセグメントディスプレイの数字を読み取るとともに、読み取りの確度を算出する(ステップSt22)。処理装置10は、確度が第1閾値を超えるか判定する(ステップSt23)。確度が第1閾値以下のとき、撮影条件を変更する(ステップSt24)。その後、ステップSt21において、変更した撮影条件でセグメントディスプレイが再度撮影され、別の画像(第2画像)が取得される。確度が第1閾値を超えるとき、処理装置10は、その読取結果を採用する(ステップS25)。
18 and 19 are flowcharts illustrating the processing by the reading system according to the embodiment.
An example of processing by the reading system according to the embodiment will be described with reference to FIGS. 18 and 19.
As shown in FIG. 18, the image pickup apparatus 30 photographs the segment display and acquires an image (first image) (step St21). The acquired image is input to the processing device 10. The processing device 10 reads the numbers on the segment display captured in the image and calculates the reading accuracy (step St22). The processing device 10 determines whether the accuracy exceeds the first threshold value (step St23). When the accuracy is equal to or less than the first threshold value, the shooting conditions are changed (step St24). After that, in step St21, the segment display is photographed again under the changed imaging conditions, and another image (second image) is acquired. When the accuracy exceeds the first threshold value, the processing device 10 adopts the reading result (step S25).

ステップSt24では、例えば、撮像装置30の露光時間、焦点距離、絞り、及び感度の少なくともいずれかの撮影条件を、直前のステップSt21が実行されたときの撮影条件から変更する。又は、読取システムが移動体50を備えるとき、ステップSt24において、移動体50が移動しても良い。すなわち、撮影条件として、移動体50の位置が含まれても良い。 In step St24, for example, at least one of the exposure time, focal length, aperture, and sensitivity of the image pickup apparatus 30 is changed from the shooting conditions when the immediately preceding step St21 is executed. Alternatively, when the reading system includes the moving body 50, the moving body 50 may move in step St24. That is, the position of the moving body 50 may be included as a shooting condition.

又は、確度が第1閾値以下のとき、撮像装置30は、撮影条件を変更せずにセグメントディスプレイを再度撮影しても良い。すなわち、ステップSt24を省略しても良い。セグメントディスプレイは、一般的に、所定の周期で点灯している。点灯の周期、撮影したタイミング、露光時間の関係により、数字が不鮮明に撮影されうる。同じ撮影条件でセグメントディスプレイを再度撮影することで、より鮮明な画像が得られる可能性がある。また、撮影条件を変更しないことで、再度撮影した画像が明るすぎ又は暗すぎとなる可能性を低減できる。 Alternatively, when the accuracy is equal to or less than the first threshold value, the imaging device 30 may re-photograph the segment display without changing the imaging conditions. That is, step St24 may be omitted. The segment display is generally lit at a predetermined cycle. Depending on the relationship between the lighting cycle, the shooting timing, and the exposure time, the numbers may be shot unclearly. By shooting the segment display again under the same shooting conditions, a clearer image may be obtained. Further, by not changing the shooting conditions, it is possible to reduce the possibility that the image shot again is too bright or too dark.

又は、撮像装置30は、第1処理〜第7処理における処理の結果に応じて撮影条件を変更しても良い。例えば、第1スコア又は第5スコアが低いとき、画像が明るすぎる又は暗すぎる可能性がある。このため、第1スコア又は第5スコアが低いとき、撮像装置30は、露光時間、絞り、及び感度の少なくともいずれかを変更する。第2スコアが低いとき、画像が明るすぎる可能性がある。第2スコアが低いとき、撮像装置30は、露光時間の短縮、絞り値の増大、及び感度の低下の少なくともいずれかを実行する。例えば、第3処理において、算出部16は、第2方向D2における文字画像の長さに対する、第1方向D1における文字画像の長さの割合を算出する。さらに、算出部16は、文字画像の面積を計算する。割合が予め設定された比(割合)よりも大きく、且つ面積が予め設定された閾値よりも大きいとき、画像が明るすぎる可能性がある。このため、撮像装置30は、露光時間の短縮、絞り値の増大、及び感度の低下の少なくともいずれかを実行する。割合が予め設定された割合よりも小さく、且つ面積が閾値よりも小さいとき、画像が暗すぎる可能性がある。このため、撮像装置30は、露光時間の延長、絞り値の低減、及び感度の増大の少なくともいずれかを実行する。第1処理〜第7処理における処理結果に応じて撮影条件を変更することで、より適切な画像を取得できる可能性が高まる。 Alternatively, the image pickup apparatus 30 may change the shooting conditions according to the results of the processes in the first to seventh processes. For example, when the first or fifth score is low, the image may be too bright or too dark. Therefore, when the first score or the fifth score is low, the image pickup apparatus 30 changes at least one of the exposure time, the aperture, and the sensitivity. When the second score is low, the image may be too bright. When the second score is low, the imaging device 30 performs at least one of shortening the exposure time, increasing the aperture value, and decreasing the sensitivity. For example, in the third process, the calculation unit 16 calculates the ratio of the length of the character image in the first direction D1 to the length of the character image in the second direction D2. Further, the calculation unit 16 calculates the area of the character image. When the proportion is greater than the preset ratio (ratio) and the area is greater than the preset threshold, the image may be too bright. Therefore, the image pickup apparatus 30 executes at least one of shortening the exposure time, increasing the aperture value, and lowering the sensitivity. When the proportion is less than the preset proportion and the area is less than the threshold, the image may be too dark. Therefore, the image pickup apparatus 30 executes at least one of extension of exposure time, reduction of aperture value, and increase of sensitivity. By changing the shooting conditions according to the processing results in the first to seventh processes, the possibility of acquiring a more appropriate image is increased.

図19に表したフローチャートでは、ステップSt23において確度が第1閾値以下と判定されると、処理装置10は、それまでに実行した読取の回数が規定値を超えるか判定する(ステップSt26)。読取の回数は、換言すると、ステップSt22の実行回数である。読取回数が規定値以下のとき、ステップSt24が実行される。読取回数が規定値を超えるとき、読取システムは、さらなる画像の取得は行わずに、結果を出力する(ステップSt27)。例えば、処理装置10は、読み取った数字、確度、及び画像を出力する。これにより、画像の取得が不必要に繰り返されることを防止できる。 In the flowchart shown in FIG. 19, when the accuracy is determined to be equal to or less than the first threshold value in step St23, the processing device 10 determines whether the number of readings executed up to that point exceeds the specified value (step St26). The number of readings is, in other words, the number of executions of step St22. When the number of readings is equal to or less than the specified value, step St24 is executed. When the number of readings exceeds the specified value, the reading system outputs the result without further acquiring the image (step St27). For example, the processing device 10 outputs the read numbers, accuracy, and images. As a result, it is possible to prevent the acquisition of the image from being repeated unnecessarily.

以上で説明した実施形態によれば、読取システム、読取方法、又は移動体の信頼性を向上できる。コンピュータ(処理装置)を受付部11、前処理部12、抽出部13、細線化部14、読取部15、算出部16、及び出力部17として動作させるための実施形態に係るプログラムを用いることで、読み取りの信頼性を向上できる。 According to the embodiment described above, the reliability of the reading system, the reading method, or the moving body can be improved. By using the program according to the embodiment for operating the computer (processing device) as the reception unit 11, the preprocessing unit 12, the extraction unit 13, the thinning unit 14, the reading unit 15, the calculation unit 16, and the output unit 17. , The reliability of reading can be improved.

上記の種々のデータの処理は、例えば、プログラム(ソフトウェア)に基づいて実行される。例えば、コンピュータが、このプログラムを記憶し、このプログラムを読み出すことにより、上記の種々の情報の処理が行われる。 The processing of the various data described above is executed based on, for example, a program (software). For example, a computer stores this program and reads this program to process the various information described above.

上記の種々の情報の処理は、コンピュータに実行させることのできるプログラムとして、磁気ディスク(フレキシブルディスク及びハードディスクなど)、光ディスク(CD−ROM、CD−R、CD−RW、DVD−ROM、DVD±R、DVD±RWなど)、半導体メモリ、または、他の記録媒体に記録されても良い。 The above-mentioned processing of various information can be executed by a computer as a program such as a magnetic disk (flexible disk, hard disk, etc.), an optical disk (CD-ROM, CD-R, CD-RW, DVD-ROM, DVD ± R). , DVD ± RW, etc.), semiconductor memory, or other recording medium.

例えば、記録媒体に記録された情報は、コンピュータ(または組み込みシステム)により読み出されることが可能である。記録媒体において、記録形式(記憶形式)は任意である。例えば、コンピュータは、記録媒体からプログラムを読み出し、このプログラムに基づいてプログラムに記述されている指示をCPUで実行させる。コンピュータにおいて、プログラムの取得(または読み出し)は、ネットワークを通じて行われても良い。 For example, the information recorded on the recording medium can be read by a computer (or an embedded system). In the recording medium, the recording format (storage format) is arbitrary. For example, the computer reads a program from the recording medium and causes the CPU to execute the instructions described in the program based on the program. In the computer, the acquisition (or reading) of the program may be performed through the network.

実施形態に係る処理装置及び制御装置は、1つまたは複数の装置(例えばパーソナルコンピュータなど)を含む。実施形態に係る処理装置及び制御装置は、ネットワークにより接続された複数の装置を含んでも良い。 The processing device and control device according to the embodiment includes one or more devices (for example, a personal computer). The processing device and the control device according to the embodiment may include a plurality of devices connected by a network.

以上、本発明のいくつかの実施形態を例示したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更などを行うことができる。これら実施形態やその変形例は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。また、前述の各実施形態は、相互に組み合わせて実施することができる。 Although some embodiments of the present invention have been illustrated above, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other embodiments, and various omissions, replacements, changes, etc. can be made without departing from the gist of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are also included in the scope of the invention described in the claims and the equivalent scope thereof. Moreover, each of the above-described embodiments can be implemented in combination with each other.

1、2、3 読取システム、 10 処理装置、 11 受付部、 12 前処理部、 12a 二値化部、 12b 膨張処理部、 12c 収縮処理部、 13 抽出部、 13a ラベリング処理部、 13b 切出部、 14 細線化部、 15 読取部、 16 算出部、 17 出力部、 18 紐付部、 20 記憶装置、 30 撮像装置、 40 出力装置、 50 移動体、 60 取得装置、 70 制御装置、 A 入力画像、 B、B1〜B7 文字画像、 C5〜C7 重心位置、 CL 直線、 D1 第1方向、 D2 第2方向、 DR、DR1〜DR7 判定領域、 ID1、ID2 識別体、 Li1〜Li4 線、 P 画素、 SD1、SD2 セグメントディスプレイ、 SL 直線、 T 軌道 1, 2, 3 reading system, 10 processing device, 11 reception part, 12 pre-processing part, 12a binarization part, 12b expansion processing part, 12c shrinking processing part, 13 extraction part, 13a labeling processing part, 13b cutting part , 14 Thinning unit, 15 Reading unit, 16 Calculator, 17 Output unit, 18 Linking unit, 20 Storage device, 30 Imaging device, 40 Output device, 50 Moving device, 60 Acquisition device, 70 Control device, A Input image, B, B1 to B7 character image, C5 to C7 center of gravity position, CL straight line, D1 first direction, D2 second direction, DR, DR1 to DR7 judgment area, ID1, ID2 discriminator, Li1 to Li4 line, P pixel, SD1 , SD2 segment display, SL straight line, T orbit

Claims (30)

複数のセグメントを含むセグメントディスプレイによって表示された文字を写した文字画像から、前記文字を読み取る読取部と、
第1スコアを算出する第1処理を実行し、前記第1スコアを用いて読み取りの確度を算出する算出部と、
を備え、
前記第1処理において、前記算出部は、
前記複数のセグメントに対応する複数の判定領域を前記文字画像に設定し、
前記複数の判定領域のそれぞれにおいて、前記文字を示す細線化された画素に含まれる線の数と、前記判定領域と重なる前記線の角度と、に基づいて前記第1スコアを算出する、
読取システム。
A reading unit that reads the characters from a character image of the characters displayed by the segment display including a plurality of segments.
A calculation unit that executes the first process of calculating the first score and calculates the reading accuracy using the first score.
With
In the first process, the calculation unit
A plurality of determination areas corresponding to the plurality of segments are set in the character image, and the character image is set.
In each of the plurality of determination areas, the first score is calculated based on the number of lines included in the thinned pixels indicating the characters and the angle of the lines overlapping the determination areas.
Reading system.
前記算出部は、
前記文字を示す画素から予め設定されたマスクに合致する画素を抽出し、前記文字を示す前記画素と抽出された前記画素との適合率に基づいて第2スコアを算出する第2処理と、
第1方向における前記文字画像の長さと、前記第1方向と交差する第2方向における前記文字画像の長さと、の比に基づいて第3スコアを算出する第3処理と、
前記複数の判定領域のそれぞれにおいて前記文字の一部の有無を検出し、検出した結果と予め設定された型との比較結果に基づいて第4スコアを算出する第4処理と、
の少なくともいずれかをさらに実行し、前記第スコア、前記第スコア、及び前記第スコアの少なくともいずれかと、前記第1スコアと、を用いて、前記確度を算出する請求項1記載の読取システム。
The calculation unit
A second process of extracting pixels matching a preset mask from the pixels indicating the characters and calculating a second score based on the matching ratio between the pixels indicating the characters and the extracted pixels.
A third process of calculating a third score based on the ratio of the length of the character image in the first direction to the length of the character image in the second direction intersecting the first direction.
A fourth process of detecting the presence or absence of a part of the character in each of the plurality of determination regions and calculating a fourth score based on a comparison result between the detected result and a preset type.
The reading according to claim 1, wherein at least one of the above is further executed , and the accuracy is calculated by using at least one of the second score, the third score, and the fourth score, and the first score. system.
前記セグメントディスプレイに複数の前記文字が表示されるとき、前記読取部は、前記複数の文字を読み取り、
前記算出部は、
前記複数の文字を写した複数の前記文字画像のそれぞれについて、前記第1処理を実行し、
複数の前記第1スコアを用いて前記確度を算出する、
請求項1記載の読取システム。
When a plurality of the characters are displayed on the segment display, the reading unit reads the plurality of characters.
The calculation unit
The first process is executed for each of the plurality of character images on which the plurality of characters are copied.
The accuracy is calculated using a plurality of the first scores.
The reading system according to claim 1.
複数のセグメントを含むセグメントディスプレイによって表示された文字を写した文字画像から、前記文字を読み取る読取部と、
第1スコアを算出する第1処理及び第4スコアを算出する第4処理を実行し、前記第1スコア及び前記第4スコアを用いて読み取りの確度を算出する算出部と、
を備え、
前記第4処理において、前記算出部は、
前記複数のセグメントに対応する複数の判定領域を、前記文字画像に設定し、
前記複数の判定領域のそれぞれにおいて前記文字の一部の有無を検出し、
検出した結果と予め設定された型との比較結果に基づいて前記第4スコアを算出し、
前記複数の判定領域の一部は、それぞれが第1方向に延び、前記第1方向に沿って並び、前記複数の判定領域の別の一部は、それぞれが前記第1方向と交差する第2方向に延び、前記第2方向に沿って並び、
前記複数の判定領域の前記第1方向における位置、前記第2方向における位置、前記第1方向における長さ、及び前記第2方向における長さは、前記第1方向における前記文字画像の長さと、前記第2方向における前記文字画像の長さと、に基づいて設定され
前記第1処理において、前記算出部は、前記複数の判定領域のそれぞれにおける、前記文字を示す細線化された画素に含まれる線の数と、前記判定領域と重なる前記線の角度と、に基づいて前記第1スコアを算出する読取システム。
A reading unit that reads the characters from a character image of the characters displayed by the segment display including a plurality of segments.
A calculation unit that executes the first process for calculating the first score and the fourth process for calculating the fourth score, and calculates the reading accuracy using the first score and the fourth score.
With
In the fourth process, the calculation unit
A plurality of determination areas corresponding to the plurality of segments are set in the character image, and the character image is set.
The presence or absence of a part of the character is detected in each of the plurality of determination areas, and the presence or absence of a part of the character is detected.
The fourth score is calculated based on the comparison result between the detected result and the preset type.
A part of the plurality of determination regions extends in the first direction and is arranged along the first direction, and another part of the plurality of determination regions intersects the first direction. Extending in the direction, lining up along the second direction,
The position of the plurality of determination regions in the first direction, the position in the second direction, the length in the first direction, and the length in the second direction are the length of the character image in the first direction. It is set based on the length of the character image in the second direction .
In the first process, the calculation unit is based on the number of lines included in the thinned pixels indicating the characters in each of the plurality of determination areas and the angle of the lines overlapping the determination areas. A reading system that calculates the first score.
前記算出部は、
前記文字を示す前記画素から予め設定されたマスクに合致する画素を抽出し、前記文字を示す前記画素と抽出された前記画素との適合率に基づいて第2スコアを算出する第2処理と、
前記第1方向における前記文字画像の長さと、前記第2方向における前記文字画像の長さと、の比に基づいて第3スコアを算出する第3処理と、
の少なくともいずれかをさらに実行し、前記第2スコア及び前記第3スコアの少なくともいずれかと、前記第1スコアと、前記第4スコアと、を用いて、前記確度を算出する請求項4記載の読取システム。
The calculation unit
A second process of extracting a pixel matching a preset mask from the pixel indicating the character and calculating a second score based on the matching ratio between the pixel indicating the character and the extracted pixel.
A third process of calculating a third score based on the ratio of the length of the character image in the first direction and the length of the character image in the second direction.
Further performing at least one, at least one of the previous SL second score and the third score, said first score, using a fourth score, according to claim 4, wherein for calculating the accuracy Reading system.
前記セグメントディスプレイに複数の前記文字が表示されるとき、前記読取部は、前記複数の文字を読み取り、
前記算出部は、
前記複数の文字を写した複数の前記文字画像のそれぞれについて、前記第4処理を実行し、
複数の前記第4スコアを用いて前記確度を算出する、
請求項4記載の読取システム。
When a plurality of the characters are displayed on the segment display, the reading unit reads the plurality of characters.
The calculation unit
The fourth process is executed for each of the plurality of character images on which the plurality of characters are copied.
The accuracy is calculated using the plurality of the fourth scores.
The reading system according to claim 4.
前記算出部は、さらに、
前記複数の文字の位置のばらつきと、前記複数の文字の配列方向と、に基づいて第5スコアを算出する第5処理と、
前記複数の文字の数と、予め設定された最小文字数及び最大文字数と、の比較結果に基づいて第6スコアを算出する第6処理と、
前記複数の文字についての小数点の認識結果と、予め登録された小数点の有無と、の比較結果に基づいて第7スコアを算出する第7処理と、
の少なくともいずれかを実行し、前記第5スコア、前記第6スコア、及び前記第7スコアの少なくともいずれかをさらに用いて前記確度を算出する、請求項3又は6に記載の読取システム。
The calculation unit further
The fifth process of calculating the fifth score based on the variation in the positions of the plurality of characters and the arrangement direction of the plurality of characters.
The sixth process of calculating the sixth score based on the comparison result of the number of the plurality of characters and the preset minimum number of characters and maximum number of characters.
The seventh process of calculating the seventh score based on the comparison result of the recognition result of the decimal point for the plurality of characters and the presence / absence of the decimal point registered in advance.
The reading system according to claim 3 or 6, wherein at least one of the above is executed, and at least one of the fifth score, the sixth score, and the seventh score is further used to calculate the accuracy.
前記算出部は、少なくとも前記第2処理をさらに実行し、
前記第2処理で用いられる前記マスクは、前記複数のセグメントが点灯した状態に対応する請求項2又は5に記載の読取システム。
The calculation unit further executes at least the second process,
The reading system according to claim 2 or 5, wherein the mask used in the second process corresponds to a state in which the plurality of segments are lit.
読み取った前記文字と、前記確度と、前記文字画像と、を出力する出力部をさらに備えた請求項1〜のいずれか1つに記載の読取システム。 The reading system according to any one of claims 1 to 8 , further comprising an output unit for outputting the read character, the accuracy, and the character image. 前記セグメントディスプレイを撮影し、前記文字画像を含む第1画像を取得する撮像装置と、
前記第1画像から前記文字画像を抽出する抽出部と、
をさらに備えた請求項1〜のいずれか1つに記載の読取システム。
An imaging device that photographs the segment display and acquires a first image including the character image.
An extraction unit that extracts the character image from the first image,
The reading system according to any one of claims 1 to 9, further comprising.
前記撮像装置は、動画を撮影し、前記動画から前記セグメントディスプレイが写った前記第1画像を切り出す請求項10記載の読取システム。 The reading system according to claim 10 , wherein the imaging device captures a moving image and cuts out the first image in which the segment display is captured from the moving image. 前記確度が第1閾値以下のとき、前記撮像装置は、前記セグメントディスプレイを再度撮影して第2画像を取得し、
前記読取部及び前記算出部は、前記第2画像について、前記文字の読み取り及び前記読み取りの確度の算出を実行する請求項10又は11に記載の読取システム。
When the accuracy is equal to or less than the first threshold value, the imaging device re-photographs the segment display to acquire a second image.
The reading system according to claim 10 or 11 , wherein the reading unit and the calculation unit perform reading of the characters and calculation of the accuracy of the reading of the second image.
前記撮像装置は、前記第1画像を取得したときと同じ撮影条件で前記第2画像を取得する請求項12記載の読取システム。 The reading system according to claim 12 , wherein the imaging device acquires the second image under the same shooting conditions as when the first image was acquired. 前記撮像装置が搭載された移動体をさらに備えた請求項1013のいずれか1つに記載の読取システム。 The reading system according to any one of claims 10 to 13 , further comprising a mobile body on which the image pickup apparatus is mounted. 複数のセグメントを含むセグメントディスプレイによって表示された文字を写した文字画像から、前記文字を読み取るとともに、
第1スコアを算出する第1処理を実行し、前記第1スコアを用いて読み取りの確度を算出する、読取方法であって、
前記第1処理において、
前記複数のセグメントに対応する複数の判定領域を前記文字画像に設定し、
前記複数の判定領域のそれぞれにおいて、前記文字を示す細線化された画素に含まれる線の数と、前記判定領域と重なる前記線の角度と、に基づいて前記第1スコアを算出する、
読取方法。
While reading the character from the character image of the character displayed by the segment display including a plurality of segments,
A reading method in which the first process of calculating the first score is executed and the accuracy of reading is calculated using the first score.
In the first process,
A plurality of determination areas corresponding to the plurality of segments are set in the character image, and the character image is set.
In each of the plurality of determination areas, the first score is calculated based on the number of lines included in the thinned pixels indicating the characters and the angle of the lines overlapping the determination areas.
Reading method.
前記セグメントディスプレイに表示された複数の前記文字を読み取り、
前記複数の文字を写した複数の前記文字画像のそれぞれについて、前記第1処理を実行し、
複数の前記第1スコアを用いて前記確度を算出する、
請求項15記載の読取方法。
Read the plurality of the characters displayed on the segment display,
The first process is executed for each of the plurality of character images on which the plurality of characters are copied.
The accuracy is calculated using a plurality of the first scores.
The reading method according to claim 15.
複数のセグメントを含むセグメントディスプレイによって表示された文字を写した文字画像から、前記文字を読み取るとともに、
第1スコアを算出する第1処理及び第4スコアを算出する第4処理を実行し、前記第1スコア及び前記第4スコアを用いて読み取りの確度を算出する、読取方法であって、
前記第4処理において、
前記複数のセグメントに対応する複数の判定領域を、前記文字画像に設定し、
前記複数の判定領域のそれぞれにおいて前記文字の一部の有無を検出し、
検出した結果と予め設定された型との比較結果に基づいて前記第4スコアを算出し、
前記複数の判定領域の一部は、それぞれが第1方向に延び、前記第1方向に沿って並び、前記複数の判定領域の別の一部は、それぞれが前記第1方向と交差する第2方向に延び、前記第2方向に沿って並び、
前記複数の判定領域の前記第1方向における位置、前記第2方向における位置、前記第1方向における長さ、及び前記第2方向における長さは、前記第1方向における前記文字画像の長さと、前記第2方向における前記文字画像の長さと、に基づいて設定され
前記第1処理において、前記複数の判定領域のそれぞれにおける、前記文字を示す細線化された画素に含まれる線の数と、前記判定領域と重なる前記線の角度と、に基づいて前記第1スコアを算出する読取方法。
While reading the character from the character image of the character displayed by the segment display including a plurality of segments,
A reading method in which a first process for calculating a first score and a fourth process for calculating a fourth score are executed, and the accuracy of reading is calculated using the first score and the fourth score.
In the fourth process,
A plurality of determination areas corresponding to the plurality of segments are set in the character image, and the character image is set.
The presence or absence of a part of the character is detected in each of the plurality of determination areas, and the presence or absence of a part of the character is detected.
The fourth score is calculated based on the comparison result between the detected result and the preset type.
A part of the plurality of determination regions extends in the first direction and is arranged along the first direction, and another part of the plurality of determination regions intersects the first direction. Extending in the direction, lining up along the second direction,
The position of the plurality of determination regions in the first direction, the position in the second direction, the length in the first direction, and the length in the second direction are the length of the character image in the first direction. It is set based on the length of the character image in the second direction .
In the first process, the first score is based on the number of lines included in the thinned pixels indicating the characters in each of the plurality of determination regions and the angle of the lines overlapping the determination regions. Reading method to calculate.
前記セグメントディスプレイに表示された複数の前記文字を読み取り、
前記複数の文字を写した複数の前記文字画像のそれぞれについて、前記第4処理を実行し、
複数の前記第4スコアを用いて前記確度を算出する、
請求項17記載の読取方法。
Read the plurality of the characters displayed on the segment display,
The fourth process is executed for each of the plurality of character images on which the plurality of characters are copied.
The accuracy is calculated using the plurality of the fourth scores.
17. The reading method according to claim 17.
前記複数の文字の位置のばらつきと、前記複数の文字の配列方向と、に基づいて第5スコアを算出する第5処理と、
前記複数の文字の数と、予め設定された最小文字数及び最大文字数と、の比較結果に基づいて第6スコアを算出する第6処理と、
前記複数の文字についての小数点の認識結果と、予め登録された小数点の有無と、の比較結果に基づいて第7スコアを算出する第7処理と、
の少なくともいずれかをさらに実行し、
前記第5スコア、前記第6スコア、及び前記第7スコアの少なくともいずれかをさらに用いて前記確度を算出する、請求項16又は18に記載の読取方法。
The fifth process of calculating the fifth score based on the variation in the positions of the plurality of characters and the arrangement direction of the plurality of characters.
The sixth process of calculating the sixth score based on the comparison result of the number of the plurality of characters and the preset minimum number of characters and maximum number of characters.
The seventh process of calculating the seventh score based on the comparison result of the recognition result of the decimal point for the plurality of characters and the presence / absence of the decimal point registered in advance.
Do at least one of the more,
The reading method according to claim 16 or 18 , wherein the accuracy is calculated by further using at least one of the fifth score, the sixth score, and the seventh score.
動画を撮影し、
前記セグメントディスプレイが写り、且つ前記文字画像を含む第1画像を前記動画から切り出し、
前記第1画像から前記文字画像を抽出する、請求項1519のいずれか1つに記載の読取方法。
Take a video and
The segment display is shown, and the first image including the character image is cut out from the moving image.
The reading method according to any one of claims 15 to 19 , wherein the character image is extracted from the first image.
処理装置に、
複数のセグメントを含むセグメントディスプレイによって表示された文字を写した文字画像から、前記文字を読み取らせ、
第1スコアを算出する第1処理を実行させ、前記第1スコアを用いて読み取りの確度を算出させる、
プログラムであって、
前記第1処理において、
前記複数のセグメントに対応する複数の判定領域を前記文字画像に設定させ、
前記複数の判定領域のそれぞれにおいて、前記文字を示す細線化された画素に含まれる線の数と、前記判定領域と重なる前記線の角度と、に基づいて前記第1スコアを算出させる、
プログラム。
For processing equipment
The characters are read from the character image of the characters displayed by the segment display including a plurality of segments.
The first process of calculating the first score is executed, and the reading accuracy is calculated using the first score.
It ’s a program
In the first process,
A plurality of determination areas corresponding to the plurality of segments are set in the character image, and the character image is set.
In each of the plurality of determination areas, the first score is calculated based on the number of lines included in the thinned pixels indicating the characters and the angle of the lines overlapping the determination areas.
program.
前記処理装置に、
前記セグメントディスプレイに表示された複数の前記文字を読み取らせ、
前記複数の文字を写した複数の前記文字画像のそれぞれについて、前記第1処理を実行させ、
複数の前記第1スコアを用いて前記確度を算出させる、
請求項21記載のプログラム。
In the processing device
Have the segment display read a plurality of the characters displayed on the segment display.
The first process is executed for each of the plurality of character images on which the plurality of characters are copied.
The accuracy is calculated using a plurality of the first scores.
21. The program of claim 21.
処理装置に、
複数のセグメントを含むセグメントディスプレイによって表示された文字を写した文字画像から、前記文字を読み取らせ、
第1スコアを算出する第1処理及び第4スコアを算出する第4処理を実行させ、前記第1スコア及び前記第4スコアを用いて読み取りの確度を算出させる、
プログラムであって、
前記第4処理において、
前記複数のセグメントに対応する複数の判定領域を、前記文字画像に設定させ、
前記複数の判定領域のそれぞれにおいて前記文字の一部の有無を検出させ、
検出した結果と予め設定された型との比較結果に基づいて前記第4スコアを算出させ、
前記複数の判定領域の一部は、それぞれが第1方向に延び、前記第1方向に沿って並び、前記複数の判定領域の別の一部は、それぞれが前記第1方向と交差する第2方向に延び、前記第2方向に沿って並び、
前記複数の判定領域の前記第1方向における位置、前記第2方向における位置、前記第1方向における長さ、及び前記第2方向における長さは、前記第1方向における前記文字画像の長さと、前記第2方向における前記文字画像の長さと、に基づいて設定され
前記第1処理において、前記複数の判定領域のそれぞれにおける、前記文字を示す細線化された画素に含まれる線の数と、前記判定領域と重なる前記線の角度と、に基づいて前記第1スコアを算出させるプログラム。
For processing equipment
The characters are read from the character image of the characters displayed by the segment display including a plurality of segments.
The first process for calculating the first score and the fourth process for calculating the fourth score are executed, and the reading accuracy is calculated using the first score and the fourth score.
It ’s a program
In the fourth process,
A plurality of determination areas corresponding to the plurality of segments are set in the character image, and the character image is set.
The presence or absence of a part of the character is detected in each of the plurality of determination areas.
The fourth score is calculated based on the comparison result between the detected result and the preset type.
A part of the plurality of determination regions extends in the first direction and is arranged along the first direction, and another part of the plurality of determination regions intersects the first direction. Extending in the direction, lining up along the second direction,
The position of the plurality of determination regions in the first direction, the position in the second direction, the length in the first direction, and the length in the second direction are the length of the character image in the first direction. It is set based on the length of the character image in the second direction .
In the first process, the first score is based on the number of lines included in the thinned pixels indicating the characters in each of the plurality of determination regions and the angle of the lines overlapping the determination regions. Program to calculate.
前記処理装置に、
前記セグメントディスプレイに表示された複数の前記文字を読み取らせ、
前記複数の文字を写した複数の前記文字画像のそれぞれについて、前記第4処理を実行させ、
複数の前記第4スコアを用いて前記確度を算出させる、
請求項23記載のプログラム。
In the processing device
Have the segment display read a plurality of the characters displayed on the segment display.
The fourth process is executed for each of the plurality of character images on which the plurality of characters are copied.
The accuracy is calculated using the plurality of the fourth scores.
23. The program of claim 23.
前記処理装置に、さらに、
前記複数の文字の位置のばらつきと、前記複数の文字の配列方向と、に基づいて第5スコアを算出する第5処理と、
前記複数の文字の数と、予め設定された最小文字数及び最大文字数と、の比較結果に基づいて第6スコアを算出する第6処理と、
前記複数の文字についての小数点の認識結果と、予め登録された小数点の有無と、の比較結果に基づいて第7スコアを算出する第7処理と、
の少なくともいずれかを実行させ、前記第5スコア、前記第6スコア、及び前記第7スコアの少なくともいずれかをさらに用いて前記確度を算出させる、請求項22又は24に記載のプログラム。
In addition to the processing device
The fifth process of calculating the fifth score based on the variation in the positions of the plurality of characters and the arrangement direction of the plurality of characters.
The sixth process of calculating the sixth score based on the comparison result of the number of the plurality of characters and the preset minimum number of characters and maximum number of characters.
The seventh process of calculating the seventh score based on the comparison result of the recognition result of the decimal point for the plurality of characters and the presence / absence of the decimal point registered in advance.
The program according to claim 22 or 24 , wherein at least one of the above-mentioned fifth score, the sixth score, and the seventh score is further used to calculate the accuracy.
請求項2125のいずれか1つに記載のプログラムを記憶した記憶媒体。 A storage medium that stores the program according to any one of claims 21 to 25. 複数のセグメントを含むセグメントディスプレイが設けられた所定の領域内を移動する移動体であって、
撮像装置と、
前記撮像装置により撮影された前記セグメントディスプレイの画像から、前記セグメントディスプレイによって表示された文字を読み取る読取部と、
前記画像から前記文字を写した文字画像を切り出す抽出部と、
第1スコアを算出する第1処理を実行し、前記第1スコアを用いて読み取りの確度を算出する算出部と、
を備え、
前記第1処理において、前記算出部は、
前記複数のセグメントに対応する複数の判定領域を前記文字画像に設定し、
前記複数の判定領域のそれぞれにおいて、前記文字を示す細線化された画素に含まれる線の数と、前記判定領域と重なる前記線の角度と、に基づいて前記第1スコアを算出する、
移動体。
A mobile body that moves within a predetermined area provided with a segment display containing a plurality of segments.
Imaging device and
A reading unit that reads characters displayed by the segment display from the image of the segment display taken by the imaging device.
An extraction unit that cuts out a character image that is a copy of the character from the image,
A calculation unit that executes the first process of calculating the first score and calculates the reading accuracy using the first score.
With
In the first process, the calculation unit
A plurality of determination areas corresponding to the plurality of segments are set in the character image, and the character image is set.
In each of the plurality of determination areas, the first score is calculated based on the number of lines included in the thinned pixels indicating the characters and the angle of the lines overlapping the determination areas.
Mobile body.
複数のセグメントを含むセグメントディスプレイが設けられた所定の領域内を移動する移動体であって、
撮像装置と、
前記撮像装置により撮影された前記セグメントディスプレイの画像から、前記セグメントディスプレイによって表示された文字を読み取る読取部と、
前記画像から前記文字を写した文字画像を切り出す抽出部と、
第1スコアを算出する第1処理及び第4スコアを算出する第4処理を実行し、前記第1スコア及び前記第4スコアを用いて読み取りの確度を算出する算出部と、
を備え、
前記第4処理において、前記算出部は、
前記複数のセグメントに対応する複数の判定領域を、前記文字画像に設定し、
前記複数の判定領域のそれぞれにおいて前記文字の一部の有無を検出し、
検出した結果と予め設定された型との比較結果に基づいて前記第4スコアを算出し、
前記複数の判定領域の一部は、それぞれが第1方向に延び、前記第1方向に沿って並び、前記複数の判定領域の別の一部は、それぞれが前記第1方向と交差する第2方向に延び、前記第2方向に沿って並び、
前記複数の判定領域の前記第1方向における位置、前記第2方向における位置、前記第1方向における長さ、及び前記第2方向における長さは、前記第1方向における前記文字画像の長さと、前記第2方向における前記文字画像の長さと、に基づいて設定され
前記第1処理において、前記複数の判定領域のそれぞれにおける、前記文字を示す細線化された画素に含まれる線の数と、前記判定領域と重なる前記線の角度と、に基づいて前記第1スコアを算出する移動体。
A mobile body that moves within a predetermined area provided with a segment display containing a plurality of segments.
Imaging device and
A reading unit that reads characters displayed by the segment display from the image of the segment display taken by the imaging device.
An extraction unit that cuts out a character image that is a copy of the character from the image,
A calculation unit that executes the first process for calculating the first score and the fourth process for calculating the fourth score, and calculates the reading accuracy using the first score and the fourth score.
With
In the fourth process, the calculation unit
A plurality of determination areas corresponding to the plurality of segments are set in the character image, and the character image is set.
The presence or absence of a part of the character is detected in each of the plurality of determination areas, and the presence or absence of a part of the character is detected.
The fourth score is calculated based on the comparison result between the detected result and the preset type.
A part of the plurality of determination regions extends in the first direction and is arranged along the first direction, and another part of the plurality of determination regions intersects the first direction. Extending in the direction, lining up along the second direction,
The position of the plurality of determination regions in the first direction, the position in the second direction, the length in the first direction, and the length in the second direction are the length of the character image in the first direction. It is set based on the length of the character image in the second direction .
In the first process, the first score is based on the number of lines included in the thinned pixels indicating the characters in each of the plurality of determination regions and the angle of the lines overlapping the determination regions. A mobile body that calculates.
前記移動体及び前記撮像装置を制御する制御装置をさらに備え、
前記撮像装置により前記セグメントディスプレイを撮影可能な位置に前記移動体が移動すると、前記制御装置は、前記撮像装置に前記セグメントディスプレイを撮影させる請求項27又は28に記載の移動体。
A control device for controlling the moving body and the imaging device is further provided.
The moving body according to claim 27 or 28 , wherein when the moving body moves to a position where the segment display can be photographed by the imaging device, the control device causes the imaging device to shoot the segment display.
前記撮像装置は、動画を撮影し、前記動画から前記セグメントディスプレイが写った前記画像を切り出す請求項2729のいずれか1つに記載の移動体。 The moving body according to any one of claims 27 to 29 , wherein the image pickup apparatus captures a moving image and cuts out the image of the segment display from the moving image.
JP2019098707A 2019-05-27 2019-05-27 Reading system, reading method, program, storage medium, and mobile Active JP6868057B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019098707A JP6868057B2 (en) 2019-05-27 2019-05-27 Reading system, reading method, program, storage medium, and mobile
US16/879,887 US11694451B2 (en) 2019-05-27 2020-05-21 Reading system, reading method, storage medium, and moving body
CN202010461274.6A CN112001392A (en) 2019-05-27 2020-05-27 Reading system, reading method, storage medium, and moving object
US18/321,104 US20230290161A1 (en) 2019-05-27 2023-05-22 Reading system, reading method, storage medium, and moving body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019098707A JP6868057B2 (en) 2019-05-27 2019-05-27 Reading system, reading method, program, storage medium, and mobile

Publications (2)

Publication Number Publication Date
JP2020194281A JP2020194281A (en) 2020-12-03
JP6868057B2 true JP6868057B2 (en) 2021-05-12

Family

ID=73466586

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019098707A Active JP6868057B2 (en) 2019-05-27 2019-05-27 Reading system, reading method, program, storage medium, and mobile

Country Status (3)

Country Link
US (2) US11694451B2 (en)
JP (1) JP6868057B2 (en)
CN (1) CN112001392A (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112906696B (en) * 2021-05-06 2021-08-13 北京惠朗时代科技有限公司 English image region identification method and device

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61163475A (en) * 1985-01-14 1986-07-24 Hitachi Ltd Numeral recognition method
JPH0244487A (en) 1988-08-05 1990-02-14 Fujitsu Ltd 7b character reading system for optical character reader
JPH04135287A (en) * 1990-09-27 1992-05-08 Mazda Motor Corp Pattern recognition method
JPH1074240A (en) 1996-08-30 1998-03-17 Fujitsu Ltd Character position detection method
JPH11316794A (en) * 1998-05-06 1999-11-16 Aisin Aw Seimitsu Kk Method for reading and deciding segment information
JP2000339472A (en) 1999-05-31 2000-12-08 Hitachi Eng Co Ltd Method and device for printing judgment of segment character pattern
JP2001291054A (en) 2000-04-07 2001-10-19 Nec Corp Id recognizing device for semiconductor wafer and id recognition sorter system
JP2001307017A (en) * 2000-04-20 2001-11-02 Fujitsu Ltd Character plate recognizing device
JP2004118611A (en) * 2002-09-27 2004-04-15 Dainippon Printing Co Ltd Character reading system
CN1333366C (en) * 2005-04-01 2007-08-22 清华大学 On-line hand-written Chinese characters recognition method based on statistic structural features
JP3998215B1 (en) 2007-03-29 2007-10-24 国立大学法人山口大学 Image processing apparatus, image processing method, and image processing program
JP5591578B2 (en) * 2010-04-19 2014-09-17 日本電産サンキョー株式会社 Character string recognition apparatus and character string recognition method
JP5768590B2 (en) * 2011-08-22 2015-08-26 富士通株式会社 Image processing apparatus, image processing method, and program
CN105283902B (en) * 2013-06-17 2018-10-30 富士通株式会社 The storage medium of image processing apparatus, image processing method and image processing program
JP6362632B2 (en) * 2013-12-19 2018-07-25 キヤノン株式会社 Image processing apparatus and image processing method
JP5992567B1 (en) 2015-03-20 2016-09-14 株式会社Pfu Date identification device
US9563812B2 (en) * 2015-04-08 2017-02-07 Toshiba Tec Kabushiki Kaisha Image processing apparatus, image processing method and computer-readable storage medium
JP5997808B1 (en) * 2015-06-18 2016-09-28 株式会社Pfu Image processing device, date identification device, image processing method, and program
JP6804292B2 (en) * 2016-12-28 2020-12-23 オムロンヘルスケア株式会社 Terminal equipment
JP6401806B2 (en) * 2017-02-14 2018-10-10 株式会社Pfu Date identification device, date identification method, and date identification program
CN108491844A (en) * 2018-02-07 2018-09-04 西安工程大学 Water meter automatic checkout system based on image procossing and its image processing method
JP6542407B1 (en) * 2018-02-16 2019-07-10 株式会社東芝 Reading system, reading method, program, and storage medium
JP6542406B1 (en) * 2018-02-16 2019-07-10 株式会社東芝 Reading system, reading method, program, and storage medium
JP6929823B2 (en) 2018-11-16 2021-09-01 株式会社東芝 Reading system, reading method, program, storage medium, and mobile
JP6656453B2 (en) 2019-06-11 2020-03-04 株式会社東芝 Reading system, reading device, program, and storage medium

Also Published As

Publication number Publication date
JP2020194281A (en) 2020-12-03
US20200380296A1 (en) 2020-12-03
US20230290161A1 (en) 2023-09-14
US11694451B2 (en) 2023-07-04
CN112001392A (en) 2020-11-27

Similar Documents

Publication Publication Date Title
US11922615B2 (en) Information processing device, information processing method, and storage medium
US9842269B2 (en) Video processing apparatus, video processing method, and recording medium
CN109993086B (en) Face detection method, device and system and terminal equipment
US20200050855A1 (en) System and method for operation in an augmented reality display device
CN105303156B (en) Character detection device, method, and program
CN111160527A (en) Target identification method and device based on MASK RCNN network model
US11900664B2 (en) Reading system, reading device, reading method, and storage medium
US11227152B2 (en) Recognition apparatus, recognition method, and recognition program
CN110879983B (en) Face feature key point extraction method and face image synthesis method
JP6868057B2 (en) Reading system, reading method, program, storage medium, and mobile
US20200380287A1 (en) Reading system, moving body, reading method, and storage medium
CN111160123B (en) Aircraft target identification method, device and storage medium
JP2006323779A (en) Image processing method and device
JP2021177435A (en) Reading system, reading method, program, storage medium and moving body
CN112703492A (en) System and method for operating in augmented reality display device
JP6977291B2 (en) Individual identification device, information processing system, control method and program of individual identification device
JP2007025901A (en) Image processor and image processing method
CN111178143B (en) Container temperature information acquisition method, device and system
NL2024816B1 (en) Detection method for detecting an occlusion of an eye region in an image
JP2022010248A (en) Individual identification device, individual identification method, and program
US20170263000A1 (en) Information processing apparatus, computer-readable storage medium, and information processing method
JP2008102610A (en) Image processor

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200601

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200601

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200601

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200701

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201002

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210409

R150 Certificate of patent or registration of utility model

Ref document number: 6868057

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150