JP6656453B2 - Reading system, reading device, program, and storage medium - Google Patents

Reading system, reading device, program, and storage medium Download PDF

Info

Publication number
JP6656453B2
JP6656453B2 JP2019108678A JP2019108678A JP6656453B2 JP 6656453 B2 JP6656453 B2 JP 6656453B2 JP 2019108678 A JP2019108678 A JP 2019108678A JP 2019108678 A JP2019108678 A JP 2019108678A JP 6656453 B2 JP6656453 B2 JP 6656453B2
Authority
JP
Japan
Prior art keywords
image
candidate image
segment display
candidate
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019108678A
Other languages
Japanese (ja)
Other versions
JP2019145182A (en
JP2019145182A5 (en
Inventor
利和 瀧
利和 瀧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2019108678A priority Critical patent/JP6656453B2/en
Publication of JP2019145182A publication Critical patent/JP2019145182A/en
Publication of JP2019145182A5 publication Critical patent/JP2019145182A5/en
Application granted granted Critical
Publication of JP6656453B2 publication Critical patent/JP6656453B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Character Input (AREA)
  • Character Discrimination (AREA)
  • Image Analysis (AREA)

Description

本発明の実施形態は、読取システム、読取装置、プログラム、及び記憶媒体に関する。 Embodiments of the present invention relate to a reading system, a reading device , a program, and a storage medium.

セグメントディスプレイに表示された数値を読み取るシステムがある。このシステムにおいて、数値の読み取りの精度は、高いことが望ましい。   There is a system for reading a numerical value displayed on a segment display. In this system, it is desirable that the accuracy of reading numerical values is high.

特開2008−243103号公報JP 2008-243103 A

本発明が解決しようとする課題は、セグメントディスプレイの数値の読み取り精度を向上できる、読取システム、読取装置、プログラム、及び記憶媒体を提供することである。 It is an object of the present invention to provide a reading system, a reading device , a program, and a storage medium that can improve the reading accuracy of a numerical value of a segment display.

実施形態に係る読取システムは、判部を備える。入力画像から抽出された、セグメントディスプレイが撮影された部分の候補となる候補画像について、前記判定部は、前記候補画像と予め設定されたマスクとを用いて、前記候補画像にセグメントディスプレイが含まれる確度を示す適合率を算出し、前記適合率が予め設定された閾値以上である場合に、前記候補画像をセグメントディスプレイの画像であると判定する Reading system according to the embodiment includes a determine constant section. Extracted from the input image, the candidate image segment display are candidates of the photographed portions, the determining unit, by using the mask set in advance and the candidate image, includes segment display on the candidate image The candidate rate is determined to be an image of a segment display if the precision is equal to or greater than a preset threshold .

実施形態に係る読取システムの構成を表すブロック図である。FIG. 1 is a block diagram illustrating a configuration of a reading system according to an embodiment. 実施形態に係る読取システムの動作を表すフローチャートである。6 is a flowchart illustrating an operation of the reading system according to the embodiment. 実施形態に係る読取システムにおける処理を例示する図である。FIG. 4 is a diagram illustrating a process in the reading system according to the embodiment. 実施形態の第1変形例に係る読取システムの構成を表すブロック図である。FIG. 9 is a block diagram illustrating a configuration of a reading system according to a first modification of the embodiment. 実施形態の第2変形例に係る読取システムの構成を表すブロック図である。FIG. 13 is a block diagram illustrating a configuration of a reading system according to a second modification of the embodiment. 実施形態の第3変形例に係る読取システムの構成を表すブロック図である。FIG. 14 is a block diagram illustrating a configuration of a reading system according to a third modification of the embodiment. 実施形態に係る読取システムを実現するためのハードウェア構成を表すブロック図である。FIG. 2 is a block diagram illustrating a hardware configuration for realizing the reading system according to the embodiment.

以下に、本発明の各実施形態について図面を参照しつつ説明する。
また、本願明細書と各図において、既に説明したものと同様の要素には同一の符号を付して詳細な説明は適宜省略する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
In the specification and the drawings of the application, the same elements as those already described are denoted by the same reference numerals, and detailed description will be appropriately omitted.

図1は、実施形態に係る読取システムの構成を表すブロック図である。
実施形態に係る読取システムは、セグメントディスプレイを含む画像から、セグメントディスプレイに表示された数値を読み取るために用いられる。本実施形態において、セグメントディスプレイとは、複数のセグメントの表示によって構成される数字や文字等の何らかの表示情報を含むものを表す。
FIG. 1 is a block diagram illustrating a configuration of the reading system according to the embodiment.
The reading system according to the embodiment is used to read a numerical value displayed on a segment display from an image including the segment display. In the present embodiment, the segment display refers to a display including some display information such as numbers and characters formed by displaying a plurality of segments.

図1に表したように、実施形態に係る読取システム1は、撮像部11、抽出部12、変換部13、切出部14、判定部15、読取部16、及び記憶部18を備える。   As illustrated in FIG. 1, the reading system 1 according to the embodiment includes an imaging unit 11, an extraction unit 12, a conversion unit 13, a cutout unit 14, a determination unit 15, a reading unit 16, and a storage unit 18.

撮像部11は、セグメントディスプレイを撮影し、静止した画像を取得する。撮像部11は、取得した画像を抽出部12に出力する。撮像部11により動画が撮影される場合は、その動画から静止画像を切り出して抽出部12に出力する。撮影される画像には、セグメントディスプレイ以外のものが写っていても良い。   The imaging unit 11 captures a segment display and acquires a still image. The imaging unit 11 outputs the obtained image to the extraction unit 12. When a moving image is captured by the imaging unit 11, a still image is cut out from the moving image and output to the extraction unit 12. The captured image may include an image other than the segment display.

抽出部12は、入力された画像から、セグメントディスプレイの画像の候補を抽出する。ここでは、撮像部11によって撮影され、抽出部12に入力される画像を、入力画像と呼ぶ。入力画像の一部であって、セグメントディスプレイの候補となる画像を、候補画像と呼ぶ。候補画像は、セグメントディスプレイが撮影されていると抽出部12によって判定された、入力画像の一部である。抽出部12から出力される候補画像は複数であっても良い。   The extracting unit 12 extracts a candidate for an image of the segment display from the input image. Here, an image captured by the imaging unit 11 and input to the extraction unit 12 is referred to as an input image. An image that is a part of the input image and is a candidate for the segment display is called a candidate image. The candidate image is a part of the input image for which the extraction unit 12 has determined that the segment display has been photographed. The number of candidate images output from the extraction unit 12 may be plural.

具体的な一例として、抽出部12は、加工部12a、二値化部12b、輪郭抽出部12c、第1選定部12d、四角形抽出部12e、第2選定部12fを有する。   As a specific example, the extracting unit 12 includes a processing unit 12a, a binarizing unit 12b, a contour extracting unit 12c, a first selecting unit 12d, a square extracting unit 12e, and a second selecting unit 12f.

加工部12aは、例えば、入力画像を、グレイスケールに変換した加工画像を生成する。加工部12aは、加工画像を二値化部12bに出力する。この際に、加工部12aは、例えば、入力画像を予め設定されたサイズに縮小した加工画像を、二値化部12bに出力してもよい。その際、加工部12aは、縮小されていない原寸画像を記憶部18に記憶する。   The processing unit 12a generates, for example, a processed image obtained by converting an input image into a gray scale. The processing unit 12a outputs the processed image to the binarization unit 12b. At this time, the processing unit 12a may output, for example, a processed image obtained by reducing the input image to a preset size to the binarization unit 12b. At that time, the processing unit 12a stores the original image that has not been reduced in the storage unit 18.

二値化部12bは、入力された加工画像を二値化し、白色と黒色で表される二値画像を生成する。輪郭抽出部12cは、二値画像において、例えば白色で表されている領域の輪郭を抽出する。   The binarization unit 12b binarizes the input processed image and generates a binary image represented by white and black. The contour extraction unit 12c extracts, for example, a contour of a region represented in white in the binary image.

第1選定部12dは、輪郭で囲まれた領域の面積を算出する。複数の輪郭が抽出された場合は、それぞれの領域の面積を算出する。第1選定部12dは、算出された各面積と所定の閾値とを比較し、面積が閾値以上の領域のみを選定する。これにより、面積が小さすぎる領域が候補から除外される。四角形抽出部12eは、選定された領域を直線近似し、四角形を抽出する。例えば、四角形抽出部12eは、抽出された四角形の頂点の座標を取得する。   The first selection unit 12d calculates the area of the region surrounded by the contour. When a plurality of contours are extracted, the area of each region is calculated. The first selection unit 12d compares each of the calculated areas with a predetermined threshold, and selects only a region whose area is equal to or larger than the threshold. As a result, a region having an area that is too small is excluded from the candidates. The rectangle extracting unit 12e approximates the selected area with a straight line and extracts a rectangle. For example, the rectangle extracting unit 12e acquires the coordinates of the vertices of the extracted rectangle.

第2選定部12fは、抽出された四角形の領域を予め設定された条件と比較し、条件に適合する領域を選定する。条件としては、例えば、四角形の縦寸法と横寸法の比率が所定範囲内にあること、頂点の角度が所定範囲内にあること、四角形のいずれかの頂点も画像の外枠近傍(例えば、外枠から3ピクセル以内)にないこと、などが用いられる。第2選定部12fは、選定された四角形を、最終的な候補画像として、変換部13に出力する。   The second selection unit 12f compares the extracted rectangular area with a preset condition and selects an area that meets the condition. The conditions include, for example, that the ratio of the vertical dimension to the horizontal dimension of the rectangle is within a predetermined range, the angle of the vertex is within a predetermined range, and any of the vertices of the rectangle is also near the outer frame of the image (for example, (Within 3 pixels from the frame). The second selection unit 12f outputs the selected rectangle to the conversion unit 13 as a final candidate image.

変換部13は、以下の第1処理及び第2処理を行う。
第1処理において、変換部13は、抽出部12から入力された候補画像が歪んでいないか判定する。候補画像が歪んでいると判定された場合、変換部13は、候補画像が正面から撮影された画像に近づくように、その歪みを補正する。
第2処理において、変換部13は、候補画像のサイズが、予め設定された規定サイズと一致するか判定する。候補画像のサイズが規定サイズと一致しない場合、変換部13は、候補画像のサイズが規定サイズに近づくように、候補画像を補正する。
第1処理及び第2処理を行う順序は任意である。または、第1処理と第2処理が同時に行われても良い。変換部13は、例えば、候補画像を射影変換することで、第1処理及び第2処理を同時に行い、歪み及びサイズを補正する。変換部13は、補正した候補画像を切出部14に出力する。候補画像が歪んでおらず、候補画像のサイズが規定サイズに一致すると判定された場合、変換部13は、入力された候補画像をそのまま切出部14に出力する。
The conversion unit 13 performs the following first processing and second processing.
In the first process, the conversion unit 13 determines whether the candidate image input from the extraction unit 12 is distorted. When it is determined that the candidate image is distorted, the conversion unit 13 corrects the distortion so that the candidate image approaches an image photographed from the front.
In the second process, the conversion unit 13 determines whether or not the size of the candidate image matches a preset specified size. If the size of the candidate image does not match the specified size, the conversion unit 13 corrects the candidate image so that the size of the candidate image approaches the specified size.
The order in which the first processing and the second processing are performed is arbitrary. Alternatively, the first processing and the second processing may be performed simultaneously. The conversion unit 13 performs the first processing and the second processing at the same time by, for example, projectively converting the candidate image, and corrects the distortion and the size. The conversion unit 13 outputs the corrected candidate image to the extraction unit 14. When it is determined that the candidate image is not distorted and the size of the candidate image matches the specified size, the conversion unit 13 outputs the input candidate image to the extraction unit 14 as it is.

切出部14は、記憶部18を参照する。記憶部18には、予め設定されたマスクと、その情報が記憶されている。本実施形態では、マスクは、読み取り対象のセグメントディスプレイに対応した画像である。また、マスクは、対象のセグメントディスプレイを読み取る際の参照情報となる。例えば、全てのセグメントが点灯した状態のセグメントディスプレイの二値画像が、マスクとして用いられる。切出部14は、マスクの縦寸法及び横寸法、実際のセグメントディスプレイにおけるマスクの対応位置を記憶部18から取得する。切出部14は、これらの情報に基づいて、入力された候補画像から、その一部を切り出す。切出部14は、切り出した候補画像を判定部15に出力する。   The extracting unit 14 refers to the storage unit 18. The storage unit 18 stores a preset mask and its information. In the present embodiment, the mask is an image corresponding to the segment display to be read. The mask serves as reference information when reading the target segment display. For example, a binary image of a segment display in which all the segments are turned on is used as a mask. The cutout unit 14 acquires from the storage unit 18 the vertical and horizontal dimensions of the mask and the corresponding position of the mask in the actual segment display. The cutout unit 14 cuts out a part of the input candidate image based on the information. The extraction unit 14 outputs the extracted candidate image to the determination unit 15.

判定部15は、記憶部18を参照し、入力された候補画像とマスクとを用いて適合率を算出する。適合率は、候補画像にセグメントディスプレイが含まれる確度を示す値である。例えば、適合率が大きいほど、候補画像にセグメントディスプレイが含まれる可能性が高い。   The determining unit 15 refers to the storage unit 18 and calculates a matching rate using the input candidate image and the mask. The precision is a value indicating the likelihood that a candidate image includes a segment display. For example, the higher the precision, the higher the possibility that the candidate image includes the segment display.

判定部15は、適合率を予め設定された閾値と比較する。適合率が閾値以上である場合、判定部15は、その候補画像がセグメントディスプレイの画像であると判定し、読取部16に出力する。候補画像が複数存在する場合、判定部15は、それぞれの候補画像に対して、適合率の算出及び判定を行う。   The determination unit 15 compares the matching rate with a preset threshold. When the matching rate is equal to or larger than the threshold, the determination unit 15 determines that the candidate image is an image of the segment display, and outputs the candidate image to the reading unit 16. When there are a plurality of candidate images, the determination unit 15 calculates and determines a matching rate for each candidate image.

判定部15は、具体的には、二値化部15a、論理演算部15b、適合率算出部15c、及び比較部15dを有する。
二値化部15aは、候補画像を二値化する。論理演算部15bは、二値画像とマスクとの論理積を計算する。論理積から得られた処理画像では、マスクにおいて白色で表され、且つ二値画像において白色で表されている領域のみが、白色で表される。
Specifically, the determination unit 15 includes a binarization unit 15a, a logical operation unit 15b, a matching ratio calculation unit 15c, and a comparison unit 15d.
The binarizing unit 15a binarizes the candidate image. The logical operation unit 15b calculates a logical product of the binary image and the mask. In the processed image obtained from the logical product, only the region represented by white in the mask and white in the binary image is represented by white.

適合率算出部15cは、処理画像に対する二値画像の一致率を適合率として算出する。すなわち、処理画像において白色で表された領域の面積A1(白色で表されたピクセル数)に対する、二値画像において白色で表された領域の面積A2の割合(A2/A1)が、適合率として算出される。   The matching rate calculation unit 15c calculates the matching rate of the binary image with respect to the processed image as the matching rate. That is, the ratio (A2 / A1) of the area A2 of the region represented in white in the binary image to the area A1 of the region represented in white in the processed image (the number of pixels represented in white) is defined as the matching rate. Is calculated.

比較部15dは、適合率を閾値と比較する。適合率が閾値以上の場合、読取部16に候補画像を出力する。適合率が閾値未満の場合、比較部15dは、その候補画像はセグメントディスプレイの画像では無いと判定し、例えば処理を終了する。   The comparing unit 15d compares the matching rate with a threshold. If the matching rate is equal to or larger than the threshold, the candidate image is output to the reading unit 16. When the matching rate is less than the threshold, the comparing unit 15d determines that the candidate image is not an image of the segment display, and ends, for example, the processing.

読取部16は、入力された候補画像から、セグメントディスプレイに表示された数値を読み取る。例えば、読取部16は、入力された候補画像から数字を切り出し、点灯しているセグメントを検出することで、数値を読み取る。読取部16は、例えば、読み取った数値を、モニタに表示させたり、データベースに出力したりする。   The reading unit 16 reads a numerical value displayed on the segment display from the input candidate image. For example, the reading unit 16 cuts out a number from the input candidate image and detects a lit segment to read the numerical value. The reading unit 16 displays the read numerical value on a monitor or outputs the numerical value to a database, for example.

記憶部18は、読取システム1の処理に必要な情報や、処理の過程で生成されたデータを記憶する。例えば、記憶部18には、上述したマスクの他、判定が行われる際に比較される閾値等が記憶される。   The storage unit 18 stores information necessary for processing of the reading system 1 and data generated during the processing. For example, the storage unit 18 stores a threshold value and the like to be compared when the determination is performed, in addition to the mask described above.

図2及び図3を参照して、実施形態に係る読取システム1の動作について説明する。
図2は、実施形態に係る読取システムの動作を表すフローチャートである。
図3は、実施形態に係る読取システムにおける処理を例示する図である。
The operation of the reading system 1 according to the embodiment will be described with reference to FIGS.
FIG. 2 is a flowchart illustrating the operation of the reading system according to the embodiment.
FIG. 3 is a diagram illustrating a process in the reading system according to the embodiment.

撮像部11は、セグメントディスプレイを撮影し、画像を取得する(図2のステップS11)。加工部12aは、入力画像を加工する(ステップS12a)。これにより、入力画像を縮小してグレイスケール化した加工画像と、入力画像をグレイスケール化のみした原寸画像と、が生成される。図3(a)は、加工画像の一例である。二値化部12bは、加工画像を二値化し、図3(b)に表したように、二値画像を生成する(ステップS12b)。輪郭抽出部12cは、二値画像の輪郭を抽出する(ステップS12c)。   The imaging unit 11 captures an image of the segment display and acquires an image (Step S11 in FIG. 2). The processing unit 12a processes the input image (Step S12a). As a result, a processed image in which the input image is reduced and grayscaled and an original image in which the input image is grayscaled only are generated. FIG. 3A is an example of the processed image. The binarizing unit 12b binarizes the processed image and generates a binary image as shown in FIG. 3B (Step S12b). The contour extraction unit 12c extracts the contour of the binary image (Step S12c).

第1選定部12dは、輪郭で囲まれた領域を選定する(ステップS12d)。これにより、例えば、図3(c)に表したように、枠Aで囲まれた領域が選定される。四角形抽出部12eは、選定された領域における四角形の抽出結果に基づき、原寸画像から四角形を抽出する(ステップS12e)。第2選定部12fは、抽出された四角形を選定し(ステップS12f)、候補画像として出力する。図3(d)は、候補画像として出力される四角形を表す。   The first selection unit 12d selects a region surrounded by the contour (Step S12d). As a result, for example, as shown in FIG. 3C, an area surrounded by the frame A is selected. The quadrangle extraction unit 12e extracts a quadrangle from the original image based on the extraction result of the quadrangle in the selected area (Step S12e). The second selection unit 12f selects the extracted rectangle (Step S12f) and outputs it as a candidate image. FIG. 3D illustrates a rectangle output as a candidate image.

変換部13は、図3(e)に表したように、歪み及び大きさを補正するよう候補画像を変換する。変換部13は、例えば、候補画像を射影変換することで、歪み及びサイズを補正する(ステップS13)。図3(h)は、マスクの例を表す。切出部14は、マスクのサイズに合わせて候補画像の一部を切り出す(ステップS14)。これにより、図3(f)に表した画像が得られる。   The conversion unit 13 converts the candidate image so as to correct the distortion and the size, as illustrated in FIG. The conversion unit 13 corrects the distortion and the size by, for example, projectively converting the candidate image (Step S13). FIG. 3H shows an example of a mask. The extraction unit 14 extracts a part of the candidate image according to the size of the mask (Step S14). As a result, an image shown in FIG.

二値化部15aは、図3(g)に表したように、切り出された候補画像を二値化する(ステップS15a)。論理演算部15bは、二値画像とマスクの論理積を計算する(ステップS15b)。これにより、図3(i)に表した画像が得られる。適合率算出部15cは、図3(g)と図3(i)の画像を用いて、適合率を算出する(ステップS15c)。比較部15dは、適合率を予め設定された閾値と比較する(ステップS15d)。適合率が閾値以上の場合、読取部16は、その候補画像から、セグメントディスプレイの数値を読み取る(ステップS16)。   The binarization unit 15a binarizes the extracted candidate image as illustrated in FIG. 3G (Step S15a). The logical operation unit 15b calculates the logical product of the binary image and the mask (Step S15b). Thereby, the image shown in FIG. 3 (i) is obtained. The matching rate calculation unit 15c calculates the matching rate using the images of FIGS. 3G and 3I (step S15c). The comparing unit 15d compares the matching rate with a preset threshold value (Step S15d). When the matching rate is equal to or larger than the threshold, the reading unit 16 reads the numerical value of the segment display from the candidate image (Step S16).

判定部15は、ステップS15a〜S15dが未だ行われていない、他の候補画像が無いか判定する(ステップS17)。他の候補画像がある場合、その候補画像について、ステップS15aが行われる。他の候補画像がない場合、処理を終了する。   The determination unit 15 determines whether there is any other candidate image for which steps S15a to S15d have not been performed yet (step S17). If there is another candidate image, step S15a is performed on that candidate image. If there is no other candidate image, the process ends.

実施形態の効果を説明する。
セグメントディスプレイを読み取る際には、上述したように、入力画像の中から、セグメントディスプレイが撮影された部分の候補となる候補画像が抽出される。従来は、例えば、抽出された候補画像に対して歪みなどの補正を適宜行い、候補画像からセグメントディスプレイの数値を読み取っていた。
しかし、候補画像には例えば、セグメントディスプレイに似た表示器が含まれる場合がある。この場合、別の表示器の数値をセグメントディスプレイの数値として読み取ってしまい、誤検出が生じる可能性がある。
Effects of the embodiment will be described.
When reading the segment display, as described above, a candidate image that is a candidate for a portion where the segment display has been captured is extracted from the input image. Conventionally, for example, a correction such as distortion is appropriately performed on an extracted candidate image, and a numerical value of a segment display is read from the candidate image.
However, the candidate image may include , for example, a display similar to a segment display. In this case, the numerical value of another display is read as the numerical value of the segment display, and there is a possibility that erroneous detection may occur.

実施形態に係る読取システム1は、このような誤検出を抑制するために、判定部15を備える。判定部15は、候補画像と予め設定されたマスクとを用いて、候補画像にセグメントディスプレイが含まれる確度を示す適合率を算出する。そして、判定部15は、この適合率が予め設定された閾値以上である場合に、候補画像をセグメントディスプレイの画像であると判定する。   The reading system 1 according to the embodiment includes the determination unit 15 in order to suppress such erroneous detection. Using the candidate image and a preset mask, the determination unit 15 calculates a precision that indicates the accuracy of the candidate image including the segment display. Then, the determination unit 15 determines that the candidate image is an image of the segment display when the matching rate is equal to or greater than a preset threshold.

このような判定が行われることで、セグメントディスプレイである可能性がより高い候補画像に対してのみ読み取りを行うことができる。特に本実施形態では、読み取り対象のセグメントディスプレイに対応するマスクを予め用意しておき、このマスクを用いて候補画像の絞り込みを行う。このため、セグメントディスプレイに似た表示器や、別のセグメントディスプレイが入力画像に含まれる場合でも、読み取り対象のセグメントディスプレイのみをより精度良く選定でき、誤検出の可能性を大きく低減できる。   By performing such a determination, it is possible to read only a candidate image that is more likely to be a segment display. In particular, in the present embodiment, a mask corresponding to the segment display to be read is prepared in advance, and the candidate images are narrowed down using the mask. For this reason, even if a display similar to a segment display or another segment display is included in the input image, only the segment display to be read can be selected with higher accuracy, and the possibility of erroneous detection can be greatly reduced.

なお、図1に表した例では、実施形態に係る読取システム1が撮像部11を備えているが、読取システム1は撮像部11を備えていなくても良い。例えば、他の撮像装置で撮影された画像が読取システム1へ入力され、その入力画像から読取システム1によってセグメントディスプレイの数値が読み取られても良い。   In the example illustrated in FIG. 1, the reading system 1 according to the embodiment includes the imaging unit 11, but the reading system 1 may not include the imaging unit 11. For example, an image captured by another imaging device may be input to the reading system 1, and the reading system 1 may read a numerical value on the segment display from the input image.

また、読取システム1は、変換部13及び切出部14を備えていなくても良いが、読取の精度を向上させるためには、これらの構成を備えていることが望ましい。
例えば、変換部13により候補画像の歪みが補正されることで、適合率の精度を向上させることができる。これにより、セグメントディスプレイが撮影された候補画像をより正確に選別できるようになる。
切出部14により、マスクを用いて候補画像の一部が切り出されることで、読み取り対象以外の被写体を候補画像から除外できる。これにより、適合率の精度を向上させることができる。
In addition, the reading system 1 may not include the conversion unit 13 and the cutout unit 14. However, it is preferable that the reading system 1 include these components in order to improve reading accuracy.
For example, the distortion of the candidate image is corrected by the conversion unit 13, so that the accuracy of the matching rate can be improved. This allows the segment display to more accurately select the captured candidate images.
By cutting out a part of the candidate image by using the mask by the cutout unit 14, a subject other than the reading target can be excluded from the candidate image. Thereby, the accuracy of the precision can be improved.

なお、上述した説明では、変換部13は、第1処理において、候補画像が歪んでいると判定された場合に、候補画像の歪みを補正していた。この方法に代えて、変換部13は、第1処理において、候補画像が歪んでいると判定された場合に、候補画像の歪みに合わせて、マスクを歪ませても良い。この場合も、その後の判定部15による処理において、適合率の精度を向上させることができる。   In the above description, the conversion unit 13 corrects the distortion of the candidate image when it is determined in the first processing that the candidate image is distorted. Instead of this method, when it is determined in the first processing that the candidate image is distorted, the conversion unit 13 may distort the mask in accordance with the distortion of the candidate image. Also in this case, the accuracy of the matching rate can be improved in the subsequent processing by the determination unit 15.

また、図3では、7セグメントディスプレイに対応したマスクを用いて、7セグメントディスプレイに表示された数値を読み取る例を示した。しかし、実施形態に係る読取システム1で読み取り可能なセグメントディスプレイは、7セグメントディスプレイに限定されない。読み取り対象のセグメントディスプレイは、14セグメントディスプレイまたは16セグメントディスプレイであっても良い。   FIG. 3 shows an example in which a numerical value displayed on the 7-segment display is read using a mask corresponding to the 7-segment display. However, the segment display that can be read by the reading system 1 according to the embodiment is not limited to the seven-segment display. The segment display to be read may be a 14-segment display or a 16-segment display.

マスクとしては、複数のセグメントの少なくとも一部が点灯した、セグメントディスプレイの画像が用いられる。より望ましくは、全てのセグメントが点灯したセグメントディスプレイの二値画像がマスクとして用いられる。このようにすることで、読み取り対象のセグメントディスプレイの表示情報によらず、より精度良く、セグメントディスプレイが撮影された候補画像を選定できるようにしている。   As a mask, an image of a segment display in which at least a part of a plurality of segments is turned on is used. More preferably, a binary image of a segment display in which all segments are turned on is used as a mask. By doing so, it is possible to more accurately select a candidate image captured by the segment display regardless of the display information of the segment display to be read.

なお、マスクとして、全てのセグメントが点灯した二値画像を用いる場合、セグメントが増えるほど、マスクにおける白色領域の面積が増加する。例えば、候補画像にノイズが多く含まれ、ノイズによる白色領域が多い場合は、候補画像がセグメントディスプレイを含まないにも拘わらず、候補画像とマスクとの適合率が高くなる可能性がある。このため、適合率と比較する閾値は、読み取るセグメントディスプレイにおけるセグメント数に応じて調整されることが望ましい。   When a binary image in which all segments are turned on is used as a mask, the area of a white region in the mask increases as the number of segments increases. For example, if the candidate image contains a lot of noise and there are many white areas due to the noise, the matching rate between the candidate image and the mask may increase even though the candidate image does not contain a segment display. For this reason, it is desirable that the threshold value to be compared with the precision is adjusted according to the number of segments in the segment display to be read.

例えば、7セグメントディスプレイの数値を読み取る場合、閾値を0.6以上とすることで、7セグメントディスプレイが写された候補画像を、より精度良く選別できる。
また、閾値が高いと、候補画像に7セグメントディスプレイが写されていても、7セグメントディスプレイの画像では無いと判定される可能性が高くなる。このため、閾値は0.8以下であることが望ましい。
すなわち、7セグメントディスプレイの数値を読み取る場合、閾値を0.6以上、0.8以下とすることで、数値の読み取りの精度を向上できる。
For example, when reading the numerical value of a 7-segment display, by setting the threshold to 0.6 or more, the candidate images on which the 7-segment display is captured can be more accurately selected.
Further, when the threshold value is high, even if the seven-segment display is captured in the candidate image, the possibility that the image is not determined to be an image of the seven-segment display increases. Therefore, it is desirable that the threshold value is 0.8 or less.
That is, when reading the numerical value of the 7-segment display, the accuracy of reading the numerical value can be improved by setting the threshold to 0.6 or more and 0.8 or less.

また、抽出部12における処理は、候補画像を抽出できれば、適宜変更可能である。例えば、入力画像のサイズが小さい場合、または入力画像が予め二値化されている場合などは、加工部12aまたは二値化部12bは不要である。また、入力画像から候補画像を抽出するための処理も適宜変更可能である。これらの変形例について、以下で説明する。   Further, the processing in the extraction unit 12 can be appropriately changed as long as a candidate image can be extracted. For example, when the size of the input image is small, or when the input image is binarized in advance, the processing unit 12a or the binarization unit 12b is unnecessary. Further, the processing for extracting the candidate image from the input image can be changed as appropriate. These modifications will be described below.

(第1変形例)
図4は、実施形態の第1変形例に係る読取システムの構成を表すブロック図である。
図1〜図3の例では、セグメントディスプレイの表示領域の枠が四角形であった。そのため、当該表示領域の形状に合わせて、抽出部12には、四角形抽出部12eが設けられていた。
(First Modification)
FIG. 4 is a block diagram illustrating a configuration of a reading system according to a first modification of the embodiment.
In the examples of FIGS. 1 to 3, the frame of the display area of the segment display is rectangular. Therefore, the extraction unit 12 is provided with a square extraction unit 12e according to the shape of the display area.

表示領域の枠が円形の場合には、図4に表した読取システム2のように、抽出部12において、四角形抽出部12eに代えて、楕円抽出部12gが設けられる。楕円抽出部12gは、第1選定部12dによって選定された領域から楕円を抽出する。このとき、楕円抽出部12gは、抽出された楕円の座標を取得する。楕円抽出部12gは、原寸画像において、上記座標に対応する楕円の画像を抽出し、第2選定部12fに出力する。   When the frame of the display area is circular, the extraction unit 12 is provided with an ellipse extraction unit 12g instead of the square extraction unit 12e, as in the reading system 2 shown in FIG. The ellipse extraction unit 12g extracts an ellipse from the area selected by the first selection unit 12d. At this time, the ellipse extraction unit 12g acquires the coordinates of the extracted ellipse. The ellipse extraction unit 12g extracts an ellipse image corresponding to the coordinates from the original image and outputs the extracted image to the second selection unit 12f.

第2選定部12fは、入力された楕円の画像を予め設定された条件と比較し、条件に適合する楕円を選定する。条件としては、例えば、楕円の扁平率、輝度の分布などが用いられる。第2選定部12fは、選定された楕円の画像を候補画像として変換部13に出力する。以降の処理は、図1〜図3で説明した例と同様である。すなわち、変換部13は、候補画像の歪みを補正し、切出部14は、候補画像の一部を切り出す。そして、判定部15による判定を経て、読取部16によってセグメントディスプレイの数値が読み取られる。   The second selection unit 12f compares the input image of the ellipse with a preset condition and selects an ellipse that meets the condition. As the conditions, for example, the flatness of an ellipse, the distribution of luminance, and the like are used. The second selection unit 12f outputs the selected ellipse image to the conversion unit 13 as a candidate image. Subsequent processing is the same as in the example described with reference to FIGS. That is, the conversion unit 13 corrects the distortion of the candidate image, and the extraction unit 14 extracts a part of the candidate image. After the determination by the determination unit 15, the reading unit 16 reads the numerical value of the segment display.

なお、一般的に、セグメントディスプレイの数値は、所定の方向に並んで配列されている。従って、セグメントディスプレイの表示領域の枠が円または楕円の場合でも、一般的に、セグメントディスプレイに表示される数値は、四角形に収まる。すなわち、表示領域の枠が円または楕円の場合でも、マスクの外形は、四角形に設定される。マスクの外形を四角形にすることで、マスクの全面積に対して数値が表示される面積の割合を高めることができる。この結果、候補画像におけるノイズ等が適合率に与える影響を低減でき、適合率の精度を向上させることができる。   Generally, the numerical values of the segment displays are arranged side by side in a predetermined direction. Therefore, even when the frame of the display area of the segment display is a circle or an ellipse, the numerical value displayed on the segment display generally fits in a square. That is, even when the frame of the display area is a circle or an ellipse, the outer shape of the mask is set to a quadrangle. By making the outer shape of the mask a quadrangle, the ratio of the area where numerical values are displayed to the entire area of the mask can be increased. As a result, it is possible to reduce the influence of noise or the like in the candidate image on the precision, and improve the precision of the precision.

(第2変形例)
図5は、実施形態の第2変形例に係る読取システムの構成を表すブロック図である。
図5に表した読取システム3は、読取システム1との比較において、抽出部12、変換部13、及び切出部14に代えて、抽出部21を備える。
(Second Modification)
FIG. 5 is a block diagram illustrating a configuration of a reading system according to a second modification of the embodiment.
The reading system 3 illustrated in FIG. 5 includes an extraction unit 21 instead of the extraction unit 12, the conversion unit 13, and the extraction unit 14 in comparison with the reading system 1.

読取システム3では、セグメントディスプレイの数値を読み取る前に、撮像部11により、読み取り対象のセグメントディスプレイのみを正面から撮影する。ここでは、セグメントディスプレイのみを正面から撮影した画像を、テンプレート画像と呼ぶ。   In the reading system 3, before reading the numerical value of the segment display, the imaging unit 11 photographs only the segment display to be read from the front. Here, an image obtained by photographing only the segment display from the front is called a template image.

抽出部21は、特徴量抽出部21a、マッチング部21b、変換部21c、及び探索部21dを有する。
特徴量抽出部21aは、入力画像の特徴量を抽出する。また、特徴量抽出部21aは、記憶部18に記憶されたテンプレート画像を参照し、テンプレート画像の特徴量を抽出する。あるいは、予め、特徴量抽出部21aによって、テンプレート画像の特徴量が抽出されて記憶部18に記憶されていても良い。この場合、特徴量抽出部21aは、記憶部18に記憶されたテンプレート画像の特徴量を参照する。特徴量抽出部21aは、入力画像の特徴量及びテンプレート画像の特徴量を、マッチング部21bに出力する。
The extraction unit 21 includes a feature amount extraction unit 21a, a matching unit 21b, a conversion unit 21c, and a search unit 21d.
The feature amount extraction unit 21a extracts a feature amount of the input image. Further, the feature amount extraction unit 21a refers to the template image stored in the storage unit 18 and extracts the feature amount of the template image. Alternatively, the feature amount of the template image may be extracted and stored in the storage unit 18 in advance by the feature amount extracting unit 21a. In this case, the feature amount extraction unit 21a refers to the feature amount of the template image stored in the storage unit 18. The feature amount extraction unit 21a outputs the feature amount of the input image and the feature amount of the template image to the matching unit 21b.

マッチング部21bは、入力画像の特徴量を、テンプレート画像の特徴量とマッチングさせるために必要な、入力画像の補正量を算出する。例えば、マッチング部21bは、入力画像において歪んでいるセグメントディスプレイを、正面から撮影された画像に近づけるために必要な補正量を算出する。マッチング部21bは、算出した補正量及び入力画像を、変換部13に出力する。
なお、特徴量同士をマッチング出来ない場合は、入力画像にセグメントディスプレイが含まれていない可能性が高い。従って、この場合、例えば、補正量を算出せずに処理を終了する。
The matching unit 21b calculates a correction amount of the input image necessary for matching the feature amount of the input image with the feature amount of the template image. For example, the matching unit 21b calculates a correction amount required to bring a distorted segment display in the input image closer to an image taken from the front. The matching unit 21b outputs the calculated correction amount and the input image to the conversion unit 13.
If the feature values cannot be matched, it is highly possible that the input image does not include the segment display. Therefore, in this case, for example, the process ends without calculating the correction amount.

変換部21cは、入力された補正量に基づき、入力画像を変換する。これにより、入力画像がテンプレート画像に対して歪んでいる場合には、その歪みが補正される。   The conversion unit 21c converts the input image based on the input correction amount. Thereby, when the input image is distorted with respect to the template image, the distortion is corrected.

探索部21dは、記憶部18に記憶されたテンプレート画像を参照する。そして、探索部21dは、入力画像から、テンプレート画像とマッチングする部分を探索する。探索部21dは、マッチングした部分を、候補画像として判定部15に出力する。
以降の判定部15及び読取部16における処理は、図1に表した読取システム1と同様である。
The search unit 21d refers to the template image stored in the storage unit 18. Then, the search unit 21d searches the input image for a part that matches the template image. The search unit 21d outputs the matched portion to the determination unit 15 as a candidate image.
Subsequent processes in the determination unit 15 and the reading unit 16 are the same as those in the reading system 1 shown in FIG.

なお、特徴量抽出部21aによる特徴量の抽出は、例えば、KAZE、AKAZE(Accelerated KAZE)、またはSIFT(Scale-invariant feature transform)などを用いて行われる。マッチング部21bにおけるマッチングは、例えば、KNN(K Nearest Neighbor)、またはFLANN(Fast Library for Approximate Nearest Neighbors)などを用いて行われる。探索部21dによる探索は、例えば、画像間の類似度に基づくパターンマッチングを用いて行われる。   Note that the feature amount is extracted by the feature amount extracting unit 21a using, for example, KAZE, AKAZE (Accelerated KAZE), SIFT (Scale-invariant feature transform), or the like. The matching in the matching unit 21b is performed using, for example, KNN (K Nearest Neighbor) or FLANN (Fast Library for Approximate Nearest Neighbors). The search by the search unit 21d is performed using, for example, pattern matching based on the similarity between images.

例えば、ある平面上に複数のセグメントディスプレイが設けられており、これらのセグメントディスプレイを撮影した場合、入力画像において、それらのセグメントディスプレイは同じ様に歪む。本変形例に係る読取システム3では、特徴量を用いた入力画像の変換、及びテンプレート画像を用いたマッチングが行われる。すなわち、入力画像の全領域を変換する。このため、それぞれの候補画像について歪みを補正していく必要が無く、同一平面上に複数のセグメントディスプレイが存在する場合等に、読取システム1に比べて処理を高速化できる。   For example, when a plurality of segment displays are provided on a certain plane, and these segment displays are photographed, those segment displays are similarly distorted in an input image. In the reading system 3 according to the present modification, conversion of an input image using a feature amount and matching using a template image are performed. That is, the entire area of the input image is converted. For this reason, it is not necessary to correct distortion for each candidate image, and the processing can be performed faster than in the reading system 1 when a plurality of segment displays exist on the same plane.

(第3変形例)
図6は、実施形態の第3変形例に係る読取システムの構成を表すブロック図である。
図6に表した読取システム4は、読取システム1との比較において、抽出部12、変換部13、及び切出部14に代えて抽出部31を備える。抽出部31は、学習部31a、入力部31b、検出部31c、及び処理部31dを有する。
(Third Modification)
FIG. 6 is a block diagram illustrating a configuration of a reading system according to a third modification of the embodiment.
The reading system 4 illustrated in FIG. 6 includes an extraction unit 31 instead of the extraction unit 12, the conversion unit 13, and the extraction unit 14 in comparison with the reading system 1. The extraction unit 31 includes a learning unit 31a, an input unit 31b, a detection unit 31c, and a processing unit 31d.

読取システム4では、ニューラルネットワークを用いて、入力画像からセグメントディスプレイが撮影された候補画像が抽出される。例えば、抽出部31には、事前に、教師データが入力され、ニューラルネットワークの学習が行われる。教師データは、例えば、セグメントディスプレイを含む歪んだ画像と、その画像においてセグメントディスプレイの位置を示すデータと、その画像の歪み量と、を含む。   In the reading system 4, a candidate image obtained by capturing a segment display is extracted from the input image using a neural network. For example, teacher data is input to the extraction unit 31 in advance, and learning of the neural network is performed. The teacher data includes, for example, a distorted image including the segment display, data indicating the position of the segment display in the image, and the distortion amount of the image.

学習部31aは、画像データが入力された際に、セグメントディスプレイが撮影された部分のデータに対してニューロンが反応(発火)し、且つ、その画像の歪み量に対応するニューロンが反応するよう、ニューラルネットワークを学習させる。学習部31aは、学習させたニューラルネットワークを記憶部18に記憶する。なお、学習部31aによる上記学習は、判定部15や読取部16による処理が実行される処理装置で行われても良いし、これとは異なる別の処理装置を用いて行われても良い。上記学習には、好ましくは、より高速な演算性能を有する処理装置が用いられる。   When the image data is input, the learning unit 31a responds (fires) to the data of the portion where the segment display is photographed, and responds to the neuron corresponding to the distortion amount of the image. Train a neural network. The learning unit 31a stores the learned neural network in the storage unit 18. Note that the learning by the learning unit 31a may be performed by a processing device in which the processing by the determination unit 15 or the reading unit 16 is performed, or may be performed by using another processing device different from this. For the learning, a processing device having a higher calculation performance is preferably used.

その後、撮像部11により、セグメントディスプレイの数値を読み取るために画像が取得され、画像が抽出部31に入力される。画像が入力されると、入力部31bは、記憶部18に記憶された学習済みのニューラルネットワークを参照する。そして、入力部31bは、このニューラルネットワークに、画像のデータを入力する。   After that, an image is acquired by the imaging unit 11 to read the numerical value of the segment display, and the image is input to the extraction unit 31. When an image is input, the input unit 31b refers to the learned neural network stored in the storage unit 18. Then, the input unit 31b inputs image data to the neural network.

ニューラルネットワークに画像データが入力されている間、ニューロンの反応があると、検出部31cはその反応を検出する。そして、検出部31cは、ニューロンが反応した画像の座標及び歪み量を検出し、処理部31dに出力する。   If there is a response of the neuron while the image data is being input to the neural network, the detection unit 31c detects the response. Then, the detecting unit 31c detects the coordinates and the amount of distortion of the image to which the neuron has reacted, and outputs the detected coordinates and the amount of distortion to the processing unit 31d.

処理部31dは、入力された座標に基づき、入力画像から候補画像を抽出する。また、処理部31dは、入力された歪み量に基づいて、候補画像の歪みを補正する。処理部31dは、補正された候補画像を判定部15に出力する。
なお、候補画像の抽出と、歪みの補正と、が行われる順序は、適宜変更できる。例えば、処理部31dにおいて、入力画像の歪みが補正された後に、候補画像が抽出されても良い。
以降の判定部15及び読取部16における処理は、図1に表した読取システム1と同様である。
The processing unit 31d extracts a candidate image from the input image based on the input coordinates. Further, the processing unit 31d corrects the distortion of the candidate image based on the input distortion amount. The processing unit 31d outputs the corrected candidate image to the determination unit 15.
Note that the order in which the candidate images are extracted and the distortion is corrected can be changed as appropriate. For example, the candidate image may be extracted after the distortion of the input image is corrected in the processing unit 31d.
Subsequent processes in the determination unit 15 and the reading unit 16 are the same as those in the reading system 1 shown in FIG.

本変形例に係る読取システム3では、ニューラルネットワークを用いて画像の切り出しや補正を行う。このため、セグメントディスプレイの表示領域とその外枠とのコントラスト比が大きくなく、2値化画像から輪郭を抽出しにくい場合にも、より高精度に候補画像を抽出できる。従って、読取システム1に比べて、入力画像中のセグメントディスプレイの数値を、より高精度に読み取ることが可能となる。   In the reading system 3 according to this modification, an image is cut out or corrected using a neural network. Therefore, even when the contrast ratio between the display area of the segment display and the outer frame is not large and it is difficult to extract the outline from the binarized image, the candidate image can be extracted with higher accuracy. Therefore, the numerical value of the segment display in the input image can be read with higher accuracy than the reading system 1.

図7は、実施形態に係る読取システムを実現するためのハードウェア構成を表すブロック図である。
例えば、実施形態に係る読取システムは、図7に表した読取装置5及び撮像装置6から構成される。読取装置5は、例えばコンピュータであり、ROM(Read Only Memory)51、RAM(Random Access Memory)52、CPU(Central Processing Unit)53、およびHDD(Hard Disk Drive)54を有する。
FIG. 7 is a block diagram illustrating a hardware configuration for realizing the reading system according to the embodiment.
For example, the reading system according to the embodiment includes the reading device 5 and the imaging device 6 illustrated in FIG. The reading device 5 is, for example, a computer, and includes a ROM (Read Only Memory) 51, a RAM (Random Access Memory) 52, a CPU (Central Processing Unit) 53, and an HDD (Hard Disk Drive) 54.

ROM51は、コンピュータの動作を制御するプログラムを格納している。ROM51には、コンピュータを、上述した実施形態における、抽出部、変換部、切出部、判定部、読取部、探索部などとして機能させるために必要なプログラムが格納されている。   The ROM 51 stores a program for controlling the operation of the computer. The ROM 51 stores programs necessary for causing the computer to function as the extraction unit, the conversion unit, the extraction unit, the determination unit, the reading unit, the search unit, and the like in the above-described embodiment.

RAM52は、ROM51に格納されたプログラムが展開される記憶領域として機能する。CPU53は、ROM51に格納された制御プログラムを読み込み、当該制御プログラムに従ってコンピュータの動作を制御する。また、CPU53は、コンピュータの動作によって得られた様々なデータをRAM52に展開する。HDD54は、上述した実施形態における記憶部18として機能し、読み取りに必要な情報や、読み取りの過程で得られた情報を記憶する。   The RAM 52 functions as a storage area in which programs stored in the ROM 51 are expanded. The CPU 53 reads the control program stored in the ROM 51, and controls the operation of the computer according to the control program. Further, the CPU 53 loads various data obtained by the operation of the computer into the RAM 52. The HDD 54 functions as the storage unit 18 in the above-described embodiment, and stores information necessary for reading and information obtained during the reading process.

読取装置5を用いて、ニューラルネットワークを利用した処理システム4を実現させる場合、読取装置5は、さらに、GPU(Graphics Processing Unit)や、ニューラルネットワークの処理に特化した専用チップを有していても良い。また、読取装置5は、HDD54に代えて、eMMC(embedded Multi Media Card)、SSD(Solid State Drive)、SSHD(Solid State Hybrid Drive)などを有していても良い。   When the processing system 4 using a neural network is realized by using the reading device 5, the reading device 5 further includes a GPU (Graphics Processing Unit) and a dedicated chip specialized in processing of the neural network. Is also good. Further, the reading device 5 may include an embedded Multi Media Card (eMMC), a solid state drive (SSD), a solid state hybrid drive (SSHD), or the like, instead of the HDD 54.

撮像装置6は、被写体(セグメントディスプレイ)を撮影し、取得した画像を読取装置5へ送信する。撮像装置6は、例えば、カメラである。
出力装置7は、読取装置5から出力されたデータ(読み取られたセグメントディスプレイの数値)を、ユーザが認識できるように出力する。出力装置7は、例えば、モニタ、プリンタ、またはスピーカなどである。
The imaging device 6 photographs a subject (segment display) and transmits the acquired image to the reading device 5. The imaging device 6 is, for example, a camera.
The output device 7 outputs the data (the read numerical value of the segment display) output from the reading device 5 so that the user can recognize the data. The output device 7 is, for example, a monitor, a printer, a speaker, or the like.

読取装置5、撮像装置6、及び出力装置7は、例えば、有線又は無線で相互に接続される。または、これらはネットワークを介して相互に接続されていても良い。あるいは、読取装置5、撮像装置6、及び出力装置7の少なくとも2つが、1つの装置に組み込まれていても良い。例えば、読取装置5が、撮像装置6の画像処理部などと一体に組み込まれていても良い。   The reading device 5, the imaging device 6, and the output device 7 are interconnected, for example, by wire or wirelessly. Alternatively, they may be mutually connected via a network. Alternatively, at least two of the reading device 5, the imaging device 6, and the output device 7 may be incorporated in one device. For example, the reading device 5 may be integrated with an image processing unit of the imaging device 6 or the like.

以上で説明した実施形態に係る読取システム及び読取方法を用いることで、セグメントディスプレイに表示された数値を、より高精度に読み取ることが可能となる。同様に、コンピュータを、読取システムとして動作させるためのプログラムを用いることで、セグメントディスプレイに表示された数値を、より高精度にコンピュータに読み取らせることが可能となる。   By using the reading system and the reading method according to the embodiment described above, it is possible to read the numerical value displayed on the segment display with higher accuracy. Similarly, by using a program for causing a computer to operate as a reading system, it becomes possible for a computer to read a numerical value displayed on a segment display with higher accuracy.

以上、本発明のいくつかの実施形態を例示したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更などを行うことができる。これら実施形態やその変形例は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。また、前述の各実施形態は、相互に組み合わせて実施することができる。   While some embodiments of the present invention have been described above, these embodiments have been presented by way of example only, and are not intended to limit the scope of the inventions. These new embodiments can be implemented in other various forms, and various omissions, replacements, changes, and the like can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and their equivalents. The above-described embodiments can be implemented in combination with each other.

1〜4 読取システム、 5 読取装置、 6 撮像装置、 7 出力装置、 11 撮像部、 12、21、31 抽出部、 13 変換部、 14 切出部、 15 判定部、 16 読取部、 18 記憶部   1-4 reading system, 5 reading device, 6 imaging device, 7 output device, 11 imaging unit, 12, 21, 31 extraction unit, 13 conversion unit, 14 cutout unit, 15 determination unit, 16 reading unit, 18 storage unit

Claims (33)

入力画像から抽出された、セグメントディスプレイが撮影された部分の候補となる候補画像について、前記候補画像と予め設定されたマスクとを用いて、前記候補画像にセグメントディスプレイが含まれる確度を示す適合率を算出し、前記適合率が予め設定された閾値以上である場合に、前記候補画像をセグメントディスプレイの画像であると判定する判定部を備えた読取システム。 For a candidate image extracted from an input image and serving as a candidate for a portion where a segment display has been captured, a match rate indicating the likelihood that the candidate image includes the segment display using the candidate image and a preset mask. And a determination unit that determines the candidate image as an image of a segment display when the matching rate is equal to or greater than a preset threshold. 前記マスクは、全てのセグメントが点灯したセグメントディスプレイの画像である請求項1記載の読取システム。   The reading system according to claim 1, wherein the mask is an image of a segment display in which all segments are turned on. 前記候補画像が歪んでいる場合に、前記候補画像を正面から撮影された画像に近づけるよう変換する第1処理と、
前記候補画像のサイズが、予め設定された規定サイズと異なる場合に、前記候補画像の前記サイズを前記規定サイズに近づけるよう補正する第2処理と、
を行う変換部をさらに備え、
前記判定部は、変換された前記候補画像と前記マスクとを用いて前記適合率を算出する請求項1または2に記載の読取システム。
When the candidate image is distorted, a first process of converting the candidate image closer to an image taken from the front,
When the size of the candidate image is different from a preset specified size, a second process of correcting the size of the candidate image to be closer to the specified size;
Further comprising a conversion unit for performing
The reading system according to claim 1, wherein the determination unit calculates the matching rate using the converted candidate image and the mask.
前記候補画像が歪んでいる場合に、前記候補画像の歪みに合わせて前記マスクを歪ませる第1処理と、
前記候補画像のサイズが予め設定された規定サイズと異なる場合に、前記候補画像の前記サイズを前記規定サイズに近づけるよう補正する第2処理と、
を行う変換部をさらに備え、
前記判定部は、変換された前記候補画像と歪ませた前記マスクとを用いて前記適合率を算出する請求項1または2に記載の読取システム。
When the candidate image is distorted, first processing for distorting the mask in accordance with the distortion of the candidate image;
A second process for correcting the size of the candidate image to be closer to the specified size when the size of the candidate image is different from a predetermined specified size;
Further comprising a conversion unit for performing
The reading system according to claim 1, wherein the determination unit calculates the matching rate using the converted candidate image and the distorted mask.
前記マスクの大きさ及び形状に基づいて、前記候補画像の一部を切り出す切出部をさらに備え、
前記判定部は、切り出された前記候補画像を用いて前記適合率を算出する請求項1〜4のいずれか1つに記載の読取システム。
A cutout unit that cuts out a part of the candidate image based on the size and shape of the mask,
The reading system according to claim 1, wherein the determination unit calculates the matching rate using the clipped candidate images.
入力画像から前記候補画像を抽出する抽出部と、  An extraction unit that extracts the candidate image from the input image,
セグメントディスプレイの画像と判定された前記候補画像から、セグメントディスプレイに表示された文字を読み取る読取部と、  From the candidate image determined to be an image of the segment display, a reading unit that reads characters displayed on the segment display,
をさらに備えた請求項1〜5のいずれか1つに記載の読取システム。  The reading system according to claim 1, further comprising:
前記抽出部は、
前記入力画像から輪郭を抽出し、
前記輪郭で囲まれた領域の面積を算出し、
前記面積が予め設定された閾値以上の場合、前記輪郭に基づいて、前記入力画像から
所定の形状の画像を抽出し、
予め設定された条件を満たす前記抽出された画像を、前記候補画像として出力する、
請求項記載の読取システム。
The extraction unit includes:
Extracting a contour from the input image,
Calculating the area of the region surrounded by the contour,
If the area is equal to or greater than a preset threshold, based on the contour, extract an image of a predetermined shape from the input image,
Outputting the extracted image satisfying a preset condition as the candidate image,
The reading system according to claim 6 .
入力画像から前記候補画像を抽出する抽出部と、
セグメントディスプレイの画像と判定された前記候補画像から、セグメントディスプレイに表示された文字を読み取る読取部と、
をさらに備え、
前記抽出部は、前記入力画像から、予め用意された、読み取り対象のセグメントディス
プレイのテンプレート画像とマッチングする部分を探索し、マッチングした前記部分を候
補画像として抽出する請求項1または2に記載の読取システム。
An extraction unit that extracts the candidate image from the input image,
From the candidate image determined to be an image of the segment display, a reading unit that reads characters displayed on the segment display,
Further comprising
3. The reading device according to claim 1, wherein the extraction unit searches the input image for a portion that matches a template image of a segment display to be read, which is prepared in advance, and extracts the matched portion as a candidate image. 4. system.
前記抽出部は、
前記入力画像から特徴量を抽出し、
抽出された前記特徴量が、前記テンプレート画像の特徴量とマッチングするように、
前記入力画像を補正し、
補正された前記入力画像から、前記テンプレート画像とマッチングする前記候補画像
を抽出する、
請求項記載の読取システム。
The extraction unit includes:
Extracting a feature amount from the input image,
As the extracted feature amount matches the feature amount of the template image,
Correcting the input image,
Extracting the candidate image that matches the template image from the corrected input image,
The reading system according to claim 8 .
入力画像から前記候補画像を抽出する抽出部と、
セグメントディスプレイの画像と判定された前記候補画像から、セグメントディスプレイに表示された文字を読み取る読取部と、
をさらに備え、
前記抽出部は、
前記入力画像のデータを、予め学習されたニューラルネットワークに入力し、
前記ニューラルネットワークの出力結果に基づいて、前記入力画像においてセグメン
トディスプレイが撮影された前記部分を検出し、前記候補画像として抽出する、
請求項1または2に記載の読取システム。
An extraction unit that extracts the candidate image from the input image,
From the candidate image determined to be an image of the segment display, a reading unit that reads characters displayed on the segment display,
Further comprising
The extraction unit includes:
The data of the input image is input to a neural network learned in advance,
Based on the output result of the neural network, to detect the portion where the segment display was photographed in the input image, to extract as the candidate image,
The reading system according to claim 1.
前記抽出部は、前記ニューラルネットワークの前記出力結果に基づいて、さらに、前記
候補画像の歪みを補正する請求項10記載の読取システム。
The reading system according to claim 10 , wherein the extraction unit further corrects a distortion of the candidate image based on the output result of the neural network.
セグメントディスプレイを撮影して取得された前記入力画像を、前記抽出部へ送信する撮像部をさらに備えた請求項6〜11のいずれか1つに記載の読取システム。  The reading system according to any one of claims 6 to 11, further comprising an imaging unit configured to transmit the input image obtained by capturing an image of the segment display to the extraction unit. 前記撮像部は、セグメントディスプレイが写った動画を撮影し、前記動画から前記入力画像を切り出す請求項12記載の読取システム。  13. The reading system according to claim 12, wherein the imaging unit captures a moving image in which a segment display is captured, and cuts out the input image from the moving image. 読み取られた前記文字を出力する出力部をさらに備えた請求項6〜13のいずれか1つに記載の読取システム。  The reading system according to any one of claims 6 to 13, further comprising an output unit that outputs the read character. 前記判定部は、
前記候補画像を二値化し、
二値化された前記候補画像と前記マスクとを重ね合わせて論理積を計算し、
前記論理積から得られた画像と前記候補画像との一致率を前記適合率として算出する、
請求項1〜14のいずれか1つに記載の読取システム。
The determination unit includes:
Binarizing the candidate image,
Calculate the logical product by superimposing the binary candidate image and the mask,
Calculating the matching rate between the image obtained from the logical product and the candidate image as the matching rate,
The reading system according to any one of claims 1 to 14 .
前記マスクは、7セグメントディスプレイの二値画像であり、
前記閾値は、0.6以上に設定される請求項1〜15のいずれか1つに記載の読取システム。
The mask is a binary image of a 7 segment display,
Reading system according to the threshold value, any one of claims 1 to 15 to be set to 0.6 or more.
セグメントディスプレイを撮影し、入力画像を取得する撮像部と、  An imaging unit that captures an input image by capturing a segment display;
前記入力画像からセグメントディスプレイが撮影された部分の候補となる候補画像を抽出する抽出部と、  An extraction unit that extracts a candidate image that is a candidate for a portion where the segment display is captured from the input image,
前記候補画像と予め設定されたマスクとを用いて、前記候補画像にセグメントディスプレイが含まれる確度を示す適合率を算出し、前記適合率が予め設定された閾値以上である場合に、前記候補画像をセグメントディスプレイの画像であると判定する判定部と、  Using the candidate image and a preset mask, calculate a precision that indicates the likelihood that the candidate image includes a segment display, and when the precision is equal to or greater than a preset threshold, the candidate image A determination unit that determines that the image of the segment display
セグメントディスプレイの画像と判定された前記候補画像から、セグメントディスプレイに表示された文字を読み取る読取部と、  From the candidate image determined to be an image of the segment display, a reading unit that reads characters displayed on the segment display,
を備えた読取装置。  A reading device comprising:
前記マスクは、全てのセグメントが点灯したセグメントディスプレイの画像である請求項17記載の読取装置。  18. The reading device according to claim 17, wherein the mask is an image of a segment display in which all segments are turned on. 前記候補画像が歪んでいる場合に、前記候補画像を正面から撮影された画像に近づけるよう変換する第1処理と、    When the candidate image is distorted, a first process of converting the candidate image closer to an image taken from the front,
前記候補画像のサイズが、予め設定された規定サイズと異なる場合に、前記候補画像の前記サイズを前記規定サイズに近づけるよう補正する第2処理と、    A second process of correcting the size of the candidate image to be closer to the specified size when the size of the candidate image is different from a predetermined specified size;
を行う変換部をさらに備え、  Further comprising a conversion unit for performing
前記判定部は、変換された前記候補画像と前記マスクとを用いて前記適合率を算出する請求項17または18に記載の読取装置。  19. The reading device according to claim 17, wherein the determination unit calculates the matching rate using the converted candidate image and the mask.
前記候補画像が歪んでいる場合に、前記候補画像の歪みに合わせて前記マスクを歪ませる第1処理と、    When the candidate image is distorted, first processing for distorting the mask in accordance with the distortion of the candidate image;
前記候補画像のサイズが予め設定された規定サイズと異なる場合に、前記候補画像の前記サイズを前記規定サイズに近づけるよう補正する第2処理と、    A second process for correcting the size of the candidate image to be closer to the specified size when the size of the candidate image is different from a predetermined specified size;
を行う変換部をさらに備え、  Further comprising a conversion unit for performing
前記判定部は、変換された前記候補画像と歪ませた前記マスクとを用いて前記適合率を算出する請求項17または18に記載の読取装置。  The reading device according to claim 17, wherein the determination unit calculates the matching rate using the converted candidate image and the distorted mask.
前記マスクの大きさ及び形状に基づいて、前記候補画像の一部を切り出す切出部をさらに備え、  A cutout unit that cuts out a part of the candidate image based on the size and shape of the mask,
前記判定部は、切り出された前記候補画像を用いて前記適合率を算出する請求項17〜20のいずれか1つに記載の読取装置。  The reading device according to any one of claims 17 to 20, wherein the determination unit calculates the matching rate using the clipped candidate images.
前記判定部は、  The determination unit includes:
前記候補画像を二値化し、    Binarizing the candidate image,
二値化された前記候補画像と前記マスクとを重ね合わせて論理積を計算し、    Calculate the logical product by superimposing the binary candidate image and the mask,
前記論理積から得られた画像と前記候補画像との一致率を前記適合率として算出する、    Calculating the matching rate between the image obtained from the logical product and the candidate image as the matching rate,
請求項17〜21のいずれか1つに記載の読取装置。  A reading device according to any one of claims 17 to 21.
前記マスクは、7セグメントディスプレイの二値画像であり、  The mask is a binary image of a 7 segment display,
前記閾値は、0.6以上に設定される請求項17〜22のいずれか1つに記載の読取装置。  23. The reading device according to claim 17, wherein the threshold is set to 0.6 or more.
セグメントディスプレイに表示された前記文字は、数値を示す請求項17〜23のいずれか1つに記載の読取装置。  24. The reading device according to claim 17, wherein the character displayed on the segment display indicates a numerical value. コンピュータに、
入力画像から抽出された、セグメントディスプレイが撮影された部分の候補となる候補画像について、前記候補画像と予め設定されたマスクとを用いて、前記候補画像にセグメントディスプレイが含まれる確度を示す適合率を算出させ、前記適合率が予め設定された閾値以上である場合に、前記候補画像をセグメントディスプレイの画像であると判定させる、
プログラム。
On the computer,
For a candidate image extracted from an input image and serving as a candidate for a portion where a segment display has been captured, a match rate indicating the likelihood that the candidate image includes the segment display using the candidate image and a preset mask. is calculated, if the matching degree is preset threshold or more, Ru is determined that the image of the candidate image segment display,
program.
前記マスクは、全てのセグメントが点灯したセグメントディスプレイの画像である請求項25記載のプログラム。  26. The program according to claim 25, wherein the mask is an image of a segment display in which all segments are turned on. 前記コンピュータに、  On the computer,
前記候補画像が歪んでいる場合に、前記候補画像を正面から撮影された画像に近づけるよう変換する第1処理と、    When the candidate image is distorted, a first process of converting the candidate image closer to an image taken from the front,
前記候補画像のサイズが、予め設定された規定サイズと異なる場合に、前記候補画像の前記サイズを前記規定サイズに近づけるよう補正する第2処理と、    A second process of correcting the size of the candidate image to be closer to the specified size when the size of the candidate image is different from a predetermined specified size;
を実行させ、  And execute
前記判定において、変換された前記候補画像と前記マスクとを用いて前記適合率を算出させる、  In the determination, the matching rate is calculated using the converted candidate image and the mask,
請求項25または26に記載のプログラム。  The program according to claim 25 or 26.
前記コンピュータに、  On the computer,
前記候補画像が歪んでいる場合に、前記候補画像の歪みに合わせて前記マスクを歪ませる第1処理と、    When the candidate image is distorted, first processing for distorting the mask in accordance with the distortion of the candidate image;
前記候補画像のサイズが予め設定された規定サイズと異なる場合に、前記候補画像の前記サイズを前記規定サイズに近づけるよう補正する第2処理と、    A second process for correcting the size of the candidate image to be closer to the specified size when the size of the candidate image is different from a predetermined specified size;
を実行させ、  And execute
前記判定において、変換された前記候補画像と歪ませた前記マスクとを用いて前記適合率を算出させる、  In the determination, the conversion ratio is calculated using the converted candidate image and the distorted mask,
請求項25または26に記載のプログラム。  The program according to claim 25 or 26.
前記コンピュータに、  On the computer,
前記マスクの大きさ及び形状に基づいて、前記候補画像の一部を切り出させ、    Based on the size and shape of the mask, cut out a part of the candidate image,
前記判定において、切り出された前記候補画像を用いて前記適合率を算出させる、  In the determination, the matching rate is calculated using the extracted candidate image,
請求項25〜28のいずれか1つに記載のプログラム。  A program according to any one of claims 25 to 28.
前記コンピュータに、前記判定において、  In the computer, in the determination,
前記候補画像を二値化させ、    Binarizing the candidate image,
二値化された前記候補画像と前記マスクとを重ね合わせて論理積を計算させ、    Superimposing the binarized candidate image and the mask to calculate a logical product,
前記論理積から得られた画像と前記候補画像との一致率を前記適合率として算出させる、    The coincidence rate between the image obtained from the logical product and the candidate image is calculated as the matching rate,
請求項25〜29のいずれか1つに記載のプログラム。  A program according to any one of claims 25 to 29.
前記マスクは、7セグメントディスプレイの二値画像であり、  The mask is a binary image of a 7 segment display,
前記閾値は、0.6以上に設定される請求項25〜30のいずれか1つに記載のプログラム。  31. The program according to claim 25, wherein the threshold is set to 0.6 or more.
前記コンピュータに、セグメントディスプレイの画像と判定された前記候補画像から、セグメントディスプレイに表示された文字を読み取らせる請求項25〜31のいずれか1つに記載のプログラム。  The program according to any one of claims 25 to 31, wherein the computer causes the computer to read a character displayed on the segment display from the candidate image determined to be an image on the segment display. 請求項25〜32のいずれか1つに記載のプログラムを記憶した記憶媒体。 A storage medium storing the program according to any one of claims 25 to 32 .
JP2019108678A 2019-06-11 2019-06-11 Reading system, reading device, program, and storage medium Active JP6656453B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019108678A JP6656453B2 (en) 2019-06-11 2019-06-11 Reading system, reading device, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019108678A JP6656453B2 (en) 2019-06-11 2019-06-11 Reading system, reading device, program, and storage medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018026476A Division JP6542406B1 (en) 2018-02-16 2018-02-16 Reading system, reading method, program, and storage medium

Publications (3)

Publication Number Publication Date
JP2019145182A JP2019145182A (en) 2019-08-29
JP2019145182A5 JP2019145182A5 (en) 2019-11-07
JP6656453B2 true JP6656453B2 (en) 2020-03-04

Family

ID=67771251

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019108678A Active JP6656453B2 (en) 2019-06-11 2019-06-11 Reading system, reading device, program, and storage medium

Country Status (1)

Country Link
JP (1) JP6656453B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6868057B2 (en) 2019-05-27 2021-05-12 株式会社東芝 Reading system, reading method, program, storage medium, and mobile

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3552269B2 (en) * 1994-04-27 2004-08-11 株式会社日立製作所 License plate detection device
JPH1074240A (en) * 1996-08-30 1998-03-17 Fujitsu Ltd Character position detection method
JPH11316794A (en) * 1998-05-06 1999-11-16 Aisin Aw Seimitsu Kk Method for reading and deciding segment information
JP6260620B2 (en) * 2013-06-17 2018-01-17 富士通株式会社 Image processing apparatus, image processing method, and image processing program
JP5997808B1 (en) * 2015-06-18 2016-09-28 株式会社Pfu Image processing device, date identification device, image processing method, and program

Also Published As

Publication number Publication date
JP2019145182A (en) 2019-08-29

Similar Documents

Publication Publication Date Title
US11386640B2 (en) Reading system, reading method, and storage medium
CN112041906B (en) Reading system, reading method, program, and storage medium
US10970845B2 (en) Image processing apparatus, image processing method, and storage medium
US11900664B2 (en) Reading system, reading device, reading method, and storage medium
US20150116543A1 (en) Information processing apparatus, information processing method, and storage medium
JP6110174B2 (en) Image detection apparatus, control program, and image detection method
JP7355601B2 (en) Computing device, processing method, program, and storage medium
US10915772B2 (en) Apparatus and method for registering face pose for face recognition
JP6656453B2 (en) Reading system, reading device, program, and storage medium
US9739604B2 (en) Information processing apparatus, information processing method, and storage medium
US20220189182A1 (en) Reading system, reading device, and storage medium
US11954865B2 (en) Image processing apparatus, image processing method, and storage medium for foreground extraction
JP6684947B2 (en) Reading system, reading device, program, and storage medium
JP2019145182A5 (en) Reading system, reading device, program, and storage medium
US12080037B2 (en) Reading system, reading method, and storage medium
JP6121768B2 (en) Image detection apparatus, control program, and image detection method
US20240265729A1 (en) Information processing apparatus, information processing system, information processing method, and storage medium
CN110674863B (en) Hamming code identification method and device and electronic equipment
JP7443965B2 (en) Information processing device, correction method, program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190924

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190924

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190927

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191225

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200204

R151 Written notification of patent or utility model registration

Ref document number: 6656453

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151