JP6684947B2 - Reading system, reading device, program, and storage medium - Google Patents

Reading system, reading device, program, and storage medium Download PDF

Info

Publication number
JP6684947B2
JP6684947B2 JP2019108670A JP2019108670A JP6684947B2 JP 6684947 B2 JP6684947 B2 JP 6684947B2 JP 2019108670 A JP2019108670 A JP 2019108670A JP 2019108670 A JP2019108670 A JP 2019108670A JP 6684947 B2 JP6684947 B2 JP 6684947B2
Authority
JP
Japan
Prior art keywords
image
segment display
candidate image
unit
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019108670A
Other languages
Japanese (ja)
Other versions
JP2019145181A5 (en
JP2019145181A (en
Inventor
利和 瀧
利和 瀧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2019108670A priority Critical patent/JP6684947B2/en
Publication of JP2019145181A publication Critical patent/JP2019145181A/en
Publication of JP2019145181A5 publication Critical patent/JP2019145181A5/en
Application granted granted Critical
Publication of JP6684947B2 publication Critical patent/JP6684947B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Character Discrimination (AREA)
  • Image Analysis (AREA)
  • Character Input (AREA)

Description

本発明の実施形態は、読取システム、読取装置、プログラム、及び記憶媒体に関する。 Embodiments of the present invention relate to a reading system, a reading device , a program, and a storage medium.

セグメントディスプレイに表示された数値を読み取るシステムがある。このシステムにおいて、数値の読み取りの精度は、高いことが望ましい。   There is a system that reads the numerical value displayed on the segment display. In this system, it is desirable that the numerical reading accuracy be high.

特開2017−10170号公報JP, 2017-10170, A

本発明が解決しようとする課題は、セグメントディスプレイの数値の読み取り精度を向上できる、読取システム、読取装置、プログラム、及び記憶媒体を提供することである。 The problem to be solved by the present invention is to provide a reading system, a reading device , a program, and a storage medium that can improve the reading accuracy of numerical values of a segment display.

実施形態に係る読取システムは、判部を備える。入力画像から抽出された、セグメントディスプレイが撮影された部分の候補画像について、前記判定部は、前記候補画像から検出された複数の直線のそれぞれの基準線に対する角度を算出し、前記角度と前記直線の数との関係を示す分布に基づいて前記候補画像がセグメントディスプレイの画像であるか判定を行う Reading system according to the embodiment includes a determine constant section. Extracted from the input image, the candidate image of the part-segment display is captured, the determination unit calculates an angle with respect to respective reference lines of a plurality of straight lines are detected from the candidate images, the said angle It is determined whether the candidate image is an image on a segment display based on a distribution indicating the relationship with the number of straight lines .

実施形態に係る読取システムの構成を表すブロック図である。It is a block diagram showing the composition of the reading system concerning an embodiment. 実施形態に係る読取システムの動作を表すフローチャートである。6 is a flowchart showing the operation of the reading system according to the embodiment. 実施形態に係る読取システムにおける処理を例示する図である。It is a figure which illustrates the process in the reading system which concerns on embodiment. 実施形態の第1変形例に係る読取システムの構成を表すブロック図である。It is a block diagram showing the composition of the reading system concerning the 1st modification of an embodiment. 実施形態の第2変形例に係る読取システムの構成を表すブロック図である。It is a block diagram showing the composition of the reading system concerning the 2nd modification of an embodiment. 実施形態の第3変形例に係る読取システムの構成を表すブロック図である。It is a block diagram showing the composition of the reading system concerning the 3rd modification of an embodiment. 実施形態に係る読取システムを実現するためのハードウェア構成を表すブロック図である。It is a block diagram showing the hardware constitutions for realizing the reading system concerning an embodiment.

以下に、本発明の各実施形態について図面を参照しつつ説明する。
また、本願明細書と各図において、既に説明したものと同様の要素には同一の符号を付して詳細な説明は適宜省略する。
Each embodiment of the present invention will be described below with reference to the drawings.
In the specification and the drawings of the application, components similar to those described above are designated by like reference numerals, and a detailed description is omitted as appropriate.

図1は、実施形態に係る読取システムの構成を表すブロック図である。
実施形態に係る読取システムは、セグメントディスプレイを含む画像から、セグメントディスプレイに表示された数値を読み取るために用いられる。
本実施形態において、セグメントディスプレイとは、複数のセグメントの表示によって構成される数字や文字等の何らかの表示情報を含むものを表す。
FIG. 1 is a block diagram showing the configuration of the reading system according to the embodiment.
The reading system according to the embodiment is used to read a numerical value displayed on a segment display from an image including the segment display.
In the present embodiment, the segment display refers to a display including some display information such as numbers and characters configured by displaying a plurality of segments.

図1に表したように、実施形態に係る読取システム1は、撮像部11、抽出部12、変換部13、判定部15、読取部16、及び記憶部18を備える。   As illustrated in FIG. 1, the reading system 1 according to the embodiment includes an imaging unit 11, an extraction unit 12, a conversion unit 13, a determination unit 15, a reading unit 16, and a storage unit 18.

撮像部11は、セグメントディスプレイを撮影し、静止した画像を取得する。撮像部11は、取得した画像を抽出部12に出力する。撮像部11により動画が撮影される場合は、その動画から静止画像を切り出して抽出部12に出力する。撮影される画像には、セグメントディスプレイ以外のものが写っていても良い。   The image capturing unit 11 captures a still image by capturing an image of the segment display. The imaging unit 11 outputs the acquired image to the extraction unit 12. When a moving image is captured by the image capturing unit 11, a still image is cut out from the moving image and output to the extraction unit 12. The captured image may include something other than the segment display.

抽出部12は、入力された画像から、セグメントディスプレイの画像の候補を抽出する。ここでは、撮像部11によって撮影され、抽出部12に入力される画像を、入力画像と呼ぶ。入力画像の一部であって、セグメントディスプレイの候補となる画像を、候補画像と呼ぶ。候補画像は、セグメントディスプレイが撮影されていると抽出部12によって判定された、入力画像の一部である。抽出部12から出力される候補画像は複数であっても良い。   The extraction unit 12 extracts a candidate for an image on the segment display from the input image. Here, the image captured by the imaging unit 11 and input to the extraction unit 12 is referred to as an input image. An image that is a part of the input image and is a candidate for the segment display is called a candidate image. The candidate image is a part of the input image determined by the extraction unit 12 as the segment display being photographed. There may be a plurality of candidate images output from the extraction unit 12.

具体的な一例として、抽出部12は、加工部12a、二値化部12b、輪郭抽出部12c、第1選定部12d、四角形抽出部12e、第2選定部12fを有する。   As a specific example, the extraction unit 12 includes a processing unit 12a, a binarization unit 12b, a contour extraction unit 12c, a first selection unit 12d, a quadrangle extraction unit 12e, and a second selection unit 12f.

加工部12aは、例えば、入力画像を、グレイスケールに変換した加工画像を生成する。加工部12aは、加工画像を二値化部12bに出力する。この際に、加工部12aは、例えば、入力画像を予め設定されたサイズに縮小した加工画像を、二値化部12bに出力してもよい。その際、加工部12aは、縮小されていない原寸画像を記憶部18に記憶する。   The processing unit 12a generates a processed image by converting the input image into a gray scale, for example. The processing unit 12a outputs the processed image to the binarization unit 12b. At this time, the processing unit 12a may output, for example, a processed image obtained by reducing the input image to a preset size to the binarization unit 12b. At that time, the processing unit 12 a stores the non-reduced full-size image in the storage unit 18.

二値化部12bは、入力された加工画像を二値化し、白色と黒色で表される二値画像を生成する。輪郭抽出部12cは、二値画像において、例えば白色で表されている領域の輪郭を抽出する。   The binarizing unit 12b binarizes the input processed image to generate a binary image represented by white and black. The contour extraction unit 12c extracts the contour of a region represented by, for example, white in the binary image.

第1選定部12dは、輪郭で囲まれた領域の面積を算出する。複数の輪郭が抽出された場合は、それぞれの領域の面積を算出する。第1選定部12dは、算出された各面積と所定の閾値とを比較し、面積が閾値以上の領域のみを選定する。これにより、面積が小さすぎる領域が候補から除外される。   The first selection unit 12d calculates the area of the region surrounded by the contour. When a plurality of contours are extracted, the area of each region is calculated. The first selection unit 12d compares each calculated area with a predetermined threshold value and selects only a region having an area equal to or larger than the threshold value. As a result, a region having an excessively small area is excluded from the candidates.

四角形抽出部12eは、選定された領域を直線近似し、四角形を抽出する。例えば、四角形抽出部12eは、抽出された四角形の頂点の座標を取得する。   The quadrangle extraction unit 12e linearly approximates the selected area and extracts a quadrangle. For example, the quadrangle extraction unit 12e acquires the coordinates of the vertices of the extracted quadrangle.

第2選定部12fは、抽出された四角形の領域を予め設定された条件と比較し、条件に適合する領域を選定する。条件としては、例えば、四角形の縦寸法と横寸法の比率が所定範囲内にあること、頂点の角度が所定範囲内にあること、四角形のいずれかの頂点も画像の外枠近傍(例えば、外枠から3ピクセル以内)にないこと、などが用いられる。第2選定部12fは、選定された四角形を、最終的な候補画像として、変換部13に出力する。   The second selection unit 12f compares the extracted quadrangular area with preset conditions and selects an area that meets the conditions. The conditions are, for example, that the ratio of the vertical dimension to the horizontal dimension of the quadrangle is within a predetermined range, the angle of the apex is within a predetermined range, and any of the vertices of the quadrangle is near the outer frame of the image ( It is not within 3 pixels from the frame). The second selection unit 12f outputs the selected quadrangle to the conversion unit 13 as a final candidate image.

変換部13は、以下の第1処理及び第2処理を行う。
第1処理において、変換部13は、抽出部12から入力された候補画像が歪んでいないか判定する。候補画像が歪んでいると判定された場合、変換部13は、候補画像が正面から撮影された画像に近づくように、その歪みを補正する。
第2処理において、変換部13は、候補画像のサイズが、予め設定された規定サイズと一致するか判定する。候補画像のサイズが規定サイズと一致しない場合、変換部13は、候補画像のサイズが規定サイズに近づくように、候補画像を補正する。
変換部13は、例えば、候補画像を射影変換することで、歪み及びサイズを補正する。変換部13は、補正した候補画像を判定部15に出力する。候補画像が歪んでおらず、候補画像のサイズが規定サイズに一致すると判定された場合、変換部13は、入力された候補画像をそのまま判定部15に出力する。
The conversion unit 13 performs the following first processing and second processing.
In the first process, the conversion unit 13 determines whether the candidate image input from the extraction unit 12 is distorted. When it is determined that the candidate image is distorted, the conversion unit 13 corrects the distortion so that the candidate image approaches the image captured from the front.
In the second process, the conversion unit 13 determines whether the size of the candidate image matches a preset specified size. When the size of the candidate image does not match the specified size, the conversion unit 13 corrects the candidate image so that the size of the candidate image approaches the specified size.
The conversion unit 13 corrects the distortion and the size by, for example, projectively converting the candidate image. The conversion unit 13 outputs the corrected candidate image to the determination unit 15. When it is determined that the candidate image is not distorted and the size of the candidate image matches the specified size, the conversion unit 13 outputs the input candidate image as it is to the determination unit 15.

判定部15は、直線検出部15a、角度算出部15b、分布生成部15c、第1比較部15d、端点群検出部15e、評価部15f、及び第2比較部15gを有する。   The determination unit 15 includes a straight line detection unit 15a, an angle calculation unit 15b, a distribution generation unit 15c, a first comparison unit 15d, an end point group detection unit 15e, an evaluation unit 15f, and a second comparison unit 15g.

直線検出部15aは、エッジ検出を行った画像に含まれる複数の直線を検出する。例えば、直線の検出では、線分の始点と終点が検出される。直線検出部15aは、検出結果を、角度算出部15bに出力し、且つ記憶部18に記憶する。直線検出部15は、所定の長さ以上の線分を所定の角度分解能にて検出する。 The straight line detection unit 15a detects a plurality of straight lines included in the image subjected to the edge detection. For example, in the detection of a straight line, the start point and the end point of the line segment are detected. The straight line detection unit 15a outputs the detection result to the angle calculation unit 15b and stores it in the storage unit 18. Line detection unit 15 a detects a predetermined length or more line segments at a predetermined angular resolution.

角度算出部15bは、それぞれの直線の基準線に対する角度を算出する。角度算出部15bは、例えば、画像底辺(真横に延びる直線)を基準線とし、この基準線とそれぞれの直線との間の角度を算出する。分布生成部15cは、算出結果に基づいて、角度と直線の数との関係を示す分布を生成する。   The angle calculator 15b calculates the angle of each straight line with respect to the reference line. The angle calculation unit 15b uses, for example, the image base (a straight line extending horizontally) as a reference line, and calculates an angle between the reference line and each straight line. The distribution generation unit 15c generates a distribution indicating the relationship between the angle and the number of straight lines based on the calculation result.

第1比較部15dは、生成された分布と、予め設定された第1条件と、を比較する。第1条件は、例えば、生成された分布において、第1角度近傍における直線の総数と、第1角度に対して傾斜した第2角度近傍における直線の総数と、の和が、予め設定された値以上となっていることである。
例えば、第1角度は0度であり、第2角度は80度である。「近傍」は、例えば、第1角度または第2角度を中心として、−10度以上+10度以下の範囲を含む。この場合、第1比較部15dは、分布において、−10度以上10度以下の範囲に含まれる直線の総数と、70度以上90度以下の範囲に含まれる直線の総数と、の和を、予め設定された値と比較する。
The first comparison unit 15d compares the generated distribution with a preset first condition. The first condition is, for example, that the sum of the total number of straight lines near the first angle and the total number of straight lines near the second angle inclined with respect to the first angle in the generated distribution is a preset value. That is all.
For example, the first angle is 0 degrees and the second angle is 80 degrees. The “vicinity” includes, for example, a range of −10 degrees or more and +10 degrees or less centered on the first angle or the second angle. In this case, the first comparison unit 15d calculates the sum of the total number of straight lines included in the range of −10 degrees to 10 degrees and the total number of straight lines included in the range of 70 degrees to 90 degrees in the distribution, Compare with a preset value.

例えば、画像において、横方向に平行な線の角度を0度、縦方向に平行な線の角度を90度とする。読み取り対象のセグメントディスプレイが、7セグメントディスプレイである場合、約0度の直線と約80度の直線が多く検出される。読み取り対象のセグメントディスプレイが、14セグメントディスプレイまたは16セグメントディスプレイである場合、約0度の直線、約45度の直線、及び約80度の直線が多く検出される。
第1条件は、この特性に基づいて設定される。分布が第1条件を満たす場合、候補画像はセグメントディスプレイを含む可能性が高い。
For example, in an image, the angle of a line parallel to the horizontal direction is 0 degree, and the angle of a line parallel to the vertical direction is 90 degrees. When the segment display to be read is a 7-segment display, many straight lines of about 0 degrees and about 80 degrees are detected. When the segment display to be read is a 14-segment display or a 16-segment display, a straight line of about 0 degrees, a straight line of about 45 degrees, and a straight line of about 80 degrees are often detected.
The first condition is set based on this characteristic. If the distribution satisfies the first condition, the candidate image is likely to include a segmented display.

第1比較部15dは、分布が第1条件を満たす場合、その判定結果を端点群検出部15eに出力する。分布が第1条件を満たさない場合は、候補画像がセグメントディスプレイを含まない可能性が高いため、例えば処理を終了する。   When the distribution satisfies the first condition, the first comparison unit 15d outputs the determination result to the endpoint group detection unit 15e. When the distribution does not satisfy the first condition, there is a high possibility that the candidate image does not include the segment display, and thus the process ends, for example.

第1比較部15dから判定結果が入力されると、端点群検出部15eは、例えば、記憶部18に記憶された直線の検出結果を参照する。そして、端点群検出部15eは、直線の検出結果から、各直線の端点(始点及び終点)が集まった端点群を検出する。   When the determination result is input from the first comparison unit 15d, the endpoint group detection unit 15e refers to, for example, the straight line detection result stored in the storage unit 18. Then, the end point group detection unit 15e detects the end point group in which the end points (start point and end point) of each straight line are gathered from the detection result of the straight line.

端点群検出部15eは、例えば、候補画像を横方向及び縦方向において所定の間隔で複数のエリア(マトリクス状)に分割し、所定数以上の端点が存在するエリアを端点群として抽出する。候補画像にセグメントディスプレイが含まれている場合は、候補画像から複数の端点群が検出されうる。これらの端点群が検出された位置は、セグメントの端部の位置に対応する。   The end point group detection unit 15e divides the candidate image into a plurality of areas (in a matrix) at predetermined intervals in the horizontal and vertical directions, and extracts an area having a predetermined number or more of end points as an end point group. When the candidate image includes a segment display, a plurality of end point groups can be detected from the candidate image. The position where these end point groups are detected corresponds to the position of the end of the segment.

例えば、評価部15fは、それぞれの端点群について、ある端点群からそれに隣り合う端点群へ向かうベクトルを算出する。ベクトルは、例えば、ある端点群を別の端点群へ重ね合わせるために必要な移動量を求めることで得られる。評価部15fは、隣接するベクトル同士の大きさの比、及び、ベクトル同士の間の角度を算出する。評価部15fは、これらの評価値を、第2比較部15gに出力する。   For example, the evaluation unit 15f calculates, for each end point group, a vector from a certain end point group to an end point group adjacent thereto. The vector can be obtained, for example, by obtaining the amount of movement necessary for superimposing one end point group on another end point group. The evaluation unit 15f calculates the ratio of the sizes of the adjacent vectors and the angle between the vectors. The evaluation unit 15f outputs these evaluation values to the second comparison unit 15g.

第2比較部15gは、評価値と第2条件とを比較する。第2条件は、例えば、上記大きさの比に関する第1範囲、及び上記角度に関する第2範囲を含む。第2比較部15gは、上記大きさの比が第1範囲内にあり、上記角度が第2範囲内にある場合、候補画像が、セグメントディスプレイの画像であると判定し、候補画像を読取部16に出力する。   The second comparison unit 15g compares the evaluation value with the second condition. The second condition includes, for example, a first range regarding the ratio of the magnitudes and a second range regarding the angle. When the size ratio is within the first range and the angle is within the second range, the second comparing unit 15g determines that the candidate image is the image of the segment display, and the reading unit reads the candidate image. Output to 16.

例えば、一般的な7セグメントディスプレイは、正面視において、縦方向に延びるセグメント(縦セグメント)と、横方向に延びるセグメント(横セグメント)と、を含む。典型的には、縦セグメント同士の長さの比は、略1である。縦セグメントの長さに対する横セグメントの長さの比は、1以下である。また、縦セグメントと横セグメントとの間の角度は、略80度または略100度である。縦セグメント同士の間の角度は、180度である。   For example, a typical 7-segment display includes a segment extending vertically (vertical segment) and a segment extending horizontally (horizontal segment) when viewed from the front. Typically, the ratio of the lengths of the vertical segments is approximately 1. The ratio of the length of the horizontal segment to the length of the vertical segment is 1 or less. Further, the angle between the vertical segment and the horizontal segment is about 80 degrees or about 100 degrees. The angle between the vertical segments is 180 degrees.

評価部15fによって算出される、ベクトル同士の大きさの比は、縦セグメント同士の長さの比または縦セグメントと横セグメントの長さの比に対応する。また、評価部15fによって算出される、ベクトル同士の間の角度は、縦セグメントと横セグメントとの間の角度、または縦セグメント同士の間の角度に対応する。従って、これらの評価値を、それぞれ、予め設定された第1範囲及び第2範囲と比較することで、候補画像がセグメントディスプレイの画像であるか判定することができる。   The ratio of the sizes of the vectors calculated by the evaluation unit 15f corresponds to the ratio of the lengths of the vertical segments or the ratio of the lengths of the vertical segments and the horizontal segments. The angle between the vectors calculated by the evaluation unit 15f corresponds to the angle between the vertical segment and the horizontal segment, or the angle between the vertical segments. Therefore, by comparing these evaluation values with the preset first range and second range, respectively, it is possible to determine whether or not the candidate image is the image of the segment display.

なお、評価部15fにより、複数の大きさの比及び複数の角度が算出された場合、第2比較部15gは、例えば、それぞれの大きさの比を第1範囲と比較し、それぞれの角度を第2範囲と比較する。
第2比較部15gは、例えば、算出された大きさの比の全体の数を検出する。また、第2比較部15gは、第1範囲に含まれる大きさの比の数を検出する。そして、第2比較部15gは、全体の数に対する第1範囲に含まれる大きさの比の数の割合を算出する。
同様に、第2比較部15gは、例えば、算出された角度の全体の数に対する、第2範囲に含まれる角度の数の割合を算出する。
第2比較部15gは、算出された2つの割合が、それぞれ、予め設定された閾値以上の場合に、候補画像が、セグメントディスプレイの画像であると判定する。
When the evaluation unit 15f calculates the plurality of size ratios and the plurality of angles, the second comparison unit 15g compares the respective size ratios with the first range and determines the respective angles. Compare with the second range.
The second comparison unit 15g detects, for example, the total number of calculated size ratios. The second comparison unit 15g detects the number of size ratios included in the first range. Then, the second comparison unit 15g calculates the ratio of the number of the size ratios included in the first range to the total number.
Similarly, the second comparison unit 15g calculates, for example, the ratio of the number of angles included in the second range to the total number of calculated angles.
The second comparing unit 15g determines that the candidate image is the image of the segment display when the calculated two ratios are equal to or more than the preset thresholds, respectively.

読取部16は、入力された候補画像から、セグメントディスプレイに表示された数値を読み取る。例えば、読取部16は、入力された候補画像から数字を切り出し、点灯しているセグメントを検出することで、数値を読み取る。読取部16は、例えば、読み取った数値を、モニタに表示させたり、データベースに出力したりする。   The reading unit 16 reads the numerical value displayed on the segment display from the input candidate image. For example, the reading unit 16 reads a numerical value by cutting out a number from the input candidate image and detecting a lit segment. The reading unit 16 displays the read numerical value on a monitor or outputs it to a database, for example.

記憶部18は、読取システム1の処理に必要な情報や、処理の過程で生成されたデータを記憶する。例えば、記憶部18には、判定が行われる際に比較される閾値や条件等が記憶される。   The storage unit 18 stores information necessary for processing of the reading system 1 and data generated in the process of processing. For example, the storage unit 18 stores threshold values, conditions, and the like that are compared when making a determination.

図2及び図3を参照して、実施形態に係る読取システム1の動作について説明する。
図2は、実施形態に係る読取システムの動作を表すフローチャートである。
図3は、実施形態に係る読取システムにおける処理を例示する図である。
The operation of the reading system 1 according to the embodiment will be described with reference to FIGS. 2 and 3.
FIG. 2 is a flowchart showing the operation of the reading system according to the embodiment.
FIG. 3 is a diagram illustrating a process in the reading system according to the embodiment.

撮像部11は、セグメントディスプレイを撮影し、画像を取得する(図2のステップS11)。加工部12aは、入力画像を加工する(ステップS12a)。これにより、入力画像を縮小してグレイスケール化した加工画像と、入力画像をグレイスケール化のみした原寸画像と、が生成される。図3(a)は、加工画像の一例である。二値化部12bは、加工画像を二値化し、図3(b)に表したように、二値画像を生成する(ステップS12b)。輪郭抽出部12cは、二値画像の輪郭を抽出する(ステップS12c)。   The image capturing unit 11 captures an image by capturing an image of the segment display (step S11 in FIG. 2). The processing unit 12a processes the input image (step S12a). As a result, a processed image in which the input image is reduced and grayscaled and a full-scale image in which the input image is grayscaled only are generated. FIG. 3A is an example of the processed image. The binarization unit 12b binarizes the processed image to generate a binary image as shown in FIG. 3B (step S12b). The contour extracting unit 12c extracts the contour of the binary image (step S12c).

第1選定部12dは、輪郭で囲まれた領域を選定する(ステップS12d)。これにより、例えば、図3(c)に表したように、枠Aで囲まれた領域が選定される。四角形抽出部12eは、選定された領域における四角形の抽出結果に基づき、原寸画像から四角形を抽出する(ステップS12e)。第2選定部12fは、抽出された四角形を選定し(ステップS12f)、候補画像として出力する。図3(d)は、候補画像として出力される四角形を表す。変換部13は、図3(e)に表したように、歪みを補正するよう候補画像を変換する。変換部13は、例えば、候補画像を射影変換することで、歪み及びサイズを補正する(ステップS13)。   The first selection unit 12d selects a region surrounded by the contour (step S12d). Thereby, for example, as shown in FIG. 3C, the area surrounded by the frame A is selected. The quadrangle extraction unit 12e extracts a quadrangle from the full size image based on the extraction result of the quadrangle in the selected area (step S12e). The second selection unit 12f selects the extracted quadrangle (step S12f) and outputs it as a candidate image. FIG. 3D shows a quadrangle output as a candidate image. The conversion unit 13 converts the candidate image so as to correct the distortion, as illustrated in FIG. The conversion unit 13 corrects the distortion and the size by, for example, projectively converting the candidate image (step S13).

直線検出部15aは、図3(f)に表したように、候補画像から複数の直線SLを検出する(ステップS15a)。なお、図3(f)以降では、候補画像の一部のみを例示している。角度算出部15bは、それぞれの直線SLの角度を算出する(ステップS15b)。分布生成部15cは、図3(g)に表したように、角度θと直線の数Nとの関係を示す分布を生成する(ステップS15c)。   As shown in FIG. 3F, the straight line detection unit 15a detects a plurality of straight lines SL from the candidate image (step S15a). Note that in FIG. 3F and subsequent figures, only a part of the candidate images is illustrated. The angle calculator 15b calculates the angle of each straight line SL (step S15b). As illustrated in FIG. 3G, the distribution generation unit 15c generates a distribution indicating the relationship between the angle θ and the number N of straight lines (step S15c).

第1比較部15dは、分布が第1条件を満たすか判定する(ステップS15d)。例えば、第1比較部15dは、0度近傍のピークと、80度近傍のピークと、をこれらの中間の角度で折り返して重ね合わせる。これにより、図3(g)の破線で例示した分布が生成される。第1比較部15dは、この分布において、−10度以上10度以下の範囲に含まれる直線の数Nの総数を算出し、予め設定された値と比較する。   The first comparison unit 15d determines whether the distribution satisfies the first condition (step S15d). For example, the first comparing unit 15d folds a peak near 0 degree and a peak near 80 degrees at an intermediate angle between these peaks and overlaps them. As a result, the distribution illustrated by the broken line in FIG. In this distribution, the first comparison unit 15d calculates the total number N of straight lines included in the range of -10 degrees to 10 degrees, and compares it with a preset value.

第1条件が満たされている場合(総数が当該値以上である場合)、端点群検出部15eは、図3(f)に表した直線の検出結果から、図3(h)に表したように、端点群EGを検出する(ステップS15e)。評価部15fは、隣り合う端点群同士を結ぶベクトルを算出し、評価値(大きさの比及び角度)を算出する(ステップS15f)。   When the first condition is satisfied (when the total number is equal to or more than the value), the end point group detection unit 15e determines from the detection result of the straight line illustrated in FIG. 3F to that illustrated in FIG. Then, the end point group EG is detected (step S15e). The evaluation unit 15f calculates a vector connecting the end point groups adjacent to each other, and calculates an evaluation value (size ratio and angle) (step S15f).

第2比較部15gは、評価値が第2条件を満たすか判定する(ステップS15g)。評価値が第2条件を満たす場合、読取部16は、候補画像から、セグメントディスプレイの数値を読み取る(ステップS16)。   The second comparison unit 15g determines whether the evaluation value satisfies the second condition (step S15g). When the evaluation value satisfies the second condition, the reading unit 16 reads the numerical value of the segment display from the candidate image (step S16).

判定部15は、ステップS15a〜S15gが未だ行われていない、他の候補画像が無いか判定する(ステップS17)。他の候補画像がある場合、その候補画像について、ステップS15aが行われる。他の候補画像がない場合、処理を終了する。   The determination unit 15 determines whether there is another candidate image for which steps S15a to S15g have not been performed yet (step S17). If there is another candidate image, step S15a is performed for that candidate image. If there is no other candidate image, the process ends.

実施形態の効果を説明する。
セグメントディスプレイを読み取る際には、上述したように、入力画像の中から、セグメントディスプレイが撮影された部分の候補となる候補画像が抽出される。従来は、例えば、抽出された候補画像に対して歪みなどの補正を適宜行い、候補画像からセグメントディスプレイの数値を読み取っていた。
しかし、候補画像には例えば、セグメントディスプレイに似た表示器が含まれる場合がある。この場合、別の表示器の数値をセグメントディスプレイの数値として読み取ってしまい、誤検出が生じる可能性がある。
The effects of the embodiment will be described.
When reading the segment display, as described above, candidate images that are candidates for the portion where the segment display is photographed are extracted from the input image. Conventionally, for example, the extracted candidate image is appropriately corrected for distortion and the like, and the numerical value of the segment display is read from the candidate image.
However, the candidate image may include a display similar to a segment display , for example. In this case, the numerical value of another display may be read as the numerical value of the segment display, and erroneous detection may occur.

実施形態に係る読取システム1は、このような誤検出を抑制するために、候補画像について、直線検出の結果及び端点群検出の結果に基づいて、候補画像がセグメントディスプレイを含むか判定を行っている。セグメントディスプレイを含むと判定された候補画像のみを読み取ることで、誤検出の可能性を低減できる。   In order to suppress such erroneous detection, the reading system 1 according to the embodiment determines whether the candidate image includes a segment display based on the result of the straight line detection and the result of the end point group detection for the candidate image. There is. By reading only the candidate images determined to include the segment display, the possibility of erroneous detection can be reduced.

また、直線検出の結果及び端点群検出の結果に基づく判定は、一般的なセグメントディスプレイの特徴(セグメントの長さ及び角度)を利用している。このため、読取システム1は、多様なセグメントディスプレイに対して適用でき、その数値をより精度良く読み取ることが可能である。   Further, the judgment based on the result of the straight line detection and the result of the detection of the end point group uses the features (segment length and angle) of a general segment display. Therefore, the reading system 1 can be applied to various segment displays and can read the numerical values with higher accuracy.

なお、図1〜図3に表した例では、第1比較部15dと第2比較部15gの2つで判定が行われていたが、読取システム1において、第1比較部15d及び第2比較部15gの一方のみにより判定が行われても良い。この場合でも、読取部16による読み取りの前に、セグメントディスプレイを含む可能性が低い候補画像を除外できるため、セグメントディスプレイの数値の読み取り精度を向上できる。ただし、読み取り精度をより向上させるためには、第1比較部15d及び第2比較部15gの両方が設けられていることが望ましい。   In addition, in the example shown in FIGS. 1 to 3, the determination is performed by the first comparing unit 15d and the second comparing unit 15g. However, in the reading system 1, the first comparing unit 15d and the second comparing unit 15d are used. The determination may be performed by only one of the parts 15g. Even in this case, since the candidate images that are unlikely to include the segment display can be excluded before the reading by the reading unit 16, the numerical reading accuracy of the segment display can be improved. However, in order to further improve the reading accuracy, it is desirable that both the first comparison unit 15d and the second comparison unit 15g be provided.

なお、図1に表した例では、実施形態に係る読取システム1が撮像部11を備えているが、読取システム1は撮像部11を備えていなくても良い。例えば、他の撮像装置で撮影された画像が読取システム1へ入力され、その入力画像から読取システム1によってセグメントディスプレイの数値が読み取られても良い。   In the example illustrated in FIG. 1, the reading system 1 according to the embodiment includes the image capturing unit 11, but the reading system 1 does not have to include the image capturing unit 11. For example, an image captured by another imaging device may be input to the reading system 1, and the reading system 1 may read the numerical value of the segment display from the input image.

また、読取システム1は、変換部13を備えていなくても良いが、読取の精度を向上させるためには、変換部13を備えていることが望ましい。
例えば、変換部13により候補画像の歪みが補正されることで、適合率の精度を向上させることができる。これにより、セグメントディスプレイが撮影された候補画像をより正確に選別できるようになる。
Further, the reading system 1 may not include the conversion unit 13, but it is desirable to include the conversion unit 13 in order to improve the reading accuracy.
For example, the conversion unit 13 corrects the distortion of the candidate image, so that the precision of the matching rate can be improved. This allows the segment display to more accurately select the photographed candidate images.

また、図3では、7セグメントディスプレイに表示された数値を読み取る例を示した。しかし、実施形態に係る読取システム1で読み取り可能なセグメントディスプレイは、7セグメントディスプレイに限定されない。読み取り対象のセグメントディスプレイは、14セグメントディスプレイまたは16セグメントディスプレイであっても良い。   Further, FIG. 3 shows an example of reading the numerical value displayed on the 7-segment display. However, the segment display that can be read by the reading system 1 according to the embodiment is not limited to the 7-segment display. The segment display to be read may be a 14-segment display or a 16-segment display.

また、抽出部12における処理は、候補画像を抽出できれば、適宜変更可能である。例えば、入力画像のサイズが小さい場合、または入力画像が予め二値化されている場合などは、加工部12aまたは二値化部12bは不要である。また、入力画像から候補画像を抽出するための処理も適宜変更可能である。これらの変形例について、以下で説明する。   Further, the processing in the extraction unit 12 can be appropriately changed as long as the candidate image can be extracted. For example, when the size of the input image is small, or when the input image is binarized in advance, the processing unit 12a or the binarization unit 12b is unnecessary. Further, the process for extracting the candidate image from the input image can be changed as appropriate. These modifications will be described below.

(第1変形例)
図4は、実施形態の第1変形例に係る読取システムの構成を表すブロック図である。
図1〜図3の例では、セグメントディスプレイの表示領域の枠が四角形であった。そのため、当該表示領域の形状に合わせて、抽出部12には、四角形抽出部12eが設けられていた。
(First modification)
FIG. 4 is a block diagram showing the configuration of the reading system according to the first modified example of the embodiment.
In the examples of FIGS. 1 to 3, the frame of the display area of the segment display is a quadrangle. Therefore, the extraction unit 12 is provided with the quadrilateral extraction unit 12e in accordance with the shape of the display area.

表示領域の枠が円形の場合には、図4に表した読取システム2のように、抽出部12において、四角形抽出部12eに代えて、楕円抽出部12gが設けられる。楕円抽出部12gは、第1選定部12dによって選定された領域から楕円を抽出する。このとき、楕円抽出部12gは、抽出された楕円の座標を取得する。楕円抽出部12gは、原寸画像において、上記座標に対応する楕円の画像を抽出し、第2選定部12fに出力する。   When the frame of the display area is circular, as in the reading system 2 shown in FIG. 4, the extraction unit 12 is provided with an ellipse extraction unit 12g instead of the quadrangle extraction unit 12e. The ellipse extraction unit 12g extracts an ellipse from the area selected by the first selection unit 12d. At this time, the ellipse extraction unit 12g acquires the coordinates of the extracted ellipse. The ellipse extraction unit 12g extracts an image of an ellipse corresponding to the above coordinates in the full-scale image and outputs it to the second selection unit 12f.

第2選定部12fは、入力された楕円の画像を予め設定された条件と比較し、条件に適合する楕円を選定する。条件としては、例えば、楕円の扁平率、輝度の分布などが用いられる。第2選定部12fは、選定された楕円の画像を候補画像として変換部13に出力する。以降の処理は、図1〜図3で説明した例と同様である。すなわち、変換部13は、候補画像の歪みを補正する。そして、判定部15による判定を経て、読取部16によってセグメントディスプレイの数値が読み取られる。   The second selection unit 12f compares the input ellipse image with a preset condition and selects an ellipse that meets the condition. As the conditions, for example, elliptic flatness, luminance distribution, etc. are used. The second selection unit 12f outputs the selected elliptical image to the conversion unit 13 as a candidate image. Subsequent processing is the same as the example described with reference to FIGS. That is, the conversion unit 13 corrects the distortion of the candidate image. Then, after the determination by the determination unit 15, the reading unit 16 reads the numerical value of the segment display.

(第2変形例)
図5は、実施形態の第2変形例に係る読取システムの構成を表すブロック図である。
図5に表した読取システム3は、読取システム1との比較において、抽出部12及び変換部13に代えて、抽出部21を備える。
(Second modified example)
FIG. 5 is a block diagram showing the configuration of the reading system according to the second modification of the embodiment.
The reading system 3 illustrated in FIG. 5 includes an extracting unit 21 instead of the extracting unit 12 and the converting unit 13 in comparison with the reading system 1.

読取システム3では、セグメントディスプレイの数値を読み取る前に、撮像部11により、読み取り対象のセグメントディスプレイのみを正面から撮影する。ここでは、セグメントディスプレイのみを正面から撮影した画像を、テンプレート画像と呼ぶ。   In the reading system 3, before reading the numerical value of the segment display, the imaging unit 11 photographs only the segment display to be read from the front. Here, an image obtained by shooting only the segment display from the front is called a template image.

抽出部21は、特徴量抽出部21a、マッチング部21b、変換部21c、及び探索部21dを有する。
特徴量抽出部21aは、入力画像の特徴量を抽出する。また、特徴量抽出部21aは、記憶部18に記憶されたテンプレート画像を参照し、テンプレート画像の特徴量を抽出する。あるいは、予め、特徴量抽出部21aによって、テンプレート画像の特徴量が抽出されて記憶部18に記憶されていても良い。この場合、特徴量抽出部21aは、記憶部18に記憶されたテンプレート画像の特徴量を参照する。特徴量抽出部21aは、入力画像の特徴量及びテンプレート画像の特徴量を、マッチング部21bに出力する。
The extraction unit 21 includes a feature amount extraction unit 21a, a matching unit 21b, a conversion unit 21c, and a search unit 21d.
The feature amount extraction unit 21a extracts the feature amount of the input image. Further, the feature amount extraction unit 21a refers to the template image stored in the storage unit 18 and extracts the feature amount of the template image. Alternatively, the feature quantity of the template image may be extracted in advance by the feature quantity extraction unit 21 a and stored in the storage unit 18. In this case, the feature quantity extraction unit 21a refers to the feature quantity of the template image stored in the storage unit 18. The feature amount extraction unit 21a outputs the feature amount of the input image and the feature amount of the template image to the matching unit 21b.

マッチング部21bは、入力画像の特徴量を、テンプレート画像の特徴量とマッチングさせるために必要な、入力画像の補正量を算出する。例えば、マッチング部21bは、入力画像において歪んでいるセグメントディスプレイを、正面から撮影された画像に近づけるために必要な補正量を算出する。マッチング部21bは、算出した補正量及び入力画像を、変換部13に出力する。
なお、特徴量同士をマッチング出来ない場合は、入力画像にセグメントディスプレイが含まれていない可能性が高い。従って、この場合、例えば、補正量を算出せずに処理を終了する。
The matching unit 21b calculates the correction amount of the input image necessary for matching the feature amount of the input image with the feature amount of the template image. For example, the matching unit 21b calculates a correction amount necessary to bring the distorted segment display in the input image closer to the image captured from the front. The matching unit 21b outputs the calculated correction amount and input image to the conversion unit 13.
If the feature quantities cannot be matched with each other, there is a high possibility that the input image does not include the segment display. Therefore, in this case, for example, the process ends without calculating the correction amount.

変換部21cは、入力された補正量に基づき、入力画像を変換する。これにより、入力画像がテンプレート画像に対して歪んでいる場合には、その歪みが補正される。   The conversion unit 21c converts the input image based on the input correction amount. Thereby, when the input image is distorted with respect to the template image, the distortion is corrected.

探索部21dは、記憶部18に記憶されたテンプレート画像を参照する。そして、探索部21dは、入力画像から、テンプレート画像とマッチングする部分を探索する。探索部21dは、マッチングした部分を、候補画像として判定部15に出力する。
以降の判定部15及び読取部16における処理は、図1に表した読取システム1と同様である。
The search unit 21d refers to the template image stored in the storage unit 18. Then, the search unit 21d searches the input image for a portion that matches the template image. The search unit 21d outputs the matched portion to the determination unit 15 as a candidate image.
Subsequent processing in the determination unit 15 and the reading unit 16 is similar to that in the reading system 1 shown in FIG.

なお、特徴量抽出部21aによる特徴量の抽出は、例えば、KAZE、AKAZE(Accelerated KAZE)、またはSIFT(Scale-invariant feature transform)などを用いて行われる。マッチング部21bにおけるマッチングは、例えば、KNN(K Nearest Neighbor)、またはFLANN(Fast Library for Approximate Nearest Neighbors)などを用いて行われる。探索部21dによる探索は、例えば、画像間の類似度に基づくパターンマッチングを用いて行われる。   Note that the extraction of the feature amount by the feature amount extraction unit 21a is performed using, for example, KAZE, AKAZE (Accelerated KAZE), SIFT (Scale-invariant feature transform), or the like. The matching in the matching unit 21b is performed using, for example, KNN (K Nearest Neighbors) or FLANN (Fast Library for Approximate Nearest Neighbors). The search by the search unit 21d is performed using, for example, pattern matching based on the similarity between images.

本変形例に係る読取システム3では、特徴量を用いた入力画像の変換、及びテンプレート画像を用いたマッチングが行われる。すなわち、入力画像の全領域を変換するため、読取システム1に比べて、同一平面上に複数のセグメントディスプレイが存在する場合に有効である。   In the reading system 3 according to this modification, conversion of an input image using a feature amount and matching using a template image are performed. That is, since the entire area of the input image is converted, it is effective when a plurality of segment displays are present on the same plane as compared with the reading system 1.

(第3変形例)
図6は、実施形態の第3変形例に係る読取システムの構成を表すブロック図である。
図6に表した読取システム4は、読取システム1との比較において、抽出部12及び変換部13に代えて抽出部31を備える。抽出部31は、学習部31a、入力部31b、検出部31c、及び処理部31dを有する。
(Third modification)
FIG. 6 is a block diagram showing the configuration of the reading system according to the third modified example of the embodiment.
In comparison with the reading system 1, the reading system 4 illustrated in FIG. 6 includes an extracting unit 31 instead of the extracting unit 12 and the converting unit 13. The extraction unit 31 includes a learning unit 31a, an input unit 31b, a detection unit 31c, and a processing unit 31d.

読取システム4では、ニューラルネットワークを用いて、入力画像からセグメントディスプレイが撮影された候補画像が抽出される。例えば、抽出部31には、事前に、教師データが入力され、ニューラルネットワークの学習が行われる。教師データは、例えば、セグメントディスプレイを含む歪んだ画像と、その画像においてセグメントディスプレイの位置を示すデータと、その画像の歪み量と、を含む。   In the reading system 4, a neural network is used to extract a candidate image of which the segment display is captured from the input image. For example, teacher data is input to the extraction unit 31 in advance and learning of the neural network is performed. The teacher data includes, for example, a distorted image including the segment display, data indicating the position of the segment display in the image, and the distortion amount of the image.

学習部31aは、画像データが入力された際に、セグメントディスプレイが撮影された部分のデータに対してニューロンが反応(発火)し、且つ、その画像の歪み量に対応するニューロンが反応するよう、ニューラルネットワークを学習させる。学習部31aは、学習させたニューラルネットワークを記憶部18に記憶する。なお、学習部31aによる上記学習は、判定部15や読取部16による処理が実行される処理装置で行われても良いし、これとは異なる別の処理装置を用いて行われても良い。上記学習には、好ましくは、より高速な演算性能を有する処理装置が用いられる。   When the image data is input, the learning unit 31a causes the neurons to react (fire) to the data of the portion where the segment display is photographed, and the neurons corresponding to the distortion amount of the image to react. Train a neural network. The learning unit 31a stores the learned neural network in the storage unit 18. The learning by the learning unit 31a may be performed by a processing device in which the determination unit 15 and the reading unit 16 perform processing, or may be performed by another processing device different from this. For the learning, it is preferable to use a processing device having higher speed computing performance.

その後、撮像部11により、セグメントディスプレイの数値を読み取るために画像が取得され、画像が抽出部31に入力される。画像が入力されると、入力部31bは、記憶部18に記憶された学習済みのニューラルネットワークを参照する。そして、入力部31bは、このニューラルネットワークに、画像のデータを入力する。   After that, the image capturing unit 11 acquires an image for reading the numerical value of the segment display, and the image is input to the extracting unit 31. When the image is input, the input unit 31b refers to the learned neural network stored in the storage unit 18. Then, the input unit 31b inputs image data to the neural network.

ニューラルネットワークに画像データが入力されている間、ニューロンの反応があると、検出部31cはその反応を検出する。そして、検出部31cは、ニューロンが反応した画像の座標及び歪み量を検出し、処理部31dに出力する。   If there is a reaction of the neuron while the image data is being input to the neural network, the detection unit 31c detects the reaction. Then, the detection unit 31c detects the coordinates and the distortion amount of the image in which the neuron has reacted, and outputs the detection result to the processing unit 31d.

処理部31dは、入力された座標に基づき、入力画像から候補画像を抽出する。また、処理部31dは、入力された歪み量に基づいて、候補画像の歪みを補正する。処理部31dは、補正された候補画像を判定部15に出力する。
なお、候補画像の抽出と、歪みの補正と、が行われる順序は、適宜変更できる。例えば、処理部31dにおいて、入力画像の歪みが補正された後に、候補画像が抽出されても良い。
以降の判定部15及び読取部16における処理は、図1に表した読取システム1と同様である。
The processing unit 31d extracts a candidate image from the input image based on the input coordinates. Further, the processing unit 31d corrects the distortion of the candidate image based on the input distortion amount. The processing unit 31d outputs the corrected candidate image to the determination unit 15.
Note that the order in which the candidate image is extracted and the distortion is corrected can be changed as appropriate. For example, the processing unit 31d may extract the candidate image after the distortion of the input image is corrected.
Subsequent processing in the determination unit 15 and the reading unit 16 is similar to that in the reading system 1 shown in FIG.

本変形例に係る読取システム3では、ニューラルネットワークを用いて画像の切り出しや補正を行う。このため、セグメントディスプレイの表示領域とその外枠とのコントラスト比が大きくなく、2値化画像から輪郭を抽出しにくい場合にも、より高精度に候補画像を抽出できる。従って、読取システム1に比べて、入力画像中のセグメントディスプレイの数値を、より高精度に読み取ることが可能となる。   In the reading system 3 according to this modification, an image is cut out and corrected using a neural network. Therefore, even when the contrast ratio between the display area of the segment display and its outer frame is not large and it is difficult to extract the contour from the binarized image, the candidate image can be extracted with higher accuracy. Therefore, as compared with the reading system 1, the numerical value of the segment display in the input image can be read with higher accuracy.

図7は、実施形態に係る読取システムを実現するためのハードウェア構成を表すブロック図である。
例えば、実施形態に係る読取システムは、図7に表した読取装置5及び撮像装置6から構成される。読取装置5は、例えばコンピュータであり、ROM(Read Only Memory)51、RAM(Random Access Memory)52、CPU(Central Processing Unit)53、およびHDD(Hard Disk Drive)54を有する。
FIG. 7 is a block diagram showing a hardware configuration for realizing the reading system according to the embodiment.
For example, the reading system according to the embodiment includes the reading device 5 and the imaging device 6 illustrated in FIG. 7. The reading device 5 is, for example, a computer, and includes a ROM (Read Only Memory) 51, a RAM (Random Access Memory) 52, a CPU (Central Processing Unit) 53, and an HDD (Hard Disk Drive) 54.

ROM51は、コンピュータの動作を制御するプログラムを格納している。ROM51には、コンピュータを、上述した実施形態における、抽出部、変換部、判定部、読取部、探索部などとして機能させるために必要なプログラムが格納されている。   The ROM 51 stores a program that controls the operation of the computer. The ROM 51 stores programs necessary for causing the computer to function as the extraction unit, the conversion unit, the determination unit, the reading unit, the search unit, and the like in the above-described embodiments.

RAM52は、ROM51に格納されたプログラムが展開される記憶領域として機能する。CPU53は、ROM51に格納された制御プログラムを読み込み、当該制御プログラムに従ってコンピュータの動作を制御する。また、CPU53は、コンピュータの動作によって得られた様々なデータをRAM52に展開する。HDD54は、上述した実施形態における記憶部18として機能し、読み取りに必要な情報や、読み取りの過程で得られた情報を記憶する。   The RAM 52 functions as a storage area in which the programs stored in the ROM 51 are expanded. The CPU 53 reads the control program stored in the ROM 51 and controls the operation of the computer according to the control program. Further, the CPU 53 expands various data obtained by the operation of the computer in the RAM 52. The HDD 54 functions as the storage unit 18 in the above-described embodiment, and stores information necessary for reading and information obtained during the reading process.

読取装置5を用いて、ニューラルネットワークを利用した読取システム4を実現させる場合、読取装置5は、さらに、GPU(Graphics Processing Unit)や、ニューラルネットワークの処理に特化した専用チップを有していても良い。また、読取装置5は、HDD54に代えて、eMMC(embedded Multi Media Card)、SSD(Solid State Drive)、SSHD(Solid State Hybrid Drive)などを有していても良い。   When the reading system 4 is realized by using the reading device 5, the reading device 5 further includes a GPU (Graphics Processing Unit) and a dedicated chip specialized for the processing of the neural network. Is also good. Further, the reading device 5 may include an eMMC (embedded Multi Media Card), an SSD (Solid State Drive), an SSHD (Solid State Hybrid Drive), or the like, instead of the HDD 54.

撮像装置6は、被写体(セグメントディスプレイ)を撮影し、取得した画像を読取装置5へ送信する。撮像装置6は、例えば、カメラである。
出力装置7は、読取装置5から出力されたデータ(読み取られたセグメントディスプレイの数値)を、ユーザが認識できるように出力する。出力装置7は、例えば、モニタ、プリンタ、またはスピーカなどである。
The imaging device 6 photographs a subject (segment display) and transmits the acquired image to the reading device 5. The imaging device 6 is, for example, a camera.
The output device 7 outputs the data output from the reading device 5 (the read numerical values of the segment display) so that the user can recognize the data. The output device 7 is, for example, a monitor, a printer, a speaker, or the like.

読取装置5、撮像装置6、及び出力装置7は、例えば、有線又は無線で相互に接続される。または、これらはネットワークを介して相互に接続されていても良い。あるいは、読取装置5、撮像装置6、及び出力装置7の少なくとも2つが、1つの装置に組み込まれていても良い。例えば、読取装置5が、撮像装置6の画像処理部などと一体に組み込まれていても良い。   The reading device 5, the imaging device 6, and the output device 7 are connected to each other, for example, by wire or wirelessly. Alternatively, these may be connected to each other via a network. Alternatively, at least two of the reading device 5, the imaging device 6, and the output device 7 may be incorporated in one device. For example, the reading device 5 may be integrated with the image processing unit of the imaging device 6 or the like.

以上で説明した実施形態に係る読取システム及び読取方法を用いることで、セグメントディスプレイに表示された数値を、より高精度に読み取ることが可能となる。同様に、コンピュータを、読取システムとして動作させるためのプログラムを用いることで、セグメントディスプレイに表示された数値を、より高精度にコンピュータに読み取らせることが可能となる。   By using the reading system and the reading method according to the embodiment described above, it becomes possible to read the numerical value displayed on the segment display with higher accuracy. Similarly, by using a program for operating the computer as a reading system, it is possible to cause the computer to read the numerical value displayed on the segment display with higher accuracy.

以上、本発明のいくつかの実施形態を例示したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更などを行うことができる。これら実施形態やその変形例は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。また、前述の各実施形態は、相互に組み合わせて実施することができる。   Although some embodiments of the present invention have been illustrated above, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the scope equivalent thereto. Further, the above-described embodiments can be implemented in combination with each other.

1〜4 読取システム、 5 読取装置、 6 撮像装置、 7 出力装置、 11 撮像部、 12、21、31 抽出部、 13 変換部、 15 判定部、 16 読取部、 18 記憶部   1 to 4 reading system, 5 reading device, 6 imaging device, 7 output device, 11 imaging unit, 12, 21, 31 extraction unit, 13 conversion unit, 15 determination unit, 16 reading unit, 18 storage unit

Claims (31)

入力画像から抽出された、セグメントディスプレイが撮影された部分の候補画像について、前記候補画像から検出された複数の直線のそれぞれの基準線に対する角度を算出し、前記角度と前記直線の数との関係を示す分布に基づいて前記候補画像がセグメントディスプレイの画像であるか判定を行う判定部を備えた読取システム。   With respect to the candidate image of the portion where the segment display is captured, which is extracted from the input image, the angles of the plurality of straight lines detected from the candidate image with respect to the reference line are calculated, and the relationship between the angle and the number of the straight lines is calculated. A reading system including a determination unit that determines whether the candidate image is an image of a segment display based on the distribution indicating. 前記判定部は、前記分布において、第1角度の近傍における前記直線の数と、前記第1角度に対して傾斜した第2角度の近傍における前記直線の数と、の和が、予め設定された値以上である場合に、前記候補画像がセグメントディスプレイの画像であると判定する請求項1記載の読取システム。   The sum of the number of the straight lines in the vicinity of the first angle and the number of the straight lines in the vicinity of the second angle inclined with respect to the first angle in the distribution is preset. The reading system according to claim 1, wherein the candidate image is determined to be an image of a segment display when the value is equal to or more than a value. 前記判定部は、さらに、
前記候補画像において端点が集まった端点群を検出し、
隣接する端点群同士を結ぶベクトルを算出し、
前記分布に加えて、隣接するベクトル同士の大きさの比、及び、隣接するベクトル同士の間の角度の少なくともいずれかに基づいて前記判定を行う、
請求項1記載の読取システム。
The determination unit further includes
Detecting a group of end points in the candidate image,
Calculate the vector that connects adjacent end point groups,
In addition to the distribution, the determination is performed based on at least one of the ratio of the sizes of the adjacent vectors and the angle between the adjacent vectors,
The reading system according to claim 1.
前記判定部は、前記分布において、第1角度の近傍における前記直線の数と、前記第1角度に対して傾斜した第2角度の近傍における前記直線の数と、の和が、予め設定された値以上である第1条件と、前記大きさの比が予め設定された第1範囲にあり、且つ、前記角度が予め設定された第2範囲にある第2条件と、が満たされた場合に、前記候補画像がセグメントディスプレイの画像であると判定する請求項3記載の読取システム。   In the distribution, the determination unit presets a sum of the number of straight lines near the first angle and the number of straight lines near the second angle inclined with respect to the first angle. When a first condition that is equal to or more than a value and a second condition that the ratio of the magnitudes is in a preset first range and the angle is in a preset second range are satisfied. The reading system according to claim 3, wherein the candidate image is determined to be an image on a segment display. 入力画像から抽出された、セグメントディスプレイが撮影された部分の候補画像について、
前記候補画像において端点が集まった端点群を検出し、
隣接する端点群同士を結ぶベクトルを算出し、
隣接するベクトル同士の大きさの比、及び、隣接するベクトル同士の間の角度の少なくともいずれかに基づいて、前記候補画像がセグメントディスプレイの画像であるか判定を行う、判定部を備えた読取システム。
About the candidate image of the part where the segment display was taken, extracted from the input image,
Detecting a group of end points in the candidate image,
Calculate the vector that connects adjacent end point groups,
A reading system including a determination unit that determines whether or not the candidate image is an image of a segment display, based on at least one of the size ratio between adjacent vectors and the angle between adjacent vectors. .
前記判定部は、前記大きさの比が予め設定された第1範囲にあり、且つ、前記角度が予め設定された第2範囲にある場合に、前記候補画像がセグメントディスプレイの画像であると判定する請求項5記載の読取システム。   The determination unit determines that the candidate image is an image of a segment display when the size ratio is in a preset first range and the angle is in a preset second range. The reading system according to claim 5. 入力画像から前記候補画像を抽出する抽出部と、
セグメントディスプレイの画像と判定された前記候補画像から、セグメントディスプレイに表示された文字を読み取る読取部と、
をさらに備えた請求項1〜6のいずれか1つに記載の読取システム。
An extraction unit that extracts the candidate image from the input image,
From the candidate image determined to be an image of the segment display, a reading unit for reading the characters displayed on the segment display,
The reading system according to claim 1, further comprising:
セグメントディスプレイを撮影して取得された前記入力画像を、前記抽出部へ送信する撮像部をさらに備えた請求項7記載の読取システム。   The reading system according to claim 7, further comprising an imaging unit that transmits the input image obtained by capturing an image of a segment display to the extraction unit. 前記撮像部は、セグメントディスプレイが写った動画を撮影し、前記動画から前記入力画像を切り出す請求項8記載の読取システム。   The reading system according to claim 8, wherein the imaging unit captures a moving image showing a segment display and cuts out the input image from the moving image. 読み取られた前記文字を出力する出力部をさらに備えた請求項7〜9のいずれか1つに記載の読取システム。   The reading system according to any one of claims 7 to 9, further comprising an output unit that outputs the read characters. 前記抽出部は、
前記入力画像から輪郭を抽出し、
前記輪郭で囲まれた領域の面積を算出し、
前記面積が予め設定された閾値以上の場合、前記輪郭に基づいて、前記入力画像から所定の形状の画像を抽出し、
予め設定された条件を満たす前記抽出された画像を、前記候補画像として出力する、
請求項10のいずれか1つに記載の読取システム。
The extraction unit is
Extract the contour from the input image,
Calculate the area of the area surrounded by the contour,
If the area is greater than or equal to a preset threshold value, based on the contour, to extract an image of a predetermined shape from the input image,
Outputting the extracted image satisfying a preset condition as the candidate image,
Reading system according to any one of claims 7-10.
前記抽出部は、前記入力画像から、予め用意された、読み取り対象のセグメントディスプレイのテンプレート画像とマッチングする部分を探索し、マッチングした前記部分を候補画像として抽出する請求項〜10のいずれか1つに記載の読取システム。 The extraction unit, from the input image, prepared in advance, and searching for a portion matched with the reading target segment display of the template image, any one of claims 7 to 10 for extracting the portion of matched as candidate images The reading system described in 3. 前記抽出部は、
前記入力画像から特徴量を抽出し、
抽出された前記特徴量が、前記テンプレート画像の特徴量とマッチングするように、前記入力画像を補正し、
補正された前記入力画像から、前記テンプレート画像とマッチングする前記候補画像を抽出する、
請求項12記載の読取システム。
The extraction unit is
Extract the feature amount from the input image,
The input image is corrected so that the extracted feature amount matches the feature amount of the template image,
From the corrected input image, extract the candidate image that matches the template image,
The reading system according to claim 12 .
前記抽出部は、
前記入力画像のデータを、予め学習されたニューラルネットワークに入力し、
前記ニューラルネットワークの出力結果に基づいて、前記入力画像においてセグメントディスプレイが撮影された前記部分を検出し、前記候補画像として抽出する、
請求項〜10のいずれか1つに記載の読取システム。
The extraction unit is
Input the data of the input image to a pre-learned neural network,
Based on the output result of the neural network, detects the portion of the input image captured by the segment display, and extracts as the candidate image,
The reading system according to any one of claims 7 to 10.
前記抽出部は、前記ニューラルネットワークの前記出力結果に基づいて、さらに、前記候補画像の歪みを補正する請求項14記載の読取システム。 The reading system according to claim 14 , wherein the extraction unit further corrects the distortion of the candidate image based on the output result of the neural network. 前記候補画像が歪んでいる場合に、前記候補画像を正面から撮影された画像に近づけるよう変換する第1処理と、
前記候補画像のサイズが、予め設定された規定サイズと異なる場合に、前記候補画像の前記サイズを前記規定サイズに近づけるよう補正する第2処理と、
を行う変換部をさらに備え、
前記判定部は、変換された前記候補画像を用いて前記判定を行う請求項1〜15のいずれか1つに記載の読取システム。
When the candidate image is distorted, a first process of converting the candidate image so as to be closer to an image captured from the front,
A second process of correcting the size of the candidate image so as to approach the specified size when the size of the candidate image is different from a specified size set in advance;
Further comprising a conversion unit for performing
The determination unit, a reading system according to any one of claims 1 to 15 for performing the determination using the transformed the candidate image.
セグメントディスプレイを撮影し、入力画像を取得する撮像部と、
前記入力画像からセグメントディスプレイが撮影された部分の候補画像を抽出する抽出部と、
前記候補画像から検出された複数の直線のそれぞれの基準線に対する角度を算出し、前記角度と前記直線の数との関係を示す分布に基づいて前記候補画像がセグメントディスプレイの画像であるか判定を行う判定部と、
セグメントディスプレイの画像と判定された前記候補画像から、セグメントディスプレイに表示された文字を読み取る読取部と、
を備えた読取装置。
An imaging unit that captures an input image by shooting the segment display,
An extraction unit for extracting a candidate image of a portion where the segment display is photographed from the input image,
The angle of each of the plurality of straight lines detected from the candidate image with respect to the reference line is calculated, and it is determined whether the candidate image is a segment display image based on the distribution indicating the relationship between the angle and the number of straight lines. A determination unit to perform,
From the candidate image determined to be an image of the segment display, a reading unit for reading the characters displayed on the segment display,
A reader equipped with.
前記判定部は、前記分布において、第1角度の近傍における前記直線の数と、前記第1角度に対して傾斜した第2角度の近傍における前記直線の数と、の和が、予め設定された値以上である場合に、前記候補画像がセグメントディスプレイの画像であると判定する請求項17記載の読取装置。   The sum of the number of the straight lines in the vicinity of the first angle and the number of the straight lines in the vicinity of the second angle inclined with respect to the first angle in the distribution is preset. 18. The reading device according to claim 17, wherein the candidate image is determined to be an image of a segment display when the value is equal to or more than a value. 前記判定部は、さらに、
前記候補画像において端点が集まった端点群を検出し、
隣接する端点群同士を結ぶベクトルを算出し、
前記分布に加えて、隣接するベクトル同士の大きさの比、及び、隣接するベクトル同士の間の角度の少なくともいずれかに基づいて前記判定を行う、
請求項17記載の読取装置。
The determination unit further includes
Detecting a group of end points in the candidate image,
Calculate the vector that connects adjacent end point groups,
In addition to the distribution, the determination is performed based on at least one of the ratio of the sizes of the adjacent vectors and the angle between the adjacent vectors,
The reading device according to claim 17.
セグメントディスプレイを撮影し、入力画像を取得する撮像部と、
前記入力画像からセグメントディスプレイが撮影された部分の候補画像を抽出する抽出部と、
前記候補画像において端点が集まった端点群を検出し、
隣接する端点群同士を結ぶベクトルを算出し、
隣接するベクトル同士の大きさの比、及び、隣接するベクトル同士の間の角度の少なくともいずれかに基づいて、前記候補画像がセグメントディスプレイの画像であるか判定を行う、判定部と、
セグメントディスプレイの画像と判定された前記候補画像から、セグメントディスプレイに表示された文字を読み取る読取部と、
を備えた読取装置。
An imaging unit that captures an input image by shooting the segment display,
An extraction unit for extracting a candidate image of a portion where the segment display is photographed from the input image,
Detecting a group of end points in the candidate image,
Calculate the vector that connects adjacent end point groups,
Based on at least one of the size ratio of adjacent vectors, and the angle between the adjacent vectors, to determine whether the candidate image is an image of a segment display, a determination unit,
From the candidate image determined to be an image of the segment display, a reading unit for reading the characters displayed on the segment display,
A reader equipped with.
前記判定部は、前記大きさの比が予め設定された第1範囲にあり、且つ、前記角度が予め設定された第2範囲にある場合に、前記候補画像がセグメントディスプレイの画像であると判定する請求項20記載の読取装置。   The determination unit determines that the candidate image is an image of a segment display when the size ratio is in a preset first range and the angle is in a preset second range. The reading device according to claim 20. 前記撮像部は、セグメントディスプレイが写った動画を撮影し、前記動画から前記入力画像を切り出す請求項17〜21のいずれか1つに記載の読取装置。   22. The reading device according to claim 17, wherein the imaging unit captures a moving image showing a segment display and cuts out the input image from the moving image. セグメントディスプレイに表示された前記文字は、数値を示す請求項17〜22のいずれか1つに記載の読取装置。   23. The reading device according to claim 17, wherein the character displayed on the segment display indicates a numerical value. コンピュータに、
入力画像から抽出された、セグメントディスプレイが撮影された部分の候補画像について、前記候補画像から検出された複数の直線のそれぞれの基準線に対する角度を算出させ、前記角度と前記直線の数との関係を示す分布に基づいて前記候補画像がセグメントディスプレイの画像であるか判定を実行させる、
プログラム。
On the computer,
With respect to the candidate image of the portion where the segment display is captured, which is extracted from the input image, the angles of the plurality of straight lines detected from the candidate image with respect to the reference line are calculated, and the relationship between the angle and the number of the straight lines is calculated. A determination is made based on the distribution indicating that the candidate image is an image of a segment display,
program.
前記コンピュータに、
前記分布において、第1角度の近傍における前記直線の数と、前記第1角度に対して傾斜した第2角度の近傍における前記直線の数と、の和が、予め設定された値以上である場合に、前記候補画像がセグメントディスプレイの画像であると判定させる、
請求項24記載のプログラム。
On the computer,
In the distribution, the sum of the number of straight lines near the first angle and the number of straight lines near the second angle inclined with respect to the first angle is equal to or greater than a preset value. To determine that the candidate image is an image of a segment display,
The program according to claim 24.
前記コンピュータに、さらに、
前記候補画像において端点が集まった端点群を検出させ、
隣接する端点群同士を結ぶベクトルを算出させ、
前記分布に加えて、隣接するベクトル同士の大きさの比、及び、隣接するベクトル同士の間の角度の少なくともいずれかに基づいて前記判定を実行させる、
請求項24記載のプログラム。
In the computer,
Detect an end point group in which the end points are gathered in the candidate image,
Calculate the vector that connects adjacent end point groups,
In addition to the distribution, the determination is executed based on at least one of the ratio of the sizes of the adjacent vectors and the angle between the adjacent vectors,
The program according to claim 24.
コンピュータに、
入力画像から抽出された、セグメントディスプレイが撮影された部分の候補画像について、前記候補画像において端点が集まった端点群を検出させ、
隣接する端点群同士を結ぶベクトルを算出させ、
隣接するベクトル同士の大きさの比、及び、隣接するベクトル同士の間の角度の少なくともいずれかに基づいて、前記候補画像がセグメントディスプレイの画像であるか判定を実行させる、
プログラム。
On the computer,
Extracted from the input image, with respect to the candidate image of the part where the segment display is photographed, the end point group in which the end points are gathered in the candidate image is detected
Calculate the vector that connects adjacent end point groups,
Based on at least one of the size ratio of the adjacent vectors and the angle between the adjacent vectors, it is determined whether the candidate image is an image of a segment display,
program.
前記コンピュータに、前記大きさの比が予め設定された第1範囲にあり、且つ、前記角度が予め設定された第2範囲にある場合に、前記候補画像がセグメントディスプレイの画像であると判定させる請求項27記載のプログラム。   Causing the computer to determine that the candidate image is an image of a segment display when the size ratio is in a preset first range and the angle is in a preset second range The program according to claim 27. 前記コンピュータに、セグメントディスプレイの画像と判定された前記候補画像から、セグメントディスプレイに表示された文字を読み取らせる請求項2428のいずれか1つに記載のプログラム。 The computer, from the candidate image determined as a segment display of the image, the program according to any one of claims 24-28 to read the characters displayed on the segment display. セグメントディスプレイに表示された前記文字は、数値を示す請求項29記載のプログラム。   30. The program according to claim 29, wherein the character displayed on the segment display indicates a numerical value. 請求項24〜30のいずれか1つに記載のプログラムを格納した記憶媒体。   A storage medium storing the program according to any one of claims 24 to 30.
JP2019108670A 2019-06-11 2019-06-11 Reading system, reading device, program, and storage medium Active JP6684947B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019108670A JP6684947B2 (en) 2019-06-11 2019-06-11 Reading system, reading device, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019108670A JP6684947B2 (en) 2019-06-11 2019-06-11 Reading system, reading device, program, and storage medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018026500A Division JP6542407B1 (en) 2018-02-16 2018-02-16 Reading system, reading method, program, and storage medium

Publications (3)

Publication Number Publication Date
JP2019145181A JP2019145181A (en) 2019-08-29
JP2019145181A5 JP2019145181A5 (en) 2019-11-07
JP6684947B2 true JP6684947B2 (en) 2020-04-22

Family

ID=67772487

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019108670A Active JP6684947B2 (en) 2019-06-11 2019-06-11 Reading system, reading device, program, and storage medium

Country Status (1)

Country Link
JP (1) JP6684947B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0244487A (en) * 1988-08-05 1990-02-14 Fujitsu Ltd 7b character reading system for optical character reader
JPH11316794A (en) * 1998-05-06 1999-11-16 Aisin Aw Seimitsu Kk Method for reading and deciding segment information
JP5997808B1 (en) * 2015-06-18 2016-09-28 株式会社Pfu Image processing device, date identification device, image processing method, and program

Also Published As

Publication number Publication date
JP2019145181A (en) 2019-08-29

Similar Documents

Publication Publication Date Title
US8693785B2 (en) Image matching devices and image matching methods thereof
CN111868740B (en) Reading system, reading method and storage medium
JP6716996B2 (en) Image processing program, image processing apparatus, and image processing method
JP6609345B2 (en) Reading system, reading method, program, and storage medium
JP6352695B2 (en) Character detection apparatus, method and program
US11900664B2 (en) Reading system, reading device, reading method, and storage medium
JP6492746B2 (en) Image processing program, image processing apparatus, and image processing method
JP7355601B2 (en) Computing device, processing method, program, and storage medium
JP6542407B1 (en) Reading system, reading method, program, and storage medium
JP6684947B2 (en) Reading system, reading device, program, and storage medium
JP6591257B2 (en) Image processing apparatus, image processing method, and program
JP6656453B2 (en) Reading system, reading device, program, and storage medium
US20170213103A1 (en) Image retrieving device, image retrieving method, and recording medium
JP6218237B2 (en) Image conversion program, apparatus and method for parallelizing photographed image
JP6175904B2 (en) Verification target extraction system, verification target extraction method, verification target extraction program
JP6442873B2 (en) Fingerprint image processing apparatus, fingerprint image processing method and program
US11508083B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP5636966B2 (en) Error detection apparatus and error detection program
JP2005071243A (en) Image processing apparatus, method and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190924

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190924

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190924

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191225

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200330

R151 Written notification of patent or utility model registration

Ref document number: 6684947

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151