JP6929823B2 - 読取システム、読取方法、プログラム、記憶媒体、及び移動体 - Google Patents

読取システム、読取方法、プログラム、記憶媒体、及び移動体 Download PDF

Info

Publication number
JP6929823B2
JP6929823B2 JP2018216046A JP2018216046A JP6929823B2 JP 6929823 B2 JP6929823 B2 JP 6929823B2 JP 2018216046 A JP2018216046 A JP 2018216046A JP 2018216046 A JP2018216046 A JP 2018216046A JP 6929823 B2 JP6929823 B2 JP 6929823B2
Authority
JP
Japan
Prior art keywords
determination
partial image
segment display
image
characters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018216046A
Other languages
English (en)
Other versions
JP2020086615A (ja
Inventor
利和 瀧
利和 瀧
翼 日下
翼 日下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2018216046A priority Critical patent/JP6929823B2/ja
Priority to PCT/JP2019/037257 priority patent/WO2020100436A1/ja
Priority to CN201980060157.4A priority patent/CN112703507A/zh
Publication of JP2020086615A publication Critical patent/JP2020086615A/ja
Priority to US17/197,272 priority patent/US20210192255A1/en
Priority to JP2021129811A priority patent/JP2021177435A/ja
Application granted granted Critical
Publication of JP6929823B2 publication Critical patent/JP6929823B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/16Image preprocessing
    • G06V30/168Smoothing or thinning of the pattern; Skeletonisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/18Extraction of features or characteristics of the image
    • G06V30/18086Extraction of features or characteristics of the image by performing operations within image blocks or by using histograms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/18Extraction of features or characteristics of the image
    • G06V30/18105Extraction of features or characteristics of the image related to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Character Input (AREA)

Description

本発明の実施形態は、読取システム、読取方法、プログラム、記憶媒体、及び移動体に関する。
セグメントディスプレイに表示された文字(例えば数字)を読み取るシステムがある。このシステムにおいて、文字の読み取りの精度は、高いことが望ましい。
特開2016−177655号公報
本発明が解決しようとする課題は、セグメントディスプレイに表示された文字の読み取り精度を向上できる、読取システム、読取方法、プログラム、記憶媒体、及び移動体を提供することである。
実施形態に係る読取システムは、処理装置を備える。前記処理装置は、抽出部と、細線化部と、設定部と、識別部と、を含む。前記抽出部は、入力画像から、複数のセグメントを含むセグメントディスプレイの文字が撮影された部分画像を抽出する。前記細線化部は、前記部分画像において、文字を示す画素の集合を細線化する。前記設定部は、前記複数のセグメントにそれぞれ対応する複数の判定領域を前記部分画像に設定する。前記識別部は、前記複数の判定領域のそれぞれにおいて、細線化された前記集合に含まれる画素の数を検出し、検出結果に基づいて前記文字を識別する。
第1実施形態に係る読取システムの構成を表すブロック図である。 第1実施形態に係る読取システムによる処理を例示する図である。 第1実施形態に係る読取システムによる処理を例示する図である。 判定結果の組み合わせと数字との対応を例示する表である。 第1実施形態に係る読取システムによる処理を例示する図である。 第1実施形態に係る読取システムによる処理を表すフローチャートである。 セグメントディスプレイ及び判定領域の設定を例示する模式図である。 第1実施形態の第1変形例に係る読取システムの構成を表すブロック図である。 第1実施形態の第2変形例に係る読取システムの構成を表すブロック図である。 第2実施形態に係る読取システムの構成を表すブロック図である。 第3実施形態に係る読取システムの構成を表すブロック図である。 第3実施形態に係る読取システムの動作を説明する模式図である。
以下に、本発明の各実施形態について図面を参照しつつ説明する。本願明細書と各図において、既に説明したものと同様の要素には同一の符号を付して詳細な説明は適宜省略する。
(第1実施形態)
図1は、第1実施形態に係る読取システムの構成を表すブロック図である。
実施形態に係る読取システムは、セグメントディスプレイが撮影された画像から、セグメントディスプレイに表示された文字を読み取るために用いられる。セグメントディスプレイでは、複数のセグメントにより1つの文字が表示される。複数のセグメントの少なくとも一部が発光し、残りのセグメントが消灯することで、文字が表示される。実施形態に係る読取システムは、この文字を画像から識別する。
読み取り対象のセグメントディスプレイに含まれるセグメントの数は、任意である。例えば、読み取り対象のセグメントディスプレイは、7つのセグメントにより1つの文字が表示される、いわゆる7セグメントディスプレイである。7セグメントディスプレイは、数を示す文字(数字)を表示する。アルファベットを表示する14セグメントディスプレイ又は16セグメントディスプレイが読み取り対象であっても良い。ここでは、主として、実施形態に係る読取システムにより、7セグメントディスプレイに表示された数字を読み取る場合について説明する。
図1に表したように、第1実施形態に係る読取システム1は、処理装置10及び記憶装置20を備える。処理装置10は、例えば、受付部11、前処理部12、抽出部13、細線化部14、設定部15、及び識別部16を含む。
図2(a)〜図2(d)、図3(a)、図3(b)、図5(a)〜図5(e)は、第1実施形態に係る読取システムによる処理を例示する図である。
図4は、判定結果の組み合わせと数字との対応を例示する表である。
第1実施形態に係る読み取りシステムによる処理について、図2〜図5を参照して説明する。
処理装置10には、セグメントディスプレイが撮影された画像が入力される。受付部11は、入力された画像を受け付ける。例えば、外部の撮像装置がセグメントディスプレイを撮影し、画像を生成する。撮像装置は、処理装置10へ画像を送信する。又は、画像は、外部の記憶装置から処理装置10へ送信されても良い。受付部11は、処理装置10へ送信された画像を受け付ける。画像には、セグメントディスプレイ以外のものが写っていても良い。ここでは、受付部11が受け付けた画像を、入力画像と呼ぶ。
図2(a)は、処理装置10に送信された入力画像Aの一例である。図2(a)の例では、複数の数字がセグメントディスプレイに表示されている。それぞれの数字は、複数のセグメントにより表示されている。
前処理部12は、セグメントディスプレイに表示された数字を識別する前に、入力画像に前処理を加える。前処理により、数字の識別の精度を向上させることができる。例えば、前処理部12は、二値化部12a、膨張処理部12b、及び収縮処理部12cを含む。
二値化部12aは、入力画像を二値化する。二値化された入力画像は、互いに異なる2つの色(第1色と第2色)で表される。ここでは、第1色が白であり、第2色が黒である場合を説明する。
例えば、セグメントディスプレイの背景は、暗い色である。発光しているセグメントは、背景よりも明るい。このため、二値化された入力画像において、発光しているセグメントは、白色で表される。消灯しているセグメント及び背景は、黒色で表される。すなわち、二値化された入力画像では、白色の画素により数字が示される。
又は、液晶ディスプレイを用いたセグメントディスプレイでは、文字が背景よりも暗い色で表される。この場合、二値化された入力画像において、各画素の色を反転させる。反転させることで、上述した場合と同様に、白色の画素により数字が示される。以降では、発光しているセグメントが白色で表され、消灯しているセグメント及び背景が黒色で表される場合について説明する。
例えば、入力画像は、赤(Red)と緑(Green)と青(Blue)との3つの原色を用いて示されるRGBカラーモデルとしてデータ化されている。二値化処理では、まず、この入力画像を、色相(Hue)と彩度(Saturation)と輝度(Value)との三つの成分からなるHSV色空間で示すデータに変換する。次に、HSV色空間のデータのヒストグラム解析を行う。続いて、各画素のヒストグラムに基づいて閾値を算出する。この閾値と各画素のヒストグラムに基づき、各画素を白色と黒色に二値化する。
膨張処理部12bは、二値画像において、白色の画素を膨張させる。例えば、膨張処理部12bは、白色画素に隣接する画素を白色に変更する。隣接する画素が元から白色の場合は、変更されない。例えば、ノイズ等の影響により、白色画素が集まった部分に黒色の画素が点在することがある。膨張処理により、点在する黒色画素が白色画素に変更される。これにより、ノイズ等の影響を低減し、数字の読み取り精度を向上させることができる。また、膨張処理により、近接する白色画素の集合同士を繋げることができる。近接する白色画素の集合同士が繋がることで、1つの数字に対応して1つの画素の集合が生成される。これにより、後述する部分画像の抽出が容易となる。
収縮処理部12cは、二値画像において、白色画素を収縮させる。例えば、収縮処理部12cは、黒色の画素に隣接する画素を黒色に変更する。隣接する画素が元から黒色の場合は、変更されない。収縮処理により、膨張した白色画素の数が減少する。
図2(b)は、前処理(二値化、膨張処理、及び収縮処理)が行われた入力画像Aの一例である。図2(b)に表すように、これらの前処理により、各数字に対応した白色画素の集合が生成される。
前処理部12は、上述した膨張処理及び収縮処理を、複数回実行しても良い。例えば、前処理部12は、膨張処理を2回以上実行した後に、収縮処理を2回以上実行する。前処理部12は、収縮処理を2回以上実行した後に、膨張処理を2回以上実行しても良い。例えば、膨張処理の実行回数と、収縮処理の実行回数は、同じに設定される。又は、膨張処理の実行回数が、収縮処理の実行回数と異なっていても良い。例えば、膨張処理の実行回数は、収縮処理の実行回数よりも多く設定される。
前処理部12は、1回の膨張処理及び1回の収縮処理を含む処理セットを、複数回実行しても良い。1つの処理セットでは、膨張処理及び収縮処理の一方が実行された後、他方が実行される。1つの処理セットにおける膨張処理と収縮処理の順序が、別の処理セットにおける膨張処理と収縮処理の順序と異なっていても良い。
前処理部12は、別の処理をさらに実行しても良い。例えば、入力画像にセグメントディスプレイ以外の物体が含まれる場合、前処理部12は、入力画像からセグメントディスプレイが撮影された部分を切り出しても良い。入力画像が歪んでいる場合、前処理部12は、歪みの補正を行っても良い。
前処理部12は、処理された入力画像を抽出部13へ出力する。抽出部13は、入力画像から部分画像を抽出する。部分画像は、入力画像の一部であり、セグメントディスプレイの数字が撮影された部分を含む。
例えば、抽出部13は、ラベリング処理部13a及び切出部13bを含む。前処理部12から抽出部13には、二値化された入力画像が出力される。ラベリング処理部13aは、白色画素の集合に、ラベル(値)を付与する。「白色画素の集合」とは、白色画素同士が互いに隣接し、1つの白色の塊となっている部分を言う。白色画素の集合において、ある白色画素は、少なくとも1つの白色画素に隣接している。1つの白色画素の集合は、セグメントディスプレイに表示された1つの数字に対応する。白色画素の集合が複数存在する場合、ラベリング処理部13aにより、それぞれの白色画素の集合にラベルが付与される。
切出部13bは、入力画像から、ラベリングされた集合を含む部分を切り出す。切り出された部分が、部分画像となる。ラベリングされた集合が複数存在する場合、切出部13bは、複数の部分画像を切り出す。複数の部分画像は、それぞれ複数のラベリングされた集合を含む。例えば、部分画像は、四角形である。部分画像は、第1方向と、第1方向と交差する第2方向と、に配列された複数の画素を含む。例えば、部分画像は、各辺が集合の外縁に接し、且つ面積(画素数)が最小となるように切り出される。
図2(c)は、入力画像Aと、切出部13bにより切り出された部分画像B1〜B4と、を表す。部分画像B1〜B4のそれぞれの辺は、白色画素の集合の外縁に接する。このため、各部分画像の大きさは、集合の大きさに応じて変化する。
抽出部13は、抽出した(切り出した)部分画像を、細線化部14へ出力する。細線化部14は、部分画像に細線化処理を行う。すなわち、細線化部14は、部分画像に含まれる白色画素の集合に対して、線幅が1画素となるように処理する。
図2(d)は、図2(c)で表した部分画像B1〜B4を細線化した結果を表す。図2(c)の状態では、部分画像の辺は、白色画素の集合の外縁に接していた。細線化が行われることで、白色画素の集合が、部分画像B1〜B4の辺から離れる。
細線化部14は、前処理部12から出力された二値画像を細線化しても良い。例えば、切出部13bは、部分画像を切り出すと、その切り出した位置を保存する。細線化部14は、細線化した二値画像を、抽出部13へ出力する。切出部13bは、細線化された二値画像の一部を、保存した切り出し位置で切り出す。これにより、図2(d)に表した、細線化された部分画像が得られる。
設定部15は、細線化された部分画像に、複数の判定領域を設定する。設定される判定領域の数は、1つの文字の表示に用いられるセグメントの数以上であれば良い。例えば、設定される判定領域の数は、1つの数字を表示するために用いられるセグメントの数と同じである。例えば、7セグメントディスプレイに表示された数字を読み取る場合、7つの判定領域が1つの部分画像に設定される。各判定領域の位置は、抽出された部分画像のサイズに基づいて決定される。例えば、記憶装置20は、判定領域の設定位置に関する情報を記憶している。設定部15は、記憶装置20に記憶された情報と、部分画像のサイズと、に基づいて判定領域の位置を決定する。
図3(a)は、判定領域の設定方法を説明するための模式図である。図3(a)に表した部分画像Cは、複数の画素Pから構成される。部分画像Cには、判定領域DR1〜DR7が設定される。判定領域DR1及びDR2は、第1方向D1に沿って並んでいる。判定領域DR3及びDR4は、第1方向D1に沿って並んでいる。判定領域DR1及びDR2は、判定領域DR3及びDR4と第2方向D2において離れている。判定領域DR5〜DR7は、第2方向D2に沿って並んでいる。
図3(a)に表した判定領域DR5〜DR7のように、一部の判定領域の配列方向は、第2方向D2に平行ではなく、第2方向D2に対して傾いていても良い。例えば、一部の判定領域の配列方向と第2方向D2との間の角度は、0度よりも大きく20度以下に設定される。同様に、別の一部の判定領域の配列方向が、第1方向D1に対して傾いていても良い。例えば、別の一部の判定領域の配列方向と第1方向D1との間の角度は、0度よりも大きく20度以下に設定される。このような配列も、複数の判定領域が第1方向D1又は第2方向D2に沿って並ぶ場合に含まれる。
図3(a)に表した部分画像Cの第1方向D1における長さ(画素数)をL1とする。部分画像Bの第2方向D2における長さをL2とする。また、部分画像Cは、第1辺S1〜第4辺S4を有する。第1辺S1及び第2辺S2は、第1方向D1に平行である。第3辺S3及び第4辺S4は、第2方向D2に平行である。
例えば、判定領域DR1及びDR2は、第1辺S1からL2/4離れた位置を基準に設定される。例えば、判定領域DR3及びDR4は、第2辺S2からL2/4離れた位置を基準に設定される。例えば、判定領域DR5〜DR7は、第3辺S3と第4辺S4の中間位置を基準に設定される。例えば、判定領域DR5及びDR7は、中間位置から第1方向D1にずれた位置に設定される。例えば、判定領域DR5〜DR7のそれぞれの第2方向D2における長さは、L2/3に設定される。これらの基準となる位置に関する情報は、例えば記憶装置20に記憶される。また、判定領域は、別の判定領域と重ならないように設定される。各判定領域には、基準となる位置の画素Pと、その周囲の画素Pと、が含まれる。各判定領域のサイズは、例えば、部分画像Cのサイズに応じて設定される。
部分画像のサイズに対して判定領域を設定する基準となる位置、部分画像のサイズに対する判定領域のサイズは、読み取り対象のセグメントディスプレイ、入力画像の特性などに応じて適宜変更可能である。
このように、複数の判定領域の位置は、部分画像のサイズ(第1方向における長さ及び第2方向における長さ)に基づいて決定される。設定部15は、設定した判定領域を、識別部16へ出力する。
識別部16は、それぞれの判定領域における、細線化された数字を構成する画素の数に基づき、数字を識別する。例えば、識別部16は、判定部16a及び比較部16bを含む。
判定部16aは、各判定領域において、細線化された集合に含まれる画素の数を検出する。発光するセグメントが白色で表される場合、判定部16aは、各判定領域における白色画素の数を検出する。判定部16aは、検出された画素数を予め設定された閾値と比較し、各判定領域において、数字の一部が存在するか判定する。具体的には、判定部16aは、検出された画素数が閾値以上であれば、その判定領域に数字の一部が存在すると判定する。閾値は、例えば1に設定される。
判定部16aは、例えば、各判定領域における判定結果を“0”又は“1”で示す。“0”は、その判定領域に数字の一部が存在しないことを示す。“1”は、その判定領域に数字の一部が存在することを示す。
図3(b)は、図2(d)に表した複数の部分画像の1つである。図3(b)に表したように、部分画像B2の大きさに基づき、判定領域DR1〜DR7が設定される。図3(b)の例では、判定領域DR2、DR3、及びDR5〜DR7で、数字の一部が存在すると判定される。この結果は、例えば、0と1を用いて、“0110111”と表される。
比較部16bは、記憶装置20を参照する。記憶装置20には、各判定領域における判定結果の組み合わせと数字との対応が予め記憶されている。図4は、その対応を記憶したテーブルを例示している。比較部16bは、記憶装置20に記憶された判定結果の組み合わせから、判定部16aによる判定結果の組み合わせと一致するものを検索する。比較部16bは、一致した判定結果の組み合わせに対応する数字を、部分画像に示された数字として識別する。
例えば、図3(b)の例では、判定結果の組み合わせは、“0110111”と表される。比較部16bは、この組み合わせと一致する組み合わせを検索する。検索の結果、判定部16aによる判定結果の組み合わせは、数字の“2”に対応する判定結果の組み合わせと一致する。これにより、比較部16bは、部分画像に示される数字が“2”であると識別する。
なお、判定結果の組み合わせと、検索される組み合わせと、が同じ規則に従って並んでいれば、判定結果の組み合わせの態様は、適宜変更可能である。
図5(a)〜図5(e)は、その他の数字が示された部分画像と、各部分画像における判定領域の設定例と、を表す。図5(a)〜図5(e)に表したように、設定領域の位置及びサイズは、部分画像のサイズに応じて設定される。
抽出部13により複数の部分画像が抽出された場合、設定部15及び識別部16は、それぞれの部分画像について、判定領域の設定及び数字の識別を行う。識別部16は、識別した数字を出力する。
処理装置10は、例えば、外部の出力装置へ読み取った数字に基づく情報を出力する。例えば、情報は、読み取った数字を含む。情報は、読み取った数字に基づいて算出された結果を含んでも良い。処理装置10は、複数の読み取った数字を基に、別の数字を算出し、その算出結果を出力しても良い。処理装置10は、読み取った時刻などの情報をさらに出力しても良い。又は、処理装置10は、読み取った数字及び読み取った時刻などの情報を含むファイルを、CSVなどの所定の形式で出力しても良い。処理装置10は、FTP(File Transfer Protocol)などを用いて外部のサーバへデータを送信しても良い。又は、処理装置10は、データベース通信を行い、ODBC(Open Database Connectivity)などを用いて外部のデータベースサーバへデータを挿入してもよい。
処理装置10は、例えば、中央演算処理装置からなる処理回路を含む。記憶装置20は、例えば、ハードディスクドライブ(HDD)、ネットワーク接続ハードディスク(NAS)、組み込み用マルチメディアカード(eMMC)、ソリッドステートドライブ(SSD)、及びソリッドステートハイブリッドドライブ(SSHD)の少なくともいずれかを備える。処理装置10と記憶装置20は、有線又は無線で接続される。又は、処理装置10と記憶装置20は、ネットワークを介して相互に接続されていても良い。
図6は、第1実施形態に係る読取システム1による処理を表すフローチャートである。
受付部11は、処理装置10へ送信された入力画像を受け付ける(ステップSt11)。二値化部12aは、入力画像を二値化する(ステップSt12a)。膨張処理部12bは、二値化された入力画像を膨張処理する(ステップSt12b)。収縮処理部12cは、二値化及び膨張処理された入力画像を収縮処理する(ステップSt12c)。ラベリング処理部13aは、入力画像に含まれる白色画素の集合にラベルを付与する(ステップSt13a)。切出部13bは、入力画像から、ラベリングされた白色画素の集合を含む部分画像を切り出す(ステップSt13b)。細線化部14は、入力画像又は部分画像における白色画素の集合を細線化する(ステップSt14)。設定部15は、1つの部分画像に複数の判定領域を設定する(ステップSt15)。判定部16aは、各判定領域において細線化された集合に含まれる画素の数を検出する。判定部16aは、その数に基づいて、各判定領域に数字の一部が存在するか判定する(ステップSt16a)。比較部16bは、判定部16aによる判定結果の組み合わせを、予め登録されたテーブルと比較する(ステップSt16b)。比較部16bは、判定部16aによる判定結果の組み合わせに対応する数字を、部分画像に含まれる数字とする。
ステップSt15〜St16bは、iがラベル数と同じになるまで繰り返される。すなわち、最初に、iは0に設定される。1つの白色画素の集合について、数字の識別が完了すると、iに1が加えられる。ステップSt15〜St16bは、iがラベル数未満である間、繰り返される。従って、ラベリングされた白色画素の集合が複数存在する場合、それぞれの集合について、数字の識別が行われる。全ての集合について、数字の識別が完了すると、数字を出力する(ステップSt16c)。
参考例に係る読取方法を参照しつつ、第1実施形態の効果を説明する。
参考例に係る読取方法では、セグメントディスプレイの数字が撮影された画像から、特定の線分上におけるヒストグラムのピークを検出する。そして、ピークの数及び位置に基づいて、セグメントディスプレイの数字を識別する。この読取方法では、セグメントディスプレイの数字の太さ(線幅)が大きいと、ピークを正しく検出することが困難となる。また、ピークの位置は、数字の書体及び画像の大きさにより変化する。ピークの位置が基準となる位置と異なる場合、数字を正しく識別することが困難となる。
第1実施形態に係る読取システム1では、セグメントディスプレイに表示された文字を読み取る際、細線化処理が行われる。細線化処理では、文字を示す画素の集合が細線化される。これにより、入力画像におけるセグメントディスプレイの文字の太さに拘わらず、文字を示す画素の集合の幅を均一にできる。このため、セグメントディスプレイの文字の太さに拘わらず、文字を高精度に識別することができる。
また、第1実施形態に係る読取システム1では、セグメントディスプレイの文字が撮影された部分画像に、複数の判定領域が設定される。複数の判定領域の位置は、部分画像のサイズに基づいて決定される。そして、セグメントディスプレイの文字は、複数の判定領域のそれぞれにおいて、文字を示す画素の数の検出結果に基づいて識別される。文字を示す画素の数の検出結果を用いることで、文字の書体に拘わらず、文字を識別することができる。さらに、複数の判定領域の位置を部分画像のサイズに基づいて決定することで、部分画像のサイズに拘わらず、文字を高精度に識別することができる。
第1実施形態に係る読取システム1において、細線化部14は、任意である。細線化部14による細線化処理と、設定部15による部分画像のサイズに基づいた複数の判定領域の設定と、を組み合わせることで、文字をより高精度に識別することができる。文字を示す画素の集合が細線化されることで、集合の線幅を均一にできる。文字の太さに拘わらず、画素の数の判定結果に基づいて、文字をより高精度に識別することが可能となる。
図7(a)〜図7(d)は、セグメントディスプレイ及び判定領域の設定を例示する模式図である。
第1実施形態に係る読取システム1は、7セグメントディスプレイ以外にも適用可能である。例えば、14セグメントディスプレイ又は16セグメントディスプレイについても、上述した処理と同様の処理により、文字を読み取ることができる。
図7(a)は、14セグメントディスプレイの一例を表す。14セグメントディスプレイでは、14のセグメントにより1つの文字が表示される。この場合、設定部15は、部分画像に対して、14以上の判定領域を設定する。設定部15は、例えば図7(b)に表したように、部分画像Cに対して、14の判定領域DRを設定する。記憶装置20は、14の領域における判定結果と、文字と、の対応を示すテーブルを記憶する。判定部16aは、各判定領域DRにおいて、文字の一部が存在するか判定する。比較部16bは、記憶装置20のテーブルを参照し、その判定結果に対応する数字を検索する。これにより、14セグメントディスプレイに表示された文字が識別される。
図7(c)は、16セグメントディスプレイの一例を表す。16セグメントディスプレイでは、16のセグメントにより1つの文字が表示される。この場合、設定部15は、部分画像に対して、16以上の判定領域を設定する。設定部15は、例えば図7(d)に表したように、部分画像Cに対して、16の判定領域DRを設定する。以降は、上述した例と同様に、判定部16aによる判定結果に基づき、16セグメントディスプレイに表示された文字が識別される。
(第1変形例)
図8は、第1実施形態の第1変形例に係る読取システムの構成を表すブロック図である。
第1変形例に係る読取システム1aでは、前処理の前に、抽出部13による切り出しが行われる。例えば、記憶装置20には、入力画像における切り出し位置が予め記憶されている。切出部13bは、記憶装置20にアクセスし、記憶された切り出し位置を参照する。切出部13bは、その切り出し位置において、入力画像の一部を切り出す。抽出部13は、切り出した入力画像の一部を、部分画像として前処理部12に送信する。
前処理部12では、二値化部12aにより部分画像が二値化される。前処理部12は、二値化された入力画像を細線化部14へ送信する。前処理部12において、二値化された入力画像に対して、膨張処理及び収縮処理が行われても良い。
第1変形例に係る読取システム1aにおいても、セグメントディスプレイに表示された文字を、より高精度に読み取ることが可能である。また、読取システム1aによれば、ラベリング処理が不要となる。部分画像の抽出にラベリング処理を用いる場合、1つの文字を示す白色画素の集合が2つ以上に分断されていると、分断された集合がそれぞれ部分画像として抽出される。従って、セグメントディスプレイに表示された数字を正しく読み取れなくなる。ラベリング処理が不要であると、分断された2つ以上の集合を、1つの文字を識別するための部分画像として抽出できる。
ただし、予め定められた切り出し位置で入力画像の一部を切り出すと、文字の一部が切れたり、部分画像において文字が小さくなる可能性がある。従って、読み取りの精度を向上させるためには、図1に表したように、ラベリング処理を用いた部分画像の抽出が望ましい。
(第2変形例)
図9は、第1実施形態の第2変形例に係る読取システムの構成を表すブロック図である。
第2変形例に係る読取システム1bでは、前処理部12が、閾値算出部12d及び画素抽出部12eを含む。閾値算出部12dは、入力画像に基づいて、閾値を算出する。例えば、記憶装置20は、閾値を算出するための式を記憶している。閾値算出部12dは、記憶装置20にアクセスし、式を参照する。閾値算出部12dは、適応的閾値を算出する。すなわち、閾値算出部12dは、1つ画素について、その画素の明度又は輝度と、式と、を用いて、閾値を算出する。閾値算出部12dは、各画素の閾値を算出し、画素抽出部12eへ送信する。
画素抽出部12eは、入力画像を構成する各画素について、画素の明度又は輝度と、閾値と、を比較する。例えば、画素抽出部12eは、明度又は輝度が閾値以上であった画素のみを抽出する。これにより、例えば、点灯しているセグメントの部分のみが抽出される。すなわち、数字を示す画素のみが抽出される。例えば、画素が抽出されなかった点は、黒色に設定する。画素抽出部12eは、加工された入力画像を、抽出部13へ送信する。
抽出部13以降では、図1に表した読取システム1と同様の処理が実行される。又は、読取システム1bの抽出部13において、図8に表した読取システム1aの抽出部13と同様の処理が実行されても良い。
(第2実施形態)
図10は、第2実施形態に係る読取システムの構成を表すブロック図である。
第2実施形態に係る読取システム2は、撮像装置30をさらに備える。撮像装置30は、セグメントディスプレイを撮影し、画像を生成する。撮像装置30は、生成した画像を処理装置10へ送信する。又は、撮像装置30は、画像を記憶装置20に記憶しても良い。処理装置10は、記憶装置20にアクセスし、記憶された画像を参照する。撮像装置30が動画を取得する場合、撮像装置30は、その動画から静止画像を取り出して処理装置10に送信する。撮像装置30は、例えばカメラを含む。
処理装置10は、識別して読み取った文字に基づく情報を出力装置40へ送信する。出力装置40は、処理装置10から受信した情報を、ユーザが認識できるように出力する。出力装置40は、例えば、モニタ、プリンタ、及びスピーカの少なくともいずれかを含む。
処理装置10、記憶装置20、撮像装置30、及び出力装置40は、例えば、有線又は無線で相互に接続される。又は、これらはネットワークを介して相互に接続されていても良い。又は、処理装置10、記憶装置20、撮像装置30、及び出力装置40の少なくとも2つ以上が、1つの装置に組み込まれていても良い。例えば、処理装置10が、撮像装置30の画像処理部などと一体に組み込まれていても良い。
(第3実施形態)
図11は、第3実施形態に係る読取システムの構成を表すブロック図である。
第3実施形態に係る読取システム3は、移動体50をさらに備える。移動体50は、所定の領域内を移動する。移動体50が移動する領域内には、セグメントディスプレイが設けられている。移動体50は、例えば、無人搬送車(AGV)である。移動体50は、ドローンなどの飛翔体であっても良い。移動体50は、自立歩行するロボットであっても良い。移動体50は、無人で所定の作業を行うフォークリフトやクレーンなどであっても良い。
例えば、処理装置10及び撮像装置30は、移動体50に搭載される。処理装置10は、移動体50とは別に設けられ、移動体50とネットワークを介して接続されても良い。移動体50がセグメントディスプレイを撮影可能な位置に移動したとき、撮像装置30は、セグメントディスプレイを撮影し、画像を生成する。
図11に表したように、読取システム3は、取得装置60をさらに備えても良い。取得装置60は、移動体50に搭載される。例えば、セグメントディスプレイに対応して、固有の識別情報を有する識別体が設けられる。取得装置60は、識別体が有する識別情報を取得する。
図11に表したように、読取システム3は、制御装置70をさらに備えても良い。制御装置70は、移動体50を制御する。移動体50は、制御装置70から送信される指令に基づいて、所定の領域内を移動する。制御装置70は、移動体50に搭載されても良いし、移動体50とは別に設けられても良い。制御装置70は、例えば、中央演算処理装置からなる処理回路を含む。1つの処理回路が、処理装置10及び制御装置70の両方として機能しても良い。
例えば、識別体は、ID情報を有するradio frequency(RF)タグである。識別体は、ID情報を含む電磁界又は電波を発する。取得装置60は、識別体から発せられた電磁界又は電波を受信し、ID情報を取得する。
又は、識別体は、1次元又は2次元のバーコードであっても良い。取得装置60は、バーコードリーダである。取得装置60は、バーコードを読み取ることで、そのバーコードが有する識別情報を取得する。
図11に表したように、処理装置10は、紐付部17をさらに含んでも良い。例えば、取得装置60は、識別情報を取得すると、処理装置10に送信する。紐付部17は、送信された識別情報と、読み取った文字と、を紐付け、記憶装置20に記憶する。
図12は、第3実施形態に係る読取システムの動作を説明する模式図である。
例えば、移動体50は、所定の軌道Tに沿って移動する移動体である。移動体50には、撮像装置30及び取得装置60が搭載されている。処理装置10は、移動体50に搭載されても良いし、移動体50とは別に設けられても良い。軌道Tは、移動体50が、セグメントディスプレイSD1及びSD2の前を通過するように設けられている。
例えば、移動体50は、軌道Tに沿って移動し、撮像装置30によりセグメントディスプレイSD1又はSD2を撮影可能な位置に着くと、減速又は停止する。例えば、移動体50は、減速又は停止すると、撮像装置30に撮像の指令を送信する。又は、制御装置70から撮像装置30へ撮像の指令が送信されても良い。撮像装置30は、指令を受信すると、移動体50が減速又は停止している間に、セグメントディスプレイSD1又はSD2を撮影する。
又は、移動体50は、撮像装置30がセグメントディスプレイSD1又はSD2をぶれずに撮影できる程度の速度で軌道Tに沿って移動する。撮像装置30によりセグメントディスプレイSD1又はSD2を撮影可能な位置に着くと、移動体50又は上記制御装置から撮像の指令が送信される。撮像装置30は、指令を受信すると、セグメントディスプレイSD1又はSD2を撮影する。撮像装置30は、撮影して画像を生成すると、移動体50に搭載された又は移動体50とは別に設けられた処理装置10へ、画像を送信する。
セグメントディスプレイSD1近傍には、識別体ID1が設けられている。セグメントディスプレイSD2近傍には、識別体ID2が設けられている。例えば、取得装置60は、移動体50が減速又は停止している間に、識別体ID1又はID2の識別情報を取得する。
例えば、移動体50がセグメントディスプレイSD1の前に移動する。撮像装置30は、セグメントディスプレイSD1を撮影し、画像を生成する。処理装置10は、この画像から、セグメントディスプレイSD1に表示された文字を識別する。また、取得装置60は、セグメントディスプレイSD1に対応する識別体ID1の識別情報を取得する。処理装置10は、識別された文字と、識別情報と、を紐付ける。
又は、移動体50がセグメントディスプレイの前に移動した際、最初に、取得装置60が識別体の識別情報を取得しても良い。例えば、移動体50には、特定のセグメントディスプレイの文字を読み取るよう指令が送信される。この指令には、そのセグメントディスプレイの位置を示す情報が含まれる。記憶装置20には、各識別情報と各識別体の位置とが紐付けられて記憶されている。取得装置60が識別情報を取得すると、移動体50は、記憶装置20にアクセスする。移動体50は、その識別情報に紐付けられた識別体の位置を参照する。移動体50は、参照した識別体の位置が、文字を読み取るよう指令されたセグメントディスプレイの位置と合致しているか判定する。合致している場合、移動体50は、撮像装置30によりセグメントディスプレイSD1を撮影する。すなわち、この方法では、識別情報の読み取りが、セグメントディスプレイの文字を読み取る際のインターロックとして機能する。
以上で説明した実施形態に係る読取システム、読取方法、及び移動体を用いることで、セグメントディスプレイに表示された数字を、より高精度に読み取ることが可能となる。同様に、コンピュータを、読取システムとして動作させるためのプログラムを用いることで、セグメントディスプレイに表示された数字を、より高精度にコンピュータに読み取らせることが可能となる。
上記の種々のデータの処理は、例えば、プログラム(ソフトウェア)に基づいて実行される。例えば、コンピュータが、このプログラムを記憶し、このプログラムを読み出すことにより、上記の種々の情報の処理が行われる。
上記の種々の情報の処理は、コンピュータに実行させることのできるプログラムとして、磁気ディスク(フレキシブルディスク及びハードディスクなど)、光ディスク(CD−ROM、CD−R、CD−RW、DVD−ROM、DVD±R、DVD±RWなど)、半導体メモリ、または、他の記録媒体に記録されても良い。
例えば、記録媒体に記録された情報は、コンピュータ(または組み込みシステム)により読み出されることが可能である。記録媒体において、記録形式(記憶形式)は任意である。例えば、コンピュータは、記録媒体からプログラムを読み出し、このプログラムに基づいてプログラムに記述されている指示をCPUで実行させる。コンピュータにおいて、プログラムの取得(または読み出し)は、ネットワークを通じて行われても良い。
実施形態に係る処理装置及び制御装置は、1つまたは複数の装置(例えばパーソナルコンピュータなど)を含む。実施形態に係る処理装置及び制御装置は、ネットワークにより接続された複数の装置を含んでも良い。
以上、本発明のいくつかの実施形態を例示したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更などを行うことができる。これら実施形態やその変形例は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。また、前述の各実施形態は、相互に組み合わせて実施することができる。
1、1a、1b、2、3 読取システム、 11 受付部、 12 前処理部、 12a 二値化部、 12b 膨張処理部、 12c 収縮処理部、 12d 閾値算出部、 12e 画素抽出部、 13 抽出部、 13a ラベリング処理部、 13b 切出部、 14 細線化部、 15 設定部、 16 識別部、 16a 判定部、 16b 比較部、 17 紐付部、 20 記憶装置、 30 撮像装置、 40 出力装置、 50 移動体、 60 取得装置、 70 制御装置、 B、C 部分画像、 D1 第1方向、 D2 第2方向、 DR1〜DR7 判定領域、 S1〜S4 辺、 SD1、SD2 セグメントディスプレイ、 T 軌道

Claims (25)

  1. 第1色と第2色で表す二値化処理を入力画像に対して実行する前処理部と、
    二値化された前記入力画像に対して、前記第1色の画素の集合にラベルを付与し、前記ラベルが付与された前記集合を切り出すことで、前記入力画像から、複数のセグメントを含むセグメントディスプレイの文字が撮影された部分画像を抽出する抽出部と、
    前記部分画像において、前記文字を示す画素の前記集合を細線化する細線化部と、
    前記複数のセグメントにそれぞれ対応する複数の判定領域を前記部分画像に設定する設定部と、
    前記複数の判定領域のそれぞれにおいて、細線化された前記集合に含まれる画素の数を検出し、検出結果に基づいて前記文字を識別する識別部と、
    を含む処理装置を備えた読取システム。
  2. 前記設定部は、前記部分画像のサイズに基づいて、前記複数の判定領域の位置を決定する請求項1記載の読取システム。
  3. 入力画像から、複数のセグメントを含むセグメントディスプレイの文字が撮影された部分画像を抽出する抽出部と、
    前記部分画像において、前記文字を示す画素の集合を細線化する細線化部と、
    前記複数のセグメントにそれぞれ対応する複数の判定領域を前記部分画像に設定する設定部であって、前記複数の判定領域の位置は前記部分画像のサイズに基づいて決定され、前記複数の判定領域は、
    第1方向に沿って並び、それぞれが前記第1方向に延びる第1判定領域及び第2判定領域と、
    前記第1方向と交差する第2方向において前記第1判定領域及び前記第2判定領域から離れ、前記第1方向に沿って並び、それぞれが前記第1方向に延びる第3判定領域及び第4判定領域と、
    前記第2方向に沿って並び、それぞれが前記第2方向に延びる、第5判定領域、第6判定領域、及び第7判定領域と、
    を含む、前記設定部と、
    前記複数の判定領域のそれぞれにおいて、前記文字を示す画素の数を判定し、判定結果に基づいて前記文字を識別する識別部と、
    を含む処理装置を備えた読取システム。
  4. 前記処理装置は、前記入力画像を前処理する前処理部をさらに含み、
    前記前処理は、前記入力画像を二値化して第1色と第2色で表す二値化処理を含み、
    前記抽出部は、前処理された前記入力画像から、前記第1色の画素の前記集合にラベルを付与し、前記ラベルが付与された前記集合を切り出すことで、前記入力画像から前記部分画像抽出する請求項記載の読取システム。
  5. 前記前処理は、
    前記入力画像において、前記第1色の画素に隣接する画素を前記第1色に変更する処理と、
    前記入力画像において、前記第2色の画素に隣接する画素を前記第2色に変更する処理と、
    をさらに実行する請求項4記載の読取システム。
  6. 前記抽出部は、第1方向と、前記第1方向と交差する第2方向と、に配列された複数の画素からなる四角形の前記部分画像を抽出し、
    前記設定部は、前記複数の判定領域の一部を前記第1方向に沿って並べ、前記複数の判定領域の別の一部を前記第2方向に沿って並べて設定する請求項1又は2に記載の読取システム。
  7. 前記複数の判定領域の数は、前記セグメントディスプレイにおいて1つの文字の表示に用いられる前記セグメントの数と同じである請求項6記載の読取システム。
  8. 前記セグメントディスプレイを撮影し、前記入力画像を生成する撮像装置をさらに備えた請求項1〜7のいずれか1つに記載の読取システム。
  9. 前記撮像装置が搭載され、所定の領域内を移動する移動体をさらに備えた請求項8記載の読取システム。
  10. 前記移動体は、無人搬送装置、ドローン、又はロボットである請求項9記載の読取システム。
  11. 前記移動体は、前記撮像装置により前記セグメントディスプレイを撮影可能な位置で減速又は停止し、
    前記撮像装置は、前記移動体が減速又は停止している間に、前記セグメントディスプレイを撮影する請求項9又は10に記載の読取システム。
  12. 固有の識別情報を有する識別体から前記識別情報を取得し、前記処理装置へ送信する取得装置をさらに備え、
    前記処理装置は、前記識別情報と識別された前記文字とを紐付ける紐付部をさらに含む請求項1〜8のいずれか1つに記載の読取システム。
  13. 前記セグメントディスプレイ及び前記識別体が設けられた所定の領域内を移動し、前記取得装置が搭載された移動体をさらに備えた請求項12記載の読取システム。
  14. 出力装置をさらに備え、
    前記処理装置は、識別して読み取った前記文字に基づく情報を前記出力装置へ送信し、
    前記出力装置は、前記情報を出力する請求項1〜13のいずれか1つに記載の読取システム。
  15. 第1色と第2色で表す二値化処理を入力画像に対して実行し、
    二値化された前記入力画像に対して、前記第1色の画素の集合にラベルを付与し、前記ラベルが付与された前記集合を切り出すことで、前記入力画像から、複数のセグメントを含むセグメントディスプレイの文字が撮影された部分画像を抽出し、
    前記部分画像において、前記文字を示す画素の前記集合を細線化し、
    前記複数のセグメントにそれぞれ対応する複数の判定領域を前記部分画像に設定し、
    前記複数の判定領域のそれぞれにおいて、細線化された前記集合に含まれる画素の数を判定し、判定結果に基づいて前記文字を識別する読取方法。
  16. 前記複数の判定領域の位置は、前記部分画像のサイズに基づいて決定される請求項15記載の読取方法。
  17. 入力画像から、複数のセグメントを含むセグメントディスプレイの文字が撮影された部分画像を抽出し、
    前記部分画像において、前記文字を示す画素の集合を細線化し、
    前記複数のセグメントにそれぞれ対応する複数の判定領域を前記部分画像に設定し
    前記複数の判定領域のそれぞれにおいて、前記文字を示す画素の数を判定し、判定結果に基づいて前記文字を識別する読取方法であって、
    前記複数の判定領域の位置は、前記部分画像のサイズに基づいて決定され、
    前記複数の判定領域は、
    第1方向に沿って並び、それぞれが前記第1方向に延びる第1判定領域及び第2判定領域と、
    前記第1方向と交差する第2方向において前記第1判定領域及び前記第2判定領域から離れ、前記第1方向に沿って並び、それぞれが前記第1方向に延びる第3判定領域及び第4判定領域と、
    前記第2方向に沿って並び、それぞれが前記第2方向に延びる、第5判定領域、第6判定領域、及び第7判定領域と、
    を含む、読取方法。
  18. 前記セグメントディスプレイが設けられた領域内に、撮像装置を搭載した移動体を移動させ、
    前記撮像装置により前記セグメントディスプレイを撮影することで前記入力画像を取得する請求項15〜17のいずれか1つに記載の読取方法。
  19. 処理装置に、
    第1色と第2色で表す二値化処理を入力画像に対して実行させ、
    二値化された前記入力画像に対して、前記第1色の画素の集合にラベルを付与させ、前記ラベルが付与された前記集合を切り出させることで、前記入力画像から、複数のセグメントを含むセグメントディスプレイの文字が撮影された部分画像を抽出させ、
    前記部分画像において、前記文字を示す画素の前記集合を細線化させ、
    前記複数のセグメントにそれぞれ対応する複数の判定領域を前記部分画像に設定させ、
    前記複数の判定領域のそれぞれにおいて、細線化された前記集合に含まれる画素の数を判定させ、判定結果に基づいて前記文字を識別させる、
    プログラム。
  20. 前記処理装置に、前記部分画像のサイズに基づいて前記複数の判定領域の位置を決定させる請求項19記載のプログラム。
  21. 処理装置に、
    入力画像から、複数のセグメントを含むセグメントディスプレイの文字が撮影された部分画像を抽出させ、
    前記部分画像において、前記文字を示す画素の集合を細線化させ、
    前記複数のセグメントにそれぞれ対応する複数の判定領域を前記部分画像に設定させ
    前記複数の判定領域のそれぞれにおいて、前記文字を示す画素の数を判定させ、判定結果に基づいて前記文字を識別させる、
    プログラムであって、
    前記複数の判定領域の位置を、前記部分画像のサイズに基づいて決定させ、
    前記複数の判定領域は、
    第1方向に沿って並び、それぞれが前記第1方向に延びる第1判定領域及び第2判定領域と、
    前記第1方向と交差する第2方向において前記第1判定領域及び前記第2判定領域から離れ、前記第1方向に沿って並び、それぞれが前記第1方向に延びる第3判定領域及び第4判定領域と、
    前記第2方向に沿って並び、それぞれが前記第2方向に延びる、第5判定領域、第6判定領域、及び第7判定領域と、
    を含む、プログラム。
  22. 請求項19〜21のいずれか1つに記載のプログラムを記憶した記憶媒体。
  23. 複数のセグメントを含むセグメントディスプレイが設けられた所定の領域内を移動し、撮像装置が搭載された移動体であって、
    前記撮像装置により撮影された前記セグメントディスプレイの画像が入力される処理装置を備え、
    前記処理装置は、
    第1色と第2色で表す二値化処理を入力された画像に実行する前処理部と、
    二値化された前記画像に対して、前記第1色の画素の集合にラベルを付与し、前記ラベルが付与された前記集合を切り出すことで、前記画像から、前記セグメントディスプレイの文字が撮影された部分画像を抽出する抽出部と、
    前記部分画像において、前記文字を示す画素の前記集合を細線化する細線化部と、
    前記複数のセグメントにそれぞれ対応する複数の判定領域を前記部分画像に設定する設定部と、
    前記複数の判定領域のそれぞれにおいて、細線化された前記集合に含まれる画素の数を検出し、検出結果に基づいて前記文字を識別する識別部と、
    を含む移動体。
  24. 複数のセグメントを含むセグメントディスプレイが設けられた所定の領域内を移動し、撮像装置が搭載された移動体であって、
    前記撮像装置により撮影された前記セグメントディスプレイの画像が入力される処理装置を備え、
    前記処理装置は、
    入力された画像から、前記セグメントディスプレイの文字が撮影された部分画像を抽出する抽出部と、
    前記部分画像において、前記文字を示す画素の集合を細線化する細線化部と、
    前記複数のセグメントにそれぞれ対応する複数の判定領域を前記部分画像に設定する設定部と、
    前記複数の判定領域のそれぞれにおいて、前記文字を示す画素の数を判定し、判定結果に基づいて前記文字を識別する識別部と、
    を含み、
    前記複数の判定領域の位置は、前記部分画像のサイズに基づいて決定され、
    前記複数の判定領域は、
    第1方向に沿って並び、それぞれが前記第1方向に延びる第1判定領域及び第2判定領域と、
    前記第1方向と交差する第2方向において前記第1判定領域及び前記第2判定領域から離れ、前記第1方向に沿って並び、それぞれが前記第1方向に延びる第3判定領域及び第4判定領域と、
    前記第2方向に沿って並び、それぞれが前記第2方向に延びる、第5判定領域、第6判定領域、及び第7判定領域と、
    を含む、移動体。
  25. 前記移動体及び前記撮像装置を制御する制御装置をさらに備え、
    前記撮像装置により前記セグメントディスプレイを撮影可能な位置に前記移動体が移動すると、前記制御装置は、前記撮像装置に前記セグメントディスプレイを撮影させる請求項23又は24に記載の移動体。
JP2018216046A 2018-11-16 2018-11-16 読取システム、読取方法、プログラム、記憶媒体、及び移動体 Active JP6929823B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2018216046A JP6929823B2 (ja) 2018-11-16 2018-11-16 読取システム、読取方法、プログラム、記憶媒体、及び移動体
PCT/JP2019/037257 WO2020100436A1 (ja) 2018-11-16 2019-09-24 読取システム、読取方法、プログラム、記憶媒体、及び移動体
CN201980060157.4A CN112703507A (zh) 2018-11-16 2019-09-24 读取系统、读取方法、程序、存储介质、以及移动体
US17/197,272 US20210192255A1 (en) 2018-11-16 2021-03-10 Reading system, reading method, storage medium, and moving body
JP2021129811A JP2021177435A (ja) 2018-11-16 2021-08-06 読取システム、読取方法、プログラム、記憶媒体、及び移動体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018216046A JP6929823B2 (ja) 2018-11-16 2018-11-16 読取システム、読取方法、プログラム、記憶媒体、及び移動体

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021129811A Division JP2021177435A (ja) 2018-11-16 2021-08-06 読取システム、読取方法、プログラム、記憶媒体、及び移動体

Publications (2)

Publication Number Publication Date
JP2020086615A JP2020086615A (ja) 2020-06-04
JP6929823B2 true JP6929823B2 (ja) 2021-09-01

Family

ID=70731854

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018216046A Active JP6929823B2 (ja) 2018-11-16 2018-11-16 読取システム、読取方法、プログラム、記憶媒体、及び移動体
JP2021129811A Pending JP2021177435A (ja) 2018-11-16 2021-08-06 読取システム、読取方法、プログラム、記憶媒体、及び移動体

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021129811A Pending JP2021177435A (ja) 2018-11-16 2021-08-06 読取システム、読取方法、プログラム、記憶媒体、及び移動体

Country Status (4)

Country Link
US (1) US20210192255A1 (ja)
JP (2) JP6929823B2 (ja)
CN (1) CN112703507A (ja)
WO (1) WO2020100436A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6868057B2 (ja) 2019-05-27 2021-05-12 株式会社東芝 読取システム、読取方法、プログラム、記憶媒体、及び移動体

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6148079A (ja) * 1984-08-13 1986-03-08 Ricoh Co Ltd セグメント文字認識方式
JPH04135287A (ja) * 1990-09-27 1992-05-08 Mazda Motor Corp パターン認識方法
US5199084A (en) * 1991-08-16 1993-03-30 International Business Machines Corporation Apparatus and method for locating characters on a label
US6470336B1 (en) * 1999-08-25 2002-10-22 Matsushita Electric Industrial Co., Ltd. Document image search device and recording medium having document search program stored thereon
JP2001349789A (ja) * 2000-06-07 2001-12-21 Maruman Computer Service Kk データ入力装置、撮影補助装置、方法、及び媒体
JP3864246B2 (ja) * 2001-05-30 2006-12-27 インターナショナル・ビジネス・マシーンズ・コーポレーション 画像処理方法、画像処理システムおよびプログラム
US20050151849A1 (en) * 2004-01-13 2005-07-14 Andrew Fitzhugh Method and system for image driven clock synchronization
JP4243614B2 (ja) * 2006-01-11 2009-03-25 Necアクセステクニカ株式会社 線分検出器及び線分検出方法
JP4203512B2 (ja) * 2006-06-16 2009-01-07 本田技研工業株式会社 車両周辺監視装置
US20110255794A1 (en) * 2010-01-15 2011-10-20 Copanion, Inc. Systems and methods for automatically extracting data by narrowing data search scope using contour matching
JP5591578B2 (ja) * 2010-04-19 2014-09-17 日本電産サンキョー株式会社 文字列認識装置および文字列認識方法
US8867828B2 (en) * 2011-03-04 2014-10-21 Qualcomm Incorporated Text region detection system and method
JP5647919B2 (ja) * 2011-03-07 2015-01-07 株式会社Nttドコモ 文字認識装置、文字認識方法、文字認識システム、および文字認識プログラム
US8755595B1 (en) * 2011-07-19 2014-06-17 Google Inc. Automatic extraction of character ground truth data from images
KR101905426B1 (ko) * 2012-01-11 2018-10-10 한국전자통신연구원 자연영상에서 추출된 문자 정보의 순서화 방법 및 시스템
JP5906843B2 (ja) * 2012-03-14 2016-04-20 オムロン株式会社 キーワード検出装置、その制御方法および制御プログラム、並びに表示機器
JP5547243B2 (ja) * 2012-06-28 2014-07-09 シャープ株式会社 画像処理装置、プログラムおよび記録媒体
US20150039637A1 (en) * 2013-07-31 2015-02-05 The Nielsen Company (Us), Llc Systems Apparatus and Methods for Determining Computer Apparatus Usage Via Processed Visual Indicia
JP5875637B2 (ja) * 2013-12-19 2016-03-02 キヤノン株式会社 画像処理装置、画像処理方法
JP2015197851A (ja) * 2014-04-02 2015-11-09 大成建設株式会社 画像処理方法、画像処理用プログラム及び情報管理システム
PT3051461T (pt) * 2015-01-31 2020-07-14 Tata Consultancy Services Ltd Sistema e método implementado por computador para extrair e reconhecer caracteres alfanuméricos de sinais de trânsito
JP6421355B2 (ja) * 2015-02-13 2018-11-14 住友電工システムソリューション株式会社 走行情報取得システム、通信端末装置、サーバ装置、コンピュータプログラム、走行情報取得方法、及びメーターパネル
US9563812B2 (en) * 2015-04-08 2017-02-07 Toshiba Tec Kabushiki Kaisha Image processing apparatus, image processing method and computer-readable storage medium
JP6583688B2 (ja) * 2016-05-27 2019-10-02 三井金属アクト株式会社 画像情報認証システム
US11367092B2 (en) * 2017-05-01 2022-06-21 Symbol Technologies, Llc Method and apparatus for extracting and processing price text from an image set
CN107563380A (zh) * 2017-09-08 2018-01-09 上海理工大学 一种基于mser和swt相结合的车辆车牌检测识别方法
US11430236B1 (en) * 2021-12-09 2022-08-30 Redimd, Llc Computer-implemented segmented numeral character recognition and reader

Also Published As

Publication number Publication date
WO2020100436A1 (ja) 2020-05-22
JP2021177435A (ja) 2021-11-11
JP2020086615A (ja) 2020-06-04
US20210192255A1 (en) 2021-06-24
CN112703507A (zh) 2021-04-23

Similar Documents

Publication Publication Date Title
KR102169431B1 (ko) 이미지들의 시퀀스 중의 이미지에서의 객체 경계 안정화를 위한 이미지 처리 장치 및 방법
KR102592076B1 (ko) 딥러닝 기반 영상 처리 장치 및 방법, 학습 장치
US9053361B2 (en) Identifying regions of text to merge in a natural image or video frame
EP3171295B1 (en) Method for processing image and computer-readable non-transitory recording medium storing program
CN105303156B (zh) 字符检测装置、方法及程序
EP2875470A1 (en) Parameter selection and coarse localization of regions of interest for mser!processing
US20150010233A1 (en) Method Of Improving Contrast For Text Extraction And Recognition Applications
JP5695257B1 (ja) 画像処理装置、画像処理方法、および画像処理プログラム
US11462040B2 (en) Distractor classifier
JP2013012163A (ja) 画像認識装置、画像認識方法及び画像認識用コンピュータプログラム
JP6763060B1 (ja) 読取システム、移動体、読取方法、プログラム、及び記憶媒体
JP6818002B2 (ja) 読取支援システム、移動体、読取支援方法、プログラム、及び記憶媒体
JP2002216129A (ja) 顔領域検出装置およびその方法並びにコンピュータ読み取り可能な記録媒体
CN111598076B (zh) 一种标签图像中日期检测处理方法及装置
US20200320331A1 (en) System and method for object recognition using local binarization
JP6929823B2 (ja) 読取システム、読取方法、プログラム、記憶媒体、及び移動体
JP2013037539A (ja) 画像特徴量抽出装置およびそのプログラム
US20230290161A1 (en) Reading system, reading method, storage medium, and moving body
CN111814778B (zh) 文本行区域定位方法、版面分析方法及字符识别方法
JP6828333B2 (ja) 画像処理装置及び画像処理プログラム
JP6742736B2 (ja) 信号機の点灯色判定装置および信号機の点灯色判定方法
CN112703492A (zh) 用于在增强现实显示装置中操作的系统和方法
KR101329492B1 (ko) 카메라 렌즈를 조절하여 인식할 문자열을 영상의 중앙에 인식 가능한 크기로 위치시키는 장치 및 그 방법
JP6977291B2 (ja) 個体識別装置、情報処理システム、個体識別装置の制御方法及びプログラム
JP6613625B2 (ja) 画像処理プログラム、画像処理装置、及び画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201113

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210310

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210713

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210811

R151 Written notification of patent or utility model registration

Ref document number: 6929823

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151