JP6505034B2 - Character recognition device - Google Patents

Character recognition device Download PDF

Info

Publication number
JP6505034B2
JP6505034B2 JP2016028782A JP2016028782A JP6505034B2 JP 6505034 B2 JP6505034 B2 JP 6505034B2 JP 2016028782 A JP2016028782 A JP 2016028782A JP 2016028782 A JP2016028782 A JP 2016028782A JP 6505034 B2 JP6505034 B2 JP 6505034B2
Authority
JP
Japan
Prior art keywords
character recognition
image data
light source
data
recognition device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016028782A
Other languages
Japanese (ja)
Other versions
JP2017146225A (en
Inventor
諒介 佐々木
諒介 佐々木
隆博 加島
隆博 加島
峯 慎吾
慎吾 峯
木暮 賢一
賢一 木暮
真吾 小堀
真吾 小堀
三輪 祥太郎
祥太郎 三輪
誠 鷹羽
誠 鷹羽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Mitsubishi Electric Building Techno-Service Co Ltd
Original Assignee
Mitsubishi Electric Corp
Mitsubishi Electric Building Techno-Service Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp, Mitsubishi Electric Building Techno-Service Co Ltd filed Critical Mitsubishi Electric Corp
Priority to JP2016028782A priority Critical patent/JP6505034B2/en
Publication of JP2017146225A publication Critical patent/JP2017146225A/en
Application granted granted Critical
Publication of JP6505034B2 publication Critical patent/JP6505034B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Character Discrimination (AREA)

Description

この発明は、電力量計といった対象物の文字情報を認識する技術に関する。   The present invention relates to a technology for recognizing character information of an object such as a power meter.

物件の保守点検のため、電力量計に関する設備管理台帳が作成される。設備管理台帳作成の際、電力量計の情報を確実かつ効率よく入力するため、電力量計に示された文字情報を認識する文字認識装置が用いられる場合がある。   An equipment management ledger for electricity meter is created for maintenance inspection of the property. At the time of facility management ledger creation, a character recognition device that recognizes character information indicated by the electric power meter may be used in order to input information of the electric power meter reliably and efficiently.

特許文献1には、遮光フードと、カメラと、LED発光体とを備えた文字認識装置について記載されている。特許文献1に記載された文字認識装置では、遮光フードで電力量計の上部を覆って、外部からの光を遮断した上で、電力量計に示された文字情報を認識する。   Patent Document 1 describes a character recognition device provided with a light-shielding hood, a camera, and an LED light emitter. In the character recognition device described in Patent Document 1, the upper part of the watt-hour meter is covered with a light-shielding hood to block external light, and then the character information indicated by the watt-hour meter is recognized.

特開平10−019518号公報Japanese Patent Application Laid-Open No. 10-019518

特許文献1に記載された文字認識装置では、LED発光体の照射光を反射板で反射させて電力量計に向かうようになっている。そのため、照射光に斑ができ、文字認識の精度が落ちる場合がある。
この発明は、電力量計といった対象物の文字情報を精度よく認識することを目的とする。
In the character recognition apparatus described in patent document 1, the irradiation light of LED light-emitting body is reflected by a reflecting plate, and it is directed to a watt-hour meter. Therefore, spots may be formed on the irradiation light, and the accuracy of character recognition may be lowered.
An object of the present invention is to accurately recognize character information of an object such as a power meter.

この発明に係る文字認識装置は、
正面が開口した筐体と、
前記筐体の背面に、前記正面の方の画像データを取得するように設けられた画像取得装置と、
前記筐体の前記側面に、前記筐体の内側の方向、かつ、前記正面の開口面と平行な方向を光軸が向くように配置された光源と、
前記撮影装置によって撮影されて得られた画像情報から文字情報を認識し、記憶装置に記憶する文字認識部と
を備える。
The character recognition device according to the present invention is
A case with an open front,
An image acquisition apparatus provided on the back of the housing to acquire image data of the front side;
A light source disposed on the side surface of the housing such that an optical axis is directed in a direction inward of the housing and a direction parallel to the front opening surface;
And a character recognition unit that recognizes character information from image information obtained by photographing by the photographing device and stores the character information in a storage device.

この発明では、筐体の前記側面に、前記筐体の内側の方向、かつ、前記正面の開口面と平行な方向を光軸が向くように光源が配置される。そのため、対象物の表面に斑なく光を当てることができ、対象物の文字情報を精度よく認識することができる。   In the aspect of the invention, the light source is disposed on the side surface of the housing such that the light axis is directed in a direction inward of the housing and a direction parallel to the front opening surface. Therefore, light can be applied to the surface of the object without unevenness, and character information of the object can be recognized with high accuracy.

実施の形態1に係る文字認識装置10の構成図。FIG. 1 is a block diagram of a character recognition device 10 according to a first embodiment. 実施の形態1に係る図1のA−A’断面図。FIG. 2 is a cross-sectional view taken along the line A-A ′ of FIG. 1 according to the first embodiment. 実施の形態1に係る計算機30の構成図。FIG. 2 is a configuration diagram of a computer 30 according to Embodiment 1. 実施の形態1に係る画像データを示す図。FIG. 2 shows image data according to the first embodiment. 実施の形態1に係る計算機30の動作を示すフローチャート。6 is a flowchart showing the operation of the computer 30 according to the first embodiment. 実施の形態2に係る文字認識装置10の構成図。FIG. 5 is a block diagram of a character recognition device 10 according to a second embodiment. 光が映り込んだ場合の画像データを示す図。The figure which shows the image data at the time of light being reflected. 実施の形態3に係る計算機30の構成図。FIG. 10 is a configuration diagram of a computer 30 according to a third embodiment. 実施の形態3に係る計算機30の動作を示すフローチャート。15 is a flowchart showing an operation of a computer 30 according to a third embodiment. 実施の形態4に係る文字認識装置10の構成図。FIG. 10 is a block diagram of a character recognition device 10 according to a fourth embodiment. 実施の形態4に係る計算機30の構成図。FIG. 16 is a configuration diagram of a computer 30 according to a fourth embodiment. 実施の形態4に係る計算機30の動作を示すフローチャート。15 is a flowchart showing an operation of a computer 30 according to a fourth embodiment. 実施の形態4に係る画像データを示す図。FIG. 16 shows image data according to a fourth embodiment. 実施の形態5に係る文字認識装置10の構成図。FIG. 10 is a block diagram of a character recognition device 10 according to a fifth embodiment.

実施の形態1.
実施の形態1では、電力量計50の名板51に示された文字情報を認識する文字認識装置10について説明する。しかし、文字認識装置10は、電力量計50に示された文字情報に限らず、ガス、水道等の使用量計に示された文字情報を認識する装置であってもよいし、他の対象物に示された文字情報を認識する装置であってもよい。
Embodiment 1
In the first embodiment, a character recognition device 10 that recognizes the character information indicated on the name plate 51 of the power meter 50 will be described. However, the character recognition device 10 is not limited to the character information indicated by the watt-hour meter 50, and may be a device that recognizes the character information indicated by the usage meter such as gas or water, etc. It may be a device that recognizes the character information indicated on the object.

***構成の説明***
図1から図3を参照して、実施の形態1に係る文字認識装置10の構成を説明する。
図1に示すように、文字認識装置10は、撮影装置20と計算機30とを備える。
撮影装置20と計算機30とは、ケーブルを介して接続され、通信可能になっている。なお、撮影装置20と計算機30とは、通信可能であればよく、無線ネットワークといった他の手段によって接続されていてもよい。
*** Description of the configuration ***
The configuration of the character recognition device 10 according to the first embodiment will be described with reference to FIGS. 1 to 3.
As shown in FIG. 1, the character recognition device 10 includes a photographing device 20 and a computer 30.
The imaging device 20 and the computer 30 are connected via a cable and can communicate with each other. The imaging device 20 and the computer 30 may be communicable with each other, and may be connected by another means such as a wireless network.

図1に示すように、撮影装置20は、筐体21と、画像取得装置22と、光源23と、治具24とを備える。
筐体21は、正面211側が開口している。画像取得装置22は、筐体21の背面212側に、正面211の方の画像データを取得するように設けられる。画像取得装置22は、具体例としては、カメラである。光源23は、筐体21の側面213に、筐体21の内側の方向、かつ、正面211の開口面と平行な方向を光軸が向くように配置される。光源23は、具体例としては、LED、電球である。治具24は、筐体21の正面211側の上側の側面213に、筐体21の正面211側の先端から突出して設けられる。
As shown in FIG. 1, the imaging device 20 includes a housing 21, an image acquisition device 22, a light source 23, and a jig 24.
The housing 21 is open at the front surface 211 side. The image acquisition device 22 is provided on the back surface 212 side of the housing 21 so as to acquire image data of the front surface 211. The image acquisition device 22 is a camera as a specific example. The light source 23 is disposed on the side surface 213 of the housing 21 so that the optical axis is directed in the direction inside the housing 21 and in the direction parallel to the opening surface of the front surface 211. The light source 23 is, as a specific example, an LED or a light bulb. The jig 24 is provided on the side surface 213 on the upper side of the front surface 211 of the housing 21 so as to protrude from the tip on the front surface 211 side of the housing 21.

図2に示すように、筐体21は、側面213が光を透過、拡散させる透過拡散素材で形成された内層214と、外部の光を遮断する遮断素材で形成された外層215とを有する。透過拡散素材は、具体例としては、白色のアクリル板である。遮断素材は、具体例としては、黒色のアクリル板である。内層214と外層215とは、正面から見た場合に四隅に配置された、不透明な素材で形成された支柱216により互いに固定される。
図2では、筐体21の下側の側面213に光源23であるLEDが設けられている。図2では、6個のLEDが、下側の側面213に横一列に並べて上向きに配置されている。各LEDから放射された光は、透過拡散素材で形成された内層214で反射を繰り返し、電力量計50の表面に照射される。
筐体21の下側にはスペーサ217が設けられ、スペーサ217によって空けられた隙間からケーブル218が筐体21内に挿入され、光源23であるLEDに接続される。
なお、図2では、画像取得装置22が省略されている。また、図2には、筐体21の各部の寸法が示されている。現状の電力量計50に対しては、この寸法にすることにより、文字認識の精度を高めることができるが、この寸法に限定されることなく、対象物の寸法に応じて適宜設計すればよい。
As shown in FIG. 2, the housing 21 has an inner layer 214 formed of a transmissive diffusion material whose side surface 213 transmits and diffuses light, and an outer layer 215 formed of a blocking material which blocks external light. The transmissive diffusion material is, as a specific example, a white acrylic plate. The blocking material is, as a specific example, a black acrylic plate. The inner layer 214 and the outer layer 215 are fixed to each other by struts 216 formed of an opaque material, which are disposed at the four corners when viewed from the front.
In FIG. 2, an LED which is a light source 23 is provided on a lower side surface 213 of the housing 21. In FIG. 2, six LEDs are arranged upward in a horizontal row on the lower side surface 213. The light emitted from each LED is repeatedly reflected by the inner layer 214 formed of the transmissive diffusion material, and is irradiated to the surface of the watt-hour meter 50.
A spacer 217 is provided on the lower side of the housing 21, and the cable 218 is inserted into the housing 21 from a gap created by the spacer 217 and connected to the LED as the light source 23.
In FIG. 2, the image acquisition device 22 is omitted. Moreover, the dimension of each part of the housing | casing 21 is shown by FIG. With respect to the current watt-hour meter 50, this dimension can improve the accuracy of character recognition, but the present invention is not limited to this dimension, and may be appropriately designed according to the dimension of the object .

図3に示すように、計算機30は、ハードウェア構成として、プロセッサ31と、記憶装置32と、インタフェース33とを備える。プロセッサ11は、信号線を介して他のハードウェアである記憶装置32及びインタフェース33と接続され、これら他のハードウェアを制御する。
プロセッサ31は、プロセッシングを行うIC(Integrated Circuit)である。プロセッサ11は、具体例として、CPU(Central Processing Unit)である。
記憶装置32は、メモリ321と、ストレージ322とを備える。メモリ321は、具体例としては、RAM(Random Access Memory)である。ストレージ322は、具体例としては、HDD(Hard Disk Drive)である。また、ストレージ322は、SD(Secure Digital)メモリカード、CF(CompactFlash)、NANDフラッシュ、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVDといった可搬記憶媒体であってもよい。
インタフェース33は、撮影装置20といった外部装置を接続するための装置である。インタフェース33は、具体例としては、USB(Universal Serial Bus)、HDMI(登録商標,High−Definition Multimedia Interface)のポートである。
As shown in FIG. 3, the computer 30 includes a processor 31, a storage device 32, and an interface 33 as a hardware configuration. The processor 11 is connected to the other hardware such as the storage device 32 and the interface 33 via signal lines, and controls these other hardware.
The processor 31 is an integrated circuit (IC) that performs processing. The processor 11 is a CPU (Central Processing Unit) as a specific example.
The storage device 32 includes a memory 321 and a storage 322. The memory 321 is, as a specific example, a random access memory (RAM). The storage 322 is, as a specific example, a hard disk drive (HDD). The storage 322 may be a portable storage medium such as a Secure Digital (SD) memory card, a CF (Compact Flash), a NAND flash, a flexible disc, an optical disc, a compact disc, a Blu-ray (registered trademark) disc, and a DVD.
The interface 33 is a device for connecting an external device such as the photographing device 20. The interface 33 is a port of Universal Serial Bus (USB) or High-Definition Multimedia Interface (HDMI) as a specific example.

計算機30は、機能構成として、名板抽出部41と、文字認識部42と、情報蓄積部43とを備える。文字認識部42は、メータ値取得部421と、情報取得部422とを備える。
名板抽出部41と、文字認識部42と、情報蓄積部43と、メータ値取得部421と、情報取得部422との各部の機能は、ソフトウェアによって実現される。記憶装置32のストレージ322には、計算機30の各部の機能を実現するプログラムが記憶されている。このプログラムは、プロセッサ31によりメモリ321に読み込まれ、プロセッサ31によって実行される。これにより、計算機30の各部の機能が実現される。
なお、計算機30の各部の機能のうち一部又は全部は、ハードウェアによって実現されてもよい。この場合、その機能は、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ロジックIC、GA(Gate Array)、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)によって実現される。
The computer 30 includes a nameplate extraction unit 41, a character recognition unit 42, and an information storage unit 43 as functional components. The character recognition unit 42 includes a meter value acquisition unit 421 and an information acquisition unit 422.
The functions of the nameplate extraction unit 41, the character recognition unit 42, the information storage unit 43, the meter value acquisition unit 421, and the information acquisition unit 422 are realized by software. The storage 322 of the storage device 32 stores programs for realizing the functions of the respective units of the computer 30. The program is read into the memory 321 by the processor 31 and executed by the processor 31. Thereby, the function of each part of the computer 30 is realized.
Note that some or all of the functions of each unit of the computer 30 may be realized by hardware. In this case, the function is a single circuit, a complex circuit, a programmed processor, a parallel programmed processor, a logic IC, a gate array (GA), an application specific integrated circuit (ASIC), a field-programmable gate array (FPGA). Is realized by

***動作の説明***
図1、図4及び図5を参照して、実施の形態1に係る文字認識装置10の動作を説明する。
図1及び図4を参照して、実施の形態1に係る撮影装置20の動作を説明する。
図1に示すように、撮影装置20は、筐体21の正面211側が電力量計50側に向けられ、治具24が電力量計50の上に乗せられる。そして、撮影装置20の筐体21の正面211側の先端部分で、電力量計50の周囲を囲うように撮影装置20が設置される。この状態で、利用者から画像取得指示が入力されると、光源23が点灯し、画像取得装置22により電力量計50の画像データを取得する。すると、図4に示すような画像データが取得される。
*** Description of operation ***
The operation of the character recognition device 10 according to the first embodiment will be described with reference to FIG. 1, FIG. 4 and FIG.
The operation of the imaging device 20 according to the first embodiment will be described with reference to FIGS. 1 and 4.
As shown in FIG. 1, in the imaging device 20, the front surface 211 side of the housing 21 is directed to the watt-hour meter 50, and the jig 24 is mounted on the watt-hour meter 50. Then, the imaging device 20 is installed so as to surround the periphery of the watt-hour meter 50 at the front end portion of the housing 21 of the imaging device 20 on the front surface 211 side. In this state, when an image acquisition instruction is input from the user, the light source 23 is turned on, and the image acquisition device 22 acquires image data of the power meter 50. Then, image data as shown in FIG. 4 is acquired.

図5を参照して、実施の形態1に係る計算機30の動作を説明する。
図5に示す処理は、撮影装置20により画像データが取得されると開始される。
The operation of the computer 30 according to the first embodiment will be described with reference to FIG.
The process illustrated in FIG. 5 is started when image data is acquired by the imaging device 20.

ステップS11の名板抽出処理では、名板抽出部41は、画像取得装置22により取得された画像データにおける名板51領域部分の名板データを抽出する。
具体的には、名板抽出部41は、予め定められストレージ322に記憶された輝度範囲にある画像データ中の画素群のうち、最大の領域の画素群を名板データとして抽出する。又は、名板抽出部41は、予め定められストレージ322に記憶された名板51の参照画像とパターンマッチングを行い、類似度が最も高い領域の画素群を名板データとして抽出する。
In the nameplate extraction process of step S11, the nameplate extraction unit 41 extracts nameplate data of an area portion of the nameplate 51 in the image data acquired by the image acquisition device 22.
Specifically, the nameplate extraction unit 41 extracts, as nameplate data, the pixel group of the largest area among the pixel groups in the image data in the luminance range which is predetermined and stored in the storage 322. Alternatively, the nameplate extraction unit 41 performs pattern matching with a reference image of the nameplate 51 which is predetermined and stored in the storage 322, and extracts a pixel group of a region having the highest similarity as nameplate data.

ステップS12のカウンタ抽出処理では、文字認識部42のメータ値取得部421は、ステップS11で抽出された名板データにおける、メータ数値が示されたカウンタ領域部分のカウンタデータを抽出する。
具体的には、メータ値取得部421は、黒の画素を多く有する領域を複数個所検出し、検出された領域のうちカウンタとして尤度が高い領域の画素群をカウンタデータとして抽出する。メータ値取得部421は、検出された領域についてのカウンタとしての尤度を、名板51における領域の位置と、カウンタの参照画像とのパターンマッチングとの少なくともいずれかにより行う。
In the counter extraction process of step S12, the meter value acquisition unit 421 of the character recognition unit 42 extracts counter data of the counter area portion in which the meter value is indicated in the nameplate data extracted in step S11.
Specifically, the meter value acquisition unit 421 detects a plurality of areas having many black pixels, and extracts, as counter data, a pixel group of an area having a high likelihood as a counter among the detected areas. The meter value acquisition unit 421 performs the likelihood as a counter for the detected area by at least one of the position of the area on the name plate 51 and the reference image of the counter.

ステップS13の数字検出処理では、メータ値取得部421は、ステップS12で抽出されたカウンタデータから数値領域を検出する。
具体的には、メータ値取得部421は、カウンタデータの右側の領域から、数字文字の領域を検出することにより、最も小さい桁の数値の領域を検出する。カウンタの中には、最も下の位の値の領域だけが他の位の値の領域と異なり、白地に黒文字の場合がある。そのため、メータ値取得部421は、黒地に白文字の場合と、白地に黒文字の場合との両方の場合について検出を行う。そして、メータ値取得部421は、検出された最も小さい桁の数値の領域から左側に順に文字領域を検出する。
メータ値取得部421は、各画素についてXY座標軸にヒストグラムを計算し、立ち上がりを検出する射影変換法と、白文字及び黒文字の連結成分を抽出する連結成分分析といった手法を用いて文字領域を検出する。
In the numeral detection process of step S13, the meter value acquisition unit 421 detects a numerical value area from the counter data extracted in step S12.
Specifically, the meter value acquisition unit 421 detects the area of the numerical value of the smallest digit by detecting the area of the numeric characters from the area on the right side of the counter data. In some counters, only the area of the lowest order value is different from the area of other order values, and there may be black letters on a white background. Therefore, the meter value acquisition unit 421 performs detection in both cases of white text on a black background and black text on a white background. Then, the meter value acquisition unit 421 detects the character area in order from the area of the numerical value of the smallest digit detected to the left.
The meter value acquisition unit 421 detects a character region using a method such as a projection conversion method that calculates a histogram on the XY coordinate axis for each pixel and detects a rising edge, and a connected component analysis that extracts a connected component of white and black characters. .

ステップS14のメータ値認識処理では、メータ値取得部421は、ステップS13で検出された領域から文字認識することにより、メータ値を取得する。情報蓄積部43は、取得されたメータ値をストレージ322に書き込む。
具体的には、メータ値取得部421は、予め定められストレージ322に記憶された数値画像とのパターンマッチングといった手法により文字認識を実現する。
In the meter value recognition process of step S14, the meter value acquisition unit 421 acquires a meter value by recognizing characters from the area detected in step S13. The information storage unit 43 writes the acquired meter value in the storage 322.
Specifically, the meter value acquisition unit 421 realizes character recognition by a method such as pattern matching with a numerical image that is predetermined and stored in the storage 322.

ステップS15の単位検出処理では、文字認識部42の情報取得部422は、ステップS11で抽出された名板データにおける、各情報についての単位を検出する。
具体的には、情報取得部422は、予め定められストレージ322に記憶された単位画像とのパターンマッチングといった手法により単位を検出する。
In the unit detection process of step S15, the information acquisition unit 422 of the character recognition unit 42 detects a unit of each information in the nameplate data extracted in step S11.
Specifically, the information acquisition unit 422 detects a unit by a method such as pattern matching with a unit image which is predetermined and stored in the storage 322.

ステップS16の文字検出処理では、情報取得部422は、ステップS15で検出された単位の周辺の文字領域を検出する。
具体的には、情報取得部422は、ステップS15で検出された単位の周辺の領域について、ステップS13と同様の手法を用いて文字領域を検出する。
In the character detection process of step S16, the information acquisition unit 422 detects a character area around the unit detected in step S15.
Specifically, the information acquisition unit 422 detects a character area in the area around the unit detected in step S15, using the same method as in step S13.

ステップS17の文字認識処理では、情報取得部422は、ステップS16で検出された領域から文字認識することにより、名板51に示された文字情報を取得する。情報蓄積部43は、取得された文字情報を、ステップS14で取得されたメータ値と関連付けてストレージ322に書き込む。
具体的には、メータ値取得部421は、予め定められストレージ322に記憶された数値画像及び文字画像とのパターンマッチングといった手法により文字認識を実現する。パターンマッチングに用いられる画像は、電力量計50に示される情報に応じて予め用意してストレージ322に記憶しておけばよい。
In the character recognition process of step S17, the information acquisition unit 422 acquires character information indicated on the name plate 51 by recognizing characters from the area detected in step S16. The information storage unit 43 writes the acquired character information in the storage 322 in association with the meter value acquired in step S14.
Specifically, the meter value acquisition unit 421 realizes character recognition by a method such as pattern matching with a numerical image and a character image which are predetermined and stored in the storage 322. An image used for pattern matching may be prepared in advance according to the information shown by the power meter 50 and stored in the storage 322.

***実施の形態1の効果***
以上のように、実施の形態1に係る文字認識装置10は、光源23が筐体21の側面213に、筐体21の内側の方向、かつ、正面211の開口面と平行な方向を光軸が向くように配置される。そのため、光源23から放射された光は、透過拡散素材で掲載された内層214で反射を繰り返し、電力量計50の表面に一様に照射される。
その結果、撮影装置20により取得された画像データには、名板51部分への光が当たっていない、あるいは、光源23が映りこんでしまい、いわゆる白飛びしているといった状況が生じにくく、文字認識の精度が高くなる。
*** Effect of Embodiment 1 ***
As described above, in the character recognition device 10 according to the first embodiment, the light source 23 is directed to the side surface 213 of the housing 21 in the direction inside the housing 21 and in the direction parallel to the opening surface of the front surface 211 It is arranged so that it faces. Therefore, the light emitted from the light source 23 is repeatedly reflected by the inner layer 214 made of the transmissive diffusion material, and is uniformly irradiated on the surface of the watt-hour meter 50.
As a result, in the image data acquired by the photographing device 20, the light to the name plate 51 portion is not illuminated, or the light source 23 is reflected and it is difficult to cause a situation of so-called overexposure. The accuracy of recognition is enhanced.

実施の形態2.
実施の形態2は、光源23が移動可能になっている点が実施の形態1と異なる。実施の形態2では、この異なる点を説明する。
Second Embodiment
The second embodiment differs from the first embodiment in that the light source 23 is movable. The second embodiment will explain this difference.

***構成の説明***
図6を参照して、実施の形態2に係る撮影装置20の構成を説明する。
撮影装置20は、図1に示す構成に加え、移動装置25を備える。
移動装置25は、光源23を筐体21の前後方向(図6のX方向)に移動させる。移動装置25は、具体例としては、光源23に取り付けられたラックアンドピニオン、又は、ボールねじとレールとモータとにより構成された機構である。
*** Description of the configuration ***
The configuration of the imaging device 20 according to the second embodiment will be described with reference to FIG.
The imaging device 20 includes a moving device 25 in addition to the configuration shown in FIG.
The moving device 25 moves the light source 23 in the front-rear direction of the housing 21 (X direction in FIG. 6). As a specific example, the moving device 25 is a rack and pinion mounted on the light source 23 or a mechanism configured of a ball screw, a rail, and a motor.

***動作の説明***
図6及び図7を参照して、実施の形態2に係る撮影装置20の動作を説明する。
実施の形態1に係る撮影装置20と同様に、画像取得装置22により電力量計50の画像データが取得される。この場合、電力量計50の名板51と、画像取得装置22と、光源23との位置関係によっては、図7に示すように、光源23から放射された光が画像データに映りこんでしまう可能性がないとは言えない。図7では、光が映りこんだ部分がハッチングで示されている。
そこで、光源23から放射された光が画像データに映りこんでしまった場合には、利用者からの指示に応じて移動装置25が動作し、光源23を移動させる。そして、光源23が移動された後に、再び実施の形態1に係る撮影装置20と同様に、画像取得装置22により電力量計50の画像データが取得される。これにより、図4に示すような画像データが取得される。
なお、利用者による指示は、撮影装置20のボタン等を直接操作して入力されてもよいし、計算機30を介して入力されてもよい。
*** Description of operation ***
The operation of the imaging device 20 according to the second embodiment will be described with reference to FIGS. 6 and 7.
Similar to the imaging device 20 according to the first embodiment, the image acquisition device 22 acquires image data of the watt-hour meter 50. In this case, depending on the positional relationship between the name plate 51 of the watt-hour meter 50, the image acquisition device 22, and the light source 23, as shown in FIG. 7, the light emitted from the light source 23 may be reflected in the image data. It can not be said that there is no possibility. In FIG. 7, the part where the light was reflected is shown by hatching.
Therefore, when the light emitted from the light source 23 appears in the image data, the moving device 25 operates in accordance with the instruction from the user to move the light source 23. Then, after the light source 23 is moved, image data of the watt-hour meter 50 is acquired by the image acquisition device 22 as in the imaging device 20 according to the first embodiment. Thereby, image data as shown in FIG. 4 is acquired.
The instruction from the user may be input by directly operating a button or the like of the imaging device 20, or may be input via the computer 30.

***実施の形態2の効果***
以上のように、実施の形態2に係る文字認識装置10は、光源23を移動させることにより、電力量計50の名板51と、画像取得装置22と、光源23との位置関係を変える。これにより、光源23から放射された光が画像データに映りこむことを防止できる。その結果、文字認識の精度が高くなる。
*** Effect of Embodiment 2 ***
As described above, the character recognition device 10 according to the second embodiment changes the positional relationship between the name plate 51 of the watt-hour meter 50, the image acquisition device 22, and the light source 23 by moving the light source 23. Thereby, light emitted from the light source 23 can be prevented from being reflected in the image data. As a result, the accuracy of character recognition is enhanced.

実施の形態3.
実施の形態3は、光源23の位置を制御する機能を有する点が実施の形態2と異なる。実施の形態3では、この異なる点を説明する。
Third Embodiment
The third embodiment differs from the second embodiment in having a function of controlling the position of the light source 23. In the third embodiment, this difference will be described.

***構成の説明***
図8を参照して、実施の形態3に係る計算機30の構成を説明する。
計算機30は、図3に示す構成に加え、移動制御部44を備える。移動制御部44の機能は、他の機能と同様にソフトウェアにより実現されても、ハードウェアにより実現されてもよい。
移動制御部34は、画像データを取得する対象物である電力量計50の名板51に対する光の当たり方に応じて、移動装置25を制御して光源23の位置を設定する。
*** Description of the configuration ***
The configuration of the computer 30 according to the third embodiment will be described with reference to FIG.
The computer 30 includes a movement control unit 44 in addition to the configuration shown in FIG. The functions of the movement control unit 44 may be realized by software as well as other functions as well as by hardware.
The movement control unit 34 controls the movement device 25 to set the position of the light source 23 in accordance with how light strikes the name plate 51 of the watt-hour meter 50, which is an object for acquiring image data.

***動作の説明***
図9を参照して、実施の形態3に係る計算機30の動作を説明する。
ステップS31の処理は、図5のステップS11の処理と同じである。ステップS35からステップS40の処理は、図5のステップS12からステップS17の処理と同じである。
*** Description of operation ***
The operation of the computer 30 according to the third embodiment will be described with reference to FIG.
The process of step S31 is the same as the process of step S11 of FIG. The processes of steps S35 to S40 are the same as the processes of steps S12 to S17 of FIG.

ステップS32の画像判定処理では、移動制御部44は、ステップS31で抽出された名板データに対する光の当たり方が適正であるか否かを判定する。
具体的には、移動制御部44は、名板データにおける輝度の分散を計算し、計算された分散が閾値以下であるか否かを判定する。移動制御部44は、分散が閾値以下である場合には、光の当たり方が適正であると判定し、分散が閾値より高い場合には、光の当たり方が不適正であると判定する。
In the image determination process of step S32, the movement control unit 44 determines whether or not the light strikes the nameplate data extracted in step S31 is appropriate.
Specifically, the movement control unit 44 calculates the variance of luminance in the nameplate data, and determines whether the calculated variance is equal to or less than a threshold. The movement control unit 44 determines that the hit of light is appropriate when the dispersion is equal to or less than the threshold, and determines that the hit of light is inappropriate when the dispersion is higher than the threshold.

ステップS33の分岐処理では、移動制御部44は、ステップS32で光の当たり方が適正であると判定された場合には、処理をステップS35に進める。一方、ステップS32で光の当たり方が不適正であると判定された場合には、処理をステップS34に進める。   In the branching process of step S33, the movement control unit 44 advances the process to step S35 when it is determined in step S32 that the light strikes properly. On the other hand, if it is determined in step S32 that the light strikes are inappropriate, the process proceeds to step S34.

ステップS34の光源移動処理では、移動制御部44は、光源23を移動させる。
具体例としては、移動制御部44は、初期状態として光源23を筐体21の背面212側に配置しておき、ステップS34が実行される度に、基準距離だけ正面211側に光源23を移動させる。
In the light source moving process of step S34, the movement control unit 44 moves the light source 23.
As a specific example, the movement control unit 44 arranges the light source 23 on the back surface 212 side of the housing 21 in the initial state, and moves the light source 23 to the front surface 211 side by the reference distance each time step S34 is executed. Let

***実施の形態3の効果***
以上のように、実施の形態3に係る文字認識装置10は、名板51に対する光の当たり方に応じて光源23の位置が制御される。これにより、利用者の操作によらず、光源23から放射された光が画像データに映りこむことを防止できる。その結果、文字認識の精度が高くなる。
*** Effect of Embodiment 3 ***
As described above, in the character recognition device 10 according to the third embodiment, the position of the light source 23 is controlled in accordance with how light strikes the name plate 51. Thereby, it is possible to prevent the light emitted from the light source 23 from being reflected in the image data regardless of the operation of the user. As a result, the accuracy of character recognition is enhanced.

実施の形態4.
実施の形態4は、光源23を点灯させる位置を変えながら画像データを取得して、取得された画像データを合成する点が実施の形態1と異なる。実施の形態4では、この異なる点を説明する。
Fourth Embodiment
The fourth embodiment differs from the first embodiment in that image data is acquired while changing the position at which the light source 23 is turned on, and the acquired image data is combined. In the fourth embodiment, this difference will be described.

***構成の説明***
図10を参照して、実施の形態4に係る撮影装置20の構成を説明する。
撮影装置20は、筐体21の前後方向に複数の光源23を備える点が、図1に示す構成と異なる。
*** Description of the configuration ***
The configuration of the imaging device 20 according to the fourth embodiment will be described with reference to FIG.
The imaging device 20 differs from the configuration shown in FIG. 1 in that the imaging device 20 includes a plurality of light sources 23 in the front-rear direction of the housing 21.

図11を参照して、実施の形態4に係る計算機30の構成を説明する。
計算機30は、図3に示す構成に加え、点灯制御部45と、合成部46とを備える。点灯制御部45と、合成部46との機能は、他の機能と同様にソフトウェアにより実現されても、ハードウェアにより実現されてもよい。
点灯制御部45は、光源23を点灯させる位置を変えながら、画像取得装置22に画像データを取得させることにより、複数の画像データを取得させる。ここでは、点灯制御部45は、点灯させる光源23を変えることにより、光源23を点灯させる位置を変える。
合成部46は、複数の画像データを合成して合成データを生成する。
The configuration of the computer 30 according to the fourth embodiment will be described with reference to FIG.
The calculator 30 includes a lighting control unit 45 and a combining unit 46 in addition to the configuration shown in FIG. The functions of the lighting control unit 45 and the combining unit 46 may be realized by software as well as other functions as well as hardware.
The lighting control unit 45 causes a plurality of image data to be acquired by causing the image acquisition device 22 to acquire image data while changing the position at which the light source 23 is turned on. Here, the lighting control unit 45 changes the position at which the light source 23 is turned on by changing the light source 23 to be turned on.
The combining unit 46 combines a plurality of image data to generate combined data.

***動作の説明***
図12及び図13を参照して、実施の形態4に係る計算機30の動作を説明する。
図12の処理は、利用者から画像取得指示が入力される開始される。
*** Description of operation ***
The operation of the computer 30 according to the fourth embodiment will be described with reference to FIGS. 12 and 13.
The process of FIG. 12 is started when an image acquisition instruction is input from the user.

ステップS44からステップS49の処理は、図5のステップS12からステップS17の処理と同じである。   The processes of steps S44 to S49 are the same as the processes of steps S12 to S17 of FIG.

ステップS41の撮影処理では、点灯制御部45は、点灯させる光源23を順に変えながら、画像取得装置22に画像データを取得させる。これにより、異なる光源23が点灯した状態で取得された複数の画像データが取得される。   In the photographing process of step S41, the lighting control unit 45 causes the image acquisition device 22 to acquire image data while sequentially changing the light source 23 to be lit. Thereby, a plurality of image data acquired in a state where different light sources 23 are lit is acquired.

ステップS42の合成処理では、合成部46は、ステップS41で取得された複数の画像データそれぞれを処理対象データとして、光の当たり方に応じて、処理対象データの一部のデータである部分データを抽出する。具体的には、合成部46は、処理対象データにおける画素毎の輝度から、光源23から放射された光の映り込みがない領域の画素群を部分データとして抽出する。そして、合成部46は、抽出された部分データを合成して合成データを生成する   In the combining process of step S42, the combining unit 46 sets partial data, which is a part of data of the process target data, according to how the light hits, with each of the plurality of image data acquired in step S41 as the process target data. Extract. Specifically, the combining unit 46 extracts, as partial data, a pixel group in a region where there is no reflection of light emitted from the light source 23 from the luminance for each pixel in the processing target data. Then, the combining unit 46 combines the extracted partial data to generate combined data.

ステップS43の名板抽出処理では、名板抽出部41は、ステップS42の合成処理で生成された合成データにおける名板51部分の名板データを抽出する。   In the nameplate extraction process of step S43, the nameplate extraction unit 41 extracts the nameplate data of the nameplate 51 portion in the combined data generated in the combining process of step S42.

図13に示す画像データU,Vが画像取得装置22によって取得されたとする。画像データUは、メータ値周辺に光が映りこんでおり、画像データVは、下部のNo周辺に光が映りこんでいる。しかし、画像データU,Vのうち、光が映りこんでいない部分を合成することにより、画像データWのように名板51部分に光が映りこんでいない画像データを得ることができる。   It is assumed that the image data U and V shown in FIG. 13 are acquired by the image acquisition device 22. In the image data U, light is reflected around the meter value, and in the image data V, light is reflected around No at the bottom. However, by combining portions of the image data U and V where light is not reflected, it is possible to obtain image data in which light is not reflected in the name plate 51 like the image data W.

***実施の形態4の効果***
以上のように、実施の形態4に係る文字認識装置10は、光源23を点灯させる位置を変えながら画像データを取得して、取得された画像データを合成する。これにより、名板51部分へ光が斑なく当たった画像データを得ることができ、文字認識の精度が高くなる。
*** Effect of Embodiment 4 ***
As described above, the character recognition device 10 according to the fourth embodiment acquires image data while changing the position at which the light source 23 is turned on, and combines the acquired image data. As a result, it is possible to obtain image data in which light strikes the name plate 51 without spots, and the character recognition accuracy is enhanced.

***他の構成***
実施の形態4では、光源23を点灯させる位置を変えた。しかし、点灯させる光源23の数を変えてもよい。
*** Other configuration ***
In the fourth embodiment, the position at which the light source 23 is turned on is changed. However, the number of light sources 23 to be lit may be changed.

実施の形態4では、撮影装置20が複数の光源23を備えた。しかし、実施の形態2のように光源23を移動可能にし、点灯制御部45が光源23を移動させることにより、光源23を点灯させる位置を変えながら画像データを取得してもよい。   In the fourth embodiment, the imaging device 20 includes the plurality of light sources 23. However, as in the second embodiment, the light source 23 may be moved, and the lighting control unit 45 may move the light source 23 to obtain image data while changing the position at which the light source 23 is turned on.

実施の形態5.
実施の形態5は、計算機30が画像取得装置22を有する点が実施の形態1と異なる。実施の形態5では、この異なる点を説明する。
Embodiment 5
The fifth embodiment differs from the first embodiment in that the computer 30 has an image acquisition device 22. In the fifth embodiment, this difference will be described.

***構成の説明***
図14を参照して、実施の形態5に係る文字認識装置10の構成を説明する。
画像取得装置22は、撮影装置20ではなく、計算機30が備えている。計算機30は、スマートフォンといった画像取得装置22が一体になったコンピュータである。
文字認識装置10は、撮影装置20の筐体21の背面212に、計算機30が備える画像取得装置22配置されて、撮影装置20に計算機30が取り付けられる。筐体21の背面212には孔が開けられており、画像取得装置22はこの孔を介して正面211側の画像データを取得する。
*** Description of the configuration ***
The configuration of the character recognition device 10 according to the fifth embodiment will be described with reference to FIG.
The image acquisition device 22 is not the photographing device 20 but the calculator 30. The computer 30 is a computer in which an image acquisition device 22 such as a smartphone is integrated.
The character recognition device 10 is disposed on the back surface 212 of the housing 21 of the imaging device 20, and the image acquisition device 22 included in the computer 30 is disposed, and the computer 30 is attached to the imaging device 20. A hole is opened in the back surface 212 of the housing 21, and the image acquisition device 22 acquires image data on the front surface 211 side through the hole.

***実施の形態5の効果***
以上のように、実施の形態5に係る文字認識装置10は、画像取得装置22を計算機30側に持たせ、撮影装置20と計算機30とを一体にすることが可能である。これにより、画像データの取得の操作性が高くなる。
また、計算機30を介して光源23を制御する必要がない場合には、撮影装置20と計算機30とをケーブル等によって接続する必要がなくなる。
*** Effect of Embodiment 5 ***
As described above, in the character recognition device 10 according to the fifth embodiment, the image acquisition device 22 can be provided on the computer 30 side, and the imaging device 20 and the computer 30 can be integrated. Thereby, the operability of acquisition of image data is enhanced.
Further, when it is not necessary to control the light source 23 via the computer 30, it is not necessary to connect the imaging device 20 and the computer 30 by a cable or the like.

10 文字認識装置、20 撮影装置、21 筐体、211 正面、212 背面、213 側面、22 画像取得装置、23 光源、24 治具、25 移動装置、30 計算機、31 プロセッサ、32 記憶装置、321 メモリ、322 ストレージ、33 インタフェース、41 名板抽出部、42 文字認識部、421 メータ値取得部、422 情報取得部、43 情報蓄積部、44 移動制御部、45 点灯制御部、46 合成部、50 電力量計、51 名板。   DESCRIPTION OF SYMBOLS 10 character recognition apparatus, 20 imaging | photography apparatus, 21 housing | casing, 211 front, 212 back surface, 213 side, 22 image acquisition apparatus, 23 light source, 24 jigs, 25 moving apparatuses, 30 calculators, 31 processors, 32 memory | storage devices, 321 memory , 322 storage, 33 interface, 41 name plate extraction unit, 42 character recognition unit, 421 meter value acquisition unit, 422 information acquisition unit, 43 information storage unit, 44 movement control unit, 45 lighting control unit, 46 combining unit, 50 power Meter, 51 name boards.

Claims (8)

側面が光を透過拡散させる透過拡散素材で形成された内層と、前記内層の外側に設けられ、外部の光を遮断する遮断素材で形成された外層とを有し、正面が開口した筐体と、
前記筐体の背面に、前記正面の方の画像データを取得するように設けられた画像取得装置と、
前記筐体の側面に、前記筐体の内側の方向、かつ、前記正面の開口面と平行な方向を光軸が向くように配置された光源と、
前記画像取得装置によって撮影されて得られた画像データから文字情報を認識し、記憶装置に記憶する文字認識部と
を備える文字認識装置。
A housing having an inner layer formed of a transmissive diffusion material, the side surfaces of which transmit and diffuse light, and an outer layer formed outside the inner layer and formed of a blocking material that blocks external light ; ,
An image acquisition apparatus provided on the back of the housing to acquire image data of the front side;
A light source disposed on the side surface of the housing so that the optical axis is directed in a direction inward of the housing and a direction parallel to the opening surface of the front surface;
A character recognition unit that recognizes character information from image data captured and obtained by the image acquisition device and stores the character information in a storage device.
前記文字認識装置は、さらに、
前記光源を移動させる移動装置
を備える請求項に記載の文字認識装置。
The character recognition device further includes:
The character recognition device according to claim 1 , further comprising a moving device for moving the light source.
前記文字認識装置は、さらに、
前記画像データを取得する対象物に対する光の当たり方に応じて、前記移動装置を制御して前記光源の位置を設定する移動制御部
を備える請求項に記載の文字認識装置。
The character recognition device further includes:
The character recognition device according to claim 2 , further comprising: a movement control unit configured to control the movement device to set the position of the light source in accordance with how light strikes an object for which the image data is to be acquired.
前記文字認識装置は、さらに、
前記光源を点灯させる位置を変えながら、前記画像取得装置に画像データを取得させることにより、複数の画像データを取得させる点灯制御部と、
前記複数の画像データを合成して合成データを生成する合成部と
を備え、
前記文字認識部は、前記合成部によって生成された合成データから文字情報を認識する請求項1からまでのいずれか1項に記載の文字認識装置。
The character recognition device further includes:
A lighting control unit that causes a plurality of image data to be acquired by causing the image acquisition device to acquire image data while changing the position at which the light source is turned on;
And a combining unit configured to combine the plurality of image data to generate combined data.
The character recognition device according to any one of claims 1 to 3 , wherein the character recognition unit recognizes character information from composite data generated by the combining unit.
前記合成部は、前記複数の画像データそれぞれを処理対象データとして、光の当たり方に応じて、前記処理対象データの一部のデータである部分データを抽出し、抽出された部分データを合成して前記合成データを生成する
請求項に記載の文字認識装置。
The combining unit extracts partial data that is a part of the data to be processed according to how much light is processed, using each of the plurality of image data as processing data, and combines the extracted partial data. The character recognition device according to claim 4 , wherein the synthetic data is generated.
前記文字認識装置は、前記筐体と前記光源とを有する撮影装置に、前記画像取得装置と前記文字認識部を有する計算機が取り付けられて構成された
請求項1からまでのいずれか1項に記載の文字認識装置。
The character recognition device according to any one of claims 1 to 5 , wherein a computer having the image acquisition device and the character recognition unit is attached to a photographing device having the housing and the light source. Character recognition device as described.
前記画像取得装置は、対象物の周囲を前記筐体の側面で囲った状態で、前記対象物についての画像データを取得する
請求項1からまでのいずれか1項に記載の文字認識装置。
The character recognition device according to any one of claims 1 to 6 , wherein the image acquisition device acquires image data of the object in a state where the periphery of the object is surrounded by the side surface of the housing.
前記画像取得装置は、使用量を表すメータ値が示された使用量計の画像データを取得し、
前記文字認識部は、前記画像データから前記メータ値のうち、最も小さい位の値が白地に黒文字があることを考慮して、メータ値を認識する
請求項1からまでのいずれか1項に記載の文字認識装置。
The image acquisition device acquires image data of a usage meter in which a meter value representing the usage is indicated;
The character recognition unit according to any one of claims 1 to 7 , wherein the character recognition unit recognizes a meter value in consideration of the fact that the lowest value of the meter values in the image data includes black characters on a white background. Character recognition device as described.
JP2016028782A 2016-02-18 2016-02-18 Character recognition device Active JP6505034B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016028782A JP6505034B2 (en) 2016-02-18 2016-02-18 Character recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016028782A JP6505034B2 (en) 2016-02-18 2016-02-18 Character recognition device

Publications (2)

Publication Number Publication Date
JP2017146225A JP2017146225A (en) 2017-08-24
JP6505034B2 true JP6505034B2 (en) 2019-04-24

Family

ID=59681340

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016028782A Active JP6505034B2 (en) 2016-02-18 2016-02-18 Character recognition device

Country Status (1)

Country Link
JP (1) JP6505034B2 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3677666B2 (en) * 1996-07-08 2005-08-03 九州電力株式会社 Optical character recognition device
JP2004030696A (en) * 1997-12-19 2004-01-29 Fujitsu Ltd Character string extraction apparatus and pattern extraction apparatus
JP4293261B2 (en) * 2007-04-09 2009-07-08 株式会社日立製作所 Image shooting device
JP2009199947A (en) * 2008-02-22 2009-09-03 Seiko Epson Corp Light source device and original document reading device
JP2013171451A (en) * 2012-02-21 2013-09-02 Denso Wave Inc Information code reading device
JP2015095234A (en) * 2013-11-14 2015-05-18 大日本印刷株式会社 Reading system and reading method
JP5863888B2 (en) * 2014-06-27 2016-02-17 株式会社Pfu Image reading device

Also Published As

Publication number Publication date
JP2017146225A (en) 2017-08-24

Similar Documents

Publication Publication Date Title
CN108280822B (en) Screen scratch detection method and device
RU2678478C2 (en) Lights control in environment of eye motion tracking
US11663803B2 (en) System for counting quantity of game tokens
KR101687163B1 (en) Apparatus and method for inspection of touch panel
US20190273907A1 (en) Coordination of multiple structured light-based 3d image detectors
JP2021103555A (en) Image detection method, device, electronic apparatus, storage medium, and program
CN105303156B (en) Character detection device, method, and program
CN211959311U (en) Image scanning device
US20190164281A1 (en) Robotic pill filling, counting, and validation
US20210248350A1 (en) Real/fake fingerprint recognition device, method, and non-transitory computer readable storage medium
US20140320638A1 (en) Electronic device and method for detecting surface flaw of sample
US20210093227A1 (en) Image processing system and control method thereof
EP4000003A1 (en) Assay reading method
US11156901B2 (en) Light shield shutters for cameras
TW201824180A (en) Inspection device, inspection method, and program
JP6505034B2 (en) Character recognition device
JP2015176282A (en) Image processing method, image processor, program for executing the same method, and recording medium for recording the same program
US20180114050A1 (en) Image capturing apparatus and biometric authentication apparatus
US11763445B2 (en) Inspection of a target object using a comparison with a master image and a strictness of a quality evaluation threshold value
KR102248673B1 (en) Method for identificating traffic lights, device and program using the same
CN108204974A (en) For positioning the positioning device of personnel to be scanned and method
US9430823B1 (en) Determining camera sensor isolation
KR102575685B1 (en) Display panel inspection device and operation method thereof
CN115100192B (en) Smear detection method, device and electronic apparatus
CN102999233A (en) Automatic interference point shielding method and device for electronic whiteboard based on image sensor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180924

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190326

R150 Certificate of patent or registration of utility model

Ref document number: 6505034

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250