JP2020135324A - Image processing device, image processing program, image processing method and information collection system - Google Patents

Image processing device, image processing program, image processing method and information collection system Download PDF

Info

Publication number
JP2020135324A
JP2020135324A JP2019026897A JP2019026897A JP2020135324A JP 2020135324 A JP2020135324 A JP 2020135324A JP 2019026897 A JP2019026897 A JP 2019026897A JP 2019026897 A JP2019026897 A JP 2019026897A JP 2020135324 A JP2020135324 A JP 2020135324A
Authority
JP
Japan
Prior art keywords
indicator needle
image
image processing
coordinate
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019026897A
Other languages
Japanese (ja)
Other versions
JP7279397B2 (en
Inventor
貴仁 古川
Takahito Furukawa
貴仁 古川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2019026897A priority Critical patent/JP7279397B2/en
Publication of JP2020135324A publication Critical patent/JP2020135324A/en
Application granted granted Critical
Publication of JP7279397B2 publication Critical patent/JP7279397B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Arrangements For Transmission Of Measured Signals (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

To enable the reading of an indication value of an indication needle instrument by suppressing a calculation amount and a memory usage amount required for image processing.SOLUTION: According to the present invention, an image processing device for deriving an indication value of an indication needle instrument from a picked-up image obtained by photographing a display surface of the indication needle instrument includes: a projective transformation part for using a projective transformation parameter between a virtual reference image of the indication needle instrument and an image of the indication needle instrument in the inputted picked-up image to projectively transforming an indication needle detection coordinate sequence having a plurality of coordinate values showing positions of an indication needle of the indication needle instrument in the reference image or the picked-up image; an indication needle detection part for detecting the position of the indication needle from a plurality of pixel values extracted from the picked-up image by using the projectively transformed indication needle detection coordinate sequence or a plurality of pixel values extracted from a picked-up image projectively transformed by using the indication needle detection coordinate sequence; and an indication value derivation part for deriving an indication value corresponding to the position of the indication needle detected by the indication needle detection part.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置、画像処理プログラム、画像処理方法及び情報収集システムに関する。 The present invention relates to an image processing apparatus, an image processing program, an image processing method, and an information collecting system.

例えば、アナログメータは、目盛り盤と、目盛り盤の目盛りの並びに沿って指示針が移動して、目的対象の測定値を計測する計器である。このようなアナログメータは、様々な場面で利用されているが、例えば工場等の施設にある設備機器に設けられており、作業者がアナログメータの測定値を視認しながら設備機器の監視を行なうような場合に多く利用されている。 For example, an analog meter is an instrument that measures a measured value of a target object by moving an indicator needle along the scale plate and the scale sequence of the scale plate. Such analog meters are used in various situations. For example, they are installed in equipment in facilities such as factories, and an operator monitors the equipment while visually observing the measured values of the analog meter. It is often used in such cases.

近年、工場等の施設では運用コストの削減の1つとして、アナログメータの測定値を自動的に読み取ることができ、そのデータを収集することが要求されている。アナログメータの自動読取方法には様々なものがあるが、その一例として、例えばアナログメータの交換やアナログメータの視認作業の自動化などがある。 In recent years, in facilities such as factories, as one of the reductions in operating costs, it is required to be able to automatically read the measured values of analog meters and collect the data. There are various methods for automatically reading an analog meter, and one example thereof is replacement of an analog meter or automation of visual inspection work of the analog meter.

アナログメータの交換とは、現在使用しているアナログメータに代えて、指示針が示す指示値をデジタルデータとして出力する専用メータに交換する方法である。この場合、現在使用しているアナログメータを専用メータに交換する必要があり、その交換期間のあいだ設備機器を停止させなければならないという問題がある。 Replacing the analog meter is a method of replacing the currently used analog meter with a dedicated meter that outputs the indicated value indicated by the indicator needle as digital data. In this case, there is a problem that it is necessary to replace the analog meter currently in use with a dedicated meter, and the equipment must be stopped during the replacement period.

アナログメータの視認作業の自動化は、アナログメータの指示針及び目盛り盤をカメラで撮影し、撮影された撮像画像を画像処理して、指示針が示す指示値を読み取るというものである。この場合、アナログメータを撮影するカメラと、撮像画像を画像処理する画像処理装置とを含む指示値読取装置を施設に設置することで、指示値の読み取りを自動化することができる。このような指示値読取装置を導入することで、例えば設備機器などを停止する必要がないという利点があるので、強い要求がある。 The automation of the visual inspection work of the analog meter is to take a picture of the indicator needle and the dial of the analog meter with a camera, process the captured image, and read the indicated value indicated by the indicator needle. In this case, the reading of the indicated value can be automated by installing an indicated value reading device including a camera that captures an analog meter and an image processing device that processes the captured image in the facility. Introducing such an indicated value reading device has an advantage that it is not necessary to stop equipment or the like, for example, and therefore there is a strong demand.

従来、アナログメータの視認作業の自動化に関するものとして、例えば特許文献1に開示されるものがある。特許文献1の記載技術は、カメラで撮像された撮像画像に映っている指示針の位置を検出するために、撮像画像の全体を2値化して、画像中の黒色を示す画素を探索していき、黒色を示す画素が最も多くある領域に、指示針が位置していると判定するものである。 Conventionally, there is one disclosed in Patent Document 1, for example, as one relating to automation of visual inspection work of an analog meter. In the technique described in Patent Document 1, in order to detect the position of the indicator needle reflected in the captured image captured by the camera, the entire captured image is binarized and a pixel showing black color in the image is searched for. It is determined that the indicator needle is located in the area where the number of black pixels is the largest.

ところで、上述した指示値読取装置は、それぞれのアナログメータに設置する必要がある。そのため、例えば工場等の施設のように、多数のアナログメータがある場合には、メータ読取装置の導入コストが高くなってしまうので、その導入コストを低く抑えることが要求されている。 By the way, the above-mentioned reading device for reading needs to be installed in each analog meter. Therefore, when there are a large number of analog meters, for example, in a facility such as a factory, the introduction cost of the meter reading device becomes high, and it is required to keep the introduction cost low.

特開2017−126187号公報Japanese Unexamined Patent Publication No. 2017-126187

しかしながら、上述した特許文献1の記載技術は、撮像画像の全体を2値化処理したり、画像全体において画素探索を行なう必要があるので、演算処理量が膨大となり、画像処理に係る負荷が大きいという問題がある。また、高性能かつ高価な演算処理装置やカメラなどを用いることが必要となってしまい、導入コストを抑えることが難しいという課題もある。 However, in the above-mentioned description technique of Patent Document 1, it is necessary to binarize the entire captured image or perform pixel search in the entire image, so that the amount of calculation processing becomes enormous and the load related to the image processing is large. There is a problem. In addition, it becomes necessary to use a high-performance and expensive arithmetic processing device, a camera, or the like, and there is also a problem that it is difficult to suppress the introduction cost.

そこで、本発明は、上記の課題に鑑み、画像処理に要する計算量およびメモリ使用量を抑えて、アナログメータの指示針が示す値を読み取ることが可能な画像処理装置、画像処理プログラム、画像処理方法及び情報収集システムを提供しようとするものである。 Therefore, in view of the above problems, the present invention has an image processing device, an image processing program, and an image processing capable of reading the value indicated by the indicator needle of the analog meter while suppressing the amount of calculation and the amount of memory used for image processing. It seeks to provide methods and information gathering systems.

かかる課題を解決するために、第1の本発明に係る画像処理装置は、指示針計器の表示面を撮影した撮像画像から指示針計器の指示値を導出する画像処理装置において、(1)指示針計器の仮想的な基準画像と、入力された撮像画像中の指示針計器の画像との射影変換パラメータを用いて、基準画像で指示針計器の指示針の位置を示す複数の座標値を有する指示針検出座標列、若しくは、撮像画像を射影変換する射影変換部と、(2)射影変換された指示針検出座標列を用いて撮像画像から抽出した複数の画素値、若しくは、指示針検出座標列を用いて射影変換された撮像画像から抽出した複数の画素値から、指示針の位置を検出する指示針検出部と、(3)指示針検出部より検出された指示針の位置に対応する指示値を導出する指示値導出部とを備えることを特徴とする。 In order to solve such a problem, the first image processing apparatus according to the present invention is an image processing apparatus for deriving an indicated value of an indicating needle instrument from an image captured by photographing the display surface of the indicating needle instrument. It has a plurality of coordinate values indicating the position of the indicator needle of the indicator needle instrument in the reference image using the projection conversion parameter of the virtual reference image of the needle instrument and the image of the indicator needle instrument in the input captured image. A projection conversion unit that projects and transforms the indicator needle detection coordinate sequence or the captured image, and (2) a plurality of pixel values extracted from the captured image using the projection-converted indicator needle detection coordinate sequence, or the indicator needle detection coordinates. Corresponds to the indicator needle detection unit that detects the position of the indicator needle from a plurality of pixel values extracted from the captured image that has been projected and converted using columns, and (3) the position of the indicator needle detected by the indicator needle detection unit. It is characterized by including an instruction value derivation unit for deriving an instruction value.

第2の本発明に係る画像処理プログラムは、指示針計器の表示面を撮影した撮像画像から指示針計器の指示値を導出する画像処理プログラムにおいて、コンピュータを、(1)指示針計器の仮想的な基準画像と、入力された撮像画像中の指示針計器の画像との射影変換パラメータを用いて、基準画像で指示針計器の指示針の位置を示す複数の座標値を有する指示針検出座標列、若しくは、撮像画像を射影変換する射影変換部と、(2)射影変換された指示針検出座標列を用いて撮像画像から抽出した複数の画素値、若しくは、指示針検出座標列を用いて射影変換された撮像画像から抽出した複数の画素値から、指示針の位置を検出する指示針検出部と、(3)指示針検出部より検出された指示針の位置に対応する指示値を導出する指示値導出部として機能させることを特徴とする。 The second image processing program according to the present invention is an image processing program for deriving the indicated value of the indicator needle meter from an image captured by photographing the display surface of the indicator needle instrument, in which the computer is used as (1) a virtual indicator needle instrument. Indicator needle detection coordinate sequence having a plurality of coordinate values indicating the position of the indicator needle of the indicator needle instrument in the reference image using the projection conversion parameter of the reference needle and the image of the indicator needle instrument in the input captured image. Or, a projection conversion unit that projects and transforms the captured image, and (2) a plurality of pixel values extracted from the captured image using the projection-converted indicator needle detection coordinate sequence, or projection using the indicator needle detection coordinate sequence. From the plurality of pixel values extracted from the converted captured image, the indicator needle detection unit that detects the position of the indicator needle and (3) the indicator value corresponding to the position of the indicator needle detected by the indicator needle detection unit are derived. It is characterized in that it functions as an instruction value derivation unit.

第3の本発明に係る画像処理方法は、指示針計器の表示面を撮影した撮像画像から指示針計器の指示値を導出する画像処理方法において、(1)射影変換部が、指示針計器の仮想的な基準画像と、入力された撮像画像中の指示針計器の画像との射影変換パラメータを用いて、基準画像で指示針計器の指示針の位置を示す複数の座標値を有する指示針検出座標列、若しくは、撮像画像を射影変換し、(2)指示針検出部が、射影変換された指示針検出座標列を用いて撮像画像から抽出した複数の画素値、若しくは、指示針検出座標列を用いて射影変換された撮像画像から抽出した複数の画素値から、指示針の位置を検出し、(3)指示値導出部が、指示針検出部より検出された指示針の位置に対応する指示値を導出することを特徴とする。 The third image processing method according to the present invention is an image processing method for deriving an indicated value of the indicator needle instrument from an image captured by photographing the display surface of the indicator needle instrument. In the image processing method, (1) the projective conversion unit of the indicator needle instrument Using the projective conversion parameters of the virtual reference image and the image of the indicator needle in the input captured image, the indicator needle detection having a plurality of coordinate values indicating the position of the indicator needle of the indicator needle in the reference image The coordinate sequence or the captured image is projected and converted, and (2) a plurality of pixel values extracted from the captured image by the indicator needle detection unit using the projected-converted indicator needle detection coordinate sequence, or the indicator needle detection coordinate sequence. The position of the indicator needle is detected from a plurality of pixel values extracted from the image captured by the homograph using the above method, and (3) the indicator value derivation unit corresponds to the position of the indicator needle detected by the indicator needle detection unit. It is characterized by deriving an indicated value.

第4の本発明に係る情報収集システムは、(1)指示針計器の表示面を撮影した撮像画像から前記指示針計器の指示値を導出する画像処理装置と、(2)画像処理装置により導出された指示針計器の指示値を含む信号を送信する第1の通信装置と、(3)第1の通信装置から送信された前記信号を受信する第2の通信装置と、(4)第2の通信装置により受信された信号に含まれている指示値を記憶する管理装置とを備え、画像処理装置が、第1の本発明に係る画像処理装置であることを特徴とする。 The fourth information collecting system according to the present invention is derived by (1) an image processing device that derives an indicated value of the indicated needle meter from an captured image obtained by photographing the display surface of the indicated needle meter, and (2) an image processing device. A first communication device that transmits a signal including an indicated value of the indicated needle meter, (3) a second communication device that receives the signal transmitted from the first communication device, and (4) a second. The image processing device is the first image processing device according to the present invention, which includes a management device for storing an instruction value included in a signal received by the communication device of the above.

本発明によれば、画像処理に要する計算量およびメモリ使用量を抑えて、アナログメータの指示針が示す値を読み取ることができる。 According to the present invention, it is possible to read the value indicated by the indicator needle of the analog meter while suppressing the amount of calculation and the amount of memory used for image processing.

第1の実施形態に係る情報収集システムの全体構成を示す構成図である。It is a block diagram which shows the whole structure of the information gathering system which concerns on 1st Embodiment. アナログメータを撮像するカメラとアナログメータとの相対的な位置関係と撮像画像の一例を説明する説明図である(その1)。It is explanatory drawing explaining the relative positional relationship between the camera which takes an image of an analog meter, and an analog meter, and an example of the captured image (the 1). 第1の実施形態に係る画像処理装置の内部構成を示す内部構成図である。It is an internal block diagram which shows the internal structure of the image processing apparatus which concerns on 1st Embodiment. 第1の実施形態に係る姿勢基準情報を説明する説明図である。It is explanatory drawing explaining the posture reference information which concerns on 1st Embodiment. 第1の実施形態に係る指示針検出座標列を説明する説明図である。It is explanatory drawing explaining the indicator needle detection coordinate sequence which concerns on 1st Embodiment. 第1の実施形態に係る画像処理方法の動作を示すフローチャートである。It is a flowchart which shows the operation of the image processing method which concerns on 1st Embodiment. 第1の実施形態に係る姿勢情報検出部による4個の頂点座標の検出方法を示すフローチャートである。It is a flowchart which shows the detection method of the coordinates of four vertices by the posture information detection part which concerns on 1st Embodiment. 第1の実施形態に係る姿勢情報検出部による4個の頂点座標の検出方法を説明する説明図である。It is explanatory drawing explaining the detection method of the four vertex coordinates by the posture information detection part which concerns on 1st Embodiment. 第1の実施形態における指示針検出画素値列と指示針検出座標列との関係を説明する説明図である。It is explanatory drawing explaining the relationship between the indicator needle detection pixel value string and the indicator needle detection coordinate string in the 1st Embodiment. アナログメータを撮像するカメラとアナログメータとの相対的な位置関係と撮像画像の一例を説明する説明図である(その2)。It is explanatory drawing explaining the relative positional relationship between the camera which images an analog meter and an analog meter, and an example of the captured image (the 2). 第2の実施形態に係る画像処理装置の内部構成を示す内部構成図である。It is an internal block diagram which shows the internal structure of the image processing apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る姿勢情報検出治具の構成を示す構成図である。It is a block diagram which shows the structure of the posture information detection jig which concerns on 2nd Embodiment. 第2の実施形態に係る姿勢情報検出治具をアナログメータに取り付けた状態を説明する説明図である。It is explanatory drawing explaining the state which attached the posture information detection jig which concerns on 2nd Embodiment to an analog meter. 第2の実施形態に係る画像処理装置による画像処理の動作を示すフローチャートである。It is a flowchart which shows the operation of the image processing by the image processing apparatus which concerns on 2nd Embodiment. 姿勢基準情報の4個の基準点を変換元として、姿勢情報検出治具の4個の頂点を変換先とした射影変換を説明する説明図である。It is explanatory drawing explaining the projecting transformation which made the four reference points of the posture reference information a conversion source, and the four vertices of a posture information detection jig as a conversion destination. 第2の実施形態に係る姿勢情報検出部の姿勢情報検出治具の検出方法を示すフローチャートである。It is a flowchart which shows the detection method of the posture information detection jig of the posture information detection part which concerns on 2nd Embodiment. 第2の実施形態の4個の頂点にラベルを付与する方法を説明する説明図である。It is explanatory drawing explaining the method of giving a label to four vertices of the 2nd Embodiment. 第3の実施形態に係る姿勢情報検出治具の構成を示す構成図である。It is a block diagram which shows the structure of the posture information detection jig which concerns on 3rd Embodiment. 第3の実施形態に係る姿勢情報検出治具をアナログメータに取り付けた状態を説明する説明図である。It is explanatory drawing explaining the state which attached the posture information detection jig which concerns on 3rd Embodiment to an analog meter. 第3の実施形態に係る姿勢情報検出部の姿勢情報検出治具の検出方法を示すフローチャートである。It is a flowchart which shows the detection method of the posture information detection jig of the posture information detection part which concerns on 3rd Embodiment. 第4の実施形態に係る画像処理装置の内部構成を示す内部構成図である。It is an internal block diagram which shows the internal structure of the image processing apparatus which concerns on 4th Embodiment. 第4の実施形態に係る画像処理装置における画像処理を示すフローチャートである。It is a flowchart which shows the image processing in the image processing apparatus which concerns on 4th Embodiment. 第1の実施形態において、検出した指示針角度と指示値との対応関係を示すテーブルの構成を例示する構成図である。In the first embodiment, it is a block diagram which illustrates the structure of the table which shows the correspondence relationship between the detected indicator needle angle and the indicator value. 変形実施形態に係る指示針検出座標列の各座標値を含む一定領域の画素値を判断する場合を説明する説明図である。It is explanatory drawing explaining the case which determines the pixel value of a certain region including each coordinate value of the indicator needle detection coordinate string which concerns on a modification embodiment. 変形実施形態に係るアナログメータの目盛り盤及び指示針の構成と、姿勢基準情報の構成を示す構成図である。It is a block diagram which shows the structure of the scale board and the indicator needle of the analog meter which concerns on the modification embodiment, and the structure of the posture reference information.

(A)第1の実施形態
以下では、本発明に係る画像処理装置、画像処理プログラム、画像処理方法及び情報収集システムの第1の実施形態を、図面を参照しながら詳細に説明する。
(A) First Embodiment In the following, the first embodiment of the image processing apparatus, the image processing program, the image processing method, and the information collecting system according to the present invention will be described in detail with reference to the drawings.

(A−1)第1の実施形態の構成
(A−1−1)情報収集システムの全体構成
図1は、第1の実施形態に係る情報収集システムの全体構成を示す構成図である。
(A-1) Configuration of First Embodiment (A-1-1) Overall Configuration of Information Collection System FIG. 1 is a configuration diagram showing an overall configuration of an information collection system according to the first embodiment.

図1において、第1の実施形態に係る情報収集システム10は、アナログメータ1、カメラ2、画像処理装置3、通信装置4及び5、管理装置6を有する。 In FIG. 1, the information collection system 10 according to the first embodiment includes an analog meter 1, a camera 2, an image processing device 3, communication devices 4 and 5, and a management device 6.

情報収集システム10は、カメラ2がアナログメータ1を撮影し、その撮像画像からアナログメータ1の指示針が指し示している指示値を取得し、指示値を読み取ったり、指示値を収集したりするものである。これにより、アナログメータ1の指示値をリアルタイムで読み取ることができたり、指示値を蓄積していき履歴情報として保持することもできる。 In the information collecting system 10, the camera 2 photographs the analog meter 1, acquires the indicated value pointed by the indicator needle of the analog meter 1 from the captured image, reads the indicated value, and collects the indicated value. Is. As a result, the indicated value of the analog meter 1 can be read in real time, and the indicated value can be accumulated and held as history information.

アナログメータ1は、目盛り盤と、目盛り盤に配列されている目盛りに沿って指示針が移動し、測定値を計測する指示針式計器である。アナログメータ1は、例えば工場などの施設にある設備機器等に設けられているものとすることができ、例えばアナログ電圧計、アナログ電流計等のような計器とすることができる。アナログメータ1には、回転軸を軸として指示針が目盛り盤の目盛領域で回転するものや、目盛り盤が縦方向若しくは横方向にあり、指示針が縦方向若しくは横方向に移動するものなどがあるが、この実施形態では、目盛り盤の目盛り領域で、指示針が回転するタイプを例示して説明する。 The analog meter 1 is an indicator needle type instrument in which an indicator needle moves along a scale plate and scales arranged on the scale plate to measure a measured value. The analog meter 1 can be installed in equipment or the like in a facility such as a factory, and can be an instrument such as an analog voltmeter or an analog ammeter. Some analog meters 1 have an indicator needle that rotates around the rotation axis in the scale area of the scale plate, and one that has a scale plate in the vertical or horizontal direction and the indicator needle moves in the vertical or horizontal direction. However, in this embodiment, a type in which the indicator needle rotates in the scale area of the scale plate will be described as an example.

カメラ2は、アナログメータ1を撮像する撮像装置であり、接続している画像処理装置3に撮像画像を与えるものである。カメラ2は、例えば撮像した画像を補正する機能等を有していない汎用的なカメラを適用することができる。その結果、安価なカメラを用いることができるので、指示値読取システムの導入コストを抑えることができる。 The camera 2 is an image pickup device that captures an image of the analog meter 1, and gives the captured image to the connected image processing device 3. As the camera 2, for example, a general-purpose camera that does not have a function of correcting a captured image or the like can be applied. As a result, since an inexpensive camera can be used, the introduction cost of the indicated value reading system can be suppressed.

画像処理装置3は、カメラ2からアナログメータ1を含む撮像画像を取得し、その撮像画像を解析して、当該撮像画像において指示針の指示値を導出するものである。また、画像処理装置3は、指示値を含むデータを通信装置4に与えるものである。画像処理装置3の詳細な説明は後述するが、この実施形態によれば、指示値の算出処理の処理負荷を抑えることができるので、マイクロコンピュータ等の汎用な演算処理装置を用いることができ、指示値読取システムの導入コストを抑えることができる。 The image processing device 3 acquires a captured image including the analog meter 1 from the camera 2, analyzes the captured image, and derives an indicated value of the indicator needle in the captured image. Further, the image processing device 3 supplies data including the indicated value to the communication device 4. A detailed description of the image processing device 3 will be described later, but according to this embodiment, since the processing load of the instruction value calculation process can be suppressed, a general-purpose arithmetic processing device such as a microcomputer can be used. The introduction cost of the indicated value reading system can be suppressed.

通信装置4及び5は、アナログメータ1の指示値データを含む信号を授受する通信装置である。通信装置4は、画像処理装置3から取得したアナログメータ1の指示値データを含む通信信号を送信するものであり、通信装置5は、通信装置4から送信された通信信号を受信し、その通信信号に含まれている指示値データを管理装置6に与えるものである。通信装置4及び5は、例えばマルチホップ無線通信の無線通信プロトコル等に従って無線通信するものを適用することができる。なお、無線通信プロトコルは、特に限定されるものではない。さらに、通信装置4及び5は、有線通信によりアナログメータ1の指示値データを含む信号を通信するものであってもよい。 The communication devices 4 and 5 are communication devices that send and receive signals including the indicated value data of the analog meter 1. The communication device 4 transmits a communication signal including the indicated value data of the analog meter 1 acquired from the image processing device 3, and the communication device 5 receives the communication signal transmitted from the communication device 4 and communicates therewith. The instruction value data included in the signal is given to the management device 6. As the communication devices 4 and 5, for example, those that perform wireless communication according to the wireless communication protocol of multi-hop wireless communication can be applied. The wireless communication protocol is not particularly limited. Further, the communication devices 4 and 5 may communicate signals including the indicated value data of the analog meter 1 by wire communication.

管理装置6は、通信装置5から与えられたアナログメータ1の指示値データを記録し、アナログメータ1の指示値データを管理するものである。管理装置6は、CPU等の演算処理装置やモニタ等の表示手段などを有し、アナログメータ1の指示値データをリアルタイムで表示したり、履歴をとった過去の指示値データを用いて統計処理等を行ない、そのデータを表示したりすることができる。なお、指示値データを用いた管理装置6の管理方法は、特に限定されるものではなく様々な方法を適用できる。 The management device 6 records the indicated value data of the analog meter 1 given by the communication device 5, and manages the indicated value data of the analog meter 1. The management device 6 has an arithmetic processing unit such as a CPU, a display means such as a monitor, and the like, displays the indicated value data of the analog meter 1 in real time, and statistically processes using the past indicated value data for which history has been taken. Etc., and the data can be displayed. The management method of the management device 6 using the indicated value data is not particularly limited, and various methods can be applied.

(A−1−2)カメラによる撮像画像の例
図2は、アナログメータ1を撮像するカメラ2とアナログメータ1との相対的な位置関係と撮像画像の一例を説明する説明図である。
(A-1-2) Example of Image Captured by Camera FIG. 2 is an explanatory diagram illustrating a relative positional relationship between the camera 2 that captures the analog meter 1 and the analog meter 1 and an example of the captured image.

アナログメータ1は、例えば設備機器等に設置されていることが多いので、アナログメータ1の位置や向きを変えることができないことが想定される。カメラ2の撮像画像を解析してアナログメータ1の指示針の指示値を算出する場合、アナログメータ1の正面にカメラ2が配置されていることが望ましいが、必ずしもそのような位置関係とならないケースもある。 Since the analog meter 1 is often installed in equipment, for example, it is assumed that the position and orientation of the analog meter 1 cannot be changed. When analyzing the captured image of the camera 2 and calculating the indicated value of the indicator needle of the analog meter 1, it is desirable that the camera 2 is arranged in front of the analog meter 1, but the positional relationship is not always such a case. There is also.

この実施形態では、汎用的なカメラ2を用いる場合を想定しているので、カメラ2の姿勢やアナログメータ1との相対的な位置関係に応じて、撮像画像は補正されない。 In this embodiment, since it is assumed that a general-purpose camera 2 is used, the captured image is not corrected according to the posture of the camera 2 and the relative positional relationship with the analog meter 1.

そこで、ここでは、まず、アナログメータ1とカメラ2との相対的な位置関係を説明し、そのような位置関係にある場合に、撮像画像に映し出されるアナログメータ1の画像を説明する。 Therefore, here, first, the relative positional relationship between the analog meter 1 and the camera 2 will be described, and when there is such a positional relationship, the image of the analog meter 1 projected on the captured image will be described.

図2(A)は、カメラ2がアナログメータ1の正面に配置されている場合を例示する。この場合、カメラ2は、アナログメータ1のパネル部分(目盛り盤及び指示針がある部分)を正面から撮影することができ、図2(B)に示すような撮像画像P1が得られる。このとき、撮像画像P1に映し出されるアナログメータ1の像は正立姿勢となる。 FIG. 2A illustrates a case where the camera 2 is arranged in front of the analog meter 1. In this case, the camera 2 can take a picture of the panel portion (the portion where the scale board and the indicator needle are located) of the analog meter 1 from the front, and the captured image P1 as shown in FIG. 2B can be obtained. At this time, the image of the analog meter 1 projected on the captured image P1 is in an upright posture.

なお、カメラ2による撮像画像は、画像座標系において一定の大きさを有しており、画像座標系のXY平面上の座標値(XY座標値)で表すことができる。 The image captured by the camera 2 has a certain size in the image coordinate system, and can be represented by a coordinate value (XY coordinate value) on the XY plane of the image coordinate system.

一方、図2(C)は、アナログメータ1に対して左斜め方向にカメラ2が配置されている場合を例示している。この場合、カメラ2は、アナログメータ1のパネル部分を左斜め方向から撮影することになるので、図2(D)に示すような撮像画像P2が得られる。つまり、撮像画像P2に映し出されるアナログメータ1の像は、斜めに変形した姿勢となる。 On the other hand, FIG. 2C illustrates a case where the camera 2 is arranged diagonally to the left with respect to the analog meter 1. In this case, since the camera 2 captures the panel portion of the analog meter 1 from an oblique left direction, the captured image P2 as shown in FIG. 2D can be obtained. That is, the image of the analog meter 1 projected on the captured image P2 has an obliquely deformed posture.

このように、アナログメータ1に対するカメラ2の位置やカメラ2の姿勢によって、撮像画像に映し出されるアナログメータ1の姿勢も変形し得るので、撮像画像に映し出されるアナログメータ1の指示針の指示値を算出する際には、撮像画像におけるアナログメータ1の姿勢や変形を考慮することが必要となる。 In this way, the posture of the analog meter 1 displayed on the captured image can be changed depending on the position of the camera 2 with respect to the analog meter 1 and the posture of the camera 2, so that the indicated value of the indicator needle of the analog meter 1 displayed on the captured image can be changed. When calculating, it is necessary to consider the posture and deformation of the analog meter 1 in the captured image.

(A−1−3)画像処理装置の詳細な構成
図3は、第1の実施形態に係る画像処理装置3の内部構成を示す内部構成図である。
(A-1-3) Detailed Configuration of Image Processing Device FIG. 3 is an internal configuration diagram showing an internal configuration of the image processing device 3 according to the first embodiment.

図3において、第1の実施形態に係る画像処理装置3は、画像入力部31、姿勢情報検出部32、記憶部33、射影変換パラメータ算出部34、指示針検出座標列射影変換部35、指示針検出部36、指示値算出部37、出力部38を有する。 In FIG. 3, the image processing device 3 according to the first embodiment has an image input unit 31, an attitude information detection unit 32, a storage unit 33, a projection conversion parameter calculation unit 34, an indicator needle detection coordinate sequence projection conversion unit 35, and an instruction. It has a needle detection unit 36, an indicated value calculation unit 37, and an output unit 38.

画像処理装置3のハードウェアは、例えば、CPU、ROM、RAM、EEPROM、入出力インターフェース等を有して構成され、CPUが、ROMに格納される処理プログラム(例えば、画像処理プログラム)を実行することにより、各種機能が実現される。なお、画像処理プログラムは、CPU等のコンピュータにインストールされることにより、画像処理が構築されるようにしてもよく、その場合でも画像処理プログラムは、図3の各機能部として表すことができる。 The hardware of the image processing device 3 is configured to include, for example, a CPU, ROM, RAM, EEPROM, an input / output interface, etc., and the CPU executes a processing program (for example, an image processing program) stored in the ROM. As a result, various functions are realized. The image processing program may be installed in a computer such as a CPU to construct the image processing, and even in that case, the image processing program can be represented as each functional unit of FIG.

画像入力部31は、アナログメータ1を撮影するカメラ2から、アナログメータ1を含む撮像画像を入力するものである。 The image input unit 31 inputs an captured image including the analog meter 1 from the camera 2 that captures the analog meter 1.

姿勢情報検出部32は、入力された撮像画像に映っているアナログメータ1の姿勢を検出するために、撮像画像(実画像)におけるアナログメータ1の形状に応じた頂点の座標値を検出するものである。 The posture information detection unit 32 detects the coordinate values of the vertices according to the shape of the analog meter 1 in the captured image (actual image) in order to detect the posture of the analog meter 1 reflected in the input captured image. Is.

ここで、姿勢情報検出部32が検出する頂点の座標値を「姿勢情報」とも呼ぶ。第1の実施形態では、姿勢情報検出部32が、箱形のアナログメータ1の外枠のうち、目盛り盤及指示針を含んでいる矩形の面形状を検出し、その面の4個の頂点座標を検出する。 Here, the coordinate values of the vertices detected by the posture information detection unit 32 are also referred to as "posture information". In the first embodiment, the posture information detection unit 32 detects a rectangular surface shape including the scale plate and the indicator needle in the outer frame of the box-shaped analog meter 1, and four vertices of the surface. Detect coordinates.

例えば箱形のアナログメータ1の正面にカメラ2が設けられている場合、カメラ2はアナログメータ1を正面から撮影することができる。その場合、撮像画像において、略矩形のアナログメータ1の外枠が撮像画像に映り込むことになるので、頂点座標検出部32は、アナログメータ1の外枠の4辺を割り出し、各辺の交点を頂点とし、各頂点の座標値を検出するようにしてもよい。また例えば、アナログメータ1に対して斜め方向からカメラ2が、アナログメータ1を撮影する場合には、アナログメータ1の画像は、例えば台形のように変形した状態で映り込むことになる。その場合、姿勢情報検出部32は、台形を形成する4辺を割り出し、各辺の交点を頂点とし、各頂点の座標値を検出する。いずれにしても、姿勢情報検出部32は、撮像画像に映り込んでいるアナログメータ1の外枠を特定することで、アナログメータ1の位置、姿勢を特定し、4個の頂点の座標値を検出するようにする。 For example, when the camera 2 is provided in front of the box-shaped analog meter 1, the camera 2 can take an image of the analog meter 1 from the front. In that case, since the outer frame of the substantially rectangular analog meter 1 is reflected in the captured image in the captured image, the vertex coordinate detection unit 32 determines four sides of the outer frame of the analog meter 1 and intersects the respective sides. May be set as a vertex, and the coordinate value of each vertex may be detected. Further, for example, when the camera 2 photographs the analog meter 1 from an oblique direction with respect to the analog meter 1, the image of the analog meter 1 is reflected in a deformed state such as a trapezoid. In that case, the posture information detection unit 32 determines four sides forming a trapezoid, sets the intersection of each side as a vertex, and detects the coordinate value of each vertex. In any case, the posture information detection unit 32 identifies the position and posture of the analog meter 1 by specifying the outer frame of the analog meter 1 reflected in the captured image, and determines the coordinate values of the four vertices. Try to detect.

記憶部33は、予め設定された姿勢基準情報331、指示針検出座標列332などを記憶するものである。 The storage unit 33 stores preset posture reference information 331, indicator needle detection coordinate sequence 332, and the like.

姿勢基準情報331は、射影変換処理に用いられる複数の基準点の座標値を含む情報である。例えば基準画像における4個の基準点の位置を示す座標値に関する情報である。指示針検出座標列332は、基準画像において、アナログメータ1の指示針の位置を特定するための情報である。なお、姿勢基準情報331及び指示針検出座標列332の詳細な構成は後述する。 The posture reference information 331 is information including coordinate values of a plurality of reference points used in the projective transformation process. For example, it is information about coordinate values indicating the positions of four reference points in a reference image. The indicator needle detection coordinate sequence 332 is information for specifying the position of the indicator needle of the analog meter 1 in the reference image. The detailed configuration of the posture reference information 331 and the indicator needle detection coordinate sequence 332 will be described later.

ここで、基準画像とは、アナログメータ1が理想的に正立している状態の仮想的な画像を含むものである。カメラ2がアナログメータ1を撮影した撮像画像に映り込むアナログメータ1の姿勢は、カメラ2との相対的な位置関係やカメラ2の姿勢等により歪みが生じたり変形し得るのに対して、基準画像にはアナログメータ1が理想的に正立し、歪みや回転等をしていない状態の仮想的な画像である。以下の説明において述べる「基準画像」は、いずれも仮想的なものである。 Here, the reference image includes a virtual image in which the analog meter 1 is ideally upright. The posture of the analog meter 1 reflected in the captured image taken by the camera 2 of the analog meter 1 may be distorted or deformed depending on the relative positional relationship with the camera 2, the posture of the camera 2, etc. The image is a virtual image in which the analog meter 1 is ideally upright and is not distorted or rotated. The "reference images" described in the following description are all virtual.

このように、記憶部33に記憶される姿勢基準情報331は、仮想的な基準画像に写り込む、正立かつ歪みや回転等をしていないアナログメータ1の像における、4個の基準点の位置を示す座標値に関する情報である。換言すると、第1の実施形態において、画像処理装置3は記憶部33に、座標値に関する情報である姿勢基準情報331を記憶すればよく、例えば基準画像に相当する画像情報(明るさや色の情報を含み、画像を描画可能とする情報)を記憶する必要はない。 In this way, the posture reference information 331 stored in the storage unit 33 is the image of the analog meter 1 that is upright and is not distorted or rotated, which is reflected in the virtual reference image, and has four reference points. Information about coordinate values indicating the position. In other words, in the first embodiment, the image processing device 3 may store the attitude reference information 331, which is information on the coordinate values, in the storage unit 33, for example, image information (brightness and color information) corresponding to the reference image. It is not necessary to store information that enables the image to be drawn, including the above.

射影変換パラメータ算出部34は、姿勢情報検出部32により検出された4個の座標(つまり、カメラ2により撮影された実画像における4個の座標)と、予め設定された姿勢基準情報331とに基づいて、射影変換パラメータ(射影変換係数とも呼ぶ。)を導出するものである。 The projective conversion parameter calculation unit 34 uses the four coordinates detected by the attitude information detection unit 32 (that is, the four coordinates in the actual image taken by the camera 2) and the preset attitude reference information 331. Based on this, the projective conversion parameter (also called the projective conversion coefficient) is derived.

例えば、射影変換パラメータは、理想的に正立しているアナログメータ1が映り込む仮想的な基準画像(例えば2次元平面)を、カメラ2の撮影画像に映っているアナログメータ1の画像領域(例えば2次元平面)に射影する際に用いられるパラメータであり、一般的に8個の未知数になる。この8個の係数を定めるために、射影変換パラメータ算出部34は、姿勢情報検出部32により検出された4個の頂点座標の値と、姿勢基準情報331の4個の基準値の座標値とを用いて算出する。 For example, the projective conversion parameter is an image area of the analog meter 1 (for example, a two-dimensional plane) in which an ideally upright analog meter 1 is reflected in an image captured by the camera 2. For example, it is a parameter used when projecting onto a two-dimensional plane), and generally has eight unknowns. In order to determine these eight coefficients, the projective conversion parameter calculation unit 34 uses the coordinates of the four vertices detected by the attitude information detection unit 32 and the coordinate values of the four reference values of the attitude reference information 331. Is calculated using.

指示針検出座標列射影変換部35は、射影変換パラメータ算出部34により導出された射影変換パラメータを用いて、基準画像における指示針検出座標列332の全ての座標値を、射影変換するものである。これにより、基準画像における指示針検出座標列の全ての座標値が、基準画像から実画像に射影変換される。 The indicator needle detection coordinate sequence projection conversion unit 35 projects all the coordinate values of the indicator needle detection coordinate sequence 332 in the reference image by using the projection conversion parameters derived by the projection conversion parameter calculation unit 34. .. As a result, all the coordinate values of the indicator needle detection coordinate sequence in the reference image are projected and converted from the reference image to the actual image.

指示針検出部36は、射影変換後の指示針検出座標列の各座標値に基づいて、カメラ2からの撮像画像(原画像)から画素値を取得し、取得された全ての画素値で構成する指示針検出画素値列を作成する。そして、指示針検出部36は、指示針検出画素値列を構成する全ての画素値の中から指示針の位置を検出する。指示針検出部36の詳細な説明は後述する。 The indicator needle detection unit 36 acquires pixel values from the image (original image) captured by the camera 2 based on each coordinate value of the indicator needle detection coordinate sequence after the projective conversion, and is composed of all the acquired pixel values. Create an indicator needle detection pixel value sequence. Then, the indicator needle detection unit 36 detects the position of the indicator needle from all the pixel values constituting the indicator needle detection pixel value sequence. A detailed description of the indicator needle detection unit 36 will be described later.

指示値算出部37は、指示針検出座標列332を参照して、指示針検出部36により検出された座標に対応する指示針角度を算出し、その指示針角度に基づく指示値を出力するものである。 The instruction value calculation unit 37 calculates an instruction needle angle corresponding to the coordinates detected by the instruction needle detection unit 36 with reference to the instruction needle detection coordinate sequence 332, and outputs an instruction value based on the instruction needle angle. Is.

(A−1−4)姿勢基準情報331と指示針検出座標列332
図4は、第1の実施形態に係る姿勢基準情報331を説明する説明図である。
(A-1-4) Posture reference information 331 and indicator needle detection coordinate sequence 332
FIG. 4 is an explanatory diagram for explaining the posture reference information 331 according to the first embodiment.

図4(A)は、基準画像における姿勢基準情報331を構成する4個の基準点の位置座標を例示している。 FIG. 4A exemplifies the position coordinates of the four reference points constituting the posture reference information 331 in the reference image.

図4(A)に示すように、4個の基準点に対して、例えば、点Ar、点Br、点Cr、点Drのようにインデックスを割り当てる。このインデックスの割当は任意に割り当てるようにしてもよい。そして、図4(B)に例示するように、点Ar、点Br、点Cr、点Drの各基準点の座標値(0,0)、(0,400)、(400,400)、(400,0)を、インデックスに対応付けて記憶部33に記憶されているものとする。 As shown in FIG. 4A, indexes are assigned to the four reference points, for example, point Ar, point Br, point Cr, and point Dr. The allocation of this index may be arbitrarily assigned. Then, as illustrated in FIG. 4 (B), the coordinate values (0,0), (0,400), (400,400), ( It is assumed that 400,0) is stored in the storage unit 33 in association with the index.

なお、基準画像の座標系は、カメラ2により撮影される撮像画像の座標系と同じとしてもよい。姿勢基準座標を構成する4個の基準点は、カメラ2により撮影された撮像画像の座標系において、予め設定された任意に選択した点とすることができる。図4(A)の例では、基準画像において正方形を形成し、その正方形の4個の頂点をそれぞれ基準点としている。基準画像における正方形の大きさは、特に限定されないが、例えば撮像画像(実画像)に映るアナログメータ1の大きさと同程度とするようにしてもよい。 The coordinate system of the reference image may be the same as the coordinate system of the captured image captured by the camera 2. The four reference points constituting the attitude reference coordinates can be preset and arbitrarily selected points in the coordinate system of the captured image captured by the camera 2. In the example of FIG. 4A, a square is formed in the reference image, and the four vertices of the square are used as reference points. The size of the square in the reference image is not particularly limited, but may be set to be about the same as the size of the analog meter 1 displayed in the captured image (actual image), for example.

図5は、第1の実施形態に係る指示針検出座標列332を説明する説明図である。 FIG. 5 is an explanatory diagram illustrating the indicator needle detection coordinate sequence 332 according to the first embodiment.

図5(B)に示すように、指示針検出座標列332は、例えば、「インデックス」、「座標」、「指示針角度」を項目として有する情報である。 As shown in FIG. 5B, the indicator needle detection coordinate sequence 332 is information having, for example, an “index”, a “coordinate”, and an “indicator needle angle” as items.

指示針検出座標列332は、基準画像において、指示針の位値を特定するために、回転する指示針の存在領域内で指示針が存在し得る各位置座標に、インデックス(ラベル)を付与する。そして、各インデックスと、各インデックスのXY座標値と、アナログメータ1における指示針の角度とを対応付けて作成される。つまり、指示針検出座標列332は、各指示針検出座標(インデックス)のXY座標値と、そのときの指示針角度値とをペアとしたデータを1単位とし、複数のデータが連なった構造となっている。 In the reference image, the indicator needle detection coordinate sequence 332 assigns an index (label) to each position coordinate in which the indicator needle may exist within the existence region of the rotating indicator needle in order to specify the position value of the indicator needle. .. Then, each index, the XY coordinate value of each index, and the angle of the indicator needle in the analog meter 1 are created in association with each other. That is, the indicator needle detection coordinate sequence 332 has a structure in which the data obtained by pairing the XY coordinate value of each indicator needle detection coordinate (index) and the indicator needle angle value at that time is set as one unit, and a plurality of data are connected. It has become.

例えば、アナログメータ1の目盛り盤と指示針が、図5(C)に示すものとする。基準画像において、図5(C)のアナログメータ1の目盛り「0」の位置に相当する位置に、インデックス「G1」を付与する。この場合、インデックス「G1」のXY座標値(100,100)とする。さらに、指示針の位置が「G1」にあるとき、アナログメータ1では、目盛り「0」に相当するので「指示針角度:0」と設定する。 For example, it is assumed that the dial and the indicator needle of the analog meter 1 are shown in FIG. 5 (C). In the reference image, the index "G1" is assigned to the position corresponding to the position of the scale "0" of the analog meter 1 in FIG. 5 (C). In this case, the XY coordinate value (100, 100) of the index “G1” is used. Further, when the position of the indicator needle is at "G1", the analog meter 1 corresponds to the scale "0", so "indicator needle angle: 0" is set.

その後、指示針角度を単位角度ずつ移動させたときの指示針の位置に相当する各位置に、インデックスG2、G3、…、Gnのように付与していき、各インデックスG2、G3、…、GnのXY座標値を付与していくと共に、各インデックスに指示針角度を対応つけていく。そうすると、図5(A)に示すように、指示針検出座標列332を構成する各インデックスは、仮想円VC2上に形成されたものとなる。なお、上述の単位角度の大きさは任意であってよい。 After that, indexes G2, G3, ..., Gn are added to each position corresponding to the position of the indicator needle when the indicator needle angle is moved by a unit angle, and each index G2, G3, ..., Gn The XY coordinate values of are given, and the indicator needle angle is associated with each index. Then, as shown in FIG. 5A, each index constituting the indicator needle detection coordinate string 332 is formed on the virtual circle VC2. The magnitude of the above-mentioned unit angle may be arbitrary.

ここで、指示針検出座標列332を構成する仮想円VC2が、指示針の位置の存在領域内に形成する理由を説明する。例えば、カメラ2による撮像画像において、指示針がアナログメータ1の目盛りと交差していないこともあり、そのような場合には、指示針が指し示している指示値を読み取ることができないことがある。しかし、第1の実施形態のように、指示針検出座標列を構成する仮想円VC2を、指示針の位置の存在領域に形成することにより、すなわち仮想円VC2の半径が仮想円VC1のそれよりも小さくすることにより、指示針と目盛りとが交差していない場合でも、画像における指示針の位置座標を検出でき、さらに指示針の角度を検出できる。 Here, the reason why the virtual circle VC2 constituting the indicator needle detection coordinate sequence 332 is formed in the existing region of the position of the indicator needle will be described. For example, in the image captured by the camera 2, the indicator needle may not intersect the scale of the analog meter 1, and in such a case, the indicator value pointed to by the indicator needle may not be read. However, as in the first embodiment, by forming the virtual circle VC2 constituting the indicator needle detection coordinate sequence in the existing region of the position of the indicator needle, that is, the radius of the virtual circle VC2 is smaller than that of the virtual circle VC1. By reducing the size, the position coordinates of the indicator needle in the image can be detected and the angle of the indicator needle can be further detected even when the indicator needle and the scale do not intersect.

指示針検出座標列332を構成する仮想円VC2は、指示針の位置の存在領域に形成されるものであるため、アナログメータ1の各目盛りの位置で形成される仮想円VC1の領域内に形成されるものとなる。言い換えれば、点Sを中心とする仮想円VC2の半径は、点Sを中心とする仮想円VC1の半径よりも小さいものとなる。 Since the virtual circle VC2 constituting the indicator needle detection coordinate sequence 332 is formed in the existing region of the position of the indicator needle, it is formed in the region of the virtual circle VC1 formed at the position of each scale of the analog meter 1. Will be done. In other words, the radius of the virtual circle VC2 centered on the point S is smaller than the radius of the virtual circle VC1 centered on the point S.

点Sは、姿勢基準座標を構成する4個の基準点で形成される正方形の中心であり、例えば、点Arと点Crとを結んだ線分と、点Brと点Drとを結んだ線分との交点である。また、点Sは、アナログメータ1における指示針が回転する中心に対応する点である。したがって、点Sは、姿勢基準情報331の4個の基準点で形成される正方形の中心と、指示針検出座標列332を構成する仮想円VC2の中心とが一致するような位置関係にある。 The point S is the center of a square formed by four reference points constituting the attitude reference coordinates. For example, a line segment connecting the points Ar and Cr and a line connecting the points Br and Dr. It is the intersection with the minute. Further, the point S is a point corresponding to the center where the indicator needle in the analog meter 1 rotates. Therefore, the point S has a positional relationship such that the center of the square formed by the four reference points of the posture reference information 331 coincides with the center of the virtual circle VC2 constituting the indicator needle detection coordinate sequence 332.

(A−2)第1の実施形態の動作
次に、第1の実施形態に係る画像処理装置3による画像処理の動作を、図面を参照しながら詳細に説明する。
(A-2) Operation of the First Embodiment Next, the operation of the image processing by the image processing apparatus 3 according to the first embodiment will be described in detail with reference to the drawings.

図6は、第1の実施形態に係る画像処理方法の動作を示すフローチャートである。 FIG. 6 is a flowchart showing the operation of the image processing method according to the first embodiment.

[ステップS1]
カメラ2により撮影された撮像画像(原画像)が、画像処理装置3の画像入力部31に入力される。ここで、カメラ2からの撮像画像には、アナログメータ1が映し出されているものとする。
[Step S1]
The captured image (original image) taken by the camera 2 is input to the image input unit 31 of the image processing device 3. Here, it is assumed that the analog meter 1 is projected on the image captured by the camera 2.

[ステップS2]
姿勢情報検出部32は、入力された撮像画像(原画像)に映し出されているアナログメータ1の姿勢情報を取得するため、アナログメータ1の画像領域を検出し、アナログメータ1の外形を示す4個の頂点の座標値を検出する。
[Step S2]
The posture information detection unit 32 detects the image area of the analog meter 1 and shows the outer shape of the analog meter 1 in order to acquire the posture information of the analog meter 1 projected on the input captured image (original image). Detect the coordinate values of the vertices.

ここで、姿勢情報検出部32が検出した4個の頂点(点Am、点Bm、点Cm、点Dm)のXY座標値を姿勢情報と呼ぶ。 Here, the XY coordinate values of the four vertices (point Am, point Bm, point Cm, point Dm) detected by the attitude information detection unit 32 are referred to as attitude information.

以下では、姿勢情報検出部32が、撮像画像からアナログメータ1の外形を示す4個の頂点の座標値を検出方法の一例を説明する。 Hereinafter, an example of a method in which the posture information detection unit 32 detects the coordinate values of the four vertices indicating the outer shape of the analog meter 1 from the captured image will be described.

図7は、第1の実施形態に係る姿勢情報検出部32による4個の頂点座標の検出方法を示すフローチャートであり、図8は、第1の実施形態に係る姿勢情報検出部32による4個の頂点座標の検出方法を説明する説明図である。 FIG. 7 is a flowchart showing a method of detecting the coordinates of four vertices by the posture information detection unit 32 according to the first embodiment, and FIG. 8 shows four by the posture information detection unit 32 according to the first embodiment. It is explanatory drawing explaining the detection method of the vertex coordinates of.

ここでは、アナログメータ1に対して斜め方向からカメラ2がアナログメータ1を撮影し、撮影画像は、図8(A)に示すように、アナログメータ1の姿勢が変形した状態で映し出されている場合を例示する。 Here, the camera 2 photographs the analog meter 1 from an oblique direction with respect to the analog meter 1, and the captured image is projected in a state in which the posture of the analog meter 1 is deformed as shown in FIG. 8A. Illustrate the case.

姿勢情報検出部32は、撮像画像Pに映り込んでいるアナログメータ1の外枠の辺を示す4本の直線を検出する(ステップS11)。 The posture information detection unit 32 detects four straight lines indicating the sides of the outer frame of the analog meter 1 reflected in the captured image P (step S11).

ここで、例えば姿勢情報検出部32は、カメラ2からの原画像からアナログメータ1の外枠を含む領域を抽出するために、原画像に対して2値化処理を施し、白色の目盛り盤の領域と、その目盛り盤の周囲にある外枠部分の領域とを区別したり、アナログメータ1の外枠の領域と背景画像の領域とを区別できるようにしてもよい。さらに、姿勢情報検出部32は、画像に対してHough変換を行なって、アナログメータ1の外枠の辺を含む直線を抽出するようにしてもよい。 Here, for example, the attitude information detection unit 32 performs binarization processing on the original image in order to extract a region including the outer frame of the analog meter 1 from the original image from the camera 2, and the white scale board. The area may be distinguished from the area of the outer frame portion around the scale plate, or the area of the outer frame of the analog meter 1 and the area of the background image may be distinguished. Further, the posture information detection unit 32 may perform a Hough transform on the image to extract a straight line including the side of the outer frame of the analog meter 1.

そして、姿勢情報検出部32は、撮像画像Pにおいて検出した4本の直線のうち、2本の直線を1つの組み合わせとして、当該2本の直線の交点を検出する。それぞれ異なる直線の組み合わせ毎に交点の検出する(ステップS12)。 Then, the posture information detection unit 32 detects the intersection of the two straight lines by using the two straight lines as one combination among the four straight lines detected in the captured image P. The intersection is detected for each combination of different straight lines (step S12).

例えば、図8(A)の4本の直線VV´、TT´、WW´、UU´が検出されたものとする。このとき、直線VV´と直線TT´との交点、直線TT´と直線WW´との交点、直線WW´と直線UU´との交点、直線UU´と直線VV´との交点を検出する。 For example, it is assumed that the four straight lines VV', TT', WW', and UU'in FIG. 8A are detected. At this time, the intersection of the straight line VV'and the straight line TT', the intersection of the straight line TT'and the straight line WW', the intersection of the straight line WW'and the straight line UU', and the intersection of the straight line UU'and the straight line VV'are detected.

姿勢情報検出部32は、4個の交点を4個の頂点とし、各頂点に点Am、Bm、Cm、Dmのインデックス(ラベル)を付与し(ステップS13)、各頂点の座標値と各ラベルとを対応付け、これを原画像における姿勢情報として記憶部33に保持する(ステップS14)。 The posture information detection unit 32 uses four intersections as four vertices, assigns indexes (labels) of points Am, Bm, Cm, and Dm to each vertex (step S13), and assigns coordinate values of each vertex and each label. Is associated with and stored in the storage unit 33 as posture information in the original image (step S14).

例えば、図8(A)の点Amにはインデックス「Am」というラベルを付し、当該インデックス「Am」の座標値(Xam,Yam)とラベル「Am」とを対応付ける。このように他の3個の頂点についても同様に、対応付けたラベルと各頂点の座標値とを対応付ける。このようにして得られた図8(B)の姿勢情報が記憶部33に記憶される。 For example, the point Am in FIG. 8A is labeled with the index “Am”, and the coordinate values (Xam, Yam) of the index “Am” are associated with the label “Am”. In this way, for the other three vertices as well, the associated label and the coordinate value of each vertex are associated with each other. The posture information of FIG. 8B thus obtained is stored in the storage unit 33.

[ステップS3]
射影変換パラメータ算出部34は、姿勢情報検出部32により検出された4個の頂点のXY座標値と、予め設定されている姿勢基準情報を構成する4個の基準点のXY座標値との合計8個のXY座標値を用いて、射影変換パラメータを導出する。
[Step S3]
The projective conversion parameter calculation unit 34 is the sum of the XY coordinate values of the four vertices detected by the attitude information detection unit 32 and the XY coordinate values of the four reference points constituting the preset attitude reference information. The projective transformation parameters are derived using the eight XY coordinate values.

ここで、射影変換パラメータは、同次座標を利用し、かつ、既知の変換元と変換先との対応点が4組ある場合、対応点の座標値から一意に導出することができる。 Here, the projective transformation parameter can be uniquely derived from the coordinate values of the corresponding points when the homogeneous coordinates are used and there are four sets of corresponding points between the known conversion source and the conversion destination.

例えば、射影変換パラメータ算出部34は、図4(B)の姿勢基準情報を構成する点Ar,Br、Cr、Drの4個のXY座標値をそれぞれ変換元とし、図8(B)の原画像における姿勢情報を構成する点Am、Bm、Cm、Dmの4個のXY座標値のそれぞれを変換先とし、変換元の各点を、変換先の各点に射影変換できるような射影変換パラメータを算出する。 For example, the projective conversion parameter calculation unit 34 uses the four XY coordinate values of the points Ar, Br, Cr, and Dr constituting the attitude reference information in FIG. 4 (B) as conversion sources, and the source in FIG. 8 (B). A projective conversion parameter that allows each of the four XY coordinate values of the points Am, Bm, Cm, and Dm that make up the attitude information in the image to be the conversion destination, and each point of the conversion source to be projected to each point of the conversion destination. Is calculated.

[ステップS4]
指示針検出座標列射影変換部35は、射影変換パラメータ算出部34で導出された射影変換パラメータを用いて、指示針検出座標列332の全ての座標値を、射影変換する。
[Step S4]
The indicator needle detection coordinate sequence projection conversion unit 35 uses the projection conversion parameters derived by the projection conversion parameter calculation unit 34 to perform projection conversion on all the coordinate values of the indicator needle detection coordinate sequence 332.

例えば、図5(B)に例示する指示針検出座標列332は、それぞれインデックスが付与されたn個の座標値を有して構成されているが、n個の座標値が射影変換パラメータにより射影変換される。 For example, the indicator needle detection coordinate sequence 332 illustrated in FIG. 5B is configured to have n coordinate values to which indexes are given, and the n coordinate values are projected by the projective transformation parameter. Will be converted.

[ステップS5]
指示針検出部36は、射影変換後の指示針検出座標列を用いて、カメラ2からの撮影画像(原画像)から画素値を取得し、各座標値の画素値で構成する指示針検出画素値列361を作成する。
[Step S5]
The indicator needle detection unit 36 acquires pixel values from the image (original image) captured by the camera 2 by using the indicator needle detection coordinate sequence after the projective conversion, and the indicator needle detection pixel composed of the pixel values of each coordinate value. Create a value sequence 361.

図9は、第1の実施形態における指示針検出画素値列361と指示針検出座標列332との関係を説明する説明図である。 FIG. 9 is an explanatory diagram illustrating the relationship between the indicator needle detection pixel value sequence 361 and the indicator needle detection coordinate sequence 332 according to the first embodiment.

指示針検出画素値列361は、射影変換後の指示針検出座標列332を構成する全てのインデックスについて、原画像における各座標値の画素値を有するものである。また、指示針検出画素値列361は、指示針検出座標列332の各インデックスに対応付けられた指示針角度も付与するようにしてもよい。 The indicator needle detection pixel value sequence 361 has pixel values of each coordinate value in the original image for all the indexes constituting the indicator needle detection coordinate sequence 332 after the projective conversion. Further, the indicator needle detection pixel value sequence 361 may also be provided with an indicator needle angle associated with each index of the indicator needle detection coordinate sequence 332.

ここで、上述した「射影変換後の指示針検出座標列を用いて、原画像から画素値を取得する」とは、指示針検出部36が、射影変換後の指示針検出座標列を構成する各座標値の画素値を、原画像から取得することを意味する。 Here, the above-mentioned "acquiring the pixel value from the original image using the indicator needle detection coordinate sequence after the projective conversion" means that the indicator needle detection unit 36 constitutes the indicator needle detection coordinate sequence after the projective conversion. It means that the pixel value of each coordinate value is acquired from the original image.

また、指示針検出座標列332を構成する各座標値はインデックスが付与されているので、指示針検出部36は、射影変換後の指示針検出座標列332の各座標値の画素値を原画像から取得し、各画素値を、対応するインデックスと関連付けて、指示針検出画素値列361を作成する。つまり、指示針検出画素値列361は、指示針検出座標列332を構成するインデックスと同数のインデックスを有しており、さらに指示針検出画素値列361の各インデックスは、指示針検出座標列332の各インデックスと対応する関係にある。 Further, since each coordinate value constituting the indicator needle detection coordinate sequence 332 is indexed, the indicator needle detection unit 36 uses the pixel value of each coordinate value of the indicator needle detection coordinate sequence 332 after the projective conversion as the original image. The indicator needle detection pixel value sequence 361 is created by associating each pixel value with the corresponding index. That is, the indicator needle detection pixel value sequence 361 has the same number of indexes as the indexes constituting the indicator needle detection coordinate sequence 332, and each index of the indicator needle detection pixel value sequence 361 has the indicator needle detection coordinate sequence 332. It has a corresponding relationship with each index of.

したがって、指示針検出画素値列361は、指示針検出座標列332のインデックスと、原画像における射影変換後の指示針検出座標列の各座標値の画素値と、指示針角度と、を対応付けた情報となる。 Therefore, the indicator needle detection pixel value sequence 361 associates the index of the indicator needle detection coordinate sequence 332 with the pixel value of each coordinate value of the indicator needle detection coordinate sequence after the projective conversion in the original image and the indicator needle angle. It will be information.

なお、図9の指示針検出画素値列361は、原画像における射影変換後の各座標値の画素値をインデックスに対応させたものとしたが、各インデックスに、原画像における射影変換後の各座標値を対応付けるようにしてもよい。 In the indicator needle detection pixel value sequence 361 of FIG. 9, the pixel value of each coordinate value after the projective conversion in the original image is made to correspond to the index, but each index after the projective conversion in the original image is used. Coordinate values may be associated with each other.

[ステップS6]
指示針検出部36は、指示針検出画素値列361を構成する全ての画素値を参照して、指示針の角度を算出する。
[Step S6]
The indicator needle detection unit 36 calculates the angle of the indicator needle with reference to all the pixel values constituting the indicator needle detection pixel value sequence 361.

指示針の角度を算出する方法としては、例えば、指示針検出画素値列361を構成する全ての画素値について、各画素の輝度値を算出し、全ての輝度値の中から最小値となる画素のインデックスを求めるようにしてもよい。これにより、指示針検出座標列332、若しくは、指示針角度をインデックス毎に対応付けた指示針検出画素値列361を参照することにより、当該インデックスに対応する指示針角度を導出することができる。 As a method of calculating the angle of the indicator needle, for example, the brightness value of each pixel is calculated for all the pixel values constituting the indicator needle detection pixel value sequence 361, and the pixel having the minimum value among all the luminance values is calculated. You may want to find the index of. Thereby, by referring to the indicator needle detection coordinate sequence 332 or the indicator needle detection pixel value sequence 361 in which the indicator needle angle is associated with each index, the indicator needle angle corresponding to the index can be derived.

また例えば、指示針検出画素値列361を構成する全ての画素値について、各画素の輝度値を算出し、閾値を用いて各輝度値を2値化し、黒色となった画素の連続数が最も大きい区間の中央の画素のインデックスを求めるようにしてもよい。これにより、指示針検出座標列332、若しくは、指示針角度をインデックス毎に対応付けた指示針検出画素値列361を参照することにより、当該インデックスに対応する指示針角度を導出することができる。 Further, for example, the brightness value of each pixel is calculated for all the pixel values constituting the indicator needle detection pixel value sequence 361, and each brightness value is binarized using a threshold value, and the number of consecutive black pixels is the largest. The index of the pixel in the center of the large section may be obtained. Thereby, by referring to the indicator needle detection coordinate sequence 332 or the indicator needle detection pixel value sequence 361 in which the indicator needle angle is associated with each index, the indicator needle angle corresponding to the index can be derived.

ここで、輝度値が最小となるインデックスを導出する理由を説明する。例えば、原画像において指示針が位置している画素は、指示針が位置していない画素に比べて、画素値(例えば輝度値等)が小さくなる。したがって、指示針検出部36は、指示針検出画素値列を構成する画素値列の中から、画素値が最小値となるものを選択することで、指示針の位置を特定することができる。 Here, the reason for deriving the index having the minimum luminance value will be described. For example, a pixel in which the indicator needle is located in the original image has a smaller pixel value (for example, a brightness value) than a pixel in which the indicator needle is not located. Therefore, the indicator needle detection unit 36 can specify the position of the indicator needle by selecting the pixel value string having the smallest pixel value from the pixel value strings constituting the indicator needle detection pixel value sequence.

さらに、上述したように、指示針検出画素値列361のインデックスと、指示針検出座標列332のインデックスとは対応する関係にあるので、複雑な座標変換処理を必要とせず、指示針の位置を示す画素の画素値を特定することができ、その画素値に対応するインデックスを特定することができれば、そのインデックスに対応する指示針角度を導出することができる。換言すると、指示針検出画素値列361は、少なくとも、インデックスと、画素値とをペアとするデータで構成されているので、例えば、全ての画素値の中から最小値である画素値のインデックスを特定できれば、インデックスに対応する指示針角度を導出することができる。 Further, as described above, since the index of the indicator needle detection pixel value sequence 361 and the index of the indicator needle detection coordinate sequence 332 have a corresponding relationship, the position of the indicator needle can be determined without requiring complicated coordinate conversion processing. If the pixel value of the indicated pixel can be specified and the index corresponding to the pixel value can be specified, the indicator needle angle corresponding to the index can be derived. In other words, since the indicator needle detection pixel value sequence 361 is composed of at least data in which the index and the pixel value are paired, for example, the index of the pixel value which is the minimum value among all the pixel values is set. If it can be specified, the indicator needle angle corresponding to the index can be derived.

[ステップS7、S8]
指示値算出部37は、指示針検出座標列332を参照して、指示針検出部36により検出された指示針角度に基づいて、指示針の指示値を算出する。そして、出力部38が、指示値を含む情報を後段に出力する。
[Steps S7, S8]
The instruction value calculation unit 37 calculates the instruction value of the instruction needle based on the instruction needle angle detected by the instruction needle detection unit 36 with reference to the instruction needle detection coordinate sequence 332. Then, the output unit 38 outputs the information including the indicated value to the subsequent stage.

例えば、指示値算出部37は、図23に例示するような指示針角度と、指示値とを対応付けたテーブルを有しており、検出された指示針角度に対応する指示値を導出するようにしてもよい。より具体的には、例えば、アナログメータ1が電圧計等の場合に、指示針角度と電圧値とを対応させたテーブルを有しており、指示針角度に対応する電圧値(測定値)を指示値として導出するようにしてもよい。 For example, the instruction value calculation unit 37 has a table in which the instruction needle angle as illustrated in FIG. 23 and the instruction value are associated with each other, and derives the instruction value corresponding to the detected instruction needle angle. It may be. More specifically, for example, when the analog meter 1 is a voltmeter or the like, it has a table in which the indicator needle angle and the voltage value correspond to each other, and the voltage value (measured value) corresponding to the indicator needle angle can be obtained. It may be derived as an indicated value.

なお、指示針検出部36により検出された指示針角度に基づいて指示針の指示値を導出方法は、上述した方法に限定されるものではない。 The method of deriving the indicated value of the indicator needle based on the indicator needle angle detected by the indicator needle detection unit 36 is not limited to the above-mentioned method.

(A−3)第1の実施形態の効果
以上のように、第1の実施形態の画像処理装置は、入力された撮像画像に映り込むアナログメータの形状に基づく4個の点の座標値と、姿勢基準情報を構成する4個の基準点の座標値とに基づいて射影変換パラメータを導出し、当該射影変換パラメータを用いて指示針検出座標列の全ての座標値(座標情報)を射影変換する。そして、射影変換後の指示針検出座標列の全ての座標値を用いて、原画像から画素値を取得して、指示針の指示値を読み取ることができる。
(A-3) Effect of First Embodiment As described above, the image processing apparatus of the first embodiment has the coordinate values of the four points based on the shape of the analog meter reflected in the input captured image. , A projective conversion parameter is derived based on the coordinate values of the four reference points constituting the attitude reference information, and all the coordinate values (coordinate information) of the indicator needle detection coordinate sequence are projected using the projective conversion parameter. To do. Then, using all the coordinate values of the indicator needle detection coordinate sequence after the projective conversion, the pixel values can be acquired from the original image and the indicator values of the indicator needle can be read.

また、第1の実施形態の画像処理装置は、射影変換パラメータを用いて指示針検出座標列のみを射影変換するので、明るさの情報や色の情報などの多大な情報量を含む撮像画像を射影変換するのと比べ、処理する情報量が少ない。そのため、入力された撮像画像に映り込むアナログメータの形状を理想的な形状へと近づけるような撮像画像を補正する処理に比べ、第1の実施形態の画像処理装置が行う座標変換処理は、処理に要する計算量およびメモリ使用量が少ない。 Further, since the image processing apparatus of the first embodiment projects and transforms only the indicator needle detection coordinate sequence using the projective conversion parameters, it can produce an captured image including a large amount of information such as brightness information and color information. Compared to projective conversion, the amount of information to be processed is small. Therefore, the coordinate conversion process performed by the image processing apparatus of the first embodiment is a process as compared with the process of correcting the captured image so as to bring the shape of the analog meter reflected in the input captured image closer to the ideal shape. The amount of calculation and memory usage required for this is small.

さらに、第1の実施形態の画像処理装置は、指示針検出画素値列のインデックスと、指示針検出座標列のインデックスとは対応する関係にあるので、複雑な座標変換処理を必要とせず、指示針の位置を示す画素の画素値を特定でき、その画素値に対応するインデックスを特定することができれば、そのインデックスに対応する指示針角度を導出することができる。その結果、撮像画像の全体を対象として解析する手法に比べて、解析に要する計算量およびメモリ使用量が少ない。 Further, in the image processing apparatus of the first embodiment, since the index of the indicator needle detection pixel value sequence and the index of the indicator needle detection coordinate sequence are in a corresponding relationship, the instruction does not require complicated coordinate conversion processing. If the pixel value of the pixel indicating the position of the needle can be specified and the index corresponding to the pixel value can be specified, the indicator needle angle corresponding to the index can be derived. As a result, the amount of calculation and the amount of memory used for the analysis are smaller than the method of analyzing the entire captured image.

また、第1の実施形態の画像処理装置は、指示針検出画素値列のインデックスに対応する座標値の画素値に基づいて指示針の位置を特定するので、指示針の形状の制限が従来技術よりも少なくなるため、適用可能なアナログメータの種類が多くなる。 Further, since the image processing apparatus of the first embodiment specifies the position of the indicator needle based on the pixel value of the coordinate value corresponding to the index of the indicator needle detection pixel value sequence, the shape of the indicator needle is limited by the prior art. Because it is less than, there are more types of analog meters that can be applied.

また、第1の実施形態の画像処理装置は、座標変換処理に要する計算量が少ないため、処理に要する消費電力も少ない。画像処理装置はマイクロコンピュータ等の汎用な演算処理装置が用いられ、電池等の内部電源(図示せず)から電力供給を受けることが想定されるが、第1の実施形態の画像処理装置を適用すれば、内部電源の寿命を伸ばすことができる。 Further, since the image processing apparatus of the first embodiment requires a small amount of calculation for the coordinate conversion processing, the power consumption required for the processing is also small. As the image processing device, a general-purpose arithmetic processing device such as a microcomputer is used, and it is assumed that power is supplied from an internal power source (not shown) such as a battery, but the image processing device of the first embodiment is applied. By doing so, the life of the internal power supply can be extended.

(B)第2の実施形態
次に、本発明に係る画像処理装置、画像処理プログラム、画像処理方法及び情報収集システムの第2の実施形態を、図面を参照しながら詳細に説明する。
(B) Second Embodiment Next, a second embodiment of the image processing apparatus, the image processing program, the image processing method, and the information collecting system according to the present invention will be described in detail with reference to the drawings.

(B−1)第2の実施形態の基本概念
カメラがアナログメータを撮影する際、その運用環境等の状況によっては、例えばアナログメータやカメラが設備機器等からの振動等を受けてしまうことがある。そのような場合、アナログメータやカメラの位置が微妙に動いてしまい、アナログメータを正立姿勢で撮像できなくなってしまうことがある。
(B-1) Basic Concept of the Second Embodiment When the camera shoots an analog meter, for example, the analog meter or the camera may receive vibration from equipment or the like depending on the operating environment or the like. is there. In such a case, the position of the analog meter or the camera may move slightly, and the analog meter may not be able to take an image in an upright posture.

また、アナログメータを撮影するカメラの設置環境によって、当初からカメラ視点が回転する姿勢にあり、カメラがアナログメータを正立姿勢で撮影できないことがある。例えば、図10(A)に示すように、アナログメータに対してカメラが傾いた状態で(図10(A)では右側に90度傾いた状態)で撮影することも想定され、そのような場合には、図10(B)に示すように、撮像画像においてアナログメータが回転した状態で映り込んでしまうことがある。 In addition, depending on the installation environment of the camera that shoots the analog meter, the camera viewpoint may be in a rotating posture from the beginning, and the camera may not be able to shoot the analog meter in an upright posture. For example, as shown in FIG. 10 (A), it is assumed that the camera is tilted with respect to the analog meter (in FIG. 10 (A), the camera is tilted 90 degrees to the right), and such a case is assumed. In the captured image, as shown in FIG. 10B, the analog meter may be reflected in a rotated state.

上記課題を解決するために、カメラの姿勢に応じて、撮像画像の向きを補正する機能を有するカメラを利用したり、カメラの姿勢を保持するための器具を用いる等の方法があるが、そうすると導入コストが増大してしまう。 In order to solve the above problems, there are methods such as using a camera having a function of correcting the orientation of the captured image according to the posture of the camera, or using an instrument for maintaining the posture of the camera. The introduction cost will increase.

そのため、撮像画像に映り込むアナログメータの位置や姿勢を、より効率的に検出し、撮像画像に画像処理を行ない、指示針が指し示す指示針指示値を効率的に読み取ることが求められる。 Therefore, it is required to more efficiently detect the position and orientation of the analog meter reflected in the captured image, perform image processing on the captured image, and efficiently read the indicated needle indicated value indicated by the indicator needle.

(B−2)第2の実施形態の構成
図11は、第2の実施形態に係る画像処理装置3の内部構成を示す内部構成図である。
(B-2) Configuration of the Second Embodiment FIG. 11 is an internal configuration diagram showing the internal configuration of the image processing apparatus 3 according to the second embodiment.

図11において、第2の実施形態に係る画像処理装置3Aは、画像入力部31、姿勢情報検出部32A、記憶部33、射影変換パラメータ算出部34、指示針検出座標列射影変換部35、指示針検出部36、指示値算出部37、出力部38を有する。 In FIG. 11, the image processing device 3A according to the second embodiment has an image input unit 31, an attitude information detection unit 32A, a storage unit 33, a projection conversion parameter calculation unit 34, an indicator needle detection coordinate sequence projection conversion unit 35, and an instruction. It has a needle detection unit 36, an indicated value calculation unit 37, and an output unit 38.

第2の実施形態の画像処理装置10Aは、姿勢情報検出部32Aによる姿勢情報の検出方法が、第1の実施形態と異なる。それ以外の構成要素は第1の実施形態で説明した構成要素と同一又は対応するものを適用できるので、以下では、第1の実施形態と異なる構成要素を中心に説明する。 In the image processing device 10A of the second embodiment, the method of detecting the posture information by the posture information detection unit 32A is different from that of the first embodiment. Since the other components can be the same as or corresponding to the components described in the first embodiment, the components different from the first embodiment will be mainly described below.

第2の実施形態は、カメラ2の撮像画像(原画像)のアナログメータ1の姿勢情報を検出するために、アナログメータ1に取り付ける治具(以下、「姿勢情報検出治具」とも呼ぶ。)50を用いる。そして、この姿勢情報検出治具50をアナログメータ1の目盛り盤を囲む位置に取り付けた上で、カメラ2がアナログメータ1を撮影し、姿勢情報検出部32Aが、撮像画像に映っている姿勢情報検出治具50の特徴点の位置を特定することで姿勢情報を検出する。 In the second embodiment, a jig attached to the analog meter 1 in order to detect the posture information of the analog meter 1 of the captured image (original image) of the camera 2 (hereinafter, also referred to as “posture information detection jig”). 50 is used. Then, after attaching the posture information detection jig 50 to a position surrounding the scale plate of the analog meter 1, the camera 2 photographs the analog meter 1, and the posture information detection unit 32A shows the posture information reflected in the captured image. Posture information is detected by specifying the position of the feature point of the detection jig 50.

図12は、第2の実施形態に係る姿勢情報検出治具50の構成を示す構成図である。 FIG. 12 is a configuration diagram showing the configuration of the posture information detection jig 50 according to the second embodiment.

姿勢情報検出治具50は、全体として略正方形をなしている。姿勢情報検出治具50を略正方形と見たとき、4個の頂点のうち1個の頂点を成す2辺における当該頂点近傍領域と、他の3個の頂点の頂点近傍領域とでは、それぞれ異なる色を持つように構成されている。 The posture information detection jig 50 has a substantially square shape as a whole. When the attitude information detection jig 50 is regarded as a substantially square, the region near the apex on the two sides forming one of the four vertices and the region near the apex of the other three vertices are different from each other. It is configured to have a color.

例えば、姿勢情報検出治具50の点Aの頂点近傍領域を説明する。領域R11と領域R12とは同じ色で形成された領域である。領域R11は、左端上部501が湾曲しており、左端下部502は直線状に形成されている。領域R12は、上端左部503が湾曲しており、上端右部504が直線状に形成されている。このように、点Aは、領域R11と領域R12との境界点に位置している。 For example, a region near the apex of the point A of the posture information detection jig 50 will be described. The region R11 and the region R12 are regions formed in the same color. In the region R11, the upper left end 501 is curved, and the lower left end 502 is formed in a straight line. In the region R12, the upper left portion 503 is curved and the upper end right portion 504 is formed in a straight line. As described above, the point A is located at the boundary point between the region R11 and the region R12.

次に、他の頂点である点B、点C、点Dを代表して点Bの頂点近傍領域を説明する。領域R21と領域R22とは、同じ色で形成されている。領域R21と領域R22とは、領域R11及び領域R12に対し、HSI表色系で色を表現したとき、色相環上で離れた位置の色の領域である。領域R21は、右端上部505が湾曲しており、右端下部506は直線状に形成されており、領域R22は、上端右部507が湾曲しており、上端左部508が直線状に形成されている。点Bは、領域R21と領域R22との境界点に位置している。 Next, a region near the apex of the point B will be described on behalf of the other vertices, the point B, the point C, and the point D. The region R21 and the region R22 are formed in the same color. The region R21 and the region R22 are regions of colors at positions separated from each other on the color wheel when the colors are expressed by the HSI color system with respect to the regions R11 and R12. In the region R21, the upper right end 505 is curved and the lower right end 506 is formed linearly, and in the region R22, the upper right portion 507 is curved and the upper end left portion 508 is formed linearly. There is. The point B is located at the boundary point between the region R21 and the region R22.

また、例えば略正方形の姿勢情報検出治具50の上辺では、それぞれ色が異なる領域R11と領域R21とが存在するが、これは、姿勢情報検出治具50が、点Aの頂点近傍領域と、点Bの頂点近傍領域とをそれぞれ異なる色を持つように構成するようにしたからである。射影変換を行なう場合、変換元の点と、変換先の点との対応関係が求められる。したがって、この実施形態では、姿勢情報検出治具50の4個の頂点のうち、点Aと、それ以外の点(点B、点C、点D)とを区別するために、点Aの頂点近傍領域とそれ以外の点の頂点近傍領域との色が異なるようにしている。姿勢情報検出治具50の左辺についても同様である。 Further, for example, on the upper side of the substantially square posture information detection jig 50, there are regions R11 and regions R21 having different colors, which means that the posture information detection jig 50 has a region near the apex of the point A and a region near the apex. This is because the region near the apex of the point B is configured to have a different color. When performing projective transformation, the correspondence between the conversion source point and the conversion destination point is required. Therefore, in this embodiment, among the four vertices of the posture information detection jig 50, the vertices of the point A are used to distinguish the point A from the other points (point B, point C, point D). The colors of the neighborhood area and the area near the vertices of other points are different. The same applies to the left side of the posture information detection jig 50.

図13は、第2の実施形態に係る姿勢情報検出治具50をアナログメータ1に取り付けた状態を説明する説明図である。 FIG. 13 is an explanatory diagram illustrating a state in which the posture information detection jig 50 according to the second embodiment is attached to the analog meter 1.

姿勢情報検出治具50は、アナログメータ1の目盛り盤の表示面において、目盛り盤を囲むようにアナログメータ1の外枠111に取り付けられる。このとき、姿勢情報検出治具50の中心と、指示針の回転中心とが同一軸上となるように、姿勢情報検出治具50を配置すると共に、姿勢情報検出治具50の中心と、姿勢情報検出治具50の点Aと、アナログメータ1の目盛り「0」の位置とが直線L1上に並ぶように姿勢情報検出治具50を配置する。 The posture information detection jig 50 is attached to the outer frame 111 of the analog meter 1 so as to surround the scale board on the display surface of the scale board of the analog meter 1. At this time, the posture information detection jig 50 is arranged so that the center of the posture information detection jig 50 and the rotation center of the indicator needle are on the same axis, and the center of the posture information detection jig 50 and the posture The posture information detection jig 50 is arranged so that the point A of the information detection jig 50 and the position of the scale “0” of the analog meter 1 are aligned on the straight line L1.

(B−3)第2の実施形態の動作
(B−3−1)全体動作
次に、第2の実施形態に係る画像処理装置3Aによる画像処理の動作を、図面を参照しながら詳細に説明する。
(B-3) Operation of the Second Embodiment (B-3-1) Overall Operation Next, the operation of image processing by the image processing apparatus 3A according to the second embodiment will be described in detail with reference to the drawings. To do.

図14は、第2の実施形態に係る画像処理装置3Aによる画像処理の動作を示すフローチャートである。 FIG. 14 is a flowchart showing the operation of image processing by the image processing device 3A according to the second embodiment.

[ステップS1]
カメラ2により撮影された撮像画像(原画像)が、画像処理装置3の画像入力部31に入力される。
[Step S1]
The captured image (original image) taken by the camera 2 is input to the image input unit 31 of the image processing device 3.

ここで、アナログメータ1には、図12の姿勢情報検出治具50が取り付けられており、入力される撮像画像には、姿勢情報検出治具50が取り付けられているアナログメータ1が撮影されているものとする。また、カメラ2が撮影する画像の形式は、例えばRGB形式等のように色の情報を持つものとする。 Here, the posture information detection jig 50 of FIG. 12 is attached to the analog meter 1, and the analog meter 1 to which the posture information detection jig 50 is attached is photographed in the input captured image. It is assumed that there is. Further, the format of the image captured by the camera 2 is assumed to have color information such as an RGB format.

[ステップS20]
姿勢情報検出部32Aは、入力された撮像画像(原画像)から姿勢情報検出治具50を検出し、当該画像中における姿勢情報検出治具50の4個の頂点(点Am、点Bm、点Cm、点Dm)のXY座標値を取得する。
[Step S20]
The posture information detection unit 32A detects the posture information detection jig 50 from the input captured image (original image), and the four vertices (point Am, point Bm, point) of the posture information detection jig 50 in the image. The XY coordinate values of Cm and point Dm) are acquired.

ここで、姿勢情報検出部32Aが検出した4個の頂点(点Am、点Bm、点Cm、点Dm)のXY座標値を姿勢情報と呼ぶ。なお、原画像から姿勢情報検出治具50を検出する方法の詳細な説明は後述する。 Here, the XY coordinate values of the four vertices (point Am, point Bm, point Cm, point Dm) detected by the attitude information detection unit 32A are referred to as attitude information. A detailed description of the method of detecting the posture information detection jig 50 from the original image will be described later.

[ステップS3]
射影変換パラメータ算出部34は、姿勢情報検出部32Aにより検出された4個の頂点(点Am、点Bm、点Cm、点Dm)のXY座標値と、予め設定されている姿勢基準情報を構成する4個の基準点(点Ar、点Br、点Cr、点Dr)のXY座標値との合計8個のXY座標値を用いて、射影変換パラメータを導出する。
[Step S3]
The projective conversion parameter calculation unit 34 configures XY coordinate values of four vertices (point Am, point Bm, point Cm, point Dm) detected by the attitude information detection unit 32A, and preset attitude reference information. The projective transformation parameters are derived using a total of eight XY coordinate values including the XY coordinate values of the four reference points (point Ar, point Br, point Cr, point Dr).

図15は、姿勢基準情報の基準点Ar,Br、Cr、Drを変換元として、点Am、Bm、Cm、Dmを変換先とした射影変換を説明する説明図である。 FIG. 15 is an explanatory diagram illustrating a projective transformation in which the reference points Ar, Br, Cr, and Dr of the posture reference information are used as the conversion source and the points Am, Bm, Cm, and Dm are the conversion destinations.

図15に示すように、第2の実施形態も第1の実施形態と同様に、例えば、図4(B)の姿勢基準情報を構成する点Ar,Br、Cr、Drの4個のXY座標値をそれぞれ変換元とし、姿勢情報検出部32Aが原画像から検出した姿勢情報を構成する点Am、Bm、Cm、Dmの4個のXY座標値のそれぞれを変換先とし、変換元の各点を、変換先の各点に射影変換できるような射影変換パラメータを算出する。 As shown in FIG. 15, in the second embodiment as well as the first embodiment, for example, the four XY coordinates of the points Ar, Br, Cr, and Dr constituting the posture reference information of FIG. 4 (B). Each value is used as a conversion source, and each of the four XY coordinate values of Am, Bm, Cm, and Dm that constitute the posture information detected by the posture information detection unit 32A from the original image is used as the conversion destination, and each point of the conversion source. Is calculated as a projective conversion parameter that can be projected to each point of the conversion destination.

[ステップS4]
指示針検出座標列射影変換部35は、射影変換パラメータ算出部34に導出された射影変換パラメータを用いて、射影変換前の指示針検出座標列の全ての座標値を、射影変換する。
[Step S4]
The indicator needle detection coordinate sequence projection conversion unit 35 uses the projection conversion parameters derived from the projection conversion parameter calculation unit 34 to project all the coordinate values of the indicator needle detection coordinate sequence before the projection conversion.

第2の実施形態においても、第1の実施形態の図5(B)の指示針検出座標列を構成する全ての座標値を射影変換する。 Also in the second embodiment, all the coordinate values constituting the indicator needle detection coordinate sequence of FIG. 5 (B) of the first embodiment are projected and transformed.

[ステップS5]
指示針検出部36は、第1の実施形態と同様にして、射影変換後の指示針検出座標列を構成する全ての座標値を用いて、撮影画像(原画像)から画素値を取得し、指示針検出画素値列361を作成する。
[Step S5]
In the same manner as in the first embodiment, the indicator needle detection unit 36 acquires pixel values from the captured image (original image) by using all the coordinate values constituting the indicator needle detection coordinate sequence after the projective conversion. The indicator needle detection pixel value sequence 361 is created.

指示針検出画素値列361は、図9に例示する通り、インデックスと画素値とをペアとしたデータを1単位とし、当該データを複数個連なった構造となっている。指示針検出画素値列361のデータ個数は指示針検出座標列332のデータ個数と同一とする。指示針検出画素値列361のインデックスと、指示針検出座標列332のインデックスとはそれぞれ対応関係にある。 As illustrated in FIG. 9, the indicator needle detection pixel value sequence 361 has a structure in which data in which an index and a pixel value are paired is set as one unit, and a plurality of the data are connected. The number of data in the indicator needle detection pixel value sequence 361 is the same as the number of data in the indicator needle detection coordinate sequence 332. The index of the indicator needle detection pixel value sequence 361 and the index of the indicator needle detection coordinate sequence 332 have a corresponding relationship with each other.

[ステップS6]
指示針検出部36は、指示針検出画素値列361を構成する全ての画素値を参照して、指示針の角度を算出する。
[Step S6]
The indicator needle detection unit 36 calculates the angle of the indicator needle with reference to all the pixel values constituting the indicator needle detection pixel value sequence 361.

第2の実施形態において、第1の実施形態と同様に、例えば、指示針検出画素値列361を構成する全ての画素値について、各画素の輝度値を算出し、閾値を用いて各輝度値を2値化し、全ての輝度値の中から最小値となる画素のインデックスを求めるようにしてもよい。これにより、指示針検出座標列332、若しくは、指示針角度をインデックス毎に対応付けた指示針検出画素値列361を参照することにより、当該インデックスに対応する指示針角度を導出することができる。また第1の実施形態と同様に、例えば、指示針検出画素値列361を構成する全ての画素値について、各画素の輝度値を算出し、閾値を用いて各輝度値を2値化し、黒色となった画素の連続数が最も大きい区間の中央の画素のインデックスを求めるようにしてもよい。 In the second embodiment, as in the first embodiment, for example, the luminance value of each pixel is calculated for all the pixel values constituting the indicator needle detection pixel value sequence 361, and each luminance value is used using the threshold value. May be binarized to obtain the index of the pixel having the minimum value from all the luminance values. Thereby, by referring to the indicator needle detection coordinate sequence 332 or the indicator needle detection pixel value sequence 361 in which the indicator needle angle is associated with each index, the indicator needle angle corresponding to the index can be derived. Further, as in the first embodiment, for example, the brightness value of each pixel is calculated for all the pixel values constituting the indicator needle detection pixel value string 361, and each brightness value is binarized using the threshold value to obtain black color. The index of the pixel in the center of the section having the largest number of consecutive pixels may be obtained.

ここで、輝度値が最小となるインデックスを導出する理由を説明する。例えば、原画像において指示針が位置している画素は、指示針が位置していない画素に比べて、画素値(例えば輝度値等)が小さくなる。したがって、指示針検出部36は、指示針検出画素値列を構成する画素値列の中から、画素値が最小値となるものを選択することで、指示針の位置を特定することができる。 Here, the reason for deriving the index having the minimum luminance value will be described. For example, a pixel in which the indicator needle is located in the original image has a smaller pixel value (for example, a brightness value) than a pixel in which the indicator needle is not located. Therefore, the indicator needle detection unit 36 can specify the position of the indicator needle by selecting the pixel value string having the smallest pixel value from the pixel value strings constituting the indicator needle detection pixel value sequence.

さらに、上述したように、指示針検出画素値列361のインデックスと、指示針検出座標列332のインデックスとは対応する関係にあるので、複雑な座標変換処理を必要とせず、指示針の位置を示す画素の画素値を特定でき、その画素の座標値に対応するインデックスを特定することができれば、そのインデックスに対応する指示針角度を導出することができる。 Further, as described above, since the index of the indicator needle detection pixel value sequence 361 and the index of the indicator needle detection coordinate sequence 332 have a corresponding relationship, the position of the indicator needle can be determined without requiring complicated coordinate conversion processing. If the pixel value of the indicated pixel can be specified and the index corresponding to the coordinate value of the pixel can be specified, the indicator needle angle corresponding to the index can be derived.

[ステップS7、S8]
指示値算出部37は、指示針検出座標列332を参照して、指示針検出部36により検出された指示針角度に基づいて、指示針の指示値を算出する。そして、出力部38が、指示値を含む情報を後段に出力する。
[Steps S7, S8]
The instruction value calculation unit 37 calculates the instruction value of the instruction needle based on the instruction needle angle detected by the instruction needle detection unit 36 with reference to the instruction needle detection coordinate sequence 332. Then, the output unit 38 outputs the information including the indicated value to the subsequent stage.

(B−3−2)姿勢情報検出治具50の検出方法
図16は、第2の実施形態に係る姿勢情報検出部32Aの姿勢情報検出治具50の検出方法を示すフローチャートである。
(B-3-2) Detection Method of Posture Information Detection Jig 50 FIG. 16 is a flowchart showing a detection method of the posture information detection jig 50 of the posture information detection unit 32A according to the second embodiment.

ここで、姿勢情報検出治具50は、略正方形であり、4個の頂点のうち、点Aを成す2辺の領域R11及び領域R12には「色A」が施されており、他の3個の頂点(点B、点C、点D)を成す各辺の領域R21、領域R22、領域R23、領域R24には「色B」が施されているものとする。 Here, the attitude information detection jig 50 is substantially square, and of the four vertices, the two side regions R11 and R12 forming the point A are given "color A", and the other three It is assumed that "color B" is applied to the regions R21, region R22, region R23, and region R24 of each side forming the vertices (point B, point C, point D).

[ステップS21]
姿勢情報検出部32Aは、領域R11及び領域R12に施されている色Aを強調した画像(これを「色A強調画像」とも呼ぶ。)を原画像から作成する。
[Step S21]
The posture information detection unit 32A creates an image in which the color A applied to the areas R11 and R12 is emphasized (this is also referred to as a “color A emphasized image”) from the original image.

[ステップS22]
姿勢情報検出部32Aは、作成した色A強調画像に対してコーナー検出を行なう。ここで、コーナー検出手法については、例えばHarrisのコーナー検出などを用いることができる。
[Step S22]
The posture information detection unit 32A performs corner detection on the created color A emphasized image. Here, as the corner detection method, for example, Harris corner detection can be used.

[ステップS23]
姿勢情報検出部32Aは、ステップS22で検出されたコーナーから最も適切であると考えられるコーナーを1点選択する。なお、コーナーの選択方法については後述する。
[Step S23]
The posture information detection unit 32A selects one corner considered to be the most appropriate from the corners detected in step S22. The method of selecting a corner will be described later.

[ステップS24]
続いて、姿勢情報検出部32Aは、姿勢情報検出治具50の4個の頂点のうち、点A以外の3個の頂点を成す色Bを強調した画像(以下、「色B強調画像」とも呼ぶ。)を原画像から作成する。
[Step S24]
Subsequently, the posture information detection unit 32A emphasizes the color B forming the three vertices other than the point A among the four vertices of the posture information detection jig 50 (hereinafter, also referred to as “color B emphasized image”). Call.) Is created from the original image.

[ステップS25]
姿勢情報検出部32Aは、作成した色B強調画像に対してコーナー検出を行なう。このコーナー検出手法についても、ステップS22と同様に、例えばHarrisのコーナー検出などを用いる。
[Step S25]
The posture information detection unit 32A performs corner detection on the created color B emphasized image. As for this corner detection method, for example, Harris corner detection is used as in step S22.

[ステップS26]
姿勢情報検出部32Aは、ステップS25で検出されたコーナーから最も適切であると考えられるコーナーを3点選択する。なお、コーナーの選択方法については後述する。
[Step S26]
The posture information detection unit 32A selects three corners considered to be the most appropriate from the corners detected in step S25. The method of selecting a corner will be described later.

[ステップS27]
続いて、姿勢情報検出部32Aは、ステップS23及びS26で検出した4点にラベルを付与する。
[Step S27]
Subsequently, the posture information detection unit 32A assigns labels to the four points detected in steps S23 and S26.

ここでは、4点のうち、任意の点に対してラベルAtを付与し、原画像中において、点Atを起点として時計回りに、点Bt、点Ct、点Dtと順番にラベルを付与する。なお、4点にラベルを付与する詳細な説明は後述する。 Here, a label At is assigned to any of the four points, and in the original image, labels are assigned in the order of point Bt, point Ct, and point Dt in the clockwise direction starting from the point At. A detailed description of assigning labels to the four points will be described later.

[ステップS28]
姿勢情報検出部32Aは、姿勢情報検出治具50の色Aの領域が成す点のラベルがAtとなるようにラベルを付け替える。
[Step S28]
The posture information detection unit 32A replaces the label so that the label of the point formed by the region of the color A of the posture information detection jig 50 becomes At.

このとき、ラベルの配列が時計回りであることを維持するように、それぞれラベルの付け替えを行なう。各点が姿勢情報検出治具50の色Aもしくは色Bのどちらによって成されているか否かの判定方法の詳細は説明も後述する。この後、At,Bt,Ct,DtをそれぞれAm,Bm,Cm,Dmと付け替えて出力して終了する。 At this time, the labels are replaced so as to maintain that the arrangement of the labels is clockwise. Details of the method for determining whether each point is formed by the color A or the color B of the posture information detection jig 50 will be described later. After that, At, Bt, Ct, and Dt are replaced with Am, Bm, Cm, and Dm, respectively, and output is completed.

[コーナー選択法の説明]
次に、ステップS22及びS25におけるコーナー選択法を説明する。ここでは、撮像画像(原画像)に映っている姿勢情報検出治具50の4個の頂点である点A、点B、点C、点Dを検出する。
[Explanation of corner selection method]
Next, the corner selection method in steps S22 and S25 will be described. Here, the points A, B, C, and D, which are the four vertices of the posture information detection jig 50 shown in the captured image (original image), are detected.

点Aは、色Aが施されている2つの領域の境界点であり、それぞれ際立った2つのエッジの交点であるコーナーに位置しているので、色A強調画像からコーナーを選択することで点Aを検出できる。 The point A is the boundary point between the two regions to which the color A is applied, and is located at the corner which is the intersection of the two prominent edges. Therefore, the point A can be selected from the color A emphasized image. A can be detected.

また、点B、点C、点Dは、色Bが施されている2つの領域との境界点であり、それぞれ際立った2つのエッジの交点であるコーナーに位置しているので、色B強調画像からコーナーを選択することで点B、点C、点Dを検出できる。 Further, the points B, C, and D are the boundary points between the two regions to which the color B is applied, and are located at the corners that are the intersections of the two distinct edges, so that the color B is emphasized. Point B, point C, and point D can be detected by selecting a corner from the image.

まず、姿勢情報検出部32Aは、コーナーと判定された画素を白、コーナーではないと判定された画素を黒とした2値画像(コーナー2値画像)を作成する。 First, the posture information detection unit 32A creates a binary image (corner binary image) in which the pixels determined to be corners are white and the pixels determined not to be corners are black.

その後、コーナー2値画像に適当な回数の膨張処理を実行する。本処理で選択したいコーナーは姿勢情報検出治具50の頂点である。ここで、姿勢情報検出治具50の各頂点は、画像領域中においては十分な距離を持って分布している。そのため、互いにごく近い距離にあるコーナーは1つのコーナーから由来するものであると考えられるので、本膨張処理を行なう。 After that, the corner binary image is subjected to expansion processing an appropriate number of times. The corner to be selected in this process is the apex of the posture information detection jig 50. Here, the vertices of the posture information detection jig 50 are distributed with a sufficient distance in the image region. Therefore, it is considered that the corners that are very close to each other are derived from one corner, so this expansion process is performed.

続いて、姿勢情報検出部32Aは、膨張処理を行なったコーナー2値画像中における白領域の塊の個数を数える。該塊の個数により、後の処理が変化する。 Subsequently, the posture information detection unit 32A counts the number of lumps in the white region in the corner binary image that has undergone the expansion process. Subsequent processing changes depending on the number of the lumps.

塊の個数が目標個数未満である場合、コーナー検出処理におけるコーナーと判定する閾値を緩め、コーナー検出処理を再試行する、もしくは原画像の再撮影から処理をやり直す。 If the number of lumps is less than the target number, the threshold value for determining the corner in the corner detection process is relaxed, the corner detection process is retried, or the process is restarted from the re-shooting of the original image.

ここで、目標個数は、検出しようとするコーナーの数を意味する。例えば、ステップS22では、色A強調画像から1点のコーナーを検出する場合であるため、この場合、目標個数は1個となる。また、ステップS25では、色B強調画像から3点のコーナーを検出する場合であるため、この場合、目標個数は3個となる。 Here, the target number means the number of corners to be detected. For example, in step S22, since one corner is detected from the color A emphasized image, the target number is one in this case. Further, in step S25, since the case is to detect three corners from the color B emphasized image, in this case, the target number is three.

一方、塊の個数が目標個数を超える場合、塊の中から目標個数だけの塊を選択する必要があり、例えば、次のような塊選択方法を用いることができる。 On the other hand, when the number of lumps exceeds the target number, it is necessary to select as many lumps as the target number from the lumps, and for example, the following lump selection method can be used.

例えば、各塊の領域における重心座標値を中心とした適当な半径の領域(以下、塊領域)を考える。原画像における塊領域の色の構成の比率と、姿勢情報検出治具50の頂点を中心とした適当な半径の領域(以下、治具頂点領域)の色の構成の比率とを比較する。そして、塊領域の色の構成の比率と治具頂点領域の色の構成の比率とが類似しているものから、上位必要個数を選択する。 For example, consider a region having an appropriate radius centered on the coordinate value of the center of gravity in each mass region (hereinafter referred to as a mass region). The ratio of the color composition of the mass region in the original image is compared with the ratio of the color composition of the region having an appropriate radius centered on the apex of the posture information detection jig 50 (hereinafter, the jig apex region). Then, the upper required number is selected from those having a similar ratio of the color composition of the mass region and the color composition ratio of the jig apex region.

比率の類似判定においては、例えば各塊領域及び治具頂点領域の色比率をベクトルとして考え、各塊領域のベクトルと、治具頂点領域のベクトルとでコサイン類似度を計算し、コサイン類似度が高い上位必要個数を選択する、といった手法を用いてもよい。 In determining the similarity of ratios, for example, the color ratio of each mass region and the jig vertex region is considered as a vector, the cosine similarity is calculated from the vector of each mass region and the vector of the jig vertex region, and the cosine similarity is determined. A method such as selecting a high upper required number may be used.

そして、塊の個数が目標個数と一致する場合、各塊中からコーナーである1個の画素を選択する。この1個の画素の選択方法は、例えば任意の方法を用いることができ、例えば、塊領域の重心に位置している1個の画素をコーナーとして選択する方法等を用いることができる。 Then, when the number of lumps matches the target number, one pixel which is a corner is selected from each lump. As the method for selecting one pixel, for example, any method can be used, and for example, a method for selecting one pixel located at the center of gravity of the mass region as a corner can be used.

[ステップS27の詳細な動作]
図17は、第2の実施形態の4個の頂点にラベルを付与する方法を説明する説明図である。
[Detailed operation of step S27]
FIG. 17 is an explanatory diagram illustrating a method of assigning labels to the four vertices of the second embodiment.

まず、図17(A)に例示するように、姿勢情報検出部32Aは、4点に仮ラベル(点At,点Bt,点Ct,点Dt)を付与する。このときのラベルの付与の仕方は任意の方法で付与してよい。 First, as illustrated in FIG. 17A, the posture information detection unit 32A assigns temporary labels (point At, point Bt, point Ct, point Dt) to four points. The label may be attached by any method at this time.

続いて、姿勢情報検出部32Aは、以下のようにして、4点に付与した仮ラベルの付け替えを行なう。 Subsequently, the posture information detection unit 32A replaces the temporary labels given to the four points as follows.

まず、線分At−Btと線分Ct−Dtが交差するか否かを判定する。交差する場合、点Atと点Dtのラベルを入れ替える。例えば、図17(B)では、線分At−Btと線分Ct−Dtが交差するので、点Atと点Dtのラベルを入れ替える。 First, it is determined whether or not the line segment At-Bt and the line segment Ct-Dt intersect. If they intersect, the labels for points At and Dt are swapped. For example, in FIG. 17B, since the line segment At-Bt and the line segment Ct-Dt intersect, the labels of the point At and the point Dt are exchanged.

続いて、線分Dt―Atと線分Bt−Ctが交差するか否かを判定する。交差する場合、点Atと点Btのラベルを入れ替える。例えば、図17(C)では、線分Dt−Atと線分Bt−Ctは交差しないので、ラベルの入れ替えをしない。 Subsequently, it is determined whether or not the line segment Dt-At and the line segment Bt-Ct intersect. When they intersect, the labels for points At and Bt are swapped. For example, in FIG. 17C, since the line segment Dt-At and the line segment Bt-Ct do not intersect, the labels are not replaced.

この後、画像上において、4点が時計回りに配列しているか否かを判定する。反時計回りに配列している場合、点Atと点Ctのラベルを入れ替える。例えば、図17(C)に示すように、点Atを起点として時計回りの配列を見ると、点At→点Dt→点Ct→点Btと順番に配列していないので、点Atと点Ctのラベルを入れ替える。そうすると、図17(D)に示すように、点Atを起点としてラベルが順番に配列されるようになる。 After that, it is determined whether or not the four points are arranged clockwise on the image. When arranging counterclockwise, the labels of point At and point Ct are exchanged. For example, as shown in FIG. 17C, when looking at the clockwise arrangement starting from the point At, the points At → the point Dt → the point Ct → the point Bt are not arranged in this order, so the points At and the point Ct Replace the label. Then, as shown in FIG. 17D, the labels are arranged in order starting from the point At.

なお、上述した線分交差及び点の配列方向の判定の具体的な手段は、上述した手法に限定されるものではなく、点Atを起点としてラベルが順番に配列できる方法であれば、任意の手段を用いてよい。 The specific means for determining the line segment intersection and the arrangement direction of the points described above is not limited to the method described above, and any method can be used as long as the labels can be arranged in order starting from the point At. Means may be used.

[ステップS28の判定方法]
次に、ステップS28における判定方法の動作について説明する。本動作は、前述のコーナー選択法における塊選択方法に類似している。
[Determination method of step S28]
Next, the operation of the determination method in step S28 will be described. This operation is similar to the mass selection method in the above-mentioned corner selection method.

まず、4個の頂点の座標を中心とした適当な半径の領域(以下、頂点領域)と、色Aが成す領域(以下、色A領域)との、原画像中における色比率を考える。 First, consider the color ratio in the original image of a region having an appropriate radius centered on the coordinates of the four vertices (hereinafter, apex region) and a region formed by color A (hereinafter, color A region).

各頂点領域の色比率と、色A領域の色比率とをそれぞれベクトルとして考え、頂点領域のベクトルと、色A領域のベクトルとでコサイン類似度を計算する。そして、コサイン類似度が最も高い点を点Atとして選択する。 The color ratio of each vertex region and the color ratio of the color A region are considered as vectors, and the cosine similarity is calculated from the vector of the vertex region and the vector of the color A region. Then, the point having the highest cosine similarity is selected as the point At.

(B−4)第2の実施形態の効果
以上のように、第2の実施形態の画像処理装置によれば、第1の実施形態と同様の効果を奏する。
(B-4) Effect of Second Embodiment As described above, the image processing apparatus of the second embodiment has the same effect as that of the first embodiment.

また、第2の実施形態の画像処理装置によれば、アナログメータに姿勢情報検出治具を取り付け、カメラが、姿勢情報検出治具が取り付けられたアナログメータを撮影し、画像処理装置が、姿勢情報検出治具の4頂点の位置を用いて、撮像画像に映り込むアナログメータの理想的な位置と姿勢との差分を示す射影変換パラメータを導出し、当該射影変換パラメータを用いて指示針検出座標列の全ての座標値(座標情報)を射影変換する。そして、射影変換後の指示針検出座標列の全ての座標値の画素値に基づいて、指示針の指示値を読み取ることができる。 Further, according to the image processing device of the second embodiment, the attitude information detection jig is attached to the analog meter, the camera takes a picture of the analog meter to which the posture information detection jig is attached, and the image processing device is the posture. Using the positions of the four vertices of the information detection jig, a projection conversion parameter indicating the difference between the ideal position and orientation of the analog meter reflected in the captured image is derived, and the indicator needle detection coordinates are derived using the projection conversion parameter. Projection transforms all coordinate values (coordinate information) of a column. Then, the indicated values of the indicator needle can be read based on the pixel values of all the coordinate values of the indicator needle detection coordinate sequence after the projective conversion.

第2の実施形態は、色相環上の離れた位置にある色の組み合わせからなる略正方形の姿勢情報検出治具を用いるので、色同士の色相差が充分であるため、姿勢情報検出治具の4個の頂点の位置を容易に導出することができる。その結果、姿勢情報検出治具の4個の頂点と、姿勢情報の4個の基準点とに基づいて、射影変換パラメータを容易に導出することができる。 In the second embodiment, since a substantially square posture information detection jig composed of a combination of colors at distant positions on the color wheel is used, the hue difference between the colors is sufficient, so that the posture information detection jig The positions of the four vertices can be easily derived. As a result, the projective conversion parameters can be easily derived based on the four vertices of the attitude information detection jig and the four reference points of the attitude information.

また、第2の実施形態は、姿勢情報検出治具をアナログメータに取り付けるという簡単な手法であるため、指示値読取システムに係る導入コストを抑えることができる。さらに、カメラの撮影範囲の中に、アナログメータの目盛り盤の面と姿勢情報検出治具が映っていれば本発明の効果は十分に発揮されるため、アナログメータとカメラとの相対的な位置関係やカメラの向きの制限を緩和することできる。そのため、アナログメータに対するカメラの設置の自由度が大きくなる。 Further, since the second embodiment is a simple method of attaching the posture information detection jig to the analog meter, the introduction cost of the indicated value reading system can be suppressed. Further, if the surface of the dial of the analog meter and the attitude information detection jig are reflected in the shooting range of the camera, the effect of the present invention is fully exhibited, so that the relative position between the analog meter and the camera is exhibited. It is possible to relax restrictions on relationships and camera orientation. Therefore, the degree of freedom in installing the camera with respect to the analog meter is increased.

(C)第3の実施形態
次に、本発明に係る画像処理装置、画像処理プログラム、画像処理方法及び情報収集システムの第3の実施形態を、図面を参照しながら詳細に説明する。
(C) Third Embodiment Next, a third embodiment of the image processing apparatus, the image processing program, the image processing method, and the information collecting system according to the present invention will be described in detail with reference to the drawings.

(C−1)第3の実施形態の構成
第3の実施形態は、第2の実施形態と同様に、アナログメータに姿勢情報検出治具を取り付けて、姿勢情報検出部が、撮像画像から姿勢情報検出治具の4頂点の位置を検出し、その4頂点の座標値と姿勢基準情報の4個の基準点とに基づいて射影変換パラメータを導出するものである。
(C-1) Configuration of Third Embodiment In the third embodiment, similarly to the second embodiment, a posture information detection jig is attached to the analog meter, and the posture information detection unit moves the posture from the captured image. The position of the four vertices of the information detection jig is detected, and the projective conversion parameter is derived based on the coordinate values of the four vertices and the four reference points of the posture reference information.

しかし、第3の実施形態は、アナログメータに取り付ける姿勢情報検出治具の構成と、姿勢情報検出部による撮像画像から姿勢情報検出治具の4頂点の位置を検出する処理とが、第2の実施形態と異なる。 However, in the third embodiment, the configuration of the posture information detection jig attached to the analog meter and the process of detecting the positions of the four vertices of the posture information detection jig from the image captured by the posture information detection unit are the second. Different from the embodiment.

したがって、第3の実施形態の画像処理装置は、第2の実施形態の図11を用いて、第2の実施形態と異なる構成要素を中心に説明する。 Therefore, the image processing apparatus of the third embodiment will be described focusing on the components different from those of the second embodiment by using FIG. 11 of the second embodiment.

図18は、第3の実施形態に係る姿勢情報検出治具50Aの構成を示す構成図である。 FIG. 18 is a configuration diagram showing the configuration of the posture information detection jig 50A according to the third embodiment.

姿勢情報検出治具50Aは、全体として略正方形をなしている。略正方形の姿勢情報検出治具50Aの各辺は2色で構成されている。2色で構成されている各辺の色の組み合わせは、例えばHSI表色系で色を表現したときに、色相環上の離れた位置にある色を選択する。 The posture information detection jig 50A has a substantially square shape as a whole. Each side of the substantially square posture information detection jig 50A is composed of two colors. For the color combination of each side composed of two colors, for example, when the color is expressed by the HSI color system, the color at a distant position on the hue circle is selected.

2色で構成されている各辺において、各色の領域の境界線を直線a、直線b、直線c、直線dとしている。また、直線dと直線aで成す頂点を点A、直線aと直線bで成す頂点を点B、直線bと直線cで成す頂点を点C、直線cと直線dで成す頂点を点Dとしている。 On each side composed of two colors, the boundary line of each color region is a straight line a, a straight line b, a straight line c, and a straight line d. Further, the vertex formed by the straight line d and the straight line a is defined as the point A, the vertex formed by the straight line a and the straight line b is defined as the point B, the vertex formed by the straight line b and the straight line c is defined as the point C, and the vertex formed by the straight line c and the straight line d is defined as the point D. There is.

4辺のうち、直線bと直線cを境界線とする2辺は、同じ色の組み合わせとしている。したがって、姿勢情報検出治具50Aの各辺は、3組の色の組み合わせで形成されている。このように、色の組み合わせの数は少なくとも3組を用いることが望ましい。 Of the four sides, the two sides having the straight line b and the straight line c as the boundary lines have the same color combination. Therefore, each side of the posture information detection jig 50A is formed of three sets of color combinations. As described above, it is desirable to use at least three color combinations.

図19は、第3の実施形態に係る姿勢情報検出治具50Aをアナログメータ1に取り付けた状態を説明する説明図である。 FIG. 19 is an explanatory diagram illustrating a state in which the posture information detection jig 50A according to the third embodiment is attached to the analog meter 1.

姿勢情報検出治具50Aのアナログメータ1への取付方法は、基本的には、第2の実施形態と同じである。すなわち、姿勢情報検出治具50Aは、アナログメータ1の目盛り盤を囲むように、アナログメータ1の外枠111に設けられる。 The method of attaching the posture information detection jig 50A to the analog meter 1 is basically the same as that of the second embodiment. That is, the posture information detection jig 50A is provided on the outer frame 111 of the analog meter 1 so as to surround the scale plate of the analog meter 1.

このとき、姿勢情報検出治具50Aの中心と、指示針の回転中心とが同一軸上となるように、姿勢情報検出治具50Aを配置すると共に、姿勢情報検出治具50Aの中心と、姿勢情報検出治具50Aの点Aと、アナログメータ1の目盛り「0」の位置とが直線L1上に並ぶように姿勢情報検出治具50を配置する。 At this time, the posture information detection jig 50A is arranged so that the center of the posture information detection jig 50A and the rotation center of the indicator needle are on the same axis, and the center of the posture information detection jig 50A and the posture. The posture information detection jig 50 is arranged so that the point A of the information detection jig 50A and the position of the scale "0" of the analog meter 1 are aligned on the straight line L1.

(C−2)第3の実施形態の動作
第3の実施形態に係る画像処理装置3Aの画像処理方法は、基本的には、第2の実施形態において、図14のフローチャートを用いて説明した方法と同じである。
(C-2) Operation of Third Embodiment The image processing method of the image processing apparatus 3A according to the third embodiment is basically described in the second embodiment using the flowchart of FIG. Same as the method.

したがって、第3の実施形態では、姿勢情報検出部30Aによる姿勢情報検出治具50Aの4頂点の位置を検出する処理を詳細に説明する。 Therefore, in the third embodiment, the process of detecting the positions of the four vertices of the posture information detection jig 50A by the posture information detection unit 30A will be described in detail.

図20は、第3の実施形態に係る姿勢情報検出部32Aの姿勢情報検出治具50の検出方法を示すフローチャートである。 FIG. 20 is a flowchart showing a detection method of the posture information detection jig 50 of the posture information detection unit 32A according to the third embodiment.

[ステップS31]
姿勢情報検出部32Aは、画像入力部11から入力された撮像画像(原画像)をHSI変換する。これにより、撮像画像を、色相、彩度、輝度の3つの成分からなる画像とすることができる。
[Step S31]
The posture information detection unit 32A converts the captured image (original image) input from the image input unit 11 into HSI. As a result, the captured image can be made into an image composed of three components of hue, saturation, and brightness.

[ステップS32〜S37]
ステップS32〜S37では、色相、彩度、輝度の3つの成分のうち、各画素の色相(H成分)に着目してH成分差分画像を作成する。ここでは、原画像の全画素のうち、ある画素を注目画素として以下の処理を行ない、また全画素についてステップS32〜S37の処理をそれぞれ繰り返し行なう。
[Steps S32 to S37]
In steps S32 to S37, the H component difference image is created by focusing on the hue (H component) of each pixel among the three components of hue, saturation, and brightness. Here, among all the pixels of the original image, the following processing is performed with a certain pixel as the pixel of interest, and the processing of steps S32 to S37 is repeated for all the pixels.

[ステップS33]
姿勢情報検出部32Aは、原画像において、ある画素を注目画素とし、その注目画素のH成分の値と、当該注目画素の周辺8画素のH成分の値との差分の絶対値を算出する。これにより、1個の注目画素について8個のH成分の差分絶対値が得られる。
[Step S33]
In the original image, the posture information detection unit 32A uses a certain pixel as a pixel of interest, and calculates the absolute value of the difference between the value of the H component of the pixel of interest and the value of the H component of the eight pixels around the pixel of interest. As a result, the absolute difference value of eight H components can be obtained for one pixel of interest.

[ステップS34]
姿勢情報検出部32Aは、注目画素に関する8個のH成分の差分絶対値の大小関係を判断して、最大値を、当該注目画素のH成分差分値とする。
[Step S34]
The posture information detection unit 32A determines the magnitude relationship of the difference absolute values of the eight H components with respect to the pixel of interest, and sets the maximum value as the H component difference value of the pixel of interest.

[ステップS35]
次に、姿勢情報検出部32Aは、注目画素の彩度(S成分)の値を取得し、そのS成分の値と閾値とを比較する。そして、注目画素のS成分の値が閾値未満であれば、ステップS36に移行する。注目画素のS成分の値が閾値未満でなければ、ステップS37に移行する。
[Step S35]
Next, the posture information detection unit 32A acquires the value of the saturation (S component) of the pixel of interest and compares the value of the S component with the threshold value. Then, if the value of the S component of the pixel of interest is less than the threshold value, the process proceeds to step S36. If the value of the S component of the pixel of interest is not less than the threshold value, the process proceeds to step S37.

[ステップS36]
注目画素のS成分の値が閾値未満であるとき、当該注目画素のH成分差分値を0とする。
[Step S36]
When the value of the S component of the pixel of interest is less than the threshold value, the difference value of the H component of the pixel of interest is set to 0.

[ステップS37]
姿勢情報検出部32Aは、撮像画像(原画像)の全ての画素に対してステップS32〜S37の処理を行ない、H成分差分画像を作成する。したがって、全ての画素について処理が完了していない場合、全ての画素に対してステップS32〜S37の処理を行なう。
[Step S37]
The posture information detection unit 32A performs the processes of steps S32 to S37 on all the pixels of the captured image (original image) to create an H component difference image. Therefore, when the processing is not completed for all the pixels, the processing of steps S32 to S37 is performed for all the pixels.

[ステップS38]
姿勢情報検出部32Aは、H成分差分画像にハフ変換を適用し、姿勢情報検出治具50Aを構成する4本の直線L11、L12、L13、L14を検出する。なお、この4本の直線それぞれは、姿勢情報検出治具50Aを構成する各辺における、2つの色の境界に相当する。
[Step S38]
The attitude information detection unit 32A applies the Hough transform to the H component difference image, and detects the four straight lines L11, L12, L13, and L14 constituting the attitude information detection jig 50A. Each of these four straight lines corresponds to the boundary between two colors on each side constituting the posture information detection jig 50A.

[ステップS39]
姿勢情報検出部32Aは、検出された4本の直線を用いて、4個の交点を検出する。
[Step S39]
The posture information detection unit 32A detects four intersections using the four detected straight lines.

具体的には、4本の直線のうち、ある直線を基準直線とし、基準直線の傾きと、他の3本の直線の傾きとの差分の絶対値を算出する。そして、該傾きの差分の絶対値が大きい2本の直線を選択する。基準直線と、該2本の直線との交点を算出する。結果として2個の交点が得られる。 Specifically, of the four straight lines, one straight line is used as a reference straight line, and the absolute value of the difference between the slope of the reference straight line and the slopes of the other three straight lines is calculated. Then, two straight lines having a large absolute value of the difference in slope are selected. The intersection of the reference straight line and the two straight lines is calculated. As a result, two intersections are obtained.

上述した処理を4本の直線のそれぞれについて行ない、これにより得られた座標値の重複を除くと、4個の座標値が得られる。 By performing the above-mentioned processing for each of the four straight lines and removing the duplication of the coordinate values obtained by this, four coordinate values can be obtained.

[ステップS40]
姿勢情報検出部32Aは、ステップS38で検出した4本の直線を、それぞれ直線a、直線b、直線c、直線dとラベル付けする。4本の直線のうち、ある直線の上には、ステップS39で検出した交点のうちの2個が存在することになる。原画像における、該2交点を結んだ線分の近傍領域の画素のH成分の値から、姿勢情報検出治具50Aのどの直線であるかを識別し、ラベル付けする。
[Step S40]
The posture information detection unit 32A labels the four straight lines detected in step S38 as straight lines a, b, c, and d, respectively. Of the four straight lines, two of the intersections detected in step S39 are present on a certain straight line. From the value of the H component of the pixel in the region near the line segment connecting the two intersections in the original image, which straight line of the posture information detection jig 50A is identified and labeled.

[ステップS41]
姿勢情報検出部32Aは、ステップS39で検出した4個の交点に対して、点A、点B、点C、点Dとラベル付けする。
[Step S41]
The posture information detection unit 32A labels the four intersections detected in step S39 as points A, B, C, and D.

ラベル付けの際には、どの2直線から成る交点であるかを判定するために、ステップS40でラベル付けした直線のラベルを用いる。 At the time of labeling, the label of the straight line labeled in step S40 is used in order to determine which two straight lines are the intersection.

(C−3)第3の実施形態の効果
以上のように、第3の実施形態の画像処理装置によれば、第1及び第2の実施形態と同様の効果を得ることができる。
(C-3) Effect of Third Embodiment As described above, according to the image processing apparatus of the third embodiment, the same effect as that of the first and second embodiments can be obtained.

(D)第4の実施形態
次に、本発明に係る画像処理装置、画像処理プログラム、画像処理方法及び情報収集システムの第4の実施形態を、図面を参照しながら詳細に説明する。
(D) Fourth Embodiment Next, a fourth embodiment of the image processing apparatus, the image processing program, the image processing method, and the information collecting system according to the present invention will be described in detail with reference to the drawings.

以下、第2又は第3の実施形態に第4の実施形態を適用する場合を例示するが、第1の実施形態に第4の実施形態を適用する場合にも同様の効果を得ることができる。 Hereinafter, the case where the fourth embodiment is applied to the second or third embodiment will be illustrated, but the same effect can be obtained when the fourth embodiment is applied to the first embodiment. ..

図21は、第4の実施形態に係る画像処理装置の内部構成を示す内部構成図である。 FIG. 21 is an internal configuration diagram showing an internal configuration of the image processing apparatus according to the fourth embodiment.

図21において、第4の実施形態の画像処理装置3Bは、画像入力部31、姿勢情報検出部32A、記憶部33、射影変換パラメータ算出部34B、原画像射影変換部39、指示針検出部36B、指示値算出部37、出力部38を有する。 In FIG. 21, the image processing device 3B of the fourth embodiment has an image input unit 31, an attitude information detection unit 32A, a storage unit 33, a projection conversion parameter calculation unit 34B, an original image projection conversion unit 39, and an indicator needle detection unit 36B. , The indicated value calculation unit 37, and the output unit 38.

第4の実施形態では、射影変換パラメータ算出部34B及び指示針検出部36Bの各処理と、第1〜第3の実施形態の指示針検出座標列射影変換部35を、原画像射影変換部39に置き換えている点が、第1〜第3の実施形態と異なる。 In the fourth embodiment, each process of the projective conversion parameter calculation unit 34B and the indicator needle detection unit 36B, and the indicator needle detection coordinate sequence projection conversion unit 35 of the first to third embodiments are performed by the original image projection conversion unit 39. It is different from the first to third embodiments in that it is replaced with.

射影変換パラメータ算出部34Bは、撮像画像(原画像)から検出した4個の頂点Am、Bm、Cm、DmのXY座標値と、姿勢基準情報331を構成する4個の基準点Ar、Br、Cr、DrのXY座標値の8個の点のXY座標値に基づいて、射影変換パラメータを算出する点は、第1〜第3の実施形態と同様であるが、射影変換パラメータの算出方法が第1〜第3の実施形態と異なる。 The projective conversion parameter calculation unit 34B includes XY coordinate values of the four vertices Am, Bm, Cm, and Dm detected from the captured image (original image), and four reference points Ar, Br, which constitute the attitude reference information 331. The point at which the projective conversion parameter is calculated based on the XY coordinate values of the eight points of the XY coordinate values of Cr and Dr is the same as in the first to third embodiments, but the method of calculating the projective conversion parameter is different. It is different from the first to third embodiments.

つまり、射影変換パラメータ算出部34Bは、撮像画像(原画像)から検出した、撮像画像(原画像)から抽出した4個の頂点Am、Bm、Cm、Dmを変換元として、姿勢基準情報331を構成する4個の基準点Ar、Br、Cr、Drを変換先として射影変換する。このように変換元と変換先とする座標値が第1〜第3の実施形態と異なる。 That is, the projective conversion parameter calculation unit 34B uses the four vertices Am, Bm, Cm, and Dm extracted from the captured image (original image) detected from the captured image (original image) as conversion sources, and provides the posture reference information 331. Projection conversion is performed using the four constituent reference points Ar, Br, Cr, and Dr as conversion destinations. As described above, the coordinate values of the conversion source and the conversion destination are different from those of the first to third embodiments.

原画像射影変換部39は、射影変換パラメータ算出部34Bにより算出された射影変換パラメータを用いて、撮像画像(原画像)を射影変換するものである。 The original image projective conversion unit 39 projects a captured image (original image) using the projective conversion parameters calculated by the projective conversion parameter calculation unit 34B.

指示針検出部36Bは、指示針検出座標列332を構成する各座標値を参照して、原画像射影変換部39によって射影変換された原画像から画素値を取得し、指示針検出画素値列を作成するものである。 The indicator needle detection unit 36B refers to each coordinate value constituting the indicator needle detection coordinate sequence 332, acquires a pixel value from the original image projected by the original image projection conversion unit 39, and obtains a pixel value from the original image projected by the original image projection conversion unit 39. Is to create.

つまり、第1〜第3の実施形態では、射影変換パラメータを用いて、指示針検出座標列を構成する各座標値を射影変換して、原画像における対応する座標値の画素値を取得して、指示針検出画素値列を作成していたが、第4の実施形態の指示針検出部36Bは、射影変換後の原画像から、指示針検出座標列を構成する各座標値の画素値を取得して、指示針検出画素値列を作成する。 That is, in the first to third embodiments, the projection conversion parameters are used to project-transform each coordinate value constituting the indicator needle detection coordinate sequence to acquire the pixel value of the corresponding coordinate value in the original image. , The indicator needle detection pixel value sequence was created, but the indicator needle detection unit 36B of the fourth embodiment obtains the pixel values of the coordinate values constituting the indicator needle detection coordinate sequence from the original image after the projective conversion. Acquire and create an indicator needle detection pixel value string.

(D−2)第4の実施形態の動作
図22は、第4の実施形態に係る画像処理装置3Bにおける画像処理を示すフローチャートである。
(D-2) Operation of the Fourth Embodiment FIG. 22 is a flowchart showing image processing in the image processing apparatus 3B according to the fourth embodiment.

[ステップS1、S20]
カメラ2により撮影された撮像画像(原画像)が、画像処理装置3の画像入力部31に入力され(ステップS1)、姿勢情報検出部32Aは、入力された撮像画像(原画像)から姿勢情報検出治具50を検出し、当該画像中における姿勢情報検出治具50の4個の頂点(点Am、点Bm、点Cm、点Dm)のXY座標値を取得する(ステップS20)。
[Steps S1, S20]
The captured image (original image) captured by the camera 2 is input to the image input unit 31 of the image processing device 3 (step S1), and the posture information detection unit 32A receives the posture information from the input captured image (original image). The detection jig 50 is detected, and the XY coordinate values of the four vertices (point Am, point Bm, point Cm, point Dm) of the attitude information detection jig 50 in the image are acquired (step S20).

[ステップS50]
射影変換パラメータ算出部34は、姿勢情報検出部32により検出された4個の頂点(点Am、点Bm、点Cm、点Dm)のXY座標値を変換元とし、姿勢基準情報を構成する4個の基準点(点Ar、点Br、点Cr、点Dr)のXY座標値を変換先として、変換元の点を、変換先の点へ、射影変換できるような射影変換パラメータを算出する。
[Step S50]
The projective transformation parameter calculation unit 34 uses the XY coordinate values of the four vertices (point Am, point Bm, point Cm, point Dm) detected by the attitude information detection unit 32 as the conversion source, and constitutes the attitude reference information 4. Using the XY coordinate values of the reference points (point Ar, point Br, point Cr, point Dr) as the conversion destination, the projection conversion parameters that can project the conversion source point to the conversion destination point are calculated.

[ステップS51]
原画像射影変換部39は、射影変換パラメータ算出部34Bにより算出された射影変換パラメータを用いて、撮像画像(原画像)を射影変換する。
[Step S51]
The original image projection conversion unit 39 performs a projection conversion of the captured image (original image) using the projection conversion parameters calculated by the projection conversion parameter calculation unit 34B.

[ステップS52]
そして、指示針検出部36Bは、指示針検出座標列332を構成する各座標値を参照して、原画像射影変換部39によって射影変換された原画像から画素値を取得し、指示針検出画素値列を作成する。
[Step S52]
Then, the indicator needle detection unit 36B refers to each coordinate value constituting the indicator needle detection coordinate sequence 332, acquires a pixel value from the original image projected by the original image projection conversion unit 39, and obtains a pixel value from the original image projected by the original image projection conversion unit 39, and the indicator needle detection pixel Create a value column.

[ステップS6〜S8]
ステップS6〜S8の処理は、第1〜第3の実施形態と同様であるため、ここの詳細な説明は省略する。
[Steps S6 to S8]
Since the processes of steps S6 to S8 are the same as those of the first to third embodiments, detailed description thereof will be omitted here.

(D−3)第4の実施形態の効果
以上のように、第4の実施形態の画像処理装置によっても、第1〜第3の実施形態と同様の効果を得ることができる。
(D-3) Effect of Fourth Embodiment As described above, the same effect as that of the first to third embodiments can be obtained by the image processing apparatus of the fourth embodiment.

(E)他の実施形態
(E−1)上述した第1〜第3の実施形態では、射影変換された指示針検出座標列を参照して、撮像画像から抽出した複数の画素値を検出することを例示した。また、第4の実施形態では、指示針検出座標列を用いて射影変換された撮像画像から抽出した複数の画素値から指示針の位置を検出する場合を例示した。
(E) Other Embodiment (E-1) In the first to third embodiments described above, a plurality of pixel values extracted from the captured image are detected with reference to the projective-transformed indicator needle detection coordinate sequence. I illustrated that. Further, in the fourth embodiment, the case where the position of the indicator needle is detected from a plurality of pixel values extracted from the captured image projected and transformed using the indicator needle detection coordinate sequence is illustrated.

このとき、指示針検出座標列の各座標値の画素値から指示針の位置を検出する際、指示針検出座標列の各座標値を含む一定領域の画素値を考慮し、各座標値を含む一定領域の画素値から指示針の位置を検出するようにしてもよい。これは、例えば、図24(A)に示すように、目盛り盤には、例えば「0」などの数字が付与されており、そのときには撮像画像における当該座標値の画素値が小さくなってしまうことがある。そのような場合、目盛り盤の数字と被らない位置に、指示針検出座標列の各座標値を配置させる仮想円VC2の位置を設定することで回避できる。しかし、仮に、目盛り盤の数字と被ってしまった位置に仮想円VC2があるときには、図24(B)に示すように、指示針検出座標列の各座標値を含む一定の広がりを持つ領域の画素値を考慮するようにしてもよい。 At this time, when detecting the position of the indicator needle from the pixel value of each coordinate value of the indicator needle detection coordinate string, the pixel value of a certain area including each coordinate value of the indicator needle detection coordinate string is taken into consideration, and each coordinate value is included. The position of the indicator needle may be detected from the pixel value in a certain region. This is because, for example, as shown in FIG. 24 (A), a number such as "0" is assigned to the dial, and at that time, the pixel value of the coordinate value in the captured image becomes small. There is. In such a case, it can be avoided by setting the position of the virtual circle VC2 in which each coordinate value of the indicator needle detection coordinate sequence is arranged at a position not covered with the number on the dial. However, if there is a virtual circle VC2 at the position where it is covered with the numbers on the scale, as shown in FIG. 24 (B), the area having a certain extent including each coordinate value of the indicator needle detection coordinate sequence The pixel value may be taken into consideration.

(E−2)上述した第1〜第4の実施形態では、射影変換パラメータの算出に関して、カメラ2からの撮像画像が入力するたびに射影変換パラメータを算出しているように表現しているが、射影変換パラメータの算出処理は、画像処理システムの初期設定の際に行なったなり、所定の時間毎に行なったりするようにしてもよい。 (E-2) In the first to fourth embodiments described above, regarding the calculation of the projection conversion parameter, it is expressed as if the projection conversion parameter is calculated every time the image captured from the camera 2 is input. The calculation process of the projective conversion parameter may be performed at the time of initial setting of the image processing system, or may be performed at predetermined time intervals.

つまり、画像処理のたびに、射影変換パラメータを算出することに限定されるものではなく、1度算出した射影変換パラメータを保持しておき、その射影変換パラメータを用いて、指示針検出座標列若しくは原画像を射影変換するようにしてもよい。これにより、射影変換パラメータの算出に係る処理負荷を軽減することができる。勿論、画像処理のたびに、射影変換パラメータを算出するようにしてもよい。 That is, it is not limited to calculating the projective conversion parameter each time the image processing is performed, but the projective conversion parameter calculated once is retained, and the projective conversion parameter is used to use the indicator needle detection coordinate sequence or The original image may be projected and converted. As a result, the processing load related to the calculation of the projective conversion parameters can be reduced. Of course, the projective conversion parameter may be calculated each time the image processing is performed.

(E−3)上述した第2〜第4の実施形態では、アナログメータに姿勢情報検出治具を取り付ける際、アナログメータの指示針が動く範囲を囲むようにして、姿勢情報検出治具を取り付ける場合を例示した。しかし、姿勢情報検出治具を取り付ける位置は、これに限定されるものではない。 (E-3) In the second to fourth embodiments described above, when the posture information detection jig is attached to the analog meter, the posture information detection jig is attached so as to surround the range in which the indicator needle of the analog meter moves. Illustrated. However, the position where the posture information detection jig is attached is not limited to this.

姿勢情報検出治具は、撮影画像に映っている姿勢情報検出治具の4個の頂点のXY座標値と、姿勢基準情報の4個の基準値のXY座標値とを用いて、射影変換パラメータを導出することに寄与している。したがって、撮像画像に、アナログメータの指示針と共に姿勢情報検出治具が映っているのであれば、取付位置には特に限定されない。 The attitude information detection jig uses the XY coordinate values of the four vertices of the attitude information detection jig shown in the captured image and the XY coordinate values of the four reference values of the attitude reference information, and the projective conversion parameter. Contributes to deriving. Therefore, as long as the posture information detection jig is shown together with the indicator needle of the analog meter in the captured image, the mounting position is not particularly limited.

この場合、姿勢情報検出治具を構成する4頂点のXY座標値を、指示針検出座標列が構成する円(仮想円VC2)の直径及び位置を考慮して定めることに注意が必要である。また、カメラでの撮影時には、姿勢情報検出治具と、アナログメータの指示針の可動範囲とがすべて撮像範囲に収まることも必要となるので、この点にも注意が必要となる。 In this case, it should be noted that the XY coordinate values of the four vertices constituting the attitude information detection jig are determined in consideration of the diameter and position of the circle (virtual circle VC2) formed by the indicator needle detection coordinate sequence. In addition, when shooting with a camera, it is necessary that the posture information detection jig and the movable range of the indicator needle of the analog meter are all within the imaging range, so attention must be paid to this point as well.

(E−4)上述した第2〜第4の実施形態では、姿勢情報検出治具が略正方形である場合を例示したが、姿勢情報検出治具の形状を任意の四角形としてもよい。この場合、任意の四角形を構成する4頂点の座標を、指示針検出座標列が構成する円の直径及び位置を考慮して定めることが必要となる。 (E-4) In the second to fourth embodiments described above, the case where the posture information detection jig is substantially square is illustrated, but the shape of the posture information detection jig may be any quadrangle. In this case, it is necessary to determine the coordinates of the four vertices constituting an arbitrary quadrangle in consideration of the diameter and position of the circle formed by the indicator needle detection coordinate sequence.

(E−5)上述した第1〜第4の実施形態では、指示針が回転するアナログメータである場合を例示し、指示針の位置を検出するための座標群(指示針検出座標列)が仮想円VC2上に存在する場合を例示した。しかし、指示針検出座標列の各座標値が直線上に配置されたものであってもよいし、その他任意の形状であってもよい。この場合、姿勢情報検出治具を構成する4頂点の座標を、該座標群が構成する形状を考慮して定めることに留意するべきである。 (E-5) In the first to fourth embodiments described above, the case where the indicator needle is a rotating analog meter is illustrated, and the coordinate group (indicator needle detection coordinate sequence) for detecting the position of the indicator needle is The case where it exists on the virtual circle VC2 is illustrated. However, each coordinate value of the indicator needle detection coordinate sequence may be arranged on a straight line, or may have any other shape. In this case, it should be noted that the coordinates of the four vertices constituting the posture information detection jig are determined in consideration of the shape formed by the coordinate group.

例えば図25(A)に示すように、指示針が横方向に移動する横型計器であってもよく、この場合、図25(B)に示すように、指示針検出座標列を構成する各座標値が、指示針の動きに応じた横方向(X軸方向)の直線上に配列されているものであってもよい。 For example, as shown in FIG. 25 (A), it may be a horizontal instrument in which the indicator needle moves in the lateral direction. In this case, as shown in FIG. 25 (B), each coordinate constituting the indicator needle detection coordinate sequence. The values may be arranged on a straight line in the lateral direction (X-axis direction) according to the movement of the indicator needle.

また、指示針が縦方向に移動する縦型計器であってもよく、この場合、指示針検出座標列を構成する各座標値が、指示針の動きに応じた縦方向(Y軸方向)の直線上に配列されているものであってもよい。 Further, it may be a vertical instrument in which the indicator needle moves in the vertical direction. In this case, each coordinate value constituting the indicator needle detection coordinate sequence is in the vertical direction (Y-axis direction) according to the movement of the indicator needle. It may be arranged on a straight line.

(E−6)上述した第2〜第4の実施形態では、アナログメータに姿勢情報検出治具を取り付ける際、姿勢情報検出治具の中心と、指示針の回転中心とを同一軸上に合わせ、姿勢情報検出治具の中心と、姿勢情報検出治具の点Aと、アナログメータの目盛り「0」の位置とが直線上に並ぶように、姿勢情報検出治具アナログメータに取り付ける例を説明した。しかし、このような配置に限定されるものではなく、姿勢情報検出治具の中心と、姿勢情報検出治具の点Aと、アナログメータの目盛り「0」とが、直線上に並ぶように姿勢情報検出治具を取り付けなくともよい。この場合、姿勢情報検出治具の点Aと、姿勢情報検出治具の中心と、アナログメータの目盛り「0」が成す角度を画像処理装置に与える必要がある。 (E-6) In the second to fourth embodiments described above, when the posture information detection jig is attached to the analog meter, the center of the posture information detection jig and the rotation center of the indicator needle are aligned on the same axis. , An example of attaching to the posture information detection jig analog meter so that the center of the posture information detection jig, the point A of the posture information detection jig, and the position of the scale "0" of the analog meter are aligned on a straight line will be described. did. However, the arrangement is not limited to this, and the attitude is such that the center of the attitude information detection jig, the point A of the attitude information detection jig, and the scale "0" of the analog meter are aligned on a straight line. It is not necessary to attach an information detection jig. In this case, it is necessary to give the image processing apparatus an angle formed by the point A of the posture information detection jig, the center of the posture information detection jig, and the scale "0" of the analog meter.

10…情報収集システム、1、1A…アナログメータ、2…カメラ、3、3A、3B…画像処理装置、4…通信装置、5…通信装置、6…管理装置、31…画像入力部、32、32A…姿勢情報検出部、33…記憶部、331…姿勢基準情報、332…指示針検出座標列、34、34B…射影変換パラメータ算出部、35…指示針検出座標列射影変換部、36、36B…指示針検出部、37…指示値導出部、38…出力部、39…原画像射影変換部、361…指示針検出画素値列、50、50A…姿勢情報検出治具。 10 ... Information collection system, 1, 1A ... Analog meter, 2 ... Camera, 3, 3A, 3B ... Image processing device, 4 ... Communication device, 5 ... Communication device, 6 ... Management device, 31 ... Image input unit, 32, 32A ... Attitude information detection unit, 33 ... Storage unit, 331 ... Attitude reference information, 332 ... Indicator needle detection coordinate sequence, 34, 34B ... Projection conversion parameter calculation unit, 35 ... Indicator needle detection coordinate sequence projection conversion unit, 36, 36B ... Indicator needle detection unit, 37 ... Instruction value derivation unit, 38 ... Output unit, 39 ... Original image projection conversion unit, 361 ... Indicator needle detection pixel value sequence, 50, 50A ... Attitude information detection jig.

Claims (12)

指示針計器の表示面を撮影した撮像画像から前記指示針計器の指示値を導出する画像処理装置において、
前記指示針計器の仮想的な基準画像と、入力された前記撮像画像中の前記指示針計器の画像との射影変換パラメータを用いて、前記基準画像で前記指示針計器の指示針の位置を示す複数の座標値を有する指示針検出座標列、若しくは、前記撮像画像を射影変換する射影変換部と、
射影変換された前記指示針検出座標列を用いて前記撮像画像から抽出した複数の画素値、若しくは、前記指示針検出座標列を用いて射影変換された前記撮像画像から抽出した複数の画素値から、前記指示針の位置を検出する指示針検出部と、
上記指示針検出部より検出された前記指示針の位置に対応する前記指示値を導出する指示値導出部と
を備えることを特徴とする画像処理装置。
In an image processing device that derives an indicated value of the indicator needle instrument from an image captured by photographing the display surface of the indicator needle instrument.
The position of the indicator needle of the indicator needle meter is shown in the reference image by using the projective conversion parameter of the virtual reference image of the indicator needle instrument and the image of the indicator needle instrument in the input captured image. An indicator needle detection coordinate sequence having a plurality of coordinate values, or a projective conversion unit for projecting and converting the captured image.
From a plurality of pixel values extracted from the captured image using the projective-transformed indicator needle detection coordinate sequence, or from a plurality of pixel values extracted from the image captured image projected using the indicator needle detection coordinate sequence. , The indicator needle detection unit that detects the position of the indicator needle,
An image processing apparatus including an instruction value derivation unit for deriving the instruction value corresponding to the position of the instruction needle detected by the instruction needle detection unit.
前記指示針検出座標列が、
前記基準画像における前記指示針の存在領域内で、前記指示針計器の目盛り盤に対応させて設けた前記複数の座標値を有するものであり、
少なくとも、前記複数の座標値と、前記指示針計器における前記指示針の位置とを対応付けられたものである
ことを特徴とする請求項1に記載の画像処理装置。
The indicator needle detection coordinate sequence
It has the plurality of coordinate values provided in correspondence with the scale plate of the indicator needle instrument within the region where the indicator needle exists in the reference image.
The image processing apparatus according to claim 1, wherein at least the plurality of coordinate values are associated with the position of the indicator needle in the indicator needle instrument.
前記射影変換部が、前記射影変換パラメータを用いて前記指示針検出座標列を射影変換する際、
前記指示針検出部が、前記指示針検出座標列の射影変換後の前記各座標値を参照して、前記撮像画像から抽出した複数の画素値の中から、最小となる画素値に対応する前記指示針の位置を検出する
ことを特徴とする請求項1又は2に記載の画像処理装置。
When the projective conversion unit projects a projective conversion of the indicator needle detection coordinate sequence using the projective conversion parameter,
The indicator needle detection unit refers to each of the coordinate values after the projection conversion of the indicator needle detection coordinate sequence, and corresponds to the smallest pixel value from the plurality of pixel values extracted from the captured image. The image processing apparatus according to claim 1 or 2, wherein the position of the indicator needle is detected.
前記指示針検出座標列が、さらに、前記複数の座標値のそれぞれに対して、前記各座標値を識別する識別情報を付与されているものであり、
前記指示針検出部が、射影変換後の前記各座標値を参照して前記撮像画像から抽出した複数の画素値、前記識別情報と、前記指示針計器における前記指示針の位置とを対応付けた指示針検出画素値列を参照して、複数の画素値の中から、最小となる画素値に対応する前記指示針の位置を検出する
ことを特徴とする請求項1又は2に記載の画像処理装置。
The indicator needle detection coordinate sequence is further provided with identification information for identifying the respective coordinate values for each of the plurality of coordinate values.
The indicator needle detection unit associates the plurality of pixel values extracted from the captured image with reference to the coordinate values after the projective conversion, the identification information, and the position of the indicator needle in the indicator needle instrument. The image processing according to claim 1 or 2, wherein the position of the indicator needle corresponding to the minimum pixel value is detected from a plurality of pixel values with reference to the indicator needle detection pixel value sequence. apparatus.
前記射影変換部が、前記射影変換パラメータを用いて前記撮像画像を射影変換する際、
前記指示針検出部が、前記指示針検出座標列の前記各座標値を参照して、射影変換後の前記撮像画像から抽出した複数の画素値の中から、最小となる画素値に対応する前記指示針の位置を検出する
ことを特徴とする請求項1又は2に記載の画像処理装置。
When the projective conversion unit projects a captured image using the projective conversion parameters,
The indicator needle detection unit refers to each of the coordinate values in the indicator needle detection coordinate sequence, and corresponds to the smallest pixel value from the plurality of pixel values extracted from the captured image after the projection conversion. The image processing apparatus according to claim 1 or 2, wherein the position of the indicator needle is detected.
前記指示針検出座標列が、さらに、前記複数の座標値のそれぞれに対して、前記各座標値を識別する識別情報を付与されているものであり、
前記指示針検出部が、射影変換後の前記撮像画像から抽出した複数の画素値、前記識別情報と、前記指示針計器における前記指示針の位置とを対応付けた指示針検出画素値列を参照して、複数の画素値の中から、最小となる画素値に対応する前記指示針の位置を検出する
ことを特徴とする請求項1又は2に記載の画像処理装置。
The indicator needle detection coordinate sequence is further provided with identification information for identifying the respective coordinate values for each of the plurality of coordinate values.
Refer to the indicator needle detection pixel value sequence in which the indicator needle detection unit associates the plurality of pixel values extracted from the captured image after the projective conversion, the identification information, and the position of the indicator needle in the indicator needle instrument. The image processing apparatus according to claim 1 or 2, wherein the position of the indicator needle corresponding to the minimum pixel value is detected from a plurality of pixel values.
入力された前記撮像画像から、当該撮像画像に映っている前記指示針計器の姿勢を特定する複数の頂点の各座標値を検出する姿勢情報検出部と、
前記基準画像を構成する複数の基準点の各座標値と、前記姿勢情報検出部より検出された前記複数の頂点の各座標値とに基づいて、前記射影変換パラメータを導出する射影変換パラメータ導出部と
を備えることを特徴とする請求項1〜6のいずれかに記載の画像処理装置。
From the input captured image, a posture information detection unit that detects each coordinate value of a plurality of vertices that specifies the posture of the indicator needle instrument reflected in the captured image, and
A projective conversion parameter derivation unit that derives the projective conversion parameter based on the coordinate values of the plurality of reference points constituting the reference image and the coordinate values of the plurality of vertices detected by the attitude information detection unit. The image processing apparatus according to any one of claims 1 to 6, wherein the image processing apparatus comprises.
前記姿勢情報検出部が、入力された前記撮像画像に映っている前記指示針計器の形状を特定し、前記指示針計器の形状に対応する前記複数の頂点の各座標値を検出することを特徴とする請求項7に記載の画像処理装置。 The posture information detection unit identifies the shape of the indicator needle meter reflected in the input captured image, and detects each coordinate value of the plurality of vertices corresponding to the shape of the indicator needle instrument. The image processing apparatus according to claim 7. 前記姿勢情報検出部が、入力された前記撮像画像に映っている前記指示針計器の表示面に取り付けられた姿勢情報検出治具を構成する前記複数の頂点の各座標値を検出することを特徴とする請求項7に記載の画像処理装置。 The posture information detection unit is characterized in that it detects each coordinate value of the plurality of vertices constituting the posture information detection jig attached to the display surface of the indicator needle instrument reflected in the input captured image. The image processing apparatus according to claim 7. 指示針計器の表示面を撮影した撮像画像から前記指示針計器の指示値を導出する画像処理プログラムにおいて、
コンピュータを、
前記指示針計器の仮想的な基準画像と、入力された前記撮像画像中の前記指示針計器の画像との射影変換パラメータを用いて、前記基準画像で前記指示針計器の指示針の位置を示す複数の座標値を有する指示針検出座標列、若しくは、前記撮像画像を射影変換する射影変換部と、
射影変換された前記指示針検出座標列を用いて前記撮像画像から抽出した複数の画素値、若しくは、前記指示針検出座標列を用いて射影変換された前記撮像画像から抽出した複数の画素値から、前記指示針の位置を検出する指示針検出部と、
上記指示針検出部より検出された前記指示針の位置に対応する前記指示値を導出する指示値導出部と
として機能させることを特徴とする画像処理プログラム。
In an image processing program that derives the indicated value of the indicator needle instrument from an image captured by photographing the display surface of the indicator needle instrument.
Computer,
The position of the indicator needle of the indicator needle instrument is shown in the reference image by using the projective conversion parameter of the virtual reference image of the indicator needle instrument and the image of the indicator needle instrument in the input captured image. An indicator needle detection coordinate sequence having a plurality of coordinate values, or a projective conversion unit for projecting and converting the captured image.
From a plurality of pixel values extracted from the captured image using the projective-transformed indicator needle detection coordinate sequence, or from a plurality of pixel values extracted from the image captured image projected using the indicator needle detection coordinate sequence. , The indicator needle detection unit that detects the position of the indicator needle,
An image processing program characterized by functioning as an instruction value derivation unit for deriving the instruction value corresponding to the position of the instruction needle detected by the instruction needle detection unit.
指示針計器の表示面を撮影した撮像画像から前記指示針計器の指示値を導出する画像処理方法において、
射影変換部が、前記指示針計器の仮想的な基準画像と、入力された前記撮像画像中の前記指示針計器の画像との射影変換パラメータを用いて、前記基準画像で前記指示針計器の指示針の位置を示す複数の座標値を有する指示針検出座標列、若しくは、前記撮像画像を射影変換し、
指示針検出部が、射影変換された前記指示針検出座標列を用いて前記撮像画像から抽出した複数の画素値、若しくは、前記指示針検出座標列を用いて射影変換された前記撮像画像から抽出した複数の画素値から、前記指示針の位置を検出し、
指示値導出部が、上記指示針検出部より検出された前記指示針の位置に対応する前記指示値を導出する
ことを特徴とする画像処理方法。
In the image processing method for deriving the indicated value of the indicator needle instrument from the captured image obtained by photographing the display surface of the indicator needle instrument.
The projective conversion unit uses the projective conversion parameter of the virtual reference image of the indicator needle instrument and the image of the indicator needle instrument in the input captured image to indicate the indicator needle instrument in the reference image. An indicator needle detection coordinate sequence having a plurality of coordinate values indicating the position of the needle, or the captured image is projected and converted.
The indicator needle detection unit extracts a plurality of pixel values extracted from the captured image using the projective-transformed indicator needle detection coordinate sequence, or extracts from the image captured image projected using the indicator needle detection coordinate sequence. The position of the indicator needle is detected from the plurality of pixel values,
An image processing method characterized in that an instruction value deriving unit derives the instruction value corresponding to the position of the instruction needle detected by the instruction needle detection unit.
指示針計器の表示面を撮影した撮像画像から前記指示針計器の指示値を導出する画像処理装置と、
前記画像処理装置により導出された前記指示針計器の指示値を含む信号を送信する第1の通信装置と、
前記第1の通信装置から送信された前記信号を受信する第2の通信装置と、
前記第2の通信装置により受信された前記信号に含まれている前記指示値を記憶する管理装置と
を備え、
前記画像処理装置が、請求項1〜9のいずれかに記載の画像処理装置であることを特徴とする情報収集システム。
An image processing device that derives the indicated value of the indicator needle instrument from the captured image obtained by photographing the display surface of the indicator needle instrument, and
A first communication device that transmits a signal including an indicated value of the indicator needle meter derived by the image processing apparatus, and a first communication device.
A second communication device that receives the signal transmitted from the first communication device, and
A management device for storing the indicated value included in the signal received by the second communication device is provided.
An information collecting system, wherein the image processing device is the image processing device according to any one of claims 1 to 9.
JP2019026897A 2019-02-18 2019-02-18 Image processing device, image processing program, image processing method, and information collection system Active JP7279397B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019026897A JP7279397B2 (en) 2019-02-18 2019-02-18 Image processing device, image processing program, image processing method, and information collection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019026897A JP7279397B2 (en) 2019-02-18 2019-02-18 Image processing device, image processing program, image processing method, and information collection system

Publications (2)

Publication Number Publication Date
JP2020135324A true JP2020135324A (en) 2020-08-31
JP7279397B2 JP7279397B2 (en) 2023-05-23

Family

ID=72263153

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019026897A Active JP7279397B2 (en) 2019-02-18 2019-02-18 Image processing device, image processing program, image processing method, and information collection system

Country Status (1)

Country Link
JP (1) JP7279397B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114821044A (en) * 2022-05-31 2022-07-29 中煤科工机器人科技有限公司 Square pointer instrument reading identification method based on gradient transformation

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008243103A (en) * 2007-03-29 2008-10-09 Yamaguchi Univ Image processing device, method, and program
JP2009075848A (en) * 2007-09-20 2009-04-09 Kansai Electric Power Co Inc:The Analog meter reading method, reader and reading system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008243103A (en) * 2007-03-29 2008-10-09 Yamaguchi Univ Image processing device, method, and program
JP2009075848A (en) * 2007-09-20 2009-04-09 Kansai Electric Power Co Inc:The Analog meter reading method, reader and reading system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
藤田 悠介 外: "画像処理によるアナログメータ自動読み取り", 電気学会論文誌C, 電子・情報・システム部門誌, vol. 第129巻, 第5号, JPN6022050611, 1 May 2009 (2009-05-01), JP, pages 901 - 908, ISSN: 0005021291 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114821044A (en) * 2022-05-31 2022-07-29 中煤科工机器人科技有限公司 Square pointer instrument reading identification method based on gradient transformation
CN114821044B (en) * 2022-05-31 2024-05-03 中煤科工机器人科技有限公司 Square pointer instrument indication recognition method based on gradient transformation

Also Published As

Publication number Publication date
JP7279397B2 (en) 2023-05-23

Similar Documents

Publication Publication Date Title
JP5273196B2 (en) Image processing device
JP4811272B2 (en) Image processing apparatus and image processing method for performing three-dimensional measurement
CN110189322B (en) Flatness detection method, device, equipment, storage medium and system
CN110569849B (en) AR (augmented reality) -glasses-based multi-instrument simultaneous identification and spatial positioning method and system
US8045791B2 (en) System and method for measuring digital images of a workpiece
JP2003244521A (en) Information processing method and apparatus, and recording medium
US10679380B2 (en) Method for calibration of a stereo camera
CN110634138A (en) Bridge deformation monitoring method, device and equipment based on visual perception
CN112560837A (en) Reading method, device, equipment and storage medium of pointer instrument
JP2940736B2 (en) Image processing apparatus and distortion correction method in the image processing apparatus
JP5222430B1 (en) Dimension measuring apparatus, dimension measuring method and program for dimension measuring apparatus
CN107507133B (en) Real-time image splicing method based on circular tube working robot
CN100582755C (en) Base inspection device,method and device for setting inspection logic
JP2020135324A (en) Image processing device, image processing program, image processing method and information collection system
JP2011165007A (en) Inspection system, method, and program
US11004232B2 (en) Method and apparatus for performing object detection according to bounding box distribution that is determined by considering lens configuration
JP4788475B2 (en) Image processing apparatus and image processing method
JP3754401B2 (en) Image distortion correction method, image distortion correction apparatus and image distortion correction program based on representative point measurement
US11536943B2 (en) Microscope and method for generating an image pieced together from a plurality of individual microscope images
Song et al. Automatic calibration method based on improved camera calibration template
KR20090052304A (en) Protrusion height measuring method, protrusion height measuring apparatus and program
KR101326095B1 (en) Apparatus for uniting images and method thereof
CN105578169B (en) Information processing system and information processing method
JP2002135807A (en) Method and device for calibration for three-dimensional entry
CN111601100B (en) TV distortion calculation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230329

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230424

R150 Certificate of patent or registration of utility model

Ref document number: 7279397

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150