JP7279397B2 - Image processing device, image processing program, image processing method, and information collection system - Google Patents

Image processing device, image processing program, image processing method, and information collection system Download PDF

Info

Publication number
JP7279397B2
JP7279397B2 JP2019026897A JP2019026897A JP7279397B2 JP 7279397 B2 JP7279397 B2 JP 7279397B2 JP 2019026897 A JP2019026897 A JP 2019026897A JP 2019026897 A JP2019026897 A JP 2019026897A JP 7279397 B2 JP7279397 B2 JP 7279397B2
Authority
JP
Japan
Prior art keywords
pointer
image
coordinate
projective transformation
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019026897A
Other languages
Japanese (ja)
Other versions
JP2020135324A (en
Inventor
貴仁 古川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2019026897A priority Critical patent/JP7279397B2/en
Publication of JP2020135324A publication Critical patent/JP2020135324A/en
Application granted granted Critical
Publication of JP7279397B2 publication Critical patent/JP7279397B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Arrangements For Transmission Of Measured Signals (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置、画像処理プログラム、画像処理方法及び情報収集システムに関する。 The present invention relates to an image processing device, an image processing program, an image processing method, and an information collection system.

例えば、アナログメータは、目盛り盤と、目盛り盤の目盛りの並びに沿って指示針が移動して、目的対象の測定値を計測する計器である。このようなアナログメータは、様々な場面で利用されているが、例えば工場等の施設にある設備機器に設けられており、作業者がアナログメータの測定値を視認しながら設備機器の監視を行なうような場合に多く利用されている。 For example, an analog meter is an instrument with a dial and a pointer that moves along the scale of the dial to measure a target measurement. Such analog meters are used in various situations. For example, they are installed in equipment in facilities such as factories, and workers monitor the equipment while visually checking the measured values of the analog meter. It is often used in such cases.

近年、工場等の施設では運用コストの削減の1つとして、アナログメータの測定値を自動的に読み取ることができ、そのデータを収集することが要求されている。アナログメータの自動読取方法には様々なものがあるが、その一例として、例えばアナログメータの交換やアナログメータの視認作業の自動化などがある。 2. Description of the Related Art In recent years, facilities such as factories are required to be able to automatically read the measured values of analog meters and to collect the data as one way of reducing operating costs. There are various methods for automatically reading analog meters, and examples thereof include, for example, replacing analog meters and automating the work of visually recognizing analog meters.

アナログメータの交換とは、現在使用しているアナログメータに代えて、指示針が示す指示値をデジタルデータとして出力する専用メータに交換する方法である。この場合、現在使用しているアナログメータを専用メータに交換する必要があり、その交換期間のあいだ設備機器を停止させなければならないという問題がある。 Replacing an analog meter is a method of replacing the currently used analog meter with a dedicated meter that outputs the indicated value indicated by the pointer as digital data. In this case, it is necessary to replace the currently used analog meter with a dedicated meter, and there is a problem that equipment must be stopped during the replacement period.

アナログメータの視認作業の自動化は、アナログメータの指示針及び目盛り盤をカメラで撮影し、撮影された撮像画像を画像処理して、指示針が示す指示値を読み取るというものである。この場合、アナログメータを撮影するカメラと、撮像画像を画像処理する画像処理装置とを含む指示値読取装置を施設に設置することで、指示値の読み取りを自動化することができる。このような指示値読取装置を導入することで、例えば設備機器などを停止する必要がないという利点があるので、強い要求がある。 Automating the visual recognition work of an analog meter involves photographing the pointer and dial of the analog meter with a camera, processing the photographed image, and reading the indicated value indicated by the pointer. In this case, reading of the indicated value can be automated by installing an indicated value reading device including a camera that captures the analog meter and an image processing device that processes the captured image in the facility. By introducing such an indicated value reading device, there is an advantage that it is not necessary to stop equipment, for example, so there is a strong demand.

従来、アナログメータの視認作業の自動化に関するものとして、例えば特許文献1に開示されるものがある。特許文献1の記載技術は、カメラで撮像された撮像画像に映っている指示針の位置を検出するために、撮像画像の全体を2値化して、画像中の黒色を示す画素を探索していき、黒色を示す画素が最も多くある領域に、指示針が位置していると判定するものである。 Conventionally, there is a technique disclosed in Patent Document 1, for example, which relates to the automation of visual recognition work for an analog meter. In the technology described in Patent Document 1, in order to detect the position of a pointer appearing in an image captured by a camera, the entire captured image is binarized and a pixel indicating black in the image is searched. Then, it is determined that the pointer is positioned in the area where the largest number of black pixels are present.

ところで、上述した指示値読取装置は、それぞれのアナログメータに設置する必要がある。そのため、例えば工場等の施設のように、多数のアナログメータがある場合には、メータ読取装置の導入コストが高くなってしまうので、その導入コストを低く抑えることが要求されている。 By the way, it is necessary to install the indicated value reading device described above in each analog meter. Therefore, in a facility such as a factory where there are a large number of analog meters, the introduction cost of the meter reading device becomes high, and it is demanded to keep the introduction cost low.

特開2017-126187号公報JP 2017-126187 A

しかしながら、上述した特許文献1の記載技術は、撮像画像の全体を2値化処理したり、画像全体において画素探索を行なう必要があるので、演算処理量が膨大となり、画像処理に係る負荷が大きいという問題がある。また、高性能かつ高価な演算処理装置やカメラなどを用いることが必要となってしまい、導入コストを抑えることが難しいという課題もある。 However, the technique described in Patent Literature 1 described above requires binarization processing of the entire captured image and pixel search in the entire image, so the amount of arithmetic processing becomes enormous and the load related to image processing is large. There is a problem. In addition, it is necessary to use high-performance and expensive arithmetic processing units and cameras, and there is also the problem that it is difficult to reduce the introduction cost.

そこで、本発明は、上記の課題に鑑み、画像処理に要する計算量およびメモリ使用量を抑えて、アナログメータの指示針が示す値を読み取ることが可能な画像処理装置、画像処理プログラム、画像処理方法及び情報収集システムを提供しようとするものである。 Therefore, in view of the above problems, the present invention provides an image processing apparatus, an image processing program, and an image processing that can read a value indicated by an indicator needle of an analog meter while suppressing the amount of calculation and memory usage required for image processing. It is intended to provide a method and information gathering system.

かかる課題を解決するために、第1の本発明に係る画像処理装置は、複数の頂点を有し、複数の頂点のうち他の頂点と区別可能な頂点を特徴点として有する姿勢情報検出治具が取り付けられた指示針計器の表示面を撮影した撮像画像から指示針計器の指示値を導出する画像処理装置において、(1)指示針計器の仮想的な基準画像と、入力された撮像画像中の指示針計器の画像との射影変換パラメータを用いて、基準画像で指示針計器の指示針の位置を示す複数の座標値を有する指示針検出座標列、若しくは、撮像画像を射影変換する射影変換部と、(2)射影変換された指示針検出座標列を用いて撮像画像から抽出した複数の画素値、若しくは、指示針検出座標列を用いて射影変換された撮像画像から抽出した複数の画素値から、指示針の位置を検出する指示針検出部と、(3)指示針検出部より検出された指示針の位置に対応する指示値を導出する指示値導出部と、(4)入力された撮像画像から、当該撮像画像に映っている姿勢情報検出治具の複数の頂点の各座標値を検出し、特徴点の位置に基づいて指示針計器の姿勢を特定する姿勢情報検出部と(5)基準画像を構成する複数の基準点の各座標値と、姿勢情報検出部より検出された複数の頂点の各座標値とに基づいて、射影変換パラメータを導出する射影変換パラメータ導出部とを備えることを特徴とする。 In order to solve this problem, an image processing apparatus according to a first aspect of the present invention provides a posture information detection jig having a plurality of vertices and a vertex distinguishable from other vertices among the plurality of vertices as a feature point. (1) A virtual reference image of the pointer instrument and an input captured image Using the parameters of projective transformation with the image of the pointer instrument, the pointer detection coordinate string having a plurality of coordinate values indicating the position of the pointer of the pointer instrument in the reference image, or the projective transformation of the captured image and (2) a plurality of pixel values extracted from the captured image using the pointer detection coordinate sequence that has been projectively transformed, or a plurality of pixels extracted from the captured image that has been projectively transformed using the pointer detection coordinate sequence. (3) an indicator value derivation unit for deriving an indicator value corresponding to the position of the indicator needle detected by the indicator needle detection unit; (4) an input an orientation information detection unit that detects each coordinate value of a plurality of vertices of the orientation information detection jig shown in the captured image from the captured image, and specifies the orientation of the pointer instrument based on the position of the feature point; 5) a projective transformation parameter deriving unit for deriving a projective transformation parameter based on each coordinate value of a plurality of reference points forming a reference image and each coordinate value of each of a plurality of vertices detected by the posture information detecting unit; It is characterized by having

第2の本発明に係る画像処理プログラムは、複数の頂点を有し、複数の頂点のうち他の頂点と区別可能な頂点を特徴点として有する姿勢情報検出治具が取り付けられた指示針計器の表示面を撮影した撮像画像から指示針計器の指示値を導出する画像処理プログラムにおいて、コンピュータを、(1)指示針計器の仮想的な基準画像と、入力された撮像画像中の指示針計器の画像との射影変換パラメータを用いて、基準画像で指示針計器の指示針の位置を示す複数の座標値を有する指示針検出座標列、若しくは、撮像画像を射影変換する射影変換部と、(2)射影変換された指示針検出座標列を用いて撮像画像から抽出した複数の画素値、若しくは、指示針検出座標列を用いて射影変換された撮像画像から抽出した複数の画素値から、指示針の位置を検出する指示針検出部と、(3)指示針検出部より検出された指示針の位置に対応する指示値を導出する指示値導出部と、(4)入力された撮像画像から、当該撮像画像に映っている姿勢情報検出治具の複数の頂点の各座標値を検出し、特徴点の位置に基づいて指示針計器の姿勢を特定する姿勢情報検出部と、(5)基準画像を構成する複数の基準点の各座標値と、姿勢情報検出部より検出された複数の頂点の各座標値とに基づいて、射影変換パラメータを導出する射影変換パラメータ導出部として機能させることを特徴とする。 An image processing program according to a second aspect of the present invention is an indicator needle instrument having a plurality of vertices and having , as a feature point, a vertex that is distinguishable from other vertices among the plurality of vertices. In the image processing program for deriving the indicated value of the pointer gauge from the captured image of the display surface, the computer is provided with (1) a virtual reference image of the pointer gauge and the pointer gauge in the input captured image. A projective transformation unit that projectively transforms a pointer detection coordinate string having a plurality of coordinate values indicating the position of the pointer of the pointer instrument in the reference image or the captured image using the projective transformation parameter with the image; ) From a plurality of pixel values extracted from the captured image using the pointer detection coordinate sequence that has been projectively transformed, or from a plurality of pixel values extracted from the captured image that has been projectively transformed using the pointer detection coordinate sequence, the pointer (3) an indicator value derivation unit for deriving an indicator value corresponding to the position of the pointer detected by the pointer detection unit; (4) from an input captured image; (5) a reference image ; and each coordinate value of a plurality of vertices detected by the orientation information detection unit. and

第3の本発明に係る画像処理方法は、複数の頂点を有し、複数の頂点のうち他の頂点と区別可能な頂点を特徴点として有する姿勢情報検出治具が取り付けられた指示針計器の表示面を撮影した撮像画像から指示針計器の指示値を導出する画像処理方法において、(1)射影変換部が、指示針計器の仮想的な基準画像と、入力された撮像画像中の指示針計器の画像との射影変換パラメータを用いて、基準画像で指示針計器の指示針の位置を示す複数の座標値を有する指示針検出座標列、若しくは、撮像画像を射影変換し、(2)指示針検出部が、射影変換された指示針検出座標列を用いて撮像画像から抽出した複数の画素値、若しくは、指示針検出座標列を用いて射影変換された撮像画像から抽出した複数の画素値から、指示針の位置を検出し、(3)指示値導出部が、指示針検出部より検出された指示針の位置に対応する指示値を導出し、(4)姿勢情報検出部が、入力された撮像画像から、当該撮像画像に映っている姿勢情報検出治具の複数の頂点の各座標値を検出し、特徴点の位置に基づいて指示針計器の姿勢を特定し、(5)射影変換パラメータ導出部が、基準画像を構成する複数の基準点の各座標値と、姿勢情報検出部より検出された複数の頂点の各座標値とに基づいて、射影変換パラメータを導出することを特徴とする。
An image processing method according to a third aspect of the present invention is directed to an indicator needle instrument having a plurality of vertices and having , as a feature point, a vertex distinguishable from other vertices among the plurality of vertices, to which a posture information detection jig is attached. In an image processing method for deriving an indicated value of a pointer gauge from a captured image of a display surface, (1) a projective transformation unit converts a virtual reference image of the pointer gauge and a pointer in the input captured image into projectively transforming the pointer detection coordinate string having a plurality of coordinate values indicating the position of the pointer of the pointer instrument in the reference image or the captured image using the projective transformation parameter with the image of the instrument, and (2) indicating A plurality of pixel values extracted from the captured image by the pointer detection unit using the pointer detection coordinate string that has undergone projective transformation, or a plurality of pixel values that have been extracted from the captured image that has undergone projective transformation using the pointer detection coordinate sequence. (3) an indication value derivation unit derives an indication value corresponding to the position of the pointer detected by the pointer detection unit; (4) an attitude information detection unit inputs (5 ) projection The transformation parameter derivation unit derives the projective transformation parameter based on each coordinate value of a plurality of reference points forming the reference image and each coordinate value of each of a plurality of vertices detected by the posture information detection unit. and

第4の本発明に係る情報収集システムは、(1)指示針計器の表示面を撮影した撮像画像から前記指示針計器の指示値を導出する画像処理装置と、(2)画像処理装置により導出された指示針計器の指示値を含む信号を送信する第1の通信装置と、(3)第1の通信装置から送信された前記信号を受信する第2の通信装置と、(4)第2の通信装置により受信された信号に含まれている指示値を記憶する管理装置とを備え、画像処理装置が、第1の本発明に係る画像処理装置であることを特徴とする。 An information gathering system according to a fourth aspect of the present invention comprises: (1) an image processing device for deriving an indicated value of the pointer instrument from a captured image of the display surface of the pointer instrument; and (2) derivation by the image processing device. (3) a second communication device for receiving the signal transmitted from the first communication device; (4) a second and a management device for storing the instruction value included in the signal received by the communication device, wherein the image processing device is the image processing device according to the first aspect of the present invention.

本発明によれば、画像処理に要する計算量およびメモリ使用量を抑えて、アナログメータの指示針が示す値を読み取ることができる。 According to the present invention, it is possible to read the value indicated by the pointer of the analog meter while suppressing the amount of calculation and memory usage required for image processing.

第1の実施形態に係る情報収集システムの全体構成を示す構成図である。1 is a configuration diagram showing the overall configuration of an information collection system according to a first embodiment; FIG. アナログメータを撮像するカメラとアナログメータとの相対的な位置関係と撮像画像の一例を説明する説明図である(その1)。FIG. 4 is an explanatory diagram illustrating an example of a relative positional relationship between a camera that captures an image of an analog meter and the analog meter and an example of a captured image (No. 1); 第1の実施形態に係る画像処理装置の内部構成を示す内部構成図である。2 is an internal configuration diagram showing the internal configuration of the image processing apparatus according to the first embodiment; FIG. 第1の実施形態に係る姿勢基準情報を説明する説明図である。FIG. 4 is an explanatory diagram for explaining posture reference information according to the first embodiment; 第1の実施形態に係る指示針検出座標列を説明する説明図である。FIG. 4 is an explanatory diagram for explaining pointer detection coordinate sequences according to the first embodiment; 第1の実施形態に係る画像処理方法の動作を示すフローチャートである。4 is a flowchart showing operations of an image processing method according to the first embodiment; 第1の実施形態に係る姿勢情報検出部による4個の頂点座標の検出方法を示すフローチャートである。4 is a flowchart showing a method of detecting four vertex coordinates by an orientation information detection unit according to the first embodiment; 第1の実施形態に係る姿勢情報検出部による4個の頂点座標の検出方法を説明する説明図である。FIG. 4 is an explanatory diagram illustrating a method of detecting four vertex coordinates by an orientation information detection unit according to the first embodiment; 第1の実施形態における指示針検出画素値列と指示針検出座標列との関係を説明する説明図である。FIG. 4 is an explanatory diagram for explaining the relationship between pointer detection pixel value sequences and pointer detection coordinate sequences in the first embodiment; アナログメータを撮像するカメラとアナログメータとの相対的な位置関係と撮像画像の一例を説明する説明図である(その2)。FIG. 4 is an explanatory diagram illustrating an example of a relative positional relationship between a camera that captures an image of an analog meter and the analog meter and an example of a captured image (No. 2); 第2の実施形態に係る画像処理装置の内部構成を示す内部構成図である。FIG. 7 is an internal configuration diagram showing the internal configuration of an image processing apparatus according to the second embodiment; 第2の実施形態に係る姿勢情報検出治具の構成を示す構成図である。FIG. 11 is a configuration diagram showing the configuration of an orientation information detection jig according to the second embodiment; 第2の実施形態に係る姿勢情報検出治具をアナログメータに取り付けた状態を説明する説明図である。FIG. 11 is an explanatory diagram illustrating a state in which the posture information detection jig according to the second embodiment is attached to an analog meter; 第2の実施形態に係る画像処理装置による画像処理の動作を示すフローチャートである。9 is a flowchart showing image processing operations performed by the image processing apparatus according to the second embodiment; 姿勢基準情報の4個の基準点を変換元として、姿勢情報検出治具の4個の頂点を変換先とした射影変換を説明する説明図である。FIG. 10 is an explanatory diagram for explaining projective transformation in which four reference points of posture reference information are used as transformation sources and four vertices of a posture information detection jig are used as transformation destinations; 第2の実施形態に係る姿勢情報検出部の姿勢情報検出治具の検出方法を示すフローチャートである。9 is a flowchart showing a detection method of an orientation information detection jig of an orientation information detection unit according to the second embodiment; 第2の実施形態の4個の頂点にラベルを付与する方法を説明する説明図である。FIG. 11 is an explanatory diagram illustrating a method of labeling four vertices according to the second embodiment; 第3の実施形態に係る姿勢情報検出治具の構成を示す構成図である。FIG. 11 is a configuration diagram showing the configuration of an orientation information detection jig according to a third embodiment; 第3の実施形態に係る姿勢情報検出治具をアナログメータに取り付けた状態を説明する説明図である。FIG. 11 is an explanatory diagram illustrating a state in which the posture information detection jig according to the third embodiment is attached to an analog meter; 第3の実施形態に係る姿勢情報検出部の姿勢情報検出治具の検出方法を示すフローチャートである。14 is a flowchart showing a detection method of an orientation information detection jig of an orientation information detection unit according to the third embodiment; 第4の実施形態に係る画像処理装置の内部構成を示す内部構成図である。FIG. 11 is an internal configuration diagram showing the internal configuration of an image processing apparatus according to a fourth embodiment; 第4の実施形態に係る画像処理装置における画像処理を示すフローチャートである。10 is a flow chart showing image processing in an image processing apparatus according to a fourth embodiment; 第1の実施形態において、検出した指示針角度と指示値との対応関係を示すテーブルの構成を例示する構成図である。FIG. 4 is a configuration diagram illustrating the configuration of a table showing the correspondence relationship between detected pointer angles and indicated values in the first embodiment; 変形実施形態に係る指示針検出座標列の各座標値を含む一定領域の画素値を判断する場合を説明する説明図である。FIG. 11 is an explanatory diagram illustrating a case of determining pixel values of a fixed area including each coordinate value of a pointer detection coordinate sequence according to a modified embodiment; 変形実施形態に係るアナログメータの目盛り盤及び指示針の構成と、姿勢基準情報の構成を示す構成図である。FIG. 11 is a configuration diagram showing the configuration of a dial and an indicator needle of an analog meter and the configuration of posture reference information according to a modified embodiment;

(A)第1の実施形態
以下では、本発明に係る画像処理装置、画像処理プログラム、画像処理方法及び情報収集システムの第1の実施形態を、図面を参照しながら詳細に説明する。
(A) First Embodiment Hereinafter, a first embodiment of an image processing apparatus, an image processing program, an image processing method, and an information collection system according to the present invention will be described in detail with reference to the drawings.

(A-1)第1の実施形態の構成
(A-1-1)情報収集システムの全体構成
図1は、第1の実施形態に係る情報収集システムの全体構成を示す構成図である。
(A-1) Configuration of First Embodiment (A-1-1) Overall Configuration of Information Collection System FIG. 1 is a configuration diagram showing the overall configuration of an information collection system according to the first embodiment.

図1において、第1の実施形態に係る情報収集システム10は、アナログメータ1、カメラ2、画像処理装置3、通信装置4及び5、管理装置6を有する。 In FIG. 1 , an information collection system 10 according to the first embodiment has an analog meter 1 , a camera 2 , an image processing device 3 , communication devices 4 and 5 and a management device 6 .

情報収集システム10は、カメラ2がアナログメータ1を撮影し、その撮像画像からアナログメータ1の指示針が指し示している指示値を取得し、指示値を読み取ったり、指示値を収集したりするものである。これにより、アナログメータ1の指示値をリアルタイムで読み取ることができたり、指示値を蓄積していき履歴情報として保持することもできる。 The information collection system 10 captures the analog meter 1 with the camera 2, acquires the indication value indicated by the pointer of the analog meter 1 from the captured image, reads the indication value, and collects the indication value. is. As a result, the indicated value of the analog meter 1 can be read in real time, and the indicated value can be accumulated and held as history information.

アナログメータ1は、目盛り盤と、目盛り盤に配列されている目盛りに沿って指示針が移動し、測定値を計測する指示針式計器である。アナログメータ1は、例えば工場などの施設にある設備機器等に設けられているものとすることができ、例えばアナログ電圧計、アナログ電流計等のような計器とすることができる。アナログメータ1には、回転軸を軸として指示針が目盛り盤の目盛領域で回転するものや、目盛り盤が縦方向若しくは横方向にあり、指示針が縦方向若しくは横方向に移動するものなどがあるが、この実施形態では、目盛り盤の目盛り領域で、指示針が回転するタイプを例示して説明する。 The analog meter 1 is an indicator-needle instrument that measures a measured value by moving a dial and an indicator along the scale arranged on the dial. For example, the analog meter 1 may be installed in equipment or the like in a facility such as a factory, and may be a meter such as an analog voltmeter, analog ammeter, or the like. In the analog meter 1, the pointer rotates in the scale area of the dial about the rotation axis, or the dial has a vertical or horizontal direction and the pointer moves in the vertical or horizontal direction. However, in this embodiment, a type in which the pointer rotates in the scale area of the dial will be described as an example.

カメラ2は、アナログメータ1を撮像する撮像装置であり、接続している画像処理装置3に撮像画像を与えるものである。カメラ2は、例えば撮像した画像を補正する機能等を有していない汎用的なカメラを適用することができる。その結果、安価なカメラを用いることができるので、指示値読取システムの導入コストを抑えることができる。 The camera 2 is an imaging device for imaging the analog meter 1 and provides a captured image to the image processing device 3 connected thereto. For the camera 2, for example, a general-purpose camera that does not have a function of correcting captured images can be applied. As a result, since an inexpensive camera can be used, the introduction cost of the indicated value reading system can be suppressed.

画像処理装置3は、カメラ2からアナログメータ1を含む撮像画像を取得し、その撮像画像を解析して、当該撮像画像において指示針の指示値を導出するものである。また、画像処理装置3は、指示値を含むデータを通信装置4に与えるものである。画像処理装置3の詳細な説明は後述するが、この実施形態によれば、指示値の算出処理の処理負荷を抑えることができるので、マイクロコンピュータ等の汎用な演算処理装置を用いることができ、指示値読取システムの導入コストを抑えることができる。 The image processing device 3 acquires a captured image including the analog meter 1 from the camera 2, analyzes the captured image, and derives an indicated value of the pointer in the captured image. Further, the image processing device 3 provides the communication device 4 with data including the instruction value. Although the detailed description of the image processing device 3 will be given later, according to this embodiment, the processing load of the instruction value calculation processing can be suppressed, so that a general-purpose arithmetic processing device such as a microcomputer can be used. The introduction cost of the indicated value reading system can be suppressed.

通信装置4及び5は、アナログメータ1の指示値データを含む信号を授受する通信装置である。通信装置4は、画像処理装置3から取得したアナログメータ1の指示値データを含む通信信号を送信するものであり、通信装置5は、通信装置4から送信された通信信号を受信し、その通信信号に含まれている指示値データを管理装置6に与えるものである。通信装置4及び5は、例えばマルチホップ無線通信の無線通信プロトコル等に従って無線通信するものを適用することができる。なお、無線通信プロトコルは、特に限定されるものではない。さらに、通信装置4及び5は、有線通信によりアナログメータ1の指示値データを含む信号を通信するものであってもよい。 The communication devices 4 and 5 are communication devices that transmit and receive signals including indicated value data of the analog meter 1 . The communication device 4 transmits a communication signal including the indicated value data of the analog meter 1 acquired from the image processing device 3. The communication device 5 receives the communication signal transmitted from the communication device 4, and performs the communication. It gives the indication value data contained in the signal to the management device 6 . The communication devices 4 and 5 can be those that perform wireless communication according to, for example, a wireless communication protocol for multi-hop wireless communication. Note that the wireless communication protocol is not particularly limited. Furthermore, the communication devices 4 and 5 may communicate a signal including the indicated value data of the analog meter 1 by wired communication.

管理装置6は、通信装置5から与えられたアナログメータ1の指示値データを記録し、アナログメータ1の指示値データを管理するものである。管理装置6は、CPU等の演算処理装置やモニタ等の表示手段などを有し、アナログメータ1の指示値データをリアルタイムで表示したり、履歴をとった過去の指示値データを用いて統計処理等を行ない、そのデータを表示したりすることができる。なお、指示値データを用いた管理装置6の管理方法は、特に限定されるものではなく様々な方法を適用できる。 The management device 6 records the indicated value data of the analog meter 1 given from the communication device 5 and manages the indicated value data of the analog meter 1 . The management device 6 has an arithmetic processing unit such as a CPU, display means such as a monitor, etc., and displays the indicated value data of the analog meter 1 in real time, and performs statistical processing using historical indicated value data. etc., and display the data. The management method of the management device 6 using the indicated value data is not particularly limited, and various methods can be applied.

(A-1-2)カメラによる撮像画像の例
図2は、アナログメータ1を撮像するカメラ2とアナログメータ1との相対的な位置関係と撮像画像の一例を説明する説明図である。
(A-1-2) Example of Image Captured by Camera FIG. 2 is an explanatory diagram illustrating an example of the relative positional relationship between the camera 2 that captures the analog meter 1 and the analog meter 1 and an example of the captured image.

アナログメータ1は、例えば設備機器等に設置されていることが多いので、アナログメータ1の位置や向きを変えることができないことが想定される。カメラ2の撮像画像を解析してアナログメータ1の指示針の指示値を算出する場合、アナログメータ1の正面にカメラ2が配置されていることが望ましいが、必ずしもそのような位置関係とならないケースもある。 Since the analog meter 1 is often installed, for example, in equipment or the like, it is assumed that the position and orientation of the analog meter 1 cannot be changed. When analyzing the captured image of the camera 2 and calculating the indication value of the pointer of the analog meter 1, it is desirable that the camera 2 is arranged in front of the analog meter 1, but such a positional relationship is not necessarily the case. There is also

この実施形態では、汎用的なカメラ2を用いる場合を想定しているので、カメラ2の姿勢やアナログメータ1との相対的な位置関係に応じて、撮像画像は補正されない。 In this embodiment, since it is assumed that a general-purpose camera 2 is used, the captured image is not corrected according to the attitude of the camera 2 or the relative positional relationship with the analog meter 1 .

そこで、ここでは、まず、アナログメータ1とカメラ2との相対的な位置関係を説明し、そのような位置関係にある場合に、撮像画像に映し出されるアナログメータ1の画像を説明する。 Therefore, first, the relative positional relationship between the analog meter 1 and the camera 2 will be described, and the image of the analog meter 1 displayed in the captured image in such a positional relationship will be described.

図2(A)は、カメラ2がアナログメータ1の正面に配置されている場合を例示する。この場合、カメラ2は、アナログメータ1のパネル部分(目盛り盤及び指示針がある部分)を正面から撮影することができ、図2(B)に示すような撮像画像P1が得られる。このとき、撮像画像P1に映し出されるアナログメータ1の像は正立姿勢となる。 FIG. 2A illustrates a case where the camera 2 is arranged in front of the analog meter 1. FIG. In this case, the camera 2 can photograph the panel portion of the analog meter 1 (the portion where the dial and pointer are located) from the front, and a captured image P1 as shown in FIG. 2(B) is obtained. At this time, the image of the analog meter 1 displayed in the captured image P1 is in an upright posture.

なお、カメラ2による撮像画像は、画像座標系において一定の大きさを有しており、画像座標系のXY平面上の座標値(XY座標値)で表すことができる。 The image captured by the camera 2 has a certain size in the image coordinate system, and can be represented by coordinate values (XY coordinate values) on the XY plane of the image coordinate system.

一方、図2(C)は、アナログメータ1に対して左斜め方向にカメラ2が配置されている場合を例示している。この場合、カメラ2は、アナログメータ1のパネル部分を左斜め方向から撮影することになるので、図2(D)に示すような撮像画像P2が得られる。つまり、撮像画像P2に映し出されるアナログメータ1の像は、斜めに変形した姿勢となる。 On the other hand, FIG. 2C illustrates a case where the camera 2 is arranged obliquely to the left with respect to the analog meter 1 . In this case, the camera 2 takes an image of the panel portion of the analog meter 1 from an oblique left direction, so a captured image P2 as shown in FIG. 2(D) is obtained. That is, the image of the analog meter 1 displayed in the captured image P2 assumes an obliquely deformed posture.

このように、アナログメータ1に対するカメラ2の位置やカメラ2の姿勢によって、撮像画像に映し出されるアナログメータ1の姿勢も変形し得るので、撮像画像に映し出されるアナログメータ1の指示針の指示値を算出する際には、撮像画像におけるアナログメータ1の姿勢や変形を考慮することが必要となる。 In this way, the position of the camera 2 and the attitude of the camera 2 with respect to the analog meter 1 can change the attitude of the analog meter 1 displayed in the captured image. When calculating, it is necessary to consider the posture and deformation of the analog meter 1 in the captured image.

(A-1-3)画像処理装置の詳細な構成
図3は、第1の実施形態に係る画像処理装置3の内部構成を示す内部構成図である。
(A-1-3) Detailed Configuration of Image Processing Apparatus FIG. 3 is an internal configuration diagram showing the internal configuration of the image processing apparatus 3 according to the first embodiment.

図3において、第1の実施形態に係る画像処理装置3は、画像入力部31、姿勢情報検出部32、記憶部33、射影変換パラメータ算出部34、指示針検出座標列射影変換部35、指示針検出部36、指示値算出部37、出力部38を有する。 3, the image processing apparatus 3 according to the first embodiment includes an image input unit 31, a posture information detection unit 32, a storage unit 33, a projective transformation parameter calculation unit 34, a needle detection coordinate sequence projective transformation unit 35, an instruction It has a needle detection section 36 , an indicated value calculation section 37 and an output section 38 .

画像処理装置3のハードウェアは、例えば、CPU、ROM、RAM、EEPROM、入出力インターフェース等を有して構成され、CPUが、ROMに格納される処理プログラム(例えば、画像処理プログラム)を実行することにより、各種機能が実現される。なお、画像処理プログラムは、CPU等のコンピュータにインストールされることにより、画像処理が構築されるようにしてもよく、その場合でも画像処理プログラムは、図3の各機能部として表すことができる。 The hardware of the image processing device 3 includes, for example, a CPU, a ROM, a RAM, an EEPROM, an input/output interface, etc. The CPU executes a processing program (eg, an image processing program) stored in the ROM. As a result, various functions are realized. It should be noted that the image processing program may be installed in a computer such as a CPU to construct the image processing.

画像入力部31は、アナログメータ1を撮影するカメラ2から、アナログメータ1を含む撮像画像を入力するものである。 The image input unit 31 inputs a captured image including the analog meter 1 from the camera 2 that captures the analog meter 1 .

姿勢情報検出部32は、入力された撮像画像に映っているアナログメータ1の姿勢を検出するために、撮像画像(実画像)におけるアナログメータ1の形状に応じた頂点の座標値を検出するものである。 The orientation information detection unit 32 detects the coordinate values of the vertices of the analog meter 1 in the captured image (actual image) in order to detect the orientation of the analog meter 1 shown in the input captured image. is.

ここで、姿勢情報検出部32が検出する頂点の座標値を「姿勢情報」とも呼ぶ。第1の実施形態では、姿勢情報検出部32が、箱形のアナログメータ1の外枠のうち、目盛り盤及指示針を含んでいる矩形の面形状を検出し、その面の4個の頂点座標を検出する。 Here, the coordinate values of the vertices detected by the posture information detection unit 32 are also called "posture information". In the first embodiment, the posture information detection unit 32 detects the rectangular surface shape including the dial and pointer in the outer frame of the box-shaped analog meter 1, and detects the four vertices of the surface. Detect coordinates.

例えば箱形のアナログメータ1の正面にカメラ2が設けられている場合、カメラ2はアナログメータ1を正面から撮影することができる。その場合、撮像画像において、略矩形のアナログメータ1の外枠が撮像画像に映り込むことになるので、頂点座標検出部32は、アナログメータ1の外枠の4辺を割り出し、各辺の交点を頂点とし、各頂点の座標値を検出するようにしてもよい。また例えば、アナログメータ1に対して斜め方向からカメラ2が、アナログメータ1を撮影する場合には、アナログメータ1の画像は、例えば台形のように変形した状態で映り込むことになる。その場合、姿勢情報検出部32は、台形を形成する4辺を割り出し、各辺の交点を頂点とし、各頂点の座標値を検出する。いずれにしても、姿勢情報検出部32は、撮像画像に映り込んでいるアナログメータ1の外枠を特定することで、アナログメータ1の位置、姿勢を特定し、4個の頂点の座標値を検出するようにする。 For example, when the camera 2 is provided in front of the box-shaped analog meter 1, the camera 2 can photograph the analog meter 1 from the front. In that case, the outer frame of the substantially rectangular analog meter 1 is reflected in the captured image. , and the coordinate values of each vertex may be detected. Further, for example, when the camera 2 photographs the analog meter 1 from a direction oblique to the analog meter 1, the image of the analog meter 1 is reflected in a deformed state such as a trapezoid. In this case, the posture information detection unit 32 determines the four sides forming the trapezoid, sets the intersection of each side as a vertex, and detects the coordinate values of each vertex. In any case, the orientation information detection unit 32 identifies the position and orientation of the analog meter 1 by identifying the outer frame of the analog meter 1 reflected in the captured image, and calculates the coordinate values of the four vertices. detect it.

記憶部33は、予め設定された姿勢基準情報331、指示針検出座標列332などを記憶するものである。 The storage unit 33 stores preset posture reference information 331, pointer detection coordinate sequence 332, and the like.

姿勢基準情報331は、射影変換処理に用いられる複数の基準点の座標値を含む情報である。例えば基準画像における4個の基準点の位置を示す座標値に関する情報である。指示針検出座標列332は、基準画像において、アナログメータ1の指示針の位置を特定するための情報である。なお、姿勢基準情報331及び指示針検出座標列332の詳細な構成は後述する。 The attitude reference information 331 is information including coordinate values of a plurality of reference points used for projective transformation processing. For example, it is information about coordinate values indicating the positions of four reference points in the reference image. The pointer detection coordinate column 332 is information for specifying the position of the pointer of the analog meter 1 in the reference image. The detailed configurations of the posture reference information 331 and pointer detection coordinate sequence 332 will be described later.

ここで、基準画像とは、アナログメータ1が理想的に正立している状態の仮想的な画像を含むものである。カメラ2がアナログメータ1を撮影した撮像画像に映り込むアナログメータ1の姿勢は、カメラ2との相対的な位置関係やカメラ2の姿勢等により歪みが生じたり変形し得るのに対して、基準画像にはアナログメータ1が理想的に正立し、歪みや回転等をしていない状態の仮想的な画像である。以下の説明において述べる「基準画像」は、いずれも仮想的なものである。 Here, the reference image includes a virtual image in which the analog meter 1 is ideally upright. The posture of the analog meter 1 reflected in the captured image of the analog meter 1 captured by the camera 2 can be distorted or deformed depending on the relative positional relationship with the camera 2, the posture of the camera 2, or the like. The image is a virtual image in which the analog meter 1 is ideally upright and is not distorted or rotated. Any "reference image" described in the following description is virtual.

このように、記憶部33に記憶される姿勢基準情報331は、仮想的な基準画像に写り込む、正立かつ歪みや回転等をしていないアナログメータ1の像における、4個の基準点の位置を示す座標値に関する情報である。換言すると、第1の実施形態において、画像処理装置3は記憶部33に、座標値に関する情報である姿勢基準情報331を記憶すればよく、例えば基準画像に相当する画像情報(明るさや色の情報を含み、画像を描画可能とする情報)を記憶する必要はない。 In this way, the posture reference information 331 stored in the storage unit 33 is four reference points in the image of the analog meter 1 that is upright and not distorted, rotated, etc., reflected in the virtual reference image. This is information about coordinate values indicating a position. In other words, in the first embodiment, the image processing apparatus 3 may store the orientation reference information 331, which is information about coordinate values, in the storage unit 33. For example, image information corresponding to the reference image (brightness and color information) (including information that enables the image to be drawn) need not be stored.

射影変換パラメータ算出部34は、姿勢情報検出部32により検出された4個の座標(つまり、カメラ2により撮影された実画像における4個の座標)と、予め設定された姿勢基準情報331とに基づいて、射影変換パラメータ(射影変換係数とも呼ぶ。)を導出するものである。 The projective transformation parameter calculation unit 34 converts the four coordinates detected by the posture information detection unit 32 (that is, the four coordinates in the actual image captured by the camera 2) and preset posture reference information 331 into Based on this, projective transformation parameters (also called projective transformation coefficients) are derived.

例えば、射影変換パラメータは、理想的に正立しているアナログメータ1が映り込む仮想的な基準画像(例えば2次元平面)を、カメラ2の撮影画像に映っているアナログメータ1の画像領域(例えば2次元平面)に射影する際に用いられるパラメータであり、一般的に8個の未知数になる。この8個の係数を定めるために、射影変換パラメータ算出部34は、姿勢情報検出部32により検出された4個の頂点座標の値と、姿勢基準情報331の4個の基準値の座標値とを用いて算出する。 For example, the projective transformation parameter converts a virtual reference image (for example, a two-dimensional plane) in which the analog meter 1 ideally standing upright is captured by the camera 2 into the image area of the analog meter 1 ( For example, it is a parameter used when projecting onto a two-dimensional plane), and generally consists of eight unknowns. In order to determine these eight coefficients, the projective transformation parameter calculation unit 34 calculates the values of the four vertex coordinates detected by the posture information detection unit 32 and the coordinate values of the four reference values of the posture reference information 331. Calculated using

指示針検出座標列射影変換部35は、射影変換パラメータ算出部34により導出された射影変換パラメータを用いて、基準画像における指示針検出座標列332の全ての座標値を、射影変換するものである。これにより、基準画像における指示針検出座標列の全ての座標値が、基準画像から実画像に射影変換される。 The needle detection coordinate sequence projective transformation unit 35 uses the projective transformation parameters derived by the projective transformation parameter calculation unit 34 to projectively transform all the coordinate values of the pointer detection coordinate sequence 332 in the reference image. . As a result, all the coordinate values of the pointer detection coordinate sequence in the reference image are projectively transformed from the reference image to the actual image.

指示針検出部36は、射影変換後の指示針検出座標列の各座標値に基づいて、カメラ2からの撮像画像(原画像)から画素値を取得し、取得された全ての画素値で構成する指示針検出画素値列を作成する。そして、指示針検出部36は、指示針検出画素値列を構成する全ての画素値の中から指示針の位置を検出する。指示針検出部36の詳細な説明は後述する。 The pointer detection unit 36 acquires pixel values from the captured image (original image) from the camera 2 based on each coordinate value of the pointer detection coordinate string after projective transformation, and consists of all the acquired pixel values. Create a needle detection pixel value sequence to be used. Then, the pointer detection unit 36 detects the position of the pointer from among all the pixel values forming the pointer detection pixel value sequence. A detailed description of the pointer detector 36 will be given later.

指示値算出部37は、指示針検出座標列332を参照して、指示針検出部36により検出された座標に対応する指示針角度を算出し、その指示針角度に基づく指示値を出力するものである。 The indicator value calculation unit 37 refers to the pointer detection coordinate string 332, calculates the pointer angle corresponding to the coordinates detected by the pointer detection unit 36, and outputs an instruction value based on the pointer angle. is.

(A-1-4)姿勢基準情報331と指示針検出座標列332
図4は、第1の実施形態に係る姿勢基準情報331を説明する説明図である。
(A-1-4) Attitude Reference Information 331 and Needle Detection Coordinate Array 332
FIG. 4 is an explanatory diagram for explaining the attitude reference information 331 according to the first embodiment.

図4(A)は、基準画像における姿勢基準情報331を構成する4個の基準点の位置座標を例示している。 FIG. 4A exemplifies the position coordinates of four reference points forming the orientation reference information 331 in the reference image.

図4(A)に示すように、4個の基準点に対して、例えば、点Ar、点Br、点Cr、点Drのようにインデックスを割り当てる。このインデックスの割当は任意に割り当てるようにしてもよい。そして、図4(B)に例示するように、点Ar、点Br、点Cr、点Drの各基準点の座標値(0,0)、(0,400)、(400,400)、(400,0)を、インデックスに対応付けて記憶部33に記憶されているものとする。 As shown in FIG. 4A, indices are assigned to the four reference points, for example, point Ar, point Br, point Cr, and point Dr. This index assignment may be arbitrarily assigned. Then, as illustrated in FIG. 4B, coordinate values (0, 0), (0, 400), (400, 400), ( 400, 0) are stored in the storage unit 33 in association with the index.

なお、基準画像の座標系は、カメラ2により撮影される撮像画像の座標系と同じとしてもよい。姿勢基準座標を構成する4個の基準点は、カメラ2により撮影された撮像画像の座標系において、予め設定された任意に選択した点とすることができる。図4(A)の例では、基準画像において正方形を形成し、その正方形の4個の頂点をそれぞれ基準点としている。基準画像における正方形の大きさは、特に限定されないが、例えば撮像画像(実画像)に映るアナログメータ1の大きさと同程度とするようにしてもよい。 Note that the coordinate system of the reference image may be the same as the coordinate system of the captured image captured by the camera 2 . The four reference points that constitute the posture reference coordinates can be preset arbitrarily selected points in the coordinate system of the image captured by the camera 2 . In the example of FIG. 4A, a square is formed in the reference image, and four vertices of the square are used as reference points. The size of the square in the reference image is not particularly limited.

図5は、第1の実施形態に係る指示針検出座標列332を説明する説明図である。 FIG. 5 is an explanatory diagram for explaining the needle detection coordinate sequence 332 according to the first embodiment.

図5(B)に示すように、指示針検出座標列332は、例えば、「インデックス」、「座標」、「指示針角度」を項目として有する情報である。 As shown in FIG. 5B, the needle detection coordinate column 332 is information having items such as "index", "coordinate", and "pointer angle".

指示針検出座標列332は、基準画像において、指示針の位値を特定するために、回転する指示針の存在領域内で指示針が存在し得る各位置座標に、インデックス(ラベル)を付与する。そして、各インデックスと、各インデックスのXY座標値と、アナログメータ1における指示針の角度とを対応付けて作成される。つまり、指示針検出座標列332は、各指示針検出座標(インデックス)のXY座標値と、そのときの指示針角度値とをペアとしたデータを1単位とし、複数のデータが連なった構造となっている。 The pointer detection coordinate column 332 gives an index (label) to each position coordinate where the pointer can exist within the existing area of the rotating pointer in order to specify the position value of the pointer in the reference image. . Each index, the XY coordinate value of each index, and the angle of the pointer of the analog meter 1 are associated with each other and created. In other words, the needle detection coordinate string 332 has a structure in which a plurality of data are connected, with each unit of data pairing the XY coordinate value of each pointer detection coordinate (index) and the pointer angle value at that time. It's becoming

例えば、アナログメータ1の目盛り盤と指示針が、図5(C)に示すものとする。基準画像において、図5(C)のアナログメータ1の目盛り「0」の位置に相当する位置に、インデックス「G1」を付与する。この場合、インデックス「G1」のXY座標値(100,100)とする。さらに、指示針の位置が「G1」にあるとき、アナログメータ1では、目盛り「0」に相当するので「指示針角度:0」と設定する。 For example, it is assumed that the analog meter 1 has a dial and pointer as shown in FIG. 5(C). In the reference image, an index "G1" is given to the position corresponding to the position of the scale "0" of the analog meter 1 in FIG. 5(C). In this case, the XY coordinate values of index "G1" are (100, 100). Furthermore, when the position of the pointer is at "G1", it corresponds to the scale "0" in the analog meter 1, so "pointer angle: 0" is set.

その後、指示針角度を単位角度ずつ移動させたときの指示針の位置に相当する各位置に、インデックスG2、G3、…、Gnのように付与していき、各インデックスG2、G3、…、GnのXY座標値を付与していくと共に、各インデックスに指示針角度を対応つけていく。そうすると、図5(A)に示すように、指示針検出座標列332を構成する各インデックスは、仮想円VC2上に形成されたものとなる。なお、上述の単位角度の大きさは任意であってよい。 After that, indexes G2, G3, . , and the pointer angle is associated with each index. Then, as shown in FIG. 5A, each index forming pointer detection coordinate row 332 is formed on virtual circle VC2. Note that the size of the unit angle described above may be arbitrary.

ここで、指示針検出座標列332を構成する仮想円VC2が、指示針の位置の存在領域内に形成する理由を説明する。例えば、カメラ2による撮像画像において、指示針がアナログメータ1の目盛りと交差していないこともあり、そのような場合には、指示針が指し示している指示値を読み取ることができないことがある。しかし、第1の実施形態のように、指示針検出座標列を構成する仮想円VC2を、指示針の位置の存在領域に形成することにより、すなわち仮想円VC2の半径が仮想円VC1のそれよりも小さくすることにより、指示針と目盛りとが交差していない場合でも、画像における指示針の位置座標を検出でき、さらに指示針の角度を検出できる。 Here, the reason why the virtual circle VC2 forming the pointer detection coordinate sequence 332 is formed within the presence area of the pointer position will be described. For example, in the image captured by the camera 2, the pointer may not cross the scale of the analog meter 1, and in such a case, the indicated value indicated by the pointer may not be read. However, as in the first embodiment, by forming the virtual circle VC2 that constitutes the needle detection coordinate sequence in the existing region of the pointer position, that is, the radius of the virtual circle VC2 is larger than that of the virtual circle VC1. By decreasing the distance between the pointer and the scale, the position coordinates of the pointer in the image can be detected and the angle of the pointer can be detected even when the pointer and the scale do not intersect.

指示針検出座標列332を構成する仮想円VC2は、指示針の位置の存在領域に形成されるものであるため、アナログメータ1の各目盛りの位置で形成される仮想円VC1の領域内に形成されるものとなる。言い換えれば、点Sを中心とする仮想円VC2の半径は、点Sを中心とする仮想円VC1の半径よりも小さいものとなる。 Since the virtual circle VC2 that forms the needle detection coordinate sequence 332 is formed in the existence area of the position of the pointer, it is formed within the area of the virtual circle VC1 that is formed at the position of each scale of the analog meter 1. will be made. In other words, the radius of the virtual circle VC2 with the point S as its center is smaller than the radius of the virtual circle VC1 with the point S as its center.

点Sは、姿勢基準座標を構成する4個の基準点で形成される正方形の中心であり、例えば、点Arと点Crとを結んだ線分と、点Brと点Drとを結んだ線分との交点である。また、点Sは、アナログメータ1における指示針が回転する中心に対応する点である。したがって、点Sは、姿勢基準情報331の4個の基準点で形成される正方形の中心と、指示針検出座標列332を構成する仮想円VC2の中心とが一致するような位置関係にある。 A point S is the center of a square formed by four reference points that constitute the posture reference coordinates. It is the intersection with the minute. A point S is a point corresponding to the center of rotation of the pointer in the analog meter 1 . Therefore, the point S has a positional relationship such that the center of the square formed by the four reference points of the posture reference information 331 and the center of the virtual circle VC2 forming the needle detection coordinate sequence 332 are aligned.

(A-2)第1の実施形態の動作
次に、第1の実施形態に係る画像処理装置3による画像処理の動作を、図面を参照しながら詳細に説明する。
(A-2) Operation of First Embodiment Next, the operation of image processing by the image processing apparatus 3 according to the first embodiment will be described in detail with reference to the drawings.

図6は、第1の実施形態に係る画像処理方法の動作を示すフローチャートである。 FIG. 6 is a flow chart showing the operation of the image processing method according to the first embodiment.

[ステップS1]
カメラ2により撮影された撮像画像(原画像)が、画像処理装置3の画像入力部31に入力される。ここで、カメラ2からの撮像画像には、アナログメータ1が映し出されているものとする。
[Step S1]
A captured image (original image) captured by the camera 2 is input to the image input unit 31 of the image processing device 3 . Here, it is assumed that the analog meter 1 is displayed in the captured image from the camera 2 .

[ステップS2]
姿勢情報検出部32は、入力された撮像画像(原画像)に映し出されているアナログメータ1の姿勢情報を取得するため、アナログメータ1の画像領域を検出し、アナログメータ1の外形を示す4個の頂点の座標値を検出する。
[Step S2]
The orientation information detection unit 32 detects the image area of the analog meter 1 in order to acquire the orientation information of the analog meter 1 displayed in the input captured image (original image), and detects the outer shape of the analog meter 1 4 . Find the coordinate values of the vertices.

ここで、姿勢情報検出部32が検出した4個の頂点(点Am、点Bm、点Cm、点Dm)のXY座標値を姿勢情報と呼ぶ。 Here, the XY coordinate values of the four vertices (point Am, point Bm, point Cm, and point Dm) detected by the posture information detection unit 32 are called posture information.

以下では、姿勢情報検出部32が、撮像画像からアナログメータ1の外形を示す4個の頂点の座標値を検出方法の一例を説明する。 An example of a method for detecting the coordinate values of the four vertices representing the outer shape of the analog meter 1 from the captured image by the posture information detection unit 32 will be described below.

図7は、第1の実施形態に係る姿勢情報検出部32による4個の頂点座標の検出方法を示すフローチャートであり、図8は、第1の実施形態に係る姿勢情報検出部32による4個の頂点座標の検出方法を説明する説明図である。 FIG. 7 is a flowchart showing a method of detecting four vertex coordinates by the posture information detection unit 32 according to the first embodiment, and FIG. FIG. 10 is an explanatory diagram for explaining a method of detecting vertex coordinates of .

ここでは、アナログメータ1に対して斜め方向からカメラ2がアナログメータ1を撮影し、撮影画像は、図8(A)に示すように、アナログメータ1の姿勢が変形した状態で映し出されている場合を例示する。 Here, the camera 2 photographs the analog meter 1 from an oblique direction with respect to the analog meter 1, and the photographed image is displayed in a state where the posture of the analog meter 1 is deformed as shown in FIG. 8(A). Illustrate the case.

姿勢情報検出部32は、撮像画像Pに映り込んでいるアナログメータ1の外枠の辺を示す4本の直線を検出する(ステップS11)。 The posture information detection unit 32 detects four straight lines indicating sides of the outer frame of the analog meter 1 reflected in the captured image P (step S11).

ここで、例えば姿勢情報検出部32は、カメラ2からの原画像からアナログメータ1の外枠を含む領域を抽出するために、原画像に対して2値化処理を施し、白色の目盛り盤の領域と、その目盛り盤の周囲にある外枠部分の領域とを区別したり、アナログメータ1の外枠の領域と背景画像の領域とを区別できるようにしてもよい。さらに、姿勢情報検出部32は、画像に対してHough変換を行なって、アナログメータ1の外枠の辺を含む直線を抽出するようにしてもよい。 Here, for example, the posture information detection unit 32 performs binarization processing on the original image in order to extract an area including the outer frame of the analog meter 1 from the original image from the camera 2, and converts the white dial into a white dial. The area may be distinguished from the area of the outer frame around the dial, or the area of the outer frame of the analog meter 1 and the area of the background image may be distinguished. Furthermore, the posture information detection unit 32 may perform Hough transform on the image to extract straight lines including the sides of the outer frame of the analog meter 1 .

そして、姿勢情報検出部32は、撮像画像Pにおいて検出した4本の直線のうち、2本の直線を1つの組み合わせとして、当該2本の直線の交点を検出する。それぞれ異なる直線の組み合わせ毎に交点の検出する(ステップS12)。 Then, the posture information detection unit 32 combines two straight lines among the four straight lines detected in the captured image P, and detects the intersection of the two straight lines. Intersections are detected for each combination of different straight lines (step S12).

例えば、図8(A)の4本の直線VV´、TT´、WW´、UU´が検出されたものとする。このとき、直線VV´と直線TT´との交点、直線TT´と直線WW´との交点、直線WW´と直線UU´との交点、直線UU´と直線VV´との交点を検出する。 For example, assume that four straight lines VV', TT', WW', and UU' in FIG. 8A are detected. At this time, the intersection of the straight lines VV' and TT', the intersection of the straight lines TT' and WW', the intersection of the straight lines WW' and UU', and the intersection of the straight lines UU' and VV' are detected.

姿勢情報検出部32は、4個の交点を4個の頂点とし、各頂点に点Am、Bm、Cm、Dmのインデックス(ラベル)を付与し(ステップS13)、各頂点の座標値と各ラベルとを対応付け、これを原画像における姿勢情報として記憶部33に保持する(ステップS14)。 The posture information detection unit 32 treats the four intersections as four vertices, assigns indexes (labels) of the points Am, Bm, Cm, and Dm to each vertex (step S13), and coordinates the coordinates of each vertex and each label. are associated with each other, and stored in the storage unit 33 as orientation information in the original image (step S14).

例えば、図8(A)の点Amにはインデックス「Am」というラベルを付し、当該インデックス「Am」の座標値(Xam,Yam)とラベル「Am」とを対応付ける。このように他の3個の頂点についても同様に、対応付けたラベルと各頂点の座標値とを対応付ける。このようにして得られた図8(B)の姿勢情報が記憶部33に記憶される。 For example, the point Am in FIG. 8A is labeled with an index "Am", and the coordinate values (Xam, Yam) of the index "Am" are associated with the label "Am". Similarly, for the other three vertices, the associated labels are associated with the coordinate values of the respective vertices. The posture information of FIG. 8B thus obtained is stored in the storage unit 33 .

[ステップS3]
射影変換パラメータ算出部34は、姿勢情報検出部32により検出された4個の頂点のXY座標値と、予め設定されている姿勢基準情報を構成する4個の基準点のXY座標値との合計8個のXY座標値を用いて、射影変換パラメータを導出する。
[Step S3]
The projective transformation parameter calculation unit 34 sums the XY coordinate values of the four vertices detected by the posture information detection unit 32 and the XY coordinate values of the four reference points that constitute preset posture reference information. Projective transformation parameters are derived using the eight XY coordinate values.

ここで、射影変換パラメータは、同次座標を利用し、かつ、既知の変換元と変換先との対応点が4組ある場合、対応点の座標値から一意に導出することができる。 Here, the projective transformation parameters can be uniquely derived from the coordinate values of the corresponding points when homogeneous coordinates are used and there are four sets of corresponding points between known transformation sources and transformation destinations.

例えば、射影変換パラメータ算出部34は、図4(B)の姿勢基準情報を構成する点Ar,Br、Cr、Drの4個のXY座標値をそれぞれ変換元とし、図8(B)の原画像における姿勢情報を構成する点Am、Bm、Cm、Dmの4個のXY座標値のそれぞれを変換先とし、変換元の各点を、変換先の各点に射影変換できるような射影変換パラメータを算出する。 For example, the projective transformation parameter calculation unit 34 uses the four XY coordinate values of points Ar, Br, Cr, and Dr forming the attitude reference information in FIG. Each of the four XY coordinate values of points Am, Bm, Cm, and Dm that constitute the posture information in the image is set as a conversion destination, and a projective transformation parameter that allows each point of the transformation source to be projectively transformed to each point of the transformation destination. Calculate

[ステップS4]
指示針検出座標列射影変換部35は、射影変換パラメータ算出部34で導出された射影変換パラメータを用いて、指示針検出座標列332の全ての座標値を、射影変換する。
[Step S4]
The needle detection coordinate sequence projective transformation unit 35 uses the projective transformation parameters derived by the projective transformation parameter calculation unit 34 to projectively transform all the coordinate values of the pointer detection coordinate sequence 332 .

例えば、図5(B)に例示する指示針検出座標列332は、それぞれインデックスが付与されたn個の座標値を有して構成されているが、n個の座標値が射影変換パラメータにより射影変換される。 For example, the pointer detection coordinate string 332 illustrated in FIG. 5B is configured to have n coordinate values each indexed. converted.

[ステップS5]
指示針検出部36は、射影変換後の指示針検出座標列を用いて、カメラ2からの撮影画像(原画像)から画素値を取得し、各座標値の画素値で構成する指示針検出画素値列361を作成する。
[Step S5]
The pointer detection unit 36 acquires pixel values from the image (original image) captured by the camera 2 using the pointer detection coordinate sequence after projective transformation, and detects pointer detection pixels composed of the pixel values of each coordinate value. Create a value column 361 .

図9は、第1の実施形態における指示針検出画素値列361と指示針検出座標列332との関係を説明する説明図である。 FIG. 9 is an explanatory diagram illustrating the relationship between the pointer detection pixel value string 361 and the pointer detection coordinate string 332 in the first embodiment.

指示針検出画素値列361は、射影変換後の指示針検出座標列332を構成する全てのインデックスについて、原画像における各座標値の画素値を有するものである。また、指示針検出画素値列361は、指示針検出座標列332の各インデックスに対応付けられた指示針角度も付与するようにしてもよい。 The pointer detection pixel value string 361 has pixel values of each coordinate value in the original image for all indexes that constitute the pointer detection coordinate string 332 after projective transformation. The needle detection pixel value column 361 may also provide pointer angles associated with each index of the pointer detection coordinate column 332 .

ここで、上述した「射影変換後の指示針検出座標列を用いて、原画像から画素値を取得する」とは、指示針検出部36が、射影変換後の指示針検出座標列を構成する各座標値の画素値を、原画像から取得することを意味する。 Here, the above-mentioned "obtaining pixel values from the original image using the pointer detection coordinate string after projective transformation" means that the pointer detection unit 36 configures the pointer detection coordinate string after projective transformation. It means that the pixel value of each coordinate value is obtained from the original image.

また、指示針検出座標列332を構成する各座標値はインデックスが付与されているので、指示針検出部36は、射影変換後の指示針検出座標列332の各座標値の画素値を原画像から取得し、各画素値を、対応するインデックスと関連付けて、指示針検出画素値列361を作成する。つまり、指示針検出画素値列361は、指示針検出座標列332を構成するインデックスと同数のインデックスを有しており、さらに指示針検出画素値列361の各インデックスは、指示針検出座標列332の各インデックスと対応する関係にある。 In addition, since an index is assigned to each coordinate value forming the pointer detection coordinate sequence 332, the pointer detection unit 36 converts the pixel value of each coordinate value of the pointer detection coordinate sequence 332 after projective transformation into the original image. , and each pixel value is associated with the corresponding index to create pointer detection pixel value string 361 . In other words, the needle detection pixel value string 361 has the same number of indexes as the indexes forming the pointer detection coordinate string 332 , and each index of the pointer detection pixel value string 361 corresponds to the pointer detection coordinate string 332 . is in a corresponding relationship with each index of .

したがって、指示針検出画素値列361は、指示針検出座標列332のインデックスと、原画像における射影変換後の指示針検出座標列の各座標値の画素値と、指示針角度と、を対応付けた情報となる。 Therefore, the pointer detection pixel value string 361 associates the index of the pointer detection coordinate string 332, the pixel value of each coordinate value of the pointer detection coordinate string after projective transformation in the original image, and the pointer angle. information.

なお、図9の指示針検出画素値列361は、原画像における射影変換後の各座標値の画素値をインデックスに対応させたものとしたが、各インデックスに、原画像における射影変換後の各座標値を対応付けるようにしてもよい。 Note that the needle detection pixel value string 361 in FIG. 9 corresponds to the pixel value of each coordinate value after the projective transformation in the original image, but each index corresponds to each coordinate value after the projective transformation in the original image. Coordinate values may be associated with each other.

[ステップS6]
指示針検出部36は、指示針検出画素値列361を構成する全ての画素値を参照して、指示針の角度を算出する。
[Step S6]
The pointer detection unit 36 refers to all pixel values forming the pointer detection pixel value sequence 361 to calculate the angle of the pointer.

指示針の角度を算出する方法としては、例えば、指示針検出画素値列361を構成する全ての画素値について、各画素の輝度値を算出し、全ての輝度値の中から最小値となる画素のインデックスを求めるようにしてもよい。これにより、指示針検出座標列332、若しくは、指示針角度をインデックス毎に対応付けた指示針検出画素値列361を参照することにより、当該インデックスに対応する指示針角度を導出することができる。 As a method for calculating the pointer angle, for example, the luminance value of each pixel is calculated for all pixel values constituting the pointer detection pixel value sequence 361, and the pixel having the minimum luminance value among all the luminance values is selected. It is also possible to obtain the index of . Thus, by referring to the pointer detection coordinate column 332 or the pointer detection pixel value column 361 in which the pointer angle is associated with each index, the pointer angle corresponding to the index can be derived.

また例えば、指示針検出画素値列361を構成する全ての画素値について、各画素の輝度値を算出し、閾値を用いて各輝度値を2値化し、黒色となった画素の連続数が最も大きい区間の中央の画素のインデックスを求めるようにしてもよい。これにより、指示針検出座標列332、若しくは、指示針角度をインデックス毎に対応付けた指示針検出画素値列361を参照することにより、当該インデックスに対応する指示針角度を導出することができる。 Further, for example, the luminance value of each pixel is calculated for all the pixel values constituting the needle detection pixel value sequence 361, and each luminance value is binarized using a threshold value. Alternatively, the index of the central pixel of the large interval may be obtained. Thus, by referring to the pointer detection coordinate column 332 or the pointer detection pixel value column 361 in which the pointer angle is associated with each index, the pointer angle corresponding to the index can be derived.

ここで、輝度値が最小となるインデックスを導出する理由を説明する。例えば、原画像において指示針が位置している画素は、指示針が位置していない画素に比べて、画素値(例えば輝度値等)が小さくなる。したがって、指示針検出部36は、指示針検出画素値列を構成する画素値列の中から、画素値が最小値となるものを選択することで、指示針の位置を特定することができる。 Here, the reason for deriving the index with the minimum luminance value will be explained. For example, pixels in the original image where the pointer is located have pixel values (for example, brightness values) that are smaller than pixels where the pointer is not located. Therefore, the pointer detection unit 36 can specify the position of the pointer by selecting the pixel value sequence having the minimum pixel value from among the pixel value sequences forming the pointer detection pixel value sequence.

さらに、上述したように、指示針検出画素値列361のインデックスと、指示針検出座標列332のインデックスとは対応する関係にあるので、複雑な座標変換処理を必要とせず、指示針の位置を示す画素の画素値を特定することができ、その画素値に対応するインデックスを特定することができれば、そのインデックスに対応する指示針角度を導出することができる。換言すると、指示針検出画素値列361は、少なくとも、インデックスと、画素値とをペアとするデータで構成されているので、例えば、全ての画素値の中から最小値である画素値のインデックスを特定できれば、インデックスに対応する指示針角度を導出することができる。 Furthermore, as described above, the index of the pointer detection pixel value string 361 and the index of the pointer detection coordinate string 332 are in a corresponding relationship, so that the position of the pointer can be determined without requiring complicated coordinate conversion processing. If the pixel value of the indicated pixel can be specified and the index corresponding to that pixel value can be specified, the pointer angle corresponding to that index can be derived. In other words, the needle detection pixel value sequence 361 is composed of at least data paired with an index and a pixel value. Once identified, the pointer angle corresponding to the index can be derived.

[ステップS7、S8]
指示値算出部37は、指示針検出座標列332を参照して、指示針検出部36により検出された指示針角度に基づいて、指示針の指示値を算出する。そして、出力部38が、指示値を含む情報を後段に出力する。
[Steps S7 and S8]
The indicated value calculator 37 refers to the pointer detected coordinate column 332 and calculates the indicated value of the pointer based on the pointer angle detected by the pointer detector 36 . Then, the output unit 38 outputs information including the indicated value to the subsequent stage.

例えば、指示値算出部37は、図23に例示するような指示針角度と、指示値とを対応付けたテーブルを有しており、検出された指示針角度に対応する指示値を導出するようにしてもよい。より具体的には、例えば、アナログメータ1が電圧計等の場合に、指示針角度と電圧値とを対応させたテーブルを有しており、指示針角度に対応する電圧値(測定値)を指示値として導出するようにしてもよい。 For example, the indicated value calculation unit 37 has a table that associates pointer angles and indicated values as illustrated in FIG. 23, and derives indicated values corresponding to the detected pointer angles. can be More specifically, for example, when the analog meter 1 is a voltmeter or the like, it has a table that associates pointer angles and voltage values, and voltage values (measured values) corresponding to pointer angles are stored. It may be derived as an indication value.

なお、指示針検出部36により検出された指示針角度に基づいて指示針の指示値を導出方法は、上述した方法に限定されるものではない。 The method of deriving the indicated value of the pointer based on the pointer angle detected by the pointer detection unit 36 is not limited to the method described above.

(A-3)第1の実施形態の効果
以上のように、第1の実施形態の画像処理装置は、入力された撮像画像に映り込むアナログメータの形状に基づく4個の点の座標値と、姿勢基準情報を構成する4個の基準点の座標値とに基づいて射影変換パラメータを導出し、当該射影変換パラメータを用いて指示針検出座標列の全ての座標値(座標情報)を射影変換する。そして、射影変換後の指示針検出座標列の全ての座標値を用いて、原画像から画素値を取得して、指示針の指示値を読み取ることができる。
(A-3) Effect of the First Embodiment As described above, the image processing apparatus of the first embodiment provides the coordinate values of four points based on the shape of the analog meter reflected in the input captured image , a projective transformation parameter is derived based on the coordinate values of the four reference points constituting the posture reference information, and projective transformation is performed on all the coordinate values (coordinate information) of the pointer detection coordinate string using the projective transformation parameter. do. Then, using all the coordinate values of the pointer detection coordinate string after projective transformation, the pixel values can be obtained from the original image, and the indicated value of the pointer can be read.

また、第1の実施形態の画像処理装置は、射影変換パラメータを用いて指示針検出座標列のみを射影変換するので、明るさの情報や色の情報などの多大な情報量を含む撮像画像を射影変換するのと比べ、処理する情報量が少ない。そのため、入力された撮像画像に映り込むアナログメータの形状を理想的な形状へと近づけるような撮像画像を補正する処理に比べ、第1の実施形態の画像処理装置が行う座標変換処理は、処理に要する計算量およびメモリ使用量が少ない。 Further, the image processing apparatus according to the first embodiment uses the projective transformation parameter to projectively transform only the pointer detection coordinate string, so that a captured image containing a large amount of information such as brightness information and color information can be processed. Compared to projective transformation, the amount of information to be processed is small. Therefore, compared to the process of correcting the captured image such that the shape of the analog meter reflected in the input captured image approaches the ideal shape, the coordinate conversion process performed by the image processing apparatus of the first embodiment is performed by the process. requires less computation and memory usage.

さらに、第1の実施形態の画像処理装置は、指示針検出画素値列のインデックスと、指示針検出座標列のインデックスとは対応する関係にあるので、複雑な座標変換処理を必要とせず、指示針の位置を示す画素の画素値を特定でき、その画素値に対応するインデックスを特定することができれば、そのインデックスに対応する指示針角度を導出することができる。その結果、撮像画像の全体を対象として解析する手法に比べて、解析に要する計算量およびメモリ使用量が少ない。 Furthermore, in the image processing apparatus of the first embodiment, since the index of the pointer detection pixel value string and the index of the pointer detection coordinate string are in a corresponding relationship, the index of the pointer detection pixel value string and the index of the pointer detection coordinate string do not require complicated coordinate conversion processing. If the pixel value of the pixel indicating the position of the needle can be specified and the index corresponding to that pixel value can be specified, the pointer angle corresponding to that index can be derived. As a result, the amount of calculation and the amount of memory used for the analysis are small compared to the method of analyzing the entire captured image.

また、第1の実施形態の画像処理装置は、指示針検出画素値列のインデックスに対応する座標値の画素値に基づいて指示針の位置を特定するので、指示針の形状の制限が従来技術よりも少なくなるため、適用可能なアナログメータの種類が多くなる。 In addition, since the image processing apparatus of the first embodiment specifies the position of the pointer based on the pixel value of the coordinate value corresponding to the index of the pointer detection pixel value sequence, the shape of the pointer is limited by the conventional technology. Therefore, there are many types of analog meters that can be applied.

また、第1の実施形態の画像処理装置は、座標変換処理に要する計算量が少ないため、処理に要する消費電力も少ない。画像処理装置はマイクロコンピュータ等の汎用な演算処理装置が用いられ、電池等の内部電源(図示せず)から電力供給を受けることが想定されるが、第1の実施形態の画像処理装置を適用すれば、内部電源の寿命を伸ばすことができる。 Further, the image processing apparatus according to the first embodiment requires a small amount of calculation for coordinate conversion processing, and thus consumes little power for the processing. The image processing device uses a general-purpose arithmetic processing device such as a microcomputer, and is assumed to receive power from an internal power supply (not shown) such as a battery, but the image processing device of the first embodiment is applied. This will extend the life of the internal power supply.

(B)第2の実施形態
次に、本発明に係る画像処理装置、画像処理プログラム、画像処理方法及び情報収集システムの第2の実施形態を、図面を参照しながら詳細に説明する。
(B) Second Embodiment Next, a second embodiment of the image processing apparatus, image processing program, image processing method, and information collection system according to the present invention will be described in detail with reference to the drawings.

(B-1)第2の実施形態の基本概念
カメラがアナログメータを撮影する際、その運用環境等の状況によっては、例えばアナログメータやカメラが設備機器等からの振動等を受けてしまうことがある。そのような場合、アナログメータやカメラの位置が微妙に動いてしまい、アナログメータを正立姿勢で撮像できなくなってしまうことがある。
(B-1) Basic concept of the second embodiment When a camera takes an image of an analog meter, depending on the operating environment, the analog meter or camera may be subject to vibrations from facility equipment, for example. be. In such a case, the positions of the analog meter and the camera may move slightly, making it impossible to take an image of the analog meter in an upright posture.

また、アナログメータを撮影するカメラの設置環境によって、当初からカメラ視点が回転する姿勢にあり、カメラがアナログメータを正立姿勢で撮影できないことがある。例えば、図10(A)に示すように、アナログメータに対してカメラが傾いた状態で(図10(A)では右側に90度傾いた状態)で撮影することも想定され、そのような場合には、図10(B)に示すように、撮像画像においてアナログメータが回転した状態で映り込んでしまうことがある。 In addition, depending on the installation environment of the camera for photographing the analog meter, the viewpoint of the camera may be rotated from the beginning, and the camera may not be able to photograph the analog meter in an upright position. For example, as shown in FIG. 10(A), it is assumed that the camera is tilted with respect to the analog meter (in FIG. 10(A), the camera is tilted 90 degrees to the right). As shown in FIG. 10B, the analog meter may be reflected in a rotated state in the captured image.

上記課題を解決するために、カメラの姿勢に応じて、撮像画像の向きを補正する機能を有するカメラを利用したり、カメラの姿勢を保持するための器具を用いる等の方法があるが、そうすると導入コストが増大してしまう。 In order to solve the above problems, there are methods such as using a camera that has a function to correct the orientation of the captured image according to the camera posture, or using a device to hold the camera posture. The introduction cost will increase.

そのため、撮像画像に映り込むアナログメータの位置や姿勢を、より効率的に検出し、撮像画像に画像処理を行ない、指示針が指し示す指示針指示値を効率的に読み取ることが求められる。 Therefore, it is required to more efficiently detect the position and orientation of the analog meter reflected in the captured image, perform image processing on the captured image, and efficiently read the pointer indication value indicated by the pointer.

(B-2)第2の実施形態の構成
図11は、第2の実施形態に係る画像処理装置3の内部構成を示す内部構成図である。
(B-2) Configuration of Second Embodiment FIG. 11 is an internal configuration diagram showing the internal configuration of the image processing apparatus 3 according to the second embodiment.

図11において、第2の実施形態に係る画像処理装置3Aは、画像入力部31、姿勢情報検出部32A、記憶部33、射影変換パラメータ算出部34、指示針検出座標列射影変換部35、指示針検出部36、指示値算出部37、出力部38を有する。 In FIG. 11, an image processing apparatus 3A according to the second embodiment includes an image input unit 31, a posture information detection unit 32A, a storage unit 33, a projective transformation parameter calculation unit 34, a needle detection coordinate sequence projective transformation unit 35, an instruction It has a needle detection section 36 , an indicated value calculation section 37 and an output section 38 .

第2の実施形態の画像処理装置10Aは、姿勢情報検出部32Aによる姿勢情報の検出方法が、第1の実施形態と異なる。それ以外の構成要素は第1の実施形態で説明した構成要素と同一又は対応するものを適用できるので、以下では、第1の実施形態と異なる構成要素を中心に説明する。 The image processing apparatus 10A of the second embodiment differs from that of the first embodiment in the posture information detection method by the posture information detection unit 32A. Since the other components that are the same as or correspond to the components described in the first embodiment can be applied, the components different from the first embodiment will be mainly described below.

第2の実施形態は、カメラ2の撮像画像(原画像)のアナログメータ1の姿勢情報を検出するために、アナログメータ1に取り付ける治具(以下、「姿勢情報検出治具」とも呼ぶ。)50を用いる。そして、この姿勢情報検出治具50をアナログメータ1の目盛り盤を囲む位置に取り付けた上で、カメラ2がアナログメータ1を撮影し、姿勢情報検出部32Aが、撮像画像に映っている姿勢情報検出治具50の特徴点の位置を特定することで姿勢情報を検出する。 In the second embodiment, a jig (hereinafter also referred to as "posture information detection jig") is attached to the analog meter 1 in order to detect the posture information of the analog meter 1 in the captured image (original image) of the camera 2. 50 is used. Then, after attaching this posture information detection jig 50 to a position surrounding the dial of the analog meter 1, the camera 2 photographs the analog meter 1, and the posture information detection unit 32A detects the posture information shown in the captured image. Posture information is detected by specifying the position of the feature point of the detection jig 50 .

図12は、第2の実施形態に係る姿勢情報検出治具50の構成を示す構成図である。 FIG. 12 is a configuration diagram showing the configuration of the posture information detection jig 50 according to the second embodiment.

姿勢情報検出治具50は、全体として略正方形をなしている。姿勢情報検出治具50を略正方形と見たとき、4個の頂点のうち1個の頂点を成す2辺における当該頂点近傍領域と、他の3個の頂点の頂点近傍領域とでは、それぞれ異なる色を持つように構成されている。 The posture information detection jig 50 has a substantially square shape as a whole. When the posture information detection jig 50 is viewed as a substantially square, the vertex neighborhood regions of the two sides forming one of the four vertices and the vertex neighborhood regions of the other three vertices are different from each other. configured to have color.

例えば、姿勢情報検出治具50の点Aの頂点近傍領域を説明する。領域R11と領域R12とは同じ色で形成された領域である。領域R11は、左端上部501が湾曲しており、左端下部502は直線状に形成されている。領域R12は、上端左部503が湾曲しており、上端右部504が直線状に形成されている。このように、点Aは、領域R11と領域R12との境界点に位置している。 For example, an area near the vertex of the point A of the posture information detection jig 50 will be described. Region R11 and region R12 are formed in the same color. The region R11 has a curved upper left end 501 and a lower left end 502 that is linear. The region R12 has a curved upper left portion 503 and a straight upper right portion 504 . Thus, the point A is located at the boundary point between the regions R11 and R12.

次に、他の頂点である点B、点C、点Dを代表して点Bの頂点近傍領域を説明する。領域R21と領域R22とは、同じ色で形成されている。領域R21と領域R22とは、領域R11及び領域R12に対し、HSI表色系で色を表現したとき、色相環上で離れた位置の色の領域である。領域R21は、右端上部505が湾曲しており、右端下部506は直線状に形成されており、領域R22は、上端右部507が湾曲しており、上端左部508が直線状に形成されている。点Bは、領域R21と領域R22との境界点に位置している。 Next, the region near the vertex of point B will be described as a representative of other vertices, i.e., points B, C, and D. FIG. The region R21 and the region R22 are formed with the same color. Regions R21 and R22 are regions of colors separated from the regions R11 and R12 on the color wheel when colors are expressed in the HSI color system. Region R21 has a curved upper right end portion 505 and a straight lower right end portion 506. Region R22 has a curved upper right portion 507 and a linear upper left portion 508. there is Point B is located at a boundary point between regions R21 and R22.

また、例えば略正方形の姿勢情報検出治具50の上辺では、それぞれ色が異なる領域R11と領域R21とが存在するが、これは、姿勢情報検出治具50が、点Aの頂点近傍領域と、点Bの頂点近傍領域とをそれぞれ異なる色を持つように構成するようにしたからである。射影変換を行なう場合、変換元の点と、変換先の点との対応関係が求められる。したがって、この実施形態では、姿勢情報検出治具50の4個の頂点のうち、点Aと、それ以外の点(点B、点C、点D)とを区別するために、点Aの頂点近傍領域とそれ以外の点の頂点近傍領域との色が異なるようにしている。姿勢情報検出治具50の左辺についても同様である。 Further, for example, on the upper side of the substantially square posture information detection jig 50, there are regions R11 and R21 with different colors. This is because the regions near the vertex of the point B are configured to have different colors. When projective transformation is performed, the correspondence relationship between the transformation source points and the transformation destination points is obtained. Therefore, in this embodiment, of the four vertices of the posture information detection jig 50, in order to distinguish between the point A and the other points (point B, point C, and point D), the vertex of the point A is The colors of the neighborhood area and the vertex neighborhood area of other points are made different. The same applies to the left side of the posture information detection jig 50 .

図13は、第2の実施形態に係る姿勢情報検出治具50をアナログメータ1に取り付けた状態を説明する説明図である。 FIG. 13 is an explanatory diagram illustrating a state in which the posture information detection jig 50 according to the second embodiment is attached to the analog meter 1. FIG.

姿勢情報検出治具50は、アナログメータ1の目盛り盤の表示面において、目盛り盤を囲むようにアナログメータ1の外枠111に取り付けられる。このとき、姿勢情報検出治具50の中心と、指示針の回転中心とが同一軸上となるように、姿勢情報検出治具50を配置すると共に、姿勢情報検出治具50の中心と、姿勢情報検出治具50の点Aと、アナログメータ1の目盛り「0」の位置とが直線L1上に並ぶように姿勢情報検出治具50を配置する。 The attitude information detection jig 50 is attached to the outer frame 111 of the analog meter 1 so as to surround the dial on the display surface of the dial of the analog meter 1 . At this time, the orientation information detection jig 50 is arranged so that the center of the orientation information detection jig 50 and the rotation center of the pointing needle are on the same axis, and the center of the orientation information detection jig 50 is aligned with the orientation. The posture information detection jig 50 is arranged so that the point A of the information detection jig 50 and the position of the scale "0" of the analog meter 1 are aligned on the straight line L1.

(B-3)第2の実施形態の動作
(B-3-1)全体動作
次に、第2の実施形態に係る画像処理装置3Aによる画像処理の動作を、図面を参照しながら詳細に説明する。
(B-3) Operation of Second Embodiment (B-3-1) Overall Operation Next, the operation of image processing by the image processing apparatus 3A according to the second embodiment will be described in detail with reference to the drawings. do.

図14は、第2の実施形態に係る画像処理装置3Aによる画像処理の動作を示すフローチャートである。 FIG. 14 is a flow chart showing the operation of image processing by the image processing apparatus 3A according to the second embodiment.

[ステップS1]
カメラ2により撮影された撮像画像(原画像)が、画像処理装置3の画像入力部31に入力される。
[Step S1]
A captured image (original image) captured by the camera 2 is input to the image input unit 31 of the image processing device 3 .

ここで、アナログメータ1には、図12の姿勢情報検出治具50が取り付けられており、入力される撮像画像には、姿勢情報検出治具50が取り付けられているアナログメータ1が撮影されているものとする。また、カメラ2が撮影する画像の形式は、例えばRGB形式等のように色の情報を持つものとする。 Here, the attitude information detection jig 50 of FIG. 12 is attached to the analog meter 1, and the analog meter 1 to which the attitude information detection jig 50 is attached is photographed in the captured image to be input. It is assumed that there is It is also assumed that the format of the image captured by the camera 2 has color information, such as the RGB format.

[ステップS20]
姿勢情報検出部32Aは、入力された撮像画像(原画像)から姿勢情報検出治具50を検出し、当該画像中における姿勢情報検出治具50の4個の頂点(点Am、点Bm、点Cm、点Dm)のXY座標値を取得する。
[Step S20]
The posture information detection unit 32A detects the posture information detection jig 50 from the input captured image (original image), and detects four vertices (point Am, point Bm, point Cm, point Dm) to obtain the XY coordinate values.

ここで、姿勢情報検出部32Aが検出した4個の頂点(点Am、点Bm、点Cm、点Dm)のXY座標値を姿勢情報と呼ぶ。なお、原画像から姿勢情報検出治具50を検出する方法の詳細な説明は後述する。 Here, the XY coordinate values of the four vertices (point Am, point Bm, point Cm, and point Dm) detected by the posture information detection unit 32A are called posture information. A detailed description of the method for detecting the orientation information detection jig 50 from the original image will be given later.

[ステップS3]
射影変換パラメータ算出部34は、姿勢情報検出部32Aにより検出された4個の頂点(点Am、点Bm、点Cm、点Dm)のXY座標値と、予め設定されている姿勢基準情報を構成する4個の基準点(点Ar、点Br、点Cr、点Dr)のXY座標値との合計8個のXY座標値を用いて、射影変換パラメータを導出する。
[Step S3]
The projective transformation parameter calculator 34 configures the XY coordinate values of the four vertices (point Am, point Bm, point Cm, and point Dm) detected by the posture information detection unit 32A and preset posture reference information. Projective transformation parameters are derived using a total of eight XY coordinate values including the XY coordinate values of four reference points (point Ar, point Br, point Cr, and point Dr).

図15は、姿勢基準情報の基準点Ar,Br、Cr、Drを変換元として、点Am、Bm、Cm、Dmを変換先とした射影変換を説明する説明図である。 FIG. 15 is an explanatory diagram for explaining projective transformation with the reference points Ar, Br, Cr, and Dr of the orientation reference information as the conversion sources and the points Am, Bm, Cm, and Dm as the conversion destinations.

図15に示すように、第2の実施形態も第1の実施形態と同様に、例えば、図4(B)の姿勢基準情報を構成する点Ar,Br、Cr、Drの4個のXY座標値をそれぞれ変換元とし、姿勢情報検出部32Aが原画像から検出した姿勢情報を構成する点Am、Bm、Cm、Dmの4個のXY座標値のそれぞれを変換先とし、変換元の各点を、変換先の各点に射影変換できるような射影変換パラメータを算出する。 As shown in FIG. 15, in the second embodiment, similarly to the first embodiment, for example, the four XY coordinates of points Ar, Br, Cr, and Dr forming the attitude reference information in FIG. Each of the four XY coordinate values of points Am, Bm, Cm, and Dm constituting the orientation information detected from the original image by the orientation information detection unit 32A is assumed to be the conversion destination. to each point of the transformation destination.

[ステップS4]
指示針検出座標列射影変換部35は、射影変換パラメータ算出部34に導出された射影変換パラメータを用いて、射影変換前の指示針検出座標列の全ての座標値を、射影変換する。
[Step S4]
The pointer detection coordinate string projective transformation unit 35 uses the projective transformation parameters derived by the projective transformation parameter calculation unit 34 to projectively transform all the coordinate values of the pointer detection coordinate sequence before projective transformation.

第2の実施形態においても、第1の実施形態の図5(B)の指示針検出座標列を構成する全ての座標値を射影変換する。 In the second embodiment as well, projective transformation is performed on all the coordinate values that make up the needle detection coordinate sequence in FIG. 5B of the first embodiment.

[ステップS5]
指示針検出部36は、第1の実施形態と同様にして、射影変換後の指示針検出座標列を構成する全ての座標値を用いて、撮影画像(原画像)から画素値を取得し、指示針検出画素値列361を作成する。
[Step S5]
As in the first embodiment, the pointer detection unit 36 acquires pixel values from the captured image (original image) using all the coordinate values forming the pointer detection coordinate string after projective transformation, A needle detection pixel value sequence 361 is created.

指示針検出画素値列361は、図9に例示する通り、インデックスと画素値とをペアとしたデータを1単位とし、当該データを複数個連なった構造となっている。指示針検出画素値列361のデータ個数は指示針検出座標列332のデータ個数と同一とする。指示針検出画素値列361のインデックスと、指示針検出座標列332のインデックスとはそれぞれ対応関係にある。 As illustrated in FIG. 9, the needle detection pixel value string 361 has a structure in which a plurality of pieces of the data are linked, with each unit of data being a pair of an index and a pixel value. The number of data in the pointer detection pixel value column 361 is the same as the number of data in the pointer detection coordinate column 332 . The indices of the needle detection pixel value column 361 and the indices of the needle detection coordinate column 332 are in correspondence with each other.

[ステップS6]
指示針検出部36は、指示針検出画素値列361を構成する全ての画素値を参照して、指示針の角度を算出する。
[Step S6]
The pointer detection unit 36 refers to all pixel values forming the pointer detection pixel value sequence 361 to calculate the angle of the pointer.

第2の実施形態において、第1の実施形態と同様に、例えば、指示針検出画素値列361を構成する全ての画素値について、各画素の輝度値を算出し、閾値を用いて各輝度値を2値化し、全ての輝度値の中から最小値となる画素のインデックスを求めるようにしてもよい。これにより、指示針検出座標列332、若しくは、指示針角度をインデックス毎に対応付けた指示針検出画素値列361を参照することにより、当該インデックスに対応する指示針角度を導出することができる。また第1の実施形態と同様に、例えば、指示針検出画素値列361を構成する全ての画素値について、各画素の輝度値を算出し、閾値を用いて各輝度値を2値化し、黒色となった画素の連続数が最も大きい区間の中央の画素のインデックスを求めるようにしてもよい。 In the second embodiment, similarly to the first embodiment, for example, the brightness value of each pixel is calculated for all pixel values that constitute the needle detection pixel value sequence 361, and each brightness value is calculated using a threshold value. may be binarized, and the index of the pixel having the minimum value among all luminance values may be obtained. As a result, the pointer angle corresponding to the index can be derived by referring to the pointer detection coordinate column 332 or the pointer detection pixel value column 361 in which the pointer angle is associated with each index. Further, similarly to the first embodiment, for example, the luminance value of each pixel is calculated for all the pixel values constituting the needle detection pixel value sequence 361, and each luminance value is binarized using a threshold to obtain a black color. Alternatively, the index of the pixel at the center of the section in which the number of consecutive pixels that are such that is the largest may be obtained.

ここで、輝度値が最小となるインデックスを導出する理由を説明する。例えば、原画像において指示針が位置している画素は、指示針が位置していない画素に比べて、画素値(例えば輝度値等)が小さくなる。したがって、指示針検出部36は、指示針検出画素値列を構成する画素値列の中から、画素値が最小値となるものを選択することで、指示針の位置を特定することができる。 Here, the reason for deriving the index with the minimum luminance value will be explained. For example, pixels in the original image where the pointer is located have pixel values (for example, brightness values) that are smaller than pixels where the pointer is not located. Therefore, the pointer detection unit 36 can specify the position of the pointer by selecting the pixel value sequence having the minimum pixel value from among the pixel value sequences forming the pointer detection pixel value sequence.

さらに、上述したように、指示針検出画素値列361のインデックスと、指示針検出座標列332のインデックスとは対応する関係にあるので、複雑な座標変換処理を必要とせず、指示針の位置を示す画素の画素値を特定でき、その画素の座標値に対応するインデックスを特定することができれば、そのインデックスに対応する指示針角度を導出することができる。 Furthermore, as described above, the index of the pointer detection pixel value string 361 and the index of the pointer detection coordinate string 332 are in a corresponding relationship, so that the position of the pointer can be determined without requiring complicated coordinate conversion processing. If the pixel value of the indicated pixel can be specified and the index corresponding to the coordinate value of that pixel can be specified, the pointer angle corresponding to that index can be derived.

[ステップS7、S8]
指示値算出部37は、指示針検出座標列332を参照して、指示針検出部36により検出された指示針角度に基づいて、指示針の指示値を算出する。そして、出力部38が、指示値を含む情報を後段に出力する。
[Steps S7 and S8]
The indicated value calculator 37 refers to the pointer detected coordinate column 332 and calculates the indicated value of the pointer based on the pointer angle detected by the pointer detector 36 . Then, the output unit 38 outputs information including the indicated value to the subsequent stage.

(B-3-2)姿勢情報検出治具50の検出方法
図16は、第2の実施形態に係る姿勢情報検出部32Aの姿勢情報検出治具50の検出方法を示すフローチャートである。
(B-3-2) Detection Method of Posture Information Detection Jig 50 FIG. 16 is a flowchart showing a detection method of the posture information detection jig 50 of the posture information detection unit 32A according to the second embodiment.

ここで、姿勢情報検出治具50は、略正方形であり、4個の頂点のうち、点Aを成す2辺の領域R11及び領域R12には「色A」が施されており、他の3個の頂点(点B、点C、点D)を成す各辺の領域R21、領域R22、領域R23、領域R24には「色B」が施されているものとする。 Here, the posture information detection jig 50 has a substantially square shape, and of the four vertices, two sides forming a point A, a region R11 and a region R12, are colored with “color A”, and the other three corners are colored. Region R21, region R22, region R23, and region R24 of each side forming vertices (point B, point C, and point D) are given "color B".

[ステップS21]
姿勢情報検出部32Aは、領域R11及び領域R12に施されている色Aを強調した画像(これを「色A強調画像」とも呼ぶ。)を原画像から作成する。
[Step S21]
The posture information detection unit 32A creates an image in which the color A applied to the regions R11 and R12 is emphasized (this is also called a "color A emphasized image") from the original image.

[ステップS22]
姿勢情報検出部32Aは、作成した色A強調画像に対してコーナー検出を行なう。ここで、コーナー検出手法については、例えばHarrisのコーナー検出などを用いることができる。
[Step S22]
The posture information detection unit 32A performs corner detection on the created color A-enhanced image. Here, for example, Harris corner detection can be used as the corner detection method.

[ステップS23]
姿勢情報検出部32Aは、ステップS22で検出されたコーナーから最も適切であると考えられるコーナーを1点選択する。なお、コーナーの選択方法については後述する。
[Step S23]
The posture information detection unit 32A selects one corner that is considered to be the most appropriate from the corners detected in step S22. The corner selection method will be described later.

[ステップS24]
続いて、姿勢情報検出部32Aは、姿勢情報検出治具50の4個の頂点のうち、点A以外の3個の頂点を成す色Bを強調した画像(以下、「色B強調画像」とも呼ぶ。)を原画像から作成する。
[Step S24]
Subsequently, the posture information detection unit 32A creates an image in which the color B that forms the three vertices other than the point A among the four vertices of the posture information detection jig 50 is emphasized (hereinafter also referred to as a “color B emphasized image”). ) is created from the original image.

[ステップS25]
姿勢情報検出部32Aは、作成した色B強調画像に対してコーナー検出を行なう。このコーナー検出手法についても、ステップS22と同様に、例えばHarrisのコーナー検出などを用いる。
[Step S25]
The orientation information detection unit 32A performs corner detection on the created color B-enhanced image. For this corner detection method, for example, Harris' corner detection is used as in step S22.

[ステップS26]
姿勢情報検出部32Aは、ステップS25で検出されたコーナーから最も適切であると考えられるコーナーを3点選択する。なお、コーナーの選択方法については後述する。
[Step S26]
The posture information detection unit 32A selects three corners considered to be the most appropriate from the corners detected in step S25. The corner selection method will be described later.

[ステップS27]
続いて、姿勢情報検出部32Aは、ステップS23及びS26で検出した4点にラベルを付与する。
[Step S27]
Subsequently, the posture information detection unit 32A labels the four points detected in steps S23 and S26.

ここでは、4点のうち、任意の点に対してラベルAtを付与し、原画像中において、点Atを起点として時計回りに、点Bt、点Ct、点Dtと順番にラベルを付与する。なお、4点にラベルを付与する詳細な説明は後述する。 Here, a label At is assigned to an arbitrary point among the four points, and labels are assigned in order of point Bt, point Ct, and point Dt in the clockwise direction starting from point At in the original image. A detailed description of labeling the four points will be given later.

[ステップS28]
姿勢情報検出部32Aは、姿勢情報検出治具50の色Aの領域が成す点のラベルがAtとなるようにラベルを付け替える。
[Step S28]
The orientation information detection unit 32A relabels the point formed by the area of the color A of the orientation information detection jig 50 so that the label is At.

このとき、ラベルの配列が時計回りであることを維持するように、それぞれラベルの付け替えを行なう。各点が姿勢情報検出治具50の色Aもしくは色Bのどちらによって成されているか否かの判定方法の詳細は説明も後述する。この後、At,Bt,Ct,DtをそれぞれAm,Bm,Cm,Dmと付け替えて出力して終了する。 At this time, each label is replaced so as to maintain the clockwise arrangement of the labels. The details of the method for determining whether each point is formed by color A or color B of the orientation information detection jig 50 will be described later. After that, At, Bt, Ct, and Dt are replaced with Am, Bm, Cm, and Dm, respectively, and the output is finished.

[コーナー選択法の説明]
次に、ステップS22及びS25におけるコーナー選択法を説明する。ここでは、撮像画像(原画像)に映っている姿勢情報検出治具50の4個の頂点である点A、点B、点C、点Dを検出する。
[Description of corner selection method]
Next, the corner selection method in steps S22 and S25 will be described. Here, points A, B, C, and D, which are four vertices of the posture information detection jig 50 appearing in the captured image (original image), are detected.

点Aは、色Aが施されている2つの領域の境界点であり、それぞれ際立った2つのエッジの交点であるコーナーに位置しているので、色A強調画像からコーナーを選択することで点Aを検出できる。 Point A is a boundary point between two regions with color A applied, and is located at a corner that is the intersection of two distinct edges. A can be detected.

また、点B、点C、点Dは、色Bが施されている2つの領域との境界点であり、それぞれ際立った2つのエッジの交点であるコーナーに位置しているので、色B強調画像からコーナーを選択することで点B、点C、点Dを検出できる。 Also, points B, C, and D are boundary points with two areas where color B is applied, and are positioned at corners that are intersections of two distinct edges, so that color B emphasis is performed. Point B, point C, and point D can be detected by selecting corners from the image.

まず、姿勢情報検出部32Aは、コーナーと判定された画素を白、コーナーではないと判定された画素を黒とした2値画像(コーナー2値画像)を作成する。 First, the posture information detection unit 32A creates a binary image (corner binary image) in which pixels determined to be corners are white and pixels determined not to be corners are black.

その後、コーナー2値画像に適当な回数の膨張処理を実行する。本処理で選択したいコーナーは姿勢情報検出治具50の頂点である。ここで、姿勢情報検出治具50の各頂点は、画像領域中においては十分な距離を持って分布している。そのため、互いにごく近い距離にあるコーナーは1つのコーナーから由来するものであると考えられるので、本膨張処理を行なう。 An appropriate number of dilation operations are then performed on the corner binary image. The corner to be selected in this process is the vertex of the orientation information detection jig 50 . Here, each vertex of the orientation information detection jig 50 is distributed with sufficient distance in the image area. Therefore, corners that are very close to each other are considered to originate from one corner, so this dilation process is performed.

続いて、姿勢情報検出部32Aは、膨張処理を行なったコーナー2値画像中における白領域の塊の個数を数える。該塊の個数により、後の処理が変化する。 Subsequently, the orientation information detection unit 32A counts the number of white region clusters in the corner binary image subjected to the dilation processing. Subsequent processing changes depending on the number of lumps.

塊の個数が目標個数未満である場合、コーナー検出処理におけるコーナーと判定する閾値を緩め、コーナー検出処理を再試行する、もしくは原画像の再撮影から処理をやり直す。 If the number of lumps is less than the target number, the threshold value for determining a corner in the corner detection process is loosened, and the corner detection process is retried, or the processing is restarted from re-capturing the original image.

ここで、目標個数は、検出しようとするコーナーの数を意味する。例えば、ステップS22では、色A強調画像から1点のコーナーを検出する場合であるため、この場合、目標個数は1個となる。また、ステップS25では、色B強調画像から3点のコーナーを検出する場合であるため、この場合、目標個数は3個となる。 Here, the target number means the number of corners to be detected. For example, in step S22, since one corner is detected from the color A-enhanced image, the target number is one in this case. Also, in step S25, since three corners are detected from the color B-enhanced image, the target number is three in this case.

一方、塊の個数が目標個数を超える場合、塊の中から目標個数だけの塊を選択する必要があり、例えば、次のような塊選択方法を用いることができる。 On the other hand, when the number of chunks exceeds the target number, it is necessary to select the target number of chunks from the chunks. For example, the following chunk selection method can be used.

例えば、各塊の領域における重心座標値を中心とした適当な半径の領域(以下、塊領域)を考える。原画像における塊領域の色の構成の比率と、姿勢情報検出治具50の頂点を中心とした適当な半径の領域(以下、治具頂点領域)の色の構成の比率とを比較する。そして、塊領域の色の構成の比率と治具頂点領域の色の構成の比率とが類似しているものから、上位必要個数を選択する。 For example, consider a region with an appropriate radius centered on the barycentric coordinate value (hereinafter referred to as a lump region) in each lump region. The ratio of the color composition of the lump region in the original image is compared with the ratio of the color composition of the region having an appropriate radius around the vertex of the posture information detection jig 50 (hereinafter referred to as jig vertex region). Then, a higher required number is selected from those having similar ratios of color composition of the mass region and jig vertex regions.

比率の類似判定においては、例えば各塊領域及び治具頂点領域の色比率をベクトルとして考え、各塊領域のベクトルと、治具頂点領域のベクトルとでコサイン類似度を計算し、コサイン類似度が高い上位必要個数を選択する、といった手法を用いてもよい。 In the ratio similarity determination, for example, the color ratio of each block region and jig vertex region is considered as a vector, and the cosine similarity is calculated with the vector of each block region and the vector of the jig vertex region, and the cosine similarity is A technique such as selecting a higher required number may be used.

そして、塊の個数が目標個数と一致する場合、各塊中からコーナーである1個の画素を選択する。この1個の画素の選択方法は、例えば任意の方法を用いることができ、例えば、塊領域の重心に位置している1個の画素をコーナーとして選択する方法等を用いることができる。 Then, when the number of clusters matches the target number, one pixel, which is a corner, is selected from each cluster. For example, any method can be used as the method for selecting one pixel. For example, a method of selecting one pixel positioned at the center of gravity of the block region as a corner can be used.

[ステップS27の詳細な動作]
図17は、第2の実施形態の4個の頂点にラベルを付与する方法を説明する説明図である。
[Detailed operation of step S27]
FIG. 17 is an explanatory diagram illustrating a method of labeling four vertices according to the second embodiment.

まず、図17(A)に例示するように、姿勢情報検出部32Aは、4点に仮ラベル(点At,点Bt,点Ct,点Dt)を付与する。このときのラベルの付与の仕方は任意の方法で付与してよい。 First, as illustrated in FIG. 17A, the posture information detection unit 32A assigns temporary labels (point At, point Bt, point Ct, and point Dt) to four points. Any method may be used to attach the label at this time.

続いて、姿勢情報検出部32Aは、以下のようにして、4点に付与した仮ラベルの付け替えを行なう。 Subsequently, the posture information detection unit 32A replaces the temporary labels given to the four points as follows.

まず、線分At-Btと線分Ct-Dtが交差するか否かを判定する。交差する場合、点Atと点Dtのラベルを入れ替える。例えば、図17(B)では、線分At-Btと線分Ct-Dtが交差するので、点Atと点Dtのラベルを入れ替える。 First, it is determined whether or not the line segment At-Bt and the line segment Ct-Dt intersect. If they intersect, the labels of point At and point Dt are exchanged. For example, in FIG. 17B, the line segment At-Bt and the line segment Ct-Dt intersect, so the labels of the points At and Dt are interchanged.

続いて、線分Dt―Atと線分Bt-Ctが交差するか否かを判定する。交差する場合、点Atと点Btのラベルを入れ替える。例えば、図17(C)では、線分Dt-Atと線分Bt-Ctは交差しないので、ラベルの入れ替えをしない。 Subsequently, it is determined whether or not the line segment Dt-At and the line segment Bt-Ct intersect. If they intersect, the labels of point At and point Bt are exchanged. For example, in FIG. 17C, since the line segment Dt-At and the line segment Bt-Ct do not intersect, the labels are not exchanged.

この後、画像上において、4点が時計回りに配列しているか否かを判定する。反時計回りに配列している場合、点Atと点Ctのラベルを入れ替える。例えば、図17(C)に示すように、点Atを起点として時計回りの配列を見ると、点At→点Dt→点Ct→点Btと順番に配列していないので、点Atと点Ctのラベルを入れ替える。そうすると、図17(D)に示すように、点Atを起点としてラベルが順番に配列されるようになる。 After that, it is determined whether or not the four points are arranged clockwise on the image. If they are arranged counterclockwise, the labels of points At and Ct are exchanged. For example, as shown in FIG. 17(C), when looking at the clockwise array with the point At as the starting point, the points At and Ct are not arranged in the order of point At→point Dt→point Ct→point Bt. replace the label of Then, as shown in FIG. 17D, the labels are arranged in order starting from the point At.

なお、上述した線分交差及び点の配列方向の判定の具体的な手段は、上述した手法に限定されるものではなく、点Atを起点としてラベルが順番に配列できる方法であれば、任意の手段を用いてよい。 It should be noted that the specific means for judging the line segment intersection and the arrangement direction of the points described above is not limited to the method described above, and any method can be used as long as the labels can be arranged in order with the point At as the starting point. means may be used.

[ステップS28の判定方法]
次に、ステップS28における判定方法の動作について説明する。本動作は、前述のコーナー選択法における塊選択方法に類似している。
[Determination method in step S28]
Next, the operation of the determination method in step S28 will be described. This operation is similar to the blob selection method in the corner selection method described above.

まず、4個の頂点の座標を中心とした適当な半径の領域(以下、頂点領域)と、色Aが成す領域(以下、色A領域)との、原画像中における色比率を考える。 First, consider the color ratio in the original image between an area with an appropriate radius centered on the coordinates of four vertices (hereafter referred to as vertex area) and an area formed by color A (hereafter referred to as color A area).

各頂点領域の色比率と、色A領域の色比率とをそれぞれベクトルとして考え、頂点領域のベクトルと、色A領域のベクトルとでコサイン類似度を計算する。そして、コサイン類似度が最も高い点を点Atとして選択する。 Considering the color ratio of each vertex region and the color ratio of the color A region as vectors, the cosine similarity is calculated between the vector of the vertex region and the vector of the color A region. Then, the point with the highest cosine similarity is selected as the point At.

(B-4)第2の実施形態の効果
以上のように、第2の実施形態の画像処理装置によれば、第1の実施形態と同様の効果を奏する。
(B-4) Effect of Second Embodiment As described above, according to the image processing apparatus of the second embodiment, the same effect as that of the first embodiment can be obtained.

また、第2の実施形態の画像処理装置によれば、アナログメータに姿勢情報検出治具を取り付け、カメラが、姿勢情報検出治具が取り付けられたアナログメータを撮影し、画像処理装置が、姿勢情報検出治具の4頂点の位置を用いて、撮像画像に映り込むアナログメータの理想的な位置と姿勢との差分を示す射影変換パラメータを導出し、当該射影変換パラメータを用いて指示針検出座標列の全ての座標値(座標情報)を射影変換する。そして、射影変換後の指示針検出座標列の全ての座標値の画素値に基づいて、指示針の指示値を読み取ることができる。 Further, according to the image processing apparatus of the second embodiment, the orientation information detection jig is attached to the analog meter, the camera photographs the analog meter to which the orientation information detection jig is attached, and the image processing device detects the orientation information. Using the positions of the four vertices of the information detection jig, a projective transformation parameter indicating the difference between the ideal position and orientation of the analog meter reflected in the captured image is derived, and the pointer detection coordinates are calculated using the projective transformation parameter. Projectively transform all the coordinate values (coordinate information) of the column. Then, based on the pixel values of all the coordinate values of the pointer detection coordinate string after projective transformation, the pointer indication value can be read.

第2の実施形態は、色相環上の離れた位置にある色の組み合わせからなる略正方形の姿勢情報検出治具を用いるので、色同士の色相差が充分であるため、姿勢情報検出治具の4個の頂点の位置を容易に導出することができる。その結果、姿勢情報検出治具の4個の頂点と、姿勢情報の4個の基準点とに基づいて、射影変換パラメータを容易に導出することができる。 Since the second embodiment uses a substantially square orientation information detection jig made up of a combination of colors at distant positions on the color wheel, the hue difference between colors is sufficient. The positions of the four vertices can be easily derived. As a result, the projective transformation parameters can be easily derived based on the four vertices of the orientation information detection jig and the four reference points of the orientation information.

また、第2の実施形態は、姿勢情報検出治具をアナログメータに取り付けるという簡単な手法であるため、指示値読取システムに係る導入コストを抑えることができる。さらに、カメラの撮影範囲の中に、アナログメータの目盛り盤の面と姿勢情報検出治具が映っていれば本発明の効果は十分に発揮されるため、アナログメータとカメラとの相対的な位置関係やカメラの向きの制限を緩和することできる。そのため、アナログメータに対するカメラの設置の自由度が大きくなる。 In addition, since the second embodiment employs a simple method of attaching the posture information detection jig to the analog meter, it is possible to reduce the introduction cost of the indicated value reading system. Furthermore, since the effects of the present invention can be fully exhibited if the surface of the dial of the analog meter and the orientation information detection jig are captured within the imaging range of the camera, the relative positions of the analog meter and the camera are Restrictions on relationships and camera orientation can be relaxed. Therefore, the degree of freedom in installing the camera with respect to the analog meter is increased.

(C)第3の実施形態
次に、本発明に係る画像処理装置、画像処理プログラム、画像処理方法及び情報収集システムの第3の実施形態を、図面を参照しながら詳細に説明する。
(C) Third Embodiment Next, a third embodiment of the image processing apparatus, image processing program, image processing method, and information collection system according to the present invention will be described in detail with reference to the drawings.

(C-1)第3の実施形態の構成
第3の実施形態は、第2の実施形態と同様に、アナログメータに姿勢情報検出治具を取り付けて、姿勢情報検出部が、撮像画像から姿勢情報検出治具の4頂点の位置を検出し、その4頂点の座標値と姿勢基準情報の4個の基準点とに基づいて射影変換パラメータを導出するものである。
(C-1) Configuration of the Third Embodiment In the third embodiment, as in the second embodiment, an attitude information detection jig is attached to an analog meter, and the attitude information detection unit detects the attitude from the captured image. The positions of the four vertices of the information detection jig are detected, and the projective transformation parameters are derived based on the coordinate values of the four vertices and the four reference points of the posture reference information.

しかし、第3の実施形態は、アナログメータに取り付ける姿勢情報検出治具の構成と、姿勢情報検出部による撮像画像から姿勢情報検出治具の4頂点の位置を検出する処理とが、第2の実施形態と異なる。 However, in the third embodiment, the configuration of the orientation information detection jig attached to the analog meter and the processing of detecting the positions of the four vertices of the orientation information detection jig from the captured image by the orientation information detection unit are different from those of the second embodiment. Different from the embodiment.

したがって、第3の実施形態の画像処理装置は、第2の実施形態の図11を用いて、第2の実施形態と異なる構成要素を中心に説明する。 Therefore, the image processing apparatus of the third embodiment will be described with a focus on the components different from those of the second embodiment, using FIG. 11 of the second embodiment.

図18は、第3の実施形態に係る姿勢情報検出治具50Aの構成を示す構成図である。 FIG. 18 is a configuration diagram showing the configuration of an orientation information detection jig 50A according to the third embodiment.

姿勢情報検出治具50Aは、全体として略正方形をなしている。略正方形の姿勢情報検出治具50Aの各辺は2色で構成されている。2色で構成されている各辺の色の組み合わせは、例えばHSI表色系で色を表現したときに、色相環上の離れた位置にある色を選択する。 The posture information detection jig 50A has a substantially square shape as a whole. Each side of the substantially square posture information detection jig 50A is composed of two colors. For the combination of colors on each side, which are composed of two colors, colors at distant positions on the color wheel are selected, for example, when colors are expressed in the HSI color system.

2色で構成されている各辺において、各色の領域の境界線を直線a、直線b、直線c、直線dとしている。また、直線dと直線aで成す頂点を点A、直線aと直線bで成す頂点を点B、直線bと直線cで成す頂点を点C、直線cと直線dで成す頂点を点Dとしている。 On each side composed of two colors, the boundary lines of the regions of each color are straight lines a, straight lines b, straight lines c, and straight lines d. The vertex formed by straight lines d and a is point A, the vertex formed by lines a and b is point B, the vertex formed by lines b and c is point C, and the vertex formed by lines c and d is point D. there is

4辺のうち、直線bと直線cを境界線とする2辺は、同じ色の組み合わせとしている。したがって、姿勢情報検出治具50Aの各辺は、3組の色の組み合わせで形成されている。このように、色の組み合わせの数は少なくとも3組を用いることが望ましい。 Of the four sides, the two sides having the straight line b and the straight line c as boundary lines are combined with the same color. Therefore, each side of the orientation information detection jig 50A is formed by three sets of color combinations. Thus, it is desirable to use at least three color combinations.

図19は、第3の実施形態に係る姿勢情報検出治具50Aをアナログメータ1に取り付けた状態を説明する説明図である。 FIG. 19 is an explanatory diagram illustrating a state in which the posture information detection jig 50A according to the third embodiment is attached to the analog meter 1. FIG.

姿勢情報検出治具50Aのアナログメータ1への取付方法は、基本的には、第2の実施形態と同じである。すなわち、姿勢情報検出治具50Aは、アナログメータ1の目盛り盤を囲むように、アナログメータ1の外枠111に設けられる。 The method of attaching the attitude information detection jig 50A to the analog meter 1 is basically the same as in the second embodiment. That is, the posture information detection jig 50A is provided on the outer frame 111 of the analog meter 1 so as to surround the dial of the analog meter 1 .

このとき、姿勢情報検出治具50Aの中心と、指示針の回転中心とが同一軸上となるように、姿勢情報検出治具50Aを配置すると共に、姿勢情報検出治具50Aの中心と、姿勢情報検出治具50Aの点Aと、アナログメータ1の目盛り「0」の位置とが直線L1上に並ぶように姿勢情報検出治具50を配置する。 At this time, the orientation information detection jig 50A is arranged so that the center of the orientation information detection jig 50A and the rotation center of the pointing needle are on the same axis, and the center of the orientation information detection jig 50A is aligned with the orientation of the orientation information detection jig 50A. The posture information detection jig 50 is arranged so that the point A of the information detection jig 50A and the position of the scale "0" of the analog meter 1 are aligned on the straight line L1.

(C-2)第3の実施形態の動作
第3の実施形態に係る画像処理装置3Aの画像処理方法は、基本的には、第2の実施形態において、図14のフローチャートを用いて説明した方法と同じである。
(C-2) Operation of the Third Embodiment The image processing method of the image processing apparatus 3A according to the third embodiment is basically described in the second embodiment using the flowchart of FIG. Same as method.

したがって、第3の実施形態では、姿勢情報検出部30Aによる姿勢情報検出治具50Aの4頂点の位置を検出する処理を詳細に説明する。 Therefore, in the third embodiment, processing for detecting the positions of the four vertices of the posture information detection jig 50A by the posture information detection unit 30A will be described in detail.

図20は、第3の実施形態に係る姿勢情報検出部32Aの姿勢情報検出治具50の検出方法を示すフローチャートである。 FIG. 20 is a flowchart showing a detection method of the posture information detection jig 50 of the posture information detection section 32A according to the third embodiment.

[ステップS31]
姿勢情報検出部32Aは、画像入力部11から入力された撮像画像(原画像)をHSI変換する。これにより、撮像画像を、色相、彩度、輝度の3つの成分からなる画像とすることができる。
[Step S31]
The posture information detection unit 32A performs HSI conversion on the captured image (original image) input from the image input unit 11 . As a result, the captured image can be an image composed of the three components of hue, saturation, and luminance.

[ステップS32~S37]
ステップS32~S37では、色相、彩度、輝度の3つの成分のうち、各画素の色相(H成分)に着目してH成分差分画像を作成する。ここでは、原画像の全画素のうち、ある画素を注目画素として以下の処理を行ない、また全画素についてステップS32~S37の処理をそれぞれ繰り返し行なう。
[Steps S32 to S37]
In steps S32 to S37, among the three components of hue, saturation, and luminance, attention is paid to the hue (H component) of each pixel, and an H component difference image is created. Here, among all the pixels of the original image, a certain pixel is set as a target pixel and the following processing is performed, and the processing of steps S32 to S37 is repeated for all pixels.

[ステップS33]
姿勢情報検出部32Aは、原画像において、ある画素を注目画素とし、その注目画素のH成分の値と、当該注目画素の周辺8画素のH成分の値との差分の絶対値を算出する。これにより、1個の注目画素について8個のH成分の差分絶対値が得られる。
[Step S33]
The posture information detection unit 32A sets a certain pixel as a target pixel in the original image, and calculates the absolute value of the difference between the H component value of the target pixel and the H component values of the eight surrounding pixels of the target pixel. As a result, eight H-component absolute difference values are obtained for one pixel of interest.

[ステップS34]
姿勢情報検出部32Aは、注目画素に関する8個のH成分の差分絶対値の大小関係を判断して、最大値を、当該注目画素のH成分差分値とする。
[Step S34]
The posture information detection unit 32A determines the magnitude relationship of the eight H-component difference absolute values for the pixel of interest, and sets the maximum value as the H-component difference value of the pixel of interest.

[ステップS35]
次に、姿勢情報検出部32Aは、注目画素の彩度(S成分)の値を取得し、そのS成分の値と閾値とを比較する。そして、注目画素のS成分の値が閾値未満であれば、ステップS36に移行する。注目画素のS成分の値が閾値未満でなければ、ステップS37に移行する。
[Step S35]
Next, the posture information detection unit 32A acquires the value of the saturation (S component) of the pixel of interest, and compares the value of the S component with a threshold. Then, if the value of the S component of the pixel of interest is less than the threshold, the process proceeds to step S36. If the value of the S component of the pixel of interest is not less than the threshold, the process proceeds to step S37.

[ステップS36]
注目画素のS成分の値が閾値未満であるとき、当該注目画素のH成分差分値を0とする。
[Step S36]
When the S component value of the target pixel is less than the threshold value, the H component difference value of the target pixel is set to zero.

[ステップS37]
姿勢情報検出部32Aは、撮像画像(原画像)の全ての画素に対してステップS32~S37の処理を行ない、H成分差分画像を作成する。したがって、全ての画素について処理が完了していない場合、全ての画素に対してステップS32~S37の処理を行なう。
[Step S37]
The posture information detection unit 32A performs the processing of steps S32 to S37 on all pixels of the captured image (original image) to create an H component difference image. Therefore, if the processing has not been completed for all pixels, the processing of steps S32 to S37 is performed for all pixels.

[ステップS38]
姿勢情報検出部32Aは、H成分差分画像にハフ変換を適用し、姿勢情報検出治具50Aを構成する4本の直線L11、L12、L13、L14を検出する。なお、この4本の直線それぞれは、姿勢情報検出治具50Aを構成する各辺における、2つの色の境界に相当する。
[Step S38]
The orientation information detection unit 32A applies a Hough transform to the H component difference image to detect four straight lines L11, L12, L13, and L14 forming the orientation information detection jig 50A. Each of these four straight lines corresponds to a boundary between two colors on each side of the orientation information detection jig 50A.

[ステップS39]
姿勢情報検出部32Aは、検出された4本の直線を用いて、4個の交点を検出する。
[Step S39]
The posture information detection unit 32A detects four intersections using the detected four straight lines.

具体的には、4本の直線のうち、ある直線を基準直線とし、基準直線の傾きと、他の3本の直線の傾きとの差分の絶対値を算出する。そして、該傾きの差分の絶対値が大きい2本の直線を選択する。基準直線と、該2本の直線との交点を算出する。結果として2個の交点が得られる。 Specifically, one of the four straight lines is used as a reference straight line, and the absolute value of the difference between the slope of the reference straight line and the slopes of the other three straight lines is calculated. Then, two straight lines having a large absolute value of the slope difference are selected. A point of intersection between the reference straight line and the two straight lines is calculated. Two intersection points are obtained as a result.

上述した処理を4本の直線のそれぞれについて行ない、これにより得られた座標値の重複を除くと、4個の座標値が得られる。 When the above-described processing is performed for each of the four straight lines and duplication of coordinate values obtained thereby is eliminated, four coordinate values are obtained.

[ステップS40]
姿勢情報検出部32Aは、ステップS38で検出した4本の直線を、それぞれ直線a、直線b、直線c、直線dとラベル付けする。4本の直線のうち、ある直線の上には、ステップS39で検出した交点のうちの2個が存在することになる。原画像における、該2交点を結んだ線分の近傍領域の画素のH成分の値から、姿勢情報検出治具50Aのどの直線であるかを識別し、ラベル付けする。
[Step S40]
The posture information detection unit 32A labels the four straight lines detected in step S38 as straight lines a, straight lines b, straight lines c, and straight lines d. Two of the intersections detected in step S39 are present on a certain straight line among the four straight lines. From the value of the H component of the pixels in the vicinity of the line segment connecting the two intersections in the original image, which straight line of the posture information detection jig 50A is identified and labeled.

[ステップS41]
姿勢情報検出部32Aは、ステップS39で検出した4個の交点に対して、点A、点B、点C、点Dとラベル付けする。
[Step S41]
The posture information detection unit 32A labels the four intersection points detected in step S39 as point A, point B, point C, and point D. FIG.

ラベル付けの際には、どの2直線から成る交点であるかを判定するために、ステップS40でラベル付けした直線のラベルを用いる。 During labeling, the label of the straight line labeled in step S40 is used to determine which two straight lines intersect.

(C-3)第3の実施形態の効果
以上のように、第3の実施形態の画像処理装置によれば、第1及び第2の実施形態と同様の効果を得ることができる。
(C-3) Effects of Third Embodiment As described above, according to the image processing apparatus of the third embodiment, effects similar to those of the first and second embodiments can be obtained.

(D)第4の実施形態
次に、本発明に係る画像処理装置、画像処理プログラム、画像処理方法及び情報収集システムの第4の実施形態を、図面を参照しながら詳細に説明する。
(D) Fourth Embodiment Next, a fourth embodiment of the image processing apparatus, image processing program, image processing method, and information collection system according to the present invention will be described in detail with reference to the drawings.

以下、第2又は第3の実施形態に第4の実施形態を適用する場合を例示するが、第1の実施形態に第4の実施形態を適用する場合にも同様の効果を得ることができる。 A case where the fourth embodiment is applied to the second or third embodiment will be exemplified below, but similar effects can be obtained when the fourth embodiment is applied to the first embodiment. .

図21は、第4の実施形態に係る画像処理装置の内部構成を示す内部構成図である。 FIG. 21 is an internal configuration diagram showing the internal configuration of an image processing apparatus according to the fourth embodiment.

図21において、第4の実施形態の画像処理装置3Bは、画像入力部31、姿勢情報検出部32A、記憶部33、射影変換パラメータ算出部34B、原画像射影変換部39、指示針検出部36B、指示値算出部37、出力部38を有する。 21, an image processing apparatus 3B of the fourth embodiment includes an image input unit 31, a posture information detection unit 32A, a storage unit 33, a projective transformation parameter calculation unit 34B, an original image projective transformation unit 39, and a pointer detection unit 36B. , an indicated value calculator 37 and an output unit 38 .

第4の実施形態では、射影変換パラメータ算出部34B及び指示針検出部36Bの各処理と、第1~第3の実施形態の指示針検出座標列射影変換部35を、原画像射影変換部39に置き換えている点が、第1~第3の実施形態と異なる。 In the fourth embodiment, each process of the projective transformation parameter calculation unit 34B and pointer detection unit 36B, and the pointer detection coordinate sequence projective transformation unit 35 of the first to third embodiments are replaced by the original image projective transformation unit 39. , which is different from the first to third embodiments.

射影変換パラメータ算出部34Bは、撮像画像(原画像)から検出した4個の頂点Am、Bm、Cm、DmのXY座標値と、姿勢基準情報331を構成する4個の基準点Ar、Br、Cr、DrのXY座標値の8個の点のXY座標値に基づいて、射影変換パラメータを算出する点は、第1~第3の実施形態と同様であるが、射影変換パラメータの算出方法が第1~第3の実施形態と異なる。 The projective transformation parameter calculation unit 34B calculates the XY coordinate values of four vertices Am, Bm, Cm, and Dm detected from the captured image (original image), and the four reference points Ar, Br, Similar to the first to third embodiments, the projective transformation parameters are calculated based on the XY coordinate values of eight points of the XY coordinate values of Cr and Dr. It differs from the first to third embodiments.

つまり、射影変換パラメータ算出部34Bは、撮像画像(原画像)から検出した、撮像画像(原画像)から抽出した4個の頂点Am、Bm、Cm、Dmを変換元として、姿勢基準情報331を構成する4個の基準点Ar、Br、Cr、Drを変換先として射影変換する。このように変換元と変換先とする座標値が第1~第3の実施形態と異なる。 That is, the projective transformation parameter calculation unit 34B uses the four vertices Am, Bm, Cm, and Dm extracted from the captured image (original image) as the transformation sources, and calculates the posture reference information 331. Projection transformation is performed using the four reference points Ar, Br, Cr, and Dr as transformation destinations. As described above, the coordinate values used as the conversion source and the conversion destination are different from those in the first to third embodiments.

原画像射影変換部39は、射影変換パラメータ算出部34Bにより算出された射影変換パラメータを用いて、撮像画像(原画像)を射影変換するものである。 The original image projective transformation section 39 projects the captured image (original image) using the projective transformation parameter calculated by the projective transformation parameter computing section 34B.

指示針検出部36Bは、指示針検出座標列332を構成する各座標値を参照して、原画像射影変換部39によって射影変換された原画像から画素値を取得し、指示針検出画素値列を作成するものである。 The pointer detection unit 36B refers to each coordinate value forming the pointer detection coordinate string 332, acquires pixel values from the original image that has been projectively transformed by the original image projective transformation unit 39, and converts the pointer detection pixel value string to is created.

つまり、第1~第3の実施形態では、射影変換パラメータを用いて、指示針検出座標列を構成する各座標値を射影変換して、原画像における対応する座標値の画素値を取得して、指示針検出画素値列を作成していたが、第4の実施形態の指示針検出部36Bは、射影変換後の原画像から、指示針検出座標列を構成する各座標値の画素値を取得して、指示針検出画素値列を作成する。 That is, in the first to third embodiments, the projective transformation parameter is used to projectively transform each coordinate value constituting the pointer detection coordinate string, and the pixel value of the corresponding coordinate value in the original image is obtained. However, the pointer detection unit 36B of the fourth embodiment calculates the pixel values of each coordinate value forming the pointer detection coordinate string from the original image after the projective transformation. Acquire and create a needle detection pixel value string.

(D-2)第4の実施形態の動作
図22は、第4の実施形態に係る画像処理装置3Bにおける画像処理を示すフローチャートである。
(D-2) Operation of Fourth Embodiment FIG. 22 is a flow chart showing image processing in the image processing apparatus 3B according to the fourth embodiment.

[ステップS1、S20]
カメラ2により撮影された撮像画像(原画像)が、画像処理装置3の画像入力部31に入力され(ステップS1)、姿勢情報検出部32Aは、入力された撮像画像(原画像)から姿勢情報検出治具50を検出し、当該画像中における姿勢情報検出治具50の4個の頂点(点Am、点Bm、点Cm、点Dm)のXY座標値を取得する(ステップS20)。
[Steps S1, S20]
A captured image (original image) captured by the camera 2 is input to the image input unit 31 of the image processing device 3 (step S1). The detection jig 50 is detected, and the XY coordinate values of the four vertices (point Am, point Bm, point Cm, and point Dm) of the orientation information detection jig 50 in the image are obtained (step S20).

[ステップS50]
射影変換パラメータ算出部34は、姿勢情報検出部32により検出された4個の頂点(点Am、点Bm、点Cm、点Dm)のXY座標値を変換元とし、姿勢基準情報を構成する4個の基準点(点Ar、点Br、点Cr、点Dr)のXY座標値を変換先として、変換元の点を、変換先の点へ、射影変換できるような射影変換パラメータを算出する。
[Step S50]
The projective transformation parameter calculation unit 34 uses the XY coordinate values of the four vertices (point Am, point Bm, point Cm, and point Dm) detected by the posture information detection unit 32 as the source of transformation, and converts the four vertices constituting the posture reference information. Using the XY coordinate values of the reference points (point Ar, point Br, point Cr, point Dr) as conversion destinations, projective transformation parameters are calculated so that the transformation source points can be projectively transformed to the transformation destination points.

[ステップS51]
原画像射影変換部39は、射影変換パラメータ算出部34Bにより算出された射影変換パラメータを用いて、撮像画像(原画像)を射影変換する。
[Step S51]
The original image projective transformation unit 39 projects the captured image (original image) using the projective transformation parameter calculated by the projective transformation parameter computing unit 34B.

[ステップS52]
そして、指示針検出部36Bは、指示針検出座標列332を構成する各座標値を参照して、原画像射影変換部39によって射影変換された原画像から画素値を取得し、指示針検出画素値列を作成する。
[Step S52]
Then, the pointer detection unit 36B refers to each coordinate value forming the pointer detection coordinate string 332, acquires a pixel value from the original image that has been projectively transformed by the original image projective transformation unit 39, and obtains a pixel value from the pointer detection pixel. Create a value column.

[ステップS6~S8]
ステップS6~S8の処理は、第1~第3の実施形態と同様であるため、ここの詳細な説明は省略する。
[Steps S6 to S8]
Since the processing of steps S6 to S8 is the same as in the first to third embodiments, detailed description thereof will be omitted.

(D-3)第4の実施形態の効果
以上のように、第4の実施形態の画像処理装置によっても、第1~第3の実施形態と同様の効果を得ることができる。
(D-3) Effects of the Fourth Embodiment As described above, the same effects as those of the first to third embodiments can be obtained with the image processing apparatus of the fourth embodiment.

(E)他の実施形態
(E-1)上述した第1~第3の実施形態では、射影変換された指示針検出座標列を参照して、撮像画像から抽出した複数の画素値を検出することを例示した。また、第4の実施形態では、指示針検出座標列を用いて射影変換された撮像画像から抽出した複数の画素値から指示針の位置を検出する場合を例示した。
(E) Other Embodiments (E-1) In the first to third embodiments described above, a plurality of pixel values extracted from a captured image are detected by referring to the projection-transformed pointer detection coordinate string. I exemplified that. Further, in the fourth embodiment, the case where the pointer position is detected from a plurality of pixel values extracted from the captured image that has undergone projective transformation using the pointer detection coordinate sequence has been exemplified.

このとき、指示針検出座標列の各座標値の画素値から指示針の位置を検出する際、指示針検出座標列の各座標値を含む一定領域の画素値を考慮し、各座標値を含む一定領域の画素値から指示針の位置を検出するようにしてもよい。これは、例えば、図24(A)に示すように、目盛り盤には、例えば「0」などの数字が付与されており、そのときには撮像画像における当該座標値の画素値が小さくなってしまうことがある。そのような場合、目盛り盤の数字と被らない位置に、指示針検出座標列の各座標値を配置させる仮想円VC2の位置を設定することで回避できる。しかし、仮に、目盛り盤の数字と被ってしまった位置に仮想円VC2があるときには、図24(B)に示すように、指示針検出座標列の各座標値を含む一定の広がりを持つ領域の画素値を考慮するようにしてもよい。 At this time, when detecting the position of the pointer from the pixel values of each coordinate value of the pointer detection coordinate row, the pixel values of a certain area including each coordinate value of the pointer detection coordinate row are considered, and each coordinate value is included. The pointer position may be detected from pixel values in a certain area. This is because, for example, as shown in FIG. 24A, numbers such as "0" are assigned to the dial, and in that case, the pixel value of the coordinate value in the captured image becomes small. There is In such a case, it can be avoided by setting the position of the virtual circle VC2 for arranging each coordinate value of the needle detection coordinate string at a position that does not overlap the numbers on the dial. However, if the virtual circle VC2 were to overlap the numbers on the dial, as shown in FIG. Pixel values may also be considered.

(E-2)上述した第1~第4の実施形態では、射影変換パラメータの算出に関して、カメラ2からの撮像画像が入力するたびに射影変換パラメータを算出しているように表現しているが、射影変換パラメータの算出処理は、画像処理システムの初期設定の際に行なったなり、所定の時間毎に行なったりするようにしてもよい。 (E-2) In the first to fourth embodiments described above, the calculation of the projective transformation parameters is expressed as if the projective transformation parameters are calculated each time an image captured by the camera 2 is input. The projective transformation parameter calculation process may be performed at the time of initial setting of the image processing system, or may be performed at predetermined time intervals.

つまり、画像処理のたびに、射影変換パラメータを算出することに限定されるものではなく、1度算出した射影変換パラメータを保持しておき、その射影変換パラメータを用いて、指示針検出座標列若しくは原画像を射影変換するようにしてもよい。これにより、射影変換パラメータの算出に係る処理負荷を軽減することができる。勿論、画像処理のたびに、射影変換パラメータを算出するようにしてもよい。 That is, the projective transformation parameter is not limited to be calculated each time the image processing is performed, but the projective transformation parameter calculated once is stored, and using the projective transformation parameter, the pointer detection coordinate string or The original image may be subject to projective transformation. This makes it possible to reduce the processing load associated with the calculation of the projective transformation parameters. Of course, the projective transformation parameters may be calculated for each image processing.

(E-3)上述した第2~第4の実施形態では、アナログメータに姿勢情報検出治具を取り付ける際、アナログメータの指示針が動く範囲を囲むようにして、姿勢情報検出治具を取り付ける場合を例示した。しかし、姿勢情報検出治具を取り付ける位置は、これに限定されるものではない。 (E-3) In the second to fourth embodiments described above, when the posture information detection jig is attached to the analog meter, the posture information detection jig is attached so as to surround the range in which the pointer of the analog meter moves. exemplified. However, the position where the orientation information detection jig is attached is not limited to this.

姿勢情報検出治具は、撮影画像に映っている姿勢情報検出治具の4個の頂点のXY座標値と、姿勢基準情報の4個の基準値のXY座標値とを用いて、射影変換パラメータを導出することに寄与している。したがって、撮像画像に、アナログメータの指示針と共に姿勢情報検出治具が映っているのであれば、取付位置には特に限定されない。 The orientation information detection jig uses the XY coordinate values of the four vertices of the orientation information detection jig shown in the captured image and the XY coordinate values of the four reference values of the orientation reference information to obtain the projection transformation parameters. contributes to the derivation of Therefore, the mounting position is not particularly limited as long as the posture information detection jig is shown together with the pointer of the analog meter in the captured image.

この場合、姿勢情報検出治具を構成する4頂点のXY座標値を、指示針検出座標列が構成する円(仮想円VC2)の直径及び位置を考慮して定めることに注意が必要である。また、カメラでの撮影時には、姿勢情報検出治具と、アナログメータの指示針の可動範囲とがすべて撮像範囲に収まることも必要となるので、この点にも注意が必要となる。 In this case, it should be noted that the XY coordinate values of the four vertices forming the posture information detection jig are determined in consideration of the diameter and position of the circle (virtual circle VC2) formed by the pointer detection coordinate string. Also, when photographing with a camera, it is necessary that the movable range of the posture information detection jig and the pointer of the analog meter are all within the photographing range, so this also requires attention.

(E-4)上述した第2~第4の実施形態では、姿勢情報検出治具が略正方形である場合を例示したが、姿勢情報検出治具の形状を任意の四角形としてもよい。この場合、任意の四角形を構成する4頂点の座標を、指示針検出座標列が構成する円の直径及び位置を考慮して定めることが必要となる。 (E-4) In the above-described second to fourth embodiments, the posture information detection jig has a substantially square shape, but the shape of the posture information detection jig may be an arbitrary square. In this case, it is necessary to determine the coordinates of the four vertices that form an arbitrary quadrangle by considering the diameter and position of the circle that the pointer detection coordinate row forms.

(E-5)上述した第1~第4の実施形態では、指示針が回転するアナログメータである場合を例示し、指示針の位置を検出するための座標群(指示針検出座標列)が仮想円VC2上に存在する場合を例示した。しかし、指示針検出座標列の各座標値が直線上に配置されたものであってもよいし、その他任意の形状であってもよい。この場合、姿勢情報検出治具を構成する4頂点の座標を、該座標群が構成する形状を考慮して定めることに留意するべきである。 (E-5) In the above-described first to fourth embodiments, the case where the pointer is an analog meter that rotates is exemplified, and the coordinate group for detecting the position of the pointer (pointer detection coordinate row) is A case of existing on the virtual circle VC2 is illustrated. However, each coordinate value of the pointer detection coordinate row may be arranged on a straight line, or may have any other shape. In this case, it should be noted that the coordinates of the four vertices forming the orientation information detection jig are determined in consideration of the shape formed by the coordinate group.

例えば図25(A)に示すように、指示針が横方向に移動する横型計器であってもよく、この場合、図25(B)に示すように、指示針検出座標列を構成する各座標値が、指示針の動きに応じた横方向(X軸方向)の直線上に配列されているものであってもよい。 For example, as shown in FIG. 25A, it may be a horizontal instrument in which the pointer moves in the horizontal direction. In this case, as shown in FIG. The values may be arranged on a straight line in the horizontal direction (X-axis direction) according to the movement of the pointer.

また、指示針が縦方向に移動する縦型計器であってもよく、この場合、指示針検出座標列を構成する各座標値が、指示針の動きに応じた縦方向(Y軸方向)の直線上に配列されているものであってもよい。 In addition, it may be a vertical instrument in which the pointer moves in the vertical direction. They may be arranged on a straight line.

(E-6)上述した第2~第4の実施形態では、アナログメータに姿勢情報検出治具を取り付ける際、姿勢情報検出治具の中心と、指示針の回転中心とを同一軸上に合わせ、姿勢情報検出治具の中心と、姿勢情報検出治具の点Aと、アナログメータの目盛り「0」の位置とが直線上に並ぶように、姿勢情報検出治具アナログメータに取り付ける例を説明した。しかし、このような配置に限定されるものではなく、姿勢情報検出治具の中心と、姿勢情報検出治具の点Aと、アナログメータの目盛り「0」とが、直線上に並ぶように姿勢情報検出治具を取り付けなくともよい。この場合、姿勢情報検出治具の点Aと、姿勢情報検出治具の中心と、アナログメータの目盛り「0」が成す角度を画像処理装置に与える必要がある。 (E-6) In the above-described second to fourth embodiments, when attaching the posture information detection jig to the analog meter, the center of the posture information detection jig and the rotation center of the pointer are aligned on the same axis. , An example of attaching the posture information detection jig to the analog meter so that the center of the posture information detection jig, the point A of the posture information detection jig, and the position of the scale "0" of the analog meter are aligned on a straight line. bottom. However, the arrangement is not limited to such an arrangement, and the orientation is such that the center of the orientation information detection jig, the point A of the orientation information detection jig, and the scale "0" of the analog meter are aligned on a straight line. The information detection jig may not be attached. In this case, it is necessary to provide the image processing apparatus with the angle formed by the point A of the orientation information detection jig, the center of the orientation information detection jig, and the scale "0" of the analog meter.

10…情報収集システム、1、1A…アナログメータ、2…カメラ、3、3A、3B…画像処理装置、4…通信装置、5…通信装置、6…管理装置、31…画像入力部、32、32A…姿勢情報検出部、33…記憶部、331…姿勢基準情報、332…指示針検出座標列、34、34B…射影変換パラメータ算出部、35…指示針検出座標列射影変換部、36、36B…指示針検出部、37…指示値導出部、38…出力部、39…原画像射影変換部、361…指示針検出画素値列、50、50A…姿勢情報検出治具。 DESCRIPTION OF SYMBOLS 10... Information collection system 1, 1A... Analog meter, 2... Camera, 3, 3A, 3B... Image processing apparatus, 4... Communication apparatus, 5... Communication apparatus, 6... Management apparatus, 31... Image input part, 32, 32A Posture information detection unit 33 Storage unit 331 Posture reference information 332 Pointer detection coordinate sequence 34, 34B Projection transformation parameter calculation unit 35 Pointer detection coordinate sequence projective transformation unit 36, 36B Pointer detection unit 37 Pointed value derivation unit 38 Output unit 39 Original image projective transformation unit 361 Pointer detection pixel value string 50, 50A Posture information detection jig.

Claims (9)

複数の頂点を有し、複数の頂点のうち他の頂点と区別可能な頂点を特徴点として有する姿勢情報検出治具が取り付けられた指示針計器の表示面を撮影した撮像画像から前記指示針計器の指示値を導出する画像処理装置において、
前記指示針計器の仮想的な基準画像と、入力された前記撮像画像中の前記指示針計器の画像との射影変換パラメータを用いて、前記基準画像で前記指示針計器の指示針の位置を示す複数の座標値を有する指示針検出座標列、若しくは、前記撮像画像を射影変換する射影変換部と、
射影変換された前記指示針検出座標列を用いて前記撮像画像から抽出した複数の画素値、若しくは、前記指示針検出座標列を用いて射影変換された前記撮像画像から抽出した複数の画素値から、前記指示針の位置を検出する指示針検出部と、
上記指示針検出部より検出された前記指示針の位置に対応する前記指示値を導出する指示値導出部と、
入力された前記撮像画像から、当該撮像画像に映っている前記姿勢情報検出治具の前記複数の頂点の各座標値を検出し、前記特徴点の位置に基づいて前記指示針計器の姿勢を特定する姿勢情報検出部と、
前記基準画像を構成する複数の基準点の各座標値と、前記姿勢情報検出部より検出された前記複数の頂点の各座標値とに基づいて、前記射影変換パラメータを導出する射影変換パラメータ導出部と
を備えることを特徴とする画像処理装置。
An image of a display surface of a pointer instrument having a plurality of vertices and having, as a feature point , a vertex distinguishable from other vertices among the plurality of vertices, the display surface of the pointer instrument to which a posture information detection jig is attached is obtained from a photographed image of the display surface of the pointer instrument. In the image processing device that derives the indicated value of
Using a projective transformation parameter between a virtual reference image of the pointer gauge and an image of the pointer gauge in the input captured image, the position of the pointer of the pointer gauge is indicated in the reference image. a pointer detection coordinate sequence having a plurality of coordinate values, or a projective transformation unit that projectively transforms the captured image;
From a plurality of pixel values extracted from the captured image using the pointer detection coordinate sequence that has undergone projective transformation, or from a plurality of pixel values extracted from the captured image that has undergone a projective transformation using the pointer detection coordinate sequence , a pointer detection unit for detecting the position of the pointer;
an indicated value derivation unit for deriving the indicated value corresponding to the position of the pointer detected by the pointer detection unit;
Coordinate values of the plurality of vertices of the posture information detection jig appearing in the captured image are detected from the input captured image, and the posture of the pointer instrument is specified based on the positions of the feature points. a posture information detection unit that
A projective transformation parameter derivation unit for deriving the projective transformation parameter based on each coordinate value of the plurality of reference points forming the reference image and each coordinate value of the plurality of vertices detected by the posture information detection unit. An image processing device comprising:
前記指示針検出座標列が、
前記基準画像における前記指示針の存在領域内で、前記指示針計器の目盛り盤に対応させて設けた前記複数の座標値を有するものであり、
少なくとも、前記複数の座標値と、前記指示針計器における前記指示針の位置とを対応付けられたものである
ことを特徴とする請求項1に記載の画像処理装置。
The pointer detection coordinate sequence is
having the plurality of coordinate values provided corresponding to the dial of the indicator needle within the area in which the pointer exists in the reference image;
2. The image processing apparatus according to claim 1, wherein at least the plurality of coordinate values are associated with the position of the pointer in the pointer instrument.
前記射影変換部が、前記射影変換パラメータを用いて前記指示針検出座標列を射影変換する際、
前記指示針検出部が、前記指示針検出座標列の射影変換後の前記各座標値を参照して、前記撮像画像から抽出した複数の画素値の中から、最小となる画素値に対応する前記指示針の位置を検出する
ことを特徴とする請求項1又は2に記載の画像処理装置。
When the projective transformation unit projectively transforms the pointer detection coordinate string using the projective transformation parameter,
The pointer detection unit refers to each of the coordinate values after projective transformation of the pointer detection coordinate string, and selects the minimum pixel value from among the plurality of pixel values extracted from the captured image. 3. The image processing device according to claim 1, wherein the position of the pointer is detected.
前記指示針検出座標列が、さらに、前記複数の座標値のそれぞれに対して、前記各座標値を識別する識別情報を付与されているものであり、
前記指示針検出部が、射影変換後の前記各座標値を参照して前記撮像画像から抽出した複数の画素値、前記識別情報と、前記指示針計器における前記指示針の位置とを対応付けた指示針検出画素値列を参照して、複数の画素値の中から、最小となる画素値に対応する前記指示針の位置を検出する
ことを特徴とする請求項1又は2に記載の画像処理装置。
wherein the pointer detection coordinate string is further provided with identification information for identifying each of the coordinate values for each of the plurality of coordinate values,
The pointer detection unit associates a plurality of pixel values extracted from the captured image with reference to the coordinate values after projective transformation, the identification information, and the position of the pointer on the pointer instrument. 3. The image processing according to claim 1, wherein the position of the pointer corresponding to the minimum pixel value is detected from among the plurality of pixel values by referring to the pointer detection pixel value sequence. Device.
前記射影変換部が、前記射影変換パラメータを用いて前記撮像画像を射影変換する際、
前記指示針検出部が、前記指示針検出座標列の前記各座標値を参照して、射影変換後の前記撮像画像から抽出した複数の画素値の中から、最小となる画素値に対応する前記指示針の位置を検出する
ことを特徴とする請求項1又は2に記載の画像処理装置。
When the projective transformation unit projectively transforms the captured image using the projective transformation parameter,
The pointer detecting unit refers to each of the coordinate values of the pointer detection coordinate string, and out of a plurality of pixel values extracted from the captured image after projective transformation, the pixel value corresponding to the minimum pixel value. 3. The image processing device according to claim 1, wherein the position of the pointer is detected.
前記指示針検出座標列が、さらに、前記複数の座標値のそれぞれに対して、前記各座標値を識別する識別情報を付与されているものであり、
前記指示針検出部が、射影変換後の前記撮像画像から抽出した複数の画素値、前記識別情報と、前記指示針計器における前記指示針の位置とを対応付けた指示針検出画素値列を参照して、複数の画素値の中から、最小となる画素値に対応する前記指示針の位置を検出する
ことを特徴とする請求項1又は2に記載の画像処理装置。
wherein the pointer detection coordinate string is further provided with identification information for identifying each of the coordinate values for each of the plurality of coordinate values,
A pointer detection pixel value sequence in which a plurality of pixel values extracted from the captured image after projective transformation by the pointer detection unit, the identification information, and the position of the pointer in the pointer instrument are associated with each other is referred to. 3. The image processing apparatus according to claim 1, wherein the pointer position corresponding to the minimum pixel value is detected from among a plurality of pixel values.
複数の頂点を有し、複数の頂点のうち他の頂点と区別可能な頂点を特徴点として有する姿勢情報検出治具が取り付けられた指示針計器の表示面を撮影した撮像画像から前記指示針計器の指示値を導出する画像処理プログラムにおいて、
コンピュータを、
前記指示針計器の仮想的な基準画像と、入力された前記撮像画像中の前記指示針計器の画像との射影変換パラメータを用いて、前記基準画像で前記指示針計器の指示針の位置を示す複数の座標値を有する指示針検出座標列、若しくは、前記撮像画像を射影変換する射影変換部と、
射影変換された前記指示針検出座標列を用いて前記撮像画像から抽出した複数の画素値、若しくは、前記指示針検出座標列を用いて射影変換された前記撮像画像から抽出した複数の画素値から、前記指示針の位置を検出する指示針検出部と、
上記指示針検出部より検出された前記指示針の位置に対応する前記指示値を導出する指示値導出部と、
入力された前記撮像画像から、当該撮像画像に映っている前記姿勢情報検出治具の前記複数の頂点の各座標値を検出し、前記特徴点の位置に基づいて前記指示針計器の姿勢を特定する姿勢情報検出部と、
前記基準画像を構成する複数の基準点の各座標値と、前記姿勢情報検出部より検出された前記複数の頂点の各座標値とに基づいて、前記射影変換パラメータを導出する射影変換パラメータ導出部と
して機能させることを特徴とする画像処理プログラム。
An image of a display surface of a pointer instrument having a plurality of vertices and having, as a feature point, a vertex distinguishable from other vertices among the plurality of vertices, the display surface of the pointer instrument to which a posture information detection jig is attached is obtained from a photographed image of the display surface of the pointer instrument. In the image processing program that derives the indicated value of
the computer,
Using a projective transformation parameter between a virtual reference image of the pointer gauge and an image of the pointer gauge in the input captured image, the position of the pointer of the pointer gauge is indicated in the reference image. a pointer detection coordinate sequence having a plurality of coordinate values, or a projective transformation unit that projectively transforms the captured image;
From a plurality of pixel values extracted from the captured image using the pointer detection coordinate sequence that has undergone projective transformation, or from a plurality of pixel values extracted from the captured image that has undergone a projective transformation using the pointer detection coordinate sequence , a pointer detection unit for detecting the position of the pointer;
an indicated value derivation unit for deriving the indicated value corresponding to the position of the pointer detected by the pointer detection unit;
Coordinate values of the plurality of vertices of the posture information detection jig appearing in the captured image are detected from the input captured image, and the posture of the pointer instrument is specified based on the positions of the feature points. a posture information detection unit that
A projective transformation parameter derivation unit for deriving the projective transformation parameter based on each coordinate value of the plurality of reference points forming the reference image and each coordinate value of the plurality of vertices detected by the posture information detection unit. An image processing program characterized by functioning as
複数の頂点を有し、複数の頂点のうち他の頂点と区別可能な頂点を特徴点として有する姿勢情報検出治具が取り付けられた指示針計器の表示面を撮影した撮像画像から前記指示針計器の指示値を導出する画像処理方法において、
射影変換部が、前記指示針計器の仮想的な基準画像と、入力された前記撮像画像中の前記指示針計器の画像との射影変換パラメータを用いて、前記基準画像で前記指示針計器の指示針の位置を示す複数の座標値を有する指示針検出座標列、若しくは、前記撮像画像を射影変換し、
指示針検出部が、射影変換された前記指示針検出座標列を用いて前記撮像画像から抽出した複数の画素値、若しくは、前記指示針検出座標列を用いて射影変換された前記撮像画像から抽出した複数の画素値から、前記指示針の位置を検出し、
指示値導出部が、上記指示針検出部より検出された前記指示針の位置に対応する前記指示値を導出し、
姿勢情報検出部が、入力された前記撮像画像から、当該撮像画像に映っている前記姿勢情報検出治具の前記複数の頂点の各座標値を検出し、前記特徴点の位置に基づいて前記指示針計器の姿勢を特定し、
射影変換パラメータ導出部が、前記基準画像を構成する複数の基準点の各座標値と、前記姿勢情報検出部より検出された前記複数の頂点の各座標値とに基づいて、前記射影変換パラメータを導出する
ことを特徴とする画像処理方法。
An image of a display surface of a pointer instrument having a plurality of vertices and having, as a feature point, a vertex distinguishable from other vertices among the plurality of vertices, the display surface of the pointer instrument to which a posture information detection jig is attached is obtained from a photographed image of the display surface of the pointer instrument. In the image processing method for deriving the indicated value of
A projective transformation unit uses projective transformation parameters between a virtual reference image of the pointer gauge and an image of the pointer gauge in the input captured image to indicate the pointer gauge with the reference image. Projectively transforming the pointer detection coordinate string having a plurality of coordinate values indicating the position of the needle or the captured image,
A pointer detection unit extracts a plurality of pixel values extracted from the captured image using the pointer detection coordinate string that has undergone projective transformation, or extracts from the captured image that has undergone projective transformation using the pointer detection coordinate sequence. detecting the position of the pointer from the plurality of pixel values obtained,
an indicated value derivation unit deriving the indicated value corresponding to the position of the pointer detected by the pointer detection unit;
A posture information detection unit detects each coordinate value of the plurality of vertexes of the posture information detection jig appearing in the captured image from the input captured image, and performs the instruction based on the positions of the feature points. Identify the posture of the needle instrument ,
A projective transformation parameter derivation unit calculates the projective transformation parameter based on each coordinate value of a plurality of reference points forming the reference image and each coordinate value of each of the plurality of vertices detected by the posture information detection unit. An image processing method characterized by deriving.
複数の頂点を有し、複数の頂点のうち他の頂点と区別可能な頂点を特徴点として有する姿勢情報検出治具が取り付けられた指示針計器の表示面を撮影した撮像画像から前記指示針計器の指示値を導出する画像処理装置と、
前記画像処理装置により導出された前記指示針計器の指示値を含む信号を送信する第1の通信装置と、
前記第1の通信装置から送信された前記信号を受信する第2の通信装置と、
前記第2の通信装置により受信された前記信号に含まれている前記指示値を記憶する管理装置と
を備え、
前記画像処理装置が、請求項1~6のいずれかに記載の画像処理装置であることを特徴とする情報収集システム。
An image of a display surface of a pointer instrument having a plurality of vertices and having, as a feature point, a vertex distinguishable from other vertices among the plurality of vertices, the display surface of the pointer instrument to which a posture information detection jig is attached is obtained from a photographed image of the display surface of the pointer instrument. an image processing device for deriving an indication value of
a first communication device that transmits a signal including the indication value of the pointer gauge derived by the image processing device;
a second communication device that receives the signal transmitted from the first communication device;
a management device that stores the indicated value included in the signal received by the second communication device;
An information collection system, wherein the image processing device is the image processing device according to any one of claims 1 to 6.
JP2019026897A 2019-02-18 2019-02-18 Image processing device, image processing program, image processing method, and information collection system Active JP7279397B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019026897A JP7279397B2 (en) 2019-02-18 2019-02-18 Image processing device, image processing program, image processing method, and information collection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019026897A JP7279397B2 (en) 2019-02-18 2019-02-18 Image processing device, image processing program, image processing method, and information collection system

Publications (2)

Publication Number Publication Date
JP2020135324A JP2020135324A (en) 2020-08-31
JP7279397B2 true JP7279397B2 (en) 2023-05-23

Family

ID=72263153

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019026897A Active JP7279397B2 (en) 2019-02-18 2019-02-18 Image processing device, image processing program, image processing method, and information collection system

Country Status (1)

Country Link
JP (1) JP7279397B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114821044B (en) * 2022-05-31 2024-05-03 中煤科工机器人科技有限公司 Square pointer instrument indication recognition method based on gradient transformation

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008243103A (en) 2007-03-29 2008-10-09 Yamaguchi Univ Image processing device, method, and program
JP2009075848A (en) 2007-09-20 2009-04-09 Kansai Electric Power Co Inc:The Analog meter reading method, reader and reading system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008243103A (en) 2007-03-29 2008-10-09 Yamaguchi Univ Image processing device, method, and program
JP2009075848A (en) 2007-09-20 2009-04-09 Kansai Electric Power Co Inc:The Analog meter reading method, reader and reading system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
藤田 悠介 外,画像処理によるアナログメータ自動読み取り,電気学会論文誌C, 電子・情報・システム部門誌,日本,(社)電気学会,2009年05月01日,第129巻, 第5号,pp. 901-908

Also Published As

Publication number Publication date
JP2020135324A (en) 2020-08-31

Similar Documents

Publication Publication Date Title
CN110069972B (en) Automatic detection of real world objects
Luhmann et al. Sensor modelling and camera calibration for close-range photogrammetry
JP5273196B2 (en) Image processing device
CN102410811B (en) Method and system for measuring parameters of bent pipe
CN102376089B (en) Target correction method and system
US6917702B2 (en) Calibration of multiple cameras for a turntable-based 3D scanner
Zhang et al. A 3D reconstruction method for pipeline inspection based on multi-vision
CN110569849B (en) AR (augmented reality) -glasses-based multi-instrument simultaneous identification and spatial positioning method and system
CN104634242A (en) Point adding system and method of probe
KR20100087083A (en) System and method for three-dimensional measurment of the shape of material object
CN111368906B (en) Pointer type oil level meter reading identification method based on deep learning
KR102608956B1 (en) A method for rectifying a sequence of stereo images and a system thereof
CN110852213B (en) Pointer instrument multi-condition automatic reading method based on template matching
CN109931906B (en) Camera ranging method and device and electronic equipment
CN112560837A (en) Reading method, device, equipment and storage medium of pointer instrument
CN104103069B (en) Image processing apparatus, image processing method and recording medium
CN110634137A (en) Bridge deformation monitoring method, device and equipment based on visual perception
Howells et al. Real-time analogue gauge transcription on mobile phone
JP7279397B2 (en) Image processing device, image processing program, image processing method, and information collection system
CN114494385A (en) Visual early warning method for water delivery tunnel diseases
Anchini et al. A comparison between stereo-vision techniques for the reconstruction of 3-D coordinates of objects
JP4788475B2 (en) Image processing apparatus and image processing method
CN112233139A (en) System and method for detecting motion during 3D data reconstruction
Song et al. Automatic calibration method based on improved camera calibration template
Jiale et al. Automatic identification method of pointer meter under complex environment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230329

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230424

R150 Certificate of patent or registration of utility model

Ref document number: 7279397

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150