JP2020057983A - Sensor device, sensor device control method, and program - Google Patents

Sensor device, sensor device control method, and program Download PDF

Info

Publication number
JP2020057983A
JP2020057983A JP2018188856A JP2018188856A JP2020057983A JP 2020057983 A JP2020057983 A JP 2020057983A JP 2018188856 A JP2018188856 A JP 2018188856A JP 2018188856 A JP2018188856 A JP 2018188856A JP 2020057983 A JP2020057983 A JP 2020057983A
Authority
JP
Japan
Prior art keywords
camera
sensor
unit
image
conversion formula
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018188856A
Other languages
Japanese (ja)
Other versions
JP7120620B2 (en
Inventor
優仁 岩井
Masahito IWAI
優仁 岩井
伊藤 哲也
Tetsuya Ito
哲也 伊藤
大輝 横田
Daiki Yokota
大輝 横田
阿部 憲一
Kenichi Abe
憲一 阿部
松本 晃
Akira Matsumoto
晃 松本
咲子 大神
Sakiko Ogami
咲子 大神
貴宏 長谷川
Takahiro Hasegawa
貴宏 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Communication Systems Ltd
Original Assignee
NEC Communication Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Communication Systems Ltd filed Critical NEC Communication Systems Ltd
Priority to JP2018188856A priority Critical patent/JP7120620B2/en
Publication of JP2020057983A publication Critical patent/JP2020057983A/en
Application granted granted Critical
Publication of JP7120620B2 publication Critical patent/JP7120620B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

To provide a sensor device that sets a sensor in the same position and in the same direction with respect to a sensing target regardless of timing of acquiring sensor information.SOLUTION: A sensor device includes a camera unit, a camera control unit, a device drive unit, a drive control unit, and a conversion formula calculation unit. The camera unit includes a camera. The camera control unit controls the camera unit to acquire an image. The device drive unit is a mechanism for moving the device itself. The drive control unit controls the device drive unit to move the device itself. The conversion formula calculation unit calculates a conversion formula for converting the viewpoint of the camera when the captured image is acquired to the viewpoint of the camera when the reference image is acquired on the basis of at least the captured image captured by the camera unit and the previously acquired reference image. The drive control unit moves the device from the position and direction of the device with respect to the sensing target when the image is captured to the position and direction when the reference image is captured on the basis of the conversion formula.SELECTED DRAWING: Figure 1

Description

本発明は、センサ装置、センサ装置の制御方法及びプログラムに関する。   The present invention relates to a sensor device, a control method for the sensor device, and a program.

工場、オフィスビル、公共施設、インフラ、プラント等の場所では、設備の老朽化や異変に関する点検が日常的に行われる。このような点検により、工場等における安全性や機能が維持され、継続的な運用が可能となっている。   In places such as factories, office buildings, public facilities, infrastructure, and plants, inspections for aging and abnormalities of equipment are performed on a daily basis. Such inspections maintain safety and functions in factories and the like, and enable continuous operation.

近年ではIoT(Internet of Things)技術を活用した取り組みが進んでおり、無線通信機能を持ったセンサ装置が点検対象の設備の周辺に設置されている。当該センサ装置は、センサ情報を取得し、当該センサ情報を無線通信によってサーバに送信する。サーバには、各センサ装置からのセンサ情報が集約され、サーバが当該集約されたセンサ情報を分析することで対象設備が正常か異常かを判断する。このようにして点検作業の自動化を行っている。   In recent years, efforts have been made to utilize IoT (Internet of Things) technology, and a sensor device having a wireless communication function is installed around a facility to be inspected. The sensor device acquires the sensor information and transmits the sensor information to the server by wireless communication. The server collects sensor information from each sensor device, and the server analyzes the collected sensor information to determine whether the target equipment is normal or abnormal. In this way, the inspection work is automated.

上記説明したように、点検作業が自動化される一方で、センサ装置による自動点検をシステムに導入するには以下のような問題があり、これらの問題がシステム導入の障壁となっている。   As described above, while the inspection work is automated, introducing the automatic inspection by the sensor device into the system has the following problems, and these problems are barriers to the introduction of the system.

第1の問題は、点検対象の設備の数に応じて必要なセンサ装置の数が増加しコストが増加する点である。   The first problem is that the number of necessary sensor devices increases according to the number of facilities to be inspected and the cost increases.

第2の問題は、脱落の可能性等の安全性の観点やスペースの制約の観点により、センサ装置を点検対象の設備周辺に後付けできない点である。   The second problem is that the sensor device cannot be retrofitted around the equipment to be inspected from the viewpoint of safety such as the possibility of falling off or the restriction of space.

第3の問題は、センサ装置の電源を確保できない点である。   A third problem is that a power supply for the sensor device cannot be secured.

第4の問題は、設備を点検するために設置したセンサ装置自体の点検が必要な点である。   The fourth problem is that it is necessary to inspect the sensor device itself installed for inspecting the equipment.

上記問題を解決するための方法として、センサ装置を移動させ点検対象の設備に関する情報を取得する方法が存在する(図17参照)。   As a method for solving the above problem, there is a method of moving the sensor device and acquiring information on the equipment to be inspected (see FIG. 17).

本書において、点検対象の設備にセンサ装置を取り付ける方式を「センサ固定型の点検方式」、あるいは、単に「固定型」と表記する。対して、センサ装置自身を移動させる方式を「センサ移動型の点検方法」、あるいは、単に「移動型」と表記する。   In this document, the method of attaching the sensor device to the equipment to be inspected is referred to as "sensor-fixed type inspection method" or simply "fixed type". On the other hand, a method of moving the sensor device itself is referred to as a "sensor moving type inspection method" or simply as a "moving type".

センサ移動型の点検方法に用いられる移動型センサ装置は、装置全体を移動するための車輪等の装置駆動部と、センサ位置を精密(正確)に決めるためのアームロボット等のセンサ駆動部を有する。   The mobile sensor device used in the sensor-moving inspection method has a device drive unit such as a wheel for moving the entire device, and a sensor drive unit such as an arm robot for accurately (accurately) determining a sensor position. .

特許文献1乃至3には、人が手にもって撮影するカメラのための手法であって、基準画像をライブビューに重畳表示し、人の判断(操作)によって基準画像とライブビューが重なるようにカメラを移動させる方法が開示されている。つまり、特許文献1乃至3には、カメラを用いた対象の撮影に関し、基準画像と同一視点、同一方向からの撮影を容易にする手法が開示されている。   Patent Literatures 1 to 3 disclose a technique for a camera that is photographed by a person with a hand, in which a reference image is superimposed and displayed on a live view so that the reference image and the live view are overlapped by a judgment (operation) by a person. A method for moving a camera is disclosed. In other words, Patent Literatures 1 to 3 disclose a technique for easily photographing an object using a camera from the same viewpoint and the same direction as a reference image.

特開2001−358972号公報JP 2001-358972 A 特開2005−026872号公報JP 2005-026872 A 特開2013−192168号公報JP 2013-192168 A

なお、上記先行技術文献の各開示を、本書に引用をもって繰り込むものとする。以下の分析は、本発明者らによってなされたものである。   The disclosures of the above prior art documents are incorporated herein by reference. The following analysis has been made by the present inventors.

上述のように、センサを用いた設備点検では、繰り返しセンサ情報が収集される。具体的には、点検対象が正常状態におけるセンサ情報が予め収集される。当該収集されたセンサ情報(過去の取得された情報)とセンサ装置により取得された最新の情報が比較され、過去の情報からの外れ値や変化点の有無を検出することで点検対象の状態(正常、異常)が判定される。   As described above, in equipment inspection using a sensor, sensor information is repeatedly collected. Specifically, sensor information when the inspection target is in a normal state is collected in advance. The collected sensor information (past acquired information) and the latest information acquired by the sensor device are compared, and by detecting outliers or change points from the past information, the state of the inspection target ( (Normal, abnormal) is determined.

従って、固定型、移動型を問わず、取得するセンサ情報の取得条件には一貫性が要求される。そのため、センサ移動型の点検方法を採用する場合には、センサ装置は、常時、同じ位置姿勢でセンサ情報を取得する必要がある。より具体的には、センサ装置は、センシング対象(点検対象)となっている部位に対して、センサを同じ位置及び角度(方向)に設置し当該設置されたセンサから情報を取得する必要がある。   Therefore, regardless of whether it is a fixed type or a mobile type, the acquisition conditions of the acquired sensor information need to be consistent. Therefore, when the sensor moving type inspection method is adopted, the sensor device needs to always acquire the sensor information at the same position and orientation. More specifically, the sensor device needs to install the sensor at the same position and angle (direction) with respect to the part to be sensed (inspection object) and acquire information from the installed sensor. .

例えば、モータを搭載した工作機械の点検を設備の振動情報によって行う場合、点検対象となる設備の機構の影響を受け、センサを設置する位置によって振動の特性(周波数、振幅)が異なる。また、振動は方向を持つ物理量であるため、例えば、マイクをセンサとして用いると、振動源に対するマイクの角度(マイクの姿勢)に応じて取得されるセンサ情報の特徴が変化する。   For example, when an inspection of a machine tool equipped with a motor is performed based on vibration information of equipment, the characteristics (frequency, amplitude) of the vibration differ depending on the position where the sensor is installed, affected by the mechanism of the equipment to be inspected. In addition, since vibration is a physical quantity having a direction, when a microphone is used as a sensor, for example, the characteristics of sensor information obtained according to the angle of the microphone with respect to the vibration source (the attitude of the microphone) change.

上記のような事情から、異なる位置、異なる姿勢で取得したセンサ情報を用いて設備の異常を判断することは困難である。即ち、センシング対象に対してセンサが設定される位置、角度がデータの取得のたびに異なっていると、当該取得したデータを用いた設備の状態判定(正常状態、異常状態)は困難となる。   Under the circumstances described above, it is difficult to determine the abnormality of the equipment using the sensor information acquired at different positions and different postures. That is, if the position and angle at which the sensor is set with respect to the sensing target are different each time data is acquired, it becomes difficult to determine the state of the equipment (normal state, abnormal state) using the acquired data.

固定型の場合、センサの設置位置が固定されているため、毎回同じ位置姿勢のセンサ情報を取得できるのに対し、移動型はセンサ装置自身が動くため、センサ情報を取得するたびに取得位置姿勢が変わる可能性がある。また、このようなセンサの位置姿勢と当該センサから得られるデータ(センサデータ)の関係に関する問題は、設備点検に限らず、移動型センサによるモニタリングシステム全般において生じる可能性がある。   In the case of the fixed type, the installation position of the sensor is fixed, so that the sensor information of the same position and orientation can be acquired every time, whereas in the case of the movable type, the sensor device itself moves, so the acquired position and orientation each time the sensor information is acquired May change. Further, such a problem relating to the relationship between the position and orientation of the sensor and data (sensor data) obtained from the sensor may occur not only in equipment inspection but also in the entire monitoring system using a mobile sensor.

上述のように、特許文献1乃至3には、基準画像と同一視点、同一方向からの撮影を容易にする手法が提案されている。しかし、これらの文献に開示された手法は、人が把持して撮影するカメラのための手法であり、カメラの位置合わせは人の操作で行われている。従って、特許文献1乃至3に開示された手法では、人の操作がなければ基準画像と同一の視点で対象を撮影できない。   As described above, Patent Literatures 1 to 3 propose techniques for facilitating shooting from the same viewpoint and the same direction as the reference image. However, the method disclosed in these documents is a method for a camera that is held and photographed by a person, and the position of the camera is adjusted by a person's operation. Therefore, according to the methods disclosed in Patent Literatures 1 to 3, the target cannot be photographed from the same viewpoint as the reference image without human operation.

本発明は、センサ情報を取得するタイミングによらず、センサをセンシング対象に対して同じ位置及び同じ方向に設定することに寄与するセンサ装置、センサ装置の制御方法及びプログラムを提供することを主たる目的とする。   A main object of the present invention is to provide a sensor device, a control method of a sensor device, and a program that contribute to setting a sensor at the same position and the same direction with respect to a sensing target regardless of the timing of acquiring sensor information. And

本発明乃至開示の第1の視点によれば、カメラを含むカメラ部と、前記カメラ部を制御して画像を取得する、カメラ制御部と、自装置を移動するための装置駆動部と、前記装置駆動部を制御して自装置を移動する、駆動制御部と、少なくとも前記カメラ部により撮影された撮影画像と予め取得された基準画像に基づき、前記撮影画像が取得された際のカメラの視点を、前記基準画像が取得された際のカメラの視点に変換するための変換式を算出する、変換式算出部と、を備え、前記駆動制御部は、前記変換式に基づき、前記撮影画像が撮影された際のセンシング対象に対する自装置の位置及び方向から、前記基準画像が撮影された際の位置及び方向に自装置を移動する、センサ装置が提供される。   According to a first aspect of the present invention or a disclosure, a camera unit including a camera, a camera control unit that controls the camera unit to acquire an image, a device driving unit that moves the own device, A drive control unit that controls the device drive unit to move the own device, and a viewpoint of the camera when the captured image is acquired based on at least a captured image captured by the camera unit and a previously acquired reference image. A conversion formula calculation unit for calculating a conversion formula for converting the reference image into the viewpoint of the camera when the reference image is obtained, the drive control unit, based on the conversion formula, A sensor device is provided, which moves its own device from the position and direction of the own device with respect to the sensing target when the image was taken to the position and direction when the reference image was taken.

本発明乃至開示の第2の視点によれば、カメラを含むカメラ部と、自装置を移動するための装置駆動部と、を備えるセンサ装置において、少なくとも前記カメラ部により撮影された撮影画像と予め取得された基準画像に基づき、前記撮影画像が取得された際のカメラの視点を、前記基準画像が取得された際のカメラの視点に変換するための変換式を算出するステップと、前記変換式に基づき、前記撮影画像が撮影された際のセンシング対象に対する自装置の位置及び方向から、前記基準画像が撮影された際の位置及び方向に自装置を移動するステップと、を含むセンサ装置の制御方法が提供される。   According to a second aspect of the present invention or a disclosure, in a sensor device including a camera unit including a camera and an apparatus driving unit for moving the own apparatus, at least a captured image captured by the camera unit A step of calculating a conversion formula for converting a viewpoint of the camera when the captured image is obtained into a viewpoint of the camera when the reference image is obtained, based on the obtained reference image; and Moving the subject device from the position and direction of the subject device relative to the sensing target when the photographed image was taken to the position and direction when the reference image was taken. A method is provided.

本発明乃至開示の第3の視点によれば、カメラを含むカメラ部と、自装置を移動するための装置駆動部と、を備えるセンサ装置に搭載されたコンピュータに、少なくとも前記カメラ部により撮影された撮影画像と予め取得された基準画像に基づき、前記撮影画像が取得された際のカメラの視点を、前記基準画像が取得された際のカメラの視点に変換するための変換式を算出する処理と、前記変換式に基づき、前記撮影画像が撮影された際のセンシング対象に対する自装置の位置及び方向から、前記基準画像が撮影された際の位置及び方向に自装置を移動する処理と、を実行させるプログラムが提供される。
なお、このプログラムは、コンピュータが読み取り可能な記憶媒体に記録することができる。記憶媒体は、半導体メモリ、ハードディスク、磁気記録媒体、光記録媒体等の非トランジェント(non-transient)なものとすることができる。本発明は、コンピュータプログラム製品として具現することも可能である。
According to a third aspect of the present invention or a disclosure, a computer mounted on a sensor device including a camera unit including a camera, and a device driving unit for moving the own device, is photographed by at least the camera unit. Processing for calculating a conversion formula for converting a viewpoint of a camera when the captured image is obtained into a viewpoint of the camera when the reference image is obtained, based on the captured image and a previously acquired reference image. And, based on the conversion formula, a process of moving the own device from the position and direction of the own device with respect to the sensing target when the captured image is captured to the position and direction when the reference image is captured. A program to be executed is provided.
This program can be recorded on a computer-readable storage medium. The storage medium can be non-transient, such as a semiconductor memory, hard disk, magnetic recording medium, optical recording medium, and the like. The present invention can be embodied as a computer program product.

本発明乃至開示の各視点によれば、センサ情報を取得するタイミングによらず、センサをセンシング対象に対して同じ位置及び同じ方向に設定することに寄与するセンサ装置、センサ装置の制御方法及びプログラムが、提供される。   According to the aspects of the present invention and the disclosure, a sensor device, a control method of a sensor device, and a program that contribute to setting a sensor at the same position and the same direction with respect to a sensing target regardless of the timing of acquiring sensor information Is provided.

一実施形態の概要を説明するための図である。It is a figure for explaining an outline of one embodiment. 第1の実施形態に係る移動型センサ装置の内部構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of an internal configuration of the mobile sensor device according to the first embodiment. 第1の実施形態に係る移動型センサ装置のハードウェア構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a hardware configuration of the mobile sensor device according to the first embodiment. 第1の実施形態に係る移動型センサ装置の動作の一例を示すフローチャートである。5 is a flowchart illustrating an example of an operation of the mobile sensor device according to the first embodiment. 第1の実施形態に係る移動型センサ装置の動作を説明するための図である。FIG. 5 is a diagram for explaining an operation of the mobile sensor device according to the first embodiment. 第1の変形例に係る移動型センサ装置の処理構成の一例を示す図である。It is a figure showing an example of processing composition of a mobile type sensor device concerning a 1st modification. 第2の変形例に係る移動型センサ装置の処理構成の一例を示す図である。It is a figure showing an example of processing composition of a mobile type sensor device concerning a 2nd modification. 第3の変形例に係る移動型センサ装置の処理構成の一例を示す図である。It is a figure showing an example of processing composition of a mobile type sensor device concerning a 3rd modification. 第3の変形例に係る移動型センサ装置の動作を説明するための図である。It is a figure for explaining operation of a mobile type sensor device concerning a 3rd modification. 第4の変形例に係る移動型センサ装置の処理構成の一例を示す図である。It is a figure showing an example of processing composition of a mobile type sensor device concerning a 4th modification. 第5の変形例に係る移動型センサ装置の処理の一例を示すフローチャートである。It is a flow chart which shows an example of processing of a mobile type sensor device concerning a 5th modification. 第6の変形例に係る移動型センサ装置の処理の一例を示すフローチャートである。It is a flow chart which shows an example of processing of a mobile type sensor device concerning a 6th modification. 第6の変形例に係る移動型センサ装置の処理の別の一例を示すフローチャートである。It is a flow chart which shows another example of processing of a mobile type sensor device concerning a 6th modification. 第9の変形例に係る移動型センサ装置の処理構成の一例を示す図である。FIG. 21 is a diagram illustrating an example of a processing configuration of a mobile sensor device according to a ninth modification. 第10の変形例に係る移動型センサ装置の処理構成の一例を示す図である。FIG. 21 is a diagram illustrating an example of a processing configuration of a mobile sensor device according to a tenth modification. 第11の変形例に係る移動型センサ装置の処理構成の一例を示す図である。It is a figure showing an example of processing composition of a mobile type sensor device concerning an 11th modification. 移動型センサ装置を説明するための図である。It is a figure for explaining a mobile type sensor device.

初めに、一実施形態の概要について説明する。なお、この概要に付記した図面参照符号は、理解を助けるための一例として各要素に便宜上付記したものであり、この概要の記載はなんらの限定を意図するものではない。また、各図におけるブロック間の接続線は、双方向及び単方向の双方を含む。一方向矢印については、主たる信号(データ)の流れを模式的に示すものであり、双方向性を排除するものではない。さらに、本願開示に示す回路図、ブロック図、内部構成図、接続図などにおいて、明示は省略するが、入力ポート及び出力ポートが各接続線の入力端及び出力端のそれぞれに存在する。入出力インターフェイスも同様である。   First, an outline of an embodiment will be described. It should be noted that the reference numerals in the drawings attached to this outline are added for convenience of each element as an example for facilitating understanding, and the description of this outline is not intended to limit the invention in any way. Further, connection lines between blocks in each drawing include both bidirectional and unidirectional. The one-way arrow schematically indicates the flow of a main signal (data), and does not exclude bidirectionality. Further, in a circuit diagram, a block diagram, an internal configuration diagram, a connection diagram, and the like shown in the disclosure of the present application, although not explicitly shown, an input port and an output port exist at an input terminal and an output terminal of each connection line. The same applies to the input / output interface.

一実施形態に係るセンサ装置100は、カメラ部101と、カメラ制御部102と、装置駆動部103と、駆動制御部104と、変換式算出部105と、を備える(図1参照)。カメラ部101は、カメラを含む。カメラ制御部102は、カメラ部101を制御して画像を取得する。装置駆動部103は、自装置を移動するための機構(手段)である。駆動制御部104は、装置駆動部103を制御して自装置を移動する。変換式算出部105は、少なくともカメラ部101により撮影された撮影画像と予め取得された基準画像に基づき、撮影画像が取得された際のカメラの視点を、基準画像が取得された際のカメラの視点に変換するための変換式を算出する。駆動制御部104は、当該変換式に基づき、撮影画像が撮影された際のセンシング対象に対する自装置の位置及び方向から、基準画像が撮影された際の位置及び方向に自装置を移動する。   The sensor device 100 according to one embodiment includes a camera unit 101, a camera control unit 102, a device drive unit 103, a drive control unit 104, and a conversion formula calculation unit 105 (see FIG. 1). The camera unit 101 includes a camera. The camera control unit 102 controls the camera unit 101 to acquire an image. The device driving unit 103 is a mechanism (means) for moving the own device. The drive control unit 104 controls the device drive unit 103 to move the own device. The conversion formula calculation unit 105 determines the viewpoint of the camera when the captured image is obtained, based on at least the captured image captured by the camera unit 101 and the reference image that has been obtained in advance, of the camera when the reference image is obtained. Calculate a conversion formula for converting to a viewpoint. Based on the conversion formula, the drive control unit 104 moves the own device from the position and the direction of the own device with respect to the sensing target when the captured image is captured to the position and the direction when the reference image is captured.

センサ装置100は、移動型センサ装置であって、センサ情報取得時(基準画像取得時)の位置姿勢を再現する装置である。センサ装置100の利用に先立ち、事前の準備として予めセンサ装置100は、センサ情報を取得する際の(装置としての)位置姿勢を決定する。具体的には、センサ装置100は、センサからセンサ情報を取得する位置姿勢(センシング対象に対する自装置の位置及び方向)を定める。また、当該位置姿勢にてカメラから取得された画像が「基準画像」として扱われる。センサ装置100の通常動作時(対象の点検時)には、センサ装置100は、カメラから得られる撮影画像と基準画像を照合し、現在のカメラ位置姿勢と基準画像を撮影したカメラ位置姿勢の関係を算出する(変換式を算出する)。センサ装置100は、装置駆動部103によって上記変換式により表現される関係に相当する移動を行って自装置の位置姿勢を、基準画像を撮影した状態に一致させる。その後、センサ装置100は、予め決めたセンサの移動制御を行うことでセンサ位置姿勢を再現する。   The sensor device 100 is a mobile sensor device that reproduces the position and orientation when sensor information is acquired (when a reference image is acquired). Prior to the use of the sensor device 100, the sensor device 100 determines the position and orientation (as the device) when acquiring sensor information in advance as preparation in advance. Specifically, the sensor device 100 determines the position and orientation at which sensor information is acquired from the sensor (the position and direction of the own device with respect to the sensing target). Further, an image acquired from the camera at the position and orientation is treated as a “reference image”. At the time of normal operation of the sensor device 100 (at the time of inspection of an object), the sensor device 100 collates the captured image obtained from the camera with the reference image, and determines the relationship between the current camera position and attitude and the camera position and attitude at which the reference image is captured. Is calculated (a conversion formula is calculated). The sensor device 100 performs a movement corresponding to the relationship expressed by the above conversion formula by the device driving unit 103 to match the position and orientation of the own device with the state where the reference image is captured. Thereafter, the sensor device 100 reproduces the sensor position and orientation by performing predetermined sensor movement control.

以下に具体的な実施の形態について、図面を参照してさらに詳しく説明する。なお、各実施形態において同一構成要素には同一の符号を付し、その説明を省略する。   Hereinafter, specific embodiments will be described in more detail with reference to the drawings. In each embodiment, the same components are denoted by the same reference numerals, and description thereof will be omitted.

[第1の実施形態]
第1の実施形態について、図面を用いてより詳細に説明する。
[First Embodiment]
The first embodiment will be described in more detail with reference to the drawings.

[装置の構成]
図2は、第1の実施形態に係る移動型センサ装置10の内部構成の一例を示す図である。図2を参照すると、移動型センサ装置10は、カメラ部20と、装置駆動部30と、センサ駆動部40と、センサ部41と、操作部50と、表示部60と、制御部70と、各種記憶部と、を含んで構成される。移動型センサ装置10は、記憶部として、基準画像記憶部80と、センサ駆動量記憶部81と、カメラパラメータ記憶部82と、を備える。
[Device configuration]
FIG. 2 is a diagram illustrating an example of an internal configuration of the mobile sensor device 10 according to the first embodiment. Referring to FIG. 2, the mobile sensor device 10 includes a camera unit 20, a device driving unit 30, a sensor driving unit 40, a sensor unit 41, an operation unit 50, a display unit 60, a control unit 70, And various storage units. The mobile sensor device 10 includes a reference image storage unit 80, a sensor drive amount storage unit 81, and a camera parameter storage unit 82 as storage units.

制御部70は、操作部50をはじめとした各種処理モジュールに接続されており、移動型センサ装置10の全体を制御する手段である。   The control unit 70 is connected to various processing modules including the operation unit 50 and is a unit that controls the entire mobile sensor device 10.

制御部70は、装置駆動制御部201と、カメラ制御部202と、位置姿勢変換式算出部203と、センサ駆動制御部204と、センサ制御部205と、からなるサブモジュールを含む。   The control unit 70 includes a sub module including a device drive control unit 201, a camera control unit 202, a position and orientation conversion formula calculation unit 203, a sensor drive control unit 204, and a sensor control unit 205.

装置駆動制御部201は、移動型センサ装置10の位置姿勢を決めるための移動機構である装置駆動部30を制御して移動型センサ装置10を移動する手段(処理モジュール)である。   The device drive control unit 201 is a unit (processing module) that controls the device drive unit 30 that is a moving mechanism for determining the position and orientation of the mobile sensor device 10 and moves the mobile sensor device 10.

装置駆動部30は、移動型センサ装置10を移動するための手段(機構)である。装置駆動部30は、例えば、陸上移動するための車輪、多脚機構、キャタピラ、空中をホバリングするためのプロペラ、水上を移動するためのスクリュー、プロペラ等である。   The device driving unit 30 is a unit (mechanism) for moving the mobile sensor device 10. The device driving unit 30 is, for example, a wheel for traveling on land, a multi-legged mechanism, a caterpillar, a propeller for hovering in the air, a screw for traveling on water, a propeller, and the like.

なお、移動型センサ装置10の「位置姿勢」とは、点検対象の設備(センシング対象)等に対する移動型センサ装置10の位置及び方向(角度)を示す。即ち、点検対象と移動型センサ装置10の間の距離、点検対象に対する移動型センサ装置10の向く方向が、上記位置姿勢に相当する。   The “position and orientation” of the mobile sensor device 10 indicates the position and the direction (angle) of the mobile sensor device 10 with respect to the inspection target equipment (sensing target) and the like. That is, the distance between the inspection target and the mobile sensor device 10 and the direction in which the mobile sensor device 10 faces the inspection target correspond to the position and orientation.

カメラ制御部202は、カメラ部20を制御して画像(撮影画像)を取得するための手段である。カメラ部20は、例えば、監視カメラやWeB(ウェブ)カメラ、デジタルスチルカメラやデジタルカムコーダ等のカラー画像を取得するためのRGB(Red Green Blue)カメラ等を含む。あるいは、カメラ部20は、X線カメラ、赤外線カメラ、テラヘルツイメージングカメラ、ミリ波イメージングカメラ、マイクロ波イメージングカメラ等を含んで構成されていてもよい。   The camera control unit 202 is a unit for controlling the camera unit 20 to obtain an image (captured image). The camera unit 20 includes, for example, an RGB (Red Green Blue) camera for acquiring a color image, such as a surveillance camera, a Web (Web) camera, a digital still camera, and a digital camcorder. Alternatively, the camera section 20 may include an X-ray camera, an infrared camera, a terahertz imaging camera, a millimeter-wave imaging camera, a microwave imaging camera, and the like.

位置姿勢変換式算出部203は、少なくともカメラ部20により撮影された撮影画像と予め取得された基準画像に基づき、撮影画像と基準画像に関する変換式を算出するための手段(処理モジュール)である。なお、位置姿勢変換式とは、2つの画像が取得された際、当該2つの画像それぞれを取得した際の2つの視点を変換するための式である。例えば、画像(撮影画像)が取得された際のカメラの視点を、基準画像が取得された際のカメラの視点に変換することが位置姿勢変換式により表現される。あるいは、位置姿勢変換式は、ある画像を取得した際の移動型センサ装置10の位置姿勢(対象に対する距離、方向)を他の画像を取得した際の移動型センサ装置10の位置姿勢に変換する式と捉えることもできる。   The position and orientation conversion formula calculation unit 203 is a means (processing module) for calculating a conversion formula for the captured image and the reference image based on at least the captured image captured by the camera unit 20 and the reference image acquired in advance. Note that the position and orientation conversion formula is a formula for converting two viewpoints when two images are acquired and when the two images are acquired. For example, converting the viewpoint of the camera when the image (captured image) is obtained to the viewpoint of the camera when the reference image is obtained is expressed by a position and orientation conversion formula. Alternatively, the position and orientation conversion formula converts the position and orientation (distance and direction to the target) of the mobile sensor device 10 when a certain image is acquired into the position and orientation of the mobile sensor device 10 when another image is acquired. It can also be regarded as an expression.

位置姿勢変換式算出部203は、基準画像記憶部80に保存された基準画像と自装置が移動した後に撮影された画像をカメラ制御部202から受け取る。位置姿勢変換式算出部203は、基準画像と、複数の撮影画像(例えば、後述する第1及び第2の比較画像)と、移動制御情報と、カメラの内部パラメータ情報と、に基づき、位置姿勢変換式を計算する。なお、上記移動制御情報は、装置駆動部30が、一の撮影画像(第1の比較画像)を取得した位置及び方向から他の撮影画像(第2の比較画像)を取得した位置及び方向への自装置の移動に関する(移動を実現する)移動制御情報である。   The position and orientation conversion formula calculation unit 203 receives from the camera control unit 202 the reference image stored in the reference image storage unit 80 and an image captured after the own device has moved. The position and orientation conversion formula calculation unit 203 calculates a position and orientation based on a reference image, a plurality of captured images (for example, first and second comparison images described later), movement control information, and camera internal parameter information. Calculate the conversion formula. It should be noted that the movement control information is transmitted from the position and direction in which the device driving unit 30 has acquired one captured image (first comparative image) to the position and direction in which another captured image (second comparative image) has been acquired. Is movement control information relating to the movement of the own device (realizing the movement).

装置駆動制御部201は、計算された位置姿勢変換式に基づき、移動型センサ装置10の位置姿勢(距離、方向)が基準画像を撮影したセンサ情報取得位置姿勢に一致するように装置駆動部30を制御する。つまり、装置駆動制御部201は、位置姿勢変換式に基づき、撮影画像が撮影された際のセンシング対象に対する自装置の位置及び方向から、基準画像が撮影された際の位置及び方向に自装置を移動する。   The device drive control unit 201 controls the device drive unit 30 based on the calculated position and orientation conversion formula so that the position and orientation (distance and direction) of the mobile sensor device 10 match the sensor information acquisition position and orientation when the reference image is captured. Control. That is, based on the position and orientation conversion formula, the device drive control unit 201 sets the own device from the position and direction of the own device with respect to the sensing target when the captured image is captured, to the position and direction when the reference image is captured. Moving.

基準画像記憶部80は、センサ情報を取得する位置で予め撮影された画像(基準画像)を記憶する。   The reference image storage unit 80 stores an image (reference image) captured in advance at a position where sensor information is acquired.

カメラパラメータ記憶部82は、基準画像記憶部80に保存された基準画像を撮影したカメラの内部パラメータ情報を記憶する。例えば、カメラの内部パラメータには、水平軸と垂直軸それぞれのピクセル単位の焦点距離、カメラの画像中心座標、せん断係数等が含まれる。なお、カメラパラメータ記憶部82は、移動型センサ装置10に搭載されたカメラとは異なるカメラにて基準画像が撮影された場合には、当該基準画像を撮影したカメラとカメラ部20に含まれるカメラそれぞれの内部パラメータ情報を記憶する。   The camera parameter storage unit 82 stores internal parameter information of the camera that has captured the reference image stored in the reference image storage unit 80. For example, the internal parameters of the camera include the focal length of each pixel on the horizontal axis and the vertical axis, the image center coordinates of the camera, the shear coefficient, and the like. When the reference image is captured by a camera different from the camera mounted on the mobile sensor device 10, the camera parameter storage unit 82 stores the camera that captured the reference image and the camera included in the camera unit 20. Each internal parameter information is stored.

センサ駆動部40は、センサ部に含まれるセンサの位置を可変とする手段(機構)である。センサ駆動制御部204は、センサ部41の位置を移動させるための機構であるセンサ駆動部40の動作を制御する手段(処理モジュール)である。   The sensor drive unit 40 is a unit (mechanism) that changes the position of a sensor included in the sensor unit. The sensor drive control unit 204 is a unit (processing module) that controls the operation of the sensor drive unit 40, which is a mechanism for moving the position of the sensor unit 41.

センサ駆動部40は、例えば、アームロボット、クレーン、パンチルト、リニアガイド機構等である。センサ駆動制御部204は、装置駆動制御部201の制御によって移動型センサ装置10が基準画像時の撮影位置姿勢の状態に遷移した後、センサ駆動量記憶部81に予め記憶されたセンサ駆動量情報を参照してセンサ駆動部40を制御する。センサ駆動制御部204は、上記制御によりセンサ部41を移動する(センサ部41の位置姿勢を決定する)。   The sensor driving unit 40 is, for example, an arm robot, a crane, a pan / tilt, a linear guide mechanism, or the like. After the mobile sensor device 10 transitions to the shooting position and orientation state at the time of the reference image under the control of the device drive control unit 201, the sensor drive control unit 204 stores the sensor drive amount information stored in the sensor drive amount storage unit 81 in advance. To control the sensor drive unit 40. The sensor drive control unit 204 moves the sensor unit 41 by the above control (determines the position and orientation of the sensor unit 41).

センサ駆動量記憶部81は、センサ駆動量情報を記憶する。センサ駆動量情報は、センサと対象の間の距離等に応じて定まる情報である。例えば、センサ部41の初期位置からセンサ部41を動作させる位置(センサ情報を取得する位置)までセンサ部41を移動させる距離等がセンサ駆動量情報に相当する。   The sensor drive amount storage unit 81 stores sensor drive amount information. The sensor drive amount information is information determined according to the distance between the sensor and the target. For example, the distance by which the sensor unit 41 is moved from the initial position of the sensor unit 41 to the position where the sensor unit 41 is operated (the position where sensor information is acquired) corresponds to the sensor drive amount information.

センサ制御部205は、センサ部41を制御してセンサ部41からのセンサ情報を取得する手段(処理モジュール)である。センサ部41は、例えば、加速度センサ、振動センサ、角速度センサ、マイク、電波センサ、電圧計、電流計、温度センサ、湿度センサ、赤外線センサ、LIDAR(Light Detection and Ranging)、距離計、カメラ、深度カメラ等の点検に利用するセンサを含む。   The sensor control unit 205 is a unit (processing module) that controls the sensor unit 41 and acquires sensor information from the sensor unit 41. The sensor unit 41 includes, for example, an acceleration sensor, a vibration sensor, an angular velocity sensor, a microphone, a radio wave sensor, a voltmeter, an ammeter, a temperature sensor, a humidity sensor, an infrared sensor, a LIDAR (Light Detection and Ranging), a distance meter, a camera, and a depth. Includes sensors used for inspection of cameras and the like.

操作部50は、人が手動で移動型センサ装置10内部の機能を制御するための入力インターフェイスを制御する手段である。入力インターフェイスは、キーボード、マウス、スイッチ、タッチパネル等のデバイスのためのインターフェイスである。   The operation unit 50 is a unit that controls an input interface for allowing a person to manually control functions inside the mobile sensor device 10. The input interface is an interface for devices such as a keyboard, a mouse, a switch, and a touch panel.

表示部60は、移動型センサ装置10内部の情報を表示するための出力インターフェイスを制御する手段である。出力インターフェイスは、ディスプレイ、LED(Light Emitting Diode)等のデバイスのためのインターフェイスである。   The display unit 60 is a unit that controls an output interface for displaying information inside the mobile sensor device 10. The output interface is an interface for a device such as a display and an LED (Light Emitting Diode).

[ハードウェア構成]
続いて、移動型センサ装置10のハードウェア構成について説明する。
[Hardware configuration]
Subsequently, a hardware configuration of the mobile sensor device 10 will be described.

図3は、移動型センサ装置10のハードウェア構成の一例を示す図である。移動型センサ装置10は、図3に例示する構成を備える。例えば、移動型センサ装置10は、内部バスにより相互に接続される、CPU(Central Processing Unit)11、メモリ12、入力インターフェイス13、出力インターフェイス14等を備える。なお、図3において、センサ、カメラ、移動のための駆動源(例えば、モータ等)等の図示を省略している。   FIG. 3 is a diagram illustrating an example of a hardware configuration of the mobile sensor device 10. The mobile sensor device 10 has a configuration illustrated in FIG. For example, the mobile sensor device 10 includes a CPU (Central Processing Unit) 11, a memory 12, an input interface 13, an output interface 14, and the like, which are mutually connected by an internal bus. In FIG. 3, illustration of a sensor, a camera, a driving source for movement (for example, a motor) and the like is omitted.

但し、図3に示す構成は、移動型センサ装置10のハードウェア構成を限定する趣旨ではない。移動型センサ装置10は、図示しないハードウェアを含んでもよい。移動型センサ装置10に含まれるCPU等の数も図3の例示に限定する趣旨ではなく、例えば、複数のCPU11が移動型センサ装置10に含まれていてもよい。   However, the configuration shown in FIG. 3 is not intended to limit the hardware configuration of the mobile sensor device 10. The mobile sensor device 10 may include hardware (not shown). The number of CPUs and the like included in the mobile sensor device 10 is not intended to be limited to the example illustrated in FIG. 3. For example, a plurality of CPUs 11 may be included in the mobile sensor device 10.

メモリ12は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ、DRAM(Dynamic Random Access Memory)、SRAM(Static Random Access Memory)等の記憶媒体である。   The memory 12 is a storage medium such as a hard disk drive (HDD), a solid state drive (SSD), a flash memory, a dynamic random access memory (DRAM), and a static random access memory (SRAM).

入力インターフェイス13は、図示しない入力装置のインターフェイスである。入力装置には、例えば、操作デバイスが含まれる。操作デバイスは、例えば、キーボードやマウス等である。   The input interface 13 is an interface of an input device (not shown). The input device includes, for example, an operation device. The operation device is, for example, a keyboard or a mouse.

出力インターフェイス14は、図示しない出力装置のインターフェイスである。出力装置には、例えば、表示装置が含まれる。表示装置は、例えば、液晶ディスプレイ等である。   The output interface 14 is an interface of an output device (not shown). The output device includes, for example, a display device. The display device is, for example, a liquid crystal display or the like.

移動型センサ装置10の機能は、上述の処理モジュールにより実現される。当該処理モジュールは、例えば、メモリ12に格納されたプログラムをCPU11が実行することで実現される。また、そのプログラムは、ネットワークを介してダウンロードするか、あるいは、プログラムを記憶した記憶媒体を用いて、更新することができる。さらに、上記処理モジュールは、半導体チップにより実現されてもよい。即ち、上記処理モジュールが行う機能は、何らかのハードウェア、或いはハードウェアを利用して実行されるソフトウェアにより実現できればよい。   The function of the mobile sensor device 10 is realized by the processing module described above. The processing module is realized, for example, by the CPU 11 executing a program stored in the memory 12. Also, the program can be downloaded via a network or updated using a storage medium storing the program. Further, the processing module may be realized by a semiconductor chip. That is, the function performed by the processing module may be realized by any hardware or software executed using the hardware.

[動作の説明]
続いて、第1の実施形態に係る移動型センサ装置10の動作について図面を参照しつつ説明する。初めに、事前準備として基準画像の撮影とカメラパラメータの記憶を行う。当該作業は、オペレータが手動でマウス等を操作して行う。
[Description of operation]
Next, the operation of the mobile sensor device 10 according to the first embodiment will be described with reference to the drawings. First, shooting of a reference image and storage of camera parameters are performed as advance preparation. This operation is performed by an operator manually operating a mouse or the like.

操作部50を介したユーザからの指示により、移動型センサ装置10は、装置駆動部30とセンサ駆動部40を制御して装置自身やセンサ部41を移動する。その後、移動型センサ装置10は、カメラ部20で撮影される画像やセンサ部41で取得されるセンサ情報を出力インターフェイス(ディスプレイ)に表示する。   In response to an instruction from the user via the operation unit 50, the mobile sensor device 10 controls the device driving unit 30 and the sensor driving unit 40 to move the device itself and the sensor unit 41. Thereafter, the mobile sensor device 10 displays an image photographed by the camera unit 20 and sensor information acquired by the sensor unit 41 on an output interface (display).

オペレータは、当該表示を視認(確認)しながら、センサ情報の取得位置姿勢(基準画像取得位置姿勢)を決定する。センサ情報の取得位置姿勢が定まったら、オペレータは、その旨を移動型センサ装置10に入力する(入力インターフェイスを操作して入力する)。   The operator determines the acquisition position and orientation of the sensor information (reference image acquisition position and orientation) while visually confirming (checking) the display. When the acquisition position and orientation of the sensor information are determined, the operator inputs that fact to the mobile sensor device 10 (input by operating the input interface).

移動型センサ装置10は、センサ情報の取得位置姿勢にて画像を撮影し、当該画像を「基準画像」として基準画像記憶部80に格納する。移動型センサ装置10は、センサ情報の取得位置にセンサ部41を設定(移動)させるための駆動量を「センサ駆動量」としてセンサ駆動量記憶部81に格納する。なお、センサ駆動量は基準画像に関連付けて保存される。例えば、基準画像の識別子を用いてセンサ駆動量と基準画像を関連付ける。   The mobile sensor device 10 captures an image at the acquisition position and orientation of the sensor information, and stores the image in the reference image storage unit 80 as a “reference image”. The movable sensor device 10 stores the driving amount for setting (moving) the sensor unit 41 to the acquisition position of the sensor information in the sensor driving amount storage unit 81 as “sensor driving amount”. Note that the sensor drive amount is stored in association with the reference image. For example, the sensor drive amount and the reference image are associated using the identifier of the reference image.

移動型センサ装置10は、基準画像撮影時におけるカメラ(カメラ部20に含まれるカメラ)の内部パラメータ情報をカメラパラメータ記憶部82に保存する。カメラの内部パラメータ情報は、カメラに固有のパラメータであり、参考文献1に記載された(3・3)式で表されるパラメータである。なお、本願開示の参考文献は第1の実施形態の末尾に列挙している。   The mobile sensor device 10 stores the internal parameter information of the camera (the camera included in the camera unit 20) at the time of capturing the reference image in the camera parameter storage unit 82. The internal parameter information of the camera is a parameter unique to the camera, and is a parameter represented by Expression (3.3) described in Reference Document 1. Reference documents disclosed in the present application are listed at the end of the first embodiment.

カメラの内部パラメータ情報は、カメラの仕様書に記載されている値を使用するか、又は、参考文献1の3−2節に記載されたカメラキャリブレーションによって算出される。キャリブレーションの具体的な実装としては、参考文献2に記載のOpenCVのCalibrateCamera2が利用できる。   The internal parameter information of the camera uses a value described in the specification of the camera or is calculated by camera calibration described in section 3-2 of Reference 1. As a specific implementation of the calibration, OpenCV CalibrateCamera2 described in Reference Document 2 can be used.

図4は、第1の実施形態に係る移動型センサ装置10の動作の一例を示すフローチャートである。図4には、移動型センサ装置10がセンサ情報取得位置姿勢(基準画像取得位置姿勢)を再現する処理が記載されている。   FIG. 4 is a flowchart illustrating an example of the operation of the mobile sensor device 10 according to the first embodiment. FIG. 4 illustrates a process in which the mobile sensor device 10 reproduces the sensor information acquisition position and orientation (reference image acquisition position and orientation).

ステップS01において、カメラ制御部202がカメラ部20を制御し、画像を取得する。当該画像を「比較画像I1」とする。   In step S01, the camera control unit 202 controls the camera unit 20 to acquire an image. This image is referred to as “comparison image I1”.

ステップS02において、位置姿勢変換式算出部203が、比較画像I1と、基準画像と、カメラの内部パラメータと、を用いて、基準画像と比較画像I1の位置姿勢変換式を計算する。   In step S02, the position / posture conversion formula calculation unit 203 calculates the position / posture conversion formula of the reference image and the comparison image I1 using the comparison image I1, the reference image, and the internal parameters of the camera.

当該位置姿勢変換式の計算は、参考文献1に記載された方法により行うことができる。   The calculation of the position and orientation conversion equation can be performed by the method described in Reference 1.

初めに、位置姿勢変換式算出部203は、参考文献1に記載の(3・7)式から3×3の基礎行列Fを求める。基礎行列Fは、2つの画像間で対応する点x、xの組み合わせが8点以上あれば算出可能である。また、対応点x、xは、参考文献3乃至12に開示されたような特徴点検出を行い、その後、参考文献13の総当たりマッチング、割合試験を実施することにより算出することができる。 First, the position and orientation conversion formula calculation unit 203 obtains a 3 × 3 basic matrix F from the formula (3.7) described in Reference 1. The basic matrix F can be calculated if there are eight or more combinations of the corresponding points x 1 and x 2 between the two images. In addition, the corresponding points x 1 and x 2 can be calculated by performing feature point detection as disclosed in References 3 to 12, and then performing a round robin matching and ratio test of Reference 13. .

その後、位置姿勢変換式算出部203は、参考文献1に記載の(3・12)式からE行列(Essential matrix;基本行列)を取得する。位置姿勢変換式算出部203は、E行列を特異値分解することで、カメラ間の位置姿勢変換式を示す3×1の平行移動ベクトルTと3×3の回転移動行列Rを取得する。なお、上記式(3・12)に記載のA、Aはカメラの内部パラメータ情報である。 After that, the position and orientation conversion equation calculation unit 203 acquires an E matrix (Essential matrix; basic matrix) from equation (3 · 12) described in Reference 1. The position / posture conversion equation calculation unit 203 obtains a 3 × 1 translation vector T and a 3 × 3 rotation movement matrix R indicating a position / posture conversion equation between cameras by performing singular value decomposition of the E matrix. Note that A 1 and A 2 in the above equation (3 · 12) are internal parameter information of the camera.

ここで、2つの画像間の対応関係からカメラ間の位置姿勢変換式を求める場合、スケールが不定になる問題がある。つまり、上記得られる平行移動成分は、その方向(平行移動の方向)が定まったとしてもスケール(倍率)が不定である。   Here, when the position and orientation conversion equation between the cameras is obtained from the correspondence between the two images, there is a problem that the scale becomes indefinite. That is, the scale (magnification) of the obtained translation component is indefinite even if its direction (parallel translation direction) is determined.

ステップS02では、比較画像I1を撮影したカメラ座標系から基準画像を撮影したカメラ座標系に変換するための回転移動行列R01と平行移動ベクトルT01を得る(|T01|=1とする)。 In step S02, to obtain a translation vector T 01 and the rotation movement matrix R 01 for transforming a camera coordinate system were taken reference image from the camera coordinate system were taken comparative image I1 (| a = 1 | T 01) .

このように、位置姿勢変換式算出部203は、基準画像、比較画像I1(第1の撮影画像)及びカメラの内部パラメータ情報に基づき、基準画像及び比較画像I1に関する位置姿勢変換式を算出する。   As described above, the position and orientation conversion formula calculation unit 203 calculates the position and orientation conversion formula for the reference image and the comparison image I1 based on the reference image, the comparison image I1 (first captured image), and the internal parameter information of the camera.

移動型センサ装置10は、ステップS03以降の処理により平行移動成分のスケールを確定する。   The mobile sensor device 10 determines the scale of the translation component by the processing after step S03.

ステップS03において、装置駆動制御部201は、装置駆動部30を制御して予め決められた移動(移動型センサ装置10の移動)を行う。具体的には、装置駆動制御部201は、最初の撮影画像(比較画像I1)を取得した位置及び方向から次の撮影画像(後述する比較画像I2)を取得する位置及び方向へ自装置を移動させるための移動制御情報に従い、自装置を移動させる。例えば、装置駆動制御部201は、「右方向に1m水平移動」等の予め定められた移動を行う。移動制御情報は、少なくとも、回転移動R、平行移動Tを含む。 In step S03, the device drive control unit 201 controls the device drive unit 30 to perform a predetermined movement (movement of the mobile sensor device 10). Specifically, the device drive control unit 201 moves the own device from the position and the direction in which the first captured image (comparison image I1) is obtained to the position and the direction in which the next captured image (comparison image I2 described later) is obtained. The own device is moved in accordance with the movement control information for moving. For example, the apparatus drive control unit 201 performs a predetermined movement such as “horizontal movement 1 m to the right”. The movement control information includes at least the rotational movement R C and the parallel movement T C.

ステップS04において、カメラ制御部202がカメラ部20を制御し、画像を得る。当該画像を「比較画像I2」とする。   In step S04, the camera control unit 202 controls the camera unit 20 to obtain an image. This image is referred to as “comparison image I2”.

ステップS05において、位置姿勢変換式算出部203が、比較画像I1及びI2と、基準画像と、カメラの内部パラメータ情報と、ステップS03における移動量(移動制御情報)を用いて、基準画像と比較画像I2の位置姿勢変換式を計算する。2つの画像間のカメラの位置姿勢変換式に関する計算はステップS02と同様とすることができる。   In step S05, the position / posture conversion formula calculation unit 203 uses the comparison images I1 and I2, the reference image, the camera internal parameter information, and the amount of movement (movement control information) in step S03 to generate the reference image and the comparison image. The position and orientation conversion formula of I2 is calculated. The calculation regarding the camera position / posture conversion equation between the two images can be performed in the same manner as in step S02.

位置姿勢変換式算出部203は、平行移動成分のスケールを確定させるために、図5に示すような3つの画像の位置姿勢関係式を計算する。   The position and orientation conversion formula calculation unit 203 calculates a position and orientation relational expression of three images as shown in FIG. 5 in order to determine the scale of the translation component.

図5に示すように、基準画像のカメラ視点をC、比較画像I1のカメラ視点をC、比較画像I2のカメラ視点をCとする。また、カメラ視点Cにおけるカメラ位置姿勢から、カメラ視点Cのカメラ位置姿勢に変換するための回転移動をRji、平行移動をTji(|Tji|=1)、平行移動のスケールファクタをajiとする。なお、i、jはカメラ視点Cを特定するためのインデックスである。 As shown in FIG. 5, the camera viewpoint of the reference image C 0, the camera viewpoint of the comparison image I1 C 1, the camera viewpoint of the comparison image I2 and C 2. Further, R ji is a rotational movement for converting the camera position and orientation at the camera viewpoint C i into a camera position and orientation at the camera viewpoint C j , T ji is a translation movement (| T ji | = 1), and a scale factor of the parallel movement is Is a ji . Here, i and j are indexes for specifying the camera viewpoint C.

また、カメラ視点Cのカメラ位置姿勢をカメラ視点Cのカメラ位置姿勢に、移動型センサ装置10を移動させるための変換式(位置姿勢変換式)をMjiと表記する。図5には、3つの位置姿勢変換式M01、M21、M02が表記されている。 Further, a conversion formula (position / posture conversion formula) for moving the mobile sensor device 10 from the camera position / posture of the camera viewpoint C i to the camera position / posture of the camera viewpoint C j is expressed as M ji . FIG. 5 illustrates three position and orientation conversion equations M 01 , M 21 , and M 02 .

位置姿勢変換式算出部203は、下記の式(1)〜(5)により、スケールファクタa21、a01、a02を求める。 The position and orientation conversion formula calculation unit 203 obtains scale factors a 21 , a 01 , and a 02 by the following formulas (1) to (5).

[式1]

Figure 2020057983
[Equation 1]
Figure 2020057983

このように、位置姿勢変換式算出部203は、比較画像I1を取得した際の位置から比較画像I2を取得した位置までの移動量との対応関係からスケールファクタa21を求める。 Thus, the position and orientation conversion formula calculating unit 203 obtains a scale factor a 21 from the correspondence relationship between the amount of movement to a position to get the comparison image I2 from the position when acquiring the comparison image I1.

[式2]

Figure 2020057983
[Equation 2]
Figure 2020057983

[式3]

Figure 2020057983
[Equation 3]
Figure 2020057983

[式4]

Figure 2020057983
[Equation 4]
Figure 2020057983

[式5]

Figure 2020057983
[Equation 5]
Figure 2020057983

位置姿勢変換式算出部203は、式(1)〜(5)の連立方程式を解くことで、スケールファクタa01、a02を求める。 The position and orientation conversion equation calculation unit 203 obtains scale factors a 01 and a 02 by solving the simultaneous equations of equations (1) to (5).

ここで、測定値に誤差が含まれる場合には、単純に連立方程式により解が導出できない可能性がある。そのような場合には、位置姿勢変換式算出部203は、残差平方和を最小にするスケールファクタa01、a02を算出する。 Here, when the measurement value includes an error, there is a possibility that a solution cannot be derived simply by simultaneous equations. In such a case, the position and orientation conversion formula calculation unit 203 calculates the scale factors a 01 and a 02 that minimize the residual sum of squares.

具体的には、位置姿勢変換式算出部203は、下記の式(6)〜(9)を解くことで、スケールファクタa01、a02を得る。 Specifically, the position and orientation conversion equation calculation unit 203 obtains scale factors a 01 and a 02 by solving the following equations (6) to (9).

[式6]

Figure 2020057983
[Equation 6]
Figure 2020057983

なお、式(6)は式(5)をa01、a02の視点から書き換えた式である。従って、式(6)に示すkjiは、式(5)に記載されたT01、T02、R02、T21の各要素を集約した係数を示す。 Expression (6) is obtained by rewriting expression (5) from the viewpoints of a 01 and a 02 . Therefore, k ji shown in Expression (6) indicates a coefficient obtained by consolidating each element of T 01 , T 02 , R 02 , and T 21 described in Expression (5).

[式7]

Figure 2020057983
[Equation 7]
Figure 2020057983

[式8]

Figure 2020057983
[Equation 8]
Figure 2020057983

[式9]

Figure 2020057983
[Equation 9]
Figure 2020057983

図5において、ステップS05を実行時の移動型センサ装置10はカメラ視点Cの位置にあるので、移動型センサ装置10は、位置姿勢変換式M02に対応する移動制御を行うことで、カメラ視点を基準視点に一致(実質的に一致)させることができる。つまり、位置姿勢変換式算出部203が算出する位置姿勢変換式は、自装置の回転移動に関する情報と、自装置の平行移動に関する情報と、を含む。位置姿勢変換式M02は、比較画像I2を取得した位置姿勢(カメラ視点)を基準画像を取得した位置姿勢(カメラ視点)に変換する式であるので、当該変換式に従って移動型センサ装置10を回転、平行移動させると基準画像撮影時の位置姿勢が再現できる。 5, the mobile sensor device 10 when executing the step S05 because the position of the camera viewpoint C 2, the mobile sensor device 10, by controlling the movement corresponding to the position and orientation transformation formula M 02, a camera The viewpoint can be matched (substantially matched) with the reference viewpoint. That is, the position and orientation conversion formula calculated by the position and orientation conversion formula calculation unit 203 includes information on the rotational movement of the own device and information on the parallel movement of the own device. The position and orientation conversion equation M02 is an equation for converting the position and orientation (camera viewpoint) at which the comparison image I2 was acquired into the position and orientation (camera viewpoint) at which the reference image was acquired. By rotating and translating, the position and orientation at the time of shooting the reference image can be reproduced.

上記説明したように、2つの画像の比較ではスケールファクタが求まらない。しかし、移動型センサ装置10は、ステップS03にて使用する移動制御情報を用いて比較画像I1から比較画像I2への平行移動量のスケールファクタa21を求めることができる(式(1)参照)。即ち、位置姿勢変換式算出部203は、移動制御情報を用いて、比較画像I1を取得する際の位置姿勢から比較画像I2を取得する際の位置姿勢への平行移動を規定するスケールファクタa21を算出する。移動型センサ装置10は、スケールファクタa21を用いつつ、3つの画像を比較し、比較画像I2を撮影したカメラ位置姿勢(現在地)から基準画像を撮影したカメラ位置姿勢に移動するための回転移動R02、スケールが確定した平行移動a0202を得る。 As described above, the scale factor is not determined by comparing the two images. However, movement sensor device 10 can determine the scale factor a 21 translation of the comparative image I2 from the comparison image I1 with the movement control information used at step S03 (see equation (1)) . That is, the position / posture conversion formula calculation unit 203 uses the movement control information to set the scale factor a 21 that defines the parallel movement from the position / posture at the time of acquiring the comparative image I1 to the position / posture at the time of acquiring the comparative image I2. Is calculated. Mobile sensor device 10, while using a scale factor a 21, compares the three images, the rotational movement for moving the camera position and orientation obtained by photographing the reference image from the captured camera position and orientation (current location) of the comparison image I2 R 02 , and a parallel translation a 02 T 02 with a fixed scale are obtained.

このように、位置姿勢変換式算出部203は、基準画像、比較画像I2、カメラの内部パラメータ情報及び移動制御情報に基づき、基準画像及び比較画像I2に関する位置姿勢変換式を算出する。   As described above, the position and orientation conversion formula calculation unit 203 calculates the position and orientation conversion formula for the reference image and the comparison image I2 based on the reference image, the comparison image I2, the camera internal parameter information, and the movement control information.

ステップS06において、装置駆動制御部201は装置駆動部30を制御して移動型センサ装置10を移動する。具体的には、装置駆動制御部201は、上記基準画像及び比較画像I2に関する位置姿勢変換式に基づき、自装置を基準画像が撮影された際の位置及び方向に移動する。より詳細には、装置駆動制御部201は、回転移動R02、平行移動a0202に相当する移動の指示を装置駆動部30に行う。当該制御により、移動型センサ装置10は、基準画像を撮影したセンサ取得位置に移動する。 In step S06, the device drive control unit 201 controls the device drive unit 30 to move the mobile sensor device 10. Specifically, the device drive control unit 201 moves its own device to the position and direction at the time when the reference image was captured, based on the position and orientation conversion formula for the reference image and the comparison image I2. More specifically, the device drive control unit 201 instructs the device drive unit 30 to perform a movement corresponding to the rotational movement R 02 and the parallel movement a 02 T 02 . With this control, the mobile sensor device 10 moves to the sensor acquisition position where the reference image was captured.

ステップS07において、センサ駆動制御部204は事前準備でセンサ駆動量記憶部81に記憶したセンサ駆動量に基づきセンサ駆動部40を制御し、センサ部41をセンサデータ取得位置姿勢の状態にする。   In step S07, the sensor drive control unit 204 controls the sensor drive unit 40 based on the sensor drive amount stored in the sensor drive amount storage unit 81 in advance, and sets the sensor unit 41 to the sensor data acquisition position / posture state.

ステップS08において、センサ制御部205はセンサ部41からセンサ情報を取得する。   In step S08, the sensor control unit 205 acquires sensor information from the sensor unit 41.

以上のように、第1の実施形態に係る移動型センサ装置10は、基準画像と複数の撮影画像を用いて、移動型センサ装置10の位置姿勢を基準画像撮影時の位置姿勢に変更する。その結果、基準画像取得時(オペレータが決定したセンサ情報取得時)における移動型センサ装置10の位置姿勢(対象に対する距離、方向)が自動的に再現される。さらに、センサ移動型の点検方法における問題点(センサ取得位置姿勢条件に一貫性を持たせることが困難)が解消され、移動型センサ装置10のモニタリングにおける異常判定精度向上に貢献する。   As described above, the mobile sensor device 10 according to the first embodiment changes the position and orientation of the mobile sensor device 10 to the position and orientation at the time of capturing the reference image using the reference image and the plurality of captured images. As a result, the position and orientation (distance and direction with respect to the target) of the mobile sensor device 10 when the reference image is obtained (when the sensor information determined by the operator is obtained) is automatically reproduced. Further, problems in the sensor moving type inspection method (it is difficult to make the sensor acquisition position / posture conditions consistent) are solved, which contributes to improvement of the abnormality determination accuracy in monitoring of the mobile sensor device 10.

また、カメラを利用したカメラ位置姿勢関係の推定にはスケールが確定しないという問題がある。当該問題に対して、第1の実施形態では、センサを移動する機能を持たせることで、自動的にセンサ取得位置に移動するという問題とスケールを確定するという問題を共に解決している。   In addition, the estimation of the camera position / posture relationship using a camera has a problem that the scale is not determined. In the first embodiment, by providing a function of moving the sensor, the first embodiment solves both the problem of automatically moving to the sensor acquisition position and the problem of determining the scale.

また、第1の実施形態に係る移動型センサ装置10を用いることで、センサ移動型の点検方法におけるメリット(点検対象の設備側の変更、改造等を要しないというメリット)も当然に享受できる。   In addition, by using the mobile sensor device 10 according to the first embodiment, it is possible to naturally enjoy the advantages of the inspection method of the sensor mobile type (the advantage that no change or modification of the equipment to be inspected is required).

[参考文献]
上記説明にて言及した各参考文献は以下のとおりである。
[参考文献1]電子情報通信学会「知識の森」2群-2編-3章3次元幾何解析
<URL:http://www.ieice-hbkb.org/>
[参考文献2]OpenCV カメラキャリブレーションと3次元構成
<URL:http://opencv.jp/opencv-2.1/cpp/camera_calibration_and_3d_reconstruction.html>
[参考文献3]
Ethan Rublee, Vincent Rabaud, Kurt Konolige, Gary R. Bradski, "ORB: An efficient alternative to SIFT or SURF”, ICCV 2011: 2564-2571.
<URL:http://www.willowgarage.com/sites/default/files/orb_final.pdf>
[参考文献4]
E. Mair他、"Adaptive and Generic Corner Detection Based on the Accelerated Segment Test"(2010),
<URL:http://www6.in.tum.de/Main/Publications/Mair2010c.pdf>
[参考文献5]
P. F. Alcantarilla他、"Fast Explicit Diffusion for Accerelated Features in Nonlinear Scale Spaces"(2013)
<URL:http://isit.u-clermont1.fr/~ab/Publications/Alcantarilla_etal_BMVC13.pdf>
[参考文献6]
S. Leutenegger他、"BRISK: Binary Robust Invariant Scalable Keypoints" (2011)
<URL:http://www.robots.ox.ac.uk/~vgg/rg/papers/brisk.pdf>
[参考文献7]
E. Rosten他、 "Machine Learning for High-Speed Corner Detection"(2006)
<URL:http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.60.3991&rep=rep1&type=pdf>
[参考文献8]
J. Shi他、"Good Features to Track"(1994)
<URL:https://users.cs.duke.edu/~tomasi/papers/shi/TR_93-1399_Cornell.pdf>
[参考文献9]
P. F. Alcantarilla他、"KAZE Features"(2012)
<URL:https://www.doc.ic.ac.uk/~ajd/Publications/alcantarilla_etal_eccv2012.pdf>
[参考文献10]
J. Matas他、"Robust Wide Baseline Stereo from Maximally Stable External Regions"(2002)
<URL:https://www.robots.ox.ac.uk/~vgg/research/affine/det_eval_files/matas_bmvc2002.pdf>
[参考文献11]
Lowe, D. (2004) Distinctive image features from scale-invariant keypoints. Int. Journal of Computer Vision. 60(2). pp.91-110.
<URL:https://www.robots.ox.ac.uk/~vgg/research/affine/det_eval_files/lowe_ijcv2004.pdf>
[参考文献12]
Bay, H., Ess, A., Tuytelaars, T. & Van Gool, L. (2008). SURF: Speeded Up Robust Features. Computer Vision and Image Understanding (CVIU). 110(3). pp.346--359.
<URL:ftp://ftp.vision.ee.ethz.ch/publications/articles/eth_biwi_00517.pdf>
[参考文献13]
OpenCV-Python Tutorials 特徴点マッチング
<URL:http://lang.sist.chukyo-u.ac.jp/classes/OpenCV/py_tutorials/py_feature2d/py_matcher/py_matcher.html>
[参考文献14]
OpenCV
<URL:https://docs.opencv.org/3.2.0/d9/d0c/group__calib3d.html#ga13f7e34de8fa516a686a56af1196247f>
[References]
The references cited in the above description are as follows.
[Reference 1] IEICE "Forest of Knowledge" 2nd group-2nd chapter-3rd chapter 3D geometric analysis <URL: http://www.ieice-hbkb.org/>
[Reference 2] OpenCV camera calibration and 3D configuration <URL: http://opencv.jp/opencv-2.1/cpp/camera_calibration_and_3d_reconstruction.html>
[Reference 3]
Ethan Rublee, Vincent Rabaud, Kurt Konolige, Gary R. Bradski, "ORB: An efficient alternative to SIFT or SURF", ICCV 2011: 2564-2571.
<URL: http://www.willowgarage.com/sites/default/files/orb_final.pdf>
[Reference 4]
E. Mair et al., "Adaptive and Generic Corner Detection Based on the Accelerated Segment Test" (2010),
<URL: http://www6.in.tum.de/Main/Publications/Mair2010c.pdf>
[Reference 5]
PF Alcantarilla et al., "Fast Explicit Diffusion for Accerelated Features in Nonlinear Scale Spaces" (2013)
<URL: http://isit.u-clermont1.fr/~ab/Publications/Alcantarilla_etal_BMVC13.pdf>
[Reference 6]
S. Leutenegger et al., "BRISK: Binary Robust Invariant Scalable Keypoints" (2011)
<URL: http://www.robots.ox.ac.uk/~vgg/rg/papers/brisk.pdf>
[Reference 7]
E. Rosten et al., "Machine Learning for High-Speed Corner Detection" (2006)
<URL: http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.60.3991&rep=rep1&type=pdf>
[Reference 8]
J. Shi et al., "Good Features to Track" (1994)
<URL: https://users.cs.duke.edu/~tomasi/papers/shi/TR_93-1399_Cornell.pdf>
[Reference 9]
PF Alcantarilla et al., "KAZE Features" (2012)
<URL: https://www.doc.ic.ac.uk/~ajd/Publications/alcantarilla_etal_eccv2012.pdf>
[Reference 10]
J. Matas et al., "Robust Wide Baseline Stereo from Maximally Stable External Regions" (2002)
<URL: https://www.robots.ox.ac.uk/~vgg/research/affine/det_eval_files/matas_bmvc2002.pdf>
[Reference 11]
Lowe, D. (2004) Distinctive image features from scale-invariant keypoints. Int. Journal of Computer Vision. 60 (2). Pp.91-110.
<URL: https://www.robots.ox.ac.uk/~vgg/research/affine/det_eval_files/lowe_ijcv2004.pdf>
[Reference Document 12]
Bay, H., Ess, A., Tuytelaars, T. & Van Gool, L. (2008) .SURF: Speeded Up Robust Features. Computer Vision and Image Understanding (CVIU). 110 (3) .pp.346-- 359.
<URL: ftp://ftp.vision.ee.ethz.ch/publications/articles/eth_biwi_00517.pdf>
[Reference 13]
OpenCV-Python Tutorials Feature point matching <URL: http://lang.sist.chukyo-u.ac.jp/classes/OpenCV/py_tutorials/py_feature2d/py_matcher/py_matcher.html>
[Reference 14]
OpenCV
<URL: https://docs.opencv.org/3.2.0/d9/d0c/group__calib3d.html#ga13f7e34de8fa516a686a56af1196247f>

[変形例]
上記実施形態にて説明した移動型センサ装置10の構成、動作は例示であって、装置の構成等を限定する趣旨ではない。
[Modification]
The configuration and operation of the mobile sensor device 10 described in the above embodiment are merely examples, and do not limit the configuration of the device.

[変形例1]
図6は、第1の変形例に係る移動型センサ装置10の処理構成の一例を示す図である。例えば、点検に使用するセンサがカメラの場合があり得る。この場合、センサ部41、センサ制御部205は不要であり、カメラ制御部202がカメラ部20を制御し、カメラをセンサとして機能させる。また、センサ駆動部40は、カメラ部20を移動する(カメラ部20の位置を変更する)。あるいは、センサ駆動部40によるカメラ部の移動に代えて、カメラ制御部202がカメラのズーム機能を用いるようにカメラ部20を制御してもよい。
[Modification 1]
FIG. 6 is a diagram illustrating an example of a processing configuration of the mobile sensor device 10 according to the first modification. For example, the sensor used for inspection may be a camera. In this case, the sensor unit 41 and the sensor control unit 205 are unnecessary, and the camera control unit 202 controls the camera unit 20 to make the camera function as a sensor. The sensor driving unit 40 moves the camera unit 20 (changes the position of the camera unit 20). Alternatively, instead of the movement of the camera unit by the sensor driving unit 40, the camera control unit 202 may control the camera unit 20 to use the zoom function of the camera.

[変形例2]
図7は、第2の変形例に係る移動型センサ装置10の処理構成の一例を示す図である。例えば、センサ部41に使用するセンサの種類が、カメラや距離計等の非接触型センサの場合があり得る。この場合、センサ駆動部40にてセンサの位置を制御する必要がない。移動型センサ装置10には、センサ駆動制御部204、センサ駆動量記憶部81、センサ駆動部40は不要となる。また、このような移動型センサ装置10を用いる場合、事前準備では、センサの位置合わせは不要であり、図4に示すステップS07の処理は実行されない。
[Modification 2]
FIG. 7 is a diagram illustrating an example of a processing configuration of the mobile sensor device 10 according to the second modification. For example, the type of sensor used for the sensor unit 41 may be a non-contact type sensor such as a camera or a distance meter. In this case, it is not necessary to control the position of the sensor by the sensor driving unit 40. The mobile sensor device 10 does not require the sensor drive control unit 204, the sensor drive amount storage unit 81, and the sensor drive unit 40. When such a mobile sensor device 10 is used, in advance preparation, sensor alignment is not necessary, and the process of step S07 shown in FIG. 4 is not executed.

[変形例3]
図8は、第3の変形例に係る移動型センサ装置10の処理構成の一例を示す図である。例えば、移動型センサ装置10は、GNSS(Global Navigation Satellite System)や深度カメラ等の測位センサを有する場合がある。この場合、画像間の位置姿勢変換式の計算にてスケール(スケールファクタ)を求める際、位置姿勢変換式算出部203は、装置駆動部30に対する制御量(移動量)ではなく、測位センサ部42にて取得した情報を利用することもできる。
[Modification 3]
FIG. 8 is a diagram illustrating an example of a processing configuration of the mobile sensor device 10 according to the third modification. For example, the mobile sensor device 10 may include a positioning sensor such as a Global Navigation Satellite System (GNSS) or a depth camera. In this case, when calculating the scale (scale factor) by calculating the position and orientation conversion equation between the images, the position and orientation conversion equation calculation unit 203 uses the positioning sensor unit 42 instead of the control amount (movement amount) for the device driving unit 30. It is also possible to use the information obtained in.

ここで、図9に示すように、スケールを定めるためには、被写体(点検対象)の大きさ、被写体までの奥行距離、視点間の距離を定める必要がある。位置姿勢変換式算出部203は、GNSS、深度カメラ等の測位センサにより得られる視点間の距離、奥行距離を用いてスケールを計算する。   Here, as shown in FIG. 9, in order to determine the scale, it is necessary to determine the size of the subject (the inspection target), the depth distance to the subject, and the distance between the viewpoints. The position and orientation conversion formula calculation unit 203 calculates a scale using a distance between viewpoints and a depth distance obtained by a positioning sensor such as a GNSS or a depth camera.

[変形例4]
図10は、第4の変形例に係る移動型センサ装置10の処理構成の一例を示す図である。移動型センサ装置10は、他の装置が取得した基準画像やカメラパラメータを使用する場合がある。この場合、移動型センサ装置10には、操作部50や表示部60は不要となる。
[Modification 4]
FIG. 10 is a diagram illustrating an example of a processing configuration of the mobile sensor device 10 according to the fourth modification. The mobile sensor device 10 may use a reference image or a camera parameter acquired by another device. In this case, the operation unit 50 and the display unit 60 are unnecessary in the mobile sensor device 10.

[変形例5]
図11は、第5の変形例に係る移動型センサ装置10の処理の一例を示すフローチャートである。なお、図11以降のフローチャートにおいて図4と同様の処理に関しては同一のステップを付与し、その詳細な説明を省略する。
[Modification 5]
FIG. 11 is a flowchart illustrating an example of processing of the mobile sensor device 10 according to the fifth modification. In the flowcharts after FIG. 11, the same steps as those in FIG. 4 are denoted by the same steps, and detailed description thereof is omitted.

図4を用いて説明した移動型センサ装置10の動作において、図4に示すステップS02とステップS05の位置姿勢変換式の算出に失敗することがあり得る。第5の変形例に係る移動型センサ装置10は、当該位置姿勢変換式の算出処理に関する正否を判定する。具体的には、ステップS11、ステップS14において、マッチングが可能であった対応する特徴点の数が一定数(閾値)よりも少ない場合に、位置姿勢変換式算出部203は上記位置姿勢変換式の算出は「失敗」と判定する。つまり、位置姿勢変換式算出部203は、算出された特徴点の数に対して閾値処理を実行し、その結果に応じて位置姿勢変換式の算出正否を判定してもよい。   In the operation of the mobile sensor device 10 described with reference to FIG. 4, the calculation of the position and orientation conversion formula in steps S02 and S05 shown in FIG. 4 may fail. The mobile sensor device 10 according to the fifth modification determines whether or not the calculation processing of the position and orientation conversion formula is correct. Specifically, in step S11 and step S14, when the number of corresponding feature points for which matching was possible is smaller than a certain number (threshold), the position / posture conversion formula calculation unit 203 determines The calculation is determined as “failure”. That is, the position / posture conversion formula calculation unit 203 may execute threshold processing on the calculated number of feature points, and determine whether the calculation of the position / posture conversion formula is correct or not according to the result.

図11に示すように、位置姿勢変換式の算出に失敗した場合(計算は失敗;ステップS11、No分岐)、移動型センサ装置10は、撮影位置を移動(ステップS12)して比較画像の再取得と位置姿勢変換式の再算出を行う。   As shown in FIG. 11, when the calculation of the position and orientation conversion formula fails (calculation fails; step S11, No branch), the mobile sensor device 10 moves the shooting position (step S12) and re-comparisons the comparison image. Acquisition and recalculation of the position and orientation conversion formula are performed.

なお、ステップS05の処理ではスケールを定めるために、位置姿勢変換式算出部203は、装置駆動部30の制御量(装置の移動量)を利用する。しかし、位置姿勢変換式の算出に失敗すると、失敗のたびに移動量が蓄積されてしまう。そこで、移動型センサ装置10は、ステップS13において、累積処理を実行し、ステップS05の処理における平行移動のスケールファクタa21の算出には当該累積された移動量を使用する。   In the process of step S05, in order to determine the scale, the position and orientation conversion formula calculation unit 203 uses the control amount (the movement amount of the device) of the device driving unit 30. However, if the calculation of the position and orientation conversion formula fails, the movement amount is accumulated each time the calculation fails. Therefore, the mobile sensor device 10 performs an accumulation process in step S13, and uses the accumulated movement amount to calculate the scale factor a21 of the parallel movement in the process in step S05.

[変形例6]
図12は、第6の変形例に係る移動型センサ装置10の処理の一例を示すフローチャートである。図12に示すように、移動型センサ装置10は、ステップS06の処理の後、比較画像I3を取得(ステップS21)し、ステップS05と同様の処理により比較画像I3と基準画像の位置姿勢変換式を算出(ステップS22)する。
[Modification 6]
FIG. 12 is a flowchart illustrating an example of processing of the mobile sensor device 10 according to the sixth modification. As shown in FIG. 12, after the process of step S06, the mobile sensor device 10 obtains the comparison image I3 (step S21), and performs the same process as step S05 to convert the comparison image I3 and the reference image into position and orientation. Is calculated (step S22).

比較画像I3と基準画像との距離(平行移動の距離a03T03)が所定値よりも長い場合(ステップS23、Yes分岐)、移動型センサ装置10は、自装置の移動(ステップS24)と比較画像I3の取得を繰り返す。その結果、移動型センサ装置10の位置姿勢は、基準画像撮影位置姿勢に近づく。   When the distance between the comparison image I3 and the reference image (parallel movement distance a03T03) is longer than a predetermined value (step S23, Yes branch), the mobile sensor device 10 moves the own device (step S24) and the comparison image I3. Repeat the acquisition. As a result, the position and orientation of the mobile sensor device 10 approaches the reference image capturing position and orientation.

あるいは、図13に示すように、移動型センサ装置10は、ステップS31にて取得した比較画像I3により計算された位置姿勢変換式(ステップS32)の移動をセンサ駆動部40により実現してもよい。なお、ステップS07aにおける移動処理では、ステップS32の算出結果とセンサ駆動量記憶部81に記憶された情報を乗算した移動を行う。   Alternatively, as shown in FIG. 13, the mobile sensor device 10 may realize the movement of the position and orientation conversion formula (Step S32) calculated from the comparison image I3 acquired in Step S31 by the sensor driving unit 40. . In the movement process in step S07a, the movement is performed by multiplying the calculation result in step S32 by the information stored in the sensor drive amount storage unit 81.

[変形例7]
点検対象(センシング対象)が複数ある場合は、移動型センサ装置10は、複数の基準画像を利用する。例えば、移動型センサ装置10は、現在の撮影画像(比較画像I1)からどの基準画像に対応する場所か、に関する選択を自動的に行う。例えば、移動型センサ装置10は、全ての基準画素に対してステップS02の処理を行い、対応する特徴点の数が最多の基準画像を選択すればよい。即ち、位置姿勢変換式算出部203は、複数のセンシング対象それぞれに対応する複数の基準画像のなかから、撮影画像に対応する基準画像を、撮影画像と複数の基準画像のそれぞれから算出される特徴点の数に基づき選択してもよい。
[Modification 7]
When there are a plurality of inspection targets (sensing targets), the mobile sensor device 10 uses a plurality of reference images. For example, the mobile sensor device 10 automatically selects a reference image corresponding to a place from the current captured image (comparative image I1). For example, the mobile sensor device 10 may perform the process of step S02 on all the reference pixels and select the reference image with the largest number of corresponding feature points. That is, the position and orientation conversion formula calculation unit 203 calculates a reference image corresponding to the captured image from the plurality of reference images corresponding to the plurality of sensing targets, respectively, from the captured image and the plurality of reference images. The selection may be based on the number of points.

[変形例8]
基準画像に、既知のAR(Augmented Reality)マーカーのような二次元コードを設置してカメラ間の地位姿勢関係算出精度の向上と、スケールファクタを確定させてもよい。この場合は、比較画像の撮影は1回で十分である。
[Modification 8]
A two-dimensional code such as a known AR (Augmented Reality) marker may be provided in the reference image to improve the calculation accuracy of the position / posture relationship between the cameras and determine the scale factor. In this case, one shot of the comparison image is sufficient.

[変形例9]
図14は、第9の変形例に係る移動型センサ装置10の処理構成の一例を示す図である。図14に示すように、基準画像記憶部80、センサ駆動量記憶部81、カメラパラメータ記憶部82を外部のサーバ装置90に配置してもよい。この場合、通信部91が、ネットワーク網93を介して各記憶部に格納された情報を取得する。サーバ装置90の通信部92は、各記憶部から読み出された情報を移動型センサ装置10に送信する。通信部91、92は、無線LAN(Local Area Network)やモバイル回線等の無線通信機や有線LAN等の有線通信機である。ネットワーク網93は、構内網のような閉域ネットワークやインターネットのような広域ネットワークである。
[Modification 9]
FIG. 14 is a diagram illustrating an example of a processing configuration of the mobile sensor device 10 according to the ninth modification. As shown in FIG. 14, the reference image storage unit 80, the sensor drive amount storage unit 81, and the camera parameter storage unit 82 may be arranged in an external server device 90. In this case, the communication unit 91 acquires the information stored in each storage unit via the network 93. The communication unit 92 of the server device 90 transmits information read from each storage unit to the mobile sensor device 10. The communication units 91 and 92 are a wireless communication device such as a wireless LAN (Local Area Network) or a mobile line, or a wired communication device such as a wired LAN. The network 93 is a closed network such as a private network or a wide area network such as the Internet.

[変形例10]
図15は、第10の変形例に係る移動型センサ装置10の処理構成の一例を示す図である。センサ装置は、移動型でなくともよい。例えば、センサ情報取得位置姿勢がセンサ駆動部40の可動範囲内になるようにオペレータがセンサ装置を運搬してもよい。この場合、センサ駆動部40が、センサ部41とカメラ部20を制御(移動)し、装置駆動部30及び装置駆動制御部201にて行う処理がセンサ駆動部40及びセンサ駆動制御部204にて実行されればよい。
[Modification 10]
FIG. 15 is a diagram illustrating an example of a processing configuration of the mobile sensor device 10 according to the tenth modification. The sensor device need not be mobile. For example, the operator may carry the sensor device so that the sensor information acquisition position and orientation fall within the movable range of the sensor driving unit 40. In this case, the sensor drive unit 40 controls (moves) the sensor unit 41 and the camera unit 20, and the processing performed by the device drive unit 30 and the device drive control unit 201 is performed by the sensor drive unit 40 and the sensor drive control unit 204. It only has to be executed.

[変形例11]
図16は、第11の変形例に係る移動型センサ装置10の処理構成の一例を示す図である。各変形例を組み合わせると、図16に示す最小の装置構成となる。
[Modification 11]
FIG. 16 is a diagram illustrating an example of a processing configuration of the mobile sensor device 10 according to the eleventh modification. Combination of each modification results in a minimum device configuration shown in FIG.

上記の説明により、本発明の産業上の利用可能性は明らかであるが、本発明は、道路、橋梁、トンネル、河川、法面、港湾、空港、鉄道、発電所等のパブリックインフラ領域の点検監視に好適に適用可能である。さらに、本発明は、スマートファクトリ領域の工場設備の点検監視、画像認識、信号処理、ロボットといった技術分野に対しても好適に適用可能である。   From the above description, the industrial applicability of the present invention is clear. However, the present invention examines public infrastructure areas such as roads, bridges, tunnels, rivers, slopes, ports, airports, railways, and power plants. It can be suitably applied to monitoring. Furthermore, the present invention can be suitably applied to technical fields such as inspection and monitoring of factory equipment in the smart factory area, image recognition, signal processing, and robots.

上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
[付記1]
第1の視点に係るセンサ装置のとおりである。
[付記2]
前記変換式算出部は、
前記基準画像と、前記カメラ部により撮影された第1、第2の撮影画像と、前記第1の撮影画像を取得した位置及び方向から前記第2の撮影画像を取得した位置及び方向への自装置の移動に関する移動制御情報と、前記カメラの内部パラメータ情報と、に基づき、前記変換式を算出する、好ましくは付記1に記載のセンサ装置。
[付記3]
前記カメラ制御部は、前記カメラ部を制御して前記第1の撮影画像を取得し、
前記変換式算出部は、前記基準画像、前記第1の撮影画像及び前記カメラの内部パラメータ情報に基づき、前記基準画像及び第1の撮影画像に関する第1の変換式を算出し、
前記駆動制御部は、前記移動制御情報に従った移動を実施し、
前記カメラ制御部は、前記カメラ部を制御して前記第2の撮影画像を取得し、
前記変換式算出部は、前記基準画像、前記第2の撮影画像、前記カメラの内部パラメータ情報及び前記移動制御情報に基づき、前記基準画像及び第2の撮影画像に関する第2の変換式を算出し、
前記駆動制御部は、前記算出された第2の変換式に基づき、自装置を前記基準画像が撮影された際の位置及び方向に移動する、好ましくは付記2に記載のセンサ装置。
[付記4]
前記変換式算出部が算出する変換式は、自装置の回転移動に関する情報と、自装置の平行移動に関する情報と、を含む、好ましくは付記1乃至3のいずれか一に記載のセンサ装置。
[付記5]
前記変換式算出部は、
前記移動制御情報を用いて、前記第1の撮影画像を取得する際の位置及び方向から前記第2の撮影画像を取得する際の位置及び方向への平行移動を規定するスケールファクタを算出する、好ましくは付記3を引用する付記4に記載のセンサ装置。
[付記6]
センサを含むセンサ部と、
前記センサ部を制御してセンサ情報を取得する、センサ制御部と、をさらに備える、好ましくは付記1乃至5のいずれか一に記載のセンサ装置。
[付記7]
前記センサの位置を可変とするセンサ駆動部と、
前記センサ駆動部を制御する、センサ駆動制御部と、をさらに備える、好ましくは付記6に記載のセンサ装置。
[付記8]
前記変換式算出部は、
複数のセンシング対象それぞれに対応する複数の前記基準画像のなかから、前記撮影画像に対応する基準画像を、前記撮影画像と前記複数の基準画像のそれぞれから算出される特徴点の数に基づき選択する、好ましくは付記1乃至7のいずれか一に記載のセンサ装置。
[付記9]
前記カメラ制御部は、第3の撮影画像を取得し、
前記変換式算出部は、前記第3の撮影画像から前記変換式を算出し、
前記駆動制御部は、前記第3の撮影画像から算出された変換式に従った自装置の移動を実行する、好ましくは付記1乃至8のいずれか一に記載のセンサ装置。
[付記10]
前記基準画像には、AR(Augmented Reality)マーカーが含まれる好ましくは付記1乃至9のいずれか一に記載のセンサ装置。
[付記11]
上述の第2の視点に係るセンサ装置の制御方法のとおりである。
[付記12]
上述の第3の視点に係るプログラムのとおりである。
なお、付記11の形態及び付記12の形態は、付記1の形態と同様に、付記2の形態〜付記10の形態に展開することが可能である。
Some or all of the above embodiments may be described as in the following supplementary notes, but are not limited thereto.
[Appendix 1]
This is the same as the sensor device according to the first viewpoint.
[Appendix 2]
The conversion formula calculation unit,
The reference image, the first and second captured images captured by the camera unit, and the autonomous shift from the position and direction at which the first captured image was obtained to the position and direction at which the second captured image was obtained. The sensor device according to claim 1, wherein the conversion formula is calculated based on movement control information regarding movement of the device and internal parameter information of the camera.
[Appendix 3]
The camera control unit controls the camera unit to acquire the first captured image,
The conversion formula calculation unit calculates a first conversion formula for the reference image and the first captured image based on the reference image, the first captured image, and internal parameter information of the camera,
The drive control unit performs movement according to the movement control information,
The camera control unit controls the camera unit to obtain the second captured image,
The conversion equation calculation unit calculates a second conversion equation for the reference image and the second captured image based on the reference image, the second captured image, internal parameter information of the camera, and the movement control information. ,
The sensor device according to claim 2, wherein the drive control unit moves the own device to a position and a direction at the time when the reference image is captured based on the calculated second conversion formula.
[Appendix 4]
4. The sensor device according to claim 1, wherein the conversion formula calculated by the conversion formula calculation unit includes information on a rotational movement of the own device and information on a parallel movement of the own device. 4.
[Appendix 5]
The conversion formula calculation unit,
Using the movement control information, calculating a scale factor that defines a translation from the position and the direction at the time of acquiring the first captured image to the position and the direction at the time of acquiring the second captured image, The sensor device according to Appendix 4, preferably citing Appendix 3.
[Appendix 6]
A sensor unit including a sensor;
The sensor device according to any one of Supplementary Notes 1 to 5, further comprising: a sensor control unit configured to control the sensor unit to acquire sensor information.
[Appendix 7]
A sensor drive unit that changes the position of the sensor,
The sensor device according to claim 6, further comprising: a sensor drive control unit that controls the sensor drive unit.
[Appendix 8]
The conversion formula calculation unit,
From among the plurality of reference images corresponding to each of the plurality of sensing targets, a reference image corresponding to the captured image is selected based on the number of feature points calculated from each of the captured image and the plurality of reference images. Preferably, the sensor device according to any one of supplementary notes 1 to 7.
[Appendix 9]
The camera control unit acquires a third captured image,
The conversion formula calculation unit calculates the conversion formula from the third captured image,
The sensor device according to any one of Supplementary Notes 1 to 8, wherein the drive control unit executes movement of the own device according to a conversion formula calculated from the third captured image.
[Appendix 10]
The sensor device according to any one of Supplementary Notes 1 to 9, wherein the reference image includes an Augmented Reality (AR) marker.
[Appendix 11]
This is the same as the control method of the sensor device according to the second viewpoint described above.
[Supplementary Note 12]
This is as in the program according to the third aspect described above.
In addition, the form of Supplementary Note 11 and the form of Supplementary Note 12 can be expanded to the form of Supplementary Note 2 to the form of Supplementary Note 10 similarly to the form of Supplementary Note 1.

なお、引用した上記の特許文献等の各開示は、本書に引用をもって繰り込むものとする。本発明の全開示(請求の範囲を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態ないし実施例の変更・調整が可能である。また、本発明の全開示の枠内において種々の開示要素(各請求項の各要素、各実施形態ないし実施例の各要素、各図面の各要素等を含む)の多様な組み合わせ、ないし、選択(部分的削除を含む)が可能である。すなわち、本発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。特に、本書に記載した数値範囲については、当該範囲内に含まれる任意の数値ないし小範囲が、別段の記載のない場合でも具体的に記載されているものと解釈されるべきである。   The disclosures of the above cited patent documents and the like are incorporated herein by reference. Modifications and adjustments of the embodiments or examples are possible within the framework of the entire disclosure (including the claims) of the present invention and based on the basic technical concept thereof. In addition, various combinations or selections of various disclosed elements (including each element of each claim, each element of each embodiment or example, each element of each drawing, etc.) within the frame of the entire disclosure of the present invention. (Including partial deletions) are possible. That is, the present invention naturally includes various variations and modifications that can be made by those skilled in the art according to the entire disclosure including the claims and the technical idea. In particular, with respect to the numerical ranges described in this document, any numerical values or small ranges included in the ranges should be interpreted as being specifically described even if not otherwise specified.

10 移動型センサ装置
11 CPU(Central Processing Unit)
12 メモリ
13 入力インターフェイス
14 出力インターフェイス
20、101 カメラ部
30、103 装置駆動部
40 センサ駆動部
41 センサ部
42 測位センサ部
50 操作部
60 表示部
70 制御部
80 基準画像記憶部
81 センサ駆動量記憶部
82 カメラパラメータ記憶部
90 サーバ装置
91、92 通信部
93 ネットワーク網
100 センサ装置
102、202 カメラ制御部
104 駆動制御部
105 変換式算出部
201 装置駆動制御部
203 位置姿勢変換式算出部
204 センサ駆動制御部
205 センサ制御部
10 Mobile sensor device 11 CPU (Central Processing Unit)
12 memory 13 input interface 14 output interface 20, 101 camera unit 30, 103 device drive unit 40 sensor drive unit 41 sensor unit 42 positioning sensor unit 50 operation unit 60 display unit 70 control unit 80 reference image storage unit 81 sensor drive amount storage unit 82 camera parameter storage unit 90 server device 91, 92 communication unit 93 network 100 sensor device 102, 202 camera control unit 104 drive control unit 105 conversion formula calculation unit 201 device drive control unit 203 position / posture conversion formula calculation unit 204 sensor drive control Unit 205 sensor control unit

Claims (10)

カメラを含むカメラ部と、
前記カメラ部を制御して画像を取得する、カメラ制御部と、
自装置を移動するための装置駆動部と、
前記装置駆動部を制御して自装置を移動する、駆動制御部と、
少なくとも前記カメラ部により撮影された撮影画像と予め取得された基準画像に基づき、前記撮影画像が取得された際のカメラの視点を、前記基準画像が取得された際のカメラの視点に変換するための変換式を算出する、変換式算出部と、
を備え、
前記駆動制御部は、
前記変換式に基づき、前記撮影画像が撮影された際のセンシング対象に対する自装置の位置及び方向から、前記基準画像が撮影された際の位置及び方向に自装置を移動する、センサ装置。
A camera section including a camera,
A camera control unit for controlling the camera unit to acquire an image,
A device drive unit for moving the own device,
A drive control unit that controls the device drive unit and moves the own device,
Based on at least a captured image captured by the camera unit and a previously acquired reference image, a viewpoint of the camera when the captured image is acquired is converted into a viewpoint of the camera when the reference image is acquired. A conversion formula calculation unit that calculates the conversion formula of
With
The drive control unit includes:
A sensor device, based on the conversion formula, that moves the subject device from the position and the direction of the subject device with respect to the sensing target when the photographed image is photographed to the position and the direction when the reference image is photographed.
前記変換式算出部は、
前記基準画像と、前記カメラ部により撮影された第1、第2の撮影画像と、前記第1の撮影画像を取得した位置及び方向から前記第2の撮影画像を取得した位置及び方向への自装置の移動に関する移動制御情報と、前記カメラの内部パラメータ情報と、に基づき、前記変換式を算出する、請求項1に記載のセンサ装置。
The conversion formula calculation unit,
The reference image, the first and second captured images captured by the camera unit, and the autonomous shift from the position and direction at which the first captured image was obtained to the position and direction at which the second captured image was obtained. The sensor device according to claim 1, wherein the conversion formula is calculated based on movement control information on movement of the device and information on internal parameters of the camera.
前記カメラ制御部は、前記カメラ部を制御して前記第1の撮影画像を取得し、
前記変換式算出部は、前記基準画像、前記第1の撮影画像及び前記カメラの内部パラメータ情報に基づき、前記基準画像及び第1の撮影画像に関する第1の変換式を算出し、
前記駆動制御部は、前記移動制御情報に従った移動を実施し、
前記カメラ制御部は、前記カメラ部を制御して前記第2の撮影画像を取得し、
前記変換式算出部は、前記基準画像、前記第2の撮影画像、前記カメラの内部パラメータ情報及び前記移動制御情報に基づき、前記基準画像及び第2の撮影画像に関する第2の変換式を算出し、
前記駆動制御部は、前記算出された第2の変換式に基づき、自装置を前記基準画像が撮影された際の位置及び方向に移動する、請求項2に記載のセンサ装置。
The camera control unit controls the camera unit to acquire the first captured image,
The conversion formula calculation unit calculates a first conversion formula for the reference image and the first captured image based on the reference image, the first captured image, and internal parameter information of the camera,
The drive control unit performs movement according to the movement control information,
The camera control unit controls the camera unit to obtain the second captured image,
The conversion equation calculation unit calculates a second conversion equation for the reference image and the second captured image based on the reference image, the second captured image, internal parameter information of the camera, and the movement control information. ,
3. The sensor device according to claim 2, wherein the drive control unit moves the device based on the calculated second conversion formula to a position and a direction when the reference image is captured. 4.
前記変換式算出部が算出する変換式は、自装置の回転移動に関する情報と、自装置の平行移動に関する情報と、を含む、請求項1乃至3のいずれか一項に記載のセンサ装置。   4. The sensor device according to claim 1, wherein the conversion formula calculated by the conversion formula calculation unit includes information on a rotational movement of the own device and information on a parallel movement of the own device. 5. 前記変換式算出部は、
前記移動制御情報を用いて、前記第1の撮影画像を取得する際の位置及び方向から前記第2の撮影画像を取得する際の位置及び方向への平行移動を規定するスケールファクタを算出する、請求項3を引用する請求項4に記載のセンサ装置。
The conversion formula calculation unit,
Using the movement control information, calculating a scale factor that defines a translation from the position and the direction at the time of acquiring the first captured image to the position and the direction at the time of acquiring the second captured image, The sensor device according to claim 4, wherein the sensor device according to claim 3 is cited.
センサを含むセンサ部と、
前記センサ部を制御してセンサ情報を取得する、センサ制御部と、をさらに備える、請求項1乃至5のいずれか一項に記載のセンサ装置。
A sensor unit including a sensor;
The sensor device according to claim 1, further comprising: a sensor control unit configured to control the sensor unit to acquire sensor information.
前記センサの位置を可変とするセンサ駆動部と、
前記センサ駆動部を制御する、センサ駆動制御部と、をさらに備える、請求項6に記載のセンサ装置。
A sensor drive unit that changes the position of the sensor,
The sensor device according to claim 6, further comprising: a sensor drive control unit that controls the sensor drive unit.
前記変換式算出部は、
複数のセンシング対象それぞれに対応する複数の前記基準画像のなかから、前記撮影画像に対応する基準画像を、前記撮影画像と前記複数の基準画像のそれぞれから算出される特徴点の数に基づき選択する、請求項1乃至7のいずれか一項に記載のセンサ装置。
The conversion formula calculation unit,
From among the plurality of reference images corresponding to each of the plurality of sensing targets, a reference image corresponding to the captured image is selected based on the number of feature points calculated from each of the captured image and the plurality of reference images. The sensor device according to any one of claims 1 to 7.
カメラを含むカメラ部と、
自装置を移動するための装置駆動部と、
を備えるセンサ装置において、
少なくとも前記カメラ部により撮影された撮影画像と予め取得された基準画像に基づき、前記撮影画像が取得された際のカメラの視点を、前記基準画像が取得された際のカメラの視点に変換するための変換式を算出するステップと、
前記変換式に基づき、前記撮影画像が撮影された際のセンシング対象に対する自装置の位置及び方向から、前記基準画像が撮影された際の位置及び方向に自装置を移動するステップと、
を含むセンサ装置の制御方法。
A camera section including a camera,
A device drive unit for moving the own device,
In a sensor device comprising:
Based on at least a captured image captured by the camera unit and a previously acquired reference image, a viewpoint of the camera when the captured image is acquired is converted into a viewpoint of the camera when the reference image is acquired. Calculating a conversion formula of
Based on the conversion formula, from the position and direction of the own device with respect to the sensing target when the captured image was captured, moving the own device to the position and direction when the reference image was captured,
A control method for a sensor device including:
カメラを含むカメラ部と、
自装置を移動するための装置駆動部と、
を備えるセンサ装置に搭載されたコンピュータに、
少なくとも前記カメラ部により撮影された撮影画像と予め取得された基準画像に基づき、前記撮影画像が取得された際のカメラの視点を、前記基準画像が取得された際のカメラの視点に変換するための変換式を算出する処理と、
前記変換式に基づき、前記撮影画像が撮影された際のセンシング対象に対する自装置の位置及び方向から、前記基準画像が撮影された際の位置及び方向に自装置を移動する処理と、
を実行させるプログラム。
A camera section including a camera,
A device drive unit for moving the own device,
A computer mounted on a sensor device having
Based on at least a captured image captured by the camera unit and a previously acquired reference image, a viewpoint of the camera when the captured image is acquired is converted into a viewpoint of the camera when the reference image is acquired. Processing for calculating the conversion formula of
Based on the conversion formula, from the position and direction of the own device with respect to the sensing target when the captured image was taken, a process of moving the own device to the position and direction when the reference image was taken,
A program that executes
JP2018188856A 2018-10-04 2018-10-04 SENSOR DEVICE, SENSOR DEVICE CONTROL METHOD AND PROGRAM Active JP7120620B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018188856A JP7120620B2 (en) 2018-10-04 2018-10-04 SENSOR DEVICE, SENSOR DEVICE CONTROL METHOD AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018188856A JP7120620B2 (en) 2018-10-04 2018-10-04 SENSOR DEVICE, SENSOR DEVICE CONTROL METHOD AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2020057983A true JP2020057983A (en) 2020-04-09
JP7120620B2 JP7120620B2 (en) 2022-08-17

Family

ID=70107745

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018188856A Active JP7120620B2 (en) 2018-10-04 2018-10-04 SENSOR DEVICE, SENSOR DEVICE CONTROL METHOD AND PROGRAM

Country Status (1)

Country Link
JP (1) JP7120620B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012044581A (en) * 2010-08-23 2012-03-01 Nippon Signal Co Ltd:The Camera for patrol inspection and method for photographing image for patrol inspection
JP2017045166A (en) * 2015-08-25 2017-03-02 キヤノン株式会社 Workpiece processing method, method for creating reference image, reference image creation device, workpiece processing device, program, and recording medium
WO2018038152A1 (en) * 2016-08-24 2018-03-01 コニカミノルタ株式会社 Gas measurement system and gas measurement program
JP2018032991A (en) * 2016-08-24 2018-03-01 富士通株式会社 Image display unit, image display method and computer program for image display

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012044581A (en) * 2010-08-23 2012-03-01 Nippon Signal Co Ltd:The Camera for patrol inspection and method for photographing image for patrol inspection
JP2017045166A (en) * 2015-08-25 2017-03-02 キヤノン株式会社 Workpiece processing method, method for creating reference image, reference image creation device, workpiece processing device, program, and recording medium
WO2018038152A1 (en) * 2016-08-24 2018-03-01 コニカミノルタ株式会社 Gas measurement system and gas measurement program
JP2018032991A (en) * 2016-08-24 2018-03-01 富士通株式会社 Image display unit, image display method and computer program for image display

Also Published As

Publication number Publication date
JP7120620B2 (en) 2022-08-17

Similar Documents

Publication Publication Date Title
Attard et al. Tunnel inspection using photogrammetric techniques and image processing: A review
CN108171733B (en) Method of registering two or more three-dimensional 3D point clouds
Xie et al. Automatic multi-image stitching for concrete bridge inspection by combining point and line features
Acharya et al. BIM-Tracker: A model-based visual tracking approach for indoor localisation using a 3D building model
KR20150116777A (en) Context-aware object detection in aerial photographs/videos using travel path metadata
US10930013B2 (en) Method and system for calibrating imaging system
JP2015201192A (en) Detection of object position and direction
JP2004334819A (en) Stereo calibration device and stereo image monitoring device using same
JPWO2017119202A1 (en) Structure identifying device and method for structure
JP6524529B2 (en) Building limit judging device
Hoegner et al. Mobile thermal mapping for matching of infrared images with 3D building models and 3D point clouds
US11741631B2 (en) Real-time alignment of multiple point clouds to video capture
KR102542556B1 (en) Method and system for real-time detection of major vegetation in wetland areas and location of vegetation objects using high-resolution drone video and deep learning object recognition technology
KR20190087338A (en) Method for Automatic Construction of Numerical Digital Map and High Definition Map
JP2019032218A (en) Location information recording method and device
Scaioni et al. Image-based deformation measurement
CN114726978A (en) Information processing apparatus, information processing method, and program
CN113701750A (en) Fusion positioning system of underground multi-sensor
Knyaz et al. Joint geometric calibration of color and thermal cameras for synchronized multimodal dataset creating
US10705217B2 (en) Controlling multiple imaging sensors
Baeck et al. Drone based near real-time human detection with geographic localization
JP7120620B2 (en) SENSOR DEVICE, SENSOR DEVICE CONTROL METHOD AND PROGRAM
JP2007200364A (en) Stereo calibration apparatus and stereo image monitoring apparatus using the same
KR20170001448A (en) Apparatus for measuring position of camera using stereo camera and method using the same
KR20120108277A (en) Method for localizing intelligent mobile robot by using both natural landmark and artificial landmark

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220728

R150 Certificate of patent or registration of utility model

Ref document number: 7120620

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150