JP2020057983A - Sensor device, sensor device control method, and program - Google Patents
Sensor device, sensor device control method, and program Download PDFInfo
- Publication number
- JP2020057983A JP2020057983A JP2018188856A JP2018188856A JP2020057983A JP 2020057983 A JP2020057983 A JP 2020057983A JP 2018188856 A JP2018188856 A JP 2018188856A JP 2018188856 A JP2018188856 A JP 2018188856A JP 2020057983 A JP2020057983 A JP 2020057983A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- sensor
- unit
- image
- conversion formula
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 35
- 238000006243 chemical reaction Methods 0.000 claims abstract description 104
- 238000004364 calculation method Methods 0.000 claims abstract description 57
- 238000012545 processing Methods 0.000 claims description 37
- 238000013519 translation Methods 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 10
- 230000007246 mechanism Effects 0.000 abstract description 9
- 230000004048 modification Effects 0.000 description 37
- 238000012986 modification Methods 0.000 description 37
- 238000007689 inspection Methods 0.000 description 26
- 230000036544 posture Effects 0.000 description 21
- 238000010586 diagram Methods 0.000 description 18
- 238000004891 communication Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 239000011159 matrix material Substances 0.000 description 8
- 230000000052 comparative effect Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 230000002159 abnormal effect Effects 0.000 description 3
- 230000005856 abnormality Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000002360 preparation method Methods 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 241001522296 Erithacus rubecula Species 0.000 description 1
- 101100412093 Schizosaccharomyces pombe (strain 972 / ATCC 24843) rec16 gene Proteins 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002431 foraging effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
Abstract
Description
本発明は、センサ装置、センサ装置の制御方法及びプログラムに関する。 The present invention relates to a sensor device, a control method for the sensor device, and a program.
工場、オフィスビル、公共施設、インフラ、プラント等の場所では、設備の老朽化や異変に関する点検が日常的に行われる。このような点検により、工場等における安全性や機能が維持され、継続的な運用が可能となっている。 In places such as factories, office buildings, public facilities, infrastructure, and plants, inspections for aging and abnormalities of equipment are performed on a daily basis. Such inspections maintain safety and functions in factories and the like, and enable continuous operation.
近年ではIoT(Internet of Things)技術を活用した取り組みが進んでおり、無線通信機能を持ったセンサ装置が点検対象の設備の周辺に設置されている。当該センサ装置は、センサ情報を取得し、当該センサ情報を無線通信によってサーバに送信する。サーバには、各センサ装置からのセンサ情報が集約され、サーバが当該集約されたセンサ情報を分析することで対象設備が正常か異常かを判断する。このようにして点検作業の自動化を行っている。 In recent years, efforts have been made to utilize IoT (Internet of Things) technology, and a sensor device having a wireless communication function is installed around a facility to be inspected. The sensor device acquires the sensor information and transmits the sensor information to the server by wireless communication. The server collects sensor information from each sensor device, and the server analyzes the collected sensor information to determine whether the target equipment is normal or abnormal. In this way, the inspection work is automated.
上記説明したように、点検作業が自動化される一方で、センサ装置による自動点検をシステムに導入するには以下のような問題があり、これらの問題がシステム導入の障壁となっている。 As described above, while the inspection work is automated, introducing the automatic inspection by the sensor device into the system has the following problems, and these problems are barriers to the introduction of the system.
第1の問題は、点検対象の設備の数に応じて必要なセンサ装置の数が増加しコストが増加する点である。 The first problem is that the number of necessary sensor devices increases according to the number of facilities to be inspected and the cost increases.
第2の問題は、脱落の可能性等の安全性の観点やスペースの制約の観点により、センサ装置を点検対象の設備周辺に後付けできない点である。 The second problem is that the sensor device cannot be retrofitted around the equipment to be inspected from the viewpoint of safety such as the possibility of falling off or the restriction of space.
第3の問題は、センサ装置の電源を確保できない点である。 A third problem is that a power supply for the sensor device cannot be secured.
第4の問題は、設備を点検するために設置したセンサ装置自体の点検が必要な点である。 The fourth problem is that it is necessary to inspect the sensor device itself installed for inspecting the equipment.
上記問題を解決するための方法として、センサ装置を移動させ点検対象の設備に関する情報を取得する方法が存在する(図17参照)。 As a method for solving the above problem, there is a method of moving the sensor device and acquiring information on the equipment to be inspected (see FIG. 17).
本書において、点検対象の設備にセンサ装置を取り付ける方式を「センサ固定型の点検方式」、あるいは、単に「固定型」と表記する。対して、センサ装置自身を移動させる方式を「センサ移動型の点検方法」、あるいは、単に「移動型」と表記する。 In this document, the method of attaching the sensor device to the equipment to be inspected is referred to as "sensor-fixed type inspection method" or simply "fixed type". On the other hand, a method of moving the sensor device itself is referred to as a "sensor moving type inspection method" or simply as a "moving type".
センサ移動型の点検方法に用いられる移動型センサ装置は、装置全体を移動するための車輪等の装置駆動部と、センサ位置を精密(正確)に決めるためのアームロボット等のセンサ駆動部を有する。 The mobile sensor device used in the sensor-moving inspection method has a device drive unit such as a wheel for moving the entire device, and a sensor drive unit such as an arm robot for accurately (accurately) determining a sensor position. .
特許文献1乃至3には、人が手にもって撮影するカメラのための手法であって、基準画像をライブビューに重畳表示し、人の判断(操作)によって基準画像とライブビューが重なるようにカメラを移動させる方法が開示されている。つまり、特許文献1乃至3には、カメラを用いた対象の撮影に関し、基準画像と同一視点、同一方向からの撮影を容易にする手法が開示されている。
なお、上記先行技術文献の各開示を、本書に引用をもって繰り込むものとする。以下の分析は、本発明者らによってなされたものである。 The disclosures of the above prior art documents are incorporated herein by reference. The following analysis has been made by the present inventors.
上述のように、センサを用いた設備点検では、繰り返しセンサ情報が収集される。具体的には、点検対象が正常状態におけるセンサ情報が予め収集される。当該収集されたセンサ情報(過去の取得された情報)とセンサ装置により取得された最新の情報が比較され、過去の情報からの外れ値や変化点の有無を検出することで点検対象の状態(正常、異常)が判定される。 As described above, in equipment inspection using a sensor, sensor information is repeatedly collected. Specifically, sensor information when the inspection target is in a normal state is collected in advance. The collected sensor information (past acquired information) and the latest information acquired by the sensor device are compared, and by detecting outliers or change points from the past information, the state of the inspection target ( (Normal, abnormal) is determined.
従って、固定型、移動型を問わず、取得するセンサ情報の取得条件には一貫性が要求される。そのため、センサ移動型の点検方法を採用する場合には、センサ装置は、常時、同じ位置姿勢でセンサ情報を取得する必要がある。より具体的には、センサ装置は、センシング対象(点検対象)となっている部位に対して、センサを同じ位置及び角度(方向)に設置し当該設置されたセンサから情報を取得する必要がある。 Therefore, regardless of whether it is a fixed type or a mobile type, the acquisition conditions of the acquired sensor information need to be consistent. Therefore, when the sensor moving type inspection method is adopted, the sensor device needs to always acquire the sensor information at the same position and orientation. More specifically, the sensor device needs to install the sensor at the same position and angle (direction) with respect to the part to be sensed (inspection object) and acquire information from the installed sensor. .
例えば、モータを搭載した工作機械の点検を設備の振動情報によって行う場合、点検対象となる設備の機構の影響を受け、センサを設置する位置によって振動の特性(周波数、振幅)が異なる。また、振動は方向を持つ物理量であるため、例えば、マイクをセンサとして用いると、振動源に対するマイクの角度(マイクの姿勢)に応じて取得されるセンサ情報の特徴が変化する。 For example, when an inspection of a machine tool equipped with a motor is performed based on vibration information of equipment, the characteristics (frequency, amplitude) of the vibration differ depending on the position where the sensor is installed, affected by the mechanism of the equipment to be inspected. In addition, since vibration is a physical quantity having a direction, when a microphone is used as a sensor, for example, the characteristics of sensor information obtained according to the angle of the microphone with respect to the vibration source (the attitude of the microphone) change.
上記のような事情から、異なる位置、異なる姿勢で取得したセンサ情報を用いて設備の異常を判断することは困難である。即ち、センシング対象に対してセンサが設定される位置、角度がデータの取得のたびに異なっていると、当該取得したデータを用いた設備の状態判定(正常状態、異常状態)は困難となる。 Under the circumstances described above, it is difficult to determine the abnormality of the equipment using the sensor information acquired at different positions and different postures. That is, if the position and angle at which the sensor is set with respect to the sensing target are different each time data is acquired, it becomes difficult to determine the state of the equipment (normal state, abnormal state) using the acquired data.
固定型の場合、センサの設置位置が固定されているため、毎回同じ位置姿勢のセンサ情報を取得できるのに対し、移動型はセンサ装置自身が動くため、センサ情報を取得するたびに取得位置姿勢が変わる可能性がある。また、このようなセンサの位置姿勢と当該センサから得られるデータ(センサデータ)の関係に関する問題は、設備点検に限らず、移動型センサによるモニタリングシステム全般において生じる可能性がある。 In the case of the fixed type, the installation position of the sensor is fixed, so that the sensor information of the same position and orientation can be acquired every time, whereas in the case of the movable type, the sensor device itself moves, so the acquired position and orientation each time the sensor information is acquired May change. Further, such a problem relating to the relationship between the position and orientation of the sensor and data (sensor data) obtained from the sensor may occur not only in equipment inspection but also in the entire monitoring system using a mobile sensor.
上述のように、特許文献1乃至3には、基準画像と同一視点、同一方向からの撮影を容易にする手法が提案されている。しかし、これらの文献に開示された手法は、人が把持して撮影するカメラのための手法であり、カメラの位置合わせは人の操作で行われている。従って、特許文献1乃至3に開示された手法では、人の操作がなければ基準画像と同一の視点で対象を撮影できない。
As described above,
本発明は、センサ情報を取得するタイミングによらず、センサをセンシング対象に対して同じ位置及び同じ方向に設定することに寄与するセンサ装置、センサ装置の制御方法及びプログラムを提供することを主たる目的とする。 A main object of the present invention is to provide a sensor device, a control method of a sensor device, and a program that contribute to setting a sensor at the same position and the same direction with respect to a sensing target regardless of the timing of acquiring sensor information. And
本発明乃至開示の第1の視点によれば、カメラを含むカメラ部と、前記カメラ部を制御して画像を取得する、カメラ制御部と、自装置を移動するための装置駆動部と、前記装置駆動部を制御して自装置を移動する、駆動制御部と、少なくとも前記カメラ部により撮影された撮影画像と予め取得された基準画像に基づき、前記撮影画像が取得された際のカメラの視点を、前記基準画像が取得された際のカメラの視点に変換するための変換式を算出する、変換式算出部と、を備え、前記駆動制御部は、前記変換式に基づき、前記撮影画像が撮影された際のセンシング対象に対する自装置の位置及び方向から、前記基準画像が撮影された際の位置及び方向に自装置を移動する、センサ装置が提供される。 According to a first aspect of the present invention or a disclosure, a camera unit including a camera, a camera control unit that controls the camera unit to acquire an image, a device driving unit that moves the own device, A drive control unit that controls the device drive unit to move the own device, and a viewpoint of the camera when the captured image is acquired based on at least a captured image captured by the camera unit and a previously acquired reference image. A conversion formula calculation unit for calculating a conversion formula for converting the reference image into the viewpoint of the camera when the reference image is obtained, the drive control unit, based on the conversion formula, A sensor device is provided, which moves its own device from the position and direction of the own device with respect to the sensing target when the image was taken to the position and direction when the reference image was taken.
本発明乃至開示の第2の視点によれば、カメラを含むカメラ部と、自装置を移動するための装置駆動部と、を備えるセンサ装置において、少なくとも前記カメラ部により撮影された撮影画像と予め取得された基準画像に基づき、前記撮影画像が取得された際のカメラの視点を、前記基準画像が取得された際のカメラの視点に変換するための変換式を算出するステップと、前記変換式に基づき、前記撮影画像が撮影された際のセンシング対象に対する自装置の位置及び方向から、前記基準画像が撮影された際の位置及び方向に自装置を移動するステップと、を含むセンサ装置の制御方法が提供される。 According to a second aspect of the present invention or a disclosure, in a sensor device including a camera unit including a camera and an apparatus driving unit for moving the own apparatus, at least a captured image captured by the camera unit A step of calculating a conversion formula for converting a viewpoint of the camera when the captured image is obtained into a viewpoint of the camera when the reference image is obtained, based on the obtained reference image; and Moving the subject device from the position and direction of the subject device relative to the sensing target when the photographed image was taken to the position and direction when the reference image was taken. A method is provided.
本発明乃至開示の第3の視点によれば、カメラを含むカメラ部と、自装置を移動するための装置駆動部と、を備えるセンサ装置に搭載されたコンピュータに、少なくとも前記カメラ部により撮影された撮影画像と予め取得された基準画像に基づき、前記撮影画像が取得された際のカメラの視点を、前記基準画像が取得された際のカメラの視点に変換するための変換式を算出する処理と、前記変換式に基づき、前記撮影画像が撮影された際のセンシング対象に対する自装置の位置及び方向から、前記基準画像が撮影された際の位置及び方向に自装置を移動する処理と、を実行させるプログラムが提供される。
なお、このプログラムは、コンピュータが読み取り可能な記憶媒体に記録することができる。記憶媒体は、半導体メモリ、ハードディスク、磁気記録媒体、光記録媒体等の非トランジェント(non-transient)なものとすることができる。本発明は、コンピュータプログラム製品として具現することも可能である。
According to a third aspect of the present invention or a disclosure, a computer mounted on a sensor device including a camera unit including a camera, and a device driving unit for moving the own device, is photographed by at least the camera unit. Processing for calculating a conversion formula for converting a viewpoint of a camera when the captured image is obtained into a viewpoint of the camera when the reference image is obtained, based on the captured image and a previously acquired reference image. And, based on the conversion formula, a process of moving the own device from the position and direction of the own device with respect to the sensing target when the captured image is captured to the position and direction when the reference image is captured. A program to be executed is provided.
This program can be recorded on a computer-readable storage medium. The storage medium can be non-transient, such as a semiconductor memory, hard disk, magnetic recording medium, optical recording medium, and the like. The present invention can be embodied as a computer program product.
本発明乃至開示の各視点によれば、センサ情報を取得するタイミングによらず、センサをセンシング対象に対して同じ位置及び同じ方向に設定することに寄与するセンサ装置、センサ装置の制御方法及びプログラムが、提供される。 According to the aspects of the present invention and the disclosure, a sensor device, a control method of a sensor device, and a program that contribute to setting a sensor at the same position and the same direction with respect to a sensing target regardless of the timing of acquiring sensor information Is provided.
初めに、一実施形態の概要について説明する。なお、この概要に付記した図面参照符号は、理解を助けるための一例として各要素に便宜上付記したものであり、この概要の記載はなんらの限定を意図するものではない。また、各図におけるブロック間の接続線は、双方向及び単方向の双方を含む。一方向矢印については、主たる信号(データ)の流れを模式的に示すものであり、双方向性を排除するものではない。さらに、本願開示に示す回路図、ブロック図、内部構成図、接続図などにおいて、明示は省略するが、入力ポート及び出力ポートが各接続線の入力端及び出力端のそれぞれに存在する。入出力インターフェイスも同様である。 First, an outline of an embodiment will be described. It should be noted that the reference numerals in the drawings attached to this outline are added for convenience of each element as an example for facilitating understanding, and the description of this outline is not intended to limit the invention in any way. Further, connection lines between blocks in each drawing include both bidirectional and unidirectional. The one-way arrow schematically indicates the flow of a main signal (data), and does not exclude bidirectionality. Further, in a circuit diagram, a block diagram, an internal configuration diagram, a connection diagram, and the like shown in the disclosure of the present application, although not explicitly shown, an input port and an output port exist at an input terminal and an output terminal of each connection line. The same applies to the input / output interface.
一実施形態に係るセンサ装置100は、カメラ部101と、カメラ制御部102と、装置駆動部103と、駆動制御部104と、変換式算出部105と、を備える(図1参照)。カメラ部101は、カメラを含む。カメラ制御部102は、カメラ部101を制御して画像を取得する。装置駆動部103は、自装置を移動するための機構(手段)である。駆動制御部104は、装置駆動部103を制御して自装置を移動する。変換式算出部105は、少なくともカメラ部101により撮影された撮影画像と予め取得された基準画像に基づき、撮影画像が取得された際のカメラの視点を、基準画像が取得された際のカメラの視点に変換するための変換式を算出する。駆動制御部104は、当該変換式に基づき、撮影画像が撮影された際のセンシング対象に対する自装置の位置及び方向から、基準画像が撮影された際の位置及び方向に自装置を移動する。
The sensor device 100 according to one embodiment includes a
センサ装置100は、移動型センサ装置であって、センサ情報取得時(基準画像取得時)の位置姿勢を再現する装置である。センサ装置100の利用に先立ち、事前の準備として予めセンサ装置100は、センサ情報を取得する際の(装置としての)位置姿勢を決定する。具体的には、センサ装置100は、センサからセンサ情報を取得する位置姿勢(センシング対象に対する自装置の位置及び方向)を定める。また、当該位置姿勢にてカメラから取得された画像が「基準画像」として扱われる。センサ装置100の通常動作時(対象の点検時)には、センサ装置100は、カメラから得られる撮影画像と基準画像を照合し、現在のカメラ位置姿勢と基準画像を撮影したカメラ位置姿勢の関係を算出する(変換式を算出する)。センサ装置100は、装置駆動部103によって上記変換式により表現される関係に相当する移動を行って自装置の位置姿勢を、基準画像を撮影した状態に一致させる。その後、センサ装置100は、予め決めたセンサの移動制御を行うことでセンサ位置姿勢を再現する。
The sensor device 100 is a mobile sensor device that reproduces the position and orientation when sensor information is acquired (when a reference image is acquired). Prior to the use of the sensor device 100, the sensor device 100 determines the position and orientation (as the device) when acquiring sensor information in advance as preparation in advance. Specifically, the sensor device 100 determines the position and orientation at which sensor information is acquired from the sensor (the position and direction of the own device with respect to the sensing target). Further, an image acquired from the camera at the position and orientation is treated as a “reference image”. At the time of normal operation of the sensor device 100 (at the time of inspection of an object), the sensor device 100 collates the captured image obtained from the camera with the reference image, and determines the relationship between the current camera position and attitude and the camera position and attitude at which the reference image is captured. Is calculated (a conversion formula is calculated). The sensor device 100 performs a movement corresponding to the relationship expressed by the above conversion formula by the
以下に具体的な実施の形態について、図面を参照してさらに詳しく説明する。なお、各実施形態において同一構成要素には同一の符号を付し、その説明を省略する。 Hereinafter, specific embodiments will be described in more detail with reference to the drawings. In each embodiment, the same components are denoted by the same reference numerals, and description thereof will be omitted.
[第1の実施形態]
第1の実施形態について、図面を用いてより詳細に説明する。
[First Embodiment]
The first embodiment will be described in more detail with reference to the drawings.
[装置の構成]
図2は、第1の実施形態に係る移動型センサ装置10の内部構成の一例を示す図である。図2を参照すると、移動型センサ装置10は、カメラ部20と、装置駆動部30と、センサ駆動部40と、センサ部41と、操作部50と、表示部60と、制御部70と、各種記憶部と、を含んで構成される。移動型センサ装置10は、記憶部として、基準画像記憶部80と、センサ駆動量記憶部81と、カメラパラメータ記憶部82と、を備える。
[Device configuration]
FIG. 2 is a diagram illustrating an example of an internal configuration of the
制御部70は、操作部50をはじめとした各種処理モジュールに接続されており、移動型センサ装置10の全体を制御する手段である。
The
制御部70は、装置駆動制御部201と、カメラ制御部202と、位置姿勢変換式算出部203と、センサ駆動制御部204と、センサ制御部205と、からなるサブモジュールを含む。
The
装置駆動制御部201は、移動型センサ装置10の位置姿勢を決めるための移動機構である装置駆動部30を制御して移動型センサ装置10を移動する手段(処理モジュール)である。
The device
装置駆動部30は、移動型センサ装置10を移動するための手段(機構)である。装置駆動部30は、例えば、陸上移動するための車輪、多脚機構、キャタピラ、空中をホバリングするためのプロペラ、水上を移動するためのスクリュー、プロペラ等である。
The
なお、移動型センサ装置10の「位置姿勢」とは、点検対象の設備(センシング対象)等に対する移動型センサ装置10の位置及び方向(角度)を示す。即ち、点検対象と移動型センサ装置10の間の距離、点検対象に対する移動型センサ装置10の向く方向が、上記位置姿勢に相当する。
The “position and orientation” of the
カメラ制御部202は、カメラ部20を制御して画像(撮影画像)を取得するための手段である。カメラ部20は、例えば、監視カメラやWeB(ウェブ)カメラ、デジタルスチルカメラやデジタルカムコーダ等のカラー画像を取得するためのRGB(Red Green Blue)カメラ等を含む。あるいは、カメラ部20は、X線カメラ、赤外線カメラ、テラヘルツイメージングカメラ、ミリ波イメージングカメラ、マイクロ波イメージングカメラ等を含んで構成されていてもよい。
The
位置姿勢変換式算出部203は、少なくともカメラ部20により撮影された撮影画像と予め取得された基準画像に基づき、撮影画像と基準画像に関する変換式を算出するための手段(処理モジュール)である。なお、位置姿勢変換式とは、2つの画像が取得された際、当該2つの画像それぞれを取得した際の2つの視点を変換するための式である。例えば、画像(撮影画像)が取得された際のカメラの視点を、基準画像が取得された際のカメラの視点に変換することが位置姿勢変換式により表現される。あるいは、位置姿勢変換式は、ある画像を取得した際の移動型センサ装置10の位置姿勢(対象に対する距離、方向)を他の画像を取得した際の移動型センサ装置10の位置姿勢に変換する式と捉えることもできる。
The position and orientation conversion
位置姿勢変換式算出部203は、基準画像記憶部80に保存された基準画像と自装置が移動した後に撮影された画像をカメラ制御部202から受け取る。位置姿勢変換式算出部203は、基準画像と、複数の撮影画像(例えば、後述する第1及び第2の比較画像)と、移動制御情報と、カメラの内部パラメータ情報と、に基づき、位置姿勢変換式を計算する。なお、上記移動制御情報は、装置駆動部30が、一の撮影画像(第1の比較画像)を取得した位置及び方向から他の撮影画像(第2の比較画像)を取得した位置及び方向への自装置の移動に関する(移動を実現する)移動制御情報である。
The position and orientation conversion
装置駆動制御部201は、計算された位置姿勢変換式に基づき、移動型センサ装置10の位置姿勢(距離、方向)が基準画像を撮影したセンサ情報取得位置姿勢に一致するように装置駆動部30を制御する。つまり、装置駆動制御部201は、位置姿勢変換式に基づき、撮影画像が撮影された際のセンシング対象に対する自装置の位置及び方向から、基準画像が撮影された際の位置及び方向に自装置を移動する。
The device
基準画像記憶部80は、センサ情報を取得する位置で予め撮影された画像(基準画像)を記憶する。
The reference
カメラパラメータ記憶部82は、基準画像記憶部80に保存された基準画像を撮影したカメラの内部パラメータ情報を記憶する。例えば、カメラの内部パラメータには、水平軸と垂直軸それぞれのピクセル単位の焦点距離、カメラの画像中心座標、せん断係数等が含まれる。なお、カメラパラメータ記憶部82は、移動型センサ装置10に搭載されたカメラとは異なるカメラにて基準画像が撮影された場合には、当該基準画像を撮影したカメラとカメラ部20に含まれるカメラそれぞれの内部パラメータ情報を記憶する。
The camera
センサ駆動部40は、センサ部に含まれるセンサの位置を可変とする手段(機構)である。センサ駆動制御部204は、センサ部41の位置を移動させるための機構であるセンサ駆動部40の動作を制御する手段(処理モジュール)である。
The
センサ駆動部40は、例えば、アームロボット、クレーン、パンチルト、リニアガイド機構等である。センサ駆動制御部204は、装置駆動制御部201の制御によって移動型センサ装置10が基準画像時の撮影位置姿勢の状態に遷移した後、センサ駆動量記憶部81に予め記憶されたセンサ駆動量情報を参照してセンサ駆動部40を制御する。センサ駆動制御部204は、上記制御によりセンサ部41を移動する(センサ部41の位置姿勢を決定する)。
The
センサ駆動量記憶部81は、センサ駆動量情報を記憶する。センサ駆動量情報は、センサと対象の間の距離等に応じて定まる情報である。例えば、センサ部41の初期位置からセンサ部41を動作させる位置(センサ情報を取得する位置)までセンサ部41を移動させる距離等がセンサ駆動量情報に相当する。
The sensor drive
センサ制御部205は、センサ部41を制御してセンサ部41からのセンサ情報を取得する手段(処理モジュール)である。センサ部41は、例えば、加速度センサ、振動センサ、角速度センサ、マイク、電波センサ、電圧計、電流計、温度センサ、湿度センサ、赤外線センサ、LIDAR(Light Detection and Ranging)、距離計、カメラ、深度カメラ等の点検に利用するセンサを含む。
The
操作部50は、人が手動で移動型センサ装置10内部の機能を制御するための入力インターフェイスを制御する手段である。入力インターフェイスは、キーボード、マウス、スイッチ、タッチパネル等のデバイスのためのインターフェイスである。
The
表示部60は、移動型センサ装置10内部の情報を表示するための出力インターフェイスを制御する手段である。出力インターフェイスは、ディスプレイ、LED(Light Emitting Diode)等のデバイスのためのインターフェイスである。
The
[ハードウェア構成]
続いて、移動型センサ装置10のハードウェア構成について説明する。
[Hardware configuration]
Subsequently, a hardware configuration of the
図3は、移動型センサ装置10のハードウェア構成の一例を示す図である。移動型センサ装置10は、図3に例示する構成を備える。例えば、移動型センサ装置10は、内部バスにより相互に接続される、CPU(Central Processing Unit)11、メモリ12、入力インターフェイス13、出力インターフェイス14等を備える。なお、図3において、センサ、カメラ、移動のための駆動源(例えば、モータ等)等の図示を省略している。
FIG. 3 is a diagram illustrating an example of a hardware configuration of the
但し、図3に示す構成は、移動型センサ装置10のハードウェア構成を限定する趣旨ではない。移動型センサ装置10は、図示しないハードウェアを含んでもよい。移動型センサ装置10に含まれるCPU等の数も図3の例示に限定する趣旨ではなく、例えば、複数のCPU11が移動型センサ装置10に含まれていてもよい。
However, the configuration shown in FIG. 3 is not intended to limit the hardware configuration of the
メモリ12は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ、DRAM(Dynamic Random Access Memory)、SRAM(Static Random Access Memory)等の記憶媒体である。
The
入力インターフェイス13は、図示しない入力装置のインターフェイスである。入力装置には、例えば、操作デバイスが含まれる。操作デバイスは、例えば、キーボードやマウス等である。
The
出力インターフェイス14は、図示しない出力装置のインターフェイスである。出力装置には、例えば、表示装置が含まれる。表示装置は、例えば、液晶ディスプレイ等である。
The
移動型センサ装置10の機能は、上述の処理モジュールにより実現される。当該処理モジュールは、例えば、メモリ12に格納されたプログラムをCPU11が実行することで実現される。また、そのプログラムは、ネットワークを介してダウンロードするか、あるいは、プログラムを記憶した記憶媒体を用いて、更新することができる。さらに、上記処理モジュールは、半導体チップにより実現されてもよい。即ち、上記処理モジュールが行う機能は、何らかのハードウェア、或いはハードウェアを利用して実行されるソフトウェアにより実現できればよい。
The function of the
[動作の説明]
続いて、第1の実施形態に係る移動型センサ装置10の動作について図面を参照しつつ説明する。初めに、事前準備として基準画像の撮影とカメラパラメータの記憶を行う。当該作業は、オペレータが手動でマウス等を操作して行う。
[Description of operation]
Next, the operation of the
操作部50を介したユーザからの指示により、移動型センサ装置10は、装置駆動部30とセンサ駆動部40を制御して装置自身やセンサ部41を移動する。その後、移動型センサ装置10は、カメラ部20で撮影される画像やセンサ部41で取得されるセンサ情報を出力インターフェイス(ディスプレイ)に表示する。
In response to an instruction from the user via the
オペレータは、当該表示を視認(確認)しながら、センサ情報の取得位置姿勢(基準画像取得位置姿勢)を決定する。センサ情報の取得位置姿勢が定まったら、オペレータは、その旨を移動型センサ装置10に入力する(入力インターフェイスを操作して入力する)。 The operator determines the acquisition position and orientation of the sensor information (reference image acquisition position and orientation) while visually confirming (checking) the display. When the acquisition position and orientation of the sensor information are determined, the operator inputs that fact to the mobile sensor device 10 (input by operating the input interface).
移動型センサ装置10は、センサ情報の取得位置姿勢にて画像を撮影し、当該画像を「基準画像」として基準画像記憶部80に格納する。移動型センサ装置10は、センサ情報の取得位置にセンサ部41を設定(移動)させるための駆動量を「センサ駆動量」としてセンサ駆動量記憶部81に格納する。なお、センサ駆動量は基準画像に関連付けて保存される。例えば、基準画像の識別子を用いてセンサ駆動量と基準画像を関連付ける。
The
移動型センサ装置10は、基準画像撮影時におけるカメラ(カメラ部20に含まれるカメラ)の内部パラメータ情報をカメラパラメータ記憶部82に保存する。カメラの内部パラメータ情報は、カメラに固有のパラメータであり、参考文献1に記載された(3・3)式で表されるパラメータである。なお、本願開示の参考文献は第1の実施形態の末尾に列挙している。
The
カメラの内部パラメータ情報は、カメラの仕様書に記載されている値を使用するか、又は、参考文献1の3−2節に記載されたカメラキャリブレーションによって算出される。キャリブレーションの具体的な実装としては、参考文献2に記載のOpenCVのCalibrateCamera2が利用できる。
The internal parameter information of the camera uses a value described in the specification of the camera or is calculated by camera calibration described in section 3-2 of
図4は、第1の実施形態に係る移動型センサ装置10の動作の一例を示すフローチャートである。図4には、移動型センサ装置10がセンサ情報取得位置姿勢(基準画像取得位置姿勢)を再現する処理が記載されている。
FIG. 4 is a flowchart illustrating an example of the operation of the
ステップS01において、カメラ制御部202がカメラ部20を制御し、画像を取得する。当該画像を「比較画像I1」とする。
In step S01, the
ステップS02において、位置姿勢変換式算出部203が、比較画像I1と、基準画像と、カメラの内部パラメータと、を用いて、基準画像と比較画像I1の位置姿勢変換式を計算する。
In step S02, the position / posture conversion
当該位置姿勢変換式の計算は、参考文献1に記載された方法により行うことができる。
The calculation of the position and orientation conversion equation can be performed by the method described in
初めに、位置姿勢変換式算出部203は、参考文献1に記載の(3・7)式から3×3の基礎行列Fを求める。基礎行列Fは、2つの画像間で対応する点x1、x2の組み合わせが8点以上あれば算出可能である。また、対応点x1、x2は、参考文献3乃至12に開示されたような特徴点検出を行い、その後、参考文献13の総当たりマッチング、割合試験を実施することにより算出することができる。
First, the position and orientation conversion
その後、位置姿勢変換式算出部203は、参考文献1に記載の(3・12)式からE行列(Essential matrix;基本行列)を取得する。位置姿勢変換式算出部203は、E行列を特異値分解することで、カメラ間の位置姿勢変換式を示す3×1の平行移動ベクトルTと3×3の回転移動行列Rを取得する。なお、上記式(3・12)に記載のA1、A2はカメラの内部パラメータ情報である。
After that, the position and orientation conversion
ここで、2つの画像間の対応関係からカメラ間の位置姿勢変換式を求める場合、スケールが不定になる問題がある。つまり、上記得られる平行移動成分は、その方向(平行移動の方向)が定まったとしてもスケール(倍率)が不定である。 Here, when the position and orientation conversion equation between the cameras is obtained from the correspondence between the two images, there is a problem that the scale becomes indefinite. That is, the scale (magnification) of the obtained translation component is indefinite even if its direction (parallel translation direction) is determined.
ステップS02では、比較画像I1を撮影したカメラ座標系から基準画像を撮影したカメラ座標系に変換するための回転移動行列R01と平行移動ベクトルT01を得る(|T01|=1とする)。 In step S02, to obtain a translation vector T 01 and the rotation movement matrix R 01 for transforming a camera coordinate system were taken reference image from the camera coordinate system were taken comparative image I1 (| a = 1 | T 01) .
このように、位置姿勢変換式算出部203は、基準画像、比較画像I1(第1の撮影画像)及びカメラの内部パラメータ情報に基づき、基準画像及び比較画像I1に関する位置姿勢変換式を算出する。
As described above, the position and orientation conversion
移動型センサ装置10は、ステップS03以降の処理により平行移動成分のスケールを確定する。
The
ステップS03において、装置駆動制御部201は、装置駆動部30を制御して予め決められた移動(移動型センサ装置10の移動)を行う。具体的には、装置駆動制御部201は、最初の撮影画像(比較画像I1)を取得した位置及び方向から次の撮影画像(後述する比較画像I2)を取得する位置及び方向へ自装置を移動させるための移動制御情報に従い、自装置を移動させる。例えば、装置駆動制御部201は、「右方向に1m水平移動」等の予め定められた移動を行う。移動制御情報は、少なくとも、回転移動RC、平行移動TCを含む。
In step S03, the device
ステップS04において、カメラ制御部202がカメラ部20を制御し、画像を得る。当該画像を「比較画像I2」とする。
In step S04, the
ステップS05において、位置姿勢変換式算出部203が、比較画像I1及びI2と、基準画像と、カメラの内部パラメータ情報と、ステップS03における移動量(移動制御情報)を用いて、基準画像と比較画像I2の位置姿勢変換式を計算する。2つの画像間のカメラの位置姿勢変換式に関する計算はステップS02と同様とすることができる。
In step S05, the position / posture conversion
位置姿勢変換式算出部203は、平行移動成分のスケールを確定させるために、図5に示すような3つの画像の位置姿勢関係式を計算する。
The position and orientation conversion
図5に示すように、基準画像のカメラ視点をC0、比較画像I1のカメラ視点をC1、比較画像I2のカメラ視点をC2とする。また、カメラ視点Ciにおけるカメラ位置姿勢から、カメラ視点Cjのカメラ位置姿勢に変換するための回転移動をRji、平行移動をTji(|Tji|=1)、平行移動のスケールファクタをajiとする。なお、i、jはカメラ視点Cを特定するためのインデックスである。 As shown in FIG. 5, the camera viewpoint of the reference image C 0, the camera viewpoint of the comparison image I1 C 1, the camera viewpoint of the comparison image I2 and C 2. Further, R ji is a rotational movement for converting the camera position and orientation at the camera viewpoint C i into a camera position and orientation at the camera viewpoint C j , T ji is a translation movement (| T ji | = 1), and a scale factor of the parallel movement is Is a ji . Here, i and j are indexes for specifying the camera viewpoint C.
また、カメラ視点Ciのカメラ位置姿勢をカメラ視点Cjのカメラ位置姿勢に、移動型センサ装置10を移動させるための変換式(位置姿勢変換式)をMjiと表記する。図5には、3つの位置姿勢変換式M01、M21、M02が表記されている。
Further, a conversion formula (position / posture conversion formula) for moving the
位置姿勢変換式算出部203は、下記の式(1)〜(5)により、スケールファクタa21、a01、a02を求める。
The position and orientation conversion
[式1]
[Equation 1]
このように、位置姿勢変換式算出部203は、比較画像I1を取得した際の位置から比較画像I2を取得した位置までの移動量との対応関係からスケールファクタa21を求める。
Thus, the position and orientation conversion
[式2]
[Equation 2]
[式3]
[Equation 3]
[式4]
[Equation 4]
[式5]
[Equation 5]
位置姿勢変換式算出部203は、式(1)〜(5)の連立方程式を解くことで、スケールファクタa01、a02を求める。
The position and orientation conversion
ここで、測定値に誤差が含まれる場合には、単純に連立方程式により解が導出できない可能性がある。そのような場合には、位置姿勢変換式算出部203は、残差平方和を最小にするスケールファクタa01、a02を算出する。
Here, when the measurement value includes an error, there is a possibility that a solution cannot be derived simply by simultaneous equations. In such a case, the position and orientation conversion
具体的には、位置姿勢変換式算出部203は、下記の式(6)〜(9)を解くことで、スケールファクタa01、a02を得る。
Specifically, the position and orientation conversion
[式6]
[Equation 6]
なお、式(6)は式(5)をa01、a02の視点から書き換えた式である。従って、式(6)に示すkjiは、式(5)に記載されたT01、T02、R02、T21の各要素を集約した係数を示す。 Expression (6) is obtained by rewriting expression (5) from the viewpoints of a 01 and a 02 . Therefore, k ji shown in Expression (6) indicates a coefficient obtained by consolidating each element of T 01 , T 02 , R 02 , and T 21 described in Expression (5).
[式7]
[Equation 7]
[式8]
[Equation 8]
[式9]
[Equation 9]
図5において、ステップS05を実行時の移動型センサ装置10はカメラ視点C2の位置にあるので、移動型センサ装置10は、位置姿勢変換式M02に対応する移動制御を行うことで、カメラ視点を基準視点に一致(実質的に一致)させることができる。つまり、位置姿勢変換式算出部203が算出する位置姿勢変換式は、自装置の回転移動に関する情報と、自装置の平行移動に関する情報と、を含む。位置姿勢変換式M02は、比較画像I2を取得した位置姿勢(カメラ視点)を基準画像を取得した位置姿勢(カメラ視点)に変換する式であるので、当該変換式に従って移動型センサ装置10を回転、平行移動させると基準画像撮影時の位置姿勢が再現できる。
5, the
上記説明したように、2つの画像の比較ではスケールファクタが求まらない。しかし、移動型センサ装置10は、ステップS03にて使用する移動制御情報を用いて比較画像I1から比較画像I2への平行移動量のスケールファクタa21を求めることができる(式(1)参照)。即ち、位置姿勢変換式算出部203は、移動制御情報を用いて、比較画像I1を取得する際の位置姿勢から比較画像I2を取得する際の位置姿勢への平行移動を規定するスケールファクタa21を算出する。移動型センサ装置10は、スケールファクタa21を用いつつ、3つの画像を比較し、比較画像I2を撮影したカメラ位置姿勢(現在地)から基準画像を撮影したカメラ位置姿勢に移動するための回転移動R02、スケールが確定した平行移動a02T02を得る。
As described above, the scale factor is not determined by comparing the two images. However,
このように、位置姿勢変換式算出部203は、基準画像、比較画像I2、カメラの内部パラメータ情報及び移動制御情報に基づき、基準画像及び比較画像I2に関する位置姿勢変換式を算出する。
As described above, the position and orientation conversion
ステップS06において、装置駆動制御部201は装置駆動部30を制御して移動型センサ装置10を移動する。具体的には、装置駆動制御部201は、上記基準画像及び比較画像I2に関する位置姿勢変換式に基づき、自装置を基準画像が撮影された際の位置及び方向に移動する。より詳細には、装置駆動制御部201は、回転移動R02、平行移動a02T02に相当する移動の指示を装置駆動部30に行う。当該制御により、移動型センサ装置10は、基準画像を撮影したセンサ取得位置に移動する。
In step S06, the device
ステップS07において、センサ駆動制御部204は事前準備でセンサ駆動量記憶部81に記憶したセンサ駆動量に基づきセンサ駆動部40を制御し、センサ部41をセンサデータ取得位置姿勢の状態にする。
In step S07, the sensor
ステップS08において、センサ制御部205はセンサ部41からセンサ情報を取得する。
In step S08, the
以上のように、第1の実施形態に係る移動型センサ装置10は、基準画像と複数の撮影画像を用いて、移動型センサ装置10の位置姿勢を基準画像撮影時の位置姿勢に変更する。その結果、基準画像取得時(オペレータが決定したセンサ情報取得時)における移動型センサ装置10の位置姿勢(対象に対する距離、方向)が自動的に再現される。さらに、センサ移動型の点検方法における問題点(センサ取得位置姿勢条件に一貫性を持たせることが困難)が解消され、移動型センサ装置10のモニタリングにおける異常判定精度向上に貢献する。
As described above, the
また、カメラを利用したカメラ位置姿勢関係の推定にはスケールが確定しないという問題がある。当該問題に対して、第1の実施形態では、センサを移動する機能を持たせることで、自動的にセンサ取得位置に移動するという問題とスケールを確定するという問題を共に解決している。 In addition, the estimation of the camera position / posture relationship using a camera has a problem that the scale is not determined. In the first embodiment, by providing a function of moving the sensor, the first embodiment solves both the problem of automatically moving to the sensor acquisition position and the problem of determining the scale.
また、第1の実施形態に係る移動型センサ装置10を用いることで、センサ移動型の点検方法におけるメリット(点検対象の設備側の変更、改造等を要しないというメリット)も当然に享受できる。
In addition, by using the
[参考文献]
上記説明にて言及した各参考文献は以下のとおりである。
[参考文献1]電子情報通信学会「知識の森」2群-2編-3章3次元幾何解析
<URL:http://www.ieice-hbkb.org/>
[参考文献2]OpenCV カメラキャリブレーションと3次元構成
<URL:http://opencv.jp/opencv-2.1/cpp/camera_calibration_and_3d_reconstruction.html>
[参考文献3]
Ethan Rublee, Vincent Rabaud, Kurt Konolige, Gary R. Bradski, "ORB: An efficient alternative to SIFT or SURF”, ICCV 2011: 2564-2571.
<URL:http://www.willowgarage.com/sites/default/files/orb_final.pdf>
[参考文献4]
E. Mair他、"Adaptive and Generic Corner Detection Based on the Accelerated Segment Test"(2010),
<URL:http://www6.in.tum.de/Main/Publications/Mair2010c.pdf>
[参考文献5]
P. F. Alcantarilla他、"Fast Explicit Diffusion for Accerelated Features in Nonlinear Scale Spaces"(2013)
<URL:http://isit.u-clermont1.fr/~ab/Publications/Alcantarilla_etal_BMVC13.pdf>
[参考文献6]
S. Leutenegger他、"BRISK: Binary Robust Invariant Scalable Keypoints" (2011)
<URL:http://www.robots.ox.ac.uk/~vgg/rg/papers/brisk.pdf>
[参考文献7]
E. Rosten他、 "Machine Learning for High-Speed Corner Detection"(2006)
<URL:http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.60.3991&rep=rep1&type=pdf>
[参考文献8]
J. Shi他、"Good Features to Track"(1994)
<URL:https://users.cs.duke.edu/~tomasi/papers/shi/TR_93-1399_Cornell.pdf>
[参考文献9]
P. F. Alcantarilla他、"KAZE Features"(2012)
<URL:https://www.doc.ic.ac.uk/~ajd/Publications/alcantarilla_etal_eccv2012.pdf>
[参考文献10]
J. Matas他、"Robust Wide Baseline Stereo from Maximally Stable External Regions"(2002)
<URL:https://www.robots.ox.ac.uk/~vgg/research/affine/det_eval_files/matas_bmvc2002.pdf>
[参考文献11]
Lowe, D. (2004) Distinctive image features from scale-invariant keypoints. Int. Journal of Computer Vision. 60(2). pp.91-110.
<URL:https://www.robots.ox.ac.uk/~vgg/research/affine/det_eval_files/lowe_ijcv2004.pdf>
[参考文献12]
Bay, H., Ess, A., Tuytelaars, T. & Van Gool, L. (2008). SURF: Speeded Up Robust Features. Computer Vision and Image Understanding (CVIU). 110(3). pp.346--359.
<URL:ftp://ftp.vision.ee.ethz.ch/publications/articles/eth_biwi_00517.pdf>
[参考文献13]
OpenCV-Python Tutorials 特徴点マッチング
<URL:http://lang.sist.chukyo-u.ac.jp/classes/OpenCV/py_tutorials/py_feature2d/py_matcher/py_matcher.html>
[参考文献14]
OpenCV
<URL:https://docs.opencv.org/3.2.0/d9/d0c/group__calib3d.html#ga13f7e34de8fa516a686a56af1196247f>
[References]
The references cited in the above description are as follows.
[Reference 1] IEICE "Forest of Knowledge" 2nd group-2nd chapter-3rd chapter 3D geometric analysis <URL: http://www.ieice-hbkb.org/>
[Reference 2] OpenCV camera calibration and 3D configuration <URL: http://opencv.jp/opencv-2.1/cpp/camera_calibration_and_3d_reconstruction.html>
[Reference 3]
Ethan Rublee, Vincent Rabaud, Kurt Konolige, Gary R. Bradski, "ORB: An efficient alternative to SIFT or SURF", ICCV 2011: 2564-2571.
<URL: http://www.willowgarage.com/sites/default/files/orb_final.pdf>
[Reference 4]
E. Mair et al., "Adaptive and Generic Corner Detection Based on the Accelerated Segment Test" (2010),
<URL: http://www6.in.tum.de/Main/Publications/Mair2010c.pdf>
[Reference 5]
PF Alcantarilla et al., "Fast Explicit Diffusion for Accerelated Features in Nonlinear Scale Spaces" (2013)
<URL: http://isit.u-clermont1.fr/~ab/Publications/Alcantarilla_etal_BMVC13.pdf>
[Reference 6]
S. Leutenegger et al., "BRISK: Binary Robust Invariant Scalable Keypoints" (2011)
<URL: http://www.robots.ox.ac.uk/~vgg/rg/papers/brisk.pdf>
[Reference 7]
E. Rosten et al., "Machine Learning for High-Speed Corner Detection" (2006)
<URL: http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.60.3991&rep=rep1&type=pdf>
[Reference 8]
J. Shi et al., "Good Features to Track" (1994)
<URL: https://users.cs.duke.edu/~tomasi/papers/shi/TR_93-1399_Cornell.pdf>
[Reference 9]
PF Alcantarilla et al., "KAZE Features" (2012)
<URL: https://www.doc.ic.ac.uk/~ajd/Publications/alcantarilla_etal_eccv2012.pdf>
[Reference 10]
J. Matas et al., "Robust Wide Baseline Stereo from Maximally Stable External Regions" (2002)
<URL: https://www.robots.ox.ac.uk/~vgg/research/affine/det_eval_files/matas_bmvc2002.pdf>
[Reference 11]
Lowe, D. (2004) Distinctive image features from scale-invariant keypoints. Int. Journal of Computer Vision. 60 (2). Pp.91-110.
<URL: https://www.robots.ox.ac.uk/~vgg/research/affine/det_eval_files/lowe_ijcv2004.pdf>
[Reference Document 12]
Bay, H., Ess, A., Tuytelaars, T. & Van Gool, L. (2008) .SURF: Speeded Up Robust Features. Computer Vision and Image Understanding (CVIU). 110 (3) .pp.346-- 359.
<URL: ftp://ftp.vision.ee.ethz.ch/publications/articles/eth_biwi_00517.pdf>
[Reference 13]
OpenCV-Python Tutorials Feature point matching <URL: http://lang.sist.chukyo-u.ac.jp/classes/OpenCV/py_tutorials/py_feature2d/py_matcher/py_matcher.html>
[Reference 14]
OpenCV
<URL: https://docs.opencv.org/3.2.0/d9/d0c/group__calib3d.html#ga13f7e34de8fa516a686a56af1196247f>
[変形例]
上記実施形態にて説明した移動型センサ装置10の構成、動作は例示であって、装置の構成等を限定する趣旨ではない。
[Modification]
The configuration and operation of the
[変形例1]
図6は、第1の変形例に係る移動型センサ装置10の処理構成の一例を示す図である。例えば、点検に使用するセンサがカメラの場合があり得る。この場合、センサ部41、センサ制御部205は不要であり、カメラ制御部202がカメラ部20を制御し、カメラをセンサとして機能させる。また、センサ駆動部40は、カメラ部20を移動する(カメラ部20の位置を変更する)。あるいは、センサ駆動部40によるカメラ部の移動に代えて、カメラ制御部202がカメラのズーム機能を用いるようにカメラ部20を制御してもよい。
[Modification 1]
FIG. 6 is a diagram illustrating an example of a processing configuration of the
[変形例2]
図7は、第2の変形例に係る移動型センサ装置10の処理構成の一例を示す図である。例えば、センサ部41に使用するセンサの種類が、カメラや距離計等の非接触型センサの場合があり得る。この場合、センサ駆動部40にてセンサの位置を制御する必要がない。移動型センサ装置10には、センサ駆動制御部204、センサ駆動量記憶部81、センサ駆動部40は不要となる。また、このような移動型センサ装置10を用いる場合、事前準備では、センサの位置合わせは不要であり、図4に示すステップS07の処理は実行されない。
[Modification 2]
FIG. 7 is a diagram illustrating an example of a processing configuration of the
[変形例3]
図8は、第3の変形例に係る移動型センサ装置10の処理構成の一例を示す図である。例えば、移動型センサ装置10は、GNSS(Global Navigation Satellite System)や深度カメラ等の測位センサを有する場合がある。この場合、画像間の位置姿勢変換式の計算にてスケール(スケールファクタ)を求める際、位置姿勢変換式算出部203は、装置駆動部30に対する制御量(移動量)ではなく、測位センサ部42にて取得した情報を利用することもできる。
[Modification 3]
FIG. 8 is a diagram illustrating an example of a processing configuration of the
ここで、図9に示すように、スケールを定めるためには、被写体(点検対象)の大きさ、被写体までの奥行距離、視点間の距離を定める必要がある。位置姿勢変換式算出部203は、GNSS、深度カメラ等の測位センサにより得られる視点間の距離、奥行距離を用いてスケールを計算する。
Here, as shown in FIG. 9, in order to determine the scale, it is necessary to determine the size of the subject (the inspection target), the depth distance to the subject, and the distance between the viewpoints. The position and orientation conversion
[変形例4]
図10は、第4の変形例に係る移動型センサ装置10の処理構成の一例を示す図である。移動型センサ装置10は、他の装置が取得した基準画像やカメラパラメータを使用する場合がある。この場合、移動型センサ装置10には、操作部50や表示部60は不要となる。
[Modification 4]
FIG. 10 is a diagram illustrating an example of a processing configuration of the
[変形例5]
図11は、第5の変形例に係る移動型センサ装置10の処理の一例を示すフローチャートである。なお、図11以降のフローチャートにおいて図4と同様の処理に関しては同一のステップを付与し、その詳細な説明を省略する。
[Modification 5]
FIG. 11 is a flowchart illustrating an example of processing of the
図4を用いて説明した移動型センサ装置10の動作において、図4に示すステップS02とステップS05の位置姿勢変換式の算出に失敗することがあり得る。第5の変形例に係る移動型センサ装置10は、当該位置姿勢変換式の算出処理に関する正否を判定する。具体的には、ステップS11、ステップS14において、マッチングが可能であった対応する特徴点の数が一定数(閾値)よりも少ない場合に、位置姿勢変換式算出部203は上記位置姿勢変換式の算出は「失敗」と判定する。つまり、位置姿勢変換式算出部203は、算出された特徴点の数に対して閾値処理を実行し、その結果に応じて位置姿勢変換式の算出正否を判定してもよい。
In the operation of the
図11に示すように、位置姿勢変換式の算出に失敗した場合(計算は失敗;ステップS11、No分岐)、移動型センサ装置10は、撮影位置を移動(ステップS12)して比較画像の再取得と位置姿勢変換式の再算出を行う。
As shown in FIG. 11, when the calculation of the position and orientation conversion formula fails (calculation fails; step S11, No branch), the
なお、ステップS05の処理ではスケールを定めるために、位置姿勢変換式算出部203は、装置駆動部30の制御量(装置の移動量)を利用する。しかし、位置姿勢変換式の算出に失敗すると、失敗のたびに移動量が蓄積されてしまう。そこで、移動型センサ装置10は、ステップS13において、累積処理を実行し、ステップS05の処理における平行移動のスケールファクタa21の算出には当該累積された移動量を使用する。
In the process of step S05, in order to determine the scale, the position and orientation conversion
[変形例6]
図12は、第6の変形例に係る移動型センサ装置10の処理の一例を示すフローチャートである。図12に示すように、移動型センサ装置10は、ステップS06の処理の後、比較画像I3を取得(ステップS21)し、ステップS05と同様の処理により比較画像I3と基準画像の位置姿勢変換式を算出(ステップS22)する。
[Modification 6]
FIG. 12 is a flowchart illustrating an example of processing of the
比較画像I3と基準画像との距離(平行移動の距離a03T03)が所定値よりも長い場合(ステップS23、Yes分岐)、移動型センサ装置10は、自装置の移動(ステップS24)と比較画像I3の取得を繰り返す。その結果、移動型センサ装置10の位置姿勢は、基準画像撮影位置姿勢に近づく。
When the distance between the comparison image I3 and the reference image (parallel movement distance a03T03) is longer than a predetermined value (step S23, Yes branch), the
あるいは、図13に示すように、移動型センサ装置10は、ステップS31にて取得した比較画像I3により計算された位置姿勢変換式(ステップS32)の移動をセンサ駆動部40により実現してもよい。なお、ステップS07aにおける移動処理では、ステップS32の算出結果とセンサ駆動量記憶部81に記憶された情報を乗算した移動を行う。
Alternatively, as shown in FIG. 13, the
[変形例7]
点検対象(センシング対象)が複数ある場合は、移動型センサ装置10は、複数の基準画像を利用する。例えば、移動型センサ装置10は、現在の撮影画像(比較画像I1)からどの基準画像に対応する場所か、に関する選択を自動的に行う。例えば、移動型センサ装置10は、全ての基準画素に対してステップS02の処理を行い、対応する特徴点の数が最多の基準画像を選択すればよい。即ち、位置姿勢変換式算出部203は、複数のセンシング対象それぞれに対応する複数の基準画像のなかから、撮影画像に対応する基準画像を、撮影画像と複数の基準画像のそれぞれから算出される特徴点の数に基づき選択してもよい。
[Modification 7]
When there are a plurality of inspection targets (sensing targets), the
[変形例8]
基準画像に、既知のAR(Augmented Reality)マーカーのような二次元コードを設置してカメラ間の地位姿勢関係算出精度の向上と、スケールファクタを確定させてもよい。この場合は、比較画像の撮影は1回で十分である。
[Modification 8]
A two-dimensional code such as a known AR (Augmented Reality) marker may be provided in the reference image to improve the calculation accuracy of the position / posture relationship between the cameras and determine the scale factor. In this case, one shot of the comparison image is sufficient.
[変形例9]
図14は、第9の変形例に係る移動型センサ装置10の処理構成の一例を示す図である。図14に示すように、基準画像記憶部80、センサ駆動量記憶部81、カメラパラメータ記憶部82を外部のサーバ装置90に配置してもよい。この場合、通信部91が、ネットワーク網93を介して各記憶部に格納された情報を取得する。サーバ装置90の通信部92は、各記憶部から読み出された情報を移動型センサ装置10に送信する。通信部91、92は、無線LAN(Local Area Network)やモバイル回線等の無線通信機や有線LAN等の有線通信機である。ネットワーク網93は、構内網のような閉域ネットワークやインターネットのような広域ネットワークである。
[Modification 9]
FIG. 14 is a diagram illustrating an example of a processing configuration of the
[変形例10]
図15は、第10の変形例に係る移動型センサ装置10の処理構成の一例を示す図である。センサ装置は、移動型でなくともよい。例えば、センサ情報取得位置姿勢がセンサ駆動部40の可動範囲内になるようにオペレータがセンサ装置を運搬してもよい。この場合、センサ駆動部40が、センサ部41とカメラ部20を制御(移動)し、装置駆動部30及び装置駆動制御部201にて行う処理がセンサ駆動部40及びセンサ駆動制御部204にて実行されればよい。
[Modification 10]
FIG. 15 is a diagram illustrating an example of a processing configuration of the
[変形例11]
図16は、第11の変形例に係る移動型センサ装置10の処理構成の一例を示す図である。各変形例を組み合わせると、図16に示す最小の装置構成となる。
[Modification 11]
FIG. 16 is a diagram illustrating an example of a processing configuration of the
上記の説明により、本発明の産業上の利用可能性は明らかであるが、本発明は、道路、橋梁、トンネル、河川、法面、港湾、空港、鉄道、発電所等のパブリックインフラ領域の点検監視に好適に適用可能である。さらに、本発明は、スマートファクトリ領域の工場設備の点検監視、画像認識、信号処理、ロボットといった技術分野に対しても好適に適用可能である。 From the above description, the industrial applicability of the present invention is clear. However, the present invention examines public infrastructure areas such as roads, bridges, tunnels, rivers, slopes, ports, airports, railways, and power plants. It can be suitably applied to monitoring. Furthermore, the present invention can be suitably applied to technical fields such as inspection and monitoring of factory equipment in the smart factory area, image recognition, signal processing, and robots.
上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
[付記1]
第1の視点に係るセンサ装置のとおりである。
[付記2]
前記変換式算出部は、
前記基準画像と、前記カメラ部により撮影された第1、第2の撮影画像と、前記第1の撮影画像を取得した位置及び方向から前記第2の撮影画像を取得した位置及び方向への自装置の移動に関する移動制御情報と、前記カメラの内部パラメータ情報と、に基づき、前記変換式を算出する、好ましくは付記1に記載のセンサ装置。
[付記3]
前記カメラ制御部は、前記カメラ部を制御して前記第1の撮影画像を取得し、
前記変換式算出部は、前記基準画像、前記第1の撮影画像及び前記カメラの内部パラメータ情報に基づき、前記基準画像及び第1の撮影画像に関する第1の変換式を算出し、
前記駆動制御部は、前記移動制御情報に従った移動を実施し、
前記カメラ制御部は、前記カメラ部を制御して前記第2の撮影画像を取得し、
前記変換式算出部は、前記基準画像、前記第2の撮影画像、前記カメラの内部パラメータ情報及び前記移動制御情報に基づき、前記基準画像及び第2の撮影画像に関する第2の変換式を算出し、
前記駆動制御部は、前記算出された第2の変換式に基づき、自装置を前記基準画像が撮影された際の位置及び方向に移動する、好ましくは付記2に記載のセンサ装置。
[付記4]
前記変換式算出部が算出する変換式は、自装置の回転移動に関する情報と、自装置の平行移動に関する情報と、を含む、好ましくは付記1乃至3のいずれか一に記載のセンサ装置。
[付記5]
前記変換式算出部は、
前記移動制御情報を用いて、前記第1の撮影画像を取得する際の位置及び方向から前記第2の撮影画像を取得する際の位置及び方向への平行移動を規定するスケールファクタを算出する、好ましくは付記3を引用する付記4に記載のセンサ装置。
[付記6]
センサを含むセンサ部と、
前記センサ部を制御してセンサ情報を取得する、センサ制御部と、をさらに備える、好ましくは付記1乃至5のいずれか一に記載のセンサ装置。
[付記7]
前記センサの位置を可変とするセンサ駆動部と、
前記センサ駆動部を制御する、センサ駆動制御部と、をさらに備える、好ましくは付記6に記載のセンサ装置。
[付記8]
前記変換式算出部は、
複数のセンシング対象それぞれに対応する複数の前記基準画像のなかから、前記撮影画像に対応する基準画像を、前記撮影画像と前記複数の基準画像のそれぞれから算出される特徴点の数に基づき選択する、好ましくは付記1乃至7のいずれか一に記載のセンサ装置。
[付記9]
前記カメラ制御部は、第3の撮影画像を取得し、
前記変換式算出部は、前記第3の撮影画像から前記変換式を算出し、
前記駆動制御部は、前記第3の撮影画像から算出された変換式に従った自装置の移動を実行する、好ましくは付記1乃至8のいずれか一に記載のセンサ装置。
[付記10]
前記基準画像には、AR(Augmented Reality)マーカーが含まれる好ましくは付記1乃至9のいずれか一に記載のセンサ装置。
[付記11]
上述の第2の視点に係るセンサ装置の制御方法のとおりである。
[付記12]
上述の第3の視点に係るプログラムのとおりである。
なお、付記11の形態及び付記12の形態は、付記1の形態と同様に、付記2の形態〜付記10の形態に展開することが可能である。
Some or all of the above embodiments may be described as in the following supplementary notes, but are not limited thereto.
[Appendix 1]
This is the same as the sensor device according to the first viewpoint.
[Appendix 2]
The conversion formula calculation unit,
The reference image, the first and second captured images captured by the camera unit, and the autonomous shift from the position and direction at which the first captured image was obtained to the position and direction at which the second captured image was obtained. The sensor device according to
[Appendix 3]
The camera control unit controls the camera unit to acquire the first captured image,
The conversion formula calculation unit calculates a first conversion formula for the reference image and the first captured image based on the reference image, the first captured image, and internal parameter information of the camera,
The drive control unit performs movement according to the movement control information,
The camera control unit controls the camera unit to obtain the second captured image,
The conversion equation calculation unit calculates a second conversion equation for the reference image and the second captured image based on the reference image, the second captured image, internal parameter information of the camera, and the movement control information. ,
The sensor device according to claim 2, wherein the drive control unit moves the own device to a position and a direction at the time when the reference image is captured based on the calculated second conversion formula.
[Appendix 4]
4. The sensor device according to
[Appendix 5]
The conversion formula calculation unit,
Using the movement control information, calculating a scale factor that defines a translation from the position and the direction at the time of acquiring the first captured image to the position and the direction at the time of acquiring the second captured image, The sensor device according to Appendix 4, preferably citing Appendix 3.
[Appendix 6]
A sensor unit including a sensor;
The sensor device according to any one of
[Appendix 7]
A sensor drive unit that changes the position of the sensor,
The sensor device according to claim 6, further comprising: a sensor drive control unit that controls the sensor drive unit.
[Appendix 8]
The conversion formula calculation unit,
From among the plurality of reference images corresponding to each of the plurality of sensing targets, a reference image corresponding to the captured image is selected based on the number of feature points calculated from each of the captured image and the plurality of reference images. Preferably, the sensor device according to any one of
[Appendix 9]
The camera control unit acquires a third captured image,
The conversion formula calculation unit calculates the conversion formula from the third captured image,
The sensor device according to any one of
[Appendix 10]
The sensor device according to any one of
[Appendix 11]
This is the same as the control method of the sensor device according to the second viewpoint described above.
[Supplementary Note 12]
This is as in the program according to the third aspect described above.
In addition, the form of
なお、引用した上記の特許文献等の各開示は、本書に引用をもって繰り込むものとする。本発明の全開示(請求の範囲を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態ないし実施例の変更・調整が可能である。また、本発明の全開示の枠内において種々の開示要素(各請求項の各要素、各実施形態ないし実施例の各要素、各図面の各要素等を含む)の多様な組み合わせ、ないし、選択(部分的削除を含む)が可能である。すなわち、本発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。特に、本書に記載した数値範囲については、当該範囲内に含まれる任意の数値ないし小範囲が、別段の記載のない場合でも具体的に記載されているものと解釈されるべきである。 The disclosures of the above cited patent documents and the like are incorporated herein by reference. Modifications and adjustments of the embodiments or examples are possible within the framework of the entire disclosure (including the claims) of the present invention and based on the basic technical concept thereof. In addition, various combinations or selections of various disclosed elements (including each element of each claim, each element of each embodiment or example, each element of each drawing, etc.) within the frame of the entire disclosure of the present invention. (Including partial deletions) are possible. That is, the present invention naturally includes various variations and modifications that can be made by those skilled in the art according to the entire disclosure including the claims and the technical idea. In particular, with respect to the numerical ranges described in this document, any numerical values or small ranges included in the ranges should be interpreted as being specifically described even if not otherwise specified.
10 移動型センサ装置
11 CPU(Central Processing Unit)
12 メモリ
13 入力インターフェイス
14 出力インターフェイス
20、101 カメラ部
30、103 装置駆動部
40 センサ駆動部
41 センサ部
42 測位センサ部
50 操作部
60 表示部
70 制御部
80 基準画像記憶部
81 センサ駆動量記憶部
82 カメラパラメータ記憶部
90 サーバ装置
91、92 通信部
93 ネットワーク網
100 センサ装置
102、202 カメラ制御部
104 駆動制御部
105 変換式算出部
201 装置駆動制御部
203 位置姿勢変換式算出部
204 センサ駆動制御部
205 センサ制御部
10
12
Claims (10)
前記カメラ部を制御して画像を取得する、カメラ制御部と、
自装置を移動するための装置駆動部と、
前記装置駆動部を制御して自装置を移動する、駆動制御部と、
少なくとも前記カメラ部により撮影された撮影画像と予め取得された基準画像に基づき、前記撮影画像が取得された際のカメラの視点を、前記基準画像が取得された際のカメラの視点に変換するための変換式を算出する、変換式算出部と、
を備え、
前記駆動制御部は、
前記変換式に基づき、前記撮影画像が撮影された際のセンシング対象に対する自装置の位置及び方向から、前記基準画像が撮影された際の位置及び方向に自装置を移動する、センサ装置。 A camera section including a camera,
A camera control unit for controlling the camera unit to acquire an image,
A device drive unit for moving the own device,
A drive control unit that controls the device drive unit and moves the own device,
Based on at least a captured image captured by the camera unit and a previously acquired reference image, a viewpoint of the camera when the captured image is acquired is converted into a viewpoint of the camera when the reference image is acquired. A conversion formula calculation unit that calculates the conversion formula of
With
The drive control unit includes:
A sensor device, based on the conversion formula, that moves the subject device from the position and the direction of the subject device with respect to the sensing target when the photographed image is photographed to the position and the direction when the reference image is photographed.
前記基準画像と、前記カメラ部により撮影された第1、第2の撮影画像と、前記第1の撮影画像を取得した位置及び方向から前記第2の撮影画像を取得した位置及び方向への自装置の移動に関する移動制御情報と、前記カメラの内部パラメータ情報と、に基づき、前記変換式を算出する、請求項1に記載のセンサ装置。 The conversion formula calculation unit,
The reference image, the first and second captured images captured by the camera unit, and the autonomous shift from the position and direction at which the first captured image was obtained to the position and direction at which the second captured image was obtained. The sensor device according to claim 1, wherein the conversion formula is calculated based on movement control information on movement of the device and information on internal parameters of the camera.
前記変換式算出部は、前記基準画像、前記第1の撮影画像及び前記カメラの内部パラメータ情報に基づき、前記基準画像及び第1の撮影画像に関する第1の変換式を算出し、
前記駆動制御部は、前記移動制御情報に従った移動を実施し、
前記カメラ制御部は、前記カメラ部を制御して前記第2の撮影画像を取得し、
前記変換式算出部は、前記基準画像、前記第2の撮影画像、前記カメラの内部パラメータ情報及び前記移動制御情報に基づき、前記基準画像及び第2の撮影画像に関する第2の変換式を算出し、
前記駆動制御部は、前記算出された第2の変換式に基づき、自装置を前記基準画像が撮影された際の位置及び方向に移動する、請求項2に記載のセンサ装置。 The camera control unit controls the camera unit to acquire the first captured image,
The conversion formula calculation unit calculates a first conversion formula for the reference image and the first captured image based on the reference image, the first captured image, and internal parameter information of the camera,
The drive control unit performs movement according to the movement control information,
The camera control unit controls the camera unit to obtain the second captured image,
The conversion equation calculation unit calculates a second conversion equation for the reference image and the second captured image based on the reference image, the second captured image, internal parameter information of the camera, and the movement control information. ,
3. The sensor device according to claim 2, wherein the drive control unit moves the device based on the calculated second conversion formula to a position and a direction when the reference image is captured. 4.
前記移動制御情報を用いて、前記第1の撮影画像を取得する際の位置及び方向から前記第2の撮影画像を取得する際の位置及び方向への平行移動を規定するスケールファクタを算出する、請求項3を引用する請求項4に記載のセンサ装置。 The conversion formula calculation unit,
Using the movement control information, calculating a scale factor that defines a translation from the position and the direction at the time of acquiring the first captured image to the position and the direction at the time of acquiring the second captured image, The sensor device according to claim 4, wherein the sensor device according to claim 3 is cited.
前記センサ部を制御してセンサ情報を取得する、センサ制御部と、をさらに備える、請求項1乃至5のいずれか一項に記載のセンサ装置。 A sensor unit including a sensor;
The sensor device according to claim 1, further comprising: a sensor control unit configured to control the sensor unit to acquire sensor information.
前記センサ駆動部を制御する、センサ駆動制御部と、をさらに備える、請求項6に記載のセンサ装置。 A sensor drive unit that changes the position of the sensor,
The sensor device according to claim 6, further comprising: a sensor drive control unit that controls the sensor drive unit.
複数のセンシング対象それぞれに対応する複数の前記基準画像のなかから、前記撮影画像に対応する基準画像を、前記撮影画像と前記複数の基準画像のそれぞれから算出される特徴点の数に基づき選択する、請求項1乃至7のいずれか一項に記載のセンサ装置。 The conversion formula calculation unit,
From among the plurality of reference images corresponding to each of the plurality of sensing targets, a reference image corresponding to the captured image is selected based on the number of feature points calculated from each of the captured image and the plurality of reference images. The sensor device according to any one of claims 1 to 7.
自装置を移動するための装置駆動部と、
を備えるセンサ装置において、
少なくとも前記カメラ部により撮影された撮影画像と予め取得された基準画像に基づき、前記撮影画像が取得された際のカメラの視点を、前記基準画像が取得された際のカメラの視点に変換するための変換式を算出するステップと、
前記変換式に基づき、前記撮影画像が撮影された際のセンシング対象に対する自装置の位置及び方向から、前記基準画像が撮影された際の位置及び方向に自装置を移動するステップと、
を含むセンサ装置の制御方法。 A camera section including a camera,
A device drive unit for moving the own device,
In a sensor device comprising:
Based on at least a captured image captured by the camera unit and a previously acquired reference image, a viewpoint of the camera when the captured image is acquired is converted into a viewpoint of the camera when the reference image is acquired. Calculating a conversion formula of
Based on the conversion formula, from the position and direction of the own device with respect to the sensing target when the captured image was captured, moving the own device to the position and direction when the reference image was captured,
A control method for a sensor device including:
自装置を移動するための装置駆動部と、
を備えるセンサ装置に搭載されたコンピュータに、
少なくとも前記カメラ部により撮影された撮影画像と予め取得された基準画像に基づき、前記撮影画像が取得された際のカメラの視点を、前記基準画像が取得された際のカメラの視点に変換するための変換式を算出する処理と、
前記変換式に基づき、前記撮影画像が撮影された際のセンシング対象に対する自装置の位置及び方向から、前記基準画像が撮影された際の位置及び方向に自装置を移動する処理と、
を実行させるプログラム。 A camera section including a camera,
A device drive unit for moving the own device,
A computer mounted on a sensor device having
Based on at least a captured image captured by the camera unit and a previously acquired reference image, a viewpoint of the camera when the captured image is acquired is converted into a viewpoint of the camera when the reference image is acquired. Processing for calculating the conversion formula of
Based on the conversion formula, from the position and direction of the own device with respect to the sensing target when the captured image was taken, a process of moving the own device to the position and direction when the reference image was taken,
A program that executes
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018188856A JP7120620B2 (en) | 2018-10-04 | 2018-10-04 | SENSOR DEVICE, SENSOR DEVICE CONTROL METHOD AND PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018188856A JP7120620B2 (en) | 2018-10-04 | 2018-10-04 | SENSOR DEVICE, SENSOR DEVICE CONTROL METHOD AND PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020057983A true JP2020057983A (en) | 2020-04-09 |
JP7120620B2 JP7120620B2 (en) | 2022-08-17 |
Family
ID=70107745
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018188856A Active JP7120620B2 (en) | 2018-10-04 | 2018-10-04 | SENSOR DEVICE, SENSOR DEVICE CONTROL METHOD AND PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7120620B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012044581A (en) * | 2010-08-23 | 2012-03-01 | Nippon Signal Co Ltd:The | Camera for patrol inspection and method for photographing image for patrol inspection |
JP2017045166A (en) * | 2015-08-25 | 2017-03-02 | キヤノン株式会社 | Workpiece processing method, method for creating reference image, reference image creation device, workpiece processing device, program, and recording medium |
WO2018038152A1 (en) * | 2016-08-24 | 2018-03-01 | コニカミノルタ株式会社 | Gas measurement system and gas measurement program |
JP2018032991A (en) * | 2016-08-24 | 2018-03-01 | 富士通株式会社 | Image display unit, image display method and computer program for image display |
-
2018
- 2018-10-04 JP JP2018188856A patent/JP7120620B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012044581A (en) * | 2010-08-23 | 2012-03-01 | Nippon Signal Co Ltd:The | Camera for patrol inspection and method for photographing image for patrol inspection |
JP2017045166A (en) * | 2015-08-25 | 2017-03-02 | キヤノン株式会社 | Workpiece processing method, method for creating reference image, reference image creation device, workpiece processing device, program, and recording medium |
WO2018038152A1 (en) * | 2016-08-24 | 2018-03-01 | コニカミノルタ株式会社 | Gas measurement system and gas measurement program |
JP2018032991A (en) * | 2016-08-24 | 2018-03-01 | 富士通株式会社 | Image display unit, image display method and computer program for image display |
Also Published As
Publication number | Publication date |
---|---|
JP7120620B2 (en) | 2022-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Attard et al. | Tunnel inspection using photogrammetric techniques and image processing: A review | |
CN108171733B (en) | Method of registering two or more three-dimensional 3D point clouds | |
Xie et al. | Automatic multi-image stitching for concrete bridge inspection by combining point and line features | |
Acharya et al. | BIM-Tracker: A model-based visual tracking approach for indoor localisation using a 3D building model | |
KR20150116777A (en) | Context-aware object detection in aerial photographs/videos using travel path metadata | |
US10930013B2 (en) | Method and system for calibrating imaging system | |
JP2015201192A (en) | Detection of object position and direction | |
JP2004334819A (en) | Stereo calibration device and stereo image monitoring device using same | |
JPWO2017119202A1 (en) | Structure identifying device and method for structure | |
JP6524529B2 (en) | Building limit judging device | |
Hoegner et al. | Mobile thermal mapping for matching of infrared images with 3D building models and 3D point clouds | |
US11741631B2 (en) | Real-time alignment of multiple point clouds to video capture | |
KR102542556B1 (en) | Method and system for real-time detection of major vegetation in wetland areas and location of vegetation objects using high-resolution drone video and deep learning object recognition technology | |
KR20190087338A (en) | Method for Automatic Construction of Numerical Digital Map and High Definition Map | |
JP2019032218A (en) | Location information recording method and device | |
Scaioni et al. | Image-based deformation measurement | |
CN114726978A (en) | Information processing apparatus, information processing method, and program | |
CN113701750A (en) | Fusion positioning system of underground multi-sensor | |
Knyaz et al. | Joint geometric calibration of color and thermal cameras for synchronized multimodal dataset creating | |
US10705217B2 (en) | Controlling multiple imaging sensors | |
Baeck et al. | Drone based near real-time human detection with geographic localization | |
JP7120620B2 (en) | SENSOR DEVICE, SENSOR DEVICE CONTROL METHOD AND PROGRAM | |
JP2007200364A (en) | Stereo calibration apparatus and stereo image monitoring apparatus using the same | |
KR20170001448A (en) | Apparatus for measuring position of camera using stereo camera and method using the same | |
KR20120108277A (en) | Method for localizing intelligent mobile robot by using both natural landmark and artificial landmark |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210902 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220622 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220705 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220728 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7120620 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |