JP7120620B2 - センサ装置、センサ装置の制御方法及びプログラム - Google Patents
センサ装置、センサ装置の制御方法及びプログラム Download PDFInfo
- Publication number
- JP7120620B2 JP7120620B2 JP2018188856A JP2018188856A JP7120620B2 JP 7120620 B2 JP7120620 B2 JP 7120620B2 JP 2018188856 A JP2018188856 A JP 2018188856A JP 2018188856 A JP2018188856 A JP 2018188856A JP 7120620 B2 JP7120620 B2 JP 7120620B2
- Authority
- JP
- Japan
- Prior art keywords
- camera
- sensor
- image
- unit
- captured
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Studio Devices (AREA)
Description
なお、このプログラムは、コンピュータが読み取り可能な記憶媒体に記録することができる。記憶媒体は、半導体メモリ、ハードディスク、磁気記録媒体、光記録媒体等の非トランジェント(non-transient)なものとすることができる。本発明は、コンピュータプログラム製品として具現することも可能である。
第1の実施形態について、図面を用いてより詳細に説明する。
図2は、第1の実施形態に係る移動型センサ装置10の内部構成の一例を示す図である。図2を参照すると、移動型センサ装置10は、カメラ部20と、装置駆動部30と、センサ駆動部40と、センサ部41と、操作部50と、表示部60と、制御部70と、各種記憶部と、を含んで構成される。移動型センサ装置10は、記憶部として、基準画像記憶部80と、センサ駆動量記憶部81と、カメラパラメータ記憶部82と、を備える。
続いて、移動型センサ装置10のハードウェア構成について説明する。
続いて、第1の実施形態に係る移動型センサ装置10の動作について図面を参照しつつ説明する。初めに、事前準備として基準画像の撮影とカメラパラメータの記憶を行う。当該作業は、オペレータが手動でマウス等を操作して行う。
上記説明にて言及した各参考文献は以下のとおりである。
[参考文献1]電子情報通信学会「知識の森」2群-2編-3章3次元幾何解析
<URL:http://www.ieice-hbkb.org/>
[参考文献2]OpenCV カメラキャリブレーションと3次元構成
<URL:http://opencv.jp/opencv-2.1/cpp/camera_calibration_and_3d_reconstruction.html>
[参考文献3]
Ethan Rublee, Vincent Rabaud, Kurt Konolige, Gary R. Bradski, "ORB: An efficient alternative to SIFT or SURF”, ICCV 2011: 2564-2571.
<URL:http://www.willowgarage.com/sites/default/files/orb_final.pdf>
[参考文献4]
E. Mair他、"Adaptive and Generic Corner Detection Based on the Accelerated Segment Test"(2010),
<URL:http://www6.in.tum.de/Main/Publications/Mair2010c.pdf>
[参考文献5]
P. F. Alcantarilla他、"Fast Explicit Diffusion for Accerelated Features in Nonlinear Scale Spaces"(2013)
<URL:http://isit.u-clermont1.fr/~ab/Publications/Alcantarilla_etal_BMVC13.pdf>
[参考文献6]
S. Leutenegger他、"BRISK: Binary Robust Invariant Scalable Keypoints" (2011)
<URL:http://www.robots.ox.ac.uk/~vgg/rg/papers/brisk.pdf>
[参考文献7]
E. Rosten他、 "Machine Learning for High-Speed Corner Detection"(2006)
<URL:http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.60.3991&rep=rep1&type=pdf>
[参考文献8]
J. Shi他、"Good Features to Track"(1994)
<URL:https://users.cs.duke.edu/~tomasi/papers/shi/TR_93-1399_Cornell.pdf>
[参考文献9]
P. F. Alcantarilla他、"KAZE Features"(2012)
<URL:https://www.doc.ic.ac.uk/~ajd/Publications/alcantarilla_etal_eccv2012.pdf>
[参考文献10]
J. Matas他、"Robust Wide Baseline Stereo from Maximally Stable External Regions"(2002)
<URL:https://www.robots.ox.ac.uk/~vgg/research/affine/det_eval_files/matas_bmvc2002.pdf>
[参考文献11]
Lowe, D. (2004) Distinctive image features from scale-invariant keypoints. Int. Journal of Computer Vision. 60(2). pp.91-110.
<URL:https://www.robots.ox.ac.uk/~vgg/research/affine/det_eval_files/lowe_ijcv2004.pdf>
[参考文献12]
Bay, H., Ess, A., Tuytelaars, T. & Van Gool, L. (2008). SURF: Speeded Up Robust Features. Computer Vision and Image Understanding (CVIU). 110(3). pp.346--359.
<URL:ftp://ftp.vision.ee.ethz.ch/publications/articles/eth_biwi_00517.pdf>
[参考文献13]
OpenCV-Python Tutorials 特徴点マッチング
<URL:http://lang.sist.chukyo-u.ac.jp/classes/OpenCV/py_tutorials/py_feature2d/py_matcher/py_matcher.html>
[参考文献14]
OpenCV
<URL:https://docs.opencv.org/3.2.0/d9/d0c/group__calib3d.html#ga13f7e34de8fa516a686a56af1196247f>
上記実施形態にて説明した移動型センサ装置10の構成、動作は例示であって、装置の構成等を限定する趣旨ではない。
図6は、第1の変形例に係る移動型センサ装置10の処理構成の一例を示す図である。例えば、点検に使用するセンサがカメラの場合があり得る。この場合、センサ部41、センサ制御部205は不要であり、カメラ制御部202がカメラ部20を制御し、カメラをセンサとして機能させる。また、センサ駆動部40は、カメラ部20を移動する(カメラ部20の位置を変更する)。あるいは、センサ駆動部40によるカメラ部の移動に代えて、カメラ制御部202がカメラのズーム機能を用いるようにカメラ部20を制御してもよい。
図7は、第2の変形例に係る移動型センサ装置10の処理構成の一例を示す図である。例えば、センサ部41に使用するセンサの種類が、カメラや距離計等の非接触型センサの場合があり得る。この場合、センサ駆動部40にてセンサの位置を制御する必要がない。移動型センサ装置10には、センサ駆動制御部204、センサ駆動量記憶部81、センサ駆動部40は不要となる。また、このような移動型センサ装置10を用いる場合、事前準備では、センサの位置合わせは不要であり、図4に示すステップS07の処理は実行されない。
図8は、第3の変形例に係る移動型センサ装置10の処理構成の一例を示す図である。例えば、移動型センサ装置10は、GNSS(Global Navigation Satellite System)や深度カメラ等の測位センサを有する場合がある。この場合、画像間の位置姿勢変換式の計算にてスケール(スケールファクタ)を求める際、位置姿勢変換式算出部203は、装置駆動部30に対する制御量(移動量)ではなく、測位センサ部42にて取得した情報を利用することもできる。
図10は、第4の変形例に係る移動型センサ装置10の処理構成の一例を示す図である。移動型センサ装置10は、他の装置が取得した基準画像やカメラパラメータを使用する場合がある。この場合、移動型センサ装置10には、操作部50や表示部60は不要となる。
図11は、第5の変形例に係る移動型センサ装置10の処理の一例を示すフローチャートである。なお、図11以降のフローチャートにおいて図4と同様の処理に関しては同一のステップを付与し、その詳細な説明を省略する。
図12は、第6の変形例に係る移動型センサ装置10の処理の一例を示すフローチャートである。図12に示すように、移動型センサ装置10は、ステップS06の処理の後、比較画像I3を取得(ステップS21)し、ステップS05と同様の処理により比較画像I3と基準画像の位置姿勢変換式を算出(ステップS22)する。
点検対象(センシング対象)が複数ある場合は、移動型センサ装置10は、複数の基準画像を利用する。例えば、移動型センサ装置10は、現在の撮影画像(比較画像I1)からどの基準画像に対応する場所か、に関する選択を自動的に行う。例えば、移動型センサ装置10は、全ての基準画素に対してステップS02の処理を行い、対応する特徴点の数が最多の基準画像を選択すればよい。即ち、位置姿勢変換式算出部203は、複数のセンシング対象それぞれに対応する複数の基準画像のなかから、撮影画像に対応する基準画像を、撮影画像と複数の基準画像のそれぞれから算出される特徴点の数に基づき選択してもよい。
基準画像に、既知のAR(Augmented Reality)マーカーのような二次元コードを設置してカメラ間の地位姿勢関係算出精度の向上と、スケールファクタを確定させてもよい。この場合は、比較画像の撮影は1回で十分である。
図14は、第9の変形例に係る移動型センサ装置10の処理構成の一例を示す図である。図14に示すように、基準画像記憶部80、センサ駆動量記憶部81、カメラパラメータ記憶部82を外部のサーバ装置90に配置してもよい。この場合、通信部91が、ネットワーク網93を介して各記憶部に格納された情報を取得する。サーバ装置90の通信部92は、各記憶部から読み出された情報を移動型センサ装置10に送信する。通信部91、92は、無線LAN(Local Area Network)やモバイル回線等の無線通信機や有線LAN等の有線通信機である。ネットワーク網93は、構内網のような閉域ネットワークやインターネットのような広域ネットワークである。
図15は、第10の変形例に係る移動型センサ装置10の処理構成の一例を示す図である。センサ装置は、移動型でなくともよい。例えば、センサ情報取得位置姿勢がセンサ駆動部40の可動範囲内になるようにオペレータがセンサ装置を運搬してもよい。この場合、センサ駆動部40が、センサ部41とカメラ部20を制御(移動)し、装置駆動部30及び装置駆動制御部201にて行う処理がセンサ駆動部40及びセンサ駆動制御部204にて実行されればよい。
図16は、第11の変形例に係る移動型センサ装置10の処理構成の一例を示す図である。各変形例を組み合わせると、図16に示す最小の装置構成となる。
[付記1]
第1の視点に係るセンサ装置のとおりである。
[付記2]
前記変換式算出部は、
前記基準画像と、前記カメラ部により撮影された第1、第2の撮影画像と、前記第1の撮影画像を取得した位置及び方向から前記第2の撮影画像を取得した位置及び方向への自装置の移動に関する移動制御情報と、前記カメラの内部パラメータ情報と、に基づき、前記変換式を算出する、好ましくは付記1に記載のセンサ装置。
[付記3]
前記カメラ制御部は、前記カメラ部を制御して前記第1の撮影画像を取得し、
前記変換式算出部は、前記基準画像、前記第1の撮影画像及び前記カメラの内部パラメータ情報に基づき、前記基準画像及び第1の撮影画像に関する第1の変換式を算出し、
前記駆動制御部は、前記移動制御情報に従った移動を実施し、
前記カメラ制御部は、前記カメラ部を制御して前記第2の撮影画像を取得し、
前記変換式算出部は、前記基準画像、前記第2の撮影画像、前記カメラの内部パラメータ情報及び前記移動制御情報に基づき、前記基準画像及び第2の撮影画像に関する第2の変換式を算出し、
前記駆動制御部は、前記算出された第2の変換式に基づき、自装置を前記基準画像が撮影された際の位置及び方向に移動する、好ましくは付記2に記載のセンサ装置。
[付記4]
前記変換式算出部が算出する変換式は、自装置の回転移動に関する情報と、自装置の平行移動に関する情報と、を含む、好ましくは付記1乃至3のいずれか一に記載のセンサ装置。
[付記5]
前記変換式算出部は、
前記移動制御情報を用いて、前記第1の撮影画像を取得する際の位置及び方向から前記第2の撮影画像を取得する際の位置及び方向への平行移動を規定するスケールファクタを算出する、好ましくは付記3を引用する付記4に記載のセンサ装置。
[付記6]
センサを含むセンサ部と、
前記センサ部を制御してセンサ情報を取得する、センサ制御部と、をさらに備える、好ましくは付記1乃至5のいずれか一に記載のセンサ装置。
[付記7]
前記センサの位置を可変とするセンサ駆動部と、
前記センサ駆動部を制御する、センサ駆動制御部と、をさらに備える、好ましくは付記6に記載のセンサ装置。
[付記8]
前記変換式算出部は、
複数のセンシング対象それぞれに対応する複数の前記基準画像のなかから、前記撮影画像に対応する基準画像を、前記撮影画像と前記複数の基準画像のそれぞれから算出される特徴点の数に基づき選択する、好ましくは付記1乃至7のいずれか一に記載のセンサ装置。
[付記9]
前記カメラ制御部は、第3の撮影画像を取得し、
前記変換式算出部は、前記第3の撮影画像から前記変換式を算出し、
前記駆動制御部は、前記第3の撮影画像から算出された変換式に従った自装置の移動を実行する、好ましくは付記1乃至8のいずれか一に記載のセンサ装置。
[付記10]
前記基準画像には、AR(Augmented Reality)マーカーが含まれる好ましくは付記1乃至9のいずれか一に記載のセンサ装置。
[付記11]
上述の第2の視点に係るセンサ装置の制御方法のとおりである。
[付記12]
上述の第3の視点に係るプログラムのとおりである。
なお、付記11の形態及び付記12の形態は、付記1の形態と同様に、付記2の形態~付記10の形態に展開することが可能である。
11 CPU(Central Processing Unit)
12 メモリ
13 入力インターフェイス
14 出力インターフェイス
20、101 カメラ部
30、103 装置駆動部
40 センサ駆動部
41 センサ部
42 測位センサ部
50 操作部
60 表示部
70 制御部
80 基準画像記憶部
81 センサ駆動量記憶部
82 カメラパラメータ記憶部
90 サーバ装置
91、92 通信部
93 ネットワーク網
100 センサ装置
102、202 カメラ制御部
104 駆動制御部
105 変換式算出部
201 装置駆動制御部
203 位置姿勢変換式算出部
204 センサ駆動制御部
205 センサ制御部
Claims (10)
- カメラを含むカメラ部と、
前記カメラ部を制御して画像を取得する、カメラ制御部と、
自装置を移動するための装置駆動部と、
前記装置駆動部を制御して自装置を移動する、駆動制御部と、
少なくとも前記カメラ部により撮影された撮影画像と予め取得された基準画像に基づき、前記撮影画像が取得された際のカメラの視点を、前記基準画像が取得された際のカメラの視点に変換するための変換式を算出する、変換式算出部と、
を備え、
前記駆動制御部は、
前記変換式に基づき、前記撮影画像が撮影された際のセンシング対象に対する自装置の位置及び方向から、前記基準画像が撮影された際の位置及び方向に自装置を移動する、センサ装置。 - 前記変換式算出部は、
前記基準画像と、前記カメラ部により撮影された第1、第2の撮影画像と、前記第1の撮影画像を取得した位置及び方向から前記第2の撮影画像を取得した位置及び方向への自装置の移動に関する移動制御情報と、前記カメラの内部パラメータ情報と、に基づき、前記変換式を算出する、請求項1に記載のセンサ装置。 - 前記カメラ制御部は、前記カメラ部を制御して前記第1の撮影画像を取得し、
前記変換式算出部は、前記基準画像、前記第1の撮影画像及び前記カメラの内部パラメータ情報に基づき、前記基準画像及び第1の撮影画像に関する第1の変換式を算出し、
前記駆動制御部は、前記移動制御情報に従った移動を実施し、
前記カメラ制御部は、前記カメラ部を制御して前記第2の撮影画像を取得し、
前記変換式算出部は、前記基準画像、前記第2の撮影画像、前記カメラの内部パラメータ情報及び前記移動制御情報に基づき、前記基準画像及び第2の撮影画像に関する第2の変換式を算出し、
前記駆動制御部は、前記算出された第2の変換式に基づき、自装置を前記基準画像が撮影された際の位置及び方向に移動する、請求項2に記載のセンサ装置。 - 前記変換式算出部が算出する変換式は、自装置の回転移動に関する情報と、自装置の平行移動に関する情報と、を含む、請求項1乃至3のいずれか一項に記載のセンサ装置。
- 前記変換式算出部は、
前記移動制御情報を用いて、前記第1の撮影画像を取得する際の位置及び方向から前記第2の撮影画像を取得する際の位置及び方向への平行移動を規定するスケールファクタを算出する、請求項3を引用する請求項4に記載のセンサ装置。 - センサを含むセンサ部と、
前記センサ部を制御してセンサ情報を取得する、センサ制御部と、をさらに備える、請求項1乃至5のいずれか一項に記載のセンサ装置。 - 前記センサの位置を可変とするセンサ駆動部と、
前記センサ駆動部を制御する、センサ駆動制御部と、をさらに備える、請求項6に記載のセンサ装置。 - 前記変換式算出部は、
複数のセンシング対象それぞれに対応する複数の前記基準画像のなかから、前記撮影画像に対応する基準画像を、前記撮影画像と前記複数の基準画像のそれぞれから算出される特徴点の数に基づき選択する、請求項1乃至7のいずれか一項に記載のセンサ装置。 - カメラを含むカメラ部と、
自装置を移動するための装置駆動部と、
を備えるセンサ装置において、
少なくとも前記カメラ部により撮影された撮影画像と予め取得された基準画像に基づき、前記撮影画像が取得された際のカメラの視点を、前記基準画像が取得された際のカメラの視点に変換するための変換式を算出するステップと、
前記変換式に基づき、前記撮影画像が撮影された際のセンシング対象に対する自装置の位置及び方向から、前記基準画像が撮影された際の位置及び方向に自装置を移動するステップと、
を含むセンサ装置の制御方法。 - カメラを含むカメラ部と、
自装置を移動するための装置駆動部と、
を備えるセンサ装置に搭載されたコンピュータに、
少なくとも前記カメラ部により撮影された撮影画像と予め取得された基準画像に基づき、前記撮影画像が取得された際のカメラの視点を、前記基準画像が取得された際のカメラの視点に変換するための変換式を算出する処理と、
前記変換式に基づき、前記撮影画像が撮影された際のセンシング対象に対する自装置の位置及び方向から、前記基準画像が撮影された際の位置及び方向に自装置を移動する処理と、
を実行させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018188856A JP7120620B2 (ja) | 2018-10-04 | 2018-10-04 | センサ装置、センサ装置の制御方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018188856A JP7120620B2 (ja) | 2018-10-04 | 2018-10-04 | センサ装置、センサ装置の制御方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020057983A JP2020057983A (ja) | 2020-04-09 |
JP7120620B2 true JP7120620B2 (ja) | 2022-08-17 |
Family
ID=70107745
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018188856A Active JP7120620B2 (ja) | 2018-10-04 | 2018-10-04 | センサ装置、センサ装置の制御方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7120620B2 (ja) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012044581A (ja) | 2010-08-23 | 2012-03-01 | Nippon Signal Co Ltd:The | 巡回点検用カメラ及び巡回点検用画像の撮影方法 |
JP2017045166A (ja) | 2015-08-25 | 2017-03-02 | キヤノン株式会社 | ワークの処理方法、基準画像の作成方法、基準画像の作成装置、ワークの処理装置、プログラム、及び記録媒体 |
WO2018038152A1 (ja) | 2016-08-24 | 2018-03-01 | コニカミノルタ株式会社 | ガス計測システム及びガス計測プログラム |
JP2018032991A (ja) | 2016-08-24 | 2018-03-01 | 富士通株式会社 | 画像表示装置、画像表示方法及び画像表示用コンピュータプログラム |
-
2018
- 2018-10-04 JP JP2018188856A patent/JP7120620B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012044581A (ja) | 2010-08-23 | 2012-03-01 | Nippon Signal Co Ltd:The | 巡回点検用カメラ及び巡回点検用画像の撮影方法 |
JP2017045166A (ja) | 2015-08-25 | 2017-03-02 | キヤノン株式会社 | ワークの処理方法、基準画像の作成方法、基準画像の作成装置、ワークの処理装置、プログラム、及び記録媒体 |
WO2018038152A1 (ja) | 2016-08-24 | 2018-03-01 | コニカミノルタ株式会社 | ガス計測システム及びガス計測プログラム |
JP2018032991A (ja) | 2016-08-24 | 2018-03-01 | 富士通株式会社 | 画像表示装置、画像表示方法及び画像表示用コンピュータプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2020057983A (ja) | 2020-04-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Attard et al. | Tunnel inspection using photogrammetric techniques and image processing: A review | |
RU2609434C2 (ru) | Выявление расположения и местоположения объектов | |
US10068344B2 (en) | Method and system for 3D capture based on structure from motion with simplified pose detection | |
JP6560366B2 (ja) | 構造物の部材特定装置及び方法 | |
JP2004334819A (ja) | ステレオキャリブレーション装置とそれを用いたステレオ画像監視装置 | |
JP5388921B2 (ja) | 3次元距離計測装置及びその方法 | |
JP6524529B2 (ja) | 建築限界判定装置 | |
KR101548639B1 (ko) | 감시 카메라 시스템의 객체 추적장치 및 그 방법 | |
CN108362205B (zh) | 基于条纹投影的空间测距方法 | |
US20210018447A1 (en) | Structure management device, structure management method, and structure management program | |
KR20190087338A (ko) | 수치지도 및 도로정밀지도 구축 자동화를 위한 방법 | |
Hoegner et al. | Mobile thermal mapping for matching of infrared images with 3D building models and 3D point clouds | |
Scaioni et al. | Image-based deformation measurement | |
Gupta et al. | Augmented reality system using lidar point cloud data for displaying dimensional information of objects on mobile phones | |
Hu et al. | A high-resolution surface image capture and mapping system for public roads | |
JP7120620B2 (ja) | センサ装置、センサ装置の制御方法及びプログラム | |
KR102410300B1 (ko) | 스테레오 카메라를 이용한 카메라 위치 측정 장치 및 방법 | |
US10705217B2 (en) | Controlling multiple imaging sensors | |
JP2007200364A (ja) | ステレオキャリブレーション装置とそれを用いたステレオ画像監視装置 | |
CN109903308B (zh) | 用于获取信息的方法及装置 | |
Baeck et al. | Drone based near real-time human detection with geographic localization | |
Mahmoud et al. | Low-cost framework for 3D reconstruction and track detection of the railway network using video data | |
Lee et al. | Automated dimensional extraction of different regions using single monocular camera in pseudo-stereo configuration | |
CN118119972A (zh) | 生成用于相机校准的相机模型的方法和系统 | |
KR101514366B1 (ko) | 감시 카메라 시스템의 영상합성 장치 및 그 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210902 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220622 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220705 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220728 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7120620 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |