JP2023079699A - データ取得装置 - Google Patents

データ取得装置 Download PDF

Info

Publication number
JP2023079699A
JP2023079699A JP2021193291A JP2021193291A JP2023079699A JP 2023079699 A JP2023079699 A JP 2023079699A JP 2021193291 A JP2021193291 A JP 2021193291A JP 2021193291 A JP2021193291 A JP 2021193291A JP 2023079699 A JP2023079699 A JP 2023079699A
Authority
JP
Japan
Prior art keywords
patrol
target
restoration
unit
patrol target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021193291A
Other languages
English (en)
Inventor
貴大 酒井
Takahiro Sakai
範安 長谷島
Noriyasu HASEJIMA
和哉 室谷
Kazuya Murotani
崇弘 山田
Takahiro Yamada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2021193291A priority Critical patent/JP2023079699A/ja
Publication of JP2023079699A publication Critical patent/JP2023079699A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

【課題】自動巡視の巡視対象を含む地図の生成に必要なデータを取得する。【解決手段】データ取得装置1は、移動体の周囲を撮影して撮影画像を出力する撮影部20と、移動体の慣性情報を検出する慣性情報検出部30と、移動体から、移動体の周囲の物体までの奥行き情報を検出する奥行情報検出部40と、撮影部の撮影画像から巡視対象の撮影画像を検出する巡視対象検出部12と、巡視対象の撮影画像、慣性情報及び奥行き情報に基づいて、巡視対象が設置される実環境を表す3次元地図における巡視対象を復元する巡視対象復元部13とを備える。【選択図】 図1

Description

本発明は、データ取得装置に関する。
現在、発電所などの社会インフラや建設現場の点検を自動化する一環として、点検に必要なセンサーを搭載した移動体を利用する自動点検システムが検討されている。例えば、360度カメラ及びGPS機能が搭載された情報端末を利用して、多数の電柱や配電設備を巡視点検する技術が開示されている(特許文献1参照)。
特許文献1に記載の巡視点検システムでは、情報端末は、巡視中に360度カメラの画像とGPS機能とを利用して通過しようとする電柱の電柱番号を特定する。この情報端末は、その電柱に設置されている点検対象設備を画像から自動判別して異常感知センサーの検出結果に基づき異常の有無を判定する。また、この情報端末は、異常があると判定した場合に、その電柱の設備に対して収集入力された点検結果を記憶部に格納し、異常がないと判定した場合に、その電柱を通過した時点で異常なしの点検結果を記憶部に自動的に格納する。また、この情報端末は、巡視終了の指示を受けて、記憶部に格納されている点検結果と、360度カメラで撮影されて撮影時の位置情報と関連付けられた画像を管理サーバに送信する。
特開2019-32684号公報
上述したように、従来、データベースに格納された点検対象設備の情報を基に、異常感知センサーにより異常の有無を判定する技術(例えば、特許文献1)が開示されているが、このデータベースの作成方法については言及されてない。
また、点検ロボットが自動点検を行うため、点検する場所の建物、点検対象の位置等が復元された地図が必要となる。特に、点検対象の位置は、点検に必要なセンサーを搭載した点検ロボット等の移動体の移動経路の決定に利用されるため、高精度に復元する必要がある。
なお、地図を生成するデータの取得方法として、予め設定された経路に従って取得する方法と、決められた範囲内で点検ロボットが走行しながら地図を生成し、地図を基にデータが取得されていない場所を認識して当該未認識場所のデータを取得する方法とがある。予め設定された経路に従ってデータを取得する方法は、俯瞰地図や建物の設計図などを利用して人が目視により設定した経路や、建物形状に沿った経路を走行してデータを取得する。この方法では、俯瞰地図や設計図などが実際の建物の位置と相違する場合、データが想定通りに取得できない問題が発生する。一方、決められた範囲内で点検ロボットが走行しながら地図を生成して、未認識場所のデータを取得する方法は、当該範囲の建物の大まかな形状を検出して地図を生成するため、巡視対象の正確な形状及び位置まで地図を復元することを保証できない問題がある。
本発明は、上記問題を解決するためになされたものであり、本発明の目的は、自動巡視の巡視対象を含む地図の生成に必要なデータを取得することである。
上記問題を解決するため、本発明のデータ取得装置は、移動体の周囲を撮影して撮影画像を出力する撮影部と、移動体の慣性情報を検出する慣性情報検出部と、移動体から、移動体の周囲の物体までの奥行き情報を検出する奥行情報検出部と、撮影部の撮影画像から巡視対象の撮影画像を検出する巡視対象検出部と、巡視対象の撮影画像、慣性情報及び奥行き情報に基づいて、巡視対象が設置される実環境を表す3次元地図における巡視対象を復元する巡視対象復元部を備える。
上記構成の本発明によれば、自動巡視の巡視対象を含む地図の生成に必要なデータを取得することができる。
本発明の第1実施形態に係るデータ取得装置の構成例を示すブロック図である。 本発明の第1実施形態に係るデータ取得装置のデータ取得部のハードウェア構成を示すブロック図である。 本発明の第1実施形態に係るデータ取得装置において生成される3次元地図を説明するための図である。 本発明の第1実施形態に係るデータ取得装置における巡視対象検出処理の手順を示すフローチャートである。 本発明の第1実施形態に係るデータ取得装置において検出された巡視対象の撮影画像の一例を示す図である。 本発明の第1実施形態に係るデータ取得装置における巡視対象復元処理の手順を示すフローチャートである。 本発明の第1実施形態に係るデータ取得装置における巡視対象の点群の抽出処理を説明するための図である。 本発明の第1実施形態に係るデータ取得装置において復元される巡視対象を示す図である。 本発明の第1実施形態に係るデータ取得装置において、復元された巡視対象の登録イメージを示す図である。 本発明の第1実施形態に係るデータ取得装置において、復元された巡視対象の登録データのイメージを示す図である。 本発明の第1実施形態に係るデータ取得装置において、復元された巡視対象の表示例を示す図である。 本発明の第1実施形態に係るデータ取得装置において、復元された巡視対象及び当該巡視対象の方向を表示する例を示す図である。 本発明の第2実施形態に係るデータ取得装置の構成例を示すブロック図である。 本発明の第2実施形態に係るデータ取得装置における復元完了検出処理の手順を示すフローチャートである。 本発明の第2実施形態に係るデータ取得装置における形状復元完了検出処理の例1の手順を示すフローチャートである。 本発明の第2実施形態に係るデータ取得装置における形状復元完了検出処理の例2の手順を示すフローチャートである。 本発明の第2実施形態に係るデータ取得装置における細部復元完了検出処理の手順を示すフローチャートである。 本発明の第2実施形態に係るデータ取得装置において、複数視点から復元された巡視対象のイメージを示す図である。 本発明の第3実施形態に係るデータ取得装置の外部端末に表示されるカメラの撮影画像の一例を示す図である。 本発明の第3実施形態に係るデータ取得装置における巡視対象検出処理の手順を示すフローチャートである。
<第1実施形態>
以下、本発明の第1実施形態に係るデータ取得装置について、図面を参照しながら具体的に説明する。なお、本発明は以下の例に限定されるものではない。また、以下の説明では、社会インフラ設備等にある計器を、巡視対象の一例として説明する。本明細書及び図面において、実質的に同一の機能又は構成を有する構成要素については、同一の符号を付することにより重複する説明を省略する。
図1は、第1実施形態に係るデータ取得装置1の構成例を示すブロック図である。データ取得装置1は、移動ロボット、乗用車、人が持ち運び可能なデバイス等の移動体に搭載される。図1に示すように、データ取得装置1は、データ取得部10と、撮影部20と、慣性情報検出部30と、奥行情報検出部40と、外部端末50とを備える。撮影部20は、データ取得部10の巡視対象検出部12に接続される。慣性情報検出部30及び奥行情報検出部40は、データ取得部10の巡視対象復元部13に接続される。データ取得部10の情報表示部14は、外部端末50に接続される。
撮影部20は、例えば、カメラ等で構成され、撮影部20が取り付けられた移動体、すなわち、データ取得装置1が設置された移動体の周囲を撮影する。以下では、データ取得装置1が設置された移動体を、単に移動体と称する。撮影部20により撮像された画像は、データ取得部10の巡視対象検出部12により取得される。
慣性情報検出部30は、例えば、IMU(Inertial Measurement Unit)等で構成され、移動体の慣性情報の一例として、移動体の角速度及び角加速度を検出する。慣性情報検出部30により検出された慣性情報(移動体の角速度及び角加速度)は、データ取得部10の巡視対象復元部13により取得される。
奥行情報検出部40は、例えば、LiDAR(Light Detection and Ranging)等で構成され、移動体から、移動体の周囲の物体までの奥行き情報を検出する。本実施形態では、移動体の周囲の物体の3次元点群情報(奥行き情報)を検出するLiDARを、奥行情報検出部40として利用する例を説明する。3次元点群情報は、レーザー光を用いて距離センシングを行い、二次元又は三次元の空間イメージングを表現する情報である。奥行情報検出部40により検出された巡視対象等の物体の3次元点群情報(奥行き情報)は、データ取得部10の巡視対象復元部13により取得される。
[データ取得部10]
データ取得部10は、図1に示すように、巡視対象記憶部11と、巡視対象検出部12と、巡視対象復元部13と、情報表示部14とを有する。
巡視対象記憶部11は、巡視対象に関する各種データを記憶する。巡視対象記憶部11は、予め登録された巡視対象の画像、例えば、社会インフラ設備内にある計器等の巡視点検対象の正面から撮影された画像を記憶する。また、巡視対象記憶部11は、巡視対象復元部13により過去に復元された巡視対象の撮影画像と、生成された3次元地図とが紐付けられたデータを記憶する(後述の図10参照)。
巡視対象検出部12は、撮影部20の撮影画像から巡視対象の撮影画像を検出する巡視対象検出処理を行う。巡視対象検出部12は、撮影部20から撮影画像を取得し、撮影画像の中に、巡視対象の撮影画像が含まれているか否かを判定する。巡視対象検出部12は、撮影画像に巡視対象の撮影画像が含まれていると判定した場合、撮影画像に写る巡視対象の位置及び領域を推定する。そして、巡視対象検出部12は、巡視対象の撮影画像、推定した巡視対象の撮影画像の位置及び領域を巡視対象復元部13に出力し、巡視対象の撮影画像及び巡視対象が写っている方向の情報を情報表示部14に出力する。なお、巡視対象検出部12における巡視対象検出処理について、後述の図4で詳述する。
巡視対象復元部13は、巡視対象検出部12からの巡視対象の撮影画像、慣性情報検出部30からの慣性情報、奥行情報検出部40からの奥行き情報に基づいて、巡視対象が設置される実環境を表す3次元地図における巡視対象を復元する巡視対象復元処理を行う。巡視対象復元処理において、巡視対象復元部13は、慣性情報に基づいて巡視対象が設置される実環境を表す3次元地図を生成する。また、巡視対象復元部13は、巡視対象の撮影画像及び奥行情報検出部40からの奥行き情報(3次元点群情報)に基づいて、巡視対象の奥行き情報(3次元点群情報)を抽出し、抽出した巡視対象の3次元点群情報を利用して巡視対象を復元する。また、巡視対象復元部13は、複数の巡視対象の撮影画像を利用して巡視対象を復元する。そして、巡視対象復元部13は、復元した巡視対象の情報を情報表示部14に出力する。なお、巡視対象復元部13における巡視対象復元処理について、後述の図6で詳述する。
情報表示部14は、データ取得装置1の使用者(ユーザー)に巡視対象の復元の成否を判定させるため、巡視対象復元部13により復元された巡視対象を、ユーザーが使用する外部端末50に表示させるように制御する。具体的には、情報表示部14は、巡視対象検出部12から入力した巡視対象画像及び巡視対象が写っている方向の情報、巡視対象復元部13からの復元された巡視対象を外部端末50に送信する。ユーザーは、外部端末50に示される情報を基に巡視対象がある方向、巡視対象の復元が不十分な方向へデータ取得装置1を移動させる。また、ユーザーが、巡視対象の復元が完了したことを確認して、外部端末50を利用して、巡視対象の復元の成否に関する情報を登録する場合、情報表示部14は、外部端末50から巡視対象の復元の成否に関する情報を受け付ける。そして、情報表示部14は、復元された巡視対象を3次元地図に紐づけて巡視対象記憶部11に保存する。
図1に示す外部端末50は、LCD(Liquid Crystal Display)や有機EL(Electro-luminescence)ディスプレイなどの表示デバイス等からなる表示部、及び、タッチセンサー等からなる操作部を有する。なお、外部端末50は、無線通信によりデータ取得部10と接続される場合、無線通信機能を有する通信部を更に備える。表示部及び操作部は、例えばタッチパネルとして一体に形成される。外部端末50は、ユーザーからの操作内容を表す操作信号を生成し、該操作信号をデータ取得部10に供給する。また、外部端末50は、情報表示部14から受信した巡視対象の撮影画像、巡視対象が写っている方向の情報、復元された巡視対象を表示する(後述の図11,12参照)。なお、操作部をマウスやタブレットなどで構成し、表示部とは別体で構成することも可能である。
図2は、データ取得部10のハードウェア構成を示す図である。データ取得部10の機能は、マイクロコントローラー等の情報処理装置により実現される。データ取得部10は、図2に示すように、CPU(Central Processing Unit)10aと、ROM(Read Only Memory)10bと、RAM(Random Access Memory)10cと、記憶部10dと、通信部10eとを有する。
CPU10aは、データ取得部10内の各部の動作を制御する。具体的には、データ取得部10は、巡視対象検出部12における巡視対象検出処理、巡視対象復元部13における巡視対象復元処理、情報表示部14における外部端末50とのデータ送受信処理を制御する。
ROM10bは、例えば、不揮発性メモリ等の記憶媒体で構成され、CPU10aが実行及び参照するプログラムやデータ等を記憶する。
RAM10cは、例えば、揮発性メモリ等の記憶媒体で構成され、CPU10aが行う各処理に必要な情報(データ)を一時的に記憶する。
記憶部10dは、CPU10aによって実行されるプログラムを格納したコンピューター読取可能な非一過性の記録媒体で構成され、例えばHDD(Hard Disk Drive)等の記憶装置で構成される。記憶部10dは、CPU10aが各部を制御するためのプログラム、OS(Operating System)、コントローラー等のプログラム、データを記憶する。また、記憶部10dは、巡視対象記憶部11に記憶される巡視対象の各種データを記憶する。なお、記憶部10dに記憶されるプログラム、データの一部は、ROM10bに記憶されてもよい。また、記憶部10dは、HDDに限定されず、例えば、SSD(Solid State Drive)、CD(Compact Disc)-ROM、DVD(Digital Versatile Disc)-ROM等の記録媒体であってもよい。
通信部10eは、例えば、NIC(Network Interface Card)やモデム等で構成され、外部端末50との接続を確立し、CPU10aの制御により、外部端末50との各種データの送受信を行う。
[3次元地図]
データ取得装置1における各種処理を説明する前に、まず、奥行情報検出部40により取得される奥行き情報(3次元点群情報)に基づいて生成される3次元地図について説明する。図3は、本実施形態のデータ取得装置1の巡視対象復元部13において生成される3次元地図を説明するための図である。図3(A)は、想定される巡視対象(計器)の実環境の3次元地図を示す。図3(B)は、図3(A)に示す実環境の3次元地図が復元された3次元地図を示す。
図3(A)に示す実環境では、例えば、計器である巡視対象100aがあり、巡視対象100aの近くに、物体101a及び物体102aがある。図3(A)に示す実環境に移動した移動体に設置されたデータ取得装置1の奥行情報検出部40は、巡視対象100a、物体101a及び物体102aの空間イメージを表現する奥行き情報(3次元点群情報)を取得する。図3(B)には、奥行情報検出部40により取得された奥行き情報に基づいて生成された、図3(A)に示す実環境の3次元地図であり、この3次元地図のサイズは、図3(A)に示す実環境の地図と同じである。座標系120は、3次元地図上の点位置を指定するために設けられた座標系である。すなわち、3次元地図上の任意点の位置は、座標系120における座標(x、y、z)で表せる。2点鎖線で描画されている巡視対象100b、物体101b及び物体102bは、3次元点群により表現される、巡視対象100a、物体101a及び物体102aのそれぞれの3次元形状である。なお、図3(B)において、物体の形状を明らかに示すため、全ての3次元点群が表示されず、3次元点群の一部である点群110が例として示されている。
[巡視対象検出処理]
次に、データ取得部10の巡視対象検出部12における巡視対象検出処理について説明する。図4は、本実施形態のデータ取得装置1における巡視対象検出処理の手順を示すフローチャートである。以下に説明する処理は、予め決められた周期毎に、例えば50ms毎に実行される。
まず、巡視対象検出部12は、撮影部20から撮影画像を取得する(ステップS101)。
次いで、巡視対象検出部12は、取得した撮影画像から、巡視対象記憶部11に予め記憶された巡視対象を検出する(ステップS102)。この処理では、巡視対象検出部12は、例えば、テンプレートマッチングを利用して、撮影画像の中に写る巡視対象の撮影画像を検出して、撮影画像に写る巡視対象の位置を推定する。具体的には、巡視対象検出部12は、撮影画像と、巡視対象記憶部11に予め記憶された巡視対象の画像との類似度を計算し、類似度が所定閾値を満たす撮影画像の部分の位置を検出することで、巡視対象の撮影画像の検出及び巡視対象の撮影画像の位置推定を行う。なお、撮影画像と巡視対象の画像との類似度の計算方法としては、例えば、SSD(Sum of Squared Difference)、SAD(Sum of Absolute Difference)、NCC(Normalized Cross Correlation)、ZNCC(Zero means Normalized Cross Correlation)等を利用可能である。
次いで、巡視対象検出部12は、撮影画像の中に巡視対象が含まれているか否かを判定する(ステップS103)。この処理では、巡視対象検出部12が、算出した撮影画像と巡視対象の画像との類似度が所定閾値を満たす撮影画像の部分を検出した場合には、巡視対象検出部12は撮影画像の中に巡視対象が含まれていると判定し、ステップS103の処理はYES判定となる。一方、巡視対象検出部12が、算出した撮影画像と巡視対象の画像との類似度が所定閾値を満たす撮影画像の部分を検出できなかった場合には、巡視対象検出部12は撮影画像の中に巡視対象が含まれていないと判定し、ステップS103の処理はNO判定となる。
ステップS103の処理において、巡視対象検出部12が撮影画像の中に巡視対象が含まれていないと判定した場合(ステップS103のNO判定)、巡視対象検出部12は、巡視対象検出処理を終了する。
一方、ステップS103の処理において、巡視対象検出部12が撮影画像の中に巡視対象が含まれていると判定した場合(ステップS103のYES判定)、巡視対象検出部12は、ステップS104の処理を行う。この処理では、巡視対象検出部12は、撮影画像及び検出された巡視対象の撮影画像に関する各種情報を巡視対象復元部13に出力する。なお、巡視対象の撮影画像に関する各種情報は、巡視対象の撮影画像が撮影部20の撮影画像における位置、巡視対象の撮影画像のサイズを含む。
ステップS103の処理がNO判定である場合、又は、ステップS104の処理後、巡視対象検出部12は、巡視対象検出処理を終了する。
図5は、巡視対象検出部12により検出された巡視対象の撮影画像の一例を示す図である。画像201は、巡視対象記憶部11に予め記憶された巡視対象の画像の一例である。画像202は、撮影部20から取得された撮影画像の一例である。画像202の中に含まれる画像203は、巡視対象検出部12により検出された巡視対象(画像201)の撮影画像に対応する。巡視対象検出部12は、画像202の左上の頂点を原点とし、画像202の幅方向を「x」軸とし、画像202の縦方向を「y」軸として、巡視対象の撮影画像の位置(画像203の左上の頂点の座標)及びサイズ(横幅W、縦幅H)を推定する。
[巡視対象復元処理]
次に、データ取得部10の巡視対象復元部13における巡視対象復元処理について説明する。図6は、本実施形態のデータ取得装置1における巡視対象復元処理の手順を示すフローチャートである。以下に説明する処理は、予め決められた周期毎に実行される。なお、巡視対象復元処理の実行周期は、巡視対象検出部12の巡視対象検出処理の実行周期と同様に設定されてもよいし、異なるように設定されてもよい。
まず、巡視対象復元部13は、奥行情報検出部40から奥行き情報(3次元点群情報)を取得する(ステップS201)。なお、奥行情報検出部40から取得される奥行き情報は、例えば、図3(B)で説明した、巡視対象100b、物体101b及び物体102bの点群情報として示される。
次いで、巡視対象復元部13は、慣性情報検出部30から慣性情報の一例として角速度及び角加速度を取得する(ステップS202)。また、この処理では、巡視対象復元部13は、取得した角速度及び角加速度に基づいて、前回、巡視対象復元処理が行われた時の移動体の位置から、移動体の位置及び姿勢がどのように変化したかを示す相対移動量を推定する。なお、巡視対象復元部13が慣性情報検出部30から取得した角速度及び角加速度は、それぞれ、下記式(1)及び式(2)で表せる。そして、移動体の位置及び姿勢の変化量は、慣性情報検出部30から取得した角速度及び角加速度に基づいて、下記式(3)及び式(4)で計算できる。
Figure 2023079699000002
式(1)~式(4)において、ω’は慣性情報検出部30から取得した角速度を表し、ωは慣性情報検出部30内部のバイアス、雑音等の影響を除いた角速度を表す。a’は慣性情報検出部30から取得した角加速度を表し、aは慣性情報検出部30内部のバイアス、雑音等の影響を除いた角加速度を表す。bは慣性情報検出部30内部のバイアスを表し、nは白色ノイズを表し、gは世界座標での重力加速度を表す。Rは世界座標系から任意の座標系への変換を表し、vは速度を表し、pは位置を表し、rは姿勢を表し、I3*3は3×3の単位行列を表す。また、tは時刻を表し、上述した各種変量に「t」が下付きされたのは、当該変量は時間変化であることを表す。また、変量b及びnに、ω又はaが上付きされたのは、当該変量が、角速度(ω)又は角加速度(a)のどちらに対応するものであることを表す。
式(3)に示すように、移動体の位置変化量(pΔt)は、角加速度(a’)及び速度(v)から算出できる。式(4)に示すように、移動体の姿勢変化量(rΔt)は、角速度(ω’)から算出できる。また、移動体の速度変化量(vΔt)は、下記式(5)に示すように、角加速度(a’)から算出できる。
Figure 2023079699000003
次いで、巡視対象復元部13は、初回処理であるか否かを判定する(ステップS203)。この処理では、ステップS201の処理において、奥行情報検出部40から初めて奥行き情報を取得する場合には、巡視対象復元部13は初回処理であると判定し、ステップS203の処理はYES判定となる。一方、ステップS201の処理において、奥行情報検出部40から過去に奥行き情報を取得していた場合には、巡視対象復元部13は初回処理でないと判定し、ステップS203の処理はNO判定となる。
ステップS203の処理において、巡視対象復元部13が初回処理であると判定した場合(ステップS203のYES判定)、巡視対象復元部13は、後述のステップS206の処理を行う。
一方、ステップS203の処理において、巡視対象復元部13が初回処理でないと判定した場合(ステップS203のNO判定)、巡視対象復元部13は、ステップS201で新たに取得した点群と、前回処理で生成された3次元地図との照合を行う(ステップS204)。この処理では、巡視対象復元部13は、新たに入力された点群の形状を前回処理で生成された3次元地図に含まれる形状と一致するように剛体変換を行うために必要となる後述の回転行列M及び並進ベクトルNを推定する。
なお、剛体変換は、点群の形状を変形させず、回転、並進のみで点群を移動させる変換である。例えば、新たに取得した点群中の任意点位置pを、3次元地図に含まれる点群の点位置p’への剛体変換は、下記式(6)に基づいて行われる。
Figure 2023079699000004
式(6)において、Mは3×3の直行行列で表現される回転行列を表し、Nは並進ベクトルを表す。剛体変換の推定は、回転行列M及び並進ベクトルNを推定することに相当する。点群同士のペアからM及びNを推定するのは、例えば、ICP(Iterative Closest Point)、NDT(Normal Distribution Transform)等の公知手法を利用する。また、これらの手法を利用する際には、初期状態で大まかに点群が正解値に合っている必要がある。このため、初期位置としてステップS202で推定された相対移動量(移動体の位置及び姿勢の変化量)を利用する。
次いで、巡視対象復元部13は、推定した回転行列M及び並進ベクトルNを利用して式(6)に基づいて、新たに入力された点群の形状を前回処理で生成された3次元地図に含まれる形状と一致するように点群の剛体変換を行う(ステップS205)。
次いで、巡視対象復元部13は、剛体変換された点群を3次元地図として登録する(ステップS206)。この処理では、初回処理の場合、巡視対象復元部13は、新たに取得した点群を3次元地図として登録し、新たに取得した点群の原点及び座標系を地図の原点及び座標系として巡視対象記憶部11に登録する。一方、初回処理でない場合、巡視対象復元部13は、ステップS205において剛体変換された点群を前回処理で生成された3次元地図(巡視対象記憶部11に保存されている3次元地図)に追加する。
次いで、巡視対象復元部13は、巡視対象検出部12において巡視対象が検出されたか否かを判断する(ステップS207)。この処理では、巡視対象検出部12から撮影画像及び検出された巡視対象の撮影画像に関する各種情報が入力された場合には、巡視対象復元部13は巡視対象が検出されたと判断し、ステップS207はYES判定となる。一方、巡視対象検出部12から撮影画像及び検出された巡視対象の撮影画像に関する各種情報が入力されていない場合には、巡視対象復元部13は巡視対象が検出されていないと判断し、ステップS207はNO判定となる。
ステップS207の処理において、巡視対象復元部13が巡視対象が検出されていないと判断した場合、巡視対象復元部13は、巡視対象復元処理を終了する。
一方、ステップS207の処理において、巡視対象復元部13が巡視対象が検出されたと判断した場合、巡視対象復元部13は、新たに取得した点群から巡視対象の点群を抽出する(ステップS208)。この処理では、巡視対象復元部13は、新たに取得した点群を撮影画像に投影し、巡視対象の撮影画像、巡視対象の撮影画像の位置、巡視対象の撮影画像のサイズを含む巡視対象の撮影画像に関する各種情報に基づき、投影された点群から巡視対象の点群を抽出する。
具体的には、図7を用いて説明する。図7は、本実施形態に係るデータ取得装置1における巡視対象の点群の抽出処理を説明するための図である。図7(A)は、撮影部20の撮影画像及び巡視対象検出部12により検出された巡視対象の撮影画像を示す。図7(B)は、奥行情報検出部40により取得された点群301を示す。図7(C)は、図7(B)に示す点群301が図7(A)に示す撮影画像(画像202)に投影されたイメージを示す。図7(D)は、抽出された巡視対象の点群(点群302)を示す。なお、図7(B)に示す点群301が、2次元の画像で表示されているが、実際には3次元点群である。
図7(A)に示す画像202及び画像203は、それぞれ、撮影部20から取得された撮影画像、及び、巡視対象検出部12により検出された巡視対象の撮影画像であり、図5に示す画像202及び画像203と同じであるので、重複説明を省略する。巡視対象復元部13は、下記式(7)~式(9)により、図7(B)に示す点群301を図7(A)に示す画像202に投影する。式(7)は、奥行情報検出部40により取得された点群301の座標系を、撮影部20により取得された撮影画像の座標系へ変換する式である。式(8)及び式(9)は、式(7)により撮影部20の撮影画像の座標系に変換された後の点群301を、理想的なピンホールモデルを利用し、撮影部20の撮影画像である画像202に投影する式である。なお、ピンホールモデルは、3次元シーンの各点から出る光を画像平面上の2次元点へ投影するモデルである。
Figure 2023079699000005
式(7)~式(9)において、pは、奥行情報検出部40の点群の座標系における点位置を表す。pは、撮影部20の撮影画像の座標系における点位置を表す。Mlcは奥行情報検出部40の点群の座標系から撮影部20の撮影画像の座標系へ変換するための回転行列を表す。Nlcは奥行情報検出部40の点群の座標系から撮影部20の撮影画像の座標系へ変換するための並進移動量を表す。また、xおよびyは撮影部20の撮影画像(画像202)上での座標を表し、xl、l、は奥行情報検出部40の3次元点群(点群301)での座標を表す。また、f、fは撮影部20の焦点距離を表し、c、cは撮影部20の撮影画像(画像202)の中心位置を表す。
上述した式(7)~式(9)を利用する投影により、図7(B)に示す点群301が、図7(C)に示すように撮影画像(画像202)に投影される。そして、巡視対象復元部13は、巡視対象の撮影画像(画像203)が撮影画像(画像202)における位置、巡視対象の撮影画像のサイズ(図7(A)に示すW,H)に基づいて、図7(D)に示すように、巡視対象の点群(点群302)を抽出する。
なお、図7では、巡視対象復元部13が、LiDARにより検出される3次元点群から巡視対象の点群を抽出する例を説明したが、本発明はこれに限定されない。奥行情報検出部40が奥行き情報を検出する他の種類の装置で構成される場合、巡視対象復元部13は、当該装置により検出される奥行き情報から巡視対象の奥行き情報を抽出する。抽出方法は、巡視対象の奥行き情報を抽出できる方法であれば、任意方法を適用可能である。
図6に戻って説明を続ける。
ステップS208の次に、巡視対象復元部13は、巡視対象の復元を行う(ステップS209)。この処理では、巡視対象の復元は、巡視対象の奥行き情報(点群)のみを利用する復元と、異なる位置で撮影された複数の巡視対象の撮影画像を利用する復元との2つの方法がある。なお、巡視対象の点群のみを利用する復元は、奥行情報検出部40の分解能の関係で対象の形状しか復元できない。異なる位置で撮影された複数の巡視対象の撮影画像を利用する復元は、ステレオ視により生成される色情報を含むので、点群のみを利用する復元に比べ、高密度な復元ができる。具体的には、図8を用いて説明する。
図8は、本実施形態に係るデータ取得装置1において、復元される巡視対象を示す図である。図8に示す画像401は、巡視対象の点群のみを利用して復元された巡視対象であり、画像402は、複数の巡視対象の撮影画像を利用して復元された巡視対象である。図8に示すように、巡視対象の点群のみ(図7(D)に示す点群302)を利用して復元された巡視対象(画像401)は、点群により表示される巡視対象の形状のみとなる。複数の巡視対象の撮影画像(図5に示す画像203)を利用して復元された巡視対象(画像402)は、巡視対象の形状だけでなく、巡視対象の細部(表示盤等)も見えるように高密度に復元される。
図6に戻って説明を続ける。
ステップS209の次に、巡視対象復元部13は、復元した巡視対象を巡視対象記憶部11に登録する(ステップS210)。この処理では、巡視対象復元部13は、復元した巡視対象(図8)と、巡視対象が3次元地図上での位置と、巡視対象の撮影画像と、撮影画像が取得(検出)される際の位置姿勢情報とを紐付けて巡視対象記憶部11に登録する。また、巡視対象復元部13は、復元した巡視対象を情報表示部14に出力する。
図9は、本実施形態に係るデータ取得装置1における復元された巡視対象の登録イメージを示す図である。図9に示す3次元地図は、図3(B)で説明した3次元地図と同じであるので、重複説明を省略する。図9に示す巡視対象100bを囲む1点鎖線の枠501は、巡視対象の3次元地図上での位置を示す。復元された巡視対象(図8で説明した画像401、画像402)は、図9に示すように、巡視対象の3次元地図上での位置(枠501)と紐付けて登録される。なお、実際に巡視対象記憶部11に登録されるデータについて、図10を用いて説明する。
図10は、本実施形態に係るデータ取得装置1における復元された巡視対象の登録データのイメージを示す図である。図10に示す「画像ID」の欄には、巡視対象の種類ごとに付けられる唯一の識別番号(例えば、「1」、「2」)が格納される。すなわち、同じ種類の巡視対象には、同じ「画像ID」が用いられる。「地図上の位置姿勢」の欄には、巡視対象が3次元地図上での位置姿勢情報が格納される。なお、巡視対象が3次元地図上での位置姿勢情報(例えば、「10,10,30,0,45,90」)は、x,y,z,roll,pitch,yawをこの順で表す情報とする。ここで、x,y,zで表す情報は、位置情報であり、roll,pitch,yawで表す情報は、姿勢情報である。
「奥行き情報A」の欄には、巡視対象の奥行き情報(点群)のみを利用して復元された巡視対象の保存先へのパス(「./・・・」と略記する)が格納される。「復元完了A」の欄には、巡視対象の奥行き情報(点群)のみを利用する巡視対象の復元(巡視対象の形状復元)が完了したか否かを示す情報が格納される。なお、巡視対象の奥行き情報のみを利用する巡視対象の復元が完了したか否かを示す情報としては、例えば、「Y」が完了したことを示し、「N」が未完了であることを示す。「奥行き情報B」の欄には、複数の巡視対象の撮影画像(図5に示す画像203)を利用して復元された巡視対象の保存先へのパス(「./・・・」と略記する)が格納される。「復元完了B」の欄には、複数の巡視対象の撮影画像を利用する巡視対象の復元(巡視対象の細部復元)が完了したか否かを示す情報が格納される。なお、複数の巡視対象の撮影画像を利用する巡視対象の復元が完了したか否かを示す情報としては、例えば、「Y」が完了したことを示し、「N」が未完了であることを示す。
「撮影画像」の欄には、巡視対象の撮影画像(図5に示す画像203)の保存先へのパス(「./・・・」と略記する)が格納される。「データ取得位置姿勢」の欄には、巡視対象を復元するための各種情報(撮影部20、慣性情報検出部30、奥行情報検出部40等のセンサーの検出情報)の取得時(検出時)の位置情報及び姿勢情報のセット(例えば、「d1」~「dn」)が格納される。なお、「d1」~「dn」のセットごとに、x,y,z,roll,pitch,yawをこの順で表す位置情報及び姿勢情報が格納される。セットに含まれるデータの数(n)は、点群情報の取得回数を表している。
上述の「画像ID」、「地図上の位置姿勢」、「奥行き情報A」、「復元完了A」、「奥行き情報B」、「復元完了B」、「撮影画像」及び「データ取得位置姿勢」の欄に格納される情報は互いに紐付けられた1セットの情報として、巡視対象毎に巡視対象記憶部11に記憶される。
[巡視対象情報の表示例]
次に、情報表示部14における巡視対象情報の表示例を説明する。情報表示部14は、巡視対象検出部12から巡視対象の撮影画像及び巡視対象が写っている方向の情報を入力し、巡視対象復元部13から復元された巡視対象を入力する。また、情報表示部14は、入力した巡視対象の撮影画像、復元された巡視対象、巡視対象が写っている方向の情報をユーザーが使用する外部端末50に送信して表示させる。なお、巡視対象が写っている方向は、すなわち、巡視対象が移動体に対する方向である。
図11は、外部端末50に表示される巡視対象情報の表示例を示す図である。図11(A)~(C)は、それぞれ、巡視対象情報の表示例1~3を示す。図11(A)に示す画像601は、外部端末50の表示画面を表す。画像601の左側部分にある画像602は、巡視対象の撮影画像であり、図5に示す画像203と同じである。また、画像601の右側部分にある画像603は、複数の巡視対象の撮影画像を利用して復元された巡視対象を表しており、図8に示す画像402と同じである。図11(A)に示す表示例1は、例えば、情報表示部14が複数の巡視対象の撮影画像を利用して復元された巡視対象のみを入力した場合に適用可能である。一方、例えば、情報表示部14が巡視対象の奥行き情報(点群)を利用して復元された巡視対象のみを入力した場合、画像603の代わりに、巡視対象の奥行き情報(点群)を利用して復元された巡視対象(例えば、図8に示す画像401)を表示してもよい。
図11(B)に示す画像604は、画像603に重ねて表示され、巡視対象の奥行き情報(点群)を利用して復元された巡視対象の一部の画像である。すなわち、図11(B)に示す表示例2では、巡視対象の奥行き情報(点群)を利用して復元された巡視対象と複数の巡視対象の撮影画像を利用して復元された巡視対象とが重ねて表示される。なお、図11(B)に示す表示例2を適用するには、巡視対象復元部13が巡視対象の奥行き情報(点群)及び複数の巡視対象の撮影画像のそれぞれを利用して巡視対象を復元する必要がある。そこで、情報表示部14は、巡視対象の奥行き情報(点群)を利用して復元された巡視対象と、複数の巡視対象の撮影画像を利用して復元された巡視対象とを重ねて外部端末50に表示させる。
図11(C)に示す黒色の画像605は、画像603に重ねて表示される。なお、黒色の画像605は、巡視対象の復元されていない部分を表す。本発明は、これに限定されず、例えば、巡視対象の復元されていない部分を白色等の任意色の画像で表示してもよい。また、巡視対象の復元されていない部分(画像605の形状)の抽出は、巡視対象の撮影画像(画像602)を2値変換して外側の輪郭を抽出することで行われる。2値変換の方法はとしては、カラー画像をグレイスケール画像へ変換し、例えば、閾値以下の画素を黒、閾値以上の白とすることで変換できる。そして、2値変換された画像を基に値がゼロでない画素をなぞって、巡視対象の復元されていない部分の輪郭(形状)を抽出することができる。なお、2値変換の方法及び輪郭を抽出する方法は、上述の方法に限定されず、2値変換及び輪郭抽出可能の方法であれば、任意方法を適用可能である。
図12は、図11に示す表示仕様に加え、巡視対象が移動体に対する方向(以下、「巡視対象の方向」と略称する)を更に表示する例を示す。巡視対象の方向を外部端末50の表示画面に表示させる場合、情報表示部14は、巡視対象検出部12から入力される巡視対象が写っている方向の情報に基づいて、外部端末50において、復元された巡視対象が移動体に対する方向を表示させる。
図12に示す領域701は、外部端末50の表示画面の四辺に設けられた、巡視対象の方向の表示領域である。表示画面(画像601)の上端部にある領域701及び左端にある領域701のそれぞれには、アイコン702及びアイコン703のそれぞれが表示されている。2つのアイコンが表示されることは、画像602が示す巡視対象が2つあるとのことである。アイコン702が表示画面の上端部にある領域701の左側に表示されることは、2つの巡視対象中の1つが移動体の正面のやや左方向にあることを示す。また、アイコン703が表示画面の左端にある領域701の上側に表示されることは、2つの巡視対象中のもう1つが移動体の左前にあることを示す。
なお、図12では、図11(A)に示す表示仕様に巡視対象の方向を更に表示する例を説明したが、本発明はこれに限定されず、巡視対象の方向を図11(B)及び図11(C)に示す表示仕様に更に表示してもよい。
[効果]
上述したように、データ取得装置1は、巡視対象を含む地図を復元するための撮影画像、角速度、角加速度及び奥行き情報等のデータを取得し、3次元地図の生成及び巡視対象の復元を行い、巡視対象に関する各種情報を3次元地図に紐付けて保存する。それゆえ、本発明のデータ取得装置1は、自動巡視の巡視対象を含む地図の生成に必要なデータを取得することができる。
<第2実施形態>
ここで、本発明の第2実施形態に係るデータ取得装置について、図面を参照しながら具体的に説明する。図13は、本発明の第2実施形態に係るデータ取得装置の構成例を示すブロック図である。図13に示すデータ取得装置2の構成は、図1に示すデータ取得装置1のデータ取得部10が、更に復元完了検出部15を備える構成である。図13に示すように、データ取得部10において、復元完了検出部15は、巡視対象復元部13と情報表示部14との間に設置される。巡視対象復元部13、復元完了検出部15及び情報表示部14は、この順で接続される。なお、データ取得装置2の復元完了検出部15以外の各構成部は、図1に示すデータ取得装置1のこれらの構成部と同じであるので、重複説明を省略する。
復元完了検出部15は、巡視対象復元部13から復元された巡視対象(図8参照)を入力する。また、復元完了検出部15は、後述の巡視対象の形状復元、後述の巡視対象の細部復元の成功を検出して巡視対象の復元完了の結果として情報表示部14に出力する。
図14は、復元完了検出部15における復元完了検出処理の手順を示すフローチャートである。以下に説明する処理は、復元完了検出部15が巡視対象復元部13から復元された巡視対象を入力すると開始される。なお、ここで、LiDARにより検出される3次元点群から抽出される巡視対象の点群を利用して復元完了検出処理を行う例を説明するが、本発明はこれに限定されない。奥行情報検出部40が奥行き情報を検出する他の種類の装置で構成される場合、当該装置により検出される奥行き情報から抽出された巡視対象の奥行き情報を利用して復元完了検出処理を行ってもよい。
まず、復元完了検出部15は、復元された巡視対象の点群を取得する(ステップS301)。
次いで、復元完了検出部15は、サブルーチン処理である巡視対象の形状復元完了検出処理を呼び出して行う(ステップS302)。なお、巡視対象の形状復元完了検出処理について、後述の図15及び後述の図16で詳細する。
次いで、復元完了検出部15は、サブルーチン処理である巡視対象の細部復元完了検出処理を呼び出して行う(ステップS303)。なお、巡視対象の細部復元完了検出処理について、後述の図17で詳細する。
次いで、復元完了検出部15は、形状復元完了検出処理及び細部復元完了検出処理の結果に基づいて、巡視対象の復元が完了したか否かを判定する(ステップS304)。この処理において、形状復元完了検出処理の結果及び細部復元完了検出処理の結果が復元完了でない場合、復元完了検出部15が巡視対象の復元が完了していないと判定し、ステップS304の処理はNO判定となる。形状復元完了検出処理の結果及び細部復元完了検出処理の結果のいずれかが復元完了である場合、復元完了検出部15が巡視対象の復元が完了したと判定し、ステップS304の処理はYES判定となる。
ステップS304の処理において、復元完了検出部15が巡視対象の復元が完了していないと判定した場合(ステップS304のNO判定)、復元完了検出部15は、復元完了検出処理を終了する。
一方、ステップS304の処理において、復元完了検出部15が巡視対象の復元が完了したと判定した場合(ステップS304のYES判定)、ステップS305の処理を行う。ステップS305の処理では、復元完了検出部15は、形状復元完了検出処理及び細部復元完了検出処理の結果を情報表示部14に通知する。そして、情報表示部14は、形状復元完了検出処理及び細部復元完了検出処理の結果を基に巡視対象記憶部11に記憶されている巡視対象の登録データ(図10参照)の「復元完了A」及び/又は「復元完了B」の欄を更新する。なお、形状復元完了検出処理及び細部復元完了検出処理の結果が復元完了である場合(後述の形状復元完了フラグ及び細部復元完了フラグが「ON」である場合)、情報表示部14は、「復元完了A」及び「復元完了B」を「Y」に更新する。また、形状復元完了検出処理の結果のみが復元完了である場合(後述の形状復元完了フラグのみが「ON」である場合)、情報表示部14は、「復元完了A」のみを「Y」に更新する。また、細部復元完了検出処理の結果のみが復元完了である場合(後述の細部復元完了フラグのみが「ON」である場合)、情報表示部14は、「復元完了B」のみを「Y」に更新する。
ステップS304の処理がNO判定である場合、又は、ステップS305の処理後、復元完了検出部15は、復元完了検出処理を終了する。
[形状復元完了検出処理の例1]
図15は、復元完了検出部15における形状復元完了検出処理の例1の手順を示すフローチャートである。以下に説明する処理は、サブルーチン処理として、図14に示すステップS302において呼び出されて実行される。なお、ここで、LiDARにより検出される3次元点群から抽出される巡視対象の点群を利用して形状復元完了検出処理を行う例を説明するが、本発明はこれに限定されない。奥行情報検出部40が奥行き情報を検出する他の種類の装置で構成される場合、当該装置により検出される奥行き情報から抽出された巡視対象の奥行き情報を利用して形状復元完了検出処理を行ってもよい。
まず、復元完了検出部15は、復元された巡視対象の点群から、巡視対象の復元が完了したか否かを判定するためのメッシュを生成する(ステップS311)。この処理では、復元完了検出部15は、復元された巡視対象の点群からサンプリングされた複数の点を頂点としてそれぞれのメッシュを生成する。なお、メッシュの生成方法は、公知の手法を利用しても良い。
次いで、復元完了検出部15は、生成した各メッシュの面積を計算する(ステップS312)。なお、ステップS311で説明した巡視対象の点群に含まれる各点をメッシュの頂点としてメッシュを生成する際、点群のデータが取得できていない箇所には、頂点が存在しないため、生成されたメッシュの面積が、頂点があるメッシュの面積より大きい。すなわち、あるメッシュの面積が他のメッシュの面積より大きい場合、当該メッシュには、頂点がないので、点群が欠損している。
次いで、復元完了検出部15は、各メッシュの面積に基づいて、巡視対象の形状復元が完了したか否かを判定する(ステップS313)。この処理では、ステップS312の処理において計算されたメッシュの面積が所定閾値以上の場合、復元完了検出部15は巡視対象の形状復元が完了したと判定し、ステップS313の処理はYES判定となる。ステップS312の処理において計算されたメッシュの面積が所定閾値未満の場合、復元完了検出部15は巡視対象の形状復元が完了していないと判定し、ステップS313の処理はNO判定となる。なお、所定閾値は、点群の欠損が判定できる値であれば、例えば、メッシュ面積の平均値の3倍の値等、任意に設定してもよい。
ステップS313の処理において、復元完了検出部15が巡視対象の形状復元が完了していないと判定した場合(ステップS313のNO判定)、復元完了検出部15は、形状復元完了検出処理を終了する。
一方、ステップS313の処理において、復元完了検出部15が巡視対象の形状復元が完了したと判定した場合(ステップS313のYES判定)、復元完了検出部15は、形状復元完了フラグを「ON」にする(ステップS314)。
ステップS313の処理がNO判定である場合、又は、ステップS314の処理後、復元完了検出部15は、形状復元完了検出処理を終了する。
[形状復元完了検出処理の例2]
形状復元完了検出処理は、図15に示す方法に限定されず、例えば、図16に示す方法でもよい。図16は、復元完了検出部15における形状復元完了検出処理の例2の手順を示すフローチャートである。以下に説明する処理は、図15に示す方法と同様に、サブルーチン処理として、図14に示すステップS302において呼び出されて実行される。ここで、LiDARにより検出される3次元点群から抽出される巡視対象の点群を利用して形状復元完了検出処理を行う例を説明するが、本発明はこれに限定されない。奥行情報検出部40が奥行き情報を検出する他の種類の装置で構成される場合、当該装置により検出される奥行き情報から抽出された巡視対象の奥行き情報を利用して形状復元完了検出処理を行ってもよい。
まず、復元完了検出部15は、巡視対象の撮影画像(図5の画像203参照)から巡視対象の輪郭を抽出する(ステップS321)。なお、巡視対象の撮影画像から巡視対象の輪郭を抽出する方法は、図11(C)で説明した巡視対象の撮影画像(画像602)を2値変換して外側の輪郭を抽出する方法と同じであるため、重複説明を省略する。
次いで、復元完了検出部15は、復元された巡視対象の点群から巡視対象の輪郭を抽出する(ステップS322)。巡視対象の点群を基に巡視対象の輪郭を抽出する際、巡視対象を正面から見る視点へ変換する必要がある。巡視対象を正面から見る視点へ変換するためには、巡視対象の点群の取得時の位置姿勢に対する巡視対象の位置姿勢を推定する必要がある。この位置姿勢の推定は、まず、巡視対象の点群の取得時の位置姿勢から見る視点へ巡視対象の点群の位置姿勢を変換する。次に、位置姿勢が変換された巡視対象の点群に対して、RANSAC(Random Sample Consensus)を利用して姿勢を推定する。次に、推定した姿勢を基に、復元した巡視対象の点群を正面から見る視点へ変換し、平面画像(2次元画像)へ投影して巡視対象の輪郭を抽出する。
次いで、復元完了検出部15は、ステップS321で抽出した輪郭とステップS322で抽出した輪郭とを比較する(ステップS323)。この処理では、復元完了検出部15は、Huモーメントを利用して輪郭の比較を行い、ステップS321及びステップS322のそれぞれで抽出された輪郭の形状に依存した特徴量を取得する。なお、Huモーメントは、画像処理によって得られる平行移動、大きさ、回転に対して不変な特徴量であり、形状の影響のみを受けるため、形状の比較に用いることができる。
次いで、復元完了検出部15は、輪郭の比較結果に基づいて、巡視対象の撮影画像から抽出された巡視対象の輪郭と、巡視対象の点群から抽出された巡視対象の輪郭と一致するか否かを判定する(ステップS324)。この処理では、復元完了検出部15は、ステップS323で取得した2つの輪郭の特徴量の差を計算する。そして、特徴量の差が所定値(例えば、0.1)以下である場合、復元完了検出部15は2つの輪郭が一致すると判定し、ステップS324の処理はYES判定となる。一方、特徴量の差が所定値(例えば、0.1)を超えた場合、復元完了検出部15は2つの輪郭が一致しないと判定し、ステップS324の処理はNO判定となる。
ステップS324の処理において、復元完了検出部15が2つの輪郭が一致しないと判定した場合(ステップS324のNO判定)、復元完了検出部15は、形状復元完了検出処理を終了する。
一方、ステップS324の処理において、復元完了検出部15が2つの輪郭が一致すると判定した場合(ステップS324のYES判定)、復元完了検出部15は、形状復元完了フラグを「ON」にする(ステップS325)。
ステップS324の処理がNO判定である場合、又は、ステップS324の処理後、復元完了検出部15は、形状復元完了検出処理を終了する。
[細部復元完了検出処理]
図17は、復元完了検出部15における細部復元完了検出処理の手順を示すフローチャートである。以下に説明する処理は、サブルーチン処理として、図14に示すステップS303において呼び出されて実行される。なお、ここで、LiDARにより検出される3次元点群から抽出される巡視対象の点群を利用して細部復元完了検出処理を行う例を説明するが、本発明はこれに限定されない。奥行情報検出部40が奥行き情報を検出する他の種類の装置で構成される場合、当該装置により検出される奥行き情報から抽出された巡視対象の奥行き情報を利用して細部復元完了検出処理を行ってもよい。
まず、復元完了検出部15は、複数の巡視対象の撮影画像を利用して復元された巡視対象(図10の「奥行き情報B」)のオーバーラップ率を計算する(ステップS331)。この処理では、復元完了検出部15は、奥行情報検出部40から取得した3次元点群を基準として、最近傍の復元された巡視対象の点群を探索する。そして、復元完了検出部15は、探索された最近傍点が所定範囲(例えば、0.02m)以内に存在した点群が、奥行情報検出部40から取得した点群に対する割合を、オーバーラップ率として計算する。例えば、奥行情報検出部40から取得した点群が100点あり、最近傍点が所定範囲以内に存在した点群が60点である場合、オーバーラップ率は60%となる。
次いで、復元完了検出部15は、計算したオーバーラップ率が閾値以上であるか否かを判定する(ステップS332)。この処理では、計算されたオーバーラップ率が、例えば95%(閾値)以上の場合、復元完了検出部15はオーバーラップ率が閾値以上であると判定し、ステップS332の処理はYES判定となる。計算されたオーバーラップ率が、例えば95%(閾値)未満である場合、復元完了検出部15はオーバーラップ率が閾値未満であると判定し、ステップS332の処理はNO判定となる。
ステップS332の処理において、復元完了検出部15がオーバーラップ率が閾値未満であると判定した場合(ステップS332のNO判定)、復元完了検出部15は、細部復元完了検出処理を終了する。
一方、ステップS332の処理において、復元完了検出部15がオーバーラップ率が閾値以上であると判定した場合(ステップS332のYES判定)、復元完了検出部15は、複数視点から復元された巡視対象(図8の画像402)の計器の値を読み取る(ステップS333)。この処理では、復元完了検出部15は、例えば、巡視対象の正面、上、下、左、右等の複数視点から復元された計器(巡視対象)の値を読み取る。なお、実際に移動体が巡視する際には、必ずしも正面から巡視対象を撮影できるとは限らないので、巡視対象(計器)の値が正確に復元されたか否かを判断するには、複数視点から復元された巡視対象の値を読み取る必要がある。
図18は、複数視点から復元された巡視対象のイメージを示す図である。画像800は、復元された巡視対象のイメージを示す。画像801は、正面の視点から復元された巡視対象のイメージを示す。画像802は、上の視点から復元された巡視対象のイメージを示す。画像803は、右の視点から復元された巡視対象のイメージを示す。画像804は、下の視点から復元された巡視対象のイメージを示す。画像805は、左の視点から復元された巡視対象のイメージを示す。
図17に戻し、次いで、復元完了検出部15は、巡視対象の細部復元が成功するか否かを判定する(ステップS334)。この処理では、復元完了検出部15は、ステップS333で読み取った巡視対象の値と、巡視対象検出部12により検出された巡視対象の撮影画像(図5の画像203参照)に表示される値との誤差を算出する。算出された誤差が予め設定された許容範囲以内(例えば、5%未満)であれば、復元完了検出部15は細部復元が成功であると判定し、ステップS334の処理はYES判定となる。算出された誤差が予め設定された許容範囲以外(例えば、5%以上)であれば、復元完了検出部15は細部復元が失敗であると判定し、ステップS334の処理はNO判定となる。
ステップS334の処理において、復元完了検出部15が細部復元が失敗であると判定した場合(ステップS334のNO判定)、復元完了検出部15は、細部復元完了検出処理を終了する。
一方、ステップS334の処理において、復元完了検出部15が細部復元が成功であると判定した場合(ステップS334のYES判定)、復元完了検出部15は、細部復元完了フラグを「ON」にする(ステップS335)。
ステップS334の処理がNO判定である場合、又は、ステップS335の処理後、復元完了検出部15は、細部復元完了検出処理を終了する。
[効果]
上述したように、本実施形態のデータ取得装置2は、復元された巡視対象に対して、形状復元完了検出処理及び細部復元完了検出処理を行い、自動的に巡視対象の復元が完了したか否かを判定することができる。
<第3実施形態>
本実施形態のデータ取得装置は、図1に示すデータ取得装置1と同じ構成を有するので、図示及び構成の説明を省略する。本実施形態に係るデータ取得装置の情報表示部14は、外部端末50を介して指定された巡視対象を巡視対象記憶部11に登録する機能を有する。また、巡視対象検出部12は、2回目以降の各種センサーのデータを取得する場合、復元結果(図10に示す復元された巡視対象の登録データ)が存在する巡視対象に対して、当該巡視対象の復元結果を読み出して利用する。すなわち、本実施形態に係る巡視対象検出部12は、過去に復元されたと判定した巡視対象に対して、撮影画像から当該巡視対象の撮影画像の検出を行わず、当該巡視対象の過去に復元された当該巡視対象(復元結果)を巡視対象記憶部11から読み出して巡視対象復元部13に出力する。なお、本実施形態では、図1で説明した、巡視対象記憶部11に記憶される復元された巡視対象の登録データ(図10参照)は、外部のデータベース(DB:Database)にも保存されることを想定する。
まず、情報表示部14の新たな巡視対象を登録する機能について説明する。情報表示部14は、巡視対象検出部12を介して撮影部20の撮影画像を取得し、取得した撮影画像を外部端末50に出力して表示させる。図19は、外部端末50に表示される撮影部20の撮影画像の一例を示す図である。図19に示すように、外部端末50の表示画面901において、巡視対象の画像903が含まれる撮影画像902が表示されている。点線で描画されている矩形の枠904は、ユーザーが外部端末50の操作部を利用して選択した巡視対象の画像領域を示す。ユーザーが、巡視対象の画像領域(枠904)を指定し、例えば、「登録」ボタン(不図示)の押下操作等により登録指示を出した場合、枠904により囲まれる画像が新たな巡視対象とし、当該画像の領域情報(座標及びサイズ)と共に情報表示部14に送信され、情報表示部14により、識別番号(図10に示す「画像ID」)が付与されて登録される。
次に、2回目以降の各種センサーのデータを取得する場合、巡視対象検出部12における巡視対象検出処理の手順について説明する。図20は、本実施形態の巡視対象検出部12における巡視対象検出処理の手順を示すフローチャートである。以下に説明する処理は、巡視対象検出部12において、2回目以降の各種センサーのデータを取得する場合、図4に示す巡視対象検出処理の代わりに実行される。
まず、巡視対象検出部12は、撮影部20から撮影画像を取得する(ステップS401)。
次いで、巡視対象検出部12は、取得した撮影画像から、巡視対象記憶部11に記憶された巡視対象画像を検出する(ステップS402)。なお、この処理は、図4に示すステップS102の処理と同じであるので、詳細説明を省略する。
次いで、巡視対象検出部12は、撮影画像の中に巡視対象が含まれているか否かを判定する(ステップS403)。なお、この処理は、図4に示すステップS103の処理と同じであるので、詳細説明を省略する。
ステップS403の処理において、巡視対象検出部12が撮影画像の中に巡視対象が含まれていないと判定した場合(ステップS403のNO判定)、巡視対象検出部12は、巡視対象検出処理を終了する。
一方、ステップS403の処理において、巡視対象検出部12が撮影画像の中に巡視対象が含まれていると判定した場合(ステップS403のYES判定)、巡視対象検出部12は、ステップS404の処理を行う。ステップS404の処理では、巡視対象検出部12は、検出した巡視対象が3次元地図における位置姿勢を推定する。巡視対象が3次元地図における位置の推定では、巡視対象検出部12は、まず、図6のステップS204で説明した手法を利用して、点群取得時の奥行情報検出部40の位置を推定する。次に、巡視対象検出部12は、図6のステップS208の処理と同じ処理を実施して、巡視対象の点群を抽出する。次に、巡視対象検出部12は、抽出した巡視対象の点群の重心を算出することにより、巡視対象の地図中での位置を推定する。
次いで、巡視対象検出部12は、検出した巡視対象に紐付ける画像ID、及び、ステップS404で推定した地図上の位置を基に、巡視対象記憶部11及び外部DBから復元結果(図10参照)を検索する(ステップS405)。この処理では、巡視対象検出部12は、検出した巡視対象に紐付ける画像IDと同じ「画像ID」、推定した巡視対象の地図上の位置との差が閾値以下となる「地図上の位置姿勢」を含む復元結果を、巡視対象記憶部11及び外部DBから検索する。
次いで、巡視対象検出部12は、巡視対象記憶部11又は外部DBにおいて、巡視対象の復元結果があるか否かを判定する(ステップS406)。この処理では、ステップS405の処理において復元結果が抽出された場合には、巡視対象検出部12が検出された巡視対象の復元結果があると判定し、ステップS406の処理はYES判定となる。ステップS405の処理において復元結果が抽出されなかった場合には、巡視対象検出部12が検出された巡視対象の復元結果がないと判定し、ステップS406の処理はNO判定となる。
ステップS406の処理において、巡視対象検出部12が巡視対象の復元結果があると判定した場合(ステップS406のYES判定)、巡視対象検出部12は、ステップS407の処理を行う。ステップS407の処理では、外部DBのみから巡視対象の復元結果が抽出された場合、巡視対象検出部12は、外部DBから巡視対象の復元結果を読み出して巡視対象記憶部11へ書き込んで、そして、巡視対象の復元結果を巡視対象復元部13に出力する。また、外部DB及び巡視対象記憶部11から巡視対象の復元結果が抽出された場合、巡視対象検出部12は、巡視対象記憶部11から巡視対象の復元結果を読み出して巡視対象復元部13に出力する。
一方、ステップS406の処理において、巡視対象検出部12が巡視対象の復元結果がないと判定した場合(ステップS406のNO判定)、巡視対象検出部12は、巡視対象の撮影画像に関する各種情報を巡視対象復元部13に出力する(ステップS408)。巡視対象の撮影画像に関する各種情報は、巡視対象の撮影画像、巡視対象の撮影画像が撮影画像における位置、巡視対象の撮影画像のサイズを含む。
[効果]
上述したように、本実施形態のデータ取得装置は、ユーザーが外部端末50を利用して選択した、撮影画像に含まれる計器の画像を新たな巡視対象として巡視対象記憶部11に登録することができる。また、本実施形態のデータ取得装置は、2回目以降に各種センサーのデータを取得する際、巡視対象記憶部11及び外部DBから、検出された巡視対象の復元結果を検索する。巡視対象の復元結果が検出された場合、本実施形態のデータ取得装置は、当該巡視対象の復元結果を読み出して利用するので、同じ巡視対象に対する重複の巡視対象検出処理を避けることができる。
<各種変形例>
以上、本発明の各種実施形態に係るデータ取得装置について説明したが、本発明は、これらに限定されるものではなく、特許請求の範囲に記載した本発明の要旨を逸脱しない限り、その他種々の変形例の態様を取ることができる。
上記各種実施形態のデータ取得装置では、データ取得部10の各構成部がすべて同一の情報処理装置上にある例を説明したが、本発明はこれに限定されない。例えば、巡視対象記憶部11及び巡視対象復元部13をクラウド上に配置し、巡視対象検出部12及び情報表示部14を移動体に搭載された情報処理装置上に配置する構成にしてもよい。この場合、巡視対象検出部12及び情報表示部14は、例えば、無線ネットワークを介して、巡視対象記憶部11及び巡視対象復元部13のそれぞれと各種データの送受信を行う。
上記各種実施形態のデータ取得装置では、情報表示部14が、巡視対象の点群を利用して復元された巡視対象の画像と、複数の巡視対象の撮影画像を利用して復元された巡視対象の画像とを重ねて、外部端末50に表示させる例を説明して。なお、本発明はこれに限定されず。例えば、情報表示部14が、巡視対象の点群を利用して復元された巡視対象の画像と、複数の巡視対象の撮影画像を利用して復元された巡視対象の画像と切り換えて外部端末50に表示されるように制御してもよい。
また、上述した各実施の形態は本発明を分かりやすく説明するために装置の構成を詳細かつ具体的に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されない。また、ここで説明した実施の形態の構成の一部を他の実施の形態の構成に置き換えることは可能であり、さらにはある実施の形態の構成に他の実施の形態の構成を加えることも可能である。また、各実施の形態の構成の一部について、他の構成の追加、削除、置換をすることも可能である。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
1,2…データ取得装置、10…データ取得部、11…巡視対象記憶部、12…巡視対象検出部、13…巡視対象復元部、14…情報表示部、15…復元完了検出部、20…撮影部、30…慣性情報検出部、40…奥行情報検出部、50…外部端末

Claims (8)

  1. 移動体の周囲を撮影して撮影画像を出力する撮影部と、
    前記移動体の慣性情報を検出する慣性情報検出部と、
    前記移動体から、前記移動体の周囲の物体までの奥行き情報を検出する奥行情報検出部と、
    前記撮影部の撮影画像から巡視対象の撮影画像を検出する巡視対象検出部と、
    前記巡視対象の撮影画像、前記慣性情報及び前記奥行き情報に基づいて、前記巡視対象が設置される実環境を表す3次元地図における前記巡視対象を復元する巡視対象復元部と、を備える
    データ取得装置。
  2. 前記巡視対象復元部により復元された前記巡視対象を外部端末に表示させ、前記巡視対象の復元の成否に関する情報を受付ける情報表示部を備える
    請求項1に記載のデータ取得装置。
  3. 前記巡視対象復元部は、前記巡視対象の撮影画像及び前記奥行き情報に基づいて、前記巡視対象の点群情報を抽出し、抽出された前記点群情報を利用して前記巡視対象を復元する
    請求項2に記載のデータ取得装置。
  4. 前記巡視対象復元部は、複数の前記巡視対象の撮影画像を利用して前記巡視対象を復元する
    請求項3に記載のデータ取得装置。
  5. 前記情報表示部は、前記巡視対象の奥行き情報を利用して復元された前記巡視対象と、複数の前記巡視対象の撮影画像を利用して復元された前記巡視対象とを重ねて前記外部端末に表示させる
    請求項4に記載のデータ取得装置。
  6. 前記情報表示部は、前記外部端末において、復元された前記巡視対象が前記移動体に対する方向を更に表示させる
    請求項5に記載のデータ取得装置。
  7. 前記巡視対象の形状復元、前記巡視対象の細部復元の成功を前記巡視対象の復元完了として検出した検出結果を前記情報表示部に出力する復元完了検出部を備える
    請求項2に記載のデータ取得装置。
  8. 過去に復元された前記巡視対象を記憶する巡視対象記憶部を備え、
    前記巡視対象検出部は、過去に復元されたと判定した前記巡視対象に対して、前記撮影画像から当該巡視対象の撮影画像の検出を行わず、過去に復元された当該巡視対象を前記巡視対象記憶部から読み出して前記巡視対象復元部に出力する
    請求項2に記載のデータ取得装置。
JP2021193291A 2021-11-29 2021-11-29 データ取得装置 Pending JP2023079699A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021193291A JP2023079699A (ja) 2021-11-29 2021-11-29 データ取得装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021193291A JP2023079699A (ja) 2021-11-29 2021-11-29 データ取得装置

Publications (1)

Publication Number Publication Date
JP2023079699A true JP2023079699A (ja) 2023-06-08

Family

ID=86647024

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021193291A Pending JP2023079699A (ja) 2021-11-29 2021-11-29 データ取得装置

Country Status (1)

Country Link
JP (1) JP2023079699A (ja)

Similar Documents

Publication Publication Date Title
CN110383343B (zh) 不一致检测系统、混合现实系统、程序和不一致检测方法
JP6057298B2 (ja) 迅速な3dモデリング
US8139111B2 (en) Height measurement in a perspective image
US10636168B2 (en) Image processing apparatus, method, and program
WO2023093217A1 (zh) 数据标注方法、装置、计算机设备、存储介质和程序
KR102200299B1 (ko) 3d-vr 멀티센서 시스템 기반의 도로 시설물 관리 솔루션을 구현하는 시스템 및 그 방법
CN112686877B (zh) 基于双目相机的三维房屋损伤模型构建测量方法及系统
EP3067658B1 (en) 3d-shape measurement device, 3d-shape measurement method, and 3d-shape measurement program
JP2017182695A (ja) 情報処理プログラム、情報処理方法および情報処理装置
JP4132068B2 (ja) 画像処理装置及び三次元計測装置並びに画像処理装置用プログラム
WO2020195875A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2019032218A (ja) 位置情報記録方法および装置
KR20160070874A (ko) 모바일 기기를 이용한 위치기반 시설물 관리 시스템
JP4568845B2 (ja) 変化領域認識装置
CN115371673A (zh) 一种未知环境中基于Bundle Adjustment的双目相机目标定位方法
CN113496503A (zh) 点云数据的生成及实时显示方法、装置、设备及介质
US20230281942A1 (en) Measurement processing device, method, and program
CN114726978A (zh) 信息处理装置、信息处理方法以及程序
CN111862146A (zh) 一种目标对象的定位方法及装置
CN115773759A (zh) 自主移动机器人的室内定位方法、装置、设备及存储介质
JP2023079699A (ja) データ取得装置
JP3966419B2 (ja) 変化領域認識装置および変化認識システム
Aliakbarpour et al. Geometric exploration of virtual planes in a fusion-based 3D data registration framework
KR20220050722A (ko) 영상관제 시스템에서 카메라 영상내 관제 지점의 지도 매핑 방법
JP2004020398A (ja) 空間情報獲得方法、空間情報獲得装置、空間情報獲得プログラム、及びそれを記録した記録媒体