JP6877293B2 - 位置情報記録方法および装置 - Google Patents

位置情報記録方法および装置 Download PDF

Info

Publication number
JP6877293B2
JP6877293B2 JP2017152817A JP2017152817A JP6877293B2 JP 6877293 B2 JP6877293 B2 JP 6877293B2 JP 2017152817 A JP2017152817 A JP 2017152817A JP 2017152817 A JP2017152817 A JP 2017152817A JP 6877293 B2 JP6877293 B2 JP 6877293B2
Authority
JP
Japan
Prior art keywords
image
wide area
fine
matching
area image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017152817A
Other languages
English (en)
Other versions
JP2019032218A (ja
Inventor
晃一郎 八幡
晃一郎 八幡
山本 知史
知史 山本
純一郎 渡邊
純一郎 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Industry and Control Solutions Co Ltd
Original Assignee
Hitachi Industry and Control Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Industry and Control Solutions Co Ltd filed Critical Hitachi Industry and Control Solutions Co Ltd
Priority to JP2017152817A priority Critical patent/JP6877293B2/ja
Publication of JP2019032218A publication Critical patent/JP2019032218A/ja
Application granted granted Critical
Publication of JP6877293B2 publication Critical patent/JP6877293B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、空間上の位置情報を保存する技術に関する。
近年、UAV(Unmanned Aerial Vehicle)を用いた点検が一般的になっている。一般化している理由は、点検に使用するUAVの機体とセンサの価格低下に伴い、UAVを用いた点検が、人手による点検より、短時間かつ低価格に実施できるようになったからである。点検の後は、点検結果に基づいた点検後の作業が必要である。点検後の作業とは、例えば、損傷していた箇所の修理と、同一箇所の比較と、同一箇所の再検査が考えられる。
当該作業を実施するには検査箇所の相対位置情報を把握する必要がある。カメラを用いた撮影対象及びカメラ自体の相対位置把握技術として、SfM(Structure from Motion)という技術が存在する。SfMは、共通領域を撮影した画像群からカメラの相対位置と撮影対象物の三次元形状の相対位置関係を推定する技術である。ゆえに、画像群の間で共通領域を撮影した画像のペアが存在しない場合、それぞれの画像群で推定されたカメラの相対位置関係が分からず、当該画像群間で推定された三次元形状の相対位置と相対スケールが分からない。
一方で、点検に不要な箇所を点検対象と同様に詳細に撮影していては、処理する画像の増加とともに計算時間が膨大になる。これに対し、特開2014−06148号公報(特許文献1)には、撮像装置を具備する飛行体が高高度を飛行し、測定範囲を含む広域画像を取得し、広域画像取得時の3次元位置を取得する工程と、該広域画像に基づき測定範囲を設定する工程と、飛行体が低高度を飛行し、所定距離間隔で精細画像を取得する工程と、精細画像取得時の位置を取得する工程と、広域画像と精細画像との倍率を合わせる工程と、広域画像取得時の位置、精細画像取得時の位置に基づき倍率を合わせた広域画像と精細画像とを広域画像/精細画像マッチングを行う工程と、広域画像/精細画像マッチングで得られる相対関係情報に基づき隣接する精細画像を精細画像/精細画像マッチングし、前記測定範囲全域の測定範囲精細3Dモデルを作成する工程が記載されている。
図1は、前記特許文献1の概念を示した図である。広域画像を用いて相対スケールを把握することで、2つ以上の3次元形状の相対位置と相対スケールを決定することができる。
特開2014−06148号公報
前記特許文献1では、精細画像と広域画像を照合するのに、GPS(Global Positioning System)で計測した絶対位置情報を用いていた。しかし、撮影対象が動いてしまう場合、広域画像で撮影したときの撮影対象の絶対位置と、精細画像で撮影したときの撮影対象の絶対位置の関係が変化するので、GPSを用いた照合ができない。
移動する点検対象として、例えば、洋上風力発電機等が存在する。そこで、本発明は、精細画像と広域画像を用いて、移動する点検対象における点検箇所の位置情報を自動保存する技術の提供を目的とする。
本発明の一側面は、広域画像を取得する第1のステップ、広域画像より高分解能である精細画像を取得する第2のステップ、精細画像から、精細画像特徴点を抽出する第3のステップ、精細画像から、精細画像特徴点に対して三次元上の座標を与えた三次元点群を生成する第4のステップ、広域画像から広域画像特徴点を抽出し、精細画像特徴点とマッチングを行う第5のステップ、広域画像特徴点に対して、マッチングが成立した精細画像特徴点の三次元座標を対応付けて記録する第6のステップ、を備える位置情報記録方法である。
本発明の他の一側面は、広域画像を取得する広域画像取得部と、広域画像より高分解能である精細画像を取得する精細画像取得部と、精細画像から精細画像特徴点を抽出し、精細画像から精細画像特徴点に対して三次元上の座標を与えた三次元点群を生成する精細画像処理部と、広域画像から広域画像特徴点を抽出し、精細画像特徴点とマッチングを行い、広域画像特徴点に対して、マッチングが成立した精細画像特徴点の三次元座標を対応付けて記録する位置情報記録部、を備える位置情報記録装置である。
広域画像と精細画像の撮影対象の絶対位置が必ずしも等しくなく、GPSベースでは広域画像と精細画像の3次元形状の位置合わせができない環境下でも、広域画像上で点検箇所の把握が可能となる。
広域画像を用いた相対スケールの把握の概念図。 実施形態1のシステムフロー図。 特徴点マッチングの概念図。 三次元点群の生成概念図。 領域限定とRANSACを用いた特徴点マッチングの概念図。 投影誤差とその修正の概念図。 実施形態1の機能ブロック図。 精細画像DBの表図。 精細画像同士の特徴点マッチング部の機能ブロック図。 画像特徴点DBの表図。 マッチングDBの表図。 SfM部の機能ブロック図。 カメラDBの表図。 三次元点群DBの表図。 広域画像と精細画像の特徴点マッチング部の機能ブロック図。 広域画像DBの表図。 センサDBの表図。 広域画像座標位置DBの表図。 実施例2の機能ブロック図。
以下、添付図面を参照して本発明の実施形態を説明する。本実施形態は本発明を実現するための一例に過ぎず、本発明の技術的範囲を限定するものではないことに注意すべきである。各図において共通の構成については同一の参照符号が付されている。
本明細書等における「第1」、「第2」、「第3」などの表記は、構成要素を識別するために付するものであり、必ずしも、数、順序、もしくはその内容を限定するものではない。また、構成要素の識別のための番号は文脈毎に用いられ、一つの文脈で用いた番号が、他の文脈で必ずしも同一の構成を示すとは限らない。また、ある番号で識別された構成要素が、他の番号で識別された構成要素の機能を兼ねることを妨げるものではない。
図面等において示す各構成の位置、大きさ、形状、範囲などは、発明の理解を容易にするため、実際の位置、大きさ、形状、範囲などを表していない場合がある。このため、本発明は、必ずしも、図面等に開示された位置、大きさ、形状、範囲などに限定されない。
本実施形態では、位置情報記録装置を活用する一例であるUAVを用いた点検を用いて説明する。本実施形態の位置情報記録装置は、点検の対象全域を映した広域画像と、点検を実施する時にカメラから取得した精細画像と、を用いて点検個所の広域画像上での位置情報を記録する。ただし、UAVは一例であり、有人飛行機や地上を移動するロボットや人にも装着することは可能である。点検に使用するセンサは、本装置を構成するカメラによる撮影結果をそのまま使用してもよい。また、当該カメラとは別のセンサを準備し、当該センサで取得した点検結果に位置情報を与えることも考えられる。
本実施例では、撮影対象が静止しておらず、過去の点検のタイミングと最新の点検のタイミングの間に移動している場合も取り扱うものとする。また、各点検のタイミングでは、例えばUAVにより、広域画像の一部領域に対応する精細画像を取得しておくものとする。広域画像は例えばUAVにより高高度から撮影対象を撮影した遠隔画像であり、精細画像は撮影対象により接近して撮影した近接画像である。精細画像はある一つの点検のタイミングにおいて、複数のカメラ位置から撮影された複数の静止画像を含むものとし、この複数の静止画像間では撮影対象は実質的に動いていないものとする。このような静止画像は、例えばUAMが撮影対象の周りを接近して飛行しながら撮影した動画像から、抽出することができる。一方、広域画像は最初の点検のタイミング以前に一度だけ撮影して保存しておいてもよいし、各点検のタイミングで精細画像とともに撮影してもよい。
以下に詳細に説明される実施例では、精細画像に対して例えばVisual SLAM(Simultaneous Localization and Mapping:位置推定と地図作成の同時実行)のような技術を用いて、撮影対象の3次元マップを作成する。公知のように、Visual SLAMでは、動画像を解析することで、逐次的にカメラの位置・姿勢と撮影対象の三次元マップを推定することができる。本実施例では、推定した3次元マップと広域画像を比較して、特徴点同士を対応付けることにより、広域画像の座標系における3次元マップの位置を推定し、記憶する。
この方法により、精細画像から得られた3次元座標を、広域画像の座標系と対応付けることができる。そこで、過去の点検のタイミングにおける精細画像と、現在の点検のタイミングにおける精細画像との間で、精細画像に含まれる撮影対象の絶対位置が変化している場合でも、同じ座標系で撮影対象物の位置を特定することが可能となる。
図2により、本発明の第1の実施形態について説明する。図2は、本発明の実施形態1に係る位置情報保存システムの処理フロー図である。本実施形態では、広域画像上における精細画像を取得したカメラの相対位置関係を把握するため、時間的に連続する複数の精細画像間での特徴点マッチングを行う(S201)。これら複数の精細画像は、短時間間隔で撮影されたものとし、その時間内では撮影対象は実質的に移動していないものとする。
図3により、特徴点マッチングの概念を説明する。マッチングとは、2枚の画像に映る同一点を結び付ける作業のことである。まず、カメラで取得した精細画像300の特徴点301を取得する(図3(a))。
特徴点301は、他の点と区別が容易な画像上の点のことであり、画素情報の勾配情報を特徴点の特徴量として表現することができる。特徴量の例として、公知のSIFT,SURF,ORB,AKAZE等がある。ただし、カメラの位置が変わらず、画像がほとんど変化しない場合は、当該画像から特徴点を取得しなくても良い。特徴点を取得するかの判断に関しては、多くの研究が行われているので詳細を省く。
次に、取得した特徴点のマッチングを行う。特徴点マッチングとは、2つの精細画像300aと300bから同一地点を表す点を紐付けることである(図3(b))。比較した特徴点の特徴量が似た値を示している場合に、2つの特徴点301aと301bが同一点を表現していると判断する。当該マッチングの精度を高めるため、幾何的制約等を使用することで、誤ったマッチングを消去しても良い。誤ったマッチングを消去する手段に関しては、後に説明する。
次に特徴点マッチングの結果を用いて、初期の精細画像より生成された三次元点群の相対位置と、カメラの相対位置と、カメラの向きとを、推定する(S202)。三次元点群とは、当該画像上の点に対して三次元上の座標を与えたものである。カメラ相対位置と向きは、当該画像を撮影したときの、カメラの位置と向きのことである。
図4に示すように、特徴点マッチングの結果に基づいて、三角測量を利用することで、初期三次元点群401の相対位置とカメラの相対位置402と向き403を推定することができる。このような処理は、前述のVisual SLAMにより行うことができる。
ただし、三角測量を用いた当該処理は、カメラパラメータが既知であることを前提に行われている。カメラパラメータとは、画像のピクセルの数、センサのサイズ、焦点距離、レンズの歪み等を表現したパラメータである。しかし、実際は事前にカメラパラメータが不明である、もしくは、推定されていたとしても誤差が含まれていることがある。カメラパラメータが正確に把握できない状況でも、特徴点マッチングのマッチング結果によりカメラパラメータを推定することができるので、必ずしも事前にカメラパラメータを推定する必要は無い。
次に広域画像と精細画像の特徴点マッチングを行う(S203)。まず、撮影した高度の異なる広域画像と精細画像の特徴点マッチングについて説明する。特徴点マッチングでは、精細画像同士のマッチングで述べたように、画素の勾配情報に基づいた特徴量の類似度で2つの点が同一の箇所を示しているかを判断する。この類似度に基づいたマッチングでは、誤対応点が多く含まれている。そこで、背後にある拘束式を推定し、正しい特徴点マッチング精度を実施するため、公知のRANSAC(RANdom Sample Consensus)と呼ばれるアルゴリズムを用いる。これにより同一地点を適切に対応付けているマッチングを抽出する。
RANSACでは、外れ値を含んだデータから、確率的に背後に存在する拘束を推定し、その拘束に基づいて、マッチングが正しいか判断する。しかし、高度の異なる画像では、誤対応の割合の多さから、背後に存在する拘束条件を推定できず、うまく特徴点マッチングできない。
図5を用いて、精細画像と広域画像の特徴点マッチングの方法を説明する。一例であるが、図5は精細画像の大きさを変えて、回転した画像を広域画像に対応付けるという拘束を用いて、正しいマッチングを取得しようとしている。
図5(a)を見ると、広域画像500は精細画像300を撮影した箇所より、高いところで撮影した結果、撮影対象物は精細画像300を小さくし、回転したように写っている。しかし、大量の誤ったマッチングがある結果、マッチング結果だけを見ても、サイズをどれだけ変化させて、回転させたか推定することは難しい。
図5(b)は、広域画像500において、マッチング対象とする特徴点5001がある領域を510に限定して、特徴点マッチングを行なった例である。このように、精細画像300の広域画像500における場所に基づいて、明らかなマッチング誤りを除去すると、大きさと回転の変化の推定が容易となる。すると、背後の拘束が推定できた結果、図5(c)のように誤マッチングを除去することができる。
本実施形態ではRANSACを実行する前に、広域画像500における撮影範囲外の特徴点5001xが含まれているマッチングを除去する。大量の誤マッチングを除去することで、正しく背後に存在する拘束条件を推定し、結果的に正しいマッチング結果を取得することができた。以下に具体的な手順について説明する。
まず、広域画像データベース(DBと略す。以下同様)より事前に撮影した広域画像500を取得する。ただし、当該広域画像500は精細画像300を撮影する前に撮影し、そのまま精細画像300の撮影を開始しても良い。次に、当該広域画像500の特徴点5001を取得し、特徴点DBに格納する。ただし、当該広域画像500の特徴点5001の取得は、広域画像500が事前に撮影されている場合には、事前に行い特徴点DBに格納しても良い。
マッチングする広域画像500の領域510は、事前に広域画像DBに初期三次元点群領域として格納し、当該領域に基づいてマッチング領域を限定する。初期三次元点領域の座標は、例えば精細画像の撮影スタート位置の座標とする。この座標は、精細画像の撮影時にGPS等で記録したカメラの座標を用いる、あるいは、カメラの方向の情報を併用してもよい。これらの情報によれば、カメラが撮影した場所をおおよそ特定することができる。この場合、精密な座標は必要でない。また、カメラの座標が記録されていない場合には、処理S202で推定したカメラ位置の座標を用いてもよい。
領域の範囲は、当該座標を中心に所定半径の円内や所定の辺の長さを持つ四角形のように定める。他の方法としては、広域画像500から初期三次元点群領域を確認できるように、事前に撮影対象の移動が想定される領域に初期三次元点群領域を示す目印を置き、目印を撮影することで、当該限定領域を事前に格納せずに実施することも考えられる。
また、他の方法として、マッチングの前にオペレータに広域画像を表示し、オペレータが範囲を指定してもよい。これらの領域限定により、誤ったマッチングを除去する。
次にRANSACを用いたマッチングを行う。拘束として考えられるのは、例えば、同一平面に存在する点を撮影した2枚の画像における同一地点の画像上の拘束条件である平面拘束が考えられる。また、エピポーラ拘束を用いても良い。当該広域画像500と当該精細画像300のマッチング結果から推定された平面拘束を満たす、マッチングのみを正しいマッチングとして処理する。
広域画像の特徴点5001とマッチングした精細画像の特徴点301が存在した場合、当該特徴点301の三次元点群401は広域画像上の点との対応が確認できる。ただし、当該精細画像のみでの三次元点群の推定では、当該三次元点群401がゆがんでしまう場合がある。そこで、三次元点群とカメラ位置の補正をして広域画像と精細画像の特徴点の記録を行う(処理S204)。以下三次元点群とカメラ位置を補正する方法について説明する。
図6で、三次元点群のゆがみとこの修正について説明する。広域画像500と精細画像300のマッチングした特徴点のうち、三角測量で3次元座標が計算されているものを抽出する。この広域画像500における特徴点の対応をもとに、三次元点群及び精細画像のカメラ位置を修正する。
まず、広域画像上で特定されている三次元点群401の位置情報から広域画像を撮影した場所を推定する。推定した結果から広域画像と精細画像の投影誤差の和が最小になるようにカメラ位置402と三次元点群401の位置を図中太矢印のように調整することで相対自己位置を修正する。301で示す点が画像上で特徴点が存在していた箇所であり、402と401で示す点はカメラと三次元点群の相対位置である。
推定した広域画像を撮影した場所は誤差を含んでおり、カメラ位置と三次元点群の相対位置から推定される画像上の座標は、実際の画像上の座標とは一致しない。このカメラ位置と三次元点群を結んだ直線が精細画像300上のどこに存在するかを推定する作業を再投影という。再投影される場所は、カメラ位置と、カメラの向き、カメラパラメータ、三次元点群の相対位置により、計算することができる。この再投影した点6002と実際の画像に映っている点6001の画像上での誤差を投影誤差6003という。そして、この投影誤差を最小化するようにカメラ位置と三次元点群位置を補正することで、推定誤差を削減する。最小化する手段として、例えば、非線形最適化手法であるバンドル調整を使用する。
以上で、初期精細画像に基づいて得られた初期三次元点群の特徴点と広域画像の特徴点とが対応付けられた。広域画像上に座標軸を定義しておけば、初期三次元点群の特徴点を広域画像上の座標で表わすことができる。本実施例では、精細画像は例えば、ある一つの点検のタイミングにおいて、UAVが撮影対象の周りを飛行しながら撮影した複数の静止画像であり、初期精細画像は例えば、その中から選ばれた2つの静止画像である。撮影時にリアルタイムで処理を行っている場合には、2つの静止画像は撮影スタート直後の2枚の精細画像である。以下ではリアルタイム処理を例に説明するが、画像をいったん保存しておき、後にバッチ処理を行うことも可能である。
次に、UAVはスタート地点から移動して行く。UAVは移動しながら新たな精細画像を撮影する。追加された新規精細画像と直前の精細画像とで特徴点マッチングを行う(処理S205)。特徴点マッチングした特徴点のうち、三次元点群として位置情報が付加された点が存在した場合、当該三次元点群の位置情報をもとに、当該追加精細画像のカメラ位置を推定する(処理S206)。ただし、カメラ位置を推定した後に、投影誤差を用いて補正する処理を行っても良い。2つの精細画像間で同じ位置情報が付加された特徴点を共有するためには、撮影範囲が一部重複するように2つの精細画像を撮影すればよい。
続いて、三次元点群の追加を行う(処理S207)。特徴点マッチング(処理S205)の結果抽出された特徴点のうち、相対位置情報が付加されていない特徴点を抽出する。当該位置情報が付加されていない特徴点については、処理S202と同様に三角測量を用いることで、相対位置情報を付加する。当該処理を終えた後も、処理S204と同様に投影誤差を用いて補正する処理を行っても良い。相対位置情報を付加した特徴点は、三次元点群に追加する。
続いて、広域画像と新規精細画像の特徴点マッチングを行う(処理S208〜S209)。スタート地点では、特徴点マッチングを成功させるために、既知情報もしくは目印を用いることで、マッチングする領域を決定した(処理S203)。新規精細画像と広域画像とのマッチングの領域は処理S203と同様に決定してもよいが、新規精細画像のカメラ位置とカメラパラメータで決定してもよい(処理S208)。すなわち、処理S206で当該精細画像のカメラ位置が推定されているので、倍率などのカメラパラメータに基づいて、広域画像中の精細画像位置を推定することができる。
特徴点マッチングを行った後、必要により処理S204と同様に投影誤差を用いて補正する処理を行い、三次元点群とカメラ位置の補正をして広域画像と精細画像の特徴点の記録を行う(処理S210)。
以後、処理S205〜処理S210のプロセスを繰り返すことによって、絶対位置情報が分からない状態であっても、逐次的に領域を限定した特徴点マッチングを行うことにより、GPS等による絶対位置情報を取得できない状況下でも、広域画像と精細画像の位置情報の対応を取り続けることができる。
点検の結果のデータを点検対象物の位置情報とともに記録する方法について述べる。処理S205〜処理S210のプロセスでは、カメラ位置とカメラによって撮影された特徴点の三次元点群の相対位置情報を記録したに過ぎない。本実施例の目的とする点検の自動化のプロセスでは、点検対象物の相対位置情報と当該点検対象物の状態を反映したセンサデータを関連付けて記録する必要がある。
一つの例では、記録する点検対象物の相対位置情報は、点検に使用するセンサに依存して決定することができる。温度や特定物質を検知するセンサのように、センサの位置と測定対象の位置が一致するセンサを使用する場合は、位置情報として当該センサ位置を記録すればよい。また、カメラやスペクトルカメラや熱赤外線カメラのような、センサがセンサとは離れた位置の情報を取得する場合であって、センサデータが二次元の画像として表現される場合は、センサ(カメラ)の向きによって、記録される位置情報が異なる。センサが位置情報を記録するためのカメラと同じ向きの場合は、当該カメラで取得した三次元点群の相対位置を記録すればよい。向きが異なる場合は、センサが取得しているデータが三次元座標上のどこに対応するかを把握する必要がある。このためには、センサ自体の位置とセンサの向きや感度等のセンサパラメータに基づいて、センサデータを取得している点検対象物の位置を把握することで、位置を決定することができる。また、センサに距離センサを併設することで、点検対象との距離を把握することができる。また、存在する平面を仮定することで限定することもできる。
図7を用いて、図2の手順を実施するための機能ブロックについて説明する。本実施形態の位置情報記録装置700は、カメラ14001と、精細画像DB14002と、特徴点DB403と、マッチングDB404と、三次元点群DB405と、カメラDB406と、広域画像DB407と、広域画像座標位置DB408と、センサDB409と、精細画像処理部410と、位置情報記録部413と、結果出力部417を有する。
このような機能ブロックは、基本的に入力装置、出力装置、記憶装置、処理装置を備える一般的なサーバで構成することができる。本実施例では計算や制御等の機能は、記憶装置に格納されたプログラムが処理装置によって実行されることで、定められた処理を他のハードウェアと協働して実現されるものとする。サーバが実行するプログラム、その機能、あるいはその機能を実現する手段を、「部」、「機能」、「手段」、「ユニット」、「モジュール」等と呼び、処理の主語として記述する場合がある。また、以後の説明では記憶装置に格納されたデータを、「〜テーブル」、「〜リスト」、「〜DB」、「〜キュー」、「情報」等の表現で説明することがあるが、これらは等価な情報である限り、データ形式を問わない。
また、以上の構成は、単体のサーバで構成してもよいし、あるいは、入力装置、出力装置、処理装置、記憶装置の任意の部分が、ネットワークで接続された他のコンピュータで構成されてもよい。また、図7の構成では説明上カメラ14001を装置に含めているが、カメラ14001は別途UAVに搭載し、遠隔地から無線回線等により画像データを位置情報記録装置700に送信するように構成することができる。
位置情報記録装置700は、1または複数のカメラ14001によって、位置情報を取得するための精細画像もしくは動画を取得し、撮影した画像を精細画像DB14002へ保存する。
図8は精細画像DB14002のインデックスのデータ構造を示す一例である。精細画像は、例えば取得した順番がわかるように撮影した順番に精細画像ID801をつける。もしくは、撮影時刻を保存しても良い。カメラを使った場合は、撮影した当該カメラのカメラID804を保存する。また、撮影時のカメラ位置802、カメラ向き803などの撮影条件が分かっている場合にはこれらを保存してもよい。カメラ位置は例えばGPSによって取得できる。ただし、これらが分かっていない場合でも、カメラ位置802やカメラ向き803は、前述のように推定して保存することもできる。また、カメラID804に対応して、別途ピクセル数や焦点距離など、カメラの性能パラメータを格納してもよい。
図9は、精細画像同士の特徴点マッチング部411の機能ブロック図である。本実施例では、各機能ブロックはソフトウェアで実現することにしている。保存された精細画像は、精細画像同士の特徴点マッチング部411により、精細画像同士の特徴点マッチングを行う。精細画像同士の特徴点マッチング部は、画像特徴点検出部501と、画像特徴点特徴量比較部502と、画像特徴点特徴量計算部503と、特徴点マッチングRANSAC部504を有する。
図10は特徴点DB403のデータ構造を示す一例である。画像特徴点検出部501では、精細画像DB14002より精細画像を取得し、精細画像上の特徴点を検出し、精細画像ID1001と特徴点ID1004を割り当て、特徴点の二次元座標1002とともに特徴点DB403に保存する。画像特徴点特徴量計算部503で、精細画像と特徴点の二次元座標1002を用いて、特徴点の特徴量1003を計算し、特徴点DB403に保存する。
画像特徴点特徴量比較部502で、特徴点DB403の特徴量1003が近い特徴点の組み合わせを特徴点マッチングとして、マッチングDB404に格納する。
図11はマッチングDB404のデータ構造を示す一例である。マッチングDB404では、マッチングID1101に対応して、複数枚の精細画像の精細画像ID1102(1101)と、当該精細画像IDの精細画像中でマッチングした特徴点の特徴点ID1103(1004)が保存されている。図11の1行目の例では、画像ID「2」の特徴点ID「6」の点が、画像ID「3」の特徴点ID「39」の点とマッチングしていることを示す。
特徴点マッチングRANSAC部504では、2枚の画像の背後にある拘束条件を推定し、マッチングDB404から誤ったマッチングを除去する。
図12にSfM部412を示す。SfM部412により、三次元点群と、カメラ相対位置、カメラ向き等を推定する。
初期三次元点群生成部601にて、特徴点DB403とマッチングDB404に基づいて、マッチングする特徴点の二次元座標を得、図4で説明したように、二次元座標と精細画像から初期三次元点群座標を得ることができる。初期三次元点群座標は、三次元点群DB405に格納する。また、カメラDB406のカメラパラメータと、精細画像DB14002のカメラ位置等を推定することができ、それぞれ、カメラパラメータはカメラDB406に格納し、カメラ位置等は精細画像DB14002にカメラ位置802、カメラ向き803のように格納する。
図13はカメラDB406のデータ構造を示す一例である。カメラID1301に対して、ピクセル数1302、焦点距離1301、センササイズ1304、歪み係数1305のようなカメラパラメータが格納される。これらは事前に格納できる場合は事前に格納しておいてもよいし、精細画像から推定した値でもよい。
図14は三次元点群DB405のデータ構造を示す一例である。初期三次元点群生成部601で生成された三次元点群の各点は一意のIDである三次元点群ID1401を付与され、三次元点群ID1401は、当該三次元点群の元となる精細画像の精細画像ID1402と、当該精細画像中において三次元点群を構成する特徴点の特徴点ID1403とともに格納される。また、三次元点群の相対位置1404が格納される。三次元点群の相対位置1404は、例えば三次元点群に対して任意に設定された原点(0,0,0)に対する、相対位置座標を示す。図14の例では、一行目のデータは、精細画像ID「1」の特徴点ID「33」と、精細画像ID「3」の特徴点ID「22」と、精細画像ID「4」の特徴点ID「14」とがマッチングし、その点の三次元点群上の相対位置座標が(2,3,4)であることを示す。
三次元点群ID1401に点群の色情報を保存したい場合は、精細画像DB402より色情報を取得する。ただし、3枚以上の精細画像を使っている場合は、カメラDB406に予め準備されたカメラパラメータがない場合であっても、カメラパラメータを推定することができる。その場合は、推定したカメラパラメータをカメラDB406に保存する。
カメラ位置推定部603では、マッチングDB404のマッチング情報と、三次元点群DB405の相対位置情報と、カメラDB406のカメラパラメータにより、特徴点DB403の特徴点の二次元座標を用いて、新規精細画像のカメラ位置を推定し、精細画像DB402に保存する。
新規三次元点群追加部602では、カメラDB406のカメラパラメータにより、特徴点DB403の特徴点の二次元座標と、精細画像DB402の当該新規精細画像のカメラ位置を用いることで、三次元点群DB405に保存されていない特徴点の相対三次元位置を推定し、三次元点群DB405に保存(追加)する。
バンドル調整部604では、特徴点DB403の二次元座標と、三次元点群IDと、カメラDB406のカメラパラメータと、を用いて投影誤差を計算し、三次元点群とカメラ位置とカメラ向きを補正し、それぞれ、三次元点群DB405と精細画像DB402に格納する。
図15には、広域画像と精細画像の特徴点マッチング部414の構成ブロック図を示す。広域画像と接近画像の特徴点マッチング部414には、画像特徴点検出部501、画像特徴点特徴量比較部502と、画像特徴点特徴量計算部503と、特徴点マッチングRANSAC部504と特徴点マッチング領域限定部701を有する。特徴点マッチング領域限定部701以外は、図9に示した精細画像同士の特徴点マッチング部411と基本的に同様の構成であるが、対象とする画像に広域画像が含まれる点が異なる。特徴点マッチング領域限定部701では、直前の精細画像に含まれる特徴点の広域画像上の位置に基づいて、マッチングを行う限定領域を決定する。すなわち、今回の精細画像の特徴点は、直前の精細画像の位置の近傍に位置することが推測されるので、直前の精細画像の特徴点の位置にもとづいて限定領域を決定すればよい。ただし、初期三次元点群との対応に関しては、広域画像DB407記載のスタート座標を使用する。
広域画像座標位置計算部415では、精細画像で撮影された特徴点が、広域画像上の座標のどこに対応付けられるかを示す広域画像座標位置を計算する。すなわち、広域画像と精細画像の特徴点マッチング部414でマッチした特徴点に対して、広域画像上の座標を対応付ける。なお、広域画像から抽出した特徴点は、図10の特徴点DB403と同様に記録しておくものとする。
図16は、広域画像DB407のデータ構造を示す一例である。広域画像の広域画像ID1601に対して、当該画像を撮影したカメラの位置1602、カメラの向き1603が格納される。カメラの位置1602はGPS等でカメラ位置を取得して記録することができる。かめらの向き1603はカメラの動作パラメータから取得することができる。あるいは、これらは広域画像自体から推定した値でもよい。
スタート位置1604は、図5で説明した広域画像と精細画像のマッチングにおいて、領域510の位置を示す。スタート位置の設定方法としては、先に述べたように、オペレータが広域画像を見て人為的に策定し入力することができる。あるいは、広域画像上でも確認可能なマークをフィールドに設置し、マークを撮影した広域画像から画像処理によりマークを抽出し、マークに基づいて定めることができる。あるいは、被写体が動かない場合は、GPS等によって被写体と同じ場所と推定される位置に定めることができる。あるいは、初期三次元点群を抽出するための精細画像を撮影したカメラの位置や方向から定めることができる。
スタート位置1604の設定方法としては、図16に示すように領域の中心や角部を示す二次元座標でもよいし、領域が四角形であれば、その四隅を示す二次元座標でもよい。
図17は、センサDB409のデータ構造を示す一例である。センサを一意に識別するセンサID1701、センサが取得する点検位置の定義1702、およびセンサの向き1703を含む。
図18は、広域画像座標位置DB408のデータ構造を示す一例である。図14に示した三次元点群ID1401を持つ点が、広域画像ID1802を持つ広域画像の広域画像特徴点ID1803を持つ特徴点のどれに対応するかを示している。さらに、その点の広域画像上の広域画像座標1804を対応付ける。
最後に結果出力部にて、広域画像座標DB408の広域画像座標1804を用いて、点検箇所が広域画像上のどこかを示すことができる。また、広域画像とそれぞれの特徴点の対応が判明した、三次元点群モデルを作成することができる。例えば、各点と広域画像の特徴点に番号が付加されており、数字が一致する点が同一点を表現する方法などが考えられる。
実施形態1では、広域画像と精細画像の位置的な対応を取得するところで処理を終了している。実際の点検作業では、定期的に点検を行って最新の結果と過去の結果を比較することにより点検を行う。実施例1の適用により、時間的に異なるタイミングで撮影された精細画像中の点検箇所の位置を、広域画像の座標を用いて対応付けることができる。よって、点検箇所の絶対位置が移動した場合でも、現在と過去の点検箇所同士の位置合わせを行うことができ、時間的に異なる点検内容を比較することができる。
図19は実施形態2のブロック図である。結果出力部417の代わりに点検結果比較部801を備えている。位置の表示が実施例1では主目的であったが、実施例2では記録した位置を用いた点検結果の比較を主目的としている。
実施例1では、広域画像と精細画像の特徴点マッチング部414では、広域画像と精細画像の特徴点マッチングのための領域限定を画像情報だけで処理した。通常UAV等により連続的に空撮を行って精細画像を取得する場合には、連続して撮影された精細画像の位置は近接しているため、直近の精細画像の広域画像中の位置が推定できれば、次のマッチングのための領域を推定できる。しかし、UAVやカメラの向きが突然変化した場合には、領域の限定が難しい場合がある。
そこで、UAVやカメラに、加速度センサ、磁気センサを設置し、加速度情報や磁気情報を用いることで、UAVやカメラが突然向きを変えても、撮影している向きを予測し、マッチングに用いる領域の推定誤差を修正することができる。
14001 カメラ
14002 精細画像DB
403 特徴点DB
404 マッチングDB
405 三次元点群DB
406 カメラDB
407 広域画像DB
408 広域画像座標位置DB
409 センサDB
410 精細画像処理部
411 精細画像同士の特徴点マッチング部
412 SfM部
413 位置情報記録部
414 広域画像と精細画像の特徴点マッチング部
415 広域画像座標位置計算部
416 広域画像座標位置記録部
417 結果出力部
601 初期三次元点群生成部
602 新規三次元点群追加部
603 カメラ位置推定部
604 バンドル調整部
701 特徴点マッチング領域限定部
801 点検結果比較部

Claims (8)

  1. 広域画像を取得する第1のステップ、
    前記広域画像より高分解能である精細画像を取得する第2のステップ、
    前記精細画像から、精細画像特徴点を抽出する第3のステップ、
    前記精細画像から、前記精細画像特徴点に対して三次元上の座標を与えた三次元点群を生成する第4のステップ、
    前記広域画像から広域画像特徴点を抽出し、前記精細画像特徴点とマッチングを行う第5のステップ、
    前記広域画像特徴点に対して、マッチングが成立した前記精細画像特徴点の三次元座標を対応付けて記録する第6のステップ、
    を備え
    前記第6のステップにおいて、前記広域画像特徴点の広域画像上の座標に対して、マッチングが成立した前記精細画像特徴点の三次元座標を対応付けて記録し、
    前記第2のステップにおいて、同一の対象物に対して異なる時間タイミングで精細画像を取得し、前記異なる時間タイミングにおいて前記対象物の絶対位置が変化しており、
    前記第6のステップで記録した情報に基づいて、前記対象物の時間的変化を検知する、
    位置情報記録方法。
  2. 前記第4のステップにおいて、Visual SLAMを用いる、
    請求項1記載の位置情報記録方法。
  3. 前記第5のステップにおいて、前記マッチングを行う領域を前記広域画像の一部に限定する、
    請求項1記載の位置情報記録方法。
  4. 前記第5のステップにおいて、前記マッチングを行う領域を前記広域画像の一部に限定するために、前記広域画像に含まれるマークを用いる、
    請求項3記載の位置情報記録方法。
  5. 前記第5のステップにおいて、前記マッチングを行う領域を前記広域画像の一部に限定するために、オペレータによる範囲指定を可能とする、
    請求項3記載の位置情報記録方法。
  6. 前記第1のステップにおいて、空撮により広域画像を取得し、
    前記第2のステップにおいて、一連の空撮により複数の精細画像を取得し、
    前記第5のステップにおいて、前記マッチングを行う領域を前記広域画像の一部に限定するために、前記一連の空撮を行うためのカメラの位置情報を利用する、
    請求項3記載の位置情報記録方法。
  7. 前記第5のステップにおいて、前記カメラに加速度センサおよび磁気センサのうち少なくとも一つを備え、加速度情報および磁気情報の少なくとも一つを用いて、前記カメラが撮影している領域を推定することで、前記マッチングを行う領域を前記広域画像の一部に限定する、
    請求項6記載の位置情報記録方法。
  8. 広域画像を取得する広域画像取得部と、
    前記広域画像より高分解能である精細画像を取得する精細画像取得部と、
    前記精細画像から精細画像特徴点を抽出し、前記精細画像から前記精細画像特徴点に対して三次元上の座標を与えた三次元点群を生成する精細画像処理部と、
    前記広域画像から広域画像特徴点を抽出し、前記精細画像特徴点とマッチングを行い、前記広域画像特徴点に対して、マッチングが成立した前記精細画像特徴点の三次元座標を対応付けて記録する位置情報記録部、
    を備え
    前記精細画像取得部は、同一の対象物に対して異なる時間タイミングで前記精細画像を取得し、前記異なる時間タイミングにおいて前記対象物の絶対位置が変化しており、
    前記位置情報記録部で記録した情報に基づいて、前記対象物の時間的変化を検知する、
    位置情報記録装置。
JP2017152817A 2017-08-08 2017-08-08 位置情報記録方法および装置 Active JP6877293B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017152817A JP6877293B2 (ja) 2017-08-08 2017-08-08 位置情報記録方法および装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017152817A JP6877293B2 (ja) 2017-08-08 2017-08-08 位置情報記録方法および装置

Publications (2)

Publication Number Publication Date
JP2019032218A JP2019032218A (ja) 2019-02-28
JP6877293B2 true JP6877293B2 (ja) 2021-05-26

Family

ID=65523374

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017152817A Active JP6877293B2 (ja) 2017-08-08 2017-08-08 位置情報記録方法および装置

Country Status (1)

Country Link
JP (1) JP6877293B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6600113B1 (ja) * 2019-03-29 2019-10-30 スターティアラボ株式会社 Ar用の画像処理装置、画像処理システム及びプログラム
JP6938749B2 (ja) * 2019-04-26 2021-09-22 コムシス情報システム株式会社 空撮画像特定システムおよび空撮画像特定方法。
JP6799635B2 (ja) * 2019-04-26 2020-12-16 コムシス情報システム株式会社 空撮画像位置特定システムおよび空撮画像位置特定方法。
JP7292979B2 (ja) * 2019-05-31 2023-06-19 株式会社東芝 画像処理装置及び画像処理方法
JP7290510B2 (ja) * 2019-08-22 2023-06-13 Automagi株式会社 劣化状態検出装置及び劣化状態検出方法
CN111964649A (zh) * 2020-08-21 2020-11-20 武汉原点勘测设计工程有限公司 一种基于无人机遥感的地形信息采集方法
JP7447234B1 (ja) 2022-12-26 2024-03-11 楽天グループ株式会社 情報処理装置、情報処理方法および情報処理プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5947634B2 (ja) * 2012-06-25 2016-07-06 株式会社トプコン 航空写真撮像方法及び航空写真撮像システム
WO2014007762A1 (en) * 2012-07-04 2014-01-09 Tan Seow Loong A method and system for automated monitoring of traffic
JP6674822B2 (ja) * 2015-04-01 2020-04-01 Terra Drone株式会社 点群データ生成用画像の撮影方法、及び当該画像を用いた点群データ生成方法
JP2017053795A (ja) * 2015-09-11 2017-03-16 株式会社リコー 情報処理装置、位置姿勢計測方法、及び位置姿勢計測プログラム
JP6574845B2 (ja) * 2015-10-01 2019-09-11 富士フイルム株式会社 図面作成装置及び図面作成方法
JP2017130049A (ja) * 2016-01-20 2017-07-27 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Also Published As

Publication number Publication date
JP2019032218A (ja) 2019-02-28

Similar Documents

Publication Publication Date Title
JP6877293B2 (ja) 位置情報記録方法および装置
CN109658461B (zh) 一种基于虚拟仿真环境的合作二维码的无人机定位方法
JP5832341B2 (ja) 動画処理装置、動画処理方法および動画処理用のプログラム
US8744133B1 (en) Methods and systems for locating visible differences on an object
JP5992184B2 (ja) 画像データ処理装置、画像データ処理方法および画像データ処理用のプログラム
KR101890612B1 (ko) 적응적 관심영역 및 탐색창을 이용한 객체 검출 방법 및 장치
Mader et al. UAV-based acquisition of 3D point cloud–a comparison of a low-cost laser scanner and SFM-tools
WO2022077296A1 (zh) 三维重建方法、云台负载、可移动平台以及计算机可读存储介质
WO2018142533A1 (ja) 位置姿勢推定装置および位置姿勢推定方法
CN115423863B (zh) 相机位姿估计方法、装置及计算机可读存储介质
JP5439277B2 (ja) 位置姿勢計測装置及び位置姿勢計測プログラム
US9816786B2 (en) Method for automatically generating a three-dimensional reference model as terrain information for an imaging device
JP2016039390A (ja) 画像生成方法および装置
JP2020008802A (ja) 三次元マップ生成装置および三次元マップ生成方法
KR20160082886A (ko) 복수의 센서를 탑재한 무인 비행체를 이용하는 매핑 방법 및 시스템
JP6922348B2 (ja) 情報処理装置、方法、及びプログラム
Knyaz et al. Joint geometric calibration of color and thermal cameras for synchronized multimodal dataset creating
Abdullah et al. Camera Calibration Performance on Different Non-metric Cameras.
KR102576449B1 (ko) 3차원 모델에 대한 영상 정합 장치 및 방법
JP5885974B2 (ja) 空中写真画像データの対応点設定方法及び対応点設定装置並びに対応点設定プログラム
Pogorzelski et al. Vision Based Navigation Securing the UAV Mission Reliability
JP2022045012A (ja) 外観検査支援システム及び外観検査支援方法
JP4431486B2 (ja) 目標物同定支援システム
CN116718165B (zh) 一种基于无人机平台的联合成像系统及图像增强融合方法
CN117649619B (zh) 无人机视觉导航定位回收方法、系统、装置及可读存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210330

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210427

R150 Certificate of patent or registration of utility model

Ref document number: 6877293

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150