JP2021105821A - 物体検出装置および物体検出方法 - Google Patents

物体検出装置および物体検出方法 Download PDF

Info

Publication number
JP2021105821A
JP2021105821A JP2019236512A JP2019236512A JP2021105821A JP 2021105821 A JP2021105821 A JP 2021105821A JP 2019236512 A JP2019236512 A JP 2019236512A JP 2019236512 A JP2019236512 A JP 2019236512A JP 2021105821 A JP2021105821 A JP 2021105821A
Authority
JP
Japan
Prior art keywords
position coordinates
position coordinate
image
object detection
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019236512A
Other languages
English (en)
Other versions
JP7271413B2 (ja
Inventor
恒進 唐
Koushin Tou
恒進 唐
淳平 加藤
Jumpei Kato
淳平 加藤
多聞 山納
Tamon Yamano
多聞 山納
慎也 原瀬
Shinya Harase
慎也 原瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Comware Corp
Original Assignee
NTT Comware Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Comware Corp filed Critical NTT Comware Corp
Priority to JP2019236512A priority Critical patent/JP7271413B2/ja
Publication of JP2021105821A publication Critical patent/JP2021105821A/ja
Application granted granted Critical
Publication of JP7271413B2 publication Critical patent/JP7271413B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】物体検出や位置推定の精度の向上を図る。【解決手段】物体検出装置は、同一地域を仰俯角の異なる複数のカメラで撮影した画像のそれぞれから対象物体を検出し、複数のカメラごとの複数の位置座標群を求める検出部12A,12Bと、複数の位置座標群を統合し、同一物体の位置座標を判定するマッチング部20と、統合した位置座標群の位置座標を補正する位置補正部30を備える。【選択図】図1

Description

本発明は、物体検出装置および物体検出方法に関する。
公共インフラは産業や生活の基盤である。公共インフラの一例として電柱などの構造物が挙げられる。電柱が倒壊すると、停電が発生したり、通信が遮断されたりするため、公共インフラの点検・保守は重要である。公共インフラを効率的に点検・保守するためには、点検対象の構造物の正確な位置を把握しておく必要がある。
近年、機械学習を用いて画像中から物体を自動検出する技術に注目が集まりつつある。深層学習等の技術を用いることで、画像から道路や建物などを高精度で検出することができる。
特開2018−97588号公報
航空写真や衛星写真などの上空から撮影した画像を用いると、広範囲の情報を一度に取得できる。しかしながら、対象物体の大きさや撮影時期などの要因により、上空から撮影した画像だけを用いて構造物を検出できないことがある。
車載カメラで撮影した画像を用いると、詳細な解析を行いやすいという利点があるものの、撮影のためのコストがかかり、航空・衛星写真よりも対象エリアが狭くなりがちである。建物の高層階に設置してあるカメラで撮影した画像を用いると、俯瞰方向からの広範囲な画像が得られるが、撮影方向が決まっており、検出できない構造物がある。
垂直方向、水平方向、または俯瞰方向のいずれの画像を用いるとしても、より精度よく、画像から物体を検出することが求められる。
本発明は、上記に鑑みてなされたものであり、物体検出や位置推定の精度の向上を図ることを目的とする。
本発明の一態様の物体検出装置は、同一地域を仰俯角の異なる複数のカメラで撮影した画像のそれぞれから対象物体を検出し、前記複数のカメラごとの複数の位置座標群を求める検出部と、前記複数の位置座標群を統合し、同一物体の位置座標を判定するマッチング部と、統合した位置座標群の位置座標を補正する位置補正部を備えることを特徴とする。
本発明によれば、物体検出や位置推定の精度の向上を図ることができる。
本実施形態の物体検出装置の構成例を示す図である。 物体検出装置に入力する垂直方向から撮影した画像の一例を示す図である。 物体検出装置に入力する水平方向から撮影した画像の一例を示す図である。 物体検出装置に入力する地域情報の一例を示す図である。 物体検出装置が検出する電柱と電柱の付属物の一例を示す図である。 電柱と影をまとめて検出した一例を示す図である。 仰俯角の異なる複数のカメラで撮影した画像のそれぞれから検出した対象物体の位置を示した図である。 同一物体の判定処理を説明するための図である。 対象物体の位置座標を補正する様子を示す図である。 物体検出装置の処理の流れを示すフローチャートである。
以下、本発明の実施の形態について図面を用いて説明する。
図1を参照し、本実施形態の物体検出装置の構成例について説明する。本実施形態の物体検出装置は、同一地域を仰俯角の異なる複数のカメラで撮影した画像のそれぞれから求めた位置座標を統合し、検出物体の位置情報を出力する装置である。具体的には、物体検出装置は、上空から撮影した航空写真または衛星写真から対象物体を検出して位置座標を求めるとともに、車載カメラで撮影した画像から対象物体を検出して位置座標を求めて、各画像から求めた位置座標を統合する。このとき、同一物体を判定して、同一物体の位置座標をまとめる。なお、以下では航空写真と車載カメラで撮影した画像とを用いた例で説明するが、これに限るものではない。建造物の高層階から撮影した俯瞰方向の画像を用いてもよい。仰俯角の異なる複数のカメラで撮影した画像のそれぞれから位置座標を求めて統合できればよい。
図1の物体検出装置は、位置検出部10A,10B、マッチング部20、および位置補正部30を備える。物体検出装置が備える各部は、演算処理装置、記憶装置等を備えたコンピュータにより構成して、各部の処理がプログラムによって実行されるものとしてもよい。このプログラムは物体検出装置が備える記憶装置に記憶されており、磁気ディスク、光ディスク、半導体メモリ等の記録媒体に記録することも、ネットワークを通して提供することも可能である。
位置検出部10A,10Bは、画像および地域情報を入力する入力部11A,11Bと画像から対象物体を検出して対象物体の位置を求める検出部12A,12Bを備える。
入力部11A,11Bのそれぞれは、画像蓄積部51A,51Bのそれぞれから、仰俯角の異なる複数のカメラで撮影した画像を入力する。例えば、入力部11Aは、画像蓄積部51Aから、図2に示す航空写真または衛星写真のような、垂直方向から撮影した画像を入力し、入力部11Bは、画像蓄積部51Bから、図3に示す車載カメラで撮影した写真のような、水平方向から撮影した画像を入力する。画像は、動画像からフレームごとに切り出した静止画を用いてもよい。入力部11A,11Bは、画像の撮影場所、撮影方向、および撮影時間などの撮影情報も画像とともに入力する。入力部11A,11Bは、フィルタ処理などの前処理を行ってもよい。
また、入力部11A,11Bは、地域情報蓄積部52から、画像が撮影された地域の地域情報を入力し、対象物体の探索対象領域または探索対象外領域を設定する。地域情報とは、点・線・多角形により図形を表す幾何情報および土地利用や地質などの質的または標高などの量的な属性情報である。
図4を参照し、地域情報から探索対象領域を設定する概要を説明する。図4の例では、道路地図、地形図、および植生分布図を入力して、探索対象領域を設定した。道路地図は、道路を線分で示した地図である。地形図は、数値標高モデル(DEM)であり、地表面を正方形に区切って標高値を持たせたデータである。植生分布図は、自然林であるか否かの植生分布を示した図である。例えば、対象物体を信号とすると、信号は道路沿いのみに存在するので、道路の近傍を探索対象領域とし、起伏が少ない地域を探索対象領域とし、さらに、自然林でない地域を探索対象領域とする。図4の例では、道路地図、地形図、および植生分布図のそれぞれにおいて探索対象領域をグレーで示した。これらの地域情報から特定される探索対象領域を重ね合わせて対象物体を探索する探索対象領域を設定する。地域情報はこれに限るものではなく、例えば、河川や池などの属性情報を入力し、河川や川を探索対象外領域としてもよい。
入力部11A,11Bは、入力した画像の探索対象外領域をマスク処理してもよいし、探索対象領域または探索対象外領域を検出部12A,12Bへ通知し、検出部12A,12Bが画像内で探索対象外領域に相当する部分を除いて処理してもよい。
検出部12A,12Bのそれぞれは、画像から対象物体を自動検出して対象物体の位置座標群(1つ以上の位置座標を含む)を求める。検出部12A,12Bは、機械学習により、対象物体の画像を学習して生成した判定モデルを用いて、入力した画像から対象物体を検出し、画像の撮影情報から検出した対象物体の地図上での位置座標を求める。検出部12Aは、上空から広範囲を撮影した画像から対象物体の位置座標群を求め、検出部12Bは、上空から撮影した画像に対応する地域内を車載カメラで撮影した画像群から対象物体の位置座標群を求める。つまり、入力部11A,11Bが入力した画像群ごと(カメラごと)の複数の位置座標群が求められる。
検出部12A,12Bは、対象物体そのものだけでなく、関連する物体を含めて検出する。つまり、検出部12A,12Bは、対象物体に関連する物体を含めて学習し、検出時は対象物体に関連する物体を含めて対象物体を検出する。例えば、対象物体が電柱の場合、図5に示すように、電柱100の影110や保持する架線120も含めて検出する。これにより、電柱のみでは検出精度が低くなる場合であっても、関連のある物体をまとめて検出することで精度の向上が期待できる。
検出部12A,12Bは、関連する物体を含めて検出した領域内から対象物体を再度検出することで、精度よく対象物体の位置座標を求めることができる。例えば、図5に示す例では、対象物体である電柱100は含まれているが、精度よく電柱100の位置座標を求めるためには電柱100そのものの画像内での位置を特定できるとよい。検出部12A,12Bは、領域内で検出した電柱100の根本部分の位置に基づいて電柱100の位置座標を求める。
図6(a),(b)に示すように、検出部12A,12Bは、電柱100と影110をまとめて検出し、電柱100と影110の位置に基づいて電柱100の根元部分200Aを位置座標としてもよい。もしくは、電柱100と影110をまとめて検出した検出枠の、影が伸びていない側の角200Bを電柱100の位置座標としてもよい。図6(a)は、電柱100の右側に影110が伸びているので、検出枠の左下の角を電柱100の位置座標とする。図6(b)は、電柱100の左側に影110が伸びているので、検出枠の右下の角を電柱100の位置座標とする。これにより、十分な精度を保ちながら、処理を高速化できる。検出部12A,12Bは、電柱100と影110の位置関係に応じて、検出枠の辺上の点を電柱100の位置座標としてもよいし、検出枠内の中心を電柱100の位置座標としてもよい。
検出部12A,12Bは、対象物体と関連する物体を含めて、関連する物体の付き方に応じたクラスに分けて学習してもよい。具体的には、電柱から伸びる影の方向に応じたクラス分けを行う。画像内において電柱から影の伸びる方向は、画像の撮影場所、撮影方向、および撮影時刻によって特定できる。例えば、春や秋の午前10時ごろに北を向いて撮影した画像では、対象物体の影は画像上で左上方向に伸びる。対象物体を検出する画像の撮影場所、撮影方向、および撮影時刻は既知であるので、画像から対象物体を検出する際、画像の条件に合ったクラスの対象物体と関連する物体を含めて検出する。春や秋の午前10時ごろに北を向いて撮影した画像からは、対象物体が左上方向に伸びる影を有するクラスに分類される対象物体を検出する。
検出部12A,12Bは、学習時、不足している学習データを補うため、対象物体に関連する物体を合成したデータを生成してもよい。例えば、電柱の画像に様々な方向に伸びる影を合成したデータを生成して学習に用いる。架線やクロージャなどの電柱に取り付けられた物体を追加したデータを生成してもよい。
検出部12A,12Bは、画像から検出した対象物体のそれぞれについて、地図上にマッピングするための位置座標を求める。垂直方向および水平方向の画像から検出した対象物体の位置座標は、カメラの位置座標、カメラの仰俯角、画像に付随する位置座標(例えば、四隅の位置座標)、および対象物体の画像内での検出座標から推定できる。例えば、水平方向の画像からは、同一の対象物体に対する2枚の画像から三角測量を行って位置座標を推定できる。あるいは、水平方向の動画像から深度マップ(depthmap)を作成して位置座標を推定してもよい。位置座標の推定に必要な情報は、入力部11A,11Bが画像を入力するときに画像とともに入力しておく。なお、位置座標を推定する方法はこれに限るものではない。検出部12A,12Bのそれぞれから対象物体の位置座標群が出力される。これらの位置座標群には、同一物体を示す位置座標が含まれるので、後段のマッチング部20が同一物体を判定する。
なお、図1では、2つの検出部12A,12Bを図示しているが、これに限るものではない。1つの検出部が複数のカメラで撮影した画像のそれぞれを処理して、それぞれの画像について位置座標群を求めてもよい。さらに検出部を追加して3つ以上の異なるカメラ(例えば垂直方向、水平方向、および俯瞰方向のカメラ)で撮影した画像を処理してもよい。この場合、仰俯角の異なる画像群(例えば垂直方向、水平方向、および俯瞰方向の画像群)ごとに位置座標群が求められる。
マッチング部20は、検出部12Aの求めた位置座標群と検出部12Bの求めた位置座標群をマッチングして同一物体を判定し、位置座標群を統合する。
図7に、検出部12A,12Bのそれぞれが検出した対象物体の位置を示す。図7では、検出部12Aが検出した対象物体の位置を〇で示し、検出部12Bが検出した対象物体の位置を△で示している。仰俯角の異なる複数のカメラで撮影した画像のそれぞれから対象物体を検出し、検出結果を統合することで、対象物体の検出率を向上できる。
マッチング部20は、位置座標群を統合する際、検出部12A,12Bのそれぞれが出力した同一物体の位置座標を判定する。
例えば、第1の手法として、マッチング部20は、以下の式で示すように、検出部12A,12Bそれぞれの検出した対象物体の位置座標のずれが一定距離以下の場合、同一物体の位置座標であると判定する。
Figure 2021105821
ここで、xi1,j1,xi2,j2はj1番目、j2番目のカメラで撮影した画像から求めた位置座標である。d(xi1,j1,xi2,j2)は、位置座標xi1,j1,xi2,j2間の誤差である。εは同一物体であるか否かを判定するためのパラメータである。
第2の手法として、マッチング部20は、以下の式で示すように、検出部12A,12Bそれぞれの検出した位置座標とカメラごと(検出部12A,12Bごとでもよい)に設定されたパラメータとによって定義される領域を算出し、共通する領域が存在する場合、同一物体の位置座標であると判定する。
Figure 2021105821
ここで、xは推定対象(条件を満たすものが存在するか否かを探索)であり、εj1,εj2はカメラごとに設定されたパラメータである。
図8に示すように、位置座標xi1,j1を中心とした半径εj1の領域と位置座標xi2,j2を中心としたεj2の領域で共通する領域300が存在する場合、位置座標xi1,j1,xi2,j2は同一物体の位置座標であると判定する。
共通する領域300が存在しても、その領域300が川の中などの対象物体の存在し得ない場所である場合、マッチング部20は、同一物体として判定しない。具体的には、マッチング部20は、領域300が入力部11A,11Bが地域情報から設定した探索対象領域を含まない場合、もしくは領域300が探索対象外領域に含まれる場合、同一物体として判定しない。これにより、位置座標間の距離だけで判定するときよりも、同一物体を精度よく判定できる。
第3の手法として、マッチング部20は、検出部12A,12Bそれぞれの検出した位置座標とカメラごと(検出部12A,12Bごとでもよい)に設定された誤差関数を用いてペナルティ値を算出し、算出したペナルティ値に基づいて同一物体であるか否かを判定する。具体的には、次式に示すように、カメラごとに設定した誤差関数cj1,cj2を用いて、検出部12A,12Bの検出した位置座標xi1,j1,xi2,j2から推定対象xiまでの距離に応じたペナルティ値Pj1,Pj2を求める。ペナルティ値Pj1,Pj2を合計して2(=カメラの数)で割った値がパラメータε以下となるような推定対象xiが存在する場合、位置座標xi1,j1,xi2,j2は同一物体の位置座標であると判定する。
Figure 2021105821
誤差関数cj1,cj2は、例えば、検出部12A,12Bの検出した位置座標xi1,j1,xi2,j2から離れるに従って値が大きくなるような関数である。例えば、検出誤差の小さい検出部12A,12Bについては、検出した位置座標からの距離に応じて急激に値が大きくなるような誤差関数を設定し、検出誤差の大きい検出部12A,12Bについては、検出した位置座標からの距離に応じてなだらかに値が大きくなるような誤差関数を設定する。
検出部が3つ以上存在する場合も、上記の式を拡張することで対応可能である。
第3の手法においても同一物体の判定に地域情報を用いてもよい。
位置補正部30は、検出部12A,12Bのそれぞれで検出された同一物体と判定された位置座標を1つにまとめるとともに、同一物体と判定された位置座標に基づいて位置座標を補正する。
例えば、位置座標がより正確に求められる垂直方向の画像から検出した位置座標を正とし、水平方向の画像から検出した同一物体の位置座標の補正量を求める。そして、水平方向の画像のみから検出できた位置座標を求めた補正量で補正する。図9では、垂直方向の画像から検出した位置座標を〇で示し、水平方向の画像から検出した位置座標を△で示した。位置補正部30は、位置座標(△)を位置座標(〇)に合わせるための補正量を求める。位置補正部30は、水平方向の画像のみから検出される位置座標を求めた補正量で補正する。
測量などにより正確な位置座標が判明している対象物体がある場合、垂直方向および水平方向のそれぞれについて、位置座標を正確な位置座標に合わせる補正量を求め、求めた補正量のそれぞれに基づいて垂直方向から求めた位置座標と水平方向から求めた位置座標を補正してもよい。具体的には、位置補正部30は、正確な位置座標が判明している対象物体について、垂直方向から求めた位置座標を正確な位置座標に合わせる補正量を求めて、垂直方向から求めた他の対象物体の位置座標を求めた補正量で補正する。水平方向についても同様に、位置補正部30は、正確な位置座標が判明している対象物体について、水平方向から求めた位置座標を正確な位置座標に合わせる補正量を求めて、水平方向から求めた他の対象物体の位置座標を求めた補正量で補正する。
別の方法として、位置補正部30は、カメラの誤差を考慮した次式で表される目的関数Lを最小化する位置座標の組み合わせを探索することで、位置座標を補正してもよい。
Figure 2021105821
ここで、xiは、最適化対象であって、i番目の対象物体の位置座標である。xi,jは、j番目のカメラの画像から求めたi番目の対象物体の位置座標である。j番目のカメラの画像からi番目の対象物体を検出していない場合はxi=xi,jとみなす。cjはカメラごとに設定した誤差関数である。マッチング部20の第3の手法で利用する誤差関数と同じでよい。Nは対象物体の合計数である。同一物体の位置座標はまとめて1つと数える。Kはカメラの合計数である。Kiはxiを検出したカメラの合計数である。
図10のフローチャートを参照し、本実施形態の物体検出装置の動作について説明する。
ステップS11にて、位置検出部10Aは、垂直方向から撮影した画像を入力し、対象物体の位置座標を検出し、ステップS12にて、位置検出部10Bは、水平方向から撮影した画像を入力し、対象物体の位置座標を検出する。ステップS11,S12は、並列に行ってもよいし、順番に行ってもよい。
ステップS13にて、マッチング部20は、垂直方向の画像から検出した位置座標と水平方向の画像から検出した位置座標を統合し、同一物体の位置座標を判定する。
ステップS14にて、位置補正部30は、同一物体の位置座標を1つにまとめるとともに、位置座標を補正する位置補正部を備える。
以上の処理により、物体検出装置は、対象物体の位置座標群を出力する。例えば、物体検出装置は、地図上に、対象物体を検出した位置座標を示して表示する。
以上説明したように、本実施形態の物体検出装置は、同一地域を仰俯角の異なる複数のカメラで撮影した画像のそれぞれから対象物体を検出し、複数のカメラごとの複数の位置座標群を求める検出部12A,12Bと、複数の位置座標群を統合し、同一物体の位置座標を判定するマッチング部20を備える。これにより、対象物体の検出率を向上できる。
本実施形態のマッチング部20は、位置座標群に含まれる位置座標のそれぞれについて、カメラごとに設定されたパラメータεj1,εj2に基づく領域を求め、複数の位置座標群の間で、共通する領域300を持つ位置座標を同一物体の位置座標と判定する。あるいは、本実施形態のマッチング部20は、位置座標群に含まれる位置座標のそれぞれについて、カメラごとに設定された誤差関数cj1,cj2を用いて、位置座標xi1,j1,xi2,j2からの距離に応じたペナルティ値Pj1,Pj2を求め、複数の位置座標群の間で、ペナルティ値Pj1,Pj2の合計がパラメータε以下となる位置座標xiが存在する位置座標を同一物体の位置座標と判定する。これにより、カメラや検出部12A,12Bの特性を考慮した同一物体の位置座標の判定が可能となる。
本実施形態の物体検出装置は、同一物体の位置座標として判定された位置座標のそれぞれについてカメラごとに設定された誤差関数cjに基づいて位置座標からの距離に応じたペナルティ値Pj1,Pj2を求め、ペナルティ値Pj1,Pj2の合計が最小となるように位置座標を補正する位置補正部30を備える。これにより、対象物体の位置座標の精度の向上を図ることができる。
10A,10B…位置検出部
11A,11B…入力部
12A,12B…検出部
20…マッチング部
30…位置補正部

Claims (6)

  1. 同一地域を仰俯角の異なる複数のカメラで撮影した画像のそれぞれから対象物体を検出し、前記複数のカメラごとの複数の位置座標群を求める検出部と、
    前記複数の位置座標群を統合し、同一物体の位置座標を判定するマッチング部と、
    統合した位置座標群の位置座標を補正する位置補正部を備える
    ことを特徴とする物体検出装置。
  2. 前記マッチング部は、前記位置座標群に含まれる位置座標のそれぞれについて、前記カメラごとに設定されたパラメータに基づく領域を求め、前記複数の位置座標群の間で、共通する領域を持つ位置座標を同一物体の位置座標と判定する
    ことを特徴とする請求項1に記載の物体検出装置。
  3. 前記マッチング部は、前記位置座標群に含まれる位置座標のそれぞれについて、前記カメラごとに設定された誤差関数に基づいて前記位置座標からの距離に応じたペナルティ値を求め、前記複数の位置座標群の間で、前記ペナルティ値の合計が閾値以下となる位置座標が存在する位置座標を同一物体の位置座標と判定する
    ことを特徴とする請求項1に記載の物体検出装置。
  4. 前記マッチング部は、同一物体の位置座標の判定に、前記対象物体を検出する地域の幾何情報や属性情報を利用する
    ことを特徴とする請求項1ないし3のいずれかに記載の物体検出装置。
  5. 前記位置補正部は、同一物体の位置座標として判定された位置座標のそれぞれについて前記カメラごとに設定された誤差関数に基づいて前記位置座標からの距離に応じたペナルティ値を求め、前記ペナルティ値の合計が最小となるように前記同一物体の位置座標を補正する
    ことを特徴とする請求項1ないし4のいずれかに記載の物体検出装置。
  6. コンピュータが実行する物体検出方法であって、
    同一地域を仰俯角の異なる複数のカメラで撮影した画像のそれぞれから対象物体を検出し、前記複数のカメラごとの複数の位置座標群を求めるステップと、
    前記複数の位置座標群を統合し、同一物体の位置座標を判定するステップと、
    統合した位置座標群の位置座標を補正するステップを有する
    ことを特徴とする物体検出方法。
JP2019236512A 2019-12-26 2019-12-26 物体検出装置および物体検出方法 Active JP7271413B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019236512A JP7271413B2 (ja) 2019-12-26 2019-12-26 物体検出装置および物体検出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019236512A JP7271413B2 (ja) 2019-12-26 2019-12-26 物体検出装置および物体検出方法

Publications (2)

Publication Number Publication Date
JP2021105821A true JP2021105821A (ja) 2021-07-26
JP7271413B2 JP7271413B2 (ja) 2023-05-11

Family

ID=76919316

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019236512A Active JP7271413B2 (ja) 2019-12-26 2019-12-26 物体検出装置および物体検出方法

Country Status (1)

Country Link
JP (1) JP7271413B2 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013096745A (ja) * 2011-10-28 2013-05-20 Hokuriku Kosoku Co Ltd 三次元モデルの作成方法
JP2013101428A (ja) * 2011-11-07 2013-05-23 Pasuko:Kk 建物輪郭抽出装置、建物輪郭抽出方法及び建物輪郭抽出プログラム
JP2016071830A (ja) * 2014-09-26 2016-05-09 日本電気株式会社 物体追跡装置、物体追跡システム、物体追跡方法、表示制御装置、物体検出装置、プログラムおよび記録媒体
JP2016143324A (ja) * 2015-02-04 2016-08-08 株式会社デンソー 物体検出装置
JP2018092628A (ja) * 2016-12-02 2018-06-14 經緯航太科技股▲ふん▼有限公司GEOSAT Aerospace & Technology Inc. 航空画像からの自動物体検出のための方法およびシステム
JP2019152617A (ja) * 2018-03-06 2019-09-12 トヨタ自動車株式会社 物体認識装置及び車両走行制御システム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013096745A (ja) * 2011-10-28 2013-05-20 Hokuriku Kosoku Co Ltd 三次元モデルの作成方法
JP2013101428A (ja) * 2011-11-07 2013-05-23 Pasuko:Kk 建物輪郭抽出装置、建物輪郭抽出方法及び建物輪郭抽出プログラム
JP2016071830A (ja) * 2014-09-26 2016-05-09 日本電気株式会社 物体追跡装置、物体追跡システム、物体追跡方法、表示制御装置、物体検出装置、プログラムおよび記録媒体
JP2016143324A (ja) * 2015-02-04 2016-08-08 株式会社デンソー 物体検出装置
JP2018092628A (ja) * 2016-12-02 2018-06-14 經緯航太科技股▲ふん▼有限公司GEOSAT Aerospace & Technology Inc. 航空画像からの自動物体検出のための方法およびシステム
JP2019152617A (ja) * 2018-03-06 2019-09-12 トヨタ自動車株式会社 物体認識装置及び車両走行制御システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YICONG TIAN: "Cross-View Image Matching for Geo-Localization in Urban Environments", PROCEEDINGS OF THE IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR) 2017, JPN6023006326, 2017, pages 3608 - 3616, ISSN: 0004995042 *

Also Published As

Publication number Publication date
JP7271413B2 (ja) 2023-05-11

Similar Documents

Publication Publication Date Title
KR101933216B1 (ko) 드론과 공간정보를 이용한 하천지형정보 생성 방법
CN107690840B (zh) 无人机视觉辅助导航方法及系统
WO2018061010A1 (en) Point cloud transforming in large-scale urban modelling
KR100795396B1 (ko) 항공레이저 데이터와 수치정사영상을 이용한 도시 변화모니터링 방법
CN106871906B (zh) 一种盲人导航方法、装置及终端设备
US11551411B2 (en) Data processor, data processing method, and data processing program for determining correspondence relationships between laser scanning point clouds
CN111915517B (zh) 适用于室内光照不利环境下rgb-d相机全局定位方法
CN112070870B (zh) 点云地图评估方法、装置、计算机设备和存储介质
WO2021212477A1 (zh) 校正点云数据的方法和相关装置
CN110232683A (zh) 一种基于无人机点云的滑坡检测方法
CN114004977A (zh) 一种基于深度学习的航拍数据目标定位方法及系统
US11928837B2 (en) Landmark configuration matcher
JP6146731B2 (ja) 座標補正装置、座標補正プログラム、及び座標補正方法
RU2612571C1 (ru) Способ и система распознавания городских объектов
CN110636248B (zh) 目标跟踪方法与装置
US20230394705A1 (en) Location determination in a gps-denied environment with user annotation
RU2638638C1 (ru) Способ и система автоматического построения трехмерных моделей городов
US20220148216A1 (en) Position coordinate derivation device, position coordinate derivation method, position coordinate derivation program, and system
JP2007108029A (ja) 位置評定装置、位置評定方法および位置評定プログラム
JP7271413B2 (ja) 物体検出装置および物体検出方法
CN113838129B (zh) 一种获得位姿信息的方法、装置以及系统
JP7236377B2 (ja) 物体検出装置および物体検出方法
CN113326793B (zh) 一种远距离行人位置识别方法、系统及存储介质
Chuanxiang et al. Automatic detection of aerial survey ground control points based on Yolov5-OBB
Su et al. Hierarchical moving curved fitting filtering method based on LIDAR data

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20200121

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230420

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230426

R150 Certificate of patent or registration of utility model

Ref document number: 7271413

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150