JP7271413B2 - Object detection device and object detection method - Google Patents
Object detection device and object detection method Download PDFInfo
- Publication number
- JP7271413B2 JP7271413B2 JP2019236512A JP2019236512A JP7271413B2 JP 7271413 B2 JP7271413 B2 JP 7271413B2 JP 2019236512 A JP2019236512 A JP 2019236512A JP 2019236512 A JP2019236512 A JP 2019236512A JP 7271413 B2 JP7271413 B2 JP 7271413B2
- Authority
- JP
- Japan
- Prior art keywords
- position coordinates
- group
- position coordinate
- image
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
特許法第30条第2項適用 〔1〕[研究会発表]▲1▼開催日 令和元年 11月23―25日(原稿登録 令和元年 9月12日) ▲2▼集会名 計測自動制御学会 システム・情報部門学術講演会2019(SSI2019)公益社団法人 計測自動制御学会 システム・情報部門 <刊行物>補充資料(公知の事実1)_20190912_SSI2019_投稿概要 <刊行物>補充資料(公知の事実1)_20191123_SSI2019_投稿原稿 <刊行物>補充資料(公知の事実1)_20191125_SSI2019_ショートプレゼン原稿 <刊行物>補充資料(公知の事実1)_20191125_SSI2019_ポスター原稿〔2〕[打ち合わせ] ▲1▼開催日 令和元年 9月24日 ▲2▼集会名 「打ち合わせ(NTTFT)」 <刊行物>補充資料(公知の事実2)_20190924_NTTFT向け_FT_水平方向画像からの電柱検出 <刊行物>補充資料(公知の事実2)_20190924_NTTFT向け_電柱位置検出研究に関する取り組みのご紹介 〔3〕[打ち合わせ] ▲1▼開催日 令和元年9月27日 ▲2▼集会名 「打ち合わせ(NTT東日本-東北)」 <刊行物>補充資料(公知の事実3)_20190927_NTT東日本-東北向け_FT_水平方向画像からの電柱検出 <刊行物>補充資料(公知の事実3)_20190927_NTT東日本-東北向け_電柱位置検出研究に関する取り組みのご紹介 〔4〕[打ち合わせ] ▲1▼開催日 令和元年 10月25日 ▲2▼集会名 「打ち合わせ(NTT西日本)」 <刊行物>補充資料(公知の事実4)_20191025_NTT西日本_電柱位置検出研究に関する取り組みのご紹介 〔5〕[展示会発表] ▲1▼開催日 令和元年 11月21日~22日 ▲2▼集会名 「NTT COMWARE’SDAY 2019」 <刊行物>補充資料(公知の事実5)_20191121_CWsDAY_説明スライド_物体位置検出 <刊行物>補充資料(公知の事実5)_20191121_CWsDAY_展示パネル 〔6〕[NTTグループ内発表] ▲1▼開催日 令和元年 11月26日 ▲2▼集会名 「Deep Learning連絡会」 <刊行物>補充資料(公知の事実6)_20191126_DL連絡会_SSI2019まとめ ほかApplication of
本発明は、物体検出装置および物体検出方法に関する。 The present invention relates to an object detection device and an object detection method.
公共インフラは産業や生活の基盤である。公共インフラの一例として電柱などの構造物が挙げられる。電柱が倒壊すると、停電が発生したり、通信が遮断されたりするため、公共インフラの点検・保守は重要である。公共インフラを効率的に点検・保守するためには、点検対象の構造物の正確な位置を把握しておく必要がある。 Public infrastructure is the foundation of industry and life. An example of public infrastructure is a structure such as a utility pole. Inspection and maintenance of public infrastructure is important because power outages and communication interruptions occur when utility poles collapse. In order to efficiently inspect and maintain public infrastructure, it is necessary to know the exact position of the structure to be inspected.
近年、機械学習を用いて画像中から物体を自動検出する技術に注目が集まりつつある。深層学習等の技術を用いることで、画像から道路や建物などを高精度で検出することができる。 In recent years, attention has been focused on techniques for automatically detecting objects in images using machine learning. By using techniques such as deep learning, it is possible to detect roads and buildings from images with high accuracy.
航空写真や衛星写真などの上空から撮影した画像を用いると、広範囲の情報を一度に取得できる。しかしながら、対象物体の大きさや撮影時期などの要因により、上空から撮影した画像だけを用いて構造物を検出できないことがある。 A wide range of information can be obtained at once by using an image taken from the sky, such as an aerial photograph or a satellite photograph. However, due to factors such as the size of the target object and the time of photographing, it may not be possible to detect the structure using only an image photographed from above.
車載カメラで撮影した画像を用いると、詳細な解析を行いやすいという利点があるものの、撮影のためのコストがかかり、航空・衛星写真よりも対象エリアが狭くなりがちである。建物の高層階に設置してあるカメラで撮影した画像を用いると、俯瞰方向からの広範囲な画像が得られるが、撮影方向が決まっており、検出できない構造物がある。 The use of images taken by an in-vehicle camera has the advantage of facilitating detailed analysis. Using images captured by a camera installed on the upper floors of a building can provide a wide range of images from a bird's-eye view, but there are structures that cannot be detected because the shooting direction is fixed.
垂直方向、水平方向、または俯瞰方向のいずれの画像を用いるとしても、より精度よく、画像から物体を検出することが求められる。 Regardless of which image is used in the vertical direction, horizontal direction, or bird's-eye view direction, it is required to detect an object from the image with higher accuracy.
本発明は、上記に鑑みてなされたものであり、物体検出や位置推定の精度の向上を図ることを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to improve the accuracy of object detection and position estimation.
本発明の一態様の物体検出装置は、同一地域を垂直方向から撮影する第1のカメラと地上を移動する移動体に搭載した第2のカメラで撮影した画像のそれぞれから対象物体を検出し、前記第1のカメラの画像から第1の位置座標群を求め、前記第2のカメラの画像から第2の位置座標群を求める検出部と、前記第1の位置座標群と前記第2の位置座標群をマッチングし、同一物体の位置座標を判定するマッチング部と、前記第2の位置座標群の各位置座標を前記第1の位置座標群の各位置座標へ補正する補正量を求めて、前記第2の位置座標群の各位置座標を前記第1の位置座標群の各位置座標へ補正し、前記第2の位置座標群の位置座標に対応する位置座標が前記第1の位置座標群内に存在しない場合、前記第2の位置座標群の位置座標を前記補正量で補正して対象物体の位置座標とする位置補正部を備えることを特徴とする。 An object detection device according to one aspect of the present invention detects a target object from each of images captured by a first camera that captures an image of the same area from a vertical direction and a second camera mounted on a moving object that moves on the ground, a detection unit that obtains a first position coordinate group from the image of the first camera and obtains a second position coordinate group from the image of the second camera; and the first position coordinate group and the second position. A matching unit that matches coordinate groups and determines the position coordinates of the same object, and obtains a correction amount for correcting each position coordinate of the second position coordinate group to each position coordinate of the first position coordinate group, each position coordinate of the second position coordinate group is corrected to each position coordinate of the first position coordinate group, and position coordinates corresponding to the position coordinates of the second position coordinate group are corrected to the position coordinates of the first position coordinate group; a position correction unit that corrects the position coordinates of the second position coordinate group by the correction amount to determine the position coordinates of the target object when the position coordinates do not exist in the target object.
本発明によれば、物体検出や位置推定の精度の向上を図ることができる。 According to the present invention, it is possible to improve the accuracy of object detection and position estimation.
以下、本発明の実施の形態について図面を用いて説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings.
図1を参照し、本実施形態の物体検出装置の構成例について説明する。本実施形態の物体検出装置は、同一地域を仰俯角の異なる複数のカメラで撮影した画像のそれぞれから求めた位置座標を統合し、検出物体の位置情報を出力する装置である。具体的には、物体検出装置は、上空から撮影した航空写真または衛星写真から対象物体を検出して位置座標を求めるとともに、車載カメラで撮影した画像から対象物体を検出して位置座標を求めて、各画像から求めた位置座標を統合する。このとき、同一物体を判定して、同一物体の位置座標をまとめる。なお、以下では航空写真と車載カメラで撮影した画像とを用いた例で説明するが、これに限るものではない。建造物の高層階から撮影した俯瞰方向の画像を用いてもよい。仰俯角の異なる複数のカメラで撮影した画像のそれぞれから位置座標を求めて統合できればよい。 A configuration example of the object detection device according to the present embodiment will be described with reference to FIG. The object detection apparatus of this embodiment is an apparatus that integrates position coordinates obtained from images of the same area captured by a plurality of cameras with different elevation/depression angles and outputs position information of a detected object. Specifically, an object detection device detects a target object from an aerial photograph or a satellite photograph taken from the sky and obtains the position coordinates, and also detects the target object from an image taken by an in-vehicle camera and obtains the position coordinates. , integrate the position coordinates obtained from each image. At this time, the same object is determined and the position coordinates of the same object are put together. Note that although an example using an aerial photograph and an image captured by an in-vehicle camera will be described below, the present invention is not limited to this. A bird's-eye view image captured from a high floor of a building may be used. It suffices if position coordinates can be obtained from each of the images captured by a plurality of cameras with different elevation/depression angles and integrated.
図1の物体検出装置は、位置検出部10A,10B、マッチング部20、および位置補正部30を備える。物体検出装置が備える各部は、演算処理装置、記憶装置等を備えたコンピュータにより構成して、各部の処理がプログラムによって実行されるものとしてもよい。このプログラムは物体検出装置が備える記憶装置に記憶されており、磁気ディスク、光ディスク、半導体メモリ等の記録媒体に記録することも、ネットワークを通して提供することも可能である。
The object detection device in FIG. 1 includes
位置検出部10A,10Bは、画像および地域情報を入力する入力部11A,11Bと画像から対象物体を検出して対象物体の位置を求める検出部12A,12Bを備える。
The
入力部11A,11Bのそれぞれは、画像蓄積部51A,51Bのそれぞれから、仰俯角の異なる複数のカメラで撮影した画像を入力する。例えば、入力部11Aは、画像蓄積部51Aから、図2に示す航空写真または衛星写真のような、垂直方向から撮影した画像を入力し、入力部11Bは、画像蓄積部51Bから、図3に示す車載カメラで撮影した写真のような、水平方向から撮影した画像を入力する。画像は、動画像からフレームごとに切り出した静止画を用いてもよい。入力部11A,11Bは、画像の撮影場所、撮影方向、および撮影時間などの撮影情報も画像とともに入力する。入力部11A,11Bは、フィルタ処理などの前処理を行ってもよい。
The
また、入力部11A,11Bは、地域情報蓄積部52から、画像が撮影された地域の地域情報を入力し、対象物体の探索対象領域または探索対象外領域を設定する。地域情報とは、点・線・多角形により図形を表す幾何情報および土地利用や地質などの質的または標高などの量的な属性情報である。
Also, the
図4を参照し、地域情報から探索対象領域を設定する概要を説明する。図4の例では、道路地図、地形図、および植生分布図を入力して、探索対象領域を設定した。道路地図は、道路を線分で示した地図である。地形図は、数値標高モデル(DEM)であり、地表面を正方形に区切って標高値を持たせたデータである。植生分布図は、自然林であるか否かの植生分布を示した図である。例えば、対象物体を信号とすると、信号は道路沿いのみに存在するので、道路の近傍を探索対象領域とし、起伏が少ない地域を探索対象領域とし、さらに、自然林でない地域を探索対象領域とする。図4の例では、道路地図、地形図、および植生分布図のそれぞれにおいて探索対象領域をグレーで示した。これらの地域情報から特定される探索対象領域を重ね合わせて対象物体を探索する探索対象領域を設定する。地域情報はこれに限るものではなく、例えば、河川や池などの属性情報を入力し、河川や川を探索対象外領域としてもよい。 With reference to FIG. 4, an outline of setting a search target area from area information will be described. In the example of FIG. 4, a road map, a topographic map, and a vegetation distribution map are input to set the search target area. A road map is a map in which roads are indicated by line segments. A topographic map is a digital elevation model (DEM), and is data in which the ground surface is divided into squares and given elevation values. The vegetation distribution map is a diagram showing the distribution of vegetation whether it is a natural forest or not. For example, if the target object is a signal, the signal exists only along the road, so the area near the road is set as the search target area, the area with few ups and downs is set as the search target area, and the area that is not a natural forest is set as the search target area. . In the example of FIG. 4, the search target area is shown in gray in each of the road map, topographic map, and vegetation distribution map. A search target area for searching for a target object is set by superimposing the search target areas specified from the area information. The area information is not limited to this, and for example, attribute information such as rivers and ponds may be input and the rivers and rivers may be set as non-search areas.
入力部11A,11Bは、入力した画像の探索対象外領域をマスク処理してもよいし、探索対象領域または探索対象外領域を検出部12A,12Bへ通知し、検出部12A,12Bが画像内で探索対象外領域に相当する部分を除いて処理してもよい。
The
検出部12A,12Bのそれぞれは、画像から対象物体を自動検出して対象物体の位置座標群(1つ以上の位置座標を含む)を求める。検出部12A,12Bは、機械学習により、対象物体の画像を学習して生成した判定モデルを用いて、入力した画像から対象物体を検出し、画像の撮影情報から検出した対象物体の地図上での位置座標を求める。検出部12Aは、上空から広範囲を撮影した画像から対象物体の位置座標群を求め、検出部12Bは、上空から撮影した画像に対応する地域内を車載カメラで撮影した画像群から対象物体の位置座標群を求める。つまり、入力部11A,11Bが入力した画像群ごと(カメラごと)の複数の位置座標群が求められる。
Each of the
検出部12A,12Bは、対象物体そのものだけでなく、関連する物体を含めて検出する。つまり、検出部12A,12Bは、対象物体に関連する物体を含めて学習し、検出時は対象物体に関連する物体を含めて対象物体を検出する。例えば、対象物体が電柱の場合、図5に示すように、電柱100の影110や保持する架線120も含めて検出する。これにより、電柱のみでは検出精度が低くなる場合であっても、関連のある物体をまとめて検出することで精度の向上が期待できる。
The
検出部12A,12Bは、関連する物体を含めて検出した領域内から対象物体を再度検出することで、精度よく対象物体の位置座標を求めることができる。例えば、図5に示す例では、対象物体である電柱100は含まれているが、精度よく電柱100の位置座標を求めるためには電柱100そのものの画像内での位置を特定できるとよい。検出部12A,12Bは、領域内で検出した電柱100の根本部分の位置に基づいて電柱100の位置座標を求める。
The
図6(a),(b)に示すように、検出部12A,12Bは、電柱100と影110をまとめて検出し、電柱100と影110の位置に基づいて電柱100の根元部分200Aを位置座標としてもよい。もしくは、電柱100と影110をまとめて検出した検出枠の、影が伸びていない側の角200Bを電柱100の位置座標としてもよい。図6(a)は、電柱100の右側に影110が伸びているので、検出枠の左下の角を電柱100の位置座標とする。図6(b)は、電柱100の左側に影110が伸びているので、検出枠の右下の角を電柱100の位置座標とする。これにより、十分な精度を保ちながら、処理を高速化できる。検出部12A,12Bは、電柱100と影110の位置関係に応じて、検出枠の辺上の点を電柱100の位置座標としてもよいし、検出枠内の中心を電柱100の位置座標としてもよい。
As shown in FIGS. 6A and 6B, the
検出部12A,12Bは、対象物体と関連する物体を含めて、関連する物体の付き方に応じたクラスに分けて学習してもよい。具体的には、電柱から伸びる影の方向に応じたクラス分けを行う。画像内において電柱から影の伸びる方向は、画像の撮影場所、撮影方向、および撮影時刻によって特定できる。例えば、春や秋の午前10時ごろに北を向いて撮影した画像では、対象物体の影は画像上で左上方向に伸びる。対象物体を検出する画像の撮影場所、撮影方向、および撮影時刻は既知であるので、画像から対象物体を検出する際、画像の条件に合ったクラスの対象物体と関連する物体を含めて検出する。春や秋の午前10時ごろに北を向いて撮影した画像からは、対象物体が左上方向に伸びる影を有するクラスに分類される対象物体を検出する。
The
検出部12A,12Bは、学習時、不足している学習データを補うため、対象物体に関連する物体を合成したデータを生成してもよい。例えば、電柱の画像に様々な方向に伸びる影を合成したデータを生成して学習に用いる。架線やクロージャなどの電柱に取り付けられた物体を追加したデータを生成してもよい。
During learning, the
検出部12A,12Bは、画像から検出した対象物体のそれぞれについて、地図上にマッピングするための位置座標を求める。垂直方向および水平方向の画像から検出した対象物体の位置座標は、カメラの位置座標、カメラの仰俯角、画像に付随する位置座標(例えば、四隅の位置座標)、および対象物体の画像内での検出座標から推定できる。例えば、水平方向の画像からは、同一の対象物体に対する2枚の画像から三角測量を行って位置座標を推定できる。あるいは、水平方向の動画像から深度マップ(depthmap)を作成して位置座標を推定してもよい。位置座標の推定に必要な情報は、入力部11A,11Bが画像を入力するときに画像とともに入力しておく。なお、位置座標を推定する方法はこれに限るものではない。検出部12A,12Bのそれぞれから対象物体の位置座標群が出力される。これらの位置座標群には、同一物体を示す位置座標が含まれるので、後段のマッチング部20が同一物体を判定する。
The
なお、図1では、2つの検出部12A,12Bを図示しているが、これに限るものではない。1つの検出部が複数のカメラで撮影した画像のそれぞれを処理して、それぞれの画像について位置座標群を求めてもよい。さらに検出部を追加して3つ以上の異なるカメラ(例えば垂直方向、水平方向、および俯瞰方向のカメラ)で撮影した画像を処理してもよい。この場合、仰俯角の異なる画像群(例えば垂直方向、水平方向、および俯瞰方向の画像群)ごとに位置座標群が求められる。
In addition, although two
マッチング部20は、検出部12Aの求めた位置座標群と検出部12Bの求めた位置座標群をマッチングして同一物体を判定し、位置座標群を統合する。
The matching
図7に、検出部12A,12Bのそれぞれが検出した対象物体の位置を示す。図7では、検出部12Aが検出した対象物体の位置を〇で示し、検出部12Bが検出した対象物体の位置を△で示している。仰俯角の異なる複数のカメラで撮影した画像のそれぞれから対象物体を検出し、検出結果を統合することで、対象物体の検出率を向上できる。
FIG. 7 shows the positions of target objects detected by the
マッチング部20は、位置座標群を統合する際、検出部12A,12Bのそれぞれが出力した同一物体の位置座標を判定する。
When integrating the position coordinate group, the matching
例えば、第1の手法として、マッチング部20は、以下の式で示すように、検出部12A,12Bそれぞれの検出した対象物体の位置座標のずれが一定距離以下の場合、同一物体の位置座標であると判定する。
For example, as a first method, the matching
ここで、xi1,j1,xi2,j2はj1番目、j2番目のカメラで撮影した画像から求めた位置座標である。d(xi1,j1,xi2,j2)は、位置座標xi1,j1,xi2,j2間の誤差である。εは同一物体であるか否かを判定するためのパラメータである。 Here, x i1,j1 and x i2,j2 are the position coordinates obtained from the images taken by the j1-th and j2-th cameras. d(x i1,j1 , x i2,j2 ) is the error between the position coordinates x i1,j1 and x i2,j2 . ε is a parameter for determining whether or not the objects are the same.
第2の手法として、マッチング部20は、以下の式で示すように、検出部12A,12Bそれぞれの検出した位置座標とカメラごと(検出部12A,12Bごとでもよい)に設定されたパラメータとによって定義される領域を算出し、共通する領域が存在する場合、同一物体の位置座標であると判定する。
As a second method, the matching
ここで、xiは推定対象(条件を満たすものが存在するか否かを探索)であり、εj1,εj2はカメラごとに設定されたパラメータである。 Here, x i is an estimation target (a search is made as to whether or not there exists an object that satisfies the conditions), and ε j1 and ε j2 are parameters set for each camera.
図8に示すように、位置座標xi1,j1を中心とした半径εj1の領域と位置座標xi2,j2を中心としたεj2の領域で共通する領域300が存在する場合、位置座標xi1,j1,xi2,j2は同一物体の位置座標であると判定する。
As shown in FIG. 8, when there is an
共通する領域300が存在しても、その領域300が川の中などの対象物体の存在し得ない場所である場合、マッチング部20は、同一物体として判定しない。具体的には、マッチング部20は、領域300が入力部11A,11Bが地域情報から設定した探索対象領域を含まない場合、もしくは領域300が探索対象外領域に含まれる場合、同一物体として判定しない。これにより、位置座標間の距離だけで判定するときよりも、同一物体を精度よく判定できる。
Even if there is a
第3の手法として、マッチング部20は、検出部12A,12Bそれぞれの検出した位置座標とカメラごと(検出部12A,12Bごとでもよい)に設定された誤差関数を用いてペナルティ値を算出し、算出したペナルティ値に基づいて同一物体であるか否かを判定する。具体的には、次式に示すように、カメラごとに設定した誤差関数cj1,cj2を用いて、検出部12A,12Bの検出した位置座標xi1,j1,xi2,j2から推定対象xiまでの距離に応じたペナルティ値Pj1,Pj2を求める。ペナルティ値Pj1,Pj2を合計して2(=カメラの数)で割った値がパラメータε以下となるような推定対象xiが存在する場合、位置座標xi1,j1,xi2,j2は同一物体の位置座標であると判定する。
As a third method, the matching
誤差関数cj1,cj2は、例えば、検出部12A,12Bの検出した位置座標xi1,j1,xi2,j2から離れるに従って値が大きくなるような関数である。例えば、検出誤差の小さい検出部12A,12Bについては、検出した位置座標からの距離に応じて急激に値が大きくなるような誤差関数を設定し、検出誤差の大きい検出部12A,12Bについては、検出した位置座標からの距離に応じてなだらかに値が大きくなるような誤差関数を設定する。
The error functions c j1 and c j2 are, for example, functions whose values increase with distance from the position coordinates x i1,j1 and x i2,j2 detected by the
検出部が3つ以上存在する場合も、上記の式を拡張することで対応可能である。 Even when there are three or more detection units, it can be handled by extending the above formula.
第3の手法においても同一物体の判定に地域情報を用いてもよい。 Also in the third method, area information may be used for determination of the same object.
位置補正部30は、検出部12A,12Bのそれぞれで検出された同一物体と判定された位置座標を1つにまとめるとともに、同一物体と判定された位置座標に基づいて位置座標を補正する。
The
例えば、位置座標がより正確に求められる垂直方向の画像から検出した位置座標を正とし、水平方向の画像から検出した同一物体の位置座標の補正量を求める。そして、水平方向の画像のみから検出できた位置座標を求めた補正量で補正する。図9では、垂直方向の画像から検出した位置座標を〇で示し、水平方向の画像から検出した位置座標を△で示した。位置補正部30は、位置座標(△)を位置座標(〇)に合わせるための補正量を求める。位置補正部30は、水平方向の画像のみから検出される位置座標を求めた補正量で補正する。
For example, the position coordinates detected from the vertical image, for which the position coordinates can be obtained more accurately, are assumed to be positive, and the correction amount of the position coordinates of the same object detected from the horizontal image is obtained. Then, the position coordinates detected only from the image in the horizontal direction are corrected by the obtained correction amount. In FIG. 9, the position coordinates detected from the vertical image are indicated by ◯, and the position coordinates detected from the horizontal image are indicated by Δ. The
測量などにより正確な位置座標が判明している対象物体がある場合、垂直方向および水平方向のそれぞれについて、位置座標を正確な位置座標に合わせる補正量を求め、求めた補正量のそれぞれに基づいて垂直方向から求めた位置座標と水平方向から求めた位置座標を補正してもよい。具体的には、位置補正部30は、正確な位置座標が判明している対象物体について、垂直方向から求めた位置座標を正確な位置座標に合わせる補正量を求めて、垂直方向から求めた他の対象物体の位置座標を求めた補正量で補正する。水平方向についても同様に、位置補正部30は、正確な位置座標が判明している対象物体について、水平方向から求めた位置座標を正確な位置座標に合わせる補正量を求めて、水平方向から求めた他の対象物体の位置座標を求めた補正量で補正する。
If there is a target object for which the exact position coordinates are known by surveying, etc., calculate the correction amount to match the position coordinates to the correct position coordinates for each of the vertical and horizontal directions, and The position coordinates obtained in the vertical direction and the position coordinates obtained in the horizontal direction may be corrected. Specifically, the
別の方法として、位置補正部30は、カメラの誤差を考慮した次式で表される目的関数Lを最小化する位置座標の組み合わせを探索することで、位置座標を補正してもよい。
As another method, the
ここで、xiは、最適化対象であって、i番目の対象物体の位置座標である。xi,jは、j番目のカメラの画像から求めたi番目の対象物体の位置座標である。j番目のカメラの画像からi番目の対象物体を検出していない場合はxi=xi,jとみなす。cjはカメラごとに設定した誤差関数である。マッチング部20の第3の手法で利用する誤差関数と同じでよい。Nは対象物体の合計数である。同一物体の位置座標はまとめて1つと数える。Kはカメラの合計数である。Kiはxiを検出したカメラの合計数である。
Here, x i is the position coordinate of the i-th object to be optimized. x i,j is the position coordinates of the i-th target object obtained from the j-th camera image. If the i-th target object is not detected from the j-th camera image, it is assumed that x i =x i,j . c j is an error function set for each camera. The same error function as used in the third method of the
図10のフローチャートを参照し、本実施形態の物体検出装置の動作について説明する。 The operation of the object detection device of this embodiment will be described with reference to the flowchart of FIG.
ステップS11にて、位置検出部10Aは、垂直方向から撮影した画像を入力し、対象物体の位置座標を検出し、ステップS12にて、位置検出部10Bは、水平方向から撮影した画像を入力し、対象物体の位置座標を検出する。ステップS11,S12は、並列に行ってもよいし、順番に行ってもよい。
In step S11, the
ステップS13にて、マッチング部20は、垂直方向の画像から検出した位置座標と水平方向の画像から検出した位置座標を統合し、同一物体の位置座標を判定する。
In step S13, the matching
ステップS14にて、位置補正部30は、同一物体の位置座標を1つにまとめるとともに、位置座標を補正する位置補正部を備える。
In step S<b>14 , the
以上の処理により、物体検出装置は、対象物体の位置座標群を出力する。例えば、物体検出装置は、地図上に、対象物体を検出した位置座標を示して表示する。 Through the above processing, the object detection device outputs the position coordinate group of the target object. For example, the object detection device indicates and displays the position coordinates of the detected target object on a map.
以上説明したように、本実施形態の物体検出装置は、同一地域を仰俯角の異なる複数のカメラで撮影した画像のそれぞれから対象物体を検出し、複数のカメラごとの複数の位置座標群を求める検出部12A,12Bと、複数の位置座標群を統合し、同一物体の位置座標を判定するマッチング部20を備える。これにより、対象物体の検出率を向上できる。
As described above, the object detection apparatus of this embodiment detects a target object from each of images of the same area captured by a plurality of cameras with different elevation/depression angles, and obtains a plurality of position coordinate groups for each of the plurality of cameras. It comprises
本実施形態のマッチング部20は、位置座標群に含まれる位置座標のそれぞれについて、カメラごとに設定されたパラメータεj1,εj2に基づく領域を求め、複数の位置座標群の間で、共通する領域300を持つ位置座標を同一物体の位置座標と判定する。あるいは、本実施形態のマッチング部20は、位置座標群に含まれる位置座標のそれぞれについて、カメラごとに設定された誤差関数cj1,cj2を用いて、位置座標xi1,j1,xi2,j2からの距離に応じたペナルティ値Pj1,Pj2を求め、複数の位置座標群の間で、ペナルティ値Pj1,Pj2の合計がパラメータε以下となる位置座標xiが存在する位置座標を同一物体の位置座標と判定する。これにより、カメラや検出部12A,12Bの特性を考慮した同一物体の位置座標の判定が可能となる。
The matching
本実施形態の物体検出装置は、同一物体の位置座標として判定された位置座標のそれぞれについてカメラごとに設定された誤差関数cjに基づいて位置座標からの距離に応じたペナルティ値Pj1,Pj2を求め、ペナルティ値Pj1,Pj2の合計が最小となるように位置座標を補正する位置補正部30を備える。これにより、対象物体の位置座標の精度の向上を図ることができる。
The object detection apparatus of this embodiment uses penalty values P j1 , P A
10A,10B…位置検出部
11A,11B…入力部
12A,12B…検出部
20…マッチング部
30…位置補正部
DESCRIPTION OF
Claims (6)
前記第1の位置座標群と前記第2の位置座標群をマッチングし、同一物体の位置座標を判定するマッチング部と、
前記第2の位置座標群の各位置座標を前記第1の位置座標群の各位置座標へ補正する補正量を求めて、前記第2の位置座標群の各位置座標を前記第1の位置座標群の各位置座標へ補正し、前記第2の位置座標群の位置座標に対応する位置座標が前記第1の位置座標群内に存在しない場合、前記第2の位置座標群の位置座標を前記補正量で補正して対象物体の位置座標とする位置補正部を備える
ことを特徴とする物体検出装置。 A target object is detected from each of images captured by a first camera that captures an image of the same area from a vertical direction and by a second camera mounted on a moving object that moves on the ground, and a first image is captured from the image of the first camera. a detection unit that obtains a group of position coordinates and obtains a second group of position coordinates from the image of the second camera ;
a matching unit that matches the first group of position coordinates and the second group of position coordinates and determines the position coordinates of the same object;
A correction amount for correcting each position coordinate of the second position coordinate group to each position coordinate of the first position coordinate group is obtained, and each position coordinate of the second position coordinate group is corrected to the first position coordinate. When the position coordinates corresponding to the position coordinates of the second position coordinate group do not exist in the first position coordinate group, the position coordinates of the second position coordinate group are corrected to the position coordinates of the second position coordinate group. An object detection device comprising a position correction unit that corrects with a correction amount to obtain position coordinates of a target object .
ことを特徴とする請求項1に記載の物体検出装置。 The matching unit obtains a region based on parameters set for each camera for each of the position coordinates included in the position coordinate group , and finds position coordinates having a common region among the plurality of position coordinate groups. 2. The object detection device according to claim 1, wherein position coordinates of the same object are determined.
ことを特徴とする請求項1に記載の物体検出装置。 The matching unit obtains a penalty value corresponding to a distance from the position coordinates for each of the position coordinates included in the position coordinate group based on an error function set for each camera , and calculates a plurality of position coordinate groups. 2. The object detection device according to claim 1, wherein the position coordinates at which the sum of the penalty values is equal to or less than a threshold value exists between and is determined as the position coordinates of the same object.
ことを特徴とする請求項1ないし3のいずれかに記載の物体検出装置。 4. The object detection apparatus according to any one of claims 1 to 3, wherein the matching unit uses geometric information and attribute information of an area where the target object is detected to determine the position coordinates of the same object.
ことを特徴とする請求項1ないし4のいずれかに記載の物体検出装置。 The position correction unit obtains a penalty value corresponding to a distance from the position coordinates based on an error function set for each camera for each position coordinate determined as the position coordinates of the same object, and determines the penalty value. 5. The object detection device according to any one of claims 1 to 4, wherein the position coordinates of the same object are corrected so that the total is minimized.
同一地域を垂直方向から撮影する第1のカメラと地上を移動する移動体に搭載した第2のカメラで撮影した画像のそれぞれから対象物体を検出し、前記第1のカメラの画像から第1の位置座標群を求め、前記第2のカメラの画像から第2の位置座標群を求めるステップと、
前記第1の位置座標群と前記第2の位置座標群をマッチングし、同一物体の位置座標を判定するステップと、
前記第2の位置座標群の各位置座標を前記第1の位置座標群の各位置座標へ補正する補正量を求めて、前記第2の位置座標群の各位置座標を前記第1の位置座標群の各位置座標へ補正し、前記第2の位置座標群の位置座標に対応する位置座標が前記第1の位置座標群内に存在しない場合、前記第2の位置座標群の位置座標を前記補正量で補正して対象物体の位置座標とするステップを有する
ことを特徴とする物体検出方法。 A computer implemented object detection method comprising:
A target object is detected from each of images captured by a first camera that captures an image of the same area from a vertical direction and by a second camera mounted on a moving object that moves on the ground, and a first image is captured from the image of the first camera. determining a group of position coordinates, and determining a second group of position coordinates from the image of the second camera ;
a step of matching the first group of position coordinates and the second group of position coordinates to determine the position coordinates of the same object;
A correction amount for correcting each position coordinate of the second position coordinate group to each position coordinate of the first position coordinate group is obtained, and each position coordinate of the second position coordinate group is corrected to the first position coordinate. When the position coordinates corresponding to the position coordinates of the second position coordinate group do not exist in the first position coordinate group, the position coordinates of the second position coordinate group are corrected to the position coordinates of the second position coordinate group. An object detection method comprising the step of correcting with a correction amount to obtain position coordinates of a target object .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019236512A JP7271413B2 (en) | 2019-12-26 | 2019-12-26 | Object detection device and object detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019236512A JP7271413B2 (en) | 2019-12-26 | 2019-12-26 | Object detection device and object detection method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021105821A JP2021105821A (en) | 2021-07-26 |
JP7271413B2 true JP7271413B2 (en) | 2023-05-11 |
Family
ID=76919316
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019236512A Active JP7271413B2 (en) | 2019-12-26 | 2019-12-26 | Object detection device and object detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7271413B2 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013096745A (en) | 2011-10-28 | 2013-05-20 | Hokuriku Kosoku Co Ltd | Three-dimensional model creation method |
JP2013101428A (en) | 2011-11-07 | 2013-05-23 | Pasuko:Kk | Building contour extraction device, building contour extraction method, and building contour extraction program |
JP2016071830A (en) | 2014-09-26 | 2016-05-09 | 日本電気株式会社 | Object tracking device, object tracking system, object tracking method, display control device, object detection device, program, and recording medium |
JP2016143324A (en) | 2015-02-04 | 2016-08-08 | 株式会社デンソー | Object detection device |
JP2018092628A (en) | 2016-12-02 | 2018-06-14 | 經緯航太科技股▲ふん▼有限公司GEOSAT Aerospace & Technology Inc. | Method and system for automated object detection from aerial image |
JP2019152617A (en) | 2018-03-06 | 2019-09-12 | トヨタ自動車株式会社 | Object recognition device and vehicle travelling control system |
-
2019
- 2019-12-26 JP JP2019236512A patent/JP7271413B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013096745A (en) | 2011-10-28 | 2013-05-20 | Hokuriku Kosoku Co Ltd | Three-dimensional model creation method |
JP2013101428A (en) | 2011-11-07 | 2013-05-23 | Pasuko:Kk | Building contour extraction device, building contour extraction method, and building contour extraction program |
JP2016071830A (en) | 2014-09-26 | 2016-05-09 | 日本電気株式会社 | Object tracking device, object tracking system, object tracking method, display control device, object detection device, program, and recording medium |
JP2016143324A (en) | 2015-02-04 | 2016-08-08 | 株式会社デンソー | Object detection device |
JP2018092628A (en) | 2016-12-02 | 2018-06-14 | 經緯航太科技股▲ふん▼有限公司GEOSAT Aerospace & Technology Inc. | Method and system for automated object detection from aerial image |
JP2019152617A (en) | 2018-03-06 | 2019-09-12 | トヨタ自動車株式会社 | Object recognition device and vehicle travelling control system |
Non-Patent Citations (1)
Title |
---|
Yicong Tian,Cross-View Image Matching for Geo-Localization in Urban Environments,Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR) 2017,IEEE,2017年,P.3608-3616 |
Also Published As
Publication number | Publication date |
---|---|
JP2021105821A (en) | 2021-07-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109949326B (en) | Building contour line extraction method based on knapsack type three-dimensional laser point cloud data | |
US8571265B2 (en) | Measurement apparatus, measurement method, and feature identification apparatus | |
CN113424232A (en) | Three-dimensional point cloud map construction method, system and equipment | |
KR100795396B1 (en) | Method for monitoring altered city using airborne laser surveying data and digital orthophoto | |
WO2018061010A1 (en) | Point cloud transforming in large-scale urban modelling | |
EP3876189A1 (en) | Geographic object detection device, geographic object detection method, and geographic object detection program | |
CN109556569B (en) | Topographic map surveying and mapping method and device | |
JP2010510559A (en) | Method and apparatus for detecting an object from ground mobile mapping data | |
CN107917699B (en) | Method for improving aerial three quality of mountain landform oblique photogrammetry | |
EP3904831A1 (en) | Visual localization using a three-dimensional model and image segmentation | |
JP2016194515A (en) | Imaging method of image for point group data generation, and point group data generation method using image | |
WO2021212477A1 (en) | Point cloud data correction method, and related device | |
US11551411B2 (en) | Data processor, data processing method, and data processing program for determining correspondence relationships between laser scanning point clouds | |
CN114004977A (en) | Aerial photography data target positioning method and system based on deep learning | |
CN110232683A (en) | A kind of landslide detection method based on unmanned plane point cloud | |
CN111915517A (en) | Global positioning method for RGB-D camera in indoor illumination adverse environment | |
US20230394705A1 (en) | Location determination in a gps-denied environment with user annotation | |
CN110044358B (en) | Mobile robot positioning method based on field line characteristics | |
Jiang et al. | Determination of construction site elevations using drone technology | |
RU2612571C1 (en) | Method and system for recognizing urban facilities | |
US20220148216A1 (en) | Position coordinate derivation device, position coordinate derivation method, position coordinate derivation program, and system | |
JP7271413B2 (en) | Object detection device and object detection method | |
JP7236377B2 (en) | Object detection device and object detection method | |
Chuanxiang et al. | Automatic detection of aerial survey ground control points based on Yolov5-OBB | |
JP2005056186A (en) | Traffic condition observation system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20200121 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220304 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230411 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230420 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230426 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7271413 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |