JP7271413B2 - Object detection device and object detection method - Google Patents

Object detection device and object detection method Download PDF

Info

Publication number
JP7271413B2
JP7271413B2 JP2019236512A JP2019236512A JP7271413B2 JP 7271413 B2 JP7271413 B2 JP 7271413B2 JP 2019236512 A JP2019236512 A JP 2019236512A JP 2019236512 A JP2019236512 A JP 2019236512A JP 7271413 B2 JP7271413 B2 JP 7271413B2
Authority
JP
Japan
Prior art keywords
position coordinates
group
position coordinate
image
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019236512A
Other languages
Japanese (ja)
Other versions
JP2021105821A (en
Inventor
恒進 唐
淳平 加藤
多聞 山納
慎也 原瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Comware Corp
Original Assignee
NTT Comware Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Comware Corp filed Critical NTT Comware Corp
Priority to JP2019236512A priority Critical patent/JP7271413B2/en
Publication of JP2021105821A publication Critical patent/JP2021105821A/en
Application granted granted Critical
Publication of JP7271413B2 publication Critical patent/JP7271413B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

特許法第30条第2項適用 〔1〕[研究会発表]▲1▼開催日 令和元年 11月23―25日(原稿登録 令和元年 9月12日) ▲2▼集会名 計測自動制御学会 システム・情報部門学術講演会2019(SSI2019)公益社団法人 計測自動制御学会 システム・情報部門 <刊行物>補充資料(公知の事実1)_20190912_SSI2019_投稿概要 <刊行物>補充資料(公知の事実1)_20191123_SSI2019_投稿原稿 <刊行物>補充資料(公知の事実1)_20191125_SSI2019_ショートプレゼン原稿 <刊行物>補充資料(公知の事実1)_20191125_SSI2019_ポスター原稿〔2〕[打ち合わせ] ▲1▼開催日 令和元年 9月24日 ▲2▼集会名 「打ち合わせ(NTTFT)」 <刊行物>補充資料(公知の事実2)_20190924_NTTFT向け_FT_水平方向画像からの電柱検出 <刊行物>補充資料(公知の事実2)_20190924_NTTFT向け_電柱位置検出研究に関する取り組みのご紹介 〔3〕[打ち合わせ] ▲1▼開催日 令和元年9月27日 ▲2▼集会名 「打ち合わせ(NTT東日本-東北)」 <刊行物>補充資料(公知の事実3)_20190927_NTT東日本-東北向け_FT_水平方向画像からの電柱検出 <刊行物>補充資料(公知の事実3)_20190927_NTT東日本-東北向け_電柱位置検出研究に関する取り組みのご紹介 〔4〕[打ち合わせ] ▲1▼開催日 令和元年 10月25日 ▲2▼集会名 「打ち合わせ(NTT西日本)」 <刊行物>補充資料(公知の事実4)_20191025_NTT西日本_電柱位置検出研究に関する取り組みのご紹介 〔5〕[展示会発表] ▲1▼開催日 令和元年 11月21日~22日 ▲2▼集会名 「NTT COMWARE’SDAY 2019」 <刊行物>補充資料(公知の事実5)_20191121_CWsDAY_説明スライド_物体位置検出 <刊行物>補充資料(公知の事実5)_20191121_CWsDAY_展示パネル 〔6〕[NTTグループ内発表] ▲1▼開催日 令和元年 11月26日 ▲2▼集会名 「Deep Learning連絡会」 <刊行物>補充資料(公知の事実6)_20191126_DL連絡会_SSI2019まとめ ほかApplication of Article 30, paragraph 2 of the Patent Law The Society of Automatic Control Engineers, Systems and Information Division Academic Lecture 2019 (SSI2019) The Society of Instrument and Control Engineers, Systems and Information Division <Publication> Supplementary Material (Known Fact 1)_20190912_SSI2019_Submission Summary <Publication> Supplementary Material (Known Fact) 1)_20191123_SSI2019_Posted manuscript <Publication> Supplementary material (publicly known fact 1)_20191125_SSI2019_Short presentation manuscript <Publication> Supplementary material (publicly known fact 1)_20191125_SSI2019_Poster manuscript [2] [meeting] ▲1 ▼Date Reiwa 1 September 24, 2018 (2) Name of meeting: “Meeting (NTTFT)” <Publication> Supplementary material (public knowledge 2)_20190924_For NTTFT_FT_Detection of utility poles from horizontal image <Publication> Supplementary material (public knowledge 2) _20190924_For NTTFT_Introduction of initiatives related to utility pole position detection research [3] [Meeting] ▲1 ▼ Date September 27, 2019 ▲2 ▼ Meeting name “Meeting (NTT East Japan-Tohoku)” <Publication> Supplementary Materials (Public Facts 3)_20190927_NTT East Japan - For Tohoku_FT_Detection of utility poles from horizontal images <Publication> Supplementary Materials (Public Facts 3)_20190927_NTT East Japan - For Tohoku_Introduction of initiatives related to research on utility pole position detection [4] [Meeting] ▲1 ▼Date October 25, 2019 ▲2▼Meeting name “Meeting (NTT West)” Introduction [5] [Exhibition announcement] ▲1 ▼ Date November 21-22, 2019 ▲2 ▼ Name of the meeting "NTT COMWARE'SDAY 2019" <Publication> Supplementary material (Public knowledge 5) _20191121_CWsDAY_Explanation slide_Object position detection <Publication> Supplementary material (Public knowledge 5)_20191121_CWsDAY_Exhibition panel [6] [Announcement within NTT Group] ▲1 ▼ Date November 26, 2019 ▲2 ▼ Meeting name Deep Learning Liaison Committee” <Publication> Supplementary Materials (Known Facts 6)_20191126_DL Liaison Committee_SSI2019 Summary, etc.

本発明は、物体検出装置および物体検出方法に関する。 The present invention relates to an object detection device and an object detection method.

公共インフラは産業や生活の基盤である。公共インフラの一例として電柱などの構造物が挙げられる。電柱が倒壊すると、停電が発生したり、通信が遮断されたりするため、公共インフラの点検・保守は重要である。公共インフラを効率的に点検・保守するためには、点検対象の構造物の正確な位置を把握しておく必要がある。 Public infrastructure is the foundation of industry and life. An example of public infrastructure is a structure such as a utility pole. Inspection and maintenance of public infrastructure is important because power outages and communication interruptions occur when utility poles collapse. In order to efficiently inspect and maintain public infrastructure, it is necessary to know the exact position of the structure to be inspected.

近年、機械学習を用いて画像中から物体を自動検出する技術に注目が集まりつつある。深層学習等の技術を用いることで、画像から道路や建物などを高精度で検出することができる。 In recent years, attention has been focused on techniques for automatically detecting objects in images using machine learning. By using techniques such as deep learning, it is possible to detect roads and buildings from images with high accuracy.

特開2018-97588号公報JP 2018-97588 A

航空写真や衛星写真などの上空から撮影した画像を用いると、広範囲の情報を一度に取得できる。しかしながら、対象物体の大きさや撮影時期などの要因により、上空から撮影した画像だけを用いて構造物を検出できないことがある。 A wide range of information can be obtained at once by using an image taken from the sky, such as an aerial photograph or a satellite photograph. However, due to factors such as the size of the target object and the time of photographing, it may not be possible to detect the structure using only an image photographed from above.

車載カメラで撮影した画像を用いると、詳細な解析を行いやすいという利点があるものの、撮影のためのコストがかかり、航空・衛星写真よりも対象エリアが狭くなりがちである。建物の高層階に設置してあるカメラで撮影した画像を用いると、俯瞰方向からの広範囲な画像が得られるが、撮影方向が決まっており、検出できない構造物がある。 The use of images taken by an in-vehicle camera has the advantage of facilitating detailed analysis. Using images captured by a camera installed on the upper floors of a building can provide a wide range of images from a bird's-eye view, but there are structures that cannot be detected because the shooting direction is fixed.

垂直方向、水平方向、または俯瞰方向のいずれの画像を用いるとしても、より精度よく、画像から物体を検出することが求められる。 Regardless of which image is used in the vertical direction, horizontal direction, or bird's-eye view direction, it is required to detect an object from the image with higher accuracy.

本発明は、上記に鑑みてなされたものであり、物体検出や位置推定の精度の向上を図ることを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to improve the accuracy of object detection and position estimation.

本発明の一態様の物体検出装置は、同一地域を垂直方向から撮影する第1のカメラと地上を移動する移動体に搭載した第2のカメラで撮影した画像のそれぞれから対象物体を検出し、前記第1のカメラの画像から第1の位置座標群を求め、前記第2のカメラの画像から第2の位置座標群を求める検出部と、前記第1の位置座標群と前記第2の位置座標群をマッチングし、同一物体の位置座標を判定するマッチング部と、前記第2の位置座標群の各位置座標を前記第1の位置座標群の各位置座標へ補正する補正量を求めて、前記第2の位置座標群の各位置座標を前記第1の位置座標群の各位置座標へ補正し、前記第2の位置座標群の位置座標に対応する位置座標が前記第1の位置座標群内に存在しない場合、前記第2の位置座標群の位置座標を前記補正量で補正して対象物体の位置座標とする位置補正部を備えることを特徴とする。 An object detection device according to one aspect of the present invention detects a target object from each of images captured by a first camera that captures an image of the same area from a vertical direction and a second camera mounted on a moving object that moves on the ground, a detection unit that obtains a first position coordinate group from the image of the first camera and obtains a second position coordinate group from the image of the second camera; and the first position coordinate group and the second position. A matching unit that matches coordinate groups and determines the position coordinates of the same object, and obtains a correction amount for correcting each position coordinate of the second position coordinate group to each position coordinate of the first position coordinate group, each position coordinate of the second position coordinate group is corrected to each position coordinate of the first position coordinate group, and position coordinates corresponding to the position coordinates of the second position coordinate group are corrected to the position coordinates of the first position coordinate group; a position correction unit that corrects the position coordinates of the second position coordinate group by the correction amount to determine the position coordinates of the target object when the position coordinates do not exist in the target object.

本発明によれば、物体検出や位置推定の精度の向上を図ることができる。 According to the present invention, it is possible to improve the accuracy of object detection and position estimation.

本実施形態の物体検出装置の構成例を示す図である。It is a figure which shows the structural example of the object detection apparatus of this embodiment. 物体検出装置に入力する垂直方向から撮影した画像の一例を示す図である。It is a figure which shows an example of the image image|photographed from the vertical direction input into an object detection apparatus. 物体検出装置に入力する水平方向から撮影した画像の一例を示す図である。It is a figure which shows an example of the image image|photographed from the horizontal direction input into an object detection apparatus. 物体検出装置に入力する地域情報の一例を示す図である。It is a figure which shows an example of the area information input into an object detection apparatus. 物体検出装置が検出する電柱と電柱の付属物の一例を示す図である。It is a figure which shows an example of the utility pole and the attachment of a utility pole which an object detection apparatus detects. 電柱と影をまとめて検出した一例を示す図である。It is a figure which shows an example which collectively detected the utility pole and the shadow. 仰俯角の異なる複数のカメラで撮影した画像のそれぞれから検出した対象物体の位置を示した図である。FIG. 4 is a diagram showing positions of target objects detected from images captured by a plurality of cameras having different elevation/depression angles; 同一物体の判定処理を説明するための図である。It is a figure for demonstrating the determination process of the same object. 対象物体の位置座標を補正する様子を示す図である。FIG. 10 is a diagram showing how the position coordinates of a target object are corrected; 物体検出装置の処理の流れを示すフローチャートである。4 is a flow chart showing the flow of processing of the object detection device;

以下、本発明の実施の形態について図面を用いて説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings.

図1を参照し、本実施形態の物体検出装置の構成例について説明する。本実施形態の物体検出装置は、同一地域を仰俯角の異なる複数のカメラで撮影した画像のそれぞれから求めた位置座標を統合し、検出物体の位置情報を出力する装置である。具体的には、物体検出装置は、上空から撮影した航空写真または衛星写真から対象物体を検出して位置座標を求めるとともに、車載カメラで撮影した画像から対象物体を検出して位置座標を求めて、各画像から求めた位置座標を統合する。このとき、同一物体を判定して、同一物体の位置座標をまとめる。なお、以下では航空写真と車載カメラで撮影した画像とを用いた例で説明するが、これに限るものではない。建造物の高層階から撮影した俯瞰方向の画像を用いてもよい。仰俯角の異なる複数のカメラで撮影した画像のそれぞれから位置座標を求めて統合できればよい。 A configuration example of the object detection device according to the present embodiment will be described with reference to FIG. The object detection apparatus of this embodiment is an apparatus that integrates position coordinates obtained from images of the same area captured by a plurality of cameras with different elevation/depression angles and outputs position information of a detected object. Specifically, an object detection device detects a target object from an aerial photograph or a satellite photograph taken from the sky and obtains the position coordinates, and also detects the target object from an image taken by an in-vehicle camera and obtains the position coordinates. , integrate the position coordinates obtained from each image. At this time, the same object is determined and the position coordinates of the same object are put together. Note that although an example using an aerial photograph and an image captured by an in-vehicle camera will be described below, the present invention is not limited to this. A bird's-eye view image captured from a high floor of a building may be used. It suffices if position coordinates can be obtained from each of the images captured by a plurality of cameras with different elevation/depression angles and integrated.

図1の物体検出装置は、位置検出部10A,10B、マッチング部20、および位置補正部30を備える。物体検出装置が備える各部は、演算処理装置、記憶装置等を備えたコンピュータにより構成して、各部の処理がプログラムによって実行されるものとしてもよい。このプログラムは物体検出装置が備える記憶装置に記憶されており、磁気ディスク、光ディスク、半導体メモリ等の記録媒体に記録することも、ネットワークを通して提供することも可能である。 The object detection device in FIG. 1 includes position detection units 10A and 10B, a matching unit 20, and a position correction unit 30. FIG. Each unit included in the object detection device may be configured by a computer including an arithmetic processing unit, a storage device, and the like, and the processing of each unit may be executed by a program. This program is stored in a storage device included in the object detection device, and can be recorded on a recording medium such as a magnetic disk, optical disk, or semiconductor memory, or can be provided through a network.

位置検出部10A,10Bは、画像および地域情報を入力する入力部11A,11Bと画像から対象物体を検出して対象物体の位置を求める検出部12A,12Bを備える。 The position detection units 10A and 10B are provided with input units 11A and 11B for inputting images and area information, and detection units 12A and 12B for detecting target objects from images and obtaining the positions of the target objects.

入力部11A,11Bのそれぞれは、画像蓄積部51A,51Bのそれぞれから、仰俯角の異なる複数のカメラで撮影した画像を入力する。例えば、入力部11Aは、画像蓄積部51Aから、図2に示す航空写真または衛星写真のような、垂直方向から撮影した画像を入力し、入力部11Bは、画像蓄積部51Bから、図3に示す車載カメラで撮影した写真のような、水平方向から撮影した画像を入力する。画像は、動画像からフレームごとに切り出した静止画を用いてもよい。入力部11A,11Bは、画像の撮影場所、撮影方向、および撮影時間などの撮影情報も画像とともに入力する。入力部11A,11Bは、フィルタ処理などの前処理を行ってもよい。 The input units 11A and 11B input images captured by a plurality of cameras having different elevation/depression angles from the image storage units 51A and 51B, respectively. For example, the input unit 11A receives from the image storage unit 51A an image taken from a vertical direction, such as the aerial photograph or satellite photograph shown in FIG. Input an image taken from the horizontal direction, such as a photo taken with an in-vehicle camera shown. The image may be a still image clipped frame by frame from a moving image. The input units 11A and 11B also input shooting information such as the shooting location, shooting direction, and shooting time of the image together with the image. The input units 11A and 11B may perform preprocessing such as filtering.

また、入力部11A,11Bは、地域情報蓄積部52から、画像が撮影された地域の地域情報を入力し、対象物体の探索対象領域または探索対象外領域を設定する。地域情報とは、点・線・多角形により図形を表す幾何情報および土地利用や地質などの質的または標高などの量的な属性情報である。 Also, the input units 11A and 11B input the area information of the area where the image was captured from the area information accumulation unit 52, and set the search target area or non-search target area of the target object. Regional information is geometric information representing figures by points, lines, and polygons, and qualitative information such as land use and geology, or quantitative attribute information such as elevation.

図4を参照し、地域情報から探索対象領域を設定する概要を説明する。図4の例では、道路地図、地形図、および植生分布図を入力して、探索対象領域を設定した。道路地図は、道路を線分で示した地図である。地形図は、数値標高モデル(DEM)であり、地表面を正方形に区切って標高値を持たせたデータである。植生分布図は、自然林であるか否かの植生分布を示した図である。例えば、対象物体を信号とすると、信号は道路沿いのみに存在するので、道路の近傍を探索対象領域とし、起伏が少ない地域を探索対象領域とし、さらに、自然林でない地域を探索対象領域とする。図4の例では、道路地図、地形図、および植生分布図のそれぞれにおいて探索対象領域をグレーで示した。これらの地域情報から特定される探索対象領域を重ね合わせて対象物体を探索する探索対象領域を設定する。地域情報はこれに限るものではなく、例えば、河川や池などの属性情報を入力し、河川や川を探索対象外領域としてもよい。 With reference to FIG. 4, an outline of setting a search target area from area information will be described. In the example of FIG. 4, a road map, a topographic map, and a vegetation distribution map are input to set the search target area. A road map is a map in which roads are indicated by line segments. A topographic map is a digital elevation model (DEM), and is data in which the ground surface is divided into squares and given elevation values. The vegetation distribution map is a diagram showing the distribution of vegetation whether it is a natural forest or not. For example, if the target object is a signal, the signal exists only along the road, so the area near the road is set as the search target area, the area with few ups and downs is set as the search target area, and the area that is not a natural forest is set as the search target area. . In the example of FIG. 4, the search target area is shown in gray in each of the road map, topographic map, and vegetation distribution map. A search target area for searching for a target object is set by superimposing the search target areas specified from the area information. The area information is not limited to this, and for example, attribute information such as rivers and ponds may be input and the rivers and rivers may be set as non-search areas.

入力部11A,11Bは、入力した画像の探索対象外領域をマスク処理してもよいし、探索対象領域または探索対象外領域を検出部12A,12Bへ通知し、検出部12A,12Bが画像内で探索対象外領域に相当する部分を除いて処理してもよい。 The input units 11A and 11B may mask the non-search target area of the input image, or notify the detection unit 12A and 12B of the search target area or non-search target area so that the detection units 12A and 12B can may be processed by excluding the portion corresponding to the non-search target area.

検出部12A,12Bのそれぞれは、画像から対象物体を自動検出して対象物体の位置座標群(1つ以上の位置座標を含む)を求める。検出部12A,12Bは、機械学習により、対象物体の画像を学習して生成した判定モデルを用いて、入力した画像から対象物体を検出し、画像の撮影情報から検出した対象物体の地図上での位置座標を求める。検出部12Aは、上空から広範囲を撮影した画像から対象物体の位置座標群を求め、検出部12Bは、上空から撮影した画像に対応する地域内を車載カメラで撮影した画像群から対象物体の位置座標群を求める。つまり、入力部11A,11Bが入力した画像群ごと(カメラごと)の複数の位置座標群が求められる。 Each of the detection units 12A and 12B automatically detects the target object from the image and obtains the position coordinate group (including one or more position coordinates) of the target object. The detection units 12A and 12B detect the target object from the input image using a judgment model generated by learning the image of the target object by machine learning, and detect the target object detected from the shooting information of the image on the map. Find the position coordinates of The detection unit 12A obtains the position coordinate group of the target object from an image of a wide range photographed from the sky, and the detection unit 12B obtains the position of the target object from the image group of the area corresponding to the image photographed from the sky, which is photographed by an in-vehicle camera. Find the coordinate group. That is, a plurality of position coordinate groups are obtained for each image group (for each camera) input by the input units 11A and 11B.

検出部12A,12Bは、対象物体そのものだけでなく、関連する物体を含めて検出する。つまり、検出部12A,12Bは、対象物体に関連する物体を含めて学習し、検出時は対象物体に関連する物体を含めて対象物体を検出する。例えば、対象物体が電柱の場合、図5に示すように、電柱100の影110や保持する架線120も含めて検出する。これにより、電柱のみでは検出精度が低くなる場合であっても、関連のある物体をまとめて検出することで精度の向上が期待できる。 The detection units 12A and 12B detect not only the target object itself but also related objects. That is, the detection units 12A and 12B learn including objects related to the target object, and detect the target object including objects related to the target object at the time of detection. For example, when the target object is a utility pole, as shown in FIG. 5, the shadow 110 of the utility pole 100 and the overhead wire 120 to be held are also detected. As a result, even if the detection accuracy is low with only utility poles, it can be expected to improve accuracy by collectively detecting related objects.

検出部12A,12Bは、関連する物体を含めて検出した領域内から対象物体を再度検出することで、精度よく対象物体の位置座標を求めることができる。例えば、図5に示す例では、対象物体である電柱100は含まれているが、精度よく電柱100の位置座標を求めるためには電柱100そのものの画像内での位置を特定できるとよい。検出部12A,12Bは、領域内で検出した電柱100の根本部分の位置に基づいて電柱100の位置座標を求める。 The detection units 12A and 12B can obtain the position coordinates of the target object with high accuracy by detecting the target object again from the detected area including the related object. For example, in the example shown in FIG. 5, the utility pole 100, which is the target object, is included, but in order to obtain the position coordinates of the utility pole 100 with high accuracy, it is preferable to specify the position of the utility pole 100 itself within the image. The detection units 12A and 12B obtain the position coordinates of the utility pole 100 based on the position of the root portion of the utility pole 100 detected within the area.

図6(a),(b)に示すように、検出部12A,12Bは、電柱100と影110をまとめて検出し、電柱100と影110の位置に基づいて電柱100の根元部分200Aを位置座標としてもよい。もしくは、電柱100と影110をまとめて検出した検出枠の、影が伸びていない側の角200Bを電柱100の位置座標としてもよい。図6(a)は、電柱100の右側に影110が伸びているので、検出枠の左下の角を電柱100の位置座標とする。図6(b)は、電柱100の左側に影110が伸びているので、検出枠の右下の角を電柱100の位置座標とする。これにより、十分な精度を保ちながら、処理を高速化できる。検出部12A,12Bは、電柱100と影110の位置関係に応じて、検出枠の辺上の点を電柱100の位置座標としてもよいし、検出枠内の中心を電柱100の位置座標としてもよい。 As shown in FIGS. 6A and 6B, the detection units 12A and 12B collectively detect the utility pole 100 and the shadow 110, and locate the base portion 200A of the utility pole 100 based on the positions of the utility pole 100 and the shadow 110. Coordinates may be used. Alternatively, the corner 200B of the detection frame where the utility pole 100 and the shadow 110 are collectively detected, the corner 200B on the side where the shadow does not extend may be used as the position coordinates of the utility pole 100 . In FIG. 6A, since the shadow 110 extends to the right side of the utility pole 100, the position coordinates of the utility pole 100 are set to the lower left corner of the detection frame. In FIG. 6B, since the shadow 110 extends to the left of the utility pole 100, the lower right corner of the detection frame is the position coordinate of the utility pole 100. In FIG. This makes it possible to speed up the processing while maintaining sufficient accuracy. Depending on the positional relationship between the utility pole 100 and the shadow 110, the detection units 12A and 12B may use a point on the side of the detection frame as the position coordinates of the utility pole 100, or the center of the detection frame as the position coordinates of the utility pole 100. good.

検出部12A,12Bは、対象物体と関連する物体を含めて、関連する物体の付き方に応じたクラスに分けて学習してもよい。具体的には、電柱から伸びる影の方向に応じたクラス分けを行う。画像内において電柱から影の伸びる方向は、画像の撮影場所、撮影方向、および撮影時刻によって特定できる。例えば、春や秋の午前10時ごろに北を向いて撮影した画像では、対象物体の影は画像上で左上方向に伸びる。対象物体を検出する画像の撮影場所、撮影方向、および撮影時刻は既知であるので、画像から対象物体を検出する際、画像の条件に合ったクラスの対象物体と関連する物体を含めて検出する。春や秋の午前10時ごろに北を向いて撮影した画像からは、対象物体が左上方向に伸びる影を有するクラスに分類される対象物体を検出する。 The detection units 12A and 12B may learn by classifying objects, including objects related to the target object, into classes according to how the related objects are attached. Specifically, classification is performed according to the direction of the shadow extending from the utility pole. The direction in which the shadow extends from the utility pole in the image can be specified by the imaging location, imaging direction, and imaging time of the image. For example, in an image taken facing north at around 10:00 am in spring or autumn, the shadow of the target object extends toward the upper left on the image. Since the shooting location, shooting direction, and shooting time of the image to detect the target object are known, when detecting the target object from the image, include objects related to the target object of the class that meets the image conditions. . A target object classified into a class having a shadow extending in the upper left direction is detected from an image taken facing north at around 10:00 am in spring or autumn.

検出部12A,12Bは、学習時、不足している学習データを補うため、対象物体に関連する物体を合成したデータを生成してもよい。例えば、電柱の画像に様々な方向に伸びる影を合成したデータを生成して学習に用いる。架線やクロージャなどの電柱に取り付けられた物体を追加したデータを生成してもよい。 During learning, the detection units 12A and 12B may generate data obtained by synthesizing objects related to the target object in order to supplement missing learning data. For example, data obtained by synthesizing shadows extending in various directions with an image of a utility pole is generated and used for learning. You may generate the data which added the object attached to the utility pole, such as an overhead wire and a closure.

検出部12A,12Bは、画像から検出した対象物体のそれぞれについて、地図上にマッピングするための位置座標を求める。垂直方向および水平方向の画像から検出した対象物体の位置座標は、カメラの位置座標、カメラの仰俯角、画像に付随する位置座標(例えば、四隅の位置座標)、および対象物体の画像内での検出座標から推定できる。例えば、水平方向の画像からは、同一の対象物体に対する2枚の画像から三角測量を行って位置座標を推定できる。あるいは、水平方向の動画像から深度マップ(depthmap)を作成して位置座標を推定してもよい。位置座標の推定に必要な情報は、入力部11A,11Bが画像を入力するときに画像とともに入力しておく。なお、位置座標を推定する方法はこれに限るものではない。検出部12A,12Bのそれぞれから対象物体の位置座標群が出力される。これらの位置座標群には、同一物体を示す位置座標が含まれるので、後段のマッチング部20が同一物体を判定する。 The detection units 12A and 12B obtain position coordinates for mapping on the map for each target object detected from the image. The position coordinates of the target object detected from the vertical and horizontal images are the camera position coordinates, the camera elevation/depression angle, the position coordinates attached to the image (for example, the position coordinates of the four corners), and the position coordinates of the target object in the image. It can be estimated from the detected coordinates. For example, from horizontal images, position coordinates can be estimated by triangulation from two images of the same target object. Alternatively, position coordinates may be estimated by creating a depth map from a horizontal moving image. Information necessary for estimating the position coordinates is input together with the image when the input units 11A and 11B input the image. Note that the method of estimating the position coordinates is not limited to this. A position coordinate group of the target object is output from each of the detection units 12A and 12B. Since these position coordinate groups include position coordinates indicating the same object, the subsequent matching unit 20 determines the same object.

なお、図1では、2つの検出部12A,12Bを図示しているが、これに限るものではない。1つの検出部が複数のカメラで撮影した画像のそれぞれを処理して、それぞれの画像について位置座標群を求めてもよい。さらに検出部を追加して3つ以上の異なるカメラ(例えば垂直方向、水平方向、および俯瞰方向のカメラ)で撮影した画像を処理してもよい。この場合、仰俯角の異なる画像群(例えば垂直方向、水平方向、および俯瞰方向の画像群)ごとに位置座標群が求められる。 In addition, although two detection units 12A and 12B are illustrated in FIG. 1, the present invention is not limited to this. A single detection unit may process each of images captured by a plurality of cameras to obtain a group of position coordinates for each image. Additional detectors may be added to process images captured by three or more different cameras (eg, vertical, horizontal, and overhead cameras). In this case, a group of position coordinates is obtained for each group of images with different elevation/depression angles (for example, group of images in the vertical direction, horizontal direction, and bird's-eye view direction).

マッチング部20は、検出部12Aの求めた位置座標群と検出部12Bの求めた位置座標群をマッチングして同一物体を判定し、位置座標群を統合する。 The matching unit 20 matches the position coordinate group obtained by the detection unit 12A and the position coordinate group obtained by the detection unit 12B, determines the same object, and integrates the position coordinate groups.

図7に、検出部12A,12Bのそれぞれが検出した対象物体の位置を示す。図7では、検出部12Aが検出した対象物体の位置を〇で示し、検出部12Bが検出した対象物体の位置を△で示している。仰俯角の異なる複数のカメラで撮影した画像のそれぞれから対象物体を検出し、検出結果を統合することで、対象物体の検出率を向上できる。 FIG. 7 shows the positions of target objects detected by the detection units 12A and 12B. In FIG. 7, the position of the target object detected by the detection unit 12A is indicated by ◯, and the position of the target object detected by the detection unit 12B is indicated by Δ. By detecting a target object from each of images captured by a plurality of cameras with different elevation/depression angles and integrating the detection results, the detection rate of the target object can be improved.

マッチング部20は、位置座標群を統合する際、検出部12A,12Bのそれぞれが出力した同一物体の位置座標を判定する。 When integrating the position coordinate group, the matching unit 20 determines the position coordinates of the same object output by the detection units 12A and 12B.

例えば、第1の手法として、マッチング部20は、以下の式で示すように、検出部12A,12Bそれぞれの検出した対象物体の位置座標のずれが一定距離以下の場合、同一物体の位置座標であると判定する。 For example, as a first method, the matching unit 20 uses the position coordinates of the same object when the deviation of the position coordinates of the target objects detected by the detection units 12A and 12B is less than a certain distance, as shown in the following formula. Determine that there is.

Figure 0007271413000001
Figure 0007271413000001

ここで、xi1,j1,xi2,j2はj1番目、j2番目のカメラで撮影した画像から求めた位置座標である。d(xi1,j1,xi2,j2)は、位置座標xi1,j1,xi2,j2間の誤差である。εは同一物体であるか否かを判定するためのパラメータである。 Here, x i1,j1 and x i2,j2 are the position coordinates obtained from the images taken by the j1-th and j2-th cameras. d(x i1,j1 , x i2,j2 ) is the error between the position coordinates x i1,j1 and x i2,j2 . ε is a parameter for determining whether or not the objects are the same.

第2の手法として、マッチング部20は、以下の式で示すように、検出部12A,12Bそれぞれの検出した位置座標とカメラごと(検出部12A,12Bごとでもよい)に設定されたパラメータとによって定義される領域を算出し、共通する領域が存在する場合、同一物体の位置座標であると判定する。 As a second method, the matching unit 20 uses position coordinates detected by each of the detection units 12A and 12B and parameters set for each camera (or for each detection unit 12A and 12B) as shown in the following formula. Defined areas are calculated, and if there is a common area, it is determined that the coordinates are for the same object.

Figure 0007271413000002
Figure 0007271413000002

ここで、xは推定対象(条件を満たすものが存在するか否かを探索)であり、εj1,εj2はカメラごとに設定されたパラメータである。 Here, x i is an estimation target (a search is made as to whether or not there exists an object that satisfies the conditions), and ε j1 and ε j2 are parameters set for each camera.

図8に示すように、位置座標xi1,j1を中心とした半径εj1の領域と位置座標xi2,j2を中心としたεj2の領域で共通する領域300が存在する場合、位置座標xi1,j1,xi2,j2は同一物体の位置座標であると判定する。 As shown in FIG. 8, when there is an area 300 having a radius ε j1 centered at the position coordinates x i1,j1 and an area ε j2 centered at the position coordinates x i2, j2 , a common area 300 exists. It is determined that i1,j1 and x i2,j2 are the position coordinates of the same object.

共通する領域300が存在しても、その領域300が川の中などの対象物体の存在し得ない場所である場合、マッチング部20は、同一物体として判定しない。具体的には、マッチング部20は、領域300が入力部11A,11Bが地域情報から設定した探索対象領域を含まない場合、もしくは領域300が探索対象外領域に含まれる場合、同一物体として判定しない。これにより、位置座標間の距離だけで判定するときよりも、同一物体を精度よく判定できる。 Even if there is a common area 300, if the area 300 is in a place where the target object cannot exist, such as in a river, the matching unit 20 does not determine it as the same object. Specifically, when the area 300 does not include the search target area set by the input units 11A and 11B based on the area information, or when the area 300 is included in the non-search area, the matching unit 20 does not determine that the object is the same object. . This makes it possible to determine the same object with higher accuracy than when determining only the distance between position coordinates.

第3の手法として、マッチング部20は、検出部12A,12Bそれぞれの検出した位置座標とカメラごと(検出部12A,12Bごとでもよい)に設定された誤差関数を用いてペナルティ値を算出し、算出したペナルティ値に基づいて同一物体であるか否かを判定する。具体的には、次式に示すように、カメラごとに設定した誤差関数cj1,cj2を用いて、検出部12A,12Bの検出した位置座標xi1,j1,xi2,j2から推定対象xiまでの距離に応じたペナルティ値Pj1,Pj2を求める。ペナルティ値Pj1,Pj2を合計して2(=カメラの数)で割った値がパラメータε以下となるような推定対象xiが存在する場合、位置座標xi1,j1,xi2,j2は同一物体の位置座標であると判定する。 As a third method, the matching unit 20 calculates the penalty value using the position coordinates detected by the detection units 12A and 12B and the error function set for each camera (may be for each detection unit 12A and 12B), Whether or not the objects are the same is determined based on the calculated penalty value. Specifically, as shown in the following equation, using the error functions c j1 and c j2 set for each camera, the position coordinates x i1,j1 and x i2,j2 detected by the detection units 12A and 12B are used to estimate the object Penalty values P j1 and P j2 corresponding to the distance to x i are obtained. If there is an estimation target x i such that the value obtained by dividing the sum of the penalty values P j1 and P j2 by 2 (=the number of cameras) is equal to or less than the parameter ε, the position coordinates x i1,j1 , x i2,j2 are the position coordinates of the same object.

Figure 0007271413000003
Figure 0007271413000003

誤差関数cj1,cj2は、例えば、検出部12A,12Bの検出した位置座標xi1,j1,xi2,j2から離れるに従って値が大きくなるような関数である。例えば、検出誤差の小さい検出部12A,12Bについては、検出した位置座標からの距離に応じて急激に値が大きくなるような誤差関数を設定し、検出誤差の大きい検出部12A,12Bについては、検出した位置座標からの距離に応じてなだらかに値が大きくなるような誤差関数を設定する。 The error functions c j1 and c j2 are, for example, functions whose values increase with distance from the position coordinates x i1,j1 and x i2,j2 detected by the detection units 12A and 12B. For example, for the detection units 12A and 12B with small detection errors, an error function is set such that the value increases sharply according to the distance from the detected position coordinates, and for the detection units 12A and 12B with large detection errors, An error function is set such that the value increases gradually according to the distance from the detected position coordinates.

検出部が3つ以上存在する場合も、上記の式を拡張することで対応可能である。 Even when there are three or more detection units, it can be handled by extending the above formula.

第3の手法においても同一物体の判定に地域情報を用いてもよい。 Also in the third method, area information may be used for determination of the same object.

位置補正部30は、検出部12A,12Bのそれぞれで検出された同一物体と判定された位置座標を1つにまとめるとともに、同一物体と判定された位置座標に基づいて位置座標を補正する。 The position correction unit 30 combines the position coordinates determined as the same object detected by the detection units 12A and 12B into one, and corrects the position coordinates based on the position coordinates determined as the same object.

例えば、位置座標がより正確に求められる垂直方向の画像から検出した位置座標を正とし、水平方向の画像から検出した同一物体の位置座標の補正量を求める。そして、水平方向の画像のみから検出できた位置座標を求めた補正量で補正する。図9では、垂直方向の画像から検出した位置座標を〇で示し、水平方向の画像から検出した位置座標を△で示した。位置補正部30は、位置座標(△)を位置座標(〇)に合わせるための補正量を求める。位置補正部30は、水平方向の画像のみから検出される位置座標を求めた補正量で補正する。 For example, the position coordinates detected from the vertical image, for which the position coordinates can be obtained more accurately, are assumed to be positive, and the correction amount of the position coordinates of the same object detected from the horizontal image is obtained. Then, the position coordinates detected only from the image in the horizontal direction are corrected by the obtained correction amount. In FIG. 9, the position coordinates detected from the vertical image are indicated by ◯, and the position coordinates detected from the horizontal image are indicated by Δ. The position correction unit 30 obtains a correction amount for matching the position coordinates (Δ) with the position coordinates (◯). The position correction unit 30 corrects the position coordinates detected only from the image in the horizontal direction with the obtained correction amount.

測量などにより正確な位置座標が判明している対象物体がある場合、垂直方向および水平方向のそれぞれについて、位置座標を正確な位置座標に合わせる補正量を求め、求めた補正量のそれぞれに基づいて垂直方向から求めた位置座標と水平方向から求めた位置座標を補正してもよい。具体的には、位置補正部30は、正確な位置座標が判明している対象物体について、垂直方向から求めた位置座標を正確な位置座標に合わせる補正量を求めて、垂直方向から求めた他の対象物体の位置座標を求めた補正量で補正する。水平方向についても同様に、位置補正部30は、正確な位置座標が判明している対象物体について、水平方向から求めた位置座標を正確な位置座標に合わせる補正量を求めて、水平方向から求めた他の対象物体の位置座標を求めた補正量で補正する。 If there is a target object for which the exact position coordinates are known by surveying, etc., calculate the correction amount to match the position coordinates to the correct position coordinates for each of the vertical and horizontal directions, and The position coordinates obtained in the vertical direction and the position coordinates obtained in the horizontal direction may be corrected. Specifically, the position correction unit 30 obtains a correction amount for adjusting the position coordinates obtained in the vertical direction to the correct position coordinates for the target object whose accurate position coordinates are known, and obtains the correction amount in the vertical direction. The position coordinates of the target object are corrected by the obtained correction amount. Similarly for the horizontal direction, the position correction unit 30 obtains a correction amount for adjusting the position coordinates obtained in the horizontal direction to the correct position coordinates for the target object whose accurate position coordinates are known, and calculates the correction amount in the horizontal direction. Then, the position coordinates of the other target object are corrected by the obtained correction amount.

別の方法として、位置補正部30は、カメラの誤差を考慮した次式で表される目的関数Lを最小化する位置座標の組み合わせを探索することで、位置座標を補正してもよい。 As another method, the position correction unit 30 may correct the position coordinates by searching for a combination of position coordinates that minimizes the objective function L expressed by the following equation that takes camera errors into consideration.

Figure 0007271413000004
Figure 0007271413000004

ここで、xiは、最適化対象であって、i番目の対象物体の位置座標である。xi,jは、j番目のカメラの画像から求めたi番目の対象物体の位置座標である。j番目のカメラの画像からi番目の対象物体を検出していない場合はxi=xi,jとみなす。cjはカメラごとに設定した誤差関数である。マッチング部20の第3の手法で利用する誤差関数と同じでよい。Nは対象物体の合計数である。同一物体の位置座標はまとめて1つと数える。Kはカメラの合計数である。Kiはxiを検出したカメラの合計数である。 Here, x i is the position coordinate of the i-th object to be optimized. x i,j is the position coordinates of the i-th target object obtained from the j-th camera image. If the i-th target object is not detected from the j-th camera image, it is assumed that x i =x i,j . c j is an error function set for each camera. The same error function as used in the third method of the matching unit 20 may be used. N is the total number of target objects. Position coordinates of the same object are collectively counted as one. K is the total number of cameras. K i is the total number of cameras that detected x i .

図10のフローチャートを参照し、本実施形態の物体検出装置の動作について説明する。 The operation of the object detection device of this embodiment will be described with reference to the flowchart of FIG.

ステップS11にて、位置検出部10Aは、垂直方向から撮影した画像を入力し、対象物体の位置座標を検出し、ステップS12にて、位置検出部10Bは、水平方向から撮影した画像を入力し、対象物体の位置座標を検出する。ステップS11,S12は、並列に行ってもよいし、順番に行ってもよい。 In step S11, the position detection unit 10A receives an image photographed in the vertical direction and detects the position coordinates of the target object. In step S12, the position detection unit 10B receives the image photographed in the horizontal direction. , to detect the position coordinates of the target object. Steps S11 and S12 may be performed in parallel or sequentially.

ステップS13にて、マッチング部20は、垂直方向の画像から検出した位置座標と水平方向の画像から検出した位置座標を統合し、同一物体の位置座標を判定する。 In step S13, the matching unit 20 integrates the position coordinates detected from the vertical image and the position coordinates detected from the horizontal image, and determines the position coordinates of the same object.

ステップS14にて、位置補正部30は、同一物体の位置座標を1つにまとめるとともに、位置座標を補正する位置補正部を備える。 In step S<b>14 , the position correction unit 30 combines the position coordinates of the same object into one and includes a position correction unit that corrects the position coordinates.

以上の処理により、物体検出装置は、対象物体の位置座標群を出力する。例えば、物体検出装置は、地図上に、対象物体を検出した位置座標を示して表示する。 Through the above processing, the object detection device outputs the position coordinate group of the target object. For example, the object detection device indicates and displays the position coordinates of the detected target object on a map.

以上説明したように、本実施形態の物体検出装置は、同一地域を仰俯角の異なる複数のカメラで撮影した画像のそれぞれから対象物体を検出し、複数のカメラごとの複数の位置座標群を求める検出部12A,12Bと、複数の位置座標群を統合し、同一物体の位置座標を判定するマッチング部20を備える。これにより、対象物体の検出率を向上できる。 As described above, the object detection apparatus of this embodiment detects a target object from each of images of the same area captured by a plurality of cameras with different elevation/depression angles, and obtains a plurality of position coordinate groups for each of the plurality of cameras. It comprises detection units 12A and 12B and a matching unit 20 that integrates a plurality of position coordinate groups and determines the position coordinates of the same object. Thereby, the detection rate of the target object can be improved.

本実施形態のマッチング部20は、位置座標群に含まれる位置座標のそれぞれについて、カメラごとに設定されたパラメータεj1,εj2に基づく領域を求め、複数の位置座標群の間で、共通する領域300を持つ位置座標を同一物体の位置座標と判定する。あるいは、本実施形態のマッチング部20は、位置座標群に含まれる位置座標のそれぞれについて、カメラごとに設定された誤差関数cj1,cj2を用いて、位置座標xi1,j1,xi2,j2からの距離に応じたペナルティ値Pj1,Pj2を求め、複数の位置座標群の間で、ペナルティ値Pj1,Pj2の合計がパラメータε以下となる位置座標xiが存在する位置座標を同一物体の位置座標と判定する。これにより、カメラや検出部12A,12Bの特性を考慮した同一物体の位置座標の判定が可能となる。 The matching unit 20 of this embodiment obtains an area based on the parameters ε j1 and ε j2 set for each camera for each of the position coordinates included in the position coordinate group. The position coordinates having the area 300 are determined as the position coordinates of the same object. Alternatively, the matching unit 20 of the present embodiment uses error functions c j1 and c j2 set for each camera to calculate the position coordinates x i1 , j1 , x i2 , x i2 , Penalty values P j1 and P j2 corresponding to the distance from j2 are calculated, and among a plurality of position coordinate groups, there is a position coordinate x i for which the sum of the penalty values P j1 and P j2 is equal to or less than the parameter ε. are the position coordinates of the same object. This makes it possible to determine the position coordinates of the same object in consideration of the characteristics of the cameras and the detection units 12A and 12B.

本実施形態の物体検出装置は、同一物体の位置座標として判定された位置座標のそれぞれについてカメラごとに設定された誤差関数cjに基づいて位置座標からの距離に応じたペナルティ値Pj1,Pj2を求め、ペナルティ値Pj1,Pj2の合計が最小となるように位置座標を補正する位置補正部30を備える。これにより、対象物体の位置座標の精度の向上を図ることができる。 The object detection apparatus of this embodiment uses penalty values P j1 , P A position correction unit 30 is provided for obtaining j2 and correcting the position coordinates so that the sum of the penalty values P j1 and P j2 is minimized. As a result, it is possible to improve the accuracy of the position coordinates of the target object.

10A,10B…位置検出部
11A,11B…入力部
12A,12B…検出部
20…マッチング部
30…位置補正部
DESCRIPTION OF SYMBOLS 10A, 10B... Position detection part 11A, 11B... Input part 12A, 12B... Detection part 20... Matching part 30... Position correction part

Claims (6)

同一地域を垂直方向から撮影する第1のカメラと地上を移動する移動体に搭載した第2のカメラで撮影した画像のそれぞれから対象物体を検出し、前記第1のカメラの画像から第1の位置座標群を求め、前記第2のカメラの画像から第2の位置座標群を求める検出部と、
前記第1の位置座標群と前記第2の位置座標群をマッチングし、同一物体の位置座標を判定するマッチング部と、
前記第2の位置座標群の各位置座標を前記第1の位置座標群の各位置座標へ補正する補正量を求めて、前記第2の位置座標群の各位置座標を前記第1の位置座標群の各位置座標へ補正し、前記第2の位置座標群の位置座標に対応する位置座標が前記第1の位置座標群内に存在しない場合、前記第2の位置座標群の位置座標を前記補正量で補正して対象物体の位置座標とする位置補正部を備える
ことを特徴とする物体検出装置。
A target object is detected from each of images captured by a first camera that captures an image of the same area from a vertical direction and by a second camera mounted on a moving object that moves on the ground, and a first image is captured from the image of the first camera. a detection unit that obtains a group of position coordinates and obtains a second group of position coordinates from the image of the second camera ;
a matching unit that matches the first group of position coordinates and the second group of position coordinates and determines the position coordinates of the same object;
A correction amount for correcting each position coordinate of the second position coordinate group to each position coordinate of the first position coordinate group is obtained, and each position coordinate of the second position coordinate group is corrected to the first position coordinate. When the position coordinates corresponding to the position coordinates of the second position coordinate group do not exist in the first position coordinate group, the position coordinates of the second position coordinate group are corrected to the position coordinates of the second position coordinate group. An object detection device comprising a position correction unit that corrects with a correction amount to obtain position coordinates of a target object .
前記マッチング部は、前記位置座標群に含まれる位置座標のそれぞれについて、前記カメラごとに設定されたパラメータに基づく領域を求め、複数の位置座標群の間で、共通する領域を持つ位置座標を同一物体の位置座標と判定する
ことを特徴とする請求項1に記載の物体検出装置。
The matching unit obtains a region based on parameters set for each camera for each of the position coordinates included in the position coordinate group , and finds position coordinates having a common region among the plurality of position coordinate groups. 2. The object detection device according to claim 1, wherein position coordinates of the same object are determined.
前記マッチング部は、前記位置座標群に含まれる位置座標のそれぞれについて、前記カメラごとに設定された誤差関数に基づいて前記位置座標からの距離に応じたペナルティ値を求め、複数の位置座標群の間で、前記ペナルティ値の合計が閾値以下となる位置座標が存在する位置座標を同一物体の位置座標と判定する
ことを特徴とする請求項1に記載の物体検出装置。
The matching unit obtains a penalty value corresponding to a distance from the position coordinates for each of the position coordinates included in the position coordinate group based on an error function set for each camera , and calculates a plurality of position coordinate groups. 2. The object detection device according to claim 1, wherein the position coordinates at which the sum of the penalty values is equal to or less than a threshold value exists between and is determined as the position coordinates of the same object.
前記マッチング部は、同一物体の位置座標の判定に、前記対象物体を検出する地域の幾何情報や属性情報を利用する
ことを特徴とする請求項1ないし3のいずれかに記載の物体検出装置。
4. The object detection apparatus according to any one of claims 1 to 3, wherein the matching unit uses geometric information and attribute information of an area where the target object is detected to determine the position coordinates of the same object.
前記位置補正部は、同一物体の位置座標として判定された位置座標のそれぞれについて前記カメラごとに設定された誤差関数に基づいて前記位置座標からの距離に応じたペナルティ値を求め、前記ペナルティ値の合計が最小となるように前記同一物体の位置座標を補正する
ことを特徴とする請求項1ないし4のいずれかに記載の物体検出装置。
The position correction unit obtains a penalty value corresponding to a distance from the position coordinates based on an error function set for each camera for each position coordinate determined as the position coordinates of the same object, and determines the penalty value. 5. The object detection device according to any one of claims 1 to 4, wherein the position coordinates of the same object are corrected so that the total is minimized.
コンピュータが実行する物体検出方法であって、
同一地域を垂直方向から撮影する第1のカメラと地上を移動する移動体に搭載した第2のカメラで撮影した画像のそれぞれから対象物体を検出し、前記第1のカメラの画像から第1の位置座標群を求め、前記第2のカメラの画像から第2の位置座標群を求めるステップと、
前記第1の位置座標群と前記第2の位置座標群をマッチングし、同一物体の位置座標を判定するステップと、
前記第2の位置座標群の各位置座標を前記第1の位置座標群の各位置座標へ補正する補正量を求めて、前記第2の位置座標群の各位置座標を前記第1の位置座標群の各位置座標へ補正し、前記第2の位置座標群の位置座標に対応する位置座標が前記第1の位置座標群内に存在しない場合、前記第2の位置座標群の位置座標を前記補正量で補正して対象物体の位置座標とするステップを有する
ことを特徴とする物体検出方法。
A computer implemented object detection method comprising:
A target object is detected from each of images captured by a first camera that captures an image of the same area from a vertical direction and by a second camera mounted on a moving object that moves on the ground, and a first image is captured from the image of the first camera. determining a group of position coordinates, and determining a second group of position coordinates from the image of the second camera ;
a step of matching the first group of position coordinates and the second group of position coordinates to determine the position coordinates of the same object;
A correction amount for correcting each position coordinate of the second position coordinate group to each position coordinate of the first position coordinate group is obtained, and each position coordinate of the second position coordinate group is corrected to the first position coordinate. When the position coordinates corresponding to the position coordinates of the second position coordinate group do not exist in the first position coordinate group, the position coordinates of the second position coordinate group are corrected to the position coordinates of the second position coordinate group. An object detection method comprising the step of correcting with a correction amount to obtain position coordinates of a target object .
JP2019236512A 2019-12-26 2019-12-26 Object detection device and object detection method Active JP7271413B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019236512A JP7271413B2 (en) 2019-12-26 2019-12-26 Object detection device and object detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019236512A JP7271413B2 (en) 2019-12-26 2019-12-26 Object detection device and object detection method

Publications (2)

Publication Number Publication Date
JP2021105821A JP2021105821A (en) 2021-07-26
JP7271413B2 true JP7271413B2 (en) 2023-05-11

Family

ID=76919316

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019236512A Active JP7271413B2 (en) 2019-12-26 2019-12-26 Object detection device and object detection method

Country Status (1)

Country Link
JP (1) JP7271413B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013096745A (en) 2011-10-28 2013-05-20 Hokuriku Kosoku Co Ltd Three-dimensional model creation method
JP2013101428A (en) 2011-11-07 2013-05-23 Pasuko:Kk Building contour extraction device, building contour extraction method, and building contour extraction program
JP2016071830A (en) 2014-09-26 2016-05-09 日本電気株式会社 Object tracking device, object tracking system, object tracking method, display control device, object detection device, program, and recording medium
JP2016143324A (en) 2015-02-04 2016-08-08 株式会社デンソー Object detection device
JP2018092628A (en) 2016-12-02 2018-06-14 經緯航太科技股▲ふん▼有限公司GEOSAT Aerospace & Technology Inc. Method and system for automated object detection from aerial image
JP2019152617A (en) 2018-03-06 2019-09-12 トヨタ自動車株式会社 Object recognition device and vehicle travelling control system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013096745A (en) 2011-10-28 2013-05-20 Hokuriku Kosoku Co Ltd Three-dimensional model creation method
JP2013101428A (en) 2011-11-07 2013-05-23 Pasuko:Kk Building contour extraction device, building contour extraction method, and building contour extraction program
JP2016071830A (en) 2014-09-26 2016-05-09 日本電気株式会社 Object tracking device, object tracking system, object tracking method, display control device, object detection device, program, and recording medium
JP2016143324A (en) 2015-02-04 2016-08-08 株式会社デンソー Object detection device
JP2018092628A (en) 2016-12-02 2018-06-14 經緯航太科技股▲ふん▼有限公司GEOSAT Aerospace & Technology Inc. Method and system for automated object detection from aerial image
JP2019152617A (en) 2018-03-06 2019-09-12 トヨタ自動車株式会社 Object recognition device and vehicle travelling control system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Yicong Tian,Cross-View Image Matching for Geo-Localization in Urban Environments,Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR) 2017,IEEE,2017年,P.3608-3616

Also Published As

Publication number Publication date
JP2021105821A (en) 2021-07-26

Similar Documents

Publication Publication Date Title
CN109949326B (en) Building contour line extraction method based on knapsack type three-dimensional laser point cloud data
US8571265B2 (en) Measurement apparatus, measurement method, and feature identification apparatus
CN113424232A (en) Three-dimensional point cloud map construction method, system and equipment
KR100795396B1 (en) Method for monitoring altered city using airborne laser surveying data and digital orthophoto
WO2018061010A1 (en) Point cloud transforming in large-scale urban modelling
EP3876189A1 (en) Geographic object detection device, geographic object detection method, and geographic object detection program
CN109556569B (en) Topographic map surveying and mapping method and device
JP2010510559A (en) Method and apparatus for detecting an object from ground mobile mapping data
CN107917699B (en) Method for improving aerial three quality of mountain landform oblique photogrammetry
EP3904831A1 (en) Visual localization using a three-dimensional model and image segmentation
JP2016194515A (en) Imaging method of image for point group data generation, and point group data generation method using image
WO2021212477A1 (en) Point cloud data correction method, and related device
US11551411B2 (en) Data processor, data processing method, and data processing program for determining correspondence relationships between laser scanning point clouds
CN114004977A (en) Aerial photography data target positioning method and system based on deep learning
CN110232683A (en) A kind of landslide detection method based on unmanned plane point cloud
CN111915517A (en) Global positioning method for RGB-D camera in indoor illumination adverse environment
US20230394705A1 (en) Location determination in a gps-denied environment with user annotation
CN110044358B (en) Mobile robot positioning method based on field line characteristics
Jiang et al. Determination of construction site elevations using drone technology
RU2612571C1 (en) Method and system for recognizing urban facilities
US20220148216A1 (en) Position coordinate derivation device, position coordinate derivation method, position coordinate derivation program, and system
JP7271413B2 (en) Object detection device and object detection method
JP7236377B2 (en) Object detection device and object detection method
Chuanxiang et al. Automatic detection of aerial survey ground control points based on Yolov5-OBB
JP2005056186A (en) Traffic condition observation system

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20200121

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230420

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230426

R150 Certificate of patent or registration of utility model

Ref document number: 7271413

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150