JP2017146907A - Target detector, processing method, and program - Google Patents
Target detector, processing method, and program Download PDFInfo
- Publication number
- JP2017146907A JP2017146907A JP2016029977A JP2016029977A JP2017146907A JP 2017146907 A JP2017146907 A JP 2017146907A JP 2016029977 A JP2016029977 A JP 2016029977A JP 2016029977 A JP2016029977 A JP 2016029977A JP 2017146907 A JP2017146907 A JP 2017146907A
- Authority
- JP
- Japan
- Prior art keywords
- image
- ground
- targets
- target
- overhead
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、目標物検知装置、処理方法、プログラムに関する。 The present invention relates to a target detection device, a processing method, and a program.
地上において異なる位置から遠方の目標物を撮影し、その目標物の座標を特定する技術が存在する。この技術は、一例としては、異なる位置において目標物を撮影した場合の画像に写る位置に基づいて三角測量手法を用いて座標を特定する。関連する技術として特許文献1が開示されている。特許文献1の技術は、解像度の異なる複数の画像に対して被写体検出処理を行い、検出結果の重複度合いを求めるとともに、得られた重複度合いに基づいて多数決判定を行い、最終的な被写体領域を決定する技術である。
There is a technique for photographing a target far from different positions on the ground and specifying the coordinates of the target. In this technique, for example, coordinates are specified using a triangulation method based on a position in an image when a target is photographed at a different position.
ところで目標物の座標をより精度高く特定するために、上空と地上とのそれぞれから目標物を撮影することが考えられる。しかしながら遠方の目標物をそれぞれ異なる位置から撮影し、目標物として複数の物体がその撮影画像に写る場合、異なる位置からの撮影により取得できた画像における複数の物体の対応関係を正確に判定する必要がある。 By the way, in order to specify the coordinates of the target with higher accuracy, it is conceivable to photograph the target from each of the sky and the ground. However, when shooting distant targets from different positions and multiple objects appear in the captured image as targets, it is necessary to accurately determine the correspondence between the multiple objects in the images acquired by shooting from different positions There is.
そこでこの発明は、上述の課題を解決することのできる目標物検知装置、処理方法、プログラムを提供することを目的としている。 Accordingly, an object of the present invention is to provide a target detection apparatus, a processing method, and a program that can solve the above-described problems.
本発明の第1の態様によれば、目標物検知装置は、上空の撮影装置から地上の複数の目標物を撮影した俯瞰画像を取得する俯瞰画像取得部と、地上の撮影装置から複数の目標物を撮影した地上画像を取得する地上画像取得部と、前記俯瞰画像に写る複数の目標物と、前記地上画像に写る複数の目標物との対応関係を判定する判定部と、を備える。 According to the first aspect of the present invention, the target detection device includes an overhead image acquisition unit that acquires a bird's-eye view image obtained by capturing a plurality of ground targets from a sky imaging device, and a plurality of targets from the ground imaging device. A ground image acquisition unit that acquires a ground image obtained by photographing an object, a determination unit that determines a correspondence relationship between a plurality of targets captured in the overhead image and a plurality of targets captured in the ground image.
上述の目標物検知装置は、前記上空の撮影装置の3次元位置と、前記上空の撮影装置が前記俯瞰画像を撮影した際の撮影方向と、前記俯瞰画像に写る前記目標物の画像内位置とに基づいて、前記俯瞰画像に写る複数の目標物の座標を算出する座標算出部と、を備え、前記判定部は、前記俯瞰画像とその俯瞰画像に写る複数の目標物の座標と前記上空の撮影装置の撮影条件とに基づいて、前記地上画像から前記目標物を撮影する場合の仮想地上画像を生成し、前記地上画像と前記仮想地上画像との比較に基づいて、前記仮想地上画像の生成に用いた俯瞰画像に写る複数の目標物と、前記地上画像に写る複数の目標物との対応関係を判定する。 The target detection device described above includes a three-dimensional position of the above-described imaging device, a shooting direction when the above-described imaging device captures the overhead image, and a position in the image of the target that is captured in the overhead image. A coordinate calculation unit that calculates the coordinates of a plurality of targets appearing in the bird's-eye view image, and the determination unit includes coordinates of the bird's-eye view image and a plurality of targets appearing in the bird's-eye view image and the sky Generating a virtual ground image when shooting the target from the ground image based on the shooting conditions of the shooting device, and generating the virtual ground image based on a comparison between the ground image and the virtual ground image The correspondence relationship between the plurality of targets shown in the overhead image used in the above and the plurality of targets shown in the ground image is determined.
また上述の目標物検知装置において、前記判定部は、前記俯瞰画像に写る複数の目標物に対して付与した識別情報と、前記地上画像に写る複数の目標物に対して付与した識別情報との関係を判定する。 Moreover, in the above-described target object detection device, the determination unit includes identification information given to a plurality of targets shown in the overhead image and identification information given to a plurality of targets shown in the ground image. Determine the relationship.
また上述の目標物検知装置において、前記判定部は、異なる地上の撮影装置から取得した第一地上画像と第二地上画像のそれぞれに基づいて、前記俯瞰画像に写る複数の目標物と、前記第一地上画像及び前記第二地上画像に写る複数の目標物との対応関係を判定する。 Further, in the above-described target object detection device, the determination unit includes a plurality of targets that appear in the overhead image based on each of the first ground image and the second ground image acquired from different ground image capturing devices, and the first target image. Correspondences with a plurality of targets shown in the first ground image and the second ground image are determined.
本発明の第2の態様によれば、処理方法は、上空の撮影装置により地上の複数の目標物を撮影した俯瞰画像を取得し、地上の撮影装置から複数の目標物を撮影した地上画像を取得し、前記俯瞰画像に写る複数の目標物と、前記地上画像に写る複数の目標物との対応関係を判定する。 According to the second aspect of the present invention, the processing method acquires a bird's-eye view image obtained by photographing a plurality of targets on the ground using an imaging device in the sky, and obtains a ground image obtained by photographing the plurality of targets from the ground photographing device. Obtaining and determining a correspondence relationship between a plurality of targets shown in the overhead image and a plurality of targets shown in the ground image.
本発明の第3の態様によれば、プログラムは、コンピュータに、上空の撮影装置により地上の複数の目標物を撮影した俯瞰画像を取得する俯瞰画像取得ステップと、地上の撮影装置から複数の目標物を撮影した地上画像を取得する地上画像取得ステップと、前記俯瞰画像に写る複数の目標物と、前記地上画像に写る複数の目標物との対応関係を判定する判定ステップと、からなる処理を実行させる。 According to the third aspect of the present invention, the program acquires, in a computer, an overhead image acquisition step of acquiring a bird's-eye view image obtained by capturing a plurality of targets on the ground with an overhead imaging device, and a plurality of targets from the ground imaging device. A process comprising: a ground image acquisition step for acquiring a ground image obtained by photographing an object; and a determination step for determining a correspondence relationship between a plurality of targets shown in the overhead image and a plurality of targets shown in the ground image. Let it run.
本発明によれば、上空と地上からの撮影により取得できた各画像に出現する複数の物体の対応関係をより正確に判定することができる。 According to the present invention, it is possible to more accurately determine the correspondence between a plurality of objects that appear in each image acquired by shooting from the sky and the ground.
以下、本発明の一実施形態による目標物検知装置を図面を参照して説明する。
図1は同実施形態による目標物検知装置を備えた目標物検知システムの構成を示す図である。
この図で示すように目標物検知システム100は、上空装置1、地上装置21、22、目標物検知装置3を備えている。目標物検知装置3は、上空装置1、地上装置21、地上装置22と無線通信を介して接続されていてよい。上空装置1は上空から目標物41、42を撮影する装置である。地上装置21、22は地上から目標物41、42を撮影する装置である。上空装置1、地上装置21、地上装置22は無線を介して目標物検知装置3へ撮影画像を送信する。撮影画像は動画を構成する複数の画像であってよい。本実施形態において目標物検知装置3は、上空装置1、地上装置21、22とは別の装置として示している。しかしながら目標物検知装置3は上空装置1、地上装置21、22の何れかの装置に内蔵されたものであってよい。また他の装置の内部に上空装置1、地上装置21、22と共に設けられたものであってよい。目標物検知装置3は上空装置1、地上装置21、22の少なくとも一つとは有線ケーブルによって接続されていてもよい。なお、以下、地上装置21、22を総称して説明する場合には地上装置2と呼ぶ。また以下、目標物41、42を総称して説明する場合には目標物4と呼ぶ。本実施形態では目標物4が2つの場合について説明している。しかしながら目標物4の数はこれに限らない。
Hereinafter, a target object detection device according to an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing a configuration of a target detection system including a target detection device according to the embodiment.
As shown in this figure, the target
図2は目標物検知装置3のハードウェア構成を示す図である。
目標物検知装置3は図2で示すように、CPU(Central Processing Unit)301、IF(Interface)302、通信モジュール303、ROM(Read Only Memory)304、RAM(Random Access Memory)305、HDD(Hard Disk Drive)306などの構成を備えたコンピュータである。通信モジュール303は無線通信制御を行うものであってもよいし、有線通信制御を行うものであってもよく、それら2つの機能を有していてもよい。
FIG. 2 is a diagram illustrating a hardware configuration of the target
As shown in FIG. 2, the target
図3は目標物検知装置3の機能ブロック図である。
目標物検知装置3のCPU301はROM304などに記憶しているプログラムを実行することにより、図3で示す各処理部の機能を有するものとなる。
目標物検知装置3は俯瞰画像取得部31の機能を有する。また目標物検知装置3は地上画像取得部32の機能を有する。また目標物検知装置3は座標算出部33の機能を有する。また目標物検知装置3は判定部34の機能を有する。また目標物検知装置3は表示部36の機能を有する。
FIG. 3 is a functional block diagram of the target
The
The target
俯瞰画像取得部31は上空の撮影装置である上空装置1から地上の1つまたは複数の目標物を撮影した俯瞰画像を取得する。
地上画像取得部32は地上の撮影装置である地上装置21,22から1つまたは複数の目標物を撮影した地上画像を取得する。
座標算出部33は上空装置1の3次元位置と、上空装置1が俯瞰画像を撮影した際の撮影方向と、俯瞰画像に写る目標物の画像内位置などの情報に基づいて、俯瞰画像に写る1つまたは複数の目標物の座標を算出する。
判定部34は、俯瞰画像とその俯瞰画像に写る1つまたは複数の目標物4の座標と上空装置1の撮影条件とに基づいて、地上画像から目標物4を撮影する場合の仮想地上画像を生成する。判定部34は、地上画像と仮想地上画像との比較に基づいて、仮想地上画像の生成に用いた俯瞰画像に写る複数の目標物4と、地上画像に写る複数の目標物4との対応関係を判定する。
The bird's-eye view
The ground
The
Based on the overhead image, the coordinates of one or a plurality of targets 4 shown in the overhead image, and the shooting conditions of the
図4は上空装置と地上装置の撮影概況を示す図である。
上空装置1は例えば飛行体に設けられて地上を撮影する装置である。上空装置1は飛行体でなくとも上空から地上を撮影できるものであれば、どのようなものであってもよい。例えば上空装置は飛行体や、バルーンなどの空間浮遊物に設けられた装置であってよい。また上空装置はビルなどの構造物に取り付けられた装置であってもよい。地上装置2は例えば地上から走行する車両などの移動体に設けられ目標物4を撮影する装置であってもよいし、所定の固定位置から目標物4を撮影する装置であってもよい。図4においては上空装置1が撮影した俯瞰画像101と、地上装置2が撮影した地上画像201を示している。上空装置1は撮影により得られた俯瞰画像101を、目標物4を追跡しながら順次目標物検知装置3へ送信する。上空装置1は俯瞰画像101と共に、現在の上空装置1の3次元座標(緯度、経度、高度)などを目標物検知装置3へ送信する。また上空装置1は撮影方向を示す情報を目標物検知装置3へ送信する。撮影方向は3次元空間座標系における所定の方向を基準とした方向ベクトルによって与えられてよい。上空装置1は自装置の傾きをジャイロセンサによって検出して目標物検知装置3へ送信してよい。上空装置1の傾きは鉛直下向き方向を基準とした方向ベクトルによって与えられてよい。上空装置1が目標物検知装置3へ送信する俯瞰画像101以外の情報は上空装置1の撮影条件と呼ぶこととする。上空装置1の撮影条件には、上空装置1の3次元座標、撮影方向、傾きなどを含む。上空装置1の撮影条件には画角などの上空装置1に設けられた撮影装置における設定情報が含まれていてよい。上空装置1による目標物4の追跡は公知の技術を用いてよい。
FIG. 4 is a diagram showing an outline of photographing of the sky device and the ground device.
The
地上装置2は目標物4を追跡しながら地上画像201を順次、目標物検知装置3へ送信する。地上装置2による目標物4の追跡は公知の技術を用いてよい。地上装置2は地上画像201と共に、撮影方向を示す情報を目標物検知装置3へ送信する。地上装置21が目標物検知装置3へ送信した画像は地上画像201−1(第一地上画像)と呼ぶ。地上装置22が目標物検知装置3へ送信した画像は地上画像201−2(第二地上画像)と呼ぶ。各地上装置2における撮影方向は3次元空間座標系における所定の方向を基準とした方向ベクトルによって与えられてよい。地上装置2が目標物検知装置3へ送信する地上画像201以外の情報は地上装置2の撮影条件と呼ぶこととする。地上装置2の撮影条件には、地上装置2の撮影方向、地上装置2の位置する3次元座標などを含む。
The
目標物検知装置3において俯瞰画像取得部31は、俯瞰画像101と上空装置1の撮影条件を取得する。俯瞰画像取得部31はそれらの情報を座標算出部33へ出力する。地上画像取得部32は、地上画像201(201−1、201−2)と地上装置2(地上装置21、22のそれぞれ)の撮影条件を取得する。地上画像取得部32はそれらの情報を判定部34へ出力する。座標算出部33は取得した俯瞰画像101に目標物が出現しているかどうかを判定する。この判定は、目標物検知装置3がパターンマッチングやブロックマッチングなどの公知の技術により行ってよい。または目標物が出現する俯瞰画像101における画像内位置をユーザが目標物検知装置3に入力し、その入力に基づいて座標算出部33は目標物が出現していると判定するようにしてもよい。座標算出部33は、得られた画像内位置の目標物の画像内位置と、上空装置1から得た撮影条件に基づいて、3次元空間における目標物41、42の3次元座標(緯度、経度、高度)を算出する。
In the target
図5は目標物の座標算出の概要を示す図である。
座標算出部33は俯瞰画像101と撮影条件と目標物4(41、42)の画像内位置とに基づいて、各目標物4の緯度、経度を算出する。座標算出部33は、撮影条件に含まれる上空装置1の3次元座標、撮影方向、傾き、画角などを用いて、目標物4の緯度、経度を公知の技術により算出する。目標物検知装置3はROMに地形情報を保持している。地形情報は緯度、経度に対応する高度情報を含む。座標算出部33は各目標物4について算出した緯度、経度に基づいて、地形情報から高度情報を読み取ってもよい。座標算出部33は、それら緯度、経度、高度からなる各目標物4の3次元座標を判定部34へ出力する。
FIG. 5 is a diagram showing an outline of target coordinate calculation.
The coordinate
図6は判定部の処理の概要を示す図である。
図7は判定部の処理フローを示す図である。
判定部34は取得した各画像に出現する目標物に識別情報を割り当てる(ステップS701)。つまり判定部34は、俯瞰画像101に出現する目標物にID(識別情報)を割り当てる。目標物41と目標物42の2つが俯瞰画像101に出現している場合、一方にA、他方にBの各IDを割り当てる。判定部34はまた、地上画像201(201−1、201−2)に出現する目標物にIDを割り当てる。判定部34は目標物41と目標物42が地上画像201に出現している場合、一方に001、他方に002を割り当てる。なお判定部34は地上装置21から受信した地上画像201−1に出現する目標物41には001−1、目標物42には002−1を割り当てる。また判定部34地上装置21から受信した地上画像201−2に出現する目標物41には001−2、目標物42には002−2を割り当てる。判定部34は、このように異なる地上画像201にはそれぞれ別々のIDを割り当ててよい。
FIG. 6 is a diagram showing an outline of processing of the determination unit.
FIG. 7 is a diagram illustrating a processing flow of the determination unit.
The
判定部34は俯瞰画像101と上空装置1の3次元座標、撮影方向、傾き、画角などの情報を用いて、俯瞰画像101に基づく3次元データを生成する。この3次元データは上空装置1の3次元座標と、目標物4の3次元座標などに基づいてその相対関係が3次元データ内で表されるデータであってよい。判定部34は、生成した3次元データに設定した地上装置2の3次元座標と、3次元データ内に含まれる目標物4の3次元座標とから、3次元データ内の地上装置2の位置から目標物4を撮影したと仮定した場合の2次元の仮想地上画像102を生成する(ステップS702)。俯瞰画像に基づく3次元データが生成されていれば、その3次元データにおいて地上装置2から目標物4を撮影した場合の仮想地上画像102は座標変換などの公知の3次元処理によって生成することができる。なお3次元データを生成しなくとも、俯瞰画像101と上空装置1の3次元座標、撮影方向、傾き、画角などの情報、目標物4について算出した3次元座標を用いて、座標変換等の公知の技術により仮想地上画像102を生成してもよい。
The
以下、地上画像201−1、201−2に対して同様の処理を行うが、説明の便宜上、地上画像201−1、201−2を総称した地上画像201に対して処理を行うものとして説明を進める。
判定部34は仮想地上画像において目標物4が出現する画像内位置と、地上画像201において目標物4が出現する画像内位置とを比較する。今、仮想地上画像102にはID=AとID=Bの目標物4が出現している。また地上画像201にはID=001とID=002の目標物4が出現している。判定部34は仮想地上画像102におけるID=Aの目標物4の画像内位置と、地上画像201におけるID=001の目標物4の画像内位置との距離を算出する。判定部34は仮想地上画像102におけるID=Aの目標物4の画像内位置と、地上画像201におけるID=002の目標物4の画像内位置との距離を算出する。判定部34は、仮想地上画像102におけるID=Aの目標物4の画像内位置との距離が近いと算出できた目標物4のIDを、地上画像201から特定する。なお仮想地上画像102と地上画像201の画素数と距離の算出に利用する原点はそれら画像間で一致しているものとする。判定部34は上記の距離の算出においては、2つの画像が同じ画像であると仮定してそれぞれの画像に出現する目標物4の距離を算出する(ステップS703)。
Hereinafter, the same processing is performed on the ground images 201-1 and 201-2. Proceed.
The
図6で示す例の処理では判定部34は仮想地上画像102に出現するID=Aの目標物4の画像内位置と、地上画像201に出現するID=002の目標物4の画像内位置とがより近いため、ID=002の目標物4を地上画像201から特定する。判定部34は目標物4の各画像における距離に基づいて各画像における目標物4の対応関係を判定する(ステップS704)。つまり判定部34はID=Aの目標物4と、ID=002の目標物4が対応すると判定する。また同様に判定部34はID=Bの目標物4と、ID=001の目標物4が対応すると判定する。判定部34はAと002の対応関係と、Bと001の対応関係を表示部36に出力する(ステップS705)。なお判定部34はこれらの処理を複数の地上画像201に対して行う。
In the process of the example illustrated in FIG. 6, the
図8は表示処理の処理例を示す図である。
表示部36は俯瞰画像101と地上画像201(201−1、201−2)とを一つずつ、または同時にモニタ等に表示するようにしてよい。表示部36は、俯瞰画像101と地上画像201とに出現する目標物に、IDの文字列を重畳して表示するようにしてよい。表示部36は、俯瞰画像101において俯瞰画像101に出現する目標物4に対して付与したIDの文字列を、俯瞰画像101上の対応する目標物4の近傍に重畳して表示する。一方で表示部36は、地上画像201において地上画像201に出現する目標物4に対して付与したIDの文字列を、その文字列に対応する俯瞰画像101側の文字列に変換して、地上画像201上の対応する目標物4の近傍に重畳して表示する(図8(y))。つまり、地上画像201においてID=001が付与された目標物4には、その近傍にID=Bの文字列を表示する。また地上画像201においてID=002が付与された目標物4には、その近傍にID=Aの文字列を表示する(図8(y))。上述したように表示部36は、複数の地上画像201−1、201−2のそれぞれについて同様に処理を行う。
FIG. 8 is a diagram illustrating a processing example of display processing.
The
以上の処理により判定部34が俯瞰画像101に出現する複数の目標物4と、地上画像201に出現する複数の目標物4の対応関係を判定して、適切な対応関係を算出する。これにより俯瞰画像101と、地上画像201において、適切な目標物の対応関係を判定することができる。
With the above processing, the
上述のステップSxの処理において判定部34は、さらに、仮想地上画像102において出現する目標物4の画像内位置と、地上画像201において出現する目標物4の画像内位置とが近い対応関係を特定した後に、それら画像内位置が所定の距離以内かを判定してもよい。判定部34は、異なる画像において画像内位置の近い各目標物4の対応関係について所定距離以内でない場合には、それらの対応関係は成立しないと判定してもよい。
In the process of step Sx described above, the
上述の目標物検知装置3は内部に、コンピュータシステムを有している。そして、上述した各処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。
The target
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。 The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.
1・・・上空装置
2・・・地上装置
3・・・目標物検知装置
4・・・目標物
31・・・俯瞰画像取得部
32・・・地上画像取得部
33・・・座標算出部
34・・・判定部
36・・・表示部
DESCRIPTION OF
Claims (6)
地上の撮影装置から複数の目標物を撮影した地上画像を取得する地上画像取得部と、
前記俯瞰画像に写る複数の目標物と、前記地上画像に写る複数の目標物との対応関係を判定する判定部と、
を備えることを特徴とする目標物検知装置。 An overhead image acquisition unit that acquires an overhead image obtained by photographing a plurality of targets on the ground from an imaging device in the sky;
A ground image acquisition unit for acquiring a ground image obtained by photographing a plurality of targets from a ground imaging device;
A determination unit for determining a correspondence relationship between a plurality of targets shown in the overhead image and a plurality of targets shown in the ground image;
A target detection apparatus comprising:
前記判定部は、前記俯瞰画像とその俯瞰画像に写る複数の目標物の座標と前記上空の撮影装置の撮影条件とに基づいて、前記地上画像から前記目標物を撮影する場合の仮想地上画像を生成し、前記地上画像と前記仮想地上画像との比較に基づいて、前記仮想地上画像の生成に用いた俯瞰画像に写る複数の目標物と、前記地上画像に写る複数の目標物との対応関係を判定する
ことを特徴とする請求項1に記載の目標物検知装置。 Based on the three-dimensional position of the overhead imaging device, the imaging direction when the overhead imaging device images the overhead image, and the position in the image of the target that appears in the overhead image, the overhead image A coordinate calculation unit that calculates the coordinates of a plurality of objects to be captured,
The determination unit, based on the overhead image, the coordinates of a plurality of targets captured in the overhead image, and the shooting conditions of the imaging device in the sky, a virtual ground image when shooting the target from the ground image Based on the comparison between the ground image and the virtual ground image generated, a correspondence relationship between a plurality of targets shown in the overhead image used to generate the virtual ground image and a plurality of targets shown in the ground image The target object detection apparatus according to claim 1, wherein
ことを特徴とする請求項1または請求項2に記載の目標物検知装置。 The determination unit determines a relationship between identification information given to a plurality of targets shown in the overhead image and identification information given to a plurality of targets shown in the ground image. The target object detection apparatus of Claim 1 or Claim 2.
ことを特徴とする請求項2または請求項3に記載の目標物検知装置。 The determination unit includes a plurality of targets captured in the overhead image, the first ground image, and the second ground image based on the first ground image and the second ground image acquired from different ground imaging devices. The target object detection apparatus according to claim 2, wherein a correspondence relationship with a plurality of target objects reflected on the target object is determined.
地上の撮影装置から複数の目標物を撮影した地上画像を取得し、
前記俯瞰画像に写る複数の目標物と、前記地上画像に写る複数の目標物との対応関係を判定する
ことを特徴とする処理方法。 Obtain a bird's-eye view image of a plurality of targets on the ground with the sky's imaging device,
Acquire ground images of multiple targets from a ground imaging device,
A processing method for determining a correspondence relationship between a plurality of targets shown in the overhead image and a plurality of targets shown in the ground image.
上空の撮影装置により地上の複数の目標物を撮影した俯瞰画像を取得する俯瞰画像取得ステップと、
地上の撮影装置から複数の目標物を撮影した地上画像を取得する地上画像取得ステップと、
前記俯瞰画像に写る複数の目標物と、前記地上画像に写る複数の目標物との対応関係を判定する判定ステップと、
からなる処理を実行させるプログラム。 On the computer,
An overhead image acquisition step of acquiring an overhead image obtained by photographing a plurality of targets on the ground with an imaging device in the sky;
A ground image acquisition step of acquiring a ground image obtained by photographing a plurality of targets from a ground imaging device;
A determination step of determining a correspondence relationship between a plurality of targets shown in the overhead image and a plurality of targets shown in the ground image;
A program that executes processing consisting of
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016029977A JP6762108B2 (en) | 2016-02-19 | 2016-02-19 | Target detection device, processing method, program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016029977A JP6762108B2 (en) | 2016-02-19 | 2016-02-19 | Target detection device, processing method, program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017146907A true JP2017146907A (en) | 2017-08-24 |
JP6762108B2 JP6762108B2 (en) | 2020-09-30 |
Family
ID=59682166
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016029977A Active JP6762108B2 (en) | 2016-02-19 | 2016-02-19 | Target detection device, processing method, program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6762108B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110059641A (en) * | 2019-04-23 | 2019-07-26 | 重庆工商大学 | Depth birds recognizer based on more preset points |
WO2022044104A1 (en) * | 2020-08-25 | 2022-03-03 | Nec Corporation | Image matching apparatus, control method, and non-transitory computer-readable storage medium |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09101742A (en) * | 1995-10-05 | 1997-04-15 | Hitachi Ltd | Map update support device |
JP2003337947A (en) * | 2002-05-21 | 2003-11-28 | Iwane Kenkyusho:Kk | Method and device for image display, and storage medium recorded with image display method |
WO2009034709A1 (en) * | 2007-09-11 | 2009-03-19 | Panasonic Corporation | Image processing device and image processing method |
WO2012018497A2 (en) * | 2010-07-25 | 2012-02-09 | Raytheon Company | ENHANCED SITUATIONAL AWARENESS AND TARGETING (eSAT) SYSTEM |
JP2013171455A (en) * | 2012-02-21 | 2013-09-02 | Pasuko:Kk | Map information generating device |
-
2016
- 2016-02-19 JP JP2016029977A patent/JP6762108B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09101742A (en) * | 1995-10-05 | 1997-04-15 | Hitachi Ltd | Map update support device |
JP2003337947A (en) * | 2002-05-21 | 2003-11-28 | Iwane Kenkyusho:Kk | Method and device for image display, and storage medium recorded with image display method |
WO2009034709A1 (en) * | 2007-09-11 | 2009-03-19 | Panasonic Corporation | Image processing device and image processing method |
WO2012018497A2 (en) * | 2010-07-25 | 2012-02-09 | Raytheon Company | ENHANCED SITUATIONAL AWARENESS AND TARGETING (eSAT) SYSTEM |
JP2013171455A (en) * | 2012-02-21 | 2013-09-02 | Pasuko:Kk | Map information generating device |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110059641A (en) * | 2019-04-23 | 2019-07-26 | 重庆工商大学 | Depth birds recognizer based on more preset points |
WO2022044104A1 (en) * | 2020-08-25 | 2022-03-03 | Nec Corporation | Image matching apparatus, control method, and non-transitory computer-readable storage medium |
JP7435907B2 (en) | 2020-08-25 | 2024-02-21 | 日本電気株式会社 | Image matching device, control method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP6762108B2 (en) | 2020-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10636168B2 (en) | Image processing apparatus, method, and program | |
KR102209008B1 (en) | Apparatus for estimating camera pose and method for estimating camera pose | |
JP5660648B2 (en) | Online reference generation and tracking in multi-user augmented reality | |
EP3008695B1 (en) | Robust tracking using point and line features | |
CN105143907B (en) | Alignment system and method | |
EP2915140B1 (en) | Fast initialization for monocular visual slam | |
US9582707B2 (en) | Head pose estimation using RGBD camera | |
WO2017041731A1 (en) | Markerless multi-user multi-object augmented reality on mobile devices | |
JP6658001B2 (en) | Position estimation device, program, position estimation method | |
US9747516B2 (en) | Keypoint detection with trackability measurements | |
KR20150144728A (en) | Apparatus for recognizing location mobile robot using search based correlative matching and method thereof | |
JP5774226B2 (en) | Resolving ambiguity of homography decomposition based on orientation sensor | |
KR101575954B1 (en) | Apparatus for augmented reality using 3d reconstruction and mehhod thereof | |
KR20110084028A (en) | Apparatus and method for measuring distance using image data | |
JP6240706B2 (en) | Line tracking using automatic model initialization with graph matching and cycle detection | |
JP2018195241A (en) | Information processing apparatus, information processing method, and program | |
WO2016208404A1 (en) | Device and method for processing information, and program | |
JP5743935B2 (en) | Object detection apparatus and object detection method | |
JP2017522621A (en) | Method, system, computer program product and apparatus for selecting operation mode of mobile platform | |
JP6410231B2 (en) | Alignment apparatus, alignment method, and computer program for alignment | |
JP6042146B2 (en) | Object detection apparatus and object detection method | |
JP6762108B2 (en) | Target detection device, processing method, program | |
CN113228117B (en) | Authoring apparatus, authoring method, and recording medium having an authoring program recorded thereon | |
US9245343B1 (en) | Real-time image geo-registration processing | |
Toriya et al. | A mobile camera localization method using aerial-view images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20160222 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20181109 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190125 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191223 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200309 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200616 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200812 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200825 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200908 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6762108 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |