JP6042146B2 - Object detection apparatus and object detection method - Google Patents
Object detection apparatus and object detection method Download PDFInfo
- Publication number
- JP6042146B2 JP6042146B2 JP2012204182A JP2012204182A JP6042146B2 JP 6042146 B2 JP6042146 B2 JP 6042146B2 JP 2012204182 A JP2012204182 A JP 2012204182A JP 2012204182 A JP2012204182 A JP 2012204182A JP 6042146 B2 JP6042146 B2 JP 6042146B2
- Authority
- JP
- Japan
- Prior art keywords
- feature point
- object detection
- image data
- region
- electromagnetic wave
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
本発明は、例えば誘導飛翔体の発射装置もしくは誘導飛翔体自身に搭載され、対象物を検出し追跡するために用いられる対象物検出装置および対象物検出方法に係り、特に自身も移動している中、移動する対象物を検出する技術に関する。 The present invention relates to an object detection device and an object detection method that are mounted on, for example, a launcher of a guided flying object or a guided flying object and are used for detecting and tracking an object, and in particular, the object itself is also moving. The present invention relates to a technique for detecting a moving object.
飛来する目標対象物(以下、移動対象物)に向けて地上または空中から発射される誘導飛翔体を誘導する誘導システムにあっては、赤外線カメラ等の撮像機器を利用する方法が知られている。この方法は、撮像機器で移動対象物の方向を撮影し、撮影によって取得された赤外線等による画像データを画像処理することにより輝度領域分布による画像を生成する。そして、画像中の高輝度領域を移動対象物として抽出し、抽出された各領域の輝度最大値、最小値、平均輝度、大きさなどの画像特徴量を演算し、これらの画像特徴量を基に、予め用意される画像パターンに最も近い領域を移動対象物として検出し追跡誘導する。 A method of using an imaging device such as an infrared camera is known for a guidance system that guides a guided flying object launched from the ground or in the air toward a target object (hereinafter referred to as a moving object). . In this method, the direction of a moving object is photographed with an imaging device, and image data based on infrared rays or the like acquired by photographing is image-processed to generate an image based on a luminance region distribution. Then, a high brightness area in the image is extracted as a moving object, and image feature values such as maximum brightness value, minimum value, average brightness, and size of each extracted area are calculated, and based on these image feature values. In addition, the region closest to the image pattern prepared in advance is detected as a moving object and guided for tracking.
しかしながら、実際には、上空から目標検出を試みる場合、地表や雲のような対象物と紛らわしい物体が画像内に入り込んで、移動対象物の背景にその移動対象物と同様な輝度を示す領域が存在することが多々ある。この場合、画像特微量だけでは移動対象物を背景と区別して的確に検出することが困難である。そこで、従来では、このような状態においても的確に移動対象物を検出するために、連続的に得られる各画像データから関連領域を抽出し、各領域の動きを反映する特微量を抽出し、これを基に移動対象物を背景と区別する技術が存在する。 However, in reality, when trying to detect a target from the sky, objects that are confused with objects such as the ground surface and clouds enter the image, and there is an area that shows the same luminance as the moving object in the background of the moving object. It often exists. In this case, it is difficult to accurately detect the moving object by distinguishing it from the background using only the image features. Therefore, conventionally, in order to accurately detect a moving object even in such a state, a related area is extracted from each image data obtained continuously, and a feature amount reflecting the movement of each area is extracted, There is a technique for distinguishing a moving object from a background based on this.
但し、既存の技術の多くは、赤外線画像のうち輝度の高い領域を抽出し、抽出された領域の重心の座標をその領域の位置として定義し、各領域の位置(重心座標)の移動により、移動する対象物として検出するようにしている。 However, many of the existing technologies extract a high luminance area from the infrared image, define the coordinates of the center of gravity of the extracted area as the position of the area, and by moving the position of each area (center of gravity coordinates), It is detected as a moving object.
しかしながら、上記の手法では、コントラストの変化やノイズの影響によって領域の形状が変化するので、重心の座標も容易に変化してしまうことになる。このため、領域が静止している状態でもコントラストの変化やノイズの影響により重心位置が変化し、誤った領域の動きが検出されることがある。このような誤検出は、目標とする移動対象物が近くに存在し、その見かけ上の動きが大きければあまり影響しないが、目標が遠方に存在し見かけ上の動きの大きさが微小であれば深刻な影響を及ぼすことになる。 However, in the above method, since the shape of the region changes due to a change in contrast or the influence of noise, the coordinates of the center of gravity easily change. For this reason, even when the area is stationary, the position of the center of gravity may change due to a change in contrast or the influence of noise, and an erroneous movement of the area may be detected. Such false detection does not affect much if the target moving object is nearby and the apparent movement is large, but if the target is far away and the apparent movement is small. It will have a serious impact.
例えば、特許文献1にある目標検出装置は、ガウス分布形状で作成したテンプレートと赤外線画像データ上の像をマッチングさせることにより、遠方にある見かけ上小さい対象物を検出することを可能としているが、対象物の元々の像が小さいために、同程度の大きさを持った像が同じ画像内に存在した場合に誤識別を起こしてしまう可能性があった。 For example, the target detection device disclosed in Patent Document 1 can detect an apparently small object in the distance by matching a template created with a Gaussian distribution shape with an image on infrared image data. Since the original image of the object is small, there is a possibility of erroneous identification when an image having the same size exists in the same image.
以上のように、既存の対象物検出技術では、コントラストの変化やノイズの影響により重心位置が変化し、誤った領域の動きが検出されることがあり、移動対象物が遠方に存在して見かけ上の像の動きが微小な場合には、同じ画像内に存在する同程度の像を誤検出してしまうおそれがある等、深刻な影響を及ぼすことになる。 As described above, with the existing object detection technology, the position of the center of gravity may change due to contrast changes or noise effects, and movement of the wrong area may be detected. If the movement of the upper image is very small, there is a serious influence such as the possibility that the same image existing in the same image may be erroneously detected.
本実施形態は上記の問題を解決するためになされたもので、取得した画像のコントラストの変化やノイズの影響を受けることなく、その画像からより確実に移動対象物を検出することができ、特に低空を飛行する対象物の検出性能をより高めることのできる対象物検出装置及び対象物検出方法を提供することを目的とする。 This embodiment has been made to solve the above problem, and can detect a moving object more reliably from the image without being affected by a change in contrast or noise of the acquired image. An object of the present invention is to provide an object detection apparatus and an object detection method capable of further improving the detection performance of an object flying in a low sky.
上記の課題を解決するために、本実施形態によれば、画像データ取得手段により移動する電磁波画像データを規定のレートで順次取得し、輝度帯指定手段により前記電磁波画像データの輝度階調に対して一部の輝度帯を指定し、領域抽出手段により前記電磁波画像データに対して前記指定された輝度帯の値を示す領域を抽出し、特徴点抽出手段により前記領域の形状特徴から複数の特徴点を抽出し、特徴点対応付け手段により前記順次取得される複数の電磁波画像データにわたり類似した特徴点を対応付け、3次元算出手段により前記特徴点の対応付け結果から特徴点同士の相対的な3次元位置を算出し、特徴点同士の3次元位置から3次元空間上で最も各特徴点との距離が近くなる面を推定し、その推定された面から対象物検出手段により前記特徴点の3次元位置の集合から距離が最も離れた3次元位置を示す特徴点を対象物として検出する態様とする。 In order to solve the above-described problem, according to the present embodiment, electromagnetic wave image data that is moved by the image data acquisition unit is sequentially acquired at a specified rate, and the luminance band designation unit performs the luminance gradation of the electromagnetic wave image data. A part of the luminance band is designated, a region indicating the value of the designated luminance band is extracted from the electromagnetic wave image data by the region extracting unit, and a plurality of features are extracted from the shape feature of the region by the feature point extracting unit. Points are extracted, similar feature points are associated with the plurality of electromagnetic wave image data sequentially acquired by the feature point association unit, and the feature points are compared with each other from the feature point association result by the three-dimensional calculation unit. calculates the three-dimensional position, to estimate the most distance is close surfaces of the respective feature points in the three-dimensional three-dimensional space from a position between the characteristic point, the object detecting unit from the estimated surface Serial distance from a set of 3-dimensional positions of feature points to the manner of detecting the feature point as an object indicating a farthest 3D position.
以下、図面を参照して本実施形態に係る対象物位置検出装置を説明する。 Hereinafter, the object position detection apparatus according to the present embodiment will be described with reference to the drawings.
(実施形態1)
まず、図1から図10を参照して実施形態1を説明する。
(Embodiment 1)
First, Embodiment 1 will be described with reference to FIGS.
図1は、実施形態1における対象物検出装置の構成及び機能を示すブロック図である。この対象物検出装置は、電磁波画像データを取得する画像データ取得部100と、上記電磁波画像データの輝度階調に対して一部の輝度帯を指定する輝度帯指定部101と、上記電磁波画像データに対して輝度帯指定部101により指定された輝度帯の値を示す領域を抽出する領域抽出部102と、上記電磁波画像データから特徴点を抽出する特徴点抽出部103と、複数の画像データにわたる特徴点を対応付ける対応付け処理部104と、特徴点の対応付け情報から特徴点の3次元位置を算出する3次元算出部105と、上記3次元算出結果から特徴点の位置を識別し距離が最も離れている特徴点を対象物として検出する対象物検出部106とから構成され、電磁波画像データから対象物を検出するものである。
FIG. 1 is a block diagram illustrating a configuration and functions of an object detection device according to the first embodiment. The object detection apparatus includes an image
以下に、本実施形態1の対象物検出装置の各処理部の動作について説明する。 Below, operation | movement of each process part of the target object detection apparatus of this Embodiment 1 is demonstrated.
本実施形態1の対象物検出装置において、まず、画像データ取得部100は、例えば赤外線カメラによって電磁波画像データ300として赤外線画像を取得し、一定のレートで画像データを出力する。この画像データ取得部100には、同じ視野内の画像データから複数の波長帯の画像データを取得する機能が備わるものとする。例えば、2波長帯の赤外線画像データを取得するには、図2に示すような構成が考えられる。
In the object detection apparatus of the first embodiment, first, the image
図2に示す画像データ取得部100は、撮像方向を対象物が存在すると思われる方向に指向させ、その対象物の像をレンズ200で取り込み、レンズ200の後部に配置したダイクロイックミラー201により中波長赤外線センサ202および長波長赤外線センサ203に案内する構成である。ここで、ダイクロイックミラー201は、入射された赤外線画像のうち、長波長赤外線を透過し、中波長赤外線を反射するものとする。その透過方向に長波長赤外線センサ203を配置し、反射方向に中波長赤外線センサ202を配置しておく。これにより、各センサ202,203から同時に2波長の赤外線画像が得られる。尚、両センサ202,203への対象物の像の案内については、多焦点レンズを利用して、各焦点位置に中波長赤外線センサ202、長波長赤外センサ203を配置するようにしてもよい。
The image
輝度帯指定部101は、上記電磁波画像データの輝度階調に対して一部の輝度帯をユーザーが任意に指定可能とする。例えば、電磁波画像データの階調が256階調とした場合、200〜250というように設定できるものとする。これにより、例えば図3(a)に示す各画素位置の輝度レベルに対して、図3(b)に示すように複数の輝度帯(A,B)を設定することができる。N個の輝度帯を設定した場合には、領域抽出部102による抽出結果画像がN枚出力され、そのN枚の出力に対して特徴点抽出部103から対応付け処理部104が順次N回繰り返されることになる。例えば、図3(b)に示すように輝度帯Aおよび輝度帯Bが設定された場合、領域抽出部102からは、図4(a)および(b)に示すような画像データが出力され、それぞれに異なった領域302aおよび302bが得られる。
The luminance
領域抽出部102は、上記輝度帯指定部101によって指定された輝度帯の領域を抽出する。つまり、指定された輝度帯外の値を示す領域の輝度を0に設定する。
The
特徴点抽出部103は、上記領域抽出部102において抽出された領域から特徴的な箇所を特徴点として抽出する。例えば、抽出された領域の重心、もしくは領域内の最大輝度を示す位置を特徴点として抽出する。
The feature
図5は特徴点抽出部103の抽出例として、画像データ300から、抽出領域302の重心301を特徴点として抽出される場合を示している。実際には画像データ300上に複数の特徴点が抽出される。
FIG. 5 shows a case where the
さらに、他の特徴点を抽出する方法としては、図6(a),(b)に示すように画像データ中に局所領域303を設定し、その局所領域内の輝度の分散が大きい箇所を特徴点304として抽出することが考えられる。つまり、輝度が急激に変化する箇所が特徴点として抽出される。
Furthermore, as another method of extracting feature points, as shown in FIGS. 6A and 6B, a
対応付け処理部104は、特徴点抽出部103で抽出された特徴点を複数の画像データ間で対応付ける処理を実行する。基本的な処理としては、図7に示すように、画像データ300a及び300b間の特徴点同士の類似度を算出して比較し合い、最も類似している特徴点同士を対応付ける。つまり、画像データ300aのどの(x,y)座標と画像データ300bのどの(x,y)座標が対応しているか、特徴点の数分の組み合わせが得られることになる。類似度の算出は、特徴点の周りに同サイズの領域305を設定し、その領域の相関を計算すればよい。
The
ここで、対応付けの際に、本対象物検出装置の移動方向を考慮すると、対応付けの精度を向上させると共に、処理量を軽減させることが可能となる。例えば、地表に対してほぼ平行して飛行している場合に、連続的に取得される画像データを観察すると、図8(a),(b)に示すように画像データ300aの特徴点の移動306がある一定方向へ限定されるように見える。その移動方向の近い位置に沿って特徴点が移動することを考慮し、図8(c)に示すように検索範囲307を設定する。これにより、対応付けの候補を絞り込むことができ、より精度を向上させることができる。
Here, when the movement direction of the target object detection apparatus is taken into consideration at the time of association, it is possible to improve the accuracy of association and reduce the processing amount. For example, when the image data acquired continuously is observed when flying substantially parallel to the ground surface, the feature points of the
3次元算出部105は、対応付け処理部104で得られた対応付け情報から特徴点それぞれの3次元位置を算出する。一般に、異なる角度から撮影された画像から、撮影対象の3次元立体構造を再構成する技術は確立しており、この対応付けの情報を得ることができれば、特徴点の3次元位置情報を得ることができる。特許文献2および3は、これら技術に対する公知例である。3次元算出部105においては、これらの技術を利用することで、特徴点同士の相対的な3次元位置関係が算出されることになる。
The three-
上記対応付け処理部104にあっては、対応付けが実施されるとともに、その対応付けにおける類似度も計算される。抽出される特徴点が多い場合、誤った対応付けも含まれる確率が高くなるが、類似度の高い対応付けを取捨選択することで、3次元位置の算出の正確さを向上させることができるとともに、特徴点の取捨選択も可能となる。
In the
前述の輝度帯指定部101において、輝度帯を複数N個指定することで、領域抽出部102、特徴点抽出部103、対応付け処理部104における処理がN回実施されることになる。さらに、画像データ取得部100において、M枚の画像が取得される場合、N×M回実施されることになる。複数回実施することで、抽出される特徴点数及び対応付け情報数が増加することになり、3次元算出部105において再構成される3次元情報の精度を向上させることができる。
By specifying a plurality of N brightness bands in the above-described brightness
次に対象物検出部106は、3次元算出部105により算出された特徴点の3次元位置を基に対象物を検出する。図9に示すように、地表面上に該当する特徴点の集合400と対象物の特徴点401が識別される。ここでは、地表面上の点は、近似してある2次元面上近くに存在する特徴点を地表面上の物体の特徴点とし、その面から距離が大きく離れている特徴点が対象物として検出されることとなる。つまり、3次元空間上で最も各特徴点との距離が最も近くなる平面もしくは曲面を推定し、同面から最も距離が離れた特徴点401を対象物として検出する。
Next, the
また、対象物は移動しており、地表面の特徴点およびその3次元位置が安定的に得られる場合は、地表面の特徴点に対して、対象物の特徴点は時間的に変動する。この3次元位置の時間的な変化量を比べることでも、対象物の特徴点を識別することが可能となる。 In addition, when the object is moving and the feature point on the ground surface and its three-dimensional position can be obtained stably, the feature point of the object fluctuates in time with respect to the feature point on the ground surface. It is also possible to identify the feature points of the object by comparing the temporal change amounts of the three-dimensional positions.
さらに地表が平面と見なせる状況であれば、対応付け処理部104で得られた対応付け情報から求められるホモグラフィ行列を用いて、対象物を検出することが可能である。ホモグラフィ行列は2枚の画像上に撮像される平面の位置関係を示しており、4組の対応付け情報から求めることが可能である。例えば、k=1番目の画像上のある特徴点の斉次座標をx1 = [x1 ,y1 ,1] Tとし、それに対応するk=2番目の画像における特徴点の斉次座標をx2 = [x2 ,y2 ,1] Tとしたとき、式(1)を成立させる行列Hをホモグラフィ行列とする。
s・x2 = Hx1 …(1)
ここでsはスケーリングファクターとする。
Further, if the ground surface can be regarded as a plane, the object can be detected using a homography matrix obtained from the association information obtained by the
s · x 2 = Hx 1 (1)
Here, s is a scaling factor.
基本的に4組の対応付け情報があれば求めることができるが、それ以上の対応付け情報がある場合は、一般的に知られているRANSAC法を利用することにより、誤対応除去しながら、最も確からしいホモグラフィ行列Hを求めることができる。 Basically, it can be obtained if there are four sets of correspondence information, but if there is more correspondence information, by using the generally known RANSAC method, The most probable homography matrix H can be obtained.
ホモグラフィ行列Hが求まった後、特徴点の座標値を式(1)に代入し、変換後の距離Dが最も大きい対応付けを示す特徴点を対象物として検出するものとする。
D=||s・x2 −Hx1 || …(2)
同一面上にある点については、D=0が成立するため、地表面上に載らない対象物はDが最大となると考えられる。
After the homography matrix H is obtained, the coordinate value of the feature point is substituted into the equation (1), and the feature point indicating the correspondence having the largest distance D after the conversion is detected as the object.
D = || s · x 2 −Hx 1 || (2)
Since D = 0 holds for points on the same plane, it is considered that D is the maximum for an object that is not placed on the ground surface.
ここで、地表上の特徴点は静止物であるが、対象物は動くことを想定しているため、対象物に該当する3次元位置情報は検出するための情報であって、実際の3次元位置を示しているものではないことに注意する必要がある。この逸脱する3次元位置情報を持つ特徴点を2次元画像データ上で追跡することとなる。 Here, since the feature point on the ground surface is a stationary object, but the object is assumed to move, the three-dimensional position information corresponding to the object is information for detection and is an actual three-dimensional It should be noted that the position is not shown. The feature point having the deviating three-dimensional position information is tracked on the two-dimensional image data.
図10に本実施形態の対象物検出装置における処理のフローチャートを示す。まず、画像データ取得部100で赤外線画像データを取得し(ステップS1)、輝度帯指定部101により予め設定(ステップS2)される任意の輝度帯により、領域抽出部102で輝度帯毎の領域を抽出し(ステップS3)、特徴点抽出部103にて各領域から特徴点を抽出する(ステップS4)。続いて、対応付け処理部104にて複数の画像データ間の特徴点を対応付け(ステップS5)、3次元算出部105にて特徴点の対応付け結果から特徴点それぞれの3次元位置を算出し(ステップS6)、対象物検出部106にて特徴点の3次元位置を分別し、対象物を検出して(ステップS7)、一連の処理を終了する。
FIG. 10 shows a flowchart of processing in the object detection apparatus of this embodiment. First, infrared image data is acquired by the image data acquisition unit 100 (step S1), and the region for each luminance band is determined by the
ここで、画像データ取得部100において取得される画像がM枚であり、輝度指定部101において指定される輝度帯N個である場合、処理S3〜処理S5がM×N回実行されることになる。
Here, when the number of images acquired by the image
以上説明したように本実施形態1では、画像上の特徴点の対応付けから、特徴点の相対的な3次元位置関係が算出され、地表面上の特徴点の集合から最も距離の離れた特徴点が対象物として検出されるため、対象物をより高精度に検出することができる。また、複数の波長帯の電磁波画像と複数の輝度帯の設定に従って特徴点を抽出するようにしているので、地表面を正確に把握することができる。この結果、対象物の背景に、2次元的に対象物の像と似通った像が写りこんでいても、3次元位置情報で検出されるため、誤検出を防ぐことができ、検出性能を高めた対象物検出装置を提供することが可能である。 As described above, in the first embodiment, the relative three-dimensional positional relationship between feature points is calculated from the feature point association on the image, and the feature farthest from the set of feature points on the ground surface is calculated. Since the point is detected as an object, the object can be detected with higher accuracy. In addition, since the feature points are extracted according to the electromagnetic wave images of a plurality of wavelength bands and the settings of the plurality of luminance bands, the ground surface can be accurately grasped. As a result, even if an image similar to the image of the object is reflected two-dimensionally in the background of the object, it is detected by the three-dimensional position information, so that erroneous detection can be prevented and detection performance is improved. It is possible to provide an object detection device.
(実施形態2)
図11を用いて実施形態2に係る対象物検出装置を説明する。
(Embodiment 2)
The object detection apparatus according to the second embodiment will be described with reference to FIG.
図11は、実施形態2における対象物検出装置の構成とその機能を示している。本実施形態2では、実施形態1における対象物検出装置の構成において、高度情報取得部107と、姿勢情報取得部108が加えられる。
FIG. 11 shows the configuration and function of an object detection apparatus according to the second embodiment. In the second embodiment, an altitude
以下に、本実施形態2の対象物検出装置の各処理部の動作について、主に本実施形態1と異なる部分を中心に説明する。 In the following, the operation of each processing unit of the object detection device according to the second embodiment will be described mainly with respect to differences from the first embodiment.
まず、実施形態1と同様に、画像データ取得部100で画像データが取得されるが、それと同時に高度情報取得部107により本対象物検出装置が存在する高度が取得され、姿勢情報取得部108により画像データ取得部100が指向している方向・姿勢情報が取得される。例えば、高度情報取得部107はGPSから位置情報を取得するものや、圧力計による気圧の変化により高度を測定するものが考えられる。また、姿勢情報取得部108に関しては、ジャイロセンサなどが考えられる。
First, as in the first embodiment, the image
これらの高度および姿勢情報が対象物検出部106に入力されれば、対象物検出装置自体の指向方向が分かるため、地表面の方向を検知することができる。例えば、対象物検出装置は、飛行中に回転し姿勢が変化する可能性があり、地表面の方向が分からず、特徴点も少ない場合、地表面上の特徴点の集合を特定することができない可能性がある。しかしながら、地表方向が分かれば、地表面上の特徴点に該当する、面上に近い特徴点の集合を特定しやすくなり、対象物検出部106における誤検出を防ぐことができる。
If these altitude and posture information are input to the
以上のように、本実施形態2の対象物検出装置によれば、3次元情報を基に対象物を検出する際に、自身の位置および姿勢を把握することができ、さらに地表面の特徴点と対象物との識別性能が向上し、より確実に誤検出を防ぐことができる。 As described above, according to the target object detection device of the second embodiment, when detecting a target object based on three-dimensional information, it is possible to grasp its own position and posture, and further, feature points of the ground surface And the identification performance of the object can be improved, and erroneous detection can be prevented more reliably.
尚、この発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.
100…画像データ取得部、101…輝度帯指定部、102…領域抽出部、103…特徴点抽出部、104…対応付け処理部、105…3次元算出部、106…対象物検出部、107…高度情報取得部、108…姿勢情報取得部。
DESCRIPTION OF
Claims (11)
前記電磁波画像データの輝度階調に対して一部の輝度帯を指定する輝度帯指定手段と、
前記電磁波画像データに対して前記輝度帯指定手段により指定された輝度帯の値を示す領域を抽出する領域抽出手段と、
前記領域の形状特徴から複数の特徴点を抽出する特徴点抽出手段と、
前記順次取得される複数の電磁波画像データにわたり類似した特徴点を対応付ける特徴点対応付け手段と、
前記特徴点の対応付け結果から特徴点同士の相対的な3次元位置を算出する3次元算出手段と、
前記特徴点同士の3次元位置から3次元空間上で最も各特徴点との距離が近くなる面を推定し、その推定された面から距離が最も離れた3次元位置を示す特徴点を対象物として検出する対象物検出手段と、
を具備することを特徴とする対象物検出装置。 Image data acquisition means for sequentially acquiring moving electromagnetic wave image data at a prescribed rate;
A luminance band specifying means for specifying a part of the luminance band for the luminance gradation of the electromagnetic wave image data;
A region extracting unit for extracting a region indicating a value of a luminance band designated by the luminance band designating unit with respect to the electromagnetic wave image data;
Feature point extracting means for extracting a plurality of feature points from the shape feature of the region;
Feature point associating means for associating similar feature points across the plurality of electromagnetic wave image data acquired sequentially;
Three-dimensional calculation means for calculating a relative three-dimensional position between feature points from the result of the feature point association;
A surface closest to each feature point in the three-dimensional space is estimated from the three-dimensional position between the feature points, and the feature point indicating the three-dimensional position farthest from the estimated surface is the target. Object detection means for detecting as,
An object detection apparatus comprising:
前記3次元算出手段は、前記類似度の高い対応付けを利用し3次元位置を算出する機能を有することを特徴とする請求項1記載の対象物検出装置。 The feature point association means has a function of holding the similarity between feature points in each association,
The object detection apparatus according to claim 1, wherein the three-dimensional calculation unit has a function of calculating a three-dimensional position using the association with the high similarity.
前記電磁波画像データの輝度階調に対して一部の輝度帯を指定し、
前記電磁波画像データに対して前記指定された輝度帯の値を示す領域を抽出し、
前記領域の形状特徴から複数の特徴点を抽出し、
前記順次取得される複数の電磁波画像データにわたり類似した特徴点を対応付け、
前記特徴点の対応付け結果から特徴点同士の相対的な3次元位置を算出し、
前記特徴点同士の3次元位置から3次元空間上で最も各特徴点との距離が近くなる面を推定し、その推定された面から距離が最も離れた3次元位置を示す特徴点を対象物として検出することを特徴とする対象物検出方法。 Acquire moving electromagnetic wave image data sequentially at a specified rate,
Specify a part of the luminance band for the luminance gradation of the electromagnetic wave image data,
Extracting a region indicating the value of the designated luminance band for the electromagnetic wave image data,
Extracting a plurality of feature points from the shape features of the region;
Corresponding similar feature points across the plurality of sequentially acquired electromagnetic wave image data,
Calculating a relative three-dimensional position between the feature points from the result of matching the feature points;
A surface closest to each feature point in the three-dimensional space is estimated from the three-dimensional position between the feature points, and the feature point indicating the three-dimensional position farthest from the estimated surface is the target. The object detection method characterized by detecting as follows.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012204182A JP6042146B2 (en) | 2012-09-18 | 2012-09-18 | Object detection apparatus and object detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012204182A JP6042146B2 (en) | 2012-09-18 | 2012-09-18 | Object detection apparatus and object detection method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014059710A JP2014059710A (en) | 2014-04-03 |
JP6042146B2 true JP6042146B2 (en) | 2016-12-14 |
Family
ID=50616137
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012204182A Active JP6042146B2 (en) | 2012-09-18 | 2012-09-18 | Object detection apparatus and object detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6042146B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016218849A (en) * | 2015-05-22 | 2016-12-22 | 日本電信電話株式会社 | Planar conversion parameter estimation device, method and program |
JP6515039B2 (en) * | 2016-01-08 | 2019-05-15 | Kddi株式会社 | Program, apparatus and method for calculating a normal vector of a planar object to be reflected in a continuous captured image |
KR101920465B1 (en) * | 2017-03-17 | 2018-11-20 | 주식회사 엑사스코프 | System and method for object identification in outdoor environment |
JP7057762B2 (en) * | 2019-02-06 | 2022-04-20 | Kddi株式会社 | Height estimation device and program |
CN111508002B (en) * | 2020-04-20 | 2020-12-25 | 北京理工大学 | Small-sized low-flying target visual detection tracking system and method thereof |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04199475A (en) * | 1990-11-29 | 1992-07-20 | Mitsubishi Electric Corp | Topographical map preparation method and device by picture stereoscopic processing |
JPH10142309A (en) * | 1996-11-06 | 1998-05-29 | Mitsubishi Electric Corp | Image target-detecting apparatus |
JPH11294996A (en) * | 1998-04-15 | 1999-10-29 | Mitsubishi Electric Corp | Guide system |
JP3807338B2 (en) * | 2002-04-09 | 2006-08-09 | 三菱電機株式会社 | Image processing device |
JP4071650B2 (en) * | 2003-02-27 | 2008-04-02 | 株式会社東芝 | Image target detection method and apparatus, and image target detection program |
JP5367244B2 (en) * | 2007-09-13 | 2013-12-11 | 株式会社東芝 | Target detection apparatus and target detection method |
JP4702569B2 (en) * | 2008-09-30 | 2011-06-15 | マツダ株式会社 | Image processing apparatus for vehicle |
JP2010181919A (en) * | 2009-02-03 | 2010-08-19 | Toyohashi Univ Of Technology | Three-dimensional shape specifying device, three-dimensional shape specifying method, three-dimensional shape specifying program |
JP5149918B2 (en) * | 2010-01-27 | 2013-02-20 | 本田技研工業株式会社 | Vehicle periphery monitoring device |
JP5743935B2 (en) * | 2012-03-19 | 2015-07-01 | 株式会社東芝 | Object detection apparatus and object detection method |
-
2012
- 2012-09-18 JP JP2012204182A patent/JP6042146B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014059710A (en) | 2014-04-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110411441B (en) | System and method for multi-modal mapping and localization | |
JP6125188B2 (en) | Video processing method and apparatus | |
CN107111598B (en) | Optical flow imaging system and method using ultrasound depth sensing | |
JP6042146B2 (en) | Object detection apparatus and object detection method | |
JP6731097B2 (en) | Human behavior analysis method, human behavior analysis device, device and computer-readable storage medium | |
JP6782903B2 (en) | Self-motion estimation system, control method and program of self-motion estimation system | |
JP2013101045A (en) | Recognition device and recognition method of three-dimensional position posture of article | |
JP5672112B2 (en) | Stereo image calibration method, stereo image calibration apparatus, and computer program for stereo image calibration | |
JP2011174879A (en) | Apparatus and method of estimating position and orientation | |
JP2011123071A (en) | Image capturing device, method for searching occlusion area, and program | |
KR101608889B1 (en) | Monitoring system and method for queue | |
Ellmauthaler et al. | A novel iterative calibration approach for thermal infrared cameras | |
JP6460700B2 (en) | Method for diagnosing whether there is a defect on the inner wall of the tunnel and a program for diagnosing the presence of a defect on the inner wall of the tunnel | |
KR100930626B1 (en) | Object Posture Recognition Method of Robot with Stereo Camera | |
JP5743935B2 (en) | Object detection apparatus and object detection method | |
JP6410231B2 (en) | Alignment apparatus, alignment method, and computer program for alignment | |
JP2016099759A (en) | Face detection method, face detection device, and face detection program | |
JPWO2017038659A1 (en) | Motion detection device and three-dimensional shape measurement device using the same | |
US20190313082A1 (en) | Apparatus and method for measuring position of stereo camera | |
KR20150142475A (en) | Apparatus for obstacle detection and method thereof | |
JP6585668B2 (en) | Object detection device | |
JP4935769B2 (en) | Plane region estimation apparatus and program | |
CN104937608B (en) | Road area detection | |
KR20160024419A (en) | System and Method for identifying stereo-scopic camera in Depth-Image-Based Rendering | |
JP2015045919A (en) | Image recognition method and robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD07 | Notification of extinguishment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7427 Effective date: 20140415 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150415 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160329 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160530 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161011 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161109 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6042146 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |