JP6042146B2 - Object detection apparatus and object detection method - Google Patents

Object detection apparatus and object detection method Download PDF

Info

Publication number
JP6042146B2
JP6042146B2 JP2012204182A JP2012204182A JP6042146B2 JP 6042146 B2 JP6042146 B2 JP 6042146B2 JP 2012204182 A JP2012204182 A JP 2012204182A JP 2012204182 A JP2012204182 A JP 2012204182A JP 6042146 B2 JP6042146 B2 JP 6042146B2
Authority
JP
Japan
Prior art keywords
feature point
object detection
image data
region
electromagnetic wave
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012204182A
Other languages
Japanese (ja)
Other versions
JP2014059710A (en
Inventor
美徳 佐藤
美徳 佐藤
徹郎 相川
徹郎 相川
裕治 河口
裕治 河口
小柳 隆裕
隆裕 小柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2012204182A priority Critical patent/JP6042146B2/en
Publication of JP2014059710A publication Critical patent/JP2014059710A/en
Application granted granted Critical
Publication of JP6042146B2 publication Critical patent/JP6042146B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、例えば誘導飛翔体の発射装置もしくは誘導飛翔体自身に搭載され、対象物を検出し追跡するために用いられる対象物検出装置および対象物検出方法に係り、特に自身も移動している中、移動する対象物を検出する技術に関する。   The present invention relates to an object detection device and an object detection method that are mounted on, for example, a launcher of a guided flying object or a guided flying object and are used for detecting and tracking an object, and in particular, the object itself is also moving. The present invention relates to a technique for detecting a moving object.

飛来する目標対象物(以下、移動対象物)に向けて地上または空中から発射される誘導飛翔体を誘導する誘導システムにあっては、赤外線カメラ等の撮像機器を利用する方法が知られている。この方法は、撮像機器で移動対象物の方向を撮影し、撮影によって取得された赤外線等による画像データを画像処理することにより輝度領域分布による画像を生成する。そして、画像中の高輝度領域を移動対象物として抽出し、抽出された各領域の輝度最大値、最小値、平均輝度、大きさなどの画像特徴量を演算し、これらの画像特徴量を基に、予め用意される画像パターンに最も近い領域を移動対象物として検出し追跡誘導する。   A method of using an imaging device such as an infrared camera is known for a guidance system that guides a guided flying object launched from the ground or in the air toward a target object (hereinafter referred to as a moving object). . In this method, the direction of a moving object is photographed with an imaging device, and image data based on infrared rays or the like acquired by photographing is image-processed to generate an image based on a luminance region distribution. Then, a high brightness area in the image is extracted as a moving object, and image feature values such as maximum brightness value, minimum value, average brightness, and size of each extracted area are calculated, and based on these image feature values. In addition, the region closest to the image pattern prepared in advance is detected as a moving object and guided for tracking.

しかしながら、実際には、上空から目標検出を試みる場合、地表や雲のような対象物と紛らわしい物体が画像内に入り込んで、移動対象物の背景にその移動対象物と同様な輝度を示す領域が存在することが多々ある。この場合、画像特微量だけでは移動対象物を背景と区別して的確に検出することが困難である。そこで、従来では、このような状態においても的確に移動対象物を検出するために、連続的に得られる各画像データから関連領域を抽出し、各領域の動きを反映する特微量を抽出し、これを基に移動対象物を背景と区別する技術が存在する。   However, in reality, when trying to detect a target from the sky, objects that are confused with objects such as the ground surface and clouds enter the image, and there is an area that shows the same luminance as the moving object in the background of the moving object. It often exists. In this case, it is difficult to accurately detect the moving object by distinguishing it from the background using only the image features. Therefore, conventionally, in order to accurately detect a moving object even in such a state, a related area is extracted from each image data obtained continuously, and a feature amount reflecting the movement of each area is extracted, There is a technique for distinguishing a moving object from a background based on this.

但し、既存の技術の多くは、赤外線画像のうち輝度の高い領域を抽出し、抽出された領域の重心の座標をその領域の位置として定義し、各領域の位置(重心座標)の移動により、移動する対象物として検出するようにしている。   However, many of the existing technologies extract a high luminance area from the infrared image, define the coordinates of the center of gravity of the extracted area as the position of the area, and by moving the position of each area (center of gravity coordinates), It is detected as a moving object.

しかしながら、上記の手法では、コントラストの変化やノイズの影響によって領域の形状が変化するので、重心の座標も容易に変化してしまうことになる。このため、領域が静止している状態でもコントラストの変化やノイズの影響により重心位置が変化し、誤った領域の動きが検出されることがある。このような誤検出は、目標とする移動対象物が近くに存在し、その見かけ上の動きが大きければあまり影響しないが、目標が遠方に存在し見かけ上の動きの大きさが微小であれば深刻な影響を及ぼすことになる。   However, in the above method, since the shape of the region changes due to a change in contrast or the influence of noise, the coordinates of the center of gravity easily change. For this reason, even when the area is stationary, the position of the center of gravity may change due to a change in contrast or the influence of noise, and an erroneous movement of the area may be detected. Such false detection does not affect much if the target moving object is nearby and the apparent movement is large, but if the target is far away and the apparent movement is small. It will have a serious impact.

例えば、特許文献1にある目標検出装置は、ガウス分布形状で作成したテンプレートと赤外線画像データ上の像をマッチングさせることにより、遠方にある見かけ上小さい対象物を検出することを可能としているが、対象物の元々の像が小さいために、同程度の大きさを持った像が同じ画像内に存在した場合に誤識別を起こしてしまう可能性があった。   For example, the target detection device disclosed in Patent Document 1 can detect an apparently small object in the distance by matching a template created with a Gaussian distribution shape with an image on infrared image data. Since the original image of the object is small, there is a possibility of erroneous identification when an image having the same size exists in the same image.

特開2009−69019号公報JP 2009-69019 A 特開2007−171077号公報JP 2007-171077 A 特許4152698号公報Japanese Patent No. 4152698

以上のように、既存の対象物検出技術では、コントラストの変化やノイズの影響により重心位置が変化し、誤った領域の動きが検出されることがあり、移動対象物が遠方に存在して見かけ上の像の動きが微小な場合には、同じ画像内に存在する同程度の像を誤検出してしまうおそれがある等、深刻な影響を及ぼすことになる。   As described above, with the existing object detection technology, the position of the center of gravity may change due to contrast changes or noise effects, and movement of the wrong area may be detected. If the movement of the upper image is very small, there is a serious influence such as the possibility that the same image existing in the same image may be erroneously detected.

本実施形態は上記の問題を解決するためになされたもので、取得した画像のコントラストの変化やノイズの影響を受けることなく、その画像からより確実に移動対象物を検出することができ、特に低空を飛行する対象物の検出性能をより高めることのできる対象物検出装置及び対象物検出方法を提供することを目的とする。   This embodiment has been made to solve the above problem, and can detect a moving object more reliably from the image without being affected by a change in contrast or noise of the acquired image. An object of the present invention is to provide an object detection apparatus and an object detection method capable of further improving the detection performance of an object flying in a low sky.

上記の課題を解決するために、本実施形態によれば、画像データ取得手段により移動する電磁波画像データを規定のレートで順次取得し、輝度帯指定手段により前記電磁波画像データの輝度階調に対して一部の輝度帯を指定し、領域抽出手段により前記電磁波画像データに対して前記指定された輝度帯の値を示す領域を抽出し、特徴点抽出手段により前記領域の形状特徴から複数の特徴点を抽出し、特徴点対応付け手段により前記順次取得される複数の電磁波画像データにわたり類似した特徴点を対応付け、3次元算出手段により前記特徴点の対応付け結果から特徴点同士の相対的な3次元位置を算出し、特徴点同士の3次元位置から3次元空間上で最も各特徴点との距離が近くなる面を推定し、その推定された面から対象物検出手段により前記特徴点の3次元位置の集合から距離が最も離れた3次元位置を示す特徴点を対象物として検出する態様とする。 In order to solve the above-described problem, according to the present embodiment, electromagnetic wave image data that is moved by the image data acquisition unit is sequentially acquired at a specified rate, and the luminance band designation unit performs the luminance gradation of the electromagnetic wave image data. A part of the luminance band is designated, a region indicating the value of the designated luminance band is extracted from the electromagnetic wave image data by the region extracting unit, and a plurality of features are extracted from the shape feature of the region by the feature point extracting unit. Points are extracted, similar feature points are associated with the plurality of electromagnetic wave image data sequentially acquired by the feature point association unit, and the feature points are compared with each other from the feature point association result by the three-dimensional calculation unit. calculates the three-dimensional position, to estimate the most distance is close surfaces of the respective feature points in the three-dimensional three-dimensional space from a position between the characteristic point, the object detecting unit from the estimated surface Serial distance from a set of 3-dimensional positions of feature points to the manner of detecting the feature point as an object indicating a farthest 3D position.

実施形態1に係る対象物検出装置の構成及び機能を示すブロック図。FIG. 2 is a block diagram illustrating a configuration and functions of the object detection device according to the first embodiment. 実施形態1に係る対象物検出装置の画像データ取得部の動作例を説明するための図。FIG. 5 is a diagram for explaining an operation example of an image data acquisition unit of the object detection device according to the first embodiment. 実施形態1に係る対象物検出装置の輝度帯指定部の輝度帯指定例を説明するためのブロック図。The block diagram for demonstrating the luminance zone designation | designated example of the luminance zone designation | designated part of the target object detection apparatus which concerns on Embodiment 1. FIG. 実施形態1に係る対象物検出装置の領域抽出部の動作例を説明するための図。The figure for demonstrating the operation example of the area | region extraction part of the target object detection apparatus which concerns on Embodiment 1. FIG. 実施形態1に係る対象物検出装置の特徴点抽出部の動作例を説明するための図。The figure for demonstrating the operation example of the feature point extraction part of the target object detection apparatus which concerns on Embodiment 1. FIG. 実施形態1に係る対象物検出装置の特徴点抽出部の他の動作例を説明するための図。The figure for demonstrating the other operation example of the feature point extraction part of the target object detection apparatus which concerns on Embodiment 1. FIG. 実施形態1に係る対象物検出装置の対応付け処理部の動作例を説明するための図。The figure for demonstrating the operation example of the matching process part of the target object detection apparatus which concerns on Embodiment 1. FIG. 実施形態1に係る対象物検出装置の対応付け処理部の他の動作例を説明するための図。The figure for demonstrating the other operation example of the matching process part of the target object detection apparatus which concerns on Embodiment 1. FIG. 実施形態1に係る対象物検出装置の対象物検出部の動作例を説明するための図。The figure for demonstrating the operation example of the target object detection part of the target object detection apparatus which concerns on Embodiment 1. FIG. 実施形態1に係る対象物検出装置の処理の流れを示すフローチャート。5 is a flowchart showing a process flow of the object detection apparatus according to the first embodiment. 実施形態2に係る対象物検出装置の構成及び機能を示すブロック図。FIG. 5 is a block diagram illustrating a configuration and functions of an object detection device according to a second embodiment.

以下、図面を参照して本実施形態に係る対象物位置検出装置を説明する。   Hereinafter, the object position detection apparatus according to the present embodiment will be described with reference to the drawings.

(実施形態1)
まず、図1から図10を参照して実施形態1を説明する。
(Embodiment 1)
First, Embodiment 1 will be described with reference to FIGS.

図1は、実施形態1における対象物検出装置の構成及び機能を示すブロック図である。この対象物検出装置は、電磁波画像データを取得する画像データ取得部100と、上記電磁波画像データの輝度階調に対して一部の輝度帯を指定する輝度帯指定部101と、上記電磁波画像データに対して輝度帯指定部101により指定された輝度帯の値を示す領域を抽出する領域抽出部102と、上記電磁波画像データから特徴点を抽出する特徴点抽出部103と、複数の画像データにわたる特徴点を対応付ける対応付け処理部104と、特徴点の対応付け情報から特徴点の3次元位置を算出する3次元算出部105と、上記3次元算出結果から特徴点の位置を識別し距離が最も離れている特徴点を対象物として検出する対象物検出部106とから構成され、電磁波画像データから対象物を検出するものである。   FIG. 1 is a block diagram illustrating a configuration and functions of an object detection device according to the first embodiment. The object detection apparatus includes an image data acquisition unit 100 that acquires electromagnetic wave image data, a luminance band specification unit 101 that specifies a partial luminance band for the luminance gradation of the electromagnetic wave image data, and the electromagnetic wave image data. A region extracting unit 102 for extracting a region indicating the value of the luminance band designated by the luminance band designating unit 101, a feature point extracting unit 103 for extracting feature points from the electromagnetic wave image data, and a plurality of image data. A correspondence processing unit 104 that associates feature points, a three-dimensional calculation unit 105 that calculates a three-dimensional position of the feature points from the feature point correspondence information, and a feature point position is identified from the three-dimensional calculation result, and the distance is the longest. It is comprised from the target object detection part 106 which detects the feature point which has left | separated as a target object, and detects a target object from electromagnetic wave image data.

以下に、本実施形態1の対象物検出装置の各処理部の動作について説明する。   Below, operation | movement of each process part of the target object detection apparatus of this Embodiment 1 is demonstrated.

本実施形態1の対象物検出装置において、まず、画像データ取得部100は、例えば赤外線カメラによって電磁波画像データ300として赤外線画像を取得し、一定のレートで画像データを出力する。この画像データ取得部100には、同じ視野内の画像データから複数の波長帯の画像データを取得する機能が備わるものとする。例えば、2波長帯の赤外線画像データを取得するには、図2に示すような構成が考えられる。   In the object detection apparatus of the first embodiment, first, the image data acquisition unit 100 acquires an infrared image as the electromagnetic wave image data 300 using, for example, an infrared camera, and outputs image data at a constant rate. The image data acquisition unit 100 has a function of acquiring image data of a plurality of wavelength bands from image data within the same visual field. For example, a configuration as shown in FIG. 2 is conceivable for acquiring infrared image data of two wavelength bands.

図2に示す画像データ取得部100は、撮像方向を対象物が存在すると思われる方向に指向させ、その対象物の像をレンズ200で取り込み、レンズ200の後部に配置したダイクロイックミラー201により中波長赤外線センサ202および長波長赤外線センサ203に案内する構成である。ここで、ダイクロイックミラー201は、入射された赤外線画像のうち、長波長赤外線を透過し、中波長赤外線を反射するものとする。その透過方向に長波長赤外線センサ203を配置し、反射方向に中波長赤外線センサ202を配置しておく。これにより、各センサ202,203から同時に2波長の赤外線画像が得られる。尚、両センサ202,203への対象物の像の案内については、多焦点レンズを利用して、各焦点位置に中波長赤外線センサ202、長波長赤外センサ203を配置するようにしてもよい。   The image data acquisition unit 100 illustrated in FIG. 2 directs the imaging direction in a direction in which the object is supposed to exist, captures an image of the object with the lens 200, and uses the dichroic mirror 201 disposed at the rear part of the lens 200 to obtain a medium wavelength. The configuration guides the infrared sensor 202 and the long wavelength infrared sensor 203. Here, it is assumed that the dichroic mirror 201 transmits long-wavelength infrared light and reflects medium-wavelength infrared light in the incident infrared image. A long wavelength infrared sensor 203 is disposed in the transmission direction, and a medium wavelength infrared sensor 202 is disposed in the reflection direction. Thereby, infrared images of two wavelengths are obtained simultaneously from the sensors 202 and 203. For guidance of the image of the object to both sensors 202 and 203, a medium-wavelength infrared sensor 202 and a long-wavelength infrared sensor 203 may be arranged at each focal position using a multifocal lens. .

輝度帯指定部101は、上記電磁波画像データの輝度階調に対して一部の輝度帯をユーザーが任意に指定可能とする。例えば、電磁波画像データの階調が256階調とした場合、200〜250というように設定できるものとする。これにより、例えば図3(a)に示す各画素位置の輝度レベルに対して、図3(b)に示すように複数の輝度帯(A,B)を設定することができる。N個の輝度帯を設定した場合には、領域抽出部102による抽出結果画像がN枚出力され、そのN枚の出力に対して特徴点抽出部103から対応付け処理部104が順次N回繰り返されることになる。例えば、図3(b)に示すように輝度帯Aおよび輝度帯Bが設定された場合、領域抽出部102からは、図4(a)および(b)に示すような画像データが出力され、それぞれに異なった領域302aおよび302bが得られる。   The luminance band designation unit 101 allows the user to arbitrarily designate a part of the luminance band with respect to the luminance gradation of the electromagnetic wave image data. For example, when the gradation of the electromagnetic wave image data is 256 gradations, it can be set to 200 to 250. Thereby, for example, a plurality of luminance bands (A, B) can be set as shown in FIG. 3B for the luminance level at each pixel position shown in FIG. When N luminance bands are set, N extraction result images from the region extraction unit 102 are output. The feature point extraction unit 103 to the association processing unit 104 sequentially repeat N times for the N outputs. Will be. For example, when the luminance band A and the luminance band B are set as shown in FIG. 3B, image data as shown in FIGS. 4A and 4B is output from the region extraction unit 102, Different regions 302a and 302b are obtained respectively.

領域抽出部102は、上記輝度帯指定部101によって指定された輝度帯の領域を抽出する。つまり、指定された輝度帯外の値を示す領域の輝度を0に設定する。   The area extraction unit 102 extracts the area of the luminance band designated by the luminance band designation unit 101. That is, the brightness of the area indicating a value outside the designated brightness band is set to 0.

特徴点抽出部103は、上記領域抽出部102において抽出された領域から特徴的な箇所を特徴点として抽出する。例えば、抽出された領域の重心、もしくは領域内の最大輝度を示す位置を特徴点として抽出する。   The feature point extraction unit 103 extracts a characteristic part from the region extracted by the region extraction unit 102 as a feature point. For example, the center of gravity of the extracted region or the position indicating the maximum luminance in the region is extracted as the feature point.

図5は特徴点抽出部103の抽出例として、画像データ300から、抽出領域302の重心301を特徴点として抽出される場合を示している。実際には画像データ300上に複数の特徴点が抽出される。   FIG. 5 shows a case where the centroid 301 of the extraction region 302 is extracted as a feature point from the image data 300 as an extraction example of the feature point extraction unit 103. Actually, a plurality of feature points are extracted on the image data 300.

さらに、他の特徴点を抽出する方法としては、図6(a),(b)に示すように画像データ中に局所領域303を設定し、その局所領域内の輝度の分散が大きい箇所を特徴点304として抽出することが考えられる。つまり、輝度が急激に変化する箇所が特徴点として抽出される。   Furthermore, as another method of extracting feature points, as shown in FIGS. 6A and 6B, a local region 303 is set in the image data, and a feature having a large luminance dispersion in the local region is characterized. It can be considered to extract the point 304. That is, a part where the luminance changes rapidly is extracted as a feature point.

対応付け処理部104は、特徴点抽出部103で抽出された特徴点を複数の画像データ間で対応付ける処理を実行する。基本的な処理としては、図7に示すように、画像データ300a及び300b間の特徴点同士の類似度を算出して比較し合い、最も類似している特徴点同士を対応付ける。つまり、画像データ300aのどの(x,y)座標と画像データ300bのどの(x,y)座標が対応しているか、特徴点の数分の組み合わせが得られることになる。類似度の算出は、特徴点の周りに同サイズの領域305を設定し、その領域の相関を計算すればよい。   The association processing unit 104 executes processing for associating the feature points extracted by the feature point extraction unit 103 among a plurality of image data. As basic processing, as shown in FIG. 7, the similarity between the feature points between the image data 300a and 300b is calculated and compared, and the most similar feature points are associated with each other. That is, combinations of the number of feature points corresponding to which (x, y) coordinates of the image data 300a correspond to which (x, y) coordinates of the image data 300b are obtained. The similarity may be calculated by setting a region 305 of the same size around the feature point and calculating the correlation of the region.

ここで、対応付けの際に、本対象物検出装置の移動方向を考慮すると、対応付けの精度を向上させると共に、処理量を軽減させることが可能となる。例えば、地表に対してほぼ平行して飛行している場合に、連続的に取得される画像データを観察すると、図8(a),(b)に示すように画像データ300aの特徴点の移動306がある一定方向へ限定されるように見える。その移動方向の近い位置に沿って特徴点が移動することを考慮し、図8(c)に示すように検索範囲307を設定する。これにより、対応付けの候補を絞り込むことができ、より精度を向上させることができる。   Here, when the movement direction of the target object detection apparatus is taken into consideration at the time of association, it is possible to improve the accuracy of association and reduce the processing amount. For example, when the image data acquired continuously is observed when flying substantially parallel to the ground surface, the feature points of the image data 300a are moved as shown in FIGS. 8 (a) and 8 (b). It appears that 306 is limited to a certain direction. The search range 307 is set as shown in FIG. 8C in consideration of the movement of the feature point along a position close to the moving direction. Thereby, the candidates for association can be narrowed down, and the accuracy can be further improved.

3次元算出部105は、対応付け処理部104で得られた対応付け情報から特徴点それぞれの3次元位置を算出する。一般に、異なる角度から撮影された画像から、撮影対象の3次元立体構造を再構成する技術は確立しており、この対応付けの情報を得ることができれば、特徴点の3次元位置情報を得ることができる。特許文献2および3は、これら技術に対する公知例である。3次元算出部105においては、これらの技術を利用することで、特徴点同士の相対的な3次元位置関係が算出されることになる。   The three-dimensional calculation unit 105 calculates the three-dimensional position of each feature point from the association information obtained by the association processing unit 104. In general, a technique for reconstructing a three-dimensional structure to be photographed from images photographed from different angles has been established, and if information on this correspondence can be obtained, three-dimensional position information of feature points can be obtained. Can do. Patent documents 2 and 3 are publicly known examples of these techniques. By using these techniques, the three-dimensional calculation unit 105 calculates the relative three-dimensional positional relationship between feature points.

上記対応付け処理部104にあっては、対応付けが実施されるとともに、その対応付けにおける類似度も計算される。抽出される特徴点が多い場合、誤った対応付けも含まれる確率が高くなるが、類似度の高い対応付けを取捨選択することで、3次元位置の算出の正確さを向上させることができるとともに、特徴点の取捨選択も可能となる。   In the association processing unit 104, the association is performed and the similarity in the association is also calculated. When there are many feature points to be extracted, there is a high probability that erroneous associations are included, but by selecting associations with high similarity, the accuracy of calculation of the three-dimensional position can be improved. It is also possible to select feature points.

前述の輝度帯指定部101において、輝度帯を複数N個指定することで、領域抽出部102、特徴点抽出部103、対応付け処理部104における処理がN回実施されることになる。さらに、画像データ取得部100において、M枚の画像が取得される場合、N×M回実施されることになる。複数回実施することで、抽出される特徴点数及び対応付け情報数が増加することになり、3次元算出部105において再構成される3次元情報の精度を向上させることができる。   By specifying a plurality of N brightness bands in the above-described brightness band specifying unit 101, the processing in the region extracting unit 102, the feature point extracting unit 103, and the association processing unit 104 is performed N times. Further, when M images are acquired in the image data acquisition unit 100, N × M times are performed. By performing it a plurality of times, the number of extracted feature points and the number of association information increase, and the accuracy of the three-dimensional information reconstructed in the three-dimensional calculation unit 105 can be improved.

次に対象物検出部106は、3次元算出部105により算出された特徴点の3次元位置を基に対象物を検出する。図9に示すように、地表面上に該当する特徴点の集合400と対象物の特徴点401が識別される。ここでは、地表面上の点は、近似してある2次元面上近くに存在する特徴点を地表面上の物体の特徴点とし、その面から距離が大きく離れている特徴点が対象物として検出されることとなる。つまり、3次元空間上で最も各特徴点との距離が最も近くなる平面もしくは曲面を推定し、同面から最も距離が離れた特徴点401を対象物として検出する。   Next, the object detection unit 106 detects the object based on the three-dimensional position of the feature point calculated by the three-dimensional calculation unit 105. As shown in FIG. 9, a set 400 of feature points corresponding to the ground surface and a feature point 401 of the object are identified. Here, a point on the ground surface is a feature point that is close to the approximated two-dimensional surface as a feature point of an object on the ground surface, and a feature point that is far away from the surface is a target object. Will be detected. That is, the plane or curved surface that is closest to each feature point in the three-dimensional space is estimated, and the feature point 401 that is the most distant from the same surface is detected as an object.

また、対象物は移動しており、地表面の特徴点およびその3次元位置が安定的に得られる場合は、地表面の特徴点に対して、対象物の特徴点は時間的に変動する。この3次元位置の時間的な変化量を比べることでも、対象物の特徴点を識別することが可能となる。   In addition, when the object is moving and the feature point on the ground surface and its three-dimensional position can be obtained stably, the feature point of the object fluctuates in time with respect to the feature point on the ground surface. It is also possible to identify the feature points of the object by comparing the temporal change amounts of the three-dimensional positions.

さらに地表が平面と見なせる状況であれば、対応付け処理部104で得られた対応付け情報から求められるホモグラフィ行列を用いて、対象物を検出することが可能である。ホモグラフィ行列は2枚の画像上に撮像される平面の位置関係を示しており、4組の対応付け情報から求めることが可能である。例えば、k=1番目の画像上のある特徴点の斉次座標をx= [x,y,1] Tとし、それに対応するk=2番目の画像における特徴点の斉次座標をx2 = [x2 ,y2 ,1] Tとしたとき、式(1)を成立させる行列Hをホモグラフィ行列とする。
s・x2 = Hx1 …(1)
ここでsはスケーリングファクターとする。
Further, if the ground surface can be regarded as a plane, the object can be detected using a homography matrix obtained from the association information obtained by the association processing unit 104. The homography matrix indicates the positional relationship between planes imaged on two images, and can be obtained from four sets of association information. For example, let k 1 = [x 1 , y 1 , 1] T be the homogeneous coordinates of a certain feature point on the k = 1st image, and the homogeneous coordinates of the feature point in the k = 2nd image corresponding to it. When x 2 = [x 2 , y 2 , 1] T , the matrix H that establishes the formula (1) is a homography matrix.
s · x 2 = Hx 1 (1)
Here, s is a scaling factor.

基本的に4組の対応付け情報があれば求めることができるが、それ以上の対応付け情報がある場合は、一般的に知られているRANSAC法を利用することにより、誤対応除去しながら、最も確からしいホモグラフィ行列Hを求めることができる。   Basically, it can be obtained if there are four sets of correspondence information, but if there is more correspondence information, by using the generally known RANSAC method, The most probable homography matrix H can be obtained.

ホモグラフィ行列Hが求まった後、特徴点の座標値を式(1)に代入し、変換後の距離Dが最も大きい対応付けを示す特徴点を対象物として検出するものとする。
D=||s・x2 −Hx1 || …(2)
同一面上にある点については、D=0が成立するため、地表面上に載らない対象物はDが最大となると考えられる。
After the homography matrix H is obtained, the coordinate value of the feature point is substituted into the equation (1), and the feature point indicating the correspondence having the largest distance D after the conversion is detected as the object.
D = || s · x 2 −Hx 1 || (2)
Since D = 0 holds for points on the same plane, it is considered that D is the maximum for an object that is not placed on the ground surface.

ここで、地表上の特徴点は静止物であるが、対象物は動くことを想定しているため、対象物に該当する3次元位置情報は検出するための情報であって、実際の3次元位置を示しているものではないことに注意する必要がある。この逸脱する3次元位置情報を持つ特徴点を2次元画像データ上で追跡することとなる。   Here, since the feature point on the ground surface is a stationary object, but the object is assumed to move, the three-dimensional position information corresponding to the object is information for detection and is an actual three-dimensional It should be noted that the position is not shown. The feature point having the deviating three-dimensional position information is tracked on the two-dimensional image data.

図10に本実施形態の対象物検出装置における処理のフローチャートを示す。まず、画像データ取得部100で赤外線画像データを取得し(ステップS1)、輝度帯指定部101により予め設定(ステップS2)される任意の輝度帯により、領域抽出部102で輝度帯毎の領域を抽出し(ステップS3)、特徴点抽出部103にて各領域から特徴点を抽出する(ステップS4)。続いて、対応付け処理部104にて複数の画像データ間の特徴点を対応付け(ステップS5)、3次元算出部105にて特徴点の対応付け結果から特徴点それぞれの3次元位置を算出し(ステップS6)、対象物検出部106にて特徴点の3次元位置を分別し、対象物を検出して(ステップS7)、一連の処理を終了する。   FIG. 10 shows a flowchart of processing in the object detection apparatus of this embodiment. First, infrared image data is acquired by the image data acquisition unit 100 (step S1), and the region for each luminance band is determined by the region extraction unit 102 using an arbitrary luminance band preset by the luminance band specifying unit 101 (step S2). The feature points are extracted from each region by the feature point extraction unit 103 (step S4). Subsequently, the association processing unit 104 associates feature points between a plurality of image data (step S5), and the three-dimensional calculation unit 105 calculates the three-dimensional position of each feature point from the feature point association result. (Step S6), the object detection unit 106 classifies the three-dimensional positions of the feature points, detects the object (Step S7), and ends the series of processes.

ここで、画像データ取得部100において取得される画像がM枚であり、輝度指定部101において指定される輝度帯N個である場合、処理S3〜処理S5がM×N回実行されることになる。   Here, when the number of images acquired by the image data acquisition unit 100 is M and the number of luminance bands specified by the luminance specifying unit 101 is N, the processes S3 to S5 are executed M × N times. Become.

以上説明したように本実施形態1では、画像上の特徴点の対応付けから、特徴点の相対的な3次元位置関係が算出され、地表面上の特徴点の集合から最も距離の離れた特徴点が対象物として検出されるため、対象物をより高精度に検出することができる。また、複数の波長帯の電磁波画像と複数の輝度帯の設定に従って特徴点を抽出するようにしているので、地表面を正確に把握することができる。この結果、対象物の背景に、2次元的に対象物の像と似通った像が写りこんでいても、3次元位置情報で検出されるため、誤検出を防ぐことができ、検出性能を高めた対象物検出装置を提供することが可能である。   As described above, in the first embodiment, the relative three-dimensional positional relationship between feature points is calculated from the feature point association on the image, and the feature farthest from the set of feature points on the ground surface is calculated. Since the point is detected as an object, the object can be detected with higher accuracy. In addition, since the feature points are extracted according to the electromagnetic wave images of a plurality of wavelength bands and the settings of the plurality of luminance bands, the ground surface can be accurately grasped. As a result, even if an image similar to the image of the object is reflected two-dimensionally in the background of the object, it is detected by the three-dimensional position information, so that erroneous detection can be prevented and detection performance is improved. It is possible to provide an object detection device.

(実施形態2)
図11を用いて実施形態2に係る対象物検出装置を説明する。
(Embodiment 2)
The object detection apparatus according to the second embodiment will be described with reference to FIG.

図11は、実施形態2における対象物検出装置の構成とその機能を示している。本実施形態2では、実施形態1における対象物検出装置の構成において、高度情報取得部107と、姿勢情報取得部108が加えられる。   FIG. 11 shows the configuration and function of an object detection apparatus according to the second embodiment. In the second embodiment, an altitude information acquisition unit 107 and a posture information acquisition unit 108 are added to the configuration of the object detection device in the first embodiment.

以下に、本実施形態2の対象物検出装置の各処理部の動作について、主に本実施形態1と異なる部分を中心に説明する。   In the following, the operation of each processing unit of the object detection device according to the second embodiment will be described mainly with respect to differences from the first embodiment.

まず、実施形態1と同様に、画像データ取得部100で画像データが取得されるが、それと同時に高度情報取得部107により本対象物検出装置が存在する高度が取得され、姿勢情報取得部108により画像データ取得部100が指向している方向・姿勢情報が取得される。例えば、高度情報取得部107はGPSから位置情報を取得するものや、圧力計による気圧の変化により高度を測定するものが考えられる。また、姿勢情報取得部108に関しては、ジャイロセンサなどが考えられる。   First, as in the first embodiment, the image data acquisition unit 100 acquires image data. At the same time, the altitude information acquisition unit 107 acquires the altitude at which the target object detection device exists, and the posture information acquisition unit 108 The direction / attitude information to which the image data acquisition unit 100 is directed is acquired. For example, the altitude information acquisition unit 107 can acquire position information from GPS, or can measure altitude by a change in atmospheric pressure using a pressure gauge. For the posture information acquisition unit 108, a gyro sensor or the like can be considered.

これらの高度および姿勢情報が対象物検出部106に入力されれば、対象物検出装置自体の指向方向が分かるため、地表面の方向を検知することができる。例えば、対象物検出装置は、飛行中に回転し姿勢が変化する可能性があり、地表面の方向が分からず、特徴点も少ない場合、地表面上の特徴点の集合を特定することができない可能性がある。しかしながら、地表方向が分かれば、地表面上の特徴点に該当する、面上に近い特徴点の集合を特定しやすくなり、対象物検出部106における誤検出を防ぐことができる。   If these altitude and posture information are input to the object detection unit 106, the direction of the object detection apparatus itself can be known, and thus the direction of the ground surface can be detected. For example, the object detection device may rotate during flight and change its posture, and if the direction of the ground surface is unknown and the number of feature points is small, the set of feature points on the ground surface cannot be specified. there is a possibility. However, if the ground surface direction is known, it becomes easier to specify a set of feature points that correspond to feature points on the ground surface and are close to the surface, and erroneous detection in the object detection unit 106 can be prevented.

以上のように、本実施形態2の対象物検出装置によれば、3次元情報を基に対象物を検出する際に、自身の位置および姿勢を把握することができ、さらに地表面の特徴点と対象物との識別性能が向上し、より確実に誤検出を防ぐことができる。   As described above, according to the target object detection device of the second embodiment, when detecting a target object based on three-dimensional information, it is possible to grasp its own position and posture, and further, feature points of the ground surface And the identification performance of the object can be improved, and erroneous detection can be prevented more reliably.

尚、この発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

100…画像データ取得部、101…輝度帯指定部、102…領域抽出部、103…特徴点抽出部、104…対応付け処理部、105…3次元算出部、106…対象物検出部、107…高度情報取得部、108…姿勢情報取得部。   DESCRIPTION OF SYMBOLS 100 ... Image data acquisition part, 101 ... Luminance zone designation part, 102 ... Area extraction part, 103 ... Feature point extraction part, 104 ... Association processing part, 105 ... Three-dimensional calculation part, 106 ... Object detection part, 107 ... Altitude information acquisition unit, 108 ... posture information acquisition unit.

Claims (11)

移動する電磁波画像データを規定のレートで順次取得する画像データ取得手段と、
前記電磁波画像データの輝度階調に対して一部の輝度帯を指定する輝度帯指定手段と、
前記電磁波画像データに対して前記輝度帯指定手段により指定された輝度帯の値を示す領域を抽出する領域抽出手段と、
前記領域の形状特徴から複数の特徴点を抽出する特徴点抽出手段と、
前記順次取得される複数の電磁波画像データにわたり類似した特徴点を対応付ける特徴点対応付け手段と、
前記特徴点の対応付け結果から特徴点同士の相対的な3次元位置を算出する3次元算出手段と、
前記特徴点同士の3次元位置から3次元空間上で最も各特徴点との距離が近くなる面を推定し、その推定された面から距離が最も離れた3次元位置を示す特徴点を対象物として検出する対象物検出手段と、
を具備することを特徴とする対象物検出装置。
Image data acquisition means for sequentially acquiring moving electromagnetic wave image data at a prescribed rate;
A luminance band specifying means for specifying a part of the luminance band for the luminance gradation of the electromagnetic wave image data;
A region extracting unit for extracting a region indicating a value of a luminance band designated by the luminance band designating unit with respect to the electromagnetic wave image data;
Feature point extracting means for extracting a plurality of feature points from the shape feature of the region;
Feature point associating means for associating similar feature points across the plurality of electromagnetic wave image data acquired sequentially;
Three-dimensional calculation means for calculating a relative three-dimensional position between feature points from the result of the feature point association;
A surface closest to each feature point in the three-dimensional space is estimated from the three-dimensional position between the feature points, and the feature point indicating the three-dimensional position farthest from the estimated surface is the target. Object detection means for detecting as,
An object detection apparatus comprising:
前記画像データ取得手段は、複数の波長帯の電磁波データを同じ視野で同時に取得する機能を有することを特徴とする請求項1記載の対象物検出装置。   The object detection apparatus according to claim 1, wherein the image data acquisition unit has a function of simultaneously acquiring electromagnetic wave data of a plurality of wavelength bands in the same field of view. 前記領域抽出手段は、前記領域の抽出対象となる輝度帯を予め複数設定し、各々の輝度帯ごとの領域抽出結果を複数取得することを特徴とする請求項1記載の対象物検出装置。   2. The object detection apparatus according to claim 1, wherein the region extraction unit sets a plurality of luminance bands to be extracted from the region in advance and acquires a plurality of region extraction results for each luminance band. 前記特徴点抽出手段は、前記領域抽出手段にて抽出された領域の重心を特徴点とする機能を有することを特徴とする請求項1記載の対象物検出装置。   The object detection apparatus according to claim 1, wherein the feature point extraction unit has a function of using the center of gravity of the region extracted by the region extraction unit as a feature point. 前記特徴点抽出手段は、前記領域抽出手段にて抽出された領域中のピークを特徴点とする機能を有することを特徴とする請求項1記載の対象物検出装置。   2. The object detection apparatus according to claim 1, wherein the feature point extraction unit has a function of using a peak in the region extracted by the region extraction unit as a feature point. 前記特徴点抽出手段は、任意に設定されるサイズの局所領域中において輝度の分散が大きい局所領域の中心位置を特徴点として検出する機能を有することを特徴とする請求項1記載の対象物検出装置。   2. The object detection according to claim 1, wherein the feature point extraction unit has a function of detecting, as a feature point, a center position of a local area having a large luminance dispersion in a local area having an arbitrarily set size. apparatus. 前記特徴点対応付け手段は、前記電磁波画像データの進行方向に拘束し対応付けることを特徴とする請求項1記載の対象物検出装置。   The object detection apparatus according to claim 1, wherein the feature point association means associates and associates with the traveling direction of the electromagnetic wave image data. 前記特徴点対応付け手段は、それぞれの対応付けに特徴点同士の類似度を保持する機能を有し、
前記3次元算出手段は、前記類似度の高い対応付けを利用し3次元位置を算出する機能を有することを特徴とする請求項1記載の対象物検出装置。
The feature point association means has a function of holding the similarity between feature points in each association,
The object detection apparatus according to claim 1, wherein the three-dimensional calculation unit has a function of calculating a three-dimensional position using the association with the high similarity.
前記対象物検出手段は、前記3次元算出手段で算出された特徴点の3次元位置の履歴を参照して最も移動量のある特徴点を対象物として検出する機能を有することを特徴とする請求項1記載の対象物検出装置。 The object detection unit has a function of detecting a feature point having the most movement amount as an object with reference to a history of the three-dimensional position of the feature point calculated by the three-dimensional calculation unit. Item 1. The object detection apparatus according to Item 1. さらに、高度情報を取得する高度情報取得手段と、姿勢情報を取得する姿勢情報取得手段とを備え、前記対象物検出手段は前記高度情報と前記姿勢情報から地表面の方向を検知し地表面上の特徴点の集合を特定するとともにその集合から最も逸脱する特徴点を対象物として検出する機能を有することを特徴とする請求項1記載の対象物検出装置。   Further, the apparatus includes an altitude information acquisition means for acquiring altitude information and an attitude information acquisition means for acquiring attitude information, wherein the object detection means detects the direction of the ground surface from the altitude information and the attitude information and The object detection apparatus according to claim 1, wherein the object detection apparatus has a function of specifying a set of feature points and detecting a feature point most deviating from the set as an object. 移動する電磁波画像データを規定のレートで順次取得し、
前記電磁波画像データの輝度階調に対して一部の輝度帯を指定し、
前記電磁波画像データに対して前記指定された輝度帯の値を示す領域を抽出し、
前記領域の形状特徴から複数の特徴点を抽出し、
前記順次取得される複数の電磁波画像データにわたり類似した特徴点を対応付け、
前記特徴点の対応付け結果から特徴点同士の相対的な3次元位置を算出し、
前記特徴点同士の3次元位置から3次元空間上で最も各特徴点との距離が近くなる面を推定し、その推定された面から距離が最も離れた3次元位置を示す特徴点を対象物として検出することを特徴とする対象物検出方法。
Acquire moving electromagnetic wave image data sequentially at a specified rate,
Specify a part of the luminance band for the luminance gradation of the electromagnetic wave image data,
Extracting a region indicating the value of the designated luminance band for the electromagnetic wave image data,
Extracting a plurality of feature points from the shape features of the region;
Corresponding similar feature points across the plurality of sequentially acquired electromagnetic wave image data,
Calculating a relative three-dimensional position between the feature points from the result of matching the feature points;
A surface closest to each feature point in the three-dimensional space is estimated from the three-dimensional position between the feature points, and the feature point indicating the three-dimensional position farthest from the estimated surface is the target. The object detection method characterized by detecting as follows.
JP2012204182A 2012-09-18 2012-09-18 Object detection apparatus and object detection method Active JP6042146B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012204182A JP6042146B2 (en) 2012-09-18 2012-09-18 Object detection apparatus and object detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012204182A JP6042146B2 (en) 2012-09-18 2012-09-18 Object detection apparatus and object detection method

Publications (2)

Publication Number Publication Date
JP2014059710A JP2014059710A (en) 2014-04-03
JP6042146B2 true JP6042146B2 (en) 2016-12-14

Family

ID=50616137

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012204182A Active JP6042146B2 (en) 2012-09-18 2012-09-18 Object detection apparatus and object detection method

Country Status (1)

Country Link
JP (1) JP6042146B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016218849A (en) * 2015-05-22 2016-12-22 日本電信電話株式会社 Planar conversion parameter estimation device, method and program
JP6515039B2 (en) * 2016-01-08 2019-05-15 Kddi株式会社 Program, apparatus and method for calculating a normal vector of a planar object to be reflected in a continuous captured image
KR101920465B1 (en) * 2017-03-17 2018-11-20 주식회사 엑사스코프 System and method for object identification in outdoor environment
JP7057762B2 (en) * 2019-02-06 2022-04-20 Kddi株式会社 Height estimation device and program
CN111508002B (en) * 2020-04-20 2020-12-25 北京理工大学 Small-sized low-flying target visual detection tracking system and method thereof

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04199475A (en) * 1990-11-29 1992-07-20 Mitsubishi Electric Corp Topographical map preparation method and device by picture stereoscopic processing
JPH10142309A (en) * 1996-11-06 1998-05-29 Mitsubishi Electric Corp Image target-detecting apparatus
JPH11294996A (en) * 1998-04-15 1999-10-29 Mitsubishi Electric Corp Guide system
JP3807338B2 (en) * 2002-04-09 2006-08-09 三菱電機株式会社 Image processing device
JP4071650B2 (en) * 2003-02-27 2008-04-02 株式会社東芝 Image target detection method and apparatus, and image target detection program
JP5367244B2 (en) * 2007-09-13 2013-12-11 株式会社東芝 Target detection apparatus and target detection method
JP4702569B2 (en) * 2008-09-30 2011-06-15 マツダ株式会社 Image processing apparatus for vehicle
JP2010181919A (en) * 2009-02-03 2010-08-19 Toyohashi Univ Of Technology Three-dimensional shape specifying device, three-dimensional shape specifying method, three-dimensional shape specifying program
JP5149918B2 (en) * 2010-01-27 2013-02-20 本田技研工業株式会社 Vehicle periphery monitoring device
JP5743935B2 (en) * 2012-03-19 2015-07-01 株式会社東芝 Object detection apparatus and object detection method

Also Published As

Publication number Publication date
JP2014059710A (en) 2014-04-03

Similar Documents

Publication Publication Date Title
CN110411441B (en) System and method for multi-modal mapping and localization
JP6125188B2 (en) Video processing method and apparatus
CN107111598B (en) Optical flow imaging system and method using ultrasound depth sensing
JP6042146B2 (en) Object detection apparatus and object detection method
JP6731097B2 (en) Human behavior analysis method, human behavior analysis device, device and computer-readable storage medium
JP6782903B2 (en) Self-motion estimation system, control method and program of self-motion estimation system
JP2013101045A (en) Recognition device and recognition method of three-dimensional position posture of article
JP5672112B2 (en) Stereo image calibration method, stereo image calibration apparatus, and computer program for stereo image calibration
JP2011174879A (en) Apparatus and method of estimating position and orientation
JP2011123071A (en) Image capturing device, method for searching occlusion area, and program
KR101608889B1 (en) Monitoring system and method for queue
Ellmauthaler et al. A novel iterative calibration approach for thermal infrared cameras
JP6460700B2 (en) Method for diagnosing whether there is a defect on the inner wall of the tunnel and a program for diagnosing the presence of a defect on the inner wall of the tunnel
KR100930626B1 (en) Object Posture Recognition Method of Robot with Stereo Camera
JP5743935B2 (en) Object detection apparatus and object detection method
JP6410231B2 (en) Alignment apparatus, alignment method, and computer program for alignment
JP2016099759A (en) Face detection method, face detection device, and face detection program
JPWO2017038659A1 (en) Motion detection device and three-dimensional shape measurement device using the same
US20190313082A1 (en) Apparatus and method for measuring position of stereo camera
KR20150142475A (en) Apparatus for obstacle detection and method thereof
JP6585668B2 (en) Object detection device
JP4935769B2 (en) Plane region estimation apparatus and program
CN104937608B (en) Road area detection
KR20160024419A (en) System and Method for identifying stereo-scopic camera in Depth-Image-Based Rendering
JP2015045919A (en) Image recognition method and robot

Legal Events

Date Code Title Description
RD07 Notification of extinguishment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7427

Effective date: 20140415

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150415

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160329

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161109

R151 Written notification of patent or utility model registration

Ref document number: 6042146

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151