JP2013114381A - Object identification device and object identification method - Google Patents

Object identification device and object identification method Download PDF

Info

Publication number
JP2013114381A
JP2013114381A JP2011258868A JP2011258868A JP2013114381A JP 2013114381 A JP2013114381 A JP 2013114381A JP 2011258868 A JP2011258868 A JP 2011258868A JP 2011258868 A JP2011258868 A JP 2011258868A JP 2013114381 A JP2013114381 A JP 2013114381A
Authority
JP
Japan
Prior art keywords
image data
candidate
luminance
image
candidate area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011258868A
Other languages
Japanese (ja)
Inventor
Yoshinori Sato
美徳 佐藤
Tetsuo Aikawa
徹郎 相川
Takahiro Koyanagi
隆裕 小柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2011258868A priority Critical patent/JP2013114381A/en
Publication of JP2013114381A publication Critical patent/JP2013114381A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To reliably detect and identify a moving object from image data.SOLUTION: Image data obtained by photographing an object is sequentially acquired at a prescribed rate by an image data acquisition unit (100), relative positions of a plurality of pieces of sequentially acquired image data are detected by an inter-pixel position detection unit (102), differences between the plurality of pieces of image data are detected from the relative positions and are extracted as one or a plurality of object candidate regions by a candidate region extraction unit (103), amounts of movement of the candidate regions are detected over the plurality of pieces of image data by a movement amount detection unit (104), and resolutions of the candidate regions are improved on the basis of the amounts of movement by a resolution improving unit (105). Meanwhile, a model pattern of the object is preliminarily stored in a storage unit (107), and the candidate regions having improved resolutions are compared with the stored model pattern to identify the object by an object identification unit (106).

Description

本発明は、例えば誘導飛翔体の発射装置もしくは誘導飛翔体自身に搭載され、対象物を識別し追尾するために用いられる対象物識別装置に係り、特に移動する対象物を識別する技術に関する。   The present invention relates to an object identification device that is mounted on, for example, a launcher of a guided flying object or the guided flying object itself and used to identify and track an object, and more particularly to a technique for identifying a moving object.

飛来する対象物(以下、移動対象物)に向けて地上側から発射される誘導飛翔体を誘導する誘導システムにあっては、赤外線カメラ等の撮像機器を利用する方法が知られている。この方法は、撮像機器で移動対象物の方向を撮影し、撮影によって取得された赤外線等による画像データを画像処理することにより輝度領域分布による画像を生成する。そして、画像中の高輝度領域を移動対象物として抽出し、抽出された各領域の輝度最大値、最小値、平均輝度、大きさなどの画像特徴量を演算し、これらの画像特徴量を基に、予め用意される影像パターンに最も近い領域を移動対象物と識別し追尾誘導する。   A method using an imaging device such as an infrared camera is known for a guidance system that guides a guided flying object launched from the ground side toward a flying object (hereinafter referred to as a moving object). In this method, the direction of a moving object is photographed with an imaging device, and image data based on infrared rays or the like acquired by photographing is image-processed to generate an image based on a luminance region distribution. Then, a high brightness area in the image is extracted as a moving object, and image feature values such as maximum brightness value, minimum value, average brightness, and size of each extracted area are calculated, and based on these image feature values. In addition, the region closest to the image pattern prepared in advance is identified as a moving object and guided for tracking.

ところで、実際には、地表や雲のような対象物と紛らわしい物体が画像内に入り込んで、移動対象物の背景にその移動対象物と同様な輝度を示す領域が存在することが多々ある。この場合、画像特微量だけでは移動対象物を背景と区別して的確に認識することが困難である。そこで、従来では、このような状態においても的確に移動対象物を識別するために、連続的に得られる各画像データから関連領域を抽出し、各領域の動きを反映する特微量を抽出し、これを基に移動対象物を背景と区別する技術が存在する。   Actually, in many cases, objects that are confused with objects such as the surface of the earth or clouds enter the image, and there are many areas that have the same luminance as the moving object in the background of the moving object. In this case, it is difficult to accurately recognize the moving object by distinguishing it from the background using only the image features. Therefore, conventionally, in order to accurately identify a moving object even in such a state, a related area is extracted from each image data obtained continuously, and a feature amount reflecting the movement of each area is extracted, There is a technique for distinguishing a moving object from a background based on this.

但し、既存の技術の多くは、赤外線画像のうち輝度の高い領域を抽出し、抽出された領域の重心の座標をその領域の位置として定義し、各領域の位置(重心座標)の移動により、移動する対象物として検出するようにしている。   However, many of the existing technologies extract a high luminance area from the infrared image, define the coordinates of the center of gravity of the extracted area as the position of the area, and by moving the position of each area (center of gravity coordinates), It is detected as a moving object.

しかしながら、上記の手法では、コントラストの変化やノイズの影響によって領域の形状が変化するので、重心の座標も容易に変化してしまうことになる。このため、領域が静止している状態でもコントラストの変化やノイズの影響により重心位置が変化し、誤った領域の動きが検出されることがある。このような誤検出は、目標とする移動対象物が近くに存在し、その見かけ上の動きが大きければあまり影響しないが、目標が遠方に存在し見かけ上の動きの大きさが微小であれば深刻な影響を及ぼすことになる。   However, in the above method, since the shape of the region changes due to a change in contrast or the influence of noise, the coordinates of the center of gravity easily change. For this reason, even when the area is stationary, the position of the center of gravity may change due to a change in contrast or the influence of noise, and an erroneous movement of the area may be detected. Such false detection does not affect much if the target moving object is nearby and the apparent movement is large, but if the target is far away and the apparent movement is small. It will have a serious impact.

例えば、特許文献1にある目標検出装置は、ガウス分布形状で作成したテンプレートと赤外線画像データ上の像をマッチングさせることで、遠方にある見かけ上小さい対象物を検出することを可能としているが、対象物の元々の像が小さいために同程度の大きさを持った像が同じ画像内に存在する場合、誤識別を起こしてしまう可能性があった。   For example, the target detection device disclosed in Patent Document 1 can detect an apparently small object at a distance by matching a template created with a Gaussian distribution shape with an image on infrared image data. Since the original image of the object is small, an image having the same size exists in the same image, which may cause erroneous identification.

特開2009−69019号公報JP 2009-69019 A

以上のように、既存の対象物識別技術では、コントラストの変化やノイズの影響により重心位置が変化し、誤った領域の動きが検出されることがあり、移動対象物が遠方に存在して見かけ上の像の動きが微小な場合には、同じ画像内に存在する同程度の像を誤識別してしまうおそれがある等、深刻な影響を及ぼすことになる。   As described above, with the existing object identification technology, the position of the center of gravity may change due to the change in contrast or the influence of noise, and the movement of the wrong area may be detected. When the movement of the upper image is very small, there is a serious influence such as the possibility that the same image existing in the same image may be erroneously identified.

本実施形態は上記の問題を解決するためになされたもので、取得した画像のコントラストの変化やノイズの影響を受けることなく、その画像からより確実に移動対象物を検出し識別することのできる対象物識別装置および対象物識別方法を提供することを目的とする。   The present embodiment has been made to solve the above problem, and can detect and identify a moving object more reliably from an image without being affected by a change in contrast or noise of the acquired image. An object is to provide an object identification device and an object identification method.

上記の課題を解決するために、本実施形態によれば、画像データ取得手段にて対象物を撮影した画像データを規定のレートで順次取得し、画素間位置検出手段にて順次取得される複数の画像データ間の相対位置を検出し、候補領域抽出手段にて前記相対位置から前記複数の画像データ間の差分を検出しその差分を前記対象物の候補領域として1つもしくは複数抽出し、移動量検出手段にて前記複数の画像データにわたって前記候補領域の移動量を検出し、解像度向上手段にて前記移動量を基に前記候補領域の解像度を向上させる。一方、予め対象物のモデルパターンをモデル記憶手段に記憶しておき、対象物識別手段にて、解像度を向上させた候補領域と記憶されたモデルパターンとを比較して対象物を識別する。   In order to solve the above-described problem, according to the present embodiment, a plurality of image data obtained by photographing an object by an image data obtaining unit are sequentially obtained at a prescribed rate, and sequentially obtained by an inter-pixel position detecting unit. The relative position between the image data is detected, the difference between the plurality of image data is detected from the relative position by the candidate area extracting means, and one or more of the differences are extracted as candidate areas of the object, and moved. A moving amount of the candidate area is detected over the plurality of image data by a quantity detecting means, and a resolution of the candidate area is improved based on the moving amount by a resolution improving means. On the other hand, the model pattern of the object is stored in advance in the model storage means, and the object identification means identifies the object by comparing the candidate area whose resolution has been improved with the stored model pattern.

実施形態1における対象物識別装置の構成を示すブロック図。FIG. 2 is a block diagram illustrating a configuration of a target object identification device according to the first embodiment. 図1に示す対象物識別装置内の画像データ取得部の動作を説明するための概念図。The conceptual diagram for demonstrating operation | movement of the image data acquisition part in the target object identification apparatus shown in FIG. 図1に示す対象物識別装置内の画像間位置検出部の動作を説明するための概念図。The conceptual diagram for demonstrating operation | movement of the position detection part between images in the target object identification apparatus shown in FIG. 図1に示す対象物識別装置内の候補領域抽出部の動作を説明するための概念図。The conceptual diagram for demonstrating operation | movement of the candidate area | region extraction part in the target object identification apparatus shown in FIG. 図1に示す対象物識別装置内の移動量検出部の動作を説明するための概念図。The conceptual diagram for demonstrating operation | movement of the movement amount detection part in the target object identification apparatus shown in FIG. 図1に示す対象物識別装置内の移動量検出部の動作を説明するための概念図。The conceptual diagram for demonstrating operation | movement of the movement amount detection part in the target object identification apparatus shown in FIG. 図1に示す対象物識別装置内の解像度向上部の動作を説明するための概念図。The conceptual diagram for demonstrating operation | movement of the resolution improvement part in the target object identification apparatus shown in FIG. 図1に示す対象物識別装置の処理の流れを示すフローチャート。The flowchart which shows the flow of a process of the target object identification apparatus shown in FIG. 実施形態2における対象物識別装置の構成を示すブロック図。The block diagram which shows the structure of the target object identification apparatus in Embodiment 2. FIG.

以下、図面を参照して本実施形態に係る対象物位置検出装置を説明する。   Hereinafter, the object position detection apparatus according to the present embodiment will be described with reference to the drawings.

(実施形態1)
まず、図1から図7を用いて実施形態1を説明する。
(Embodiment 1)
First, Embodiment 1 will be described with reference to FIGS.

図1は、実施形態1における対象物識別装置の構成及び機能を示すブロック図である。この対象物識別装置は、画像データ取得部100を備える。この画像データ取得部100は赤外線撮像カメラ等で構成され、移動対象物に向けて撮影することで移動対象物を含む電磁波画像データを取得するもので、取得された電磁波画像データは高輝度領域抽出部101に送られる。   FIG. 1 is a block diagram illustrating the configuration and functions of an object identification device according to the first embodiment. This object identification device includes an image data acquisition unit 100. The image data acquisition unit 100 is configured by an infrared imaging camera or the like, and acquires electromagnetic wave image data including a moving object by photographing toward the moving object. The acquired electromagnetic wave image data is extracted from a high luminance area. Sent to the unit 101.

この高輝度領域抽出部101は、取得された電磁波画像データの輝度情報に対して輝度閾値を超える領域を高輝度領域として抽出するもので、抽出された高輝度領域の情報は画像間位置検出部102に送られる。この画像間位置検出部102は、抽出された高輝度領域から構成される画像データのうち複数の画像データ間の相対位置関係を検出するもので、検出された相対位置関係は候補領域抽出部103に送られる。   The high luminance area extraction unit 101 extracts an area exceeding the luminance threshold as the high luminance area with respect to the luminance information of the acquired electromagnetic wave image data, and the information on the extracted high luminance area is an inter-image position detection unit. 102. The inter-image position detection unit 102 detects a relative positional relationship between a plurality of pieces of image data out of the image data composed of the extracted high-luminance region. The detected relative positional relationship is the candidate region extraction unit 103. Sent to.

上記候補領域抽出部103は、検出された画像データ間の相対位置関係より画像データ間の差分を抽出し、その差分を対象物の候補領域とするもので、ここで候補領域として抽出される画像データ間の差分の情報は移動量検出部104に送られる。この移動量検出部104は、抽出された複数の画像データにわたる候補領域について、それぞれの移動量を検出するもので、検出された候補領域の移動量の情報は解像度向上部105に送られる。   The candidate area extraction unit 103 extracts a difference between the image data from the detected relative positional relationship between the image data, and uses the difference as a candidate area of the target object. Here, the image extracted as the candidate area Information on the difference between the data is sent to the movement amount detection unit 104. The movement amount detection unit 104 detects the movement amount of each candidate area that covers a plurality of extracted image data, and information on the movement amount of the detected candidate area is sent to the resolution improvement unit 105.

上記解像度向上部105は、検出された候補領域の移動量の情報から複数の画像データにわたる候補領域を重ね合わせることで候補領域の解像度を向上させるもので、これによって高解像度化された候補領域の情報は対象物識別部106に送られる。この対象物識別部106は、予め移動対象物のモデルパターンが記憶させたモデル記憶部107からモデルパターンを読み出し、このモデルパターンを基に高解像度化された候補領域が対象物か否か識別する。   The resolution improving unit 105 improves the resolution of the candidate area by superimposing the candidate areas over a plurality of image data from the information on the detected movement amount of the candidate area. The information is sent to the object identification unit 106. The object identifying unit 106 reads out the model pattern from the model storage unit 107 in which the model pattern of the moving object is stored in advance, and identifies whether or not the candidate area whose resolution has been increased is the object based on the model pattern. .

以下に、本実施形態1の対象物識別装置の動作について詳述する。   Hereinafter, the operation of the object identification device of Embodiment 1 will be described in detail.

本実施形態1の対象物識別装置は、電磁波画像データから対象物を抽出し識別する。まず、画像データ取得部100により、電磁波画像データ300が取得される。例えば、この画像データ取得部100には赤外線カメラが利用される。この場合、電磁波画像データ300は赤外線画像である。この画像データ取得部100で取得された画像データは一定のレートで高輝度領域抽出部101に出力される。   The object identification device according to the first embodiment extracts and identifies an object from electromagnetic wave image data. First, the electromagnetic wave image data 300 is acquired by the image data acquisition unit 100. For example, an infrared camera is used for the image data acquisition unit 100. In this case, the electromagnetic wave image data 300 is an infrared image. The image data acquired by the image data acquisition unit 100 is output to the high luminance region extraction unit 101 at a constant rate.

高輝度領域抽出部101では、入力画像データから設定された閾値より高い輝度を示す画素を抽出し、それ以外の画素の情報を除外する。識別する対象物は画像データの中で相対的に高い輝度で撮像されることが前提にあり、この段階で輝度値が低い画素を除外することで後段の処理を軽減することができる。尚、この処理を飛ばして次の処理へまわすことも可能である。   The high brightness area extraction unit 101 extracts pixels having brightness higher than a threshold value set from the input image data, and excludes information of other pixels. The object to be identified is assumed to be imaged with relatively high luminance in the image data. By excluding pixels with low luminance values at this stage, subsequent processing can be reduced. It is also possible to skip this process and go to the next process.

画像間位置検出部102では、画像データ取得部100で得られた複数の画像データ、もしくは高輝度領域抽出部101により低輝度領域を除外された画像データから、画像データ間の相対位置関係を算出する。例えば本装置が誘導飛翔体に搭載された場合には、撮影位置が時々刻々と変化するため、画像データ間で背景の位置が異なる。   The inter-image position detection unit 102 calculates the relative positional relationship between the image data from the plurality of image data obtained by the image data acquisition unit 100 or the image data from which the low luminance region is excluded by the high luminance region extraction unit 101. To do. For example, when the present apparatus is mounted on a guided flying object, the position of the background differs between image data because the shooting position changes from moment to moment.

図2は対象物識別装置の移動に伴い、背景が移動する様子を示している。図2に示すように、連続する画像データ300aおよび300bそれぞれの画像間では背景の位置が異なる。この場合、画像内で背景が移動することから、その中で移動する対象物を検出することは困難である。そこで、画像間位置検出部102により画像データ間での背景の相対位置を算出する。   FIG. 2 shows how the background moves as the object identification device moves. As shown in FIG. 2, the position of the background differs between the images of the continuous image data 300a and 300b. In this case, since the background moves in the image, it is difficult to detect the moving object in the image. Therefore, the relative position of the background between the image data is calculated by the inter-image position detection unit 102.

図3は、画像間位置検出部102により実施される処理の様子を示している。画像間位置検出部102では、画像データ300aの画像に対して画像データ300bの画像と比較するための比較領域400を設定する。この比較領域400を画像データ300bの画像に対して1画素ずつずらしながら比較走査401を実施し、各位置で輝度の相関値を計算するマッチング処理を実施する。そして、それら相関値を並べた評価画像を作成する。   FIG. 3 shows a state of processing performed by the inter-image position detection unit 102. The inter-image position detection unit 102 sets a comparison area 400 for comparing the image of the image data 300a with the image of the image data 300b. A comparison scan 401 is performed while shifting the comparison area 400 pixel by pixel with respect to the image of the image data 300b, and a matching process for calculating a luminance correlation value at each position is performed. Then, an evaluation image in which the correlation values are arranged is created.

次に、画像間位置検出部102は、評価画像の中で最も相関値の高い位置を検索し、最大評価位置を求め、その位置に基づいて画像データ間の相対位置を算出する。これにより、2枚の画像データ間の画素単位での相対位置を検出することができる。さらに、2次曲面を用いたマッチングにより、1画素以下の微小なサブピクセルオーダーでの相対位置検出も可能である。   Next, the inter-image position detection unit 102 searches the evaluation image for the position having the highest correlation value, obtains the maximum evaluation position, and calculates the relative position between the image data based on the position. Thereby, the relative position in pixel units between two pieces of image data can be detected. Furthermore, by using a quadratic curved surface, it is possible to detect a relative position in a minute subpixel order of one pixel or less.

評価画像における相対値は、2次曲面に沿って変化すると仮定すると、画素レベルで求めた最大評価位置を中心とする、左右1画素の座標配列3点と、上下1画素の座標配列3点を用いて、それぞれ2次多項式を解くことで、2次曲面の頂点位置を求めることができる。その分解能は1画素以下になる。例えば、画素レベルで求めた最大評価位置の座標を(w,s)とすると、それを中心とする(w−1,s)、(w,s)、(w+1,s)の3点と、(w,s−1)、(w,s)、(w,s+1)の3点によりそれぞれ2次多項式を解くことで、1画素以下の分解能で2次曲面の頂点位置を求めることができる。したがって、相対位置の検出の精度を高くすることができる。   Assuming that the relative value in the evaluation image changes along the quadratic curved surface, three coordinate arrays of one pixel left and right and three coordinate arrays of one pixel above and below are centered on the maximum evaluation position obtained at the pixel level. The vertex position of the quadric surface can be obtained by solving the quadratic polynomial. The resolution is 1 pixel or less. For example, assuming that the coordinates of the maximum evaluation position obtained at the pixel level are (w, s), three points (w−1, s), (w, s), (w + 1, s) centered on the coordinates, By solving the quadratic polynomial from each of the three points (w, s-1), (w, s), and (w, s + 1), the vertex position of the quadric surface can be obtained with a resolution of one pixel or less. Therefore, the accuracy of detecting the relative position can be increased.

候補領域抽出部103では、前記画像間位置検出部102により求められた相対位置を基に重ね合わせ、差分として残る領域を対象物が存在する可能性のある領域、候補領域として抽出する。図4(a)は、図3における画像データ300aの画像と画像データ300bの画像との差分を取った結果の例であり、それぞれの差分画像データ500aと500bに対応する。ここでは、候補領域は501aと501bとなる。   The candidate area extraction unit 103 superimposes based on the relative position obtained by the inter-image position detection unit 102, and extracts an area remaining as a difference as an area where the object may exist and a candidate area. FIG. 4A shows an example of a result obtained by calculating a difference between the image data 300a and the image data 300b in FIG. 3, and corresponds to the difference image data 500a and 500b, respectively. Here, the candidate areas are 501a and 501b.

ただし、実際には、図4(b)(図上の候補領域のそれぞれ形状は説明しやすく模式的に示したもので、実際のものとは異なる)に示すように差分として残存する領域が複数存在することが多く、これら残存領域から真の対象物を抽出する必要がある。本実施形態はこれを解決するものであり、以降の処理部において残存領域の識別が実行される。   However, in practice, there are a plurality of regions remaining as differences as shown in FIG. 4B (the shape of each candidate region on the diagram is schematically illustrated for easy explanation and is different from the actual one). In many cases, it is necessary to extract a true object from these remaining areas. The present embodiment solves this, and the remaining areas are identified in the subsequent processing units.

移動量検出部104では、まず、画像データにおける候補領域内の各画素とその近傍画素との、輝度差と輝度差の方向とを示す微分画像が生成される。微分画像の算出にあたっては、次式(1)が用いられる。式(1)において大文字のIは画素ごとの輝度値であり、i,jは画素を区別するためのインデックスである。

Figure 2013114381
In the movement amount detection unit 104, first, a differential image indicating the luminance difference and the direction of the luminance difference between each pixel in the candidate area in the image data and its neighboring pixels is generated. In calculating the differential image, the following equation (1) is used. In equation (1), capital letter I is a luminance value for each pixel, and i and j are indexes for distinguishing the pixels.
Figure 2013114381

各画素においてこの値が算出される。この値を輝度差方向の情報と称しており、より一般的に(Rx,Ry)で示される。   This value is calculated for each pixel. This value is referred to as information on the luminance difference direction, and is more generally represented by (Rx, Ry).

次に、移動量検出部104では、候補領域抽出部103で抽出された各領域の位置を以下のようにして算出する。図5は、抽出された領域の位置を算出する処理に用いられるテンプレートの一例を示す図である。移動量検出部104は、候補領域抽出部103で抽出された領域の画素ごとに、その輝度を、例えばガウス分布などの釣鐘型の2次元輝度分布を仮定して類似値に換算する。そして、この類似値の集合として得られる類似値画像を生成し、この類似値画像をもとに各候補領域の位置を算出する。   Next, the movement amount detection unit 104 calculates the position of each region extracted by the candidate region extraction unit 103 as follows. FIG. 5 is a diagram illustrating an example of a template used for the process of calculating the position of the extracted region. For each pixel in the region extracted by the candidate region extraction unit 103, the movement amount detection unit 104 converts the luminance into a similar value assuming a bell-shaped two-dimensional luminance distribution such as a Gaussian distribution. Then, a similar value image obtained as a set of similar values is generated, and the position of each candidate area is calculated based on the similar value image.

ガウス分布は中央に頂点を持ち、中央から周辺に向かって傾斜していくような値を持つ。これを図示すると、図5に示すように、輝度差方向は周辺から頂点に向かって指向するように分布する。図5に示す矢印は、2次元の画像中において、「輝度値は対象物を頂点としてその周囲にガウス分布で分布する」と仮定した場合の輝度差方向を示す。図5では5×5の画素領域において中央の画素が最大の画素値を持つとする。   The Gaussian distribution has a vertex at the center and a value that inclines from the center toward the periphery. As shown in FIG. 5, the luminance difference direction is distributed so as to be directed from the periphery toward the apex. The arrows shown in FIG. 5 indicate the direction of luminance difference when it is assumed that “the luminance value is distributed in a Gaussian distribution around the object as a vertex” in the two-dimensional image. In FIG. 5, it is assumed that the center pixel has the maximum pixel value in a 5 × 5 pixel region.

移動量検出部104では、図5に示すガウス分布の輝度差方向をテンプレートとして、候補領域抽出部103で抽出された画素に対応する微分画像の画素を順次走査し、各画素で次式(2)を用いて類似値を算出する。この類似値を配列することで類似値画像が得られる。

Figure 2013114381
The movement amount detection unit 104 sequentially scans the pixels of the differential image corresponding to the pixels extracted by the candidate area extraction unit 103 using the luminance difference direction of the Gaussian distribution shown in FIG. ) To calculate the similarity value. A similar value image is obtained by arranging the similar values.
Figure 2013114381

式(2)においてKが類似値であり、θは輝度値方向とテンプレートとのなす角である。式(2)の最下段の式では、図6に示す微分画像の輝度差方向(Rθ)とテンプレートの輝度差方向(Tθ)との差、すなわちDθ(=|Rθ−Tθ|)を180度で正規化した値を1から減算している。これにより輝度差方向が一致すると類似値は1になり、正反対であれば類似値は0になる。その値に寄与率(α)を考慮する。つまり、輝度差方向の一致率に応じた係数を作成し、その係数に基づいた輝度差を累積加算することで、類似値Kを算出する。この類似値Kを評価することで画像フレームにおける輝度差方向の分布をガウス分布にマッチングさせることができ、各候補領域の位置を算出することができる。   In Equation (2), K is a similar value, and θ is an angle formed by the luminance value direction and the template. In the lowermost expression of Expression (2), the difference between the luminance difference direction (Rθ) of the differential image and the luminance difference direction (Tθ) of the template shown in FIG. 6, that is, Dθ (= | Rθ−Tθ |) is 180 degrees. The value normalized by is subtracted from 1. Accordingly, the similarity value becomes 1 when the luminance difference directions coincide with each other, and the similarity value becomes 0 if the opposite directions are opposite. The contribution rate (α) is taken into consideration for the value. That is, the similarity value K is calculated by creating a coefficient corresponding to the matching rate in the luminance difference direction and accumulating the luminance differences based on the coefficient. By evaluating the similarity value K, the distribution in the luminance difference direction in the image frame can be matched with the Gaussian distribution, and the position of each candidate region can be calculated.

尚、加算すべきデータに判断条件を設けてもよい。具体的には、ガウス分布の各画素の輝度差方向は点対称であることを利用する。図5から分かるようにAFの画素(左上)の輝度差方向とEJの画素の輝度差方向とは正反対である。また、EFとAJの画素の輝度差方向は、それぞれAFとEJの画素の輝度差方向に直交する。このことを利用して、例えばAF、EF、AJ、EJの4画素の輝度差方向の一致率がそれぞれ90度以内であれば、輝度差を加算するという判断条件とする。   A determination condition may be provided for the data to be added. Specifically, it is utilized that the luminance difference direction of each pixel of the Gaussian distribution is point symmetric. As can be seen from FIG. 5, the luminance difference direction of the AF pixel (upper left) is opposite to the luminance difference direction of the EJ pixel. Further, the luminance difference direction of the EF and AJ pixels is orthogonal to the luminance difference direction of the AF and EJ pixels, respectively. By using this fact, for example, if the coincidence ratios of the four pixels of AF, EF, AJ, and EJ in the luminance difference direction are each within 90 degrees, the determination condition is to add the luminance difference.

式(2)では画素ごとに値の加算を決定しているので、一致率が部分的に高い場合にも類似値が高くなる可能性があるが、上記の判断条件を設けることにより、周方向を加味して周方向の一致率が共に高い場合に類似値を高い値として算出することが可能になる。つまり、周囲から頂点に向かって盛り上がるような輝度分布に高い得点を与えることができ、より的確に対象物の位置を捕らえられるようになる。   Since the value addition is determined for each pixel in Expression (2), the similarity value may increase even when the coincidence rate is partially high. However, by providing the above determination condition, the circumferential direction In consideration of the above, it is possible to calculate the similarity value as a high value when the circumferential matching rate is high. That is, a high score can be given to the luminance distribution that rises from the surroundings toward the apex, and the position of the object can be captured more accurately.

また、移動量検出部104では、候補領域抽出部103により抽出された候補領域ごとに類似値の値を探索し、最も値の高い座標(w,s)を各候補領域の位置と定義する。これにより、対象物の輝度分布をガウス分布と仮定した場合に、対象物の位置である可能性が最も高い位置を画素レベルで定義することができる。この段階で、図4(c)に示すように、各候補領域における最大類似値がユーザによって任意に設定される閾値を下回る場合は除外し、閾値を上回る領域501a,501bのみを候補領域として抽出することも可能である。   Further, the movement amount detection unit 104 searches for the value of the similarity value for each candidate region extracted by the candidate region extraction unit 103, and defines the coordinate (w, s) having the highest value as the position of each candidate region. As a result, when the luminance distribution of the object is assumed to be a Gaussian distribution, a position that is most likely to be the position of the object can be defined at the pixel level. At this stage, as shown in FIG. 4C, the maximum similarity value in each candidate region is excluded when it falls below a threshold arbitrarily set by the user, and only the regions 501a and 501b exceeding the threshold are extracted as candidate regions. It is also possible to do.

さらに、移動量検出部104では、画像間位置検出部101と同様に、サブピクセルでの位置検出を行うことが可能である。すなわち、類似値画像における類似値は2次曲面に沿って変化すると仮定する。そこで、例えば画素レベルで求めた(w,s)を中心とする(w−1,s)、(w,s)、(w+1,s)の3点と、(w,s−1)、(w,s)、(w,s+1)の3点によりそれぞれ2次多項式を解くことで、1画素以下の精度で2次曲面の頂点位置を求めることができる。したがって、位置検出の精度をさらに高くすることができる。   Further, the movement amount detection unit 104 can detect the position at the sub-pixel as in the inter-image position detection unit 101. That is, it is assumed that the similarity value in the similarity value image changes along the quadric surface. Therefore, for example, three points (w-1, s), (w, s), (w + 1, s) centered on (w, s) obtained at the pixel level, and (w, s-1), ( By solving the quadratic polynomial using three points (w, s) and (w, s + 1), the vertex position of the quadric surface can be obtained with an accuracy of one pixel or less. Therefore, the accuracy of position detection can be further increased.

以上の処理により、各画像データにおける各候補領域の位置が抽出され、これらの位置情報および画像データ間の相対位置関係を加味することで各候補領域の画像データ間における移動量がサブピクセル単位で算出される。   Through the above processing, the position of each candidate area in each image data is extracted, and the amount of movement between the image data of each candidate area is sub-pixel united by taking into account the positional information and the relative positional relationship between the image data. Calculated.

解像度向上部105においては、複数の画像データ上にある候補領域の像を重ね合わせることで解像度を向上させる。元の画像データの画素よりも小さい単位、サブピクセルの分解能で画像を重ね合わせることができれば、元の画像よりも小さい画素を生成することができる。図7では、2枚の画像を重ね合わせることで、2倍の解像度を持つ画像が生成される様子を描いている。重ね合わせた際、高解像度画像の画素502上には2つの値が存在している。例えば、高解像度画像の画素502の値を一意に決める方法としては、それらの平均を取る方法が最も簡単である。   In the resolution improving unit 105, the resolution is improved by superimposing the images of candidate areas on a plurality of image data. If the images can be superimposed with a unit smaller than the pixels of the original image data and a resolution of sub-pixels, pixels smaller than the original image can be generated. FIG. 7 illustrates a state in which an image having a double resolution is generated by superimposing two images. When superposed, there are two values on the pixel 502 of the high resolution image. For example, as a method for uniquely determining the value of the pixel 502 of the high resolution image, a method of taking an average of them is the simplest.

上記移動量検出部104では、各候補領域の移動量をサブピクセル単位で算出されているため、上記の原理により、この移動量を基に重ね合わせることで解像度を高めることができる。上記では2枚の画像を重ね合わせる例を示したが、2枚に限らずさらに多くの画像を重ね合わせることで、より候補領域の像の解像度を高めることが可能となる。   In the movement amount detection unit 104, since the movement amount of each candidate region is calculated in units of sub-pixels, the resolution can be increased by superimposing the movement amounts based on the above-described principle. In the above, an example in which two images are superimposed is shown, but it is possible to further increase the resolution of the image of the candidate region by overlaying not only two images but also more images.

対象物識別部106においては、上記解像度向上部105において解像度を向上させた候補領域の像を用いて、その候補領域が対象物を示しているものか否かを識別する。この識別処理の際には、予め、モデル記憶部107に識別・追尾対象物のモデルパターンを記憶させておき、その記憶されているモデルパターンとの類似度が高いものを対象物として識別する。このモデル記憶部107においては、対象物のモデルパターンを電磁波画像データとして記憶しておくことも可能であり、ガウス分布のような釣鐘型分布としてパラメトリックに記憶しておくことも可能である。この類似度を算出する方法としては、輝度情報同士をマッチングさせてもよいし、前述のような分布形状を基にした類似度算出によってもよい。   The object identifying unit 106 identifies whether or not the candidate area indicates the object by using the image of the candidate area whose resolution has been improved by the resolution improving unit 105. In this identification process, the model pattern of the identification / tracking target is stored in advance in the model storage unit 107, and a model having a high similarity to the stored model pattern is identified as the target. In the model storage unit 107, the model pattern of the object can be stored as electromagnetic wave image data, and can be stored parametrically as a bell-shaped distribution such as a Gaussian distribution. As a method of calculating the similarity, the luminance information may be matched, or the similarity may be calculated based on the distribution shape as described above.

図8は、実施形態1における対象物識別装置の処理の流れを示すフローチャートである。すなわち、この対象物識別装置では、移動対象物を含む赤外線画像データを取得すると(ステップS1)、取得された赤外線画像データの輝度情報に対して輝度閾値を超える領域を高輝度領域として抽出し(ステップS2)、抽出された高輝度領域から構成される画像データのうち複数の画像データ間の相対位置関係を算出し(ステップS3)、検出された画像データ間の相対位置関係より画像データ間の差分を対象物の候補領域として抽出する(ステップS4)。続いて、候補領域として抽出される画像データ間の差分の情報から候補領域の移動量をサブピクセル単位で検出し(ステップS5)、検出された候補領域の移動量の情報から複数の画像データにわたる候補領域を重ね合わせることで候補領域の解像度を向上させ(ステップS6)、これによって高解像度化された候補領域を移動対象物のモデルパターンと比較し、その比較結果から高解像度化された候補領域が対象物か否か識別する(ステップS7)。   FIG. 8 is a flowchart illustrating a processing flow of the object identification device according to the first embodiment. That is, in this object identification device, when infrared image data including a moving object is acquired (step S1), an area exceeding the luminance threshold is extracted as a high luminance area with respect to the luminance information of the acquired infrared image data ( Step S2) calculates a relative positional relationship between a plurality of pieces of image data out of the image data composed of the extracted high-intensity region (Step S3), and calculates the image data based on the relative positional relationship between the detected image data. The difference is extracted as a candidate area for the object (step S4). Subsequently, the movement amount of the candidate area is detected in units of subpixels from the information on the difference between the image data extracted as the candidate area (step S5), and a plurality of pieces of image data are covered from the information on the movement amount of the detected candidate area. The resolution of the candidate area is improved by superimposing the candidate areas (step S6), the candidate area that has been increased in resolution is compared with the model pattern of the moving object, and the candidate area that has been increased in resolution from the comparison result Is identified as an object (step S7).

以上説明したようにこの実施形態1による対象物識別装置では、目標の周囲の輝度分布がガウス分布のような釣鐘型状に分布すると仮定し、候補領域から目標位置を特定する際にも釣鐘型分布とのマッチングを取り、ガウス曲線の頂点の座標を目標位置と定義することで、サブピクセルでの位置検出を行うようにしている。さらに、サブピクセル単位での移動量を利用することにより、画像データの解像度を向上させることが可能となり、対象物の大きさが微小な場合においても識別可能なレベルまで識別性能を高めることができる。   As described above, in the object identification device according to the first embodiment, it is assumed that the luminance distribution around the target is distributed in a bell shape like a Gaussian distribution, and the bell shape is also used when specifying the target position from the candidate region. By matching with the distribution and defining the coordinates of the vertices of the Gaussian curve as the target position, the position detection at the sub-pixel is performed. Furthermore, by using the amount of movement in sub-pixel units, it is possible to improve the resolution of the image data, and it is possible to improve the discrimination performance to a level that allows discrimination even when the size of the object is small. .

(実施形態2)
図9を用いて実施形態2を説明する。
(Embodiment 2)
The second embodiment will be described with reference to FIG.

図9は、実施形態2における対象物識別装置の構成を示すブロック図である。但し、図9において、図1と同一部分には同一符号を付して示し、ここでは異なる部分を中心に説明する。   FIG. 9 is a block diagram illustrating a configuration of the object identification device according to the second embodiment. However, in FIG. 9, the same parts as those in FIG. 1 are denoted by the same reference numerals, and different parts will be mainly described here.

この対象物識別装置は、実施形態1における対象物識別装置の構成において、取得高度情報取得部108と姿勢情報取得部109を追加した構成となっている。高度情報取得部108は、本対象物識別装置が存在する高度の情報を取得するもので、例えば、高度情報取得部108はGPSから位置情報を取得するものや、圧力計による気圧の変化により高度を測定するものが考えられる。また、姿勢情報取得部109は、画像データ取得部100が指向している方向・姿勢情報を取得するもので、例えばジャイロセンサなどが考えられる。   This object identification device has a configuration in which an acquired altitude information acquisition unit 108 and a posture information acquisition unit 109 are added to the configuration of the object identification device in the first embodiment. The altitude information acquisition unit 108 acquires altitude information where the target object identification device exists. For example, the altitude information acquisition unit 108 acquires position information from the GPS, or the altitude information by a change in atmospheric pressure by a pressure gauge. Can be considered. The posture information acquisition unit 109 acquires the direction / posture information that the image data acquisition unit 100 is directed to, for example, a gyro sensor.

上記構成において、以下にその動作を説明する。   The operation of the above configuration will be described below.

まず、実施形態1と同様に画像データ取得部100で画像データが取得されるが、それと同時に高度情報取得部108により本対象物識別装置が存在する高度が取得され、姿勢情報取得部109により画像データ取得部100が指向している方向・姿勢情報が取得される。これらの高度および姿勢情報が候補領域抽出部103に入力され、飛行ルートにおいて存在しえない候補領域を除外することができる。例えば、水面上空を対象物が飛行する場合、水面に像が反射し、候補領域として抽出される可能性がある。しかしながら、候補領域抽出部103の除外機能の働きにより、地表上に観察される候補領域を除外することができ、後段の対象物識別部106における識別処理における誤識別を防ぐことができる。   First, image data is acquired by the image data acquisition unit 100 as in the first embodiment. At the same time, the altitude information acquisition unit 108 acquires the altitude at which the target object identification device exists, and the posture information acquisition unit 109 acquires the image. The direction / attitude information to which the data acquisition unit 100 is directed is acquired. These altitude and attitude information are input to the candidate area extraction unit 103, and candidate areas that cannot exist in the flight route can be excluded. For example, when an object flies over the water surface, the image may be reflected on the water surface and extracted as a candidate region. However, the candidate area observed on the ground surface can be excluded by the function of the exclusion function of the candidate area extraction unit 103, and erroneous identification in the identification processing in the object identification unit 106 at the subsequent stage can be prevented.

この実施形態2の対象物識別装置によれば、対象物の反射像が画像データ中に存在する場合においても、それを除外することができ、誤識別を防ぐことができる。   According to the object identification device of the second embodiment, even when a reflection image of the object is present in the image data, it can be excluded and erroneous identification can be prevented.

尚、この発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

100…画像データ取得部、101…高輝度領域抽出部、102…画像間位置検出部、103…候補領域抽出部、104…移動量検出部、105…解像度向上部、106…対象物識別部、107…モデル記憶部、108…高度情報取得部、109…姿勢情報取得部。   DESCRIPTION OF SYMBOLS 100 ... Image data acquisition part, 101 ... High brightness area extraction part, 102 ... Inter-image position detection part, 103 ... Candidate area extraction part, 104 ... Movement amount detection part, 105 ... Resolution improvement part, 106 ... Object identification part, 107: Model storage unit, 108: Altitude information acquisition unit, 109: Attitude information acquisition unit.

Claims (8)

対象物を撮影した画像データを規定のレートで順次取得する画像データ取得手段と、
前記画像データ取得手段で順次取得される複数の画像データ間の相対位置を検出する画像間位置検出手段と、
前記相対位置から前記複数の画像データ間の差分を検出しその差分を前記対象物の候補領域として1つもしくは複数抽出する候補領域抽出手段と、
前記複数の画像データにわたって前記候補領域の移動量を検出する移動量検出手段と、
前記移動量を基に前記候補領域の解像度を向上させる解像度向上手段と、
予め前記対象物のモデルパターンを記憶する記憶手段と、
前記解像度を向上させた候補領域と前記モデルパターンとを比較して対象物を識別する識別手段と
を具備することを特徴とする対象物識別装置。
Image data acquisition means for sequentially acquiring image data obtained by photographing an object at a prescribed rate;
An inter-image position detecting means for detecting a relative position between a plurality of image data sequentially acquired by the image data acquiring means;
Candidate area extraction means for detecting a difference between the plurality of image data from the relative position and extracting one or a plurality of the differences as candidate areas of the object;
A movement amount detecting means for detecting a movement amount of the candidate region over the plurality of image data;
Resolution improving means for improving the resolution of the candidate area based on the amount of movement;
Storage means for storing a model pattern of the object in advance;
An object identification apparatus comprising: identification means for comparing the candidate area with improved resolution and the model pattern to identify an object.
前記移動量検出手段は、前記候補領域を形成する画素ごとに、当該画素の輝度値と当該画素を囲む画素の輝度値との差から輝度差方向を算出し、この輝度差方向の分布から算出される輝度値の極大点の座標を候補領域の位置とし、前記複数の画像データにわたる前記候補領域の位置の差異を移動量として算出する機能を有することを特徴とする請求項1記載の対象物識別装置。   For each pixel forming the candidate area, the movement amount detection unit calculates a luminance difference direction from a difference between a luminance value of the pixel and a luminance value of a pixel surrounding the pixel, and calculates from the distribution of the luminance difference direction. 2. The object according to claim 1, further comprising: a function of calculating a coordinate of a maximum point of a luminance value to be a position of a candidate area and calculating a difference in position of the candidate area across the plurality of image data as a movement amount. Identification device. 前記移動量検出手段は、前記輝度差方向の分布が規定の分布関数に一致する度合いが規定のしきい値を超える領域における前記分布関数の頂点に対応する座標を候補領域の位置とし、複数の画像データにわたる前記候補領域の位置の差異を移動量として算出する機能を有することを特徴とする請求項1記載の対象物識別装置。   The movement amount detection means uses the coordinates corresponding to the vertices of the distribution function in a region where the degree of the distribution in the luminance difference direction matches a specified distribution function exceeds a specified threshold as the position of a candidate region, The object identification device according to claim 1, further comprising a function of calculating a difference in position of the candidate area over image data as a movement amount. 前記移動量検出手段は、釣鐘型関数を前記分布関数とすることを特徴とする請求項3記載の対象物識別装置。   4. The object identification device according to claim 3, wherein the movement amount detection means uses a bell-shaped function as the distribution function. 前記記憶手段は、前記モデルパターンを釣鐘型関数として記憶することを特徴とする請求項1乃至4のいずれか記載の対象物識別装置。   The object storage device according to claim 1, wherein the storage unit stores the model pattern as a bell-shaped function. さらに、画像データの輝度情報に対して輝度閾値を越える高輝度領域のみを抽出する高輝度領域抽出手段を備え、前記画像間位置検出手段は前記複数の画像データにわたる前記高輝度領域の相対位置を画像データ間の相対位置として算出することを特徴とする請求項1乃至5のいずれか記載の対象物識別装置。   The image data further comprises a high luminance area extracting means for extracting only a high luminance area exceeding a luminance threshold with respect to the luminance information of the image data, and the inter-image position detecting means determines a relative position of the high luminance area over the plurality of image data. 6. The object identification device according to claim 1, wherein the object identification device is calculated as a relative position between the image data. さらに、高度情報を取得する高度情報取得手段と、姿勢情報を取得する姿勢情報取得手段とを備え、前記候補領域抽出手段は前記高度情報と前記姿勢情報を基に前記複数の候補領域を絞り込むことを特徴とする請求項1乃至6のいずれか記載の対象物識別装置。   Further, the apparatus includes an altitude information acquisition unit that acquires altitude information and an attitude information acquisition unit that acquires attitude information, and the candidate area extraction unit narrows down the plurality of candidate areas based on the altitude information and the attitude information. The object identification device according to claim 1, wherein: 対象物を撮影した画像データを規定のレートで順次取得し、
順次取得される複数の画像データ間の相対位置を検出し、
前記相対位置から前記複数の画像データ間の差分を検出してその差分を前記対象物の候補領域として1つもしくは複数抽出し、
前記複数の画像データにわたって前記候補領域の移動量を検出し、
前記移動量を基に前記候補領域の解像度を向上させ、
予め記憶される前記対象物のモデルパターンと前記解像度を向上させた候補領域と前記モデルパターンとを比較して対象物を識別することを特徴とする対象物識別方法。
The image data obtained by photographing the object is sequentially acquired at the specified rate,
Detect the relative position between multiple image data acquired sequentially,
Detecting a difference between the plurality of image data from the relative position and extracting the difference as one or a plurality of candidate areas of the object;
Detecting the amount of movement of the candidate region over the plurality of image data;
Improve the resolution of the candidate area based on the amount of movement;
A method for identifying an object, comprising: comparing a model pattern of the object stored in advance, a candidate area with improved resolution, and the model pattern;
JP2011258868A 2011-11-28 2011-11-28 Object identification device and object identification method Pending JP2013114381A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011258868A JP2013114381A (en) 2011-11-28 2011-11-28 Object identification device and object identification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011258868A JP2013114381A (en) 2011-11-28 2011-11-28 Object identification device and object identification method

Publications (1)

Publication Number Publication Date
JP2013114381A true JP2013114381A (en) 2013-06-10

Family

ID=48709892

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011258868A Pending JP2013114381A (en) 2011-11-28 2011-11-28 Object identification device and object identification method

Country Status (1)

Country Link
JP (1) JP2013114381A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015148939A (en) * 2014-02-06 2015-08-20 三菱電機株式会社 Image positioning device and image positioning method
JP2015207234A (en) * 2014-04-23 2015-11-19 株式会社Ihi debris detection method
CN113255696A (en) * 2021-05-25 2021-08-13 深圳市亚辉龙生物科技股份有限公司 Image recognition method and device, computer equipment and storage medium
CN113255696B (en) * 2021-05-25 2024-05-24 深圳市亚辉龙生物科技股份有限公司 Image recognition method, device, computer equipment and storage medium

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015148939A (en) * 2014-02-06 2015-08-20 三菱電機株式会社 Image positioning device and image positioning method
JP2015207234A (en) * 2014-04-23 2015-11-19 株式会社Ihi debris detection method
CN113255696A (en) * 2021-05-25 2021-08-13 深圳市亚辉龙生物科技股份有限公司 Image recognition method and device, computer equipment and storage medium
CN113255696B (en) * 2021-05-25 2024-05-24 深圳市亚辉龙生物科技股份有限公司 Image recognition method, device, computer equipment and storage medium

Similar Documents

Publication Publication Date Title
US10515271B2 (en) Flight device and flight control method
US20170308103A1 (en) Flight device, flight control system and method
JP5618569B2 (en) Position and orientation estimation apparatus and method
JP5671281B2 (en) Position / orientation measuring apparatus, control method and program for position / orientation measuring apparatus
JP6394081B2 (en) Image processing apparatus, image processing system, image processing method, and program
JP6736257B2 (en) Information processing device, information processing method, and program
US8503730B2 (en) System and method of extracting plane features
JP2019096294A (en) Parallax estimation device and method
JP2013101045A (en) Recognition device and recognition method of three-dimensional position posture of article
JP2016099941A (en) System and program for estimating position of object
JP6566768B2 (en) Information processing apparatus, information processing method, and program
JP5367244B2 (en) Target detection apparatus and target detection method
JP5743935B2 (en) Object detection apparatus and object detection method
JP6410231B2 (en) Alignment apparatus, alignment method, and computer program for alignment
JP6042146B2 (en) Object detection apparatus and object detection method
JP2018055367A (en) Image processing device, image processing method, and program
CN104937608B (en) Road area detection
CN111553342B (en) Visual positioning method, visual positioning device, computer equipment and storage medium
KR101696089B1 (en) Method and apparatus of finding object with imaging sonar
KR101705330B1 (en) Keypoints Selection method to Find the Viewing Angle of Objects in a Stereo Camera Image
JP2011053138A (en) Radar image processing apparatus
JP2013114381A (en) Object identification device and object identification method
KR102410300B1 (en) Apparatus for measuring position of camera using stereo camera and method using the same
JP2010009236A (en) Plane area estimation device and program
JP2015045919A (en) Image recognition method and robot

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20130731

RD07 Notification of extinguishment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7427

Effective date: 20140319