JP2013114381A - Object identification device and object identification method - Google Patents
Object identification device and object identification method Download PDFInfo
- Publication number
- JP2013114381A JP2013114381A JP2011258868A JP2011258868A JP2013114381A JP 2013114381 A JP2013114381 A JP 2013114381A JP 2011258868 A JP2011258868 A JP 2011258868A JP 2011258868 A JP2011258868 A JP 2011258868A JP 2013114381 A JP2013114381 A JP 2013114381A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- candidate
- luminance
- image
- candidate area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Measurement Of Optical Distance (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、例えば誘導飛翔体の発射装置もしくは誘導飛翔体自身に搭載され、対象物を識別し追尾するために用いられる対象物識別装置に係り、特に移動する対象物を識別する技術に関する。 The present invention relates to an object identification device that is mounted on, for example, a launcher of a guided flying object or the guided flying object itself and used to identify and track an object, and more particularly to a technique for identifying a moving object.
飛来する対象物(以下、移動対象物)に向けて地上側から発射される誘導飛翔体を誘導する誘導システムにあっては、赤外線カメラ等の撮像機器を利用する方法が知られている。この方法は、撮像機器で移動対象物の方向を撮影し、撮影によって取得された赤外線等による画像データを画像処理することにより輝度領域分布による画像を生成する。そして、画像中の高輝度領域を移動対象物として抽出し、抽出された各領域の輝度最大値、最小値、平均輝度、大きさなどの画像特徴量を演算し、これらの画像特徴量を基に、予め用意される影像パターンに最も近い領域を移動対象物と識別し追尾誘導する。 A method using an imaging device such as an infrared camera is known for a guidance system that guides a guided flying object launched from the ground side toward a flying object (hereinafter referred to as a moving object). In this method, the direction of a moving object is photographed with an imaging device, and image data based on infrared rays or the like acquired by photographing is image-processed to generate an image based on a luminance region distribution. Then, a high brightness area in the image is extracted as a moving object, and image feature values such as maximum brightness value, minimum value, average brightness, and size of each extracted area are calculated, and based on these image feature values. In addition, the region closest to the image pattern prepared in advance is identified as a moving object and guided for tracking.
ところで、実際には、地表や雲のような対象物と紛らわしい物体が画像内に入り込んで、移動対象物の背景にその移動対象物と同様な輝度を示す領域が存在することが多々ある。この場合、画像特微量だけでは移動対象物を背景と区別して的確に認識することが困難である。そこで、従来では、このような状態においても的確に移動対象物を識別するために、連続的に得られる各画像データから関連領域を抽出し、各領域の動きを反映する特微量を抽出し、これを基に移動対象物を背景と区別する技術が存在する。 Actually, in many cases, objects that are confused with objects such as the surface of the earth or clouds enter the image, and there are many areas that have the same luminance as the moving object in the background of the moving object. In this case, it is difficult to accurately recognize the moving object by distinguishing it from the background using only the image features. Therefore, conventionally, in order to accurately identify a moving object even in such a state, a related area is extracted from each image data obtained continuously, and a feature amount reflecting the movement of each area is extracted, There is a technique for distinguishing a moving object from a background based on this.
但し、既存の技術の多くは、赤外線画像のうち輝度の高い領域を抽出し、抽出された領域の重心の座標をその領域の位置として定義し、各領域の位置(重心座標)の移動により、移動する対象物として検出するようにしている。 However, many of the existing technologies extract a high luminance area from the infrared image, define the coordinates of the center of gravity of the extracted area as the position of the area, and by moving the position of each area (center of gravity coordinates), It is detected as a moving object.
しかしながら、上記の手法では、コントラストの変化やノイズの影響によって領域の形状が変化するので、重心の座標も容易に変化してしまうことになる。このため、領域が静止している状態でもコントラストの変化やノイズの影響により重心位置が変化し、誤った領域の動きが検出されることがある。このような誤検出は、目標とする移動対象物が近くに存在し、その見かけ上の動きが大きければあまり影響しないが、目標が遠方に存在し見かけ上の動きの大きさが微小であれば深刻な影響を及ぼすことになる。 However, in the above method, since the shape of the region changes due to a change in contrast or the influence of noise, the coordinates of the center of gravity easily change. For this reason, even when the area is stationary, the position of the center of gravity may change due to a change in contrast or the influence of noise, and an erroneous movement of the area may be detected. Such false detection does not affect much if the target moving object is nearby and the apparent movement is large, but if the target is far away and the apparent movement is small. It will have a serious impact.
例えば、特許文献1にある目標検出装置は、ガウス分布形状で作成したテンプレートと赤外線画像データ上の像をマッチングさせることで、遠方にある見かけ上小さい対象物を検出することを可能としているが、対象物の元々の像が小さいために同程度の大きさを持った像が同じ画像内に存在する場合、誤識別を起こしてしまう可能性があった。
For example, the target detection device disclosed in
以上のように、既存の対象物識別技術では、コントラストの変化やノイズの影響により重心位置が変化し、誤った領域の動きが検出されることがあり、移動対象物が遠方に存在して見かけ上の像の動きが微小な場合には、同じ画像内に存在する同程度の像を誤識別してしまうおそれがある等、深刻な影響を及ぼすことになる。 As described above, with the existing object identification technology, the position of the center of gravity may change due to the change in contrast or the influence of noise, and the movement of the wrong area may be detected. When the movement of the upper image is very small, there is a serious influence such as the possibility that the same image existing in the same image may be erroneously identified.
本実施形態は上記の問題を解決するためになされたもので、取得した画像のコントラストの変化やノイズの影響を受けることなく、その画像からより確実に移動対象物を検出し識別することのできる対象物識別装置および対象物識別方法を提供することを目的とする。 The present embodiment has been made to solve the above problem, and can detect and identify a moving object more reliably from an image without being affected by a change in contrast or noise of the acquired image. An object is to provide an object identification device and an object identification method.
上記の課題を解決するために、本実施形態によれば、画像データ取得手段にて対象物を撮影した画像データを規定のレートで順次取得し、画素間位置検出手段にて順次取得される複数の画像データ間の相対位置を検出し、候補領域抽出手段にて前記相対位置から前記複数の画像データ間の差分を検出しその差分を前記対象物の候補領域として1つもしくは複数抽出し、移動量検出手段にて前記複数の画像データにわたって前記候補領域の移動量を検出し、解像度向上手段にて前記移動量を基に前記候補領域の解像度を向上させる。一方、予め対象物のモデルパターンをモデル記憶手段に記憶しておき、対象物識別手段にて、解像度を向上させた候補領域と記憶されたモデルパターンとを比較して対象物を識別する。 In order to solve the above-described problem, according to the present embodiment, a plurality of image data obtained by photographing an object by an image data obtaining unit are sequentially obtained at a prescribed rate, and sequentially obtained by an inter-pixel position detecting unit. The relative position between the image data is detected, the difference between the plurality of image data is detected from the relative position by the candidate area extracting means, and one or more of the differences are extracted as candidate areas of the object, and moved. A moving amount of the candidate area is detected over the plurality of image data by a quantity detecting means, and a resolution of the candidate area is improved based on the moving amount by a resolution improving means. On the other hand, the model pattern of the object is stored in advance in the model storage means, and the object identification means identifies the object by comparing the candidate area whose resolution has been improved with the stored model pattern.
以下、図面を参照して本実施形態に係る対象物位置検出装置を説明する。 Hereinafter, the object position detection apparatus according to the present embodiment will be described with reference to the drawings.
(実施形態1)
まず、図1から図7を用いて実施形態1を説明する。
(Embodiment 1)
First,
図1は、実施形態1における対象物識別装置の構成及び機能を示すブロック図である。この対象物識別装置は、画像データ取得部100を備える。この画像データ取得部100は赤外線撮像カメラ等で構成され、移動対象物に向けて撮影することで移動対象物を含む電磁波画像データを取得するもので、取得された電磁波画像データは高輝度領域抽出部101に送られる。
FIG. 1 is a block diagram illustrating the configuration and functions of an object identification device according to the first embodiment. This object identification device includes an image
この高輝度領域抽出部101は、取得された電磁波画像データの輝度情報に対して輝度閾値を超える領域を高輝度領域として抽出するもので、抽出された高輝度領域の情報は画像間位置検出部102に送られる。この画像間位置検出部102は、抽出された高輝度領域から構成される画像データのうち複数の画像データ間の相対位置関係を検出するもので、検出された相対位置関係は候補領域抽出部103に送られる。
The high luminance
上記候補領域抽出部103は、検出された画像データ間の相対位置関係より画像データ間の差分を抽出し、その差分を対象物の候補領域とするもので、ここで候補領域として抽出される画像データ間の差分の情報は移動量検出部104に送られる。この移動量検出部104は、抽出された複数の画像データにわたる候補領域について、それぞれの移動量を検出するもので、検出された候補領域の移動量の情報は解像度向上部105に送られる。
The candidate
上記解像度向上部105は、検出された候補領域の移動量の情報から複数の画像データにわたる候補領域を重ね合わせることで候補領域の解像度を向上させるもので、これによって高解像度化された候補領域の情報は対象物識別部106に送られる。この対象物識別部106は、予め移動対象物のモデルパターンが記憶させたモデル記憶部107からモデルパターンを読み出し、このモデルパターンを基に高解像度化された候補領域が対象物か否か識別する。
The
以下に、本実施形態1の対象物識別装置の動作について詳述する。
Hereinafter, the operation of the object identification device of
本実施形態1の対象物識別装置は、電磁波画像データから対象物を抽出し識別する。まず、画像データ取得部100により、電磁波画像データ300が取得される。例えば、この画像データ取得部100には赤外線カメラが利用される。この場合、電磁波画像データ300は赤外線画像である。この画像データ取得部100で取得された画像データは一定のレートで高輝度領域抽出部101に出力される。
The object identification device according to the first embodiment extracts and identifies an object from electromagnetic wave image data. First, the electromagnetic wave image data 300 is acquired by the image
高輝度領域抽出部101では、入力画像データから設定された閾値より高い輝度を示す画素を抽出し、それ以外の画素の情報を除外する。識別する対象物は画像データの中で相対的に高い輝度で撮像されることが前提にあり、この段階で輝度値が低い画素を除外することで後段の処理を軽減することができる。尚、この処理を飛ばして次の処理へまわすことも可能である。
The high brightness
画像間位置検出部102では、画像データ取得部100で得られた複数の画像データ、もしくは高輝度領域抽出部101により低輝度領域を除外された画像データから、画像データ間の相対位置関係を算出する。例えば本装置が誘導飛翔体に搭載された場合には、撮影位置が時々刻々と変化するため、画像データ間で背景の位置が異なる。
The inter-image
図2は対象物識別装置の移動に伴い、背景が移動する様子を示している。図2に示すように、連続する画像データ300aおよび300bそれぞれの画像間では背景の位置が異なる。この場合、画像内で背景が移動することから、その中で移動する対象物を検出することは困難である。そこで、画像間位置検出部102により画像データ間での背景の相対位置を算出する。
FIG. 2 shows how the background moves as the object identification device moves. As shown in FIG. 2, the position of the background differs between the images of the
図3は、画像間位置検出部102により実施される処理の様子を示している。画像間位置検出部102では、画像データ300aの画像に対して画像データ300bの画像と比較するための比較領域400を設定する。この比較領域400を画像データ300bの画像に対して1画素ずつずらしながら比較走査401を実施し、各位置で輝度の相関値を計算するマッチング処理を実施する。そして、それら相関値を並べた評価画像を作成する。
FIG. 3 shows a state of processing performed by the inter-image
次に、画像間位置検出部102は、評価画像の中で最も相関値の高い位置を検索し、最大評価位置を求め、その位置に基づいて画像データ間の相対位置を算出する。これにより、2枚の画像データ間の画素単位での相対位置を検出することができる。さらに、2次曲面を用いたマッチングにより、1画素以下の微小なサブピクセルオーダーでの相対位置検出も可能である。
Next, the inter-image
評価画像における相対値は、2次曲面に沿って変化すると仮定すると、画素レベルで求めた最大評価位置を中心とする、左右1画素の座標配列3点と、上下1画素の座標配列3点を用いて、それぞれ2次多項式を解くことで、2次曲面の頂点位置を求めることができる。その分解能は1画素以下になる。例えば、画素レベルで求めた最大評価位置の座標を(w,s)とすると、それを中心とする(w−1,s)、(w,s)、(w+1,s)の3点と、(w,s−1)、(w,s)、(w,s+1)の3点によりそれぞれ2次多項式を解くことで、1画素以下の分解能で2次曲面の頂点位置を求めることができる。したがって、相対位置の検出の精度を高くすることができる。 Assuming that the relative value in the evaluation image changes along the quadratic curved surface, three coordinate arrays of one pixel left and right and three coordinate arrays of one pixel above and below are centered on the maximum evaluation position obtained at the pixel level. The vertex position of the quadric surface can be obtained by solving the quadratic polynomial. The resolution is 1 pixel or less. For example, assuming that the coordinates of the maximum evaluation position obtained at the pixel level are (w, s), three points (w−1, s), (w, s), (w + 1, s) centered on the coordinates, By solving the quadratic polynomial from each of the three points (w, s-1), (w, s), and (w, s + 1), the vertex position of the quadric surface can be obtained with a resolution of one pixel or less. Therefore, the accuracy of detecting the relative position can be increased.
候補領域抽出部103では、前記画像間位置検出部102により求められた相対位置を基に重ね合わせ、差分として残る領域を対象物が存在する可能性のある領域、候補領域として抽出する。図4(a)は、図3における画像データ300aの画像と画像データ300bの画像との差分を取った結果の例であり、それぞれの差分画像データ500aと500bに対応する。ここでは、候補領域は501aと501bとなる。
The candidate
ただし、実際には、図4(b)(図上の候補領域のそれぞれ形状は説明しやすく模式的に示したもので、実際のものとは異なる)に示すように差分として残存する領域が複数存在することが多く、これら残存領域から真の対象物を抽出する必要がある。本実施形態はこれを解決するものであり、以降の処理部において残存領域の識別が実行される。 However, in practice, there are a plurality of regions remaining as differences as shown in FIG. 4B (the shape of each candidate region on the diagram is schematically illustrated for easy explanation and is different from the actual one). In many cases, it is necessary to extract a true object from these remaining areas. The present embodiment solves this, and the remaining areas are identified in the subsequent processing units.
移動量検出部104では、まず、画像データにおける候補領域内の各画素とその近傍画素との、輝度差と輝度差の方向とを示す微分画像が生成される。微分画像の算出にあたっては、次式(1)が用いられる。式(1)において大文字のIは画素ごとの輝度値であり、i,jは画素を区別するためのインデックスである。
各画素においてこの値が算出される。この値を輝度差方向の情報と称しており、より一般的に(Rx,Ry)で示される。 This value is calculated for each pixel. This value is referred to as information on the luminance difference direction, and is more generally represented by (Rx, Ry).
次に、移動量検出部104では、候補領域抽出部103で抽出された各領域の位置を以下のようにして算出する。図5は、抽出された領域の位置を算出する処理に用いられるテンプレートの一例を示す図である。移動量検出部104は、候補領域抽出部103で抽出された領域の画素ごとに、その輝度を、例えばガウス分布などの釣鐘型の2次元輝度分布を仮定して類似値に換算する。そして、この類似値の集合として得られる類似値画像を生成し、この類似値画像をもとに各候補領域の位置を算出する。
Next, the movement
ガウス分布は中央に頂点を持ち、中央から周辺に向かって傾斜していくような値を持つ。これを図示すると、図5に示すように、輝度差方向は周辺から頂点に向かって指向するように分布する。図5に示す矢印は、2次元の画像中において、「輝度値は対象物を頂点としてその周囲にガウス分布で分布する」と仮定した場合の輝度差方向を示す。図5では5×5の画素領域において中央の画素が最大の画素値を持つとする。 The Gaussian distribution has a vertex at the center and a value that inclines from the center toward the periphery. As shown in FIG. 5, the luminance difference direction is distributed so as to be directed from the periphery toward the apex. The arrows shown in FIG. 5 indicate the direction of luminance difference when it is assumed that “the luminance value is distributed in a Gaussian distribution around the object as a vertex” in the two-dimensional image. In FIG. 5, it is assumed that the center pixel has the maximum pixel value in a 5 × 5 pixel region.
移動量検出部104では、図5に示すガウス分布の輝度差方向をテンプレートとして、候補領域抽出部103で抽出された画素に対応する微分画像の画素を順次走査し、各画素で次式(2)を用いて類似値を算出する。この類似値を配列することで類似値画像が得られる。
式(2)においてKが類似値であり、θは輝度値方向とテンプレートとのなす角である。式(2)の最下段の式では、図6に示す微分画像の輝度差方向(Rθ)とテンプレートの輝度差方向(Tθ)との差、すなわちDθ(=|Rθ−Tθ|)を180度で正規化した値を1から減算している。これにより輝度差方向が一致すると類似値は1になり、正反対であれば類似値は0になる。その値に寄与率(α)を考慮する。つまり、輝度差方向の一致率に応じた係数を作成し、その係数に基づいた輝度差を累積加算することで、類似値Kを算出する。この類似値Kを評価することで画像フレームにおける輝度差方向の分布をガウス分布にマッチングさせることができ、各候補領域の位置を算出することができる。 In Equation (2), K is a similar value, and θ is an angle formed by the luminance value direction and the template. In the lowermost expression of Expression (2), the difference between the luminance difference direction (Rθ) of the differential image and the luminance difference direction (Tθ) of the template shown in FIG. 6, that is, Dθ (= | Rθ−Tθ |) is 180 degrees. The value normalized by is subtracted from 1. Accordingly, the similarity value becomes 1 when the luminance difference directions coincide with each other, and the similarity value becomes 0 if the opposite directions are opposite. The contribution rate (α) is taken into consideration for the value. That is, the similarity value K is calculated by creating a coefficient corresponding to the matching rate in the luminance difference direction and accumulating the luminance differences based on the coefficient. By evaluating the similarity value K, the distribution in the luminance difference direction in the image frame can be matched with the Gaussian distribution, and the position of each candidate region can be calculated.
尚、加算すべきデータに判断条件を設けてもよい。具体的には、ガウス分布の各画素の輝度差方向は点対称であることを利用する。図5から分かるようにAFの画素(左上)の輝度差方向とEJの画素の輝度差方向とは正反対である。また、EFとAJの画素の輝度差方向は、それぞれAFとEJの画素の輝度差方向に直交する。このことを利用して、例えばAF、EF、AJ、EJの4画素の輝度差方向の一致率がそれぞれ90度以内であれば、輝度差を加算するという判断条件とする。 A determination condition may be provided for the data to be added. Specifically, it is utilized that the luminance difference direction of each pixel of the Gaussian distribution is point symmetric. As can be seen from FIG. 5, the luminance difference direction of the AF pixel (upper left) is opposite to the luminance difference direction of the EJ pixel. Further, the luminance difference direction of the EF and AJ pixels is orthogonal to the luminance difference direction of the AF and EJ pixels, respectively. By using this fact, for example, if the coincidence ratios of the four pixels of AF, EF, AJ, and EJ in the luminance difference direction are each within 90 degrees, the determination condition is to add the luminance difference.
式(2)では画素ごとに値の加算を決定しているので、一致率が部分的に高い場合にも類似値が高くなる可能性があるが、上記の判断条件を設けることにより、周方向を加味して周方向の一致率が共に高い場合に類似値を高い値として算出することが可能になる。つまり、周囲から頂点に向かって盛り上がるような輝度分布に高い得点を与えることができ、より的確に対象物の位置を捕らえられるようになる。 Since the value addition is determined for each pixel in Expression (2), the similarity value may increase even when the coincidence rate is partially high. However, by providing the above determination condition, the circumferential direction In consideration of the above, it is possible to calculate the similarity value as a high value when the circumferential matching rate is high. That is, a high score can be given to the luminance distribution that rises from the surroundings toward the apex, and the position of the object can be captured more accurately.
また、移動量検出部104では、候補領域抽出部103により抽出された候補領域ごとに類似値の値を探索し、最も値の高い座標(w,s)を各候補領域の位置と定義する。これにより、対象物の輝度分布をガウス分布と仮定した場合に、対象物の位置である可能性が最も高い位置を画素レベルで定義することができる。この段階で、図4(c)に示すように、各候補領域における最大類似値がユーザによって任意に設定される閾値を下回る場合は除外し、閾値を上回る領域501a,501bのみを候補領域として抽出することも可能である。
Further, the movement
さらに、移動量検出部104では、画像間位置検出部101と同様に、サブピクセルでの位置検出を行うことが可能である。すなわち、類似値画像における類似値は2次曲面に沿って変化すると仮定する。そこで、例えば画素レベルで求めた(w,s)を中心とする(w−1,s)、(w,s)、(w+1,s)の3点と、(w,s−1)、(w,s)、(w,s+1)の3点によりそれぞれ2次多項式を解くことで、1画素以下の精度で2次曲面の頂点位置を求めることができる。したがって、位置検出の精度をさらに高くすることができる。
Further, the movement
以上の処理により、各画像データにおける各候補領域の位置が抽出され、これらの位置情報および画像データ間の相対位置関係を加味することで各候補領域の画像データ間における移動量がサブピクセル単位で算出される。 Through the above processing, the position of each candidate area in each image data is extracted, and the amount of movement between the image data of each candidate area is sub-pixel united by taking into account the positional information and the relative positional relationship between the image data. Calculated.
解像度向上部105においては、複数の画像データ上にある候補領域の像を重ね合わせることで解像度を向上させる。元の画像データの画素よりも小さい単位、サブピクセルの分解能で画像を重ね合わせることができれば、元の画像よりも小さい画素を生成することができる。図7では、2枚の画像を重ね合わせることで、2倍の解像度を持つ画像が生成される様子を描いている。重ね合わせた際、高解像度画像の画素502上には2つの値が存在している。例えば、高解像度画像の画素502の値を一意に決める方法としては、それらの平均を取る方法が最も簡単である。
In the
上記移動量検出部104では、各候補領域の移動量をサブピクセル単位で算出されているため、上記の原理により、この移動量を基に重ね合わせることで解像度を高めることができる。上記では2枚の画像を重ね合わせる例を示したが、2枚に限らずさらに多くの画像を重ね合わせることで、より候補領域の像の解像度を高めることが可能となる。
In the movement
対象物識別部106においては、上記解像度向上部105において解像度を向上させた候補領域の像を用いて、その候補領域が対象物を示しているものか否かを識別する。この識別処理の際には、予め、モデル記憶部107に識別・追尾対象物のモデルパターンを記憶させておき、その記憶されているモデルパターンとの類似度が高いものを対象物として識別する。このモデル記憶部107においては、対象物のモデルパターンを電磁波画像データとして記憶しておくことも可能であり、ガウス分布のような釣鐘型分布としてパラメトリックに記憶しておくことも可能である。この類似度を算出する方法としては、輝度情報同士をマッチングさせてもよいし、前述のような分布形状を基にした類似度算出によってもよい。
The
図8は、実施形態1における対象物識別装置の処理の流れを示すフローチャートである。すなわち、この対象物識別装置では、移動対象物を含む赤外線画像データを取得すると(ステップS1)、取得された赤外線画像データの輝度情報に対して輝度閾値を超える領域を高輝度領域として抽出し(ステップS2)、抽出された高輝度領域から構成される画像データのうち複数の画像データ間の相対位置関係を算出し(ステップS3)、検出された画像データ間の相対位置関係より画像データ間の差分を対象物の候補領域として抽出する(ステップS4)。続いて、候補領域として抽出される画像データ間の差分の情報から候補領域の移動量をサブピクセル単位で検出し(ステップS5)、検出された候補領域の移動量の情報から複数の画像データにわたる候補領域を重ね合わせることで候補領域の解像度を向上させ(ステップS6)、これによって高解像度化された候補領域を移動対象物のモデルパターンと比較し、その比較結果から高解像度化された候補領域が対象物か否か識別する(ステップS7)。 FIG. 8 is a flowchart illustrating a processing flow of the object identification device according to the first embodiment. That is, in this object identification device, when infrared image data including a moving object is acquired (step S1), an area exceeding the luminance threshold is extracted as a high luminance area with respect to the luminance information of the acquired infrared image data ( Step S2) calculates a relative positional relationship between a plurality of pieces of image data out of the image data composed of the extracted high-intensity region (Step S3), and calculates the image data based on the relative positional relationship between the detected image data. The difference is extracted as a candidate area for the object (step S4). Subsequently, the movement amount of the candidate area is detected in units of subpixels from the information on the difference between the image data extracted as the candidate area (step S5), and a plurality of pieces of image data are covered from the information on the movement amount of the detected candidate area. The resolution of the candidate area is improved by superimposing the candidate areas (step S6), the candidate area that has been increased in resolution is compared with the model pattern of the moving object, and the candidate area that has been increased in resolution from the comparison result Is identified as an object (step S7).
以上説明したようにこの実施形態1による対象物識別装置では、目標の周囲の輝度分布がガウス分布のような釣鐘型状に分布すると仮定し、候補領域から目標位置を特定する際にも釣鐘型分布とのマッチングを取り、ガウス曲線の頂点の座標を目標位置と定義することで、サブピクセルでの位置検出を行うようにしている。さらに、サブピクセル単位での移動量を利用することにより、画像データの解像度を向上させることが可能となり、対象物の大きさが微小な場合においても識別可能なレベルまで識別性能を高めることができる。 As described above, in the object identification device according to the first embodiment, it is assumed that the luminance distribution around the target is distributed in a bell shape like a Gaussian distribution, and the bell shape is also used when specifying the target position from the candidate region. By matching with the distribution and defining the coordinates of the vertices of the Gaussian curve as the target position, the position detection at the sub-pixel is performed. Furthermore, by using the amount of movement in sub-pixel units, it is possible to improve the resolution of the image data, and it is possible to improve the discrimination performance to a level that allows discrimination even when the size of the object is small. .
(実施形態2)
図9を用いて実施形態2を説明する。
(Embodiment 2)
The second embodiment will be described with reference to FIG.
図9は、実施形態2における対象物識別装置の構成を示すブロック図である。但し、図9において、図1と同一部分には同一符号を付して示し、ここでは異なる部分を中心に説明する。 FIG. 9 is a block diagram illustrating a configuration of the object identification device according to the second embodiment. However, in FIG. 9, the same parts as those in FIG. 1 are denoted by the same reference numerals, and different parts will be mainly described here.
この対象物識別装置は、実施形態1における対象物識別装置の構成において、取得高度情報取得部108と姿勢情報取得部109を追加した構成となっている。高度情報取得部108は、本対象物識別装置が存在する高度の情報を取得するもので、例えば、高度情報取得部108はGPSから位置情報を取得するものや、圧力計による気圧の変化により高度を測定するものが考えられる。また、姿勢情報取得部109は、画像データ取得部100が指向している方向・姿勢情報を取得するもので、例えばジャイロセンサなどが考えられる。
This object identification device has a configuration in which an acquired altitude
上記構成において、以下にその動作を説明する。 The operation of the above configuration will be described below.
まず、実施形態1と同様に画像データ取得部100で画像データが取得されるが、それと同時に高度情報取得部108により本対象物識別装置が存在する高度が取得され、姿勢情報取得部109により画像データ取得部100が指向している方向・姿勢情報が取得される。これらの高度および姿勢情報が候補領域抽出部103に入力され、飛行ルートにおいて存在しえない候補領域を除外することができる。例えば、水面上空を対象物が飛行する場合、水面に像が反射し、候補領域として抽出される可能性がある。しかしながら、候補領域抽出部103の除外機能の働きにより、地表上に観察される候補領域を除外することができ、後段の対象物識別部106における識別処理における誤識別を防ぐことができる。
First, image data is acquired by the image
この実施形態2の対象物識別装置によれば、対象物の反射像が画像データ中に存在する場合においても、それを除外することができ、誤識別を防ぐことができる。 According to the object identification device of the second embodiment, even when a reflection image of the object is present in the image data, it can be excluded and erroneous identification can be prevented.
尚、この発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.
100…画像データ取得部、101…高輝度領域抽出部、102…画像間位置検出部、103…候補領域抽出部、104…移動量検出部、105…解像度向上部、106…対象物識別部、107…モデル記憶部、108…高度情報取得部、109…姿勢情報取得部。
DESCRIPTION OF
Claims (8)
前記画像データ取得手段で順次取得される複数の画像データ間の相対位置を検出する画像間位置検出手段と、
前記相対位置から前記複数の画像データ間の差分を検出しその差分を前記対象物の候補領域として1つもしくは複数抽出する候補領域抽出手段と、
前記複数の画像データにわたって前記候補領域の移動量を検出する移動量検出手段と、
前記移動量を基に前記候補領域の解像度を向上させる解像度向上手段と、
予め前記対象物のモデルパターンを記憶する記憶手段と、
前記解像度を向上させた候補領域と前記モデルパターンとを比較して対象物を識別する識別手段と
を具備することを特徴とする対象物識別装置。 Image data acquisition means for sequentially acquiring image data obtained by photographing an object at a prescribed rate;
An inter-image position detecting means for detecting a relative position between a plurality of image data sequentially acquired by the image data acquiring means;
Candidate area extraction means for detecting a difference between the plurality of image data from the relative position and extracting one or a plurality of the differences as candidate areas of the object;
A movement amount detecting means for detecting a movement amount of the candidate region over the plurality of image data;
Resolution improving means for improving the resolution of the candidate area based on the amount of movement;
Storage means for storing a model pattern of the object in advance;
An object identification apparatus comprising: identification means for comparing the candidate area with improved resolution and the model pattern to identify an object.
順次取得される複数の画像データ間の相対位置を検出し、
前記相対位置から前記複数の画像データ間の差分を検出してその差分を前記対象物の候補領域として1つもしくは複数抽出し、
前記複数の画像データにわたって前記候補領域の移動量を検出し、
前記移動量を基に前記候補領域の解像度を向上させ、
予め記憶される前記対象物のモデルパターンと前記解像度を向上させた候補領域と前記モデルパターンとを比較して対象物を識別することを特徴とする対象物識別方法。 The image data obtained by photographing the object is sequentially acquired at the specified rate,
Detect the relative position between multiple image data acquired sequentially,
Detecting a difference between the plurality of image data from the relative position and extracting the difference as one or a plurality of candidate areas of the object;
Detecting the amount of movement of the candidate region over the plurality of image data;
Improve the resolution of the candidate area based on the amount of movement;
A method for identifying an object, comprising: comparing a model pattern of the object stored in advance, a candidate area with improved resolution, and the model pattern;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011258868A JP2013114381A (en) | 2011-11-28 | 2011-11-28 | Object identification device and object identification method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011258868A JP2013114381A (en) | 2011-11-28 | 2011-11-28 | Object identification device and object identification method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013114381A true JP2013114381A (en) | 2013-06-10 |
Family
ID=48709892
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011258868A Pending JP2013114381A (en) | 2011-11-28 | 2011-11-28 | Object identification device and object identification method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013114381A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015148939A (en) * | 2014-02-06 | 2015-08-20 | 三菱電機株式会社 | Image positioning device and image positioning method |
JP2015207234A (en) * | 2014-04-23 | 2015-11-19 | 株式会社Ihi | debris detection method |
CN113255696A (en) * | 2021-05-25 | 2021-08-13 | 深圳市亚辉龙生物科技股份有限公司 | Image recognition method and device, computer equipment and storage medium |
CN113255696B (en) * | 2021-05-25 | 2024-05-24 | 深圳市亚辉龙生物科技股份有限公司 | Image recognition method, device, computer equipment and storage medium |
-
2011
- 2011-11-28 JP JP2011258868A patent/JP2013114381A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015148939A (en) * | 2014-02-06 | 2015-08-20 | 三菱電機株式会社 | Image positioning device and image positioning method |
JP2015207234A (en) * | 2014-04-23 | 2015-11-19 | 株式会社Ihi | debris detection method |
CN113255696A (en) * | 2021-05-25 | 2021-08-13 | 深圳市亚辉龙生物科技股份有限公司 | Image recognition method and device, computer equipment and storage medium |
CN113255696B (en) * | 2021-05-25 | 2024-05-24 | 深圳市亚辉龙生物科技股份有限公司 | Image recognition method, device, computer equipment and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10515271B2 (en) | Flight device and flight control method | |
US20170308103A1 (en) | Flight device, flight control system and method | |
JP5618569B2 (en) | Position and orientation estimation apparatus and method | |
JP5671281B2 (en) | Position / orientation measuring apparatus, control method and program for position / orientation measuring apparatus | |
JP6394081B2 (en) | Image processing apparatus, image processing system, image processing method, and program | |
JP6736257B2 (en) | Information processing device, information processing method, and program | |
US8503730B2 (en) | System and method of extracting plane features | |
JP2019096294A (en) | Parallax estimation device and method | |
JP2013101045A (en) | Recognition device and recognition method of three-dimensional position posture of article | |
JP2016099941A (en) | System and program for estimating position of object | |
JP6566768B2 (en) | Information processing apparatus, information processing method, and program | |
JP5367244B2 (en) | Target detection apparatus and target detection method | |
JP5743935B2 (en) | Object detection apparatus and object detection method | |
JP6410231B2 (en) | Alignment apparatus, alignment method, and computer program for alignment | |
JP6042146B2 (en) | Object detection apparatus and object detection method | |
JP2018055367A (en) | Image processing device, image processing method, and program | |
CN104937608B (en) | Road area detection | |
CN111553342B (en) | Visual positioning method, visual positioning device, computer equipment and storage medium | |
KR101696089B1 (en) | Method and apparatus of finding object with imaging sonar | |
KR101705330B1 (en) | Keypoints Selection method to Find the Viewing Angle of Objects in a Stereo Camera Image | |
JP2011053138A (en) | Radar image processing apparatus | |
JP2013114381A (en) | Object identification device and object identification method | |
KR102410300B1 (en) | Apparatus for measuring position of camera using stereo camera and method using the same | |
JP2010009236A (en) | Plane area estimation device and program | |
JP2015045919A (en) | Image recognition method and robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20130731 |
|
RD07 | Notification of extinguishment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7427 Effective date: 20140319 |