JP5325822B2 - Object identification device - Google Patents

Object identification device Download PDF

Info

Publication number
JP5325822B2
JP5325822B2 JP2010065228A JP2010065228A JP5325822B2 JP 5325822 B2 JP5325822 B2 JP 5325822B2 JP 2010065228 A JP2010065228 A JP 2010065228A JP 2010065228 A JP2010065228 A JP 2010065228A JP 5325822 B2 JP5325822 B2 JP 5325822B2
Authority
JP
Japan
Prior art keywords
image data
similarity
evaluation value
target image
state pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010065228A
Other languages
Japanese (ja)
Other versions
JP2011196633A (en
Inventor
美徳 佐藤
徹郎 相川
隆裕 小柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2010065228A priority Critical patent/JP5325822B2/en
Publication of JP2011196633A publication Critical patent/JP2011196633A/en
Application granted granted Critical
Publication of JP5325822B2 publication Critical patent/JP5325822B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、対象物識別装置に関する。   The present invention relates to an object identification device.

従来の対象物識別装置は、近赤外線波長領域の画像データ及び遠赤外線波長領域の画像データの2波長領域の画像データを利用して、対象物とフレアとの赤外線特性の違いを利用した減算手段により対象物を識別する技術が知られている(例えば、特許文献1参照)。また、近赤外線領域の画像データ及び中赤外線領域の画像データを利用して対象物の本体情報、フレアの画像情報を抽出し、それらに基づいて対象物を識別する技術が知られている(例えば、特許文献2参照)。   A conventional object identification device uses a subwavelength image data in a near-infrared wavelength region and image data in a two-wavelength region of image data in a far-infrared wavelength region, and uses a difference in infrared characteristics between the object and a flare. There is known a technique for identifying an object by using (see, for example, Patent Document 1). Further, there is known a technique for extracting main body information and flare image information of an object using image data in the near infrared region and image data in the middle infrared region, and identifying the object based on them (for example, , See Patent Document 2).

特開平6−174828号公報JP-A-6-174828 特許第3431206号Japanese Patent No. 3431206

従来の対象物識別装置は、対象物が遠行状態に(撮像装置に対して対象物が遠方へ進行している状態)ある場合、対象物とフレアの絶対温度及びその温度分布は似通ったものとなり、誤識別が生じ誤誘導を招く恐れがあり、信頼性を欠いていた。   The conventional object identification device has a similar absolute temperature and temperature distribution of the object and flare when the object is in a long-distance state (a state where the object is moving far away from the imaging device). As a result, misidentification may occur and misleading may occur, and reliability is lacking.

そこで本発明は、対象物が遠行状態にある場合においても正確に目標を識別することが出来る信頼性の高い対象物識別装置を提供することを目的とする。   Therefore, an object of the present invention is to provide a highly reliable object identification device that can accurately identify a target even when the object is in a traveling state.

上記目的を達成する為に請求項1記載の対象物識別装置は、第1の波長帯での画像データである第1の画像データと、第2の波長帯での画像データである第2の画像データとを同じ視野で取得する画像データ取得手段と、前記第1の画像データ及び前記第2の画像データのうち一方を一次対象画像データ、もう一方を二次対象画像データと設定する画像データ設定手段と、前記一次対象画像データ上での対象物の状態を示す第1の状態パターンを記憶する第1の記憶手段と、前記二次対象画像データ上での対象物の状態を示す第2の状態パターンを記憶する第2の記憶手段と、前記一次対象画像データ上において前記第1の状態パターンとの類似度を示す第1類似度評価値を算出する第1類似度算出手段と、前記第1の類似度評価値を基に対象物の候補位置を抽出する候補位置抽出手段と、前記候補位置において前記第2の状態パターンとの類似度を示す第2類似度評価値を算出する第2類似度算出手段と、前記第1類似度評価値、及び前記第2類似度評価値に基づいて前記視野内において対象物を識別する識別手段と、を有することを特徴とする。   In order to achieve the above object, the object identification device according to claim 1 includes first image data that is image data in the first wavelength band and second image data that is image data in the second wavelength band. Image data acquisition means for acquiring image data from the same field of view; image data for setting one of the first image data and the second image data as primary target image data and the other as secondary target image data Setting means; first storage means for storing a first state pattern indicating the state of the object on the primary target image data; and second indicating the state of the object on the secondary target image data. Second storage means for storing the state pattern, first similarity calculation means for calculating a first similarity evaluation value indicating a degree of similarity with the first state pattern on the primary target image data, and Based on the first similarity evaluation value Candidate position extracting means for extracting a candidate position of an object; second similarity calculating means for calculating a second similarity evaluation value indicating similarity to the second state pattern at the candidate position; and the first similarity Identification means for identifying an object in the field of view based on the degree evaluation value and the second similarity evaluation value.

本発明によれば、対象物が遠行状態にある場合においても正確に目標を識別することが出来る信頼性の高い対象物識別装置を提供することができる。   According to the present invention, it is possible to provide a highly reliable object identification device that can accurately identify a target even when the object is in a traveling state.

本発明の実施の形態1に係る対象物識別装置の構成を示す図。The figure which shows the structure of the target object identification apparatus which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る対象物識別装置の処理を示すフローチャート。The flowchart which shows the process of the target object identification apparatus which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る長波長赤外線画像データ及び中波長赤外線画像データを示す図。The figure which shows the long wavelength infrared image data and medium wavelength infrared image data which concern on Embodiment 1 of this invention. 本発明の実施の形態1に係る第1類似度評価値の算出方法を説明する図。The figure explaining the calculation method of the 1st similarity evaluation value which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る候補位置の抽出方法を説明する図。The figure explaining the extraction method of the candidate position which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る候補位置の抽出方法を説明する図。The figure explaining the extraction method of the candidate position which concerns on Embodiment 1 of this invention. 本発明の実施の形態2に係る対象物識別装置の構成を示す図。The figure which shows the structure of the target object identification apparatus which concerns on Embodiment 2 of this invention. 本発明の実施の形態2に係る対象領域の設定方法を説明する図。The figure explaining the setting method of the object area | region which concerns on Embodiment 2 of this invention. 本発明の実施の形態3に係る対象物識別装置の構成を示す図。The figure which shows the structure of the target object identification apparatus which concerns on Embodiment 3 of this invention. 本発明の実施の形態4に係る対象物識別装置の構成を示す図。The figure which shows the structure of the target object identification apparatus which concerns on Embodiment 4 of this invention.

以下、図面を参照して本発明の実施の形態を説明する。   Embodiments of the present invention will be described below with reference to the drawings.

(実施の形態1)
図1は、本発明の実施の形態1に係る対象物識別装置の構成を示す構成図である。図1に示すように対象物識別装置は、同じ視野の2波長帯(例えば、長波長帯及び中波長帯)の赤外線画像データを撮像する撮像系100、2波長帯の赤外線画像データのうちの一方(長波長帯の赤外線画像データ)を一次対象画像データ104として設定し、もう一方(中波長帯の赤外線画像データ)を二次対象画像データ105として設定する画像データ設定部103、画像データ設定部103から入力された一次対象画像データ104上での対象物の状態を示す第1の状態パターンを記憶する第1状態記憶部106(第1の記憶手段)、二次対象画像データ105上での対象物の状態を示す第2の状態パターンを記憶する第2状態記憶部107(第2の記憶手段)、一次対象画像データ104上で第1の状態パターンとの類似度を示す第1の類似度評価値を算出する第1類似度算出部108(第1類似度算出手段)、第1の類似度評価値を基に対象物の候補位置を抽出する候補位置抽出部109(候補位置抽出手段)、候補位置抽出部109において抽出された候補位置において第2の状態パターンとの類似度を示す第2の類似度評価値を算出する第2類似度算出部110(第2類似度算出手段)、第2類似度算出部110によって算出された第2の類似度評価値に基づいて視野内における対象物の存在領域を識別する評価識別部111(識別手段)を有している。
(Embodiment 1)
FIG. 1 is a configuration diagram showing the configuration of the object identification device according to Embodiment 1 of the present invention. As shown in FIG. 1, the object identification device includes an imaging system 100 that captures infrared image data of two wavelength bands (for example, a long wavelength band and a medium wavelength band) of the same field, and two of the infrared image data of the two wavelength bands. One (long-wavelength infrared image data) is set as primary target image data 104, and the other (medium-wavelength infrared image data) is set as secondary target image data 105. A first state storage unit 106 (first storage unit) that stores a first state pattern indicating a state of an object on the primary target image data 104 input from the unit 103; A second state storage unit 107 (second storage unit) that stores a second state pattern indicating the state of the target object, and indicates a similarity to the first state pattern on the primary target image data 104 A first similarity calculation unit 108 (first similarity calculation unit) that calculates one similarity evaluation value, and a candidate position extraction unit 109 (candidate) that extracts a candidate position of an object based on the first similarity evaluation value Position extraction means), a second similarity calculation unit 110 (second similarity) that calculates a second similarity evaluation value indicating the similarity to the second state pattern at the candidate position extracted by the candidate position extraction unit 109 Calculation means), and an evaluation identification unit 111 (identification means) for identifying the existence region of the object in the field of view based on the second similarity evaluation value calculated by the second similarity calculation unit 110.

撮像系100は、ジンバル機構(図示しない)などにより駆動されて対象物に指向する。視野内の像はレンズ200、及びダイクロイックミラー201を介して長波長赤外線センサ202、及び中波長赤外線センサ203に案内される。ダイクロイックミラー201は、長波長の赤外線を透過し中波長の赤外線を反射するもので、レンズ200に対して後方に配置される。透過方向には長波長赤外線センサ202が配置され、反射方向には中波長赤外線センサ203が設けられている。   The imaging system 100 is driven by a gimbal mechanism (not shown) or the like and is directed to an object. An image in the field of view is guided to the long wavelength infrared sensor 202 and the medium wavelength infrared sensor 203 via the lens 200 and the dichroic mirror 201. The dichroic mirror 201 transmits long-wavelength infrared light and reflects medium-wavelength infrared light, and is disposed behind the lens 200. A long wavelength infrared sensor 202 is disposed in the transmission direction, and a medium wavelength infrared sensor 203 is provided in the reflection direction.

長波長赤外線センサ202は、案内されて結像した光学的画像を長波長赤外線画像データ101(第1の画像データ)に変換し、画像データ設定部103に出力する。一方、中波長赤外線センサ203は、案内されて結像した光学的画像を中波長赤外線画像データ102(第2の画像データ)に変換し、画像データ設定部103(画像データ設定手段)に出力する。   The long wavelength infrared sensor 202 converts the guided optical image into long wavelength infrared image data 101 (first image data), and outputs it to the image data setting unit 103. On the other hand, the medium wavelength infrared sensor 203 converts the guided optical image into medium wavelength infrared image data 102 (second image data) and outputs it to the image data setting unit 103 (image data setting means). .

図2は、本発明の実施の形態1に係る対象物識別装置の処理のフローチャートである。以下、図2を参照して対象物識別装置の行う処理について説明する。撮像系100は、ジンバル機構などにより駆動されて対象物に指向し、視野内の像はレンズ200、及びダイクロイックミラー201を介して長波長赤外線センサ202、及び中波長赤外線センサ203に案内される(St1)。   FIG. 2 is a flowchart of processing of the object identification device according to Embodiment 1 of the present invention. Hereinafter, processing performed by the object identification device will be described with reference to FIG. The imaging system 100 is driven by a gimbal mechanism or the like and is directed to an object, and an image in the field of view is guided to the long wavelength infrared sensor 202 and the medium wavelength infrared sensor 203 via the lens 200 and the dichroic mirror 201 ( St1).

長波長赤外線センサ202は、St1において案内されて結像した光学的画像を長波長赤外線画像データ101に変換し、画像データ設定部103に出力する。一方、中波長赤外線センサ203は、St1において案内されて結像した光学的画像を中波長赤外線画像データ102に変換し、画像データ設定部103に出力する(画像データ取得手段)(St2)。図3に画像データ設定部103に出力された長波長赤外線画像データ101、及び中波長赤外線画像データ102を示す。   The long-wavelength infrared sensor 202 converts the optical image guided and formed in St1 into the long-wavelength infrared image data 101 and outputs it to the image data setting unit 103. On the other hand, the medium wavelength infrared sensor 203 converts the optical image guided and formed in St1 into medium wavelength infrared image data 102, and outputs it to the image data setting unit 103 (image data acquisition means) (St2). FIG. 3 shows the long wavelength infrared image data 101 and the medium wavelength infrared image data 102 output to the image data setting unit 103.

画像データ設定部103は、入力された長波長赤外線画像データ101、及び中波長赤外線画像データ102に基づいて一次対象画像データ104、及び二次対象画像データ105を設定し、(St3)。一次対象画像データ104を第1類似度算出部に出力し、二次対象画像データ105を第2類似度算出部に出力する。   The image data setting unit 103 sets the primary target image data 104 and the secondary target image data 105 based on the input long wavelength infrared image data 101 and medium wavelength infrared image data 102 (St3). The primary target image data 104 is output to the first similarity calculation unit, and the secondary target image data 105 is output to the second similarity calculation unit.

一次対象画像データ104、及び二次対象画像データ105の設定方法は、長波長赤外線画像データ101上の信号強度が所定の閾値以上となる領域の形状と、中波長赤外線画像データ102上の信号強度が所定の閾値以上となる領域の形状の複雑さを比較し、複雑である方を一次対象画像データ104、もう一方を二次対象画像データ105として設定する。   The setting method of the primary target image data 104 and the secondary target image data 105 includes a shape of a region where the signal intensity on the long-wavelength infrared image data 101 is equal to or greater than a predetermined threshold, and a signal intensity on the medium-wavelength infrared image data 102. Are compared as the primary target image data 104, and the other is set as the secondary target image data 105.

複雑さの評価方法は、長波長赤外線画像データ101上の信号強度により所定の閾値以上となる領域(T1)、閾値未満となる領域(T2)に二値化する。また、中波長赤外線画像データ102上の信号強度が所定値以上となる領域(T3)、閾値未満となる領域(T4)に二値化する。二値化した両赤外線画像データの閾値以上となる領域T1、T2の各々の周長Lと面積Sとから領域の形状の複雑度Eを下式(1)に基づいて算出した上で複雑さを比較することにより評価する。また、下式(2)に基づいて円形度Eを算出した上で複雑さを比較しても良い。つまり、複雑度Eの値が大きいほど、円形度Eの値が小さいほど形状は複雑であると評価できる。
The complexity evaluation method binarizes into a region (T1) that is greater than or equal to a predetermined threshold and a region (T2) that is less than the threshold depending on the signal intensity on the long-wavelength infrared image data 101. Further, binarization is performed into a region (T3) where the signal intensity on the medium-wavelength infrared image data 102 is a predetermined value or more and a region (T4) where the signal intensity is less than the threshold. Complex on the binarized complexity E 1 of the circumferential length L and from the area S region of the shape of each region T1, T2 equal to or larger than the threshold value of both infrared image data is calculated based on the following formula (1) It is evaluated by comparing the length. It is also possible to compare the complexity in terms of calculating the circularity E 2 based on the following equation (2). That is, it can be evaluated that the shape is more complex as the value of the complexity E 1 is larger and the value of the circularity E 2 is smaller.

更に、予め領域の形状が複雑になる波長帯が分かっている場合には、その波長帯のデータを一次対象画像データ104とすることもできる。このように一次対象画像データ104を設定することにより、上述の複雑さの評価処理を行う必要が無く、対象物の識別をより効率的に行うことができる。   Furthermore, when the wavelength band in which the shape of the region is complicated is known in advance, the data of the wavelength band can be used as the primary target image data 104. By setting the primary target image data 104 in this way, it is not necessary to perform the above-described complexity evaluation process, and the target can be identified more efficiently.

また、より長波長のデータである長波長赤外線画像データ101を一次対象画像データ104、より短波長のデータである中波長赤外線画像データ102を二次対象画像データ105として設定してもよい。このように一次対象画像データ104、及び二次対象画像データ105を決定することにより、上述の複雑さの評価処理を行う必要が無く、対象物の識別をより効率的に行うことができる。   Further, the long wavelength infrared image data 101 that is longer wavelength data may be set as the primary target image data 104, and the medium wavelength infrared image data 102 that is shorter wavelength data may be set as the secondary target image data 105. By determining the primary target image data 104 and the secondary target image data 105 in this way, it is not necessary to perform the above-described complexity evaluation process, and the target can be identified more efficiently.

St3の後、第1類似字度算出部108は、画像データ設定部103から入力された一次対象画像データ104上の各座標において第1類似度評価値が算出される(St4)。   After St3, the first similarity character calculation unit 108 calculates the first similarity evaluation value at each coordinate on the primary target image data 104 input from the image data setting unit 103 (St4).

類似度評価値の算出法は、図4に示すように図1に示す第1状態記憶部105にて記憶されている第1の状態パターンの信号強度106aと、一次対象画像データ104上の各座標における第1の状態パターンの領域の大きさに相当する領域の信号強度とを比較し、その類似度が算出される。   As shown in FIG. 4, the calculation method of the similarity evaluation value includes the signal intensity 106a of the first state pattern stored in the first state storage unit 105 shown in FIG. The signal intensity of the area corresponding to the size of the area of the first state pattern in the coordinates is compared, and the similarity is calculated.

この第1の状態パターンの信号強度106aは、予め取得されている対象物の状態パターンを記憶したものを利用しても良い。或いは、後述する評価識別部111で直前に識別された対象物の状態パターンを記憶しても良い。この場合には、徐々に、信号強度の形状が変化する対象物の場合に特に有効である。   As the signal intensity 106a of the first state pattern, a signal that stores a state pattern of an object acquired in advance may be used. Or you may memorize | store the state pattern of the target object identified immediately before by the evaluation identification part 111 mentioned later. In this case, it is particularly effective in the case of an object whose signal intensity shape gradually changes.

第1類似度算出部108は、撮影条件、信号レベル、評価領域の重なりが生じることによる誤識別が生じる可能性がある。そのため、一次対象画像データ104の類似度の評価時において誤識別を低減させるためにベクトル情報に基づいた対象物の識別手法を用いる。ベクトル情報は、画像領域内の画素間の信号強度の差分として与えられ、下式(3)で表すことができる。
There is a possibility that the first similarity calculation unit 108 may be erroneously identified due to overlapping of imaging conditions, signal levels, and evaluation areas. Therefore, in order to reduce misidentification at the time of evaluating the similarity of the primary target image data 104, an object identification method based on vector information is used. The vector information is given as a signal intensity difference between pixels in the image area, and can be expressed by the following expression (3).

式(3)においてIは画素の信号強度であり、添え字i、jは画素を区別するためのインデックスである。式(3)から得たベクトルRi,jの大きさは画素間の信号強度の勾配の強度を示す。また、ベクトルの方向は画素の連結性を示す。すなわちベクトルRi,jは画素の明るさの勾配に対する直行成分を示す。 In Expression (3), I is the signal strength of the pixel, and the subscripts i and j are indexes for distinguishing the pixels. The magnitude of the vector R i, j obtained from Equation (3) indicates the strength of the signal strength gradient between pixels. The vector direction indicates the connectivity of the pixels. That is, the vector R i, j represents an orthogonal component with respect to the brightness gradient of the pixel.

第1類似度算出部108は、入力された一次対象画像データ104及びベクトルRi,jを用いて信号分布形状の統計量を評価する。この統計量を用いることで、目標領域の抽出の指標を絶対量(強度そのもの)から強度間の関係に置き換えることができる。従って、第1類似度算出部108に信号レベルの強弱変化に対するロバストな性質を持たせることができる。 The first similarity calculation unit 108 evaluates the statistic of the signal distribution shape using the input primary target image data 104 and the vector R i, j . By using this statistic, it is possible to replace the target region extraction index from the absolute amount (intensity itself) to the relationship between the intensities. Accordingly, it is possible to make the first similarity calculation unit 108 have a robust property with respect to a change in signal level.

また、前記ベクトル情報を基にした具体的な類似度の算出方法としては、第1状態記憶部105にて記憶されている第1の状態パターンのベクトル情報Raと、一次対象画像データ104上の各座標における第1の状態パターンの領域の大きさに相当する領域のベクトル情報Rbとを比較することになるが、例えば、下式(4)のようにベクトルの内積の総和Eで算出することができる。このEが小さいほど類似度が高いと言える。
As a specific similarity calculation method based on the vector information, the first state pattern vector information Ra stored in the first state storage unit 105 and the primary target image data 104 The vector information Rb of the area corresponding to the size of the area of the first state pattern at each coordinate is compared. For example, it is calculated by the sum E 3 of the inner products of the vectors as in the following equation (4). be able to. It can be said that the higher the degree of similarity this E 3 is small.

さらに、画像中の対象物の大きさが変化する場合は、大きさの変化に対して不変な量であるベクトル情報の強度と方向に関するヒストグラムを比較することで対処が可能である。例えば、方向に関するヒストグラムは、対象領域中に0°〜5°の方向に向いているベクトルが幾つあるかなど、全360°を区間分割し、各区間に相当するベクトルの存在頻度をカウントし作成する。ヒストグラム間の類似度の算出としては、前記ベクトル情報Raのヒストグラムをp、前記ベクトル情報のヒストグラムをqとすると下式(5)に示すバタチャリヤ距離Eを利用するなどが考えられる。
Furthermore, when the size of the object in the image changes, it can be dealt with by comparing histograms relating to the intensity and direction of vector information, which is an invariable amount with respect to the change in size. For example, a histogram relating to the direction is created by dividing the entire 360 ° into sections such as how many vectors in the target area are oriented in the direction of 0 ° to 5 °, and counting the frequency of vectors corresponding to each section. To do. The calculation of the similarity between histograms, a histogram of the vector information Ra p, can be considered, such as using a Bhattacharyya distance E 4 shown in the following equation when the histogram of the vector information and q (5).

ここで、
here,

である。また、mは区関数、p(u)はu番目の区間の頻度を示す。このとき、さらに
It is. Further, m represents a partition function, and p (u) represents the frequency of the u th section. At this time,

を満たしておく必要がある。 It is necessary to satisfy.

第1類似度算出部108において算出された各座標における第1類似度評価値は、候補位置抽出部109に入力され、この類似度評価値に基づいて対象物の候補位置が抽出され決定される(St5)。   The first similarity evaluation value at each coordinate calculated by the first similarity calculation unit 108 is input to the candidate position extraction unit 109, and the candidate position of the target object is extracted and determined based on the similarity evaluation value. (St5).

ここで対象物の候補位置は、高い類似度を示している位置を基に決定される。例えば、類似度が高い順に上位N個の候補位置が抽出される。また、設定により所定の閾値以上の類似度を示す位置は全て抽出するようにしても良い。候補位置抽出部109は、抽出した類似度の上位N個の候補位置を第2類似度算出部110へ入力する。   Here, the candidate position of the object is determined based on the position showing a high degree of similarity. For example, the top N candidate positions are extracted in descending order of similarity. In addition, all the positions that show the degree of similarity equal to or higher than a predetermined threshold may be extracted. The candidate position extraction unit 109 inputs the top N candidate positions of the extracted similarities to the second similarity calculation unit 110.

また、第2類似度算出部110は、第1類似度算出部108と同様に、第2状態記憶部107が記憶する第2の状態パターンに基づいて二次対象画像データ105上の類似度の上位N個の候補位置で第2類似度評価値を算出する(St6)。   Similarly to the first similarity calculation unit 108, the second similarity calculation unit 110 calculates the similarity on the secondary target image data 105 based on the second state pattern stored in the second state storage unit 107. A second similarity evaluation value is calculated at the top N candidate positions (St6).

St4、及びSt6において第1類似度算出部108、及び第2類似度算出部110によって算出されたN個の第1の類似度評価値、及びN個の第2の類似度評価値が評価識別部111へ入力されて、これらの評価値を総合して評価識別部111によって対象物の位置が識別される(St7)。   The N first similarity evaluation values and the N second similarity evaluation values calculated by the first similarity calculation unit 108 and the second similarity calculation unit 110 in St4 and St6 are evaluated and identified. The position of the object is identified by the evaluation identification unit 111 by combining the evaluation values and input to the unit 111 (St7).

ここで、第1類似度算出部108で算出された第1類似度評価値については、類似度の高い位置は画像データ上で固まりやすく、候補位置抽出部109において抽出する候補位置の個数Nをある程度多く設定しなければ十分な識別が行えない場合が有る。   Here, with respect to the first similarity evaluation value calculated by the first similarity calculation unit 108, positions with high similarity are likely to be hardened on the image data, and the number N of candidate positions extracted by the candidate position extraction unit 109 is determined. There is a case where sufficient identification cannot be made unless a certain amount is set.

このような場合、候補位置をある程度分散させて抽出した方が、画像全体を効率的に評価することができる。この分散の程度の決定方法であるが、例えば候補位置同士の距離を所定の距離以上に保ちながら決定する方法が有る。   In such a case, the entire image can be evaluated more efficiently if the candidate positions are extracted with some dispersion. As a method for determining the degree of dispersion, for example, there is a method in which the distance between candidate positions is determined to be maintained at a predetermined distance or more.

図5に示すように類似度の高い順に候補位置109aが抽出され、抽出された候補位置109aから所定距離l離れた領域から候補位置が抽出される。つまり、候補位置109aを中心とした半径lの円領域109c内の候補位置は109aのみとなる。この所定距離lは第1の状態パターンの信号強度の大きさよって任意に設定できる。つまり、図6に示すように第1の状態パターンの領域に相当する領域109d内の候補位置は候補位置109aのみとなる。 As shown in FIG. 5, candidate positions 109a are extracted in descending order of similarity, and candidate positions are extracted from an area that is a predetermined distance 11 away from the extracted candidate positions 109a. That is, only the candidate position 109a is within the circular area 109c with the radius l 1 centered on the candidate position 109a. The predetermined distance l 1 can be arbitrarily set according to the magnitude of the signal intensity of the first state pattern. That is, as shown in FIG. 6, the candidate position in the area 109d corresponding to the area of the first state pattern is only the candidate position 109a.

以上のように実施の形態1では、複数の波長帯の画像データ(長波長赤外線画像データ101、中波長赤外線画像データ102)に基づいて信号が得られていない領域や信号強度が飽和してしまっている領域の情報を補間することができるため詳細な温度状態を観察することができる。また、フレア発出途中過程において対象物とフレアの像に重なりが生じる場合あっても、適切に対象物を識別および検出することができる。従って、対象物の識別性能が向上し、信頼性の高い対象物識別装置を提供することが出来る。   As described above, in the first embodiment, a region where no signal is obtained or the signal intensity is saturated based on image data of a plurality of wavelength bands (long wavelength infrared image data 101, medium wavelength infrared image data 102). It is possible to interpolate the information of the existing area, so that a detailed temperature state can be observed. Further, even if there is an overlap between the object and the flare image in the course of flare emission, the object can be appropriately identified and detected. Therefore, the object identification performance is improved, and a highly reliable object identification apparatus can be provided.

なお、円領域109cは領域の形状が円形状に限らず、例えば矩形状などでも良い。   The circular region 109c is not limited to a circular shape, and may be a rectangular shape, for example.

(実施の形態2)
続いて、本発明の実施の形態2について説明する。図7は、本発明の実施の形態2に係る対象物識別装置の構成を示す図である。実施の形態1と同一構成については同一の符号を付し重複する説明は省略する。実施の形態2は、図1に示す対象物識別装置に評価領域設定部112(評価領域設定手段)を更に有する点が実施の形態1とは異なる。
(Embodiment 2)
Next, a second embodiment of the present invention will be described. FIG. 7 is a diagram showing a configuration of the object identification device according to Embodiment 2 of the present invention. The same components as those in the first embodiment are denoted by the same reference numerals, and redundant description is omitted. The second embodiment is different from the first embodiment in that the object identification apparatus shown in FIG. 1 further includes an evaluation area setting unit 112 (evaluation area setting means).

画像データ設定部103において設定された一次対象画像データ104は、評価領域設定部112に入力され、第1類似度算出部108において第1類似度評価値を算出する際の対象領域が設定される。   The primary target image data 104 set in the image data setting unit 103 is input to the evaluation region setting unit 112, and a target region for calculating the first similarity evaluation value is set in the first similarity calculation unit 108. .

対象領域の設定方法は、例えば図8に示すように所定の信号強度の閾値帯を抽出することにより2値化さされた画像において、その抽出された領域104aに対して最少矩形を設定し、これを一次評価領域112aとする。更に、所定の裕度lを持って拡張された領域を二次評価領域112bとする。この二次評価領域112bを第1類似度算出部108に入力することにより、一次対象画像データ上の第1の類似度評価値を算出する領域を限定することができる。 For example, as shown in FIG. 8, the target region setting method sets a minimum rectangle for the extracted region 104a in an image binarized by extracting a threshold band of a predetermined signal strength, as shown in FIG. This is defined as a primary evaluation area 112a. Further, an area expanded with a predetermined margin l 2 is set as a secondary evaluation area 112b. By inputting the secondary evaluation area 112b to the first similarity calculation unit 108, it is possible to limit the area for calculating the first similarity evaluation value on the primary target image data.

以上のように実施の形態2では、類似度評価値の算出処理の回数を低減することができるため、対象物識別装置の識別効率の向上を図ることができる。   As described above, in Embodiment 2, since the number of similarity evaluation value calculation processes can be reduced, the identification efficiency of the object identification device can be improved.

(実施の形態3)
続いて、本発明の実施の形態3について説明する。図9は、本発明の実施の形態3に係る対象物識別装置の構成を示す図である。実施の形態1と同一構成については同一の符号を付し重複する説明は省略する。実施の形態3は、図1に示す評価領域識別部111の代わりに相互評価識別部113(識別手段)を有する点が実施の形態1とは異なる。
(Embodiment 3)
Subsequently, Embodiment 3 of the present invention will be described. FIG. 9 is a diagram showing a configuration of the object identification device according to Embodiment 3 of the present invention. The same components as those in the first embodiment are denoted by the same reference numerals, and redundant description is omitted. The third embodiment is different from the first embodiment in that it includes a mutual evaluation identification unit 113 (identification means) instead of the evaluation region identification unit 111 shown in FIG.

実施の形態1と同様に、N個の候補位置におけるN個の第1類似度評価値、及びN個の第2類似度評価値が算出され、相互評価識別部113に入力される。相互評価識別部113では評価値同士の差異が評価される。一つの対象物に対して複数個の類似物が存在しているときは、相互に評価値の差異を算出し、最も異なる候補位置が対象物と識別される。   Similar to the first embodiment, N first similarity evaluation values and N second similarity evaluation values at N candidate positions are calculated and input to the mutual evaluation identifying unit 113. The mutual evaluation identification unit 113 evaluates the difference between the evaluation values. When a plurality of similar objects exist for one object, the difference between the evaluation values is calculated, and the most different candidate position is identified as the object.

以上のように実施の形態3では、複数存在する対象物の評価値同士を相互で評価することにより、対象物を識別することができる。また、予め対象物のパターン情報を保持していなくても識別が可能となる。   As described above, in the third embodiment, a target object can be identified by evaluating the evaluation values of a plurality of target objects with each other. Further, identification is possible even if the pattern information of the object is not held in advance.

(実施の形態4)
続いて、本発明の実施の形態4について説明する。図10は、本発明の実施の形態4に係る対象物識別装置の構成を示す図である。実施の形態1と同一構成については同一の符号を付し重複する説明は省略する。実施の形態4は、図1に示す対象物識別装置に評価値履歴記憶部114を更に有する点が実施の形態1とは異なる。
(Embodiment 4)
Next, a fourth embodiment of the present invention will be described. FIG. 10 is a diagram showing a configuration of an object identification device according to Embodiment 4 of the present invention. The same components as those in the first embodiment are denoted by the same reference numerals, and redundant description is omitted. The fourth embodiment is different from the first embodiment in that the object identification apparatus shown in FIG.

実施の形態1と同様に、N個の候補位置におけるN個の第1類似度評価値、及びN個の第2類似度評価値が算出され、評価識別部111に入力されて対象物か否かが識別されるが、それと同時にそれらの情報は評価履歴記憶部114へ入力され記憶される。評価領域記憶部114における記憶容量はユーザにより任意に設定することができる。例えば、過去Mフレーム分として設定した場合には、直前のMフレーム分の対象物の候補位置及び類似度評価値について蓄積することができる。そして、評価識別部111では、評価値履歴記憶部114に記憶されたMフレーム分の対象物の候補位置及び類似度評価値の時間変化を総合して対象物か否かが識別される。   As in the first embodiment, N first similarity evaluation values and N second similarity evaluation values at N candidate positions are calculated and input to the evaluation identification unit 111 to determine whether the object is an object. At the same time, the information is input to the evaluation history storage unit 114 and stored. The storage capacity in the evaluation area storage unit 114 can be arbitrarily set by the user. For example, in the case of setting for the past M frames, the candidate positions and similarity evaluation values of the object for the previous M frames can be accumulated. Then, the evaluation identifying unit 111 identifies whether or not the object is an object by integrating the candidate positions of the objects for M frames stored in the evaluation value history storage unit 114 and the temporal change in the similarity evaluation value.

以上のように実施の形態4では、各目標候補領域の評価値EをMフレームの一定時間に亘り記録することで、時間経過における形状の変化を一つの特徴量として評価することができ、誤識別を低減することができる。対象物の排気部に対してフレアのような類似物は発出された後はその温度は減衰していくため、対象物とフレアの識別の際には有効に働く。   As described above, in the fourth embodiment, by recording the evaluation value E of each target candidate region over a certain period of M frames, a change in shape over time can be evaluated as one feature amount. Identification can be reduced. Since an analog such as flare is emitted from the exhaust part of the object, its temperature attenuates, so that it works effectively in identifying the object and flare.

なお、本実施の形態では複数の波長帯は長波長帯、及び中波長帯であるものとして説明したが、波長帯は異なっているものであれば良い。   In the present embodiment, the plurality of wavelength bands have been described as the long wavelength band and the medium wavelength band, but the wavelength bands may be different.

なお、この発明は、上述した実施の形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具現化できる。また、上述の実施の形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施の形態に示される全構成要素からいくつかの構成要素を削除しても良い。さらに異なる実施の形態にわたる構成要素を適宜組み合わせても良い。   Note that the present invention is not limited to the above-described embodiment, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above-described embodiments. For example, some constituent elements may be deleted from all the constituent elements shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

100 撮像系
101 長波長赤外線画像データ
102 中波長赤外線画像データ
103 画像データ設定部
106 第1状態記憶部
107 第2状態記憶部
109 候補位置抽出部
110 第2類似度算出部
111 評価識別部
112 評価領域設定部
113 相互評価識別部
200 レンズ
201 ダイクロイックミラー
202 長波長赤外線センサ
203 中波長赤外線センサ
100 imaging system 101 long-wavelength infrared image data 102 medium-wavelength infrared image data 103 image data setting unit 106 first state storage unit 107 second state storage unit 109 candidate position extraction unit 110 second similarity calculation unit 111 evaluation identification unit 112 evaluation Area setting unit 113 Mutual evaluation identification unit 200 Lens 201 Dichroic mirror 202 Long wavelength infrared sensor 203 Medium wavelength infrared sensor

Claims (9)

第1の波長帯での画像データである第1の画像データと、第2の波長帯での画像データである第2の画像データとを同じ視野で取得する画像データ取得手段と、
前記第1の画像データ及び前記第2の画像データのうち一方を一次対象画像データ、もう一方を二次対象画像データと設定する画像データ設定手段と、
前記一次対象画像データ上での対象物の状態を示す第1の状態パターンを記憶する第1の記憶手段と、
前記二次対象画像データ上での対象物の状態を示す第2の状態パターンを記憶する第2の記憶手段と、
前記一次対象画像データ上において前記第1の状態パターンとの類似度を示す第1類似度評価値を算出する第1類似度算出手段と、
前記第1の類似度評価値を基に対象物の候補位置を抽出する候補位置抽出手段と、
前記候補位置において前記第2の状態パターンとの類似度を示す第2類似度評価値を算出する第2類似度算出手段と、
前記第1類似度評価値、及び前記第2類似度評価値に基づいて前記視野内において対象物を識別する識別手段と、
を有することを特徴とする対象物識別装置。
Image data acquisition means for acquiring, in the same field of view, first image data that is image data in the first wavelength band and second image data that is image data in the second wavelength band;
Image data setting means for setting one of the first image data and the second image data as primary target image data and the other as secondary target image data;
First storage means for storing a first state pattern indicating a state of an object on the primary target image data;
Second storage means for storing a second state pattern indicating the state of the object on the secondary target image data;
First similarity calculation means for calculating a first similarity evaluation value indicating a similarity with the first state pattern on the primary target image data;
Candidate position extracting means for extracting candidate positions of the object based on the first similarity evaluation value;
Second similarity calculation means for calculating a second similarity evaluation value indicating a similarity with the second state pattern at the candidate position;
Identification means for identifying an object in the field of view based on the first similarity evaluation value and the second similarity evaluation value;
An object identification device characterized by comprising:
前記画像データ設定手段は、
前記第1の画像データ、及び前記第2の画像データ上の信号強度が所定の閾値以上となる領域の形状の複雑さの比較に基づいて、一次対象画像データ及び二次対象画像データを設定することを特徴とする請求項1記載の対象物識別装置。
The image data setting means includes
The primary target image data and the secondary target image data are set based on a comparison of the complexity of the shape of the region where the signal intensity on the first image data and the second image data is equal to or greater than a predetermined threshold. The object identification device according to claim 1, wherein:
前記画像データ設定手段は、
前記第1の画像データ及び前記第2の画像データの波長帯の長短に基づいて一次対象画像データ及び二次対象画像データを設定することを特徴とする請求項1記載の対象物識別装置。
The image data setting means includes
2. The object identification device according to claim 1, wherein primary target image data and secondary target image data are set based on lengths of wavelength bands of the first image data and the second image data.
前記第1の状態パターン及び前記第2の状態パターンは、
予め取得された対象物の状態パターンであることを特徴とする請求項1乃至請求項3の何れか1項記載の対象物識別装置。
The first state pattern and the second state pattern are:
The object identification device according to any one of claims 1 to 3, wherein the object state pattern is a state pattern of an object acquired in advance.
前記第1の状態パターン及び前記第2の状態パターンは、
前記識別手段によって識別された対象物の状態パターンであることを特徴とする請求項1乃至請求項3の何れか1項記載の対象物識別装置。
The first state pattern and the second state pattern are:
The object identification device according to any one of claims 1 to 3, wherein the object identification pattern is a state pattern of the object identified by the identification means.
前記一次対象画像データ上の信号強度が所定の閾値以上の領域を一次評価領域、前記一次評価領域に所定の裕度を持たせて拡張した領域を二次評価領域と設定する評価領域設定手段を更に有し、
前記第1類似度算出手段は、
前記一次対象画像データ上の前記二次評価領域において前記第1の状態パターンとの類似度を示す第1類似度評価値を算出することを特徴とする請求項1乃至請求項5の何れか1項記載の対象物識別装置。
An evaluation area setting means for setting an area in which the signal intensity on the primary target image data is equal to or greater than a predetermined threshold as a primary evaluation area, and an area obtained by extending the primary evaluation area with a predetermined margin as a secondary evaluation area; In addition,
The first similarity calculation means includes:
The first similarity evaluation value indicating a similarity with the first state pattern in the secondary evaluation area on the primary target image data is calculated. 6. The object identification device described in the paragraph.
前記候補位置抽出手段は、
対象物の候補位置が複数あった場合、対象物の候補位置間が所定の距離以上となるように対象物の候補位置を抽出することを特徴とする請求項1乃至請求項6の何れか1項記載の対象物識別装置。
The candidate position extracting means includes
7. If there are a plurality of candidate positions for the object, the candidate positions of the object are extracted so that the distance between the candidate positions of the object is equal to or greater than a predetermined distance. The object identification device described in the paragraph.
前記識別手段は、
前記第1類似度評価値、及び前記第2類似度評価値を相互に比較し、最も異となる候補位置を対象物とする請求項1乃至請求項7の何れか1項記載の対象物識別装置。
The identification means includes
The object identification according to any one of claims 1 to 7, wherein the first similarity evaluation value and the second similarity evaluation value are compared with each other, and the most different candidate position is set as an object. apparatus.
前記識別手段は、
前記第1類似度評価値、及び前記第2類似度評価値の時間変化に基づいて、前記視野内において対象物を識別することを特徴とする請求項1乃至請求項8記載の対象物識別装置。
The identification means includes
9. The object identification device according to claim 1, wherein an object is identified in the field of view based on a time change of the first similarity evaluation value and the second similarity evaluation value. .
JP2010065228A 2010-03-19 2010-03-19 Object identification device Active JP5325822B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010065228A JP5325822B2 (en) 2010-03-19 2010-03-19 Object identification device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010065228A JP5325822B2 (en) 2010-03-19 2010-03-19 Object identification device

Publications (2)

Publication Number Publication Date
JP2011196633A JP2011196633A (en) 2011-10-06
JP5325822B2 true JP5325822B2 (en) 2013-10-23

Family

ID=44875087

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010065228A Active JP5325822B2 (en) 2010-03-19 2010-03-19 Object identification device

Country Status (1)

Country Link
JP (1) JP5325822B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019000118A1 (en) * 2017-06-26 2019-01-03 深圳配天智能技术研究院有限公司 Visual detection method for industrial process, control device, system and storage device
KR101914281B1 (en) * 2018-05-23 2018-11-01 엘아이지넥스원 주식회사 Apparatus and method for targeting target

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3143348B2 (en) * 1995-01-30 2001-03-07 防衛庁技術研究本部長 Target detection device
JP4034003B2 (en) * 1999-04-22 2008-01-16 三菱電機株式会社 Flying object image processing apparatus and flying object image processing method
JP2001050712A (en) * 1999-08-04 2001-02-23 Mitsubishi Electric Corp Target detecting device
JP3487295B2 (en) * 2001-03-21 2004-01-13 三菱電機株式会社 Image target detection device

Also Published As

Publication number Publication date
JP2011196633A (en) 2011-10-06

Similar Documents

Publication Publication Date Title
US9294665B2 (en) Feature extraction apparatus, feature extraction program, and image processing apparatus
US9311524B2 (en) Image processing apparatus and image processing method
US20230215029A1 (en) Depth acquisition device and depth acquisition method
WO2009150783A1 (en) Pattern recognition device, pattern recognition method, image-processing device and image-processing method
US20080292192A1 (en) Human detection device and method and program of the same
JP4364266B2 (en) Image processing apparatus and program
US9613425B2 (en) Three-dimensional measurement apparatus, three-dimensional measurement method and program
JP2021057054A (en) Image recognition apparatus
US9911204B2 (en) Image processing method, image processing apparatus, and recording medium
JP2014138691A (en) Image processing apparatus, electronic device, endoscope apparatus, program, and image processing method
TW201437925A (en) Object identification device, method, and storage medium
US20110243434A1 (en) Feature value extracting device, object identification device, and feature value extracting method
CN106997457B (en) Figure limb identification method, figure limb identification device and electronic device
US20150116543A1 (en) Information processing apparatus, information processing method, and storage medium
JP2009276910A (en) Image processor, method and program
WO2018030048A1 (en) Object tracking method, object tracking device, and program
JP5325822B2 (en) Object identification device
CN112004732A (en) Railway track recognition device
JP5862217B2 (en) Marker detection and tracking device
JP2007257133A (en) Object detection system
KR101829386B1 (en) Apparatus and method for detecting target
JP5305995B2 (en) Object identification device
KR101202215B1 (en) Weighted-based target decision system for strapdown dual mode imaging seeker using location weighted or region growing moment modeling
JP5297303B2 (en) Object identification device
Tu et al. Robust vehicle tracking based on scale invariant feature transform

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20111125

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20111205

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120615

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130722

R151 Written notification of patent or utility model registration

Ref document number: 5325822

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151