JP2010186433A - Target detector - Google Patents

Target detector Download PDF

Info

Publication number
JP2010186433A
JP2010186433A JP2009031688A JP2009031688A JP2010186433A JP 2010186433 A JP2010186433 A JP 2010186433A JP 2009031688 A JP2009031688 A JP 2009031688A JP 2009031688 A JP2009031688 A JP 2009031688A JP 2010186433 A JP2010186433 A JP 2010186433A
Authority
JP
Japan
Prior art keywords
pixel
image
pixels
unit
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009031688A
Other languages
Japanese (ja)
Inventor
Isao Aoyama
功 青山
Hiroshi Kameda
洋志 亀田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2009031688A priority Critical patent/JP2010186433A/en
Publication of JP2010186433A publication Critical patent/JP2010186433A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a target detector for suppressing the spread of a target pixel, improving the detection accuracy of a target and detecting a plurality of proximity targets. <P>SOLUTION: The target detector includes: a sensor part 1 for observing a target; an observation image acquisition part 2 for acquiring an observed image; a likelihood ratio calculation part 3 for calculating the likelihood ratio of each pixel in the observation image; a transition probability calculation part 4 for calculating the transition probability of each pixel in the observation image; an integration processing part 5 for performing the integration processing of the likelihood ratio, the transition probability and a track score which is the processing result of one frame before; a redundant allocation extraction part 6 for extracting a part where the plurality of pixels of a present frame image are made to correspond to the same pixel of the image of one frame before and redundant allocation is generated from an integration processing result; a redundant allocation dissolving part 7 for dissolving the extracted redundant allocation; an end determination part 8 for determining the end of the integration processing; and a target detection part 9 for detecting the pixel of a high track score as the target from a finally obtained processing result. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

この発明は、観測センサにより取得された低SNR(Signal to Noise Ratio)画像中の目標(特に微小目標)を検出する目標検出装置に関する。   The present invention relates to a target detection device that detects a target (particularly a minute target) in a low SNR (Signal to Noise Ratio) image acquired by an observation sensor.

低SNR画像中の目標を検出する従来技術としては、例えば、非特許文献1がある。これは、低SNR画像中の目標はノイズに埋もれていて1枚の画像から目標を検出することが困難であることから、連続撮影された複数フレームの画像を積算処理することで目標の検出を行う方法である。   As a conventional technique for detecting a target in a low SNR image, for example, there is Non-Patent Document 1. This is because the target in the low SNR image is buried in noise and it is difficult to detect the target from a single image. Therefore, the target detection is performed by integrating the images of a plurality of frames taken continuously. How to do it.

非特許文献1では、各画素の尤度比(画素が目標である確からしさを表す)と、事前に規定した運動モデルに基づいた前フレームから現フレームへの各画素の推移確率を用いて、式(1)で定義するtrack scoreにより目標検出を行う。また、図13に非特許文献1に示されている処理のブロック図を示す。   In Non-Patent Document 1, using the likelihood ratio of each pixel (representing the probability that the pixel is the target) and the transition probability of each pixel from the previous frame to the current frame based on the motion model defined in advance, Target detection is performed based on the track score defined by equation (1). FIG. 13 shows a block diagram of processing shown in Non-Patent Document 1.

Figure 2010186433
Figure 2010186433

式(1)に示したtrack scoreは目標の運動モデルに基づいた画素の動きと尤度比を考慮した積算処理を行っているので、複数フレーム連続して計算することにより、目標が存在する位置のtrack scoreが他の画素に比べて大きく積み上がり、低SNR画像中の微小目標の検出を容易にしている。   The track score shown in Equation (1) is an integration process that takes into account the pixel motion and likelihood ratio based on the target motion model, so the position where the target exists can be calculated by consecutively calculating multiple frames. The track score is greatly increased compared to other pixels, and it is easy to detect a minute target in a low SNR image.

また、非特許文献1の手法を改善した発明として特許文献1がある。特許文献1では、SNRが0以下と非常に低い目標の検出を目的とした発明である。   Moreover, there exists patent document 1 as invention which improved the method of nonpatent literature 1. FIG. Patent Document 1 is an invention aimed at detecting a target with a very low SNR of 0 or less.

J. Arnold, S. Shaw, H. Pasternack “Efficient Target Tracking Using Dynamic Programming”, IEEE Trans. Aerospace and Electronic Systems, Vol. 29, No. 1, pp. 44-56 (1993).J. Arnold, S. Shaw, H. Pasternack “Efficient Target Tracking Using Dynamic Programming”, IEEE Trans. Aerospace and Electronic Systems, Vol. 29, No. 1, pp. 44-56 (1993).

特開2008−275339号公報JP 2008-275339 A

しかしながら、非特許文献1に示されている手法は、フレームkの個々の画素が独立に自分のtrack scoreを最大にするフレームk−1の画素を選択するため、フレームkの複数の画素がフレームk−1の同一画素を選択するという状況が発生する。この状況を重複割当と呼ぶことにする。図14は、重複割当を模式的に示したものである。図14において、フレームkの画素A、画素B、画素Cがそれぞれフレームk−1の画素Xを選択した状況を示している。非特許文献1の手法では、フレームkの各画素から見てtrack scoreを最大にするフレームk−1の画素を選択するため、このような状況が発生する。逆に、フレームkの1つの画素がフレームk−1の複数の画素と対応付く事は無い。   However, in the technique shown in Non-Patent Document 1, each pixel of frame k independently selects a pixel of frame k−1 that maximizes its track score, and thus a plurality of pixels of frame k A situation occurs in which the same pixel of k−1 is selected. This situation is called duplicate assignment. FIG. 14 schematically shows overlapping assignment. FIG. 14 shows a situation in which the pixel A, the pixel B, and the pixel C in the frame k select the pixel X in the frame k−1. In the method of Non-Patent Document 1, such a situation occurs because the pixel of the frame k−1 that maximizes the track score when viewed from each pixel of the frame k is selected. Conversely, one pixel of frame k does not correspond to a plurality of pixels of frame k-1.

図14に示したような状況はk−1フレームの1画素の目標がkフレームで複数画素に広がってしまうことを示しており、積算処理が進むに従い広がりは徐々に拡大する。このため、処理結果では、数画素程度であるはずの目標画素が大きな広がりを持ち、正確な目標位置の検出が困難になり、さらに近接複数目標が存在する場合は目標の判別ができなくなるという問題がある。図15に非特許文献1に示された手法による積算処理結果を示す。   The situation as shown in FIG. 14 indicates that the target of one pixel in the k-1 frame spreads to a plurality of pixels in the k frame, and the spread gradually increases as the integration process proceeds. For this reason, in the processing result, the target pixels, which should be about several pixels, have a large spread, making it difficult to accurately detect the target position, and it becomes impossible to determine the target when there are multiple adjacent targets. There is. FIG. 15 shows the result of integration processing by the method shown in Non-Patent Document 1.

また、特許文献1の発明も上記課題の解決方法については示していない。   Further, the invention of Patent Document 1 does not show a solution to the above problem.

この発明は、上記課題を解決するためになされたものであり、目標の運動モデルを考慮して、track scoreの低下を最小限に抑えるように、重複割当を解消し目標画素の広がりを抑制することで、目標の検出精度を向上させ、近接複数目標の検出を可能とすることができる目標検出装置を得ることを目的としている。   The present invention has been made in order to solve the above-described problem. In consideration of the target motion model, the overlap allocation is eliminated and the spread of the target pixel is suppressed so as to minimize the decrease in the track score. Thus, an object of the present invention is to obtain a target detection device that can improve the detection accuracy of a target and enable detection of a plurality of adjacent targets.

この発明に係る目標検出装置は、連続撮影された複数の観測画像を積算処理することにより低SNR環境下であっても目標検出を可能とする目標検出装置であって、目標の観測を行うセンサ部と、前記センサ部で観測され画像を取得する観測画像取得部と、取得した観測画像における各画素の尤度比を算出する尤度比算出部と、目標の想定運動モデルに従い、取得した観測画像における各画素の推移確率を算出する推移確率算出部と、前記尤度比算出部で求めた尤度比と、前記推移確率算出部で求めた推移確率と、1フレーム前の処理結果であるtrack scoreとの積算処理を行う積算処理部と、前記積算処理部による積算処理結果から、現フレーム画像の複数の画素が、1フレーム前の画像の同一画素と対応づけられ重複割当が発生している箇所を抽出する重複割当抽出部と、前記重複割当抽出部により抽出された重複割当を解消する重複割当解消部と、積算フレーム数あるいは積算処理時間に基づいて積算処理の終了判定を行う終了判定部と、最終的に得られた処理結果よりtrack scoreの高い画素を目標として検出する目標検出部とを備え、前記重複割当抽出部は、1フレーム前の画像の同一画素に対して現フレーム画像の複数の画素が割り当てられている重複割当が発生している箇所および現フレーム画像の画素との対応付けがなされていない1フレーム前の画像の未割当画素を抽出し、前記重複割当解消部は、各重複割当発生箇所に対してtrack scoreが最大の現フレーム画像の画素を残し、他の画素と1フレーム前の画像の未割当画素が1対1に対応するように画素間の再割当を行い、さらに再割当が行えなく重複割当が解消されなかった現フレーム画像の画素が存在する場合は当該画素を初期検出画素と見なしてtrack scoreを尤度比のみの値に置き換えることを特徴とする。   A target detection apparatus according to the present invention is a target detection apparatus that enables target detection even in a low SNR environment by integrating a plurality of continuously captured observation images, and is a sensor that performs target observation An observation image acquisition unit that acquires an image observed by the sensor unit, a likelihood ratio calculation unit that calculates a likelihood ratio of each pixel in the acquired observation image, and an acquired observation according to a target assumed motion model The transition probability calculation unit that calculates the transition probability of each pixel in the image, the likelihood ratio obtained by the likelihood ratio calculation unit, the transition probability obtained by the transition probability calculation unit, and the processing result of one frame before From the integration processing unit that performs integration processing with the track score, and the integration processing result by the integration processing unit, a plurality of pixels of the current frame image are associated with the same pixel of the image one frame before, and overlapping allocation occurs. Where A duplicate allocation extraction unit to extract, a duplicate allocation elimination unit that eliminates the duplicate allocation extracted by the duplicate allocation extraction unit, an end determination unit that determines the end of integration processing based on the number of integration frames or integration processing time, A target detection unit that detects a pixel having a track score higher than the finally obtained processing result as a target, and the duplication allocation extraction unit includes a plurality of current frame images for the same pixel of the image one frame before Extracting a non-assigned pixel of an image one frame before that is not associated with a pixel where a duplicate assignment has been assigned and a pixel of the current frame image, and the duplicate assignment canceling unit Reassign between pixels so that the pixel of the current frame image with the maximum track score remains for the allocation occurrence location, and the other pixels and the unallocated pixels of the image one frame before correspond one-to-one. When the pixel of the current frame image repeatedly allocating no reallocation performed has not been resolved et exists and replaces the track score to a value of only likelihood ratio considers the pixel and the initial detection pixels.

この発明によれば目標の運動モデルを考慮して、track scoreの低下を最小限に抑えるように、重複割当を解消し目標画素の広がりを抑制することで、目標の検出精度を向上させ、近接複数目標の検出を可能とすることができる。   According to the present invention, in consideration of the target motion model, the target detection accuracy is improved by eliminating the duplicate assignment and suppressing the spread of the target pixel so as to minimize the decrease in the track score. Multiple targets can be detected.

この発明の実施の形態1における目標検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the target detection apparatus in Embodiment 1 of this invention. 重複発生箇所が2つある場合の例を示している図である。It is a figure which shows the example in case there exist two duplication generation | occurrence | production locations. 重複割当解消処理の概要を示した図である。It is the figure which showed the outline | summary of the duplicate allocation cancellation process. 推移元範囲の抽出処理を説明する図である。It is a figure explaining the extraction process of a transition source range. この発明の実施の形態2における目標検出装置の構成を示すブロック図であるIt is a block diagram which shows the structure of the target detection apparatus in Embodiment 2 of this invention. 割当確定画素決定処理を説明する図である。It is a figure explaining an allocation fixed pixel determination process. この発明の実施の形態3における目標検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the target detection apparatus in Embodiment 3 of this invention. 連結領域抽出部13および連結領域縮小部14の動作の説明に用いた図である。FIG. 10 is a diagram used for explaining operations of a connected region extracting unit 13 and a connected region reducing unit 14. 画素の連結関係を示した図である。It is the figure which showed the connection relation of the pixel. 連結領域の例を示した図である。It is the figure which showed the example of the connection area | region. 連結領域縮小部14の動作の説明に用いた図である。FIG. 10 is a diagram used for explaining the operation of the connected region reduction unit 14. この発明の実施の形態4における目標検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the target detection apparatus in Embodiment 4 of this invention. 非特許文献1(J. Arnold, S. Shaw, H. Pasternack “Efficient Target Tracking Using Dynamic Programming”, IEEE Trans. Aerospace and Electronic Systems, Vol. 29, No. 1, pp. 44-56 (1993))に示されている処理の内容を示すブロック図である。Non-Patent Document 1 (J. Arnold, S. Shaw, H. Pasternack “Efficient Target Tracking Using Dynamic Programming”, IEEE Trans. Aerospace and Electronic Systems, Vol. 29, No. 1, pp. 44-56 (1993)) It is a block diagram which shows the content of the process shown by FIG. 重複割当を模式的に示した図である。It is the figure which showed the duplication allocation typically. 非特許文献1に示された手法による積算処理結果を示す図である。It is a figure which shows the integration process result by the method shown by the nonpatent literature 1.

以下、この発明を実施するための最良の形態について図面を参照して説明する。   The best mode for carrying out the present invention will be described below with reference to the drawings.

実施の形態1.
図1は、この発明の実施の形態1における目標検出装置の構成を示すブロック図である。図1に示す目標検出装置は、連続撮影された複数の観測画像を積算処理することにより低SNR環境下であっても目標検出を可能とする目標検出装置であって、センサ部1は、定期的に一定範囲内の空間を観測し観測画像を生成する。観測画像取得部2は、センサ部1が生成した観測画像を取得し、尤度比算出部3は、観測画像取得部2が取得した画像における、各画素の尤度比を算出する。
Embodiment 1 FIG.
1 is a block diagram showing a configuration of a target detection apparatus according to Embodiment 1 of the present invention. The target detection apparatus shown in FIG. 1 is a target detection apparatus that enables target detection even in a low SNR environment by integrating a plurality of continuously captured images. A space within a certain range is observed and an observation image is generated. The observation image acquisition unit 2 acquires the observation image generated by the sensor unit 1, and the likelihood ratio calculation unit 3 calculates the likelihood ratio of each pixel in the image acquired by the observation image acquisition unit 2.

推移確率算出部4は、想定する目標の運動モデルに基づいて、1フレーム前に取得した画像の画素(m,n)から現フレームの画像の画素(i,j)に目標が移動する確率(推移確率と呼ぶ)を算出する。積算処理部5は、尤度比算出部3で求めた尤度比と、推移確率算出部4で求めた推移確率と、1フレーム前の画像のtrack score(フレーム毎の処理結果をtrack scoreと呼ぶ)とを積算し、現フレームの画像のtrack scoreを求めると共に、現フレーム画像の各画素と、現フレーム画像の各画素のtrack scoreを最大にする1フレーム前の画像の画素との対応づけを行う。   Based on the assumed target motion model, the transition probability calculation unit 4 has a probability that the target moves from the pixel (m, n) of the image acquired one frame before to the pixel (i, j) of the image of the current frame ( Called transition probability). The integration processing unit 5 calculates the likelihood ratio obtained by the likelihood ratio calculation unit 3, the transition probability obtained by the transition probability calculation unit 4, the track score of the image one frame before (the processing result for each frame is referred to as a track score). To obtain the track score of the image of the current frame, and the correspondence between each pixel of the current frame image and the pixel of the image one frame before that maximizes the track score of each pixel of the current frame image I do.

重複割当抽出部6は、積算処理部5における、現フレームの画像と1フレーム前の画像の各画素間の対応づけ結果より、図14に示したような重複割当が発生している箇所を抽出する。重複割当解消部7は、重複割当抽出部6で抽出された重複割当発生箇所に対して重複割当を解消し、現フレームの画像の各画素と1フレーム前の画像の各画素を可能な限り1対1に対応させ、重複割当を解消した画像kの画素のtrack scoreを再計算する。   The duplication allocation extraction unit 6 extracts the location where the duplication allocation as shown in FIG. 14 has occurred, based on the result of association between each pixel of the current frame image and the previous frame image in the integration processing unit 5. To do. The duplicate allocation cancellation unit 7 eliminates the duplicate allocation for the duplicate allocation occurrence location extracted by the duplicate allocation extraction unit 6 and sets each pixel of the image of the current frame and each pixel of the image of the previous frame as much as possible. Recalculate the track score of the pixel of image k corresponding to the pair 1 and eliminating the duplicate assignment.

終了判定部8は、積算フレーム数あるいは積算処理時間が上限値に達したか否かを判定し、上限値に達していなければ処理を観測画像取得部2に戻し、上限値に達していれば加算処理を終了する。目標検出部9は、加算処理終了後にtrack scoreが最大となる画素を目標として検出する。   The end determination unit 8 determines whether or not the total number of frames or the integration processing time has reached the upper limit value. If the upper limit value has not been reached, the process is returned to the observation image acquisition unit 2, and if the upper limit value has been reached. The addition process is terminated. The target detection unit 9 detects a pixel having a maximum track score after the addition process as a target.

次に、図1の構成を有する目標検出装置の一連の動作について説明する。まず、センサ部1は、決められた空間を周期的に観測し、観測画像を生成する。観測データの取得単位をフレームと呼び、以降、フレームkの観測画像を画像kと記述する。フレーム番号が隣り合う画像(例えば画像k−1と画像k)は、連続して観測された画像となる。   Next, a series of operations of the target detection apparatus having the configuration of FIG. 1 will be described. First, the sensor unit 1 periodically observes the determined space and generates an observation image. The observation data acquisition unit is called a frame, and the observation image of frame k is hereinafter referred to as image k. Images with adjacent frame numbers (for example, image k-1 and image k) are continuously observed images.

次に、観測画像取得部2は、センサ部1より観測画像を取得し、尤度比算出部3および推移確率算出部4に観測画像を入力する。これに基づき、尤度比算出部3は、観測画像の各画素の尤度比を算出する。尤度比とは、各画素が目標である確からしさを示す指標であり、画像kの画素(i,j)の振幅値(輝度値)をz ij、画素(i,j)が目標である場合の確率密度関数をp(x)、画素(i,j)がノイズである場合の確率密度関数をp(x)とすると、画像kの画素(i,j)の尤度比Lは式(2)で定義される。 Next, the observation image acquisition unit 2 acquires an observation image from the sensor unit 1 and inputs the observation image to the likelihood ratio calculation unit 3 and the transition probability calculation unit 4. Based on this, the likelihood ratio calculation unit 3 calculates the likelihood ratio of each pixel of the observation image. The likelihood ratio is an index indicating the probability that each pixel is a target. The amplitude value (luminance value) of the pixel (i, j) of the image k is z k ij and the pixel (i, j) is the target. When the probability density function in a certain case is p t (x) and the probability density function in the case where the pixel (i, j) is noise is p n (x), the likelihood ratio of the pixel (i, j) of the image k L is defined by equation (2).

Figure 2010186433
Figure 2010186433

次に、推移確率算出部4は、想定する目標の運動モデルに基づき、例えばα−βフィルタなどの追尾フィルタを用いて求めた目標の予測位置を用いて、画像k−1の画素(m,n)から画像kの画素(i,j)に目標が移動する確率(これを推移確率と呼ぶ)を算出する。   Next, the transition probability calculation unit 4 uses the predicted position of the target obtained using a tracking filter such as an α-β filter based on the assumed target motion model, for example, the pixel (m, The probability that the target moves to the pixel (i, j) of the image k from n) is calculated (this is called the transition probability).

想定する目標の運動モデルは適用先によって異なるので、推移確率の定義も適用先毎に異なり一意に決めることはできないが、定義式の一例を式(3)に示す。式(3)は、画像k−1の画素(m,n)から画像kへの目標の移動予測位置を(I m,n,J m,n)とした場合の、画像k−1の画素(m,n)から画像kの画素(i,j)への推移確率を示したもので、Cは係数、σは推移確率の標準偏差である。C、σとも事前に与えられる値である。また、g i,jは画像kの画素(i,j)を、gk−1 m,nは画像k−1の画素(m,n)を表している。 Since the assumed target motion model differs depending on the application destination, the definition of the transition probability differs depending on the application destination and cannot be determined uniquely, but an example of the definition expression is shown in Expression (3). Equation (3), the image k-1 of the pixel (m, n) the movement predicted position of the target from the image k in the case of (I k m, n, J k m, n) and the image k-1 Is a transition probability from pixel (m, n) to pixel (i, j) of image k, C is a coefficient, and σ is a standard deviation of the transition probability. Both C and σ are values given in advance. Further, g k i, j represents a pixel (i, j) of the image k, and g k−1 m, n represents a pixel (m, n) of the image k−1.

Figure 2010186433
Figure 2010186433

次に、積算処理部5は、尤度比算出3が算出した尤度比と推移確率算出部4で求めた推移確率と、画像k−1のtrack scoreを式(4)に従って積算して画像kのtrack scoreを求めると共に、画像kの各画素と、画像kの各画素のtrack scoreを最大にする画像k−1の画素との対応づけを行う。   Next, the integration processing unit 5 integrates the likelihood ratio calculated by the likelihood ratio calculation 3, the transition probability obtained by the transition probability calculation unit 4, and the track score of the image k−1 according to the equation (4). A track score of k is obtained, and each pixel of the image k is associated with a pixel of the image k−1 that maximizes the track score of each pixel of the image k.

Figure 2010186433
Figure 2010186433

式(4)に示した処理は、以下の手順に従う。
step 1. 画像k−1の画素(m,n)の中から、画素(m,n)から画像kの画素(i,j)への推移確率の自然対数値と画像k−1の画素(m,n)のtrack scoreの合計値が最大となる画素を選択し、画像kの画素(i,j)と対応づける。例えば、画像k−1の画素(4,3)と画像kの画素(6,5)が対応づけられたとすると、画像k−1の画素(4,3)に目標が存在した場合、画像kでは画素(6,5)に目標が移動したと判断したことを表している。
The process shown in Expression (4) follows the following procedure.
step 1. The natural logarithm of the transition probability from the pixel (m, n) to the pixel (i, j) of the image k out of the pixel (m, n) of the image k−1 and the pixel ( The pixel having the maximum track score of m, n) is selected and associated with the pixel (i, j) of the image k. For example, assuming that the pixel (4, 3) of the image k-1 and the pixel (6, 5) of the image k are associated with each other, if the target exists in the pixel (4, 3) of the image k-1, the image k-1 Represents that the target has been moved to the pixel (6, 5).

step 2. step 1で求めた合計の最大値と画像kの画素(i,j)の尤度比の自然対数値の合計を画像kの画素(i,j)のtrack scoreとする。   step 2. The total of the maximum value obtained in step 1 and the natural logarithm of the likelihood ratio of the pixel (i, j) of the image k is defined as the track score of the pixel (i, j) of the image k.

次に、重複割当抽出部6は、積算処理部5における画像k−1の画素と画像kの画素の対応づけの結果より重複割当発生箇所を抽出する。以下に重複割当抽出部6における処理手順を示す。   Next, the duplicate allocation extraction unit 6 extracts a duplicate allocation occurrence location from the result of the association between the pixel of the image k−1 and the pixel of the image k in the integration processing unit 5. The processing procedure in the duplicate allocation extraction unit 6 is shown below.

step 1. 重複グループの抽出
図14に示したような重複割当発生箇所を抽出し、発生箇所が複数ある場合はグループ番号を付与する。図2は、重複発生箇所が2つある場合の例を示している。この場合、画素{X,A,B,C}の組を重複グループ1、画素{W,D,E,F,G}の組を重複グループ2としている。
step 1. Extraction of duplicate groups Extraction locations where duplicate allocation occurs as shown in FIG. 14 are extracted. If there are multiple occurrence locations, group numbers are assigned. FIG. 2 shows an example in which there are two overlapping occurrence locations. In this case, a group of pixels {X, A, B, C} is an overlap group 1, and a group of pixels {W, D, E, F, G} is an overlap group 2.

step 2. 割当済み画素の抽出
画像k−1と画像kの間には1対1に対応づけされている画素も存在している。これらのうち、画像k−1側の画素を『割当済み画素』として抽出する。
step 2. Extraction of assigned pixels There are also pixels that are associated one-to-one between image k-1 and image k. Among these, the pixel on the image k-1 side is extracted as “allocated pixel”.

step 3. 未割当画素の抽出
画像k−1と画像kは一連の処理において同一センサにより観測された画像であり、画素数は同一と考えて差し支えない。従って、画像k−1と画像kの間で重複割当が発生している状況では、画像k−1には画像kの画素と対応していない画素が存在している。このような画素を『未割当画素』と呼ぶことし、画像k−1より未割当画素の抽出を行う。
step 3. Extraction of unassigned pixels Image k-1 and image k are images observed by the same sensor in a series of processing, and the number of pixels can be considered to be the same. Therefore, in a situation where overlapping assignment occurs between the image k-1 and the image k, the image k-1 includes pixels that do not correspond to the pixels of the image k. Such a pixel is referred to as an “unallocated pixel”, and an unallocated pixel is extracted from the image k−1.

次に、重複割当解消部7は、重複割当抽出部6で抽出された各重複割当発生箇所の重複割当を解消し、可能な限り画像k−1と画像kの各画素を1対1に対応させる。以下、重複割当解消部7の動作について説明する。   Next, the duplicate allocation elimination unit 7 eliminates the duplicate assignment of each duplicate assignment occurrence location extracted by the duplicate assignment extraction unit 6, and corresponds to each pixel of the image k-1 and the image k as much as possible. Let Hereinafter, the operation of the duplicate allocation elimination unit 7 will be described.

図3は、重複割当解消処理の概要を示した図である。図3の画像k−1において、黒く塗りつぶされた画素は割当済み画素を、白抜きの画素は未割当画素を示している。このような状況下において、画像k−1の画素Xと画像kの画素A、B、Cが重複割当関係にある(図3上)。これら重複関係にある画素A、B、Cに対して、一つの画素を残して残りの画素の割当先を、画像k−1の未割当画素の中から選択する。図3の例では、画素Aを画像k−1の画素Yに、画素Cを画像k−1の画素Zに再割り当てしている。   FIG. 3 is a diagram showing an outline of the duplicate allocation elimination process. In the image k-1 in FIG. 3, pixels filled in black indicate assigned pixels, and white pixels indicate unassigned pixels. Under such circumstances, the pixel X of the image k-1 and the pixels A, B, and C of the image k are in an overlapping allocation relationship (upper part of FIG. 3). For the pixels A, B, and C having the overlapping relationship, the allocation destination of the remaining pixels is selected from the unallocated pixels of the image k−1 while leaving one pixel. In the example of FIG. 3, the pixel A is reassigned to the pixel Y of the image k-1, and the pixel C is reassigned to the pixel Z of the image k-1.

重複割当解消部7の詳細動作について以下に説明する。
step 1. 重複グループの優先順位付け
重複割当抽出部6において抽出された重複グループに対して、各重複グループに含まれる画像k−1の画素のtrack scoreの高い順に優先順位を付ける。図2を例に説明すると、重複グループ1の画像k−1の画素である画素Xのtrack scoreと、重複グループ2の画像k−1の画素である画素Wのtrack scoreを比べ、画素Xのtrack scoreの値が高ければ重複グループ1の優先順位を高くし、逆に画素Wのtrack scoreの値が高ければ重複グループ2の優先順位を高くする。優先順位が高い順に、全ての重複グループに対して、次step以降に示す重複割当解消を実施する。
The detailed operation of the duplicate allocation elimination unit 7 will be described below.
step 1. Prioritizing duplicate groups Priorities are assigned to the duplicate groups extracted by the duplicate assignment extraction unit 6 in descending order of the track scores of the pixels of the image k-1 included in each duplicate group. Referring to FIG. 2 as an example, the track score of the pixel X that is the pixel of the image k-1 of the overlap group 1 is compared with the track score of the pixel W that is the pixel of the image k-1 of the overlap group 2, and If the track score value is high, the priority of the overlap group 1 is increased, and conversely, if the track score value of the pixel W is high, the priority of the overlap group 2 is increased. Duplicate assignment elimination shown in the next step and subsequent steps is performed on all duplicate groups in descending order of priority.

なお、上記説明では、優先順位づけの基準として画像k−1側の画素のtrack scoreの値を用いたが、(1)各重複グループに含まれる画像kの画素のtrack scoreの最大値や、(2)各重複グループに含まれる画像kの画素数を基準として用いても良い。図2を用いて(1)の場合の例を説明すると、重複グループ1に属する画像kの画素の中では画素Bのtrack scoreが最大、重複グループ2に属する画像kの画素の中では画素Fのtrack scoreが最大である場合、画素Bのtrack scoreの方が画素Fのtrack scoreより大きければ重複グループ1の優先順位を高く、逆に画素Fのtrack scoreの方が大きければ重複グループ2の優先順位を高くする。また、図2を用いて(2)の場合を説明すると、重複グループ1に属する画像kの画素数は3、重複グループ2に属する画像kの画素数は4なので、重複グループ2の優先順位を高くする。   In the above description, the value of the track score of the pixel on the image k-1 side is used as the reference for prioritization, but (1) the maximum value of the track score of the pixel of the image k included in each overlapping group, (2) The number of pixels of the image k included in each overlapping group may be used as a reference. The example in the case of (1) will be described with reference to FIG. 2. The track score of the pixel B is the largest among the pixels of the image k belonging to the overlap group 1, and the pixel F is the pixel of the image k belonging to the overlap group 2. If the track score of pixel B is the largest, the priority of overlap group 1 is higher if the track score of pixel B is greater than the track score of pixel F, and conversely, if the track score of pixel F is greater, Increase priority. Further, the case of (2) will be described with reference to FIG. 2. Since the number of pixels of the image k belonging to the overlap group 1 is 3 and the number of pixels of the image k belonging to the overlap group 2 is 4, the priority order of the overlap group 2 is set. Make it high.

さらに、上記3つの基準を組合せ、例えば、まず各重複グループに含まれる画像k−1の画素のtrack scoreにより優先順位づけを行い、優先順位が同じになる場合は各重複グループに含まれる画像kの画素の最大track scoreで優先順位づけを行い、さらに優先順位が同じになる場合は各重複グループに含まれる画像kの画素数で優先順位づけを行っても良い。   Further, the above three criteria are combined, for example, prioritization is first performed based on the track score of the pixels of the image k-1 included in each overlap group. If the priorities are the same, the image k included in each overlap group The prioritization may be performed by the maximum track score of the pixels, and when the priorities are the same, the prioritization may be performed by the number of pixels of the image k included in each overlapping group.

step 2. 重複グループ内画素の優先順位付け
同一重複グループ内の画像kの画素を、track scoreの高い順に優先順位づけを行い、優先順位が最も高い画素は重複割当解消処理の対象外とし(すなわち、現状の割当を維持する)、優先順位が2番目以降の全ての画素に対して優先順位の高い順に次step以降に示す割当解消処理を実施する。なお、優先順位が2番目以降の画素を再割当対象画素と呼ぶ。
step 2. Prioritize the pixels in the overlap group Prioritize the pixels of image k in the same overlap group in descending order of the track score, and exclude the pixel with the highest priority from the duplicate allocation elimination process (ie , The current allocation is maintained), and the allocation cancellation processing shown in the next step and subsequent steps is performed on all the pixels having the second and higher priorities in descending order of priority. Note that the pixels with the second and subsequent priorities are referred to as reallocation target pixels.

上記説明では優先順位づけの基準として画像kの画素のtrack scoreを用いているが、画像kの各画素の尤度比の高い順に優先順位づけを行っても良い。   In the above description, the track score of the pixel of the image k is used as a priority ranking criterion. However, the priority ranking may be performed in descending order of the likelihood ratio of each pixel of the image k.

step 3. 推移元範囲の抽出
想定している運動モデルを考慮して、優先度がN番目(N≧2)の再割当対象画素への推移が可能な画像k−1の画素範囲(推移元範囲と呼ぶ)を抽出する。さらに、推移元範囲内に含まれる画像k−1の未割当画素を推移可能画素として抽出する。
step 3. Extraction of transition source range Considering the assumed motion model, the pixel range of image k-1 that can transition to the Nth priority (N ≧ 2) reassignment target pixel (transition source) (Referred to as a range). Furthermore, unallocated pixels of the image k−1 included in the transition source range are extracted as transitionable pixels.

step 3の処理を、図4を用いて説明する。図4の上段は重複割当の発生状況を示しており、画像k−1の画素Xに対して画像kの画素A、B、Cが重複して割り当てられている。この時、画素A、B、Cの中でBのtrack scoreが最も高い場合画素Bの画素Xへの割当はそのまま残す。従って、再割当対象は画素Aと画素Cとなり、図4は画素Aに対する処理を示している。   The process of step 3 will be described with reference to FIG. The upper part of FIG. 4 shows the occurrence of overlapping assignment, and the pixels A, B, and C of the image k are assigned to the pixel X of the image k−1. At this time, when the track score of B is the highest among the pixels A, B, and C, the assignment of the pixel B to the pixel X is left as it is. Accordingly, the reassignment targets are the pixel A and the pixel C, and FIG.

step 3では、まず、画素Aに推移可能な画像k−1の推移元範囲を抽出する。推移元範囲の抽出は、想定している目標の運動モデルに基づき目標が1フレーム分で移動可能な最大画素数Rを算出し、画像k−1の画素Aと同じの位置を中心として(2R+1)×(2R+1)画素の領域を推移元範囲とする(図4下段左を参照)。次に、推移元範囲に含まれる未割当画素を推移可能画素として抽出する(図4下段中央を参照)。   In step 3, first, the transition source range of the image k-1 that can transition to the pixel A is extracted. The transition source range is extracted by calculating the maximum number of pixels R that the target can move in one frame based on the assumed target motion model, and centering on the same position as the pixel A of the image k−1 (2R + 1). ) × (2R + 1) pixel area is set as the transition source range (see the lower left in FIG. 4). Next, unassigned pixels included in the transition source range are extracted as transitionable pixels (see the lower center of FIG. 4).

step 4. 再割当実行
step 3で抽出した推移可能画素の中から割当対象画素のtrack scoreが最大となる画素を選択し、割当対象画素と対応づける。ただし、step 3で推移可能画素が抽出されなかった場合は、当該割当対象画素を再割当不可能画素とする。
step 4. Reallocate
From the transitionable pixels extracted in step 3, select the pixel having the maximum track score of the allocation target pixel and associate it with the allocation target pixel. However, when a transitionable pixel is not extracted in step 3, the allocation target pixel is determined as a non-reallocable pixel.

図4下段右の例では、step 3で抽出した推移可能画素のうち画素Yが画素Aのtrack scoreを最大にするものとして、画素Yを画素Aと対応づけている。   In the example on the right side of the lower part of FIG. 4, the pixel Y is associated with the pixel A, assuming that the pixel Y among the transitionable pixels extracted in step 3 maximizes the track score of the pixel A.

step 5. 再割当不可能画素の処理(初期検出化)
全ての重複グループに対してstep 4までの処理を実行し終えた後、再割当不可能画素が存在する場合は、各再割当不可能画素の割当先(画像k−1の画素)を取り消し、初期検出目標(初めて検出された目標)として扱い、track scoreを画素の尤度比のみの値に置き換える。
step 5. Non-reallocable pixel processing (initial detection)
After executing the processing up to step 4 for all the overlapping groups, if there are non-reassignable pixels, the assignment destination of each non-reassignable pixel (pixel of image k−1) is canceled, Treat as the initial detection target (first detected target) and replace the track score with the value of the pixel likelihood ratio only.

次に、終了判定部8が、積算処理を行ったフレーム数が予め定めた上限値に達したら積算処理を終了すると判定し、処理を目標検出部9に進め、そうでなければ継続と判定し処理を観測画像取得部2に戻す。また、終了判定条件として、積算処理開始時からの経過時間が予め定めた上限値に達したら終了と判定しても良い。   Next, the end determination unit 8 determines that the integration process is ended when the number of frames subjected to the integration process reaches a predetermined upper limit value, and proceeds to the target detection unit 9. The process returns to the observation image acquisition unit 2. Further, as an end determination condition, it may be determined to end when the elapsed time from the start of integration processing reaches a predetermined upper limit value.

次に、目標検出部9は、積算処理の最終結果よりtrack scoreの平均μと標準偏差σを求め、係数をQとした時、track scoreが式(5)で定義する閾値THを超える画素を目標候補として検出する。   Next, the target detection unit 9 obtains the average μ and standard deviation σ of the track score from the final result of the integration process, and when the coefficient is Q, the pixel whose track score exceeds the threshold value TH defined by Equation (5) Detect as a target candidate.

Figure 2010186433
Figure 2010186433

上記のような目標検出装置では、積算処理において発生するフレーム間の画素の重複割当を解消し1対1に対応づけすることで、積算処理を繰り返すことで発生する目標画素の広がりを抑制し、目標検出精度を向上させる効果がある。   In the target detection apparatus as described above, by suppressing the overlapping allocation of pixels between frames that occur in the integration process and associating with one-to-one correspondence, it is possible to suppress the spread of target pixels that occur by repeating the integration process, There is an effect of improving the target detection accuracy.

実施の形態2.
図5は、この発明の実施の形態2における目標検出装置の構成を示すブロック図である。実施の形態1における目標検出装置は、積算処理の実行毎に発生する重複割当をまとめて解消するのに対して、実施の形態2における目標検出装置では、積算処理の都度発生する重複割当に対して、最もtrack scoreの良い画素のみ割当を確定し、他の重複割当状態にある画素を積算処理対象画素とし、積算処理対象画素のみを新たに処理対象として、同一フレーム組における積算処理を未割当画素が無くなるまで繰り返す点が異なっている。
Embodiment 2. FIG.
FIG. 5 is a block diagram showing the configuration of the target detection apparatus according to Embodiment 2 of the present invention. The target detection apparatus according to the first embodiment collectively eliminates the overlapping assignment that occurs every time the integration process is executed, whereas the target detection apparatus according to the second embodiment eliminates the overlapping assignment that occurs each time the integration process is performed. Only the pixel with the best track score is finalized, other pixels in the overlapping allocation state are set as the integration target pixels, and only the integration target pixels are newly processed, and the integration processing in the same frame set is not allocated. The difference is that it repeats until there are no more pixels.

図5に示したブロック図のうち、センサ部1、観測画像取得部2,尤度比算出部3、推移確率算出部4、重複割当抽出部6、終了判定部8、目標検出部9の機能、動作は実施の形態1と同じであるため説明を割愛する。   In the block diagram shown in FIG. 5, functions of the sensor unit 1, the observed image acquisition unit 2, the likelihood ratio calculation unit 3, the transition probability calculation unit 4, the duplicate assignment extraction unit 6, the end determination unit 8, and the target detection unit 9. Since the operation is the same as that of the first embodiment, the description is omitted.

積算処理部5Aは、尤度比算出部3で求めた尤度比と、推移確率算出部4で求めた推移確率と、1フレーム前の画像のtrack scoreとを積算し、現フレームの画像のtrack scoreを求めると共に、現フレーム画像の各画素と、現フレーム画像の各画素のtrack scoreを最大にする1フレーム前の画像の画素との対応づけを行う装置であり、基本動作は実施の形態1に示した積算処理部5と同じであるが、積算処理対象設定部10において設定される積算処理対象のみを処理対象として積算処理を行う点が異なっている。   The integration processing unit 5A integrates the likelihood ratio obtained by the likelihood ratio calculation unit 3, the transition probability obtained by the transition probability calculation unit 4, and the track score of the image one frame before, and calculates the image of the current frame. An apparatus that obtains a track score and associates each pixel of the current frame image with a pixel of an image one frame before that maximizes the track score of each pixel of the current frame image. 1 is different from the integration processing unit 5 shown in FIG. 1 except that the integration processing is performed only on the integration processing target set in the integration processing target setting unit 10.

積算処理対象設定部10は、重複割当抽出部6の処理結果を基に、各重複発生箇所において最もtrack scoreの画素を除き、他の画素を同一フレーム組における繰り返し積算処理対象として設定し、繰り返し処理終了判定部11は、積算処理対象設定部10の積算処理対象設定結果に基づき同一フレーム組に対する積算処理の繰り返し実行を終了するか否かを判定し、終了する場合は初期検出化処理部12に処理を移し、そうでない場合は積算処理部5Aに処理を戻す。初期検出化処理部12は、最終的に重複割当が解消されなかった場合に重複割当を起こしている画素を初期検出画素と見なして割当を取り消し、当該画素のtrack scoreを変更する。   Based on the processing result of the duplication allocation extraction unit 6, the integration process target setting unit 10 sets the other pixels as the repeated integration process targets in the same frame set except for the pixel with the most track score at each duplicate occurrence location. The process end determination unit 11 determines whether or not to end the repeated execution of the integration process for the same frame set based on the integration process target setting result of the integration process target setting unit 10, and if so, the initial detection processing unit 12. If not, the process returns to the integration processing unit 5A. The initial detection processing unit 12 regards the pixel causing the duplicate assignment as the initial detection pixel when the duplicate assignment is not finally resolved, cancels the assignment, and changes the track score of the pixel.

次に、実施の形態2における目標検出装置の動作のうち、実施の形態1と異なる部分について説明する。積算処理部5Aの動作は基本的に実施の形態1に示した隻案処理部5と同じであるが、積算処理の対象を限定する点が異なっている。積算処理部5Aの動作を、画像k−1と画像kの組(以降、{k−1、k}と表記する)に対する処理を例に説明する。   Next, portions of the operation of the target detection apparatus in the second embodiment that are different from those in the first embodiment will be described. The operation of the integration processing unit 5A is basically the same as that of the ship draft processing unit 5 shown in the first embodiment, except that the target of the integration processing is limited. The operation of the integration processing unit 5A will be described using an example of processing for a set of an image k-1 and an image k (hereinafter referred to as {k-1, k}).

積算処理部5Aは、{k−1、k}の組に対する最初の処理では全ての画素を対象として(すなわち積算処理部5と同じ)積算処理を行う。次に{k−1、k}の組に対するn回目(n≧2)の処理においては、積算処理対象設定部10において設定された積算処理対象画素に限定して積算処理を実行し、割当確定画素(詳細は積算処理対象設定部10の動作説明で示す)に対してはそれまでに得られた割当結果およびtrack scoreを維持する。   The integration processing unit 5A performs integration processing for all pixels (that is, the same as the integration processing unit 5) in the first process for the set of {k-1, k}. Next, in the n-th process (n ≧ 2) for the set of {k−1, k}, the integration process is limited to the integration process target pixels set in the integration process target setting unit 10, and the allocation is confirmed. For the pixels (details are shown in the description of the operation of the integration processing target setting unit 10), the allocation result and the track score obtained so far are maintained.

次に、積算処理対象設定部10の動作について説明する。積算処理対象設定部10は、{k−1、k}の組の間で1対1に対応づけられている画素を割当確定画素、それ以外を積算処理対象画素とする。以下に詳細を示す。   Next, the operation of the integration process target setting unit 10 will be described. The integration process target setting unit 10 sets the pixels associated one-to-one between the {k−1, k} pairs as the allocation confirmed pixels and the other as the integration process target pixels. Details are shown below.

step 1. 割当確定画素決定(その1)
重複割当抽出部6の処理結果より、画像k−1の割当済み画素と、割当済みの画素と対応づけられている画像kの画素を割当確定画素とする。図6において、画像k−1の画素1、画素2、画素8が割当済み画素であり、画像kの画素1、画素2、画素7がこれらの各割当済み画素とそれぞれ対応づけられているので、画像k−1の画素1、画素2、画素8および画像kの画素1、画素2、画素7を割当確定画素とする。なお、本来画像は2次元配列で表されるが便宜上図6では1次元配列での表現としている。
step 1. Allocation decision pixel decision (1)
From the processing result of the duplicate allocation extraction unit 6, the allocated pixel of the image k-1 and the pixel of the image k associated with the allocated pixel are determined as allocation confirmed pixels. In FIG. 6, pixel 1, pixel 2, and pixel 8 of image k-1 are assigned pixels, and pixel 1, pixel 2, and pixel 7 of image k are respectively associated with these assigned pixels. , Pixel 1, pixel 2, and pixel 8 of image k-1, and pixel 1, pixel 2, and pixel 7 of image k are assigned fixed pixels. Although the image is originally represented in a two-dimensional array, it is expressed in a one-dimensional array in FIG. 6 for convenience.

step 2. 割当確定画素決定(その2)
重複割当抽出部6の処理結果より、各重複グループにおいて、画像k−1の画素およびtrack scoreが最も高い画像kの画素を選択し、割当確定画素とする。
step 2. Assignment decision pixel determination (part 2)
From the processing result of the duplicate assignment extraction unit 6, in each duplicate group, the pixel of the image k-1 and the pixel of the image k having the highest track score are selected and set as assignment confirmed pixels.

図6の例では、画像k−1の画素4と画像kの画素3、4、5が重複グループ1を構成し、画像k−1の画素6と画像kの画素6、8、9が重複グループ2を構成している。重複グループ1において、画像kの画素の中で画素5のtrack scoreが最も大きいとすると、画像k−1の画素4と画像kの画素5を割当確定画素とする。同様に、重複グループ2において、画像k−1の画素6と画像kの画素8を割当確定画素とする。   In the example of FIG. 6, the pixel 4 of the image k−1 and the pixels 3, 4, and 5 of the image k constitute an overlap group 1, and the pixel 6 of the image k−1 and the pixels 6, 8, and 9 of the image k overlap. Group 2 is configured. In the overlap group 1, if the track score of the pixel 5 is the largest among the pixels of the image k, the pixel 4 of the image k−1 and the pixel 5 of the image k are set as the allocation confirmed pixels. Similarly, in overlap group 2, pixel 6 of image k-1 and pixel 8 of image k are assigned fixed pixels.

step 3. 積算処理対象画素の決定
step1およびstep2で決定された割当確定画素以外の画素を積算処理対象画素とする。図6の例では、画像k−1の画素3、5、7、9、および、画像kの画素3、4、6、9が積算処理対象画素となる。
step 3. Determining the pixel to be integrated
Pixels other than the allocation-determined pixels determined in step 1 and step 2 are set as integration processing target pixels. In the example of FIG. 6, the pixels 3, 5, 7, and 9 of the image k-1 and the pixels 3, 4, 6, and 9 of the image k are the integration target pixels.

次に、繰り返し処理終了判定部11の動作について説明する。繰り返し処理終了判定部11は、積算処理対象設定部10の処理結果より積算処理対象画素数を算出し、積算処理対象画素数が0の場合、もしくは、積算処理対象画素数が1以上であっても2回連続して積算処理対象画素数が同じ場合は積算処理の繰り返しを終了し、初期検出化処理部12に処理を進める。それ以外の場合は処理を積算処理部5Aに戻す。   Next, the operation of the repetition process end determination unit 11 will be described. The repetition process end determination unit 11 calculates the number of pixels to be integrated from the processing result of the integration process target setting unit 10, and when the number of pixels to be integrated is 0, or the number of pixels to be integrated is 1 or more. If the number of pixels subject to integration processing is the same twice, the integration processing is repeated and the process proceeds to the initial detection processing unit 12. In other cases, the process returns to the integration processing unit 5A.

次に、初期検出化処理部12の動作について説明する。初期検出化処理部12は、{k−1、k}組の繰り返し積算処理終了後に積算処理対象画素が残っている場合、それらの積算処理対象画素を初期検出目標として扱い、track scoreを画素の尤度比のみの値に置き換える。   Next, the operation of the initial detection processing unit 12 will be described. The initial detection processing unit 12 treats the integration target pixels as the initial detection target when the integration target pixels remain after the completion of the {k-1, k} sets of repetition integration processing, and sets the track score to Replace with the value of likelihood ratio only.

上記のような目標検出装置では、重複発生箇所の画素のみに処理対象を限定し同一フレーム組における積算処理を繰り返すことでフレーム間の画素の重複割当を解消し、フレーム間の画素を1対1に対応づけることで目標画素の広がりを抑制し、目標検出精度を向上させる効果がある。   In the target detection apparatus as described above, the processing target is limited to only the pixels where overlap occurs, and the integration process in the same frame set is repeated to eliminate the overlapping allocation of pixels between frames, and the pixels between frames are one-to-one. As a result, the spread of the target pixel is suppressed and the target detection accuracy is improved.

実施の形態3.
図7は、この発明の実施の形態3における目標検出装置の構成を示すブロック図である。実施の形態1における目標検出装置は最終的に重複割当が解消されなかった画素を初期検出化するのに対して、実施の形態3の目標検出装置は、最終的に重複割当が解消されなかった画素による連結領域を抽出し、同一連結領域内で1画素を残し、他の画素のtrack scoreを画像全体の最小値で置き換える点が異なっている。
Embodiment 3 FIG.
FIG. 7 is a block diagram showing the configuration of the target detection apparatus according to Embodiment 3 of the present invention. While the target detection apparatus in the first embodiment initially detects the pixels for which the duplicate assignment has not been eliminated, the target detection apparatus in the third embodiment has not finally eliminated the duplicate assignment. The difference is that a connected area of pixels is extracted, one pixel is left in the same connected area, and the track score of another pixel is replaced with the minimum value of the entire image.

図7に示したブロック図のうち、センサ部1、観測画像取得部2,尤度比算出部3、推移確率算出部4、積算処理部5、重複割当抽出部6、終了判定部8、目標検出部9の機能、動作は実施の形態1と同じであるため説明を割愛する。また、重複割当解消部7Aの機能、動作は、基本的に実施の形態1に示した重複割当解消部7と同じであり、違いは「再割当不可能画素の処理(初期検出化)」の処理を行わない点のみであるので、重複割当解消部7Aの動作についても説明を割愛する。   In the block diagram shown in FIG. 7, the sensor unit 1, the observed image acquisition unit 2, the likelihood ratio calculation unit 3, the transition probability calculation unit 4, the integration processing unit 5, the duplicate assignment extraction unit 6, the end determination unit 8, the target Since the function and operation of the detection unit 9 are the same as those in the first embodiment, description thereof is omitted. Also, the function and operation of the duplicate allocation elimination unit 7A are basically the same as those of the duplicate allocation elimination unit 7 shown in the first embodiment, and the difference is that “reassignable pixel processing (initial detection)”. Since only the process is not performed, the description of the operation of the duplicate allocation elimination unit 7A is also omitted.

連結領域抽出部13は、重複割当解消部7Aの処理結果に基づき、重複割当未解消箇所に対して連結領域を抽出し、連結領域縮小部14は、連結領域抽出部13により抽出された連結領域内でtrack scoreが最大となる画素を除いた全ての画素のtrack scoreを画像全体の最小track scoreに置き換える。   The connected region extraction unit 13 extracts a connected region for the overlapping assignment unresolved portion based on the processing result of the overlapping assignment eliminating unit 7A, and the connected region reducing unit 14 extracts the connected region extracted by the connected region extracting unit 13. Replace the track score of all pixels except the pixel with the largest track score in the image with the minimum track score of the entire image.

次に、連結領域抽出部13および連結領域縮小部14の動作について説明する。まず、連結領域抽出部13は、重複割当解消部7Aの処理結果より重複割当が解消されなかった箇所を取得する。図8の例では、画像k−1の画素4に対して画像kの画素3、4、5の重複割当が残っており(重複グループ1)、画像k−1の画素6に対して画像kの画素6、8、9の重複割当が残っている(重複グループ2)。なお、図8は便宜上1次元配列で表現しているが、実際の画像は2次元配列である。   Next, the operation of the connected area extracting unit 13 and the connected area reducing unit 14 will be described. First, the connected region extraction unit 13 acquires a location where the duplicate assignment has not been eliminated from the processing result of the duplicate assignment elimination unit 7A. In the example of FIG. 8, the overlap allocation of the pixels 3, 4, and 5 of the image k remains with respect to the pixel 4 of the image k−1 (overlap group 1), and the image k corresponds to the pixel 6 of the image k−1. The overlapping allocation of the pixels 6, 8 and 9 remains (overlapping group 2). Although FIG. 8 is expressed in a one-dimensional array for convenience, an actual image is a two-dimensional array.

次に、連結領域抽出部13は、各重複グループに属する画像kの画素に対して連結性を調べ、連結関係にある画素を連結領域として抽出する。   Next, the connected region extraction unit 13 examines connectivity with respect to the pixels of the image k belonging to each overlapping group, and extracts pixels having a connected relationship as connected regions.

ここで、連結関係および連結領域の定義を示しておく。図9は画素の連結関係を示したものであり、画素Xの周囲8画素(画素A〜H)が画素Xと連結関係にあるとする。また、連結関係により繋がっている画素の集合を連結領域とする。図10は連結領域の例を示したものであり、画素A、B、C、D、Eが1つの連結領域(連結領域1)を構成し、画素F、G、Hが別の連結領域(連結領域2)を構成している。   Here, the connection relationship and the definition of the connection area are shown. FIG. 9 shows a connection relationship of pixels, and it is assumed that eight pixels (pixels A to H) around the pixel X are connected to the pixel X. A set of pixels connected by a connection relationship is defined as a connection region. FIG. 10 shows an example of a connected area. Pixels A, B, C, D, and E constitute one connected area (connected area 1), and pixels F, G, and H have different connected areas ( It constitutes a connecting area 2).

図8の例では、重複グループ1の画像kの画素3、4、5が連結領域を構成し、重複グループ2の画像kの画素8、9が連結領域を構成する。画像kの画素6は画像kの画素5と連結関係にあるが、重複グループが異なるため、画像kの画素6は連結領域には含まれない。   In the example of FIG. 8, the pixels 3, 4, and 5 of the image k in the overlap group 1 constitute a connected region, and the pixels 8 and 9 of the image k in the overlap group 2 constitute a connected region. The pixel 6 of the image k is connected to the pixel 5 of the image k. However, since the overlapping group is different, the pixel 6 of the image k is not included in the connected region.

次に、連結領域縮小部14の動作を、図11を用いて説明する。図11の上段は連結領域抽出部13の処理を示しており、連結領域1、2、3の3つの連結領域が抽出されている。   Next, the operation of the connected area reduction unit 14 will be described with reference to FIG. The upper part of FIG. 11 shows the processing of the connected region extracting unit 13, and three connected regions of connected regions 1, 2, and 3 are extracted.

連結領域縮小部14は、連結領域抽出部13の処理結果より、各連結領域においてtrack scoreが最大となる画素を求める。図11の例では、下段左側が最大track scoreの抽出結果を示しており、各連結領域内の黒く塗られた画素がそれぞれ最大track scoreとなる画素を示している。   The connected region reduction unit 14 obtains a pixel having a maximum track score in each connected region from the processing result of the connected region extraction unit 13. In the example of FIG. 11, the lower left side shows the extraction result of the maximum track score, and the pixels painted black in each connected region indicate the pixels having the maximum track score.

次に、連結領域縮小部14は、各連結領域に対して、最大track scoreを持つ画素を除いた全ての画素のtrack scoreを画像k全体の最小track scoreで置き換える。図11の例では、下段右側がtrack scoreの置き換え結果を示しており、白ければtrack scoreが高い画素、黒ければtrack scoreが低い画素である。連結領域縮小部14の処理により、各連結領域においてtrack scoreが高い画素が1画素だけ残ることになる。   Next, the connected area reduction unit 14 replaces the track scores of all the pixels except the pixels having the maximum track score with the minimum track score of the entire image k for each connected area. In the example of FIG. 11, the lower right side shows the track score replacement result. If white, the pixel has a high track score, and if black, the pixel has a low track score. By the processing of the connected area reduction unit 14, only one pixel having a high track score remains in each connected area.

上記のような目標検出装置では、積算処理において発生するフレーム間の画素の重複割当を解消し1対1に対応づけ、さらに重複割当が解消できなかった画素に対しては、連結領域を構成する画素の中からtrack scoreが最大となる1画素だけを残し、他の画素のtrack scoreを最小値に置き換えることで、目標画素の広がりを抑制し、目標検出精度を向上させる効果がある。   In the target detection apparatus as described above, overlapping allocation of pixels between frames that occurs in the integration process is canceled and associated with one-to-one, and a connected region is configured for pixels for which overlapping allocation could not be canceled. By leaving only one pixel having the maximum track score from among the pixels and replacing the track score of the other pixels with the minimum value, there is an effect of suppressing the spread of the target pixel and improving the target detection accuracy.

実施の形態4.
図12は、この発明の実施の形態4における目標検出装置の構成を示すブロック図である。実施の形態4における目標検出装置は、実施の形態2に示した目標検出装置における初期検出化処理部12を連結領域抽出部13および連結領域縮小部14に置き換えたものであり、割当解消が行えなかった画素に対して初期検出化処理を行う代わりに、連結領域縮小処理を行う点が実施の形態2における目標検出装置と異なっている。図12に示したブロック図を構成する各装置とその動作は、実施の形態1、実施の形態2、実施の形態3で示したものと同じであるため、個々の動作の説明は割愛する。
Embodiment 4 FIG.
FIG. 12 is a block diagram showing a configuration of the target detection apparatus according to Embodiment 4 of the present invention. The target detection device in the fourth embodiment is obtained by replacing the initial detection processing unit 12 in the target detection device shown in the second embodiment with a connected region extracting unit 13 and a connected region reducing unit 14, and can perform allocation cancellation. The difference from the target detection apparatus according to the second embodiment is that a connected area reduction process is performed instead of performing the initial detection process on the pixels that have not been detected. Since each device constituting the block diagram shown in FIG. 12 and its operation are the same as those shown in the first embodiment, the second embodiment, and the third embodiment, description of each operation is omitted.

上記のような目標検出装置では、重複発生箇所の画素のみに処理対象を限定し同一フレーム組における積算処理を繰り返すことでフレーム間の画素の重複割当を解消し、さらに重複割当が解消できなかった画素に対しては、連結領域を構成する画素の中からtrack scoreが最大となる1画素だけを残し、他の画素のtrack scoreを最小値に置き換えることで、目標画素の広がりを抑制し、目標検出精度を向上させる効果がある。   In the target detection device as described above, the processing target is limited to only the pixels where overlap occurs and the integration process in the same frame set is repeated to eliminate the overlapping allocation of pixels between frames, and further, the overlapping allocation cannot be resolved. For pixels, only one pixel that has the maximum track score is left out of the pixels that make up the connected region, and the track score of other pixels is replaced with the minimum value, thereby suppressing the spread of the target pixel. There is an effect of improving the detection accuracy.

1 センサ部、2 観測画像取得部、3 尤度比算出部、4 推移確率算出部、5,5A 積算処理部、6 重複割当抽出部、7,7A 重複割当解消部、8 終了判定部、9 目標検出部、10 積算処理対象設定部、11 繰り返し処理終了判定部、12 初期検出化処理部、13 連結領域抽出部、14 連結領域縮小部。   DESCRIPTION OF SYMBOLS 1 Sensor part, 2 Observation image acquisition part, 3 Likelihood ratio calculation part, 4 Transition probability calculation part, 5, 5A Integration processing part, 6 Duplicate allocation extraction part, 7, 7A Duplicate allocation cancellation part, 8 End determination part, 9 Target detection unit, 10 integration process target setting unit, 11 repetition process end determination unit, 12 initial detection processing unit, 13 connected region extraction unit, and 14 connected region reduction unit.

Claims (4)

連続撮影された複数の観測画像を積算処理することにより低SNR環境下であっても目標検出を可能とする目標検出装置であって、
目標の観測を行うセンサ部と、
前記センサ部で観測され画像を取得する観測画像取得部と、
取得した観測画像における各画素の尤度比を算出する尤度比算出部と、
目標の想定運動モデルに従い、取得した観測画像における各画素の推移確率を算出する推移確率算出部と、
前記尤度比算出部で求めた尤度比と、前記推移確率算出部で求めた推移確率と、1フレーム前の処理結果であるtrack scoreとの積算処理を行う積算処理部と、
前記積算処理部による積算処理結果から、現フレーム画像の複数の画素が、1フレーム前の画像の同一画素と対応づけられ重複割当が発生している箇所を抽出する重複割当抽出部と、
前記重複割当抽出部により抽出された重複割当を解消する重複割当解消部と、
積算フレーム数あるいは積算処理時間に基づいて積算処理の終了判定を行う終了判定部と、
最終的に得られた処理結果よりtrack scoreの高い画素を目標として検出する目標検出部と
を備え、
前記重複割当抽出部は、1フレーム前の画像の同一画素に対して現フレーム画像の複数の画素が割り当てられている重複割当が発生している箇所および現フレーム画像の画素との対応付けがなされていない1フレーム前の画像の未割当画素を抽出し、
前記重複割当解消部は、各重複割当発生箇所に対してtrack scoreが最大の現フレーム画像の画素を残し、他の画素と1フレーム前の画像の未割当画素が1対1に対応するように画素間の再割当を行い、さらに再割当が行えなく重複割当が解消されなかった現フレーム画像の画素が存在する場合は当該画素を初期検出画素と見なしてtrack scoreを尤度比のみの値に置き換える
ことを特徴とする目標検出装置。
A target detection apparatus that enables target detection even in a low SNR environment by integrating a plurality of continuously captured images.
A sensor unit for observing the target;
An observation image acquisition unit that acquires an image observed by the sensor unit;
A likelihood ratio calculation unit for calculating a likelihood ratio of each pixel in the acquired observation image;
A transition probability calculation unit that calculates the transition probability of each pixel in the acquired observation image according to the target assumed motion model,
An integration processing unit that performs an integration process of the likelihood ratio obtained by the likelihood ratio calculation unit, the transition probability obtained by the transition probability calculation unit, and a track score that is a processing result of one frame before;
From the result of the integration processing by the integration processing unit, a plurality of pixels of the current frame image are associated with the same pixel of the image one frame before, and a duplicate allocation extraction unit that extracts a location where duplicate allocation has occurred,
A duplicate assignment eliminating unit for eliminating the duplicate assignment extracted by the duplicate assignment extracting unit;
An end determination unit that determines the end of the integration processing based on the number of integration frames or the integration processing time;
A target detection unit that detects a pixel having a higher track score than the finally obtained processing result, and
The overlapping allocation extracting unit associates a location where overlapping allocation occurs in which a plurality of pixels of the current frame image are allocated to the same pixel of the image one frame before and a pixel of the current frame image. Extract unallocated pixels from the previous image that is not
The duplicate allocation elimination unit leaves a pixel of the current frame image having the maximum track score for each duplicate allocation occurrence location so that the other pixels and the unallocated pixels of the image one frame before correspond one-to-one. If there is a pixel in the current frame image that has been reassigned between pixels and has not been reassigned and the duplicate assignment has not been resolved, the pixel is regarded as the initial detection pixel and the track score is set to the value of the likelihood ratio only. A target detection device characterized by replacing.
請求項1に記載の目標検出装置において、
重複割当解消部に替えて、
重複割当の発生状況に基づき、同一フレーム組内で繰り返し積算処理を実行するための積算処理対象を設定する積算処理対象設定部と、
同一フレーム組内で繰り返し実行する積算処理の終了判定を行う繰り返し処理終了判定部と、
同一フレーム組内の積算処理終了後に重複割当が発生している場合、現フレーム画像の当該画素を初期検出画素と見なす初期検出化処理部と
を備え、
前記積算処理対象設定部は、個々の重複割当発生箇所において、track scoreが最大となる現フレーム画像の画素と1フレーム前の画像の画素の対応付けを残し、他の現フレーム画像の画素を未確定画素とし、さらに、1フレーム前の画像より現フレーム画像の各画素との対応付けがなされていない未割当画素を抽出して未確定画素と未割当画素を積算処理対象に再設定し、
前記繰り返し処理終了判定部は、未確定画素数に変化が無くなるかゼロになった場合に、同一フレーム組内での積算処理の繰り返しを終了し、
前記初期検出化処理部は、同一フレーム組内での積算処理終了後に重複割当箇所が残っている場合、個々の重複割当発生箇所において、track scoreが最大となる現フレーム画像の画素を除いた残りの画素を初期検出画素と見なしてそのtrack scoreを当該画素の尤度比に置き換え、
前記積算処理部は、同一フレーム組内の繰り返し処理実行時は未確定画素および未割当画素を積算処理対象とする
ことを特徴とする目標検出装置。
The target detection apparatus according to claim 1,
In place of the duplicate allocation elimination section,
An integration processing target setting unit for setting an integration processing target for repeatedly executing the integration processing in the same frame set based on the occurrence status of duplicate allocation;
A repetitive process end determination unit for determining the end of the integration process repeatedly executed in the same frame set;
And an initial detection processing unit that regards the pixel of the current frame image as an initial detection pixel when overlapping allocation occurs after the integration processing in the same frame set ends,
The integration processing target setting unit leaves the association between the pixel of the current frame image with the maximum track score and the pixel of the image one frame before at each overlap allocation occurrence location, In addition, a non-assigned pixel that is not associated with each pixel of the current frame image is extracted from the image of the previous frame, and the undetermined pixel and the unassigned pixel are reset as integration processing targets.
The repetition process end determination unit ends the repetition of the integration process within the same frame set when the number of unconfirmed pixels disappears or becomes zero,
The initial detection processing unit, when overlapping allocation portions remain after the integration processing within the same frame set, at each overlapping allocation occurrence location, the remaining portions excluding the pixels of the current frame image having the maximum track score And the track score is replaced with the likelihood ratio of the pixel.
The integration processing unit is configured to perform integration processing on unconfirmed pixels and unassigned pixels when performing repetitive processing within the same frame set.
請求項1に記載の目標検出装置において、
前記重複割当解消部の処理で完全に重複割当の解消が行えなかった場合に、個々の重複割当発生箇所の隣接画素を連結領域として抽出する連結領域抽出部と、
抽出した各連結領域を構成する画素のうち、1つを除いて他の画素のtrack scoreを変更する連結領域縮小部と
をさらに備え、
前記連結領域縮小部は、各連結領域に対して、最もtrack scoreの高い画素を残し、他の画素のtrack scoreを現フレーム画像全体の最小track scoreで置き換える
ことを特徴とする目標検出装置。
The target detection apparatus according to claim 1,
A connected region extracting unit that extracts adjacent pixels of each overlapping allocation occurrence location as a connected region when the duplicate assignment cannot be completely eliminated by the processing of the duplicate assignment removing unit;
A connected region reduction unit that changes the track score of other pixels except for one of the pixels constituting each extracted connected region;
The connected region reduction unit leaves a pixel having the highest track score for each connected region, and replaces the track score of other pixels with the minimum track score of the entire current frame image.
請求項2に記載の目標検出装置において、
前記初期検出化処理部に換えて、
前記繰り返し処理終了判定部により同一フレーム組における積算処理を繰り返すことでフレーム間の画素の重複割当を解消し、さらに重複割当の解消が行えなかった場合に、個々の重複割当発生箇所の隣接画素を連結領域として抽出する連結領域抽出部と、
抽出した各連結領域を構成する画素のうち、1つを除いて他の画素のtrack scoreを変更する連結領域縮小部と
を備え、
前記連結領域縮小部は、各連結領域に対して、最もtrack scoreの高い画素を残し、他の画素のtrack scoreを現フレーム画像全体の最小track scoreで置き換える
ことを特徴とする目標検出装置。
The target detection apparatus according to claim 2,
Instead of the initial detection processing unit,
By repeating the integration process in the same frame set by the repetition process end determination unit, the overlapping allocation of pixels between frames is eliminated, and further, when the overlapping allocation cannot be eliminated, the adjacent pixels where each overlapping allocation occurs are determined. A connected region extraction unit for extracting as a connected region;
A connected region reduction unit that changes the track score of other pixels except for one of the pixels constituting each extracted connected region;
The connected region reduction unit leaves a pixel having the highest track score for each connected region, and replaces the track score of other pixels with the minimum track score of the entire current frame image.
JP2009031688A 2009-02-13 2009-02-13 Target detector Pending JP2010186433A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009031688A JP2010186433A (en) 2009-02-13 2009-02-13 Target detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009031688A JP2010186433A (en) 2009-02-13 2009-02-13 Target detector

Publications (1)

Publication Number Publication Date
JP2010186433A true JP2010186433A (en) 2010-08-26

Family

ID=42767033

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009031688A Pending JP2010186433A (en) 2009-02-13 2009-02-13 Target detector

Country Status (1)

Country Link
JP (1) JP2010186433A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120070033A1 (en) * 2010-01-29 2012-03-22 Rochester Institute Of Technology Methods for object-based identification, sorting and ranking of target detections and apparatuses thereof
JP2012093286A (en) * 2010-10-28 2012-05-17 Mitsubishi Electric Corp Target detection device and target detection method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120070033A1 (en) * 2010-01-29 2012-03-22 Rochester Institute Of Technology Methods for object-based identification, sorting and ranking of target detections and apparatuses thereof
US8897489B2 (en) * 2010-01-29 2014-11-25 Rochester Institute Of Technology Methods for object-based identification, sorting and ranking of target detections and apparatuses thereof
JP2012093286A (en) * 2010-10-28 2012-05-17 Mitsubishi Electric Corp Target detection device and target detection method

Similar Documents

Publication Publication Date Title
EP3156897B1 (en) Program generation device, program generation method and program
JP5908844B2 (en) Image processing apparatus and image processing method
CN110555862A (en) Target tracking method, device, electronic equipment and computer-readable storage medium
JP2019117547A (en) Image processing apparatus, image processing method and program
JP2008250746A (en) Mobile object tracking device
KR20220126264A (en) Video jitter detection method and device, electronic equipment and storage medium
JP7096034B2 (en) Building extraction system
JP2008250772A (en) Mobile object tracking device
CN112270745A (en) Image generation method, device, equipment and storage medium
JP2010186433A (en) Target detector
CN104182940B (en) Blurred image restoration method and system
JP6065656B2 (en) Pattern processing apparatus, pattern processing method, and pattern processing program
JP6452324B2 (en) Image processing apparatus, image processing method, and program
JP5431501B2 (en) Image processing apparatus and method
JP7096033B2 (en) Building extraction system
JP2007241479A (en) Variable area detecting device and method thereof
JP5748472B2 (en) Object discrimination device, method, and program
JP6177708B2 (en) Moving object detection device, moving object detection method, and control program
JP2007286808A (en) Characteristic point extraction device
JP5289198B2 (en) Target tracking device
JP5352303B2 (en) Image processing apparatus and method, and program
JP2005250561A (en) Motion vector detecting device, motion vector detecting method and computer program
JP5334713B2 (en) Target detection device
JP2014127763A (en) Image processing apparatus, image processing method, and program
JP2008102589A (en) Moving image processor, moving image processing method and moving image processing program