JP3575971B2 - Target detection device and target detection method - Google Patents

Target detection device and target detection method Download PDF

Info

Publication number
JP3575971B2
JP3575971B2 JP00514598A JP514598A JP3575971B2 JP 3575971 B2 JP3575971 B2 JP 3575971B2 JP 00514598 A JP00514598 A JP 00514598A JP 514598 A JP514598 A JP 514598A JP 3575971 B2 JP3575971 B2 JP 3575971B2
Authority
JP
Japan
Prior art keywords
target
area
setting
luminance
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP00514598A
Other languages
Japanese (ja)
Other versions
JPH11205779A (en
Inventor
稔 菊池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP00514598A priority Critical patent/JP3575971B2/en
Priority to US09/053,695 priority patent/US6298143B1/en
Publication of JPH11205779A publication Critical patent/JPH11205779A/en
Application granted granted Critical
Publication of JP3575971B2 publication Critical patent/JP3575971B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、例えば誘導ミサイルや軍用の航空機等に搭載し、飛行する他の航空機等を検出し、追尾するのに好適な目標検出装置及び検出方法に関する。
【0002】
【従来の技術】
従来、移動する航空機を誘導ミサイルが追尾する場合、誘導ミサイルにはCCDカメラ等の撮像機器を搭載し、対象目標である航空機を含む空間領域の静止画像を得て、その静止画像全体を画素単位で走査(スキャンニング)することにより、移動目標の有無及びその位置を検出していた。
【0003】
航空機等の目標の捕捉には、撮影により得られた静止画像の例えば平均輝度を算出し、画像内各画素毎に輝度を比較し、平均輝度レベルとの差の大きい目標等の映像を識別し抽出することで、撮影画像の中から雲や陸地等の背景を除外した目標の検出が行われていた。
【0004】
このとき、処理速度向上のために、一度抽出した目標の周辺に処理ゲートを設け、処理ゲート内に限る平均輝度を求めて画像処理器への入力信号レベルの調整を行っていた。
【0005】
【発明が解決しようとする課題】
上記のように、従来の目標検出装置は、各静止撮影画像を画素単位で処理し、航空機等の目標や背景物の影像パターンを抽出するものであったから、例えば目標以外には何も存在しない空間領域の中に、目標のみが単独で存在する場合は、平均輝度との差から比較的明瞭にまた容易に移動目標等を識別し検出することができた。
【0006】
しかしながら、撮影画像中に目標の映像に加えて陸地や雲の映像のように、目標に似た紛らわしい輝度の映像パターンが存在し、処理ゲート内に入り込んだ場合は、平均輝度値が不適切な値となり、その中で目標のみを特定し、背景と的確に排除し、かつ迅速に検出することは容易でなかった。
【0007】
【課題を解決するための手段】
本発明は上記実情に鑑みてなされたもので、まず本発明の目標検出装置は、対象領域の第1の撮影画像を得る撮像手段と、この撮像手段で得た前記撮影画像の領域を細区分化する第1の領域分割手段と、この第1の領域分割手段の細区分化により形成された各小領域の画像特徴値に基づき目標を検出する第1の目標検出手段と、この第1の目標検出手段によって検出された目標を中に含む領域を第1の目標捕捉領域として設定する第1の目標捕捉領域設定手段と、この第1の目標捕捉領域設定手段による第1の目標捕捉領域設定後に前記撮像手段によって撮像された第2の撮影画像の領域に対し、前記第1の目標捕捉領域に対応する第2の目標捕捉領域を設定する第2の目標捕捉領域設定手段と、この第2の目標捕捉領域設定手段で設定された第2の目標捕捉領域を細区分化する第2の領域分割手段と、この第2の領域分割手段で細区分化された前記第2の目標捕捉領域内に、前記第1の目標捕捉領域内の背景と異なる背景が検出されたとき、その背景の異なる部分の画像特徴値を補正して、第2の目標捕捉領域内の画像特徴値に基づき目標を検出する第2の目標検出手段とを具備することを特徴とする。
【0008】
また、本発明の目標検出方法は、撮像対象領域の第1の撮影画像を得る第1の撮像工程と、この第1の撮像工程で得た撮影画像を細区分化する第1の領域分割工程と、この第1の領域分割工程の細区分化により形成された各小領域の画像特徴値に基づき目標を検出する第1の目標検出工程と、この第1の目標検出工程により検出された目標を中に含む領域を第1の目標捕捉領域として設定する第1の目標捕捉領域設定工程と、この第1の目標捕捉領域設定工程の後に、前記撮像対象領域について第2の撮影画像を得る第2の撮像工程と、この第2の撮像工程によって撮影された画像上に、前記第1の目標捕捉領域に対応する第2の目標捕捉領域を設定する第2の目標捕捉領域設定工程と、この第2の目標捕捉領域設定工程で設定された第2の目標捕捉領域を細区分化する第2の領域分割工程と、この第2の領域分割工程で細区分化された第2の目標捕捉領域内に、前記第1の目標捕捉領域内の背景と異なる背景が検出されたとき、その背景の異なる部分の画像特徴値を補正して、画像特徴値に基づき目標を検出する第2の目標検出工程とを具備することを特徴とする。
【0009】
以上のように、本発明による目標検出装置及び目標検出方法は、いずれも目標検出に先立ち、撮影画像の細区分(ブロック)化により、処理データ量の削減を図ったので、検出処理演算の迅速化が可能となった。
【0010】
特に、第2の撮影画像に対して、第2の目標捕捉領域を設定し、その限られた領域内での細区分化を行うので、処理データの一層の少量化が図られ、迅速な目標検出とともに検出率の向上を実現できる。
【0011】
【発明の実施の形態】
以下本発明による目標検出装置の一実施の形態を図1ないし図5を参照し、詳細に説明する。
【0012】
図1に示すように、本発明の実施の形態による目標検出装置は、まず誘導ミサイル等に搭載されたCCDカメラ等の撮像機器1が、移動する目標2を含む空間領域を任意の時間(t秒)の間隔をおいて順次撮影するものとする。この撮像機器1の撮影により得られたデジタル映像信号は画像特徴値を検出するため輝度検出器3に供給される。ここで画像特徴値とは、輝度、輝度平均、輝度分散あるいは微分値等を示すものであるが、以下で説明する実施の形態では、輝度及び平均輝度を取り扱うものとして説明する。
【0013】
輝度検出器3は図2に示すように構成され、撮像機器1からのまず最初に撮像された移動目標2を含む空間領域の画像特徴値、すなわち例えばデジタル輝度信号は一旦メモリ31に記憶された後、まず順次読み出され識別回路4に供給されるとともに、第1の平均輝度検出回路32に供給される。
【0014】
第1の平均輝度算出回路32には、第1の領域分割設定回路33が接続され、その第1の領域分割設定回路33は、図3(a)に示すように、撮影された画像を、横軸(x軸)方向及び縦軸(y軸)方向にそれぞれに所定間隔でq、p個に分割する第1の分割信号が予め設定されている。
【0015】
そこで、第1の平均輝度算出回路32は、第1の領域分割設定回路33からのq×pの第1の分割信号の供給を受け、図3(a)に示すように、撮像領域をq×p個に細区分(ブロック)化を行い、各細区分化領域での平均輝度信号とともに画面全体の平均輝度を算出し、それぞれ第1の目標捕捉領域設定回路34及び識別回路4に供給する。なお、画面全体の平均輝度は、各細区分化領域の各平均輝度を基に算出する。また、輝度平均値を、例えば256階調の濃淡表示で表すことができる。
【0016】
なお、目標映像及び雲や陸地の映像は、それぞれ平均輝度レベルが互いに略近似した分割領域のつらなりからなるパターンとして捕らえられる。従って、この実施の形態では、識別回路4は、従来の画素単位とは相違し、図3(b)に示すように、細区分化単位で目標2領域と、各背景2a,2bの領域区域をそれぞれ識別してそれぞれの位置信号を導出する。
【0017】
識別回路4の出力の内、目標2の位置信号4aは、輝度検出器3の第1の目標捕捉領域設定回路34に供給され、第1の目標捕捉領域設定回路34は図3(b)に示すように、目標2をほぼ中央部に含む矩形状の枠の第1の目標捕捉領域2Aを設定し、図2に示すように目標捕捉領域2A信号を第2の目標捕捉領域設定回路35へ、またこの目標捕捉領域2A信号とともに領域2A内における各細分化領域の平均輝度値が比較回路36にそれぞれ供給される。
【0018】
次に、最初に撮影されてから時間t秒を経て後、再び撮像機器1により目標2領域が撮影され、そのデジタル映像信号は同様にメモリ31に記憶され識別回路4に供給されるとともに、記憶されたデジタル映像信号のうち、図4(a)に示すように、移動目標2を含む空間領域のデジタル輝度信号が順次読み出され、図2に示す第2の平均輝度検出回路37に供給される。
【0019】
この平均輝度算出回路37には、前記第2の目標捕捉領域設定回路35及び第2の領域分割設定回路38が接続され、第2の目標捕捉領域設定回路35は前記第1の目標捕捉領域設定回路34からの目標捕捉領域2A信号を受け、図4(a)に示すように、目標2を画面中央に捕らえた目標捕捉領域2A信号に対応する新たな第2の目標捕捉領域2A´を平均輝度算出回路37に供給する。もちろん、目標2をその中央に捕らえていれば、第2の目標捕捉領域2A´に代え、第1の目標捕捉領域2A信号そのものを供給するようにしても良い。
【0020】
また、第2の領域分割設定回路38は、図4(a)に示すように第2の目標捕捉領域2A´内を、横軸(x軸)方向及び縦軸(y軸)方向にそれぞれにn、m個に分割する第2の分割信号が予め設定されている。この場合、細区分化の目の粗さは、第1の領域分割設定回路33における細区分化の目の粗さよりも細かくし、後述する目標2の位置の検出精度、ないしは検出の分解能を高めるようにしても良い。
【0021】
従って、第2の平均輝度検出回路37は、前記第1の平均輝度検出回路32と同様に、第2の目標捕捉領域設定回路35により設定された移動目標を含む領域2A´内を、第2の領域分割回路38からの領域分割信号によりn×m個に細区分化を行い、第1の平均輝度検出回路32と同様に、各n×m細区分化領域での平均輝度、及びこの平均輝度を基に算出した領域2A´の平均輝度を、補正回路39を介して識別回路4に供給するとともに、各n×m細区分化領域での各平均輝度信号をその位置情報とともに比較回路36に供給する。
【0022】
補正回路39を介して、各n×m細区分化領域での各平均輝度信号及び領域2A´の平均輝度信号を受けた識別回路4は、第1の平均輝度検出回路32からの信号を導入して処理演算を行ったのと同様に処理を行い、撮影画像の内の第2の目標捕捉領域設定回路35で設定された領域2A´範囲内における目標及び背景の識別を行い、撮像機器1で得られた目標2の位置を検出し図示しない表示装置に表示させるものである。
【0023】
このように、この実施の形態によれば、識別回路4は、限られた領域2A´について、しかもn×m個の制限されたデータによる輝度信号の比較演算によるものであるから、目標2の位置検出処理の迅速化を図ることができる。
【0024】
なお、一般的には従来と同様に、撮像機器1は識別回路4の出力信号に基づき制御され、撮像機器1が常に捕捉した目標を追尾するように構成されているから、目標が仮に高速移動している場合でも、撮像間隔(t秒)が小さい場合は、第1の目標捕捉領域設定回路34あるいは第2の目標捕捉領域設定回路35も、目標2が各領域2A,2A´内のほぼ中央部に位置するよう制御される。
【0025】
しかしながら、高速移動目標の追尾では、移動目標とその背景の雲や陸地との間の相対位置関係は比較的急速に変化する。従って、図3(a),(b)に示した第1回目の撮像時刻から数刻経たのちは、例えば図4(a)及び図4(b)に示すように、目標2に対する背景2a,2bの位置関係も変化するから、図4 (b)の状態では図5に拡大して示すように、目標捕捉領域2A´内に背景2aの一部が新たに入り込むことが考えられる。
【0026】
特に、背景2aの映像の輝度レベルが目標2の映像の輝度レベルに近い場合、図4(b)に示す目標捕捉領域2A´内の平均輝度は、図4(a)に示す場合よりも、目標2の輝度レベルに近づくこととなる。上述のように、識別回路4において、目標2の識別を領域2A´の平均輝度を基準値として識別しているから、基準となる輝度レベルが変化し、目標2の識別検出が明瞭に行われにくくなる。そこで、この実施の形態では、図2に示すように、比較回路36を設け、第1の目標捕捉領域設定回路34からの領域2Aにおける領域内輝度信号と、第2の平均輝度検出回路37からの領域2A´における領域内輝度信号とを対応比較し、検出された新たに領域2A´内に入り込んだ背景部分2a´の輝度成分を補正信号として前記補正回路39に供給するように構成した。
【0027】
従って、補正回路39は比較回路36からの補正信号により、第2の平均輝度検出回路35からの領域2A´の平均輝度のレベルを補正するので、仮に目標捕捉領域2A´内に背景2aの一部が新たに入り込み、平均輝度レベルが目標2の輝度に近付くことによって、目標2の検出確率が低下するのが回避され、高い分解能での目標2の映像を捕らえることができる。
【0028】
このように、比較回路36及び補正回路39の構成は、背景の相対移動により、平均輝度のレベルが目標2の輝度のレベルに近付き、目標捕捉領域2A内の平均輝度レベルと目標2の輝度レベルとの差異が狭まり、目標2検出確率が低下するのを回避するものである。
【0029】
なお、上記説明において、輝度検出器3の第1及び第2の各平均輝度検出回路32,37おける各分割領域等の平均輝度の算出処理は、デジタル影像信号の単純な加算演算処理で行うことができるから、高速演算により短時間で処理することができ、このような平均輝度の算出と目標捕捉領域設定35とにより、識別回路4におけるデータ量が大幅に削減され、迅速な処理演算により、タイムリーに目標2の位置の検出及び追尾が可能である。
【0030】
また、上記実施の形態における説明において、輝度検出器3及び識別回路4は、撮像機器1からのデジタル映像信号を基にして行う輝度平均化処理は、ハードウェアの構成の組み合わせで行うように説明したが、これらの処理演算をコンピュータのソフトウェア上で行うことができる。
【0031】
以上述べたように本発明装置及び方法によれば、撮像画面を分割し、目標捕捉領域を設定し、各分割領域内の平均輝度や輝度分散あるいは微分値等の画像特徴値を時系列上で対応比較することで、目標と背景のコントラストが小さく、あるいは背景の輝度等の分散が大きい場合でも、良好な分解能のもとで移動目標等を的確に検出することができる。
【0032】
【発明の効果】
以上説明のように、この発明による目標検出装置及び検出方法は、簡単な構成により、演算処理時間の短縮化が図られ、移動目標等を短時間にしかも確実に検出し得るもので、実用上の効果大である。
【図面の簡単な説明】
【図1】本発明による目標検出装置及び検出方法の一実施の形態を示す構成図である。
【図2】図1に示した装置の輝度検出器を示す構成図である。
【図3】図3(a)は、図2に示す第1の領域分割設定回路により設定された撮像領域、図3(b)は、図2の第1の目標捕捉領域設定回路により設定された領域2Aを含む撮像領域をそれぞれ示す説明図である。
【図4】図4(a)及び図4(b)は、それぞれ図2に示す第2の平均輝度検出回路における撮像領域を示す説明図である。
【図5】図4に示す領域2A´の拡大図である。
【符号の説明】
1 撮像機器
2 目標
3 輝度検出器
31 メモリ
32 第1の平均輝度検出回路
33 第1の領域分割設定回路
34 第1の目標捕捉領域設定回路
35 第2の目標捕捉領域設定回路
36 比較回路
37 第2の平均輝度検出回路
38 第2の領域分割設定回路
39 補正回路
4 識別回路
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a target detection device and a detection method suitable for detecting and tracking other aircraft or the like mounted on, for example, guided missiles or military aircraft.
[0002]
[Prior art]
Conventionally, when a guided missile tracks a moving aircraft, the guided missile is equipped with an imaging device such as a CCD camera, obtains a still image of a spatial region including the target aircraft, and converts the entire still image into pixels. The presence or absence of the moving target and the position of the moving target are detected by performing the scanning (scanning).
[0003]
For capturing a target such as an aircraft, for example, the average brightness of a still image obtained by shooting is calculated, the brightness is compared for each pixel in the image, and a video of a target having a large difference from the average brightness level is identified. Extraction has been performed to detect a target excluding a background such as a cloud or land from a captured image.
[0004]
At this time, in order to improve the processing speed, a processing gate is provided around the once extracted target, and the average luminance limited within the processing gate is obtained to adjust the input signal level to the image processor.
[0005]
[Problems to be solved by the invention]
As described above, since the conventional target detection apparatus processes each still photographed image on a pixel-by-pixel basis and extracts an image pattern of a target such as an aircraft or a background object, there is nothing other than the target, for example. When only the target exists alone in the spatial region, the moving target and the like can be identified and detected relatively clearly and easily from the difference from the average luminance.
[0006]
However, in the captured image, in addition to the target image, in addition to the target image, there is a confusing luminance image pattern similar to the target, such as a land and cloud image, and if the image enters the processing gate, the average luminance value is inappropriate. It was not easy to identify only the target among them, accurately exclude the background, and quickly detect it.
[0007]
[Means for Solving the Problems]
The present invention has been made in view of the above circumstances. First, a target detecting apparatus according to the present invention includes an imaging unit for obtaining a first captured image of a target area, and a subdivision of the area of the captured image obtained by the imaging unit. First area dividing means for converting the first area dividing means, first target detecting means for detecting a target based on the image feature value of each small area formed by subdivision of the first area dividing means, First target capturing area setting means for setting an area including the target detected by the target detecting means as a first target capturing area; and first target capturing area setting by the first target capturing area setting means. A second target capture area setting unit that sets a second target capture area corresponding to the first target capture area with respect to an area of a second captured image captured later by the imaging unit; Set by the target capture area setting means Second area dividing means for subdivision differentiate second target acquisition area, the subdivision differentiated second target acquisition region in the second area division unit, the first target acquisition region And a second target detecting means for correcting an image feature value of a different portion of the background and detecting a target based on the image feature value in the second target capture area when a background different from the background is detected. It is characterized by having.
[0008]
In addition, the target detection method of the present invention includes a first imaging step of obtaining a first captured image of an imaging target area, and a first area dividing step of subdividing the captured image obtained in the first imaging step. A first target detection step of detecting a target based on the image feature value of each small area formed by the subdivision of the first area division step; and a target detected by the first target detection step. A first target capture region setting step of setting a region including the first target capture region as a first target capture region, and a second captured image of the imaging target region obtained after the first target capture region setting step. 2, a second target capture area setting step of setting a second target capture area corresponding to the first target capture area on an image captured by the second image capture step; The second target set in the second target capture area setting step Different target capture region and a second region dividing step of differentiating subdivision, the second target acquisition region differentiated subdivision in this second area dividing step, and the first background target acquisition region When a background is detected, a second target detection step of correcting an image feature value of a different portion of the background and detecting a target based on the image feature value is provided.
[0009]
As described above, the target detection device and the target detection method according to the present invention reduce the amount of processing data by subdividing (blocking) the captured image prior to the target detection. Has become possible.
[0010]
In particular, since a second target capture area is set for the second captured image and subdivision is performed within the limited area, the amount of processed data can be further reduced, and a quick target can be achieved. The detection rate can be improved together with the detection.
[0011]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an embodiment of a target detecting apparatus according to the present invention will be described in detail with reference to FIGS.
[0012]
As shown in FIG. 1, in the target detection device according to the embodiment of the present invention, an imaging device 1 such as a CCD camera mounted on a guided missile or the like first moves a spatial region including a moving target 2 to an arbitrary time (t). (Seconds). The digital video signal obtained by the photographing of the imaging device 1 is supplied to a luminance detector 3 for detecting an image feature value. Here, the image feature value indicates a luminance, a luminance average, a luminance variance, a differential value, or the like. In the embodiment described below, the description will be made assuming that the luminance and the average luminance are handled.
[0013]
The luminance detector 3 is configured as shown in FIG. 2, and an image feature value of a spatial region including the moving target 2 captured first from the imaging device 1, that is, for example, a digital luminance signal is temporarily stored in the memory 31. After that, first, the data is sequentially read out and supplied to the identification circuit 4 and also supplied to the first average luminance detection circuit 32.
[0014]
A first area division setting circuit 33 is connected to the first average luminance calculation circuit 32, and the first area division setting circuit 33 converts a captured image into a first image as shown in FIG. A first divided signal that is divided into q and p signals at predetermined intervals in the horizontal axis (x-axis) direction and the vertical axis (y-axis) direction is set in advance.
[0015]
Therefore, the first average luminance calculation circuit 32 receives the supply of the q × p first divided signal from the first region division setting circuit 33 and, as shown in FIG. Xp sub-divisions (blocks) are performed, the average luminance of the entire screen is calculated together with the average luminance signal in each sub-division region, and supplied to the first target capture region setting circuit 34 and the identification circuit 4, respectively. . Note that the average luminance of the entire screen is calculated based on each average luminance of each subdivision area. In addition, the average luminance value can be represented by, for example, 256 gradations of light and shade.
[0016]
Note that the target image and the images of the clouds and the land are captured as a pattern composed of a series of divided areas whose average luminance levels are approximately similar to each other. Therefore, in this embodiment, the identification circuit 4 is different from the conventional pixel unit, and as shown in FIG. 3B, the target 2 area and the area area of each of the backgrounds 2a and 2b are subdivided. Are respectively identified to derive respective position signals.
[0017]
Among the outputs of the identification circuit 4, the position signal 4a of the target 2 is supplied to a first target capture area setting circuit 34 of the luminance detector 3, and the first target capture area setting circuit 34 is configured as shown in FIG. As shown, a first target capture area 2A of a rectangular frame including the target 2 substantially at the center is set, and a target capture area 2A signal is sent to a second target capture area setting circuit 35 as shown in FIG. The average luminance value of each subdivided area in the area 2A is supplied to the comparison circuit 36 together with the target capture area 2A signal.
[0018]
Next, after a lapse of time t seconds from the first photographing, the target device 2 is photographed again by the imaging device 1, and the digital video signal is similarly stored in the memory 31 and supplied to the identification circuit 4. As shown in FIG. 4A, the digital luminance signals in the spatial region including the moving target 2 are sequentially read out from the digital video signals thus obtained, and supplied to the second average luminance detection circuit 37 shown in FIG. You.
[0019]
The second target acquisition area setting circuit 35 and the second area division setting circuit 38 are connected to the average luminance calculation circuit 37, and the second target acquisition area setting circuit 35 is connected to the first target acquisition area setting circuit 35. Upon receiving the target capture area 2A signal from the circuit 34, as shown in FIG. 4A, the new second target capture area 2A 'corresponding to the target capture area 2A signal capturing the target 2 at the center of the screen is averaged. It is supplied to the luminance calculation circuit 37. Of course, if the target 2 is captured at the center, the first target capture area 2A signal itself may be supplied instead of the second target capture area 2A '.
[0020]
Further, as shown in FIG. 4A, the second area division setting circuit 38 moves the inside of the second target acquisition area 2A ′ in the horizontal axis (x-axis) direction and the vertical axis (y-axis) direction. A second divided signal to be divided into n and m signals is set in advance. In this case, the coarseness of the fine division is made finer than the fineness of the fine division in the first area division setting circuit 33, and the detection accuracy of the position of the target 2 described later or the resolution of the detection is increased. You may do it.
[0021]
Therefore, like the first average luminance detection circuit 32, the second average luminance detection circuit 37 moves the area 2A 'including the moving target set by the second target capture area setting circuit 35 into the second average luminance detection circuit 32. Is divided into n × m sub-regions by the region division signal from the region division circuit 38, and the average luminance in each of the n × m sub-regions, and the average The average luminance of the area 2A ′ calculated based on the luminance is supplied to the identification circuit 4 via the correction circuit 39, and the average luminance signal in each of the n × m sub-areas is compared with the position information thereof with the comparison circuit 36. To supply.
[0022]
The identification circuit 4 receiving the average luminance signal in each of the n × m sub-regions and the average luminance signal in the region 2A ′ via the correction circuit 39 introduces the signal from the first average luminance detection circuit 32. The processing is performed in the same manner as when the processing operation is performed, and the target and the background in the area 2A ′ set by the second target capture area setting circuit 35 in the captured image are identified, and the imaging device 1 Is detected and displayed on a display device (not shown).
[0023]
As described above, according to this embodiment, the identification circuit 4 performs the comparison operation of the luminance signal with respect to the limited area 2A ′ and with the n × m pieces of the limited data. It is possible to speed up the position detection process.
[0024]
In general, similarly to the related art, the imaging device 1 is controlled based on the output signal of the identification circuit 4 and is configured to always track the target captured by the imaging device 1, so that the target temporarily moves at a high speed. However, if the imaging interval (t seconds) is small, the first target capture region setting circuit 34 or the second target capture region setting circuit 35 also determines that the target 2 is substantially in each of the regions 2A and 2A '. It is controlled to be located at the center.
[0025]
However, when tracking a high-speed moving target, the relative positional relationship between the moving target and the background cloud or land changes relatively quickly. Therefore, after a few steps from the first imaging time shown in FIGS. 3A and 3B, for example, as shown in FIG. 4A and FIG. Since the positional relationship of 2b also changes, a part of the background 2a may newly enter the target capture area 2A 'in the state of FIG.
[0026]
In particular, when the luminance level of the image of the background 2a is close to the luminance level of the image of the target 2, the average luminance in the target capture area 2A 'shown in FIG. 4B is higher than that in the case shown in FIG. The brightness level of the target 2 is approached. As described above, the identification circuit 4 identifies the target 2 using the average luminance of the area 2A 'as the reference value. Therefore, the reference luminance level changes, and the identification of the target 2 is clearly detected. It becomes difficult. Therefore, in this embodiment, as shown in FIG. 2, a comparison circuit 36 is provided, and the in-region luminance signal in the region 2A from the first target capture region setting circuit 34 and the second average luminance detection circuit 37 And a comparison is made between the luminance signal in the area 2A ′ and the detected luminance component of the background portion 2a ′ newly entering the area 2A ′ is supplied to the correction circuit 39 as a correction signal.
[0027]
Therefore, the correction circuit 39 corrects the level of the average luminance of the area 2A 'from the second average luminance detection circuit 35 based on the correction signal from the comparison circuit 36. When the section enters anew and the average luminance level approaches the luminance of the target 2, it is possible to avoid a decrease in the detection probability of the target 2 and capture an image of the target 2 with high resolution.
[0028]
As described above, the configuration of the comparison circuit 36 and the correction circuit 39 is such that the average luminance level approaches the luminance level of the target 2 due to the relative movement of the background, and the average luminance level in the target capture area 2A and the luminance level of the target 2 This avoids a decrease in the difference from the target 2 and a decrease in the target 2 detection probability.
[0029]
In the above description, the process of calculating the average luminance of each divided region in the first and second average luminance detection circuits 32 and 37 of the luminance detector 3 is performed by a simple addition operation of digital image signals. Therefore, the processing can be performed in a short time by the high-speed calculation, and the calculation of the average luminance and the target capture area setting 35 greatly reduce the data amount in the identification circuit 4, and the processing can be performed quickly. The position of the target 2 can be detected and tracked in a timely manner.
[0030]
In the description of the above-described embodiment, the luminance detector 3 and the identification circuit 4 perform the luminance averaging process performed based on the digital video signal from the imaging device 1 by using a combination of hardware configurations. However, these processing operations can be performed on software of a computer.
[0031]
As described above, according to the apparatus and method of the present invention, the imaging screen is divided, a target capture area is set, and image feature values such as average luminance, luminance variance, or differential values in each divided area are time-series. By performing the correspondence comparison, even when the contrast between the target and the background is small or the variance of the luminance of the background or the like is large, the moving target or the like can be accurately detected with good resolution.
[0032]
【The invention's effect】
As described above, the target detecting device and the detecting method according to the present invention can shorten the arithmetic processing time with a simple configuration and can detect a moving target or the like in a short time and reliably. The effect is great.
[Brief description of the drawings]
FIG. 1 is a configuration diagram showing an embodiment of a target detection device and a detection method according to the present invention.
FIG. 2 is a configuration diagram showing a luminance detector of the device shown in FIG.
3A is an imaging area set by a first area division setting circuit shown in FIG. 2, and FIG. 3B is set by a first target capture area setting circuit shown in FIG. 2; It is explanatory drawing which shows each imaging area including the area | region 2A which was shown.
FIGS. 4A and 4B are explanatory diagrams each showing an image pickup area in the second average luminance detection circuit shown in FIG. 2;
FIG. 5 is an enlarged view of a region 2A ′ shown in FIG.
[Explanation of symbols]
Reference Signs List 1 imaging device 2 target 3 brightness detector 31 memory 32 first average brightness detection circuit 33 first area division setting circuit 34 first target capture area setting circuit 35 second target capture area setting circuit 36 comparison circuit 37 2 average luminance detection circuit 38 second area division setting circuit 39 correction circuit 4 identification circuit

Claims (4)

対象領域の第1の撮影画像を得る撮像手段と、
この撮像手段で得た前記撮影画像の領域を細区分化する第1の領域分割手段と、
この第1の領域分割手段の細区分化により形成された各小領域の画像特徴値に基づき目標を検出する第1の目標検出手段と、
この第1の目標検出手段によって検出された目標を中に含む領域を第1の目標捕捉領域として設定する第1の目標捕捉領域設定手段と、
この第1の目標捕捉領域設定手段による第1の目標捕捉領域設定後に前記撮像手段によって撮像された第2の撮影画像の領域に対し、前記第1の目標捕捉領域に対応する第2の目標捕捉領域を設定する第2の目標捕捉領域設定手段と、
この第2の目標捕捉領域設定手段で設定された第2の目標捕捉領域を細区分化する第2の領域分割手段と、
この第2の領域分割手段で細区分化された前記第2の目標捕捉領域内に、前記第1の目標捕捉領域内の背景と異なる背景が検出されたとき、その背景の異なる部分の画像特徴値を補正して、第2の目標捕捉領域内の画像特徴値に基づき目標を検出する第2の目標検出手段と
を具備することを特徴とする目標検出装置。
Imaging means for obtaining a first captured image of the target area;
First area dividing means for subdividing the area of the photographed image obtained by the imaging means;
First target detection means for detecting a target based on the image feature value of each small area formed by the subdivision of the first area division means;
First target capture area setting means for setting an area including the target detected by the first target detection means as a first target capture area;
After setting the first target capture area by the first target capture area setting means, a second target capture corresponding to the first target capture area is performed for the area of the second captured image captured by the imaging means. Second target capture area setting means for setting an area;
Second area dividing means for subdividing the second target capturing area set by the second target capturing area setting means;
When a background different from the background in the first target capturing area is detected in the second target capturing area subdivided by the second area dividing means, image characteristics of a different portion of the background are detected. A second target detection unit for correcting a value and detecting a target based on an image feature value in a second target capture area.
前記画像特徴値は、輝度、輝度平均、輝度分散または微分値のうちのいずれか1つを含むことを特徴とする請求項1記載の目標検出装置。The target detection apparatus according to claim 1, wherein the image feature value includes one of luminance, luminance average, luminance variance, and a differential value . 撮像対象領域の第1の撮影画像を得る第1の撮像工程と、A first imaging step of obtaining a first captured image of the imaging target area;
この第1の撮像工程で得た撮影画像を細区分化する第1の領域分割工程と、A first region division step of subdividing the captured image obtained in the first imaging step;
この第1の領域分割工程の細区分化により形成された各小領域の画像特徴値に基づき目標を検出する第1の目標検出工程と、A first target detection step of detecting a target based on the image feature value of each small area formed by the subdivision in the first area division step;
この第1の目標検出工程により検出された目標を中に含む領域を第1の目標捕捉領域として設定する第1の目標捕捉領域設定工程と、A first target capture area setting step of setting an area including the target detected by the first target detection step as a first target capture area;
この第1の目標捕捉領域設定工程の後に、前記撮像対象領域について第2の撮影画像を得る第2の撮像工程と、A second imaging step of obtaining a second captured image of the imaging target area after the first target capturing area setting step;
この第2の撮像工程によって撮影された画像上に、前記第1の目標捕捉領域に対応する第2の目標捕捉領域を設定する第2の目標捕捉領域設定工程と、A second target capture area setting step of setting a second target capture area corresponding to the first target capture area on an image captured by the second imaging step;
この第2の目標捕捉領域設定工程で設定された第2の目標捕捉領域を細区分化する第2の領域分割工程と、A second area division step of subdividing the second target acquisition area set in the second target acquisition area setting step;
この第2の領域分割工程で細区分化された第2の目標捕捉領域内に、前記第1の目標捕捉領域内の背景と異なる背景が検出されたとき、その背景の異なる部分の画像特徴値を補正して、画像特徴値に基づき目標を検出する第2の目標検出工程とWhen a background different from the background in the first target capturing area is detected in the second target capturing area subdivided in the second area dividing step, the image feature value of a different portion of the background is detected. A second target detecting step of correcting the target and detecting a target based on the image feature value;
を具備することを特徴とする目標検出方法。A target detection method, comprising:
前記画像特徴値は、輝度、輝度平均、輝度分散または微分値のうちのいずれか1つを含むことを特徴とする請求項3記載の目標検出方法。 4. The target detection method according to claim 3, wherein the image feature value includes one of luminance, luminance average, luminance variance, and a differential value .
JP00514598A 1997-04-03 1998-01-13 Target detection device and target detection method Expired - Lifetime JP3575971B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP00514598A JP3575971B2 (en) 1998-01-13 1998-01-13 Target detection device and target detection method
US09/053,695 US6298143B1 (en) 1997-04-03 1998-04-02 Moving target detecting system and moving target detecting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP00514598A JP3575971B2 (en) 1998-01-13 1998-01-13 Target detection device and target detection method

Publications (2)

Publication Number Publication Date
JPH11205779A JPH11205779A (en) 1999-07-30
JP3575971B2 true JP3575971B2 (en) 2004-10-13

Family

ID=11603141

Family Applications (1)

Application Number Title Priority Date Filing Date
JP00514598A Expired - Lifetime JP3575971B2 (en) 1997-04-03 1998-01-13 Target detection device and target detection method

Country Status (1)

Country Link
JP (1) JP3575971B2 (en)

Also Published As

Publication number Publication date
JPH11205779A (en) 1999-07-30

Similar Documents

Publication Publication Date Title
JP3279479B2 (en) Video monitoring method and device
JP3298072B2 (en) Video camera system
CA2680646C (en) Moving object noise elimination processing device and moving object noise elimination processing program
KR101071352B1 (en) Apparatus and method for tracking object based on PTZ camera using coordinate map
KR101098087B1 (en) Image processing device, image processing method, and computer readable medium having recorded thereon an image processing program
US20030090593A1 (en) Video stabilizer
KR100676232B1 (en) Object tracking method, object tracking apparatus and computer-readable record medium with recorded object tracking program
EP0878965A3 (en) Method for tracking entering object and apparatus for tracking and monitoring entering object
JP2010114752A (en) Device and method of imaging and program
JP3575971B2 (en) Target detection device and target detection method
JP5539565B2 (en) Imaging apparatus and subject tracking method
KR20170043880A (en) Face tracking camera module and method
JPH0514891A (en) Image monitor device
JPH028893A (en) Automatic image clearness adjustment for image pickup tube
JP3642262B2 (en) Imaging device
JP2004208209A (en) Device and method for monitoring moving body
JPH057363A (en) Picture monitoring device
JP2000175101A (en) Automatic tracking device
JP6459745B2 (en) Self-position calculation device and self-position calculation method
JP2692853B2 (en) Image blur detector
JPH0783474B2 (en) Automatic tracking imaging device
JP3704201B2 (en) Automatic photographing camera system and object recognition method in the system
JP2004072415A (en) Intruding object detector
JP2000268173A (en) Method for processing object recognition image
CN111989910B (en) Image processing apparatus, image processing method, and recording medium having image processing program recorded thereon

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040309

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040706

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080716

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090716

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090716

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100716

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110716

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120716

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130716

Year of fee payment: 9

EXPY Cancellation because of completion of term