JP4071650B2 - Image target detection method and apparatus, and image target detection program - Google Patents
Image target detection method and apparatus, and image target detection program Download PDFInfo
- Publication number
- JP4071650B2 JP4071650B2 JP2003051014A JP2003051014A JP4071650B2 JP 4071650 B2 JP4071650 B2 JP 4071650B2 JP 2003051014 A JP2003051014 A JP 2003051014A JP 2003051014 A JP2003051014 A JP 2003051014A JP 4071650 B2 JP4071650 B2 JP 4071650B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- pixel
- absolute value
- images
- difference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、可視光センサ、赤外線等の放射光センサ等の画像センサにより得られた目標の画像を含む時系列画像に基づいて、その目標の候補領域を検出するための画像目標検出方法および装置に関し、特に、画像上において明滅する目標の候補領域を検出することができる画像目標検出方法および装置、ならびに画像目標検出用プログラムに関する。
【0002】
【従来の技術】
従来、画像センサにより得られた移動物体等の目標の画像に基づいて目標を検出する目標検出処理として、例えば図8に示すものが知られている。
【0003】
この図8に示す目標検出処理部50によれば、画像センサ51により取得された目標を含む画像の各画素は、前処理部52により、その周辺画素との間で平均化され、ノイズが除去(平滑化)された画像が得られる。
【0004】
この平滑化画像は、特徴抽出部53により微分処理が施され、複数の目標候補となる部分(領域;目標候補領域とする)のエッジが強調される。このエッジが強調された画像は、特徴抽出部53における空間フィルタを介して所定のしきい値に基づいて2値化処理され、目標候補領域が抽出される。
【0005】
そして、抽出された目標候補画像の例えば面積、重心位置、縦横比等の特徴量が目標判定部54により複合的に評価され、目標候補領域の中から目標位置に対応する目標候補領域が判定される。
【0006】
また、移動物体等の目標を検出する装置として、360°の全方位についての赤外線画像を撮像する入射光学部を用いた装置が知られている(例えば、特許文献1参照)。
【0007】
【特許文献1】
特開2000−346923
【0008】
【発明が解決しようとする課題】
例えばヘリコプターのロータ部分等の回転部材を目標として検出する場合、回転部材は、その回転により画像上において明滅する。
【0009】
このように周期的に明滅するロータ部分を図8に示す目標検出処理を用いて検出する場合、その目標検出処理における特徴抽出部53においては、周波数成分を全く考慮することなく特徴抽出処理を行っているため、ロータ部分の周波数成分を抽出することが困難であり、目標を正確に検出することができなかった。
【0010】
この点、上記特許文献1においては、入射光学部およびデローテーションプリズムを回転させることにより、周期的に回転するロータ部分の検出を図っている。
【0011】
しかしながら、特許文献1の構成では、入射光学系として、入射光学部、デローテションプリズムおよびこの両者を回転制御する部材が必要になり、目標検出装置全体の大規模化および複雑化を招いていた。
【0012】
本発明は、上記に鑑みてなされたもので、その目的としては、例えば目標が周波数変化する場合であっても、装置全体を大規模化および複雑化することなく、その目標を含む画像により該目標を正確に検出することができる画像目標検出方法および装置、ならびに画像目標検出用プログラムを提供することにある。
【0013】
【課題を解決するための手段】
本発明は、上記課題を解決するため、目標の画像を含むフレーム単位の複数の時系列画像に基づいて前記目標の候補領域を検出する画像目標検出装置であって、前記複数の時系列画像における時間的に隣接する画像間の画素毎の差分を求めて複数の差分画像を生成する差分画像生成手段と、生成された複数の差分画像それぞれの絶対値を画素毎に求めて複数の差分絶対値画像を生成し、生成した複数の差分絶対値画像を出力する差分絶対値画像生成手段と、前記差分絶対値画像生成手段から出力された複数の差分絶対値画像を所定の積分係数に基づいて画素毎に時間的に積分して積分画像を生成する積分画像生成手段と、備えたことを要旨とする。
【0014】
または、本発明は、上記課題を解決するため、前記生成された積分画像を所定のしきい値に基づいて2値化処理して、前記目標の候補領域の画素値を1および背景領域の画素値を0とする2値化画像を生成する2値化手段をさらに備えている。
【0015】
または、本発明は、上記課題を解決するため、前記積分画像生成手段は、前記積分画像として、前記複数フレームの差分絶対値画像に対応した複数フレームの積分画像を生成して出力するようになっており、前記積分画像生成手段が、前記出力された各フレームの積分画像の各画素の画素値の平均値を計算し、前記各画素の画素値および前記計算された平均値に基づいて当該各フレームの積分画像における各画素の分散を計算する計算手段と、計算された平均値に基づいて、前記各フレームの積分画像の次フレームの積分画像に対する所定の積分係数を求める手段とをさらに備え、前記2値化手段は、計算された平均値および分散に基づいて前記所定のしきい値を求める手段をさらに備えたことを要旨とする。
【0016】
または、本発明は、上記課題を解決するため、前記積分画像生成手段が、前記各フレームの差分絶対値画像を蓄積する蓄積処理部と、この蓄積処理部により蓄積された各フレームの差分絶対値画像の各画素に前記所定の積分係数を乗算し、当該所定の積分係数が乗算された各フレームの差分絶対値画像を、当該各フレームの差分絶対値画像の次フレームの差分絶対値画像に対して画素毎に積算し、この積算結果を次フレームの差分絶対値画像として前記蓄積処理部に送るとともに、前記次フレームの差分絶対値画像に対応する次フレームの積分画像として出力する積算処理部とを備えたことを要旨とする。
【0017】
または、本発明は、上記課題を解決するため、前記目標候補領域となる2値化画像を、複数画素から成るセグメントに分割し、各セグメントにおける画素値1が互いに連結されている領域に同一のラベルを付ける手段と、前記ラベル付けされたそれぞれの領域における特徴量を表すパラメータを抽出し、抽出されたそれぞれの領域を、その特徴量パラメータに基づいて評価し、その評価値の最も高い領域を前記目標の領域として検出する手段と、を備えたことを要旨とする。
【0018】
または、本発明は、上記課題を解決するため、前記特徴量を表すパラメータが、前記それぞれの領域における平滑化最大値、微分最大値、差分最大値、移動方向および移動量を含むことを要旨とする。
【0019】
または、本発明は、上記課題を解決するため、目標の画像を含むフレーム単位の複数の時系列画像に基づいて前記目標の候補領域を検出するためのコンピュータが実行可能な画像目標検出用プログラムであって、前記コンピュータを、前記複数の時系列画像における時間的に隣接する画像間の画素毎の差分を求めて複数の差分画像を生成する差分画像生成手段と、生成された複数の差分画像それぞれの絶対値を画素毎に求めて複数の差分絶対値画像を生成し、生成した複数の差分絶対値画像を出力する差分絶対値画像生成手段と、前記差分絶対値画像生成手段から出力された複数の差分絶対値画像を所定の積分係数に基づいて画素毎に時間的に積分して積分画像を生成する積分画像生成手段と、してそれぞれ機能させることを要旨とする。
【0020】
または、本発明は、上記課題を解決するため、目標の画像を含むフレーム単位の複数の時系列画像に基づいて前記目標の候補領域を検出する画像目標検出方法であって、
前記複数の時系列画像における時間的に隣接する画像間の画素毎の差分を求めて複数の差分画像を生成するステップと、生成された複数の差分画像それぞれの絶対値を画素毎に求めて複数の差分絶対値画像を生成し、生成した複数の差分絶対値画像を出力するステップと、前記差分絶対値画像生成ステップにより出力された複数の差分絶対値画像を所定の積分係数に基づいて画素毎に時間的に積分して積分画像を生成するステップと、を備えたことを要旨とする。
【0021】
【発明の実施の形態】
以下、本発明の実施の形態に係る画像目標検出方法および装置、ならびに画像目標検出用プログラムを図面を参照して説明する。なお、本実施形態においては、例えばヘリコプターのロータ部分等、回転等の動作により画像上において明滅する部分を目標として、その目標を検出する場合について説明する。
【0022】
図1は、本発明の実施の形態に係る画像目標検出装置1の概略構成を示す図である。
【0023】
図1に示すように、画像目標検出装置1は、目標から反射された可視光、赤外線等の光線(ビーム)に基づいて撮像された目標の画像(フレーム画像)を含む複数{(目標検出に必要な計算フレーム数n(nは2以上の整数)}の時系列画像が画像センサから装置1に対して順次入力された際に、その入力された複数の時系列画像に基づいて、目標を検出する装置である。
【0024】
すなわち、画像目標装置1は、入力された複数の時系列画像に基づいて、その時系列画像に含まれる周期的に明滅する目標の周波数変調成分を検出する時間フィルタ2と、この時間フィルタ2により検出された周波数変調成分を所定のしきい値tを用いて2値化処理して、目標の候補となる領域(目標候補領域)の画素値(輝度値)を1、それ以外の背景領域の画素値を0とする2値化画像を抽出するため2値化処理部3とを備えている。
【0025】
また、画像目標検出装置1は、入力された各時系列画像の所定の画素領域毎に、その中央の画素を各所定の領域の平均値に置き換えて雑音を除去するための平滑処理部5と、この平滑処理部5により平滑化された各時系列画像の各画素値を、その各画素値の近傍の画素値との差を用いて微分することにより、上記各時系列画像のエッジを強調するための微分処理部6とを備えている。
【0026】
また、画像目標検出装置1は、平滑処理部5により平滑化された各時系列画像を所定のしきい値を用いて2値化処理して2値化画像を生成するための2値化処理部10と、微分処理部6によりエッジ強調された微分画像を所定のしきい値を用いて2値化処理して2値化画像を生成するための2値化処理部11とを備えている。
【0027】
さらに、画像目標検出装置1は、2値化処理部3により抽出された目標候補領域を含む2値化画像を、2値化処理部10により求められた2値化画像および2値化処理部11により得られた2値化画像と比較することにより、目標候補領域から、検出目標となる目標領域を判定する目標領域判定部12を備えている。
【0028】
時間フィルタ2は、図1に示すように、入力された複数の時系列画像における時間的に隣接する画像間の画素毎の差分を求めて複数の差分画像を生成するための差分処理部20と、この差分処理部20により生成された複数の差分画像それぞれの絶対値を画素毎に求めて複数の差分絶対値画像を生成し、生成した複数の差分絶対値画像を出力する絶対値処理部21とを備えている。
【0029】
また、時間フィルタ2は、絶対値処理部21から出力された複数の差分絶対値画像を所定の積分係数kに基づいて画素毎に時間的に積分して積分画像を生成する積分処理部22と、この積分処理部22により生成された積分画像に基づいて所定の積分kおよび所定のしきい値tを計算し、計算された積分係数kを積分処理部22にフィードバックし、計算されたしきい値tを2値化処理部3に送るしきい値・積分係数計算部23とを備えている。
【0030】
図2は、本実施形態の時間フィルタ2を構成する差分処理部20、絶対値処理部21、積分処理部22およびしきい値・積分係数計算部23の概略構成を示すブロック図である。
【0031】
図2に示すように、時間フィルタ2の差分処理部20は、例えば差分処理専用のワイヤードロジック回路により構成されており、少なくとも時系列画像の1フレーム分の記憶領域を有する画像メモリ31と、順次入力される複数フレームの時系列画像を1フレーム毎に順次画像メモリ31に蓄積する画像蓄積処理部32と、画像メモリ31に蓄積された時系列画像Ih−1(1≦h(整数)≦n;ただし、I0は、画像メモリ31に画像が蓄積されていない状態を表す)の次フレームの時系列画像Ihから、画像メモリ31に蓄積された時系列画像Ih−1、すなわち、1フレーム前の時系列画像Ih−1を各画素毎に差分して差分画像Dhを生成出力する差分画像生成出力部33とを備えている。
【0032】
また、絶対値処理部21は、例えば絶対値処理専用のワイヤードロジック回路により構成されており、差分画像生成出力部33から順次出力される各差分画像を構成する各画素の絶対値を求め、求めた各絶対値を各画素の画素値として各差分絶対値画像を生成し、生成した各差分絶対値画像を順次出力するようになっている。
【0033】
さらに、積分処理部22は、例えば積分処理専用のワイヤードロジック回路により構成されており、少なくとも時系列画像の1フレーム分の記憶領域を有する画像メモリ35と、各フレームの差分絶対値画像を1フレーム画像ずつ画像メモリ35に蓄積する蓄積処理部36と、この蓄積処理部36により画像メモリ35に蓄積された各フレームの差分絶対値画像の各画素に所定の積分係数kを掛ける乗算部37と、この乗算処理部37により所定の積分係数kが掛けられた各フレームの差分絶対値画像を、その各フレームの差分絶対値画像の次フレームの差分絶対値画像に対して画素毎に積算し、この積算結果を次フレームの差分絶対値画像として遅延処理部36に送るとともに、次フレームの差分絶対値画像に対応する次フレームの積分画像として出力する積算部38とを備えている。
【0034】
しきい値・積分係数計算部23は、例えばしきい値および積分係数計算処理専用のワイヤードロジック回路により構成されており、図2に示すように、積分処理部22から出力される各積分画像(総称してINとする)の画素数をNとした場合、下式(1)に基づいて各積分画像INの平均値AVを計算するとともに、計算された平均値AVに基づいて各積分画像INの分散σ2を下式(2)に基づいて計算する平均値・分散計算部40を備えている。
【0035】
【数1】
【数2】
【外1】
また、しきい値・積分係数計算部23は、第hフレームの積分画像INh(1≦h≦n)の積分係数kを、1フレーム前である第h−1フレームの積分画像INhの平均値AVに基づいて計算する積分係数計算部41と、各フレームの積分画像の平均値AVおよび分散σ2に基づいて、その各フレームの積分画像のしきい値tを計算するしきい値計算部42とを備えている。
【0036】
積分係数計算部41は、図3に示すように、平均値・分散計算部40により求められた平均値AVを外部から入力できる基準値ST{例えば、画像全体の輝度(明るさ)調整用の基準値}から減算する減算部50と、この減算部50により得られた増減量を、外部から入力できる可変係数ゲインに基づいて増幅する増幅部51と、少なくとも時系列画像の1フレーム分の記憶領域を有する画像メモリ52と、増幅部51により増幅された第h−1フレーム(1≦h≦n)に対応する係数増減量を1フレーム毎に画像メモリ52に蓄積する蓄積処理部55と、この蓄積処理部55により蓄積された係数増減量を、その係数増減量の次フレームの係数増減量に対して画素毎に積算し、この積算された係数増減量を、次フレーム(第hフレーム(1≦h≦n))の係数増減量として出力する積算部56とを備えている。
【0037】
次に、本実施形態の画像目標検出装置1の全体動作について説明する。
【0038】
画像目標検出装置1により、例えばヘリコプターのロータ部分等、回転等の動作により画像上において明滅する部分を目標として、その目標を検出する際、画像目標検出装置1には、例えば、可視光センサや放射線センサ等の画像センサにより時系列的に収集された目標の画像を含む複数(例えば、n枚)の時系列画像I1〜Inが1フレーム毎に順次時間フィルタ2における差分処理部20および平滑処理部5に入力される。
【0039】
時間フィルタ2における差分処理部20に入力された時系列画像I1〜In+1は、画像蓄積処理部32により1フレーム毎に画像メモリ31に蓄積される。
【0040】
今、画像メモリ31に時系列画像Ih−1(1≦h≦n)が蓄積された状態において、次フレームの時系列画像(現在の入力画像)Ihが入力されると、差分画像生成出力部33により、画像メモリ31に蓄積された時系列画像Ih−1から次フレームの時系列画像(現在の入力画像)Ihが画素毎に差分(フレーム差分)され、差分画像(出力画像)Dhが生成出力される(図4(a)、図4(b)参照)。
【0041】
このようにして、差分処理部20に入力された時系列画像I1〜Inは、時間的に隣接する画素間の差分を表す差分画像D1〜Dnとして順次絶対値処理部21に出力される。
【0042】
絶対値処理部21では、差分画像生成出力部33から順次出力される各差分画像D1〜Dnにより各差分絶対値画像AB1〜ABnが生成され、生成された各差分絶対値画像AB1〜ABnは、順次積分処理部22へ出力される。
【0043】
積分処理部22に順次入力された差分絶対値画像AB1〜ABnは、しきい値・積分係数計算部41により計算された積分係数kに基づいて、積分処理部22により画素毎に時間的に積分される。
【0044】
例えば、差分絶対値画像ABhが入力されたとき、画像メモリ35には、図5(a)および(b)に示すように、差分絶対値画像ABhの1フレーム前(第h−1フレーム)までの全ての入力画像AB1〜ABh−1の積分結果を表す画像{積分画像INh−1(=ABh−1+kABh−2+k2ABh−3+・・・+kh−2AB1)}が蓄積されている。
【0045】
一方、しきい値・積分係数計算部23の平均値・分散計算部40では、積分処理部22から出力される各積分画像IN1〜INh−1から、上式(1)に従って各積分画像IN1〜INh−1の平均値AVが計算され、計算された平均値AVに基づいて各積分画像IN1〜INh−1の分散σ2が上式(2)に基づいて計算されている。
【0046】
このとき、しきい値・積分係数計算部23の積分係数計算部41においては、積分処理結果(各積分画像IN1〜INh−1)の平均値AVと予め設定された基準値STとの差が一定、すなわち、積分処理結果(各積分画像IN1〜INh−1)の平均値AVが予め設定された基準値STに保持されるように、積分処理部22における積分係数kが増幅器51の係数ゲインにより調整されている。
【0047】
例えば、積分処理結果の平均値AVが予め設定された基準値STより大きい場合には、積分係数kが小さくなるように係数ゲインが調整され、また、積分処理結果の平均値AVが基準値STより小さい場合には、積分係数kが大きくなるように係数ゲインが調整される。
【0048】
このようにして、第h−1フレームまでの積分画像INh−1に基づいて次フレーム(第hフレーム)の積分画像に対応する積分係数kが計算されており、第h−1フレームまでの積分結果を表す画像(ABh−1+kABh−2+k2ABh−3+・・・+kh−2AB1)に対して、乗算部37により、計算された積分係数kが乗算される。
【0049】
そして、積分係数kの乗算処理により得られた画像k(ABh+kABh−1+k2ABh−2+・・・+kh−1AB1)に対して、第hフレームの差分絶対値画像ABhが積算部38により画素毎に積算される。
【0050】
この結果、第1〜第hの差分絶対値画像AB1〜ABhの積分結果を表す画像(ABh+kABh−1+k2ABh−2+・・・+kh−1AB1)が生成される。
【0051】
生成された第1〜第hの差分絶対値画像AB1〜ABhの積分結果を表す画像(ABh+kABh−1+k2ABh−2+・・・+kh−1AB1)は、積分画像INhとして、2値化処理部3に出力される(図5(b)参照)。
【0052】
このようにして、第nフレームの差分絶対値画像ABnが入力されると、積分処理部22の積分処理により、第1〜第nの差分絶対値画像AB1〜ABnの積分結果を表す画像(ABn+kABn−1+k2ABn−2+・・・+kn−1AB1)が生成される。
【0053】
生成された積分結果を表す画像(ABn+kABn−1+k2ABn−2+・・・+kn−1AB1)は、第nフレームまでの積分画像INn、すなわち、第1〜第nの差分絶対値画像AB1〜ABn分が積算(積分)された積分画像INnとして、2値化処理部3に出力される。
【0054】
一方、しきい値・積分係数計算部23のしきい値計算部42では、図3に示すように、平均値・分散計算部40から出力される各積分画像IN1〜INnの平均値AVおよび分散σ2に基づいて、積分画像毎にしきい値tが計算されており、計算されたしきい値tは、2値化処理部3に送信される。
【0055】
2値化処理部3では、図6(a)および(b)に示すように、例えば、積分画像INhが入力されると、この積分画像INhを構成する画素の画素値がしきい値t以上の場合には、その画素が目的候補領域であると判断され、その画素の画素値が1に設定される。
【0056】
この結果、図6(b)に示すように、目的候補領域Rhおよび背景領域Rhaを含む2値化画像BIhが求められる。
【0057】
このように、各積分画像IN1〜INnが2値化処理部3に順次入力されると、2値化処理部3により、目的候補領域R1および背景領域R1aを含む2値化画像BI1〜目的候補領域Rnおよび背景領域Rnaを含む2値化画像BInが順次求められる。
【0058】
このようにして求められた目標候補領域Rhおよび背景領域Rhaを含む2値化画像BIhの従来技術との差異について、図7を用いて説明する。
【0059】
本実施形態においては、上述したように、例えばヘリコプターのロータ部分等、回転等の動作により画像上において明滅する部分を目標としているため、その入力画像Ihの輝度分布は、図7の符号T1に示すように、周期的に変化している。
【0060】
この点、従来のように、通常の空間フィルタを用いた2値化処理(しきい値に基づく目標候補領域抽出処理;図7の符号T2参照)では、図7の符号T3に示すように、画像上における消滅部分が背景領域と誤認識されることになり、正確な目標候補領域を抽出することができないことが分かる。
【0061】
これに対して、本実施形態の画像目的検出装置1における時間フィルタ2の処理においては、図7の符号T10に示すように、入力画像I1〜IIhに基づいて差分処理部20により得られた差分画像D1〜Dhは、絶対値処理部21を介して、その−側の信号レベルが+側に反転されて差分絶対値画像AB1〜ABhが生成される。
【0062】
そして、生成された差分絶対値画像AB1〜ABhは、積分処理部22により時間的に積分処理され、積分画像INhが生成される。
【0063】
このとき、積分画像INhにおいては、差分絶対値画像AB1〜ABhの各画素の画素値が対応する積分係数kにより調整されながら積算(累積)されていくため、例えば、明滅部分、すなわち、周期的に画素値(輝度)が小さい画素領域が存在しても、その明滅部分に対応する画素領域は、図7の符号T10に示すように、積分処理部22による積分処理により、画像上に存在する時(“明”の時)の大きい画素値が累積されていくため、その累積画素値は次第に大きくなっていく。
【0064】
この結果、図7の符号T10およびT11に示すように、所定のしきい値を用いて2値化処理を行った場合においても、目標の明滅部分を目標候補領域として抽出することができる。
【0065】
一方、画像センサから順次入力された各時系列画像I1〜Inは、平滑処理部5により平滑化され、この平滑化された各時系列画像IS1〜ISnに基づいて、平滑処理部5における平均値・分散計算部40と同様の処理により、各平滑化時系列画像IS1〜ISnの平均値および分散が計算される。
【0066】
計算された各平滑化時系列画像IS1〜ISnの平均値および分散に基づいて、平滑処理部5により、しきい値が計算されており、計算されたしきい値に基づいて、2値化処理部10により、各平滑化時系列画像IS1〜ISnの2値化画像BS1〜BSnが順次生成される。
【0067】
他方、平滑処理部5により平滑化された各時系列画像IS1〜ISnは、微分処理部6の微分処理によりエッジ(輪郭)強調され、この微分処理された各時系列画像ID1〜IDnに基づいて、微分処理部6における平均値・分散計算部40と同様の処理により、各時系列画像ID1〜IDnの平均値および分散が計算される。
【0068】
計算された各時系列画像ID1〜IDnの平均値および分散に基づいて、微分処理部6により、しきい値が計算されており、計算されたしきい値に基づいて、2値化処理部11により、各時系列画像ID1〜IDnの2値化画像DS1〜DSnが順次生成される。
【0069】
目標領域判定部12は、2値化処理部3により生成された各2値化画像BI1〜2値化画像BInを1フレームずつ順次取り込む。同様に、目標領域判定部12は、2値化処理部10により生成された各2値化画像BS1〜BSnを1フレームずつ順次取り込み、さらに、2値化処理部11により生成された各2値化画像DS1〜DSnを1フレームずつ順次取り込む。
【0070】
次いで、目標領域判定部12は、最初に取り込んだ2値化画像BI1、2値化画像BS1および2値化画像DS1を、それぞれ複数画素から成るセグメントに分割し、各セグメントにおける画素値1が互いに連結されている領域に同一のラベルを付ける。
【0071】
続いて、目標領域判定部12は、2値化画像BI1により得られた目標候補領域となる複数のラベリングされた領域(ラベリング領域)と2値化画像BS1および2値化画像DS1によりそれぞれ得られたラベリング領域とをそれぞれ比較して、目標候補となる各ラベリング領域の特徴量を表すパラメータ(特徴量パラメータ)Pとして、各ラベリング領域の平滑化最大値、微分最大値、差分最大値、移動方向および移動量をそれぞれ抽出する。
【0072】
続いて、目標領域判定部12は、得られた各ラベリング領域の特徴量(特徴量パラメータP)に基づいて、各ラベリング領域の評価値を計算し、以下、残りの全ての2値化画像BI2〜2値化画像BIn、2値化画像BS2〜BSn、2値化画像DS2〜DSnを用いた全ての目標候補領域に対応する全てのラベリング領域の評価値計算が終了するまで、この処理を繰り返し実行する。
【0073】
そして、全ての目標候補領域に対応する全てのラベリング領域の評価値計算が終了したとき、目標領域判定部12は、全てのラベリング領域の中で最も評価値の高いラベリング領域を目標として検出する。
【0074】
この結果、ヘリコプターのロータ部分等、回転等の動作により画像上において明滅する目標を検出することができる。
【0075】
以上詳述したように、本実施形態によれば、検出目標が例えばヘリコプターのロータ部分等、回転等の動作により画像上において明滅する部分であっても、その明滅部分を含む複数の時系列画像の差分画像を時間的に積分することにより、その明滅部分の周波数成分を目標候補領域として抽出することができる。
【0076】
したがって、この目標候補領域を用いて目標判定処理を行うことにより、画像上において明滅する部分を目標とした場合であっても、その目標を正確に検出することができる。
【0077】
特に、本実施形態では、入射光学系として特別なハードウェア構成要素およびその制御系を用いることなく、通常の画像センサにより収集された時系列画像に基づいて明滅部分の周波数成分を目標候補領域として抽出することができる。このため、目標検出装置全体をコンパクトに維持しながら、明滅部分等の目標を容易に検出することができる。
【0078】
また、本実施形態によれば、積分処理結果の平均値AVが予め設定された基準値STより大きい場合には、積分係数kが小さくなるように係数ゲインを調整し、また、積分処理結果の平均値AVが基準値STより小さい場合には、積分係数kが大きくなるように係数ゲインを調整することにより、積分処理結果(各積分画像IN1〜INh−1)の平均値AVを予め設定された基準値STに保持している。
【0079】
この制御により、周波数変調する面積(画素領域)が多いとき(例えば、画像の移動等による)であっても、輝度(画素値)の平均値の上昇を抑制することができ、その輝度の平均値の上昇に起因した真の目標以外の目標候補領域を多く抽出する恐れを軽減することができる。この結果、目標候補抽出精度および目標検出精度をそれぞれ向上させることができる。
【0080】
また、周波数変調する面積(画素領域)の周波数成分が微少であっても、輝度(画素値)の平均値を基準値に近付くまで上昇させることができ、その輝度の平均値の上昇により、微少な周波数成分であっても、目標候補領域として抽出することができる。この結果、目標候補抽出精度および目標検出精度をそれぞれ向上させることができる。
【0081】
なお、本実施形態においては、目標が例えばヘリコプターのロータ部分等、回転等の動作により画像上において明滅する部分である場合について説明したが、本発明はこの構成に限定されるものではなく、上記明滅部分を目標の一部に含む場合の全体の目標を検出する場合、あるいは明滅部分を含まない目標に対しても、本実施形態の画像目標検出装置を適用することができる。
【0082】
また、本実施形態においては、時間フィルタ2を構成する差分処理部20、絶対値処理部21、積分処理部22およびしきい値・積分係数計算部23と2値化処理部3とを、それぞれワイヤードロジック回路により構成したが、本発明はこれに限定されるものではなく、差分処理部20、絶対値処理部21、積分処理部22、しきい値・積分係数計算部23および2値化処理部3のそれぞれの処理を、画像目標検出用プログラムに従った少なくとも1台のコンピュータの機能により実現してもよい。
【0083】
さらに、本実施形態においては、画像目標検出装置1を構成する全ての構成要素(図1に示す全てのブロック構成要素)の処理を、プログラムに従った少なくとも1台のコンピュータの機能により実現してもよい。
【0084】
また、本実施形態において、差分処理部は、入力された時系列画像I1〜Inに基づいて、時間的に隣接する画素間の差分を表す差分画像D1〜Dnを生成している。このとき、差分処理部は、最初の時系列画像I1が入力された際においては、画像メモリに前フレームのフレーム画像が蓄積されていないため、その差分画像は時系列画像I1そのものとなる。
【0085】
この点において、本実施形態の変形例として、次の時系列画像I2が入力されるまで、差分画像出力を行わないようにすることも可能であり、積分画像の平均値が基準値に収束するまでのフレーム画像数を減らすことができる。
【0086】
【発明の効果】
以上述べたように、請求項1、6および7記載の本発明によれば、差分絶対値画像生成手段から出力された複数の差分絶対値画像を所定の積分係数に基づいて画素毎に時間的に積分しているため、例えば、目標が明滅部分であった場合でも、画像上に存在する際の画素値を積算することができる。
請求項1、6および7記載の本発明によれば、各フレームの積分画像の各画素の画素値および平均値に基づいて、各フレームの積分画像の次フレームの積分画像に対する所定の積分係数を求めているため、例えば所定の基準値に対する平均値の大小に応じて積分係数を調整することにより、平均値が大きい場合に起因した目標候補領域の誤判定を軽減することができ、さらに、平均値が微少な場合に起因した目標候補領域の検出漏れを防止することができる。
【0087】
この結果、目標が明滅部分であっても、その明滅部分の周波数成分を目標候補領域として抽出することができる。
【0088】
請求項2記載の本発明によれば、抽出された目標候補領域の画素値を1および背景領域の画素値を0とする2値化画像を生成することにより、生成された2値化画像を用いて目標領域を正確に判定することが可能になる。
【0090】
請求項3記載の本発明によれば、蓄積された各フレームの差分絶対値画像の各画素に前記所定の積分係数を乗算し、当該所定の積分係数が乗算された各フレームの差分絶対値画像を、当該各フレームの差分絶対値画像の次フレームの差分絶対値画像に対して画素毎に積算し、この積算結果を、次フレームの差分絶対値画像として蓄積するとともに、次フレームの差分絶対値画像に対応する次フレームの積分画像として出力しているため、フレーム毎に正確に積分画像を生成出力することができる。
【0091】
請求項4および5記載の本発明によれば、目標候補領域となる2値化画像から、その目標候補領域に対応するラベル付けを行い、このラベル付けられたそれぞれの目標候補領域の中から、それぞれの領域における、例えば、平滑化最大値、微分最大値、差分最大値、移動方向および移動量等の特徴量を表すパラメータを抽出し、抽出されたそれぞれの領域の特徴量パラメータに基づいて、対応するそれぞれの目標候補領域を評価し、その評価値の最も高い領域を目標領域として検出している。このため、抽出された特徴量パラメータに基づいて正確な目標領域検出処理を行うことができる。
【図面の簡単な説明】
【図1】本発明の実施の形態に係る画像目標検出装置の概略構成を示す図である。
【図2】本実施形態の時間フィルタを構成する差分処理部、絶対値処理部、積分処理部およびしきい値・積分係数計算部の概略構成を示すブロック図である。
【図3】図2に示す積分係数計算部の概略構成を示すブロック図である。
【図4】(a)は、図2に示す差分処理部のブロック図であり、(b)は、図4(a)に示す差分処理部の差分処理を、その差分処理部に対して入出力されるフレーム画像の変化により説明するための概念図である。
【図5】(a)は、図2に示す積分処理部のブロック図であり、(b)は、図5(a)に示す積分処理部の積分処理を、その積分処理部に対して入出力されるフレーム画像の変化により説明するための概念図である。
【図6】(a)は、図2に示す時間フィルタ側の2値化処理部のブロック図であり、(b)は、図6(a)に示す2値化処理部の2値化処理を、その2値化処理部に対して入出力されるフレーム画像の変化により説明するための概念図である。
【図7】本実施形態の画像目的検出装置により求められた目標候補領域を含む2値化画像と従来技術による目標候補領域との差異について説明するための図である。
【図8】従来の目標検出処理部の概略構成を示すブロック図である。
【符号の説明】
1 画像目標検出装置
2 時間フィルタ
5 平滑処理部
6 微分処理部
3、10、11 2値化処理部
12 目標領域判定部
20 差分処理部
21 絶対値処理部
22 積分処理部
23 しきい値・積分係数計算部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image target detection method and apparatus for detecting a target candidate area based on a time-series image including a target image obtained by an image sensor such as a visible light sensor or an infrared radiation sensor. In particular, the present invention relates to an image target detection method and apparatus that can detect a target candidate area that blinks on an image, and an image target detection program.
[0002]
[Prior art]
Conventionally, for example, a target detection process for detecting a target based on a target image such as a moving object obtained by an image sensor is shown in FIG.
[0003]
According to the target
[0004]
The smoothed image is subjected to a differentiation process by the
[0005]
Then, for example, features such as area, barycentric position and aspect ratio of the extracted target candidate image are evaluated in a composite manner by the
[0006]
Further, as an apparatus for detecting a target such as a moving object, an apparatus using an incident optical unit that captures an infrared image in all directions of 360 ° is known (for example, see Patent Document 1).
[0007]
[Patent Document 1]
JP 2000-346923 A
[0008]
[Problems to be solved by the invention]
For example, when detecting a rotating member such as a rotor portion of a helicopter as a target, the rotating member blinks on the image due to the rotation.
[0009]
When the rotor portion that periodically flickers is detected using the target detection process shown in FIG. 8, the
[0010]
In this regard, in
[0011]
However, in the configuration of
[0012]
The present invention has been made in view of the above. For example, even when the target changes in frequency, the entire apparatus is not enlarged and complicated, and the image including the target is used. An object of the present invention is to provide an image target detection method and apparatus capable of accurately detecting a target, and an image target detection program.
[0013]
[Means for Solving the Problems]
In order to solve the above-mentioned problem, the present invention is an image target detection device that detects a target candidate area based on a plurality of time-series images including a target image in units of frames. Difference image generation means for calculating a difference for each pixel between temporally adjacent images and generating a plurality of difference images; and calculating a plurality of difference absolute values for each pixel by calculating an absolute value of each of the generated plurality of difference images A difference absolute value image generation unit that generates an image and outputs the generated plurality of difference absolute value images, and a plurality of difference absolute value images output from the difference absolute value image generation unit based on a predetermined integration coefficient The gist of the present invention is that it has integrated image generation means for integrating each time to generate an integrated image.
[0014]
Alternatively, in order to solve the above problem, the present invention performs binarization processing on the generated integral image based on a predetermined threshold value, and sets the pixel value of the target candidate region to 1 and the pixel of the background region Binarization means for generating a binarized image with a value of 0 is further provided.
[0015]
Alternatively, in order to solve the above-described problem, the integrated image generation unit generates and outputs a plurality of frames of integrated images corresponding to the plurality of frames of absolute difference images as the integrated images. The integrated image generating means calculates an average value of pixel values of each pixel of the output integrated image of each frame, and each of the pixel values based on the pixel value of each pixel and the calculated average value. A calculation means for calculating a variance of each pixel in the integral image of the frame; and a means for obtaining a predetermined integration coefficient for the integral image of the next frame of the integral image of each frame based on the calculated average value, The binarizing means further includes means for obtaining the predetermined threshold value based on the calculated average value and variance.
[0016]
Alternatively, in order to solve the above-described problem, the present invention provides that the integral image generation unit accumulates a difference absolute value image of each frame, and a difference absolute value of each frame accumulated by the accumulation processing unit. Each pixel of the image is multiplied by the predetermined integration coefficient, and the difference absolute value image of each frame multiplied by the predetermined integration coefficient is compared with the difference absolute value image of the next frame of the difference absolute value image of the frame. An integration processing unit that integrates each pixel and sends the integration result as a difference absolute value image of the next frame to the accumulation processing unit and outputs it as an integration image of the next frame corresponding to the difference absolute value image of the next frame; The main point is that
[0017]
Alternatively, in order to solve the above-described problem, the present invention divides the binarized image serving as the target candidate region into segments composed of a plurality of pixels, and the
[0018]
Alternatively, in order to solve the above problems, the present invention is characterized in that the parameter representing the feature amount includes a smoothing maximum value, a differential maximum value, a difference maximum value, a movement direction, and a movement amount in each of the regions. To do.
[0019]
Alternatively, in order to solve the above-described problem, the present invention provides a computer-executable image target detection program for detecting a target candidate region based on a plurality of time-series images in frame units including a target image. A difference image generating unit configured to generate a plurality of difference images by obtaining a difference for each pixel between temporally adjacent images in the plurality of time-series images; and each of the generated plurality of difference images. A difference absolute value image generating means for generating a plurality of difference absolute value images by obtaining an absolute value of each pixel and generating a plurality of difference absolute value images, and a plurality of outputs from the difference absolute value image generating means The difference absolute value image is integrated with respect to time for each pixel based on a predetermined integration coefficient, and the integrated image generating means for generating an integrated image is used as a gist.
[0020]
Alternatively, in order to solve the above problem, the present invention is an image target detection method for detecting a target candidate area based on a plurality of time-series images in frame units including a target image.
Calculating a difference for each pixel between temporally adjacent images in the plurality of time-series images to generate a plurality of difference images; and determining a plurality of absolute values of the generated plurality of difference images for each pixel. Generating a plurality of difference absolute value images, and outputting a plurality of difference absolute value images generated by the difference absolute value image generation step for each pixel based on a predetermined integration coefficient. And a step of generating an integrated image by temporal integration.
[0021]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an image target detection method and apparatus, and an image target detection program according to embodiments of the present invention will be described with reference to the drawings. In the present embodiment, a case will be described in which, for example, a target such as a rotor portion of a helicopter that blinks on an image by an operation such as rotation is detected as a target.
[0022]
FIG. 1 is a diagram showing a schematic configuration of an image
[0023]
As shown in FIG. 1, the image
[0024]
That is, the
[0025]
In addition, the image
[0026]
The image
[0027]
Further, the image
[0028]
As shown in FIG. 1, the time filter 2 includes a
[0029]
The time filter 2 includes an
[0030]
FIG. 2 is a block diagram showing a schematic configuration of the
[0031]
As illustrated in FIG. 2, the
[0032]
Further, the absolute
[0033]
Further, the
[0034]
The threshold / integral
[0035]
[Expression 1]
[Expression 2]
[Outside 1]
Further, the threshold / integral
[0036]
As shown in FIG. 3, the integration
[0037]
Next, the overall operation of the image
[0038]
When the target is detected by the image
[0039]
Time-series image I input to the
[0040]
Now, the time series image I is stored in the
[0041]
In this way, the time-series image I input to the
[0042]
In the absolute
[0043]
Difference absolute value image AB sequentially input to the
[0044]
For example, the difference absolute value image AB h Is input to the
[0045]
On the other hand, in the average value /
[0046]
At this time, the integration
[0047]
For example, when the average value AV of the integration processing result is larger than the preset reference value ST, the coefficient gain is adjusted so that the integration coefficient k becomes smaller, and the average value AV of the integration processing result becomes the reference value ST. If it is smaller, the coefficient gain is adjusted so that the integral coefficient k becomes larger.
[0048]
In this way, the integral image IN up to the (h-1) th frame. h-1 The integration coefficient k corresponding to the integration image of the next frame (the h-th frame) is calculated based on the image (AB). h-1 + KAB h-2 + K 2 AB h-3 + ... + k h-2 AB 1 ) Is multiplied by the calculated integration coefficient k.
[0049]
Then, an image k (AB) obtained by the multiplication process of the integral coefficient k. h + KAB h-1 + K 2 AB h-2 + ... + k h-1 AB 1 ) Difference absolute value image AB of the h-th frame h Is integrated for each pixel by the
[0050]
As a result, the first to h-th absolute difference image AB 1 ~ AB h An image representing the integration result of (AB h + KAB h-1 + K 2 AB h-2 + ... + k h-1 AB 1 ) Is generated.
[0051]
The generated first to h-th difference absolute value images AB 1 ~ AB h An image representing the integration result of (AB h + KAB h-1 + K 2 AB h-2 + ... + k h-1 AB 1 ) Is the integral image IN h Is output to the binarization processing unit 3 (see FIG. 5B).
[0052]
In this way, the absolute difference image AB of the nth frame n Is input by the integration processing of the
[0053]
An image (AB) representing the generated integration result n + KAB n-1 + K 2 AB n-2 + ... + k n-1 AB 1 ) Is the integral image IN up to the nth frame. n That is, the first to nth difference absolute value images AB 1 ~ AB n Integrated image IN with minutes integrated (integrated) n Is output to the
[0054]
On the other hand, in the threshold
[0055]
In the
[0056]
As a result, as shown in FIG. h And background region R ha Binary image BI including h Is required.
[0057]
Thus, each integral image IN 1 ~ IN n Are sequentially input to the
[0058]
The target candidate area R thus obtained h And background region R ha Binary image BI including h The difference from the prior art will be described with reference to FIG.
[0059]
In the present embodiment, as described above, the target image is a portion that blinks on the image due to an operation such as rotation, such as a rotor portion of a helicopter. h The luminance distribution changes periodically as indicated by reference numeral T1 in FIG.
[0060]
In this respect, in the conventional binarization process using a normal spatial filter (target candidate area extraction process based on a threshold; see T2 in FIG. 7), as indicated by T3 in FIG. It can be seen that the disappeared portion on the image is erroneously recognized as the background region, and an accurate target candidate region cannot be extracted.
[0061]
On the other hand, in the process of the time filter 2 in the image
[0062]
Then, the generated difference absolute value image AB 1 ~ AB h Is integrated over time by the
[0063]
At this time, the integral image IN h In the difference absolute value image AB 1 ~ AB h Since the pixel value of each pixel is integrated (accumulated) while being adjusted by the corresponding integral coefficient k, for example, even if there is a blinking portion, that is, a pixel region having a periodically small pixel value (luminance), In the pixel region corresponding to the blinking portion, as indicated by reference numeral T10 in FIG. 7, a large pixel value when accumulated on the image (when “bright”) is accumulated by integration processing by the
[0064]
As a result, as shown by reference numerals T10 and T11 in FIG. 7, even when binarization processing is performed using a predetermined threshold value, a target blinking portion can be extracted as a target candidate region.
[0065]
On the other hand, each time-series image I sequentially input from the image sensor 1 ~ I n Is smoothed by the smoothing
[0066]
Each smoothed time series image IS calculated 1 ~ IS n Is calculated by the smoothing
[0067]
On the other hand, each time-series image IS smoothed by the smoothing
[0068]
Each calculated time-series image ID 1 ~ ID n The threshold value is calculated by the
[0069]
The target
[0070]
Next, the target
[0071]
Subsequently, the target
[0072]
Subsequently, the target
[0073]
When the evaluation value calculation for all labeling regions corresponding to all target candidate regions is completed, the target
[0074]
As a result, it is possible to detect a target that blinks on the image by an operation such as rotation, such as a rotor portion of a helicopter.
[0075]
As described above in detail, according to the present embodiment, even if the detection target is a part that blinks on the image by an operation such as rotation, such as a rotor part of a helicopter, a plurality of time-series images including the blinking part. By integrating the difference image in terms of time, the frequency component of the blinking portion can be extracted as the target candidate region.
[0076]
Therefore, by performing the target determination process using the target candidate area, even if the target is a blinking portion on the image, the target can be accurately detected.
[0077]
In particular, in the present embodiment, the frequency component of the blinking portion is set as the target candidate region based on the time-series image collected by the normal image sensor without using a special hardware component and its control system as the incident optical system. Can be extracted. For this reason, it is possible to easily detect a target such as a blinking portion while keeping the entire target detection device compact.
[0078]
Further, according to the present embodiment, when the average value AV of the integration processing result is larger than the preset reference value ST, the coefficient gain is adjusted so that the integration coefficient k becomes small, and the integration processing result When the average value AV is smaller than the reference value ST, by adjusting the coefficient gain so that the integration coefficient k becomes larger, the integration processing result (each integrated image IN 1 ~ IN h-1 ) Is held at a preset reference value ST.
[0079]
This control can suppress an increase in the average value of the luminance (pixel value) even when the frequency modulation area (pixel region) is large (for example, due to image movement). The possibility of extracting many target candidate regions other than the true target due to the increase in value can be reduced. As a result, the target candidate extraction accuracy and the target detection accuracy can be improved.
[0080]
Also, even if the frequency component of the frequency modulation area (pixel area) is very small, the average value of luminance (pixel value) can be increased until it approaches the reference value. Even a small frequency component can be extracted as a target candidate region. As a result, the target candidate extraction accuracy and the target detection accuracy can be improved.
[0081]
In the present embodiment, the case where the target is a portion that blinks on the image by an operation such as rotation, such as a rotor portion of a helicopter, has been described, but the present invention is not limited to this configuration, and the above The image target detection apparatus of the present embodiment can be applied to the case where the entire target is detected when the blinking part is included as part of the target, or the target that does not include the blinking part.
[0082]
Further, in the present embodiment, the
[0083]
Furthermore, in the present embodiment, the processing of all the constituent elements (all the block constituent elements shown in FIG. 1) constituting the image
[0084]
In the present embodiment, the difference processing unit receives the input time-series image I. 1 ~ I n A difference image D representing a difference between temporally adjacent pixels based on 1 ~ D n Is generated. At this time, the difference processing unit performs the first time-series image I. 1 Is input, since the frame image of the previous frame is not stored in the image memory, the difference image is the time-series image I. 1 It becomes itself.
[0085]
In this regard, as a modification of the present embodiment, the following time-series image I 2 It is also possible not to output the difference image until is inputted, and the number of frame images until the average value of the integral image converges to the reference value can be reduced.
[0086]
【The invention's effect】
As stated above,
[0087]
As a result, even if the target is a blinking part, the frequency component of the blinking part can be extracted as a target candidate area.
[0088]
According to the second aspect of the present invention, by generating a binarized image in which the pixel value of the extracted target candidate area is 1 and the pixel value of the background area is 0, the generated binarized image is It is possible to accurately determine the target area by using it.
[0090]
[0091]
[Brief description of the drawings]
FIG. 1 is a diagram showing a schematic configuration of an image target detection apparatus according to an embodiment of the present invention.
FIG. 2 is a block diagram showing a schematic configuration of a difference processing unit, an absolute value processing unit, an integration processing unit, and a threshold / integral coefficient calculation unit that constitute the time filter of the present embodiment.
FIG. 3 is a block diagram showing a schematic configuration of an integral coefficient calculation unit shown in FIG. 2;
4A is a block diagram of the difference processing unit shown in FIG. 2; FIG. 4B is a block diagram of the difference processing unit shown in FIG. It is a conceptual diagram for demonstrating by the change of the frame image output.
5A is a block diagram of the integration processing unit shown in FIG. 2, and FIG. 5B is a diagram illustrating the integration processing of the integration processing unit shown in FIG. It is a conceptual diagram for demonstrating by the change of the frame image output.
6A is a block diagram of a binarization processing unit on the time filter side illustrated in FIG. 2, and FIG. 6B is a binarization process of the binarization processing unit illustrated in FIG. 6A. FIG. 2 is a conceptual diagram for explaining a change in a frame image input to and output from the binarization processing unit.
FIG. 7 is a diagram for explaining a difference between a binarized image including a target candidate area obtained by the image purpose detection device of the present embodiment and a target candidate area according to a conventional technique.
FIG. 8 is a block diagram showing a schematic configuration of a conventional target detection processing unit.
[Explanation of symbols]
1 Image target detection device
2 hour filter
5 Smoothing processing part
6 Differential processing unit
3, 10, 11 Binarization processing unit
12 Target area determination unit
20 Difference processing part
21 Absolute value processing section
22 Integration processing unit
23 Threshold / integral coefficient calculator
Claims (7)
前記複数の時系列画像における時間的に隣接する画像間の画素毎の差分を求めて複数の差分画像を生成する差分画像生成手段と、
生成された複数の差分画像それぞれの絶対値を画素毎に求めて複数の差分絶対値画像を生成し、生成した複数の差分絶対値画像を出力する差分絶対値画像生成手段と、
前記差分絶対値画像生成手段から出力された複数の差分絶対値画像を所定の積分係数に基づいて画素毎に時間的に積分して前記複数フレームの差分絶対値画像に対応した複数フレームの積分画像を生成するとともに、前記各フレームの積分画像の各画素の画素値の平均値を計算し、前記各画素の画素値および計算された前記平均値に基づいて当該各フレームの積分画像における各画素の分散を計算し、前記平均値に基づいて、前記各フレームの積分画像の次フレームの積分画像に対する所定の積分係数を求める積分画像生成手段と、
を備えたことを特徴とする画像目標検出装置。An image target detection device for detecting the target candidate area based on a plurality of time-series images in frame units including a target image,
Difference image generation means for generating a plurality of difference images by obtaining a difference for each pixel between temporally adjacent images in the plurality of time-series images;
A difference absolute value image generation means for generating a plurality of difference absolute value images by obtaining an absolute value of each of the plurality of generated difference images for each pixel, and outputting the generated plurality of difference absolute value images;
A plurality of frames of integral images corresponding to the plurality of frames of difference absolute value images by temporally integrating the plurality of difference absolute value images output from the difference absolute value image generating means for each pixel based on a predetermined integration coefficient. And calculating an average value of pixel values of each pixel of the integrated image of each frame, and calculating the average value of each pixel in the integrated image of each frame based on the pixel value of each pixel and the calculated average value. An integral image generating means for calculating a variance and obtaining a predetermined integral coefficient for the integral image of the next frame of the integral image of each frame based on the average value ;
An image target detection apparatus comprising:
をさらに備えたことを特徴とする請求項1記載の画像目標検出装置。An integral image the generated by binarization processing based on a predetermined threshold value, the pixel value of 1 and the background area the pixel values of the candidate region of the target to generate a binary image to 0 Binarization means for obtaining a predetermined threshold value for a next integral image of the integral image of each frame based on the average value and the variance ;
The image target detection apparatus according to claim 1, further comprising:
前記ラベル付けされたそれぞれの領域における特徴量を表すパラメータを抽出し、抽出されたそれぞれの領域を、その特徴量パラメータに基づいて評価し、その評価値の最も高い領域を前記目標の領域として検出する手段と、
を備えたことを特徴とする請求項2記載の画像目標検出装置。Means for dividing the binarized image serving as the target candidate region into segments composed of a plurality of pixels and attaching the same label to regions where pixel values 1 in each segment are connected to each other;
A parameter representing a feature amount in each labeled region is extracted, each extracted region is evaluated based on the feature amount parameter, and a region having the highest evaluation value is detected as the target region. Means to
The image target detection apparatus according to claim 2, further comprising:
前記コンピュータを、
前記複数の時系列画像における時間的に隣接する画像間の画素毎の差分を求めて複数の差分画像を生成する差分画像生成手段と、
生成された複数の差分画像それぞれの絶対値を画素毎に求めて複数の差分絶対値画像を生成し、生成した複数の差分絶対値画像を出力する差分絶対値画像生成手段と、
前記差分絶対値画像生成手段から出力された複数の差分絶対値画像を所定の積分係数に基づいて画素毎に時間的に積分して前記複数フレームの差分絶対値画像に対応した複数フ レームの積分画像を生成するとともに、前記各フレームの積分画像の各画素の画素値の平均値を計算し、前記各画素の画素値および計算された前記平均値に基づいて当該各フレームの積分画像における各画素の分散を計算し、前記平均値に基づいて、前記各フレームの積分画像の次フレームの積分画像に対する所定の積分係数を求める積分画像生成手段と、
してそれぞれ機能させることを特徴とする画像目標検出用プログラム。A computer-executable image target detection program for detecting the target candidate area based on a plurality of time-series images in frame units including a target image,
The computer,
Difference image generation means for generating a plurality of difference images by obtaining a difference for each pixel between temporally adjacent images in the plurality of time-series images;
A difference absolute value image generation means for generating a plurality of difference absolute value images by obtaining an absolute value of each of the plurality of generated difference images for each pixel, and outputting the generated plurality of difference absolute value images;
Integration of multiple frames corresponding to the difference absolute value images of the plurality of frames in temporal integration for each pixel based on the plurality of differential absolute value image outputted from the difference absolute value image generating means to a predetermined integral coefficient An image is generated, and an average value of pixel values of each pixel of the integral image of each frame is calculated, and each pixel in the integral image of each frame is calculated based on the pixel value of each pixel and the calculated average value Integral image generation means for calculating a predetermined integration coefficient for the integral image of the next frame of the integral image of each frame based on the average value ;
And a program for detecting an image target.
前記複数の時系列画像における時間的に隣接する画像間の画素毎の差分を求めて複数の差分画像を生成するステップと、
生成された複数の差分画像それぞれの絶対値を画素毎に求めて複数の差分絶対値画像を生成し、生成した複数の差分絶対値画像を出力するステップと、
前記差分絶対値画像生成ステップにより出力された複数の差分絶対値画像を所定の積分係数に基づいて画素毎に時間的に積分して前記複数フレームの差分絶対値画像に対応した複数フレームの積分画像を生成するステップと、
前記各フレームの積分画像の各画素の画素値の平均値を計算し、前記各画素の画素値および計算された前記平均値に基づいて当該各フレームの積分画像における各画素の分散を計算し、前記平均値に基づいて、前記各フレームの積分画像の次フレームの積分画像に対する所定の積分係数を求めるステップと、
を備えたことを特徴とする画像目標検出方法。An image target detection method for detecting a target candidate area based on a plurality of time-series images in frame units including a target image,
Obtaining a difference for each pixel between temporally adjacent images in the plurality of time-series images, and generating a plurality of difference images;
Obtaining the absolute value of each of the plurality of generated difference images for each pixel to generate a plurality of difference absolute value images, and outputting the generated plurality of difference absolute value images;
A plurality of frames of integral images corresponding to the plurality of frames of difference absolute value images by temporally integrating the plurality of difference absolute value images output in the difference absolute value image generation step for each pixel based on a predetermined integration coefficient. A step of generating
Calculate the average value of the pixel values of each pixel of the integral image of each frame, calculate the variance of each pixel in the integral image of each frame based on the pixel value of each pixel and the calculated average value, Obtaining a predetermined integration coefficient for the integral image of the next frame of the integral image of each frame based on the average value;
An image target detection method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003051014A JP4071650B2 (en) | 2003-02-27 | 2003-02-27 | Image target detection method and apparatus, and image target detection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003051014A JP4071650B2 (en) | 2003-02-27 | 2003-02-27 | Image target detection method and apparatus, and image target detection program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004259128A JP2004259128A (en) | 2004-09-16 |
JP4071650B2 true JP4071650B2 (en) | 2008-04-02 |
Family
ID=33116276
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003051014A Expired - Fee Related JP4071650B2 (en) | 2003-02-27 | 2003-02-27 | Image target detection method and apparatus, and image target detection program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4071650B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4637618B2 (en) * | 2005-03-18 | 2011-02-23 | 株式会社ホンダエレシス | Lane recognition device |
JP6042146B2 (en) * | 2012-09-18 | 2016-12-14 | 株式会社東芝 | Object detection apparatus and object detection method |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06105312A (en) * | 1992-09-22 | 1994-04-15 | Hitachi Ltd | Method for monitoring still object and device therefor |
JP4623402B2 (en) * | 2000-07-13 | 2011-02-02 | 富士通株式会社 | Fire detection equipment |
-
2003
- 2003-02-27 JP JP2003051014A patent/JP4071650B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2004259128A (en) | 2004-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9524558B2 (en) | Method, system and software module for foreground extraction | |
EP1814080B1 (en) | Method and apparatus for adjusting the contrast of an image | |
JP3083918B2 (en) | Image processing device | |
EP3855395A1 (en) | Depth acquisition device, depth acquisition method and program | |
Desa et al. | Image subtraction for real time moving object extraction | |
CN102985957B (en) | Device for monitoring vicinity of vehicle | |
US20110157416A1 (en) | Flicker detection method and image sensing device utilizing the same | |
US10791252B2 (en) | Image monitoring device, image monitoring method, and recording medium | |
JP4533836B2 (en) | Fluctuating region detection apparatus and method | |
KR20180070472A (en) | Image matching method and device | |
JP2019029948A (en) | Image monitoring device, image monitoring method and image monitoring program | |
JP4071650B2 (en) | Image target detection method and apparatus, and image target detection program | |
JP5891022B2 (en) | Object detection device, surveillance camera, and object detection method | |
JP4740755B2 (en) | Monitoring device using images | |
KR100751467B1 (en) | Image processing device for recognizing outline of moving target and method therefor | |
JP4925942B2 (en) | Image sensor | |
JP2007249743A (en) | Identification method for moving object, identification device for moving object and program making identification processing for moving object to be performed | |
JP4467702B2 (en) | Shadow change region determination device, image determination device and image generation device using the same, and shadow intensity ratio calculation device used therefor | |
JP6618438B2 (en) | Foreground region extraction apparatus, method, and program | |
JP2008040724A (en) | Image processing device and image processing method | |
JPH09319978A (en) | Intrusion body monitor device | |
JP4253265B2 (en) | Shadow detection apparatus, shadow detection method and shadow detection program, image processing apparatus using shadow detection apparatus, image processing method using shadow detection method, and image processing program using shadow detection program | |
JP4230962B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JPH0514898A (en) | Image monitor device | |
JP4008093B2 (en) | Isolated area determination device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050223 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070928 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071002 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071126 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080108 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080117 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4071650 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110125 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120125 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130125 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130125 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140125 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |