JP2006260049A - 移動物体検出装置及び方法並びにプログラム - Google Patents

移動物体検出装置及び方法並びにプログラム Download PDF

Info

Publication number
JP2006260049A
JP2006260049A JP2005075482A JP2005075482A JP2006260049A JP 2006260049 A JP2006260049 A JP 2006260049A JP 2005075482 A JP2005075482 A JP 2005075482A JP 2005075482 A JP2005075482 A JP 2005075482A JP 2006260049 A JP2006260049 A JP 2006260049A
Authority
JP
Japan
Prior art keywords
motion vector
moving object
correlation calculation
motion
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005075482A
Other languages
English (en)
Other versions
JP4623368B2 (ja
Inventor
Takeshi Kishida
健 岸田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005075482A priority Critical patent/JP4623368B2/ja
Priority to KR20060023901A priority patent/KR101237155B1/ko
Priority to EP20060005314 priority patent/EP1703466B8/en
Priority to US11/377,004 priority patent/US7969470B2/en
Priority to CNB2006100840372A priority patent/CN100562104C/zh
Publication of JP2006260049A publication Critical patent/JP2006260049A/ja
Application granted granted Critical
Publication of JP4623368B2 publication Critical patent/JP4623368B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • G06T7/231Analysis of motion using block-matching using full search
    • EFIXED CONSTRUCTIONS
    • E05LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
    • E05FDEVICES FOR MOVING WINGS INTO OPEN OR CLOSED POSITION; CHECKS FOR WINGS; WING FITTINGS NOT OTHERWISE PROVIDED FOR, CONCERNED WITH THE FUNCTIONING OF THE WING
    • E05F7/00Accessories for wings not provided for in other groups of this subclass
    • E05F7/04Arrangements affording protection against rattling
    • EFIXED CONSTRUCTIONS
    • E06DOORS, WINDOWS, SHUTTERS, OR ROLLER BLINDS IN GENERAL; LADDERS
    • E06BFIXED OR MOVABLE CLOSURES FOR OPENINGS IN BUILDINGS, VEHICLES, FENCES OR LIKE ENCLOSURES IN GENERAL, e.g. DOORS, WINDOWS, BLINDS, GATES
    • E06B7/00Special arrangements or measures in connection with doors or windows
    • E06B7/16Sealing arrangements on wings or parts co-operating with the wings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • EFIXED CONSTRUCTIONS
    • E06DOORS, WINDOWS, SHUTTERS, OR ROLLER BLINDS IN GENERAL; LADDERS
    • E06BFIXED OR MOVABLE CLOSURES FOR OPENINGS IN BUILDINGS, VEHICLES, FENCES OR LIKE ENCLOSURES IN GENERAL, e.g. DOORS, WINDOWS, BLINDS, GATES
    • E06B3/00Window sashes, door leaves, or like elements for closing wall or like openings; Layout of fixed or moving closures, e.g. windows in wall or like openings; Features of rigidly-mounted outer frames relating to the mounting of wing frames
    • E06B3/32Arrangements of wings characterised by the manner of movement; Arrangements of movable wings in openings; Features of wings or frames relating solely to the manner of movement of the wing
    • E06B3/34Arrangements of wings characterised by the manner of movement; Arrangements of movable wings in openings; Features of wings or frames relating solely to the manner of movement of the wing with only one kind of movement
    • E06B3/42Sliding wings; Details of frames with respect to guiding
    • E06B3/46Horizontally-sliding wings
    • E06B3/4609Horizontally-sliding wings for windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Structural Engineering (AREA)
  • Civil Engineering (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】
本発明は、移動物体を精度良く検出し得る移動物体検出装置を提案する。
【解決手段】
入力画像から動きベクトルを算出する動きベクトル算出手段と、動きベクトル算出手段により算出された各動きベクトルから乱雑度の高い動きベクトルを除去する動きベクトル除去手段と、動きベクトル除去手段により除去されなかった各動きベクトルを個別にかつ時間的に積算し、動きベクトル毎の積算値及び積算回数をそれぞれ算出する動きベクトル積算手段と、動きベクトル積算手段により算出された動きベクトル毎の積算値及び積算回数に基づいて、各動きベクトルについて、当該動きベクトルが移動物体のものであるか否かを判定する移動物体検出手段とを設けるようにした。
【選択図】 図1

Description

本発明は、移動物体検出装置及び方法に関し、例えば映像監視システムに採用される移動物体検出装置に適用して好適なものである。
近年、防犯管理上の理由からビルや倉庫などにおいて、移動物体検出装置が搭載された映像監視システムが広く採用されている。この移動物体検出装置は、監視カメラから出力される画像信号を処理することにより、当該画像信号に基づく画像内の移動物体を検出し得るようになされたものである。
この場合、このような移動物体検出装置を構築するに際しては、水面上の波による光の乱反射や風で揺れる草木などの自然界に存在する外乱、さらに強風で激しくたなびく旗や夜間におけるヘッドライトの乱反射、照明のオン又はオフによる急激な照明変動などの人工物による外乱に影響されることなく、画像内に存在する移動物体を正確に検知できるような工夫が必要となる。
そこで、従来、このような要求に答えるべく、監視カメラから与えられる画像信号に基づく画像内の動きのある画像領域を検出すると共にこの画像領域の動きを規定時間追跡し、追跡した動きが移動物体のものであるか否かを判断するようにして移動物体を検出する移動物体検出装置が提案されている(例えば特許文献1及び非特許文献1参照)。
また、移動物体検出装置として、これ以外にも、監視カメラから与えられる画像信号に基づく画像の変化を抽出してその変化の生じた領域を変化領域として設定し、設定した変化領域内に複数の相関演算ブロックを配置して相関演算ブロック毎に相関演算を行い、当該相関演算の結果に基づいて移動物体を検出し得るようになされたものも提案されている(例えば特許文献2参照)。
ここで、図39は、かかる非特許文献1において開示された従来の移動体検出装置1の構成を示すものである。
この移動物体検出装置1においては、監視カメラ等から供給される画像データD1を画像入力部2を介して検知ブロック設定部3に入力し、当該画像データD1に基づく画像を検知ブロック設定部3において図40(A)のように複数の検知ブロック(領域)BR1(図40(A)において点線で囲まれた部分)に分割した後に、これら各検知ブロックBR1の画像データを検知ブロックデータD2として相関演算ブロック配置部4に順次送出する。
この場合において、最初の分割方法は固定であり、従って各検知ブロックBR1の初期位置及び大きさは常に一定となる。ただし、位置については後述のように検知ブロックBR1が追跡状態に遷移した場合に、後段の空間的動き一様性判定部9から与えられるその検知ブロックBR1の動きベクトルに基づく代表動きベクトルのベクトル情報D8に基づいて当該検知ブロックBR1が図40(B)のように順次移動される。
相関演算ブロック配置部4は、検知ブロック設定部3から供給される各検知ブロックデータD2に対して、各検知ブロックBR1をそれぞれさらに複数の相関演算ブロックBR2に分割する処理を行い、これら各相関演算ブロックBR2(図40(A)において罫線で囲まれた部分)の画像データを相関演算ブロックデータD3として相関演算実行部6に送出する。従って、前段の検知ブロック設定部3による処理によって検知ブロックBR1の位置が移動した場合には、当該検知ブロックBR1に含まれる各相関演算ブロックBR2の位置もそれに合わせて移動することとなる。
一方、画像入力部2を介して入力した画像データD1は、過去画像蓄積部5にも与えられ、この過去画像蓄積部5において順次蓄積される。そして、この過去画像蓄積部5に蓄積された画像データD1は、この後相関演算ブロック配置部4から相関演算ブロックデータD3が相関演算実行部6に与えられるタイミングで、1フレーム前の画像のその相関演算ブロックBR2と同じ位置及び同じ大きさの画像部分の画像データD1が切り取られて遅延画像データD4として相関演算実行部6に読み出される。
相関演算実行部6は、相関演算ブロック配置部4から与えられる相関演算ブロックデータD3と、過去画像蓄積部5から読み出した遅延画像データD4とに基づいて、相関演算ブロックBR2毎に現在の画像と過去の画像との相関演算を行い、当該演算結果に基づいて各相関演算ブロックBR2の相関値マップを生成する。そして相関演算実行部6は、相関値マップの原点から最小値を与える点に向かうベクトルをその相関演算ブロックBR2の動きベクトルとする。
このとき相関値マップの最小値が明確な負のピークを形成している場合は動きベクトルの信頼度が高く、そうでない場合は信頼度が低いと判断できる。そこで相関演算実行部6は、動きベクトルの大きさが「0」でなく、かつ相関値マップの最小値が明確な負のピークを形成している場合にはその相関演算ブロックRB2に「動きがある」と判定し、そうでない場合には「動きがない」と判定して、判定結果を相関演算結果情報D5として初期検知部7に送出する。
初期検知部7は、供給される相関演算結果情報D5に基づいて、検知ブロックBR1毎に「動きがある」と判定された相関演算ブロックBR2の数をカウントし、その数が規定個数以上あったときにはその検知ブロックBR1について「動きがある」と判定し、判定結果を初期検知判定情報D6として空間的動きベクトル統合部8に送出する。なお、「動きがある」と判定された検知ブロックBR1は、この後追跡状態(図40(B))に遷移することとなる。
空間的動きベクトル統合部8は、初期検知判定情報D6に基づいて、「動きがある」と判定された各検知ブロックBR1について、検知ブロックBR1内のすべての相関演算ブロックBR2の相関値マップを累積し、累積結果を空間的動きベクトル統合情報D7として空間的動き一様性判定部9に送出する。
空間的動き一様性判定部9は、供給される空間的動きベクトル統合情報D7に基づいて、初期検知部7により「動きがある」と判定された各検知ブロックBR1について、それぞれ累積された相関値マップの原点から最小値を与える点に向かうベクトルを動きベクトル(図40(A)における矢印)として求め、さらにその動きベクトルの大きさが「0」でなく、かつ累積された相関値マップの最小値が明確な負のピークを形成している場合には当該動きベクトルをその検知ブロックBR1の代表的な動きベクトル(以下、これを代表動きベクトルと呼ぶ)とする。
そして空間的動き一様性判定部9は、このようにして得られた代表動きベクトルのベクトル情報D8を検知ブロック設定部3に送出する。この結果、検知ブロック設定部3は、このベクトル情報D8に基づいて、初期検知部3によって「動きがある」と判定された各検知ブロックBR1を追跡状態に遷移させ、これら検知ブロックBR1を、図40(B)のように、ベクトル情報D8に基づき得られる代表動きベクトルの向きにその大きさだけ順次移動させる。これにより「動きがある」と判定された各検知ブロックBR1について「動き」を検出することが可能となる。そしてこのような「動きがある」検知ブロックの追跡処理が規定の追跡期間が経過するまで繰り返される。
また空間的動き一様性判定部9は、追跡状態にある各検知ブロックBR1内においてそれぞれ空間的に累積された相関値マップのマップ情報D9を時間的動きベクトル統合部10に送出する。
このとき時間的動きベクトル統合部10は、供給されるマップ情報D9に基づいて、空間的に累積された各検知ブロックBR1についての相関値マップを規定の追跡期間が終了するまでの間、時間的に累積する。この結果、かかる追跡期間が終了したときに、各検知ブロックBR1についての空間的及び時間的に累積された相関値マップが生成される。そして時間的動きベクトル統合部10は、このようにして得られた追跡情報にある各検知ブロックBR1についての空間的及び時間的に累積された相関値マップのマップ情報D10を時間的動き一様性判定部11に送出する。
時間的動き一様性判定部11は、供給されるマップ情報D10に基づいて、追跡期間が終了して空間的及び時間的な累積が完了した相関値マップに基づいて、当該相関値マップの原点から最小値を与える点に向かうベクトルを動きベクトルとし、さらに当該動きベクトルの大きさが「0」でなく、かつ相関値マップの最小値が明確な負のピークを形成している場合に対応する検知ブロックBR1に「動きがある」と判定する。
これは、上述のように人物や車両などの移動物体は短い時間でみると一定方向に動くことから、「動き」の検出対象がかかる移動体の場合には、空間的及び時間的に累積した相関値マップにおいて毎回ほぼ同じ位置に最小値の負のピークが生じるのに対し、自然界に存在する木々や波などの揺れに代表される背景変動は振動的に動くことから、「動き」の検出対象がかかる木々や波などの場合には、空間的に累積した相関値マップにおいて毎回異なる位置に最小値の負のピークが生じるからである。
このようにしてこの移動物体検出装置1においては、入力した画像データD1に基づく画像内の動きのある物体の当該「動き」に基づいて、人物や車両などの移動物体を精度良く検出することができるようになされている。
ところが、かかる移動物体検出装置1によると、1つの検知ブロックBR1内に複数の移動物体や背景変動が存在し、それぞれの動く方向が異なる場合には互いに動きベクトルを打ち消しあうことになって、移動物体の検出に失敗するという問題がある。
そこで、このような問題を解決するために提案されたのが特許文献2において開示された移動物体検出方法である。実際上、図39との対応部分に同一符号を付して示す図41は、かかる移動物体検出方法を適用した特許文献2に開示された従来の移動物体検出装置20を示すものであり、検知ブロック設定部3(図39)及び初期検知部7(図39)に代えて画像変化抽出部21が設けられる点を除いて図39について上述した移動物体検出装置1とほぼ同様に構成される。
この場合、画像変化抽出部21においては、図42に示すように、画像入力部2から与えられる画像データD1に基づく画像から背景画像を除去する背景差分部30と、背景画像を更新する背景更新部31と、背景差分部30によって背景画像が除去された画像に変化領域を設定する変化領域抽出部32とから構成される。
そして背景差分部30は、画像データD1に基づく画像と、背景更新部31から供給される当該背景更新部31に保持されている背景画像データD20に基づく画像との差分を求め、画像データD1に基づく画像から背景画像データに基づく画像を除いて、変化が認められる部分を抽出した抽出画像データD21を背景更新部31及び変化領域抽出部32に送出する。
背景更新部31は、例えば画像データD1に基づく所定数の画像の平均画像を求める。そして、このように求められた平均画像においては、動きのある部分の輪郭等がずれて重なり、当該部分の外観が不明瞭になる。かくして背景更新部31は、このようにして得られた平均画像の中から外観が不明瞭な物体を除去したものを、適宜更新しながら背景画像データD21として保持する。
変化領域抽出部32は、背景差分部30によって背景画像が除去された画像内の変化がある部分に対して図43(A)のように変化領域(図43(A)において点線で囲まれた部分)ARを設定し、その結果を変化領域設定情報D11として相関演算ブロック配置部22に送出する。
相関演算ブロック配置部22は、画像変化抽出部21から供給される各変化領域ARに対して、各変化領域ARをそれぞれ複数の相関演算ブロックBR2(図43(A))に分割する処理を行い、これら各相関演算ブロックBR2の画像データを相関演算ブロックデータD12として相関演算実行部23に送出する。従って、前段の画像変化抽出部21による処理によって変化領域ARの位置が移動した場合には、当該変化領域AR内に設定される各相関演算ブロックBR2の位置もそれに合わせて移動することとなる。
相関演算実行部23は、相関演算ブロック配置部22から与えられる相関演算ブロックデータD12と、過去画像蓄積部5から読み出した遅延画像データD4とに基づいて、相関演算ブロックBR2毎に現在の画像と過去の画像との相関演算を行い、当該演算結果に基づいて各相関演算ブロックBR2の相関値マップを生成する。そして相関演算実行部23は、相関値マップの原点から最小値を与える点に向かうベクトルをその相関演算ブロックBR2の動きベクトルとする。
また相関演算実行部23は、各相関演算ブロックBR2について、動きベクトルの大きさが「0」でなく、かつ相関値マップの最小値が明確な負のピークを形成している場合にはその相関演算ブロックRB2に「動きがある」と判定し、そうでない場合には「動きがない」と判定して、判定結果を相関演算結果情報D13として空間的動きベクトル統合部24に送出する。
空間的動きベクトル統合部24は、相関演算結果情報D13に基づいて、各変化領域ARについて、当該変化領域AR内のすべての相関演算ブロックBR2の相関値マップを累積し、累積結果を空間的動きベクトル統合情報D14として空間的動き一様性判定部25に送出する。
空間的動き一様性判定部25は、供給される空間的動きベクトル統合情報D14に基づいて、各変化領域ARについて、それぞれ累積された相関値マップの原点から最小値を与える点に向かうベクトルを動きベクトル(図43(A)における矢印)として求め、さらにその動きベクトルの大きさが「0」でなく、かつ累積された相関値マップの最小値が明確な負のピークを形成している場合には当該動きベクトルをその変化領域ARの代表的な動きベクトル(以下、これを代表動きベクトルと呼ぶ)とする。
そして空間的動き一様性判定部25は、このようにして得られた代表動きベクトルのベクトル情報D15を相関演算ブロック配置部22に送出する。この結果、相関演算ブロック配置部22は、このベクトル情報D15に基づいて、各変化領域ARを追跡状態に遷移させ、当該移動領域ARについての相関演算ブロックデータを相関演算実行部23に送出するようになる。これにより各変化領域ARについて「動き」を検出することが可能となる。そしてこのような追跡処理が規定の追跡期間が経過するまで繰り返される。
また空間的動き一様性判定部25は、追跡状態にある各変化領域AR内においてそれぞれ空間的に累積された相関値マップのマップ情報D9を時間的動きベクトル統合部10に送出する。
この結果、この後上述した移動物体検出装置1の場合と同様にして、時間的動きベクトル統合部10において、移動物体であろう変化領域ARについての相関値マップを規定の追跡時間分だけ空間的及び時間的に累積した相関値マップが生成され、さらに時間的動き一様性判定部11において、「動きがある」変化領域ARが検出される。
このようにしてこの移動物体検出装置20においては、入力した画像データD1に基づく画像内の動きのある物体の当該「動き」に基づいて、人物や車両などの移動物体を精度良く検出することができるようになされている。
特開2000−322581公報 特開2003−169319公報 森田俊彦著,「局所相関演算による動きの検知と追跡」,電子情報学会論文誌,D−11,Vol.J84−D−11,No.2,pp.299−309,2001年2月
ところで、上述のように従来の移動物体検出装置1、20は、いずれも始めに動きを検出する対象となる領域を規定し、その領域を一定時間追跡しながら「動き」の空間的及び時間的な一様性を評価することによって移動物体か否かの判定を行うようになされている。
しかしながら、このような方法によると、常に移動物体のみを含むような領域設定ができるとは限らない問題がある。
例えば移動物体検出装置1の場合、図44に示すように、道路脇に立てられた広告宣伝用の旗のような動きのある背景BGの前を人物HUが通過するときに、同じ検知ブロックBR1内に人物HUにおける動きベクトルと背景BGの背景変動における動きベクトルとの両方が含まれることになる。そしてこの場合、人物HUの動きと背景変動とは相関がないため、相関値マップを検知ブロックBR1内で空間的に統合しても、明確なピークが現れず、その検知ブロックBR1に「動きがある」とは判定されない。また「動きがある」と判定された場合においても、人物HUの動きが代表動きベクトルに正しく反映されず、その人物HUの追跡や検出が失敗することがある。
一方、移動物体検出装置20の場合には、予め背景差分によって変化領域AR(図43)を設定するため、移動する人物HUと動きのある背景BGとが近接して存在する場合にも人物HUのみを正しく検出することが可能であるものの、図45に示すように、画面上で動きのある背景BGと人物HUとが重なる場合には、やはり1つの変化領域AR内に人物HUにおける動きベクトルと背景BGの背景変動における動きベクトルとの両方が含まれてしまうこととなる。そしてこのような条件のもとでは、移動物体検出装置1の場合と同様に、人物HUの追跡及び検出に失敗することがある。
また移動物体検出装置20の場合には、背景差分の検出感度を低く設定することにより、背景BGの背景変動が変化領域ARとして検出し得ないようにすることが可能であるものの、このような設定のもとでは、人物HUの動きと背景変動との輝度レベルが近いレベルである場合には、人物HUの動きが変化領域ARとして検出されなくなるため、背景差分の検出感度を調整したとしても、移動物体検出装置1の場合と同様に、人物HUの追跡及び検出に失敗することがある。
さらに、これら移動物体検出装置1、20が適用される映像監視システムの場合、監視カメラが十分な照明が得られない環境に設置されることも多い。そして、このような環境のもとでは監視カメラから入力される画像信号に基づく画像のSN比が悪く、被写体のコントラストに対してランダムノイズが無視できない大きさになる。この場合において、ランダムノイズは画面全体に発生し、時間とともに変動するため、上述した背景変動及び移動物体が重なる場合と同様の問題が生ずることなる。
一方、従来提案されている移動物体検出装置1、20は、いずれも始めに設定した領域(検知ブロックBR1又は変化領域AR)を追跡に伴って移動させることに起因して、当該領域が移動した後の部分に相関演算ブロックBR2が配置されず、その領域に新たに現れた移動物体を検出できないという問題がある。
すなわち、移動物体検出装置1では、図46に示すように、画面内に現れた一人目の人物HU1を検知ブロックBR1を移動させながら追跡している期間内に(図46(A))、当該一人目の人物HU1を追うようにして二人目の人物HU2が画面内に現れた場合、一人目の人物HU1を追跡している検知ブロックBR1が最初にあった場所には既に相関演算ブロックが配置されていないため、二人目の人物HU2を検出することができない(図46(B))。
また移動物体検出装置20では、例えば図47に示すように、一人目の人物HU1が画面内に現れて変化領域ARが設定され、相関演算ブロックBR2を移動させながら一人目の人物HU1を追跡している期間に(図47(A))、当該一人目の人物HU1を追うようにして二人目の人物HU2が画面内に現れ、その後これら一人目及び二人目の双方の人物HU1、HU2を含むように変化領域AR′が設定された場合(図47(B))、二人目の人物HU2上には相関演算ブロックBR2が配置されず、その動きが検出されない。これは、移動物体検出装置20では、追跡期間中に変化領域ARの形状が変化しても相関演算ブロックBR2の変化領域AR内での相対的な配置を変えられないことによる。
さらに追跡に伴って相関演算ブロックBR2の位置を移動させることは、相関演算ブロックBR2の位置を時間的に、しかも領域ごとに独立して変化させるということを意味し、このことは画像処理の処理内容及び装置構成を煩雑化させる問題がある。
このように、上述した移動物体検出装置1、20のいずれの場合も、「動き」の一様性を評価する前に始めに動きを検出する対象となる領域(検知ブロックBR1又は変化領域AR)を設定することや、相関演算ブロックBR2を移動させることに起因して、精度良く移動物体の追跡及び検出を行い得ない等の種々の問題があった。
本発明は以上の点を考慮してなされたもので、移動物体を精度良く検出し得る移動物体検出装置及び方法並びにプログラムを提案しようとするものである。
かかる課題を解決するために本発明においては、入力画像から動きベクトルを算出する動きベクトル算出手段と、動きベクトル算出手段により算出された各動きベクトルから乱雑度の高い動きベクトルを除去する動きベクトル除去手段と、動きベクトル除去手段により除去されなかった各動きベクトルを個別にかつ時間的に積算し、動きベクトル毎の積算値及び積算回数をそれぞれ算出する動きベクトル積算手段と、動きベクトル積算手段により算出された動きベクトル毎の積算値及び積算回数に基づいて、各動きベクトルについて、当該動きベクトルが移動物体のものであるか否かを判定する移動物体検出手段とを設けるようにした。
従って、移動物体に起因する動きベクトルを除去することなく、背景変動に起因する動きベクトルを除去するようにしているため、移動物体に起因する動きベクトルと背景変動に起因する動きベクトルとの両方が含まれる場合にも、背景変動に起因する動きベクトルを移動物体に起因する動きベクトルとして誤認識することを未然かつ有効に防止することができる。
また、入力画像から動きベクトルを算出する動きベクトル算出ステップと、動きベクトル算出ステップにおいて算出した各動きベクトルから乱雑度の高い動きベクトルを除去する動きベクトル除去ステップと、動きベクトル除去ステップにおいて除去しなかった各動きベクトルを個別にかつ時間的に積算し、動きベクトル毎の積算値及び積算回数をそれぞれ算出する動きベクトル積算ステップと、動きベクトル積算ステップにおいて算出した動きベクトル毎の積算値及び積算回数に基づいて、各動きベクトルについて、当該動きベクトルが移動物体のものであるか否かを判定する移動物体検出ステップとを設けるようにした。
従って、移動物体に起因する動きベクトルを除去することなく、背景変動に起因する動きベクトルを除去するようにしているため、移動物体に起因する動きベクトルと背景変動に起因する動きベクトルとの両方が含まれる場合にも、背景変動に起因する動きベクトルを移動物体に起因する動きベクトルとして誤認識することを未然かつ有効に防止することができる。
さらに、移動物体検出装置に対して、プログラムによって、入力画像から動きベクトルを算出する動きベクトル算出ステップと、動きベクトル算出ステップにおいて算出した各動きベクトルから乱雑度の高い動きベクトルを除去する動きベクトル除去ステップと、動きベクトル除去ステップにおいて除去しなかった各動きベクトルを個別にかつ時間的に積算し、動きベクトル毎の積算値及び積算回数をそれぞれ算出する動きベクトル積算ステップと、動きベクトル積算ステップにおいて算出した動きベクトル毎の積算値及び積算回数に基づいて、各動きベクトルについて、当該動きベクトルが移動物体のものであるか否かを判定する移動物体検出ステップとを実行させるようにした。
従って、移動物体に起因する動きベクトルを除去することなく、背景変動に起因する動きベクトルを除去するようにしているため、移動物体に起因する動きベクトルと背景変動に起因する動きベクトルとの両方が含まれる場合にも、背景変動に起因する動きベクトルを移動物体に起因する動きベクトルとして誤認識することを未然かつ有効に防止することができる。
本発明によれば、入力画像から動きベクトルを算出する動きベクトル算出手段と、動きベクトル算出手段により算出された各動きベクトルから乱雑度の高い動きベクトルを除去する動きベクトル除去手段と、動きベクトル除去手段により除去されなかった各動きベクトルを個別にかつ時間的に積算し、動きベクトル毎の積算値及び積算回数をそれぞれ算出する動きベクトル積算手段と、動きベクトル積算手段により算出された動きベクトル毎の積算値及び積算回数に基づいて、各動きベクトルについて、当該動きベクトルが移動物体のものであるか否かを判定する移動物体検出手段とを設けるようにしたことにより、移動物体に起因する動きベクトルを除去することなく、背景変動に起因する動きベクトルを除去するようにしているため、移動物体に起因する動きベクトルと背景変動に起因する動きベクトルとの両方が含まれる場合にも、背景変動に起因する動きベクトルを移動物体に起因する動きベクトルとして誤認識することを未然かつ有効に防止することができ、かくして移動物体を精度良く検出し得る移動物体検出装置を実現できる。
また本発明によれば、入力画像から動きベクトルを算出する動きベクトル算出ステップと、動きベクトル算出ステップにおいて算出した各動きベクトルから乱雑度の高い動きベクトルを除去する動きベクトル除去ステップと、動きベクトル除去ステップにおいて除去しなかった各動きベクトルを個別にかつ時間的に積算し、動きベクトル毎の積算値及び積算回数をそれぞれ算出する動きベクトル積算ステップと、動きベクトル積算ステップにおいて算出した動きベクトル毎の積算値及び積算回数に基づいて、各動きベクトルについて、当該動きベクトルが移動物体のものであるか否かを判定する移動物体検出ステップとを設けるようにしたことにより、移動物体に起因する動きベクトルを除去することなく、背景変動に起因する動きベクトルを除去するようにしているため、移動物体に起因する動きベクトルと背景変動に起因する動きベクトルとの両方が含まれる場合にも、背景変動に起因する動きベクトルを移動物体に起因する動きベクトルとして誤認識することを未然かつ有効に防止することができ、かくして移動物体を精度良く検出し得る移動物体検出方法を実現できる。
さらに本発明によれば、移動物体検出装置に対して、プログラムによって、入力画像から動きベクトルを算出する動きベクトル算出ステップと、動きベクトル算出ステップにおいて算出した各動きベクトルから乱雑度の高い動きベクトルを除去する動きベクトル除去ステップと、動きベクトル除去ステップにおいて除去しなかった各動きベクトルを個別にかつ時間的に積算し、動きベクトル毎の積算値及び積算回数をそれぞれ算出する動きベクトル積算ステップと、動きベクトル積算ステップにおいて算出した動きベクトル毎の積算値及び積算回数に基づいて、各動きベクトルについて、当該動きベクトルが移動物体のものであるか否かを判定する移動物体検出ステップとを実行させるようにしたことにより、移動物体に起因する動きベクトルを除去することなく、背景変動に起因する動きベクトルを除去するようにしているため、移動物体に起因する動きベクトルと背景変動に起因する動きベクトルとの両方が含まれる場合にも、背景変動に起因する動きベクトルを移動物体に起因する動きベクトルとして誤認識することを未然かつ有効に防止することができ、かくして移動物体を精度良く検出し得るプログラムを実現できる。
以下図面について、本発明の一実施の形態を詳述する。
(1)第1の実施の形態
(1−1)第1の実施の形態による移動物体検出装置の構成
図1において、40は全体として映像監視システム等の監視システムに適用される第1の実施の形態による移動物体検出装置を示し、図示しない監視カメラから供給される画像情報を画像入力部41を介して画像データD30として相関演算ブロック配置部42及び過去画像蓄積部43に入力する。
相関演算ブロック配置部42は、図2に示すように、供給される画像データD30に基づく画像PTの全領域又は画像PT上における移動物体の検出を意図する領域に相関演算ブロックBR10(図2における罫線に囲まれた部分)を配置する。この相関演算ブロックBR10のサイズについては、m×m画素とし、当該相関演算ブロックBR10を配置する配置間隔については、縦方向にT画素、横方向にT画素とする。ちなみに、本実施の形態における移動物体検出装置40においては、mとTとが同じ長さに選定されているため、図2のように相関演算ブロックBR10が隙間なく配置されている。
そして相関演算ブロック配置部42は、これら相関演算ブロックBR10のデータを相関演算ブロックデータD31として順次相関演算実行部44に送出する。この場合において、相関演算ブロック配置部42は、配置される個々の相関演算ブロックBR10の位置、大きさ及び配置間隔をフレームごとに変化させることなく、常に画像PT内の一定の位置に一定の大きさで配置する。
過去画像蓄積部43は、例えばフレームメモリから構成され、画像入力部41から与えられる画像データD30を蓄積する。そして、この過去画像蓄積部43に蓄積された画像データD30は、この後相関演算ブロック配置部42から相関演算ブロックデータD31が相関演算実行部44に与えられるのと同じタイミングで、1フレーム前の画像のその相関演算ブロックBR10と同じ位置及び同じ大きさの画像部分の画像データD30が切り取られて遅延画像データD32として相関演算実行部44に読み出される。
相関演算実行部44は、相関演算ブロック配置部42から与えられる相関演算ブロックデータD31と、過去画像蓄積部43から読み出した遅延画像データD32とに基づいて相関演算処理を実行することにより、相関演算ブロックBR10毎に動きベクトルを算出する。
この相関演算処理は、図3に示すように、そのとき対象としているフレームn内の相関演算を行おうとしている局所画像である相関演算ブロックBR10(以下、これを参照ブロックBR11と呼ぶ)の画像部分と、これよりも1フレーム前のフレームn−1における参照ブロックBR11と同じ大きさの相関演算ブロック(以下、これを候補ブロックBR12と呼ぶ)の画像部分との間の相関演算を、候補ブロックBR12の位置を変えながら繰り返すものであり、相関が最大となる候補ブロックBR12の位置から、両フレーム画像間での物体の動きベクトルを求めることができる。
この場合の相関演算は、次式
Figure 2006260049
で与えられる。この(1)式において、Inはフレームnの画像、In−1はフレームn−1の画像であり、相関演算ブロックBR10のサイズをm×m画素、動きベクトルの探索範囲SAR(図3)を水平方向及び垂直方向ともに−p〜+p画素としている。
この式に基づく相関演算の結果、図4に示すような2次元の相関マップD(h,v)が得られる。なお、本実施の形態においては、フレームnに参照ブロックBR11、1つ前のフレームn−1に候補ブロックBR12を設定しているため、D(h,v)が最小となる位置(h,v)に対して、動きベクトルVnは、次式
Figure 2006260049
となる。そして相関演算実行部44は、このようにして算出したフレームnの各相関演算ブロックBR10の動きベクトルVnを動きベクトル情報D33として動きベクトル除去部45に送出する。
このとき相関演算実行部44では、各相関演算ブロックBR10内の画像のコントラストが著しく低い場合には、信頼性のある動きベクトルVnを算出することができないので、当該相関演算ブロックBR10における動きベクトルVnをゼロベクトルに置き換える、すなわち、次式
Figure 2006260049
とする。
動きベクトル除去部45は、図5に示すように、個々の相関演算ブロックBR10について、動きベクトル情報D33に基づき得られる過去の動きベクトルを過去ベクトル情報D40として蓄積する過去ベクトル蓄積部50と、個々の相関演算ブロックBR10ごとに、動きベクトルの空間的及び時間的な乱雑度を算出する乱雑度算出部51と、乱雑度が所定の閾値より大きい場合に、当該動きベクトルを除去する乱雑ベクトル除去部52とから構成されている。
この場合、乱雑度算出部51は、図6に示すように、過去ベクトル蓄積部50から読み出した過去ベクトル情報D40における過去の動きベクトルと、相関演算実行部44から与えられる動きベクトル情報D33に基づく現在の動きベクトルとに基づいて、個々の相関演算ブロックBR10ごとに、動きベクトルの乱雑度を算出する。
すなわち乱雑度算出部51は、相関演算実行部44から1個の相関演算ブロックBR10分のデータが与えられ、これと同期して過去ベクトル蓄積部50から1個の相関演算ブロックBR10分のデータを読み出す毎に、図6に示す乱雑度算出処理手順RT1をステップSP0において開始し、続くステップSP1において、乱雑度を算出する対象となる動きベクトルに対し、当該動きベクトルVn(X,Y)と時間的及び空間的に隣接する動きベクトルからなる動きベクトル群Wn(X,Y)を、次式
Figure 2006260049
のように生成する。この(4)式において、(X,Y)は動きベクトルの位置、nはフレーム、Tは相関演算ブロックBR10の配置間隔として示す。
続いて乱雑度算出部51は、ステップSP2に進んで、動きベクトルVn(X,Y)に対する空間的な乱雑度を示す瞬時的な乱雑度En(X,Y)を、次式
Figure 2006260049
のように算出する。ここで、Ln(X,Y)は、動きベクトル群Wn(X,Y)に含まれるそれぞれの動きベクトルの大きさの絶対値を示すノルムを平均した値であり、Sn(X,Y)は、動きベクトル群Wn(X,Y)に含まれるそれぞれの動きベクトルにおけるX成分、Y成分それぞれの平均偏差を加算した値である。但し、Ln(X,Y)は所定の定数よりも大きい値とする。
続いて乱雑度算出部51は、ステップSP3に進んで、動きベクトルVn(X,Y)に対する定常的な乱雑度E’n(X,Y)を、次式
Figure 2006260049
のように算出する。但し、aは0.001〜0.01程度に選定されている。このように乱雑度算出部51では、過去のフレームn−1における定常的な乱雑度E’n−1(X,Y)と現在のフレームnにおける瞬時的な乱雑度En(X,Y)とを重み付け加算することによって、定常的な乱雑度E’n(X,Y)を算出する。続いて乱雑度算出部51は、この後ステップSP4に進んで、この乱雑度算出処理手順RT1を終了する。
そして乱雑度算出手段51は、このようにして算出した各相関演算ブロックBR10の動きベクトルVn(X,Y)における瞬時的な乱雑度En(X,Y)及び定常的な乱雑度E’n(X,Y)を乱雑度情報D41として乱雑ベクトル除去部52に送出する。
乱雑ベクトル除去部52は、乱雑度算出手段51から供給される乱雑度情報D41における動きベクトルVn(X,Y)の瞬時的な乱雑度En(X,Y)と定常的な乱雑度E’n(X,Y)とに基づいて、個々の相関演算ブロックBR10ごとに、動きベクトルを除去するか否かを判定する。
すなわち乱雑ベクトル除去部52は、相関演算実行部44及び乱雑度算出部51から同期して1個の相関演算ブロックBR10分のデータが与えられる毎に、図7に示す第1の動きベクトル除去判定処理手順RT2をステップSP10において開始し、続くステップSP11において、動きベクトルVn(X,Y)について、瞬時的な乱雑度En(X,Y)が当該瞬時的な乱雑度について予め設定された閾値が第1の閾値TH_E1とすると、次式
Figure 2006260049
を満たすか否かを判断する。そして乱雑ベクトル除去部52は、このステップSP11において肯定結果を得ると、このことは瞬時的な乱雑度En(X,Y)が第1の閾値TH_E1以下であることを示しており、この後ステップSP13に進んで、動きベクトルVn(X,Y)と空間的に隣接するすべての動きベクトルを除去しないと判定し、この後ステップSP15に進んでこの動きベクトル除去判定処理手順RT2を終了する。
これに対して乱雑ベクトル除去部52は、ステップSP11において肯定結果を得ると、このことは瞬時的な乱雑度En(X,Y)が第1の閾値TH_E1よりも大きいことを示しており、この後ステップSP12に進んで、動きベクトルVn(X,Y)について、定常的な乱雑度E’n(X,Y)が当該定常的な乱雑度について予め設定された閾値が第2の閾値TH_E2とすると、次式
Figure 2006260049
を満たすか否かを判断する。そして乱雑ベクトル除去部52は、このステップSP12において否定結果を得ると、このことは定常的な乱雑度E’n(X,Y)が第2の閾値TH_E2より小さいことを示しており、この後ステップSP13に進んで、動きベクトルVn(X,Y)を除去しないと判定し、この後ステップSP15に進んでこの動きベクトル除去判定処理手順RT2を終了する。
これに対して乱雑ベクトル除去部52は、ステップSP12において否定結果を得ると、このことは定常的な乱雑度E’n(X,Y)が第2の閾値TH_E2以上であることを示しており、この後ステップSP14に進んで、動きベクトルVn(X,Y)を除去すると判定する。このとき乱雑ベクトル除去部52は、除去対象の動きベクトルVn(X,Y)を上述の(3)式を用いてゼロベクトルに置き換え、この後ステップSP15に進んでこの第1の動きベクトル除去判定処理手順RT2を終了する。
実際上、図8は、フレームnにおける動きベクトルVn(X,Y)と時間的及び空間的に隣接する動きベクトルからなるベクトル群Wn(X,Y)(図8の網かけ部分)を示している。
このとき、図9に示すように、動きベクトルVn(X,Y)が人物や車両などの移動物体に起因する動きベクトルの場合には、空間的及び時間的に隣接する動きベクトル群Wn(X,Y)におけるそれぞれの動きベクトルの方向がほぼ同じ方向を向いている。このことは、当該動きベクトル群Wn(X,Y)の一様性が高いことを示しており、このような動きベクトル群Wn(X,Y)に対しては、図10(A)に示すように、瞬時的な乱雑度En(X,Y)が小さくなる。
そして、図10(A)における丸点線で囲まれた部分に示すように、何らかの原因で瞬時的な乱雑度En(X,Y)が大きくなったとしても、その状態が画面上の同じ位置で長い時間継続することはなく、図10(B)における対応する丸点線で囲まれた部分に示すように、定常的な乱雑度E’n(X,Y)が大きくなることはない。すなわち、移動物体に起因する動きベクトルの場合には、瞬時的な乱雑度En(X,Y)が第1の閾値TH_E1より大きくなったとしても、定常的な乱雑度E’n(X,Y)が大きくなることはない。
従って、乱雑ベクトル除去部52では、このような移動物体に起因する動きベクトルを除去することなく、フレームnの各相関演算ブロックBR10の動きベクトルVn(X,Y)を非除去ベクトル情報D34として動きベクトル積算部46に送出する。
一方、図11に示すように、動きベクトルVn(X,Y)が水面上の波による光の乱反射、強風で激しくたなびく旗などの背景変動に起因する動きベクトルの場合には、空間的及び時間的に隣接する動きベクトル群Wn(X,Y)におけるそれぞれの動きベクトルの方向が別の方向を向いている。このことは、当該動きベクトル群Wn(X,Y)の一様性が低いことを示しており、このような動きベクトル群Wn(X,Y)に対しては、図12(A)に示すように、瞬時的な乱雑度En(X,Y)が大きくなる。
そして、背景変動に起因する動きベクトルの場合には、動きベクトルVn(X,Y)がある程度の期間ほぼ空間的に同じ位置に発生し続けるため、図12(B)に示すように、定常的な乱雑度E’n(X,Y)についても大きくなる。すなわち、背景変動に起因する動きベクトルの場合には、瞬時的な乱雑度En(X,Y)が大きくなり、かつ定常的な乱雑度E’n(X,Y)が大きくなる。
従って、乱雑ベクトル除去部52は、このような背景変動に起因する動きベクトルを除去し、動きベクトル積算部46に送出しないようになされている。
他方、背景変動を隠すように移動物体が通過するような場合には、図13(B)に示すように、定常的な乱雑度E’n(X,Y)が大きくなっているが、図13(A)に示すように、瞬時的な乱雑度En(X,Y)は、移動物体に起因する動きベクトルをもとに算出されるため、移動物体が背景変動に重なって背景変動を隠すと同時に小さくなると共に、移動物体が背景変動を隠している間は小さいままとなる一方、移動物体が通過して背景変動が現れると再び大きくなる。
従って、乱雑ベクトル除去部52は、背景変動を隠すように移動物体が通過するような場合にも、瞬時的な乱雑度En(X,Y)が小さくなるため、このような移動物体に起因する動きベクトルを除去することなく、フレームnの各相関演算ブロックBR10の動きベクトルVn(X,Y)を非除去ベクトル情報D34として動きベクトル積算部46に送出する。
このようにして乱雑ベクトル除去部52においては、移動物体に起因する動きベクトルを除去することなく、動きベクトル群Wn(X,Y)の乱雑度が高い背景変動に起因する動きベクトルを除去することにより、背景変動に起因する動きベクトルが移動物体に起因する動きベクトルとして誤認識されることを未然かつ有効に防止し得るようになされている。
動きベクトル積算部46は、図14に示すように、個々の相関演算ブロックBR10ごとに非除去ベクトル情報D34に基づき得られる過去の動きベクトルを非除去過去ベクトル情報D50として蓄積する過去ベクトル蓄積部60と、個々の相関演算ブロックBR10ごとに動きベクトルの積算値及び積算回数を更新するか又はリセットするかを判定する積算制御部61と、動きベクトルの積算値及び積算回数を更新する積算値更新部62と、更新された動きベクトルの積算値及び積算回数を蓄積する積算値蓄積部63と、更新された動きベクトルの積算値及び積算回数を過去の動きベクトルの積算値及び積算回数を示す過去ベクトル積算情報D51として蓄積する過去積算値蓄積部64と、過去の動きベクトルの積算値及び積算回数を読み出す過去積算値読み出し部65とから構成されている。
この場合、積算制御部61は、過去ベクトル蓄積部60から読み出した非除去過去ベクトル情報D50に基づく過去のベクトルと、動きベクトル除去部45から与えられる非除去ベクトル情報D34に基づき認識される現在の動きベクトルとを用いて積算を継続するか又はリセットするかを制御する。
ここで積算制御部61は、例えばある相関演算ブロックBR10について、規定フレーム数(例えば0.5〔s〕分のフレーム数)以上連続して動きベクトルがゼロの場合には、その相関演算ブロックBR10において動きがないものと判定し、積算値更新部62に対して動きベクトルの積算値及び積算回数をリセットすべき旨の指示を積算制御情報D52として与える。
これに対して積算制御部61は、これ以外の場合には、対応する相関演算ブロックBR10において動きがあると判定し、積算値更新部62に対して動きベクトルの積算値及び積算回数を更新するような指示を積算制御情報D52として与える。
積算値更新部62は、リセット判定部53から与えられる積算制御情報D51に応じて、過去積算値蓄積部64から過去積算値読み出し部65を介して読み出された各相関演算ブロックBR10についての過去ベクトル積算情報D51をそれぞれ更新する。
実際上、積算値更新部62は、積算制御部61からリセットの指示を示す積算制御情報D52を受けた場合には、次式
Figure 2006260049
Figure 2006260049
のように、過去積算値蓄積部64に蓄積された過去ベクトル積算情報D51、すなわちそのとき対象としている相関演算ブロックBR10の動きベクトルのそれまでの積算値及び積算回数をリセットする。なお、この(9)式及び(10)式において、(X,Y)は対応する相関演算ブロックBR10の位置座標、ACCnはフレームnにおけるその相関演算ブロックBR10の動きベクトルのそれまでの積算値、CNTnはそのフレームnまでの動きベクトルの積算回数を表す。
これに対して積算値更新部62は、積算制御部61から例えば更新の指示を示す積算制御情報D52を受けた場合、次式
Figure 2006260049
Figure 2006260049
のようにして、過去積算値蓄積部64に蓄積された過去ベクトル積算情報D51、すなわちそのとき対象としている相関演算ブロックBR10についてのそれまでの動きベクトルの積算値及び積算回数を更新する。なお、動きベクトルVnは非除去ベクトル情報D33に基づき得られるフレームnにおけるその相関演算ブロックBR10の動きベクトルを表し、Vn(x,y)は次式
Figure 2006260049
を満たす。
このようにして積算値更新部62は、積算制御部61から与えられる積算制御情報D52に応じて、過去積算値蓄積部64から過去積算値読み出し部65を介して読み出された各相関演算ブロックBR10についての過去ベクトル積算情報D51をそれぞれ更新(リセットも含む)し、この結果得られた更新された動きベクトルの積算値及び積算回数を更新ベクトル積算情報D35として、移動物体検出部47及び積算値蓄積部63に送出する。
このとき積算値蓄積部63は、積算値更新部62から与えられる更新ベクトル積算情報D35を順次蓄積し、あるフレームでのすべての相関演算ブロックBR10の積算値及び積算回数の更新が終了したときに、個々の相関演算ブロックBR10ごとの更新ベクトル積算情報D35を過去ベクトル積算情報D51としてまとめて過去積算値蓄積部64に転送される。
過去積算値読み出し部65は、過去積算値蓄積部64に蓄積された過去ベクトル積算情報D51、すなわちそのとき対象としている相関演算ブロックBR10についてのそれまでの動きベクトルの積算値ACCn−1(α,β)及び積算回数CNTn−1(α,β)を読み出して、積算値更新部62に送出する。なお、(α,β)は、積算値及び積算回数の更新元となる相関演算ブロックBR10の位置である。
このとき過去積算値読み出し部65は、更新する対象である相関演算ブロックBR10における現在の動きベクトルを上述の(13)式を用いて算出したときに、位置(X−h,Y−v)又はその近傍に位置する複数の相関演算ブロックBR10の中から、フレームn−1における動きベクトルが、現在の動きベクトル、すなわちフレームnにおけるVn(X,Y)と最もよく一致する相関演算ブロックBR10を更新元の相関演算ブロックBR10として選択する。
すなわち過去積算値読み出し部65は、移動物体が急に向きを変えないであろうことを前提として、かかる相関演算ブロックBR10の位置(X,Y)から動きベクトルだけ空間的に離れた位置(X−h,Y−v)の近傍に存在する複数の相関演算ブロックBR10に注目し、過去ベクトル蓄積部60に蓄積されているこれら相関演算ブロックBR10の1つ前のフレームn−1における動きベクトルと、位置(X,Y)のフレームnにおける動きベクトルとの差分を演算する。
そして過去積算値読み出し部65は、この演算結果に基づいて、差分のノルムが最小となる相関演算ブロックBR10を過去の動きベクトルの積算値及び積算回数を引き継ぐ相手に選定し、選定した相関演算ブロックBR10に対応する過去の動きベクトルの積算値及び積算回数を過去積算値蓄積部64から読み出して、積算値更新部62に送出する。
これにより積算値更新部62では、各相関演算ブロックBR10について、リセットしない場合には、そのとき対象とする相関演算ブロックBR10の位置からそのフレームnにおいて算出された動きベクトルと逆向きに当該動きベクトルの大きさだけ空間的に離れた位置にある位相演算ブロックBR10の動きベクトルのそれまでの積算値及び積算回数を引き継ぐように、対象とする位相演算ブロックBR10の動きベクトルの積算値及び積算回数を更新する。そしてこのような処理により、各動きベクトルを個々にかつ時間的に積算し、動きベクトル毎の積算値及び積算回数を順次求めることができる。この結果、相関演算ブロックBR10を移動させることなく、移動物体の動きに沿って動きベクトルの積算値及び積算回数という特徴量を移動させながら順次更新していくことが可能となる。
移動物体検出部47は、個々の相関演算ブロックBR10について、動きベクトル積算部46から与えられる非除去ベクトル積算情報D34に基づき得られる動きベクトルの時間的な積算値及び積算回数を用い、図15に示す第1の移動物体検出処理手順RT3に従って、画像入力部41(図1)を介して入力した画像データD20(図1)に基づく画像内に存在する移動物体を検出する。
すなわち移動物体検出部47は、動きベクトル積算部46から個々の相関演算ブロックBR10が与えられる毎にこの移動物体検出処理手順RT3をステップSP20において開始し、続くステップSP21において、動きベクトルの積算値のノルムが当該積算値のノルムについて予め設定された閾値が第3の閾値TH_ACCであるとすると、次式、
Figure 2006260049
を満たすか否かを判断する。そして移動物体検出部47は、このステップSP21において否定結果を得ると、このことは動きベクトルの積算値のノルムが第3の閾値TH_ACCより小さいことを示しており、この後ステップSP23に進んでその相関演算ブロックBR10には移動物体がないと判定し、この後ステップSP25に進んでこの移動物体検出処理手順RT3を終了する。
これに対して移動物体検出部47は、ステップSP21において肯定結果を得ると、このことは動きベクトルの積算値のノルムが第3の閾値TH_ACC以上であることを示しており、この後ステップSP22に進んで動きベクトルの積算回数が当該積算回数について予め設定された閾値が第4の閾値TH_CNTとすると、次式
Figure 2006260049
を満たすか否かを判断する。そして移動物体検出部47は、このステップSP22において否定結果を得ると、このことは動きベクトルの積算回数が第4の閾値TH_CNTより小さいことを示しており、この後ステップSP23に進んでその相関演算ブロックBR10には移動物体がないと判定し、この後ステップSP25に進んでこの移動物体検出処理手順RT3を終了する。
これに対して移動物体検出部47は、ステップSP22において肯定結果を得ると、このことは動きベクトルの積算回数が第4の閾値TH_CNTより以上であることを示しており、この後ステップSP24に進んで、その相関演算ブロックBR10には移動物体があると判定し、この後ステップSP25に進んでこの移動物体検出処理手順RT3を終了する。
このようにして移動物体検出部47は、動きベクトル積算部46により算出された動きベクトルそれぞれについての積算回数及び積算値に基づいてその動きベクトルが移動物体のものであるか否かを判定し、これにより画像内の移動物体を検出する。
このように移動物体検出装置40においては、動きベクトル除去部45により乱雑度の高い動きベクトル、つまり背景変動に起因する動きベクトルを除去し、動きベクトル積算部46及び移動物体検出部47において、動きベクトル除去部45において区別できなかった背景変動に起因する動きベクトルと移動物体に起因する動きベクトルとを区別し、これにより移動物体を検出するものである。
このとき移動物体検出装置40においては、動きベクトル除去部45において除去されなかった動きベクトルに対して、個別にかつ時間的に積算してその積算値及び積算回数を算出するようにしているため、動きベクトル積算部46及び移動物体検出部47における計算量を格段的に低減することができる。
ここで、図16は、人物や車両などの移動物体による動きベクトルの積算結果を示すものである。この図16において、1つの矢印はあるフレームでの動きベクトルを表す(以下の図16〜図19においても同様)。人物や車両が移動する場合、大きさと向きがほぼ一定の動きベクトルがある程度の時間継続して発生する。従って、この場合には、移動物体検出部47においてかかる移動物体検出処理手順RT3に従った処理により移動物体であると判定されることとなる。
これに対して図17は、風による木々の揺れに代表される振動的な背景変動による動きベクトルの積算を示すものである。この図17からも明らかなように、動きが振動的である場合、動きベクトルの積算値のノルムが大きくならない、すなわち動きベクトルの積算値のノルムが第3の閾値TH_ACCを超えないため、移動物体検出部47において移動物体として検出されないようになされている。
また図18は、夜間におけるヘッドライトの乱反射による動きベクトルなど、短時間のランダムな動きベクトルの積算を示している。この場合も動きベクトルの積算値のノルムが大きくならない、すなわち動きベクトルの積算値のノルムが第3の閾値TH_ACCを超えないため、移動物体検出部47において移動物体として検出されないようになされている。
一方、図19は、照明のオン/オフなど、急激な照明変動による動きベクトルの積算を示している。急激な照明変動が発生すると、移動物体が存在しないにもかかわらず、誤って大きな動きベクトルが検出され、積算値のノルムが第3の閾値TH_ACCを超える場合がある。しかしながら、この場合には、動きベクトルが発生するのは極めて短時間(数フレーム)に限られ、動きベクトルの積算回数が第4の閾値TH_CNTを超えないため、移動物体検出部47において移動物体として検出されないようになされている。
従って、乱雑度の高い動きベクトルを予め除去することにより、強風で激しくたなびく旗や十分な照明が得られない環境下に監視カメラが設置された場合のランダムノイズによる影響を排除した後に、風で揺れる木々や夜間におけるヘッドライトの乱反射、照明のオン/オフなど移動物体によるものでない動きによる影響を、個々の動きベクトルの積算値及び積算回数を組み合わせて判定することで、画像内の移動物体をさらに確実に検出し得ることが分かる。
次に、図20に示すように、道路脇に立てられた旗が強風で激しくたなびくような動きのある背景BGの前を人物HUが通過する場合について説明する。
図20は、道路脇に立てられた旗が強風で激しくたなびくような動きのある背景BGの前を人物HUが通過する場面であり、画面全体に相関演算ブロックBR10が配置されており、人物HUにおける動きベクトルと背景BGの背景変動における動きベクトルとの両方が含まれている。このとき図20では、相関演算実行部44により算出された動きベクトルのうち、ゼロベクトルでない動きベクトルがすべて表示されている。
図21は、図20から動きベクトル除去部45により乱雑度の高い動きベクトルを除去した結果を示しており、背景BGの背景変動における動きベクトルは、瞬時的な乱雑度と定常的な乱雑度の双方が高いため、その大半が除去される。
一方、人物HUにおける動きベクトルは、当該人物HUが侵入してくるまでは背景BGの背景変動における動きベクトルが発生していたため定常的な乱雑度が第2の閾値TH_E2以上となっているが、人物HUが侵入に伴う当該人物HUの移動に起因する動きベクトルから算出される瞬時的な乱雑度が第1の閾値TH_E1より小さくなる。従って、人物HUにおける動きベクトルは、動きベクトル除去部45により除去されることなく、ベクトル積算部46に送出される。
このように本実施の形態による移動物体検出装置40では、個々の相関演算ブロックBR10について瞬時的な乱雑度と定常的な乱雑度とを評価するため、背景変動と移動物体が重なる場合でも移動物体の検出が可能となる。
図22〜24は、個々の相関演算ブロックBR10について、動きベクトルの積算値が積算される過程を示したものである。図22〜24における(A)は、時刻t1、t2、t3における動きベクトルを示し、図22〜24における(B)は、時刻t1、t2、t3(t1<t2<t3)を通じた動きベクトルの積算値を示す。
この場合、時刻t1、t2、t3(t1<t2<t3)を通じて人物HUは、一方向に動き続けるため、時刻の経過と共に動きベクトルの積算値が増大していくのに対して、背景変動は、瞬時的な乱雑度が低くなり除去されずに残された動きベクトルであり、動きベクトルが周期的又はランダムに向きが変化する。
この結果、人物HU上の相関演算ブロックBR10においては、動きベクトルが積算され、やがて積算値のノルムと積算回数の双方が閾値を超え、移動物体として検出される。また背景変動上の相関演算ブロックBR10においては、動きベクトルが積算されるため、積算回数が閾値を超えたとしても積算値のノルムが第3の閾値TH_ACCを超えないために、移動物体として認識されない。
このように本実施の形態による移動物体検出装置40では、個々の相関演算ブロックBR10について積算値のノルムと積算回数とを評価するため、背景変動と移動物体が重なる場合でも移動物体の検出が可能となる。
またこの移動物体検出装置40では、移動物体の追跡の際に、相関演算ブロックBR10を移動させることなく、常に画面全体又は移動物体の検出を意図する領域全体に相関演算ブロックBR10を固定的に配置するようにしているため、例えば図17のように1人目の人物HU1が画面内に現れ、その後これに続いて2人目の人物HU2が画面内に現れた場合においても、この2人目の人物HU2を移動物体として確実に検出することができる。
(1−2)動作及び効果
以上の構成において、この移動物体検出装置40では、入力する画像データD1に基づき検出される各々の動きベクトルから瞬時的な乱雑度En(X,Y)が第1の閾値TH_E1以上であり、かつ定常的な乱雑度E’n(X,Y)が第2の閾値TH_E2以上である動きベクトルを除去し、除去されなかった動きベクトルに対して、個別にかつ時間的に積算してその積算値及び積算回数を算出して、各々の動きベクトルの積算値及び積算回数に基づいて移動物体を検出する。
従って、移動物体に起因する動きベクトルを除去することなく、背景変動に起因する動きベクトルを除去するようにしているため、移動物体に起因する動きベクトルと背景変動に起因する動きベクトルとの両方が含まれる場合にも、背景変動に起因する動きベクトルを移動物体に起因する動きベクトルとして誤認識することを未然かつ有効に防止することができる。
またこの移動物体検出装置40では、従来のように最初に検出の対象とする領域を規定することなく、常に個々の相関演算ブロックBR10について独立に動きを解析するため、背景変動と移動物体とが重なる場合や、十分な照明が得られない環境に監視カメラが設置された場合においても、移動物体を確実に検出することができる。
さらにこの移動物体検出装置40では、常に画面全体又は移動物体の検出を意図する領域全体に相関演算ブロックBR10を固定的に配置するようにしているため、複数の移動物体が続けて画面内に現れた場合においても、これらの移動物体をそれぞれ確実に検出することができる。さらに相関演算ブロックBR10を固定的に配置する分、かかる検出処理を簡易に行うことができ、この結果、装置構成を簡易化することもできる。
以上の構成によれば、入力する画像データD1に基づき検出される各々の動きベクトルから瞬時的な乱雑度En(X,Y)が第1の閾値TH_E1以上であり、かつ定常的な乱雑度E’n(X,Y)が第2の閾値TH_E2以上である動きベクトルを除去することにより、移動物体に起因する動きベクトルと背景変動に起因する動きベクトルとの両方が含まれる場合にも、背景変動に起因する動きベクトルを移動物体に起因する動きベクトルとして誤認識することを未然かつ有効に防止することができ、かくして移動物体を精度良く検出し得る移動物体検出装置を実現できる。
(2)第2の実施の形態
(2−1)第2の実施の形態による移動物体検出装置の構成
図1との対応部分に同一符号を付して示す図26は、第2の実施の形態による移動物体検出装置70を示し、相関演算ブロック配置部42から相関演算ブロックデータD31を動きベクトル除去部71に送出すると共に、当該動きベクトル除去部71における構成が異なる点を除いて第1の実施の形態による移動物体検出装置40(図1)と同様に構成されている。
この場合、動きベクトル除去部71は、図5との対応部分に同一符号を付した図27に示すように、背景モデル差分算出部80が新たに設けられる点と、乱雑ベクトル除去部81における動きベクトルの除去手法が異なる点を除いて第1の実施の形態による動きベクトル除去部45(図1)と同様の構成を有する。
そしてこの第2の実施の形態の場合、背景モデル差分算出部80は、平均輝度算出部82と、背景モデル蓄積部83と、背景モデル更新部84と、背景モデル差分部85とから構成されている。
この場合、背景モデル差分算出部80の平均輝度算出部82は、相関演算ブロック配置部42から供給される相関演算ブロックデータD31に対して、個々の相関演算ブロックBR10ごとに当該相関演算ブロックBR10内の平均輝度レベルを算出し、この結果得られた相関演算ブロックBR10ごとの平均輝度レベルを平均輝度情報D70として背景モデル更新部83及び背景モデル差分部85に送出する。
ここで、背景モデル蓄積部84には、個々の相関演算ブロックBR10ごとに、平均輝度レベルの分布を表すパラメータが背景モデルとして蓄積されている。すなわち背景モデル蓄積部83には、背景モデルとして、平均輝度算出部82が算出する相関演算ブロックBR10ごとの平均輝度をMn(X,Y)とすると、平均輝度Mn(X,Y)の時間的な平均値M’n(X,Y)と時間的なばらつきの大きさBn(X,Y)とが蓄積されている。
そして背景モデル更新部84は、平均輝度算出部82から供給される平均輝度情報D70における平均輝度レベルに基づいて、背景モデル蓄積部83に蓄積された背景モデルを、毎フレーム、相関演算ブロックBR10ごとに、次式
Figure 2006260049
のようにして更新する。ここで、aは0.001〜0.01程度に選定されており、(X,Y)は相関演算ブロックBR10の位置を示している。
このように背景モデル更新部84では、過去のフレームn−1における平均輝度Mn−1(X,Y)の時間的な平均値M’n−1(X,Y)と、現在のフレームnにおける平均輝度Mn(X,Y)とを重み付け加算することによって、平均輝度の時間的な平均値M’n(X,Y)を更新する。また背景モデル更新部84では、過去のフレームn−1における平均輝度Mn−1(X,Y)の時間的なばらつきの大きさBn−1(X,Y)と、現在のフレームnにおける平均輝度Mn(X,Y)と平均輝度の時間的な平均値M’n(X,Y)との差分とを重み付け加算することによって、平均輝度Mn−1(X,Y)の時間的なばらつきの大きさBn(X,Y)を更新する。
背景モデル差分部85は、平均輝度算出部82から供給される平均輝度情報D70における現在のフレームの平均輝度レベルと、背景モデル蓄積部84から背景モデル情報D71として読み出した背景モデルとの偏差を偏差DEVn(X,Y)とすると、次式
Figure 2006260049
のように算出する。但し、Bn(X,Y)は、ある定数より大きな値とする。そして背景差分部85は、このようにして算出したフレームnの各相関演算ブロックBR10における平均輝度レベルと背景モデルとの偏差を背景差分情報D72として乱雑ベクトル除去部81に送出する。
乱雑ベクトル除去部81は、背景差分部85から供給される背景差分情報D72における平均輝度レベルと背景モデルとの偏差DEVn(X,Y)と、乱雑度算出手段51から供給される乱雑度情報D41における動きベクトルの瞬時的な乱雑度En(X,Y)及び定常的な乱雑度E’n(X,Y)とに基づいて、個々の相関演算ブロックBR10ごとに、動きベクトルを除去するか否かを判定する。
すなわち乱雑ベクトル除去部81は、相関演算実行部44、乱雑度算出部51及び背景モデル差分部85から同期して1個の相関演算ブロックBR10分のデータが与えられる毎に、図28に示す第2の動きベクトル除去判定処理手順RT4をステップSP30において開始し、続くステップSP31において、動きベクトルVn(X,Y)について、瞬時的な乱雑度En(X,Y)が当該瞬時的な乱雑度について予め設定された閾値が第1の閾値TH_E1とすると、次式
Figure 2006260049
を満たすか否かを判断する。そして乱雑ベクトル除去部81は、このステップSP31において肯定結果を得ると、このことは瞬時的な乱雑度En(X,Y)が第1の閾値TH_E1以下であることを示しており、この後ステップSP33に進んで、動きベクトルVn(X,Y)と空間的に隣接するすべての動きベクトルを除去しないと判定し、この後ステップSP35に進んでこの第2の動きベクトル除去判定処理手順RT4を終了する。
これに対して乱雑ベクトル除去部81は、ステップSP31において肯定結果を得ると、このことは瞬時的な乱雑度En(X,Y)が第1の閾値TH_E1よりも大きいことを示しており、この後ステップSP32に進んで、動きベクトルVn(X,Y)について、定常的な乱雑度E’n(X,Y)が当該定常的な乱雑度について予め設定された閾値が第2の閾値TH_E2とし、平均輝度レベルと背景モデルとの偏差DEVn(X,Y)に対して、当該平均輝度レベルと背景モデルとの偏差について予め設定された閾値が第5の閾値TH_DEVとすると、次式
Figure 2006260049
及び
Figure 2006260049
を満たすか否かを判断する。そして乱雑ベクトル除去部81は、このステップSP32において否定結果を得ると、このことは定常的な乱雑度E’n(X,Y)が第2の閾値TH_E2より小さい、又は平均輝度レベルと背景モデルとの偏差が第5の閾値TH_DEV以上であることを示しており、この後ステップSP33に進んで、動きベクトルVn(X,Y)を除去しないと判定し、この後ステップSP35に進んでこの第2の動きベクトル除去判定処理手順RT4を終了する。
これに対して乱雑ベクトル除去部81は、ステップSP32において否定結果を得ると、このことは定常的な乱雑度E’n(X,Y)が第2の閾値TH_E2以上であり、かつ平均輝度レベルと背景モデルとの偏差が第5の閾値TH_DEVより小さいことを示しており、この後ステップSP34に進んで、動きベクトルVn(X,Y)を除去すると判定する。このとき乱雑ベクトル除去部81は、除去対象の動きベクトルVn(X,Y)を上述の(3)式を用いてゼロベクトルに置き換え、この後ステップSP35に進んでこの第2の動きベクトル除去判定処理手順RT4を終了する。
実際上、本実施の形態による移動物体検出装置70では、定常的に動きベクトルの乱雑度が高い背景変動の前を小さな移動物体が通過するような場合でも移動物体の検出が可能となる。
図29(A)及び(B)は、水面上の波のようにランダムな動きを続ける背景BGの前を人物HUが通過する場面であり、画面上での人物の大きさが小さく、人物HU上に配置される相関演算ブロックBR10が2個程度しかないものとする。このとき図29では、人物HU上の動きベクトルVn(X,Y)に対して時間的及び空間的に隣接する動きベクトル群Wn(X,Y)には、背景BGにおける波に起因する乱雑度の高い動きベクトルが多く含まれる。従って、乱雑度算出部51により算出された動きベクトルVn(X,Y)の瞬時的な乱雑度En(X,Y)が大きくなる。また人物HUが侵入してくるまでは背景BGの背景変動における動きベクトルが発生しているため、定常的な乱雑度E’n(X,Y)についても大きくなる。
ここで、図30(A)及び(B)は、背景差分部85から与えられる背景差分情報D72を第5の閾値TH_DEVで二値化したものである。すなわち図30は、平均輝度レベルと背景モデルとの偏差が第5の閾値TH_DEV以上である相関演算ブロックBR10を白色ブロックWBとして表し、平均輝度レベルと背景モデルとの偏差が第5の閾値TH_DEVより小さい相関演算ブロックBR10を網かけブロックNBとして表している。
この場合、ある相関演算ブロックBR10について、移動物体が存在している時間に比して背景BGが露出している時間のほうが十分長いであろうことを前提として、背景モデル蓄積部83には、背景変動の輝度分布を表す平均輝度Mn(X,Y)の時間的な平均値M’n(X,Y)と時間的なばらつきの大きさBn(X,Y)とが蓄積されている。
そして、移動物体については、一般的に背景変動における輝度分布とは異なった平均輝度となるため、移動物体が存在する相関演算ブロックBR10においては、平均輝度レベルと背景モデルとの偏差が大きくなる。すなわち背景モデル差分部85により算出された平均輝度レベルと背景モデルとの偏差が第5の閾値TH_DEV以上となるため、除去対象の動きベクトルして判定されない。
一方、移動物体が存在しない相関演算ブロックBR10においては、平均輝度レベルと背景モデルとの偏差が小さくなる。すなわち背景モデル差分部85により算出された平均輝度レベルと背景モデルとの偏差が第5の閾値TH_DEVより小さくなるため、除去対象の動きベクトルとして判定される。
そして図31(A)及び(B)は、図30から動きベクトル除去部71によって瞬時的な乱雑度En(X,Y)が第1の閾値TH_E1以上であり、かつ定常的な乱雑度E’n(X,Y)が第2の閾値TH_E2以上で、平均輝度レベルと背景モデルとの偏差DEVn(X,Y)が第5の閾値TH_DEVより小さい動きベクトルを除去した結果を示しており、背景BGの背景変動における動きベクトルは、動きベクトル除去部71によってその大半が除去されることとなる。
(2−2)動作及び効果
以上の構成において、この移動物体検出装置70では、入力する画像データD1に基づき検出される各々の動きベクトルから瞬時的な乱雑度En(X,Y)が第1の閾値TH_E1以上であり、かつ定常的な乱雑度E’n(X,Y)が第2の閾値TH_E2以上で、平均輝度レベルと背景モデルとの偏差DEVn(X,Y)が第5の閾値TH_DEVより小さい動きベクトルを除去する。
従って、背景変動の前を小さな移動物体が通過するような場合において、瞬時的な乱雑度En(X,Y)が第1の閾値TH_E1以上となり、かつ定常的な乱雑度E’n(X,Y)が第2の閾値TH_E2以上となるようなときにも、この場合、平均輝度と背景モデルとの偏差DEVn(X,Y)が第5の閾値TH_DEV以上となるため、小さな移動物体に起因する動きベクトルを除去することなく、確実に移動物体を検出することができる。
以上の構成によれば、入力する画像データD1に基づき検出される各々の動きベクトルから瞬時的な乱雑度En(X,Y)が第1の閾値TH_E1以上であり、かつ定常的な乱雑度E’n(X,Y)が第2の閾値TH_E2以上で、平均輝度レベルと背景モデルとの偏差DEVn(X,Y)が第5の閾値TH_DEVより小さい動きベクトルを除去することにより、背景変動の前を小さな移動物体が通過するような場合において、瞬時的な乱雑度En(X,Y)が第1の閾値TH_E1以上となり、かつ定常的な乱雑度E’n(X,Y)が第2の閾値TH_E2以上となるようなときにも、この場合、平均輝度と背景モデルとの偏差DEVn(X,Y)が第5の閾値TH_DEV以上となるため、小さな移動物体に起因する動きベクトルを除去することなく、確実に移動物体を検出することができ、かくして移動物体を精度良く検出し得る移動物体検出装置を実現できる。
(3)第3の実施の形態
(3−1)第3の実施の形態による移動物体検出装置の構成
図26との対応部分に同一符号を付して示す図32は、第3の実施の形態による移動物体検出装置90を示し、第2の相関演算部91及び動きベクトル統合部92が新たに設けられている点を除いて第2の実施の形態による移動物体検出装置70(図26)と同様に構成されている。
そしてこの第3の実施の形態における移動物体検出装置90では、画像入力部41から供給される画像データD30を第1階層の画像データD30とし、当該第1階層の画像データD30の処理を施す相関演算ブロック配置部42、過去画像蓄積部43及び相関演算実行部44をそれぞれ第1の相関演算ブロック配置部42、第1の過去画像蓄積部43及び第1の相関演算実行部44とする。
この場合、第2の相関演算部91は、画像縮小部93と、第2の相関演算ブロック配置部94と、第2の過去画像蓄積部95と、第2の相関演算実行部96とから構成されており、画像縮小部93は、図33(A)に示すように、画像入力部41から供給される第1階層の画像データD30に基づく第1階層の画像を1/2の解像度の画像に縮小し、この結果得られる縮小画像を表す第2階層の画像データD80を第2の相関演算ブロック配置部94及び第2の過去画像蓄積部95に送出する。
第2の相関演算ブロック配置部94は、図32のように画像縮小部93から供給される第2階層の画像データD80に基づく第2階層の画像に対し、第1の相関演算ブロック配置部42と同様にm×m画素の演算ブロックBR20を配置間隔Tで配置し、当該相関演算ブロックBR20のデータを第2階層の相関演算ブロックデータD81として順次第2の相関演算実行部96に送出する。また第2階層の過去画像蓄積部95では、第1の過去画像蓄積部43と同様に第2の遅延画像データD82が第2の相関演算実行部96に読み出される。
第2の相関演算実行部96は、第2の相関演算ブロック配置部94から与えられる第2の相関演算ブロックデータD81と、第2の過去画像蓄積部95から読み出した第2階層の遅延画像データD82とに基づいて第1の相関演算実行部44と同様の処理を施し、この結果得られるフレームnの各相関演算ブロックBR20の動きベクトルV2nを第2階層の動きベクトル情報D83として動きベクトル統合部92に送出する。
ここで、移動物体検出装置90における第1の過去画像蓄積部43、第2の過去画像蓄積部95、第1の相関演算実行部44、第2の相関演算実行部96及び動きベクトル統合部92の動作タイミングを図34に示す。この移動物体検出装置90においては、2フレーム周期で動作するために、フレームn−1とフレームnについて動作を説明する。
この場合、画像入力部41からフレームn−1の第1階層の画像データD30が入力される期間において、第2の過去画像蓄積部95では、画像縮小部93から与えられるフレームn−1の第2階層の画像データD80が蓄積される。
また、画像入力部41からフレームnの第1階層の画像データD30が入力される期間において、第1の過去画像蓄積部43では、フレームnの第1階層の画像データD30が蓄積されると共に、フレームn−2の第1階層の遅延画像データD32が読み出される。
そして第1の相関演算実行部44では、フレームnの第1階層の画像データD30とフレームn−2の第1階層の遅延画像データD32との間で相関演算を施すことにより(図33(B))、第1階層の動きベクトル情報D33を算出する。
一方、第2の過去画像蓄積部95では、フレームn−1の第2階層の画像データD80が読み出される。また第2の相関演算実行部96では、画像縮小部93から与えられるフレームnの第2階層の画像データD80とフレームn−1の第2階層の画像データD80との間で相関演算を施す、すなわち第1階層の画像の1/2の時間間隔で相関演算を施すことにより(図33(C))、第2階層の動きベクトル情報D83を算出する。
そして動きベクトル統合部92では、第1階層の相関演算実行部44から与えられる第1階層の動きベクトル情報D33と、第2の相関演算実行部96から与えられる第2階層の動きベクトル情報D83とに基づいて第1階層の動きベクトルV1n(X,Y)と第2階層の動きベクトルV2n(X,Y)とを統合し、統合後の動きベクトルVn(X,Y)を統合ベクトル情報D84として動きベクトル除去部71に送出する。
この場合、図35(A)及び(B)は、第1階層の動きベクトルV1n(X,Y)と第2階層の動きベクトルV2n(X,Y)との空間的な位置関係を示したものである。このとき、第2階層の画像データD80に基づく第2階層の画像は、第1階層の画像データD30に基づく第1階層の画像を1/2倍に縮小して生成していること、及び第1の階層の相関演算ブロックBR10と第2階層の相関演算ブロックBR20とが同じサイズ及び配置間隔であることより、ある1つの第2階層の相関演算ブロックBR20の画像上における同じ位置には、4つの第1の階層の相関演算ブロックBR10が配置されることとなる。すなわち、ある1つの第2階層の動きベクトルV2n(X+T/2,Y+T/2)は、第1階層の動きベクトルV1n(X,Y)、V1n(X+T,Y)、V1n(X,Y+T)及びV1n(X+T,Y+T)と画像上の同じ位置の動きを表しているものとして対応づけることができる。
従って、動きベクトル統合部92は、個々の第1階層の相関演算ブロックBR10ごとに、第1の相関演算実行部44から供給される第1階層の動きベクトルと、第2の相関演算実行部96から供給される第1階層の動きベクトルと同一位置の第2階層の動きベクトルとのどちらか一方を、次式
Figure 2006260049
のように選択する。ここで、Vn(X,Y)は統合後の動きベクトル、MAX(X,Y)は第1階層の動きベクトルV1n、第2階層の動きベクトルV2nのうちノルムの大きい方を選択する関数、V2’n(X+T/2,Y+T/2)は、V2n(X+T/2,Y+T/2)を第1の階層の動きベクトルに変換したものである。
ここで、第2階層の動きベクトルは、第1階層の画像の1/2の解像度の画像を用い、かつ第1階層の画像の1/2の時間間隔で相関演算が施されていることから(図33)、当該第2階層の動きベクトルを4倍することで第1階層の動きベクトルに換算することができる。すなわち、
Figure 2006260049
のようにして第1階層の動きベクトルに換算し得るようになされている。
このようにして動きベクトル統合部92では、第1階層の動きベクトルV1n(X,Y)と第2階層の動きベクトルV2n(X,Y)とを統合し、図35(C)に示す統合後の動きベクトルVn(X,Y)を第1階層と同じ空間解像度をもつ統合ベクトル情報D84として動きベクトル除去部71に送出する。
このように本実施の形態による移動物体検出装置90では、第1階層の画像の1/2の解像度の画像を用い、かつ第1階層の画像の1/2の時間間隔で相関演算を施して、第2階層の動きベクトルを算出することから、相関演算の計算量を抑えながらより広い範囲の動きベクトルを算出することができる。
すなわち本実施の形態による移動物体検出装置90では、移動速度の大きい移動物体の検出が可能となる。このとき、一般的に算出可能な動きベクトルの範囲は、相関演算の探索範囲で決まり、探索範囲を広くするほど計算量が増大する。しかしながら本実施の形態による移動物体検出装置90において、例えば第1階層の相関演算ブロックBR10で±7画素、第2階層の相関演算ブロックBR20で±8画素の探索範囲について相関演算を施す場合には、第1階層の相関演算ブロックBR10のみで水平垂直ともに±8画素の探索範囲について相関演算を施す場合に比して、相関演算の計算量はほぼ同じであるが、統合後の動きベクトルの算出範囲が4倍大きくなる。
また本実施の形態による移動物体検出装置90では、第1階層の動きベクトルが求められなかった場合でも第2階層の動きベクトルで代用することにより移動物体の検出をすることができる。
図36は、走行中の自動車の上に4つの第1階層の相関演算ブロックBR10及び1つの第2階層の相関演算ブロックBR20が配置されている場面である。このとき図14では、第2階層の相関演算ブロックBR20と、4つのうち3つの第1階層の相関演算ブロックBR10では、動きベクトルが算出されているが、残る1つの第1階層の相関演算ブロックBR10については、動きベクトルが算出されない。
これは、当該残る1つの第1階層の相関演算ブロックBR10は、自動車の窓上に配置されているため、当該相関演算ブロックBR10内部の画像のコントラストが非常に低く、信頼性のある動きベクトルが求められないために、第1の相関演算実行部44において動きベクトルがゼロベクトルとされるからである。
このとき動きベクトル統合部92では、第1階層の動きベクトルと第2階層の動きベクトルのうちノルムの大きい方を選択するため、当該残る1つの相関演算ブロックBR10に、第2階層の動きベクトルを選択することができる。
さらに本実施の形態による移動物体検出装置90では、コントラストの大きな背景の近傍をコントラストの小さな人物が移動しているような場合でも確実に移動物体を検出することができる。
図37は、コントラストの大きな背景BGの近傍をコントラストの小さな人物HUが移動しており、第2階層の相関演算ブロックBR20が背景BGと人物HUの両方を含むように配置されている。この場合、第2階層の相関演算ブロックBR20においては、コントラストの大きな背景BGの影響が支配的となり、人物HUが移動していても第2階層の動きベクトルがゼロベクトルとなる。
しかしながら、第1階層の相関演算ブロックBR10のうち人物HU上に配置された相関演算ブロックBR10においては、人物HUの動きを反映した動きベクトルが算出される。そして動きベクトル統合部92では、第1階層の動きベクトルと第2階層の動きベクトルとのうちノルムの大きい方を選択するため、この場合には、第1階層の相関演算ブロックBR10に、人物HUの動きを反映した第1階層の動きベクトルを選択することができる。
(3−2)動作及び効果
以上の構成において、この移動物体検出装置90では、入力する画像データD1に基づき検出される第1階層の動きベクトルと、第1階層の画像の1/2の解像度の画像を用い、かつ第1階層の画像の1/2の時間間隔で相関演算が施された第2階層の動きベクトルとのうち、動きベクトルのノルムの大きい方を選択する。
従って、相関演算の計算量を抑えながら、移動速度の大きい物体と、面積の小さい物体又は移動速度が小さい物体とを双方とも検出することができると共に、コントラストの大きな背景の近傍を移動するコントラストの小さな移動物体を確実に検出することができる。
以上の構成によれば、入力する画像データD1に基づき検出される第1階層の動きベクトルと、第1階層の画像の1/2の解像度の画像を用い、かつ第1階層の画像の1/2の時間間隔で相関演算が施された第2階層の動きベクトルとのうち、動きベクトルのノルムの大きい方を選択することにより、相関演算の計算量を抑えながら、移動速度の大きい物体と、面積の小さい物体又は移動速度が小さい物体とを双方とも検出することができると共に、コントラストの大きな背景の近傍を移動するコントラストの小さな移動物体を確実に検出することができ、かくして移動物体を精度良く検出し得る移動物体検出装置を実現できる。
(4)第4の実施の形態
(4−1)第4の実施の形態による移動物体検出装置の構成
図1は、第4の実施の形態における移動物体検出装置100を示し、上述した第1の実施の形態における移動物体検出装置40とは、動きベクトル積算部101における構成が異なる点を除いて第1の実施の形態による移動物体検出装置40(図1)と同様に構成されている。
そしてこの動きベクトル積算部101は、図14に示すように、過去積算値読み出し部110における過去の動きベクトルの読み出し手法が異なる点を除いて第1の実施の形態による動きベクトル積算部46(図1)と同様の構成を有する。
この場合、過去積算値読み出し部110は、過去積算値蓄積部64に蓄積された過去ベクトル積算情報D51、すなわちそのとき対象としている相関演算ブロックBR10についてのそれまでの動きベクトルの積算値ACCn−1(α,β)及び積算回数CNTn−1(α,β)を読み出して、積算値更新部62に送出する。なお、(α,β)は、積算値及び積算回数の更新元となる相関演算ブロックBR10の位置である。
このとき過去積算値読み出し部110は、更新する対象である相関演算ブロックBR10における現在の動きベクトルをVn(X,Y)とすると、次式
Figure 2006260049
のように算出する。そして過去積算値読み出し部110は、位置(X−h,Y−v)又はその近傍に位置する複数の相関演算ブロックBR10の中から、フレームn−1までの動きベクトルの積算値が、現在の動きベクトル、すなわちフレームnにおけるVn(X,Y)と最も相関の高い相関演算ブロックBR10を更新元の相関演算ブロックBR10として選択する。
すなわち過去積算値読み出し部110は、移動物体が急に向きを変えないであろうことを前提として、かかる相関演算ブロックBR10の位置(X,Y)から動きベクトルだけ空間的に離れた位置(X−h,Y−v)の近傍に存在する複数の相関演算ブロックBR10に注目し、過去ベクトル蓄積部60に蓄積されているこれら相関演算ブロックBR10の1つ前のフレームn−1における動きベクトルの積算値と、位置(x,y)のフレームnにおける動きベクトルとの内積を演算し、内積が最大となる相関演算ブロックBR10を更新元の相関演算ブロックBR10として選択する。
このようにフレームn−1における動きベクトルの積算値と、位置(x,y)のフレームnにおける動きベクトルとの内積を演算し、動きの時間的な一様性を示す指標として用いることによって、移動物体が一定方向に運動している場合には、動きベクトルの積算値の更新を一段と安定的に継続することができる。
一方、移動物体が方向転換したときには、更新元の相関演算ブロックが正しく選択されない場合があるが、移動物体が画面に出現し始めてから検出されるまで、又は移動物体が動き始めてから検出されるまでの短時間の間に、動きベクトルの積算値及び積算回数が正しく引き継がれることに主眼をおく場合には、移動物体が方向転換することは考慮する必要がないため、フレームn−1における動きベクトルの積算値と、位置(x,y)のフレームnにおける動きベクトルとの内積を演算することが一段と有効である。
(4−2)動作及び効果
以上の構成において、この移動物体検出装置100では、動きベクトル積算部101において、過去ベクトル蓄積部60に蓄積されているこれら相関演算ブロックBR10の1つ前のフレームn−1における動きベクトルの積算値と、位置(x,y)のフレームnにおける動きベクトルとの内積を演算し、内積が最大となる相関演算ブロックBR10を更新元の相関演算ブロックBR10として選択する。
従って、フレームn−1における動きベクトルと、位置(X,Y)のフレームnにおける動きベクトルとの差分を演算する場合に比して動きベクトルの積算値の更新を一段と安定的に継続することができると共に、フレームn−1における動きベクトルの積算値を用いるようにしたため、動きベクトルの積算値の更新を一段と精度良く継続することができる。
以上の構成によれば、動きベクトル積算部101において、過去ベクトル蓄積部60に蓄積されているこれら相関演算ブロックBR10の1つ前のフレームn−1における動きベクトルの積算値と、位置(x,y)のフレームnにおける動きベクトルとの内積を演算し、内積が最大となる相関演算ブロックBR10を更新元の相関演算ブロックBR10として選択することにより、フレームn−1における動きベクトルと、位置(X,Y)のフレームnにおける動きベクトルとの差分を演算する場合に比して動きベクトルの積算値の更新を一段と安定的に継続することができると共に、フレームn−1における動きベクトルの積算値を用いるようにしたため、動きベクトルの積算値の更新を一段と精度良く継続することができ、かくして移動物体を精度良く検出し得る移動物体検出装置を実現できる。
(5)他の実施の形態
なお上述の実施の形態においては、本発明を、映像監視システム等の監視システムに適用される移動物体検出装置40、70、90、100に適用するようにした場合について述べたが、本発明はこれに限らず、この他種々のシステムにおける移動物体の検出装置として広く適用することができる。
また上述の実施の形態においては、m×m画素の相関演算ブロックBR10を配置間隔Tと同一の長さ(m=T)に選定したため、図2のように隙間なく配置するようにした場合について述べたが、本発明はこれに限らず、図38のように相関演算ブロックに比して配置間隔を大きくして(m<T)、隙間を開けて配置するようにしても良く、さらには相関演算ブロックに比して配置間隔を小さくして(m>T)、相関演算ブロックBR10の一部が互いに重なるように配置するようにして良い。ただし配置される個々の相関演算ブロックBR10の位置は、時間によって変化せず、常に一定とする必要がある。なお、配置される個々の相関演算ブロックBR10の大きさについては、一定とする必要はない。
さらに上述の実施の形態においては、図2について上述したように、相関演算ブロックBR10をm×m画素の正方形状に設定するようにした場合について述べたが、本発明はこれに限らず、相関演算ブロックBR10の形状としては、この他種々の形状を広く適用することができる。
さらに上述の実施の形態においては、現在の入力画像に基づく所定のパラメータと、入力画像に基づく上記パラメータの分布を表す分布パラメータとの差分を算出する差分手段として、現在の入力画像における輝度レベルと、入力画像の輝度レベルの時間的な平均値との偏差を上記差分として算出した場合について述べたが、本発明はこれに限らず、この他種々の分布パラメータに適用することができる。
さらに上述の実施の形態においては、相関演算ブロック配置部42から供給される相関演算ブロックデータD31に対して、個々の相関演算ブロックBR10ごとに当該相関演算ブロックBR10内の平均輝度レベルを算出し、この結果得られた相関演算ブロックBR10ごとの平均輝度レベルを平均輝度情報D70として背景モデル更新部83及び背景モデル差分部85に送出した場合について述べたが、本発明はこれに限らず、相関演算ブロックBR10内の所定の位置の輝度レベルを相関演算ブロックBR10の輝度レベルとして算出するようにしても良く、また相関演算ブロックBR10内の輝度レベルそのままでも良く、この他種々の輝度レベルに適用することができる。
さらに上述の実施の形態においては、過去の動きベクトル及び現在の動きベクトルと
として、フレームn−1における動きベクトル及びフレームnにおける動きベクトルを採用した場合について述べたが、本発明はこれに限らず、過去の動きベクトルとして例えばフレームn−3における動きベクトルやフレームn−5における動きベクトルのようにフレームn−1における動きベクトルより前の動きベクトルを採用するようにしても良い。
さらに上述の実施の形態においては、瞬時的な乱雑度En(X,Y)の算出時におけるSn(X,Y)が、動きベクトル群Wn(X,Y)に含まれるそれぞれの動きベクトルにおけるX成分、Y成分それぞれの平均偏差を加算した値である場合について述べたが、本発明はこれに限らず、例えば動きベクトル群Wn(X,Y)のそれぞれの動きベクトルの分散共分散行列など、この他種々のばらつきの程度を表す指標を用いるようにしても良い。
さらに上述の実施の形態においては、第4の実施の形態における動きベクトル積算部101の過去積算値読み出し部110を第1の実施の形態における移動物体検出装置40に適用した場合について述べたが、本発明はこれに限らず、例えば第2の実施の形態における移動物体検出装置70に適用するようにしても良く、また第3の実施の形態における移動物体検出装置90に適用するようにしても良く、この他種々の移動物体検出装置に適用することができる。
さらに上述の実施の形態においては、一連の処理をそれぞれの機能を有するハードウェアにより実行させた場合について述べたが、本発明はこれに限らず、ソフトウェアにより実行させるようにしても良い。このとき、一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが専用のハードウェアに組み込まれているコンピュータに対して、各種プログラムをインストールすることで各種の機能を実行することが可能となり、例えば汎用のパーソナルコンピュータなどに例えば記録媒体からインストールされる。そしてこの記録媒体は、例えば、光ディスク、光磁気ディスク、半導体メモリ、磁気ディスク等の種々の記録媒体を含むことは言うまでもない。また例えば汎用のパーソナルコンピュータなどに例えばインターネット等のネットワークを介してダウンロードすることによって、各種プログラムをインストールするようにしても良い。
本発明は、映像監視システム等の監視システムのほか、画像内の移動物体を検出し、当該検出結果に基づいて種々の処理を実行する各種システムに適用できる。
第1の実施の形態による移動物体検出装置の構成を示すブロック図である。 相関演算ブロックの配置例を示す概念図である。 相関演算の一例の説明に供する概念図である。 相関マップを示す概念図である。 動きベクトル除去部の構成を示すブロック図である。 乱雑度算出処理手順を示すフローチャートである。 第1の動きベクトル除去判定処理手順を示すフローチャートである。 空間的及び時間的に隣接する動きベクトルからなるベクトル群の説明に供する概念図である。 空間的及び時間的に一様性の高い動きベクトル群の説明に供する概念図である。 移動物体に起因する動きベクトルの瞬時的な乱雑度及び定常的な乱雑度を示すグラフである。 空間的及び時間的に一様性の低い動きベクトル群の説明に供する概念図である。 背景変動に起因する動きベクトルの瞬時的な乱雑度及び定常的な乱雑度を示すグラフである。 背景変動を隠すように移動物体が通過するような場合における動きベクトルの瞬時的な乱雑度及び定常的な乱雑度を示すグラフである。 動きベクトル積算部の構成を示すブロック図である。 移動物体検出処理手順を示すフローチャートである。 人物や車両による動きベクトルの積算の説明に供する概念図である。 振動的な背景変動による動きベクトルの積算の説明に供する概念図である。 短時間のランダムな動きによる動きベクトルの積算の説明に供する概念図である。 瞬間的な照明変動による動きベクトルの積算の説明に供する概念図である。 本実施の形態による移動物体と背景変動の重なりの説明に供する概念図である。 動きベクトル除去部による乱雑度の高い動きベクトルの除去の説明に供する概念図である。 第1の実施の形態による動きベクトルの時間経過の説明に供する概念図である。 第1の実施の形態による動きベクトルの時間経過の説明に供する概念図である。 第1の実施の形態による動きベクトルの時間経過の説明に供する概念図である。 本実施の形態による連続して二人の人物が画面内に現れた場合の追跡処理の説明に供する概念図である。 第2の実施の形態による移動物体検出装置の構成を示すブロック図である。 第2の実施の形態による動きベクトル除去部の構成を示すブロック図である。 第2の動きベクトル除去判定処理手順を示すフローチャートである。 小さな移動物体と背景変動の重なりの説明に供する概念図である。 背景差分情報に基づく2値化の説明に供する概念図である。 動きベクトル除去部による乱雑度の高い動きベクトルの除去の説明に供する概念図である。 第3の実施の形態による移動物体検出装置の構成を示すブロック図である。 第1階層の画像データ及び第2階層の画像データの処理の説明に供する概念図である。 第3の実施の形態による移動物体検出装置の動作タイミングの説明に供する概念図である。 第3の実施の形態による動きベクトルの算出の説明に供する概念図である。 走行中の自動車における動きベクトルの算出の説明に供する概念図である。 大きな背景の近傍を小さな人物が移動する場合における動きベクトルの算出の説明に供する概念図である。 他の実施の形態による相関演算ブロックの配置の説明に供する概念図である。 従来の移動物体検出装置の構成を示すブロック図である。 従来の移動物体検出装置における移動物体の検出方法の説明に供する概念図である。 従来の移動物体検出装置の構成を示すブロック図である。 画像変化抽出部の構成を示すブロック図である。 従来の移動物体検出装置における移動物体の検出方法の説明に供する概念図である。 移動物体と背景変動の重なりの説明に供する概念図である。 移動物体と背景変動の重なりの説明に供する概念図である。 従来の移動物体検出装置における連続して二人の人物が画面内に現れた場合の追跡処理の説明に供する概念図である。 従来の移動物体検出装置における連続して二人の人物が画面内に現れた場合の追跡処理の説明に供する概念図である。
符号の説明
40、70、90、100……移動物体検出装置、42……相関演算ブロック配置部、第1の相関演算ブロック配置部、43……過去画像蓄積部、第1の過去画像蓄積部、44……相関演算実行部、第1の相関演算実行部、45、71……動きベクトル除去部、46、101……動きベクトル積算部、47……移動物体検出部、50……過去ベクトル蓄積部、51……乱雑度算出部、52、81……乱雑ベクトル除去部、60……過去ベクトル蓄積部、61……積算制御部、62……積算値更新部、63……積算値蓄積部、64……過去積算値蓄積部、65、110……過去積算値読み出し部、80……背景モデル差分算出部、82……平均輝度算出部、83……背景モデル更新部、84……背景モデル蓄積部、85……背景モデル差分部、91……第2の相関演算部、92……動きベクトル統合部、93……画像縮小部、94……第2の相関演算ブロック配置部、95……第2の過去画像蓄積部、96……第2の相関演算実行部、BG……背景、HU、HU1、HU2……人物、BR10、BR20……相関演算ブロック、En……瞬時的な乱雑度、E’n……定常的な乱雑度、Vn……動きベクトル、Wn……動きベクトル群、TH_E1……第1の閾値、TH_E2……第2の閾値、TH_ACC……第3の閾値、TH_CNT……第4の閾値、TH_DEV……第5の閾値、RT1……乱雑度算出処理手順、RT2……第1の動きベクトル除去判定処理手順、RT3……移動物体検出処理手順、RT4……第2の動きベクトル除去判定処理手順。

Claims (15)

  1. 入力画像から動きベクトルを算出する動きベクトル算出手段と、
    上記動きベクトル算出手段により算出された各上記動きベクトルから乱雑度の高い動きベクトルを除去する動きベクトル除去手段と、
    上記動きベクトル除去手段により除去されなかった各上記動きベクトルを個別にかつ時間的に積算し、上記動きベクトル毎の積算値及び積算回数をそれぞれ算出する動きベクトル積算手段と、
    上記動きベクトル積算手段により算出された上記動きベクトル毎の上記積算値及び上記積算回数に基づいて、各上記動きベクトルについて、当該動きベクトルが移動物体のものであるか否かを判定する移動物体検出手段と
    を具えることを特徴とする移動物体検出装置。
  2. 上記動きベクトル除去手段は、
    過去の上記動きベクトルを蓄積する過去ベクトル蓄積手段と、
    上記過去ベクトル蓄積手段から読み出した過去の上記動きベクトル及び現在の上記動きベクトルに基づいて、各上記動きベクトルについて時間的及び空間的に隣接する上記動きベクトルからなる動きベクトル群の瞬時的な乱雑度及び定常的な乱雑度を算出する乱雑度算出手段と、
    各上記動きベクトルについて、上記瞬時的な乱雑度及び上記定常的な乱雑度に基づいて上記移動物体に起因しないと判定される上記動きベクトルを除去する乱雑ベクトル除去手段と
    を具えることを特徴とする請求項1に記載の移動物体検出装置。
  3. 上記乱雑ベクトル除去手段は、
    上記瞬時的な乱雑度及び上記定常的な乱雑度の双方が所定の閾値以上であるときに上記動きベクトルを除去する
    ことを特徴とする請求項2に記載の移動物体検出装置。
  4. 上記動きベクトル除去手段は、
    現在の上記入力画像に基づく所定のパラメータと、上記入力画像に基づく上記パラメータの分布を表す分布パラメータとの差分を算出する差分手段
    を具え、
    上記乱雑ベクトル除去手段は、
    各上記動きベクトルについて、上記瞬時的な乱雑度及び上記定常的な乱雑度並びに上記差分手段により算出された上記差分に基づいて上記移動物体に起因しないと判定される上記動きベクトルを除去する
    ことを特徴とする請求項2に記載の移動物体検出装置。
  5. 上記乱雑ベクトル除去手段は、
    上記瞬時的な乱雑度及び上記定常的な乱雑度の双方が所定の閾値以上であり、かつ上記差分手段により算出された上記差分が所定の閾値より小さいときに上記動きベクトルを除去する
    ことを特徴とする請求項4に記載の移動物体検出装置。
  6. 上記パラメータは、
    現在の上記入力画像における輝度レベルであり、
    上記分布パラメータは、
    上記入力画像の輝度レベルの時間的な平均値及び時間的なばらつきの大きさであり、
    上記差分手段は、
    現在の上記入力画像における上記輝度レベルと、上記入力画像の輝度レベルの時間的な平均値との偏差を上記差分とする
    ことを特徴とする請求項4に記載の移動物体検出装置。
  7. 上記動きベクトル算出手段は、
    所定の画像解像度の上記入力画像を所定のフレーム間隔で相関演算する第1の相関演算実行手段と、
    上記画像解像度より低解像度の第2の画像を第1のフレーム間隔と異なるフレーム間隔で相関演算する第2の相関演算実行手段と、
    上記第1の相関演算実行手段により算出された第1の動きベクトル及び第2の相関演算実行手段により算出された第2の動きベクトルを統合する動きベクトル統合手段と
    を具え、
    上記動きベクトル除去手段は、
    上記動きベクトル統合手段により統合された各統合動きベクトルから乱雑度の高い動きベクトルを除去する
    ことを特徴とする請求項1に記載の移動物体検出装置。
  8. 上記動きベクトル統合手段は、
    上記入力画像の同一の時間及び同一の位置に算出される上記第1の動きベクトル及び上記第2の動きベクトルのうち、上記動きベクトルの大きさが最大の上記第1の動きベクトル又は上記第2の動きベクトルを選択する
    ことを特徴とする請求項7に記載の移動物体検出装置。
  9. 上記動きベクトル算出手段は、
    上記入力画像に複数の領域を配置する領域配置手段と、
    過去の上記入力画像を蓄積する過去画像蓄積手段と、
    上記領域配置手段により配置された上記領域毎に、上記過去画像蓄積手段から読み出した過去の上記入力画像と現在の上記入力画像との間で相関演算を実行するようにして上記動きベクトルを演算する相関演算手段と
    を具え、
    上記領域配置手段は、
    各上記領域を常に一定位置となるようにそれぞれ配置する
    ことを特徴とする請求項1に記載の移動物体検出装置。
  10. 上記動きベクトル積算手段は、
    過去の各上記動きベクトルの上記積算値及び上記積算回数を、それぞれ直前の上記動きベクトルの位置と対応付けて蓄積する積算値蓄積手段と、
    上記積算値蓄積手段に蓄積された過去の各上記動きベクトルの上記積算値及び上記積算回数を読み出す積算値読み出し手段と、
    上記積算値蓄積手段に蓄積された過去の各上記動きベクトルの上記積算値及び上記積算回数と、現在の上記動きベクトルの大きさ及び位置とを用いて更新するようにして、新たな上記動きベクトルの上記積算値及び上記積算回数をそれぞれ算出する積算値更新手段と
    を具え、
    上記積算値読み出し手段は、
    上記現在の動きベクトルの位置から当該動きベクトルと逆向きに、かつ当該動きベクトルの大きさだけ空間的に離れた位置、又はその近傍の位置と対応付けられた過去の各上記動きベクトルの上記積算値及び上記積算回数から一の上記動きベクトルの上記積算値及び上記積算回数を選択する
    ことを特徴とする請求項9に記載の移動物体検出装置。
  11. 上記積算値読み出し手段は、
    過去の各上記動きベクトルと現在の上記動きベクトルとの差分が最小となる過去の上記動きベクトルの上記積算値及び上記積算回数を選択する
    ことを特徴とする請求項10に記載の移動物体検出装置。
  12. 上記積算値読み出し手段は、
    過去の各上記動きベクトルの上記積算値と現在の上記動きベクトルとの内積が最大となる過去の上記動きベクトルの上記積算値及び上記積算回数を選択する
    ことを特徴とする請求項10に記載の移動物体検出装置。
  13. 上記積算値更新手段は、
    過去の上記動きベクトルを蓄積する過去ベクトル蓄積手段
    を具え、
    上記積算値蓄積手段に蓄積された過去の各上記動きベクトルの上記積算値及び上記積算回数のうち、上記過去ベクトル蓄積手段に蓄積された過去の上記動きベクトルと、上記動きベクトル算出手段により算出された現在の上記動きベクトルとに基づいて上記移動物体に起因しないと判定される上記位置と対応付けられた上記動きベクトルの上記積算値及び上記積算回数をリセットする
    ことを特徴とする請求項10に記載の移動物体検出装置。
  14. 入力画像から動きベクトルを算出する動きベクトル算出ステップと、
    上記動きベクトル算出ステップにおいて算出した各上記動きベクトルから乱雑度の高い動きベクトルを除去する動きベクトル除去ステップと、
    上記動きベクトル除去ステップにおいて除去しなかった各上記動きベクトルを個別にかつ時間的に積算し、上記動きベクトル毎の積算値及び積算回数をそれぞれ算出する動きベクトル積算ステップと、
    上記動きベクトル積算ステップにおいて算出した上記動きベクトル毎の上記積算値及び上記積算回数に基づいて、各上記動きベクトルについて、当該動きベクトルが移動物体のものであるか否かを判定する移動物体検出ステップと
    を具えることを特徴とする移動物体検出方法。
  15. 移動物体検出装置に対して、
    入力画像から動きベクトルを算出する動きベクトル算出ステップと、
    上記動きベクトル算出ステップにおいて算出した各上記動きベクトルから乱雑度の高い動きベクトルを除去する動きベクトル除去ステップと、
    上記動きベクトル除去ステップにおいて除去しなかった各上記動きベクトルを個別にかつ時間的に積算し、上記動きベクトル毎の積算値及び積算回数をそれぞれ算出する動きベクトル積算ステップと、
    上記動きベクトル積算ステップにおいて算出した上記動きベクトル毎の上記積算値及び上記積算回数に基づいて、各上記動きベクトルについて、当該動きベクトルが移動物体のものであるか否かを判定する移動物体検出ステップと
    を実行させることを特徴とするプログラム。
JP2005075482A 2005-03-16 2005-03-16 移動物体検出装置、移動物体検出方法及びプログラム Expired - Fee Related JP4623368B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2005075482A JP4623368B2 (ja) 2005-03-16 2005-03-16 移動物体検出装置、移動物体検出方法及びプログラム
KR20060023901A KR101237155B1 (ko) 2005-03-16 2006-03-15 이동 물체 검출 장치 및 방법과 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체
EP20060005314 EP1703466B8 (en) 2005-03-16 2006-03-15 Moving object detection apparatus, method and program
US11/377,004 US7969470B2 (en) 2005-03-16 2006-03-16 Moving object detection apparatus, method and program
CNB2006100840372A CN100562104C (zh) 2005-03-16 2006-03-16 移动目标检测设备和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005075482A JP4623368B2 (ja) 2005-03-16 2005-03-16 移動物体検出装置、移動物体検出方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2006260049A true JP2006260049A (ja) 2006-09-28
JP4623368B2 JP4623368B2 (ja) 2011-02-02

Family

ID=36576031

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005075482A Expired - Fee Related JP4623368B2 (ja) 2005-03-16 2005-03-16 移動物体検出装置、移動物体検出方法及びプログラム

Country Status (5)

Country Link
US (1) US7969470B2 (ja)
EP (1) EP1703466B8 (ja)
JP (1) JP4623368B2 (ja)
KR (1) KR101237155B1 (ja)
CN (1) CN100562104C (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009116686A (ja) * 2007-11-07 2009-05-28 Nippon Telegr & Teleph Corp <Ntt> 撮像対象検出装置および方法
JP2011123563A (ja) * 2009-12-08 2011-06-23 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP4855556B1 (ja) * 2011-03-22 2012-01-18 株式会社モルフォ 動体検出装置、動体検出方法、動体検出プログラム、動体追跡装置、動体追跡方法及び動体追跡プログラム
WO2012160657A1 (ja) * 2011-05-24 2012-11-29 富士通株式会社 物体接近検知装置、物体接近検知方法、及びプログラム
WO2016024546A1 (ja) * 2014-08-11 2016-02-18 株式会社チャオ 画像伝送装置、画像伝送方法および画像伝送プログラム
JP2016110385A (ja) * 2014-12-05 2016-06-20 株式会社チャオ ヒートマップ画像生成装置、ヒートマップ画像生成方法およびヒートマップ画像生成プログラム
JP2017076181A (ja) * 2015-10-13 2017-04-20 セコム株式会社 追跡装置
WO2021117148A1 (ja) * 2019-12-10 2021-06-17 株式会社ソシオネクスト 画像処理装置、画像処理方法及びプログラム
JP2021108434A (ja) * 2019-12-27 2021-07-29 株式会社アダコテック 情報処理システム、情報処理装置、端末装置、情報処理方法及びプログラム

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4662142B2 (ja) * 2004-08-13 2011-03-30 ソニー株式会社 移動物体検出装置及び方法
GB2418312A (en) 2004-09-18 2006-03-22 Hewlett Packard Development Co Wide area tracking system
GB2418311A (en) * 2004-09-18 2006-03-22 Hewlett Packard Development Co Method of refining a plurality of tracks
JP4816321B2 (ja) * 2006-08-14 2011-11-16 ソニー株式会社 認証装置及び認証方法並びにプログラム
JP4558696B2 (ja) * 2006-09-25 2010-10-06 パナソニック株式会社 動物体自動追尾装置
US20080166052A1 (en) * 2007-01-10 2008-07-10 Toshinobu Hatano Face condition determining device and imaging device
US20080310677A1 (en) * 2007-06-18 2008-12-18 Weismuller Thomas P Object detection system and method incorporating background clutter removal
JP4508257B2 (ja) * 2008-03-19 2010-07-21 ソニー株式会社 構図判定装置、構図判定方法、プログラム
TWI381717B (zh) * 2008-03-31 2013-01-01 Univ Nat Taiwan 數位視訊動態目標物體分割處理方法及系統
CA2719504A1 (en) 2008-04-14 2009-10-22 Thomson Licensing Technique for automatically tracking an object
US10645346B2 (en) * 2013-01-18 2020-05-05 Careview Communications, Inc. Patient video monitoring systems and methods having detection algorithm recovery from changes in illumination
JP5074322B2 (ja) * 2008-08-05 2012-11-14 オリンパス株式会社 画像処理装置、画像処理方法、画像処理プログラム、及び、撮像装置
US20100091859A1 (en) * 2008-10-09 2010-04-15 Shao-Yi Chien Motion compensation apparatus and a motion compensation method
JP5284048B2 (ja) * 2008-11-12 2013-09-11 キヤノン株式会社 画像処理装置、撮像装置及び画像処理方法
FR2938943B1 (fr) * 2008-11-21 2010-11-12 Thales Sa Systeme multiprocesseur.
EP2227012A1 (en) 2009-03-05 2010-09-08 Sony Corporation Method and system for providing reliable motion vectors
JP5272886B2 (ja) * 2009-05-14 2013-08-28 ソニー株式会社 動体検出装置と動体検出方法およびコンピュータ・プログラム
TWI390970B (zh) * 2009-07-22 2013-03-21 Altek Corp Use motion detection to adjust the digital camera's shooting settings
JP5409342B2 (ja) * 2009-12-25 2014-02-05 キヤノン株式会社 撮像装置及びその制御方法
TWI475882B (zh) * 2009-12-30 2015-03-01 Altek Corp Motion detection method using the adjusted digital camera of the shooting conditions
US20110205359A1 (en) * 2010-02-19 2011-08-25 Panasonic Corporation Video surveillance system
JP2011192141A (ja) * 2010-03-16 2011-09-29 Sony Corp 動体検出装置と動体検出方法およびプログラム
JP2011210179A (ja) * 2010-03-30 2011-10-20 Sony Corp 移動物体検出装置及び方法、並びにプログラム
TW201219955A (en) * 2010-11-08 2012-05-16 Hon Hai Prec Ind Co Ltd Image capturing device and method for adjusting a focusing position of an image capturing device
TWI491244B (zh) * 2010-11-23 2015-07-01 Mstar Semiconductor Inc 調整物件三維深度的方法與裝置、以及偵測物件三維深度的方法與裝置
JP5507014B2 (ja) * 2011-08-10 2014-05-28 富士フイルム株式会社 動体検出装置及び方法
CN104011684B (zh) * 2011-12-22 2018-01-26 英特尔公司 具有内嵌中断服务功能的中断返回指令
TWI471814B (zh) * 2012-07-18 2015-02-01 Pixart Imaging Inc 降低背景干擾的手勢判斷方法及其裝置
KR101975206B1 (ko) * 2012-11-23 2019-05-07 삼성전자주식회사 시간상 연속하는 물체의 움직임들에 대응하는 이미지 데이터들을 프로세싱하는 방법 및 장치
KR101783990B1 (ko) * 2012-12-21 2017-10-10 한화테크윈 주식회사 디지털 영상 처리 장치 및 영상의 대표 움직임 예측 방법
US10373470B2 (en) 2013-04-29 2019-08-06 Intelliview Technologies, Inc. Object detection
EP2992365B1 (en) * 2013-04-29 2018-04-04 Intelliview Technologies Inc. Object detection
DE102013013065A1 (de) * 2013-08-06 2015-02-12 Daimler Ag Verfahren zum Bestimmen eines Geschwindigkeitsvektors für ein Gestenerkennungssystem in einem Kraftwagen und Vorrichtung zum Durchführen des Verfahrens
KR102150705B1 (ko) * 2014-01-22 2020-09-01 한화테크윈 주식회사 영상 처리 장치 및 방법
CA2847707C (en) 2014-03-28 2021-03-30 Intelliview Technologies Inc. Leak detection
KR101472077B1 (ko) * 2014-04-01 2014-12-16 주식회사 베스트디지탈 누적된 객체 특징을 기반으로 하는 감시 시스템 및 방법
US10943357B2 (en) 2014-08-19 2021-03-09 Intelliview Technologies Inc. Video based indoor leak detection
KR102474837B1 (ko) * 2015-09-14 2022-12-07 주식회사 한화 전경 추출 방법 및 장치
ITUB20159613A1 (it) * 2015-12-14 2017-06-14 St Microelectronics Srl Procedimento e sistema di clustering, apparecchiatura e prodotto informatico corrispondenti
US10317519B2 (en) * 2016-04-15 2019-06-11 Huawei Technologies Co., Ltd. Systems and methods for environment sensing using radar
CN106033615B (zh) * 2016-05-16 2017-09-15 北京旷视科技有限公司 目标对象运动方向检测方法和装置
US10755419B2 (en) * 2017-01-30 2020-08-25 Nec Corporation Moving object detection apparatus, moving object detection method and program
US10410371B2 (en) 2017-12-21 2019-09-10 The Boeing Company Cluttered background removal from imagery for object detection
WO2019239479A1 (ja) * 2018-06-12 2019-12-19 オリンパス株式会社 画像処理装置および画像処理方法
CN111541844B (zh) * 2020-04-22 2021-12-17 浙江大华技术股份有限公司 云台控制摄像机的物距预测方法、装置及存储设备
CN117238090B (zh) * 2023-11-10 2024-01-23 成都侠易科技有限公司 救生设备移位监测方法、装置、设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000059796A (ja) * 1998-06-03 2000-02-25 Matsushita Electric Ind Co Ltd 動き検出装置及び動き検出方法及び動き検出のプログラムを記録した記録媒体
JP2002077898A (ja) * 2000-08-23 2002-03-15 Hitachi Ltd 移動物体検出システム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4343325B2 (ja) 1999-05-14 2009-10-14 富士通株式会社 移動物体検知装置
US6809758B1 (en) * 1999-12-29 2004-10-26 Eastman Kodak Company Automated stabilization method for digital image sequences
JP2003169319A (ja) 2001-11-30 2003-06-13 Mitsubishi Electric Corp 映像監視装置
US7880769B2 (en) * 2004-02-13 2011-02-01 Qualcomm Incorporated Adaptive image stabilization

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000059796A (ja) * 1998-06-03 2000-02-25 Matsushita Electric Ind Co Ltd 動き検出装置及び動き検出方法及び動き検出のプログラムを記録した記録媒体
JP2002077898A (ja) * 2000-08-23 2002-03-15 Hitachi Ltd 移動物体検出システム

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009116686A (ja) * 2007-11-07 2009-05-28 Nippon Telegr & Teleph Corp <Ntt> 撮像対象検出装置および方法
JP2011123563A (ja) * 2009-12-08 2011-06-23 Sony Corp 画像処理装置、画像処理方法及びプログラム
US8630453B2 (en) 2009-12-08 2014-01-14 Sony Corporation Image processing device, image processing method and program
JP4855556B1 (ja) * 2011-03-22 2012-01-18 株式会社モルフォ 動体検出装置、動体検出方法、動体検出プログラム、動体追跡装置、動体追跡方法及び動体追跡プログラム
WO2012127618A1 (ja) * 2011-03-22 2012-09-27 株式会社モルフォ 動体検出装置、動体検出方法、動体検出プログラム、動体追跡装置、動体追跡方法及び動体追跡プログラム
US8989448B2 (en) 2011-03-22 2015-03-24 Morpho, Inc. Moving object detecting device, moving object detecting method, moving object detection program, moving object tracking device, moving object tracking method, and moving object tracking program
WO2012160657A1 (ja) * 2011-05-24 2012-11-29 富士通株式会社 物体接近検知装置、物体接近検知方法、及びプログラム
JP5776769B2 (ja) * 2011-05-24 2015-09-09 富士通株式会社 物体接近検知装置、物体接近検知方法、及びプログラム
US9183448B2 (en) 2011-05-24 2015-11-10 Fujitsu Limited Approaching-object detector, approaching object detecting method, and recording medium storing its program
JP2016039606A (ja) * 2014-08-11 2016-03-22 株式会社チャオ 画像伝送装置、画像伝送方法および画像伝送プログラム
WO2016024546A1 (ja) * 2014-08-11 2016-02-18 株式会社チャオ 画像伝送装置、画像伝送方法および画像伝送プログラム
US10171822B2 (en) 2014-08-11 2019-01-01 Ciao, Inc. Image transmission device, image transmission method, and image transmission program
EA038312B1 (ru) * 2014-08-11 2021-08-09 Сяо Инк. Устройство и способ предиктивного кодирования движущихся изображений
JP2016110385A (ja) * 2014-12-05 2016-06-20 株式会社チャオ ヒートマップ画像生成装置、ヒートマップ画像生成方法およびヒートマップ画像生成プログラム
JP2017076181A (ja) * 2015-10-13 2017-04-20 セコム株式会社 追跡装置
WO2021117148A1 (ja) * 2019-12-10 2021-06-17 株式会社ソシオネクスト 画像処理装置、画像処理方法及びプログラム
JPWO2021117148A1 (ja) * 2019-12-10 2021-06-17
JP7480787B2 (ja) 2019-12-10 2024-05-10 株式会社ソシオネクスト 画像処理装置、画像処理方法及びプログラム
JP2021108434A (ja) * 2019-12-27 2021-07-29 株式会社アダコテック 情報処理システム、情報処理装置、端末装置、情報処理方法及びプログラム
JP7458138B2 (ja) 2019-12-27 2024-03-29 株式会社アダコテック 情報処理システム、情報処理装置、端末装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
KR20060100257A (ko) 2006-09-20
US7969470B2 (en) 2011-06-28
EP1703466B8 (en) 2014-01-08
EP1703466A2 (en) 2006-09-20
JP4623368B2 (ja) 2011-02-02
US20060244866A1 (en) 2006-11-02
EP1703466B1 (en) 2013-11-06
KR101237155B1 (ko) 2013-02-25
CN100562104C (zh) 2009-11-18
CN1856098A (zh) 2006-11-01
EP1703466A3 (en) 2012-02-22

Similar Documents

Publication Publication Date Title
JP4623368B2 (ja) 移動物体検出装置、移動物体検出方法及びプログラム
JP4662142B2 (ja) 移動物体検出装置及び方法
KR100364582B1 (ko) 다중 이동물체 추적/감시 시스템
JP4878644B2 (ja) 移動物体ノイズ除去処理装置及び移動物体ノイズ除去処理プログラム
US7747075B2 (en) Salient motion detection system, method and program product therefor
KR19980701568A (ko) 이미지 시퀀스내의 객체의 움직임을 검출하기 위한 방법 및 장치(method and apparatus for detecting object movement within an image sequence)
US20090087085A1 (en) Tracker component for behavioral recognition system
CN107851318A (zh) 用于对象跟踪的系统和方法
CN112785628B (zh) 一种基于全景视角检测跟踪的轨迹预测方法及系统
KR101062225B1 (ko) 감시 카메라를 이용한 지능형 영상 검색 방법 및 시스템
JP2003169319A (ja) 映像監視装置
US10789682B2 (en) Apparatus, system, and method for enhancing an image
JP6931203B2 (ja) 映像解析装置、映像解析方法、および映像解析プログラム
JP3569163B2 (ja) 移動物体監視装置
CN110728700B (zh) 一种运动目标追踪方法、装置、计算机设备及存储介质
Tu et al. A biologically inspired vision-based approach for detecting multiple moving objects in complex outdoor scenes
CN117218161B (zh) 一种鱼缸内鱼类轨迹跟踪方法及系统
CN111833377B (zh) 一种基于tbd复杂环境下运动小目标检测方法
CN113450385B (zh) 一种夜间工作工程机械视觉跟踪方法、装置及存储介质
CN114821978A (zh) 一种误报警的消除方法、装置以及介质
JP3736836B2 (ja) 物体検出方法及び物体検出装置及びプログラム
Rattei et al. Shadow-based vehicle model refinement and tracking in advanced automotive driver assistance systems
CN117975315B (zh) 一种基于无人机影像的库区地质灾害差分识别方法
CN115439501B (zh) 一种视频流动态背景构造方法、装置及检测运动目标方法
CN111582025B (zh) 一种移动物体的识别方法、装置、及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071031

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100701

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101007

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101020

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131112

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees