JP2006180479A - ビデオ監視システムにおけるカメラ/物体の動き区分及び客体抽出装置並びにその方法 - Google Patents

ビデオ監視システムにおけるカメラ/物体の動き区分及び客体抽出装置並びにその方法 Download PDF

Info

Publication number
JP2006180479A
JP2006180479A JP2005359406A JP2005359406A JP2006180479A JP 2006180479 A JP2006180479 A JP 2006180479A JP 2005359406 A JP2005359406 A JP 2005359406A JP 2005359406 A JP2005359406 A JP 2005359406A JP 2006180479 A JP2006180479 A JP 2006180479A
Authority
JP
Japan
Prior art keywords
camera
movement
angle
value
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005359406A
Other languages
English (en)
Inventor
Byoung-Chul Ko
柄▲チュル▼ 高
Bo-Hyun Kang
寶賢 姜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2006180479A publication Critical patent/JP2006180479A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

【課題】物体の動きの発生による侵入者発生と、カメラの動きや揺れなどによる誤った侵入者感知発生とを区分し、該当物体を抽出するビデオ監視システムにおけるカメラ/物体の動き区分及び客体抽出装置並びにその方法を提供する。
【解決手段】本発明によれば、入力動映像からオプティカルフロー(Optical Flow)を求めた後、これを角度値に変形して分類し、この角度値が一定の臨界値を超過する場合、物体の動きであると判断し、角度値が一定の臨界値を超過しなくなる場合、カメラの動きや揺れであると判断する。ここで、物体の動きであると判断される場合、物体のオプティカルフローに対するX−Y投影を用いて動きが発生した部分だけを抽出する作業を進行することによって、客体を分割し、これを連続したフレームにおいて追跡し、物体の移動経路を追跡する。
【選択図】図7

Description

本発明は、ビデオ監視システムにおけるカメラ/物体の動き区分及び客体抽出装置並びにその方法に関し、特に、物体の動きを感知し侵入者発生有無を判断する無人ビデオ監視システムにおいて、物体の動きの発生による侵入者発生と、カメラの動きや揺れなどによる誤った侵入者感知発生とを区分し、物体の動きによる侵入者発生であると判断される場合、該当物体を抽出するビデオ監視システムにおけるカメラ/物体の動き区分及び客体抽出装置並びにその方法に関する。
従来のビデオ監視システムでは、物体の動きを感知するために、2つのフレーム間の差分信号を利用する方法と、動きベクトルを利用する方法とに分けられることができる。
差分映像信号を利用する方法は、以前のフレームと現在入力されたフレームにおいて対応する座標点の画素値を減算する方法であって、2つのフレーム間に若干の動きでも発生した場合、該当画素は、0以外の値を有する原理を利用する。
このような画素が所定の基準値以上となる場合、物体の出現などによる画素値の変化として認識し、侵入者が発生したと判断する方法である。
そして、動きベクトルを利用する方法は、全域探索(Full Search)のような方法で現在のフレームと以前のフレーム間の動きベクトルを検出し、動きベクトルの検出された量が所定の基準値以上である場合、侵入者発生として判断する方法である。
前述のような差分映像信号を利用する方法は、演算方法が単純なので、早い時間内に動き検出可否を判断することができるという長所があるが、照明変化及びノイズに敏感であるという短所がある。また、カメラが停止しており、動きが発生しないと、全ての画素の差異値は、0となるが、カメラが移動したり揺れる場合、画素値の変化が大きくなり、実際の物体の動きとカメラの動きや揺れによる物体の動きとを区分しないという問題点がある。
一方、前述のような動きベクトルを利用する方法は、相対的に前述の差分映像信号を利用した方法に比べて、照明変化やノイズにあまり敏感でなく、動きが発生した物体の動き方向を知ることができるという長所はあるが、この方法もやはり、物体の動きとカメラの動きによる動きベクトル発生の差異点を区分しないという問題点がある。
また、前記方法の他に、入力される映像信号を用いて移動物体を追跡する代表的な方法は、コリレイション(Correlation: Block Matching Algorithm)を利用した方法、ディスターバンスマップ(Disturbance Map)を利用する方法、カラー分布を利用する方法及びオプティカルフロー(Optical Flow)を利用する方法などが挙げられる。
このような方法を複合的に適用して商用化に取り組んだ多重移動物体追跡監視システムが特許文献1に開示されている。
特許文献1に開示された技術もやはり、カメラが停止した状態では物体の抽出性能に優れているが、カメラが動く場合には、映像補正が必ず要求され、このため、カメラ補正アルゴリズムを利用しているが、これは、その分、システムにおいて処理すべきデータ量が増加するようになり、処理速度に負担となり、また、正確な映像補正がなされないという問題点を有する。
また、特許文献1に開示された技術に利用されるブロック整合アルゴリズムは、物体が移動しながら、大きさ、形状、明るさなどが変わる場合、その追跡性能が低下し、ブロックの大きさが大きくなるほど、処理速度が低下する問題点と、追跡誤差がフレーム毎に蓄積され、結局は、動く物体がブロック整合する基準ブロックから外れる問題点が発生する。
大韓民国特許出願公開第2000−22818号明細書
したがって、本発明は、前述のような問題点を解決するためになされたもので、本発明の目的は、物体の動きを感知し侵入者発生有無を判断する無人ビデオ監視システムにおいて、物体の動きの発生による侵入者発生と、カメラの動きや揺れなどによる誤った侵入者感知発生とを区分し、物体の動きによる侵入者発生であると判断される場合、該当物体を抽出するビデオ監視システムにおけるカメラ/物体の動き区分及び客体抽出装置並びにその方法を提供することにある。
前記目的を達成するために、本発明の一態様に係るビデオ監視システムにおけるカメラ/物体の動き区分及び客体抽出装置は、現在の入力映像フレームと以前の映像フレーム間のオプティカルフローに対する動きベクトル値を抽出するオプティカルフロー抽出部と、前記オプティカルフロー抽出部で抽出したオプティカルフローに対する動きベクトル値の角度ヒストグラムを生成する角度ヒストグラム生成部と、前記角度ヒストグラム生成部で生成した角度ヒストグラムを用いて物体の動き、カメラの動きの種類を判断し、物体の動きが発生した場合、動き客体を抽出する制御部とを備えることを特徴とする。
前記現在の入力映像フレーム及び以前の映像フレームの各々に含まれたノイズを除去した後、ノイズが除去された現在のフレーム及び以前のフレームを前記オプティカルフロー抽出部に提供するノイズ除去部をさらに備え、ノイズ除去部は、ガウスノイズを除去するガウスフィルタを備える。
前記角度ヒストグラム生成部は、前記オプティカルフロー抽出部で抽出したオプティカルフローに対するベクトル値を角度値に変化させた後、オプティカルフローベクトル値に対するヒストグラムを生成する。
前記角度ヒストグラムは、ラジアン値(−π〜+π)を角度値(0〜360)に変化させ、変化した角度値を0〜35の値に正規化させた後、角度ヒストグラムを生成する。
前記制御部は、カメラの動き及び物体の動きが同時に発生した場合、以前のフレームと現在のフレーム間における全てのオプティカルフローから、動きが最も多い角度に該当するオプティカルフローを除去した後、残りの角度のオプティカルフローに対してX−Y投影法を用いて動き物体を抽出する。
また、本発明の他の態様に係るビデオ監視システムにおけるカメラ/物体の動き区分及び客体抽出方法は、現在の入力映像フレームと以前の映像フレーム間のオプティカルフローに対する動きベクトル値を抽出する段階と、前記抽出したオプティカルフローに対する動きベクトル値の角度ヒストグラムを生成する段階と、前記生成した角度ヒストグラムを用いて物体の動き、カメラの動きの種類を判断し、物体の動きが発生した場合、動き客体を抽出する段階とを備えることを特徴とする。
本発明に係るビデオ監視システムにおけるカメラ/物体の動き区分及び客体抽出装置並びにその方法は、物体の動きを感知し侵入者発生有無を判断する無人ビデオ監視システムにおいて、物体の動きの発生による侵入者発生と、カメラの動きや揺れなどによる誤った侵入者感知発生とを区分し、物体の動きによる侵入者発生であると判断される場合、該当物体を抽出する。本発明によれば、入力動映像からオプティカルフロー(Optical Flow)を求めた後、これを角度値に変形して分類し、この角度値が一定の臨界値を超過する場合、物体の動きであると判断し、角度値が一定の臨界値を超過しなくなる場合、カメラの動きや揺れであると判断する。ここで、物体の動きであると判断される場合、物体のオプティカルフローに対するX−Y投影を用いて動きが発生した部分だけを抽出する作業を進行することによって、客体を分割し、これを連続したフレームにおいて追跡し、物体の移動経路を追跡する。
また、本発明は、URC(Ubiquitous Robot Companion)においてロボットの無人監視システムに適用され、侵入者の検出に使われることができる。現在の動き感知方法は、カメラが固定されており、動かないという条件下で、単純に差分映像だけを利用する方法を使用している。しかし、ロボットの場合、継続的に動きながら監視地点を移動しなければならないので、ロボットの動きによるカメラ画素値の変動と実際の物体の動きによる画素値の変動とを区分しなければならない。従って、本発明をURC監視システムに適用する場合、実際に物体の動きが発生した場合を区分し、該当物体だけを検出して追跡するのに適用されることができる。
以下、添付の図面を参照して、本発明に係るビデオ監視システムにおけるカメラ/物体の動き区分及び客体抽出装置並びにその方法について詳細に説明する。
図1は、本発明に係るビデオ監視システムにおけるカメラ/物体の動き区分及び客体抽出装置を示すブロック図である。
図1に示すように、ビデオ監視システムは、映像入力部100、ノイズ除去部110、オプティカルフロー検出部120、角度ヒストグラム生成部130、制御部140及び客体抽出部150を含むことができる。
映像入力部100は、パニング/チルト可能なカメラで、撮影した現在の映像に対する映像フレームをノイズ除去部110に提供する。
ノイズ除去部110は、映像入力部100から入力される現在の映像フレーム及び以前の映像フレームに対して各々ノイズを除去する。ここで、ノイズ除去フィルタとして、ガウスノイズを低域フィルタリングするガウスフィルタ(Gaussian Filter)を利用することができる。
オプティカルフロー検出部120は、ノイズ除去部110で各々ガウスノイズが除去された以前のフレームと現在のフレーム間のオプティカルフローを検出する。ここで、オプティカルフローとは、明度類型(brightness pattern)を徐々に変化させることによって発生する映像における明白な動きの速度分布を示すもので、以前のフレームと現在のフレーム間の動きベクトル値で表現することができる。
角度ヒストグラム生成部130は、オプティカルフロー検出部120で検出された各オプティカルフローに対するオプティカルフローのベクトル値を角度(Degree)値に変化させ、角度ヒストグラムを生成した後、生成した角度ヒストグラムの角度0〜360度の値を0〜36の値に正規化させる。
制御部140は、角度ヒストグラム生成部130で生成した角度ヒストグラムを用いて映像の画素値の変化が物体の動きにより発生したか、それとも、カメラの動き(パニング、チルト、揺れ)により発生したかを、所定の規則により判別する。ここで、所定の規則によって物体の動きまたはカメラの動きを判別する方法については後述する。
客体抽出部150は、制御部140で映像に対する画素値の変化が物体の動きにより発生したものと判断された場合、前記オプティカルフロー検出部130で検出したオプティカルフローに対するベクトル値をX−Y方向に投影させ、物体(客体)だけを背景映像から抽出する。
以下、このような構成を有する本発明に係るビデオ監視システムにおけるカメラ/物体の動き区分及び客体抽出装置の動作について説明する。
まず、ノイズ除去部110は、映像入力部100から入力される現在の映像フレームと以前の映像フレームに対して各々ガウスフィルタを用いてフレームに付加されたガウスノイズを除去した後、ノイズが除去された現在のフレーム及び以前のフレームをオプティカルフロー検出部120に提供する。
オプティカルフロー検出部120は、ノイズ除去部110から提供されるノイズが除去された以前のフレームと現在のフレーム間のオプティカルフローを検出する。
オプティカルフローは、モーションベクトル(Motion Vector)と類似した方法であるが、動きの方向を各画素毎に測定することができ、速度の観点から全域探索(Full Search)方法より速い検出速度を有するという長所がある。ここで、オプティカルフローを検出する方法として、本発明では、HornとSchunckが提案したオプティカルフロー検出方法を使用する。
この方法は、一定の領域内のオプティカルフローは同一であると仮定し、隣接する8方向の各画素のオプティカルフロー拘束式を連立させ、拘束条件を満足させる最小値を最小自乗法で計算し、オプティカルフローを計算する方法である。このような方法により求められたオプティカルフローの結果は、図2に示されている。すなわち、図2Aは、以前のフレームの映像であり、図2Bは、現在のフレームの映像であり、図2Cは、図2A及び図2Bのような以前のフレームと現在のフレーム間のオプティカルフローを検出した結果に対するフレームの映像を示す図である。ここで、図2Cでのオプティカルフローは、図2A及び図2Bのフレームの映像において顔部分の動きの変化によってオプティカルフローの変化が顔部分に現れることが分かる。
このような方法により、以前のフレームと現在のフレーム間のオプティカルフローが検出されれば、検出されたオプティカルフローに対するベクトル値を角度ヒストグラム生成部130に提供する。
角度ヒストグラム生成部130は、オプティカルフロー検出部120で検出したオプティカルフローに対する動きベクトル値をラジアン(Radian)角度の値に変化させる。
ラジアン値を推定するために、X軸移動量dxとY軸移動量dyをradian=atan(dx、dy)関数に適用させる場合、この値は、(−π〜+π)値を有するが、これを下記の数1式により角度値に変形し、その結果、角度値Dが負数となる場合、次の数2式を用いてさらに計算する。
この場合、全てのオプティカルフローに対するベクトル値は、0〜360度の間の値に変形されるが、分析を容易にするために、0〜360度の値を0〜35の値に正規化させる。
例えば、0〜9度間の値は、0に変形させ、10〜19度間の値は、1に変形させる。
このようにオプティカルフローのベクトル値を角度値に変形させた結果は、図3D、図4D、図5Dから確認することができる。
ここで、図3Aは、以前のフレームの映像、図3Bは、現在のフレームの映像、図3Cは、カメラは固定されており、物体だけが動いた場合のオプティカルフロー分布を示す映像、図3Dは、物体だけが動いた場合のオプティカルフローに対する角度ヒストグラムを示す図である。図4Aは、以前のフレームの映像、図4Bは、現在のフレームの映像、図4Cは、物体の動きはなく、カメラだけがパニングまたはチルト形態で動いた場合のオプティカルフロー分布を示す映像、図4Dは、カメラがパニングまたはチルトで動いた場合のオプティカルフローに対する角度ヒストグラムを示す図である。
また、図5Aは、以前のフレームの映像、図5Bは、現在のフレームの映像、図5Cは、物体の動きはなく、カメラの揺れが発生した場合のオプティカルフロー分布を示す映像、図5Dは、カメラの揺れが発生した場合のオプティカルフローに対する角度ヒストグラムを示す図である。
図3Cに示すように、カメラの動きは発生せず、物体の動きだけが発生した場合、オプティカルフローは、映像の一定部分にのみ局所的に発生する。反対に、図4C及び図5Cに示すように、カメラの揺れやカメラの動き(パニング、チルト)に起因して発生するオプティカルフローの場合、カメラが動くことによって、全体映像に発生することが分かる。
カメラの動きのうちパニング(panning)は、固定された1台のカメラが水平に視点(view point)を移動させることを言い、チルト(tilt)は、垂直に移動させる場合を意味する。カメラのパニングやチルトの場合、図4Dのように、角度ヒストグラムが水平または垂直のように一方の角度で大きく発生するが、カメラの揺れの場合、図5Dに示すように、全体的な角度において均一に現れる特徴を有する。このような特徴を用いて、物体の動き、カメラの動き(パニング、チルト、揺れ)を判断することができる。
図1に示すように、制御部10は、上記のように角度ヒストグラム生成部130で生成した角度ヒストグラムを分析することによって、物体の動き、カメラの動きなどを判断する。
すなわち、制御部140は、角度ヒストグラム生成部130で角度ヒストグラムが求められると、物体の動きとカメラの動き間の特性を用いて次のような規則を生成し、これを用いて物体の動きとカメラの動きとを区分する。また、カメラの動きの場合、揺れとパニング及びチルトを区分することができる。
まず、制御部140は、角度ヒストグラムを分析し、次の規則1により物体の動き及びカメラの動きだけをまず検出する。
[規則1]カメラの動きと物体の動きの区分規則
物体の動きは、映像内で局所的にオプティカルフローが発生する特徴を有するので、次の数3式を用いて物体の動きを検出する。
ここで、Mvは、実際に発生したオプティカルフローの数を意味し、TMvは、オプティカルフローが発生し得る全体画素の数を意味する。オプティカルフローが発生した個数が全体の30%未満である場合は、物体の動きとして判断する。
すなわち、制御部140は、前記数3式で、θ値が例えば臨界値0.3(30%)より小さい場合、カメラの動きは発生せず、物体の動きだけが発生したものと判断し、θ値が臨界値0.3(30%)より大きいか同じ場合には、物体の動きは発生せず、カメラの動きだけが発生したものと判断する。
このように、前記数3式で、θ値が所定の臨界値より小さい場合、すなわち、実際にオプティカルフローが発生した数が全体画素の30%未満である場合、制御部140は、物体の動きだけが発生したものと判断し、動き客体を抽出するために、客体抽出部150にオプティカルフロー検出映像を提供する。
客体抽出部150は、以前のフレームと現在のフレーム間のオプティカルフロー発生領域をX−Y軸に投影させ、投影されたヒストグラム値を用いて物体の上下左右の座標値を得、物体の領域を抽出する。このように、物体(客体)抽出過程は、図6Aから図6Dに示されている。
図6Aから図6Dは、カメラの動きがなく、物体の動きだけが発生した場合、物体(客体)を抽出する過程を説明するための画面の一例を示す図である。物体抽出過程を簡単に要約すれば、図6Aから図6Dに示すように、まず、入力映像(以前のフレーム及び現在のフレーム)に対してオプティカルフローを検出し、検出したオプティカル検出領域をx−y軸に投影させた後、投影されたヒストグラム値を用いて物体の上下左右の座標値を得、物体の領域を抽出する。
一方、制御部140で前記規則1の数3式の結果、θ値が所定の臨界値以上である場合、物体の動きが発生せず、カメラの動きだけが発生したものと判断する。
しかし、カメラの動きの種類がパニング、チルト、揺れなどに区分されるので、これらもやはり区分されなければならない。
したがって、カメラの動きの種類を区分するために、制御部140は、次のような所定の規則2を適用して区分する。
[規則2]カメラの揺れ、パニング、チルトの区分規則
カメラの揺れの場合、図5Dに示すように、角度ヒストグラムが全体的なヒストグラムにおいて均一に現れるのに対して、カメラのパニング及びチルトの場合、図4Dに示すように、上下または左右方向のうち一方の方向にカメラが動くため、1つの角度でヒストグラムが顕著に現れる特徴を有する。
したがって、制御部140は、このような特徴を用いて下記の数4式を適用させ、カメラの揺れ、パニング及びチルトを区分する。
ここで、bは、角度ヒストグラムHにおいて累積個数が最も多い角度を意味し、θは、累積個数が最も多い角度におけるヒストグラム累積個数を意味する。また、θは、v角度におけるヒストグラム累積個数を意味する。また、Tは、カメラの動きを区分するための臨界値である。
前記数4式は、パニング、チルトの場合、一方の方向にカメラが移動する特徴を有するので、角度ヒストグラムが特定の方向に多く現れるため、標準バラツキが小さく、反対に、カメラ揺れの場合、一方の方向でなくいろいろな方向に同時に現れる特徴を有するため、標準バラツキが相対的に大きい特徴を利用したものである。一般的に、数4式で、bの値が0〜1間、34〜35間に存在する場合、カメラのパニングが発生した場合であり、bの値が17〜19間、26〜27間に存在する場合、カメラのチルト現象が発生した場合である。
一方、制御部140で、カメラの揺れ、パニング及びチルト現象が発生すると同時に、物体の動きが発生する場合もあり得る。
したがって、制御部140では、次の規則3を適用してカメラの揺れ、パニングまたはチルトが発生すると同時に、物体の動きを検出することができる。
[規則3]カメラの揺れ、パニングまたはチルト発生と物体の動きの同時発生
カメラのパニングやチルト動作が発生する途中に物体の動きが発生する場合、これを区分する必要がある。このために、図1に示された制御部140は、まず、前記規則1での数3式と前記規則2での数4式を用いてカメラのパニングまたはチルト現象が発生した場合、角度ヒストグラムHにおいて累積個数が最も多い角度bを除いた残りのヒストグラムに対してさらに規則1の数3式を適用させる。かくして、規則1の数3式の結果値が基準臨界値を超過する場合、パニング及びチルトと一緒に物体の動きが同時に発生したものと判断する。
このように、物体の動きとカメラの動きを検出した後、物体の動きから物体だけを抽出して追跡する過程が必要である。
物体の背景から物体を抽出するためには、まず、オプティカルフロー検出部120で検出したオプティカルフロー領域をX−Y軸に投影させ、投影されたヒストグラム値を用いて物体の上下左右の座標値を得、物体の領域を抽出する。この過程は、図6Aから図6Dに示されている。
仮りに、カメラのパニングまたはチルトと物体の動きが同時に発生した場合、全てのオプティカルフローから、動きが最も多いb角度に該当するオプティカルフローを除去した残りのオプティカルフローだけを用いてX−Y投影方法で物体の領域を抽出する。
前述のような本発明に係るビデオ監視システムにおけるカメラ/物体の動き区分及び客体抽出装置の動作に相当する本発明に係るカメラ/物体の動き区分及び客体抽出方法について、図7の流れ図を用いて段階的に説明する。
図7は、本発明に係るビデオ監視システムにおけるカメラ/物体の動き区分及び客体抽出方法を示す動作流れ図である。
図7に示すように、まず、カメラを通じて映像が入力されれば(S101)、入力される映像の現在のフレームのガウスノイズをガウスフィルタを用いて除去する(S102、S103)。
また、以前のフレームの映像に対してもガウスフィルタを適用して、ノイズを除去する(S104、S105)。
ノイズが除去された以前のフレームの映像と現在のフレームの映像間のオプティカルフローを図2に示すように抽出する(S106)。ここで、オプティカルフローは、モーションベクトルと類似した方法であるが、動きの方向を各画素毎に測定することができ、速度の観点から全域探索方法より速い検出速度を有するという長所がある。ここで、オプティカルフローを検出する方法として、本発明では、HornとSchunckが提案したオプティカルフロー検出方法を使用する。この方法は、一定の領域内のオプティカルフローは同一であると仮定し、隣接する8方向の各画素のオプティカルフロー拘束式を連立させ、拘束条件を満足させる最小値を最小自乗法で計算し、オプティカルフローを計算する方法である。
以前のフレームの映像及び現在のフレームの映像に対してオプティカルフローが検出されれば、検出されたオプティカルフローのベクトル値に対して角度ヒストグラムを生成する(S107)。ここで、角度ヒストグラムの生成方法については、上記で具体的に説明したので、その説明は省略する。
角度ヒストグラムが生成されれば、前記規則1の数3式を用いて物体の動き及びカメラの動きを区分する(S108)。
すなわち、数3式のθ値と臨界値を比較し(S109)、θ値が所定の臨界値より小さい場合、すなわち、実際にオプティカルフローが発生した数が全体画素の30%未満である場合、物体の動きだけが発生したものと判断し、以前のフレームと現在のフレーム間のオプティカルフロー発生領域をX−Y軸に投影させ(S115)、投影されたヒストグラム値を用いて物体の上下左右の座標値を得、物体の領域を抽出する(S116)。このように、物体(客体)抽出過程は、図6Aから図6Dに示されている。
物体抽出過程を簡単に要約すれば、図6Aから図6Dに示すように、まず、入力映像(以前のフレーム及び現在のフレーム)に対してオプティカルフローを検出し、検出したオプティカルフロー検出領域をx−y軸に投影させた後、投影されたヒストグラム値を用いて物体の上下左右の座標値を得、物体の領域を抽出する。
一方、前記S109段階で、前記規則1の数3式の結果、θ値が所定の臨界値以上である場合、物体の動きは発生せず、カメラの動きだけが発生したものと判断する。
しかし、カメラの動きの種類がパニング、チルト、揺れなどに区分されるため、これらもやはり区分されなければならない。
したがって、カメラの動きの種類を区分するために、前記規則2の数4式を適用して区分する(S110、S111)。
すなわち、カメラの揺れの場合、図5Dに示すように、角度ヒストグラムが全体的なヒストグラムにおいて均一に現れるのに対して、カメラのパニング及びチルトの場合は、図4Dに示すように、上下または左右方向のうち一方の方向にカメラが動くため、1つの角度でヒストグラムが顕著に現れる特徴を有する。
したがって、前記数4式を適用させて、カメラの揺れ、パニング及びチルトを区分する。
前記数4式は、パニング、チルトの場合、一方の方向にカメラが移動する特徴を有するので、角度ヒストグラムが特定の方向に多く現れるため、標準バラツキが小さく、反対に、カメラ揺れの場合、一方の方向でなくいろいろな方向に同時に現れる特徴を有するので、標準バラツキが相対的に大きい特徴を利用したものである。一般的に、数4式で、bの値が0〜1間、34〜35間に存在する場合、カメラのパニングが発生した場合であり、bの値が17〜19間、26〜27間に存在する場合、カメラのチルト現象が発生した場合である。
一方、カメラの揺れ、パニング及びチルト現象が発生すると同時に、物体の動きが発生する場合もあり得る。
したがって、この場合、前記規則3を適用して、カメラの揺れ、パニングまたはチルトが発生すると同時に、物体の動きの発生を検出することができる(S112)。
すなわち、カメラのパニングやチルト動作が発生する途中に物体の動きが発生する場合、これを区分する必要がある。このために、まず、前記規則1での数3式及び前記規則2での数4式を用いて、カメラのパニングまたはチルト現象が発生した場合、角度ヒストグラムHにおいて累積個数が最も多い角度bを除いた残りのヒストグラムに対してさらに前記規則1の数3式を適用させる。かくして、前記規則1の数3式の結果値が基準臨界値を超過する場合、パニング及びチルトと一緒に、物体の動きが同時に発生したものと判断する。
このように物体の動きとカメラの動きを検出した後、物体の動きから物体だけを抽出して追跡する過程が必要である。
物体の背景から物体を抽出するためには、まず、検出された以前のフレームと現在のフレーム間のオプティカルフロー領域をX−Y軸に投影させ、投影されたヒストグラム値を用いて物体の上下左右の座標値を得、物体の領域を抽出する。この過程は、図6Aから図6Dに示されている。
仮りに、カメラのパニングまたはチルトと物体の動きが同時に発生した場合、全てのオプティカルフローから、動きが最も多いb角度に該当するオプティカルフローを除去した残りのオプティカルフローだけを用いてX−Y投影方法で物体の領域を抽出する(S113、S114、S115、S116)
以上において説明した本発明は、本発明が属する技術の分野における通常の知識を有する者であれば、本発明の技術的思想を逸脱しない範囲内で、様々な置換、変形及び変更が可能であるので、上述した実施例及び添付された図面に限定されるものではない。
本発明に係るビデオ監視システムにおけるカメラ/物体の動き区分及び客体抽出装置を示すブロック図である。 以前のフレームの映像を示す図である。 現在のフレームの映像を示す図である。 以前のフレームと現在のフレーム間のオプティカルフローを検出した結果に対するフレームの映像を示す図である。 以前のフレームの映像を示す図である。 現在のフレームの映像を示す図である。 カメラは固定されており、物体だけが動いた場合のオプティカルフロー分布を示す映像の図である。 物体だけが動いた場合のオプティカルフローに対する角度ヒストグラムを示す図である。 以前のフレームの映像を示す図である。 現在のフレームの映像を示す図である。 物体の動きはなく、カメラだけがパニングまたはチルト形態で動いた場合のオプティカルフロー分布を示す映像の図である。 カメラがパニングまたはチルトで動いた場合のオプティカルフローに対する角度ヒストグラムを示す図である。 以前のフレームの映像を示す図である。 現在のフレームの映像を示す図である。 物体の動きはなく、カメラの揺れが発生した場合のオプティカルフロー分布を示す映像の図である。 カメラの揺れが発生した場合のオプティカルフローに対する角度ヒストグラムを示す図である。 カメラの動きがなく、物体の動きだけが発生した場合、物体(客体)を抽出する過程を説明するための映像を示す図である。 カメラの動きがなく、物体の動きだけが発生した場合、物体(客体)を抽出する過程を説明するための映像を示す図である。 カメラの動きがなく、物体の動きだけが発生した場合、物体(客体)を抽出する過程を説明するための映像を示す図である。 カメラの動きがなく、物体の動きだけが発生した場合、物体(客体)を抽出する過程を説明するための映像を示す図である。 本発明に係るビデオ監視システムにおけるカメラ/物体の動き区分及び客体抽出方法を示す動作流れ図である。
符号の説明
100 映像入力部
110 ノイズ除去部
120 オプティカルフロー検出部
130 角度ヒストグラム生成部
140 制御部
150 客体抽出部

Claims (24)

  1. ビデオ監視システムにおいて、
    現在の入力映像フレームと以前の映像フレーム間のオプティカルフローに対する動きベクトル値を抽出するオプティカルフロー抽出部と、
    前記オプティカルフロー抽出部で抽出したオプティカルフローに対する動きベクトル値の角度ヒストグラムを生成する角度ヒストグラム生成部と、
    前記角度ヒストグラム生成部で生成した角度ヒストグラムを用いて物体の動き、カメラの動きの種類を判断し、物体の動きが発生した場合、動き客体を抽出する制御部とを備えることを特徴とするビデオ監視システムにおけるカメラ/物体の動き区分及び客体抽出装置。
  2. 前記現在の入力映像フレームと以前の映像フレームの各々に含まれたノイズを除去した後、ノイズが除去された現在のフレーム及び以前のフレームを前記オプティカルフロー抽出部に提供するノイズ除去部をさらに備えることを特徴とする請求項1に記載のビデオ監視システムにおけるカメラ/物体の動き区分及び客体抽出装置。
  3. 前記ノイズ除去部は、ガウスノイズを除去するガウスフィルタを備えることを特徴とする請求項2に記載のビデオ監視システムにおけるカメラ/物体の動き区分及び客体抽出装置。
  4. 前記角度ヒストグラム生成部は、
    前記オプティカルフロー抽出部で抽出したオプティカルフローに対するベクトル値を角度値に変化させた後、オプティカルフローベクトル値に対するヒストグラムを生成することを特徴とする請求項1に記載のビデオ監視システムにおけるカメラ/物体の動き区分及び客体抽出装置。
  5. 前記角度ヒストグラムは、
    ラジアン値(−π〜+π)を角度値(0〜360)に変化させ、変化した角度値を0〜35の値に正規化させた後、角度ヒストグラムを生成することを特徴とする請求項4に記載のビデオ監視システムにおけるカメラ/物体の動き区分及び客体抽出装置。
  6. 前記制御部は、下記の数1式の結果値が所定の臨界値より小さい場合、物体の動きとして判断し、下記の数1式の結果値が臨界値以上である場合、物体の動きは発生せず、カメラの動きだけが発生したものと判断することを特徴とする請求項1に記載のビデオ監視システムにおけるカメラ/物体の動き区分及び客体抽出装置。
    ここで、Mvは、実際に発生したオプティカルフローの数を意味し、TMvは、オプティカルフローが発生し得る全体画素の数を意味する。
  7. 前記臨界値は、実際にオプティカルフローが発生した数であり、略全体画素の30%(0.3)に相当することを特徴とする請求項6に記載のビデオ監視システムにおけるカメラ/物体の動き区分及び客体抽出装置。
  8. 前記制御部は、
    カメラの動きがなく物体の動きだけが発生したものと判断された場合、前記オプティカルフロー検出部で検出したオプティカルフローに対してX−Y投影を用いて動き物体を抽出する客体抽出部を備えることを特徴とする請求項6に記載のビデオ監視システムにおけるカメラ/物体の動き区分及び客体抽出装置。
  9. 前記制御部は、
    下記の数2式を用いてカメラの動きの種類(揺れ、パニング、チルト)を区分して判断することを特徴とする請求項1に記載のビデオ監視システムにおけるカメラ/物体の動き区分及び客体抽出装置。
    ここで、bは、角度ヒストグラムHにおいて累積個数が最も多い角度を意味し、θは、累積個数が最も多い角度におけるヒストグラム累積個数を意味する。また、θは、v角度におけるヒストグラム累積個数を意味する。また、Tは、カメラの動きを区分するための臨界値である。
  10. 前記制御部は、
    前記数2式のbの値が0〜1間、34〜35間に存在する場合、カメラのパニングが発生した場合と判断し、bの値が17〜19間、26〜27間に存在する場合、カメラのチルト現象が発生した場合と判断することを特徴とする請求項9に記載のビデオ監視システムにおけるカメラ/物体の動き区分及び客体抽出装置。
  11. 前記制御部は、
    前記数2式を用いてカメラの動きの種類を判断した後、生成された角度ヒストグラムHにおいて累積個数が最も多い角度bを除いた残りの角度ヒストグラム値θが前記数1式の臨界値(0.3)以上である場合、カメラの動きが発生すると同時に、物体の動きが発生した場合と判断することを特徴とする請求項6又は請求項9に記載のビデオ監視システムにおけるカメラ/物体の動き区分及び客体抽出装置。
  12. 前記制御部は、
    カメラの動き及び物体の動きが同時に発生した場合、以前のフレームと現在のフレーム間における全てのオプティカルフローから、動きが最も多い角度に該当するオプティカルフローを除去した後、残りの角度のオプティカルフローに対してX−Y投影法を用いて動き物体を抽出することを特徴とする請求項11に記載のビデオ監視システムにおけるカメラ/物体の動き区分及び客体抽出装置。
  13. 監視システムにおけるカメラ/物体の動き区分及び客体抽出方法において、
    現在の入力映像フレームと以前の映像フレーム間のオプティカルフローに対する動きベクトル値を抽出する段階と、
    前記抽出したオプティカルフローに対する動きベクトル値の角度ヒストグラムを生成する段階と、
    前記生成した角度ヒストグラムを用いて物体の動き、カメラの動きの種類を判断し、物体の動きが発生した場合、動き客体を抽出する段階とを備えることを特徴とするビデオ監視システムにおけるカメラ/物体の動き区分及び客体抽出方法。
  14. 前記オプティカルフローに対する動きベクトル値を抽出する段階は、現在の入力映像フレーム及び以前の映像フレームの各々に含まれたノイズを除去した後、ノイズが除去された現在のフレームと以前のフレーム間のオプティカルフローを抽出する段階を備えることを特徴とする請求項13に記載のビデオ監視システムにおけるカメラ/物体の動き区分及び客体抽出方法。
  15. 前記ノイズ除去は、ガウスフィルタを利用することを特徴とする請求項14に記載のビデオ監視システムにおけるカメラ/物体の動き区分及び客体抽出方法。
  16. 前記角度ヒストグラムを生成する段階は、
    前記抽出したオプティカルフローに対するベクトル値を角度値に変化させた後、オプティカルフローベクトル値に対するヒストグラムを生成することを特徴とする請求項13に記載のビデオ監視システムにおけるカメラ/物体の動き区分及び客体抽出方法。
  17. 前記角度ヒストグラムは、
    ラジアン値(−π〜+π)を角度値(0〜360)に変化させ、変化した角度値を0〜35の値に正規化させた後、角度ヒストグラムを生成することを特徴とする請求項16に記載のビデオ監視システムにおけるカメラ/物体の動き区分及び客体抽出方法。
  18. 前記客体を抽出する段階は、
    下記の数3式の結果値が所定の臨界値より小さい場合、物体の動きとして判断し、下記の数3式の結果値が臨界値以上である場合、物体の動きは発生せず、カメラの動きだけが発生したものと判断することを特徴とする請求項13に記載のビデオ監視システムにおけるカメラ/物体の動き区分及び客体抽出方法。
    ここで、Mvは、実際に発生したオプティカルフローの数を意味し、TMvは、オプティカルフローが発生し得る全体画素の数を意味する。
  19. 前記臨界値は、実際にオプティカルフローが発生した数であり、略全体画素の30%(0.3)に相当することを特徴とする請求項18に記載のビデオ監視システムにおけるカメラ/物体の動き区分及び客体抽出方法。
  20. 前記客体を抽出する段階は、
    カメラの動きがなく物体の動きだけが発生したものと判断された場合、前記検出されたオプティカルフローに対してX−Y投影を用いて動き物体を抽出することを特徴とする請求項13に記載のビデオ監視システムにおけるカメラ/物体の動き区分及び客体抽出方法。
  21. 前記客体を抽出する段階は、
    下記の数4式を用いてカメラの動きの種類(揺れ、パニング、チルト)を区分して判断することを特徴とする請求項13に記載のビデオ監視システムにおけるカメラ/物体の動き区分及び客体抽出方法。
    ここで、bは、角度ヒストグラムHにおいて累積個数が最も多い角度を意味し、θは、累積個数が最も多い角度におけるヒストグラム累積個数を意味する。また、θは、v角度におけるヒストグラム累積個数を意味する。また、Tは、カメラの動きを区分するための臨界値である。
  22. 前記客体を抽出する段階は、
    前記数4式のb値が0〜1間、34〜35間に存在する場合、カメラのパニングが発生した場合と判断し、bの値が17〜19間、26〜27間に存在する場合、カメラのチルト現象が発生した場合と判断することを特徴とする請求項21に記載のビデオ監視システムにおけるカメラ/物体の動き区分及び客体抽出方法。
  23. 前記客体を抽出する段階は、
    前記数4式を用いてカメラの動きの種類を判断した後、生成された角度ヒストグラムHにおいて累積個数が最も多い角度bを除いた角度ヒストグラム値θが前記数3式の臨界値(0.3)以上である場合、カメラの動きが発生すると同時に、物体の動きが発生した場合と判断することを特徴とする請求項18又は請求項21に記載のビデオ監視システムにおけるカメラ/物体の動き区分及び客体抽出方法。
  24. 前記客体を抽出する段階は、
    カメラの動き及び物体の動きが同時に発生した場合、以前のフレームと現在のフレーム間における全てのオプティカルフローから、動きが最も多い角度に該当するオプティカルフローを除去した後、残りの角度のオプティカルフローに対してX−Y投影法を用いて動き物体を抽出することを特徴とする請求項23に記載のビデオ監視システムにおけるカメラ/物体の動き区分及び客体抽出方法。
JP2005359406A 2004-12-21 2005-12-13 ビデオ監視システムにおけるカメラ/物体の動き区分及び客体抽出装置並びにその方法 Pending JP2006180479A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020040109854A KR100738522B1 (ko) 2004-12-21 2004-12-21 비디오 감시 시스템에서 카메라/물체 움직임 구분 및 객체추출 장치 및 그 방법

Publications (1)

Publication Number Publication Date
JP2006180479A true JP2006180479A (ja) 2006-07-06

Family

ID=36450710

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005359406A Pending JP2006180479A (ja) 2004-12-21 2005-12-13 ビデオ監視システムにおけるカメラ/物体の動き区分及び客体抽出装置並びにその方法

Country Status (5)

Country Link
US (1) US20060133785A1 (ja)
EP (1) EP1677251A2 (ja)
JP (1) JP2006180479A (ja)
KR (1) KR100738522B1 (ja)
CN (1) CN1848949A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011003181A (ja) * 2009-06-17 2011-01-06 Kyocera Mita Corp 原稿傾斜角検出方法及び原稿傾斜角検出装置
CN102096928A (zh) * 2011-01-27 2011-06-15 浙江工业大学 一种视频监控中基于角度的徘徊轨迹检测方法
US9031355B2 (en) 2011-12-29 2015-05-12 Samsung Techwin Co., Ltd. Method of system for image stabilization through image processing, and zoom camera including image stabilization function
KR20190007758A (ko) * 2017-07-13 2019-01-23 한화디펜스 주식회사 영상 처리 시스템 및 그에 의한 영상 처리 방법
JP2021096167A (ja) * 2019-12-17 2021-06-24 株式会社竹中工務店 画像処理装置及び画像処理プログラム

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100763521B1 (ko) 2006-10-31 2007-10-04 한국전자통신연구원 이동 로봇의 시선 안정화 장치
KR100856474B1 (ko) * 2007-04-05 2008-09-04 (주) 지티비젼 영상 흔들림 보정방법
KR101271092B1 (ko) * 2007-05-23 2013-06-04 연세대학교 산학협력단 감시 카메라 시스템에서 움직임을 검출하기 위한 실시간움직임 영역 분할 방법 및 장치
CN101312524B (zh) * 2007-05-23 2010-06-23 财团法人工业技术研究院 利用光迹分析的移动物体侦测装置与方法
JP5400718B2 (ja) * 2010-07-12 2014-01-29 株式会社日立国際電気 監視システムおよび監視方法
GB2484133B (en) * 2010-09-30 2013-08-14 Toshiba Res Europ Ltd A video analysis method and system
CN102081801B (zh) * 2011-01-26 2014-04-16 上海交通大学 多特征自适应融合船舶跟踪和航迹检测方法
CN102289847A (zh) * 2011-08-02 2011-12-21 浙江大学 一种用于视频对象快速提取的交互方法
CN103096121B (zh) * 2011-10-28 2016-03-02 浙江大华技术股份有限公司 一种摄像头移动检测方法及装置
KR101311148B1 (ko) * 2012-03-05 2013-10-04 홍익대학교 산학협력단 영상 감시 시스템 및 영상 감시 시스템의 객체 검출 방법
KR101932535B1 (ko) 2012-08-27 2018-12-27 한화테크윈 주식회사 실내 감시 시스템 및 실내 감시 방법
CN103824307B (zh) * 2012-11-16 2016-04-06 浙江大华技术股份有限公司 一种确定无效运动目标像素的方法和装置
CN104349039B (zh) * 2013-07-31 2017-10-24 展讯通信(上海)有限公司 视频防抖方法和装置
CN104574435B (zh) * 2014-09-24 2016-03-02 中国人民解放军国防科学技术大学 基于块聚类的运动相机前景分割方法
CN104408743A (zh) * 2014-11-05 2015-03-11 百度在线网络技术(北京)有限公司 图像分割方法和装置
CN104378604A (zh) * 2014-12-01 2015-02-25 江西洪都航空工业集团有限责任公司 一种基于运动检测的实时监控方法
CN105451023B (zh) * 2015-11-20 2018-10-02 南京杰迈视讯科技有限公司 一种运动感知的视频存储系统和方法
KR101958270B1 (ko) * 2015-12-03 2019-03-14 홍진수 영상분리 영상추적을 이용한 지능형 영상분석 시스템
KR20190139605A (ko) * 2018-06-08 2019-12-18 전자부품연구원 제스처 인식 장치 및 방법
US10679367B2 (en) 2018-08-13 2020-06-09 Hand Held Products, Inc. Methods, systems, and apparatuses for computing dimensions of an object using angular estimates
CN109285182A (zh) * 2018-09-29 2019-01-29 北京三快在线科技有限公司 模型生成方法、装置、电子设备和计算机可读存储介质
KR20200037657A (ko) * 2018-10-01 2020-04-09 삼성전자주식회사 냉장고, 서버 및 냉장고의 객체 인식 방법
US10708501B2 (en) 2018-10-17 2020-07-07 Sony Corporation Prominent region detection in scenes from sequence of image frames
KR102450466B1 (ko) * 2021-02-09 2022-09-30 주식회사 라온버드 영상 내의 카메라 움직임 제거 시스템 및 방법
CN116965751B (zh) * 2022-11-28 2024-07-05 开立生物医疗科技(武汉)有限公司 内窥镜移动速度检测方法、装置、电子设备及存储介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003067752A (ja) 2001-08-28 2003-03-07 Yazaki Corp 車両周辺監視装置
US6965645B2 (en) * 2001-09-25 2005-11-15 Microsoft Corporation Content-based characterization of video frame sequences
JP2003150941A (ja) 2001-11-19 2003-05-23 Daihatsu Motor Co Ltd 移動物体の認識装置及び認識方法
KR100415313B1 (ko) * 2001-12-24 2004-01-16 한국전자통신연구원 동영상에서 상관 정합과 시스템 모델을 이용한 광류와카메라 움직임 산출 장치
JP3776094B2 (ja) 2002-05-09 2006-05-17 松下電器産業株式会社 監視装置、監視方法および監視用プログラム
JP2004013615A (ja) 2002-06-07 2004-01-15 Matsushita Electric Ind Co Ltd 移動物体監視装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011003181A (ja) * 2009-06-17 2011-01-06 Kyocera Mita Corp 原稿傾斜角検出方法及び原稿傾斜角検出装置
CN102096928A (zh) * 2011-01-27 2011-06-15 浙江工业大学 一种视频监控中基于角度的徘徊轨迹检测方法
US9031355B2 (en) 2011-12-29 2015-05-12 Samsung Techwin Co., Ltd. Method of system for image stabilization through image processing, and zoom camera including image stabilization function
KR20190007758A (ko) * 2017-07-13 2019-01-23 한화디펜스 주식회사 영상 처리 시스템 및 그에 의한 영상 처리 방법
KR102369802B1 (ko) * 2017-07-13 2022-03-04 한화디펜스 주식회사 영상 처리 시스템 및 그에 의한 영상 처리 방법
JP2021096167A (ja) * 2019-12-17 2021-06-24 株式会社竹中工務店 画像処理装置及び画像処理プログラム
JP7357836B2 (ja) 2019-12-17 2023-10-10 株式会社竹中工務店 画像処理装置及び画像処理プログラム

Also Published As

Publication number Publication date
KR20060070969A (ko) 2006-06-26
CN1848949A (zh) 2006-10-18
KR100738522B1 (ko) 2007-07-11
US20060133785A1 (en) 2006-06-22
EP1677251A2 (en) 2006-07-05

Similar Documents

Publication Publication Date Title
JP2006180479A (ja) ビデオ監視システムにおけるカメラ/物体の動き区分及び客体抽出装置並びにその方法
CN100504910C (zh) 人的检测方法和设备
EP2365420B1 (en) System and method for hand gesture recognition for remote control of an internet protocol TV
KR101735365B1 (ko) 학습 기반의 영상 내 관심 물체 검지 및 환경 변화에 강인한 물체 추적 방법
KR100879623B1 (ko) Ptz 카메라를 이용한 자동화된 광역 감시 시스템 및 그방법
JP2012118698A (ja) 画像処理装置
JP2006268097A (ja) 車載物体検出装置、および物体検出方法
KR20170056860A (ko) 이미지 생성 방법 및 장치
JP2007052645A (ja) 路面標示認識装置及びシステム
WO2013103591A1 (en) Context aware moving object detection
JPH0944685A (ja) 顔画像処理装置
JP3063504B2 (ja) 画像データの特徴量検出装置
US8665329B2 (en) Apparatus for automatically ignoring cast self shadows to increase the effectiveness of video analytics based surveillance systems
JP2017041132A (ja) 車両検出装置、車両検出システム、車両検出方法、及び車両検出プログラム
KR20110030951A (ko) 동작 검출 장치 및 방법
CN114140745A (zh) 施工现场人员属性检测方法、系统、装置及介质
JPWO2008035411A1 (ja) 移動体情報検出装置、移動体情報検出方法および移動体情報検出プログラム
CN117671799B (zh) 结合深度测量的人体跌倒检测方法、装置、设备及介质
KR101146417B1 (ko) 무인 감시 로봇에서 중요 얼굴 추적 장치 및 방법
CN109063600A (zh) 基于面部识别的人体运动追踪方法及装置
CN113657250A (zh) 一种基于监控视频的火焰检测方法及系统
KR101290517B1 (ko) 촬영장치 및 이의 대상 추적방법
JP4302801B2 (ja) 物体追跡方法及び物体追跡装置
JP2006209442A (ja) 眼位置検出装置
JP2008130015A (ja) 被写体識別プログラム、および被写体識別装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080819

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090203