JP5259798B2 - 映像解析方法およびシステム - Google Patents

映像解析方法およびシステム Download PDF

Info

Publication number
JP5259798B2
JP5259798B2 JP2011204623A JP2011204623A JP5259798B2 JP 5259798 B2 JP5259798 B2 JP 5259798B2 JP 2011204623 A JP2011204623 A JP 2011204623A JP 2011204623 A JP2011204623 A JP 2011204623A JP 5259798 B2 JP5259798 B2 JP 5259798B2
Authority
JP
Japan
Prior art keywords
histogram
comparison
optic
optic flow
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011204623A
Other languages
English (en)
Other versions
JP2012084140A (ja
Inventor
マキ、アツト
パーベット、フランク
ステンガー、ビョルン
ウッドフォード、オリバー
シポラ、ロベルト
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Publication of JP2012084140A publication Critical patent/JP2012084140A/ja
Application granted granted Critical
Publication of JP5259798B2 publication Critical patent/JP5259798B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Description

本明細書に記述された実施形態は、一般に、映像シーケンスの特徴認識に関する。映像シーケンス中で特徴が認識される場合、その特徴には映像シーケンスの属性に基づいてクラスが割り当てられる。
映像シーケンスの特徴認識には多くの応用がある。そのような応用の1つは歩行者認識である。歩行者認識法では、映像シーケンスの特徴は、歩行者であるもの、あるいは歩行者でないもの、に分類される。
映像シーケンス中では、歩行者の動きとアピアランスは変化しうる。歩行者は静止していたり、さまざまな方向に移動したりする。歩行者のアピアランスは、さまざまな歩行の様相に応じて変化しうる。また、歩行者が映像中のオブジェクトによって遮蔽されていたり、荷物のようなオブジェクトに繋がっている場合もある。これらの場合にも映像シーケンスにおいて観察される歩行者の形状は変化しうる。
映像シーケンスの特徴を例えば歩行者として正確に分類するためには、映像解析手法は、上述した要因のうちのいくつかあるいはすべてについて説明できなくてはならない。
以下では、発明の実施形態は図面を参照して説明される。
映像シーケンスの特徴を分類するためのデータ処理システムのブロック図である。 映像シーケンスのフレーム中の特徴を分類する方法のフローチャートである。 映像シーケンスから特徴を抽出する方法を示す概要図である。 映像シーケンスにおける歩行者検出結果の比較を示すグラフである。 映像シーケンスのフレーム中での歩行者検出の例を示す図である。 歩行者検出システムのブロック図を示す図である。
一実施形態によれば、映像シーケンスの特徴を分類する方法は、映像シーケンスのフレームの、特徴を含んでいる対象領域を選択すること、この対象領域を複数のセルに分割すること、セルによりオプティックフローのヒストグラムを計算すること、セル対についてのオプティックフローのヒストグラムを比較すること、比較の結果の少なくとも一部に基づいて特徴をクラスに割り当てることを含む。
この実施形態において、映像シーケンスの特徴は、これらをクラスに割り当てることにより認識される。クラスへの割り当ては、オプティックフローのヒストグラムの比較に基づく。映像シーケンスのフレームについてのオプティックフローフィールドは、フレーム間でのフレーム部分の動きを示す。オプティックフローフィールドは、フレーム間でのフレームの各ピクセルの動きを示すことができる。またオプティックフローフィールドは、フレーム間でのピクセルブロックの動きを示すこともできる。オプティックフローのヒストグラムは、対象領域のセルについて計算される。オプティックフローのヒストグラムを比較することにより、対象領域のさまざまな部分の動きの相関を識別することができる。これらの相関は、映像シーケンスのフレーム中の歩行者のような、特別な特徴の存在を示すことができる。比較の結果、対象領域中の特徴はクラスに割り当てられる。
一実施形態によれば、前記方法は、映像シーケンスのフレームについて画像解析を行なうことをさらに含む。画像解析の結果と、オプティックフローのヒストグラム比較の結果とが、特徴を分類するのに用いられる。
この実施形態では、映像中の特徴は、動きおよび画像認識結果の両方に基づいて分類される。これは、形状といった静止画像の特性および動きの特性の両方が映像シーケンスの特徴を識別するのに用いられることを意味する。
一実施形態によれば、前記画像解析は、対象領域に対応する静止画像について勾配方向ヒストグラムを計算することを含んでいる。勾配方向ヒストグラムは画像中の形を認識する方法である。
一実施形態によれば、特徴をクラスに割り当てるためにランダム決定森が用いられる。ランダム決定森は、トレーニングデータを用いて、前記方法を実行するのに先だって訓練される。トレーニングデータは、分類が既知の映像シーケンスの集合に相当する。
一実施形態によれば、前記方法は映像シーケンスの歩行者を識別するために用いられる。特徴は、該特徴が歩行者に相当するかどうか判断することによりクラスに割り当てられる。
一実施形態によれば、各セルのオプティックフローフィールドは、フレーム間の映像シーケンスのフレーム部分の仮現運動の大きさおよび方向を示すベクトルを含んでいる。オプティックフローのヒストグラムの計算は、ベクトルの方向に基づいて、オプティックフローの各ベクトルをビンに割り当てることを含んでいる。
一実施形態によれば、フレームについてのオプティックフローフィールドはチャネルに記憶される。各チャネルは、オプティックフローのベクトルの方位範囲に対応する。
一実施形態によれば、オプティックフローフィールドはインテグラルイメージとして記憶される。
一実施形態によれば、前記方法は、各セルのオプティックフローフィールドから対象領域について全体的に観察されたオプティックフローを減じることにより、映像シーケンスのカメラモーションを補償すること含んでいる。
更なる実施形態によれば、上述の実施形態に従う方法をコンピュータに実行させるためのコンピュータ可読媒体が提供される。
更なる実施形態によれば、上述の実施形態に従う方法を実行するための映像解析システムが提供される。
図1は、映像シーケンスの特徴を分類するためのデータ処理システム100を示す。データ処理システム100は、プロセッサ102、メモリ104、入力モジュール108および出力モジュール110を含む。メモリ104は、映像シーケンスの特徴を分類するためのプログラム106を記憶する。プログラム106は、プロセッサ102上で実行することができる。入力モジュール108は、解析用の映像シーケンスの入力を受け取って該映像シーケンスの特徴を分類することができる。出力モジュール110は、その分類の結果を出力することができる。該入力モジュールは、映像シーケンスのフレーム間の動きを示すオプティックフローデータを受け取ることができる。あるいは、プロセッサが、入力映像シーケンスからオプティックフローデータを計算するように機能してもよい。入力モジュール108は、ビデオカメラまたは映像レコーダから映像データを受け取ることが可能なデータ接続部とすることができる。入力モジュール108は、インターネットのようなネットワーク上の映像データを受信することができるネットワーク接続部であってもよい。データ処理システム100は、従来型のコンピュータであってもよい。以下では、プログラム106が行う方法について説明する。
図2は、映像シーケンスのフレーム中の特徴を分類するための方法のフローチャートを示す。この方法は、特徴のさまざまな部分の動きにおける相関に基づいて映像中の特徴を分類するためにオプティックフローデータを使用する。オプティックフローデータは、映像シーケンスのフレーム間の動きを示すフィールドである。オプティックフローデータは、映像シーケンスの以前のフレームまたは次のフレームについて、フレーム中の各ピクセルの動きを示すことができる。オプティックフローデータは、映像シーケンスのフレーム中のピクセル部分集合の動きを示すことができる。例えば、オプティックフローデータは、フレーム中の1ピクセルおきの動きを示すことができる。オプティックフローフィールドは、フレーム中の点集合の動きの大きさと方向を含んでいる。
方法のステップ202は、フレームの対象領域を選択することである。該方法の以下のステップは、この対象領域に適用される。対象領域は、フレームの画像解析を行ない、特徴候補を識別することにより特定してもよい。あるいは、フレーム中の特定サイズを持っているすべての領域を順次に選択してもよい。
ステップ204において、対象領域は多数のセルに分割される。ステップ206では、対象領域中の各セルについてオプティックフローのヒストグラムが計算される。オプティックフローのヒストグラムは、セル内の各ピクセルのオプティックフロー、あるいは各オプティックフローフィールド単位のオプティックフローに対し、オプティックフローの方向に応じてビンを割り当てることにより計算される。
ステップ208では、セル対のヒストグラムが比較される。該比較の結果を用いることにより、対象領域中の特徴がステップ210において分類される。該分類は、このように対象領域のさまざまな部分の動きの相関に基づく。
上記の説明では、分類は方法の結果を示すために使用される。該分類は、2つのクラス(例えば「歩行者」、「非歩行者」)のうちの一方への分類であってもよい。そのような分類体系は、映像シーケンスの歩行者を識別するために使用されるだろう。
上述したようにフレーム中のさまざまな点のオプティックフローの比較を解析する方法のことを、以下では共起フロー(CoF)と呼ぶ。CoF法は、映像シーケンス中の歩行者を識別する勾配ヒストグラム(HOG)法と共に使用することができる。歩行者の検出のためのHOG法は、N.DalalおよびB.Triggs,「人検知のための勾配方向ヒストグラム」CVPR(1),886*893頁,2005年に記載されている。
この組み合わせた方法において、HOG特徴は、まず配向エッジエネルギー応答の計算を行い、d(=8)の異なる方位で入力画像とoriented odd Gaborフィルタとの畳み込みをとることにより、入力画像から抽出される。このフィルタリングは入力画像全体について行われ、その結果はインテグラルイメージとして記憶される。エリア総和テーブルとしても知られているインテグラルイメージを使用することにより、様々なサイズのウィンドウに関して計算を効率的に行うことができる。j番目の方向のガボールフィルタリングの出力をj=1,...dについてG(j)と示す。
歩行者の識別のために、1:2のアスペクト比を持つ矩形のウィンドウすなわち対象領域が使用される。このウィンドウについては、HOG法に基づく特徴とCoF法に基づく特徴とが計算される。これらの特徴は、フレームの対象領域中のオブジェクトを歩行者あるいは非歩行者に分類するのに当該特徴を利用する、ランダム森分類器のような統計モデルへの入力に用いられる。
対象領域の特徴をHOGを用いて計算する処理は以下のとおりである。候補矩形対象領域について、対象領域のサブ領域であるセル、Rが規定される。セルは、各レベルで2×2・2(l=0,...,lmax)のセルを持つように、MIPマッピングと同様にマルチレベル型でグリッドワイズに生成される。最も細かいレベルで適切な数としてlmax=3が選ばれる。およそこれは、64×128ピクセルサイズのRについて、最下位レベルの各セルが8×8ピクセルから成ることを示す。
セル内の各方位チャネルにおけるガボールフィルタリング{G(j)}の出力の和から、1組の特徴要素f(m,n)∈Rが計算される。m=1,...,2,n=1,...,2+1について、レベルlのセルは、w(m,n)と呼ばれる。
特徴要素の集合は次の式から与えられる。
Figure 0005259798
ここで、(u,v)はR内のローカル座標であり、f(m,n)は全方向についてのフィルタ出力を用いて正規化される。正規化された特徴は次式から与えられる。
Figure 0005259798
多次元のHOG記述子を形成するには、異なるレベルの特徴を連結することによって、より粗いスケールからの出力が組込まれてN−次元のHOG記述子Vが次式のように形成される。
Figure 0005259798
上記のように計算された特徴vは、共起フロー(CoF)方法を用いて計算された特徴に加え、歩行者または非歩行者のいずれかに映像中の移動オブジェクトを分類するのに用いられる。
歩行者識別のために、以下のように特徴を抽出するようCoF法を実施することができる。
図3は、特徴を抽出する方法の概略図を示す。
例えばM.Werlberger,W.Trobin,T.Pock,A.Wedel,D.Cremers,H.Bischof,「異方性フーバーL1オプティカルフロー」(BMVC,2009年)に記載された技術を利用することにより、全体画像300について調整されたフローフィールドが計算される。
フローフィールド302は、画像300上の多数点におけるオプティックフローの方向および大きさを含んでいる。
オプティックフローフィールドは、離散的な方位i=1...bに従って個別のチャネルF(i)として記憶され、後にオプティックフローのヒストグラムにおけるビンに用いられる。したがって、チャネルF(i)は、方向の特定範囲および大きさに対応する出力を表わす。チャネルへの出力は、(エリア総和テーブルとしても知られる)インテグラルイメージ304として記憶される。これにより画像の対象領域のセルについて効率的にヒストグラムを計算することが可能である。
オプティックフローのヒストグラムが、サブ領域306のセルについて計算される。ヒストグラム308は、{F(i)}の各チャネルの関心セルw(n,m)の領域にわたって和を計算することにより構築される。したがって、ヒストグラムのi番目の要素は次のように計算される。
Figure 0005259798
動いているカメラからの映像シーケンスを得る場合、計算されるフローフィールドは、カメラモーションによって影響を受けるだろう。この動きは、ヒストグラムを生成する前に支配的画像フローを減じることにより補償することができる。支配的背景フローは、対象領域サブウインドウR中で全体的に観察されるフローの平均を求めることにより計算される。ヒストグラムのi番目の要素の訂正された値は、次式のように与えられる。
Figure 0005259798
ヒストグラムのビンならびにオプティックフローフィールドの方向が記憶される離散的な方位の範囲は、180度あるいは360度をカバーしうる。ただし、フローフィールドが正数、負数の両方で含まれる場合にヒストグラムを計算するのであれば、ビンの範囲は180度である。したがって、例えば、30度の方向を有するフィールドが、異符号の270度におけるフィールドと同じビンに含まれるだろう。ビンが360度にまたがるときに、各ビンの角度範囲は2倍になり、大きさのみがヒストグラムの計算に用いられることになる。
その後、R内のセル対についてヒストグラム308の比較がなされる。Lノルム310を使用して、各セル対はスカラー値を出力する。該スカラー値を合成してCoF特徴ベクトル312を生成する。
ビンが360度をカバーする場合、ヒストグラムの比較がヒストグラム交差を用いて行なわれ、各ビン対の比較和から計算されたスカラー値を与える。
ある領域のCoF特徴ベクトルおよびHOG特徴ベクトルは、対象領域内の特徴を分類するためにランダム決定森に基づいた分類器に入力される。
独立した2つのランダム森がCoF特徴およびHOG特徴をそれぞれ用いて訓練される。クラス確率分布は、当該2つのランダム森のすべての木にわたって該ランダム森の葉ノードにおいて合成される。
図4は、上述の共起フロー法の単独使用(CoFのみ)、勾配方向ヒストグラム法の単独使用(HOGのみ)、図3を参照して説明したCoF法とHOG法を組み合わせて用いることにより歩行者を検出する方法の使用(HOGとCoF)による、映像シーケンス中の歩行者検出結果の比較を示す。図4から分かるように、各法のいずれかを単独の場合に比べて、CoF法とHOG法を組み合わせた方法は、うまく機能する。
図5は、(a)HOG単独使用、(b)CoF単独使用、(d)HOGとCoFの組み合わせ使用による、歩行者検出の2つの事例を示す。また図5は、CoF法において使用されるオプティックフロー(c)を示す。オプティックフローは、大きさによって色分けされている。図5(a)、(b)および(d)において、紫(モノクロ画像では黒色)の箱は歩行者であるとして検出された特徴を示し、緑(モノクロ画像では白色)の箱は歩行者として検出されるべきだった特徴を示す。
図5の上部の画像中で示される例において、スーツケースを持った路上の女性をHOGは逃しているが、CoFは検出している。CoFは、例えば道を横断するときのように動いている歩行者を発見することが可能な歩行者検出の重要なアプリケーションであることに留意されたい。しかし、CoF法は静止している歩行者を検出しない(HOGでは検出される)。
図5の下部の画像において、CoF法は、フレームの右手側に向かって歩いている人を検出する。これをHOGは逃しているが、恐らく歩行者のズボンが暗い色であることも相まって背景が暗いことによるものである。
このように、2つの方法を組合せて利用することにより、役割の範囲において歩行者を発見することができる。したがって、本出願で説明した方法は、勾配ヒストグラムのような既知の方法をコンプリメントするものである。
図6は、歩行者検出システムを示す。歩行者検出システム600は、ビデオカメラ610および映像解析モジュール620を有する。該映像解析モジュールは、オプティックフローフィールド計算機622と、対象領域選別器624と、フローの共起ベクトル計算機626と、勾配方向ヒストグラム・ベクトル計算機628と、分類器630とを有する。分類器は、2つのランダム決定森、すなわちフローの共起決定森632と勾配方向ヒストグラム決定森634とを記憶する。解析モジュールは、出力モジュール640に付随している。
出力モジュールは、ビデオカメラ610によって記録された映像シーケンスを歩行者を強調して表示するビデオスクリーンであってもよい。出力モジュールは、歩行者の接近を示す信号を出力してもよいし、あるいは特定のポイントを通過する歩行者数の統計を収集するのに用いられる信号を出力してもよい。歩行者検出システム600を自走車両内部に統合してもよい。この応用例では、ビデオカメラ610は自走車両の進行方向に向けられる。多数のカメラを自走車両上に配置し、個々のカメラからの出力を常に解析モジュール620によって監視してもよい。あるいは、自走車両の移動方向によってビデオカメラのうちのいずれか1台に切り替えるよう解析モジュールを構成してもよい。
使用時において、ビデオカメラ610は、自走車両の移動方向の視野の映像シーケンスを捕らえる。オプティックフロー計算機622は、映像シーケンスのフレームのオプティックフローフィールドを計算する。対象領域選別器624は、該映像シーケンスのフレームの対象領域を選択する。対象領域は、上述した勾配方向ヒストグラム法を用いて映像シーケンスのフレーム解析を行なうことにより選択される。対象領域について、フローの共起ベクトル計算機626は、オプティカルフローの共起のベクトルを計算する。フローの共起ベクトル計算機626は、フローの共起ベクトルを計算する場合に、対象領域における支配的なフローを減じることにより映像シーケンスにおける車両の動きを補償する。該ベクトルは、対象領域のベルに関してオプティックフローのヒストグラムを比較することにより計算される。
また勾配方向ヒストグラム・ベクトル計算機628は、対象領域のベクトルを計算する。フローの共起ベクトル計算機626によって計算されたベクトル、および勾配方向ヒストグラム・ベクトル計算機628によって計算されたベクトルは、分類器630に入力される。分類器630は、該ベクトルを用いて対象領域中の特徴を歩行者あるいは非歩行者に分類する。分類器630は、記憶されたランダム決定森632および634を用い、該ベクトルを歩行者あるいは非歩行者のいずれかに関連づけるものとして分類する。出力モジュール640は、映像シーケンスの各フレームについて、歩行者の存在または不存在を示す信号を出力する。
この出力信号は、歩行者が強調された映像シーケンスであってもよい。この映像シーケンスを、自走車両のドライバーが見ることのできるビデオスクリーンに表示してもよい。該出力信号は、自走車両の進路内の歩行者の存在についてドライバーに警報するよう警報器を動作させてもよい。該出力信号が、自動車の操縦装置に直接接続されていて、歩行者の接近により、当該自動車に速度を低下させ、あるいは進路を転換させてもよい。
歩行者検出システム600がショッピングセンターや駅のような公共建造物における歩行者監視システムに統合されてもよい。ビデオカメラは、建物に入る歩行者や建物から出る歩行者の視界に固定されうる。出力信号は、常に、建物に入る歩行者と建物から出る歩行者の数を示すことができる。したがって、歩行者検出システムは、建物への訪問者数の統計値を得ることができ、建物の内部にいる人々の数を常に算出することができる。
ヒストグラム比較結果に基づく映像シーケンスの特徴分類には、ランダム決定森に代えて他の統計分類器を用いてもよい。例えば、サポートベクトルマシン(SVM)のような線形分類器を使用してもよい。エイダブースト(AdaBoost)によって訓練された分類器を使用することもできる。
フレームの静的な特徴解析における特徴分類のために、さまざまなタイプの分類器を用いてもよい。例えば、HOGを使用した解析中に、線形分類器あるいはブースティングされた分類器を使用してもよい。
いくつかの実施形態を説明したが、これらの実施形態は例示のみを目的としており、発明の範囲を制限することは意図されていない。実際には、本明細書で説明した新規の方法およびシステムは他の様々な形で具体化することができ、更に、発明の趣旨から逸脱しない範囲で、本明細書で説明した方法およびシステムの構造における様々な省略置換および変更をなしてもよい。添付の特許請求の範囲およびその均等物は、発明の範囲および趣旨に含まれる構造あるいは改良に及ぶことが意図される。

Claims (17)

  1. 映像シーケンスの特徴を分類する方法であって、
    前記映像シーケンスのフレームの、前記特徴を含んでいる対象領域を選択すること、
    前記対象領域を複数のセルに分割すること、
    前記複数セルのセル内のオプティックフローのヒストグラムを計算すること、
    セル対についての前記オプティックフローのヒストグラムを比較すること、
    前記比較の結果の少なくとも一部に基づいて前記特徴をクラスに割り当てること、を含み、
    各セルのオプティックフローは、大きさと方向を示す複数のベクトルを含み、前記オプティックフローのヒストグラムを計算することは、前記ベクトルの方向に基づいて、セル内のオプティックフローの各ベクトルをビンに割り当てることを含み、
    前記ベクトルの方位範囲が180度の場合には、セル対についての符号付きオプティックフローのヒストグラム比較により出力されるスカラー値に基づく特徴量を前記比較の結果とし、
    前記ベクトルの方位範囲が360度の場合には、前記セル対についてのオプティックフローのヒストグラム比較をヒストグラム交差を用いて行い、各ビン対の比較和から計算されたスカラー値に基づく特徴量を前記比較の結果とすることを含む、方法。
  2. 前記対象領域の画像解析を行うことをさらに含み、前記特徴をクラスに割り当てることは、前記画像解析と、前記比較の結果とに基づく請求項1の方法。
  3. 画像解析を行なうことは、前記対象領域に対応する静止画像について勾配方向ヒストグラムを計算することを含む請求項2の方法。
  4. 前記特徴をクラスに割り当てることは、ランダム決定森分類器を使用することを含む請求項1乃至3のいずれかの方法。
  5. 前記特徴をクラスに割り当てることは、前記映像シーケンス中の歩行者に前記特徴が一致するかどうか判断することを含む請求項1乃至4のいずれかの方法。
  6. 前記フレームの前記オプティックフローを複数のチャネルとして記憶することをさらに含み、各チャネルは、前記オプティックフローのベクトルの方位範囲に対応する請求項の方法。
  7. 前記オプティックフローは、インテグラルイメージとして記憶される請求項の方法。
  8. 各セルの前記オプティックフローから前記対象領域について全体的に観察されたオプティックフローを減じることにより、前記映像シーケンスのカメラモーション補正を行うことをさらに含む請求項乃至のいずれかの方法。
  9. コンピュータ上で実行されたとき、映像シーケンスの特徴を分類する命令をプロセッサに実行させるプログラムであって、前記命令は、
    前記映像シーケンスのフレームの、前記特徴を含んでいる対象領域を選択すること、
    前記対象領域を複数のセルに分割すること、
    前記複数セルのセル内のオプティックフローのヒストグラムを計算すること、
    セル対についての前記オプティックフローのヒストグラムを比較すること、
    前記比較の結果の少なくとも一部に基づいて前記特徴をクラスに割り当てること、を含み、
    各セルのオプティックフローは、大きさと方向を示す複数のベクトルを含み、前記オプティックフローのヒストグラムを計算することは、前記ベクトルの方向に基づいて、セル内のオプティックフローの各ベクトルをビンに割り当てることを含み、
    前記ベクトルの方位範囲が180度の場合には、セル対についての符号付きオプティックフローのヒストグラム比較により出力されるスカラー値に基づく特徴量を前記比較の結果とし、
    前記ベクトルの方位範囲が360度の場合には、前記セル対についてのオプティックフローのヒストグラム比較をヒストグラム交差を用いて行い、各ビン対の比較和から計算されたスカラー値に基づく特徴量を前記比較の結果とすることを含む、プログラム。
  10. 映像シーケンスのフレームを受け取るように動作可能な入力モジュールと、
    記憶モジュールと、
    前記フレームの前記特徴を含んでいる対象領域を選択し、前記対象領域を複数のセルに分割し、前記複数セルのセル内のオプティックフローのヒストグラムを計算し、セル対についての前記オプティックフローのヒストグラムを比較し、前記比較の結果の少なくとも一部に基づいて前記特徴をクラスに割り当てるように動作可能なプロセッサと、
    前記特徴に割り当てられたクラスを示す情報を出力するように動作可能な出力モジュールと、を具備し、
    各セルのオプティックフローは、大きさと方向を示す複数のベクトルを含み、前記オプティックフローのヒストグラムを計算することは、前記ベクトルの方向に基づいて、セル内のオプティックフローの各ベクトルをビンに割り当てることを含み、
    前記ベクトルの方位範囲が180度の場合には、セル対についての符号付きオプティックフローのヒストグラム比較により出力されるスカラー値に基づく特徴量を前記比較の結果とし、
    前記ベクトルの方位範囲が360度の場合には、前記セル対についてのオプティックフローのヒストグラム比較をヒストグラム交差を用いて行い、各ビン対の比較和から計算されたスカラー値に基づく特徴量を前記比較の結果とすることを含む、映像解析システム。
  11. 前記プロセッサは、前記対象領域の画像解析を行うように動作可能であって、前記特徴をクラスに割り当てることは、前記画像解析と前記比較の結果とに基づく請求項10のシステム。
  12. 前記プロセッサは、前記対象領域に対応する、静止画像の勾配方向ヒストグラムを計算することにより画像解析を行なうように動作可能である請求項11のシステム。
  13. 前記プロセッサは、ランダム決定森分類器を用いて前記特徴をクラスに割り当てるように動作可能である請求項10乃至12のいずれかのシステム。
  14. 前記プロセッサは、前記特徴が前記映像シーケンスの歩行者に一致するかどうか判断することによって前記特徴をクラスに割り当てるように動作可能である請求項10乃至13のいずれかのシステム。
  15. 前記フレームのオプティックフローを複数のチャネルとして記憶するためのストレージをさらに具備し、各チャネルは、前記オプティックフローのベクトルの方位範囲に対応する請求項10のシステム。
  16. 前記オプティックフローは、インテグラルイメージとして記憶される請求項15のシステム。
  17. 前記プロセッサは、各セルの前記オプティックフローから前記対象領域について全体的に観察されたオプティックフローを減じることにより、映像シーケンスのカメラモーションを補償するように動作可能である請求項10乃至16のいずれかのシステム。
JP2011204623A 2010-09-30 2011-09-20 映像解析方法およびシステム Expired - Fee Related JP5259798B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GB1016496.0 2010-09-30
GB1016496.0A GB2484133B (en) 2010-09-30 2010-09-30 A video analysis method and system

Publications (2)

Publication Number Publication Date
JP2012084140A JP2012084140A (ja) 2012-04-26
JP5259798B2 true JP5259798B2 (ja) 2013-08-07

Family

ID=43243321

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011204623A Expired - Fee Related JP5259798B2 (ja) 2010-09-30 2011-09-20 映像解析方法およびシステム

Country Status (3)

Country Link
US (1) US8750614B2 (ja)
JP (1) JP5259798B2 (ja)
GB (1) GB2484133B (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2484133B (en) * 2010-09-30 2013-08-14 Toshiba Res Europ Ltd A video analysis method and system
US9141196B2 (en) 2012-04-16 2015-09-22 Qualcomm Incorporated Robust and efficient learning object tracker
KR101407952B1 (ko) 2012-11-09 2014-06-17 전창현 엘리베이터 방범시스템 및 방법
US9251121B2 (en) * 2012-11-21 2016-02-02 Honeywell International Inc. Determining pushback direction
KR101467360B1 (ko) * 2013-07-04 2014-12-03 성균관대학교산학협력단 이동 방향별 보행자 계수 방법 및 장치
CN103336965B (zh) * 2013-07-18 2016-08-31 国家电网公司 基于轮廓差异及区块主方向直方图的前景与特征提取方法
US9514364B2 (en) 2014-05-29 2016-12-06 Qualcomm Incorporated Efficient forest sensing based eye tracking
KR101529620B1 (ko) * 2014-07-28 2015-06-22 성균관대학교산학협력단 이동 방향별 보행자 계수 방법 및 장치
JP6372282B2 (ja) * 2014-09-26 2018-08-15 富士通株式会社 画像処理装置、画像処理方法及びプログラム
MA41117A (fr) 2014-12-05 2017-10-10 Myfiziq Ltd Imagerie d'un corps
US10713501B2 (en) * 2015-08-13 2020-07-14 Ford Global Technologies, Llc Focus system to enhance vehicle vision performance
ITUB20153491A1 (it) * 2015-09-08 2017-03-08 Pitom S N C Metodo e sistema per rilevare la presenza di un individuo in prossimita di un veicolo industriale
CN105208339A (zh) * 2015-09-24 2015-12-30 深圳市哈工大交通电子技术有限公司 一种监控视频识别车辆碰撞的事故检测方法
US10242581B2 (en) * 2016-10-11 2019-03-26 Insitu, Inc. Method and apparatus for target relative guidance
DE102017113794A1 (de) * 2017-06-22 2018-12-27 Connaught Electronics Ltd. Klassifizierung statischer und dynamischer Bildsegmente in einer Fahrerassistenzvorrichtung eines Kraftfahrzeugs
CN108205888B (zh) * 2017-12-22 2021-04-02 北京奇虎科技有限公司 一种判断乘客进出站的方法及装置
JP7156120B2 (ja) * 2019-03-22 2022-10-19 株式会社デンソー 物体認識装置
CN112926385B (zh) * 2021-01-21 2023-01-13 中广(绍兴柯桥)有线信息网络有限公司 监控设备的视频处理方法及相关产品

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3377743B2 (ja) * 1998-01-20 2003-02-17 三菱重工業株式会社 移動体識別装置
US6647131B1 (en) * 1999-08-27 2003-11-11 Intel Corporation Motion detection using normal optical flow
US7778466B1 (en) * 2003-12-02 2010-08-17 Hrl Laboratories, Llc System and method for processing imagery using optical flow histograms
JP3846494B2 (ja) * 2004-07-13 2006-11-15 日産自動車株式会社 移動障害物検出装置
KR100738522B1 (ko) * 2004-12-21 2007-07-11 삼성전자주식회사 비디오 감시 시스템에서 카메라/물체 움직임 구분 및 객체추출 장치 및 그 방법
KR100729660B1 (ko) * 2005-12-09 2007-06-18 한국전자통신연구원 장면 전환 길이를 이용한 디지털 비디오 인식 시스템 및 방법
JP4956273B2 (ja) * 2007-05-17 2012-06-20 日本放送協会 投球球種識別装置、識別器生成装置、投球球種識別プログラム及び識別器生成プログラム
EP2179398B1 (en) * 2007-08-22 2011-03-02 Honda Research Institute Europe GmbH Estimating objects proper motion using optical flow, kinematics and depth information
US8472715B2 (en) * 2007-10-26 2013-06-25 Panasonic Corporation Situation determining apparatus, situation determining method, situation determining program, abnormality determining apparatus, abnormality determining method, abnormality determining program, and congestion estimating apparatus
US20120027295A1 (en) * 2009-04-14 2012-02-02 Koninklijke Philips Electronics N.V. Key frames extraction for video content analysis
US8451384B2 (en) * 2010-07-08 2013-05-28 Spinella Ip Holdings, Inc. System and method for shot change detection in a video sequence
GB2484133B (en) * 2010-09-30 2013-08-14 Toshiba Res Europ Ltd A video analysis method and system
US8774499B2 (en) * 2011-02-28 2014-07-08 Seiko Epson Corporation Embedded optical flow features
US8842883B2 (en) * 2011-11-21 2014-09-23 Seiko Epson Corporation Global classifier with local adaption for objection detection

Also Published As

Publication number Publication date
GB2484133B (en) 2013-08-14
GB2484133A (en) 2012-04-04
GB201016496D0 (en) 2010-11-17
JP2012084140A (ja) 2012-04-26
US8750614B2 (en) 2014-06-10
US20120082381A1 (en) 2012-04-05

Similar Documents

Publication Publication Date Title
JP5259798B2 (ja) 映像解析方法およびシステム
US11948350B2 (en) Method and system for tracking an object
Gavrilescu et al. Faster R-CNN: an approach to real-time object detection
US9008423B2 (en) Method and apparatus for detecting and recognizing object using local binary patterns
Zhang et al. Pedestrian detection in infrared images based on local shape features
JP4999101B2 (ja) 効率的なマルチクラス対象物検出のためにブースト分類器を組み合わせる方法
US8116534B2 (en) Face recognition apparatus and face recognition method
US9008365B2 (en) Systems and methods for pedestrian detection in images
US8345921B1 (en) Object detection with false positive filtering
CN105404886B (zh) 特征模型生成方法和特征模型生成装置
CN107301378B (zh) 图像中多分类器集成的行人检测方法和系统
CN107273832B (zh) 基于积分通道特征与卷积神经网络的车牌识别方法及系统
US20120070041A1 (en) System And Method For Face Verification Using Video Sequence
Hong et al. Fast multi-feature pedestrian detection algorithm based on histogram of oriented gradient using discrete wavelet transform
CN111783665A (zh) 一种动作识别方法、装置、存储介质和电子设备
Promlainak et al. Thai traffic sign detection and recognition for driver assistance
KR102594422B1 (ko) 그라운드에 프로젝트된 오브젝트의 무게 중심을 예측하는 오브젝트 디텍터를 학습하는 방법, 학습된 오브젝트 디텍터를 이용하여 서로 다른 뷰잉 프러스텀을 가지는 복수의 카메라로부터 촬영된 특정 공간 내에서 동일한 오브젝트를 식별하는 방법, 그리고, 이를 이용한 학습 장치 및 오브젝트 식별 장치
Ponsa et al. Cascade of classifiers for vehicle detection
CN112347967A (zh) 一种复杂场景下融合运动信息的行人检测方法
Hbali et al. Object detection based on HOG features: Faces and dual-eyes augmented reality
KR20170104756A (ko) 국부지역별 크기 특정 차량 분류 방법 및 이를 이용한 차량검출방법
Shamimullah et al. A Hybrid Approach for Vehicle Detection and Counting Using Machine Learning Algorithms
Thomas et al. Discovery of compound objects in traffic scenes images with a cnn centered context using open cv
Negri et al. Pedestrian detection on CAVIAR dataset using a movement feature space
Brehar et al. Object detection in monocular infrared images using classification–regresion deep learning architectures

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130424

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160502

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees