JP6185919B2 - 人物検出モダリティ結果を融合して人物カウンティングを向上させる方法及びシステム - Google Patents

人物検出モダリティ結果を融合して人物カウンティングを向上させる方法及びシステム Download PDF

Info

Publication number
JP6185919B2
JP6185919B2 JP2014540637A JP2014540637A JP6185919B2 JP 6185919 B2 JP6185919 B2 JP 6185919B2 JP 2014540637 A JP2014540637 A JP 2014540637A JP 2014540637 A JP2014540637 A JP 2014540637A JP 6185919 B2 JP6185919 B2 JP 6185919B2
Authority
JP
Japan
Prior art keywords
person
detection
count value
frame
accuracy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014540637A
Other languages
English (en)
Other versions
JP2014532947A (ja
Inventor
グプタ、ロイット
シンハ、アニルダッハ
パル、アルパン
チャクラヴォルティ、アリトラ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tata Consultancy Services Ltd
Original Assignee
Tata Consultancy Services Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tata Consultancy Services Ltd filed Critical Tata Consultancy Services Ltd
Publication of JP2014532947A publication Critical patent/JP2014532947A/ja
Application granted granted Critical
Publication of JP6185919B2 publication Critical patent/JP6185919B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、一般に画像処理の分野に関し、詳細には、画像内の人物をリアルタイムにカウントする精度を高めるための方法及びシステムに関する。
画像またはビデオ内の人物の活動を検出することは非常に重要であり、自動人体検出が重要な成功要因である適用分野、たとえばセキュリティ及び監視、ロボット工学、監視及び高速道路交通システム、自律車両及び自動運転者支援システムなどのために人物の存在を検出することが重要である。同様に、コンピュータ・ビジョン・システムでは、各セグメント内の物体を検出する、及び他の物体から人物を区別するための画像のセグメント化は、依然として難題である。
画像内に出現する多数の視覚的パターンが、複雑さを増大させる。人物検出は、画像内の人物の存在を検出するハードウェア及びソフトウェアの能力を要する。現在、画像内の人物の検出は、さまざまな人物検出技法及びアルゴリズムを使用することにより実現される。このような技法及びアルゴリズムは広く使用されているが、前記技法及びアルゴリズムによりもたらされる結果は、多くの場合、多数の間違った予測を含む。
人物検出及び追跡技法に関連する間違った予測またはエラーを低減することに関連する問題に対処するために、多くの解決策が提案された。人物を検出するためにしばしば取られる技法の1つが、人物をリアルタイムに検出するために、複数の人物検出技法を組み合わせることである。しかしながら、組合せの成功は、各検出技法に関連するエラーにより影響を受ける。このような解決策の1つが、ベイズの融合分類器技法(Bayesian fusion Classifier technique)を使用して処理されたDFAベクトルから、解析される画像を表現するベクトルを教示する、Chengjun Liuの特許文献1で開示された。この方法は、比較的低いエラーの確率及び誤検出率の顔検出を開示するが、2つ以上の技法またはアルゴリズムが関与するとき、解決策の精度の決定に関して依然として言及していない。
米国特許第7,162,076号明細書 インド特許出願第1359/MUM/2011号明細書
したがって、画像内の人物を検出するために適用されるすべての技法の精度を決定することにより、人物検出のために利用可能な複数の技法の間違った予測を低減することができる解決策の技術が必要である。
なお、人物検出モダリティで人物カウントの精度を高めるシステム及び方法を提案すること、本発明の目的となりうる。
また、人物検出モダリティに関連する、信頼できない要因を低減するシステム及び方法を提案すること、本発明の目的となりうる。
また、取り込まれた画像のフレーム中の人物をカウントするための、最も正確な人物検出モダリティを選択するシステム及び方法を提案すること、本発明の目的となりうる。
一様態では、本発明は、事前定義表示エリア内でリアルタイムに取り込まれた画像の少なくとも1つのフレーム中の人物カウンティングの精度を高める方法であって、前記取り込まれた画像の特徴的結果を得るために少なくとも1つの人物検出モダリティを使用することにより、1つまたは複数のフレーム中の人物を検出する、プロセッサに実装されたステップと、人物検出モダリティの得られた特徴的結果間を切り替えることにより、及び事前に計算された活動確率を使用することにより、精度確率を計算する、プロセッサに実装されたステップとを備える方法を開示する。活動確率は、各フレーム中で検出された人物カウントの分散を決定するように適合される。前記方法は、事前定義表示エリア内の人物の場所を検出するための選択技法を使用することにより、人物検出モダリティと活動確率の組合せから、各フレームに対して得られた特徴的結果を選択的に統合する、プロセッサに実装されたステップをさらに備える。人物検出モダリティの組合せは、ベイズの融合技法(Bayesian fusion technique)に基づく。
他の様態では、本発明はまた、事前定義表示エリア内でリアルタイムに取り込まれた画像の少なくとも1つのフレーム中の人物カウンティングの精度を高めるシステムであって、少なくとも1つのモダリティ構成要素が埋め込まれた検出ユニットを備えるシステムを開示する。検出ユニットは、少なくとも1つの人物検出モダリティと協調して人物を検出して、前記取り込まれた画像に関連する特徴的結果を得るように構成される。システムは、各人物検出モダリティに関連する活動確率を計算するように適合された計算モジュールをさらに備える。活動確率は、各フレーム中で検出された人物カウントの分散を決定する。システムは、各フレームに対する各人物検出モダリティから得られた複数の特徴的結果を選択的に統合するように適合された融合プロセッサをさらに備える。
本発明の一実施形態によるシステムのアーキテクチャ 本発明の代替の一実施形態による人物カウント機構を示す説明図 本発明の代替の一実施形態による精度計算のプロセスフロー 本発明の代表的一実施形態を示す説明図 本発明の代表的一実施形態による検出精度の結果を示す説明図 本発明の代表的一実施形態による信頼できない要因に関する結果を示す説明図
次に、本発明の特徴を例示する、本発明のいくつかの実施形態について説明する。
「備える」、「有する」、「含有する」、及び「含む」という用語、ならびにこれらの他の形態は、意味が同等であることが意図され、これらの用語の任意の1つに続く1つまたは複数の項目が、このような1つまたは複数の項目の網羅的列挙であることを意味することも、列挙した1つまたは複数の項目だけに限定されることを意味することもないという点で非限定的である。
また、本明細書及び添付の特許請求の範囲で使用するとき、単数形「a」、「an」、及び「the」は、文脈において特に明記しない限り、複数の指示対象も含む。本明細書で説明するシステム、方法、装置、及びデバイスに類似する、または等価な任意のシステム、方法、装置、及びデバイスを、本発明の実施形態の実現及び試験で使用することができるが、次に、好ましいシステム及び部分について説明する。
開示する実施形態は、本発明の代表的実施形態でしかなく、本発明はさまざまな形態で具体化されてもよい。
本発明は、人物カウンティングの精度を高めるための方法及びシステムに関する。人物カウンティングは、通常、複数の人物検出モダリティを使用することにより実現される。複数の人物検出モダリティ、たとえば、勾配方向ヒストグラム(Histogram Oriented Gradient、HOG)、Haar(ハール)、及び背景差分(Background Subtraction、BG)は、人物画像を検出及び追跡して、人物の数を決定する。複数の人物検出モダリティのうちの各人物検出モダリティは、特定の信頼できない要因関連づけられる。信頼できない要因の例は、ビデオフレームの変動、不適切な人物検出、誤検出などを含む。本発明は信頼できない要因を低減するために、各人物検出モダリティの精度を計算する。信頼できない要因を低減することにより、人物カウントの精度が高まり、さらに、最も高い精度の人物検出モダリティを選択することが可能になる。
本発明のさまざまな様態及び実施形態によれば、本明細書で説明する方法は、コンピュータプロセッサ上で実行されるソフトウェアプログラム(1組のプログラムされた命令)として動作することが意図される。
一様態によれば、図1を参照すると、システム(100)は、複数のフレーム中の画像を取り込むための画像取込デバイス(102)を備える。システム(100)は、人物を検出するように構成された検出ユニット(104)をさらに備える。検出ユニット(104)は、少なくとも1つのフレーム中の人物を検出するために、少なくとも1つの人物検出モダリティを適用するための少なくとも1つのモダリティ構成要素(106)をさらに埋め込まれる。人物検出モダリティは、このように取り込まれた画像(取り込まれた画像と呼ぶ場合がある)に関連する特徴的結果を得るために適用される。特徴的結果は、人物のグレースケール画像の人物カウント値を含む。人物検出モダリティは、Haar、勾配方向ヒストグラム(HOG)、背景差分(BGS)、またはこれらの組合せを含んでもよいが、これらに限定されない。
本発明の一実施形態によれば、システム(100)は、1つまたは複数のフレーム中の人物を追跡するための追跡モジュール(図示せず)をさらに備える。追跡モジュールは、人物を追跡するために、画像内に存在する信頼できない要因で人物を差別化することにより、人物画像をさらに処理する。
システム(100)は、各人物検出モダリティに関連する活動確率を計算するように適合された計算モジュール(108)をさらに備える。活動確率は、各フレーム中で検出された人物カウントの分散を決定するための、取り込まれた画像の各フレーム中の変動の値を提供する。計算モジュール(108)はまた、各人物検出モダリティの精度を決定するための精度確率を計算する。
システム(100)は、検出ユニット(104)及び計算モジュール(108)と通信する融合プロセッサ(110)をさらに備え、画像取込デバイス(102)により取り込まれた画像に関連する特徴的結果、及び各人物検出モダリティに関連する活動確率を選択的に統合するように適合される。
一実施形態によれば、システム(100)は、融合プロセッサ(110)に通信可能に連結された精度エンハンサ(112)をさらに備える。精度エンハンサ(112)は、画像内の人物カウントの精度を高めるために、融合プロセッサ(110)と共に機能する。精度エンハンサ(112)は、回帰モデルを使用することにより、各人物検出モダリティの各々に関連する特徴的結果、及び各人物検出モダリティに関連する活動確率を選択的に統合するモジュール(116)をさらに備える。選択的統合は、最も正確な人物検出モダリティ、または選択された人物検出モダリティを選択するように実現される。
システム(100)は、精度エンハンサ(112)と通信する人物カウンタ(114)をさらに備える。人物カウンタ(114)は、選択された人物検出モダリティに従って人物をカウントするように適合される。好適な人物検出モダリティ(または選択された人物検出モダリティ)は、選択的統合が実現された後に、精度エンハンサ(112)により選択された最も正確な人物検出モダリティである。
一実施形態によれば、図2を参照すると、画像取込デバイス(102)は、現在のフレーム及び先行するフレーム中の人物の画像を取り込む。複数のフレーム中の抽出された画像の1つまたは複数の特徴が、閾値と比較される。閾値は手作業で選択される。閾値は、画像が活動状態の画像であるかどうかを決定するのに役立つ。活動状態の画像は、固定していないフレームで取り込まれた画像である。活動状態は、活動確率に関して計算モジュール(108)により計算される。
次いで、検出ユニット(104)により、少なくとも1つの人物検出モダリティを使用することにより、1つまたは複数のフレーム中で人物が検出される。図2をさらに参照すると、ステップ202に示すように、検出ユニット(104)は、人物を検出するために、前景抽出を適用する。検出ユニット(104)は、人体を検出するために、勾配方向ヒストグラム(HOG)をさらに適用する。高速物体を検出するために、線形SVMのカスケーディングが行われる。この場合、物体は人物を指す。検出ユニット(104)は、人物の顔を検出するために、Haar特徴抽出をさらに適用する。背景差分(BGS)を使用することにより、背景変化が検出される(特許文献2参照)。
図1を再度参照すると、計算モジュール(108)は活動確率を計算する。計算モジュール(108)は、人物検出モダリティから得られた特徴的結果の間を切り替えることにより、及び事前計算された活動確率の値を使用することにより、各人物検出モダリティの精度確率をさらに計算する。活動確率は、各ビデオフレーム中で検出された人物カウントの分散を決定する。
図2を参照すると、ステップ204に示すように、融合プロセッサ(110)は、選択技法を使用することにより人物検出モダリティの各々から得られた特徴的結果の組合せを生成する。人物の場所を検出するために、及び各人物検出モダリティに関連する信頼できない要因を低減するために、上記の組合せ(すなわち、HOG、HAAR、勾配方向ヒストグラム、及びBGS)の特徴的結果を選択的に統合することが実現される。
一実施形態によれば、1つまたは複数の人物検出モダリティの組合せを実現するために使用される選択技法は、ベイズの融合技法である。ベイズの融合により、人物検出モダリティの分類成果が改善される。個々の人物検出モダリティ(Haar、勾配方向ヒストグラム(HOG)、背景差分(BGS))が、それ自体の特徴的結果を提供する。分類システムは、各人物検出モダリティに関連する活動確率を観察することにより、物体が人物クラス(H)に属するかどうかを決定する。ベイズの融合技法のベイズ分類器は、特徴的結果を任意の事前p(H)と融合して、大域コンセンサス事後確率p(H/Z)に至り、ここで、Z=∪{Z}∀iである。p(H)は、クラスタイプHの事前確率であり、Z={HOG、BGS、Haar}である。勾配方向ヒストグラム(HOG)分類器は、p(H/ZHOG)により人物クラスHに属する物体の事後確率について記述する。同様に、p(H/ZBGS)及びp(H/ZHaar)は、その他の2つの人物検出モダリティにより与えられる。同じ重要性の、すなわち同じ検出信頼水準の、これらの情報キューが、情報融合過程で与えられるべきであると仮定する。情報融合は、ベイズのモデル化手法を使用して対処される。
一実施形態によれば、図3を参照すると、画像取込デバイス(102)は、複数のフレーム中の、たとえば、古いフレーム及び新しいフレーム中の画像を取り込む。ステップ208に示すように、両フレームの特徴値の差を取った後に、マトリックスを準備する。特徴値は、画像の画素値である。マトリックスを使用して、画素値の標準偏差及び平均を計算する。ステップ202に示すように、検出ユニット(104)は人物検出モダリティのうち少なくとも1つを1つまたは複数の組合せでさらに適用する。具体的な例では、組合せは、勾配方向ヒストグラム(HOG)、背景差分、及びHaarの組合せ、または勾配方向ヒストグラム(HOG)及び背景差分(BG)の組合せを含む
同時分布から開始して、結合規則を再帰的に適用して、分解を得る。
Figure 0006185919
式(1)は、異なる人物検出モダリティから得られる観察結果が独立であると仮定する。多感覚応用システムでは、各情報源が共通に有する唯一のパラメータが状態であるので、各情報源の尤度p(Z/H)、i=1,…,nが独立であるという主張は合理的である。情報融合を定義する条件付き確率を(2)のように書くことができる。
Figure 0006185919
図3を再度参照すると、各人物検出モダリティから得られる特徴的結果は、グレースケール画像の人物カウント値を含む。特徴的結果を計算する間に、1組のマトリックスを形成してもよく、マトリックスでは、成分が、グレースケール画像の画素値を含んでもよい。ステップ210に示すように、マトリックスは、顕著な活動が発生したフレームを識別するために、融合プロセッサ(110)及び精度エンハンサ(112)により処理される。これにより、各フレームの活動の尺度が与えられる。先行するフレームから画素値が大きく変化する場合に、顕著な活動が出現する。このとき、マトリックスは、画素値の異なる成分を有し、処理される。
図3を再度参照すると、ステップ212及び214に示すように、精度エンハンサ(112)は、1つまたは複数の人物検出モダリティにより得られた特徴的結果、及び各人物検出モダリティに関連する活動確率に回帰モデルを適用することにより、精度を高める。第1のステップは、情報源として画素値の平均及び標準偏差を選ぶことである。平均及び標準偏差値は、活動確率に回帰モデルを適用するための入力共変量(少なくとも2つの変数の組合せ)とみなされ、精度確率は、活動確率値を使用することにより計算される。
共変量(共変量ベクトルCV=[平均,分散]に対して、V=[1,平均,分散]とし、ロジスティック回帰yの値が以下の分布を有する。
Figure 0006185919
Figure 0006185919
であり、ここで、αは推定されるモデルのベクトルパラメータである。
出力値が事前に決められている、サイズkのサンプルが存在するとする。この事前決定は、手作業による決定であってもよい。yは、i=1,2,3,…,kに対して既知である。αの関数である尤度関数L(α)は、次式で与えられる。
Figure 0006185919
αに対して尤度関数L(α)を最大にして、L(α)を最大にするαの値として、以下の推定値を得る。
Figure 0006185919
これらのパラメータの助けを借りて、活動確率の値を計算する。これらの値は、活動状態の尺度を提供する。具体的な例として、0.7より大きな確率値が、所望の、固定していないフレームを示す。この活動確率の助けを借りて、計算モジュール(108)は、各人物検出モダリティの精度を決定するための精度確率を計算する。
図3を再度参照すると、ステップ212に示すように、回帰モデルの入力として、人物検出モダリティの出力が存在する。具体的な例として、フレームレベルで、3つの人物検出モダリティの出力が存在する。各フレームに対して、出力X=Haar、X=HOG+BG、及びX=HOG+BG+Haarがあるとする。これらのXのすべてが、整数の値を取るカテゴリ変数である。
その他の入力が、各人物検出モダリティに対して計算された活動確率Pである。
共変量として、1組の独立した対照が入力に基づき入念に選ばれ、活動確率は、共変量として変化しないとみなされる。
換言すれば、共変量は以下である。
CV=X−X
CV=X−X
CV=P。
次式を考えてみる。
Figure 0006185919
Figure 0006185919
モデルが、関数
Figure 0006185919
である。これらの関数のクラスの中の最良の要素を選ぶ。しかし、このクラスの中の最良の要素が、確率値1を有するグラウンド・トルース・データに出力が最も近い回帰モデルであることは明らかである(手作業で決定されたグラウンドトルースが、小さなサンプルで利用可能である)。
特殊なクラスの関数f(CV)=g(α’V)を考えてみる。ここで、Vは、CV上の初等変換である。利用可能な観察されたデータ、またはサンプルから、回帰モデルが最良の成果を与える、マトリックスαの最適値を決定する。gが平滑な凸関数(一定次数までゼロではない正の導関数を有する関数を意味する)、たとえば、α’Vの個々の行に対する論理関数のベクトルであることが一般に考えられる。
CVがnの値
Figure 0006185919
を取るとして、i番目の共変量に対して、n−1の指標変数
Figure 0006185919
を、i=1,2;j=1,2,3,…,nに対してIi,j=Ind(CV=ki,j)として導入する。このとき、この変換されたベクトルは、以下のように定義される。
Figure 0006185919
グラウンド・トルース・データは、所望の出力ベクトルY=(y,y,y)のサンプルをもたらす。yのうち1つが1であり、残りがゼロである。回帰モデルを得るために、フレームレベルの値から、パラメータの関数が構築され、パラメータに対して最大化される。
gが論理関数のベクトルであるとする。Vがmの要素を有するとする。α=[α,α]について考えてみる、ここで、α及びαは長さmのベクトルである。
このとき、g(α’V)=g([α,α]’V)=[p(α’V),p(α’V),p(α’V)]’であり、ここで、pは、
(α’V)=exp(α’V)/[1+exp(α’V)+exp(α’V)]、
(α’V)=exp(α’V)/[1+exp(α’V)+exp(α’V)]、及び
(α’V)=(1−[p(α’V)+p(α’V)])
のように定義される。
サイズkのサンプルがあるとする。このとき、尤度関数は次式となる。
Figure 0006185919
Fisherのスコアリング法を使用して、αの最尤推定値と呼ばれる推定値
Figure 0006185919
を得ることにより、αに関して尤度関数L(α)を最大化する。
図3を参照すると、ステップ214に示すように、パラメータを導出した後、回帰モデルを使用して計算した、事前に計算された活動確率を使用することにより、計算モジュール(108)により精度確率を計算する。ステップ216に示すように、信頼できない要因を低減するために、最大確率を有する人物検出モダリティを選択する。最大確率を有する人物検出モダリティが2つ以上あるときには、ランダムに選択する。
図2及び図3を参照すると、ステップ206に示すように、このとき、人物カウンタ(114)は、変動のないフレームを考慮すると共に、窓の中で最大確率を有する人物検出モダリティを使用することにより、人物をカウントする。
本発明を機能させるための最良の形態/実施例:
図4を参照すると、人物を検出及びカウントするために、複数の人物検出モダリティがグループで、または個別に使用される。これらをアルゴリズムと呼ぶ。これらのアルゴリズムは、トレーニング及び試験のために使用される。グラウンド・トルース・データは、手作業で選択された参照用データを含む。人物検出モダリティの選択を以下に示す。
Algo1−Haar、
Algo2−勾配方向ヒストグラム(HOG)+背景差分(BG)
Algo3−Haar+勾配方向ヒストグラム(HOG)+背景差分(BG)、
であり、Algoはアルゴリズムを意味する。
所定のグラウンド・トルース・データの助けを借りて、所望のパラメータを手作業で生成する。Algo1、Algo2、及びAlgo3について、計算モジュール(108)が活動確率を計算し、活動確率をそれぞれProb1、Prob2、及びProb3とする。融合プロセッサ(110)及び精度エンハンサ(112)を用いて、回帰モデルを適用することにより、これらのアルゴリズムの選択的統合を実現する。Algo1、Algo2、及びAlgo3について計算した検出率及び誤検出を以下の表に示す。
表1及び表2:検出率及び誤検出
Figure 0006185919
Figure 0006185919
図5及び図6は、それぞれ検出率及び誤検出を示すために、表1及び表2から得られた結果のグラフ表示を示す。
上述の表で、最大精度確率を有するアルゴリズムが選択される。
上記の手法を使って、検出精度を維持しながら、信頼できない要因または誤検出の低減が、40%から20%以下まで達成される。
さまざまな様態及び実施形態に関連して説明した方法論及び技法は、1組の命令が、実行されたときに、上記で説明した方法論のうち任意の1つまたは複数を機械に実現させてもよい機械または他のコンピューティングデバイスを使用して実現されることができる。機械は、バスを介して互いに通信するプロセッサ(たとえば、中央処理装置(CPU)、グラフィック処理装置(GPU)、または両方)、メインメモリ、及びスタティックメモリを含んでもよい。ディスク・ドライブ・ユニットが、上記で例示したこれらの方法を含む、本明細書で説明する方法論または機能のうち任意の1つまたは複数を具体化する1つまたは複数の組のプログラムされた命令(たとえば、ソフトウェア)が記憶された機械可読媒体を含んでもよい。命令はまた、メインメモリ、スタティックメモリ内部に、及び/または機械により命令が実行される間にプロセッサ内部に、全部または少なくとも一部、存在してもよい。メインメモリ及びプロセッサはまた、機械可読媒体を構成してもよい。
さまざまな様態、実施形態、及び図面を参照して、上記の説明を提示した。説明した動作の構造及び方法の代替形態及び変更形態が、原理及び範囲を有意に逸脱することなく実施することができる。

Claims (15)

  1. 事前定義表示エリア内で取り込まれた画像の少なくとも1つのフレーム中のリアルタイム人物カウンティングの精度を高める方法であって、プロセッサにより、
    数の人物検出モダリティのうちの少なくとも2つの人物検出モダリティを使用することにより、前記取り込まれた画像の1つまたは複数のフレーム中の少なくとも1人の人物を検出して、検出された前記少なくとも1人の人物を含む前記取り込まれた画像に対する人物カウント値を、前記人物検出モダリティの各々に対して計算するステップと
    前記人物検出モダリティの各々に関する各フレーム中の前記人物カウント値の分散を決定するために使用される、前記取り込まれた画像の各フレーム中の人物画像の変動の値を提供すると共に、各フレーム中の活動の尺度を示す活動確率を計算するステップと、
    前記人物の場所を検出するために、回帰モデルを適用することにより、各フレームに対する前記人物検出モダリティの各々の前記人物カウント値、及び前記活動確率を選択的に統合すると共に、修正された人物カウント値を導出するために、前記取り込まれた画像における前記少なくとも1人の人物の検出に関して信頼できない要因を低減するステップと、を有する
    ことを特徴とする方法。
  2. 前記人物カウント値に基づき、各人物検出モダリティの精度を示す精度確率が最大である最大精度確率を有する前記少なくとも2つの人物検出モダリティを選択することにより、各フレーム内部の前記人物カウントの精度を高めるステップを有する
    請求項1に記載の方法。
  3. 前記精度は、各人物検出モダリティの前記精度確率を計算するために、前記画像の各フレーム内部の前記活動確率及び前記人物カウント値前記回帰モデルを適用することにより高められる
    請求項2に記載の方法。
  4. 前記人物検出モダリティの各々に対して計算された活動確率は、前記画像の入力共変量を比較するための所定の値を含むグラウンド・トルース・データに近い値を提供する
    請求項1に記載の方法。
  5. 前記検出ステップは、少なくとも1つの画像取込デバイスの前記事前定義表示エリア内部で前記少なくとも1人の人物をリアルタイムに追跡することを有する
    請求項1に記載の方法。
  6. 前記少なくとも1人の人物を検出する前記ステップは、
    Haarを使用して人物の顔を検出すること
    勾配方向ヒストグラム(Histogram Oriented Gradient、HOG)を使用して体を検出すること、並びに、
    背景差分(Background Subtraction、BGS)、またはHaar、HOG、及びBGSの組合せを使用して前記人体に関連する背景の変化を検出することのうち少なくとも1つを有する
    請求項1に記載の方法。
  7. 前記人物カウント値は、前記少なくとも1人の人物を含むグレースケール画像に関する
    請求項1に記載の方法。
  8. 前記人物カウント値及び前記活動確率を選択的に統合するために使用される融合技法は、選択技法である
    請求項1に記載の方法。
  9. Haar、HOG、及びBGSの前記組合せは、ベイズの融合技法に基づく
    請求項に記載の方法。
  10. 事前定義表示エリア内で取り込まれた画像の少なくとも1つのフレーム中のリアルタイム人物カウンティングの精度を高めるシステムであって、
    複数の人物検出モダリティのうちの少なくとも2つの人物検出モダリティと協調して、前記取り込まれた画像の複数の人物検出モダリティから少なくとも1人の人物を検出して、検出された少なくとも1人の人物を含む前記取り込まれた画像に対して、前記人物検出モダリティの各々に対して計算された人物カウント値を得るように構成される、複数のモダリティ埋め込まれた検出ユニットと、
    前記取り込まれた画像の各フレーム中の人物画像の変動の値であって、前記人物検出モダリティの各々に関連する各フレーム中の前記人物カウント値の分散を決定するために使用される変動の値を提供すると共に、各フレーム中の活動の尺度を示す活動確率を計算するように適合され計算モジュールと、
    前記人物の場所を正確に検出するために、回帰モデルを適用することにより、各フレームに対する前記人物検出モダリティの各々の前記人物カウント値、及び前記活動確率を選択的に統合すると共に、修正された人物カウント値を導出するために、前記取り込まれた画像における前記少なくとも1人の人物の検出に関して信頼できない要因を低減するように適合された融合プロセッサと、を備える
    ことを特徴とするシステム。
  11. 前記活動確率に基づき、前記人物検出モダリティの各々により、前記人物カウント値を得る際の精度を示す精度確率を計算すると共に、前記人物カウント値に基づき、前記少なくとも2つの人物検出モダリティを選択する精度エンハンサを備える
    請求項10に記載のシステム。
  12. 前記人物検出モダリティは、Haar、勾配方向ヒストグラム(HOG)、背景差分(BGS)、またはこれらの組合せを有する
    請求項10に記載のシステム。
  13. 前記少なくとも1人の人物を検出することは、
    Haarを使用して人物の顔を検出すること、
    勾配方向ヒストグラム(Histogram Oriented Gradient、HOG)を使用して人体を検出すること、並びに、
    背景差分(Background Subtraction、BGS)、またはHaar、HOG、及びBGSの組合せを使用して前記人体に関連する背景の変化を検出することのうち少なくとも1つを有する
    請求項10に記載のシステム。
  14. 前記人物カウント値は、前記少なくとも1人の人物を含むグレースケール画像に関する
    請求項10に記載のシステム。
  15. Haar、HOG、及びBGSの前記組合せは、ベイズの融合技法に基づく
    請求項13に記載のシステム。
JP2014540637A 2011-11-09 2012-11-07 人物検出モダリティ結果を融合して人物カウンティングを向上させる方法及びシステム Active JP6185919B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
IN3167MU2011 2011-11-09
IN3167/MUM/2011 2011-11-09
PCT/IN2012/000733 WO2013105108A1 (en) 2011-11-09 2012-11-07 A system and method for enhancing human counting by fusing results of human detection modalities

Publications (2)

Publication Number Publication Date
JP2014532947A JP2014532947A (ja) 2014-12-08
JP6185919B2 true JP6185919B2 (ja) 2017-08-23

Family

ID=48781106

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014540637A Active JP6185919B2 (ja) 2011-11-09 2012-11-07 人物検出モダリティ結果を融合して人物カウンティングを向上させる方法及びシステム

Country Status (5)

Country Link
US (1) US9619699B2 (ja)
EP (1) EP2776980A4 (ja)
JP (1) JP6185919B2 (ja)
CN (1) CN103975343B (ja)
WO (1) WO2013105108A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IN2013MU03833A (ja) * 2013-12-06 2015-07-31 Tata Consultancy Services Ltd
CN104598929A (zh) * 2015-02-03 2015-05-06 南京邮电大学 一种hog特征快速提取方法
EP3182331A1 (en) 2015-12-14 2017-06-21 Tata Consultancy Services Limited Method and system to detect objects using block based histogram of oriented gradients
ITUB20159615A1 (it) * 2015-12-29 2017-06-29 Universita’ Degli Studi Di Trieste Metodo per il rilevamento del traffico pedonale in uno spazio.
US9638800B1 (en) 2016-11-22 2017-05-02 4Sense, Inc. Passive tracking system
US9720086B1 (en) 2016-11-22 2017-08-01 4Sense, Inc. Thermal- and modulated-light-based passive tracking system
US10558886B2 (en) * 2017-11-15 2020-02-11 International Business Machines Corporation Template fusion system and method
CN108197579B (zh) * 2018-01-09 2022-05-20 杭州智诺科技股份有限公司 防护舱中人数的检测方法
CN108596157B (zh) * 2018-05-14 2020-08-07 三峡大学 一种基于运动检测的人群惊扰场景检测方法及系统
EP3620978A1 (de) * 2018-09-07 2020-03-11 Ibeo Automotive Systems GmbH Verfahren und vorrichtung zur klassifizierung von objekten

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6499025B1 (en) * 1999-06-01 2002-12-24 Microsoft Corporation System and method for tracking objects by fusing results of multiple sensing modalities
US6502082B1 (en) * 1999-06-01 2002-12-31 Microsoft Corp Modality fusion for object tracking with training system and method
JP3571628B2 (ja) * 2000-08-31 2004-09-29 三菱電機株式会社 画像処理装置
US7058205B2 (en) * 2001-12-07 2006-06-06 Xerox Corporation Robust, on-line, view-based appearance models for visual motion analysis and visual tracking
US7162076B2 (en) 2003-02-11 2007-01-09 New Jersey Institute Of Technology Face detection method and apparatus
US8228382B2 (en) * 2005-11-05 2012-07-24 Ram Pattikonda System and method for counting people
JP5121508B2 (ja) * 2008-03-03 2013-01-16 キヤノン株式会社 画像処理装置、画像処理方法、プログラム及び記憶媒体
US8411963B2 (en) * 2008-08-08 2013-04-02 The Nielsen Company (U.S.), Llc Methods and apparatus to count persons in a monitored environment
US8295545B2 (en) * 2008-11-17 2012-10-23 International Business Machines Corporation System and method for model based people counting
JP2010266983A (ja) * 2009-05-13 2010-11-25 Sony Corp 情報処理装置及び方法、学習装置および方法、プログラム、並びに情報処理システム
CN101877058B (zh) * 2010-02-10 2012-07-25 杭州海康威视软件有限公司 人流量统计的方法及系统
JP2011215695A (ja) * 2010-03-31 2011-10-27 Sony Corp 移動物体検出装置及び方法、並びにプログラム
CN101964056B (zh) * 2010-10-26 2012-06-27 徐勇 一种具有活体检测功能的双模态人脸认证方法和系统
CN102063613B (zh) * 2010-12-28 2012-12-05 北京智安邦科技有限公司 基于头部识别的人群计数方法及装置
CN102194108B (zh) * 2011-05-13 2013-01-23 华南理工大学 一种聚类线性鉴别分析特征选择的笑脸表情识别方法

Also Published As

Publication number Publication date
JP2014532947A (ja) 2014-12-08
CN103975343B (zh) 2018-06-01
US20140369561A1 (en) 2014-12-18
US9619699B2 (en) 2017-04-11
EP2776980A4 (en) 2015-09-09
CN103975343A (zh) 2014-08-06
WO2013105108A1 (en) 2013-07-18
EP2776980A1 (en) 2014-09-17

Similar Documents

Publication Publication Date Title
JP6185919B2 (ja) 人物検出モダリティ結果を融合して人物カウンティングを向上させる方法及びシステム
US11861937B2 (en) Facial verification method and apparatus
CN106557726B (zh) 一种带静默式活体检测的人脸身份认证系统及其方法
JP5712774B2 (ja) 物体検知方法及び装置
EP2192549B1 (en) Target tracking device and target tracking method
US10984252B2 (en) Apparatus and method for analyzing people flows in image
US9251400B2 (en) Learning apparatus, method for controlling learning apparatus, detection apparatus, method for controlling detection apparatus and storage medium
US8218818B2 (en) Foreground object tracking
US8175333B2 (en) Estimator identifier component for behavioral recognition system
CN106557723B (zh) 一种带交互式活体检测的人脸身份认证系统及其方法
Rangesh et al. Driver gaze estimation in the real world: Overcoming the eyeglass challenge
US20110052003A1 (en) Foreground object detection in a video surveillance system
JP7166784B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6833708B2 (ja) 非同期信号を処理するための方法
JP2010003117A (ja) 対象物判定装置及びプログラム
Saif et al. Robust drowsiness detection for vehicle driver using deep convolutional neural network
CN106250878B (zh) 一种结合可见光和红外图像的多模态目标跟踪方法
Santos et al. Car recognition based on back lights and rear view features
JP2010003116A (ja) 対象物判定装置及びプログラム
Makris et al. Robust 3d human pose estimation guided by filtered subsets of body keypoints
WO2018107748A1 (zh) 一种路径检测方法及装置
Min et al. COEB-SLAM: A Robust VSLAM in Dynamic Environments Combined Object Detection, Epipolar Geometry Constraint, and Blur Filtering
CN112329510A (zh) 跨域度量学习系统和方法
WO2009096208A1 (ja) 物体認識システム,物体認識方法および物体認識用プログラム
Xu et al. Denoising for dynamic vision sensor based on augmented spatiotemporal correlation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150521

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170728

R150 Certificate of patent or registration of utility model

Ref document number: 6185919

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250