JP5384629B2 - 監視ゾーン内の対象物の移動を分類する装置および方法 - Google Patents

監視ゾーン内の対象物の移動を分類する装置および方法 Download PDF

Info

Publication number
JP5384629B2
JP5384629B2 JP2011517299A JP2011517299A JP5384629B2 JP 5384629 B2 JP5384629 B2 JP 5384629B2 JP 2011517299 A JP2011517299 A JP 2011517299A JP 2011517299 A JP2011517299 A JP 2011517299A JP 5384629 B2 JP5384629 B2 JP 5384629B2
Authority
JP
Japan
Prior art keywords
zones
zone
pattern
dimension
absence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011517299A
Other languages
English (en)
Other versions
JP2011527789A (ja
Inventor
ヤコブス ロウブサー,ジェリト
ラントン ホーンバイ,クリストファー
ウィット,レオン ドゥ
タイト ネルソン,ロリー
ヨハネス エラスムス ヴァーミュレン,ピーター
Original Assignee
ノーテック インターナショナル(ピーテーワイ)リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ノーテック インターナショナル(ピーテーワイ)リミテッド filed Critical ノーテック インターナショナル(ピーテーワイ)リミテッド
Publication of JP2011527789A publication Critical patent/JP2011527789A/ja
Application granted granted Critical
Publication of JP5384629B2 publication Critical patent/JP5384629B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Description

本発明は、監視領域内の対象物の移動を監視する装置および方法に関する。
米国特許第5,519784号明細書において、通路に沿った対象物の移動を分類する装置および方法が開示されている。装置は、通路の一方の側から通路の対向する側に一連の別個の間隔をあけた平行直線放射線ビームを投射する手段を備える。通路の対向する側にある検出器は、ビームが、第1および第2の対向する方向のいずれかに通路内を移動している1人または複数の人物によって遮られるときに感知する。間隔をあけたビームは、人物の数および移動方向に対応して、連続して異なる時点で遮られる。連続して生成された遮られたビーム信号は、対象物の移動履歴情報としてメモリに格納され、次いで人物の数および移動の方向を明示する合成ビーム遮断パターンを生成するように処理され、パターンは時間領域およびセンサーインデックス、すなわち通路内のセンサー識別および位置の関数である。結果として生成されたパターンは、人工ニューラルネットワークなどによる、コンピュータ制御のパターン認識分析を使用して、参照パターンと比較される。比較は、通路内の人物を、移動の方向と数に分類する。
この装置および方法は、一部の用途には適切ではない場合もある。たとえば、間隔をあけた平行ビームを投射するための手段は、細長い筐体に組み込まれる。筐体は通常、足首から膝の間くらいの高さで床面に平行に延在するように、通路の一方の側に取り付けられる。この筐体は、大きすぎて使用可能なスペースに収まらない可能性、および/または特定の用途において美観的に受け入れられない可能性もある。さらに、この装置を通路のいずれかの側に取り付けることは多大な労働力、時間、および費用を要し、多くの場合、装置まで伸びる配線を敷設するために通路の側壁に溝をつける必要がある。さらにその上、一方の側のビーム投射の手段およびもう一方の側の検出器は、位置がずれる可能性もあり、それが装置の機能を停止させてしまうことになる。この側面に取り付けられる装置に関わるもう1つの問題は、通路で静止している人物または対象物がビームを遮る可能性もあり、そのため静止している対象物のいずれかの側で通路に沿って移動しているその他の対象物に対して、少なくとも一時的な装置の反応性の低下を生じることである。さらにもう1つの問題は、投射されたビームの範囲が、幅の広い通路を横断するのに十分ではない場合もあることである。幅の広い通路をカバーするために、前述の欠点のすべてを備える追加の装置を収容する中間構造が必要とされる。
もう1つの既知のシステムであるが、根本的に異なるシステムは、トラッキングアルゴリズムを使用し、関心対象の各対象物のベクトルを決定するために、別個の対象物を識別して、対象物感知機構により生成された連続フレーム間のそれらの位置を監視しようと試みる。対象物が新しい位置にある以前の対象物、または全く新しい対象物のいずれであるかを決定するために、各フレームを完全に分析し、次いで以前のフレームと比較する必要があるので、処理は複雑である。このことに結びついているのは、たとえば、一方では2人の人物と、もう一方ではバックパックまたは旅行鞄を運ぶ1人の人物を区別することの難しさである。対象物を分離して、それらのベクトルを取得することにより、システムは、あらかじめ定められた監視領域にわたりそれらの移動を追跡して、それに応じてカウントを増分または減分することができる。対象物を分離し、それらの連続的位置をリンクするか、または対象物の数を区別するシステムの能力が低下した場合は、システムの精度が損なわれる。加えて、視覚的分析は、膨大なプロセッサ能力を要するので、高価である。
米国特許第5,519784号明細書
したがって、本発明の目的は、監視領域内の対象物の移動を監視する代替の装置および方法を提供することである。
本発明によれば、監視領域内の対象物の移動を監視するための装置であって、
− 領域内の複数の隣接ゾーンの各々における対象物の存在または不在に感応する感知機構であって、
− ゾーンは、第1の方向に少なくとも2つの隣接するゾーンの列があり、第1の方向と垂直な方向に少なくとも2つの隣接するゾーンの列があるように配置され、
− 各ゾーンは、それぞれのゾーンインデックスに関連付けられ、
− 個々にゾーンの各々における対象物の存在または不在に感応するように構成され、ゾーンの各々における対象物の存在または不在に関連する感知されたデータを備える領域内を移動している対象物の時間系列表現を取り込むように動作可能である感知機構と、
− 感知されたデータをゾーン内の対象物の存在または不在の多次元パターンに処理するための感知機構に接続されたプロセッサ機構であって、第1の次元は時間であり、第2の次元はゾーンインデックスであり、
− パターンをイベントに関連するパターン部分にセグメント化するように構成されたプロセッサ機構と、
− 予測されるイベントに関連する履歴データを参照してパターン部分を分類するための分類器とを備える装置が提供される。
感知機構は、監視領域の上空に取り付けられる少なくとも1つのカメラを備えることができる。
感知機構は、さまざまな角度から領域をカバーするステレオ写真対のカメラを備えることができる。
したがって、本発明によるシステムは、視界内の各々一意の対象物を識別しようと試みることはないが、イベントを分析して、それをイベント特徴の以前の知識と比較することにより、ニューラルネットワークを備えることができる分類器を使用してカウント数を示すことが可能である。イメージ処理は比較的簡単であり、比較的廉価で行うことができるが、ニューラルネットワーク自体は、比較的簡単なマイクロプロセッサ上で稼働することができるので、費用を抑えることができる。システムはまた、米国特許第5,519784号明細書の前述の側面取り付けのシステムに関連する前述の問題の少なくとも一部を軽減することができると考えられる。
複数のゾーンは、直接隣接するゾーンの配列を形成することができ、各ゾーンは、第1の方向に第1の次元、第2の方向に第2の次元、および範囲を有することができる。
感知されたデータは、対象物によって占有されているゾーンの範囲の一部に比例するデータまたはパラメータを備えることができる。
プロセッサ機構は、非活動のパターンの領域において、時間の次元に沿ってパターンをセグメント化するように構成されてもよい。
本発明のもう1つの態様によれば、監視領域内の対象物の移動を監視する方法であって、
− 領域を複数のゾーンに分割するステップであって、各ゾーンはゾーンインデックスに関連付けられ、
− ゾーンは、第1の方向に少なくとも2つの隣接するゾーンの列があり、第1の方向と垂直な方向に少なくとも2つの隣接するゾーンの列があるように配置されるステップと、
− 個々にゾーンの各々における対象物の存在または不在を感知するために、自動的および時間系列的に感知機構を使用するステップと、
− ゾーン内の対象物の存在または不在の多次元パターンに関連するデータを生成するステップであって、第1の次元は時間であり、第2の次元はゾーンインデックスであるステップと、
− パターンをイベントに関連するパターン部分にセグメント化するステップと、
− 予測されるイベントに関連する履歴データを参照してパターン部分を分類するステップとを備える方法が提供される。
本発明の範囲にさらに含まれるのは、監視領域内の対象物の移動を監視するためのコンピュータプログラムをホスティングするコンピュータ可読媒体であって、プログラムは、
− 領域内を移動している対象物の時間系列表現に関連する感知されたデータをセンサー機構から受信するステップであって、感知されたデータは複数のゾーンの各々における対象物の存在または不在に関連するデータを備え、ゾーンは第1の方向に少なくとも2つの隣接するゾーンの列があり、第1の方向と垂直な方向に少なくとも2つの隣接するゾーンの列があるように配置され、各ゾーンはゾーンインデックスに関連付けられているステップと、
− ゾーン内の対象物の存在または不在の多次元パターンに関連するデータを生成するステップであって、第1の次元は時間であり、第2の次元はゾーンインデックスであるステップと、
− パターンをイベントに関連するパターン部分にセグメント化するステップと、
− 予測されるイベントに関連する履歴データを参照してパターン部分を分類するステップとを実行し、
それにより、使用時に領域内を少なくとも1つの方向に移動している対象物のカウントを出力として提供するコンピュータ可読媒体である。
本発明はまた、コンピュータプログラムを備えるファームウェア、および前述のステップを実行するように構成されたコンピュータプログラムにまで及ぶ。
これ以降、本発明はさらに、ほんの一例として、添付の図を参照して説明される。
領域内の対象物の移動を監視するための装置のカメラが領域の上空に取り付けられた監視領域を示す図表示である。 監視領域内のゾーンの配列を示す図表示である。 装置を示すブロック図である。 監視領域内の対象物の移動を監視する方法の関連部分を示す流れ図である。 領域内を移動している楕円形対象物の時間系列イメージを示す図である。 領域内を移動している対象物の、1次元を時間とする、3次元表現である。 3次元テンソルが2次元マトリクスにフラット化された代替の表現を示す図である。 図5のイベントの結果として生じる表現を示す図である。 図5および図9のイベントのイメージを示す図である。 領域内を移動している複数の人物の上空からの写真である。 図10のイベントの図6と同様の表現を示す図である。 図10のイベントの図9と同様のイメージを示す図である。 ピクセルチャネルに関連付けられている分布を示すグラフである。 単純サブイベントモデルの表現を示す図である。 サブイベント検索イメージを示す図である。 サブイベントの中心を定義する極大の表現を示す図である。 サブイベントモデルの第1の4次元の表現を示す図である。 図15のイベントから抽出されたサブイベントの表現およびそれらの分類を示す図である。 図15の元のイベントおよび図18のサブイベントが除去された後の残りのイベントの表現を示す図である。
監視領域12内の対象物の移動を監視するための装置は、図1および図2において概ね参照番号10によって指定される。
領域12は、建物18の玄関16のような、カウントポイントにおける入口または通路14の一部を形成することができ、装置10は、自動的に一定時間にわたり配置されて、後段において説明されるように、その玄関を通って建物に出入りする人々26を監視してカウントすることができる。
装置10は、領域内の複数の隣接ゾーン24.1から24.nの各々における対象物26の存在または不在に感応する感知機構20を備える。図2を参照すると、ゾーン24.1から24.nは、第1の方向y(つまり、領域を通過する対象物の流れの全体的な方向)に少なくとも2つの隣接するゾーンの列があり、第1の方向と垂直な方向xに少なくとも2つの隣接するゾーンの列があるように配置される。各ゾーン24.1から24.nは、それぞれゾーンインデックスに関連付けられている。センサー機構20は、個々に各ゾーンの各々における対象物の存在または不在に感応するように構成され、(図5および図6に示されるように)領域内を移動している対象物の時間系列表現、好ましくはイメージを取り込むように動作可能である。イメージは、ゾーンの各々における対象物の存在または不在に関連するデータを備える感知されたデータを備える。プロセッサ機構22(図3に示される)は、感知されたデータを、対象物が領域内を移動する際にゾーン内の対象物の存在または不在の多次元パターン(図7および図8に示される)に処理するための感知機構20に接続され、第1の次元は時間であり、第2の次元はゾーンインデックスである。プロセッサ機構はさらに、パターンを、イベントに関連するパターン部分にセグメント化するように構成され、分類器は予測されるイベントに関連する履歴データを参照してパターン部分をリアルタイムで分類する。
感知機構は、ゾーンの時間系列イメージを取り込むために、ゾーン12に取り付けられた、ビデオカメラ20および関連する光学部品21のような少なくとも1つのイメージセンサーを備えることができ、各イメージは感知されたデータを備える。装置はさらに、カメラから感知されたデータを受信するため、および以下で説明されるように多次元パターンデータを生成するために、カメラ20に接続されたプロセッサ機構22(図3に示される)を備える電子サブシステム23を備える。
カメラ20は、好ましくは、通路の上空の天井28、したがって監視領域12の上に取り付けられる。カメラは、特別な次元を追加するため、および通路14の床30の上の適切なレベルまたは高さhで監視領域12を定義するために、異なる角度から領域をカバーするように、異なった角度で領域に方向付けられた第1および第2のカメラを備えるステレオ写真対のカメラを備えることができる。サブシステム23は、監視ゾーンにおいて提供されてもよく、あるいは建物の他の玄関(図示せず)において同様の感知機構に接続されるように同じ建物の中心に提供されてもよく、さらに、あるいはサブシステムはリモートでオフサイトに配置されてもよい。
図2に示される例示の実施形態において、監視領域12は、各ゾーンが範囲を有するように、第1の方向に伸びる第1の軸y、および第1の方向に垂直な第2の方向に伸びる第2の軸xを備える。監視ゾーン12の前述の複数のゾーン24.1から24.nは、各々第1の方向の第1の次元および第2の方向の第2の次元を有する、隣接領域の行および列の配列を形成する。
図3に示される例示の実施形態において、カメラ20は、サブシステム23のプロセッサ機構22に接続される。プロセッサ機構は、フィールドプログラマブルゲートアレイ(FPGA:field programmable gate array)、あるいはコンプレックスプログラマブル論理デバイス(CPLD:complex programmable logic device)32を備える。FPGAは、デュアルポートRAM機構34に接続され、機構34は処理コア36に接続される。その他の実施形態(図示せず)において、プロセッサ機構22は、直接メモリアクセス(DMA:Direct Memory Access)によるカメラインターフェイスおよびプロセッサを備えることができる。サブシステム23はさらに、処理コア36および論理回路40に接続された通信モジュール38を備える。さらに、論理回路に接続されるのは、リアルタイムクロック(RTC)42、データメモリ機構44、およびプログラムメモリ機構46である。装置10は、主電源に接続可能な電源供給モジュール48によって電力を供給される。通信モジュール38は、装置10と外部ネットワークとの間のデータ通信を可能にする。
前述のように、カメラ20は、領域20の時間系列イメージを取り込むように構成される。したがって、各イメージおよびその関連する感知されたデータは、一意の時間関連データに関連付けられているので、以下で説明されるように、感知されたデータの時間次元および多次元表現をもたらす。
図5を参照すると、楕円形対象物26が領域12内を移動するときに感知機構20によって生成される時間系列イメージは、図5(a)から図5(f)に示される。たとえば、第2のイメージ、つまり図5(b)のイメージの時点において、対象物はゾーン24.3を完全に覆い、ゾーン24.2、24.4、および24.8を部分的に覆っている。感知されたデータは、対象物によって占有または覆われているゾーンの範囲の一部に比例するデータをパラメータとして含むことができる。
図5(a)から図5(f)の感知されたデータまたはマトリクスのストリームは、3次元表現で表されてもよく、ここで図6に示されるように時間は1次元である。
3次元表現は、マトリクスをベクトル化して、3次元テンソルを2次元表現にフラット化することにより再配列されてもよく、ここで図7に示されるように1次元は時間(t)である。
パターンマトリクスのストリームは、活動の期間に対応して時間にセグメント化される。イベントは、パターンマトリクス要素の合計が、連続フレームの小セットにわたりしきい値レベルを超えると直ちにトリガされる。逆に、イベントは、合計が、連続フレームのセットにわたりしきい値を下回ると直ちに終了される。
図5のイベントの表現は、図8および図9において示される。
図10において、複数の人々が領域12内をいずれかの方向に移動しているもう1つの例示のイベントが示される。図11は、後者のイベントについて図6に対応し、図12は、この後者のイベントについて図9に対応する。
ここで図4を参照すると、装置および方法は、ビデオ容量の大量のピクセル関連データを変換および処理して、2つの数値、つまり方向Aのカウントと方向Bのカウントまで減らすための、前処理60、イベント抽出70、特徴抽出80、および分類90という主要コンポーネントを有する。
フロントエンドのビデオ前処理60は、未加工ピクセルストリームを、背景に関して特有であるが不変であり、しかも輝度と明度のグローバル変形である形態に処理することに携わる。システムのこの部分は、ピクセル単位レベルで動作するので、計算処理的に最も感度の高いものであってもよい。したがって、意図的にビデオ処理は、比較的単純なものにとどめられている。62において、イメージは最初に、フィルタリングおよびダウンサンプリングにより、管理可能なサイズまで縮小される。このサイズ変更されたイメージから、アクティブな領域が抽出される。このアクティブな領域は、人々がカウントされる境界を画定するフレーム内のユーザが指定した範囲である。計算処理上の効率のために、この境界は、一直線であり、イメージ軸が位置調整されている必要がある。この境界は、流れyの第1の方向およびそれに垂直な第2の方向xという2つの方向を画定する。アクティブな領域は、境界を中心とする軸が位置調整された長方形である。長方形の横幅はユーザによって指定され、流れの方向に沿ったその寸法はフレーム内の平均的な人間の相対的な大きさによって決まる。
アクティブな領域だけがさらに処理され、残りのフレームは破棄される。前処理の重要なタスクは、未加工の入力ビデオを背景に関して正規化することである。このコンテキストにおける背景は、延長された期間にわたり物理的に静的であるシーン内の対象物に対応するイメージの部分として定義されるものとする。反対に、前景は、物理的に移動している対象物を示すイメージの部分に対応する。そのようなものとして各フレームをセグメント化するため、前景および背景の両方に関連付けられているピクセル変化のモデルが構築される。背景はその変化の遅い速度によって定義されるので、背景モデル64は、入力ビデオに関連付けられている統計に一時ローパスフィルタを原則的に適用することによって近似化される。前景モデルは、背景モデルによって十分に記述されないイメージ領域の統計を分析することにより構築される。この正規化プロセスは、背景除去と呼ばれる。これは最終的に、入力フレームの各ピクセルに、それが前景(移動している対象物)の一部である確率を割り当てようと試みる。
計算処理を簡単にするため、各入力ピクセルは独立して考慮され、さらには各ピクセルはそこに関連付けられているチャネルのセットを有する。これらのチャネル内の変化は、多変量ガウス分布によってモデル化される。この選択は、中心極限定理により、ガウス分布の偏在によって弱く動機付けられるが、ガウス分布がその平均および拡散を単に計算することにより入力データに適合されうるということにより、なお一層弱く動機付けられる。平均値μおよび共分散Σとするd−次元確率変数xの多変量ガウス分布は、以下のとおりである。
多くの場合、この分布の対数は、計算により好都合である。
ここで、Δ≡x−μ
各ピクセルは、ピクセルチャネルのd次元ベクトルxによって表される。現在、輝度およびYUVカラースペースからの2つのクロミナンス値、ならびに輝度の時間導関数という、4つのチャネルが使用されている。ピクセル前景および背景の条件付き分布は以下のとおりである。
ここで、Sfgおよび
は、それぞれ前景および背景に対応する可能なxのセットを表し、{μbg,Σbg}および{μfg,Σfg}は、それぞれ前景および背景に関連付けられている平均および共分散に対応する。この導出を簡潔にしておくため、2つの分布を示すfgおよびbgの添え字は、前景および背景モデルのいずれについても成立する式において省略されるものとする。
計算処理を簡単にするため、ピクセルチャネルは独立していると仮定される。したがって、Σは対角線であると仮定されるので、ガウス分布は以下のように表されてもよい。
ここで、
は、Σの対角線要素に対応し、xおよびμはそれぞれi=1..dに対するxおよびμの要素である。2つのクラス、P(x∈Sfg)≡γfg、P(x∈Sbg)≡γbgの事前確率を所与として、条件付き分布は、同時確率分布に変換されてもよい。
P(x,x∈S)=P(x∈S)P(x|x∈S)≡p(x)
上記は、ピクセルが前景または背景のいずれにも属するので、γfg+γbg=1によって制約されることに留意されたい。
最終的な目標は、事後確率P(x∈Sfg|x)≡zfg(x)であり、所定のピクセルが前景の一部である確率である。これは、ベイズの定理に従って以下のように計算されてもよい。
計算の実際の方法をよりよく表す分布の対数形式に関して、以下のように表現されてもよい。
これらの分布のパラメータ{μbg,Σbg}および{μfg,Σfg}は、変化する照度および背景の変化を追跡するために時間の経過に伴って適応される。背景平均μbgは、分散Σfg,Σbgおよび前景平均μbgがグローバルであって、イメージ内のすべてのピクセルによって共有されていても、ピクセル単位でモデル化される。この選択は、計算処理の複雑さを軽減するため、またフレーム全体にわたり統計を平均化することによってさらに分散の計算を安定した状態に保つために行われた。
図13は、ピクセルチャネルに関連付けられている分布の代表的な例である。前景が優勢である場合、事後確率は1に接近するが、背景が優勢である場合、ほぼ0まで減少する。ピクセルモデルパラメータは、グローバルな照度の変動または背景への追加により生じた統計の緩やかな変化を追跡するように、各フレームの後に徐々に更新される。モデルパラメータは、一次ローパスIIRフィルタと同様の方法で更新される。現在のパラメータθを所与として、新しいパラメータθi+1は、以下のように定義される。
ここで、λは適応速度であり、
は、モデルを現行フレーム内のデータに適合させることにより得られたパラメータのベクトルである。前景および背景の平均および分散は、ピクセルチャネル値の重み付け第1および第2のモーメントとして近似化される。ピクセル重み付けは、それらの関連する確率によって決まる。前景確率は、前景モデルパラメータの計算に使用され、背景確率は背景パラメータの計算に使用される。分散の計算には、さらに大きい自由度が要求されるので、はるかに遅い適応速度が使用され、したがってこれを確実に決定するためにより多くのデータが必要となる。λを前景および背景ピクセル確率に依存させることにより、この線形手法には非線形性が追加される。これは、現行フレーム内の前景ピクセルのほんの一部ずつλを変調することにより分散更新で行われる。このようにして、分散は、フレーム内に活動がある場合に限り変化する。このことは、分散が、活動の全くない長期にわたって人為的に小さくなることを防ぐ。これはまた、フレーム内の活動があるときに前景と背景を区別することにしか関心がない場合に、理にかなっている。
入力ビデオが、背景および照度とは無関係な形式に正規化されると、ビデオは管理可能なチャンクに分解される。これは、正規化されたビデオをパターンにダウンサンプリングし、次いでそれらのパターンを時間でセグメント化してイベントを形成することにより行われる。
パターンは、72において、フレームごとに、その前景確率イメージから直接抽出される。パターンは単に、領域にわたるグリッドまたは配列のゾーン24.1から24.n内の前景確率を平均化することにより構築される。図2から図5に示されるように、グリッドは、流れの方向に4つの区域を有する。横方向の区域の数は、アクティブな領域の物理的幅によって決まる。ゾーンのアスペクト比は一定に保たれるが、それらの規模は、フレーム内の人間の平均の相対的な大きさに適合される。したがって、各フレームは、要素が、それらの関連するゾーン内の前景ピクセルのわずかな一部に対応するマトリクスによって表されうるパターンをもたらす。
パターンマトリクスは、時間の経過に伴って、図6および図11に示されるように3次元テンソルと見なすことができるものに積み重ねられる。図4の74において、パターンマトリクスのこのストリームは、活動の期間に対応するイベントに時間でセグメント化される。イベントは、パターンマトリクス要素の合計が、連続フレームの小セットにわたりしきい値を超えると直ちにトリガされる。逆に、イベントは、合計が、連続フレームのセットにわたりしきい値を下回る場合に終了される。図11の表現は、ゾーンの値と比例する大きさを持つ立方体として各ゾーンを示す。これらのイベントを簡潔に視覚化するため、図8、図9、および図12の場合のように、2次元イメージとして好都合に示すことができる図7に説明されるように、3次元構造を流れの方向に沿ってフラット化してマトリクスを形成することが有用である。再び図4を参照すると、時間でイベントパターンを圧縮しようと試み、対象物の速度に関してイベントをある程度正規化するため、76において、ランレングス符号化(RLE:Run Length Encoding)と類似した手法がイベントに適用される。プロセスは、プロトタイプとしての第1のフレームパターンで開始する。次いで、フレームは連続してプロトタイプと比較され、フレームがプロトタイプにより十分に表現されない(つまり、差が大きい)場合、それが新しいプロトタイプになる。このプロセスは、イベントの終わりに到達するまで続行される。正規化されたイベントは、単一パターンへのプロトタイプの変化の間の広がりを平均化することにより構築される。各スパンの長さはまた記録され、各プロトタイプベクトルに付加され、したがって元のタイミングは失われない。
正規化された平均平方距離測度は、パターンを比較するために使用される。
ここで、pは、パターンを表す列ベクトルであり、cは、ゼロによる除算を防ぐための小さい正の正則定数である。明確にするため、この説明の残りの部分において言及される任意のイベントは、この点において正規化されていると仮定するものとする。
図4の80における特徴抽出は一般に、入力センサー機構20に関連付けられている一部の通常高次元の入力スペースから、関心のある対象物のモデルに関連付けられている低次元のパラメータスペースに投射することを伴う。この場合、特徴抽出は、可変長イベントパターンを特有の固定長特徴ベクトルに投射することに携わる。
イベントはさらに、1人の人、連れ立っている2人の人、またはカートを押している人のような、共通の低レベルのサブイベントに対応する領域に分解される。これを行うために、そのようなサブイベントのモデル82が構築される。主成分分析(PCA:Principle Component Analysis)および線形判別分析(LDA:Linear Discriminant Analysis)のような、それらの構築の閉鎖式解が存在するので、線型モデルは、これに最も単純なオプションをもたらす。これらの方法は、サブイベントを簡潔および明確に表すモデルを生成するが、それらを分類する直接の方法をもたらすことはない。それには、混合ガウス分布モデル(GMM)が、PCAおよびLDAによって生成されたサブスペースをクラスに区分するために使用される。サブイベントモデルは、(図4の84において)イベント内のサブイベントを効率的に検出するために使用される単純検索モデルと、86においてそれらを条件付きまたは弱く分類するために使用されるより複雑な分類モデルという、2つの関連するモデルで構成される。これらのモデルはいずれも、基底によって広がるサブスペースで定義されたLDAおよびGMMを使用して構築された線形基底で構成される。サブイベントは、より大きいイベント内の固定サイズのウィンドウに及ぶ。この場合、6×4×16のウィンドウが使用される。ウィンドウがイベントの次元を超えて拡張する場合、ゼロが範囲外の要素の代わりに使用される。ウィンドウ内から抽出されたサブイベントデータに増大されているのは、ウィンドウの相対的な横位置、ならびにウィンドウフレームに対応するRLE圧縮により生成されたスパンのセットである。
前述のように、単純サブイベントモデルは、84において、イベント内の有効なサブイベントを効率的に検出するために使用される。この単純モデルは、以下の3つのクラスを区別しようと試みる。
Inward(内向) − 図2のAに示されるような、平均して内側方向のサブイベント
Onward(外向) − 図2のBに示されるような、平均して外側方向のサブイベント
Null(ヌル) − 移動している人々に対応しないイベントの領域
イベントスペースに戻って投射されたときの各クラスごとの典型例は、以下の表に示される。
図14において、LDMサブスペース内のこれらのクラスを区別するために使用されるGMMが示される。プロットにおいて、線図は、個々のガウス成分の等確率線に対応する。ガウス成分が非制限共分散マトリクスを有するので、等確率線は楕円にマップすることに留意されたい。プロット内の背景イメージは、クラスの事後確率によって生成された軟判定境界を示す。
84において、時間および横方向への移動に沿ってイベントを徹底的に検索することにより、サブイベントが検出される。3次元ウィンドウ、サブイベントモデルのサイズは、イベント上をスライドされて、各ポイントを内向、外向、またはヌルのサブイベントのいずれかの中心として分類する。これにより、内側および外側方向に対応する、図15に示されるような2次元検索イメージのペアが生成される。これらのイメージは、合計されて平滑化され、図16に示されるような明確に定義された極大を持つイメージを生成する。サブイベントの中心を定義するのは、これらの極大である。図16の極大は、ブロブ中心の黒いピクセル100によって示される。内向および外向イメージは、後に、特徴計算において再度使用される。
前述のように、サブイベントの中心が検出されると、それらは図4の86において弱く分類される必要がある。これは、さらに詳細な分類サブイベントモデルにより行われる。これは、計算処理上より高価であり、より識別力があるが、すでに検出されたサブイベントのみに適用され、イベント全体には適用されない。このモデルは、5次元の基底を使用する。
12のサブイベントクラスは、このモデルによって区別される。これらのクラスは、以下の表のように要約される。
単純モデルのように、各クラスは、非制限共分散によるガウス成分としてモデル化される。図17は、サブイベントモデルの第1の4次元を示す。
図17のxは、そのサブイベントモデルの分類の曲線バージョンに従って各正方形にラベル付けされている、図15の例示のイベントで検出されたサブイベントを座標で示す。イベントスペース内のこれらのサブイベントの対応する外観およびそれらの分類は、図18に示される。
イベント全体の実際のカウントが4〜2であるので、分類サブイベントモデルは、この特定の事例において極めて良好に行われたと見られる。そして次に、各サブイベントは分類され、サブイベントがi番目のクラスを表す確率にi番目の要素が対応する事後確率のベクトルを各々生成する。これらのベクトルは、すべてのサブイベントにわたり合計されて、最終特徴ベクトルの一部を形成するベクトルzを生成する。zの成分は、イベント内の各クラスのサブイベントの数に概ね対応する。2つのサブイベントが、それらの関連するウィンドウ内でかなり重なり合って近接して検出される場合、重複情報が、サブイベントごとに1回ずつ、合計2回カウントされる確率が高まる。各サブイベントが分類された後にこれを軽減するため、分類の結果はイベントスペースに投射して戻され、元のイベントから減算されて、イベントのその部分がカウント済みであることを効果的にマーク付けする。図19は、元のイベント、およびサブイベントが正常に除去された後に残されたものを示す。
サブイベントモデルの構築には、トレーニングデータ内のサブイベントの位置およびラベルが既知であることが求められる。しかし、トレーニングデータがサブイベントレベルまでセグメント化されないのでイベントあたり1つのラベルしかなく、このデータは使用可能ではない。したがって、サブイベントモデルを構築するために、反復の手法が使用される。プロセスは、イベントの重心に中心がある、イベントあたり単一のサブイベントという仮定のもとに構築された初期モデルで開始する。この大まかなモデルを使用して、サブイベントの新しいセットが検出されて分類され、そこからモデルを再計算することができ、そのようにプロセスはモデルが収束するまで続行する。
特徴ベクトルfは、イベント全体にわたる集約統計のセットで構成される。特徴ベクトルの構造は、以下のとおりである。
ここで、
フレーム内のイベントの継続期間
圧縮されたイベントの長さ
in 内向検索イメージのモーメント
out 外向検索イメージのモーメント
s サブイベントの中心に対応する極大値の合計
z 合計サブイベント分類ベクトル
モーメントベクトルminおよびmoutは、図15に示される内向および外向検索イメージの0次および2次モーメントで構成される。各モーメントベクトルは、以下の形式の4次元を有する。
m=[m0,02,00,21,1γ
ここで、fx、tが、横位置xおよび時間tにおけるイメージ要素を表す場合、
12のサブイベントクラスがあるので、サブイベント分類ベクトルは12次元であり、モーメントベクトルは各々4つの成分を提供し、3つのスカラーがあるので、最終的な特徴ベクトルは、23次元である。
再び図4を参照すると、90における分類の目標は、各特徴ベクトルから最終的な「内向」および「外向」カウントを抽出することである。特徴ベクトルとカウントとの間のマッピングが構築される必要があり、これは回帰の問題となる。人工ニューラルネットワーク92は、このマッピングを実施するために使用される。ニューラルネットワークは、回帰エラーを最適化することにより、タグ付きイベントの大量のセットからこのマッピングを学習する。標準多層知覚(MLP:Multi−layer Perception)は、シグモイド活性化関数を使用する単一の隠れ層および回帰の線形活性化による出力層と共に使用される。
MLPのトレーニングは基本的に、エッジ重みに関して出力エラーを最小化する、最適化問題であり、このために共役勾配降下アルゴリズムが使用される。トレーニングデータは、特徴ベクトルおよび対応するカウントラベルのセットの形態をとる。しかし、トレーニング前に、特徴は白色化され、特徴スペースを単位共分散に正規化するので、絶対最小値への収束の可能性を高める。正規化投射は、トレーニングされた後、ニューラルネットワークの第1の層の重みに戻して組み入れられる。
ニューラルネットの出力が、図2に示される領域内ならびに方向Aおよび方向Bのいずれか一方向に移動している人々をカウントするために使用されてもよいことが理解されよう。

Claims (10)

  1. 監視領域内の物体の移動を監視するための装置であって、
    個々に前記領域内の複数の隣接ゾーンの各々における物体の存在または不在に感応する感知機構であって、
    前記ゾーンは、第1の方向に少なくとも2つの隣接するゾーンの列があり、前記第1の方向と垂直な方向に少なくとも2つの隣接するゾーンの列があるように配置され、
    各ゾーンは、それぞれのゾーンインデックスに関連付けられ、
    前記ゾーンの各々における物体の存在または不在に関連する感知されたデータを備える前記領域内を移動している前記物体の時間系列表現を取り込むように動作可能である感知機構と、
    前記感知されたデータを前記ゾーン内の前記物体の存在または不在の多次元パターンに処理するための前記感知機構に接続されたプロセッサ機構であって、第1の次元は時間であり、第2の次元はゾーンインデックスであり、
    前記パターンをイベントに関連するパターン部分にセグメント化するように構成されたプロセッサ機構と、
    予測されるイベントに関連する履歴データを参照して前記パターン部分を分類するための分類器とを備える装置。
  2. 前記感知機構は、前記監視領域の上空に取り付けられる少なくとも1つのカメラを備える請求項1に記載の装置。
  3. 前記感知機構は、さまざまな角度から前記領域をカバーするステレオ写真対のカメラを備える請求項1または請求項2に記載の装置。
  4. 前記複数のゾーンは、直接隣接するゾーンの配列を形成し、各ゾーンは第1の方向に第1の次元、第2の方向に第2の次元、および範囲を有する請求項1乃至3のいずれか1項に記載の装置。
  5. 前記感知されたデータは、前記物体によって占有されている前記ゾーンの前記範囲の一部に比例するパラメータを備える請求項4に記載の装置。
  6. 前記プロセッサは、非活動のパターンの領域において、前記時間の次元に沿って前記パターンをセグメント化するように構成される請求項1乃至5のいずれか1項に記載の装置。
  7. 監視領域内の物体の移動を監視する方法であって、
    前記領域を複数のゾーンに分割するステップであって、各ゾーンはゾーンインデックスに関連付けられ、
    前記ゾーンは、第1の方向に少なくとも2つの隣接するゾーンの列があり、前記第1の方向と垂直な方向に少なくとも2つの隣接するゾーンの列があるように配置されるステップと、
    個々に前記ゾーンの各々における物体の存在または不在を感知するために、自動的および時間系列的にセンサー機構を使用するステップと、
    前記ゾーン内の前記物体の存在または不在の多次元パターンに関連するデータを生成するステップであって、第1の次元は時間であり、第2の次元はゾーンインデックスであるステップと、
    前記パターンをイベントに関連するパターン部分にセグメント化するステップと、
    予測されるイベントに関連する履歴データを参照して前記パターン部分を分類するステップとを備える方法。
  8. 監視領域内の物体の移動を監視するためのコンピュータプログラムをホスティングするコンピュータ可読媒体であって、前記プログラムは、
    前記領域内を移動している物体の時間系列表現に関連する感知されたデータをセンサー機構から受信するステップであって、前記感知されたデータは複数のゾーンの各々における前記物体の存在または不在に関連するデータを備え、前記ゾーンは第1の方向に少なくとも2つの隣接するゾーンの列があり、前記第1の方向と垂直な方向に少なくとも2つの隣接するゾーンの列があるように配置され、各ゾーンはゾーンインデックスに関連付けられているステップと、
    前記ゾーン内の前記物体の存在または不在の多次元パターンに関連するデータを生成するステップであって、第1の次元は時間であり、第2の次元はゾーンインデックスであるステップと、
    前記パターンをイベントに関連するパターン部分にセグメント化するステップと、
    予測されるイベントに関連する履歴データを参照して前記パターン部分を分類するステップとを実行し、
    それにより、使用時に前記領域内を少なくとも1つの方向に移動している物体のカウントを出力として提供するコンピュータ可読媒体。
  9. 監視領域内の物体の移動を監視するためのコンピュータプログラムをホスティングするファームウェアであって、前記プログラムは、
    前記領域内を移動している物体の時間系列表現に関連する感知されたデータをセンサー機構から受信するステップであって、前記感知されたデータは複数のゾーンの各々における前記物体の存在または不在に関連するデータを備え、前記ゾーンは第1の方向に少なくとも2つの隣接するゾーンの列があり、前記第1の方向と垂直な方向に少なくとも2つの隣接するゾーンの列があるように配置され、各ゾーンはゾーンインデックスに関連付けられているステップと、
    前記ゾーン内の前記物体の存在または不在の多次元パターンに関連するデータを生成するステップであって、第1の次元は時間であり、第2の次元はゾーンインデックスであるステップと、
    前記パターンをイベントに関連するパターン部分にセグメント化するステップと、
    予測されるイベントに関連する履歴データを参照して前記パターン部分を分類するステップとを実行し、
    それにより、使用時に前記領域内を少なくとも1つの方向に移動している物体のカウントを出力として提供するファームウェア。
  10. 監視領域内の物体の移動を監視するためのコンピュータプログラムであって、
    前記領域内を移動している物体の時間系列表現に関連する感知されたデータをセンサー機構から受信するステップであって、前記感知されたデータは複数のゾーンの各々における前記物体の存在または不在に関連するデータを備え、前記ゾーンは第1の方向に少なくとも2つの隣接するゾーンの列があり、前記第1の方向と垂直な方向に少なくとも2つの隣接するゾーンの列があるように配置され、各ゾーンはゾーンインデックスに関連付けられているステップと、
    前記ゾーン内の前記物体の存在または不在の多次元パターンに関連するデータを生成するステップであって、第1の次元は時間であり、第2の次元はゾーンインデックスであるステップと、
    前記パターンをイベントに関連するパターン部分にセグメント化するステップと、
    予測されるイベントに関連する履歴データを参照して前記パターン部分を分類するステップとを実行するように構成され、
    それにより、使用時に前記領域内を少なくとも1つの方向に移動している物体のカウントを出力として提供するコンピュータプログラム。
JP2011517299A 2008-07-08 2009-07-08 監視ゾーン内の対象物の移動を分類する装置および方法 Active JP5384629B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
ZA200805940 2008-07-08
ZA2008/05940 2008-07-08
PCT/IB2009/052969 WO2010004514A1 (en) 2008-07-08 2009-07-08 Apparatus and method of classifying movement of objects in a monitoring zone

Publications (2)

Publication Number Publication Date
JP2011527789A JP2011527789A (ja) 2011-11-04
JP5384629B2 true JP5384629B2 (ja) 2014-01-08

Family

ID=41202536

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011517299A Active JP5384629B2 (ja) 2008-07-08 2009-07-08 監視ゾーン内の対象物の移動を分類する装置および方法

Country Status (16)

Country Link
US (1) US8957966B2 (ja)
EP (1) EP2310981B1 (ja)
JP (1) JP5384629B2 (ja)
KR (1) KR101571277B1 (ja)
CN (1) CN102089770B (ja)
AT (1) ATE540374T1 (ja)
AU (1) AU2009269607B2 (ja)
BR (1) BRPI0915889B1 (ja)
CA (1) CA2727767C (ja)
ES (1) ES2382311T3 (ja)
HK (1) HK1157905A1 (ja)
PL (1) PL2310981T3 (ja)
PT (1) PT2310981E (ja)
RU (1) RU2509355C2 (ja)
WO (1) WO2010004514A1 (ja)
ZA (1) ZA201008745B (ja)

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8334906B2 (en) * 2006-05-24 2012-12-18 Objectvideo, Inc. Video imagery-based sensor
US8737703B2 (en) * 2008-01-16 2014-05-27 The Charles Stark Draper Laboratory, Inc. Systems and methods for detecting retinal abnormalities
US8718363B2 (en) * 2008-01-16 2014-05-06 The Charles Stark Draper Laboratory, Inc. Systems and methods for analyzing image data using adaptive neighborhooding
US8315305B2 (en) * 2010-03-26 2012-11-20 Brain Corporation Systems and methods for invariant pulse latency coding
US9405975B2 (en) 2010-03-26 2016-08-02 Brain Corporation Apparatus and methods for pulse-code invariant object recognition
US9193075B1 (en) 2010-08-26 2015-11-24 Brain Corporation Apparatus and methods for object detection via optical flow cancellation
EP2455914B1 (en) 2010-11-18 2012-10-17 Axis AB Object counter and method for counting objects
WO2012127408A1 (en) 2011-03-24 2012-09-27 Koninklijke Philips Electronics N.V. Multi-zone light controller
US9047568B1 (en) 2012-09-20 2015-06-02 Brain Corporation Apparatus and methods for encoding of sensory data using artificial spiking neurons
EP2600326A1 (en) * 2011-11-29 2013-06-05 ATS Group (IP Holdings) Limited Processing event data streams to recognize event patterns, with conditional query instance shifting for load balancing
US8792013B2 (en) 2012-04-23 2014-07-29 Qualcomm Technologies, Inc. Method for determining the extent of a foreground object in an image
US9224090B2 (en) 2012-05-07 2015-12-29 Brain Corporation Sensory input processing apparatus in a spiking neural network
US20160132754A1 (en) * 2012-05-25 2016-05-12 The Johns Hopkins University Integrated real-time tracking system for normal and anomaly tracking and the methods therefor
US9245348B2 (en) 2012-06-15 2016-01-26 Microsoft Technology Licensing, Llc Determining a maximum inscribed size of a rectangle
US9412041B1 (en) 2012-06-29 2016-08-09 Brain Corporation Retinal apparatus and methods
US9311594B1 (en) 2012-09-20 2016-04-12 Brain Corporation Spiking neuron network apparatus and methods for encoding of sensory data
US9218563B2 (en) 2012-10-25 2015-12-22 Brain Corporation Spiking neuron sensory processing apparatus and methods for saliency detection
US9275326B2 (en) 2012-11-30 2016-03-01 Brain Corporation Rate stabilization through plasticity in spiking neuron network
US9177245B2 (en) 2013-02-08 2015-11-03 Qualcomm Technologies Inc. Spiking network apparatus and method with bimodal spike-timing dependent plasticity
US9436909B2 (en) 2013-06-19 2016-09-06 Brain Corporation Increased dynamic range artificial neuron network apparatus and methods
US9239985B2 (en) 2013-06-19 2016-01-19 Brain Corporation Apparatus and methods for processing inputs in an artificial neuron network
US9552546B1 (en) 2013-07-30 2017-01-24 Brain Corporation Apparatus and methods for efficacy balancing in a spiking neuron network
US10194163B2 (en) * 2014-05-22 2019-01-29 Brain Corporation Apparatus and methods for real time estimation of differential motion in live video
US9939253B2 (en) 2014-05-22 2018-04-10 Brain Corporation Apparatus and methods for distance estimation using multiple image sensors
US9713982B2 (en) 2014-05-22 2017-07-25 Brain Corporation Apparatus and methods for robotic operation using video imagery
US9848112B2 (en) 2014-07-01 2017-12-19 Brain Corporation Optical detection apparatus and methods
US10057593B2 (en) 2014-07-08 2018-08-21 Brain Corporation Apparatus and methods for distance estimation using stereo imagery
US10032280B2 (en) 2014-09-19 2018-07-24 Brain Corporation Apparatus and methods for tracking salient features
WO2016046690A1 (en) 2014-09-22 2016-03-31 Nortech International (Pty) Limited Method of configuring a monitoring region
US9881349B1 (en) 2014-10-24 2018-01-30 Gopro, Inc. Apparatus and methods for computerized object identification
ES2580304B1 (es) * 2015-02-19 2017-07-12 Endesa Generación, S.A. Sistema de inspección y diagnóstico de infraestructuras yprocedimiento asociado
US10197664B2 (en) 2015-07-20 2019-02-05 Brain Corporation Apparatus and methods for detection of objects using broadband signals
US10211660B2 (en) 2016-02-08 2019-02-19 Cree, Inc. LED lighting device with adaptive profiles for controlling power consumption
US11019693B2 (en) * 2016-11-01 2021-05-25 Signify Holding B.V. Lighting-system and a lighting-system control method
US10180452B2 (en) * 2016-12-16 2019-01-15 Nortek Security & Control Llc Doorbell camera test tool
US10451229B2 (en) 2017-01-30 2019-10-22 Ideal Industries Lighting Llc Skylight fixture
US10465869B2 (en) 2017-01-30 2019-11-05 Ideal Industries Lighting Llc Skylight fixture
US10612951B2 (en) * 2017-05-31 2020-04-07 Pixart Imaging Inc. Optical flow sensor, methods, remote controller device, and rotatable electronic device
US9894740B1 (en) 2017-06-13 2018-02-13 Cree, Inc. Intelligent lighting module for a lighting fixture
JP7034690B2 (ja) * 2017-12-05 2022-03-14 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US10830400B2 (en) 2018-02-08 2020-11-10 Ideal Industries Lighting Llc Environmental simulation for indoor spaces
US10991215B2 (en) 2018-03-20 2021-04-27 Ideal Industries Lighting Llc Intelligent signage
CN110595441B (zh) * 2018-06-13 2021-10-12 杭州海康微影传感科技有限公司 瞄具
US11288945B2 (en) 2018-09-05 2022-03-29 Honeywell International Inc. Methods and systems for improving infection control in a facility
CN113056743B (zh) * 2018-09-20 2024-06-28 辉达公司 训练神经网络以用于车辆重新识别
US10978199B2 (en) 2019-01-11 2021-04-13 Honeywell International Inc. Methods and systems for improving infection control in a building
US11113822B2 (en) * 2019-08-14 2021-09-07 International Business Machines Corporation Moving object identification from a video stream
EP4052543A1 (en) 2019-10-28 2022-09-07 Ideal Industries Lighting Llc Systems and methods for providing dynamic lighting
US11386656B2 (en) * 2020-04-08 2022-07-12 Moxa Inc. Device and method of handling video content analysis
US11620594B2 (en) 2020-06-12 2023-04-04 Honeywell International Inc. Space utilization patterns for building optimization
US11783652B2 (en) 2020-06-15 2023-10-10 Honeywell International Inc. Occupant health monitoring for buildings
US11914336B2 (en) 2020-06-15 2024-02-27 Honeywell International Inc. Platform agnostic systems and methods for building management systems
US11783658B2 (en) 2020-06-15 2023-10-10 Honeywell International Inc. Methods and systems for maintaining a healthy building
US11823295B2 (en) 2020-06-19 2023-11-21 Honeywell International, Inc. Systems and methods for reducing risk of pathogen exposure within a space
US11184739B1 (en) 2020-06-19 2021-11-23 Honeywel International Inc. Using smart occupancy detection and control in buildings to reduce disease transmission
US11619414B2 (en) 2020-07-07 2023-04-04 Honeywell International Inc. System to profile, measure, enable and monitor building air quality
US11402113B2 (en) 2020-08-04 2022-08-02 Honeywell International Inc. Methods and systems for evaluating energy conservation and guest satisfaction in hotels
US11657613B2 (en) 2020-08-11 2023-05-23 Analog Devices International Unlimited Company Zone based object tracking and counting
US11894145B2 (en) 2020-09-30 2024-02-06 Honeywell International Inc. Dashboard for tracking healthy building performance
US11372383B1 (en) 2021-02-26 2022-06-28 Honeywell International Inc. Healthy building dashboard facilitated by hierarchical model of building control assets
US11662115B2 (en) 2021-02-26 2023-05-30 Honeywell International Inc. Hierarchy model builder for building a hierarchical model of control assets
US11474489B1 (en) 2021-03-29 2022-10-18 Honeywell International Inc. Methods and systems for improving building performance
US12038187B2 (en) 2021-09-28 2024-07-16 Honeywell International Inc. Multi-sensor platform for a building

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2558198B2 (ja) * 1992-01-09 1996-11-27 株式会社コア 移動体解析装置
EP0664012B1 (en) 1992-10-07 1997-05-14 Octrooibureau Kisch N.V. Method and apparatus for classifying movement of objects along a passage
DE69523698T2 (de) * 1994-08-31 2002-08-01 Nippon Telegraph & Telephone Verfahren und Gerät zum richtungsselektiven Zählen von sich bewegenden Objekten
EP0805405A3 (en) * 1996-02-05 1998-04-15 Texas Instruments Incorporated Motion event detection for video indexing
US6184858B1 (en) * 1998-02-06 2001-02-06 Compaq Computer Corporation Technique for updating a background image
GB2337146B (en) 1998-05-08 2000-07-19 Primary Image Limited Method and apparatus for detecting motion across a surveillance area
GB0115822D0 (en) * 2001-06-28 2001-08-22 Koninkl Philips Electronics Nv Data input device
US6950469B2 (en) * 2001-09-17 2005-09-27 Nokia Corporation Method for sub-pixel value interpolation
US7920718B2 (en) * 2002-09-05 2011-04-05 Cognex Corporation Multi-zone passageway monitoring system and method
JP2005135339A (ja) 2003-10-31 2005-05-26 Konica Minolta Holdings Inc 通行人検出方法および装置ならびに通行人計数装置
WO2006105655A1 (en) 2005-04-06 2006-10-12 March Networks Corporation Method and system for counting moving objects in a digital video stream

Also Published As

Publication number Publication date
BRPI0915889A2 (pt) 2015-11-03
CN102089770B (zh) 2013-05-01
AU2009269607B2 (en) 2015-03-26
JP2011527789A (ja) 2011-11-04
ATE540374T1 (de) 2012-01-15
CN102089770A (zh) 2011-06-08
KR20110063738A (ko) 2011-06-14
EP2310981B1 (en) 2012-01-04
WO2010004514A1 (en) 2010-01-14
CA2727767C (en) 2016-02-02
RU2011104190A (ru) 2012-08-20
US20110134242A1 (en) 2011-06-09
AU2009269607A1 (en) 2010-01-14
KR101571277B1 (ko) 2015-11-24
ES2382311T3 (es) 2012-06-07
EP2310981A1 (en) 2011-04-20
CA2727767A1 (en) 2010-01-14
PT2310981E (pt) 2012-04-13
US8957966B2 (en) 2015-02-17
BRPI0915889B1 (pt) 2023-10-31
HK1157905A1 (en) 2012-07-06
PL2310981T3 (pl) 2012-07-31
ZA201008745B (en) 2011-11-30
RU2509355C2 (ru) 2014-03-10

Similar Documents

Publication Publication Date Title
JP5384629B2 (ja) 監視ゾーン内の対象物の移動を分類する装置および方法
CN109819208B (zh) 一种基于人工智能动态监控的密集人群安防监控管理方法
Wang et al. Human fall detection in surveillance video based on PCANet
Feng et al. Fall detection for elderly person care in a vision-based home surveillance environment using a monocular camera
Roshtkhari et al. An on-line, real-time learning method for detecting anomalies in videos using spatio-temporal compositions
Lin et al. Estimation of number of people in crowded scenes using perspective transformation
Cheriyadat et al. Detecting dominant motions in dense crowds
US20200012923A1 (en) Computer device for training a deep neural network
EP2131328A2 (en) Method for automatic detection and tracking of multiple objects
WO2012022744A2 (en) Multi-mode video event indexing
WO2009152509A1 (en) Method and system for crowd segmentation
Iazzi et al. Fall detection based on posture analysis and support vector machine
CN114359825A (zh) 监测方法和相关产品
Ryan Crowd monitoring using computer vision
Hernández et al. People counting with re-identification using depth cameras
Biswas et al. A literature review of current vision based fall detection methods
Vijayan et al. A universal foreground segmentation technique using deep-neural network
Khan et al. Integrated analysis and synthesis of pedestrian dynamics: First results in a real world case study
Mubashir A Study of Fall Detection: Review and Implementation
CN111832478A (zh) 一种用于安防的图像识别方法、系统、终端及存储介质
Gill et al. Deep Learning Based Agricultural Activity Recognition System
Romero Ávila An indoor fall detection system for patients and elders
Bouakaz Egocentric camera-based fall detection system using rotation, motion, HOG and LBP
Reiterer The development of an online knowledge-based videotheodolite measurement system
CN117351403A (zh) 位置预测方法、装置及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120329

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20120713

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121101

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121220

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130319

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130327

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130619

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131002

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5384629

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250