JP7036863B2 - ビデオデータを用いた活動モニタリングのためのシステム及び方法 - Google Patents

ビデオデータを用いた活動モニタリングのためのシステム及び方法 Download PDF

Info

Publication number
JP7036863B2
JP7036863B2 JP2020087437A JP2020087437A JP7036863B2 JP 7036863 B2 JP7036863 B2 JP 7036863B2 JP 2020087437 A JP2020087437 A JP 2020087437A JP 2020087437 A JP2020087437 A JP 2020087437A JP 7036863 B2 JP7036863 B2 JP 7036863B2
Authority
JP
Japan
Prior art keywords
video
video data
data
data streams
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020087437A
Other languages
English (en)
Other versions
JP2020149704A (ja
Inventor
ウインター、アレクサンドル
ハルディマン、ニクラウス
フエ ティ、トゥアン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Placemeter Inc
Original Assignee
Placemeter Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Placemeter Inc filed Critical Placemeter Inc
Publication of JP2020149704A publication Critical patent/JP2020149704A/ja
Application granted granted Critical
Publication of JP7036863B2 publication Critical patent/JP7036863B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本明細書に記載された実施形態は、ビデオデータ処理の分野、特に物体検出及びパターン認識に関する。
画像認識、パターン認識、物体検出、その他の目的でデジタルビデオデータを処理するための各種技術が存在する。典型的に、ビデオデータは、一つのタイプのデバイスによって捕捉され、次に、そのデバイスまたは別の処理デバイスによって解析される。例えば、一つの方法は、人間の行動に関する視覚情報を含むビデオ入力から視覚画像プリミティブを取得することを含む。プリミティブは、観察されたプリミティブ・シーケンスと変換されたプリミティブ・シーケンスとの間の距離メトリックに応じてトランザクションのシーケンスから変換された最適であると仮定されるプリミティブのシーケンスに時間的に整列される。別の方法は、一つまたは複数のカメラによって捕捉された画像から基準画像と探査画像とを用いて移動ターゲットを検出する。移動ターゲットは、基準画像と探査画像に共通なエピポーラ方向の位置に関連する基準画像及び探査画像における対応する部分の方向に基づいて基準画像及び探査画像から検出され、検出された移動ターゲットがディスプレイ上に表示される。
現在のビデオデータの処理技術は、典型的には一つのタイプのビデオ入力データについて動作する。多数のソースから集められた大量のデータソースを利用できるようにすることは、個々の提供者にとっては可能ではなかった。
更に、大量のストリーミングビデオデータを効果的に処理することは困難であることが実証されている。
多数の異なるタイプのソースからデジタルビデオデータを受信し、生のデータを異なるソースからの単一のデータソースとして解析して、ある時点での及びある期間に亘っての両方におけるシーンについての事実を決定することができるシステム及び方法があることが好ましい。
一実施形態による活動モニタリングシステムのブロック図である。 一実施形態による一つのビデオ処理アルゴリズムを示すフローチャートである。 一実施形態による、より詳細なビデオデータからの活動エリアの検出を示すフローチャートである。 一実施形態による、より詳細なビデオデータからの待機ラインの区分化の導出示すフローチャートである。 一実施形態による、より詳細なビデオデータからの属性の測定値の導出を示すフローチャートである。 一実施形態によるビデオデータからの待機ラインの区分化を示す図である。 画像に組み込まれた現時点で計算された属性を有する、ビデオカメラによって捕捉された待機ラインを有するユーザインターフェースディスプレイを示す。 実施形態に係るバーチャルターンスタイルを示す図である。
本明細書で説明する実施形態は、環境の様々な局面の状態を判定するために、複数のソースからビデオデータを処理するシステムおよび方法を含む。説明のためおよび説明の容易さのために、記載されたシステムおよび方法は、プレイスメーター(Placemeter)システムまたはプレイスメーターとして呼称される。プレイスメーターは、ビデオストリームを使用して物理的世界の活動レベルを測定し、人と企業が物理的な場所や都市とより効果的かつ効率的に対話できるようにする。
一実施形態では、プレイスメーター・システムは、各種ソースからの入力ビデオストリームを使用する。ソースは、防犯カメラ等の現存のビデオフィード、固定された場所のシンプルなウェブカムに配置されたスマートフォンを介してシステムユーザまたはビデオフィードといくらかのビデオ解析ソフトウェアを含む埋め込みセンサーによって提供されたビデオフィードを含む。システムは、ビデオフィードを管理し、ビデオフィードをデータに処理し、データを格納し、解析値および予測値を計算するソフトウェアを実行する特別にプログラムされたプロセッサからなるバックエンドサブシステムを含む。
様々な新規なビデオアルゴリズムは、ビデオ信号をデータおよび測定値に変換することに特化したシステムの一部である。新規なデータアルゴリズムは、ビデオフィードからの測定値を低解像度の活動マップや気象情報、およびローカルイベントと組み合わせて、空間と時間における場所の活動を推測する。出力インターフェイスには、ビデオから抽出されたデータを人が読み取り可能な情報と有用な行動に変換するためのツールが含まれている。
図1は、一実施形態によるプレイスメーター・システム構成100のブロック図である。入力ビデオソース102は、公衆カメラ、防犯カメラ、モバイル・アプリケーション、及びデジタルビデオストリームを捕捉することが可能な他のデバイスを含む。入力ビデオソース102は、(従来技術では困難な)長期間に亘る連続ストリーミングを行うための独自のプロトコルを含む。帯域幅の設定を再構築し、かつ確認(及び固定)するためにフィードバックループが使用される。
入力ビデオソースの特質及び品質は非常に多様である。本実施形態は、タイプやサポートに関係なく、あらゆる可能性のあるビデオソースの処理及び解析を支援する。これらのソースは、標準のビデオストリームの形態の現存するビデオカメラ、ウェブサイトに適正にアップデートされるjpgファイル形式の現存する公衆ビデオフィード、簡単なウェブカム、防犯目的でインストールされる防犯カメラ(防犯カメラのフィードは、データを抽出して処理されるべくプレイスメーターによって取り込むことができる)、プレイスメーターのビデオセンシングアプリケーションを稼動する旧式の携帯電話から到来するビデオストリームまたはビデオファイルを含む。プレイスメーターのセンシングアプリケーションは、実際のビデオストリームを生成するか、またはビデオファイルを再要求(encore)し、ビデオファイルをFTPサーバまたはアマゾンS3サーバ等のホストされるストレージサーバにプッシュする。スマートフォンをビデオセンサとして用いることにより、ファイルによりデータを簡単にストリーム出力する捕捉デバイスを簡単にセットアップし、かつ構成することが可能となる。このことは、カメラを設定し、カメラのフィードをインターネット上の異なるネットワーク場所にエクスポートする主要な問題を解決する。
システムは、これら各種の記載されたソースから到来するビデオフレームを取り入れるための統一されたフレームワークを提供し、かつビデオフレームから抽出された地理的に配置されたデータまたはタイムスタンプが押されたデータを比較することができるようにビデオフレームの地理位置情報及び時間基準を統一する。
エンコードされ、タイムスタンプが押され、FTPサーバにプッシュされたスマートフォンの連続ビデオファイルを用いる実施形態は、ループにおいてビデオストリーミングサーバを設けることなく、むしろ簡易なファイルサーバでビデオコンテンツの安定したストリームを生成する独創的な方法である。開示された方法は、携帯電話を用いたデータストリーミングに関する多くの現存の問題を解決する。これらの本題は、非既存のプロトコル(よって実施が周知されていない)等の基本的な問題から、法的問題(例えば、GPLソフトウェアは、アップルストアまたはグーグルアップス等の分散型アプリケーションネットワーク上で使用することが許可されていない)、及び携帯電話とビデオアルゴリズムプロセッサとの間に存在する脆弱で高性能なストリーミングサーバを維持することを含んでの高い経費に及ぶ。
これらのビデオフィードは、複数のタイプのエンティティによって生成される。複数のタイプのエンティティは、ビデオフィードを所有し、かつビデオフィードを無料で提供する会社またはエンティティ(例えば、ニューヨークにおけるDOT)と、ビデオフィードを所有し、かつビデオフィードを価値のあるデータに変換することの引替えにビデオフィードをシステムに提供する会社またはエンティティ(例えば、リテイラー)と、所有しかつ動作するビデオフィードへのアクセスに対して課金する会社または組織(例えば、アースカム(earthcam))と、金銭的な交換がない会社(例えば、会社は最低限の無料データと交換で会社のフィードを提供する)と、旧式のスマートフォンを使用するか、または旧式の携帯電話を提供して、電話をウィンドウまたは壁面に掛けて、旧式の電話でプレイスメーターセンシングアプリケーションを稼動することにより、新たなプレイスメータービデオフィードを作成する個々の提供者とを含む。これらの個人を募集するために使用される報酬は、金銭的なものか、または自身のフィードまたは、フィードのプレイスメーターネットワークからプレイスメーターが抽出するデータから個人が取得する価値のある物に基づく。
データの洞察及びデータの解析を行わせるために全てのこれらのソースをコンパイルすることは、合成された全ての単一データソースよりもよりスケーリングネットワーク効果を有する。このことは、多数のソース(個々の提供者を含む)からのデータを合成された安定したソースに集めることによりある程度可能となる。
バックエンドサブシステム104は、入力ビデオソース102からビデオデータストリームを受信する。管理モジュール112は、ビデオデータストリームを受信するフィード管理モジュールである。他の管理モジュールは、ワーカー管理モジュール114、位置管理及び地理的知識モジュール116、及びデータストレージモジュール118を含む。データストレージモジュール118は、バックエンドサブシステム104内に存在する単一のモジュールとして示されている。しかしながら、実際のデータストレージは、インターネットのどこかに分散することができ、典型的には分散されている。データストレージモジュール118は、従ってデータ管理モジュールであり、可能な限りは実際のデータストレージであり、全てではないが、データは局所的に格納される。
入力ビデオソース102は、提供者マネージャ110とも通信する。提供者マネージャ110は、位置及び所有者を含んで、各種入力ビデオソースをモニタリングし、かつ追跡する。ある場合には、個々の所有者はシステムでビデオデータを利用可能にすることに対して代金を支払う。ビデオ解析ワーカー106は、以下に詳細に説明するようなビデオ解析ワーカープロセスを実行する役割を有する複数の専用プロセッサを表す。解析されたビデオデータは、データストレージマネージャ118によって格納され、データアナリティクス(data analytics)108によって更に解析される。データアナティクス108は、データアナティクスプロセスを実行する専用のプロセッサを表す。データアナティクス108は、更に外部データソース122へのアクセスを有し、外部データソース122は、気象情報、ビデオデータ等の場所に関連するイベント情報等のデータを提供する。データアナティクス108は、外部データとビデオ解析ワーカー106の出力とを合成して、データストレージマネージャ118に格納されるより意味のある出力データを生成し、ユーザインターフェース及びアプリケーション120に出力する。ユーザインターフェース及びアプリケーション120は、ユーザに極めて容易にアクセス可能な形式で利用可能な処理済みのビデオデータを作成する。ユーザインターフェース120は、各種実施形態において、パーソナルコンピュータ及びモバイルデバイスを含む、処理能力、通信能力、及び表示能力を有するコンピューティングデバイス上で利用可能である。
一実施形態において、バックエンドシステムは、マルチレイヤシステムであり、マルチレイヤシステムの役割は、全ての現存のビデオストリーム及びビデオストリームのソースを登録すること、ソースが提供者である場合、利用可能性情報及びコンタクト情報を格納して、それらソースの利用可能性に基づいてデータを提供するか、または支払いを行うこと、異なるサブシステムにおける全てのビデオフィードを処理し、このシステムにデータを報告する「ワーカー」プロセスを管理すること、ビデオストリームから抽出されたデータを集めて格納すること、各種ソース(例えば、ビデオ測定、気象API)からの全てのデータを統合して合成すること、アプリケーション用またはシステムの出力としてのデータをパッケージングし、供給すること、及び各種ソースのデータについてビデオアルゴリズムプロセッサの依存性を構造的に除去することを含む。
バックエンドの一態様によれば、バックエンドは、全ての入力ソース及びワーカープロセスが異なるタイプのネットワーク及び環境に亘ってどのように分散されるかについて調整する役割を有する。アプリケーションプログラムインターフェース(API)は、ワーカープロセス(十分なRAM及びCPUパワーを有するLinux(登録商標)、Mac
OS(商標)またはWindows(登録商標)等の何らかのオペレーティングシステム上で稼動するワーカーソフトウェアプロセス)用に形成され、ワイドエリアネットワーク(WAN)を介してプレイスメーターバックエンドに登録し、個々のフィードを対応するアルゴリズムパラメータ及びアルゴリズム仕様に割当て、フィードの処理、および同じAPIエンドポイントファミリーに戻る出力データの報告を開始する。これらのワーカープロセスは、活動のレベル、CPU及びRAMの占有率及び利用可能性についても報告する。そのようなシステムを用いて、プレイスメーターは、ワーカープロセスを多くの多様な環境においてインスタンス化して(instantiate)、CPUパワーに寄与する利用可能
なプラットフォームを活用することができる。
システムは、各種ビデオアルゴリズム及び各種データアルゴリズムを実行する。一実施形態において、ビデオアルゴリズムは、3層スタックに基づく。一実施形態では、3つのアルゴリズムの層は、ビデオフィードが静止視点及び0.2フレーム/秒を超える平均フレームレートを有しているという仮定に基づくが、実施形態はそれに限定されない。
ビデオアルゴリズム
移動物体検出層は、画像における移動する物体または移動する部分を検出する。移動物体検出は、カラー画像の各チャネルの値のガウシアン分布、または結合チャネルの振幅を用いて各ポイントをモデリングすることにより、固定ビデオストリームのバックグラウンド(background)画像を推定することに基づく。各画素は、カラー画像の全てのチャネルに関するガウシアン分布、3つのカラーチャネルの線形結合として表される画素輝度に関するガウシアン分布としてモデル化される。
そのようなモデルは、画像の各座標点に対して作成され、メモリに格納される。新たなフレームがシステムに到達すると、ガウシアンモデルの推定は、画素値の経時的合計Sと、2乗値の合計Tとを格納することにより同じ座標において各画素の新たな値で更新される。観察の総計がNであるとすると、ガウシアンモデルの平均および標準偏差は、平均値に関してはS/Nとして、標準偏差の2乗値に関しては(2S-S*S)/Nとして評価される。
ガウシアン値を平均及び標準偏差における潜在的変化に対して調節するために、これらの値は、移動タイムウィンドウについて計算される。移動平均に亘って全ての値を計算することの複雑性を低減するために、半距離オーバラッピング手法が使用される。Mが、平均及び標準偏差が推定される最小ウィンドウサイズ(サンプルの数)である場合、2つの組(現在の総計の組および将来の総計の組)のオーバラップ総計及び2乗総計は、常に格納される。各組は、サンプルの数、値の総計、及び2乗値の総計を有する。第1の組がM個のサンプルに到達すると、第2の組は、リセットされ、続いて、各新たなフレームを用いて更新される。第1の組がM*2個のサンプルに到達すると、将来の組がM個のサンプルに到達する。将来の組の値は、現在の組の値にコピーされ、将来の組がリセットされる。この方法では、M個の第1のサンプルの後の任意の時点において、ガウシアンモデルの推定は、常にM個のサンプルを超えており、M*2個のサンプルのウィンドウについて時間の経過とともに調節される。Mは、典型的には、アプリケーション及びビデオフレームレートに応じて10~1000の範囲に設定される。
新たなフレームが入力されると、画像の各画素位置に関して、最初に現在の値がバックグラウンドの一部か否かが評価される。そのようにするために、現在の画素値の間の正規化距離が、各色チャネルに関して各チャネルに対するバックグラウンド平均値を用いて計算される。正規化距離は、バックグラウンド画像用の標準偏差に調節された、最も近い平均に対する現在のポイントの距離である。この距離は、各チャネルの振幅または全てのチャネルの平均に関して正規化される。上記のように計算された生の距離は、平均値の均一係数で除算される。
正規化距離が、所定の閾値よりも大きい場合、画素はフォアグラウンド(foreground)画素として分類され、かつ移動物体に割当てられる。そうでない場合、画素は、バックグラウンドの一部として見なされ、画素は、フロントエンドマスクに割当てられず、現在のバックグラウンドモデルを更新するために使用される。
いずれかの時点で、アルゴリズムは、バックグラウンドにおいて急激な変化があったものと推定し、候補バックグラウンドポイントを維持する。そのポイントは、更新されるか、または検出された各ポイントに関してフォアグラウンドポイントとして付与される。
画像が非常に大きい場合、画像が整数因子によって副次サンプルに分割されて、バックグラウンドの低解像度バージョンを評価することができる。バックグラウンド統計は、n個のフレーム毎に一度更新することもできる。これは、ビデオの大きさ及びフレームレートに関係なくアルゴリズムをリアルタイムに行うのに非常に効率が良い。そのようなプロセスのCPU占有率は、これら2つのパラメータを用いて制御及び決定される。これは、利用可能な計算パワーまたは所望の計算パワーに基づいてアルゴリズムの反応性及び正確性を線形的に調節するための独特な方法である。
物体分類層は、移動フォアグラウンド物体(前に記載の層を参照して記載されている)を既知の物体または「ノイズ」の部類に分類する。一実施形態において、ここでは、ハールピラミッドアプローチ(Haar Pyramid approach)のカスタム化されたバージョンが使用される。全ての移動物体が検出されると、それらは、ハールに似た特徴のカスケード分類(ピー.エー.ビオラ(P.A.Viola)、エム.ジェイ.ジョーンズ(M.J.Jones)、ロバストなリアルタイム顔検出(Robust Real-Time Face Detection)、ICCV 2001)に基づいて典型的な教師付き学習アプローチを用いて分類される。
実施形態によれば、システムは、訓練され、かつテストされ、アルゴリズムは、移動物体についてのみ稼動することで、訓練および入力する画像の組の可能性及び多様性が低減される。要するに、分類手法は、他の可能性があるマトリックスの画素から一つのタイプの物体を認識することとは対照的に、互いから移動する市街地物体を認識するためにのみ必要とされる。
追跡層は、一つの任意の物体の軌跡を時間の経過とともに検出する。システムは、現存する既知のフォアグラウンド物体または新たに合成された物体に基づく画像における軌跡のホリスティックモデル(holistic model)に基づいて新規なアプローチを使用する。
解析層は、タイプ情報及び軌跡情報を用いて車両速度または歩行者速度、及びある場所に入るか、または出る人等の高レベルの人間が読み取り可能なデータを検出する。建物のレイアウト、車両交通の流れ、歩行者通行の流れに基づいて推定を引き出すことができる。
データアルゴリズム:ライン解析
実施形態は、上記のビデオアルゴリズムの主スタックから得られたデータに基づいて特定のタスクを行うデータアルゴリズムを含む。データアルゴリズムの事例としてライン解析について以下に詳細に説明する。
ライン解析は、ラインのビデオを用いて何人の人がラインに待機し、人が全体のラインを超えるのにどれほどの時間がかかったのかを検出するデータアルゴリズムである。実施形態は、待機するラインをリアルタイムのビデオシーケンスで解析する。アルゴリズムの目標は、ラインに加わる誰かがいるかどうかを決定するプロセスにおいて有用なライン属性のリアルタイムの推定である。例えば、現時点でラインに待機している人の数と、現在の待機時間とが抽出される。現在の待機時間は、この時点でラインに加わる人がいる場合にラインで待機しなければならない時間の近似である。図2を参照すると、解析は、新たな捕捉されたビデオフレーム毎に繰り返される3つのプロセス:1)活動エリアの検出、2)待機ライン区分化、3)属性の測定を含む。
図3を参照すると、第1のステップは、潜在的に人の活動があるビデオシーケンスにおける活動エリアを検出する。このステップは、以前に説明した移動フォアグラウンド検出を用いて行われる。現在のフレームは、プロセス(1.1)の移動検出及びプロセス(1.2)のフォアグラウンド検出を受けた入力である。一つのインスタンスにおけるこれらのプロセスの出力は、活動マスクを作成するように合成されて、(1.4)の輪郭抽出プロセスを受ける。このプロセスの出力は、入力ビデオデータからの待機ラインを本質的にモデリングする活動輪郭である。別のインスタンスにおけるプロセス(1.1)及び(1.2)の出力は、プロセス(1.3)のバックグラウンドモデルの更新を受ける。予測されたバックグラウンドが生成され、予測されたバックグラウンドは、プロセス(1.2)のフォアグラウンド検出に戻される。
プロセス(1.1)は、現在のフレーム入力の開始により具体的に稼動する。現在のフレーム入力は、プロセスZ^(-1)、絶対値差分、及び二値化閾値を含む非線形時間ドメインハイパスフィルターを通過する。非線形時間ドメインハイパスフィルターを通過した後、彩度を有するR面、G面、B面が追加される。この出力は、空間ドメイン中央値フィルタを通る。フィルタリングされると、出力は2つの経路のいずれかに進む。一つのインスタンスにおいて、出力は、時間ドメインローパスフィルタリング及び二値化閾値を有する非線形時間ドメインローパスフィルタを通る。フィルタを通った後、マスクを有するコピーが作成され、二値化閾値が求められる。この出力は、高活動エリアと見なされ、他のインスタンスによって生成される低活動エリアに加算される。その他のインスタンスにおいて、空間ドメインフィルタからの出力は、上記した同じ線形時間ドメインローパスフィルタを通過する前に、色が反転され、ノイズのあるフレームが排除される。この出力は、低活動エリアである。低活動エリアは、高活動エリアから減算されて、移動を伴うエリアが得られる。
プロセス(1.2)が、現在のフレーム及び予測されたバックグラウンドの入力を伴って開始される。現在のフレームと予測されたバックグラウンドとの絶対値差分が求められ、彩度を有するR面、G面、B面が加えられる。絶対値差分は、バックグラウンド(MADB)と合成され、この二値化閾値が求められる。
プロセス(1.3)は、入力としての活動マスクを用いて開始することにより具体的に稼動する。活動マスクは、オープニングプロセスを介して送信され、マスクが展開される。MAMがそのプロセスの出力に導入されて、バックグラウンドが変化しないマスクエリアが、コピーされて、予測されたバックグラウンドと合成されるべく送信される。MAMが導入された後、プロセスは、マスクを反転して、バックグラウンドが変化するエリアを取得して、これらのマスクエリアを用いて現在のフレームのコピーを作成する。プロセスは、マスクのコピーも取得して、そのコピーを予測されたバックグラウンドと合成する。これらのコピーの加重合計が求められ、変化していないバックグラウンドのマスクされたコピーと合成される。
プロセス(1.4)の輪郭抽出は、活動マスクの入力に伴い開始される。活動マスクにオープニングが適用され、出力がTC89アルゴリズムを介して処理されて、活動輪郭が得られる。
図4を参照すると、第2のステージでは、第1のステップからどのエリアが実際に待機ラインと一致するかということが推測され、あらゆる他の周囲の活動が排除される。待機ライン区分化により、前のブロックから活動輪郭が求められ、活動輪郭のどれが実際に待機ラインに属しているかが判定される。アルゴリズムは、ラインヘッドがどこにあるのかを探すための手動で定義されたエリアを必要とする。ラインヘッドは、ラインにおいて人がアクセスしようとして待機しているポイントにあり、まさにアクセスしようとしている人によって構成される。そのようなラインヘッドが見つかった場合、曲線モデルを当てはめることによりラインの第1のセグメントの残りが求められる。ラインが人または遮蔽物体の間隙により不連続である場合、他の潜在的なラインの断片が探索され、かつモデルに含められる。最後に、観察があまりノイズを有していない場合、現在のフレームにおいて発見されたラインを用いて長期的なラインモデルが更新される。
待機ラインの画像に間隙がある状況があり得る。この状況は、人が互いに非常に離れて立っていることに起因するか、またはラインが木またはライトポール等の遮蔽物体の後ろを通っていることによる。これらの状況に対処するために、ラインの第1の輪郭のエンドポイントの後に展開している輪郭が探索される。輪郭がある条件に合致する場合、輪郭がラインの尾部に付加され、エンドポイントが更新され、潜在的なライン輪郭が発見されなくなるまでサーチプロセスが繰り返される。
図4を参照すると、より詳細には、待機ライン区分化のプロセスは、入力としての活動輪郭を用いて開始される。動作(2.1)では、ラインの第1の輪郭が完了して入力が生成され、その入力が動作(2.2)で処理されて、輪郭に亘る開始ポイントから最適な経路が求められる。この動作の出力は、動作(2.3)で処理されて、断片化された輪郭に亘って第1の輪郭の終了ポイントからの経路が延長される。(2.3)の出力が動作(2.4)で処理されて、ラインモデルが更新されて、ラインの曲線モデル及びライン輪郭の2つの出力が作成される。
ラインの第1の輪郭を見つける動作(2.1)は、活動輪郭の入力に伴って開始される。活動輪郭は、動作によって処理されて、ユーザが定義したラインスタートボックスに接触する輪郭が求められる。動作の出力は、ソートされて、最大のエリアを有する輪郭が求められる。この動作からの出力は、ラインの第1の輪郭である。
輪郭に亘る開始ポイントからの最適な経路を求める動作(2.2)は、入力のラインの第1の輪郭を用いる。ラインの第1の輪郭は処理されて、輪郭の曲率が抽出される。この処理の出力は曲率がローパスフィルタリングされる。曲率のフィルタリングの後、曲率の最大値が得られる。この出力の結果は、開始ポイントと利益のあるスコアBを最大化する最大値との間の輪郭の経路を提供する。このプロセスの出力は、最適な曲線モデルである。
断片化された経路に亘って第1の輪郭の終了ポイントからの経路が延長する動作(2.3)は、最適な曲線モデルを入力として取得することにより動作する。続いて、最適な曲線モデルの終了ポイントが求められる。次に、最適な曲線ポイントの回りの局所間隔における派生物が求められる。次の動作は、反復プロセスに対する初期化プロセスであり、初期化プロセスでは、現在のラインの第1の輪郭がSに格納され、全ての他の輪郭がRに格納され、曲線の終了ポイントが経路の組Pの第1の要素として加えられ、この第1の要素は、添字インデックスiからゼロを割当てることにより繰り返される。反復プロセスは、R内のラインの第1の輪郭Sに近く、かつ微妙な折り返しは含まない全ての輪郭要素Nに亘って行われ、これら2つの判断は、入力閾値マップに基づいて行われる。閾値マップは、プロセスのこの部分における入力である。出力は、2つの結果に関して解析される。Nのサイズが0である場合、延長経路(p)が求められ、Nのサイズが0でなく、S=Nである場合、RからNが除去される。このプロセスは、現在の最適な曲線の終了ポイントから最遠のポイントのNにおける全ての要素の平均を再計算する。派生物はこの見積もられた平均値を用いて更新される。現在の最適な曲線の終了ポイントが、派生物に亘って見積もりが最も高いNにおける輪郭のポイントと等しくされる。このプロセスの出力が、延長された経路Pに加えられ、閾値マップを用いたNの計算の反復が生じる。
ラインモデルを更新する動作(2.4)は、延長された経路(p)の入力に伴って開始される。経路は、固定された数のポイントに副次サンプル化される。副次サンプルは、延長された経路(p)の総合長さを求めるために使用され、総合長さから総合長さの逆関数が減算されて、ガウシアン推定器に入力され、かつ正規化に使用されるΔLが生成される。
正規化されたΔLが非常に高いと判定された場合、ラインの曲線モデルが求められる。正規化されたΔLが非常に高いと判定されなかった場合、ラインのモデルは、ラインの曲線モデルを出力する前に、Pを用いて更新される。
図5及び6を参照すると、第3のステップは、関心箇所の属性を推定する。待機ラインに関して測定可能な2つの属性(ラインにおける人の数及び平均待機時間)がある。人の数は、ライン長さから発見的人口密度係数を用いて推定される。待機時間は、ライン長さ及び平均ライン速度から推測される。
ラインに待機している人の数の推定は、人口密度関数のラインモデルに沿った線積分である。密度関数の変数は、グラウンド面(ground plane)上の距離であるので、画像画素からグラウンド面の距離単位への変換は、最初に適用される必要がある。変換は、特定のカメラの内在パラメータ及び外因性パラメータに関して予め計算される。密度関数は、数値積分され、従って、結果の適切な正確性を確実なものとするために第1のスーパーサンプリングステップが必要とされる。
低品質の映像素材において、時には個々の人を区別することが不可能なことがあるため、全体のラインを進むのにかかる時間を知るために待機している人を追跡することが通常実現できない。代わりに、待機時間を推定するこのアプローチは、ライン長さを平均ライン速度で除算することを含む。ライン速度は、連続フレームの各ペアに亘る一組の特定箇所のライン輪郭へのオプティカルフローを計算することにより推定される。
特定箇所は、ライン輪郭エリアに亘ってシャイ-トマシ(Shi-Tomasi)コーナー検出[1]を行うことにより見つけられる。オプティカルフローは、ルーカス-カナデ(Lucas-Kanade)アルゴリズム[2]のピラミッド型のバージョンを用いて計算される。ノイズのあるフローベクトル(ラインを歩行する人に関するありえない速度に伴うもの)は、結果の組から除去される。ライン速度を平均速度で除算したときに、結果として生じる待機時間は多数のフレームである。この数量は、カメラのフレームレートによる。秒への変換は、結果をカメラフレームレートで除算することにより達成される。システムは各種フレームレートのビデオストリームを扱わなければならないので、この測定値を提供するフレームレート推定器が設けられる。
図5を参照すると、詳細には、推定することができる多くの属性のうちのいくつかは、3.1の人の数の推定及び3.2の平均待機時間の推定を含む。人の数を推定するために、ラインの曲線モデルがスーパーサンプリングされ、カメラ-グラウンド面間の変換を用いて画素における出力長さが実際のグラウンドユニットに区分化される。人の密度関数は、実際のラインに亘って積分され、人の数の推定値が生成される。
3.2を参照すると、ライン輪郭を変換し、最短の長さモデルに関する輪郭を取得し、ラインの曲線モデルの変換値を用いることにより平均待機時間が推定される。輪郭からマスク輪郭が生成される。続いて、(現在のフレームを用いて)マスクを有するコピーを使用してこのマスクされたフレームにおけるシャイ-トマシ特徴が求められる。また、(変換された現在のフレームを用いて)反転変換されたマスクを有するコピーを使用して、第2のコピーにおけるシャイ-トマシ特徴が求められる。両方のコピーからのシャイ-トマシ特徴は、ルーカス?カナデのピラミッド型オプティカルフローへの入力であり、その入力は、フローベクトルを算出するために供給される。続いて、ノイズのあるフリーベクトルは、フィルタリングにより除去されて、結果的に生じるベクトルは、ラインモデルに亘って射影される。
カメラ-グラウンド面間の変換を用いてカメラベクトルがグラウンドベクトルに変換され平均化されて、ライン速度の推定値が生成され、その推定値は、ガウシアン推定器を通して処理されたものと通さないものとの両方についてライン速度の異常値がフィルタリングされる。フィルタリングされたライン速度は、時間ドメインローパスフィルタを通して処理されて、平均待機フレーム(ライン長さがライン速度で除算されたもの)が得られる。平均待機フレームは、フィルタリングされ、待機フレーム推定器を用いてフレームから秒に変換されて、平均待機が生成される。
図7は、画像に組み込まれた現時点で計算された属性を有する、カメラによって捕捉された待機ラインを有するユーザインターフェースディスプレイを示す。
付加的なデータアルゴリズム
軌跡を用いた建物の入り口の自動検出:多くの軌跡の開始及び終了が建物の入り口であるエリア
上記した認識及び追跡アルゴリズムは、歩行者、車両、及び他のタイプの市街地要素の軌跡を検出、認識及び追跡することが可能である。このアルゴリズムの出力に基づき、人または車両の開始ポイント及び終了ポイントを検出することも可能である。ビデオストリームのエリアを検出することができ、その検出には、より多くの人または車両が長時間(典型的には24時間)に亘って軌跡を開始または終了することが必要である。これらのエリアは、ビデオストリームの境界にない場合、これら要素が、現れるか、または消失するエリアとなる。
これらエリアのうちのいくつかは、樹冠、光景が隠れる大規模な物体等の遮蔽のエリアであり得る。そのような場合、軌跡の開始ポイント及び終了ポイントに対する明確な境界があり、遮蔽があるところでは、軌跡は全く開始あるいは終了されない。
軌跡がより散乱しかつ分散された状態で現れるか、または消失するような場合、おそらく建物の入り口であるということが分かる。
建物の入り口または出口を自動的に検出するために、ビデオストリーム上のマップ上の全ての開始ポイント又は終了ポイントを表現する。続いて、これらのポイントの地理的な分布の局所ウィンドウ解析を行う。モーメント解析または簡単な交差点距離解析を用いるか、または主要なコンポーネント解析を用いる。モーメントおよび距離は、建物の入り口が大きなインジケータを示すことを証明する。これは、建物を自動的に検出するのみならず、入ったり出たりする人をカウントすることを開始するのに非常に有用である。その入り口エリアにおける全ての軌跡の開始は、一人の人が建物を出るときにカウントされる。これらの入出を連続的にカウントすることにより、検出エラーに関する数を統計的に修正して、任意の場所における占有及び往来のリアルタイムのカウント値を得ることができる。このことは、人、車、あらゆるタイプの車両に関して有効である。
市街地シーンの自動区分化:人または車両が画像において平均的にどこに位置しているかを解析することにより、どこが歩道、道路、バイクルート、及び道路横断であるのかを自動的に検出することができる。
上記したものと同じアルゴリズムを用いて、市街地エリアの異なるタイプの要素についての軌跡情報を得る。このデータ解析に関して、歩行者、車両、公共輸送車両、自転車について焦点を合わせる。全ての軌跡をビデオフィードのマップ(ビデオフィード画素に対応する画素)に加えることにより、各タイプの要素がどこに移動し、かつ画像のどこに存在しているかについてのマップを得ることができる。歩行者の場合、これらのエリアは、たいてい歩道、交差道路、公園、広場であり得る。車両の場合、道路であり得る。自転車については、自転車レーンであり得る。非重複時間において車両及び歩行者が検出される場合、これは横断歩道であり得る。このマップは、物体の検出及び分類が非常に正確でない場合であっても全く正確である。実施形態は、典型的には10%未満の偽陽性率及び50%を超える検出率を有する検出器を用いて動作する。
このアプローチを用いて、画像のマップが自動的に組み立てられ、分類結果を改善することができる。次のプロセスでは、このマップに基づいて検出スコアを掲示することができ、歩道エリアにおける歩行者の検出スコアが増加し、非分類のエリア(建物、空他)において減少する。また、直前に記載した事後アプローチと対照的な事前の最適化アプローチにおいて画像の場所に基づいてアルゴリズムパラメータを調節することができる。
「バーチャルターンスタイル」(Virtual turnstile)アプローチ:何人の人がビデオ上に描かれたラインを横切るかをカウントする。
データ解析において、グループが考慮される。アルゴリズムは、第1のステップにおいて自己較正を行って、人の平均規模を測定する。これを行うために、アルゴリズムは、閾値を超える全ての移動物体のサイズを登録する。アルゴリズムは、それらを大抵は人であると推測する。アルゴリズムは、それらのうちの少なくとも任意のパーセントNは、グループに合成されない。全てのサイズを指示した場合、N*総合要素/100の要素は、特有の人のサイズを表す。これは、何人の人がラインを横切る塊内に存在しているのかを推定するのに使用される。人と要素との間には常にオーバラップが存在していると推定され、回帰関数において塊における画素の数から塊における人の数に変わる。代替的に、グラウンドトゥルース(ground truth)アプローチを用いてパラメータを調節して、線形パート当たり回帰関数(linear per part regression function)を有するようにする。この場合、線形パート当たりのモデル(一組の連結されたセグメント)が関数f(x)=nとして設計され、ここで、xは、画素の数であり、nは見積もった人の数である。線形回帰を用いて開始され、サンプルが2で除算されて2つのサブセットが設定され、所望の数のセグメント(典型的には8)に到達するまで繰り返される。
この方法論は、図8に示すように、スマートフォンカメラで捕捉されたNYCにおける9-11メモリアルパークの景色でテストされた。通常の状態では98%までの正確性がある。平均の状態での正確性は86%に達する。
本明細書に記載されたシステム及び方法の態様は、フィールドプログラマブルゲートアレイ(FPGA)、プログラマブルアレイロジック(PAL)デバイス、電気的プログラマブルロジック及びメモリデバイス、及びスタンダードなセルベースのデバイス等のプログラマブルロジックデバイス(PLD)、及び特定用途向け集積回路(ASIC)を含む各種回路に機能的にプログラムされたものとして実施され得る。システムの態様を実施する他の可能性のあるものとしては、メモリを有するマイクロコントローラ(電気的消去書き込み可能なリードオンリーメモリ(EEPROM等))、埋め込み式マイクロプロセッサ、ファームウェア、ソフトウェアその他を含む。更に、システムの態様は、ソフトウェアベースの回路エミュレーション、個別ロジック(シーケンシャル及びコンビナトリアル)、カスタムデバイス、ファジー(ニューラル)ロジック、量子デバイス、上記デバイスタイプのいずれかの混成を有するマイクロプロセッサにおいて実施され得る。もちろん、基盤デバイス技術が各種部品タイプ、例えば相補金属酸化物半導体(CMOS)等の金属酸化物半導体電界効果トランジスタ(MOSFET)技術、エミッタ結合ロジック(ECL)等のバイポーラ技術、重合体技術(例えば、シリコン共役重合体及び金属共役重合体金属構造)、混合アナログ及びデジタル他において提供されてもよい。
本明細書に開示された各種機能または処理は、各種コンピュータ読み取り可能な媒体に具現化されたデータおよび/または命令として記述され、動作の点で、レジスタトランスファ、ロジック部品、トランジスタ、レイアウト配置、および/または他の特性に具現化され得る。そのようなフォーマット化されたデータおよび/または命令が具体化されたコンピュータ読み取り可能な媒体は、各種フォーム(例えば、光学、磁気または半導体ストレージ媒体)の不揮発性ストレージ媒体及びそのようなフォーマット化されたデータおよび/または命令を無線、光学、または有線信号伝達媒体を介して転送するために使用され得る搬送波、またはそれらの組み合わせを含むが、これらに限定されない。そのようなフォーマット化されたデータおよび/または命令を搬送波で転送する例は、インターネットおよび/またはコンピュータネットワークを介して一つまたは複数のデータ転送プロトコル(HTTP、FTP、SMTP他)により転送(アップロード、ダウンロード、電子メール他)することを含むが、これに限定されない。一つまたは複数のコンピュータ読み取り可能な媒体を介してコンピュータシステム内に受信する場合、システムの下で部品および/またはプロセスのそのようなデータおよび/または命令ベースの記述された表現は、一つまたは複数の他のコンピュータプログラムと連動してコンピュータシステム内の処理エンティティ(例えば、一つまたは複数のプロセッサ)によって処理され得る。
文脈上明確に別段の要求がない限り、明細書および特許請求の範囲を通して、用語「備える」、「備えている」等は、排他的または網羅的な意味とは対照的に包括的な意味で解釈され、換言すると、含むがそれに限定されないという意味である。単数または複数の数字を使用する語は、それぞれ複数または単数をも含む。さらに、「本明細書」、「以下の」、「上の」、「下の」および類似の用語の単語は、本出願全体を指し、本出願の特定の部分を指すものではない。用語「または」が2つ以上の項目のリストを参照するのに使用されるとき、その用語は、リスト内の項目のいずれか、リスト内のすべての項目、およびリスト内の項目の組み合わせの解釈のすべてをカバーする。
システムおよび方法の図示された実施形態の上記の説明は、網羅的であること、またはシステムおよび方法を開示された厳密な形態に限定することを意図したものではない。システム構成要素および方法の特定の実施形態および実施例は、説明の目的で本明細書に記載されているが、当業者が認識するように、システム、構成要素および方法の範囲内で各種同等の変更が可能である。本明細書で提供されるシステムおよび方法の教示は、上記のシステムおよび方法だけでなく、他の処理システムおよび方法にも適用することができる。
上述の各種実施形態の要素および動作は、さらなる実施形態を提供するために組み合わせることができる。上記及び他の変更は、上記の詳細な説明に照らして、システム及び方法に対して行うことができる。
一般に、以下の特許請求の範囲において、使用される用語は、システムおよび方法を明細書および特許請求の範囲に開示される特定の実施形態に限定するものと解釈されるべきではなく、特許請求の範囲の下で動作するすべての処理システムを含むものと解釈されるべきである。したがって、システムおよび方法は、本開示によって制限されず、代わりにシステムおよび方法の範囲は、特許請求の範囲によって完全に決定される。
システムおよび方法の特定の態様は、いくつかの請求項の形態で以下に示されるが、本発明者は、任意の数の請求形態においてシステムおよび方法の各種態様を企図する。例えば、システムおよび方法の1つの側面のみが機械読み取り可能な媒体に具体化されるとして列挙されてもよいが、他の態様も同様に機械読み取り可能な媒体に具体化されてもよい。したがって、本発明者らは、システムおよび方法の他の態様のためのそのような追加請求形態を追求するために、出願後に追加の請求を加える権利を留保する。

Claims (10)

  1. プロセッサによる実行時に前記プロセッサにビデオ処理方法を実行させる命令が格納されたコンピュータ可読媒体であって、前記ビデオ処理方法は、
    複数のビデオデータストリームを処理してシーンに関連するリアルタイム情報を含む処理済みビデオデータを生成する複数のビデオ解析ワーカープロセスを実行するステップを含み、前記複数のビデオデータストリームは、異なるタイプの複数のデバイスから生じたものであり、
    前記複数のビデオ解析ワーカープロセスは、
    前記複数のビデオデータストリームから処理されたデータを収集して格納し、
    異なるタイプのビデオデータストリームに対する前記プロセッサの依存性を構造的に除去し、
    前記複数のデバイスから前記ビデオデータを合成し、
    固定ビデオストリームのバックグラウンド画像を推定することに基づいて移動物体を検出し、
    移動物体を「既知物体」及び「ノイズ」の1つとして分類し、
    時間の経過とともに1つの物体の軌跡を追跡する、コンピュータ可読媒体。
  2. 前記方法は、車両速度、歩行者速度、ある場所に入る人、およびある場所から出た人を含む人を読み取り可能なデータを検出するために、移動物体のビデオデータのみを処理する前記ビデオ解析ワーカープロセスをさらに含む、請求項1に記載のコンピュータ可読媒体。
  3. 前記方法は、処理されたデータを出力としてパッケージ化して提供する前記ビデオ解析ワーカープロセスをさらに含む、請求項1に記載のコンピュータ可読媒体。
  4. 前記方法は、前記複数のデバイスのうちの1つであるモバイルデバイス上でビデオセンサアプリケーションを実行することをさらに含み、前記ビデオセンサアプリケーションは、前記モバイルデバイスを使用して各種機能を実行し、前記機能は、
    連続ビデオファイルを符号化すること、
    連続ビデオファイルにタイムスタンプを押すこと、
    連続ビデオファイルをファイルサーバにプッシュして、安定したビデオデータストリームを生成することを含む、請求項1に記載のコンピュータ可読媒体。
  5. 前記方法は、シーンに関するグラフィック情報およびテキスト情報をリアルタイムで表示する1つまたは複数のユーザインターフェースに対して処理済みデータを利用可能にするビデオ解析ワーカープロセスをさらに含む、請求項1に記載のコンピュータ可読媒体。
  6. コンピュータにより実行されるビデオデータを処理する方法であって、
    異なるタイプのビデオデータストリームを生成する、異なる場所にある異なるタイプの複数のソースから複数のビデオデータストリームを受信する複数の専用ビデオ解析プロセッサと、
    前記複数の専用ビデオ解析プロセッサは、
    異なるタイプのビデオデータストリームを処理して
    シーンに関連するリアルタイム情報を含む処理済みビデオデータを生成し、
    複数の異なるタイプのビデオストリームから処理済みデータを収集して格納し、
    異なるタイプのビデオデータストリームに対する専用ビデオ解析プロセッサの依存性を構造的に除去し、
    前記複数のソースからのビデオデータを合成する複数のビデオ解析ワーカープロセスを実行し、
    前記複数のソースのうちの1つであるモバイルデバイス上でビデオセンサアプリケーションを実行するステップを含み、前記ビデオセンサアプリケーションは、前記モバイルデバイスを使用して各種機能を実行し、前記機能は、
    連続ビデオファイルを符号化すること、
    連続ビデオファイルにタイムスタンプを押すこと、
    連続ビデオファイルをファイルサーバにプッシュして、安定したビデオデータストリームを生成することを含む、方法。
  7. 前記複数のビデオデータストリームを処理して、前記複数のビデオデータストリームからの地理的位置情報および時間基準情報を統合して、前記複数のソースから生成された類似の地理的位置情報および時間基準情報を有する処理済みビデオデータを比較できるようにする前記複数のビデオ解析ワーカープロセスを含む、請求項6に記載の方法。
  8. 異なるタイプのビデオデータストリームを処理して、処理済みデータを出力としてパッケージ化して提供する前記複数のビデオ解析ワーカープロセスをさらに含む、請求項6に記載の方法。
  9. 前記複数のビデオ解析ワーカープロセスは、複数のオペレーティングシステム上でインスタンス化され、かつ複数のオペレーティングシステム上で実行可能となるように、前記ビデオ解析ワーカープロセスが、複数のアプリケーションプログラミングインターフェースを介してアクセス可能となっており、前記複数のオペレーティングシステムは、Linux、Mac OS、およびWindowsを含む、請求項6に記載の方法。
  10. 前記複数のビデオ解析ワーカープロセスは、中央処理装置(CPU)の活動、可用性、およびデータストレージ容量のレベルを報告する、請求項9に記載の方法。
JP2020087437A 2014-05-30 2020-05-19 ビデオデータを用いた活動モニタリングのためのシステム及び方法 Active JP7036863B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201462005815P 2014-05-30 2014-05-30
US62/005,815 2014-05-30

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017515873A Division JP2017525064A (ja) 2014-05-30 2015-06-01 ビデオデータを用いた活動モニタリングのためのシステム及び方法

Publications (2)

Publication Number Publication Date
JP2020149704A JP2020149704A (ja) 2020-09-17
JP7036863B2 true JP7036863B2 (ja) 2022-03-15

Family

ID=54700082

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017515873A Pending JP2017525064A (ja) 2014-05-30 2015-06-01 ビデオデータを用いた活動モニタリングのためのシステム及び方法
JP2020087437A Active JP7036863B2 (ja) 2014-05-30 2020-05-19 ビデオデータを用いた活動モニタリングのためのシステム及び方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2017515873A Pending JP2017525064A (ja) 2014-05-30 2015-06-01 ビデオデータを用いた活動モニタリングのためのシステム及び方法

Country Status (4)

Country Link
US (3) US10432896B2 (ja)
EP (1) EP3149909A4 (ja)
JP (2) JP2017525064A (ja)
WO (1) WO2015184440A2 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9213781B1 (en) 2012-09-19 2015-12-15 Placemeter LLC System and method for processing image data
JP2017525064A (ja) 2014-05-30 2017-08-31 プレイスメーター インコーポレイテッドPlacemeter Inc. ビデオデータを用いた活動モニタリングのためのシステム及び方法
US9846969B2 (en) 2014-12-01 2017-12-19 Thinkware Corporation Electronic apparatus, control method thereof, computer program, and computer-readable recording medium
US10043078B2 (en) 2015-04-21 2018-08-07 Placemeter LLC Virtual turnstile system and method
US10380431B2 (en) 2015-06-01 2019-08-13 Placemeter LLC Systems and methods for processing video streams
AU2015207945A1 (en) * 2015-07-31 2017-02-16 Canon Kabushiki Kaisha Method for training an artificial neural network
EP3309752B1 (en) * 2015-10-09 2021-01-27 IHI Corporation Line segment detection method
CN106650806B (zh) * 2016-12-16 2019-07-26 北京大学深圳研究生院 一种用于行人检测的协同式深度网络模型方法
JP6469139B2 (ja) * 2017-01-17 2019-02-13 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US10728702B2 (en) 2017-01-21 2020-07-28 Changing Environments, Inc. Networked data management using pedestrian traffic patterns
CN106997587B (zh) * 2017-03-23 2020-06-23 武汉大学 一种基于机器视觉的静脉注射液滴流速的测量方法
KR20190028103A (ko) * 2017-09-08 2019-03-18 삼성에스디에스 주식회사 비관심 객체에 대한 마스크 처리 방법 및 그 장치
US11366989B2 (en) 2019-08-20 2022-06-21 Microsoft Technology Licensing, Llc Negative sampling algorithm for enhanced image classification
US11270121B2 (en) 2019-08-20 2022-03-08 Microsoft Technology Licensing, Llc Semi supervised animated character recognition in video
US11450107B1 (en) 2021-03-10 2022-09-20 Microsoft Technology Licensing, Llc Dynamic detection and recognition of media subjects
JP7482090B2 (ja) 2021-08-27 2024-05-13 株式会社東芝 推定装置、推定方法及びプログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010518522A (ja) 2007-02-08 2010-05-27 ビヘイヴィアラル レコグニション システムズ, インコーポレイテッド 挙動認識システム

Family Cites Families (152)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5995855A (en) 1998-02-11 1999-11-30 Masimo Corporation Pulse oximetry sensor adapter
US5194908A (en) 1991-11-29 1993-03-16 Computing Devices Canada Ltd. Detecting target movement
KR100301826B1 (ko) * 1997-12-29 2001-10-27 구자홍 비디오디코더
TW452748B (en) 1999-01-26 2001-09-01 Ibm Description of video contents based on objects by using spatio-temporal features and sequential of outlines
US6587574B1 (en) 1999-01-28 2003-07-01 Koninklijke Philips Electronics N.V. System and method for representing trajectories of moving objects for content-based indexing and retrieval of visual animated data
US8711217B2 (en) 2000-10-24 2014-04-29 Objectvideo, Inc. Video surveillance system employing video primitives
US20050146605A1 (en) 2000-10-24 2005-07-07 Lipton Alan J. Video surveillance system employing video primitives
US7868912B2 (en) * 2000-10-24 2011-01-11 Objectvideo, Inc. Video surveillance system employing video primitives
US8564661B2 (en) 2000-10-24 2013-10-22 Objectvideo, Inc. Video analytic rule detection system and method
US7256817B2 (en) 2000-10-26 2007-08-14 Fujinon Corporation Following device
NZ508429A (en) 2000-11-24 2003-05-30 Compudigm Int Ltd Queue management using a data visualisation system
JP4587151B2 (ja) * 2000-12-27 2010-11-24 キヤノン株式会社 インターネットdtvシステム、並びに、コマーシャルサーバ及びその制御方法
US7430330B2 (en) 2001-01-16 2008-09-30 Hamilton Chris H Method and apparatus for optimizing a JPEG image using regionally variable compression levels
US7254249B2 (en) * 2001-03-05 2007-08-07 Digimarc Corporation Embedding location data in video
US6625310B2 (en) 2001-03-23 2003-09-23 Diamondback Vision, Inc. Video segmentation using statistical pixel modeling
US7424175B2 (en) 2001-03-23 2008-09-09 Objectvideo, Inc. Video segmentation using statistical pixel modeling
GB2377333A (en) 2001-07-07 2003-01-08 Sharp Kk Segmenting a pixellated image into foreground and background regions
US7162101B2 (en) * 2001-11-15 2007-01-09 Canon Kabushiki Kaisha Image processing apparatus and method
US7688349B2 (en) 2001-12-07 2010-03-30 International Business Machines Corporation Method of detecting and tracking groups of people
US9052386B2 (en) 2002-02-06 2015-06-09 Nice Systems, Ltd Method and apparatus for video frame sequence-based object tracking
US7683929B2 (en) 2002-02-06 2010-03-23 Nice Systems, Ltd. System and method for video content analysis-based detection, surveillance and alarm management
US7006128B2 (en) 2002-05-30 2006-02-28 Siemens Corporate Research, Inc. Object detection for sudden illumination changes using order consistency
WO2004004320A1 (en) * 2002-07-01 2004-01-08 The Regents Of The University Of California Digital processing of video images
US20040022227A1 (en) * 2002-08-02 2004-02-05 Lynch Randall Gene System and method for asset tracking
US6987883B2 (en) 2002-12-31 2006-01-17 Objectvideo, Inc. Video scene background maintenance using statistical pixel modeling
US6999600B2 (en) 2003-01-30 2006-02-14 Objectvideo, Inc. Video scene background maintenance using change detection and classification
US8593542B2 (en) 2005-12-27 2013-11-26 DigitalOptics Corporation Europe Limited Foreground/background separation using reference images
US8896725B2 (en) 2007-06-21 2014-11-25 Fotonation Limited Image capture device with contemporaneous reference image capture mechanism
US20070127508A1 (en) * 2003-10-24 2007-06-07 Terry Bahr System and method for managing the transmission of video data
US7672507B2 (en) 2004-01-30 2010-03-02 Hewlett-Packard Development Company, L.P. Image processing methods and systems
US7382400B2 (en) 2004-02-19 2008-06-03 Robert Bosch Gmbh Image stabilization system and method for a video camera
US20060031291A1 (en) * 2004-06-04 2006-02-09 Beckemeyer David S System and method of video presence detection
EP1766581A4 (en) * 2004-06-14 2010-11-03 Agency Science Tech & Res DETECTION METHOD BY A DESIRED OBJECT OBSERVATION SYSTEM IN A VERY DYNAMIC ENVIRONMENT
US20060007308A1 (en) * 2004-07-12 2006-01-12 Ide Curtis E Environmentally aware, intelligent surveillance device
WO2006034135A2 (en) 2004-09-17 2006-03-30 Proximex Adaptive multi-modal integrated biometric identification detection and surveillance system
US20060095539A1 (en) 2004-10-29 2006-05-04 Martin Renkis Wireless video surveillance system and method for mesh networking
US20080166015A1 (en) 2004-09-24 2008-07-10 Object Video, Inc. Method for finding paths in video
US7391907B1 (en) 2004-10-01 2008-06-24 Objectvideo, Inc. Spurious object detection in a video surveillance system
US7746378B2 (en) * 2004-10-12 2010-06-29 International Business Machines Corporation Video analysis, archiving and alerting methods and apparatus for a distributed, modular and extensible video surveillance system
CA2595453C (en) * 2005-01-18 2016-02-23 Redzone Robotics, Inc. Autonomous inspector mobile platform
US20060198608A1 (en) * 2005-03-04 2006-09-07 Girardi Frank D Method and apparatus for coaching athletic teams
US7602944B2 (en) 2005-04-06 2009-10-13 March Networks Corporation Method and system for counting moving objects in a digital video stream
JP4270161B2 (ja) 2005-04-15 2009-05-27 ソニー株式会社 情報記録再生システム、情報記録再生装置及び情報記録再生方法
US7613322B2 (en) 2005-05-19 2009-11-03 Objectvideo, Inc. Periodic motion detection with applications to multi-grabbing
US7801330B2 (en) * 2005-06-24 2010-09-21 Objectvideo, Inc. Target detection and tracking from video streams
US7796780B2 (en) 2005-06-24 2010-09-14 Objectvideo, Inc. Target detection and tracking from overhead video streams
US7574043B2 (en) 2005-06-27 2009-08-11 Mitsubishi Electric Research Laboratories, Inc. Method for modeling cast shadows in videos
US20090063205A1 (en) 2005-07-12 2009-03-05 Pioneer Corporation Theme park management apparatus, theme park management method, theme park management program, and recording medium
EP1744125A1 (en) 2005-07-13 2007-01-17 Lufthansa Sytems Group GmbH Synchronization of computer terminals in an aircraft
US20070024706A1 (en) * 2005-08-01 2007-02-01 Brannon Robert H Jr Systems and methods for providing high-resolution regions-of-interest
US20070024705A1 (en) * 2005-08-01 2007-02-01 Richter Roger K Systems and methods for video stream selection
JP2009509218A (ja) 2005-09-01 2009-03-05 アストラグループ エイエス(ア ノルウェギアン カンパニー) ポストレコーディング分析
JP4718944B2 (ja) * 2005-09-16 2011-07-06 株式会社東芝 ビデオサーバ装置およびその再生方法
JP2007096864A (ja) 2005-09-29 2007-04-12 Orion Denki Kk 記録再生装置
EP2024921A4 (en) * 2005-10-06 2010-09-29 C Sam Inc TRANSACTION SERVICES
WO2007055611A1 (en) * 2005-11-11 2007-05-18 Intel Corporation A method for filtering of hypotheses in software testing of graphical user interfaces
JP2007180808A (ja) 2005-12-27 2007-07-12 Toshiba Corp 映像符号化装置、映像復号化装置、及び映像符号化方法
US7881537B2 (en) 2006-01-31 2011-02-01 Honeywell International Inc. Automated activity detection using supervised learning
US9182228B2 (en) 2006-02-13 2015-11-10 Sony Corporation Multi-lens array system and method
EP2013817A2 (en) 2006-04-17 2009-01-14 Objectvideo, Inc. Video segmentation using statistical pixel modeling
GB2437337A (en) 2006-04-21 2007-10-24 Snell & Wilcox Ltd Measuring block artefacts in video data using an auto-correlation function
JP2007317052A (ja) * 2006-05-29 2007-12-06 Japan Airlines International Co Ltd 行列の待ち時間の計測システム
US8340349B2 (en) 2006-06-20 2012-12-25 Sri International Moving target detection in the presence of parallax
DE102007024868A1 (de) * 2006-07-21 2008-01-24 Robert Bosch Gmbh Bildverarbeitungsvorrichtung, Überwachungssystem, Verfahren zur Erzeugung eines Szenenreferenzbildes sowie Computerprogramm
US20080030429A1 (en) * 2006-08-07 2008-02-07 International Business Machines Corporation System and method of enhanced virtual reality
US20080123955A1 (en) * 2006-11-29 2008-05-29 Chia-Hung Yeh Method for estimating boundary of video segment in video streams
KR100847143B1 (ko) * 2006-12-07 2008-07-18 한국전자통신연구원 실시간 동영상의 실루엣 기반 대상체 행동 분석 시스템 및방법
US7577246B2 (en) * 2006-12-20 2009-08-18 Nice Systems Ltd. Method and system for automatic quality evaluation
US9036902B2 (en) 2007-01-29 2015-05-19 Intellivision Technologies Corporation Detector for chemical, biological and/or radiological attacks
US20080281518A1 (en) 2007-05-10 2008-11-13 Dozier Chad A Vehicular communication and information system and method of using the same
US8131010B2 (en) 2007-07-30 2012-03-06 International Business Machines Corporation High density queue estimation and line management
WO2009029940A1 (en) * 2007-08-30 2009-03-05 Channel Intelligence, Inc. Online marketing payment monitoring method and system
US8401229B2 (en) 2007-09-04 2013-03-19 Objectvideo, Inc. Stationary target detection by exploiting changes in background model
US8428918B2 (en) 2007-09-19 2013-04-23 Utc Fire & Security Corporation System and method for occupancy estimation
US8356324B2 (en) * 2007-09-21 2013-01-15 Broadcom Corporation Implementing network personal video recorder for digital video settop boxes
WO2009045218A1 (en) 2007-10-04 2009-04-09 Donovan John J A video surveillance, storage, and alerting system having network management, hierarchical data storage, video tip processing, and vehicle plate analysis
US8195598B2 (en) 2007-11-16 2012-06-05 Agilence, Inc. Method of and system for hierarchical human/crowd behavior detection
US8204273B2 (en) * 2007-11-29 2012-06-19 Cernium Corporation Systems and methods for analysis of video content, event notification, and video content provision
US8165345B2 (en) * 2007-12-07 2012-04-24 Tom Chau Method, system, and computer program for detecting and characterizing motion
US9684968B2 (en) * 2007-12-07 2017-06-20 Tom Chau Method, system and computer program for detecting and characterizing motion
JP4756660B2 (ja) * 2008-03-14 2011-08-24 株式会社ソニー・コンピュータエンタテインメント 画像処理装置および画像処理方法
US20090290023A1 (en) 2008-05-23 2009-11-26 Jason Guy Lefort Self contained wall mountable surveillance and security system
US9141863B2 (en) * 2008-07-21 2015-09-22 Facefirst, Llc Managed biometric-based notification system and method
GB2462101B (en) * 2008-07-24 2012-08-08 Lifelines Ltd A system for monitoring a patient's EEG output
US8325036B1 (en) * 2008-11-06 2012-12-04 Target Brands, Inc. In stock analytic monitoring
KR101535827B1 (ko) * 2008-12-05 2015-07-27 삼성전자주식회사 무선 통신 네트워크에서 오디오 및 비디오 동기화 장치 및 방법
US8345102B2 (en) 2009-01-13 2013-01-01 Futurewei Technologies, Inc. Image processing system and method for object tracking
CN101489121B (zh) 2009-01-22 2013-02-13 北京中星微电子有限公司 一种基于视频监控的背景模型初始化和更新方法
US20100211304A1 (en) 2009-02-19 2010-08-19 Hwang Timothy H Personalized User Routing and Recommendations
US8654197B2 (en) 2009-03-04 2014-02-18 Raytheon Company System and method for occupancy detection
WO2010124062A1 (en) 2009-04-22 2010-10-28 Cernium Corporation System and method for motion detection in a surveillance video
US10419722B2 (en) * 2009-04-28 2019-09-17 Whp Workflow Solutions, Inc. Correlated media source management and response control
US9471268B2 (en) 2009-05-20 2016-10-18 Aten International Co., Ltd. Multi-channel KVM server system employing multiresolution decomposition
US8340654B2 (en) 2009-05-26 2012-12-25 Lextech Labs Llc Apparatus and method for video display and control for portable device
US20100302346A1 (en) * 2009-05-27 2010-12-02 Tingxue Huang System for processing and synchronizing large scale video conferencing and document sharing
US8649594B1 (en) * 2009-06-04 2014-02-11 Agilence, Inc. Active and adaptive intelligent video surveillance system
JP4786739B2 (ja) * 2009-10-21 2011-10-05 株式会社東芝 情報処理装置および映像コンテンツデータ再生方法
US20110130905A1 (en) * 2009-12-01 2011-06-02 Ise Corporation Remote Vehicle Monitoring and Diagnostic System and Method
US10080006B2 (en) 2009-12-11 2018-09-18 Fotonation Limited Stereoscopic (3D) panorama creation on handheld device
US20110153645A1 (en) * 2009-12-23 2011-06-23 Mozes Incorporated System and method for facilitating a selective location-based interactive campaign in a wireless environment
WO2011137411A1 (en) 2010-04-30 2011-11-03 Vucomp, Inc. Probability density function estimator
US8594482B2 (en) * 2010-05-13 2013-11-26 International Business Machines Corporation Auditing video analytics through essence generation
US8918209B2 (en) * 2010-05-20 2014-12-23 Irobot Corporation Mobile human interface robot
KR101633377B1 (ko) 2010-06-18 2016-07-08 삼성전자주식회사 다중 노출에 의한 프레임 처리 방법 및 장치
US8478048B2 (en) * 2010-07-08 2013-07-02 International Business Machines Corporation Optimization of human activity determination from video
US20120057629A1 (en) * 2010-09-02 2012-03-08 Fang Shi Rho-domain Metrics
US8610766B2 (en) * 2010-09-24 2013-12-17 International Business Machines Corporation Activity determination as function of transaction log
US9240111B2 (en) 2010-10-06 2016-01-19 Microsoft Technology Licensing, Llc Inferring building metadata from distributed sensors
US8582803B2 (en) 2010-10-15 2013-11-12 International Business Machines Corporation Event determination by alignment of visual and transaction data
US8379077B2 (en) * 2010-11-24 2013-02-19 Cisco Technology, Inc. Automatic layout and speaker selection in a continuous presence video conference
TW201222477A (en) * 2010-11-30 2012-06-01 Ind Tech Res Inst Method for adjusting parameters for video object detection algorithm of a camera and the apparatus using the same
US8583817B2 (en) * 2011-01-06 2013-11-12 International Business Machines Corporation Minimizing bandwidth usage in multimedia streaming
US8625905B2 (en) 2011-01-28 2014-01-07 Raytheon Company Classification of target objects in motion
US9224278B2 (en) 2011-04-18 2015-12-29 Xerox Corporation Automated method and system for detecting the presence of a lit cigarette
JP5694854B2 (ja) 2011-06-01 2015-04-01 本田技研工業株式会社 鞍乗り型車両のハンドルウェイト取り付け構造
KR101294569B1 (ko) * 2011-06-29 2013-08-07 엘지이노텍 주식회사 터치 패널 및 이의 제조 방법
US8655016B2 (en) 2011-07-29 2014-02-18 International Business Machines Corporation Example-based object retrieval for video surveillance
US8666145B2 (en) 2011-09-07 2014-03-04 Superfish Ltd. System and method for identifying a region of interest in a digital image
EP2575084A1 (en) 2011-09-30 2013-04-03 Nxp B.V. Security token and authentication system
TWI448977B (zh) 2011-12-08 2014-08-11 Ind Tech Res Inst 基於視訊分析的物件計數方法與裝置
US10769913B2 (en) * 2011-12-22 2020-09-08 Pelco, Inc. Cloud-based video surveillance management system
US9681125B2 (en) * 2011-12-29 2017-06-13 Pelco, Inc Method and system for video coding with noise filtering
US9152868B2 (en) 2012-03-23 2015-10-06 Microsoft Technology Licensing, Llc Personal identification combining proximity sensing with biometrics
WO2014057496A2 (en) 2012-03-26 2014-04-17 Tata Consultancy Services Limited An event triggered location based participatory surveillance
US20150077218A1 (en) * 2012-04-04 2015-03-19 3M Innovative Properties Company Virtual Gate and Alarm System
US9002060B2 (en) * 2012-06-28 2015-04-07 International Business Machines Corporation Object retrieval in video data using complementary detectors
US8957908B2 (en) 2012-07-16 2015-02-17 International Business Machines Corporation Rapid representational thumbnail images for business intelligence dashboards
CA2822215A1 (en) * 2012-08-02 2014-02-02 Iwatchlife Inc. Collective broadcasting based on geo-localized video streaming
JP6326711B2 (ja) 2012-08-07 2018-05-23 セイコーエプソン株式会社 システムおよび移動記録制御方法
US9213781B1 (en) 2012-09-19 2015-12-15 Placemeter LLC System and method for processing image data
US8924433B2 (en) * 2012-11-08 2014-12-30 Mastercard International Incorporated Methods for geotemporal fingerprinting
US10049281B2 (en) 2012-11-12 2018-08-14 Shopperception, Inc. Methods and systems for measuring human interaction
EP2763077B1 (en) * 2013-01-30 2023-11-15 Nokia Technologies Oy Method and apparatus for sensor aided extraction of spatio-temporal features
US20160019427A1 (en) 2013-03-11 2016-01-21 Michael Scott Martin Video surveillence system for detecting firearms
US8818716B1 (en) 2013-03-15 2014-08-26 Honda Motor Co., Ltd. System and method for gesture-based point of interest search
US9491460B2 (en) 2013-03-29 2016-11-08 Qualcomm Incorporated Bandwidth reduction for video coding prediction
US9191643B2 (en) * 2013-04-15 2015-11-17 Microsoft Technology Licensing, Llc Mixing infrared and color component data point clouds
US9753700B2 (en) 2013-05-29 2017-09-05 Sap Se Application building blocks for on demand and on premise usage
FR3006841B1 (fr) * 2013-06-07 2015-07-03 Kolor Fusion de plusieurs flux video
US10438157B2 (en) * 2013-06-26 2019-10-08 Verint Americas Inc. System and method of customer interaction monitoring
US10401846B2 (en) * 2013-08-07 2019-09-03 Avago Technologies International Sales Pte. Limited Cooperative and compressive sensing system
US9202116B2 (en) * 2013-10-29 2015-12-01 National Taipei University Of Technology Image processing method and image processing apparatus using the same
US20160012465A1 (en) 2014-02-08 2016-01-14 Jeffrey A. Sharp System and method for distributing, receiving, and using funds or credits and apparatus thereof
CA2939637A1 (en) * 2014-02-12 2015-08-20 Advanced Optical Systems, Inc. On-the-go touchless fingerprint scanner
GB2583848B (en) * 2014-05-21 2021-03-24 Tangible Play Inc Virtualization of tangible interface objects
US9280889B2 (en) * 2014-05-30 2016-03-08 Kiwatch Alert network and method for transmitting and propagating alerts
JP2017525064A (ja) 2014-05-30 2017-08-31 プレイスメーター インコーポレイテッドPlacemeter Inc. ビデオデータを用いた活動モニタリングのためのシステム及び方法
US10043078B2 (en) * 2015-04-21 2018-08-07 Placemeter LLC Virtual turnstile system and method
US10380431B2 (en) * 2015-06-01 2019-08-13 Placemeter LLC Systems and methods for processing video streams
GB2547666A (en) * 2016-02-24 2017-08-30 Integrated Design Ltd Monitoring of entry portals
CN109071025B (zh) * 2016-04-04 2022-03-01 B/E航空公司 飞机乘客活动监测
US10192314B2 (en) * 2016-12-14 2019-01-29 Canon Kabushiki Kaisha Method, system and apparatus for determining a lowest point of a target object in an image

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010518522A (ja) 2007-02-08 2010-05-27 ビヘイヴィアラル レコグニション システムズ, インコーポレイテッド 挙動認識システム

Also Published As

Publication number Publication date
US20150350608A1 (en) 2015-12-03
US20190373221A1 (en) 2019-12-05
US10735694B2 (en) 2020-08-04
WO2015184440A3 (en) 2016-03-17
US20190373220A1 (en) 2019-12-05
US10432896B2 (en) 2019-10-01
US10880524B2 (en) 2020-12-29
EP3149909A4 (en) 2018-03-07
WO2015184440A2 (en) 2015-12-03
EP3149909A2 (en) 2017-04-05
JP2017525064A (ja) 2017-08-31
JP2020149704A (ja) 2020-09-17

Similar Documents

Publication Publication Date Title
JP7036863B2 (ja) ビデオデータを用いた活動モニタリングのためのシステム及び方法
US10380431B2 (en) Systems and methods for processing video streams
US10726271B2 (en) Virtual turnstile system and method
TWI729454B (zh) 開放場景的即時人群流量統計方法和裝置、電腦設備及電腦可讀儲存媒體
US10832416B2 (en) Crowd flow rate estimation
WO2020093830A1 (zh) 指定区域的人流状况估算方法和装置
TW201324383A (zh) 基於視訊分析的物件計數方法與裝置
Khan et al. Towards a crowd analytic framework for crowd management in Majid-al-Haram
Ferryman et al. Performance evaluation of crowd image analysis using the PETS2009 dataset
US11727580B2 (en) Method and system for gathering information of an object moving in an area of interest
Magrini et al. Computer vision on embedded sensors for traffic flow monitoring
CN106570449A (zh) 一种基于区域定义的人流量与人气指数检测方法及检测系统
WO2016172262A1 (en) Systems and methods for processing video data for activity monitoring
US11334751B2 (en) Systems and methods for processing video data for activity monitoring
Muniruzzaman et al. Deterministic algorithm for traffic detection in free-flow and congestion using video sensor
Yang et al. Graph stream mining based anomalous event analysis
WO2016171878A1 (en) Virtual turnstile counter system and method
Magrini et al. Lightweight computer vision methods for traffic flow monitoring on low power embedded sensors
CN109063675A (zh) 车流密度计算方法、系统、终端及计算机可读存储介质
Tedjojuwono Virtual Lines Sensors for Moving Object and Vehicle Counters
Velesaca et al. Review on Common Techniques for Urban Environment Video Analytics
Ua-Areemitr et al. Using re-identification data and spatial-temporal analysis for pedestrian origin-destination and travel time estimation
Ayaz et al. Vehicular Traffic Flow Characterization: An Edge Computing Perspective
Inglés-Romero et al. Traffic Metrics at Urban Intersections using a Low-Cost Image Processing Approach
Nakibuule et al. Performance Evaluation of a Low Cost Vision-Based Traffic Flow Monitoring System

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210921

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220303

R150 Certificate of patent or registration of utility model

Ref document number: 7036863

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150