JP6893204B2 - 徘徊イベントを検出するための方法、デバイスおよびシステム - Google Patents

徘徊イベントを検出するための方法、デバイスおよびシステム Download PDF

Info

Publication number
JP6893204B2
JP6893204B2 JP2018233841A JP2018233841A JP6893204B2 JP 6893204 B2 JP6893204 B2 JP 6893204B2 JP 2018233841 A JP2018233841 A JP 2018233841A JP 2018233841 A JP2018233841 A JP 2018233841A JP 6893204 B2 JP6893204 B2 JP 6893204B2
Authority
JP
Japan
Prior art keywords
data
time stamp
time
aoi
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018233841A
Other languages
English (en)
Other versions
JP2019135640A5 (ja
JP2019135640A (ja
Inventor
トム オルソン,
トム オルソン,
マティアス バックマン,
マティアス バックマン,
ダニエル モーリン,
ダニエル モーリン,
ヤーコプ グンペルト,
ヤーコプ グンペルト,
マリアン ファルク,
マリアン ファルク,
ニクラス ローゼル,
ニクラス ローゼル,
Original Assignee
アクシス アーベー
アクシス アーベー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アクシス アーベー, アクシス アーベー filed Critical アクシス アーベー
Publication of JP2019135640A publication Critical patent/JP2019135640A/ja
Publication of JP2019135640A5 publication Critical patent/JP2019135640A5/ja
Application granted granted Critical
Publication of JP6893204B2 publication Critical patent/JP6893204B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/10Recognition assisted with metadata

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Alarm Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Emergency Alarm Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、監視アプリケーションに関する。特に、本発明は、徘徊イベントを検出するための方法、デバイスおよびシステムに関する。
セキュリティに対する関心が高まることにより、部屋、建物、空港、都市等におけるサーベイランスカメラ等の監視手段を監視目的で設置することが多くなった。しかしながら、全てのライブイベントまたは取り込まれたビデオを監視することは労働集約的である。これらのイベントを手動で監視することが最も効率的で正確であることは十分認識されているが、これはセキュリティ人員の注意を常に要する。長期間にわたって注意を保つことの問題はよく知られている。このため、取り込まれた監視材料の解析を自動化することにより、セキュリティ人員がサーベイランスタスクをより効率的に行うことが可能になる。
要求の厳しい監視タスクの1つは、徘徊イベントを検出することである。徘徊イベントの検出は、徘徊挙動が多くの場合に、麻薬取引活動等の有害な活動、強盗事件の現場捜査、さらには公共エリアで時間を浪費する10代の若者の不健全な社会問題に関するため、極めて重大である。
徘徊イベントを検出するためのシステムおよび方法は、通常、徘徊検出を行うために当該の対象物の追跡を必要とする。徘徊イベントの検出の精度は、追跡方法の性能に非常に依存する。
このため、この状況における改善が必要である。
上記に鑑みて、本発明の目的は、上記で論じた問題を克服するかまたは少なくとも軽減することである。特に、多岐にわたる徘徊挙動および事態について徘徊イベントの検出を改善する方法、デバイスおよびシステムを提供することが目的である。
本発明の第1の態様によれば、対象エリア(Area of Interest)AOI内の徘徊イベントを検出するための方法が提供される。本方法は、
・監視シーン内の検出された第1の対象物に対応する第1の対象物データを受信するステップであって、第1の対象物データは、第1のID、第1の位置データおよび第1のタイムスタンプを含む、ステップと、
・第1の位置データがAOIと重なり合うと判断するステップと、
・監視シーン内の検出された第1の対象物に対応する第2の対象物データを受信するステップであって、第2の対象物データは、第1のID、第2の位置データおよび第2のタイムスタンプを含む、ステップと、
・第2の位置データがAOIと重なり合うと判断するステップと、
・第2のタイムスタンプと第1のタイムスタンプとの間の時間差を集約期間に追加するステップと、
・監視シーン内の検出された第2の対象物に対応する第3の対象物データを受信するステップであって、第3の対象物データは、第1のIDと異なる第2のID、第3の位置データおよび第3のタイムスタンプを含み、第3のタイムスタンプは、第2のタイムスタンプよりも後である、ステップと、
・第3の位置データがAOIと重なり合うと判断するステップと、
・監視シーン内の検出された第2の対象物に対応する第4の対象物データを受信するステップであって、第4の対象物データは、第2のID、第4の位置データおよび第4のタイムスタンプを含む、ステップと、
・第4の位置データがAOIと重なり合うと判断するステップと、
・第4のタイムスタンプと第3のタイムスタンプとの間の時間差を集約期間に追加するステップと、
・集約期間が第1の閾値期間を超えているとき、徘徊イベントを検出するステップと、
を含む。
「ID」とは、一般に、関連付けられた対象物を他の対象物に対して差別化するために用いることができる任意のタイプのインジケーションを意味する。例えば、対象物データがサイズデータを含む場合、そのようなデータは、複数の受信した対象物データに関連付けられた対象物を差別化するために用いることができる。IDの別の目的は、対象物を時間において追跡できることであり、すなわち、異なるタイムスタンプを有する複数の対象物データを時間において連結することができるようにすることである。IDは、整数、例えば1、2、3等のシリアル番号によって表すことができる。IDは、対象物名等のテキストによって表すことができる。IDは、「識別情報」、「タグ」、「ラベル」、「名称」、「差別化特徴」等と呼ばれる場合もある。換言すれば、IDは、対象物を他の対象物に対し差別化するために用いることができる任意のタイプのデータとすることができる。
「対象エリア」(AOI)とは、一般に、対象物を徘徊対象物として定義することができる監視シーン内のエリアの定義を意味する。いくつかの実施形態では、AOIは、監視シーン全体である。別の実施形態では、AOIは座標によって定義される。この実施形態では、AOIの座標は、受信された対象物データの位置データの座標に依拠することができる。例えば、対象エリアは、受信された対象物データの位置データがX座標、Y座標および/またはZ座標において定義される場合、そのような座標によって定義されるエリアとすることができる。AOIは、監視シーンを取り込むデバイス(例えば、カメラ、RADARデバイス等)の座標系、すなわち大域座標によって定義されてもよい。また、AOIは、x座標およびy座標における範囲−1〜1をカバーするシーンのビューにおけるx=0.3〜0.7、y=0.3〜0−7(すなわち、座標(0,3;0,3)、(0,3;0,7)、(0,7;0,7)、(0,7;0,3)によって定義される)等の、監視シーンに対する座標(例えば、ビデオ取込みデバイスによって取り込まれるビデオ内の画像平面における位置)において定義されてもよい。RADARデータを用いる実施形態において、AOIは、角度範囲および任意選択でデプス範囲を用いて定義されてもよい。
「位置データ」とは、一般に、監視シーン内の対象物のための位置を特定するのに用いることができる任意のタイプのデータを意味する。位置データは、例えば、空間内の1つの点とすることができる。他の実施形態では、位置データは、空間内の対象物のためのバウンディングボックスまたは対象物のためのより複雑な多角形構造の頂点の座標によって定義される。位置データは、上記で説明したように、大域座標系(例えば、RADARデバイスからのデータによって定義されるような対象物の実際の物理的位置)または相対座標系(例えば、画像取込みデバイスによって取り込まれるビデオ内の画像平面内の位置)において定義されてもよい。RADARデータを用いる実施形態において、位置データは、シーン内の検出された対象物についての角度およびデプスのインジケーションを含んでもよい。
本明細書において用いられるとき、「位置データがAOI(または以下で定義される除外されるエリア)と重なり合うと判断する」とは、一般に、対象物の定義された部分がAOI内にあることを意味する。AOIが監視シーン全体である実施形態では、このステップは、対象物データが受信されるという点で暗黙的に行われる。AOIが監視シーンの一部のみである実施形態では、位置データはAOIの座標と比較される。位置データが点である実施形態では、点がAOI内にあるという定義であるが、バウンディングボックス等のより複雑な位置データの場合、他の規則が適用されてもよい。1つの実施形態では、重なり合っていると定義されるには、バウンディングボックス/多角形内の単一の点が、AOI内にあれば十分である。別の実施形態では、重なり合っていると定義されるには、バウンディングボックス/多角形全体がAOI内にある必要がある場合がある。さらに別の実施形態では、重なり合っていると定義されるには、バウンディングボックス/多角形エリアの1/3がAOI内になくてはならない。さらに別の実施形態では、重なり合っていると定義されるには、対象物のバウンディングボックス内の所定の点(バウンディングボックスの高さの1/3および幅の1/2等)がAOI内になくてはならない。
従来技術において、徘徊イベントの検出は、通常、AOI内で或る期間を費やす個々の対象物に基づいて行われ、「個々の対象物」の定義は、取り込まれたシーンのデータを解析するデバイスの検出および追跡能力に依拠する。しかしながら、この手法には問題がある場合がある。多くの場合に、対象物の検出は対象物の動きに基づく。対象物が或る期間にわたって静止している場合、対象物の追跡は通常失われ、対象物が再び動き出したとき、これは新たな対象物とみなされる。徘徊の観点から、この対象物についての徘徊時間の測定は誤ったものとなる。測定はすなわち、対象物が静止する(追跡が失われた)前の期間についての1つの測定、および対象物が再び動き出した期間についての1つの測定であり、これらの第1の測定および第2の測定が結びつかない。したがって、この対象物の徘徊イベントの検出は見逃される場合がある。追跡アルゴリズムの固有に機能により徘徊イベントが見逃され得る別の場合は、対象物が或る期間にわたって見えない(例えば、木の影に隠れている)ときである。この場合、上記で説明した静止している場合と同様に、アルゴリズムにより結果として2つの異なる対象物が検出される場合がある。
さらに、個々の対象物のみに基づいて徘徊イベントを検出することにより、結果としていくつかのタイプの徘徊挙動が見逃される場合がある。例えば、第1の人物が盗品をAOI内に落とし、少したって第2の人物に拾われる場合、第1の人物または第2の人物が、徘徊イベントがトリガされるのに十分な時間(この期間は、徘徊イベントがトリガされる前に、任意の対象物がAOI内をどれだけ長く徘徊することを許されるかを定義し、本明細書では第1の閾値期間と呼ばれる)にわたってAOI内に存在しない場合、そのような挙動の結果として徘徊イベントが検出されない場合がある。
本発明者らは、互いに続いてAOI内で時間を費やす、異なる対象物IDを有する対象物の徘徊時間(すなわち、対象物がAOI内で費やす期間)を結合することによって、上記で論じた見逃された徘徊挙動を正しく検出することができることを認識した。重なり合う期間は結合されず1回のみカウントされることに留意するべきである。換言すれば、(第1の対象物についての)期間3〜20および(第2の対象物についての)15〜30の結果として3〜30の徘徊期間、および値27を有する集約期間が得られる。
結合された徘徊時間(本明細書において集約期間と呼ばれる)がトリガ時間閾値(本明細書において第1の時間閾値と呼ばれる)を超えるとき、徘徊イベントが検出される。第1の時間閾値は、20秒、40秒または1分等の任意の適した時間量とすることができる。
いくつかの実施形態によれば、第3のタイムスタンプと第2のタイムスタンプとの間の時間差が第2の時間閾値を超えている場合、本方法は、第4のタイムスタンプと第3のタイムスタンプとの間の時間差を集約期間に追加するステップの前に、集約期間をゼロにセットするステップをさらに含む。この実施形態において、集約期間がリセットされる(ゼロにセットされる)前に、AOIがどれだけ長く空である(AOI内の位置データを有する対象物データが受信されない)ことができるかを定義するリセット時間マージン(第2の時間閾値)が定義される。第2の時間閾値は、徘徊挙動として検出されるべき挙動のタイプに基づいて調整することができる。第2の時間閾値は、3秒、6秒、30秒または任意の適した時間量とすることができる。
いくつか実施形態によれば、本方法は、AOIの座標と重なり合う位置データを有する各受信された対象物データ間の時間を測定することをさらに含み、集約期間をゼロにセットするステップは、時間が第2の閾値を超えているときに実行される。この実施形態において、AOIの座標と重なり合う位置データを有する対象物データが受信される度に、クロックが再始動される。時間が第2の閾値に達するやいなや、集約期間がゼロにセットされる。例えば、集約期間を示すGUI内のグラフィック対象物(例えば、プログレスバー)は、第2の時間閾値が経過するやいなやゼロにすることができ、これにより徘徊ステータスの即時フィードバックをオペレータに提供するため、これは有利であり得る。他の実施形態によれば、集約期間は、(徘徊対象物データを前回受信してから第2の時間閾値を超えて)次の徘徊対象物データが受信されるまで、すなわち、新たな時間差を集約期間に追加する直前までリセットされない。
いくつかの実施形態によれば、本方法は、徘徊イベントが検出されたとき、AOIの座標と重なり合う位置データを有する、後続して受信された2つの対象物データ間の時間が第2の閾値を超えるまで、徘徊イベントの検出を継続するステップをさらに含む。換言すれば、AOIの座標と重なり合う位置データを有する対象物データが受信される度に再始動されるクロックは、全ての対象物がAOIを出た後、徘徊イベントの検出がどれだけ長く継続されるべきかを定義するために用いることができる。したがって、徘徊イベントが検出されたとき、この検出は、AOI内の位置を有する任意の対象物データが、AOI内の位置を有する対象物データが前回受信されてから第2の期間内に受信される限り継続される。この実施形態に従って徘徊イベントの検出を継続することによって、オペレータが徘徊挙動を検出する機会を増大させることができる。
いくつかの実施形態によれば、本方法は、監視シーン内の検出された第2の対象物に対応する第5の対象物データを受信するステップであって、第5の対象物データは、第2のID、第5の位置データおよび第5のタイムスタンプを含む、ステップと、第5の位置データがAOIと重なり合うと判断するステップと、第5のタイムスタンプと第4のタイムスタンプとの間の時間差を集約期間に追加するステップと、をさらに含む。
したがって、集約期間は、第1の閾値期間に達するまで、第2の対象物がAOI内で検出される限り増大される。
いくつかの実施形態によれば、AOI内で除外領域(または除外エリア)を定義することができる。このエリア内の対象物は、集約期間に寄与するべきでない。これは、例えば、喫煙のために人が出て行く場合が多い、AOI内のドアの周囲のエリアとすることができる。そのような挙動は、検出されるべき徘徊挙動でない場合がある。除外領域は、例えばオペレータにとって所定のものであってもよく、または定義可能なものであってもよい。この実施形態では、本方法は、第4の位置データが除外エリアの座標とさらに重なり合うと判断するステップをさらに含むことができ、これによって、第4のタイムスタンプと第3のタイムスタンプとの間の時間差を集約期間に追加するステップは実行されない。
いくつかの実施形態によれば、本方法は、監視シーン内の検出された第2の対象物に対応する第5の対象物データを受信するステップであって、第5の対象物データは、第2のID、第5の位置データおよび第5のタイムスタンプを含む、ステップと、第5の位置データがAOIの座標と重なり合い、除外エリアの座標とは重なり合わないと判断するステップと、第5のタイムスタンプと第4のタイムスタンプとの間の時間差を集約期間に追加するステップと、をさらに含む。したがって、対象物が除外エリアの外側であるが依然としてAOI内に移動するやいなや、時間が再び測定され、集約期間に寄与する。
いくつかの実施形態によれば、受信された対象物データのフィルタリングが、この対象物データに関連付けられた対象物を徘徊候補とみなす前に実行される。本明細書において用いられるとき、「徘徊候補」という用語は、一般に、AOI内に存在する期間が測定され、このため集約期間に寄与することができる、AOI内(しかし、任意選択で除外領域内ではない)に位置する対象物を意味することが理解される。
フィルタリングは、任意のタイプのフィルタリングとすることができる。例えば、いくつかの実施形態によれば、受信された対象物データは、検出された対象物のサイズに対応するサイズデータをさらに含む。この場合、本方法は、第3の対象物データおよび第4の対象物データのサイズデータを閾値サイズと比較するステップをさらに含み、第4のタイムスタンプと第3のタイムスタンプとの間の時間差を集約期間に追加するステップは、それぞれのサイズデータが閾値サイズを超えている場合にのみ実行される。サイズデータは、例えば、位置データがバウンディングボックスまたは多角形を定義する場合、位置データによって暗黙的に実行することができる。サイズデータは、受信される対象物データにおける別個のデータフィールドとすることもできる。この実施形態によって、動物(猫、犬、うさぎ)、AOI内に吹き込む葉またはビニール袋等の対象物をフィルタリング除去し、これによって徘徊イベントが検出されないようにすることができる。
他の実施形態では、受信された対象物データは、検出された対象物のタイプに対応する対象物タイプデータをさらに含む。この場合、本方法は、第3の対象物データおよび第4の対象物データの対象物タイプデータを所定の対象物タイプと比較するステップをさらに含み、第4のタイムスタンプと第3のタイムスタンプとの間の時間差を集約期間に追加するステップは、それぞれの対象物タイプデータが所定の対象物タイプに等しい場合にのみ実行される。対象物タイプデータは、整数、enum、テキスト文字列または任意の適切なデータフィールドとすることができる。例として、対象物データは、対象物が「自動車」タイプであると定義することができる。徘徊検出システムの管理者は、「人間」タイプの対象物についてのみ徘徊イベントを検出するようにシステムをセットアップしてもよい。対象物データを含め、そのようなデータに対しフィルタリングを行うことによって、そのようなシナリオが可能になり得る。
本発明の第2の態様によれば、上記の目的は、徘徊イベントを検出するように適合されたデバイスによって達成され、このデバイスは、
・監視シーン内の検出された第1の対象物に対応する第1の対象物データを受信し、第1の対象物データは、第1のID、第1の位置データおよび第1のタイムスタンプを含み、
・第1の位置データがAOIの座標と重なり合うと判断し、
・監視シーン内の検出された第1の対象物に対応する第2の対象物データを受信し、第2の対象物データは、第1のID、第2の位置データおよび第2のタイムスタンプを含み、
・第2の位置データがAOIの座標と重なり合うと判断し、
・第2のタイムスタンプと第1のタイムスタンプとの間の時間差を集約期間に追加し、
・監視シーン内の検出された第2の対象物に対応する第3の対象物データを受信し、第3の対象物データは、第1のIDと異なる第2のID、第3の位置データおよび第3のタイムスタンプを含み、
・第3の位置データがAOIの座標と重なり合うと判断し、
・監視シーン内の検出された第2の対象物に対応する第4の対象物データを受信し、第4の対象物データは、第2のID、第4の位置データおよび第4のタイムスタンプを含み、
・第4の位置データがAOIの座標と重なり合うと判断し、
・第4のタイムスタンプと第3のタイムスタンプとの間の時間差を集約期間に追加し、
・集約期間が第1の閾値期間を超えているとき、徘徊イベントを検出する、
ように適合されたプロセッサを備える。
本発明の第3の態様によれば、上記の目的は、
・シーンのデータを連続的に取り込むための第1のデバイスと、
・第1のデバイスから取込み済みデータを受信し、取込み済みデータにおける対象物を検出および追跡するように適合された第2のデバイスであって、取り込まれたデータにおける検出および追跡された対象物に対応する対象物データを抽出し、抽出された対象物データの対応するタイムスタンプを抽出するようにさらに適合され、各対象物データは、検出および追跡された対象物に関連付けられ、関連付けられた対象物のID、関連付けられた対象物の位置データ、およびタイムスタンプを含む、第2のデバイスと、
・第2のデバイスから抽出された対象物データを受信するように適合された、第2の態様による第3のデバイスと、
を備える、システムによって達成される。
いくつかの実施形態によれば、本システムは、第3のデバイスから検出された徘徊イベントを受信し、オペレータに徘徊イベントに気づかせるための視覚および/または可聴信号を生成するように適合された第4のデバイスをさらに備える。
いくつかの実施形態によれば、第1のデバイスは、以下のリスト、すなわち、ビデオ取込みデバイス、RADARデバイス、赤外線センサデバイス、マイクロフォンアレイ、サーマルカメラ、およびTOFカメラのうちの1つである。
第1のデバイス、第2のデバイス、第3のデバイスおよび第4のデバイスのうちの任意のものは、単一の物理デバイスにおいて実施することができる。いくつかの実施形態によれば、第1のデバイス、第2のデバイスおよび第3のデバイスは、ビデオ取込みデバイスにおいて実施される。第4のデバイスも、ビデオ取込みデバイスによって実施されてもよい。
本発明の第4の態様によれば、上記の目的は、処理能力を有するデバイスによって実行されると、第1の態様の方法を実行するように適合された命令を有するコンピュータ可読ストレージ媒体を備えるコンピュータプログラム製品によって達成される。
第2の態様、第3の態様および第4の態様は、一般に、第1の態様と同じ特徴および利点を有することができる。本発明は、別段の明示的な指示がない限り、特徴の全ての可能な組み合わせに関することにさらに留意されたい。
本発明の上記のおよび更なる目的、特徴および利点は、添付の図面を参照して、本発明の好ましい実施形態の以下の例示的で非限定的な詳細な説明を通じてより良好に理解されるであろう。添付の図面において、同じ参照符号は類似の要素について用いられる。
従来技術による徘徊検出を示す。 実施形態による、対象エリア内の徘徊イベントを検出するための方法を示す。 実施形態による、静止対象物を含む対象エリア内の徘徊イベントを検出するための方法を示す。 実施形態による、除外エリアを含む対象エリア内の徘徊イベントを検出するための方法を示す。 いくつかの実施形態による、徘徊イベントを検出するためのシステムを示す。 いくつかの実施形態による、徘徊イベントを検出するための方法のフローチャートを示す。
ここで、以下で本発明の実施形態が示される添付の図面を参照して、本発明をより完全に説明する。本明細書に開示されるシステムおよびデバイスは、動作中に関して説明される。
例えば、カメラによって取り込まれるビデオストリームに基づく基本的な徘徊検出が当該技術分野において知られている。しかしながら、既知の徘徊検出は、個々の対象物ベースで行われる。対象物は、カメラビューにおいて検出および追跡され、対象物が定義された対象エリア内に位置する期間が、徘徊イベントの検出について指定された予め定められた期間と比較される。
図1は、例として、カメラによって監視される、対象のシーン102の3つのスナップショット中の個々の徘徊検出を示す。上側部分において、時点tにおけるシーンが示されている。このスナップショットにおいて、第1の対象物106aおよび第3の対象物106cは、所定の対象エリア(AOI)104内に存在し、第2の対象物106bはAOI104外に位置する。対象物106a〜cは、シーン102およびAOI104に対するこれらの対象物の位置を定義するバウンディングボックス108a〜cによって定義される。徘徊イベントを検出するために、対象物106a〜cがAOI104内に位置する期間が測定される。この理由により、AOI104内の各対象物106a、106cの下にプログレスバー110a、110cが示され、これらは、各対象物106、106cがAOI104内に存在している期間を表す。プログレスバー110a、110cによって見えるように、対象物106a、106cがAOI104内に位置している個々に測定された期間は、徘徊イベントについて指定された予め定められた期間に近づきつつある。
第2のスナップショット(図1の中央部分)において、時点t>tにおけるシーン102が示されている。このスナップショットにおいて、第1の対象物106aは、AOI104の外側に移動済みである。したがって、この対象物106についての時間はもはや測定されず、AOI内における第1の対象物106aの徘徊による徘徊イベントは検出されなかった。第3の対象物106cは、シーン102内の静止対象物(例えば、木)によって隠されている。したがって、シーンを取り込むカメラからの画像を解析する対象物検出および追跡アルゴリズムは、もはや対象物106cを追跡することができない。第2の対象物106bは、依然としてAOI104の外側にある。このスナップショット中、AOI104内で対象物が検出されないので、時間が測定されない。
最後のスナップショットにおいて、時点t>tにおけるシーン102が示される。このスナップショットにおいて、第3の対象物106cは、再びシーン102内に見え、AOI104内に位置を占めている。しかしながら、シーンの画像を解析する検出および追跡アルゴリズムにとって、第3の対象物はシーンに対する新たな対象物である(なぜなら、追跡は時点tにおいてまたは時点t〜t間で失われたためである)。上述したように、AOI104内の各対象物106b、106cの下にプログレスバー110b、110cが示され、これらは、各対象物106b、106cがAOI104内に存在している期間を表す。見て取ることができるように、測定された期間は、第1のスナップショットと比較して、第3のスナップショットにおいて短い。
上記で説明されたように、徘徊期間を測定するこの戦略にはいくつかの問題が存在する。多くの場合に、互いに続いてAOI内で時間を費やす、異なる対象物IDを有する対象物の徘徊時間を結合すること、すなわち、グループ徘徊戦略または不特定対象物徘徊戦略が有益であろう。ここで、そのような徘徊検出戦略が図2〜図6を用いて説明される。
図5は、例として、徘徊検出のためのシステムを示す。この例において、第1のデバイス404(例えば、カメラ)は、シーン102のデータ406を連続的に取り込まれている。第1のデバイス404は、ビデオ取込みデバイス、RADARデバイス、赤外線センサデバイス、マイクロフォンアレイ、サーマルカメラ、TOF(time of flight)カメラ等の、シーン102内の対象物の個々の検出および追跡のために用いることができるデータを取り込むのに適した任意のデバイスとすることができる。
取込み済みデータ406(フォーマットは第1のデバイス404に依拠する)は、次に、第2のデバイス408に送信される。第2のデバイス408は、第1のデバイス404から取込み済みデータ406を受信し、取込み済みデータ内の対象物106a、106bを検出および追跡するように適合される。第2のデバイス408は、第1のデバイス404内で実施されてもよく、または第1のデバイス404と別個のデバイスにおいて実施されてもよい。第2のデバイス408は、取込み済みデータ406内の検出および追跡される対象物106a、106bに対応する対象物データ410を抽出し、抽出された対象物データ410の対応するタイムスタンプを抽出するように適合される。各対象物データ410は、検出および追跡される対象物106a、106bに関連付けられ、関連付けられた対象物106a、106bのID、関連付けられた対象物106a、106bの位置データ、およびタイムスタンプを含んでいる。このため、第2のデバイスは、第1のデバイス404から受信される取込み済みデータ406のタイプ(例えば、画像データ、ビデオデータ、オーディオデータ、RADARデータ等)に基づいて、適切な解析アルゴリズムを実施する。
いくつかの実施形態によれば、出力された対象物データ410は、対象物が検出された画像フレームに対応する対象物データフレームにおいてグループ化され、このため、対象物データは、取り込まれた画像フレーム(またはシーンのデータを取り込むデバイス404に依拠して、検出サンプル、スナップショット、オーディオデータフレーム等)と同様にタイムスタンプを付される。換言すれば、この実施形態において、第1のデバイス404によって取り込まれたシーン102の1つの時点において2つ以上の対象物が検出される場合、対応する抽出された対象物データが1つのデータセットにグループ化され、このデータセットが徘徊検出デバイス(第3のデバイス)412に送信される。対象物ID、位置データおよびタイムスタンプ以外に、そのようなグループ化された対象物データは、
− 以前に見られたが今は姿を消している対象物、
− マージの一部であった対象物(2つ以上の対象物が1つの対象物にマージする)、
− スプリットの一部であった対象物(1つの対象物が2つ以上の対象物にスプリットする)、
等の他の情報を含む場合がある。
他の実施形態では、シーン102の一時点において検出された各対象物は、結果として対象物データ410の別個の送信を引き起こす。
サイズデータ、対象物タイプデータ、色データ等の、検出および追跡される対象物の更なる情報を抽出された対象物データ410に含めることができる。
第2のデバイス408における対象物データ410の抽出は、第1のデバイス404から受信された取込み済みデータ406のサンプリングレートと異なるサンプリングレート(例えば、FPS、すなわちフレーム毎秒(frames per second))において行われてもよい。換言すれば、全ての取込み済みデータ406が第2のデバイス408によって解析されるわけではない場合がある。他の実施形態では、第1のデバイス404および第2のデバイス408によって出力されるデータ406、410のFOSは等しくてもよく、これは、全ての取込み済みデータ406が第2のデバイス408によって解析されることを意味する。
次に、抽出された対象物データ410は、第3のデバイス412に連続的に送信される。第3のデバイス412は、受信対象物データ410から徘徊イベント414(以下でさらに説明される)を検出するように適合される。第3のデバイス412は、第1のデバイス404および/もしくは第2のデバイス408において実装されてもよく、または第1のデバイス404と別個のデバイスにおいて実装されてもよい。いくつかの実施形態によれば、第1のデバイス404、第2のデバイス408および第3のデバイス412は、ビデオレコーディングデバイスにおいて実装される。代替として、第3のデバイス412は、ネットワークまたは類似のものを介して第1のデバイス404/第2のデバイス408に接続された外部サーバー上に配置されてもよい。当然ながら、第2のデバイス408および第3のデバイス412の双方がサーバー(例えば、ビデオ管理サーバー、すなわちVMS)に配置されてもよい。このため、本明細書に説明されるシステムおよび方法の利点は、実装の柔軟性を高くすることができることである。第3のデバイス412は、本明細書に記載の徘徊イベントの検出のための方法を実行するように適合された1つまたは複数のプロセッサを備える。例えば、第3のデバイス412は、処理機能を有するデバイス412によって実行されると方法を実行するように適合された命令を有するコンピュータ可読ストレージ媒体を備えるコンピュータプログラム製品を実行することができる。
いくつかの実施形態では、検出された徘徊イベント414は、第4のデバイス(例えば、ディスプレイ418)に送信される。第4のデバイスは、第3のデバイス412から検出された徘徊イベント414を受信し、オペレータに徘徊イベントに気づかせるための視覚および/または可聴信号416を生成するように適合される。第4のデバイスは、同時に、取込み済みデータ406、またはAOI内のデータ等の取込み済みデータ406の一部を表示することができる。第4のデバイスは、例えば、対象物データ410から抽出された、シーン内の対象物のバウンディングボックスまたは多角形、対象物のID等の記述データをさらに表示することができる。
いくつかの実施形態では、検出された徘徊イベントは、メッセージ(電子メール、SMS)の送信、発呼等のアクションをトリガするか、または他の形で、検出された徘徊イベントを誰かに警告することができる。検出された徘徊イベントは、より高い解像度での監視シーンのデータの記録、より高い解像度または別個のデータストリームでの徘徊対象物のデータの記録、データベースへの徘徊対象物の画像の記憶等のアクションをさらにトリガすることができる。
ここで、第3のデバイス412の機能が、図5の徘徊検出のためのシステムおよび図6の流れ図と合わせて、図2〜図4を用いて説明される。以下において、例として、3つのシナリオが説明される。これらのシナリオは全て、図5の取込み済みデータ406、抽出された対象物データ410、および検出された徘徊イベント414の番号にマッピングされる。しかしながら、例えば、2つのシナリオ間で同じ参照符号を有する抽出された対象物データのコンテンツは、異なる場合があることに留意するべきである。
図2〜図4の例において、説明を容易にするために、各期間中に1つの対象物106しかAOI104内に存在しないことにさらに留意するべきである。しかしながら、期間中にAOI104内に複数の対象物106が存在し得ることに留意するべきである。これらの場合、上記で説明し、当業者に理解されるように、1つの期間のみが集約期間に加えられる。
図2は、例として、対象シーン102の期間(t〜t、t〜t、およびt〜t、ただし、t<t<t<t<t<t)中のグループ徘徊検出を示す。シーン102は、AOI104を含む。
徘徊検出のための方法を説明するために、期間ごとに、第1のデバイス404からの2つの取込み済みデータ406(例えば、第1の期間について、tにおける1つ、およびtにおける1つ)が第2のデバイス408によって解析されると仮定する。類似の仮定は以下で図3〜図4についても行われる。
第1の期間(図2の上側部分)にわたって、第2のデバイスは、第1のデバイス404から、対象物について解析される2つの取込み済みデータ406a、406bを受信する。この期間中、第1の対象物106aがシーン102内に存在する。この期間中、他の対象物はシーン内に存在しない。(時点tにおける)第1の取込み済みデータについて、第2のデバイス408は、監視シーン102内の検出された第1の対象物106aに対応する第1の対象物データ410aを抽出する。第1の対象物データは、少なくとも、第1のID、第1の位置データおよび第1のタイムスタンプtを含む。(時点tにおける)第2の取込み済みデータについて、第2のデバイス408は、監視シーン102内の検出された第1の対象物106aに対応する第2の対象物データ410bを抽出する。第1の対象物データは、少なくとも、第1のID、第2の位置データおよび第2のタイムスタンプtを含む。これは、徘徊イベントを検出するように構成される第3のデバイス(徘徊検出デバイス)412が、第1の対象物データ410aおよび第2の対象物データ410bを受信した(S508)ことを意味する。
第1の対象物データ410aについて、第3のデバイス412は、まず、第1の対象物データの対象物が徘徊候補であるか否かを判断する(S510)。これは、少なくとも、第1の位置データがAOI104と重なり合うか否かを判断すること(S514)によって行われる。図2の例において、位置データは、第1の対象物106aのバウンディングボックス(図において108aで参照される)であり、AOI104は、監視シーン102の一部のみをカバーするように定義されている。第1の位置データがAOI104の座標と重なり合うと判断される。上記で説明されたように、AOI104が監視シーン102全体をカバーする場合、全ての受信された対象物は、AOIと重なり合う位置を有すると判断することができる。しかしながら、図2〜図4の例では、AOI104は、監視シーン102の一部のみをカバーすることが定義されている。これらの実施形態において、受信対象物データの位置データは、関連付けられた対象物がAOI104の外側の位置を占めるか、またはAOI104と重なり合っていることを記述することができる。したがって、位置データがAOI104と重なり合っているか否かを判断するステップは、位置データおよびAOIの座標を用いて行われる。
ここで図2に戻ると、この例では、この対象物106aについての他の対象物データが第3のデバイスによって以前に受信されていないため、集約期間に期間が追加されない。集約期間が徘徊検出クロックとして定義されている場合、クロックはここで始動される。
第2の対象物データ410bについて、第3のデバイス412は、まず、上記で第1の対象物データ410aについて説明したように、第2の対象物データ410bの対象物が徘徊候補であるか否かを判断する(S510)。第2の位置データが、AOI104の座標と重なり合うと判断される(S514)。
任意選択で、各受信対象物データ410間で、第3のデバイス412は、徘徊候補データであると判断された(S510)各受信対象物データ間の時間を継続的に測定し、この時間が第2の閾値を超えているか否かをチェックする(S502)。超えている場合、集約期間はゼロにセットされる。第2の時間閾値は、2つの徘徊候補間の期間が第2の時間閾値を超えたことに起因して、徘徊検出クロックがリセットされるべきであるか否かを判断する。チェックS502は、対象物データが受信されていないとき(S506)、対象物が徘徊候補でないと判断されるとき(S510)、および各徘徊候補が本明細書に記載されるように処理された後に行うことができる。他の実施形態では、図6においてS502およびS504で参照されるステップは、第3のデバイス412によって別個のプロセスで継続的に行われる。任意のイベント時に、集約期間に期間を追加するステップS518の前にチェックが行われる。さらに、上記で説明されたように、いくつかの実施形態によれば、受信された(S508)対象物データは複数の対象物データを含む場合があり、換言すれば、この実施形態において、第1のデバイスによって取り込まれたシーンの1つの時点において2つ以上の対象物が検出される場合、対応する抽出される対象物データは、1つのデータセットにグループ化され、このデータセットが徘徊検出デバイス(第3のデバイス)412に送信されることが留意されるべきである。この場合、受信データセット内の各対象物データは、本明細書に記載されるように処理される。
この場合、期間t−tは、第2の時間閾値を超えない。代わりに、期間t−tは、図2においてプログレスバー202によって表される集約期間に追加される(S516)。集約期間202は、第1の閾値期間(図2において、フルプログレスバーによって表される)をまだ超えていないため、徘徊イベントは検出されない。
第2の期間(図2の中央部分に示されるt〜t)中、第2のデバイスは、第1のデバイス404から、対象物について解析される2つの取込み済みデータ406c、406dを受信する。この期間中、第2の対象物106bは、シーン102内に存在する。この期間中、他の対象物はシーン内に存在しない。上記で説明したように、これは、第3のデバイス412が第3の対象物データ410cおよび第4の対象物データ410dを受信する(S508)ことを意味する。しかしながら、これらの対象物データ410c、410dの双方について、これらのいずれも徘徊対象物を表さないと判断される(S510)。なぜなら、それぞれの位置データがAOI104の座標と重なり合わないと判断される(S514)ためである。この期間中、集約期間202に期間が追加されない。このため、クロックを用いる例えでは、クロックが中断される。
第2の期間(図2の下側部分に示されるt〜t)中、第2のデバイスは、第1のデバイス404から、対象物について解析される2つの取込み済みデータ406e、406fを受信する。この期間中、第2の対象物106bはシーン102内に存在する。この期間中、他の対象物はシーン内に存在しない。上記で説明したように、これは、第3のデバイス412が、第5の対象物データ410eおよび第6の対象物データ410fを受信する(S508)ことを意味する。
第5の対象物データ410eについて、第3のデバイス412は、まず、上記で第1の対象物データ410aについて説明したように、第5の対象物データ410eの対象物が徘徊候補であるか否かを判断する(S510)。第5の位置データが、AOI104の座標と重なり合うと判断される(S514)。
上記で説明されたように、第3のデバイス412は、AOIの座標と重なり合う位置データを有する各受信対象物データ間の時間を継続的に測定し、測定された時間が第2の閾値を超えていると判断される(S502)とき、集約期間をゼロにセットする(S504)ことができる。換言すれば、第5のタイムスタンプtと第2のタイムスタンプtとの間の時間差(最後の徘徊候補が存在すると判断された時間)が第2の時間閾値を超えていると判断される場合、集約期間はゼロにセットされる。
しかしながら、この例において、集約期間202はゼロにセットされない(S504)。第3のデバイス412は、第2の対象物106cに関連付けられた、徘徊対象物を表すと判断された対象物を以前に受信していないため、集約期間202に期間が追加されない(S518)。徘徊検出クロックの例えを用いて、ここでクロックは再び始動される。
第6の対象物データ410fについて、第3のデバイス412は、上記で第1の対象物データ410aについて説明したように、第6の対象物データ410fの対象物が徘徊候補であるか否かを判断する(S510)。第6の位置データが、AOI104の座標と重なり合うと判断される(S514)。
このため、期間t−t(すなわち、第6のタイムスタンプと第5のタイムスタンプとの間の時間差)が、図2においてプログレスバー202によって表される集約期間に追加される(S518)。第2の対象物106bがAOI内に留まっている間(または新たな徘徊候補がシーン102に入る場合)、徘徊イベント414が検出されるまで、集約期間202は、上記で開示したのと同じ方式で増加し続ける。
図2において、集約期間202は、ここで、第1の閾値期間(図2において、フルプログレスバー202によって表される)を超えているため、徘徊イベント414が検出される。
このようにして、互いに続く異なる対象物(例えば、人物)の徘徊により、徘徊イベントを検出させることができる。AOI内を徘徊する人物のグループは、多くの場合、単一の対象物がこの単一の対象物の徘徊時間のみに基づいて徘徊イベントが検出されるのに十分な時間量にわたってAOI内に留まっていない場合であっても、疑わしい挙動を示すため、これはセキュリティの関係から有利であり得る。
いくつかの実施形態によれば、徘徊イベントは、第1の検出後、少なくとも第2の時間閾値にわたって連続的に検出されてもよい。いくつかの実施形態では、徘徊イベントは、全ての徘徊候補が消えるまで連続的に検出されてもよい。換言すれば、徘徊候補であると判断される(S510)新たな対象物がシーン102に入る場合、徘徊イベントは、シーン102が徘徊候補を含む限り(および任意選択で、全ての徘徊候補が消えた後、追加の第2の時間閾値にわたって)連続的に検出される。同様に、これは、第2の対象物106bがシーン内に留まっており、徘徊候補であると判断される(S510)限り、この場合にも当てはまり得る。
徘徊イベントがもはや検出されなくなるやいなや、集約期間はゼロにセットされる。
図3は、個々の徘徊検出が、疑わしい挙動を検出するには十分でない場合がある別のシナリオを示す。この場合、AOI202は、静止対象物304(例えば、木、自動車、または徘徊候補を隠し得る任意の他の対象物)を含む。多くの場合に、対象物検出および追跡のためのアルゴリズムは、シーンからしばらくの間消える対象物を追跡可能でない場合がある。対象物が再度現れるとき、アルゴリズムは、これを、例えば新たな対象物IDを有する新たな対象物であると解釈する場合がある。徘徊の観点から、これにより、上記でも説明したように、徘徊イベントが見逃される場合がある。以下で説明されるように、本明細書に記載される徘徊検出のための方法は、この問題を解決し、このシナリオにおいても徘徊イベントを正しく検出することができる。
図3は、例として、対象シーン102の期間(t〜t、t〜t、t〜t、ここでt<t<t<t<t<t)中のグループ徘徊検出を示す。シーン102は、AOI104を含む。
図2の場合と同様に、第1の期間(図3の上側部分に示される)の結果として、t−tの集約期間202が生じる。
第2の期間(図3の中央部分)にわたって、AOI内の対象物(図3の上側部分において106aで参照される)が静止対象物304によって隠されているため、集約期間202はそのままにされる。別の対象物306は、取込み済みデータ406c、406dの一部であるが、対応する対象物データ410c、410dの結果として徘徊候補が生じない場合がある。なぜなら、このシナリオにおいて、対象物が徘徊候補であるか否かを判断する(S510)とき、更なるフィルタリングS512(AOI104の外側の位置データを除く)が行われるためである。この場合、対象物データ410c、410dは、検出された対象物306のサイズに対応するサイズデータを含む。この場合、サイズデータは、第2のデバイス408によって決定される検出される対象物のバウンディングボックス308から抽出することができる。この実施形態において、第3の対象物データ410cおよび第4の対象物データ410dのサイズデータは、閾値サイズと比較される(S512)。検出される対象物のサイズが小さすぎると判断されるため、第4のタイムスタンプ(t)と第3のタイムスタンプ(t)との間の時間差を集約期間に加えるステップS518は行われない。対象物タイプデータ(自動車、人間、動物)、または色、形状、速さ、速度等の対象物データに関連付けられた対象物の他のタイプの記述データに対するフィルタリング等の、他のタイプのフィルタリングが行われてもよい。
第3の期間(t〜t、図3の下側部分)にわたって、以前に隠されていた対象物が再び見え、依然としてAOI104内にある。しかしながら、上記で説明したように、第2のデバイス408によって抽出された対象物データ410e、410fは、第1の期間(t〜t、図3の上側部分)にわたって第2のデバイス408によって抽出された対象物データ410a、410bと比較して異なる対象物IDを有する。したがって、図3において、図3の下側部分における対象物は、図3の上側部分における対象物と比較して異なる参照符号(106b)で参照される。なぜなら、徘徊の観点から、これらの対象物は異なる(異なるIDを有する)ためである。しかしながら、検出された対象物が異なる期間中に異なるIDを有することは、徘徊イベントの検出に影響を及ぼしてはならない。このため、上記で図2に関連して説明されたように、第3の期間について、第6のタイムスタンプ(t)と第5のタイムスタンプ(t)との間の時間差が集約期間202に追加され(S518)、これにより徘徊イベント414が検出される(S520)ことになる。
本明細書において定義される徘徊検出における更なる概念は、除外エリアである。これは、対象物が費やす時間が徘徊としてカウントされるべきでないAOI104内のエリアである。この概念については図4に示されている。
図4において、図2〜図3の場合と同様に、第1の期間(図4の上側部分に示される)の結果としてt−tの集約期間202が得られる。
第2の期間(図4の中央部分に示される、t〜t)中、第2のデバイスは、対象物について解析される第1のデバイス404から2つの取込み済みデータ406c、406dを受信する。この期間中、第2の対象物106bは、シーン102内に存在する。この期間中、他の対象物はシーン内に存在しない。上記で説明したように、これは、第3のデバイス412が、第3の対象物データ410cおよび第4の対象物データ410dを受信する(S508)ことを意味する。しかしながら、これらの対象物データ410c、410dの双方について、これらのいずれも徘徊対象物を表さないと判断される(S510)。なぜなら、それぞれの位置データが除外領域302の座標と重なり合うと判断される(S516)ためである。この期間中、集約期間202に期間が追加されない。このため、クロックを用いる例えでは、クロックが中断される。
しかしながら、上記で開示し、図4の下側部分に示されるように、第2の対象物が除外領域302の外側であるが依然としてAOI104の内側に位置を占めるやいなや、時間が再び集約期間202に追加される(S518)。いくつかの実施形態によれば、除外領域302内の位置データを有する最後の対象物データ410dと、後続の対象物データ410eとの間の期間(この期間において、第2の対象物106bは、除外領域302の外側であるが依然としてAOI104の内側に位置を占める)が集約期間に追加され、これは、第5のタイムスタンプ410eと第4のタイムスタンプ410dとの間の時間差(t−t)が集約期間に追加されることを意味する。この実施形態において、当然ながら、第6のタイムスタンプ410eと第5のタイムスタンプ410dとの間の時間差(t−t)も、上記で説明したのと同様に集約期間202に追加される。
他の実施形態によれば、このシナリオにおいて、集約期間は、第6のタイムスタンプ(t)まで増加されず、これは、第6のタイムスタンプ410fと第5のタイムスタンプ410eとの間の時間差(t−t)が集約期間202に追加される(S518)一方で、第5のタイムスタンプ410eと第4のタイムスタンプ410dとの間の時間差(t−t)は追加されないことを意味する。
上記において、本発明の概念は、限られた数の例を参照して主に説明された。しかしながら、当業者には容易に理解されるように、上記で開示した以外の例も、添付の特許請求の範囲によって定義される本発明の概念の範囲内で等しく可能である。例えば、徘徊イベントを検出するための方法は異なる形で定義される場合があるが、依然として添付の特許請求の範囲の適用範囲内にある。1つの実施形態によれば、AOI内で徘徊イベントを検出するための方法は、
− 監視シーン内の少なくとも1つの検出された対象物に対応する対象物データを受信するステップであって、対象物データは少なくとも1つの位置データを含み、各位置データは、少なくとも1つの検出された対象物のうちの検出された対象物に関連付けられ、タイムスタンプは位置データに関連付けられる、ステップと、
− 受信した対象物データに基づいて、AOI内で少なくとも1つの対象物が検出された時点を特定するステップと、
− 特定された時点ごとに、以前に特定された最も近い時点に対する時間差を計算するステップと、
− 各計算された時間差を第2の閾値時間と比較し、計算された時間差が第2の閾値時間未満であると判断すると、計算された時間差を集約期間に追加するステップと、
− 集約期間が第1の閾値期間を超えているとき、徘徊イベントを検出するステップと、
を含むことができる。
いくつかの実施形態によれば、計算された時間差が第2の時間閾値を超えている場合、本方法は、集約期間をゼロにセットすることをさらに含む。
いくつかの実施形態によれば、対象物データは、関連付けられた検出された対象物のIDをさらに含み、各特定された時点は少なくとも1つのIDに関連付けられ、特定された時点のうちの少なくとも2つは、異なる少なくとも1つのIDに関連付けられる。いくつかの実施形態では、第1の特定された時点に関連付けられた少なくとも1つのIDは、第2の特定された時点に関連付けられた少なくとも1つのIDと相互排他的であり、第2の特定された時点は第1の時点の後にある。
本明細書において定義される任意の他の方法は、この異なる形で定義された方法に合うように再編成することができる。

Claims (15)

  1. 対象エリア(104)(AOI)内の徘徊イベントを検出するための方法であって、
    監視シーン(102)内の検出された第1の対象物(106a)に対応する第1の対象物データ(410a)を受信するステップ(S508)であって、前記第1の対象物データは、第1のID、第1の位置データおよび第1のタイムスタンプを含む、ステップと、
    前記第1の位置データが前記AOIと重なり合うと判断するステップ(S514)と、
    前記監視シーン内の検出された第1の対象物に対応する第2の対象物データ(410b)を受信するステップ(S508)であって、前記第2の対象物データは、前記第1のID、第2の位置データおよび第2のタイムスタンプを含む、ステップと、
    前記第2の位置データが前記AOIと重なり合うと判断するステップ(S514)と、
    前記第2のタイムスタンプと前記第1のタイムスタンプとの間の時間差を集約期間(202)に追加するステップ(S518)と、
    前記監視シーン内の検出された第2の対象物(106b)に対応する第3の対象物データ(410e)を受信するステップ(S508)であって、前記第3の対象物データは、前記第1のIDと異なる第2のID、第3の位置データおよび第3のタイムスタンプを含み、前記第3のタイムスタンプは、前記第2のタイムスタンプよりも後である、ステップと、
    前記第3の位置データが前記AOIと重なり合うと判断するステップ(S514)と、
    前記監視シーン内の前記検出された第2の対象物に対応する第4の対象物データ(410f)を受信するステップ(S508)であって、前記第4の対象物データは、前記第2のID、第4の位置データおよび第4のタイムスタンプを含む、ステップと、
    前記第4の位置データが前記AOIと重なり合うと判断するステップ(S514)と、
    前記第4のタイムスタンプと前記第3のタイムスタンプとの間の時間差を集約期間(202)に追加するステップ(S518)と、
    前記集約期間が第1の閾値期間を超えているとき、徘徊イベント(414)を検出するステップ(S520)と、
    を含む、方法。
  2. 前記第3のタイムスタンプと前記第2のタイムスタンプとの間の時間差が第2の時間閾値を超えている場合(S502)、
    前記第4のタイムスタンプと前記第3のタイムスタンプとの間の時間差を前記集約期間に追加する前記ステップの前に、前記集約期間をゼロにセットするステップ(S504)をさらに含む、請求項1に記載の方法。
  3. 前記AOIと重なり合う位置データを有する各受信された対象物データ間の時間を測定するステップをさらに含み、前記集約期間をゼロにセットする前記ステップは、前記時間が前記第2の時間閾値を超えているときに実行される、請求項2に記載の方法。
  4. 徘徊イベントが検出されたとき、前記AOIと重なり合う位置データを有する、後続して受信された2つの対象物データ間の時間が前記第2の時間閾値を超えるまで、徘徊イベントの検出を継続するステップをさらに含む、請求項3に記載の方法。
  5. 前記監視シーン内の前記検出された第2の対象物に対応する第5の対象物データを受信するステップ(S508)であって、前記第5の対象物データは、前記第2のID、第5の位置データおよび第5のタイムスタンプを含む、ステップと、
    前記第5の位置データが前記AOIと重なり合うと判断するステップ(S514)と、
    前記第5のタイムスタンプと前記第4のタイムスタンプとの間の時間差を前記集約期間に追加するステップ(S518)と、
    をさらに含む、請求項1から4のいずれか一項に記載の方法。
  6. 前記第4の位置データが除外エリアとさらに重なり合うと判断するステップ(S516)をさらに含み、これによって、前記第4のタイムスタンプと前記第3のタイムスタンプとの間の前記時間差を前記集約期間に追加するステップは実行されない、請求項1から4のいずれか一項に記載の方法。
  7. 前記監視シーン内の前記検出された第2の対象物に対応する第5の対象物データを受信するステップ(S508)であって、前記第5の対象物データは、前記第2のID、第5の位置データおよび第5のタイムスタンプを含む、ステップと、
    前記第5の位置データが前記AOIと重なり合い(S514)、前記除外エリアとは重なり合わない(S516)と判断するステップと、
    前記第5のタイムスタンプと前記第4のタイムスタンプとの間の時間差を前記集約期間に追加するステップ(S518)と、
    をさらに含む、請求項6に記載の方法。
  8. 受信された対象物データは、検出された対象物のサイズに対応するサイズデータをさらに含み、前記方法は、
    前記第3の対象物データおよび前記第4の対象物データのサイズデータを閾値サイズと比較するステップ(S512)をさらに含み、前記第4のタイムスタンプと前記第3のタイムスタンプとの間の時間差を前記集約期間に追加するステップは、それぞれのサイズデータが前記閾値サイズを超えている場合にのみ実行される、請求項1から7のいずれか一項に記載の方法。
  9. 受信された対象物データは、検出された対象物のタイプに対応する対象物タイプデータをさらに含み、前記方法は、
    前記第3の対象物データおよび前記第4の対象物データの対象物タイプデータを所定の対象物タイプと比較するステップ(S512)をさらに含み、前記第4のタイムスタンプと前記第3のタイムスタンプとの間の時間差を前記集約期間に追加するステップは、それぞれの対象物タイプデータが前記所定の対象物タイプに等しい場合にのみ実行される、請求項1から7のいずれか一項に記載の方法。
  10. 徘徊イベントを検出するように適合されたデバイス(412)であって、
    監視シーン(102)内の検出された第1の対象物(106a)に対応する第1の対象物データ(410a)を受信し(S508)、前記第1の対象物データは、第1のID、第1の位置データおよび第1のタイムスタンプを含み、
    前記第1の位置データが前記AOIと重なり合うと判断し(S514)、
    監視シーン内の前記検出された第1の対象物に対応する第2の対象物データ(410b)を受信し(S508)、前記第2の対象物データは、前記第1のID、第2の位置データおよび第2のタイムスタンプを含み、
    前記第2の位置データが前記AOIと重なり合うと判断し(S514)、
    前記第2のタイムスタンプと前記第1のタイムスタンプとの間の時間差を集約期間(202)に追加し(S518)、
    前記監視シーン内の検出された第2の対象物(106b)に対応する第3の対象物データ(410e)を受信し(S508)、前記第3の対象物データは、前記第1のIDと異なる第2のID、第3の位置データおよび第3のタイムスタンプを含み、前記第3のタイムスタンプは、前記第2のタイムスタンプよりも後であり、
    前記第3の位置データが前記AOIと重なり合うと判断し(S514)、
    前記監視シーン内の前記検出された第2の対象物に対応する第4の対象物データ(410f)を受信し(S508)、前記第4の対象物データは、前記第2のID、第4の位置データおよび第4のタイムスタンプを含み、
    前記第4の位置データが前記AOIと重なり合うと判断し(S514)、
    前記第4のタイムスタンプと前記第3のタイムスタンプとの間の時間差を集約期間(202)に追加し(S518)、
    前記集約期間が第1の閾値期間を超えているとき、徘徊イベント(414)を検出する(S520)、
    ように適合されたプロセッサを備える、デバイス。
  11. シーン(102)のデータ(406)を連続的に取り込むための第1のデバイス(404)と、
    前記第1のデバイスから前記取り込まれたデータ(406)を受信し、前記取り込まれたデータにおける対象物を検出および追跡するように適合された第2のデバイス(404)であって、前記取り込まれたデータにおける検出および追跡された対象物に対応する対象物データ(410)を抽出し、前記抽出された対象物データの対応するタイムスタンプを抽出するようにさらに適合され、各対象物データは、検出および追跡された対象物に関連付けられ、前記関連付けられた対象物のID、前記関連付けられた対象物の位置データ、および前記タイムスタンプを含む、第2のデバイスと、
    前記第2のデバイスから前記抽出された対象物データを受信するように適合された、請求項10に記載の第3のデバイス(412)と、
    を備える、システム。
  12. 前記第3のデバイスから検出された徘徊イベント(414)を受信し、オペレータに前記徘徊イベントに気づかせるための視覚および/または可聴信号(416)を生成するように適合された第4のデバイス(418)をさらに備える、請求項11に記載のシステム。
  13. 前記第1のデバイスは、以下のリスト、すなわち、
    ビデオ取込みデバイス、RADARデバイス、赤外線センサデバイス、マイクロフォンアレイ、サーマルカメラ、およびTOFカメラ、
    のうちの1つである、請求項11または12に記載のシステム。
  14. 前記第1のデバイス、前記第2のデバイスおよび前記第3のデバイスは、ビデオ取込みデバイスにおいて実施される、請求項11から13のいずれか一項に記載のシステム。
  15. 処理能力を有するデバイスによって実行されると、請求項1から9のいずれか一項に記載の方法を実行するように適合された命令を有する非一時的コンピュータ可読ストレージ媒体を備えるコンピュータプログラム製品。
JP2018233841A 2017-12-19 2018-12-13 徘徊イベントを検出するための方法、デバイスおよびシステム Active JP6893204B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP17208476.6A EP3502952B1 (en) 2017-12-19 2017-12-19 Method, device and system for detecting a loitering event
EP17208476.6 2017-12-19

Publications (3)

Publication Number Publication Date
JP2019135640A JP2019135640A (ja) 2019-08-15
JP2019135640A5 JP2019135640A5 (ja) 2021-02-04
JP6893204B2 true JP6893204B2 (ja) 2021-06-23

Family

ID=60915247

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018233841A Active JP6893204B2 (ja) 2017-12-19 2018-12-13 徘徊イベントを検出するための方法、デバイスおよびシステム

Country Status (6)

Country Link
US (1) US10748011B2 (ja)
EP (1) EP3502952B1 (ja)
JP (1) JP6893204B2 (ja)
KR (1) KR102175373B1 (ja)
CN (1) CN109934217B (ja)
TW (1) TWI756497B (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110324528A (zh) * 2018-03-28 2019-10-11 富泰华工业(深圳)有限公司 摄像装置、影像处理系统及方法
CN112906430A (zh) * 2019-11-19 2021-06-04 英业达科技有限公司 基于影像的对象追踪方法
CN112287875B (zh) * 2020-11-16 2023-07-25 北京百度网讯科技有限公司 异常车牌识别方法、装置、设备及可读存储介质

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0628449B2 (ja) * 1985-12-10 1994-04-13 松下電工株式会社 侵入監視装置
US8711217B2 (en) 2000-10-24 2014-04-29 Objectvideo, Inc. Video surveillance system employing video primitives
JP2008035095A (ja) * 2006-07-27 2008-02-14 Sony Corp 監視装置、監視システム、監視方法及びプログラム
JP2008083933A (ja) * 2006-09-27 2008-04-10 Sogo Keibi Hosho Co Ltd 不審者判定装置、不審者判定方法および不審者判定プログラム
CN201773466U (zh) * 2009-09-09 2011-03-23 深圳辉锐天眼科技有限公司 物体滞留/偷窃事件检测、跟踪和识别的视频监控预警装置
MY150414A (en) * 2009-12-21 2014-01-15 Mimos Berhad Method of determining loitering event
MY159285A (en) 2010-11-29 2016-12-30 Mimos Berhad System and method to detect loitering event in a region
MY161490A (en) 2010-12-01 2017-04-14 Mimos Berhad A system and method to detect human loitering activity using trajectory information
MY159290A (en) * 2010-12-02 2016-12-30 Mimos Berhad A system and a method for detecting a loitering event
JP5691849B2 (ja) * 2011-05-31 2015-04-01 三菱電機株式会社 注視者検知装置
US10769913B2 (en) 2011-12-22 2020-09-08 Pelco, Inc. Cloud-based video surveillance management system
FI20125279L (fi) 2012-03-14 2013-09-15 Mirasys Business Analytics Oy Menetelmä, järjestely ja tietokoneohjelmatuote videoitujen kohteiden käyttäytymisessä esiintyvien säännönmukaisuuksien analysoimiseksi
JP5924081B2 (ja) * 2012-03-30 2016-05-25 サクサ株式会社 置き去り又は持ち去り検知システム
US9245276B2 (en) 2012-12-12 2016-01-26 Verint Systems Ltd. Time-in-store estimation using facial recognition
KR101454644B1 (ko) * 2013-04-30 2014-10-27 순천향대학교 산학협력단 보행자 추적기를 이용한 서성거림을 탐지하는 방법
CN104050665B (zh) * 2014-06-10 2017-07-21 华为技术有限公司 一种视频图像中前景停留时间的估计方法及装置
KR102282465B1 (ko) * 2014-10-27 2021-07-27 한화테크윈 주식회사 로이터링 시각화 장치 및 방법
JP6562752B2 (ja) * 2015-07-30 2019-08-21 キヤノン株式会社 情報処理装置とその制御方法、プログラム、記憶媒体
JP6708218B2 (ja) * 2015-12-16 2020-06-10 日本電気株式会社 情報処理装置、侵入検知方法及びコンピュータプログラム

Also Published As

Publication number Publication date
TWI756497B (zh) 2022-03-01
CN109934217B (zh) 2021-07-30
TW201928896A (zh) 2019-07-16
EP3502952A1 (en) 2019-06-26
KR102175373B1 (ko) 2020-11-06
US20190188487A1 (en) 2019-06-20
JP2019135640A (ja) 2019-08-15
EP3502952B1 (en) 2020-10-14
US10748011B2 (en) 2020-08-18
CN109934217A (zh) 2019-06-25
KR20190074210A (ko) 2019-06-27

Similar Documents

Publication Publication Date Title
US9520040B2 (en) System and method for real-time 3-D object tracking and alerting via networked sensors
JP6893204B2 (ja) 徘徊イベントを検出するための方法、デバイスおよびシステム
US20190347528A1 (en) Image analysis system, image analysis method, and storage medium
EP2779130B1 (en) GPS directed intrusion system with real-time data acquisition
CN103726879B (zh) 利用摄像头自动捕捉矿井矿震坍塌并及时记录报警的方法
US10318817B2 (en) Method and apparatus for surveillance
US9292939B2 (en) Information processing system, information processing method and program
Alshammari et al. Intelligent multi-camera video surveillance system for smart city applications
KR20160049391A (ko) 로이터링 시각화 장치 및 방법
KR101541272B1 (ko) 사람들의 움직임 불규칙성을 이용한 폭력 행위 검출 장치 및 방법
JP6013923B2 (ja) ビデオエピソードの閲覧及び検索のためのシステム及び方法
CN113887445A (zh) 一种视频中驻足和徘徊行为识别方法及系统
US20220351515A1 (en) Method for perceiving event tagging-based situation and system for same
CN110557676B (zh) 用于确定和推荐场景的视频内容活动区域的系统和方法
CN108111802B (zh) 视频监控方法及装置
KR101848367B1 (ko) 모션벡터와 dct 계수를 이용한 메타데이터 기반 의심영상 구분식별 방식의 영상 관제 방법
WO2012141574A1 (en) Intrusion detection system for determining object position
KR101285128B1 (ko) 영상 분석을 위한 지능형 검색 로봇
WO2012074366A2 (en) A system and a method for detecting a loitering event
KR101596015B1 (ko) 다수의 카메라를 이용한 독립건물 침입방지 시스템
CN106595604A (zh) 核电厂周界低空抛物检测方法、装置
US20240119737A1 (en) Computer-implemented method, non-transitory computer readable storage medium storing a computer program, and system for video surveillance
KR20180000205A (ko) 지능형 영상 분석 장치 및 방법
KR20200011221A (ko) 영상병합 스트림 리즈닝 감시방법
KR20150060440A (ko) 2d와 3d 영상 분석을 이용한 침입 감지 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201218

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201218

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20201218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210430

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210518

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210531

R150 Certificate of patent or registration of utility model

Ref document number: 6893204

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150