JP7044179B2 - 人検出警告を重複排除するシステム、方法及びプログラム - Google Patents

人検出警告を重複排除するシステム、方法及びプログラム Download PDF

Info

Publication number
JP7044179B2
JP7044179B2 JP2020567630A JP2020567630A JP7044179B2 JP 7044179 B2 JP7044179 B2 JP 7044179B2 JP 2020567630 A JP2020567630 A JP 2020567630A JP 2020567630 A JP2020567630 A JP 2020567630A JP 7044179 B2 JP7044179 B2 JP 7044179B2
Authority
JP
Japan
Prior art keywords
score
detected
interest
warning
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020567630A
Other languages
English (en)
Other versions
JP2021526690A (ja
Inventor
フイ ラム オング
ウェイ ジアン ペー
ホン イェン オング
智史 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JP2021526690A publication Critical patent/JP2021526690A/ja
Application granted granted Critical
Publication of JP7044179B2 publication Critical patent/JP7044179B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/11Complex mathematical operations for solving equations, e.g. nonlinear equations, general mathematical optimization problems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19645Multiple cameras, each having view on one of a plurality of scenes, e.g. multiple cameras for multi-room surveillance or for tracking an object by view hand-over
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B29/00Checking or monitoring of signalling or alarm systems; Prevention or correction of operating errors, e.g. preventing unauthorised operation
    • G08B29/18Prevention or correction of operating errors
    • G08B29/185Signal analysis techniques for reducing or preventing false alarms or for enhancing the reliability of the system

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Pure & Applied Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Security & Cryptography (AREA)
  • Operations Research (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Alarm Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は概して、画像処理及びに関し、特に、映像監視システムにおける人検出警告の重複排除に関する。
コンピュータ支援映像監視システムは、近年急速に発展している。映像監視システムの需要が一層増大し、すべての映像監視カメラをモニターする人員が限られているため、大部分の映像監視システムにおいて、自動人検出システムが基本的に要件となっている。自動人検出システムは、映像監視システムのカメラによって撮影された映像の画像フレーム内の関心のある人を検出し、検出警告を生成し、ユーザに通知する。
人を検出する自動人検出システムの有効性は、映像監視カメラによって撮影される映像のフレームレート(すなわち、1秒あたりの画像フレーム数)によって部分的に決定される。図1A及び図1Bは、自動人検出システムの有効性に対する映像監視カメラのフレームレート設定の影響を示す。
図1Aは、1秒あたり1画像フレームのフレームレートを有する映像監視カメラの一例である。つまり、映像監視カメラは毎秒画像フレーム(110A,110F)を生成する。画像フレーム(110B,110F)はある瞬間のシーンをキャプチャする。
図1Bは、1秒あたり5フレームのフレームレートを有する映像監視カメラの一例である。つまり、映像監視カメラは毎秒5つの画像フレーム(110A,110B,110C,110D,110E)を生成する。
図1A及び図1Bの両図に示す例では、人102がカメラの視野を横切る。図示する例では、図1A及び図1Bの両方のカメラのフレーム110Aは人102がそのシーンに入る前のシーンをキャプチャする。しかし、図1A及び図1Bの両方のカメラのフレーム110Fは、人102がそのシーンから退出した後のシーンをキャプチャする。したがって、図1Aでは、1秒あたり1のフレームレートを有するカメラは、そのシーンを横切る人102をキャプチャしない。したがって、図1Aの映像監視カメラは、人102が図1Aのカメラによって撮影されたフレームのいずれにも出現しないので、走っている人102を完全に見逃してしまう。図1Aのクエスチョンマークで示すように、1秒あたり1のフレームレートを有するカメラを有する映像監視システムはフレーム間の情報を見逃してしまう。
しかし、カメラが高フレームレート(例えば、図1Bに示すように1秒あたり5フレーム)を有する場合、そのようなカメラは人102をキャプチャする可能性が高くなる。図1Bに示すように、フレーム110B~110Dは人102がシーンを横切る際に、人102をキャプチャする。
動きの量が少ないかつ/又は遅い環境では、低フレームレートを有するカメラがトラフィックを低減するために使用され得る。例えば、支払いカウンターをモニタリングする映像監視システムは支払いをするのに並んでいる顧客はゆっくり動くので、低フレームレートを有してもよい。
一方、動きの量が大きいかつ/又は速い環境では、高フレームレートを有するカメラが必要とされる。例えば、列車のプラットフォームをモニタリングする映像監視システムでは、人の交通量が多いため、高フレームレートが必要とされる。
したがって、高フレームレートを有するカメラは、カメラによって撮影されているシーンを横切る物体をキャプチャする可能性の高くなる特定の環境で必要とされる。しかし、高フレームレートはカメラによって生成される情報が多いことを意味し、高いトラフィック及び負荷が自動人検出システムに生じる。
高フレームレートを有するカメラに存在する他の問題は、このようなカメラは、検出された人がシーンを通して静止している(又はゆっくり動いている)場合に、多数の警告を生成することである。
従来のある構成では、重複排除期間が自動人検出システムに導入され、生成される警告数を抑制する。重複排除期間は重複又は冗長情報(この場合、警告である)が排除される期間である。例えば、図2Aは5つの警告(210A,210B,210C,210D,210E)が生成される例を示すが、警告210B,210C,及び210Dは重複排除期間中に生成され排除される。この構成により、警告処理が小さくなり、映像監視システムを氾濫させる、入ってくる警告を抑制する。しかし、重要な警告情報が重複排除期間中に損失する可能性が高い。
別の従来の構成では、警告のすべてが処理され、送信される。しかし、映像監視システムは一定の期間内に受け取った警告を集約し、当該期間内に集約された警告数を表示するだけである。つまり、期間が終了すると、集約された警告がディスプレイに表示される。図2Bは、警告220A及び警告220Bのかかる集約の例を示す。この構成により、ユーザインターフェースの操作性が向上する。しかし、この構成は重複排除期間を持たないので、警告処理が多くなり、トラフィック負荷が高くなる。
更に別の構成では、警告は処理され、類似の警告は集約される。特定の種類の警告が、いくつかの事前定義された閾値で発生すると、警告が送信される。この構成は、警告の処理を減らし、ユーザインターフェースに送信される警告の洪水を防止する。しかし、警告が送信前に集約されるので、早期の警告情報が損失する可能性がある。
本発明の目的は、既存の構成の1つ又は複数の欠点を実質的に克服し、あるいは、少なくとも改良することにある。
本開示の第1の態様によれば、
警告を生成する方法であって、
画像フレームにおいて、対象認識ソフトウェアを用いて、対象の固有パラメータを検出することと、
前記検出された固有パラメータが関心対象に関連付けられているかを決定することと、
前記検出された固有パラメータが前記関心対象に関連付けられているとの決定に応答して、前記関連付けられた関心対象が重複排除期間内に検出されているかを決定することと、
前記関連付けられた関心対象が前記重複排除期間内に検出されているとの決定に応答して、前記検出された固有パラメータと関連付けられた検出スコアを決定することと、
前記検出スコアが最小エスカレーション閾値を超えるかを決定することと、
前記検出スコアが前記最小エスカレーション閾値を超えているとの決定に応答して、前記重複排除期間内に警告を生成することと、を含む
方法が提供される。
本開示の第2の態様によれば、
警告を生成するシステムであって、
プロセッサと、
前記プロセッサと通信する周辺デバイスであって、前記周辺デバイスは、前記警告を生成するように構成され、
前記プロセッサと通信するメモリであって、前記メモリは内部に記録されたコンピュータプログラムを記憶し、前記コンピュータプログラムは前記プロセッサによって前記警告を生成する方法を実行可能であり、前記方法は、
画像フレームにおいて、対象認識ソフトウェアを用いて、対象の固有パラメータを検出することと、
前記検出された固有パラメータが関心対象と関連するかを決定することと、
前記検出された固有パラメータが前記関心対象と関連付けられているとの決定に応答して、前記関連付けられた関心対象が重複排除期間内に検出されているかを決定することと、
前記関連付けられた関心対象が前記重複排除期間内に検出されているとの決定に応答して、前記検出された固有パラメータに関連付けられた検出スコアを決定することと、
前記検出スコアが最小エスカレーション閾値を超えているかを決定することと、
前記検出スコアが前記最小エスカレーション閾値を超えているとの決定に応答して、前記周辺デバイスによって、前記重複排除期間内に前記警告を生成することと、を含む、
警告を生成するシステムが提供される。
本開示の別の態様によれば、前述の方法のうちいずれか1つを実行する装置が提供される。
本開示の別の態様によれば、上記した方法のいずれか1つを実行するためのコンピュータプログラムが記憶されたコンピュータ可読媒体を含むコンピュータプログラム製品が提供される。
他の態様も開示される。
ここで、図面及び付属書類を参照して先行技術の一部の態様及び本発明の少なくとも1つの実施形態を説明する。
図1Aは映像監視システムにおける異なるフレームレートを有するカメラの影響を示す。 図1Bは映像監視システムにおける異なるフレームレートを有するカメラの影響を示す。 図2Aは、従来の映像監視システムにより生成された警告の数を低減する際の従来の構成の例を示す。 図2Bは従来の映像監視システムによって生成された警告の数を低減する際の従来の構成の例を示す。 図3は、記載した構成が実施され得る汎用コンピュータシステムの概略ブロック図を示す。 図4Aは、本開示にかかる関心対象を検出する方法のフロー図である。 本開示にかかる関心対象を検出する別の方法のフロー図である。 図5Aは図4の方法に使用される変数ヨー及びピッチの値を示す。 図5Bは異なるカメラの画角の効果を示す。
1つ以上の添付図面において、同一の符号を有するステップ及び/又は特徴が参照されている場合、これらのステップ及び/又は特徴は、反対の意図が登場しない限り、本発明の目的上、同一の機能又は動作(単数又は複数)を有する。
「背景」のセクションに含まれる議論及び従来の構成に関する上記議論はそれらの使用により公知の知識を形成するデバイスの議論に関することに留意されたい。かかる議論は、このようなデバイスが何らかの形で当該技術分野における共通の一般的な知識を形成するという本発明者又は本特許出願人による表現として解釈されるべきではない。
構造的コンテキスト
図3は例示的なコンピュータ/コンピューティングデバイス600を示し、以後、互換性があるようにしてコンピュータシステム600とも称され、1つ又は複数のかかるコンピューティングデバイス600は図4、図5A及び図5Bに関して以下に説明する警告を生成する方法の実行を容易にするのに使用され得る。コンピューティングデバイス600の以下の説明は、単なる例示として与えられるものであり、限定することを意図しない。
図3に示すように、例示的なコンピューティングデバイス600はソフトウェアルーチンを実行するためのプロセッサ604を含む。明瞭さのため、シングルプロセッサが図示されているが、コンピューティングデバイス600はマルチプロセッサシステムを含んでもよい。プロセッサ604はコンピューティングデバイス600の他のコンポーネントと通信するための通信インフラストラクチャ606に接続されている。通信インフラストラクチャ606は、例えば、通信バス、クロスバー、又はネットワークを含んでもよい。
コンピューティングデバイス600は、ランダムアクセスメモリ(RAM)などのメインメモリ608と、セカンダリメモリ610と、を更に含む。セカンダリメモリ610は例えば、ストレージドライブ612を含んでもよく、それは、ハードディスクドライブ、ソリッドステートドライブ又はハイブリッドドライブ及び/又はリムーバブルストレージドライブ614であってもよく、それは磁気テープドライブ、光ディスクドライブ、ソリッドステートストレージドライブ(USBフラッシュドライブ、フラッシュメモリデバイス、ソリッドステートドライブ又はメモリカードなど)などを含んでもよい。リムーバブルストレージドライブ614は、周知の方法でリムーバブル記憶媒体618から読み込む、かつ/又はリムーバブル記憶媒体618に書き込む。リムーバブル記憶媒体618は磁気テープ、光ディスク、不揮発性メモリ記憶媒体などを含んでもよく、それは、リムーバブルストレージドライブ614によって読み込まれ、かつリムーバブルストレージドライブ614によって書き込まれる。関連する技術分野の当業者に理解されるように、リムーバブル記憶媒体618はコンピュータ実行可能プログラムコード指示及び/又はデータを記憶したコンピュータ可読記憶媒体を含むことができる。
代替の実装では、セカンダリメモリ610は、追加として、又は代替として、コンピュータプログラム又は他の命令をコンピューティングデバイス600にロードさせることができる他の類似の手段を含んでもよい。かかる手段は例えば、リムーバブルストレージユニット622及びインターフェース620を含むことができる。リムーバブルストレージユニット622及びインターフェース620の例は、プログラムカートリッジ及びカートリッジインターフェース(ビデオゲームコンソールデバイスに見られるもの)、リムーバブルメモリチップ(EPROM又はPROMなど)及び関連ソケット、リムーバブルソリッドステートストレージドライブ(USBフラッシュドライブ、フラッシュメモリデバイス、ソリッドステートドライブ又はメモリカードなど)、並びに、ソフトウェア及びデータをリムーバブルストレージユニット622からコンピュータシステム600に転送することができる他のリムーバブルストレージユニット622及びインターフェース620を含むことができる。
コンピューティングデバイス600は、少なくとも1つの通信インターフェース624も含むことができる。通信インターフェース624はソフトウェア及びデータを、コンピューティングデバイス600と外部デバイス(例えば、映像監視システム310)との間で通信路626を介して転送させることができる。本開示の各種態様では、通信インターフェース624は、コンピューティングデバイス600と、パブリックデータ又はプライベートデータ通信ネットワークなどのデータ通信ネットワークとの間でデータをやりとりさせる。通信インターフェース624は異なるコンピューティングデバイス600間でデータをやりとりするのに使用され得、その場合、かかるコンピューティングデバイス600は相互接続されたコンピュータネットワークの一部を形成する。通信インターフェース624の例は、モデム、ネットワークインターフェース(イーサネットカードなど)、通信ポート(シリアル、パラレル、プリンタ、GPIB、IEEE1394、RJ25、USBなど)、関連回路を有するアンテナなどを含むことができる。通信インターフェース624は有線であってもよいし、無線であってもよい。通信インターフェース624を介して転送されるソフトウェア及びデータは、電子信号、電磁波信号、光信号又は、通信インターフェース624によって受信可能な他の信号であり得る信号の形態である。これらの信号は通信路626を介して通信インターフェースに提供される。
一構成では、通信インターフェース624は映像監視システム310から通信路626を介してデータを受信する。映像監視システム310はカメラ320A~320Nを含む。総称として、カメラ320A~320Nは「カメラ320」と称されることになる。カメラ320のうち一つを指す場合、用語「カメラ320」を以後使用する。
図3に示すように、コンピューティングデバイス600は、画像を関連ディスプレイ630にレンダリングする動作を実行するディスプレイインターフェース602と、関連スピーカー(単数又は複数)634を介してオーディオコンテンツを再生する動作を実行するオーディオインターフェース632と、を更に含む。ディスプレイ630及びスピーカー634はコンピューティングデバイス600に接続されている周辺デバイスである。コンピューティングデバイス600は他の周辺デバイスを更に含むことができる。
コンピューティングデバイス600はカメラ320のそれぞれから映像を受信し、関心対象が受信した映像内に検出された場合、警告生成方法600(図4、図5A及び図5Bに関連して以後に説明する)を用いて、警告をディスプレイ630に送信し、任意選択的にスピーカー634に送信する。ディスプレイ630及びスピーカー634は次いで、それぞれ、警告を表示し、鳴動する。
本明細書で使用するとき、用語「コンピュータプログラム製品」は、部分的に、リムーバブル記憶媒体618、リムーバブルストレージユニット622、又はストレージドライブ612にインストールされたハードディスクを指すことができる。コンピュータ可読ストレージ媒体は実行及び/又は処理のため、記録された命令及び/又はデータをコンピューティングデバイス600に提供する任意の非一時的、不揮発性有形記憶媒体を指す。かかるストレージ媒体の例は磁気テープ、CD-ROM、DVD、Blu-ray(登録商標)ディスク、ハードディスクドライブ、ROM又は集積回路、ソリッドステートストレージドライブ(USBフラッシュドライブ、フラッシュメモリデバイス、ソリッドステートドライブ又はメモリカードなど)、ハイブリッドドライブ、光磁気ディスク、又はSDカードなどのコンピュータ可読カードなど、を含むことができ、そのようなデバイスがコンピューティングデバイス600の内部にあるか、それとも外部にあるかに関わらない。ソフトウェア,アプリケーションプログラム、命令及び/又はデータをコンピューティングデバイス600に提供する際に参加し得る一時的又は無形コンピュータ可読伝送媒体の例は、無線又は赤外線伝送チャネル並びに別のコンピュータ又はネットワーク接続されたデバイスへのネットワーク接続及び電子メール伝送及びウェブサイトに記録された情報を含むインターネット又はイントラネットなどを含む。
コンピュータプログラム(コンピュータプログラムコードとも呼ばれる)はメインメモリ608及び/又はセカンダリメモリ610に記憶されている。コンピュータプログラムはまた、通信インターフェース624を介して受信され得る。かかるコンピュータプログラムは、実行されると、コンピューティングデバイス600に本明細書に記載の実施形態の1つ又は複数の特徴を実行させることができる。各種実施形態では、コンピュータプログラムは、実行されると、プロセッサ604に上記した実施形態の特徴を実行させることができる。したがって、かかるコンピュータプログラムはコンピュータシステム600のコントローラを表す。
ソフトウェアはコンピュータプログラム製品に記憶され、リムーバブルストレージドライブ612、ストレージドライブ612又はインターフェース620を用いて、コンピューティングデバイス600にロードされてもよい。或いは、コンピュータプログラム製品は通信路626を介してコンピュータシステム600にダウンロードされてもよい。ソフトウェアは、プロセッサ604によって実行されると、コンピューティングデバイス600に、本明細書に記載の実施形態の機能を実行させる。
図3の実施形態は単なる例示として提示しているにすぎないことを理解されたい。したがって、いくつかの実施形態では、コンピューティングデバイス600の1つ又は複数の特徴は省略されてもよい。また、いくつかの実施形態では、コンピューティングデバイス600の1つ又は複数の特徴を一体に組み合わせてもよい。加えて、いくつかの実施形態では、コンピューティングデバイス600の1つ以上の特徴を1つ以上のコンポーネント部分に分割してもよい。
警告生成方法
コンピューティングデバイス600がカメラ320のいずれかから映像を受信するとき、コンピューティングデバイス600は各映像を処理して、関心対象が受信した映像内にキャプチャされているかを決定する。映像は上記したような画像フレームを含む。以下では、用語「画像フレーム」及び「フレーム」は同一であり、かつ互換性があるようにして使用される。関心対象は、人、車両などとすることができる。
図4A及び図4Bは、関心対象がカメラ320から受信した映像のフレームに検出されるときの、警告を生成する方法400A及び400Bのフローチャートを示す。総称として、方法400A及び方法400Bは方法400と称される。方法400は、記憶媒体618、リムーバブルストレージユニット622、又はストレージドライブ612にインストールされたハードディスクに記憶されたソフトウェアとして実行され得る。ソフトウェアはその後、プロセッサ604によって読み出され、実行され得る。
方法400はコンピューティングデバイス600により受信された映像の各フレームにおいて実行され、関心のある人がフレーム内にキャプチャされているか、および警告を生成する必要があるかを決定する。
方法400は、ステップ410において、カメラ320から受信した映像のフレームにおいて、対象認識ソフトウェアを用いて対象の固有パラメータを特定することによって開始する。例えば、人の固有パラメータが顔である。別の例では、車両の固有パラメータはライセンスプレートである。固有パラメータは特定される対象に依存する。
関心のある人の顔を認識する際に、使用され得る顔認識ソフトウェアはNECNeoFaceVなどである。顔認識ソフトウェアは顔(すなわち、固有パラメータ)がフレーム内に存在するかを決定する。
車両のライセンスプレートを認識する際に、ライセンスプレート認識ソフトウェアを用いてライセンスプレートを特定することができる。以後、方法400は顔及び関心のある人の特定に関して説明する。しかし、理解され得るように、方法400は車両などの他の対象にも適用可能である。
特定可能な固有パラメータが存在する場合(YES)、対象認識ソフトウェアは、フレームから固有パラメータの特徴を特定し、特徴のそれぞれについての特徴スコアを提供する。顔の場合には、顔認識ソフトウェアはフレームから、顔の特徴(例えば、鼻の長さ、下顎の輪郭形状、目の幅、眉の形状、眉の長さなど)を特定し、顔の特徴のそれぞれについての顔の特徴スコアを提供する。方法400はその後、ステップ410からステップ430に進む。
フレーム内に特定可能な固有パラメータ(例えば、顔)が存在しない場合(NO)、方法400はステップ410の結論において終了する。
ステップ430では、方法400は、検出された固有パラメータが関心対象に関連付けられているかを決定する。コンピューティングデバイス600は、識別子(例えば、氏名、ニックネーム、車種、車両ブランドなど)を有する関心対象リスト、固有パラメータ(例えば、顔)及び各関心対象の固有パラメータに対応する特徴スコアを記憶する。関心対象リストは、記憶媒体618,リムーバブルストレージユニット622、又はストレージドライブ612にインストールされたハードディスクに記憶されている。一つの代替の構成では、関心対象リストは、通信路624を介してコンピューティングデバイス600にアクセスできる外部データベースに記憶されている。
人の場合には、固有パラメータ(例えば、顔)が関心のある人と関連付けられているかが決定される。関心対象リストは識別子(例えば、氏名、ニックネームなど)、顔、及び関心のある人のそれぞれの顔に対応する顔の特徴スコアを有する。
検出された顔の顔特徴スコアはその後、関心のある人それぞれの顔の特徴スコアと比較され、検出された顔がリスト上の関心のある人のうちの一人かを決定することができる。整合スコアM1がその後、顔の特徴スコア比較からリスト上の関心のある人それぞれについて生成される。
一構成では、整合スコアは、検出された顔とリスト上の関心のある人との間で比較された顔の特徴スコアの総スコア差である。したがって、整合スコアは、前記検出された顔がリスト上の特定の関心のある人の顔と整合するかという指示を提供する。
整合スコアM1が所定の閾値を超えている場合、検出された顔と特定の関心のある人との整合が決定され、検出された顔は当該特定の関心のある人に関連付けられた識別子を割り当てられる。
正面顔スコアF1はまた、整合スコアM1に関連付けられ、ステップ430で算出される。正面顔スコアF1を算出するためのステップ450に関する以下の議論を参照されたい。
固有パラメータ(例えば、顔)が関心のある対象(例えば、人)と整合するように決定された場合(YES)、方法400はステップ430からステップ440に進む。しかし、方法400が、検出された固有パラメータ(例えば、顔)がリスト上の対象(例えば、人)のいずれにも整合しないことを決定した場合(NO)、方法400はステップ430の結論において終了する。
ステップ440では、方法400は、検出された固有パラメータに関連付けられた関心対象が重複排除期間内に検出されているかを決定する。重複排除期間は特定の関心対象(例えば、人)に関する警告を減らし、重複データを排除し、処理負荷を低減する沈黙期である。重複排除期間は関心対象(例えば、人)が検出された第1の時刻からの所定期間である。
一実施例において、関心のある人が10pmに検出され、重複排除期間は5分に設定される。関心のある同一の人についての後続の警告は10.05pmまで抑止される。従来の構成では、いかなる後続の警告も10pm~10.05pmの間は生成されず、それにより、重要な警告情報が重複排除期間中に見失われる可能性が高くなる。しかし、方法400は、検出された関心のある人がよい検出スコアを有する場合、重複排除期間内(すなわち、10pm~10.05pmの間)に警告を生成する(ステップ450に関する下記を参照)。
重複排除期間が過ぎた後、特定の関心のある対象(例えば、人)についての重複排除期間がゼロに設定され、それは重複排除期間のデフォルト値である。
特定の関心のある対象(例えば、人)の重複排除期間がゼロに設定されるので、関心のある対象(例えば、人)が重複排除期間(例えば、重複排除期間の満了後の第1の時刻)外で検出された場合、方法400は警告を生成する。つまり、関心のある対象(例えば、人)が第1の時刻、すなわち関心のある対象(例えば、人)の重複排除期間外に検出された場合、方法400はステップ445,460,及び470に進み、関心のある対象(例えば、人)が映像監視カメラシステム310により検出されたことを示す警告を生成する。
関心のある対象(例えば、人)が重複排除期間内に検出された場合(YES)、方法400Aはステップ440からステップ447に進み、方法400Bはステップ440からステップ450に進む。さもなければ(NO)、方法400はステップ440からステップ445に進む。
ステップ445では、方法400は特定の関心のある人についての重複排除期間を設定する。ステップ440に関して上記に議論したように、重複排除期間は5分に設定され得る。一構成では、特定のカメラ320によって識別された対象から設定された重複排除期間は、当該特定のカメラ320によって識別された同一の対象に対してのみ使用される。代替の構成では、特定のカメラ320によって識別された対象から設定された重複排除期間は、映像監視システム310における他のカメラ320によって識別された同一の対象に使用される。代替の構成では、重複排除期間を共有するカメラ320は、特定の場所(例えば、建物のロビー、建物の部屋)を調査するカメラ320とすることができる。重複排除期間を共有するカメラ320は、映像監視システム310をセットアップする際に、ユーザによって手動で予め定められる。方法400はその後、ステップ445からステップ460に進む。
ステップ447では、方法400は重複排除期間を延長する。重複排除期間は所定期間(例えば、5分,6分など)だけ延長され得る。方法400Aでは、検出された対象に関連付けられた関心対象が重複排除期間内に検出されるときはいつでも、重複排除期間が延長される。方法400Bでは、検出された対象に関連付けられた検出スコアが最小エスカレーション閾値を超える場合、重複排除期間が延長される。方法400Aでは、方法400Aはステップ447からステップ450に進む。方法400Bでは、方法400Bはステップ447からステップ460に進む。
一つの代替の構成では、ステップ447は省略されるので、重複排除期間は延長できない。
ステップ450では、方法400は、検出された固有パラメータ(例えば、顔)に関連付けられた検出スコアが最小エスカレーションスコアを超えるかを決定する。
まず、検出スコアを算出する。一つの代替の構成では、検出スコアは、整合スコアM1を算出する際にステップ430で算出される。
顔の検出スコアは以下のように算出される。
検出スコア=(max(abs(M2-M1),Tm)*W1)+((Tc+abs(F2-F1))*W2) (1)
その中で、
M2は、特定の関心のある人についての重複排除期間中の最高整合スコアであり、
M1は検出された顔と特定の関心のある人との整合スコアであり、
F2はM2に関連付けられた正面顔スコアであり、
F1はM1に関連付けられた正面顔スコアであり、
W1は整合スコアの重み付けであり、
W2は正面顔スコアの重み付けであり、
Tmは最小整合閾値であり、
Tcは正面顔カメラ角度調整閾値である。
M2は記憶媒体618、リムーバブルストレージユニット622、又はコンピューティングデバイス600のストレージドライブ612にインストールされたハードディスクに記憶される。M2の記憶は、方法400のステップ460に関して以下に議論される。
検出スコアを算出する際に、まず、整合スコアM2とM1との絶対値差分を、最小整合閾値(Tm)と比較する。2つの値のうち高い方(すなわち、整合スコアM1とM2との絶対値差分及び最小整合閾値(Tm))が関数max()によって選択される。Tmは整合スコアM2とM1との間の最小デルタ値である。max()関数によって選択された値はその後、重みW1に応じて重み付けされる。
検出スコア算出はまた、フレームをキャプチャするカメラ320の画角を考慮し、それは、現在のところ、方法400によって処理される。カメラ320の画角は正面顔スコアF1及びF2により考慮される。
正面顔スコアF1又はF2は以下の等式を用いて算出することができる。
正面顔スコア=1.0-(abs(ヨー)+abs(ピッチ))/2 (2)
図5Aはカメラ320によってキャプチャされた顔のヨー及びピッチに応じた変数ヨー及びピッチの値を示す。
図5Bは異なる2つのカメラ画角で正面顔スコアを算出する2つの例を示す。図5Bの左図は、人の顔に直接向けたカメラ320を示し、変数ヨー及びピッチの両方の値が0であるので、結果的に完全な正面顔スコア1.0となる。
図5Bの右図は、人の顔をキャプチャするように下を向いたカメラ画角を有するカメラ320を示す。したがって、図5Bのカメラ320は、等式(2)にしたがって、ピッチ値が1であるので最大正面顔スコア0.5を得ることができる。
F2が記憶媒体618、リムーバブルストレージユニット622又はコンピューティングデバイス600のストレージドライブ612にインストールされたハードディスクに記憶される。F2の記憶は、方法400のステップ460に関して以下に議論される。
正面顔スコアF2及びF1の絶対値差分はその後、正面顔カメラ角度調整閾値Tcによって調整される。正面顔カメラ角度調整閾値は検出された顔のピッチ角及びヨー角に応じて正面顔スコアを調整する値である。正面顔調整スコアはカメラに固有であり、カメラ320のセットアップ段階中にテストを行うことによって、又はカメラ画角及びカメラ320の距離を考慮した等式を用いることによって得られることができる。
したがって、正面顔カメラ角度調整は、カメラ320が異なる画角でシーンの映像を撮影する際の正面顔スコアF1を正規化する閾値である。
調整された正面顔スコアはその後、重みW2に応じて重み付けされる。検出スコアはその後、等式(1)を用いて取得され得る。
一つの代替の構成では、正面顔スコアは重みW2を0に設定することによって、無視することができる。
顔の検出スコアはライセンスプレート及び他の固有パラメータに対して使用されるように適合され得る。固有パラメータが車両を特定するためのライセンスプレートである場合、例えば、F1及びF2は正面ライセンスプレートスコアとすることができる。一般には、正面スコアは固有パラメータ(例えば、顔)の正面スコアを指す。さらに、一般に、Tcは正面カメラ角度調整閾値である。
第2に、検出スコアを最小エスカレーション閾値スコア(Te)と比較する。検出スコアが最小エスカレーション閾値スコア(Te)より高い場合(YES)、方法400Aはステップ450からステップ460に進み、方法400Bはステップ450からステップ447に進む(ステップ447の議論についての上記を参照)。さもなければ(NO)、方法400はステップ450の結論において終了する。
ステップ460では、方法400は、現在のスコアM1及びF1を、重複排除期間中の特定の関心対象(例えば、人)についてのそれぞれ、最高スコアM2及びF2として記憶する。
したがって、現在の整合スコアM1は整合スコアM2として記憶される。また、顔の例では、今回の正面顔スコアF1は正面顔スコアF2として記憶される。ステップ450で記載するように、スコアM2及びF2の両方は、重複排除期間中、関心のある人の検出スコアを算出するのに使用される。重複排除期間が終了すると、コンピューティングデバイス600はM2及びF2のスコアをリセットする。方法400はその後、ステップ460からステップ470に進む。
ステップ470では、方法400は警告を生成する。警告は、ディスプレイ630に警告を表示することで及び/又はスピーカー634を介して音声を生成することで、生成される。方法400はその後、ステップ470の結論において終了する。
ここで、方法400の動作の例を説明する。
第1の実施例
第1の実施例では、方法400Aが使用され、重複排除期間が1つのカメラ320によって使用される。換言すると、重複排除期間は複数のカメラ320の間で共有されていない。
一実施例において、人が10pmに映像監視システム310の監視下にあるエリアに進入する。映像監視システム310のカメラ320は人がエリアに進入するシーンをキャプチャし、キャプチャされたフレームをコンピューティングデバイス600に送信し、次に、方法400Aを実行して、検出された人に対して警告を生成するかを決定する。
方法400Aは、顔認識ソフトウェアを用いて、検出された人の顔を検出し(ステップ410)、検出された顔が関心のある人に関連付けられているかを決定する(ステップ430)。以上説明したように、ステップ430では、整合スコアM1及び正面顔スコアF1を算出する。検出された顔が関心のある人ではない場合、警告は生成されず、コンピューティングデバイス600は処理すべき次のフレームに進む。しかし、検出された顔が関心のある人に関連付けられている場合、方法400Aは同一の関心のある人が重複排除期間内(例えば、10pm~10.05pmの間)に検出されているかを決定する(ステップ440)。
本実施例では、人が関心のある人として識別されている。人がたった今エリアに進入したので、キャプチャされたフレームは関心のある人が検出されている第1の事例であり、この関心のある人の重複排除期間はデフォルト値のゼロである。したがって、方法400Aは重複排除期間を設定する(ステップ445)。本実施例では、重複排除期間は5分であるので、重複排除期間は10pm~10.05pmの間である。方法400Aはその後、整合スコアM1及び正面顔スコアF2を、それぞれスコアM2及びF2として記憶する(ステップ460)。方法400Aはその後、警告を生成する(ステップ470)。
10.02pmには、同一の人が同一のカメラ320でキャプチャされている。コンピューティングデバイス600はフレームを受信し、方法400Aを実行して、検出された人に対する警告を生成するかを決定する。方法400Aはステップ410及びステップ430を実行し、それは、現在の整合スコアM1及び関連する正面顔スコアF1を生成する。ステップ440では、同一の関心のある人が10pm~10.05pmの重複排除期間内に検出されているので、方法400Aは重複排除期間を延長する(ステップ447)。本実施例では、延長期間は5分であるので重複排除期間は10.07pmまで延長される。方法400Aはその後、検出された顔に関連付けられた検出スコアが最小エスカレーション閾値を超えるかを決定する(ステップ450)。
ステップ450では、今回のスコアM1及びF1(10.02pmでの)及び最高スコアM2及びF2(10pmに検出された顔のスコアである)に基づいて、検出スコアが算出される。本実施例では、検出スコアは、最小エスカレーション閾値より低く、方法400Aは警告を生成せずに終了する。
10.04pmでは、同一の人が同一のカメラ320でキャプチャされる。コンピューティングデバイス600はフレームを受信し、方法400Aを実行してm検出された人に対する警告を生成するかを決定する。方法400Aはステップ410及びステップ430を実行し、それにより、現在の整合スコアM1及び関連する正面顔スコアF1が生成される。ステップ440では、同一の関心のある人が、10pm~10.07pmの重複排除期間内に検出されるので、方法400Aは、重複排除期間を5分だけ10.09pmまで延長する(ステップ447)。方法400Aは、検出された顔に関連付けられた検出スコアが最小エスカレーション閾値を超えているかを決定する(ステップ450)。
ステップ450では、検出スコアは、現在のスコアM1及びF1(10.04pmでの)及び最高スコアM2及びF2(それは10pmに検出された顔スコアである)に基づいて算出される。本実施例では、検出スコアは最小エスカレーション閾値より高く、方法400Aはステップ460に進む。
ステップ460では、現在のスコアM1及びF1(10.04pmにおける)が、それぞれ最高スコアM2及びF2として記憶される。方法400Aはその後、関心のある人に対する警告を生成する(ステップ470)。その後、方法400は、終了する。
同一のカメラ320が再び同一の関心のある人を検出しない場合、重複排除期間は10.09pmで終了し、ゼロにリセットされる。さらに、スコアM2及びF2がリセットされる。
方法400Bは第1の実施例に使用される場合、同一の人が同一のカメラ320で検出されたとき、重複排除期間は10.02pmで延長されない。これは、方法400Bが、最小エスカレーション閾値を超える検出スコアが決定された場合(方法400Bのステップ447参照)、重複排除期間を延長するからである。したがって、方法400Bが使用される場合、検出スコアが最小エスカレーション閾値より低いので第1の実施例の重複排除期間は、10.02pmで延長されない。しかし、10.04pmにおける検出スコアが最小エスカレーション閾値を超えるので、重複排除期間は10.04pmで10.09pmまで延長される。
第2の実施例
第2の実施例では、方法400Aが使用され、重複排除期間はカメラ320のセットによって使用される。換言すると、重複排除期間はカメラ320のセットの間で共有されている。カメラ320のセットが、例えば、特定の場所(例えば、建物のロビー、建物の部屋など)を調査することができる。
一実施例において、人が、10pmに、映像監視システム310の監視下にある特定の場所に進入する。カメラ320のセットのうちのカメラ320Aは人が特定の場所に進入するシーンをキャプチャし、キャプチャされたフレームをコンピューティングデバイス600に送信し、次いで、方法400Aを実行して、検出された人に対する警告を生成するかを決定する。
方法400Aは顔認識ソフトウェアを用いて検出された人の顔を検出し(ステップ410)、検出された顔が関心のある人に関連付けられているかを決定する(ステップ430)。以上説明したように、ステップ430では、整合スコアM1及び正面顔スコアF1が算出される。検出された顔が関心のある人ではない場合、警告は生成されず、コンピューティングデバイス600は処理すべき次のフレームに進む。しかし、検出された顔が関心のある人に関連付けられている場合、方法400Aは、同一の関心のある人が重複排除期間(例えば、10pm~10.05pmの間)内に検出されるかを決定する(ステップ440)。
本実施例では、人が関心のある人として識別されている。人がエリアに進入すると、キャプチャされたフレームは、関心のある人が検出されている第1の事例であり、この関心のある人に対する重複排除期間はデフォルト値のゼロとなる。したがって、方法400Aは重複排除期間を設定する(ステップ445)。本実施例では、重複排除期間が5分であるので重複排除期間は10pm~10.05pmの間となる。方法400Aは、その後、整合スコアM1及び正面顔スコアF2を、それぞれスコアM2及びF2として記憶する(ステップ460)。その後、方法400Aは警告を生成する(ステップ470)。
10.02pmでは、同一の人がカメラ320のセットのうちの別のカメラ320Bによってキャプチャされる。コンピューティングデバイス600はフレームを受信し、方法400Aを実行して、検出された人に対する警告を生成するかを決定する。方法400Aはステップ410及びステップ430を実行し、それにより、今回の整合スコアM1及び関連正面顔スコアF1が生成される。ステップ440では、同一の関心のある人が10pm~10.05pmの重複排除期間内に検出されているので、方法400Aは重複排除期間を延長する(ステップ447)。本実施例では、延長期間は5分であるので、重複排除期間は10.07pmまで延長される。方法400Aはその後、検出された顔に関連付けられた検出スコアが最小エスカレーション閾値を超えるかを決定する(ステップ450)。
ステップ450では、今回のスコアM1及びF1(10.02pmでの)及び最高スコアM2及びF2(10pmに検出された顔のスコアである)に基づいて検出スコアが算出される。本実施例では、検出スコアが最小エスカレーション閾値より低いので、方法400Aは警告を生成せず、終了する。
10.04pmには、同一の人がカメラ320のセットのうちカメラ(例えば、320A,320B,320Cなど)によってキャプチャされる。コンピューティングデバイス600はフレームを受信し、400Aを実行して、検出された人に対する警告を生成するかを決定する。方法400Aはステップ410及びステップ430を実行し、それにより今回の整合スコアM1及び関連する正面顔スコアF1が生成される。ステップ440では、同一の関心のある人が10pm~10.07pmの重複排除期間内に検出されるので、方法400Aは、重複排除期間を5分だけ10.09pmまで延長する(ステップ447)。方法400Aは、検出された顔に関連付けられた検出スコアが最小エスカレーション閾値を超えるかを決定する(ステップ450)。
ステップ450では、今回のスコアM1及びF1(10.04pmにおける)及び最高スコアM2及びF2(10pmに検出された顔のスコアである)に基づいて、検出スコアが算出される。本実施例では、検出スコアが最小エスカレーション閾値より高いので、方法400Aはステップ460に進む。
ステップ460では、今回のスコアM1及びF1(10.04pmにおける)は、最高スコアM2及びF2としてそれぞれ記憶される。方法400Aはその後、関心のある人に対する警告を生成する(ステップ470)。方法400はその後、終了する。
カメラ320のセットのいずれのカメラも再び、関心のある同一の人を検出しない場合、重複排除期間は10.09pmで終了し、ゼロにリセットされる。さらに、スコアM2及びF2がリセットされる。
方法400Bが第2の実施例に対して使用される場合、同一の人がカメラ320のセット内のカメラ320で検出されるとき、重複排除期間は10.02pmで延長されない。これは、最小エスカレーション閾値を超える検出スコアが決定された場合(方法400Bのステップ447参照)、方法400Bが重複排除期間を延長するためである。したがって、方法400Bが使用される場合、検出スコアが最小エスカレーション閾値より低いので、第1の実施例の重複排除期間は10.02pmで延長されない。しかし、10.04pmでの検出スコアが最小エスカレーション閾値を超えるので、重複排除期間は10.04pmで10.09pmまで延長される。
第3の実施例
第3の実施例では、方法400(すなわち、方法400A又は400Bのいずれか)が使用され、重複排除期間はカメラ320のセットにより使用される。換言すると、重複排除期間はカメラ320のセットの間で共有される。カメラ320のセットは例えば、特定の場所(例えば、建物のロビー、建物の部屋など)を調査することができる。第3の実施例では、重複排除期間が延長できない。つまり、ステップ447は方法400で実行されない。
第3の例では、人が、10pmにカメラ320のセットの監視下にある特定の場所に進入する。カメラ320のセットのカメラ320は人がエリアに進入するシーンをキャプチャし、キャプチャされたフレームをコンピューティングデバイス600に送信し、次いで、方法400を実行して、検出された人に対する警告を生成するかを決定する。
方法400は、顔認識ソフトウェアを用いて検出された人の顔を検出し(ステップ410)、検出された顔が関心のある人に関連付けられているかを決定する(ステップ430)。以上説明したように、ステップ430では、整合スコアM1及び正面顔スコアF1を算出する。検出された顔が関心のある人でない場合、警告は生成されず、コンピューティングデバイス600は処理すべき次のフレームに進む。しかし、検出された顔が関心のある人に関連付けられている場合、方法400は、同一の関心のある人が重複排除期間(例えば、10pm~10.05pmの間)内に検出されたかを決定する(ステップ440)。
本実施例では、人が関心のある人として識別されている。人がちょうど特定の場所に進入すると、キャプチャされたフレームは関心のある人が検出されている第1の事例であり、この関心のある人の重複排除期間はデフォルト値のゼロである。したがって、方法400は重複排除期間を設定する(ステップ445)。本実施例では、重複排除期間は5分であるので重複排除期間は10pm~10.05pmの間である。方法400は、整合スコアM1及び正面顔スコアF2を、それぞれ、スコアM2及びF2として記憶する(ステップ460)。方法400はその後、警告を生成する(ステップ470)。
10.02pmでは、同一の人がカメラ320のセットのうちの別のカメラでキャプチャされる。コンピューティングデバイス600はフレームを受信し、方法400を実行して、検出された人に対する警告を生成するかを決定する。方法400はステップ410及びステップ430を実行し、それにより、現在の整合スコアM1及び関連する正面顔スコアF1が生成される。ステップ440では、関心のある同一の人が10pm~10.05pmの重複排除期間内に検出されるので、方法400は、検出された顔に関連付けられた検出スコアが最小エスカレーション閾値を超えるかを決定する(ステップ450)。
ステップ450では、現在のスコアM1及びF1(10.02pmでの)及び最高スコアM2及びF2(10pmに検出された顔のスコアである)に基づいて、検出スコアが算出される。本実施例では、検出スコアが最小エスカレーション閾値より低いので、方法400は警告を生成せずに終了する。
10.04pmでは、同一の人がカメラ320のセットの別のカメラでキャプチャされる。コンピューティングデバイス600はフレームを受信し、方法400を実行して、検出された人に対する警告を生成するかを決定する。方法400はステップ410及びステップ430を実行し、それにより現在の整合スコアM1及び関連する正面顔スコアF1が生成される。ステップ440では、関心のある同一の人が10pm~10.05pmの重複排除期間内に検出されるので、方法400は、検出された顔に関連付けられた検出スコアは最小エスカレーション閾値を超えるかを決定する(ステップ450)。
ステップ450では、現在のスコアM1及びF1(10.04pmにおける)及び最高スコアM2及びF2(10pmに検出された顔のスコアである)に基づいて、検出スコアが算出される。本実施例では、検出スコアが最小エスカレーション閾値より高いので、方法400はステップ460に進む。
ステップ460では、現在のスコアM1及びF1(10.04pmにおける)がそれぞれ、最高スコアM2及びF2として記憶される。方法400はその後、関心のある人に対する警告を生成する(ステップ470)。方法400はその後、終了する。
10.05pmでは、同一の人がカメラ320のセットのうち別のカメラでキャプチャされる。コンピューティングデバイス600はフレームを受信し、方法400を実行して、検出された人に対する警告を生成するかを決定する。方法400はステップ410及び430を実行し、それにより、現在の整合スコアM1及び関連する正面顔スコアF1が生成される。ステップ440では、関心のある同一の人が10pm~10.05pmの重複排除期間内に検出されるので、方法400は、検出された顔に関連付けられた検出スコアが最小エスカレーション閾値を超えているかを決定する(ステップ450)。
ステップ450では、現在のスコアM1及びF1(10.05pmにおける)及び最高スコアM2及びF2(10.04pmに検出された顔のスコアである)に基づいて、検出スコアが算出される。本実施例では、検出スコアが最小エスカレーション閾値より低いので、方法400は終了する。
時計が10.06pmまで進むと、重複排除期間がゼロにリセットされ、スコアM2及びF2がリセットされる。
方法400は、カメラ320により検出された関心のある人が、関心のある同一の人に対する前回の検出スコアより良い検出スコアを有する場合、後続の警告が生成される際に警告を生成する従来の構成に対する改良を提供する。
方法400はまた、検出された顔の特徴、並びに、カメラパラメータ(例えば、カメラの画角)を考慮し、検出スコアを算出する。
方法400はまた、自動人検出システムにより検出された関心のある人が関心のある同一の人に対する前回の検出スコアよりよい検出スコアを有する場合、警告が生成される際の処理負荷及びトラフィックを低減する。方法400はまた、早期に警告を提供し、重複排除期間内の重要な警告の損失を防止する。
記載する構成は、特に、関心のある人が映像監視カメラによって検出される場合、警告を生成するためのコンピュータ及びデータ処理産業に適用可能である。
前述は、本発明の一部の実施形態のみを説明し、本発明の範囲及び趣旨から逸脱せずに、変形及び/又は変更を行うことができ、実施形態は例示的であり、限定的ではない。
本明細書のコンテキストでは、用語「~を含む(comprising)」は、「~を主に含むが、必ずしも、それだけを含むものではない」又は「有する」若しくは「~を含む」ことを意味し、「~のみからなる」を意味しない。「~を含む(comprise)」及び「~を含む(comprises)」などの 用語「~を含む(comprising)」の変形もそれに応じて異なる意味を有する。
例えば、上記に開示した例示的な実施形態の全部又は一部は、以下の付記のように記載することができるが、以下に限定されるものではない。
(付記1)
警告を生成する方法であって、
画像フレームにおいて、対象認識ソフトウェアを用いて、対象の固有パラメータを検出することと、
前記検出された固有パラメータが関心対象に関連付けられているかを決定することと、
前記検出された固有パラメータが前記関心対象に関連付けられているとの決定に応答して、前記関連付けられた関心対象が重複排除期間内に検出されているかを決定することと、
前記関連付けられた関心対象が前記重複排除期間内に検出されているとの決定に応答して、前記検出された固有パラメータと関連付けられた検出スコアを決定することと、
前記検出スコアが最小エスカレーション閾値を超えるかを決定することと、
前記検出スコアが前記最小エスカレーション閾値を超えているとの決定に応答して、前記重複排除期間内に警告を生成することと、を含む、方法。
(付記2)
付記1に記載の方法であって、
前記関連付けられた関心対象が前記重複排除期間外で検出されているとの決定に応答して、警告を生成することを更に含む、方法。
(付記3)
付記1又は2に記載の方法であって、前記検出された固有パラメータが関心対象と関連付けられているかの前記決定は、
前記検出された固有パラメータの特徴に対応する特徴スコアを決定することと、
前記決定された特徴スコアを、前記関心対象の対応する特徴スコアと比較することと、
前記特徴スコアの比較に基づいて整合スコアを決定することであって、前記検出スコアは前記整合スコアに基づくものであることと、を更に含む、方法。
(付記4)
付記3に記載の方法であって、
前記整合スコアを最高整合スコアとして記憶することを更に含み、前記検出スコアは最高整合スコアに更に基づくものである、方法。
(付記5)
付記3又は4に記載の方法であって、
前記検出された固有パラメータの正面スコアを決定することを更に含み、前記正面スコアは、画像フレームをキャプチャするデバイスのパラメータに基づくものであり、前記検出スコアは正面スコアに更に基づくものである、方法。
(付記6)
付記5に記載の方法であって、
前記正面スコアを前記最高正面スコアとして記憶することを更に含み、前記検出スコアは前記最高正面スコアに更に基づくものである、方法。
(付記7)
付記4に従属するとき、付記6に記載の方法であって、前記検出スコアは、
検出スコア=(max(abs(M2-M1),Tm)*W1)+((Tc+abs(F2-F1))*W2)
の等式を用いて算出され、
その中で、M2は前記最高整合スコアであり、M1は前記整合スコアであり、F2は前記最高正面スコアであり、F1は前記正面スコアであり、W1は第1の重み付け値であり、W2は第2の重み付け値であり、Tmは最小整合閾値であり、Tcは正面カメラ角度調整閾値であり、
Tmは前記最高整合スコアと前記整合スコアとの間の最小デルタ値であり、
Tcは前記検出された固有パラメータのピッチ角及びヨー角に応じて前記正面スコアを調整する値である、方法。
(付記8)
付記5又は6が付記4に従属する場合、付記4~6のいずれか一項に記載の方法であって、
前記重複排除期間が過ぎたとき、前記最高整合スコア及び前記最高正面スコアをリセットすることを更に含む、方法。
(付記9)
付記1~8のいずれか一項に記載の方法であって、
映像監視システムのカメラから前記画像フレームを受信することを更に含む、方法。
(付記10)
付記1~9のいずれか一項に記載の方法であって、
前記関心対象は、複数の関心対象を含む関心対象リスト上にある、方法。
(付記11)
前記対象は人であり、前記固有パラメータは前記人の顔である、付記1~10のいずれか一項に記載の方法。
(付記12)
警告を生成するシステムであって、
プロセッサと、
前記プロセッサと通信する周辺デバイスであって、前記周辺デバイスは、前記警告を生成するように構成され、
前記プロセッサと通信するメモリであって、前記メモリは内部に記録されたコンピュータプログラムを記憶し、前記コンピュータプログラムは前記プロセッサによって前記警告を生成する方法を実行可能であり、前記方法は、
画像フレームにおいて、対象認識ソフトウェアを用いて、対象の固有パラメータを検出することと、
前記検出された固有パラメータが関心対象と関連するかを決定することと、
前記検出された固有パラメータが前記関心対象と関連付けられているとの決定に応答して、前記関連付けられた関心対象が重複排除期間内に検出されているかを決定することと、
前記関連付けられた関心対象が前記重複排除期間内に検出されているとの決定に応答して、前記検出された固有パラメータに関連付けられた検出スコアを決定することと、
前記検出スコアが最小エスカレーション閾値を超えているかを決定することと、
前記検出スコアが前記最小エスカレーション閾値を超えているとの決定に応答して、前記周辺デバイスによって、前記重複排除期間内に前記警告を生成することと、を含む、システム。
(付記13)
付記12に記載のシステムであって、前記方法は、
前記関連付けられた関心対象が前記重複排除期間外に検出されているとの決定に応答して、警告を生成することを更に含む、システム。
(付記14)
付記12又は13に記載のシステムであって、前記検出された固有パラメータが関心対象に関連付けられているかの決定は、
前記検出された固有パラメータの特徴に対応する特徴スコアを決定することと、
前記決定された特徴スコアを前記関心対象の対応する特徴スコアと比較することと、
前記特徴スコアの比較に基づいて整合スコアを決定することであって、前記検出スコアは前記整合スコアに基づくものであることと、を含む、システム。
(付記15)
付記14に記載のシステムであって、前記方法は、
前記整合スコアを前記最高整合スコアとして記憶することを更に含み、前記検出スコアは前記最高整合スコアに更に基づくものである、
システム。
(付記16)
付記14又は15に記載のシステムであって、前記方法は、前記検出された固有パラメータ正面スコアを決定することを更に含み、前記正面スコアは前記画像フレームをキャプチャするデバイスのパラメータに基づくものであり、前記検出スコアは前記正面スコアに更に基づくものである、システム。
(付記17)
付記16に記載のシステムであって、前記方法は、
前記正面スコアを前記最高正面スコアとして記憶することであって、前記検出スコアは前記最高正面スコアに更に基づくものであることを更に含む、システム。
(付記18)
付記15に従属するとき、付記17に記載のシステムであって、前記検出スコアは、
検出スコア=(max(abs(M2-M1),Tm)*W1)+((Tc+abs(F2-F1))*W2)
の等式を用いて算出され、
M2は前記最高整合スコアであり、M1は前記整合スコアであり、F2は前記最高正面スコアであり、F1は前記正面スコアであり、W1は第1の重み付け値であり、W2は第2の重み付け値であり、Tmは最小整合閾値であり、Tcは正面カメラ角度調整閾値あり、
Tmは前記最高整合スコアと前記整合スコアとの間の最小デルタ値であり、
Tcは前記検出された固有パラメータのピッチ角及びヨー角に応じて前記正面スコアを調整する値である、システム。
(付記19)
付記16又は17が付記15に従属するとき、付記15~17のいずれか一項に記載のシステムであって、前記方法は、
前記重複排除期間が過ぎたとき、前記最高整合スコア及び前記最高正面スコアをリセットすることを更に含む、システム。
(付記20)
付記12~19のいずれか一項に記載のシステムであって、
それぞれのカメラがシーンを画像フレームとしてキャプチャし、前記画像フレームを前記プロセッサに送信するように構成されたカメラを更に含み、前記画像フレームは、前記警告を生成する方法によって処理される、システム。
(付記21)
付記12~20のいずれか一項に記載のシステムであって、前記メモリは、前記関心対象及び他の複数の関心対象を含む関心対象リストを記憶する、システム。
(付記22)
付記12~21のいずれか一項に記載のシステムであって、前記対象は人であり、前記固有パラメータは前記人の顔である、システム。
(付記23)
コンピュータプログラムを記録されたコンピュータ可読記憶媒体であって、前記プログラムは、コンピュータ装置によって、付記1~11のいずれか一項に記載の警告を生成する方法を前記コンピュータに実行させるように実行可能である、
コンピュータ可読記憶媒体。
本出願は2018年6月12日に出願されたシンガポール特許出願第10201805030Y号の優先権の利益に基づき、それを主張するものであり、その開示は参照により全体が本明細書に組み込まれる。
102 人
110 画像フレーム
210 警告
220 警告
310 映像監視システム
320 カメラ
600 コンピュータシステム
604 プロセッサ
606 通信インフラストラクチャ
608 メインメモリ
610 セカンダリメモリ
612 ストレージドライブ
614 リムーバブルストレージドライブ
618 リムーバブル記憶媒体
622 リムーバブルストレージユニット

Claims (10)

  1. 警告を生成する方法であって、
    画像フレームにおいて、対象認識ソフトウェアを用いて、対象の固有パラメータを検出することと、
    前記検出された固有パラメータが関心対象に関連付けられているかを決定することと、
    前記検出された固有パラメータが前記関心対象に関連付けられているとの決定に応答して、前記関連付けられた関心対象が重複排除期間内に検出されているかを決定することと、
    前記関連付けられた関心対象が前記重複排除期間内に検出されているとの決定に応答して、前記検出された固有パラメータと関連付けられた検出スコアを決定することと、
    前記検出スコアが最小エスカレーション閾値を超えるかを決定することと、
    前記検出スコアが前記最小エスカレーション閾値を超えているとの決定に応答して、前記重複排除期間内に警告を生成することと、を含む、方法。
  2. 請求項1に記載の方法であって、
    前記関連付けられた関心対象が前記重複排除期間外で検出されているとの決定に応答して、警告を生成することを更に含む、方法。
  3. 請求項1又は2に記載の方法であって、前記検出された固有パラメータが関心対象と関連付けられているかの前記決定は、
    前記検出された固有パラメータの特徴に対応する特徴スコアを決定することと、
    前記決定された特徴スコアを、前記関心対象の対応する特徴スコアと比較することと、
    前記特徴スコアの比較に基づいて整合スコアを決定することであって、前記検出スコアは前記整合スコアに基づくものであることと、を更に含む、方法。
  4. 請求項3に記載の方法であって、
    前記整合スコアを最高整合スコアとして記憶することを更に含み、前記検出スコアは最高整合スコアに更に基づくものである、方法。
  5. 請求項3又は4に記載の方法であって、
    前記検出された固有パラメータの正面スコアを決定することを更に含み、前記正面スコアは、画像フレームをキャプチャするデバイスのパラメータに基づくものであり、前記検出スコアは正面スコアに更に基づくものである、方法。
  6. 請求項5に記載の方法であって、
    前記正面スコアを前記最高正面スコアとして記憶することを更に含み、前記検出スコアは前記最高正面スコアに更に基づくものである、方法。
  7. 請求項4に従属するとき、請求項6に記載の方法であって、前記検出スコアは、
    検出スコア=(max(abs(M2-M1),Tm)*W1)+((Tc+abs(F2-F1))*W2)
    の等式を用いて算出され、
    その中で、M2は前記最高整合スコアであり、M1は前記整合スコアであり、F2は前記最高正面スコアであり、F1は前記正面スコアであり、W1は第1の重み付け値であり、W2は第2の重み付け値であり、Tmは最小整合閾値であり、Tcは正面カメラ角度調整閾値であり、
    Tmは前記最高整合スコアと前記整合スコアとの間の最小デルタ値であり、
    Tcは前記検出された固有パラメータのピッチ角及びヨー角に応じて前記正面スコアを調整する値である、方法。
  8. 請求項5又は6が請求項4に従属する場合、請求項4~6のいずれか一項に記載の方法であって、
    前記重複排除期間が過ぎたとき、前記最高整合スコア及び前記最高正面スコアをリセットすることを更に含む、方法。
  9. 警告を生成するシステムであって、
    プロセッサと、
    前記プロセッサと通信する周辺デバイスであって、前記周辺デバイスは、前記警告を生成するように構成され、
    前記プロセッサと通信するメモリであって、前記メモリは内部に記録されたコンピュータプログラムを記憶し、前記コンピュータプログラムは前記プロセッサによって前記警告を生成する方法を実行可能であり、前記方法は、
    画像フレームにおいて、対象認識ソフトウェアを用いて、対象の固有パラメータを検出することと、
    前記検出された固有パラメータが関心対象と関連するかを決定することと、
    前記検出された固有パラメータが前記関心対象と関連付けられているとの決定に応答して、前記関連付けられた関心対象が重複排除期間内に検出されているかを決定することと、
    前記関連付けられた関心対象が前記重複排除期間内に検出されているとの決定に応答して、前記検出された固有パラメータに関連付けられた検出スコアを決定することと、
    前記検出スコアが最小エスカレーション閾値を超えているかを決定することと、
    前記検出スコアが前記最小エスカレーション閾値を超えているとの決定に応答して、前記周辺デバイスによって、前記重複排除期間内に前記警告を生成することと、を含む、システム。
  10. コンピュータ装置によって、請求項1~のいずれか一項に記載の警告を生成する方法を実行させるプログラム。
JP2020567630A 2018-06-12 2019-03-08 人検出警告を重複排除するシステム、方法及びプログラム Active JP7044179B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
SG10201805030Y 2018-06-12
SG10201805030YA SG10201805030YA (en) 2018-06-12 2018-06-12 A system and method for deduplicating person detection alerts
PCT/JP2019/009262 WO2019239653A1 (en) 2018-06-12 2019-03-08 A system and method for deduplicating person detection alerts

Publications (2)

Publication Number Publication Date
JP2021526690A JP2021526690A (ja) 2021-10-07
JP7044179B2 true JP7044179B2 (ja) 2022-03-30

Family

ID=68843140

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020567630A Active JP7044179B2 (ja) 2018-06-12 2019-03-08 人検出警告を重複排除するシステム、方法及びプログラム

Country Status (4)

Country Link
US (1) US20210224551A1 (ja)
JP (1) JP7044179B2 (ja)
SG (1) SG10201805030YA (ja)
WO (1) WO2019239653A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003187352A (ja) 2001-12-14 2003-07-04 Nippon Signal Co Ltd:The 特定人物検出システム
JP2009077064A (ja) 2007-09-19 2009-04-09 Fujifilm Corp 監視方法および監視装置
JP2009206784A (ja) 2008-02-27 2009-09-10 Panasonic Electric Works Co Ltd 住宅用セキュリティシステム
US20150098632A1 (en) 2013-10-08 2015-04-09 Omron Corporation Monitoring system, monitoring method, monitoring program, and recording medium in which monitoring program is recorded
JP2016009234A (ja) 2014-06-23 2016-01-18 Lykaon株式会社 防犯システム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6445409B1 (en) * 1997-05-14 2002-09-03 Hitachi Denshi Kabushiki Kaisha Method of distinguishing a moving object and apparatus of tracking and monitoring a moving object
US8929601B2 (en) * 2007-12-05 2015-01-06 John Caulfield Imaging detecting with automated sensing of an object or characteristic of that object
US8660307B2 (en) * 2012-03-29 2014-02-25 The Nielsen Company (Us), Llc Methods and apparatus to count people in images
US10360466B2 (en) * 2016-12-27 2019-07-23 Facebook, Inc. Systems and methods for image description generation
US10032326B1 (en) * 2017-01-25 2018-07-24 Toshiba Global Commerce Solutions Holdings Corporation Accessing a secure region of an environment using visually identified behaviors relative to an access control device
US10745006B2 (en) * 2018-02-01 2020-08-18 GM Global Technology Operations LLC Managing automated driving complexity of the forward path using perception system measures

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003187352A (ja) 2001-12-14 2003-07-04 Nippon Signal Co Ltd:The 特定人物検出システム
JP2009077064A (ja) 2007-09-19 2009-04-09 Fujifilm Corp 監視方法および監視装置
JP2009206784A (ja) 2008-02-27 2009-09-10 Panasonic Electric Works Co Ltd 住宅用セキュリティシステム
US20150098632A1 (en) 2013-10-08 2015-04-09 Omron Corporation Monitoring system, monitoring method, monitoring program, and recording medium in which monitoring program is recorded
JP2016009234A (ja) 2014-06-23 2016-01-18 Lykaon株式会社 防犯システム

Also Published As

Publication number Publication date
WO2019239653A1 (en) 2019-12-19
JP2021526690A (ja) 2021-10-07
SG10201805030YA (en) 2020-01-30
US20210224551A1 (en) 2021-07-22

Similar Documents

Publication Publication Date Title
CN105915847B (zh) 基于特征匹配跟踪的视频监控装置及其方法
US20190068945A1 (en) Information processing device, control method of information processing device, and storage medium
JP5121508B2 (ja) 画像処理装置、画像処理方法、プログラム及び記憶媒体
AU2015224526B2 (en) An image management system
WO2016149938A1 (zh) 视频监控方法、视频监控系统以及计算机程序产品
WO2015131734A1 (zh) 一种前视监视场景下的行人计数方法、装置和存储介质
JP6798549B2 (ja) 動線表示システム、動線表示方法および動線表示プログラム
CN110650320B (zh) 动态帧率存储方法及装置、监控设备
US20170296875A1 (en) Electronic device and method for controlling the electronic device
JP2005056388A5 (ja)
US11176774B2 (en) Game stage switching method and apparatus, and storage medium
CN108830204B (zh) 面对目标的监控视频中异常检测方法
JP7044179B2 (ja) 人検出警告を重複排除するシステム、方法及びプログラム
TWI493510B (zh) 跌倒偵測方法
CN115861915A (zh) 消防通道监控方法、消防通道监控装置以及存储介质
WO2020007156A1 (zh) 人体识别方法、装置及存储介质
WO2018107748A1 (zh) 一种路径检测方法及装置
CN112926364A (zh) 头部姿态的识别方法及系统、行车记录仪和智能座舱
JP7327923B2 (ja) 情報処理装置、情報処理方法、システムおよびプログラム
JP6301759B2 (ja) 顔識別装置及びプログラム
TW201319956A (zh) 人臉影像辨識方法及裝置
JP2004054442A (ja) 顔検出装置、顔検出方法および顔検出プログラム
WO2021193353A1 (ja) 画像追跡装置、画像追跡方法、及びコンピュータ読み取り可能な記録媒体
CN107786524B (zh) 高级持续性威胁的检测方法和装置
WO2022118397A1 (ja) リスク値算出装置、システム、方法及びプログラムが格納された非一時的なコンピュータ可読媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201203

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220228

R151 Written notification of patent or utility model registration

Ref document number: 7044179

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151