JP2022082561A - 解析サーバ、監視システム、監視方法及びプログラム - Google Patents

解析サーバ、監視システム、監視方法及びプログラム Download PDF

Info

Publication number
JP2022082561A
JP2022082561A JP2022034125A JP2022034125A JP2022082561A JP 2022082561 A JP2022082561 A JP 2022082561A JP 2022034125 A JP2022034125 A JP 2022034125A JP 2022034125 A JP2022034125 A JP 2022034125A JP 2022082561 A JP2022082561 A JP 2022082561A
Authority
JP
Japan
Prior art keywords
monitoring target
suspicious person
video data
server
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022034125A
Other languages
English (en)
Inventor
洋明 網中
Hiroaki Aminaka
一志 村岡
Kazushi Muraoka
大 金友
Masaru Kanetomo
太一 大辻
Taichi Otsuji
則夫 山垣
Norio Yamagaki
孝司 吉永
Koji Yoshinaga
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JP2022082561A publication Critical patent/JP2022082561A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Alarm Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Emergency Alarm Devices (AREA)

Abstract

【課題】主たる監視対象に加え、主たる監視対象と関連性のある対象の検出を可能とする解析サーバを提供する。【解決手段】解析サーバは、第1の監視対象が検出された場合、第1の監視対象と関係を有すると推定される第2の監視対象を、カメラからの映像データを外部に出力する映像サーバから取得した映像データに基づき検出する。【選択図】図1

Description

(関連出願についての記載)
本発明は、米国仮出願:62/437747号(2016年12月22日出願)の優先権主張に基づくものであり、同出願の全記載内容は引用をもって本書に組み込み記載されているものとする。
本発明は、解析サーバ、監視システム、監視方法及びプログラムに関する。
近年、テロリズムの脅威が高まっており、多くの人が集まる大規模イベントなどの警備が年々強化される傾向にある。例えば、イベント会場に固定的に設置されるカメラや警備員が装着したウェアラブルカメラを使用した映像監視による警備が行われている。
また、情報通信技術(ICT;Information and Communication Technology)を活用したより高品質な警備サービスが提供されることが期待されている。つまり、監視カメラ等から得られる映像を人が監視するだけでなく、情報通信技術を積極的に活用し、警備強化に貢献することが期待されている。例えば、顔認証等の技術を導入し、監視カメラから得られる顔画像と犯罪者データベースに登録された顔画像を照合することで不審者を早期に検出するシステムの活用が検討されている。
特許文献1には、監視カメラの画像に存在する人の位置を検出し、検出した人が予め定められた守備者および被守備者を除く不定者であるか否かをICタグ及びアンテナを利用して特定する技術が開示されている。また、当該文献が開示する技術では、不定者と特定された人の年齢、性別、および一緒に行動している人数を推定し、当該推定結果に基づいて、犯罪リスク値を演算している。
特許文献2には、不審者検出装置の検出情報に基づいて、検出された者が本当に不審者であるかを確認し、さらに、犯罪者データベースのデータと照合して犯罪者としての経歴があるか否かを確認する技術が開示されている。また、当該文献には、上記確認結果から、利用者と警備会社(あるいは警察)に通報することや、現場に近い街頭放送機器を選択して地域放送装置を介して街頭放送により警告情報を流すことが開示されている。
特許第5301973号公報 特開2008-204219号公報
近年のテロリズム等における犯罪の状況を鑑みると、単独の実行犯が犯罪を行うこともあるが、複数の実行犯が犯罪を行うこともある。この場合、複数の実行犯により犯罪が行われる方がその規模が大きくなり、被害も甚大なものとなり得る。従って、単独犯による犯罪を未然に防ぐことに加え、複数犯による犯罪を未然に防ぐことがより重要となる。
この点、特許文献1及び2に開示された技術では十分ではない。例えば、特許文献1には、不定者と一緒に行動する人数から犯罪者レベルを推定することが開示されている。しかし、当該文献では、守備者と被守備者以外は不定者であり、犯罪者の潜在的な仲間(共犯者)に関しては考慮されていない。また、特許文献2には、不審者をデータベース照合することが開示されているが、当該文献においても犯罪者の潜在的な仲間(共犯者)に関しては考慮されていない。
本発明は、主たる監視対象に加え、主たる監視対象と関連性のある対象の検出を可能とすることに寄与する、解析サーバ、監視システム、監視方法及びプログラムを提供することを目的とする。
本発明の第1の視点によれば、第1の監視対象が検出された場合、前記第1の監視対象と関係を有すると推定される第2の監視対象を、カメラからの映像データを外部に出力する映像サーバから取得した映像データに基づき検出する、解析サーバが提供される。
本発明の第2の視点によれば、カメラからの映像データを外部に出力する、映像サーバと、第1の監視対象が検出された場合、前記第1の監視対象と関係を有すると推定される第2の監視対象を前記映像サーバから取得した映像データに基づき検出する、解析サーバと、を含む、監視システムが提供される。
本発明の第3の視点によれば、カメラからの映像データを外部に出力する映像サーバから映像データを取得し、第1の監視対象が検出された場合、前記第1の監視対象と関係を有すると推定される第2の監視対象を前記映像サーバから取得した映像データに基づき検出すること、を含む、監視方法が提供される。
本発明の第4の視点によれば、カメラからの映像データを外部に出力する映像サーバから映像データを取得する処理と、第1の監視対象が検出された場合、前記第1の監視対象と関係を有すると推定される第2の監視対象を前記映像サーバから取得した映像データに基づき検出する処理と、をコンピュータに実行させるプログラムが提供される。
なお、このプログラムは、コンピュータが読み取り可能な記憶媒体に記録することができる。記憶媒体は、半導体メモリ、ハードディスク、磁気記録媒体、光記録媒体等の非トランジェント(non-transient)なものとすることができる。本発明は、コンピュータプログラム製品として具現することも可能である。
本発明の各視点によれば、主たる監視対象に加え、主たる監視対象と関連性のある対象の検出を可能とすることに寄与する、解析サーバ、監視システム、監視方法及びプログラムが、提供される。
一実施形態の概要を説明するための図である。 第1の実施形態に係る監視システムの構成の一例を示す図である。 第1の実施形態に係る解析サーバのハードウェア構成の一例を示すブロック図である。 第1の実施形態に係る映像サーバの処理構成の一例を示す図である。 映像サーバの記憶媒体に格納される情報の一例を示す図である。 第1の実施形態に係る映像サーバの動作の一例を示すフローチャートである。 第1の実施形態に係る解析サーバの処理構成の一例を示す図である。 潜在的不審者検出部の動作を説明するための図である。 潜在的不審者検出部の動作を説明するための図である。 潜在的不審者検出部の動作を説明するための図である。 潜在的不審者検出部の動作を説明するための図である。 検出結果出力部が表示する画面の一例を示す図である。 第1の実施形態に係る解析サーバの動作の一例を示すフローチャートである。 第1の実施形態に係るデータベースサーバの処理構成の一例を示す図である。 第1の実施形態に係るデータベースサーバの動作の一例を示すフローチャートである。 第1の実施形態に係る監視システムの動作の一例を示すシーケンス図である。 第1の実施形態に係る監視システムの動作の別の一例を示すシーケンス図である。 第2の実施形態に係る潜在的不審者検出部が作成するテーブル情報の一例である。 第2の実施形態に係る潜在的不審者検出部の動作を説明するための図である。 一実施形態に係るシステムの動作の一例を示すシーケンス図である。 一実施形態に係るシステムの潜在不審者検出に関するフローチャートである。 一実施形態に係る映像サーバの動作(a)と犯罪者データベースの動作(b)の一例を示すフローチャートである。 一実施形態に係る解析サーバのブロック図である。 一実施形態に係る情報処理装置の構成を例示するブロック図である。
初めに、一実施形態の概要について説明する。なお、この概要に付記した図面参照符号は、理解を助けるための一例として各要素に便宜上付記したものであり、この概要の記載はなんらの限定を意図するものではない。
一実施形態に係る解析サーバ101は、第1の監視対象が検出された場合、第1の監視対象と関係を有すると推定される第2の監視対象を、カメラからの映像データを外部に出力する映像サーバから取得した映像データに基づき検出する(図1参照)。また、解析サーバ101は、映像サーバがリアルタイムに出力する映像データに基づき第1の監視対象を検出する第1の検出部と、映像サーバに蓄積された過去の映像データに基づき、第2の監視対象を検出する第2の検出部と、を備えていてもよい。
解析サーバ101は、例えば、後述するような4つの判定技術を用いて、映像サーバに蓄積された映像データを解析し、第2の監視対象の検出を試みる。その結果、主たる監視対象に加え、主たる監視対象と関連性のある対象の検出が可能となる。
以下に具体的な実施の形態について、図面を参照してさらに詳しく説明する。なお、各実施形態において同一構成要素には同一の符号を付し、その説明を省略する。また、各図におけるブロック間の接続線は、双方向及び単方向の双方を含む。一方向矢印については、主たる信号(データ)の流れを模式的に示すものであり、双方向性を排除するものではない。
[第1の実施形態]
第1の実施形態について、図面を用いてより詳細に説明する。
第1の実施形態では、監視システムをイベント会場等の警備システムに適用する場合について説明する。また、第1の実施形態では、監視システムが主に監視の対象とする「主たる監視対象」として、過去に罪を犯した人物を設定する。より具体的には、第1の実施形態に係る監視システムでは、過去に罪を犯し、犯罪者データベースに氏名、住所等が記憶されている人物を主たる監視対象として扱い、そのような人物を「不審者」として検出する。さらに、第1の実施形態に係る監視システムでは、主たる監視対象と関係を有すると推定される監視対象(関連性が疑われる監視対象)を「潜在的不審者」として検出する。
[システム構成]
図2は、第1の実施形態に係る監視システムの構成の一例を示す図である。図2を参照すると、監視システムには、複数のカメラ10-1~10-3と、映像サーバ20と、解析サーバ30と、データベース(DB;Data Base)サーバ40と、が含まれる。
なお、以降の説明において、カメラ10-1~10-3を区別する特段の理由がない場合には単に「カメラ10」と表記する。また、図2には3台のカメラ10を図示しているがカメラの台数を制限する趣旨ではない。複数のカメラ10は、警備対象となるエリアに網羅的に配置される。つまり、警備対象となるエリアに応じて必要な台数のカメラが設置される。
各カメラ10は、有線又は無線のネットワークにより映像サーバ20と接続されている。各カメラ10は、映像データを映像サーバ20に向けて出力する。なお、映像データは時系列に連続する複数の画像データの集合と捉えることもできる。そこで、本願開示では、各カメラが撮影したデータを映像データと表記するが、各カメラが出力するデータは映像データに限定されず、画像データであってもよいことは勿論である。
映像サーバ20は、記憶媒体を備え、各カメラ10から提出される映像データを蓄積する。映像サーバ20は、外部(具体的には、解析サーバ30)からの要求に応じて、記憶媒体に蓄積された映像データを出力する。
解析サーバ30は、映像サーバ20から映像データを取得する。解析サーバ30は、主たる監視対象(上述の第1の監視対象;不審者)が検出された場合、当該主たる監視対象と関係を有すると推定される監視対象(上述の第2の監視対象;潜在的不審者)を映像サーバ20から取得した映像データに基づき検出する。より具体的には、解析サーバ30は、映像サーバ20からリアルタイムに出力される各カメラ10の映像データとデータベースサーバ40に蓄積されている情報を用いて、不審者を検出する。
図2の例では、解析サーバ30は、不審者61を初めに検出する。その後、解析サーバ30は、不審者61と所定の関係にあると推定される潜在的不審者62を検出する。解析サーバ30は、例えば、警備会社のオペレーションセンタに設置され、不審者及び/又は潜在的不審者を検出した場合には、モニタにその結果を表示する。当該結果に接したオペレータは、現場に急行する、警察に通報するといった行動を起こす。
データベースサーバ40は、犯罪者に関する情報が蓄積された犯罪者データベースを管理する装置である。犯罪者に関する情報は、例えば、過去に罪を犯した人物の顔画像や当該顔画像から算出した特徴量(特徴量ベクトル)等である。第1の実施形態では、上記データベースには少なくとも過去に罪を犯した人物の顔画像から算出した特徴量が含まれる。後述するように、データベースサーバ40は、解析サーバ30からの要求に応じて犯罪者に関する情報を送信する。その際、データベースには顔画像から算出した特徴量を登録しておくことで、情報の授受を容易にすることができる。通常、顔画像のデータサイズよりも特徴量のデータサイズの方が小さいためである。
[ハードウェア構成]
次に、第1の実施形態に係る監視システムを構成する各種装置のハードウェア構成を説明する。
図3は、第1の実施形態に係る解析サーバ30のハードウェア構成の一例を示すブロック図である。解析サーバ30は、所謂、コンピュータ(情報処理装置)により構成可能であり、図3に例示する構成を備える。例えば、解析サーバ30は、内部バスにより相互に接続される、CPU(Central Processing Unit)31、メモリ32、入出力インターフェイス33及び通信インターフェイスであるNIC(Network Interface Card)34等を備える。
但し、図3に示す構成は、解析サーバ30のハードウェア構成を限定する趣旨ではない。解析サーバ30は、図示しないハードウェアを含んでもよいし、必要に応じて入出力インターフェイス33を備えていなくともよい。また、解析サーバ30に含まれるCPU等の数も図3の例示に限定する趣旨ではなく、例えば、複数のCPUが解析サーバ30に含まれていてもよい。
メモリ32は、RAM(Random Access Memory)、ROM(Read Only Memory)、補助記憶装置(ハードディスク等)である。
入出力インターフェイス33は、図示しない表示装置や入力装置のインターフェイスである。表示装置は、例えば、液晶ディスプレイ等である。入力装置は、例えば、キーボードやマウス等のユーザ操作を受け付ける装置や、USB(Universal Serial Bus)メモリ等の外部記憶装置から情報を入力する装置である。ユーザは、キーボードやマウス等を用いて、必要な情報を解析サーバ30に入力する。
解析サーバ30の機能は、後述する処理モジュールにより実現される。当該処理モジュールは、例えば、メモリ32に格納されたプログラムをCPU31が実行することで実現される。また、そのプログラムは、ネットワークを介してダウンロードするか、あるいは、プログラムを記憶した記憶媒体を用いて、更新することができる。さらに、上記処理モジュールは、半導体チップにより実現されてもよい。即ち、上記処理モジュールが行う機能は、何らかのハードウェア及び/又はソフトウェアにより実現できればよい。また、コンピュータの記憶部に、上述したコンピュータプログラムをインストールすることにより、コンピュータを解析サーバ30として機能させることができる。さらにまた、上述したコンピュータプログラムをコンピュータに実行させることにより、コンピュータにより不審者及び潜在的不審者の監視方法を実行することができる。
なお、映像サーバ20及びデータベースサーバ40も解析サーバ30と同様に情報処理装置により構成可能であり、その基本的なハードウェア構成は解析サーバ30と同一とすることができるので、その説明を省略する。また、カメラ10のハードウェア構成に関しても当業者に取って明らかなものであるため、その説明を省略する。
[処理モジュール]
続いて、第1の実施形態に係る監視システムを構成する各種装置の処理モジュールについて説明する。
[映像サーバ]
図4は、第1の実施形態に係る映像サーバ20の処理構成の一例を示す図である。図4を参照すると、映像サーバ20は、通信制御部201と、データ蓄積部202と、データ出力部203と、を含んで構成される。
通信制御部201は、他の装置(カメラ10、解析サーバ30)との間の通信を制御する。また、通信制御部201は、外部から取得したデータ(パケット)を適切な処理モジュールに振り分ける。例えば、カメラ10から映像データを取得した場合には、通信制御部201は、当該映像データをデータ蓄積部202に引き渡す。また、通信制御部201は、各処理モジュールから取得したデータを他の装置に向けて送信する。例えば、データ出力部203から映像データ(複数の画像データ)を取得した場合には、通信制御部201は、当該映像データを解析サーバ30に向けて送信する。
データ蓄積部202は、通信制御部201を介してカメラ10から映像データを取得すると、当該取得した映像データを、取得したカメラ10ごとに区分してHDD(Hard Disk Drive)等の記憶媒体に格納する。その際、データ蓄積部202は、必要に応じて取得した映像データを圧縮して記憶媒体に格納する。
また、解析サーバ30は、映像サーバ20に対して過去の映像データの提出を要求することがある。そこで、データ蓄積部202は、過去の映像データが容易に取り出せるようにタイムスタンプを映像データと共に記憶媒体に格納する(図5参照)。
データ出力部203は、記憶媒体に蓄積された映像データを解析サーバ30に出力する。例えば、データ出力部203は、各カメラ10にて撮影された映像データをリアルタイムで解析サーバ30に出力する。つまり、データ出力部203は、記憶媒体に格納された映像データ(画像データ)のうち最新のデータを定期的に読み出し、当該読み出したデータを、通信制御部201を介して解析サーバ30に送信する。
さらに、データ出力部203は、解析サーバ30からの要求に応じ、指定された範囲の映像データ(一連の画像データ)を解析サーバ30に出力する。例えば、解析サーバ30は、取得したい映像データを「時間(期間)」、「場所」、「カメラID(Identifier)」等により指定して、映像データの提出を映像サーバ20に要求する。データ出力部203は、これらの情報に基づき、蓄積された映像データから要求に適合するデータを特定し、解析サーバ30に出力する。
映像サーバ20の動作をまとめると、例えば、図6に示すフローチャートのとおりとなる。
ステップS101において、データ出力部203は、最新の映像データを解析サーバ30に出力する。
ステップS102において、データ出力部203は、解析サーバ30からの「映像データ提出要求」を受信しているか否かを確認する。
映像データ提出要求を受信していれば(ステップS102、Yes分岐)、データ出力部203は、記憶媒体から必要な範囲の映像データを読み出し、解析サーバ30に送信する(ステップS103)。
映像データ提出要求を受信していなければ(ステップS102、No分岐)、ステップS101に戻り処理が継続される。
[解析サーバ]
図7は、第1の実施形態に係る解析サーバ30の処理構成の一例を示す図である。図7を参照すると、解析サーバ30は、通信制御部301と、不審者検出部302と、潜在的不審者検出部303と、検出結果出力部304と、を含んで構成される。
通信制御部301は、映像サーバ20の通信制御部201と同様に他の装置との間の通信を制御する。
不審者検出部302は、映像サーバ20がリアルタイムに出力する映像データに基づき不審者を検出する。不審者検出部302は、上述の第1の検出部に相当する。
初めに、不審者検出部302は、映像サーバ20から取得した映像データに写る人物の顔画像を抽出することを試みる。なお、映像データから顔画像を抽出する際には種々の技術を用いることができる。
例えば、参考文献1(特開2014-170979号公報)に開示されているように、入力画像(顔画像を含む画像データ)と、顔画像のテンプレート画像と、を比較し、両者の差分が閾値以下であるか否かにより、顔画像を抽出してもよい。また、色情報やエッジの方向や密度を組み合わせたモデルをあらかじめ記憶しておき、入力フレームからモデルに類似した領域が検出された場合に顔が存在すると判定し、顔画像を抽出することもできる。さらに、顔(頭部)の輪郭は楕円、目や口は矩形形状をしていることを利用して作成したテンプレートを使用し、顔画像を検出することも可能である。さらにまた、頬や額の部分は輝度が高く、目や口の部分の輝度は低いという輝度分布の特性を利用した顔検出手法や、顔の対称性や肌色領域と位置を利用して顔検出を行う手法等を用いてもよい。あるいは、大量の顔と非顔の学習サンプルから得られた特徴量分布を統計的に学習し、入力画像から得られる特徴量が顔と非顔のどちらの分布に属するかを判定する手法を用いてもよい。即ち、サポートベクターマシン等の機械学習に係る技術を顔画像の抽出に用いてもよい。
顔画像の抽出に成功した場合には、不審者検出部302は、当該顔画像を特徴付ける複数の特徴量(所謂、特徴量ベクトル)を算出する。
顔画像からの特徴量ベクトル算出に関しては、例えば、参考文献2(特開2015-097000号公報)に開示されている技術を用いることができる。具体的には、顔画像から特徴点(例えば、目、鼻、口等の中心点や端点)を抽出し、当該抽出した特徴点の位置関係、特徴点近傍の濃淡値や特性(周期性、方向性、色分布等)を特徴量として算出する。その後、当該特徴量を並べて(特徴量の組を作って)特徴量ベクトルを算出する。
ここで、特徴量ベクトル算出の元となった顔画像が異なれば、特徴量ベクトルも異なる。換言するならば、特徴量ベクトル算出の元となった顔画像が同一であれば、特徴量ベクトルも同一又はほぼ同一となる。
その後、不審者検出部302は、データベースサーバ40から犯罪者に関する情報を取得する。この場合、不審者検出部302は、データベースサーバ40から犯罪者の顔画像から算出された特徴量(特徴量ベクトル)を取得する。なお、データベースサーバ40から取得する顔画像の特徴量ベクトルは、不審者検出部302が算出した特徴量ベクトルと比較可能な特徴量ベクトルとする。換言するならば、不審者検出部302は、データベースサーバ40(即ち、犯罪者データベース)に格納されている特徴量ベクトルと同種の特徴量ベクトルを算出する。
次に、不審者検出部302は、映像データから算出した顔画像の特徴量ベクトルと、データベースサーバ40から取得した特徴量ベクトルと、に関する照合処理を行う。具体的には、不審者検出部302は、データベースサーバ40から取得した特徴量ベクトルのそれぞれに関し、上記映像データから算出した特徴量ベクトルとの類似度を算出する。
例えば、不審者検出部302は、2つの特徴量ベクトル間のカイ二乗距離やユークリッド距離等を算出する。算出されたカイ二乗距離やユークリッド距離は、2つの特徴量ベクトル(特徴量ベクトルにより特徴付けられる2つの顔画像)間の類似度を示す指標となる。なお、2つの特徴量ベクトルの類似度を示す指標は上記のユークリッド距離やカイ二乗距離に限定されない。上記指標は、2つの特徴量ベクトルの相関値(Correlation)等であってもよい。
次に、不審者検出部302は、算出した類似度に対して閾値処理を施し、映像サーバ20から取得した映像データに写る人物がデータベースサーバ40に登録されているか否かを判定する。
不審者検出部302は、映像サーバ20から取得した映像データに写る人物に似た人物がデータベースサーバ40に登録されている場合には、当該人物を「不審者」に設定する。また、不審者検出部302は、不審者が検出された場合には、その旨を潜在的不審者検出部303に通知する。
潜在的不審者検出部303は、映像サーバ20に蓄積された過去の映像データに基づき、当該不審者と関係があると推定される人物(所定の関連性を有すると疑われる人物)を検出する。潜在的不審者検出部303は、不審者検出部302により不審者が検出された場合に、映像サーバ20から得られる過去の映像データを複数の判定基準に基づき解析することで、潜在的不審者の検出を試みる。潜在的不審者検出部303は、上述の第2の検出部に相当する。
潜在的不審者検出部303は、以下に示す複数の判定基準のうち少なくとも1つを満たす対象(人物)が存在する場合に、当該人物を「潜在的不審者」として検出する。
第1の判定基準は、複数のカメラ10にて不審者と潜在的不審者として検出する対象者(潜在的不審者の候補者、以下、単に候補者と称する)が同時に写っている場合である。潜在的不審者検出部303は、映像サーバ20から取得した映像データを解析し、複数のカメラ10において不審者と共に写る候補者が存在するか否かにより、潜在的不審者を検出する。
第2の判定基準は、不審者と候補者の間の距離が近く、且つ、不審者と候補者の距離が近い状態が長時間に亘る場合である。潜在的不審者検出部303は、映像サーバ20から取得した映像データを解析し、不審者との間の距離が所定値以下、且つ、不審者との間の距離が上記所定以下の状態が所定の時間以上となる候補者が存在するか否かにより、潜在的不審者を検出する。
第3の判定基準は、不審者の軌跡(移動による軌跡)と候補者の軌跡が交わる場合である。潜在的不審者検出部303は、映像サーバ20から取得した映像データを解析して、不審者が移動したことによる軌跡と、候補者が移動したことによる軌跡と、を算出し、不審者の軌跡と候補者の軌跡が交差するか否かにより、潜在的不審者を検出する。
第4の判定基準は、不審者の動作と関連する所定の動作を候補者が行っている場合である。潜在的不審者検出部303は、映像サーバ20から取得した映像データを解析し、不審者と関連する動作を行った候補者が存在するか否かにより、潜在的不審者を検出する。
以下、上記判定基準のそれぞれについて詳細を説明する。
初めに、図8を参照しつつ、第1の判定基準について説明する。図8(a)において、不審者検出部302は、不審者Sを検出したものとする。なお、図8において、灰色で着色された領域は各カメラ10の撮影可能エリアとする。図8には、着色されていない領域も存在するが、これらの領域は図示していないカメラ10により撮影されているものとする。また、不審者検出部302が不審者Sを検出した時刻をTとする。
図8(a)の場合、潜在的不審者検出部303は、時刻Tにおいて警備エリア(監視対象エリア)に存在する人物を不審者Sに対する「潜在的不審者」の候補(上述の候補者)として抽出する。図8(a)の例では、不審者S以外の3人の人物が候補者A~Cとして抽出される。例えば、潜在的不審者検出部303は、時刻Tにける各カメラ10の映像データ(画像データ)に対して上述した顔画像の抽出処理等を適用し、候補者を抽出する。その際、同一人物が複数のカメラ10に写っている場合には、潜在的不審者検出部303は、特徴量ベクトルが類似する人物は同一人物であると扱い人物の重複を排除するのが望ましい。
次に、潜在的不審者検出部303は、映像サーバ20に対して、各カメラ10における時刻Tからの過去の映像データ(複数の画像データ)の提出を要求する。図8の例では、潜在的不審者検出部303は、時刻P3から現在の時刻Tまでの映像データの提出を映像サーバ20に要求したものとする。また、図8(b)~(d)には、時刻P3から時刻Tまでの映像データのうち時刻P2、P1の画像データを代表して記載している。なお、時刻P1~P3の関係は、時刻P1の画像データが最も新しく、時刻P3の画像データが最も古いものとなる。
過去の映像データを取得すると、潜在的不審者検出部303は、不審者ともに複数のカメラ10にて同時に写る候補者の有無を判定する。例えば、図8(b)を参照すると、不審者Sと候補者Aがカメラ10-1に同時に映っている。また、図8(d)を参照すると、不審者S、候補者A及びCがカメラ10-3にて同時に映っている。この場合、複数のカメラ10にて不審者Sと同時に映っているのは候補者Aであるから、潜在的不審者検出部303は、候補者Aを潜在的不審者として検出する。なお、候補者Cは、一度、不審者Sと一緒にカメラ10-3の映像データに写っているに過ぎないので、潜在的不審者として検出されない。
続いて、図9を参照しつつ、第2の判定基準について説明する。この場合にも、不審者検出部302は、時刻Tにおいて不審者Sを検出したものとする。また、不審者Sが検出されると、潜在的不審者検出部303は、第1の判定基準の場合と同じように、候補者A~Cを抽出する。つまり、第2の判定基準についても、図8(a)の状況が検出されたものとする。
次に、潜在的不審者検出部303は、映像サーバ20に対して、各カメラ10における時刻Tからの過去の映像データの提出を要求する。第2の判定基準に関しても、時刻P3から時刻Tまでの映像データの提出を要求したものとする。
過去の映像データを取得すると、潜在的不審者検出部303は、不審者Sと候補者A~Cそれぞれについて、上記期間内(時刻P3~T)の移動の軌跡を計算する。例えば、潜在的不審者検出部303は、映像データをなす画像データごとに人物(不審者S、候補者A~C)を特定し、特定した人物の位置を計算する。例えば、潜在的不審者検出部303は、各カメラ10の位置情報(座標)と各画像データから得られる各人物に関する情報(カメラ10からの方向、画像データにおける人物の大きさ)等を用いることで各人物の位置を算出する。その後、潜在的不審者検出部303は、各画像データ(各時刻)にて算出された位置(座標)を接続することで、各人物に関する移動の軌跡とする。
例えば、不審者Sに関しては図9(a)に示す軌跡が、候補者Aに関しては図9(b)に示す軌跡が、候補者Bに関しては図9(c)に示す軌跡がそれぞれ計算されたものとする。また、図9(d)は上記3つの軌跡を重ね合わせた図である。図9(d)において、実線が不審者Sの軌跡、点線が候補者Aの軌跡、一点鎖線が候補者Bの軌跡にそれぞれ対応する。なお、図9以降の図面において、軌跡上の黒点近傍に時刻を記載している。
次に、潜在的不審者検出部303は、不審者Sに対応する軌跡と候補者A~Cそれぞれに対応する軌跡の間の距離が所定の範囲内に収まっている時間(以下、行動時間と称する)を計算する。潜在的不審者検出部303は、各画像データ(各時刻)における不審者と候補者間の距離を計算し、当該計算した距離が所定の値以下となる画像データの数を計数することで、上記行動時間を算出できる。
例えば、図9(a)に示す不審者Sの軌跡と図9(b)に示す候補者Aの軌跡では、2つの軌跡間の距離は近く(2人の間の距離が所定値以下)、その行動時間も時刻P3~Tであると計算できる。対して、図9(a)に示す不審者Sの軌跡と図9(c)示す候補者Bの軌跡では、時刻P3~P2の間は2人の間の距離は近いが、時刻P2~P1~Tの間は2人の間の距離は離れている(2人の距離が所定値より長い)。
潜在的不審者検出部303は、上記行動時間に対して閾値処理を施して、閾値以上の行動時間を有する候補者を「潜在的不審者」として検出する。
図9の例では、候補者Aが「潜在的不審者」として検出される。
続いて、図10を参照しつつ、第3の判定基準について説明する。この場合にも、不審者検出部302は、時刻Tにおいて不審者Sを検出したものとする。不審者Sが検出されると、潜在的不審者検出部303は、第1の判定基準の場合と同じように、候補者A~Cを抽出する。つまり、第3の判定基準についても、図8(a)の状況が検出されたものとする。
次に、潜在的不審者検出部303は、第2の判定基準と同様に各人物(不審者S、候補者A~C)の移動の軌跡を計算する。例えば、不審者Sに関しては図10(a)に示す軌跡が、候補者Aに関しては図10(b)に示す軌跡が、候補者Bに関しては図10(c)に示す軌跡がそれぞれ計算されたものとする。また、図10(d)は上記3つの軌跡を重ね合わせた図である。図10(d)において、実線が不審者Sの軌跡、点線が候補者Aの軌跡、一点鎖線が候補者Bの軌跡にそれぞれ対応する。
次に、潜在的不審者検出部303は、不審者Sの軌跡と候補者A~Cの軌跡が交差する点があるか否かを判定する。その際、交差する点がある場合には、潜在的不審者検出部303は、当該交差する点の時刻が所定の範囲内にあるか否かを判定する。例えば、図10(a)に示す不審者Sの軌跡と図10(b)に示す候補者Aの軌跡は、時刻P2にて交わっている。対して、図10(a)に示す不審者Sの軌跡と図10(c)に示す候補者Bの軌跡は同一時刻で交わることはない。つまり、不審者Sの軌跡と候補者Bの軌跡は交わる点があるが、その時刻がずれており上記2つの判定のうち時刻に関する判定を満たさない。
潜在的不審者検出部303は、上記2つの判定(交差する点があり、その時刻が所定の範囲内)に合致する軌跡に対応する候補者を「潜在的不審者」として扱う。
図10の例では、候補者Aが「潜在的不審者」として検出される。
続いて、図11を参照しつつ、第4の判定基準について説明する。
第4の判定基準についても、不審者検出部302は、時刻Tにおいて不審者Sを検出したものとする。その後、潜在的不審者検出部303は、第1の判定基準の場合と同様に候補者を抽出する。この場合、図11(a)に示す状況が検出されたものとする。不審者が検出されると、潜在的不審者検出部303は、映像サーバ20に対して過去の映像データの提出を要求する。
その後、潜在的不審者検出部303は、取得した映像データを解析して、不審者Sが予め定めた動作を行っているか否かを判定する。予め定めた動作とは、例えば、スマートフォン等を操作して他者と通話している動作や他者と手信号を交わしている動作が該当する。例えば、潜在的不審者検出部303は、取得した映像データに写る人物画像に対してパターンマッチング等の技術を適用することで、不審者が予め定めた動作を行っているか否かを判定する。例えば、不審者が腕や指を使って「×」印や「○」印を作っている場合に、潜在的不審者検出部303は、不審者は他者と手信号を交わしていると判定する。
不審者が予め定めた動作を行っている場合には、潜在的不審者検出部303は、当該予め定めた動作に対応する動作を候補者が同時刻(実質的に同じ時刻)にて行っているか否かを判定する。例えば、不審者がスマートフォン等により通話を行っていれば、同時刻に通話を行っている候補者が存在するか否かが判定される。あるいは、不審者が手信号を送っていれば、同時刻にて手信号を送っている候補者が存在するか否かが判定される。
潜在的不審者検出部303は、上記判定に合致する候補者を「潜在的不審者」に設定する。例えば、図11(b)を参照すると、時刻P1にて、不審者Sと候補者Aが共に通話を行っている動作を行っている。従って、潜在的不審者検出部303は、候補者Aを潜在的不審者として検出する。対して、候補者Bは時刻P2にて他者と通話しているが(図11(c)参照)、不審者Sが通話している時刻(時刻P1)と異なるため潜在的不審者として扱われない。
以上のように、潜在的不審者検出部303は、複数の判定基準(判定条件)に従い、検出された不審者に関連する人物が警備エリアに存在するか否かを判定する。なお、潜在的不審者検出部303は、上記4つの判定を順番に実行していき判定基準を満たす候補者が発見された場合(潜在的不審者が検出された場合)には、4つの判定処理を停止しても良いし、4つの処理を一通り実行してもよい。但し、1人の不審者に対して1人の潜在的不審者が存在するとは限らず、2人以上の潜在的不審者が存在する可能性もある。このような可能性を考慮すれば、潜在的不審者検出部303は、選定された候補者の全てに関し、潜在的不審者の検出処理(上記4つの判定基準による検出処理)を実行するのが望ましい。
また、上記4つの判定処理では、各処理にて映像サーバ20から映像データを取得すると説明している。しかし、既に実行された判定処理の過程で取得した映像データを再利用可能な場合には、映像サーバ20から映像データを取得する必要がないのは勿論である。
潜在的不審者検出部303は、判定結果(不審者及び/又は潜在的不審者)を検出結果出力部304に引き渡す。
検出結果出力部304は、不審者検出部302、潜在的不審者検出部303の検出結果を外部に出力する。例えば、検出結果出力部304は、不審者とその協力者(潜在的不審者)が検出された場合には、オペレーションセンタのオペレータに警備エリアの警備強化を要請するといった出力を行う。具体的には、検出結果出力部304は、オペレーションセンタのモニタ等に警備強化が必要なエリアを指定しつつ、不審者とその協力者が検出された旨を表示する。
あるいは、検出結果はGUI(Graphical User Interface)により警備会社のオペレータ等に提示されてもよい。例えば、検出結果出力部304は、図12に示すような画面をオペレーションセンタのモニタに表示してもよい。
例えば、図12を参照すると、検出結果出力部304は、警備エリアを示すマップに不審者及び協力者(潜在的不審者)を示しつつ、当該2人の人物に関連性があることを明示する。図12の例では、不審者と協力者を線で結び2人の関係性を明示している。但し、図12の例示は、不審者と潜在的不審者を明示する態様を限定する趣旨ではない。例えば、不審者や潜在的不審者を丸印が囲む、あるいは、不審者と潜在的不審者を点滅させる等の態様であってもよい。
あるいは、検出結果出力部304は、潜在的不審者を検出した際の根拠をモニタ等に表示してもよい。例えば、第1の判定基準により潜在的不審者を割り出した場合には、潜在的不審者が不審者と共に写る映像データを取得した複数のカメラ10を明示してもよい。あるいは、第2、第3の判定基準により潜在的不審者を割り出した場合には、不審者及び潜在的不審者それぞれの移動軌跡をモニタ等に表示してもよい。
あるいは、検出結果出力部304は、映像サーバ20から過去の映像データを取得し、不審者及び潜在的不審者の行動履歴が把握可能な動画を作成し、モニタ等に出力してもよい。つまり、検出結果出力部304は、映像サーバ20から取得した映像データを加工、編集することにより、不審者や潜在的不審者が過去にどのような行動を行っていたかが把握可能な動画を作成してもよい。
さらに、不審者や潜在的不審者に関する情報(特徴量以外の情報)をデータベースサーバ40から取得可能な場合には、検出結果出力部304は、当該取得した情報も合わせてモニタ等に表示してもよい。例えば、不審者の顔画像やプロフィール(氏名、住所等)がデータベースサーバ40(あるいは、他のデータベースサーバでもよい)から取得可能な場合には、検出結果出力部304は、これらの情報を図12の表示に重畳して表示してもよい。
解析サーバ30の動作をまとめると、例えば、図13に示すフローチャートのとおりとなる。
ステップS201において、不審者検出部302は、映像サーバ20から映像データを取得したか否かを判定する。
映像データを取得していなければ(ステップS201、No分岐)、ステップS201の処理が継続される。映像データを取得していれば(ステップS201、Yes分岐)、不審者検出部302は、映像データから人物の顔画像を抽出すると共に、その特徴量を算出する(ステップS202)。
その後、不審者検出部302は、データベースサーバ40に対して、犯罪者に関する情報(例えば、犯罪者の顔画像から算出された特徴量)の提出を要求する(ステップS203)。
ステップS204において、不審者検出部302は、データベースサーバ40からの情報が受信できたか否かを判定する。
情報が受信できない場合(ステップS204、No分岐)には、ステップS204の処理が繰り返される。情報が受信できた場合(ステップS204、Yes分岐)には、不審者検出部302は、特徴量の比較等により不審者の検出を試みる(ステップS205)。
不審者が検出されない場合(ステップS205、No分岐)には、ステップS201に戻り処理が継続される。
不審者が検出された場合(ステップS205、Yes分岐)には、その旨が潜在的不審者検出部303に通知され、潜在的不審者検出部303が映像サーバ20に対し、過去の所定期間における映像データの提出を要求する(ステップS206)。
ステップS207において、潜在的不審者検出部303は、映像サーバ20からの映像データが取得できたか否かを判定する。映像データが受信できない場合(ステップS207、No分岐)には、ステップS207の処理が繰り返される。
映像データが受信できた場合(ステップS207、Yes分岐)には、潜在的不審者検出部303は、検出された不審者に関する潜在的不審者を発見する解析を行う(ステップS208)。潜在的不審者が検出されない場合(ステップS209、No分岐)には、ステップS201に戻り処理が継続される。潜在的不審者が検出された場合(ステップS209、Yes分岐)には、潜在的不審者検出部303は、検出結果を検出結果出力部304に通知する。
検出結果出力部304は、検出結果をオペレーションセンタのモニタ等に出力する(ステップS210)。
[データベースサーバ]
図14は、第1の実施形態に係るデータベースサーバ40の処理構成の一例を示す図である。図14を参照すると、データベースサーバ40は、通信制御部401と、データベースアクセス部402と、を含んで構成される。
通信制御部401は、映像サーバ20の通信制御部201等と同様に他の装置との間の通信を制御する。
データベースアクセス部402は、犯罪者に関する情報等が格納されたデータベースにアクセスし、解析サーバ30からの情報提出要求を処理する。より具体的には、データベースアクセス部402は、解析サーバ30から犯罪者に関する情報の提出を要求されると、データベースから必要な情報を読み出し応答する。
データベースサーバ40の動作をまとめると、例えば、図15に示すフローチャートのとおりとなる。
ステップS301において、データベースアクセス部402は、解析サーバ30からの情報提出要求を受信したか否かを判定する。情報提出要求を受信していれば(ステップS301、Yes分岐)、データベースアクセス部402は、データベースから必要な情報を読み出し、解析サーバ30に送信する(ステップS302)。情報提出要求を受信していなければ(ステップS301、No分岐)、ステップS301に戻り処理が継続される。
[システムの動作]
次に、図16を参照しつつ、第1の実施形態に係る監視システムの動作を説明する。
ステップS01において、映像サーバ20は、最新の映像データを所定の間隔にて解析サーバ30に送信する。つまり、映像サーバ20は、警備エリアのリアルタイムな情報を解析サーバ30に出力する。
解析サーバ30は、当該映像データに写る人物の顔画像を抽出し、その特徴量を算出する(ステップS02)。
その後、解析サーバ30は、データベースサーバ40に対し、犯罪者に関する情報の提出を要求する(ステップS03)。
データベースサーバ40は、当該要求に応じて、犯罪者に関する情報を解析サーバ30に送信する(ステップS04)。
解析サーバ30は、先に算出した特徴量と犯罪者に関する情報を用いて、映像データに写る人物の照合処理(映像データに写る人物が犯罪者データベースに登録されているか否かの判定処理)を実行する(ステップS05)。
照合処理の結果、映像データに写る人物が犯罪者データベースに登録されていなければ、ステップS01~S05の処理が繰り返される。照合処理の結果、映像データに写る人物が犯罪者データベースに登録されていれば、当該人物は不審者として扱われ、対応する潜在的不審者の検出が開始される。
このように、第1の実施形態に係る監視システムでは、カメラ10及び映像サーバ20を介して現場(警備エリア)の状況をリアルタイムに把握し、不審者の存在を直ちに検出する。不審者が存在すれば、図16のステップS11以降の処理が実行される。
ステップS11において、解析サーバ30は、必要な映像データを「時間(期間)」、「場所」及び「カメラID」等により指定し、映像データの出力を映像サーバ20に要求する。
映像サーバ20は、当該要求に応じて、記憶媒体から必要なデータを読み出して映像データとして出力する(ステップS12)。
その後、解析サーバ30は、映像データを解析することで、潜在的不審者の有無を判定する(ステップS13)。
その後、解析サーバ30は、潜在的不審者等の検出結果を出力する(ステップS14)。
なお、図16の例示では、検出された潜在的不審者が犯罪履歴を有するかの確認は行われていない。そこで、図17に示すように、潜在的不審者に関しても犯罪者データベースに登録されているかの判定がなされてもよい。
具体的には、ステップS13-1において、解析サーバ30は、犯罪者に関する情報提出をデータベースサーバ40に要求する。データベースサーバ40は、当該要求に応じて、犯罪者に関する情報を送信する(ステップS13-2)。解析サーバ30は、潜在的不審者の顔画像から算出した特徴量とデータベースサーバ40から取得した特徴量を用いて、潜在的不審者に関する照合処理を行う(ステップS13-3)。その後、解析サーバ30は、ステップS14において、当該照合処理の結果も含めて検出結果を出力してもよい。
以上のように、第1の実施形態に係る監視システムでは、警備エリアに不審者の存在を認めると、当該不審者と所定の関係を有するであろうと推定される潜在的不審者の検出を試みる。具体的には、第1の実施形態に係る監視システムでは、上述した4つの判定基準を用いて、潜在的不審者の検出を試みる。その結果、主たる監視対象(例えば、前科がある人物)に加え、主たる監視対象と関連性のある対象(例えば、前科者と行動を共にする人物)の検出が可能となる。犯罪者は単独で行動しているとは限らず、複数の協力者(共犯者)が存在する可能性がある。このような場合であっても、第1の実施形態に係る監視システムでは、不審者の潜在的な協力者等を検出することができる。その結果、事前に警備体制の強化など対策を打つことや、潜在的不審者の数等により計画されている犯罪の規模(犯罪リスク)を事前に見積もることが可能となる。
[第2の実施形態]
続いて、第2の実施形態について図面を参照して詳細に説明する。
第2の実施形態では、第1の実施形態にて説明した潜在的不審者の検出処理の精度をより向上させることを説明する。なお、第2の実施形態におけるシステム構成や各機器の構成は、第1の実施形態と同様とすることができるので、図2や図4等に相当する説明を省略する。
第1の実施形態では、第1~第4の判定基準のいずれかに該当する候補者が存在すれば、当該候補者を「潜在的不審者」に設定していた。しかし、このような処理であると、警備エリアに多くの人が存在する場合などで、誤検出(不審者と無関係であるにも関わらず潜在的不審者と誤判定)が増加する可能性がある。例えば、図11を用いて説明した第4の判定基準では、不審者と同じタイミングで通話を行っている候補者は「潜在的不審者」として検出される。しかし、大きなイベントの会場等が警備エリアであるような場合には、多くの人が同時に通話を行っていることが想定され、結果として多くの「潜在的不審者」が検出されることになる。
そこで、第2の実施形態に係る潜在的不審者検出部303は、複数の候補者それぞれに関して、上述の複数の判定基準に合致する数を算出し、算出された数に基づき潜在的不審者を検出する。より具体的には、潜在的不審者検出部303は、各候補者に関し、第1~第4の判定基準に係る判定処理を実施し、各判定処理に該当した回数を関連性スコアとして算出する。その後、潜在的不審者検出部303は、各候補者の関連性スコアに対して閾値処理を施すことで、潜在的不審者を決定する(潜在的不審者の数を絞り込む)。
例えば、潜在的不審者検出部303は、図18に示すようなテーブル情報を作成する。図18を参照すると、候補者Aに関しては第1~第4の判定基準に該当するために、関連性スコアが「4」として算出される。対して、候補者Bに関しては、第2及び第3の判定基準が非該当であるので、関連性スコアが「2」として算出される。従って、候補者が「潜在的不審者」であるか否かを定める閾値を「3」とすれば、候補者Aは潜在的不審者として検出され、候補者Bは不審者と無関係であると判定される。
あるいは、潜在的不審者検出部303は、各判定基準に重みを付けて関連性スコアを算出してもよい。例えば、図19(a)に示すように、各判定基準に対して予め重みを付与しておく。そして、潜在的不審者検出部303は、予め定めた重みと判定結果に基づき関連性スコアを算出する。
例えば、図19(a)のように重みを定めると、候補者AとBの関連性スコアはそれぞれ「37」と「7」となる。潜在的不審者検出部303は、重み付けされた判定基準に従って算出された関連性スコアに対して閾値処理を実行し、潜在的不審者を検出する。
また、第2の実施形態のように、関連性スコアを用いて潜在的不審者の検出を行う場合には、当該スコアを減少させる仕組みを導入しても良い。例えば、イベント会場等で人の入退場が監視カメラにより把握可能な場合であって、不審者と判定された人物と潜在的不審者と判定された人物が同時に入場している場合には、潜在的不審者検出部303は、上記関連性スコアを減少させる等の処理を施してもよい。このことは、不審者とその共犯者が同時に入場するよりも、個別に入場する方がより可能性が高いであろうという考えに基づく。
第2の実施形態によれば、関連性スコアを用いて潜在的不審者を検出することで、その検出精度を向上させることができる。
上記実施形態にて説明した監視システムの構成等は例示であって、システムの構成を限定する趣旨ではない。例えば、映像サーバ20、解析サーバ30及びデータベースサーバ40が統合され、一台の装置によりこれらの機能が実現されていてもよい。あるいは、各装置の一部の機能が他の装置により実現されてもよい。例えば、解析サーバ30による不審者検出処理(不審者検出部302の処理)がデータベースサーバ40により実現されてもよい。この場合、解析サーバ30とデータベースサーバ40の間におけるデータ送受信を軽減することができる。
上記実施形態では、警備システムに本願開示の監視システムを適用する場合について説明した。しかし、本願開示のシステムは、警備システム以外にも適用可能である。例えば、警察等による捜査システムに本願開示を適用すれば、共犯者も含めて犯罪者の特定、逮捕等が可能となる。あるいは、デパートやテーマパーク等の商業施設における迷子の捜索システムに本願開示を適用することができる。例えば、主たる監視対象に「親又は子」のいずれかを設定しつつ、過去の映像データを解析することで、当該主たる対象と関連する動作(例えば、辺りを見回すような動作)を行っている人物を特定する。その結果、迷子を捜す親又は親を探す子を素早く検出することができる。あるいは、試験会場等における不正防止に本願開示の監視システムを適用することもできる。
上記実施形態では、カメラ10は固定カメラを想定しているが、システムにて使用されるカメラは警備員等が装着するウェアブルカメラ等であってもよいし、ドローン等に搭載されるカメラであってもよい。この場合、時間によって取得された映像の位置が異なるため、各カメラは映像を映像サーバ20に映像データを送る際に自身の位置情報等を送ることが望ましい。解析サーバ30は、当該カメラの位置情報も考慮して映像データの解析(例えば、不審者等の移動軌跡の計算)を行う。
上記実施形態では、犯罪者データベースに登録されている人物を「不審者」として扱っているが、不審者の検出は犯罪者データベースを利用した方法に限定されない。例えば、カメラから送信されてくる映像をオペレータが確認し、当該オペレータが「不審者」の検出を行っても良い。この場合、管理者はGUI等を用いて解析サーバ30に上記不審者の入力を行い、解析サーバ30は上記説明した潜在的不審者の検出方法を実行すればよい。あるいは、例えば、特許文献2に開示されたような技術(生体情報を用いた不審者の検出)を用いて「不審者」を検出してもよい。つまり、映像データ(画像データ)以外の情報を用いて不審者を検出してもよい。
上記実施形態では、主たる監視対象及びその関連する監視対象共に「人」を設定しているが、これらの監視対象は「物」であってもよい。例えば、長時間放置されているような荷物を主たる監視対象とし、当該荷物と関係のある人物を「潜在的不審者」として探し出してもよい。あるいは、ロボットやドローン等が監視対象であってよい。つまり、主たる監視対象とその関連する監視対象の組み合わせは、「人」と「物」の任意の組み合わせとすることができる。
上記実施形態では、4つの判定基準を用いて潜在的不審者の検出を行っているが、潜在的不審者の検出は上記4つの判定基準に限定されないことは勿論である(第5、第6の判定基準を導入してもよい)。例えば、不審者と候補者の目線を解析することで、潜在的不審者の検出を行っても良い。例えば、不審者と目線を合わせた数が所定の回数以上である候補者を潜在的不審者として検出してもよいし、不審者の目線の先(見つめる先)と候補者の目線の先が一致するような場合に潜在的不審者を検出してもよい。あるいは、大多数の人間が見つめる先(例えば、コンサート会場のステージ)とは異なる場所に不審者と候補者の目線がある場合に、当該候補者を潜在的不審者として検出してもよい。
上記実施形態では、主たる監視対象(不審者)と関連性を有すると疑われる人物(潜在的不審者)の検出することを説明したが、潜在的不審者と関連性を有すると疑われる人物の検出が行われてもよい。つまり、潜在的不審者と検出された人物を「不審者」に置き替えて、当該置き替えられた不審者に対する潜在的不審者の検出が行われてもよい。このことにより、潜在的不審者と所定の関係を有すると疑われる人物までも検出することができる。
上記実施形態では、「不審者」を検出した際に存在する人物を潜在的不審者の候補者として扱っているが、当該候補者の選出は「不審者」を検出したタイミングに限定されない。例えば、上記タイミングでは顔画像が抽出されない等の事情がある場合には、過去の映像データを解析し、所定の期間内に存在する人物は全て潜在的不審者の候補者として扱われてもよい。
あるいは、不審者が検出されたタイミングにて「潜在的不審者」が検出されない場合であっても、当該検出時よりも後に「潜在的不審者」が警備エリアに現れる場合も想定される。このような場合を想定し、監視システムは、不審者が検出された場合には、定期的に映像データを映像サーバ20から取得し、当該取得した映像データ(不審者発見時を基準とした未来の映像データ)を解析することで、潜在的不審者の検出処理を継続してもよい。
上記実施形態では、人物の特定に顔画像の特徴量を用いているが、他の特徴量を用いてもよい。例えば、映像データを解析する際に人物を特定する必要があるが、その場合に、顔画像だけではなく服装から抽出した特徴量を用いてもよい。あるいは、顔画像の特徴量と服装から抽出した特徴量をまとめて1つの特徴量(特徴量ベクトル)としてもよい。
上記実施形態では、映像サーバ20は定期的に(所定のサンプリング間隔で)、現場の状況を解析サーバ30に送信する場合について説明した。しかし、警備エリアには監視対象となる人が少ない場合など、カメラに人物が写ったと判断される場合に限り画像データを解析サーバ30に送信してもよい。つまり、映像サーバ20にて、人物や顔画像の抽出を試みて、人物等が抽出できた場合に、その際の画像データを解析サーバ30に送信してもよい。
上述の説明で用いた複数のフローチャートでは、複数の工程(処理)が順番に記載されているが、各実施形態で実行される工程の実行順序は、その記載の順番に制限されない。各実施形態では、例えば各処理を並行して実行する等、図示される工程の順番を内容的に支障のない範囲で変更することができる。また、上記実施形態で説明した事項は、相反しない範囲で組み合わせることができる。
上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
[付記1]
上述の第1の視点に係る解析サーバのとおりである。
[付記2]
前記映像サーバがリアルタイムに出力する映像データに基づき前記第1の監視対象を検出する、第1の検出部を備える、付記1の解析サーバ。
[付記3]
前記映像サーバは前記カメラからの映像データを蓄積し、前記映像サーバに蓄積された過去の映像データに基づき、前記第2の監視対象を検出する、第2の検出部を備える、付記2の解析サーバ。
[付記4]
前記第2の検出部は、
前記映像サーバから得られる過去の映像データを複数の判定基準に基づき解析することで、前記第2の監視対象を検出する、付記3の解析サーバ。
[付記5]
前記第2の検出部は、
前記複数の判定基準のうち少なくとも1つを満たす対象を前記第2の監視対象として検出する、付記4の解析サーバ。
[付記6]
前記第2の検出部は、
前記第2の監視対象となる候補に関して、前記複数の判定基準に合致する数を算出し、前記算出された数に基づき前記第2の監視対象を検出する、付記4の解析サーバ。
[付記7]
前記第1の検出部は、
犯罪者に関する情報をデータベースから取得し、
前記取得した犯罪者に関する情報と前記映像サーバから取得した映像データから得られる情報とに基づき、前記第1の監視対象を検出する、付記3乃至6のいずれか一に記載の解析サーバ。
[付記8]
前記犯罪者に関する情報は犯罪者の顔画像から算出された特徴量であり、
前記第1の検出部は、前記犯罪者の顔画像から算出された特徴量と、前記映像サーバから取得した映像データから算出した顔画像の特徴量と、に基づき前記第1の監視対象を検出する、付記7の解析サーバ。
[付記9]
前記第2の検出部は、
前記映像サーバから取得した映像データを解析し、複数のカメラにおいて前記第1の監視対象と共に写る対象が存在するか否かにより、前記第2の監視対象を検出する、付記3乃至8のいずれか一に記載の解析サーバ。
[付記10]
前記第2の検出部は、
前記映像サーバから取得した映像データを解析し、前記第1の監視対象との間の距離が所定値以下、且つ、前記第1の監視対象との間の距離が前記所定以下の状態が所定の時間以上となる対象が存在するか否かにより、前記第2の監視対象を検出する、付記3乃至9のいずれか一に記載の解析サーバ。
[付記11]
前記第2の検出部は、
前記映像サーバから取得した映像データを解析して、前記第1の監視対象が移動したことによる軌跡と、前記第2の監視対象の検出候補が移動したことによる軌跡と、を算出し、前記第1の監視対象の軌跡と前記検出候補の軌跡が交差するか否かにより、前記第2の監視対象を検出する、付記3乃至10のいずれか一に記載の解析サーバ。
[付記12]
前記第2の検出部は、
前記映像サーバから取得した映像データを解析し、前記第1の監視対象と関連する動作を行った対象が存在するか否かにより、前記第2の監視対象を検出する、付記3乃至11のいずれか一に記載の解析サーバ。
[付記13]
前記第1の監視対象と前記第2の監視対象の関連性を明示するような表示画面を出力する、出力部をさらに備える、付記1乃至12のいずれか一に記載の解析サーバ。
[付記14]
上述の第2の視点に係る監視システムのとおりである。
[付記15]
前記解析サーバは、
前記映像サーバがリアルタイムに出力する映像データに基づき前記第1の監視対象を検出する、第1の検出部を備える、付記14の監視システム。
[付記16]
前記映像サーバは前記カメラからの映像データを蓄積し、
前記解析サーバは、
前記映像サーバに蓄積された過去の映像データに基づき、前記第2の監視対象を検出する、第2の検出部を備える、付記15の監視システム。
[付記17]
前記第2の検出部は、
前記映像サーバから得られる過去の映像データを複数の判定基準に基づき解析することで、前記第2の監視対象を検出する、付記16の監視システム。
[付記18]
前記第2の検出部は、
前記複数の判定基準のうち少なくとも1つを満たす対象を前記第2の監視対象として検出する、付記17の監視システム。
[付記19]
前記第2の検出部は、
前記第2の監視対象となる候補に関して、前記複数の判定基準に合致する数を算出し、前記算出された数に基づき前記第2の監視対象を検出する、付記17の監視システム。
[付記20]
前記第1の検出部は、
犯罪者に関する情報をデータベースから取得し、
前記取得した犯罪者に関する情報と前記映像サーバから取得した映像データから得られる情報とに基づき、前記第1の監視対象を検出する、付記16乃至19のいずれか一に記載の監視システム。
[付記21]
前記犯罪者に関する情報は犯罪者の顔画像から算出された特徴量であり、
前記第1の検出部は、前記犯罪者の顔画像から算出された特徴量と、前記映像サーバから取得した映像データから算出した顔画像の特徴量と、に基づき前記第1の監視対象を検出する、付記20の監視システム。
[付記22]
前記第2の検出部は、
前記映像サーバから取得した映像データを解析し、複数のカメラにおいて前記第1の監視対象と共に写る対象が存在するか否かにより、前記第2の監視対象を検出する、付記16乃至21のいずれか一に記載の監視システム。
[付記23]
前記第2の検出部は、
前記映像サーバから取得した映像データを解析し、前記第1の監視対象との間の距離が所定値以下、且つ、前記第1の監視対象との間の距離が前記所定以下の状態が所定の時間以上となる対象が存在するか否かにより、前記第2の監視対象を検出する、付記16乃至22のいずれか一に記載の監視システム。
[付記24]
前記第2の検出部は、
前記映像サーバから取得した映像データを解析して、前記第1の監視対象が移動したことによる軌跡と、前記第2の監視対象の検出候補が移動したことによる軌跡と、を算出し、前記第1の監視対象の軌跡と前記検出候補の軌跡が交差するか否かにより、前記第2の監視対象を検出する、付記16乃至23のいずれか一に記載の監視システム。
[付記25]
前記第2の検出部は、
前記映像サーバから取得した映像データを解析し、前記第1の監視対象と関連する動作を行った対象が存在するか否かにより、前記第2の監視対象を検出する、付記16乃至24のいずれか一に記載の監視システム。
[付記26]
前記解析サーバは、
前記第1の監視対象と前記第2の監視対象の関連性を明示するような表示画面を出力する、出力部をさらに備える、付記14乃至25のいずれか一に記載の監視システム。
[付記27]
上述の第3の視点に係る監視方法のとおりである。
[付記28]
上述の第4の視点に係るプログラムのとおりである。
なお、付記27及び28の形態は、付記1の形態と同様に、付記2の形態~付記13の形態に展開することが可能である。
本願開示では、以下の形態も可能である。
解決策
監視カメラで不審者を検出した場合、前記不審者/不審物と連携した動きをする人物を前記不審者と関連する人物(潜在的な不審者)とする。
効果
不審者の潜在的な仲間を検出することができるため、事前に警備体制の強化など対策を打つことが可能になる。
図24は、情報処理装置の構成を例示するブロック図である。実施形態に係る解析サーバは、上図に示す情報処理装置を備えていてもよい。情報処理装置は、中央処理装置(CPU:Central Processing Unit)およびメモリを有する。情報処理装置は、メモリに記憶されているプログラムをCPUが実行することにより、解析サーバが有する各部の機能の一部または全部を実現してもよい。
形態1
監視カメラ等の映像データから不審者または不審物を検出する監視システムにおいて、
検出した不審者または不審物と連携した動きをする人物を前記不審者または前記不審物と関連のある人物とする
ことを特徴とする監視システム。
形態2
前記連携した動きとは、以下の条件のうち少なくとも一つ以上を満たすことを指す
複数のカメラで同時に映る
不審者/不審物との距離が所定値以下の場合が所定時間以上
不審者と関連性の高い動作(携帯の発信・着信等、手信号)
不審者の動線と軌跡が交わる、
形態1に記載の監視システム。
なお、引用した上記の特許文献等の各開示は、本書に引用をもって繰り込むものとする。本発明の全開示(請求の範囲を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態ないし実施例の変更・調整が可能である。また、本発明の全開示の枠内において種々の開示要素(各請求項の各要素、各実施形態ないし実施例の各要素、各図面の各要素等を含む)の多様な組み合わせ、ないし、選択が可能である。すなわち、本発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。特に、本書に記載した数値範囲については、当該範囲内に含まれる任意の数値ないし小範囲が、別段の記載のない場合でも具体的に記載されているものと解釈されるべきである。
10、10-1~10-3 カメラ
20 映像サーバ
30、101 解析サーバ
31 CPU(Central Processing Unit)
32 メモリ
33 入出力インターフェイス
34 NIC(Network Interface Card)
40 データベースサーバ(DBサーバ)
61 不審者
62 潜在的不審者
201、301、401 通信制御部
202 データ蓄積部
203 データ出力部
302 不審者検出部
303 潜在的不審者検出部
304 検出結果出力部
402 データベースアクセス部

Claims (10)

  1. 所定時間以上放置されている荷物である第1の監視対象が検出された場合、前記第1の監視対象である前記荷物を放置したと推定される第2の監視対象を、カメラからの映像データを外部に出力する映像サーバから取得した映像データにおいて前記第1の監視対象である前記荷物が放置される前の移動の軌跡と前記第2の監視対象の移動の軌跡との距離から算出された行動時間が、予め設定された閾値以上であるかどうかに基づき特定する、解析サーバ。
  2. 前記映像サーバがリアルタイムに出力する映像データに基づき前記第1の監視対象を検出する、第1の検出部を備える、請求項1の解析サーバ。
  3. 前記映像サーバは前記カメラからの映像データを蓄積し、前記映像サーバに蓄積された過去の映像データに基づき、前記第2の監視対象を検出する、第2の検出部を備える、請求項2の解析サーバ。
  4. 前記第2の検出部は、
    前記映像サーバから取得した映像データを解析し、複数のカメラにおいて前記第1の監視対象と共に写る対象が存在するか否かにより、前記第2の監視対象を特定する、請求項3の解析サーバ。
  5. 前記第2の検出部は、
    前記映像サーバから取得した映像データを解析して、前記第1の監視対象が移動したことによる軌跡と、前記第2の監視対象の検出候補が移動したことによる軌跡と、を算出し、前記第1の監視対象の軌跡と前記検出候補の軌跡が交差するか否かにより、前記第2の監視対象を特定する、請求項3又は4に記載の解析サーバ。
  6. 前記第2の検出部は、
    前記映像サーバから取得した映像データを解析し、前記第1の監視対象と関連する動作を行った対象が存在するか否かにより、前記第2の監視対象を特定する、請求項3乃至5のいずれか一項に記載の解析サーバ。
  7. 前記第1の監視対象と前記第2の監視対象の関連性を明示するような表示画面を出力する、出力部をさらに備える、請求項1乃至6のいずれか一項に記載の解析サーバ。
  8. カメラからの映像データを外部に出力する、映像サーバと、
    所定時間以上放置されている荷物である第1の監視対象が検出された場合、前記第1の監視対象である前記荷物を放置したと推定される第2の監視対象を前記映像サーバから取得した映像データにおいて前記第1の監視対象である前記荷物が放置される前の移動の軌跡と前記第2の監視対象の移動の軌跡との距離から算出された行動時間が、予め設定された閾値以上であるかどうかに基づき特定する、解析サーバと、
    を含む、監視システム。
  9. カメラからの映像データを外部に出力する映像サーバから映像データを取得し、
    所定時間以上放置されている荷物である第1の監視対象が検出された場合、前記第1の監視対象である前記荷物を放置したと推定される第2の監視対象を前記映像サーバから取得した映像データにおいて前記第1の監視対象である前記荷物が放置される前の移動の軌跡と前記第2の監視対象の移動の軌跡との距離から算出された行動時間が、予め設定された閾値以上であるかどうかに基づき特定すること、
    を含む、監視方法。
  10. カメラからの映像データを外部に出力する映像サーバから映像データを取得する処理と、
    所定時間以上放置されている荷物である第1の監視対象が検出された場合、前記第1の監視対象である前記荷物を放置したと推定される第2の監視対象を前記映像サーバから取得した映像データにおいて前記第1の監視対象である前記荷物が放置される前の移動の軌跡と前記第2の監視対象の移動の軌跡との距離から算出された行動時間が、予め設定された閾値以上であるかどうかに基づき特定する処理と、
    をコンピュータに実行させるプログラム。
JP2022034125A 2016-12-22 2022-03-07 解析サーバ、監視システム、監視方法及びプログラム Pending JP2022082561A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201662437747P 2016-12-22 2016-12-22
US62/437,747 2016-12-22
JP2018557514A JP7040463B2 (ja) 2016-12-22 2017-03-02 解析サーバ、監視システム、監視方法及びプログラム
PCT/JP2017/008327 WO2018116488A1 (ja) 2016-12-22 2017-03-02 解析サーバ、監視システム、監視方法及びプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018557514A Division JP7040463B2 (ja) 2016-12-22 2017-03-02 解析サーバ、監視システム、監視方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2022082561A true JP2022082561A (ja) 2022-06-02

Family

ID=62626168

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018557514A Active JP7040463B2 (ja) 2016-12-22 2017-03-02 解析サーバ、監視システム、監視方法及びプログラム
JP2022034125A Pending JP2022082561A (ja) 2016-12-22 2022-03-07 解析サーバ、監視システム、監視方法及びプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018557514A Active JP7040463B2 (ja) 2016-12-22 2017-03-02 解析サーバ、監視システム、監視方法及びプログラム

Country Status (2)

Country Link
JP (2) JP7040463B2 (ja)
WO (1) WO2018116488A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI660325B (zh) * 2018-02-13 2019-05-21 大猩猩科技股份有限公司 一種分佈式的影像分析系統
CN112639248B (zh) * 2018-06-08 2023-10-17 地质探索系统公司 用于从声波数据生成预测的超声测量值的方法
SG10201807663PA (en) * 2018-09-06 2020-04-29 Nec Asia Pacific Pte Ltd System and method for multi-layer potential associates discovery
SG10201807678WA (en) 2018-09-06 2020-04-29 Nec Asia Pacific Pte Ltd A method for identifying potential associates of at least one target person, and an identification device
CN109684162B (zh) * 2018-11-09 2022-05-27 平安科技(深圳)有限公司 设备状态预测方法、系统、终端及计算机可读存储介质
JP7356244B2 (ja) * 2019-03-25 2023-10-04 グローリー株式会社 顔情報管理システム、顔情報管理方法、および、プログラム
CA3058013C (en) * 2019-03-29 2021-04-27 Alibaba Group Holding Limited Managing sensitive data elements in a blockchain network
CN110705477A (zh) * 2019-09-30 2020-01-17 深圳市商汤科技有限公司 行为分析方法、装置、电子设备和计算机存储介质
CN113449560A (zh) * 2020-03-26 2021-09-28 广州金越软件技术有限公司 一种基于动态人像库进行人脸比对的技术
US11368991B2 (en) 2020-06-16 2022-06-21 At&T Intellectual Property I, L.P. Facilitation of prioritization of accessibility of media
US11233979B2 (en) 2020-06-18 2022-01-25 At&T Intellectual Property I, L.P. Facilitation of collaborative monitoring of an event
US11037443B1 (en) 2020-06-26 2021-06-15 At&T Intellectual Property I, L.P. Facilitation of collaborative vehicle warnings
US11184517B1 (en) 2020-06-26 2021-11-23 At&T Intellectual Property I, L.P. Facilitation of collaborative camera field of view mapping
US11411757B2 (en) 2020-06-26 2022-08-09 At&T Intellectual Property I, L.P. Facilitation of predictive assisted access to content
US11356349B2 (en) 2020-07-17 2022-06-07 At&T Intellectual Property I, L.P. Adaptive resource allocation to facilitate device mobility and management of uncertainty in communications
US11768082B2 (en) 2020-07-20 2023-09-26 At&T Intellectual Property I, L.P. Facilitation of predictive simulation of planned environment
JP7415848B2 (ja) 2020-08-17 2024-01-17 横河電機株式会社 装置、システム、方法およびプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005234765A (ja) * 2004-02-18 2005-09-02 Omron Corp 画像取得装置及び捜索装置
JP2008252519A (ja) * 2007-03-30 2008-10-16 Hitachi Kokusai Electric Inc 画像処理装置
WO2016132705A1 (ja) * 2015-02-20 2016-08-25 パナソニックIpマネジメント株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4506381B2 (ja) * 2004-09-27 2010-07-21 沖電気工業株式会社 単独行動者及びグループ行動者検知装置
JP5139947B2 (ja) * 2008-10-03 2013-02-06 三菱電機インフォメーションテクノロジー株式会社 監視画像記憶システム及び監視画像記憶システムの監視画像記憶方法
JP2010231402A (ja) * 2009-03-26 2010-10-14 Sogo Keibi Hosho Co Ltd 監視装置の画像表示方法及び画像表示システム
JP5203319B2 (ja) * 2009-08-25 2013-06-05 セコム株式会社 置き去り監視装置
JP2011248548A (ja) * 2010-05-25 2011-12-08 Fujitsu Ltd コンテンツ決定プログラムおよびコンテンツ決定装置
JP5691764B2 (ja) * 2011-04-12 2015-04-01 サクサ株式会社 置き去り又は持ち去り検知システム
JP5691807B2 (ja) * 2011-04-28 2015-04-01 サクサ株式会社 置き去り又は持ち去り検知システム
US10552713B2 (en) * 2014-04-28 2020-02-04 Nec Corporation Image analysis system, image analysis method, and storage medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005234765A (ja) * 2004-02-18 2005-09-02 Omron Corp 画像取得装置及び捜索装置
JP2008252519A (ja) * 2007-03-30 2008-10-16 Hitachi Kokusai Electric Inc 画像処理装置
WO2016132705A1 (ja) * 2015-02-20 2016-08-25 パナソニックIpマネジメント株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法

Also Published As

Publication number Publication date
WO2018116488A1 (ja) 2018-06-28
JP7040463B2 (ja) 2022-03-23
JPWO2018116488A1 (ja) 2019-12-12

Similar Documents

Publication Publication Date Title
JP7040463B2 (ja) 解析サーバ、監視システム、監視方法及びプログラム
US11210504B2 (en) Emotion detection enabled video redaction
US7646895B2 (en) Grouping items in video stream images into events
JP5339476B2 (ja) 画像処理システム、発熱者追跡方法、画像処理装置およびその制御方法と制御プログラム
JP6729793B2 (ja) 情報処理装置、制御方法、及びプログラム
JP5523900B2 (ja) 人物検索装置、人物検索方法、及び人物検索プログラム
JP4984728B2 (ja) 被写体照合装置および被写体照合方法
WO2014125882A1 (ja) 情報処理システム、情報処理方法及びプログラム
JP6233624B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP5568153B1 (ja) 乗客探知システム
CN109446936A (zh) 一种用于监控场景的身份识别方法及装置
WO2015040929A1 (ja) 画像処理システム、画像処理方法及びプログラム
JP2021132267A (ja) 映像監視システムおよび映像監視方法
JP2010257449A (ja) 人物検索装置、人物検索方法、及び人物検索プログラム
JP2010191620A (ja) 不審人物検出方法、及び不審人物検出システム
JP7257765B2 (ja) 情報処理装置、認証システムおよびそれらの制御方法、プログラム
CN112930535A (zh) 基于视频分析的人群行为异常检测
JP5718632B2 (ja) 部位認識装置、部位認識方法、及び部位認識プログラム
CN111539338A (zh) 行人口罩佩戴管控方法、装置、设备及计算机存储介质
JP4862518B2 (ja) 顔登録装置、顔認証装置および顔登録方法
JP2019153920A (ja) 情報処理装置、情報処理装置の制御方法、被写体検出システム、及び、プログラム
JP5730000B2 (ja) 顔照合システム、顔照合装置及び顔照合方法
JP2018142137A (ja) 情報処理装置、情報処理方法、及びプログラム
JP2014215747A (ja) 追跡装置、追跡システム、及び、追跡方法
JP2010257450A (ja) 人物検索装置、人物検索方法、及び人物検索プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220427

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230516

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230829