JP7032350B2 - 人物監視システムおよび人物監視方法 - Google Patents

人物監視システムおよび人物監視方法 Download PDF

Info

Publication number
JP7032350B2
JP7032350B2 JP2019077103A JP2019077103A JP7032350B2 JP 7032350 B2 JP7032350 B2 JP 7032350B2 JP 2019077103 A JP2019077103 A JP 2019077103A JP 2019077103 A JP2019077103 A JP 2019077103A JP 7032350 B2 JP7032350 B2 JP 7032350B2
Authority
JP
Japan
Prior art keywords
person
image
search
face
suspect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019077103A
Other languages
English (en)
Other versions
JP2020178167A (ja
Inventor
貴光 荒井
崇 神尾
耕治 河本
優実 三宅
英作 宮田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
iPro Co Ltd
Original Assignee
Panasonic iPro Sensing Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic iPro Sensing Solutions Co Ltd filed Critical Panasonic iPro Sensing Solutions Co Ltd
Priority to JP2019077103A priority Critical patent/JP7032350B2/ja
Priority to US16/846,990 priority patent/US11062160B2/en
Publication of JP2020178167A publication Critical patent/JP2020178167A/ja
Priority to US17/341,478 priority patent/US11640726B2/en
Application granted granted Critical
Publication of JP7032350B2 publication Critical patent/JP7032350B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/70Multimodal biometrics, e.g. combining information from different biometric modalities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • G06F21/6254Protecting personal data, e.g. for financial or medical purposes by anonymising data, e.g. decorrelating personal data from the owner's identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/95Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/96Management of image or video recognition tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/155Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands use of biometric patterns for forensic purposes

Description

本開示は、屋外に設置された監視カメラにより撮影された映像を用いて、監視カメラの画角内に映る人物を監視する人物監視システムおよび人物監視方法に関する。
特許文献1には、監視領域において所定の事象が検知された場合に、レコーダに記録した撮像画像から被疑者が撮像された撮像画像を抽出し、被疑者の行動に基づく遷移撮像画像を表示するとともに、撮像画像の撮像位置を示す地図情報を表示する警備システムが開示されている。警備システムは、遷移撮像画像について位置表示対象の撮像画像の選択入力を受けた場合に、該当する撮像画像の撮像地点の位置情報を、地図情報上に表示する。これにより、監視領域における人物等の監視対象の行動に関する追跡情報を視覚的に得られる。
特開2017-40983号公報
しかし、特許文献1では、屋外の数多くの箇所のそれぞれに設置された監視カメラのうち少なくとも1台により撮像された映像から得られた事件等(例えば事件または事故)の容疑者の撮像画像から、その容疑者の外見的に特徴のある全身画像および顔画像を抽出し、これらを用いて容疑者を追跡することは考慮されていない。
事件等が発生した場合、容疑者の外見的な特徴ならびにその行方を早期に把握することは警察の初動捜査において重要である。ところが、これまでの従来技術では、事件等が発生した際、警官は現場周辺の複数の箇所のそれぞれに設置された監視カメラにより撮影された映像の目視による閲覧および目撃者からの情報等の手掛かりを頼りに、容疑者に該当しそうな人物ならびに逃走方向を取捨選別していた。このため、警官は容疑者の外見的な特徴ならびに逃走方向の把握に時間がかかってしまい、初動捜査が遅れて効率が良くないという課題があった。
本開示は、上述した従来の事情に鑑みて案出され、事件等が発生した際、容疑者の外見的な特徴を表す全身画像および顔画像を高精度に抽出して容疑者を追跡し、監視カメラの撮像映像に映る容疑者の逃走経路の早期把握を支援して警察捜査の利便性を向上する人物監視システムおよび人物監視方法を提供することを目的とする。
本開示は、n(n:2以上の整数)台の監視カメラのそれぞれと通信可能に接続されたサーバと、前記サーバと通信可能に接続されたクライアント端末と、を含み、前記サーバは、前記n台の監視カメラのそれぞれから送られた撮像映像を受信すると、それぞれの前記撮像映像に映る人物の全身および顔を含む特徴情報を解析し、前記人物の全身を切り出した全身画像と前記人物の顔を切り出した顔画像とを解析結果として保持し、前記クライアント端末は、注目人物の全身画像および顔画像の指定に応じて、前記注目人物の全身画像を対象とする第1の照合処理、前記注目人物の顔画像を対象とする第2の照合処理のそれぞれの実行要求を前記サーバに送り、前記サーバは、前記第1の照合処理および前記第2の照合処理のうち少なくとも1つにより、前記注目人物の全身画像および顔画像のうち少なくとも1つと合致する人物を特定した場合に、前記注目人物が発見された旨のアラーム通知を前記クライアント端末に送る、人物監視システムを提供する。
また、本開示は、n(n:2以上の整数)台の監視カメラのそれぞれと通信可能に接続されたサーバと、前記サーバと通信可能に接続されたクライアント端末と、を含む人物監視システムにより実行される人物監視方法であって、前記n台の監視カメラのそれぞれから送られた撮像映像を受信すると、それぞれの前記撮像映像に映る人物の全身および顔を含む特徴情報を解析し、前記人物の全身を切り出した全身画像と前記人物の顔を切り出した顔画像とを解析結果として保持し、注目人物の全身画像および顔画像の指定に応じて、前記注目人物の全身画像を対象とする第1の照合処理、前記注目人物の顔画像を対象とする第2の照合処理のそれぞれの実行要求を前記サーバに送り、前記第1の照合処理および前記第2の照合処理のうち少なくとも1つにより、前記注目人物の全身画像および顔画像のうち少なくとも1つと合致する人物を特定した場合に、前記注目人物が発見された旨のアラーム通知を前記クライアント端末に送る、人物監視方法を提供する。
本開示によれば、事件等が発生した際、容疑者の外見的な特徴を表す全身画像および顔画像を高精度に抽出でき、監視カメラの撮像映像に映る容疑者の逃走経路の早期把握を支援して警察捜査の利便性を的確に向上できる。
実施の形態1に係る人物監視システムのシステム構成例を示すブロック図 監視カメラの内部構成例を示すブロック図 人物検索サーバおよびクライアント端末のそれぞれの内部構成例を示すブロック図 顔検索サーバの内部構成例を示すブロック図 映像レコーダの内部構成例を示すブロック図 監視カメラが設置された地点を含む地図データを表示する人物監視画面の一例を示す図 容疑者の検索特徴の詳細設定画面の一例を示す図 図7の詳細設定画面で設定された検索特徴を検索条件として用いたメタサーチによる人物検索結果を時系列に表示する人物監視画面の一例を示す図 図8のサムネイル画像Xpc1を検索条件として用いたイメージサーチによる人物検索結果を時系列に表示する人物監視画面の一例を示す図 レポート画面から選択されたサムネイル画像Xpc1に対応する人物の撮像映像再生画面が重畳された人物監視画面の一例を示す図 実施の形態1に係る人物監視システムの動作手順の一例を示すシーケンス図 サムネイル画像Xpc5に対応する人物と同一の人物を検索するための同一人物検索時の動作概要の一例を示す図 サムネイル画像Xpc11に対応する人物と似た人物のイメージサーチを指示する人物監視画面の一例を示す図 容疑者の検索特徴の詳細設定画面の一例を示す図 図14の詳細設定画面で設定された検索特徴を検索条件として用いたメタサーチおよびイメージサーチの併用による人物検索結果を時系列に表示する人物監視画面の一例を示す図 実施の形態2に係る人物監視システムの動作手順の一例を示すシーケンス図 複数地点の監視カメラのそれぞれに映る容疑者リストの一例を示す人物監視画面の一例を示す図 実施の形態3に係る人物監視システムの動作手順の一例を示すシーケンス図
(実施の形態1の構成に至る経緯)
上述した特許文献1では、屋外の数多くの箇所のそれぞれに設置された監視カメラのうち少なくとも1台により撮像された映像から得られた事件等(例えば事件または事故)の容疑者の撮像画像から、その容疑者の外見的に特徴のある全身画像および顔画像を抽出し、これらを用いて容疑者を追跡することは考慮されていない。
事件等が発生した場合、容疑者の外見的な特徴ならびにその行方を早期に把握することは警察の初動捜査において重要である。ところが、これまでの従来技術では、事件等が発生した際、警官は現場周辺の複数の箇所のそれぞれに設置された監視カメラにより撮影された映像の目視による閲覧および目撃者からの情報等の手掛かりを頼りに、容疑者に該当しそうな人物ならびに逃走方向を取捨選別していた。このため、警官は容疑者の外見的な特徴ならびに逃走方向の把握に時間がかかってしまい、初動捜査が遅れて効率が良くないという課題があった。
以下の実施の形態1では、事件等が発生した際、容疑者の外見的な特徴を表す全身画像および顔画像を高精度に抽出して容疑者を追跡し、監視カメラの撮像映像に映る容疑者の逃走経路の早期把握を支援して警察捜査の利便性を向上する人物監視システムおよび人物監視方法を説明する。
(実施の形態1)
以下、添付図面を適宜参照しながら、本開示に係る人物監視システムおよび人物監視方法を具体的に開示した実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。
以下、事件等(例えば、事件または事故)を引き起こした犯人の可能性がある容疑者の人物(注目人物の一例)の警察による捜査を、人物監視システムによって支援するユースケースを例示して説明する。
図1は、実施の形態1に係る人物監視システム1のシステム構成例を示すブロック図である。人物監視システム1は、屋外の異なる地点に設置されたn(n:2以上の整数)台の監視カメラ10,11,…と、人物検索サーバ50と、顔検索サーバ60と、映像レコーダ70と、クライアント端末90とを含む構成である。監視カメラ10,11,…のそれぞれは、図1に示すように、屋外(例えば人通りのある地点)に設置され、例えば監視カメラ10は駅ビルの入口に設置され、監視カメラ11は公園に設置される。他の1台以上の監視カメラは、例えば民家の入口、ショッピングセンターの入口、街中の歩道、空港等に設置されてよい。但し、監視カメラ10,11,…のそれぞれは、屋外に設置されることに限定されなくてよい。また、人物検索サーバ50と顔検索サーバ60と映像レコーダ70とクライアント端末90とは、例えば警察署内の所定の部屋にそれぞれ設置される。なお、人物検索サーバ50と顔検索サーバ60と映像レコーダ70とクライアント端末90とは、警察署内に設置されなくてもよい。以下の説明において、映像レコーダ70は、警察署内でのオンプレミスによる管理でなく、人物検索サーバ50および顔検索サーバ60のそれぞれとインターネット等の通信回線を介して接続されるオンラインストレージとして設けられてもよい。
監視カメラ10,11,…のそれぞれの内部構成は同一である。監視カメラ10,11,…は、イントラネットあるいはインターネットの通信回線等のネットワークNW1を介して、人物検索サーバ50、顔検索サーバ60および映像レコーダ70のそれぞれとの間で通信可能に接続される。ネットワークNW1は、有線通信回線(例えば、光ファイバを用いた光通信網)により構成されるが、無線通信網により構成されてもよい。
監視カメラ10,11,…のそれぞれは、設置時に設定された既定の画角内の被写体(例えば、設置地点の状況を示す映像)を撮像可能であり、人物検索サーバ50、顔検索サーバ60および映像レコーダ70のそれぞれに撮像映像のデータを繰り返して送信する。以下、撮像映像のデータには、撮像映像のみならず、その撮像映像を撮像した監視カメラの識別情報(言い換えると、監視カメラの設置地点の位置情報)と、撮像日時の情報とが含まれる。
サーバの一例としての人物検索サーバ50は、例えば警察署内に設置され、その警察署の管轄地域内の全てあるいは一部の地点に設置された監視カメラ10,11,…のそれぞれから送られた撮像映像のデータを受信し、プロセッサPRC1(図3参照)による各種の処理のためにメモリ52あるいはストレージ56に一時的に保存する。
保存された撮像映像のデータは、監視カメラ10,11,…のそれぞれから送られて人物検索サーバ50において受信される度に、人物検索サーバ50によって、その撮像映像に映る人物の外見に関する特徴情報の解析がなされる。この解析結果は、例えば撮像映像を構成する撮像画像から人物の全身を切り出した全身画像が含まれ、容疑者の全身画像の照合処理(第1の照合処理の一例)に用いられるように人物検索サーバ50のストレージ56に保存される。具体的には、人物検索サーバ50は、前述した解析結果として、撮像映像に映る人物に関する抽出情報(例えば、撮像映像中に映る人物の全身、顔、性別、年齢、身長、体型、服装、所持品、装着品等の特徴情報)を取得し、これらの抽出情報を撮像映像のデータと関連付けてストレージ56に蓄積する。例えば事件等が発生した場合、クライアント端末90は、容疑者の外見的な特徴要素(図7参照)を検索特徴(つまり検索条件)として入力する操作により、その検索条件を満たす容疑者の検索要求を生成して人物検索サーバ50に送る。人物検索サーバ50は、この検索要求に応じて、前述したそれぞれの監視カメラ10,11,…の撮像映像の解析結果を用いて、検索要求に含まれる検索条件を満たす人物を検索する。また、クライアント端末90は、容疑者の全身画像を照合処理に用いる全身画像として登録するための操作により、その容疑者の全身画像の登録要求を生成して人物検索サーバ50に送る。人物検索サーバ50は、この登録要求に応じて、前述したそれぞれの監視カメラ10,11,…の撮像映像の解析結果を用いて、登録要求に含まれる容疑者の全身画像と合致する全身画像の有無を照合する。
サーバの一例としての顔検索サーバ60は、例えば警察署内に設置され、その警察署の管轄地域内の全てあるいは一部の地点に設置された監視カメラ10,11,…のそれぞれから送られた撮像映像のデータを受信し、プロセッサPRC2(図4参照)による各種の処理のためにメモリ62あるいはストレージ66に一時的に保存する。
保存された撮像映像のデータは、監視カメラ10,11,…のそれぞれから送られて顔検索サーバ60において受信される度に、顔検索サーバ60によって、その撮像映像に映る人物の顔の外見に関する特徴情報の解析がなされる。この解析結果は、例えば撮像映像を構成する撮像画像から人物の顔部分を切り出した顔画像が含まれ、容疑者の顔画像の照合処理(第2の照合処理の一例)に用いられるように顔検索サーバ60のストレージ66に保存される。具体的には、顔検索サーバ60は、前述した解析結果として、撮像映像に映る人物の顔に関する抽出情報(例えば、撮像映像中に映る人物の顔、表情、性別、年齢、眼鏡等の装着品等の特徴情報)を取得し、これらの抽出情報を撮像映像のデータと関連付けてストレージ66に蓄積する。例えば事件等が発生した場合、クライアント端末90は、容疑者の顔画像を照合処理に用いる顔画像として登録するための操作により、その容疑者の顔画像の登録要求を生成して顔検索サーバ60に送る。顔検索サーバ60は、この登録要求に応じて、前述したそれぞれの監視カメラ10,11,…の撮像映像の解析結果を用いて、登録要求に含まれる容疑者の顔画像と合致する顔画像の有無を照合する。
クライアント端末90は、例えば警察署内に設置され、その警察署内の職員(つまり警察署内のユーザである警官)により使用され、例えばデスクトップ型、ラップトップ型またはノート型のPC(Personal Computer)である。ユーザは、事件等が発生した際、事件等の発生を警察署に通報した通報者(例えば目撃者)からの電話により、その事件等に関する様々な情報を目撃情報として聞き取り、クライアント端末90を操作することでデータ入力して記録する。なお、クライアント端末90は、上述したPCに限定されず、例えばスマートフォン、タブレット端末、PDA(Personal Digital Assistant)等の通信機能を有するコンピュータであってよい。クライアント端末90は、上述した目撃情報に合致する容疑者(注目人物の一例)の検索を人物検索サーバ50に実行させるための検索要求を生成して人物検索サーバ50に送り、その検索結果を受信してディスプレイ94に表示する。
映像レコーダ70は、例えば警察署内に設置され、その警察署の管轄地域内の全てあるいは一部の地点に設置された監視カメラ10,11,…のそれぞれから送られた撮像映像のデータを受信し、バックアップ用に保存する。映像レコーダ70は、ユーザ操作に応じたクライアント端末90からの要求により、その要求を満たす監視カメラの撮像映像のデータをクライアント端末90に送ってよい。なお、人物検索サーバ50、顔検索サーバ60、映像レコーダ70およびクライアント端末90は、警察署内のイントラネットあるいはインターネット等のネットワークNW2を介して相互に通信可能に接続される。
図1では、警察署内に設置される人物検索サーバ50、顔検索サーバ60、映像レコーダ70およびクライアント端末90はそれぞれ1台だけ示されているが、それぞれ複数台が設けられてよい。特に、クライアント端末90は、人物検索サーバ50に検索要求を送るためのクライアント端末と、顔検索サーバ60に検索要求を送るためのクライアント端末とに分けて設けられてもよい。また、人物監視システム1において、警察署も複数の警察署が含まれてよい。なお、図1に示す人物監視システム1において、人物検索サーバ50および顔検索サーバ60は、同一のコンピュータ装置(例えば、デスクトップ型あるいはラップトップ型のパーソナルコンピュータ)により構成されてもよい。
図2は、監視カメラ10,11,…の内部構成例を示すブロック図である。監視カメラ10,11,…のそれぞれは同一の構成を有し、以下、監視カメラ10を例示して説明する。監視カメラ10は、撮像部CP1と、プロセッサCP2と、メモリCP3と、通信部CP4と、ストレージCP5とを含む構成である。監視カメラ10,11,…のそれぞれは、複数の撮像部CP1を有してもよく、例えば2方向に画角を有するマルチセンサカメラとしてもよい。これは、第1の撮像部が設置地点を広域に見渡せる画角内で撮像し、第2の撮像部が第1の撮像部の画角の死角となる範囲(例えば、監視カメラ10の設置地点から鉛直方向下側の歩行者が歩く領域)を捉えるように撮像するためである。なお、複数の撮像部CP1が設けられる場合でも、それぞれの撮像部CP1の内部構成は同一である。
撮像部CP1は、集光用のレンズと、CCD(Charge Coupled Device)型イメージセンサもしくはCMOS(Complementary Metal Oxide Semiconductor)型イメージセンサ等の固体撮像素子とを有する構成である。撮像部CP1は、監視カメラ10の電源がオンである間、固体撮像素子による撮像に基づいて得られた被写体の撮像映像のデータを常時プロセッサCP2に出力する。撮像部CP1は、それぞれ撮像時のズーム倍率を変更させる機構を備えてもよい。
プロセッサCP2は、例えばCPU(Central Processing Unit)、DSP(Digital Signal Processor)もしくはFPGA(Field-Programmable Gate Array)を用いて構成される。プロセッサCP2は、監視カメラ10の制御部として機能し、監視カメラ10の各部の動作を全体的に統括するための制御処理、監視カメラ10の各部との間のデータの入出力処理、データの演算処理およびデータの記憶処理を行う。プロセッサCP2は、メモリCP3に記憶されたプログラムに従って動作する。プロセッサCP2は、動作時にメモリCP3を使用し、現在の時刻情報を取得したり、撮像部CP1により撮像された撮像映像のデータに対して各種の公知の画像処理を施した上でストレージCP5に記録したりする。なお、図2には図示を省略しているが、監視カメラ10がGNSS(Global Navigation Satellite System)受信部を有する場合、GNSS受信部から現在の位置情報を取得し、撮像映像のデータに位置情報を更に対応付けて記録してよい。
ここでGNSS受信部について簡単に説明する。GNSS受信部は、複数のGNSS発信機(例えば4個の航法衛星)から送信される、各自の信号送信時刻および位置座標を含む衛星測位信号を受信する。GNSS受信部は、複数の衛星測位信号を用いて、現在の監視カメラ10の位置座標および衛星信号の受信時刻を算出する。なお、この算出は、GNSS受信部ではなく、GNSS受信部からの出力が入力されたプロセッサCP2により実行されてよい。受信時刻の情報は、監視カメラ10のシステム時刻の補正のためにも使用されてよい。システム時刻は、例えば撮像映像を構成する撮像画像の撮像時刻の記録等に利用される。
プロセッサCP2は、通信部CP4により受信された外部からの制御コマンドに従って、撮像部CP1による撮影条件(例えば、ズーム倍率)を可変的に制御してもよい。例えば、外部からの制御コマンドがズーム倍率の変更を指示する場合、プロセッサCP2は、その制御コマンドに従って、その制御コマンドで選択される撮像部の撮影時におけるズーム倍率を変更する。
プロセッサCP2は、ストレージ15に記録された撮像映像のデータを、通信部CP4を介して人物検索サーバ50、顔検索サーバ60および映像レコーダ70のそれぞれに繰り返して送る。ここで、繰り返して送るとは、定められた一定周期の時間経過の度に送信することに限定されず、一定周期ではなく定められた不規則な時間間隔の経過の度に送信することも含まれてよく、複数回にわたって送信することを含む。
メモリCP3は、例えばRAM(Random Access Memory)とROM(Read Only Memory)を用いて構成され、監視カメラ10の動作の実行に必要なプログラム、さらには、動作中に生成された情報またはデータ等を一時的に保存する。RAMは、例えばプロセッサCP2の動作時に使用されるワークメモリである。ROMは、例えばプロセッサCP2を制御するためのプログラムを予め記憶する。また、メモリCP3は、例えば監視カメラ10を識別する識別情報(例えばシリアル番号)および各種設定情報を記憶する。
通信部CP4は、プロセッサCP2の指示に基づいて、ネットワークNW1を介して、ストレージ15に記録された撮像映像のデータを人物検索サーバ50、顔検索サーバ60および映像レコーダ70にそれぞれ送る。また、通信部CP4は、外部(例えばクライアント端末90)から送られた監視カメラ10の制御コマンドを受信したり、監視カメラ10の状態情報を外部(例えばクライアント端末90)に送信したりする。
ストレージCP5は、監視カメラ10に内蔵される半導体メモリ(例えばフラッシュメモリ)、または監視カメラ10に内蔵されないメモリカード(例えばSDカード)などの外部記憶媒体を用いて構成される。ストレージCP5は、プロセッサCP2により生成された撮像映像のデータを、監視カメラ10の識別情報および撮像日時の情報と対応付けて記録する。ストレージCP5は、所定時間(例えば30秒)分の撮像映像のデータを常時プリバッファリングして保持し、現在時刻より所定時間(例えば30秒)前までの撮像映像のデータを上書きしながら蓄積し続ける。なお、ストレージCP5がメモリカードで構成される場合、監視カメラ10の筐体に挿抜自在に装着される。
図3は、人物検索サーバ50およびクライアント端末90のそれぞれの内部構成例を示すブロック図である。人物検索サーバ50と顔検索サーバ60とクライアント端末90と映像レコーダ70とは、ともに警察署内に設けられた有線LAN(Local Area Network)等のイントラネットを用いて接続されるが、無線LAN等の無線ネットワークを介して接続されてもよい。
人物検索サーバ50は、通信部51と、メモリ52と、プロセッサPRC1と、ストレージ56とを含む構成である。プロセッサPRC1は、メモリ52に記憶されるプログラムの実行により、人物検索部53と人物解析部54と人物照合部55とを機能的構成として有する。プロセッサPRC1は、例えばCPU、DSPもしくはFPGAを用いて構成される。プロセッサPRC1は、人物検索サーバ50の制御部として機能し、人物検索サーバ50の各部の動作を全体的に統括するための制御処理、人物検索サーバ50の各部との間のデータの入出力処理、データの演算処理およびデータの記憶処理を行う。プロセッサPRC1は、メモリ52に記憶されたプログラムに従って動作する。
通信部51は、イントラネット等のネットワークNW1を介して接続された監視カメラ10,11,…との間で通信を行い、監視カメラ10,11,…からそれぞれ送られた撮像映像のデータを受信する。通信部51は、警察署内に設けられたイントラネット等のネットワークNW2を介して、クライアント端末90との間で通信を行い、クライアント端末90から送られた注目人物(例えば事件等の容疑者)の検索要求を受信したり、その検索要求の応答を送信したりする。
メモリ52は、例えばRAMとROMを用いて構成され、人物検索サーバ50の動作の実行に必要なプログラム、さらには、動作中に生成された情報またはデータ等を一時的に保存する。RAMは、例えばプロセッサPRC1の動作時に使用されるワークメモリである。ROMは、例えばプロセッサPRC1を制御するためのプログラムを予め記憶する。メモリ52は、例えば人物検索サーバ50を識別する識別情報(例えばシリアル番号)および各種設定情報を記憶する。
人物検索部53は、クライアント端末90から送られた容疑者の検索要求に基づいて、ストレージ56に記録されているデータの中から、検索要求に含まれる検索特徴(検索条件の一例)を満たす人物(つまり容疑者)が映る撮像画像を検索する。人物検索部53は、検索特徴を満たす人物の検索の際に、顔画像の照合処理に適する程度の顔画像(例えば顔が正面方向を向いている人物の顔画像)が抽出できるまで検索する。人物検索部53は、検索結果を抽出し、その抽出された検索結果のデータを、通信部51を介してクライアント端末90に送る。
人物解析部54は、例えばそれぞれの監視カメラ10,11,…からの撮像映像のデータがストレージ56に保存される度に、その保存された撮像映像のデータを解析する。具体的には、人物解析部54は、その撮像映像に映る人物(言い換えると、監視カメラが設置された地点の周囲に存在する人物)に関する情報を解析し、解析結果として取得する。例えば、人物解析部54は、顔画像の照合処理に適する程度の顔画像(上述参照)が抽出できる人物の全身が撮像映像を構成する撮像画像(フレーム)内で特定できた場合に、その人物の全身が映る全身画像とその人物の顔が顔画像とをそれぞれ切り出し、解析結果として生成する。また、人物解析部54は、例えばその人物の性別、年齢、身長、体型、服装、所持品、装着物、歩き方等の外見的な特徴情報と、人物の監視カメラの設置地点を通過する時の移動方向(言い換えると、通過方向)とを抽出し、解析結果として取得する。なお、この人物に関する情報の解析処理は、それぞれの監視カメラにおいて実行されてもよい。人物解析部54は、例えば複数枚の撮像画像の時間的な差分に基づいて、人物の移動方向を判別可能である。移動方向は、例えば人物が監視カメラの設置地点(例えば横断歩道)をどの方向に移動して通過したかを示す。人物解析部54は、人物に関する情報の解析結果と解析に用いた撮像映像の撮像日時および地点(つまり監視カメラの設置地点)とを関連付けてストレージ56の解析情報データベース561に記録する。なお、添付図面では、「データベース」を「DB」と略記している。これにより、人物検索サーバ50は、どの監視カメラの設置地点のいつの時点で撮像された撮像映像にどのような人物が存在していたかを明確に判別可能となる。
人物照合部55は、クライアント端末90から送られた容疑者の全身画像を照合処理用に登録し、監視カメラ10,11,…から送られた撮像映像の中に、この登録された全身画像と同一あるいは類似(言い換えると、合致)する人物の全身画像の有無を判断する処理(つまり照合処理)を行う。人物照合部55は、登録された全身画像と同一あるいは類似する人物の全身画像を特定した場合に、その特定された全身画像と容疑者が発見された旨のアラーム通知とを関連付けてクライアント端末90に送る。
ストレージ56は、例えばハードディスク(HDD:Hard Disk Drive)またはソリッドステートドライブ(SSD:Solid State Drive)を用いて構成される。ストレージ56は、監視カメラ10,11,…から送られた撮像映像のデータを、その撮像映像を撮像した監視カメラの識別情報(言い換えると、監視カメラの設置地点の位置情報)および撮像日時の情報と関連付けて記録する。また、ストレージ56は、それぞれの監視カメラ10,11,…の設置地点の位置を示す道路地図情報も記録し、例えば道路の新規建設もしくはメンテナンス工事等によって道路地図が更新される度に、更新後の道路地図情報を記録する。また、ストレージ56は、それぞれの監視カメラとその監視カメラの設置地点の位置との対応関係を示す監視カメラ設置地点データを記録している。監視カメラ設置地点データは、例えば監視カメラの識別情報とその監視カメラの設置地点の位置情報(例えば緯度および経度)とが関連付けられている。従って、ストレージ56は、監視カメラの撮像映像のデータを、撮像日時の情報、監視カメラ情報および設置地点情報と関連付けて記録している。なお、道路地図情報は、クライアント端末90のメモリ95にも記録される。
また、ストレージ56は、解析情報データベース561および事案データベース562を有する。
解析情報データベース561は、人物解析部54の解析結果(上述参照)を格納する。解析情報データベース561は、例えば人物検索部53が容疑者等の注目人物の検索要求に含まれる検索特徴を満たす人物の全身画像および顔画像の抽出の際、あるいは人物照合部55が容疑者等の注目人物の全身画像の照合処理の際に参照されてよい。
事案データベース562は、事件等の事案ごとに、事案が発生した日時、地点等の目撃情報ならびにその目撃情報およびクライアント端末90からの注目人物の検索要求に基づいて人物検索部53の検索結果に相当する事案詳細情報(例えば、地図データMP1と検索条件と正面顔の映る全身が切り出された全身画像のデータ)を登録して格納する。事案詳細情報は、例えば、事案が発生した日時および地点等の事案情報、検索された人物のサムネイル画像、事案が発生した地点を含む周辺地図情報、人物の監視カメラの設置地点の通過時の移動方向および通過時刻、ユーザのメモ等のコメントを含む。なお、事案詳細情報は、上述した内容に限定されない。
クライアント端末90は、操作部91と、プロセッサ92と、通信部93と、ディスプレイ94と、メモリ95と、ストレージ96とを含む構成である。クライアント端末90は、警察署内の職員(即ち、ユーザである警官)により使用される。ユーザは、事件等の目撃者等によってその事件等の発生を通報するための電話があった場合、ヘッドセットHDSを装着して電話に応対する。ヘッドセットHDSは、クライアント端末90に接続されて使用され、ユーザの発する音声を収音したり、話し相手(即ち、通報者)の発した音声を出力したりする。
操作部91は、ユーザの操作を検出するユーザインターフェース(UI:User Interface)であり、マウスあるいはキーボード等を用いて構成される。操作部91は、ユーザの操作に基づく信号をプロセッサ92に出力する。操作部91は、例えば、ユーザが調べる事件等の事案の発生日時および監視カメラの設置地点の撮像映像を確認したい場合、その日時および設置地点、人物の外見的な検索特徴を含む検索条件の入力を受け付ける。
プロセッサ92は、例えばCPU、DSPまたはFPGAを用いて構成され、クライアント端末90の制御部として機能し、クライアント端末90の各部の動作を全体的に統括するための制御処理、クライアント端末90の各部との間のデータの入出力処理、データの演算処理およびデータの記憶処理を行う。プロセッサ92は、メモリ95に記憶されたプログラムに従って動作する。プロセッサ92は、動作時にメモリ95を使用し、現在の時刻情報を取得したり、人物検索サーバ50あるいは顔検索サーバ60から送られた容疑者等の注目人物の検索結果、あるいは映像レコーダ70から送られた撮像映像をディスプレイ94に表示したりする。また、プロセッサ92は、操作部91により入力された検索条件を含む容疑者等の注目人物の検索要求を生成し、その検索要求を、通信部93を介して人物検索サーバ50あるいは顔検索サーバ60に送信する。
通信部93は、イントラネット等のネットワークNW2を介して接続された人物検索サーバ50、顔検索サーバ60あるいは映像レコーダ70との間で通信を行う。例えば、通信部93は、人物検索サーバ50あるいは顔検索サーバ60に対してプロセッサ92が生成した検索要求を送信したり、人物検索サーバ50あるいは顔検索サーバ60から送られた容疑者等の注目人物の検索結果を受信したりする。また、通信部93は、映像レコーダ70に対してプロセッサ92が生成した撮像映像の取得要求を送信したり、その取得要求に対応する映像レコーダ70から送られた撮像映像を受信したりする。
ディスプレイ94は、例えばLCD(Liquid Crystal Display)または有機EL(Electroluminescence)等の表示デバイスを用いて構成され、プロセッサ92から送られた各種のデータを表示する。
メモリ95は、例えばRAMとROMを用いて構成され、クライアント端末90の動作の実行に必要なプログラム、さらには、動作中に生成された情報またはデータ等を一時的に保存する。RAMは、例えばプロセッサ92の動作時に使用されるワークメモリである。ROMは、例えばプロセッサ92を制御するためのプログラムおよびデータを予め記憶する。また、メモリ95は、例えばクライアント端末90を識別する識別情報(例えばシリアル番号)および各種設定情報を記憶する。
ストレージ96は、例えばハードディスクドライブまたはソリッドステートドライブを用いて構成される。ストレージ96は、それぞれの監視カメラ10,11,…の設置地点の位置を示す道路地図情報も記録し、例えば道路の新規建設もしくはメンテナンス工事等によって道路地図が更新される度に、更新後の道路地図情報を記録する。また、ストレージ96は、それぞれの監視カメラとその監視カメラの設置地点の位置との対応関係を示す監視カメラ設置地点データを記録している。監視カメラ設置地点データは、例えば監視カメラの識別情報とその監視カメラの設置地点の位置情報(例えば緯度および経度)とが関連付けられている。従って、ストレージ96は、監視カメラの撮像映像のデータを、撮像日時の情報、監視カメラ情報および設置地点情報と関連付けて記録している。
図4は、顔検索サーバ60の内部構成例を示すブロック図である。顔検索サーバ60は、通信部61と、メモリ62と、プロセッサPRC2と、ストレージ66とを含む構成である。プロセッサPRC2は、メモリ62に記憶されるプログラムの実行により、顔解析部64と顔照合部65とを機能的構成として有する。プロセッサPRC2は、例えばCPU、DSPもしくはFPGAを用いて構成される。プロセッサPRC2は、顔検索サーバ60の制御部として機能し、顔検索サーバ60の各部の動作を全体的に統括するための制御処理、顔検索サーバ60の各部との間のデータの入出力処理、データの演算処理およびデータの記憶処理を行う。プロセッサPRC2は、メモリ62に記憶されたプログラムに従って動作する。
通信部61は、イントラネット等のネットワークNW1を介して接続された監視カメラ10,11,…との間で通信を行い、監視カメラ10,11,…からそれぞれ送られた撮像映像のデータを受信する。通信部61は、警察署内に設けられたイントラネット等のネットワークNW2を介して、クライアント端末90との間で通信を行い、クライアント端末90から送られた容疑者等の注目人物の顔の照合処理の実行要求を受信したり、その照合処理の応答を送信したりする。
メモリ62は、例えばRAMとROMを用いて構成され、顔検索サーバ60の動作の実行に必要なプログラム、さらには、動作中に生成された情報またはデータ等を一時的に保存する。RAMは、例えばプロセッサPRC2の動作時に使用されるワークメモリである。ROMは、例えばプロセッサPRC2を制御するためのプログラムを予め記憶する。メモリ62は、例えば顔検索サーバ60を識別する識別情報(例えばシリアル番号)および各種設定情報を記憶する。
顔解析部64は、例えばそれぞれの監視カメラ10,11,…からの撮像映像のデータがストレージ66に保存される度に、その保存された撮像映像のデータを解析する。具体的には、顔解析部64は、その撮像映像に映る人物(言い換えると、監視カメラが設置された地点の周囲に存在する人物)の顔に関する情報を解析し、解析結果として取得する。例えば、顔解析部64は、顔画像の照合処理に適する程度の顔画像(上述参照)が撮像映像を構成する撮像画像(フレーム)内で特定できた場合に、その顔画像を切り出し、解析結果として生成する。また、顔解析部64は、例えばその顔の外見的な特徴情報と、その顔に対応する人物の監視カメラの設置地点を通過する時の移動方向(言い換えると、通過方向)とを抽出し、解析結果として取得する。なお、この顔に関する情報の解析処理は、それぞれの監視カメラにおいて実行されてもよい。顔解析部64は、例えば複数枚の撮像画像の時間的な差分に基づいて、人物の移動方向を判別可能である。移動方向は、例えば人物が監視カメラの設置地点(例えば横断歩道)をどの方向に移動して通過したかを示す。顔解析部64は、人物の顔に関する情報の解析結果と解析に用いた撮像映像の撮像日時および地点(つまり監視カメラの設置地点)とを関連付けてストレージ66の解析情報データベース561に記録する。これにより、顔検索サーバ60は、どの監視カメラの設置地点のいつの時点で撮像された撮像映像にどのような顔の人物が存在していたかを明確に判別可能となる。
顔照合部65は、クライアント端末90から送られた容疑者の顔画像を照合処理用に登録し、監視カメラ10,11,…から送られた撮像映像の中に、この登録された顔画像と同一あるいは類似(言い換えると、合致)する人物の顔画像の有無を判断する処理(つまり照合処理)を行う。顔照合部65は、登録された顔画像と同一あるいは類似する人物の顔画像を特定した場合に、その特定された顔画像と容疑者が発見された旨のアラーム通知とを関連付けてクライアント端末90に送る。
ストレージ66は、例えばハードディスク(HDD)またはソリッドステートドライブ(SSD)を用いて構成される。ストレージ66は、監視カメラ10,11,…から送られた撮像映像のデータを、その撮像映像を撮像した監視カメラの識別情報(言い換えると、監視カメラの設置地点の位置情報)および撮像日時の情報と関連付けて記録する。また、ストレージ66は、それぞれの監視カメラ10,11,…の設置地点の位置を示す道路地図情報も記録し、例えば道路の新規建設もしくはメンテナンス工事等によって道路地図が更新される度に、更新後の道路地図情報を記録する。また、ストレージ66は、それぞれの監視カメラとその監視カメラの設置地点の位置との対応関係を示す監視カメラ設置地点データを記録している。監視カメラ設置地点データは、例えば監視カメラの識別情報とその監視カメラの設置地点の位置情報(例えば緯度および経度)とが関連付けられている。従って、ストレージ66は、監視カメラの撮像映像のデータを、撮像日時の情報、監視カメラ情報および設置地点情報と関連付けて記録している。
また、ストレージ66は、解析情報データベース661を有する。
解析情報データベース661は、顔解析部64の解析結果(上述参照)を格納する。解析情報データベース661は、例えば顔照合部65が容疑者等の注目人物の顔画像の照合処理の際に参照されてよい。
図5は、映像レコーダ70の内部構成例を示すブロック図である。映像レコーダ70は、イントラネット等のネットワークNW1を介して監視カメラ10,11,…のそれぞれとの間で通信可能に接続され、また、イントラネット等のネットワークNW2を介して人物検索サーバ50、顔検索サーバ60およびクライアント端末90との間で通信可能に接続されている。
映像レコーダ70は、通信部71と、メモリ72と、プロセッサPRC3と、ストレージ75とを含む構成である。プロセッサPRC3は、メモリ72に記憶されるプログラムの実行により、映像検索部73と映像記録処理部74とを機能的構成として有する。プロセッサPRC3は、例えばCPU、DSPもしくはFPGAを用いて構成される。プロセッサPRC3は、映像レコーダ70の制御部として機能し、映像レコーダ70の各部の動作を全体的に統括するための制御処理、映像レコーダ70の各部との間のデータの入出力処理、データの演算処理およびデータの記憶処理を行う。プロセッサPRC3は、メモリ72に記憶されたプログラムに従って動作する。
通信部71は、イントラネット等のネットワークNW1を介して接続された監視カメラ10,11,…のそれぞれとの間で通信を行い、監視カメラ10,11,…のそれぞれから送られた撮像映像のデータを受信する。また、通信部71は、警察署内に設けられたイントラネット等のネットワークNW2を介して、クライアント端末90との間で通信を行い、クライアント端末90から送られた映像要求を受信したり、その映像要求の応答を送信したりする。
メモリ72は、例えばRAMとROMを用いて構成され、映像レコーダ70の動作の実行に必要なプログラム、さらには、動作中に生成された情報またはデータ等を一時的に保存する。RAMは、例えばプロセッサPRC3の動作時に使用されるワークメモリである。ROMは、例えばプロセッサPRC3を制御するためのプログラムおよびデータを予め記憶する。また、メモリ72は、例えば映像レコーダ70を識別する識別情報(例えばシリアル番号)および各種設定情報を記憶する。
映像検索部73は、クライアント端末90から送られた映像要求に基づいて、その映像要求に合致する監視カメラの撮像映像を、ストレージ76を検索することで抽出する。映像検索部73は、抽出された撮像映像のデータを、通信部71を介してクライアント端末90に送る。
映像記録処理部74は、例えば監視カメラ10,11,…のそれぞれからの撮像映像のデータが通信部71において受信される度に、その受信された撮像映像のデータをストレージ76に記録する。
ストレージ76は、例えばハードディスクまたはソリッドステートドライブを用いて構成される。ストレージ76は、監視カメラ10,11,…のそれぞれから送られた撮像映像のデータを、その撮像映像を撮像した監視カメラの識別情報(言い換えると、監視カメラの設置地点の位置情報)および撮像日時の情報と関連付けて記録する。
次に、警察捜査の際に、クライアント端末90のディスプレイ94に表示される各種の画面例について、図6から図10を参照して説明する。図6~図10の説明において、図中に示される要素と同一の要素については同一の符号を参照して説明を簡略化あるいは省略する。
警察捜査において、クライアント端末90は、警官(ユーザの一例)の操作により、予めインストールされている人物監視アプリケーション(以下「人物監視アプリ」)を起動して実行中である。なお、この人物監視アプリのプログラムおよびデータは、クライアント端末90のメモリ95のROM内に格納されている。人物監視アプリは、警官の操作により、プロセッサ92により起動されて実行される。なお、人物監視アプリの起動中においてプロセッサ92により作成される各種のデータあるいは情報は、一時的にメモリ95のRAMに保持される。
図6は、監視カメラが設置された地点を含む地図データを表示する人物監視画面WD1の一例を示す図である。プロセッサ92は、ユーザ操作による人物監視アプリの起動後に人物監視画面WD1をディスプレイ94に表示する。人物監視画面WD1は、クライアント端末90のストレージ96に記録されている道路地図情報に対応する地図データMP1と複数の検索条件の入力欄との両方が並べて表示される構成である。以下の説明において、プロセッサ92により実行される人物監視アプリは、その実行中に人物検索サーバ50、顔検索サーバ60あるいは映像レコーダ70との間で通信を行う。
地図データMP1上には、施設(例えばショッピングセンターの敷地)内に設置された第1の監視カメラの設置位置を示すアイコンPt1と、第2の監視カメラの設置位置を示すアイコンPt2と、第3の監視カメラの設置位置を示すアイコンPt3と、第4の監視カメラの設置位置を示すアイコンPt4とがそれぞれ判別可能に示されている。以下の説明において、監視カメラの設置台数を示すパラメータn(n:2以上の整数)として「4」を例示する。また、第1の監視カメラ、第2の監視カメラ、第3の監視カメラおよび第4の監視カメラは、いずれも図2に示す監視カメラ10,11,…のそれぞれと同一の構成を有している。
人物監視アプリは、ユーザ操作により、カメラ選択枠ASWK1を地図データMP1上に表示する。カメラ選択枠ASWK1は、人物監視画面WD1に表示される監視カメラの撮像映像MV1,MV2,MV3,MV4(例えばライブ映像)の選択に用いられる。図6では、ユーザ操作により、第1~第4の監視カメラの4台がカメラ選択枠ASWK1により選択されている。人物監視アプリは、カメラ選択枠ASWK1により選択された監視カメラ(具体的には、第1~第4の監視カメラ)の設置地点が人物監視画面WD1における撮像映像の表示対象であることを示す地点選択枠SEL0を人物監視画面WD1に表示する。なお、カメラ選択枠ASWK1は図6では矩形状であるが、この形状に限定されず、円、楕円、三角等のよく知られた各種の形状のうちいずれかであってよい。
図6に示すように、ユーザ操作により、地図データMP1においてn(=4)台の監視カメラがカメラ選択枠ASWK1により選択済みである。人物監視アプリは、カメラ選択枠ASWK1により選択済みであることを示すために、アイコンPt1~Pt4の表示態様を選択されていない監視カメラのアイコンよりも識別し易くなるように表示してよい。例えば、人物監視アプリは、アイコンPt1~Pt4を特定色(例えば赤色)で表示し、地点選択枠SEL0の第1~第4の監視カメラのそれぞれに対応する「Point1」,「Point2」,「Point3」,「Point4」を識別し易くなるように表示する。
人物監視アプリは、アイコンPt1,Pt2,Pt3,Pt4のそれぞれ(言い換えると、「Point1」,「Point2」,「Point3」,「Point4」のそれぞれ)に設置された監視カメラの撮像映像MV1,MV2,MV3,MV4(ライブ映像)の画面を、撮像時刻および撮像地点名とともに人物監視画面WD1に表示する。なお、図6では、撮像映像MV1~MV4のそれぞれの画面において、撮像時刻および撮像地点名の図示は省略されている。
人物監視アプリは、警察捜査における容疑者等の注目人物の検索を支援するための各種のボタンを人物監視画面WD1に表示する。例えば、検索の対象期間の開始日時を選択するための期間開始ボタンDB1と、検索の対象期間の終了日時を選択するための期間終了ボタンDE1と、検索される容疑者の外見的なイメージを示す検索対象人物像表示枠PL1とが配置される。
人物監視アプリは、容疑者の検索において、2種類の検索方法の検索要求を人物検索サーバ50に実行できる。第1の検索方法は、メタサーチであり、例えば図7に示す詳細設定画面DTL1において設定されるメタ情報に基づいて、そのメタ情報に相当する撮像画像上の特徴点の類似度が同一あるいは閾値以上となる特徴点を有する容疑者を検索する方法である。人物監視アプリは、このメタサーチを人物検索サーバ50に要求するためのメタサーチボタンMS1を人物監視画面WD1に表示する。第2の検索方法は、イメージサーチであり、例えば図8において選択されたサムネイル画像Xpc1のイメージデータに基づいて、そのイメージデータの撮像画像上の特徴点の類似度が同一あるいは閾値以上となる特徴点を有する容疑者を検索する方法である。人物監視アプリは、このイメージサーチを人物検索サーバ50に要求するためのイメージサーチボタンIS1を人物監視画面WD1に表示する。
なお、人物監視アプリは、上述した第1の検索方法および第2の検索方法の両方を併用した検索の検索要求を生成して人物検索サーバ50に検索を実行させてもよい。
人物監視アプリは、人物監視画面WD1における容疑者の検索結果のデータを事案レポートとして保存するためのレポートボタンRP1を人物監視画面WD1に表示する。ユーザ操作によりレポートボタンRP1が押下されると、人物監視アプリは、人物監視画面WD1に表示されている少なくとも1人の容疑者の検索結果のデータ(例えば地図データMP1と日付等の検索条件とユーザのコメントと切り出されたサムネイル画像のデータ、図10参照)を事案レポートとしてストレージ96に保存する。また、クライアント端末90は、事案レポートのデータを事案レポートの識別情報(例えばファイル名)と対応付けて人物検索サーバ50に送ってよい。人物検索サーバ50は、事案レポートの識別情報(例えばファイル名)に対応付けられる事案レポートのデータを事案DB562に保存する。
人物監視アプリは、表示中の人物監視画面WD1を初期状態(言い換えると、容疑者の検索開始前)の人物監視画面WD1に戻すためのリセットボタンRS1を人物監視画面WD1に表示する。これにより、ユーザは、例えば人物監視画面WD1における容疑者の検索の際に間違った操作を行った場合等に、容疑者の検索を最初から簡易にやり直すことができる。
図7は、容疑者の検索特徴の詳細設定画面DTL1の一例を示す図である。人物監視アプリは、所定のユーザ操作により、容疑者を検索するための検索条件の3大要素として、主に日付ASM1(Time&Date)と、特徴ASM2(Characteristics)と、服装ASM3(Decoration)とをユーザに設定可能な詳細設定画面DTL1を人物監視画面WD1に表示する。人物監視アプリは、ユーザ操作により特徴ASM2および服装ASM3のそれぞれの設定により特定される検索対象人物像IPS1を詳細設定画面DTL1に表示する。これにより、ユーザは、自ら設定した特徴ASM2および服装ASM3のそれぞれに相当する検索対象人物像IPS1を視覚的に把握でき、自らの設定の是非を簡易に判断できる。例えば図7では、検索対象人物像IPS1は、容疑者として、日付ASM1により特定される期間に、特徴ASM2および服装ASM3を満たす黒い鞄BG1を所持する人物像が容疑者として選択されている。
日付ASM1には、容疑者の検索期間の開始日時および終了日時がそれぞれ設定される。例えば、ユーザ操作により、日付ASM1が入力される。これにより、ユーザ操作により、容疑者の検索期間の開始日時および終了日時が簡単に設定可能となる。例えば図7では、日付ASM1として、「2018年7月29日の午前0時0分0秒」から「2018年10月4日の午前0時0分0秒」が入力されている。
特徴ASM2には、容疑者の外見に関する情報の選択肢が選択可能に表示される。表示される選択肢は、性別に関する選択肢(具体的には「Male」あるいは「Female」)と、年齢に関する選択肢(具体的には「Younger」、「Middle」あるいは「Older」)と、身長に関する選択肢(具体的には「Small」、「Normal」あるいは「Large」)と、体型に関する選択肢(具体的には「Slim」、「Normal」あるいは「Thick)である。これにより、ユーザは、容疑者の性別、年齢、伸長、体型等の外見的な特徴をきめ細かく設定できる。例えば図7では、特徴ASM2として、「男性(Male)」の選択肢SL1、「年配(Older)」の選択肢SL2、「細身(Slim)」の選択肢SL3が選択されている。
服装ASM3には、容疑者の外見に関する情報の選択肢が選択可能に表示される。表示される選択肢は、所持品に関する選択肢(具体的には「With Bag」あるいは「No Bag」)と、装着物に関する選択肢(具体的には「With Hat」あるいは「No Hat」)と、上半身の服装に関する選択肢(具体的には「Long Sleeved」、「Short Sleeved」あるいは「Others」)と、下半身の服装に関する選択肢(具体的には「Long Pants」、「Short Pants」、「Skirt」あるいは「Others」)と、髪型に関する選択肢(具体的には「Long Hair」、「Short Hair」、「No Hair」あるいは「Others」)である。また、服装、所持品、装着物についてはそれぞれ色が選択可能なパレットCLP1が詳細設定画面DTL1に設けられている。例えば、灰色(Gray)、黒色(Black)、白色(White)、赤色(Red)、緑色(Green)、青色(Blue)、黄色(Yellow)、橙色(Orange)、茶色(Brown)、紫色(Purple)、その他(Free)から選択可能である。これにより、ユーザは、容疑者の服装等に関する外見的な特徴をきめ細かく選択できる。例えば図7では、服装ASM3として、「鞄持ち(With Bag)」の選択肢SL4が選択されている。
図8は、図7の詳細設定画面DTL1で設定された検索特徴を検索条件として用いたメタサーチによる人物検索結果を時系列に表示する人物監視画面WD1の一例を示す図である。人物監視アプリは、図7に示す詳細設定画面DTL1において選択された検索対象人物像IPS1と一部の検索条件のテキストとを検索対象人物像表示枠PL1に表示する。
人物監視アプリは、検索対象人物像表示枠PL1に検索対象人物像IPS1が表示された状態で、ユーザ操作によりメタサーチボタンMS1が押下されたことを検知する。この場合、人物監視アプリは、検索対象人物像表示枠PL1に表示された検索対象人物像IPS1を特定する各種の検索特徴(図7参照)と検索対象となる監視カメラの識別情報とを含む容疑者の検索要求を生成し、通信部93を介して人物検索サーバ50に送信する。人物検索サーバ50は、クライアント端末90から送られた検索要求を受信すると、ストレージ56の解析情報データベース561に保存された解析結果を用いて、メタサーチにより、検索条件を満たす容疑者と同一あるいは類似する人物(例えば予め指定された閾値以上の類似度が得られた人物)を検索する。人物検索サーバ50は、検索結果をクライアント端末90に送る。
人物監視アプリは、通信部93を介して受信された検索結果を取得すると、容疑者(つまり検索対象人物像IPS1)と同一あるいは類似する人物を切り出したサムネイル画像Xpc1,Xpc2,Xpc3,Xpc4,Xpc5,Xpc6,Xpc7,Xpc8,Xpc9,Xpc10を並べて表示する。
例えば、人物監視アプリは、容疑者(つまり検索対象人物像IPS1)と同一あるいは類似する人物のサムネイル画像Xpc1~Xpc10を、検索対象人物像IPS1と同一あるいは類似する順に表示してよい。これにより、ユーザは、表示されたサムネイル画像を優先的に確認することで、自ら把握したい容疑者を早期に発見できる。
例えば、人物監視アプリは、容疑者(つまり検索対象人物像IPS1)と同一あるいは類似する人物のサムネイル画像Xpc1~Xpc10を、それぞれのサムネイル画像が撮像された撮像時刻の順(例えば、撮像時刻の古い順あるいは新しい順)に時系列に表示してよい。これにより、ユーザは、撮像時刻の古い順あるいは新しい順に表示されたサムネイル画像を優先的に確認することで、自ら把握したい容疑者を早期に発見できる。
例えば、人物監視アプリは、容疑者(つまり検索対象人物像IPS1)と同一あるいは類似する人物のサムネイル画像Xpc1~Xpc10を、それぞれのサムネイル画像に対応する監視カメラの設置地点ごとに纏めて表示してよい。これにより、ユーザは、容疑者の存在する可能性のある監視カメラの設置地点を把握している場合等に、該当する設置地点に対応して纏めて表示された一個あるいは複数個のサムネイル画像を優先的に確認することで、自ら把握したい容疑者を早期に発見できる。
ここで、ユーザは、複数のサムネイル画像Xpc1~Xpc10の中で、サムネイル画像Xpc1の人物が容疑者かもしれないと注目したとする。人物監視アプリは、ユーザ操作により、サムネイル画像Xpc1が選択されて検索対象人物像表示枠PL1に移動されかつイメージサーチボタンIS1が押下された場合、サムネイル画像Xpc1の人物と同一あるいは類似する人物の検索要求を人物検索サーバ50に送る。同様に、人物検索サーバ50は、クライアント端末90から送られた検索要求に従って、サムネイル画像Xpc1の人物と同一あるいは類似する人物を検索(イメージサーチ)し、その検索結果をクライアント端末90に送る。
図9は、図8のサムネイル画像Xpc1を検索条件として用いたイメージサーチによる人物検索結果を時系列に表示する人物監視画面WD1の一例を示す図である。人物監視アプリは、サムネイル画像Xpc1の人物と同一あるいは類似する上述したイメージサーチの検索結果として、3人の人物に対応するサムネイル画像Xpc1,Xpc5,Xpc8を並べて人物監視画面WD1に表示する。なお、人物監視アプリは、図8において検索対象人物像表示枠PL1にサムネイル画像Xpc1がユーザ操作により移動された際、その移動前の検索(メタサーチ)の検索特徴として使用されていたメタ情報の一部(例えば、「Male」,「Middle」,「Normal」,「With Bag」)のテキストをイメージサーチの際に使用(つまり、メタサーチとイメージサーチとの併用)を行ってもよいし、単に画像の類似度に基づいて検索するイメージサーチを行ってもよい。
ここで、ユーザは、複数のサムネイル画像Xpc1,Xpc5,Xpc8の中で、サムネイル画像Xpc5の人物が気になったとする。人物監視アプリは、ユーザ操作により、サムネイル画像Xpc5が押下された場合、その押下されたサムネイル画像Xpc5に対応する撮像映像MV1(つまり、サムネイル画像Xpc5の人物が撮像された時点の監視カメラの撮像映像)を再生可能な撮像映像再生画面を表示する。人物監視アプリは、この再生画面において、「再生」、「一時停止」、「早送り」、「早戻し」、「最初に戻す」、「次に進む」等の各種のユーザ操作を受け付けるためのアイコンを配置して表示する。
人物監視アプリは、撮像映像MV1の再生画面の表示に連動して、サムネイル画像Xpc5の人物が第1~第4の監視カメラの設置地点を通過した時の移動方向を地図データMP1に重畳して表示する(図9参照)。例えば、人物監視アプリは、アイコンPt1が示す監視カメラの設置地点の方向DRC1、アイコンPt2が示す監視カメラの設置地点の方向DRC2、アイコンPt4が示す監視カメラの設置地点の方向DRC3をそれぞれ地図データMP1に重畳して表示する。これにより、ユーザが自ら気になる人物(例えば容疑者)が監視カメラの設置地点を通過した時の移動方向が地図データMP1上に示されるので、ユーザは、その注目人物(例えば容疑者)の移動方向(言い換えると、逃走方向あるいは逃走経路)を視覚的かつ容易に把握できる。
なお、人物監視アプリは、撮像映像MV1の再生画面の表示に連動した時に限らず、例えば図8においていずれかのサムネイル画像がユーザ操作により押下された時にも、その押下されたサムネイル画像の人物が第1~第4の監視カメラの設置地点のそれぞれを通過した時の移動方向を地図データMP1に重畳して表示してよい。これにより、クライアント端末90は、イメージサーチでもメタサーチにおいても、ユーザ操作により指定されたサムネイル画像の人物(例えば容疑者)の逃走方向を地図データMP1上に表示できるので、容疑者等の注目人物の早期発見を効果的に支援できる。
図10は、レポート画面RPT1から選択されたサムネイル画像Xpc1に対応する人物の撮像映像再生画面が重畳された人物監視画面WD1の一例を示す図である。ユーザ操作によりレポートボタンRP1が押下されると、人物監視アプリは、図10に示すレポート画面RPT1を人物監視画面WD1に重畳して表示する。レポート画面RPT1は、例えば、レポートボタンRP1が押下される直前の人物監視画面WD1(例えば図9参照)において並べて表示されていた1以上のサムネイル画像Xpc1,Xpc5,Xpc8と、それぞれのサムネイル画像に関するデータ(例えばそのサムネイル画像の撮像日時、監視カメラの設置地点)と、ユーザのメモ等のコメントと、地図データとが少なくとも配置された画面である。
ここで、ユーザ操作によりレポート画面RPT1のサムネイル画像Xpc8が押下されると、人物監視アプリは、そのサムネイル画像Xpc8に対応する撮像映像MV2(つまり、サムネイル画像Xpc8の人物が撮像された時点の監視カメラの撮像映像)を再生可能な撮像映像再生画面を表示する。この撮像映像再生画面では、サムネイル画像Xpc8の人物の略全身が正面方向を向いており、その人物の顔もユーザにとって判別可能な程度に正面方向を向いている。なお、図9に示す撮像映像再生画面および図10に示す撮像映像再生画面においても、人物監視アプリは、再生中の撮像映像に映る人物の顔を示す顔枠FWK1を重畳して表示するとともに、その同一の人物の全身を示す全身枠AWK1を重畳して表示してよい。これにより、ユーザは、再生中の撮像映像に映る人物の顔および全身を瞬時に判別可能となり、容疑者となり得る人物の特徴を早期に把握できる。
次に、実施の形態1に係る人物監視システム1の動作手順について、図11を参照して説明する。図11は、実施の形態1に係る人物監視システム1の動作手順の一例を示すシーケンス図である。図11では、2台の監視カメラ(例えば、図6のアイコンPt1の地点に設置された監視カメラC1、アイコンPt2の地点に設置された監視カメラC2)が例示されているが、3台以上の監視カメラが例示されてもよい。
図11において、監視カメラC1は、電源オンの間には常時撮像しており撮像映像のデータを映像レコーダ70に送る(St1)。同様に、監視カメラC2は、電源オンの間には常時撮像しており撮像映像のデータを映像レコーダ70に送る(St2)。映像レコーダ70は、監視カメラC1,C2のそれぞれから送られた撮像映像のデータを常時録画(記録)している(St3)。
監視カメラC1は、撮像映像のデータを顔検索サーバ60に送る(St4)。同様に、監視カメラC2は、撮像映像のデータを顔検索サーバ60に送る(St5)。なお、顔検索サーバ60は、監視カメラC1,C2のそれぞれからでなく、例えば映像レコーダ70から直接に監視カメラC1,C2のそれぞれの撮像映像のデータを取得してもよい。顔検索サーバ60は、監視カメラC1,C2のそれぞれから送られた撮像映像のデータを解析し、その撮像映像に映る人物の顔に関する情報を解析結果として抽出する(St6)。人物の顔に関する情報には、例えば撮像映像を構成する撮像画像に映る顔を切り出した顔画像のデータも含まれる。顔検索サーバ60は、ステップSt6において抽出された解析結果を顔特徴情報としてストレージ66に保存する(St7)。
また、監視カメラC1は、撮像映像のデータを人物検索サーバ50に送る(St8)。同様に、監視カメラC2は、撮像映像のデータを人物検索サーバ50に送る(St9)。なお、人物検索サーバ50は、監視カメラC1,C2のそれぞれからでなく、例えば映像レコーダ70から直接に監視カメラC1,C2のそれぞれの撮像映像のデータを取得してもよい。人物検索サーバ50は、監視カメラC1,C2のそれぞれから送られた撮像映像のデータを解析し、その撮像映像に映る人物に関する情報を解析結果として抽出する(St10)。人物に関する情報には、例えば撮像映像を構成する撮像画像に映る人物の全身を切り出した全身画像のデータも含まれる。人物検索サーバ50は、ステップSt10において抽出された解析結果を人物特徴情報としてストレージ56に保存する(St11)。なお、ステップSt1~ステップSt11の処理は、監視カメラC1,C2、映像レコーダ70、人物検索サーバ50および顔検索サーバ60のいずれもが電源オンである間には繰り返して実行される。
クライアント端末90(例えば人物監視アプリ)は、目撃者等からの通報によって情報提供を受けたユーザの操作により、容疑者を検索するための検索特徴の入力を受け付けると(St12)、その検索条件を満たす容疑者の検索要求を生成して人物検索サーバ50に送る(St13)。人物検索サーバ50は、クライアント端末90からの検索要求に従い、その検索要求に含まれる検索特徴(検索条件)を満たす人物の検索(例えばメタサーチ)の際に、後述する顔画像の照合処理(ステップSt23参照)に適する程度の顔画像(例えば顔が正面方向を向いている人物の顔画像)が抽出できるまで繰り返して検索する(St14)。人物検索サーバ50は、ステップSt14の検索結果のデータをクライアント端末90に送信する(St15)。
クライアント端末90(例えば人物監視アプリ)は、ステップSt15において人物検索サーバ50から送られた検索結果のデータを用いて、検索特徴を満たす人物の監視状況を示す人物監視画面WD1(例えば図8参照)を生成して表示する(St16)。ステップSt16において表示される人物監視画面WD1に対するユーザの操作により、ユーザは、追跡対象となる容疑者の画像(具体的には、容疑者の顔画像FC1、容疑者の全身画像PS1)を特定したとする。
クライアント端末90は、ユーザの操作により、その特定された容疑者の全身画像PS1を全身画像の照合処理用に登録するための登録要求を生成し(St16)、その容疑者の全身画像PS1を登録要求に含めて人物検索サーバ50に送信する(St17)。同様に、クライアント端末90は、ユーザの操作により、その特定された容疑者の顔画像FC1を顔画像の照合処理用に登録するための登録要求を生成し(St16)、その容疑者の顔画像FC1を登録要求に含めて顔検索サーバ60に送信する(St18)。人物検索サーバ50は、ステップSt17において送られた登録要求に従い、その登録要求に含まれる容疑者の全身画像PS1を全身画像の照合処理用に登録する(St19)。同様に、顔検索サーバ60は、ステップSt18において送られた登録要求に従い、その登録要求に含まれる容疑者の顔画像FC1を顔画像の照合処理用に登録する(St20)。
監視カメラC1は、撮像映像のデータを顔検索サーバ60に送る(St21)。同様に、監視カメラC2は、撮像映像のデータを顔検索サーバ60に送る(St22)。なお、顔検索サーバ60は、監視カメラC1,C2のそれぞれからでなく、例えば映像レコーダ70から直接に監視カメラC1,C2のそれぞれの撮像映像のデータを取得してもよい。顔検索サーバ60は、ステップSt20において登録された容疑者の顔画像と合致する(例えば同一あるいは類似する)顔画像を特定した(つまり、登録された容疑者の顔画像と照合した)場合に、その特定された顔画像と容疑者が発見された旨のアラーム通知とを関連付けてクライアント端末90に送る(St23)。クライアント端末90は、ステップSt23において顔検索サーバ60から送られたアラーム通知に従って、所定のアラーム報知を実行する(St24)。所定のアラーム報知は、例えば所定の警報音の出力でもよいし、所定の警告メッセージのポップアップ画面での表示でもよいし、それら両方でもよく、以下同様とする。
同様に、監視カメラC1は、撮像映像のデータを人物検索サーバ50に送る(St25)。同様に、監視カメラC2は、撮像映像のデータを顔検索サーバ60に送る(St26)。なお、人物検索サーバ50は、監視カメラC1,C2のそれぞれからでなく、例えば映像レコーダ70から直接に監視カメラC1,C2のそれぞれの撮像映像のデータを取得してもよい。人物検索サーバ50は、ステップSt19において登録された容疑者の全身画像と合致する(例えば同一あるいは類似する)全身画像を特定した(つまり、登録された容疑者の全身画像と照合した)場合に、その特定された全身画像と容疑者が発見された旨のアラーム通知とを関連付けてクライアント端末90に送る(St27)。クライアント端末90は、ステップSt27において人物検索サーバ50から送られたアラーム通知に従って、所定のアラーム報知(上述参照)を実行する(St28)。
なお、クライアント端末90は、ステップSt23,St27のそれぞれにおいてアラーム通知を受信した場合に限って、所定のアラーム報知を実行してもよい。これにより、例えば顔検索サーバ60あるいは人物検索サーバ50の照合処理の精度が低くなっている場合でも、クライアント端末90は的確なアラーム報知を実行でき、監視精度を向上できる。また、上述したステップSt21からステップSt28までの一連の処理を纏めて便宜的に「A処理」と称し、このA処理は繰り返して実行される(A処理ループ)。これにより、人物監視システム1は、逃走中の容疑者の追跡を継続して行えるので、早期の逮捕実現を支援できる。
以上により、実施の形態1に係る人物監視システム1は、n(n:2以上の整数)台の監視カメラ10,11,…のそれぞれと通信可能に接続された人物検索サーバ50および顔検索サーバ60と、人物検索サーバ50および顔検索サーバ60のそれぞれと通信可能に接続されたクライアント端末90と、を含む。人物検索サーバ50は、n台の監視カメラのそれぞれから送られた撮像映像を受信すると、それぞれの撮像映像に映る人物の全身を含む特徴情報を解析し、人物の全身を切り出した全身画像を解析結果として保持する。顔検索サーバ60は、n台の監視カメラのそれぞれから送られた撮像映像を受信すると、それぞれの撮像映像に映る人物の顔を含む特徴情報を解析し、人物の顔を切り出した顔画像を解析結果として保持する。クライアント端末90は、注目人物(例えば容疑者)の全身画像および顔画像の指定に応じて、注目人物の全身画像を対象とする第1の照合処理を人物検索サーバ50に送り、注目人物の顔画像を対象とする第2の照合処理の実行要求を顔検索サーバ60に送る。人物検索サーバ50は、第1の照合処理により、注目人物の全身画像と合致する人物を特定した場合に、注目人物が発見された旨のアラーム通知をクライアント端末90に送る。同様に、顔検索サーバ60は、第2の照合処理により、注目人物の顔画像と合致する人物を特定した場合に、注目人物が発見された旨のアラーム通知をクライアント端末90に送る。
これにより、人物監視システム1は、事件等の容疑者の外見的な特徴を表す全身画像および顔画像を高精度に抽出できるので、複数の監視カメラのそれぞれの撮像映像を用いて容疑者を全身および顔の両方の観点から効率的に追跡できる。従って、人物監視システム1は、複数の監視カメラのそれぞれの撮像映像に映る容疑者の逃走経路の早期把握を効果的に支援できるので、警察捜査の利便性を向上できる。
また、人物検索サーバ50および顔検索サーバ60のそれぞれは、人物の移動方向を示す情報を解析結果として含めて保持するとともに、注目人物が発見された監視カメラの通過時の移動方向を含めてアラーム通知を送る。クライアント端末90は、アラーム通知に基づいて、注目人物が発見された監視カメラの通過時の移動方向を注目人物の全身画像と対応付けてディスプレイ94に表示する。これにより、ユーザは、容疑者の監視カメラの設置地点ごとの通過時の移動方向から容疑者の逃走方向を高精度に類推できるので、容疑者等の注目人物の早期発見を効果的に支援できる。
また、クライアント端末90は、注目人物が発見された少なくとも1台の監視カメラの設置地点を示す地図データMP1をディスプレイ94に表示する。これにより、クライアント端末90は、ユーザ操作により指定されたサムネイル画像の人物(例えば容疑者)の逃走方向を地図データMP1上に表示できるので、容疑者等の注目人物の早期発見を効果的に支援できる。
また、クライアント端末90は、人物検索サーバ50によって注目人物の全身画像と合致する人物が特定されかつ顔検索サーバ60によって注目人物の顔画像と合致する人物が特定された場合に、その注目人物が発見された旨のアラーム報知を行う。これにより、例えば顔検索サーバ60あるいは人物検索サーバ50の照合処理の精度が低くなっている場合でも、クライアント端末90は的確なアラーム報知を実行でき、監視精度を向上できる。
また、クライアント端末90は、対象期間(例えば検索の対象期間)と、年齢、性別、身長、体型からなる第1の外見的特徴と、所持品の有無、装着品の有無、服装、髪型からなる第2の外見的特徴とを含む検索特徴の指定に応じて、注目人物の検索要求を人物検索サーバ50に送る。人物検索サーバ50は、クライアント端末90から送られた検索要求に含まれる検索特徴を満たす人物であって、その人物の顔画像の抽出が可能な程度に略正面方向を向いている人物の全身画像を検索結果としてクライアント端末90に送る。クライアント端末90は、検索結果に対応する人物の全身画像および顔画像を、注目人物の全身画像および顔画像として指定する。これにより、顔検索サーバ60での照合処理の精度と人物検索サーバ50での照合処理の精度とがともに向上するので、結果的に監視精度の向上につながる。
(実施の形態2)
実施の形態2では、実施の形態1において顔画像の照合処理において合致する顔画像が得られた後に容疑者に対して更なる追跡捜査を行う際、監視カメラにたとえ容疑者の顔が映っていない(例えば容疑者の背面が映り、顔が映っていない)場合でも容疑者の追跡を効率的に支援する人物監視システムの例を説明する。なお、実施の形態2に係る人物監視システムの構成は実施の形態1に係る人物監視システム1の構成と同一であり、同一の構成については同一の符号を付与して説明を簡略化あるいは省略し、異なる内容について説明する。
図12は、サムネイル画像Xpc5に対応する人物と同一の人物を検索するための同一人物検索時の動作概要の一例を示す図である。人物監視アプリは、サムネイル画像Xpc1の人物と同一あるいは類似する上述したイメージサーチの検索結果として、3人の人物に対応するサムネイル画像Xpc1,Xpc5,Xpc8を並べて人物監視画面WD2に表示してよい(図12参照)。人物監視画面WD2(図12参照)は、人物監視画面WD1(図9参照)に比べて、同一人物検索ボタンSPS1が更に配置されている。
人物監視アプリは、ユーザの操作により、検索対象人物像表示枠PL1にサムネイル画像Xpc1が指定されて同一人物検索ボタンSPS1が押下されたことを検知すると、顔画像の照合処理において合致した顔画像を撮像した監視カメラの識別情報および撮像日時と、その顔画像とその監視カメラの設置地点の通過時の移動方向とを含む照合処理(後述する容疑者の顔画像の再検索あるいは追跡捜査のこと)の実行要求を、顔検索サーバ60に送る。また、人物監視アプリは、顔画像の照合処理において合致した顔画像を撮像した監視カメラの識別情報および撮像日時と、その顔画像に対応する人物の全身画像とその監視カメラの設置地点の通過時の移動方向とを含む照合処理(後述する容疑者の全身画像の再検索あるいは追跡捜査のこと)の実行要求を、人物検索サーバ50に送る。
顔検索サーバ60は、クライアント端末90からの照合処理の実行要求に従い、その実行要求に含まれるサムネイル画像Xpc1の人物の移動方向に応じて、顔画像の照合処理閾値を変更して照合処理を実行する。例えば、サムネイル画像Xpc1の人物はアイコンPt1が示す第1の監視カメラの設置地点を方向DRC1に移動した場合(図12参照)、顔検索サーバ60は、アイコンPt2が示す第2の監視カメラの設置地点を方向IDRC2から近づく人物の顔画像の照合処理閾値を下げる。一方で、顔検索サーバ60は、アイコンPt2が示す第2の監視カメラの設置地点を方向IDRC2以外の方向から近づく人物の顔画像の照合処理閾値を変更しないで現在の照合処理閾値をそのまま使用する。
また例えば、サムネイル画像Xpc1の人物はアイコンPt2が示す第2の監視カメラの設置地点を方向DRC2に移動した場合(図12参照)、顔検索サーバ60は、アイコンPt4が示す第4の監視カメラの設置地点を方向IDRC3から近づく人物の顔画像の照合処理閾値を下げる。一方で、顔検索サーバ60は、アイコンPt4が示す第4の監視カメラの設置地点を方向IDRC3以外の方向から近づく人物の顔画像の照合処理閾値を変更しないで現在の照合処理閾値をそのまま使用する。
同様に、人物検索サーバ50は、クライアント端末90からの照合処理の実行要求に従い、その実行要求に含まれるサムネイル画像Xpc1の人物の移動方向に応じて、全身画像の照合処理時の閾値を変更して照合処理を実行する。例えば、サムネイル画像Xpc1の人物はアイコンPt1が示す第1の監視カメラの設置地点を方向DRC1に移動した場合(図12参照)、人物検索サーバ50は、アイコンPt2が示す第2の監視カメラの設置地点を方向IDRC2から近づく人物の全身画像の照合処理閾値を下げる。一方で、人物検索サーバ50は、アイコンPt2が示す第2の監視カメラの設置地点を方向IDRC2以外の方向から近づく人物の全身画像の照合処理閾値を変更しないで現在の照合処理閾値をそのまま使用する。
また例えば、サムネイル画像Xpc1の人物はアイコンPt2が示す第2の監視カメラの設置地点を方向DRC2に移動した場合(図12参照)、人物検索サーバ50は、アイコンPt4が示す第4の監視カメラの設置地点を方向IDRC3から近づく人物の全身画像の照合処理閾値を下げる。一方で、人物検索サーバ50は、アイコンPt4が示す第4の監視カメラの設置地点を方向IDRC3以外の方向から近づく人物の全身画像の照合処理閾値を変更しないで現在の照合処理閾値をそのまま使用する。
図13は、サムネイル画像Xpc11に対応する人物と似た人物のイメージサーチを指示する人物監視画面WD2の一例を示す図である。図14は、容疑者の検索特徴の詳細設定画面DTL1の一例を示す図である。人物監視アプリは、例えば実施の形態1を参照して説明したメタサーチにより、人物検索サーバ50から送られた検索結果のデータを用いて人物監視画面WD2(図13参照)を表示してよい。人物監視画面WD2(図13参照)には、ユーザの操作により指定されたメタ情報に合致する人物のサムネイル画像Xpc11,Xpc12,Xpc13,Xpc14,Xpc15,Xpc16,Xpc17,Xpc18,Xpc19,Xpc20,Xpc21,Xpc22,Xpc23,Xpc24,Xpc25,Xpc26,Xpc27,Xpc28,Xpc29が並べて表示されている。なお、人物監視アプリは、全てのサムネイル画像を表示できない場合には、スクロールバーSCR1のユーザ操作により残りのサムネイル画像をスクロールして表示できる。
ここで、ユーザは、複数のサムネイル画像Xpc11~Xpc29の中で、サムネイル画像Xpc21の人物が容疑者かもしれないと注目したとする。人物監視アプリは、ユーザ操作によって選択されたサムネイル画像Xpc21と同一のサムネイル画像を検索対象人物像表示枠PL1に表示し、更に、所定のユーザ操作によって詳細設定画面DTL1を表示する。図14において、ユーザ操作により、「With Bag」の選択肢SL4のチェックが外されたとする。
例えば容疑者は、逃走当初の頃は銀行あるいは店舗等で盗んだ現金を入れた鞄を所持していた(図7参照)が、途中でその鞄を捨て去ったあるいは他の協力者に渡して逃走した可能性がある。そこで、人物監視アプリは、図7の詳細設定画面DTL1において「With Bag」のチェックをユーザ操作に基づいて外し(図14参照)、容疑者の全身画像の検索を人物検索サーバ50に実行させることができる。
従って、人物監視アプリは、図14において「With Bag」の選択肢SL4のチェックが外された後にイメージサーチボタンIS1が押下された場合、サムネイル画像Xpc21の人物と同一あるいは類似する人物(但し、黒い鞄を所有する条件は検索対象から除外)の検索要求を人物検索サーバ50に送る。同様に、人物検索サーバ50は、クライアント端末90から送られた検索要求に従って、サムネイル画像Xpc21の人物と同一あるいは類似する人物を検索(イメージサーチ)し、その検索結果をクライアント端末90に送る。
図15は、図14の詳細設定画面DTL1で設定された検索特徴を検索条件として用いたメタサーチおよびイメージサーチの併用による人物検索結果を時系列に表示する人物監視画面WD2の一例を示す図である。人物監視アプリは、サムネイル画像Xpc21の人物と同一あるいは類似する上述したイメージサーチの検索結果として、4人の人物に対応するサムネイル画像Xpc13,Xpc20,Xpc23,Xpc28を並べて人物監視画面WD2に表示する。
次に、実施の形態2に係る人物監視システム1の動作手順について、図16を参照して説明する。図16は、実施の形態2に係る人物監視システム1の動作手順の一例を示すシーケンス図である。図16でも、2台の監視カメラ(例えば、図6のアイコンPt1の地点に設置された監視カメラC1、アイコンPt2の地点に設置された監視カメラC2)が例示されているが、3台以上の監視カメラが例示されてもよい。また、図16の説明において、図11において説明した処理と同一の処理については同一のステップ番号を付与して説明を簡略化あるいは省略し、異なる内容について説明する。更に、図16の説明において、ステップSt21の処理の実行前に、図11に示すステップSt1~ステップSt20の処理が実行されてよい。
図16において、顔画像の照合処理において容疑者の顔画像と合致したと判定された時点(ステップSt23)より後に、その容疑者の顔画像が映る撮像映像を撮像した監視カメラの設置地点の周囲エリアにおいて、容疑者の顔および全身の再検索(言い換えると、容疑者の更なる追跡捜査)が行われる。具体的には、クライアント端末90は、ステップSt24の後、その周辺エリアを中心とした再検索(上述参照)を行うための人物(全身)用の検索特徴ならびに顔用の検索特徴をそれぞれ自動的に設定する(St31)。具体的には、人物用の検索特徴には、容疑者の顔画像が合致(ヒット)した地点に設置されている監視カメラ(以下、「ヒット監視カメラ」とも称する)の識別情報と、ヒットした容疑者の顔画像の撮像日時と、照合処理に用いる容疑者の全身画像PS1(ステップSt17参照)と、容疑者のヒット監視カメラの設置地点の通過時の移動方向とが含まれる。同様に、顔用の検索特徴には、ヒット監視カメラの識別情報と、ヒットした容疑者の顔画像の撮像日時と、照合処理に用いる容疑者の顔画像FC1(ステップSt18参照)と、容疑者のヒット監視カメラの設置地点の通過時の移動方向とが含まれる。
クライアント端末90(例えば人物監視アプリ)は、ステップSt31において生成された顔用の検索特徴を含む検索要求を生成して顔検索サーバ60に送る(St32)。同様に、クライアント端末90(例えば人物監視アプリ)は、ステップSt31において生成された人物用の検索特徴を含む検索要求を生成して人物検索サーバ50に送る(St33)。顔検索サーバ60は、ステップSt32において送られた検索要求に従い、その検索要求に含まれる検索特徴に基づいて、容疑者のヒット監視カメラの設置地点の通過時の移動方向に応じて、顔画像の照合処理閾値を変更する(St34、図12参照)。同様に、人物検索サーバ50は、ステップSt32において送られた検索要求に従い、その検索要求に含まれる検索特徴に基づいて、容疑者のヒット監視カメラの設置地点の通過時の移動方向に応じて、全身画像の照合処理閾値を変更する(St35、図12参照)。
監視カメラC1は、撮像映像のデータを顔検索サーバ60に送る(St21)。同様に、監視カメラC2は、撮像映像のデータを顔検索サーバ60に送る(St22)。なお、顔検索サーバ60は、監視カメラC1,C2のそれぞれからでなく、例えば映像レコーダ70から直接に監視カメラC1,C2のそれぞれの撮像映像のデータを取得してもよい。顔検索サーバ60は、ステップSt34において容疑者の移動方向に応じた照合処理閾値の変更処理後に、ステップSt20において登録された容疑者の顔画像と合致する(例えば同一あるいは類似する)顔画像を特定した(つまり、登録された容疑者の顔画像と照合した)場合に、その特定された顔画像と容疑者が発見された旨のアラーム通知とを関連付けてクライアント端末90に送る(St23a)。クライアント端末90は、ステップSt23aにおいて顔検索サーバ60から送られたアラーム通知に従って、所定のアラーム報知を実行する(St24)。
同様に、監視カメラC1は、撮像映像のデータを人物検索サーバ50に送る(St25)。同様に、監視カメラC2は、撮像映像のデータを顔検索サーバ60に送る(St26)。なお、人物検索サーバ50は、監視カメラC1,C2のそれぞれからでなく、例えば映像レコーダ70から直接に監視カメラC1,C2のそれぞれの撮像映像のデータを取得してもよい。人物検索サーバ50は、ステップSt35において容疑者の移動方向に応じた照合処理閾値の変更処理後に、ステップSt19において登録された容疑者の全身画像と合致する(例えば同一あるいは類似する)全身画像を特定した(つまり、登録された容疑者の全身画像と照合した)場合に、その特定された全身画像と容疑者が発見された旨のアラーム通知とを関連付けてクライアント端末90に送る(St27a)。クライアント端末90は、ステップSt27aにおいて人物検索サーバ50から送られたアラーム通知に従って、所定のアラーム報知(上述参照)を実行する(St28)。
上述したステップSt31からステップSt35までの処理とステップSt21からステップSt28までの処理とからなる一連の処理を纏めて便宜的に「B処理」と称し、このB処理は繰り返して実行される(B処理ループ)。これにより、人物監視システム1は、容疑者の逃走途中に監視カメラにたとえ容疑者の顔が映っていない(例えば容疑者の背面が映り、顔が映っていない)場合でも、逃走方向に合わせて照合処理の照合処理閾値を適応的に変更できるので逃走中の容疑者の追跡を継続して行え、早期の逮捕実現を支援できる。
また、逃走中の容疑者が逃走当初は大量の現金が入った鞄等を所持していたが、逃走途中で鞄を捨て去ったあるいは他の協力者に渡して逃走した可能性がある。このような可能性に鑑みて、ステップSt36以降の一連の処理(C処理)について説明する。
図16において、クライアント端末90は、例えばステップSt28の後、容疑者が逃走途中で鞄を所持しなくなった可能性を考慮したユーザの操作に基づき、詳細設定画面DTL1(図14参照)において「With Bag」の選択肢SL4のチェックが外された(つまり選択肢SL4を除外した)検索特徴を含む検索要求を生成(設定)する(St36)。クライアント端末90は、その生成された検索要求を、容疑者を追跡するための再検索あるいは追跡捜査(上述参照)のために、ステップSt36において生成された検索特徴を顔検索サーバ60および人物検索サーバ50のそれぞれに送る(St37,St38)。
顔検索サーバ60は、ステップSt37において送られた検索要求に従い、その検索要求に含まれる検索特徴に基づいて、容疑者のヒット監視カメラの設置地点の通過時の移動方向に応じて、顔画像の照合処理閾値を変更する(St34a、図12参照)。同様に、人物検索サーバ50は、ステップSt38において送られた検索要求に従い、その検索要求に含まれる検索特徴に基づいて、容疑者のヒット監視カメラの設置地点の通過時の移動方向に応じて、全身画像の照合処理閾値を変更する(St35a、図12参照)。
監視カメラC1は、撮像映像のデータを顔検索サーバ60に送る(St21)。同様に、監視カメラC2は、撮像映像のデータを顔検索サーバ60に送る(St22)。なお、顔検索サーバ60は、監視カメラC1,C2のそれぞれからでなく、例えば映像レコーダ70から直接に監視カメラC1,C2のそれぞれの撮像映像のデータを取得してもよい。顔検索サーバ60は、ステップSt34aにおいて容疑者の移動方向に応じた照合処理閾値の変更処理後に、ステップSt36において設定された検索特徴を満たしかつステップSt20において登録された容疑者の顔画像と合致する(例えば同一あるいは類似する)顔画像を特定した(つまり、登録された容疑者の顔画像と照合した)場合に、その特定された顔画像と容疑者が発見された旨のアラーム通知とを関連付けてクライアント端末90に送る(St23b)。クライアント端末90は、ステップSt23bにおいて顔検索サーバ60から送られたアラーム通知に従って、所定のアラーム報知を実行する(St24)。
同様に、監視カメラC1は、撮像映像のデータを人物検索サーバ50に送る(St25)。同様に、監視カメラC2は、撮像映像のデータを顔検索サーバ60に送る(St26)。なお、人物検索サーバ50は、監視カメラC1,C2のそれぞれからでなく、例えば映像レコーダ70から直接に監視カメラC1,C2のそれぞれの撮像映像のデータを取得してもよい。人物検索サーバ50は、ステップSt35aにおいて容疑者の移動方向に応じた照合処理閾値の変更処理後に、ステップSt36において設定された検索特徴を満たしかつステップSt19において登録された容疑者の全身画像と合致する(例えば同一あるいは類似する)全身画像を特定した(つまり、登録された容疑者の全身画像と照合した)場合に、その特定された全身画像と容疑者が発見された旨のアラーム通知とを関連付けてクライアント端末90に送る(St27b)。クライアント端末90は、ステップSt27aにおいて人物検索サーバ50から送られたアラーム通知に従って、所定のアラーム報知(上述参照)を実行する(St28)。
上述したステップSt36からステップSt38までの処理とステップSt34a,St35aの処理とステップSt21からステップSt28までの処理とからなる一連の処理を纏めて便宜的に「C処理」と称し、このC処理は繰り返して実行される(C処理ループ)。これにより、人物監視システム1は、容疑者の逃走途中に監視カメラにたとえ容疑者の顔が映っていない(例えば容疑者の背面が映り、顔が映っていない)場合でも、逃走方向に合わせて照合処理の照合処理閾値を適応的に変更できるので逃走中の容疑者の追跡を継続して行え、早期の逮捕実現を支援できる。
以上により、実施の形態2に係る人物監視システム1では、人物検索サーバ50は、注目人物(例えば容疑者)が発見された監視カメラの通過時の移動方向に基づいて、その移動方向に設置された1台以上の監視カメラの撮像映像を用いた第1の照合処理の閾値(例えば照合処理閾値)を所定値より低く設定する。これにより、人物検索サーバ50は、照合処理としてヒットした容疑者の監視カメラの設置地点の通過時の移動方向と、その移動方向に存在する監視カメラに近づく方向とが実質的に等しいという特性を利用して、容疑者の全身が特定困難な程度に撮像されている場合(例えば全身の正面が撮像不可な状態)でも的確に照合でき、容疑者の追跡を効果的に支援できる。また、顔検索サーバ60は、注目人物(例えば容疑者)が発見された監視カメラの通過時の移動方向に基づいて、その移動方向に設置された1台以上の監視カメラの撮像映像を用いた第2の照合処理の閾値(例えば照合処理閾値)を所定値より低く設定する。これにより、顔検索サーバ60は、照合処理としてヒットした容疑者の監視カメラの設置地点の通過時の移動方向と、その移動方向に存在する監視カメラに近づく方向とが実質的に等しいという特性を利用して、容疑者の顔が特定困難な程度に撮像されている場合(例えば顔の正面が撮像不可な状態)でも的確に照合でき、容疑者の追跡を効果的に支援できる。
また、人物検索サーバ50は、移動方向以外の方向に設置された1台以上の監視カメラの撮像映像を用いた第1の照合処理の閾値(例えば照合処理閾値)を所定値から変更しないで使用する。これにより、人物検索サーバ50は、照合処理としてヒットした容疑者の監視カメラの設置地点の通過時の移動方向と異なる方向から容疑者が近づく可能性を考慮して、容疑者の追跡を効果的に支援できる。また、顔検索サーバ60は、移動方向以外の方向に設置された1台以上の監視カメラの撮像映像を用いた第2の照合処理の閾値(例えば照合処理閾値)を所定値から変更しないで使用する。これにより、顔検索サーバ60は、照合処理としてヒットした容疑者の監視カメラの設置地点の通過時の移動方向と異なる方向から容疑者が近づく可能性を考慮して、容疑者の追跡を効果的に支援できる。
また、クライアント端末90は、注目人物(例えば容疑者)の所持品の有無、装着品の有無、服装、髪型からなる外見的特徴の変更操作に応じて、変更後の外見的特徴を含む検索特徴を用いた第1,第2の照合処理の実行要求を人物検索サーバ50および顔検索サーバ60のそれぞれに送る。人物検索サーバ50は、第1の照合処理により、変更後の検索特徴を満たす注目人物の全身画像と合致する人物を特定した場合に、注目人物が発見された旨のアラーム通知をクライアント端末90に送る。顔検索サーバ60は、第2の照合処理により、変更後の検索特徴を満たす注目人物の顔画像と合致する人物を特定した場合に、注目人物が発見された旨のアラーム通知をクライアント端末90に送る。これにより、逃走中の容疑者が逃走当初は大量の現金が入った鞄等を所持していたが、逃走途中で鞄を捨て去ったあるいは他の協力者に渡して逃走した可能性があったとしても、人物監視システム1は、容疑者を効率的に追跡可能である。
(実施の形態3の構成に至る経緯)
例えばひったくり、放火、空き巣、車上荒らし等の再犯性の高く経時的に連続的に行われ易い犯罪の場合、当然の事ながら、犯人はそれぞれの犯罪の現場に居合わせた人物である。このような犯罪による複数の事件等が連続的に発生した場合、警察捜査においても全ての事件現場に居合わせた人物を捜査することが多い。ところが、上述した特許文献1では、上述したような再犯性の高い事件等が連続的に発生した場合に、複数の事件現場に居合わせた人物の全身画像および顔画像を事件等の容疑者として抽出し、これらを用いて容疑者を追跡することは考慮されていない。
事件等が発生した場合、容疑者の外見的な特徴ならびにその行方を早期に把握することは警察の初動捜査において重要である。ところが、これまでの従来技術では、事件等が発生した際、警官は現場周辺の複数の箇所のそれぞれに設置された監視カメラにより撮影された映像の目視による閲覧および目撃者からの情報等の手掛かりを頼りに、容疑者に該当しそうな人物ならびに逃走方向を取捨選別していた。このため、警官は容疑者の外見的な特徴ならびに逃走方向の把握に時間がかかってしまい、初動捜査が遅れて効率が良くないという課題があった。
以下の実施の形態3では、再犯性の高い事件等が連続的に発生した際、容疑者の外見的な特徴を表す全身画像および顔画像を高精度に抽出して容疑者を追跡し、監視カメラの撮像映像に映る容疑者の逃走経路の早期把握を支援して警察捜査の利便性を向上する人物監視システムおよび人物監視方法を説明する。
(実施の形態3)
実施の形態3に係る人物監視システムの構成は実施の形態1に係る人物監視システム1の構成と同一であり、同一の構成については同一の符号を付与して説明を簡略化あるいは省略し、異なる内容について説明する。
図17は、複数地点の監視カメラのそれぞれに映る容疑者リストの一例を示す人物監視画面WD3の一例を示す図である。人物監視アプリは、ユーザ操作により、カメラ選択枠ASWK2を地図データMP1上に表示する。カメラ選択枠ASWK2は、人物監視画面WD3に表示される監視カメラの撮像映像MV1,MV2,MV3(例えばライブ映像)の選択に用いられる。図17では、ユーザ操作により、第1~第3の監視カメラの3台がカメラ選択枠ASWK2により選択されている。人物監視アプリは、カメラ選択枠ASWK2により選択済みであることを示すために、アイコンPt1~Pt3の表示態様を選択されていない監視カメラのアイコンPt4よりも識別し易くなるように表示してよい。
人物監視アプリは、上述した再犯性の高い事件等が連続的に発生した際、容疑者等の注目人物の検索を支援するための各種のボタンを人物監視画面WD3に表示する。例えば、カメラ選択枠ASWK2による選択に連動して、人物監視アプリは、選択された複数の監視カメラのそれぞれに容疑者がいたと思われる期間の入力画面Pt1TM,Pt2TM,Pt3TMを人物監視画面WD3に重畳して表示する。入力画面Pt1TM,Pt2TM,Pt3TMのそれぞれには、ユーザ操作により、第1の監視カメラ(アイコンPt1参照),第2の監視カメラ(アイコンPt2参照),第3の監視カメラ(アイコンPt3参照)に容疑者がいたと思われる期間が入力される。この例では、ユーザ操作により選択された監視カメラの台数は、k(k:k≦nを満たす2以上の整数)とした場合に、k=3となっている。
例えばひったくり等の再犯性の高い事件等が「Point3」(つまり第3の監視カメラの設置地点)→「Point1」(つまり第1の監視カメラの設置地点)→「Point2」(つまり第2の監視カメラの設置地点)の順に連続的に発生したとする。図17の例では、「Point3」での容疑者がいたと思われる期間として入力画面Pt3TMには、「2018年9月6日の午前10時」~「2018年9月6日の午前10時30分」が入力されている。同様に、「Point1」での容疑者がいたと思われる期間として入力画面Pt1TMには、「2018年9月6日の午前10時30分」~「2018年9月6日の午前11時」が入力されている。同様に、「Point2」での容疑者がいたと思われる期間として入力画面Pt2TMには、「2018年9月6日の午前11時」~「2018年9月6日の午前11時30分」が入力されている。
人物監視アプリは、ユーザ操作により、入力画面Pt1TM~Pt3TMのそれぞれに期間が入力されて連続インシデント容疑者検索ボタンSPS2が押下されたことを検知すると、入力画面Pt1TM~Pt3TMのそれぞれの期間および地点に存在した人物(例えば容疑者の候補となる人物)の全身,顔の検索要求をそれぞれ生成して人物検索サーバ50,顔検索サーバ60に送る。人物検索サーバ50は、クライアント端末90から送られた検索要求に従い、その検索要求に含まれる検索特徴(入力画面Pt1TM~Pt3TMのそれぞれの期間および地点に存在した人物)を満たす人物の全身画像を検索し、その検索結果のデータをクライアント端末90に送る。同様に、顔検索サーバ60は、クライアント端末90から送られた検索要求に従い、その検索要求に含まれる検索特徴(入力画面Pt1TM~Pt3TMのそれぞれの期間および地点に存在した人物)を満たす人物の顔画像を検索し、その検索結果のデータをクライアント端末90に送る。
人物監視アプリは、人物検索サーバ50および顔検索サーバ60からの検索結果のデータのうち少なくとも1つを用いて、「Point3」→「Point1」→「Point2」の順であってそれぞれの該当する期間に存在したと思われる容疑者の候補の画像を含む容疑者リストLST1,LST2,LST3を人物監視画面WD3に並べて表示する。容疑者リストLST1は、人物検索サーバ50あるいは顔検索サーバ60での容疑者の候補としての検索点数(スコア)と、容疑者の候補となる人物の全身を示すサムネイル画像Xpc211,Xpc212,Xpc213とにより構成される。容疑者リストLST2は、人物検索サーバ50あるいは顔検索サーバ60での容疑者の候補としての検索点数(スコア)と、容疑者の候補となる人物の全身を示すサムネイル画像Xpc221,Xpc222,Xpc223とにより構成される。容疑者リストLST3は、人物検索サーバ50あるいは顔検索サーバ60での容疑者の候補としての検索点数(スコア)と、容疑者の候補となる人物の全身を示すサムネイル画像Xpc231,Xpc232とにより構成される。図17の例では、容疑者リストLST1により示される人物が容疑者の候補として最も可能性が高いことが示されている。
なお、図17の例では容疑者の候補となり得る人物の全身画像のサムネイル画像が例示されているが、対応する人物の顔のサムネイル画像が例示されてもよいし、対応する人物の全身および顔の両方のサムネイル画像が例示されても構わない。人物監視アプリは、例えば容疑者リストLST1の枠内の任意の位置がユーザ操作により指定されたことを検知すると、サムネイル画像Xpc211~Xpc213のそれぞれの人物(同一人物)の監視カメラの設置地点の通過時の移動方向を地図データMP1上に重畳して表示してよい(図17参照)。例えば、サムネイル画像Xpc211の人物は、「Point3」地点を方向DRC4に移動(逃走)し、「Point1」地点を方向DRC1に移動(逃走)し、「Point2」地点を方向DRC2に移動(逃走)したことが示されている。
次に、実施の形態3に係る人物監視システム1の動作手順について、図18を参照して説明する。図18は、実施の形態3に係る人物監視システム1の動作手順の一例を示すシーケンス図である。図18では、2台の監視カメラ(例えば、図6のアイコンPt1の地点に設置された監視カメラC1、アイコンPt2の地点に設置された監視カメラC2)が例示されているが、3台以上の監視カメラが例示されてよい。また、図18の説明において、図11において説明した処理と同一の処理については同一のステップ番号を付与して説明を簡略化あるいは省略し、異なる内容について説明する。図18では、例えばひったくり等の再犯性の高い事件等が「Point3」→「Point1」→「Point2」の順に連続的に発生したことを想定する。
図18において、ステップSt7およびステップSt11の後、クライアント端末90(例えば人物監視アプリ)は、ユーザ操作により、図17に示す入力画面Pt1TM~Pt3TMのそれぞれに期間が入力されて連続インシデント容疑者検索ボタンSPS2が押下されたことを検知する(St41)。クライアント端末90は、入力画面Pt1TM~Pt3TMのそれぞれの期間および地点に存在した人物(例えば容疑者の候補となる人物)の全身,顔の検索要求をそれぞれ生成して人物検索サーバ50,顔検索サーバ60のそれぞれに送る(St42,St43)。
人物検索サーバ50は、クライアント端末90から送られた検索要求に従い、その検索要求に含まれる検索特徴(入力画面Pt1TM~Pt3TMのそれぞれの期間および地点に存在した人物)に対応する複数の監視カメラのそれぞれで対象となる期間中の同一人物を満たす人物の全身画像を検索する(St44)。同様に、顔検索サーバ60は、クライアント端末90から送られた検索要求に従い、その検索要求に含まれる検索特徴(入力画面Pt1TM~Pt3TMのそれぞれの期間および地点に存在した人物)に対応する複数の監視カメラのそれぞれで対象となる期間中の同一人物を満たす人物の顔画像を検索する(St45)。顔検索サーバ60は、ステップSt45の検索による検索結果のデータをクライアント端末90に送る(St46)。同様に、人物検索サーバ50は、ステップSt44の検索による検索結果のデータをクライアント端末90に送る(St47)。
クライアント端末90(例えば人物監視アプリ)は、人物検索サーバ50および顔検索サーバ60からの検索結果のデータのうち少なくとも1つを用いて、「Point3」→「Point1」→「Point2」の順であってそれぞれの該当する期間に存在したと思われる容疑者の候補の画像を含む容疑者リストLST1,LST2,LST3を人物監視画面WD3に並べて表示する(St48)。
以上により、実施の形態3に係る人物監視システム1は、n(n:2以上の整数)台の監視カメラ10,11,…のそれぞれと通信可能に接続された人物検索サーバ50および顔検索サーバ60と、人物検索サーバ50および顔検索サーバ60のそれぞれと通信可能に接続されたクライアント端末90と、を含む。人物検索サーバ50は、n台の監視カメラのそれぞれから送られた撮像映像を受信すると、それぞれの撮像映像に映る人物の全身を含む特徴情報を解析し、人物の全身を切り出した全身画像を解析結果として保持する。顔検索サーバ60は、n台の監視カメラのそれぞれから送られた撮像映像を受信すると、それぞれの撮像映像に映る人物の顔を含む特徴情報を解析し、人物の顔を切り出した顔画像を解析結果として保持する。クライアント端末90は、n台のうちk(k:k≦nを満たす2以上の整数)台の監視カメラとk台の監視カメラのそれぞれの撮像期間との指定に応じて、k台の監視カメラにより撮像された撮像映像に映る同一の注目人物の全身の検索処理の実行要求を人物検索サーバ50に送り、その同一の注目人物の顔の検索処理の実行要求を顔検索サーバ60に送る。人物検索サーバ50は、検索処理により、注目人物の全身画像と合致する人物を特定した場合に、k台の監視カメラごとの注目人物の全身画像を含む検索結果をクライアント端末90に送る。同様に、顔検索サーバ60は、検索処理により、注目人物の顔画像と合致する人物を特定した場合に、k台の監視カメラごとの注目人物の顔画像を含む検索結果をクライアント端末90に送る。
これにより、人物監視システム1は、ひったくり等の再犯性の高い事件等(上述参照)が連続的に発生した際、容疑者の外見的な特徴を表す全身画像および顔画像を高精度に抽出できるので、それぞれの事件現場に対応する複数の監視カメラのそれぞれの撮像映像を用いて容疑者を全身および顔の両方の観点から効率的に追跡できる。従って、人物監視システム1は、監視カメラの撮像映像に映る容疑者の逃走経路の早期把握を効果的に支援できるので、警察捜査の利便性を向上できる。
また、k台の監視カメラのそれぞれの設置地点、k台の監視カメラのそれぞれの撮像期間は、それぞれ異なる。これにより、ひったくり等の再犯性の高い事件等が割と短期間のうちに連続して発生しても、人物監視システム1は、k台の監視カメラのそれぞれの設置地点を対象とした同一の容疑者の候補となる人物を効率的に検索(抽出)でき、高精度に容疑者を絞り込みできる。
また、クライアント端末90は、人物検索サーバ50あるいは顔検索サーバ60またはその両方から送られた検索結果に基づいて、k台の監視カメラごとの注目人物の全身画像および顔画像のうち少なくとも1つを対応付けて並べて表示する。これにより、ユーザは、連続的に発生した再犯性の高い事件等の容疑者となり得る複数の人物のそれぞれの外見的な特徴(例えば、全身、顔あるいはその両方)を示す画像を比較しながら閲覧確認できるので、例えば目撃者からの通報内容と比べて怪しい人物を的確に絞り込め、容疑者の早期発見を行える。
以上、図面を参照しながら各種の実施の形態について説明したが、本開示はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。また、発明の趣旨を逸脱しない範囲において、上述した各種の実施の形態における各構成要素を任意に組み合わせてもよい。
なお、上述した実施の形態1,2,3では、監視カメラ10,11,…の設置場所は屋外(例えば交差点)を例示して説明したが、設置場所は屋外に限定されない。例えば、ショッピングモール等の屋内の施設内に設置されてもよい。この場合には、地図データMP1は、道路地図ではなく、該当する施設内の構内図(例えばショッピングモールの構内図)が人物監視画面WD1内に表示されてよい。
また、上述した実施の形態1,2,3では、警察の捜査において捜索対象人物として事件等を引き起こした犯人あるいはその犯人と行動を共にする共犯人物を例示して説明したが、捜索対象人物はこれらの例に限定されない。例えば、屋外あるいは屋内において迷子になった子どもを捜索対象人物としてもよい。この場合には、人物監視システム1は、巡回中の警官あるいは警備員がユーザとなって、捜索対象人物である迷子中の子どもを検索することができる。
本開示は、事件等が発生した際、容疑者の外見的な特徴を表す全身画像および顔画像を高精度に抽出して容疑者を追跡し、監視カメラの撮像映像に映る容疑者の逃走経路の早期把握を支援して警察捜査の利便性を向上する人物監視システムおよび人物監視方法として有用である。
1 人物監視システム
10、11 監視カメラ
50 人物検索サーバ
51、61、71、93、CP4 通信部
52、62、72、95、CP3 メモリ
53 人物検索部
54 人物解析部
55 人物照合部
56、66、76 ストレージ
60 顔検索サーバ
64 顔解析部
65 顔照合部
70 映像レコーダ
73 映像検索部
74 映像記録処理部
90 クライアント端末
91 操作部
92、CP2、PRC1、PRC2、PRC3 プロセッサ
94 ディスプレイ
96、CP5 ストレージ
561、661 解析情報データベース
562 事案データベース
CP1 撮像部

Claims (9)

  1. n(n:2以上の整数)台の監視カメラのそれぞれと通信可能に接続されたサーバと、前記サーバと通信可能に接続されたクライアント端末と、を含み、
    前記サーバは、
    前記n台の監視カメラのそれぞれから送られた撮像映像を受信すると、それぞれの前記撮像映像に映る人物の全身および顔を含む特徴情報を解析し、前記人物の全身を切り出した全身画像と前記人物の顔を切り出した顔画像とを解析結果として保持し、
    前記クライアント端末は、
    注目人物の全身画像および顔画像の指定に応じて、前記注目人物の全身画像を対象とする第1の照合処理、前記注目人物の顔画像を対象とする第2の照合処理のそれぞれの実行要求を前記サーバに送り、
    前記サーバは、
    前記第1の照合処理および前記第2の照合処理のうち少なくとも1つにより、前記注目人物の全身画像および顔画像のうち少なくとも1つと合致する人物を特定した場合に、前記注目人物が発見された旨のアラーム通知を前記クライアント端末に送る、
    人物監視システム。
  2. 前記サーバは、
    前記人物の移動方向を示す情報を前記解析結果として含めて保持するとともに、前記注目人物が発見された監視カメラの通過時の移動方向を含めて前記アラーム通知を送り、
    前記クライアント端末は、
    前記アラーム通知に基づいて、前記注目人物が発見された監視カメラの通過時の移動方向を前記注目人物の全身画像と対応付けてディスプレイに表示する、
    請求項1に記載の人物監視システム。
  3. 前記クライアント端末は、
    前記注目人物が発見された少なくとも1台の監視カメラの設置地点を示す地図データを前記ディスプレイに表示する、
    請求項2に記載の人物監視システム。
  4. 前記クライアント端末は、
    前記注目人物の全身画像および顔画像の両方と合致する人物が特定された場合に、前記注目人物が発見された旨のアラーム報知を行う、
    請求項1に記載の人物監視システム。
  5. 前記クライアント端末は、
    対象期間と、年齢、性別、身長、体型からなる第1の外見的特徴と、所持品の有無、装着品の有無、服装、髪型からなる第2の外見的特徴とを含む検索特徴の指定に応じて、前記注目人物の検索要求を送り、
    前記サーバは、
    前記検索特徴を満たす人物であって、その人物の顔画像の抽出が可能な程度に略正面方向を向いている人物の全身画像を検索結果として前記クライアント端末に送り、
    前記クライアント端末は、
    前記検索結果に対応する人物の全身画像および顔画像を、前記注目人物の全身画像および顔画像として指定する、
    請求項1に記載の人物監視システム。
  6. 前記サーバは、
    前記注目人物が発見された監視カメラの通過時の移動方向に基づいて、前記移動方向に設置された1台以上の監視カメラの撮像映像を用いた前記第1の照合処理および前記第2の照合処理のそれぞれの閾値を所定値より低く設定する、
    請求項1に記載の人物監視システム。
  7. 前記サーバは、
    前記移動方向以外の方向に設置された1台以上の監視カメラの撮像映像を用いた前記第1の照合処理および前記第2の照合処理のそれぞれの閾値を前記所定値から変更しないで使用する、
    請求項6に記載の人物監視システム。
  8. 前記クライアント端末は、
    前記注目人物の所持品の有無、装着品の有無、服装、髪型からなる外見的特徴の変更操作に応じて、変更後の前記外見的特徴を含む検索特徴を用いた前記第1の照合処理および前記第2の照合処理の実行要求を前記サーバに送り、
    前記サーバは、
    前記第1の照合処理および前記第2の照合処理のうち少なくとも1つにより、前記検索特徴を満たす前記注目人物の全身画像および顔画像のうち少なくとも1つと合致する人物を特定した場合に、前記注目人物が発見された旨のアラーム通知を前記クライアント端末に送る、
    請求項6に記載の人物監視システム。
  9. n(n:2以上の整数)台の監視カメラのそれぞれと通信可能に接続されたサーバと、前記サーバと通信可能に接続されたクライアント端末と、を含む人物監視システムにより実行される人物監視方法であって、
    前記n台の監視カメラのそれぞれから送られた撮像映像を受信すると、それぞれの前記撮像映像に映る人物の全身および顔を含む特徴情報を解析し、前記人物の全身を切り出した全身画像と前記人物の顔を切り出した顔画像とを解析結果として保持し、
    注目人物の全身画像および顔画像の指定に応じて、前記注目人物の全身画像を対象とする第1の照合処理、前記注目人物の顔画像を対象とする第2の照合処理のそれぞれの実行要求を前記サーバに送り、
    前記第1の照合処理および前記第2の照合処理のうち少なくとも1つにより、前記注目人物の全身画像および顔画像のうち少なくとも1つと合致する人物を特定した場合に、前記注目人物が発見された旨のアラーム通知を前記クライアント端末に送る、
    人物監視方法
JP2019077103A 2019-04-15 2019-04-15 人物監視システムおよび人物監視方法 Active JP7032350B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019077103A JP7032350B2 (ja) 2019-04-15 2019-04-15 人物監視システムおよび人物監視方法
US16/846,990 US11062160B2 (en) 2019-04-15 2020-04-13 Person monitoring system and person monitoring method
US17/341,478 US11640726B2 (en) 2019-04-15 2021-06-08 Person monitoring system and person monitoring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019077103A JP7032350B2 (ja) 2019-04-15 2019-04-15 人物監視システムおよび人物監視方法

Publications (2)

Publication Number Publication Date
JP2020178167A JP2020178167A (ja) 2020-10-29
JP7032350B2 true JP7032350B2 (ja) 2022-03-08

Family

ID=72748036

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019077103A Active JP7032350B2 (ja) 2019-04-15 2019-04-15 人物監視システムおよび人物監視方法

Country Status (2)

Country Link
US (2) US11062160B2 (ja)
JP (1) JP7032350B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7032350B2 (ja) * 2019-04-15 2022-03-08 パナソニックi-PROセンシングソリューションズ株式会社 人物監視システムおよび人物監視方法
US11074432B2 (en) * 2019-08-22 2021-07-27 Nice Ltd. Systems and methods for retrieving and presenting information using augmented reality
US20230056155A1 (en) * 2020-01-31 2023-02-23 Nec Corporation Information processing apparatus, information processing method, and storage medium
US11443510B2 (en) * 2020-08-03 2022-09-13 Motorola Solutions, Inc. Method, system and computer program product that provides virtual assistance in facilitating visual comparison
US20220083811A1 (en) * 2020-09-14 2022-03-17 Panasonic I-Pro Sensing Solutions Co., Ltd. Monitoring camera, part association method and program
US11808823B2 (en) 2021-06-02 2023-11-07 Getac Technology Corporation Detection of device dislocation using power and non-powered dislocation sensors
EP4350616A1 (en) * 2021-06-04 2024-04-10 Mitsubishi Electric Corporation Person retrieval device, person retrieval system, person retrieval method, and person retrieval program
US11864271B2 (en) * 2021-09-21 2024-01-02 Getac Technology Corporation Mobile device ID tracking for automatic incident data association and correlation

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004171240A (ja) 2002-11-20 2004-06-17 Casio Comput Co Ltd 不正監視システムおよびプログラム
JP2004177997A (ja) 2002-11-22 2004-06-24 Toshiba Corp 人物探索システム及び人物探索方法
JP2005012415A (ja) 2003-06-18 2005-01-13 Matsushita Electric Ind Co Ltd 監視映像モニタリングシステム、監視映像生成方法、および監視映像モニタリングサーバ
JP2007241377A (ja) 2006-03-06 2007-09-20 Sony Corp 検索システム、撮像装置、データ保存装置、情報処理装置、撮像画像処理方法、情報処理方法、プログラム
JP2009206617A (ja) 2008-02-26 2009-09-10 Nec Corp 顔認証を用いた防犯システム
JP2014153813A (ja) 2013-02-06 2014-08-25 Sony Corp 情報処理装置、情報処理方法、プログラム、及び情報処理システム
JP2016127563A (ja) 2015-01-08 2016-07-11 パナソニックIpマネジメント株式会社 人物追尾システム及び人物追尾方法
JP2017050615A (ja) 2015-08-31 2017-03-09 株式会社日立国際八木ソリューションズ システム間連携装置
JP2018011263A (ja) 2016-07-15 2018-01-18 パナソニックIpマネジメント株式会社 監視システム、監視カメラ、及び管理装置
JP2018151840A (ja) 2017-03-13 2018-09-27 グローリー株式会社 照合システム、照合方法および照合プログラム
JP2018169645A (ja) 2017-03-29 2018-11-01 パナソニック株式会社 通信装置、通信システムおよびコンテンツ収集方法
JP2019036872A (ja) 2017-08-17 2019-03-07 パナソニックIpマネジメント株式会社 捜査支援装置、捜査支援方法及び捜査支援システム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI278782B (en) * 2001-08-24 2007-04-11 Toshiba Corp Personal recognition apparatus
JP2006236244A (ja) * 2005-02-28 2006-09-07 Toshiba Corp 顔認証装置および入退場管理装置
US10109315B2 (en) * 2005-03-01 2018-10-23 Eyesmatch Ltd Devices, systems and methods for auto-delay video presentation
US8194938B2 (en) * 2009-06-02 2012-06-05 George Mason Intellectual Properties, Inc. Face authentication using recognition-by-parts, boosting, and transduction
JP5794410B2 (ja) * 2010-12-20 2015-10-14 日本電気株式会社 認証カード、認証システム、ガイダンス方法及びプログラム
JP6268497B2 (ja) 2015-08-17 2018-01-31 パナソニックIpマネジメント株式会社 警備システム、及び人物画像表示方法
JP7032350B2 (ja) * 2019-04-15 2022-03-08 パナソニックi-PROセンシングソリューションズ株式会社 人物監視システムおよび人物監視方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004171240A (ja) 2002-11-20 2004-06-17 Casio Comput Co Ltd 不正監視システムおよびプログラム
JP2004177997A (ja) 2002-11-22 2004-06-24 Toshiba Corp 人物探索システム及び人物探索方法
JP2005012415A (ja) 2003-06-18 2005-01-13 Matsushita Electric Ind Co Ltd 監視映像モニタリングシステム、監視映像生成方法、および監視映像モニタリングサーバ
JP2007241377A (ja) 2006-03-06 2007-09-20 Sony Corp 検索システム、撮像装置、データ保存装置、情報処理装置、撮像画像処理方法、情報処理方法、プログラム
JP2009206617A (ja) 2008-02-26 2009-09-10 Nec Corp 顔認証を用いた防犯システム
JP2014153813A (ja) 2013-02-06 2014-08-25 Sony Corp 情報処理装置、情報処理方法、プログラム、及び情報処理システム
JP2016127563A (ja) 2015-01-08 2016-07-11 パナソニックIpマネジメント株式会社 人物追尾システム及び人物追尾方法
JP2017050615A (ja) 2015-08-31 2017-03-09 株式会社日立国際八木ソリューションズ システム間連携装置
JP2018011263A (ja) 2016-07-15 2018-01-18 パナソニックIpマネジメント株式会社 監視システム、監視カメラ、及び管理装置
JP2018151840A (ja) 2017-03-13 2018-09-27 グローリー株式会社 照合システム、照合方法および照合プログラム
JP2018169645A (ja) 2017-03-29 2018-11-01 パナソニック株式会社 通信装置、通信システムおよびコンテンツ収集方法
JP2019036872A (ja) 2017-08-17 2019-03-07 パナソニックIpマネジメント株式会社 捜査支援装置、捜査支援方法及び捜査支援システム

Also Published As

Publication number Publication date
US11640726B2 (en) 2023-05-02
JP2020178167A (ja) 2020-10-29
US20200327347A1 (en) 2020-10-15
US11062160B2 (en) 2021-07-13
US20210297580A1 (en) 2021-09-23

Similar Documents

Publication Publication Date Title
JP7032350B2 (ja) 人物監視システムおよび人物監視方法
JP6573346B1 (ja) 人物検索システムおよび人物検索方法
CN109886078B (zh) 目标对象的检索定位方法和装置
JP7258596B2 (ja) 捜査支援システムおよび捜査支援方法
WO2020152851A1 (ja) デジタルサーチ・セキュリティシステム、方法及びプログラム
JP5674406B2 (ja) 自律移動体を用いた監視システム、監視装置、自律移動体、監視方法、及び監視プログラム
JP4984728B2 (ja) 被写体照合装置および被写体照合方法
JP6854881B2 (ja) 顔画像照合システムおよび顔画像検索システム
US11854357B2 (en) Object tracking using disparate monitoring systems
US10127705B2 (en) Method and apparatus for dynamic geofence searching of an incident scene
JP6210650B2 (ja) 画像検索システム及び画像検索方法
JP2024015359A (ja) 人物検出システム
JP2020137069A (ja) 捜査支援システムおよび捜査支援方法
JP7464281B2 (ja) 光ファイバセンシングシステム、監視装置、監視方法、及びプログラム
JP2018526945A (ja) ビデオ識別および分析認識システム
CN105956091A (zh) 扩展信息获取方法及装置
US11846941B2 (en) Drone graphical user interface
JP7235612B2 (ja) 人物検索システムおよび人物検索方法
JP2018195992A (ja) 人物グループ追跡装置および人物グループ追跡方法
JP7409638B2 (ja) 捜査支援システムおよび捜査支援方法
WO2021100574A1 (ja) 捜査支援システムおよび捜査支援方法
JP2021144506A (ja) 顔検知方法、顔検知プログラムおよびサーバ
KR20120068150A (ko) 객체 추적 시스템 및 그 방법
JP2020191585A (ja) 情報処理装置、情報処理方法及びプログラム
JP6112346B2 (ja) 情報収集システム、プログラムおよび情報収集方法

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20190731

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191205

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20201224

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210423

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210423

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220224

R150 Certificate of patent or registration of utility model

Ref document number: 7032350

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350