JP2020047259A - Person search system and person search method - Google Patents

Person search system and person search method Download PDF

Info

Publication number
JP2020047259A
JP2020047259A JP2019129406A JP2019129406A JP2020047259A JP 2020047259 A JP2020047259 A JP 2020047259A JP 2019129406 A JP2019129406 A JP 2019129406A JP 2019129406 A JP2019129406 A JP 2019129406A JP 2020047259 A JP2020047259 A JP 2020047259A
Authority
JP
Japan
Prior art keywords
person
search
image
cameras
client terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019129406A
Other languages
Japanese (ja)
Other versions
JP7235612B2 (en
Inventor
優実 三宅
Yumi Miyake
優実 三宅
貴光 荒井
Takamitsu Arai
貴光 荒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
iPro Co Ltd
Original Assignee
Panasonic iPro Sensing Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic iPro Sensing Solutions Co Ltd filed Critical Panasonic iPro Sensing Solutions Co Ltd
Priority to JP2019129406A priority Critical patent/JP7235612B2/en
Publication of JP2020047259A publication Critical patent/JP2020047259A/en
Application granted granted Critical
Publication of JP7235612B2 publication Critical patent/JP7235612B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide a person search system and a person search method in which, when an incident or the like occurs at a point where many persons come and go, a captured image of a person who is visually similar to a suspect is extracted with high accuracy, a prompt grasp of visual characteristics or the like of the suspect is efficiently supported, and the convenience of a police investigation is certainly improved.SOLUTION: When different captured videos transmitted respectively from n cameras are received, a server analyzes position information and characteristic information on a person appearing in each of the captured videos and accumulates as analysis results. A client terminal displays, on a screen, the captured videos of k cameras (k≤n). According to a selection of a search target person appearing in any of them, the client terminal transmits, to the server, a search request for the search target person in the remaining k-1 captured videos. The server extracts the analysis results regarding the search target person in the k-1 captured videos, and transmits them to the client terminal. The client terminal displays, side by side, cut-out images of multiple persons identical or similar to the search target person on the basis of the analysis results regarding the search target person.SELECTED DRAWING: Figure 15

Description

本開示は、カメラにより撮影された映像を用いて、カメラの視野に映る人物を検索する人物検索システムおよび人物検索方法に関する。   The present disclosure relates to a person search system and a person search method for searching for a person appearing in the field of view of a camera using an image captured by the camera.

特許文献1には、監視領域において所定の事象が検知された場合に、レコーダに記録した撮像画像から被疑者が撮像された撮像画像を抽出し、被疑者の行動に基づく遷移撮像画像を表示するとともに、撮像画像の撮像位置を示す地図情報を表示する警備システムが開示されている。警備システムは、遷移撮像画像について位置表示対象の撮像画像の選択入力を受けた場合に、該当する撮像画像の撮像地点の位置情報を、地図情報上に表示する。これにより、監視領域における人物等の監視対象の行動に関する追跡情報を視覚的に得られる。   Patent Literature 1 extracts a captured image of a suspect from a captured image recorded in a recorder when a predetermined event is detected in a monitoring area, and displays a transition captured image based on the behavior of the suspect. In addition, a security system that displays map information indicating the imaging position of a captured image is disclosed. The security system displays, on the map information, the position information of the imaging point of the corresponding captured image when the selection input of the captured image of the position display target is received for the transition captured image. This makes it possible to visually obtain tracking information on the behavior of a monitoring target such as a person in the monitoring area.

特開2017−40983号公報JP 2017-40983 A

しかし、特許文献1では、多くの人が行き交う地点(例えば交差点)において発生した事件または事故(以下「事件等」)を引き起こした人物(つまり犯人)に視覚的に類似する人物を撮像したカメラの撮像画像を特定し、この特定された撮像画像を手掛かりに類似する撮像画像を他のカメラの撮像映像から検索することは考慮されていない。   However, in Patent Literature 1, a camera that captures a person visually resembling a person (that is, a criminal) that caused an incident or accident (hereinafter, “incident or the like”) that occurred at a point (for example, an intersection) where many people come and go is described. No consideration is given to specifying a captured image and retrieving a captured image similar to a clue from the captured video of another camera with the specified captured image.

事件等が発生した場合、犯人の視覚的な特徴ならびにその行方を早期に把握することは警察の初動捜査において重要である。ところが、これまでの従来技術では、交差点に設置されたカメラにより撮影された映像や目撃情報等の手掛かりを収集し、警察官がこれらの映像や目撃情報等を頼りに、犯人に該当しそうな人物の特徴や逃走方向を把握していた。このため、警察官は犯人の特徴や逃走方向の把握に時間がかかっており、初動捜査が遅れる可能性があり効率的でないという課題があった。   When an incident or the like occurs, it is important to grasp the visual characteristics and the whereabouts of the criminal at an early stage in an initial police investigation. However, in the conventional technology up to now, clues such as images taken by cameras installed at intersections and sighting information are collected, and police officers rely on these images and sighting information, etc. I knew the characteristics and the direction of escape. For this reason, it takes time for police officers to grasp the characteristics of the culprit and the direction of the escape, and there is a problem that the initial investigation may be delayed, which is inefficient.

本開示は、上述した従来の事情に鑑みて案出され、多くの人が行き交う地点で事件等が発生した場合、犯人に視覚的に類似する人物の撮像画像を高精度に抽出し、犯人の視覚的な特徴等の早期把握を効率的に支援し、警察捜査の利便性を的確に向上する人物検索システムおよび人物検索方法を提供することを目的とする。   The present disclosure is devised in view of the conventional circumstances described above, and when an incident or the like occurs at a point where many people come and go, a captured image of a person visually similar to the criminal is extracted with high accuracy, and the criminal It is an object of the present invention to provide a person search system and a person search method that efficiently support early grasp of visual features and the like, and appropriately improve the convenience of police investigation.

本開示は、n(n:3以上の整数)台のカメラのそれぞれと通信可能に接続されたサーバと、前記サーバと通信可能に接続されたクライアント端末と、を含み、前記サーバは、前記n台のカメラのそれぞれから送られた異なる撮像映像を受信すると、それぞれの前記撮像映像に映る人物の位置情報および特徴情報を解析して解析結果として蓄積し、前記クライアント端末は、前記n台のカメラのうちユーザ操作により選択されたk(k:k≦nを満たす2以上の整数)台のカメラの撮像映像のそれぞれを画面に表示し、k台の前記カメラの撮像映像のうちいずれかに映る捜索対象人物の選択に応じて、前記捜索対象人物が映る撮像映像を撮像したカメラ以外の(k−1)台のカメラにより撮像された撮像映像における前記捜索対象人物の検索要求を前記サーバに送り、前記サーバは、前記検索要求に応じて、前記解析結果を用いて(k−1)台の前記カメラの撮像映像における前記捜索対象人物および前記捜索対象人物の前記(k−1)台のカメラの配置された交差点における移動方向を抽出して前記クライアント端末に送り、前記クライアント端末は、前記(k−1)台のカメラの配置された交差点における前記捜索対象人物の移動方向を、前記k台のカメラが設置された交差点を示す地図データに重畳して表示する、人物検索システムを提供する。   The present disclosure includes a server communicably connected to each of n (n: an integer of 3 or more) cameras, and a client terminal communicably connected to the server, wherein the server includes the n Receiving different captured images sent from each of the cameras, analyzes the position information and characteristic information of the person shown in each of the captured images and accumulates the information as an analysis result; and the client terminal includes the n cameras Of the k cameras (k: an integer of 2 or more that satisfies k ≦ n) selected by the user operation are displayed on the screen, and are displayed on any of the k cameras. According to the selection of the search target person, the search target person is searched for in the video images captured by (k-1) cameras other than the camera that captured the video image of the search target person. Request to the server, and in response to the search request, the server uses the analysis results and uses the analysis results to obtain the search target person and the (k) of the search target person in the video images captured by the (k-1) cameras. -1) The moving direction at the intersection where the cameras are arranged is extracted and sent to the client terminal. The client terminal moves the search target person at the intersection where the (k-1) cameras are arranged. Provided is a person search system that displays a direction in a manner superimposed on map data indicating an intersection where the k cameras are installed.

また、本開示は、n(n:3以上の整数)台のカメラのそれぞれと通信可能に接続されたサーバと、前記サーバと通信可能に接続されたクライアント端末と、を用いた人物検索方法であって、前記サーバは、前記n台のカメラのそれぞれから送られた異なる撮像映像を受信すると、それぞれの前記撮像映像に映る人物の位置情報および特徴情報を解析して解析結果として蓄積し、前記クライアント端末は、前記n台のカメラのうちユーザ操作により選択されたk(k:k≦nを満たす2以上の整数)台のカメラの撮像映像のそれぞれを画面に表示し、k台の前記カメラの撮像映像のうちいずれかに映る捜索対象人物の選択に応じて、前記捜索対象人物が映る撮像映像を撮像したカメラ以外の(k−1)台のカメラにより撮像された撮像映像における前記捜索対象人物の検索要求を前記サーバに送り、前記サーバは、前記検索要求に応じて、前記解析結果を用いて(k−1)台の前記カメラの撮像映像における前記捜索対象人物および前記捜索対象人物の前記(k−1)台のカメラの配置された交差点における移動方向を抽出して前記クライアント端末に送り、前記クライアント端末は、前記(k−1)台のカメラの配置された交差点における前記捜索対象人物の移動方向を、前記k台のカメラが設置された交差点を示す地図データに重畳して表示する、人物検索方法を提供する。   Further, the present disclosure provides a person search method using a server communicably connected to each of n (n: an integer of 3 or more) cameras, and a client terminal communicably connected to the server. When the server receives different captured images sent from each of the n cameras, the server analyzes the position information and feature information of the person reflected in each of the captured images, accumulates the information as an analysis result, and The client terminal displays, on a screen, each of the captured images of k (k: an integer of 2 or more that satisfies k ≦ n) cameras selected by a user operation among the n cameras, and displays the k cameras According to the selection of the search target person appearing in any one of the captured images, the captured image captured by (k-1) cameras other than the camera that captured the image captured by the search target person The server sends a search request for the search target person to the server, and the server uses the analysis result in response to the search request and uses the analysis result to obtain the search target person and the image in (k-1) cameras. The direction of movement of the search target person at the intersection where the (k-1) cameras are arranged is extracted and sent to the client terminal, and the client terminal is connected to the intersection where the (k-1) cameras are arranged. In which the moving direction of the search target person is superimposed and displayed on map data indicating an intersection where the k cameras are installed.

本開示によれば、多くの人が行き交う地点で事件等が発生した場合、犯人に視覚的に類似する人物の撮像画像を高精度に抽出でき、犯人の視覚的な特徴ならびに逃走方向の早期把握を効率的に支援できるので、警察捜査の利便性を的確に向上できる。   According to the present disclosure, when an incident or the like occurs at a point where many people come and go, a captured image of a person visually similar to the criminal can be extracted with high accuracy, and the visual characteristics and the escape direction of the criminal can be quickly grasped. Can be efficiently supported, and the convenience of police investigations can be accurately improved.

人物検索システムのシステム構成例を示すブロック図Block diagram showing a system configuration example of a person search system カメラの内部構成例を示すブロック図Block diagram showing an example of the internal configuration of the camera 人物検索サーバおよびクライアント端末のそれぞれの内部構成例を示すブロック図Block diagram showing an example of the internal configuration of each of the person search server and the client terminal 映像レコーダの内部構成例を示すブロック図Block diagram showing an example of the internal configuration of a video recorder カメラが設置された交差点を含む地図データを表示する人物検索画面の一例を示す図The figure which shows an example of the person search screen which displays the map data containing the intersection where the camera was installed 選択されたカメラの撮像映像(ライブ映像)を表示する人物検索画面の一例を示す図The figure which shows an example of the person search screen which displays the picked-up image (live image) of the selected camera 検索される捜索対象人物の特徴情報の設定画面の一例を示す図Diagram showing an example of a setting screen of feature information of a search target person to be searched 設定された特徴情報を検索条件として用いたメタサーチによる人物検索結果を時系列に表示する人物検索画面の一例を示す図The figure which shows an example of the person search screen which displays the person search result by the metasearch using the set characteristic information as a search condition in time series 選択された切り出し画像に対応する撮像映像の再生画面の表示例を示す図The figure which shows the example of a display of the reproduction screen of the picked-up image | video corresponding to the selected cut-out image. 実施の形態1に係る人物検索システムの動作手順例を説明するフローチャート4 is a flowchart illustrating an example of an operation procedure of the person search system according to the first embodiment. 選択された切り出し画像のイメージサーチの検索条件への設定例を示す図A diagram showing an example of setting a selected cutout image to a search condition of an image search. 図9の撮像映像の再生画面に表示された人物枠を用いたイメージサーチの検索条件の設定例を示す図The figure which shows the example of a setting of the search condition of the image search using the person frame displayed on the reproduction screen of the captured image of FIG. 図11の選択された切り出し画像あるいは図12の人物枠を用いたイメージサーチによる人物検索結果を時系列に表示する人物検索画面の一例を示す図FIG. 11 is a diagram illustrating an example of a person search screen that displays a person search result by image search using the selected cutout image of FIG. 11 or the person frame of FIG. 12 in chronological order; 所定のユーザ操作による不要な人物検索結果の削除例を示す図Diagram showing an example of deleting unnecessary person search results by a predetermined user operation 実施の形態2に係る人物検索システムの動作手順例を説明するフローチャート9 is a flowchart for explaining an example of an operation procedure of the person search system according to the second embodiment. 図9の撮像映像の再生画面に表示された他の人物の人物枠をイメージサーチの検索条件として用いた場合の人物検索結果を時系列に表示する人物検索画面の一例を示す図The figure which shows an example of the person search screen which displays the person search result at the time series when the person frame of another person displayed on the reproduction screen of the captured image of FIG. 9 is used as a search condition of image search. ユーザ操作による不要な人物検索結果の削除例を示す図Diagram showing an example of deleting unnecessary person search results by user operation 実施の形態3に係る人物検索システムの動作手順例を説明するフローチャートFlowchart for explaining an example of an operation procedure of the person search system according to the third embodiment

(実施の形態1の構成に至る経緯)
上述した特許文献1では、多くの人が行き交う場所(例えば交差点)において発生した事件等を引き起こした人物(つまり犯人)の服装等の外見に関する特徴情報を基にして複数のカメラの撮像映像を対象として検索し、その特徴情報を満たす人物の切り出し画像を視覚的に提示することは考慮されていない。
(Process leading to the configuration of Embodiment 1)
In the above-mentioned Patent Literature 1, images captured by a plurality of cameras are targeted based on characteristic information relating to the appearance of a person (that is, a criminal) who caused an incident or the like at a place where many people come and go (for example, an intersection). , And visually presenting a cutout image of a person who satisfies the feature information is not considered.

事件等が発生した場合、犯人の外見に関する特徴ならびにその行方を早期に把握することは警察の初動捜査において重要である。ところが、これまでの従来技術では、交差点に設置されたカメラにより撮影された映像や目撃情報等の手掛かりを収集し、警察官がこれらの映像や目撃情報等を頼りに、犯人に該当しそうな人物の外見的な特徴や逃走方向を把握していた。このため、警察官は犯人の外見的な特徴や逃走方向の把握に時間がかかっており、初動捜査が遅れる可能性があり効率的でないという課題があった。   In the event of an incident, it is important in the initial police investigation to grasp the characteristics of the criminal's appearance and whereabouts at an early stage. However, in the conventional technology up to now, clues such as images taken by cameras installed at intersections and sighting information are collected, and police officers rely on these images and sighting information, etc. I knew the appearance characteristics and the direction of the escape. For this reason, it takes time for police officers to grasp the appearance characteristics and escape direction of the criminal, and there has been a problem that the initial investigation may be delayed and it is not efficient.

以下の実施の形態1では、多くの人が行き交う地点で事件等が発生した場合、犯人の服装等の外見に関する特徴情報を基にして複数のカメラの撮像映像から視覚的に類似する人物の撮像画像を抽出し、犯人の視覚的な特徴ならびに逃走方向の早期把握を効率的に支援し、警察捜査の利便性を的確に向上する人物検索システムおよび人物検索方法の例を説明する。   In the following first embodiment, when an incident or the like occurs at a point where many people come and go, an image of a visually similar person is captured from the captured images of a plurality of cameras based on characteristic information on the appearance of the criminal's clothes and the like. An example of a person search system and a person search method that extracts an image, efficiently supports the visual characteristics of the criminal and the early direction of the escape, and appropriately improves the convenience of the police investigation will be described.

(実施の形態1)
以下、添付図面を適宜参照しながら、本開示に係る人物検索システムおよび人物検索方法を具体的に開示した実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。
(Embodiment 1)
Hereinafter, an embodiment that specifically discloses a person search system and a person search method according to the present disclosure will be described in detail with reference to the accompanying drawings as appropriate. However, an unnecessary detailed description may be omitted. For example, a detailed description of a well-known item or a redundant description of substantially the same configuration may be omitted. This is to prevent the following description from being unnecessarily redundant and to facilitate understanding by those skilled in the art. The accompanying drawings and the following description are provided to enable those skilled in the art to fully understand the present disclosure, and are not intended to limit the claimed subject matter.

以下、多くの人が行き交う地点(例えば交差点あるいはその近辺)において事件等(例えば、事件または事故)を引き起こした犯人等の人物の捜索を行う警察捜査を人物検索システムによって支援する例を説明する。   Hereinafter, an example will be described in which a person search system supports a police search for searching for a person such as a criminal who caused an incident or the like (for example, an incident or an accident) at a point where many people come and go (for example, at or near an intersection).

図1は、人物検索システム100のシステム構成例を示すブロック図である。人物検索システム100は、n(n:3以上の整数)のカメラ10,10a,…と、人物検索サーバ50と、映像レコーダ70と、クライアント端末90とを含む構成である。カメラ10,10a,…のそれぞれは、図1に示すように、屋外(例えば、多くの人が行き交う交差点等の地点)に設置される。但し、カメラ10,10a,…のそれぞれは、屋外に設置されることに限定されない。人物検索サーバ50と映像レコーダ70とクライアント端末90とは、例えば警察署内の所定の部屋に設置される。但し、人物検索サーバ50と映像レコーダ70とクライアント端末90とは、警察署内に設置されることに限定されない。なお、以下の説明において、映像レコーダ70は、警察署内でのオンプレミスによる管理でなく、人物検索サーバ50とインターネット等の通信回線を介して接続されるオンラインストレージとして設けられてもよい。   FIG. 1 is a block diagram illustrating a system configuration example of the person search system 100. The person search system 100 includes n (n: an integer of 3 or more) cameras 10, 10a,..., A person search server 50, a video recorder 70, and a client terminal 90. Each of the cameras 10, 10a,... Is installed outdoors (for example, at a point such as an intersection where many people come and go) as shown in FIG. However, each of the cameras 10, 10a,... Is not limited to being installed outdoors. The person search server 50, the video recorder 70, and the client terminal 90 are installed, for example, in a predetermined room in a police station. However, the person search server 50, the video recorder 70, and the client terminal 90 are not limited to being installed in a police station. In the following description, the video recorder 70 may be provided as online storage connected to the person search server 50 via a communication line such as the Internet, instead of on-premises management in a police station.

人物検索システム100では、1つの交差点に対し、1台のカメラ(例えば、カメラ10)が設置される。なお、1つの交差点に対し、複数台のカメラ(例えば、カメラ10、あるいはカメラ10とは内部構成が異なる既設のカメラ)が設置されてもよい。従って、ある交差点においてはカメラ10が設置され、別の交差点においてはカメラ10aが設置される。なお、カメラ10,10a,…のそれぞれの内部構成は同一とする。カメラ10,10a,…は、イントラネットあるいはインターネットの通信回線等のネットワークNW1を介して、人物検索サーバ50および映像レコーダ70のそれぞれとの間で通信可能に接続される。ネットワークNW1は、有線通信回線(例えば、光ファイバを用いた光通信網)により構成されるが、無線通信網により構成されてもよい。   In the person search system 100, one camera (for example, camera 10) is installed at one intersection. Note that a plurality of cameras (for example, the camera 10 or an existing camera having an internal configuration different from that of the camera 10) may be installed at one intersection. Therefore, the camera 10 is installed at a certain intersection, and the camera 10a is installed at another intersection. It is assumed that the cameras 10, 10a,... Have the same internal configuration. The cameras 10, 10a,... Are communicably connected to the person search server 50 and the video recorder 70 via a network NW1 such as an intranet or Internet communication line. The network NW1 is configured by a wired communication line (for example, an optical communication network using an optical fiber), but may be configured by a wireless communication network.

それぞれのカメラ10,10a,…は、交差点に設置された際に設定された画角で被写体(例えば、交差点の状況を示す映像)を撮像可能な監視カメラであり、人物検索サーバ50および映像レコーダ70のそれぞれに撮像映像のデータを繰り返して送る。撮像映像のデータには、撮像映像のデータに限らず、その撮像映像を撮像したカメラの識別情報(言い換えると、対応するカメラが設置された交差点の位置情報)と、撮像日時の情報とが含まれる。   Each of the cameras 10, 10a,... Is a surveillance camera capable of capturing an object (for example, an image indicating the state of an intersection) at an angle of view set when installed at an intersection, and includes a person search server 50 and an image recorder. The data of the picked-up video is repeatedly sent to each of 70. The data of the captured video is not limited to the data of the captured video, but includes identification information of the camera that captured the captured video (in other words, position information of the intersection where the corresponding camera is installed) and information of the capturing date and time. It is.

人物検索サーバ50(サーバの一態様)は、例えば警察署内に設置され、その警察署の管轄地域内の全てあるいは一部の交差点に設置されたカメラ10,10a,…のそれぞれから送られた撮像映像のデータを受信し、プロセッサPRC1(図3参照)による各種の処理のためにメモリ52あるいは蓄積部56(図3参照)に一時的に保存する。   The person search server 50 (an embodiment of a server) is installed, for example, in a police station, and is sent from each of the cameras 10, 10a,... Installed in all or some of the intersections in the jurisdiction of the police station. The data of the captured video is received and temporarily stored in the memory 52 or the storage unit 56 (see FIG. 3) for various processes by the processor PRC1 (see FIG. 3).

保存された撮像映像のデータは、カメラ10,10a,…のそれぞれから送られて人物検索サーバ50において受信される度に、人物検索サーバ50によって、その撮像映像に映る人物の位置情報および特徴情報の解析がなされる。その解析結果は、事件等を引き起こした犯人の検索に用いられるように、人物検索サーバ50の蓄積部56に保存される。具体的には、人物検索サーバ50は、前述した解析結果として、撮像映像の内容に関するタグ情報(例えば、撮像映像中に映る人物の顔、性別、年齢、身長、体型、服装等の特徴情報)を取得し、このタグ情報を撮像映像のデータに関連付けて付与して蓄積部56に蓄積してよい。例えば事件等のイベントが発生した場合、クライアント端末90は、犯人の人物像(捜索対象人物の一態様)に関する視覚的な外見に関する特徴情報(図7参照)を入力するユーザ操作を受け付けると、その特徴情報を満たす犯人の人物像の検索要求を生成して人物検索サーバ50に送る。人物検索サーバ50は、この検索要求に応じて、前述したそれぞれのカメラの撮像映像の解析結果を用いて、検索要求に含まれる特徴情報を満たす人物を検索する。   Each time the stored captured image data is sent from each of the cameras 10, 10 a,... And received by the person search server 50, the person search server 50 causes the person position information and feature information of the person to appear in the captured image. Is analyzed. The analysis result is stored in the storage unit 56 of the person search server 50 so as to be used for searching for the culprit who caused the case or the like. Specifically, the person search server 50 obtains, as the analysis result described above, tag information relating to the content of the captured video (for example, characteristic information such as the face, gender, age, height, body type, and clothes of a person reflected in the captured video). May be acquired, the tag information may be added in association with the data of the captured video, and stored in the storage unit 56. For example, when an event such as an incident occurs, the client terminal 90 receives a user operation of inputting characteristic information (see FIG. 7) relating to the visual appearance of the culprit (one mode of the search target person), and A search request for a criminal person image satisfying the characteristic information is generated and sent to the person search server 50. In response to the search request, the person search server 50 searches for a person who satisfies the characteristic information included in the search request, using the analysis result of the captured image of each camera described above.

人物検索サーバ50は、一部の撮像映像(例えば、警察署内の管理者が使用する端末(図示略)の操作により選択された撮像映像(例えば、重要事件あるいは重大事件の撮像映像))を映像レコーダ70に送って蓄積させてもよい。   The person search server 50 retrieves a part of the captured video (for example, a captured video selected by an operation of a terminal (not shown) used by an administrator in a police station (for example, a captured video of an important incident or a serious incident)). It may be sent to the video recorder 70 and accumulated.

クライアント端末90は、例えば警察署内に設置され、その警察署内の職員(つまり、警察署内のユーザである警察官)により使用され、例えばラップトップ型またはノート型のPC(Personal Computer)である。ユーザは、例えば事件等が発生した場合、その事件等の発生を警察署に通報した通報者からの電話により、その事件等に関する様々な情報を目撃情報として、クライアント端末90を操作することでデータ入力して記録する。なお、クライアント端末90は、上述した型のPCに限定されず、例えばスマートフォン、タブレット端末、PDA(Personal Digital Assistant)等の通信機能を有するコンピュータであってもよい。クライアント端末90は、上述した目撃情報に合致する捜索対象人物(つまり、事件等を引き起こした犯人)の検索を人物検索サーバ50に実行させるための検索要求を人物検索サーバ50に送り、その検索結果を受信してディスプレイ94に表示する。   The client terminal 90 is installed, for example, in a police station and is used by a staff member in the police station (that is, a police officer who is a user in the police station), and is, for example, a laptop or notebook PC (Personal Computer). is there. For example, when a case or the like occurs, the user operates the client terminal 90 by using various information related to the case or the like as sighting information by telephone from a reporter who notified the occurrence of the case or the like to the police station. Enter and record. The client terminal 90 is not limited to a PC of the type described above, and may be a computer having a communication function such as a smartphone, a tablet terminal, or a PDA (Personal Digital Assistant). The client terminal 90 sends a search request to the person search server 50 to cause the person search server 50 to search for a search target person (that is, a culprit who caused an incident or the like) that matches the above-mentioned sighting information, and sends the search result to the person search server 50. Is received and displayed on the display 94.

映像レコーダ70は、例えば警察署内に設置され、その警察署の管轄地域内の全てあるいは一部の交差点に設置されたカメラ10,10a,…のそれぞれから送られた撮像映像のデータを受信し、バックアップ等のために保存する。映像レコーダ70は、ユーザ操作に応じたクライアント端末90からの要求により、保存されているカメラの撮像映像のデータをクライアント端末90に送ってよい。なお、人物検索サーバ50、映像レコーダ70およびクライアント端末90は、警察署内のイントラネットあるいはインターネット等のネットワークNW2を介して相互に通信可能に接続される。   The video recorder 70 is installed, for example, in a police station, and receives data of the captured video transmitted from each of the cameras 10, 10a,... Installed in all or some of the intersections in the jurisdiction of the police station. , Save for backup etc. The video recorder 70 may transmit the stored captured image data of the camera to the client terminal 90 in response to a request from the client terminal 90 in response to a user operation. The person search server 50, the video recorder 70, and the client terminal 90 are communicably connected to each other via a network NW2 such as an intranet in a police station or the Internet.

なお図1では、警察署内に設置される人物検索サーバ50、映像レコーダ70およびクライアント端末90はそれぞれ1台だけ示されているが、それぞれ複数台が設けられてよい。また、人物検索システム100において、警察署も複数の警察署が含まれてよい。また、図1に示す人物検索システム100において、人物検索サーバ50およびクライアント端末90のそれぞれの構成は、同一のコンピュータ装置(例えば、デスクトップ型あるいはラップトップ型のパーソナルコンピュータ)により構成されてもよい。つまり、人物検索サーバ50およびクライアント端末90の代わりに、人物検索サーバ50およびクライアント端末90のそれぞれの機能を有するコンピュータ装置が設けられてもよい。   Although FIG. 1 shows only one person search server 50, one video recorder 70, and one client terminal 90 installed in the police station, a plurality of each may be provided. In the person search system 100, a police station may include a plurality of police stations. In the person search system 100 shown in FIG. 1, each of the configuration of the person search server 50 and the client terminal 90 may be configured by the same computer device (for example, a desktop or laptop personal computer). That is, instead of the person search server 50 and the client terminal 90, a computer device having the functions of the person search server 50 and the client terminal 90 may be provided.

図2は、カメラ10,10a,…の内部構成例を示すブロック図である。前述したように、カメラ10,10a,…のそれぞれは同一の構成を有し、以下、カメラ10を例示して説明する。図2に示すように、カメラ10は、撮影部11と、プロセッサ12と、メモリ13と、通信部14と、記録部15とを含む構成である。また、カメラ10は、複数の撮影部を有してもよく、例えば2方向に画角を有するマルチセンサカメラとしてもよい。これは、第1の撮影部(例えば撮影部11)が交差点全体を撮影可能に広域に撮像し、第2の撮影部が第1の撮影部の画角の死角となる範囲(例えば、カメラ10の設置個所から鉛直方向下側の歩行者が歩く領域)を捉えるように撮像するためである。なお、複数の撮影部が設けられる場合でも、それぞれの撮影部の内部構成は同一とするので、撮影部11を例示して説明する。   FIG. 2 is a block diagram showing an example of the internal configuration of the cameras 10, 10a,. As described above, each of the cameras 10, 10a,... Has the same configuration, and the camera 10 will be described below as an example. As shown in FIG. 2, the camera 10 has a configuration including an imaging unit 11, a processor 12, a memory 13, a communication unit 14, and a recording unit 15. The camera 10 may have a plurality of photographing units, and may be, for example, a multi-sensor camera having angles of view in two directions. This is because the first imaging unit (for example, the imaging unit 11) captures an image of the entire intersection in a wide area so that the entire intersection can be captured, and the second imaging unit (for example, the camera 10) has a blind angle of view of the first imaging unit. (The area where the pedestrian on the lower side in the vertical direction walks) from the installation location of (1). Even when a plurality of photographing units are provided, the internal configuration of each photographing unit is the same.

撮影部11は、集光用のレンズと、CCD(Charge Coupled Device)型イメージセンサもしくはCMOS(Complementary Metal Oxide Semiconductor)型イメージセンサ等の固体撮像素子とを有する構成である。撮影部11は、カメラ10の電源がオンである間、固体撮像素子による撮像に基づいて得られた被写体の撮像映像のデータを常時プロセッサ12に出力する。また、撮影部11は、それぞれ撮像時のズーム倍率を変更させる機構を備えてもよい。   The imaging unit 11 is configured to include a condensing lens and a solid-state imaging device such as a charge coupled device (CCD) image sensor or a complementary metal oxide semiconductor (CMOS) image sensor. While the power of the camera 10 is on, the imaging unit 11 constantly outputs to the processor 12 the data of the captured video of the subject obtained based on the imaging by the solid-state imaging device. Further, the photographing unit 11 may include a mechanism for changing the zoom magnification at the time of imaging.

プロセッサ12は、例えばCPU(Central Processing Unit)、DSP(Digital Signal Processor)もしくはFPGA(Field-Programmable Gate Array)を用いて構成される。プロセッサ12は、カメラ10の制御部として機能し、カメラ10の各部の動作を全体的に統括するための制御処理、カメラ10の各部との間のデータの入出力処理、データの演算(計算)処理およびデータの記憶処理を行う。プロセッサ12は、メモリ13に記憶されたプログラムおよびデータに従って動作する。プロセッサ12は、動作時にメモリ13を使用し、現在の時刻情報を取得したり、撮影部11により撮像された撮像映像のデータに対して各種の公知の画像処理を施した上で記録部15に記録したりする。なお、図2には図示を省略しているが、カメラ10がGPS(Global Positioning System)受信部を有する場合、GPS受信部から現在の位置情報を取得し、撮像映像のデータに位置情報を更に対応付けて記録してよい。   The processor 12 is configured using, for example, a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or an FPGA (Field-Programmable Gate Array). The processor 12 functions as a control unit of the camera 10, performs control processing for totally controlling the operation of each unit of the camera 10, input / output processing of data with each unit of the camera 10, and calculation (calculation) of data Performs processing and data storage processing. Processor 12 operates according to programs and data stored in memory 13. The processor 12 uses the memory 13 at the time of operation, acquires current time information, performs various known image processing on the data of the captured video imaged by the imaging unit 11, and then stores the information in the recording unit 15. Or to record. Although not shown in FIG. 2, when the camera 10 has a GPS (Global Positioning System) receiving unit, the current position information is acquired from the GPS receiving unit, and the position information is further added to the data of the captured video. They may be recorded in association with each other.

ここでGPS受信部について簡単に説明する。GPS受信部は、複数のGPS発信機(例えば4個の航法衛星)から送信される、各自の信号送信時刻および位置座標を含む衛星信号を受信する。GPS受信部は、複数の衛星信号を用いて、現在のカメラの位置座標および衛星信号の受信時刻を算出する。なお、この算出は、GPS受信部ではなく、GPS受信部からの出力が入力されたプロセッサ12により実行されてよい。なお、受信時刻の情報は、カメラのシステム時刻の補正のためにも使用されてよい。システム時刻は、例えば撮像映像を構成する撮像画像の撮像時刻の記録等に利用される。   Here, the GPS receiver will be briefly described. The GPS receiving unit receives satellite signals including their signal transmission times and position coordinates transmitted from a plurality of GPS transmitters (for example, four navigation satellites). The GPS receiver calculates the current position coordinates of the camera and the reception time of the satellite signal using the plurality of satellite signals. This calculation may be performed by the processor 12 to which the output from the GPS receiving unit is input, instead of the GPS receiving unit. Note that the information on the reception time may be used for correcting the system time of the camera. The system time is used, for example, for recording an image capturing time of a captured image forming a captured image.

また、プロセッサ12は、通信部14により受信された外部からの制御コマンドに従って、撮影部11による撮影条件(例えば、ズーム倍率)を可変的に制御してもよい。例えば、外部からの制御コマンドがズーム倍率の変更を指示する場合、プロセッサ12は、その制御コマンドに従って、その制御コマンドで選択される撮影部の撮影時におけるズーム倍率を変更する。   Further, the processor 12 may variably control a photographing condition (for example, a zoom magnification) of the photographing unit 11 according to an external control command received by the communication unit 14. For example, when an external control command instructs to change the zoom magnification, the processor 12 changes the zoom magnification at the time of imaging of the imaging unit selected by the control command according to the control command.

また、プロセッサ12は、記録部15に記録された撮像映像のデータを、通信部14を介して人物検索サーバ50および映像レコーダ70のそれぞれに繰り返して送る。ここで、繰り返して送るとは、定められた一定周期の時間経過の度に送信することに限定されず、一定周期ではなく定められた不規則な時間間隔の経過の度に送信することも含まれてよく、複数回にわたって送信することを含む。   Further, the processor 12 repeatedly sends the data of the captured video recorded in the recording unit 15 to each of the person search server 50 and the video recorder 70 via the communication unit 14. Here, the term “repeated transmission” is not limited to transmission every time a predetermined period of time elapses, but also includes transmission every time a predetermined irregular time interval elapses instead of a predetermined period. And may include transmitting multiple times.

メモリ13は、例えばRAM(Random Access Memory)とROM(Read Only Memory)を用いて構成され、カメラ10の動作の実行に必要なプログラムおよびデータ、さらには、動作中に生成された情報またはデータ等を一時的に保存する。RAMは、例えばプロセッサ12の動作時に使用されるワークメモリである。ROMは、例えばプロセッサ12を制御するためのプログラムおよびデータを予め記憶する。また、メモリ13は、例えばカメラ10を識別する識別情報(例えばシリアル番号)および各種設定情報を記憶する。   The memory 13 is configured using, for example, a random access memory (RAM) and a read only memory (ROM), and programs and data necessary for executing the operation of the camera 10, and information or data generated during the operation. To save temporarily. The RAM is a work memory used when the processor 12 operates, for example. The ROM stores, for example, a program and data for controlling the processor 12 in advance. The memory 13 stores, for example, identification information (for example, a serial number) for identifying the camera 10 and various setting information.

通信部14は、プロセッサ12の指示に基づいて、上述したネットワークNW1を介して、記録部15に記録された撮像映像のデータを人物検索サーバ50および映像レコーダ70にそれぞれ送る。また、通信部14は、外部(例えば、人物検索サーバ50)から送られたカメラ10の制御コマンドを受信したり、カメラ10の状態情報を外部(例えば、人物検索サーバ50)に送信したりする。   The communication unit 14 sends the captured video data recorded in the recording unit 15 to the person search server 50 and the video recorder 70 via the network NW1 based on the instruction of the processor 12. In addition, the communication unit 14 receives a control command of the camera 10 transmitted from the outside (for example, the person search server 50) and transmits state information of the camera 10 to the outside (for example, the person search server 50). .

記録部15は、カメラ10に内蔵される半導体メモリ(例えばフラッシュメモリ)、またはカメラ10に内蔵されないメモリカード(例えばSDカード)などの外部記憶媒体を用いて構成される。記録部15は、プロセッサ12により生成された撮像映像のデータを前述したカメラ10の識別情報および撮像日時の情報と対応付けて記録する。記録部15は、所定時間(例えば30秒)分の撮像映像のデータを常時プリバッファリングして保持し、現在時刻より所定時間(例えば30秒)前までの撮像映像のデータを上書きしながら蓄積し続ける。なお、記録部15がメモリカードで構成される場合、カメラ10の筐体に挿抜自在に装着される。   The recording unit 15 is configured using an external storage medium such as a semiconductor memory (for example, a flash memory) built in the camera 10 or a memory card (for example, an SD card) not built in the camera 10. The recording unit 15 records the data of the captured video generated by the processor 12 in association with the above-described identification information of the camera 10 and the information of the imaging date and time. The recording unit 15 always pre-buffers and holds captured video data for a predetermined time (for example, 30 seconds), and stores the data while overwriting data of the captured video for a predetermined time (for example, 30 seconds) before the current time. Keep doing. When the recording unit 15 is configured by a memory card, the recording unit 15 is detachably attached to the housing of the camera 10.

図3は、人物検索サーバ50およびクライアント端末90のそれぞれの内部構成例を示すブロック図である。人物検索サーバ50とクライアント端末90と映像レコーダ70とは、ともに警察署内に設けられた有線LAN(Local Area Network)等のイントラネットを用いて接続されるが、無線LAN等の無線ネットワークを介して接続されてもよい。   FIG. 3 is a block diagram showing an example of the internal configuration of each of the person search server 50 and the client terminal 90. The person search server 50, the client terminal 90, and the video recorder 70 are all connected using an intranet such as a wired LAN (Local Area Network) provided in a police station, but are connected via a wireless network such as a wireless LAN. It may be connected.

人物検索サーバ50は、通信部51と、メモリ52と、人物検索部53と、人物解析部54と、タグ付与部55と、蓄積部56とを含む構成である。人物検索部53と、人物解析部54と、タグ付与部55とは、例えばCPU、DSP、FPGA等のプロセッサPRC1により構成される。   The person search server 50 includes a communication unit 51, a memory 52, a person search unit 53, a person analysis unit 54, a tag assignment unit 55, and a storage unit 56. The person search unit 53, the person analysis unit 54, and the tag assignment unit 55 are configured by a processor PRC1 such as a CPU, a DSP, and an FPGA.

通信部51は、イントラネット等のネットワークNW1を介して接続されたカメラ10,10a,…との間で通信を行い、カメラ10,10a,…からそれぞれ送られた撮像映像(つまり、交差点を行き交う人々の状況を示す映像)のデータを受信する。また、通信部51は、警察署内に設けられたイントラネット等のネットワークNW2を介して、クライアント端末90との間で通信を行い、クライアント端末90から送られた捜索対象人物の検索要求を受信したり、その検索要求の応答を送信したりする。また、通信部51は、メモリ52あるいは蓄積部56にて保持されている撮像映像のデータを映像レコーダ70に送る。   The communication unit 51 communicates with the cameras 10, 10a,... Connected via a network NW1 such as an intranet, and captures images (that is, people who cross the intersection) transmitted from the cameras 10, 10a,. (A video showing the situation). The communication unit 51 communicates with the client terminal 90 via a network NW2 such as an intranet provided in a police station, and receives a search request for a search target person sent from the client terminal 90. Or send a response to the search request. In addition, the communication unit 51 sends the captured video data stored in the memory 52 or the storage unit 56 to the video recorder 70.

メモリ52は、例えばRAMとROMを用いて構成され、人物検索サーバ50の動作の実行に必要なプログラムやデータ、さらには、動作中に生成された情報またはデータ等を一時的に保存する。RAMは、例えばプロセッサPRC1の動作時に使用されるワークメモリである。ROMは、例えばプロセッサPRC1を制御するためのプログラムおよびデータを予め記憶する。また、メモリ52は、例えば人物検索サーバ50を識別する識別情報(例えばシリアル番号)および各種設定情報を記憶する。   The memory 52 is configured using, for example, a RAM and a ROM, and temporarily stores programs and data necessary for executing the operation of the person search server 50, and information or data generated during the operation. The RAM is a work memory used when the processor PRC1 operates, for example. The ROM previously stores, for example, a program and data for controlling the processor PRC1. Further, the memory 52 stores, for example, identification information (for example, a serial number) for identifying the person search server 50 and various setting information.

人物検索部53は、クライアント端末90から送られた捜索対象人物の検索要求に基づいて、蓄積部56に記録されているデータの中から、検索要求に含まれる特徴情報(検索条件の一態様)を満たす人物が映る撮像画像を検索する。人物検索部53は、検索結果を抽出し、その抽出された検索結果のデータを、通信部51を介してクライアント端末90に送る。   Based on the search request for the search target person sent from the client terminal 90, the person search unit 53 selects, from data recorded in the storage unit 56, characteristic information included in the search request (one mode of search conditions). Is searched for a captured image in which a person who satisfies is satisfied. The person search unit 53 extracts the search result, and sends the data of the extracted search result to the client terminal 90 via the communication unit 51.

人物解析部54は、例えばそれぞれのカメラ10,10a,…からの撮像映像のデータが蓄積部56に保存される度に、その保存されている撮像映像のデータを解析する。人物解析部54は、その撮像映像に映る人物(言い換えると、カメラが設置された交差点あるいはその付近に存在する人々)に関する情報を解析して取得する。人物解析部54は、人物の顔が映る切り出し画像を人物に関する情報の一例として生成し、更に、例えば性別、年齢、身長、体型、服装等の特徴情報と、人物の居場所を示す位置情報と、人物の交差点通過時の移動方向(具体的には、交差点への流入方向と、その交差点からの流出方向)とを人物に関する情報として取得してタグ付与部55に送る。人物解析部54は、例えば複数枚の撮像画像のフレームの時間的な差分に基づいて、人物の交差点通過時の走行方向を判別可能である。移動方向は、例えば人物が交差点に設けられた横断歩道をどの方向に移動して通過したかを示す。   Each time the data of the captured video from each of the cameras 10, 10a,... Is stored in the storage unit 56, the person analysis unit 54 analyzes the stored data of the captured video. The person analyzing unit 54 analyzes and acquires information on a person (in other words, people existing at or near the intersection where the camera is installed) shown in the captured video. The person analyzing unit 54 generates a cut-out image in which the face of the person is reflected as an example of information regarding the person, and further, for example, characteristic information such as gender, age, height, body type, clothes, and position information indicating the location of the person, The moving direction (specifically, the inflow direction to the intersection and the outflow direction from the intersection) of the person when passing through the intersection is acquired as information on the person and sent to the tag attaching unit 55. The person analyzing unit 54 can determine the traveling direction of the person when passing through the intersection, for example, based on a temporal difference between frames of a plurality of captured images. The moving direction indicates, for example, in which direction the person has moved and passed the pedestrian crossing provided at the intersection.

タグ付与部55は、人物解析部54により得られた人物に関する情報と人物解析部54が解析に用いた撮像映像の撮像日時および地点(つまり、交差点の位置)とを対応付け(タグ付けの一態様)して蓄積部56の解析情報DB(Database)56aに記録する。これにより、人物検索サーバ50は、どの交差点のいつの時点で撮像された撮像映像にどのような人物情報が付与されたのかを明確に判別可能となる。なお、タグ付与部55の処理は、人物解析部54により実行されてもよく、この場合にはタグ付与部55の構成を不要にできる。   The tag assigning unit 55 associates the information on the person obtained by the person analyzing unit 54 with the shooting date and time and the point (that is, the position of the intersection) of the captured video used for analysis by the person analyzing unit 54 (one of the tagging operations). Aspect) and records it in the analysis information DB (Database) 56a of the storage unit 56. Accordingly, the person search server 50 can clearly determine what kind of person information is added to the captured video captured at which intersection and at what time. Note that the processing of the tag attaching unit 55 may be executed by the person analyzing unit 54, and in this case, the configuration of the tag attaching unit 55 can be made unnecessary.

蓄積部56は、例えばハードディスク(HDD:Hard Disk Drive)またはソリッドステートドライブ(SSD:Solid State Drive)を用いて構成される。蓄積部56は、カメラ10,10a,…から送られた撮像映像のデータを、その撮像映像を撮像したカメラの識別情報(言い換えると、対応するカメラが設置された交差点の位置情報)および撮像日時の情報と対応付けて記録する。また、蓄積部56は、それぞれのカメラ10,10a,…が設置された交差点の位置を示す道路地図の情報も記録しており、例えば道路の新規建設もしくはメンテナンス工事等によって道路地図の情報更新が行われる度に、更新後の道路地図の情報を記録する。また、蓄積部56は、それぞれの交差点に設置された1台のカメラとその交差点との対応関係を示す交差点カメラ設置データを記録している。交差点カメラ設置データは、例えば交差点の識別情報とカメラの識別情報とが対応付けられている。従って、蓄積部56は、カメラの撮像映像のデータを、撮像日時の情報、カメラ情報および交差点情報と対応付けて記録している。なお、道路地図の情報は、クライアント端末90のメモリ95において記録される。   The storage unit 56 is configured using, for example, a hard disk (HDD: Hard Disk Drive) or a solid state drive (SSD: Solid State Drive). The storage unit 56 stores the data of the captured image transmitted from the cameras 10, 10a,..., The identification information of the camera that captured the captured image (in other words, the position information of the intersection where the corresponding camera is installed) and the imaging date and time. Is recorded in association with the information. The storage unit 56 also records road map information indicating the positions of intersections where the cameras 10, 10a,... Are installed. For example, information on the road map is updated by new road construction or maintenance work. Each time it is performed, the updated road map information is recorded. In addition, the storage unit 56 records intersection camera installation data indicating the correspondence between one camera installed at each intersection and the intersection. In the intersection camera installation data, for example, intersection identification information and camera identification information are associated with each other. Therefore, the storage unit 56 records the data of the image captured by the camera in association with the information of the image capturing date and time, the camera information, and the intersection information. The information of the road map is recorded in the memory 95 of the client terminal 90.

また、蓄積部56は、解析情報DB56aおよび事案DB56bを有する。   The storage unit 56 has an analysis information DB 56a and a case DB 56b.

解析情報DB56aは、タグ付与部55の出力(つまり、人物解析部54によりカメラの撮像映像が解析された結果として得られる人物情報と、解析に使用された撮像映像の日時および地点の情報とのセット)を格納する。解析情報DB56aは、例えば人物検索部53が捜索対象人物の検索要求に含まれる特徴情報を満たす人物情報の抽出の際に参照される。   The analysis information DB 56a stores the output of the tag assigning unit 55 (that is, the person information obtained as a result of the analysis of the image captured by the camera by the person analyzing unit 54, and the date and time and point information of the image captured used in the analysis). Set). The analysis information DB 56a is referred to, for example, when the person search unit 53 extracts person information that satisfies the characteristic information included in the search target person search request.

事案DB56bは、事件等の事案ごとに、事案が発生した日時、地点等の目撃情報ならびにその目撃情報およびクライアント端末90からの捜索対象人物の検索要求に基づいて人物検索部53が検索した結果のデータ等の事案詳細情報(例えば、地図データMP1と検索条件と検索結果である切り出し画像のデータ)を登録して格納する。事案詳細情報は、例えば、事案が発生した日時および地点等の事案情報、検索された人物のサムネイル画像(前述した切り出し画像)、事案が発生した地点を含む周辺地図情報、人物の交差点の流入出方向、人物の交差点通過時刻、ユーザのメモを含む。なお、事案詳細情報は、上述した内容に限定されない。   The case DB 56b stores, for each case such as a case, the date and time when the case occurred, sighting information such as a point, and the result of the search performed by the person search unit 53 based on the sighting information and the search request of the search target person from the client terminal 90. Case detailed information such as data (for example, map data MP1, search conditions, and cutout image data as search results) is registered and stored. The case detailed information includes, for example, case information such as the date and time and location of the case, a thumbnail image of the searched person (the above-described cut-out image), peripheral map information including the position where the case occurred, and inflow and outflow of intersections of people. Includes direction, person's intersection passing time, and user's memo. Note that the case detailed information is not limited to the contents described above.

クライアント端末90は、操作部91と、プロセッサ92と、通信部93と、ディスプレイ94と、メモリ95と、記録部96とを含む構成である。クライアント端末90は、警察署内の職員(即ち、ユーザである警察官)により使用される。ユーザは、事件等の目撃者等によってその事件等の発生を通報するための電話があった場合、ヘッドセットHDSを装着して電話に応対する。ヘッドセットHDSは、クライアント端末90に接続されて使用され、ユーザの発する音声を収音したり、話し相手(即ち、通報者)の発した音声を出力したりする。   The client terminal 90 is configured to include an operation unit 91, a processor 92, a communication unit 93, a display 94, a memory 95, and a recording unit 96. The client terminal 90 is used by a staff member in a police station (that is, a police officer who is a user). When there is a phone call for notifying the occurrence of the case or the like by a witness or the like of the case or the like, the user wears the headset HDS and answers the call. The headset HDS is used by being connected to the client terminal 90, and picks up a voice uttered by the user and outputs a voice uttered by the other party (that is, a reporter).

操作部91は、ユーザの操作を検出するユーザインターフェース(UI:User Interface)であり、マウスあるいはキーボード等を用いて構成される。操作部91は、ユーザの操作に基づく信号をプロセッサ92に出力する。操作部91は、例えば、ユーザが調べる事件等の事案の発生日時および地点の交差点の撮像映像を確認したい場合、その日時および地点、人物の特徴を含む検索条件の入力を受け付ける。   The operation unit 91 is a user interface (UI: User Interface) that detects a user operation, and is configured using a mouse, a keyboard, or the like. The operation unit 91 outputs a signal based on a user operation to the processor 92. For example, when the user wants to confirm a captured image of an intersection of a point and an occurrence date and time of a case such as a case to be examined by a user, the operation unit 91 receives an input of a search condition including the feature of the date and time, the point, and a person.

プロセッサ92は、例えばCPU、DSPまたはFPGAを用いて構成され、クライアント端末90の制御部として機能し、クライアント端末90の各部の動作を全体的に統括するための制御処理、クライアント端末90の各部との間のデータの入出力処理、データの演算処理およびデータの記憶処理を行う。プロセッサ92は、メモリ95に記憶されたプログラムおよびデータに従って動作する。プロセッサ92は、動作時にメモリ95を使用し、現在の時刻情報を取得したり、人物検索サーバ50から送られた捜索対象人物の検索結果、あるいは映像レコーダ70から送られた撮像映像をディスプレイ94に表示したりする。また、プロセッサ92は、操作部91により入力された検索条件を含む捜索対象人物の検索要求を生成し、その検索要求を、通信部93を介して人物検索サーバ50に送信する。   The processor 92 is configured using, for example, a CPU, a DSP, or an FPGA, functions as a control unit of the client terminal 90, and performs control processing for totally controlling the operation of each unit of the client terminal 90. During this period, data input / output processing, data arithmetic processing, and data storage processing are performed. Processor 92 operates according to programs and data stored in memory 95. The processor 92 uses the memory 95 during operation to acquire the current time information, or to display the search result of the search target person sent from the person search server 50 or the captured image sent from the image recorder 70 to the display 94. Display. Further, the processor 92 generates a search request for a search target person including the search condition input by the operation unit 91, and transmits the search request to the person search server 50 via the communication unit 93.

通信部93は、イントラネット等のネットワークNW2を介して接続された人物検索サーバ50あるいは映像レコーダ70との間で通信を行う。例えば、通信部93は、人物検索サーバ50に対してプロセッサ92が生成した検索要求を送信したり、人物検索サーバ50から送られた捜索対象人物の検索結果を受信したりする。また、通信部93は、映像レコーダ70に対してプロセッサ92が生成した撮像映像の取得要求を送信したり、その取得要求に対応する映像レコーダ70から送られた撮像映像を受信したりする。   The communication unit 93 performs communication with the person search server 50 or the video recorder 70 connected via a network NW2 such as an intranet. For example, the communication unit 93 transmits a search request generated by the processor 92 to the person search server 50 or receives a search result of a search target person sent from the person search server 50. Further, the communication unit 93 transmits an acquisition request of the captured video generated by the processor 92 to the video recorder 70, and receives the captured video transmitted from the video recorder 70 corresponding to the acquisition request.

ディスプレイ94は、例えばLCD(Liquid Crystal Display)または有機EL(Electroluminescence)等の表示デバイスを用いて構成され、プロセッサ92から送られた各種のデータを表示する。   The display 94 is configured using a display device such as an LCD (Liquid Crystal Display) or an organic EL (Electroluminescence), and displays various data sent from the processor 92.

メモリ95は、例えばRAMとROMを用いて構成され、クライアント端末90の動作の実行に必要なプログラムやデータ、さらには、動作中に生成された情報またはデータ等を一時的に保存する。RAMは、例えばプロセッサ92の動作時に使用されるワークメモリである。ROMは、例えばプロセッサ92を制御するためのプログラムおよびデータを予め記憶する。また、メモリ95は、例えばクライアント端末90を識別する識別情報(例えばシリアル番号)および各種設定情報を記憶する。   The memory 95 is configured using, for example, a RAM and a ROM, and temporarily stores programs and data necessary for executing the operation of the client terminal 90, as well as information or data generated during the operation. The RAM is a work memory used when the processor 92 operates, for example. The ROM stores, for example, a program and data for controlling the processor 92 in advance. Further, the memory 95 stores, for example, identification information (for example, a serial number) for identifying the client terminal 90 and various setting information.

記録部96は、例えばハードディスクドライブまたはソリッドステートドライブを用いて構成される。記録部96は、それぞれのカメラ10,10a,…が設置された交差点の位置を示す道路地図の情報も記録しており、例えば道路の新規建設もしくはメンテナンス工事等によって道路地図の情報更新が行われる度に、更新後の道路地図の情報を記録する。また、記録部96は、それぞれの交差点に設置された1台のカメラとその交差点との対応関係を示す交差点カメラ設置データを記録している。交差点カメラ設置データは、例えば交差点の識別情報とカメラの識別情報とが対応付けられている。従って、記録部96は、カメラの撮像映像のデータを、撮像日時の情報、カメラ情報および交差点情報と対応付けて記録している。   The recording unit 96 is configured using, for example, a hard disk drive or a solid state drive. The recording unit 96 also records road map information indicating the positions of intersections where the cameras 10, 10a,... Are installed. For example, information on the road map is updated by new road construction or maintenance work. Each time, the updated road map information is recorded. The recording unit 96 records intersection camera installation data indicating the correspondence between one camera installed at each intersection and the intersection. In the intersection camera installation data, for example, intersection identification information and camera identification information are associated with each other. Therefore, the recording unit 96 records the data of the image captured by the camera in association with the information of the image capturing date and time, the camera information, and the intersection information.

図4は、映像レコーダ70の内部構成例を示すブロック図である。映像レコーダ70は、イントラネット等のネットワークNW1を介してカメラ10,10a,…のそれぞれとの間で通信可能に接続され、また、イントラネット等のネットワークNW2を介して人物検索サーバ50およびクライアント端末90との間で通信可能に接続されている。   FIG. 4 is a block diagram showing an example of the internal configuration of the video recorder 70. The video recorder 70 is communicably connected to each of the cameras 10, 10a,... Via a network NW1 such as an intranet, and communicates with the person search server 50 and the client terminal 90 via a network NW2 such as an intranet. Are communicably connected between

映像レコーダ70は、通信部71と、メモリ72と、映像検索部73と、映像記録処理部74と、映像蓄積部75とを含む構成である。映像検索部73と、映像記録処理部74とは、例えばCPU、DSP、FPGAなどのプロセッサPRC2により構成される。   The video recorder 70 is configured to include a communication unit 71, a memory 72, a video search unit 73, a video recording processing unit 74, and a video storage unit 75. The video search unit 73 and the video recording processing unit 74 are configured by a processor PRC2 such as a CPU, a DSP, and an FPGA.

通信部71は、イントラネット等のネットワークNW1を介して接続されたカメラ10,10a,…のそれぞれとの間で通信を行い、カメラ10,10a,…のそれぞれから送られた撮像映像(つまり、交差点を行き交う人々の状況を示す映像)のデータを受信する。また、通信部71は、警察署内に設けられたイントラネット等のネットワークNW2を介して、クライアント端末90との間で通信を行い、クライアント端末90から送られた映像要求を受信したり、その映像要求の応答を送信したりする。   The communication unit 71 communicates with each of the cameras 10, 10a,... Connected via a network NW1 such as an intranet, and captures images (that is, intersections) transmitted from each of the cameras 10, 10a,. Video) showing the situation of people passing by. The communication unit 71 communicates with the client terminal 90 via a network NW2 such as an intranet provided in a police station, receives a video request sent from the client terminal 90, and Or send a response to a request.

メモリ72は、例えばRAMとROMを用いて構成され、映像レコーダ70の動作の実行に必要なプログラムやデータ、さらには、動作中に生成された情報またはデータ等を一時的に保存する。RAMは、例えばプロセッサPRC2の動作時に使用されるワークメモリである。ROMは、例えばプロセッサPRC2を制御するためのプログラムおよびデータを予め記憶する。また、メモリ72は、例えば映像レコーダ70を識別する識別情報(例えばシリアル番号)および各種設定情報を記憶する。   The memory 72 includes, for example, a RAM and a ROM, and temporarily stores programs and data necessary for executing the operation of the video recorder 70, and information or data generated during the operation. The RAM is a work memory used when the processor PRC2 operates, for example. The ROM previously stores, for example, a program and data for controlling the processor PRC2. The memory 72 stores, for example, identification information (for example, a serial number) for identifying the video recorder 70 and various setting information.

映像検索部73は、クライアント端末90から送られた映像要求に基づいて、その映像要求に合致するカメラの撮像映像を、映像蓄積部75を検索することで抽出する。映像検索部73は、抽出された撮像映像のデータを、通信部71を介してクライアント端末90に送る。   Based on the video request sent from the client terminal 90, the video search unit 73 extracts a captured image of a camera that matches the video request by searching the video storage unit 75. The video search unit 73 sends the data of the extracted captured video to the client terminal 90 via the communication unit 71.

映像記録処理部74は、例えばカメラ10,10a,…のそれぞれからの撮像映像のデータが通信部71において受信される度に、その受信された撮像映像のデータを映像蓄積部75に記録する。   The video recording processing unit 74 records the received captured video data in the video storage unit 75 each time the captured video data from each of the cameras 10, 10a,.

映像蓄積部75は、例えばハードディスクまたはソリッドステートドライブを用いて構成される。映像蓄積部75は、カメラ10,10a,…のそれぞれから送られた撮像映像のデータを、その撮像映像を撮像したカメラの識別情報(言い換えると、対応するカメラが設置された交差点の位置情報)および撮像日時の情報と対応付けて記録する。   The video storage unit 75 is configured using, for example, a hard disk or a solid state drive. The video storage unit 75 stores the data of the captured video transmitted from each of the cameras 10, 10a,... As identification information of the camera that captured the captured video (in other words, the position information of the intersection where the corresponding camera is installed). The information is recorded in association with the information on the imaging date and time.

次に、警察捜査の際に、クライアント端末90のディスプレイ94に表示される各種の画面例について、図5から図9を参照して説明する。図5〜図9の説明において、図中に示される要素と同一の要素については同一の符号を参照して説明を簡略化あるいは省略する。   Next, various screen examples displayed on the display 94 of the client terminal 90 during a police investigation will be described with reference to FIGS. In the description of FIGS. 5 to 9, the same elements as those shown in the drawings are referred to by the same reference numerals, and description thereof will be simplified or omitted.

警察捜査において、クライアント端末90は、警察官(ユーザの一態様)の操作により、予めインストールされている人物検索アプリケーション(以下「人物検索アプリ」)を起動して実行中である。なお、この人物検索アプリのプログラムおよびデータは、クライアント端末90のメモリ95のROM内に格納されている。人物検索アプリは、警察官の操作により、プロセッサ92により起動されて実行される。なお、人物検索アプリの起動中においてプロセッサ92により作成される各種のデータあるいは情報は、一時的にメモリ95のRAMに保持される。   In the police investigation, the client terminal 90 activates and executes a previously installed person search application (hereinafter, “person search application”) by an operation of a police officer (one mode of a user). The program and data of the person search application are stored in the ROM of the memory 95 of the client terminal 90. The person search application is activated and executed by the processor 92 by an operation of a police officer. Note that various data or information created by the processor 92 while the person search application is running is temporarily stored in the RAM of the memory 95.

図5は、カメラが設置された交差点を含む地図データMP1を表示する人物検索画面WD1の一例を示す図である。プロセッサ92は、人物検索アプリの起動後に人物検索画面WD1(画面の一態様)をディスプレイ94に表示する。人物検索画面WD1は、クライアント端末90の記録部96に記録されている道路地図の情報に対応する地図データMP1と複数の検索条件の入力欄との両方が並べて表示される構成である。以下の説明において、プロセッサ92により実行される人物検索アプリは、その実行中に人物検索サーバ50あるいは映像レコーダ70との間で通信を行う。   FIG. 5 is a diagram illustrating an example of a person search screen WD1 that displays map data MP1 including an intersection where a camera is installed. The processor 92 displays the person search screen WD1 (one mode of the screen) on the display 94 after the activation of the person search application. The person search screen WD1 has a configuration in which both the map data MP1 corresponding to the road map information recorded in the recording unit 96 of the client terminal 90 and a plurality of search condition input fields are displayed side by side. In the following description, the person search application executed by the processor 92 communicates with the person search server 50 or the video recorder 70 during the execution.

地図データMP1上には、例えば「AA Street」と「CC Street」との交差点に配置された第1カメラの位置を示すアイコンITM1と、「BB Street」と「CC Street」との交差点に配置された第2カメラの位置を示すアイコンITM2と、「AA Street」と「DD Street」との交差点に配置された第3カメラの位置を示すアイコンITM3と、「BB Street」と「DD Street」との交差点に配置された第4カメラの位置を示すアイコンITM4とがそれぞれ判明可能に示される。従って、以下の説明においては、カメラの設置台数を示すパラメータn(n:3以上の整数)を「4」とする。   On the map data MP1, for example, an icon ITM1 indicating the position of the first camera arranged at the intersection of "AA Street" and "CC Street" and the intersection of "BB Street" and "CC Street" are arranged. The icon ITM2 indicating the position of the second camera, the icon ITM3 indicating the position of the third camera arranged at the intersection of "AA Street" and "DD Street", and the "BB Street" and "DD Street". An icon ITM4 indicating the position of the fourth camera arranged at the intersection is shown to be identifiable. Therefore, in the following description, the parameter n (n: an integer of 3 or more) indicating the number of installed cameras is set to “4”.

なお、以下の説明において、便宜的に、「AA Street」と「CC Street」との交差点の地名を「Point 1」とし、「BB Street」と「CC Street」との交差点の地名を「Point 2」とし、「AA Street」と「DD Street」との交差点の地名を「Point 3」とし、「BB Street」と「DD Street」との交差点の地名を「Point 4」とする。また、前述した第1カメラ、第2カメラ、第3カメラおよび第4カメラは、図2に示すカメラ10,10a,…のそれぞれと同一の構成を有している。   In the following description, for convenience, the place name of the intersection of “AA Street” and “CC Street” is “Point 1”, and the place name of the intersection of “BB Street” and “CC Street” is “Point 2”. , And the place name of the intersection of “AA Street” and “DD Street” is “Point 3”, and the place name of the intersection of “BB Street” and “DD Street” is “Point 4”. The first camera, the second camera, the third camera, and the fourth camera have the same configuration as the cameras 10, 10a,... Shown in FIG.

また、人物検索アプリは、ユーザ操作により、カメラ選択枠ASWK1を地図データMP1に表示する。カメラ選択枠ASWK1は、人物検索画面WD1に表示されるカメラの撮像映像(例えばライブ映像)の選択に用いられる。例えば図5では、ユーザ操作により、第1カメラおよび第2カメラがカメラ選択枠ASWK1により選択されている。人物検索アプリは、カメラ選択枠ASWK1による選択に連動して、ユーザ操作により選択されたカメラ(具体的には第1カメラおよび第2カメラ)の設置された地点(つまり、「Point 1」,「Point 2」)が人物検索画面WD1における撮像映像の表示対象であることを示す地点選択枠SEL0を人物検索画面WD1に表示する。なお、図5に示すカメラ選択枠ASWK1は矩形状であるが、この形状に限定されず、円、楕円、三角等のよく知られた各種の形状のうちいずれかであってよい。   Further, the person search application displays a camera selection frame ASWK1 on the map data MP1 by a user operation. The camera selection frame ASWK1 is used to select a captured image (for example, a live image) of a camera displayed on the person search screen WD1. For example, in FIG. 5, the first camera and the second camera are selected in the camera selection frame ASWK1 by a user operation. In response to the selection in the camera selection frame ASWK1, the person search application sets the point (that is, “Point 1”, “Point 1”, “Point 1”) where the camera (specifically, the first camera and the second camera) selected by the user operation is installed. A point selection frame SEL0 indicating that “Point 2”) is a display target of a captured image on the person search screen WD1 is displayed on the person search screen WD1. The camera selection frame ASWK1 shown in FIG. 5 is rectangular, but is not limited to this shape, and may be any of various well-known shapes such as a circle, an ellipse, and a triangle.

図6は、選択されたカメラの撮像映像(ライブ映像)を表示する人物検索画面WD1の一例を示す図である。図6に示すように、ユーザ操作により、地図データMP1においてk(k:k≦nを満たす2以上の整数)台のカメラ(具体的には、k=3であり、k=1に対応する第1カメラ、k=2に対応する第2カメラ、k=3に対応する第3カメラ)がカメラ選択枠ASWK1により選択済みである。人物検索アプリは、カメラ選択枠ASWK1により選択済みであることを示すために、アイコンITM1,ITM2,ITM3の表示態様を他のアイコンITM4と異なるように変更する。具体的には、人物検索アプリは、アイコンITM,ITM2,ITM3を特定色(例えば赤色)に塗り替えた選択済みアイコンSEL1,SEL2,SEL3に変更して表示する。これにより、人物検索アプリは、前述した地点選択枠SEL0が第1カメラ,第2カメラ,第3カメラのそれぞれ対応する「Point1」,「Point 2」,「Point 3」の3地点が人物検索画面WD1における撮像映像の表示対象であることを示す地点選択枠SEL0を人物検索画面WD1に表示する。   FIG. 6 is a diagram illustrating an example of a person search screen WD1 that displays a captured video (live video) of a selected camera. As shown in FIG. 6, k (k: an integer of 2 or more that satisfies k ≦ n) cameras (specifically, k = 3, corresponding to k = 1) in the map data MP1 by a user operation. The first camera, the second camera corresponding to k = 2, and the third camera corresponding to k = 3) have already been selected in the camera selection frame ASWK1. The person search application changes the display mode of the icons ITM1, ITM2, and ITM3 so as to be different from the other icons ITM4 in order to indicate that the icons have been selected by the camera selection frame ASWK1. Specifically, the person search application changes and displays the icons ITM, ITM2, and ITM3 to the selected icons SEL1, SEL2, and SEL3, which are repainted with a specific color (for example, red). In this way, the person search application sets the above-mentioned point selection frame SEL0 to three points of “Point1,” “Point2,” and “Point3” corresponding to the first camera, the second camera, and the third camera, respectively. A point selection frame SEL0 indicating that the captured image is to be displayed on WD1 is displayed on the person search screen WD1.

人物検索アプリは、地点選択枠SEL0あるいは選択済みアイコンSEL1に対応する第1カメラ(つまり、「Point 1」の地点)の撮像映像MV1(ライブ映像)の表示画面を、撮像時刻および撮像地点名とともに人物検索画面WD1に表示する。同様に、人物検索アプリは、地点選択枠SEL0あるいは選択済みアイコンSEL2に対応する第2カメラ(つまり、「Point 2」の地点)の撮像映像MV2(ライブ映像)の表示画面を、撮像時刻および撮像地点名とともに人物検索画面WD1に表示する。同様に、人物検索アプリは、地点選択枠SEL0あるいは選択済みアイコンSEL3に対応する第3カメラ(つまり、「Point 3」の地点)の撮像映像MV3(ライブ映像)の表示画面を、撮像時刻および撮像地点名とともに人物検索画面WD1に表示する。人物検索アプリは、それぞれの撮像映像MV1,MV2,MV3に、ライブ映像であることを示すライブマーカMK1を表示する。   The person search application displays the display screen of the captured video MV1 (live video) of the first camera (that is, the location of “Point 1”) corresponding to the location selection frame SEL0 or the selected icon SEL1 together with the capturing time and the capturing location name. It is displayed on the person search screen WD1. Similarly, the person search application changes the display screen of the captured video MV2 (live video) of the second camera (that is, the location of “Point 2”) corresponding to the location selection frame SEL0 or the selected icon SEL2 to the capture time and the capture time. It is displayed on the person search screen WD1 together with the point name. Similarly, the person search application changes the display screen of the captured video MV3 (live video) of the third camera (that is, the location of “Point 3”) corresponding to the location selection frame SEL0 or the selected icon SEL3 to the capture time and the capture time. It is displayed on the person search screen WD1 together with the point name. The person search application displays a live marker MK1 indicating a live image on each of the captured images MV1, MV2, and MV3.

なお、クライアント端末90は、人物検索サーバ50が第1カメラ、第2カメラ、第3カメラのうち少なくとも1つ(例えば第1カメラ)から撮像映像(ライブ映像)を受信できない場合等に、そのカメラ(例えば第1カメラ)が設置された「Point 1」において過去に撮像されて映像レコーダ70に保存された撮像映像のデータを、映像レコーダ70に要求してもよい。この場合、クライアント端末90は、クライアント端末90からの要求に応じて映像レコーダ70から送られた過去の「Point 1」における撮像映像のデータを受信して人物検索画面WD1に表示してもよい。また、クライアント端末90は、人物検索サーバ50が第1カメラ、第2カメラ、第3カメラのうち少なくとも1つ(例えば第1カメラ)から撮像映像(ライブ映像)を受信できない場合等に、クライアント端末90の外部入力端子(図示略)を介して入力された撮像映像のデータ、あるいは記録部96に既に保存されていた撮像映像のデータを取得し、その撮像映像のデータを人物検索画面WD1に表示してもよい。   When the person search server 50 cannot receive the captured video (live video) from at least one of the first camera, the second camera, and the third camera (for example, the first camera), the client terminal 90 uses the camera. The video recorder 70 may request the video recorder 70 for data of a captured video that has been captured in the past and stored in the video recorder 70 at “Point 1” where the first camera (for example, the first camera) is installed. In this case, the client terminal 90 may receive the data of the captured video in the past “Point 1” sent from the video recorder 70 in response to the request from the client terminal 90 and display the data on the person search screen WD1. Also, the client terminal 90 is used when the person search server 50 cannot receive a captured video (live video) from at least one of the first camera, the second camera, and the third camera (for example, the first camera). Data of the captured video input via an external input terminal 90 (not shown) or data of the captured video already stored in the recording unit 96 is obtained, and the captured video data is displayed on the person search screen WD1. May be.

また、人物検索アプリは、警察捜査における捜索対象人物の検索を支援するための各種のボタンを人物検索画面WD1に表示する。例えば、検索の対象期間の開始日時を選択するための期間開始ボタンDB1と、検索の対象期間の終了日時を選択するための期間終了ボタンDE1と、が配置される。また、検索される捜索対象人物の外見的なイメージあるいは雰囲気を示す検索対象人物像表示枠PL1が配置される。   Further, the person search application displays various buttons on the person search screen WD1 to assist in searching for a search target person in a police search. For example, a period start button DB1 for selecting the start date and time of the search target period and a period end button DE1 for selecting the end date and time of the search target period are arranged. In addition, a search target person image display frame PL1 indicating the appearance image or atmosphere of the search target person to be searched is arranged.

また、人物検索アプリは、捜索対象人物の検索において、2種類の検索方法の検索要求を人物検索サーバ50に実行できる。第1の検索方法は、メタサーチであり、例えば図7に示す設定画面DTL1において設定されるメタ情報に基づいて、そのメタ情報における特徴点の類似度が同一あるいは所定値以内となる特徴点を有する捜索対象人物を検索する方法である。実施の形態1ではこのメタサーチについて説明する。人物検索アプリは、このメタサーチを人物検索サーバ50に要求するためのメタサーチボタンMS1を人物検索画面WD1に表示する。   Further, the person search application can execute a search request of two types of search methods to the person search server 50 in searching for a search target person. The first search method is a meta search. For example, based on meta information set on a setting screen DTL1 shown in FIG. 7, feature points in which the similarity of the feature points in the meta information is the same or within a predetermined value are searched. This is a method of searching for a search target person having the search target. Embodiment 1 describes this meta search. The person search application displays a meta search button MS1 for requesting the meta search to the person search server 50 on the person search screen WD1.

第2の検索方法は、イメージサーチであり、例えば図11に示す切り出し画像Xpc1あるいは図12に示す人物枠WK1において選択されるイメージデータに基づいて、そのイメージデータにおける特徴点の類似度が同一あるいは所定値以内となる特徴点を有する捜索対象人物を検索する方法である。実施の形態2ではこのイメージサーチについて説明する。人物検索アプリは、このイメージサーチを人物検索サーバ50に要求するためのイメージサーチボタンIS1を人物検索画面WD1に表示する。   The second search method is an image search. For example, based on image data selected in the cut-out image Xpc1 shown in FIG. 11 or the person frame WK1 shown in FIG. This is a method of searching for a search target person having a feature point within a predetermined value. Embodiment 2 describes this image search. The person search application displays an image search button IS1 for requesting the image search to the person search server 50 on the person search screen WD1.

また、人物検索アプリは、人物検索画面WD1における捜索対象人物の検索結果のデータを事案レポートとして保存するためのレポートボタンRP1を人物検索画面WD1に表示する。ユーザ操作によりレポートボタンRP1が選択されると、人物検索アプリは、人物検索画面WD1における捜索対象人物の検索結果のデータ(例えば、地図データMP1と検索条件と検索結果である切り出し画像のデータ)を事案レポートとして記録部96に保存する。また、クライアント端末90は、事案レポートのデータを事案レポートの識別情報(例えばファイル名)と対応付けて人物検索サーバ50に送ってよい。人物検索サーバ50は、事案レポートの識別情報(例えばファイル名)に対応付けられる事案レポートのデータを事案DB56bに保存する。   In addition, the person search application displays a report button RP1 on the person search screen WD1 for saving the search result data of the search target person on the person search screen WD1 as a case report. When the report button RP1 is selected by a user operation, the person search application displays the search result data of the search target person on the person search screen WD1 (for example, map data MP1, search conditions, and cutout image data as a search result). It is stored in the recording unit 96 as a case report. Further, the client terminal 90 may send the data of the case report to the person search server 50 in association with the identification information (for example, the file name) of the case report. The person search server 50 stores the data of the case report associated with the identification information (for example, the file name) of the case report in the case DB 56b.

また、人物検索アプリは、表示中の人物検索画面WD1を初期状態(言い換えると、捜索対象人物の検索開始前)の人物検索画面WD1に戻すためのリセットボタンRS1を人物検索画面WD1に表示する。これにより、ユーザは、例えば人物検索画面WD1における捜索対象人物の検索の際に間違った操作を行った場合等に、捜索対象人物の検索を最初から簡易にやり直すことができる。   Further, the person search application displays a reset button RS1 on the person search screen WD1 for returning the displayed person search screen WD1 to the initial state (in other words, before starting the search for the search target person) to the person search screen WD1. This allows the user to easily restart the search for the search target person from the beginning, for example, when the user performs an incorrect operation when searching for the search target person on the person search screen WD1.

図7は、検索される捜索対象人物の特徴情報の設定画面DTL1の一例を示す図である。人物検索アプリは、ユーザ操作により、捜索対象人物を検索するための検索条件の3大要素として、主に日付(Time&Date)と、特徴(Characteristics)と、服装(Decoration)とをユーザに設定可能な設定画面DTL1を人物検索画面WD1に重畳して表示する。また、人物検索アプリは、ユーザ操作により特徴(Characteristics)および服装(Decoration)の設定により特定される検索対象人物像IPS1を設定画面DTL1に表示する。これにより、ユーザは、自ら設定した特徴(Characteristics)および服装(Decoration)の結果に相当する検索対象人物像IPS1を視覚的に確認でき、自らの設定の是非を簡易に判断できる。   FIG. 7 is a diagram illustrating an example of a setting screen DTL1 of feature information of a search target person to be searched. The person search application can mainly set a date (Time & Date), a characteristic (Characteristics), and a dress (Decoration) as three main elements of search conditions for searching for a search target person by a user operation. The setting screen DTL1 is superimposed and displayed on the person search screen WD1. In addition, the person search application displays a search target person image IPS1 specified by setting of characteristics (Characteristics) and clothes (Decoration) by a user operation on the setting screen DTL1. Thereby, the user can visually confirm the search target person image IPS1 corresponding to the result of the characteristics (Characteristics) and the clothes (Decoration) set by the user, and can easily determine whether or not the user's setting is appropriate.

日付(Time&Date)には、捜索対象人物の検索期間の開始日時および終了日時をそれぞれ設定可能とするためのカレンダーアイコンが表示される。例えば、ユーザ操作により、日付(Time&Date)のカレンダーアイコンが選択されると、人物検索アプリは、カレンダーボックスCAL1を地図データMP1に重畳して表示する。これにより、ユーザ操作により、捜索対象人物の検索期間の開始日時および終了日時が選択可能となる。なお、カレンダーアイコンの選択に限らず、ユーザ操作により、捜索対象人物の検索期間の開始日時および終了日時が直接に入力されてもよい。例えば図7では、日付(Time&Date)として、「2018年8月24日の午後12時」から「2018年8月24日の午後1時」が選択されている。   For the date (Time & Date), a calendar icon for enabling setting of the start date and time and the end date and time of the search period of the search target person is displayed. For example, when a calendar icon of a date (Time & Date) is selected by a user operation, the person search application superimposes and displays a calendar box CAL1 on the map data MP1. Thereby, the start date and time and the end date and time of the search period of the search target person can be selected by the user operation. The start date and time and the end date and time of the search period of the search target person may be directly input by a user operation without being limited to the selection of the calendar icon. For example, in FIG. 7, “12:00 pm on August 24, 2018” to “1:00 pm on August 24, 2018” are selected as the date (Time & Date).

また、特徴(Characteristics)には、捜索対象人物の外見の一部に関する情報の選択肢が選択可能に表示される。表示される選択肢は、性別に関する選択肢(具体的には「Male」あるいは「Female」)と、年齢に関する選択肢(具体的には「Younger」、「Middle」あるいは「Older」)と、身長に関する選択肢(具体的には「Small」、「Normal」あるいは「Large」)と、体型に関する選択肢(具体的には「Slim」、「Normal」あるいは「Thick)である。これにより、ユーザは、捜索対象人物の性別やサイズ等の外見的な特徴をきめ細かく選択できる。例えば図7では、特徴(Characteristics)として、「男性(Male)」、「年配(Older)」、「細身(Slim)」が選択されている。   Further, in the feature (Characteristics), information options regarding a part of the appearance of the search target person are displayed so as to be selectable. The displayed options include a gender option (specifically, “Male” or “Female”), an age option (specifically, “Younger”, “Middle”, or “Older”), and a height option ( Specifically, there are “Small”, “Normal” or “Large”), and options related to the body type (specifically, “Slim”, “Normal” or “Thick”). For example, in FIG. 7, "Male", "Older", and "Slim" are selected as the characteristics (Characteristics) in FIG. .

また、服装(Decoration)には、捜索対象人物の外見の一部に関する情報の選択肢が選択可能に表示される。表示される選択肢は、所持品に関する選択肢(具体的には「with bag」あるいは「no bag」)と、装着物に関する選択肢(具体的には「with hat」あるいは「no hat」)と、上半身の服装に関する選択肢(具体的には「Long sleeved」あるいは「Short sleeved」)と、下半身の服装に関する選択肢(具体的には「Long Pants」、「Short
Pants」あるいは「Skirt」)と、髪型に関する選択肢(具体的には「Long Hair」、「Short Hair」あるいは「No Hair」)である。また、服装や所持品、装着物については色も選択可能である。例えば、赤色(Red)、青色(Blue)、緑色(Green)、黄色(Yellow)、橙色(Orange)、茶色(Brown)、紫色(Purple)、灰色(Gray)、黒色(Black)、白色(White)から選択可能である。これにより、ユーザは、捜索対象人物の服装等に関する外見的な特徴をきめ細かく選択できる。例えば図7では、服装(Decoration)として、「鞄持ち(with bag)」、「帽子被り(with hat)」、「長袖(Long sleeved)」、「長ズボン(Long Pants)」が選択されており、上半身の服装については「青色(Blue)」が選択され、下半身の服装については「灰色(Gray)」が選択されている。
Further, in the clothing (Decoration), information options regarding a part of the appearance of the search target person are displayed so as to be selectable. The displayed options include an option for belongings (specifically, “with bag” or “no bag”), an option for the attached article (specifically, “with hat” or “no hat”), and an upper body. Clothing options (specifically "Long sleeved" or "Short sleeved") and lower body clothing options (specifically "Long Pants", "Short")
“Pants” or “Skirt”) and options related to the hairstyle (specifically, “Long Hair”, “Short Hair”, or “No Hair”). In addition, colors can be selected for clothes, personal belongings, and attachments. For example, red (Red), blue (Blue), green (Green), yellow (Yellow), orange (Orange), brown (Brown), purple (Purple), gray (Gray), black (Black), white (White) ) Can be selected. As a result, the user can finely select the appearance characteristics related to the clothes and the like of the search target person. For example, in FIG. 7, “with bag”, “with hat”, “long sleeved”, and “long pants” are selected as the clothes (Decoration). For the upper body clothes, “Blue” is selected, and for the lower body clothes, “Gray” is selected.

図8は、設定された特徴情報を検索条件として用いたメタサーチによる人物検索結果を時系列に表示する人物検索画面WD1の一例を示す図である。人物検索アプリは、図7に示す設定画面DTL1において選択された検索対象人物像IPS1と一部の検索条件CON1とを検索対象人物像表示枠PL1に表示する。   FIG. 8 is a diagram illustrating an example of a person search screen WD1 that displays, in chronological order, person search results obtained by metasearch using the set feature information as search conditions. The person search application displays the search target person image IPS1 and some search conditions CON1 selected on the setting screen DTL1 shown in FIG. 7 in the search target person image display frame PL1.

人物検索アプリは、検索対象人物像表示枠PL1に検索対象人物像IPS1が表示された状態で、ユーザ操作によりメタサーチボタンMS1が押下されたことを検知する。この場合、人物検索アプリ(具体的には、プロセッサ92)は、検索対象人物像表示枠PL1に表示された検索対象人物像IPS1を特定するための各種の検索条件(例えば、検索期間を示す日付、捜索対象人物の特徴情報)と検索対象となるカメラの識別情報とを含む捜索対象人物の検索要求を生成し、通信部93を介して人物検索サーバ50に送信する。人物検索サーバ50は、クライアント端末90から送られた検索要求を受信すると、蓄積部56の解析情報DB56aに保存された解析結果を用いて、メタサーチにより、検索要求に含まれる各種の検索条件を満たす捜索対象人物と同一あるいは類似する人物(例えば予め指定された類似度の閾値以上となる人物)を検索する。人物検索サーバ50は、検索結果をクライアント端末90に送る。   The person search application detects that the meta search button MS1 has been pressed by a user operation while the search target person image IPS1 is displayed in the search target person image display frame PL1. In this case, the person search application (specifically, the processor 92) performs various search conditions (for example, a date indicating a search period) for specifying the search target person image IPS1 displayed in the search target person image display frame PL1. A search request for the search target person including the search target person characteristic information and the identification information of the search target camera is generated and transmitted to the person search server 50 via the communication unit 93. When receiving the search request sent from the client terminal 90, the person search server 50 performs various search conditions included in the search request by meta search using the analysis results stored in the analysis information DB 56a of the storage unit 56. A person who is the same as or similar to the search target person that satisfies the condition (for example, a person having a similarity threshold equal to or greater than a predetermined similarity threshold) is searched. The person search server 50 sends the search result to the client terminal 90.

人物検索アプリ(具体的には、プロセッサ92)は、通信部93を介して受信された検索結果を取得すると、捜索対象人物(つまり、検索対象人物像IPS1)と同一あるいは類似する人物の切り出し画像Xpc1,Xpc2,Xpc3,Xpc4,Xpc5,Xpc6,Xpc7,Xpc8,Xpc9,Xpc10,Xpc11,Xpc12,Xpc13,Xpc14,Xpc15,…を並べてリスト表示枠RST1内に表示する。それぞれの切り出し画像は、例えばサムネイル画像である。なお、人物検索アプリは、リスト表示枠RST1内に全ての切り出し画像を表示できない場合には、スクロールバーSCR1のユーザ操作により残りの切り出し画像をスクロールして表示でき、以下の実施の形態でも同様である。   Upon acquiring the search result received via the communication unit 93, the person search application (specifically, the processor 92) cuts out an image of the same or similar person as the search target person (that is, the search target person image IPS1). Xpc1, Xpc2, Xpc3, Xpc4, Xpc5, Xpc6, Xpc7, Xpc8, Xpc9, Xpc10, Xpc11, Xpc12, Xpc13, Xpc14, Xpc15,... Are arranged and displayed in the list display frame RST1. Each cut-out image is, for example, a thumbnail image. Note that, when not all cutout images can be displayed in the list display frame RST1, the person search application can scroll and display the remaining cutout images by a user operation of the scroll bar SCR1, and the same applies to the following embodiments. is there.

例えば、人物検索アプリは、捜索対象人物(つまり、検索対象人物像IPS1)と同一あるいは類似する人物の切り出し画像Xpc1,Xpc2,Xpc3,Xpc4,Xpc5,Xpc6,Xpc7,Xpc8,Xpc9,Xpc10,Xpc11,Xpc12,Xpc13,Xpc14,Xpc15,…を、検索対象人物像IPS1と同一あるいは類似する順に表示してよい。これにより、ユーザは、スクロールバーSCR1を用いたスクロール処理を行うことなく、表示された切り出し画像を優先的に確認することで、自ら把握したい捜索対象人物を早期に見つけることができる。   For example, the person search application outputs the cut-out images Xpc1, Xpc2, Xpc3, Xpc4, Xpc5, Xpc6, Xpc7, Xpc8, Xpc9, Xpc10, Xpc11, and the same or similar to the search target person (that is, the search target person image IPS1). Xpc12, Xpc13, Xpc14, Xpc15,... May be displayed in the same or similar order as the search target person image IPS1. Thus, the user can find the search target person he or she wants to grasp by checking the displayed cut-out image preferentially without performing the scroll process using the scroll bar SCR1.

例えば、人物検索アプリは、捜索対象人物(つまり、検索対象人物像IPS1)と同一あるいは類似する人物の切り出し画像Xpc1,Xpc2,Xpc3,Xpc4,Xpc5,Xpc6,Xpc7,Xpc8,Xpc9,Xpc10,Xpc11,Xpc12,Xpc13,Xpc14,Xpc15,…を、それぞれの切り出し画像が撮像された撮像時刻の順(例えば、撮像時刻の古い順あるいは新しい順)に時系列に表示してよい。これにより、ユーザは、撮像時刻の古い順あるいは新しい順に表示された切り出し画像を優先的に確認することで、自ら把握したい捜索対象人物を早期に見つけることができる。   For example, the person search application outputs the cut-out images Xpc1, Xpc2, Xpc3, Xpc4, Xpc5, Xpc6, Xpc7, Xpc8, Xpc9, Xpc10, Xpc11, and the same or similar to the search target person (that is, the search target person image IPS1). , Xpc12, Xpc13, Xpc14, Xpc15,... May be displayed in chronological order in the order of the imaging times at which the respective cut-out images were captured (for example, in the order of oldest or newest imaging times). This allows the user to find the search target person he or she wants to grasp early by preferentially checking the clipped images displayed in the order of the oldest or newest imaging time.

例えば、人物検索アプリは、捜索対象人物(つまり、検索対象人物像IPS1)と同一あるいは類似する人物の切り出し画像Xpc1,Xpc2,Xpc3,Xpc4,Xpc5,Xpc6,Xpc7,Xpc8,Xpc9,Xpc10,Xpc11,Xpc12,Xpc13,Xpc14,Xpc15,…を、それぞれの切り出し画像に対応するカメラの設置された交差点ごとに纏めて表示してよい。これにより、ユーザは、捜索対象人物の存在する可能性のある交差点を把握している場合等に、該当する交差点に対応して纏めて表示された一個あるいは複数個の切り出し画像を優先的に確認することで、自ら把握したい捜索対象人物を早期に見つけることができる。   For example, the person search application outputs the cut-out images Xpc1, Xpc2, Xpc3, Xpc4, Xpc5, Xpc6, Xpc7, Xpc8, Xpc9, Xpc10, Xpc11, and the same or similar to the search target person (that is, the search target person image IPS1). Xpc12, Xpc13, Xpc14, Xpc15,... May be displayed collectively for each intersection where a camera corresponding to each cut-out image is installed. This allows the user to preferentially check one or more cutout images collectively displayed corresponding to the relevant intersection, for example, when grasping an intersection where the search target person may be located. By doing so, it is possible to quickly find the search target person that he / she wants to grasp.

図9は、選択された切り出し画像Xpc1に対応する撮像映像MV1の再生画面の表示例を示す図である。人物検索アプリは、リスト表示枠RST1内に表示された複数個の切り出し画像Xpc1〜Xpc15,…のうちいずれかの切り出し画像(例えば切り出し画像Xpc1)が所定のユーザ操作により選択されたことを検知する。この場合、人物検索アプリは、選択された切り出し画像Xpc1に対応する撮像映像MV1(つまり、切り出し画像Xpc1に映る人物が撮像された時点におけるカメラの撮像映像)を再生可能な再生画面を表示する。人物検索アプリは、この再生画面において、「再生」、「一時停止」、「早送り」、「早戻し」、「最初に戻す」、「次に進む」等の各種のユーザ操作を受け付けるためのアイコンを配置して表示する。   FIG. 9 is a diagram illustrating a display example of a playback screen of the captured video MV1 corresponding to the selected cut-out image Xpc1. The person search application detects that one of the cutout images Xpc1 to Xpc15,... Displayed in the list display frame RST1 (for example, the cutout image Xpc1) is selected by a predetermined user operation. . In this case, the person search application displays a playback screen on which the captured video MV1 corresponding to the selected cutout image Xpc1 (that is, the video captured by the camera at the time when the person shown in the cutout image Xpc1 is captured) is displayed. The person search application has an icon for accepting various user operations such as “play”, “pause”, “fast forward”, “fast rewind”, “return to first”, and “next” on the replay screen. And display it.

また、人物検索アプリは、撮像映像MV1の再生画面の表示に連動して、いずれかの切り出し画像(例えば切り出し画像Xpc1)の選択前に表示されていた撮像映像MV2,MV3の表示画面を、地図データMP1の対応する交差点の周囲に配置換えして表示する。これにより、ユーザは、撮像映像MV2,MV3の表示画面と対応する交差点との位置の相関性を直感的かつ視覚的に分かり易く把握でき、警察捜査を効率的に支援できる。   In addition, in association with the display of the playback screen of the captured video MV1, the person search application changes the display screen of the captured video MV2 or MV3 displayed before selecting any of the cutout images (for example, the cutout image Xpc1) to a map. It is rearranged and displayed around the corresponding intersection of the data MP1. Thus, the user can intuitively and visually understand the correlation between the display screens of the captured images MV2 and MV3 and the corresponding intersections in an intuitive and easy-to-understand manner, and can efficiently support the police investigation.

次に、実施の形態1に係る人物検索システム100の動作手順について、図10を参照して説明する。図10は、実施の形態1に係る人物検索システム100の動作手順例を説明するフローチャートである。図10に示される処理は、クライアント端末90と人物検索サーバ50とにより実行される。   Next, an operation procedure of the person search system 100 according to Embodiment 1 will be described with reference to FIG. FIG. 10 is a flowchart illustrating an example of an operation procedure of person search system 100 according to Embodiment 1. The process illustrated in FIG. 10 is executed by the client terminal 90 and the person search server 50.

図10において、人物検索サーバ50は、人物検索システム100を構成するカメラ10,10a,…のそれぞれから送られた撮像映像のデータを受信する度に、その撮像映像のデータを解析する。人物検索サーバ50は、解析により、人物に関する情報(例えば、人物が映る切り出し画像、人物の特徴、人物の位置、人物の交差点通過時の移動方向)を解析結果として生成して蓄積部56の解析情報DB56aに保存する(St1)。このステップSt1の処理は、人物検索サーバ50がクライアント端末90からの検索要求を取得する事前に行われる。   In FIG. 10, each time the person search server 50 receives the data of the captured video transmitted from each of the cameras 10, 10a,... Which configure the person search system 100, the personal search server 50 analyzes the data of the captured video. The person search server 50 generates information on the person by analysis (for example, a cut-out image of the person, the characteristics of the person, the position of the person, and the moving direction of the person when passing through the intersection) as an analysis result, and analyzes the accumulation unit 56. The information is stored in the information DB 56a (St1). The process of step St1 is performed before the person search server 50 acquires a search request from the client terminal 90.

クライアント端末90は、捜索対象人物(例えば検索対象人物像IPS1)の検索条件として、検索対象人物像IPS1を構成するための各種の特徴情報のユーザ操作による選択(図7参照)を受け付ける(St2)。クライアント端末90は、ユーザ操作により、捜索対象人物の検索対象となるカメラの撮像映像の選択を受け付ける(St3)。なお、ステップSt2,St3の処理は順不同で構わない。クライアント端末90は、ステップSt2,St3の後、例えばメタサーチボタンMS1がユーザ操作により押下されたことを検知すると、検索対象人物像表示枠PL1に表示された検索対象人物像IPS1を特定するための各種の検索条件(例えば、検索期間を示す日付、捜索対象人物の特徴情報)と検索対象となるカメラの識別情報とを含む捜索対象人物の検索要求を生成し、人物検索サーバ50に送信する。   The client terminal 90 accepts, as a search condition of the search target person (for example, the search target person image IPS1), a selection (see FIG. 7) of various characteristic information for configuring the search target person image IPS1 by a user operation (see FIG. 7) (St2). . The client terminal 90 accepts, by a user operation, selection of a captured image of a camera to be searched for a search target person (St3). Note that the processing of steps St2 and St3 may be performed in any order. After detecting Steps St2 and St3, for example, when the meta search button MS1 is pressed by a user operation, the client terminal 90 specifies the search target person image IPS1 displayed in the search target person image display frame PL1. A search request for a search target person including various search conditions (for example, a date indicating a search period, characteristic information of a search target person) and identification information of a camera to be searched is generated and transmitted to the person search server 50.

人物検索サーバ50は、クライアント端末90から送られた検索要求を受信すると、検索要求に含まれる検索期間を示す日付における、検索対象となるカメラの識別情報に対応する撮像映像に対応する解析結果(ステップSt1参照)を解析情報DB56aから取り出す(St4)。人物検索サーバ50は、予め選択された類似度の閾値に関する情報を、例えばメモリ52から読み出して設定する(St5)。人物検索サーバ50は、ステップSt5の後、ステップSt4において取り出された解析結果(人物に関する情報)とクライアント端末90から送られた検索要求に含まれる捜索対象人物の特徴情報(図7参照)とをメタサーチによって比較して類似度を算出する(St6)。   When receiving the search request sent from the client terminal 90, the person search server 50 analyzes the captured image corresponding to the captured image corresponding to the identification information of the camera to be searched on the date indicating the search period included in the search request ( (Step St1) is extracted from the analysis information DB 56a (St4). The person search server 50 reads out information on the previously selected similarity threshold from, for example, the memory 52 and sets the information (St5). After step St5, the person search server 50 compares the analysis result (information about the person) extracted in step St4 and the characteristic information of the search target person included in the search request sent from the client terminal 90 (see FIG. 7). The degree of similarity is calculated by comparison using a meta search (St6).

人物検索サーバ50は、ステップSt6において算出された類似度が閾値(ステップSt5参照)以上であるか否かを判断する(St7)。人物検索サーバ50は、算出された類似度が閾値以上であると判断した場合(St7、YES)、その閾値を超えた人物が映る切り出し画像(例えばサムネイル画像)を検索結果の一例として、その切り出し画像のデータとその切り出し画像をクライアント端末90に表示する旨の指示とをクライアント端末90に送る(St8)。クライアント端末90は、人物検索サーバ50から送られた指示に基づいて、該当する切り出し画像を人物検索画面WD1のリスト表示枠RST1に表示する(St8)。なお、前述したように、クライアント端末90は、リスト表示枠RST1に表示する対象となる切り出し画像を複数受け取っている場合、それらの切り出し画像を類似度の高い順、時系列順、あるいは交差点順に並べて表示してよい。   The person search server 50 determines whether or not the similarity calculated in Step St6 is equal to or larger than a threshold (see Step St5) (St7). If the person search server 50 determines that the calculated similarity is equal to or larger than the threshold (St7, YES), the cutout image (for example, a thumbnail image) in which a person exceeding the threshold is shown as an example of the search result, and the cutout is performed. The image data and an instruction to display the cut-out image on the client terminal 90 are sent to the client terminal 90 (St8). The client terminal 90 displays the corresponding cut-out image in the list display frame RST1 of the person search screen WD1 based on the instruction sent from the person search server 50 (St8). As described above, when the client terminal 90 receives a plurality of cutout images to be displayed in the list display frame RST1, the client terminal 90 arranges the cutout images in the order of similarity, in chronological order, or in the order of intersection. May be displayed.

一方、人物検索サーバ50は、算出された類似度が閾値未満であると判断した場合(St7、NO)、ステップSt8の処理を省略する。人物検索サーバ50は、この後あるいはステップSt8の後、ステップSt6において算出された類似度が閾値以上であるか否かの比較を行う対象となる人物が存在するか否かを判断する(St9)。ステップSt6において算出された類似度が閾値以上であるか否かの比較を行う対象となる人物が存在しないと判断された場合(St9、NO)、人物検索サーバ50の処理(つまり、クライアント端末90からの検索要求に対応する処理)は終了する。クライアント端末90は、人物検索サーバ50による検索結果に対応する複数人の切り出し画像を並べて表示する(図8あるいは図9参照)。   On the other hand, when determining that the calculated similarity is smaller than the threshold (St7, NO), the person search server 50 omits the process of Step St8. After this or after step St8, the person search server 50 determines whether or not there is a person to be compared whether or not the similarity calculated in step St6 is equal to or greater than a threshold (St9). . If it is determined that there is no person to be compared whether the calculated similarity is equal to or greater than the threshold value in Step St6 (St9, NO), the process of the person search server 50 (that is, the client terminal 90) The processing corresponding to the search request from is terminated. The client terminal 90 displays the cutout images of a plurality of persons corresponding to the search result by the person search server 50 side by side (see FIG. 8 or FIG. 9).

人物検索サーバ50は、ステップSt6において算出された類似度が閾値以上であるか否かの比較を行う対象となる人物が存在すると判断した場合(St9、YES)、その次に該当する人物について、ステップSt6の処理を実行すると判断する(St10)。この後、人物検索サーバ50は、その次に該当する人物について、ステップS6の処理を行う。人物検索サーバ50は、ステップSt6において算出された類似度が閾値以上であるか否かの比較を行う対象となる人物が存在しなくなるまで、ステップSt6〜ステップSt10の処理を繰り返して実行する。   If the person search server 50 determines that there is a person to be compared whether or not the similarity calculated in step St6 is equal to or larger than the threshold (St9, YES), the person corresponding to the next person is determined as follows. It is determined that the processing of step St6 is to be executed (St10). Thereafter, the person search server 50 performs the process of step S6 for the next corresponding person. The person search server 50 repeatedly executes the processing from Step St6 to Step St10 until there is no more person to be compared whether or not the similarity calculated in Step St6 is equal to or larger than the threshold.

以上により、実施の形態1に係る人物検索システム100は、n(n:3以上の整数)台のカメラのそれぞれと通信可能に接続された人物検索サーバ50と、人物検索サーバ50と通信可能に接続されたクライアント端末90とを含む。人物検索サーバ50は、n台のカメラのそれぞれから送られた異なる撮像映像を受信すると、それぞれの撮像映像に映る人物の位置情報および特徴情報を解析して解析結果として蓄積する。クライアント端末90は、n台のカメラのうちユーザ操作により選択されたk(k:k≦nを満たす2以上の整数)台のカメラの撮像映像のそれぞれを人物検索画面WD1に表示する。クライアント端末90は、捜索対象人物の外見に関する特徴情報の選択に応じて、k個の撮像映像において特徴情報を満たす捜索対象人物の検索要求を人物検索サーバ50に送る。人物検索サーバ50は、検索要求に応じて、解析結果を用いてk個の撮像映像における特徴情報を満たす捜索対象人物に関する解析結果を抽出してクライアント端末90に送る。クライアント端末90は、捜索対象人物に関する解析結果に基づいて、捜索対象人物と同一あるいは類似する複数の人物の切り出し画像を並べて表示する。   As described above, the person search system 100 according to the first embodiment enables the person search server 50 communicably connected to each of n (n: an integer of 3 or more) cameras and the communicable with the person search server 50. And a connected client terminal 90. When receiving the different captured images sent from each of the n cameras, the person search server 50 analyzes the position information and the characteristic information of the person appearing in each of the captured images, and accumulates the analysis results. The client terminal 90 displays, on the person search screen WD1, captured images of k cameras (k: an integer of 2 or more that satisfies k ≦ n) selected by a user operation among the n cameras. The client terminal 90 sends a search request for a search target person that satisfies the characteristic information in the k captured images to the person search server 50 in accordance with the selection of the characteristic information related to the appearance of the search target person. In response to the search request, the person search server 50 extracts an analysis result regarding the search target person that satisfies the characteristic information in the k captured images using the analysis result and sends the result to the client terminal 90. The client terminal 90 displays side-by-side cut-out images of a plurality of persons that are the same as or similar to the search target person based on the analysis result regarding the search target person.

これにより、人物検索システム100は、多くの人が行き交う地点(例えば交差点)で事件等が発生した場合、犯人の服装等の外見に関する特徴情報を基にして複数のカメラの撮像映像から視覚的に類似する人物の撮像画像を抽出できる。従って、人物検索システム100は、犯人の視覚的な特徴ならびに逃走方向の早期把握を効率的に支援できるので、警察捜査の利便性を的確に向上できる。   Accordingly, when an incident or the like occurs at a point (for example, an intersection) where many people come and go, the person search system 100 visually recognizes the captured image of the plurality of cameras based on the characteristic information on the appearance of the criminal's clothes and the like. A captured image of a similar person can be extracted. Therefore, since the person search system 100 can efficiently support the visual characteristics of the criminal and the early grasp of the escape direction, it is possible to appropriately improve the convenience of the police investigation.

また、クライアント端末90は、k台のカメラが設置された地点を示す地図データMP1を人物検索画面WD1に表示する。これにより、ユーザは、捜索対象人物の検索をクライアント端末90から人物検索サーバ50に要求する際に、犯人が逃走する可能性のある地点を、地図データMP1を閲覧しながら地理的な位置関係を把握した上で、検索対象となるカメラを視覚的かつ簡易に選択できる。   Further, the client terminal 90 displays map data MP1 indicating a point where k cameras are installed on the person search screen WD1. Thereby, when the user requests the search of the search target person from the client terminal 90 to the person search server 50, the user may browse the map data MP1 to determine a geographical positional relationship while viewing the map data MP1. After grasping, it is possible to visually and easily select a camera to be searched.

また、クライアント端末90は、捜索対象人物に関する解析結果に基づいて、捜索対象人物と同一あるいは類似する複数の人物の移動経路を地図データMP1に重畳して表示する(図13参照)。これにより、ユーザは、地図データMP1において事件等の犯人の逃走経路の候補を全て捉えることができるので、的確に絞り込み易くできる。   In addition, the client terminal 90 superimposes and displays the movement routes of a plurality of persons the same as or similar to the search target person on the map data MP1 based on the analysis result regarding the search target person (see FIG. 13). This allows the user to grasp all the escape route candidates of the culprit such as an incident in the map data MP1, so that it is easy to narrow down precisely.

また、クライアント端末90は、複数の人物の切り出し画像のうち少なくとも1つの切り出し画像を削除するためのユーザ操作に応じて、地図データに表示された捜索対象人物の移動経路を更新して表示する(図14参照)。これにより、ユーザは、リスト表示枠RST1に表示された複数の切り出し画像の中で、捜索対象人物と異なる不要な人物の切り出し画像を削除する操作を行うだけで、目的とする捜索対象人物の行方を的確に絞り込むことができる。   Further, the client terminal 90 updates and displays the moving route of the search target person displayed on the map data in accordance with a user operation for deleting at least one cutout image of the cutout images of the plurality of persons ( See FIG. 14). Thus, the user only needs to perform an operation of deleting a cutout image of an unnecessary person different from the search target person from among the plurality of cutout images displayed in the list display frame RST1, and the destination of the target search target person is deleted. Can be accurately narrowed down.

また、クライアント端末90は、捜索対象人物の外見に関する特徴情報として、人物の性別、年齢、身長、体型、服装等の外見情報の選択を受け付ける。これにより、ユーザは、捜索対象人物の性別やサイズ等の外見的な特徴、および捜索対象人物の服装等に関する外見的な特徴をきめ細かく選択できる。従って、クライアント端末90は、人物検索サーバ50により厳選された捜索対象人物と同一あるいは類似する人物の切り出し画像を表示でき、ユーザの捜査効率を的確に向上できる。   In addition, the client terminal 90 accepts selection of appearance information such as the sex, age, height, body type, and clothes of the person as characteristic information on the appearance of the search target person. This allows the user to finely select the appearance characteristics such as the sex and size of the search target person and the appearance characteristics related to the clothes and the like of the search target person. Therefore, the client terminal 90 can display a cut-out image of the same or similar person as the search target person carefully selected by the person search server 50, and can appropriately improve the search efficiency of the user.

また、クライアント端末90は、捜索対象人物と同一あるいは類似する複数の人物の切り出し画像を、それぞれの人物が撮像された撮像時刻の順に沿って時系列に並べて表示する。これにより、ユーザは、撮像時刻の古い順あるいは新しい順に表示された切り出し画像を優先的に確認することで、自ら把握したい捜索対象人物を早期に見つけることができる。   In addition, the client terminal 90 displays cutout images of a plurality of persons that are the same as or similar to the search target person in chronological order along the order of the imaging times when the persons were imaged. This allows the user to find the search target person he or she wants to grasp early by preferentially checking the clipped images displayed in the order of the oldest or newest imaging time.

また、クライアント端末90は、捜索対象人物と同一あるいは類似する複数の人物の切り出し画像を、捜索対象人物との類似性が高い順に沿って並べて表示する。これにより、ユーザは、例えば図8あるいは図9に示すスクロールバーSCR1を用いたスクロール処理を行うことなく、表示された切り出し画像を優先的に確認することで、自ら把握したい捜索対象人物を早期に見つけることができる。   In addition, the client terminal 90 displays cutout images of a plurality of persons that are the same as or similar to the search target person, arranged in descending order of similarity with the search target person. This allows the user to check the displayed cut-out image preferentially without performing the scroll processing using the scroll bar SCR1 shown in FIG. 8 or FIG. Can be found.

(実施の形態2の構成に至る経緯)
上述した特許文献1では、多くの人が行き交う地点(例えば交差点)において発生した事件または事故(以下「事件等」)を引き起こした人物(つまり犯人)に視覚的に類似する人物を撮像したカメラの撮像画像を特定し、この特定された撮像画像を手掛かりに類似する撮像画像を他のカメラの撮像映像から検索することは考慮されていない。
(Process leading to the configuration of Embodiment 2)
In Patent Document 1 described above, a camera that captures a person visually resembling a person (that is, a criminal) that caused an incident or an accident (hereinafter, “incident or the like”) that occurred at a point (for example, an intersection) where many people come and go is described. No consideration is given to specifying a captured image and retrieving a captured image similar to a clue from the captured video of another camera with the specified captured image.

事件等が発生した場合、犯人の視覚的な特徴ならびにその行方を早期に把握することは警察の初動捜査において重要である。ところが、これまでの従来技術では、交差点に設置されたカメラにより撮影された映像や目撃情報等の手掛かりを収集し、警察官がこれらの映像や目撃情報等を頼りに、犯人に該当しそうな人物の特徴や逃走方向を把握していた。このため、警察官は犯人の特徴や逃走方向の把握に時間がかかっており、初動捜査が遅れる可能性があり効率的でないという課題があった。   When an incident or the like occurs, it is important to grasp the visual characteristics and the whereabouts of the criminal at an early stage in an initial police investigation. However, in the conventional technology up to now, clues such as images taken by cameras installed at intersections and sighting information are collected, and police officers rely on these images and sighting information, etc. I knew the characteristics and the direction of escape. For this reason, it takes time for police officers to grasp the characteristics of the culprit and the direction of the escape, and there is a problem that the initial investigation may be delayed, which is inefficient.

以下の実施の形態2では、多くの人が行き交う地点で事件等が発生した場合、犯人に視覚的に類似する人物の撮像画像を高精度に抽出し、犯人の視覚的な特徴等の早期把握を効率的に支援し、警察捜査の利便性を的確に向上する人物検索システムおよび人物検索方法の例を説明する。   In the following embodiment 2, when an incident or the like occurs at a point where many people come and go, a captured image of a person visually similar to the criminal is extracted with high accuracy, and the visual characteristics of the criminal are grasped at an early stage. The following describes an example of a person search system and a person search method that efficiently supports the search and accurately improves the convenience of a police investigation.

(実施の形態2)
実施の形態2に係る人物検索システムの内部構成は、実施の形態1に係る人物検索システム100の内部構成と同一である。従って、実施の形態2の説明において、実施の形態1に係る人物検索システム100の内部構成と同一の構成については同一の符号を付与して説明を簡略化あるいは省略し、異なる内容について説明する。
(Embodiment 2)
The internal configuration of the person search system according to the second embodiment is the same as the internal configuration of person search system 100 according to the first embodiment. Therefore, in the description of the second embodiment, the same configuration as the internal configuration of the person search system 100 according to the first embodiment will be denoted by the same reference numeral, and the description will be simplified or omitted, and different contents will be described.

図11は、選択された切り出し画像Xpc1のイメージサーチの検索条件への設定例を示す図である。人物検索アプリは、リスト表示枠RSR1に表示された複数の切り出し画像のうち、所定のユーザ操作によりいずれかの切り出し画像(例えば切り出し画像Xpc1)が選択されたことを検知する。この場合、人物検索アプリは、切り出し画像Xpc1を検索対象人物像表示枠PL1にコピーアンドペーストして表示する。つまり、人物検索アプリは、切り出し画像Xpc1に映る人物を、イメージサーチの検索対象人物像IPS2として検索対象人物像表示枠PL1に表示する。また、人物検索アプリは、切り出し画像Xpc1の人物に対応する人物検索サーバ50による解析結果を用いて、その人物(検索対象人物像IPS2)の主な特徴情報を一部の検索条件CON2として検索対象人物像表示枠PL1に表示する。   FIG. 11 is a diagram illustrating an example of setting the selected cut-out image Xpc1 as a search condition in an image search. The person search application detects that one of the cut-out images (for example, cut-out image Xpc1) has been selected by a predetermined user operation from the plurality of cut-out images displayed in list display frame RSR1. In this case, the person search application displays the cut-out image Xpc1 by copying and pasting it into the search target person image display frame PL1. That is, the person search application displays the person appearing in the cut-out image Xpc1 in the search target person image display frame PL1 as the search target person image IPS2 of the image search. In addition, the person search application uses the analysis result of the person search server 50 corresponding to the person in the cut-out image Xpc1 and sets the main feature information of the person (search target person image IPS2) as a part of the search condition CON2. It is displayed in the person image display frame PL1.

図12は、図9の撮像映像MV1の再生画面に表示された人物枠WK1,WK2を用いたイメージサーチの検索条件の設定例を示す図である。人物検索アプリは、図12に示すように、所定のユーザ操作により選択された切り出し画像Xpc1に対応する撮像映像MV1の再生画面を人物検索画面WD1に表示する際、切り出し画像Xpc1に対応する人物検索サーバ50による解析結果を用いて、再生画面に映る人物の人物枠WK1,WK2と性別および年齢層とを表示してよい。例えば、人物検索アプリは、人物枠WK1に対応する人物の性別および年齢層として、「M40」(つまり、男性であって40歳代)を表示する。同様に、人物検索アプリは、人物枠WK2に対応する人物の性別および年齢層として、「M30」(つまり、男性であって30歳代)を表示する。   FIG. 12 is a diagram illustrating a setting example of search conditions for image search using the person frames WK1 and WK2 displayed on the playback screen of the captured video MV1 in FIG. As shown in FIG. 12, when displaying the playback screen of the captured video MV1 corresponding to the cut-out image Xpc1 selected by a predetermined user operation on the person search screen WD1, the person search application searches for the person corresponding to the cut-out image Xpc1. Using the analysis result by the server 50, the person frames WK1 and WK2 and the gender and age group of the person reflected on the reproduction screen may be displayed. For example, the person search application displays “M40” (in other words, a man in his 40s) as the gender and age group of the person corresponding to the person frame WK1. Similarly, the person search application displays “M30” (that is, a man who is in his thirties) as the gender and age group of the person corresponding to the person frame WK2.

人物検索アプリは、撮像映像MV1の再生画面に表示された人物枠WK1,WK2のうち、所定のユーザ操作によりいずれかの人物枠(例えば人物枠WK1)が選択されたことを検知する。この場合、人物検索アプリは、選択された人物枠WK1内の画像を切り出し、その切り出し画像を検索対象人物像表示枠PL1にコピーアンドペーストする。つまり、人物検索アプリは、ペーストされた切り出し画像に映る人物を、イメージサーチの検索対象人物像IPS2として検索対象人物像表示枠PL1に表示する。また、人物検索アプリは、ペーストされた切り出し画像の人物に対応する人物検索サーバ50による解析結果を用いて、その人物(検索対象人物像IPS2)の主な特徴情報を一部の検索条件CON2として検索対象人物像表示枠PL1に表示する。   The person search application detects that one of the person frames WK1 and WK2 displayed on the playback screen of the captured video MV1 has been selected by a predetermined user operation (for example, the person frame WK1). In this case, the person search application cuts out the image in the selected person frame WK1, and copies and pastes the cut image into the search target person image display frame PL1. That is, the person search application displays the person appearing in the pasted cut-out image as the search target person image IPS2 of the image search in the search target person image display frame PL1. In addition, the person search application uses the analysis result of the person search server 50 corresponding to the person in the cut-out image that has been pasted, and sets the main feature information of the person (the search target person image IPS2) as a part of the search condition CON2. It is displayed in the search target person image display frame PL1.

図13は、図11の選択された切り出し画像Xpc1あるいは図12の人物枠WK1を用いたイメージサーチによる人物検索結果を時系列に表示する人物検索画面WD1の一例を示す図である。人物検索アプリは、図11の選択された切り出し画像Xpc1あるいは図12の人物枠WK1が所定のユーザ操作により選択されたことで、検索対象人物像表示枠PL1に検索対象人物像IPS2を表示する。   FIG. 13 is a diagram illustrating an example of a person search screen WD1 that displays a person search result by image search using the selected cutout image Xpc1 of FIG. 11 or the person frame WK1 of FIG. 12 in a time series. The person search application displays the search target person image IPS2 in the search target person image display frame PL1 when the selected cut-out image Xpc1 in FIG. 11 or the person frame WK1 in FIG. 12 is selected by a predetermined user operation.

この後、人物検索アプリは、ユーザ操作によりイメージサーチボタンIS1が押下されたことを検知する。この場合、人物検索アプリ(具体的には、プロセッサ92)は、検索対象人物像IPS2のイメージデータとその検索対象人物像IPS2を特定するための各種の検索条件(例えば、検索期間を示す日付)と検索対象となるカメラの識別情報とを含む捜索対象人物の検索要求を生成し、通信部93を介して人物検索サーバ50に送信する。但し、実施の形態2では、人物検索アプリは、検索要求の生成において、検索対象人物像IPS2の元となる人物が映っていた撮像映像MV1あるいは切り出し画像Xpc1に対応するカメラを除いた他のカメラを検索対象として選択して検索要求を生成する。人物検索サーバ50は、クライアント端末90から送られた検索要求を受信すると、蓄積部56の解析情報DB56aに保存された解析結果を用いて、イメージサーチにより、検索要求に含まれる各種の検索条件を満たす捜索対象人物と同一あるいは類似する人物を検索する。人物検索サーバ50は、検索結果をクライアント端末90に送る。   Thereafter, the person search application detects that the image search button IS1 has been pressed by a user operation. In this case, the person search application (specifically, the processor 92) performs various search conditions (for example, a date indicating a search period) for specifying the image data of the search target person image IPS2 and the search target person image IPS2. A search request for a search target person including the search request and the identification information of the camera to be searched is generated, and transmitted to the person search server 50 via the communication unit 93. However, in the second embodiment, in generating the search request, the person search application uses a camera other than the camera corresponding to the captured video MV1 or the cut-out image Xpc1 in which the person serving as the source of the search target person image IPS2 is shown. Is selected as a search target to generate a search request. When receiving the search request sent from the client terminal 90, the person search server 50 uses the analysis results stored in the analysis information DB 56a of the storage unit 56 to perform an image search to perform various search conditions included in the search request. Search for a person who is the same or similar to the search target person who satisfies. The person search server 50 sends the search result to the client terminal 90.

人物検索アプリ(具体的には、プロセッサ92)は、通信部93を介して受信された検索結果を取得すると、捜索対象人物(つまり、検索対象人物像IPS2)と同一あるいは類似する人物の切り出し画像Xpc1,Xpc21,Xpc22,Xpc5,Xpc23,Xpc24,Xpc25を並べてリスト表示枠RST1内に表示する。それぞれの切り出し画像は、例えばサムネイル画像である。   Upon acquiring the search result received via the communication unit 93, the person search application (specifically, the processor 92) cuts out an image of the same or similar person as the search target person (that is, the search target person image IPS2). Xpc1, Xpc21, Xpc22, Xpc5, Xpc23, Xpc24, and Xpc25 are arranged and displayed in the list display frame RST1. Each cut-out image is, for example, a thumbnail image.

また、人物検索アプリは、リスト表示枠RST1に表示された複数の切り出し画像Xpc1,Xpc21,Xpc22,Xpc5,Xpc23,Xpc24,Xpc25のそれぞれに映る人物が撮像されたカメラに対応する交差点の通過時の移動方向DRC1,DRC2,DRC3のそれぞれを地図データMP1に重畳して表示する。例えば、移動方向DRC1は「AA Street」に沿って、第3カメラの配置された交差点から第1カメラの配置された交差点に向かって移動する方向である。移動方向DRC2は「CC Street」に沿って、第1カメラの配置された交差点から第2カメラの配置された交差点に向かって移動する方向である。移動方向DRC3は「BB Street」に沿って、第2カメラの配置された交差点から第4カメラの配置された交差点に向かって移動する方向である。   In addition, the person search application is used when a plurality of cut-out images Xpc1, Xpc21, Xpc22, Xpc5, Xpc23, Xpc24, and Xpc25 displayed in the list display frame RST1 are passed through an intersection corresponding to a camera at which a person is imaged. Each of the moving directions DRC1, DRC2, and DRC3 is displayed so as to be superimposed on the map data MP1. For example, the movement direction DRC1 is a direction along the “AA Street” from the intersection where the third camera is arranged toward the intersection where the first camera is arranged. The movement direction DRC2 is a direction along the “CC Street” that moves from the intersection where the first camera is arranged toward the intersection where the second camera is arranged. The movement direction DRC3 is a direction along the “BB Street” that moves from the intersection where the second camera is arranged toward the intersection where the fourth camera is arranged.

なお、人物検索アプリは、上述した実施の形態1においても、リスト表示枠RST1に表示された全ての切り出し画像に映る人物が撮像されたカメラに対応する交差点の通過時の移動方向のそれぞれを地図データMP1に全て重畳して表示してよい。これにより、ユーザは、地図データMP1において事件等の犯人の逃走経路の候補を全て捉えることができるので、的確に絞り込み易くできる。   In the first embodiment, the person search application maps each of the moving directions at the time of passing through the intersection corresponding to the camera in which the person shown in all the cut-out images displayed in the list display frame RST1 has been captured. All the data may be superimposed and displayed on the data MP1. This allows the user to grasp all the escape route candidates of the culprit such as an incident in the map data MP1, so that it is easy to narrow down precisely.

図14は、所定のユーザ操作による不要な人物検索結果の削除例を示す図である。人物検索アプリは、図13に示すリスト表示枠RST1に表示された切り出し画像Xpc1,Xpc21,Xpc22,Xpc5,Xpc23,Xpc24,Xpc25のうち、所定のユーザ操作により不要な切り出し画像(例えば切り出し画像Xpc5,Xpc24)の選択を受け付ける。この場合、人物検索アプリは、選択された切り出し画像Xpc5,Xpc24を削除する対象であることを示す削除アイコンDLT1,DLT2を、切り出し画像Xpc5,Xpc24に重畳して表示する。なお、人物検索アプリは、削除アイコンDLT1,DLT2を重畳して表示する代わりに、選択された切り出し画像Xpc5,Xpc24をリスト表示枠RST1から削除してもよい。   FIG. 14 is a diagram illustrating an example of deleting an unnecessary person search result by a predetermined user operation. The person search application selects an unnecessary cutout image (for example, cutout image Xpc5 or Xpc5) from cutout images Xpc1, Xpc21, Xpc22, Xpc5, Xpc23, Xpc24, and Xpc25 displayed in list display frame RST1 shown in FIG. Xpc24) is accepted. In this case, the person search application superimposes and displays the deletion icons DLT1 and DLT2 indicating that the selected cutout images Xpc5 and Xpc24 are to be deleted on the cutout images Xpc5 and Xpc24. Note that the person search application may delete the selected cutout images Xpc5 and Xpc24 from the list display frame RST1 instead of displaying the delete icons DLT1 and DLT2 in a superimposed manner.

また、人物検索アプリは、切り出し画像Xpc5,Xpc24に重畳して削除アイコンDLT1,DLT2を表示することに連動して、切り出し画像Xpc5,Xpc24に映る人物に対応する人物検索サーバ50による解析結果を用いて、地図データMP1に表示されている移動方向を更新して表示する。具体的には、人物検索アプリは、削除アイコンDLT1,DLT2の表示前に地図データMP1に表示されていた全ての移動方向DRC1,DRC2,DRC3から、切り出し画像Xpc5,Xpc24に映る人物の交差点通過時の移動方向を削除するように更新し、切り出し画像Xpc1,Xpc21,Xpc22,Xpc23,Xpc25に映る人物の交差点通過時の移動方向DRC1,DRC2だけを残すように表示する。   In addition, in conjunction with displaying the delete icons DLT1 and DLT2 superimposed on the cutout images Xpc5 and Xpc24, the person search application uses the analysis result by the person search server 50 corresponding to the person shown in the cutout images Xpc5 and Xpc24. Then, the moving direction displayed on the map data MP1 is updated and displayed. More specifically, the person search application is configured to perform a search for all the moving directions DRC1, DRC2, and DRC3 displayed on the map data MP1 before displaying the delete icons DLT1 and DLT2, at the time of the intersection of a person reflected in the cut-out images Xpc5 and Xpc24. Is updated so as to delete the moving direction, and only the moving directions DRC1 and DRC2 at the time of passing through the intersection of the person shown in the cut-out images Xpc1, Xpc21, Xpc22, Xpc23, and Xpc25 are displayed.

次に、実施の形態2に係る人物検索システム100の動作手順について、図15を参照して説明する。図15は、実施の形態2に係る人物検索システム100の動作手順例を説明するフローチャートである。図15に示される処理は、クライアント端末90と人物検索サーバ50とにより実行される。図15に示す処理の説明において、図10に示す処理と同一の処理については同一のステップ番号を付与して説明を簡略化あるいは省略し、異なる内容について説明する。   Next, an operation procedure of the person search system 100 according to Embodiment 2 will be described with reference to FIG. FIG. 15 is a flowchart illustrating an example of an operation procedure of person search system 100 according to Embodiment 2. The processing illustrated in FIG. 15 is executed by the client terminal 90 and the person search server 50. In the description of the processing illustrated in FIG. 15, the same processing as the processing illustrated in FIG. 10 will be assigned the same step numbers, and the description will be simplified or omitted, and different contents will be described.

図15において、クライアント端末90は、ステップSt1の後、捜索対象人物(例えば検索対象人物像IPS2)の検索条件として、検索対象人物像IPS2の元となる人物が映っていた切り出し画像Xpc1(例えばサムネイル画像)のユーザ操作による選択(図11参照)を受け付ける(St11)。なお、クライアント端末90は、捜索対象人物(例えば検索対象人物像IPS2)の検索条件として、検索対象人物像IPS2の元となる人物が映っていた撮像映像MV1内の人物枠WK1のユーザ操作による選択(図11参照)を受け付けてもよい(St11)。クライアント端末90は、切り出し画像Xpc1を検索対象人物像表示枠PL1にコピーアンドペーストして表示する。   In FIG. 15, after step St1, the client terminal 90 sets a cut-out image Xpc1 (for example, a thumbnail) showing the person who is the source of the search target person image IPS2 as a search condition of the search target person (for example, search target person image IPS2). The selection by the user operation (see FIG. 11) of the image) is received (St11). The client terminal 90 selects the person frame WK1 in the captured video MV1 in which the person serving as the source of the search target person image IPS2 is selected by a user operation as a search condition of the search target person (for example, the search target person image IPS2). (See FIG. 11) may be accepted (St11). The client terminal 90 displays the cut-out image Xpc1 by copying and pasting it into the search target person image display frame PL1.

クライアント端末90は、ステップSt11の後、例えばイメージサーチボタンIS1がユーザ操作により押下されたことを検知すると、検索対象人物像表示枠PL1に表示された検索対象人物像IPS2のイメージデータとその検索対象人物像IPS2を特定するための各種の検索条件(例えば、検索期間を示す日付)と検索対象となるカメラの識別情報とを含む捜索対象人物の検索要求を生成し、通信部93を介して人物検索サーバ50に送信する。但し、前述したように、実施の形態2では、人物検索アプリは、検索要求の生成において、検索対象人物像IPS2の元となる人物が映っていた撮像映像MV1あるいは切り出し画像Xpc1に対応するカメラを除いた他のカメラを検索対象として選択して検索要求を生成する。   When the client terminal 90 detects, for example, that the image search button IS1 has been pressed by a user operation after Step St11, the client terminal 90 detects the image data of the search target person image IPS2 displayed in the search target person image display frame PL1 and the search target thereof. A search request for a search target person including various search conditions (for example, a date indicating a search period) for identifying the person image IPS2 and identification information of a camera to be searched is generated. Send it to the search server 50. However, as described above, in the second embodiment, in the generation of the search request, the person search application sets the camera corresponding to the captured image MV1 or the cut-out image Xpc1 in which the person who is the source of the search target person image IPS2 is shown. A search request is generated by selecting the excluded cameras as search targets.

人物検索サーバ50は、クライアント端末90から送られた検索要求を受信すると、検索要求に含まれる検索期間を示す日付における、検索対象となるカメラの識別情報を含み、その識別情報に対応する撮像映像のデータの送信要求を映像レコーダ70に送る。映像レコーダ70は、人物検索サーバ50からの送信要求に基づいて、送信要求に含まれるカメラの識別情報に対応する撮像映像のデータを取得して人物検索サーバ50に送信する。人物検索サーバ50は、映像レコーダ70から送信されたカメラの撮像映像のデータを取得する(St12)。なお、人物検索サーバ50は、それぞれのカメラから送られた撮像映像のデータを蓄積部56に蓄積してもよく、この場合には、映像レコーダ70から受信して取得する代わりに、蓄積部56から直接に読み出して取得してもよい。   Upon receiving the search request sent from the client terminal 90, the person search server 50 includes the identification information of the camera to be searched for on the date indicating the search period included in the search request, and captures an image corresponding to the identification information. Is transmitted to the video recorder 70. Based on the transmission request from the person search server 50, the video recorder 70 acquires captured image data corresponding to the camera identification information included in the transmission request, and transmits the data to the person search server 50. The person search server 50 acquires the data of the captured image of the camera transmitted from the video recorder 70 (St12). Note that the person search server 50 may store the data of the captured video transmitted from each camera in the storage unit 56. In this case, instead of receiving and acquiring the data from the video recorder 70, the storage unit 56 May be directly read out from and acquired.

人物検索サーバ50は、ステップSt12において取得されたカメラの撮像映像のそれぞれを解析し、その撮像映像に映る人物を抽出して識別して一時的にメモリ52に保存する(St13)。人物検索サーバ50は、ステップSt5の後、ステップSt13において解析された人物の解析結果とクライアント端末90から送られた検索要求に含まれる捜索対象人物の特徴情報(図11あるいは図12参照)とをイメージサーチによって比較して類似度を算出する(St14)。なお、人物検索サーバ50は、ステップSt13において、ステップSt1において生成されたそれぞれのカメラの撮像映像の解析結果を用い、検索要求に含まれる検索期間を示す日付における、検索対象となるカメラの識別情報に対応する撮像映像の解析結果(例えば切り出し画像)を読み出して取得してもよい。この場合、人物検索サーバ50は、ステップSt14において、読み出された撮像映像の解析結果(例えば切り出し画像)とクライアント端末90から送られた検索要求に含まれる捜索対象人物の特徴情報(図11あるいは図12参照)とをイメージサーチによって比較して類似度を算出してよい(St14)。   The person search server 50 analyzes each of the captured images of the camera acquired in Step St12, extracts and identifies the person appearing in the captured image, and temporarily stores the same in the memory 52 (St13). After step St5, the person search server 50 compares the analysis result of the person analyzed in step St13 and the characteristic information of the search target person included in the search request sent from the client terminal 90 (see FIG. 11 or FIG. 12). The degree of similarity is calculated by comparison through image search (St14). In addition, in step St13, the person search server 50 uses the analysis result of the captured image of each camera generated in step St1, and identifies the identification information of the camera to be searched on the date indicating the search period included in the search request. May be obtained by reading out an analysis result (for example, a cut-out image) of a captured video corresponding to. In this case, the person search server 50 determines in step St14 the analysis result (for example, a clipped image) of the read captured video and the characteristic information of the search target person included in the search request sent from the client terminal 90 (FIG. 12 (see FIG. 12) by image search to calculate the similarity (St14).

人物検索サーバ50は、ステップSt14において算出された類似度が閾値(ステップSt5参照)以上であるか否かを判断する(St7)。人物検索サーバ50は、算出された類似度が閾値以上であると判断した場合(St7、YES)、その閾値を超えた人物が映る切り出し画像(例えばサムネイル画像)を検索結果の一例として、その切り出し画像のデータとその切り出し画像をクライアント端末90に表示する旨の指示とをクライアント端末90に送る(St8)。クライアント端末90は、人物検索サーバ50から送られた指示に基づいて、該当する切り出し画像を人物検索画面WD1のリスト表示枠RST1に表示する(St8)。なお、前述したように、クライアント端末90は、リスト表示枠RST1に表示する対象となる切り出し画像を複数受け取っている場合、それらの切り出し画像を類似度の高い順、時系列順、あるいは交差点順に並べて表示してよい。   The person search server 50 determines whether or not the similarity calculated in Step St14 is equal to or larger than a threshold (see Step St5) (St7). If the person search server 50 determines that the calculated similarity is equal to or larger than the threshold (St7, YES), the cutout image (for example, a thumbnail image) in which a person exceeding the threshold is shown as an example of the search result, and the cutout is performed. The image data and an instruction to display the cut-out image on the client terminal 90 are sent to the client terminal 90 (St8). The client terminal 90 displays the corresponding cut-out image in the list display frame RST1 of the person search screen WD1 based on the instruction sent from the person search server 50 (St8). As described above, when the client terminal 90 receives a plurality of cutout images to be displayed in the list display frame RST1, the client terminal 90 arranges the cutout images in the order of similarity, in chronological order, or in the order of intersection. May be displayed.

一方、人物検索サーバ50は、算出された類似度が閾値未満であると判断した場合(St7、NO)、ステップSt8の処理を省略する。人物検索サーバ50は、この後あるいはステップSt8の後、ステップSt14において算出された類似度が閾値以上であるか否かの比較を行う対象となる人物が存在するか否かを判断する(St9)。ステップSt14において算出された類似度が閾値以上であるか否かの比較を行う対象となる人物が存在しないと判断された場合(St9、NO)、人物検索サーバ50の処理(つまり、クライアント端末90からの検索要求に対応する処理)は終了する。クライアント端末90は、人物検索サーバ50による検索結果に対応する複数人の切り出し画像を並べて表示する(図11あるいは図12参照)。   On the other hand, when determining that the calculated similarity is smaller than the threshold (St7, NO), the person search server 50 omits the process of Step St8. After this or after step St8, the person search server 50 determines whether or not there is a person to be compared whether or not the similarity calculated in step St14 is equal to or greater than a threshold (St9). . If it is determined that there is no person to be compared whether or not the similarity calculated in step St14 is equal to or greater than the threshold (St9, NO), the processing of the person search server 50 (that is, the client terminal 90) The processing corresponding to the search request from is terminated. The client terminal 90 displays the cutout images of a plurality of persons corresponding to the search result by the person search server 50 side by side (see FIG. 11 or FIG. 12).

人物検索サーバ50は、ステップSt14において算出された類似度が閾値以上であるか否かの比較を行う対象となる人物が存在すると判断した場合(St9、YES)、その次に該当する人物について、ステップSt14の処理を実行すると判断する(St15)。この後、人物検索サーバ50は、その次に該当する人物について、ステップS14の処理を行う。人物検索サーバ50は、ステップSt14において算出された類似度が閾値以上であるか否かの比較を行う対象となる人物が存在しなくなるまで、ステップSt14,ステップSt7〜ステップSt9,ステップSt15の処理を繰り返して実行する。   If the person search server 50 determines that there is a person to be compared whether or not the similarity calculated in step St14 is equal to or more than the threshold (St9, YES), the person search server 50 It is determined that the processing of step St14 is to be executed (St15). Thereafter, the person search server 50 performs the process of step S14 for the next person. The person search server 50 performs the processing of Step St14, Step St7 to Step St9, and Step St15 until there is no more person to be compared whether or not the similarity calculated in Step St14 is equal to or larger than the threshold. Execute repeatedly.

以上により、実施の形態2に係る人物検索システム100は、n(n:3以上の整数)台のカメラのそれぞれと通信可能に接続された人物検索サーバ50と、人物検索サーバ50と通信可能に接続されたクライアント端末90と、を含む。人物検索サーバ50は、n台のカメラのそれぞれから送られた異なる撮像映像を受信すると、それぞれの撮像映像に映る人物の位置情報および特徴情報を解析して解析結果として蓄積する。クライアント端末90は、n台のカメラのうちユーザ操作により選択されたk(k:k≦nを満たす2以上の整数)台のカメラの撮像映像のそれぞれを人物検索画面WD1に表示する。クライアント端末90は、k個の撮像映像のうちいずれかに映る捜索対象人物の選択に応じて、捜索対象人物が映る撮像映像以外の(k−1)個の撮像映像における捜索対象人物の検索要求を人物検索サーバ50に送る。人物検索サーバ50は、検索要求に応じて、解析結果を用いて(k−1)個の撮像映像における捜索対象人物に関する解析結果を抽出してクライアント端末90に送る。クライアント端末90は、捜索対象人物に関する解析結果に基づいて、捜索対象人物と同一あるいは類似する複数の人物の切り出し画像を並べて表示する。   As described above, the person search system 100 according to the second embodiment enables the person search server 50 communicably connected to each of n (n: an integer of 3 or more) cameras and the communicable with the person search server 50. And a connected client terminal 90. When receiving the different captured images sent from each of the n cameras, the person search server 50 analyzes the position information and the characteristic information of the person appearing in each of the captured images, and accumulates the analysis results. The client terminal 90 displays, on the person search screen WD1, captured images of k cameras (k: an integer of 2 or more that satisfies k ≦ n) selected by a user operation among the n cameras. In response to selection of a search target person appearing in any of the k captured images, the client terminal 90 requests the search target person to be searched in (k-1) captured images other than the captured image in which the search target person appears. To the person search server 50. In response to the search request, the person search server 50 extracts an analysis result regarding the search target person in the (k−1) captured images using the analysis result and sends the result to the client terminal 90. The client terminal 90 displays side-by-side cut-out images of a plurality of persons that are the same as or similar to the search target person based on the analysis result regarding the search target person.

これにより、人物検索システム100は、多くの人が行き交う地点(例えば交差点)で事件等が発生した場合、犯人に視覚的に類似する人物の捜索対象人物の撮像画像をイメージサーチによって高精度に抽出できる。従って、人物検索システム100は、犯人の視覚的な特徴ならびに逃走方向の早期把握を効率的に支援できるので、警察捜査の利便性を的確に向上できる。   Thus, when an incident or the like occurs at a point (for example, an intersection) where many people come and go, the person search system 100 extracts a captured image of a person to be searched for a person visually similar to the criminal by image search with high accuracy. it can. Therefore, since the person search system 100 can efficiently support the visual characteristics of the criminal and the early grasp of the escape direction, it is possible to appropriately improve the convenience of the police investigation.

また、クライアント端末90は、k台のカメラが設置された地点を示す地図データMP1を人物検索画面WD1に表示する。これにより、ユーザは、捜索対象人物の検索をクライアント端末90から人物検索サーバ50に要求する際に、犯人が逃走する可能性のある地点を、地図データMP1を閲覧しながら地理的な位置関係を把握した上で、検索対象となるカメラを視覚的かつ簡易に選択できる。   Further, the client terminal 90 displays map data MP1 indicating a point where k cameras are installed on the person search screen WD1. Thereby, when the user requests the search of the search target person from the client terminal 90 to the person search server 50, the user may browse the map data MP1 to determine a geographical positional relationship while viewing the map data MP1. After grasping, it is possible to visually and easily select a camera to be searched.

また、クライアント端末90は、捜索対象人物に関する解析結果に基づいて、捜索対象人物と同一あるいは類似する複数の人物の移動経路を地図データMP1に重畳して表示する。これにより、ユーザは、地図データMP1において事件等の犯人の逃走経路の候補を全て捉えることができるので、的確に絞り込み易くできる。   Further, the client terminal 90 displays, based on the analysis result regarding the search target person, the moving paths of a plurality of persons that are the same as or similar to the search target person, superimposed on the map data MP1. This allows the user to grasp all the escape route candidates of the culprit such as an incident in the map data MP1, so that it is easy to narrow down precisely.

また、クライアント端末90は、複数の人物の切り出し画像のうち少なくとも1つの切り出し画像を削除するためのユーザ操作に応じて、地図データMP1に表示された捜索対象人物の移動経路を更新して表示する。これにより、ユーザは、リスト表示枠RST1に表示された複数の切り出し画像の中で、捜索対象人物と異なる不要な人物の切り出し画像を削除する操作を行うだけで、目的とする捜索対象人物の行方を的確に絞り込むことができる。   In addition, the client terminal 90 updates and displays the movement route of the search target person displayed on the map data MP1 in accordance with a user operation for deleting at least one cut image among the cut images of the plurality of persons. . Thus, the user only needs to perform an operation of deleting a cutout image of an unnecessary person different from the search target person from among the plurality of cutout images displayed in the list display frame RST1, and the destination of the target search target person is deleted. Can be accurately narrowed down.

また、クライアント端末90は、k台のカメラのうちいずれかのカメラの撮像映像MV1に映る人物の外形枠(例えば人物枠WK1,WK2)をその撮像映像MV1に重畳して表示する。クライアント端末90は、ユーザ操作による外形枠(例えば人物枠)の選択に応じて、その選択された外形枠に対応する人物を捜索対象人物とする捜索対象人物の検索要求を人物検索サーバ50に送る。これにより、ユーザは、再生可能に拡大して表示された撮像映像MV1の再生画面中で気になる人物(例えば人物枠WK1の人物)を簡易に選択するだけで、その人物を捜索対象人物とする高精度なイメージサーチをクライアント端末90に対して実行させることができ、警察捜査の効率性の向上が図られる。   In addition, the client terminal 90 superimposes and displays the outline of the person (for example, the person frames WK1 and WK2) shown in the captured video MV1 of any one of the k cameras. The client terminal 90 sends a search request for a search target person to the person search server 50 in which a person corresponding to the selected outline frame (for example, a person frame) is selected by a user operation. . Accordingly, the user simply selects a person (for example, a person in the person frame WK1) of interest on the reproduction screen of the captured video MV1 displayed in a magnified and reproducible manner, and the person becomes a search target person. This allows the client terminal 90 to execute a highly accurate image search, thereby improving the efficiency of police investigation.

また、クライアント端末90は、複数の人物の切り出し画像のうちいずれかの選択に応じて、その選択された切り出し画像(例えば切り出し画像Xpc1)に対応する人物を捜索対象人物とする捜索対象人物の検索要求を人物検索サーバ50に送る。これにより、ユーザは、リスト表示枠RST1に表示された切り出し画像に映る人物の中で気になる人物(例えば切り出し画像Xpc1の人物)を簡易に選択するだけで、その人物を捜索対象人物とする高精度なイメージサーチをクライアント端末90に対して実行させることができ、警察捜査の効率性の向上が図られる。   In addition, in response to selection of one of the cut-out images of a plurality of persons, the client terminal 90 searches for a search target person whose search target person is a person corresponding to the selected cut-out image (for example, cut-out image Xpc1). The request is sent to the person search server 50. Thus, the user simply selects a person to be worried about (for example, the person in the cut-out image Xpc1) from among the people appearing in the cut-out image displayed in the list display frame RST1, and sets that person as a search target person. It is possible to cause the client terminal 90 to execute a highly accurate image search, thereby improving the efficiency of police investigation.

また、クライアント端末90は、捜索対象人物と同一あるいは類似する複数の人物の切り出し画像を、それぞれの人物が撮像された撮像時刻の順に沿って時系列に並べて表示する。これにより、ユーザは、撮像時刻の古い順あるいは新しい順に表示された切り出し画像を優先的に確認することで、自ら把握したい捜索対象人物を早期に見つけることができる。   In addition, the client terminal 90 displays cutout images of a plurality of persons that are the same as or similar to the search target person in chronological order along the order of the imaging times when the persons were imaged. This allows the user to find the search target person he or she wants to grasp early by preferentially checking the clipped images displayed in the order of the oldest or newest imaging time.

また、クライアント端末90は、捜索対象人物と同一あるいは類似する複数の人物の切り出し画像を、捜索対象人物との類似性が高い順に沿って並べて表示する。これにより、ユーザは、例えば図11あるいは図12に示すスクロールバーSCR1を用いたスクロール処理を行うことなく、表示された切り出し画像を優先的に確認することで、自ら把握したい捜索対象人物を早期に見つけることができる。   In addition, the client terminal 90 displays cutout images of a plurality of persons that are the same as or similar to the search target person, arranged in descending order of similarity with the search target person. This allows the user to check the displayed cut-out image preferentially without performing the scrolling process using the scroll bar SCR1 shown in FIG. 11 or FIG. Can be found.

(実施の形態3の構成に至る経緯)
しかし、上述した特許文献1では、多くの人が行き交う場所(例えば交差点)において発生した事件等を引き起こした人物が複数いる場合、例えば主犯格の人物とは異なる他の人物(例えば主犯格の連れ)の撮像画像を手掛かりにその連れの人物に類似する撮像画像を他のカメラの撮像映像から検索することは考慮されていない。
(Process leading to the configuration of Embodiment 3)
However, in the above-mentioned Patent Document 1, when there are a plurality of persons who have caused an incident or the like at a place where many people come and go (for example, at an intersection), for example, another person (for example, Searching for a captured image similar to the accompanying person from the captured video of another camera based on the captured image of (1) is not considered.

事件等が発生した場合、複数の人物からなる犯人グループの行方を早期に把握することは警察の初動捜査において重要である。犯人グループの行動パターンとして、集団的に行動することもあれば、別個に分かれて行動することもある。ところが、これまでの従来技術では、交差点に設置されたカメラの撮像映像や目撃情報等の手掛かりを収集し、警察官がこれらの撮像映像や目撃情報等を頼りに、犯人グループに該当しそうな複数の人物の逃走方向を把握していた。このため、犯人グループが別個に分かれて別々に行動する場合等では、警察官は犯人グループの逃走方向の把握に時間がかかっており、初動捜査が遅れる可能性があり効率的でないという課題があった。   When an incident or the like occurs, it is important in a police initial investigation to grasp the whereabouts of a criminal group consisting of a plurality of persons at an early stage. The offender group may act collectively or may act separately as a pattern. However, in the conventional technology up to now, clues such as captured images and sighting information of cameras installed at intersections are collected, and police officers rely on these captured images and sighting information and the like, and a plurality of criminal groups likely to correspond to a criminal group are collected. He knew the escape direction of the person. For this reason, when the criminal group is separated and acts separately, it takes time for police officers to grasp the escape direction of the criminal group, and there is a problem that the initial investigation may be delayed and it is not efficient. Was.

以下の実施の形態3では、多くの人が行き交う地点で事件等が発生した場合、複数の人物からなる犯人グループのうち選択された人物に視覚的に類似する人物の撮像画像を高精度に抽出し、犯人の視覚的な特徴ならびに逃走方向の早期把握を効率的に支援し、警察捜査の利便性を的確に向上する人物検索システムおよび人物検索方法の例を説明する。   In the following third embodiment, when an incident or the like occurs at a point where many people come and go, a captured image of a person visually similar to a selected person from a group of criminals is extracted with high accuracy. An example of a person search system and a person search method that efficiently assists in visually grasping the visual characteristics and the escape direction of the criminal and improves the convenience of police investigations accurately will be described.

(実施の形態3)
実施の形態2に係る人物検索システムの内部構成は、実施の形態1に係る人物検索システム100の内部構成と同一である。従って、実施の形態2の説明において、実施の形態1に係る人物検索システム100の内部構成と同一の構成については同一の符号を付与して説明を簡略化あるいは省略し、異なる内容について説明する。
(Embodiment 3)
The internal configuration of the person search system according to the second embodiment is the same as the internal configuration of person search system 100 according to the first embodiment. Therefore, in the description of the second embodiment, the same configuration as the internal configuration of the person search system 100 according to the first embodiment will be denoted by the same reference numeral, and the description will be simplified or omitted, and different contents will be described.

図16は、図9の撮像映像MV1の再生画面に表示された他の人物の人物枠WK2をイメージサーチの検索条件として用いた場合の人物検索結果を時系列に表示する人物検索画面WD1の一例を示す図である。人物検索アプリは、図12と同様に、図16に示すように、所定のユーザ操作により選択された切り出し画像Xpc1に対応する撮像映像MV1の再生画面を人物検索画面WD1に表示する際、切り出し画像Xpc1に対応する人物検索サーバ50による解析結果を用いて、再生画面に映る人物の人物枠WK1,WK2と性別および年齢層とを表示してよい。例えば、人物検索アプリは、人物枠WK1に対応する人物の性別および年齢層として、「M40」(つまり、男性であって40歳代)を表示する。同様に、人物検索アプリは、人物枠WK2に対応する人物の性別および年齢層として、「M30」(つまり、男性であって30歳代)を表示する。   FIG. 16 is an example of a person search screen WD1 that displays a person search result in a time series when the person frame WK2 of another person displayed on the playback screen of the captured video MV1 of FIG. 9 is used as a search condition of the image search. FIG. As shown in FIG. 16, the person search application displays the cutout image when displaying the playback screen of the captured video MV1 corresponding to the cutout image Xpc1 selected by a predetermined user operation on the person search screen WD1, as shown in FIG. Using the analysis result by the person search server 50 corresponding to Xpc1, the person frames WK1, WK2, gender, and age group of the person shown on the playback screen may be displayed. For example, the person search application displays “M40” (in other words, a man in his 40s) as the gender and age group of the person corresponding to the person frame WK1. Similarly, the person search application displays “M30” (that is, a man who is in his thirties) as the gender and age group of the person corresponding to the person frame WK2.

人物検索アプリは、撮像映像MV1の再生画面に表示された人物枠WK1,WK2のうち、所定のユーザ操作により、撮像映像MV1の再生画面の表示の元になった人物とは異なる他の人物の人物枠(例えば人物枠WK2)が選択されたことを検知する。この場合、人物検索アプリは、選択された人物枠WK2内の画像を切り出し、その切り出し画像を検索対象人物像表示枠PL1にコピーアンドペーストする。つまり、人物検索アプリは、ペーストされた切り出し画像に映る人物を、イメージサーチの検索対象人物像IPS3として検索対象人物像表示枠PL1に表示する。また、人物検索アプリは、ペーストされた切り出し画像の人物に対応する人物検索サーバ50による解析結果を用いて、その人物(検索対象人物像IPS2)の主な特徴情報を一部の検索条件CON3として検索対象人物像表示枠PL1に表示する。   The person search application performs a predetermined user operation on the person frames WK1 and WK2 displayed on the playback screen of the captured video MV1, and performs a user operation on another person different from the one that is the source of the display of the playback screen of the captured video MV1. It detects that a person frame (for example, person frame WK2) is selected. In this case, the person search application cuts out the image in the selected person frame WK2, and copies and pastes the cut-out image into the search target person image display frame PL1. That is, the person search application displays the person appearing in the pasted cut-out image in the search target person image display frame PL1 as the search target person image IPS3 of the image search. Further, the person search application uses the analysis result by the person search server 50 corresponding to the person in the pasted cut-out image and sets the main characteristic information of the person (the search target person image IPS2) as a part of the search condition CON3. It is displayed in the search target person image display frame PL1.

人物検索アプリは、ユーザ操作によりイメージサーチボタンIS1が押下されたことを検知する。この場合、人物検索アプリ(具体的には、プロセッサ92)は、検索対象人物像IPS3のイメージデータとその検索対象人物像IPS3を特定するための各種の検索条件(例えば、検索期間を示す日付)と検索対象となるカメラの識別情報とを含む捜索対象人物の検索要求を生成し、通信部93を介して人物検索サーバ50に送信する。但し、実施の形態3では、人物検索アプリは、検索要求の生成において、検索対象人物像IPS3の元となる人物が映っていた撮像映像MV1に対応するカメラを除いた他のカメラを検索対象として選択して検索要求を生成する。人物検索サーバ50は、クライアント端末90から送られた検索要求を受信すると、蓄積部56の解析情報DB56aに保存された解析結果を用いて、イメージサーチにより、検索要求に含まれる各種の検索条件を満たす捜索対象人物と同一あるいは類似する人物を検索する。人物検索サーバ50は、検索結果をクライアント端末90に送る。   The person search application detects that the image search button IS1 has been pressed by a user operation. In this case, the person search application (specifically, the processor 92) performs various search conditions (for example, a date indicating a search period) for specifying the image data of the search target person image IPS3 and the search target person image IPS3. A search request for a search target person including the search request and the identification information of the camera to be searched is generated, and transmitted to the person search server 50 via the communication unit 93. However, in the third embodiment, in generating the search request, the person search application sets another camera except for the camera corresponding to the captured video MV1 in which the person serving as the source of the search target person image IPS3 is shown as a search target. Select to generate a search request. When receiving the search request sent from the client terminal 90, the person search server 50 uses the analysis results stored in the analysis information DB 56a of the storage unit 56 to perform an image search to perform various search conditions included in the search request. Search for a person who is the same or similar to the search target person who satisfies. The person search server 50 sends the search result to the client terminal 90.

人物検索アプリ(具体的には、プロセッサ92)は、通信部93を介して受信された検索結果を取得すると、捜索対象人物(つまり、検索対象人物像IPS3)と同一あるいは類似する人物の切り出し画像Xpc31,Xpc32,Xpc33,Xpc34,Xpc35,Xpc36,Xpc37を並べてリスト表示枠RST1内に表示する。それぞれの切り出し画像は、例えばサムネイル画像である。   Upon acquiring the search result received via the communication unit 93, the person search application (specifically, the processor 92) cuts out an image of a person the same as or similar to the search target person (that is, the search target person image IPS3). Xpc31, Xpc32, Xpc33, Xpc34, Xpc35, Xpc36, and Xpc37 are displayed side by side in the list display frame RST1. Each cut-out image is, for example, a thumbnail image.

また、人物検索アプリは、リスト表示枠RST1に表示された複数の切り出し画像Xpc31,Xpc32,Xpc33,Xpc34,Xpc35,Xpc36,Xpc37のそれぞれに映る人物が撮像されたカメラに対応する交差点の通過時の移動方向DRC1,DRC2,DRC3のそれぞれを地図データMP1に重畳して表示する。   In addition, the person search application is used when the plurality of cut-out images Xpc31, Xpc32, Xpc33, Xpc34, Xpc35, Xpc36, and Xpc37 displayed in the list display frame RST1 pass through the intersection corresponding to the camera at which the person was imaged. Each of the moving directions DRC1, DRC2, and DRC3 is displayed so as to be superimposed on the map data MP1.

図17は、ユーザ操作による不要な人物検索結果の削除例を示す図である。人物検索アプリは、図17に示すリスト表示枠RST1に表示された切り出し画像Xpc31,Xpc32,Xpc33,Xpc34,Xpc35,Xpc36,Xpc37のうち、所定のユーザ操作により不要な切り出し画像(例えば切り出し画像Xpc36,Xpc37)の選択を受け付ける。この場合、人物検索アプリは、選択された切り出し画像Xpc36,Xpc37を削除する対象であることを示す削除アイコンDLT1,DLT2を、切り出し画像Xpc5,Xpc24に重畳して表示する。なお、人物検索アプリは、削除アイコンDLT1,DLT2を重畳して表示する代わりに、選択された切り出し画像Xpc5,Xpc24をリスト表示枠RST1から削除してもよい。   FIG. 17 is a diagram illustrating an example of deleting an unnecessary person search result by a user operation. The person search application outputs unnecessary cutout images (for example, cutout images Xpc36, Xpc36, Xpc37, Xpc34, Xpc35, Xpc36, and Xpc37) of the cutout images Xpc31, Xpc32, Xpc33, Xpc34, Xpc35, and Xpc37 displayed in the list display frame RST1 illustrated in FIG. Xpc37) is accepted. In this case, the person search application displays deletion icons DLT1 and DLT2 indicating that the selected cutout images Xpc36 and Xpc37 are to be deleted, superimposed on the cutout images Xpc5 and Xpc24. Note that the person search application may delete the selected cutout images Xpc5 and Xpc24 from the list display frame RST1 instead of displaying the delete icons DLT1 and DLT2 in a superimposed manner.

また、人物検索アプリは、切り出し画像Xpc5,Xpc24に重畳して削除アイコンDLT1,DLT2を表示することに連動して、切り出し画像Xpc5,Xpc24に映る人物に対応する人物検索サーバ50による解析結果を用いて、地図データMP1に表示されている移動方向を更新して表示する。具体的には、人物検索アプリは、削除アイコンDLT3,DLT4の表示前に地図データMP1に表示されていた全ての移動方向DRC1,DRC2,DRC3から、切り出し画像Xpc36,Xpc37に映る人物の交差点通過時の移動方向を削除するように更新し、切り出し画像Xpc31,Xpc32,Xpc33,Xpc34,Xpc35に映る人物の交差点通過時の移動方向DRC2,DRC3だけを残すように表示する。これにより、ユーザは、図14および図17を参照することで、第1カメラにより撮像された撮像映像MV1に映る人物枠WK1,WK2の2人組(例えば犯人グループ)は第1カメラの設置された交差点で合流したことを認識できるので、警察捜査の効率性の向上が図られる。   In addition, in conjunction with displaying the delete icons DLT1 and DLT2 superimposed on the cutout images Xpc5 and Xpc24, the person search application uses the analysis result by the person search server 50 corresponding to the person shown in the cutout images Xpc5 and Xpc24. Then, the moving direction displayed on the map data MP1 is updated and displayed. More specifically, the person search application is configured to perform a search for all the moving directions DRC1, DRC2, and DRC3 displayed on the map data MP1 before displaying the delete icons DLT3 and DLT4, at the time of passing an intersection of a person shown in the cut-out images Xpc36 and Xpc37. Is updated so as to delete the moving direction, and only the moving directions DRC2 and DRC3 at the time of passing through the intersection of the person shown in the cut-out images Xpc31, Xpc32, Xpc33, Xpc34, and Xpc35 are displayed. Thereby, the user refers to FIG. 14 and FIG. 17, and the two persons (for example, the criminal group) of the person frames WK1 and WK2 shown in the captured video MV1 captured by the first camera are installed with the first camera. Since it is possible to recognize that they have joined at an intersection, the efficiency of police investigations can be improved.

次に、実施の形態3に係る人物検索システム100の動作手順について、図18を参照して説明する。図18は、実施の形態3に係る人物検索システム100の動作手順例を説明するフローチャートである。図18に示される処理は、クライアント端末90と人物検索サーバ50とにより実行される。図18に示す処理の説明において、図10に示す処理と同一の処理については同一のステップ番号を付与して説明を簡略化あるいは省略し、異なる内容について説明する。なお、図18に示す処理の前提として、クライアント端末90は、図10あるいは図15を参照して説明したように、リスト表示枠RST1に表示された複数の切り出し画像のそれぞれに対応する人物検索サーバ50による解析結果(検索結果)を取得している。   Next, an operation procedure of person search system 100 according to Embodiment 3 will be described with reference to FIG. FIG. 18 is a flowchart illustrating an example of an operation procedure of person search system 100 according to Embodiment 3. The process illustrated in FIG. 18 is executed by the client terminal 90 and the person search server 50. In the description of the processing illustrated in FIG. 18, the same processing as the processing illustrated in FIG. 10 will be assigned the same step numbers, and the description will be simplified or omitted, and different contents will be described. As a premise of the processing illustrated in FIG. 18, as described with reference to FIG. 10 or FIG. 15, the client terminal 90 includes a person search server corresponding to each of the plurality of cut-out images displayed in the list display frame RST1. The analysis result (search result) obtained by 50 is obtained.

図18において、クライアント端末90は、ステップSt1の後、リスト表示枠RST1に表示された複数の切り出し画像のうちいずれかがユーザ操作により選択されたことを検知すると、その選択された切り出し画像(例えば切り出し画像Xpc1)に映る人物が撮像された撮像映像(例えば撮像映像MV1)を人物検索画面WD1に表示して繰り返して再生する(St21)。クライアント端末90は、ステップSt1において人物検索サーバ50により生成された解析結果を取得しており、この解析結果を用いて、撮像映像MV1の再生画面中のそれぞれの人物の位置に人物枠WK1,WK2を表示する(St22)。   In FIG. 18, after detecting that one of the plurality of cutout images displayed in the list display frame RST1 is selected by a user operation after step St1, the client terminal 90 selects the selected cutout image (for example, The captured video (for example, the captured video MV1) obtained by capturing the person shown in the cut-out image Xpc1) is displayed on the person search screen WD1 and repeatedly played back (St21). The client terminal 90 has obtained the analysis result generated by the person search server 50 in step St1, and uses this analysis result to place the person frames WK1, WK2 at the positions of the respective persons on the playback screen of the captured video MV1. Is displayed (St22).

クライアント端末90は、ユーザ操作により、ステップSt22において表示された人物枠WK1,WK2のうちいずれか(例えば、撮像映像MV1の再生画面の表示の元になった人物枠WK1の人物とは異なる人物の人物枠WK2)が選択されたことを検知する(St23)。この場合、クライアント端末90は、選択された人物枠WK2の人物の切り出し画像を検索対象人物像表示枠PL1にコピーアンドペーストして表示する。   The client terminal 90 operates the user terminal to select one of the person frames WK1 and WK2 displayed in step St22 (for example, a person different from the person in the person frame WK1 that is the source of the display of the playback screen of the captured video MV1). It is detected that the person frame WK2) has been selected (St23). In this case, the client terminal 90 displays the cut-out image of the person in the selected person frame WK2 by copying and pasting it into the search target person image display frame PL1.

クライアント端末90は、ステップSt23の後、例えばイメージサーチボタンIS1がユーザ操作により押下されたことを検知すると、検索対象人物像表示枠PL1に表示された検索対象人物像IPS3のイメージデータとその検索対象人物像IPS3を特定するための各種の検索条件(例えば、検索期間を示す日付)と検索対象となるカメラの識別情報とを含む捜索対象人物の検索要求を生成し、通信部93を介して人物検索サーバ50に送信する。但し、前述したように、実施の形態3では、人物検索アプリは、検索要求の生成において、検索対象人物像IPS3の元となる人物が映っていた撮像映像MV1に対応するカメラを除いた他のカメラを検索対象として選択して検索要求を生成する。   When the client terminal 90 detects, for example, that the image search button IS1 has been pressed by a user operation after step St23, the client terminal 90 detects the image data of the search target person image IPS3 displayed in the search target person image display frame PL1 and the search target thereof. A search request for a search target person including various search conditions (for example, a date indicating a search period) for identifying the person image IPS3 and identification information of a camera to be searched is generated. Send it to the search server 50. However, as described above, in the third embodiment, in generating the search request, the person search application excludes the camera corresponding to the captured image MV1 in which the person who is the source of the search target person image IPS3 is shown. A search request is generated by selecting a camera as a search target.

人物検索サーバ50は、クライアント端末90から送られた検索要求を受信すると、検索要求に含まれる検索期間を示す日付における、検索対象となるカメラの識別情報を含み、その識別情報に対応する撮像映像のデータの送信要求を映像レコーダ70に送る。映像レコーダ70は、人物検索サーバ50からの送信要求に基づいて、送信要求に含まれるカメラの識別情報に対応する撮像映像のデータを取得して人物検索サーバ50に送信する。人物検索サーバ50は、映像レコーダ70から送信されたカメラの撮像映像のデータを取得する。なお、人物検索サーバ50は、それぞれのカメラから送られた撮像映像のデータを蓄積部56に蓄積してもよく、この場合には、映像レコーダ70から受信して取得する代わりに、蓄積部56から直接に読み出して取得してもよい。   Upon receiving the search request sent from the client terminal 90, the person search server 50 includes the identification information of the camera to be searched for on the date indicating the search period included in the search request, and captures an image corresponding to the identification information. Is transmitted to the video recorder 70. Based on the transmission request from the person search server 50, the video recorder 70 acquires captured image data corresponding to the camera identification information included in the transmission request, and transmits the data to the person search server 50. The person search server 50 acquires the data of the captured image of the camera transmitted from the video recorder 70. Note that the person search server 50 may store the data of the captured video transmitted from each camera in the storage unit 56. In this case, instead of receiving and acquiring the data from the video recorder 70, the storage unit 56 May be directly read out from and acquired.

人物検索サーバ50は、取得されたカメラの撮像映像のそれぞれを解析し、その撮像映像に映る人物を抽出して識別して一時的にメモリ52に保存する。人物検索サーバ50は、ステップSt23において選択された人物枠WK2の人物の解析結果とクライアント端末90から送られた検索要求に含まれる捜索対象人物の特徴情報(図11あるいは図12参照)とをイメージサーチによって比較して類似度を算出する(St24)。なお、人物検索サーバ50は、ステップSt1において生成されたそれぞれのカメラの撮像映像の解析結果を用い、検索要求に含まれる検索期間を示す日付における、検索対象となるカメラの識別情報に対応する撮像映像の解析結果(例えば切り出し画像)を読み出して取得してもよい。この場合、人物検索サーバ50は、ステップSt24において、読み出された撮像映像の解析結果(例えば切り出し画像)とクライアント端末90から送られた検索要求に含まれる捜索対象人物の特徴情報(図11あるいは図12参照)とをイメージサーチによって比較して類似度を算出してよい(St24)。   The person search server 50 analyzes each of the acquired images captured by the camera, extracts and identifies the person appearing in the captured image, and temporarily stores the extracted person in the memory 52. The person search server 50 images the analysis result of the person in the person frame WK2 selected in Step St23 and the feature information (see FIG. 11 or FIG. 12) of the search target person included in the search request sent from the client terminal 90. The degree of similarity is calculated by comparison through a search (St24). Note that the person search server 50 uses the analysis result of the captured images of the respective cameras generated in step St <b> 1 to obtain an image corresponding to the identification information of the search target camera on the date indicating the search period included in the search request. A video analysis result (for example, a clipped image) may be read and acquired. In this case, the person search server 50 determines in step St24 the analysis result (for example, a cut-out image) of the read captured video and the characteristic information of the search target person included in the search request sent from the client terminal 90 (FIG. 12 may be compared by image search to calculate the similarity (St24).

人物検索サーバ50は、ステップSt24において算出された類似度が閾値(ステップSt5参照)以上であるか否かを判断する(St7)。人物検索サーバ50は、算出された類似度が閾値以上であると判断した場合(St7、YES)、その閾値を超えた人物が映る切り出し画像(例えばサムネイル画像)を検索結果の一例として、その切り出し画像のデータとその切り出し画像をクライアント端末90に表示する旨の指示とをクライアント端末90に送る(St8)。クライアント端末90は、人物検索サーバ50から送られた指示に基づいて、該当する切り出し画像を人物検索画面WD1のリスト表示枠RST1に表示する(St8)。なお、前述したように、クライアント端末90は、リスト表示枠RST1に表示する対象となる切り出し画像を複数受け取っている場合、それらの切り出し画像を類似度の高い順、時系列順、あるいは交差点順に並べて表示してよい。   The person search server 50 determines whether or not the similarity calculated in Step St24 is equal to or larger than a threshold (see Step St5) (St7). If the person search server 50 determines that the calculated similarity is equal to or larger than the threshold (St7, YES), the cutout image (for example, a thumbnail image) in which a person exceeding the threshold is shown as an example of the search result, and the cutout is performed. The image data and an instruction to display the cut-out image on the client terminal 90 are sent to the client terminal 90 (St8). The client terminal 90 displays the corresponding cut-out image in the list display frame RST1 of the person search screen WD1 based on the instruction sent from the person search server 50 (St8). As described above, when the client terminal 90 receives a plurality of cutout images to be displayed in the list display frame RST1, the client terminal 90 arranges the cutout images in the order of similarity, in chronological order, or in the order of intersection. May be displayed.

一方、人物検索サーバ50は、算出された類似度が閾値未満であると判断した場合(St7、NO)、ステップSt8の処理を省略する。人物検索サーバ50は、この後あるいはステップSt8の後、ステップSt24において算出された類似度が閾値以上であるか否かの比較を行う対象となる人物が存在するか否かを判断する(St9)。ステップSt24において算出された類似度が閾値以上であるか否かの比較を行う対象となる人物が存在しないと判断された場合(St9、NO)、人物検索サーバ50の処理(つまり、クライアント端末90からの検索要求に対応する処理)は終了する。クライアント端末90は、人物検索サーバ50による検索結果に対応する複数人の切り出し画像を並べて表示する(図16あるいは図17参照)。   On the other hand, when determining that the calculated similarity is smaller than the threshold (St7, NO), the person search server 50 omits the process of Step St8. After this or after step St8, the person search server 50 determines whether or not there is a person to be compared whether or not the similarity calculated in step St24 is equal to or greater than a threshold (St9). . When it is determined that there is no person to be compared with whether the similarity calculated in step St24 is equal to or greater than the threshold (St9, NO), the processing of the person search server 50 (that is, the client terminal 90) The processing corresponding to the search request from is terminated. The client terminal 90 displays a plurality of cutout images corresponding to the search result by the person search server 50 side by side (see FIG. 16 or FIG. 17).

人物検索サーバ50は、ステップSt24において算出された類似度が閾値以上であるか否かの比較を行う対象となる人物が存在すると判断した場合(St9、YES)、その次に該当する人物について、ステップSt24の処理を実行すると判断する(St25)。この後、人物検索サーバ50は、その次に該当する人物について、ステップSt24の処理を行う。人物検索サーバ50は、ステップSt24において算出された類似度が閾値以上であるか否かの比較を行う対象となる人物が存在しなくなるまで、ステップSt24,ステップSt7〜ステップSt9,ステップSt25の処理を繰り返して実行する。   If the person search server 50 determines that there is a person to be compared whether or not the similarity calculated in step St24 is equal to or larger than the threshold (St9, YES), the person corresponding to the next person is It is determined that the processing of step St24 is to be executed (St25). Thereafter, the person search server 50 performs the process of step St24 for the next person. The person search server 50 performs the processing of Step St24, Step St7 to Step St9, and Step St25 until there is no more person to be compared whether the similarity calculated in Step St24 is equal to or larger than the threshold. Execute repeatedly.

以上により、実施の形態3に係る人物検索システム100は、n(n:3以上の整数)台のカメラのそれぞれと通信可能に接続された人物検索サーバ50と、人物検索サーバ50と通信可能に接続されたクライアント端末90と、を含む。人物検索サーバ50は、n台のカメラのそれぞれから送られた異なる撮像映像を受信すると、それぞれの撮像映像に映る人物の位置情報および特徴情報を解析して解析結果として蓄積する。クライアント端末90は、n台のカメラのうちユーザ操作により選択されたk(k:k≦nを満たす2以上の整数)台のカメラの撮像映像のそれぞれを人物検索画面WD1に表示する。クライアント端末90は、k個の撮像映像のうちいずれかに映る捜索対象人物とともに行動している同伴人物(例えば、人物枠WK2の人物)の選択に応じて、同伴人物が映るいずれかの撮像映像以外の(k−1)個の撮像映像における同伴人物の検索要求を人物検索サーバ50に送る。人物検索サーバ50は、検索要求に応じて、解析結果を用いて(k−1)個の撮像映像における同伴人物に関する解析結果を抽出してクライアント端末90に送る。クライアント端末90は、同伴人物に関する解析結果に基づいて、同伴人物と同一あるいは類似する複数の人物の切り出し画像を並べて表示する。   As described above, the person search system 100 according to the third embodiment is configured such that the person search server 50 communicably connected to each of n (n: an integer of 3 or more) cameras and the person search server 50 can communicate with each other. And a connected client terminal 90. When receiving the different captured images sent from each of the n cameras, the person search server 50 analyzes the position information and the characteristic information of the person appearing in each of the captured images, and accumulates the analysis results. The client terminal 90 displays, on the person search screen WD1, captured images of k cameras (k: an integer of 2 or more that satisfies k ≦ n) selected by a user operation among the n cameras. The client terminal 90 selects one of the captured images in which the accompanying person appears in accordance with the selection of the accompanying person (for example, the person in the person frame WK2) acting together with the search target person in any of the k captured images. A search request for a companion person in the (k-1) captured images other than the above is sent to the person search server 50. In response to the search request, the person search server 50 extracts an analysis result regarding the accompanying person in the (k−1) captured images using the analysis result, and sends the result to the client terminal 90. The client terminal 90 displays side-by-side cut-out images of a plurality of persons who are the same as or similar to the accompanying person based on the analysis result of the accompanying person.

これにより、人物検索システム100は、多くの人が行き交う地点(例えば交差点)で事件等が発生した場合、複数の人物(例えば人物枠WK1,WK2のそれぞれに対応する人物)からなる犯人グループのうち選択された人物(例えば人物枠WK2の共犯人物)に視覚的に類似する人物の撮像画像をイメージサーチによって高精度に抽出できる。従って、人物検索システム100は、犯人の視覚的な特徴ならびに逃走方向の早期把握を効率的に支援でき、警察捜査の利便性を的確に向上できる。   Thus, when an incident or the like occurs at a point (for example, an intersection) where many people come and go, the person search system 100 can select a plurality of persons (for example, persons corresponding to each of the person frames WK1 and WK2) from a criminal group. A picked-up image of a person visually similar to the selected person (for example, an accomplice in the person frame WK2) can be extracted with high accuracy by an image search. Accordingly, the person search system 100 can efficiently support the visual characteristics of the criminal and the early grasp of the escape direction, and can appropriately improve the convenience of the police investigation.

また、クライアント端末90は、k台のカメラが設置された地点を示す地図データMP1を人物検索画面WD1に表示する。これにより、ユーザは、捜索対象人物の検索をクライアント端末90から人物検索サーバ50に要求する際に、犯人が逃走する可能性のある地点を、地図データMP1を閲覧しながら地理的な位置関係を把握した上で、検索対象となるカメラを視覚的かつ簡易に選択できる。   Further, the client terminal 90 displays map data MP1 indicating a point where k cameras are installed on the person search screen WD1. Thereby, when the user requests the search of the search target person from the client terminal 90 to the person search server 50, the user may browse the map data MP1 to determine a geographical positional relationship while viewing the map data MP1. After grasping, it is possible to visually and easily select a camera to be searched.

また、クライアント端末90は、同伴人物に関する解析結果に基づいて、同伴人物と同一あるいは類似する複数の人物の移動経路を地図データMP1に重畳して表示する。これにより、ユーザは、地図データMP1において事件等の犯人グループの同伴人物(例えば共犯人物)の逃走経路の候補を全て捉えることができるので、的確に絞り込み易くできる。   In addition, the client terminal 90 superimposes and displays the moving routes of a plurality of persons who are the same as or similar to the accompanying person on the map data MP1 based on the analysis result regarding the accompanying person. This allows the user to grasp all the escape route candidates of the accompanying person (for example, accomplice person) of the criminal group of the incident or the like in the map data MP1, so that it is easy to narrow down accurately.

また、クライアント端末90は、複数の人物の切り出し画像のうち少なくとも1つの切り出し画像を削除するためのユーザ操作に応じて、地図データMP1に表示された同伴人物の移動経路を更新して表示する。これにより、ユーザは、リスト表示枠RST1に表示された複数の切り出し画像の中で、同伴人物(例えば共犯人物)と異なる不要な人物の切り出し画像を削除する操作を行うだけで、目的とする同伴人物(例えば共犯人物)の行方を的確に絞り込むことができる。   In addition, the client terminal 90 updates and displays the traveling route of the accompanying person displayed in the map data MP1 in accordance with a user operation for deleting at least one of the cut-out images of a plurality of persons. Accordingly, the user only needs to perform an operation of deleting a cut-out image of an unnecessary person different from a companion person (for example, an accomplice person) from among a plurality of cut-out images displayed in the list display frame RST1, thereby obtaining a target companion image. It is possible to accurately narrow down whereabouts of a person (for example, an accomplice).

また、クライアント端末90は、k台のカメラのうちいずれかのカメラの撮像映像に映る人物の外形枠(例えば、人物枠WK1,WK2)をその撮像映像上に重畳して表示する。クライアント端末90は、ユーザ操作による外形枠(例えば、人物枠WK2)の選択に応じて、その選択された外形枠に対応する人物を同伴人物とする同伴人物の検索要求を人物検索サーバ50に送る。これにより、ユーザは、再生中の撮像映像MV1の再生画面中に映っている人物の中で気になる人物(例えば、主犯格とユーザが想定している人物枠WK1の人物と大抵同伴している人物枠WK2の人物)を簡易に選択するだけで、その人物を同伴人物(例えば共犯人物)とする高精度なイメージサーチをクライアント端末90に対して実行させることができ、警察捜査の効率性の向上が図られる。   Further, the client terminal 90 superimposes and displays the outline of the person (for example, the person frames WK1 and WK2) shown in the captured image of any one of the k cameras. In response to the selection of the outer frame (for example, the person frame WK2) by the user operation, the client terminal 90 sends to the person search server 50 a search request for a companion person having the person corresponding to the selected outer frame as an accompanying person. . Thereby, the user is anxious among the persons appearing in the reproduction screen of the captured video MV1 being reproduced (for example, the main criminal is often accompanied by the person in the person frame WK1 assumed by the user. By simply selecting a person in the user frame WK2), it is possible to cause the client terminal 90 to execute a high-precision image search with that person as a companion (for example, an accomplice), thereby improving the efficiency of police investigation. Is improved.

また、クライアント端末90は、同伴人物と同一あるいは類似する複数の人物の切り出し画像を、それぞれの人物が撮像された撮像時刻の順に沿って時系列に並べて表示する。これにより、ユーザは、撮像時刻の古い順あるいは新しい順に表示された切り出し画像を優先的に確認することで、自ら把握したい同伴人物(例えば共犯人物)を早期に見つけることができる。   In addition, the client terminal 90 displays cut-out images of a plurality of persons who are the same as or similar to the accompanying persons in a time-series manner in the order of the imaging time when each person was imaged. Thereby, the user can find the companion person (for example, accomplice person) he / she wants to grasp earlier by preferentially checking the cut-out images displayed in the order of the oldest or newest imaging time.

また、クライアント端末90は、同伴人物と同一あるいは類似する複数の人物の切り出し画像を、同伴人物との類似性が高い順に沿って並べて表示する。これにより、ユーザは、例えば図11あるいは図12に示すスクロールバーSCR1を用いたスクロール処理を行うことなく、表示された切り出し画像を優先的に確認することで、自ら把握したい同伴人物(例えば共犯人物)を早期に見つけることができる。   In addition, the client terminal 90 displays cut-out images of a plurality of persons that are the same as or similar to the accompanying person, arranged in descending order of similarity with the accompanying person. This allows the user to preferentially check the displayed cut-out image without performing the scrolling process using the scroll bar SCR1 shown in FIG. 11 or FIG. ) Can be found early.

以上、図面を参照しながら各種の実施の形態について説明したが、本開示はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。また、発明の趣旨を逸脱しない範囲において、上述した各種の実施の形態における各構成要素を任意に組み合わせてもよい。   Although various embodiments have been described with reference to the drawings, it is needless to say that the present disclosure is not limited to such examples. It will be apparent to those skilled in the art that various changes, modifications, substitutions, additions, deletions, and equivalents can be made within the scope of the claims. Naturally, it is understood that they belong to the technical scope of the present disclosure. Further, the components in the above-described various embodiments may be arbitrarily combined without departing from the spirit of the invention.

なお、上述した実施の形態1,2,3では、カメラ10,10a,…の設置場所は屋外(例えば交差点)を例示して説明したが、設置場所は屋外に限定されない。例えば、ショッピングモール等の屋内の施設内に設置されてもよい。この場合には、地図データMP1は、道路地図ではなく、該当する施設内の構内図(例えばショッピングモールの構内図)が人物検索画面WD1内に表示されてよい。   In the above-described first, second, and third embodiments, the installation locations of the cameras 10, 10a,... Have been described as being outdoors (for example, at intersections), but the installation locations are not limited to outdoors. For example, it may be installed in an indoor facility such as a shopping mall. In this case, the map data MP1 may not be a road map, but a map of the relevant facility (eg, a map of a shopping mall) may be displayed in the person search screen WD1.

また、上述した実施の形態1,2,3では、警察の捜査において捜索対象人物として事件等を引き起こした犯人あるいはその犯人と行動を共にする共犯人物を例示して説明したが、捜索対象人物はこれらの例に限定されない。例えば、屋外あるいは屋内において迷子になった子どもを捜索対象人物としてもよい。この場合には、人物検索システム100は、巡回中の警察官あるいは警備員がユーザとなって、捜索対象人物である迷子中の子どもを検索することができる。   In the first, second, and third embodiments, a criminal who caused a case or the like or an accomplice who acts together with the criminal is described as an example of a person to be searched in a police investigation. It is not limited to these examples. For example, a child who has been lost outdoors or indoors may be set as the search target person. In this case, the person retrieving system 100 can search for a lost child who is a search target person with the patrol officer or security guard on patrol as a user.

本開示は、多くの人が行き交う地点で事件等が発生した場合、犯人に視覚的に類似する人物の撮像画像を高精度に抽出し、犯人の視覚的な特徴ならびに逃走方向の早期把握を効率的に支援し、警察捜査の利便性を的確に向上する人物検索システムおよび人物検索方法として有用である。   The present disclosure, when an incident occurs at a point where many people come and go, extracts a captured image of a person visually similar to the criminal with high accuracy, and efficiently grasps the visual characteristics of the criminal and the early direction of the escape. The present invention is useful as a person search system and a person search method for providing accurate support and appropriately improving the convenience of police investigations.

10、10a カメラ
11 撮影部
12、PRC1、PRC2、92 プロセッサ
13、52、72、95 メモリ
14、51、71、93 通信部
15、96 記録部
50 人物検索サーバ
53 人物検索部
54 人物解析部
55 タグ付与部
56 蓄積部
56a 検知情報DB
56b 事案DB
70 映像レコーダ
73 映像検索部
74 映像記録処理部
75 映像蓄積部
90 クライアント端末
91 操作部
94 ディスプレイ
100 人物検索システム
HDS ヘッドセット
10, 10a camera 11 imaging unit 12, PRC1, PRC2, 92 processor 13, 52, 72, 95 memory 14, 51, 71, 93 communication unit 15, 96 recording unit 50 person search server 53 person search unit 54 person analysis unit 55 Tag assigning unit 56 Storage unit 56a Detection information DB
56b Incident DB
70 video recorder 73 video search unit 74 video recording processing unit 75 video storage unit 90 client terminal 91 operation unit 94 display 100 person search system HDS headset

Claims (4)

n(n:3以上の整数)台のカメラのそれぞれと通信可能に接続されたサーバと、前記サーバと通信可能に接続されたクライアント端末と、を含み、
前記サーバは、
前記n台のカメラのそれぞれから送られた異なる撮像映像を受信すると、それぞれの前記撮像映像に映る人物の位置情報および特徴情報を解析して解析結果として蓄積し、
前記クライアント端末は、
前記n台のカメラのうちユーザ操作により選択されたk(k:k≦nを満たす2以上の整数)台のカメラの撮像映像のそれぞれを画面に表示し、
k台の前記カメラの撮像映像のうちいずれかに映る捜索対象人物の選択に応じて、前記捜索対象人物が映る撮像映像を撮像したカメラ以外の(k−1)台のカメラにより撮像された撮像映像における前記捜索対象人物の検索要求を前記サーバに送り、
前記サーバは、
前記検索要求に応じて、前記解析結果を用いて(k−1)台の前記カメラの撮像映像における前記捜索対象人物および前記捜索対象人物の前記(k−1)台のカメラの配置された交差点における移動方向を抽出して前記クライアント端末に送り、
前記クライアント端末は、
前記(k−1)台のカメラの配置された交差点における前記捜索対象人物の移動方向を、前記k台のカメラが設置された交差点を示す地図データに重畳して表示する、
人物検索システム。
a server communicably connected to each of n (n: an integer of 3 or more) cameras, and a client terminal communicably connected to the server;
The server is
Upon receiving different captured images sent from each of the n cameras, analyze the position information and feature information of the person shown in each of the captured images and accumulate as analysis results,
The client terminal,
Displaying, on a screen, captured images of k (k: an integer of 2 or more satisfying k ≦ n) cameras selected by a user operation among the n cameras,
According to selection of a search target person appearing in any of the images picked up by the k cameras, the image picked up by (k-1) cameras other than the camera picked up the image picked up image showing the search target person Sending a search request for the search target person in the video to the server,
The server is
In response to the search request, using the analysis result, the search target person in the image captured by the (k-1) cameras and the intersection where the (k-1) cameras of the search target person are arranged Extract the movement direction in and send it to the client terminal,
The client terminal,
The moving direction of the search target person at the intersection where the (k-1) cameras are arranged is displayed so as to be superimposed on the map data indicating the intersection where the k cameras are installed.
People search system.
前記クライアント端末は、
前記k台のカメラのうちいずれかのカメラの撮像映像に映る人物の外形枠をその撮像映像に重畳して表示し、
前記ユーザ操作による前記外形枠の選択に応じて、その選択された前記外形枠に対応する人物を前記捜索対象人物とする前記捜索対象人物の検索要求を前記サーバに送る、
請求項1に記載の人物検索システム。
The client terminal,
An outer frame of a person shown in a captured image of one of the k cameras is superimposed on the captured image and displayed.
In response to the selection of the outer shape frame by the user operation, send a search request of the search target person to the server with the person corresponding to the selected outer shape frame as the search target person,
The person search system according to claim 1.
前記クライアント端末は、
複数の前記捜索対象人物の切り出し画像のうちいずれかの選択に応じて、その選択された切り出し画像に対応する人物を前記捜索対象人物とする前記捜索対象人物の検索要求を前記サーバに送る、
請求項1に記載の人物検索システム。
The client terminal,
In response to selection of one of the cutout images of the plurality of search target persons, a search request for the search target person to be a person corresponding to the selected cutout image as the search target person is sent to the server.
The person search system according to claim 1.
n(n:3以上の整数)台のカメラのそれぞれと通信可能に接続されたサーバと、前記サーバと通信可能に接続されたクライアント端末と、を用いた人物検索方法であって、
前記サーバは、
前記n台のカメラのそれぞれから送られた異なる撮像映像を受信すると、それぞれの前記撮像映像に映る人物の位置情報および特徴情報を解析して解析結果として蓄積し、
前記クライアント端末は、
前記n台のカメラのうちユーザ操作により選択されたk(k:k≦nを満たす2以上の整数)台のカメラの撮像映像のそれぞれを画面に表示し、
k台の前記カメラの撮像映像のうちいずれかに映る捜索対象人物の選択に応じて、前記捜索対象人物が映る撮像映像を撮像したカメラ以外の(k−1)台のカメラにより撮像された撮像映像における前記捜索対象人物の検索要求を前記サーバに送り、
前記サーバは、
前記検索要求に応じて、前記解析結果を用いて(k−1)台の前記カメラの撮像映像における前記捜索対象人物および前記捜索対象人物の前記(k−1)台のカメラの配置された交差点における移動方向を抽出して前記クライアント端末に送り、
前記クライアント端末は、
前記(k−1)台のカメラの配置された交差点における前記捜索対象人物の移動方向を、前記k台のカメラが設置された交差点を示す地図データに重畳して表示する、
人物検索方法。
A person search method using a server communicably connected to each of n (n: an integer of 3 or more) cameras, and a client terminal communicably connected to the server,
The server is
Upon receiving different captured images sent from each of the n cameras, analyze the position information and feature information of the person reflected in each of the captured images and accumulate as analysis results,
The client terminal,
Displaying, on a screen, captured images of k (k: an integer of 2 or more satisfying k ≦ n) cameras selected by a user operation among the n cameras,
According to selection of a search target person appearing in any of the images picked up by the k cameras, the image picked up by (k-1) cameras other than the camera picked up the image picked up image showing the search target person Sending a search request for the search target person in the video to the server,
The server is
In response to the search request, using the analysis result, the search target person in the image captured by the (k-1) cameras and the intersection where the (k-1) cameras of the search target person are arranged Extract the movement direction in and send it to the client terminal,
The client terminal,
The moving direction of the search target person at the intersection where the (k-1) cameras are arranged is displayed so as to be superimposed on map data indicating the intersection where the k cameras are installed.
Person search method.
JP2019129406A 2019-07-11 2019-07-11 Person search system and person search method Active JP7235612B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019129406A JP7235612B2 (en) 2019-07-11 2019-07-11 Person search system and person search method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019129406A JP7235612B2 (en) 2019-07-11 2019-07-11 Person search system and person search method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018176489A Division JP6573346B1 (en) 2018-09-20 2018-09-20 Person search system and person search method

Publications (2)

Publication Number Publication Date
JP2020047259A true JP2020047259A (en) 2020-03-26
JP7235612B2 JP7235612B2 (en) 2023-03-08

Family

ID=69899812

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019129406A Active JP7235612B2 (en) 2019-07-11 2019-07-11 Person search system and person search method

Country Status (1)

Country Link
JP (1) JP7235612B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114339433A (en) * 2021-12-27 2022-04-12 未来电视有限公司 Video data processing method and device and computer equipment

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001268657A (en) * 2000-03-21 2001-09-28 Nippon Telegr & Teleph Corp <Ntt> Method and device for remote monitoring, and recording medium with remote monitoring program recorded thereon
WO2012157611A1 (en) * 2011-05-16 2012-11-22 株式会社日立国際電気 Similar image search system
WO2014065033A1 (en) * 2012-10-26 2014-05-01 株式会社日立国際電気 Similar image retrieval device
JP2014153813A (en) * 2013-02-06 2014-08-25 Sony Corp Information process device, information process method, program and information process system
US20140333775A1 (en) * 2013-05-10 2014-11-13 Robert Bosch Gmbh System And Method For Object And Event Identification Using Multiple Cameras
WO2015098442A1 (en) * 2013-12-26 2015-07-02 株式会社日立国際電気 Video search system and video search method
JP2017040983A (en) * 2015-08-17 2017-02-23 パナソニックIpマネジメント株式会社 Security system and person image display method
JP2018093423A (en) * 2016-12-06 2018-06-14 富士通株式会社 Image processing program, image processing system, and image processing method
WO2018163398A1 (en) * 2017-03-10 2018-09-13 株式会社日立国際電気 Similar image search system

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001268657A (en) * 2000-03-21 2001-09-28 Nippon Telegr & Teleph Corp <Ntt> Method and device for remote monitoring, and recording medium with remote monitoring program recorded thereon
WO2012157611A1 (en) * 2011-05-16 2012-11-22 株式会社日立国際電気 Similar image search system
WO2014065033A1 (en) * 2012-10-26 2014-05-01 株式会社日立国際電気 Similar image retrieval device
JP2014153813A (en) * 2013-02-06 2014-08-25 Sony Corp Information process device, information process method, program and information process system
US20140333775A1 (en) * 2013-05-10 2014-11-13 Robert Bosch Gmbh System And Method For Object And Event Identification Using Multiple Cameras
WO2015098442A1 (en) * 2013-12-26 2015-07-02 株式会社日立国際電気 Video search system and video search method
JP2017040983A (en) * 2015-08-17 2017-02-23 パナソニックIpマネジメント株式会社 Security system and person image display method
JP2018093423A (en) * 2016-12-06 2018-06-14 富士通株式会社 Image processing program, image processing system, and image processing method
WO2018163398A1 (en) * 2017-03-10 2018-09-13 株式会社日立国際電気 Similar image search system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114339433A (en) * 2021-12-27 2022-04-12 未来电视有限公司 Video data processing method and device and computer equipment

Also Published As

Publication number Publication date
JP7235612B2 (en) 2023-03-08

Similar Documents

Publication Publication Date Title
JP6573346B1 (en) Person search system and person search method
US11640726B2 (en) Person monitoring system and person monitoring method
CN109886078B (en) Retrieval positioning method and device for target object
EP2954499B1 (en) Information processing apparatus, information processing method, program, and information processing system
JP5994397B2 (en) Information processing apparatus, information processing method, and program
US10991219B2 (en) Security system and method for displaying images of people
CN111222373B (en) Personnel behavior analysis method and device and electronic equipment
EP2354981A2 (en) Image management apparatus, method of controlling the same, and storage medium storing program therefor
US9852343B2 (en) Imaging apparatus, display method, and storage medium
JP2008040781A (en) Subject verification apparatus and subject verification method
US20110096994A1 (en) Similar image retrieval system and similar image retrieval method
JP2018061213A (en) Monitor video analysis system and monitor video analysis method
US10984254B2 (en) Investigation assist system and investigation assist method
CN105956091A (en) Extended information acquisition method and device
JP6396682B2 (en) Surveillance camera system
US20210295550A1 (en) Information processing device, information processing method, and program
JP2006093955A (en) Video processing apparatus
JP7235612B2 (en) Person search system and person search method
JP4427714B2 (en) Image recognition apparatus, image recognition processing method, and image recognition program
US20220277642A1 (en) Investigation assistance system and investigation assistance method
CN111405382A (en) Video abstract generation method and device, computer equipment and storage medium
JP2018195992A (en) Person group tracking device and person group tracking method
WO2021102760A1 (en) Method and apparatus for analyzing behavior of person, and electronic device
JP2021099709A (en) Investigation support system and investigation support method
JP6112346B2 (en) Information collection system, program, and information collection method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20190731

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191205

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20201224

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230224

R150 Certificate of patent or registration of utility model

Ref document number: 7235612

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150