JP2021099709A - Investigation support system and investigation support method - Google Patents

Investigation support system and investigation support method Download PDF

Info

Publication number
JP2021099709A
JP2021099709A JP2019231727A JP2019231727A JP2021099709A JP 2021099709 A JP2021099709 A JP 2021099709A JP 2019231727 A JP2019231727 A JP 2019231727A JP 2019231727 A JP2019231727 A JP 2019231727A JP 2021099709 A JP2021099709 A JP 2021099709A
Authority
JP
Japan
Prior art keywords
server
analysis
search
user terminal
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019231727A
Other languages
Japanese (ja)
Other versions
JP7409638B2 (en
Inventor
佳孝 福島
Yoshitaka Fukushima
佳孝 福島
大竹 宏明
Hiroaki Otake
宏明 大竹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
iPro Co Ltd
Original Assignee
Panasonic iPro Sensing Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic iPro Sensing Solutions Co Ltd filed Critical Panasonic iPro Sensing Solutions Co Ltd
Priority to JP2019231727A priority Critical patent/JP7409638B2/en
Priority to PCT/JP2020/042079 priority patent/WO2021100574A1/en
Publication of JP2021099709A publication Critical patent/JP2021099709A/en
Priority to US17/746,479 priority patent/US20220277642A1/en
Application granted granted Critical
Publication of JP7409638B2 publication Critical patent/JP7409638B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)

Abstract

To provide an investigation support system and an investigation support method, which quickly and efficiently support identification of an escape vehicle used for escape by a suspect who caused an affair or the like, and improve a convenience of investigation by police and other investigative agencies.SOLUTION: An investigation support system 1 comprises a video management server 40, a face recognition server 50, a person search server 60, an action detection server 70, a vehicle search server 80, an LPR server 90, and an AI integrated server 10 as an analysis server. The AI integrated server 10 issues an alarm notification regarding an affair or the like when it is determined that license number information of a first analysis result and license number information of the second analysis result are coincident with each other, and facial images of both occupants are different.SELECTED DRAWING: Figure 1

Description

本開示は、捜査機関による事件等の捜査を支援する捜査支援システムおよび捜査支援方法に関する。 This disclosure relates to an investigation support system and an investigation support method that support an investigation of an incident by an investigative agency.

車両の走行経路の所定箇所に複数のカメラ装置を配置し、それぞれのカメラ装置により撮像されたカメラ画像情報をネットワークおよび無線情報交換装置を介して、車両に搭載された端末装置内の表示装置に表示する、という技術が知られている(例えば、特許文献1参照)。特許文献1によれば、ユーザは、車両の走行経路上に配置された複数のカメラにより撮像されたカメラ画像情報によって、情報量の多いリアルタイムのカメラ画像を得ることができる。 A plurality of camera devices are arranged at predetermined locations on the vehicle's travel path, and camera image information captured by each camera device is displayed on a display device in a terminal device mounted on the vehicle via a network and a wireless information exchange device. A technique of displaying is known (see, for example, Patent Document 1). According to Patent Document 1, a user can obtain a real-time camera image having a large amount of information from camera image information captured by a plurality of cameras arranged on a traveling path of a vehicle.

特開2007−174016号公報JP-A-2007-174016

特許文献1では、複数のカメラ装置のそれぞれにより撮像されたカメラ画像情報を車両に搭載された端末装置内の表示装置に表示できるので、ユーザ(例えば運転手)は、それぞれのカメラ装置の配置箇所におけるリアルタイムのカメラ画像情報を確認できる。しかし特許文献1では、事件あるいは事故(以下「事件等」と称する)の形態が多様化しているという昨今の実情に鑑みて、事件等を引き起こした被疑者が逃走用に使用している逃走車両を検知してユーザに通知することは考慮されていない。特に、警察等の捜査機関による捜査(特に初動捜査)においては、被疑者を早期に発見するために被疑者が逃走用に用いた逃走車両をいち早く特定することが求められることが多い。しかし、特許文献1の技術を用いても、捜査官(例えば警官)が個々のカメラ装置の映像を人力で逐一視聴して確認すると逃走車両の特定に時間がかかり非効率的であるため、被疑者あるいは逃走車両の早期発見が難しいという課題があった。 In Patent Document 1, since the camera image information captured by each of the plurality of camera devices can be displayed on the display device in the terminal device mounted on the vehicle, the user (for example, the driver) can arrange the respective camera devices. You can check the real-time camera image information in. However, in Patent Document 1, in view of the recent fact that the forms of incidents or accidents (hereinafter referred to as "incidents, etc.") are diversifying, the escape vehicle used for escape by the suspect who caused the incident, etc. Is not considered to detect and notify the user. In particular, in an investigation by an investigative agency such as the police (especially an initial investigation), it is often required to quickly identify the escape vehicle used by the suspect for escape in order to detect the suspect at an early stage. However, even if the technology of Patent Document 1 is used, if an investigator (for example, a police officer) manually watches and confirms the images of each camera device, it takes time to identify the escape vehicle and it is inefficient. There was a problem that it was difficult to detect a person or an escape vehicle at an early stage.

本開示は、上述した従来の事情に鑑みて案出され、事件等を引き起こした被疑者が逃走用に使用している逃走車両の特定を早期かつ効率的に支援し、警察等の捜査機関による捜査の利便性を向上する捜査支援システムおよび捜査支援方法を提供することを目的とする。 This disclosure was devised in view of the above-mentioned conventional circumstances, and assists the suspect who caused the incident, etc., to quickly and efficiently identify the escape vehicle used for escape, and is provided by an investigative agency such as the police. The purpose is to provide an investigation support system and an investigation support method that improve the convenience of an investigation.

本開示は、解析サーバと統合サーバとが通信可能に接続される捜査支援システムであって、前記解析サーバは、第1の撮像タイミングで撮像された車両が映る第1の撮像画像を受け取ると前記車両の乗員の顔およびライセンスプレートの解析を行い、前記乗員の顔画像とライセンス番号情報とを含む第1の解析結果を前記統合サーバに送り、前記統合サーバは、前記第1の解析結果を前記第1の撮像タイミングと関連付けてデータベースに登録し、前記解析サーバは、第2の撮像タイミングで撮像された車両が映る第2の撮像画像を受け取ると前記車両の乗員の顔およびライセンスプレートの解析を行い、前記乗員の顔画像とライセンス番号情報とを含む第2の解析結果を前記統合サーバに送り、前記統合サーバは、前記第1の解析結果に含まれる前記ライセンス番号情報と前記第2の解析結果に含まれる前記ライセンス番号情報とが一致しかつ前記第1の解析結果に含まれる前記乗員の顔画像と前記第2の解析結果に含まれる前記乗員の顔画像とが異なると決定した場合に、事件等に関するアラーム通知を行う、捜査支援システムを提供する。 The present disclosure is an investigation support system in which an analysis server and an integrated server are communicably connected, and when the analysis server receives a first captured image of a vehicle captured at the first imaging timing, the analysis server is described. The face of the occupant of the vehicle and the license plate are analyzed, the first analysis result including the occupant's face image and the license number information is sent to the integrated server, and the integrated server sends the first analysis result to the integrated server. Registered in the database in association with the first imaging timing, the analysis server analyzes the occupant's face and license plate of the vehicle when it receives the second captured image showing the vehicle captured at the second imaging timing. Then, the second analysis result including the occupant's face image and the license number information is sent to the integrated server, and the integrated server uses the license number information included in the first analysis result and the second analysis. When it is determined that the license number information included in the result matches and the face image of the occupant included in the first analysis result is different from the face image of the occupant included in the second analysis result. , Provide an investigation support system that notifies alarms about incidents, etc.

また、本開示は、解析サーバと統合サーバとが通信可能に接続される捜査支援システムにより実行される捜査支援方法であって、前記解析サーバにより、第1の撮像タイミングで撮像された車両が映る第1の撮像画像を受け取ると前記車両の乗員の顔およびライセンスプレートの解析を行い、前記乗員の顔画像とライセンス番号情報とを含む第1の解析結果を前記統合サーバに送り、前記統合サーバにより、前記第1の解析結果を前記第1の撮像タイミングと関連付けてデータベースに登録し、前記解析サーバにより、第2の撮像タイミングで撮像された車両が映る第2の撮像画像を受け取ると前記車両の乗員の顔およびライセンスプレートの解析を行い、前記乗員の顔画像とライセンス番号情報とを含む第2の解析結果を前記統合サーバに送り、前記統合サーバにより、前記第1の解析結果に含まれる前記ライセンス番号情報と前記第2の解析結果に含まれる前記ライセンス番号情報とが一致しかつ前記第1の解析結果に含まれる前記乗員の顔画像と前記第2の解析結果に含まれる前記乗員の顔画像とが異なると決定した場合に、事件等に関するアラーム通知を行う、捜査支援方法を提供する。 Further, the present disclosure is an investigation support method executed by an investigation support system in which an analysis server and an integrated server are communicably connected, and a vehicle imaged by the analysis server at the first imaging timing is displayed. Upon receiving the first captured image, the face of the occupant of the vehicle and the license plate are analyzed, and the first analysis result including the occupant's face image and the license number information is sent to the integrated server by the integrated server. When the first analysis result is registered in the database in association with the first imaging timing and the analysis server receives a second captured image of the vehicle captured at the second imaging timing, the vehicle is subjected to the analysis. The analysis of the occupant's face and the license plate is performed, the second analysis result including the occupant's face image and the license number information is sent to the integrated server, and the integrated server includes the first analysis result included in the first analysis result. The license number information and the license number information included in the second analysis result match, and the face image of the occupant included in the first analysis result and the face of the occupant included in the second analysis result. Provide an investigation support method that notifies an alarm regarding an incident, etc. when it is determined that the image is different.

また、本開示は、ユーザ端末と、複数の解析サーバとの間で通信可能に接続された統合サーバとを含む捜査支援システムであって、前記ユーザ端末は、事件等に関する複数の異なるオブジェクト特徴要素ごとに対応して設けられた前記複数の解析サーバの一覧を示す解析サーバ選択画面を表示し、前記解析サーバ選択画面から第1の解析サーバを選択し、選択された前記第1の解析サーバにより検索されるオブジェクト特徴要素を含む検索条件の入力に基づいて、前記検索条件を満たす該当オブジェクトの検索要求を前記統合サーバに送り、前記統合サーバは、前記検索要求に基づいて、前記第1の解析サーバに前記該当オブジェクトの検索指示を送り、前記第1の解析サーバからの検索結果を受信して前記ユーザ端末に送る、捜査支援システムを提供する。 Further, the present disclosure is an investigation support system including a user terminal and an integrated server that is communicably connected between a plurality of analysis servers, and the user terminal is a plurality of different object feature elements related to an incident or the like. An analysis server selection screen showing a list of the plurality of analysis servers provided corresponding to each is displayed, a first analysis server is selected from the analysis server selection screen, and the selected first analysis server is used. Based on the input of the search condition including the object feature element to be searched, a search request for the corresponding object satisfying the search condition is sent to the integrated server, and the integrated server performs the first analysis based on the search request. Provided is an investigation support system that sends a search instruction for the corresponding object to a server, receives a search result from the first analysis server, and sends the search result to the user terminal.

また、本開示は、ユーザ端末と、複数の解析サーバとの間で通信可能に接続された統合サーバとを含む捜査支援システムにより実行される捜査支援方法であって、前記ユーザ端末により、事件等に関する複数の異なるオブジェクト特徴要素ごとに対応して設けられた前記複数の解析サーバの一覧を示す解析サーバ選択画面を表示し、前記ユーザ端末により、前記解析サーバ選択画面から第1の解析サーバを選択し、選択された前記第1の解析サーバにより検索されるオブジェクト特徴要素を含む検索条件の入力に基づいて、前記検索条件を満たす該当オブジェクトの検索要求を前記統合サーバに送り、前記統合サーバにより、前記検索要求に基づいて、前記第1の解析サーバに前記該当オブジェクトの検索指示を送り、前記第1の解析サーバからの検索結果を受信して前記ユーザ端末に送る、捜査支援方法を提供する。 Further, the present disclosure is an investigation support method executed by an investigation support system including an integrated server that is communicably connected between a user terminal and a plurality of analysis servers. A analysis server selection screen showing a list of the plurality of analysis servers provided corresponding to each of a plurality of different object feature elements is displayed, and the user terminal selects the first analysis server from the analysis server selection screen. Then, based on the input of the search condition including the object feature element searched by the selected first analysis server, a search request for the corresponding object satisfying the search condition is sent to the integrated server, and the integrated server sends the search request to the integrated server. Based on the search request, a search support method is provided in which a search instruction for the corresponding object is sent to the first analysis server, a search result from the first analysis server is received, and the search result is sent to the user terminal.

また、本開示は、ユーザ端末と、n(n:2以上の整数)個の解析サーバとの間で通信可能に接続される統合サーバとを含む捜査支援システムであって、前記統合サーバは、前記n個の解析サーバのそれぞれとの間の通信状況を定期的に監視し、k(k:1〜nまでの整数)個の異なるオブジェクト特徴要素を含む検索条件を前記ユーザ端末から受け取ると前記n個の解析サーバのうち前記検索条件に含まれる前記k個のオブジェクト特徴要素のそれぞれに対応して設けられたk個の解析サーバを決定し、前記k個の解析サーバのそれぞれに該当オブジェクトの検索要求を送り、前記k個の解析サーバのうち特定の解析サーバとの間の通信断が生じたことを検知すると、(k−1)個の解析サーバから受信した検索結果と前記特定の解析サーバとの間の通信断が生じたことの通信断通知とを前記ユーザ端末に送り、前記ユーザ端末は、前記(k−1)個の解析サーバから受信した検索結果と前記通信断通知とを含む検索結果画面を表示する、捜査支援システムを提供する。 Further, the present disclosure is an investigation support system including an integrated server that is communicably connected between a user terminal and n (n: 2 or more integers) analysis servers. When the communication status with each of the n analysis servers is periodically monitored and a search condition including k (an integer from k: 1 to n) of different object feature elements is received from the user terminal, the above Of the n analysis servers, k analysis servers provided corresponding to each of the k object feature elements included in the search condition are determined, and the corresponding object is assigned to each of the k analysis servers. When a search request is sent and it is detected that a communication interruption has occurred with a specific analysis server among the k analysis servers, the search results received from the (k-1) analysis servers and the specific analysis are detected. A communication disconnection notification that a communication interruption with the server has occurred is sent to the user terminal, and the user terminal sends the search results received from the (k-1) analysis servers and the communication interruption notification. Provide an investigation support system that displays the search result screen including.

また、本開示は、ユーザ端末と、n(n:2以上の整数)個の解析サーバとの間で通信可能に接続される統合サーバとを含む捜査支援システムにより実行される捜査支援方法であって、前記統合サーバにより、前記n個の解析サーバのそれぞれとの間の通信状況を定期的に監視し、前記統合サーバにより、k(k:1〜nまでの整数)個の異なるオブジェクト特徴要素を含む検索条件を前記ユーザ端末から受け取ると前記n個の解析サーバのうち前記検索条件に含まれる前記k個のオブジェクト特徴要素のそれぞれに対応して設けられたk個の解析サーバを決定し、前記統合サーバにより、前記k個の解析サーバのそれぞれに該当オブジェクトの検索要求を送り、前記統合サーバにより、前記k個の解析サーバのうち特定の解析サーバとの間の通信断が生じたことを検知すると、(k−1)個の解析サーバから受信した検索結果と前記特定の解析サーバとの間の通信断が生じたことの通信断通知とを前記ユーザ端末に送り、前記ユーザ端末により、前記(k−1)個の解析サーバから受信した検索結果と前記通信断通知とを含む検索結果画面を表示する、捜査支援方法を提供する。 Further, the present disclosure is an investigation support method executed by an investigation support system including an integrated server that is communicably connected between a user terminal and n (n: 2 or more integers) analysis servers. The integrated server periodically monitors the communication status with each of the n analysis servers, and the integrated server periodically monitors k (k: integers from 1 to n) different object feature elements. When a search condition including is received from the user terminal, k analysis servers provided corresponding to each of the k object feature elements included in the search condition are determined among the n analysis servers. The integrated server sends a search request for the corresponding object to each of the k analysis servers, and the integrated server causes a communication interruption with a specific analysis server among the k analysis servers. When it is detected, the search results received from the (k-1) analysis servers and the communication interruption notification that the communication interruption between the specific analysis servers has occurred are sent to the user terminal, and the user terminal sends the communication interruption notification. Provided is an investigation support method for displaying a search result screen including search results received from the (k-1) analysis servers and the communication interruption notification.

また、本開示は、ユーザ端末と、少なくとも第1の解析サーバおよび第2の解析サーバとの間で通信可能に接続される統合サーバとを含む捜査支援システムであって、前記統合サーバは、事件等に関する第1のオブジェクト特徴要素と前記事件等に関する第2のオブジェクト特徴要素とを含む検索条件を前記ユーザ端末から受け取ると前記第1のオブジェクト特徴要素を満たす該当オブジェクトの検索要求を前記第1の解析サーバに送りかつ前記第2のオブジェクト特徴要素を満たす該当オブジェクトの検索要求を前記第2の解析サーバに送り、前記第1のオブジェクト特徴要素を満たす該当オブジェクトを含む第1の検索結果を前記第1の解析サーバから受け取りかつ前記第2のオブジェクト特徴要素を満たす該当オブジェクトを含む第2の検索結果を前記第2の解析サーバから受け取り、前記第1の検索結果から前記第2の検索結果を除外した第3の検索結果を前記ユーザ端末に送り、前記ユーザ端末は、前記統合サーバから送られた前記第3の検索結果を含む検索結果画面を表示する、捜査支援システムを提供する。 Further, the present disclosure is an investigation support system including a user terminal and an integrated server that is communicably connected between a first analysis server and a second analysis server, and the integrated server is an incident. When a search condition including a first object feature element related to the above and the like and a second object feature element related to the case or the like is received from the user terminal, a search request for the corresponding object satisfying the first object feature element is made. The search request for the corresponding object that is sent to the analysis server and satisfies the second object feature element is sent to the second analysis server, and the first search result including the corresponding object that satisfies the first object feature element is sent to the second analysis server. The second search result including the corresponding object received from the analysis server 1 and satisfying the second object feature element is received from the second analysis server, and the second search result is excluded from the first search result. The third search result is sent to the user terminal, and the user terminal provides an investigation support system that displays a search result screen including the third search result sent from the integrated server.

また、本開示は、ユーザ端末と、少なくとも第1の解析サーバおよび第2の解析サーバとの間で通信可能に接続される統合サーバとを含む捜査支援システムにより実行される捜査支援方法であって、前記統合サーバにより、事件等に関する第1のオブジェクト特徴要素と前記事件等に関する第2のオブジェクト特徴要素とを含む検索条件を前記ユーザ端末から受け取ると前記第1のオブジェクト特徴要素を満たす該当オブジェクトの検索要求を前記第1の解析サーバに送りかつ前記第2のオブジェクト特徴要素を満たす該当オブジェクトの検索要求を前記第2の解析サーバに送り、前記統合サーバにより、前記第1のオブジェクト特徴要素を満たす該当オブジェクトを含む第1の検索結果を前記第1の解析サーバから受け取りかつ前記第2のオブジェクト特徴要素を満たす該当オブジェクトを含む第2の検索結果を前記第2の解析サーバから受け取り、前記統合サーバにより、前記第1の検索結果から前記第2の検索結果を除外した第3の検索結果を前記ユーザ端末に送り、前記ユーザ端末により、前記統合サーバから送られた前記第3の検索結果を含む検索結果画面を表示する、捜査支援方法を提供する。 Further, the present disclosure is an investigation support method executed by an investigation support system including a user terminal and an integrated server that is communicably connected to at least the first analysis server and the second analysis server. When the integrated server receives a search condition including a first object feature element related to an incident or the like and a second object feature element related to the incident or the like from the user terminal, the corresponding object satisfying the first object feature element. The search request is sent to the first analysis server and the search request for the corresponding object satisfying the second object feature element is sent to the second analysis server, and the integrated server satisfies the first object feature element. The first search result including the corresponding object is received from the first analysis server, and the second search result including the corresponding object satisfying the second object feature element is received from the second analysis server, and the integrated server is received. The third search result obtained by excluding the second search result from the first search result is sent to the user terminal, and includes the third search result sent from the integrated server by the user terminal. Provide an investigation support method that displays the search result screen.

また、本開示は、ユーザ端末と複数の解析サーバとが統合サーバを介して通信可能に接続される捜査支援システムであって、前記複数の解析サーバのそれぞれは、複数のカメラのそれぞれとの間で接続され、事件等に関して他の解析サーバにより検索可能なオブジェクトと異なるオブジェクトの照合リストを保持し、前記複数の解析サーバのそれぞれは、前記カメラの撮像映像の解析により自己が保持する前記照合リストを満たすオブジェクトを検知すると、前記オブジェクトの検知を示すイベント名、検知日時および前記カメラの配置位置の情報を含む検知通知を、前記統合サーバを介して前記ユーザ端末に送り、前記ユーザ端末は、前記解析サーバから送られた前記検知通知に含まれる前記イベント名、検知日時および前記カメラの配置位置の情報を含むイベント検知画面を表示する、捜査支援システムを提供する。 Further, the present disclosure is an investigation support system in which a user terminal and a plurality of analysis servers are communicably connected via an integrated server, and each of the plurality of analysis servers is connected to each of a plurality of cameras. It holds a collation list of objects that are different from the objects that can be searched by other analysis servers for incidents, etc., and each of the plurality of analysis servers holds the collation list that it holds by analyzing the images captured by the camera. When an object satisfying the above conditions is detected, a detection notification including the event name indicating the detection of the object, the detection date and time, and the information on the arrangement position of the camera is sent to the user terminal via the integrated server, and the user terminal sends the detection notification Provided is an investigation support system that displays an event detection screen including information on the event name, detection date and time, and the placement position of the camera included in the detection notification sent from the analysis server.

また、本開示は、ユーザ端末と複数の解析サーバとが統合サーバを介して通信可能に接続される捜査支援システムにより実行される捜査支援方法であって、前記複数の解析サーバのそれぞれにより、複数のカメラのそれぞれとの間で接続し、前記複数の解析サーバのそれぞれにより、事件等に関して他の解析サーバにより検索可能なオブジェクトと異なるオブジェクトの照合リストを保持し、前記複数の解析サーバのそれぞれにより、前記カメラの撮像映像の解析により自己が保持する前記照合リストを満たすオブジェクトを検知した場合に、前記オブジェクトの検知を示すイベント名、検知日時および前記カメラの配置位置の情報を含む検知通知を、前記統合サーバを介して前記ユーザ端末に送り、前記ユーザ端末により、前記解析サーバから送られた前記検知通知に含まれる前記イベント名、検知日時および前記カメラの配置位置の情報を含むイベント検知画面を表示する、捜査支援方法を提供する。 Further, the present disclosure is an investigation support method executed by an investigation support system in which a user terminal and a plurality of analysis servers are communicably connected via an integrated server, and a plurality of analysis support methods are provided by each of the plurality of analysis servers. By connecting to each of the cameras of the above, each of the plurality of analysis servers holds a collation list of objects different from the objects that can be searched by other analysis servers regarding an incident, etc., and each of the plurality of analysis servers When an object satisfying the collation list held by the server is detected by analysis of the captured image of the camera, a detection notification including information on the event name indicating the detection of the object, the detection date and time, and the arrangement position of the camera is transmitted. An event detection screen that is sent to the user terminal via the integrated server and includes information on the event name, detection date and time, and the camera placement position included in the detection notification sent from the analysis server by the user terminal. Provide an investigation support method to display.

また、本開示は、ユーザ端末と複数の解析サーバとが統合サーバを介して通信可能に接続される捜査支援システムであって、前記複数の解析サーバのうち第1の解析サーバは、カメラの撮像映像の解析により事件等に関する特定の行動を検知すると、前記行動が検知された前記カメラの撮像画像を少なくとも含むアラーム通知を、前記統合サーバを介して前記ユーザ端末に送り、前記ユーザ端末は、前記第1の解析サーバから送られた前記アラーム通知に含まれる前記撮像画像と前記撮像画像に映る前記行動の行為者の人物解析ボタンとを含むイベント通知画面を表示し、前記人物解析ボタンの指定に基づいて、前記撮像画像に映る行為者の人物解析を、前記統合サーバを介して要求し、前記複数の解析サーバのうち第2の解析サーバは、前記ユーザ端末からの前記要求に基づいて、前記撮像画像に映る行為者の人物解析結果を、前記統合サーバを介して前記ユーザ端末に送り、前記ユーザ端末は、前記第2の解析サーバから送られた前記人物解析結果に含まれる前記行為者の切り出し画像と前記切り出し画像に映る人物の追跡ボタンとを含む解析結果画面を表示し、前記追跡ボタンの指定に基づいて、前記追跡ボタンに対応する前記人物のブラックリスト登録を、前記統合サーバを介して要求し、前記第2の解析サーバは、前記ユーザ端末からの前記要求に基づいて、前記追跡ボタンに対応する前記人物の切り出し画像を前記第2の解析サーバのブラックリストデータに登録する、捜査支援システムを提供する。 Further, the present disclosure is an investigation support system in which a user terminal and a plurality of analysis servers are communicably connected via an integrated server, and the first analysis server among the plurality of analysis servers captures images of a camera. When a specific action related to an incident or the like is detected by video analysis, an alarm notification including at least an image captured by the camera in which the action is detected is sent to the user terminal via the integrated server, and the user terminal sends the user terminal to the user terminal. An event notification screen including the captured image included in the alarm notification sent from the first analysis server and the person analysis button of the actor of the action reflected in the captured image is displayed, and the person analysis button can be specified. Based on this, the person analysis of the actor reflected in the captured image is requested via the integrated server, and the second analysis server among the plurality of analysis servers is said based on the request from the user terminal. The person analysis result of the actor reflected in the captured image is sent to the user terminal via the integrated server, and the user terminal is the actor included in the person analysis result sent from the second analysis server. An analysis result screen including the cutout image and the tracking button of the person appearing in the cutout image is displayed, and based on the designation of the tracking button, the blacklist registration of the person corresponding to the tracking button is performed via the integrated server. The second analysis server registers the cutout image of the person corresponding to the tracking button in the blacklist data of the second analysis server based on the request from the user terminal. Provide a support system.

また、本開示は、ユーザ端末と複数の解析サーバとが統合サーバを介して通信可能に接続される捜査支援システムにより実行される捜査支援方法であって、前記複数の解析サーバのうち第1の解析サーバにより、カメラの撮像映像の解析により事件等に関する特定の行動を検知すると、前記行動が検知された前記カメラの撮像画像を少なくとも含むアラーム通知を、前記統合サーバを介して前記ユーザ端末に送り、前記ユーザ端末により、前記第1の解析サーバから送られた前記アラーム通知に含まれる前記撮像画像と前記撮像画像に映る前記行動の行為者の人物解析ボタンとを含むイベント通知画面を表示し、前記ユーザ端末により、前記人物解析ボタンの指定に基づいて、前記撮像画像に映る行為者の人物解析を、前記統合サーバを介して要求し、前記複数の解析サーバのうち第2の解析サーバにより、前記ユーザ端末からの前記要求に基づいて、前記撮像画像に映る行為者の人物解析結果を、前記統合サーバを介して前記ユーザ端末に送り、前記ユーザ端末により、前記第2の解析サーバから送られた前記人物解析結果に含まれる前記行為者の切り出し画像と前記切り出し画像に映る人物の追跡ボタンとを含む解析結果画面を表示し、前記ユーザ端末により、前記追跡ボタンの指定に基づいて、前記追跡ボタンに対応する前記人物のブラックリスト登録を、前記統合サーバを介して要求し、前記第2の解析サーバにより、前記ユーザ端末からの前記要求に基づいて、前記追跡ボタンに対応する前記人物の切り出し画像を前記第2の解析サーバのブラックリストデータに登録する、捜査支援方法を提供する。 Further, the present disclosure is an investigation support method executed by an investigation support system in which a user terminal and a plurality of analysis servers are communicably connected via an integrated server, and is the first of the plurality of analysis servers. When the analysis server detects a specific action related to an incident or the like by analyzing the image captured by the camera, an alarm notification including at least the captured image of the camera in which the action is detected is sent to the user terminal via the integrated server. The user terminal displays an event notification screen including the captured image included in the alarm notification sent from the first analysis server and the person analysis button of the actor of the action reflected in the captured image. Based on the designation of the person analysis button, the user terminal requests the person analysis of the actor reflected in the captured image via the integrated server, and the second analysis server among the plurality of analysis servers requests the person analysis. Based on the request from the user terminal, the person analysis result of the actor reflected in the captured image is sent to the user terminal via the integrated server, and is sent from the second analysis server by the user terminal. An analysis result screen including a cutout image of the actor included in the person analysis result and a tracking button of the person reflected in the cutout image is displayed, and the tracking is performed by the user terminal based on the designation of the tracking button. The blacklist registration of the person corresponding to the button is requested via the integrated server, and the second analysis server cuts out the person corresponding to the tracking button based on the request from the user terminal. Provided is an investigation support method for registering an image in the blacklist data of the second analysis server.

本開示によれば、事件等を引き起こした被疑者あるいは被疑者が逃走用に使用している逃走車両の特定を早期かつ効率的に支援でき、警察等の捜査機関による捜査の利便性を向上できる。 According to the present disclosure, it is possible to quickly and efficiently support the identification of the suspect who caused the incident or the escape vehicle used by the suspect for escape, and it is possible to improve the convenience of the investigation by the police or other investigative agencies. ..

捜査支援システムのシステム構成例を示すブロック図Block diagram showing a system configuration example of the investigation support system 捜査支援システムを構成するカメラのハードウェア構成例を示すブロック図A block diagram showing an example of the hardware configuration of the cameras that make up the investigation support system 捜査支援システムを構成する各種の解析サーバのハードウェア構成例を示すブロック図Block diagram showing hardware configuration examples of various analysis servers that make up the investigation support system 捜査支援システムを構成するクライアント端末およびモバイル端末のハードウェア構成例を示すブロック図Block diagram showing hardware configuration examples of client terminals and mobile terminals that make up an investigation support system アラーム通知画面例を示す図Diagram showing an example of the alarm notification screen 実施の形態1に係る捜査支援システムの動作手順例を示すシーケンス図Sequence diagram showing an example of the operation procedure of the investigation support system according to the first embodiment 検索条件入力画面の一部の表示例を示す図Diagram showing a part of the display example of the search condition input screen 実施の形態1に係る捜査支援システムの他の動作手順例を示すシーケンス図A sequence diagram showing an example of another operation procedure of the investigation support system according to the first embodiment. 車両検索サーバとの接続エラーの発生を通知する検索結果画面例を示す図A diagram showing an example of a search result screen that notifies the occurrence of a connection error with the vehicle search server. 車両検索サーバとの接続の復帰を通知する検索結果画面例を示す図A diagram showing an example of a search result screen that notifies the return of the connection with the vehicle search server. 実施の形態2に係る捜査支援システムの動作手順例を示すシーケンス図Sequence diagram showing an example of the operation procedure of the investigation support system according to the second embodiment 実施の形態3に係る検索条件詳細画面例を示す図The figure which shows the example of the search condition detail screen which concerns on Embodiment 3. 実施の形態3に係る検索条件入力画面の一部の表示例を示す図The figure which shows the display example of a part of the search condition input screen which concerns on Embodiment 3. 実施の形態3に係る捜査支援システムの動作手順例を示すシーケンス図Sequence diagram showing an example of the operation procedure of the investigation support system according to the third embodiment イベント検知運用画面例を示す図Figure showing an example of event detection operation screen 実施の形態4に係る捜査支援システムの動作手順例を示すシーケンス図Sequence diagram showing an example of the operation procedure of the investigation support system according to the fourth embodiment イベント検知画面から解析結果画面への表示遷移を示す図Diagram showing the display transition from the event detection screen to the analysis result screen 人物追跡運用画面例を示す図Diagram showing an example of a person tracking operation screen 実施の形態5に係る捜査支援システムの動作手順例を示すシーケンス図A sequence diagram showing an example of an operation procedure of the investigation support system according to the fifth embodiment.

以下、添付図面を適宜参照しながら、本開示に係る捜査支援システムおよび捜査支援方法を具体的に開示した実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。 Hereinafter, embodiments in which the investigation support system and the investigation support method according to the present disclosure are specifically disclosed will be described in detail with reference to the attached drawings as appropriate. However, more detailed explanation than necessary may be omitted. For example, detailed explanations of already well-known matters and duplicate explanations for substantially the same configuration may be omitted. This is to avoid unnecessary redundancy of the following description and to facilitate the understanding of those skilled in the art. It should be noted that the accompanying drawings and the following description are provided for those skilled in the art to fully understand the present disclosure, and are not intended to limit the subject matter described in the claims.

以下、街中あるいは建物内の各所に設置されているカメラ(例えば防犯カメラ等の監視カメラ)により撮像される撮像映像を用いて、街中あるいは建物内で事件等を引き起こした被疑者あるいはその被疑者が逃走用に使用している逃走車両の特定あるいは追跡等を行う警官の捜査を捜査支援システムにより支援する例を説明する。なお、警察は捜査機関の一例である。また、以下の説明において、撮像映像データは、概念的に撮像画像データを含むとする。 Hereinafter, the suspect or the suspect who caused the incident in the city or in the building will use the captured image captured by cameras installed in various places in the city or in the building (for example, a surveillance camera such as a security camera). An example of supporting the investigation of a police officer who identifies or tracks an escape vehicle used for escape by an investigation support system will be described. The police are an example of an investigative agency. Further, in the following description, it is assumed that the captured image data conceptually includes the captured image data.

(実施の形態1)
図1は、捜査支援システム1のシステム構成例を示すブロック図である。捜査支援システム1は、AI(Artificial Intelligent)統合サーバ10と、映像管理サーバ40と、顔認証サーバ50と、人物検索サーバ60と、行動検知サーバ70と、車両検索サーバ80と、LPR(License Plate Recognition)サーバ90とを少なくとも含む構成である。また、捜査支援システム1は、ビューアとしてのクライアント端末VW1およびモバイル端末VW2をさらに含む構成としてもよい。映像管理サーバ40、顔認証サーバ50、人物検索サーバ60、行動検知サーバ70、車両検索サーバ80およびLPRサーバ90のそれぞれは、ネットワークNW1を介して複数台(例えば20台)のカメラC1〜C20のそれぞれと通信可能に接続される。なお、映像管理サーバ40、顔認証サーバ50、人物検索サーバ60、行動検知サーバ70、車両検索サーバ80およびLPRサーバ90のそれぞれは、警察署内でのオンプレミスサーバとしてもよいし、インターネット等のネットワーク網に接続されるクラウドサーバとして設けられてもよい。
(Embodiment 1)
FIG. 1 is a block diagram showing a system configuration example of the investigation support system 1. The investigation support system 1 includes an AI (Artificial Intelligent) integrated server 10, a video management server 40, a face authentication server 50, a person search server 60, an action detection server 70, a vehicle search server 80, and an LPR (License Plate). Recognition) It is a configuration including at least a server 90. Further, the investigation support system 1 may be configured to further include a client terminal VW1 as a viewer and a mobile terminal VW2. The video management server 40, the face recognition server 50, the person search server 60, the behavior detection server 70, the vehicle search server 80, and the LPR server 90 are each of a plurality of (for example, 20) cameras C1 to C20 via the network NW1. Connected to communicate with each. Each of the video management server 40, the face authentication server 50, the person search server 60, the behavior detection server 70, the vehicle search server 80, and the LPR server 90 may be on-premises servers in the police station, or may be networks such as the Internet. It may be provided as a cloud server connected to the network.

なお、図1では、クライアント端末VW1およびモバイル端末VW2はそれぞれ1台だけ示されているが、それぞれ複数台が設けられてよい。また、捜査支援システム1は、単一の警察署内に限って使用されることに限定されず、複数の警察署が跨って合同捜査する例に適用されてもよい。 Although only one client terminal VW1 and one mobile terminal VW2 are shown in FIG. 1, a plurality of each may be provided. Further, the investigation support system 1 is not limited to being used only within a single police station, and may be applied to an example in which a plurality of police stations carry out a joint investigation.

カメラC1〜C20のそれぞれは、監視用途に街中あるいは建物内の各所に設置され、撮像エリア(言い換えると、被写体)の撮像映像データを生成し、ネットワークNW1を介して各サーバ(具体的には、顔認証サーバ50、人物検索サーバ60、行動検知サーバ70、車両検索サーバ80、LPRサーバ90)に送る。以下の説明において、撮像映像データには、撮像映像データそのものだけでなく、その撮像映像を撮像したカメラの識別情報および撮像日時の情報が含まれる。また、カメラの識別情報は、カメラの識別情報以外にカメラの配置位置情報を含んでよい。カメラC1〜C20のそれぞれは、例えば国道あるいは県道等の主要幹線道路の路側に固定的に設置されてもよいし、交差点の付近に固定的に設置されてもよい。カメラC1〜C20のそれぞれは、イントラネットの通信回線等のネットワークNW1を介して、各サーバ(具体的には、映像管理サーバ40、顔認証サーバ50、人物検索サーバ60、行動検知サーバ70、車両検索サーバ80、LPRサーバ90)と通信可能に接続される。ネットワークNW1は、有線通信回線(例えば、光ファイバを用いた光通信網)により構成されるが、無線通信網により構成されてもよい。なお、カメラC1〜C20は全て同一メーカ製のものであってもよいし、一部のカメラが他社製のものが含まれても構わない。また、図1の構成例では、カメラC1〜C20のそれぞれの撮像映像データが共通して各サーバ(具体的には、映像管理サーバ40、顔認証サーバ50、人物検索サーバ60、行動検知サーバ70、車両検索サーバ80、LPRサーバ90)にて受信されているが、各サーバにて受信される共通の撮像映像データはカメラC1〜C20の全ての撮像映像データでもよいし、一部のカメラの撮像映像データだけでもよい。また、詳細は図2を参照して説明するが、カメラC1〜C20は、撮像映像データの映像解析(例えば車両内の乗員の顔の検出)を実行可能でもよい。 Each of the cameras C1 to C20 is installed in various places in the city or in a building for surveillance purposes, generates image data of an imaging area (in other words, a subject), and generates image data of an imaging area (in other words, a subject), and each server (specifically, specifically,) via network NW1. The data is sent to the face recognition server 50, the person search server 60, the behavior detection server 70, the vehicle search server 80, and the LPR server 90). In the following description, the captured image data includes not only the captured image data itself, but also the identification information of the camera that captured the captured image and the information of the imaging date and time. Further, the camera identification information may include camera placement position information in addition to the camera identification information. Each of the cameras C1 to C20 may be fixedly installed on the road side of a main highway such as a national road or a prefectural road, or may be fixedly installed near an intersection. Each of the cameras C1 to C20 is a server (specifically, a video management server 40, a face authentication server 50, a person search server 60, an action detection server 70, and a vehicle search) via a network NW1 such as an intranet communication line. It is connected to the server 80 and the LPR server 90) so as to be able to communicate with each other. The network NW1 is composed of a wired communication line (for example, an optical communication network using an optical fiber), but may be composed of a wireless communication network. The cameras C1 to C20 may all be made by the same manufacturer, or some cameras may be made by another company. Further, in the configuration example of FIG. 1, the captured video data of the cameras C1 to C20 are common to each server (specifically, the video management server 40, the face authentication server 50, the person search server 60, and the behavior detection server 70). , Vehicle search server 80, LPR server 90), but the common captured video data received by each server may be all captured video data of cameras C1 to C20, or of some cameras. Only the captured image data may be used. Further, although the details will be described with reference to FIG. 2, the cameras C1 to C20 may be capable of performing video analysis of captured video data (for example, detection of the face of an occupant in a vehicle).

解析サーバとしての映像管理サーバ40は、例えば警察署内に設置され、プロセッサ41およびデータベース42を少なくとも含む構成である。以下、データベースを「DB」と略記する場合がある。映像管理サーバ40は、顔認証サーバ50、人物検索サーバ60、行動検知サーバ70、車両検索サーバ80およびLPRサーバ90のそれぞれの処理結果のデータを保存したり、カメラC1〜C20のそれぞれの撮像映像データを保存したりする。映像管理サーバ40は、ネットワークNW1を介してカメラC1〜C20のそれぞれの撮像映像データを受け取って保存してもよいし、あるいは、顔認証サーバ50、人物検索サーバ60、行動検知サーバ70、車両検索サーバ80およびLPRサーバ90のうちいずれかからカメラC1〜C20のそれぞれの撮像映像データを受け取って保存してもよい。また、映像管理サーバ40は、警察署内のオペレータの操作に応じてクライアント端末VW1あるいは現場の警官の操作に応じてモバイル端末VW2から送られた要求により、その要求を満たす撮像映像データをデータベース42から読み出してクライアント端末VW1あるいはモバイル端末VW2に送ってよい。 The video management server 40 as an analysis server is installed in, for example, a police station, and has a configuration including at least a processor 41 and a database 42. Hereinafter, the database may be abbreviated as "DB". The image management server 40 stores the data of the processing results of the face recognition server 50, the person search server 60, the behavior detection server 70, the vehicle search server 80, and the LPR server 90, and captures images of the cameras C1 to C20. Save data. The image management server 40 may receive and save the captured image data of the cameras C1 to C20 via the network NW1, or the face authentication server 50, the person search server 60, the action detection server 70, and the vehicle search. The captured image data of the cameras C1 to C20 may be received and stored from either the server 80 or the LPR server 90. Further, the video management server 40 stores captured video data satisfying the request in response to a request sent from the client terminal VW1 in response to the operation of the operator in the police station or the mobile terminal VW2 in response to the operation of the police officer in the field. It may be read from and sent to the client terminal VW1 or the mobile terminal VW2.

解析サーバとしての顔認証サーバ50は、例えば警察署内に設置され、プロセッサ51およびデータベース52を少なくとも含む構成である。顔認証サーバ50のプロセッサ51は、カメラC1〜C20のそれぞれの撮像映像データを受け取る度に、撮像映像データに映る人物の顔(検索対象となるオブジェクトの一例)を検知する等の映像解析を行い、その映像解析結果をデータベース52に保存する。顔認証サーバ50のプロセッサ51は、映像解析中にブラックリストデータ(後述参照)に登録されている顔画像と同一あるいは類似する顔を検知した時、ブラックリストデータに顔画像が登録されている人物の検知を報知するためのアラーム通知を映像解析結果として生成してよい。アラーム通知の生成対象となる顔画像は、予め顔認証サーバ50において登録されており、この登録は例えばオペレータ等の操作によってクライアント端末VW1あるいはモバイル端末VW2からの登録の指示により行われてよい。このアラーム通知は、生成される度に顔認証サーバ50からAI統合サーバ10に送られる。映像解析結果には、例えば撮像映像データに映る人物の顔画像(つまり、撮像映像データを構成する撮像画像フレームの中で人物の顔部分が切り出されて生成された顔画像)と映像解析に用いられた撮像映像データの撮像日時およびカメラの識別情報とが含まれる。また、顔認証サーバ50のプロセッサ51は、AI統合サーバ10からの処理指示(例えば顔画像の照合指示)を受け取ると、その処理指示に含まれる照合対象の顔画像がデータベース52のブラックリストデータ(後述参照)に登録されているか否かを照合し、照合結果をデータベース52に保存する。ここで、ブラックリストデータ(顔データベースの一例)は、例えば過去の事件等を起こした前科者の顔画像を含む個人情報が事件等ごとに区分されて登録されたデータであり、データベース52に登録されている。なお、このブラックリストデータは、データベース52に登録されてもよいし、他の外部データベース(図示略)に登録されてもよい。 The face recognition server 50 as an analysis server is installed in, for example, a police station, and has a configuration including at least a processor 51 and a database 52. Each time the processor 51 of the face recognition server 50 receives the captured image data of the cameras C1 to C20, the processor 51 performs image analysis such as detecting the face of a person (an example of an object to be searched) reflected in the captured image data. , The video analysis result is saved in the database 52. When the processor 51 of the face recognition server 50 detects a face that is the same as or similar to the face image registered in the blacklist data (see below) during video analysis, the person whose face image is registered in the blacklist data. An alarm notification for notifying the detection of is may be generated as a video analysis result. The face image to be generated for the alarm notification is registered in advance in the face authentication server 50, and this registration may be performed by an instruction of registration from the client terminal VW1 or the mobile terminal VW2, for example, by an operation of an operator or the like. This alarm notification is sent from the face recognition server 50 to the AI integration server 10 each time it is generated. The image analysis results include, for example, a person's face image reflected in the captured image data (that is, a face image generated by cutting out the person's face in the captured image frame constituting the captured image data) and used for image analysis. The imaging date and time of the captured image data and the identification information of the camera are included. Further, when the processor 51 of the face recognition server 50 receives a processing instruction (for example, a face image collation instruction) from the AI integrated server 10, the face image to be collated included in the processing instruction is the blacklist data of the database 52 (for example, the face image collation instruction). It is collated whether or not it is registered in (see below), and the collation result is saved in the database 52. Here, the blacklist data (an example of a face database) is data in which personal information including a face image of a criminal record who has caused a past incident or the like is classified and registered for each incident or the like, and is registered in the database 52. Has been done. The blacklist data may be registered in the database 52 or may be registered in another external database (not shown).

解析サーバとしての人物検索サーバ60は、例えば警察署内に設置され、プロセッサ61およびデータベース62を少なくとも含む構成である。人物検索サーバ60のプロセッサ61は、カメラC1〜C20のそれぞれの撮像映像データを受け取る度に、撮像映像データに映る人物(例えば被疑者、検索対象となるオブジェクトの一例)に関する情報を抽出する映像解析を行い、その映像解析結果をデータベース62に保存する。人物検索サーバ60のプロセッサ61は、映像解析中に人物属性情報(例えば不審人物の外見的な特徴を示す情報、オブジェクト特徴要素の一例)を満たす人物を検知した時、人物属性情報を満たす人物の検知を報知するためのアラーム通知を映像解析結果として生成してよい。アラーム通知の生成対象となる人物属性情報は、予め人物検索サーバ60において登録されており、この登録は例えばオペレータ等の操作によってクライアント端末VW1あるいはモバイル端末VW2からの登録の指示により行われてよい。このアラーム通知は、生成される度に人物検索サーバ60からAI統合サーバ10に送られる。映像解析結果には、例えば撮像映像データに映る人物情報(例えば、撮像映像中に映る人物の顔、性別、年齢、髪型、背丈、体型、所持品、装備品)と映像解析に用いられた撮像映像データの撮像日時およびカメラの識別情報とが含まれる。人物検索サーバ60のプロセッサ61は、この人物情報を撮像映像データに関連付けて付与してデータベース62に蓄積する。この映像解析結果は、例えば事件等が発生した場合に、AI統合サーバ10から送られる処理指示(例えば人物情報の検索指示)に基づいて行われる、該当する人物情報の有無の検索時に参照される。 The person search server 60 as an analysis server is installed in, for example, a police station, and has a configuration including at least a processor 61 and a database 62. Each time the processor 61 of the person search server 60 receives the captured image data of the cameras C1 to C20, the processor 61 extracts information about the person (for example, a suspect, an example of the object to be searched) reflected in the captured image data. And save the video analysis result in the database 62. When the processor 61 of the person search server 60 detects a person who satisfies the person attribute information (for example, information indicating the appearance characteristics of a suspicious person, an example of an object characteristic element) during video analysis, the processor 61 of the person who satisfies the person attribute information An alarm notification for notifying the detection may be generated as a video analysis result. The person attribute information for which the alarm notification is to be generated is registered in advance in the person search server 60, and this registration may be performed by an instruction of registration from the client terminal VW1 or the mobile terminal VW2, for example, by an operation of an operator or the like. This alarm notification is sent from the person search server 60 to the AI integration server 10 each time it is generated. The video analysis results include, for example, the person information shown in the captured video data (for example, the face, gender, age, hairstyle, height, body shape, belongings, equipment) of the person shown in the captured video and the imaging used for the video analysis. It includes the imaging date and time of the video data and the identification information of the camera. The processor 61 of the person search server 60 assigns this person information in association with the captured image data and stores it in the database 62. This video analysis result is referred to at the time of searching for the presence or absence of the corresponding person information, which is performed based on the processing instruction (for example, the search instruction of the person information) sent from the AI integrated server 10 when an incident or the like occurs. ..

解析サーバとしての行動検知サーバ70は、例えば警察署内に設置され、プロセッサ71およびデータベース72を少なくとも含む構成である。行動検知サーバ70のプロセッサ71は、カメラC1〜C20のそれぞれの撮像映像データを受け取る度に、撮像映像データに映る少なくとも1人の人物が起こす所定の行動(後述参照)の有無を検知する映像解析を行い、その映像解析結果をデータベース72に保存する。映像解析結果には、例えば所定の行動の内容(種別)と映像解析に用いられた撮像映像データの撮像日時およびカメラの識別情報とが含まれる。ここで、所定の行動は、例えば人物のふらつき、喧嘩、拳銃所持、万引き等の事件等の引き金となりかねない行為のうち少なくとも1つであるが、これらの行為に限定されなくてよい。行動検知サーバ70のプロセッサ71は、所定の行動を検知した時、所定の行動が検知された撮像映像データに対応する撮像日時およびカメラの識別情報を含むアラーム通知を生成してAI統合サーバ10に送る。 The behavior detection server 70 as an analysis server is installed in, for example, a police station, and has a configuration including at least a processor 71 and a database 72. Each time the processor 71 of the action detection server 70 receives the captured image data of the cameras C1 to C20, the processor 71 detects the presence or absence of a predetermined action (see below) caused by at least one person reflected in the captured image data. And save the video analysis result in the database 72. The image analysis result includes, for example, the content (type) of a predetermined action, the imaging date and time of the captured image data used for the image analysis, and the identification information of the camera. Here, the predetermined action is at least one of actions that may trigger an incident such as a person's wobbling, fighting, possession of a pistol, shoplifting, etc., but is not limited to these actions. When the processor 71 of the action detection server 70 detects a predetermined action, the processor 71 generates an alarm notification including the imaging date and time and camera identification information corresponding to the captured image data in which the predetermined action is detected, and causes the AI integrated server 10 to generate an alarm notification. send.

解析サーバとしての車両検索サーバ80は、例えば警察署内に設置され、プロセッサ81およびデータベース82を少なくとも含む構成である。車両検索サーバ80のプロセッサ81は、カメラC1〜C20のそれぞれの撮像映像データを受け取る度に、撮像映像データに映る車両(例えば逃走車両、検索対象となるオブジェクトの一例)に関する情報を抽出する映像解析を行い、その映像解析結果をデータベース82に保存する。車両検索サーバ80のプロセッサ81は、映像解析中に車両属性情報(例えば逃走車両の車型あるいは車色等の外見的な特徴を示す情報、オブジェクト特徴要素の一例)を満たす車両を検知した時、車両属性情報を満たす車両の検知を報知するためのアラーム通知を映像解析結果として生成してよい。アラーム通知の生成対象となる車両属性情報は、予め車両検索サーバ80において登録されており、この登録は例えばオペレータ等の操作によってクライアント端末VW1あるいはモバイル端末VW2からの登録の指示により行われてよい。このアラーム通知は、生成される度に車両検索サーバ80からAI統合サーバ10に送られる。映像解析結果には、例えば撮像映像データに映る車両情報(例えば、撮像映像中に映る車両の車種、車型、車色、ライセンス番号の情報)と映像解析に用いられた撮像映像データの撮像日時およびカメラの識別情報とが含まれる。車両検索サーバ80のプロセッサ81は、この車両情報を撮像映像データに関連付けて付与してデータベース82に蓄積する。この映像解析結果は、例えば事件等が発生した場合に、AI統合サーバ10から送られる処理指示(例えば車両情報の検索指示)に基づいて行われる、該当する車両情報の有無の検索時に参照される。 The vehicle search server 80 as an analysis server is installed in, for example, a police station, and has a configuration including at least a processor 81 and a database 82. Each time the processor 81 of the vehicle search server 80 receives the captured image data of the cameras C1 to C20, the processor 81 extracts information about the vehicle (for example, an escape vehicle, an example of the object to be searched) reflected in the captured image data. And save the video analysis result in the database 82. When the processor 81 of the vehicle search server 80 detects a vehicle that satisfies vehicle attribute information (for example, information indicating external characteristics such as the vehicle type or color of an escape vehicle, an example of an object characteristic element) during video analysis, the vehicle An alarm notification for notifying the detection of a vehicle satisfying the attribute information may be generated as a video analysis result. The vehicle attribute information for which the alarm notification is to be generated is registered in advance in the vehicle search server 80, and this registration may be performed by an instruction of registration from the client terminal VW1 or the mobile terminal VW2, for example, by an operation of an operator or the like. This alarm notification is sent from the vehicle search server 80 to the AI integrated server 10 each time it is generated. The video analysis results include, for example, vehicle information reflected in the captured video data (for example, information on the vehicle type, vehicle type, vehicle color, license number, etc. of the vehicle shown in the captured video), the imaging date and time of the captured video data used for the video analysis, and Includes camera identification information. The processor 81 of the vehicle search server 80 assigns this vehicle information in association with the captured image data and stores it in the database 82. This video analysis result is referred to when searching for the presence or absence of the corresponding vehicle information, which is performed based on a processing instruction (for example, a vehicle information search instruction) sent from the AI integrated server 10 when an incident or the like occurs. ..

解析サーバとしてのLPRサーバ90は、例えば警察署内に設置され、プロセッサ91およびデータベース92を少なくとも含む構成である。LPRサーバ90のプロセッサ91は、カメラC1〜C20のそれぞれの撮像映像データを受け取る度に、撮像映像データに映る車両のライセンスプレートに印字等されているライセンス番号(検索対象となるオブジェクトの一例)を抽出する映像解析を行い、その映像解析結果をデータベース92に保存する。LPRサーバ90のプロセッサ91は、映像解析中に不審車両のライセンス番号情報(例えば逃走車両のライセンス番号情報)を満たすライセンスプレートを検知した時、不審車両のライセンス番号情報を満たすライセンスプレートの検知を報知するためのアラーム通知を映像解析結果として生成してよい。アラーム通知の生成対象となる不審車両のライセンス番号情報は、予めLPRサーバ90において登録されており、この登録は例えばオペレータ等の操作によってクライアント端末VW1あるいはモバイル端末VW2からの登録の指示により行われてよい。このアラーム通知は、生成される度にLPRサーバ90からAI統合サーバ10に送られる。LPRサーバ90のプロセッサ91は、AI統合サーバ10から送られる処理指示(例えばライセンス番号の照合指示)に基づいて、その処理指示に含まれる照合対象のライセンス番号情報がデータベース92のライセンス番号リストデータ(後述参照)に登録されているか否かを照合し、照合結果をデータベース92に保存する。ここで、ライセンス番号リストデータは、ライセンス番号情報と対応する車両の購入者(言い換えると、所有者であるオーナ)に関する情報(例えば顔画像および個人情報)とが予め関連付けて登録されたデータであり、データベース92に登録されている。なお、このライセンス番号リストデータは、データベース92に登録されてもよいし、他の外部データベース(図示略)に登録されてもよい。 The LPR server 90 as an analysis server is installed in a police station, for example, and includes at least a processor 91 and a database 92. Each time the processor 91 of the LPR server 90 receives the captured image data of the cameras C1 to C20, the processor 91 obtains the license number (an example of the object to be searched) printed on the license plate of the vehicle reflected in the captured image data. The video analysis to be extracted is performed, and the video analysis result is stored in the database 92. When the processor 91 of the LPR server 90 detects a license plate that satisfies the license number information of the suspicious vehicle (for example, the license number information of the escape vehicle) during video analysis, the processor 91 notifies the detection of the license plate that satisfies the license number information of the suspicious vehicle. An alarm notification for this may be generated as a video analysis result. The license number information of the suspicious vehicle for which the alarm notification is generated is registered in advance in the LPR server 90, and this registration is performed by, for example, an operation of an operator or the like according to a registration instruction from the client terminal VW1 or the mobile terminal VW2. Good. This alarm notification is sent from the LPR server 90 to the AI integrated server 10 each time it is generated. Based on the processing instruction (for example, license number verification instruction) sent from the AI integrated server 10, the processor 91 of the LPR server 90 has the license number information of the verification target included in the processing instruction as the license number list data of the database 92 (for example, the license number list data of the database 92). It is collated whether or not it is registered in (see below), and the collation result is saved in the database 92. Here, the license number list data is data in which the license number information and the information (for example, face image and personal information) about the purchaser (in other words, the owner) of the corresponding vehicle are registered in advance in association with each other. , Is registered in the database 92. The license number list data may be registered in the database 92 or may be registered in another external database (not shown).

ユーザ端末の一例としてのクライアント端末VW1は、例えば警察署内に設置され、警察署内のオペレータ(警官)により使用され、例えばラップトップ型またはデスクトップ型のPC(Personal Computer)を用いて構成される。オペレータは、例えば事件等が発生した場合、その事件等の発生を警察署に通報した者(例えば目撃者)からの電話により、その事件等に関する様々な情報(目撃情報)を聞き取り、クライアント端末VW1を操作することでデータ入力して記録する。クライアント端末VW1は、例えば目撃情報に一致あるいは類似する人物あるいは車両のオブジェクト特徴要素を検索条件として含む検索の処理要求をAI統合サーバ10に送り、AI統合サーバ10が各サーバ(例えば顔認証サーバ50、人物検索サーバ60、車両検索サーバ80、LPRサーバ90)による検索を経て取得した検索結果を、AI統合サーバ10から受け取り、その検索結果(後述参照)を表示する。また、クライアント端末VW1は、例えば無線LAN等の警察署内ネットワークを介して映像管理サーバ40と接続している場合、映像管理サーバ40にアクセスして所望の撮像映像データを取得して再生表示してよい。 The client terminal VW1 as an example of the user terminal is installed in a police station, for example, and is used by an operator (police officer) in the police station, and is configured by using a laptop-type or desktop-type PC (Personal Computer), for example. .. For example, when an incident occurs, the operator listens to various information (witness information) related to the incident by telephone from a person who has notified the police station of the incident (for example, a witness), and the client terminal VW1 Data is input and recorded by operating. The client terminal VW1 sends a search processing request including, for example, a person or vehicle object feature element that matches or is similar to the sighting information as a search condition to the AI integrated server 10, and the AI integrated server 10 sends each server (for example, the face authentication server 50). , The person search server 60, the vehicle search server 80, and the LPR server 90) receive the search results obtained through the search from the AI integrated server 10, and display the search results (see below). Further, when the client terminal VW1 is connected to the video management server 40 via a network in a police station such as a wireless LAN, the client terminal VW1 accesses the video management server 40 to acquire desired captured video data and reproduces and displays it. You can.

ユーザ端末の一例としてのモバイル端末VW2は、例えば警察署内に設置され、現場等に外出中の警官により使用され、例えばスマートフォンまたはタブレット端末等のコンピュータを用いて構成される。モバイル端末VW2は、例えば現場付近で聞き取った目撃情報に一致あるいは類似する人物あるいは車両のオブジェクト特徴要素を検索条件として含む検索の処理要求をAI統合サーバ10に送り、AI統合サーバ10が各サーバ(例えば顔認証サーバ50、人物検索サーバ60、車両検索サーバ80、LPRサーバ90)による検索を経て取得した検索結果を、AI統合サーバ10から受け取り、その検索結果(後述参照)を表示する。また、モバイル端末VW2は、例えば無線LANあるいは携帯電話網等のネットワーク(図示略)を介して映像管理サーバ40と接続している場合、映像管理サーバ40にアクセスして所望の撮像映像データを取得して再生表示してよい。 The mobile terminal VW2 as an example of the user terminal is installed in a police station, for example, and is used by a police officer who is out on the spot or the like, and is configured by using a computer such as a smartphone or a tablet terminal. The mobile terminal VW2 sends a search processing request including, for example, an object feature element of a person or a vehicle that matches or is similar to the sighting information heard near the site as a search condition to the AI integrated server 10, and the AI integrated server 10 sends each server ( For example, the search results obtained through the search by the face authentication server 50, the person search server 60, the vehicle search server 80, and the LPR server 90) are received from the AI integrated server 10 and the search results (see below) are displayed. Further, when the mobile terminal VW2 is connected to the video management server 40 via a network (not shown) such as a wireless LAN or a mobile phone network, the mobile terminal VW2 accesses the video management server 40 and acquires desired captured video data. And play it back.

統合サーバとしてのAI統合サーバ10は、例えば警察署内に設置され、クライアント端末VW1あるいはモバイル端末VW2からの人物あるいは車両の検索の処理要求(上述参照)を受け取ると、その処理要求の検索に必要な解析サーバを特定する。AI統合サーバ10は、その特定された解析サーバ(例えば顔認証サーバ50、人物検索サーバ60、車両検索サーバ80、LPRサーバ90)に該当する処理指示を生成して送る。ここで、実施の形態1に係る捜査支援システム1において、各解析サーバ(具体的には、顔認証サーバ50、人物検索サーバ60、行動検知サーバ70、車両検索サーバ80、LPRサーバ90)の製造元(メーカ)はそれぞれ同一でも異なっても構わない。 The AI integrated server 10 as an integrated server is installed in a police station, for example, and when it receives a processing request for searching for a person or vehicle from a client terminal VW1 or a mobile terminal VW2 (see above), it is necessary for searching the processing request. Identify a good analysis server. The AI integrated server 10 generates and sends a processing instruction corresponding to the specified analysis server (for example, face recognition server 50, person search server 60, vehicle search server 80, LPR server 90). Here, in the investigation support system 1 according to the first embodiment, the manufacturer of each analysis server (specifically, face authentication server 50, person search server 60, behavior detection server 70, vehicle search server 80, LPR server 90). (Manufacturers) may be the same or different.

例えば各解析サーバ(具体的には、顔認証サーバ50、人物検索サーバ60、車両検索サーバ80、LPRサーバ90)のメーカが全て同一である場合、クライアント端末VW1あるいはモバイル端末VW2から各サーバへの検索を要求するためのアプリケーション画面(例えば検索条件あるいは照合条件の入力画面)はそのメーカ独自の共通のレイアウト等で生成されることが考えられる。従って、オペレータ等は、一つの検索条件の入力画面に複数のオブジェクト(例えば人物、車両、顔、ナンバープレート)を混在した横断的な検索(AND検索)を行うことができる。 For example, when the manufacturers of each analysis server (specifically, face authentication server 50, person search server 60, vehicle search server 80, LPR server 90) are all the same, the client terminal VW1 or mobile terminal VW2 can be transferred to each server. It is conceivable that the application screen for requesting the search (for example, the input screen for the search condition or the collation condition) is generated by the common layout unique to the manufacturer. Therefore, the operator or the like can perform a cross-sectional search (AND search) in which a plurality of objects (for example, a person, a vehicle, a face, a license plate) are mixed on one search condition input screen.

ところが、各解析サーバ(具体的には、顔認証サーバ50、人物検索サーバ60、車両検索サーバ80、LPRサーバ90)のメーカが全て同一ではない場合、クライアント端末VW1あるいはモバイル端末VW2からそれぞれの異なるメーカ製の解析サーバへの検索を要求するためのアプリケーション画面(例えば検索条件の入力画面)はメーカごとに異なる検索アルゴリズム、レイアウト等で生成されることになる。つまり、クライアント端末VW1あるいはモバイル端末VW2から見れば、顔認証サーバ50への照合条件の入力画面(アプリケーション)と、人物検索サーバ60への検索条件の入力画面(アプリケーション)と、車両検索サーバ80への検索条件の入力画面(アプリケーション)とがそれぞれ異なってしまい、例えば一度に複数のオブジェクト(例えば人物、車両、顔、ナンバープレート)を混在した横断的な検索を行えず、システムとしての利便性が低下してしまう。 However, if the manufacturers of the analysis servers (specifically, the face authentication server 50, the person search server 60, the vehicle search server 80, and the LPR server 90) are not all the same, they are different from the client terminal VW1 or the mobile terminal VW2. An application screen (for example, a search condition input screen) for requesting a search to a manufacturer's analysis server will be generated by a search algorithm, layout, etc. that differ for each manufacturer. That is, when viewed from the client terminal VW1 or the mobile terminal VW2, the matching condition input screen (application) to the face authentication server 50, the search condition input screen (application) to the person search server 60, and the vehicle search server 80 are displayed. The input screen (application) of the search condition of is different from each other. It will drop.

そこで、実施の形態1では、AI統合サーバ10は、各解析サーバ(具体的には、顔認証サーバ50、人物検索サーバ60、車両検索サーバ80、LPRサーバ90)のメーカが異なる場合でも、クライアント端末VW1あるいはモバイル端末VW2からの検索の処理要求を受け取ると、処理要求の宛先となる各解析サーバへの通信(アクセス)に共通のインターフェース(IF:Interface)を用いる。ここでいうインターフェースとは、例えば、各サーバで使用されるオブジェクト用検索アルゴリズムが汎用化された共通検索アルゴリズムであり、AI統合サーバ10はこの共通検索アルゴリズムを予め保持している。AI統合サーバ10は、各解析サーバに共通検索アルゴリズム(インターフェース)を用いて、該当する解析サーバに検索あるいは照合の処理指示を送る。また、インターフェースは、例えば各解析サーバ(具体的には、顔認証サーバ50、人物検索サーバ60、車両検索サーバ80、LPRサーバ90)との通信の仕様に関する取り決めあるいはプロトコルが共通化されたインターフェースでもよいし、各解析サーバへの通信に適した個別のインターフェースであってよい。AI統合サーバ10は、各解析サーバとの間での通信に適したインターフェースを用いて、データあるいは情報の送受信(例えばアラーム通知の受信)を行ってよい。 Therefore, in the first embodiment, the AI integrated server 10 is a client even if the manufacturers of the analysis servers (specifically, the face authentication server 50, the person search server 60, the vehicle search server 80, and the LPR server 90) are different. When a search processing request from the terminal VW1 or the mobile terminal VW2 is received, a common interface (IF: Interface) is used for communication (access) to each analysis server that is the destination of the processing request. The interface referred to here is, for example, a common search algorithm in which the object search algorithm used in each server is generalized, and the AI integrated server 10 holds this common search algorithm in advance. The AI integrated server 10 sends a search or collation processing instruction to the corresponding analysis server by using a common search algorithm (interface) for each analysis server. Further, the interface may be, for example, an interface having a common protocol or agreement regarding communication specifications with each analysis server (specifically, face authentication server 50, person search server 60, vehicle search server 80, LPR server 90). It may be a separate interface suitable for communication to each analysis server. The AI integrated server 10 may send and receive data or information (for example, receive an alarm notification) using an interface suitable for communication with each analysis server.

AI統合サーバ10は、例えば高性能なサーバコンピュータにより構成され、具体的にはメモリMM1、プロセッサ11、データベース12、サーバIFコントローラ13およびクライアントIFコントローラ14を含む構成である。 The AI integrated server 10 is composed of, for example, a high-performance server computer, and specifically includes a memory MM1, a processor 11, a database 12, a server IF controller 13, and a client IF controller 14.

メモリMM1は、例えばRAM(Random Access Memory)とROM(Read Only Memory)とを用いて構成され、AI統合サーバ10の動作の実行に必要なプログラム、さらには、動作中に生成されたデータあるいは情報を一時的に保存する。RAMは、例えばプロセッサ11の動作時に使用されるワークメモリである。ROMは、例えばプロセッサ11を制御するためのプログラムを予め記憶する。メモリMM1は、カメラC1〜C20のそれぞれが設置された位置を示す道路地図情報を記録しており、例えば道路の新規建設もしくはメンテナンス工事等によって道路地図の情報更新が行われる度に、更新後の道路地図情報を記録する。 The memory MM1 is configured by using, for example, a RAM (Random Access Memory) and a ROM (Read Only Memory), a program necessary for executing the operation of the AI integrated server 10, and data or information generated during the operation. Temporarily save. The RAM is, for example, a work memory used when the processor 11 operates. The ROM stores, for example, a program for controlling the processor 11 in advance. The memory MM1 records road map information indicating the positions where each of the cameras C1 to C20 are installed. For example, every time the road map information is updated due to new construction or maintenance work of the road, etc., the updated road map information is updated. Record road map information.

プロセッサ11は、例えばCPU(Central Processing Unit)、DSP(Digital Signal Processor)またはFPGA(Field Programmable Gate Array)を用いて構成され、AI統合サーバ10の制御部として機能し、AI統合サーバ10の各部の動作を全体的に統括するための制御処理、AI統合サーバ10の各部との間のデータの入出力処理、データの演算処理およびデータの記憶処理を行う。プロセッサ11は、メモリMM1に記憶されたコンピュータプログラムに従って動作する。このコンピュータプログラムは、例えば、コンピュータ装置であるAI統合サーバ10に、端末(例えばクライアント端末VW1あるいはモバイル端末VW2)と通信するステップと、複数のカメラC1〜C20のそれぞれの撮像映像データを用いて、事件等に関してそれぞれ異なるオブジェクトの映像解析を行う複数の解析サーバ(例えば、顔認証サーバ50、人物検索サーバ60、行動検知サーバ70、車両検索サーバ80、LPRサーバ90)と通信するステップと、複数の異なるオブジェクト特徴要素の端末からの入力に基づいて、オブジェクト特徴要素に対応する解析サーバに該当オブジェクトの検索要求を送るステップと、それぞれの解析サーバからの該当オブジェクトの検索結果を受け取って統合して端末に表示させるステップと、を実現させる。 The processor 11 is configured by using, for example, a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or an FPGA (Field Programmable Gate Array), functions as a control unit of the AI integrated server 10, and is a control unit of the AI integrated server 10. It performs control processing for overall control of operations, data input / output processing with and from each part of the AI integrated server 10, data arithmetic processing, and data storage processing. The processor 11 operates according to the computer program stored in the memory MM1. This computer program uses, for example, a step of communicating with a terminal (for example, client terminal VW1 or mobile terminal VW2) on the AI integrated server 10 which is a computer device, and captured video data of each of the plurality of cameras C1 to C20. A step of communicating with a plurality of analysis servers (for example, a face authentication server 50, a person search server 60, an action detection server 70, a vehicle search server 80, and an LPR server 90) that analyze images of different objects in relation to an incident, and a plurality of steps. Based on the input from the terminal of different object feature elements, the step of sending the search request of the corresponding object to the analysis server corresponding to the object feature element and the terminal that receives the search result of the corresponding object from each analysis server and integrates them. To realize the steps to be displayed on the server.

例えば、プロセッサ11は、クライアント端末VW1あるいはモバイル端末VW2からの人物あるいは車両の検索の処理要求を受け取ると、その処理要求の検索に必要な少なくとも1つのサーバを特定する。プロセッサ11は、その特定された解析サーバ(例えば顔認証サーバ50、人物検索サーバ60、車両検索サーバ80、LPRサーバ90)に該当する処理指示(例えば検索指示)を生成して送る。これにより、プロセッサ11は、例えば複数の解析サーバ(例えば人物検索サーバ60および車両検索サーバ80)のそれぞれを用いて人物および車両を横断的に検索できる(横断検索処理)。例えば、プロセッサ11は、横断検索処理として、人物の特徴および顔の2つのオブジェクト、あるいは、車両、人物および顔の3つのオブジェクトを用いた絞り込み検索を該当する解析サーバに対して行う。 For example, when the processor 11 receives a processing request for searching for a person or a vehicle from the client terminal VW1 or the mobile terminal VW2, the processor 11 identifies at least one server necessary for searching the processing request. The processor 11 generates and sends a processing instruction (for example, a search instruction) corresponding to the specified analysis server (for example, face recognition server 50, person search server 60, vehicle search server 80, LPR server 90). Thereby, the processor 11 can search across a person and a vehicle by using, for example, each of a plurality of analysis servers (for example, a person search server 60 and a vehicle search server 80) (cross-search processing). For example, the processor 11 performs a narrow-down search using two objects of a person's feature and a face, or three objects of a vehicle, a person, and a face as a cross-search process on the corresponding analysis server.

例えば、プロセッサ11は、各解析サーバからの検索結果を受け取ると、オブジェクト(例えば人物、車両)ごとに検索結果を並び替える(検索結果ソート処理)。例えば、プロセッサ11は、各解析サーバからの検索結果に含まれるスコア(例えばAIエンジンの処理に基づいて得られた検索結果の尤度を示す確率値)に基づいて、検索結果に含まれる画像(例えば、人物のサムネイル画像、顔のサムネイル画像、車両のサムネイル画像)の適合度合いを示す順位を決定し、その順位に従って各画像を並び替える。 For example, when the processor 11 receives the search results from each analysis server, the processor 11 sorts the search results for each object (for example, a person or a vehicle) (search result sorting process). For example, the processor 11 uses an image (for example, a probability value indicating the likelihood of the search result obtained based on the processing of the AI engine) included in the search result from each analysis server. For example, a ranking indicating the degree of conformity of a person thumbnail image, a face thumbnail image, and a vehicle thumbnail image) is determined, and each image is rearranged according to the ranking.

例えば、プロセッサ11は、AI統合サーバ10に接続されている各解析サーバ(具体的には、映像管理サーバ40、顔認証サーバ50、人物検索サーバ60、行動検知サーバ70、車両検索サーバ80、LPRサーバ90)のそれぞれに所定のコマンドを送る。プロセッサ11は、各解析サーバからのコマンド応答の受信の有無に応じて、解析サーバの生死状態(つまり、サーバコンピュータ内のプロセスの稼働有無)を監視する(死活監視処理)。 For example, the processor 11 is an analysis server (specifically, a video management server 40, a face authentication server 50, a person search server 60, an action detection server 70, a vehicle search server 80, and an LPR) connected to the AI integrated server 10. A predetermined command is sent to each of the servers 90). The processor 11 monitors the life-and-death state of the analysis server (that is, whether or not a process in the server computer is operating) according to whether or not a command response is received from each analysis server (life-and-death monitoring process).

データベース12は、例えばHDD(Hard Disk Drive)あるいはSSD(Solid State Drive)を用いて構成され、プロセッサ11により取得あるいは生成されたデータもしくは情報を保存する。 The database 12 is configured by using, for example, an HDD (Hard Disk Drive) or an SSD (Solid State Drive), and stores data or information acquired or generated by the processor 11.

サーバIFコントローラ13は、AI統合サーバ10と各解析サーバ(具体的には、顔認証サーバ50、人物検索サーバ60、行動検知サーバ70、車両検索サーバ80、LPRサーバ90)のそれぞれとの間の通信(送受信)を司る通信インターフェース回路により構成される。また、サーバIFコントローラ13は、例えば顔認証サーバ50、人物検索サーバ60、車両検索サーバ80のそれぞれのメーカが異なる場合でも、各サーバへの通信(アクセス)に適したインターフェースを選択して用いる。例えば、サーバIFコントローラ13は、顔認証サーバ50用の入出力インターフェース、人物検索サーバ60用の入出力インターフェース、車両検索サーバ80用の入出力インターフェースをそれぞれ有し、クライアント端末VW1あるいはモバイル端末VW2からの検索の処理要求に適合するインターフェースを選択して用いる。 The server IF controller 13 is located between the AI integrated server 10 and each analysis server (specifically, the face authentication server 50, the person search server 60, the behavior detection server 70, the vehicle search server 80, and the LPR server 90). It is composed of a communication interface circuit that controls communication (transmission and reception). Further, even if the manufacturers of the face recognition server 50, the person search server 60, and the vehicle search server 80 are different, the server IF controller 13 selects and uses an interface suitable for communication (access) to each server. For example, the server IF controller 13 has an input / output interface for the face authentication server 50, an input / output interface for the person search server 60, and an input / output interface for the vehicle search server 80, respectively, from the client terminal VW1 or the mobile terminal VW2. Select and use an interface that meets the search processing requirements of.

クライアントIFコントローラ14は、クライアント端末VW1、モバイル端末VW2および映像管理サーバ40のそれぞれとの間の通信(送受信)を司る通信インターフェース回路により構成される。クライアントIFコントローラ14は、プロセッサ11によりソートされた検索結果をクライアント端末VW1あるいはモバイル端末VW2に送る。クライアントIFコントローラ14は、映像管理サーバ40に、クライアント端末VW1あるいはモバイル端末VW2への撮像映像データの配信あるいはカメラC1〜C20のそれぞれの撮像映像データの記録(録画)を指示する。また、クライアントIFコントローラ14は、行動検知サーバ70からのアラーム通知を各端末(具体的には、クライアント端末VW1、モバイル端末VW2)のそれぞれに転送する。なお、クライアントIFコントローラ14は、行動検知サーバ70以外の他の解析サーバ(例えば、顔認証サーバ50、人物検索サーバ60、車両検索サーバ80、LPRサーバ90)からのアラーム通知を各端末(具体的には、クライアント端末VW1、モバイル端末VW2)のそれぞれに転送してもよい。 The client IF controller 14 is composed of a communication interface circuit that controls communication (transmission / reception) between the client terminal VW1, the mobile terminal VW2, and the video management server 40, respectively. The client IF controller 14 sends the search results sorted by the processor 11 to the client terminal VW1 or the mobile terminal VW2. The client IF controller 14 instructs the video management server 40 to distribute the captured video data to the client terminal VW1 or the mobile terminal VW2, or to record (record) the captured video data of the cameras C1 to C20. Further, the client IF controller 14 transfers the alarm notification from the action detection server 70 to each terminal (specifically, the client terminal VW1 and the mobile terminal VW2). The client IF controller 14 sends alarm notifications from other analysis servers (for example, face authentication server 50, person search server 60, vehicle search server 80, LPR server 90) other than the behavior detection server 70 to each terminal (specifically). May be transferred to each of the client terminal VW1 and the mobile terminal VW2).

図2は、捜査支援システム1を構成するカメラC1〜C20のハードウェア構成例を示すブロック図である。カメラC1〜C20のそれぞれは同一の構成を有するので、以下、カメラC1を例示して説明する。 FIG. 2 is a block diagram showing a hardware configuration example of the cameras C1 to C20 constituting the investigation support system 1. Since each of the cameras C1 to C20 has the same configuration, the camera C1 will be described below as an example.

カメラC1は、撮像部CK1と、メモリCK2と、プロセッサCK3と、通信部CK4と、記録部CK5とを含む構成である。カメラC1は、例えば街中あるいは建物内の各所に設置(配置)され、画角内の撮像エリアを撮像することで撮像映像データを生成する。また、カメラC1は、撮像映像データを映像解析することで、事件等に関する各種のオブジェクト(例えば、人物、車両)の全体枠を検出することができる。 The camera C1 includes an imaging unit CK1, a memory CK2, a processor CK3, a communication unit CK4, and a recording unit CK5. The camera C1 is installed (arranged) in various places in the city or a building, for example, and generates captured image data by imaging an imaging area within the angle of view. In addition, the camera C1 can detect the entire frame of various objects (for example, a person, a vehicle) related to an incident or the like by analyzing the captured image data.

撮像部CK1は、集光用のレンズと、CCD(Charge Coupled Device)型イメージセンサもしくはCMOS(Complementary Metal Oxide Semiconductor)型イメージセンサ等の固体撮像素子とを有する構成である。撮像部CK1は、カメラC1の電源がオンである間、固体撮像素子による撮像に基づいて得られた被写体の撮像映像データを常時プロセッサCK3に出力する。また、撮像部CK1は、撮像時のズーム倍率を変更させる機構を備えてもよい。 The image pickup unit CK1 includes a lens for condensing light and a solid-state image sensor such as a CCD (Charge Coupled Device) type image sensor or a CMOS (Complementary Metal Oxide Semiconductor) type image sensor. While the power of the camera C1 is on, the image pickup unit CK1 constantly outputs the captured image data of the subject obtained based on the image pickup by the solid-state image sensor to the processor CK3. Further, the imaging unit CK1 may include a mechanism for changing the zoom magnification at the time of imaging.

メモリCK2は、例えばRAM(Random Access Memory)とROM(Read Only Memory)を用いて構成され、カメラC1の動作の実行に必要なプログラムおよびデータ、さらには、動作中に生成された情報またはデータ等を一時的に保存する。RAMは、例えばプロセッサCK3の動作時に使用されるワークメモリである。ROMは、例えばプロセッサCK3を制御するためのプログラムおよびデータを予め記憶する。また、メモリCK2は、例えばカメラC1の識別情報(例えばシリアル番号)および各種設定情報を記憶する。 The memory CK2 is configured by using, for example, a RAM (Random Access Memory) and a ROM (Read Only Memory), and includes programs and data necessary for executing the operation of the camera C1, information or data generated during the operation, and the like. Temporarily save. The RAM is, for example, a work memory used during the operation of the processor CK3. The ROM stores, for example, a program and data for controlling the processor CK3 in advance. Further, the memory CK2 stores, for example, identification information (for example, a serial number) of the camera C1 and various setting information.

プロセッサCK3は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)もしくはFPGA(Field-Programmable Gate Array)を用いて構成される。プロセッサCK3は、カメラC1の制御部として機能し、カメラC1の各部の動作を全体的に統括するための制御処理、カメラC1の各部との間のデータの入出力処理、データの演算(計算)処理およびデータの記憶処理を行う。プロセッサCK3は、メモリCK2に記憶されたプログラムおよびデータに従って動作する。プロセッサCK3は、動作時にメモリCK2を使用し、現在の時刻情報を取得したり、撮像部CK1により撮像された撮像映像データに対して各種の公知の画像処理を施した上で記録部CK5に記録したりする。なお、図2には図示を省略しているが、カメラC1がGNSS(Global Navigation Satellite System)受信部を有する場合、GNSS受信部から現在の位置情報を取得し、撮像映像データに位置情報をさらに対応付けて記録してよい。 The processor CK3 is configured by using, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a DSP (Digital Signal Processor), or an FPGA (Field-Programmable Gate Array). The processor CK3 functions as a control unit of the camera C1, and controls processing for overall control of the operation of each part of the camera C1, data input / output processing with each part of the camera C1, and data calculation (calculation). Performs processing and data storage processing. The processor CK3 operates according to the programs and data stored in the memory CK2. The processor CK3 uses the memory CK2 during operation to acquire the current time information, and after performing various known image processing on the captured image data captured by the imaging unit CK1, records it in the recording unit CK5. To do. Although not shown in FIG. 2, when the camera C1 has a GNSS (Global Navigation Satellite System) receiving unit, the current position information is acquired from the GNSS receiving unit, and the position information is further added to the captured image data. It may be recorded in association with each other.

ここで、GNSS受信部について簡単に説明する。GNSS受信部は、複数のGNSS発信機(例えば4個の航法衛星)から送信される、各自の信号送信時刻および位置座標を含む衛星信号を受信する。GNSS受信部は、複数の衛星信号を用いて、現在のカメラの位置座標および衛星信号の受信時刻を算出する。なお、この算出は、GNSS受信部ではなく、GNSS受信部からの出力が入力されたプロセッサCK3により実行されてよい。なお、受信時刻の情報は、カメラのシステム時刻の補正のためにも使用されてよい。システム時刻は、例えば撮像映像を構成する撮像画像の撮像時刻の記録等に利用される。 Here, the GNSS receiver will be briefly described. The GNSS receiver receives satellite signals including its own signal transmission time and position coordinates transmitted from a plurality of GNSS transmitters (for example, four navigation satellites). The GNSS receiving unit uses a plurality of satellite signals to calculate the current position coordinates of the camera and the reception time of the satellite signals. Note that this calculation may be executed not by the GNSS receiving unit but by the processor CK3 to which the output from the GNSS receiving unit is input. The reception time information may also be used to correct the system time of the camera. The system time is used, for example, for recording the imaging time of the captured image constituting the captured image.

また、プロセッサCK3は、通信部CK4により受信された外部からの制御コマンドに従って、撮像部CK1による撮影条件(例えば、ズーム倍率)を可変的に制御してもよい。例えば、外部からの制御コマンドがズーム倍率の変更を指示する場合、プロセッサCK3は、その制御コマンドに従って、その制御コマンドで指定される撮像部CK1の撮影時におけるズーム倍率を変更する。 Further, the processor CK3 may variably control the shooting conditions (for example, zoom magnification) by the imaging unit CK1 according to an external control command received by the communication unit CK4. For example, when an external control command instructs to change the zoom magnification, the processor CK3 changes the zoom magnification at the time of shooting of the imaging unit CK1 specified by the control command according to the control command.

また、プロセッサCK3は、撮像映像データを解析することで撮像映像データに映るオブジェクト(例えば車両)のオブジェクト特徴要素(例えば乗員の顔)を検知してよい。プロセッサCK3は、撮像映像データの解析結果として、オブジェクト特徴要素の位置を示す座標により構成される顔領域情報を生成し、通信部CK4を介して解析サーバ(例えばLPRサーバ90)に送信する。 Further, the processor CK3 may detect an object feature element (for example, the face of an occupant) of an object (for example, a vehicle) reflected in the captured image data by analyzing the captured image data. As the analysis result of the captured image data, the processor CK3 generates face area information composed of coordinates indicating the positions of the object feature elements, and transmits the face area information to the analysis server (for example, the LPR server 90) via the communication unit CK4.

通信部CK4は、プロセッサ12Pの指示に基づいて、上述したネットワークNW1を介して、記録部15に記録された撮像映像のデータを車両検索サーバ80および映像管理サーバ40にそれぞれ送る。また、通信部CK4は、外部(例えば、車両検索サーバ80)から送られたカメラC1の制御コマンドを受信したり、カメラC1の状態情報を外部(例えば、車両検索サーバ80)に送信したりする。 Based on the instruction of the processor 12P, the communication unit CK4 sends the captured image data recorded in the recording unit 15 to the vehicle search server 80 and the image management server 40, respectively, via the network NW1 described above. Further, the communication unit CK4 receives the control command of the camera C1 sent from the outside (for example, the vehicle search server 80), and transmits the state information of the camera C1 to the outside (for example, the vehicle search server 80). ..

記録部CK5は、カメラC1に内蔵される半導体メモリ(例えばフラッシュメモリ)、またはカメラC1に内蔵されないメモリカード(例えばSDカード)などの外部記憶媒体を用いて構成される。記録部15は、プロセッサ12Pにより生成された撮像映像のデータをカメラC1の識別情報(カメラ情報の一例)および撮像日時の情報と対応付けて記録する。記録部15は、所定時間(例えば30秒)分の撮像映像のデータを常時プリバッファリングして保持し、現在時刻より所定時間(例えば30秒)前までの撮像映像のデータを書きしながら蓄積し続ける。なお、記録部15がメモリカードで構成される場合、カメラC1の筐体に挿抜自在に装着される。 The recording unit CK5 is configured by using an external storage medium such as a semiconductor memory (for example, a flash memory) built in the camera C1 or a memory card (for example, an SD card) not built in the camera C1. The recording unit 15 records the data of the captured image generated by the processor 12P in association with the identification information of the camera C1 (an example of the camera information) and the information of the imaging date and time. The recording unit 15 constantly prebuffers and holds the captured image data for a predetermined time (for example, 30 seconds), and accumulates the captured image data for a predetermined time (for example, 30 seconds) before the current time while writing the data. Continue to do. When the recording unit 15 is composed of a memory card, it is freely inserted and removed from the housing of the camera C1.

図3は、捜査支援システム1を構成する各種の解析サーバのハードウェア構成例を示すブロック図である。具体的には、各種の解析サーバは、映像管理サーバ40、顔認証サーバ50、人物検索サーバ60、行動検知サーバ70、車両検索サーバ80、LPRサーバ90である。従って、図3の説明における解析サーバは、映像管理サーバ40、顔認証サーバ50、人物検索サーバ60、行動検知サーバ70、車両検索サーバ80、LPRサーバ90を総称した用語として用いる。図3では、各解析サーバに共通するハードウェア構成の詳細な説明を行い、各部の特徴的な作用の詳細については図1あるいは後述を参照して説明するので、ここでは説明を簡略化する。 FIG. 3 is a block diagram showing a hardware configuration example of various analysis servers constituting the investigation support system 1. Specifically, the various analysis servers are a video management server 40, a face recognition server 50, a person search server 60, a behavior detection server 70, a vehicle search server 80, and an LPR server 90. Therefore, the analysis server in the description of FIG. 3 is used as a generic term for the video management server 40, the face recognition server 50, the person search server 60, the behavior detection server 70, the vehicle search server 80, and the LPR server 90. In FIG. 3, a detailed description of the hardware configuration common to each analysis server will be given, and details of the characteristic operations of each part will be described with reference to FIG. 1 or later, and thus the description will be simplified here.

図3の解析サーバは、例えばサーバコンピュータマシンにより構成され、具体的にはプロセッサPRC1、メモリMM2、データベース52、カメラIFコントローラ53およびサーバIFコントローラ54を含む構成である。特に、顔認証サーバ50、人物検索サーバ60、行動検知サーバ70、車両検索サーバ80、LPRサーバ90は、人工知能(AI)が搭載された高性能なサーバコンピュータマシンであり、AIの学習済みモデルを用いてそれぞれ他の解析サーバとは異なるオブジェクトを検知することができる。 The analysis server of FIG. 3 is configured by, for example, a server computer machine, and specifically includes a processor PRC1, a memory MM2, a database 52, a camera IF controller 53, and a server IF controller 54. In particular, the face authentication server 50, the person search server 60, the behavior detection server 70, the vehicle search server 80, and the LPR server 90 are high-performance server computer machines equipped with artificial intelligence (AI), and are AI trained models. Can be used to detect objects that are different from other analysis servers.

プロセッサPRC1は、例えばGPU(Graphical Processing Unit)またはFPGAを用いて構成され、解析サーバの制御部として機能し、解析サーバの各部の動作を全体的に統括するための制御処理、解析サーバの各部との間のデータの入出力処理、データの演算処理およびデータの記憶処理を行う。プロセッサPRC1は、メモリMM2に記憶されたプログラムに従って動作する。各解析サーバ(具体的には、顔認証サーバ50、人物検索サーバ60、行動検知サーバ70、車両検索サーバ80、LPRサーバ90)のプロセッサPRC1は、例えば対応する解析サーバでの処理に適するように機械学習により生成された学習済みモデル(AI)を実行可能である。各解析サーバは、学習済みモデルを用いた処理の実行により、処理結果とその処理結果の尤度(信頼確率)を示すスコア(後述参照)とを出力する。 The processor PRC1 is configured by using, for example, a GPU (Graphical Processing Unit) or an FPGA, functions as a control unit of an analysis server, controls processing for overall control of the operation of each part of the analysis server, and each part of the analysis server. Performs data input / output processing, data arithmetic processing, and data storage processing. The processor PRC1 operates according to the program stored in the memory MM2. The processor PRC1 of each analysis server (specifically, face authentication server 50, person search server 60, behavior detection server 70, vehicle search server 80, LPR server 90) is suitable for processing in, for example, the corresponding analysis server. The trained model (AI) generated by machine learning can be executed. Each analysis server outputs a processing result and a score (see below) indicating the likelihood (reliability probability) of the processing result by executing the processing using the trained model.

例えば、顔認証サーバ50は、顔認証サーバ50用の学習済みモデルを用いて、カメラC1〜C20のそれぞれの撮像映像データに映る人物の顔を検知したり、AI統合サーバ10からの照合指示に含まれる顔画像とデータベース52のブラックリストデータ(言い換えると、発見の要請がなされている1つ以上の顔画像あるいは顔サムネイル画像を有する照合リスト)との照合処理を実行したりする。顔認証サーバ50は、人物の顔の検知の処理結果として、ブラックリストデータに登録されている顔画像あるいは顔サムネイル画像とその顔画像あるいは顔サムネイル画像の尤度を示すスコアとを出力する。 For example, the face recognition server 50 uses the trained model for the face recognition server 50 to detect the face of a person reflected in the captured image data of the cameras C1 to C20, or to give a collation instruction from the AI integrated server 10. A collation process is executed between the included face image and the blacklist data of the database 52 (in other words, a collation list having one or more face images or face thumbnail images for which discovery is requested). The face recognition server 50 outputs a face image or face thumbnail image registered in the blacklist data and a score indicating the likelihood of the face image or face thumbnail image as a processing result of detecting the face of a person.

例えば、人物検索サーバ60は、人物検索サーバ60用の学習済みモデルを用いて、カメラC1〜C20のそれぞれの撮像映像データに映る人物ならびに人物の外見あるいは所持品の有無等の特徴的要素を示す人物情報(人物属性情報)を検知して抽出したり、AI統合サーバ10からの照合指示に含まれる人物の検索条件を満たす人物の検索処理をデータベース62(言い換えると、発見の要請がなされている1つ以上の人物の全身画像、人物の全身のサムネイル画像あるいは人物属性情報)の参照により実行したりする。人物検索サーバ60は、人物ならびに人物属性情報の検知の処理結果として、人物の全身画像、人物の全身のサムネイル画像、人物情報(人物属性情報)、そのサムネイル画像の尤度を示すスコアを出力する。 For example, the person search server 60 uses the trained model for the person search server 60 to show the person reflected in the captured image data of the cameras C1 to C20 and the characteristic elements such as the appearance of the person or the presence or absence of belongings. Database 62 (in other words, a request for discovery is made) is a search process for a person who detects and extracts person information (person attribute information) or satisfies the person search condition included in the collation instruction from the AI integrated server 10. It is executed by referring to a whole body image of one or more people, a thumbnail image of the whole body of a person, or person attribute information). The person search server 60 outputs a whole body image of a person, a thumbnail image of the whole body of the person, person information (person attribute information), and a score indicating the likelihood of the thumbnail image as a processing result of detecting the person and the person attribute information. ..

例えば、行動検知サーバ70は、行動検知サーバ70用の学習済みモデルを用いて、カメラC1〜C20のそれぞれの撮像映像データに映る人物が起こす所定の行動の有無を検知する。行動検知サーバ70は、行動の検知の処理結果として、最も尤度が高いと判定した所定の行動の内容(結果)とその行動が検知された撮像映像データを示すサムネイル画像、撮像日時およびカメラの識別情報とを出力する。 For example, the behavior detection server 70 detects the presence or absence of a predetermined behavior caused by a person reflected in the captured image data of the cameras C1 to C20 by using the trained model for the behavior detection server 70. The action detection server 70 has a thumbnail image showing the content (result) of a predetermined action determined to have the highest likelihood as the processing result of action detection and the captured image data in which the action is detected, the date and time of imaging, and the camera. Outputs identification information.

例えば、車両検索サーバ80は、車両検索サーバ80用の学習済みモデルを用いて、カメラC1〜C20のそれぞれの撮像映像データに映る車両ならびに車両の車型、車色等の特徴的要素を示す車両情報(車両属性情報)を検知して抽出したり、AI統合サーバ10からの照合指示に含まれる車両の検索条件を満たす車両の検索処理をデータベース82(言い換えると、発見の要請がなされている1台以上の車両の全体画像、車両の全体のサムネイル画像あるいは車両属性情報)の参照により実行したりする。車両検索サーバ80は、車両ならびに車両属性情報の検知の処理結果として、車両の全体画像、車両の全体のサムネイル画像、車両情報(車両属性情報)、そのサムネイル画像の尤度を示すスコアとを出力する。 For example, the vehicle search server 80 uses the trained model for the vehicle search server 80 to show the vehicle reflected in the captured image data of the cameras C1 to C20, and the vehicle information indicating characteristic elements such as the vehicle type and vehicle color of the vehicle. Database 82 (in other words, one vehicle for which discovery is requested) is a search process for vehicles that detect and extract (vehicle attribute information) or satisfy the vehicle search conditions included in the collation instruction from the AI integrated server 10. It is executed by referring to the above-mentioned whole image of the vehicle, thumbnail image of the whole vehicle, or vehicle attribute information). The vehicle search server 80 outputs the entire image of the vehicle, the thumbnail image of the entire vehicle, the vehicle information (vehicle attribute information), and the score indicating the likelihood of the thumbnail image as the processing result of detecting the vehicle and the vehicle attribute information. To do.

例えば、LPRサーバ90は、LPRサーバ90用の学習済みモデルを用いて、カメラC1〜C20のそれぞれの撮像映像データに映るライセンスプレートのライセンス番号情報を検知して抽出したり、AI統合サーバ10からの照合指示に含まれるライセンス番号情報とデータベース92のライセンス番号リストデータとの照合処理を実行したりする。LPRサーバ90は、ライセンス番号情報の検知の処理結果として、ライセンス番号リストデータに登録されているライセンス番号情報、ライセンス番号情報に対応する車両の購入者(オーナ)の顔画像および個人情報を出力する。 For example, the LPR server 90 uses the trained model for the LPR server 90 to detect and extract the license number information of the license plate displayed in the captured video data of the cameras C1 to C20, or from the AI integrated server 10. The collation process of collating the license number information included in the collation instruction of the database 92 with the license number list data of the database 92 is executed. The LPR server 90 outputs the license number information registered in the license number list data, the face image of the vehicle purchaser (owner) corresponding to the license number information, and personal information as the processing result of detecting the license number information. ..

メモリMM2は、例えばRAMとROMとを用いて構成され、解析サーバの動作の実行に必要なプログラム、さらには、動作中に生成されたデータあるいは情報を一時的に保存する。RAMは、例えばプロセッサPRC1の動作時に使用されるワークメモリである。ROMは、例えばプロセッサPRC1を制御するためのプログラムを予め記憶する。 The memory MM2 is configured by using, for example, a RAM and a ROM, and temporarily stores a program necessary for executing the operation of the analysis server, and data or information generated during the operation. The RAM is, for example, a work memory used during the operation of the processor PRC1. The ROM stores, for example, a program for controlling the processor PRC1 in advance.

データベース52は、例えばHDDあるいはSSDを用いて構成され、解析サーバのプロセッサPRC1により取得あるいは生成されたデータもしくは情報を保存する。プロセッサPRC1により生成されたデータは、例えば解析サーバが顔認証サーバ50である場合には顔画像の照合処理の結果、解析サーバが人物検索サーバ60である場合には検索処理の結果として得られた人物属性情報(上述参照)、解析サーバが車両検索サーバ80である場合には検索処理の結果として得られた車両属性情報(上述参照)、解析サーバがLPRサーバ90である場合には検索処理の結果として得られたライセンス番号情報である。 The database 52 is configured by using, for example, an HDD or an SSD, and stores data or information acquired or generated by the processor PRC1 of the analysis server. The data generated by the processor PRC1 was obtained, for example, as a result of face image matching processing when the analysis server was the face authentication server 50, and as a result of the search processing when the analysis server was the person search server 60. Person attribute information (see above), vehicle attribute information obtained as a result of the search process when the analysis server is the vehicle search server 80 (see above), search processing when the analysis server is the LPR server 90. This is the license number information obtained as a result.

カメラIFコントローラ53は、解析サーバとカメラC1〜C20のそれぞれとの間の通信(送受信)を司る通信インターフェース回路により構成される。カメラIFコントローラ53は、カメラC1〜C20のそれぞれにより撮像された撮像映像データを受信してプロセッサPRC1に出力する。 The camera IF controller 53 is composed of a communication interface circuit that controls communication (transmission / reception) between the analysis server and each of the cameras C1 to C20. The camera IF controller 53 receives the captured video data captured by each of the cameras C1 to C20 and outputs the captured video data to the processor PRC1.

サーバIFコントローラ54は、解析サーバとAI統合サーバ10との間の通信(送受信)を司る通信インターフェース回路により構成される。サーバIFコントローラ54は、AI統合サーバ10からの処理指示を受信するとともに、その処理指示に基づくプロセッサPRC1の処理結果をAI統合サーバ10に応答(返送)する。また、サーバIFコントローラ54は、各解析サーバのプロセッサPRC1により検知されたオブジェクトに対応するアラーム通知(上述参照)をAI統合サーバ10に送信する。 The server IF controller 54 is composed of a communication interface circuit that controls communication (transmission / reception) between the analysis server and the AI integrated server 10. The server IF controller 54 receives the processing instruction from the AI integrated server 10 and responds (returns) the processing result of the processor PRC1 based on the processing instruction to the AI integrated server 10. Further, the server IF controller 54 transmits an alarm notification (see above) corresponding to the object detected by the processor PRC1 of each analysis server to the AI integrated server 10.

図4は、捜査支援システム1を構成するクライアント端末VW1およびモバイル端末VW2のハードウェア構成例を示すブロック図である。図4では、クライアント端末VW1を例示しつつ、クライアント端末VW1およびモバイル端末VW2のハードウェア構成に共通の要素のみ図示しており、クライアント端末VW1あるいはモバイル端末VW2に特有の構成の図示は省略している。図4では、クライアント端末VW1を例示してハードウェア構成の詳細な説明を行う。 FIG. 4 is a block diagram showing a hardware configuration example of the client terminal VW1 and the mobile terminal VW2 constituting the investigation support system 1. In FIG. 4, while exemplifying the client terminal VW1, only the elements common to the hardware configurations of the client terminal VW1 and the mobile terminal VW2 are shown, and the illustration of the configuration peculiar to the client terminal VW1 or the mobile terminal VW2 is omitted. There is. In FIG. 4, a detailed description of the hardware configuration will be given by exemplifying the client terminal VW1.

図4のクライアント端末VW1は、例えばコンピュータマシンにより構成され、具体的にはプロセッサPRC2、メモリMM3、記録装置112、サーバIFコントローラ114、入力デバイス115、表示デバイス116およびスピーカ117を含む構成である。 The client terminal VW1 of FIG. 4 is configured by, for example, a computer machine, and specifically includes a processor PRC2, a memory MM3, a recording device 112, a server IF controller 114, an input device 115, a display device 116, and a speaker 117.

プロセッサPRC2は、例えばCPU(Central Processing Unit)、DSP(Digital Signal Processor)またはFPGAを用いて構成され、クライアント端末VW1の制御部として機能し、クライアント端末VW1の各部の動作を全体的に統括するための制御処理、クライアント端末VW1の各部との間のデータの入出力処理、データの演算処理およびデータの記憶処理を行う。プロセッサPRC2は、メモリMM3に記憶されたプログラムに従って動作する。 The processor PRC2 is configured by using, for example, a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or an FPGA, functions as a control unit of the client terminal VW1, and controls the operation of each part of the client terminal VW1 as a whole. Control processing, data input / output processing with each part of the client terminal VW1, data arithmetic processing, and data storage processing. The processor PRC2 operates according to the program stored in the memory MM3.

メモリMM3は、例えばRAMとROMとを用いて構成され、クライアント端末VW1の動作の実行に必要なプログラム、さらには、動作中に生成されたデータあるいは情報を一時的に保存する。RAMは、例えばプロセッサPRC2の動作時に使用されるワークメモリである。ROMは、例えばプロセッサPRC2を制御するためのプログラムを予め記憶する。メモリMM3は、カメラC1〜C20のそれぞれが設置された位置を示す道路地図情報を記録しており、例えば道路の新規建設もしくはメンテナンス工事等によって道路地図の情報更新が行われる度に、更新後の道路地図情報を記録する。 The memory MM3 is configured by using, for example, a RAM and a ROM, and temporarily stores a program necessary for executing the operation of the client terminal VW1 and data or information generated during the operation. The RAM is, for example, a work memory used during the operation of the processor PRC2. The ROM stores, for example, a program for controlling the processor PRC2 in advance. The memory MM3 records road map information indicating the position where each of the cameras C1 to C20 is installed. For example, every time the road map information is updated due to new construction or maintenance work of the road, etc., the updated road map information is updated. Record road map information.

記録装置112は、例えばHDDあるいはSSDを用いて構成され、クライアント端末VW1のプロセッサPRC2により取得あるいは生成されたデータもしくは情報を保存する。記録装置112は、AI統合サーバ10から送られた各種の検索結果のデータを保存する。 The recording device 112 is configured by using, for example, an HDD or an SSD, and stores data or information acquired or generated by the processor PRC2 of the client terminal VW1. The recording device 112 stores data of various search results sent from the AI integrated server 10.

サーバIFコントローラ114は、クライアント端末VW1とAI統合サーバ10との間の通信(送受信)を司る通信インターフェース回路により構成される。サーバIFコントローラ114は、プロセッサPRC2により生成される検索の処理要求をAI統合サーバ10に送る。また、サーバIFコントローラ114は、AI統合サーバ10から送られる各種の検索結果(処理結果)あるいはアラーム通知(上述参照)を受信する。 The server IF controller 114 is composed of a communication interface circuit that controls communication (transmission / reception) between the client terminal VW1 and the AI integrated server 10. The server IF controller 114 sends a search processing request generated by the processor PRC2 to the AI integrated server 10. Further, the server IF controller 114 receives various search results (processing results) or alarm notifications (see above) sent from the AI integrated server 10.

入力デバイス115は、警察署内のオペレータ(例えばクライアント端末VW1のユーザ)あるいは現場に外出中の警官(例えばモバイル端末VW2のユーザ)の操作を受け付ける。入力デバイス115は、例えばマウス、キーボード、タッチパネルにより構成される。 The input device 115 accepts the operation of an operator in the police station (for example, a user of the client terminal VW1) or a police officer who is out on the scene (for example, a user of the mobile terminal VW2). The input device 115 is composed of, for example, a mouse, a keyboard, and a touch panel.

表示デバイス116は、例えばLCD(Liquid Crystal Display)または有機EL(Electroluminescence)により構成され、プロセッサPRC2から送られた各種のデータを表示する。 The display device 116 is composed of, for example, an LCD (Liquid Crystal Display) or an organic EL (Electroluminescence), and displays various data sent from the processor PRC2.

スピーカ117は、プロセッサPRC2によりデータ(例えばAI統合サーバ10からの検索結果に含まれるビデオデータ)が再生される時の音声を音響的に出力する。 The speaker 117 acoustically outputs the sound when the data (for example, the video data included in the search result from the AI integrated server 10) is reproduced by the processor PRC2.

次に、実施の形態1に係る捜査支援システム1を用いた警察捜査において、クライアント端末VW1の表示デバイス116に表示される画面例を、図5を参照して説明する。図5は、アラーム通知画面例を示す図である。なお、図5に表示されるアラーム通知画面はモバイル端末VW2で表示されてもよいが、説明に統一性を持たせるためにクライアント端末VW1を例示して説明する。 Next, in a police investigation using the investigation support system 1 according to the first embodiment, an example of a screen displayed on the display device 116 of the client terminal VW1 will be described with reference to FIG. FIG. 5 is a diagram showing an example of an alarm notification screen. The alarm notification screen displayed in FIG. 5 may be displayed on the mobile terminal VW2, but the client terminal VW1 will be described as an example in order to make the description uniform.

警察捜査において、クライアント端末VW1あるいはモバイル端末VW2は、オペレータあるいは警官の操作により、予めインストールされている捜査支援アプリケーション(以下「捜査支援アプリ」という)を起動して実行中である。捜査支援アプリは、例えばクライアント端末VW1あるいはモバイル端末VW2のメモリMM3のROMに格納され、オペレータあるいは警官の操作により起動されるとプロセッサPRC2により実行される。言い換えると、以下の説明における動作主体としての捜査支援アプリはプロセッサPRC2と読み替えできる。捜査支援アプリの起動中にプロセッサPRC2により生成されるデータあるいは情報は、一時的にメモリMM3のRAMに保持される。 In a police investigation, the client terminal VW1 or the mobile terminal VW2 activates and executes a pre-installed investigation support application (hereinafter referred to as "investigation support application") by the operation of an operator or a police officer. The investigation support application is stored in the ROM of the memory MM3 of the client terminal VW1 or the mobile terminal VW2, for example, and is executed by the processor PRC2 when activated by the operation of an operator or a police officer. In other words, the investigation support application as the operating subject in the following description can be read as the processor PRC2. The data or information generated by the processor PRC2 during the activation of the investigation support application is temporarily held in the RAM of the memory MM3.

実施の形態1では、クライアント端末VW1において、捜査支援アプリは、AI統合サーバ10からの事件等に関するイベントの通知を受信すると、図5に示すアラーム通知画面WD1を表示デバイス116に表示する。 In the first embodiment, when the investigation support application receives the notification of the event related to the incident or the like from the AI integrated server 10 on the client terminal VW1, the alarm notification screen WD1 shown in FIG. 5 is displayed on the display device 116.

図5に示すアラーム通知画面WD1は、事件等に関する各種のオブジェクト(例えば人物、車両)の検索条件(例えば、オブジェクト特徴要素(例えば人物属性情報、車両属性情報))の入力欄SCON1の表示領域と、AI統合サーバ10から送られた事件等に関するイベントのリストウインドウAMLT1の表示領域とを含む。検索条件の入力欄SCON1は、捜査支援アプリにより標準的に使用される。 The alarm notification screen WD1 shown in FIG. 5 is a display area of the input field SCON1 for search conditions (for example, object feature elements (for example, person attribute information, vehicle attribute information)) of various objects (for example, a person, a vehicle) related to an incident or the like. , The display area of the list window AMLT1 of the event related to the incident or the like sent from the AI integrated server 10. The search condition input field SCON1 is used as standard by the investigation support application.

検索条件の入力欄SCON1では、検索対象となるオブジェクトが検知されるべき日時(Time&Date)、カメラ(Camera)、イベント(Event)、リセットアイコンRSE1、検索実行アイコンSCR1のそれぞれが入力あるいは選択が可能に、それぞれの表示領域が設けられる。 In the search condition input field SCON1, each of the date and time (Time & Date), camera (Camera), event (Event), reset icon RSE1, and search execution icon SCR1 where the object to be searched should be detected can be input or selected. , Each display area is provided.

日時(Time&Date)の表示領域では、日時開始入力欄FR1と日時終了入力欄TO1とが配置されている。 In the date / time (Time & Date) display area, the date / time start input field FR1 and the date / time end input field TO1 are arranged.

日時開始入力欄FR1は、オブジェクト(例えば被疑者等の人物、逃走車両等の車両)の検索の対象となる撮像映像データが撮像された開始日時として、ユーザ操作により入力される。日時開始入力欄FR1には、例えば、事件等の発生日時またはその日時より少し前の日時が入力される。ユーザ操作により入力されると、捜査支援アプリは、検索条件(例えば開始日時)として日時開始入力欄FR1に入力された日時を検索条件としてセットする。 The date and time start input field FR1 is input by a user operation as a start date and time when the captured image data to be searched for an object (for example, a person such as a suspect or a vehicle such as an escape vehicle) is captured. In the date and time start input field FR1, for example, the date and time when the incident or the like occurred or a date and time slightly earlier than that date and time is input. When input by the user operation, the investigation support application sets the date and time input in the date and time start input field FR1 as the search condition (for example, the start date and time) as the search condition.

日時終了入力欄TO1は、オブジェクト(例えば被疑者等の人物、逃走車両等の車両)の検索の対象となる撮像映像データが撮像された終了日時として、オペレータの操作により入力される。日時終了入力欄TO1には、例えば、日時開始入力欄に入力される日時より所定期間(例えば事件等の発生日時から少し後の日時)が入力される。オペレータの操作により入力されると、捜査支援アプリは、検索条件(例えば終了日時)として日時終了入力欄TO1に入力された日時を検索条件としてセットする。 The date and time end input field TO1 is input by the operator's operation as the end date and time when the captured image data to be searched for the object (for example, a person such as a suspect or a vehicle such as an escape vehicle) is captured. In the date and time end input field TO1, for example, a predetermined period (for example, a date and time slightly after the occurrence date and time of an incident or the like) is input from the date and time entered in the date and time start input field. When input by the operator's operation, the investigation support application sets the date and time entered in the date and time end input field TO1 as the search condition (for example, the end date and time) as the search condition.

カメラ(Camera)の表示領域では、検索の対象となるカメラの選択を促すためのカメラ選択アイコンSCL1が配置されている。 In the display area of the camera (Camera), a camera selection icon SCL1 for prompting the selection of the camera to be searched is arranged.

カメラ選択アイコンSCL1は、オブジェクト(例えば被疑者等の人物、逃走車両等の車両)の検索の対象となる撮像映像データを撮像したカメラの一覧を表示させてオペレータの選択を促す。捜査支援アプリは、オペレータの操作により少なくとも1台のカメラが選択されると、その選択されたカメラの識別情報を検索条件としてセットする。 The camera selection icon SCL1 displays a list of cameras that have captured the captured image data to be searched for an object (for example, a person such as a suspect, a vehicle such as an escape vehicle), and prompts the operator to select. When at least one camera is selected by the operation of the operator, the investigation support application sets the identification information of the selected camera as a search condition.

イベント(Event)の表示領域では、アラーム通知画面WD1のリストウインドウAMLT1内に表示されるべきイベントの種別を示すチェックボックスEVE1が配置されている。 In the event display area, a check box EVE1 indicating the type of event to be displayed is arranged in the list window AMLT1 of the alarm notification screen WD1.

図5の例では、“Face matching”、“People fighting”、“LPR matching”の3つがオペレータの操作により選択されている。“Face matching”は、例えばブラックリストデータ(照合リストの一例)に登録されている顔と同一あるいは類似する顔がカメラの撮像映像データ(ライブ映像)の映像解析に基づいて検知されたイベントを示す。“People fighting”は、例えば2人の人物が喧嘩していることがカメラの撮像映像データ(ライブ映像)の映像解析に基づいて検知されたイベントを示す。“LPR matching”は、例えばブラックリストデータ(照合リストの一例)に登録されているライセンス番号情報のライセンス番号と同一のライセンス番号を有する車両がカメラの撮像映像データ(ライブ映像)の映像解析に基づいて検知されたイベントを示す。 In the example of FIG. 5, three of "Face matching", "People fighting", and "LPR matching" are selected by the operation of the operator. “Face matching” indicates, for example, an event in which a face that is the same as or similar to a face registered in blacklist data (an example of a collation list) is detected based on video analysis of camera captured video data (live video). .. “People fighting” indicates, for example, an event in which two people are in a fight, which is detected based on the image analysis of the image data (live image) captured by the camera. "LPR matching" is based on video analysis of camera image data (live video) of a vehicle having the same license number as the license number of the license number information registered in blacklist data (an example of a collation list), for example. Indicates the detected event.

リセットアイコンRSE1は、オペレータの操作により入力された検索条件のリセットを指示する。捜査支援アプリは、例えばオペレータの操作により検索条件が入力された後にリセットアイコンRSE1の押下を検知すると、その入力された検索条件をリセットする(つまり全て削除して初期状態に戻す)。 The reset icon RSE1 instructs the reset of the search condition input by the operator's operation. When the investigation support application detects that the reset icon RSE1 is pressed after the search condition is input by the operator, for example, the investigation support application resets the input search condition (that is, deletes all and returns to the initial state).

検索実行アイコンSCR1は、オペレータの操作により入力された検索条件を満たす検索の実行を要求する。捜査支援アプリは、例えばオペレータの操作により検索条件が入力された後に検索実行アイコンSCR1の押下を検知すると、その入力された検索条件を満たす検索要求を生成してAI統合サーバ10に送信する。 The search execution icon SCR1 requests execution of a search satisfying the search conditions input by the operator's operation. When the search support application detects that the search execution icon SCR1 is pressed after the search condition is input by the operation of the operator, for example, the investigation support application generates a search request satisfying the input search condition and sends it to the AI integrated server 10.

イベントのリストウインドウAMLT1は、イベントが検知された日時(Date/Time)、カメラ(Camera)、イベント(Event)、検知画像(Detected)、登録画像(Registered)、詳細(Details)のそれぞれの内容データをイベントごとに表示する。図5の例では、“Face matching”、“Unknown driver”、“People fighting”の3つのイベントのそれぞれについて上述した各項目の内容データが図示されている。“Face matching”および“People fighting”の内容データはデフォルトの簡略スタイルで示されており、“Unknown driver”の内容データはオペレータの操作により詳細スタイルDTL1で示されている。 The event list window AMLT1 has content data of the date and time when the event was detected (Date / Time), the camera (Camera), the event (Event), the detected image (Detected), the registered image (Registered), and the details (Data). Is displayed for each event. In the example of FIG. 5, the content data of each of the above-mentioned items for each of the three events of "Face matching", "Unknown driver", and "People fighting" is illustrated. The content data of "Face matching" and "People fighting" are shown in the default simplified style, and the content data of "Unknown driver" is shown in the detailed style DTL1 by the operation of the operator.

例えばイベント“Face matching”は、2019年6月13日の午前10時12分33秒に“North Entrance”に配置されたカメラ(例えばカメラC1)の撮像映像データの映像解析に基づいて検知された。“Registered”の顔画像と同一あるいは類似する“Detected”の顔画像が検知された。なお、詳細(Details)の欄には、例えば、顔画像の類似度、イベント“Face matching”の対象となった人物の氏名、年齢、性別、メモ等の情報が表示されている。 For example, the event "Face matching" was detected at 10:12:33 am on June 13, 2019, based on the video analysis of the captured video data of a camera (for example, camera C1) placed in the "North Entrance". .. A "Detected" face image that is the same as or similar to the "Registered" face image was detected. In the details column, for example, information such as the similarity of the face image, the name, age, gender, and memo of the person who is the target of the event "Face matching" is displayed.

例えばイベント“Unknown driver”は、2019年6月13日の午前10時00分13秒に“Parking lot ABC”に配置されたカメラ(図2参照)の撮像映像データの映像解析に基づいて検知された。また、このイベントの検知に際して、“Parking lot ABC”に車両VCL1が入庫する時にライセンスプレートLPT1のライセンス番号情報と乗員(例えばドライバー)の顔画像FCEN1とが登録されている。“Parking lot ABC”の出庫時に、入庫時と同一のライセンス番号情報を有する車両VCL1が異なる乗員(例えばドライバー)の顔画像FCGO1が検知された場合に、このイベント“Unknown driver”が検知されたことになる。なお、イベント“Unknown driver”は、イベント“LPR matching”の下位グループに属するイベントであってよく、“LPR matching”がチェックボックスEVE1で指定されていればAI統合サーバ10の通知を受けてよい。 For example, the event "Unknown driver" was detected based on the video analysis of the captured video data of the camera (see FIG. 2) placed in the "Parking lot ABC" at 10:00:13 am on June 13, 2019. It was. Further, at the time of detecting this event, the license number information of the license plate LPT1 and the face image FCEN1 of the occupant (for example, the driver) are registered when the vehicle VCL1 is stored in the "Parking lot ABC". This event "Unknown driver" was detected when the face image FCGO1 of a different occupant (for example, driver) was detected in the vehicle VCL1 having the same license number information as at the time of warehousing at the time of leaving "Parking lot ABC". become. The event "Unknown driver" may be an event belonging to a lower group of the event "LPR matching", and if "LPR matching" is specified by the check box EVE1, the notification of the AI integrated server 10 may be received.

捜査支援アプリは、“Unknown driver”の内容データを詳細スタイルDTL1でリストウインドウAMLT1内に表示する。具体的には、捜査支援アプリは、“Parking lot ABC”に入庫(When entering)したライセンスプレートLPT1を有する車両VCL1の乗員の顔画像FCEN1を入庫時刻(2019年6月12日の午後9時6分0秒)に登録したことをリストウインドウAMLT1内に表示する。また、捜査支援アプリは、“Parking lot ABC”への車両VCL1の入庫時の様子の撮像映像データを再生可能な再生ウインドウPLY1、車両VCL1の入庫を撮像したカメラ(図2参照)を含む複数のカメラの配置箇所と車両VCL1のサムネイル画像THM1とを重畳した地図データMP1をそれぞれリストウインドウAMLT1内に表示する。地図データMP1上には、複数のカメラの配置箇所を示すインジケータIC1,IC2,IC3が識別可能に表示されている。また、捜査支援アプリは、“Parking lot ABC”から出庫した(Detected)同一のライセンスプレートLPT1を有する車両VCL1の乗員の異なる顔画像FCGO1を検知したことをリストウインドウAMLT1内に表示する。 The investigation support application displays the content data of the "Unknown driver" in the list window AMLT1 in the detailed style DTL1. Specifically, the investigation support application puts the face image FCEN1 of the occupant of the vehicle VCL1 having the license plate LPT1 stored in the "Parking lot ABC" at the time of warehousing (9:06 pm on June 12, 2019). It is displayed in the list window AMLT1 that it has been registered in (minutes and 0 seconds). In addition, the investigation support application includes a plurality of playback windows PLY1 capable of reproducing captured image data of the state of the vehicle VCL1 at the time of warehousing in the "Parking lot ABC", and a camera (see FIG. 2) that images the warehousing of the vehicle VCL1. The map data MP1 on which the camera arrangement location and the thumbnail image THM1 of the vehicle VCL1 are superimposed is displayed in the list window AMLT1. Indicators IC1, IC2, and IC3 indicating locations where a plurality of cameras are arranged are identifiablely displayed on the map data MP1. In addition, the investigation support application displays in the list window AMLT1 that it has detected different face images FCGO1 of the occupants of the vehicle VCL1 having the same license plate LPT1 (Detected) issued from "Parking lot ABC".

つまり、クライアント端末VW1は、イベント“Unknown driver”の通知を受けてリストウインドウAMLT1に表示することで、オペレータあるいは警官に、同一のライセンス番号情報を有しながらも駐車場の入庫時と出庫時とで乗員の顔画像が異なっている(言い換えると、駐車中に乗員が入れ替わった)ことを気付かせることができる。したがって、オペレータあるいは警官は、事件等の被疑者が駐車中にいなくなったあるいは急遽現れたことをAI統合サーバ10からのイベント通知により把握することができ、捜査効率を向上できる。 That is, the client terminal VW1 receives the notification of the event "Unknown driver" and displays it on the list window AMLT1 so that the operator or the police officer can have the same license number information at the time of entering and leaving the parking lot. It is possible to notice that the occupant's face image is different (in other words, the occupant was replaced while parking). Therefore, the operator or the police officer can grasp from the event notification from the AI integrated server 10 that the suspect in the case or the like has disappeared or suddenly appeared in the parking lot, and the investigation efficiency can be improved.

次に、実施の形態1に係る捜査支援システム1の動作手順例について、図6を参照して説明する。図6は、実施の形態1に係る捜査支援システム1の動作手順例を示すシーケンス図である。図6ではイベント“Unknown driver”の検知およびクライアント端末VW1への通知に至る処理の流れを時系列に説明し、車両の入庫を検知したカメラを“カメラα”(図2参照)、車両の出庫を検知したカメラを“カメラβ”(図2参照)と定義する。なお、カメラαとカメラβとは同一でもよい。 Next, an example of the operation procedure of the investigation support system 1 according to the first embodiment will be described with reference to FIG. FIG. 6 is a sequence diagram showing an example of an operation procedure of the investigation support system 1 according to the first embodiment. In FIG. 6, the flow of processing from the detection of the event “Unknown driver” to the notification to the client terminal VW1 is explained in chronological order, the camera that detects the arrival of the vehicle is the “camera α” (see FIG. 2), and the vehicle leaves the vehicle. The camera that detects the above is defined as "camera β" (see FIG. 2). The camera α and the camera β may be the same.

図6において、カメラαは、自らの撮像により得られた撮像映像データを映像解析することで駐車場(例えば“Parking lot ABC”)に入庫しようとする車両の乗員の顔領域を検知して判別する(St1)。カメラαは、ステップSt1の検知に用いた撮像画像と乗員の顔領域情報とのペアをLPRサーバ90に送る(St2)。LPRサーバ90は、ステップSt2でカメラαから送られた撮像画像を解析し(St3)、撮像画像に映る乗員の顔部分を切り出して顔画像を生成し、この顔画像J2と車両のライセンス番号J1情報とのペアをAI統合サーバ10に送る(St4)。AI統合サーバ10は、LPRサーバ90から送られた顔画像J2と車両のライセンス番号J1情報とのペアをカメラαによる車両の入庫の検知タイミングの時刻と関連づけてデータベース12に登録する(St5)。 In FIG. 6, the camera α detects and discriminates the face area of a vehicle occupant who intends to enter a parking lot (for example, “Parking lot ABC”) by analyzing the captured image data obtained by his / her own imaging. (St1). The camera α sends a pair of the captured image used for the detection in step St1 and the face area information of the occupant to the LPR server 90 (St2). The LPR server 90 analyzes the captured image sent from the camera α in step St2 (St3), cuts out the occupant's face portion reflected in the captured image to generate a face image, and generates the face image J2 and the vehicle license number J1. The pair with the information is sent to the AI integrated server 10 (St4). The AI integrated server 10 registers the pair of the face image J2 sent from the LPR server 90 and the vehicle license number J1 information in the database 12 in association with the time of the detection timing of the vehicle warehousing by the camera α (St5).

カメラβは、自らの撮像により得られた撮像映像データを映像解析することで駐車場(例えば“Parking lot ABC”)から出庫しようとする車両の乗員の顔領域を検知して判別する(St6)。なお、カメラαとカメラβとは異なってもよいが同一でもよく、同一の場合にはステップSt1の時刻とステップSt6の時刻とは異なる。カメラβは、ステップSt6の検知に用いた撮像画像と乗員の顔領域情報とのペアをLPRサーバ90に送る(St7)。LPRサーバ90は、ステップSt7でカメラβから送られた撮像画像を解析し(St8)、撮像画像に映る乗員の顔部分を切り出して顔画像を生成し、この顔画像J4と車両のライセンス番号J3情報とのペアをAI統合サーバ10に送る(St9)。図6の説明を簡易化するため、ライセンス番号J1とライセンス番号J3とは同一とする。 The camera β detects and discriminates the face area of the occupant of the vehicle trying to leave the parking lot (for example, “Parking lot ABC”) by analyzing the captured image data obtained by its own imaging (St6). .. The camera α and the camera β may be different or the same, and if they are the same, the time in step St1 and the time in step St6 are different. The camera β sends a pair of the captured image used for the detection in step St6 and the face area information of the occupant to the LPR server 90 (St7). The LPR server 90 analyzes the captured image sent from the camera β in step St7 (St8), cuts out the face portion of the occupant reflected in the captured image to generate a face image, and generates the face image J4 and the vehicle license number J3. The pair with the information is sent to the AI integrated server 10 (St9). To simplify the explanation of FIG. 6, the license number J1 and the license number J3 are the same.

AI統合サーバ10は、LPRサーバ90から送られた顔画像J4と車両のライセンス番号J3(=J1)情報とのペアを受信した時、データベース12にライセンス番号J3(=J1)が登録済みであるか否かを判定する(St10)。データベース12にライセンス番号J3(=J1)が登録済みでないとAI統合サーバ10により判定された場合には(St10、NO)、実施の形態1に係る捜査支援システム1の処理は終了する。 When the AI integrated server 10 receives the pair of the face image J4 sent from the LPR server 90 and the vehicle license number J3 (= J1) information, the license number J3 (= J1) is already registered in the database 12. Whether or not it is determined (St10). When the AI integrated server 10 determines that the license number J3 (= J1) is not registered in the database 12 (St10, NO), the process of the investigation support system 1 according to the first embodiment ends.

一方で、AI統合サーバ10は、データベース12にライセンス番号J3(=J1)が登録済みであると判定した場合(St10、YES)、データベース12からライセンス番号J3情報と対応する顔画像J2を読み出し、顔画像J2と顔画像J4とを含む照合要求を生成して顔認証サーバ50に送る(St11)。 On the other hand, when the AI integrated server 10 determines that the license number J3 (= J1) has been registered in the database 12 (St10, YES), the AI integrated server 10 reads the face image J2 corresponding to the license number J3 information from the database 12 and reads the face image J2. A collation request including the face image J2 and the face image J4 is generated and sent to the face recognition server 50 (St11).

顔認証サーバ50は、AI統合サーバ10からの照合要求に従い、顔画像J2と顔画像J4とが同一あるいは類似するか否かを判定する(St12)。顔認証サーバ50は、顔画像J2と顔画像J4とが同一あるいは類似すると判定した場合(St12、YES)、顔画像J2と顔画像J4とが一致する(言い換えると、顔画像J2の人物と顔画像J4の人物とは同一である)旨の報告を生成してAI統合サーバ10に送る(St13)。AI統合サーバ10は、顔認証サーバ50からの報告を受けると、その報告によると事件性のあるイベントは発生していないのでイベント“Unknown driver”の通知の必要が無いと判定し、イベント“Unknown driver”のクライアント端末VW1への通知を省略する(St14)。 The face recognition server 50 determines whether or not the face image J2 and the face image J4 are the same or similar according to the collation request from the AI integrated server 10 (St12). When the face authentication server 50 determines that the face image J2 and the face image J4 are the same or similar (St12, YES), the face image J2 and the face image J4 match (in other words, the person and the face of the face image J2). A report to the effect that it is the same as the person in image J4) is generated and sent to the AI integrated server 10 (St13). Upon receiving the report from the face recognition server 50, the AI integrated server 10 determines that there is no need to notify the event "Unknown driver" because no incidental event has occurred according to the report, and determines that the event "Unknown driver" does not need to be notified. The notification to the client terminal VW1 of "driver" is omitted (St14).

一方で、顔認証サーバ50は、顔画像J2と顔画像J4とが非類似であると判定した場合(St12、NO)、顔画像J2と顔画像J4とが不一致である(言い換えると、顔画像J2の人物と顔画像J4の人物とは別人である)旨の報告を生成してAI統合サーバ10に送る(St15)。AI統合サーバ10は、顔認証サーバ50からの報告を受けると、その報告によると駐車中に乗員(例えばドライバー)が入れ替わり事件性のあるイベントが発生したとしてイベント“Unknown driver”の通知の必要があると判定し、ライセンス番号J1(=J3)情報、顔画像J2および顔画像J4を含むイベント“Unknown driver”をクライアント端末VW1に通知する(St16)。クライアント端末VW1は、AI統合サーバ10からの通知に基づいて、図5に示すアラーム通知画面WD1を表示する(St17)。 On the other hand, when the face authentication server 50 determines that the face image J2 and the face image J4 are dissimilar (St12, NO), the face image J2 and the face image J4 do not match (in other words, the face image J4). A report to the effect that the person in J2 and the person in the face image J4 are different persons) is generated and sent to the AI integrated server 10 (St15). When the AI integrated server 10 receives a report from the face authentication server 50, it is necessary to notify the event "Unknown driver" that the occupants (for example, the driver) are replaced during parking and an incidental event occurs according to the report. It is determined that there is, and the event "Unknown driver" including the license number J1 (= J3) information, the face image J2 and the face image J4 is notified to the client terminal VW1 (St16). The client terminal VW1 displays the alarm notification screen WD1 shown in FIG. 5 based on the notification from the AI integrated server 10 (St17).

また、実施の形態1に至る経緯として、特許文献1では、事件等の形態が多様化しているという昨今の実情に鑑みて、事件等を引き起こした被疑者あるいは被疑者が逃走用に使用している逃走車両の検索を行うことは考慮されていない。特に、警察等の捜査機関による捜査(特に初動捜査)においては、被疑者を早期に発見するために被疑者あるいは逃走車両をいち早く特定することが求められることが多い。しかし、特許文献1の技術を用いても、捜査官(例えば警官)が個々のカメラ装置の映像を人力で逐一視聴して確認すると逃走車両の特定に時間がかかり非効率的であるため、被疑者あるいは逃走車両の早期発見が難しいという課題があった。また、検索条件を入力する際のユーザ操作を簡易化することで、利便性を高めることが求められる。 In addition, as a background to the first embodiment, in Patent Document 1, in view of the recent fact that the forms of cases and the like are diversified, the suspect or the suspect who caused the case or the like uses it for escape. Searching for escape vehicles is not considered. In particular, in an investigation by an investigative agency such as the police (especially an initial investigation), it is often required to quickly identify the suspect or the escape vehicle in order to detect the suspect at an early stage. However, even if the technology of Patent Document 1 is used, if an investigator (for example, a police officer) manually watches and confirms the images of each camera device, it takes time to identify the escape vehicle and it is inefficient. There was a problem that it was difficult to detect a person or an escape vehicle at an early stage. In addition, it is required to improve convenience by simplifying the user operation when inputting search conditions.

そこで、実施の形態1に係る捜査支援システム1において、被疑者あるいは逃走車両の検索時のユーザ操作をより簡易化するためのUI(User Interface)例について、図7を参照して説明する。図7は、検索条件入力画面WD2の一部の表示例を示す図である。捜査支援アプリは、ユーザ(例えば警察署のオペレータあるいは現場の警官)の操作により、検索条件入力画面WD2を表示デバイス116に表示する。なお、図7では、検索条件入力画面WD2のうち、ユーザインターフェースのより簡易化を実現するための特徴的内容を抜粋して図示している。 Therefore, in the investigation support system 1 according to the first embodiment, an example of a UI (User Interface) for further simplifying the user operation when searching for a suspect or an escape vehicle will be described with reference to FIG. 7. FIG. 7 is a diagram showing a display example of a part of the search condition input screen WD2. The investigation support application displays the search condition input screen WD2 on the display device 116 by the operation of a user (for example, a police station operator or a police officer at the scene). Note that FIG. 7 shows an excerpt of the characteristic contents of the search condition input screen WD2 for realizing a simpler user interface.

検索条件入力画面WD2は、(T1)初期状態を起点としてユーザ操作により、(T2)人物検索サーバ60の選択時、(T3)人物検索サーバ60および顔認証サーバ50の選択時、あるいは(T4)車両検索サーバ80およびLPRサーバ90の選択時のいずれかに表示内容が遷移する。 The search condition input screen WD2 can be displayed by (T1) when the person search server 60 is selected, (T3) when the person search server 60 and the face recognition server 50 are selected, or (T4) by user operation starting from the initial state. The display content transitions to either the vehicle search server 80 or the LPR server 90 when they are selected.

(T1)初期状態の検索条件入力画面WD2は、事件等に関する各種のオブジェクト(例えば人物、車両)の検索条件(例えば、オブジェクト特徴要素(例えば人物属性情報、車両属性情報))の入力欄の表示領域を含む。この検索条件の入力欄の表示領域には、検索対象となるオブジェクトが検知されるべき日時(Time&Date)、サーチフィルタ(Search filter)、セーブ(Save)、リセット(Reset)、サーチ(Search)の各アイコンが入力あるいは選択が可能に配置されている。なお、図7の説明において、図5の説明と重複する構成要素には同一の符号を付与して説明を簡略化あるいは省略し、異なる内容を説明する。(T1)初期状態では、未だ検索条件が入力されていないため、捜査支援アプリにより検索条件入力画面WD2のセーブ、リセット、サーチの各アイコンはいずれも押下不可に設定されている。 (T1) Initial state search condition input screen WD2 displays input fields for search conditions (for example, object feature elements (for example, person attribute information, vehicle attribute information)) of various objects (for example, person, vehicle) related to an incident or the like. Includes area. In the display area of the input field of the search condition, each of the date and time (Time & Date), the search filter (Search filter), the save (Save), the reset (Reset), and the search (Search) where the object to be searched should be detected. Icons are arranged so that they can be entered or selected. In the description of FIG. 7, the same reference numerals are given to the components overlapping with the description of FIG. 5, and the description is simplified or omitted, and different contents will be described. (T1) In the initial state, since the search condition has not been input yet, the save, reset, and search icons of the search condition input screen WD2 are all set to be non-pressable by the investigation support application.

サーチフィルタSFL1は、クライアント端末VW1から検索可能となる事件等に関する各種のオブジェクトの一覧をサブウインドウFLT1で示し、ユーザの選択操作を促す。各種のオブジェクトの一覧は、例えば、“People(人物)”、“Face(顔)”、“Vehicle(車両)”、“License Plates(ライセンスプレート)”を含む。言い換えると、図7のサーチフィルタSFL1により、ユーザは、指FGあるいはマウス等で移動可能なカーソルを用いて、人物、顔、車両、ライセンスプレートの検索を指定できることを把握できる。 The search filter SFL1 shows a list of various objects related to an incident or the like that can be searched from the client terminal VW1 in the sub-window FLT1 and prompts the user to perform a selection operation. The list of various objects includes, for example, "People", "Face", "Vehicle", "License Plates". In other words, the search filter SFL1 of FIG. 7 allows the user to know that he / she can specify a search for a person, face, vehicle, or license plate using a cursor that can be moved with a finger FG, a mouse, or the like.

捜査支援アプリは、ユーザ操作(例えば指FG)によりサーチフィルタSFL1のサブウインドウFLT1内の“People(人物)”が選択されたことを検知すると、例えば検索条件入力画面WD2内において人物検索条件欄PSC1を表示する(T2参照)。 When the investigation support application detects that "People (person)" in the sub-window FLT1 of the search filter SFL1 is selected by a user operation (for example, finger FG), for example, in the search condition input screen WD2, the person search condition field PSC1 Is displayed (see T2).

(T2)人物検索サーバ60の選択時の検索条件入力画面WD2は、(T1)初期状態から指FGあるいはマウス等のカーソル(図示略)で“People(人物)”が選択されたことが捜査支援アプリにより検知されると、捜査支援アプリにより表示される。人物(People)が選択されると、例えば前回の人物検索時に用いた検索条件PCH1を示す人物検索条件欄PSC1が表示される。なお、前回の人物検索時に用いた検索条件の代わりに、ユーザ操作により新規に入力された検索条件を示す人物検索条件欄PSC1が表示されてよい。検索条件PCH1は、例えば4つのオブジェクト特徴要素“男性”、“黄色い服”、“黒いズボン”、“所持品無し”の全てを示す。また、検索の類似度合い(Similarity)を調整可能な調整バーSBR1、ならびに、オブジェクト特徴要素(例えば人物の外見的な特徴要素)の詳細な検索条件詳細画面(図12参照)の表示アイコンCHDTL1も人物検索条件欄PSC1内に表示されてよい。 (T2) The search condition input screen WD2 when the person search server 60 is selected is (T1) investigation support that "People (person)" is selected by a cursor (not shown) such as a finger FG or a mouse from the initial state. If detected by the app, it will be displayed by the investigation support app. When a person (People) is selected, for example, a person search condition field PSC1 indicating the search condition PCH1 used in the previous person search is displayed. In addition, instead of the search condition used in the previous person search, the person search condition field PSC1 indicating the search condition newly input by the user operation may be displayed. The search condition PCH1 indicates, for example, all four object feature elements "male", "yellow clothes", "black trousers", and "no belongings". In addition, the adjustment bar SBR1 that can adjust the similarity of the search and the display icon CHDTL1 of the detailed search condition detail screen (see FIG. 12) of the object feature element (for example, the appearance feature element of the person) are also the person. It may be displayed in the search condition field PSC1.

捜査支援アプリは、人物検索の検索条件の入力後にユーザ操作(例えば指FG)によりサーチフィルタSFL1のサブウインドウFLT1内の“Face(顔)”が選択されたことを検知すると、例えば検索条件入力画面WD2内において人物検索条件欄PSC1の下に顔検索条件欄PSC2を表示する(T3参照)。 When the investigation support application detects that "Face" in the sub-window FLT1 of the search filter SFL1 is selected by a user operation (for example, finger FG) after inputting the search condition for the person search, for example, the search condition input screen. The face search condition field PSC2 is displayed below the person search condition field PSC1 in WD2 (see T3).

(T3)人物検索サーバ60および顔認証サーバ50の選択時の検索条件入力画面WD2は、(T2)人物検索サーバ60の選択時から指FGあるいはマウス等のカーソル(図示略)で“Face(顔)”が選択されたことが捜査支援アプリにより検知されると、捜査支援アプリにより表示される。顔(Face)が選択されると、例えば検索対象となる顔画像のアップロード用アイコンUPL1を示す顔検索条件欄PSC2が表示される。なお、また、検索の類似度合い(Similarity)を調整可能な調整バーSBR2も顔検索条件欄PSC2内に表示されてよい。 (T3) The search condition input screen WD2 when the person search server 60 and the face recognition server 50 are selected is displayed on the (T2) person search server 60 with a cursor (not shown) such as a finger FG or a mouse. When the investigation support application detects that ")" is selected, it is displayed by the investigation support application. When the face is selected, for example, the face search condition field PSC2 indicating the upload icon UPL1 of the face image to be searched is displayed. In addition, the adjustment bar SBR2 capable of adjusting the similarity of the search may also be displayed in the face search condition column PSC2.

捜査支援アプリは、(T1)初期状態時にユーザ操作(例えば指FG)によりサーチフィルタSFL1のサブウインドウFLT1内の“Vehicle(車両)”が選択されたことを検知すると、例えば車両検索条件欄VSC1を表示する。さらに、捜査支援アプリは、車両検索条件欄VSC1内に車両の検索条件が入力された後に続けてユーザ操作(例えば指FG)によりサーチフィルタSFL1のサブウインドウFLT1内の“License Plates(ライセンスプレート)”が選択されたことを検知すると、例えばライセンスプレート検索条件欄VSC2を表示する。 When the investigation support application detects that "Vehicle (vehicle)" in the sub-window FLT1 of the search filter SFL1 is selected by a user operation (for example, finger FG) in the initial state (T1), for example, the vehicle search condition column VSC1 is displayed. indicate. Further, the investigation support application uses "License Plates" in the sub-window FLT1 of the search filter SFL1 by user operation (for example, finger FG) after the vehicle search condition is input in the vehicle search condition field VSC1. When it is detected that is selected, for example, the license plate search condition field VSC2 is displayed.

(T4)車両検索サーバ80およびLPRサーバ90の選択時の検索条件入力画面WD2は、車両検索サーバ80の選択時から指FGあるいはマウス等のカーソル(図示略)で“License Plates(ライセンスプレート)”が選択されたことが捜査支援アプリにより検知されると、捜査支援アプリにより表示される。車両(Vehicle)が選択されると、例えば前回の車両検索時に用いた検索条件を示す車両検索条件欄VSC1が表示される。なお、前回の車両検索時に用いた検索条件の代わりに、ユーザ操作により新規に入力された検索条件を示す車両検索条件欄VSC1が表示されてよい。検索条件は、例えば4つのオブジェクト特徴要素“車型=セダン”、“車型=バン”、“車型=SUV”、“車色=白色”の全てを示す。なお、また、検索の類似度合い(Similarity)を調整可能な調整バーも車両検索条件欄VSC1内に表示されてよい。 (T4) The search condition input screen WD2 when the vehicle search server 80 and the LPR server 90 are selected is displayed as “License Plates” with a cursor (not shown) such as a finger FG or a mouse from the time when the vehicle search server 80 is selected. When the investigation support application detects that is selected, the investigation support application displays it. When a vehicle is selected, for example, a vehicle search condition column VSC1 indicating the search conditions used in the previous vehicle search is displayed. In addition, instead of the search condition used in the previous vehicle search, the vehicle search condition field VSC1 indicating the search condition newly input by the user operation may be displayed. The search condition indicates, for example, all four object feature elements "vehicle type = sedan", "vehicle type = van", "vehicle type = SUV", and "vehicle color = white". In addition, an adjustment bar in which the degree of similarity of the search can be adjusted may also be displayed in the vehicle search condition column VSC1.

ライセンスプレート(License Plates)が選択されると、図7に示す4種類のライセンス番号検索条件欄VSC21,VSC22,VSC23,VSC24のいずれかが表示される。ライセンス番号検索条件欄VSC21,VSC22,VSC23,VSC24のそれぞれは、4つのチェックボックス(具体的には、“All”,“Plates”,“Groups”,“Search”)を有する。 When the license plate (License Plates) is selected, one of the four types of license number search condition fields VSC21, VSC22, VSC23, and VSC24 shown in FIG. 7 is displayed. Each of the license number search condition fields VSC21, VSC22, VSC23, and VSC24 has four check boxes (specifically, "All", "Plates", "Groups", and "Search").

ライセンス番号検索条件欄VSC21では、全てのライセンス番号を検索対象とする場合にユーザ操作によりチェックボックス“All”が選択される。捜査支援アプリは、全てのライセンス番号を検索条件として含めて生成する。 In the license number search condition field VSC21, the check box "All" is selected by user operation when all license numbers are to be searched. The investigation support application includes all license numbers as search conditions and generates them.

ライセンス番号検索条件欄VSC22では、ユーザ操作により指定された特定のライセンス番号を検索対象とする場合にユーザ操作によりチェックボックス“Plates”が選択される。また、特定のライセンス番号だけでなく、ライセンス番号の国あるいは州の指定も可能である。捜査支援アプリは、例えば“BFP8526”のライセンス番号を検索条件として含めて生成する。 In the license number search condition field VSC22, the check box "Plates" is selected by the user operation when a specific license number specified by the user operation is to be searched. In addition to a specific license number, it is also possible to specify the country or state of the license number. The investigation support application generates, for example, including the license number of "BFP8526" as a search condition.

ライセンス番号検索条件欄VSC23では、ユーザ操作により指定された特定のグループのライセンス番号を検索対象とする場合にユーザ操作によりチェックボックス“Groups”が選択される。捜査支援アプリは、例えば“Video recorder”(つまり映像管理サーバ40に記録されている全ての撮像映像データ)に映る車両のライセンス番号を検索条件として含めて生成する。 In the license number search condition field VSC23, the check box "Groups" is selected by the user operation when the license number of a specific group specified by the user operation is to be searched. The investigation support application generates, for example, the license number of the vehicle shown in the "Video recorder" (that is, all the captured image data recorded in the image management server 40) as a search condition.

ライセンス番号検索条件欄VSC24では、ユーザ操作により指定された任意のライセンス番号を検索対象とする場合にユーザ操作によりチェックボックス“Search”が選択される。捜査支援アプリは、例えばワイルドカードの記号“%”を用いた“B%”のライセンス番号(つまり、“B”が含まれるライセンス番号)を検索条件として含めて生成する。 In the license number search condition field VSC24, the check box "Search" is selected by the user operation when an arbitrary license number specified by the user operation is to be searched. The investigation support application generates, for example, a license number of "B%" using the wildcard symbol "%" (that is, a license number including "B") as a search condition.

次に、実施の形態1に係る捜査支援システム1の他の動作手順例について、図8を参照して説明する。図8は、実施の形態1に係る捜査支援システム1の他の動作手順例を示すシーケンス図である。図8では車両およびライセンス番号の検索およびクライアント端末VW1への通知に至る処理の流れを時系列に説明する。図8では説明を簡単にするために、複数のオブジェクトのそれぞれを個別に検索するOR検索を例示するが、複数のオブジェクトのそれぞれを全て同時に満たすAND検索にも適用可能である。 Next, another operation procedure example of the investigation support system 1 according to the first embodiment will be described with reference to FIG. FIG. 8 is a sequence diagram showing another operation procedure example of the investigation support system 1 according to the first embodiment. In FIG. 8, the flow of processing leading to the search for the vehicle and license number and the notification to the client terminal VW1 will be described in chronological order. In FIG. 8, for simplification of explanation, an OR search for individually searching each of a plurality of objects is illustrated, but it can also be applied to an AND search in which each of a plurality of objects is satisfied at the same time.

図8において、クライアント端末VW1は、オペレータの操作により、車両を特徴付ける車両検索条件とライセンス番号を特徴付けるライセンス番号検索条件とを含むOR検索(図7参照)の検索要求を生成してAI統合サーバ10に送る(St101)。ここで、車両検索条件は、例えば車両の車型がSUV(スポーツ用多目的車)である。ライセンス番号検索条件は、例えば文字“B”を含むである。 In FIG. 8, the client terminal VW1 generates an OR search (see FIG. 7) search request including a vehicle search condition that characterizes the vehicle and a license number search condition that characterizes the license number by the operation of the operator, and the AI integrated server 10 Send to (St101). Here, the vehicle search condition is, for example, that the vehicle type of the vehicle is an SUV (sport utility vehicle). The license number search condition includes, for example, the character "B".

AI統合サーバ10は、クライアント端末VW1からのOR検索の検索要求を受信すると、先ずステップSt101で送られた検索要求から車両検索条件を取り出して車両検索条件を満たす車両の検索要求を車両検索サーバ80に送る(St102)。 When the AI integrated server 10 receives the OR search search request from the client terminal VW1, the AI integrated server 10 first extracts the vehicle search condition from the search request sent in step St101 and sends the vehicle search request for the vehicle satisfying the vehicle search condition to the vehicle search server 80. Send to (St102).

車両検索サーバ80は、AI統合サーバ10からの検索要求に基づいて、データベース82を参照して車両検索条件を満たす車両の検索処理を実行する(St103)。人物検索サーバ60は、車両検索条件の特徴と一致する車両を抽出した場合(St103、一致)、該当車両のサムネイル画像を含む処理結果をAI統合サーバ10に返送する(St104)。一方、車両検索サーバ80は、車両検索条件の特徴と一致する車両を抽出できなかった場合(St103、不一致)、該当車両情報がいない旨の処理結果をAI統合サーバ10に返送する(St105)。 The vehicle search server 80 refers to the database 82 and executes a vehicle search process satisfying the vehicle search condition based on the search request from the AI integrated server 10 (St103). When the person search server 60 extracts a vehicle that matches the characteristics of the vehicle search condition (St103, match), the person search server 60 returns the processing result including the thumbnail image of the corresponding vehicle to the AI integrated server 10 (St104). On the other hand, when the vehicle search server 80 cannot extract a vehicle that matches the characteristics of the vehicle search condition (St103, mismatch), the vehicle search server 80 returns a processing result indicating that there is no corresponding vehicle information to the AI integrated server 10 (St105).

AI統合サーバ10は、ステップSt104またはステップSt105の後に続けて、ステップSt101で送られた検索要求からライセンス番号検索条件を取り出してライセンス番号検索条件を満たすライセンス番号の検索要求をLPRサーバ90に送る(St106)。 Following step St104 or step St105, the AI integrated server 10 extracts the license number search condition from the search request sent in step St101 and sends the search request for the license number satisfying the license number search condition to the LPR server 90 ( St106).

LPRサーバ90は、AI統合サーバ10からの検索要求に基づいて、データベース92を参照してライセンス番号検索条件を満たすライセンス番号の検索処理を実行する(St107)。LPRサーバ90は、ライセンス番号検索条件の特徴と一致するライセンス番号を抽出した場合(St107、一致)、該当ライセンス番号のサムネイル画像およびそのライセンス番号に対応する車両の購入者に関する情報(上述参照)を含む処理結果をAI統合サーバ10に返送する(St108)。一方、LPRサーバ90は、ライセンス番号検索条件の特徴と一致するライセンス番号を抽出できなかった場合(St107、不一致)、該当ライセンス番号情報がない旨の処理結果をAI統合サーバ10に返送する(St109)。 Based on the search request from the AI integrated server 10, the LPR server 90 refers to the database 92 and executes a license number search process that satisfies the license number search condition (St107). When the LPR server 90 extracts a license number that matches the characteristics of the license number search condition (St107, match), the LPR server 90 displays a thumbnail image of the license number and information about the purchaser of the vehicle corresponding to the license number (see above). The including processing result is returned to the AI integrated server 10 (St108). On the other hand, when the LPR server 90 cannot extract the license number that matches the characteristics of the license number search condition (St107, mismatch), the LPR server 90 returns the processing result indicating that the corresponding license number information does not exist to the AI integrated server 10 (St109). ).

AI統合サーバ10は、車両検索サーバ80による車両検索の処理結果とLPRサーバ90によるライセンス番号検索の処理結果とを、該当車両あるいは該当ライセンス番号がないという結果を含めて統合(集約)し、クライアント端末VW1に返送する(St110)。クライアント端末VW1は、ステップSt110で返送された検索の処理結果を示す検索結果画面(図示略)を生成して表示デバイス116に表示する。 The AI integrated server 10 integrates (aggregates) the vehicle search processing result by the vehicle search server 80 and the license number search processing result by the LPR server 90, including the result that the corresponding vehicle or the corresponding license number does not exist, and the client. It is returned to the terminal VW1 (St110). The client terminal VW1 generates a search result screen (not shown) showing the processing result of the search returned in step St110 and displays it on the display device 116.

なお、図8では車両検索条件とライセンス番号検索条件とを用いた車両検索およびライセンス番号検索のOR検索の例を説明したが、AI統合サーバ10は、人物検索および車両検索のAND検索を行う際、次のように行う。例えば、AI統合サーバ10は、ステップSt104で送られた車両検索の処理結果の中を後続のライセンス番号検索の母集団とセットし、車両検索の処理結果の中でライセンス番号検索条件を満たす処理結果をLPRサーバ90に検索させる。 Although FIG. 8 has described an example of an OR search for a vehicle search and a license number search using the vehicle search condition and the license number search condition, the AI integrated server 10 performs an AND search for a person search and a vehicle search. , Do as follows. For example, the AI integrated server 10 sets the vehicle search processing result sent in step St104 with the subsequent license number search population, and the processing result satisfying the license number search condition in the vehicle search processing result. Is searched by the LPR server 90.

以上により、実施の形態1に係る捜査支援システム1は、解析サーバとAI統合サーバ10とが通信可能に接続される。解析サーバは、第1の撮像タイミングで撮像された車両が映る第1の撮像画像を受け取ると車両の乗員の顔およびライセンスプレートの解析を行い、乗員の顔画像J2とライセンス番号J1情報とを含む第1の解析結果をAI統合サーバに送る。AI統合サーバ10は、第1の解析結果を第1の撮像タイミングと関連付けてデータベース12に登録する。解析サーバは、第2の撮像タイミングで撮像された車両が映る第2の撮像画像を受け取ると車両の乗員の顔およびライセンスプレートの解析を行い、乗員の顔画像J4とライセンス番号J3情報とを含む第2の解析結果をAI統合サーバ10に送る。AI統合サーバ10は、第1の解析結果に含まれるライセンス番号J1情報と第2の解析結果に含まれるライセンス番号J3情報とが一致しかつ第1の解析結果に含まれる乗員の顔画像J2と第2の解析結果に含まれる乗員の顔画像J4とが異なると決定した場合に、事件等に関するアラーム通知を行う。 As described above, in the investigation support system 1 according to the first embodiment, the analysis server and the AI integrated server 10 are communicably connected to each other. When the analysis server receives the first captured image of the vehicle captured at the first imaging timing, it analyzes the face of the occupant of the vehicle and the license plate, and includes the occupant's face image J2 and the license number J1 information. The first analysis result is sent to the AI integrated server. The AI integrated server 10 registers the first analysis result in the database 12 in association with the first imaging timing. When the analysis server receives the second captured image of the vehicle captured at the second imaging timing, it analyzes the vehicle occupant's face and license plate, and includes the occupant's face image J4 and license number J3 information. The second analysis result is sent to the AI integrated server 10. The AI integrated server 10 matches the license number J1 information included in the first analysis result and the license number J3 information included in the second analysis result with the occupant's face image J2 included in the first analysis result. When it is determined that the face image J4 of the occupant included in the second analysis result is different, an alarm notification regarding the incident or the like is given.

これにより、捜査支援システム1は、事件等を引き起こした被疑者あるいは被疑者が逃走用に使用している逃走車両の特定を早期かつ効率的に支援でき、警察等の捜査機関による捜査の利便性を向上できる。したがって、クライアント端末VW1のユーザは、同一のライセンス番号情報を有しながらも異なる撮像タイミング(例えば駐車場の入庫時と出庫時)で乗員の顔画像が異なっている(言い換えると、駐車中に乗員が入れ替わった)ことを気付かせることができる。したがって、オペレータあるいは警官は、事件等の被疑者が駐車中にいなくなったあるいは急遽現れたことをAI統合サーバ10からのイベント通知により把握することができ、捜査効率を向上できる。 As a result, the investigation support system 1 can quickly and efficiently support the identification of the suspect who caused the incident or the escape vehicle used by the suspect for escape, and the convenience of the investigation by the police or other investigative agency. Can be improved. Therefore, the user of the client terminal VW1 has the same license number information, but the occupant's face image is different at different imaging timings (for example, at the time of entering and leaving the parking lot) (in other words, the occupant during parking). Can be reminded that (has been replaced). Therefore, the operator or the police officer can grasp from the event notification from the AI integrated server 10 that the suspect in the case or the like has disappeared or suddenly appeared in the parking lot, and the investigation efficiency can be improved.

また、第1の撮像タイミングに第1の撮像画像を撮像したカメラと、第2の撮像タイミングに第2の撮像画像を撮像したカメラとが同一である。これにより、異なる撮像タイミングで撮像された第1の撮像画像および第2の撮像画像を撮像したカメラが同一となるので、例えば入庫時と出庫時とで同一のカメラで様子を監視するような小規模の駐車場であっても、オペレータあるいは警官は、ドライバー等の乗員がすり替わった(例えば事件等の被疑者が駐車中にいなくなったあるいは急遽現れたこと)を簡易に把握できる。 Further, the camera that captured the first captured image at the first imaging timing and the camera that captured the second captured image at the second imaging timing are the same. As a result, the first captured image and the second captured image captured at different imaging timings are the same, so that the situation is monitored by the same camera at the time of warehousing and at the time of warehousing, for example. Even in a large-scale parking lot, the operator or the police officer can easily grasp that the occupants such as the driver have been replaced (for example, the suspect in the case has disappeared or suddenly appeared in the parking lot).

また、第1の撮像タイミングに第1の撮像画像を撮像したカメラと、第2の撮像タイミングに第2の撮像画像を撮像したカメラとが異なる。これにより、異なる撮像タイミングで撮像された第1の撮像画像および第2の撮像画像を撮像したカメラが異なるので、例えば入庫時と出庫時とで別々のカメラで様子を監視するような中規模あるいは大規模の駐車場であっても、オペレータあるいは警官は、ドライバー等の乗員がすり替わった(例えば事件等の被疑者が駐車中にいなくなったあるいは急遽現れたこと)を簡易に把握できる。 Further, the camera that captured the first captured image at the first imaging timing and the camera that captured the second captured image at the second imaging timing are different. As a result, the first captured image and the camera that captured the second captured image at different imaging timings are different. Therefore, for example, a medium-scale or medium-sized image in which the state is monitored by different cameras at the time of warehousing and at the time of warehousing. Even in a large-scale parking lot, the operator or the police officer can easily grasp that the occupants such as the driver have been replaced (for example, the suspect in the case has disappeared or suddenly appeared in the parking lot).

また、捜査支援システム1は、AI統合サーバ10との間で通信可能に接続されるユーザ端末、を更に備える。ユーザ端末は、アラーム通知に基づいて、ライセンス番号J1情報と第1の解析結果に含まれる乗員の顔画像J2と第2の解析結果に含まれる乗員の顔画像J4とを少なくとも含むアラーム通知画面WD1を表示する。これにより、クライアント端末VWあるいはモバイル端末VW2のユーザは、自分が気付かないうちに“Unknown driver”等の事件等に関するイベントの存在を簡易に把握できるので、例えば自分が追跡対象としている被疑者の出現場所等を把握できて現場に急いで向かうことができ、捜査効率が向上する。 In addition, the investigation support system 1 further includes a user terminal that is communicably connected to the AI integrated server 10. Based on the alarm notification, the user terminal has an alarm notification screen WD1 that includes at least the license number J1 information, the occupant's face image J2 included in the first analysis result, and the occupant's face image J4 included in the second analysis result. Is displayed. As a result, the user of the client terminal VW or the mobile terminal VW2 can easily grasp the existence of an event related to an incident such as "Unknown driver" without noticing it, so that, for example, the appearance of a suspect who is the target of tracking appears. You can grasp the location etc. and go to the site in a hurry, improving the efficiency of the investigation.

また、ユーザ端末は、第1の撮像画像を撮像したカメラの配置位置を重畳した地図データMP1をアラーム通知画面WD1に含めて表示する。これにより、クライアント端末VWあるいはモバイル端末VW2のユーザは、例えば自分が追跡対象としている被疑者の出現場所の周囲の地図データMP1をアラーム通知画面WD1上で迅速に確認できて現場に急行でき、あるいはその被疑者が乗っている車両の行き先の予測をし易くできる。 Further, the user terminal includes the map data MP1 on which the arrangement position of the camera that captured the first captured image is superimposed on the alarm notification screen WD1 and displays it. As a result, the user of the client terminal VW or the mobile terminal VW2 can quickly check the map data MP1 around the appearance location of the suspect that he / she is tracking on the alarm notification screen WD1 and can rush to the site. It is possible to easily predict the destination of the vehicle on which the suspect is riding.

また、実施の形態1に係る捜査支援システム1は、ユーザ端末と、複数の解析サーバとの間で通信可能に接続されたAI統合サーバ10とを含む。ユーザ端末は、事件等に関する複数の異なるオブジェクト特徴要素ごとに対応して設けられた複数の解析サーバの一覧を示す解析サーバ選択画面(サーチフィルタSFL1のサブウインドウFLT1参照)を表示する。ユーザ端末は、解析サーバ選択画面から第1の解析サーバ(例えば人物検索サーバ60)を選択し、選択された第1の解析サーバにより検索されるオブジェクト(例えば人物)のオブジェクト特徴要素(例えば人物の外見的な特徴要素)を含む検索条件の入力に基づいて、検索条件を満たす該当オブジェクトの検索要求をAI統合サーバ10に送る。AI統合サーバ10は、検索要求に基づいて、第1の解析サーバに該当オブジェクトの検索指示を送り、第1の解析サーバからの検索結果を受信してユーザ端末に送る。 Further, the investigation support system 1 according to the first embodiment includes an AI integrated server 10 that is communicably connected between a user terminal and a plurality of analysis servers. The user terminal displays an analysis server selection screen (see the sub-window FLT1 of the search filter SFL1) showing a list of a plurality of analysis servers provided for each of a plurality of different object feature elements related to an incident or the like. The user terminal selects a first analysis server (for example, a person search server 60) from the analysis server selection screen, and an object feature element (for example, of a person) of an object (for example, a person) searched by the selected first analysis server. Based on the input of the search condition including the external feature element), the search request of the corresponding object satisfying the search condition is sent to the AI integrated server 10. Based on the search request, the AI integrated server 10 sends a search instruction for the corresponding object to the first analysis server, receives the search result from the first analysis server, and sends it to the user terminal.

これにより、捜査支援システム1は、複数の異なるオブジェクトのオブジェクト特徴要素のそれぞれを独自に検索可能な複数の解析サーバ(例えば、顔認証サーバ50、人物検索サーバ60、車両検索サーバ80、LPRサーバ90)の一覧をユーザ端末にて提示できる。したがって、クライアント端末VW1あるいはモバイル端末VW2のユーザ(例えば警察署のオペレータあるいは現場等に外出中の警官)による被疑者あるいは逃走車両の検索時のユーザ操作の簡易化が一層図れる。 As a result, the investigation support system 1 has a plurality of analysis servers (for example, face recognition server 50, person search server 60, vehicle search server 80, LPR server 90) that can independently search for each of the object feature elements of a plurality of different objects. ) Can be presented on the user terminal. Therefore, it is possible to further simplify the user operation when searching for a suspect or an escape vehicle by a user of the client terminal VW1 or the mobile terminal VW2 (for example, an operator of a police station or a police officer who is out of the field).

また、ユーザ端末は、第1の解析サーバの選択後、解析サーバ選択画面から第2の解析サーバを選択し、選択された第1の解析サーバおよび第2の解析サーバのそれぞれにより検索可能なオブジェクトのオブジェクト特徴要素を含む検索条件の入力に基づいて、検索条件を満たす該当オブジェクトの検索要求をAI統合サーバ10に送る。AI統合サーバ10は、検索要求に基づいて、第1の解析サーバおよび第2の解析サーバのそれぞれに該当オブジェクトの検索指示を送り、第1の解析サーバおよび第2の解析サーバのそれぞれからの検索結果を受信してユーザ端末に送る。これにより、捜査支援システム1は、複数の解析サーバのそれぞれごとに対応するオブジェクトのオブジェクト特徴要素を含む検索条件を簡易に入力させることができ、ユーザの利便性をより一層向上できる。 Further, the user terminal selects the second analysis server from the analysis server selection screen after selecting the first analysis server, and is an object that can be searched by each of the selected first analysis server and the second analysis server. Based on the input of the search condition including the object feature element of, the search request of the corresponding object satisfying the search condition is sent to the AI integrated server 10. The AI integrated server 10 sends a search instruction for the corresponding object to each of the first analysis server and the second analysis server based on the search request, and searches from each of the first analysis server and the second analysis server. Receive the result and send it to the user terminal. As a result, the investigation support system 1 can easily input the search condition including the object feature element of the object corresponding to each of the plurality of analysis servers, and the convenience of the user can be further improved.

(実施の形態2に至る経緯)
特許文献1では、事件等の形態が多様化しているという昨今の実情に鑑みて、事件等を引き起こした被疑者あるいは被疑者が逃走用に使用している逃走車両の検索を行うことは考慮されていない。特に、警察等の捜査機関による捜査(特に初動捜査)においては、被疑者を早期に発見するために被疑者あるいは逃走車両をいち早く特定することが求められることが多い。しかし、特許文献1の技術を用いても、捜査官(例えば警官)が個々のカメラ装置の映像を人力で逐一視聴して確認すると逃走車両の特定に時間がかかり非効率的であるため、被疑者あるいは逃走車両の早期発見が難しいという課題があった。また、事件等に関する複数の異なるオブジェクトを検索する際、それぞれのオブジェクトを検索可能な解析サーバが常に通信可能な状態とは限らないので、仮に通信不可な状態がある解析サーバが存在する場合にはその存在を可視化することも要請され得る。
(Background to Embodiment 2)
In Patent Document 1, in view of the recent fact that the forms of cases and the like are diversifying, it is considered to search for the suspect who caused the case or the escape vehicle used by the suspect for escape. Not. In particular, in an investigation by an investigative agency such as the police (especially an initial investigation), it is often required to quickly identify the suspect or the escape vehicle in order to detect the suspect at an early stage. However, even if the technology of Patent Document 1 is used, if an investigator (for example, a police officer) manually watches and confirms the images of each camera device, it takes time to identify the escape vehicle and it is inefficient. There was a problem that it was difficult to detect a person or an escape vehicle at an early stage. Also, when searching for multiple different objects related to an incident, etc., the analysis server that can search for each object is not always in a communicable state, so if there is an analysis server that is in a non-communication state, Visualization of its existence may also be required.

(実施の形態2)
そこで、実施の形態2では、検索時のユーザフレンドリな検索条件のユーザインターフェースを提供するとともに、事件等を引き起こした被疑者が逃走用に使用している逃走車両の特定を早期かつ効率的に支援し、警察等の捜査機関による捜査の利便性を向上する捜査支援システムの例を説明する。実施の形態2に係る捜査支援システムの構成は実施の形態1に係る捜査支援システム1と同一であるため、同一の内容の説明は省略し、実施の形態1と異なる内容については同一の符号を参照しながら説明する。
(Embodiment 2)
Therefore, in the second embodiment, a user interface for user-friendly search conditions at the time of search is provided, and the escape vehicle used for escape by the suspect who caused the incident or the like is quickly and efficiently identified. Then, an example of an investigation support system that improves the convenience of investigation by an investigative agency such as the police will be described. Since the configuration of the investigation support system according to the second embodiment is the same as that of the investigation support system 1 according to the first embodiment, the description of the same contents is omitted, and the same reference numerals are given to the contents different from the first embodiment. It will be explained with reference to it.

図9は、車両検索サーバ80との接続エラーの発生を通知する検索結果画面例を示す図である。図9の検索結果画面WD3では、検索条件として、例えば2019年6月13日の15時00分00秒から2019年6月14日の15時00分00秒までの日時が入力されている。また、検索条件として、4つのオブジェクト特徴要素“男性”、“黄色い服”、“黒いズボン”、“所持品無し”が入力されたことで、捜査支援アプリによりこれら4つのオブジェクト特徴要素を含む人物検索条件欄PSC1が表示されている。また、検索条件として、4つのオブジェクト特徴要素“車型=セダン”、“車型=バン”、“車型=SUV”、“車色=白色”が入力されたことで、捜査支援アプリによりこれら4つのオブジェクト特徴要素を含む車両検索条件欄VSC3が表示されている。 FIG. 9 is a diagram showing an example of a search result screen for notifying the occurrence of a connection error with the vehicle search server 80. In the search result screen WD3 of FIG. 9, for example, the date and time from 15:00:00 on June 13, 2019 to 15:00:00 on June 14, 2019 are input as the search condition. In addition, since four object feature elements "male", "yellow clothes", "black trousers", and "no belongings" are entered as search conditions, a person who includes these four object feature elements by the investigation support application. The search condition field PSC1 is displayed. In addition, four object feature elements "vehicle type = sedan", "vehicle type = van", "vehicle type = SUV", and "vehicle color = white" were entered as search conditions, and these four objects were entered by the investigation support application. The vehicle search condition column VSC3 including the feature element is displayed.

ところが、詳細は図11を参照して説明するが、クライアント端末VW1(以下、モバイル端末VW2でも可)から検索条件がAI統合サーバ10に送られた後、AI統合サーバ10と車両検索サーバ80との間で通信断が発生したとする。この場合、捜査支援アプリにより、車両検索サーバ80との接続エラーを示す通信エラーメッセージERR1が検索結果画面WD3に表示されるとともに、車両検索条件欄VSC3の検索条件を満たす車両の検索ができなかったことを示す通信断アイコンERR0が車両検索条件欄VSC3内に表示される。 However, although the details will be described with reference to FIG. 11, after the search conditions are sent from the client terminal VW1 (hereinafter, mobile terminal VW2 is also possible) to the AI integrated server 10, the AI integrated server 10 and the vehicle search server 80 It is assumed that a communication interruption occurs between the two. In this case, the investigation support application displays the communication error message ERR1 indicating the connection error with the vehicle search server 80 on the search result screen WD3, and the vehicle that satisfies the search condition of the vehicle search condition column VSC3 cannot be searched. The communication disconnection icon ERR0 indicating that is displayed in the vehicle search condition field VSC3.

その一方で、AI統合サーバ10と人物検索サーバ60との間では通信断が発生していないので、人物検索条件欄PSC1の検索条件を満たすオブジェクトの該当件数(例えば517件)および検索対象となった日時を含む検索結果PSRST1が人物検索サーバ60からAI統合サーバ10に送られる。したがって、捜査支援アプリにより、図9の検索結果画面WD3にも検索結果PSRST1が表示される。 On the other hand, since the communication is not interrupted between the AI integrated server 10 and the person search server 60, the number of applicable objects (for example, 517) and the search target of the objects satisfying the search condition of the person search condition field PSC1 are obtained. The search result PSRST1 including the date and time is sent from the person search server 60 to the AI integrated server 10. Therefore, the search result PSRST1 is also displayed on the search result screen WD3 of FIG. 9 by the investigation support application.

図10は、車両検索サーバ80との接続の復帰を通知する検索結果画面例を示す図である。図10の説明において、図9の内容と重複する要素の説明は省略し、異なる内容について説明する。 FIG. 10 is a diagram showing an example of a search result screen for notifying the return of the connection with the vehicle search server 80. In the description of FIG. 10, the description of the elements that overlap with the contents of FIG. 9 will be omitted, and different contents will be described.

詳細は図11を参照して説明するが、図9に示す通信エラーメッセージERR1がクライアント端末VW1の検索結果画面WD3上に表示された後、AI統合サーバ10と車両検索サーバ80との間で通信可能な状態に復帰したとする。この場合、捜査支援アプリにより、車両検索サーバ80との接続が復帰したことを示す通信復帰メッセージSTB1が検索結果画面WD3に表示されるとともに、通信断アイコンERR0が車両検索条件欄VSC3内から非表示される(言い換えると、通信断アイコンERR0が表示されなくなる)。 Details will be described with reference to FIG. 11, but after the communication error message ERR1 shown in FIG. 9 is displayed on the search result screen WD3 of the client terminal VW1, communication is performed between the AI integrated server 10 and the vehicle search server 80. It is assumed that the state has returned to the possible state. In this case, the investigation support application displays the communication return message STB1 indicating that the connection with the vehicle search server 80 has been restored on the search result screen WD3, and hides the communication disconnection icon ERR0 from the vehicle search condition column VSC3. (In other words, the communication disconnection icon ERR0 disappears).

次に、実施の形態2に係る捜査支援システム1の動作手順例について、図11を参照して説明する。図11は、実施の形態2に係る捜査支援システム1の動作手順例を示すシーケンス図である。図11では図9の人物検索条件欄PSC1および車両検索条件欄VSC3のそれぞれの検索条件両方を同時に満たすAND検索の検索条件が入力された場合に、AI統合サーバ10から人物検索サーバ60および車両検索サーバ80のそれぞれに検索要求を指示する処理の流れを時系列に説明する。 Next, an example of the operation procedure of the investigation support system 1 according to the second embodiment will be described with reference to FIG. FIG. 11 is a sequence diagram showing an example of an operation procedure of the investigation support system 1 according to the second embodiment. In FIG. 11, when the search conditions for AND search that simultaneously satisfy both the search conditions of the person search condition field PSC1 and the vehicle search condition field VSC3 of FIG. 9 are input, the person search server 60 and the vehicle search are performed from the AI integrated server 10. The flow of processing for instructing a search request to each of the servers 80 will be described in chronological order.

図11において、AI統合サーバ10は、定期的に各種の解析サーバ(例えば、顔認証サーバ50、人物検索サーバ60、車両検索サーバ80、LPRサーバ90)との間で死活監視を行っている(St21)。各種の解析サーバ(例えば、顔認証サーバ50、人物検索サーバ60、車両検索サーバ80、LPRサーバ90)は、AI統合サーバ10からの応答(言い換えると、通信状態が良好である旨のメッセージ)を送信する(St22)。例えばステップSt22の後、AI統合サーバ10と車両検索サーバ80との間で何かしらの通信障害が発生し、AI統合サーバ10と車両検索サーバ80との間の通信断(接続断)が発生したとする(St23)。つまり、この時点でAI統合サーバ10と車両検索サーバ80との間の通信不能期間が開始する。 In FIG. 11, the AI integrated server 10 periodically performs life-and-death monitoring with various analysis servers (for example, face recognition server 50, person search server 60, vehicle search server 80, and LPR server 90) (for example, face recognition server 50, person search server 60, vehicle search server 80, and LPR server 90). St21). Various analysis servers (for example, face recognition server 50, person search server 60, vehicle search server 80, LPR server 90) send a response from the AI integrated server 10 (in other words, a message indicating that the communication status is good). Transmit (St22). For example, after step St22, some kind of communication failure has occurred between the AI integrated server 10 and the vehicle search server 80, and a communication disconnection (connection disconnection) between the AI integrated server 10 and the vehicle search server 80 has occurred. (St23). That is, at this point, the communication disabled period between the AI integrated server 10 and the vehicle search server 80 starts.

クライアント端末VW1は、オペレータの操作により、人物を特徴付ける人物検索条件と車両を特徴付ける車両検索条件とを含むAND検索(図9参照)の検索要求を生成してAI統合サーバ10に送る(St24)。ここで、人物検索条件は、例えば上半身が青い服を着た人物である。車両検索条件は、例えば車型がSUVである。 The client terminal VW1 generates an AND search (see FIG. 9) search request including a person search condition that characterizes a person and a vehicle search condition that characterizes a vehicle by an operator's operation, and sends the search request to the AI integrated server 10 (St24). Here, the person search condition is, for example, a person whose upper body is dressed in blue. As for the vehicle search condition, for example, the vehicle type is an SUV.

AI統合サーバ10は、クライアント端末VW1からのAND検索の検索要求を受信すると、先ずステップSt24で送られた検索要求から人物検索条件を取り出して人物検索条件を満たす人物の検索要求を人物検索サーバ60に送る(St25)。 When the AI integrated server 10 receives the AND search search request from the client terminal VW1, the AI integrated server 10 first extracts the person search condition from the search request sent in step St24 and makes a search request for a person satisfying the person search condition in the person search server 60. Send to (St25).

人物検索サーバ60は、AI統合サーバ10からの検索要求に基づいて、データベース62を参照して人物検索条件を満たす人物の検索処理を実行する(St26)。人物検索サーバ60は、人物検索条件の特徴と一致する人物を抽出した場合(St26、一致)、該当人物のサムネイル画像を含む処理結果をAI統合サーバ10に返送する(St27)。一方、人物検索サーバ60は、人物検索条件の特徴と一致する人物を抽出できなかった場合(St26、不一致)、該当人物情報がいない旨の処理結果をAI統合サーバ10に返送する(St28)。 Based on the search request from the AI integrated server 10, the person search server 60 refers to the database 62 and executes a search process for a person who satisfies the person search condition (St26). When the person search server 60 extracts a person who matches the characteristics of the person search condition (St26, match), the person search server 60 returns the processing result including the thumbnail image of the person to the AI integrated server 10 (St27). On the other hand, when the person search server 60 cannot extract a person who matches the characteristics of the person search condition (St26, mismatch), the person search server 60 returns a processing result indicating that there is no corresponding person information to the AI integrated server 10 (St28).

AI統合サーバ10は、ステップSt27またはステップSt28の後に続けて、ステップSt24で送られた検索要求から車両検索条件を取り出して車両検索条件を満たす車両の検索要求を車両検索サーバ80に送る(St29)。ところが、ステップSt29の時点はAI統合サーバ10と車両検索サーバ80との間の通信不能期間中であり、AI統合サーバ10は、車両検索サーバ80からの何かしらの応答を受信することができない(St30)。AI統合サーバ10は、人物検索サーバ60による人物検索の処理結果(例えば人物のサムネイル画像および撮像時刻)あるいは該当人物がいなかった旨の結果と各種の解析サーバ(例えば人物検索サーバ60および車両検索サーバ80のそれぞれ)との接続状況を示す接続状況データとを含めて統合(集約)し、クライアント端末VW1に返送する(St31)。 Following step St27 or step 28, the AI integrated server 10 extracts the vehicle search condition from the search request sent in step St24 and sends a search request for a vehicle satisfying the vehicle search condition to the vehicle search server 80 (St29). .. However, at the time of step St29, the communication between the AI integrated server 10 and the vehicle search server 80 is inactive, and the AI integrated server 10 cannot receive any response from the vehicle search server 80 (St30). ). The AI integrated server 10 is a process result of a person search by the person search server 60 (for example, a thumbnail image of the person and an imaging time) or a result indicating that the person was not found, and various analysis servers (for example, the person search server 60 and the vehicle search server). It is integrated (aggregated) including the connection status data indicating the connection status with each of the 80) and returned to the client terminal VW1 (St31).

クライアント端末VW1は、ステップSt31でAI統合サーバ10から送信された人物検索の処理結果と接続状況データとを用いて、車両検索サーバ80との間の通信断を示す通信エラーメッセージERR1、通信断アイコンERR0、人物検索の処理結果をそれぞれ含む検索結果画面WD3を表示デバイス116に表示する(St32)。 The client terminal VW1 uses the communication error message ERR1 indicating the communication disconnection with the vehicle search server 80 and the communication disconnection icon using the person search processing result and the connection status data transmitted from the AI integrated server 10 in step St31. The search result screen WD3 including the processing results of ERROR0 and the person search is displayed on the display device 116 (St32).

ここで、ステップSt32の後、AI統合サーバ10と車両検索サーバ80との間の通信が復帰したとする(St33)。つまり、この時点でAI統合サーバ10と車両検索サーバ80との間の通信不能期間が終了する。したがって、AI統合サーバ10は、各種の解析サーバ(例えば、人物検索サーバ60、車両検索サーバ80)との間で定期的に死活監視を行っているが(St34)、各種の解析サーバ(例えば、顔認証サーバ50、人物検索サーバ60、車両検索サーバ80、LPRサーバ90)は、AI統合サーバ10からの応答(言い換えると、通信状態が良好である旨のメッセージ)を送信できる(St35)。 Here, it is assumed that after step St32, the communication between the AI integrated server 10 and the vehicle search server 80 is restored (St33). That is, at this point, the communication disabled period between the AI integrated server 10 and the vehicle search server 80 ends. Therefore, the AI integrated server 10 periodically performs alive monitoring with various analysis servers (for example, person search server 60 and vehicle search server 80) (St34), but various analysis servers (for example, for example). The face authentication server 50, the person search server 60, the vehicle search server 80, and the LPR server 90) can transmit a response from the AI integrated server 10 (in other words, a message indicating that the communication state is good) (St35).

AI統合サーバ10は、ステップSt35の処理結果を受けて、車両検索サーバ80との間の通信(接続)が復帰した旨の通知をクライアント端末VW1に送る(St36)。クライアント端末VW1は、ステップSt36でAI統合サーバ10から送信された通知に基づいて、ステップSt32の時点で表示されていた通信エラーメッセージERR1に代わって通信復帰メッセージSTB1を検索結果画面WD3上で表示し、かつ通信断アイコンERR0の表示を止める(St37)。 Upon receiving the processing result of step St35, the AI integrated server 10 sends a notification to the client terminal VW1 that the communication (connection) with the vehicle search server 80 has been restored (St36). Based on the notification sent from the AI integrated server 10 in step St36, the client terminal VW1 displays the communication return message STB1 on the search result screen WD3 in place of the communication error message ERR1 displayed at the time of step St32. , And stop the display of the communication disconnection icon ERR0 (St37).

以上により、実施の形態2に係る捜査支援システム1は、ユーザ端末と、n(n:2以上の整数)個の解析サーバ(例えば、顔認証サーバ50、人物検索サーバ60、車両検索サーバ80、LPRサーバ90)との間で通信可能に接続されるAI統合サーバ10とを含む。なお、図9〜図11の例ではn=4である。AI統合サーバ10は、n個の解析サーバのそれぞれとの間の通信状況を定期的に監視する。AI統合サーバ10は、k(k:1〜nまでのいずれかの整数)個の異なるオブジェクト特徴要素を含む検索条件をユーザ端末から受け取るとn個の解析サーバのうち検索条件に含まれるk個のオブジェクト特徴要素のそれぞれに対応して設けられたk個の解析サーバを決定する。なお、図9〜図11の例ではk=2である。AI統合サーバ10は、k個の解析サーバのそれぞれに該当オブジェクトの検索要求を送り、k個の解析サーバのうち特定の解析サーバとの間の通信断が生じたことを検知すると、(k−1)個の解析サーバから受信した検索結果と特定の解析サーバとの間の通信断が生じたことの通信断通知(例えば通信エラーメッセージERR1)とをユーザ端末に送る。ユーザ端末は、(k−1)個の解析サーバから受信した検索結果と通信断通知とを含む検索結果画面WD3を表示する。 As described above, the investigation support system 1 according to the second embodiment includes a user terminal and n (n: 2 or more integers) analysis servers (for example, face recognition server 50, person search server 60, vehicle search server 80, and so on. It includes an AI integrated server 10 that is communicably connected to the LPR server 90). In the examples of FIGS. 9 to 11, n = 4. The AI integrated server 10 periodically monitors the communication status with each of the n analysis servers. When the AI integrated server 10 receives a search condition containing k (an integer from k: 1 to n) of different object feature elements from the user terminal, k of the n analysis servers are included in the search condition. Determine the k analysis servers provided corresponding to each of the object feature elements of. In the examples of FIGS. 9 to 11, k = 2. When the AI integrated server 10 sends a search request for the corresponding object to each of the k analysis servers and detects that a communication interruption with a specific analysis server among the k analysis servers has occurred, (k-). 1) A communication interruption notification (for example, communication error message ERR1) indicating that a communication interruption has occurred between the search results received from the analysis servers and a specific analysis server is sent to the user terminal. The user terminal displays the search result screen WD3 including the search results received from the (k-1) analysis servers and the communication interruption notification.

これにより、捜査支援システム1は、事件等を引き起こした被疑者が逃走用に使用している逃走車両の特定を早期かつ効率的に支援し、警察等の捜査機関による捜査の利便性を向上できる。また、捜査支援システム1は、クライアント端末VW1を使用するユーザの操作によって事件等に関する複数の異なるオブジェクトを検索する際に、AI統合サーバ10との間で通信不可な状態がある解析サーバが存在する場合にはその解析サーバの存在をクライアント端末VW1においてユーザに分かり易く可視化できる。 As a result, the investigation support system 1 can quickly and efficiently support the identification of the escape vehicle used by the suspect who caused the incident, etc., and improve the convenience of the investigation by the police or other investigative agency. .. Further, in the investigation support system 1, there is an analysis server in which communication with the AI integrated server 10 is not possible when searching for a plurality of different objects related to an incident or the like by the operation of a user using the client terminal VW1. In the case, the existence of the analysis server can be visualized in the client terminal VW1 in an easy-to-understand manner by the user.

また、ユーザ端末は、特定の解析サーバとの間の通信断が生じたことを示す通信断アイコンERR0を検索結果画面WD3に含めて表示する。これにより、ユーザは、例えば誤操作により通信エラーメッセージERR1を検索結果画面WD3から削除(非表示)してしまった場合でも、検索結果画面WD3に表示された通信断アイコンERR0の目視により通信断が発生していることを簡単に確認できる。なお、通信断アイコンERR0は、解析サーバの種類ごとに異なるアイコンであると具体的にどの解析サーバとの間で通信断が生じているかが可視化されてより好ましい。 Further, the user terminal includes the communication disconnection icon ERR0 indicating that the communication interruption with the specific analysis server has occurred in the search result screen WD3 and displays it. As a result, even if the user deletes (hides) the communication error message ERR1 from the search result screen WD3 due to, for example, an erroneous operation, the communication disconnection icon ERR0 displayed on the search result screen WD3 causes a communication interruption. You can easily confirm that you are doing it. It is more preferable that the communication interruption icon ERR0 is an icon that differs depending on the type of analysis server so that it is possible to visualize with which analysis server the communication interruption is occurring.

また、AI統合サーバ10は、特定の解析サーバとの間の通信が復帰したことを検知すると、特定の解析サーバとの間の通信が復帰したことの復帰通知(例えば通信復帰メッセージSTB1)をユーザ端末に送る。ユーザ端末は、AI統合サーバ10から送られた復帰通知を検索結果画面WD3に含めて表示する。これにより、捜査支援システム1は、クライアント端末VW1を使用するユーザの操作によって事件等に関する複数の異なるオブジェクトを検索する際に、AI統合サーバ10と特定の解析サーバとの間の通信が不可な状態から通信可能な状態に復帰したことをクライアント端末VW1においてユーザに分かり易く可視化できる。 Further, when the AI integrated server 10 detects that the communication with the specific analysis server has been restored, the user receives a restoration notification (for example, the communication restoration message STB1) indicating that the communication with the specific analysis server has been restored. Send to the terminal. The user terminal includes the return notification sent from the AI integrated server 10 in the search result screen WD3 and displays it. As a result, the investigation support system 1 cannot communicate between the AI integrated server 10 and the specific analysis server when searching for a plurality of different objects related to an incident or the like by the operation of the user using the client terminal VW1. It is possible for the client terminal VW1 to visualize in an easy-to-understand manner that the state has returned to the communicable state.

また、ユーザ端末は、復帰通知をAI統合サーバ10から受信する前に特定の解析サーバとの間の通信断が生じたことを示す通信断アイコンERR0を、復帰通知の受信に応じて検索結果画面WD3から非表示する。これにより、ユーザは、例えば誤操作により通信復帰メッセージSTB1を検索結果画面WD3から削除(非表示)してしまった場合でも、検索結果画面WD3に表示された通信断アイコンERR0が表示されていないことで特定の解析サーバとの間の通信断が発生していないことを簡単に確認できる。 In addition, the user terminal displays the communication disconnection icon ERR0 indicating that the communication interruption with the specific analysis server has occurred before receiving the return notification from the AI integrated server 10 on the search result screen in response to the reception of the return notification. Hide from WD3. As a result, even if the user deletes (hides) the communication return message STB1 from the search result screen WD3 due to, for example, an erroneous operation, the communication disconnection icon ERR0 displayed on the search result screen WD3 is not displayed. You can easily confirm that there is no communication interruption with a specific analysis server.

(実施の形態3に至る経緯)
特許文献1では、事件等の形態が多様化しているという昨今の実情に鑑みて、事件等を引き起こした被疑者あるいは被疑者が逃走用に使用している逃走車両の検索を行うことは考慮されていない。特に、警察等の捜査機関による捜査(特に初動捜査)においては、被疑者を早期に発見するために被疑者あるいは逃走車両をいち早く特定することが求められることが多い。しかし、特許文献1の技術を用いても、捜査官(例えば警官)が個々のカメラ装置の映像を人力で逐一視聴して確認すると逃走車両の特定に時間がかかり非効率的であるため、被疑者あるいは逃走車両の早期発見が難しいという課題があった。特に、検索の際に不要な検索結果(いわゆる検索ノイズ)が得られることを回避するために、予め不要なオブジェクト特徴要素が入力された上で検索できると、検索の効率性が増すことが期待される。
(Background to Embodiment 3)
In Patent Document 1, in view of the recent fact that the forms of cases and the like are diversifying, it is considered to search for the suspect who caused the case or the escape vehicle used by the suspect for escape. Not. In particular, in an investigation by an investigative agency such as the police (especially an initial investigation), it is often required to quickly identify the suspect or the escape vehicle in order to detect the suspect at an early stage. However, even if the technology of Patent Document 1 is used, if an investigator (for example, a police officer) manually watches and confirms the images of each camera device, it takes time to identify the escape vehicle and it is inefficient. There was a problem that it was difficult to detect a person or an escape vehicle at an early stage. In particular, in order to avoid obtaining unnecessary search results (so-called search noise) during a search, it is expected that the efficiency of the search will increase if the search can be performed after inputting unnecessary object feature elements in advance. Will be done.

(実施の形態3)
そこで、実施の形態3では、不要な検索結果を排除可能な除外検索の実行を提供するとともに、事件等を引き起こした被疑者が逃走用に使用している逃走車両の特定を早期かつ効率的に支援し、警察等の捜査機関による捜査の利便性を向上する捜査支援システムの例を説明する。実施の形態3に係る捜査支援システムの構成は実施の形態1に係る捜査支援システム1と同一であるため、同一の内容の説明は省略し、実施の形態1と異なる内容については同一の符号を参照しながら説明する。
(Embodiment 3)
Therefore, in the third embodiment, the execution of the exclusion search that can eliminate unnecessary search results is provided, and the escape vehicle used by the suspect who caused the incident or the like for escape can be identified quickly and efficiently. An example of an investigation support system that supports and improves the convenience of investigations by police and other investigative agencies will be described. Since the configuration of the investigation support system according to the third embodiment is the same as that of the investigation support system 1 according to the first embodiment, the description of the same contents is omitted, and the same reference numerals are given to the contents different from the first embodiment. It will be explained with reference to it.

図12は、実施の形態3に係る検索条件詳細画面例を示す図である。図12の検索条件詳細画面WD4は、オブジェクト(例えば人物)の検索時に、そのオブジェクト(例えば人物)に関する複数の異なるオブジェクト特徴要素(例えば人物の外見的な特徴要素)を検索条件として含めるか否かを選択可能な詳細画面である。検索条件詳細画面WD4は、ユーザ操作(例えば図7の表示アイコンCHDTL1の押下)に基づいて捜査支援アプリにより表示デバイス116に表示される。検索条件詳細画面WD4は、検索対象となるオブジェクトが検知されるべき日時(Time&Date)の入力欄表示領域と、カメラ(Camera)の選択欄表示領域と、検索対象となるオブジェクトの指定欄表示領域と、指定されたオブジェクトに関するオブジェクト特徴要素の指定欄表示領域とを含む。図12の例では、検索対象となるオブジェクトとしてユーザ操作により人物が指定されている。 FIG. 12 is a diagram showing an example of a detailed search condition screen according to the third embodiment. Whether or not the search condition detail screen WD4 of FIG. 12 includes a plurality of different object feature elements (for example, appearance feature elements of a person) related to the object (for example, a person) as search conditions when searching for an object (for example, a person). This is a detailed screen where you can select. The search condition detail screen WD4 is displayed on the display device 116 by the investigation support application based on the user operation (for example, pressing the display icon CHDTL1 in FIG. 7). The search condition detail screen WD4 has an input field display area for the date and time (Time & Date) at which the object to be searched should be detected, a selection field display area for the camera (Camera), and a specification field display area for the object to be searched. , Includes a designated field display area for object feature elements for the specified object. In the example of FIG. 12, a person is specified by a user operation as an object to be searched.

日時開始入力欄FR2は、オブジェクト(例えば被疑者等の人物、逃走車両等の車両)の検索の対象となる撮像映像データが撮像された開始日時として、ユーザ操作により入力される。日時開始入力欄FR2には、例えば、事件等の発生日時またはその日時より少し前の日時が入力される。ユーザ操作により入力されると、捜査支援アプリは、検索条件(例えば開始日時)として日時開始入力欄FR2に入力された日時(例えば2019年9月5日の午後7時13分3秒)を検索条件としてセットする。 The date and time start input field FR2 is input by user operation as the start date and time when the captured image data to be searched for the object (for example, a person such as a suspect, a vehicle such as an escape vehicle) is captured. In the date and time start input field FR2, for example, the date and time when the incident or the like occurred or a date and time slightly earlier than that date and time is input. When input by user operation, the investigation support application searches for the date and time entered in the date and time start input field FR2 (for example, 7:13:03 pm on September 5, 2019) as a search condition (for example, start date and time). Set as a condition.

日時終了入力欄TO2は、オブジェクト(例えば被疑者等の人物、逃走車両等の車両)の検索の対象となる撮像映像データが撮像された終了日時として、ユーザ操作により入力される。日時終了入力欄TO2には、例えば、日時開始入力欄に入力される日時より所定期間(例えば事件等の発生日時から少し後の日時)が入力される。ユーザ操作により入力されると、捜査支援アプリは、検索条件(例えば終了日時)として日時終了入力欄TO2に入力された日時(例えば2019年9月6日の午後7時13分3秒)を検索条件としてセットする。 The date and time end input field TO2 is input by user operation as the end date and time when the captured image data to be searched for the object (for example, a person such as a suspect or a vehicle such as an escape vehicle) is captured. In the date and time end input field TO2, for example, a predetermined period (for example, a date and time slightly after the occurrence date and time of an incident or the like) is input from the date and time entered in the date and time start input field. When input by user operation, the investigation support application searches for the date and time (for example, 7:13:03 pm on September 6, 2019) entered in the date and time end input field TO2 as a search condition (for example, end date and time). Set as a condition.

カメラ(Camera)の選択欄では、検索の対象となるカメラの選択を促すためのカメラ選択アイコンが配置されている。 In the camera (Camera) selection field, a camera selection icon is arranged to prompt the selection of the camera to be searched.

オブジェクトの指定欄OBDTL1では、例えば人物(People)、顔(Face)、車両(Vehicle)、ライセンスプレート(License Plates)の4種類のオブジェクトが指定可能に表示されている。図12の例では、オブジェクトとして人物(People)がユーザ操作により指定されている。なお、捜査支援アプリは、人物(People)の検索として、1つ以上の外見的な特徴要素(Feature)を満たす検索と、特定の人物画像(Image)と同一あるいは類似する検索とのどちらも実行可能である。ここでは、外見的な特徴要素(Feature)を満たす検索が指定されている。また、オブジェクトの指定欄OBDTL1では、オブジェクト特徴要素の指定欄PSDTL1でのユーザ操作によるオブジェクト特徴要素の指定結果CON1が表示される。 In the object designation field OBDTL1, for example, four types of objects such as a person (People), a face (Face), a vehicle (Vehicle), and a license plate (License Plates) are displayed so that they can be designated. In the example of FIG. 12, a person (People) is designated as an object by a user operation. The investigation support application executes both a search that satisfies one or more appearance feature elements (Fature) and a search that is the same as or similar to a specific person image (Image) as a search for a person (People). It is possible. Here, a search that satisfies the appearance feature element (Fature) is specified. Further, in the object designation field OBDTL1, the object feature element designation result CON1 by the user operation in the object feature element designation field PSDTL1 is displayed.

オブジェクト特徴要素の指定欄PSDTL1では、性別(Gender)の指定欄GN1、髪型(Hair type)の指定欄HTY1、髪色(Hair color)の指定欄HCL1、上着色(Upper cloth color)の指定欄UCC1、下着色(Lower cloth color)の指定欄LCC1、所持品の指定欄BG1、他特徴の指定欄PSOCH1が設けられている。 In the object feature element designation field PSDTL1, the gender designation field GN1, the hair type designation field HTY1, the hair color designation field HCL1, and the upper color designation field UCC1. , A designated column LCC1 for lower color, a designated column BG1 for belongings, and a designated column PSOCH1 for other features are provided.

性別(Gender)の指定欄GN1では、ユーザ操作により、検索される人物が男性または女性のうちいずれであるかが指定される。 In the gender (Gender) designation field GN1, it is specified by the user operation whether the person to be searched is male or female.

髪型(Hair type)の指定欄HTY1では、ユーザ操作により、検索される人物の髪型がロング、セミロング、その他のうちいずれであるかが指定される。 In the hairstyle (Hair type) designation field HTY1, it is specified by the user operation whether the hairstyle of the person to be searched is long, semi-long, or the like.

髪色(Hair color)の指定欄HCL1では、ユーザ操作により、検索される人物の髪色が例えば5種類の色から少なくとも1つが指定される。また、検索の除外とする髪色も指定可能であり、髪色除外欄EXL1も設けられている。例えば、黄色および髪色除外欄EXL1がともに指定されると、捜査支援アプリは、黄色の髪色でない色を人物の検索条件としてセットする。 In the hair color (Hair color) designation field HCL1, at least one of five types of hair colors of the person to be searched is designated by the user operation. In addition, a hair color to be excluded from the search can be specified, and a hair color exclusion column EXL1 is also provided. For example, when both yellow and the hair color exclusion column EXL1 are specified, the investigation support application sets a color other than yellow hair color as a search condition for a person.

トップスの服色(Upper cloth color)の指定欄UCC1では、ユーザ操作により、検索される人物のトップス(つまり上半身を覆う服を意味する上衣)の色が例えば11種類の色から少なくとも1つが指定される。また、検索の除外とするトップスの色も指定可能であり、服色除外欄EXL2も設けられている。例えば、白色および服色除外欄EXL2がともに指定されると、捜査支援アプリは、トップスの服色として白以外の色を人物の検索条件としてセットする。 In the designation field UCC1 of the clothing color of the tops (Upper cross color), at least one color of the tops (that is, the clothing that covers the upper body) of the person to be searched is specified from, for example, 11 kinds of colors by the user operation. To. In addition, the color of the tops to be excluded from the search can be specified, and the clothing color exclusion column EXL2 is also provided. For example, when both white and the clothing color exclusion column EXL2 are specified, the investigation support application sets a color other than white as the clothing color of the tops as a search condition for the person.

ボトムスの服色(Lower cloth color)の指定欄LCC1では、ユーザ操作により、検索される人物のボトムス(つまり下半身を覆う服を意味する下衣)の色が例えば5種類の色から少なくとも1つが指定される。また、検索の除外とするボトムスの色も指定可能であり、服色除外欄EXL3も設けられている。例えば、青色および服色除外欄EXL3がともに指定されると、捜査支援アプリは、ボトムスの服色として青以外の色を人物の検索条件としてセットする。 In the specification field LCC1 of the clothing color of the bottoms (Lower cross color), at least one of the five colors of the bottoms (that is, the clothing that covers the lower body) of the person to be searched is specified by the user operation. Will be done. In addition, the color of the bottoms to be excluded from the search can be specified, and the clothing color exclusion column EXL3 is also provided. For example, when both blue and the clothing color exclusion column EXL3 are specified, the investigation support application sets a color other than blue as the clothing color of the bottoms as a search condition for the person.

所持品の指定欄BG1では、ユーザ操作により、検索される人物がリュックサック、キャリーケース(スーツケースでも可)、所持品無しのうちいずれであるかが指定される。 In the personal belongings designation field BG1, it is specified by the user operation whether the person to be searched is a rucksack, a carry case (a suitcase is also possible), or no personal belongings.

他特徴の指定欄PSOCH1では、ユーザ操作により、検索される人物の年齢、皮膚、眼鏡、帽子、顎ひげのそれぞれについて該当する項目が指定される。年齢は、0〜12歳、13〜19歳、20〜60歳、61歳以上のうちいずれかが指定可能である。皮膚は、明るい、中間、暗い、のうちいずれかが指定可能である。眼鏡は、装着している、装着していない、のうちいずれかが指定可能である。帽子は、装着している、装着していない、のうちいずれかが指定可能である。顎ひげは、ある、ない、のうちいずれかが指定可能である。 In the designation field PSOCH1 of other features, the corresponding items are designated for each of the age, skin, glasses, hat, and beard of the person to be searched by the user operation. The age can be specified from 0 to 12 years old, 13 to 19 years old, 20 to 60 years old, and 61 years old or older. The skin can be designated as bright, medium, or dark. The spectacles can be either worn or not worn. The hat can be either worn or not worn. The beard can be specified with or without.

図13は、実施の形態3に係る検索条件入力画面の一部の表示例を示す図である。図13の検索条件入力画面WD5は、複数のオブジェクト(例えば顔、人物)を同時に満たすAND検索時に、ユーザ(例えば警察署のオペレータあるいは現場の警官)の操作により、捜査支援アプリにより表示デバイス116に表示される。なお、図13では、検索条件入力画面WD5のうち検索条件の入力に関する一部分を抜粋して図示している。図13の説明において、図7の要素と同一の要素については同一の符号を付与して説明を簡略化あるいは省略し、異なる内容について説明する。 FIG. 13 is a diagram showing a display example of a part of the search condition input screen according to the third embodiment. The search condition input screen WD5 of FIG. 13 is displayed on the display device 116 by the investigation support application by the operation of the user (for example, a police station operator or a police officer at the scene) during an AND search that simultaneously satisfies a plurality of objects (for example, a face or a person). Is displayed. Note that FIG. 13 is an excerpt of a part of the search condition input screen WD5 relating to the input of the search condition. In the description of FIG. 13, the same elements as those of FIG. 7 are given the same reference numerals to simplify or omit the description, and different contents will be described.

図13の検索条件入力画面WD5において、人物検索条件欄PSC1には、検索除外アイコンEXC1と、表示アイコンCHDTL1の押下により表示された検索条件詳細画面(例えば図12参照)に従ってユーザ操作により指定された検索条件の指定結果CON2とが表示されている。この指定結果CON2は、例えば4つのオブジェクト特徴要素“男性”、“白い服”、“黒いズボン”、“所持品無し”を示す。しかし、検索除外アイコンEXC1がユーザ操作により選択されているので、捜査支援アプリは、人物検索のためのオブジェクト特徴要素として“男性”、“白色以外の服”、“黒色以外のズボン”、“所持品無し”を検索条件としてセットする。検索除外アイコンEXC1の選択により、髪色除外欄EXL1が設けられた髪色、服色除外欄EXL2が設けられたトップス、服色除外欄EXL3が設けられたボトムス、の3つのオブジェクト特徴要素については指定された色以外の色の指定が可能となる。また、顔検索条件欄PSC2には、特定の人物の顔画像BOY1がアップロード(貼り付け)されている。したがって、捜査支援アプリは、図13の検索条件入力画面WD5により、特定の人物の顔画像BOY1と同一あるいは類似する顔を有し、かつ“男性”、“白色以外の服”、“黒色以外のズボン”、“所持品無し”(言い換えると、制服を着用していない男性)を満たす人物を検索するための検索要求を生成してAI統合サーバ10に送る。なお、この検索要求には、特定の人物の顔画像BOY1のデータも含まれる。 In the search condition input screen WD5 of FIG. 13, the person search condition field PSC1 is designated by the user operation according to the search condition detail screen (see, for example, FIG. 12) displayed by pressing the search exclusion icon EXC1 and the display icon CHDTL1. The search condition specification result CON2 is displayed. This designation result CON2 indicates, for example, four object feature elements "male", "white clothes", "black trousers", and "no belongings". However, since the search exclusion icon EXC1 is selected by user operation, the investigation support application has "male", "non-white clothes", "non-black pants", and "possession" as object feature elements for person search. Set "No item" as a search condition. By selecting the search exclusion icon EXC1, the three object feature elements are the hair color provided with the hair color exclusion column EXL1, the tops provided with the clothing color exclusion column EXL2, and the bottoms provided with the clothing color exclusion column EXL3. It is possible to specify a color other than the specified color. Further, a face image BOY1 of a specific person is uploaded (pasted) in the face search condition field PSC2. Therefore, the investigation support application has the same or similar face as the face image BOY1 of a specific person by the search condition input screen WD5 of FIG. 13, and has "male", "clothes other than white", and "other than black". A search request for searching for a person who satisfies "trousers" and "no belongings" (in other words, a man who does not wear a uniform) is generated and sent to the AI integrated server 10. The search request also includes data on the face image BOY1 of a specific person.

次に、実施の形態3に係る捜査支援システム1の動作手順例について、図14を参照して説明する。図14は、実施の形態3に係る捜査支援システム1の動作手順例を示すシーケンス図である。図14では図13の検索条件入力画面WD5で指定された検索条件を用いた検索処理の流れを時系列に説明する。 Next, an example of the operation procedure of the investigation support system 1 according to the third embodiment will be described with reference to FIG. FIG. 14 is a sequence diagram showing an example of an operation procedure of the investigation support system 1 according to the third embodiment. In FIG. 14, the flow of the search process using the search condition specified on the search condition input screen WD5 of FIG. 13 will be described in chronological order.

図14において、クライアント端末VW1は、特定の人物の顔画像と同一あるいは類似する顔を有し、かつ“男性”、“白色以外の服”、“黒色以外のズボン”、“所持品無し”を満たす人物を検索するための検索要求を生成してAI統合サーバ10に送る(St41)。 In FIG. 14, the client terminal VW1 has a face that is the same as or similar to the face image of a specific person, and has "male", "non-white clothes", "non-black trousers", and "no belongings". A search request for searching for a person to be satisfied is generated and sent to the AI integrated server 10 (St41).

AI統合サーバ10は、特定の人物の顔画像を添付した状態でステップSt41で送られた検索要求を顔認証サーバ50に転送する(St42)。顔認証サーバ50は、ステップSt42で送られた検索要求に従い、データベース52を参照して特定の人物の顔画像と同一あるいは類似する人物の顔画像の有無を判定する(St43)。顔認証サーバ50は、特定の人物の顔画像と同一あるいは類似する人物の顔画像があると判定した場合(St43、YES)、該当する顔画像と、その顔画像を撮像したカメラの識別情報(例えばカメラID)と、その顔画像が撮像された撮像時刻と、その顔画像中の顔の位置を特定する顔座標とを含む該当情報(検索結果)をAI統合サーバ10に送る(St44)。なお、特定の人物の顔画像と同一あるいは類似する人物の顔画像がなかったと判定された場合には(St43、NO)、顔認証サーバ50は、上述した該当情報(検索結果)が無かった旨の報告をAI統合サーバ10に送る(St45)。 The AI integrated server 10 transfers the search request sent in step St41 with the face image of a specific person attached to the face recognition server 50 (St42). The face recognition server 50 determines whether or not there is a face image of a person who is the same as or similar to the face image of a specific person by referring to the database 52 according to the search request sent in step St42 (St43). When the face authentication server 50 determines that there is a face image of a person who is the same as or similar to the face image of a specific person (St43, YES), the corresponding face image and the identification information of the camera that captured the face image (St43, YES). For example, the corresponding information (search result) including the camera ID), the imaging time at which the face image was captured, and the face coordinates that specify the position of the face in the face image is sent to the AI integrated server 10 (St44). If it is determined that there is no face image of a person who is the same as or similar to the face image of a specific person (St43, NO), the face recognition server 50 does not have the above-mentioned corresponding information (search result). Is sent to the AI integrated server 10 (St45).

AI統合サーバ10は、複数のオブジェクト(例えば顔、人物)を同時に満たすAND検索を行うために、ステップSt44で送られた該当情報(検索結果)のうちカメラIDおよび撮像時刻を、後続する人物検索の検索条件として使用することを決定する(St46)。 The AI integrated server 10 searches for the camera ID and the imaging time of the corresponding information (search results) sent in step St44 in order to perform an AND search that simultaneously fills a plurality of objects (for example, a face and a person). It is decided to use it as a search condition of (St46).

次、AI統合サーバ10は、ステップSt46で決定されたカメラIDおよび撮像時刻と4つのオブジェクト特徴要素“男性”、“白色の服”、“黒色のズボン”、“所持品無し”とを含む検索要求を生成して人物検索サーバ60に送る(St47)。人物検索サーバ60は、ステップSt47で送られた検索要求に従い、データベース62を参照して上述した4つのオブジェクト特徴要素“男性”、“白色の服”、“黒色のズボン”、“所持品無し”を満たす人物の有無を判定する(St48)。人物検索サーバ60は、該当する人物がいると判定した場合(St48、YES)、該当する人物の全身画像と、その全身画像を撮像したカメラの識別情報(例えばカメラID)と、その全身画像が撮像された撮像時刻とを含む該当情報(検索結果)をAI統合サーバ10に送る(St49)。 Next, the AI integrated server 10 searches for the camera ID and imaging time determined in step St46 and the four object feature elements "male", "white clothes", "black trousers", and "no belongings". A request is generated and sent to the person search server 60 (St47). According to the search request sent in step St47, the person search server 60 refers to the database 62 and refers to the above-mentioned four object feature elements “male”, “white clothes”, “black trousers”, and “no belongings”. It is determined whether or not there is a person who satisfies the condition (St48). When the person search server 60 determines that there is a corresponding person (St48, YES), the whole body image of the corresponding person, the identification information (for example, camera ID) of the camera that captured the whole body image, and the whole body image are displayed. The corresponding information (search result) including the imaged imaging time is sent to the AI integrated server 10 (St49).

AI統合サーバ10は、ステップSt44で送られた検索結果(つまり顔画像検索結果)から、ステップSt44で送られた検索結果(つまり顔画像検索結果)のうちステップSt49で送られた検索結果(つまり人物検索結果)に含まれる人物の全身画像と対応するカメラIDおよび撮像時刻が同一となる顔画像検索結果を除外する(St50)。これにより、AI統合サーバ10は、特定の人物の顔画像と同一あるいは類似する顔を有しながら、“男性”、“白色以外の服”、“黒色以外のズボン”、“所持品無し”を満たす人物の検索結果(つまり図13を参照して説明した除外検索結果)を効率的に抽出できる。 The AI integrated server 10 has a search result sent in step St49 (that is, a face image search result) among the search results sent in step St44 (that is, a face image search result) from the search result sent in step St44 (that is, a face image search result). The face image search result in which the camera ID and the imaging time are the same as the whole body image of the person included in the person search result) is excluded (St50). As a result, the AI integrated server 10 has the same or similar face as the face image of a specific person, while "male", "non-white clothes", "non-black trousers", and "no belongings". The search results of the satisfying person (that is, the exclusion search results described with reference to FIG. 13) can be efficiently extracted.

一方で、該当する人物がいなかったと判定された場合(St48、NO)、人物検索サーバ60は、上述した該当情報(検索結果)が無かった旨の報告をAI統合サーバ10に送る(St51)。AI統合サーバ10は、ステップSt50で抽出された検索結果(該当の顔画像、カメラID、撮像時刻を含む)をクライアント端末VW1に送る(St52)。クライアント端末VW1は、ステップSt52で送られた検索結果(上述参照)を含む除外検索結果画面(図示略)を表示デバイス116に表示する(St53)。 On the other hand, when it is determined that there is no corresponding person (St48, NO), the person search server 60 sends a report to the AI integrated server 10 (St51) that the above-mentioned corresponding information (search result) is not found. The AI integrated server 10 sends the search result (including the corresponding face image, camera ID, and imaging time) extracted in step St50 to the client terminal VW1 (St52). The client terminal VW1 displays an exclusion search result screen (not shown) including the search result (see above) sent in step St52 on the display device 116 (St53).

以上により、実施の形態3に係る捜査支援システム1は、ユーザ端末と、少なくとも第1の解析サーバ(例えば顔認証サーバ50)および第2の解析サーバ(例えば人物検索サーバ60)との間で通信可能に接続されるAI統合サーバ10とを含む。AI統合サーバ10は、事件等に関する第1のオブジェクト特徴要素(例えば特定の人物の顔画像)と検索除外対象となる事件等に関する第2のオブジェクト特徴要素(例えば人物の外見的な特徴要素)とを含む検索条件をユーザ端末から受け取ると第1のオブジェクト特徴要素を満たす該当オブジェクトの検索要求を顔認証サーバ50に送りかつ第2のオブジェクト特徴要素を満たす該当オブジェクトの検索要求を人物検索サーバ60に送る。AI統合サーバ10は、第1のオブジェクト特徴要素を満たす該当オブジェクトを含む第1の検索結果を顔認証サーバ50から受け取りかつ第2のオブジェクト特徴要素を満たす該当オブジェクトを含む第2の検索結果を人物検索サーバ60から受け取る。AI統合サーバ10は、第1の検索結果から第2の検索結果を除外した第3の検索結果をユーザ端末に送る。ユーザ端末は、AI統合サーバ10から送られた第3の検索結果を含む検索結果画面を表示する。 As described above, the investigation support system 1 according to the third embodiment communicates between the user terminal and at least the first analysis server (for example, face recognition server 50) and the second analysis server (for example, person search server 60). Includes an AI integrated server 10 that can be connected. The AI integrated server 10 includes a first object feature element related to an incident or the like (for example, a face image of a specific person) and a second object feature element related to an incident or the like to be searched excluded (for example, an external feature element of a person). When a search condition including is received from the user terminal, a search request for the corresponding object satisfying the first object feature element is sent to the face authentication server 50, and a search request for the corresponding object satisfying the second object feature element is sent to the person search server 60. send. The AI integrated server 10 receives the first search result including the corresponding object satisfying the first object feature element from the face authentication server 50 and receives the second search result including the corresponding object satisfying the second object feature element as a person. Received from the search server 60. The AI integrated server 10 sends a third search result, which is obtained by excluding the second search result from the first search result, to the user terminal. The user terminal displays a search result screen including the third search result sent from the AI integrated server 10.

これにより、捜査支援システム1は、事件等を引き起こした被疑者が逃走用に使用している逃走車両の特定を早期かつ効率的に支援し、警察等の捜査機関による捜査の利便性を向上できる。また、捜査支援システム1は、オブジェクト(例えば人物、車両)ごとに検索が不要となるオブジェクト特徴要素をユーザ操作によって指定可能となるので、ユーザが求めるオブジェクトを検索する際に不要な検索結果(いわゆる検索ノイズ)が抽出されにくくなり、オブジェクト検索の精度が向上する。 As a result, the investigation support system 1 can quickly and efficiently support the identification of the escape vehicle used by the suspect who caused the incident, etc., and improve the convenience of the investigation by the police or other investigative agency. .. Further, in the investigation support system 1, it is possible to specify an object feature element that does not need to be searched for each object (for example, a person or a vehicle) by a user operation, so that an unnecessary search result (so-called so-called) when searching for an object desired by the user can be specified. Search noise) is less likely to be extracted, and the accuracy of object search is improved.

また、第1の検索結果は、第1のオブジェクト特徴要素を満たす該当オブジェクトを撮像したカメラの識別情報および撮像時刻情報を含む。第2の検索結果は、第2のオブジェクト特徴要素を満たす該当オブジェクトを撮像したカメラの識別情報および撮像時刻情報を含む。AI統合サーバ10は、第1の検索結果および第2の検索結果のそれぞれに含まれるカメラの識別情報および撮像時刻情報が共通となる第2の検索結果に基づいて、第3の検索結果を抽出する。これにより、カメラIDおよび撮像時刻が共通する第2の検索結果はユーザ操作により除外対象として指定されたオブジェクトに相当するので、第1の検索結果から除外する(つまり取り除く)ことで、AI統合サーバ10は、除外検索結果を効率的かつ簡易に抽出できる。 In addition, the first search result includes identification information and imaging time information of a camera that has imaged the corresponding object satisfying the first object feature element. The second search result includes identification information and imaging time information of a camera that has imaged the corresponding object satisfying the second object feature element. The AI integrated server 10 extracts a third search result based on the second search result in which the camera identification information and the imaging time information included in each of the first search result and the second search result are common. To do. As a result, the second search result having the same camera ID and imaging time corresponds to the object specified as the exclusion target by the user operation. Therefore, by excluding (that is, removing) from the first search result, the AI integrated server No. 10 can efficiently and easily extract the exclusion search result.

また、ユーザ端末は、第1のオブジェクト特徴要素あるいは第2のオブジェクト特徴要素を構成する一部のオブジェクト特徴要素を検索除外対象として指定した除外付き検索条件をAI統合サーバ10に送る。AI統合サーバ10は、除外付き検索条件を満たす該当オブジェクトの検索要求を第1の解析サーバ(例えば顔認証サーバ50)あるいは第2の解析サーバ(例えば人物検索サーバ60)に送る。AI統合サーバ10は、第1の解析サーバあるいは第2の解析サーバからの検索結果を受け取ってユーザ端末に送る。これにより、ユーザは、一つのオブジェクトのオブジェクト特徴要素を詳細に指定可能な検索条件詳細画面WD4において一部のオブジェクト特徴要素を検索除外対象として指定でき、複雑な検索条件を指定でき、検索のバリエーションを図ることができる。 Further, the user terminal sends a search condition with exclusion to the AI integrated server 10 in which the first object feature element or a part of the object feature elements constituting the second object feature element is designated as the search exclusion target. The AI integrated server 10 sends a search request for the corresponding object satisfying the search condition with exclusion to the first analysis server (for example, face recognition server 50) or the second analysis server (for example, person search server 60). The AI integrated server 10 receives the search result from the first analysis server or the second analysis server and sends it to the user terminal. As a result, the user can specify some object feature elements as search exclusion targets on the search condition detail screen WD4 that can specify the object feature elements of one object in detail, and can specify complicated search conditions, and search variations. Can be planned.

(実施の形態4に至る経緯)
特許文献1では、事件等の形態が多様化しているという昨今の実情に鑑みて、事件等を引き起こした被疑者あるいは被疑者が逃走用に使用している逃走車両の存在を外部の端末等に通知することは考慮されていない。特に、警察等の捜査機関による捜査(特に初動捜査)においては、被疑者を早期に発見するために被疑者あるいは逃走車両をいち早く特定することが求められることが多い。しかし、特許文献1の技術を用いても、捜査官(例えば警官)が個々のカメラ装置の映像を人力で逐一視聴して確認すると逃走車両の特定に時間がかかり非効率的であるため、被疑者あるいは逃走車両の早期発見が難しいという課題があった。特に、捜査範囲が広いエリアにわたる場合、事件等に関する被疑者あるいは逃走車両のオブジェクト特徴要素が予め照合リストとして登録されていれば、その照合リストにマッチする人物あるいは車両が検知されれば、被疑者あるいは逃走車両である可能性が高まり、捜査の進展に期待がかかることが予想される。
(Background to Embodiment 4)
In Patent Document 1, in view of the recent fact that the forms of cases and the like are diversifying, the existence of the suspect who caused the case or the escape vehicle used by the suspect for escape is transmitted to an external terminal or the like. Notification is not considered. In particular, in an investigation by an investigative agency such as the police (especially an initial investigation), it is often required to quickly identify the suspect or the escape vehicle in order to detect the suspect at an early stage. However, even if the technology of Patent Document 1 is used, if an investigator (for example, a police officer) manually watches and confirms the images of each camera device, it takes time to identify the escape vehicle and it is inefficient. There was a problem that it was difficult to detect a person or an escape vehicle at an early stage. In particular, when the investigation range covers a wide area, if the suspect or the object feature element of the escape vehicle related to the incident is registered as a collation list in advance, if a person or vehicle matching the collation list is detected, the suspect Alternatively, it is more likely that it is an escape vehicle, and it is expected that the progress of the investigation will be expected.

(実施の形態4)
そこで、実施の形態4では、捜査エリアが広くても事件等に関する被疑者あるいは逃走車両の存在を示すイベントの検知を通知するとともに、事件等を引き起こした被疑者が逃走用に使用している逃走車両の特定を早期かつ効率的に支援し、警察等の捜査機関による捜査の利便性を向上する捜査支援システムの例を説明する。実施の形態4に係る捜査支援システムの構成は実施の形態1に係る捜査支援システム1と同一であるため、同一の内容の説明は省略し、実施の形態1と異なる内容については同一の符号を参照しながら説明する。
(Embodiment 4)
Therefore, in the fourth embodiment, even if the investigation area is wide, the detection of the event indicating the existence of the suspect or the escape vehicle related to the incident or the like is notified, and the escape used by the suspect who caused the incident or the like for the escape. An example of an investigation support system that supports the identification of a vehicle quickly and efficiently and improves the convenience of an investigation by an investigative agency such as the police will be described. Since the configuration of the investigation support system according to the fourth embodiment is the same as that of the investigation support system 1 according to the first embodiment, the description of the same contents is omitted, and the same reference numerals are given to the contents different from the first embodiment. It will be explained with reference to it.

図15は、イベント検知運用画面例を示す図である。図15のイベント検知運用画面WD6は、例えば事件等の捜査エリアが広い建物内のある階のフロアである場合に、そのフロア内に配置されている複数台のカメラ(図2参照)のそれぞれの配置位置が重畳された地図データFLMP1を少なくとも表示する。イベント検知運用画面WD6は、ユーザ操作あるいはAI統合サーバ10からのイベント通知に基づいて、捜査支援アプリにより表示される。イベント検知運用画面WD6は、フロア内で検知された数々のイベントの日時(Date/Time)、カメラ(Camera)、イベント種別を示すイベント(Event)の名前(イベント名)の項目の内容データをそれぞれ有するイベントレコードから構成されるイベントリストEVLST1を表示する。イベントリストEVLST1では、検知されたイベントの日時の新しいイベントレコードが上側に表示され、検知されたイベントの日時の古いイベントレコードが下側に表示される。 FIG. 15 is a diagram showing an example of an event detection operation screen. The event detection operation screen WD6 of FIG. 15 is, for example, when the investigation area for an incident or the like is a floor on a certain floor in a large building, each of the plurality of cameras (see FIG. 2) arranged in the floor. At least the map data FLMP1 on which the arrangement positions are superimposed is displayed. The event detection operation screen WD6 is displayed by the investigation support application based on the user operation or the event notification from the AI integrated server 10. The event detection operation screen WD6 displays the content data of the items of the date and time (Date / Time) of various events detected on the floor, the camera (Camera), and the name (event name) of the event (Event) indicating the event type. The event list EVLST1 composed of the event records to be held is displayed. In the event list EVLST1, the new event record with the date and time of the detected event is displayed at the upper side, and the old event record with the date and time of the detected event is displayed at the lower side.

また、イベント検知運用画面WD6の地図データFLMP1には、カメラC1,C2,C3の配置位置ごとに、そのカメラの撮像映像データに基づいて検知されたイベントのイベント名および件数を示すイベント抄録ウインドウNUM1,NUM2が捜査支援アプリにより表示される。例えば、カメラC1の配置位置では、イベント“People Matching”が1件検知されたことが示されている。同様に、カメラC2の配置位置では、イベント“Face Matching”,“People Matching”がそれぞれ1件検知されたことが示されている。また、カメラの配置位置ごとに、イベント抄録ウインドウNUM1,NUM2とともに、同様に検知されたイベントの日時(Date/Time)を示すイベントアイコンEV1,EV2,EV3,EV4が捜査支援アプリにより表示される。これにより、ユーザは、イベント抄録ウインドウNUM1で示される1件のイベントの日時をイベントアイコンEV1により判明可能である。 Further, in the map data FLMP1 of the event detection operation screen WD6, the event abstract window NUM1 indicating the event name and the number of events detected based on the captured image data of the cameras for each of the arrangement positions of the cameras C1, C2, and C3. , NUM2 is displayed by the investigation support application. For example, it is shown that one event "People Matching" was detected at the arrangement position of the camera C1. Similarly, it is shown that one event "Face Matching" and one event "People Matching" were detected at the arrangement position of the camera C2. In addition, the event icons EV1, EV2, EV3, and EV4 indicating the date and time (Date / Time) of the detected event are displayed by the investigation support application together with the event abstract windows NUM1 and NUM2 for each position of the camera. As a result, the user can find out the date and time of one event indicated by the event abstract window NUM1 by the event icon EV1.

また、捜査支援アプリは、例えばカメラの配置位置、イベントアイコンあるいはイベント抄録ウインドウ内のイベント名がユーザ操作により押下されたことを検知すると、イベントリストEVLST1の対応するイベントレコードをハイライト表示するとともに、その押下に対応するイベントのイベント詳細ウインドウEVDTL1をイベント検知運用画面WD6に表示する。イベント詳細ウインドウEVDTL1は、該当するイベントが検知された撮像映像データを撮像したカメラの配置位置DTARE1が重畳された地図データFLMP1vと、ライブ映像ボタンLV1と、再生ボタンPY1とを少なくとも含む。 In addition, when the investigation support application detects that, for example, the camera placement position, the event icon, or the event name in the event abstract window is pressed by a user operation, the investigation support application highlights the corresponding event record in the event list EVLST1 and highlights the event record. The event details window EVDTL1 of the event corresponding to the pressing is displayed on the event detection operation screen WD6. The event details window EVDTL1 includes at least map data FLMP1v on which the arrangement position DTARE1 of the camera that has captured the captured image data in which the corresponding event is detected is superimposed, the live image button LV1, and the play button PY1.

ライブ映像ボタンLV1がユーザ操作により押下されたことが検知されると、捜査支援アプリは、配置位置DTARE1のカメラのライブ映像EVD1をライブ映像画面MOV1に出力する。なお、このライブ映像画面MOV1にはライブ映像のスナップショットの保存が可能となるスナップショットアイコンSNP1が表示されている。 When it is detected that the live video button LV1 is pressed by the user operation, the investigation support application outputs the live video EVD1 of the camera at the arrangement position DTARE1 to the live video screen MOV1. A snapshot icon SNP1 that enables saving of a snapshot of the live video is displayed on the live video screen MOV1.

また、再生ボタンPY1がユーザ操作により押下されたことが検知されると、捜査支援アプリは、配置位置DTARE1のカメラのイベント検知日時における過去の撮像映像(図示略)を再生する。この撮像映像は、捜査支援アプリにより、例えばライブ映像画面MOV1において再生表示されてもよい。 Further, when it is detected that the play button PY1 is pressed by the user operation, the investigation support application reproduces the past captured image (not shown) at the event detection date and time of the camera at the arrangement position DTARE1. This captured image may be reproduced and displayed on, for example, the live image screen MOV1 by the investigation support application.

次に、実施の形態4に係る捜査支援システム1の動作手順例について、図16を参照して説明する。図16は、実施の形態4に係る捜査支援システム1の動作手順例を示すシーケンス図である。図16では図15のイベント検知運用画面WD6の表示に至る処理の流れを時系列に説明する。また、図16の説明の前提として、オブジェクトを検索可能な解析サーバの一例として人物検索サーバ60、車両検索サーバ80および顔認証サーバ50が接続されている。 Next, an example of the operation procedure of the investigation support system 1 according to the fourth embodiment will be described with reference to FIG. FIG. 16 is a sequence diagram showing an example of an operation procedure of the investigation support system 1 according to the fourth embodiment. In FIG. 16, the flow of processing leading to the display of the event detection operation screen WD6 of FIG. 15 will be described in chronological order. Further, as a premise of the explanation of FIG. 16, a person search server 60, a vehicle search server 80, and a face recognition server 50 are connected as an example of an analysis server capable of searching for an object.

図16において、人物検索サーバ60、車両検索サーバ80、顔認証サーバ50、それぞれが検知するべきイベントの実行者であるオブジェクトのオブジェクト特徴要素が登録された照合リストをデータベース62,82,52にそれぞれ保持している(St61,St62,St63)。例えば人物検索サーバ60は、人物のサムネイル画像および人物属性(例えば外見的な特徴要素)を有する照合リストを登録してデータベース62に保持している。同様に、車両検索サーバ80は、車両のサムネイル画像および車両属性(例えば車型、車色)を有する照合リストをデータベース82に登録して保持している。顔認証サーバ50は、人物の顔のサムネイル画像を有する照合リストをデータベース52に登録して保持している。 In FIG. 16, collation lists in which the object feature elements of the person search server 60, the vehicle search server 80, the face authentication server 50, and the object that is the executor of the event to be detected are registered are stored in the databases 62, 82, 52, respectively. It holds (St61, St62, St63). For example, the person search server 60 registers a collation list having a thumbnail image of a person and a person attribute (for example, an external feature element) and holds the collation list in the database 62. Similarly, the vehicle search server 80 registers and holds a collation list having a thumbnail image of a vehicle and vehicle attributes (for example, vehicle type, vehicle color) in the database 82. The face recognition server 50 registers and holds a collation list having a thumbnail image of a person's face in the database 52.

例えば人物検索サーバ60は、捜査エリアに配置されているいずれかのカメラ(例えばカメラC1)の撮像映像データの映像解析に基づいて照合リストを満たす人物(つまりイベントの行為者である人物)を検知したとする(St64)。この場合、人物検索サーバ60は、イベントを検知した日時、カメラ(配置位置の情報を含む)、イベント名の内容データを含むリアルタイム通知を生成してAI統合サーバ10に送る(St65)。AI統合サーバ10は、ステップSt65で送られたリアルタイム通知をクライアント端末VWに転送する(St66)。クライアント端末VW1は、ステップSt66で送られたリアルタイム通知に含まれる各項目の内容データに基づいて、イベントレコード(図15参照)を生成し、このイベントレコードを追加更新したイベントリストEVLST1を含むイベント検知運用画面WD6を生成して表示デバイス116に表示する(St661)。 For example, the person search server 60 detects a person who satisfies the collation list (that is, a person who is the actor of the event) based on the image analysis of the captured image data of any camera (for example, camera C1) arranged in the investigation area. (St64). In this case, the person search server 60 generates a real-time notification including the date and time when the event is detected, the camera (including the information on the arrangement position), and the content data of the event name, and sends it to the AI integrated server 10 (St65). The AI integrated server 10 transfers the real-time notification sent in step St65 to the client terminal VW (St66). The client terminal VW1 generates an event record (see FIG. 15) based on the content data of each item included in the real-time notification sent in step St66, and detects an event including the event list EVLST1 in which the event record is additionally updated. The operation screen WD6 is generated and displayed on the display device 116 (St661).

例えば顔認証サーバ50は、捜査エリアに配置されているいずれかのカメラ(例えばカメラC3)の撮像映像データの映像解析に基づいて照合リストを満たす顔(つまりイベントの行為者である人物の顔)を検知したとする(St67)。この場合、顔認証サーバ50は、イベントを検知した日時、カメラ(配置位置の情報を含む)、イベント名の内容データを含むリアルタイム通知を生成してAI統合サーバ10に送る(St68)。AI統合サーバ10は、ステップSt68で送られたリアルタイム通知をクライアント端末VWに転送する(St69)。クライアント端末VW1は、ステップSt69で送られたリアルタイム通知に含まれる各項目の内容データに基づいて、イベントレコード(図15参照)を生成し、このイベントレコードを追加更新したイベントリストEVLST1を含むイベント検知運用画面WD6を生成して表示デバイス116に表示する(St691)。 For example, the face recognition server 50 fills the collation list based on the image analysis of the captured image data of any camera (for example, camera C3) arranged in the investigation area (that is, the face of the person who is the actor of the event). Is detected (St67). In this case, the face recognition server 50 generates a real-time notification including the date and time when the event is detected, the camera (including the information on the arrangement position), and the content data of the event name, and sends it to the AI integrated server 10 (St68). The AI integrated server 10 transfers the real-time notification sent in step St68 to the client terminal VW (St69). The client terminal VW1 generates an event record (see FIG. 15) based on the content data of each item included in the real-time notification sent in step St69, and detects an event including the event list EVLST1 in which the event record is additionally updated. The operation screen WD6 is generated and displayed on the display device 116 (St691).

例えば人物検索サーバ60は、捜査エリアに配置されているいずれかのカメラ(例えばカメラC3)の撮像映像データの映像解析に基づいて照合リストを満たす人物(つまりイベントの行為者である人物)を検知したとする(St70)。この場合、人物検索サーバ60は、イベントを検知した日時、カメラ(配置位置の情報を含む)、イベント名の内容データを含むリアルタイム通知を生成してAI統合サーバ10に送る(St71)。AI統合サーバ10は、ステップSt71で送られたリアルタイム通知をクライアント端末VWに転送する(St72)。クライアント端末VW1は、ステップSt72で送られたリアルタイム通知に含まれる各項目の内容データに基づいて、イベントレコード(図15参照)を生成し、このイベントレコードを追加更新したイベントリストEVLST1を含むイベント検知運用画面WD6を生成して表示デバイス116に表示する(St721)。 For example, the person search server 60 detects a person who satisfies the collation list (that is, a person who is the actor of the event) based on the image analysis of the captured image data of any camera (for example, camera C3) arranged in the investigation area. (St70). In this case, the person search server 60 generates a real-time notification including the date and time when the event is detected, the camera (including the information on the arrangement position), and the content data of the event name, and sends it to the AI integrated server 10 (St71). The AI integrated server 10 transfers the real-time notification sent in step St71 to the client terminal VW (St72). The client terminal VW1 generates an event record (see FIG. 15) based on the content data of each item included in the real-time notification sent in step St72, and detects an event including the event list EVLST1 in which the event record is additionally updated. The operation screen WD6 is generated and displayed on the display device 116 (St721).

例えば車両検索サーバ80は、捜査エリアに配置されているいずれかのカメラ(例えばカメラC10)の撮像映像データの映像解析に基づいて照合リストを満たす車両(つまりイベントの行為者である車両)を検知したとする(St73)。なお、カメラC10は図15において図示されていないが、例えば捜査エリアの建物外の駐車場等を撮像することが可能であり、被疑者が逃走時の逃走車両を撮像できる。この場合、車両検索サーバ80は、イベントを検知した日時、カメラ(配置位置の情報を含む)、イベント名の内容データを含むリアルタイム通知を生成してAI統合サーバ10に送る(St74)。AI統合サーバ10は、ステップSt74で送られたリアルタイム通知をクライアント端末VWに転送する(St75)。クライアント端末VW1は、ステップSt75で送られたリアルタイム通知に含まれる各項目の内容データに基づいて、イベントレコード(図15参照)を生成し、このイベントレコードを追加更新したイベントリストEVLST1を含むイベント検知運用画面WD6を生成して表示デバイス116に表示する(St751)。 For example, the vehicle search server 80 detects a vehicle that satisfies the collation list (that is, a vehicle that is the actor of the event) based on the image analysis of the captured image data of any camera (for example, camera C10) arranged in the investigation area. (St73). Although the camera C10 is not shown in FIG. 15, for example, it is possible to take an image of a parking lot outside the building in the investigation area, and the suspect can take an image of the escape vehicle at the time of escape. In this case, the vehicle search server 80 generates a real-time notification including the date and time when the event is detected, the camera (including the information on the arrangement position), and the content data of the event name, and sends it to the AI integrated server 10 (St74). The AI integrated server 10 transfers the real-time notification sent in step St74 to the client terminal VW (St75). The client terminal VW1 generates an event record (see FIG. 15) based on the content data of each item included in the real-time notification sent in step St75, and detects an event including the event list EVLST1 in which the event record is additionally updated. The operation screen WD6 is generated and displayed on the display device 116 (St751).

例えば人物検索サーバ60は、捜査エリアに配置されているいずれかのカメラ(例えばカメラC3)の撮像映像データの映像解析に基づいて照合リストを満たす人物(つまりイベントの行為者である人物)を検知したとする(St76)。この場合、人物検索サーバ60は、イベントを検知した日時、カメラ(配置位置の情報を含む)、イベント名の内容データを含むリアルタイム通知を生成してAI統合サーバ10に送る(St77)。AI統合サーバ10は、ステップSt77で送られたリアルタイム通知をクライアント端末VWに転送する(St78)。クライアント端末VW1は、ステップSt78で送られたリアルタイム通知に含まれる各項目の内容データに基づいて、イベントレコード(図15参照)を生成し、このイベントレコードを追加更新したイベントリストEVLST1を含むイベント検知運用画面WD6を生成して表示デバイス116に表示する(St781)。図16では、例えば5つのイベントが検知された時からクライアント端末VW1へのリアルタイム通知までの処理を時系列に説明したが、検知されるイベント数は5つに限定されないことは言うまでもない。 For example, the person search server 60 detects a person who satisfies the collation list (that is, a person who is the actor of the event) based on the image analysis of the captured image data of any camera (for example, camera C3) arranged in the investigation area. (St76). In this case, the person search server 60 generates a real-time notification including the date and time when the event is detected, the camera (including the information on the arrangement position), and the content data of the event name, and sends it to the AI integrated server 10 (St77). The AI integrated server 10 transfers the real-time notification sent in step St77 to the client terminal VW (St78). The client terminal VW1 generates an event record (see FIG. 15) based on the content data of each item included in the real-time notification sent in step St78, and detects an event including the event list EVLST1 in which the event record is additionally updated. The operation screen WD6 is generated and displayed on the display device 116 (St781). In FIG. 16, for example, the processing from the time when five events are detected to the real-time notification to the client terminal VW1 is described in chronological order, but it goes without saying that the number of detected events is not limited to five.

以上により、実施の形態4に係る捜査支援システム1は、ユーザ端末と複数の解析サーバとがAI統合サーバ10を介して通信可能に接続される。複数の解析サーバのそれぞれは、複数のカメラC1〜C20のそれぞれとの間で接続され、事件等に関して他の解析サーバにより検索可能なオブジェクトと異なるオブジェクトの照合リストを保持する。複数の解析サーバのそれぞれは、カメラの撮像映像の解析により自己が保持する照合リストを満たすオブジェクトを検知すると、オブジェクトの検知を示すイベント名、検知日時およびカメラの配置位置の情報を含む検知通知(例えばリアルタイム通知)を、AI統合サーバ10を介してユーザ端末に送る。ユーザ端末は、いずれかの解析サーバから送られた検知通知に含まれるイベント名、検知日時およびカメラの配置位置の情報を含むイベント検知画面(例えばイベント検知運用画面WD6)を表示する。 As described above, in the investigation support system 1 according to the fourth embodiment, the user terminal and the plurality of analysis servers are connected to each other so as to be able to communicate with each other via the AI integrated server 10. Each of the plurality of analysis servers is connected to each of the plurality of cameras C1 to C20, and holds a collation list of objects different from the objects that can be searched by other analysis servers regarding an incident or the like. When each of the plurality of analysis servers detects an object that satisfies the collation list held by itself by analyzing the image captured by the camera, a detection notification (detection notification) including information on the event name indicating the detection of the object, the detection date and time, and the camera placement position ( For example, real-time notification) is sent to the user terminal via the AI integrated server 10. The user terminal displays an event detection screen (for example, event detection operation screen WD6) including information on the event name, detection date and time, and camera placement position included in the detection notification sent from any of the analysis servers.

これにより、捜査支援システム1は、事件等を引き起こした被疑者が逃走用に使用している逃走車両の特定を早期かつ効率的に支援し、警察等の捜査機関による捜査の利便性を向上できる。また、捜査支援システム1は、捜査エリアが広くても事件等に関する被疑者あるいは逃走車両の存在を示すイベントの検知をクライアント端末VW1に通知できるので、被疑者あるいは逃走車両の捜査の進捗を早めることが期待できる。 As a result, the investigation support system 1 can quickly and efficiently support the identification of the escape vehicle used by the suspect who caused the incident, etc., and improve the convenience of the investigation by the police or other investigative agency. .. Further, the investigation support system 1 can notify the client terminal VW1 of the detection of an event indicating the existence of a suspect or an escape vehicle related to an incident even if the investigation area is wide, so that the progress of the investigation of the suspect or the escape vehicle can be accelerated. Can be expected.

また、ユーザ端末は、イベント名、検知日時およびカメラの配置位置の情報の項目を有するイベントリストをイベント検知運用画面WD6に含めて表示する。これにより、ユーザは、イベントリストを目視することで、捜査エリアが広くてもカメラが配置された位置の周囲で検知されたイベントの一覧を網羅しながら効率的に把握することができる。 Further, the user terminal includes the event list including the event name, the detection date and time, and the information items of the camera arrangement position on the event detection operation screen WD6 and displays the event list. As a result, by visually observing the event list, the user can efficiently grasp the list of events detected around the position where the camera is arranged even if the investigation area is wide.

また、ユーザ端末は、いずれかの解析サーバから検知通知(例えばリアルタイム通知)を受信する度に、その検知通知に含まれるイベント名、検知日時およびカメラの配置位置の情報の項目をイベントリストに追加して更新する。これにより、ユーザは、随時更新されるイベントリストを目視することで、捜査エリアが広くてもカメラが配置された位置の周囲で検知されたイベントの一覧の進捗を確認できる。 In addition, each time the user terminal receives a detection notification (for example, real-time notification) from any analysis server, the user terminal adds the event name, detection date and time, and camera placement position information items included in the detection notification to the event list. And update. As a result, the user can check the progress of the list of events detected around the position where the camera is arranged even if the investigation area is wide by visually observing the event list that is updated from time to time.

また、ユーザ端末は、複数のカメラのそれぞれが配置されたエリアの地図データFLMP1を有し、カメラの撮像映像に基づいて検知されたイベント名、イベント数および検知日時をカメラの配置位置ごとに対応付けて地図データMP1に重畳してイベント検知運用画面WD6に含めて表示する。これにより、ユーザは、捜査エリアの地図データFLMP1に配置されたカメラに起因して検知されたイベントの詳細を視覚的かつ直感的に分かり易く把握できる。 In addition, the user terminal has map data FLMP1 of the area where each of the plurality of cameras is arranged, and corresponds to the event name, the number of events, and the detection date and time detected based on the image captured by the cameras for each camera arrangement position. It is attached and superimposed on the map data MP1 and displayed on the event detection operation screen WD6. As a result, the user can visually and intuitively grasp the details of the event detected by the camera arranged in the map data FLMP1 of the investigation area in an easy-to-understand manner.

また、ユーザ端末は、検知日時の指定に基づいて、指定された検知日時に対応する配置位置のカメラのライブ映像の出力ウインドウ(例えばライブ映像画面MOV1)をイベント検知運用画面WD6に含めて表示する。これにより、ユーザは、気になるイベントが検知された位置のカメラの現在のライブ映像を目視で簡単に確認できるので、例えばそのカメラの配置位置まで出向かなくても現状の状況確認を効率的に行える。 Further, the user terminal includes the live image output window (for example, live image screen MOV1) of the camera at the arrangement position corresponding to the specified detection date and time in the event detection operation screen WD6 and displays it based on the specified detection date and time. .. As a result, the user can easily visually check the current live image of the camera at the position where the event of concern is detected, so that it is possible to efficiently check the current situation without going to the position of the camera, for example. Can be done.

また、ユーザ端末は、複数のカメラのそれぞれが配置されたエリアの地図データFLMP1を有し、イベントリストEVLST1のいずれかの項目の指定に基づいて、指定された項目に対応するカメラの配置位置を重畳した地図データFLMP1と検知日時のカメラの撮像映像の再生ボタンPY1とを少なくとも有するイベント詳細ウインドウEVDTL1をイベント検知運用画面WD6に含めて表示する。これにより、ユーザは、気になるイベントが検知された位置のカメラのイベント検知当時(過去の)撮像映像を目視で簡単に確認できるので、例えばそのカメラの配置位置まで出向かなくてもイベント当時の状況確認を効率的に行える。 Further, the user terminal has map data FLMP1 of the area where each of the plurality of cameras is arranged, and based on the designation of any item of the event list EVLST1, the arrangement position of the camera corresponding to the specified item is set. The event detail window EVDTL1 having at least the superimposed map data FLMP1 and the playback button PY1 of the image captured by the camera on the detection date and time is included in the event detection operation screen WD6 and displayed. As a result, the user can easily visually check the captured image of the camera at the time of event detection (past) at the position where the event of concern is detected, so that the user does not have to go to the position of the camera at the time of the event, for example. You can efficiently check the status of.

また、ユーザ端末は、指定された項目に対応する配置位置のカメラのライブ映像の出力ボタン(例えばライブ映像ボタンLV1)をイベント詳細ウインドウEVDTL1に含めて表示する。これにより、ユーザは、気になるイベントが検知された位置のカメラの現在のライブ映像あるいはイベント検知当時の過去の撮像映像を選択的に切り替えて目視で簡単に確認でき、例えばそのカメラの配置位置まで出向かなくても現状あるいはイベント検知時の状況確認を効率的に行える。 Further, the user terminal includes the live image output button (for example, the live image button LV1) of the camera at the arrangement position corresponding to the specified item in the event detail window EVDTL1 and displays it. As a result, the user can selectively switch between the current live image of the camera at the position where the event of concern is detected or the past captured image at the time of event detection and easily visually check the position, for example, the position of the camera. You can efficiently check the current status or the situation when an event is detected without having to go to.

(実施の形態5に至る経緯)
特許文献1では、事件等の形態が多様化しているという昨今の実情に鑑みて、事件等を引き起こした被疑者あるいは被疑者が逃走用に使用している逃走車両の存在を疑わせる所定の行動(例えば喧嘩、拳銃発砲、急加速逃走)を検知した場合に外部の端末等に通知することは考慮されていない。特に、警察等の捜査機関による捜査(特に初動捜査)においては、被疑者を早期に発見するために被疑者あるいは逃走車両をいち早く特定することが求められることが多い。しかし、特許文献1の技術を用いても、捜査官(例えば警官)が個々のカメラ装置の映像を人力で逐一視聴して確認すると逃走車両の特定に時間がかかり非効率的であるため、被疑者あるいは逃走車両の早期発見が難しいという課題があった。特に、捜査範囲が広いエリアにわたる場合、警官が関知していない場所で上述した所定の行動が検知された場合にその行動の行為者あるいは車両を追跡できるようにブラックリスト登録できれば、被疑者あるいは逃走車両である可能性が高まり、捜査の進展に期待がかかることが予想される。
(Background to Embodiment 5)
In Patent Document 1, in view of the recent fact that the forms of cases, etc. are diversifying, the suspect who caused the case, etc., or a predetermined action that makes the suspect suspect the existence of an escape vehicle used for escape. It is not considered to notify an external terminal or the like when (for example, a fight, a pistol firing, a sudden acceleration escape) is detected. In particular, in an investigation by an investigative agency such as the police (especially an initial investigation), it is often required to quickly identify the suspect or the escape vehicle in order to detect the suspect at an early stage. However, even if the technology of Patent Document 1 is used, if an investigator (for example, a police officer) manually watches and confirms the images of each camera device, it takes time to identify the escape vehicle and it is inefficient. There was a problem that it was difficult to detect a person or an escape vehicle at an early stage. In particular, if the investigation covers a wide area, if the above-mentioned behavior is detected in a place not known by the police officer, it can be blacklisted so that the actor or vehicle of the behavior can be tracked. It is expected that the possibility of being a vehicle will increase and that the progress of the investigation will be expected.

(実施の形態5)
そこで、実施の形態5では、捜査エリアが広くても事件等に関する被疑者あるいは逃走車両の存在を疑わせる所定の行動の検知を通知するとともに、事件等を引き起こした被疑者が逃走用に使用している逃走車両の特定を早期かつ効率的に支援し、警察等の捜査機関による捜査の利便性を向上する捜査支援システムの例を説明する。実施の形態5に係る捜査支援システムの構成は実施の形態1に係る捜査支援システム1と同一であるため、同一の内容の説明は省略し、実施の形態1と異なる内容については同一の符号を参照しながら説明する。
(Embodiment 5)
Therefore, in the fifth embodiment, even if the investigation area is wide, the detection of a predetermined action that makes the suspect or the escape vehicle suspect the existence of the incident or the like is notified, and the suspect who caused the incident or the like uses it for escape. An example of an investigation support system that assists in the early and efficient identification of a fugitive vehicle and improves the convenience of an investigation by an investigative agency such as the police will be described. Since the configuration of the investigation support system according to the fifth embodiment is the same as that of the investigation support system 1 according to the first embodiment, the description of the same contents is omitted, and the same reference numerals are given to the contents different from the first embodiment. It will be explained with reference to it.

図17は、イベント検知画面WD7から解析結果画面WD8への表示遷移を示す図である。図17のイベント検知画面WD7は、例えば行動検知サーバ70により事件等の被疑者あるいは逃走車両の存在を疑わせる所定の行動(例えば喧嘩)が検知された場合に、行動検知サーバ70およびAI統合サーバ10を経て送られるアラーム通知に基づいて捜査支援アプリにより表示される。イベント検知画面WD7は、例えば喧嘩が検知された時のカメラの喧嘩サムネイル画像THM2が重畳された撮像映像の再生ウインドウPLY2と、喧嘩が検知されたカメラの配置位置IC4および喧嘩サムネイル画像THM2が重畳された地図データMP2と、喧嘩サムネイル画像THM2を対象とする静止画解析ボタンALY1とを表示する。再生ウインドウPLY2には、喧嘩が検知された日時(例えば6月17日火曜日、15時55分22秒)を示すタイムインジケータDAT1が重畳されている。 FIG. 17 is a diagram showing a display transition from the event detection screen WD7 to the analysis result screen WD8. The event detection screen WD7 of FIG. 17 is a behavior detection server 70 and an AI integrated server when, for example, a behavior detection server 70 detects a predetermined behavior (for example, a fight) that makes the suspect or an escape vehicle suspect the existence of an incident or the like. It is displayed by the investigation support application based on the alarm notification sent after 10. On the event detection screen WD7, for example, the playback window PLY2 of the captured image on which the quarrel thumbnail image THM2 of the camera when the quarrel is detected is superimposed, the arrangement position IC4 of the camera where the quarrel is detected, and the quarrel thumbnail image THM2 are superimposed. The map data MP2 and the still image analysis button ALY1 for the fight thumbnail image THM2 are displayed. A time indicator DAT1 indicating the date and time when the quarrel was detected (for example, Tuesday, June 17, 15:55:22) is superimposed on the playback window PLY2.

捜査支援アプリは、ユーザ操作により静止画解析ボタンALY1が押下されたことを検知すると、静止画解析ボタンALY1の押下に基づく解析要求(後述参照)を生成してAI統合サーバ10に送る。詳細は後述するが、捜査支援アプリは、AI統合サーバ10からの解析結果を受信すると、解析結果画面WD8を表示デバイス116に表示する。 When the investigation support application detects that the still image analysis button ALY1 is pressed by the user operation, it generates an analysis request (see below) based on the pressing of the still image analysis button ALY1 and sends it to the AI integrated server 10. Although the details will be described later, when the investigation support application receives the analysis result from the AI integrated server 10, the analysis result screen WD8 is displayed on the display device 116.

図17の解析結果画面WD8は、喧嘩サムネイル画像THM2を対象とした静止画解析ボタンALY1の押下に基づいてAI統合サーバ10から送られた解析結果を用いて捜査支援アプリにより表示される。具体的には、解析結果画面WD8は、喧嘩サムネイル画像THM2が重畳された、喧嘩が検知された時のカメラの撮像映像(撮像画像)と、解析結果(Detected)としての3つの画像と、各画像に対応して設けられた各種のボタンとを表示する。 The analysis result screen WD8 of FIG. 17 is displayed by the investigation support application using the analysis result sent from the AI integrated server 10 based on the pressing of the still image analysis button ALY1 for the fight thumbnail image THM2. Specifically, the analysis result screen WD8 includes a captured image (captured image) of the camera when the quarrel is detected, on which the quarrel thumbnail image THM2 is superimposed, and three images as the analysis result (Detected). Various buttons provided corresponding to the image are displayed.

解析結果として得られた3つの画像は、具体的には、喧嘩サムネイル画像THM2に映る2人(つまり喧嘩の行為者)のうち一方の人物PERS1の顔画像FCIMG1および全身画像TLIMG1と、他方の人物PERS2の全身画像TLIMG2である。顔画像FCIMG1に対応して検索ボタンSC1とブラックリスト登録ボタンBLKRG1とが表示されている。全身画像TLIMG1に対応して検索ボタンSC2とブラックリスト登録ボタンBLKRG2とが表示されている。全身画像TLIMG2に対応して検索ボタンSC3とブラックリスト登録ボタンBLKRG3とが表示されている。 Specifically, the three images obtained as the analysis result are the face image FCIMG1 and the whole body image TLIMG1 of one person PERS1 of the two people (that is, the actors of the fight) reflected in the fight thumbnail image THM2, and the other person. It is a whole body image TLIMG2 of PERS2. The search button SC1 and the blacklist registration button BLKRG1 are displayed corresponding to the face image FCIMG1. The search button SC2 and the blacklist registration button BLKRG2 are displayed corresponding to the whole body image TLIMG1. The search button SC3 and the blacklist registration button BLKRG3 are displayed corresponding to the whole body image TLIMG2.

検索ボタンSC1,SC2,SC3は、それぞれ対応する顔画像FCIMG1,全身画像TLIMG1,TLIMG2と同一あるいは類似する人物の検索をAI統合サーバ10に要求するためのボタンである。ブラックリスト登録ボタンBLKRG1,BLKRG2,BLKRG3は、それぞれ対応する顔画像FCIMG1,全身画像TLIMG1,TLIMG2を対応する解析サーバ(具体的には、顔認証サーバ50,人物検索サーバ60,人物検索サーバ60)にブラックリストデータとして登録をAI統合サーバ10に要求するためのボタンである。 The search buttons SC1, SC2, and SC3 are buttons for requesting the AI integrated server 10 to search for a person who is the same as or similar to the corresponding face image FCIMG1, whole body image TLIMG1, and TLIMG2, respectively. The blacklist registration buttons BLKRG1, BLKRG2, and BLKRG3 are applied to the corresponding analysis servers (specifically, face recognition server 50, person search server 60, person search server 60) for the corresponding face image FCIMG1, whole body image TLIMG1, and TLIMG2. This is a button for requesting registration as blacklist data from the AI integrated server 10.

図18は、人物追跡運用画面例を示す図である。図18の人物追跡運用画面WD9は、例えば事件等の捜査エリアが広い建物内のある階のフロアである場合に、追跡対象の人物の画像(例えば全身画像TLIMG0,TLIMG1)と、そのフロア内に配置されている複数台のカメラ(図2参照)のそれぞれの配置位置が重畳された地図データFLMP1とを少なくとも表示する。人物追跡運用画面WD9は、ユーザ操作あるいはAI統合サーバ10からのアラーム通知に基づいて、捜査支援アプリにより表示される。ここで、図18の解析結果画面WD8においてユーザ操作により押下されたブラックリスト登録ボタンBLKRG2に対応する全身画像TLIMG1が図19の人物追跡運用画面WD9のウオッチリスト(Watchlist)に追加して表示されている。 FIG. 18 is a diagram showing an example of a person tracking operation screen. The person tracking operation screen WD9 of FIG. 18 is, for example, when the investigation area for an incident or the like is a floor on a certain floor in a large building, an image of the person to be tracked (for example, full-body images TLIMG0, TLIMG1) and the inside of the floor. At least the map data FLMP1 on which the arrangement positions of the plurality of arranged cameras (see FIG. 2) are superimposed is displayed. The person tracking operation screen WD9 is displayed by the investigation support application based on the user operation or the alarm notification from the AI integrated server 10. Here, the whole body image TLIMG1 corresponding to the blacklist registration button BLKRG2 pressed by the user operation on the analysis result screen WD8 of FIG. 18 is additionally displayed on the watch list (Watchlist) of the person tracking operation screen WD9 of FIG. There is.

また、人物追跡運用画面WD9は、フロア内で検知された数々のイベントの日時(Date/Time)、カメラ(Camera)、イベント種別を示すイベント(Event)の名前の項目の内容データをそれぞれ有するイベントレコードから構成されるイベントリストEVLST2を表示する。イベントリストEVLST2では、検知されたイベントの日時の新しいイベントレコードが上側に表示され、検知されたイベントの日時の古いイベントレコードが下側に表示される。 In addition, the person tracking operation screen WD9 is an event that has the content data of the items named as the date and time (Date / Time) of a number of events detected on the floor, the camera (Camera), and the event (Event) indicating the event type. The event list EVLST2 composed of records is displayed. In the event list EVLST2, the new event record with the date and time of the detected event is displayed at the upper side, and the old event record with the date and time of the detected event is displayed at the lower side.

また、人物追跡運用画面WD9の地図データFLMP1には、ウォッチリストに表示されている人物が最初に検知された時の全身画像TLIMG0が対応するカメラの配置位置に重畳して表示され、さらに、ウォッチリストに表示されている人物と同一あるいは類似する人物による所定の行動(上述参照)が検知された時のサムネイル画像DTPS1,喧嘩サムネイル画像THM2,サムネイル画像DTPS3が対応するカメラの配置位置に重畳して表示されている。 Further, on the map data FLMP1 of the person tracking operation screen WD9, the whole body image TLIMG0 when the person displayed in the watch list is first detected is superimposed and displayed on the corresponding camera arrangement position, and further, the watch is displayed. Thumbnail image DTPS1, quarrel thumbnail image THM2, thumbnail image DTPS3 when a predetermined action (see above) by a person who is the same as or similar to the person displayed in the list is detected is superimposed on the position of the corresponding camera. It is displayed.

また、検知されたイベントの日時(Date/Time)を示すイベントアイコンEV5,EV6,EV7,EV8が捜査支援アプリにより表示される。これにより、ユーザは、全身画像TLIMG0あるいはサムネイル画像DTPS1,喧嘩サムネイル画像THM2,サムネイル画像DTPS3の行った所定の行動(上述参照)が検知された日時をイベントアイコンEV5,EV6,EV7,EV8により判明可能である。 In addition, event icons EV5, EV6, EV7, and EV8 indicating the date and time (Date / Time) of the detected event are displayed by the investigation support application. As a result, the user can find out the date and time when the predetermined action (see above) performed by the whole body image TLIMG0 or the thumbnail image DTPS1, the fight thumbnail image THM2, and the thumbnail image DTPS3 is detected by the event icons EV5, EV6, EV7, and EV8. Is.

また、捜査支援アプリは、例えば全身画像、サムネイル画像あるいはイベントアイコンがユーザ操作により押下されたことを検知すると、イベントリストEVLST1の対応するイベントレコードをハイライト表示するとともに、その押下に対応するイベントのイベント詳細ウインドウEVDTL2を人物追跡運用画面WD9に表示する。イベント詳細ウインドウEVDTL2は、該当する所定の行動(上述参照)の行為者である人物が最初にウォッチリストに追加された時の全身画像TLIMG1と、所定の行動(上述参照)が検知された時のサムネイル画像DTPS1と、所定の行動(上述参照)が検知された時の撮像映像データを撮像したカメラの配置位置DTARE2が重畳された地図データFLMP1vと、ライブ映像ボタンLV2と、再生ボタンPY2とを少なくとも含む。 Further, when the investigation support application detects that, for example, a full-body image, a thumbnail image, or an event icon is pressed by a user operation, the investigation support application highlights the corresponding event record in the event list EVLST1 and displays the event corresponding to the pressing. The event details window EVDTL2 is displayed on the person tracking operation screen WD9. The event details window EVDTL2 shows the full-body image TLIMG1 when the person who is the actor of the corresponding predetermined action (see above) is first added to the watch list, and when the predetermined action (see above) is detected. At least the thumbnail image DTPS1, the map data FLMP1v on which the arrangement position DTARE2 of the camera that captured the captured image data when a predetermined action (see above) is detected, the live image button LV2, and the play button PY2 are superimposed. Including.

ライブ映像ボタンLV2がユーザ操作により押下されたことが検知されると、捜査支援アプリは、配置位置DTARE2のカメラのライブ映像をライブ映像画面(図示略)に出力する。 When it is detected that the live image button LV2 is pressed by the user operation, the investigation support application outputs the live image of the camera at the arrangement position DTARE2 to the live image screen (not shown).

また、再生ボタンPY2がユーザ操作により押下されたことが検知されると、捜査支援アプリは、配置位置DTARE2のカメラのイベント検知日時における過去の撮像映像(図示略)を再生する。この撮像映像は、捜査支援アプリにより、例えばライブ映像画面において再生表示されてもよい。 Further, when it is detected that the play button PY2 is pressed by the user operation, the investigation support application reproduces the past captured image (not shown) at the event detection date and time of the camera at the arrangement position DTARE2. This captured image may be reproduced and displayed on a live image screen, for example, by an investigation support application.

次に、実施の形態5に係る捜査支援システム1の動作手順例について、図19を参照して説明する。図19は、実施の形態5に係る捜査支援システム1の動作手順例を示すシーケンス図である。図19では図18の人物追跡運用画面WD9の表示に至る処理の流れを時系列に説明する。また、図19の説明の前提として、オブジェクトを検索可能な解析サーバの一例として人物検索サーバ60が接続されている。 Next, an example of the operation procedure of the investigation support system 1 according to the fifth embodiment will be described with reference to FIG. FIG. 19 is a sequence diagram showing an example of an operation procedure of the investigation support system 1 according to the fifth embodiment. In FIG. 19, the flow of processing leading to the display of the person tracking operation screen WD9 of FIG. 18 will be described in chronological order. Further, as a premise of the explanation of FIG. 19, a person search server 60 is connected as an example of an analysis server capable of searching an object.

図19において、行動検知サーバ70は、カメラC1〜C20のうちいずれかのカメラの撮像映像データの映像解析に基づいて、所定の行動(例えば喧嘩)を検知する(St81)。行動検知サーバ70は、所定の行動(例えば喧嘩)を検知した旨と検知時の撮像画像(あるいは喧嘩サムネイル画像THM2)とカメラの識別情報および撮像時刻とを含むアラーム通知をAI統合サーバ10に送る(St82)。AI統合サーバ10は、行動検知サーバ70から送られたアラーム通知をクライアント端末VW1に転送する(St83)。クライアント端末VW1は、AI統合サーバ10から転送されたアラーム通知を受信すると、そのアラーム通知に基づいて図17のイベント検知画面WD7を表示デバイス116に表示する(St84)。 In FIG. 19, the behavior detection server 70 detects a predetermined behavior (for example, a fight) based on the video analysis of the captured video data of any of the cameras C1 to C20 (St81). The action detection server 70 sends an alarm notification including the fact that a predetermined action (for example, a fight) has been detected, the captured image (or the fight thumbnail image THM2) at the time of detection, the camera identification information, and the imaging time to the AI integrated server 10. (St82). The AI integrated server 10 transfers the alarm notification sent from the behavior detection server 70 to the client terminal VW1 (St83). When the client terminal VW1 receives the alarm notification transferred from the AI integrated server 10, the client terminal VW1 displays the event detection screen WD7 of FIG. 17 on the display device 116 based on the alarm notification (St84).

ユーザは、イベント検知画面WD7に表示された所定の行動(例えば喧嘩)の行為者のうち気になる人物を見つけたとする。捜査支援アプリ(言い換えると、クライアント端末VW1)は、ユーザ操作により静止画解析ボタンALY1が押下されたことを検知すると(St85)、静止画解析ボタンALY1の押下に基づく人物の解析要求(喧嘩が検知された時のカメラの撮像画像あるいは喧嘩サムネイル画像THM2を含む)を生成してAI統合サーバ10に送る(St86)。AI統合サーバ10は、ステップSt86でクライアント端末VW1から送られた人物の解析要求を人物検索サーバ60に転送する(St87)。 It is assumed that the user finds a person who is interested in the actor of a predetermined action (for example, a fight) displayed on the event detection screen WD7. When the investigation support application (in other words, the client terminal VW1) detects that the still image analysis button ALY1 is pressed by the user operation (St85), the analysis request of the person based on the pressing of the still image analysis button ALY1 (fight is detected). (Including the image captured by the camera or the image of the fight thumbnail image THM2) is generated and sent to the AI integrated server 10 (St86). The AI integrated server 10 transfers the analysis request of the person sent from the client terminal VW1 in step St86 to the person search server 60 (St87).

人物検索サーバ60は、ステップSt87でAI統合サーバ10から転送された人物の解析要求を受信すると、その解析要求に基づいて、喧嘩が検知された時のカメラの撮像画像あるいは喧嘩サムネイル画像THM2に映る人物の解析処理(例えば、撮像画像あるいは喧嘩サムネイル画像THM2内に映る人物、人数の検知、顔枠および人物枠の座標抽出)を実行する(St88)。人物検索サーバ60は、人物、人数の検知、顔枠および人物枠の座標を含む解析結果をAI統合サーバ10に送る(St89)。AI統合サーバ10は、ステップSt89で人物検索サーバ60から送られた解析結果をクライアント端末VW1に転送する(St90)。クライアント端末VW1は、AI統合サーバ10から転送された解析結果を受信すると、その解析結果に基づいて図17の解析結果画面WD8を表示デバイス116に表示する(St91)。 When the person search server 60 receives the analysis request of the person transferred from the AI integrated server 10 in step St87, the person search server 60 is reflected in the image captured by the camera or the thumbnail image THM2 of the quarrel when the quarrel is detected based on the analysis request. A person analysis process (for example, detection of a person and a number of people reflected in a captured image or a fight thumbnail image THM2, and extraction of coordinates of a face frame and a person frame) is executed (St88). The person search server 60 sends the analysis result including the person, the detection of the number of people, the face frame, and the coordinates of the person frame to the AI integrated server 10 (St89). The AI integrated server 10 transfers the analysis result sent from the person search server 60 in step St89 to the client terminal VW1 (St90). When the client terminal VW1 receives the analysis result transferred from the AI integrated server 10, the client terminal VW1 displays the analysis result screen WD8 of FIG. 17 on the display device 116 based on the analysis result (St91).

ユーザは、解析結果画面WD8に表示された少なくとも1人の人物の画像(例えば顔画像あるいは全身画像)のうち追跡対象として加えたい人物(例えば事件等の被疑者)を見つけたとする。捜査支援アプリ(言い換えると、クライアント端末VW1)は、ユーザ操作により追跡対象の人物の画像(例えば解析結果画面WD8に表示された解析結果としての全身画像TLIMG1)のブラックリスト登録ボタンBLKRG2が押下されたことを検知すると(St92)、ブラックリスト登録ボタンBLKRG2の押下に基づく人物の画像のブラックリスト登録要求(登録の対象となる全身画像TLIMG1を含む)を生成してAI統合サーバ10に送る(St93)。 It is assumed that the user finds a person (for example, a suspect in an incident) to be added as a tracking target among the images of at least one person (for example, a face image or a whole body image) displayed on the analysis result screen WD8. In the investigation support application (in other words, the client terminal VW1), the blacklist registration button BLKRG2 of the image of the person to be tracked (for example, the whole body image TLIMG1 as the analysis result displayed on the analysis result screen WD8) was pressed by the user operation. When this is detected (St92), a blacklist registration request (including the whole body image TLIMG1 to be registered) of a person's image based on pressing the blacklist registration button BLKRG2 is generated and sent to the AI integrated server 10 (St93). ..

また、捜査支援アプリは、ブラックリスト登録ボタンBLKRG2の押下に基づいて、解析結果画面WD8から図18の人物追跡運用画面WD9に切り替えて表示デバイス116に表示する(St92)。この時、捜査支援アプリは、ブラックリスト登録の対象としてユーザ操作により選択された全身画像TLIMG1を人物追跡運用画面WD9のウォッチリストに追加して表示する。あるいは、捜査支援アプリは、ブラックリスト登録ボタンBLKRG2の押下に基づいて、解析結果画面WD8とともに図18の人物追跡運用画面WD9を追加して(例えば別のウインドウで)表示デバイス116に表示してもよい(St92)。AI統合サーバ10は、ステップSt93でクライアント端末VW1から送られた人物の画像のブラックリスト登録要求を人物検索サーバ60に転送する(St94)。人物検索サーバ60は、ステップSt94でAI統合サーバ10から転送されたブラックリスト登録要求を受信すると、そのブラックリスト登録要求に含まれる人物の画像(例えば全身画像TLIMG1)をデータベース62に登録する(St95)。 Further, the investigation support application switches from the analysis result screen WD8 to the person tracking operation screen WD9 of FIG. 18 and displays it on the display device 116 based on the pressing of the blacklist registration button BLKRG2 (St92). At this time, the investigation support application adds the whole body image TLIMG1 selected by the user operation as the target of blacklist registration to the watch list of the person tracking operation screen WD9 and displays it. Alternatively, the investigation support application may add the person tracking operation screen WD9 of FIG. 18 together with the analysis result screen WD8 based on the pressing of the blacklist registration button BLKRG2 and display it on the display device 116 (for example, in another window). Good (St92). The AI integrated server 10 transfers the blacklist registration request for the image of the person sent from the client terminal VW1 in step St93 to the person search server 60 (St94). When the person search server 60 receives the blacklist registration request transferred from the AI integrated server 10 in step St94, the person search server 60 registers the image of the person (for example, whole body image TLIMG1) included in the blacklist registration request in the database 62 (St95). ).

ステップSt95の後で一定時間が経過した後、人物検索サーバ60は、カメラC1〜C20のそれぞれの撮像映像データの映像解析に基づいて、ステップSt95でデータベース62に登録された人物の全身画像TLIMG1と同一あるいは類似する人物を検知したとする(St96)。人物検索サーバ60は、人物を検知した旨と検知時の撮像画像(あるいはサムネイル画像DTPS1)とカメラの識別情報および撮像時刻とを含むアラーム通知をAI統合サーバ10に送る(St97)。AI統合サーバ10は、人物検索サーバ60から送られたアラーム通知をクライアント端末VW1に転送する(St98)。クライアント端末VW1は、AI統合サーバ10から転送されたアラーム通知を受信すると、そのアラーム通知に基づいて図18の人物追跡運用画面WD9に、該当する人物の画像(例えばサムネイル画像DTPS1)とブラックリスト登録された全身画像TLIMG1とを含むイベント詳細ウインドウEVDTL2を表示する(St99)。 After a certain period of time has elapsed after step St95, the person search server 60 and the whole body image TLIMG1 of the person registered in the database 62 in step St95 based on the image analysis of the captured image data of the cameras C1 to C20. It is assumed that the same or similar person is detected (St96). The person search server 60 sends an alarm notification including the fact that a person has been detected, the captured image (or thumbnail image DTPS1) at the time of detection, the camera identification information, and the imaging time to the AI integrated server 10 (St97). The AI integrated server 10 transfers the alarm notification sent from the person search server 60 to the client terminal VW1 (St98). When the client terminal VW1 receives the alarm notification transferred from the AI integrated server 10, the image of the corresponding person (for example, thumbnail image DTPS1) and the blacklist are registered on the person tracking operation screen WD9 of FIG. 18 based on the alarm notification. The event detail window EVDTL2 including the whole body image TLIMG1 is displayed (St99).

以上により、実施の形態5に係る捜査支援システム1は、ユーザ端末と複数の解析サーバとがAI統合サーバ10を介して通信可能に接続される。複数の解析サーバのうち第1の解析サーバ(例えば行動検知サーバ70)は、カメラC1〜C20のうちいずれかの撮像映像の解析により事件等に関する特定の行動(例えば喧嘩)を検知すると、行動が検知されたカメラの撮像画像を少なくとも含むアラーム通知を、AI統合サーバ10を介してユーザ端末に送る。ユーザ端末は、第1の解析サーバから送られたアラーム通知に含まれる撮像画像と撮像画像に映る行動の行為者の人物解析ボタン(例えば静止画解析ボタンALY1)とを含むイベント通知画面(例えばイベント検知画面WD7)を表示し、人物解析ボタンの指定に基づいて、撮像画像に映る行為者の人物解析を、AI統合サーバ10を介して要求する。複数の解析サーバのうち第2の解析サーバ(例えば人物検索サーバ60)は、ユーザ端末からの要求に基づいて、撮像画像に映る行為者の人物解析結果を、AI統合サーバ10を介してユーザ端末に送る。ユーザ端末は、第2の解析サーバから送られた人物解析結果に含まれる行為者の切り出し画像(例えば全身画像TLIMG1)と切り出し画像に映る人物の追跡ボタン(例えばブラックリスト登録ボタンBLKRG2)とを含む解析結果画面WD8を表示する。ユーザ端末は、追跡ボタンの指定に基づいて、追跡ボタンに対応する人物のブラックリスト登録を、AI統合サーバ10を介して要求する。第2の解析サーバは、ユーザ端末からの要求に基づいて、追跡ボタンに対応する人物の切り出し画像を第2の解析サーバのブラックリストデータに登録する。 As described above, in the investigation support system 1 according to the fifth embodiment, the user terminal and the plurality of analysis servers are connected to each other so as to be able to communicate with each other via the AI integrated server 10. When the first analysis server (for example, the action detection server 70) among the plurality of analysis servers detects a specific action (for example, a fight) related to an incident or the like by analyzing the captured image of any one of the cameras C1 to C20, the action is taken. An alarm notification including at least the captured image of the detected camera is sent to the user terminal via the AI integrated server 10. The user terminal has an event notification screen (for example, an event) including an captured image included in the alarm notification sent from the first analysis server and a person analysis button (for example, still image analysis button ALY1) of the actor of the action reflected in the captured image. The detection screen WD7) is displayed, and based on the designation of the person analysis button, the person analysis of the actor reflected in the captured image is requested via the AI integrated server 10. The second analysis server (for example, the person search server 60) among the plurality of analysis servers obtains the person analysis result of the actor reflected in the captured image on the user terminal via the AI integrated server 10 based on the request from the user terminal. Send to. The user terminal includes a cut-out image of the actor included in the person analysis result sent from the second analysis server (for example, full-body image TLIMG1) and a tracking button for the person shown in the cut-out image (for example, blacklist registration button BLKRG2). The analysis result screen WD8 is displayed. Based on the designation of the tracking button, the user terminal requests the blacklist registration of the person corresponding to the tracking button via the AI integrated server 10. The second analysis server registers the cutout image of the person corresponding to the tracking button in the blacklist data of the second analysis server based on the request from the user terminal.

これにより、捜査支援システム1は、事件等を引き起こした被疑者が逃走用に使用している逃走車両の特定を早期かつ効率的に支援し、警察等の捜査機関による捜査の利便性を向上できる。また、捜査支援システム1は、捜査エリアが広くても事件等に関する被疑者あるいは逃走車両の存在を疑わせる所定の行動の検知をクライアント端末VW1に通知できるので、被疑者あるいは逃走車両の捜査の進捗を早めることが期待できる。 As a result, the investigation support system 1 can quickly and efficiently support the identification of the escape vehicle used by the suspect who caused the incident, etc., and improve the convenience of the investigation by the police or other investigative agency. .. Further, the investigation support system 1 can notify the client terminal VW1 of the detection of a predetermined action that makes the suspect or the escape vehicle suspect the existence of the suspect or the escape vehicle even if the investigation area is wide, so that the investigation of the suspect or the escape vehicle progresses. Can be expected to accelerate.

また、第2の解析サーバ(例えば人物検索サーバ60)は、カメラの撮像映像の解析によりブラックリストデータに登録された人物と同一あるいは類似する人物を検知すると、検知された人物が映る撮像画像、検知日時およびカメラの配置位置の情報を含む検知通知を、AI統合サーバ10を介してユーザ端末に送る。ユーザ端末は、第2の解析サーバから送られた検知通知に含まれる撮像画像、検知日時およびカメラの配置位置の情報を含む人物追跡運用画面WD9を表示する。これにより、ユーザは、自ら選択した気になる人物(例えば事件等の被疑者あるいはよく似た人物)を追跡対象としてブラックリスト登録した結果、その人物が検知されたことを人物追跡運用画面WD9により直感的かつ視覚的に分かり易く把握できる。 Further, when the second analysis server (for example, the person search server 60) detects a person who is the same as or similar to the person registered in the blacklist data by analyzing the image captured by the camera, the captured image showing the detected person, A detection notification including information on the detection date and time and the position of the camera is sent to the user terminal via the AI integrated server 10. The user terminal displays the person tracking operation screen WD9 including the captured image, the detection date and time, and the information on the camera placement position included in the detection notification sent from the second analysis server. As a result, the user blacklists the person he / she is interested in (for example, a suspect in an incident or a similar person) as a tracking target, and as a result, the person is detected by the person tracking operation screen WD9. Intuitive and visually easy to understand.

また、ユーザ端末は、追跡ボタンに対応する人物の切り出し画像を示す追跡対象リスト(例えばウォッチリスト)を人物追跡運用画面WD9に含めて表示する。これにより、ユーザは、現在の追跡対象となる人物を迅速かつ直感的に把握できる。 Further, the user terminal includes a tracking target list (for example, a watch list) showing a cut-out image of a person corresponding to the tracking button in the person tracking operation screen WD9 and displays it. This allows the user to quickly and intuitively grasp the person currently being tracked.

また、ユーザ端末は、行動の名前、行動の検知日時およびカメラの配置位置の情報の項目を有するイベントリストEVLST2を人物追跡運用画面WD9に含めて表示する。これにより、ユーザは、イベントリストを目視することで、捜査エリアが広くてもカメラが配置された位置の周囲で検知されたイベントの一覧を網羅しながら効率的に把握することができる。 Further, the user terminal includes and displays the event list EVLST2 having the items of the action name, the action detection date and time, and the camera placement position information on the person tracking operation screen WD9. As a result, by visually observing the event list, the user can efficiently grasp the list of events detected around the position where the camera is arranged even if the investigation area is wide.

また、ユーザ端末は、第2の解析サーバから検知通知を受信する度に、その検知通知に含まれる行動の名前、行動の検知日時およびカメラの配置位置の情報の項目をイベントリストWVLST2に追加して更新する。これにより、ユーザは、随時更新されるイベントリストを目視することで、捜査エリアが広くてもカメラが配置された位置の周囲で検知されたイベントの一覧の進捗を確認できる。 In addition, each time the user terminal receives a detection notification from the second analysis server, the user terminal adds the action name, action detection date and time, and camera placement position information items included in the detection notification to the event list WVLST2. And update. As a result, the user can check the progress of the list of events detected around the position where the camera is arranged even if the investigation area is wide by visually observing the event list that is updated from time to time.

また、ユーザ端末は、カメラが配置されたエリアの地図データFLMP1を有し、行動が検知された撮像画像と行動の検知日時とをカメラの配置位置に対応付けて地図データFLMP1に重畳して人物追跡運用画面WD9に含めて表示する。これにより、ユーザは、捜査エリアの地図データFLMP1に配置されたカメラに起因して検知されたイベントの詳細を視覚的かつ直感的に分かり易く把握できる。 Further, the user terminal has map data FLMP1 of the area where the camera is arranged, and the captured image in which the action is detected and the detection date and time of the action are associated with the arrangement position of the camera and superimposed on the map data FLMP1 to obtain a person. It is included in the tracking operation screen WD9 and displayed. As a result, the user can visually and intuitively grasp the details of the event detected by the camera arranged in the map data FLMP1 of the investigation area in an easy-to-understand manner.

また、ユーザ端末は、撮像画像の指定に基づいて、指定された撮像画像に映る行動の行為者の切り出し画像(例えばサムネイル画像DTPS1)と、行動に対応してブラックリストデータに登録された時の人物の切り出し画像(例えば全身画像TLIMG1)とを並べたイベント詳細ウインドウEVDTL2を人物追跡運用画面WD9に含めて表示する。これにより、ユーザは、気になるイベントが検知された位置のカメラのイベント検知当時の人物の画像とブラックリスト登録された時の人物の画像とを対比的に目視で確認できるので、例えばそのカメラの配置位置まで出向かなくてもイベント当時の状況確認を効率的に行える。 Further, when the user terminal is registered in the blacklist data corresponding to the action, the cut-out image (for example, thumbnail image DTPS1) of the actor of the action reflected in the designated captured image based on the designation of the captured image. The event detail window EVDTL2 in which the cut-out image of the person (for example, the whole body image TLIMG1) is arranged is included in the person tracking operation screen WD9 and displayed. As a result, the user can visually check the image of the person at the time of event detection of the camera at the position where the event of concern is detected and the image of the person at the time of blacklist registration, so that the camera can be visually confirmed, for example. You can efficiently check the situation at the time of the event without having to go to the location of.

また、複数の解析サーバのうち第3の解析サーバ(例えば顔認証サーバ50)は、ユーザ端末からの要求に基づいて、撮像画像に映る行為者の人物の顔解析結果を、AI統合サーバ10を介してユーザ端末に送ってもよい。この場合、ユーザ端末は、第3の解析サーバから送られた顔解析結果に含まれる行為者の顔の切り出し画像と切り出し画像に映る顔の追跡ボタンとを含む解析結果画面WD8を表示する。ユーザ端末は、追跡ボタンの指定に基づいて、追跡ボタンに対応する顔のブラックリスト登録を、AI統合サーバ10を介して要求する。第3の解析サーバは、ユーザ端末からのAI統合サーバ10を介した要求に基づいて、追跡ボタンに対応する顔の切り出し画像を第3の解析サーバのブラックリストデータに登録する。これにより、所定の行動(例えば喧嘩)の行為者である人物の顔を顔認証サーバ50のブラックリストデータに登録することが簡易に行えるので、捜査エリアが広くても事件等に関する被疑者の捜査の進捗を早めることが期待できる。 Further, the third analysis server (for example, the face recognition server 50) among the plurality of analysis servers uses the AI integrated server 10 to obtain the face analysis result of the actor's person reflected in the captured image based on the request from the user terminal. It may be sent to the user terminal via. In this case, the user terminal displays the analysis result screen WD8 including the cut-out image of the actor's face included in the face analysis result sent from the third analysis server and the face tracking button reflected in the cut-out image. Based on the designation of the tracking button, the user terminal requests the blacklist registration of the face corresponding to the tracking button via the AI integrated server 10. The third analysis server registers the cutout image of the face corresponding to the tracking button in the blacklist data of the third analysis server based on the request from the user terminal via the AI integrated server 10. As a result, the face of a person who is an actor of a predetermined action (for example, a fight) can be easily registered in the blacklist data of the face recognition server 50, so that the suspect can be investigated even if the investigation area is wide. Can be expected to accelerate the progress of.

以上、図面を参照しながら各種の実施の形態について説明したが、本開示はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。また、発明の趣旨を逸脱しない範囲において、上述した各種の実施の形態における各構成要素を任意に組み合わせてもよい。 Although various embodiments have been described above with reference to the drawings, it goes without saying that the present disclosure is not limited to such examples. It is clear that a person skilled in the art can come up with various modifications, modifications, substitutions, additions, deletions, and equality within the scope of the claims. It is understood that it naturally belongs to the technical scope of the present disclosure. Further, each component in the various embodiments described above may be arbitrarily combined as long as the gist of the invention is not deviated.

上述した実施の形態1において、AI統合サーバ10が取り扱う検索として、人物検索サーバ60による人物検索、車両検索サーバ80による車両検索を例示して説明したが、これらに限定されない。言い換えると、検索条件となり得るのは人物あるいは車両に限定されない。例えば、AI統合サーバ10が取り扱う検索として、顔認証サーバ50による顔検知(顔検索)、LPRサーバ90によるライセンスプレート検索にも適用されてよいし、更に、人物検索サーバ60による人物検索、車両検索サーバ80による車両検索も組み合わせて使用されて構わない。この場合には、検索条件として、顔画像(イメージ検索)あるいはライセンスプレート(テキスト検索あるいはイメージ検索)が使用されてよい。顔画像を用いた検索結果としては、例えば、顔画像が表示されてよい。ライセンスプレートを用いた検索結果としては、例えば、対応する車両の購入者の顔画像が表示されてよい。 In the first embodiment described above, as the search handled by the AI integrated server 10, a person search by the person search server 60 and a vehicle search by the vehicle search server 80 have been described as examples, but the search is not limited thereto. In other words, the search criteria are not limited to people or vehicles. For example, the search handled by the AI integrated server 10 may be applied to face detection (face search) by the face authentication server 50, license plate search by the LPR server 90, and further, person search and vehicle search by the person search server 60. A vehicle search by the server 80 may also be used in combination. In this case, a face image (image search) or a license plate (text search or image search) may be used as the search condition. As the search result using the face image, for example, the face image may be displayed. As the search result using the license plate, for example, the face image of the purchaser of the corresponding vehicle may be displayed.

上述した実施の形態1において、AI統合サーバ10が取り扱うAND検索(横断的な検索)の一例としては、人物検索サーバ60による人物検索と車両検索サーバ80による車両検索とのAND検索、顔認証サーバ50による顔照合と人物検索サーバ60による人物検索と車両検索サーバ80による車両検索とのAND検索を例示して説明したが、AND検索の例はこれらに限定されない。例えば、AI統合サーバ10は、次の組み合わせによるAND検索(横断的な検索)を行うことが可能である。 As an example of the AND search (cross-sectional search) handled by the AI integrated server 10 in the above-described first embodiment, an AND search of a person search by the person search server 60 and a vehicle search by the vehicle search server 80, and a face authentication server. Although the AND search of the face matching by 50, the person search by the person search server 60, and the vehicle search by the vehicle search server 80 has been described as an example, the example of the AND search is not limited to these. For example, the AI integrated server 10 can perform an AND search (cross-sectional search) by the following combinations.

例えば、顔認証サーバ50による顔照合に加え、人物検索サーバ60による人物検索、行動検知サーバ70による行動検知(例えば喧嘩あるいは拳銃所持している人物の顔画像に類似した顔画像の照合)、車両検索サーバ80による車両検索(例えば白い車に乗っている30代男性の顔画像の照合)、LPRサーバ90によるナンバープレート照合(例えば上位2桁が特定の数字の車両に乗っている、ある顔画像に類似する人物の顔画像の照合)等のうち少なくとも1つが組み合わせ可能である。 For example, in addition to face matching by the face authentication server 50, person search by the person search server 60, action detection by the action detection server 70 (for example, matching of a face image similar to the face image of a person who has a fight or a fist gun), a vehicle Vehicle search by the search server 80 (for example, matching the face image of a man in his thirties in a white car), number plate matching by the LPR server 90 (for example, a face image in which the upper two digits are in a vehicle with a specific number) At least one of (matching the face image of a person similar to) and the like can be combined.

また例えば、人物検索サーバ60による人物検索に加え、行動検知サーバ70による行動検知(例えば物の破壊行為あるいは拳銃所持を行っている黒い服を着た人物の検索)、車両検索サーバ80による検索(例えば白い車に近づいた赤い服を着た人物の検索)、LPRサーバ90によるナンバープレート照合(例えばナンバーが特定の数字の車両に近づいた黒い服を着た人物の検索)等のうち少なくとも1つが組み合わせ可能である。 Further, for example, in addition to the person search by the person search server 60, the action detection by the action detection server 70 (for example, the search for a person wearing black clothes who is destroying an object or possessing a fist gun), and the search by the vehicle search server 80 (for example, For example, at least one of (searching for a person in red clothes approaching a white car), license plate verification by the LPR server 90 (for example, searching for a person wearing black clothes approaching a vehicle with a specific number), etc. Can be combined.

また例えば、車両検索サーバ80による車両検索に加え、行動検知サーバ70による行動検知(例えば逆走しているセダンタイプの車両、あるいは、外から拳銃で脅されているタクシー車両の検索)、LPRサーバ90によるナンバープレート照合(例えば上位2桁が特定の数字の逆走している車両の検索)等のうち少なくとも1つが組み合わせ可能である。 Further, for example, in addition to the vehicle search by the vehicle search server 80, the behavior detection by the behavior detection server 70 (for example, a search for a sedan type vehicle running in reverse or a taxi vehicle threatened by a fist gun from the outside), an LPR server At least one of 90's license plate verification (for example, searching for a vehicle in which the upper two digits are running in reverse with a specific number) and the like can be combined.

また例えば、LPRサーバ90によるナンバープレート照合に加え、行動検知サーバ70による行動検知(例えば上位2桁が特定の数字の逆走しているアクションの検知、上位2桁が特定の数字のタクシー車両の運転手を外から拳銃で脅している行為の検知)等のうち少なくとも1つが組み合わせ可能である。 Further, for example, in addition to the license plate verification by the LPR server 90, the action detection by the action detection server 70 (for example, the detection of the reverse running action of a specific number in the upper two digits, and the taxi vehicle in which the upper two digits are a specific number) At least one of (detection of actions threatening the driver with a fist gun from the outside) and the like can be combined.

なお、上述した実施の形態1では、カメラC1〜C20のそれぞれの撮像映像における対象物が人物あるいは車両であることを例示したが、対象物は人物あるいは車両に限定されず、その他の物体(例えば移動体)でもよい。移動体は、例えば事件等を引き起こした被疑者等の人物により操作されるドローン等の飛行物体でもよい。 In the first embodiment described above, it is illustrated that the object in each of the captured images of the cameras C1 to C20 is a person or a vehicle, but the object is not limited to the person or the vehicle, and other objects (for example, It may be a mobile body). The moving object may be, for example, a flying object such as a drone operated by a person such as a suspect who caused an incident or the like.

本開示は、事件等を引き起こした被疑者あるいは被疑者が逃走用に使用している逃走車両の特定を早期かつ効率的に支援し、警察等の捜査機関による捜査の利便性を向上する捜査支援システムおよび捜査支援方法として有用である。 This disclosure provides early and efficient support for identifying the suspect who caused the incident or the escape vehicle used by the suspect for escape, and improves the convenience of investigation by police and other investigative agencies. It is useful as a system and an investigation support method.

1 捜査支援システム
10 AI統合サーバ
11、41、51、61、71、81、91、PRC1、PRC2 プロセッサ
12、42、52、62、72、82、92 データベース
13、54、114 サーバIFコントローラ
14 クライアントIFコントローラ
40 映像管理サーバ
50 顔認証サーバ
53 カメラIFコントローラ
60 人物検索サーバ
70 行動検知サーバ
80 車両検索サーバ
90 LPRサーバ
112 記録装置
115 入力デバイス
116 表示デバイス
117 スピーカ
C1、C2、C3、C20 カメラ
MM1、MM2、MM3 メモリ
NW1 ネットワーク
VW1 クライアント端末
VW2 モバイル端末
1 Investigation support system 10 AI integrated server 11, 41, 51, 61, 71, 81, 91, PRC1, PRC2 Processor 12, 42, 52, 62, 72, 82, 92 Database 13, 54, 114 Server IF controller 14 Client IF controller 40 Video management server 50 Face authentication server 53 Camera IF controller 60 Person search server 70 Behavior detection server 80 Vehicle search server 90 LPR server 112 Recording device 115 Input device 116 Display device 117 Speakers C1, C2, C3, C20 Camera MM1, MM2, MM3 Memory NW1 Network VW1 Client terminal VW2 Mobile terminal

Claims (35)

解析サーバと統合サーバとが通信可能に接続される捜査支援システムであって、
前記解析サーバは、
第1の撮像タイミングで撮像された車両が映る第1の撮像画像を受け取ると前記車両の乗員の顔およびライセンスプレートの解析を行い、前記乗員の顔画像とライセンス番号情報とを含む第1の解析結果を前記統合サーバに送り、
前記統合サーバは、
前記第1の解析結果を前記第1の撮像タイミングと関連付けてデータベースに登録し、
前記解析サーバは、
第2の撮像タイミングで撮像された車両が映る第2の撮像画像を受け取ると前記車両の乗員の顔およびライセンスプレートの解析を行い、前記乗員の顔画像とライセンス番号情報とを含む第2の解析結果を前記統合サーバに送り、
前記統合サーバは、
前記第1の解析結果に含まれる前記ライセンス番号情報と前記第2の解析結果に含まれる前記ライセンス番号情報とが一致しかつ前記第1の解析結果に含まれる前記乗員の顔画像と前記第2の解析結果に含まれる前記乗員の顔画像とが異なると決定した場合に、事件等に関するアラーム通知を行う、
捜査支援システム。
It is an investigation support system in which the analysis server and the integrated server are connected so that they can communicate with each other.
The analysis server
Upon receiving the first captured image of the vehicle captured at the first imaging timing, the face of the occupant of the vehicle and the license plate are analyzed, and the first analysis including the occupant's face image and the license number information is included. Send the result to the integrated server
The integrated server
The first analysis result is registered in the database in association with the first imaging timing, and the result is registered in the database.
The analysis server
Upon receiving the second captured image of the vehicle captured at the second imaging timing, the face of the occupant of the vehicle and the license plate are analyzed, and the second analysis including the occupant's face image and the license number information is included. Send the result to the integrated server
The integrated server
The license number information included in the first analysis result and the license number information included in the second analysis result match, and the face image of the occupant and the second analysis result included in the first analysis result. If it is determined that the face image of the occupant included in the analysis result of the above is different, an alarm notification regarding the incident etc. is given.
Investigation support system.
前記第1の撮像タイミングに前記第1の撮像画像を撮像したカメラと、前記第2の撮像タイミングに前記第2の撮像画像を撮像したカメラとが同一である、
請求項1に記載の捜査支援システム。
The camera that captured the first captured image at the first imaging timing and the camera that captured the second captured image at the second imaging timing are the same.
The investigation support system according to claim 1.
前記第1の撮像タイミングに前記第1の撮像画像を撮像したカメラと、前記第2の撮像タイミングに前記第2の撮像画像を撮像したカメラとが異なる、
請求項1に記載の捜査支援システム。
The camera that captured the first captured image at the first imaging timing and the camera that captured the second captured image at the second imaging timing are different.
The investigation support system according to claim 1.
前記統合サーバとの間で通信可能に接続されるユーザ端末、を更に備え、
前記ユーザ端末は、
前記アラーム通知に基づいて、前記ライセンス番号情報と前記第1の解析結果に含まれる前記乗員の顔画像と前記第2の解析結果に含まれる前記乗員の顔画像とを少なくとも含むアラーム通知画面を表示する、
請求項1に記載の捜査支援システム。
A user terminal, which is connected to the integrated server so as to be communicable, is further provided.
The user terminal is
Based on the alarm notification, an alarm notification screen including at least the license number information, the occupant's face image included in the first analysis result, and the occupant's face image included in the second analysis result is displayed. To do,
The investigation support system according to claim 1.
前記ユーザ端末は、
前記第1の撮像画像を撮像したカメラの配置位置を重畳した地図データを前記アラーム通知画面に含めて表示する、
請求項4に記載の捜査支援システム。
The user terminal is
The map data in which the arrangement position of the camera that captured the first captured image is superimposed is included in the alarm notification screen and displayed.
The investigation support system according to claim 4.
解析サーバと統合サーバとが通信可能に接続される捜査支援システムにより実行される捜査支援方法であって、
前記解析サーバにより、第1の撮像タイミングで撮像された車両が映る第1の撮像画像を受け取ると前記車両の乗員の顔およびライセンスプレートの解析を行い、前記乗員の顔画像とライセンス番号情報とを含む第1の解析結果を前記統合サーバに送り、
前記統合サーバにより、前記第1の解析結果を前記第1の撮像タイミングと関連付けてデータベースに登録し、
前記解析サーバにより、第2の撮像タイミングで撮像された車両が映る第2の撮像画像を受け取ると前記車両の乗員の顔およびライセンスプレートの解析を行い、前記乗員の顔画像とライセンス番号情報とを含む第2の解析結果を前記統合サーバに送り、
前記統合サーバにより、前記第1の解析結果に含まれる前記ライセンス番号情報と前記第2の解析結果に含まれる前記ライセンス番号情報とが一致しかつ前記第1の解析結果に含まれる前記乗員の顔画像と前記第2の解析結果に含まれる前記乗員の顔画像とが異なると決定した場合に、事件等に関するアラーム通知を行う、
捜査支援方法。
It is an investigation support method executed by an investigation support system in which the analysis server and the integrated server are communicably connected.
When the analysis server receives the first captured image of the vehicle captured at the first imaging timing, it analyzes the occupant's face and license plate of the vehicle, and obtains the occupant's face image and license number information. The first analysis result including is sent to the integrated server,
The integrated server registers the first analysis result in the database in association with the first imaging timing.
When the analysis server receives the second captured image of the vehicle captured at the second imaging timing, it analyzes the occupant's face and license plate of the vehicle, and obtains the occupant's face image and license number information. The second analysis result including the result is sent to the integrated server, and the result is sent to the integrated server.
By the integrated server, the license number information included in the first analysis result and the license number information included in the second analysis result match, and the face of the occupant included in the first analysis result. When it is determined that the image and the face image of the occupant included in the second analysis result are different, an alarm notification regarding the incident or the like is given.
Investigation support method.
ユーザ端末と、複数の解析サーバとの間で通信可能に接続された統合サーバとを含む捜査支援システムであって、
前記ユーザ端末は、
事件等に関する複数の異なるオブジェクト特徴要素ごとに対応して設けられた前記複数の解析サーバの一覧を示す解析サーバ選択画面を表示し、
前記解析サーバ選択画面から第1の解析サーバを選択し、選択された前記第1の解析サーバにより検索されるオブジェクトのオブジェクト特徴要素を含む検索条件の入力に基づいて、前記検索条件を満たす該当オブジェクトの検索要求を前記統合サーバに送り、
前記統合サーバは、
前記検索要求に基づいて、前記第1の解析サーバに前記該当オブジェクトの検索指示を送り、前記第1の解析サーバからの検索結果を受信して前記ユーザ端末に送る、
捜査支援システム。
An investigation support system that includes an integrated server that is communicably connected between a user terminal and a plurality of analysis servers.
The user terminal is
Display the analysis server selection screen showing a list of the plurality of analysis servers provided corresponding to each of a plurality of different object feature elements related to an incident or the like.
The first analysis server is selected from the analysis server selection screen, and the corresponding object satisfying the search condition is based on the input of the search condition including the object feature element of the object searched by the selected first analysis server. Send the search request to the integrated server
The integrated server
Based on the search request, a search instruction for the corresponding object is sent to the first analysis server, a search result from the first analysis server is received, and the search result is sent to the user terminal.
Investigation support system.
前記ユーザ端末は、
前記第1の解析サーバの選択後、前記解析サーバ選択画面から第2の解析サーバを選択し、選択された前記第1の解析サーバおよび前記第2の解析サーバのそれぞれにより検索可能なオブジェクトのオブジェクト特徴要素を含む検索条件の入力に基づいて、前記検索条件を満たす該当オブジェクトの検索要求を前記統合サーバに送り、
前記統合サーバは、
前記検索要求に基づいて、前記第1の解析サーバおよび前記第2の解析サーバのそれぞれに前記該当オブジェクトの検索指示を送り、前記第1の解析サーバおよび前記第2の解析サーバのそれぞれからの検索結果を受信して前記ユーザ端末に送る、
請求項7に記載の捜査支援システム。
The user terminal is
After selecting the first analysis server, select the second analysis server from the analysis server selection screen, and the object of the object that can be searched by each of the selected first analysis server and the second analysis server. Based on the input of the search condition including the feature element, a search request for the corresponding object satisfying the search condition is sent to the integrated server.
The integrated server
Based on the search request, a search instruction for the corresponding object is sent to each of the first analysis server and the second analysis server, and a search from each of the first analysis server and the second analysis server is performed. Receive the result and send it to the user terminal,
The investigation support system according to claim 7.
ユーザ端末と、複数の解析サーバとの間で通信可能に接続された統合サーバとを含む捜査支援システムにより実行される捜査支援方法であって、
前記ユーザ端末により、事件等に関する複数の異なるオブジェクト特徴要素ごとに対応して設けられた前記複数の解析サーバの一覧を示す解析サーバ選択画面を表示し、
前記ユーザ端末により、前記解析サーバ選択画面から第1の解析サーバを選択し、選択された前記第1の解析サーバにより検索されるオブジェクトのオブジェクト特徴要素を含む検索条件の入力に基づいて、前記検索条件を満たす該当オブジェクトの検索要求を前記統合サーバに送り、
前記統合サーバにより、前記検索要求に基づいて、前記第1の解析サーバに前記該当オブジェクトの検索指示を送り、前記第1の解析サーバからの検索結果を受信して前記ユーザ端末に送る、
捜査支援方法。
An investigation support method executed by an investigation support system including an integrated server that is communicably connected between a user terminal and a plurality of analysis servers.
The user terminal displays an analysis server selection screen showing a list of the plurality of analysis servers provided corresponding to each of a plurality of different object feature elements related to an incident or the like.
The user terminal selects the first analysis server from the analysis server selection screen, and the search is based on the input of the search condition including the object feature element of the object searched by the selected first analysis server. Send a search request for the corresponding object that meets the conditions to the integrated server,
Based on the search request, the integrated server sends a search instruction for the object to the first analysis server, receives a search result from the first analysis server, and sends it to the user terminal.
Investigation support method.
ユーザ端末と、n(n:2以上の整数)個の解析サーバとの間で通信可能に接続される統合サーバとを含む捜査支援システムであって、
前記統合サーバは、
前記n個の解析サーバのそれぞれとの間の通信状況を定期的に監視し、
k(k:1〜nまでの整数)個の異なるオブジェクト特徴要素を含む検索条件を前記ユーザ端末から受け取ると前記n個の解析サーバのうち前記検索条件に含まれる前記k個のオブジェクト特徴要素のそれぞれに対応して設けられたk個の解析サーバを決定し、前記k個の解析サーバのそれぞれに該当オブジェクトの検索要求を送り、
前記k個の解析サーバのうち特定の解析サーバとの間の通信断が生じたことを検知すると、(k−1)個の解析サーバから受信した検索結果と前記特定の解析サーバとの間の通信断が生じたことの通信断通知とを前記ユーザ端末に送り、
前記ユーザ端末は、
前記(k−1)個の解析サーバから受信した検索結果と前記通信断通知とを含む検索結果画面を表示する、
捜査支援システム。
An investigation support system including an integrated server that is communicably connected between a user terminal and n (n: integers of 2 or more) analysis servers.
The integrated server
The communication status with each of the n analysis servers is periodically monitored, and the communication status is monitored.
When a search condition containing k (integer from k: 1 to n) different object feature elements is received from the user terminal, the k object feature elements included in the search condition among the n analysis servers The k analysis servers provided corresponding to each are determined, and a search request for the corresponding object is sent to each of the k analysis servers.
When it is detected that communication with a specific analysis server among the k analysis servers has occurred, the search result received from (k-1) analysis servers and the specific analysis server A communication disconnection notification that a communication interruption has occurred is sent to the user terminal,
The user terminal is
A search result screen including the search results received from the (k-1) analysis servers and the communication interruption notification is displayed.
Investigation support system.
前記ユーザ端末は、
前記特定の解析サーバとの間の通信断が生じたことを示す通信断アイコンを前記検索結果画面に含めて表示する、
請求項10に記載の捜査支援システム。
The user terminal is
A communication disconnection icon indicating that a communication interruption with the specific analysis server has occurred is included in the search result screen and displayed.
The investigation support system according to claim 10.
前記統合サーバは、
前記特定の解析サーバとの間の通信が復帰したことを検知すると、前記特定の解析サーバとの間の通信が復帰したことの復帰通知を前記ユーザ端末に送り、
前記ユーザ端末は、
前記統合サーバから送られた前記復帰通知を前記検索結果画面に含めて表示する、
請求項10に記載の捜査支援システム。
The integrated server
When it is detected that the communication with the specific analysis server has been restored, a restoration notification indicating that the communication with the specific analysis server has been restored is sent to the user terminal.
The user terminal is
The return notification sent from the integrated server is included in the search result screen and displayed.
The investigation support system according to claim 10.
前記ユーザ端末は、
前記復帰通知を前記統合サーバから受信する前に前記特定の解析サーバとの間の通信断が生じたことを示す通信断アイコンを、前記復帰通知の受信に応じて前記検索結果画面から非表示する、
請求項12に記載の捜査支援システム。
The user terminal is
The communication disconnection icon indicating that the communication interruption with the specific analysis server occurred before the return notification is received from the integrated server is hidden from the search result screen in response to the reception of the return notification. ,
The investigation support system according to claim 12.
ユーザ端末と、n(n:2以上の整数)個の解析サーバとの間で通信可能に接続される統合サーバとを含む捜査支援システムにより実行される捜査支援方法であって、
前記統合サーバにより、前記n個の解析サーバのそれぞれとの間の通信状況を定期的に監視し、
前記統合サーバにより、k(k:1〜nまでの整数)個の異なるオブジェクト特徴要素を含む検索条件を前記ユーザ端末から受け取ると前記n個の解析サーバのうち前記検索条件に含まれる前記k個のオブジェクト特徴要素のそれぞれに対応して設けられたk個の解析サーバを決定し、
前記統合サーバにより、前記k個の解析サーバのそれぞれに該当オブジェクトの検索要求を送り、
前記統合サーバにより、前記k個の解析サーバのうち特定の解析サーバとの間の通信断が生じたことを検知すると、(k−1)個の解析サーバから受信した検索結果と前記特定の解析サーバとの間の通信断が生じたことの通信断通知とを前記ユーザ端末に送り、
前記ユーザ端末により、前記(k−1)個の解析サーバから受信した検索結果と前記通信断通知とを含む検索結果画面を表示する、
捜査支援方法。
An investigation support method executed by an investigation support system including an integrated server that is communicably connected between a user terminal and n (n: integers of 2 or more) analysis servers.
The integrated server periodically monitors the communication status with each of the n analysis servers.
When the integrated server receives a search condition containing k (integer from k: 1 to n) of different object feature elements from the user terminal, the k of the n analysis servers included in the search condition. Determine the k analysis servers provided for each of the object feature elements of
The integrated server sends a search request for the corresponding object to each of the k analysis servers.
When the integrated server detects that communication with a specific analysis server among the k analysis servers has occurred, the search results received from the (k-1) analysis servers and the specific analysis are performed. A communication disconnection notification that a communication interruption with the server has occurred is sent to the user terminal, and the communication is interrupted.
The user terminal displays a search result screen including the search results received from the (k-1) analysis servers and the communication interruption notification.
Investigation support method.
ユーザ端末と、少なくとも第1の解析サーバおよび第2の解析サーバとの間で通信可能に接続される統合サーバとを含む捜査支援システムであって、
前記統合サーバは、
事件等に関する第1のオブジェクト特徴要素と前記事件等に関する第2のオブジェクト特徴要素とを含む検索条件を前記ユーザ端末から受け取ると前記第1のオブジェクト特徴要素を満たす該当オブジェクトの検索要求を前記第1の解析サーバに送りかつ前記第2のオブジェクト特徴要素を満たす該当オブジェクトの検索要求を前記第2の解析サーバに送り、
前記第1のオブジェクト特徴要素を満たす該当オブジェクトを含む第1の検索結果を前記第1の解析サーバから受け取りかつ前記第2のオブジェクト特徴要素を満たす該当オブジェクトを含む第2の検索結果を前記第2の解析サーバから受け取り、
前記第1の検索結果から前記第2の検索結果を除外した第3の検索結果を前記ユーザ端末に送り、
前記ユーザ端末は、
前記統合サーバから送られた前記第3の検索結果を含む検索結果画面を表示する、
捜査支援システム。
An investigation support system that includes a user terminal and an integrated server that is communicably connected to at least a first analysis server and a second analysis server.
The integrated server
When a search condition including a first object feature element related to an incident or the like and a second object feature element related to the case or the like is received from the user terminal, a search request for the corresponding object satisfying the first object feature element is made by the first object. A search request for the corresponding object that satisfies the second object feature element is sent to the second analysis server.
The second search result including the corresponding object satisfying the first object feature element is received from the first analysis server and the second search result including the corresponding object satisfying the second object feature element is received from the first analysis server. Received from the analysis server of
A third search result obtained by excluding the second search result from the first search result is sent to the user terminal.
The user terminal is
Display the search result screen including the third search result sent from the integrated server.
Investigation support system.
前記第1の検索結果は、前記第1のオブジェクト特徴要素を満たす該当オブジェクトを撮像したカメラの識別情報および撮像時刻情報を含み、
前記第2の検索結果は、前記第2のオブジェクト特徴要素を満たす該当オブジェクトを撮像したカメラの識別情報および撮像時刻情報を含み、
前記統合サーバは、
前記第1の検索結果および前記第2の検索結果のそれぞれに含まれる前記カメラの識別情報および撮像時刻情報が共通となる前記第2の検索結果に基づいて、前記第3の検索結果を抽出する、
請求項15に記載の捜査支援システム。
The first search result includes identification information and imaging time information of a camera that has imaged the corresponding object satisfying the first object feature element.
The second search result includes identification information and imaging time information of a camera that has imaged the corresponding object satisfying the second object feature element.
The integrated server
The third search result is extracted based on the second search result in which the identification information of the camera and the imaging time information included in each of the first search result and the second search result are common. ,
The investigation support system according to claim 15.
前記ユーザ端末は、
前記第1のオブジェクト特徴要素あるいは前記第2のオブジェクト特徴要素を構成する一部のオブジェクト特徴要素を検索除外対象として指定した除外付き検索条件を前記統合サーバに送り、
前記統合サーバは、
前記除外付き検索条件を満たす該当オブジェクトの検索要求を前記第1の解析サーバあるいは前記第2の解析サーバに送り、前記第1の解析サーバあるいは前記第2の解析サーバからの検索結果を受け取って前記ユーザ端末に送る、
請求項15に記載の捜査支援システム。
The user terminal is
A search condition with exclusions in which the first object feature element or a part of the object feature elements constituting the second object feature element is designated as a search exclusion target is sent to the integrated server.
The integrated server
The search request for the corresponding object satisfying the search condition with exclusion is sent to the first analysis server or the second analysis server, and the search result from the first analysis server or the second analysis server is received and described. Send to user terminal,
The investigation support system according to claim 15.
ユーザ端末と、少なくとも第1の解析サーバおよび第2の解析サーバとの間で通信可能に接続される統合サーバとを含む捜査支援システムにより実行される捜査支援方法であって、
前記統合サーバにより、事件等に関する第1のオブジェクト特徴要素と前記事件等に関する第2のオブジェクト特徴要素とを含む検索条件を前記ユーザ端末から受け取ると前記第1のオブジェクト特徴要素を満たす該当オブジェクトの検索要求を前記第1の解析サーバに送りかつ前記第2のオブジェクト特徴要素を満たす該当オブジェクトの検索要求を前記第2の解析サーバに送り、
前記統合サーバにより、前記第1のオブジェクト特徴要素を満たす該当オブジェクトを含む第1の検索結果を前記第1の解析サーバから受け取りかつ前記第2のオブジェクト特徴要素を満たす該当オブジェクトを含む第2の検索結果を前記第2の解析サーバから受け取り、
前記統合サーバにより、前記第1の検索結果から前記第2の検索結果を除外した第3の検索結果を前記ユーザ端末に送り、
前記ユーザ端末により、前記統合サーバから送られた前記第3の検索結果を含む検索結果画面を表示する、
捜査支援方法。
An investigation support method performed by an investigation support system that includes a user terminal and an integrated server that is communicably connected to at least the first analysis server and the second analysis server.
When the integrated server receives a search condition including a first object feature element related to an incident or the like and a second object feature element related to the incident or the like from the user terminal, a search for the corresponding object satisfying the first object feature element is performed. A request is sent to the first analysis server, and a search request for the corresponding object satisfying the second object feature element is sent to the second analysis server.
The integrated server receives a first search result including the corresponding object satisfying the first object feature element from the first analysis server and a second search including the corresponding object satisfying the second object feature element. Receive the result from the second analysis server
The integrated server sends a third search result obtained by excluding the second search result from the first search result to the user terminal.
The user terminal displays a search result screen including the third search result sent from the integrated server.
Investigation support method.
ユーザ端末と複数の解析サーバとが統合サーバを介して通信可能に接続される捜査支援システムであって、
前記複数の解析サーバのそれぞれは、
複数のカメラのそれぞれとの間で接続され、事件等に関して他の解析サーバにより検索可能なオブジェクトと異なるオブジェクトの照合リストを保持し、
前記複数の解析サーバのそれぞれは、
前記カメラの撮像映像の解析により自己が保持する前記照合リストを満たすオブジェクトを検知すると、前記オブジェクトの検知を示すイベント名、検知日時および前記カメラの配置位置の情報を含む検知通知を、前記統合サーバを介して前記ユーザ端末に送り、
前記ユーザ端末は、
前記解析サーバから送られた前記検知通知に含まれる前記イベント名、検知日時および前記カメラの配置位置の情報を含むイベント検知画面を表示する、
捜査支援システム。
It is an investigation support system in which a user terminal and a plurality of analysis servers are connected to each other so as to be able to communicate with each other via an integrated server.
Each of the plurality of analysis servers
It is connected to each of multiple cameras and holds a collation list of objects that are different from the objects that can be searched by other analysis servers regarding incidents, etc.
Each of the plurality of analysis servers
When an object that satisfies the collation list held by itself is detected by analyzing the image captured by the camera, the integrated server sends a detection notification including information on the event name indicating the detection of the object, the detection date and time, and the position of the camera. To the user terminal via
The user terminal is
The event detection screen including the event name, the detection date and time, and the information on the placement position of the camera included in the detection notification sent from the analysis server is displayed.
Investigation support system.
前記ユーザ端末は、
前記イベント名、検知日時および前記カメラの配置位置の情報の項目を有するイベントリストを前記イベント検知画面に含めて表示する、
請求項19に記載の捜査支援システム。
The user terminal is
An event list having items of the event name, the detection date and time, and the information of the camera placement position is included in the event detection screen and displayed.
The investigation support system according to claim 19.
前記ユーザ端末は、
前記解析サーバから前記検知通知を受信する度に、その検知通知に含まれる前記イベント名、検知日時および前記カメラの配置位置の情報の項目を前記イベントリストに追加して更新する、
請求項20に記載の捜査支援システム。
The user terminal is
Each time the detection notification is received from the analysis server, the event name, the detection date and time, and the information items of the camera placement position included in the detection notification are added to the event list and updated.
The investigation support system according to claim 20.
前記ユーザ端末は、
前記複数のカメラのそれぞれが配置されたエリアの地図データを有し、前記カメラの撮像映像に基づいて検知されたイベント名、イベント数および検知日時を前記カメラの配置位置ごとに対応付けて前記地図データに重畳して前記イベント検知画面に含めて表示する、
請求項19に記載の捜査支援システム。
The user terminal is
The map has map data of an area in which each of the plurality of cameras is arranged, and associates the event name, the number of events, and the detection date and time detected based on the captured image of the cameras with each arrangement position of the cameras. Superimpose on the data and display it on the event detection screen.
The investigation support system according to claim 19.
前記ユーザ端末は、
前記検知日時の指定に基づいて、指定された前記検知日時に対応する配置位置のカメラのライブ映像の出力ウインドウを前記イベント検知画面に含めて表示する、
請求項22に記載の捜査支援システム。
The user terminal is
Based on the designation of the detection date and time, the output window of the live image of the camera at the arrangement position corresponding to the specified detection date and time is included in the event detection screen and displayed.
The investigation support system according to claim 22.
前記ユーザ端末は、
前記複数のカメラのそれぞれが配置されたエリアの地図データを有し、前記イベントリストのいずれかの項目の指定に基づいて、指定された前記項目に対応する前記カメラの配置位置を重畳した前記地図データと前記検知日時のカメラの撮像映像の再生ボタンとを少なくとも有するイベント詳細ウインドウを前記イベント検知画面に含めて表示する、
請求項21に記載の捜査支援システム。
The user terminal is
The map which has map data of the area where each of the plurality of cameras is arranged and superimposes the arrangement position of the camera corresponding to the designated item based on the designation of any item of the event list. The event details window having at least the data and the play button of the image captured by the camera on the detection date and time is included in the event detection screen and displayed.
The investigation support system according to claim 21.
前記ユーザ端末は、
指定された前記項目に対応する前記配置位置のカメラのライブ映像の出力ボタンを前記イベント詳細ウインドウに含めて表示する、
請求項24に記載の捜査支援システム。
The user terminal is
The output button of the live image of the camera at the arrangement position corresponding to the specified item is included in the event details window and displayed.
The investigation support system according to claim 24.
ユーザ端末と複数の解析サーバとが統合サーバを介して通信可能に接続される捜査支援システムにより実行される捜査支援方法であって、
前記複数の解析サーバのそれぞれにより、複数のカメラのそれぞれとの間で接続し、
前記複数の解析サーバのそれぞれにより、事件等に関して他の解析サーバにより検索可能なオブジェクトと異なるオブジェクトの照合リストを保持し、
前記複数の解析サーバのそれぞれにより、前記カメラの撮像映像の解析により自己が保持する前記照合リストを満たすオブジェクトを検知した場合に、前記オブジェクトの検知を示すイベント名、検知日時および前記カメラの配置位置の情報を含む検知通知を、前記統合サーバを介して前記ユーザ端末に送り、
前記ユーザ端末により、前記解析サーバから送られた前記検知通知に含まれる前記イベント名、検知日時および前記カメラの配置位置の情報を含むイベント検知画面を表示する、
捜査支援方法。
This is an investigation support method executed by an investigation support system in which a user terminal and a plurality of analysis servers are communicably connected via an integrated server.
Each of the plurality of analysis servers connects to each of the plurality of cameras.
Each of the plurality of analysis servers holds a collation list of objects that are different from the objects that can be searched by other analysis servers regarding incidents and the like.
When each of the plurality of analysis servers detects an object that satisfies the collation list held by itself by analyzing the captured image of the camera, the event name indicating the detection of the object, the detection date and time, and the arrangement position of the camera. A detection notification including the above information is sent to the user terminal via the integrated server.
The user terminal displays an event detection screen including information on the event name, detection date and time, and camera placement position included in the detection notification sent from the analysis server.
Investigation support method.
ユーザ端末と複数の解析サーバとが統合サーバを介して通信可能に接続される捜査支援システムであって、
前記複数の解析サーバのうち第1の解析サーバは、
カメラの撮像映像の解析により事件等に関する特定の行動を検知すると、前記行動が検知された前記カメラの撮像画像を少なくとも含むアラーム通知を、前記統合サーバを介して前記ユーザ端末に送り、
前記ユーザ端末は、
前記第1の解析サーバから送られた前記アラーム通知に含まれる前記撮像画像と前記撮像画像に映る前記行動の行為者の人物解析ボタンとを含むイベント通知画面を表示し、
前記人物解析ボタンの指定に基づいて、前記撮像画像に映る行為者の人物解析を、前記統合サーバを介して要求し、
前記複数の解析サーバのうち第2の解析サーバは、
前記ユーザ端末からの前記要求に基づいて、前記撮像画像に映る行為者の人物解析結果を、前記統合サーバを介して前記ユーザ端末に送り、
前記ユーザ端末は、
前記第2の解析サーバから送られた前記人物解析結果に含まれる前記行為者の切り出し画像と前記切り出し画像に映る人物の追跡ボタンとを含む解析結果画面を表示し、
前記追跡ボタンの指定に基づいて、前記追跡ボタンに対応する前記人物のブラックリスト登録を、前記統合サーバを介して要求し、
前記第2の解析サーバは、
前記ユーザ端末からの前記要求に基づいて、前記追跡ボタンに対応する前記人物の切り出し画像を前記第2の解析サーバのブラックリストデータに登録する、
捜査支援システム。
It is an investigation support system in which a user terminal and a plurality of analysis servers are connected to each other so as to be able to communicate with each other via an integrated server.
The first analysis server among the plurality of analysis servers is
When a specific action related to an incident or the like is detected by analyzing the image captured by the camera, an alarm notification including at least the captured image of the camera in which the action is detected is sent to the user terminal via the integrated server.
The user terminal is
An event notification screen including the captured image included in the alarm notification sent from the first analysis server and the person analysis button of the actor of the action reflected in the captured image is displayed.
Based on the designation of the person analysis button, the person analysis of the actor reflected in the captured image is requested via the integrated server.
The second analysis server among the plurality of analysis servers is
Based on the request from the user terminal, the person analysis result of the actor reflected in the captured image is sent to the user terminal via the integrated server.
The user terminal is
An analysis result screen including a cutout image of the actor included in the person analysis result sent from the second analysis server and a tracking button of the person reflected in the cutout image is displayed.
Based on the designation of the tracking button, the blacklist registration of the person corresponding to the tracking button is requested via the integrated server.
The second analysis server is
Based on the request from the user terminal, the cutout image of the person corresponding to the tracking button is registered in the blacklist data of the second analysis server.
Investigation support system.
前記第2の解析サーバは、
カメラの撮像映像の解析により前記ブラックリストデータに登録された前記人物と同一あるいは類似する人物を検知すると、前記検知された人物が映る撮像画像、検知日時および前記カメラの配置位置の情報を含む検知通知を、前記統合サーバを介して前記ユーザ端末に送り、
前記ユーザ端末は、
前記第2の解析サーバから送られた前記検知通知に含まれる前記撮像画像、検知日時および前記カメラの配置位置の情報を含む人物追跡運用画面を表示する、
請求項27に記載の捜査支援システム。
The second analysis server is
When a person who is the same as or similar to the person registered in the blacklist data is detected by analyzing the image captured by the camera, the detection including the captured image showing the detected person, the detection date and time, and the information on the position of the camera is detected. The notification is sent to the user terminal via the integrated server,
The user terminal is
A person tracking operation screen including the captured image, the detection date and time, and the information on the placement position of the camera included in the detection notification sent from the second analysis server is displayed.
The investigation support system according to claim 27.
前記ユーザ端末は、
前記追跡ボタンに対応する前記人物の切り出し画像を示す追跡対象リストを前記人物追跡運用画面に含めて表示する、
請求項28に記載の捜査支援システム。
The user terminal is
A tracking target list showing a cut-out image of the person corresponding to the tracking button is included in the person tracking operation screen and displayed.
The investigation support system according to claim 28.
前記ユーザ端末は、
前記行動の名前、前記行動の検知日時および前記カメラの配置位置の情報の項目を有するイベントリストを前記人物追跡運用画面に含めて表示する、
請求項28に記載の捜査支援システム。
The user terminal is
An event list having items of the action name, the detection date and time of the action, and the information of the camera placement position is included in the person tracking operation screen and displayed.
The investigation support system according to claim 28.
前記ユーザ端末は、
前記第2の解析サーバから前記検知通知を受信する度に、その検知通知に含まれる前記行動の名前、前記行動の検知日時および前記カメラの配置位置の情報の項目を前記イベントリストに追加して更新する、
請求項30に記載の捜査支援システム。
The user terminal is
Each time the detection notification is received from the second analysis server, items of the action name, the detection date and time of the action, and the information of the camera placement position included in the detection notification are added to the event list. Update,
The investigation support system according to claim 30.
前記ユーザ端末は、
前記カメラが配置されたエリアの地図データを有し、前記行動が検知された前記撮像画像と前記行動の検知日時とを前記カメラの配置位置に対応付けて前記地図データに重畳して前記人物追跡運用画面に含めて表示する、
請求項28に記載の捜査支援システム。
The user terminal is
It has map data of the area where the camera is arranged, and the captured image in which the action is detected and the detection date and time of the action are associated with the arrangement position of the camera and superimposed on the map data to track the person. Display by including in the operation screen,
The investigation support system according to claim 28.
前記ユーザ端末は、
前記撮像画像の指定に基づいて、指定された前記撮像画像に映る前記行動の行為者の切り出し画像と、前記行動に対応して前記ブラックリストデータに登録された前記人物の切り出し画像とを並べたイベント詳細ウインドウを前記人物追跡運用画面に含めて表示する、
請求項32に記載の捜査支援システム。
The user terminal is
Based on the designation of the captured image, the cut-out image of the actor of the action reflected in the designated captured image and the cut-out image of the person registered in the blacklist data corresponding to the action are arranged side by side. Display the event details window by including it in the person tracking operation screen.
The investigation support system according to claim 32.
前記複数の解析サーバのうち第3の解析サーバは、
前記ユーザ端末からの前記要求に基づいて、前記撮像画像に映る行為者の人物の顔解析結果を、前記統合サーバを介して前記ユーザ端末に送り、
前記ユーザ端末は、
前記第3の解析サーバから送られた前記顔解析結果に含まれる前記行為者の顔の切り出し画像と前記切り出し画像に映る顔の追跡ボタンとを含む前記解析結果画面を表示し、
前記追跡ボタンの指定に基づいて、前記追跡ボタンに対応する前記顔のブラックリスト登録を、前記統合サーバを介して要求し、
前記第3の解析サーバは、
前記ユーザ端末からの前記要求に基づいて、前記追跡ボタンに対応する前記顔の切り出し画像を前記第3の解析サーバのブラックリストデータに登録する、
請求項27に記載の捜査支援システム。
The third analysis server among the plurality of analysis servers is
Based on the request from the user terminal, the face analysis result of the person of the actor reflected in the captured image is sent to the user terminal via the integrated server.
The user terminal is
The analysis result screen including the cut-out image of the actor's face included in the face analysis result sent from the third analysis server and the face tracking button reflected in the cut-out image is displayed.
Based on the designation of the tracking button, blacklisting of the face corresponding to the tracking button is requested via the integrated server.
The third analysis server is
Based on the request from the user terminal, the cut-out image of the face corresponding to the tracking button is registered in the blacklist data of the third analysis server.
The investigation support system according to claim 27.
ユーザ端末と複数の解析サーバとが統合サーバを介して通信可能に接続される捜査支援システムにより実行される捜査支援方法であって、
前記複数の解析サーバのうち第1の解析サーバにより、カメラの撮像映像の解析により事件等に関する特定の行動を検知すると、前記行動が検知された前記カメラの撮像画像を少なくとも含むアラーム通知を、前記統合サーバを介して前記ユーザ端末に送り、
前記ユーザ端末により、前記第1の解析サーバから送られた前記アラーム通知に含まれる前記撮像画像と前記撮像画像に映る前記行動の行為者の人物解析ボタンとを含むイベント通知画面を表示し、
前記ユーザ端末により、前記人物解析ボタンの指定に基づいて、前記撮像画像に映る行為者の人物解析を、前記統合サーバを介して要求し、
前記複数の解析サーバのうち第2の解析サーバにより、前記ユーザ端末からの前記要求に基づいて、前記撮像画像に映る行為者の人物解析結果を、前記統合サーバを介して前記ユーザ端末に送り、
前記ユーザ端末により、前記第2の解析サーバから送られた前記人物解析結果に含まれる前記行為者の切り出し画像と前記切り出し画像に映る人物の追跡ボタンとを含む解析結果画面を表示し、
前記ユーザ端末により、前記追跡ボタンの指定に基づいて、前記追跡ボタンに対応する前記人物のブラックリスト登録を、前記統合サーバを介して要求し、
前記第2の解析サーバにより、前記ユーザ端末からの前記要求に基づいて、前記追跡ボタンに対応する前記人物の切り出し画像を前記第2の解析サーバのブラックリストデータに登録する、
捜査支援方法。
This is an investigation support method executed by an investigation support system in which a user terminal and a plurality of analysis servers are communicably connected via an integrated server.
When the first analysis server among the plurality of analysis servers detects a specific action related to an incident or the like by analyzing the image captured by the camera, the alarm notification including at least the captured image of the camera in which the action is detected is sent. Send to the user terminal via the integrated server
The user terminal displays an event notification screen including the captured image included in the alarm notification sent from the first analysis server and the person analysis button of the actor of the action reflected in the captured image.
Based on the designation of the person analysis button, the user terminal requests the person analysis of the actor reflected in the captured image via the integrated server.
Based on the request from the user terminal, the second analysis server among the plurality of analysis servers sends the person analysis result of the actor reflected in the captured image to the user terminal via the integrated server.
The user terminal displays an analysis result screen including a cutout image of the actor included in the person analysis result sent from the second analysis server and a tracking button of the person reflected in the cutout image.
Based on the designation of the tracking button, the user terminal requests the blacklist registration of the person corresponding to the tracking button via the integrated server.
Based on the request from the user terminal, the second analysis server registers a cutout image of the person corresponding to the tracking button in the blacklist data of the second analysis server.
Investigation support method.
JP2019231727A 2019-11-18 2019-12-23 Investigation support system and investigation support method Active JP7409638B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019231727A JP7409638B2 (en) 2019-12-23 2019-12-23 Investigation support system and investigation support method
PCT/JP2020/042079 WO2021100574A1 (en) 2019-11-18 2020-11-11 Investigation assistance system and investigation assistance method
US17/746,479 US20220277642A1 (en) 2019-11-18 2022-05-17 Investigation assistance system and investigation assistance method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019231727A JP7409638B2 (en) 2019-12-23 2019-12-23 Investigation support system and investigation support method

Publications (2)

Publication Number Publication Date
JP2021099709A true JP2021099709A (en) 2021-07-01
JP7409638B2 JP7409638B2 (en) 2024-01-09

Family

ID=76541226

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019231727A Active JP7409638B2 (en) 2019-11-18 2019-12-23 Investigation support system and investigation support method

Country Status (1)

Country Link
JP (1) JP7409638B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114756053A (en) * 2022-03-30 2022-07-15 中科融信科技有限公司 Police service inspection method and system based on unmanned aerial vehicle and storage medium

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6689566B2 (en) 2014-09-25 2020-04-28 綜合警備保障株式会社 Security system and security method
JP6011833B1 (en) 2015-09-14 2016-10-19 パナソニックIpマネジメント株式会社 Wearable camera system and person notification method
JP2019036872A (en) 2017-08-17 2019-03-07 パナソニックIpマネジメント株式会社 Search support device, search support method and search support system
JP2019080295A (en) 2017-10-20 2019-05-23 パナソニックIpマネジメント株式会社 Investigation assist system and investigation assist method
JP6573346B1 (en) 2018-09-20 2019-09-11 パナソニック株式会社 Person search system and person search method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114756053A (en) * 2022-03-30 2022-07-15 中科融信科技有限公司 Police service inspection method and system based on unmanned aerial vehicle and storage medium
CN114756053B (en) * 2022-03-30 2022-10-04 中科融信科技有限公司 Police service inspection method and system based on unmanned aerial vehicle and storage medium

Also Published As

Publication number Publication date
JP7409638B2 (en) 2024-01-09

Similar Documents

Publication Publication Date Title
US11030463B2 (en) Systems and methods for displaying captured videos of persons similar to a search target person
US11640726B2 (en) Person monitoring system and person monitoring method
JP7258596B2 (en) Investigation support system and investigation support method
US7683929B2 (en) System and method for video content analysis-based detection, surveillance and alarm management
US20040240542A1 (en) Method and apparatus for video frame sequence-based object tracking
JP2019036872A (en) Search support device, search support method and search support system
JP7258595B2 (en) Investigation support system and investigation support method
US11417103B2 (en) Investigation assist system and investigation assist method
JP6799779B2 (en) Surveillance video analysis system and surveillance video analysis method
US10861340B2 (en) Vehicle detection system and vehicle detection method
US10984254B2 (en) Investigation assist system and investigation assist method
US20210089784A1 (en) System and Method for Processing Video Data from Archive
WO2018154902A1 (en) Information processing device, information processing method, and program
JP2019080295A (en) Investigation assist system and investigation assist method
US20220277642A1 (en) Investigation assistance system and investigation assistance method
JP7409638B2 (en) Investigation support system and investigation support method
JP6806626B2 (en) Person group tracking device and person group tracking method
JP7409635B2 (en) Investigation support system and person image registration method
JP7235612B2 (en) Person search system and person search method
TWM502906U (en) Tracker warning apparatus and police dragnet apparatus

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20201224

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231214

R150 Certificate of patent or registration of utility model

Ref document number: 7409638

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150