JP2017062594A - Nuisance estimation system, and control method and control program for nuisance estimation system - Google Patents

Nuisance estimation system, and control method and control program for nuisance estimation system Download PDF

Info

Publication number
JP2017062594A
JP2017062594A JP2015186941A JP2015186941A JP2017062594A JP 2017062594 A JP2017062594 A JP 2017062594A JP 2015186941 A JP2015186941 A JP 2015186941A JP 2015186941 A JP2015186941 A JP 2015186941A JP 2017062594 A JP2017062594 A JP 2017062594A
Authority
JP
Japan
Prior art keywords
face data
stored
unit
person
database
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015186941A
Other languages
Japanese (ja)
Other versions
JP6558178B2 (en
Inventor
紀佳 戸野
Noriyoshi Tono
紀佳 戸野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2015186941A priority Critical patent/JP6558178B2/en
Publication of JP2017062594A publication Critical patent/JP2017062594A/en
Application granted granted Critical
Publication of JP6558178B2 publication Critical patent/JP6558178B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a nuisance estimation system capable of estimating a nuisance in the space where many and unspecified persons come and go.SOLUTION: In a nuisance estimation system 500, a first imaging part 501 images a person who enters the space. A second imaging part 502 is provided within the space and images the periphery of a corresponding position in accordance with a notification signal from a notification terminal 503. An image analysis part 504 extracts face data from the images which are captured by the first imaging part 501 and the second imaging part 502, and stores the face data in a first database part 505 and a second database part 506. A face data analysis part 508 analyzes the face data in the first database part 505 and the second database part 506, selects face data to be stored in a third database part 507 and calculates a frequency score. A discrimination part 509 estimates a person of face data of which the corresponding frequency score exceeds a threshold value after the lapse of a specific period, as a nuisance.SELECTED DRAWING: Figure 1

Description

本発明は、迷惑行為者推定システム、迷惑行為者推定システムの制御方法及び制御プログラムに関する。   The present invention relates to a nuisance agent estimation system, a control method for a nuisance agent estimation system, and a control program.

防犯カメラを用いて不審人物を検出する技術が知られている。特許文献1には、監視区域内に複数のカメラを設置し、監視対象者の保有する端末のGPS機能により監視対象者の位置を取得し、当該位置に対し所定の距離内にあるカメラが撮影した画像から監視対象者以外の顔画像を抽出し、これらの顔画像などから不審人物を推定する技術が記載されている。   A technique for detecting a suspicious person using a security camera is known. In Patent Document 1, a plurality of cameras are installed in a monitoring area, the position of the monitoring target is acquired by the GPS function of the terminal held by the monitoring target, and a camera within a predetermined distance from the position is photographed. A technique is described in which face images other than those to be monitored are extracted from the captured images, and a suspicious person is estimated from these face images.

特開2010−191620号公報JP 2010-191620 A 特開2006−146323号公報JP 2006-146323 A

しかしながら、電車内などの不特定多数の人が出入りする空間内では、迷惑行為を受けた者(被迷惑行為者)が予め特定されていないため、監視対象者が予め特定されていることを前提とする特許文献1に記載の技術では迷惑行為者を絞り込むことが困難であった。また、このような不特定多数の人が出入りする空間は混雑する場合も少なからずあるが、そのような場合に当該空間内に設置したカメラが撮影した画像から抽出された顔画像が不完全で人物を特定することができないおそれもあった。   However, in a space where an unspecified number of people enter and exit such as in a train, it is assumed that the person to be monitored has been specified in advance because the person who has received the nuisance (nuisance) is not specified in advance. In the technique described in Patent Document 1, it is difficult to narrow down nuisance persons. In addition, there are many cases where such a space where an unspecified number of people come and go is crowded, but in such a case, the face image extracted from the image taken by the camera installed in the space is incomplete. There was also a risk that the person could not be identified.

本発明は、以上の背景に鑑みなされたものであり、不特定多数の人が出入りする空間内における迷惑行為者を推定することができる迷惑行為者推定システム、迷惑行為者推定システムの制御方法及び制御プログラムを提供することを目的とする。   The present invention has been made in view of the above background, a nuisance person estimation system capable of estimating a nuisance person in a space where an unspecified number of people go in and out, a control method for a nuisance person estimation system, and An object is to provide a control program.

本発明は、不特定多数の人が出入りする出入口のある空間内における迷惑行為者を推定する迷惑行為者推定システムであって、前記出入口付近に設けられ前記空間に入場する人物を撮影する第1撮影部と、前記空間内に設けられ通報端末からの通報信号を受信した際に当該通報信号が発信された位置を特定し当該位置の周辺を撮影する第2撮影部と、前記第1撮影部が撮影した画像および前記第2撮影部が撮影した画像をそれぞれ分析し顔データを抽出する画像分析部と、前記第1撮影部が撮影した画像から抽出された顔データを格納する第1データベース部と、前記第2撮影部が撮影した画像から抽出された顔データを格納する第2データベース部と、迷惑行為者の候補となる顔データを格納する第3データベース部と、前記第3データベース部に格納する顔データの選別および頻度スコアの算出を行う顔データ解析部と、前記頻度スコアに基づいて推定される人物を判断する判断部と、を備え、前記顔データ解析部が、前記第1データベース部に格納された第1顔データと前記第2データベース部に格納された第2顔データとの照合を行い、前記第1顔データの中から前記第2顔データに最も近いものを格納候補顔データとして抽出し、前記格納候補顔データと実質的に一致する前記第3データベース部に格納済みの格納済み顔データがないときは、前記顔データ解析部が、当該格納候補顔データを新たに前記第3データベース部に格納するとともに格納した前記格納候補顔データに対応する前記頻度スコアとして初回値を与え、前記格納候補顔データと実質的に一致する前記第3データベース部に格納済みの格納済み顔データがあるときは、前記顔データ解析部が、前記格納候補顔データを前記第3データベース部に格納せずに前記格納候補顔データと一致した前記格納済み顔データに対応する前記頻度スコアを所定値だけ増やし、前記判断部が、予め定められた規定期間の経過後に、前記第3データベース部に格納された顔データのうち、対応する前記頻度スコアが予め定められた閾値を超えた顔データの人物を迷惑行為者と推定される人物と判断するものである。   The present invention is a nuisance person estimation system for estimating nuisance persons in a space with an entrance where an unspecified number of people enter and exit, and is a first system for photographing a person who is provided near the entrance and enters the space. An imaging unit; a second imaging unit that identifies a position where the notification signal is transmitted when receiving a notification signal from the notification terminal provided in the space; and images the periphery of the position; and the first imaging unit An image analysis unit that analyzes an image captured by the second image capturing unit and an image captured by the second image capturing unit to extract face data, and a first database unit that stores face data extracted from the image captured by the first image capturing unit A second database unit that stores face data extracted from an image captured by the second imaging unit, a third database unit that stores face data that is a candidate for a nuisance agent, and the third database unit. A face data analysis unit for selecting face data to be stored in a storage unit and calculating a frequency score; and a determination unit for determining a person estimated based on the frequency score, wherein the face data analysis unit includes: The first face data stored in the first database part and the second face data stored in the second database part are collated, and the one closest to the second face data is selected from the first face data. When there is no stored face data stored in the third database unit that is extracted as stored candidate face data and substantially matches the stored candidate face data, the face data analyzing unit extracts the stored candidate face data. An initial value is given as the frequency score corresponding to the stored candidate face data newly stored and stored in the third database unit, and substantially matches the stored candidate face data When there is stored face data stored in three database parts, the face data analysis part matches the stored candidate face data without storing the candidate storage face data in the third database part. The frequency score corresponding to the face data is increased by a predetermined value, and the judgment unit determines that the frequency score corresponding to the face data stored in the third database unit after the elapse of a predetermined time period. A person whose face data exceeds a predetermined threshold is determined to be a person estimated to be a nuisance.

また、本発明は、不特定多数の人が出入りする出入口のある空間の出入口付近に設けられ前記空間に入場する人物を撮影する第1撮影部と、前記空間内に設けられ通報端末からの通報信号を受信した際に当該通報信号が発信された位置を特定し当該位置の周辺を撮影する第2撮影部と、前記第1撮影部が撮影した画像および前記第2撮影部が撮影した画像をそれぞれ分析し顔データを抽出する画像分析部と、前記第1撮影部が撮影した画像から抽出された顔データを格納する第1データベース部と、前記第2撮影部が撮影した画像から抽出された顔データを格納する第2データベース部と、迷惑行為者の候補となる顔データを格納する第3データベース部と、前記第3データベース部に格納する顔データの選別および頻度スコアの算出を行う顔データ解析部と、前記頻度スコアに基づいて推定される人物を判断する判断部と、を備え前記空間内における迷惑行為者を推定する迷惑行為者推定システムの制御方法であって、前記顔データ解析部が、前記第1データベース部に格納された第1顔データと前記第2データベース部に格納された第2顔データとの照合を行い、前記第1顔データの中から前記第2顔データに最も近いものを格納候補顔データとして抽出するステップと、前記格納候補顔データと実質的に一致する前記第3データベース部に格納済みの格納済み顔データがないときは、前記顔データ解析部が、当該格納候補顔データを新たに前記第3データベース部に格納するとともに格納した前記格納候補顔データに対応する前記頻度スコアとして初回値を与えるステップと、前記格納候補顔データと実質的に一致する前記第3データベース部に格納済みの格納済み顔データがあるときは、前記顔データ解析部が、前記格納候補顔データを前記第3データベース部に格納せずに前記格納候補顔データと一致した前記格納済み顔データに対応する前記頻度スコアを所定値だけ増やすステップと、前記判断部が、予め定められた規定期間の経過後に、前記第3データベース部に格納された顔データのうち、対応する前記頻度スコアが予め定められた閾値を超えた顔データの人物を迷惑行為者と推定される人物と判断するステップと、を有するものである。   In addition, the present invention provides a first imaging unit that is provided in the vicinity of an entrance / exit of a space with an entrance / exit for an unspecified number of people to / from the entrance, and a report from a report terminal provided in the space. A second imaging unit that identifies a position from which the notification signal is transmitted when a signal is received and images the vicinity of the position, an image captured by the first imaging unit, and an image captured by the second imaging unit. An image analysis unit that analyzes and extracts face data, a first database unit that stores face data extracted from an image captured by the first imaging unit, and an image captured by the second imaging unit A second database unit for storing face data, a third database unit for storing face data as candidates for nuisance, and selection of face data stored in the third database unit and calculation of a frequency score. A method for controlling a nuisance agent estimation system for estimating a nuisance agent in the space, comprising: a data analysis unit; and a determination unit for determining a person estimated based on the frequency score, wherein the face data analysis A unit compares the first face data stored in the first database unit with the second face data stored in the second database unit, and converts the first face data into the second face data. When there is no stored face data stored in the third database section that substantially matches the stored candidate face data, the face data analyzing section Storing the candidate storage face data newly in the third database unit and giving an initial value as the frequency score corresponding to the stored candidate face data stored; When there is stored face data stored in the third database unit that substantially matches the stored candidate face data, the face data analysis unit stores the storage candidate face data in the third database unit. Without increasing the frequency score corresponding to the stored face data that matches the stored candidate face data by a predetermined value, and after the predetermined time period has elapsed, the determination unit stores in the third database unit And determining a person whose face data has a corresponding frequency score exceeding a predetermined threshold among the stored face data as a person who is estimated to be a nuisance person.

さらに、本発明は、不特定多数の人が出入りする出入口のある空間の出入口付近に設けられ前記空間に入場する人物を撮影する第1撮影部と、前記空間内に設けられ通報端末からの通報信号を受信した際に当該通報信号が発信された位置を特定し当該位置の周辺を撮影する第2撮影部と、前記第1撮影部が撮影した画像および前記第2撮影部が撮影した画像をそれぞれ分析し顔データを抽出する画像分析部と、前記第1撮影部が撮影した画像から抽出された顔データを格納する第1データベース部と、前記第2撮影部が撮影した画像から抽出された顔データを格納する第2データベース部と、迷惑行為者の候補となる顔データを格納する第3データベース部と、前記第3データベース部に格納する顔データの選別および頻度スコアの算出を行う顔データ解析部と、前記頻度スコアに基づいて推定される人物を判断する判断部と、を備え前記空間内における迷惑行為者を推定する迷惑行為者推定システムの制御プログラムであって、前記顔データ解析部が、前記第1データベース部に格納された第1顔データと前記第2データベース部に格納された第2顔データとの照合を行い、前記第1顔データの中から前記第2顔データに最も近いものを格納候補顔データとして抽出するステップと、前記格納候補顔データと実質的に一致する前記第3データベース部に格納済みの格納済み顔データがないときは、前記顔データ解析部が、当該格納候補顔データを新たに前記第3データベース部に格納するとともに格納した前記格納候補顔データに対応する前記頻度スコアとして初回値を与えるステップと、前記格納候補顔データと実質的に一致する前記第3データベース部に格納済みの格納済み顔データがあるときは、前記顔データ解析部が、前記格納候補顔データを前記第3データベース部に格納せずに前記格納候補顔データと一致した前記格納済み顔データに対応する前記頻度スコアを所定値だけ増やすステップと、前記判断部が、予め定められた規定期間の経過後に、前記第3データベース部に格納された顔データのうち、対応する前記頻度スコアが予め定められた閾値を超えた顔データの人物を迷惑行為者と推定される人物と判断するステップと、をコンピュータに実行させるものである。   Furthermore, the present invention provides a first imaging unit that is provided in the vicinity of an entrance / exit of a space with an entrance / exit for an unspecified number of people, and a report from a notification terminal provided in the space. A second imaging unit that identifies a position from which the notification signal is transmitted when a signal is received and images the vicinity of the position, an image captured by the first imaging unit, and an image captured by the second imaging unit. An image analysis unit that analyzes and extracts face data, a first database unit that stores face data extracted from an image captured by the first imaging unit, and an image captured by the second imaging unit A second database unit for storing face data; a third database unit for storing face data as candidates for nuisance performers; and selection of face data stored in the third database unit and calculation of a frequency score. A control program for a nuisance agent estimation system for estimating a nuisance agent in the space, comprising: a face data analysis unit; and a determination unit for determining a person estimated based on the frequency score, wherein the face data The analysis unit compares the first face data stored in the first database unit with the second face data stored in the second database unit, and the second face data is selected from the first face data. When there is no stored face data stored in the third database section substantially matching the stored candidate face data, the face data analyzing section The storage candidate face data is newly stored in the third database unit and the initial value is given as the frequency score corresponding to the stored candidate face data. And when there is stored face data already stored in the third database unit that substantially matches the stored candidate face data, the face data analysis unit stores the stored candidate face data in the third database. A step of increasing the frequency score corresponding to the stored face data that matches the stored candidate face data without being stored in a predetermined part by a predetermined value; and after the elapse of a predetermined period, the determination unit (3) causing a computer to execute a step of determining a person whose face data has a corresponding frequency score exceeding a predetermined threshold among face data stored in the database unit as a person estimated to be a nuisance Is.

本発明によれば、不特定多数の人が出入りする空間内における迷惑行為者を推定することができる。   According to the present invention, it is possible to estimate a nuisance person in a space where an unspecified number of people come in and out.

本発明の概要について説明する図である。It is a figure explaining the outline | summary of this invention. 本実施の形態にかかる迷惑行為者推定システム100の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the nuisance person estimation system 100 concerning this Embodiment. 第1日の乗車状況について説明する図である。It is a figure explaining the boarding situation of the 1st day. 第1日に、駅内カメラデータベース部に格納されたデータの一例を示す図である。It is a figure which shows an example of the data stored in the camera database part in a station on the 1st day. 第1日の通報時の電車内の状況について説明する図である。It is a figure explaining the condition in a train at the time of the 1st report. 第1日に、車内カメラデータベース部に格納されたデータの一例を示す図である。It is a figure which shows an example of the data stored in the vehicle camera database part on the 1st day. 第1日に統合データデータベース部に格納されたデータの一例を示す図である。It is a figure which shows an example of the data stored in the integrated data database part on the 1st day. 第2日の乗車状況について説明する図である。It is a figure explaining the boarding situation of the 2nd day. 第2日に、駅内カメラデータベース部に格納されたデータの一例を示す図である。It is a figure which shows an example of the data stored in the camera database part in a station on the 2nd day. 第2日の通報時の電車内の状況について説明する図である。It is a figure explaining the condition in a train at the time of the report on the 2nd day. 第2日に、車内カメラデータベース部に格納されたデータの一例を示す図である。It is a figure which shows an example of the data stored in the vehicle camera database part on the 2nd day. 第2日に、統合データデータベース部に格納されたデータの一例を示す図である。It is a figure which shows an example of the data stored in the integrated data database part on the 2nd day. 電車に乗り込む人物の顔データを取得し、当該顔データを駅内カメラデータベース部に格納する処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process which acquires the face data of the person who gets on a train, and stores the said face data in the camera database part in a station. 電車内において被迷惑行為者の周囲の人物の顔データを取得し、当該顔データを車内カメラデータベース部に格納する処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process which acquires the face data of the person around a troubled person in a train, and stores the said face data in a vehicle camera database part. 統合データデータベース部に格納された顔データに対応する頻度スコアを用いて迷惑行為者を推定する処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process which estimates a nuisance person using the frequency score corresponding to the face data stored in the integrated data database part.

[本発明の特徴]
本発明の実施の形態の説明に先立って、本発明の特徴についてその概要をまず説明する。
[Features of the present invention]
Prior to the description of the embodiments of the present invention, an outline of the features of the present invention will be described first.

本発明にかかる迷惑行為者推定システムは、不特定多数の人が出入りする出入口のある空間内で迷惑行為者を推定するものである。図1は、本発明の概要について説明する図である。図1は、本発明にかかる迷惑行為者推定システム500の概略構成を示すブロック図である。図1に示すように、迷惑行為者推定システム500は、第1撮影部501と、第2撮影部502と、通報端末503と、画像分析部504と、第1データベース部505と、第2データベース部506と、第3データベース部507と、顔データ解析部508と、判断部509と、を備えている。   The nuisance person estimation system according to the present invention estimates a nuisance person in a space where an unspecified number of people enter and exit. FIG. 1 is a diagram for explaining the outline of the present invention. FIG. 1 is a block diagram showing a schematic configuration of an annoying person estimation system 500 according to the present invention. As shown in FIG. 1, the nuisance person estimation system 500 includes a first photographing unit 501, a second photographing unit 502, a reporting terminal 503, an image analyzing unit 504, a first database unit 505, and a second database. A unit 506, a third database unit 507, a face data analysis unit 508, and a determination unit 509.

第1撮影部501は、不特定多数の人が出入りする空間の出入口付近に設けられ、当該空間に入場する人物を撮影する。第2撮影部502は、当該空間内に設けられ、通報端末503からの通報信号を受信した際に当該通報信号が発信された位置を特定し当該位置の周辺を撮影する。画像分析部504は、第1撮影部501が撮影した画像および第2撮影部502が撮影した画像をそれぞれ分析し顔データを抽出する。   The first photographing unit 501 is provided near the entrance of a space where an unspecified number of people enter and exit, and photographs a person entering the space. The second imaging unit 502 is provided in the space, and when receiving a notification signal from the notification terminal 503, identifies the position where the notification signal is transmitted and images the vicinity of the position. The image analysis unit 504 analyzes the image captured by the first imaging unit 501 and the image captured by the second imaging unit 502, and extracts face data.

第1データベース部505は、第1撮影部501が撮影した画像から抽出された顔データを格納する。第2データベース部506は、第2撮影部502が撮影した画像から抽出された顔データを格納する。第3データベース部507は、迷惑行為者の候補となる顔データを格納する。顔データ解析部508は、第3データベース部507に格納する顔データの選別および頻度スコアの算出を行う。判断部509は、頻度スコアに基づいて迷惑行為者と推定される人物を判断する。   The first database unit 505 stores face data extracted from the image photographed by the first photographing unit 501. The second database unit 506 stores face data extracted from the image captured by the second imaging unit 502. The third database unit 507 stores face data that is a nuisance candidate. The face data analysis unit 508 selects face data stored in the third database unit 507 and calculates a frequency score. The determination unit 509 determines a person estimated to be a nuisance based on the frequency score.

顔データ解析部508が、第1データベース部505に格納された第1顔データと第2データベース部506に格納された第2顔データとの照合を行い、第1顔データの中から第2顔データに最も近いものを格納候補顔データとして抽出する。そして、格納候補顔データと実質的に一致する第3データベース部507に格納済みの格納済み顔データがないときは、顔データ解析部508が、当該格納候補顔データを新たに第3データベース部507に格納するとともに格納した格納候補顔データに対応する頻度スコアとして初回値を与える。   The face data analysis unit 508 collates the first face data stored in the first database unit 505 with the second face data stored in the second database unit 506, and selects the second face from the first face data. The data closest to the data is extracted as the stored candidate face data. When there is no stored face data stored in the third database unit 507 that substantially matches the stored candidate face data, the face data analysis unit 508 newly adds the stored candidate face data to the third database unit 507. And the initial value is given as a frequency score corresponding to the stored candidate face data.

また、格納候補顔データと実質的に一致する第3データベース部507に格納済みの格納済み顔データがあるときは、顔データ解析部508が、格納候補顔データを第3データベース部507に格納せずに格納候補顔データと一致した格納済み顔データに対応する頻度スコアを所定値だけ増やす。   When there is stored face data stored in the third database unit 507 that substantially matches the stored candidate face data, the face data analysis unit 508 stores the stored candidate face data in the third database unit 507. Instead, the frequency score corresponding to the stored face data that matches the stored candidate face data is increased by a predetermined value.

判断部509が、予め定められた規定期間の経過後に、第3データベース部507に格納された顔データのうち、対応する頻度スコアが予め定められた閾値を超えた顔データの人物を迷惑行為者と推定される人物と判断する。   After the elapse of a predetermined time period, the determination unit 509 detects a person whose face data has a corresponding frequency score that exceeds a predetermined threshold from among the face data stored in the third database unit 507. It is determined that the person is estimated.

以上より、本発明によれば、不特定多数の人が出入りする空間内における迷惑行為者を推定することができる。   As described above, according to the present invention, it is possible to estimate a nuisance person in a space where a large number of unspecified persons enter and exit.

以下、図面を参照して本発明の実施の形態について説明する。
図2は、本実施の形態にかかる迷惑行為者推定システム100の概略構成を示すブロック図である。図2に示すように、迷惑行為者推定システム100は、第1撮影部としての駅内カメラシステム101と、第2撮影部としての車内カメラシステム102と、分析部103と、データベース部104と、判断部としての人物推定レポート部105と、通報端末106と、を有する。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 2 is a block diagram showing a schematic configuration of the nuisance person estimation system 100 according to the present embodiment. As shown in FIG. 2, the nuisance person estimation system 100 includes an in-station camera system 101 as a first imaging unit, an in-vehicle camera system 102 as a second imaging unit, an analysis unit 103, a database unit 104, A person estimation report unit 105 as a determination unit and a reporting terminal 106 are provided.

駅内カメラシステム101は、駅のホームにおける各乗車位置付近(乗り降りのためにホーム内で止まっている電車の出入口付近)に設置され、駅内カメラ1と、カメラ識別情報部2と、コントロール部3と、通信部4と、を有する。駅内カメラ1は、コントロール部3から撮影指示を受け画像の撮影を行う。駅内カメラ1が撮影する画像は動画または静止画のいずれであってもよい。静止画とする場合、複数枚数撮影が行われるようにする。カメラ識別情報部2は、コントロール部3から取得指示を受けて乗車位置及び乗車時刻を取得する。コントロール部3は、駅のホームにおいて電車のドアが乗り降りのために開閉されている間に、駅内カメラ1及びカメラ識別情報部2に対し取得指示を送る。通信部4は、駅内カメラ1が取得した画像とカメラ識別情報部2が取得した乗車位置及び乗車時刻を、無線または有線により画像分析部9へと送る。   The in-station camera system 101 is installed in the vicinity of each boarding position on the platform of the station (near the entrance / exit of the train stopped in the platform for getting on and off), and the in-station camera 1, the camera identification information unit 2, and the control unit 3 and a communication unit 4. The in-station camera 1 receives a shooting instruction from the control unit 3 and takes a picture. The image captured by the in-station camera 1 may be either a moving image or a still image. When taking a still image, a plurality of images are taken. The camera identification information unit 2 receives the acquisition instruction from the control unit 3 and acquires the boarding position and boarding time. The control unit 3 sends an acquisition instruction to the in-station camera 1 and the camera identification information unit 2 while the train door is opened and closed for getting on and off at the platform of the station. The communication unit 4 sends the image acquired by the in-station camera 1 and the boarding position and boarding time acquired by the camera identification information unit 2 to the image analysis unit 9 wirelessly or by wire.

車内カメラシステム102は、電車内に複数設置され、車内カメラ5と、カメラ識別情報部6と、コントロール部7と、通信部8と、を有する。車内カメラ5は、通報端末106からの通報信号を受信したコントロール部7から撮影指示を受けて画像の撮影を行う。車内カメラ5は、人物の顔が捉えやすいような位置、例えば、電車の出入口扉の上部に設置する。なお、通報端末106とコントロール部7との通信には、位置の特定がしやすいBluetooth(登録商標)などの短距離通信を用いる。車内カメラ5が撮影する画像は動画または静止画のいずれであってもよい。静止画とする場合、複数枚数撮影が行われるようにする。カメラ識別情報部6は、コントロール部7から取得指示を受けて通報信号が発信された時刻の情報(時刻情報)及び通報信号が発信された位置の情報(位置情報)を取得する。位置情報は通報端末106の発信した通報信号により検知する。コントロール部7は、通報端末106からの通報信号を受信したときに、車内カメラ5及びカメラ識別情報部6に対し取得指示を送る。通信部8は、車内カメラ5が取得した画像とカメラ識別情報部6が取得した時刻情報及び位置情報を、無線により画像分析部9へと送る。   A plurality of in-vehicle camera systems 102 are installed in a train, and include an in-vehicle camera 5, a camera identification information unit 6, a control unit 7, and a communication unit 8. The in-vehicle camera 5 captures an image in response to a capturing instruction from the control unit 7 that has received the notification signal from the notification terminal 106. The in-vehicle camera 5 is installed at a position where a person's face can be easily captured, for example, above the entrance door of a train. For communication between the reporting terminal 106 and the control unit 7, short-distance communication such as Bluetooth (registered trademark) that can easily identify the position is used. The image captured by the in-vehicle camera 5 may be either a moving image or a still image. When taking a still image, a plurality of images are taken. The camera identification information unit 6 receives the acquisition instruction from the control unit 7 and acquires information on the time when the notification signal is transmitted (time information) and information on the position where the notification signal is transmitted (position information). The location information is detected by a notification signal transmitted from the notification terminal 106. When receiving a notification signal from the notification terminal 106, the control unit 7 sends an acquisition instruction to the in-vehicle camera 5 and the camera identification information unit 6. The communication unit 8 wirelessly transmits the image acquired by the in-vehicle camera 5 and the time information and position information acquired by the camera identification information unit 6 to the image analysis unit 9.

分析部103は、画像分析部9と、顔データ解析部としての顔データマッチング頻度スコア算出部10と、を有する。画像分析部9は、駅内カメラシステム101から送信されてきた画像、及び車内カメラシステム102から送信されてきた画像から人の顔を抽出し、抽出したそれぞれの人の顔の特徴点を分析して顔データを作成する。なお、カメラの撮影した画像から人の顔を抽出する技術として、公知の技術を用いることができる。顔データマッチング頻度スコア算出部10は、駅内カメラデータベース部11に格納された顔データの中から車内カメラデータベース部12に格納された顔データと最も近い顔データを抽出し、この最も近い顔データを迷惑行為発生時に居あわせた人物として統合データデータベース部13に格納するとともに、当該顔データの検出頻度(頻度スコア)を算出する。検出スコアの算出については後述する。   The analysis unit 103 includes an image analysis unit 9 and a face data matching frequency score calculation unit 10 as a face data analysis unit. The image analysis unit 9 extracts a human face from the image transmitted from the in-station camera system 101 and the image transmitted from the in-vehicle camera system 102, and analyzes the extracted feature points of each person's face. To create face data. A known technique can be used as a technique for extracting a human face from an image taken by a camera. The face data matching frequency score calculation unit 10 extracts face data closest to the face data stored in the in-vehicle camera database unit 12 from the face data stored in the in-station camera database unit 11, and this closest face data Is stored in the integrated data database unit 13 as a person present at the time of occurrence of the nuisance, and the detection frequency (frequency score) of the face data is calculated. The calculation of the detection score will be described later.

データベース部104は、第1データベース部としての駅内カメラデータベース部11と、第2データベース部としての車内カメラデータベース部12と、第3データベース部としての統合データデータベース部13と、を有する。駅内カメラデータベース部11は、駅内カメラ1が撮影した画像から抽出されたそれぞれの人の顔に対応する顔データを格納する。車内カメラデータベース部12は、車内カメラ5が撮影した画像から抽出されたそれぞれの人の顔に対応する顔データを格納する。統合データデータベース部13は、迷惑行為発生時に居あわせた人物の顔データや頻度スコアなどを人物データとして格納する。人物推定レポート部105は、統合データデータベース部13に格納された人物データのうち、規定期間内に頻度スコアが予め定められた閾値を超えたものを迷惑行為者と推定してリストアップし、リストアップした情報をシステム管理者へ提供する。通報端末106は、迷惑行為を受けた被迷惑行為者が通報信号を送信するための携帯通信端末で、例えば、通報信号を送信するための専用のアプリをインストールしたスマートフォンなどである。専用のアプリは、インターネットを通じて誰でも無料で取得できるようにしてもよい。   The database unit 104 includes an in-station camera database unit 11 as a first database unit, an in-vehicle camera database unit 12 as a second database unit, and an integrated data database unit 13 as a third database unit. The in-station camera database unit 11 stores face data corresponding to each person's face extracted from an image taken by the in-station camera 1. The in-vehicle camera database unit 12 stores face data corresponding to each person's face extracted from an image taken by the in-vehicle camera 5. The integrated data database unit 13 stores human face data, frequency scores, and the like that were present when the nuisance occurred, as person data. The person estimation report unit 105 estimates that the person data stored in the integrated data database unit 13 has a frequency score that exceeds a predetermined threshold within a specified period as a nuisance agent, Provide the updated information to the system administrator. The reporting terminal 106 is a mobile communication terminal for an annoying person who has received a nuisance to transmit a reporting signal. For example, the reporting terminal 106 is a smartphone installed with a dedicated application for transmitting a reporting signal. A dedicated app may be available for free to anyone via the Internet.

迷惑行為者推定システム100の具体的な動作について以下で説明する。
図3は、第1日の乗車状況について説明する図である。図3に示すように、第1日には、駅のホームに到着した電車に7人の人物が乗り込むとする。駅のホームの各乗車位置付近には駅内カメラシステム101(No.001駅内カメラシステム101_1、No.002駅内カメラシステム101_2、No.003駅内カメラシステム101_3及びNo.004駅内カメラシステム101_4)が設置されている。これらの駅内カメラシステム101の駅内カメラ1は乗車する人物の顔画像が鮮明に撮影できるような高さに設置される。
A specific operation of the nuisance person estimation system 100 will be described below.
FIG. 3 is a diagram for explaining a boarding situation on the first day. As shown in FIG. 3, on the first day, assume that seven people get on the train that has arrived at the platform of the station. In the vicinity of each boarding position on the platform of the station, an in-station camera system 101 (No. 001 in-station camera system 101_1, No. 002 in-station camera system 101_2, No. 003 in-station camera system 101_3 and No. 004 in-station camera system 101_4) is installed. The in-station camera 1 of these in-station camera systems 101 is installed at such a height that a face image of a person on board can be taken clearly.

駅内カメラシステム101は電車に乗り込む人物を撮影し、画像を分析部103に送信する。第1日の8:00にそれぞれの駅内カメラシステム101が電車に乗り込んだ人物を撮影したとする。No.001駅内カメラシステム101_1が撮影した画像からは顔データC、Dが抽出され、No.002駅内カメラシステム101_2が撮影した画像からは顔データA、B、Gが抽出され、No.003駅内カメラシステム101_3が撮影した画像からは顔データFが抽出され、No.004駅内カメラシステム101_4が撮影した画像からは顔データEが抽出されたとする。   The in-station camera system 101 captures a person who gets on the train and transmits the image to the analysis unit 103. Assume that each station camera system 101 takes a picture of a person who gets on the train at 8:00 on the first day. No. The face data C and D are extracted from the image captured by the 001 in-station camera system 101_1. The face data A, B, G are extracted from the image taken by the 002 station camera system 101_2. The face data F is extracted from the image taken by the 003 station camera system 101_3. Assume that face data E is extracted from an image taken by the 004 station camera system 101_4.

図4は、第1日に、駅内カメラデータベース部11に格納されたデータの一例を示す図である。図4に示すように、駅内カメラデータベース部11には、駅内カメラシステム101が撮影した画像から抽出された顔データとともに、当該顔データに対応する乗車位置及び乗車時刻も記録される。   FIG. 4 is a diagram illustrating an example of data stored in the in-station camera database unit 11 on the first day. As shown in FIG. 4, the in-station camera database unit 11 records the boarding position and boarding time corresponding to the face data together with the face data extracted from the image taken by the in-station camera system 101.

図5は、第1日の通報時の電車内の状況について説明する図である。図5に示すように、電車内のそれぞれの出入り口付近には車内カメラシステム102(No.001車内カメラシステム102_1、No.002車内カメラシステム102_2、No.003車内カメラシステム102_3、No.004車内カメラシステム102_4、No.005車内カメラシステム102_5、No.006車内カメラシステム102_6、No.007車内カメラシステム102_7及びNo.008車内カメラシステム102_8)が設置されている。   FIG. 5 is a diagram for explaining the situation in the train at the time of reporting on the first day. As shown in FIG. 5, in-car camera systems 102 (No. 001 in-vehicle camera system 102_1, No. 002 in-vehicle camera system 102_2, No. 003 in-vehicle camera system 102_3, No. 004 in-vehicle camera are located near the entrances and exits of the train. System 102_4, No. 005 in-vehicle camera system 102_5, No. 006 in-vehicle camera system 102_6, No. 007 in-vehicle camera system 102_7 and No. 008 in-vehicle camera system 102_8) are installed.

被迷惑行為者が通報端末106から送信した通報信号は車内カメラシステム102のコントロール部7により受信・検出される。車内カメラシステム102のコントロール部7において、通報信号の受信角度により当該通報信号が発信された位置を特定する。そして、当該通報信号が発信された位置に最も近い車内カメラシステム102により撮影が行われる。   The notification signal transmitted from the notification terminal 106 by the disturbed person is received and detected by the control unit 7 of the in-vehicle camera system 102. In the control unit 7 of the in-vehicle camera system 102, the position where the notification signal is transmitted is specified by the reception angle of the notification signal. Then, photographing is performed by the in-vehicle camera system 102 closest to the position where the notification signal is transmitted.

図5において、顔データGに対応する人物(被迷惑行為者)が、迷惑行為を受けた際に通報端末106により通報を行ったとする。この時、顔データGに対応する人物の周辺には顔データA,B,C,Dに対応する人物がいたとする。通報信号の発信位置の最も近い車内カメラシステム102は、No.004車内カメラシステム102_4なので、No.004車内カメラシステム102_4が撮影を行う。No.004車内カメラシステム102_4が撮影した画像からは顔データa,b,c,d,gが抽出されたとする。   In FIG. 5, it is assumed that the person corresponding to the face data G (the nuisance activist) makes a report by the report terminal 106 when receiving the nuisance act. At this time, it is assumed that there are persons corresponding to the face data A, B, C, and D around the person corresponding to the face data G. The in-vehicle camera system 102 closest to the transmission position of the notification signal is No. No. 004 In-vehicle camera system 102_4, no. The 004 in-vehicle camera system 102_4 performs photographing. No. Assume that face data a, b, c, d, and g are extracted from an image captured by the 004 in-vehicle camera system 102_4.

図6は、第1日に、車内カメラデータベース部12に格納されたデータの一例を示す図である。図6に示すように、車内カメラデータベース部12には、車内カメラシステム102が撮影した画像から抽出された顔データとともに、当該顔データに対応する時刻情報及び位置情報も記録される。ここで、時刻情報とは通報信号が発信された時刻の情報、位置情報とは通報端末106により通報信号が発信された位置の情報を意味する。迷惑行為発生時に、被迷惑行為者(通報信号の発信者)の周囲に居あわせた人物のいずれかが迷惑行為者であると考えられる。つまり、車内カメラデータベース部12に格納された顔データa,b,c,d,gに対応する人物のいずれかが迷惑行為者であると考えられる。   FIG. 6 is a diagram illustrating an example of data stored in the in-vehicle camera database unit 12 on the first day. As shown in FIG. 6, time information and position information corresponding to the face data are recorded in the vehicle camera database unit 12 together with the face data extracted from the image captured by the vehicle camera system 102. Here, the time information means information on the time when the notification signal is transmitted, and the position information means information on the position where the notification signal is transmitted by the notification terminal 106. When the nuisance occurs, any of the persons present around the nuisance (the sender of the notification signal) is considered to be the nuisance. In other words, any of the persons corresponding to the face data a, b, c, d, and g stored in the in-vehicle camera database unit 12 is considered to be an annoying person.

一般的に、乗客は正面を向いて出入口から電車に乗り込むため、駅内カメラシステム101により撮影された画像中に映りこんだ人物の顔はほぼ正面を向いている場合が多い。これに対し、車内カメラシステム102により撮影された画像中に映りこんだ人物の顔は、電車内が混雑していることなどから正面を向いているものでないことも多い。このため、車内カメラシステム102で撮影された画像から抽出された顔データは、駅内カメラシステム101で撮影された画像から抽出される顔データに対し、顔の特徴点が不足しがちである。このため、車内カメラシステム102で撮影された画像から抽出された顔データだけでは人物を十分に特定できないことも考えられる。   In general, since passengers face the front and board the train from the doorway, the face of the person reflected in the image taken by the in-station camera system 101 often faces almost the front. On the other hand, the face of a person reflected in an image taken by the in-vehicle camera system 102 is often not facing the front because the train is crowded. For this reason, the face data extracted from the image captured by the in-vehicle camera system 102 tends to have insufficient facial feature points compared to the face data extracted from the image captured by the in-station camera system 101. For this reason, it is conceivable that a person cannot be sufficiently specified only by face data extracted from an image photographed by the in-vehicle camera system 102.

車内カメラデータベース部12に格納された顔データに対応する人物は、必ず駅内カメラデータベース部11にも格納されている。このため、車内カメラデータベース部12に格納されたある顔データの人物と、駅内カメラデータベース部11に格納された顔データのうち車内カメラデータベース部12に格納されたある顔データに最も近い顔データに対応する人物と、は同一人物であるとすることができる。そこで、顔データマッチング頻度スコア算出部10は、車内カメラシステム102で撮影された画像から抽出された顔データと、駅内カメラシステム101で撮影された画像から抽出される顔データと、の照合を行い、駅内カメラデータベース部11に格納された顔データの中から車内カメラデータベース部12に格納された顔データと最も近い顔データを抽出する。そして、顔データマッチング頻度スコア算出部10は、この最も近い顔データを迷惑行為発生時に居あわせた人物として統合データデータベース部13に格納する。なお、撮影された画像から顔データを抽出する方法や顔データを照合する方法として、公知の方法(例えば、特許文献2に記載された方法など)を用いることができる。   The person corresponding to the face data stored in the in-vehicle camera database unit 12 is always stored in the in-station camera database unit 11. For this reason, the face data closest to the face data stored in the in-vehicle camera database unit 12 among the face data stored in the in-vehicle camera database unit 11 and the face data stored in the in-vehicle camera database unit 11 It can be assumed that the person corresponding to is the same person. Therefore, the face data matching frequency score calculation unit 10 compares the face data extracted from the image captured by the in-vehicle camera system 102 with the face data extracted from the image captured by the in-station camera system 101. The face data closest to the face data stored in the in-vehicle camera database unit 12 is extracted from the face data stored in the in-station camera database unit 11. Then, the face data matching frequency score calculation unit 10 stores the closest face data in the integrated data database unit 13 as a person present at the time of occurrence of the nuisance. A known method (for example, a method described in Patent Document 2) can be used as a method for extracting face data from a captured image and a method for collating face data.

図7は、第1日に統合データデータベース部13に格納されたデータの一例を示す図である。図6に示す車内カメラデータベース部12に格納された顔データと、図4に示す駅内カメラデータベース部11に格納された顔データと、の照合の結果、顔データa(図6参照)が顔データA(図4参照)に、顔データb(図6参照)が顔データB(図4参照)に、顔データc(図6参照)が顔データC(図4参照)に、顔データd(図6参照)が顔データD(図4参照)に、顔データg(図6参照)が顔データG(図4参照)に、それぞれ最も近かったとする。図7に示すように、統合データデータベース部13には、顔データA,B,C,D,Gが格納される。駅内カメラデータベース部11に格納された、顔データA,B,C,D,Gに対応する乗車時刻及び乗車位置に関するデータについても、統合データデータベース部13に格納された顔データA,B,C,D,Gとそれぞれ対応付けされて統合データデータベース部13に格納される。   FIG. 7 is a diagram illustrating an example of data stored in the integrated data database unit 13 on the first day. As a result of collation between the face data stored in the in-vehicle camera database unit 12 shown in FIG. 6 and the face data stored in the in-station camera database unit 11 shown in FIG. 4, the face data a (see FIG. 6) is a face. In the data A (see FIG. 4), the face data b (see FIG. 6) is the face data B (see FIG. 4), the face data c (see FIG. 6) is the face data C (see FIG. 4), and the face data d. Assume that (see FIG. 6) is closest to face data D (see FIG. 4), and face data g (see FIG. 6) is closest to face data G (see FIG. 4). As shown in FIG. 7, face data A, B, C, D, and G are stored in the integrated data database unit 13. For the data relating to the boarding time and boarding position corresponding to the face data A, B, C, D, G stored in the in-station camera database unit 11, the face data A, B, stored in the integrated data database unit 13 are also stored. C, D, and G are associated with each other and stored in the integrated data database unit 13.

また、車内カメラデータベース部12に格納された、顔データa,b,c,d,gに対応する時刻情報、位置情報に関するデータは、顔データa,b,c,d,gがそれぞれ顔データA,B,C,D,Gに相当するとして、統合データデータベース部13に格納された顔データA,B,C,D,Gとそれぞれ対応付けされて統合データデータベース部13に格納される。統合データデータベース部13に新たに顔データが格納される際、当該顔データの頻度スコアには初回値である1が記録される。   Further, the time data and the data related to the position information corresponding to the face data a, b, c, d, and g stored in the in-vehicle camera database unit 12 are the face data a, b, c, d, and g, respectively. Corresponding to A, B, C, D, and G, the face data A, B, C, D, and G stored in the integrated data database unit 13 are stored in the integrated data database unit 13 in association with each other. When face data is newly stored in the integrated data database unit 13, an initial value of 1 is recorded in the frequency score of the face data.

図8は、第2日の乗車状況について説明する図である。図8に示すように、第2日の8:00にそれぞれの駅内カメラシステム101が電車に乗り込んだ人物を撮影したとする。No.001駅内カメラシステム101_1が撮影した画像からは顔データR、Qが抽出され、No.002駅内カメラシステム101_2が撮影した画像からは顔データO、P、Uが抽出され、No.003駅内カメラシステム101_3が撮影した画像からは顔データTが抽出され、No.004駅内カメラシステム101_4が撮影した画像からは顔データSが抽出されたとする。   FIG. 8 is a diagram illustrating the boarding situation on the second day. As shown in FIG. 8, assume that each station camera system 101 takes a picture of a person on the train at 8:00 on the second day. No. The face data R and Q are extracted from the image captured by the 001 in-station camera system 101_1. The face data O, P, U are extracted from the image taken by the 002 station camera system 101_2. The face data T is extracted from the image taken by the 003 station camera system 101_3. It is assumed that the face data S is extracted from the image captured by the 004 station camera system 101_4.

図9は、第2日に、駅内カメラデータベース部11に格納されたデータの一例を示す図である。図9に示すように、駅内カメラデータベース部11には、駅内カメラシステム101が撮影した画像から抽出された顔データとともに、当該顔データに対応する乗車時刻及び乗車位置も記録される。駅内カメラデータベース部11は、データ量が膨大になるのを避けるため、該当日の始発からデータの記録を開始し、終電の後にデータがリセットされるようにする。つまり、駅内カメラデータベース部11において、第2日には、第1日に格納されたデータ(図4参照)は消去されている。   FIG. 9 is a diagram illustrating an example of data stored in the in-station camera database unit 11 on the second day. As shown in FIG. 9, the in-station camera database unit 11 records the boarding time and boarding position corresponding to the face data together with the face data extracted from the image taken by the in-station camera system 101. In order to avoid an enormous amount of data, the in-station camera database unit 11 starts data recording from the first day of the day and resets the data after the last train. That is, in the in-station camera database unit 11, the data stored on the first day (see FIG. 4) is deleted on the second day.

図10は、第2日の通報時の電車内の状況について説明する図である。図10に示すように、顔データUに対応する人物(被迷惑行為者)が、迷惑行為を受けた際に通報端末106により通報を行ったとする。この時、顔データUに対応する人物の周辺には顔データO,P,Q,Rに対応する人物がいたとする。通報信号の発信位置の最も近い車内カメラシステム102は、No.004車内カメラシステム102_4なので、No.004車内カメラシステム102_4が撮影を行う。No.004車内カメラシステム102_4が撮影した画像からは顔データo,p,q,r,uが抽出されたとする。   FIG. 10 is a diagram for explaining the situation in the train at the time of notification on the second day. As shown in FIG. 10, it is assumed that a person corresponding to the face data U (an annoying person) makes a report using the reporting terminal 106 when receiving the annoying action. At this time, it is assumed that there are persons corresponding to the face data O, P, Q, and R around the person corresponding to the face data U. The in-vehicle camera system 102 closest to the transmission position of the notification signal is No. No. 004 In-vehicle camera system 102_4, no. The 004 in-vehicle camera system 102_4 performs photographing. No. Assume that face data o, p, q, r, u are extracted from an image taken by the 004 in-vehicle camera system 102_4.

図11は、第2日に、車内カメラデータベース部12に格納されたデータの一例を示す図である。図11に示すように、車内カメラデータベース部12には、車内カメラシステム102が撮影した画像から抽出された顔データとともに、当該顔データに対応する時刻情報及び位置情報も記録される。ここで、時刻情報とは通報信号が発信された時刻の情報、位置情報とは通報端末106により通報信号が発信された位置の情報を意味する。車内カメラデータベース部12は、データ量が膨大になるのを避けるため、該当日の始発からデータの記録を開始し、終電の後にデータがリセットされるようにする。つまり、車内カメラデータベース部12において、第2日には、第1日に格納されたデータ(図6参照)は消去されている。   FIG. 11 is a diagram illustrating an example of data stored in the in-vehicle camera database unit 12 on the second day. As shown in FIG. 11, time information and position information corresponding to the face data are recorded in the in-vehicle camera database unit 12 together with the face data extracted from the image captured by the in-vehicle camera system 102. Here, the time information means information on the time when the notification signal is transmitted, and the position information means information on the position where the notification signal is transmitted by the notification terminal 106. The in-vehicle camera database unit 12 starts data recording from the first day of the day in order to avoid an enormous amount of data, and resets the data after the last train. That is, in the in-vehicle camera database unit 12, the data stored on the first day (see FIG. 6) is deleted on the second day.

顔データマッチング頻度スコア算出部10が、図11に示す車内カメラデータベース部12に格納された顔データと、図9に示す駅内カメラデータベース部11に格納された顔データと、の照合を行った結果、顔データo(図11参照)が顔データO(図9参照)に、顔データp(図11参照)が顔データP(図9参照)に、顔データq(図11参照)が顔データQ(図9参照)に、顔データr(図11参照)が顔データR(図9参照)に、顔データu(図11参照)が顔データU(図9参照)に、それぞれ最も近かったとする。顔データO,P,Q,R,Uは、統合データデータベース部13に格納する候補とする。なお、顔データo,p,q,r,uの時刻情報及び位置情報は、顔データO,P,Q,R,Uにそれぞれ対応させる。   The face data matching frequency score calculation unit 10 collates the face data stored in the in-vehicle camera database unit 12 shown in FIG. 11 with the face data stored in the in-station camera database unit 11 shown in FIG. As a result, the face data o (see FIG. 11) is the face data O (see FIG. 9), the face data p (see FIG. 11) is the face data P (see FIG. 9), and the face data q (see FIG. 11) is the face. In the data Q (see FIG. 9), the face data r (see FIG. 11) is closest to the face data R (see FIG. 9), and the face data u (see FIG. 11) is closest to the face data U (see FIG. 9). Suppose. The face data O, P, Q, R, and U are candidates to be stored in the integrated data database unit 13. The time information and position information of the face data o, p, q, r, u are associated with the face data O, P, Q, R, U, respectively.

続いて、顔データマッチング頻度スコア算出部10が、既に統合データデータベース部13に格納されている顔データ(図7参照)の中に、統合データデータベース部13に格納する候補である顔データO,P,Q,R,Uと実質的に一致しているものがあるか検索を行う。検索の結果、既に統合データデータベース部13に格納されている顔データAと、統合データデータベース部13に格納する候補である顔データOとが実質的に一致していたとする。統合データデータベース部13に格納する候補である顔データP,Q,R,Uは、既に統合データデータベース部13に格納されている顔データの中に実質的に一致するものがなかったとする。   Subsequently, the face data matching frequency score calculation unit 10 includes face data O, which are candidates to be stored in the integrated data database unit 13 among the face data already stored in the integrated data database unit 13 (see FIG. 7). A search is made to see if there is a substantial match with P, Q, R, U. As a result of the search, it is assumed that the face data A already stored in the integrated data database unit 13 and the face data O that is a candidate stored in the integrated data database unit 13 substantially match. It is assumed that the face data P, Q, R, and U that are candidates to be stored in the integrated data database unit 13 do not substantially match the face data already stored in the integrated data database unit 13.

図12は、第2日に、統合データデータベース部13に格納されたデータの一例を示す図である。
図12に示すように、統合データデータベース部13に格納する候補のうち、既に統合データデータベース部13に格納されている顔データの中に実質的に一致するものがなかった顔データP,Q,R,Uは、新たに統合データデータベース部13に格納される。顔データP,Q,R,Uに対応する位置情報、時刻情報、乗車位置及び乗車時刻も顔データP,Q,R,Uとともに統合データデータベース部13に記録される。統合データデータベース部13に新たに顔データが格納される際、当該顔データの頻度スコアとして初回値である1が記録される。
FIG. 12 is a diagram illustrating an example of data stored in the integrated data database unit 13 on the second day.
As shown in FIG. 12, among the candidates stored in the integrated data database unit 13, face data P, Q, R and U are newly stored in the integrated data database unit 13. Position information, time information, boarding position and boarding time corresponding to the face data P, Q, R, U are also recorded in the integrated data database unit 13 together with the face data P, Q, R, U. When face data is newly stored in the integrated data database unit 13, the initial value 1 is recorded as the frequency score of the face data.

統合データデータベース部13に格納する候補のうち、既に統合データデータベース部13に格納されている顔データの中に実質的に一致するものが見つかった顔データOについては、統合データデータベース部13に新たに格納することはせず、顔データOに対応する位置情報、時刻情報、乗車位置及び乗車時刻についてのデータは、顔データAの欄に追加で記録される。また、既に統合データデータベース部13に格納されている顔データAの頻度スコアに所定値である1を加算する。つまり、顔データAに対応する頻度スコアは2になる。   Among the candidates to be stored in the integrated data database unit 13, face data O that has been found to substantially match the face data already stored in the integrated data database unit 13 is newly added to the integrated data database unit 13. The position information corresponding to the face data O, the time information, the boarding position, and the boarding time data are additionally recorded in the face data A column. Further, 1 which is a predetermined value is added to the frequency score of the face data A already stored in the integrated data database unit 13. That is, the frequency score corresponding to the face data A is 2.

迷惑行為者推定システム100が、上述した第1日、第2日の処理を繰り返すことにより、統合データデータベース部13には日々、迷惑行為者の候補である人物のデータが蓄積される。規定期間(例えば1ヶ月)が経過したところで、統合データデータベース部13において、頻度スコアが予め定められた閾値(例えば4)を超えている顔データに対応する人物が迷惑行為者であると推定される。   When the nuisance person estimation system 100 repeats the processing on the first day and the second day described above, data of a person who is a nuisance person candidate is accumulated in the integrated data database unit 13 every day. When a specified period (for example, one month) has elapsed, the integrated data database unit 13 estimates that the person corresponding to the face data whose frequency score exceeds a predetermined threshold (for example, 4) is a nuisance acter. The

一般的に、迷惑行為者は迷惑行為を繰り返す傾向が強いので、上述した頻度スコアにより精度良く迷惑行為者を推定することができる。以上より、本実施の形態にかかる迷惑行為者推定システム100より、不特定多数の人が出入りする空間内における迷惑行為者を推定することができる。   In general, since a nuisance person has a strong tendency to repeat the nuisance action, the nuisance action person can be accurately estimated from the frequency score described above. From the above, it is possible to estimate nuisance agents in a space where an unspecified number of people enter and exit from the nuisance agent estimation system 100 according to the present embodiment.

次に、迷惑行為者推定システム100が迷惑行為者を推定する処理の流れについて以下で説明する。図13、図14及び図15は、迷惑行為者推定システム100が迷惑行為者を推定する処理の流れを示すフローチャートである。なお、以下の説明において図2も適宜参照する。   Next, the flow of processing in which the nuisance person estimation system 100 estimates the nuisance person will be described below. FIG. 13, FIG. 14 and FIG. 15 are flowcharts showing the flow of processing in which the nuisance person estimation system 100 estimates the nuisance person. In the following description, FIG. 2 is also referred to as appropriate.

図13は、電車に乗り込む人物の顔データを取得し、当該顔データを駅内カメラデータベース部11に格納する処理の流れを示すフローチャートである。図13に示すように、まず、駅内カメラシステム101のコントロール部3が、駅内カメラ1、カメラ識別情報に対し、それぞれ、画像の撮影指示、乗車時刻及び乗車位置の取得指示を行う(ステップS1)。そして、駅内カメラ1が画像の撮影を行うとともに、カメラ識別情報が乗車時刻及び乗車位置を取得する(ステップS2)。   FIG. 13 is a flowchart showing a flow of processing for acquiring face data of a person getting on a train and storing the face data in the in-station camera database unit 11. As shown in FIG. 13, first, the control unit 3 of the in-station camera system 101 issues an instruction to capture an image, a boarding time, and a boarding position to the in-station camera 1 and camera identification information, respectively (steps). S1). The in-station camera 1 captures an image, and the camera identification information acquires the boarding time and boarding position (step S2).

次に、通信部4が、カメラ識別情報部2により撮影された画像と、カメラ識別情報により取得された乗車時刻及び乗車位置と、を画像分析部9に送信する(ステップS3)。ステップS3に続き、画像分析部9が、駅内カメラ1により撮影された画像から顔データの抽出を行い(ステップS4)、抽出された顔データを、乗車時刻及び乗車位置と対応付けて駅内カメラデータベース部11に格納する(ステップS5)。   Next, the communication unit 4 transmits the image taken by the camera identification information unit 2 and the boarding time and boarding position acquired by the camera identification information to the image analysis unit 9 (step S3). Subsequent to step S3, the image analysis unit 9 extracts face data from the image taken by the in-station camera 1 (step S4), and associates the extracted face data with the boarding time and boarding position in the station. Store in the camera database unit 11 (step S5).

図14は、電車内において被迷惑行為者の周囲の人物の顔データを取得し、当該顔データを車内カメラデータベース部12に格納する処理の流れを示すフローチャートである。図14に示すように、まず、車内カメラシステム102のコントロール部7が、被迷惑行為者の通報端末106から発信された通報信号を受信する(ステップS101)。次に、通報信号を受信したコントロール部7が、通報信号の角度などから通報信号が発信された位置を特定する(ステップS102)。   FIG. 14 is a flowchart showing a flow of processing for acquiring face data of persons around the nuisance performer in a train and storing the face data in the in-vehicle camera database unit 12. As shown in FIG. 14, first, the control unit 7 of the in-vehicle camera system 102 receives a report signal transmitted from the report terminal 106 of the nuisance person (step S101). Next, the control part 7 which received the report signal specifies the position where the report signal was transmitted from the angle etc. of the report signal (step S102).

ステップS102に続き、通報位置からの最も近い距離に設置された車内カメラシステム102において、車内カメラ5が通報信号の発信位置周辺の画像を撮影するとともに、カメラ識別情報部6が時刻情報・位置情報を取得する(ステップS103)。ここで、時刻情報とは通報信号が発信された時刻の情報、位置情報とは通報端末106により通報信号が発信された位置の情報を意味する。そして、通信部8が、車内カメラにより撮影された画像とカメラ識別情報部6により取得された位置情報・時刻情報を画像分析部9に送信する(ステップS104)。   Subsequent to step S102, in the in-vehicle camera system 102 installed at the closest distance from the notification position, the in-vehicle camera 5 captures an image around the transmission position of the notification signal, and the camera identification information section 6 displays time information / position information. Is acquired (step S103). Here, the time information means information on the time when the notification signal is transmitted, and the position information means information on the position where the notification signal is transmitted by the notification terminal 106. Then, the communication unit 8 transmits the image taken by the in-vehicle camera and the position information / time information acquired by the camera identification information unit 6 to the image analysis unit 9 (step S104).

ステップS104に続き、画像分析部9が、車内カメラ5により撮影された画像から顔データの抽出を行い(ステップS105)、抽出された顔データを、位置情報・時刻情報と対応付けて車内カメラデータベース部12に格納する(ステップS106)。   Subsequent to step S104, the image analysis unit 9 extracts face data from the image captured by the in-vehicle camera 5 (step S105), and associates the extracted face data with the position information / time information in the in-vehicle camera database. Store in the unit 12 (step S106).

図15は、統合データデータベース部13に格納された顔データに対応する頻度スコアから迷惑行為者を推定する処理の流れを示すフローチャートである。図15に示すように、まず、顔データマッチング頻度スコア算出部10が、車内カメラデータベース部12に格納された顔データと、駅内カメラデータベース部11に格納された顔データと、を照合し、駅内カメラデータベース部11に格納された顔データのうち車内カメラデータベース部12に格納された顔データに最も近いものを統合データデータベース部13に格納する候補として抽出する(ステップS201)。   FIG. 15 is a flowchart showing a flow of processing for estimating a nuisance person from a frequency score corresponding to face data stored in the integrated data database unit 13. As shown in FIG. 15, first, the face data matching frequency score calculation unit 10 compares the face data stored in the in-vehicle camera database unit 12 with the face data stored in the in-station camera database unit 11, Out of the face data stored in the in-station camera database unit 11, the face data closest to the face data stored in the in-vehicle camera database unit 12 is extracted as a candidate to be stored in the integrated data database unit 13 (step S201).

ステップS201に続き、顔データマッチング頻度スコア算出部10が、既に統合データデータベース部13に格納されている顔データの中に、統合データデータベース部13に格納する候補として抽出した顔データと実質的に一致しているものがあるか否か検索する(ステップS202)。   Subsequent to step S201, the face data matching frequency score calculation unit 10 substantially matches the face data extracted as candidates to be stored in the integrated data database unit 13 among the face data already stored in the integrated data database unit 13. Whether there is a match is searched (step S202).

ステップS202で一致するものがある場合は、顔データマッチング頻度スコア算出部10が、一致する顔データについては新たに統合データデータベース部13に格納することはせず、一致しない顔データについてのみ新たに統合データデータベース部13に格納する(ステップS203)。なお、顔データを格納する際、対応する位置情報・時刻情報も格納する。   If there is a match in step S202, the face data matching frequency score calculation unit 10 does not newly store the matching face data in the integrated data database unit 13, but only newly sets the matching face data. The data is stored in the integrated data database unit 13 (step S203). When storing face data, the corresponding position information and time information are also stored.

ステップS202で一致するものがない場合は、統合データデータベース部13に格納する候補として抽出した顔データの全てを新たに統合データデータベース部13に格納する(ステップS204)。なお、顔データを格納する際、対応する位置情報・時刻情報も格納する。   If there is no match in step S202, all the face data extracted as candidates to be stored in the integrated data database unit 13 are newly stored in the integrated data database unit 13 (step S204). When storing face data, the corresponding position information and time information are also stored.

ステップS203、ステップS204に続き、統合データデータベース部13の頻度スコアを更新する(ステップS205)。具体的には、上記候補のうち統合データデータベース部13に新たに格納した顔データの頻度スコアに初回値である1を記録し、上記候補のうち統合データデータベース部13に新たに格納しなかった顔データについては対応する既に統合データデータベース部13に格納された顔データの頻度スコアに所定値である1を加算する。   Following step S203 and step S204, the frequency score of the integrated data database unit 13 is updated (step S205). Specifically, the initial value 1 is recorded in the frequency score of the face data newly stored in the integrated data database unit 13 among the candidates, and is not newly stored in the integrated data database unit 13 among the candidates. For face data, a predetermined value of 1 is added to the corresponding frequency score of face data already stored in the integrated data database unit 13.

ステップS205に続き、規定期間が経過した否か判断する(ステップS206)。ステップS206で規定期間が経過したと判断された場合、統合データデータベース部13に格納された顔データのうち、頻度スコアが予め定められた閾値を超えた顔データの人物を迷惑行為者と推定される人物と判断し、管理者へ報告する(ステップS207)。ステップS206で規定期間が経過したと判断されなかった場合、処理をステップS201に戻す。   Following step S205, it is determined whether the specified period has elapsed (step S206). When it is determined in step S206 that the specified period has elapsed, the face data stored in the integrated data database unit 13 is estimated to be a nuisance person with face data whose frequency score exceeds a predetermined threshold. The person is determined to be a person who reports to the administrator (step S207). If it is not determined in step S206 that the specified period has elapsed, the process returns to step S201.

上述の実施の形態では、本発明をハードウェアの構成として説明したが、本発明は、これに限定されるものではない。本発明は、各処理を、CPU(Central Processing Unit)にコンピュータプログラムを実行させることにより実現することも可能である。   In the above-described embodiments, the present invention has been described as a hardware configuration, but the present invention is not limited to this. The present invention can also be realized by causing a CPU (Central Processing Unit) to execute a computer program for each process.

上述の例において、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory)を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。   In the above example, the program can be stored and provided to a computer using various types of non-transitory computer readable media. Non-transitory computer readable media include various types of tangible storage media. Examples of non-transitory computer-readable media include magnetic recording media (for example, flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (for example, magneto-optical disks), CD-ROMs (Read Only Memory), CD-Rs, CD-R / W, semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (Random Access Memory), and various types of temporary programs. Computer-readable media may be provided to a computer by way of example, such as electrical signals, optical signals, and electromagnetic waves. The temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.

以上、本発明を上記実施の形態に即して説明したが、本発明は上記実施の形態の構成にのみ限定されるものではなく、本願特許請求の範囲の請求項の発明の範囲内で当業者であればなし得る各種変形、修正、組み合わせを含むことは勿論である。   Although the present invention has been described with reference to the above embodiment, the present invention is not limited only to the configuration of the above embodiment, and within the scope of the invention of the claims of the present application. It goes without saying that various modifications, corrections, and combinations that can be made by those skilled in the art are included.

例えば、上記実施の形態において、頻度スコアの算出において、通報端末が通報信号を発信した位置情報を考慮するようにしてもよい。具体的には、頻度スコアの算出において、同じ位置において発信された通報信号を受けて再び検出された人物については加算する所定値を基準の値よりも大きくする。例えば、所定値の基準の値を1とすると、同じ位置で再び検出された人物については加算する所定値を2とする。迷惑行為の常習者は一度迷惑行為を行った位置で再び迷惑行為を行うことも多いので、このように頻度スコアを算出することで、迷惑行為者の推定の精度を向上させることができる。   For example, in the above-described embodiment, the location information at which the reporting terminal has transmitted a reporting signal may be taken into account in calculating the frequency score. Specifically, in the calculation of the frequency score, a predetermined value to be added is made larger than the reference value for a person who has been detected again after receiving a notification signal transmitted at the same position. For example, if the reference value of the predetermined value is 1, the predetermined value to be added is 2 for the person who is detected again at the same position. Since the addict of the nuisance often performs the nuisance again at the position where the nuisance is once performed, the accuracy of the estimation of the nuisance can be improved by calculating the frequency score in this way.

車内カメラシステム102の車内カメラ5は、電車内に配設されたレールなどのガイドに沿って移動できる可動式のものであってもよい。これにより、被迷惑行為者周辺の人物の顔をより捉え易くすることができる。可動式の車内カメラは、通報端末から発信された通報信号により特定された被迷惑行為者の位置に応じて、被迷惑行為者周辺の人物の顔を捉えるために最適な位置に移動する。   The in-vehicle camera 5 of the in-vehicle camera system 102 may be a movable type that can move along a guide such as a rail disposed in the train. Thereby, it is possible to more easily capture the faces of persons around the nuisance performer. The movable in-vehicle camera moves to an optimal position in order to capture the face of the person around the nuisance agent according to the position of the nuisance agent specified by the notification signal transmitted from the notification terminal.

通報端末106から通報信号が発信された際、複数の車内カメラシステム102において画像の撮影が行われるようにしてもよい。このようにすることで、顔データの取得ミスを回避することができる。   When a notification signal is transmitted from the notification terminal 106, a plurality of in-vehicle camera systems 102 may take an image. In this way, it is possible to avoid a face data acquisition error.

通報端末106が通報信号を発信した位置から最も近い位置に設置された車内カメラシステム102と、当該車内カメラシステム102に対向して配置された車内カメラシステム102と、において画像の撮影が行われるようにしてもよい。例えば、図5において、最も近い位置に設置された車内カメラシステム102がNo.004車内カメラシステム102_4であれば、No.004車内カメラシステム102_4と、No.004車内カメラシステム102_4に対向して配置されたNo.003車内カメラシステム102_3と、において画像の撮影が行われる。このようにすることで、顔データの取得ミスを回避することができる。   The in-vehicle camera system 102 installed at a position closest to the position where the notification terminal 106 has transmitted the notification signal, and the in-vehicle camera system 102 disposed opposite to the in-vehicle camera system 102, take an image. It may be. For example, in FIG. 5, the in-vehicle camera system 102 installed at the closest position is No. If it is 004 in-vehicle camera system 102_4, No. 004 in-vehicle camera system 102_4, The No. 003 in-vehicle camera system 102_3 disposed opposite to the 004 in-vehicle camera system 102_4 captures an image. In this way, it is possible to avoid a face data acquisition error.

通報端末106が通報信号を発信した位置からの距離が予め定められた所定の距離以内に設置された車内カメラシステム102において画像の撮影が行われるようにしてもよい。このようにすることで、顔データの取得ミスを回避することができる。   An image may be taken in the in-vehicle camera system 102 installed within a predetermined distance from the position where the notification terminal 106 transmits the notification signal. In this way, it is possible to avoid a face data acquisition error.

500 迷惑行為推定システム
501 第1撮影部
502 第2撮影部
503 通報端末
504 画像分析部
505 第1データベース部
506 第2データベース部
507 第3データベース部
508 顔データ解析部
509 判断部
500 nuisance estimation system 501 first imaging unit 502 second imaging unit 503 reporting terminal 504 image analysis unit 505 first database unit 506 second database unit 507 third database unit 508 face data analysis unit 509 determination unit

Claims (8)

不特定多数の人が出入りする出入口のある空間内における迷惑行為者を推定する迷惑行為者推定システムであって、
前記出入口付近に設けられ前記空間に入場する人物を撮影する第1撮影部と、
前記空間内に設けられ通報端末からの通報信号を受信した際に当該通報信号が発信された位置を特定し当該位置の周辺を撮影する第2撮影部と、
前記第1撮影部が撮影した画像および前記第2撮影部が撮影した画像をそれぞれ分析し顔データを抽出する画像分析部と、
前記第1撮影部が撮影した画像から抽出された顔データを格納する第1データベース部と、
前記第2撮影部が撮影した画像から抽出された顔データを格納する第2データベース部と、
迷惑行為者の候補となる顔データを格納する第3データベース部と、
前記第3データベース部に格納する顔データの選別および頻度スコアの算出を行う顔データ解析部と、
前記頻度スコアに基づいて迷惑行為者と推定される人物を判断する判断部と、を備え、
前記顔データ解析部が、前記第1データベース部に格納された第1顔データと前記第2データベース部に格納された第2顔データとの照合を行い、前記第1顔データの中から前記第2顔データに最も近いものを格納候補顔データとして抽出し、
前記格納候補顔データと実質的に一致する前記第3データベース部に格納済みの格納済み顔データがないときは、前記顔データ解析部が、当該格納候補顔データを新たに前記第3データベース部に格納するとともに格納した前記格納候補顔データに対応する前記頻度スコアとして初回値を与え、
前記格納候補顔データと実質的に一致する前記第3データベース部に格納済みの格納済み顔データがあるときは、前記顔データ解析部が、前記格納候補顔データを前記第3データベース部に格納せずに前記格納候補顔データと一致した前記格納済み顔データに対応する前記頻度スコアを所定値だけ増やし、
前記判断部が、予め定められた規定期間の経過後に、前記第3データベース部に格納された顔データのうち、対応する前記頻度スコアが予め定められた閾値を超えた顔データの人物を迷惑行為者と推定される人物と判断する迷惑行為者推定システム。
A nuisance person estimation system that estimates nuisance persons in a space where an unspecified number of people enter and exit,
A first photographing unit provided near the entrance and photographing a person entering the space;
A second imaging unit which is provided in the space and identifies a position where the notification signal is transmitted when receiving a notification signal from the notification terminal, and images the periphery of the position;
An image analysis unit that analyzes an image captured by the first imaging unit and an image captured by the second imaging unit and extracts face data;
A first database unit for storing face data extracted from an image captured by the first imaging unit;
A second database unit for storing face data extracted from an image captured by the second imaging unit;
A third database unit for storing facial data that are candidates for nuisances;
A face data analysis unit for selecting face data to be stored in the third database unit and calculating a frequency score;
A determination unit that determines a person estimated to be a nuisance based on the frequency score,
The face data analysis unit compares the first face data stored in the first database unit with the second face data stored in the second database unit, and the first face data is compared with the first face data. The one closest to the two face data is extracted as the storage candidate face data,
When there is no stored face data stored in the third database part that substantially matches the candidate storage face data, the face data analysis part newly adds the stored candidate face data to the third database part. Storing and giving an initial value as the frequency score corresponding to the stored candidate face data stored;
When there is stored face data stored in the third database unit that substantially matches the stored candidate face data, the face data analysis unit stores the storage candidate face data in the third database unit. Without increasing the frequency score corresponding to the stored face data that matches the stored candidate face data by a predetermined value,
The determination unit nuisances a person whose face data has a corresponding frequency score that exceeds a predetermined threshold among the face data stored in the third database unit after a predetermined period of time has elapsed. System for estimating a nuisance person who determines that the person is estimated to be a person.
前記第3データベース部に格納された前記顔データに対応する前記頻度スコアの算出において、前記通報端末が通報信号を発信した位置の情報を考慮する請求項1に記載の迷惑行為者推定システム。   The nuisance person estimation system according to claim 1, wherein in calculating the frequency score corresponding to the face data stored in the third database unit, information on a position where the notification terminal transmits a notification signal is considered. 前記空間内には前記第2撮影部が複数設置される、請求項1または2に記載の迷惑行為者推定システム。   The nuisance person estimation system according to claim 1 or 2, wherein a plurality of the second photographing units are installed in the space. 前記通報端末から通報信号が発信された際に、複数の前記第2撮影部のうちで、少なくとも当該通報信号が発信された位置からの距離が最も近いものが当該発信された位置の周辺を撮影する請求項3に記載の迷惑行為者推定システム。   When a notification signal is transmitted from the notification terminal, among the plurality of second imaging units, at least the one closest to the position where the notification signal is transmitted is photographed around the transmitted position. The nuisance person estimation system according to claim 3. 前記通報端末から通報信号が発信された際に、複数の前記第2撮影部のうちで当該通報信号が発信された位置からの距離が予め定められた所定の距離以内にあるものが当該発信位置周辺を撮影する請求項4に記載の迷惑行為者推定システム。   When a notification signal is transmitted from the notification terminal, the transmission position is a distance from a position where the notification signal is transmitted within a predetermined distance among the plurality of second imaging units. The nuisance person estimation system according to claim 4, wherein the surrounding area is photographed. 前記第2撮影部は、前記空間内に配設されたガイドに沿って移動可能であり、前記通報端末による通報信号の発信位置に応じて移動する請求項1乃至3のいずれか一項に記載の迷惑行為者推定システム。   The said 2nd imaging | photography part is movable along the guide arrange | positioned in the said space, and moves according to the transmission position of the notification signal by the said notification terminal. Nuisance estimation system. 不特定多数の人が出入りする出入口のある空間の出入口付近に設けられ前記空間に入場する人物を撮影する第1撮影部と、前記空間内に設けられ通報端末からの通報信号を受信した際に当該通報信号が発信された位置を特定し当該位置の周辺を撮影する第2撮影部と、前記第1撮影部が撮影した画像および前記第2撮影部が撮影した画像をそれぞれ分析し顔データを抽出する画像分析部と、前記第1撮影部が撮影した画像から抽出された顔データを格納する第1データベース部と、前記第2撮影部が撮影した画像から抽出された顔データを格納する第2データベース部と、迷惑行為者の候補となる顔データを格納する第3データベース部と、前記第3データベース部に格納する顔データの選別および頻度スコアの算出を行う顔データ解析部と、前記頻度スコアに基づいて迷惑行為者と推定される人物を判断する判断部と、を備え前記空間内における迷惑行為者を推定する迷惑行為者推定システムの制御方法であって、
前記顔データ解析部が、前記第1データベース部に格納された第1顔データと前記第2データベース部に格納された第2顔データとの照合を行い、前記第1顔データの中から前記第2顔データに最も近いものを格納候補顔データとして抽出するステップと、
前記格納候補顔データと実質的に一致する前記第3データベース部に格納済みの格納済み顔データがないときは、前記顔データ解析部が、当該格納候補顔データを新たに前記第3データベース部に格納するとともに格納した前記格納候補顔データに対応する前記頻度スコアとして初回値を与えるステップと、
前記格納候補顔データと実質的に一致する前記第3データベース部に格納済みの格納済み顔データがあるときは、前記顔データ解析部が、前記格納候補顔データを前記第3データベース部に格納せずに前記格納候補顔データと一致した前記格納済み顔データに対応する前記頻度スコアを所定値だけ増やすステップと、
前記判断部が、予め定められた規定期間の経過後に、前記第3データベース部に格納された顔データのうち、対応する前記頻度スコアが予め定められた閾値を超えた顔データの人物を迷惑行為者と推定される人物と判断するステップと、を有する迷惑行為者推定システムの制御方法。
When receiving a notification signal from a notification terminal provided in the space provided in the space near the entrance and exit of a space with an entrance where an unspecified number of people enter and exit, and a person entering the space The second image capturing unit that identifies the position where the notification signal is transmitted and captures the periphery of the position, the image captured by the first image capturing unit, and the image captured by the second image capturing unit are analyzed and face data is analyzed. An image analysis unit to extract; a first database unit that stores face data extracted from an image captured by the first imaging unit; and a first database unit that stores face data extracted from an image captured by the second imaging unit. 2 database units, a third database unit for storing face data as candidates for nuisances, a face data analysis unit for selecting face data stored in the third database unit and calculating a frequency score A method of controlling a nuisance who estimation system for estimating a nuisance who within the space provided and determining section, the determining a person suspected of nuisance person based on the frequency score,
The face data analysis unit compares the first face data stored in the first database unit with the second face data stored in the second database unit, and the first face data is compared with the first face data. Extracting the closest face data to the face candidate face data;
When there is no stored face data stored in the third database part that substantially matches the candidate storage face data, the face data analysis part newly adds the stored candidate face data to the third database part. Storing and giving an initial value as the frequency score corresponding to the stored candidate face data stored;
When there is stored face data stored in the third database unit that substantially matches the stored candidate face data, the face data analysis unit stores the storage candidate face data in the third database unit. Without increasing the frequency score corresponding to the stored face data that matches the stored candidate face data by a predetermined value;
The determination unit nuisances a person whose face data has a corresponding frequency score that exceeds a predetermined threshold among the face data stored in the third database unit after a predetermined period of time has elapsed. A method of controlling a nuisance person estimation system comprising: determining a person estimated to be a person.
不特定多数の人が出入りする出入口のある空間の出入口付近に設けられ前記空間に入場する人物を撮影する第1撮影部と、前記空間内に設けられ通報端末からの通報信号を受信した際に当該通報信号が発信された位置を特定し当該位置の周辺を撮影する第2撮影部と、前記第1撮影部が撮影した画像および前記第2撮影部が撮影した画像をそれぞれ分析し顔データを抽出する画像分析部と、前記第1撮影部が撮影した画像から抽出された顔データを格納する第1データベース部と、前記第2撮影部が撮影した画像から抽出された顔データを格納する第2データベース部と、迷惑行為者の候補となる顔データを格納する第3データベース部と、前記第3データベース部に格納する顔データの選別および頻度スコアの算出を行う顔データ解析部と、前記頻度スコアに基づいて推定される人物を判断する判断部と、を備え前記空間内における迷惑行為者を推定する迷惑行為者推定システムの制御プログラムであって、
前記顔データ解析部が、前記第1データベース部に格納された第1顔データと前記第2データベース部に格納された第2顔データとの照合を行い、前記第1顔データの中から前記第2顔データに最も近いものを格納候補顔データとして抽出するステップと、
前記格納候補顔データと実質的に一致する前記第3データベース部に格納済みの格納済み顔データがないときは、前記顔データ解析部が、当該格納候補顔データを新たに前記第3データベース部に格納するとともに格納した前記格納候補顔データに対応する前記頻度スコアとして初回値を与えるステップと、
前記格納候補顔データと実質的に一致する前記第3データベース部に格納済みの格納済み顔データがあるときは、前記顔データ解析部が、前記格納候補顔データを前記第3データベース部に格納せずに前記格納候補顔データと一致した前記格納済み顔データに対応する前記頻度スコアを所定値だけ増やすステップと、
前記判断部が、予め定められた規定期間の経過後に、前記第3データベース部に格納された顔データのうち、対応する前記頻度スコアが予め定められた閾値を超えた顔データの人物を迷惑行為者と推定される人物と判断するステップと、
をコンピュータに実行させる制御プログラム。
When receiving a notification signal from a notification terminal provided in the space provided in the space near the entrance and exit of a space with an entrance where an unspecified number of people enter and exit, and a person entering the space The second image capturing unit that identifies the position where the notification signal is transmitted and captures the periphery of the position, the image captured by the first image capturing unit, and the image captured by the second image capturing unit are analyzed and face data is analyzed. An image analysis unit to extract; a first database unit that stores face data extracted from an image captured by the first imaging unit; and a first database unit that stores face data extracted from an image captured by the second imaging unit. 2 database units, a third database unit for storing face data as candidates for nuisances, a face data analysis unit for selecting face data stored in the third database unit and calculating a frequency score A control program of the nuisance's estimation system for estimating a nuisance people in the space provided a determination unit, a determining a person is estimated based on the frequency score,
The face data analysis unit compares the first face data stored in the first database unit with the second face data stored in the second database unit, and the first face data is compared with the first face data. Extracting the closest face data to the face candidate face data;
When there is no stored face data stored in the third database part that substantially matches the candidate storage face data, the face data analysis part newly adds the stored candidate face data to the third database part. Storing and giving an initial value as the frequency score corresponding to the stored candidate face data stored;
When there is stored face data stored in the third database unit that substantially matches the stored candidate face data, the face data analysis unit stores the storage candidate face data in the third database unit. Without increasing the frequency score corresponding to the stored face data that matches the stored candidate face data by a predetermined value;
The determination unit nuisances a person whose face data has a corresponding frequency score that exceeds a predetermined threshold among the face data stored in the third database unit after a predetermined period of time has elapsed. Determining that the person is estimated to be a person,
A control program that causes a computer to execute.
JP2015186941A 2015-09-24 2015-09-24 Nuisance agent estimation system, control method and control program for nuisance agent estimation system Active JP6558178B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015186941A JP6558178B2 (en) 2015-09-24 2015-09-24 Nuisance agent estimation system, control method and control program for nuisance agent estimation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015186941A JP6558178B2 (en) 2015-09-24 2015-09-24 Nuisance agent estimation system, control method and control program for nuisance agent estimation system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019125109A Division JP6879336B2 (en) 2019-07-04 2019-07-04 Annoying actor estimation system, control method and control program of annoying actor estimation system

Publications (2)

Publication Number Publication Date
JP2017062594A true JP2017062594A (en) 2017-03-30
JP6558178B2 JP6558178B2 (en) 2019-08-14

Family

ID=58428794

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015186941A Active JP6558178B2 (en) 2015-09-24 2015-09-24 Nuisance agent estimation system, control method and control program for nuisance agent estimation system

Country Status (1)

Country Link
JP (1) JP6558178B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019215878A (en) * 2019-07-04 2019-12-19 日本電気株式会社 Nuisance person estimation system and control method of nuisance person estimation system
US11254318B2 (en) 2018-06-26 2022-02-22 Denso Corporation Passenger compartment monitoring method and passenger compartment monitoring device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006011728A (en) * 2004-06-24 2006-01-12 Omron Corp Suspicious person countermeasure system and suspicious person detection device
JP3167366U (en) * 2010-12-10 2011-04-21 小夜子 小林 Trinket type transmitter, in-vehicle transmitter / receiver, and monitoring device
JP2011233133A (en) * 2010-04-09 2011-11-17 Miyake Inc Shoplifting preventing system
WO2015033576A1 (en) * 2013-09-06 2015-03-12 日本電気株式会社 Security system, security method, and non-temporary computer-readable medium
JP2015056697A (en) * 2013-09-10 2015-03-23 キヤノン株式会社 Monitor system and control method thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006011728A (en) * 2004-06-24 2006-01-12 Omron Corp Suspicious person countermeasure system and suspicious person detection device
JP2011233133A (en) * 2010-04-09 2011-11-17 Miyake Inc Shoplifting preventing system
JP3167366U (en) * 2010-12-10 2011-04-21 小夜子 小林 Trinket type transmitter, in-vehicle transmitter / receiver, and monitoring device
WO2015033576A1 (en) * 2013-09-06 2015-03-12 日本電気株式会社 Security system, security method, and non-temporary computer-readable medium
JP2015056697A (en) * 2013-09-10 2015-03-23 キヤノン株式会社 Monitor system and control method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11254318B2 (en) 2018-06-26 2022-02-22 Denso Corporation Passenger compartment monitoring method and passenger compartment monitoring device
JP2019215878A (en) * 2019-07-04 2019-12-19 日本電気株式会社 Nuisance person estimation system and control method of nuisance person estimation system

Also Published As

Publication number Publication date
JP6558178B2 (en) 2019-08-14

Similar Documents

Publication Publication Date Title
US11210527B2 (en) Target object identifying device, target object identifying method and target object identifying program
CN107590439B (en) Target person identification and tracking method and device based on monitoring video
CN110222640B (en) Method, device and method for identifying suspect in monitoring site and storage medium
JP4759988B2 (en) Surveillance system using multiple cameras
JP2022082561A (en) Analysis server, monitoring system, monitoring method, and program
WO2015166612A1 (en) Image analysis system, image analysis method, and image analysis program
WO2014171258A1 (en) Information processing system, information processing method, and program
AU2015224526B2 (en) An image management system
JP2007334623A (en) Face authentication device, face authentication method, and access control device
JP2022168070A (en) person detection system
JP6729793B2 (en) Information processing apparatus, control method, and program
JP6833354B2 (en) Information processing equipment, information processing methods and programs
KR20160074208A (en) System and method for providing safety service using beacon signals
WO2020034645A1 (en) Facial recognition method, facial recognition system, and electronic device
WO2019151117A1 (en) Information processing device
JP2006236260A (en) Face authentication device, face authentication method, and entrance/exit management device
JP2013167986A (en) Image recognition system and image recognition method
JP6558178B2 (en) Nuisance agent estimation system, control method and control program for nuisance agent estimation system
KR102183904B1 (en) Method and Apparatus for surveillance using location-tracking imaging devices
JP6879336B2 (en) Annoying actor estimation system, control method and control program of annoying actor estimation system
JP2018087838A (en) Voice recognition device
JPWO2019187288A1 (en) Information processing equipment, data generation methods, and programs
JP2011087214A (en) Photographing system, method and program
JP2019159377A (en) Monitoring system, server device, monitoring method, and monitoring program
CN113744443B (en) Gate channel anti-cheating control method, device, equipment and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180806

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190618

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190701

R150 Certificate of patent or registration of utility model

Ref document number: 6558178

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150