JP6879336B2 - 迷惑行為者推定システム、迷惑行為者推定システムの制御方法及び制御プログラム - Google Patents

迷惑行為者推定システム、迷惑行為者推定システムの制御方法及び制御プログラム Download PDF

Info

Publication number
JP6879336B2
JP6879336B2 JP2019125109A JP2019125109A JP6879336B2 JP 6879336 B2 JP6879336 B2 JP 6879336B2 JP 2019125109 A JP2019125109 A JP 2019125109A JP 2019125109 A JP2019125109 A JP 2019125109A JP 6879336 B2 JP6879336 B2 JP 6879336B2
Authority
JP
Japan
Prior art keywords
face data
unit
actor
nuisance
database unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019125109A
Other languages
English (en)
Other versions
JP2019215878A (ja
Inventor
紀佳 戸野
紀佳 戸野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2019125109A priority Critical patent/JP6879336B2/ja
Publication of JP2019215878A publication Critical patent/JP2019215878A/ja
Application granted granted Critical
Publication of JP6879336B2 publication Critical patent/JP6879336B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Burglar Alarm Systems (AREA)
  • Alarm Systems (AREA)

Description

本発明は、迷惑行為者推定システム、迷惑行為者推定システムの制御方法に関する。
防犯カメラを用いて不審人物を検出する技術が知られている。特許文献1には、監視区域内に複数のカメラを設置し、監視対象者の保有する端末のGPS機能により監視対象者の位置を取得し、当該位置に対し所定の距離内にあるカメラが撮影した画像から監視対象者以外の顔画像を抽出し、これらの顔画像などから不審人物を推定する技術が記載されている。
特開2010−191620号公報 特開2006−146323号公報
しかしながら、電車内などの不特定多数の人が出入りする空間内では、迷惑行為を受けた者(被迷惑行為者)が予め特定されていないため、監視対象者が予め特定されていることを前提とする特許文献1に記載の技術では迷惑行為者を絞り込むことが困難であった。また、このような不特定多数の人が出入りする空間は混雑する場合も少なからずあるが、そのような場合に当該空間内に設置したカメラが撮影した画像から抽出された顔画像が不完全で人物を特定することができないおそれもあった。
本発明は、以上の背景に鑑みなされたものであり、不特定多数の人が出入りする空間内における迷惑行為者を推定することができる迷惑行為者推定システム、迷惑行為者推定システムの制御方法及び制御プログラムを提供することを目的とする。
本発明は、不特定多数の人が出入りする出入口のある空間内における迷惑行為者を推定する迷惑行為者推定システムであって、前記出入口付近に設けられ前記空間に入場する人物を撮影する第1撮影部と、前記空間内に設けられ通報端末からの通報信号を受信した際に当該通報信号が発信された位置を特定し当該位置の周辺を撮影する第2撮影部と、前記第1撮影部が撮影した画像および前記第2撮影部が撮影した画像をそれぞれ分析し顔データを抽出する画像分析部と、前記第1撮影部が撮影した画像から抽出された顔データを格納する第1データベース部と、前記第2撮影部が撮影した画像から抽出された顔データを格納する第2データベース部と、迷惑行為者の候補となる顔データを格納する第3データベース部と、前記第3データベース部に格納する顔データの選別および頻度スコアの算出を行う顔データ解析部と、前記頻度スコアに基づいて推定される人物を判断する判断部と、を備え、前記顔データ解析部が、前記第1データベース部に格納された第1顔データと前記第2データベース部に格納された第2顔データとの照合を行い、前記第1顔データの中から前記第2顔データに最も近いものを格納候補顔データとして抽出し、前記格納候補顔データと実質的に一致する前記第3データベース部に格納済みの格納済み顔データがないときは、前記顔データ解析部が、当該格納候補顔データを新たに前記第3データベース部に格納するとともに格納した前記格納候補顔データに対応する前記頻度スコアとして初回値を与え、前記格納候補顔データと実質的に一致する前記第3データベース部に格納済みの格納済み顔データがあるときは、前記顔データ解析部が、前記格納候補顔データを前記第3データベース部に格納せずに前記格納候補顔データと一致した前記格納済み顔データに対応する前記頻度スコアを所定値だけ増やし、前記判断部が、予め定められた規定期間の経過後に、前記第3データベース部に格納された顔データのうち、対応する前記頻度スコアが予め定められた閾値を超えた顔データの人物を迷惑行為者と推定される人物と判断するものである。
また、本発明は、不特定多数の人が出入りする出入口のある空間の出入口付近に設けられ前記空間に入場する人物を撮影する第1撮影部と、前記空間内に設けられ通報端末からの通報信号を受信した際に当該通報信号が発信された位置を特定し当該位置の周辺を撮影する第2撮影部と、前記第1撮影部が撮影した画像および前記第2撮影部が撮影した画像をそれぞれ分析し顔データを抽出する画像分析部と、前記第1撮影部が撮影した画像から抽出された顔データを格納する第1データベース部と、前記第2撮影部が撮影した画像から抽出された顔データを格納する第2データベース部と、迷惑行為者の候補となる顔データを格納する第3データベース部と、前記第3データベース部に格納する顔データの選別および頻度スコアの算出を行う顔データ解析部と、前記頻度スコアに基づいて推定される人物を判断する判断部と、を備え前記空間内における迷惑行為者を推定する迷惑行為者推定システムの制御方法であって、前記顔データ解析部が、前記第1データベース部に格納された第1顔データと前記第2データベース部に格納された第2顔データとの照合を行い、前記第1顔データの中から前記第2顔データに最も近いものを格納候補顔データとして抽出するステップと、前記格納候補顔データと実質的に一致する前記第3データベース部に格納済みの格納済み顔データがないときは、前記顔データ解析部が、当該格納候補顔データを新たに前記第3データベース部に格納するとともに格納した前記格納候補顔データに対応する前記頻度スコアとして初回値を与えるステップと、前記格納候補顔データと実質的に一致する前記第3データベース部に格納済みの格納済み顔データがあるときは、前記顔データ解析部が、前記格納候補顔データを前記第3データベース部に格納せずに前記格納候補顔データと一致した前記格納済み顔データに対応する前記頻度スコアを所定値だけ増やすステップと、前記判断部が、予め定められた規定期間の経過後に、前記第3データベース部に格納された顔データのうち、対応する前記頻度スコアが予め定められた閾値を超えた顔データの人物を迷惑行為者と推定される人物と判断するステップと、を有するものである。
さらに、本発明は、不特定多数の人が出入りする出入口のある空間の出入口付近に設けられ前記空間に入場する人物を撮影する第1撮影部と、前記空間内に設けられ通報端末からの通報信号を受信した際に当該通報信号が発信された位置を特定し当該位置の周辺を撮影する第2撮影部と、前記第1撮影部が撮影した画像および前記第2撮影部が撮影した画像をそれぞれ分析し顔データを抽出する画像分析部と、前記第1撮影部が撮影した画像から抽出された顔データを格納する第1データベース部と、前記第2撮影部が撮影した画像から抽出された顔データを格納する第2データベース部と、迷惑行為者の候補となる顔データを格納する第3データベース部と、前記第3データベース部に格納する顔データの選別および頻度スコアの算出を行う顔データ解析部と、前記頻度スコアに基づいて推定される人物を判断する判断部と、を備え前記空間内における迷惑行為者を推定する迷惑行為者推定システムの制御プログラムであって、前記顔データ解析部が、前記第1データベース部に格納された第1顔データと前記第2データベース部に格納された第2顔データとの照合を行い、前記第1顔データの中から前記第2顔データに最も近いものを格納候補顔データとして抽出するステップと、前記格納候補顔データと実質的に一致する前記第3データベース部に格納済みの格納済み顔データがないときは、前記顔データ解析部が、当該格納候補顔データを新たに前記第3データベース部に格納するとともに格納した前記格納候補顔データに対応する前記頻度スコアとして初回値を与えるステップと、前記格納候補顔データと実質的に一致する前記第3データベース部に格納済みの格納済み顔データがあるときは、前記顔データ解析部が、前記格納候補顔データを前記第3データベース部に格納せずに前記格納候補顔データと一致した前記格納済み顔データに対応する前記頻度スコアを所定値だけ増やすステップと、前記判断部が、予め定められた規定期間の経過後に、前記第3データベース部に格納された顔データのうち、対応する前記頻度スコアが予め定められた閾値を超えた顔データの人物を迷惑行為者と推定される人物と判断するステップと、をコンピュータに実行させるものである。
本発明によれば、不特定多数の人が出入りする空間内における迷惑行為者を推定することができる。
本発明の概要について説明する図である。 本実施の形態にかかる迷惑行為者推定システム100の概略構成を示すブロック図である。 第1日の乗車状況について説明する図である。 第1日に、駅内カメラデータベース部に格納されたデータの一例を示す図である。 第1日の通報時の電車内の状況について説明する図である。 第1日に、車内カメラデータベース部に格納されたデータの一例を示す図である。 第1日に統合データデータベース部に格納されたデータの一例を示す図である。 第2日の乗車状況について説明する図である。 第2日に、駅内カメラデータベース部に格納されたデータの一例を示す図である。 第2日の通報時の電車内の状況について説明する図である。 第2日に、車内カメラデータベース部に格納されたデータの一例を示す図である。 第2日に、統合データデータベース部に格納されたデータの一例を示す図である。 電車に乗り込む人物の顔データを取得し、当該顔データを駅内カメラデータベース部に格納する処理の流れを示すフローチャートである。 電車内において被迷惑行為者の周囲の人物の顔データを取得し、当該顔データを車内カメラデータベース部に格納する処理の流れを示すフローチャートである。 統合データデータベース部に格納された顔データに対応する頻度スコアを用いて迷惑行為者を推定する処理の流れを示すフローチャートである。
[本発明の特徴]
本発明の実施の形態の説明に先立って、本発明の特徴についてその概要をまず説明する。
本発明にかかる迷惑行為者推定システムは、不特定多数の人が出入りする出入口のある空間内で迷惑行為者を推定するものである。図1は、本発明の概要について説明する図である。図1は、本発明にかかる迷惑行為者推定システム500の概略構成を示すブロック図である。図1に示すように、迷惑行為者推定システム500は、第1撮影部501と、第2撮影部502と、通報端末503と、画像分析部504と、第1データベース部505と、第2データベース部506と、第3データベース部507と、顔データ解析部508と、判断部509と、を備えている。
第1撮影部501は、不特定多数の人が出入りする空間の出入口付近に設けられ、当該空間に入場する人物を撮影する。第2撮影部502は、当該空間内に設けられ、通報端末503からの通報信号を受信した際に当該通報信号が発信された位置を特定し当該位置の周辺を撮影する。画像分析部504は、第1撮影部501が撮影した画像および第2撮影部502が撮影した画像をそれぞれ分析し顔データを抽出する。
第1データベース部505は、第1撮影部501が撮影した画像から抽出された顔データを格納する。第2データベース部506は、第2撮影部502が撮影した画像から抽出された顔データを格納する。第3データベース部507は、迷惑行為者の候補となる顔データを格納する。顔データ解析部508は、第3データベース部507に格納する顔データの選別および頻度スコアの算出を行う。判断部509は、頻度スコアに基づいて迷惑行為者と推定される人物を判断する。
顔データ解析部508が、第1データベース部505に格納された第1顔データと第2データベース部506に格納された第2顔データとの照合を行い、第1顔データの中から第2顔データに最も近いものを格納候補顔データとして抽出する。そして、格納候補顔データと実質的に一致する第3データベース部507に格納済みの格納済み顔データがないときは、顔データ解析部508が、当該格納候補顔データを新たに第3データベース部507に格納するとともに格納した格納候補顔データに対応する頻度スコアとして初回値を与える。
また、格納候補顔データと実質的に一致する第3データベース部507に格納済みの格納済み顔データがあるときは、顔データ解析部508が、格納候補顔データを第3データベース部507に格納せずに格納候補顔データと一致した格納済み顔データに対応する頻度スコアを所定値だけ増やす。
判断部509が、予め定められた規定期間の経過後に、第3データベース部507に格納された顔データのうち、対応する頻度スコアが予め定められた閾値を超えた顔データの人物を迷惑行為者と推定される人物と判断する。
以上より、本発明によれば、不特定多数の人が出入りする空間内における迷惑行為者を推定することができる。
以下、図面を参照して本発明の実施の形態について説明する。
図2は、本実施の形態にかかる迷惑行為者推定システム100の概略構成を示すブロック図である。図2に示すように、迷惑行為者推定システム100は、第1撮影部としての駅内カメラシステム101と、第2撮影部としての車内カメラシステム102と、分析部103と、データベース部104と、判断部としての人物推定レポート部105と、通報端末106と、を有する。
駅内カメラシステム101は、駅のホームにおける各乗車位置付近(乗り降りのためにホーム内で止まっている電車の出入口付近)に設置され、駅内カメラ1と、カメラ識別情報部2と、コントロール部3と、通信部4と、を有する。駅内カメラ1は、コントロール部3から撮影指示を受け画像の撮影を行う。駅内カメラ1が撮影する画像は動画または静止画のいずれであってもよい。静止画とする場合、複数枚数撮影が行われるようにする。カメラ識別情報部2は、コントロール部3から取得指示を受けて乗車位置及び乗車時刻を取得する。コントロール部3は、駅のホームにおいて電車のドアが乗り降りのために開閉されている間に、駅内カメラ1及びカメラ識別情報部2に対し取得指示を送る。通信部4は、駅内カメラ1が取得した画像とカメラ識別情報部2が取得した乗車位置及び乗車時刻を、無線または有線により画像分析部9へと送る。
車内カメラシステム102は、電車内に複数設置され、車内カメラ5と、カメラ識別情報部6と、コントロール部7と、通信部8と、を有する。車内カメラ5は、通報端末106からの通報信号を受信したコントロール部7から撮影指示を受けて画像の撮影を行う。車内カメラ5は、人物の顔が捉えやすいような位置、例えば、電車の出入口扉の上部に設置する。なお、通報端末106とコントロール部7との通信には、位置の特定がしやすいBluetooth(登録商標)などの短距離通信を用いる。車内カメラ5が撮影する画像は動画または静止画のいずれであってもよい。静止画とする場合、複数枚数撮影が行われるようにする。カメラ識別情報部6は、コントロール部7から取得指示を受けて通報信号が発信された時刻の情報(時刻情報)及び通報信号が発信された位置の情報(位置情報)を取得する。位置情報は通報端末106の発信した通報信号により検知する。コントロール部7は、通報端末106からの通報信号を受信したときに、車内カメラ5及びカメラ識別情報部6に対し取得指示を送る。通信部8は、車内カメラ5が取得した画像とカメラ識別情報部6が取得した時刻情報及び位置情報を、無線により画像分析部9へと送る。
分析部103は、画像分析部9と、顔データ解析部としての顔データマッチング頻度スコア算出部10と、を有する。画像分析部9は、駅内カメラシステム101から送信されてきた画像、及び車内カメラシステム102から送信されてきた画像から人の顔を抽出し、抽出したそれぞれの人の顔の特徴点を分析して顔データを作成する。なお、カメラの撮影した画像から人の顔を抽出する技術として、公知の技術を用いることができる。顔データマッチング頻度スコア算出部10は、駅内カメラデータベース部11に格納された顔データの中から車内カメラデータベース部12に格納された顔データと最も近い顔データを抽出し、この最も近い顔データを迷惑行為発生時に居あわせた人物として統合データデータベース部13に格納するとともに、当該顔データの検出頻度(頻度スコア)を算出する。検出スコアの算出については後述する。
データベース部104は、第1データベース部としての駅内カメラデータベース部11と、第2データベース部としての車内カメラデータベース部12と、第3データベース部としての統合データデータベース部13と、を有する。駅内カメラデータベース部11は、駅内カメラ1が撮影した画像から抽出されたそれぞれの人の顔に対応する顔データを格納する。車内カメラデータベース部12は、車内カメラ5が撮影した画像から抽出されたそれぞれの人の顔に対応する顔データを格納する。統合データデータベース部13は、迷惑行為発生時に居あわせた人物の顔データや頻度スコアなどを人物データとして格納する。人物推定レポート部105は、統合データデータベース部13に格納された人物データのうち、規定期間内に頻度スコアが予め定められた閾値を超えたものを迷惑行為者と推定してリストアップし、リストアップした情報をシステム管理者へ提供する。通報端末106は、迷惑行為を受けた被迷惑行為者が通報信号を送信するための携帯通信端末で、例えば、通報信号を送信するための専用のアプリをインストールしたスマートフォンなどである。専用のアプリは、インターネットを通じて誰でも無料で取得できるようにしてもよい。
迷惑行為者推定システム100の具体的な動作について以下で説明する。
図3は、第1日の乗車状況について説明する図である。図3に示すように、第1日には、駅のホームに到着した電車に7人の人物が乗り込むとする。駅のホームの各乗車位置付近には駅内カメラシステム101(No.001駅内カメラシステム101_1、No.002駅内カメラシステム101_2、No.003駅内カメラシステム101_3及びNo.004駅内カメラシステム101_4)が設置されている。これらの駅内カメラシステム101の駅内カメラ1は乗車する人物の顔画像が鮮明に撮影できるような高さに設置される。
駅内カメラシステム101は電車に乗り込む人物を撮影し、画像を分析部103に送信する。第1日の8:00にそれぞれの駅内カメラシステム101が電車に乗り込んだ人物を撮影したとする。No.001駅内カメラシステム101_1が撮影した画像からは顔データC、Dが抽出され、No.002駅内カメラシステム101_2が撮影した画像からは顔データA、B、Gが抽出され、No.003駅内カメラシステム101_3が撮影した画像からは顔データFが抽出され、No.004駅内カメラシステム101_4が撮影した画像からは顔データEが抽出されたとする。
図4は、第1日に、駅内カメラデータベース部11に格納されたデータの一例を示す図である。図4に示すように、駅内カメラデータベース部11には、駅内カメラシステム101が撮影した画像から抽出された顔データとともに、当該顔データに対応する乗車位置及び乗車時刻も記録される。
図5は、第1日の通報時の電車内の状況について説明する図である。図5に示すように、電車内のそれぞれの出入り口付近には車内カメラシステム102(No.001車内カメラシステム102_1、No.002車内カメラシステム102_2、No.003車内カメラシステム102_3、No.004車内カメラシステム102_4、No.005車内カメラシステム102_5、No.006車内カメラシステム102_6、No.007車内カメラシステム102_7及びNo.008車内カメラシステム102_8)が設置されている。
被迷惑行為者が通報端末106から送信した通報信号は車内カメラシステム102のコントロール部7により受信・検出される。車内カメラシステム102のコントロール部7において、通報信号の受信角度により当該通報信号が発信された位置を特定する。そして、当該通報信号が発信された位置に最も近い車内カメラシステム102により撮影が行われる。
図5において、顔データGに対応する人物(被迷惑行為者)が、迷惑行為を受けた際に通報端末106により通報を行ったとする。この時、顔データGに対応する人物の周辺には顔データA,B,C,Dに対応する人物がいたとする。通報信号の発信位置の最も近い車内カメラシステム102は、No.004車内カメラシステム102_4なので、No.004車内カメラシステム102_4が撮影を行う。No.004車内カメラシステム102_4が撮影した画像からは顔データa,b,c,d,gが抽出されたとする。
図6は、第1日に、車内カメラデータベース部12に格納されたデータの一例を示す図である。図6に示すように、車内カメラデータベース部12には、車内カメラシステム102が撮影した画像から抽出された顔データとともに、当該顔データに対応する時刻情報及び位置情報も記録される。ここで、時刻情報とは通報信号が発信された時刻の情報、位置情報とは通報端末106により通報信号が発信された位置の情報を意味する。迷惑行為発生時に、被迷惑行為者(通報信号の発信者)の周囲に居あわせた人物のいずれかが迷惑行為者であると考えられる。つまり、車内カメラデータベース部12に格納された顔データa,b,c,d,gに対応する人物のいずれかが迷惑行為者であると考えられる。
一般的に、乗客は正面を向いて出入口から電車に乗り込むため、駅内カメラシステム101により撮影された画像中に映りこんだ人物の顔はほぼ正面を向いている場合が多い。これに対し、車内カメラシステム102により撮影された画像中に映りこんだ人物の顔は、電車内が混雑していることなどから正面を向いているものでないことも多い。このため、車内カメラシステム102で撮影された画像から抽出された顔データは、駅内カメラシステム101で撮影された画像から抽出される顔データに対し、顔の特徴点が不足しがちである。このため、車内カメラシステム102で撮影された画像から抽出された顔データだけでは人物を十分に特定できないことも考えられる。
車内カメラデータベース部12に格納された顔データに対応する人物は、必ず駅内カメラデータベース部11にも格納されている。このため、車内カメラデータベース部12に格納されたある顔データの人物と、駅内カメラデータベース部11に格納された顔データのうち車内カメラデータベース部12に格納されたある顔データに最も近い顔データに対応する人物と、は同一人物であるとすることができる。そこで、顔データマッチング頻度スコア算出部10は、車内カメラシステム102で撮影された画像から抽出された顔データと、駅内カメラシステム101で撮影された画像から抽出される顔データと、の照合を行い、駅内カメラデータベース部11に格納された顔データの中から車内カメラデータベース部12に格納された顔データと最も近い顔データを抽出する。そして、顔データマッチング頻度スコア算出部10は、この最も近い顔データを迷惑行為発生時に居あわせた人物として統合データデータベース部13に格納する。なお、撮影された画像から顔データを抽出する方法や顔データを照合する方法として、公知の方法(例えば、特許文献2に記載された方法など)を用いることができる。
図7は、第1日に統合データデータベース部13に格納されたデータの一例を示す図である。図6に示す車内カメラデータベース部12に格納された顔データと、図4に示す駅内カメラデータベース部11に格納された顔データと、の照合の結果、顔データa(図6参照)が顔データA(図4参照)に、顔データb(図6参照)が顔データB(図4参照)に、顔データc(図6参照)が顔データC(図4参照)に、顔データd(図6参照)が顔データD(図4参照)に、顔データg(図6参照)が顔データG(図4参照)に、それぞれ最も近かったとする。図7に示すように、統合データデータベース部13には、顔データA,B,C,D,Gが格納される。駅内カメラデータベース部11に格納された、顔データA,B,C,D,Gに対応する乗車時刻及び乗車位置に関するデータについても、統合データデータベース部13に格納された顔データA,B,C,D,Gとそれぞれ対応付けされて統合データデータベース部13に格納される。
また、車内カメラデータベース部12に格納された、顔データa,b,c,d,gに対応する時刻情報、位置情報に関するデータは、顔データa,b,c,d,gがそれぞれ顔データA,B,C,D,Gに相当するとして、統合データデータベース部13に格納された顔データA,B,C,D,Gとそれぞれ対応付けされて統合データデータベース部13に格納される。統合データデータベース部13に新たに顔データが格納される際、当該顔データの頻度スコアには初回値である1が記録される。
図8は、第2日の乗車状況について説明する図である。図8に示すように、第2日の8:00にそれぞれの駅内カメラシステム101が電車に乗り込んだ人物を撮影したとする。No.001駅内カメラシステム101_1が撮影した画像からは顔データR、Qが抽出され、No.002駅内カメラシステム101_2が撮影した画像からは顔データO、P、Uが抽出され、No.003駅内カメラシステム101_3が撮影した画像からは顔データTが抽出され、No.004駅内カメラシステム101_4が撮影した画像からは顔データSが抽出されたとする。
図9は、第2日に、駅内カメラデータベース部11に格納されたデータの一例を示す図である。図9に示すように、駅内カメラデータベース部11には、駅内カメラシステム101が撮影した画像から抽出された顔データとともに、当該顔データに対応する乗車時刻及び乗車位置も記録される。駅内カメラデータベース部11は、データ量が膨大になるのを避けるため、該当日の始発からデータの記録を開始し、終電の後にデータがリセットされるようにする。つまり、駅内カメラデータベース部11において、第2日には、第1日に格納されたデータ(図4参照)は消去されている。
図10は、第2日の通報時の電車内の状況について説明する図である。図10に示すように、顔データUに対応する人物(被迷惑行為者)が、迷惑行為を受けた際に通報端末106により通報を行ったとする。この時、顔データUに対応する人物の周辺には顔データO,P,Q,Rに対応する人物がいたとする。通報信号の発信位置の最も近い車内カメラシステム102は、No.004車内カメラシステム102_4なので、No.004車内カメラシステム102_4が撮影を行う。No.004車内カメラシステム102_4が撮影した画像からは顔データo,p,q,r,uが抽出されたとする。
図11は、第2日に、車内カメラデータベース部12に格納されたデータの一例を示す図である。図11に示すように、車内カメラデータベース部12には、車内カメラシステム102が撮影した画像から抽出された顔データとともに、当該顔データに対応する時刻情報及び位置情報も記録される。ここで、時刻情報とは通報信号が発信された時刻の情報、位置情報とは通報端末106により通報信号が発信された位置の情報を意味する。車内カメラデータベース部12は、データ量が膨大になるのを避けるため、該当日の始発からデータの記録を開始し、終電の後にデータがリセットされるようにする。つまり、車内カメラデータベース部12において、第2日には、第1日に格納されたデータ(図6参照)は消去されている。
顔データマッチング頻度スコア算出部10が、図11に示す車内カメラデータベース部12に格納された顔データと、図9に示す駅内カメラデータベース部11に格納された顔データと、の照合を行った結果、顔データo(図11参照)が顔データO(図9参照)に、顔データp(図11参照)が顔データP(図9参照)に、顔データq(図11参照)が顔データQ(図9参照)に、顔データr(図11参照)が顔データR(図9参照)に、顔データu(図11参照)が顔データU(図9参照)に、それぞれ最も近かったとする。顔データO,P,Q,R,Uは、統合データデータベース部13に格納する候補とする。なお、顔データo,p,q,r,uの時刻情報及び位置情報は、顔データO,P,Q,R,Uにそれぞれ対応させる。
続いて、顔データマッチング頻度スコア算出部10が、既に統合データデータベース部13に格納されている顔データ(図7参照)の中に、統合データデータベース部13に格納する候補である顔データO,P,Q,R,Uと実質的に一致しているものがあるか検索を行う。検索の結果、既に統合データデータベース部13に格納されている顔データAと、統合データデータベース部13に格納する候補である顔データOとが実質的に一致していたとする。統合データデータベース部13に格納する候補である顔データP,Q,R,Uは、既に統合データデータベース部13に格納されている顔データの中に実質的に一致するものがなかったとする。
図12は、第2日に、統合データデータベース部13に格納されたデータの一例を示す図である。
図12に示すように、統合データデータベース部13に格納する候補のうち、既に統合データデータベース部13に格納されている顔データの中に実質的に一致するものがなかった顔データP,Q,R,Uは、新たに統合データデータベース部13に格納される。顔データP,Q,R,Uに対応する位置情報、時刻情報、乗車位置及び乗車時刻も顔データP,Q,R,Uとともに統合データデータベース部13に記録される。統合データデータベース部13に新たに顔データが格納される際、当該顔データの頻度スコアとして初回値である1が記録される。
統合データデータベース部13に格納する候補のうち、既に統合データデータベース部13に格納されている顔データの中に実質的に一致するものが見つかった顔データOについては、統合データデータベース部13に新たに格納することはせず、顔データOに対応する位置情報、時刻情報、乗車位置及び乗車時刻についてのデータは、顔データAの欄に追加で記録される。また、既に統合データデータベース部13に格納されている顔データAの頻度スコアに所定値である1を加算する。つまり、顔データAに対応する頻度スコアは2になる。
迷惑行為者推定システム100が、上述した第1日、第2日の処理を繰り返すことにより、統合データデータベース部13には日々、迷惑行為者の候補である人物のデータが蓄積される。規定期間(例えば1ヶ月)が経過したところで、統合データデータベース部13において、頻度スコアが予め定められた閾値(例えば4)を超えている顔データに対応する人物が迷惑行為者であると推定される。
一般的に、迷惑行為者は迷惑行為を繰り返す傾向が強いので、上述した頻度スコアにより精度良く迷惑行為者を推定することができる。以上より、本実施の形態にかかる迷惑行為者推定システム100より、不特定多数の人が出入りする空間内における迷惑行為者を推定することができる。
次に、迷惑行為者推定システム100が迷惑行為者を推定する処理の流れについて以下で説明する。図13、図14及び図15は、迷惑行為者推定システム100が迷惑行為者を推定する処理の流れを示すフローチャートである。なお、以下の説明において図2も適宜参照する。
図13は、電車に乗り込む人物の顔データを取得し、当該顔データを駅内カメラデータベース部11に格納する処理の流れを示すフローチャートである。図13に示すように、まず、駅内カメラシステム101のコントロール部3が、駅内カメラ1、カメラ識別情報に対し、それぞれ、画像の撮影指示、乗車時刻及び乗車位置の取得指示を行う(ステップS1)。そして、駅内カメラ1が画像の撮影を行うとともに、カメラ識別情報が乗車時刻及び乗車位置を取得する(ステップS2)。
次に、通信部4が、カメラ識別情報部2により撮影された画像と、カメラ識別情報により取得された乗車時刻及び乗車位置と、を画像分析部9に送信する(ステップS3)。ステップS3に続き、画像分析部9が、駅内カメラ1により撮影された画像から顔データの抽出を行い(ステップS4)、抽出された顔データを、乗車時刻及び乗車位置と対応付けて駅内カメラデータベース部11に格納する(ステップS5)。
図14は、電車内において被迷惑行為者の周囲の人物の顔データを取得し、当該顔データを車内カメラデータベース部12に格納する処理の流れを示すフローチャートである。図14に示すように、まず、車内カメラシステム102のコントロール部7が、被迷惑行為者の通報端末106から発信された通報信号を受信する(ステップS101)。次に、通報信号を受信したコントロール部7が、通報信号の角度などから通報信号が発信された位置を特定する(ステップS102)。
ステップS102に続き、通報位置からの最も近い距離に設置された車内カメラシステム102において、車内カメラ5が通報信号の発信位置周辺の画像を撮影するとともに、カメラ識別情報部6が時刻情報・位置情報を取得する(ステップS103)。ここで、時刻情報とは通報信号が発信された時刻の情報、位置情報とは通報端末106により通報信号が発信された位置の情報を意味する。そして、通信部8が、車内カメラにより撮影された画像とカメラ識別情報部6により取得された位置情報・時刻情報を画像分析部9に送信する(ステップS104)。
ステップS104に続き、画像分析部9が、車内カメラ5により撮影された画像から顔データの抽出を行い(ステップS105)、抽出された顔データを、位置情報・時刻情報と対応付けて車内カメラデータベース部12に格納する(ステップS106)。
図15は、統合データデータベース部13に格納された顔データに対応する頻度スコアから迷惑行為者を推定する処理の流れを示すフローチャートである。図15に示すように、まず、顔データマッチング頻度スコア算出部10が、車内カメラデータベース部12に格納された顔データと、駅内カメラデータベース部11に格納された顔データと、を照合し、駅内カメラデータベース部11に格納された顔データのうち車内カメラデータベース部12に格納された顔データに最も近いものを統合データデータベース部13に格納する候補として抽出する(ステップS201)。
ステップS201に続き、顔データマッチング頻度スコア算出部10が、既に統合データデータベース部13に格納されている顔データの中に、統合データデータベース部13に格納する候補として抽出した顔データと実質的に一致しているものがあるか否か検索する(ステップS202)。
ステップS202で一致するものがある場合は、顔データマッチング頻度スコア算出部10が、一致する顔データについては新たに統合データデータベース部13に格納することはせず、一致しない顔データについてのみ新たに統合データデータベース部13に格納する(ステップS203)。なお、顔データを格納する際、対応する位置情報・時刻情報も格納する。
ステップS202で一致するものがない場合は、統合データデータベース部13に格納する候補として抽出した顔データの全てを新たに統合データデータベース部13に格納する(ステップS204)。なお、顔データを格納する際、対応する位置情報・時刻情報も格納する。
ステップS203、ステップS204に続き、統合データデータベース部13の頻度スコアを更新する(ステップS205)。具体的には、上記候補のうち統合データデータベース部13に新たに格納した顔データの頻度スコアに初回値である1を記録し、上記候補のうち統合データデータベース部13に新たに格納しなかった顔データについては対応する既に統合データデータベース部13に格納された顔データの頻度スコアに所定値である1を加算する。
ステップS205に続き、規定期間が経過した否か判断する(ステップS206)。ステップS206で規定期間が経過したと判断された場合、統合データデータベース部13に格納された顔データのうち、頻度スコアが予め定められた閾値を超えた顔データの人物を迷惑行為者と推定される人物と判断し、管理者へ報告する(ステップS207)。ステップS206で規定期間が経過したと判断されなかった場合、処理をステップS201に戻す。
上述の実施の形態では、本発明をハードウェアの構成として説明したが、本発明は、これに限定されるものではない。本発明は、各処理を、CPU(Central Processing Unit)にコンピュータプログラムを実行させることにより実現することも可能である。
上述の例において、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory)を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
以上、本発明を上記実施の形態に即して説明したが、本発明は上記実施の形態の構成にのみ限定されるものではなく、本願特許請求の範囲の請求項の発明の範囲内で当業者であればなし得る各種変形、修正、組み合わせを含むことは勿論である。
例えば、上記実施の形態において、頻度スコアの算出において、通報端末が通報信号を発信した位置情報を考慮するようにしてもよい。具体的には、頻度スコアの算出において、同じ位置において発信された通報信号を受けて再び検出された人物については加算する所定値を基準の値よりも大きくする。例えば、所定値の基準の値を1とすると、同じ位置で再び検出された人物については加算する所定値を2とする。迷惑行為の常習者は一度迷惑行為を行った位置で再び迷惑行為を行うことも多いので、このように頻度スコアを算出することで、迷惑行為者の推定の精度を向上させることができる。
車内カメラシステム102の車内カメラ5は、電車内に配設されたレールなどのガイドに沿って移動できる可動式のものであってもよい。これにより、被迷惑行為者周辺の人物の顔をより捉え易くすることができる。可動式の車内カメラは、通報端末から発信された通報信号により特定された被迷惑行為者の位置に応じて、被迷惑行為者周辺の人物の顔を捉えるために最適な位置に移動する。
通報端末106から通報信号が発信された際、複数の車内カメラシステム102において画像の撮影が行われるようにしてもよい。このようにすることで、顔データの取得ミスを回避することができる。
通報端末106が通報信号を発信した位置から最も近い位置に設置された車内カメラシステム102と、当該車内カメラシステム102に対向して配置された車内カメラシステム102と、において画像の撮影が行われるようにしてもよい。例えば、図5において、最も近い位置に設置された車内カメラシステム102がNo.004車内カメラシステム102_4であれば、No.004車内カメラシステム102_4と、No.004車内カメラシステム102_4に対向して配置されたNo.003車内カメラシステム102_3と、において画像の撮影が行われる。このようにすることで、顔データの取得ミスを回避することができる。
通報端末106が通報信号を発信した位置からの距離が予め定められた所定の距離以内に設置された車内カメラシステム102において画像の撮影が行われるようにしてもよい。このようにすることで、顔データの取得ミスを回避することができる。
500 迷惑行為推定システム
501 第1撮影部
502 第2撮影部
503 通報端末
504 画像分析部
505 第1データベース部
506 第2データベース部
507 第3データベース部
508 顔データ解析部
509 判断部

Claims (7)

  1. 不特定多数の人が出入りする出入口のある空間内における迷惑行為者を推定する迷惑行為者推定システムであって、
    前記出入口付近に設けられ前記空間に入場する人物を撮影する第1撮影部と、
    前記空間内に設けられ通報端末からの通報信号を受信した際に当該通報信号が発信された位置を特定し、当該位置の周辺を撮影する第2撮影部と、
    前記第1撮影部が撮影した画像および前記第2撮影部が撮影した画像から、顔データを抽出する画像分析部と、
    前記第1撮影部が撮影した画像から抽出された顔データを格納する第1データベース部と、
    前記第2撮影部が撮影した画像から抽出された顔データを格納する第2データベース部と、
    前記第1データベース部に格納された第1顔データと前記第2データベース部に格納された第2顔データとの照合を行い、前記第1顔データの中から前記第2顔データに最も近いものを格納候補顔データとして抽出する顔データ解析部と、
    予め定められた規定期間の経過後に、前記格納候補顔データが抽出された頻度が予め定められた閾値を超えた顔データの人物を迷惑行為者と推定される人物と判断する判断部と、
    を備える、迷惑行為者推定システム。
  2. 前記空間内には前記第2撮影部が複数設置される、請求項1に記載の迷惑行為者推定システム。
  3. 前記通報端末から通報信号が発信された際に、複数の前記第2撮影部のうちで、少なくとも当該通報信号が発信された位置からの距離が最も近いものが当該発信された位置の周辺を撮影する請求項に記載の迷惑行為者推定システム。
  4. 前記通報端末から通報信号が発信された際に、複数の前記第2撮影部のうちで当該通報信号が発信された位置からの距離が予め定められた所定の距離以内にあるものが発信位置周辺を撮影する請求項に記載の迷惑行為者推定システム。
  5. 前記第2撮影部は、前記空間内に配設されたガイドに沿って移動可能であり、前記通報端末による通報信号の発信位置に応じて移動する請求項1または2に記載の迷惑行為者推定システム。
  6. 不特定多数の人が出入りする出入口のある空間の出入口付近に設けられ前記空間に入場する人物を撮影する第1撮影部と、前記空間内に設けられ通報端末からの通報信号を受信した際に当該通報信号が発信された位置を特定し、当該位置の周辺を撮影する第2撮影部と、前記第1撮影部が撮影した画像および前記第2撮影部が撮影した画像から、顔データを抽出する画像分析部と、前記第1撮影部が撮影した画像から抽出された顔データを格納する第1データベース部と、前記第2撮影部が撮影した画像から抽出された顔データを格納する第2データベース部と、を備え、前記空間内における迷惑行為者を推定する迷惑行為者推定システムの制御方法であって、
    前記第1データベース部に格納された第1顔データと前記第2データベース部に格納された第2顔データとの照合を行い、前記第1顔データの中から前記第2顔データに最も近いものを格納候補顔データとして抽出するステップと、
    予め定められた規定期間の経過後に、前記格納候補顔データが抽出された頻度が予め定められた閾値を超えた顔データの人物を迷惑行為者と推定される人物と判断するステップと、を有する迷惑行為者推定システムの制御方法。
  7. 不特定多数の人が出入りする出入口のある空間の出入口付近に設けられ前記空間に入場する人物を撮影する第1撮影部と、前記空間内に設けられ通報端末からの通報信号を受信した際に当該通報信号が発信された位置を特定し、当該位置の周辺を撮影する第2撮影部と、前記第1撮影部が撮影した画像および前記第2撮影部が撮影した画像から、顔データを抽出する画像分析部と、前記第1撮影部が撮影した画像から抽出された顔データを格納する第1データベース部と、前記第2撮影部が撮影した画像から抽出された顔データを格納する第2データベース部と、を備え、前記空間内における迷惑行為者を推定する迷惑行為者推定システムの制御プログラムであって、
    前記第1データベース部に格納された第1顔データと前記第2データベース部に格納された第2顔データとの照合を行い、前記第1顔データの中から前記第2顔データに最も近いものを格納候補顔データとして抽出するステップと、
    予め定められた規定期間の経過後に、前記格納候補顔データが抽出された頻度が予め定められた閾値を超えた顔データの人物を迷惑行為者と推定される人物と判断するステップと、をコンピュータに実行させる制御プログラム。
JP2019125109A 2019-07-04 2019-07-04 迷惑行為者推定システム、迷惑行為者推定システムの制御方法及び制御プログラム Active JP6879336B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019125109A JP6879336B2 (ja) 2019-07-04 2019-07-04 迷惑行為者推定システム、迷惑行為者推定システムの制御方法及び制御プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019125109A JP6879336B2 (ja) 2019-07-04 2019-07-04 迷惑行為者推定システム、迷惑行為者推定システムの制御方法及び制御プログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015186941A Division JP6558178B2 (ja) 2015-09-24 2015-09-24 迷惑行為者推定システム、迷惑行為者推定システムの制御方法及び制御プログラム

Publications (2)

Publication Number Publication Date
JP2019215878A JP2019215878A (ja) 2019-12-19
JP6879336B2 true JP6879336B2 (ja) 2021-06-02

Family

ID=68918785

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019125109A Active JP6879336B2 (ja) 2019-07-04 2019-07-04 迷惑行為者推定システム、迷惑行為者推定システムの制御方法及び制御プログラム

Country Status (1)

Country Link
JP (1) JP6879336B2 (ja)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5747116B1 (ja) * 2013-12-02 2015-07-08 Lykaon株式会社 防犯システム
JP6558178B2 (ja) * 2015-09-24 2019-08-14 日本電気株式会社 迷惑行為者推定システム、迷惑行為者推定システムの制御方法及び制御プログラム

Also Published As

Publication number Publication date
JP2019215878A (ja) 2019-12-19

Similar Documents

Publication Publication Date Title
US11210527B2 (en) Target object identifying device, target object identifying method and target object identifying program
JP4759988B2 (ja) 複数カメラを用いた監視システム
US9195883B2 (en) Object tracking and best shot detection system
JPWO2015136938A1 (ja) 情報処理方法および情報処理システム
WO2020034645A1 (zh) 人脸识别方法、人脸识别系统、及电子设备
JP6833354B2 (ja) 情報処理装置、情報処理方法及びプログラム
WO2017163282A1 (ja) 監視装置及び監視システム
JP7257765B2 (ja) 情報処理装置、認証システムおよびそれらの制御方法、プログラム
JP2013167986A (ja) 画像認識システム、画像認識方法
JPWO2015037713A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP2006236260A (ja) 顔認証装置、顔認証方法および入退場管理装置
KR20160074208A (ko) 비콘신호를 이용한 안전 서비스 제공 시스템 및 방법
CN110782228A (zh) 一种工作时长获得方法、装置、电子设备及存储介质
JP2014187645A (ja) 監視システム、撮像装置、サーバ装置、監視方法およびプログラム
JPWO2020065852A1 (ja) 認証システム、認証方法、及び、プログラム
JP6558178B2 (ja) 迷惑行為者推定システム、迷惑行為者推定システムの制御方法及び制御プログラム
JP6879336B2 (ja) 迷惑行為者推定システム、迷惑行為者推定システムの制御方法及び制御プログラム
JP4985742B2 (ja) 撮影システム、方法及びプログラム
JPWO2019187288A1 (ja) 情報処理装置、データ生成方法、及びプログラム
KR102099816B1 (ko) 실시간 로드 영상을 통해 유동 인구 데이터를 수집하는 방법 및 장치
JP2020063659A (ja) 情報処理システム
US20190180597A1 (en) Person recognition by way of a camera
WO2019181047A1 (ja) 情報処理装置、人物検索システム、場所推定方法及びプログラムが格納された非一時的なコンピュータ可読媒体
CN110706250B (zh) 一种对象的跟踪方法、装置、系统及存储介质
WO2019188079A1 (ja) 人物通過時間計測システム及び人物通過時間計測方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190704

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200929

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200930

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A132

Effective date: 20210105

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210330

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210412

R150 Certificate of patent or registration of utility model

Ref document number: 6879336

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150