JP2020108106A - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
JP2020108106A
JP2020108106A JP2018248086A JP2018248086A JP2020108106A JP 2020108106 A JP2020108106 A JP 2020108106A JP 2018248086 A JP2018248086 A JP 2018248086A JP 2018248086 A JP2018248086 A JP 2018248086A JP 2020108106 A JP2020108106 A JP 2020108106A
Authority
JP
Japan
Prior art keywords
vehicle
camera
position information
server
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018248086A
Other languages
English (en)
Inventor
稔 萩尾
Minoru Hagio
稔 萩尾
信人 関
Nobuhito Seki
信人 関
桂一 宮崎
Keiichi Miyazaki
桂一 宮崎
浩介 篠崎
Kosuke Shinozaki
浩介 篠崎
将之 長谷川
Masayuki Hasegawa
将之 長谷川
慎一 新井
Shinichi Arai
慎一 新井
竜太郎 千
Ryutaro Sen
竜太郎 千
直也 櫻井
Naoya Sakurai
直也 櫻井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
iPro Co Ltd
Original Assignee
Panasonic iPro Sensing Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic iPro Sensing Solutions Co Ltd filed Critical Panasonic iPro Sensing Solutions Co Ltd
Priority to JP2018248086A priority Critical patent/JP2020108106A/ja
Priority to US16/728,506 priority patent/US11276193B2/en
Publication of JP2020108106A publication Critical patent/JP2020108106A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/002Mounting on the human body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Optics & Photonics (AREA)
  • Quality & Reliability (AREA)
  • Alarm Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Emergency Alarm Devices (AREA)

Abstract

【課題】逃走車両または逃走者の追跡を支援する情報処理装置を提供すること。【解決手段】情報処理装置は、第1の車両の追跡を開始した第2の車両から、第2の車両の位置情報と、第2の車両が搭載している車載カメラの画像データとを受信する受信部と、位置情報が示す位置の周辺に設置された監視カメラの画像の中から、画像データに含まれる第1の車両の画像を探索し、探索した第1の車両を監視カメラの画像を用いて追跡する制御部と、制御部が追跡している第1の車両の追跡位置情報を第2の車両に送信する送信部と、を有する。【選択図】図1

Description

本開示は、情報処理装置に関する。
従来、ウェアラブルカメラまたは車載カメラにより撮像した映像データの取り扱いにおいて利便性を向上し、映像データの録画漏れを低減するウェアラブルカメラシステムが提案されている(例えば、特許文献1を参照)。
特開2016−143894号公報
街中には多くの監視カメラが設置されている。この監視カメラを用いて、事件または事故等を起こした逃走車両または逃走者の追跡を支援できないか模索されている。
本開示の非限定的な実施例は、逃走車両または逃走者の追跡を支援する情報処理装置の提供に資する。
本開示の一態様に係る情報処理装置は、第1の車両の追跡を開始した第2の車両から、前記第2の車両の位置情報と、前記第2の車両が搭載している車載カメラの画像データとを受信する受信部と、前記位置情報が示す位置の周辺に設置された監視カメラの画像の中から、前記画像データに含まれる前記第1の車両の画像を探索し、探索した前記第1の車両を監視カメラの画像を用いて追跡する制御部と、前記制御部が追跡している前記第1の車両の追跡位置情報を前記第2の車両に送信する送信部と、を有する。
本開示の一態様に係る情報処理装置は、監視カメラの画像の中から、事件に関与した第1の車両を探索し、探索した前記第1の車両を撮影した監視カメラの設置位置情報を取得する制御部と、前記設置位置情報が示す位置の周辺を走行している第2の車両に、前記第1の車両の追跡を指示する指示情報を送信する送信部と、を有する。
本開示の一態様に係る情報処理装置は、第1の人物の追跡を開始した第2の人物が所持するウェアラブルカメラから、前記ウェアラブルカメラの位置情報と、前記ウェアラブルカメラの画像データとを受信する受信部と、前記位置情報が示す位置の周辺に設置された監視カメラの画像の中から、前記画像データに含まれる前記第1の人物の画像を探索し、探索した前記第1の人物を監視カメラの画像を用いて追跡する制御部と、前記制御部が追跡している前記第1の人物の追跡位置情報を前記ウェアラブルカメラに送信する送信部と、を有する。
本開示の一態様に係る情報処理装置は、監視カメラの画像の中から、事件に関与した人物を探索し、探索した前記人物を撮影した監視カメラの設置位置情報を取得する制御部と、前記設置位置情報が示す位置の周辺に存在するウェアラブルカメラまたは車両に、前記第1の人物の追跡を指示する指示情報を送信する送信部と、を有する。
なお、これらの包括的または具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラム、または、記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
本開示の一態様によれば、逃走車両または逃走者の追跡を支援できる。
本開示の一態様における更なる利点および効果は、明細書および図面から明らかにされる。かかる利点および/または効果は、いくつかの実施形態並びに明細書および図面に記載された特徴によってそれぞれ提供されるが、1つまたはそれ以上の同一の特徴を得るために必ずしも全てが提供される必要はない。
第1の実施の形態に係る追跡支援システムの一例を示した図 追跡支援システムの概略動作例を説明する図 追跡支援システムの概略動作例を説明する図 車載カメラのブロック構成例を示した図 監視カメラのブロック構成例を示した図 サーバのブロック構成例を示した図 サーバの動作例を示したフローチャート ウェアラブルカメラを装着したユーザの上半身の一例を示した図 ウェアラブルカメラのブロック構成例を示した図 サーバの動作例を示したフローチャート サーバの逃走車両の移動可能な距離の算出例を示したフローチャート 第2の実施の形態に係る追跡支援システムの概略動作例を説明する図 サーバの動作例を示したフローチャート 第3の実施の形態に係る追跡支援システムの概略動作例を説明する図 サーバの動作例を示したフローチャート サーバの動作例を示したフローチャート サーバの動作例を示したフローチャート
以下、図面を適宜参照して、本発明の実施の形態について、詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために、提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。
(第1の実施の形態)
第1の実施の形態では、例えば、警察車両は、逃走車両の追跡を開始する。警察車両が逃走車両の追跡を開始すると、情報処理装置(サーバ)も、街中に設置された監視カメラの画像を用いて、逃走車両の追跡を行う。これにより、例えば、警察車両は、追跡途中に逃走車両を見失っても、監視カメラの画像を用いて逃走車両を追跡しているサーバから逃走車両の位置情報を受信でき、再び逃走車両を追跡することが可能となる。
図1は、第1の実施の形態に係る追跡支援システムの一例を示した図である。図1に示すように、追跡支援システムは、車両V1に搭載される車載カメラ1と、監視カメラ2と、サーバ3と、コマンドセンタCC1に設置される端末装置4と、有している。
車両V1は、例えば、警察車両である。車両V1は、例えば、事件または事故等を起こし、逃走した逃走車両を追跡する。車両V1に搭載された車載カメラ1は、車載記録装置1aと、撮像部1bと、を有している。
車載記録装置1aは、例えば、車両V1の回転警告灯またはサイレン等の車両搭載機器と接続されている。車載記録装置1aは、車両搭載機器から出力される信号に基づいて、撮像部1bが撮影する画像の録画開始および録画停止を制御する。例えば、車載記録装置1aは、回転警告灯がオンされると撮像部1bが撮影する画像の録画を開始し、回転警告灯がオフされると撮像部1bが撮影する画像の録画を停止する。車載記録装置1aは、ネットワーク5を介して、サーバ3および端末装置4と通信を行う。
撮像部1bは、例えば、車両V1のフロントガラスおよびリアガラスの少なくとも一方に取り付けられる。撮像部1bは、車両V1の前方および後方の少なくとも一方を撮影する。
監視カメラ2は、例えば、街中の信号機、電柱、または建物の外壁等に固定して設置される。監視カメラ2は、例えば、街中の道路等を撮影し、走行する車両を撮影する。監視カメラ2は、例えば、複数の撮像部を備え、多方向を撮影するマルチカメラであってもよい。監視カメラ2は、ネットワーク5を介して、サーバ3および端末装置4と通信を行う。
サーバ3は、後述するが、逃走車両を見失った車両V1に対し、逃走車両の追跡を支援する。サーバ3は、ネットワーク5を介して、端末装置4と通信する。サーバ3は、コマンドセンタCC1に設置されてもよい。
コマンドセンタCC1は、例えば、警察署のコマンドセンタである。コマンドセンタCC1には、端末装置4が設置されている。
端末装置4の表示装置には、車載カメラ1が撮影する画像が表示される。また、端末装置4の表示装置には、監視カメラ2が撮影する画像が表示される。端末装置4を操作するオペレータは、例えば、車両V1の搭乗者または街中を徒歩でパトロールをしている警察官に対し、指令等を行う。
図1の追跡支援システムの概略動作例について説明する。
図2Aおよび図2Bは、追跡支援システムの概略動作例を説明する図である。図2Aおよび図2Bに示す監視カメラ2a〜2pは、図1で説明した監視カメラ2に対応する。
監視カメラ2a〜2pは、例えば、交差点の角に設置され、交差点を走行する車両(例えば、交差点に進入し、退出する車両)を撮影する。例えば、図2Aに示す位置A1の交差点は、監視カメラ2fによって撮影される。
図2Aおよび図2Bには、車両V1が示してある。また、図2Aおよび図2Bには、事件または事故等を起こした逃走車両V11が示してある。
車両V1は、図2Aに示す位置A1において、逃走車両V11を発見し、追跡を開始する。車両V1の車載カメラ1は、追跡の開始に応じて、例えば、GPS(Global Positioning System)信号により、車両V1の位置情報を取得する。例えば、車載カメラ1は、位置A1における位置情報(例えば、緯度または経度)を取得する。
車載カメラ1は、GPS信号により取得した車両V1の位置情報を、サーバ3に送信する。また、車載カメラ1は、撮像部1bが撮影する画像データを、サーバ3に送信する。なお、サーバ3に送信される画像データには、逃走車両V11の画像が含まれる。
サーバ3は、街中に設置された監視カメラ2a〜2pのうち、車載カメラ1から送信された位置情報が示す位置の周辺に設置された監視カメラの画像の中から、車載カメラ1から送信された画像データに含まれる逃走車両V11を探索する。
例えば、サーバ3は、街中に設置された監視カメラ2a〜2pのうち、位置A1から所定(または一定)の距離内(例えば、半径1kmの円内)にある監視カメラを抽出する。サーバ3は、監視カメラを抽出すると、抽出した監視カメラの画像の中から、逃走車両V11の特徴に一致する車両を探索する。より具体的には、サーバ3は、監視カメラ2a〜2pのうち、位置A1から所定の距離内にある図2Aの点線丸で囲む監視カメラ2a〜2c,2e〜2g,2i〜2kの画像の中から、逃走車両V11を探索する。なお、サーバ3は、監視カメラ2a〜2pの位置情報(例えば、緯度および経度)を有しており、位置A1から所定の距離内にある監視カメラを抽出できる。
すなわち、サーバ3は、車両V1が逃走車両V11の追跡を開始すると、車両V1が追跡を開始した位置の周辺に設置された監視カメラの画像の中から、逃走車両V11の画像を探索する。
サーバ3は、逃走車両V11を探索すると、探索した逃走車両V11を監視カメラ2a〜2pの画像において追跡する。例えば、サーバ3は、移動する逃走車両V11から、所定の距離内(例えば、半径1kmの円内)にある監視カメラの画像をモニタし、逃走車両V11を追跡する。より具体的には、逃走車両V11は、図2Aに示す位置A2a〜A2gを、位置A2a,A2b,A2c,A2d,A2e,A2f,A2gの順に走行する。逃走車両V11が位置A2aを通過すると、サーバ3は、位置A2aから所定の距離内にある監視カメラの画像をモニタし、逃走車両V11を追跡する。逃走車両V11が位置A2bを通過すると、サーバ3は、位置A2bから所定の距離内にある監視カメラの画像をモニタし、逃走車両V11を追跡する。以下同様にして、逃走車両V11が位置A2c〜A2gを順に通過すると、サーバ3は、位置A2c〜A2gの各々から所定の距離内にある監視カメラ2の画像をモニタし、監視カメラ2の画像から逃走車両V11が外れないように、逃走車両V11を追跡する。
すなわち、サーバ3は、車両V1が逃走車両V11の追跡を開始すると、車両V1とは別に、街中に設置された監視カメラ2a〜2pの画像を用いて、逃走車両V11を追跡する。
車両V1の車載カメラ1は、逃走車両V11を見失った場合、サーバ3に対し、逃走車両V11の位置情報を要求する。例えば、車載カメラ1は、撮像部1bが逃走車両V11を一定時間撮影しなくなった場合、逃走車両V11を見失ったと判定し、サーバ3に対し、逃走車両V11の位置情報を要求する。
サーバ3は、車両V1の車載カメラ1から、逃走車両V11の位置情報の要求を受信すると、逃走車両V11の位置情報を取得する。例えば、サーバ3は、逃走車両V11を撮影している監視カメラの位置情報を取得する。より具体的には、図2Bに示すように、監視カメラ2jが逃走車両V11を撮影している。この場合、サーバ3は、監視カメラ2jの位置情報を取得する。サーバ3は、取得した位置情報(すなわち、逃走車両V11の位置情報)を車両V1の車載カメラ1に送信する。
車両V1の車載カメラ1は、サーバ3から位置情報を受信すると、受信した位置情報を表示装置に表示する。または、車載カメラ1は、サーバ3から受信した位置情報を音声出力する。これにより、例えば、逃走車両V11を見失った車両V1は、図2Bに示す監視カメラ2jの位置へ向かうことができる。
このように、サーバ3は、車両V1が逃走車両V11を見失った場合、車両V1に逃走車両V11の位置情報を通知する。これにより、車両V1は、逃走車両V11の早期発見が可能となる。
図3は、車載カメラ1のブロック構成例を示した図である。図3に示すように、車載カメラ1は、車載記録装置1aと、撮像部1bと、を有している。
撮像部1bは、撮像レンズと、イメージセンサと、を有している。撮像部1bは、イメージセンサから出力される信号(画像データ)を車載記録装置1aの制御部11に出力する。
車載記録装置1aは、制御部11と、通信部12と、GPS受信部13と、表示部14と、入力部15と、記憶部16と、を有している。
制御部11は、車載カメラ1全体を制御する。制御部11は、例えば、CPU(Central Processing Unit)またはDSP(Digital signal Processer)によって構成されてもよい。
通信部12は、サーバ3および端末装置4と通信を行う。通信部12は、例えば、携帯電話等の無線通信ネットワークおよびインターネット等を介して、サーバ3および端末装置4と通信を行ってもよい。
GPS受信部13は、複数のGPS発信機からGPS信号を受信し、車両V1の位置情報を算出する。GPS受信部13は、算出した位置情報を制御部11に出力する。なお、GPS受信部13は、複数のGPS発信機から受信したGPS信号を制御部11に出力してもよい。そして、制御部11が、GPS受信部13から受信したGPS信号に基づいて、車両V1の位置情報を算出してもよい。
表示部14は、車両V1内に設置された表示装置(図示せず)に接続されている。表示部14は、制御部11から出力される画像データを表示装置に出力する。
入力部15は、例えば、キーボード、表示装置の画面上に重畳されたタッチパネル、またはマウス等の入力装置(図示せず)に接続されている。入力部15は、入力装置から出力された、ユーザの操作に応じた信号を受信し、制御部11に出力する。
記憶部16には、制御部11が動作するためのプログラムが記憶される。また、記憶部16には、制御部11が計算処理を行うためのデータ、または、制御部11が各部を制御するためのデータ等が記憶される。また、記憶部16には、監視カメラ2が撮影した画像データが記憶される。記憶部16は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、およびHDD(Hard Disk Drive)などの記憶装置によって構成されてもよい。
図4は、監視カメラ2のブロック構成例を示した図である。図4に示すように、監視カメラ2は、撮像部21a〜21dと、制御部22と、通信部23と、記憶部24と、を有している。
撮像部21a〜21dは、撮像レンズと、イメージセンサと、を有している。撮像部21a〜21dは、イメージセンサから出力される信号(画像データ)を制御部22に出力する。撮像部21a〜21dの各々は、例えば、4差路の各道路を撮影するように、撮影方向(光軸)が設定されてもよい。
制御部22は、監視カメラ2全体を制御する。制御部22は、例えば、CPUまたはDSPによって構成されてもよい。
通信部23は、サーバ3および端末装置4と通信を行う。通信部23は、例えば、イーサネット(登録商標)ケーブル等のネットワークケーブル(有線)によって、サーバ3および端末装置4と通信を行ってもよい。また、通信部23は、携帯電話等の無線通信ネットワークおよびインターネット等を介して、サーバ3および端末装置4と通信を行ってもよい。
記憶部24には、制御部22が動作するためのプログラムが記憶される。また、記憶部24には、制御部22が計算処理を行うためのデータ、または、制御部22が各部を制御するためのデータ等が記憶される。また、記憶部24には、監視カメラ2が設置された場所の位置情報(例えば、緯度および経度)が記憶される。制御部22は、監視カメラ2が設置されたとき、位置情報をサーバ3に送信する。記憶部24は、RAM、ROM、フラッシュメモリ、およびHDDなどの記憶装置によって構成されてもよい。
図5は、サーバ3のブロック構成例を示した図である。図5に示すように、サーバ3は、制御部31と、通信部32と、記憶部33と、を有している。
制御部31は、サーバ3全体を制御する。制御部31は、例えば、CPUによって構成されてもよい。
通信部32は、車載カメラ1、監視カメラ2、および端末装置4と通信を行う。通信部32は、例えば、インターネット等を介して、端末装置4と通信を行う。
記憶部33には、制御部31が動作するためのプログラムが記憶される。また、記憶部33には、制御部31が計算処理を行うためのデータ、または、制御部31が各部を制御するためのデータ等が記憶される。また、記憶部33には、街中に設置された監視カメラ2の位置情報が記憶される。例えば、制御部31は、街中に設置された監視カメラ2から、監視カメラ2の識別情報と位置情報とを受信し、受信した識別情報と位置情報とを対応付けて記憶部33に記憶する。また、記憶部33には、車載カメラ1が撮影した画像の画像データおよび監視カメラ2が撮影した画像の画像データが記憶される。なお、車載カメラ1および監視カメラ2が撮影した画像の画像データは、例えば、ストレージ等、サーバ3とは別の装置に記憶されてもよい。記憶部33は、RAM、ROM、フラッシュメモリ、およびHDDなどの記憶装置によって構成されてもよい。
図6は、サーバ3の動作例を示したフローチャートである。車両V1の搭乗者は、例えば、不審車両を発見する。不審車両は、車両V1に気づき、逃走する。車両V1の搭乗者は、逃走する車両(以下、逃走車両と呼ぶ)を追跡するため、例えば、回転警告灯またはサイレンのスイッチをオンする。
車両V1の制御部11は、回転警告灯またはサイレンのスイッチのオンに応じて、GPS受信部13から、車両V1の現在の位置情報を取得する。また、車両V1の制御部11は、撮像部1bが撮影する画像の画像データを取得する。撮像部1bが撮影する画像には、逃走車両が含まれる。車両V1の制御部11は、取得した車両V1の位置情報と、撮像部1bが撮影する画像の画像データとを、通信部12を介して、サーバ3に送信する。
サーバ3の制御部31は、通信部32を介して、車載カメラ1から、車両V1の位置情報と、車載カメラ1の撮像部1bが撮影した画像(画像データ)を受信する(ステップS1)。車載カメラ1から送信される画像は、逃走車両を含む静止画像であってもよいし、一定時間の動画像であってもよい。
サーバ3の制御部31は、ステップS1にて受信した画像から、逃走車両の特徴を抽出する(ステップS2)。例えば、サーバ3の制御部31は、逃走車両の車種、色、形、またはナンバープレートのナンバー等を抽出する。
サーバ3の制御部31は、ステップS1にて受信した位置情報が示す位置の周辺に設置されている監視カメラ2を抽出する。例えば、サーバ3の制御部31は、ステップS1にて受信した位置情報が示す位置から、所定の距離内(例えば、半径1kmの円内)にある監視カメラ2を抽出する。サーバ3の制御部31は、監視カメラ2を抽出すると、抽出した監視カメラ2から画像データを受信し、受信した画像の中に、ステップS2にて抽出した逃走車両の特徴を有する車両を探索する。すなわち、サーバ3の制御部31は、ステップS1の位置情報が示す位置の周辺に設置されている監視カメラの画像から、逃走車両を探索する(ステップ3)。
サーバ3の制御部31は、ステップS3にて探索した車両(逃走車両)を、監視カメラ2の画像において追跡する(ステップS4)。例えば、サーバ3の制御部31は、移動する逃走車両から、所定の距離内にある監視カメラの画像をモニタし、逃走車両を追跡する。
ここで、車両V1は、逃走車両を見失ったとする。車両V1の制御部11は、通信部12を介して、サーバ3に対し、逃走車両の位置情報を要求する。なお、車両V1の制御部11は、一定時間(例えば、1分等)、撮像部1bの画像に逃走車両が含まれなくなった場合に、サーバ3に対して、逃走車両の位置情報を要求してもよい。また、車両V1の制御部11は、入力部15が車両V1の搭乗者から、逃走車両の位置情報を要求する操作を受付けた場合に、サーバ3に対して、逃走車両の位置情報を要求してもよい。また、車両V1の制御部11は、車両V1の速度が一定速度を下回り、一定速度を下回った時間が一定時間継続すると、逃走車両の位置情報を要求してもよい。
サーバ3の制御部31は、通信部32を介して、車両V1の車載カメラ1から位置情報の要求を受信する(ステップS5)。
サーバ3の制御部31は、車両V1の車載カメラ1から位置情報の要求を受信すると、逃走車両を撮影している監視カメラ2の位置情報を取得する(ステップS6)。例えば、サーバ3の制御部31は、逃走車両を撮影している監視カメラ2の識別情報に基づいて記憶部33を参照し、逃走車両を撮影している監視カメラ2の位置情報を取得する。
サーバ3の制御部31は、監視カメラ2の位置情報を取得すると、取得した位置情報を車両V1の車載カメラ1に送信する(ステップS7)。
なお、車載カメラ1の制御部11は、サーバ3から逃走車両の位置情報を受信すると、表示部14を介して、表示装置に位置情報を表示してもよい。また、車載カメラ1の制御部11は、サーバ3から逃走車両の位置情報を受信すると、例えば、スピーカ等の音声出力装置から、逃走車両の位置を音声で出力してもよい。
以上説明したように、サーバ3の通信部32は、逃走車両の追跡を開始した車両V1から、車両V1の位置情報と、車両V1が搭載している車載カメラ1の画像データとを受信する。サーバ3の制御部31は、街中に設置された監視カメラ2のうち、位置情報が示す位置の周辺に設置された監視カメラ2の画像の中から、画像データに含まれる逃走車両の画像を探索し、探索した逃走車両を、監視カメラ2の画像を用いて追跡する。そして、サーバ3の通信部32は、車両V1からの要求に応じて、制御部31が追跡している逃走車両の位置情報を車両V1に送信する。
これにより、サーバ3は、車両V1が逃走車両を見失っても、逃走車両の追跡を支援できる。また、サーバ3は、車両V1から要求があった場合に、逃走車両の位置情報を車両V1に送信する。これにより、車両V1の搭乗者は、逃走車両を追跡できている間、逃走車両の位置情報の通知を受けることがなく、逃走車両の追跡に集中できる。
(変形例1)
上記では、サーバ3は、車両V1が逃走車両を見失った場合に、逃走車両の位置情報を車両V1に通知した。これに対し、サーバ3は、街中をパトロールしている警察官が逃走者を見失った場合に、警察官が所持するウェアラブルカメラに逃走者の位置を通知してもよい。
図7は、ウェアラブルカメラ40を装着したユーザU1の上半身の一例を示した図である。ユーザU1は、例えば、警察官である。
ウェアラブルカメラ40は、ユーザU1の前方を撮影するように、ユーザU1の制服の前部に装着または保持される。ウェアラブルカメラ40は、例えば、首から紐で吊り下げた状態で制服の前部に固定されてもよい。ウェアラブルカメラ40は、ウェアラブルカメラ40の筐体の背面に取り付けられた取付具(例えば、取付用クリップ)と制服の前部に取り付けられた被取付具とが係合することで制服の前部に固定されてもよい。
図8は、ウェアラブルカメラ40のブロック構成例を示した図である。図8に示すように、ウェアラブルカメラ40は、制御部41と、撮像部42と、ジャイロセンサ43と、加速度センサ44と、入力部45と、マイク46と、スピーカ47と、通信部48と、GPS受信部49と、表示部50と、記憶部51と、を有している。
制御部41は、ウェアラブルカメラ40全体を制御する。制御部41は、例えば、CPUやDSP等のプロセッサによって、その機能が実現されてもよい。
撮像部42は、撮像レンズと、イメージセンサと、を有している。撮像部42は、イメージセンサから出力される信号(画像データ)を制御部41に出力する。
ジャイロセンサ43は、例えば、直交座標系の3軸(x軸、y軸、z軸)回りの角速度を計測する。ジャイロセンサ43は、計測した角速度の信号を制御部41に出力する。
加速度センサ44は、例えば、直交座標系の3軸方向の加速度を計測する。加速度センサ44は、計測した加速度の信号を制御部41に出力する。制御部41は、ジャイロセンサ43から出力される角速度と、加速度センサ44から出力される加速度とから、ウェアラブルカメラ40を装着しているユーザが歩き出したことや走り出したこと、転倒したことなど、ユーザの動きを検知できる。
入力部45は、例えば、スイッチ等の入力装置(図示せず)に接続されている。入力部45は、入力装置から出力された、ユーザの操作に応じた信号を受信し、制御部41に出力する。
マイク46は、ウェアラブルカメラ40の周囲の音を集音したり、ウェアラブルカメラ40を装着しているユーザの声を集音したりする。マイク46は、集音した音の信号を制御部41に出力する。
スピーカ47は、制御部41から出力される音声信号を音声に変換し、出力する。
通信部48は、車載カメラ1、サーバ3、および端末装置4と通信を行う。通信部48は、例えば、Wi−Fi(登録商標)またはブルートゥース(登録商標)等の無線通信によって、車載カメラ1と通信を行ってもよい。また、通信部48は、例えば、携帯電話等の無線通信ネットワークおよびインターネット等を介して、サーバ3および端末装置4と通信を行ってもよい。
GPS受信部49は、複数のGPS発信機からGPS信号を受信し、ウェアラブルカメラ40の位置情報を算出する。GPS受信部49は、算出した位置情報を制御部11に出力する。なお、GPS受信部49は、複数のGPS発信機から受信したGPS信号を制御部41に出力してもよい。そして、制御部41が、GPS受信部49から受信したGPS信号に基づいて、ウェアラブルカメラ40の位置情報を算出してもよい。
表示部50は、ウェアラブルカメラ40が備える表示装置(図示せず)に接続されている。表示部50は、制御部41から出力される信号(画像データ)を表示装置に出力する。
記憶部51には、制御部41が動作するためのプログラムが記憶される。また、記憶部51には、制御部41が計算処理を行うためのデータ、または、制御部41が各部を制御するためのデータ等が記憶される。また、記憶部51には、撮像部42が撮影した画像の画像データが記憶される。記憶部51は、RAM、ROM、フラッシュメモリ、およびHDDなどの記憶装置によって構成されてもよい。
図9は、サーバ3の動作例を示したフローチャートである。ウェアラブルカメラ40を装着した警察官は、例えば、不審者を発見する。不審者は、警察官に気づき、逃走する。警察官は、逃走する不審者(以下、逃走犯と呼ぶ)を追跡するため、例えば、走り出す。
ウェアラブルカメラ40の制御部41は、ジャイロセンサ43および加速度センサ44から出力される信号により、警察官が走り出したことを検出する。ウェアラブルカメラ40の制御部41は、警察官が走り出したことを検出すると、GPS受信部49から、ウェアラブルカメラ40の現在の位置情報を取得する。また、ウェアラブルカメラ40の制御部41は、撮像部42が撮影する画像の画像データを取得する。撮像部42が撮影する画像には、逃走者が含まれる。ウェアラブルカメラ40の制御部41は、取得したウェアラブルカメラ40の位置情報と、撮像部42が撮影する画像の画像データとを、通信部48を介して、サーバ3に送信する。
サーバ3の制御部31は、通信部32を介して、ウェアラブルカメラ40から、ウェアラブルカメラ40の位置情報と、ウェアラブルカメラ40の撮像部42が撮影した画像を受信する(ステップS11)。ウェアラブルカメラ40から送信される画像は、逃走者を含む静止画像であってもよいし、一定時間の動画像であってもよい。
サーバ3の制御部31は、ステップS11にて受信した画像から、逃走者の特徴を抽出する(ステップS12)。例えば、サーバ3の制御部31は、逃走者の身長、体格、服装の色等を抽出する。
サーバ3の制御部31は、ステップS11にて受信した位置情報が示す位置の周辺に設置されている監視カメラ2を抽出する。例えば、サーバ3の制御部31は、ステップS11にて受信した位置情報が示す位置から、所定の距離内(例えば、半径1kmの円内)にある監視カメラ2を抽出する。サーバ3の制御部31は、監視カメラ2を抽出すると、抽出した監視カメラ2から画像データを受信し、受信した画像の中に、ステップS12にて抽出した逃走者の特徴を有する人物を探索する。すなわち、サーバ3の制御部31は、ステップS11の位置情報が示す位置の周辺に設置されている監視カメラの画像から、逃走者を探索する(ステップ13)。
サーバ3の制御部31は、ステップS13にて探索した人物(逃走者)を、監視カメラ2の画像において追跡する(ステップS14)。例えば、サーバ3の制御部31は、移動する逃走者から、所定の距離内にある監視カメラの画像をモニタし、逃走者を追跡する。
ここで、警察官は、逃走者を見失ったとする。ウェアラブルカメラ40の制御部41は、通信部48を介し、サーバ3に対して、逃走者の位置情報を要求する。なお、ウェアラブルカメラ40の制御部41は、一定時間(例えば、1分等)、撮像部42の画像に逃走者が含まれなくなった場合に、サーバ3に対して、逃走者の位置情報を要求してもよい。また、ウェアラブルカメラ40の制御部41は、入力部45が警察官から、逃走者の位置情報を要求する操作を受付けた場合に、サーバ3に対して、逃走者の位置情報を要求してもよい。また、ウェアラブルカメラ40の制御部41は、ジャイロセンサ43や加速度センサ44からの加速度情報を基に警察官の動きを検出し、警察官の移動速度が一定速度を下回り、一定速度を下回った時間が一定時間継続すると、逃走者の位置情報を要求してもよい。
サーバ3の制御部31は、通信部32を介して、ウェアラブルカメラ40から位置情報の要求を受信する(ステップS15)。
サーバ3の制御部31は、ウェアラブルカメラ40から位置情報の要求を受信すると、逃走者を撮影している監視カメラ2の位置情報を取得する(ステップS16)。例えば、サーバ3の制御部31は、ウェアラブルカメラ40から位置情報の要求を受信すると、逃走者を撮影している監視カメラ2の位置情報を、記憶部33から取得する。
サーバ3の制御部31は、監視カメラ2から位置情報を取得すると、取得した位置情報をウェアラブルカメラ40に送信する(ステップS17)。
なお、ウェアラブルカメラ40の制御部41は、サーバ3から逃走者の位置情報を受信すると、表示部50を介して、表示装置に位置情報を表示してもよい。また、ウェアラブルカメラ40の制御部41は、サーバ3から逃走者の位置情報を受信すると、例えば、スピーカ47から、逃走者の位置を音声で出力してもよい。
このように、サーバ3の通信部32は、逃走者の追跡を開始した警察官が所持するウェアラブルカメラ40から、ウェアラブルカメラ40の位置情報と、ウェアラブルカメラ40の画像データとを受信する。サーバ3の制御部31は、街中に設置された監視カメラ2のうち、位置情報が示す位置の周辺に設置された監視カメラ2の画像の中から、画像データに含まれる逃走者の画像を探索し、探索した逃走者を街中に設置された監視カメラ2の画像を用いて追跡する。そして、サーバ3の通信部32は、ウェアラブルカメラ40からの要求に応じて、制御部31が追跡している逃走者の位置情報をウェアラブルカメラ40に送信する。
これにより、サーバ3は、警察官が逃走者を見失っても、逃走者の追跡を支援できる。また、サーバ3は、ウェアラブルカメラ40から要求があった場合に、逃走者の位置情報をウェアラブルカメラ40に送信する。これにより、警察官は、逃走者を追跡できている間、逃走者の位置情報の通知を受けることがなく、逃走者の追跡に集中できる。
なお、ウェアラブルカメラ40は、車載カメラ1を経由して、サーバ3と通信してもよい。
(変形例2)
車両V1の制御部11は、図6のフローチャートにおいて、回転警告灯またはサイレンのスイッチがオンされた後、定期的に車両V1の位置情報と、撮像部1bが撮影する画像の画像データとを取得してもよい。そして、車両V1の制御部11は、定期的に取得した位置情報と画像データとを、定期的にサーバ3に送信してもよい。サーバ3の制御部31は、車両V1の車載カメラ1から位置情報と画像データとを受信する度に、ステップS1〜S4の処理を実行してもよい。
同様に、図9のフローチャートにおいて、ウェアラブルカメラ40の制御部41は、警察官が走り出した後、定期的にウェアラブルカメラ40の位置情報と、撮像部42が撮影する画像の画像データとを取得してもよい。そして、ウェアラブルカメラ40の制御部41は、定期的に取得した位置情報と画像データとを、定期的にサーバ3に送信してもよい。サーバ3の制御部31は、ウェアラブルカメラ40から位置情報と画像データとを受信する度に、ステップS11〜S14の処理を実行してもよい。
(変形例3)
サーバ3の制御部31は、図6のステップS3の処理において、ステップS1にて受信した位置情報が示す位置から、所定の距離内にある監視カメラ2を抽出したが、この処理に限られない。
例えば、サーバ3の制御部31は、ステップS1にて受信した位置情報の受信時刻(車両V1が追跡を開始した時刻)から、現在の時刻までの時間を計算し、計算した時間に基づいて、逃走車両の移動可能な距離を算出してもよい。そして、サーバ3の制御部31は、ステップS1にて受信した位置情報が示す位置から、逃走車両の移動可能な距離内にある監視カメラ2を抽出してもよい。
図10は、サーバ3の逃走車両の移動可能な距離の算出例を示したフローチャートである。サーバ3の制御部31は、図6のステップS3の処理に替えて、図10に示すフローチャートの処理を実行してもよい。
サーバ3の制御部31は、ステップS1にて受信した位置情報の受信時刻から現在時刻までの時間を計算する(ステップS3a)。
サーバ3の制御部31は、ステップS3aにて算出した時間から、逃走車両の移動可能な距離を算出する(ステップS3b)。例えば、サーバ3の制御部31は、逃走車両の速度に、ステップS3aにて算出した時間を乗算して、逃走車両の移動可能な距離を算出する。逃走車両の速度は、ステップS1にて受信した画像(一定時間の動画像)から、逃走車両の速度を判定(推定)してもよい。
サーバ3の制御部31は、ステップS1の位置情報が示す位置から、ステップS3bにて算出した距離内にある監視カメラ2を抽出する(ステップS3c)。
サーバ3の制御部31は、ステップS3cにて抽出した監視カメラ2の画像の中から、ステップS1にて受信した特徴を有する車両を探索する(ステップS3d)。
これにより、サーバ3は、監視カメラ2から、逃走車両を探索できなくなることを抑制できる。
なお、図10に示したフローチャートの処理は、図9に示したフローチャートのステップS13の処理においても適用できる。
(変形例4)
サーバ3の制御部31は、図6のステップS6の処理において、逃走車両を撮影している監視カメラ2の位置情報を取得し、ステップS7の処理において、取得した位置情報を車両V1の車載カメラ1に送信したが、この処理に限られない。
例えば、サーバ3の制御部31は、図6のステップS6の処理において、逃走車両を撮影している監視カメラ2の位置情報を取得すると、位置情報を取得した監視カメラ2の画像を解析して、逃走車両の逃走方向を判定してもよい。サーバ3の制御部31は、ステップS7において、位置情報を車両V1に送信する際、位置情報に逃走車両の逃走方向を含めてもよい。
このように、サーバ3の制御部31は、逃走車両を撮影している監視カメラ2の画像から、逃走車両の逃走方向を判定し、判定した逃走方向を含む位置情報を、通信部32を介して、車両V1に送信する。これにより、車両V1の搭乗者は、逃走車両の逃走ルートを推定し、先回りすることが可能となる。
なお、上記の逃走方向の通知処理は、図9に示したフローチャートのステップS16,S17の処理においても適用できる。
(変形例5)
サーバ3の制御部31は、図6のステップS5において、逃走車両を見失った車両V1から位置情報の要求を受信したが、この処理に限られない。サーバ3の制御部31は、車両V1の車載カメラ1から画像データを受信し、受信した画像データの画像を解析して、車両V1が逃走車両を見失ったか否かを判定してもよい。例えば、サーバ3の制御部31は、一定時間(例えば、1分等)、画像に逃走車両が含まれなくなった場合に、車両V1が逃走車両を見失ったと判定してもよい。サーバ3の制御部31は、車両V1が逃走車両を見失ったと判定した場合、図6のステップS6の処理を実行してもよい。
なお、上記の処理は、図9のステップS15においても適用できる。例えば、ウェアラブルカメラ40の制御部41は、一定時間(例えば、1分等)、画像に逃走者が含まれなくなった場合に、ウェアラブルカメラ40を所持する警察官が逃走者を見失ったと判定してもよい。ウェアラブルカメラ40の制御部41は、警察官が逃走者を見失ったと判定した場合、図9のステップS16の処理を実行してもよい。
(変形例6)
サーバ3の制御部31は、車両V1の要求に応じて、追跡している逃走車両の位置情報を、通信部32を介して車両V1に送信したがこれに限られない。サーバ3の制御部31は、車両V1からの要求が無くても、追跡している逃走車両の位置情報を、通信部32を介して、定期的に車両V1に送信してもよい。車両V1の車載カメラ1は、サーバ3から定期的に送信される逃走車両の位置情報を、車両V1の搭乗者に定期的に通知してもよい。また、車両V1の車載カメラ1は、逃走車両を見失ったときに、逃走車両の位置情報を、車両V1の搭乗者に通知してもよい。
(第2の実施の形態)
第2の実施の形態では、サーバ3は、監視カメラ2の画像から、例えば、ひき逃げ等が発生した場所を特定する。サーバ3は、ひき逃げの発生場所の位置を特定すると、特定した位置の周辺をパトロールしている車両V1(警察車両)に、逃走車両の追跡を指示する指示情報を送信する。なお、第2の実施の形態における追跡支援システムの構成例は、図1に示した追跡支援システムと同様である。また、第2の実施の形態における車載カメラ1、監視カメラ2、サーバ3、およびウェアラブルカメラ40の機能ブロックは、図3〜図5に示した機能ブロックと同様である。ただし、第2の実施の形態における制御部11,22,31,41の機能は、第1の実施の形態における制御部11,22,31,41の機能と一部異なる。
図11は、第2の実施の形態に係る追跡支援システムの概略動作例を説明する図である。図11において、図2Aと同じものには同じ符号が付してある。
図11に示す位置A11において、ひき逃げ事件が発生する。ひき逃げ事件を起こした車両(逃走車両V11)は、位置A11から逃走する。なお、位置A11の交差点は、監視カメラ2fによって撮影される。
サーバ3は、監視カメラ2a〜2pの画像を解析し、事件の発生等を監視する。サーバ3は、監視カメラ2fの画像から、位置A11において、ひき逃げ事件が発生したことを検出する。
サーバ3は、ひき逃げ事件の発生を検出すると、ひき逃げ事件が発生したときの画像から、ひき逃げ事件を起こした車両(逃走車両V11)の特徴を抽出する。例えば、サーバ3は、逃走車両V11の車種、色、形、またはナンバープレートのナンバー等を抽出する。
サーバ3は、逃走車両V11の特徴を抽出すると、ひき逃げ事件を撮影した監視カメラ2fの位置情報を取得する。サーバ3は、取得した位置情報が示す位置の周辺に設定されている監視カメラの画像の中から、抽出した逃走車両V11の特徴を用いて、逃走車両V11を検索する。
例えば、サーバ3は、街中に設置された監視カメラ2a〜2pのうち、ひき逃げ事件を撮影した監視カメラ2fから所定の距離内(例えば、半径1kmの円内)にある監視カメラを抽出する。サーバ3は、監視カメラを抽出すると、抽出した監視カメラの画像の中から、逃走車両V11の特徴に一致する車両を探索する。より具体的には、サーバ3は、監視カメラ2a〜2pのうち、位置A11から所定の距離内にある図11の点線丸で囲む監視カメラ2a〜2c,2e〜2g,2i〜2kの画像の中から、逃走車両V11を探索する。
サーバ3は、監視カメラ2a〜2c,2e〜2g,2i〜2kの画像の中から、逃走車両V11を探索すると、探索した逃走車両V11を撮影している監視カメラの位置情報を取得する。例えば、逃走車両V11は、監視カメラ2kが撮影する交差点を走行しており、サーバ3は、監視カメラ2kの位置情報を取得する。
サーバ3は、監視カメラ2kの位置情報を取得すると、取得した位置情報が示す位置の周辺(すなわち、監視カメラ2kの周辺)を走行している車両V1に、逃走車両V11の追跡を指示する指示情報を送信する。例えば、サーバ3は、逃走車両V11を撮影している監視カメラ2kから所定の距離内(例えば、半径1kmの円内)を走行している車両V1に、逃走車両V11の追跡を指示する指示情報を送信する。なお、車両V1は、GPS信号に基づいて定期的に車両V1の位置を算出し、サーバ3に送信する。これにより、サーバ3は、街中を走行する車両V1の位置を把握できる。
車両V1に送信される指示情報には、逃走車両V11を撮影している監視カメラ2kの位置情報(言い換えれば、逃走車両V11の位置情報)が含まれる。また、指示情報には、逃走車両V11が撮影されている静止画等の画像情報が含まれても良い。これにより、車両V1は、指示情報に含まれる位置情報から、逃走車両V11が逃走している位置に向かうことができる。
このように、サーバ3は、街中で交通事故等の事件が発生し、事件に関連した車両が逃走すると、監視カメラ2の画像を用いて逃走車両V11の位置を特定する。そして、サーバ3は、逃走車両の周辺に位置する車両V1に追跡を指示する指示情報を送信する。これにより、車両V1は、逃走車両V11の早期発見が可能となる。
図12は、サーバ3の動作例を示したフローチャートである。車両V1を含む、街中を走行している警察車両の車載カメラは、GPS信号に基づいて定期的に位置情報を取得し、サーバ3に送信する。
サーバ3の制御部31は、通信部32を介して、監視カメラ2が撮影する画像の画像データを受信する。サーバ3の制御部31は、受信した画像データの画像を解析し、ひき逃げの発生を検出する(ステップS21)。なお、ひき逃げ発生の検出対象となる監視カメラ2は、例えば、1以上の特定の交差点に設置されたカメラであってもよい。また、ひき逃げ発生の検出対象なる監視カメラ2は、例えば、端末装置4によって指定(選択)されてもよい。
サーバ3の制御部31は、ひき逃げの発生を検出すると、ひき逃げをした車両(逃走車両)の特徴を抽出する(ステップS22)。例えば、サーバ3の制御部31は、逃走車両の車種、色、形、またはナンバープレートのナンバー等を抽出する。
サーバ3の制御部31は、逃走車両の特徴を抽出すると、ひき逃げを撮影した監視カメラ2の位置情報を取得する(ステップS23)。例えば、サーバ3の制御部31は、ひき逃げを撮影した監視カメラ2の識別情報に基づいて記憶部33を参照し、ひき逃げを撮影した監視カメラ2の位置情報を取得する。すなわち、サーバ3の制御部31は、ひき逃げが発生した場所の位置情報を取得する。
なお、ステップS22,S23の処理の順番は、入れ替わってもよい。すなわち、サーバ3の制御部31は、ステップS23の処理を先に実行し、ステップS22の処理を実行してもよい。
サーバ3の制御部31は、ステップS23にて取得した位置情報が示す位置の周辺に設置されている監視カメラ2の画像から、逃走車両を探索する(ステップS24)。例えば、サーバ3の制御部31は、ひき逃げを撮影した監視カメラ2から、所定の距離内(例えば、半径1kmの円内)にある監視カメラを抽出し、抽出した監視カメラの画像の中から、ステップS22にて抽出した特徴に一致する車両(逃走車両)を探索する。
サーバ3の制御部31は、逃走車両を探索すると、探索した逃走車両を撮影している監視カメラ2の位置情報を取得する(ステップS25)。例えば、サーバ3の制御部31は、探索した逃走車両を撮影している監視カメラ2の識別情報に基づいて記憶部33を参照し、逃走車両を撮影している監視カメラ2の位置情報を取得する。
サーバ3の制御部31は、通信部32を介して、ステップS25にて取得した位置情報が示す位置の周辺を走行している車両V1の車載カメラ1に、逃走車両の追跡を指示する指示情報を送信する(ステップS26)。
なお、サーバ3の制御部31は、ステップS25にて取得した監視カメラ2の位置情報を指示情報に含める。車両V1の車載カメラ1は、サーバ3から指示情報を受信すると、例えば、表示装置に逃走車両の追跡を指示する画面を表示する。また、車両V1の車載カメラ1は、指示情報に含まれる位置情報や画像情報を表示装置に表示する。また、車両V1の車載カメラ1は、逃走車両の追跡の指示と、位置情報とを音声によって出力してもよい。
以上説明したように、サーバ3の制御部31は、街中に設置された監視カメラ2の画像の中から、事件に関与した車両(逃走車両)を探索し、探索した逃走車両を撮影した監視カメラの位置情報を取得する。そして、サーバ3の通信部32は、逃走車両を撮影した監視カメラの位置情報が示す位置の周辺を走行している車両V1に、逃走車両の追跡を指示する指示情報を送信する。これにより、サーバ3は、ひき逃げ等の事件に関与した車両の追跡を支援できる。
(変形例1)
上記では、サーバ3は、逃走車両の指示情報を車両V1に送信したがこれに限られない。サーバ3は、例えば、走って逃走する逃走犯の追跡の指示情報を、警察官が所持するウェアラブルカメラ40に送信してもよい。この場合、ウェアラブルカメラ40の制御部41は、GPS信号に基づいて定期的にウェアラブルカメラ40の位置情報を取得し、サーバ3に送信する。サーバ3の制御部31は、図12のステップS26の処理において、ステップS25にて取得した位置情報が示す位置の周辺をパトロールしている警察官(ウェアラブルカメラ40)に、逃走犯の追跡を指示する指示情報を送信する。もちろん、サーバ3の制御部31は、ステップS25にて取得した位置情報が示す位置の周辺を走行している車両V1にも、逃走車両の追跡を指示する指示情報を送信してもよい。
このように、サーバ3の制御部31は、街中に設置された監視カメラ2の画像の中から、事件に関与した人物(逃走者)を探索し、探索した逃走者を撮影した監視カメラの位置情報を取得する。そして、サーバ3の通信部32は、位置情報が示す位置の周辺に存在するウェアラブルカメラ40または車両V1に、逃走者の追跡を指示する指示情報を送信する。これにより、サーバ3は、事件に関与した逃走者の追跡を支援できる。
(変形例2)
上記では、サーバ3の制御部31は、画像解析により、ひき逃げを検出したがこれに限られない。例えば、サーバ3の制御部31は、図12のステップS21〜S23の処理に替えて、ひき逃げの発生場所および逃走車両の特徴を、コマンドセンタCC1の端末装置4から受信してもよい。
例えば、コマンドセンタCC1のオペレータは、ひき逃げを目撃した目撃者から、ひき逃げの通報を受信する。オペレータは、目撃者から、ひき逃げの発生場所および逃走車両の特徴を聞く。オペレータは、目撃者から聞いたひき逃げの発生場所(位置情報)および逃走車両の特徴を端末装置4に入力し、サーバ3に送信する。
サーバ3は、端末装置4からひき逃げの発生場所の位置情報と、逃走車両の特徴とを受信すると、端末装置4から受信した位置情報が示す位置の周辺に設置されている監視カメラ2の画像から、端末装置4から受信した特徴に一致する車両(逃走車両)を探索する。例えば、サーバ3の制御部31は、端末装置4から受信した位置情報が示す位置から、所定の距離内(例えば、半径1kmの円内)にある監視カメラを抽出する。サーバ3の制御部31は、抽出した監視カメラの画像の中から、端末装置4から受信した逃走車両の特徴に一致する車両を探索する。
サーバ3は、逃走車両を探索すると、図12に示したステップS25,S26の処理を実行する。
このように、サーバ3は、コマンドセンタCC1の端末装置4から送信されるひき逃げに関する情報(ひき逃げが発生した位置情報および逃走車両の特徴)から逃走車両の位置を特定してもよい。これによっても、サーバ3は、ひき逃げ等の事件に関与した車両の追跡を支援できる。
(変形例3)
サーバ3の制御部31は、図12のステップS24の処理において、ステップS23にて取得した位置情報が示す位置から、所定の距離内にある監視カメラ2を抽出したが、この処理に限られない。
例えば、サーバ3の制御部31は、ステップS23にて取得した位置情報の受信時刻から、現在の時刻までの時間を計算し、計算した時間に基づいて、逃走車両の移動可能な距離を算出してもよい。そして、サーバ3の制御部31は、ステップS23にて取得した位置情報が示す位置から、逃走車両の移動可能な距離内にある監視カメラ2を抽出してもよい。サーバ3の制御部31は、例えば、図10に示したフローチャートの処理と同様の処理によって、逃走車両の移動可能な距離内にある監視カメラ2を抽出できる。
なお、サーバ3の制御部31は、コマンドセンタCC1のオペレータが、ひき逃げの通報を受けた時刻から、現在の時刻までの時間を計算してもよい。そして、サーバ3の制御部31は、計算した時間に基づいて、逃走車両の移動可能な距離を算出してもよい。サーバ3の制御部31は、通信部32を介して、端末装置4から、オペレータがひき逃げの通報を受けた時刻を受信する。
(変形例4)
サーバ3の制御部31は、図12のステップS25の処理において、逃走車両を撮影している監視カメラ2の位置情報を取得し、ステップS26の処理において、取得した位置情報や画像情報を含む指示情報を車両V1の車載カメラ1に送信したが、この処理に限られない。
例えば、サーバ3の制御部31は、図12のステップS25の処理において、逃走車両を撮影している監視カメラ2の位置情報を取得すると、位置情報を取得した監視カメラ2の画像を解析して、逃走車両の逃走方向を判定してもよい。サーバ3の制御部31は、ステップS26において、指示情報を車両V1に送信する際、指示情報に逃走車両の逃走方向を含めてもよい。
このように、サーバ3の制御部31は、逃走車両を撮影している監視カメラ2の画像から、逃走車両の逃走方向を判定し、判定した逃走方向を含む指示情報を、通信部32を介して、車両V1に送信する。これにより、車両V1の搭乗者は、逃走車両の逃走ルートを推定し、先回りすることが可能となる。なお、サーバ3の制御部31は、逃走者の逃走方向を含む指示情報を、ウェアラブルカメラ40を所持する警察官または車両V1に送信してもよい。
(変形例5)
上記では、ひき逃げについて説明したがこれに限られない。追跡支援システムは、例えば、強盗等の事件に関与した車両および人物等の追跡にも適用できる。
(第3の実施の形態)
街中には、監視カメラが設置されていない場所もある。第3の実施の形態では、監視カメラが設置されていない場所においては、車両に搭載されている車載カメラまたは警察官が所持するウェアラブルカメラを、監視カメラの代わりとして用いる。なお、第3の実施の形態における追跡支援システムの構成例は、図1に示した追跡支援システムと同様である。また、第3の実施の形態における車載カメラ1、監視カメラ2、サーバ3、およびウェアラブルカメラ40の機能ブロックは、図3〜図5に示した機能ブロックと同様である。ただし、第3の実施の形態における制御部11,22,31,41の機能は、第1の実施の形態における制御部11,22,31,41の機能と一部異なる。
図13は、第3の実施の形態に係る追跡支援システムの概略動作例を説明する図である。図13には、街中の交差点に固定設置された監視カメラ2a〜2rが示してある。監視カメラ2a〜2rは、図1で説明した監視カメラ2に対応する。
図13には、街中をパトロールしている車両V1,V21〜V23が示してある(車両V21〜V23については黒丸で示している)。車両V1,V21〜V23は、例えば、警察車両である。車両V21〜V23には、図3で説明した車載カメラ1が搭載されている。また、図13には、事件または事故等を起こした逃走車両V11が示してある。
また、図13には、街中をパトロールしている警察官に所持されたウェアラブルカメラWC1〜WC3が示してある(黒い四角で示している)。ウェアラブルカメラWC1〜WC3は、図8に示した機能ブロックと同様の機能ブロックを有している。
車両V21〜V23のそれぞれは、車載カメラの撮像部で撮影する画像の画像データをサーバ3に送信する。また、車両V21〜V23のそれぞれは、GPS信号に基づいて、定期的に車両V21〜V23の位置情報を取得する。車両V21〜V23のそれぞれは、取得した位置情報をサーバ3に送信する。サーバ3は、車両V21〜V23の位置情報を記憶部33に記憶する。
ウェアラブルカメラWC1〜WC3のそれぞれは、撮像部で撮影する画像の画像データをサーバ3に送信する。また、ウェアラブルカメラWC1〜WC3のそれぞれは、GPS信号に基づいて、定期的にウェアラブルカメラWC1〜WC3の位置情報を取得する。ウェアラブルカメラWC1〜WC3のそれぞれは、取得した位置情報をサーバ3に送信する。サーバ3は、車両V21〜V23の位置情報を記憶部33に記憶する。
ここで、車両V1は、図13に示す位置A21において、逃走車両V11を発見し、追跡を開始する。車両V1の車載カメラ1は、追跡の開始に応じて、例えば、GPS信号により、車両V1の位置情報を取得する。例えば、車載カメラ1は、位置A21の位置情報を取得する。
車載カメラ1は、GPS信号により取得した車両V1の位置情報を、サーバ3に送信する。また、車載カメラ1は、撮像部1bが撮影する画像データを、サーバ3に送信する。なお、サーバ3に送信される画像データには、逃走車両V11の画像が含まれる。
サーバ3は、街中に設置された監視カメラ2a〜2rと、街中をパトロールしている車両V21〜V23の車載カメラと、街中をパトロールしている警察官のウェアラブルカメラWC1〜WC3とのうち、車載カメラ1から送信された位置情報が示す位置の周辺に存在するカメラの画像の中から、車載カメラ1から送信された画像データに含まれる逃走車両V11を探索する。以下では、車両V21〜V23の車載カメラと、ウェアラブルカメラWC1〜WC3とを、支援カメラまたは移動カメラと呼ぶことがある。
例えば、サーバ3は、街中に設置された監視カメラ2a〜2rのうち、位置A21から所定の距離内(例えば、半径1kmの円内)にある監視カメラと支援カメラとの画像の中から、逃走車両V11を探索する。より具体的には、サーバ3は、監視カメラ2a〜2rと、車両V21〜V23の車載カメラと、ウェアラブルカメラWC1〜WC3とのうち、位置A21から所定の距離内にある図13の点線丸で囲む監視カメラ2b〜2d,2hと、車両V21,V23の車載カメラと、ウェアラブルカメラWC1との画像の中から、逃走車両V11を探索する。
すなわち、サーバ3は、車両V1が逃走車両V11の追跡を開始した位置の周辺に存在する監視カメラと、支援カメラとの画像の中から、逃走車両V11の画像を探索する。
サーバ3は、逃走車両V11を探索すると、探索した逃走車両V11を監視カメラ2a〜2rの画像と、車両V21〜V23の車載カメラの画像と、ウェアラブルカメラWC1〜WC3の画像とにおいて追跡する。例えば、サーバ3は、移動する逃走車両V11から、所定の距離内(例えば、半径1kmの円内)にある監視カメラと支援カメラとの画像をモニタし、逃走車両V11を追跡する。なお、サーバ3は、支援カメラから送信される支援カメラの位置情報から、移動する支援カメラの位置を把握できる。
すなわち、サーバ3は、車両V1が逃走車両V11の追跡を開始すると、車両V1とは別に、街中に設置された監視カメラ2a〜2pの画像と、支援カメラの画像とを用いて、逃走車両V11を追跡する。
車両V1の車載カメラ1は、逃走車両V11を見失った場合、サーバ3に対し、逃走車両V11の位置情報を要求する。例えば、車載カメラ1は、撮像部1bが逃走車両V11を一定時間撮影しなくなった場合、逃走車両V11を見失ったと判定し、サーバ3に対し、逃走車両V11の位置情報を要求する。
サーバ3は、車両V1の車載カメラ1から、逃走車両V11の位置情報の要求を受信すると、逃走車両V11の位置情報を取得する。例えば、サーバ3は、逃走車両V11を撮影している監視カメラの位置情報を取得する。より具体的には、車両V1が逃走車両V11を見失ったとき、逃走車両V11は、図13に示す位置A22を走行する。ウェアラブルカメラWC1が、逃走車両V11を撮影する。この場合、サーバ3は、ウェアラブルカメラWC1の位置情報を取得する。サーバ3は、取得した位置情報を車両V1の車載カメラ1に送信する。なお、ウェアラブルカメラWC1の位置情報は、上記にたように、定期的にサーバ3に送信される。
車両V1の車載カメラ1は、サーバ3から位置情報を受信すると、受信した位置情報を表示装置に表示する。または、車載カメラ1は、サーバ3から受信した位置情報を音声出力する。これにより、例えば、逃走車両V11を見失った車両V1は、図13に示すウェアラブルカメラWC1の位置へ向かうことができる。
このように、サーバ3は、街中に監視カメラ2が存在しないエリアがあっても、支援カメラを用いて、車両V1に逃走車両V11の位置情報を通知する。
図14は、サーバ3の動作例を示したフローチャートである。支援カメラは、GPS信号により、定期的に支援カメラの位置情報を取得し、サーバ3に送信する。サーバ3の制御部31は、支援カメラから定期的に送信される位置情報を、支援カメラの識別情報と対応付けて、記憶部33に記憶する。また、サーバ3は、支援カメラから画像データを受信する。
図14に示すステップS31,S32の処理は、図6に示したステップS1,S2と同様であり、その説明を省略する。
サーバ3の制御部31は、ステップS31にて受信した位置情報が示す位置の周辺に設置されている監視カメラ2と支援カメラとを抽出する。例えば、サーバ3の制御部31は、ステップS31にて受信した位置情報が示す位置から、所定の距離内(例えば、半径1kmの円内)にある監視カメラ2と支援カメラとを抽出する。サーバ3の制御部31は、監視カメラ2と支援カメラとを抽出すると、抽出した監視カメラ2と支援カメラとから画像データを受信し、受信した画像の中に、ステップS32にて抽出した逃走車両の特徴を有する車両を探索する。すなわち、サーバ3の制御部31は、ステップS31の位置情報が示す位置の周辺に設置されている監視カメラと支援カメラとの画像から、逃走車両を探索する(ステップ33)。
サーバ3の制御部31は、ステップS33にて探索した車両を、監視カメラ2と支援カメラとの画像において追跡する(ステップS34)。例えば、サーバ3の制御部31は、移動する逃走車両から、所定の距離内にある監視カメラと支援カメラとの画像をモニタし、逃走車両を追跡する。なお、サーバ3の制御部31は、支援カメラから定期的に送信される位置情報から、移動する支援カメラの位置を把握できる。
ここで、車両V1は、逃走車両を見失ったとする。車両V1の制御部11は、通信部12を介し、サーバ3に対して、逃走車両の位置情報を要求する。
サーバ3の制御部31は、通信部32を介して、車両V1の車載カメラ1から位置情報の要求を受信する(ステップS35)。
サーバ3の制御部31は、車両V1の車載カメラ1から位置情報の要求を受信すると、逃走車両を撮影している監視カメラ2または支援カメラの位置情報を取得する(ステップS36)。例えば、サーバ3の制御部31は、逃走車両を撮影している監視カメラ2または支援カメラの識別情報に基づいて記憶部33を参照し、逃走車両を撮影している監視カメラ2または支援カメラの位置情報を取得する。
サーバ3の制御部31は、監視カメラ2または支援カメラから位置情報を取得すると、取得した位置情報を車両V1の車載カメラ1に送信する(ステップS37)。
以上説明したように、サーバ3の制御部31は、車両V1から受信した位置情報が示す位置の周辺に設置された監視カメラと支援カメラとの画像の中から、車両V1から受信した画像データに含まれる逃走車両の画像を探索する。そして、サーバ3の制御部31は、探索した逃走車両を、街中に設置された監視カメラと、支援カメラとの画像において追跡する。これにより、サーバ3は、街中に監視カメラ2が存在しないエリアがあっても、支援カメラを用いて、車両V1に逃走車両の位置情報を通知できる。
(変形例1)
上記では、サーバ3は、車両V1が逃走車両を見失った場合、逃走車両の位置情報を車両V1に通知した。これに対し、サーバ3は、街中をパトロールしている警察官が逃走者を見失った場合に、警察官が所持するウェアラブルカメラ40に逃走者の位置を通知してもよい。
図15は、サーバ3の動作例を示したフローチャートである。支援カメラは、GPS信号により、定期的に支援カメラの位置情報を取得し、サーバ3に送信する。
図15に示すステップS41,S42の処理は、図9に示したステップS11,S12と同様であり、その説明を省略する。
サーバ3の制御部31は、ステップS41にて受信した位置情報が示す位置の周辺に設置されている監視カメラ2と支援カメラとを抽出する。例えば、サーバ3の制御部31は、ステップS41にて受信した位置情報が示す位置から、所定の距離内(例えば、半径1kmの円内)にある監視カメラ2と支援カメラとを抽出する。サーバ3の制御部31は、監視カメラ2と支援カメラとを抽出すると、抽出した監視カメラ2と支援カメラとから画像データを受信し、受信した画像の中に、ステップS42にて抽出した逃走者の特徴を有する人物を探索する。すなわち、サーバ3の制御部31は、ステップS41の位置情報が示す位置の周辺に設置されている監視カメラと支援カメラとの画像から、逃走者を探索する(ステップ43)。
サーバ3の制御部31は、ステップS43にて探索した人物(逃走者)を、監視カメラ2と支援カメラとの画像において追跡する(ステップS44)。例えば、サーバ3の制御部31は、移動する逃走者から、所定の距離内にある監視カメラと支援カメラとの画像をモニタし、逃走者を追跡する。なお、サーバ3の制御部31は、支援カメラから定期的に送信される位置情報から、移動する支援カメラの位置を把握できる。
ここで、警察官は、逃走者を見失ったとする。ウェアラブルカメラ40の制御部41は、通信部48を介し、サーバ3に対して、逃走者の位置情報を要求する。
サーバ3の制御部31は、通信部32を介して、ウェアラブルカメラ40から位置情報の要求を受信する(ステップS45)。
サーバ3の制御部31は、ウェアラブルカメラ40から位置情報の要求を受信すると、逃走者を撮影している監視カメラ2または支援カメラの位置情報を取得する(ステップS46)。例えば、サーバ3の制御部31は、ウェアラブルカメラ40から位置情報の要求を受信すると、逃走者を撮影している監視カメラ2または支援カメラにアクセスし、アクセスした監視カメラ2または支援カメラから、監視カメラ2または支援カメラの位置情報を取得する。
サーバ3の制御部31は、監視カメラ2または支援カメラから位置情報を取得すると、取得した位置情報をウェアラブルカメラ40に送信する(ステップS47)。
(変形例2)
支援カメラは、第2の実施の形態に適用してもよい。例えば、サーバ3は、ひき逃げを撮影した監視カメラの位置情報を取得すると、取得した位置情報が示す位置の周辺に存在する監視カメラの画像と、支援カメラの画像とから、逃走車両を探索してもよい。
図16は、サーバ3の動作例を示したフローチャートである。支援カメラは、GPS信号により、定期的に支援カメラの位置情報を取得し、サーバ3に送信する。
図16に示すステップS51〜S53の処理は、図12に示したステップS21〜S23と同様であり、その説明を省略する。
サーバ3の制御部31は、ステップS53にて取得した位置情報が示す位置の周辺に設置されている監視カメラ2の画像から、逃走車両を探索する(ステップS54)。例えば、サーバ3の制御部31は、ひき逃げを撮影した監視カメラ2から、所定の距離内(例えば、半径1kmの円内)にある監視カメラの画像と支援カメラの画像との中から、ステップS52にて抽出した特徴に一致する車両(逃走車両)を探索する。
サーバ3の制御部31は、逃走車両を探索すると、探索した逃走車両を撮影している監視カメラ2または支援カメラの位置情報を取得する(ステップS55)。例えば、サーバ3の制御部31は、探索した逃走車両を撮影している監視カメラ2または支援カメラにアクセスし、アクセスした監視カメラ2または支援カメラから、監視カメラ2が設置されている場所の位置情報または支援カメラの位置情報を取得する。なお、サーバ3の制御部31は、支援カメラから定期的に送信される位置情報から、移動する支援カメラの位置を把握できる。
サーバ3の制御部31は、通信部32を介して、ステップS25にて取得した位置情報が示す位置の周辺を走行している車両V1の車載カメラ1に、逃走車両の追跡を指示する指示情報を送信する(ステップS56)。指示情報には、ステップS55にて取得した監視カメラ2の位置情報または支援カメラの位置情報が含まれる。また、指示情報には、逃走車両V11が撮影されている静止画等の画像情報が含まれても良い。
(変形例3)
上記では、車両の車載カメラと警察官が所持するウェアラブルカメラとを支援カメラとしたが、これに限られない。例えば、車載カメラとウェアラブルカメラとのいずれか一方を支援カメラとしてもよい。
上記の実施の形態の説明に用いた各機能ブロックは、典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部または全てを含むように1チップ化されてもよい。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
また、集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)、又は、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてありえる。
また、上記の各実施の形態および各変形例は組み合わされてもよい。また、サーバ3が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能(追跡支援の方法)がコンピュータ上で実現される。
本開示は、逃走する逃走車両または逃走者等の追跡を支援する追跡支援システムに有用である。
1 車載カメラ
1a 車載記録装置
1b,21a〜21d,42 撮像部
2,2a〜2r 監視カメラ
3 サーバ
4 端末装置
5 ネットワーク
11,22,31,41 制御部
12,23,32,48 通信部
13,49 GPS受信部
14,50 表示部
15,45 入力部
16,24,33,51 記憶部
40,WC1〜WC3 ウェアラブルカメラ
43 ジャイロセンサ
44 加速度センサ
46 マイク
47 スピーカ
CC1 コマンドセンタ
V1,V21〜V23 車両
V11 逃走車両

Claims (13)

  1. 第1の車両の追跡を開始した第2の車両から、前記第2の車両の位置情報と、前記第2の車両が搭載している車載カメラの画像データとを受信する受信部と、
    前記位置情報が示す位置の周辺に設置された監視カメラの画像の中から、前記画像データに含まれる前記第1の車両の画像を探索し、探索した前記第1の車両を監視カメラの画像を用いて追跡する制御部と、
    前記制御部が追跡している前記第1の車両の追跡位置情報を前記第2の車両に送信する送信部と、
    を有する情報処理装置。
  2. 前記送信部は、前記第2の車両からの要求に応じて、前記追跡位置情報を前記第2の車両に送信する、
    請求項1に記載の情報処理装置。
  3. 前記送信部は、前記第1の車両を撮影している監視カメラの設置位置情報を前記追跡位置情報として前記第2の車両に送信する、
    請求項1または2に記載の情報処理装置。
  4. 前記制御部は、前記第1の車両を撮影している監視カメラの画像から、前記第1の車両の逃走方向を判定し、
    前記送信部は、前記逃走方向を含む前記追跡位置情報を前記第2の車両に送信する、
    請求項1から3のいずれか一項に記載の情報処理装置。
  5. 前記制御部は、前記位置情報が示す位置の周辺に設置された監視カメラと、前記位置情報が示す位置の周辺に存在する移動カメラとの画像の中から、前記画像データに含まれる前記第1の車両の画像を探索し、探索した前記第1の車両を監視カメラと、移動カメラとの画像を用いて追跡する、
    請求項1から4のいずれか一項に記載の情報処理装置。
  6. 監視カメラの画像の中から、事件に関与した第1の車両を探索し、探索した前記第1の車両を撮影した監視カメラの設置位置情報を取得する制御部と、
    前記設置位置情報が示す位置の周辺を走行している第2の車両に、前記第1の車両の追跡を指示する指示情報を送信する送信部と、
    を有する情報処理装置。
  7. 前記送信部は、前記設置位置情報を含む前記指示情報を前記第2の車両に送信する、
    請求項6に記載の情報処理装置。
  8. 前記制御部は、監視カメラの画像を解析して事件の発生を検出し、前記第1の車両を探索する、
    請求項6または7に記載の情報処理装置。
  9. 前記制御部は、端末装置から送信される前記第1の車両の特徴から、前記第1の車両を探索する、
    請求項6または7に記載の情報処理装置。
  10. 前記制御部は、前記第1の車両を撮影している監視カメラの画像から、前記第1の車両の逃走方向を判定し、
    前記送信部は、前記逃走方向を含む前記指示情報を前記第2の車両に送信する、
    請求項6から9のいずれか一項に記載の情報処理装置。
  11. 前記制御部は、前記設置位置情報が示す位置の周辺に設置された監視カメラと、前記設置位置情報が示す位置の周辺に存在する移動カメラとの画像の中から、前記第1の車両を探索し、探索した前記第1の車両を撮影する監視カメラの設置位置情報または探索した前記第1の車両を撮影する移動カメラの位置情報を取得する、
    請求項6から10のいずれか一項に記載の情報処理装置。
  12. 第1の人物の追跡を開始した第2の人物が所持するウェアラブルカメラから、前記ウェアラブルカメラの位置情報と、前記ウェアラブルカメラの画像データとを受信する受信部と、
    前記位置情報が示す位置の周辺に設置された監視カメラの画像の中から、前記画像データに含まれる前記第1の人物の画像を探索し、探索した前記第1の人物を監視カメラの画像を用いて追跡する制御部と、
    前記制御部が追跡している前記第1の人物の追跡位置情報を前記ウェアラブルカメラに送信する送信部と、
    を有する情報処理装置。
  13. 監視カメラの画像の中から、事件に関与した人物を探索し、探索した前記人物を撮影した監視カメラの設置位置情報を取得する制御部と、
    前記設置位置情報が示す位置の周辺に存在するウェアラブルカメラまたは車両に、前記第1の人物の追跡を指示する指示情報を送信する送信部と、
    を有する情報処理装置。
JP2018248086A 2018-12-28 2018-12-28 情報処理装置 Pending JP2020108106A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018248086A JP2020108106A (ja) 2018-12-28 2018-12-28 情報処理装置
US16/728,506 US11276193B2 (en) 2018-12-28 2019-12-27 Information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018248086A JP2020108106A (ja) 2018-12-28 2018-12-28 情報処理装置

Publications (1)

Publication Number Publication Date
JP2020108106A true JP2020108106A (ja) 2020-07-09

Family

ID=71124379

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018248086A Pending JP2020108106A (ja) 2018-12-28 2018-12-28 情報処理装置

Country Status (2)

Country Link
US (1) US11276193B2 (ja)
JP (1) JP2020108106A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024203877A1 (ja) * 2023-03-28 2024-10-03 株式会社Jvcケンウッド 映像生成装置、撮像装置および映像生成方法

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11593951B2 (en) * 2020-02-25 2023-02-28 Qualcomm Incorporated Multi-device object tracking and localization
US11630677B2 (en) * 2020-11-30 2023-04-18 Whp Workflow Solutions, Inc. Data aggregation with self-configuring drivers
US11720414B2 (en) 2020-11-30 2023-08-08 Whp Workflow Solutions, Inc. Parallel execution controller for partitioned segments of a data model
US11604773B2 (en) 2020-11-30 2023-03-14 Whp Workflow Solutions, Inc. Hierarchical data ingestion in a universal schema
US11477616B2 (en) 2020-11-30 2022-10-18 Getac Technology Corporation Safety detection controller
US11605288B2 (en) 2020-11-30 2023-03-14 Whp Workflow Solutions, Inc. Network operating center (NOC) workspace interoperability
US11977993B2 (en) 2020-11-30 2024-05-07 Getac Technology Corporation Data source correlation techniques for machine learning and convolutional neural models
US11468671B2 (en) 2020-11-30 2022-10-11 Getac Technology Corporation Sentiment analysis for situational awareness
US11271810B1 (en) 2020-11-30 2022-03-08 Getac Technology Corporation Heterogeneous cross-cloud service interoperability
US11540027B2 (en) 2020-11-30 2022-12-27 Getac Technology Corporation Performant ad hoc data ingestion
DE102021132466B3 (de) * 2021-12-09 2023-06-15 Joynext Gmbh Erkennen eines Objekts in der Nähe eines Verkehrsteilnehmers

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5856700B1 (ja) 2015-01-29 2016-02-10 パナソニックIpマネジメント株式会社 ウェアラブルカメラシステム及び録画制御方法
CA2913568C (en) 2015-01-29 2024-01-02 Panasonic Intellectual Property Management Co., Ltd. Wearable camera system, and video recording control method for wearable camera system
US10013883B2 (en) * 2015-06-22 2018-07-03 Digital Ally, Inc. Tracking and analysis of drivers within a fleet of vehicles
US9905131B2 (en) * 2015-12-29 2018-02-27 Thunder Power New Energy Vehicle Development Company Limited Onboard vehicle notification system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024203877A1 (ja) * 2023-03-28 2024-10-03 株式会社Jvcケンウッド 映像生成装置、撮像装置および映像生成方法

Also Published As

Publication number Publication date
US11276193B2 (en) 2022-03-15
US20200211216A1 (en) 2020-07-02

Similar Documents

Publication Publication Date Title
JP2020108106A (ja) 情報処理装置
JP2019036872A (ja) 捜査支援装置、捜査支援方法及び捜査支援システム
JP6486744B2 (ja) 地域監視サーバ、提供端末及びそのシステム
JP6468062B2 (ja) 物体認識システム
JP4470992B2 (ja) 映像管理システム
US20160280131A1 (en) Connected vehicle system
JP7206854B2 (ja) 情報提供システム、サーバ、携帯端末、プログラム及び情報提供方法
JP2006350520A (ja) 周辺情報収集システム
JP2008227877A (ja) 映像情報処理装置
JP2009169540A (ja) 監視システム及びセキュリティ管理システム
CN111524381B (zh) 一种停车位置的推送方法、装置、系统及电子设备
KR101459104B1 (ko) 동작분석을 통하여 위급상황을 감지하는 지능형 cctv시스템 및 이를 이용한 위급상황 감지방법
EP3361723B1 (en) Monitoring vehicle involved in a collision
JP2012048645A (ja) 車載情報通信装置、路側情報通信装置並びに通信システム
JP2010039825A (ja) 駐車監視方法及びその監視装置
KR102480424B1 (ko) 지역 감시기능을 갖는 퍼스널 모빌리티
KR100725669B1 (ko) 주행차량 인식 시스템
JP7327963B2 (ja) 処理装置、撮影装置及び情報処理装置
WO2021024490A1 (ja) 画像データ収集装置、方法およびプログラム
CN112289036A (zh) 基于交通语义的场景式违章属性识别系统及方法
JP2016173764A (ja) 撮影装置、撮影システム、撮影方法および撮影プログラム
JP2018206210A (ja) 衝突事故抑制システム及び衝突事故抑制方法
JP2019179977A (ja) ウェアラブルカメラ
JP7397575B2 (ja) 信号機制御装置及び信号機制御方法
CN110301133A (zh) 信息处理装置、信息处理方法和信息处理程序

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190625

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20190731

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190902

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190910

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191205

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20201224