JP6799779B2 - 監視映像解析システム及び監視映像解析方法 - Google Patents

監視映像解析システム及び監視映像解析方法 Download PDF

Info

Publication number
JP6799779B2
JP6799779B2 JP2016199560A JP2016199560A JP6799779B2 JP 6799779 B2 JP6799779 B2 JP 6799779B2 JP 2016199560 A JP2016199560 A JP 2016199560A JP 2016199560 A JP2016199560 A JP 2016199560A JP 6799779 B2 JP6799779 B2 JP 6799779B2
Authority
JP
Japan
Prior art keywords
video data
video
wearable camera
server
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016199560A
Other languages
English (en)
Other versions
JP2018061213A (ja
Inventor
若子 武士
武士 若子
陽平 小出
陽平 小出
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2016199560A priority Critical patent/JP6799779B2/ja
Priority to US15/659,435 priority patent/US10838460B2/en
Publication of JP2018061213A publication Critical patent/JP2018061213A/ja
Application granted granted Critical
Publication of JP6799779B2 publication Critical patent/JP6799779B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00095Systems or arrangements for the transmission of the picture signal
    • H04N1/00103Systems or arrangements for the transmission of the picture signal specially adapted for radio transmission, e.g. via satellites
    • H04N1/00106Systems or arrangements for the transmission of the picture signal specially adapted for radio transmission, e.g. via satellites using land mobile radio networks, e.g. mobile telephone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/207Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using multi-purpose displays, e.g. camera image and navigation or video on same display
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Astronomy & Astrophysics (AREA)
  • Alarm Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮像装置により撮像された監視映像を解析する監視映像解析システム及び監視映像解析方法に関する。
近年、例えば警察官にウェアラブルカメラを装着させて、巡視(巡回)中に撮像された映像をウェアラブルカメラ内のメモリに記録する運用が着実に推進されている。特に、米国においては、単独で巡視することがある警察官により引き起こされた事件発生により、ウェアラブルカメラの装着率が年々急激に増加している。
ウェアラブルカメラは、映像を記録する際、撮像時間が一定時間(例えば10分)を経過する毎に映像データのファイル(映像データファイル)を作成してメモリに記録する。ウェアラブルカメラで撮像される映像を一定時間毎に映像データファイルとして記録することで、映像の利便性(例えば必要なときの利用可能性ともいうべき可用性)を担保している。ここで、可用性とは、1シーンの長い映像を1つの映像データファイルとして記録する場合と比べ、1シーンの長い映像を短い時間の映像に分けて複数の映像データファイルとして記録することで、仮に1つの映像データファイルが壊れたとしても、残りの映像データファイルを使用することができる等、映像としての利用度合いや利便性を示す指標を意味する。また、シーンとは、一定の関連性を持って時系列に撮像される映像の区切りである。なお、映像データファイルは、バックグラウンド処理で生成されるので、時系列に撮像して記録される複数の映像データファイルの間に、空白の時間帯は生じない。
一方、警察官は、ウェアラブルカメラで撮像した事件現場の映像(監視映像)の中に、一般市民に紛れて被疑者が映っていないか否かを、複数の映像データファイルに対し、1枚ずつフレームを目視で確認して判別する。事件の種別にもよるが、一般には、被疑者を判別する際、事件現場の映像に長時間映っている人物が怪しいと疑うことがある。被疑者が映っている映像は、裁判所又は検察庁等の所定機関に提出され、証拠として用いられることがある。
また、動画を構成する複数の画像データに共通して登場する人物を抽出し、動画の画像データの中に共通して登場する人物を動画の最後に表示することで、娯楽性を高めたデジタルカメラが知られている(例えば特許文献1参照)。
特開2010−252008号公報
しかし、特許文献1では、警察官等のユーザが装着又は所持するウェアラブルカメラで記録された複数の映像データファイルに跨って登場する人物を探索することは考慮されていない。このため、警察官等のユーザが装着又は所持するウェアラブルカメラで記録された複数の映像データファイルを構成する全てのフレーム画像を1枚ずつ警察官が確認して被疑者を探し出すことは効率的でなく、特許文献1を参照しても効率的な解決策は提示されていない。また、そのような目視の作業に長時間を要することで、被疑者を早期に発見することが難しかった。
本発明は、上述した従来の事情に鑑みて案出され、ウェアラブルカメラの撮像映像の可用性を利用し、複数の撮像映像に跨って登場する人物等のオブジェクトを早期に発見し、目的とするオブジェクトの探索業務を効率的に支援する監視映像解析システム及び監視映像解析方法を提供することを目的とする。
本発明は、撮影時間が異なって連続する映像を生成するカメラと、前記カメラが生成した映像を入力するサーバと、を備え、前記カメラは、撮影時間が異なって連続する複数の映像データファイルを生成して前記サーバに入力し、前記サーバは、前記撮影時間が異なって連続する複数の映像データファイルを用いて、n(nは2以上の整数)個の映像データファイルに跨がって登場する1つ以上のオブジェクトを判別し、前記判別された1つ以上のオブジェクトを含む一覧画面をモニタに表示する、監視映像解析システムを提供する。
また、本発明は、撮影時間が異なって連続する映像を生成するカメラが生成した映像をサーバにより解析する監視映像解析方法であって、前記カメラは、撮影時間が異なって連続する複数の映像データファイルを生成して前記サーバに入力し、前記サーバは、前記撮影時間が異なって連続する複数の映像データファイルを用いて、n(nは2以上の整数)個の映像データファイルに跨がって登場する1つ以上のオブジェクトを判別し、前記判別された1つ以上のオブジェクトを含む一覧画面をモニタに表示する、監視映像解析方法を提供する。
本発明によれば、撮影時間が異なって連続する映像を生成するカメラの撮像映像の可用性を利用し、複数の撮像映像に跨って登場する人物等のオブジェクトを早期に発見でき、目的とするオブジェクトの探索業務を効率的に支援できる。
本実施形態の監視映像解析システムの概要の一例を示す図 本実施形態のウェアラブルカメラの内部構成の一例を示すブロック図 本実施形態のバックエンドサーバのハードウェア構成の一例を示すブロック図 本実施形態のウェアラブルカメラで撮像された最初の撮像期間の映像のフレームを示す図 本実施形態のウェアラブルカメラで撮像された次の撮像期間の映像のフレームを示す図 本実施形態のウェアラブルカメラで撮像された更に次の撮像期間の映像のフレームを示す図 本実施形態のバックエンドサーバのモニタに表示されるインポートファイルリストUIを示す図 複数の映像データファイルに跨って現れる顔のサムネイルが登録されたサムネイルリストUIを示す図 本実施形態のバックエンドサーバの画像解析動作手順の一例を詳細に説明するフローチャート
以下、適宜図面を参照しながら、本発明に係る監視映像解析システム及び監視映像解析方法を具体的に開示した実施形態(以下、「本実施形態」という)であるウェアラブルカメラシステムを詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、添付図面及び以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。また、以下の説明において、映像は、複数のフレーム画像(フレームと略記することもある)が時系列に並べられて構成されるものとして説明する。
図1は、本実施形態の監視映像解析システム5の概要の一例を示す図である。監視映像解析システム5は、パトカー(つまり、パトロールカーの略称であるパトカー7)に搭載された車載カメラシステム(ICV:In Car Videoシステム)30、警察官3の制服に装着又は保持されたウェアラブルカメラ(BWC:Body-Worn Camera)10、及び警察署4内に設置された署内システム8を含む構成である。
車載カメラシステム30は、1つ又は複数の車載カメラ31、車載PC(Personal Computer)32及び車載レコーダ33を有し、パトカー7で走行中に遭遇する事件等の撮像画像に基づく映像を撮像して記録する。1つ又は複数の車載カメラ31は、例えばパトカー7の前方を撮像するように設置されたカメラ、パトカーの左側、右側、後方を撮像するように設置されたそれぞれのカメラのうち、1つ又は複数を含む。車載PC32は、警察官3が操作する指示に従い、車載カメラ31及び車載レコーダ33の動作を制御する。車載レコーダ33は、複数の車載カメラ31でそれぞれ撮像された映像データを時系列に記録する。
車載カメラシステム30は、署内システム8内の無線LANアクセスポイント63Pを介して、署内システム8内のバックエンドサーバ(BES:Back End Server)50と無線接続される。車載カメラシステム30は、車載レコーダ33に記録された映像データの中から特定の映像データを選択して、無線LANアクセスポイント63Pを介してバックエンドサーバ50に送信可能である。また、車載カメラシステム30は、ウェアラブルカメラ10と通信可能に接続され、ウェアラブルカメラ10で撮像された映像データ及び収音された音声データを車載レコーダ33に記録する。以下の説明において、音声データには、例えばパトロール中や事件の現場に事件の被疑者、犯人が所持している拳銃が発砲した時の銃声も含まれるとする。
ウェアラブルカメラ10は、ユーザである警察官3の制服に装着又は保持され、警察官の前方の雰囲気を被写体として撮像し、撮像された映像データ及び収音された音声データを車載カメラシステム30及びバックエンドサーバ50に送信する。なお、ウェアラブルカメラ10のユーザは警察官3に限定されず、警備員でもよいし、必要に応じて警察犬でもよい。この場合、ウェアラブルカメラ10は、1シーンの撮像映像を、複数の映像データファイル(映像データのファイル)に分割して、記憶部15(図2参照)に記憶する。なお、シーンとは、一定の関連性を持って時系列に撮像される映像の区切りである。また、シーンとは、映像がウェアラブルカメラ10により撮像された場所(例えば事件若しくは事故の現場)を意味することもあり、この場合には「シーン」は「撮像エリア」若しくは「撮像現場」と解釈できる。このように、ウェアラブルカメラ10は、一定時間毎に撮像して複数の映像データファイルを時系列に生成して記録する。本実施形態では、映像のデータファイルには、インターネット等の動画配信に適したMP4(Mpeg4)のファイル形式が用いられる。なお、ファイル形式としては、MP4に限らず、AVI(Audio Video Interleave),QuickTime,WMV(Windows Media Video),FLV(Flash Video)等であってもよい。
ウェアラブルカメラ10は、長時間(例えば1時間)の映像を単一の映像データファイルに纏めるのではなく、複数の映像データファイルに分割して記憶する特徴を有する。これにより、仮に複数の映像データファイルのうち1つの映像データファイルが壊れて後述するバックエンドサーバ50やバックエンドクライアント70において再生できなくなっても、再生可能なその他の映像データファイルを再生可能に残しておくことができ、壊れてしまった映像データファイルを除けば、ウェアラブルカメラ10により撮像された映像データファイルの可用性をある程度確保できる。本実施形態では、例えば警察官が事件現場の映像を撮像している場合、1シーンの撮像映像は、事件現場を撮像エリアとする映像である。また、警察官が移動中にウェアラブルカメラ10で撮像し続けている場合、1シーンの撮像映像は、特定の時間帯や特定の場所等を区切りとする映像であり、また、警察官がウェアラブルカメラ10を録画オンにしてから録画オフに切り替えるまで連続して撮像された映像である。
なお、車載カメラ31においても、ウェアラブルカメラ10と同様、1シーンの撮像映像を一定時間毎の複数の映像データファイルに分割して記録してもよい。ただし、車載カメラ31の場合、例えばパトカー7が巡回中の時間に撮像された映像が1シーンの撮像映像である等、ウェアラブルカメラ10の場合と比べて、通常、撮影時間の長い映像である。
また、ウェアラブルカメラ10や車載カメラ31の撮像対象となる被写体には、単に人物だけではなく、事件の現場の情景、現場の近くに群がる群衆(いわゆる、野次馬)、更に、撮像位置の周囲の雰囲気も含まれるとする。また、警察官3は、指令システム90からの指令を受信する無線通信端末の一例としての警察無線端末35を所持する。通常、警察官3は、パトロール中や事件発生時に現場に急行する場合など、警察署外での活動の際に、警察無線端末35を現場に携行している。また、警察官3は、ウェアラブルカメラ10と通信可能な通信端末の一例としてのスマートフォン40を所持する場合もある。スマートフォン40は、電話機能及び無線通信機能を有し、例えば警察署4からの緊急連絡又は警察署への緊急連絡時に使用され、汎用的に使用されている携帯端末の一例として挙げられる。
ウェアラブルカメラ10は、車載カメラシステム30を介して、直接に、或いはスマートフォン40又は無線LAN(Local Area Network)アクセスポイント45を介して、バックエンドサーバ50と接続されることで、映像データ及び音声データをバックエンドサーバ50に送信可能である。スマートフォン40は、モバイル通信ネットワーク又はインターネット網を経由してバックエンドサーバ50と接続される。無線LANアクセスポイント45は、有線又は無線のネットワーク(インターネット網など)を経由してバックエンドサーバ50と接続される。また、ウェアラブルカメラ10は、手動で後述する集合充電台89に取り付けられることで、集合充電台89がUSB(Universal Serial Bus)ケーブル等で接続されたバックエンドサーバ50に映像データ及び音声データを有線で送信可能である。
署内システム8は、警察署4の内部に設置された、バックエンドサーバ50、バックエンドストリーミングサーバ(BSS:Back End Streaming Server)65、バックエンドクライアント(BEC:Back End Client)70、無線LANアクセスポイント63P、集合充電台89、及び指令システム90を含む構成である。
バックエンドサーバ50は、コンピュータ及びストレージを有して構成され、事件の証拠映像を管理する。バックエンドサーバ50は、例えばウェアラブルカメラ10や車載カメラ31により撮像された映像を構成する画像フレーム中の顔を認識する顔認識機能や、ウェアラブルカメラ10や車載カメラシステム30から送信された音声データを認識する音声認識機能を有する。
バックエンドストリーミングサーバ60は、ウェアラブルカメラ10からストリーミング配信される映像データを受信し、バックエンドサーバ50に転送する。また、バックエンドストリーミングサーバ60は、車載カメラシステム30からストリーミング配信される映像データを受信し、バックエンドサーバ50に転送してもよい。
バックエンドクライアント70は、例えばPCにより構成され、バックエンドサーバ50の、不審人物データベース(不図示)にアクセスし、犯罪者等の事件に関する情報を検索してその検索結果をディスプレイデバイス(例えばバックエンドクライアント70に予め備え付けのLCD(Liquid Crystal Display))上に表示可能なブラウザ又は専用アプリケーションを有する。不審人物データベースには、例えば指名手配中の人物や過去の犯罪者等(以下、前科者等という)が事件を識別する情報(例えば事件番号)に対応付けて予め登録されている。
また、バックエンドクライアント70は、バックエンドサーバ50の音声データベースにアクセスし、犯罪者等の事件に関する情報を検索可能である。なお、バックエンドクライアント70は、警察署4の内部に設置されるだけでなく、警察署4の外部に設置されたものでもよい。また、バックエンドクライアント70は、シンクライアントPC或いはリッチクライアントPCのいずれであってもよい。
無線LANアクセスポイント63Pは、車載カメラシステム30及びウェアラブルカメラ10と無線LAN(W−LAN)によって無線接続し、車載カメラシステム30に記録された映像データ及び音声データと、ウェアラブルカメラ10に記録された映像データ及び音声データをバックエンドサーバ50に転送する。
集合充電台89は、複数の警察官3がそれぞれ装着又は所持するウェアラブルカメラ10を装着可能であり、装着された個々のウェアラブルカメラ10の電源を充電するとともに、ウェアラブルカメラ10との間で有線通信を行い、ウェアラブルカメラ10に記憶された映像データ及び音声データをバックエンドサーバ50に送信する機能を有する。また、集合充電台89は、USB(Universal Serial Bus)ケーブルを介してバックエンドサーバ50に有線接続される。
指令システム90は、無線通信装置の一例としての警察無線基地局装置(不図示)を有し、バックエンドサーバ50と接続され、警察署4が管轄する各所に指令を送信する。警察署4には、各警察官に指令を伝達するための警察無線システムが設置されている。指令システム90は、事件が発生した場合に、例えばバックエンドサーバ50からの指示に従い、事件の現場への派遣対象となる警察官が乗車するパトカー7又は警察官が所持する警察無線端末35に対し、現場急行や、現場確保、被疑者確保、現場に到着した警察官の応援等の各種の出動指令を無線で送信する。
なお、指令システム90は、警察官が入力操作する指示に従い、事件の現場に派遣する警察官に指令を出してもよい。また、指令システム90は、バックエンドサーバ50と直接に接続されていなくてもよく、事件が発生した場合に、バックエンドサーバ50とは独立して、警察無線基地局装置から、事件の現場への派遣対象となるパトカー7又は警察無線端末35に対し、上記各種の出動指令を無線で送信してもよい。
監視映像解析システム5において、車載カメラシステム30を使用する場合、ウェアラブルカメラ10は、近距離無線通信、又はUSB等の信号ケーブルを用いた有線通信によって、車載カメラシステム30とデータ転送可能に接続される。ウェアラブルカメラ10で撮像された映像データ及び収音された音声データは、車載カメラシステム30に転送され、車載カメラシステム30で再生或いは録画、録音され、また、バックエンドサーバ50に送信される。
車載カメラシステム30は、車載カメラ31で撮像された映像データ及びウェアラブルカメラ10で撮像された映像データ及び音声データを車載レコーダ33に記録し、ウェアラブルカメラ10により収音された音声データを、無線LANを経由してバックエンドサーバ50に送信する。
また、監視映像解析システム5において、ウェアラブルカメラ10を直接ネットワークに接続して使用する場合、ウェアラブルカメラ10は、無線LANアクセスポイント45又はスマートフォン40とデータ転送可能に接続される。ウェアラブルカメラ10とスマートフォン40との接続は、例えば、BLE(Bluetooth(登録商標) Low Energy)等の近距離無線通信、或いは、ウェアラブルカメラ10又はスマートフォン40の一方を無線LANアクセスポイントとして機能させるテザリングによる無線LAN通信が用いられる。ウェアラブルカメラ10は、記録された映像データ及び音声データを無線LANアクセスポイント45又はスマートフォン40を経由してバックエンドサーバ50に送信する。
また、警察官3は、警察署4に戻り、集合充電台89にウェアラブルカメラ10を装着することで、集合充電台89は、ウェアラブルカメラ10を充電するとともに、USBケーブルを介してウェアラブルカメラ10に記録された映像データ及び音声データをバックエンドサーバ50に送信可能である。
バックエンドサーバ50は、バックエンドストリーミングサーバ60を経由して、或いはウェアラブルカメラ10又は車載カメラシステム30から直接、映像データを受信すると、伝送された映像データをストレージに記録し蓄積する。また、バックエンドサーバ50は、車載カメラシステム30及びウェアラブルカメラ10から音声データを受信すると、音声データに含まれる音声を認識し、パトロール又は事件に関する既定の音声データが予め登録された音声データベースに登録された音声との照合を行い、照合の結果を、車載カメラシステム30及びウェアラブルカメラ10に通知する。
また、警察官3がバックエンドクライアント70を操作してバックエンドサーバ50に対し事件に関連する音声を探索する等の処理を要求すると、バックエンドサーバ50は、バックエンドクライアント70からの要求に応じ、音声データベースに登録された音声の照会等を行う。
図2は、本実施形態のウェアラブルカメラ10の内部構成の一例を示すブロック図である。ウェアラブルカメラ10は、撮像部11と、GPIO12(General Purpose Input/Output)と、RAM(Random Access Memory)13と、ROM(Read Only Memory)14と、記憶部15と、を備える。ウェアラブルカメラ10は、EEPROM(Electrically Erasable Programmable ROM)16と、RTC(Real Time Clock)17と、GPS(Global Positioning System)受信部18と、を備える。ウェアラブルカメラ10は、MCU(Micro Controller Unit)19と、BLE通信部21Aと、WLAN通信部21Bと、USBインターフェース(I/F)22と、コンタクトターミナル23と、電源部24と、バッテリ25と、を備える。
ウェアラブルカメラ10は、録画スイッチSW1と、スナップショットスイッチSW2と、通信モードスイッチSW3及び属性情報付与スイッチSW4と、を備える。
ウェアラブルカメラ10は、3個のLED(Light Emitting Diode)26a,26b,26cと、バイブレータ27と、を備える。
撮像部11は、撮像レンズと、CCD(Charge Coupled Device)型イメージセンサ又はCMOS(Complementary Metal Oxide Semiconductor)型イメージセンサ等による固体撮像素子と、を有する。撮像部11は、撮像により得られた被写体の画像データをMCU19に出力する。
コンタクトターミナル23の検知端子CON.DET(図示せず)は、ウェアラブルカメラ10が集合充電台89に載置(セット)された場合、あるいは集合充電台89から取り外された場合に電圧変化が生じる端子である。コンタクトターミナル23の検知端子CON.DETは、ADコンバータCVに接続される。検知端子CON.DETの電圧変化を示す信号は、ADコンバータCVにおいてデジタル信号に変換され、そのデジタル信号がI2C20を介してMCU19に入力される。
GPIO12は、パラレルインターフェースである。GPIO12には、録画スイッチSW1、スナップショットスイッチSW2、通信モードスイッチSW3、属性情報付与スイッチSW4、LED26a,26b,26c、バイブレータ27、LCD28、イヤホン端子29C、スピーカ29B及びマイク29Aが接続される。GPIO12は、これらの各種電子部品とMCU19との間で信号を入出力する。収音部としてのマイク29Aは、ウェアラブルカメラ10の周囲の音声を収音し、収音された音声の音声データを、GPIO12を介してMCU19に出力する。なお、マイク29Aは、ウェアラブルカメラ10の筐体に収容された内蔵マイクであってもよいし、ウェアラブルカメラ10と無線接続されたワイヤレスマイクであってもよい。ワイヤレスマイクの場合、警察官が任意の箇所に取り付けることで、収音性を高めることができる。また、ジャイロセンサGY及び加速度センサAC、ADコンバータCVは、I2C(Inter-Integrated Circuit)20などの通信インターフェースを介してMCU19に接続される。なお、コンタクトターミナルの23の検知端子CON.DETを、ADコンバータCVを介さずにGPIO12へ接続することでも類似の効果を得ることは可能である。
RAM13は、例えばMCU19の動作において使用されるワークメモリである。ROM14は、例えばMCU19を制御するためのプログラム及びデータを予め記憶する。
記憶部15は、例えばメモリカード等の記憶媒体により構成され、自動録画開始等の指示(つまり、録画開始指示)に基づき、撮像部11で撮像された映像データの記録を開始する。記憶部15は、撮像された所定時間の映像データを常時プリバッファリングして保持しておき、現在時刻より所定時間(例えば30秒)前までの映像データを蓄積し続ける。そして、録画開始指示を受けると、記憶部15は、映像データの記録を開始し、録画停止指示を受けるまでこれ以降の映像データの記録を継続する。また、記憶部15は、解像度アップ情報等が設定された設定データファイルを有する。例えば記憶部15がメモリカードで構成される場合、ウェアラブルカメラ10の筐体に挿抜自在に装着される。
EEPROM16は、例えばウェアラブルカメラ10を識別する識別情報(例えばCamera IDとしてのシリアル番号)、及び各種設定情報を記憶する。RTC17は、現在の時刻情報をカウントしてMCU19に出力する。
GPS受信部18は、複数のGPS発信機(例えば4個の航法衛星)から送信される、各自の信号送信時刻及び位置座標を含む衛星信号を受信してMCU19に出力する。MCU19は、複数の衛星信号を用いて、現在のウェアラブルカメラ10の位置座標及び衛星信号の受信時刻を算出する。なお、この算出は、MCU19ではなく、GPS受信部18により実行されてもよい。この受信時刻の情報は、ウェアラブルカメラ10のシステム時刻の補正のためにも使用されてもよい。システム時刻は、撮像された画像(静止画、動画を含む)の撮像時刻の記録等に利用される。
MCU19は、ウェアラブルカメラ10の制御部としての機能を有し、例えばウェアラブルカメラ10の各部の動作を全体的に統括するための制御処理、ウェアラブルカメラ10の各部との間のデータの入出力処理、データの演算(計算)処理及びデータの記憶処理を行う。MCU19は、ROM14に記憶されたプログラム及びデータに従って動作する。MCU19は、動作時、RAM13を使用し、RTC17より現在の時刻情報を得るとともに、GPS受信部18から現在の位置情報を得る。
MCU19は、アプリケーションプログラムの実行により実現可能な検知部19zを有し、この検知部19zを用いて、マイク29Aにより収音された音声データを生成する。また、検知部19zは、マイク29Aにより収音されたアナログ音の音声データにおいて、後述するDTMF信号等による音声信号による指示を検知する。MCU19は、検知部19zにより取得した指示に対応するウェアラブルカメラ10の動作を実行させる。
BLE通信部21Aは、近距離無線通信の通信規格であるBLE(Bluetooth(登録商標) Low Energy)の通信形態を用いて、スマートフォン40等と通信を行う。BLEは、Bluetooth(登録商標)のバージョン4.0の呼称である。BLEでは、低消費電力で通信可能あるが、その通信速度は100kbps程度と低速である。
WLAN通信部21Bは、スマートフォン40がテザリング機能を用いてアクセスポイントとして動作する場合にスマートフォン40、又は警察署4内において利用可能な無線LANの無線LANアクセスポイント63P等と無線LAN(つまり、WLAN)で接続され、接続先と無線通信を行う。無線LANは、BLEと比べ、通信速度が数十〜数百Mbpsと高速通信可能であるが、無線LANアクセスポイントと常時接続されるので、消費電力が多くなる。
なお、ウェアラブルカメラ10は、BLE通信やWLAN通信の他、NFC:Near Field Communication)等の近距離無線通信や携帯回線網(例えばLTE:Long Term Evolution)を用いた無線通信を行うための通信部の構成(不図示)をそれぞれ有してもよい。また、WLAN通信部21Bや上記した携帯回線網を用いた無線通信を行うための通信部の構成は、指令システム90からの指示を受信する受信部として機能する。
USBインターフェース22は、シリアルバスであり、例えば車載カメラシステム30、警察署内のバックエンドクライアント70等との接続を可能とする。
コンタクトターミナル23は、クレードル(不図示)又は外付けアダプタ(不図示)等と電気的に接続するための端子であり、USBインターフェース22を介してMCU19に接続され、また、電源部24と接続される。コンタクトターミナル23は、コンタクトターミナル23を介して、バッテリ25を充電し、また、画像データ等を通信可能である。
コンタクトターミナル23には、例えば「充電端子V+」、「CON.DET端子」、「データ端子D−,D+」及び「グランド端子」(いずれも図示省略)が設けられる。CON.DET端子は、電圧及び電圧変化を検出するための端子である。データ端子D−,D+は、例えばUSBコネクタ端子を介して、外部PC等に対してウェアラブルカメラ10で撮像した画像等を転送するための端子である。コンタクトターミナル23の検知端子であるCON.DET端子は、ADコンバータCVを介してI2C20等の通信インターフェースに接続され、コンタクトターミナル23の検知電圧値がMCU19に入力される。
コンタクトターミナル23と、クレードル(不図示)又は外付けアダプタ(不図示)のコネクタとが接続されることにより、ウェアラブルカメラ10と外部機器との間でデータ通信が可能となる。
電源部24は、例えばコンタクトターミナル23を介してクレードル又は外付けアダプタより供給される電源電力をバッテリ25に給電して、バッテリ25を充電する。バッテリ25は、例えば充電可能な2次電池により構成され、ウェアラブルカメラ10の各部に電源電力を供給する。
録画スイッチSW1は、例えば警察官3の押下操作による録画(動画の撮像)の開始/停止の操作指示を入力する押しボタンスイッチである。録画スイッチSW1は、例えば奇数回押下されることで録画(動画の撮像)が開始され、偶数回押下されることで録画が終了する。また、連続して2回押下されると、録画スイッチSW1は緊急ボタンとして機能する。
スナップショットスイッチSW2は、例えば警察官3の押下操作による静止画の撮像の操作指示を入力する押しボタンスイッチである。スナップショットスイッチSW2は、例えば押下される度に、押下時の静止画の撮像が実行される。
通信モードスイッチSW3は、例えばウェアラブルカメラ10と外部機器との間の通信モードを設定するための操作指示を入力するスライドスイッチである。通信モードは、例えばアクセスポイントモード、ステーションモード、OFFモードを含む。
アクセスポイントモードは、ウェアラブルカメラ10が無線LANのアクセスポイントとして動作し、例えば警察官3が所持するスマートフォン40と無線接続して、ウェアラブルカメラ10とスマートフォン40との間で通信を行うモードである。アクセスポイントモードにおいて、スマートフォン40は、ウェアラブルカメラ10と接続することにより、ウェアラブルカメラ10による現在のライブ画像の表示、録画された画像の再生、撮像された静止画の表示等を行うことができる。
ステーションモードは、無線LANを用いて外部機器と接続する場合に、外部機器をアクセスポイントとして通信するモードである。例えばスマートフォン40のテザリング機能を利用し、外部機器としてスマートフォン40を設定してもよい。ステーションモードにおいて、ウェアラブルカメラ10は、各種設定、ウェアラブルカメラ10が保持する録画された画像の転送(アップロード)等を、車載カメラシステム30や警察署4内のバックエンドクライアント70やバックエンドサーバ50に対して行うことができる。
OFFモードは、無線LANの通信動作をオフし、無線LANを未使用とするモードである。
属性情報付与スイッチSW4は、映像データに属性情報を付与するために操作される押しボタンスイッチである。
LED26aは、例えばウェアラブルカメラ10の電源投入状態(オンオフ状態)及びバッテリ25の状態を示す表示部である。LED26bは、例えばウェアラブルカメラ10の撮像動作の状態(録画状態)を示す表示部である。LED26cは、例えばウェアラブルカメラ10の通信モードの状態を示す表示部である。また、3個のLED26a〜26cは、ウェアラブルカメラ10がバックエンドサーバ50から通知データを受信すると、MCU19からの指示に従い、点滅動作を行う。この時、MCU19は、通知データに含まれる、音源に関する情報に応じて、MCU19は、LED26a〜26cの点滅パターンを可変させる。
ジャイロセンサGYは、ウェアラブルカメラ10の角速度(つまり、単位時間あたりの回転角)を検知し、例えばウェアラブルカメラ10を装着又は所持している警察官3が転倒したこと(Man Down)を検知する。ジャイロセンサGYの検知結果はI2C20を介してMCU19に入力される。ウェアラブルカメラ10は、ジャイロセンサGYを用いることで、ウェアラブルカメラ10を装着又は所持している警察官3の回転に関する挙動(例えば地面に転倒したこと、拳銃で撃たれて地面に倒れたこと、凶器で攻撃されて地面に倒れたこと)を精度良く検知することができる。
センサ部の一例としての加速度センサACは、ウェアラブルカメラ10の直行座標系の3軸方向(いわゆる、x軸,y軸,z軸)の加速度を検知し、例えばウェアラブルカメラ10を装着又は所持している警察官3が転倒したこと(Man Down)、走り出したこと、警察官3が所持している拳銃を把持して射撃体勢になったことを検知する。加速度センサACの検知結果はI2C20を介してMCU19に入力される。ウェアラブルカメラ10は、加速度センサACを用いることで、ウェアラブルカメラ10を装着又は保持している警察官3の動き又は体勢に関する挙動を精度良く検知することができる。
MCU19は、録画スイッチSW1、スナップショットスイッチSW2、通信モードスイッチSW3及び属性情報付与スイッチSW4の各スイッチの入力検出を行い、操作があったスイッチ入力に対する処理を行う。
MCU19は、録画スイッチSW1の操作入力を検出した場合、撮像部11における撮像動作の開始又は停止を制御し、撮像部11から得られた画像を、動画像として記憶部15に保存する。
MCU19は、スナップショットスイッチSW2の操作入力を検出した場合、スナップショットスイッチSW2が操作されたときの撮像部11による画像を、静止画像として記憶部15に保存する。
MCU19は、通信モードスイッチSW3の状態を検出し、通信モードスイッチSW3の設定に応じた通信モードによってBLE通信部21AまたはWLAN通信部21Bを動作させる。
MCU19は、属性情報付与スイッチSW4が押下された場合、撮像部11によって撮像された画像から切り出された顔画像のデータに属性情報を付与する。
図3は、本実施形態のバックエンドサーバ50のハードウェア構成の一例を示すブロック図である。バックエンドサーバ50は、ウェアラブルカメラ10から複数の映像データファイルを受信すると、これらの映像データファイルを元に、インポートファイルリストUI100(図7参照)、及びサムネイルリストUI150(図8参照)を生成する。
サーバの一例としてのバックエンドサーバ50は、CPU51と、I/O制御部52と、通信部53と、メモリ54と、入力部55と、モニタ56と、スピーカ59と、ストレージ制御部57と、ストレージ58とを備える。
CPU51は、例えばバックエンドサーバ50の各部の動作を全体的に統括するための制御処理、他の各部との間のデータの入出力処理、データの演算(計算)処理及びデータの記憶処理を行う。CPU51は、メモリ54に記憶されたプログラム及びデータに従って動作する。
I/O制御部52は、CPU51とバックエンドサーバ50の各部(例えば通信部53、入力部55、モニタ56、ストレージ制御部57)との間でデータの入出力に関する制御を行い、CPU51からのデータ及びCPU51へのデータの中継を行う。なお、I/O制御部52は、CPU51と一体的に構成されてもよい。
通信部53は、例えば車載レコーダ33、車載PC32若しくはスマートフォン40との間、警察官3が装着又は保持が可能なウェアラブルカメラ10との間、又は、バックエンドクライアント70との間で、有線又は無線による通信を行う。
メモリ54は、例えばRAM、ROM、不揮発性又は揮発性の半導体メモリを用いて構成され、CPU51の動作時のワークメモリとして機能し、CPU51を動作させるための所定のプログラム及びデータを保存している。
入力部55は、警察官3や警察署4内の担当者の入力操作を受け付け、I/O制御部52を介してCPU51に通知するためのUI(User Interface)であり、例えばマウス、キーボード等のポインティングデバイスである。入力部55は、例えばモニタ56の画面に対応して配置され、警察官3又は担当者の指又はスタイラスペンによって操作が可能なタッチパネル又はタッチパッドを用いて構成されても良い。また、バックエンドサーバ50は、警察署4内のネットワークで接続されたバックエンドクライアント70から操作することも可能である。
モニタ56は、例えばLCD又は有機ELを用いて構成され、各種情報を表示する。モニタ56は、例えば警察官3又は担当者の入力操作に応じて、ウェアラブルカメラ10により撮像又は録画された映像が入力された場合には、CPU51の指示の下で、この映像を画面に表示する。モニタ56は、例えば警察官3又は担当者の入力操作に応じて、車載カメラ31により撮像又は録画された映像が入力された場合には、CPU51の指示の下で、この映像を画面に表示する。また、警察署4内のネットワークで接続されたバックエンドクライアント70から操作された場合は、各種情報は、バックエンドクライアント70に表示される。
スピーカ59は、例えば警察官3又は担当者の入力操作に応じて、ウェアラブルカメラ10により収音された音声が入力された場合には、CPU51の指示の下で、この音声を出力する。また、警察署4内のネットワークで接続されたバックエンドクライアント70から操作された場合は、音声は、バックエンドクライアント70に接続されたスピーカへ出力される。
ストレージ制御部57は、CPU51がバックエンドストリーミングサーバ60に対し、蓄積された撮像映像データの送信を要求した場合に、この要求に応じて受信した映像データをストレージ58に記憶する等の動作を制御する。ストレージ58は、ストレージ制御部57によって制御される、SSDやHDD等の記憶装置であり、CPU51からの指示に従い、I/O制御部52を介してウェアラブルカメラ10から送信された撮像映像データを蓄積する。
上記構成を有する監視映像解析システム5における画像解析動作を示す。
始めに、本実施形態で実行されるトラッキングとは、映像データファイルの実体となる映像データの再生(言い換えると、映像データを構成する複数のフレーム画像を順に繰り下げること)により、個々のフレーム画像内に映っているオブジェクトを探索し、かつそのフレーム画像上のオブジェクトの位置(例えば座標)を取得する動作を指す。以下の説明において、オブジェクトは、例えば人物、人物の顔、又は人物や人物の顔に近い形状やパターンを有する有形物を指す。
また、ウェアラブルカメラ10で1シーンの映像(例えば90分の映像)が撮像された場合、撮像期間(10分)毎に9個の映像データファイルが時系列に生成される(図7参照)。ウェアラブルカメラ10に記録された9個の映像データファイルは、後述するように、バックエンドサーバ50に一括でインポートして入力される。
図4は、本実施形態のウェアラブルカメラ10で撮像された最初(先頭)の撮像期間の映像のフレームG01を示す図である。このフレームG01は、ファイル名「sample01」の映像(図7参照)を構成するフレームであり、同一の撮像エリア(例えば事件若しくは事故の現場、或いは巡視中の場所。以下同様。)において撮像された映像を構成する複数のフレームのうち、例えば先頭フレームである。図4に示すフレームG01には、街中を歩行する多くの人物が映っている。このフレームG01では、バックエンドサーバ50のCPU51の顔認識機能により、8個のオブジェクトである顔f1〜f8が認識された。ただし、顔f4は、誤って人物の顔として認識された対象(オブジェクト)である。フレームG01には、認識された顔f1〜f8をそれぞれ囲むように、CPU51により実線の枠wk1〜wk8が描画される。
図5は、本実施形態のウェアラブルカメラ10で撮像された次の撮像期間の映像のフレームG02を示す図である。このフレームG02は、「sample01」の映像の撮像開始時刻(例えば図7に示す12:00)より一定時間(10分)遅れて撮像開始された(つまり、図7に示す12:10に撮像開始された)ファイル名「sample02」の映像(図7参照)を構成するフレームであり、同一の撮像エリアにおいて撮像された映像を構成する複数のフレームのうち、例えば先頭フレームである。図5に示すフレームG02では、バックエンドサーバ50のCPU51の顔認識機能により、12個の顔f1〜f4,f9〜f16が認識された。フレームG02には、認識された顔f1〜f4,f9〜f16をそれぞれ囲むように、CPU51により実線の枠wk1〜wk4,wk9〜wk16が描画される。
図6は、本実施形態のウェアラブルカメラ10で撮像された更に次の撮像期間の映像のフレームG03を示す図である。このフレームG03は、「sample02」の映像の撮像開始時刻(例えば図7に示す12:10)より一定時間(10分)遅れて撮像開始された(つまり、図7に示す12:20に撮像開始された)ファイル名「sample03」の映像(図7参照)を構成するフレームであり、同一の撮像エリアにおいて撮像された映像を構成する複数のフレームのうち、例えば先頭フレームである。図6に示すフレームG03では、バックエンドサーバ50のCPU51の顔認識機能により、10個の顔f1〜f4,f13,f14,f17〜f20が認識された。フレームG03には、認識された顔f1〜f4,f13,f14,f17〜f20をそれぞれ囲むように、CPU51により実線の枠wk1〜wk4,wk13,wk14,wk17〜wk20が描画される。
ここでは、一例として、9個の映像データファイル(図7参照)のうち、3個の映像データファイルの中に、同一人物の顔が映っている場合、CPU51は、所定数以上(例えば3個)の映像データファイルに跨って登場(出現)するオブジェクトとして、その人物の顔を抽出する。例えば図4〜図6では、3人の顔f1,f2,f3がファイル名「sample01」、「sample02」、「sample03」の3個の映像データファイルに登場しているので、バックエンドサーバ50のCPU51は、これらの顔をオブジェクトであると判別する。一方、顔f13,f14は、複数の映像データファイルに登場するものの、ファイル名「sample02」と「sample03」の2つの映像データファイルにしか登場しておらず、CPU51は、所定数以上の映像データファイルに跨って登場(出現)するオブジェクトでないと判別する。
図7は、本実施形態のバックエンドサーバ50のモニタ56に表示されるインポートファイルリストUI100を示す図である。インポートファイルリストUI100は、バックエンドサーバ50に、1シーンの映像に対応する複数の映像データファイルが入力されると、自動的にバックエンドサーバ50のCPU51により生成される。インポートファイルリストUI100は、インポートファイルリストlt、及びトラッキングスタートボタンbtを含み、モニタ56に表示される。
インポートファイルリストltには、入力した複数の映像データファイルに関する情報が、一覧で表示可能なように、列毎に登録される。各列には、各映像データファイルに対応する、チェックボックスcb、ファイル名nm、撮像期間pt等の情報が記述される。チェックボックスcbは、ユーザによる選択操作を可能とし、トラッキング対象の映像データファイルとして選択するか否かを受け付ける。チェックボックスcbが選択マークmk(図中、黒いマーク)を含む場合、選択有りの状態を表し、空白である場合、選択無しの状態を表す。
図7に示すファイル名nmは、例えばウェアラブルカメラ10が自動的に付与した名称である。ここでは、ファイル名nmは、「sample01」〜「sample09」であり、シーンを表す第1識別情報と、時系列に分割された個々の映像データファイルを表す第2識別情報との組み合わせで表現される。具体的に、「sample」が第1識別情報であり、「01」〜「09」が第2識別情報である。なお、ファイル名nmの項目は、ユーザによる入力操作を可能とし、名称の変更を任意に受け付ける。
撮像期間ptは、ウェアラブルカメラ10によって個々の映像が撮像された時間帯を表す。例えば、1列目の映像データファイルに対し、チェックボックスcbがトラッキング対象の映像データファイルとして選択され、ファイル名が「sample01」であり、撮像期間ptが「12:00−12:10」の10分間であることが登録される。2列目以降の映像データファイルについても同様である。
このように、シーンの映像を複数の映像データファイルに分割して保存することで、ウェアラブルカメラ10により撮像された映像の可用性を高めることができる。また、ウェアラブルカメラ10の記憶部15のメモリ容量が少なくなった場合、分割された映像データファイルが1つずつ上書きあるいは消去される。従って、データ量の多い長時間録画の映像データファイルを一気に削除する場合と比べ、シーンの撮像映像を残しておく期間を延ばすことができる。また、撮像期間ptとして、「12:00−12:10」から「13:20−13:30」までの時間帯が連続しているので、映像が撮像されていない空白の(未撮像の)時間帯は存在しないことになり、ウェアラブルカメラ10の撮像映像の連続性(つまり、映像の途切れが無く連続的に構成されていること)は保証される。
また、インポートファイルリストUI100の下方に表示された、トラッキングスタートボタンbt(図中、「Tracking start」と表記)は、バックエンドサーバ50又は、バックエンドサーバ50にアクセスして利用可能なクライアントPCであるバックエンドクライアント70のいずれかのユーザによって操作可能なボタンである。トラッキングスタートボタンbtがクリック操作されると、バックエンドサーバ50は、映像データファイル「sample01」に対し、トラッキングを開始する。トラッキングは、前述したように、映像データファイルのフレームを順に繰り下げて、選択されたオブジェクトが映っている各フレームを探索し、フレーム上のオブジェクトの位置を取得する動作である。
図8は、複数の映像データファイルに跨って現れる顔のサムネイルsg1〜sg4が登録されたサムネイルリストUI150を示す図である。ここでは、所定数以上(例えば3個)の映像データファイルに跨って映っているオブジェクト(例えば人物の顔)のサムネイルが示されている。なお、個々のサムネイルは、CPU51により生成されてもよいし、ウェアラブルカメラ10により予め生成されてもよい。
サムネイルリストUI150には、複数のオブジェクト(人物の顔)のサムネイルsg1〜sg4、各サムネイルsg1〜sg4を識別するための識別番号(ID)m1〜m4、及びバックエンドサーバ50又は、バックエンドサーバ50にアクセスして利用可能なクライアントPCであるバックエンドクライアント70のいずれかのユーザにとって必要な顔(例えば事件の被疑者の可能性のある顔又は指名手配済みの犯人の顔)であるか否かを選択するためのチェックボックスkb1〜kb4が表示される。サムネイルsg1〜sg4を特に区別しない場合、単にサムネイルsgと称する。同様に、識別番号を特に区別しない場合、単に識別番号mjと称する。同様に、チェックボックスkb1〜kb4を特に区別しない場合、単にチェックボックスkbと称する。
サムネイルリストUI150のチェックボックスkbは、ユーザによる選択操作を可能とし、被疑者の候補であるオブジェクトとして選択するか否かを受け付ける。オブジェクトとして人物の顔が判別された段階では、バックエンドサーバ50によってサムネイルsg1〜sg4の各チェックボックスkb1〜kb4に選択マークjkが付与されている。チェックボックスkbが選択マークjkを含む場合、選択有りの状態を表し、空白である場合、選択無しの状態を表す。警察官3がチェックボックスkbをクリック操作する度、チェックボックスkbに付与されている選択マークjkのオン/オフが繰り返される。図8では、サムネイルsg4は、顔画像でなく、誤って顔と認識された対象の画像であるので、チェックボックスkb4は、警察官3によってクリック操作されて空白となる。従って、このサムネイルsg4で表現される壁のような対象は、ユーザの確認対象から外れる又は被疑者等の事件に関する人物から外れる。
なお、ここでは、複数(ここでは、3個以上)の映像データファイルに人物の顔が登場した場合、サムネイルリストUI150にその人物の顔のサムネイルsgが表示されたが、登場した回数が所定回数(例えば3回)以上である場合、サムネイルリストUI150にその人物の顔のサムネイルが表示されるようにしてもよい。この所定回数は、バックエンドサーバ50又は、バックエンドサーバ50にアクセスして利用可能なクライアントPCであるバックエンドクライアント70のいずれかのユーザの操作によって任意に設定可能である。また、人物の顔の登場時間あるいは登場回数の多い程、サムネイルsgの表示順位を上げてもよい。また、バックエンドサーバ50は、サムネイルを表示する際、前科者等が登録された不審人物データベースにアクセスし、前科者等の顔と一致した顔に対し、前科者等であることを表す文字情報等を付加してもよく、被疑者の候補の探索を支援することができる。また、顔画像をサムネイルで表示することで、メモリ容量を少なくし、表示速度が上がるが、生画像を表示してもよく、その場合、顔画像から、より詳細な情報が得られる。
図9は、本実施形態のバックエンドサーバ50画像解析動作手順の一例を詳細に説明するフローチャートである。この動作は、バックエンドサーバ50によって実行される。バックエンドサーバ50は、入力部55あるいは通信部53を介して、ウェアラブルカメラ10で撮像された1シーンの映像である複数の映像データファイルをインポートして入力する(S1)。入力部55を介して映像データファイルを入力する場合、例えば警察官3がウェアラブルカメラ10を集合充電台89に載置する。入力部55は、集合充電台89とUSB(Universal Serial Bus)ケーブルで接続されており、ウェアラブルカメラ10の記憶部15に記憶された映像データファイルを読み出し可能となる。また、警察官3が入力部55にウェアラブルカメラ10を直接装着することで、ウェアラブルカメラ10に記憶された映像データファイルを読み込ませてもよい。
一方、通信部53を介して映像データファイルを入力する場合、通信部53は、無線LANアクセスポイント63Pを介して、あるいはバックエンドストリーミングサーバ60またはバックエンドクライアント70を介して、ウェアラブルカメラ10に記憶された映像データファイルを受信する。
CPU51は、入力した複数の映像データファイルを一旦、ストレージ58に記憶し、これらの映像データファイルを用いて、インポートファイルリストUI100(図7参照)を生成する。更に、CPU51は、生成したインポートファイルリストUI100をモニタ56に表示する。
CPU51は、ユーザの一例としての警察官3によってトラッキングスタートボタンbtに対するクリック操作(つまり、トラッキングスタートボタンbtの選択)が行われると、複数の映像データファイルをそれぞれフレーム単位で個々に読み出してメモリ54に展開し、それぞれの読み出した各映像データファイルの先頭フレーム内に登場するオブジェクトを自動判別する(S2)。
CPU51は、ステップS2で自動判別されたオブジェクトを基に、メモリ54に読み出したそれぞれの映像データファイルについて、先頭フレームから個々のフレームを順に繰り下げて(つまり、オブジェクトが最初に登場した先頭フレームから映像を順に再生して)、第2番目以降の個々のフレームにおけるオブジェクトの有無を自動判別する(S3)。このように、CPU51は、個々の映像データファイルに対して、トラッキングを行う。
撮像時間帯が異なって連続する複数の映像データファイルに跨って同じ人物の顔が登場した場合、つまり、1シーン中の撮像時間帯が異なって連続する所定数以上(例えば3個)の映像データファイルに跨って同じ人物の顔が登場した場合、この人物の顔が長時間連続して映像に映っているとの推測が成り立つ。本実施形態では、この推測を利用し、バックエンドサーバ50のCPU51は、撮像時間帯が異なって連続する複数の映像データファイルに跨って同じ人物の顔が登場した場合、その顔を、ユーザが探し求めている人物(例えば事件若しくは事故の被疑者、或いは指名手配済みの犯人)の可能性を秘めたオブジェクトであると判別する。このように、同じ人物の顔が登場した回数があらかじめ設定された所定数以上(例えば3回)である場合、CPU51は、そのオブジェクトを抽出する。なお、この所定回数は、固定値でもよいし、警察官がバックエンドサーバ50の入力部55を介して任意に設定できるようにしてもよい。これにより、オフジェクトの判別精度を高めることができる。
CPU51は、それぞれの映像データファイルについて、フレーム毎に判別されたオブジェクトの座標値(フレーム上のオブジェクトの位置)をメタデータとしてメモリ54に保存する(S4)。メタデータとして、オブジェクトの座標値を保持しておくことで、後からデータ解析を行って、オブジェクトの動きを捉えることができる。このオブジェクトの動きは、オブジェクトが被疑者であるか否かを判断する際の判断精度を高めることに繋がる。CPU51は、ステップS3で自動判別された先頭フレーム内のオブジェクトのサムネイルsgをメモリ54に保存する(S5)。
CPU51は、サムネイルsgの一覧が登録されたサムネイルリストUI150(図8参照)をモニタ56に表示する(S6)。CPU51は、サムネイルリストUI150に登録されたオブジェクトがユーザにより選択されたか否かを判別する(S7)。選択されなかった場合、CPU51は本動作を終了する。
一方、ユーザによりオブジェクトが選択された場合、つまり、チェックボックスkbに選択マークjkが付与されている場合、CPU51は、選択されたオブジェクトが最初に登場するムービー(映像データファイル)を再生する(S8)。このムービーの再生では、選択されたオブジェクトが登場する、全ての映像データファイルを連続的に再生してもよい。これにより、警察官は、再生されたムービーを見て、オブジェクトが被疑者であるか否かを見極めることができる。この後、CPU51は本動作を終了する。
このように、本実施形態の監視映像解析システム5は、警察官3(ユーザ)によって装着又は所持されるウェアラブルカメラ10と、ウェアラブルカメラ10による撮像映像を入力するバックエンドサーバ50(サーバ)と、を備える。ウェアラブルカメラ10は、シーンの映像を10分毎に(一定時間毎に)生成して記録する。バックエンドサーバ50は、シーンにおける複数の10分毎の(一定時間毎の)撮像映像を用いて、n(nは2以上の整数)個の撮像映像に跨がって登場する人物の顔(オブジェクト)を判別し、判別された人物の顔が登録されたサムネイルリストUI150(1つ以上のオブジェクトの一覧画面)をモニタ56に表示する。
このように、ウェアラブルカメラ10で撮像される映像のシーンにおいて、異なる撮像時間帯で連続する複数の映像データファイルにおいて被疑者の顔(オブジェクト)が長時間滞在するとしてバックエンドサーバ50により検知(判別)された場合、時系列に分割して記録された複数かつ撮像時間帯が連続する映像データファイルにユーザが探し求めるオブジェクトが多く登場する(現れる)ことになる。従って、バックエンドサーバ50は、ウェアラブルカメラの撮像映像の可用性を利用し、複数の撮像映像に跨って登場する人物等のオブジェクトを早期に発見でき、目的とするオブジェクトの探索業務を効率的に支援できる。
なお、ウェアラブルカメラ10が同じ場所を撮像し続けている場合、1シーンの撮像映像は、同じ撮像エリアの撮像映像となるが、警察官が移動中に撮像し続けている場合、時間帯や変化する場所等を区切りとする映像が1シーンの撮像映像となる。また、警察官がウェアラブルカメラ10を録画オンから録画オフにするまで撮像された映像を1シーンの撮像映像としてもよい。
また、バックエンドサーバ50は、モニタ56に表示されたサムネイルリストUI150に登録された、オブジェクトのサムネイルsgのうち、警察官がチェックボックスkbを選択して選択マークJkを外す操作(ユーザ操作)を行うことにより、選択されたオブジェクトをトラッキング対象から除外する、つまり、このオブジェクトは被疑者でないと判別する。
これにより、誤った判別により被疑者の顔とは無関係なオブジェクトを誤認識しても、そのオブジェクトを被疑者の候補から容易に省くことができる。また、警察官(ユーザ)が明らかに被疑者でないと判断するオブジェクトを省くことで、ユーザの意図を確実に反映できる。
また、バックエンドサーバ50は、サムネイルリストUI150(オブジェクトの一覧)として、オブジェクトのサムネイルsg(サムネイル画像)をモニタ56に表示する。
これにより、警察官(ユーザ)はオブジェクトのサムネイルを見ることで、被疑者であるか否かの妥当性を視覚的に判断できる。
また、バックエンドサーバ50は、撮像映像のフレームにおける、オブジェクトの座標値をメタデータとして保持する。
これにより、複数の撮像映像のフレームにおける、オブジェクトの位置を捉えることができ、オブジェクトの動きを把握することができる。従って、被疑者であるか否かの判断精度を高めることに繋がる。
また、オブジェクトは、人物の顔である。これにより、バックエンドサーバ50は、顔認識機能を用いて高精度にオブジェクトを認識できる。従って、警察官は、被疑者を特定し易くなる。
以上、図面を参照しながら実施形態について説明したが、本発明はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
例えば、上記実施形態では、ウェアラブルカメラ10は、一定の短い時間(例えば10分)撮像し終える度に、撮像した映像のデータファイル(映像データファイル)をメモリに記録することで複数の映像データファイルを生成してもよいし、また、長い時間撮影し終えた後、撮像した映像を分割して複数の映像データファイルを生成し、メモリに記録してもよい。
また、上記実施形態では、ウェアラブルカメラ10は、同じ撮像エリアにおいて、1シーンの映像を撮像する際、一定時間である10分毎に映像データファイルを生成していたが、10分単位に限らず、5分単位、20分単位等、任意の一定時間毎に映像データファイルを生成してもよい。また、一定時間は、固定値であってもよいし、ユーザがウェアラブルカメラに対し、任意に設定できるようにしてもよい。これにより、映像のシーンに応じて、適切な一定時間を設定できる。
また、上記実施形態では、バックエンドサーバ50が撮像された映像の中から人物の顔を認識する顔認識機能を有する場合を示したが、ウェアラブルカメラ10が顔認識機能を有してもよく、映像データファイルに顔認識された情報を付加してもよい。
また、上記実施形態では、バックエンドサーバ50がインポートファイルリストUIを生成する場合を示したが、ウェアラブルカメラ10がタッチパネル等を有している場合、インポートファイルリストUIを生成してタッチパネル等に表示し、ユーザによる選択操作を受け付けるようにしてもよい。この場合、ウェアラブルカメラ10は、受け付けた選択情報をバックエンドサーバに転送してもよい。
また、上記実施形態では、バックエンドサーバ50がサムネイルリストUIを生成する場合を示したが、ウェアラブルカメラ10が顔認識機能及びタッチパネル等を有している場合、サムネイルリストUIを生成してタッチパネル等に表示し、ユーザによる選択操作を受け付けるようにしてもよい。この場合、ウェアラブルカメラだけで、被疑者の判別が可能となる。
また、上記実施形態では、複数の映像データファイルに登場するオブジェクトの数が所定回数以上である場合、サムネイルリストUIに登録するオブジェクトであるとしたが、更に、複数の各映像データファイルのフレームに登場するオブジェクトの数を計数し、この計数値を用いてサムネイルリストUIへの登録の有無、登録の順位、サムネイルの画像サイズ等を決めてもよく、より詳細にサムネイルリストUIに登録するオブジェクトの判別精度が向上する。
また、上記実施形態では、バックエンドサーバ50は、複数の映像データファイルに跨がって登場するオブジェクト(例えば人物の顔)が事件の被疑者の候補である場合を想定したが、行方不明の事件が発生している場合、行方不明者の候補であってもよく、顔を見つけることで、行方不明者の捜索の支援に役立つ。
また、上記実施形態では、オブジェクトが複数であり、複数のオブジェクトの少なくとも1人が映っている映像をトラッキングする場合を示したが、全員が映っている映像をトラッキングしてもよいし、ユーザにより選択された特定のオブジェクトが少なくとも映っている映像をトラッキングしてもよい。これにより、柔軟かつ早期に被疑者を判別できる。
また、上記実施形態では、複数の映像データファイルに跨がって登場しているオブジェクトが顔である場合を示したが、顔以外にも、人物の容姿、看板、車両、ナンバープレート等であってもよい。この場合、バックエンドサーバ50は、フレーム上において、これらのオブジェクトを認識する機能を有する。
また、上記実施形態では、オブジェクトを囲む枠の大きさは、顔の大きさに合わせて変更されたが、一定の大きさであってもよく、処理の負荷を軽減できる。この場合、複数のオブジェクトが近接していると、これらの枠は一部重複して表示されることもある。
また、上記実施形態では、警察官が装着あるいは所持するウェアラブルカメラで撮像する場合を示したが、パトカーに搭載された車載カメラシステム(ICV:In Car Videoシステム)で撮像する場合も、本発明は同様に適用可能である。
本発明は、撮影時間が異なって連続する映像を生成するカメラの撮像映像の可用性を利用し、複数の撮像映像に跨って登場する人物等のオブジェクトを早期に発見し、目的とするオブジェクトの探索業務を効率的に支援する監視映像解析システム及び監視映像解析方法として有用である。
3 警察官(ユーザ)
5 監視映像解析システム
10 ウェアラブルカメラ
50 バックエンドサーバ
56 モニタ
100 インポートファイルリストUI
150 サムネイルリストUI
wk1〜wk20 枠
f1〜f20 顔

Claims (6)

  1. 撮影時間が異なって連続する映像を生成するカメラと、前記カメラが生成した映像を入力するサーバと、を備え、
    記カメラは、撮影時間が異なって連続する複数の映像データファイルを生成して前記サーバに入力し
    前記サーバは、前記撮影時間が異なって連続する複数の映像データファイルを用いて、n(nは2以上の整数)個の映像データファイルに跨がって登場する1つ以上のオブジェクトを判別し、前記判別された1つ以上のオブジェクトを含む一覧画面をモニタに表示する、
    監視映像解析システム。
  2. 前記サーバは、前記一覧画面に表示された1つ以上のオブジェクトのうち、ユーザ操作により選択されたオブジェクトを、そのオブジェクトのフレーム画像における位置を取得する処理の対象から除外する、請求項1に記載の監視映像解析システム。
  3. 前記サーバは、前記一覧画面として、前記判別された1つ以上のオブジェクトの個々のサムネイル画像を表示する、請求項1に記載の監視映像解析システム。
  4. 前記サーバは、前記複数の映像データファイルを構成する複数のフレーム画像のうち個々のフレーム画像における、前記判別された1つ以上のオブジェクトの座標値をメタデータとして保持する、請求項1に記載の監視映像解析システム。
  5. 前記オブジェクトは人物の顔である、請求項1に記載の監視映像解析システム。
  6. 撮影時間が異なって連続する映像を生成するカメラが生成した映像をサーバにより解析する監視映像解析方法であって、
    記カメラは、撮影時間が異なって連続する複数の映像データファイルを生成して前記サーバに入力し
    前記サーバは、前記撮影時間が異なって連続する複数の映像データファイルを用いて、n(nは2以上の整数)個の映像データファイルに跨がって登場する1つ以上のオブジェクトを判別し、前記判別された1つ以上のオブジェクトを含む一覧画面をモニタに表示する、
    監視映像解析方法。
JP2016199560A 2016-10-07 2016-10-07 監視映像解析システム及び監視映像解析方法 Active JP6799779B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016199560A JP6799779B2 (ja) 2016-10-07 2016-10-07 監視映像解析システム及び監視映像解析方法
US15/659,435 US10838460B2 (en) 2016-10-07 2017-07-25 Monitoring video analysis system and monitoring video analysis method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016199560A JP6799779B2 (ja) 2016-10-07 2016-10-07 監視映像解析システム及び監視映像解析方法

Publications (2)

Publication Number Publication Date
JP2018061213A JP2018061213A (ja) 2018-04-12
JP6799779B2 true JP6799779B2 (ja) 2020-12-16

Family

ID=61829416

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016199560A Active JP6799779B2 (ja) 2016-10-07 2016-10-07 監視映像解析システム及び監視映像解析方法

Country Status (2)

Country Link
US (1) US10838460B2 (ja)
JP (1) JP6799779B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023108992A (ja) * 2022-01-26 2023-08-07 本田技研工業株式会社 情報処理装置、配信制御方法、コンピュータプログラム及び記憶媒体

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10430907B2 (en) * 2015-07-14 2019-10-01 Taser International, Inc. Systems and methods for processing recorded data for storage using computer-aided dispatch information
US10192277B2 (en) * 2015-07-14 2019-01-29 Axon Enterprise, Inc. Systems and methods for generating an audit trail for auditable devices
JP2020136714A (ja) * 2019-02-13 2020-08-31 パナソニックi−PROセンシングソリューションズ株式会社 情報処理装置および監視方法
CN114342360B (zh) * 2019-08-30 2026-01-13 日本电气株式会社 处理设备、处理系统、处理方法
JP6936288B2 (ja) * 2019-09-06 2021-09-15 パナソニックi−PROセンシングソリューションズ株式会社 カメラ設置支援システム、カメラ設置支援方法およびカメラ設置支援プログラム
CN110809138B (zh) * 2019-11-19 2021-07-30 北京国保金泰信息安全技术有限公司信息安全技术研究中心 一种基于无反馈光的视频单向传输系统
WO2021171563A1 (ja) * 2020-02-28 2021-09-02 日本電気株式会社 課金制御装置、課金方法、及び非一時的なコンピュータ可読媒体
JP2021145164A (ja) * 2020-03-10 2021-09-24 株式会社日立製作所 映像解析システム、及び、映像解析方法
JP7681812B2 (ja) * 2022-12-27 2025-05-22 株式会社 ミックウェア 情報処理装置、ユーザ端末、および情報処理方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006148842A (ja) * 2004-10-20 2006-06-08 Daimei Kk ウェアラブル監視カメラシステム
JP2007072520A (ja) * 2005-09-02 2007-03-22 Sony Corp 映像処理装置
JP2007219713A (ja) * 2006-02-15 2007-08-30 Sony Corp 照会システム、撮像装置、照会装置、情報処理方法、プログラム
JP5175852B2 (ja) * 2007-07-31 2013-04-03 パナソニック株式会社 映像解析装置、映像解析による人物間の評価値算出方法
JP4620150B2 (ja) * 2008-10-23 2011-01-26 株式会社東芝 電子機器および映像処理方法
JP2010252008A (ja) 2009-04-15 2010-11-04 Olympus Imaging Corp 撮影装置、表示装置、再生装置、撮影方法、および表示方法
JPWO2012114727A1 (ja) * 2011-02-24 2014-07-07 パナソニック株式会社 画像処理装置および画像処理方法
US9111147B2 (en) * 2011-11-14 2015-08-18 Massachusetts Institute Of Technology Assisted video surveillance of persons-of-interest
US9253452B2 (en) * 2013-08-14 2016-02-02 Digital Ally, Inc. Computer program, method, and system for managing multiple data recording devices
US10002635B2 (en) * 2015-11-10 2018-06-19 Senworth, Inc. Systems and methods for information capture

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023108992A (ja) * 2022-01-26 2023-08-07 本田技研工業株式会社 情報処理装置、配信制御方法、コンピュータプログラム及び記憶媒体
JP7776340B2 (ja) 2022-01-26 2025-11-26 本田技研工業株式会社 情報処理装置、配信制御方法、コンピュータプログラム及び記憶媒体

Also Published As

Publication number Publication date
JP2018061213A (ja) 2018-04-12
US20180101194A1 (en) 2018-04-12
US10838460B2 (en) 2020-11-17

Similar Documents

Publication Publication Date Title
JP6799779B2 (ja) 監視映像解析システム及び監視映像解析方法
US11375161B2 (en) Wearable camera, wearable camera system, and information processing apparatus for detecting an action in captured video
US10554935B2 (en) Wearable camera system, and video recording control method for wearable camera system
US10939066B2 (en) Wearable camera system and recording control method
US10554829B2 (en) Information processing device, photographing device, image sharing system, and method of information processing
CN102708120A (zh) 生活流式传输
JP2016219964A (ja) ウェアラブルカメラシステム及び録画制御方法
CN110291516A (zh) 信息处理设备、信息处理方法和程序
JP5856700B1 (ja) ウェアラブルカメラシステム及び録画制御方法
JP5861073B1 (ja) ウェアラブルカメラ
WO2016151994A1 (ja) ウェアラブルカメラ及びウェアラブルカメラシステム
US10541006B2 (en) Information processor, information processing method, and program
JP7327792B2 (ja) 画像合成システムおよび画像合成方法
JP5856702B1 (ja) ウェアラブルカメラシステム及び属性情報付与方法
JP5856701B1 (ja) ウェアラブルカメラシステム及び録画制御方法
JP5861075B1 (ja) ウェアラブルカメラ
JP2016122919A (ja) ウェアラブルカメラ

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191003

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200918

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201104

R151 Written notification of patent or utility model registration

Ref document number: 6799779

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151