JP2017060029A - ウェアラブルカメラシステム及び録画制御方法 - Google Patents

ウェアラブルカメラシステム及び録画制御方法 Download PDF

Info

Publication number
JP2017060029A
JP2017060029A JP2015183954A JP2015183954A JP2017060029A JP 2017060029 A JP2017060029 A JP 2017060029A JP 2015183954 A JP2015183954 A JP 2015183954A JP 2015183954 A JP2015183954 A JP 2015183954A JP 2017060029 A JP2017060029 A JP 2017060029A
Authority
JP
Japan
Prior art keywords
wearable camera
recording
data
unit
voice data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015183954A
Other languages
English (en)
Inventor
和哉 鰐口
Kazuya Waniguchi
和哉 鰐口
稔 萩尾
Minoru Hagio
稔 萩尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2015183954A priority Critical patent/JP2017060029A/ja
Priority to US15/261,290 priority patent/US9819896B2/en
Publication of JP2017060029A publication Critical patent/JP2017060029A/ja
Priority to US15/724,096 priority patent/US10165221B2/en
Priority to US16/191,061 priority patent/US10939066B2/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • H04N21/2743Video hosting of uploaded data from client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/654Transmission by server directed to the client
    • H04N21/6543Transmission by server directed to the client for forcing some client operations, e.g. recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/802Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving processing of the sound signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details

Abstract

【課題】事件が発生した際、警察官が主体的に録画の操作をしなくても、ウェアラブルカメラにより撮像された映像の録画を開始して録画漏れを低減し、警察官の業務を効率的に支援する。【解決手段】ウェアラブルカメラ10では、MCU内の検知部は、マイクロホンにより収音された音声の区間を切り出して音声データを生成する。通信部は、生成された音声データをバックエンドサーバ50に送信する。バックエンドサーバ50は、ウェアラブルカメラ10からの音声データを受信する。CPUは、受信した音声データと音声データベースに登録された音声データとを照合する。照合の結果、受信した音声データと登録された音声データとが一致する場合、通信部は、自動録画開始をウェアラブルカメラ10に通知する。ウェアラブルカメラ10は、自動録画開始が通知された場合、撮像部により撮像される映像の録画を開始する。【選択図】図1

Description

本発明は、ウェアラブルカメラにより撮像された映像の録画を制御するウェアラブルカメラシステム及び録画制御方法に関する。
近年、警察官の業務を効率的に支援するために、例えばパトロール時に警察官にウェアラブルカメラを装着又は所持させる運用の検討が進められている。
ウェアラブルカメラを用いた先行技術として、例えば特許文献1に記載されたウェアラブル監視カメラシステムがある。特許文献1のウェアラブル監視カメラシステムは、身体に装着するCCDカメラ及びマイクからの画像(映像)信号及び音声信号、並びに内蔵のクロックからの日時情報信号を、体に装着されるポーチに収納可能なエンコードサーバーによりエンコードし、また、文字情報に変換した日時情報を撮像した画像にスーパーインポーズして記録可能な構成を有している。
特開2006−148842号公報
ここで、特許文献1のウェアラブルカメラを警察官に装着して使用する場合を想定する。警察官が特許文献1のウェアラブルカメラを体に装着して使用する場合、警察官は、不審者や盗難車などの監視対象を発見すると、録画スイッチを押下して、画像データ(画像信号)の録画を開始することが想定される。
ところが、特許文献1の構成では、事件が突発的に発生した場合、警察官は、初期動作又は初期捜査が重要であることに鑑みて、事件に対して様々なことに急いで対応しなければならず、事件の現場においてウェアラブルカメラの録画スイッチを押下する余裕を持てずに映像の録画を失念してしまうと、結果的に、録画漏れしてしまうことがある。つまり、事件に関する現場や被疑者等の証拠映像の録画をウェアラブルカメラに残すことができないために、事件現場の映像が得られないことで、管轄する警察署が事件の発生に対し迅速かつ適切な対応がとれず、事件の早期解決が難しくなるという課題があった。また、証拠映像の録画ができていなければ、後の裁判等において十分な証拠を提示できないがために、大いに支障を来す可能性がある。
本発明は、上述した従来の事情に鑑みて案出され、事件が発生した際、警察官が主体的に録画の操作をしなくても、ウェアラブルカメラにより撮像された映像の録画を開始して録画漏れを低減し、警察官の業務を効率的に支援するウェアラブルカメラシステム及び録画制御方法を提供することを目的としている。
本発明は、警察官の装着又は所持が可能なウェアラブルカメラとサーバとが接続されたウェアラブルカメラシステムであって、前記ウェアラブルカメラは、被写体を撮像する撮像部と、撮像された前記被写体の映像を録画する記録部と、音声を収音するマイクロホンと、前記マイクロホンにより収音された音声の区間を切り出して音声データを生成する検知部と、生成された前記音声データを前記サーバに送信する送信部と、を備え、前記サーバは、パトロール又は事件に関する既定の音声データが登録された蓄積部と、前記ウェアラブルカメラから送信された前記音声データを受信する受信部と、受信された前記音声データと前記蓄積部に登録された前記既定の音声データとを照合する照合部と、照合の結果、受信された前記音声データと登録された前記既定の音声データとが一致する場合に、録画開始指示を前記ウェアラブルカメラに通知する通知部と、を備え、前記ウェアラブルカメラは、前記サーバから通知された前記録画開始指示を受信した場合に、前記撮像部により撮像された前記被写体の映像の録画を開始する、ウェアラブルカメラシステムを提供する。
また、本発明は、警察官の装着又は所持が可能なウェアラブルカメラとサーバとが接続されたウェアラブルカメラシステムにおける録画制御方法であって、前記ウェアラブルカメラは、マイクロホンを有し、被写体を撮像し、前記マイクロホンにより収音された音声の区間を切り出して音声データを生成し、生成された前記音声データを前記サーバに送信し、前記サーバは、パトロール又は事件に関する既定の音声データを蓄積部にて保持し、前記ウェアラブルカメラから送信された前記音声データを受信し、受信された前記音声データと前記蓄積部に登録された前記既定の音声データとを照合し、照合の結果、受信された前記音声データと登録された前記既定の音声データとが一致する場合に、録画開始指示を前記ウェアラブルカメラに通知し、前記ウェアラブルカメラは、前記サーバから通知された前記録画開始指示を受信した場合に、撮像された前記被写体の映像の録画を開始する、録画制御方法を提供する。
本発明によれば、事件が発生した際、警察官が主体的に録画の操作をしなくても、ウェアラブルカメラにより撮像された映像の録画を開始して録画漏れを低減することができ、警察官の業務を効率的に支援することができる。
各実施形態のウェアラブルカメラシステムの概要の一例を示す説明図 各実施形態のウェアラブルカメラを装着した警察官の上半身の一例を示す図 各実施形態のウェアラブルカメラの筐体の表側の面の一例を示す正面図 第1の実施形態のウェアラブルカメラの内部構成の一例を示すブロック図 各実施形態の車載カメラシステムの内部構成の一例を示すブロック図 各実施形態のバックエンドサーバの内部構成の一例を示すブロック図 第1の実施形態のウェアラブルカメラシステムにおける自動録画手順の一例を示すシーケンス図 (A)切出しデータの構成を示す図、(B)通知後の録画データの構成を示す図 第2の実施形態のウェアラブルカメラの内部構成の一例を示すブロック図 第2の実施形態のウェアラブルカメラシステムにおける自動録画手順の一例を示すシーケンス図 (A)変形例1における自動録画を説明する図、(B)変形例2における自動録画を説明する図
以下、適宜図面を参照しながら、本発明に係るウェアラブルカメラシステム及び録画制御方法を具体的に開示した各実施形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、添付図面及び以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。
(第1の実施形態)
図1は、各実施形態のウェアラブルカメラシステム5の概要の一例を示す図である。ウェアラブルカメラシステム5は、パトカー(つまり、パトロールカーの略称であるパトカー)7に搭載された車載カメラシステム(ICV:In Car Videoシステム)30、警察官3の制服に装着されたウェアラブルカメラ10、及び警察署4内に設置された署内システム8を含む構成である。
車載カメラシステム30は、1つ又は複数の車載カメラ31、車載PC(Personal Computer)32及び車載レコーダ33を有し、パトカー7で走行中に遭遇する事件等の撮像画像に基づく映像を撮像して記録する。1つ又は複数の車載カメラ31は、例えばパトカー7の前方を撮像するように設置されたカメラ、パトカーの左側、右側、後方を撮像するように設置されたそれぞれのカメラのうち、1つ又は複数を含む。車載PC32は、警察官3が操作する指示に従い、車載カメラ31及び車載レコーダ33の動作を制御する。車載レコーダ33は、複数の車載カメラ31でそれぞれ撮像された映像データを時系列に記録する。
車載カメラシステム30は、署内システム8内のバックエンドサーバ(BES:Back Endサーバ)50と無線接続され、車載レコーダ33に記録された映像データの中から特定の映像データを選択してバックエンドサーバ50に送信可能である。また、車載カメラシステム30は、ウェアラブルカメラ10と通信可能に接続され、ウェアラブルカメラ10で撮像された映像データ及び収音された音声データを車載レコーダ33に記録する。以下の説明において、音声データには、例えばパトロール中や事件の現場に事件の被疑者、犯人が所持している拳銃が発砲した時の銃声も含まれるとする。
ウェアラブルカメラ10は、警察官3の制服に装着され、警察官の前方を被写体として撮像し、撮像された映像データ及び収音された音声データを車載カメラシステム30に送信する。以下、ウェアラブルカメラ10や車載カメラ31の撮像対象となる被写体には、単に人物だけではなく、事件の現場の情景、現場の近くに群がる群衆(いわゆる、野次馬)、更に、撮像位置の周囲の雰囲気も含まれるとする。また、警察官3は、ウェアラブルカメラ10と通信可能なスマートフォン40を所持する。スマートフォン40は、電話機能及び無線通信機能を有し、例えば警察署からの緊急連絡又は警察署への緊急連絡時に使用され、汎用的に使用されている携帯端末の一例として挙げられる。ウェアラブルカメラ10は、車載カメラシステム30を介して、直接に、或いはスマートフォン40を介してバックエンドサーバ50と接続されることで、映像データ及び音声データをバックエンドサーバ50に送信可能である。また、ウェアラブルカメラ10は、手動で後述する集合充電台68に取り付けられることで、映像データ及び音声データをバックエンドサーバ50に送信可能である。
署内システム8は、警察署4の内部に設置された、バックエンドサーバ50、ストリーミングプロキシサーバ(SPS:Streaming Proxyサーバ)65、クライアントPC70、無線LANアクセスポイント63、集合充電台68、及び指令システム90を含む構成である。
バックエンドサーバ50は、事件の証拠映像を管理する。バックエンドサーバ50は、例えばウェアラブルカメラ10や車載カメラ31により撮像された映像を構成する画像フレーム中の顔を認識する顔認識機能や、ウェアラブルカメラ10や車載カメラシステム30から送信された切出しデータ(後述参照)に含まれる音声データを認識する音声認識機能を有する。また、バックエンドサーバ50は、パトロール又は事件に関する既定の音声データ(つまり、パトロール中や事件の現場において発生する可能性の高い音声の音声データ)が登録された蓄積部の一例としての音声データベース58z(図6参照)を有する。パトロール又は事件に関する既定の音声データは、例えば被疑者や警察官が発砲した時の銃声、パトロールや事件の際に身の危険を感じた時に発するように予め指導等された警察官が発した音声、警察官が地面等に倒れた時の音(例えば「ドサッ」)等の音声データが含まれる。バックエンドサーバ50は、車載カメラシステム30或いはウェアラブルカメラ10から送信される切出しデータ(後述参照)に含まれる音声データに対して音声認識を行い、音声認識により得られた音声と音声データベース58zに登録された音声とを照合する。なお、音声データベース58zを記憶するストレージ58は、バックエンドサーバ50がアクセス可能である限り、警察署4の内部に設置されてもよいし、警察署4の外部に設置されてよい。
ストリーミングプロキシサーバ65は、ウェアラブルカメラ10からストリーミング配信される映像データを受信し、バックエンドサーバ50に転送する。また、ストリーミングプロキシサーバ65は、車載カメラシステム30からストリーミング配信される映像データを受信し、バックエンドサーバ50に転送してもよい。
クライアントPC70は、バックエンドサーバ50の不審人物データベース(不図示)にアクセスし、犯罪者等の事件に関する情報を検索してその検索結果をディスプレイデバイス(例えばクライアントPC70に予め備え付けのLCD(Liquid Crystal Display))上に表示可能なブラウザを有する。不審人物データベースには、例えば指名手配中の人物や過去の犯罪者等が事件を識別する情報(例えば事件番号)に対応付けて予め登録されている。また、クライアントPC70は、バックエンドサーバ50の音声データベース58zにアクセスし、犯罪者等の事件に関する情報を検索可能である。なお、クライアントPC70は、警察署4の内部に設置されるだけでなく、警察署4の外部に設置されたものでもよい。また、クライアントPC70は、シンクライアントPC或いはリッチクライアントPCのいずれであってもよい。
無線LANアクセスポイント63は、車載カメラシステム30及びウェアラブルカメラ10と無線接続し、車載カメラシステム30に記録された映像データ及び音声データと、ウェアラブルカメラ10に記録された映像データ及び音声データをバックエンドサーバ50に転送する。
集合充電台68は、複数の警察官3がそれぞれ装着又は所持するウェアラブルカメラ10を装着可能であり、装着された個々のウェアラブルカメラ10の電源を充電するとともに、ウェアラブルカメラ10との間で有線通信を行い、ウェアラブルカメラ10に記憶された映像データ及び音声データをバックエンドサーバ50に送信する機能を有する。また、集合充電台68は、USB(Universal Serial Bus)ケーブルを介してバックエンドサーバ50に有線接続される。
指令システム90は、バックエンドサーバ50と接続され、事件が発生した場合に、例えばバックエンドサーバ50からの指示に従い、事件の現場への派遣対象となる警察官が乗車するパトカーに対し、現場急行や、現場確保、被疑者確保、現場に到着した警察官の応援等の各種の出動指令を無線で送信する。なお、指令システム90は、警察官が入力操作する指示に従い、事件の現場に派遣する警察官に指令を出してもよい。また、指令システム90は、バックエンドサーバ50と直接に接続されていなくてもよく、事件が発生した場合に、バックエンドサーバ50とは独立して、事件の現場への派遣対象となる警察官が乗車するパトカーに対し、上記各種の出動指令を無線で送信してもよい。
ウェアラブルカメラシステム5では、ウェアラブルカメラ10は、近距離無線通信やUSB等の信号ケーブルを用いて、車載カメラシステム30とデータ転送可能に接続される。ウェアラブルカメラ10で撮像された映像データ及び収音された音声データは、車載カメラシステム30に転送され、車載カメラシステム30で再生或いは録画、録音され、また、バックエンドサーバ50に送信される。
車載カメラシステム30は、車載カメラ31で撮像された映像データ及びウェアラブルカメラ10で撮像された映像データ及び音声データを車載レコーダ33に記録し、ウェアラブルカメラ10により収音された音声の区間を切り出し、切り出された音声を含む切出しデータを、無線LAN(Local Area Network)を経由してバックエンドサーバ50に送信する。
同様に、ウェアラブルカメラ10は、収音された音声の区間を切り出し、切り出された音声を含む切出しデータを、無線LANを経由してバックエンドサーバ50に直接に送信可能である。音声区間の切り出しは、突発的に大音量の音声が現れた場合、その音声を含むように行われる。なお、音声区間の切り出しは、一定の周期で一定区間サンプリングするように行われてもよい。この場合、突発的な音声が現れていない区間では、周囲の小さな音量の音声だけが切り出される。
また、警察官3は、警察署4に戻り、集合充電台68にウェアラブルカメラ10を装着することで、集合充電台68は、ウェアラブルカメラ10を充電するとともに、USBケーブルを介してウェアラブルカメラ10に記録された切出しデータをバックエンドサーバ50に送信可能である。
バックエンドサーバ50は、車載カメラシステム30及びウェアラブルカメラ10から切出しデータを受信すると、切出しデータに含まれる音声を認識し、パトロール又は事件に関する既定の音声データが予め登録された音声データベース58zに登録された音声との照合を行い、照合の結果を、車載カメラシステム30及びウェアラブルカメラ10に通知する。
また、警察官3がクライアントPC70を操作してバックエンドサーバ50に対し事件に関連する音声を探索する等の処理を要求すると、バックエンドサーバ50は、クライアントPC70からの要求に応じ、音声データベース58zに登録された音声の照会等を行う。
図2は、各実施形態のウェアラブルカメラ10を装着した警察官3の上半身の一例を示す図である。ウェアラブルカメラ10は、警察官3の前方を撮像可能なように、警察官3の制服の前部に置かれる。例えばウェアラブルカメラ10は、首から紐で吊り下げた状態で制服の前部に固定されてもよいし、ウェアラブルカメラ10の筐体10z(図3参照)の背面に取り付けられた取付具(例えば取付用クリップ)と制服の前部に取り付けられた被取付具とが係合することで制服の前部に固定されてもよい。
図3は、各実施形態のウェアラブルカメラ10の筐体10zの表側の面の一例を示す正面図である。筐体10zの表側の面には、録画スイッチSW1、スナップショットスイッチSW2及び撮像レンズ11zが配置される。録画スイッチSW1は、短押しされることで録画の開始を指示し、長押し(例えば3秒間の押し状態が継続された操作)されることで録画の停止を指示する。スナップショットスイッチSW2は、押下される度に、撮像部11により撮像される静止画の記録を指示する。撮像レンズ11zは、ウェアラブルカメラ10により撮像される被写体の光学像を撮像部11(図4参照)の撮像面に結像させる。
筐体10zの側面には、通信モードスイッチSW3及び属性情報付与スイッチSW4が配置される。筐体10zの上面には、3個のLED26a,26b,26cが配置される。LED26aは、ウェアラブルカメラ10の電源オン/オフの状態及びバッテリ25(図4参照)の状態を表示する。LED26bは、ウェアラブルカメラ10の撮像動作の状態を表示する。LED26cは、ウェアラブルカメラ10の通信モードの状態を表示する。
図4は、第1の実施形態のウェアラブルカメラ10の内部構成の一例を示すブロック図である。ウェアラブルカメラ10は、撮像部11と、GPIO12(General Purpose Input/Output)と、RAM(Random Access Memory)13と、ROM(Read Only Memory)14と、記憶部15と、を備える。ウェアラブルカメラ10は、EEPROM(Electrically Erasable Programmable ROM)16と、RTC(Real Time Clock)17と、GPS(Global Positioning System)受信部18と、を備える。ウェアラブルカメラ10は、MCU(Micro Controller Unit)19と、通信部21と、USB(Universal Serial Bus)インターフェース(I/F)22と、コンタクトターミナル23と、電源部24と、バッテリ25と、を備える。
ウェアラブルカメラ10は、録画スイッチSW1と、スナップショットスイッチSW2と、通信モードスイッチSW3及び属性情報付与スイッチSW4と、を備える。
ウェアラブルカメラ10は、3個のLED(Light Emitting Diode)26a,26b,26cと、バイブレータ27と、を備える。
撮像部11は、撮像レンズ11z(図3参照)と、CCD(Charge Coupled Device)型イメージセンサ又はCMOS(Complementary Metal Oxide Semiconductor)型イメージセンサ等による固体撮像素子と、を有する。撮像部11は、撮像により得られた被写体の画像データをMCU19に出力する。
GPIO12は、パラレルインターフェースである。GPIO12には、録画スイッチSW1、スナップショットスイッチSW2、通信モードスイッチSW3、属性情報付与スイッチSW4、LED26a,26b,26c、バイブレータ27、LCD28、音声出力端子の一例としてのイヤホン端子29C、スピーカ29B及び音声収音部の一例としてのマイクロホン29A、ジャイロセンサJLが接続される。GPIO12は、これらの各種電子部品とMCU19との間で信号を入出力する。例えばマイクロホン29Aは、ウェアラブルカメラ10の周囲の音声を収音し、収音された音声の音声データを、GPIO12を介してMCU19に出力する。なお、マイクロホン29Aは、ウェアラブルカメラ10の筐体10zに収容された内蔵マイクであってもよいし、ウェアラブルカメラ10と無線接続されたワイヤレスマイクであってもよい。ワイヤレスマイクの場合、警察官が任意の箇所に取り付けることで、収音性を高めることができる。
RAM13は、例えばMCU19の動作において使用されるワークメモリである。ROM14は、例えばMCU19を制御するためのプログラム及びデータを予め記憶する。
記録部の一例としての記憶部15は、例えばメモリカード等の記憶媒体により構成され、自動録画開始等の指示(つまり、録画開始指示)に基づき、撮像部11で撮像された映像データの記録を開始する。また、記憶部15は、解像度アップ情報等が設定された設定データファイル15zを有する。例えば記憶部15がメモリカードで構成される場合、ウェアラブルカメラ10の筐体10zに挿抜自在に装着される。
EEPROM16は、例えばウェアラブルカメラ10を識別する識別情報(例えばCamera IDとしてのシリアル番号)、及び各種設定情報を記憶する。RTC17は、現在の時刻情報をカウントしてMCU19に出力する。
GPS受信部18は、現在のウェアラブルカメラ10(自装置)の位置情報及び時刻情報をGPS発信機(不図示)から受信し、MCU19に出力する。時刻情報は、ウェアラブルカメラ10のシステム時刻の補正のためにも使用される。システム時刻は、撮像された画像(静止画、動画を含む)の撮像時刻の記録等に利用される。
MCU19は、ウェアラブルカメラ10の制御部としての機能を有し、例えばウェアラブルカメラ10の各部の動作を全体的に統括するための制御処理、ウェアラブルカメラ10の各部との間のデータの入出力処理、データの演算(計算)処理及びデータの記憶処理を行う。MCU19は、ROM14に記憶されたプログラム及びデータに従って動作する。MCU19は、動作時、RAM13を使用し、RTC17より現在の時刻情報を得るとともに、GPS受信部18から現在の位置情報を得る。
MCU19は、アプリケーションプログラムの実行により実現可能な検知部19zを有し、この検知部19zを用いて、マイクロホン29Aにより収音された音声データのうち音声の区間を切り出した音声データを生成する。
送信部及び受信部の一例としての通信部21は、検知部19zで生成された音声データをバックエンドサーバ50に送信するものであり、例えばOSI(Open Systems Interconnection)参照モデルの第1層である物理層において、通信部21とMCU19との接続を規定する。通信部21は、この規定に従って、例えば無線LAN(W−LAN)による無線通信(例えばWi−fi(登録商標))を行う。なお、通信部21は、近距離無線通信(NFC:Near Field Communication)、Bluetooth(登録商標)等の無線通信を行ってもよい。
USBインターフェース22は、シリアルバスであり、例えば車載カメラシステム30、警察署内のクライアントPC70等との接続を可能とする。
コンタクトターミナル23は、クレードル(不図示)又は外付けアダプタ(不図示)等と電気的に接続するための端子であり、USBインターフェース22を介してMCU19に接続され、また、電源部24と接続される。コンタクトターミナル23は、コンタクトターミナル23を介して、バッテリ25を充電し、また、画像データ等を通信可能である。
コンタクトターミナル23には、例えば「充電端子V+」、「CON.DET端子」、「データ端子D−,D+」及び「グランド端子」(いずれも図示省略)が設けられる。CON.DET端子は、電圧及び電圧変化を検出するための端子である。データ端子D−,D+は、例えばUSBコネクタ端子を介して、外部PC等に対してウェアラブルカメラ10で撮像した画像等を転送するための端子である。
コンタクトターミナル23と、クレードル(不図示)又は外付けアダプタ(不図示)のコネクタとが接続されることにより、ウェアラブルカメラ10と外部機器との間でデータ通信が可能となる。
電源部24は、例えばコンタクトターミナル23を介してクレードル又は外付けアダプタより供給される電源電力をバッテリ25に給電して、バッテリ25を充電する。バッテリ25は、例えば充電可能な2次電池により構成され、ウェアラブルカメラ10の各部に電源電力を供給する。
録画スイッチSW1は、例えば警察官3の押下操作による録画(動画の撮像)の開始/停止の操作指示を入力する押しボタンスイッチである。録画スイッチSW1は、例えば奇数回押下されることで録画(動画の撮像)が開始され、偶数回押下されることで録画が終了する。また、連続して2回押下されると、後述するように、録画スイッチSW1は緊急ボタンとして機能する。
スナップショットスイッチSW2は、例えば警察官3の押下操作による静止画の撮像の操作指示を入力する押しボタンスイッチである。スナップショットスイッチSW2は、例えば押下される度に、押下時の静止画の撮像が実行される。
通信モードスイッチSW3は、例えばウェアラブルカメラ10と外部機器との間の通信モードを設定するための操作指示を入力するスライドスイッチである。通信モードは、例えばアクセスポイントモード、ステーションモード、OFFモードを含む。
アクセスポイントモードは、ウェアラブルカメラ10が無線LANのアクセスポイントとして動作し、例えば警察官3が所持するスマートフォン40と無線接続して、ウェアラブルカメラ10とスマートフォン40との間で通信を行うモードである。アクセスポイントモードにおいて、スマートフォン40は、ウェアラブルカメラ10と接続することにより、ウェアラブルカメラ10による現在のライブ画像の表示、録画された画像の再生、撮像された静止画の表示等を行うことができる
ステーションモードは、無線LANを用いて外部機器と接続する場合に、外部機器をアクセスポイントとして通信するモードである。例えばスマートフォン40のテザリング機能を利用し、外部機器としてスマートフォン40を設定してもよい。ステーションモードにおいて、ウェアラブルカメラ10は、各種設定、ウェアラブルカメラ10が保持する録画された画像の転送(アップロード)等を、車載カメラシステム30や警察署4内のクライアントPC70やバックエンドサーバ50に対して行うことができる。
OFFモードは、無線LANの通信動作をオフし、無線LANを未使用とするモードである。
属性情報付与スイッチSW4は、映像データに属性情報を付与するために操作される押しボタンスイッチである。
LED26aは、例えばウェアラブルカメラ10の電源投入状態(オンオフ状態)及びバッテリ25の状態を示す表示部である。LED26bは、例えばウェアラブルカメラ10の撮像動作の状態(録画状態)を示す表示部である。LED26cは、例えばウェアラブルカメラ10の通信モードの状態を示す表示部である。また、3個のLED26a〜26cは、ウェアラブルカメラ10がバックエンドサーバ50から通知データを受信すると、MCU19からの指示に従い、点滅動作を行う。この時、MCU19は、通知データに含まれる、音源に関する情報に応じて、MCU19は、LED26a〜26cの点滅パターンを可変させる。
ジャイロセンサJLは、ウェアラブルカメラ10の角速度(つまり、単位時間あたりの回転角)を検知し、例えばウェアラブルカメラ10を装着又は所持している警察官3が転倒したこと(Man Down)を検知する。ジャイロセンサJLの検知結果はGPIO12を介してMCU19に入力される。ウェアラブルカメラ10は、ジャイロセンサJLを用いることで、ウェアラブルカメラ10を装着又は所持している警察官3の回転に関する挙動(例えば地面に転倒したこと、拳銃で撃たれて地面に倒れたこと、凶器で攻撃されて地面に倒れたこと)を精度良く検知することができる。
MCU19は、録画スイッチSW1、スナップショットスイッチSW2、通信モードスイッチSW3及び属性情報付与スイッチSW4の各スイッチの入力検出を行い、操作があったスイッチ入力に対する処理を行う。
MCU19は、録画スイッチSW1の操作入力を検出した場合、撮像部11における撮像動作の開始又は停止を制御し、撮像部11から得られた画像を、動画像として記憶部15に保存する。
MCU19は、スナップショットスイッチSW2の操作入力を検出した場合、スナップショットスイッチSW2が操作されたときの撮像部11による画像を、静止画像として記憶部15に保存する。
MCU19は、通信モードスイッチSW3の状態を検出し、通信モードスイッチSW3の設定に応じた通信モードによって通信部21を動作させる。
MCU19は、属性情報付与スイッチSW4が押下された場合、撮像部11によって撮像された画像から切り出された顔画像を含む切出しデータに属性情報を付与する。
図5は、各実施形態の車載カメラシステム30の内部構成の一例を示すブロック図である。車載カメラシステム30は、車載カメラ31、車載レコーダ33、及び車載PC32を含む。
車載レコーダ33は、CPU101、通信部102、フラッシュROM104、RAM105、マイコン106、GPS受信部107、GPIO108、ボタン109、LED110、及びストレージ111を含む構成である。
CPU101は、例えば車載レコーダ33の各部の動作を全体的に統括するための制御処理、他の各部との間のデータの入出力処理、データの演算(計算)処理及びデータの記憶処理を行う。CPU101は、フラッシュROM104に記憶されたプログラム及びデータに従って動作する。
通信部102は、無線回線又は有線回線を介して外部装置と無線通信する。無線通信は、例えば無線LAN(Local Area Network)通信、近距離無線通信(NFC)、Bluetooth(登録商標)を含む。無線LAN通信は、例えばWifi(登録商標)のIEEE802.11n規格に従って通信する。CPU101と通信部102との間は、例えばPCI(Peripheral Component InterConnect)又はUSBインターフェースを介して接続される。有線通信は、例えば有線LAN通信を含む。
通信部102は、例えば車載カメラ31及び車載PC32との間で有線通信する。通信部102は、例えばウェアラブルカメラ10、警察署4のクライアントPC70やバックエンドサーバ50との間で、無線通信する。図5では、車載レコーダ33は、通信部102を介して車載カメラ31及び車載PC32に有線接続され、ウェアラブルカメラ10に無線接続されることを例示している。
フラッシュROM104は、例えばCPU101を制御するためのプログラム及びデータを記憶するメモリである。また、フラッシュROM104には、各種設定情報が保持される。
RAM105は、例えばCPU101の動作において使用されるワークメモリである。RAM105は、例えば複数設けられる。
マイコン106は、例えばマイクロコンピュータの一種であり、外部インターフェースに係る各部(例えばGPS受信部107、GPIO108、ボタン109、LED110)と接続され、外部インターフェースに関する制御を行う。マイコン106は、例えばUART(Universal Asynchronous Receiver Transmitter)を介して、CPU101に接続される。
GPS受信部107は、例えば現在の車載レコーダ33の位置情報及び時刻情報をGPS発信機(不図示)から受信して、CPU101に出力する。この時刻情報は、車載レコーダ33のシステム時刻の補正のために使用される。
GPIO108は、例えばパラレルインターフェースであり、GPIO108を介して接続される外部装置(不図示)とMCU19との間で、信号を入出力する。GPIO108には、例えば各種センサ(例えば速度センサ、加速度センサ、扉開閉センサ)が接続される。
ボタン109は、例えば車載カメラ31により撮像された画像の録画を開始又は停止するための録画ボタン、を含む。尚、ボタンの形態に限られず、スイッチ等でもよく、各種状態を切り替えられればよい。
LED110は、例えば車載レコーダ33の電源投入状態(オンオフ状態)、録画の実施状態、車載レコーダ33のLANへの接続状態、車載レコーダ33に接続されたLANの使用状態を、点灯、消灯、点滅等により表示する。
ストレージ111は、例えばSSDやHDD等の記憶装置であり、車載カメラ31により撮像され録画された画像(映像)データを蓄積する。ストレージ111は、ウェアラブルカメラ10により撮像され録画された映像及び収音され録音された音声のデータを蓄積してもよい。また、ストレージ111は、車載カメラ31が音声を収音する場合、車載カメラ31により収音された音声の音声データを蓄積してもよい。ストレージ111は、SATA(Serial ATA)を介して、CPU101に接続される。ストレージ111は、複数設けられてもよい。
車載PC32は、CPU201と、I/O(Input/Output)制御部202と、通信部203と、メモリ204と、入力部205と、表示部206と、スピーカ207と、HDD208と、を含む構成である。
車載PC32は、ウェアラブルカメラ10、車載レコーダ33とそれぞれ通信可能であり、署内システム8のバックエンドサーバ50やクライアントPC70とも通信可能である。
CPU201は、例えば車載PC32の各部の動作を全体的に統括するための制御処理、他の各部との間のデータのI/O制御部202を介した入出力処理、データの演算(計算)処理及びデータの記憶処理を行う。CPU201は、メモリ204に記憶されたプログラム及びデータに従って動作する。
I/O制御部202は、CPU201と車載PC32の各部(例えば通信部203、入力部205、表示部206、スピーカ207、HDD208)との間でデータの入出力に関する制御を行い、CPU201からのデータ及びCPU201へのデータの中継を行う。尚、I/O制御部202は、CPU201と一体的に構成されてもよい。
通信部203は、例えば車載レコーダ33との間、警察官3が装着可能なウェアラブルカメラ10との間、又は署内システム8側との間で、有線又は無線による通信を行う。
メモリ204は、例えばRAM、ROM、不揮発性又は揮発性の半導体メモリを用いて構成され、CPU201の動作時のワークメモリとして機能し、CPU201を動作させるための所定のプログラム及びデータを保存している。
入力部205は、警察官3の入力操作を受け付け、I/O制御部202を介してCPU201に通知するためのUIであり、例えばマウス、キーボード等のポインティングデバイスである。入力部205は、例えば表示部206の画面に対応して配置され、警察官3の指又はスタイラスペンによって操作が可能なタッチパネル又はタッチパッドを用いて構成されても良い。
表示部206は、例えばLCD(Liquid Crystal Display)又は有機EL(Electroluminescence)を用いて構成され、各種情報を表示する。また、表示部206は、例えば警察官3の入力操作に応じて、ウェアラブルカメラ10により撮像(録画)された画像が入力された場合には、CPU201の指示の下で、画像を画面に表示する。
スピーカ207は、例えば警察官3の入力操作に応じて、ウェアラブルカメラ10により撮像(録画)された映像及び収音された音声を含むデータが入力された場合には、CPU201の指示の下で、このデータに含まれる音声を出力する。なお、表示部206及びスピーカ207は、車載PC32とは別々の構成としてもよい。
HDD208は、例えば各種データ、ソフトウェア(ソフトウェアプログラム)を記憶する。具体的には、HDD208は、例えば車載レコーダ33の制御や設定を行うためのソフトウェア、ウェアラブルカメラ10の制御や設定を行うためのソフトウェア、を保存する。また、HDD208は、例えばウェアラブルカメラ10から転送され、ウェアラブルカメラ10により撮像された画像を保存する。
図6は、各実施形態のバックエンドサーバ50の内部構成の一例を示すブロック図である。バックエンドサーバ50は、CPU51、I/O制御部52、通信部53、メモリ54、入力部55、表示部56、スピーカ59、ストレージ制御部57、及びストレージ58を備える。
CPU51は、例えばバックエンドサーバ50の各部の動作を全体的に統括するための制御処理、他の各部との間のデータの入出力処理、データの演算(計算)処理及びデータの記憶処理を行う。CPU51は、メモリ54に記憶されたプログラム及びデータに従って動作する。
CPU51は、アプリケーションプログラムの実行により実現可能な照合部の一例としての認識部51zを有し、音声の照合を行う。認識部51zは、入力された音声データを分析して特徴量を抽出し、抽出された特徴量と音声データベース58zに登録された音声データの特徴量とを照合し、音声データの一致を判定する。なお、音声認識処理は公知技術であるため、認識部51zの処理の詳細については説明を省略する。
I/O制御部52は、CPU51とバックエンドサーバ50の各部(例えば通信部53、入力部55、表示部56、ストレージ制御部57)との間でデータの入出力に関する制御を行い、CPU51からのデータ及びCPU51へのデータの中継を行う。尚、I/O制御部52は、CPU51と一体的に構成されてもよい。
通信部53は、例えば車載レコーダ33、車載PC32、若しくはスマートフォン40との間、警察官3が装着可能なウェアラブルカメラ10との間、又は、クライアントPC70との間で、有線又は無線による通信を行う。
メモリ54は、例えばRAM、ROM、不揮発性又は揮発性の半導体メモリを用いて構成され、CPU51の動作時のワークメモリとして機能し、CPU51を動作させるための所定のプログラム及びデータを保存している。
入力部55は、警察官3や警察署4内の担当者の入力操作を受け付け、I/O制御部52を介してCPU51に通知するためのUIであり、例えばマウス、キーボード等のポインティングデバイスである。入力部55は、例えば表示部56の画面に対応して配置され、警察官3又は担当者の指又はスタイラスペンによって操作が可能なタッチパネル又はタッチパッドを用いて構成されても良い。
表示部56は、例えばLCD又は有機ELを用いて構成され、各種情報を表示する。表示部56は、例えば警察官3又は担当者の入力操作に応じて、ウェアラブルカメラ10により撮像又は録画された映像が入力された場合には、CPU51の指示の下で、この映像を画面に表示する。表示部56は、例えば警察官3又は担当者の入力操作に応じて、車載カメラ31により撮像又は録画された映像が入力された場合には、CPU51の指示の下で、この映像を画面に表示する。
スピーカ59は、例えば警察官3又は担当者の入力操作に応じて、ウェアラブルカメラ10により収音された音声が入力された場合には、CPU51の指示の下で、この音声を出力する。
ストレージ制御部57は、ストレージ58に関する制御を行う。
ストレージ58は、例えばSSDやHDD等の記憶装置であり、ウェアラブルカメラ10や車載カメラ31により撮像されて録画された映像を蓄積する。また、ストレージ58は、画像以外のデータ(例えばウェアラブルカメラ10や車載カメラ31により収音された音声データ)を蓄積してもよい。ストレージ58は、SATA(Serial ATA)を介して、CPU51に接続される。
また、ストレージ58は、音声データベース58zを保持する。蓄積部の一例としての音声データベース58zには、例えばパトロールの最中又は事件の発生時に発せられると想定される既定の音声データ及びこれに対応する通知情報(例えば音源に関する情報等)が登録されている。音声データとして、例えば被疑者又は警察官が拳銃で発砲した時の銃声、衝撃音、パトロールや事件の際に身の危険を感じた時に発するように予め指導等された警察官が発した音声、警察官が倒れた時の音等が登録されている。また、入力した音声には、例えば犯人が発する「手を上げろ」等の音声も含まれてもよい。また、音源に関する情報は、例えば銃声である場合、ピストルの名称や性能等を含む。
上記構成を有するウェアラブルカメラシステム5の動作を示す。ここでは、事件が発生した際、急いでいる、手が離せない等の理由により、警察官3がウェアラブルカメラ10の録画スイッチSW1を押下することができない場合を想定し、自動で録画を開始する動作について説明する。
図7は、第1の実施形態のウェアラブルカメラシステム5における自動録画手順の一例を示すシーケンス図である。ここで、パトロール中の警察官3を警察官Aとし、派遣指令を受けて現場に駆け付けた警察官3を警察官Bとし、新たに派遣指令を受けた警察官3を警察官Cとして、区別する。
ウェアラブルカメラ10を装着又は所持している警察官Aがパトカー7から下車して、周辺の地域をパトロール中、ウェアラブルカメラ10は周囲を撮像し、かつ、音声を収音し続ける。MCU19内の検知部19zは、マイクロホン29Aで収音された音声を検知すると、検知された音声の区間を切り出して音声データを生成する(T1)。
図8(A)は、切出しデータD1の構成を示す図である。切出しデータD1は、検知データfd1及びメタデータmd1を含む。検知データfd1には、例えばマイクロホン29Aの収音により得られた音声信号波形の中で音声の区間が切り出された音声データが含まれる。メタデータmd1には、GPS受信部18で得られた位置情報(GPS情報)が含まれる。なお、メタデータmd1には、RTC17で計時された現在日時情報等が含まれてもよい。
MCU19は、通信部21を介して切出しデータをバックエンドサーバ50に送信する(T2)。
バックエンドサーバ50では、通信部53は、ウェアラブルカメラ10から送信される切出しデータを受信する。CPU51は、認識部51zにより切出しデータに含まれる音声データから音声(例えば銃声)を認識する(T3)。CPU51は、認識された音声を基に、ストレージ58に記憶された音声データベース58zを検索し、認識された音声が音声データベース58zに登録されている音声(銃声)に該当するか否かを判別する(T4)。ここでは、該当する音声として、銃声を一例として挙げたが、入力した音声や警察官が倒れた時の音や、衝撃音、爆発音等であってもよい。
認識された音声が音声データベース58zに登録されている音声に該当する場合、CPU51は、これを録画開始のトリガとし、通知部の一例としての通信部53を介して、ウェアラブルカメラ10に自動録画開始(つまり、録画開始指示)を通知する(T5)。この通知には、通知情報が含まれる。通知情報は、上記録画開始指示の他に、例えば銃声、爆発音等の音源に関する情報(音源の名称や性能等)を含む。
ウェアラブルカメラ10は、通信部21を介して、バックエンドサーバ50から自動録画開始の通知データを受け取ると、MCU19は、通知後の処理として、自動録画を開始する(T6)。撮像部11は、ウェアラブルカメラ10の電源がON状態である間、常に映像を撮像している。MCU19は、自動録画を開始すると、撮像部11で撮像された映像を記憶部15に記憶する。
なお、MCU19は、通知データを受信すると、撮像部11によって撮像される映像の映像データを、ストリーミングプロキシサーバ65を介してバックエンドサーバ50に送信するストリーミング配信を開始してもよい。バックエンドサーバ50は、ウェアラブルカメラ10で撮像される映像を表示部56の画面にリアルタイムに表示可能である。
また、手順T4において、例えば複数の銃声が認識された場合、銃声に加え爆発音が認識された場合、警察官が倒れた音が認識された場合等、緊急性が高いと判断される場合、ウェアラブルカメラシステム5は、前述した手順T5、T6の動作を行う他、次のような動作を行う。
バックエンドサーバ50は、警察署4内の警察官3の指示に従い、応援者の派遣を決定する(T7)。バックエンドサーバ50は、ウェアラブルカメラ10から送られたメタデータに含まれる位置情報を基に、指令システム90に派遣を依頼する(T8)。指令システム90は、バックエンドサーバ50から派遣依頼を受けると、警察官Cに派遣を指示する(T9)。警察官Cは、この派遣指示を受けると、現場に急行する。
また、バックエンドサーバ50は、現場周辺の映像を取得するために、周囲にあるウェアラブルカメラ10の自動録画を決定し(T10)、現場に近くにいる警察官Bが所持するウェアラブルカメラ10に自動録画通知を行う(T11)。警察官Bの制服に装着されているウェアラブルカメラ10は、この通知を受けると、MCU19は、撮像部11で撮像される映像及びマイクロホン29Aで収音される音声を記憶部15に記録する動作を開始する(T12)。図8(B)は、通知後の録画データD2の構成を示す図である。通知後の録画データD2は、映像データfd2と、この映像データfd2に対応するメタデータmd2とを含む。メタデータmd2には、GPS位置情報、及び通知情報(音源に関する情報等)が含まれる。
また、ウェアラブルカメラ10は、録画を、通知データを受け取る所定時間(例えば10分)前から行っている。つまり、ウェアラブルカメラ10により撮像された映像は、所定時間分RAM13のバッファメモリに繰り返し上書きされるように記録される。ウェアラブルカメラ10は、バックエンドサーバ50から送信された通知データを受け取ると、上記バッファメモリに記憶されていた所定時間前からの映像データを、通知後の録画データの冒頭部分として使用する。これにより、ウェアラブルカメラ10は、銃声が発せられる前後の映像を確実に記録することができ、誰が発砲したのか等、証拠映像としての価値が高まる。この所定時間は、警察官3の操作により任意に設定される時間である。
また、手順T4において、認識された音声が音声データベース58zに登録されている音声に該当しなかった場合、ウェアラブルカメラ10は、何も対応しない(T13)。
以上により、第1の実施形態のウェアラブルカメラシステム5では、ウェアラブルカメラ10のMCU19内の検知部19zは、マイクロホン29Aにより収音された音声の区間を切り出して音声データを生成する。通信部21は、生成された音声データをバックエンドサーバ50に送信する。バックエンドサーバ50は、ウェアラブルカメラ10からの音声データを受信する。CPU51は、受信した音声データと音声データベース58zに登録された音声データとを照合する。照合の結果、受信した音声データと登録された音声データとが一致する場合、通信部53は、自動録画開始をウェアラブルカメラ10に通知する。ウェアラブルカメラ10は、自動録画開始が通知された場合、撮像部11により撮像される映像の録画を開始する。
これにより、ウェアラブルカメラシステム5は、事件が発生した際、警察官が操作しなくても、ウェアラブルカメラ10により撮像された映像の録画を開始できる。従って、警察官は、発生した事件に急ぎ対応しなければならず、ウェアラブルカメラ10の録画スイッチを押下する余裕を持てなかったり、突然のことで操作し忘れることがあっても、事件の現場を撮像した映像を得ることができ、録画漏れを低減できる。従って、ウェアラブルカメラシステム5は、事件現場の映像が得られることで、管轄する警察署が事件の発生に対し迅速かつ適切な対応がとれ、警察官の業務を効率的に支援できる。更には、証拠映像として事件現場の映像が残ることで、事件の解決や裁判等において、円滑な運用が期待される。
また、ウェアラブルカメラ10のマイクロホン29Aによって収音された音声は銃声であるので、発砲事件があった現場の映像を録画できる。
(第2の実施形態)
第1の実施形態では、ウェアラブルカメラが常にネットワークを介して警察署のバックエンドサーバに接続されている場合を示したが、第2の実施形態では、通常、ウェアラブルカメラがネットワークに接続されていない場合を示す。この場合、外にいる警察官と警察署内の警察官とは、無線電波を使って通話を行う。
また、第2の実施形態のウェアラブルカメラシステムは第1の実施形態とほぼ同一の構成を有する。第1の実施形態と同一の構成要素については同一の符号を用いることで、その説明を省略する。
図9は、第2の実施形態のウェアラブルカメラ10Aの内部構成の一例を示すブロック図である。ウェアラブルカメラ10Aでは、記憶部15は、第1の実施形態の音声データベース58zと同様、パトロール又は事件に関する既定の音声データが登録された音声データベース15yを有する。第1の実施形態と同様に、既定の音声データには、銃声、入力した音声、警察官が倒れた時の音(例えば「ドサッ」)等の音声データが含まれる。
また、MCU19は、アプリケーションプログラムの実行により実現可能な認識部19yを有し、検知部19zで生成された音声データを元に、音声の照合を行う。認識部19yは、入力された音声データを分析してその特徴量を抽出し、抽出された特徴量と音声データベース15yに登録された音声データの特徴量とを照合し、音声データの一致を判定する。
また、MCU19は、アプリケーションプログラムの実行により実現可能な認証部19xを有し、警察官3を認証する。認証部19xは、予めウェアラブルカメラ10を所持する警察官3の認証データを記憶部15に登録しておき、入力データと認証データとが一致する場合、警察官3に対し、ウェアラブルカメラ10の使用を許可する。一方、入力データと認証データが不一致である場合、認証部19xは、警察官3に対し、ウェアラブルカメラ10の使用を不許可にする。
認証データとして、例えば警察官3の識別コードが挙げられ、ウェアラブルカメラ10にログインする際、本人認証が行われる。また、警察官3の虹彩データ、入力音声データ、顔画像データ、又はこれらのデータの組み合わせ等を認証データとして用いてもよく、ログインする際、本人認証が行われる。警察官の認証が行われると、警察官とウェアラブルカメラとがリンクされる。従って、他の人がウェアラブルカメラを使用しようとしても使用不可である。このように、ウェアラブルカメラ単体で警察官を簡易に認証できるので、利便性が向上する。
図10は、第2の実施形態のウェアラブルカメラシステム5における自動録画手順の一例を示すシーケンス図である。警察官Aがパトカー7から下車して、周辺の地域をパトロール中、ウェアラブルカメラ10は周囲を撮像し、かつ、音声を収音し続ける。MCU19内の検知部19zは、マイクロホン29Aで収音された音声を検知すると、音声の区間を切り出して音声データを生成する。更に、MCU19内の認識部19yは、生成された音声データから音声(例えば銃声)を認識する(T21)。
MCU19は、認識された音声を元に、音声データベース15yを検索し、認識された音声が音声データベース15yに登録されている音声(銃声)に該当するか否かを判別する。ここでは、該当する音声として、銃声を一例として挙げたが、入力した音声や警察官が倒れた時の音や爆発音等であってもよい。
認識された音声が音声データベース58zに登録されている音声に該当する場合、MCU19は、ウェアラブルカメラ10の自動録画を開始する(T22)。また、自動録画が開始されると、MCU19は、通信部21を介して無線ネットワークに接続し、バックエンドサーバ50と無線通信可能になる。無線ネットワークへの接続方法は、前記第1の実施形態と同様である。一方、認識された音声が音声データベース15yに登録されている音声に該当しない場合、MCU19は、何もしない。
録画中、MCU19は、マイクロホン29Aにより音声が収音され、検知部19zにより音声データが生成されると(T23)、MCU19は、通信部21を介してこの音声データをバックエンドサーバ50に送信する(T24)。なお、緊急の場合、音声データを送信する代わりに、緊急ボタンを押下して緊急情報を送信し、緊急であることを明確に伝えてもよい。緊急ボタンは、別のボタンとしてウェアラブルカメラの筐体に配置されてもよいが、ここでは、録画スイッチSW1を連続して2回押下することで実現される。
CPU51は、受信した音声データを元に、ストレージ58に記憶された音声データベース58zを検索し、認識された音声が音声データベース58zに登録されている緊急事態の音声に該当するか否かを判別する(T25)。ここでは、緊急事態の音声として、銃声を一例として挙げたが、入力した音声や警察官が倒れた時の音や爆発音等であってもよいし、更に緊急性が高いと判断される、複数の銃声や銃声に重なる爆発音等であってもよい。なお、緊急ボタンが押下された場合、CPU51は必ず緊急事態が発生したと判断する。
認識された音声が音声データベース58zに登録されている音声に該当する場合、CPU51は、通知部の一例としての通信部53を介して、ウェアラブルカメラ10に自動ストリーミング開始を通知する(T26)。
ウェアラブルカメラ10は、通信部21を介して、バックエンドサーバ50から自動ストリーミング開始の通知データを受け取ると、MCU19は、通知後の処理として、自動ストリーミング配信を開始する(T27)。ここでは、MCU19は、撮像部11によって撮像される映像の映像データを記憶部15に録画しながら、ストリーミングプロキシサーバ65を介してバックエンドサーバ50に映像データをストリーミング配信する。これにより、バックエンドサーバ50は、ウェアラブルカメラ10で撮像される映像を表示部56の画面にリアルタイムに表示可能である。
手順T25において、例えば複数の銃声が認識された場合、銃声に重なる爆発音が認識された場合、銃声の後に警察官が倒れた音が認識された場合等、緊急性が高く緊急事態であると判断される場合、ウェアラブルカメラシステム5は、前述した手順T26、T27の動作を行う他、前記第1の実施形態と同様、次のような動作を行う。
バックエンドサーバ50は、警察署4内の警察官3の指示に従い、応援者の派遣を決定する(T28)。バックエンドサーバ50は、ウェアラブルカメラ10から送られたメタデータに含まれる位置情報を元に、指令システム90に派遣を依頼する(T29)。指令システム90は、バックエンドサーバ50から派遣依頼を受けると、警察官Cに派遣を指示する(T20)。警察官Cは、この派遣指示を受けると、現場に急行する。
また、バックエンドサーバ50は、現場周辺の映像を取得するために、周囲にあるウェアラブルカメラ10の自動録画を決定し(T31)、現場に近くにいる警察官Bが所持するウェアラブルカメラ10に自動録画通知を行う(T32)。警察官Bの制服に装着されているウェアラブルカメラ10は、この通知を受けると、MCU19は、撮像部11で撮像される映像及びマイクロホン29Aで収音される音声を記憶部15に記録する動作を開始する(T33)。
また、手順T25において、認識された音声が音声データベース58zに登録されている音声に該当しなかった場合、ウェアラブルカメラ10Aは、何も対応しない(T34)。
以上により、第2の実施形態のウェアラブルカメラシステム5では、音声データベース58zは、既定の音声データとして、緊急時に発せられる音声の音声データを登録する。バックエンドサーバ50は、ウェアラブルカメラ10から受信した音声データと登録された音声データとが一致する場合、ウェアラブルカメラ10に対し撮像部11により撮像される映像のストリーミング配信を指示する。ウェアラブルカメラ10は、バックエンドサーバ50からの指示に従い、撮像部11により撮像される映像のストリーミング配信を開始する。
これにより、ウェアラブルカメラシステム5は、例えば緊急性の高い音声が発せられた場合、警察署内の警察官は、ウェアラブルカメラにより撮像される映像を見ることで、事件現場の状況を把握することができ、適切な対応をとることが可能である。
また、ウェアラブルカメラ10は、緊急時に操作される緊急ボタンとして、録画スイッチSW1が連続して2回押下された場合、緊急情報をバックエンドサーバ50に送信する。バックエンドサーバ50は、ウェアラブルカメラ10から緊急情報を受信すると、ウェアラブルカメラ10に対し撮像部11により撮像される映像のストリーミング配信を指示する。ウェアラブルカメラ10は、バックエンドサーバ50からの指示に従い、撮像部11により撮像される映像の配信を開始する。
これにより、緊急であることを明確に伝えることができる。また、警察官が自ら緊急ボタンを押下することで、警察官の意思を反映させることができる。また、警察署内の警察官はウェアラブルカメラにより撮像される映像を見ることで、事件現場の状況を把握することができ、適切な対応をとることが可能である。
(第1の実施形態の変形例1)
第1の実施形態では、バックエンドサーバ50がウェアラブルカメラ10に対し、自動録画開始を通知し、ウェアラブルカメラ10がこの通知データを受け取ると、自動録画を開始していたが、第1の実施形態の変形例1(以下、変形例1という)では、指令システム90が、ウェアラブルカメラ10に自動録画開始を通知する。
図11(A)は、変形例1における自動録画を説明する図である。ウェアラブルカメラ10は、モバイル回線に接続され、指令システム90に対しモバイル通信可能である。指令システム90は、モバイル通信を介してウェアラブルカメラ10のGPS情報を受信する。指令システム90は、GPS情報を元に、周囲で重大事件が発生した場合、このウェアラブルカメラ10に自動録画開始を通知する(T41)。また、指令システム90は、重大事故が発生したことの通報があった場合、重要犯罪者の顔が認識された場合等においても、ウェアラブルカメラ10に自動録画開始を通知する。ウェアラブルカメラ10は、自動録画開始の通知を受けると、自動録画を開始する(T42)。
なお、バックエンドサーバ50がウェアラブルカメラ10から緊急情報を受信し、この緊急情報を指令システム90に通知すると、指令システム90がウェアラブルカメラ10に対し自動録画開始を通知するようにしてもよい。
(第1の実施形態の変形例2)
第1の実施形態の変形例2(以下、変形例2という)では、指令システム90が、車載PC、警察官が所持するタブレットやスマートフォン(以下、携帯端末という)を介して、ウェアラブルカメラ10に自動録画開始を通知する場合を示す。なお、指令システム90は、上記タブレットやスマートフォンの様な携帯端末以外に、車載カメラシステム30の車載PC32に自動録画開始を通知してもよい。この場合、車載PC32は、自動録画開始をウェアラブルカメラ10に指示することができる。
図11(B)は、変形例2における自動録画を説明する図である。ウェアラブルカメラ10は携帯端末と通信可能である。この通信は、USBケーブル、Bluetooth(登録商標)、近距離無線通信等により行われる。
指令システム90は、緊急通報用電話(110番)があった場合、周囲の警察官を現場に急行させる指示を決定し(T51)、携帯端末に現場への急行を指示する(T52)。携帯端末は、指令システム90から現場急行の指示があった場合、ウェアラブルカメラ10に自動録画開始を通知する(T53)。なお、携帯端末は、重大事故が発生したことの通報があった場合、重要犯罪者の顔が認識された場合等においても、ウェアラブルカメラ10に自動録画開始を通知する。ウェアラブルカメラ10は、自動録画開始の通知を受けると、自動録画を開始する(T54)。
変形例2では、ウェアラブルカメラ10は、携帯端末と接続されるので、モバイル回線に接続されなくてもよい。従って、モバイル回線に常時接続される変形例1の場合と比べ、変形例2のウェアラブルカメラは、電池の消耗を減らすことができ、長時間使用可能である。
なお、バックエンドサーバ50がウェアラブルカメラ10から緊急情報を受信し、この緊急情報を指令システム90に通知すると、指令システム90が携帯端末を介してウェアラブルカメラ10に自動録画開始を通知するようにしてもよい。
以上、図面を参照しながら各種の実施形態について説明したが、本発明はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
例えば上記実施形態では、ウェアラブルカメラが規定の音声を収音した時に自動録画を開始する場合を示したが、自動録画はマイクロホンにより収音される音声が規定の音声に該当する場合の他でも、開始されてもよい。例えば警察官がパトカー7に搭乗し、充電ケーブルを介してウェアラブルカメラの充電中、火事や傷害等の事件の発生に遭遇し、警察官がウェアラブルカメラを持って勢いよく車外に出た場合、つまり、取り外し操作されることなく充電ケーブルがウェアラブルカメラから外れた場合、この充電ケーブルの外れをトリガとしてウェアラブルカメラの自動録画が開始されてもよい。緊急の場合、警察官がウェアラブルカメラを持って出るだけで録画が開始されるので、速やかな対応が可能となる。
また、上記実施形態では、音声データの照合方法の一例として、ウェアラブルカメラ10から送信された切出しデータに含まれる音声データとバックエンドサーバ50の音声データベース58zに登録されている音声データとの照合、つまり音声データの信号波形としての一致(類似も含む)又は不一致を判定する照合方法を説明した。しかし、音声データの照合方法は、音声データの信号波形としての一致(類似も含む)又は不一致を判定する方法に限定されない。バックエンドサーバ50は、例えばウェアラブルカメラ10から送信された切出しデータに含まれる音声データを音声認識してテキストデータに変換し、この変換後のテキストデータと音声データベース58zに登録されている音声データに対応するテキストデータとが一致(類似も含む)又は不一致するか否かを照合してもよい。これにより、バックエンドサーバ50は、ウェアラブルカメラ10から送信された切出しデータに含まれる音声データが音声データベース58zに登録されている音声データと一致するかしないかを、テキストデータを用いることで簡易に判定することができる。
本発明は、事件が発生した際、警察官が主体的に録画の操作をしなくても、ウェアラブルカメラにより撮像された映像の録画を開始して録画漏れを低減し、警察官の業務を効率的に支援するウェアラブルカメラシステム及び録画制御方法として有用である。
3 警察官
4 警察署
5 ウェアラブルカメラシステム
8 署内システム
10,10A ウェアラブルカメラ
10z 筐体
11 撮像部
11z 撮像レンズ
12 GPIO
13 RAM
14 ROM
15 記憶部
15y 音声データベース
15z 設定データファイル
16 EEPROM
17 RTC
18 GPS受信部
19 MCU
19x 認証部
19y 認識部
19z 検知部
21 通信部
22 USBインターフェース
23 コンタクトターミナル
24 電源部
25 バッテリ
26a,26b,26c LED
27 バイブレータ
28 LCD
29A マイクロホン
29B スピーカ
29C イヤホン端子
30 車載カメラシステム
31 車載カメラ
32 車載PC
33 車載レコーダ
40 スマートフォン
50 バックエンドサーバ
51 CPU
51z 認識部
52 I/O制御部
53 通信部
54 メモリ
55 入力部
56 表示部
57 ストレージ制御部
58 ストレージ
58z 音声データベース
65 ストリーミングプロキシサーバ
68 集合充電台
70 クライアントPC
90 指令システム
101 CPU
102 通信部
104 フラッシュROM
105 RAM
106 マイコン
107 GPS受信部
108 GPIO
109 ボタン
110 LED
111 ストレージ
201 CPU
202 I/O制御部
203 通信部
204 メモリ
205 入力部
206 表示部
207 スピーカ
208 HDD
D1 切出しデータ
D2 通知後の録画データ
fd1 検知データ
fd2 映像データ
md1,md2 メタデータ
SW1 録画スイッチ
SW2 スナップショットスイッチ
SW3 通信モードスイッチ
SW4 属性情報付与スイッチ

Claims (5)

  1. 警察官の装着又は所持が可能なウェアラブルカメラとサーバとが接続されたウェアラブルカメラシステムであって、
    前記ウェアラブルカメラは、
    被写体を撮像する撮像部と、
    撮像された前記被写体の映像を録画する記録部と、
    音声を収音するマイクロホンと、
    前記マイクロホンにより収音された音声の区間を切り出して音声データを生成する検知部と、
    生成された前記音声データを前記サーバに送信する送信部と、を備え、
    前記サーバは、
    パトロール又は事件に関する既定の音声データが登録された蓄積部と、
    前記ウェアラブルカメラから送信された前記音声データを受信する受信部と、
    受信された前記音声データと前記蓄積部に登録された前記既定の音声データとを照合する照合部と、
    照合の結果、受信された前記音声データと登録された前記既定の音声データとが一致する場合に、録画開始指示を前記ウェアラブルカメラに通知する通知部と、を備え、
    前記ウェアラブルカメラは、前記サーバから通知された前記録画開始指示を受信した場合に、前記撮像部により撮像された前記被写体の映像の録画を開始する、
    ウェアラブルカメラシステム。
  2. 請求項1に記載のウェアラブルカメラシステムであって、
    前記蓄積部は、前記既定の音声データとして、緊急時に発せられる音声の音声データを登録し、
    前記サーバは、受信された前記音声データと登録された前記緊急時に発せられる音声の音声データとが一致する場合に、映像の配信指示を前記ウェアラブルカメラに送信し、
    前記ウェアラブルカメラは、前記サーバから送信された前記映像の配信指示を基に、前記撮像部により撮像された前記被写体の映像の配信を開始する、
    ウェアラブルカメラシステム。
  3. 請求項1に記載のウェアラブルカメラシステムであって、
    前記ウェアラブルカメラは、緊急時に操作されるボタンを有し、前記ボタンが操作された場合に、緊急情報を前記サーバに送信し、
    前記サーバは、前記ウェアラブルカメラから送信された前記緊急情報を受信すると、映像の配信指示を前記ウェアラブルカメラに送信し、
    前記ウェアラブルカメラは、前記サーバから送信された前記映像の配信指示を基に、前記撮像部により撮像された前記被写体の映像の配信を開始する、
    ウェアラブルカメラシステム。
  4. 請求項1〜3のうちいずれか一項に記載のウェアラブルカメラシステムであって、
    前記マイクロホンにより収音される前記パトロール又は事件に関する音声は、前記パトロール又は事件の現場で発生した銃声である、
    ウェアラブルカメラシステム。
  5. 警察官の装着又は所持が可能なウェアラブルカメラとサーバとが接続されたウェアラブルカメラシステムにおける録画制御方法であって、
    前記ウェアラブルカメラは、マイクロホンを有し、
    被写体を撮像し、
    前記マイクロホンにより収音された音声の区間を切り出して音声データを生成し、
    生成された前記音声データを前記サーバに送信し、
    前記サーバは、
    パトロール又は事件に関する既定の音声データを蓄積部にて保持し、
    前記ウェアラブルカメラから送信された前記音声データを受信し、
    受信された前記音声データと前記蓄積部に登録された前記既定の音声データとを照合し、
    照合の結果、受信された前記音声データと登録された前記既定の音声データとが一致する場合に、録画開始指示を前記ウェアラブルカメラに通知し、
    前記ウェアラブルカメラは、前記サーバから通知された前記録画開始指示を受信した場合に、撮像された前記被写体の映像の録画を開始する、
    録画制御方法。
JP2015183954A 2015-09-17 2015-09-17 ウェアラブルカメラシステム及び録画制御方法 Pending JP2017060029A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015183954A JP2017060029A (ja) 2015-09-17 2015-09-17 ウェアラブルカメラシステム及び録画制御方法
US15/261,290 US9819896B2 (en) 2015-09-17 2016-09-09 Wearable camera system and recording control method
US15/724,096 US10165221B2 (en) 2015-09-17 2017-10-03 Wearable camera system and recording control method
US16/191,061 US10939066B2 (en) 2015-09-17 2018-11-14 Wearable camera system and recording control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015183954A JP2017060029A (ja) 2015-09-17 2015-09-17 ウェアラブルカメラシステム及び録画制御方法

Publications (1)

Publication Number Publication Date
JP2017060029A true JP2017060029A (ja) 2017-03-23

Family

ID=58283614

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015183954A Pending JP2017060029A (ja) 2015-09-17 2015-09-17 ウェアラブルカメラシステム及び録画制御方法

Country Status (2)

Country Link
US (3) US9819896B2 (ja)
JP (1) JP2017060029A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018180852A (ja) * 2017-04-11 2018-11-15 クオリカ株式会社 作業現場で発生した事象に関連するデータを収集するための作業情報システムおよびその方法
JP2020086992A (ja) * 2018-11-27 2020-06-04 パナソニックi−PROセンシングソリューションズ株式会社 警備システム、及び、警備方法

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017060029A (ja) 2015-09-17 2017-03-23 パナソニックIpマネジメント株式会社 ウェアラブルカメラシステム及び録画制御方法
EP3398301B1 (en) * 2015-12-31 2021-02-03 Axon Enterprise, Inc. Systems and methods for filtering messages
US10165171B2 (en) * 2016-01-22 2018-12-25 Coban Technologies, Inc. Systems, apparatuses, and methods for controlling audiovisual apparatuses
US10789840B2 (en) 2016-05-09 2020-09-29 Coban Technologies, Inc. Systems, apparatuses and methods for detecting driving behavior and triggering actions based on detected driving behavior
US10370102B2 (en) 2016-05-09 2019-08-06 Coban Technologies, Inc. Systems, apparatuses and methods for unmanned aerial vehicle
US10152858B2 (en) 2016-05-09 2018-12-11 Coban Technologies, Inc. Systems, apparatuses and methods for triggering actions based on data capture and characterization
JP2018098571A (ja) * 2016-12-09 2018-06-21 パナソニックIpマネジメント株式会社 ウェアラブルカメラ
US10459534B2 (en) * 2017-07-14 2019-10-29 Thirdeye Gen, Inc. System and method for large data augmented reality applications on smartglasses
US20190253748A1 (en) * 2017-08-14 2019-08-15 Stephen P. Forte System and method of mixing and synchronising content generated by separate devices
GB2582435A (en) * 2019-01-23 2020-09-23 Richard Howe Anthony Voice and/or image recording and transmission system
JP7396616B2 (ja) * 2019-06-28 2023-12-12 i-PRO株式会社 アセット管理システムおよびアセット管理方法
KR20220138396A (ko) * 2020-02-05 2022-10-12 라임 인코포레이티드 골프 클럽 스윙 동작 추적 및 분석용 휴대용 장치, 방법 및 시스템
US20230108026A1 (en) * 2021-10-05 2023-04-06 Getac Corporation Emergency situation detection and response based on protective equipment sensor data

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030160862A1 (en) * 2002-02-27 2003-08-28 Charlier Michael L. Apparatus having cooperating wide-angle digital camera system and microphone array
US9412142B2 (en) * 2002-08-23 2016-08-09 Federal Law Enforcement Development Services, Inc. Intelligent observation and identification database system
US20050185936A9 (en) * 2002-11-08 2005-08-25 Ich-Kien Lao Mobile and vehicle-based digital video system
US7174151B2 (en) * 2002-12-23 2007-02-06 Arbitron Inc. Ensuring EAS performance in audio signal encoding
US7983835B2 (en) * 2004-11-03 2011-07-19 Lagassey Paul J Modular intelligent transportation system
US8244542B2 (en) * 2004-07-01 2012-08-14 Emc Corporation Video surveillance
WO2006025461A1 (ja) * 2004-08-31 2006-03-09 Kunihiro Shiina 通話を伴うプッシュ型情報通信システム
JP2006148842A (ja) 2004-10-20 2006-06-08 Daimei Kk ウェアラブル監視カメラシステム
JP2007057844A (ja) * 2005-08-24 2007-03-08 Fujitsu Ltd 音声認識システムおよび音声処理システム
US9135797B2 (en) * 2006-12-28 2015-09-15 International Business Machines Corporation Audio detection using distributed mobile computing
IL201131A (en) * 2009-09-23 2014-08-31 Verint Systems Ltd Location-based multimedia monitoring systems and methods
US8369841B2 (en) * 2010-02-16 2013-02-05 Thaddeus John Kobylarz Invoke facility service and its applications to compound wireless mobile communication services
US8346056B2 (en) * 2010-10-14 2013-01-01 Honeywell International Inc. Graphical bookmarking of video data with user inputs in video surveillance
US8799037B2 (en) * 2010-10-14 2014-08-05 Palto Alto Research Center Incorporated Computer-implemented system and method for managing motor vehicle parking reservations
WO2013049462A1 (en) * 2011-09-30 2013-04-04 Sealed Air Corporation (Us) Non-contact noise attenuation water flow system and method for detecting washing compliance
US20130235245A1 (en) * 2012-03-09 2013-09-12 Research In Motion Corporation Managing two or more displays on device with camera
US8792677B2 (en) * 2012-04-19 2014-07-29 Intelligence Based Integrated Security Systems, Inc. Large venue security method
US9479872B2 (en) * 2012-09-10 2016-10-25 Sony Corporation Audio reproducing method and apparatus
US10229327B2 (en) * 2012-12-10 2019-03-12 Nec Corporation Analysis control system
US8817952B2 (en) * 2012-12-13 2014-08-26 Avaya Inc. Method, apparatus, and system for providing real-time PSAP call analysis
KR101952179B1 (ko) * 2013-03-05 2019-05-22 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
US9171450B2 (en) * 2013-03-08 2015-10-27 Qualcomm Incorporated Emergency handling system using informative alarm sound
US20140269199A1 (en) * 2013-03-14 2014-09-18 Supervene LLC System and method for detecting and responding to indoor shooters
EP2992692B1 (en) * 2013-05-04 2018-08-29 DECHARMS, Christopher Mobile security technology
WO2014183034A1 (en) * 2013-05-10 2014-11-13 Uberfan, Llc Event-related media management system
WO2015061712A1 (en) * 2013-10-24 2015-04-30 Tourmaline Labs, Inc. Systems and methods for collecting and transmitting telematics data from a mobile device
KR102179043B1 (ko) * 2013-11-06 2020-11-16 삼성전자 주식회사 보청기의 특성 변화를 검출하기 위한 장치 및 방법
US9544649B2 (en) * 2013-12-03 2017-01-10 Aniya's Production Company Device and method for capturing video
US9451335B2 (en) * 2014-04-29 2016-09-20 At&T Intellectual Property I, Lp Method and apparatus for augmenting media content
US11184580B2 (en) * 2014-05-22 2021-11-23 Microsoft Technology Licensing, Llc Automatically curating video to fit display time
US9451178B2 (en) * 2014-05-22 2016-09-20 Microsoft Technology Licensing, Llc Automatic insertion of video into a photo story
US20150347079A1 (en) * 2014-05-29 2015-12-03 LifeSaver Int'l Inc Electronic device for determining when an officer is in a foot pursuit, a fight, has been incapacitated, or shots have been fired
US20160042767A1 (en) * 2014-08-08 2016-02-11 Utility Associates, Inc. Integrating data from multiple devices
US10176683B2 (en) * 2014-09-18 2019-01-08 Honeywell International Inc. Virtual panoramic thumbnail to summarize and visualize video content in video surveillance and in connected home business
US20160180658A1 (en) * 2014-12-19 2016-06-23 Symbol Technologies, Inc. Apparatus and method for adaptive notifications
KR102346128B1 (ko) * 2014-12-31 2022-01-03 삼성메디슨 주식회사 초음파 진단 장치, 웨어러블 장치, 그에 따른 초음파 진단 장치 제어방법, 그에 따른 웨어러블 장치 제어방법 및 그를 기록한 기록 매체
US9237307B1 (en) * 2015-01-30 2016-01-12 Ringcentral, Inc. System and method for dynamically selecting networked cameras in a video conference
US9730046B2 (en) * 2015-06-30 2017-08-08 International Business Machines Corporation Automatically inferring user signature through contextual learning
US9691244B2 (en) * 2015-08-07 2017-06-27 Ying-Chun Weng Multi-functional self-defensive spraying device
JP2017060029A (ja) 2015-09-17 2017-03-23 パナソニックIpマネジメント株式会社 ウェアラブルカメラシステム及び録画制御方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018180852A (ja) * 2017-04-11 2018-11-15 クオリカ株式会社 作業現場で発生した事象に関連するデータを収集するための作業情報システムおよびその方法
JP2020086992A (ja) * 2018-11-27 2020-06-04 パナソニックi−PROセンシングソリューションズ株式会社 警備システム、及び、警備方法

Also Published As

Publication number Publication date
US20170085829A1 (en) 2017-03-23
US10165221B2 (en) 2018-12-25
US20180048851A1 (en) 2018-02-15
US20190082137A1 (en) 2019-03-14
US9819896B2 (en) 2017-11-14
US10939066B2 (en) 2021-03-02

Similar Documents

Publication Publication Date Title
US10939066B2 (en) Wearable camera system and recording control method
JP6011833B1 (ja) ウェアラブルカメラシステム及び人物報知方法
US10602097B2 (en) Wearable camera, wearable camera system, and information processing apparatus
US20180063421A1 (en) Wearable camera, wearable camera system, and recording control method
JP2016219964A (ja) ウェアラブルカメラシステム及び録画制御方法
JP6799779B2 (ja) 監視映像解析システム及び監視映像解析方法
JP2017005436A (ja) ウェアラブルカメラシステム及び録画制御方法
JP6115874B2 (ja) ウェアラブルカメラシステム及び録画制御方法
WO2016151994A1 (ja) ウェアラブルカメラ及びウェアラブルカメラシステム
JP5861073B1 (ja) ウェアラブルカメラ
JP2018042229A (ja) ウェアラブルカメラ、ウェアラブルカメラシステム及び録画制御方法
JP5810332B1 (ja) ウェアラブルカメラ
JP5856700B1 (ja) ウェアラブルカメラシステム及び録画制御方法
JP2018037964A (ja) ウェアラブルカメラシステム及び通信制御方法
JP2018037963A (ja) ウェアラブルカメラシステム及び録画制御方法
JP6145780B2 (ja) ウェアラブルカメラシステム及び映像データ転送方法
JP2021027408A (ja) ウェアラブルカメラシステムおよび映像記録方法
JP5861075B1 (ja) ウェアラブルカメラ
JP5856701B1 (ja) ウェアラブルカメラシステム及び録画制御方法
JP5856702B1 (ja) ウェアラブルカメラシステム及び属性情報付与方法
WO2021039978A1 (ja) 画像合成システムおよび画像合成方法
JP2018037965A (ja) ウェアラブルカメラシステム及び通信制御方法
WO2016121314A1 (ja) ウェアラブルカメラシステム及び録画制御方法