JP5849195B1 - Wearable camera system and imaging method - Google Patents

Wearable camera system and imaging method Download PDF

Info

Publication number
JP5849195B1
JP5849195B1 JP2014265962A JP2014265962A JP5849195B1 JP 5849195 B1 JP5849195 B1 JP 5849195B1 JP 2014265962 A JP2014265962 A JP 2014265962A JP 2014265962 A JP2014265962 A JP 2014265962A JP 5849195 B1 JP5849195 B1 JP 5849195B1
Authority
JP
Japan
Prior art keywords
camera
video data
attribute information
wearable
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014265962A
Other languages
Japanese (ja)
Other versions
JP2016127401A (en
Inventor
竜子 田靡
竜子 田靡
康志 横光
康志 横光
治男 田川
治男 田川
和彦 山口
和彦 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2014265962A priority Critical patent/JP5849195B1/en
Priority to US14/936,230 priority patent/US9661283B2/en
Priority to PCT/JP2015/006160 priority patent/WO2016103610A1/en
Application granted granted Critical
Publication of JP5849195B1 publication Critical patent/JP5849195B1/en
Publication of JP2016127401A publication Critical patent/JP2016127401A/en
Priority to US15/466,359 priority patent/US10356369B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

【課題】警察官における現場の状況の的確かつ広範な撮像を支援し、撮像した映像データを取扱う上での利便性を向上させる。【解決手段】ユーザが装着可能な第1カメラ及び第2カメラを含むウェアラブルカメラシステムであって、第1カメラは、第1撮像部と、第1撮像部が撮像した第1映像データ、又は第2カメラが撮像した第2映像データを記憶する記憶部と、第2カメラが送信した第2映像データを受信する受信部と、第1映像データ又は第2映像データに関する属性情報の付与操作を受け付ける入力部と、付与操作に応じて、属性情報を第1映像データ又は第2映像データに付与して記憶部に記憶する制御部と、を備える。第2カメラは、第2撮像部と、第2撮像部が撮像した第2映像データを第1カメラに送信する送信部と、を備える。【選択図】図11[PROBLEMS] To support accurate and wide-ranging imaging of the situation in the field by a police officer, and improve convenience in handling captured video data. A wearable camera system including a first camera and a second camera that can be worn by a user, wherein the first camera includes a first imaging unit and first video data captured by the first imaging unit, or a first camera. A storage unit that stores second video data captured by the two cameras, a receiving unit that receives the second video data transmitted by the second camera, and an operation for assigning attribute information related to the first video data or the second video data are accepted. An input unit; and a control unit that assigns attribute information to the first video data or the second video data and stores the attribute information in the storage unit in accordance with the giving operation. The second camera includes a second imaging unit and a transmission unit that transmits second video data captured by the second imaging unit to the first camera. [Selection] Figure 11

Description

本発明は、例えば人の身体又は着用した衣服、帽子等に装着可能なウェアラブルカメラを用いて撮像するウェアラブルカメラシステム及び撮像方法に関する。   The present invention relates to a wearable camera system and an imaging method for imaging using a wearable camera that can be worn on, for example, a human body, worn clothes, a hat, or the like.

近年、例えば警察官や警備員の業務を支援するために、警察官や警備員の身体、衣服、帽子等に装着されて使用されるウェアラブルカメラの導入が検討されている。   In recent years, for example, in order to support the operations of police officers and guards, the introduction of wearable cameras that are used by being attached to the bodies, clothes, hats, etc. of police officers and guards has been studied.

ここで、ウェアラブルカメラを用いた先行技術として、例えば特許文献1に記載されたウェアラブル監視カメラシステムがある。特許文献1に示すウェアラブル監視カメラシステムは、身体に装着するCCDカメラ手段及びマイク手段からの映像信号及び音声信号、並びに内蔵のクロック手段からの日時情報信号を、体に装着するウエストポーチに収納するエンコードサーバ手段によりエンコードし、更に、文字情報に変換した日時情報を撮像した映像にスーパーインポーズして記録する。   Here, as a prior art using a wearable camera, for example, there is a wearable surveillance camera system described in Patent Document 1. The wearable surveillance camera system disclosed in Patent Document 1 stores video and audio signals from CCD camera means and microphone means worn on the body, and date / time information signals from built-in clock means in a waist pouch attached to the body. The encoding is performed by the encoding server means, and the date / time information converted into character information is superimposed on the captured image and recorded.

特開2006−148842号公報JP 2006-148842 A

ウェアラブルカメラが撮像した映像データを記録して保存する(つまり、録画する)際に、例えば特許文献1に記載のシステムのように、映像信号と日時情報とを関連づけて記録する等、後日録画した映像データを再生する場合に目的の映像データの抽出、検索ができる。例えば、日時情報の他に、撮像された映像の内容を示す情報等、各種属性情報を映像データに関連付けて付与しておくと、目的の映像データの抽出、検索が容易にできて便利である。   When video data captured by the wearable camera is recorded and saved (that is, recorded), the video signal and date / time information are recorded in association with each other, as in the system described in Patent Document 1, for example. When playing back video data, it is possible to extract and search for the target video data. For example, in addition to date and time information, it is convenient that various attribute information such as information indicating the content of the captured video is associated with the video data so that the target video data can be easily extracted and searched. .

しかし、属性情報を映像データに付与する場合、ウェアラブルカメラが録画した映像データを後でPC(パーソナルコンピュータ)等を用いて再生して映像内容を確認してから付与する等、属性情報の付与に手間がかかる。特に、警察官や警備員の業務に用いるウェアラブルカメラでは、緊急時の映像を撮像することが多いため、PCを用いた属性情報の付与が困難で、後でどの映像か判別がしづらい等、録画した映像データの管理面での課題があった。   However, when the attribute information is added to the video data, the video data recorded by the wearable camera is later played back using a PC (Personal Computer) or the like, and the video content is confirmed before adding the attribute information. It takes time and effort. In particular, wearable cameras used for police officers and security guards often capture emergency images, so it is difficult to assign attribute information using a PC, making it difficult to determine which image later. There was a problem in the management of recorded video data.

また、特許文献1の構成では、撮像に使用するCCDカメラ手段は単一であり、複数のCCDカメラ手段を用いて撮像する構成については考慮されていない。   Further, in the configuration of Patent Document 1, there is a single CCD camera unit used for imaging, and the configuration for imaging using a plurality of CCD camera units is not considered.

このため、例えば上述した単一のウェアラブルカメラを装着した警察官が緊急の出動に応じて急行した現場の状況を証拠として撮像する際、単一のウェアラブルカメラしか設けられていない場合には、ウェアラブルカメラは通常、一度装着するとその装着箇所を変更することはないため、撮像可能な範囲が制限されてしまい、単一のウェアラブルカメラを用いて現場の状況を的確かつ広範に撮像することが困難な場合があり、録画した映像データを取り扱う上での利便性が劣化するという課題があった。   For this reason, for example, when a police officer wearing the above-mentioned single wearable camera takes an image of the situation of the scene that has been rushed in response to an emergency dispatch, if only a single wearable camera is provided, the wearable Cameras usually do not change their mounting location once they are mounted, so the range of images that can be captured is limited, and it is difficult to accurately and extensively capture on-site situations using a single wearable camera. In some cases, there is a problem that convenience in handling recorded video data is deteriorated.

本発明は、上述した課題を解決するために、警察官における現場の状況の的確かつ広範な撮像を支援し、撮像した映像データを取り扱う上での利便性を向上させるウェアラブルカメラシステム及び撮像方法を提供することを目的とする。   In order to solve the above-described problems, the present invention provides a wearable camera system and an imaging method for supporting accurate and wide-ranging imaging of the situation of the scene in a police officer and improving convenience in handling captured video data. The purpose is to provide.

本発明は、ユーザが装着可能な第1カメラ及び第2カメラを含むウェアラブルカメラシステムであって、前記第1カメラは、第1撮像部と、前記第1撮像部が事件現場にて撮像した第1映像データ、又は前記第2カメラが前記事件現場にて撮像した第2映像データを記憶する記憶部と、前記第2カメラが送信した前記第2映像データを受信する受信部と、前記第1映像データ又は前記第2映像データに関する前記事件現場の映像の内容に対応する属性情報の付与操作を受け付ける入力部と、前記付与操作に応じて、前記属性情報を前記第1映像データ又は前記第2映像データに付与して前記記憶部に記憶する制御部と、を備え、前記第2カメラは、第2撮像部と、前記第2撮像部が撮像した前記第2映像データを前記第1カメラに送信する送信部と、を備える。 The present invention is a wearable camera system including a first camera and a second camera that can be worn by a user. The first camera includes a first imaging unit, and a first imaging unit captured by the first imaging unit at an incident site . A storage unit for storing one video data or second video data captured by the second camera at the incident site; a receiving unit for receiving the second video data transmitted by the second camera; An input unit that accepts an operation of assigning attribute information corresponding to the content of the video of the incident scene related to the video data or the second video data, and the attribute information is set to the first video data or the second video image according to the assignment operation. A control unit that assigns video data to the storage unit and stores the second video data captured by the second imaging unit and the second video data captured by the second imaging unit to the first camera. Send send It comprises a part, a.

また、本発明は、ユーザが装着可能な第1カメラ及び第2カメラを含むウェアラブルカメラシステムにおける撮像方法であって、前記第1カメラは、記憶部を有し、前記第1カメラが撮像した第1映像データを前記記憶部に記憶するステップを実行し、前記第2カメラは、前記第1カメラから前記第2カメラに切り替えて撮像された場合に、前記第2カメラが撮像した第2映像データを前記第1カメラに送信するステップを実行し、前記第1カメラは、前記第1カメラから前記第2カメラに切り替えて撮像された場合に、前記第2カメラから送信された前記第2映像データを受信するステップを実行し、前記第2映像データに関する属性情報の付与操作を受け付けるステップを実行し、前記付与操作に応じて、前記属性情報を前記第2映像データに付与して前記記憶部に記憶するステップを実行する、撮像方法である。   In addition, the present invention is an imaging method in a wearable camera system including a first camera and a second camera that can be worn by a user, wherein the first camera has a storage unit, and the first camera takes an image. The step of storing one video data in the storage unit is executed, and when the second camera is switched from the first camera to the second camera, the second video data captured by the second camera is captured. Is transmitted to the first camera, and the first camera transmits the second video data transmitted from the second camera when the first camera is switched from the first camera to the second camera. And a step of accepting an attribute information assigning operation related to the second video data, and the attribute information is sent to the second video data in response to the assigning operation. By applying the data to perform the step of storing in the storage unit, an imaging method.

また、本発明は、ユーザが装着可能な第1カメラ及び第2カメラを含むウェアラブルカメラシステムにおける撮像方法であって、前記第2カメラは、前記第2カメラから前記第1カメラに切り替えて撮像された場合に、第2カメラが撮像した第2映像データを前記第1カメラに送信するステップを実行し、前記第1カメラは、記憶部を有し、前記第2カメラから前記第1カメラに切り替えて撮像された場合に、前記第2カメラから送信された前記第2映像データを受信するステップを実行し、前記第1カメラが撮像した第1映像データに関する属性情報の付与操作を受け付けるステップを実行し、前記付与操作に応じて、前記属性情報を前記第1映像データに付与して前記記憶部に記憶するステップを実行する、撮像方法である。   The present invention is also an imaging method in a wearable camera system including a first camera and a second camera that can be worn by a user, wherein the second camera is switched from the second camera to the first camera and imaged. A second video data captured by the second camera is transmitted to the first camera, and the first camera has a storage unit and switches from the second camera to the first camera. When the image is captured, the step of receiving the second video data transmitted from the second camera is executed, and the step of accepting an operation for giving attribute information related to the first video data captured by the first camera is performed. In the imaging method, the step of assigning the attribute information to the first video data and storing the attribute information in the storage unit according to the assigning operation is performed.

また、本発明は、ユーザが装着可能な第1カメラ及び第2カメラを含むウェアラブルカメラシステムにおける撮像方法であって、前記第1カメラは、記憶部を有し、前記第1カメラが事件現場にて撮像した第1映像データを前記記憶部に記憶するステップを実行し、前記第2カメラは、前記第1カメラにより先に撮像され、かつ前記第2カメラによる撮像が開始された場合に、前記第2カメラが前記事件現場にて撮像した第2映像データを前記第1カメラに送信するステップを実行し、前記第1カメラは、前記第1カメラにより先に撮像され、かつ前記第2カメラによる撮像が開始された場合に、前記第2カメラから送信された前記第2映像データを受信するステップを実行し、前記第1映像データ及び前記第2映像データに関する前記事件現場の映像の内容に対応する属性情報の付与操作を受け付けるステップを実行し、前記付与操作に応じて、前記属性情報を前記第1映像データ及び前記第2映像データに付与して前記記憶部に記憶するステップを実行する、撮像方法である。 In addition, the present invention is an imaging method in a wearable camera system including a first camera and a second camera that can be worn by a user, wherein the first camera has a storage unit, and the first camera is located at an incident site. the first image data to perform the step of storing in the storage unit captured Te, the second camera is previously captured by the first camera, and when the imaging is started by the second camera, the The second camera executes a step of transmitting the second video data imaged at the incident site to the first camera, and the first camera is previously imaged by the first camera, and by the second camera when the imaging is started, the second executing step of receiving the second image data transmitted from the camera, the first image data and the case involving the second image data Perform the step of accepting the applying operation of the attribute information corresponding to the contents of the field image in response to the applying operation, in the storage unit by applying the attribute information to the first image data and the second image data An imaging method for executing a storing step.

更に、本発明は、ユーザが装着可能な第1カメラ及び第2カメラを含むウェアラブルカメラシステムにおける撮像方法であって、前記第2カメラは、前記第2カメラにより先に撮像され、かつ前記第1カメラによる撮像が開始された場合に、前記第2カメラが事件現場にて撮像した第2映像データを前記第1カメラに送信するステップを実行し、前記第1カメラは、記憶部を有し、前記第2カメラにより先に撮像され、かつ前記第1カメラによる撮像が開始された場合に、前記第2カメラから送信された前記第2映像データを受信するステップを実行し、前記第1カメラが前記事件現場にて撮像した第1映像データ及び前記第2映像データに関する前記事件現場の映像の内容に対応する属性情報の付与操作を受け付けるステップを実行し、前記付与操作に応じて、前記属性情報を前記第1映像データ及び前記第2映像データに付与して前記記憶部に記憶するステップを実行する、撮像方法である。 Furthermore, the present invention is an imaging method in a wearable camera system including a first camera and a second camera that can be worn by a user, wherein the second camera is first imaged by the second camera, and the first camera When imaging by the camera is started, the second camera performs a step of transmitting second video data captured at the incident site to the first camera, and the first camera has a storage unit; A step of receiving the second video data transmitted from the second camera when imaging by the second camera is started and imaging by the first camera is started; perform the step of accepting the applying operation of the attribute information corresponding to the content of the video of the crime scene for the first image data and the second image data captured by the crime scene, before Depending on the applying operation, by giving the attribute information to the first image data and the second image data to perform the step of storing in the storage unit, an imaging method.

本発明によれば、警察官における現場の状況の的確かつ広範な撮像を支援し、撮像した映像データを取り扱う上での利便性を向上させることができる。   According to the present invention, it is possible to support accurate and wide-ranging imaging of the situation in the field by a police officer, and it is possible to improve convenience in handling captured video data.

本実施形態のウェアラブルカメラシステムの概要とウェアラブルカメラ(第1カメラ、第2カメラ)により撮像された映像データの使用に関する説明図Explanatory drawing about the use of the image data imaged with the outline | summary of the wearable camera system of this embodiment, and a wearable camera (1st camera, 2nd camera) 警察官が第1カメラ及び第2カメラの両方を装着した状態の一例を示す図The figure which shows an example of the state which the police officer mounted | wore with both the 1st camera and the 2nd camera 本実施形態の第1カメラ及び第2カメラの外観の一例を示す図The figure which shows an example of the external appearance of the 1st camera of this embodiment, and a 2nd camera. 本実施形態の第1カメラの外観の一例を示す左側面図Left side view showing an example of the appearance of the first camera of the present embodiment 本実施形態の第1カメラの外観の一例を示す右側面図The right view which shows an example of the external appearance of the 1st camera of this embodiment 本実施形態の第1カメラの内部構成の一例を示すブロック図The block diagram which shows an example of an internal structure of the 1st camera of this embodiment. 本実施形態の第2カメラの内部構成の一例を示すブロック図The block diagram which shows an example of an internal structure of the 2nd camera of this embodiment. 属性選択スイッチと属性情報との関係の一例を示す図The figure which shows an example of the relationship between an attribute selection switch and attribute information 録画データのデータ構造の一例を示す図The figure which shows an example of the data structure of recording data 録画映像リストの第1例を示す図The figure which shows the 1st example of a video recording list 本実施形態のウェアラブルカメラシステムにおいて1ch録画に用いるウェアラブルカメラの切替、及び切替後に用いたウェアラブルカメラにより録画した1個の録画データに1個の属性情報を付与する動作手順の一例を説明するフローチャートThe flowchart explaining an example of the operation | movement procedure which assign | provides one attribute information to one recording data recorded with the wearable camera used for 1ch recording in the wearable camera system of this embodiment, and the wearable camera used after switching. 録画映像リストの第2例を示す図The figure which shows the 2nd example of a recorded video list 本実施形態のウェアラブルカメラシステムにおいて同時2ch録画への切替、及び同時2ch録画に用いた各ウェアラブルカメラにより録画した各録画データに対して共通の属性情報を付与する動作手順の一例を説明するフローチャートThe flowchart explaining an example of the operation | movement procedure which provides common attribute information with respect to each recording data recorded by each wearable camera used for the switching to simultaneous 2ch video recording and simultaneous 2ch video recording in the wearable camera system of this embodiment.

以下、本発明に係るウェアラブルカメラシステム及び撮像方法を具体的に開示した実施形態(以下、「本実施形態」という)について、図面を参照して詳細に説明する。本実施形態のウェアラブルカメラシステムは、ユーザ(例えば警察官OF。以下同様。)が身体、衣服、冒頭等に装着可能なウェアラブルカメラである第1カメラ,第2カメラを含む構成である。本実施形態では、警察官は、先ず第1カメラにより撮像している時に第2カメラに切り替えて撮像したり、先ず第2カメラにより撮像している時に第1カメラに切り替えて撮像する。また、警察官は、第1カメラ或いは第2カメラの一方のウェアラブルカメラにより撮像している時に、他方のウェアラブルカメラを追加して両方のウェアラブルカメラにより撮像する。   Hereinafter, an embodiment (hereinafter, referred to as “this embodiment”) that specifically discloses a wearable camera system and an imaging method according to the present invention will be described in detail with reference to the drawings. The wearable camera system according to the present embodiment includes a first camera and a second camera that are wearable cameras that a user (for example, police officer OF; the same applies hereinafter) can be worn on the body, clothes, opening, and the like. In the present embodiment, the police officer first switches to the second camera when capturing images with the first camera, or switches to the first camera when capturing images with the second camera. In addition, when the police officer is imaging with one wearable camera of the first camera or the second camera, the other wearable camera is added and imaging is performed with both wearable cameras.

図1は、本実施形態のウェアラブルカメラシステム100の概要とウェアラブルカメラ(第1カメラ10、第2カメラ10S)により撮像された映像データの使用に関する説明図である。本実施形態のウェアラブルカメラシステム100では、ユーザ(例えば警察官OF)が身体、衣服又は帽子等に装着可能なウェアラブルカメラである第1カメラ10、第2カメラ10S又はその両方が使用される。   FIG. 1 is an explanatory diagram regarding the outline of the wearable camera system 100 of the present embodiment and the use of video data captured by the wearable cameras (first camera 10 and second camera 10S). In the wearable camera system 100 of the present embodiment, the first camera 10, the second camera 10S, or both, which are wearable cameras that can be worn by a user (for example, a police officer OF) on a body, clothes, a hat, or the like, are used.

第1カメラ10は、スマートフォン等の携帯端末50、車(例えばパトカー)に搭載された車載システム60、ユーザの組織内に配備されたサーバ(バックエンドサーバSV1,SV2,SV3)等との間で通信を行う通信機能を有するウェアラブルカメラである。   The first camera 10 includes a mobile terminal 50 such as a smartphone, an in-vehicle system 60 mounted in a car (for example, a police car), servers (back-end servers SV1, SV2, SV3) and the like arranged in the user's organization. It is a wearable camera having a communication function for performing communication.

第2カメラ10Sは、第1カメラ10との間で通信を行う通信機能を有するウェアラブルカメラである。図1では図示が省略されているが、第1カメラ10と第2カメラ10SとはケーブルCB(図2参照)を介して接続される。   The second camera 10 </ b> S is a wearable camera having a communication function for performing communication with the first camera 10. Although not shown in FIG. 1, the first camera 10 and the second camera 10S are connected via a cable CB (see FIG. 2).

また、ウェアラブルカメラシステム100において、第1カメラ10、第2カメラ10S、携帯端末50及び車載システム60がフロントエンドシステムを構成し、ネットワーク上の管理ソフトウェア70及びバックエンドサーバSV1,SV2,SV3がバックエンドシステムを構成する。   In the wearable camera system 100, the first camera 10, the second camera 10S, the portable terminal 50, and the in-vehicle system 60 constitute a front-end system, and the management software 70 on the network and the back-end servers SV1, SV2, and SV3 are back. Configure the end system.

以下、本実施形態を分かり易く説明するために、ウェアラブルカメラシステム100の使用形態の一例として、例えば警察署の警察官OFが第1カメラ10及び第2カメラ10Sを装着して使用する場合を想定して説明する(図2参照)。この場合、警察官OFが第1カメラ10又は第2カメラ10Sのいずれかにより撮像を行い、又は第1カメラ10及び第2カメラ10Sの両方により撮像を行う。第1カメラ10は、警察署内に配備されたバックエンドシステムに対し、第1カメラ10、第2カメラ10S又はその両方の撮像により得られた映像データを転送する。バックエンドサーバSV1,SV2,SV3では、第1カメラ10から転送された映像データが蓄積される。なお、第1カメラ10は、ユーザが警察官OFに限定されず、その他様々な事業所(例えば、警備会社)において使用されてもよい。   Hereinafter, in order to explain this embodiment in an easy-to-understand manner, as an example of a usage pattern of the wearable camera system 100, for example, a case where a police officer OF of a police station wears and uses the first camera 10 and the second camera 10S is assumed. (See FIG. 2). In this case, the police officer OF takes an image with either the first camera 10 or the second camera 10S, or takes an image with both the first camera 10 and the second camera 10S. The first camera 10 transfers video data obtained by imaging the first camera 10, the second camera 10 </ b> S, or both to the back-end system provided in the police station. In the back-end servers SV1, SV2, and SV3, the video data transferred from the first camera 10 is accumulated. The first camera 10 is not limited to the police officer OF by the user, and may be used in various other business establishments (for example, a security company).

図1に示すフロントエンドシステムは、現場の最前線に出動する警察官OFが装着可能な第1カメラ10及び第2カメラ10Sと、警察官OFが保持する携帯端末50と、パトカー内に設置された車載システム60とを含む構成である。携帯端末50は、スマートフォン、携帯電話機、タブレット端末、PDA(Personal Digital Assistant)等の無線通信装置である。車載システム60は、カメラ、PC、通信ユニット等を有し、車載カメラシステム、映像管理システム等を構成する。   The front end system shown in FIG. 1 is installed in a police car, a first camera 10 and a second camera 10S that can be attached to a police officer OF dispatched to the forefront of the scene, a portable terminal 50 held by the police officer OF, and a police car. In-vehicle system 60. The mobile terminal 50 is a wireless communication device such as a smartphone, a mobile phone, a tablet terminal, or a PDA (Personal Digital Assistant). The in-vehicle system 60 includes a camera, a PC, a communication unit, and the like, and configures an in-vehicle camera system, a video management system, and the like.

警察官OFは、所定の用件(例えばパトロール)で警察署から出動する際、第1カメラ10及び第2カメラ10Sを装着し、携帯端末50を保持し、車載システム60を搭載したパトカーに乗車して現場に向かう。フロントエンドシステムにおいて、例えばパトカーが到着した現場の映像を車載システム60のカメラ(不図示)により撮像し、更に、警察官OFがパトカーから降車して現場のより詳細な映像を第1カメラ10、第2カメラ10S又はその両方により撮像する。第1カメラ10、第2カメラ10S又はその両方が撮像した動画又は静止画の映像データは、携帯端末50のメモリ等の記録部、又は車載システム60のPCのストレージ等による記録部に保存され、バックエンドシステムに転送(アップロード)される。また、携帯端末50又は車載システム60は、映像データを含む各種データをバックエンドシステムに転送する。バックエンドシステムへのデータ転送は、現場から無線通信により接続して行うか、或いは、パトロールが終了して警察署に戻った際に、有線通信、無線通信、又は手動(例えば記憶媒体の持ち運び)により行う。   When the police officer OF is dispatched from the police station with a predetermined requirement (for example, patrol), he / she wears the first camera 10 and the second camera 10S, holds the portable terminal 50, and gets on the police car equipped with the in-vehicle system 60. Then head to the site. In the front end system, for example, an image of the scene where the police car arrived is captured by a camera (not shown) of the in-vehicle system 60, and further, the police officer OF gets off the police car and displays a more detailed image of the scene on the first camera 10, Images are taken by the second camera 10S or both. Video data of a moving image or a still image captured by the first camera 10 and / or the second camera 10S is stored in a recording unit such as a memory of the mobile terminal 50 or a storage unit of a PC of the in-vehicle system 60, etc. Transferred (uploaded) to the backend system. In addition, the mobile terminal 50 or the in-vehicle system 60 transfers various data including video data to the back-end system. Data transfer to the back-end system is performed by connecting wirelessly from the field, or when patroling is completed and returning to the police station, wired communication, wireless communication, or manual (for example, carrying a storage medium) To do.

図1に示すバックエンドシステムは、警察署内又は他の場所に設置されたバックエンドサーバSV1〜SV3と、フロントエンドシステムとの通信を行うための管理ソフトウェア70とを含む構成である。バックエンドサーバSV1〜SV3は、内部又は外部にハードディスク(HDD)等によるストレージを備える。バックエンドシステムでは、フロントエンドシステムから転送された映像データ及び他のデータが、バックエンドサーバSV1〜SV3に蓄積される。バックエンドサーバSV1〜SV3は、第1カメラ10又は車載システム60から転送された映像データを受信し、HDD(Hard Disk Drive)等のストレージに保存する。   The back-end system shown in FIG. 1 is configured to include back-end servers SV1 to SV3 installed in a police station or other places, and management software 70 for communicating with the front-end system. The back-end servers SV1 to SV3 are provided with storage by a hard disk (HDD) or the like inside or outside. In the back-end system, video data and other data transferred from the front-end system are accumulated in the back-end servers SV1 to SV3. The back-end servers SV1 to SV3 receive the video data transferred from the first camera 10 or the in-vehicle system 60 and store it in a storage such as an HDD (Hard Disk Drive).

バックエンドシステムに蓄積された映像データは、例えば警察署内の関係部署の担当者により利用され、必要に応じて、所定の記憶媒体(例えばDVD:Digital Versatile Disk)に映像データがコピーされて、所定のシーン(例えば裁判)において証拠品として提出される。   The video data stored in the back-end system is used, for example, by a person in charge at a related department in the police station, and if necessary, the video data is copied to a predetermined storage medium (for example, DVD: Digital Versatile Disk) It is submitted as evidence in a predetermined scene (eg trial).

本実施形態では、警察官OFが装着した第1カメラ10及び第2カメラ10Sを用いて、現場の証拠映像をより的確に取得及び保存することが可能である。第1カメラ10及び第2カメラ10Sを用いる際、ユーザ(警察官OF)の識別情報(ユーザID)、第1カメラ10及び第2カメラ10Sの各識別情報(例えばカメラID)等を予め設定しておき、バックエンドサーバに蓄積された映像データについて、いつ、どの警察官がどのウェアラブルカメラを用いて撮像した映像であるかを明確に区別できる。   In the present embodiment, it is possible to acquire and store the evidence video on the site more accurately using the first camera 10 and the second camera 10S worn by the police officer OF. When using the first camera 10 and the second camera 10S, identification information (user ID) of the user (police officer OF), identification information (for example, camera ID) of the first camera 10 and the second camera 10S, etc. are set in advance. The video data stored in the back-end server can be clearly distinguished as to when and what police officers captured using which wearable camera.

図2は、警察官OFが本実施形態の第1カメラ10及び第2カメラ10Sの両方を装着した状態の一例を示す図である。警察官OFは、例えば制服の胸部の中心付近にクリップ又はケースを介して第1カメラ10を固定して装着し、又はポケットに入れて第1カメラ10を装着する。また、警察官OFは、ケーブルCBを介して第1カメラ10と第2カメラ10Sを接続し、例えば警察官OFの左耳上付近にクリップを介して第2カメラ10Sを固定して装着する。   FIG. 2 is a diagram illustrating an example of a state in which the police officer OF wears both the first camera 10 and the second camera 10S of the present embodiment. The police officer OF, for example, attaches the first camera 10 fixedly through a clip or case near the center of the chest of the uniform, or puts the first camera 10 in a pocket. In addition, the police officer OF connects the first camera 10 and the second camera 10S via the cable CB, and, for example, fixes the second camera 10S near the upper left ear of the police officer OF via a clip.

図2に示す例では、第2カメラ10Sは、第1カメラ10の撮像領域のより高い位置を撮像可能である。また、第2カメラ10Sは、第1カメラ10が警察官OFの正面方向(図2の紙面左下方向)を撮像するのに対し、警察官OFの後面方向(図2の紙面右上方向)を撮像してもよい。従って、図2では警察官OFが第1カメラ10及び第2カメラ10Sを装着している様子の一例として説明しているが、警察官OFが第1カメラ10及び第2カメラ10Sをどのように装着するかについては特に限定されない。   In the example illustrated in FIG. 2, the second camera 10 </ b> S can capture a higher position in the imaging area of the first camera 10. Further, the second camera 10S images the rear direction (upper right direction of the drawing in FIG. 2) of the police officer OF, while the first camera 10 images the front direction of the police officer OF (the lower left direction of the drawing in FIG. 2). May be. Therefore, in FIG. 2, the police officer OF is described as an example of a state in which the first camera 10 and the second camera 10S are mounted. However, how the police officer OF uses the first camera 10 and the second camera 10S. There is no particular limitation as to whether to wear it.

図2に示すように、第1カメラ10は、ユーザである警察官OFの胸部等、ユーザの視点に近い位置からの視野の映像を撮像するように、ユーザが着用した衣服又は身体に装着して使用される。警察官OFは、第1カメラ10及び第2カメラ10Sを装着した状態で、録画スイッチSW1又は録画スイッチSW1sを操作して周囲の被写体の撮像を行う。上述したように、第2カメラ10Sの撮像範囲は、第1カメラ10の撮像範囲に比べてより高い位置を含めることができ、警察官OFは、現場の状況を的確かつ広範に撮像できるように、第1カメラ10又は第2カメラ10Sに切り替え、又はその両方を用いて撮像可能である。   As shown in FIG. 2, the first camera 10 is attached to clothes or a body worn by the user so as to capture an image of a field of view from a position close to the user's viewpoint, such as the chest of the police officer OF who is the user. Used. The police officer OF operates the recording switch SW1 or the recording switch SW1s in a state where the first camera 10 and the second camera 10S are mounted, and images surrounding subjects. As described above, the imaging range of the second camera 10 </ b> S can include a higher position than the imaging range of the first camera 10, so that the police officer OF can accurately and widely capture the situation of the scene. The image can be captured by switching to the first camera 10 or the second camera 10S, or using both.

図3は、本実施形態の第1カメラ10及び第2カメラ10Sの外観の一例を示す図である。図3では、第1カメラ10は正面視の様子が示され、第2カメラ10Sは斜視の様子が示されている。図3に示す第1カメラ10は、略直方体状の筐体の正面に、撮像部11(図6参照)の撮像用のレンズ11a、録画スイッチSW1、スナップショットスイッチSW2が設けられる。録画スイッチSW1は、例えば一定時間(例えば1秒程度)押下されることで録画(動画の撮像)が開始され、別の一定時間(例えば3秒程度)押下されることで録画が終了する。スナップショットスイッチSW2は、押下される度に、そのときの静止画の撮像が実行される。   FIG. 3 is a diagram illustrating an example of the appearance of the first camera 10 and the second camera 10S of the present embodiment. In FIG. 3, the first camera 10 is shown in a front view, and the second camera 10S is shown in a perspective view. The first camera 10 shown in FIG. 3 is provided with an imaging lens 11a, a recording switch SW1, and a snapshot switch SW2 of the imaging unit 11 (see FIG. 6) on the front surface of a substantially rectangular parallelepiped housing. For example, recording (moving image capturing) is started when the recording switch SW1 is pressed for a certain time (for example, about 1 second), and recording is ended when the recording switch SW1 is pressed for another certain time (for example, about 3 seconds). Each time the snapshot switch SW2 is pressed, the still image is captured at that time.

図3に示す第2カメラ10Sは、略円筒形状の筐体の前面側(図3に示す第1カメラ10に向かう側)に撮像用のレンズ11s1、同筐体の前方(図3の紙面左下方向)にマイク11s6を露出させるマイク穴MCh、同筐体の後方(図3の紙面右上方向)に録画スイッチSW1sが設けられる。   The second camera 10S shown in FIG. 3 has an imaging lens 11s1 on the front side (side toward the first camera 10 shown in FIG. 3) of the substantially cylindrical casing, and the front of the casing (lower left in FIG. 3). The microphone switch MCh that exposes the microphone 11s6 is provided in the direction), and the recording switch SW1s is provided behind the casing (upper right direction in FIG. 3).

図4は、本実施形態の第1カメラ10の外観の一例を示す左側面図である。図4に示すように、第1カメラ10の筐体の正面から見て左側面には、属性情報付与スイッチSW3、属性選択スイッチSW4、USBコネクタ22aが設けられる。警察官OFが属性情報付与スイッチSW3を押下操作することにより、第1カメラ10の撮像及び録画により得られた映像データ(以下、「第1映像データ」という)、第2カメラ10Sが撮像して第1カメラ10が記憶(録画)した映像データ(以下、「第2映像データ」という)又は、第1映像データ及び第2映像データを組み合わせた映像データに対して、属性選択スイッチSW4の選択状態に応じた属性情報が付与される。属性選択スイッチSW4は、図示例ではC1、C2、C3の3段階の接点位置を有するスライドスイッチであり、C1〜C3にそれぞれ割り付け設定された属性情報を警察官OFが選択して指定する。USBコネクタ22aには、USB(Universal Serial Bus)に対応したケーブルを介して外部機器(例えば、第1カメラ10と車載システム60又は警察署内のPC)とを接続してデータの送受信が可能となっている。   FIG. 4 is a left side view illustrating an example of the appearance of the first camera 10 of the present embodiment. As shown in FIG. 4, an attribute information addition switch SW3, an attribute selection switch SW4, and a USB connector 22a are provided on the left side as viewed from the front of the casing of the first camera 10. When the police officer OF depresses the attribute information addition switch SW3, video data (hereinafter referred to as “first video data”) obtained by the imaging and recording of the first camera 10 is captured by the second camera 10S. The selection state of the attribute selection switch SW4 for video data stored (recorded) by the first camera 10 (hereinafter referred to as “second video data”) or video data obtained by combining the first video data and the second video data. Attribute information according to is given. The attribute selection switch SW4 is a slide switch having three contact points C1, C2, and C3 in the illustrated example, and the police officer OF selects and designates attribute information assigned to C1 to C3. Data can be transmitted and received by connecting an external device (for example, the first camera 10 and the in-vehicle system 60 or a PC in a police station) to the USB connector 22a via a USB (Universal Serial Bus) compatible cable. It has become.

図5は、本実施形態の第1カメラ10の外観の一例を示す右側面図である。図5に示すように、第1カメラ10の筐体の正面から見て右側面には、通信モードスイッチSW5、インジケータスイッチSW6が設けられる。通信モードスイッチSW5は、図示例ではAP、STA1、STA2、OFFの4段階の接点位置を有するスライドスイッチであり、第1カメラ10の通信モードを警察官OFが選択して指定する。APはアクセスポイントモードであり、ウェアラブルカメラである第1カメラ10が無線LAN(Local Area Network)のアクセスポイントとして動作し、携帯端末50と無線接続して、第1カメラ10と携帯端末50との間で通信を行うモードである。アクセスポイントモードにおいて、携帯端末50は、第1カメラ10と接続することにより、第1カメラ10による現在のライブ映像の表示、録画された映像データの再生、属性情報の付与、撮像された静止画の表示等を行うことができる。STA1,STA2はステーションモードであり、無線LANにより外部機器と接続する場合に、外部機器をアクセスポイントとして通信を行うモードである。STA1は警察署内のアクセスポイントと接続するモード、STA2は車載システム60と接続するモードである。ステーションモードにおいて、第1カメラ10の設定、第1カメラ10における映像データの転送(アップロード)等を行える。OFFは無線LANの通信動作をオフし、無線LANを未使用とするモードである。   FIG. 5 is a right side view showing an example of the appearance of the first camera 10 of the present embodiment. As shown in FIG. 5, a communication mode switch SW5 and an indicator switch SW6 are provided on the right side when viewed from the front of the casing of the first camera 10. In the illustrated example, the communication mode switch SW5 is a slide switch having contact points in four stages of AP, STA1, STA2, and OFF, and the police officer OF selects and designates the communication mode of the first camera 10. AP is an access point mode, and the first camera 10, which is a wearable camera, operates as a wireless LAN (Local Area Network) access point, and is wirelessly connected to the portable terminal 50, so that the first camera 10 and the portable terminal 50 are connected. It is the mode which communicates between. In the access point mode, the mobile terminal 50 is connected to the first camera 10 to display the current live video by the first camera 10, to play back recorded video data, to add attribute information, and to capture a captured still image Can be displayed. STA1 and STA2 are station modes in which communication is performed using an external device as an access point when connecting to the external device via a wireless LAN. STA1 is a mode for connecting to an access point in a police station, and STA2 is a mode for connecting to an in-vehicle system 60. In the station mode, setting of the first camera 10, transfer (uploading) of video data in the first camera 10, and the like can be performed. OFF is a mode in which the wireless LAN communication operation is turned off and the wireless LAN is not used.

インジケータスイッチSW6は、図示例ではLED、Vibration、LED&Vibration、OFFの4段階の接点位置を有するスライドスイッチであり、第1カメラ10の報知モードを警察官OFが選択して指定する。LEDは、LED26a〜26cによって第1カメラ10の録画中等の動作状態を表示するモードである。Vibrationは、バイブレータ27の振動によって第1カメラ10の動作状態を報知するモードである。LED&Vibrationは、LED26a〜26cの表示とバイブレータ27の振動によって第1カメラ10の動作状態を報知するモードである。OFFは動作状態の報知動作をオフするモードである。   In the illustrated example, the indicator switch SW6 is a slide switch having LED, Vibration, LED & Vibration, and OFF contact positions, and the police officer OF selects and designates the notification mode of the first camera 10. The LED is a mode in which an operation state such as recording of the first camera 10 is displayed by the LEDs 26a to 26c. Vibration is a mode in which the operating state of the first camera 10 is notified by vibration of the vibrator 27. LED & Vibration is a mode in which the operating state of the first camera 10 is notified by the display of the LEDs 26 a to 26 c and the vibration of the vibrator 27. OFF is a mode in which the operation state notification operation is turned off.

LED26a〜26cは、図示しないが、第1カメラ10の筐体の正面から見て上面に配置されている。これにより、ユーザが第1カメラ10を装着した状態でLEDを容易に視認でき、また、ユーザ本人以外からはLEDが見えないようになっている。また、図示しないが、第1カメラ10の筐体の正面から見て下面には、コンタクトターミナル23が設けられる。   Although not shown, the LEDs 26 a to 26 c are arranged on the upper surface when viewed from the front of the casing of the first camera 10. Thereby, the user can easily visually recognize the LED with the first camera 10 attached, and the LED cannot be seen by anyone other than the user himself / herself. Although not shown, a contact terminal 23 is provided on the lower surface of the first camera 10 as viewed from the front.

図6は、本実施形態の第1カメラ10の内部構成の一例を示すブロック図である。図6に示す第1カメラ10は、撮像部11と、GPIO12(General Purpose Input/Output)と、RAM13と、ROM14と、記憶部15と、EEPROM(Electrically Erasable Programmable Read-Only Memory)16と、RTC(Real Time Clock)17と、GPS(Global Positioning System)18と、MCU(Micro Controller Unit)19と、通信部21と、USB(Universal Serial Bus)22と、コンタクトターミナル23と、電源部24と、バッテリ25とを含む構成である。また、第1カメラ10は、入力部の一例として、録画スイッチSW1とスナップショットスイッチSW2と属性情報付与スイッチSW3と属性選択スイッチSW4と通信モードスイッチSW5とインジケータスイッチSW6とを含む構成である。また、第1カメラ10は、状態表示部の一例として、3つのLED(Light Emitting Diode)26a,26b,26cとバイブレータ27とを含む構成である。   FIG. 6 is a block diagram illustrating an example of an internal configuration of the first camera 10 according to the present embodiment. The first camera 10 shown in FIG. 6 includes an imaging unit 11, a GPIO 12 (General Purpose Input / Output), a RAM 13, a ROM 14, a storage unit 15, an EEPROM (Electrically Erasable Programmable Read-Only Memory) 16, and an RTC. (Real Time Clock) 17, GPS (Global Positioning System) 18, MCU (Micro Controller Unit) 19, communication unit 21, USB (Universal Serial Bus) 22, contact terminal 23, power supply unit 24, And a battery 25. The first camera 10 includes a recording switch SW1, a snapshot switch SW2, an attribute information addition switch SW3, an attribute selection switch SW4, a communication mode switch SW5, and an indicator switch SW6 as an example of an input unit. The first camera 10 includes three LEDs (Light Emitting Diodes) 26a, 26b, and 26c and a vibrator 27 as an example of a state display unit.

撮像部11は、撮像用のレンズ11aと、CCD(Charge Coupled Device)型イメージセンサ又はCMOS(Complementary Metal Oxide Semiconductor)型イメージセンサ等による固体撮像素子とを有し、撮像により得られた被写体の映像データをMCU19に出力する。   The imaging unit 11 includes an imaging lens 11a and a solid-state imaging device such as a CCD (Charge Coupled Device) type image sensor or a CMOS (Complementary Metal Oxide Semiconductor) type image sensor, and a subject image obtained by imaging. Data is output to the MCU 19.

GPIO12は、パラレルインタフェースであり、録画スイッチSW1、スナップショットスイッチSW2、属性情報付与スイッチSW3、属性選択スイッチSW4、通信モードスイッチSW5、インジケータスイッチSW6、LED26a〜26c及びバイブレータ27と、MCU19との間の信号の入出力を行う。   The GPIO 12 is a parallel interface, and includes a recording switch SW1, a snapshot switch SW2, an attribute information addition switch SW3, an attribute selection switch SW4, a communication mode switch SW5, an indicator switch SW6, LEDs 26a to 26c, the vibrator 27, and the MCU 19. Input and output signals.

RAM13は、MCU19の動作において使用されるワークメモリである。   The RAM 13 is a work memory used in the operation of the MCU 19.

ROM14は、MCU19を制御するためのプログラム及びデータを予め記憶するメモリである。   The ROM 14 is a memory that stores a program and data for controlling the MCU 19 in advance.

記憶部15は、例えばSDメモリ等の記憶媒体により構成され、撮像部11にて撮像して得られた映像データ(第1映像データ)、又は第2カメラ10Sから転送された第2映像データを記憶する。記憶部15としてSDメモリを用いる場合、第1カメラ10の筐体本体に対して取付け及び取外しが可能である。   The storage unit 15 is configured by a storage medium such as an SD memory, for example, and receives video data (first video data) obtained by imaging by the imaging unit 11 or second video data transferred from the second camera 10S. Remember. When an SD memory is used as the storage unit 15, it can be attached to and detached from the housing body of the first camera 10.

EEPROM16は、第1カメラ10を識別する識別情報(例えばシリアル番号により示されるカメラID)、及び初期設定により入力された他の設定情報(例えば属性選択スイッチSW4とC1,C2,C3に対応する各属性情報との割り付け情報)を記憶する。   The EEPROM 16 has identification information (for example, a camera ID indicated by a serial number) for identifying the first camera 10 and other setting information (for example, attribute selection switches SW4, C1, C2, and C3) input by the initial setting. (Assignment information with attribute information) is stored.

RTC17は、現在の時刻情報をカウントしてMCU19に出力する。   The RTC 17 counts the current time information and outputs it to the MCU 19.

GPS18は、現在の第1カメラ10の位置情報をGPS発信機(不図示)から受信してMCU19に出力する。   The GPS 18 receives the current position information of the first camera 10 from a GPS transmitter (not shown) and outputs it to the MCU 19.

MCU19は、制御部としての機能を有し、第1カメラ10の各部の動作を全体的に統括するための制御処理、他の各部との間のデータの入出力処理、データの演算(計算)処理及びデータの記憶処理を行い、ROM14に記憶されたプログラム及びデータに従って動作する。MCU19は、動作時には、RAM13を使用し、RTC17より現在の時刻情報、GPS18より現在の位置情報をそれぞれ得る。   The MCU 19 has a function as a control unit, and performs control processing for overall control of operations of each unit of the first camera 10, data input / output processing with other units, and data calculation (calculation). It performs processing and data storage processing, and operates according to the program and data stored in the ROM 14. In operation, the MCU 19 uses the RAM 13 to obtain current time information from the RTC 17 and current position information from the GPS 18.

通信部21は、例えばOSI(Open Systems Interconnection)参照モデルの第1層である物理層において、通信部21とMCU19との接続を規定し、その規定に従って、例えば無線LAN(W−LAN)による無線通信(例えばWifi(登録商標))を行う。通信部21は、Bluetooth(登録商標)等の無線通信を行うものを用いてもよい。   The communication unit 21 defines, for example, a connection between the communication unit 21 and the MCU 19 in the physical layer that is the first layer of an OSI (Open Systems Interconnection) reference model, and, for example, wirelessly by a wireless LAN (W-LAN) according to the rules. Communication (for example, WiFi (registered trademark)) is performed. The communication unit 21 may be one that performs wireless communication such as Bluetooth (registered trademark).

USB22は、シリアルバスであり、第1カメラ10と車載システム60、或いは警察署内のPC等との接続を可能とする。   The USB 22 is a serial bus, and enables connection between the first camera 10 and the in-vehicle system 60 or a PC in a police station.

コンタクトターミナル23は、クレードル(不図示)又は外付けアダプタ(不図示)等と電気的に接続するための端子であり、USB22を介してMCU19に接続され、電源部24と接続される。コンタクトターミナル23を介して、第1カメラ10の充電、及び映像データを含むデータの通信が可能となっている。コンタクトターミナル23は、例えば、「充電端子V+」、「CON.DET端子」、「データ端子D−,D+」及び「グランド端子」(いずれも図示省略)が設けられる。CON.DET端子は、電圧変化を検出するための端子である。データ端子D−,D+は、例えばUSBコネクタ端子を介して、外部PC等に対してウェアラブルカメラである第1カメラ10で撮像した映像データ等を転送するための端子である。コンタクトターミナル23とクレードル(不図示)又は外付けアダプタ(不図示)のコネクタとが接続されることにより、第1カメラ10と外部機器との間でデータ通信が可能となる。   The contact terminal 23 is a terminal for electrically connecting to a cradle (not shown) or an external adapter (not shown), and is connected to the MCU 19 via the USB 22 and connected to the power supply unit 24. Via the contact terminal 23, the first camera 10 can be charged and data including video data can be communicated. The contact terminal 23 is provided with, for example, “charging terminal V +”, “CON.DET terminal”, “data terminals D−, D +”, and “ground terminal” (all not shown). CON. The DET terminal is a terminal for detecting a voltage change. The data terminals D− and D + are terminals for transferring video data captured by the first camera 10 that is a wearable camera to an external PC or the like via, for example, a USB connector terminal. By connecting the contact terminal 23 to a connector of a cradle (not shown) or an external adapter (not shown), data communication can be performed between the first camera 10 and an external device.

電源部24は、コンタクトターミナル23を介してクレードル又は外付けアダプタより供給される電源電力をバッテリ25に給電してバッテリ25を充電する。バッテリ25は、充電可能な2次電池により構成され、ウェアラブルカメラである第1カメラ10の各部に電源電力を供給する。   The power supply unit 24 supplies the battery 25 with power supplied from a cradle or an external adapter via the contact terminal 23 to charge the battery 25. The battery 25 is composed of a rechargeable secondary battery, and supplies power to each part of the first camera 10 that is a wearable camera.

録画スイッチSW1は、警察官OFの押下操作による録画(動画の撮像)の開始/停止の操作指示を入力する押しボタンスイッチである。   The recording switch SW1 is a push button switch for inputting an operation instruction for starting / stopping recording (moving image capturing) by a pressing operation of the police officer OF.

スナップショットスイッチSW2は、警察官OFの押下操作による静止画の撮像の操作指示を入力する押しボタンスイッチである。   The snapshot switch SW2 is a push button switch for inputting an operation instruction for capturing a still image by pressing the police officer OF.

属性情報付与スイッチSW3は、警察官OFの押下操作による、映像データに属性情報を付与するための操作指示を入力する押しボタンスイッチである。   The attribute information addition switch SW3 is a push button switch for inputting an operation instruction for adding attribute information to video data by a pressing operation of the police officer OF.

属性選択スイッチSW4は、映像データに付与する属性を選択するための操作指示を入力するスライドスイッチである。   The attribute selection switch SW4 is a slide switch for inputting an operation instruction for selecting an attribute to be added to the video data.

通信モードスイッチSW5は、第1カメラ10と外部機器との間の通信モードを設定するための操作指示を入力するスライドスイッチである。   The communication mode switch SW5 is a slide switch that inputs an operation instruction for setting a communication mode between the first camera 10 and an external device.

インジケータスイッチSW6は、LED26a〜26c及びバイブレータ27による動作状態表示モードを設定するための操作指示を入力するスライドスイッチである。録画スイッチSW1、スナップショットスイッチSW2、属性情報付与スイッチSW3、属性選択スイッチSW4は、警察官OFの緊急時の出動においても容易に操作が可能に構成される。なお、録画スイッチSW1,スナップショットスイッチSW2,属性情報付与スイッチSW3,属性選択スイッチSW4,通信モードスイッチSW5,インジケータスイッチSW6は、上記の形態に限定されず、警察官OFによる操作指示の入力が可能な他の形態の操作入力デバイスであってもよい。   The indicator switch SW6 is a slide switch for inputting an operation instruction for setting an operation state display mode by the LEDs 26a to 26c and the vibrator 27. The recording switch SW1, the snapshot switch SW2, the attribute information addition switch SW3, and the attribute selection switch SW4 are configured so that they can be easily operated even when the police officer OF is dispatched in an emergency. Note that the recording switch SW1, the snapshot switch SW2, the attribute information assignment switch SW3, the attribute selection switch SW4, the communication mode switch SW5, and the indicator switch SW6 are not limited to the above forms, and an operation instruction can be input by the police officer OF. Other types of operation input devices may be used.

LED26aは、第1カメラ10の電源投入状態(オンオフ状態)及びバッテリ25の状態を示す。   The LED 26 a indicates the power-on state (on / off state) of the first camera 10 and the state of the battery 25.

LED26bは、第1カメラ10の撮像動作の状態(録画状態)を示す。   The LED 26b indicates the state of the imaging operation (recording state) of the first camera 10.

LED26cは、第1カメラ10の通信モードの状態を示す。   The LED 26 c indicates the state of the communication mode of the first camera 10.

MCU19は、録画スイッチSW1、スナップショットスイッチSW2、属性情報付与スイッチSW3、属性選択スイッチSW4、通信モードスイッチSW5、インジケータスイッチSW6の各スイッチの押下検出を行い、操作があったスイッチ押下に対する処理を行う。例えば録画スイッチSW1の押下操作を検出した場合、MCU19は、撮像部11における撮像動作の開始又は停止を制御し、撮像部11から得られた撮像データを動画像の映像データとして記憶部15に保存する。また、例えばスナップショットスイッチSW2の押下操作を検出した場合、MCU19は、スナップショットスイッチSW2が操作されたときの撮像部11による撮像データを静止画の映像データとして記憶部15に保存する。   The MCU 19 detects pressing of each of the recording switch SW1, the snapshot switch SW2, the attribute information addition switch SW3, the attribute selection switch SW4, the communication mode switch SW5, and the indicator switch SW6, and performs processing for pressing the switch that has been operated. . For example, when the pressing operation of the recording switch SW1 is detected, the MCU 19 controls the start or stop of the imaging operation in the imaging unit 11, and saves the imaging data obtained from the imaging unit 11 in the storage unit 15 as video data of a moving image. To do. Further, for example, when a pressing operation of the snapshot switch SW2 is detected, the MCU 19 stores the image data captured by the imaging unit 11 when the snapshot switch SW2 is operated in the storage unit 15 as video data of a still image.

また、MCU19は、例えば属性情報付与スイッチSW3の操作入力を検出した場合、予め設定された属性情報を映像データに付与し、映像データと対応付けて記憶部15に保存する。この際、属性選択スイッチSW4の選択状態といずれかの属性情報との対応関係を示す対応情報をEEPROM16に保持しておき、MCU19は、属性選択スイッチSW4の選択状態を検出し、属性選択スイッチSW4の選択状態に応じた属性情報を付与する。また、MCU19は、通信モードスイッチSW5の状態を検出し、通信モードスイッチSW5の設定に応じた通信モードによって通信部21を動作させる。また、MCU19は、録画動作を開始した場合、インジケータスイッチSW6の状態を検出し、インジケータスイッチSW6の設定に応じて、LED表示及び/又はバイブレータ振動によって録画動作の状態を外部に示す報知を行う。   Further, for example, when detecting an operation input of the attribute information addition switch SW3, the MCU 19 assigns preset attribute information to the video data, and stores it in the storage unit 15 in association with the video data. At this time, correspondence information indicating the correspondence between the selection state of the attribute selection switch SW4 and any attribute information is held in the EEPROM 16, and the MCU 19 detects the selection state of the attribute selection switch SW4, and the attribute selection switch SW4. Attribute information corresponding to the selected state is assigned. Further, the MCU 19 detects the state of the communication mode switch SW5 and operates the communication unit 21 in a communication mode according to the setting of the communication mode switch SW5. Further, when the recording operation is started, the MCU 19 detects the state of the indicator switch SW6, and notifies the outside of the state of the recording operation by LED display and / or vibrator vibration according to the setting of the indicator switch SW6.

図7は、本実施形態の第2カメラ10Sの内部構成の一例を示すブロック図である。図7に示す第2カメラ10Sは、撮像用のレンズ11s1と、イメージセンサ11s2と、信号処理部11s3と、伝送部11s4と、通信I/F部11s5と、マイク11s6と、録画スイッチSW1sとを含む構成である。   FIG. 7 is a block diagram showing an example of the internal configuration of the second camera 10S of the present embodiment. The second camera 10S shown in FIG. 7 includes an imaging lens 11s1, an image sensor 11s2, a signal processing unit 11s3, a transmission unit 11s4, a communication I / F unit 11s5, a microphone 11s6, and a recording switch SW1s. It is the composition which includes.

レンズ11s1は、第2カメラ10Sの外部から入射する環境光を集光し、イメージセンサ11s2の撮像面に結像させる。   The lens 11s1 collects ambient light incident from the outside of the second camera 10S and forms an image on the imaging surface of the image sensor 11s2.

イメージセンサ11s2は、例えばCCD又はCMOSの固体撮像素子を用いて構成され、撮像面に結像した光学像を電気信号に変換する。イメージセンサ11s2の出力は、信号処理部11s3に入力される。   The image sensor 11s2 is configured using, for example, a CCD or CMOS solid-state imaging device, and converts an optical image formed on the imaging surface into an electrical signal. The output of the image sensor 11s2 is input to the signal processing unit 11s3.

信号処理部11s3は、イメージセンサ11s2の出力を用いて、人が認識可能なRGB(Red Green Blue)形式の画像データ又はYUV(輝度(Y)・色差(U、V))により規定される画像データのフレームを生成し、生成したフレームを伝送部11s4に出力する。   The signal processing unit 11 s 3 uses the output of the image sensor 11 s 2, and RGB (Red Green Blue) format image data or YUV (luminance (Y) / color difference (U, V)) that can be recognized by humans. A frame of data is generated, and the generated frame is output to the transmission unit 11s4.

伝送部11s4は、信号処理部11s3により生成された画像データのフレームを用いて、画像データの保存及び送信が可能なデータフォーマットに変換するための符号化データを生成して通信I/F部11s5に出力する。   The transmission unit 11s4 uses the frame of the image data generated by the signal processing unit 11s3 to generate encoded data for conversion into a data format that can store and transmit the image data, and the communication I / F unit 11s5. Output to.

通信I/F部11s5は、伝送部11s4からの出力(つまり、画像データのフレーム)、マイク11s6からの出力(つまり、音声データ)、又は録画スイッチSW1sからの出力(つまり、録画の開始/停止の操作に関する信号)を、ケーブルCBを介して第1カメラ10に出力(転送)する。   The communication I / F unit 11s5 outputs (that is, a frame of image data) from the transmission unit 11s4, outputs from the microphone 11s6 (that is, audio data), or outputs from the recording switch SW1s (that is, starts / stops recording). ) Is output (transferred) to the first camera 10 via the cable CB.

マイク11s6は、第2カメラ10Sの周囲の音声(例えば警察官OFが急行した現場の音声)を収音し、収音により得られた音声の音声データを通信I/F部11s5に出力する。   The microphone 11s6 picks up the sound around the second camera 10S (for example, the sound of the field where the police officer OF rushed) and outputs the sound data of the sound obtained by the sound collection to the communication I / F unit 11s5.

録画スイッチSW1sは、警察官OFの押下操作による録画(動画の撮像)の開始/停止の操作指示を入力する押しボタンスイッチである。録画スイッチSW1sにおいて検出された操作に関する信号は、通信I/F部11s5に入力される。録画スイッチSW1sにおける録画の開始/停止の操作は、第1カメラ10の録画スイッチSW1における録画の開始/停止の操作と同様である。   The recording switch SW1s is a push button switch for inputting an operation instruction to start / stop recording (moving image capturing) by a pressing operation of the police officer OF. A signal related to the operation detected in the recording switch SW1s is input to the communication I / F unit 11s5. The recording start / stop operation at the recording switch SW1s is the same as the recording start / stop operation at the recording switch SW1 of the first camera 10.

次に、本実施形態の第1カメラ10における映像データへの属性情報の付与について説明する。ウェアラブルカメラシステム100において、第1カメラ10が、第2カメラ10Sから第1カメラ10に切り替えられて撮像された第1映像データ、第1カメラ10から第2カメラ10Sに切り替えられて撮像された第2映像データ、又は、第1カメラ10及び第2カメラ10Sの両方が撮像した第1映像データ及び第2映像データを、バックエンドサーバSV1〜SV3へ転送して蓄積した映像データを利用する場合を想定する。   Next, description will be made regarding the addition of attribute information to video data in the first camera 10 of the present embodiment. In the wearable camera system 100, the first camera 10 is switched from the second camera 10S to the first camera 10, and the first video data is captured. The first camera 10 is switched from the first camera 10 to the second camera 10S and is captured. 2 video data, or the case where the video data accumulated by transferring the first video data and the second video data captured by both the first camera 10 and the second camera 10S to the back-end servers SV1 to SV3 is used. Suppose.

この場合、蓄積した映像データの中から、映像内容の種別、撮像したユーザ、日時、場所等、映像データに関連する何らかの属性情報を基にして対象の映像データを抽出し、再生することになる。映像データに属性情報が存在しないと、何を撮像した映像であるかの判別が困難であり、目的の映像データを抽出できないため、多くの映像データを蓄積する場合には属性情報を付与することが必要になる。   In this case, the target video data is extracted from the stored video data based on some attribute information related to the video data, such as the type of video content, the user who took the image, the date and time, the location, etc., and played back. . If there is no attribute information in the video data, it is difficult to determine what the captured video is, and the target video data cannot be extracted. Therefore, when storing a lot of video data, add attribute information. Is required.

本実施形態では、属性情報として映像内容の種別を示す分類情報(Classify)を付与し、映像データを各種別に振り分け可能にする。なお、属性情報としては分類情報に限定されず、録画した映像データに関するあらゆる情報が含まれる。また、属性情報としての分類情報は、階層構造とし、又は分類を異なる複数の系統によってカテゴリ分けしてもよい。   In the present embodiment, classification information (Classify) indicating the type of video content is assigned as attribute information so that video data can be sorted into various types. Note that the attribute information is not limited to the classification information, and includes any information related to the recorded video data. Further, the classification information as the attribute information may have a hierarchical structure or may be categorized by a plurality of systems with different classifications.

警察官OFが第1カメラ10、第2カメラ10S、又は第1カメラ10及び第2カメラ10Sにより撮像した現場から離れて、後で警察署内のPC等で属性情報を付与する場合には、警察官OFが映像データを再生しながら種別を判断して属性情報を付与することになるため、時間及び手間がかかる。また、属性情報が未付与の映像データが溜まると、個々の映像データの確認に手間がかかり、種別の判断及び属性情報の付与に多くの労力を要する。そこで、本実施形態では、第1カメラ10において、録画した直後、又は録画している間に属性情報を容易に付与できる構成例を示す。   When the police officer OF leaves the first camera 10, the second camera 10 </ b> S, or the site captured by the first camera 10 and the second camera 10 </ b> S, and later assigns attribute information with a PC or the like in the police station, Since the police officer OF determines the type and gives the attribute information while reproducing the video data, it takes time and effort. In addition, when video data to which attribute information is not assigned is accumulated, it takes time to confirm individual video data, and much effort is required for determining the type and giving attribute information. Therefore, in the present embodiment, a configuration example is shown in which the first camera 10 can easily add attribute information immediately after recording or during recording.

図8は、属性選択スイッチSW4と属性情報との関係の一例を示す図である。第1カメラ10を使用する場合、図8に示すように、属性選択スイッチSW4の状態(接点位置)C1〜C3にそれぞれ対応して、属性情報を割り付けて設定しておく。図示例は、警察官OFが事件現場の様子を撮像する場合を想定し、C1に交通事故、C2に飲酒運転、C3に速度超過がそれぞれ割り付けられている。属性情報の割り付けは、複数定義された属性情報の中から、警察官OFにとって使用頻度の高い属性情報が選択的に設定される。図8に示すテーブルの内容(つまり、属性選択スイッチSW4と属性情報との関係を規定する情報)は、第1カメラ10のEEPROM16に設定情報の一つとして記憶される。   FIG. 8 is a diagram illustrating an example of the relationship between the attribute selection switch SW4 and attribute information. When the first camera 10 is used, as shown in FIG. 8, attribute information is assigned and set in correspondence with the states (contact positions) C1 to C3 of the attribute selection switch SW4. In the illustrated example, assuming that the police officer OF images the scene of the incident, a traffic accident is assigned to C1, drunk driving is assigned to C2, and overspeed is assigned to C3. In the attribute information allocation, attribute information frequently used by the police officer OF is selectively set from among a plurality of defined attribute information. The contents of the table shown in FIG. 8 (that is, information defining the relationship between the attribute selection switch SW4 and the attribute information) are stored as one piece of setting information in the EEPROM 16 of the first camera 10.

図9は、録画データのデータ構造の一例を示す図である。図10は、録画映像リストの第1例を示す図である。本実施形態の第1カメラ10では、録画された映像データを記憶部15に記憶する場合、図9に示すように、撮像した映像データとともに、この映像データに関連する属性情報を含むメタ情報を生成し、両者のデータを関連付けた録画データとして、記憶部15に記憶する。即ち、記憶部15に記憶された録画データには、映像データとメタ情報とが含まれる。   FIG. 9 is a diagram illustrating an example of the data structure of the recording data. FIG. 10 is a diagram illustrating a first example of a recorded video list. In the first camera 10 of the present embodiment, when the recorded video data is stored in the storage unit 15, as shown in FIG. 9, meta information including attribute information related to the video data is included along with the captured video data. Generated and stored in the storage unit 15 as recorded data in which both data are associated. That is, the recording data stored in the storage unit 15 includes video data and meta information.

第1カメラ10は、バックエンドサーバSV1〜SV3に映像データを転送する場合、映像データとメタ情報とを含む録画データを転送して蓄積する。図9に示す録画データは、第1カメラ10から第2カメラ10Sに切り替えられた場合には第2カメラ10Sにより撮像された第2映像データであり、第2カメラ10Sから第1カメラ10に切り替えられた場合には第1カメラ10により撮像された第1映像データであり、第1カメラ10或いは第2カメラ10Sの一方が先に撮像していた場合に後から他方を追加して撮像した場合には第1カメラ10,第2カメラ10Sにより撮像された第1映像データ,第2映像データの両方が含まれる。   When transferring the video data to the back-end servers SV1 to SV3, the first camera 10 transfers and stores the recording data including the video data and the meta information. The recorded data shown in FIG. 9 is the second video data captured by the second camera 10S when the first camera 10 is switched to the second camera 10S, and is switched from the second camera 10S to the first camera 10. If the first video data is captured by the first camera 10 when one of the first camera 10 or the second camera 10S is captured first, the other is added after the other. Includes both the first video data and the second video data captured by the first camera 10 and the second camera 10S.

映像データに関連するメタ情報は、例えば図10に示す録画映像リストとして記憶される。録画映像リストのメタ情報は、イベントID、時間情報、カメラID、ユーザID、録画カメラ情報、属性情報、GPS情報が含まれる。イベントIDは、録画対象となるイベントを識別するための識別情報である。   The meta information related to the video data is stored, for example, as a recorded video list shown in FIG. The meta information of the recorded video list includes event ID, time information, camera ID, user ID, recorded camera information, attribute information, and GPS information. The event ID is identification information for identifying an event to be recorded.

本実施形態では、第1カメラ10は、録画開始から録画終了までの1つの録画動作を1つのイベントとして規定し、個々の録画動作のイベント(以下、録画イベントとも称する)についてイベントIDを付与する。イベントIDとしては、映像データのファイル名等を用いてもよい。時間情報は、個々の録画イベントの時間情報であり、例えば録画開始時刻を付与する。時間情報としては、録画開始時刻だけでなく、録画開始時刻と録画終了時刻、録画開始時刻と録画継続時間、録画中に属性情報が付与された時間、撮像に使用されるウェアラブルカメラが切り替えられた時間、撮像に使用されるウェアラブルカメラが追加された時間等を用いてもよい。   In the present embodiment, the first camera 10 defines one recording operation from the start of recording to the end of recording as one event, and assigns an event ID to each recording operation event (hereinafter also referred to as a recording event). . As the event ID, a file name of video data or the like may be used. The time information is time information of each recording event, and for example, a recording start time is given. As time information, not only the recording start time but also the recording start time and recording end time, the recording start time and recording duration, the time when attribute information was given during recording, and the wearable camera used for imaging were switched You may use time, the time when the wearable camera used for imaging was added, etc.

カメラIDは、個々の第1カメラ10、第2カメラ10Sを識別するための識別情報である。ユーザIDは、第1カメラ10、第2カメラ10S、又はその両方を用いる警察官OFの識別情報である。第1カメラ10、第2カメラ10S、又はその両方を用いる際に、録画された映像データについて、どの個体のカメラを誰が使用して録画したものであるかを判別できるように、カメラIDとユーザIDとが設定される。   The camera ID is identification information for identifying each of the first camera 10 and the second camera 10S. The user ID is identification information of a police officer OF who uses the first camera 10, the second camera 10S, or both. When using the first camera 10, the second camera 10S, or both, the camera ID and the user are able to determine which individual camera was used to record the recorded video data. ID is set.

録画カメラ情報は、イベントID毎に、第1カメラ10、第2カメラ10SがユーザIDにより示される警察官によってどのように使用されて撮像されたかを示す情報である。   The recorded camera information is information indicating how the first camera 10 and the second camera 10S are used and imaged by the police officer indicated by the user ID for each event ID.

具体的には、イベントIDが「Event001」では、録画カメラ情報は、先ず第2カメラ10Sにより撮像されていたが、同じ録画イベントの途中で第1カメラ10に切り替えて使用されたことを示す情報である(第2→第1参照)。従って、イベントIDが「Event001」では、カメラIDは、第1カメラ10を示す「BWC0001」となる。   Specifically, when the event ID is “Event001”, the recording camera information is first captured by the second camera 10S, but is information indicating that the recording camera information has been switched to the first camera 10 during the same recording event. (See second → first). Therefore, when the event ID is “Event001”, the camera ID is “BWC0001” indicating the first camera 10.

また、イベントIDが「Event002」では、録画カメラ情報は、先ず第1カメラ10により撮像されていたが、同じ録画イベントの途中で第2カメラ10Sに切り替えて使用されたことを示す情報である(第1→第2参照)。この場合には、イベントIDが「Event001」では、カメラIDは、第2カメラ10Sを示す「BWC0002」となる。   Further, when the event ID is “Event002”, the recording camera information is information indicating that the first camera 10 was first picked up, but was switched to the second camera 10S and used during the same recording event ( 1st-> 2nd reference). In this case, when the event ID is “Event001”, the camera ID is “BWC0002” indicating the second camera 10S.

更に、イベントIDが「Event003」では、録画カメラ情報は、終始第1カメラ10により撮像されていたことを示す情報である(第1のみ参照)。この場合には、カメラIDは、第1カメラ10を示す「BWC0001」となる。   Furthermore, when the event ID is “Event003”, the recording camera information is information indicating that the first camera 10 has been captured all the time (see only the first). In this case, the camera ID is “BWC0001” indicating the first camera 10.

更に、イベントIDが「Event004」では、録画カメラ情報は、先ず第1カメラ10により撮像されていたが、同じ録画イベントの途中で第1カメラ10から第2カメラ10Sに切り替えて使用されたことを示す情報である(第1カメラ/第2カメラ参照)。また、イベントIDが「Event004」では、「2014年12月2日22時00分10秒」に、第1カメラ10により撮像された第1映像データに属性情報「速度超過」が付与され、更に、「2014年12月2日22時10分50秒」に、第2カメラ10Sにより撮像された第2映像データに属性情報「飲酒運転」が付与されている。従って、イベントIDが「Event004」では、カメラIDは、切替前に使用された第1カメラ10を示す「BWC0001」と、切替後に使用された第2カメラ10Sを示す「BWC0002」との両方が規定される。   Furthermore, when the event ID is “Event 004”, the recording camera information was first captured by the first camera 10, but it was changed over from the first camera 10 to the second camera 10 S during the same recording event. Information (see first camera / second camera). When the event ID is “Event004”, the attribute information “Overspeed” is added to the first video data captured by the first camera 10 on “December 2, 2014, 22:00:10”. The attribute information “Drinking driving” is given to the second video data captured by the second camera 10S at “22:10:50 on December 2, 2014”. Therefore, when the event ID is “Event004”, the camera ID is defined by both “BWC0001” indicating the first camera 10 used before switching and “BWC0002” indicating the second camera 10S used after switching. Is done.

なお、第1カメラ10から第2カメラ10Sに切り替わる場合或いはその逆の場合でも、第1カメラ10は、第1カメラ10が撮像した第1映像データ或いは第2カメラ10Sが撮像した第2映像データにそれぞれ異なる属性情報を付与することも可能である。   Even when the first camera 10 is switched to the second camera 10S or vice versa, the first camera 10 is the first video data captured by the first camera 10 or the second video data captured by the second camera 10S. It is also possible to assign different attribute information to each.

属性情報は、映像データの種別を識別するための分類情報であり、図8に示す属性選択スイッチSW4の選択状態と属性情報との関係を示す情報に基づき、警察官OFによる属性情報付与スイッチSW3及び属性選択スイッチSW4の操作に従って付与される。GPS情報は、映像データの録画が行われた場所を示す位置情報であり、例えば録画開始時の現在位置情報をGPS18から取得してMCU19により付与される。上記の各メタ情報は、例えば録画開始時、録画中又は録画終了の直後に、MCU19の処理によって付与され、映像データと関連付けて記憶部15に記憶される。   The attribute information is classification information for identifying the type of video data. Based on the information indicating the relationship between the selection state of the attribute selection switch SW4 and the attribute information shown in FIG. 8, the attribute information addition switch SW3 by the police officer OF. And given according to the operation of the attribute selection switch SW4. The GPS information is position information indicating a place where video data is recorded. For example, current position information at the start of recording is acquired from the GPS 18 and given by the MCU 19. Each of the meta information is given by the processing of the MCU 19 at the start of recording, during recording or immediately after the end of recording, and stored in the storage unit 15 in association with the video data.

次に、本実施形態のウェアラブルカメラシステム100において1ch録画(つまり、第1カメラ10又は第2カメラ10Sを用いた録画)に用いるウェアラブルカメラの切替、及び切替後に用いたウェアラブルカメラにより録画した1個の録画データに1個の属性情報を付与する動作について、図11を参照して説明する。図11は、本実施形態のウェアラブルカメラシステムにおいて1ch録画に用いるウェアラブルカメラの切替、及び切替後に用いたウェアラブルカメラにより録画した1個の録画データに1個の属性情報を付与する動作手順の一例を説明するフローチャートである。   Next, in the wearable camera system 100 of the present embodiment, one wearable camera used for 1ch recording (that is, recording using the first camera 10 or the second camera 10S) and one recorded by the wearable camera used after the switching are recorded. The operation of assigning one piece of attribute information to the recorded data will be described with reference to FIG. FIG. 11 shows an example of an operation procedure for switching one wearable camera used for 1ch recording in the wearable camera system according to the present embodiment and adding one piece of attribute information to one record data recorded by the wearable camera used after the switch. It is a flowchart to explain.

図11において、第1カメラ10のMCU19は、ステップS12に示す録画動作に先立って、第1カメラ10の初期設定を実行する(S11)。第1カメラ10の初期設定は、例えば警察官OFが出動する際に、警察署内のPCに接続し、PCを操作して各種の設定情報(例えばカメラID、ユーザID)を転送することによって行う。初期設定として、MCU19は、カメラID及びユーザIDの付与(図10参照)、属性情報付与スイッチSW3と属性選択スイッチSW4の有効化、属性選択スイッチSW4の選択状態に対応する複数の属性情報の割り付け(図8参照)を実行する。   In FIG. 11, the MCU 19 of the first camera 10 performs initial setting of the first camera 10 prior to the recording operation shown in step S12 (S11). For example, when the police officer OF is dispatched, the initial setting of the first camera 10 is performed by connecting to a PC in the police station and operating the PC to transfer various setting information (for example, camera ID and user ID). Do. As an initial setting, the MCU 19 assigns a plurality of attribute information corresponding to the assignment of a camera ID and a user ID (see FIG. 10), the activation of the attribute information assignment switch SW3 and the attribute selection switch SW4, and the selection state of the attribute selection switch SW4. (See FIG. 8).

MCU19は、警察官OFの一定時間(例えば1秒程度)の録画スイッチSW1の押下操作を検出すると、撮像部11により撮像された画像(映像)の録画動作を開始し、撮像部11により撮像された動画の映像データを記憶部15に記憶する(S12)。   When the MCU 19 detects the pressing operation of the recording switch SW1 for a certain time (for example, about 1 second) by the police officer OF, the MCU 19 starts the recording operation of the image (video) captured by the imaging unit 11, and is captured by the imaging unit 11. The video data of the moving image is stored in the storage unit 15 (S12).

ここで、第1カメラ10の録画が継続されない場合には(S13、NO)、第1カメラ10の処理は終了する。   Here, when the recording of the first camera 10 is not continued (S13, NO), the processing of the first camera 10 ends.

一方、第1カメラ10の録画が継続される場合であって(S13、YES)、警察官OFが撮像領域(例えば現場)の状況を撮像するためのウェアラブルカメラを第1カメラ10から第2カメラ10Sに切り替えた場合には(S14、YES)、第2カメラ10Sは、撮像を開始する。第2カメラ10Sにより撮像された動画の映像データは、第2カメラ10Sによる撮像が継続される間、都度ケーブルCBを介して第1カメラ10に転送される。   On the other hand, when the recording of the first camera 10 is continued (S13, YES), the wearable camera for the police officer OF to capture the situation of the imaging region (for example, the site) is changed from the first camera 10 to the second camera. When switched to 10S (S14, YES), the second camera 10S starts imaging. The video data of the moving image captured by the second camera 10S is transferred to the first camera 10 via the cable CB each time the imaging by the second camera 10S is continued.

撮像領域(例えば現場)の状況を撮像するためのウェアラブルカメラを第1カメラ10から第2カメラ10Sに切り替えるためには、例えば警察官OFが録画中の第1カメラ10を、ケーブルCBを介して第2カメラ10Sに接続すればよい。他には、第1カメラ10と第2カメラ10SとがケーブルCBを介して既に接続されている場合に、第1カメラ10に対する操作は何もなく、第2カメラ10Sの録画スイッチSW1sが一定時間(例えば1秒程度)継続的に押下されてもよい。いずれにしても、本実施形態では、上述した簡易な操作により、撮像領域(例えば現場)の状況を撮像するためのウェアラブルカメラを第1カメラ10から第2カメラ10Sに切り替えることが可能である。   In order to switch from the first camera 10 to the second camera 10S as the wearable camera for imaging the situation of the imaging area (for example, the site), for example, the first camera 10 being recorded by the police officer OF is connected via the cable CB. What is necessary is just to connect to the 2nd camera 10S. In addition, when the first camera 10 and the second camera 10S are already connected via the cable CB, there is no operation on the first camera 10 and the recording switch SW1s of the second camera 10S is set for a certain time. It may be pressed continuously (for example, about 1 second). In any case, in the present embodiment, the wearable camera for imaging the state of the imaging region (for example, the site) can be switched from the first camera 10 to the second camera 10S by the simple operation described above.

一方、警察官OFが撮像領域(例えば現場)の状況を撮像するためのウェアラブルカメラを第1カメラ10から第2カメラ10Sに切り替えていない場合には(S14、NO)、第1カメラ10の録画が継続し、第1カメラ10の処理はステップS13に戻る。なお、ステップS12では第1カメラ10が先に録画に使用され、ステップS14において切替後の録画に使用されるウェアラブルカメラが第2カメラ10Sであるとして説明しているが、その逆でもよく、以下同様である。つまり、ステップS12では第2カメラ10Sが先に録画に使用され、ステップS14において切替後の録画に使用されるウェアラブルカメラが第1カメラ10でもよい。   On the other hand, when the police officer OF has not switched from the first camera 10 to the second camera 10S as the wearable camera for imaging the situation of the imaging area (for example, the scene) (S14, NO), the recording of the first camera 10 is performed. And the process of the first camera 10 returns to step S13. In step S12, the first camera 10 is used for recording first, and the wearable camera used for recording after switching in step S14 is the second camera 10S. It is the same. That is, in step S12, the second camera 10S may be used for recording first, and the wearable camera used for recording after switching in step S14 may be the first camera 10.

第2カメラ10Sの録画が開始した後、MCU19は、第1カメラ10の属性選択スイッチSW4の選択状態を検出し(S15)、属性情報付与スイッチSW3の入力の有無を判定する(S15)。   After the recording of the second camera 10S is started, the MCU 19 detects the selection state of the attribute selection switch SW4 of the first camera 10 (S15), and determines whether or not the attribute information addition switch SW3 is input (S15).

属性情報付与スイッチSW3からの入力があった場合には(S16、YES)、MCU19は、属性選択スイッチSW4の選択状態に対応する属性情報をEEPROM16から読み込み、第2カメラ10Sが撮像した第2映像データに対して付与する(S17)。MCU19は、付与した属性情報を含むメタ情報を記憶部15に出力し、直前に録画動作を終了して記憶した映像データと関連付けて記憶する(S18)。なお、本実施形態では、第2カメラ10Sが撮像している間に、第1カメラ10に対する警察官OFの操作により、第2カメラ10Sが撮像している第2映像データに対して属性情報が付与されてもよいし、第2カメラ10Sの撮像が終了した後に、第2映像データに対して属性情報が付与されてもよく、以下同様である。   When there is an input from the attribute information addition switch SW3 (S16, YES), the MCU 19 reads the attribute information corresponding to the selection state of the attribute selection switch SW4 from the EEPROM 16, and the second video imaged by the second camera 10S. It is given to the data (S17). The MCU 19 outputs the meta information including the assigned attribute information to the storage unit 15 and stores the meta information in association with the stored video data after finishing the recording operation immediately before (S18). In the present embodiment, attribute information is provided for the second video data captured by the second camera 10S by the operation of the police officer OF with respect to the first camera 10 while the second camera 10S is capturing an image. The attribute information may be assigned to the second video data after the second camera 10S finishes imaging, and so on.

メタ情報には、イベントID、時間情報(例えばウェアラブルカメラの切替を行った時間で第2カメラ10Sによる撮像が開始された時間)、カメラID、ユーザID、録画カメラ情報(例えば1ch録画に用いたウェアラブルカメラ情報)、属性情報、GPS情報が含まれる(図10参照)。これにより、本実施形態のウェアラブルカメラシステム100の動作は終了する。   The meta information includes event ID, time information (for example, time when imaging by the second camera 10S is started when the wearable camera is switched), camera ID, user ID, and recording camera information (for example, used for 1ch recording). Wearable camera information), attribute information, and GPS information (see FIG. 10). Thereby, the operation of the wearable camera system 100 of the present embodiment ends.

また、上記の例では、予め属性選択スイッチSW4に割り付けた属性情報の中から、属性選択スイッチSW4の状態に対応する属性情報を付与するようにしたが、例えば、音声認識機能を用いて、ユーザが発した音声に対応する属性情報を付与することも可能である。   In the above example, the attribute information corresponding to the state of the attribute selection switch SW4 is assigned from the attribute information previously assigned to the attribute selection switch SW4. It is also possible to give attribute information corresponding to the voice uttered.

このように、本実施形態のウェアラブルカメラシステム100では、ユーザ(例えば警察官OF)が装着可能な第1カメラ10及び第2カメラ10Sが用いられ、第1カメラ10は、第1カメラ10が撮像した第1映像データを記憶部15に記憶する。第2カメラ10Sは、第1カメラ10から第2カメラ10Sに切り替えて撮像された場合に、第2カメラ10Sが撮像した第2映像データを第1カメラ10に送信する。第1カメラ10は、第1カメラ10から第2カメラ10Sに切り替えて撮像された場合に、第2カメラ10Sから送信された第2映像データを受信し、第2映像データに関する属性情報の付与操作を受け付けると、付与操作に応じて、属性情報を第2映像データに付与して記憶部15に記憶し、第1カメラが撮像した第1映像データを記憶部から削除する。   Thus, in the wearable camera system 100 of the present embodiment, the first camera 10 and the second camera 10S that can be worn by the user (for example, a police officer OF) are used, and the first camera 10 captures an image of the first camera 10. The first video data is stored in the storage unit 15. The second camera 10 </ b> S transmits the second video data captured by the second camera 10 </ b> S to the first camera 10 when switched from the first camera 10 to the second camera 10 </ b> S. When the first camera 10 is switched from the first camera 10 to the second camera 10S and picks up an image, the first camera 10 receives the second video data transmitted from the second camera 10S, and assigns attribute information related to the second video data. Is received, attribute information is assigned to the second video data and stored in the storage unit 15 according to the giving operation, and the first video data captured by the first camera is deleted from the storage unit.

これにより、ウェアラブルカメラシステム100は、ユーザ(例えば警察官OF)が緊急時に急行した現場の状況を的確かつ広範に撮像するために、第1カメラ10から第2カメラ10Sに切り替えて撮像した場合には、切替によって不要となった第1映像データを削除し、切替後に使用される第2カメラ10Sが撮像した第2映像データに対し、第1カメラ10単体に対する簡易な操作により、第2映像データがどのような種類の映像であるかを示す属性情報を付与できる。従って、ウェアラブルカメラシステム100は、ユーザ(例えば警察官OF)における現場の状況の的確かつ広範な撮像を支援でき、更に、撮像した映像データ(第2映像データ)を取り扱う上での利便性を向上させることができる。   As a result, the wearable camera system 100 switches the image from the first camera 10 to the second camera 10S in order to accurately and extensively capture the situation of the scene where the user (for example, police officer OF) rushed in an emergency. Deletes the first video data that is no longer required by the switching, and the second video data is obtained by a simple operation on the first camera 10 alone with respect to the second video data captured by the second camera 10S used after the switching. Attribute information indicating what kind of video is. Therefore, the wearable camera system 100 can support accurate and wide-ranging imaging of the situation of the site by the user (for example, police officer OF), and further improves convenience in handling the captured video data (second video data). Can be made.

また、本実施形態のウェアラブルカメラシステム100では、第2カメラ10Sは、第2カメラ10Sから第1カメラ10に切り替えて撮像された場合に、第1カメラ10に切り替えられるまでに撮像した第2映像データを第1カメラ10に送信する。第1カメラ10は、第2カメラ10Sから第1カメラ10に切り替えて撮像された場合に、第2カメラ10Sから送信された第2映像データを受信し、第2カメラ10Sから送信された第2映像データを破棄し、第1映像データに関する属性情報の付与操作を受け付けると、付与操作に応じて、属性情報を第1映像データに付与して記憶部15に記憶する。   In the wearable camera system 100 of the present embodiment, when the second camera 10S is switched from the second camera 10S to the first camera 10 and captured, the second video captured until the first camera 10 is switched. Data is transmitted to the first camera 10. When the first camera 10 is switched from the second camera 10S to the first camera 10 and captured, the first camera 10 receives the second video data transmitted from the second camera 10S and receives the second video data transmitted from the second camera 10S. When the video data is discarded and an operation for giving attribute information related to the first video data is accepted, the attribute information is given to the first video data and stored in the storage unit 15 according to the giving operation.

これにより、ウェアラブルカメラシステム100は、ユーザ(例えば警察官OF)が緊急時に急行した現場の状況を的確かつ広範に撮像するために、第2カメラ10Sから第1カメラ10に切り替えて撮像した場合には、切替によって不要となった第2映像データを破棄し、切替後に使用される第1カメラ10が撮像した第1映像データに対し、第1カメラ10単体に対する簡易な操作により、第1映像データがどのような種類の映像であるかを示す属性情報を付与できる。従って、ウェアラブルカメラシステム100は、ユーザ(例えば警察官OF)における現場の状況の的確かつ広範な撮像を支援でき、更に、撮像した映像データ(第1映像データ)を取扱う上での利便性を向上させることができる。   As a result, the wearable camera system 100 switches from the second camera 10 </ b> S to the first camera 10 in order to accurately and extensively capture the situation at the scene where the user (for example, a police officer OF) rushed in an emergency. Discards the second video data that is no longer required by switching, and the first video data is obtained by a simple operation on the first camera 10 alone with respect to the first video data captured by the first camera 10 used after switching. Attribute information indicating what kind of video is. Therefore, the wearable camera system 100 can support accurate and wide-ranging imaging of the situation in the field for the user (for example, police officer OF), and further improves the convenience in handling the captured video data (first video data). Can be made.

このため、ユーザ(例えば警察官OF)は、緊急時の撮像現場であっても、第1カメラ10と第2カメラ10Sとを適宜切り替えて撮像することにより、切替後の撮像に使用された第1カメラ10が撮像した第1映像データ又は第2カメラ10Sが撮像した第2映像データの属性情報を確実に付与できる。また、切替前に撮像された第1映像データ又は第2映像データは第1カメラ10において削除又は破棄されるので、第1カメラ10の記憶容量の増大を回避できる。更に、警察署のバックエンドシステムに配置されたサーバに蓄積した映像データを利用する場合には、ユーザ(例えばバックエンドシステムの利用者)は、映像データに対して付与された属性情報を参照することにより、どの種別の映像データであるかを容易に判別して抽出でき、更に、属性情報を含むメタ情報によって、いつ、どこで、どのカメラで誰が撮像した、どのような内容の映像であるかを容易に識別できる。   For this reason, even if the user (for example, a police officer OF) is an imaging site in an emergency, the user can switch the first camera 10 and the second camera 10S as appropriate to capture the first image used for switching after switching. The attribute information of the first video data captured by the first camera 10 or the second video data captured by the second camera 10S can be reliably given. In addition, since the first video data or the second video data captured before switching is deleted or discarded in the first camera 10, an increase in the storage capacity of the first camera 10 can be avoided. Further, when using video data stored in a server arranged in a back-end system of a police station, a user (for example, a user of the back-end system) refers to attribute information given to the video data. Therefore, it is possible to easily identify and extract which type of video data, and by using meta information including attribute information, when, where, and by what camera, what kind of content is captured Can be easily identified.

なお、本実施形態では、撮像領域(例えば現場)の撮像に用いるウェアラブルカメラを第1カメラ10又は第2カメラ10Sのうち一方から他方に切り替えてもよいし、予め一方のウェアラブルカメラ(例えば第1カメラ10)により撮像されている状態で、後から追加して他方のウェアラブルカメラ(例えば第2カメラ10S)により撮像されてもよい(図12、図13参照)。図12は、録画映像リストの第2例を示す図である。図12の説明では、図10の説明と重複する内容の説明を省略し、異なる内容について説明する。図12に示す録画映像リストでは、図10に示す録画映像リストと異なる箇所は、録画カメラ情報である。   In the present embodiment, the wearable camera used for imaging in the imaging region (for example, the field) may be switched from one to the other of the first camera 10 or the second camera 10S, or one of the wearable cameras (for example, the first camera in advance). In the state of being imaged by the camera 10), it may be added later and imaged by the other wearable camera (for example, the second camera 10S) (see FIGS. 12 and 13). FIG. 12 is a diagram illustrating a second example of the recorded video list. In the description of FIG. 12, the description of the same content as the description of FIG. 10 is omitted, and different content is described. In the recorded video list shown in FIG. 12, a portion different from the recorded video list shown in FIG. 10 is recorded camera information.

具体的には、イベントIDが「Event001」及び「Event003」では、録画カメラ情報は、終始第1カメラ10により撮像されていたことを示す情報である(第1のみ参照)。この場合には、カメラIDは、第1カメラ10を示す「BWC0001」となる。   Specifically, when the event IDs are “Event001” and “Event003”, the recording camera information is information indicating that the first camera 10 has been captured all the time (see only the first). In this case, the camera ID is “BWC0001” indicating the first camera 10.

また、イベントIDが「Event002」では、録画カメラ情報は、先ず第1カメラ10により撮像されていたが、途中で第2カメラ10Sが追加されて撮像に使用されたことを示す情報である(第1カメラ+第2カメラ参照)。この場合には、イベントIDが「Event002」では、カメラIDは、第1カメラ10及び第2カメラ10Sを示す「BWC0001+BWC0002」となる。   Further, when the event ID is “Event002”, the recording camera information is information indicating that the first camera 10 was first imaged, but the second camera 10S was added and used for imaging (first image). (See 1 camera + 2nd camera). In this case, when the event ID is “Event002”, the camera ID is “BWC0001 + BWC0002” indicating the first camera 10 and the second camera 10S.

また、イベントIDが「Event004」では、録画カメラ情報は、先ず第1カメラ10により撮像されていたが、同じ録画イベントの途中で第2カメラ10Sが追加されて撮像に使用されたことを示す情報である(第1カメラ/第1カメラ+第2カメラ参照)。また、イベントIDが「Event004」では、「2014年12月2日22時00分10秒」に、第1カメラ10により撮像された第1映像データに属性情報「速度超過」が付与され、更に、「2014年12月2日22時10分50秒」に、第1カメラ10により撮像された第1映像データと第2カメラ10Sにより撮像された第2映像データとに属性情報「飲酒運転」が付与されている。従って、イベントIDが「Event004」では、カメラIDは、追加前に使用された第1カメラ10を示す「BWC0001」と、追加後に使用された第1カメラ10を示す「BWC0001」及び第2カメラ10Sを示す「BWC0002」との組み合わせを示す「BWC0001+BWC0002」の両方が規定される。   In addition, when the event ID is “Event004”, the recording camera information was first imaged by the first camera 10, but information indicating that the second camera 10S was added and used for imaging during the same recording event. (Refer to the first camera / first camera + second camera). When the event ID is “Event004”, the attribute information “Overspeed” is added to the first video data captured by the first camera 10 on “December 2, 2014, 22:00:10”. , The attribute information “Drinking driving” is included in the first video data captured by the first camera 10 and the second video data captured by the second camera 10S at “22:10:50 on December 2, 2014”. Is granted. Therefore, when the event ID is “Event004”, the camera ID is “BWC0001” indicating the first camera 10 used before the addition, “BWC0001” indicating the first camera 10 used after the addition, and the second camera 10S. Both “BWC0001 + BWC0002” indicating a combination with “BWC0002” indicating “BWC0002” are defined.

なお、第1カメラ10が先に撮像して後から第2カメラ10Sが追加される場合或いはその逆の場合でも、第1カメラ10は、第1カメラ10が撮像した第1映像データ及び第2カメラ10Sが撮像した第2映像データにそれぞれ異なる属性情報を付与することも可能である。   Note that even when the second camera 10S is added after the first camera 10 captures the image first, or vice versa, the first camera 10 captures the first video data and the second image captured by the first camera 10. It is also possible to give different attribute information to the second video data imaged by the camera 10S.

次に、本実施形態のウェアラブルカメラシステム100において同時2ch録画(つまり、第1カメラ10及び第2カメラ10Sを用いた録画)に用いるウェアラブルカメラの切替、及び同時2ch録画した2個の録画データに対して共通の属性情報を付与する動作について、図13を参照して説明する。図13は、本実施形態のウェアラブルカメラシステム100において同時2ch録画への切替、及び同時2ch録画に用いた各ウェアラブルカメラにより録画した各録画データに対して共通の属性情報を付与する動作手順の一例を説明するフローチャートである。なお、図13の説明では、図11の説明と重複する内容の説明は簡略化又は省略し、異なる内容について説明する。   Next, in the wearable camera system 100 of the present embodiment, the wearable camera used for simultaneous 2ch recording (that is, recording using the first camera 10 and the second camera 10S) is switched, and two recorded data recorded simultaneously 2ch are recorded. An operation for assigning common attribute information to the apparatus will be described with reference to FIG. FIG. 13 shows an example of an operation procedure for switching to simultaneous 2ch recording in the wearable camera system 100 of the present embodiment and for assigning common attribute information to recording data recorded by each wearable camera used for simultaneous 2ch recording. It is a flowchart explaining these. In the description of FIG. 13, description of contents overlapping with the description of FIG. 11 is simplified or omitted, and different contents are described.

図13において、ステップS12の後(つまり、第1カメラ10により録画されている状態において)、警察官OFが撮像領域(例えば現場)の状況を撮像するためのウェアラブルカメラを追加するために、ケーブルCBを介して第2カメラ10Sと第1カメラ10とを接続した場合には(S21、YES)、第2カメラ10Sは、撮像を開始する。この時、最初に撮像用に使用されていた第1カメラ10は第2カメラ10Sの追加に応じて撮像を停止してもよいし、撮像をそのまま継続してもよい。第2カメラ10Sにより撮像された動画の映像データは、ケーブルCBを介して第1カメラ10に転送される。   In FIG. 13, after step S <b> 12 (that is, in a state where video is recorded by the first camera 10), the police officer OF adds a wearable camera for imaging the situation of the imaging area (for example, the scene). When the second camera 10S and the first camera 10 are connected via CB (S21, YES), the second camera 10S starts imaging. At this time, the first camera 10 that was first used for imaging may stop imaging according to the addition of the second camera 10S, or may continue imaging. The video data of the moving image captured by the second camera 10S is transferred to the first camera 10 via the cable CB.

属性情報付与スイッチSW3からの入力があった場合には(S16、YES)、MCU19は、属性選択スイッチSW4の選択状態に対応する属性情報をEEPROM16から読み込み、第2カメラ10Sが第1カメラ10に接続されるまでに第1カメラ10が撮像した動画の第1映像データと第2カメラ10Sにより撮像された動画の第2映像データとに対して共通の属性情報(属性選択スイッチSW4の選択状態に対応する属性情報)を付与する(S22)。   When there is an input from the attribute information addition switch SW3 (S16, YES), the MCU 19 reads the attribute information corresponding to the selection state of the attribute selection switch SW4 from the EEPROM 16, and the second camera 10S transfers to the first camera 10. Attribute information common to the first video data of the moving image captured by the first camera 10 and the second video data of the moving image captured by the second camera 10S until they are connected (in the selection state of the attribute selection switch SW4). (Corresponding attribute information) is assigned (S22).

ステップS22の後、MCU19は、共通の属性情報を含むメタ情報を記憶部15に出力し、直前に録画動作を終了して記憶した映像データと関連付けて記憶する(S23)。メタ情報には、イベントID、時間情報(例えばウェアラブルカメラの追加を行った時間で第2カメラ10Sによる撮像が開始された時間)、カメラID、ユーザID、録画カメラ情報(例えば同時2ch録画に用いたウェアラブルカメラ情報)、属性情報、GPS情報が含まれる(図12参照)。これにより、本実施形態のウェアラブルカメラシステム100の動作は終了する。   After step S22, the MCU 19 outputs meta information including common attribute information to the storage unit 15, and stores the meta information in association with the stored video data immediately after the recording operation (S23). The meta information includes event ID, time information (for example, the time when imaging by the second camera 10S is started when a wearable camera is added), camera ID, user ID, and recording camera information (for example, for simultaneous 2ch recording). Wearable camera information), attribute information, and GPS information (see FIG. 12). Thereby, the operation of the wearable camera system 100 of the present embodiment ends.

以上により、本実施形態のウェアラブルカメラシステム100では、第1カメラ10は、第1カメラ10が撮像した第1映像データを記憶部15に記憶する。第2カメラ10Sは、第1カメラ10により先に撮像され、かつ後から第2カメラ10Sによる撮像が開始された場合には、第2カメラ10Sが撮像した第2映像データを第1カメラ10に送信する。第1カメラ10は、第1カメラ10により先に撮像され、かつ第2カメラ10Sによる撮像が開始された場合には、第2カメラ10Sから送信された第2映像データを受信し、第1映像データ及び第2映像データに関する属性情報の付与操作を受け付けると、付与操作に応じて、共通の属性情報を第1映像データ及び第2映像データに付与して記憶部15に記憶する。   As described above, in the wearable camera system 100 of the present embodiment, the first camera 10 stores the first video data captured by the first camera 10 in the storage unit 15. The second camera 10S captures the second video data captured by the second camera 10S in the first camera 10 when the first camera 10 captures the image first and when the second camera 10S starts capturing the image later. Send. The first camera 10 receives the second video data transmitted from the second camera 10S when the first camera 10 picks up the image first and the second camera 10S starts to pick up the first video. When an operation for giving attribute information related to the data and the second video data is received, common attribute information is given to the first video data and the second video data and stored in the storage unit 15 according to the giving operation.

これにより、ウェアラブルカメラシステム100は、ユーザ(例えば警察官OF)が緊急時に急行した現場の状況を的確かつ広範に撮像するために、第1カメラ10だけでなく第2カメラ10Sも用いて撮像を開始した場合には、元々撮像して得られた第1映像データと後からの撮像に使用された第2カメラ10Sが撮像した第2映像データとの両方に対し、第1カメラ10単体に対する簡易な操作により、第1映像データ及び第2映像データがどのような種類の映像であるかを示す共通の属性情報を付与できる。従って、ウェアラブルカメラシステム100は、ユーザ(例えば警察官OF)における現場の状況の的確かつ広範な撮像を支援でき、更に、撮像した映像データ(第1映像データ及び第2映像データ)を取扱う上での利便性を向上させることができる。   As a result, the wearable camera system 100 captures images using not only the first camera 10 but also the second camera 10S in order to accurately and extensively capture the situation of the scene where the user (for example, a police officer OF) rushed in an emergency. When started, the first camera 10 alone is simplified for both the first video data originally obtained by imaging and the second video data taken by the second camera 10S used for later imaging. Through common operation, common attribute information indicating what kind of video the first video data and the second video data are can be given. Therefore, the wearable camera system 100 can support accurate and wide-ranging imaging of the situation in the field by the user (for example, police officer OF), and further, when handling the captured video data (first video data and second video data). Convenience can be improved.

また、本実施形態のウェアラブルカメラシステム100では、第2カメラ10Sは、第2カメラ10Sにより先に撮像され、かつ第1カメラ10による撮像が開始された場合には、第1カメラ10による撮像が開始されるまでに第2カメラ10Sが撮像した第2映像データを第1カメラ10に送信する。第1カメラ10は、第2カメラ10Sにより先に撮像され、かつ第1カメラ10による撮像が開始された場合には、第2カメラ10Sから送信された第2映像データを受信し、第1カメラ10が撮像した第1映像データ及び第2映像データに関する属性情報の付与操作を受け付けると、付与操作に応じて、共通の属性情報を第1映像データ及び第2映像データに付与して記憶部15に記憶する。   Further, in the wearable camera system 100 of the present embodiment, when the second camera 10S is imaged first by the second camera 10S and imaging by the first camera 10 is started, imaging by the first camera 10 is performed. The second video data captured by the second camera 10S before the start is transmitted to the first camera 10. The first camera 10 receives the second video data transmitted from the second camera 10 </ b> S when the first camera 10 </ b> S is imaged first and the first camera 10 starts imaging, and the first camera 10 When an operation for giving attribute information related to the first video data and the second video data captured by 10 is received, common attribute information is given to the first video data and the second video data in accordance with the giving operation, and the storage unit 15. To remember.

これにより、ウェアラブルカメラシステム100は、ユーザ(例えば警察官OF)が緊急時に急行した現場の状況を的確かつ広範に撮像するために、第2カメラ10Sだけでなく第1カメラ10も用いて撮像を開始した場合には、元々撮像して得られた第2映像データと後からの撮像に使用された第1カメラ10が撮像した第1映像データとの両方に対し、第1カメラ10単体に対する簡易な操作により、第1映像データ及び第2映像データがどのような種類の映像であるかを示す共通の属性情報を付与できる。従って、ウェアラブルカメラシステム100は、ユーザ(例えば警察官OF)における現場の状況の的確かつ広範な撮像を支援でき、更に、撮像した映像データ(第1映像データ及び第2映像データ)を取扱う上での利便性を向上させることができる。   As a result, the wearable camera system 100 captures images using not only the second camera 10S but also the first camera 10 in order to accurately and extensively capture the situation of the scene where the user (for example, a police officer OF) rushed in an emergency. When started, the first camera 10 alone is simplified with respect to both the second video data originally obtained by imaging and the first video data taken by the first camera 10 used for later imaging. Through common operation, common attribute information indicating what kind of video the first video data and the second video data are can be given. Therefore, the wearable camera system 100 can support accurate and wide-ranging imaging of the situation in the field by the user (for example, police officer OF), and further, when handling the captured video data (first video data and second video data). Convenience can be improved.

このため、ユーザ(例えば警察官OF)は、緊急時の撮像現場であっても、第1カメラ10と第2カメラ10Sのいずれかだけを用いて撮像していた状態から両方を用いて撮像することにより、元々の撮像に使用された一方のカメラ(例えば第1カメラ10)が撮像した映像データ(例えば第1映像データ)と後からの撮像に使用された他方のカメラ(例えば第2カメラ10S)が撮像した映像データ(例えば第2映像データ)とに共通する属性情報を確実に付与できる。また、警察署のバックエンドシステムに配置されたサーバに蓄積した映像データを利用する場合には、ユーザ(例えばバックエンドシステムの利用者)は、第1映像データ及び第2映像データに対して付与された共通の属性情報を参照することにより、それぞれの映像データがどのような種類であるかを容易に判別して抽出でき、更に、属性情報を含むメタ情報によって、いつ、どこで、どのカメラで誰が撮像した、どのような内容の映像であるかを容易に識別できる。   For this reason, a user (for example, a police officer OF) takes an image using both of the first camera 10 and the second camera 10S even from an imaging site in an emergency. Thus, the video data (for example, the first video data) captured by one camera (for example, the first camera 10) used for the original imaging and the other camera (for example, the second camera 10S) used for the subsequent imaging. ) Can be reliably attached to the attribute information common to the video data (for example, the second video data) captured. In addition, when using video data stored in a server arranged in a back-end system of a police station, a user (for example, a user of the back-end system) gives to the first video data and the second video data. By referring to the common attribute information, it is possible to easily identify and extract the type of each video data, and further, when, where, by which camera by meta information including attribute information It is possible to easily identify who captured the image and what kind of content it is.

また、ウェアラブルカメラシステム100は、ユーザ(例えば警察官OF)の簡易な操作により、第1カメラ10によって映像データの属性を容易に付与できるため、属性情報付与時の手間を削減でき、また、録画直後から映像データの識別を簡便に実施できる。   In addition, the wearable camera system 100 can easily assign the attribute of the video data by the first camera 10 by a simple operation of the user (for example, police officer OF). The video data can be easily identified immediately after.

また、第1カメラ10は、第1映像データ又は第2映像データに関する属性情報の付与操作を属性情報付与スイッチSW3において受け付け、属性情報の選択状態の指定操作を属性選択スイッチSW4において受け付け、属性選択スイッチSW4の選択状態に対応する属性情報を第1映像データ、第2映像データ、又はその両方に付与する。これにより、第1カメラ10は、属性選択スイッチSW4により選択された属性情報を、属性情報付与スイッチSW3の操作入力により、第1映像データ、第2映像データ又はその両方に対して付与することで、ユーザ(例えば警察官OF)の第1カメラ10単体に対する簡易な操作により属性情報の付与操作を簡易化できる。従って、第1カメラ10は、ユーザ(例えば警察官OF)に対する属性情報付与時の手間を削減でき、録画直後から映像データの識別を簡便に実施できる。   Also, the first camera 10 accepts an attribute information assignment operation related to the first video data or the second video data at the attribute information assignment switch SW3, accepts an attribute information selection state designation operation at the attribute selection switch SW4, and selects an attribute. Attribute information corresponding to the selection state of the switch SW4 is given to the first video data, the second video data, or both. Thereby, the first camera 10 gives the attribute information selected by the attribute selection switch SW4 to the first video data, the second video data, or both by the operation input of the attribute information addition switch SW3. The operation of giving attribute information can be simplified by a simple operation of the user (for example, police officer OF) on the first camera 10 alone. Therefore, the 1st camera 10 can reduce the effort at the time of attribute information provision with respect to a user (for example, police officer OF), and can identify video data simply from immediately after recording.

また、第1カメラ10において、属性選択スイッチSW4における複数の選択状態に対して異なる属性情報が割り付けられる。これにより、第1カメラ10は、属性選択スイッチSW4の操作により、複数の属性情報の中からユーザ(例えば警察官OF)が希望する属性情報を選択的に決定でき、第1映像データ、第2映像データ又はその両方に対して適切な属性を付与できる。   In the first camera 10, different attribute information is assigned to a plurality of selection states in the attribute selection switch SW4. Accordingly, the first camera 10 can selectively determine attribute information desired by the user (for example, police officer OF) from among a plurality of attribute information by operating the attribute selection switch SW4. Appropriate attributes can be assigned to video data or both.

また、本実施形態のウェアラブルカメラシステム100では、第1カメラ10と第2カメラ10SとがケーブルCBを介して接続された場合に、第1カメラ10又は第2カメラ10Sのうち一方(例えば第1カメラ10)から他方(例えば第2カメラ10S)に切り替えて撮像され、第1カメラ10と第2カメラ10SとのケーブルCBを介した接続が切断された場合に、第1カメラ10又は第2カメラ10Sのうち他方(例えば第2カメラ10S)から一方(例えば第1カメラ10)に切り替えて撮像される。これにより、ウェアラブルカメラシステム100は、ケーブルCBを介した接続又はその接続の切断により、第1カメラ10と第2カメラ10Sとの切替を簡易に行うことができる。   In the wearable camera system 100 of the present embodiment, when the first camera 10 and the second camera 10S are connected via the cable CB, one of the first camera 10 and the second camera 10S (for example, the first camera 10S). When the camera 10) is switched to the other (for example, the second camera 10S) and the image is taken and the connection between the first camera 10 and the second camera 10S via the cable CB is disconnected, the first camera 10 or the second camera The image is switched from the other (for example, the second camera 10S) to the other (for example, the first camera 10) of 10S. Thereby, the wearable camera system 100 can easily switch between the first camera 10 and the second camera 10S by connection via the cable CB or disconnection of the connection.

また、本実施形態のウェアラブルカメラシステム100では、第1カメラ10と第2カメラ10SとがケーブルCBを介して接続された場合に、第1カメラ10及び第2カメラ10Sの両方により撮像され、第1カメラ10と第2カメラ10SとのケーブルCBを介した接続が切断された場合には、第1カメラ10又は第2カメラ10Sのうち一方(第1カメラ10又は第2カメラ10S)により撮像される。これにより、ウェアラブルカメラシステム100は、ケーブルCBを介した接続又はその接続の切断により、第1カメラ10と第2カメラ10Sとの撮像の兼用とその解除とを簡易に切り替えることができる。   Further, in the wearable camera system 100 of the present embodiment, when the first camera 10 and the second camera 10S are connected via the cable CB, the first camera 10 and the second camera 10S capture images, When the connection between the first camera 10 and the second camera 10S via the cable CB is disconnected, the image is captured by one of the first camera 10 and the second camera 10S (the first camera 10 or the second camera 10S). The Thereby, the wearable camera system 100 can easily switch between the shared use of the imaging of the first camera 10 and the second camera 10S and the cancellation thereof by the connection via the cable CB or the disconnection of the connection.

以上、図面を参照しながら各種の実施形態について説明したが、本発明はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。また、本発明の趣旨を逸脱しない範囲において、上記実施形態における各構成要素を任意に組み合わせてもよい。   While various embodiments have been described above with reference to the drawings, it goes without saying that the present invention is not limited to such examples. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Understood. In addition, the constituent elements in the above embodiment may be arbitrarily combined without departing from the spirit of the present invention.

本発明は、警察官における現場の状況の的確かつ広範な撮像を支援し、撮像した映像データを取扱う上での利便性を向上させるウェアラブルカメラシステム及び撮像方法として有用である。   INDUSTRIAL APPLICABILITY The present invention is useful as a wearable camera system and an imaging method that support accurate and wide-ranging imaging of scene conditions in a police officer and improve convenience in handling captured video data.

10 第1カメラ
10s 第2カメラ
11 撮像部
11a、11s1 レンズ
11s2 イメージセンサ
11s3 信号処理部
11s4 伝送部
11s5 通信I/F部
11s6 マイク
12 GPIO
13 RAM
14 ROM
15 記憶部
16 EEPROM
17 RTC
18 GPS
19 MCU
21 通信部
22 USB
23 コンタクトターミナル
24 電源部
25 バッテリ
26a、26b、26c LED
27 バイブレータ
50 携帯端末
60 車載システム
100 ウェアラブルカメラシステム
SV1、SV2、SV3 バックエンドサーバ
SW1、SW1s 録画スイッチ
SW2 スナップショットスイッチ
SW3 属性情報付与スイッチ
SW4 属性選択スイッチ
SW5 通信モードスイッチ
SW6 インジケータスイッチ
DESCRIPTION OF SYMBOLS 10 1st camera 10s 2nd camera 11 Image pick-up part 11a, 11s1 Lens 11s2 Image sensor 11s3 Signal processing part 11s4 Transmission part 11s5 Communication I / F part 11s6 Microphone 12 GPIO
13 RAM
14 ROM
15 Storage unit 16 EEPROM
17 RTC
18 GPS
19 MCU
21 Communication unit 22 USB
23 Contact Terminal 24 Power Supply 25 Battery 26a, 26b, 26c LED
27 Vibrator 50 Portable terminal 60 In-vehicle system 100 Wearable camera system SV1, SV2, SV3 Backend server SW1, SW1s Recording switch SW2 Snap shot switch SW3 Attribute information assignment switch SW4 Attribute selection switch SW5 Communication mode switch SW6 Indicator switch

Claims (11)

ユーザが装着可能な第1カメラ及び第2カメラを含むウェアラブルカメラシステムであって、
前記第1カメラは、
第1撮像部と、
前記第1撮像部が事件現場にて撮像した第1映像データ、又は前記第2カメラが前記事件現場にて撮像した第2映像データを記憶する記憶部と、
前記第2カメラが送信した前記第2映像データを受信する受信部と、
前記第1映像データ又は前記第2映像データに関する前記事件現場の映像の内容に対応する属性情報の付与操作を受け付ける入力部と、
前記付与操作に応じて、前記属性情報を前記第1映像データ又は前記第2映像データに付与して前記記憶部に記憶する制御部と、を備え、
前記第2カメラは、
第2撮像部と、
前記第2撮像部が撮像した前記第2映像データを前記第1カメラに送信する送信部と、を備える、
ウェアラブルカメラシステム。
A wearable camera system including a first camera and a second camera that can be worn by a user,
The first camera is
A first imaging unit;
A storage unit for storing first video data imaged at the incident site by the first imaging unit, or second video data imaged at the incident site by the second camera;
A receiver for receiving the second video data transmitted by the second camera;
An input unit for accepting an operation of giving attribute information corresponding to the content of the video at the incident site related to the first video data or the second video data;
A control unit that assigns the attribute information to the first video data or the second video data according to the giving operation and stores the attribute information in the storage unit,
The second camera is
A second imaging unit;
A transmission unit that transmits the second video data captured by the second imaging unit to the first camera;
Wearable camera system.
請求項1に記載のウェアラブルカメラシステムであって、
前記制御部は、前記第1カメラ又は前記第2カメラのうち一方により撮像され、かつ前記第1カメラ又は前記第2カメラのうち一方から他方に切り替えて撮像された場合に、前記他方が撮像した前記第1映像データ又は前記第2映像データに、前記付与操作に応じた前記属性情報を付与して前記記憶部に記憶する、
ウェアラブルカメラシステム。
The wearable camera system according to claim 1,
When the control unit is imaged by one of the first camera or the second camera and is switched from one to the other of the first camera or the second camera, the other is imaged. Adding the attribute information corresponding to the giving operation to the first video data or the second video data, and storing the attribute information in the storage unit;
Wearable camera system.
請求項1に記載のウェアラブルカメラシステムであって、
前記制御部は、前記第1カメラ又は前記第2カメラのうち一方により撮像され、かつ前記第1カメラ又は前記第2カメラのうち他方による撮像が開始された場合に、前記第1カメラが撮像した前記第1映像データ及び第2カメラが撮像した前記第2映像データに、前記付与操作に応じた前記属性情報を付与して前記記憶部に記憶する、
ウェアラブルカメラシステム。
The wearable camera system according to claim 1,
The control unit captures an image from the first camera or the second camera, and the first camera captures an image when the other of the first camera or the second camera starts imaging. Adding the attribute information corresponding to the giving operation to the first video data and the second video data captured by the second camera, and storing the attribute information in the storage unit;
Wearable camera system.
請求項1に記載のウェアラブルカメラシステムであって、
前記入力部は、
前記第1映像データ又は前記第2映像データに関する属性情報の付与操作を受け付ける第1入力部と、
前記属性情報の選択状態の指定操作を受け付ける第2入力部と、を有し、
前記制御部は、前記第2入力部の選択状態に対応する属性情報を前記第1映像データ又は前記第2映像データに付与する、
ウェアラブルカメラシステム。
The wearable camera system according to claim 1,
The input unit is
A first input unit for accepting an operation for giving attribute information related to the first video data or the second video data;
A second input unit that receives a designation operation of the selection state of the attribute information,
The control unit gives attribute information corresponding to a selection state of the second input unit to the first video data or the second video data.
Wearable camera system.
請求項4に記載のウェアラブルカメラシステムであって、
前記第2入力部における複数の前記選択状態に対応して異なる属性情報が割り付けられる、
ウェアラブルカメラシステム。
The wearable camera system according to claim 4,
Different attribute information is assigned corresponding to the plurality of selection states in the second input unit,
Wearable camera system.
請求項2に記載のウェアラブルカメラシステムであって、
前記第1カメラと前記第2カメラとがケーブルを介して接続された場合に、前記第1カメラ又は前記第2カメラのうち一方から他方に切り替えて撮像され、
前記第1カメラと前記第2カメラとの前記ケーブルを介した接続が切断された場合に、前記第1カメラ又は前記第2カメラのうち他方から一方に切り替えて撮像される、
ウェアラブルカメラシステム。
The wearable camera system according to claim 2,
When the first camera and the second camera are connected via a cable, the image is switched from one of the first camera or the second camera to the other,
When the connection between the first camera and the second camera via the cable is disconnected, the image is switched from the other of the first camera or the second camera to one of the images.
Wearable camera system.
請求項3に記載のウェアラブルカメラシステムであって、
前記第1カメラと前記第2カメラとがケーブルを介して接続された場合に、前記第1カメラ及び前記第2カメラにより撮像され、
前記第1カメラと前記第2カメラとの前記ケーブルを介した接続が切断された場合に、前記第1カメラ又は前記第2カメラのうち一方により撮像される、
ウェアラブルカメラシステム。
The wearable camera system according to claim 3,
When the first camera and the second camera are connected via a cable, images are taken by the first camera and the second camera,
When the connection between the first camera and the second camera via the cable is cut off, the image is picked up by one of the first camera or the second camera.
Wearable camera system.
ユーザが装着可能な第1カメラ及び第2カメラを含むウェアラブルカメラシステムにおける撮像方法であって、
前記第1カメラは、記憶部を有し、前記第1カメラが撮像した第1映像データを前記記憶部に記憶するステップを実行し、
前記第2カメラは、前記第1カメラから前記第2カメラに切り替えて撮像された場合に、前記第2カメラが撮像した第2映像データを前記第1カメラに送信するステップを実行し、
前記第1カメラは、前記第1カメラから前記第2カメラに切り替えて撮像された場合に、前記第2カメラから送信された前記第2映像データを受信するステップを実行し、前記第2映像データに関する属性情報の付与操作を受け付けるステップを実行し、前記付与操作に応じて、前記属性情報を前記第2映像データに付与して前記記憶部に記憶するステップを実行する、
撮像方法。
An imaging method in a wearable camera system including a first camera and a second camera that can be worn by a user,
The first camera has a storage unit, and executes the step of storing the first video data captured by the first camera in the storage unit,
When the second camera is switched from the first camera to the second camera and is captured, the second camera executes a step of transmitting the second video data captured by the second camera to the first camera;
The first camera executes a step of receiving the second video data transmitted from the second camera when the first camera is switched to the second camera and captured, and the second video data is received. Performing a step of accepting an operation of assigning attribute information regarding, and performing a step of assigning the attribute information to the second video data and storing it in the storage unit in response to the operation of giving.
Imaging method.
ユーザが装着可能な第1カメラ及び第2カメラを含むウェアラブルカメラシステムにおける撮像方法であって、
前記第2カメラは、前記第2カメラから前記第1カメラに切り替えて撮像された場合に、前記第2カメラが撮像した第2映像データを前記第1カメラに送信するステップを実行し、
前記第1カメラは、記憶部を有し、前記第2カメラから前記第1カメラに切り替えて撮像された場合に、前記第2カメラから送信された前記第2映像データを受信するステップを実行し、前記第1カメラが撮像した第1映像データに関する属性情報の付与操作を受け付けるステップを実行し、前記付与操作に応じて、前記属性情報を前記第1映像データに付与して前記記憶部に記憶するステップを実行する、
撮像方法。
An imaging method in a wearable camera system including a first camera and a second camera that can be worn by a user,
When the second camera is switched from the second camera to the first camera and is captured, the second camera executes a step of transmitting the second video data captured by the second camera to the first camera;
The first camera has a storage unit, and executes the step of receiving the second video data transmitted from the second camera when the second camera is switched to the first camera and captured. , Executing a step of accepting an operation for assigning attribute information relating to the first video data captured by the first camera, and assigning the attribute information to the first video data according to the giving operation and storing it in the storage unit Perform the steps to
Imaging method.
ユーザが装着可能な第1カメラ及び第2カメラを含むウェアラブルカメラシステムにおける撮像方法であって、
前記第1カメラは、記憶部を有し、前記第1カメラが事件現場にて撮像した第1映像データを前記記憶部に記憶するステップを実行し、
前記第2カメラは、前記第1カメラにより先に撮像され、かつ前記第2カメラによる撮像が開始された場合に、前記第2カメラが前記事件現場にて撮像した第2映像データを前記第1カメラに送信するステップを実行し、
前記第1カメラは、前記第1カメラにより先に撮像され、かつ前記第2カメラによる撮像が開始された場合に、前記第2カメラから送信された前記第2映像データを受信するステップを実行し、前記第1映像データ及び前記第2映像データに関する前記事件現場の映像の内容に対応する属性情報の付与操作を受け付けるステップを実行し、前記付与操作に応じて、前記属性情報を前記第1映像データ及び前記第2映像データに付与して前記記憶部に記憶するステップを実行する、
撮像方法。
An imaging method in a wearable camera system including a first camera and a second camera that can be worn by a user,
The first camera includes a storage unit, and executes a step of storing, in the storage unit, first video data captured by the first camera at the incident site ,
The second camera captures the second video data captured by the second camera at the incident site when the first camera captures the image first and when the second camera starts imaging. Perform the steps to send to the camera,
The first camera executes the step of receiving the second video data transmitted from the second camera when the first camera has imaged first and the second camera has started imaging. , Executing a step of accepting an operation of assigning attribute information corresponding to the content of the video of the incident scene related to the first video data and the second video data, and in response to the grant operation, the attribute information is transmitted to the first video Performing the step of adding to the data and the second video data and storing in the storage unit;
Imaging method.
ユーザが装着可能な第1カメラ及び第2カメラを含むウェアラブルカメラシステムにおける撮像方法であって、
前記第2カメラは、前記第2カメラにより先に撮像され、かつ前記第1カメラによる撮像が開始された場合に、前記第2カメラが事件現場にて撮像した第2映像データを前記第1カメラに送信するステップを実行し、
前記第1カメラは、記憶部を有し、前記第2カメラにより先に撮像され、かつ前記第1カメラによる撮像が開始された場合に、前記第2カメラから送信された前記第2映像データを受信するステップを実行し、前記第1カメラが前記事件現場にて撮像した第1映像データ及び前記第2映像データに関する前記事件現場の映像の内容に対応する属性情報の付与操作を受け付けるステップを実行し、前記付与操作に応じて、前記属性情報を前記第1映像データ及び前記第2映像データに付与して前記記憶部に記憶するステップを実行する、
撮像方法。
An imaging method in a wearable camera system including a first camera and a second camera that can be worn by a user,
The second camera captures second video data captured at the incident site by the second camera when the second camera captures the image first and when the first camera starts imaging. Perform the steps to send to
The first camera has a storage unit, and the second video data transmitted from the second camera is captured when the first camera captures an image first and the first camera starts imaging. A step of receiving, and a step of accepting an operation of giving attribute information corresponding to the content of the video at the incident site related to the first video data and the second video data captured by the first camera at the incident site And, in response to the assigning operation, executing the step of assigning the attribute information to the first video data and the second video data and storing the attribute information in the storage unit.
Imaging method.
JP2014265962A 2014-12-24 2014-12-26 Wearable camera system and imaging method Expired - Fee Related JP5849195B1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014265962A JP5849195B1 (en) 2014-12-26 2014-12-26 Wearable camera system and imaging method
US14/936,230 US9661283B2 (en) 2014-12-24 2015-11-09 Wearable camera
PCT/JP2015/006160 WO2016103610A1 (en) 2014-12-24 2015-12-10 Wearable camera
US15/466,359 US10356369B2 (en) 2014-12-24 2017-03-22 Wearable camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014265962A JP5849195B1 (en) 2014-12-26 2014-12-26 Wearable camera system and imaging method

Publications (2)

Publication Number Publication Date
JP5849195B1 true JP5849195B1 (en) 2016-01-27
JP2016127401A JP2016127401A (en) 2016-07-11

Family

ID=55176171

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014265962A Expired - Fee Related JP5849195B1 (en) 2014-12-24 2014-12-26 Wearable camera system and imaging method

Country Status (1)

Country Link
JP (1) JP5849195B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7005846B2 (en) * 2017-10-17 2022-01-24 株式会社Jvcケンウッド Video display device, video display method and program
JP7099687B2 (en) * 2017-12-13 2022-07-12 株式会社クリューシステムズ Video surveillance system and its method and processing equipment
CN109740450B (en) * 2018-12-17 2021-02-02 浙江大华技术股份有限公司 Method and device for identifying switch state of power switch cabinet

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003274360A (en) * 2002-03-14 2003-09-26 Sony Corp Apparatus and method for imaging, and device and system for imaging management
JP2008529354A (en) * 2005-01-24 2008-07-31 モデレイター システムズ, インコーポレイテッド Wireless event authentication system
JP2010268128A (en) * 2009-05-13 2010-11-25 Olympus Corp Control apparatus, imaging apparatus, imaging system, image acquisition method and program
JP2012156571A (en) * 2009-10-27 2012-08-16 Panasonic Corp Display image switching device and display image switching method
JP2015031902A (en) * 2013-08-06 2015-02-16 株式会社ニコン Camera system, main camera and sub camera

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003274360A (en) * 2002-03-14 2003-09-26 Sony Corp Apparatus and method for imaging, and device and system for imaging management
JP2008529354A (en) * 2005-01-24 2008-07-31 モデレイター システムズ, インコーポレイテッド Wireless event authentication system
JP2010268128A (en) * 2009-05-13 2010-11-25 Olympus Corp Control apparatus, imaging apparatus, imaging system, image acquisition method and program
JP2012156571A (en) * 2009-10-27 2012-08-16 Panasonic Corp Display image switching device and display image switching method
JP2015031902A (en) * 2013-08-06 2015-02-16 株式会社ニコン Camera system, main camera and sub camera

Also Published As

Publication number Publication date
JP2016127401A (en) 2016-07-11

Similar Documents

Publication Publication Date Title
WO2016103610A1 (en) Wearable camera
US10554935B2 (en) Wearable camera system, and video recording control method for wearable camera system
JP6738692B2 (en) Wearable camera system and person notification method
US11146722B2 (en) Wearable camera, in-vehicle communication device, charging device, and communication system
US20160112636A1 (en) Wearable camera
JP5861073B1 (en) Wearable camera
JP2017005436A (en) Wearable camera system and recording control method
JP2016219964A (en) Wearable camera system and video recording control method
WO2016151994A1 (en) Wearable camera and wearable camera system
JP6115874B2 (en) Wearable camera system and recording control method
JP5849195B1 (en) Wearable camera system and imaging method
JP5866548B1 (en) Wearable camera
JP5856700B1 (en) Wearable camera system and recording control method
JP5810332B1 (en) Wearable camera
JP6145780B2 (en) Wearable camera system and video data transfer method
JP5861075B1 (en) Wearable camera
JP5861074B1 (en) Wearable camera
JP2018037963A (en) Wearable camera system and video recording control method
JP5856702B1 (en) Wearable camera system and attribute information assigning method
JP5856701B1 (en) Wearable camera system and recording control method
WO2021039978A1 (en) Image composition system and image composition method
WO2016121314A1 (en) Wearable camera system and recording control method

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150609

R151 Written notification of patent or utility model registration

Ref document number: 5849195

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

SZ03 Written request for cancellation of trust registration

Free format text: JAPANESE INTERMEDIATE CODE: R313Z03

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees