JP7327792B2 - Image composition system and image composition method - Google Patents

Image composition system and image composition method Download PDF

Info

Publication number
JP7327792B2
JP7327792B2 JP2019159100A JP2019159100A JP7327792B2 JP 7327792 B2 JP7327792 B2 JP 7327792B2 JP 2019159100 A JP2019159100 A JP 2019159100A JP 2019159100 A JP2019159100 A JP 2019159100A JP 7327792 B2 JP7327792 B2 JP 7327792B2
Authority
JP
Japan
Prior art keywords
image
captured
images
camera
captured images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019159100A
Other languages
Japanese (ja)
Other versions
JP2021040200A (en
Inventor
隆恵 小口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
I Pro Co Ltd
Original Assignee
I Pro Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by I Pro Co Ltd filed Critical I Pro Co Ltd
Priority to JP2019159100A priority Critical patent/JP7327792B2/en
Priority to PCT/JP2020/032651 priority patent/WO2021039978A1/en
Publication of JP2021040200A publication Critical patent/JP2021040200A/en
Application granted granted Critical
Publication of JP7327792B2 publication Critical patent/JP7327792B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Description

本開示は、画像合成システムおよび画像合成方法に関する。 The present disclosure relates to image compositing systems and image compositing methods.

特許文献1には、複数の監視カメラと、複数の監視カメラで撮影した複数の映像を結合して1つの結合映像とする映像変換結合部と、結合映像を符号化するエンコーダと、エンコーダから伝送路を介して伝送された結合映像を復号するデコーダと、復号された結合映像を複数の監視カメラで撮影した映像を表示画面に表示する表示装置と、を備えた映像監視システムが開示されている。 Patent Document 1 describes a plurality of surveillance cameras, a video conversion/combination unit that combines a plurality of videos captured by a plurality of surveillance cameras into one combined video, an encoder that encodes the combined video, and transmission from the encoder. A video monitoring system is disclosed that includes a decoder that decodes a combined video transmitted via a channel, and a display device that displays video of the decoded combined video captured by a plurality of monitoring cameras on a display screen. .

国際公開第2016/174946号WO2016/174946

しかしながら、特許文献1の構成では、複数の監視カメラで撮影した映像を表示装置において表示画面に表示する際、結合映像を生成するために使用された複数の映像のうちいずれか一つが選択された上で表示される。このため、特許文献1では、表示装置に伝送する際に一度に多くの映像を効率的に送るために複数の映像を結合して結合映像を生成することの技術的開示はあるが、これらの複数の映像を結合して撮影された地点の広範囲な映像を表示することはできなかった。このため、例えば事件あるいは事故が発生した現場等の注目するべき地点を複数のカメラにより撮影した際に、撮影された複数の映像を結合して広範囲の現場の映像を得ることはできない。 However, in the configuration of Patent Document 1, when displaying images captured by a plurality of surveillance cameras on a display screen of a display device, one of the plurality of images used to generate a combined image is selected. displayed above. For this reason, Patent Document 1 technically discloses that a plurality of images are combined to generate a combined image in order to efficiently transmit a large number of images at once when transmitting to a display device. It was not possible to combine multiple images to display a wide-ranging image of the location where the images were taken. For this reason, when a point of interest such as the site of an incident or accident is photographed by a plurality of cameras, it is not possible to combine the plurality of photographed images to obtain an image of the scene in a wide range.

本開示は、上述した従来の状況に鑑みて案出され、注目するべき地点の広範囲の映像を得て、その地点の周囲の状況の観察および把握を効果的に支援する画像合成システムおよび画像合成方法を提供することを目的とする。 The present disclosure has been devised in view of the above-described conventional situation, an image synthesizing system and an image synthesizing system that obtains a wide range of images of a point of interest and effectively supports observation and understanding of the surrounding situation of the point. The purpose is to provide a method.

本開示は、複数のカメラと、前記複数のカメラのそれぞれとの間で通信可能に接続されるサーバと、を含む画像合成システムであって、前記複数のカメラのそれぞれは、特定のオブジェクトを撮像した個々の撮像画像を前記サーバに送り、前記サーバは、前記複数のカメラのそれぞれから送られた前記個々の撮像画像に映る前記特定のオブジェクトの特徴要素を有するメタ情報を抽出し、前記メタ情報と対応する撮像画像とを対応付けて記録し、前記個々の撮像画像に対応する前記メタ情報に基づいて、前記特定のオブジェクトの特徴要素が一致する複数の撮像画像を合成した合成画像を生成してビューア装置に送る、画像合成システムを提供する。 The present disclosure is an image synthesizing system including a plurality of cameras and a server communicably connected to each of the plurality of cameras, wherein each of the plurality of cameras captures a specific object . The individual captured images sent from each of the plurality of cameras are sent to the server, and the server extracts meta information having characteristic elements of the specific object appearing in the individual captured images sent from each of the plurality of cameras, and extracts the meta information. and corresponding captured images are recorded in association with each other, and based on the meta information corresponding to the individual captured images, a composite image is generated by synthesizing a plurality of captured images in which the characteristic elements of the specific object match. To provide an image compositing system that sends an image to a viewer device.

また、本開示は、複数のカメラと、前記複数のカメラのそれぞれとの間で通信可能に接続されるサーバと、を含む画像合成システムにより実行される画像合成方法であって、特定のオブジェクトを撮像した個々の撮像画像を前記サーバに送り、前記複数のカメラのそれぞれから送られた前記個々の撮像画像に映る前記特定のオブジェクトの特徴要素を有するメタ情報を抽出し、前記メタ情報と対応する撮像画像とを対応付けて記録し、前記個々の撮像画像に対応する前記メタ情報に基づいて、前記特定のオブジェクトの特徴要素が一致する複数の撮像画像を合成した合成画像を生成してビューア装置に送る、画像合成方法を提供する。 Further, the present disclosure provides an image composition method executed by an image composition system including a plurality of cameras and a server communicably connected between each of the plurality of cameras, the image composition method comprising : The individual captured images are sent to the server, meta information having characteristic elements of the specific object appearing in the individual captured images sent from each of the plurality of cameras is extracted, and the meta information is associated with the meta information. and a viewer device for generating a synthesized image obtained by synthesizing a plurality of captured images matching the characteristic elements of the specific object based on the meta information corresponding to the individual captured images. To provide an image compositing method.

また、本開示は、カメラと、前記カメラとの間で通信可能に接続されるサーバと、を含む画像合成システムであって、前記カメラは、特定のオブジェクトを撮像した、時間的に前後する複数の撮像画像を前記サーバに送り、前記サーバは、前記カメラから送られた前記複数の撮像画像のそれぞれに映る前記特定のオブジェクトの特徴要素を有するメタ情報を抽出し、前記メタ情報と対応する撮像画像とを対応付けて記録し、前記複数の撮像画像のそれぞれに対応する前記メタ情報に基づいて、前記特定のオブジェクトの特徴要素が一致する複数の撮像画像を合成した空間画像を生成してビューア装置に送る、画像合成システムを提供する。 Further, the present disclosure is an image synthesizing system including a camera and a server communicably connected to the camera, wherein the camera captures a specific object , and multiple to the server, and the server extracts meta information having characteristic elements of the specific object appearing in each of the plurality of captured images sent from the camera, and extracts the image corresponding to the meta information and a spatial image obtained by synthesizing a plurality of captured images matching the characteristic elements of the specific object based on the meta information corresponding to each of the plurality of captured images. Provide an image compositing system to send to the device.

また、本開示は、カメラと、前記カメラとの間で通信可能に接続されるサーバと、を含む画像合成システムにより実行される画像合成方法であって、特定のオブジェクトを撮像した、時間的に前後する複数の撮像画像を前記サーバに送り、前記カメラから送られた前記複数の撮像画像のそれぞれに映る前記特定のオブジェクトの特徴要素を有するメタ情報を抽出し、前記メタ情報と対応する撮像画像とを対応付けて記録し、前記複数の撮像画像のそれぞれに対応する前記メタ情報に基づいて、前記特定のオブジェクトの特徴要素が一致する複数の撮像画像を合成した空間画像を生成してビューア装置に送る、画像合成方法を提供する。 Further, the present disclosure provides an image composition method executed by an image composition system including a camera and a server communicably connected to the camera, wherein a specific object is imaged, temporally A plurality of successive captured images are sent to the server, meta information having characteristic elements of the specific object appearing in each of the plurality of captured images sent from the camera is extracted, and a captured image corresponding to the meta information is extracted. and are recorded in association with each other, and based on the meta information corresponding to each of the plurality of captured images, a spatial image is generated by synthesizing a plurality of captured images matching the characteristic elements of the specific object, and a viewer device To provide an image compositing method.

本開示によれば、注目するべき地点の広範囲の映像を得て、その地点の周囲の状況の観察および把握を効果的に支援することができる。 Advantageous Effects of Invention According to the present disclosure, it is possible to obtain a wide-range image of a point of interest and effectively support observation and understanding of the situation around the point.

実施の形態1に係るウェアラブルカメラシステムのシステム構成例を示す概要説明図BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a schematic explanatory diagram showing a system configuration example of a wearable camera system according to Embodiment 1; ウェアラブルカメラのハードウェア構成例を示すブロック図Block diagram showing an example hardware configuration of a wearable camera 車載PCのハードウェア構成例を示すブロック図Block diagram showing a hardware configuration example of an in-vehicle PC 実施の形態1に係るウェアラブルカメラシステムの動作手順例を時系列に示すシーケンス図FIG. 4 is a sequence diagram showing an example of an operation procedure of the wearable camera system according to Embodiment 1 in chronological order; 同一の事件番号が付与された撮像画像を含む空間画像および撮像エリアの一例を示す図A diagram showing an example of a spatial image and an imaging area including captured images to which the same case number is assigned 同一の事件番号が付与された複数枚の撮像画像を用いて空間画像を生成する動作例を説明する図A diagram for explaining an operation example of generating a spatial image using a plurality of captured images to which the same case number is assigned. 実施の形態2に係るウェアラブルカメラシステムの動作手順例を時系列に示すシーケンス図FIG. 11 is a sequence diagram showing an example of an operation procedure of the wearable camera system according to Embodiment 2 in chronological order; 1台のウェアラブルカメラで撮像された複数枚の画像を用いて空間画像を生成する動作例を説明する図FIG. 4 is a diagram for explaining an operation example of generating a spatial image using a plurality of images captured by one wearable camera;

以下、適宜図面を参照しながら、本開示に係る画像合成システムおよび画像合成方法を具体的に開示した実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。 Hereinafter, embodiments specifically disclosing an image synthesizing system and an image synthesizing method according to the present disclosure will be described in detail with reference to the drawings as appropriate. However, more detailed description than necessary may be omitted. For example, detailed descriptions of well-known matters and redundant descriptions of substantially the same configurations may be omitted. This is to avoid unnecessary verbosity in the following description and to facilitate understanding by those skilled in the art. It should be noted that the accompanying drawings and the following description are provided for a thorough understanding of the present disclosure by those skilled in the art and are not intended to limit the claimed subject matter.

(実施の形態1)
図1は、実施の形態1に係るウェアラブルカメラシステム1のシステム構成例を示す概要説明図である。画像合成システムの一例としてのウェアラブルカメラシステム1は、例えば現場(Field)に到着したユーザの一例としての警官が装着しているウェアラブルカメラ10と、警察署(Police Station)内に配置される各種の機器と、現場に到着したパトロールカー等の警察車両VC1(Police Vehicle)内に搭載される各種の機器とにより構成される。ウェアラブルカメラ10は、警察署内で使用されてもよいし、警察署外(例えば警察車両VC1内あるいは現場)で使用されてもよい。ウェアラブルカメラ10は、BWC(Body Worn Camera)と称されることがある。事件等に関する注目地点の一例としての現場は、例えば事件が発生した地点、あるいは犯人が存在するあるいは立てこもっている地点である。
(Embodiment 1)
FIG. 1 is a schematic explanatory diagram showing a system configuration example of a wearable camera system 1 according to Embodiment 1. As shown in FIG. A wearable camera system 1 as an example of an image synthesizing system includes, for example, a wearable camera 10 worn by a police officer as an example of a user arriving at a field, and various types of cameras placed in a police station. It is composed of equipment and various equipment mounted in a police vehicle VC1 (Police Vehicle) such as a patrol car that has arrived at the scene. The wearable camera 10 may be used inside the police station or outside the police station (for example, inside the police vehicle VC1 or at the scene). The wearable camera 10 is sometimes called a BWC (Body Worn Camera). A site as an example of a point of interest regarding an incident or the like is, for example, a point where an incident occurred, or a point where a criminal exists or is barricaded.

警察署内に配置される各種の機器は、例えば、バックエンドストリーミングサーバ60(BSS:Back end Streaming Server)、バックエンドサーバ70(BES:Back End Server)、バックエンドクライアント80(BEC:Back End Client)、1以上の無線LAN(Local Area Network)アクセスポイント、複数のウェアラブルカメラ10を一括して充電可能な充電装置の一例としてのギャングチャージャ90を少なくとも含むが、これらに限定されない。なお、無線LANアクセスポイントは、車載カメラシステム50と警察署内のサーバ(例えばバックエンドサーバ70)との間の通信を仲介する。 Various devices arranged in the police station include, for example, a back end streaming server 60 (BSS: Back End Streaming Server), a back end server 70 (BES: Back End Server), a back end client 80 (BEC: Back End Client). ), one or more wireless LAN (Local Area Network) access points, and a gang charger 90 as an example of a charging device capable of collectively charging a plurality of wearable cameras 10, but are not limited to these. Note that the wireless LAN access point mediates communication between the in-vehicle camera system 50 and a server in the police station (for example, the backend server 70).

警察車両VC1内に搭載される各種の機器は、例えば、車載カメラシステム50(ICV:In-Car Video system)、トリガー装置の一例としてのコモントリガーボックス54(CTB:Common Trigger Box)、充電装置(PD:Pairing Dock)の一例としての充電台55、回転警告灯PL1を少なくとも含むが、これらに限定されない。例えば、警察署との連絡を行うために警官が所持するスマートフォンも含まれてもよい。なお、コモントリガーボックス54は車載カメラシステム50に含まれてもよい。 Various devices mounted in the police vehicle VC1 include, for example, an in-vehicle camera system 50 (ICV: In-Car Video system), a common trigger box 54 (CTB: Common Trigger Box) as an example of a trigger device, a charging device ( PD (pairing dock) as an example includes at least a charging base 55 and a rotating warning light PL1, but is not limited to these. For example, a smart phone carried by a police officer to communicate with the police station may also be included. Note that the common trigger box 54 may be included in the vehicle-mounted camera system 50 .

カメラの一例としてのウェアラブルカメラ10は、警官の制服に装着され、警官の前方の状況を被写体として撮像して一定時間分の撮像映像を記録(つまり録画)し、撮像映像を有線(例えばUSBケーブル)あるいは無線(例えばコモントリガーボックス54)を介して車載カメラシステム50に送る。ウェアラブルカメラ10は、警察署内の無線LANアクセスポイントと無線通信が可能に接続されたことを検知した際に、無線LANアクセスポイントを介して接続されたバックエンドサーバ70に撮像映像を送ってもよい。ウェアラブルカメラ10は、警官の手動でギャングチャージャ90の充電面に載置されたことを検知した際に、充電を行ってよい。 The wearable camera 10, which is an example of a camera, is attached to the uniform of a policeman, captures the situation in front of the policeman as a subject, records (that is, records) the captured video for a certain period of time, and transmits the captured video via a cable (for example, a USB cable). ) or wirelessly (eg, the common trigger box 54) to the onboard camera system 50. When the wearable camera 10 detects that it has been connected to a wireless LAN access point in the police station for wireless communication, the wearable camera 10 may send the captured video to the backend server 70 connected via the wireless LAN access point. good. The wearable camera 10 may be charged when it is manually placed on the charging surface of the gang charger 90 by a police officer.

なお、ウェアラブルカメラ10、および後述する車載カメラ51の撮像対象となる被写体は、単に人物だけではなく、事件の現場の情景、現場の近くに群がる群衆(いわゆる野次馬)、更に、撮像位置の周囲の雰囲気を含んでよい。 The wearable camera 10 and the in-vehicle camera 51, which will be described later, do not only capture people, but also scene scenes of incidents, crowds (so-called onlookers) gathered near the scene, and people around the imaging position. May include atmosphere.

車載カメラシステム50は、1以上の車載カメラ51と車載PC52と車載レコーダ53とを有し、警察車両VC1が到着した現場の状況を車載カメラ51により撮像し、撮像により得られた映像(以下「撮像映像」という)を車載レコーダ53に記録(つまり録画)する。車載カメラ51と車載PC52と車載レコーダ53とは、それぞれデータあるいは情報の送受信が可能に有線で接続されるが、無線で接続されても構わない。また、車載カメラシステム50(例えば車載PC52)とウェアラブルカメラ10とは、データあるいは情報の送受信が可能に有線(例えばUSB(Universal Serial Bus)対応のUSBケーブル)で接続されてよい。 The in-vehicle camera system 50 has one or more in-vehicle cameras 51, an in-vehicle PC 52, and an in-vehicle recorder 53. The on-vehicle camera 51 captures the situation of the scene where the police vehicle VC1 has arrived, and the image obtained by imaging (hereinafter referred to as " captured image”) is recorded (that is, video-recorded) in the vehicle-mounted recorder 53 . The in-vehicle camera 51, the in-vehicle PC 52, and the in-vehicle recorder 53 are connected by wire so that they can transmit and receive data or information, but they may be connected wirelessly. The in-vehicle camera system 50 (for example, the in-vehicle PC 52) and the wearable camera 10 may be connected by wire (for example, a USB cable compatible with USB (Universal Serial Bus)) so that data or information can be transmitted and received.

カメラの一例としての車載カメラ51は、例えば警察車両VC1の前方を撮像可能に取り付けられた前方カメラ、警察車両VC1の側面方向を撮像可能に取り付けられた側方カメラ、警察車両VC1の後方を撮像可能に取り付けられた後方カメラ、のうち少なくとも1つであってよい。車載カメラ51は撮像映像を車載レコーダ53に送り、この撮像映像は車載レコーダ53に記録される。 The in-vehicle camera 51 as an example of a camera includes, for example, a front camera attached so as to be able to image the front of the police vehicle VC1, a side camera attached so as to be able to image the side direction of the police vehicle VC1, and an image behind the police vehicle VC1. a possibly mounted rear facing camera. The vehicle-mounted camera 51 sends the imaged image to the vehicle-mounted recorder 53 , and the imaged image is recorded in the vehicle-mounted recorder 53 .

車載PC52は、警官の操作に応じて、車載カメラ51および車載レコーダ53のそれぞれの動作を制御する。また、詳細は後述するが、ビューア装置の一例としての車載PC52は、警察車両VC1に乗車中の警官の操作により、同一時間帯に1以上のウェアラブルカメラ10,車載カメラ51のそれぞれにより撮像された撮像映像を車載レコーダ53から読み出して表示して再生してよい。これにより、車載PC52を使用する警官は、同一時間帯にウェアラブルカメラ10および車載カメラ51のそれぞれで撮像された現場の撮像映像を簡易に視聴でき、広域に現場等の状況を確認できて当時の状況を鮮明に思い出す等、自身の業務効率を向上できる。なお、車載PC52は、USBケーブルを介してウェアラブルカメラ10と接続されたことを検知すると、ウェアラブルカメラ10に給電してウェアラブルカメラ10を充電してよい。 In-vehicle PC52 controls each operation of in-vehicle camera 51 and in-vehicle recorder 53 according to a policeman's operation. In addition, although the details will be described later, the in-vehicle PC 52 as an example of the viewer device is operated by a police officer riding in the police vehicle VC1, and images are captured by the one or more wearable cameras 10 and the in-vehicle camera 51 during the same time period. The picked-up video may be read out from the vehicle-mounted recorder 53 and displayed and played back. As a result, the police officer using the in-vehicle PC 52 can easily view the images of the scene captured by the wearable camera 10 and the in-vehicle camera 51 at the same time, and can confirm the situation of the scene in a wide area. You can improve your own work efficiency, such as remembering the situation clearly. Note that the in-vehicle PC 52 may charge the wearable camera 10 by supplying power to the wearable camera 10 when detecting that it is connected to the wearable camera 10 via the USB cable.

車載レコーダ53は、ウェアラブルカメラ10および車載カメラ51のそれぞれにより撮像された撮像映像を記録する。車載PC52は、警官の操作により、ウェアラブルカメラ10により撮像された撮像映像を車載レコーダ53から読み出して取得したり、車載PC52内にインストールされている既定のアプリケーションにおいてウェアラブルカメラ10の撮像映像を単独で再生したり、そのアプリケーションにおいて撮像映像の属性情報を付与したりしてもよい。同様に、車載PC52は、警官の操作により、車載カメラ51により撮像された撮像映像を車載レコーダ53から読み出して取得したり、車載PC52内にインストールされている既定のアプリケーションにおいて車載カメラ51の撮像映像を単独で再生したり、そのアプリケーションにおいて撮像映像の属性情報を付与したりしてもよい。 In-vehicle recorder 53 records images captured by wearable camera 10 and in-vehicle camera 51 respectively. The in-vehicle PC 52 reads and acquires the captured image captured by the wearable camera 10 from the in-vehicle recorder 53 by the policeman's operation, or reads the image captured by the wearable camera 10 independently in a predetermined application installed in the in-vehicle PC 52. The captured image may be reproduced, or the attribute information of the captured image may be added in the application. Similarly, the in-vehicle PC 52 reads and acquires the captured video imaged by the in-vehicle camera 51 from the in-vehicle recorder 53 by the operation of the police officer, or obtains the captured video of the in-vehicle camera 51 in the default application installed in the in-vehicle PC 52 may be reproduced independently, or the attribute information of the captured image may be added in the application.

車載カメラシステム50は、コモントリガーボックス54と有線(例えばLANケーブル)で接続され、コモントリガーボックス54からの指令に応じた動作を行う。コモントリガーボックス54からの指令に応じた動作は、例えば、車載カメラ51の撮像映像の記録(つまり録画)の開始あるいは停止、ウェアラブルカメラ10の撮像映像の記録(つまり録画)の開始あるいは停止、が含まれる。なお、車載カメラシステム50は、コモントリガーボックス54を介してウェアラブルカメラ10との間でデータあるいは情報の無線通信が可能に接続されてもよい。 The in-vehicle camera system 50 is connected to a common trigger box 54 by a wire (for example, a LAN cable) and operates according to commands from the common trigger box 54 . The operation according to the command from the common trigger box 54 includes, for example, starting or stopping recording (that is, recording) of images captured by the vehicle-mounted camera 51 and starting or stopping recording (that is, recording) of images captured by the wearable camera 10. included. The in-vehicle camera system 50 may be connected to the wearable camera 10 via the common trigger box 54 so as to enable wireless communication of data or information.

車載カメラシステム50は、コモントリガーボックス54およびネットワークNW1を介して、ウェアラブルカメラ10および車載カメラ51のそれぞれの撮像映像(例えば撮像されているリアルタイムのライブ映像)を、バックエンドストリーミングサーバ60にストリーミングしてよい。ネットワークNW1は、例えばモバイル通信ネットワーク網またはインターネット網である。車載カメラシステム50(例えば車載PC52)は、警察署内の無線LANアクセスポイントと無線通信が可能に接続されたことを検知した際(例えば警察車両VC1が警察署の敷地内の駐車場に駐車した時)、無線LANアクセスポイントを介して、ウェアラブルカメラ10および車載カメラ51のそれぞれの撮像映像(例えば録画された過去の撮像映像)を、バックエンドサーバ70に送ってよい。 The in-vehicle camera system 50 streams images captured by the wearable camera 10 and the in-vehicle camera 51 (for example, real-time live images being captured) to the backend streaming server 60 via the common trigger box 54 and the network NW1. you can Network NW1 is, for example, a mobile communication network or the Internet. When the in-vehicle camera system 50 (for example, the in-vehicle PC 52) detects that it is connected to the wireless LAN access point in the police station for wireless communication (for example, the police vehicle VC1 parks in the parking lot in the police station (time), images captured by the wearable camera 10 and the vehicle-mounted camera 51 (for example, recorded images captured in the past) may be sent to the backend server 70 via the wireless LAN access point.

コモントリガーボックス54は、回転警告灯PL1、加速度センサ(図示略)、サイレン(図示略)、車載カメラシステム50、充電台55との間でそれぞれ有線(例えばGPIO(物理ケーブル)あるいはLANケーブル)、あるいは各機器がIoT(Internet Of Things)化することに対応して無線によって接続される。コモントリガーボックス54は、ウェアラブルカメラ10が充電台55に載置された時には充電台55を介してウェアラブルカメラ10とも接続可能である。 The common trigger box 54 is connected to the rotation warning light PL1, acceleration sensor (not shown), siren (not shown), on-vehicle camera system 50, and charging stand 55 by wire (for example, GPIO (physical cable) or LAN cable), Alternatively, each device is wirelessly connected in response to IoT (Internet Of Things). The common trigger box 54 can also be connected to the wearable camera 10 via the charging base 55 when the wearable camera 10 is placed on the charging base 55 .

コモントリガーボックス54は、例えば車載カメラシステム50との間が有線(例えばLANケーブル)で接続される場合に、所定の事象を検知した時に車載カメラシステム50に、アラーム通知(例えば録画開始または録画停止の制御信号)を送る。これにより、車載カメラシステム50は、コモントリガーボックス54からの制御信号に応じた動作として、例えば車載カメラ51で撮像された撮像映像の車載レコーダ53への記録(録画)を開始したり、その記録(録画)を停止したりできる。コモントリガーボックス54は、例えば回転警告灯PL1あるいはサイレン等の警察車両搭載機器からの動作開始信号を取得すると、その警察車両搭載機器の使用開始を検知し、コモントリガーボックス54に接続されたウェアラブルカメラ10および車載カメラシステム50の少なくとも一方に、録画開始あるいは録画停止の制御信号を送ってもよい。これにより、ウェアラブルカメラ10および車載カメラシステム50の少なくとも一方は、コモントリガーボックス54からの制御信号に応じた動作として、例えば回転警告灯PL1の回転開始あるいはサイレンの音声出力に伴って、撮像映像の録画を開始したり停止したりできる。 For example, when the common trigger box 54 is connected to the in-vehicle camera system 50 with a wire (eg, a LAN cable), the in-vehicle camera system 50 receives an alarm notification (eg, recording start or recording stop) when a predetermined event is detected. control signal). As a result, the in-vehicle camera system 50 operates according to the control signal from the common trigger box 54, for example, starts recording (recording) the captured image captured by the in-vehicle camera 51 in the in-vehicle recorder 53, or starts the recording. (Recording) can be stopped. When the common trigger box 54 acquires an operation start signal from a device mounted on a police vehicle such as a revolving warning light PL1 or a siren, the wearable camera connected to the common trigger box 54 detects the start of use of the device mounted on the police vehicle. A control signal for starting or stopping recording may be sent to at least one of 10 and in-vehicle camera system 50 . As a result, at least one of the wearable camera 10 and the in-vehicle camera system 50 operates in accordance with the control signal from the common trigger box 54, for example, when the rotary warning light PL1 starts rotating or when the siren sounds. You can start and stop recording.

充電台55は、例えば警察車両VC1の既定位置(例えばセンターコンソールの付近)に配置され、コモントリガーボックス54との間で有線(例えばLANケーブルを使ったPoE(Power over Ethernet(登録商標)))によって接続される。充電台55は、ウェアラブルカメラ10が載置されるための収容部(図示略)を有する。充電台55は、収容部(図示略)にウェアラブルカメラ10が載置されたことを検知すると、コモントリガーボックス54からの供給電流に基づいてウェアラブルカメラ10のバッテリを充電可能である。 The charging base 55 is arranged, for example, at a predetermined position (for example, near the center console) of the police vehicle VC1, and is connected to the common trigger box 54 by wire (for example, PoE (Power over Ethernet (registered trademark)) using a LAN cable). connected by The charging stand 55 has a housing portion (not shown) in which the wearable camera 10 is placed. The charging stand 55 can charge the battery of the wearable camera 10 based on the current supplied from the common trigger box 54 when it detects that the wearable camera 10 is placed in the housing (not shown).

警官により所持されるスマートフォン(上述参照)は、電話機能および無線通信機能(例えば車載カメラシステム50との通信)を有し、例えば警察署からの緊急連絡あるいは警察署への緊急連絡時に使用される。スマートフォンは、警官の操作に従って、ウェアラブルカメラ10あるいは車載カメラ51の撮像映像を表示して再生したり、その撮像映像にメタ情報と言われる属性情報(メタ情報ともいう)を付与する等の編集をしたりする。属性情報は、例えば、撮像映像の内容を直接的あるいは間接的に示唆する事件種別であってよい。 A smart phone (see above) possessed by a police officer has a telephone function and a wireless communication function (for example, communication with the in-vehicle camera system 50), and is used, for example, for emergency contact from or to the police station. . According to the operation of the policeman, the smartphone displays and reproduces the image captured by the wearable camera 10 or the in-vehicle camera 51, and edits such as adding attribute information (also referred to as meta information) to the captured image. or The attribute information may be, for example, an incident type that directly or indirectly suggests the content of the captured video.

スマートフォンは、テザリング機能を有し、このテザリング機能を用いて、車載カメラシステム50からのウェアラブルカメラ10および車載カメラ51のそれぞれの撮像映像を、ネットワークNW1を介して警察署内のバックエンドストリーミングサーバ60に中継してもよい。ここで、車載カメラシステム50とスマートフォンとの間には、例えばBLE(Bluetooth(登録商標) Low Energy)またはWifi(登録商標)等の無線LANが用いられる。 The smartphone has a tethering function, and using this tethering function, images captured by the wearable camera 10 and the vehicle-mounted camera 51 from the vehicle-mounted camera system 50 are transmitted to the back-end streaming server 60 in the police station via the network NW1. may be relayed to Here, a wireless LAN such as BLE (Bluetooth (registered trademark) Low Energy) or Wifi (registered trademark), for example, is used between the vehicle-mounted camera system 50 and the smartphone.

サーバの一例としてのバックエンドストリーミングサーバ60は、高性能なサーバコンピュータおよびストレージを有して構成され、車載カメラシステム50からコモントリガーボックス54およびネットワークNW1を介してストリーミングされた撮像映像(例えばライブ映像)を受信してバックエンドサーバ70に転送する。 The back-end streaming server 60, which is an example of a server, is configured with a high-performance server computer and storage, and captures video (e.g., live video) streamed from the in-vehicle camera system 50 via the common trigger box 54 and network NW1. ) is received and transferred to the backend server 70 .

サーバの一例としてのバックエンドサーバ70は、高性能なサーバコンピュータおよびストレージを有して構成され、事件の証拠映像を管理する。バックエンドサーバ70は、バックエンドクライアント80を使用するユーザ(例えば警察署内の解析専門官)の操作に応じた要求に従い、例えばウェアラブルカメラ10および車載カメラ51のそれぞれの撮像映像を構成する画像フレーム中の顔の検知、認識、照合等の各種の画像処理を含む映像解析機能を有する。 A back-end server 70, which is an example of a server, is configured with a high-performance server computer and storage, and manages evidence videos of incidents. The back-end server 70 composes the images captured by the wearable camera 10 and the vehicle-mounted camera 51, for example, according to a request according to the operation of a user (for example, an analysis specialist in a police station) who uses the back-end client 80. It has a video analysis function that includes various image processing such as face detection, recognition, and matching.

ビューア装置の一例としてのバックエンドクライアント80は、例えばPC(Personal Computer)等のコンピュータにより構成され、ユーザ(例えば警察署内の解析専門官)の操作により、不審人物データベース(図示略)にアクセスして犯罪者等の事件に関する情報を検索してその検索結果をディスプレイデバイス上に表示可能なブラウザあるいは専用アプリケーションを有する。ディスプレイデバイスは、例えばバックエンドクライアント80に設けられたLCD(Liquid Crystal Display)あるいは有機EL(Electroluminescence)により構成される。不審人物データベースには、例えば指名手配中の人物あるいは過去の犯罪者等が事件を識別する情報(例えば事件番号)に対応付けて予め登録されている。また、ビューア装置の一例としてのバックエンドクライアント80は、ユーザ(例えば警察署内の解析専門官)の操作により、同一時間帯にウェアラブルカメラ10,車載カメラ51のそれぞれにより撮像された撮像映像をバックエンドサーバ70から読み出して表示して再生する。これにより、バックエンドクライアント80のユーザは、同一時間帯にウェアラブルカメラ10および車載カメラ51のそれぞれで撮像された現場の撮像映像を簡易に視聴できるので、広域に現場等の状況を確認できて当時の状況を鮮明に特定する等、自身の業務効率を向上できる。 A back-end client 80 as an example of a viewer device is configured by a computer such as a PC (Personal Computer), and accesses a suspicious person database (not shown) by operation of a user (for example, an analysis specialist in a police station). It has a browser or a dedicated application that can search for information related to criminal cases and display the search results on a display device. The display device is configured by, for example, an LCD (Liquid Crystal Display) or an organic EL (Electroluminescence) provided in the backend client 80 . In the suspicious person database, for example, persons on the wanted list or past criminals are registered in advance in association with information identifying cases (for example, case numbers). A back-end client 80, which is an example of a viewer device, backs up captured images captured by the wearable camera 10 and the vehicle-mounted camera 51 in the same time zone by the operation of a user (for example, an analysis specialist in a police station). It reads out from the end server 70 and displays and reproduces it. As a result, the user of the back-end client 80 can easily view the images of the site captured by the wearable camera 10 and the vehicle-mounted camera 51 during the same time period, so that the situation of the site can be confirmed in a wide area. You can improve your work efficiency, such as clearly identifying the situation.

無線LANアクセスポイントは、車載カメラシステム50と無線LANによって無線接続し、例えば車載カメラシステム50から送られた撮像映像を中継してバックエンドサーバ70に転送する。 The wireless LAN access point is wirelessly connected to the in-vehicle camera system 50 via a wireless LAN, and relays, for example, captured video sent from the in-vehicle camera system 50 to the backend server 70 .

ギャングチャージャ90は、複数の警官のそれぞれが装着するウェアラブルカメラ10を所定の充電面上に載置可能であり、載置された個々のウェアラブルカメラ10に内蔵されるバッテリを充電する。 The gang charger 90 can place the wearable cameras 10 worn by each of a plurality of police officers on a predetermined charging surface, and charges the batteries incorporated in the individual wearable cameras 10 placed.

図2は、ウェアラブルカメラ10のハードウェア構成例を示すブロック図である。ウェアラブルカメラ10は、撮像部11と、GPIO12(General PurposeInput/Output)と、RAM13(Random Access Memory)と、ROM14(Read Only Memory)と、記憶部15とを含む。ウェアラブルカメラ10は、EEPROM16(Electrically Erasable Programmable ROM)と、RTC17(Real Time Clock)と、GNSS(Global Navigation Satellite System)受信部18とを含む。ウェアラブルカメラ10は、MCU19(Micro Contoller Unit)と、BLE通信部21Aと、WLAN通信部21Bと、USBインターフェース22と、コンタクトターミナル23と、電源部24と、バッテリ25とを含む。なお、添付図面においてインターフェースを「I/F」と略記している。 FIG. 2 is a block diagram showing a hardware configuration example of the wearable camera 10. As shown in FIG. Wearable camera 10 includes imaging unit 11 , GPIO 12 (General Purpose Input/Output), RAM 13 (Random Access Memory), ROM 14 (Read Only Memory), and storage unit 15 . The wearable camera 10 includes an EEPROM 16 (Electrically Erasable Programmable ROM), an RTC 17 (Real Time Clock), and a GNSS (Global Navigation Satellite System) receiver 18 . The wearable camera 10 includes an MCU 19 (Micro Controller Unit), a BLE communication unit 21A, a WLAN communication unit 21B, a USB interface 22, a contact terminal 23, a power supply unit 24, and a battery 25. Note that the interface is abbreviated as "I/F" in the accompanying drawings.

ウェアラブルカメラ10は、録画スイッチSW1と、スナップショットスイッチSW2と、通信モードスイッチSW3と、属性情報付与スイッチSW4と、無線登録スイッチSW5とを含む。 The wearable camera 10 includes a recording switch SW1, a snapshot switch SW2, a communication mode switch SW3, an attribute information addition switch SW4, and a wireless registration switch SW5.

ウェアラブルカメラ10は、3個のLED26a,26b,26c(Light Emission Diode)と、バイブレータ27と、音声出力部28と、マイク29Aと、スピーカ29Bと、イヤホン端子29Cとを含む。 Wearable camera 10 includes three LEDs 26a, 26b, 26c (Light Emission Diodes), vibrator 27, audio output unit 28, microphone 29A, speaker 29B, and earphone terminal 29C.

撮像部11は、撮像レンズ115と、CCD(Charge Coupled Device)型イメージセンサあるいはCMOS(Complementary Metal Oxide Semiconductor)型イメージセンサによる固体撮像素子とを有する。撮像部11は、撮像により得られた被写体の撮像映像のデータをMCU19に出力する。 The imaging unit 11 has an imaging lens 115 and a solid-state imaging device based on a CCD (Charge Coupled Device) type image sensor or a CMOS (Complementary Metal Oxide Semiconductor) type image sensor. The imaging unit 11 outputs the data of the captured image of the subject obtained by imaging to the MCU 19 .

コンタクトターミナル23の検知端子23Tは、ウェアラブルカメラ10が充電台55あるいはギャングチャージャ90に載置された場合、あるいは充電台55あるいはギャングチャージャ90から取り外された場合に電圧変化が生じる端子である。コンタクトターミナル23の検知端子23Tは、ADコンバータCVに接続される。検知端子23Tの電圧変化を示す信号は、ADコンバータCVにおいてデジタル信号に変換され、そのデジタル信号がI2C20を介してMCU19に入力される。 Detection terminal 23T of contact terminal 23 is a terminal that causes a voltage change when wearable camera 10 is placed on charging stand 55 or gang charger 90 or removed from charging stand 55 or gang charger 90 . A detection terminal 23T of the contact terminal 23 is connected to an AD converter CV. A signal indicating a voltage change of the detection terminal 23T is converted into a digital signal by the AD converter CV, and the digital signal is input to the MCU 19 via the I2C20.

GPIO12は、パラレルインターフェースである。GPIO12には、録画スイッチSW1、スナップショットスイッチSW2、通信モードスイッチSW3、属性情報付与スイッチSW4、無線登録スイッチSW5、LED26a,26b,26c、バイブレータ27、音声出力部28、マイク29A、スピーカ29Bおよびイヤホン端子29Cのそれぞれが接続される。GPIO12は、これらの各種電子部品とMCU19との間で信号を入出力する。 GPIO 12 is a parallel interface. The GPIO 12 includes a recording switch SW1, a snapshot switch SW2, a communication mode switch SW3, an attribute information addition switch SW4, a wireless registration switch SW5, LEDs 26a, 26b, 26c, a vibrator 27, an audio output section 28, a microphone 29A, a speaker 29B and earphones. Each of terminals 29C is connected. The GPIO 12 inputs and outputs signals between these various electronic components and the MCU 19 .

マイク29Aは、ウェアラブルカメラ10の周囲の音声を収音し、収音された音声の音声データを、GPIO12を介してMCU19に出力する。なお、マイク29Aは、ウェアラブルカメラ10の筐体に収容された内蔵マイクであってもよいし、ウェアラブルカメラ10と無線接続されたワイヤレスマイクであってもよい。ワイヤレスマイクの場合、警官が任意の箇所に取り付けることで、収音性を高めることができる。 The microphone 29A picks up sounds around the wearable camera 10 and outputs audio data of the picked-up sounds to the MCU 19 via the GPIO 12 . Note that the microphone 29A may be a built-in microphone housed in the housing of the wearable camera 10 or a wireless microphone wirelessly connected to the wearable camera 10 . In the case of wireless microphones, police officers can attach them to any location to improve sound pickup.

音声出力部28は、MCU19の指示の下で、ウェアラブルカメラ10の動作に関する音声信号を出力する。音声出力部28は、予めROM14などに記憶された既定のメッセージの音声を有する音声データを読み出し、この音声データに基づく音声信号をスピーカ29Bから音声出力する。イヤホン端子29Cは、イヤホン端子29Cに接続されたイヤホンに対し、音声出力部28より出力される音声信号を出力する。スピーカ29Bは、音声出力部28より出力される音声信号を入力して音声出力する。 The audio output unit 28 outputs audio signals regarding the operation of the wearable camera 10 under the instruction of the MCU 19 . The audio output unit 28 reads out audio data having a predetermined message audio stored in advance in the ROM 14 or the like, and outputs an audio signal based on this audio data from the speaker 29B. The earphone terminal 29C outputs the audio signal output from the audio output section 28 to the earphone connected to the earphone terminal 29C. The speaker 29B receives the audio signal output from the audio output unit 28 and outputs audio.

また、ADコンバータCVは、I2C20(Inter-Integrated Circuit)などの通信インターフェースを介してMCU19に接続される。なお、コンタクトターミナル23の検知端子23Tを、ADコンバータCVを介さずにGPIO12へ接続することでも類似の効果を得ることが可能である。 Also, the AD converter CV is connected to the MCU 19 via a communication interface such as I2C20 (Inter-Integrated Circuit). A similar effect can be obtained by connecting the detection terminal 23T of the contact terminal 23 to the GPIO 12 without the AD converter CV.

RAM13は、例えばMCU19の動作において使用されるワークメモリである。ROM14は、例えばMCU19の動作(処理)の実行を制御するためのプログラムおよびデータを予め記憶する。 The RAM 13 is a work memory used in the operation of the MCU 19, for example. The ROM 14 pre-stores, for example, programs and data for controlling execution of operations (processes) of the MCU 19 .

記憶部15は、例えばメモリカード等の記憶媒体により構成され、例えば警官の操作に基づく録画開始の指示、あるいは車載カメラシステム50からの録画開始の指示に基づき、撮像部11で撮像された撮像映像のデータ記録(つまり録画)を開始する。記憶部15は、撮像部11で撮像された所定時間(例えば30秒)の撮像映像のデータを常時プリバッファリングして保持し、現在時刻より所定時間(例えば30秒)前までの撮像映像のデータを常に蓄積し続ける。記憶部15は、録画開始の指示を受けると、撮像映像のデータの記録を開始し、録画停止の指示を受けるまでの撮像映像のデータの記録を継続する。また、記憶部15がメモリカードで構成される場合、ウェアラブルカメラ10の筐体に挿抜自在に装着される。 The storage unit 15 is configured by a storage medium such as a memory card, for example, and stores images captured by the imaging unit 11 based on, for example, an instruction to start recording based on an operation by a police officer or an instruction to start recording from the in-vehicle camera system 50. data recording (i.e. recording). The storage unit 15 always pre-buffers and holds data of an image captured by the imaging unit 11 for a predetermined time (for example, 30 seconds), and stores image data for a predetermined time (for example, 30 seconds) before the current time. Continually accumulate data. When receiving an instruction to start recording, the storage unit 15 starts recording the data of the captured image, and continues recording the data of the captured image until receiving an instruction to stop recording. In addition, when the storage unit 15 is composed of a memory card, it is attached to the housing of the wearable camera 10 so as to be freely inserted and removed.

EEPROM16は、例えばウェアラブルカメラ10を識別する識別情報(例えばカメラIDとしてのシリアル番号)、および各種設定情報を記憶する。RTC17は、現在の時刻情報をカウントしてMCU19に出力する。 The EEPROM 16 stores, for example, identification information for identifying the wearable camera 10 (for example, a serial number as a camera ID) and various setting information. The RTC 17 counts the current time information and outputs it to the MCU 19 .

GNSS受信部18は、複数(例えば4機)の航法衛星から送信される、各自の信号送信時刻および位置座標を含む衛星信号を受信してMCU19に出力する。MCU19は、複数の衛星信号を用いて、現在のウェアラブルカメラ10の位置座標および衛星信号の受信時刻を算出する。なお、この算出は、MCU19ではなくGNSS受信部18により実行されてもよい。この受信時刻の情報は、ウェアラブルカメラ10のシステム時刻(つまり、RTC17の出力)の補正のためにも使用されてもよい。システム時刻は、撮像された画像(静止画、動画を含む)の撮像時刻の記録等に利用される。 The GNSS receiving unit 18 receives satellite signals including respective signal transmission times and position coordinates transmitted from a plurality of (for example, four) navigation satellites and outputs them to the MCU 19 . The MCU 19 uses a plurality of satellite signals to calculate the current position coordinates of the wearable camera 10 and the reception time of the satellite signals. Note that this calculation may be performed by the GNSS receiver 18 instead of the MCU 19 . This reception time information may also be used to correct the system time of wearable camera 10 (that is, the output of RTC 17). The system time is used, for example, to record the imaging time of a captured image (including still images and moving images).

MCU19は、ウェアラブルカメラ10の制御部としての機能を有し、例えばウェアラブルカメラ10の各部の動作を全体的に統括するための制御処理、ウェアラブルカメラ10の各部との間のデータの入出力処理、データの演算(計算)処理およびデータの記憶処理を行う。MCU19は、ROM14に記憶された各種のプログラムおよびデータに従って動作する。MCU19は、動作時、RAM13を使用し、RTC17より現在の時刻情報を得るとともに、GNSS受信部18から現在の位置情報を得るかあるいはGNSS受信部18からの出力を用いて現在の位置情報を算出する。 The MCU 19 has a function as a control unit of the wearable camera 10, for example, control processing for overall control of the operation of each unit of the wearable camera 10, data input/output processing with each unit of the wearable camera 10, Performs data arithmetic (calculation) processing and data storage processing. MCU 19 operates according to various programs and data stored in ROM 14 . During operation, the MCU 19 uses the RAM 13 to obtain current time information from the RTC 17, and obtains current position information from the GNSS receiver 18 or calculates current position information using output from the GNSS receiver 18. do.

BLE通信部21Aは、近距離無線通信の通信規格であるBLE(Bluetooth(登録商標) Low Energy)通信を用いて、スマートフォンあるいはコモントリガーボックス54等との間で無線通信を行う。BLEは、Bluetooth(登録商標)のバージョン4.0の呼称である。BLEでは、低消費電力で通信可能あるが、その通信速度は100kbps程度と低速である。 The BLE communication unit 21A performs wireless communication with a smartphone, a common trigger box 54, or the like using BLE (Bluetooth (registered trademark) Low Energy) communication, which is a communication standard for short-range wireless communication. BLE is the designation for version 4.0 of Bluetooth®. BLE enables communication with low power consumption, but its communication speed is as low as about 100 kbps.

WLAN通信部21Bは、テザリング機能を用いた無線LANアクセスポイントとしてのスマートフォン、あるいは警察署内に設けられた無線LANアクセスポイント等と無線LAN(つまりWLAN)で接続され、接続先と無線通信を行う。無線LANは、BLEと比べ、通信速度が数十~数百Mbpsと高速通信可能であるが、無線LANアクセスポイントと常時接続されるので、消費電力が多くなる。また、WLAN通信部21Bは、無線LAN通信により、警察車両VC1内に搭載されたコモントリガーボックス54との間で通信を行い、撮像部11により得られた撮像映像のデータをコモントリガーボックス54に送る。この撮像映像のデータは、コモントリガーボックス54およびネットワークNW1を介して警察署内のバックエンドストリーミングサーバ60に送られる。また、警察車両VC1が警察署内の無線LANアクセスポイントの通信圏内に位置する場合には、撮像映像のデータは、コモントリガーボックス54および無線LANアクセスポイントを介して警察署内のバックエンドサーバ70に送られてよい。 The WLAN communication unit 21B is connected to a smartphone as a wireless LAN access point using a tethering function, a wireless LAN access point provided in a police station, or the like via a wireless LAN (that is, WLAN), and performs wireless communication with the connection destination. . Compared to BLE, a wireless LAN is capable of high-speed communication with a communication speed of several tens to several hundred Mbps, but consumes more power because it is always connected to a wireless LAN access point. In addition, the WLAN communication unit 21B communicates with a common trigger box 54 mounted in the police vehicle VC1 by wireless LAN communication, and transmits image data obtained by the imaging unit 11 to the common trigger box 54. send. The captured image data is sent to the back-end streaming server 60 in the police station via the common trigger box 54 and the network NW1. Further, when the police vehicle VC1 is located within the communication range of the wireless LAN access point in the police station, the captured image data is sent to the back-end server 70 in the police station via the common trigger box 54 and the wireless LAN access point. may be sent to

なお、ウェアラブルカメラ10は、BLE通信あるいはWLAN通信の他、NFC(Near Field Communication)等の近距離無線通信、もしくは携帯回線網(例えばLTE:Long Term Evolution)を用いた無線通信を行うための通信部の構成(図示略)をそれぞれ有してもよい。 In addition to BLE communication or WLAN communication, the wearable camera 10 performs communication for performing short-range wireless communication such as NFC (Near Field Communication) or wireless communication using a mobile network (for example, LTE: Long Term Evolution). You may each have the structure (illustration omitted) of a part.

USBインターフェース22は、シリアルバスであり、例えば車載PC52あるいは警察署内のバックエンドクライアント80との接続を可能とする。 The USB interface 22 is a serial bus and enables connection with, for example, an in-vehicle PC 52 or a backend client 80 in a police station.

コンタクトターミナル23は、充電台55と電気的に接続するための端子であり、USBインターフェース22を介してMCU19に接続されるとともに、電源部24と接続される。電源部24は、コンタクトターミナル23における充電台55との接続検知に応じて、バッテリ25を充電する。コンタクトターミナル23は、充電台55との接続に応じて、MCU19が記憶部15から読み出した映像のデータを、充電台55を介して接続された外部機器(例えばコモントリガーボックス54)に通信可能である。 The contact terminal 23 is a terminal for electrically connecting to the charging base 55 , and is connected to the MCU 19 via the USB interface 22 as well as to the power supply section 24 . The power supply unit 24 charges the battery 25 in response to detection of connection between the contact terminal 23 and the charging base 55 . The contact terminal 23 can communicate video data read from the storage unit 15 by the MCU 19 to an external device (for example, the common trigger box 54 ) connected via the charging stand 55 according to the connection with the charging stand 55 . be.

コンタクトターミナル23には、例えば「充電端子V+」(図示略)、「検知端子23T」、「データ端子D-,D+」(図示略)および「グランド端子」(図示略)が設けられる。検知端子23Tは、電圧および電圧変化を検出するための端子である。データ端子D-,D+は、例えばUSBコネクタ端子を介して、車載PC52に対してウェアラブルカメラ10で撮像した映像のデータを転送するための端子である。コンタクトターミナル23の検知端子23Tは、ADコンバータCVを介してI2C20等の通信インターフェースに接続され、コンタクトターミナル23の検知電圧値がMCU19に入力される。 The contact terminal 23 is provided with, for example, a “charging terminal V+” (not shown), a “detection terminal 23T”, “data terminals D− and D+” (not shown), and a “ground terminal” (not shown). The detection terminal 23T is a terminal for detecting voltage and voltage change. The data terminals D− and D+ are terminals for transferring image data captured by the wearable camera 10 to the in-vehicle PC 52 via, for example, a USB connector terminal. A detection terminal 23T of the contact terminal 23 is connected to a communication interface such as I2C 20 via an AD converter CV, and the detected voltage value of the contact terminal 23 is input to the MCU19.

コンタクトターミナル23と、充電台55のコネクタとが接続されることにより、ウェアラブルカメラ10と外部機器(例えばコモントリガーボックス54)との間でデータ通信が可能となる。 By connecting the contact terminal 23 and the connector of the charging stand 55, data communication is possible between the wearable camera 10 and an external device (for example, the common trigger box 54).

電源部24は、例えばコンタクトターミナル23を介して、充電台55に接続される外部電源(例えばコモントリガーボックス54、警察車両VC1内のシガーチャージャ(図示略)、警察車両VC1内のアクセサリ)より供給される充電電流をバッテリ25に給電することで、バッテリ25を充電する。 The power supply unit 24 is supplied from an external power supply (for example, a common trigger box 54, a cigar charger (not shown) in the police vehicle VC1, accessories in the police vehicle VC1) connected to the charging stand 55 via the contact terminal 23, for example. The battery 25 is charged by supplying the charging current to the battery 25 .

バッテリ25は、例えば充電可能な2次電池により構成され、ウェアラブルカメラ10の各部に電源電力を供給する。 The battery 25 is composed of, for example, a rechargeable secondary battery, and supplies power to each part of the wearable camera 10 .

録画スイッチSW1は、例えば警官の押下操作による録画(動画の撮像)の開始/停止の操作指示を入力する押しボタンスイッチである。また、MCU19は、例えば録画スイッチSW1が短押しされたことで録画(動画の撮像)を開始し、録画スイッチSW1が長押しされたことで録画を終了してもよい。また、MCU19は、例えば録画スイッチSW1が奇数回押下されることで録画(動画の撮像)を開始し、録画スイッチSW1が偶数回押下されることで録画を終了してもよい。 The recording switch SW1 is a push button switch for inputting an operation instruction for starting/stopping recording (imaging of a moving image) by, for example, a policeman's pressing operation. Also, the MCU 19 may start recording (capturing a moving image) when the recording switch SW1 is pressed for a short time, and end recording when the recording switch SW1 is pressed for a long time. Also, the MCU 19 may start recording (capturing a moving image) when the recording switch SW1 is pressed an odd number of times, and end recording when the recording switch SW1 is pressed an even number of times.

スナップショットスイッチSW2は、例えば警官の押下操作による静止画の撮像の操作指示を入力する押しボタンスイッチである。スナップショットスイッチSW2は、例えば押下される度に、MCU19によって押下時の静止画の撮像が実行される。 The snapshot switch SW2 is a push-button switch for inputting an operation instruction for capturing a still image, for example, by a policeman's pressing operation. For example, every time the snapshot switch SW2 is pressed, the MCU 19 captures a still image at the time of pressing.

通信モードスイッチSW3は、例えばウェアラブルカメラ10と外部機器との間の通信モードを設定するための操作指示を入力するスライドスイッチである。通信モードは、例えばアクセスポイントモード、ステーションモード、OFFモードを含む。 The communication mode switch SW3 is a slide switch for inputting an operation instruction for setting a communication mode between the wearable camera 10 and an external device, for example. Communication modes include, for example, access point mode, station mode, and OFF mode.

アクセスポイントモードは、ウェアラブルカメラ10が無線LANのアクセスポイントとして動作し、例えば警官が所持するスマートフォンと無線接続して、ウェアラブルカメラ10とスマートフォンとの間で通信を行うモードである。アクセスポイントモードにおいて、スマートフォンは、ウェアラブルカメラ10と接続することにより、ウェアラブルカメラ10による現在のライブ画像の表示、録画された画像の再生、撮像された静止画の表示等を行うことができる。 The access point mode is a mode in which the wearable camera 10 operates as a wireless LAN access point, wirelessly connects to, for example, a smartphone owned by a police officer, and performs communication between the wearable camera 10 and the smartphone. In the access point mode, by connecting to the wearable camera 10, the smartphone can display current live images, play back recorded images, and display still images captured by the wearable camera 10.

ステーションモードは、無線LANを用いて外部機器と接続する場合に、外部機器をアクセスポイントとして通信するモードである。例えばスマートフォンのテザリング機能を利用し、外部機器としてスマートフォンを設定してもよい。ステーションモードにおいて、ウェアラブルカメラ10は、各種設定、ウェアラブルカメラ10が保持する録画された画像の転送(アップロード)等を車載カメラシステム50に行うことができる。 The station mode is a mode in which communication is performed using the external device as an access point when connecting to the external device using a wireless LAN. For example, a smartphone may be set as an external device by using the tethering function of the smartphone. In the station mode, the wearable camera 10 can perform various settings, transfer (upload) of recorded images held by the wearable camera 10 , and the like to the in-vehicle camera system 50 .

OFFモードは、無線LANの通信動作をオフし、無線LANを未使用とするモードである。 The OFF mode is a mode in which the communication operation of the wireless LAN is turned off and the wireless LAN is not used.

属性情報付与スイッチSW4は、映像データに属性情報を付与するために操作される押しボタンスイッチである。属性情報は、ウェアラブルカメラ10により撮像された映像の内容(例えば事件の種別、殺人、強盗、災害等)を示す。 The attribute information adding switch SW4 is a push button switch operated to add attribute information to the video data. The attribute information indicates the content of the image captured by the wearable camera 10 (for example, type of incident, murder, robbery, disaster, etc.).

無線登録スイッチSW5は、ウェアラブルカメラ10が無線通信(例えばBLEまたは無線LANを用いた無線通信)する相手の外部機器(例えばスマートフォン、コモントリガーボックス54)を通信相手として登録して設定する(以下「通信設定処理」とも称する場合がある)際に操作される押しボタンスイッチである。以下、例えばBLEを用いた無線通信において、通信相手となる機器を登録して設定する処理を「ペアリング」と称する場合がある。 The wireless registration switch SW5 registers and sets an external device (e.g., smartphone, common trigger box 54) with which the wearable camera 10 performs wireless communication (e.g., wireless communication using BLE or wireless LAN) as a communication partner (hereinafter referred to as " This is a push button switch that is operated during communication setting processing. Hereinafter, for example, in wireless communication using BLE, the process of registering and setting a communication partner device may be referred to as “pairing”.

LED26aは、例えばウェアラブルカメラ10の電源投入状態(オンオフ状態)およびバッテリ25の状態を示す表示部である。 The LED 26 a is a display unit that indicates, for example, the power-on state (on/off state) of the wearable camera 10 and the state of the battery 25 .

LED26bは、例えばウェアラブルカメラ10の撮像動作の状態(録画状態)を示す表示部である。 The LED 26b is a display unit that indicates, for example, the imaging operation state (recording state) of the wearable camera 10 .

LED26cは、例えばウェアラブルカメラ10の通信モードの状態を示す表示部である。また、3個のLED26a~26cは、ウェアラブルカメラ10が車載カメラシステム50(例えば車載PC52)から通知データを受信すると、MCU19からの指示に従い、点滅動作を行う。この時、MCU19は、通知データに含まれる、音源に関する情報に応じて、MCU19は、LED26a~26cの点滅パターンを可変させる。 The LED 26c is, for example, a display unit that indicates the state of the communication mode of the wearable camera 10. FIG. Also, the three LEDs 26a to 26c blink according to instructions from the MCU 19 when the wearable camera 10 receives notification data from the vehicle-mounted camera system 50 (for example, the vehicle-mounted PC 52). At this time, the MCU 19 varies the blinking patterns of the LEDs 26a to 26c according to the information about the sound source contained in the notification data.

MCU19は、録画スイッチSW1、スナップショットスイッチSW2、通信モードスイッチSW3、属性情報付与スイッチSW4および無線登録スイッチSW5の各スイッチの入力検出を行い、操作があったスイッチ入力に対する処理を行う。 The MCU 19 detects the inputs of the recording switch SW1, the snapshot switch SW2, the communication mode switch SW3, the attribute information addition switch SW4, and the wireless registration switch SW5, and processes the switch inputs that have been operated.

MCU19は、録画スイッチSW1の操作入力を検出した場合、撮像部11における撮像動作の開始または停止を制御し、撮像部11から得られた画像を、動画像として記憶部15に保存する。 When the MCU 19 detects an operation input of the recording switch SW1, the MCU 19 controls the start or stop of the image pickup operation in the image pickup section 11, and saves the image obtained from the image pickup section 11 in the storage section 15 as a moving image.

MCU19は、スナップショットスイッチSW2の操作入力を検出した場合、スナップショットスイッチSW2が操作されたときの撮像部11による画像を、静止画像として記憶部15に保存する。 When the MCU 19 detects the operation input of the snapshot switch SW2, the MCU 19 saves the image captured by the imaging unit 11 when the snapshot switch SW2 was operated in the storage unit 15 as a still image.

MCU19は、通信モードスイッチSW3の状態を検出し、通信モードスイッチSW3の設定に応じた通信モードによって通信部21を動作させる。 The MCU 19 detects the state of the communication mode switch SW3, and operates the communication section 21 in the communication mode according to the setting of the communication mode switch SW3.

MCU19は、属性情報付与スイッチSW4が押下された場合、撮像部11によって撮像された映像のデータに対応する属性情報を、その映像に対応付けて付与する。 When the attribute information adding switch SW4 is pressed, the MCU 19 adds the attribute information corresponding to the data of the image captured by the imaging unit 11 to the image in association with the image.

MCU19は、無線登録スイッチSW5が押下された場合、ウェアラブルカメラ10の通信相手となり得る周囲の外部機器(例えばコモントリガーボックス54)に対し、通信設定処理(例えばペアリング)において行われるべき既定の処理を実行する。ここで、既定の処理は、ペアリングを例示すると、無線通信の通信相手としての登録要求情報の生成並びにBLE通信部21Aへの出力、接続先である通信相手を特定するための接続情報の生成ならびにBLE通信部21Aへの出力、通信相手から送信された接続情報の記憶部15への保存である。但し、無線LANの通信設定に関する既定の処理は、上述したペアリングを例示した時の既定の処理と同様であることは言うまでもない。 When the wireless registration switch SW5 is pressed, the MCU 19 performs predetermined processing to be performed in the communication setting processing (for example, pairing) with the peripheral external device (for example, the common trigger box 54) that can be the communication partner of the wearable camera 10. to run. Here, exemplifying pairing, the predetermined processing includes generation of registration request information as a communication partner of wireless communication, output to the BLE communication unit 21A, and generation of connection information for specifying the communication partner that is the connection destination. and output to the BLE communication unit 21A, and storage in the storage unit 15 of the connection information transmitted from the communication partner. However, it goes without saying that the default processing related to wireless LAN communication settings is the same as the default processing when pairing is exemplified above.

図3は、車載PC52のハードウェア構成例を示すブロック図である。車載PC52は、CPU201と、I/O(Input/Output)制御部202と、通信部203と、メモリ204と、入力部205と、表示部206と、スピーカ207と、HDD208とを含む構成である。車載PC52は、ウェアラブルカメラ10および車載レコーダ53のそれぞれとの間で通信可能であり、コモントリガーボックス54を介して警察署内の各種サーバ(例えばバックエンドストリーミングサーバ60、バックエンドサーバ70)とも通信可能である。 FIG. 3 is a block diagram showing a hardware configuration example of the in-vehicle PC 52. As shown in FIG. The in-vehicle PC 52 includes a CPU 201, an I/O (Input/Output) control unit 202, a communication unit 203, a memory 204, an input unit 205, a display unit 206, a speaker 207, and an HDD 208. . The in-vehicle PC 52 can communicate with each of the wearable camera 10 and the in-vehicle recorder 53, and also communicate with various servers in the police station (for example, the backend streaming server 60 and the backend server 70) via the common trigger box 54. It is possible.

CPU201は、例えば、車載PC52の各部の動作を全体的に統括するための制御処理、他の各部との間のデータのI/O制御部202を介した入出力処理、データの演算(計算)処理およびデータの記憶処理を行う。 The CPU 201 performs, for example, control processing for overall control of the operation of each unit of the in-vehicle PC 52, input/output processing of data to/from other units via the I/O control unit 202, and calculation of data. Processing and data storage.

CPU201は、例えば、表示部206に表示された車載カメラシステム50へのログイン画面に対する警官の入力操作により、警官の車載カメラシステム50へのログインの可否を認証する。警官の入力操作は、例えば、Officer IDとパスワード等を入力する操作である。ログインが許可される対象となる警官に関する各種情報は、例えばメモリ204に予め保存されており、CPU201は、メモリ204に予め保存されているログインの許可対象の情報を用いて、警官の車載カメラシステム50へのログインの可否を判定する。なお、このログインは、車載PC52を介した車載カメラシステム50へのログインでもよいし、車載PC52にインストールされた既定のアプリケーションへのログインでもよい。 The CPU 201 authenticates whether or not the policeman can log in to the vehicle-mounted camera system 50 by the policeman's input operation on the login screen to the vehicle-mounted camera system 50 displayed on the display unit 206, for example. The police officer's input operation is, for example, an operation of inputting an officer ID and a password. Various types of information about police officers to whom login is permitted are pre-stored, for example, in the memory 204. 50 is determined. This login may be a login to the in-vehicle camera system 50 via the in-vehicle PC 52 or a login to a default application installed in the in-vehicle PC 52 .

I/O制御部202は、CPU201と車載PC52の各部(例えば通信部203、入力部205、表示部206、スピーカ207)との間でデータの入出力に関する制御を行い、CPU201からのデータおよびCPU201へのデータの中継を行う。なお、I/O制御部202は、CPU201と一体的に構成されてもよい。 The I/O control unit 202 controls input/output of data between the CPU 201 and each unit of the in-vehicle PC 52 (for example, the communication unit 203, the input unit 205, the display unit 206, and the speaker 207). Relay data to Note that the I/O control unit 202 may be configured integrally with the CPU 201 .

通信部203は、例えば、車載カメラ51あるいは車載レコーダ53との間または警官が装着可能なウェアラブルカメラ10との間間で、有線または無線による通信を行う。 The communication unit 203 performs wired or wireless communication with, for example, the vehicle-mounted camera 51 or the vehicle-mounted recorder 53 or the wearable camera 10 that can be worn by a police officer.

メモリ204は、例えばRAM、ROM、不揮発性あるいは揮発性の半導体メモリを用いて構成され、CPU201の動作時のワークメモリとして機能し、CPU201を動作させるための所定のプログラムおよびデータを保存している。メモリ204は、例えば、車載カメラシステム50へのログインが許可される警官に関するログイン情報を保存する。 The memory 204 is configured using, for example, RAM, ROM, nonvolatile or volatile semiconductor memory, functions as a work memory during operation of the CPU 201, and stores predetermined programs and data for operating the CPU 201. . Memory 204 stores, for example, login information relating to police officers who are permitted to login to onboard camera system 50 .

入力部205は、警官の入力操作を受け付け、I/O制御部202を介してCPU201に通知するためのUI(User Interface)であり、例えばマウス、キーボード等のポインティングデバイスである。入力部205は、例えば表示部206の画面に対応して配置され、警官の指あるいはスタイラスペンによって操作が可能なタッチパネルもしくはタッチパッドを用いて構成されても良い。入力部205は、例えば、車載カメラシステム50へログインするためのログイン情報を入力する。 The input unit 205 is a UI (User Interface) for receiving an input operation by the policeman and notifying the CPU 201 via the I/O control unit 202, and is a pointing device such as a mouse and a keyboard. The input unit 205 may be arranged corresponding to the screen of the display unit 206, for example, and may be configured using a touch panel or a touch pad that can be operated by a policeman's finger or a stylus pen. The input unit 205 inputs login information for logging in to the in-vehicle camera system 50, for example.

表示部206は、例えばLCDあるいは有機ELを用いて構成され、各種情報を表示する。また、表示部206は、例えば警官の入力操作に応じて、ウェアラブルカメラ10および車載カメラ51のそれぞれにより撮像された撮像映像に含まれる映像部分のデータを、CPU201の指示の下で同一画面上に表示する。 The display unit 206 is configured using, for example, an LCD or an organic EL, and displays various information. In addition, the display unit 206 displays the data of the image portion included in the images captured by the wearable camera 10 and the vehicle-mounted camera 51 on the same screen under the instruction of the CPU 201, for example, according to the input operation of the police officer. indicate.

スピーカ207は、例えば警官の入力操作に応じて、ウェアラブルカメラ10および車載カメラ51のそれぞれにより撮像された撮像映像に含まれる音声部分のデータを、CPU201の指示の下で出力する。なお、表示部206およびスピーカ207は、車載PC52とは別々の構成としてもよい。 The speaker 207 outputs, under the instruction of the CPU 201, the data of the audio part included in the images captured by the wearable camera 10 and the vehicle-mounted camera 51, for example, according to the policeman's input operation. Note that the display unit 206 and the speaker 207 may be configured separately from the in-vehicle PC 52 .

HDD208は、例えば、各種データ、ソフトウェア(ソフトウェアプログラム)を記憶する。具体的には、HDD208は、例えば、車載カメラ51および車載レコーダ53のそれぞれの制御および設定を行うためのソフトウェア、ウェアラブルカメラ10の制御や設定を行うためのソフトウェア、を保存する。また、HDD208は、例えば、ウェアラブルカメラ10により撮像された撮像映像のデータ、車載カメラ51により撮像された撮像映像のデータを保存してよい。 The HDD 208 stores, for example, various data and software (software programs). Specifically, the HDD 208 stores, for example, software for controlling and setting the vehicle-mounted camera 51 and the vehicle-mounted recorder 53 and software for controlling and setting the wearable camera 10 . Further, the HDD 208 may store, for example, imaged video data captured by the wearable camera 10 and imaged video data captured by the in-vehicle camera 51 .

次に、実施の形態1に係るウェアラブルカメラシステム1の動作手順を説明する。 Next, an operation procedure of the wearable camera system 1 according to Embodiment 1 will be described.

ここでは、2人の警官OA,OB(図4参照)がそれぞれ装着するウェアラブルカメラ10によって撮像される画像をバックエンドサーバ70が結合し、空間画像としてバックエンドクライアント80に表示する例を説明する。2人の警官OA,OBが装着するウェアラブルカメラ10を区別するために、ここでは、警官OAが装着するウェアラブルカメラ10を便宜的に「BWC1」と称し、警官OBが装着するウェアラブルカメラ10を便宜的に「BWC2」と称する。なお、BWC1,BWC2は、ともに同一のハードウェア構成を有するウェアラブルカメラ10である(図2参照)。 Here, an example will be described in which the images captured by the wearable cameras 10 worn by two police officers OA and OB (see FIG. 4) are combined by the backend server 70 and displayed on the backend client 80 as a spatial image. . In order to distinguish between the wearable cameras 10 worn by the two police officers OA and OB, the wearable camera 10 worn by the police officer OA will be referred to as "BWC1" here for convenience, and the wearable camera 10 worn by the police officer OB will be referred to as "BWC1" for convenience. commonly referred to as "BWC2". BWC1 and BWC2 are both wearable cameras 10 having the same hardware configuration (see FIG. 2).

図4は、実施の形態1に係るウェアラブルカメラシステム1の動作手順例を時系列に示すシーケンス図である。事件あるいは事故等の現場(以下、単に「事件現場」ともいう)に警官OA,OBがいる状況を想定する。 FIG. 4 is a sequence diagram showing an example of an operation procedure of the wearable camera system 1 according to Embodiment 1 in chronological order. Assume a situation where police officers OA and OB are present at the scene of an incident or accident (hereinafter also simply referred to as "incident scene").

図4において、警官OAが装着するBWC1によって事件現場が撮像されると、BWC1は、記録証拠映像を定期的にバックエンドサーバ70にアップロードする(T1)。例えば、犯人が家に立てこもっているシーンを想定する。警官OAがこの家を巡回する場合、BWC1による記録証拠映像は、例えば30秒、1分、5分毎にバックエンドサーバ70に送信される。なお、記録証拠映像が送信されるタイミング(周期)は、30秒、1分、5分に限定されないことは言うまでもない。このとき、BWC1は、記録証拠映像に時刻情報および現在位置情報を記録証拠映像のメタ情報として含めて送信する。 In FIG. 4, when the incident scene is imaged by the BWC 1 worn by the police officer OA, the BWC 1 periodically uploads recorded evidence images to the backend server 70 (T1). For example, assume a scene in which a criminal is locked up at home. When the police officer OA patrols this house, recorded evidence video by BWC 1 is sent to the backend server 70 every 30 seconds, 1 minute, 5 minutes, for example. Needless to say, the timing (period) at which the recorded evidence video is transmitted is not limited to 30 seconds, 1 minute, or 5 minutes. At this time, the BWC 1 transmits the recorded evidence video including the time information and the current position information as meta information of the recorded evidence video.

BWC1により得られた記録証拠映像は、例えばBWC1と無線LANにより接続されているコモントリガーボックス54およびネットワークNW1を介して、バックエンドストリーミングサーバ60あるいは、そのバックエンドストリーミングサーバ60を更に介してバックエンドサーバ70に送信される。なお、BWC1による記録証拠映像は、車載レコーダ53に蓄積された後、コモントリガーボックス54と警察署内の無線LANアクセスポイントとが通信可能に接続された上でコモントリガーボックス54を介してバックエンドサーバ70に直接に送信されてもよい。 Recorded evidence video obtained by BWC 1 is transmitted to back-end streaming server 60 via common trigger box 54 and network NW1 connected to BWC 1 via wireless LAN, or back-end streaming server 60 further via back-end streaming server 60, for example. It is sent to the server 70 . After the video evidence recorded by the BWC 1 is accumulated in the vehicle-mounted recorder 53, the common trigger box 54 is connected to the wireless LAN access point in the police station so as to be communicable, and then sent to the back end via the common trigger box 54. It may be sent directly to the server 70 .

同様に、警官OBによって事件現場が撮像されると、BWC2は、記録証拠映像を定期的にバックエンドサーバ70にアップロードする(T2)。このとき、BWC2は、記録証拠映像に時刻情報および現在位置情報を記録証拠映像のメタ情報として含めて送信する。なお、BWC2からバックエンドサーバ70までの記録証拠映像の送信ルートは、上述したBWC2からバックエンドサーバ70までの記録証拠映像の送信ルートと同じでよいし異なっていてもよい。 Similarly, when the scene of the incident is imaged by the police officer OB, the BWC 2 periodically uploads recorded evidence images to the backend server 70 (T2). At this time, the BWC 2 transmits the recorded evidence video including the time information and the current position information as meta information of the recorded evidence video. The transmission route of the recorded evidence video from the BWC 2 to the backend server 70 may be the same as or different from the transmission route of the recorded evidence video from the BWC 2 to the backend server 70 described above.

同様に、車載カメラ51は、警察車両VC1が到着した事件現場を撮像する。車載カメラシステム50(ICV)は、車載カメラ51により得られた記録証拠映像を定期的にバックエンドサーバ70に送信する(T3)。このとき、車載PC52は、記録証拠映像に時刻情報および現在位置情報を記録証拠映像のメタ情報として併せて送信する。 Similarly, the vehicle-mounted camera 51 images the incident scene where the police vehicle VC1 has arrived. The in-vehicle camera system 50 (ICV) periodically transmits the recorded evidence video obtained by the in-vehicle camera 51 to the backend server 70 (T3). At this time, the in-vehicle PC 52 transmits the time information and the current position information together with the recorded evidence video as meta information of the recorded evidence video.

車載カメラ51により得られた記録証拠映像は、例えば車載カメラ51と接続される車載PC52からコモントリガーボックスおよびネットワークNW1を介して、バックエンドストリーミングサーバ60あるいは、そのバックエンドストリーミングサーバ60を更に介してバックエンドサーバ70に送信される。なお、車載カメラ51による記録証拠映像は、車載レコーダ53に蓄積された後、コモントリガーボックス54と警察署内の無線LANアクセスポイントとが通信可能に接続された上でコモントリガーボックス54を介してバックエンドサーバ70に直接に送信されてもよい。 Recorded evidence video obtained by the vehicle-mounted camera 51 is transmitted from the vehicle-mounted PC 52 connected to the vehicle-mounted camera 51, for example, via the common trigger box and the network NW1, to the back-end streaming server 60, or further via the back-end streaming server 60. It is sent to the backend server 70 . After the video evidence recorded by the in-vehicle camera 51 is stored in the in-vehicle recorder 53, the common trigger box 54 is communicatively connected to the wireless LAN access point in the police station, and then transmitted through the common trigger box 54. It may be sent directly to the backend server 70 .

バックエンドサーバ70は、BWC1,BWC2および車載カメラ51のそれぞれからメタ情報を含む記録証拠映像を受信して記録(蓄積)する。バックエンドサーバ70は、蓄積した記録証拠映像に対応するメタ情報に基づいて、同一の時間帯および同一のエリア(地点)の記録証拠映像に対し、同一の事件管理番号の一例としての事件番号(ケースナンバー)を付与する(T4)。同一の時間帯は、同じ事件、事故等の状況を表す映像であると判断される時間であり、任意に設定される。例えば、警官が不審者に対し職務質問を行う場合、同一の時間帯は、10分に設定される。同一のエリアは、ウェアラブルカメラ10が搭載するGNSS受信部18によって得られる現在位置情報に基づく所定の範囲である。ここでは、現在位置情報として、GNSSの1つであるGPS(Global Positioning System)を用いて得られるGPS位置情報を用いる場合を示す。なお、現在位置情報は、GNSS受信部によって得られる位置情報に限られず、ウェアラブルカメラと無線信号を送受信する無線基地局の位置情報で代用されてもよい。 The backend server 70 receives and records (accumulates) recorded evidence video including meta information from each of the BWC1, BWC2 and the vehicle-mounted camera 51 . Based on the meta information corresponding to the accumulated documentary evidence video, the backend server 70, for the documentary evidence video in the same time period and in the same area (location), the case number ( case number) is given (T4). The same time zone is a time during which images are judged to represent the same incident, accident, etc., and is arbitrarily set. For example, when a policeman questions a suspicious person, the same time period is set to 10 minutes. The same area is a predetermined range based on current position information obtained by the GNSS receiver 18 mounted on the wearable camera 10 . Here, the case of using GPS (Global Positioning System), which is one of GNSS, is used as the current position information. Note that the current position information is not limited to the position information obtained by the GNSS receiver, and may be substituted by the position information of a wireless base station that transmits and receives wireless signals to and from the wearable camera.

バックエンドサーバ70は、同一の事件番号が付与された記録証拠映像が少なくとも1つ存在する場合、証拠記録映像に記録された特定のオブジェクトの特徴要素をメタ情報として取り出し、記録時刻(時間帯よりも詳細な時刻)およびGPS位置情報とともに蓄積する(T5)。ここで、特定のオブジェクトは、事件、事故等の現場(言い換えると、事件等に関する注目地点)にある目印(基点)となる対象であり、例えば簡単に移動しない家、木等の不動物体である。なお、BWC1,BWC2および車載カメラ51により短時間の間に得られた記録証拠映像を用いる場合には、特定のオブジェクトとして移動可能な車両を採用してもよい。 If there is at least one documented evidence video with the same incident number, the backend server 70 extracts the feature element of the specific object recorded in the evidence documented video as meta information, time) and GPS position information (T5). Here, the specific object is an object that serves as a landmark (base point) at the site of an incident, accident, etc. (in other words, a point of interest regarding the incident, etc.), for example, an inanimate object such as a house or tree that does not move easily. . In the case of using recorded evidence images obtained by the BWC1, BWC2 and the vehicle-mounted camera 51 in a short period of time, a movable vehicle may be employed as the specific object.

バックエンドサーバ70は、同じ事件番号が付与された複数の記録証拠映像に対し、特徴要素が一致するオブジェクトを検索する(T6)。このオブジェクトの検索では、同じカメラ(例えば同じ警官が装着するウェアラブルカメラ)で撮像された記録証拠映像において、特徴要素が一致するオブジェクトを検索してもよいし、異なるカメラ(別々の警官がそれぞれ装着するウェアラブルカメラ)で撮像された記録証拠映像において、特徴要素が一致するオブジェクトを検索してもよい。なお、異なるカメラは、警官が装着するウェアラブルカメラと警察車両の車載カメラの組み合わせであってもよい。また、カメラの台数は、2台に限らず3台以上であってもよい。 The back-end server 70 searches for objects with matching feature elements from a plurality of recorded evidence videos to which the same case number is assigned (T6). In this object search, it is possible to search for objects with matching feature elements in the documented evidence video captured by the same camera (for example, a wearable camera worn by the same police officer), or to search for objects with different feature elements (wearable by different police officers, respectively). Objects with matching characteristic elements may be searched for in documentary evidence images captured by a wearable camera. Note that the different camera may be a combination of a wearable camera worn by a police officer and an in-vehicle camera of a police vehicle. Also, the number of cameras is not limited to two, and may be three or more.

検索の結果、特徴要素が一致するオブジェクトが見つかった場合、バックエンドサーバ70は、特徴要素が一致したオブジェクトを基点(基準となる点)とし、異なる2以上の証拠記録映像の中からそれぞれオブジェクトを含む画像を抽出し、抽出した2以上の画像をオブジェクトの全体あるいは共通する一部分の外観形状の同一性が保持されるように結合し、合成画像を生成する(T7)。例えば、抽出される2以上の画像は、2つのウェアラブルカメラ10(BWC1,BWC2)によって同一のタイミングで撮像された画像である。なお、抽出される2以上の画像は、異なるタイミングにおいて撮像された画像であってもよい。 As a result of the search, when an object with matching feature elements is found, the backend server 70 uses the object with the matching feature elements as a base point (reference point), and selects each object from two or more different evidence recording videos. The images containing the object are extracted, and the two or more extracted images are combined so as to maintain the same appearance shape of the entire object or a common part thereof to generate a composite image (T7). For example, the two or more extracted images are images captured at the same timing by the two wearable cameras 10 (BWC1, BWC2). Note that the two or more extracted images may be images captured at different timings.

合成画像は、仮に結合された場合でもそれぞれの記録証拠映像中に共通するオブジェクトの全体あるいは共通する一部分の外観形状の同一性が保持される程度に、抽出された2以上の画像を単に足し合わせることで生成される静止画像であり、例えば2以上の画像が重なっている領域を含む。また、合成画像において、2以上の画像が近接する、いずれの画像にも現れない部分は、合成画像の証拠性を担保するために、画像処理等によって補間処理されることなく(言い換えると、撮像されていない画像を作成することなく)空白の領域となる。これにより、合成画像は、虚偽の無い、真正な画像(言い換えると、証拠性の信頼度が担保された画像)である。 The composite image is simply the addition of two or more extracted images to the extent that, even if combined, the same overall or common portion of the common object in each documentary evidence image retains the same appearance shape. It is a still image generated by, for example, an area where two or more images overlap. In addition, in the composite image, a portion that does not appear in any image where two or more images are close to each other is not subjected to interpolation processing by image processing etc. (in other words, imaging blank area) without creating an image that is not. As a result, the synthesized image is a genuine image (in other words, an image whose evidentiary reliability is guaranteed).

バックエンドサーバ70は、合成画像の生成に用いられた、2以上の画像に対し、それぞれ時間方向に対して前後する複数のフレームの画像のそれぞれを継ぎ足し(繋ぎ)、より大きな空間画像を生成する(T8)。この空間画像は、特徴要素が一致したオブジェクトを基点とする2以上の画像を含む合成画像、およびこの合成画像に含まれる2以上の画像における1以上の前後フレームの画像を1つに結合した静止画像である。したがって、空間画像は、特徴要素が一致したオブジェクトを基点とする2以上の画像を含む合成画像の前フレーム(所定フレーム数前の画像)から、合成画像の後フレームの画像(所定フレーム数後の画像)まで、重ねた状態で得られる。なお、前後フレームは、基点とする画像の後フレームだけであってもよいし、前フレームだけであってもよい。また、基点とする画像ごとに前後フレームの数は、例えば事件番号ごとに異なってもよい。 The back-end server 70 adds (splices) images of a plurality of frames that precede and follow each other in the time direction with respect to two or more images used to generate a composite image to generate a larger spatial image. (T8). This spatial image consists of a composite image containing two or more images whose base point is an object with matching feature elements, and a static image obtained by combining one or more preceding and succeeding frame images of the two or more images included in this composite image. It is an image. Therefore, the spatial image is composed of two or more images whose base points are objects with matching feature elements, from the previous frame (the image before a predetermined number of frames) of the composite image to the image after the composite image (the image after the predetermined number of frames). images) are obtained in a superimposed state. It should be noted that the preceding and following frames may be only the frames after the image serving as the base point, or may be only the frames before. Also, the number of frames before and after each image serving as a base point may be different for each case number, for example.

なお、空間画像を表示する場合、空間画像は、合成画像の前フレームから後フレームの画像までスライドショーのようにフレーム単位で連続的に表示されてもよい。つまり、空間画像は、静止画像を連続的に再生するように、動画像として表示されてもよい。 In the case of displaying a spatial image, the spatial image may be continuously displayed frame by frame like a slide show from the front frame to the rear frame image of the composite image. That is, the spatial image may be displayed as a moving image so as to continuously reproduce still images.

バックエンドサーバ70は、1つの映像に結合された空間画像のデータを、バックエンドクライアント80にストリーミング配信を行う(T9)。ここでは、ストリーミング配信は、バックエンドサーバ70に有線LAN等で接続されたバックエンドクライアント80に対して行われる。なお、ストリーミング配信は、無線LAN、ネットワークNW1およびコモントリガーボックス54を介して車載PC52あるいは他のビューア装置(スマートフォン、タブレット端末)等に対して行われてもよい。 The backend server 70 performs streaming distribution of the spatial image data combined with one video to the backend client 80 (T9). Here, streaming distribution is performed to the backend client 80 connected to the backend server 70 via a wired LAN or the like. Note that streaming distribution may be performed to the in-vehicle PC 52 or another viewer device (smartphone, tablet terminal) or the like via the wireless LAN, network NW1 and common trigger box 54 .

一方、バックエンドクライアント80は、バックエンドサーバ70から送信される空間画像のデータを受信する(T10)。バックエンドクライアント80は、受信した空間画像のデータを基に、警察署の解析専門官が閲覧可能なように空間画像SG(図6参照)を表示する(T11)。 On the other hand, the backend client 80 receives the spatial image data transmitted from the backend server 70 (T10). Based on the received spatial image data, the backend client 80 displays the spatial image SG (see FIG. 6) so that the analysis specialist of the police station can view it (T11).

なお、本実施形態では、オブジェクトの特徴要素をメタ情報として取り出す処理は、バックエンドサーバ70によって行われたが、バックエンドサーバ70が行う代わりに、BWC1,BWC2,車載カメラ51、あるいは車載PC52によって行われてもよい。例えば、車載PC52は、車載レコーダ53に記録された、上記記録証拠映像を基に、メタ情報を取り出してよい。 In the present embodiment, the backend server 70 performs the process of extracting the characteristic elements of the object as meta information. may be done. For example, the in-vehicle PC 52 may extract meta information based on the recorded evidence video recorded in the in-vehicle recorder 53 .

図5は、同一の事件番号が付与された撮像画像を含む空間画像および撮像エリアの一例を示す図である。図中、点線枠で示される5枚の撮像画像G11,G12,G13,G14,G15は、警官OAによって、それぞれ時刻t1,t2,t3,t4,t5で連続的に撮像された、同一の事件番号が付与された画像である。同様に、点線枠で示される4枚の撮像画像G22,G23,G23,G24は、警官OBによってそれぞれ時刻t2,t3,t4,t5で連続的に撮像された、同一の事件番号が付与された画像である。これらの撮像画像のうち、例えば、警官OAによる撮像画像G12と、警官OBによる撮像画像G22とでは、オブジェクト(例えば同一の車両)の特徴要素(フロントガラス、左右のサイドミラー等)が一致する。ここでは、撮像画像G12と撮像画像G22は、同じ時刻t2に撮像された画像であるが、異なる時刻に撮像された画像であってもよい。このことは、撮像画像G13と撮像画像G23、および撮像画像G14と撮像画像G24においても同様である。ただし、5枚の撮像画像G11,G12,G13,G14,G15、および4枚の撮像画像G22,G23,G23,G24は、それぞれ時系列に連続して撮像されたフレームの画像であることが望ましい。 FIG. 5 is a diagram showing an example of a spatial image and an imaging area including captured images assigned the same case number. In the figure, the five shot images G11, G12, G13, G14, and G15 indicated by the dotted frame are the same incident shot continuously by the police officer OA at times t1, t2, t3, t4, and t5, respectively. It is a numbered image. Similarly, the four captured images G22, G23, G23, and G24 indicated by the dotted frame are continuously captured by the police officer OB at times t2, t3, t4, and t5, respectively, and given the same case number. It is an image. Of these captured images, for example, between the captured image G12 captured by the police officer OA and the captured image G22 captured by the police officer OB, the characteristic elements (windshield, left and right side mirrors, etc.) of the object (for example, the same vehicle) match. Here, the captured image G12 and the captured image G22 are images captured at the same time t2, but may be images captured at different times. This is the same for the captured image G13 and the captured image G23, and the captured image G14 and the captured image G24. However, it is desirable that the five captured images G11, G12, G13, G14, G15 and the four captured images G22, G23, G23, G24 are images of frames continuously captured in time series. .

図6は、同一の事件番号が付与された複数枚の撮像画像を用いて空間画像を生成する動作例を説明する図である。バックエンドサーバ70は、メタ情報に含まれるオブジェクトの特徴要素が一致する撮像画像G12と撮像画像G22とのそれぞれを結合基準画像として結合し、合成画像MGを生成する。さらに、バックエンドサーバ70は、撮像画像G12,G22と同一の事件番号が付与され、かつ上述した結合基準画像に対して時間方向に前後する複数のフレームのそれぞれの画像(例えば1フレーム後の撮像画像G13と撮像画像G23)を結合し、1フレーム後合成画像MG1を生成する。また同様にして、バックエンドサーバ70は、上述した結合基準画像に対して時間方向に2フレーム後の撮像画像G14と撮像画像G24とを結合し、2フレーム後合成画像MG2を生成する。また同様にして、バックエンドサーバ70は、上述した結合基準画像に対して時間方向に3フレーム後の撮像画像G15と撮像画像G25とを結合し、3フレーム後合成画像MG3を生成する。 FIG. 6 is a diagram for explaining an operation example of generating a spatial image using a plurality of captured images to which the same case number is assigned. The back-end server 70 combines the captured image G12 and the captured image G22 that match the feature elements of the objects included in the meta information as a combined reference image, and generates a combined image MG. Furthermore, the back-end server 70 assigns the same incident number as the captured images G12 and G22, and each image of a plurality of frames preceding or succeeding in the time direction with respect to the above-described combined reference image (for example, images captured one frame later). The image G13 and the captured image G23) are combined to generate a combined image MG1 after one frame. Similarly, the back-end server 70 combines the captured image G14 and the captured image G24 two frames later in the time direction with respect to the combined reference image described above to generate a combined image MG2 after two frames. Similarly, the back-end server 70 combines the captured image G15 and the captured image G25 three frames later in the time direction with respect to the combined reference image described above, and generates a combined image MG3 after three frames.

なお、BWC2によって撮像される、結合基準画像である撮像画像G22より時間的に1フレーム前の撮像画像G21が仮に存在する場合(図6では撮像画像G21が存在せず)、バックエンドサーバ70は、その撮像画像G11と撮像画像G21とを結合し、1フレーム前合成画像を生成してもよい。図6の例では、1フレーム前合成画像が生成されないので、1フレーム前の撮像画像G11だけが用いられる。バックエンドサーバ70は、合成画像MGと1以上の前後合成画像(例えば1フレーム後合成画像MG1、2フレーム後合成画像MG2、3フレーム後合成画像MG3)と1フレーム前の撮像画像G11とを繋げた空間画像SGを生成する。 Note that if there exists a captured image G21 that is one frame earlier than the captured image G22 that is the combined reference image captured by the BWC 2 (in FIG. 6, the captured image G21 does not exist), the backend server 70 , the captured image G11 and the captured image G21 may be combined to generate a synthesized image one frame before. In the example of FIG. 6, only the captured image G11 of the previous frame is used because the synthesized image of the previous frame is not generated. The backend server 70 connects the composite image MG, one or more preceding and subsequent composite images (for example, one frame later composite image MG1, two frame later composite image MG2, and three frame later composite image MG3) and the captured image G11 one frame before. A spatial image SG is generated.

このように、空間画像SGは、合成画像MGに1以上の前後合成画像(例えば1フレーム後合成画像MG1、2フレーム後合成画像MG2、3フレーム後合成画像MG3)を結合した画像であり、合成画像MGおよび1以上の前後フレームの画像のそれぞれと比べ、撮像エリアの広い画像である。したがって、警察署の解析専門官は、事件、事故等の現場の状況を広範囲な画像で確認できる。また、空間画像SGは、合成画像MGおよび1以上の前後フレームの画像を超える範囲の画像を含まない。つまり、空間画像SGは、合成画像MGおよび1以上の前後フレームの画像を基に得られる、虚偽の無い(例えば画像補間によって生成される画像を含まない)真正な画像である。したがって、空間画像は、証拠記録映像としての価値を担保できる。 In this way, the spatial image SG is an image obtained by combining one or more preceding and subsequent composite images (for example, one frame later composite image MG1, two frame later composite image MG2, and three frame later composite image MG3) into the composite image MG. This image has a wider imaging area than the image MG and the images of one or more preceding and following frames. Therefore, an analysis specialist at a police station can confirm the situation at the scene of an incident, accident, or the like with a wide range of images. In addition, the spatial image SG does not include an image in a range exceeding the composite image MG and one or more previous and subsequent frame images. That is, the spatial image SG is a true image without falsity (eg, not including an image generated by image interpolation) obtained based on the composite image MG and one or more previous and subsequent frame images. Therefore, the spatial image can secure its value as evidence recording video.

なお、合成画像の生成に用いられる画像としては、同一の事件番号が付与された複数枚の撮像画像のうち、任意のタイミングで撮像された複数枚(2枚以上の)画像であってよい。つまり、特徴要素が一致するオブジェクトの基点は、同一のタイミングに限らず、同一の事件番号と扱われる時間帯において異なるタイミングのフレーム画像に含まれてもよい。また、空間画像は、合成画像に対し1以上の前後合成画像を生成して繋げることなく、各フレームの画像を単に合成画像に結合することで、生成されてもよい。 The images used for generating the composite image may be a plurality of (two or more) images captured at arbitrary timing among the plurality of captured images assigned the same case number. In other words, the base points of objects with matching characteristic elements are not limited to the same timing, but may be included in frame images at different timings in a time zone treated as the same case number. Alternatively, the spatial image may be generated by simply combining the images of each frame into the composite image without generating and connecting one or more preceding and succeeding composite images for the composite image.

このように、実施の形態1に係るウェアラブルカメラシステム1では、ウェアラブルカメラシステム1は、複数のウェアラブルカメラ10と、複数のウェアラブルカメラ10のそれぞれとの間で通信可能に接続されるバックエンドサーバ70と、を含む。複数のウェアラブルカメラ10のそれぞれは、事件現場を撮像した個々の撮像画像をバックエンドサーバ70に送る。バックエンドサーバ70は、複数のウェアラブルカメラ10のそれぞれから送られた個々の撮像画像に映る特定のオブジェクトの特徴要素を有するメタ情報を抽出し、メタ情報と対応する撮像画像とを対応付けて記録する。バックエンドサーバ70は、個々の撮像画像に対応するメタ情報に基づいて、特定のオブジェクトの特徴要素が一致する複数の撮像画像を合成した合成画像を生成してバックエンドクライアント80に送る。 As described above, in the wearable camera system 1 according to Embodiment 1, the wearable camera system 1 includes the plurality of wearable cameras 10 and the back-end server 70 connected to each of the plurality of wearable cameras 10 so as to be able to communicate with each other. and including. Each of the multiple wearable cameras 10 sends individual captured images of the incident scene to the backend server 70 . The back-end server 70 extracts meta information having characteristic elements of specific objects appearing in individual captured images sent from each of the plurality of wearable cameras 10, and records the meta information in association with the corresponding captured images. do. The backend server 70 generates a composite image by synthesizing a plurality of captured images matching the characteristic elements of a specific object based on the meta information corresponding to each captured image, and sends the composite image to the backend client 80 .

これにより、警察署の解析専門官は、バックエンドクライアント80に表示される、複数台のウェアラブルカメラ10を用いて撮像された事件、事故等の現場(注目するべき地点)の映像を広範囲に閲覧できる。したがって、ウェアラブルカメラシステム1は、事件あるいは事故等の注目するべき地点の広範囲の映像を得ることができ、警官による事件、事故等の現場の周囲の状況の観察および把握を効果的に支援できる。 As a result, the analysis specialist at the police station can view a wide range of images of incidents, accidents, etc. (points of interest) captured using multiple wearable cameras 10 and displayed on the backend client 80. can. Therefore, the wearable camera system 1 can obtain a wide-range image of a point of interest such as an incident or accident, and can effectively assist the police in observing and grasping the circumstances surrounding the scene of the incident or accident.

また、バックエンドサーバ70は、合成画像の生成に用いた複数の撮像画像のそれぞれの撮像時刻に対して時間的に前後する1以上の前後フレームの画像(前後撮像画像)を用いて、特定のオブジェクトの特徴要素が一致する複数の前後撮像画像を合成した1以上の前後合成画像(例えば1フレーム後合成画像MG1、2フレーム後合成画像MG2、3フレーム後合成画像MG3)を生成し、合成画像MGと1以上の前後合成画像とを繋げた空間画像を生成してバックエンドクライアント80に送る。これにより、ウェアラブルカメラシステム1は、時間的に連続した事件、事故等の現場の映像を表示でき、事件、事故等の現場の周囲の状況の観察および把握をより効果的に支援できる。 In addition, the back-end server 70 uses images of one or more frames before and after the imaging time of each of the multiple captured images used to generate the composite image (previous and subsequent captured images) to generate a specific image. Generating one or more front and rear synthesized images (for example, one frame post synthesized image MG1, two frame post synthesized image MG2, and three frame post synthesized image MG3) obtained by synthesizing a plurality of before and after captured images in which feature elements of an object match, and generating a synthesized image. A spatial image is generated by connecting the MG and one or more preceding and following synthesized images, and is sent to the backend client 80. - 特許庁As a result, the wearable camera system 1 can display temporally continuous images of the site of an incident, accident, etc., and can more effectively support observation and understanding of the circumstances surrounding the site of the incident, accident, etc.

また、複数(例えば2台)のウェアラブルカメラ10のそれぞれは、GNSS受信部18により位置情報を取得可能である。各ウェアラブルカメラ10は、事件、事故等の現場の位置情報と撮像時刻とを撮像画像に対応付けてバックエンドサーバ70に送る。バックエンドサーバ70は、2台のウェアラブルカメラ10のそれぞれから送られた個々の撮像画像に対応する位置情報および撮像時刻が同一である場合に、個々の撮像画像に同一の事件番号を付与して記録する。これにより、バックエンドサーバ70は、同じ事件、事故等に係る撮像画像だけを検索し、かつバックエンドクライアント80に表示させることができる。したがって、警察署の解析専門官は、事件、事故に係る撮像画像を速やかに閲覧できる。 Also, each of the plurality (for example, two) wearable cameras 10 can acquire position information by the GNSS receiver 18 . Each wearable camera 10 associates the location information of the site of an incident, accident, etc. and the imaging time with the captured image and sends the captured image to the backend server 70 . The back-end server 70 assigns the same case number to each captured image when the position information and imaging time corresponding to each captured image sent from each of the two wearable cameras 10 are the same. Record. As a result, the backend server 70 can retrieve only the captured images related to the same incident, accident, etc., and display them on the backend client 80 . Therefore, an analysis specialist at a police station can quickly view captured images related to incidents and accidents.

また、バックエンドサーバ70は、同一の事件番号が付与された個々の撮像画像を用いて、特定のオブジェクトの特徴要素を有するメタ情報を抽出する。これにより、バックエンドサーバ70は、メタ情報を用いて、同一の事件番号が付与された個々の撮像画像を対応付けることができる。例えば、バックエンドサーバ70は、オブジェクトの特徴要素が一致する2枚の撮像画像を結合し、合成画像を生成できる。 In addition, the backend server 70 extracts meta information having characteristic elements of a specific object using individual captured images to which the same case number is assigned. As a result, the backend server 70 can use the meta information to associate individual captured images to which the same case number is assigned. For example, the back-end server 70 can combine two captured images with matching object feature elements to generate a composite image.

また、複数のカメラとして、複数(例えば2名)の警官OA,OBのそれぞれにより装着される2台のウェアラブルカメラ10が用いられる。これにより、バックエンドサーバ70は、2台のウェアラブルカメラ10による、広範囲な現場の撮像画像を得ることができる。 In addition, two wearable cameras 10 worn by each of a plurality of (for example, two) police officers OA and OB are used as the plurality of cameras. Thereby, the backend server 70 can obtain images of a wide range of sites captured by the two wearable cameras 10 .

また、複数のカメラとして、1人以上の警官のそれぞれにより装着されるウェアラブルカメラ10と、警官が乗車する警察車両VC1に設けられる車載カメラ51が用いられる。これにより、バックエンドサーバ70は、1台以上のウェアラブルカメラ10と車載カメラ51による、広範囲な現場の撮像画像を得ることができる。 Also, as the plurality of cameras, the wearable camera 10 worn by each of one or more police officers and the vehicle-mounted camera 51 provided in the police vehicle VC1 in which the police officer rides are used. As a result, the backend server 70 can obtain images of a wide range of sites captured by one or more wearable cameras 10 and vehicle-mounted cameras 51 .

また、空間画像SGは、合成画像MGおよび1以上の前後合成画像(例えば1フレーム後合成画像MG1、2フレーム後合成画像MG2、3フレーム後合成画像MG3)を結合し、合成画像MGおよび1以上の前後合成画像のそれぞれと比べて撮像エリアの広い、2台のBWC1,BWC2によって撮像される画像である。これにより、空間画像SGは、合成画像MGおよび1以上の前後フレームの画像のそれぞれと比べ、撮像エリアの広い画像となる。したがって、警察署の解析専門官は、事件、事故等の現場の状況を広範囲な画像で確認できる。また、空間画像SGは、合成画像MGおよび1以上の前後フレームの画像を基に得られる、虚偽の無い(例えば画像補間によって生成される画像を含まない)真正な画像である。したがって、空間画像は、証拠記録映像としての価値を担保できる。 Further, the spatial image SG combines the synthesized image MG and one or more preceding and subsequent synthesized images (for example, one frame later synthesized image MG1, two frame later synthesized image MG2, and three frame later synthesized image MG3) to form the synthesized image MG and one or more This is an image captured by two BWC1 and BWC2, which has a wider imaging area than each of the front and rear synthesized images. As a result, the spatial image SG becomes an image with a wider imaging area than the composite image MG and the images of one or more preceding and following frames. Therefore, an analysis specialist at a police station can confirm the situation at the scene of an incident, accident, or the like with a wide range of images. Also, the spatial image SG is a true image without falsity (not including an image generated by image interpolation, for example) obtained based on the synthesized image MG and one or more previous and subsequent frame images. Therefore, the spatial image can secure its value as evidence recording video.

なお、ここでは、バックエンドサーバは、同一の事件番号が付与された複数枚の撮像画像を結合して空間画像を生成したが、メタ情報として警官の識別番号がバックエンドサーバに送信される場合、同一の事件現場に向かった警官の識別番号を基に、異なる警官が装着するウェアラブルカメラによる撮像画像を結合し、空間画像を生成してもよい。 Note that here, the backend server generates a spatial image by combining a plurality of captured images to which the same incident number is assigned. Alternatively, images captured by wearable cameras worn by different police officers may be combined to generate a spatial image based on the identification number of the police officer who went to the same incident scene.

(実施の形態2)
実施の形態1では、複数(2人以上)の警官が装着する各ウェアラブルカメラで撮像される画像を結合して合成画像とし、この合成画像と1以上の前後フレームの画像を結合して空間画像を生成する場合を示した。実施の形態2では、1人の警官が装着する1台のウェアラブルカメラで撮像される、1以上の前後フレームの画像を結合して空間画像を生成する例を説明する。なお、1台のウェアラブルカメラの代わりに、警察車両に塔載された車載カメラが用いられてもよい。
(Embodiment 2)
In Embodiment 1, images captured by wearable cameras worn by a plurality of (two or more) police officers are combined to form a composite image, and the composite image is combined with one or more previous and subsequent frame images to form a spatial image. is generated. In the second embodiment, an example will be described in which images of one or more frames before and after captured by one wearable camera worn by one policeman are combined to generate a spatial image. An in-vehicle camera mounted on a police vehicle may be used instead of one wearable camera.

また、実施の形態2のウェアラブルカメラシステムは実施の形態1とほぼ同一の構成を有する。実施の形態1と同一の構成要素については同一の符号を用いることで、その説明を省略する。 Also, the wearable camera system of the second embodiment has substantially the same configuration as that of the first embodiment. The same reference numerals are used for the same components as in the first embodiment, and the description thereof is omitted.

図7は、実施の形態2に係るウェアラブルカメラシステム1の動作手順例を時系列に示すシーケンス図である。ここでは、1台のウェアラブルカメラ10は、1人の警官OBによって装着されるBWC2である場合を示すが、警官OAによって装着されるBWC1であってもよい。 FIG. 7 is a sequence diagram showing an example of the operation procedure of the wearable camera system 1 according to Embodiment 2 in chronological order. Here, one wearable camera 10 is a BWC2 worn by one police officer OB, but may be a BWC1 worn by a policeman OA.

図7において、警官OBによって事件、事故等の現場が撮像されると、BWC2は、記録証拠映像を定期的にバックエンドサーバ70にアップロードする(T31)。このとき、BWC2は、記録証拠映像に時刻情報および現在位置情報を記録証拠映像のメタ情報として含めて送信する。なお、BWC2の代わりに、車載カメラ51が、警察車両VC1が到着した現場の状況を撮像し、同様に時刻情報および現在位置情報等のメタ情報を含む記録証拠映像を定期的にバックエンドサーバ70に送信してもよい。 In FIG. 7, when the scene of an incident, accident, etc. is imaged by the police officer OB, the BWC 2 periodically uploads recorded evidence images to the backend server 70 (T31). At this time, the BWC 2 transmits the recorded evidence video including the time information and the current position information as meta information of the recorded evidence video. Instead of the BWC 2, the vehicle-mounted camera 51 takes an image of the situation at the scene where the police vehicle VC1 has arrived, and likewise, the recorded evidence video including meta information such as time information and current position information is periodically sent to the back-end server 70. may be sent to

バックエンドサーバ70は、記録証拠映像が少なくとも1つ存在する場合、それぞれの証拠記録映像に記録されたオブジェクトの特徴要素をメタ情報として取り出し、記録時刻およびGPS位置情報とともに蓄積する(T32)。 If at least one recorded evidence video exists, the backend server 70 extracts the characteristic elements of the object recorded in each evidence recorded video as meta information and accumulates them together with the recording time and GPS position information (T32).

バックエンドサーバ70は、複数の記録証拠映像に対し、特徴要素が一致するオブジェクトを検索する(T33)。このオブジェクトの検索では、同じカメラ(例えば同じ警官が装着するウェアラブルカメラ)で撮像された記録証拠映像において、特徴要素が一致するオブジェクトが検索される。 The back-end server 70 searches for an object whose feature element matches with respect to a plurality of recorded evidence videos (T33). In this object search, objects with matching characteristic elements are searched for in documentary evidence images captured by the same camera (for example, a wearable camera worn by the same policeman).

検索の結果、特徴要素が一致するオブジェクトが見つかった場合、バックエンドサーバ70は、特徴要素が一致したオブジェクトを基点(基準となる点)とする(T34)。バックエンドサーバ70は、基点を含む1枚の画像に対し、1以上の前後フレームの画像を継ぎ足し(繋ぎ)、大きな空間画像SG2(図8参照)を生成する(T35)。この空間画像SG2は、特徴要素が一致したオブジェクトを基点とする画像に対し、1以上の前後フレームの画像を結合した静止画像である。なお、前後フレームは、基点とする画像の後フレームだけであってもよいし、前フレームだけであってもよい。また、基点とする画像ごとに前後フレームの数は、GPS位置情報、記録時刻等によって異なってもよい。 If an object with matching feature elements is found as a result of the search, the backend server 70 sets the object with the matching feature elements as a base point (reference point) (T34). The back-end server 70 adds (splices) one or more images of preceding and following frames to one image including the base point to generate a large spatial image SG2 (see FIG. 8) (T35). This spatial image SG2 is a still image obtained by combining one or more previous and subsequent frame images with respect to an image whose base point is an object whose feature elements match. It should be noted that the preceding and following frames may be only the frames after the image serving as the base point, or may be only the frames before. Also, the number of frames before and after each image serving as a base point may differ depending on GPS position information, recording time, and the like.

バックエンドサーバ70は、1つの映像に結合された空間画像のデータを、バックエンドクライアント80にストリーミング配信を行う(T36)。 The backend server 70 performs streaming distribution of the spatial image data combined with one video to the backend client 80 (T36).

一方、バックエンドクライアント80は、バックエンドサーバ70から送信される空間画像のデータを受信する(T37)。バックエンドクライアント80は、受信した空間画像のデータを基に、警察署の解析専門官が閲覧可能なように空間画像SG2を表示する(T38)。 On the other hand, the backend client 80 receives the spatial image data transmitted from the backend server 70 (T37). Based on the received spatial image data, the backend client 80 displays the spatial image SG2 so that the analysis specialist of the police station can view it (T38).

図8は、1台のウェアラブルカメラで撮像された複数枚の画像を用いて空間画像を生成する動作例を説明する図である。図中、点線枠で示される4枚の撮像画像G22,G23,G24,G25は、警官OBによってそれぞれ時刻t2,t3,t4,t5と連続的に撮像された画像である。例えば、撮像画像G22と撮像画像G23とでは、オブジェクト(同一車両)の特徴要素(ヘッドライト、サイドミラー等)が一致する。 FIG. 8 is a diagram illustrating an operation example of generating a spatial image using a plurality of images captured by one wearable camera. In the drawing, four captured images G22, G23, G24, and G25 indicated by dotted-line frames are images captured continuously at times t2, t3, t4, and t5 by the police officer OB, respectively. For example, between the captured image G22 and the captured image G23, the characteristic elements (headlights, side mirrors, etc.) of the object (same vehicle) match.

バックエンドサーバ70は、撮像画像G22を元画像とし、撮像画像G22の前後フレームの画像(撮像画像G23,G24,G25)を撮像画像G22に結合し、空間画像SG2を生成する。ここでは、バックエンドサーバ70は、元画像である撮像画像G22に対し、後フレームの撮像画像G23,G24,G25を結合する場合を示したが、前フレームの画像を結合してもよい。したがって、空間画像SG2は、撮像画像G22に1以上の前後フレームの画像を結合した画像であり、撮像画像G22および1以上の前後フレームの画像のそれぞれと比べ、撮像エリアの広い画像である。また、空間画像SG2は、撮像画像G22および1以上の前後フレームの撮像画像G23,G24,G25を超える範囲の画像を含まない、虚偽の無い(例えば画像補間によって生成される画像を含まない)真正な画像である。したがって、空間画像は、証拠記録映像としての価値を担保できる。 The back-end server 70 uses the captured image G22 as an original image, combines the images of the frames before and after the captured image G22 (captured images G23, G24, and G25) with the captured image G22 to generate the spatial image SG2. Here, the case where the backend server 70 combines the captured images G23, G24, and G25 of the later frames with the captured image G22, which is the original image, is shown, but the images of the previous frames may be combined. Therefore, the spatial image SG2 is an image obtained by combining the captured image G22 with one or more images of the preceding and succeeding frames, and has a wider imaging area than the captured image G22 and the one or more images of the preceding and succeeding frames. In addition, the spatial image SG2 is a genuine image that does not contain an image in a range exceeding the captured image G22 and the captured images G23, G24, and G25 of one or more preceding and succeeding frames (for example, does not include an image generated by image interpolation). is an image. Therefore, the spatial image can secure its value as evidence recording video.

なお、空間画像を表示する場合、空間画像は、元画像の前フレームから後フレームの画像までスライドショーのように連続的に表示されてもよい。この場合、空間画像は、静止画像を連続的に再生する、動画像として表示される。 When displaying a spatial image, the spatial image may be displayed continuously like a slide show from the previous frame to the subsequent frame of the original image. In this case, the spatial image is displayed as a moving image that reproduces still images continuously.

このように、実施の形態2におけるウェアラブルカメラシステムでは、ウェアラブルカメラシステムは、1台のウェアラブルカメラ10と、複数のウェアラブルカメラ10のそれぞれとの間で通信可能に接続されるバックエンドサーバ70と、を含む。ウェアラブルカメラ10は、事件現場を撮像した、時間的に前後する複数枚のフレームの撮像画像をバックエンドサーバ70に送る。バックエンドサーバ70は、複数フレームのそれぞれに映る特定のオブジェクトの特徴要素を有するメタ情報を抽出し、メタ情報と対応する撮像画像とを対応付けて記録する。バックエンドサーバ70は、複数フレームの撮像画像のそれぞれに対応するメタ情報に基づいて、特定のオブジェクトの特徴要素が一致する複数の撮像画像を合成した合成画像を生成してバックエンドクライアント80に送る。 As described above, in the wearable camera system according to Embodiment 2, the wearable camera system includes one wearable camera 10, the backend server 70 connected to each of the plurality of wearable cameras 10 so as to be able to communicate with each other, including. The wearable camera 10 sends to the back-end server 70 a plurality of temporally-sequenced framed images of the scene of the incident. The back-end server 70 extracts meta-information having characteristic elements of specific objects appearing in each of the plurality of frames, and records the meta-information and the corresponding captured image in association with each other. The backend server 70 generates a composite image by synthesizing a plurality of captured images in which the characteristic elements of a specific object match, based on the meta information corresponding to each of the multiple frames of captured images, and sends the composite image to the backend client 80 . .

これにより、警察署の解析専門官は、バックエンドクライアント80に表示される、1台のウェアラブルカメラ10を用いて撮像された事件、事故等の現場の映像を広範囲に閲覧できる。したがって、ウェアラブルカメラシステム1は、警察署の解析専門官による事件、事故等の現場の周囲の状況の観察および把握を効果的に支援できる。 As a result, the analysis specialist at the police station can view a wide range of scene images of incidents, accidents, and the like, which are displayed on the backend client 80 and captured using a single wearable camera 10 . Therefore, the wearable camera system 1 can effectively support the observation and understanding of the circumstances around the site of an incident, accident, etc., by an analysis specialist at a police station.

以上、図面を参照しながら各種の実施の形態について説明したが、本開示はかかる例に限定されないことはいうまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。また、発明の趣旨を逸脱しない範囲において、上述した各種の実施の形態における各構成要素を任意に組み合わせてもよい。 Various embodiments have been described above with reference to the drawings, but it goes without saying that the present disclosure is not limited to such examples. It is obvious that a person skilled in the art can conceive of various modifications, modifications, substitutions, additions, deletions, and equivalents within the scope of the claims. Naturally, it is understood that it belongs to the technical scope of the present disclosure. In addition, the constituent elements of the various embodiments described above may be combined arbitrarily without departing from the spirit of the invention.

本開示は、注目するべき地点の広範囲の映像を得て、その地点の周囲の状況の観察および把握を効果的に支援する画像合成システムおよび画像合成方法として有用である。 INDUSTRIAL APPLICABILITY The present disclosure is useful as an image synthesizing system and image synthesizing method that obtains a wide-range image of a spot of interest and effectively assists observation and understanding of the surrounding conditions of that spot.

1 ウェアラブルカメラシステム
10 ウェアラブルカメラ
50 車載カメラシステム
51 車載カメラ
52 車載PC
53 車載レコーダ
54 コモントリガーボックス
60 バックエンドストリーミングサーバ
70 バックエンドサーバ
80 バックエンドクライアント
NW1 ネットワーク
1 wearable camera system 10 wearable camera 50 in-vehicle camera system 51 in-vehicle camera 52 in-vehicle PC
53 In-vehicle recorder 54 Common trigger box 60 Backend streaming server 70 Backend server 80 Backend client NW1 Network

Claims (10)

複数のカメラと、前記複数のカメラのそれぞれとの間で通信可能に接続されるサーバと、を含む画像合成システムであって、
前記複数のカメラのそれぞれは、
特定のオブジェクトを撮像した個々の撮像画像を前記サーバに送り、
前記サーバは、
前記複数のカメラのそれぞれから送られた前記個々の撮像画像に映る前記特定のオブジェクトの特徴要素を有するメタ情報を抽出し、前記メタ情報と対応する撮像画像とを対応付けて記録し、
前記個々の撮像画像に対応する前記メタ情報に基づいて、前記特定のオブジェクトの特徴要素が一致する複数の撮像画像を合成した合成画像を生成してビューア装置に送る、
画像合成システム。
An image synthesizing system including a plurality of cameras and a server communicably connected to each of the plurality of cameras,
each of the plurality of cameras,
Sending individual captured images obtained by capturing a specific object to the server,
The server is
extracting meta information having characteristic elements of the specific object appearing in the individual captured images sent from each of the plurality of cameras, and recording the meta information in association with the corresponding captured image;
Based on the meta information corresponding to the individual captured images, a composite image is generated by synthesizing a plurality of captured images matching the characteristic elements of the specific object, and the combined image is sent to a viewer device.
Image synthesis system.
前記サーバは、
前記合成画像の生成に用いた前記複数の撮像画像のそれぞれの撮像時刻に対して時間的に前後する前後撮像画像を用いて、前記特定のオブジェクトの特徴要素が一致する複数の前後撮像画像を合成した1以上の前後合成画像を生成し、前記合成画像と前記1以上の前後合成画像とを繋げた空間画像を生成して前記ビューア装置に送る、
請求項1に記載の画像合成システム。
The server is
Synthesizing a plurality of before-and-after captured images in which characteristic elements of the specific object match, using the before-and-after captured images temporally before and after the capturing time of each of the plurality of captured images used to generate the composite image. generating one or more before and after combined images, generating a spatial image connecting the combined image and the one or more before and after combined images, and sending the spatial image to the viewer device;
The image synthesizing system according to claim 1.
前記複数のカメラのそれぞれは、
位置情報を取得可能であり、前記特定のオブジェクトの位置情報と撮像時刻とを撮像画像に対応付けて前記サーバに送り、
前記サーバは、
前記複数のカメラのそれぞれから送られた前記個々の撮像画像に対応する位置情報および撮像時刻が同一である場合に、前記個々の撮像画像に同一の事件管理番号を付与して記録する、
請求項1に記載の画像合成システム。
each of the plurality of cameras,
Position information can be acquired, and the position information and the imaging time of the specific object are associated with the captured image and sent to the server;
The server is
when the position information and the imaging time corresponding to the individual captured images sent from each of the plurality of cameras are the same, assigning the same incident management number to the individual captured images and recording them;
The image synthesizing system according to claim 1.
前記サーバは、
前記同一の事件管理番号が付与された前記個々の撮像画像を用いて、前記特定のオブジェクトの特徴要素を有する前記メタ情報を抽出する、
請求項3に記載の画像合成システム。
The server is
extracting the meta information having characteristic elements of the specific object using the individual captured images assigned the same incident management number;
4. The image synthesizing system according to claim 3.
前記複数のカメラは、
複数の警官のそれぞれにより装着されるウェアラブルカメラである、
請求項1~4のうちいずれか一項に記載の画像合成システム。
The plurality of cameras are
A wearable camera worn by each of a plurality of police officers,
The image synthesizing system according to any one of claims 1 to 4.
前記複数のカメラは、
1人以上の警官のそれぞれにより装着されるウェアラブルカメラと、前記警官が乗車する警察車両に設けられる車載カメラである、
請求項1~4のうちいずれか一項に記載の画像合成システム。
The plurality of cameras are
A wearable camera worn by each of one or more police officers, and an in-vehicle camera provided in a police vehicle in which the police officer rides,
The image synthesizing system according to any one of claims 1 to 4.
前記空間画像は、
前記合成画像と1以上の前記前後合成画像とが結合され、前記合成画像および1以上の前記前後合成画像のそれぞれに映る撮像エリアと比べて広い撮像エリアが前記カメラによって撮像された画像を構成する、
請求項2に記載の画像合成システム。
The spatial image is
The composite image and one or more of the preceding and succeeding composite images are combined, and an image captured by the camera is constituted by an imaging area wider than an imaging area shown in each of the composite image and one or more of the preceding and succeeding composite images. ,
3. The image synthesizing system according to claim 2.
複数のカメラと、前記複数のカメラのそれぞれとの間で通信可能に接続されるサーバと、を含む画像合成システムにより実行される画像合成方法であって、
特定のオブジェクトを撮像した個々の撮像画像を前記サーバに送り、
前記複数のカメラのそれぞれから送られた前記個々の撮像画像に映る前記特定のオブジェクトの特徴要素を有するメタ情報を抽出し、前記メタ情報と対応する撮像画像とを対応付けて記録し、
前記個々の撮像画像に対応する前記メタ情報に基づいて、前記特定のオブジェクトの特徴要素が一致する複数の撮像画像を合成した合成画像を生成してビューア装置に送る、
画像合成方法。
An image synthesizing method executed by an image synthesizing system including a plurality of cameras and a server communicably connected to each of the plurality of cameras,
Sending individual captured images obtained by capturing a specific object to the server,
extracting meta information having characteristic elements of the specific object appearing in the individual captured images sent from each of the plurality of cameras, and recording the meta information in association with the corresponding captured image;
Based on the meta information corresponding to the individual captured images, a composite image is generated by synthesizing a plurality of captured images matching the characteristic elements of the specific object, and the combined image is sent to a viewer device.
Image composition method.
カメラと、前記カメラとの間で通信可能に接続されるサーバと、を含む画像合成システムであって、
前記カメラは、
特定のオブジェクトを撮像した、時間的に前後する複数の撮像画像を前記サーバに送り、
前記サーバは、
前記カメラから送られた前記複数の撮像画像のそれぞれに映る前記特定のオブジェクトの特徴要素を有するメタ情報を抽出し、前記メタ情報と対応する撮像画像とを対応付けて記録し、
前記複数の撮像画像のそれぞれに対応する前記メタ情報に基づいて、前記特定のオブジェクトの特徴要素が一致する複数の撮像画像を合成した空間画像を生成してビューア装置に送る、
画像合成システム。
An image synthesizing system including a camera and a server communicably connected to the camera,
The camera is
Sending to the server a plurality of captured images of a specific object captured in chronological order,
The server is
extracting meta information having characteristic elements of the specific object appearing in each of the plurality of captured images sent from the camera, and recording the meta information in association with the corresponding captured image;
Based on the meta information corresponding to each of the plurality of captured images, a spatial image is generated by synthesizing a plurality of captured images in which characteristic elements of the specific object match, and is sent to a viewer device.
Image synthesis system.
カメラと、前記カメラとの間で通信可能に接続されるサーバと、を含む画像合成システムにより実行される画像合成方法であって、
特定のオブジェクトを撮像した、時間的に前後する複数の撮像画像を前記サーバに送り、
前記カメラから送られた前記複数の撮像画像のそれぞれに映る前記特定のオブジェクトの特徴要素を有するメタ情報を抽出し、前記メタ情報と対応する撮像画像とを対応付けて記録し、
前記複数の撮像画像のそれぞれに対応する前記メタ情報に基づいて、前記特定のオブジェクトの特徴要素が一致する複数の撮像画像を合成した空間画像を生成してビューア装置に送る、
画像合成方法。
An image synthesizing method executed by an image synthesizing system including a camera and a server communicably connected to the camera,
Sending to the server a plurality of captured images of a specific object captured in chronological order,
extracting meta information having characteristic elements of the specific object appearing in each of the plurality of captured images sent from the camera, and recording the meta information in association with the corresponding captured image;
Based on the meta information corresponding to each of the plurality of captured images, a spatial image is generated by synthesizing a plurality of captured images in which characteristic elements of the specific object match, and is sent to a viewer device.
Image composition method.
JP2019159100A 2019-08-30 2019-08-30 Image composition system and image composition method Active JP7327792B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019159100A JP7327792B2 (en) 2019-08-30 2019-08-30 Image composition system and image composition method
PCT/JP2020/032651 WO2021039978A1 (en) 2019-08-30 2020-08-28 Image composition system and image composition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019159100A JP7327792B2 (en) 2019-08-30 2019-08-30 Image composition system and image composition method

Publications (2)

Publication Number Publication Date
JP2021040200A JP2021040200A (en) 2021-03-11
JP7327792B2 true JP7327792B2 (en) 2023-08-16

Family

ID=74685156

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019159100A Active JP7327792B2 (en) 2019-08-30 2019-08-30 Image composition system and image composition method

Country Status (2)

Country Link
JP (1) JP7327792B2 (en)
WO (1) WO2021039978A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015002553A (en) 2013-06-18 2015-01-05 キヤノン株式会社 Information system and control method thereof
JP2015002423A (en) 2013-06-14 2015-01-05 ソニー株式会社 Image processing apparatus, server and storage medium
JP2017060158A (en) 2015-09-14 2017-03-23 パナソニックIpマネジメント株式会社 Wearable camera system and method of notifying of person
JP2018061214A (en) 2016-10-07 2018-04-12 パナソニックIpマネジメント株式会社 Monitor video analysis system and monitor video analysis method
JP2019040368A (en) 2017-08-24 2019-03-14 パナソニックIpマネジメント株式会社 Image search assisting device and image search assisting method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015002423A (en) 2013-06-14 2015-01-05 ソニー株式会社 Image processing apparatus, server and storage medium
JP2015002553A (en) 2013-06-18 2015-01-05 キヤノン株式会社 Information system and control method thereof
JP2017060158A (en) 2015-09-14 2017-03-23 パナソニックIpマネジメント株式会社 Wearable camera system and method of notifying of person
JP2018061214A (en) 2016-10-07 2018-04-12 パナソニックIpマネジメント株式会社 Monitor video analysis system and monitor video analysis method
JP2019040368A (en) 2017-08-24 2019-03-14 パナソニックIpマネジメント株式会社 Image search assisting device and image search assisting method

Also Published As

Publication number Publication date
JP2021040200A (en) 2021-03-11
WO2021039978A1 (en) 2021-03-04

Similar Documents

Publication Publication Date Title
US11210501B2 (en) Camera enhanced ride sharing
JP6738692B2 (en) Wearable camera system and person notification method
US11588966B2 (en) Wearable camera, in-vehicle communication device, charging device, and communication system
JP5888172B2 (en) Data storage device and program
WO2016103610A1 (en) Wearable camera
JP6799779B2 (en) Surveillance video analysis system and surveillance video analysis method
JP2017060029A (en) Wearable camera system and recording control method
US20150281568A1 (en) Content acquisition device, portable device, server, information processing device, and storage medium
JP6115874B2 (en) Wearable camera system and recording control method
JP5861073B1 (en) Wearable camera
JP2016181767A (en) Wearable camera and wearable camera system
JP2021027408A (en) Wearable camera system and video image recording method
US11323692B2 (en) Asset management system and asset management method
KR102628410B1 (en) Apparatus for obtaining images and method of driving the same
JP7327792B2 (en) Image composition system and image composition method
JP2018037964A (en) Wearable camera system and communication control method
JP2018037963A (en) Wearable camera system and video recording control method
JP6115873B2 (en) Wearable camera system and video data synchronous reproduction method
CN110166732A (en) A kind of law-enforcing recorder
CN106454210B (en) Driving record image processing method and system
JP5861075B1 (en) Wearable camera
JP6793516B2 (en) Vehicle video transmission system and vehicle video transmission method
JP7420375B2 (en) User authentication system and user authentication method
JP2021034860A (en) Wearable camera, wearable camera system, and video distribution method
JP2018037965A (en) Wearable camera system and communication control method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191205

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20201224

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230727

R150 Certificate of patent or registration of utility model

Ref document number: 7327792

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150