WO2021039978A1 - 画像合成システムおよび画像合成方法 - Google Patents

画像合成システムおよび画像合成方法 Download PDF

Info

Publication number
WO2021039978A1
WO2021039978A1 PCT/JP2020/032651 JP2020032651W WO2021039978A1 WO 2021039978 A1 WO2021039978 A1 WO 2021039978A1 JP 2020032651 W JP2020032651 W JP 2020032651W WO 2021039978 A1 WO2021039978 A1 WO 2021039978A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
images
captured
captured images
server
Prior art date
Application number
PCT/JP2020/032651
Other languages
English (en)
French (fr)
Inventor
隆恵 小口
Original Assignee
パナソニックi-PROセンシングソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックi-PROセンシングソリューションズ株式会社 filed Critical パナソニックi-PROセンシングソリューションズ株式会社
Publication of WO2021039978A1 publication Critical patent/WO2021039978A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present disclosure relates to an image composition system and an image composition method.
  • Patent Document 1 describes a plurality of surveillance cameras, a video conversion coupling unit that combines a plurality of images captured by the plurality of surveillance cameras into a single combined video, an encoder that encodes the combined video, and transmission from the encoder.
  • a video surveillance system including a decoder that decodes a combined video transmitted via a road and a display device that displays a video captured by a plurality of surveillance cameras on a display screen of the decoded combined video is disclosed. ..
  • Patent Document 1 when displaying the images captured by the plurality of surveillance cameras on the display screen on the display device, any one of the plurality of images used to generate the combined image is selected. Displayed above. For this reason, Patent Document 1 provides technical disclosure of combining a plurality of images to generate a combined image in order to efficiently send a large number of images at one time when transmitting to a display device. It was not possible to display a wide range of images at the point where multiple images were combined and shot. For this reason, for example, when a notable point such as a site where an incident or an accident has occurred is photographed by a plurality of cameras, it is not possible to obtain an image of a wide range of sites by combining the plurality of captured images.
  • the present disclosure has been devised in view of the conventional circumstances described above, and is an image composition system and image composition that obtains a wide range of images of a point of interest and effectively supports observation and grasp of the situation around the point.
  • the purpose is to provide a method.
  • the present disclosure is an image synthesis system including a plurality of cameras and a server communicably connected to each of the plurality of cameras, and each of the plurality of cameras is a point of interest regarding an incident or the like.
  • the individual captured images captured in the above are sent to the server, and the server extracts meta information having characteristic elements of a specific object reflected in the individual captured images sent from each of the plurality of cameras, and the meta is extracted.
  • the information and the corresponding captured image are recorded in association with each other, and a composite image is generated by synthesizing a plurality of captured images in which the feature elements of the specific object match, based on the meta information corresponding to the individual captured image.
  • the present disclosure is an image composition method executed by an image composition system including a plurality of cameras and a server communicably connected to each of the plurality of cameras, and attention to an incident or the like.
  • Individual captured images of points are sent to the server, meta information having characteristic elements of a specific object reflected in the individual captured images sent from each of the plurality of cameras is extracted, and the meta information corresponds to the meta information.
  • a viewer device generates a composite image in which a plurality of captured images in which the feature elements of the specific object match are combined based on the meta information corresponding to the individual captured images. Provides an image compositing method to be sent to.
  • the present disclosure is an image synthesis system including a camera and a server communicably connected between the cameras, and the camera captures an image of a point of interest related to an incident or the like, before and after the time.
  • the plurality of captured images are sent to the server, and the server extracts meta information having characteristic elements of a specific object reflected in each of the plurality of captured images sent from the camera and corresponds to the meta information.
  • the image is recorded in association with the captured image, and based on the meta information corresponding to each of the plurality of captured images, a spatial image obtained by synthesizing a plurality of captured images in which the feature elements of the specific object match is generated and viewed.
  • the present disclosure is an image composition method executed by an image composition system including a camera and a server communicably connected between the cameras, and the time at which a point of interest regarding an incident or the like is imaged.
  • a plurality of captured images before and after the target are sent to the server, meta information having characteristic elements of a specific object reflected in each of the plurality of captured images sent from the camera is extracted, and imaging corresponding to the meta information is performed.
  • a viewer device that records images in association with each other and generates a spatial image obtained by synthesizing a plurality of captured images in which the feature elements of the specific object match, based on the meta information corresponding to each of the plurality of captured images. Provides an image compositing method to be sent to.
  • FIG. 1 Schematic explanatory view showing a system configuration example of the wearable camera system according to the first embodiment
  • Block diagram showing a hardware configuration example of a wearable camera
  • Block diagram showing a hardware configuration example of an in-vehicle PC
  • a sequence diagram showing an example of the operation procedure of the wearable camera system according to the first embodiment in chronological order.
  • the figure which shows an example of the spatial image and the imaging area including the imaging image with the same case number.
  • a sequence diagram showing an example of the operation procedure of the wearable camera system according to the second embodiment in chronological order.
  • FIG. 1 is a schematic explanatory view showing a system configuration example of the wearable camera system 1 according to the first embodiment.
  • the wearable camera system 1 as an example of an image composition system includes, for example, a wearable camera 10 worn by a police officer as an example of a user arriving at a field (Field), and various types arranged in a police station. It is composed of equipment and various equipment mounted in a police vehicle VC1 (Police Vehicle) such as a police car that has arrived at the scene.
  • the wearable camera 10 may be used inside the police station or outside the police station (for example, inside the police vehicle VC1 or at the scene).
  • the wearable camera 10 is sometimes referred to as a BWC (Body Worn Camera).
  • An example of a point of interest regarding an incident or the like is, for example, the point where the incident occurred, or the point where the criminal exists or stands up.
  • Various devices arranged in the police station include, for example, a back-end streaming server 60 (BSS: Back end Streaming Server), a back-end server 70 (BES: Back End Server), and a back-end client 80 (BEC: Back End Client). ), But not limited to, at least one or more wireless LAN (Local Area Network) access points, and a gang charger 90 as an example of a charging device capable of collectively charging a plurality of wearable cameras 10.
  • the wireless LAN access point mediates communication between the in-vehicle camera system 50 and a server (for example, a back-end server 70) in the police station.
  • Various devices installed in the police vehicle VC1 include, for example, an in-vehicle camera system 50 (ICV: In-Car Video system), a common trigger box 54 (CTB: Common Trigger Box) as an example of a trigger device, and a charging device (charging device).
  • PD A charging stand 55 and a rotation warning light PL1 as an example of (Pailing Dock) are included, but are not limited thereto.
  • a smartphone carried by a police officer to contact the police station may also be included.
  • the common trigger box 54 may be included in the in-vehicle camera system 50.
  • a wearable camera 10 as an example of a camera is attached to a police officer's uniform, images the situation in front of the police officer as a subject, records (that is, records) the captured image for a certain period of time, and wires the captured image (for example, a USB cable). ) Or wirelessly (for example, the common trigger box 54) to the in-vehicle camera system 50.
  • the wearable camera 10 detects that wireless communication is possible with the wireless LAN access point in the police station, the wearable camera 10 may send the captured image to the back-end server 70 connected via the wireless LAN access point. Good.
  • the wearable camera 10 may be charged when it is manually detected by the police officer that it is placed on the charging surface of the gang charger 90.
  • the subjects to be imaged by the wearable camera 10 and the in-vehicle camera 51 described later are not only people, but also the scene of the scene of the incident, the crowd (so-called rubbernecking) crowded near the scene, and the surroundings of the imaging position.
  • the atmosphere may be included.
  • the in-vehicle camera system 50 has one or more in-vehicle cameras 51, an in-vehicle PC 52, and an in-vehicle recorder 53.
  • the in-vehicle camera 51 captures the situation at the site where the police vehicle VC1 arrives, and an image obtained by the imaging (hereinafter, "" The “captured image”) is recorded (that is, recorded) on the vehicle-mounted recorder 53.
  • the in-vehicle camera 51, the in-vehicle PC 52, and the in-vehicle recorder 53 are connected by wire so that data or information can be transmitted and received, respectively, but they may be connected wirelessly.
  • the in-vehicle camera system 50 (for example, the in-vehicle PC 52) and the wearable camera 10 may be connected by a wire (for example, a USB cable compatible with USB (Universal Social Bus)) so that data or information can be transmitted and received.
  • a wire for example, a USB cable compatible with USB (Universal Social Bus)
  • the in-vehicle camera 51 captures, for example, a front camera attached so as to be able to image the front of the police vehicle VC1, a side camera attached so as to be able to image the side direction of the police vehicle VC1, and the rear of the police vehicle VC1. It may be at least one of the mountable rear cameras.
  • the vehicle-mounted camera 51 sends the captured image to the vehicle-mounted recorder 53, and the captured image is recorded on the vehicle-mounted recorder 53.
  • the in-vehicle PC 52 controls the operations of the in-vehicle camera 51 and the in-vehicle recorder 53 in response to the operation of the police officer. Further, as will be described in detail later, the in-vehicle PC 52 as an example of the viewer device is imaged by one or more wearable cameras 10 and one or more in-vehicle cameras 51 in the same time zone by the operation of a police officer while riding in the police vehicle VC1. The captured image may be read from the vehicle-mounted recorder 53, displayed, and reproduced.
  • the in-vehicle PC 52 may supply power to the wearable camera 10 to charge the wearable camera 10.
  • the vehicle-mounted recorder 53 records captured images captured by each of the wearable camera 10 and the vehicle-mounted camera 51.
  • the in-vehicle PC 52 reads and acquires the captured image captured by the wearable camera 10 from the in-vehicle recorder 53 by the operation of the police officer, or independently obtains the captured image of the wearable camera 10 in the default application installed in the in-vehicle PC 52. It may be reproduced or attribute information of the captured image may be added in the application.
  • the vehicle-mounted PC 52 reads and acquires the captured image captured by the vehicle-mounted camera 51 from the vehicle-mounted recorder 53 by the operation of the police officer, or the captured image of the vehicle-mounted camera 51 in the default application installed in the vehicle-mounted PC 52. May be reproduced independently, or attribute information of the captured image may be added in the application.
  • the in-vehicle camera system 50 is connected to the common trigger box 54 by wire (for example, a LAN cable) and operates in response to a command from the common trigger box 54.
  • the operations in response to the command from the common trigger box 54 include, for example, starting or stopping the recording (that is, recording) of the captured image of the in-vehicle camera 51, and starting or stopping the recording (that is, recording) of the captured image of the wearable camera 10. included.
  • the in-vehicle camera system 50 may be connected to the wearable camera 10 via the common trigger box 54 so that data or information can be wirelessly communicated with each other.
  • the in-vehicle camera system 50 streams the captured images of the wearable camera 10 and the in-vehicle camera 51 (for example, real-time live images being captured) to the back-end streaming server 60 via the common trigger box 54 and the network NW1.
  • the network NW1 is, for example, a mobile communication network or an internet network.
  • the in-vehicle camera system 50 detects that wireless communication is possible with a wireless LAN access point in the police station (for example, the police vehicle VC1 parks in the parking lot on the premises of the police station). Time), the captured images (for example, recorded past captured images) of the wearable camera 10 and the vehicle-mounted camera 51 may be sent to the back-end server 70 via the wireless LAN access point.
  • the common trigger box 54 is wired (for example, GPIO (physical cable) or LAN cable) between the rotation warning light PL1, the acceleration sensor (not shown), the siren (not shown), the in-vehicle camera system 50, and the charging stand 55, respectively.
  • each device is wirelessly connected in response to IoT (Internet Of Things).
  • the common trigger box 54 can also be connected to the wearable camera 10 via the charging stand 55 when the wearable camera 10 is placed on the charging stand 55.
  • the vehicle-mounted camera system 50 When the common trigger box 54 is connected to the vehicle-mounted camera system 50 by wire (for example, a LAN cable), the vehicle-mounted camera system 50 is notified of an alarm (for example, recording start or recording stop) when a predetermined event is detected. Control signal) is sent. As a result, the vehicle-mounted camera system 50 starts recording (recording) the captured image captured by the vehicle-mounted camera 51 on the vehicle-mounted recorder 53 as an operation in response to the control signal from the common trigger box 54, or records the recording. (Recording) can be stopped.
  • an alarm for example, recording start or recording stop
  • the common trigger box 54 When the common trigger box 54 acquires an operation start signal from a police vehicle-mounted device such as a rotation warning light PL1 or a siren, the common trigger box 54 detects the start of use of the police vehicle-mounted device and is a wearable camera connected to the common trigger box 54. A recording start or recording stop control signal may be sent to at least one of the 10 and the vehicle-mounted camera system 50. As a result, at least one of the wearable camera 10 and the in-vehicle camera system 50 operates in response to the control signal from the common trigger box 54, for example, with the start of rotation of the rotation warning light PL1 or the audio output of the siren. You can start and stop recording.
  • a police vehicle-mounted device such as a rotation warning light PL1 or a siren
  • the charging stand 55 is located, for example, at a predetermined position of the police vehicle VC1 (for example, near the center console) and is wired to and from the common trigger box 54 (for example, PoE (Power over Ethernet®) using a LAN cable). Connected by.
  • the charging stand 55 has an accommodating portion (not shown) for mounting the wearable camera 10. When the charging stand 55 detects that the wearable camera 10 is mounted on the accommodating portion (not shown), the charging stand 55 can charge the battery of the wearable camera 10 based on the current supplied from the common trigger box 54.
  • a smartphone possessed by a police officer has a telephone function and a wireless communication function (for example, communication with an in-vehicle camera system 50), and is used, for example, for emergency contact from a police station or emergency contact to a police station. ..
  • the smartphone displays and reproduces the captured image of the wearable camera 10 or the in-vehicle camera 51, and edits the captured image by adding attribute information (also called meta information) called meta information.
  • the attribute information may be, for example, an incident type that directly or indirectly suggests the content of the captured image.
  • the smartphone has a tethering function, and by using this tethering function, the captured images of the wearable camera 10 and the vehicle-mounted camera 51 from the vehicle-mounted camera system 50 are captured by the back-end streaming server 60 in the police station via the network NW1. You may relay to.
  • a wireless LAN such as BLE (Bluetooth (registered trademark) Low Energy) or Wifi (registered trademark) is used between the in-vehicle camera system 50 and the smartphone.
  • the back-end streaming server 60 as an example of the server is configured to have a high-performance server computer and storage, and is an captured image (for example, a live image) streamed from the in-vehicle camera system 50 via the common trigger box 54 and the network NW1. ) Is received and transferred to the back-end server 70.
  • the back-end server 70 as an example of the server is configured to have a high-performance server computer and storage, and manages evidence images of the incident.
  • the back-end server 70 composes, for example, the captured images of the wearable camera 10 and the in-vehicle camera 51 in accordance with the request according to the operation of the user (for example, an analysis specialist in the police station) who uses the back-end client 80. It has a video analysis function that includes various image processing such as detection, recognition, and matching of the inside face.
  • the back-end client 80 as an example of the viewer device is configured by a computer such as a PC (Personal Computer), and accesses a suspicious person database (not shown) by the operation of a user (for example, an analysis specialist in a police station). It has a browser or a dedicated application that can search for information on cases such as criminals and display the search results on a display device.
  • the display device is composed of, for example, an LCD (Liquid Crystal Display) or an organic EL (Electroluminescence) provided on the back-end client 80.
  • the suspicious person database for example, a person who is wanted or a criminal in the past is registered in advance in association with information for identifying a case (for example, a case number).
  • the back-end client 80 as an example of the viewer device backs up the captured images captured by the wearable camera 10 and the in-vehicle camera 51 at the same time zone by the operation of the user (for example, an analysis specialist in the police station). It is read from the end server 70, displayed, and reproduced.
  • the user of the back-end client 80 can easily view the captured images of the site captured by the wearable camera 10 and the in-vehicle camera 51 at the same time zone, so that the situation of the site and the like can be confirmed over a wide area at that time. You can improve your own work efficiency, such as clearly identifying the situation.
  • the wireless LAN access point wirelessly connects to the in-vehicle camera system 50 by wireless LAN, and relays the captured image sent from the in-vehicle camera system 50 and transfers it to the back-end server 70, for example.
  • the gang charger 90 can mount a wearable camera 10 worn by each of a plurality of police officers on a predetermined charging surface, and charges a battery built in each mounted wearable camera 10.
  • FIG. 2 is a block diagram showing a hardware configuration example of the wearable camera 10.
  • the wearable camera 10 includes an imaging unit 11, a GPIO 12 (General Purpose Input / Output), a RAM 13 (Random Access Memory), a ROM 14 (Read Only Memory), and a storage unit 15.
  • the wearable camera 10 includes an EEPROM 16 (Electrically Erasable Project ROM), an RTC 17 (Real Time Clock), and a GNSS (Global Navigation Satellite System) receiving unit 18.
  • the wearable camera 10 includes an MCU 19 (Micro Controller Unit), a BLE communication unit 21A, a WLAN communication unit 21B, a USB interface 22, a contact terminal 23, a power supply unit 24, and a battery 25.
  • the interface is abbreviated as "I / F".
  • the wearable camera 10 includes a recording switch SW1, a snapshot switch SW2, a communication mode switch SW3, an attribute information imparting switch SW4, and a wireless registration switch SW5.
  • the wearable camera 10 includes three LEDs 26a, 26b, 26c (Light Mission Diode), a vibrator 27, an audio output unit 28, a microphone 29A, a speaker 29B, and an earphone terminal 29C.
  • the image pickup unit 11 includes an image pickup lens (not shown) and a solid-state image sensor using a CCD (Charge Coupled Device) type image sensor or a CMOS (Complementary Metal Oxide Semiconductor) type image sensor.
  • the imaging unit 11 outputs the data of the captured image of the subject obtained by imaging to the MCU 19.
  • the detection terminal 23T of the contact terminal 23 is a terminal in which a voltage change occurs when the wearable camera 10 is placed on the charging stand 55 or the gang charger 90, or when the wearable camera 10 is removed from the charging stand 55 or the gang charger 90.
  • the detection terminal 23T of the contact terminal 23 is connected to the AD converter CV.
  • the signal indicating the voltage change of the detection terminal 23T is converted into a digital signal by the AD converter CV, and the digital signal is input to the MCU 19 via the I2C20.
  • GPIO12 is a parallel interface.
  • GPIO12 includes recording switch SW1, snapshot switch SW2, communication mode switch SW3, attribute information assignment switch SW4, wireless registration switch SW5, LED26a, 26b, 26c, vibrator 27, audio output unit 28, microphone 29A, speaker 29B and earphones.
  • Each of the terminals 29C is connected.
  • the GPIO 12 inputs and outputs signals between these various electronic components and the MCU 19.
  • the microphone 29A picks up the sound around the wearable camera 10 and outputs the sound data of the picked up sound to the MCU 19 via the GPIO12.
  • the microphone 29A may be a built-in microphone housed in the housing of the wearable camera 10 or a wireless microphone wirelessly connected to the wearable camera 10. In the case of a wireless microphone, a police officer can attach it to any location to improve sound collection.
  • the audio output unit 28 outputs an audio signal related to the operation of the wearable camera 10 under the instruction of the MCU 19.
  • the voice output unit 28 reads the voice data having the voice of the default message stored in the ROM 14 or the like in advance, and outputs the voice signal based on the voice data from the speaker 29B.
  • the earphone terminal 29C outputs an audio signal output from the audio output unit 28 to the earphones connected to the earphone terminal 29C.
  • the speaker 29B inputs an audio signal output from the audio output unit 28 and outputs the audio signal.
  • the AD converter CV is connected to the MCU 19 via a communication interface such as I2C20 (Inter-Integrated Circuit).
  • I2C20 Inter-Integrated Circuit
  • the RAM 13 is, for example, a work memory used in the operation of the MCU 19.
  • the ROM 14 stores, for example, a program and data for controlling the execution of the operation (process) of the MCU 19 in advance.
  • the storage unit 15 is composed of a storage medium such as a memory card, and the captured image captured by the image pickup unit 11 based on, for example, an instruction to start recording based on the operation of a police officer or an instruction to start recording from the in-vehicle camera system 50.
  • Data recording (that is, recording) is started.
  • the storage unit 15 constantly pre-buffers and holds the data of the captured image for a predetermined time (for example, 30 seconds) captured by the imaging unit 11, and holds the captured image of the captured image up to a predetermined time (for example, 30 seconds) before the current time. Always keep accumulating data.
  • the storage unit 15 starts recording the data of the captured image and continues recording the data of the captured image until the instruction to stop recording is received.
  • the storage unit 15 is composed of a memory card, it is freely inserted and removed from the housing of the wearable camera 10.
  • the EEPROM 16 stores, for example, identification information for identifying the wearable camera 10 (for example, a serial number as a camera ID) and various setting information.
  • the RTC 17 counts the current time information and outputs it to the MCU 19.
  • the GNSS receiving unit 18 receives satellite signals including their own signal transmission times and position coordinates transmitted from a plurality of (for example, four) navigation satellites and outputs them to the MCU 19.
  • the MCU 19 uses a plurality of satellite signals to calculate the current position coordinates of the wearable camera 10 and the reception time of the satellite signals. Note that this calculation may be performed by the GNSS receiving unit 18 instead of the MCU 19.
  • This reception time information may also be used to correct the system time of the wearable camera 10 (that is, the output of the RTC 17).
  • the system time is used for recording the imaging time of captured images (including still images and moving images).
  • the MCU 19 has a function as a control unit of the wearable camera 10, for example, a control process for overall controlling the operation of each part of the wearable camera 10, a data input / output process with each part of the wearable camera 10. Performs data calculation processing and data storage processing.
  • the MCU 19 operates according to various programs and data stored in the ROM 14.
  • the MCU 19 uses the RAM 13 during operation to obtain the current time information from the RTC 17, and obtains the current position information from the GNSS receiving unit 18 or calculates the current position information using the output from the GNSS receiving unit 18. To do.
  • the BLE communication unit 21A uses BLE (Bluetooth (registered trademark) Low Energy) communication, which is a communication standard for short-range wireless communication, to perform wireless communication with a smartphone, a common trigger box 54, or the like.
  • BLE is the name for version 4.0 of Bluetooth®. In BLE, communication is possible with low power consumption, but the communication speed is as low as about 100 kbps.
  • the WLAN communication unit 21B is connected to a smartphone as a wireless LAN access point using the tethering function, a wireless LAN access point provided in the police station, etc. by wireless LAN (that is, WLAN), and performs wireless communication with the connection destination. ..
  • wireless LAN is capable of high-speed communication with a communication speed of several tens to several hundreds of Mbps, but since it is always connected to a wireless LAN access point, power consumption is high.
  • the WLAN communication unit 21B communicates with the common trigger box 54 mounted in the police vehicle VC1 by wireless LAN communication, and the data of the captured image obtained by the imaging unit 11 is transferred to the common trigger box 54. send.
  • the captured video data is sent to the back-end streaming server 60 in the police station via the common trigger box 54 and the network NW1.
  • the captured video data is stored in the back-end server 70 in the police station via the common trigger box 54 and the wireless LAN access point. May be sent to.
  • the wearable camera 10 is used for short-range wireless communication such as NFC (Near Field Communication) or wireless communication using a mobile line network (for example, LTE: Long Term Evolution) in addition to BLE communication or WLAN communication.
  • NFC Near Field Communication
  • LTE Long Term Evolution
  • Each unit may have a configuration (not shown).
  • the USB interface 22 is a serial bus, and enables connection with, for example, an in-vehicle PC 52 or a back-end client 80 in a police station.
  • the contact terminal 23 is a terminal for electrically connecting to the charging stand 55, and is connected to the MCU 19 via the USB interface 22 and also to the power supply unit 24.
  • the power supply unit 24 charges the battery 25 in response to the detection of the connection with the charging stand 55 at the contact terminal 23.
  • the contact terminal 23 can communicate the video data read from the storage unit 15 by the MCU 19 to an external device (for example, the common trigger box 54) connected via the charging stand 55 according to the connection with the charging stand 55. is there.
  • the contact terminal 23 is provided with, for example, "charging terminal V +" (not shown), “detection terminal 23T", "data terminals D-, D +" (not shown) and “ground terminal” (not shown).
  • the detection terminal 23T is a terminal for detecting a voltage and a voltage change.
  • the data terminals D- and D + are terminals for transferring video data captured by the wearable camera 10 to the in-vehicle PC 52, for example, via a USB connector terminal.
  • the detection terminal 23T of the contact terminal 23 is connected to a communication interface such as I2C20 via the AD converter CV, and the detection voltage value of the contact terminal 23 is input to the MCU 19.
  • the power supply unit 24 is supplied from an external power source (for example, a common trigger box 54, a cigar charger in the police vehicle VC1 (not shown), an accessory in the police vehicle VC1) connected to the charging stand 55 via, for example, the contact terminal 23.
  • the battery 25 is charged by supplying the charging current to the battery 25.
  • the battery 25 is composed of, for example, a rechargeable secondary battery, and supplies power to each part of the wearable camera 10.
  • the recording switch SW1 is a push button switch for inputting an operation instruction for starting / stopping recording (imaging of a moving image) by pressing a police officer, for example. Further, the MCU 19 may start recording (capturing a moving image) when the recording switch SW1 is pressed for a short time, and end recording when the recording switch SW1 is pressed for a long time. Further, the MCU 19 may start recording (capturing a moving image) when the recording switch SW1 is pressed an odd number of times, and end recording when the recording switch SW1 is pressed an even number of times.
  • the snapshot switch SW2 is a push button switch for inputting an operation instruction for capturing a still image by, for example, a police officer's pressing operation. Whenever the snapshot switch SW2 is pressed, for example, the MCU 19 executes an image of a still image when the snapshot switch SW2 is pressed.
  • the communication mode switch SW3 is, for example, a slide switch for inputting an operation instruction for setting a communication mode between the wearable camera 10 and an external device.
  • the communication mode includes, for example, an access point mode, a station mode, and an OFF mode.
  • the access point mode is a mode in which the wearable camera 10 operates as an access point for a wireless LAN, for example, wirelessly connects to a smartphone owned by a police officer and communicates between the wearable camera 10 and the smartphone.
  • the smartphone can display the current live image by the wearable camera 10, reproduce the recorded image, display the captured still image, and the like by connecting to the wearable camera 10.
  • the station mode is a mode in which an external device is used as an access point for communication when connecting to an external device using a wireless LAN.
  • the tethering function of the smartphone may be used to set the smartphone as an external device.
  • the wearable camera 10 can perform various settings, transfer (upload) of the recorded image held by the wearable camera 10, and the like to the in-vehicle camera system 50.
  • the OFF mode is a mode in which the communication operation of the wireless LAN is turned off and the wireless LAN is not used.
  • the attribute information addition switch SW4 is a push button switch operated to add attribute information to video data.
  • the attribute information indicates the content of the image captured by the wearable camera 10 (for example, the type of incident, murder, robbery, disaster, etc.).
  • the wireless registration switch SW5 registers and sets an external device (for example, a smartphone, common trigger box 54) of the other party with which the wearable camera 10 wirelessly communicates (for example, wireless communication using BLE or wireless LAN) as a communication partner (hereinafter, "" It is a push button switch that is operated when (sometimes referred to as "communication setting processing").
  • BLE wireless communication using BLE
  • the process of registering and setting a device to be a communication partner may be referred to as "pairing”.
  • the LED 26a is, for example, a display unit that indicates the power-on state (on / off state) of the wearable camera 10 and the state of the battery 25.
  • the LED 26b is, for example, a display unit that indicates the state (recording state) of the imaging operation of the wearable camera 10.
  • the LED 26c is, for example, a display unit indicating the state of the communication mode of the wearable camera 10. Further, when the wearable camera 10 receives the notification data from the vehicle-mounted camera system 50 (for example, the vehicle-mounted PC 52), the three LEDs 26a to 26c blink according to the instruction from the MCU 19. At this time, the MCU 19 changes the blinking pattern of the LEDs 26a to 26c according to the information about the sound source included in the notification data.
  • the MCU 19 detects the input of each switch of the recording switch SW1, the snapshot switch SW2, the communication mode switch SW3, the attribute information imparting switch SW4, and the wireless registration switch SW5, and processes the switch input that has been operated.
  • the MCU 19 When the MCU 19 detects the operation input of the recording switch SW1, it controls the start or stop of the imaging operation in the imaging unit 11, and stores the image obtained from the imaging unit 11 in the storage unit 15 as a moving image.
  • the MCU 19 When the MCU 19 detects the operation input of the snapshot switch SW2, the MCU 19 stores the image taken by the imaging unit 11 when the snapshot switch SW2 is operated in the storage unit 15 as a still image.
  • the MCU 19 detects the state of the communication mode switch SW3 and operates the BLE communication unit 21A and the WLAN communication unit 21B according to the communication mode according to the setting of the communication mode switch SW3.
  • the MCU 19 assigns the attribute information corresponding to the data of the image captured by the imaging unit 11 in association with the image.
  • the MCU 19 is a default process to be performed in the communication setting process (for example, pairing) for a peripheral external device (for example, the common trigger box 54) that can be a communication partner of the wearable camera 10.
  • the default process for example, the generation of registration request information as a communication partner of wireless communication, the output to the BLE communication unit 21A, and the generation of connection information for specifying the communication partner to be connected to.
  • the default process related to the wireless LAN communication setting is the same as the default process when the above-mentioned pairing is illustrated.
  • FIG. 3 is a block diagram showing a hardware configuration example of the in-vehicle PC 52.
  • the vehicle-mounted PC 52 has a configuration including a CPU 201, an I / O (Output / Output) control unit 202, a communication unit 203, a memory 204, an input unit 205, a display unit 206, a speaker 207, and an HDD 208. ..
  • the in-vehicle PC 52 can communicate with each of the wearable camera 10 and the in-vehicle recorder 53, and also communicates with various servers (for example, back-end streaming server 60 and back-end server 70) in the police station via the common trigger box 54. It is possible.
  • the CPU 201 is, for example, a control process for overall control of the operation of each part of the vehicle-mounted PC 52, an input / output process of data with each other part via the I / O control unit 202, and a data calculation (calculation). Performs processing and data storage processing.
  • the CPU 201 authenticates whether or not the police officer can log in to the in-vehicle camera system 50 by, for example, an input operation of the police officer on the login screen for the in-vehicle camera system 50 displayed on the display unit 206.
  • the policeman's input operation is, for example, an operation of inputting an Officer ID and a password.
  • Various information about the police officer who is allowed to log in is stored in advance in the memory 204, for example, and the CPU 201 uses the information of the police officer who is allowed to log in in advance in the memory 204 to use the information of the police officer's in-vehicle camera system. Determine whether or not to log in to 50.
  • the login may be a login to the vehicle-mounted camera system 50 via the vehicle-mounted PC 52, or a login to a default application installed on the vehicle-mounted PC 52.
  • the I / O control unit 202 controls data input / output between the CPU 201 and each unit of the vehicle-mounted PC 52 (for example, the communication unit 203, the input unit 205, the display unit 206, and the speaker 207), and controls the data from the CPU 201 and the CPU 201. Relay data to.
  • the I / O control unit 202 may be integrally configured with the CPU 201.
  • the communication unit 203 performs wired or wireless communication with, for example, the in-vehicle camera 51 or the in-vehicle recorder 53, or with the wearable camera 10 that can be worn by police officers.
  • the memory 204 is configured by using, for example, a RAM, a ROM, or a non-volatile or volatile semiconductor memory, functions as a work memory during the operation of the CPU 201, and stores a predetermined program and data for operating the CPU 201. ..
  • the memory 204 stores, for example, login information about a police officer who is allowed to log in to the vehicle-mounted camera system 50.
  • the input unit 205 is a UI (User Interface) for receiving an input operation of a police officer and notifying the CPU 201 via the I / O control unit 202, and is a pointing device such as a mouse or a keyboard.
  • the input unit 205 may be arranged using, for example, a touch panel or a touch pad that is arranged corresponding to the screen of the display unit 206 and can be operated by a policeman's finger or a stylus pen.
  • the input unit 205 inputs, for example, login information for logging in to the in-vehicle camera system 50.
  • the display unit 206 is configured by using, for example, an LCD or an organic EL, and displays various information. Further, the display unit 206 displays the data of the image portion included in the captured images captured by the wearable camera 10 and the in-vehicle camera 51 on the same screen under the instruction of the CPU 201, for example, in response to the input operation of the police officer. indicate.
  • the speaker 207 outputs the data of the audio portion included in the captured image captured by each of the wearable camera 10 and the in-vehicle camera 51 under the instruction of the CPU 201, for example, in response to an input operation of a police officer.
  • the display unit 206 and the speaker 207 may be configured separately from the in-vehicle PC 52.
  • HDD 208 stores, for example, various data and software (software programs). Specifically, the HDD 208 stores, for example, software for controlling and setting the in-vehicle camera 51 and the in-vehicle recorder 53, and software for controlling and setting the wearable camera 10. Further, the HDD 208 may store, for example, the data of the captured image captured by the wearable camera 10 and the data of the captured image captured by the in-vehicle camera 51.
  • the back-end server 70 combines the images captured by the wearable cameras 10 worn by the two police officers OA and OB (see FIG. 4) and displays them as spatial images on the back-end client 80. ..
  • the wearable camera 10 worn by the police officer OA is referred to as "BWC1" for convenience, and the wearable camera 10 worn by the police officer OB is conveniently referred to. It is referred to as "BWC2".
  • BWC1 and BWC2 are wearable cameras 10 having the same hardware configuration (see FIG. 2).
  • FIG. 4 is a sequence diagram showing an example of the operation procedure of the wearable camera system 1 according to the first embodiment in chronological order. It is assumed that police officers OA and OB are present at the scene of an incident or accident (hereinafter, also simply referred to as "incident scene").
  • the BWC1 when the scene of the incident is imaged by the BWC1 worn by the police officer OA, the BWC1 periodically uploads the recorded evidence video to the backend server 70 (T1). For example, suppose a scene where the criminal is staying at home. When police officer OA patrols this house, the recorded evidence video by BWC1 is transmitted to the backend server 70, for example, every 30 seconds, 1 minute, and 5 minutes. Needless to say, the timing (cycle) of transmitting the recorded evidence video is not limited to 30 seconds, 1 minute, and 5 minutes. At this time, the BWC1 transmits the recorded evidence video including the time information and the current position information as meta information of the recorded evidence video.
  • the recorded evidence video obtained by the BWC1 is back-ended via the back-end streaming server 60 or its back-end streaming server 60, for example, via the common trigger box 54 and the network NW1 connected to the BWC 1 by wireless LAN. It is transmitted to the server 70.
  • the recorded evidence video by the BWC1 is stored in the in-vehicle recorder 53, and then the common trigger box 54 and the wireless LAN access point in the police station are communicably connected and then back-ended via the common trigger box 54. It may be sent directly to the server 70.
  • the BWC2 when the scene of the incident is imaged by the police officer OB, the BWC2 periodically uploads the recorded evidence video to the backend server 70 (T2). At this time, the BWC2 transmits the recorded evidence video including the time information and the current position information as meta information of the recorded evidence video.
  • the transmission route of the recorded evidence video from the BWC 2 to the back-end server 70 may be the same as or different from the transmission route of the recorded evidence video from the BWC 2 to the back-end server 70 described above.
  • the in-vehicle camera 51 captures the scene of the incident where the police vehicle VC1 arrived.
  • the vehicle-mounted camera system 50 (ICV) periodically transmits the recorded evidence image obtained by the vehicle-mounted camera 51 to the back-end server 70 (T3).
  • the in-vehicle PC 52 transmits the time information and the current position information together with the recorded evidence video as meta information of the recorded evidence video.
  • the recorded evidence image obtained by the vehicle-mounted camera 51 is, for example, from the vehicle-mounted PC 52 connected to the vehicle-mounted camera 51 via the common trigger box and the network NW1 via the back-end streaming server 60 or the back-end streaming server 60 thereof. It is transmitted to the backend server 70.
  • the recorded evidence image by the vehicle-mounted camera 51 is stored in the vehicle-mounted recorder 53, and then the common trigger box 54 and the wireless LAN access point in the police station are communicably connected to each other via the common trigger box 54. It may be sent directly to the backend server 70.
  • the back-end server 70 receives and records (accumulates) the recording evidence video including the meta information from each of the BWC1, BWC2, and the in-vehicle camera 51.
  • the back-end server 70 uses the case number (as an example of the same case management number) for the recorded evidence video in the same time zone and the same area (point) based on the meta information corresponding to the accumulated recorded evidence video. Case number) is given (T4).
  • the same time zone is a time when it is judged that the image shows the situation of the same incident, accident, etc., and is arbitrarily set. For example, when a police officer asks a suspicious person a job question, the same time zone is set to 10 minutes.
  • the same area is a predetermined range based on the current position information obtained by the GNSS receiving unit 18 mounted on the wearable camera 10.
  • the current position information a case where GPS position information obtained by using GPS (Global Positioning System), which is one of GNSS, is used is shown.
  • GPS Global Positioning System
  • the current position information is not limited to the position information obtained by the GNSS receiving unit, and may be substituted by the position information of the wireless base station that transmits and receives radio signals to and from the wearable camera.
  • the back-end server 70 extracts the feature element of the specific object recorded in the documentary video as meta information and records the time (from the time zone). Also accumulates with detailed time) and GPS location information (T5).
  • a specific object is an object that serves as a mark (base point) at the scene of an incident, accident, etc. (in other words, a point of interest regarding the incident, etc.), and is, for example, an inanimate object such as a house or a tree that does not move easily. ..
  • a movable vehicle may be adopted as a specific object.
  • the back-end server 70 searches for objects having matching feature elements in a plurality of recorded evidence videos to which the same case number is assigned (T6).
  • objects with matching feature elements may be searched for in the recorded evidence video captured by the same camera (for example, a wearable camera worn by the same policeman), or different cameras (worn by different policemen). You may search for objects with matching feature elements in the recorded evidence video captured by the wearable camera.
  • the different cameras may be a combination of a wearable camera worn by a police officer and an in-vehicle camera of a police vehicle. Further, the number of cameras is not limited to two, and may be three or more.
  • the back-end server 70 uses the object with matching feature elements as the base point (reference point), and selects each object from two or more different evidence recording images.
  • the images to be included are extracted, and the two or more extracted images are combined so as to maintain the same appearance and shape of the entire object or a common part to generate a composite image (T7).
  • the two or more extracted images are images captured at the same timing by two wearable cameras 10 (BWC1, BWC2).
  • the two or more images to be extracted may be images captured at different timings.
  • the composite image is simply a combination of two or more extracted images to the extent that the appearance and shape of the entire or common part of the common object are maintained in each recorded evidence video even if they are combined. It is a still image generated by the above, and includes, for example, a region where two or more images overlap. Further, in the composite image, the portion where two or more images are close to each other and does not appear in any of the images is not interpolated by image processing or the like in order to ensure the evidence of the composite image (in other words, imaging). It becomes a blank area (without creating an image that is not interpolated). As a result, the composite image is a genuine image without falsehood (in other words, an image in which the reliability of evidence is guaranteed).
  • the back-end server 70 adds (connects) each of a plurality of frames before and after each of the two or more images used for generating the composite image in the time direction, and generates a larger spatial image. (T8).
  • This spatial image is a still image in which a composite image including two or more images based on an object having matching feature elements and one or more front and rear frame images in the two or more images included in the composite image are combined into one. It is an image. Therefore, the spatial image is from the image of the frame after the composite image (the image after the predetermined number of frames) from the image before the composite image (the image before the predetermined number of frames) including the two or more images whose base points are the objects having the same feature elements. The image) is obtained in a stacked state.
  • the front and rear frames may be only the rear frame of the image as the base point, or may be only the front frame. Further, the number of frames before and after each image as a base point may be different for each case number, for example.
  • the spatial image When displaying a spatial image, the spatial image may be continuously displayed in frame units like a slide show from the image of the front frame to the image of the rear frame of the composite image. That is, the spatial image may be displayed as a moving image so as to continuously reproduce the still image.
  • the back-end server 70 streams the spatial image data combined with one video to the back-end client 80 (T9).
  • the streaming distribution is performed to the back-end client 80 connected to the back-end server 70 by a wired LAN or the like.
  • the streaming distribution may be performed to the in-vehicle PC 52 or another viewer device (smartphone, tablet terminal) or the like via the wireless LAN, the network NW1 and the common trigger box 54.
  • the back-end client 80 receives the spatial image data transmitted from the back-end server 70 (T10).
  • the back-end client 80 displays the spatial image SG (see FIG. 6) based on the received spatial image data so that the analysis specialist of the police station can view it (T11).
  • the process of extracting the feature elements of the object as meta information is performed by the back-end server 70, but instead of being performed by the back-end server 70, the BWC1, BWC2, the vehicle-mounted camera 51, or the vehicle-mounted PC 52 is used. It may be done.
  • the vehicle-mounted PC 52 may extract meta information based on the recorded evidence image recorded on the vehicle-mounted recorder 53.
  • FIG. 5 is a diagram showing an example of a spatial image and an imaging area including an imaging image assigned the same case number.
  • the five captured images G11, G12, G13, G14, and G15 shown by the dotted line frames were continuously imaged by police officer OA at time t1, t2, t3, t4, t5, respectively, in the same case. It is a numbered image.
  • the four captured images G22, G23, G24, and G25 shown by the dotted line frames were continuously imaged by the police officer OB at time t2, t3, t4, and t5, respectively, and were given the same case number. It is an image.
  • the captured image G12 by the police officer OA and the captured image G22 by the police officer OB have the same characteristic elements (windshield, left and right side mirrors, etc.) of the object (for example, the same vehicle).
  • the captured image G12 and the captured image G22 are images captured at the same time t2, but may be images captured at different times. This also applies to the captured image G13 and the captured image G23, and the captured image G14 and the captured image G24.
  • the five captured images G11, G12, G13, G14, G15, and the four captured images G22, G23, G24, and G25 are frame images captured consecutively in time series, respectively. ..
  • FIG. 6 is a diagram illustrating an operation example of generating a spatial image using a plurality of captured images assigned the same case number.
  • the back-end server 70 combines each of the captured image G12 and the captured image G22, which match the characteristic elements of the objects included in the meta information, as a combination reference image to generate a composite image MG. Further, the back-end server 70 is assigned the same case number as the captured images G12 and G22, and each image of a plurality of frames before and after the above-mentioned coupling reference image in the time direction (for example, imaging after one frame). The image G13 and the captured image G23) are combined to generate a composite image MG1 after one frame.
  • the back-end server 70 combines the captured image G14 and the captured image G24 two frames later in the time direction with respect to the above-mentioned coupling reference image to generate the composite image MG2 two frames later. Similarly, the back-end server 70 combines the captured image G15 and the captured image G25 after 3 frames in the time direction with respect to the above-mentioned coupling reference image to generate the composite image MG3 after 3 frames.
  • the back-end server 70 If the captured image G21 one frame before the captured image G22, which is the coupling reference image captured by the BWC2, exists temporarily (the captured image G21 does not exist in FIG. 6), the back-end server 70 , The captured image G11 and the captured image G21 may be combined to generate a composite image one frame before. In the example of FIG. 6, since the composite image one frame before is not generated, only the captured image G11 one frame before is used.
  • the back-end server 70 connects the composite image MG, one or more front and rear composite images (for example, one frame after composite image MG1, two frame after composite image MG2, and three frame after composite image MG3) and one frame before captured image G11. Generates a spatial image SG.
  • the spatial image SG is an image obtained by combining one or more front-back composite images (for example, one-frame post-composite image MG1, two-frame post-composite image MG2, and three-frame post-composite image MG3) with the composite image MG.
  • This is an image having a wider imaging area as compared with the image MG and the images of one or more front and rear frames. Therefore, the analysis specialist of the police station can confirm the situation of the scene such as an incident or an accident with a wide range of images. Further, the spatial image SG does not include the composite image MG and the image in a range exceeding the images of one or more front and rear frames.
  • the spatial image SG is a genuine image without falsehood (for example, not including an image generated by image interpolation) obtained based on the composite image MG and the images of one or more front and rear frames. Therefore, the spatial image can guarantee the value as an evidence documentary image.
  • the image used for generating the composite image may be a plurality of (two or more) images captured at an arbitrary timing among the plurality of captured images assigned the same case number. That is, the base points of the objects having the same feature elements are not limited to the same timing, but may be included in the frame images at different timings in the time zone treated as the same case number. Further, the spatial image may be generated by simply combining the images of each frame with the composite image without generating one or more front and rear composite images with respect to the composite image and connecting them.
  • the wearable camera system 1 is a back-end server 70 that is communicably connected between the plurality of wearable cameras 10 and each of the plurality of wearable cameras 10. And, including.
  • Each of the plurality of wearable cameras 10 sends individual captured images of the scene of the incident to the back-end server 70.
  • the back-end server 70 extracts meta information having characteristic elements of a specific object reflected in individual captured images sent from each of the plurality of wearable cameras 10, and records the meta information in association with the corresponding captured images. To do.
  • the back-end server 70 generates a composite image obtained by synthesizing a plurality of captured images in which the feature elements of a specific object match, based on the meta information corresponding to each captured image, and sends the composite image to the back-end client 80.
  • the analysis specialist of the police station can widely view the images of the scenes (points of interest) such as incidents and accidents captured by the multiple wearable cameras 10 displayed on the back-end client 80. it can. Therefore, the wearable camera system 1 can obtain a wide range of images of notable points such as an incident or an accident, and can effectively support the observation and grasp of the situation around the site such as an incident or an accident by a police officer.
  • the back-end server 70 uses images of one or more front and rear frames (front and back captured images) that are temporally back and forth with respect to the respective imaging times of the plurality of captured images used to generate the composite image, and is specific.
  • One or more composite images (for example, composite image after 1 frame MG1, composite image after 2 frames MG2, composite image after 3 frames MG3) are generated by synthesizing a plurality of front and rear captured images in which the feature elements of the objects match, and the composite image is generated.
  • a spatial image in which the MG and one or more composite images are connected is generated and sent to the back-end client 80.
  • the wearable camera system 1 can display images of the scene such as an incident or an accident that are continuous in time, and can more effectively support the observation and grasp of the situation around the scene such as an incident or an accident.
  • each of the plurality of (for example, two) wearable cameras 10 can acquire the position information by the GNSS receiving unit 18.
  • Each wearable camera 10 sends the position information of the scene such as an incident or an accident and the imaging time to the back-end server 70 in association with the captured image.
  • the back-end server 70 assigns the same case number to the individual captured images. Record.
  • the back-end server 70 can search only the captured images related to the same incident, accident, etc., and display them on the back-end client 80. Therefore, the analysis specialist of the police station can quickly view the captured images related to the incident or accident.
  • the back-end server 70 extracts meta information having a characteristic element of a specific object by using individual captured images assigned the same case number. As a result, the back-end server 70 can associate the individual captured images with the same case number with the meta information. For example, the back-end server 70 can combine two captured images having matching feature elements of an object to generate a composite image.
  • the back-end server 70 can obtain images captured in a wide range of sites by the two wearable cameras 10.
  • a wearable camera 10 worn by each of one or more police officers and an in-vehicle camera 51 provided on the police vehicle VC1 on which the police officer rides are used.
  • the back-end server 70 can obtain images captured in a wide range of sites by one or more wearable cameras 10 and an in-vehicle camera 51.
  • the spatial image SG combines the composite image MG and one or more front and rear composite images (for example, the composite image MG1 after 1 frame, the composite image MG2 after 2 frames, and the composite image MG3 after 3 frames), and the composite image MG and 1 or more. It is an image captured by two BWC1 and BWC2 having a wider imaging area than each of the front and rear composite images. As a result, the spatial image SG becomes an image having a wider imaging area than the composite image MG and the images of one or more front and rear frames. Therefore, the analysis specialist of the police station can confirm the situation of the scene such as an incident or an accident with a wide range of images.
  • the spatial image SG is a genuine image without falsehood (for example, not including an image generated by image interpolation) obtained based on the composite image MG and the images of one or more front and rear frames. Therefore, the spatial image can guarantee the value as an evidence documentary image.
  • the back-end server generates a spatial image by combining a plurality of captured images with the same case number, but the police officer's identification number is transmitted to the back-end server as meta information.
  • Images captured by wearable cameras worn by different police officers may be combined to generate a spatial image based on the identification numbers of police officers heading to the same scene of the incident.
  • the wearable camera system of the second embodiment has almost the same configuration as that of the first embodiment.
  • the same components as those in the first embodiment are used with the same reference numerals, and the description thereof will be omitted.
  • FIG. 7 is a sequence diagram showing an example of the operation procedure of the wearable camera system 1 according to the second embodiment in chronological order.
  • one wearable camera 10 is a BWC2 worn by one police officer OB is shown, but it may be a BWC1 worn by a police officer OA.
  • the BWC2 when the scene of an incident, accident, etc. is imaged by the police officer OB, the BWC2 periodically uploads the recorded evidence video to the back-end server 70 (T31). At this time, the BWC 2 transmits the recorded evidence video including the time information and the current position information as meta information of the recorded evidence video.
  • the in-vehicle camera 51 captures the situation of the site where the police vehicle VC1 arrives, and similarly, the back-end server 70 periodically outputs a recording evidence image including meta information such as time information and current position information. May be sent to.
  • the back-end server 70 takes out the feature elements of the objects recorded in each evidence recorded video as meta information and stores them together with the recording time and GPS position information (T32).
  • the back-end server 70 searches a plurality of recorded evidence videos for objects having matching feature elements (T33). In the search for this object, objects with matching feature elements are searched for in the recorded evidence video captured by the same camera (for example, a wearable camera worn by the same police officer).
  • the backend server 70 uses the object with matching feature elements as the base point (reference point) (T34).
  • the back-end server 70 adds (connects) one or more images of the front and rear frames to one image including the base point, and generates a large spatial image SG2 (see FIG. 8) (T35).
  • the spatial image SG2 is a still image obtained by combining images of one or more front and rear frames with respect to an image whose base point is an object having matching feature elements.
  • the front and rear frames may be only the rear frame of the image as the base point, or may be only the front frame. Further, the number of front and rear frames for each image as a base point may differ depending on GPS position information, recording time, and the like.
  • the back-end server 70 streams the spatial image data combined with one video to the back-end client 80 (T36).
  • the back-end client 80 receives the spatial image data transmitted from the back-end server 70 (T37).
  • the back-end client 80 displays the spatial image SG2 based on the received spatial image data so that the analysis specialist of the police station can view it (T38).
  • FIG. 8 is a diagram illustrating an operation example of generating a spatial image using a plurality of images captured by one wearable camera.
  • the four captured images G22, G23, G24, and G25 shown by the dotted line frames are images continuously captured by the police officer OB at time t2, t3, t4, and t5, respectively.
  • the captured image G22 and the captured image G23 have the same characteristic elements (headlights, side mirrors, etc.) of the object (same vehicle).
  • the back-end server 70 uses the captured image G22 as the original image, and combines the images of the frames before and after the captured image G22 (captured images G23, G24, G25) with the captured image G22 to generate the spatial image SG2.
  • the back-end server 70 shows the case where the captured images G23, G24, and G25 of the rear frame are combined with the captured image G22 which is the original image, but the image of the front frame may be combined. Therefore, the spatial image SG2 is an image in which one or more images of the front and rear frames are combined with the captured image G22, and is an image having a wider imaging area than the captured image G22 and one or more images of the front and rear frames.
  • the spatial image SG2 does not include the captured image G22 and images in a range exceeding the captured images G23, G24, and G25 of one or more front and rear frames, and is genuine without falsehood (for example, does not include the image generated by image interpolation). It is an image. Therefore, the spatial image can guarantee the value as an evidence documentary image.
  • the spatial image When displaying a spatial image, the spatial image may be continuously displayed like a slide show from the image in the front frame to the image in the rear frame of the original image. In this case, the spatial image is displayed as a moving image that continuously reproduces the still image.
  • the wearable camera system includes a back-end server 70 that is communicably connected between one wearable camera 10 and each of the plurality of wearable cameras 10. including.
  • the wearable camera 10 sends captured images of a plurality of frames, which are images of the scene of the incident, back and forth in time to the back-end server 70.
  • the back-end server 70 extracts meta information having characteristic elements of specific objects displayed in each of a plurality of frames, and records the meta information in association with the corresponding captured image.
  • the back-end server 70 generates a composite image obtained by synthesizing a plurality of captured images that match the feature elements of a specific object based on the meta information corresponding to each of the captured images of a plurality of frames, and sends the composite image to the back-end client 80. ..
  • the analysis specialist of the police station can view a wide range of images of the scene such as incidents and accidents captured by one wearable camera 10 displayed on the back-end client 80. Therefore, the wearable camera system 1 can effectively support the observation and grasp of the situation around the site such as an incident or accident by an analysis specialist of a police station.
  • This disclosure is useful as an image composition system and an image composition method that obtains a wide range of images of a point of interest and effectively supports observation and grasp of the situation around the point.
  • Wearable camera system 10 Wearable camera 50 In-vehicle camera system 51 In-vehicle camera 52 In-vehicle PC 53 In-vehicle recorder 54 Common trigger box 60 Back-end streaming server 70 Back-end server 80 Back-end client NW1 network

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Abstract

画像合成システムは、複数のカメラと、複数のカメラのそれぞれとの間で通信可能に接続されるサーバと、を含む。複数のカメラのそれぞれは、事件等に関する注目地点を撮像した個々の撮像画像をサーバに送る。サーバは、個々の撮像画像に映る特定のオブジェクトの特徴要素を有するメタ情報を抽出し、メタ情報と対応する撮像画像とを対応付けて記録し、個々の撮像画像に対応するメタ情報に基づいて、特定のオブジェクトの特徴要素が一致する複数の撮像画像を合成した合成画像を生成してビューア装置に送る。

Description

画像合成システムおよび画像合成方法
 本開示は、画像合成システムおよび画像合成方法に関する。
 特許文献1には、複数の監視カメラと、複数の監視カメラで撮影した複数の映像を結合して1つの結合映像とする映像変換結合部と、結合映像を符号化するエンコーダと、エンコーダから伝送路を介して伝送された結合映像を復号するデコーダと、復号された結合映像を複数の監視カメラで撮影した映像を表示画面に表示する表示装置と、を備えた映像監視システムが開示されている。
国際公開第2016/174946号
 しかしながら、特許文献1の構成では、複数の監視カメラで撮影した映像を表示装置において表示画面に表示する際、結合映像を生成するために使用された複数の映像のうちいずれか一つが選択された上で表示される。このため、特許文献1では、表示装置に伝送する際に一度に多くの映像を効率的に送るために複数の映像を結合して結合映像を生成することの技術的開示はあるが、これらの複数の映像を結合して撮影された地点の広範囲な映像を表示することはできなかった。このため、例えば事件あるいは事故が発生した現場等の注目するべき地点を複数のカメラにより撮影した際に、撮影された複数の映像を結合して広範囲の現場の映像を得ることはできない。
 本開示は、上述した従来の状況に鑑みて案出され、注目するべき地点の広範囲の映像を得て、その地点の周囲の状況の観察および把握を効果的に支援する画像合成システムおよび画像合成方法を提供することを目的とする。
 本開示は、複数のカメラと、前記複数のカメラのそれぞれとの間で通信可能に接続されるサーバと、を含む画像合成システムであって、前記複数のカメラのそれぞれは、事件等に関する注目地点を撮像した個々の撮像画像を前記サーバに送り、前記サーバは、前記複数のカメラのそれぞれから送られた前記個々の撮像画像に映る特定のオブジェクトの特徴要素を有するメタ情報を抽出し、前記メタ情報と対応する撮像画像とを対応付けて記録し、前記個々の撮像画像に対応するメタ情報に基づいて、前記特定のオブジェクトの特徴要素が一致する複数の撮像画像を合成した合成画像を生成してビューア装置に送る、画像合成システムを提供する。
 また、本開示は、複数のカメラと、前記複数のカメラのそれぞれとの間で通信可能に接続されるサーバと、を含む画像合成システムにより実行される画像合成方法であって、事件等に関する注目地点を撮像した個々の撮像画像を前記サーバに送り、前記複数のカメラのそれぞれから送られた前記個々の撮像画像に映る特定のオブジェクトの特徴要素を有するメタ情報を抽出し、前記メタ情報と対応する撮像画像とを対応付けて記録し、前記個々の撮像画像に対応するメタ情報に基づいて、前記特定のオブジェクトの特徴要素が一致する複数の撮像画像を合成した合成画像を生成してビューア装置に送る、画像合成方法を提供する。
 また、本開示は、カメラと、前記カメラとの間で通信可能に接続されるサーバと、を含む画像合成システムであって、前記カメラは、事件等に関する注目地点を撮像した、時間的に前後する複数の撮像画像を前記サーバに送り、前記サーバは、前記カメラから送られた前記複数の撮像画像のそれぞれに映る特定のオブジェクトの特徴要素を有するメタ情報を抽出し、前記メタ情報と対応する撮像画像とを対応付けて記録し、前記複数の撮像画像のそれぞれに対応するメタ情報に基づいて、前記特定のオブジェクトの特徴要素が一致する複数の撮像画像を合成した空間画像を生成してビューア装置に送る、画像合成システムを提供する。
 また、本開示は、カメラと、前記カメラとの間で通信可能に接続されるサーバと、を含む画像合成システムにより実行される画像合成方法であって、事件等に関する注目地点を撮像した、時間的に前後する複数の撮像画像を前記サーバに送り、前記カメラから送られた前記複数の撮像画像のそれぞれに映る特定のオブジェクトの特徴要素を有するメタ情報を抽出し、前記メタ情報と対応する撮像画像とを対応付けて記録し、前記複数の撮像画像のそれぞれに対応するメタ情報に基づいて、前記特定のオブジェクトの特徴要素が一致する複数の撮像画像を合成した空間画像を生成してビューア装置に送る、画像合成方法を提供する。
 本開示によれば、注目するべき地点の広範囲の映像を得て、その地点の周囲の状況の観察および把握を効果的に支援することができる。
実施の形態1に係るウェアラブルカメラシステムのシステム構成例を示す概要説明図 ウェアラブルカメラのハードウェア構成例を示すブロック図 車載PCのハードウェア構成例を示すブロック図 実施の形態1に係るウェアラブルカメラシステムの動作手順例を時系列に示すシーケンス図 同一の事件番号が付与された撮像画像を含む空間画像および撮像エリアの一例を示す図 同一の事件番号が付与された複数枚の撮像画像を用いて空間画像を生成する動作例を説明する図 実施の形態2に係るウェアラブルカメラシステムの動作手順例を時系列に示すシーケンス図 1台のウェアラブルカメラで撮像された複数枚の画像を用いて空間画像を生成する動作例を説明する図
 以下、適宜図面を参照しながら、本開示に係る画像合成システムおよび画像合成方法を具体的に開示した実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。
(実施の形態1)
 図1は、実施の形態1に係るウェアラブルカメラシステム1のシステム構成例を示す概要説明図である。画像合成システムの一例としてのウェアラブルカメラシステム1は、例えば現場(Field)に到着したユーザの一例としての警官が装着しているウェアラブルカメラ10と、警察署(Police Station)内に配置される各種の機器と、現場に到着したパトロールカー等の警察車両VC1(Police Vehicle)内に搭載される各種の機器とにより構成される。ウェアラブルカメラ10は、警察署内で使用されてもよいし、警察署外(例えば警察車両VC1内あるいは現場)で使用されてもよい。ウェアラブルカメラ10は、BWC(Body Worn Camera)と称されることがある。事件等に関する注目地点の一例としての現場は、例えば事件が発生した地点、あるいは犯人が存在するあるいは立てこもっている地点である。
 警察署内に配置される各種の機器は、例えば、バックエンドストリーミングサーバ60(BSS:Back end Streaming Server)、バックエンドサーバ70(BES:Back End Server)、バックエンドクライアント80(BEC:Back End Client)、1以上の無線LAN(Local Area Network)アクセスポイント、複数のウェアラブルカメラ10を一括して充電可能な充電装置の一例としてのギャングチャージャ90を少なくとも含むが、これらに限定されない。なお、無線LANアクセスポイントは、車載カメラシステム50と警察署内のサーバ(例えばバックエンドサーバ70)との間の通信を仲介する。
 警察車両VC1内に搭載される各種の機器は、例えば、車載カメラシステム50(ICV:In-Car Video system)、トリガー装置の一例としてのコモントリガーボックス54(CTB:Common Trigger Box)、充電装置(PD:Pairing Dock)の一例としての充電台55、回転警告灯PL1を少なくとも含むが、これらに限定されない。例えば、警察署との連絡を行うために警官が所持するスマートフォンも含まれてもよい。なお、コモントリガーボックス54は車載カメラシステム50に含まれてもよい。
 カメラの一例としてのウェアラブルカメラ10は、警官の制服に装着され、警官の前方の状況を被写体として撮像して一定時間分の撮像映像を記録(つまり録画)し、撮像映像を有線(例えばUSBケーブル)あるいは無線(例えばコモントリガーボックス54)を介して車載カメラシステム50に送る。ウェアラブルカメラ10は、警察署内の無線LANアクセスポイントと無線通信が可能に接続されたことを検知した際に、無線LANアクセスポイントを介して接続されたバックエンドサーバ70に撮像映像を送ってもよい。ウェアラブルカメラ10は、警官の手動でギャングチャージャ90の充電面に載置されたことを検知した際に、充電を行ってよい。
 なお、ウェアラブルカメラ10、および後述する車載カメラ51の撮像対象となる被写体は、単に人物だけではなく、事件の現場の情景、現場の近くに群がる群衆(いわゆる野次馬)、更に、撮像位置の周囲の雰囲気を含んでよい。
 車載カメラシステム50は、1以上の車載カメラ51と車載PC52と車載レコーダ53とを有し、警察車両VC1が到着した現場の状況を車載カメラ51により撮像し、撮像により得られた映像(以下「撮像映像」という)を車載レコーダ53に記録(つまり録画)する。車載カメラ51と車載PC52と車載レコーダ53とは、それぞれデータあるいは情報の送受信が可能に有線で接続されるが、無線で接続されても構わない。また、車載カメラシステム50(例えば車載PC52)とウェアラブルカメラ10とは、データあるいは情報の送受信が可能に有線(例えばUSB(Universal Serial Bus)対応のUSBケーブル)で接続されてよい。
 カメラの一例としての車載カメラ51は、例えば警察車両VC1の前方を撮像可能に取り付けられた前方カメラ、警察車両VC1の側面方向を撮像可能に取り付けられた側方カメラ、警察車両VC1の後方を撮像可能に取り付けられた後方カメラ、のうち少なくとも1つであってよい。車載カメラ51は撮像映像を車載レコーダ53に送り、この撮像映像は車載レコーダ53に記録される。
 車載PC52は、警官の操作に応じて、車載カメラ51および車載レコーダ53のそれぞれの動作を制御する。また、詳細は後述するが、ビューア装置の一例としての車載PC52は、警察車両VC1に乗車中の警官の操作により、同一時間帯に1以上のウェアラブルカメラ10,車載カメラ51のそれぞれにより撮像された撮像映像を車載レコーダ53から読み出して表示して再生してよい。これにより、車載PC52を使用する警官は、同一時間帯にウェアラブルカメラ10および車載カメラ51のそれぞれで撮像された現場の撮像映像を簡易に視聴でき、広域に現場等の状況を確認できて当時の状況を鮮明に思い出す等、自身の業務効率を向上できる。なお、車載PC52は、USBケーブルを介してウェアラブルカメラ10と接続されたことを検知すると、ウェアラブルカメラ10に給電してウェアラブルカメラ10を充電してよい。
 車載レコーダ53は、ウェアラブルカメラ10および車載カメラ51のそれぞれにより撮像された撮像映像を記録する。車載PC52は、警官の操作により、ウェアラブルカメラ10により撮像された撮像映像を車載レコーダ53から読み出して取得したり、車載PC52内にインストールされている既定のアプリケーションにおいてウェアラブルカメラ10の撮像映像を単独で再生したり、そのアプリケーションにおいて撮像映像の属性情報を付与したりしてもよい。同様に、車載PC52は、警官の操作により、車載カメラ51により撮像された撮像映像を車載レコーダ53から読み出して取得したり、車載PC52内にインストールされている既定のアプリケーションにおいて車載カメラ51の撮像映像を単独で再生したり、そのアプリケーションにおいて撮像映像の属性情報を付与したりしてもよい。
 車載カメラシステム50は、コモントリガーボックス54と有線(例えばLANケーブル)で接続され、コモントリガーボックス54からの指令に応じた動作を行う。コモントリガーボックス54からの指令に応じた動作は、例えば、車載カメラ51の撮像映像の記録(つまり録画)の開始あるいは停止、ウェアラブルカメラ10の撮像映像の記録(つまり録画)の開始あるいは停止、が含まれる。なお、車載カメラシステム50は、コモントリガーボックス54を介してウェアラブルカメラ10との間でデータあるいは情報の無線通信が可能に接続されてもよい。
 車載カメラシステム50は、コモントリガーボックス54およびネットワークNW1を介して、ウェアラブルカメラ10および車載カメラ51のそれぞれの撮像映像(例えば撮像されているリアルタイムのライブ映像)を、バックエンドストリーミングサーバ60にストリーミングしてよい。ネットワークNW1は、例えばモバイル通信ネットワーク網またはインターネット網である。車載カメラシステム50(例えば車載PC52)は、警察署内の無線LANアクセスポイントと無線通信が可能に接続されたことを検知した際(例えば警察車両VC1が警察署の敷地内の駐車場に駐車した時)、無線LANアクセスポイントを介して、ウェアラブルカメラ10および車載カメラ51のそれぞれの撮像映像(例えば録画された過去の撮像映像)を、バックエンドサーバ70に送ってよい。
 コモントリガーボックス54は、回転警告灯PL1、加速度センサ(図示略)、サイレン(図示略)、車載カメラシステム50、充電台55との間でそれぞれ有線(例えばGPIO(物理ケーブル)あるいはLANケーブル)、あるいは各機器がIoT(Internet Of Things)化することに対応して無線によって接続される。コモントリガーボックス54は、ウェアラブルカメラ10が充電台55に載置された時には充電台55を介してウェアラブルカメラ10とも接続可能である。
 コモントリガーボックス54は、例えば車載カメラシステム50との間が有線(例えばLANケーブル)で接続される場合に、所定の事象を検知した時に車載カメラシステム50に、アラーム通知(例えば録画開始または録画停止の制御信号)を送る。これにより、車載カメラシステム50は、コモントリガーボックス54からの制御信号に応じた動作として、例えば車載カメラ51で撮像された撮像映像の車載レコーダ53への記録(録画)を開始したり、その記録(録画)を停止したりできる。コモントリガーボックス54は、例えば回転警告灯PL1あるいはサイレン等の警察車両搭載機器からの動作開始信号を取得すると、その警察車両搭載機器の使用開始を検知し、コモントリガーボックス54に接続されたウェアラブルカメラ10および車載カメラシステム50の少なくとも一方に、録画開始あるいは録画停止の制御信号を送ってもよい。これにより、ウェアラブルカメラ10および車載カメラシステム50の少なくとも一方は、コモントリガーボックス54からの制御信号に応じた動作として、例えば回転警告灯PL1の回転開始あるいはサイレンの音声出力に伴って、撮像映像の録画を開始したり停止したりできる。
 充電台55は、例えば警察車両VC1の既定位置(例えばセンターコンソールの付近)に配置され、コモントリガーボックス54との間で有線(例えばLANケーブルを使ったPoE(Power over Ethernet(登録商標)))によって接続される。充電台55は、ウェアラブルカメラ10が載置されるための収容部(図示略)を有する。充電台55は、収容部(図示略)にウェアラブルカメラ10が載置されたことを検知すると、コモントリガーボックス54からの供給電流に基づいてウェアラブルカメラ10のバッテリを充電可能である。
 警官により所持されるスマートフォン(上述参照)は、電話機能および無線通信機能(例えば車載カメラシステム50との通信)を有し、例えば警察署からの緊急連絡あるいは警察署への緊急連絡時に使用される。スマートフォンは、警官の操作に従って、ウェアラブルカメラ10あるいは車載カメラ51の撮像映像を表示して再生したり、その撮像映像にメタ情報と言われる属性情報(メタ情報ともいう)を付与する等の編集をしたりする。属性情報は、例えば、撮像映像の内容を直接的あるいは間接的に示唆する事件種別であってよい。
 スマートフォンは、テザリング機能を有し、このテザリング機能を用いて、車載カメラシステム50からのウェアラブルカメラ10および車載カメラ51のそれぞれの撮像映像を、ネットワークNW1を介して警察署内のバックエンドストリーミングサーバ60に中継してもよい。ここで、車載カメラシステム50とスマートフォンとの間には、例えばBLE(Bluetooth(登録商標) Low Energy)またはWifi(登録商標)等の無線LANが用いられる。
 サーバの一例としてのバックエンドストリーミングサーバ60は、高性能なサーバコンピュータおよびストレージを有して構成され、車載カメラシステム50からコモントリガーボックス54およびネットワークNW1を介してストリーミングされた撮像映像(例えばライブ映像)を受信してバックエンドサーバ70に転送する。
 サーバの一例としてのバックエンドサーバ70は、高性能なサーバコンピュータおよびストレージを有して構成され、事件の証拠映像を管理する。バックエンドサーバ70は、バックエンドクライアント80を使用するユーザ(例えば警察署内の解析専門官)の操作に応じた要求に従い、例えばウェアラブルカメラ10および車載カメラ51のそれぞれの撮像映像を構成する画像フレーム中の顔の検知、認識、照合等の各種の画像処理を含む映像解析機能を有する。
 ビューア装置の一例としてのバックエンドクライアント80は、例えばPC(Personal Computer)等のコンピュータにより構成され、ユーザ(例えば警察署内の解析専門官)の操作により、不審人物データベース(図示略)にアクセスして犯罪者等の事件に関する情報を検索してその検索結果をディスプレイデバイス上に表示可能なブラウザあるいは専用アプリケーションを有する。ディスプレイデバイスは、例えばバックエンドクライアント80に設けられたLCD(Liquid Crystal Display)あるいは有機EL(Electroluminescence)により構成される。不審人物データベースには、例えば指名手配中の人物あるいは過去の犯罪者等が事件を識別する情報(例えば事件番号)に対応付けて予め登録されている。また、ビューア装置の一例としてのバックエンドクライアント80は、ユーザ(例えば警察署内の解析専門官)の操作により、同一時間帯にウェアラブルカメラ10,車載カメラ51のそれぞれにより撮像された撮像映像をバックエンドサーバ70から読み出して表示して再生する。これにより、バックエンドクライアント80のユーザは、同一時間帯にウェアラブルカメラ10および車載カメラ51のそれぞれで撮像された現場の撮像映像を簡易に視聴できるので、広域に現場等の状況を確認できて当時の状況を鮮明に特定する等、自身の業務効率を向上できる。
 無線LANアクセスポイントは、車載カメラシステム50と無線LANによって無線接続し、例えば車載カメラシステム50から送られた撮像映像を中継してバックエンドサーバ70に転送する。
 ギャングチャージャ90は、複数の警官のそれぞれが装着するウェアラブルカメラ10を所定の充電面上に載置可能であり、載置された個々のウェアラブルカメラ10に内蔵されるバッテリを充電する。
 図2は、ウェアラブルカメラ10のハードウェア構成例を示すブロック図である。ウェアラブルカメラ10は、撮像部11と、GPIO12(General PurposeInput/Output)と、RAM13(Random Access Memory)と、ROM14(Read Only Memory)と、記憶部15とを含む。ウェアラブルカメラ10は、EEPROM16(Electrically Erasable Programmable ROM)と、RTC17(Real Time Clock)と、GNSS(Global Navigation Satellite System)受信部18とを含む。ウェアラブルカメラ10は、MCU19(Micro Contoller Unit)と、BLE通信部21Aと、WLAN通信部21Bと、USBインターフェース22と、コンタクトターミナル23と、電源部24と、バッテリ25とを含む。なお、添付図面においてインターフェースを「I/F」と略記している。
 ウェアラブルカメラ10は、録画スイッチSW1と、スナップショットスイッチSW2と、通信モードスイッチSW3と、属性情報付与スイッチSW4と、無線登録スイッチSW5とを含む。
 ウェアラブルカメラ10は、3個のLED26a,26b,26c(Light Emission Diode)と、バイブレータ27と、音声出力部28と、マイク29Aと、スピーカ29Bと、イヤホン端子29Cとを含む。
 撮像部11は、撮像レンズ(不図示)と、CCD(Charge Coupled Device)型イメージセンサあるいはCMOS(Complementary Metal Oxide Semiconductor)型イメージセンサによる固体撮像素子とを有する。撮像部11は、撮像により得られた被写体の撮像映像のデータをMCU19に出力する。
 コンタクトターミナル23の検知端子23Tは、ウェアラブルカメラ10が充電台55あるいはギャングチャージャ90に載置された場合、あるいは充電台55あるいはギャングチャージャ90から取り外された場合に電圧変化が生じる端子である。コンタクトターミナル23の検知端子23Tは、ADコンバータCVに接続される。検知端子23Tの電圧変化を示す信号は、ADコンバータCVにおいてデジタル信号に変換され、そのデジタル信号がI2C20を介してMCU19に入力される。
 GPIO12は、パラレルインターフェースである。GPIO12には、録画スイッチSW1、スナップショットスイッチSW2、通信モードスイッチSW3、属性情報付与スイッチSW4、無線登録スイッチSW5、LED26a,26b,26c、バイブレータ27、音声出力部28、マイク29A、スピーカ29Bおよびイヤホン端子29Cのそれぞれが接続される。GPIO12は、これらの各種電子部品とMCU19との間で信号を入出力する。
 マイク29Aは、ウェアラブルカメラ10の周囲の音声を収音し、収音された音声の音声データを、GPIO12を介してMCU19に出力する。なお、マイク29Aは、ウェアラブルカメラ10の筐体に収容された内蔵マイクであってもよいし、ウェアラブルカメラ10と無線接続されたワイヤレスマイクであってもよい。ワイヤレスマイクの場合、警官が任意の箇所に取り付けることで、収音性を高めることができる。
 音声出力部28は、MCU19の指示の下で、ウェアラブルカメラ10の動作に関する音声信号を出力する。音声出力部28は、予めROM14などに記憶された既定のメッセージの音声を有する音声データを読み出し、この音声データに基づく音声信号をスピーカ29Bから音声出力する。イヤホン端子29Cは、イヤホン端子29Cに接続されたイヤホンに対し、音声出力部28より出力される音声信号を出力する。スピーカ29Bは、音声出力部28より出力される音声信号を入力して音声出力する。
 また、ADコンバータCVは、I2C20(Inter-Integrated Circuit)などの通信インターフェースを介してMCU19に接続される。なお、コンタクトターミナル23の検知端子23Tを、ADコンバータCVを介さずにGPIO12へ接続することでも類似の効果を得ることが可能である。
 RAM13は、例えばMCU19の動作において使用されるワークメモリである。ROM14は、例えばMCU19の動作(処理)の実行を制御するためのプログラムおよびデータを予め記憶する。
 記憶部15は、例えばメモリカード等の記憶媒体により構成され、例えば警官の操作に基づく録画開始の指示、あるいは車載カメラシステム50からの録画開始の指示に基づき、撮像部11で撮像された撮像映像のデータ記録(つまり録画)を開始する。記憶部15は、撮像部11で撮像された所定時間(例えば30秒)の撮像映像のデータを常時プリバッファリングして保持し、現在時刻より所定時間(例えば30秒)前までの撮像映像のデータを常に蓄積し続ける。記憶部15は、録画開始の指示を受けると、撮像映像のデータの記録を開始し、録画停止の指示を受けるまでの撮像映像のデータの記録を継続する。また、記憶部15がメモリカードで構成される場合、ウェアラブルカメラ10の筐体に挿抜自在に装着される。
 EEPROM16は、例えばウェアラブルカメラ10を識別する識別情報(例えばカメラIDとしてのシリアル番号)、および各種設定情報を記憶する。RTC17は、現在の時刻情報をカウントしてMCU19に出力する。
 GNSS受信部18は、複数(例えば4機)の航法衛星から送信される、各自の信号送信時刻および位置座標を含む衛星信号を受信してMCU19に出力する。MCU19は、複数の衛星信号を用いて、現在のウェアラブルカメラ10の位置座標および衛星信号の受信時刻を算出する。なお、この算出は、MCU19ではなくGNSS受信部18により実行されてもよい。この受信時刻の情報は、ウェアラブルカメラ10のシステム時刻(つまり、RTC17の出力)の補正のためにも使用されてもよい。システム時刻は、撮像された画像(静止画、動画を含む)の撮像時刻の記録等に利用される。
 MCU19は、ウェアラブルカメラ10の制御部としての機能を有し、例えばウェアラブルカメラ10の各部の動作を全体的に統括するための制御処理、ウェアラブルカメラ10の各部との間のデータの入出力処理、データの演算(計算)処理およびデータの記憶処理を行う。MCU19は、ROM14に記憶された各種のプログラムおよびデータに従って動作する。MCU19は、動作時、RAM13を使用し、RTC17より現在の時刻情報を得るとともに、GNSS受信部18から現在の位置情報を得るかあるいはGNSS受信部18からの出力を用いて現在の位置情報を算出する。
 BLE通信部21Aは、近距離無線通信の通信規格であるBLE(Bluetooth(登録商標) Low Energy)通信を用いて、スマートフォンあるいはコモントリガーボックス54等との間で無線通信を行う。BLEは、Bluetooth(登録商標)のバージョン4.0の呼称である。BLEでは、低消費電力で通信可能あるが、その通信速度は100kbps程度と低速である。
 WLAN通信部21Bは、テザリング機能を用いた無線LANアクセスポイントとしてのスマートフォン、あるいは警察署内に設けられた無線LANアクセスポイント等と無線LAN(つまりWLAN)で接続され、接続先と無線通信を行う。無線LANは、BLEと比べ、通信速度が数十~数百Mbpsと高速通信可能であるが、無線LANアクセスポイントと常時接続されるので、消費電力が多くなる。また、WLAN通信部21Bは、無線LAN通信により、警察車両VC1内に搭載されたコモントリガーボックス54との間で通信を行い、撮像部11により得られた撮像映像のデータをコモントリガーボックス54に送る。この撮像映像のデータは、コモントリガーボックス54およびネットワークNW1を介して警察署内のバックエンドストリーミングサーバ60に送られる。また、警察車両VC1が警察署内の無線LANアクセスポイントの通信圏内に位置する場合には、撮像映像のデータは、コモントリガーボックス54および無線LANアクセスポイントを介して警察署内のバックエンドサーバ70に送られてよい。
 なお、ウェアラブルカメラ10は、BLE通信あるいはWLAN通信の他、NFC(Near Field Communication)等の近距離無線通信、もしくは携帯回線網(例えばLTE:Long Term Evolution)を用いた無線通信を行うための通信部の構成(図示略)をそれぞれ有してもよい。
 USBインターフェース22は、シリアルバスであり、例えば車載PC52あるいは警察署内のバックエンドクライアント80との接続を可能とする。
 コンタクトターミナル23は、充電台55と電気的に接続するための端子であり、USBインターフェース22を介してMCU19に接続されるとともに、電源部24と接続される。電源部24は、コンタクトターミナル23における充電台55との接続検知に応じて、バッテリ25を充電する。コンタクトターミナル23は、充電台55との接続に応じて、MCU19が記憶部15から読み出した映像のデータを、充電台55を介して接続された外部機器(例えばコモントリガーボックス54)に通信可能である。
 コンタクトターミナル23には、例えば「充電端子V+」(図示略)、「検知端子23T」、「データ端子D-,D+」(図示略)および「グランド端子」(図示略)が設けられる。検知端子23Tは、電圧および電圧変化を検出するための端子である。データ端子D-,D+は、例えばUSBコネクタ端子を介して、車載PC52に対してウェアラブルカメラ10で撮像した映像のデータを転送するための端子である。コンタクトターミナル23の検知端子23Tは、ADコンバータCVを介してI2C20等の通信インターフェースに接続され、コンタクトターミナル23の検知電圧値がMCU19に入力される。
 コンタクトターミナル23と、充電台55のコネクタとが接続されることにより、ウェアラブルカメラ10と外部機器(例えばコモントリガーボックス54)との間でデータ通信が可能となる。
 電源部24は、例えばコンタクトターミナル23を介して、充電台55に接続される外部電源(例えばコモントリガーボックス54、警察車両VC1内のシガーチャージャ(図示略)、警察車両VC1内のアクセサリ)より供給される充電電流をバッテリ25に給電することで、バッテリ25を充電する。
 バッテリ25は、例えば充電可能な2次電池により構成され、ウェアラブルカメラ10の各部に電源電力を供給する。
 録画スイッチSW1は、例えば警官の押下操作による録画(動画の撮像)の開始/停止の操作指示を入力する押しボタンスイッチである。また、MCU19は、例えば録画スイッチSW1が短押しされたことで録画(動画の撮像)を開始し、録画スイッチSW1が長押しされたことで録画を終了してもよい。また、MCU19は、例えば録画スイッチSW1が奇数回押下されることで録画(動画の撮像)を開始し、録画スイッチSW1が偶数回押下されることで録画を終了してもよい。
 スナップショットスイッチSW2は、例えば警官の押下操作による静止画の撮像の操作指示を入力する押しボタンスイッチである。スナップショットスイッチSW2は、例えば押下される度に、MCU19によって押下時の静止画の撮像が実行される。
 通信モードスイッチSW3は、例えばウェアラブルカメラ10と外部機器との間の通信モードを設定するための操作指示を入力するスライドスイッチである。通信モードは、例えばアクセスポイントモード、ステーションモード、OFFモードを含む。
 アクセスポイントモードは、ウェアラブルカメラ10が無線LANのアクセスポイントとして動作し、例えば警官が所持するスマートフォンと無線接続して、ウェアラブルカメラ10とスマートフォンとの間で通信を行うモードである。アクセスポイントモードにおいて、スマートフォンは、ウェアラブルカメラ10と接続することにより、ウェアラブルカメラ10による現在のライブ画像の表示、録画された画像の再生、撮像された静止画の表示等を行うことができる。
 ステーションモードは、無線LANを用いて外部機器と接続する場合に、外部機器をアクセスポイントとして通信するモードである。例えばスマートフォンのテザリング機能を利用し、外部機器としてスマートフォンを設定してもよい。ステーションモードにおいて、ウェアラブルカメラ10は、各種設定、ウェアラブルカメラ10が保持する録画された画像の転送(アップロード)等を車載カメラシステム50に行うことができる。
 OFFモードは、無線LANの通信動作をオフし、無線LANを未使用とするモードである。
 属性情報付与スイッチSW4は、映像データに属性情報を付与するために操作される押しボタンスイッチである。属性情報は、ウェアラブルカメラ10により撮像された映像の内容(例えば事件の種別、殺人、強盗、災害等)を示す。
 無線登録スイッチSW5は、ウェアラブルカメラ10が無線通信(例えばBLEまたは無線LANを用いた無線通信)する相手の外部機器(例えばスマートフォン、コモントリガーボックス54)を通信相手として登録して設定する(以下「通信設定処理」とも称する場合がある)際に操作される押しボタンスイッチである。以下、例えばBLEを用いた無線通信において、通信相手となる機器を登録して設定する処理を「ペアリング」と称する場合がある。
 LED26aは、例えばウェアラブルカメラ10の電源投入状態(オンオフ状態)およびバッテリ25の状態を示す表示部である。
 LED26bは、例えばウェアラブルカメラ10の撮像動作の状態(録画状態)を示す表示部である。
 LED26cは、例えばウェアラブルカメラ10の通信モードの状態を示す表示部である。また、3個のLED26a~26cは、ウェアラブルカメラ10が車載カメラシステム50(例えば車載PC52)から通知データを受信すると、MCU19からの指示に従い、点滅動作を行う。この時、MCU19は、通知データに含まれる、音源に関する情報に応じて、MCU19は、LED26a~26cの点滅パターンを可変させる。
 MCU19は、録画スイッチSW1、スナップショットスイッチSW2、通信モードスイッチSW3、属性情報付与スイッチSW4および無線登録スイッチSW5の各スイッチの入力検出を行い、操作があったスイッチ入力に対する処理を行う。
 MCU19は、録画スイッチSW1の操作入力を検出した場合、撮像部11における撮像動作の開始または停止を制御し、撮像部11から得られた画像を、動画像として記憶部15に保存する。
 MCU19は、スナップショットスイッチSW2の操作入力を検出した場合、スナップショットスイッチSW2が操作されたときの撮像部11による画像を、静止画像として記憶部15に保存する。
 MCU19は、通信モードスイッチSW3の状態を検出し、通信モードスイッチSW3の設定に応じた通信モードによってBLE通信部21Aと、WLAN通信部21Bとを動作させる。
 MCU19は、属性情報付与スイッチSW4が押下された場合、撮像部11によって撮像された映像のデータに対応する属性情報を、その映像に対応付けて付与する。
 MCU19は、無線登録スイッチSW5が押下された場合、ウェアラブルカメラ10の通信相手となり得る周囲の外部機器(例えばコモントリガーボックス54)に対し、通信設定処理(例えばペアリング)において行われるべき既定の処理を実行する。ここで、既定の処理は、ペアリングを例示すると、無線通信の通信相手としての登録要求情報の生成並びにBLE通信部21Aへの出力、接続先である通信相手を特定するための接続情報の生成ならびにBLE通信部21Aへの出力、通信相手から送信された接続情報の記憶部15への保存である。但し、無線LANの通信設定に関する既定の処理は、上述したペアリングを例示した時の既定の処理と同様であることは言うまでもない。
 図3は、車載PC52のハードウェア構成例を示すブロック図である。車載PC52は、CPU201と、I/O(Input/Output)制御部202と、通信部203と、メモリ204と、入力部205と、表示部206と、スピーカ207と、HDD208とを含む構成である。車載PC52は、ウェアラブルカメラ10および車載レコーダ53のそれぞれとの間で通信可能であり、コモントリガーボックス54を介して警察署内の各種サーバ(例えばバックエンドストリーミングサーバ60、バックエンドサーバ70)とも通信可能である。
 CPU201は、例えば、車載PC52の各部の動作を全体的に統括するための制御処理、他の各部との間のデータのI/O制御部202を介した入出力処理、データの演算(計算)処理およびデータの記憶処理を行う。
 CPU201は、例えば、表示部206に表示された車載カメラシステム50へのログイン画面に対する警官の入力操作により、警官の車載カメラシステム50へのログインの可否を認証する。警官の入力操作は、例えば、Officer IDとパスワード等を入力する操作である。ログインが許可される対象となる警官に関する各種情報は、例えばメモリ204に予め保存されており、CPU201は、メモリ204に予め保存されているログインの許可対象の情報を用いて、警官の車載カメラシステム50へのログインの可否を判定する。なお、このログインは、車載PC52を介した車載カメラシステム50へのログインでもよいし、車載PC52にインストールされた既定のアプリケーションへのログインでもよい。
 I/O制御部202は、CPU201と車載PC52の各部(例えば通信部203、入力部205、表示部206、スピーカ207)との間でデータの入出力に関する制御を行い、CPU201からのデータおよびCPU201へのデータの中継を行う。なお、I/O制御部202は、CPU201と一体的に構成されてもよい。
 通信部203は、例えば、車載カメラ51あるいは車載レコーダ53との間または警官が装着可能なウェアラブルカメラ10との間で、有線または無線による通信を行う。
 メモリ204は、例えばRAM、ROM、不揮発性あるいは揮発性の半導体メモリを用いて構成され、CPU201の動作時のワークメモリとして機能し、CPU201を動作させるための所定のプログラムおよびデータを保存している。メモリ204は、例えば、車載カメラシステム50へのログインが許可される警官に関するログイン情報を保存する。
 入力部205は、警官の入力操作を受け付け、I/O制御部202を介してCPU201に通知するためのUI(User Interface)であり、例えばマウス、キーボード等のポインティングデバイスである。入力部205は、例えば表示部206の画面に対応して配置され、警官の指あるいはスタイラスペンによって操作が可能なタッチパネルもしくはタッチパッドを用いて構成されても良い。入力部205は、例えば、車載カメラシステム50へログインするためのログイン情報を入力する。
 表示部206は、例えばLCDあるいは有機ELを用いて構成され、各種情報を表示する。また、表示部206は、例えば警官の入力操作に応じて、ウェアラブルカメラ10および車載カメラ51のそれぞれにより撮像された撮像映像に含まれる映像部分のデータを、CPU201の指示の下で同一画面上に表示する。
 スピーカ207は、例えば警官の入力操作に応じて、ウェアラブルカメラ10および車載カメラ51のそれぞれにより撮像された撮像映像に含まれる音声部分のデータを、CPU201の指示の下で出力する。なお、表示部206およびスピーカ207は、車載PC52とは別々の構成としてもよい。
 HDD208は、例えば、各種データ、ソフトウェア(ソフトウェアプログラム)を記憶する。具体的には、HDD208は、例えば、車載カメラ51および車載レコーダ53のそれぞれの制御および設定を行うためのソフトウェア、ウェアラブルカメラ10の制御や設定を行うためのソフトウェア、を保存する。また、HDD208は、例えば、ウェアラブルカメラ10により撮像された撮像映像のデータ、車載カメラ51により撮像された撮像映像のデータを保存してよい。
 次に、実施の形態1に係るウェアラブルカメラシステム1の動作手順を説明する。
 ここでは、2人の警官OA,OB(図4参照)がそれぞれ装着するウェアラブルカメラ10によって撮像される画像をバックエンドサーバ70が結合し、空間画像としてバックエンドクライアント80に表示する例を説明する。2人の警官OA,OBが装着するウェアラブルカメラ10を区別するために、ここでは、警官OAが装着するウェアラブルカメラ10を便宜的に「BWC1」と称し、警官OBが装着するウェアラブルカメラ10を便宜的に「BWC2」と称する。なお、BWC1,BWC2は、ともに同一のハードウェア構成を有するウェアラブルカメラ10である(図2参照)。
 図4は、実施の形態1に係るウェアラブルカメラシステム1の動作手順例を時系列に示すシーケンス図である。事件あるいは事故等の現場(以下、単に「事件現場」ともいう)に警官OA,OBがいる状況を想定する。
 図4において、警官OAが装着するBWC1によって事件現場が撮像されると、BWC1は、記録証拠映像を定期的にバックエンドサーバ70にアップロードする(T1)。例えば、犯人が家に立てこもっているシーンを想定する。警官OAがこの家を巡回する場合、BWC1による記録証拠映像は、例えば30秒、1分、5分毎にバックエンドサーバ70に送信される。なお、記録証拠映像が送信されるタイミング(周期)は、30秒、1分、5分に限定されないことは言うまでもない。このとき、BWC1は、記録証拠映像に時刻情報および現在位置情報を記録証拠映像のメタ情報として含めて送信する。
 BWC1により得られた記録証拠映像は、例えばBWC1と無線LANにより接続されているコモントリガーボックス54およびネットワークNW1を介して、バックエンドストリーミングサーバ60あるいは、そのバックエンドストリーミングサーバ60を更に介してバックエンドサーバ70に送信される。なお、BWC1による記録証拠映像は、車載レコーダ53に蓄積された後、コモントリガーボックス54と警察署内の無線LANアクセスポイントとが通信可能に接続された上でコモントリガーボックス54を介してバックエンドサーバ70に直接に送信されてもよい。
 同様に、警官OBによって事件現場が撮像されると、BWC2は、記録証拠映像を定期的にバックエンドサーバ70にアップロードする(T2)。このとき、BWC2は、記録証拠映像に時刻情報および現在位置情報を記録証拠映像のメタ情報として含めて送信する。なお、BWC2からバックエンドサーバ70までの記録証拠映像の送信ルートは、上述したBWC2からバックエンドサーバ70までの記録証拠映像の送信ルートと同じでよいし異なっていてもよい。
 同様に、車載カメラ51は、警察車両VC1が到着した事件現場を撮像する。車載カメラシステム50(ICV)は、車載カメラ51により得られた記録証拠映像を定期的にバックエンドサーバ70に送信する(T3)。このとき、車載PC52は、記録証拠映像に時刻情報および現在位置情報を記録証拠映像のメタ情報として併せて送信する。
 車載カメラ51により得られた記録証拠映像は、例えば車載カメラ51と接続される車載PC52からコモントリガーボックスおよびネットワークNW1を介して、バックエンドストリーミングサーバ60あるいは、そのバックエンドストリーミングサーバ60を更に介してバックエンドサーバ70に送信される。なお、車載カメラ51による記録証拠映像は、車載レコーダ53に蓄積された後、コモントリガーボックス54と警察署内の無線LANアクセスポイントとが通信可能に接続された上でコモントリガーボックス54を介してバックエンドサーバ70に直接に送信されてもよい。
 バックエンドサーバ70は、BWC1,BWC2および車載カメラ51のそれぞれからメタ情報を含む記録証拠映像を受信して記録(蓄積)する。バックエンドサーバ70は、蓄積した記録証拠映像に対応するメタ情報に基づいて、同一の時間帯および同一のエリア(地点)の記録証拠映像に対し、同一の事件管理番号の一例としての事件番号(ケースナンバー)を付与する(T4)。同一の時間帯は、同じ事件、事故等の状況を表す映像であると判断される時間であり、任意に設定される。例えば、警官が不審者に対し職務質問を行う場合、同一の時間帯は、10分に設定される。同一のエリアは、ウェアラブルカメラ10が搭載するGNSS受信部18によって得られる現在位置情報に基づく所定の範囲である。ここでは、現在位置情報として、GNSSの1つであるGPS(Global Positioning System)を用いて得られるGPS位置情報を用いる場合を示す。なお、現在位置情報は、GNSS受信部によって得られる位置情報に限られず、ウェアラブルカメラと無線信号を送受信する無線基地局の位置情報で代用されてもよい。
 バックエンドサーバ70は、同一の事件番号が付与された記録証拠映像が少なくとも1つ存在する場合、証拠記録映像に記録された特定のオブジェクトの特徴要素をメタ情報として取り出し、記録時刻(時間帯よりも詳細な時刻)およびGPS位置情報とともに蓄積する(T5)。ここで、特定のオブジェクトは、事件、事故等の現場(言い換えると、事件等に関する注目地点)にある目印(基点)となる対象であり、例えば簡単に移動しない家、木等の不動物体である。なお、BWC1,BWC2および車載カメラ51により短時間の間に得られた記録証拠映像を用いる場合には、特定のオブジェクトとして移動可能な車両を採用してもよい。
 バックエンドサーバ70は、同じ事件番号が付与された複数の記録証拠映像に対し、特徴要素が一致するオブジェクトを検索する(T6)。このオブジェクトの検索では、同じカメラ(例えば同じ警官が装着するウェアラブルカメラ)で撮像された記録証拠映像において、特徴要素が一致するオブジェクトを検索してもよいし、異なるカメラ(別々の警官がそれぞれ装着するウェアラブルカメラ)で撮像された記録証拠映像において、特徴要素が一致するオブジェクトを検索してもよい。なお、異なるカメラは、警官が装着するウェアラブルカメラと警察車両の車載カメラの組み合わせであってもよい。また、カメラの台数は、2台に限らず3台以上であってもよい。
 検索の結果、特徴要素が一致するオブジェクトが見つかった場合、バックエンドサーバ70は、特徴要素が一致したオブジェクトを基点(基準となる点)とし、異なる2以上の証拠記録映像の中からそれぞれオブジェクトを含む画像を抽出し、抽出した2以上の画像をオブジェクトの全体あるいは共通する一部分の外観形状の同一性が保持されるように結合し、合成画像を生成する(T7)。例えば、抽出される2以上の画像は、2つのウェアラブルカメラ10(BWC1,BWC2)によって同一のタイミングで撮像された画像である。なお、抽出される2以上の画像は、異なるタイミングにおいて撮像された画像であってもよい。
 合成画像は、仮に結合された場合でもそれぞれの記録証拠映像中に共通するオブジェクトの全体あるいは共通する一部分の外観形状の同一性が保持される程度に、抽出された2以上の画像を単に足し合わせることで生成される静止画像であり、例えば2以上の画像が重なっている領域を含む。また、合成画像において、2以上の画像が近接する、いずれの画像にも現れない部分は、合成画像の証拠性を担保するために、画像処理等によって補間処理されることなく(言い換えると、撮像されていない画像を作成することなく)空白の領域となる。これにより、合成画像は、虚偽の無い、真正な画像(言い換えると、証拠性の信頼度が担保された画像)である。
 バックエンドサーバ70は、合成画像の生成に用いられた、2以上の画像に対し、それぞれ時間方向に対して前後する複数のフレームの画像のそれぞれを継ぎ足し(繋ぎ)、より大きな空間画像を生成する(T8)。この空間画像は、特徴要素が一致したオブジェクトを基点とする2以上の画像を含む合成画像、およびこの合成画像に含まれる2以上の画像における1以上の前後フレームの画像を1つに結合した静止画像である。したがって、空間画像は、特徴要素が一致したオブジェクトを基点とする2以上の画像を含む合成画像の前フレーム(所定フレーム数前の画像)から、合成画像の後フレームの画像(所定フレーム数後の画像)まで、重ねた状態で得られる。なお、前後フレームは、基点とする画像の後フレームだけであってもよいし、前フレームだけであってもよい。また、基点とする画像ごとに前後フレームの数は、例えば事件番号ごとに異なってもよい。
 なお、空間画像を表示する場合、空間画像は、合成画像の前フレームから後フレームの画像までスライドショーのようにフレーム単位で連続的に表示されてもよい。つまり、空間画像は、静止画像を連続的に再生するように、動画像として表示されてもよい。
 バックエンドサーバ70は、1つの映像に結合された空間画像のデータを、バックエンドクライアント80にストリーミング配信を行う(T9)。ここでは、ストリーミング配信は、バックエンドサーバ70に有線LAN等で接続されたバックエンドクライアント80に対して行われる。なお、ストリーミング配信は、無線LAN、ネットワークNW1およびコモントリガーボックス54を介して車載PC52あるいは他のビューア装置(スマートフォン、タブレット端末)等に対して行われてもよい。
 一方、バックエンドクライアント80は、バックエンドサーバ70から送信される空間画像のデータを受信する(T10)。バックエンドクライアント80は、受信した空間画像のデータを基に、警察署の解析専門官が閲覧可能なように空間画像SG(図6参照)を表示する(T11)。
 なお、本実施形態では、オブジェクトの特徴要素をメタ情報として取り出す処理は、バックエンドサーバ70によって行われたが、バックエンドサーバ70が行う代わりに、BWC1,BWC2,車載カメラ51、あるいは車載PC52によって行われてもよい。例えば、車載PC52は、車載レコーダ53に記録された、上記記録証拠映像を基に、メタ情報を取り出してよい。
 図5は、同一の事件番号が付与された撮像画像を含む空間画像および撮像エリアの一例を示す図である。図中、点線枠で示される5枚の撮像画像G11,G12,G13,G14,G15は、警官OAによって、それぞれ時刻t1,t2,t3,t4,t5で連続的に撮像された、同一の事件番号が付与された画像である。同様に、点線枠で示される4枚の撮像画像G22,G23,G24,G25は、警官OBによってそれぞれ時刻t2,t3,t4,t5で連続的に撮像された、同一の事件番号が付与された画像である。これらの撮像画像のうち、例えば、警官OAによる撮像画像G12と、警官OBによる撮像画像G22とでは、オブジェクト(例えば同一の車両)の特徴要素(フロントガラス、左右のサイドミラー等)が一致する。ここでは、撮像画像G12と撮像画像G22は、同じ時刻t2に撮像された画像であるが、異なる時刻に撮像された画像であってもよい。このことは、撮像画像G13と撮像画像G23、および撮像画像G14と撮像画像G24においても同様である。ただし、5枚の撮像画像G11,G12,G13,G14,G15、および4枚の撮像画像G22,G23,G24,G25は、それぞれ時系列に連続して撮像されたフレームの画像であることが望ましい。
 図6は、同一の事件番号が付与された複数枚の撮像画像を用いて空間画像を生成する動作例を説明する図である。バックエンドサーバ70は、メタ情報に含まれるオブジェクトの特徴要素が一致する撮像画像G12と撮像画像G22とのそれぞれを結合基準画像として結合し、合成画像MGを生成する。さらに、バックエンドサーバ70は、撮像画像G12,G22と同一の事件番号が付与され、かつ上述した結合基準画像に対して時間方向に前後する複数のフレームのそれぞれの画像(例えば1フレーム後の撮像画像G13と撮像画像G23)を結合し、1フレーム後合成画像MG1を生成する。また同様にして、バックエンドサーバ70は、上述した結合基準画像に対して時間方向に2フレーム後の撮像画像G14と撮像画像G24とを結合し、2フレーム後合成画像MG2を生成する。また同様にして、バックエンドサーバ70は、上述した結合基準画像に対して時間方向に3フレーム後の撮像画像G15と撮像画像G25とを結合し、3フレーム後合成画像MG3を生成する。
 なお、BWC2によって撮像される、結合基準画像である撮像画像G22より時間的に1フレーム前の撮像画像G21が仮に存在する場合(図6では撮像画像G21が存在せず)、バックエンドサーバ70は、その撮像画像G11と撮像画像G21とを結合し、1フレーム前合成画像を生成してもよい。図6の例では、1フレーム前合成画像が生成されないので、1フレーム前の撮像画像G11だけが用いられる。バックエンドサーバ70は、合成画像MGと1以上の前後合成画像(例えば1フレーム後合成画像MG1、2フレーム後合成画像MG2、3フレーム後合成画像MG3)と1フレーム前の撮像画像G11とを繋げた空間画像SGを生成する。
 このように、空間画像SGは、合成画像MGに1以上の前後合成画像(例えば1フレーム後合成画像MG1、2フレーム後合成画像MG2、3フレーム後合成画像MG3)を結合した画像であり、合成画像MGおよび1以上の前後フレームの画像のそれぞれと比べ、撮像エリアの広い画像である。したがって、警察署の解析専門官は、事件、事故等の現場の状況を広範囲な画像で確認できる。また、空間画像SGは、合成画像MGおよび1以上の前後フレームの画像を超える範囲の画像を含まない。つまり、空間画像SGは、合成画像MGおよび1以上の前後フレームの画像を基に得られる、虚偽の無い(例えば画像補間によって生成される画像を含まない)真正な画像である。したがって、空間画像は、証拠記録映像としての価値を担保できる。
 なお、合成画像の生成に用いられる画像としては、同一の事件番号が付与された複数枚の撮像画像のうち、任意のタイミングで撮像された複数枚(2枚以上の)画像であってよい。つまり、特徴要素が一致するオブジェクトの基点は、同一のタイミングに限らず、同一の事件番号と扱われる時間帯において異なるタイミングのフレーム画像に含まれてもよい。また、空間画像は、合成画像に対し1以上の前後合成画像を生成して繋げることなく、各フレームの画像を単に合成画像に結合することで、生成されてもよい。
 このように、実施の形態1に係るウェアラブルカメラシステム1では、ウェアラブルカメラシステム1は、複数のウェアラブルカメラ10と、複数のウェアラブルカメラ10のそれぞれとの間で通信可能に接続されるバックエンドサーバ70と、を含む。複数のウェアラブルカメラ10のそれぞれは、事件現場を撮像した個々の撮像画像をバックエンドサーバ70に送る。バックエンドサーバ70は、複数のウェアラブルカメラ10のそれぞれから送られた個々の撮像画像に映る特定のオブジェクトの特徴要素を有するメタ情報を抽出し、メタ情報と対応する撮像画像とを対応付けて記録する。バックエンドサーバ70は、個々の撮像画像に対応するメタ情報に基づいて、特定のオブジェクトの特徴要素が一致する複数の撮像画像を合成した合成画像を生成してバックエンドクライアント80に送る。
 これにより、警察署の解析専門官は、バックエンドクライアント80に表示される、複数台のウェアラブルカメラ10を用いて撮像された事件、事故等の現場(注目するべき地点)の映像を広範囲に閲覧できる。したがって、ウェアラブルカメラシステム1は、事件あるいは事故等の注目するべき地点の広範囲の映像を得ることができ、警官による事件、事故等の現場の周囲の状況の観察および把握を効果的に支援できる。
 また、バックエンドサーバ70は、合成画像の生成に用いた複数の撮像画像のそれぞれの撮像時刻に対して時間的に前後する1以上の前後フレームの画像(前後撮像画像)を用いて、特定のオブジェクトの特徴要素が一致する複数の前後撮像画像を合成した1以上の前後合成画像(例えば1フレーム後合成画像MG1、2フレーム後合成画像MG2、3フレーム後合成画像MG3)を生成し、合成画像MGと1以上の前後合成画像とを繋げた空間画像を生成してバックエンドクライアント80に送る。これにより、ウェアラブルカメラシステム1は、時間的に連続した事件、事故等の現場の映像を表示でき、事件、事故等の現場の周囲の状況の観察および把握をより効果的に支援できる。
 また、複数(例えば2台)のウェアラブルカメラ10のそれぞれは、GNSS受信部18により位置情報を取得可能である。各ウェアラブルカメラ10は、事件、事故等の現場の位置情報と撮像時刻とを撮像画像に対応付けてバックエンドサーバ70に送る。バックエンドサーバ70は、2台のウェアラブルカメラ10のそれぞれから送られた個々の撮像画像に対応する位置情報および撮像時刻が同一である場合に、個々の撮像画像に同一の事件番号を付与して記録する。これにより、バックエンドサーバ70は、同じ事件、事故等に係る撮像画像だけを検索し、かつバックエンドクライアント80に表示させることができる。したがって、警察署の解析専門官は、事件、事故に係る撮像画像を速やかに閲覧できる。
 また、バックエンドサーバ70は、同一の事件番号が付与された個々の撮像画像を用いて、特定のオブジェクトの特徴要素を有するメタ情報を抽出する。これにより、バックエンドサーバ70は、メタ情報を用いて、同一の事件番号が付与された個々の撮像画像を対応付けることができる。例えば、バックエンドサーバ70は、オブジェクトの特徴要素が一致する2枚の撮像画像を結合し、合成画像を生成できる。
 また、複数のカメラとして、複数(例えば2名)の警官OA,OBのそれぞれにより装着される2台のウェアラブルカメラ10が用いられる。これにより、バックエンドサーバ70は、2台のウェアラブルカメラ10による、広範囲な現場の撮像画像を得ることができる。
 また、複数のカメラとして、1人以上の警官のそれぞれにより装着されるウェアラブルカメラ10と、警官が乗車する警察車両VC1に設けられる車載カメラ51が用いられる。これにより、バックエンドサーバ70は、1台以上のウェアラブルカメラ10と車載カメラ51による、広範囲な現場の撮像画像を得ることができる。
 また、空間画像SGは、合成画像MGおよび1以上の前後合成画像(例えば1フレーム後合成画像MG1、2フレーム後合成画像MG2、3フレーム後合成画像MG3)を結合し、合成画像MGおよび1以上の前後合成画像のそれぞれと比べて撮像エリアの広い、2台のBWC1,BWC2によって撮像される画像である。これにより、空間画像SGは、合成画像MGおよび1以上の前後フレームの画像のそれぞれと比べ、撮像エリアの広い画像となる。したがって、警察署の解析専門官は、事件、事故等の現場の状況を広範囲な画像で確認できる。また、空間画像SGは、合成画像MGおよび1以上の前後フレームの画像を基に得られる、虚偽の無い(例えば画像補間によって生成される画像を含まない)真正な画像である。したがって、空間画像は、証拠記録映像としての価値を担保できる。
 なお、ここでは、バックエンドサーバは、同一の事件番号が付与された複数枚の撮像画像を結合して空間画像を生成したが、メタ情報として警官の識別番号がバックエンドサーバに送信される場合、同一の事件現場に向かった警官の識別番号を基に、異なる警官が装着するウェアラブルカメラによる撮像画像を結合し、空間画像を生成してもよい。
(実施の形態2)
 実施の形態1では、複数(2人以上)の警官が装着する各ウェアラブルカメラで撮像される画像を結合して合成画像とし、この合成画像と1以上の前後フレームの画像を結合して空間画像を生成する場合を示した。実施の形態2では、1人の警官が装着する1台のウェアラブルカメラで撮像される、1以上の前後フレームの画像を結合して空間画像を生成する例を説明する。なお、1台のウェアラブルカメラの代わりに、警察車両に搭載された車載カメラが用いられてもよい。
 また、実施の形態2のウェアラブルカメラシステムは実施の形態1とほぼ同一の構成を有する。実施の形態1と同一の構成要素については同一の符号を用いることで、その説明を省略する。
 図7は、実施の形態2に係るウェアラブルカメラシステム1の動作手順例を時系列に示すシーケンス図である。ここでは、1台のウェアラブルカメラ10は、1人の警官OBによって装着されるBWC2である場合を示すが、警官OAによって装着されるBWC1であってもよい。
 図7において、警官OBによって事件、事故等の現場が撮像されると、BWC2は、記録証拠映像を定期的にバックエンドサーバ70にアップロードする(T31)。このとき、BWC2は、記録証拠映像に時刻情報および現在位置情報を記録証拠映像のメタ情報として含めて送信する。なお、BWC2の代わりに、車載カメラ51が、警察車両VC1が到着した現場の状況を撮像し、同様に時刻情報および現在位置情報等のメタ情報を含む記録証拠映像を定期的にバックエンドサーバ70に送信してもよい。
 バックエンドサーバ70は、記録証拠映像が少なくとも1つ存在する場合、それぞれの証拠記録映像に記録されたオブジェクトの特徴要素をメタ情報として取り出し、記録時刻およびGPS位置情報とともに蓄積する(T32)。
 バックエンドサーバ70は、複数の記録証拠映像に対し、特徴要素が一致するオブジェクトを検索する(T33)。このオブジェクトの検索では、同じカメラ(例えば同じ警官が装着するウェアラブルカメラ)で撮像された記録証拠映像において、特徴要素が一致するオブジェクトが検索される。
 検索の結果、特徴要素が一致するオブジェクトが見つかった場合、バックエンドサーバ70は、特徴要素が一致したオブジェクトを基点(基準となる点)とする(T34)。バックエンドサーバ70は、基点を含む1枚の画像に対し、1以上の前後フレームの画像を継ぎ足し(繋ぎ)、大きな空間画像SG2(図8参照)を生成する(T35)。この空間画像SG2は、特徴要素が一致したオブジェクトを基点とする画像に対し、1以上の前後フレームの画像を結合した静止画像である。なお、前後フレームは、基点とする画像の後フレームだけであってもよいし、前フレームだけであってもよい。また、基点とする画像ごとに前後フレームの数は、GPS位置情報、記録時刻等によって異なってもよい。
 バックエンドサーバ70は、1つの映像に結合された空間画像のデータを、バックエンドクライアント80にストリーミング配信を行う(T36)。
 一方、バックエンドクライアント80は、バックエンドサーバ70から送信される空間画像のデータを受信する(T37)。バックエンドクライアント80は、受信した空間画像のデータを基に、警察署の解析専門官が閲覧可能なように空間画像SG2を表示する(T38)。
 図8は、1台のウェアラブルカメラで撮像された複数枚の画像を用いて空間画像を生成する動作例を説明する図である。図中、点線枠で示される4枚の撮像画像G22,G23,G24,G25は、警官OBによってそれぞれ時刻t2,t3,t4,t5と連続的に撮像された画像である。例えば、撮像画像G22と撮像画像G23とでは、オブジェクト(同一車両)の特徴要素(ヘッドライト、サイドミラー等)が一致する。
 バックエンドサーバ70は、撮像画像G22を元画像とし、撮像画像G22の前後フレームの画像(撮像画像G23,G24,G25)を撮像画像G22に結合し、空間画像SG2を生成する。ここでは、バックエンドサーバ70は、元画像である撮像画像G22に対し、後フレームの撮像画像G23,G24,G25を結合する場合を示したが、前フレームの画像を結合してもよい。したがって、空間画像SG2は、撮像画像G22に1以上の前後フレームの画像を結合した画像であり、撮像画像G22および1以上の前後フレームの画像のそれぞれと比べ、撮像エリアの広い画像である。また、空間画像SG2は、撮像画像G22および1以上の前後フレームの撮像画像G23,G24,G25を超える範囲の画像を含まない、虚偽の無い(例えば画像補間によって生成される画像を含まない)真正な画像である。したがって、空間画像は、証拠記録映像としての価値を担保できる。
 なお、空間画像を表示する場合、空間画像は、元画像の前フレームから後フレームの画像までスライドショーのように連続的に表示されてもよい。この場合、空間画像は、静止画像を連続的に再生する、動画像として表示される。
 このように、実施の形態2におけるウェアラブルカメラシステムでは、ウェアラブルカメラシステムは、1台のウェアラブルカメラ10と、複数のウェアラブルカメラ10のそれぞれとの間で通信可能に接続されるバックエンドサーバ70と、を含む。ウェアラブルカメラ10は、事件現場を撮像した、時間的に前後する複数枚のフレームの撮像画像をバックエンドサーバ70に送る。バックエンドサーバ70は、複数フレームのそれぞれに映る特定のオブジェクトの特徴要素を有するメタ情報を抽出し、メタ情報と対応する撮像画像とを対応付けて記録する。バックエンドサーバ70は、複数フレームの撮像画像のそれぞれに対応するメタ情報に基づいて、特定のオブジェクトの特徴要素が一致する複数の撮像画像を合成した合成画像を生成してバックエンドクライアント80に送る。
 これにより、警察署の解析専門官は、バックエンドクライアント80に表示される、1台のウェアラブルカメラ10を用いて撮像された事件、事故等の現場の映像を広範囲に閲覧できる。したがって、ウェアラブルカメラシステム1は、警察署の解析専門官による事件、事故等の現場の周囲の状況の観察および把握を効果的に支援できる。
 以上、図面を参照しながら各種の実施の形態について説明したが、本開示はかかる例に限定されないことはいうまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。また、発明の趣旨を逸脱しない範囲において、上述した各種の実施の形態における各構成要素を任意に組み合わせてもよい。
 なお、本出願は、2019年8月30日出願の日本特許出願(特願2019-159100)に基づくものであり、その内容は本出願の中に参照として援用される。
 本開示は、注目するべき地点の広範囲の映像を得て、その地点の周囲の状況の観察および把握を効果的に支援する画像合成システムおよび画像合成方法として有用である。
1 ウェアラブルカメラシステム
10 ウェアラブルカメラ
50 車載カメラシステム
51 車載カメラ
52 車載PC
53 車載レコーダ
54 コモントリガーボックス
60 バックエンドストリーミングサーバ
70 バックエンドサーバ
80 バックエンドクライアント
NW1 ネットワーク

Claims (10)

  1.  複数のカメラと、前記複数のカメラのそれぞれとの間で通信可能に接続されるサーバと、を含む画像合成システムであって、
     前記複数のカメラのそれぞれは、
     事件等に関する注目地点を撮像した個々の撮像画像を前記サーバに送り、
     前記サーバは、
     前記複数のカメラのそれぞれから送られた前記個々の撮像画像に映る特定のオブジェクトの特徴要素を有するメタ情報を抽出し、前記メタ情報と対応する撮像画像とを対応付けて記録し、
     前記個々の撮像画像に対応するメタ情報に基づいて、前記特定のオブジェクトの特徴要素が一致する複数の撮像画像を合成した合成画像を生成してビューア装置に送る、
     画像合成システム。
  2.  前記サーバは、
     前記合成画像の生成に用いた前記複数の撮像画像のそれぞれの撮像時刻に対して時間的に前後する前後撮像画像を用いて、前記特定のオブジェクトの特徴要素が一致する複数の前後撮像画像を合成した1以上の前後合成画像を生成し、前記合成画像と前記1以上の前後合成画像とを繋げた空間画像を生成して前記ビューア装置に送る、
     請求項1に記載の画像合成システム。
  3.  前記複数のカメラのそれぞれは、
     位置情報を取得可能であり、前記注目地点の位置情報と撮像時刻とを撮像画像に対応付けて前記サーバに送り、
     前記サーバは、
     前記複数のカメラのそれぞれから送られた前記個々の撮像画像に対応する位置情報および撮像時刻が同一である場合に、前記個々の撮像画像に同一の事件管理番号を付与して記録する、
     請求項1に記載の画像合成システム。
  4.  前記サーバは、
     前記同一の事件管理番号が付与された前記個々の撮像画像を用いて、前記特定のオブジェクトの特徴要素を有するメタ情報を抽出する、
     請求項3に記載の画像合成システム。
  5.  前記複数のカメラは、
     複数の警官のそれぞれにより装着されるウェアラブルカメラである、
     請求項1~4のうちいずれか一項に記載の画像合成システム。
  6.  前記複数のカメラは、
     1人以上の警官のそれぞれにより装着されるウェアラブルカメラと、前記警官が乗車する警察車両に設けられる車載カメラである、
     請求項1~4のうちいずれか一項に記載の画像合成システム。
  7.  前記空間画像は、
     前記合成画像と1以上の前記前後合成画像とが結合され、前記合成画像および1以上の前記前後合成画像のそれぞれに映る撮像エリアと比べて広い撮像エリアが前記カメラによって撮像された画像を構成する、
     請求項2に記載の画像合成システム。
  8.  複数のカメラと、前記複数のカメラのそれぞれとの間で通信可能に接続されるサーバと、を含む画像合成システムにより実行される画像合成方法であって、
     事件等に関する注目地点を撮像した個々の撮像画像を前記サーバに送り、
     前記複数のカメラのそれぞれから送られた前記個々の撮像画像に映る特定のオブジェクトの特徴要素を有するメタ情報を抽出し、前記メタ情報と対応する撮像画像とを対応付けて記録し、
     前記個々の撮像画像に対応するメタ情報に基づいて、前記特定のオブジェクトの特徴要素が一致する複数の撮像画像を合成した合成画像を生成してビューア装置に送る、
     画像合成方法。
  9.  カメラと、前記カメラとの間で通信可能に接続されるサーバと、を含む画像合成システムであって、
     前記カメラは、
     事件等に関する注目地点を撮像した、時間的に前後する複数の撮像画像を前記サーバに送り、
     前記サーバは、
     前記カメラから送られた前記複数の撮像画像のそれぞれに映る特定のオブジェクトの特徴要素を有するメタ情報を抽出し、前記メタ情報と対応する撮像画像とを対応付けて記録し、
     前記複数の撮像画像のそれぞれに対応するメタ情報に基づいて、前記特定のオブジェクトの特徴要素が一致する複数の撮像画像を合成した空間画像を生成してビューア装置に送る、
     画像合成システム。
  10.  カメラと、前記カメラとの間で通信可能に接続されるサーバと、を含む画像合成システムにより実行される画像合成方法であって、
     事件等に関する注目地点を撮像した、時間的に前後する複数の撮像画像を前記サーバに送り、
     前記カメラから送られた前記複数の撮像画像のそれぞれに映る特定のオブジェクトの特徴要素を有するメタ情報を抽出し、前記メタ情報と対応する撮像画像とを対応付けて記録し、
     前記複数の撮像画像のそれぞれに対応するメタ情報に基づいて、前記特定のオブジェクトの特徴要素が一致する複数の撮像画像を合成した空間画像を生成してビューア装置に送る、
     画像合成方法。
PCT/JP2020/032651 2019-08-30 2020-08-28 画像合成システムおよび画像合成方法 WO2021039978A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-159100 2019-08-30
JP2019159100A JP7327792B2 (ja) 2019-08-30 2019-08-30 画像合成システムおよび画像合成方法

Publications (1)

Publication Number Publication Date
WO2021039978A1 true WO2021039978A1 (ja) 2021-03-04

Family

ID=74685156

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/032651 WO2021039978A1 (ja) 2019-08-30 2020-08-28 画像合成システムおよび画像合成方法

Country Status (2)

Country Link
JP (1) JP7327792B2 (ja)
WO (1) WO2021039978A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015002423A (ja) * 2013-06-14 2015-01-05 ソニー株式会社 画像処理装置、サーバ及び記憶媒体
JP2017060158A (ja) * 2015-09-14 2017-03-23 パナソニックIpマネジメント株式会社 ウェアラブルカメラシステム及び人物報知方法
JP2018061214A (ja) * 2016-10-07 2018-04-12 パナソニックIpマネジメント株式会社 監視映像解析システム及び監視映像解析方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015002553A (ja) * 2013-06-18 2015-01-05 キヤノン株式会社 情報処理システムおよびその制御方法
JP2019040368A (ja) * 2017-08-24 2019-03-14 パナソニックIpマネジメント株式会社 画像検索支援装置及び画像検索支援方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015002423A (ja) * 2013-06-14 2015-01-05 ソニー株式会社 画像処理装置、サーバ及び記憶媒体
JP2017060158A (ja) * 2015-09-14 2017-03-23 パナソニックIpマネジメント株式会社 ウェアラブルカメラシステム及び人物報知方法
JP2018061214A (ja) * 2016-10-07 2018-04-12 パナソニックIpマネジメント株式会社 監視映像解析システム及び監視映像解析方法

Also Published As

Publication number Publication date
JP2021040200A (ja) 2021-03-11
JP7327792B2 (ja) 2023-08-16

Similar Documents

Publication Publication Date Title
JP6738692B2 (ja) ウェアラブルカメラシステム及び人物報知方法
US11588966B2 (en) Wearable camera, in-vehicle communication device, charging device, and communication system
WO2016103610A1 (ja) ウェアラブルカメラ
JP2017060029A (ja) ウェアラブルカメラシステム及び録画制御方法
JP6799779B2 (ja) 監視映像解析システム及び監視映像解析方法
JP7327783B2 (ja) ウェアラブルカメラ
US20160119663A1 (en) Authentication device, authentication method, and authentication system
JP6115874B2 (ja) ウェアラブルカメラシステム及び録画制御方法
JP5861073B1 (ja) ウェアラブルカメラ
US11323692B2 (en) Asset management system and asset management method
KR102628410B1 (ko) 영상획득장치 및 그의 구동 방법
WO2021039978A1 (ja) 画像合成システムおよび画像合成方法
JP2018037964A (ja) ウェアラブルカメラシステム及び通信制御方法
JP5849195B1 (ja) ウェアラブルカメラシステム及び撮像方法
CN104424672A (zh) 行车记录装置及其记录方法
JP2021027408A (ja) ウェアラブルカメラシステムおよび映像記録方法
JP2018037963A (ja) ウェアラブルカメラシステム及び録画制御方法
JP6115873B2 (ja) ウェアラブルカメラシステムおよび映像データ同期再生方法
CN110166732A (zh) 一种执法记录仪
CN106454210B (zh) 一种行车记录图像处理方法及系统
WO2016132679A1 (ja) ウェアラブルカメラシステム及び映像データ転送方法
JP6793516B2 (ja) 車両動画送信システムおよび車両動画送信方法
JP5861075B1 (ja) ウェアラブルカメラ
JP2018037965A (ja) ウェアラブルカメラシステム及び通信制御方法
JP7420375B2 (ja) ユーザ認証システムおよびユーザ認証方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20856479

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20856479

Country of ref document: EP

Kind code of ref document: A1