WO2020054114A1 - 映像記録制御装置、映像記録システム、映像記録方法、および映像記録制御プログラム - Google Patents

映像記録制御装置、映像記録システム、映像記録方法、および映像記録制御プログラム Download PDF

Info

Publication number
WO2020054114A1
WO2020054114A1 PCT/JP2019/015465 JP2019015465W WO2020054114A1 WO 2020054114 A1 WO2020054114 A1 WO 2020054114A1 JP 2019015465 W JP2019015465 W JP 2019015465W WO 2020054114 A1 WO2020054114 A1 WO 2020054114A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
event
guidance information
traffic guidance
traffic
Prior art date
Application number
PCT/JP2019/015465
Other languages
English (en)
French (fr)
Inventor
淳 ▲高▼橋
鈴木 孝尚
亨 土井垣
毅 榎田
正之 長山
Original Assignee
株式会社Jvcケンウッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Jvcケンウッド filed Critical 株式会社Jvcケンウッド
Priority to EP19859150.5A priority Critical patent/EP3754625A4/en
Priority to CN201980012243.8A priority patent/CN111684505B/zh
Publication of WO2020054114A1 publication Critical patent/WO2020054114A1/ja
Priority to US17/008,759 priority patent/US11321574B2/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09626Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages where the origin of the information is within the own vehicle, e.g. a local storage device, digital map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/052Detecting movement of traffic to be counted or controlled with provision for determining speed or overspeed
    • G08G1/054Detecting movement of traffic to be counted or controlled with provision for determining speed or overspeed photographing overspeeding vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/056Detecting movement of traffic to be counted or controlled with provision for distinguishing direction of travel
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09623Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection

Definitions

  • the present invention relates to a video recording control device, a video recording system, a video recording method, and a video recording control program.
  • Patent Document 1 A technology for detecting an event based on the driving situation of a host vehicle and recording event information is known (for example, Patent Document 1).
  • Patent Document 1 the signal information is acquired, the possibility of ignoring the signal is detected, and the event information is recorded when the possibility of ignoring the signal is high. Specifically, in the technology described in Patent Document 1, it is determined that an event has occurred when the own vehicle ignores a signal. Therefore, from the event record data, another vehicle can use a traffic signal to be followed by another vehicle. It is not possible to judge what kind of behavior has been performed on. For this reason, the technique of Patent Document 1 can prove the fault of the own vehicle, but may not prove the fault of the other vehicle. Further, Patent Literature 1 does not disclose a technique for providing information on an event that has occurred between other vehicles as a third party whose own vehicle is not a party to the event (accident).
  • an object of the present invention is to provide a video recording control device, a video recording system, a video recording method, and a video recording control program that can easily determine the behavior of another vehicle when an event such as an accident occurs.
  • the video recording control device includes a data acquisition unit that acquires video data captured by a camera that captures the surroundings of the vehicle, and traffic guidance information that acquires traffic guidance information that exists in a direction in which the camera is capturing.
  • An acquisition unit another vehicle information detection unit that recognizes another vehicle from the video data acquired by the data acquisition unit, and detects the recognized position and moving direction of the other vehicle, and the other vehicle information detection unit detects the other vehicle information.
  • a traffic guidance information correspondence determination unit that associates traffic guidance information to be followed by the other vehicle based on a position and a movement direction of the other vehicle, an event detection unit that detects an event related to the other vehicle, and the event detection unit. If an event is detected, the traffic to be followed by the other vehicle determined by the traffic guidance information correspondence determination unit is included in the video data of a period including at least the time of occurrence of the event.
  • Comprising a storage control unit that stores, including the inner information.
  • a video recording system includes the video recording control device according to the present invention, a camera that captures an image around the vehicle, and a storage unit that stores video data captured by the camera.
  • a video recording method includes a data acquisition step of acquiring video data captured by a camera that captures the surroundings of the vehicle, and a traffic guidance information acquisition that acquires traffic guidance information existing in a direction in which the camera is capturing. Step, another vehicle information detecting step of recognizing the other vehicle from the video data acquired in the data acquiring step, and detecting the recognized position and moving direction of the other vehicle, and the other vehicle information detecting step.
  • the motor includes a recording control step of storing said other vehicle, including the traffic guidance information to follow it is determined in the traffic guidance information corresponding determining step.
  • a video recording control program includes a data acquisition step of acquiring video data captured by a camera that captures the surroundings of the vehicle, and traffic guidance information that acquires traffic guidance information existing in a direction in which the camera is capturing.
  • the video data, to execute a recording control step of storing including the traffic guidance information to the other vehicle is determined to follow in the traffic guidance information corresponding determining step, to the computer.
  • FIG. 1 is a block diagram illustrating an example of a configuration of a video recording system according to the present embodiment.
  • FIG. 2 is a schematic diagram for explaining the own vehicle and another vehicle.
  • FIG. 3 is a diagram illustrating an example of a video before event detection of event record data based on event detection according to the present embodiment.
  • FIG. 4 is a diagram illustrating an example of an image of the event record data based on the event detection according to the present embodiment when the event is detected.
  • FIG. 5 is a diagram illustrating an example of a video before event detection of event record data based on event detection according to the present embodiment.
  • FIG. 6 is a diagram illustrating an example of a video at the time of event detection of event record data based on event detection according to the present embodiment.
  • FIG. 7 is a diagram illustrating an example of a video before event detection of event record data based on event detection according to the present embodiment.
  • FIG. 8 is a flowchart illustrating an example of a processing flow of the video recording control device
  • FIG. 1 is a block diagram illustrating an example of a configuration of a video recording system according to the present embodiment.
  • the video recording system 1 includes a camera 10, a microphone 20, a storage unit 30, an operation unit 40, a display unit 50, a sensor unit 60, and a GPS (Global Positioning System) receiving unit 70. , A TSPS (Traffic Signal Prediction System) receiving unit 80, and a video recording control device 100.
  • the video recording system 1 records an event such as an accident of another vehicle, for example, as a drive recorder mounted on the vehicle.
  • the video recording system 1 may be a single drive recorder, and may be realized, for example, as a function of a navigation device or another system mounted on a vehicle.
  • FIG. 2 is a schematic diagram for explaining the own vehicle and other vehicles.
  • FIG. 2 shows a state in which the own vehicle C1, the other vehicle C2, and the other vehicle C3 stop at an intersection or the like.
  • the video recording system 1 is mounted on, for example, the host vehicle C1.
  • the video recording system 1 captures a range including the other vehicle C2 and the other vehicle C3 that is stopped in front of the host vehicle C1.
  • the video recording system 1 records an event such as an accident occurring between other vehicles such as another vehicle C2 and another vehicle C3.
  • the video recording system 1 mounted on the own vehicle C1 captures an event that has occurred between the other vehicle C2 and the other vehicle C3 and records the captured event. And does not limit the present invention.
  • the camera 10 captures an image around the own vehicle C1.
  • the camera 10 captures, for example, an image in front (in the traveling direction) of the vehicle C1.
  • the camera 10 may capture a video around the own vehicle C1.
  • the camera 10 may add information such as a time stamp and latitude / longitude information that can specify the date and time of shooting and the location of the shot video data.
  • the camera 10 can be realized by, for example, a camera mounted on a drive recorder.
  • the camera 10 outputs the captured video data to the data acquisition unit 120.
  • the microphone 20 detects the sound around the vehicle C1.
  • the microphone 20 acquires, for example, a collision sound of a vehicle in a traffic accident or the like occurring around the own vehicle C1 or a voice of a person.
  • the microphone 20 may add time information such as a time stamp to the detected audio data so that the date and time of the detection can be specified.
  • the microphone 20 can be realized by a general microphone.
  • the microphone 20 outputs the acquired sound to the data acquisition unit 120.
  • the storage unit 30 stores a program for realizing each unit of the video recording control device 100, for example.
  • the storage unit 30 is realized by a semiconductor memory element such as a random access memory (RAM), a read only memory (ROM), or a flash memory, or a storage device such as a hard disk, a solid state drive, or an optical disk. Can be.
  • the storage unit 30 stores, for example, a vehicle recognition dictionary 33 and map information 34. When an event is detected, the storage unit 30 stores event record data 31 and corresponding traffic guidance information 32.
  • the storage unit 30 may be configured by a plurality of different memories and the like. Further, the map information 34 may use map information stored in a navigation device or another device.
  • the event record data 31 is video data including an event such as an accident occurring between other vehicles.
  • the event record data 31 is not limited to an accident, and may be a video of another event.
  • the corresponding traffic guide information 32 is traffic guide information to be followed by other vehicles included in the event record data 31, which will be specifically described later.
  • the traffic guidance information is, for example, information on a traffic light and a traffic sign.
  • the vehicle recognition dictionary 33 is dictionary data for the video recording control device 100 to recognize a vehicle from an object included in video data. That is, the video recording control device 100 detects the vehicle from the video data based on the vehicle recognition dictionary 33. Specifically, the video recording control device 100 detects a vehicle included in the video data by comparing the shape data included in the vehicle recognition dictionary 33 with the shape of an object included in the video data. Note that the method by which the video recording control device 100 detects another vehicle is not limited to this. The video recording control device 100 may detect another vehicle by using another known method.
  • the map information 34 is information including traffic guidance information corresponding to the road in addition to the information on the road and the facility. For example, it includes information such as the presence or absence of a traffic light for each traveling direction at an intersection or the like, the presence or absence of a stop sign, and speed limit information.
  • the operation unit 40 accepts various operations on the video recording control device 100 from the user.
  • the operation from the user includes, for example, an operation for reproducing the event record data 31 stored in the storage unit 30.
  • the operation unit 40 can be realized by, for example, physical buttons or a touch panel provided on the display unit 50.
  • the display unit 50 displays various images.
  • the display unit 50 displays, for example, the event record data 31 stored in the storage unit 30.
  • the display unit 50 is a display including a liquid crystal display (LCD: Liquid Crystal Display) or an organic EL (Organic Electro-Luminescence) display, for example.
  • the display unit 50 is not limited to these.
  • the sensor unit 60 detects various information of the own vehicle C1.
  • the sensor unit 60 is, for example, an acceleration sensor, and detects the acceleration applied to the host vehicle C1.
  • the sensor unit 60 is, for example, a gyro sensor and detects information on the attitude of the host vehicle C1.
  • the sensor unit 60 outputs a detection result to the event detection unit 128.
  • the GPS receiving unit 70 includes a GPS receiving circuit, a GPS receiving antenna, and the like, and receives a GPS signal.
  • the GPS receiver 70 outputs the received GPS signal to the current position calculator 129.
  • the TSPS receiving section 80 acquires information on a traffic signal existing around own vehicle C1.
  • the TSPS receiving unit 80 acquires information on a traffic signal existing around the host vehicle C1, for example, from the signal information utilization driving support system.
  • the TSPS receiving unit 80 outputs the information on the acquired traffic signal to the traffic guidance information acquiring unit 122.
  • the video recording control device 100 includes a data acquisition unit 120, a buffer memory 121, a traffic guidance information acquisition unit 122, a storage control unit 123, a reproduction control unit 124, another vehicle information detection unit 125, an operation control unit 126 , A display control unit 127, an event detection unit 128, a current position calculation unit 129, a traffic guidance information correspondence determination unit 130, and a video data processing unit 131.
  • Each unit included in the video recording control device 100 can be realized by an electronic circuit including a CPU (Central Processing Unit), for example. Also, the units included in the video recording control device 100 are connected to each other via a bus 110.
  • a CPU Central Processing Unit
  • the data acquisition unit 120 acquires various data from outside the video recording control device 100.
  • the data acquisition unit 120 acquires video data captured by the camera 10 from the camera 10, for example.
  • the data acquisition unit 120 acquires, for example, audio data detected by the microphone 20 from the microphone 20.
  • the data acquired by the data acquisition unit 120 is not limited to these.
  • the buffer memory 121 temporarily stores various data.
  • the buffer memory 121 temporarily stores, for example, video data captured by the camera 10.
  • the buffer memory 121 temporarily stores, for example, audio data detected by the microphone 20.
  • the data stored in the buffer memory 121 is not limited to these.
  • the traffic guidance information acquisition unit 122 acquires the traffic guidance information existing around the own vehicle C1 from the map information 34 based on the current position calculated by the current position calculation unit 129.
  • the traffic guidance information acquisition unit 122 acquires the traffic guidance information existing in the traveling direction of the host vehicle C1, in other words, the direction captured by the camera 10.
  • the traffic guidance information acquisition unit 122 acquires information on traffic signals existing around the vehicle C1 from the TSPS reception unit 80.
  • the traffic guidance information acquisition unit 122 acquires, from the map information 34, information on traffic signs existing around the vehicle C1.
  • the traffic guidance information acquisition unit 122 may acquire at least the traffic guidance information that exists in the direction in which the camera 10 captures the image. For example, in FIG.
  • the shooting directions of the camera 10 mounted on the vehicle C1 include a first traffic guide 210, a second traffic guide 220, and a third traffic guide 230.
  • the first traffic guide 210 is a traffic guide that the vehicle C1 should follow.
  • the second traffic guide 220 is a traffic guide that the other vehicle C2 should follow.
  • the third traffic guide 230 is a traffic guide that the other vehicle C3 should follow.
  • the first to third traffic guides 210 to 230 mean, for example, traffic signs or traffic lights to be followed by the corresponding vehicle.
  • the traffic guidance information acquisition unit 122 acquires information on the third traffic guidance 230 from the first traffic guidance 210.
  • the traffic guide information acquisition unit 122 acquires, for example, lighting information on the lighting color of each traffic light.
  • the traffic guidance information acquisition unit 122 acquires information on the lighting color of each traffic light, for example, based on the TSPS signal received by the TSPS reception unit 80.
  • the traffic guidance information acquisition unit 122 may acquire information on the lighting color of each traffic light based on video data captured by the camera 10.
  • the traffic guidance information acquisition unit 122 acquires information on the lighting color of the traffic light at that time from the signal information utilization driving support system based on the video data captured by the camera 10 and the information on the time added to the video data. May be.
  • the traffic guide information acquiring unit 122 acquires information on each traffic sign from the map information 34. Specifically, the traffic guidance information acquisition unit 122 acquires, for example, information about a temporary stop, a priority road, one-way traffic, and a speed limit as information about a traffic sign. The traffic guidance information acquisition unit 122 acquires, for example, information on each traffic sign based on the GPS signal received by the GPS reception unit 70. The information on the traffic sign acquired by the traffic guidance information acquisition unit 122 is not limited to the above.
  • the storage control unit 123 stores, for example, video data captured by the camera 10 in the buffer memory 121.
  • the storage control unit 123 stores, for example, audio data detected by the microphone 20 in the buffer memory 121.
  • the storage control unit 123 stores, for example, video data including at least the event occurrence time detected by the event detection unit 128 in the storage unit 30 as the event record data 31.
  • the storage control unit 123 reads, for example, the video data before the event occurrence from the buffer memory 121 and stores the video data including the state at the time of the event occurrence from before the event occurrence in the storage unit 30 as the event recording data 31. I do.
  • the storage control unit 123 stores the video data captured by the camera 10 in the storage unit 30 via the buffer memory 121 in a state capable of being overwritten, and stores the event record data 31 when the event detection unit 128 detects an event. You may make it memorize
  • the storage control unit 123 may store the stored event record data 31 as data that cannot be tampered with, or may store the data as data for which deletion for a certain period is prohibited.
  • the storage control unit 123 determines whether the other vehicle determined by the traffic guidance information correspondence determination unit 130 includes video data of a period including at least the time of occurrence of the event.
  • the information including the traffic guidance information to be followed is stored in the storage unit 30.
  • the storage control unit 123 stores the traffic guidance information to be followed by the other vehicle in the storage unit 30 as the corresponding traffic guidance information 32, which is another video data whose positional relationship matches the video data of the period including at least the time of occurrence of the event.
  • the storage control unit 123 stores the video data of the period including at least the occurrence time of the event and the corresponding traffic guidance information 32 such that only the video data of the period including at least the occurrence time of the event can be reproduced. 30.
  • the storage control unit 123 stores the video data in the period including at least the time of occurrence of the event in the storage unit 30 so that the video data including the corresponding traffic guidance information 32 that is the traffic guidance information to be followed by other vehicles can be reproduced.
  • the storage control unit 123 stores the event record data 31 and the corresponding traffic guidance information 32 in the storage unit 30 independently, for example.
  • the reproduction control unit 124 reproduces the event record data 31 according to an instruction from the operation control unit 126, for example.
  • the reproduction control unit 124 reproduces the event record data 31 independently of the corresponding traffic guidance information 32, for example.
  • the reproduction control unit 124 reproduces the event record data 31 by superimposing the corresponding traffic guidance information 32, for example.
  • the reproduction control unit 124 outputs, for example, reproduction data of the event record data 31 to the display control unit 127.
  • the reproduction control unit 124 outputs, for example, reproduction data in which the corresponding traffic guidance information 32 is superimposed on the event record data 31 to the display control unit 127.
  • the other vehicle information detection unit 125 recognizes, for example, another vehicle included in the video data acquired from the camera 10 by the data acquisition unit 120. Specifically, the other vehicle information detection unit 125 recognizes another vehicle included in the video data acquired by the data acquisition unit 120 from the camera 10 based on, for example, the vehicle recognition dictionary 33.
  • the other vehicle information detection unit 125 is not limited to the vehicle recognition dictionary 33, and may detect another vehicle by another known method.
  • the other vehicle information detecting unit 125 detects, for example, the recognized position and moving direction of the other vehicle. Further, the other vehicle information detection unit 125 further detects the recognized movement transition of the other vehicle.
  • the other vehicle information detection unit 125 outputs a detection result to the event detection unit 128, for example.
  • the other vehicle information detection unit 125 may perform recognition of the other vehicle on the event record data.
  • the operation control unit 126 receives, for example, an operation signal related to the reproduction of the event record data 31 received by the operation unit 40 from the user.
  • the operation control unit 126 causes the reproduction control unit 124 to reproduce the event record data 31 based on, for example, an operation signal. Further, the operation control unit 126 receives an operation signal regarding the event recording instruction, which the operation unit 40 has received from the user.
  • the storage control unit 123 sets the time point when the operation signal related to the event recording instruction is received as the event occurrence time point, and stores the video data including the event occurrence time point into the event recording data 31 is stored in the storage unit 30.
  • the display control unit 127 displays an image on the display unit 50, for example.
  • the display control unit 127 displays the event record data 31 on the display unit 50 under the control of the reproduction control unit 124, for example.
  • the display control unit 127 displays, on the display unit 50, an image in which the corresponding traffic guidance information 32 is superimposed on the event record data 31 under the control of the reproduction control unit 124, for example.
  • the event detection unit 128 detects, for example, an event related to another vehicle.
  • the event detection unit 128 detects the event as an event, for example, when another vehicle does not follow traffic guidance to be followed.
  • the event detection unit 128 detects, for example, a traffic accident occurring between other vehicles as an event.
  • the event detection unit 128 detects an event related to another vehicle, for example, based on the movement transition of the other vehicle recognized by the other vehicle information detection unit 125.
  • the event detection unit 128 detects an event related to another vehicle based on audio data detected by the microphone 20 in addition to the movement transition of the other vehicle recognized by the other vehicle information detection unit 125, for example.
  • the event detection unit 128 detects an event related to another vehicle based on, for example, a shout or collision sound of a person detected by the microphone 20.
  • the event detection unit 128 associates the other vehicle and the own vehicle based on, for example, the acceleration applied to the own vehicle detected by the sensor unit 60, in addition to the movement transition of the other vehicle recognized by the other vehicle information detection unit 125. Detect events.
  • the event detection unit 128 detects an event related to another vehicle and the own vehicle, for example, when detecting a negative acceleration due to a sudden brake or the like detected by the sensor unit 60.
  • the transition of the other vehicle detected as an event is, for example, a case where the other vehicle recognized by the other vehicle information detecting unit 125 suddenly stops while moving.
  • the current position calculation unit 129 acquires a GPS signal from the GPS reception unit 70.
  • the current position calculation unit 129 calculates the current position of the own vehicle based on, for example, a GPS signal.
  • the traffic guidance information correspondence determination unit 130 may, for example, determine the traffic guidance information to be followed by the other vehicle acquired by the traffic guidance information acquisition unit 122 based on the position and the moving direction of the other vehicle detected by the other vehicle information detection unit 125. , Correspond to other vehicles. Specifically, the traffic guidance information correspondence determination unit 130 visually associates, for example, traffic guidance information to be followed by another vehicle with another vehicle. The traffic guidance information correspondence determination unit 130 outputs the associated traffic guidance information to the storage control unit 123.
  • the video data processing unit 131 performs various processes on video data captured by the camera 10, for example.
  • the video data processing unit 131 superimposes, for example, traffic guidance information stored as another video data whose positional relationship matches the video data of the period including at least the time when the event occurred, on the video data at the time when the event occurred.
  • the event record data 300 shown in FIG. 3 is video data before the event detection of the other vehicle C2 and the other vehicle C3 in which the own vehicle C1 is located ahead in FIG.
  • the event record data 300 includes a first traffic light 310, a second traffic light 320, and a third traffic light 330 as traffic guidance information.
  • the traffic light including at least the first traffic light 310, the second traffic light 320, and the third traffic light 330 exists in the traveling direction of the own vehicle C1 and in the shooting direction of the camera 10 mounted on the own vehicle C1. Can be determined from the map information 34.
  • the traffic guidance information acquisition unit 122 acquires the lighting information of the third traffic light 330 from the first traffic light 310.
  • the traffic guidance information acquisition unit 122 has acquired that the lighting color of the first traffic light 310 and the second traffic light 320 is blue and the lighting color of the third traffic light 330 is red.
  • the other vehicle is recognized by the recognition process of the other vehicle information detection unit 125, and the movement transition of the other vehicle is detected based on the position of the other vehicle between frames constituting the video data. 3 and 4, other vehicles C2 and C3 are detected as other vehicles.
  • the traffic guidance information correspondence determination unit 130 associates the lighting information of the second traffic light 320 with the other vehicle C2. In the case of the example illustrated in FIG. 3, the traffic guidance information correspondence determination unit 130 associates the lighting information of the second traffic light 320 with another vehicle C2 at the time when the video illustrated in FIG. 3 is captured. The traffic guidance information correspondence determination unit 130 associates the lighting information of the third traffic light 330 with the other vehicle C3. In the case of the example illustrated in FIG. 3, the traffic guidance information correspondence determination unit 130 associates the lighting information of the third traffic light 330 with red with the other vehicle C3 at the time when the video illustrated in FIG. 3 is captured. The traffic guidance information associated with each other vehicle is stored in the storage unit 30 as the corresponding traffic guidance information 32 by the storage control unit 123.
  • the display control unit 127 superimposes and displays the balloon P1 as the corresponding traffic guidance information 32, for example, at a position corresponding to the other vehicle C2 in the event record data 300.
  • the display control unit 127 displays, for example, the balloon P1 in blue in association with the lighting information of the second traffic light 320.
  • the display control unit 127 may display, for example, a sentence such as “the lighting color of the second traffic light 320 is blue” in the content of the balloon P1.
  • the display control unit 127 displays the balloon P2 as the corresponding traffic guidance information 32 in a position corresponding to the other vehicle C3 in the event record data 300, for example. In this case, the display control unit 127 displays the balloon P2 in red, for example, in correspondence with the lighting information of the third traffic light 330.
  • the display control unit 127 may display, for example, a sentence such as “the lighting color of the third traffic light 330 is red” in the content of the balloon P2.
  • the event record data 400 shown in FIG. 4 is video data at the time of detecting an event in which the own vehicle C1 has photographed the other vehicle C2 and the other vehicle C3 located ahead in FIG.
  • the balloon P1 When an accident occurs between the other vehicle C2 and the other vehicle C3, the balloon P1 is superimposed on the event record data 400 at a position corresponding to the other vehicle C2, and the balloon P2 is positioned at a position corresponding to the other vehicle C3.
  • the event record data 400 indicates the traffic guidance information that the other vehicle C2 should follow when the event occurs, and the traffic guidance information that the other vehicle C3 should follow when the event occurs.
  • FIG. 4 shows that the other vehicle C3 did not follow the display of the third traffic light 330.
  • the event detection unit 128 detects, as an event, that the other vehicle C3 has ignored the third traffic signal 330 and an accident has occurred with the other vehicle C2.
  • the storage control unit 123 records an image of a predetermined period (for example, 5 seconds) including the time when the event detection unit 128 detects the event, so that, for example, the other vehicle C3 displays the third traffic light 330. It is possible to ignore the accident and record the accident occurring with the other vehicle C2. For example, the storage control unit 123 may record an image from when the other vehicle C3 does not follow the display of the third traffic light 330 to when an accident occurs with the other vehicle C2. The storage control unit 123 may read the video before the event occurs from the buffer memory 121.
  • a predetermined period for example, 5 seconds
  • the event detection unit 128 detects an accident between other vehicles as an event, but this is merely an example and does not limit the present invention.
  • An accident between another vehicle and an object such as a person may be detected as an event.
  • the traffic guide information correspondence determination unit 130 may associate the person with traffic guide information to be followed by the person.
  • the event record data in the present embodiment is superimposed with lighting information of a traffic signal that each other vehicle should follow when an event occurs.
  • the event record data it is possible to easily determine the behavior of another vehicle when an event such as an accident occurs.
  • FIGS. 3 and 4 show two other vehicles as another vehicle, the other vehicle C2 and the other vehicle C3, but this is merely an example and does not limit the present invention. Absent.
  • the present invention can easily determine the behavior of each other vehicle even in the event of a single accident involving only one other vehicle or an event involving three or more other vehicles.
  • FIGS. 3 and 4 traffic guidance information to be followed by other vehicles is shown as a balloon, but this is merely an example and does not limit the present invention.
  • FIG. 5 is a diagram illustrating an example of a video before event detection of event record data based on event detection according to the present embodiment, which is different from FIG.
  • FIG. 6 is a diagram illustrating an example of an image of the event record data based on the event detection according to the present embodiment when the event is detected, which is different from FIG.
  • the display control unit 127 displays the area L1 as the corresponding traffic guidance information 32, for example, on the lane in which the other vehicle C2 travels in the event record data 300A.
  • the display control unit 127 displays, for example, the area L1 in blue corresponding to the lighting information of the second traffic light 320.
  • the display control unit 127 displays the area L2 as the corresponding traffic guidance information 32 on the lane in which the other vehicle C3 travels in the event record data 300A, for example. In this case, for example, the display control unit 127 displays the area L2 in red in accordance with the lighting information of the third traffic light 330.
  • the event record data 400A when an accident occurs between the other vehicle C2 and the other vehicle C3, the area L1 is superimposed on the lane in which the other vehicle C2 travels, and the area L2 is overlapped with the lane in which the other vehicle C3 travels. Are superimposed.
  • the event record data 400A indicates the traffic guidance information that the other vehicle C2 should follow when the event occurs, and the traffic guidance information that the other vehicle C3 should follow when the event occurs.
  • the lighting information of the traffic signal to be followed by each other vehicle is superimposed on the lane in which each other vehicle travels.
  • the event record data it is possible to easily determine the behavior of another vehicle when an event such as an accident occurs.
  • the traffic guide information is described as a traffic light, but this is merely an example and does not limit the present invention.
  • the traffic guidance information may be a traffic sign.
  • FIG. 7 is a diagram illustrating an example of a video before event detection in the event record data based on the event detection according to the present embodiment when the traffic guidance information is a traffic sign. Note that the processing at the time of event detection is the same as the processing in FIGS.
  • the event record data 300B shown in FIG. 7 includes a first traffic sign 340, a second traffic sign 350, and a third traffic sign 360.
  • the first traffic sign 340 is a traffic sign that the vehicle C1 should follow.
  • the second traffic sign 350 is a traffic sign that the other vehicle C2 should follow.
  • the third traffic sign is a traffic sign that the other vehicle C3 should follow.
  • the display control unit 127 superimposes and displays the balloon P1 as the corresponding traffic guidance information 32 at a position corresponding to the other vehicle C2 in the event record data 300B.
  • the display control unit 127 displays, for example, a traffic sign indicating “priority road” in the content of the balloon P1.
  • the display control unit 127 may display a sentence such as “the second traffic sign 350 indicates a priority road” in the content of the balloon P1.
  • the display control unit 127 superimposes and displays the balloon P2 as the corresponding traffic guidance information 32 at a position corresponding to the other vehicle C3 in the event record data 300B.
  • the display control unit 127 displays, for example, a traffic sign indicating “pause” in the content of the balloon P2.
  • the display control unit 127 may display a sentence such as “the third traffic sign 360 indicates a pause” in the content of the balloon P2.
  • the traffic sign is described as a priority road and a temporary stop, but this is merely an example and does not limit the present invention.
  • the traffic sign may be a traffic sign indicating a speed limit.
  • a traffic sign of a speed limit may be displayed on the content of the balloon, or a sentence such as “the speed limit is XX km” may be displayed.
  • the traffic guidance information is a traffic sign, the process after detecting the event will not be described because the traffic guidance information is the same as that of the traffic light.
  • the display content of the traffic sign to be followed by each other vehicle is superimposed on the lane in which each other vehicle travels.
  • the event record data it is possible to easily determine the behavior of another vehicle when an event such as an accident occurs.
  • FIG. 8 is a flowchart illustrating an example of a processing flow of the video recording control device 100 according to the present embodiment.
  • the video recording control device 100 starts recording video data captured by the camera 10 (step S101). Specifically, the video recording control device 100 obtains video data from the camera 10 by the data obtaining unit 120 and stores the video data in the buffer memory 121. Then, the video recording control device 100 proceeds to step S102.
  • step S102 If it is close to the traffic guide information (“Yes” in step S102), the video recording control device 100 proceeds to step S103 and acquires the traffic guide information. Specifically, the video recording control device 100 acquires traffic guidance information by the traffic guidance information acquisition unit 122. On the other hand, when it is not close to the traffic guidance information (“No” in step S102), the video recording control device 100 proceeds to step S109.
  • step S104 If the other vehicle is detected ("Yes" in step S104), the video recording control device 100 proceeds to step S105, and associates the traffic guidance information with the other vehicle based on the position and the moving direction of the other vehicle (step S105). Specifically, the video recording control device 100 associates the traffic guidance information with another vehicle by the traffic guidance information correspondence determination unit 130. Then, the video recording control device 100 proceeds to step S106. On the other hand, when no other vehicle is detected (“No” in step S104), the video recording control device 100 proceeds to step S109.
  • step S106 the video recording control device 100 detects an event that has occurred in another vehicle. Specifically, the video recording control device 100 detects an event that has occurred in another vehicle by the event detection unit 128.
  • step S106 If the event is detected (“Yes” in step S106), the video recording control device 100 proceeds to step S107. Then, the video recording control device 100 stores the video data before and after the event detection and the traffic guidance information associated with the detected other vehicle in the storage unit 30 as the event recording data (Step S107). Specifically, the video recording control device 100 stores the event recording data in the storage unit 30 by the storage control unit 123. Then, the video recording control device 100 proceeds to step S108. On the other hand, if no event has been detected (“No” in step S106), the process proceeds to step S108.
  • step S108 If the recording is not to be ended (“No” in step S108), the video recording control device 100 returns to step S102 and continues the processing in FIG. On the other hand, when the recording ends (“Yes” in step S108), the video recording control device 100 ends the processing in FIG.
  • step S109 the video recording control device 100 detects an event that has occurred in another vehicle. Specifically, the video recording control device 100 detects an event that has occurred in another vehicle by the event detection unit 128.
  • step S109 When an event is detected (“Yes” in step S109), the video recording control device 100 stores video data before and after the event is detected in the storage unit 30 as event recording data. Specifically, the video recording control device 100 stores the event recording data in the storage unit 30 by the storage control unit 123. Then, the video recording control device 100 proceeds to step S108, and executes the above-described processing. On the other hand, when no event is detected (“No” in step S109), the video recording control device 100 proceeds to step S108 and executes the above-described processing.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Software Systems (AREA)
  • Traffic Control Systems (AREA)
  • Time Recorders, Dirve Recorders, Access Control (AREA)

Abstract

映像記録制御装置(100)は、自車両の周囲を撮影するカメラ(10)が撮影した映像データを取得するデータ取得部(120)と、カメラ(10)が撮影している方向に存在する交通案内情報を取得する交通案内情報取得部(122)と、データ取得部(120)が取得した映像データから他車両を認識し、認識した他車両の位置および移動方向を検出する他車両情報検出部(125)と、他車両情報検出部(125)が検出した他車両の位置および移動方向に基づいて、他車両が従うべき交通案内情報を対応付ける交通案内情報対応判断部(130)と、他車両が関係するイベントを検出するイベント検出部(128)と、イベント検出部(128)がイベントを検出した場合、イベントの発生時点を少なくとも含む期間の映像データに、交通案内情報対応判断部(130)が判断した他車両が従うべき交通案内情報を含めて保存する記憶制御部(123)と、を備える。

Description

映像記録制御装置、映像記録システム、映像記録方法、および映像記録制御プログラム
 本発明は、映像記録制御装置、映像記録システム、映像記録方法、および映像記録制御プログラムに関する。
 自車両の運転状況に基づいてイベントを検出し、イベント情報を記録する技術が知られている(例えば、特許文献1)。
特開2012-69051号公報
 特許文献1では、信号機情報を取得して信号無視の可能性を検出し、信号無視の可能性が高い場合にイベント情報を記録している。具体的には、特許文献1に記載の技術は、自車両が信号無視を行った場合にイベント発生と判断されるため、イベント記録データからは、他の車両が、他の車両が従うべき信号機に対してどのような挙動を行ったのか判断ができない。このため、特許文献1の技術は、自車両の過失を立証することはできるが、他車両の過失を立証できない可能性がある。また、特許文献1には、自車両がイベント(事故)の当事者ではない第三者として、他車両間で発生したイベントに対する情報を提供する技術について開示されていない。
 そこで、本発明は、事故などのイベント発生時の他車両の挙動を容易に判別することのできる、映像記録制御装置、映像記録システム、映像記録方法、および映像記録制御プログラムを提供することを課題とする。
 本発明の映像記録制御装置は、自車両の周囲を撮影するカメラが撮影した映像データを取得するデータ取得部と、前記カメラが撮影している方向に存在する交通案内情報を取得する交通案内情報取得部と、前記データ取得部が取得した映像データから他車両を認識し、認識した前記他車両の位置および移動方向を検出する他車両情報検出部と、前記他車両情報検出部が検出した前記他車両の位置および移動方向に基づいて、前記他車両が従うべき交通案内情報を対応付ける交通案内情報対応判断部と、前記他車両が関係するイベントを検出するイベント検出部と、前記イベント検出部がイベントを検出した場合、イベントの発生時点を少なくとも含む期間の映像データに、前記交通案内情報対応判断部が判断した前記他車両が従うべき交通案内情報を含めて保存する記憶制御部と、を備える。
 本発明の映像記録システムは、本発明の映像記録制御装置と、自車両の周囲を撮影するカメラと、前記カメラが撮影した映像データを保存する記憶部と、を備える。
 本発明の映像記録方法は、自車両の周囲を撮影するカメラが撮影した映像データを取得するデータ取得ステップと、前記カメラが撮影している方向に存在する交通案内情報を取得する交通案内情報取得ステップと、前記データ取得ステップにおいて取得された映像データから他車両を認識し、認識した前記他車両の位置および移動方向を検出する他車両情報検出ステップと、前記他車両情報検出ステップにおいて検出された前記他車両の位置および移動方向に基づいて、前記他車両が従うべき交通案内情報を対応付ける交通案内情報対応判断ステップと、前記他車両が関係するイベントを検出するイベント検出ステップと、前記イベント検出ステップにおいてイベントが検出された場合、イベントの発生時点を少なくとも含む期間の映像データに、前記交通案内情報対応判断ステップにおいて判断された前記他車両が従うべき交通案内情報を含めて保存する記録制御ステップと、を含む。
 本発明の映像記録制御プログラムは、自車両の周囲を撮影するカメラが撮影した映像データを取得するデータ取得ステップと、前記カメラが撮影している方向に存在する交通案内情報を取得する交通案内情報取得ステップと、前記データ取得ステップにおいて取得された映像データから他車両を認識し、認識した前記他車両の位置および移動方向を検出する他車両情報検出ステップと、前記他車両情報検出ステップにおいて検出された前記他車両の位置および移動方向に基づいて、前記他車両が従うべき交通案内情報を対応付ける交通案内情報対応判断ステップと、前記他車両が関係するイベントを検出するイベント検出ステップと、前記イベント検出ステップにおいてイベントが検出された場合、イベントの発生時点を少なくとも含む期間の映像データに、前記交通案内情報対応判断ステップにおいて判断された前記他車両が従うべき交通案内情報を含めて保存する記録制御ステップと、をコンピュータに実行させる。
 本発明によれば、事故などのイベント発生時の他車両の挙動を容易に判別することができる。
図1は、本実施形態に係る映像記録システムの構成の一例を示すブロック図である。 図2は、自車両と、他車両とを説明するための模式図である。 図3は、本実施形態に係るイベント検出に基づくイベント記録データの、イベント検出前の映像の一例を示す図である。 図4は、本実施形態に係るイベント検出に基づくイベント記録データの、イベント検出時の映像の一例を示す図である。 図5は、本実施形態に係るイベント検出に基づくイベント記録データの、イベント検出前の映像の一例を示す図である。 図6は、本実施形態に係るイベント検出に基づくイベント記録データの、イベント検出時の映像の一例を示す図である。 図7は、本実施形態に係るイベント検出に基づくイベント記録データの、イベント検出前の映像の一例を示す図である。 図8は、本実施形態に係る映像記録制御装置の処理の流れの一例を示すフローチャートである。
 以下、添付図面を参照して、本発明に係る実施形態を詳細に説明する。なお、この実施形態により本発明が限定されるものではなく、また、実施形態が複数ある場合には、各実施形態を組み合わせて構成するものも含む。
 [実施形態]
 図1を用いて、本実施形態に係る映像記録システムの構成について説明する。図1は、本実施形態に係る映像記録システムの構成の一例を示すブロック図である。
 図1に示すように、映像記録システム1は、カメラ10と、マイクロフォン20と、記憶部30と、操作部40と、表示部50と、センサ部60と、GPS(Global Positioning System)受信部70と、TSPS(Traffic Signal Prediction System)受信部80と、映像記録制御装置100と、を備える。映像記録システム1は、例えば、車両に搭載されるドライブレコーダとして、他車両の事故などのイベントを記録する。映像記録システム1は、単体のドライブレコーダであってもよく、例えば、ナビゲーション装置や車両に装着されている他のシステムの機能として実現されてもよい。
 図2は、自車両と、他車両とを説明するための模式図である。図2は、交差点などで、自車両C1と、他車両C2と、他車両C3とが交差点で停車している様子を示している。映像記録システム1は、例えば、自車両C1に搭載されている。この場合、映像記録システム1は、自車両C1の前方に停車している、他車両C2と、他車両C3とを含む範囲を撮影する。そして、映像記録システム1は、他車両C2と、他車両C3など、他車両間で発生する事故などのイベントを記録する。以下では、自車両C1に搭載された映像記録システム1が、他車両C2と、他車両C3との間で発生したイベントを撮影し、撮影したイベントを記録するものとして説明するが、これは例示であり、本発明を限定するものではない。
 カメラ10は、自車両C1の周囲の映像を撮影する。カメラ10は、例えば、自車両C1の前方(進行方向)の映像を撮影する。カメラ10は、自車両C1の周囲の映像を撮影してもよい。カメラ10は、撮影した映像データに撮影した日時および場所を特定できるような、タイムスタンプや緯度経度情報などの情報を付加してもよい。カメラ10は、例えば、ドライブレコーダに搭載されたカメラで実現することができる。カメラ10は、撮影した映像データをデータ取得部120に出力する。
 マイクロフォン20は、自車両C1の周囲の音声を検出する。マイクロフォン20は、例えば、自車両C1の周囲で発生した交通事故などにおける車両の衝突音や、人物の音声を取得する。マイクロフォン20は、検出した音声データに検出した日時を特定できるような、タイムスタンプなどの時間に関する情報を付加してもよい。マイクロフォン20は、一般的なマイクロフォンで実現することができる。マイクロフォン20は、取得した音声をデータ取得部120に出力する。
 記憶部30は、例えば、映像記録制御装置100の各部を実現させるためのプログラムを記憶している。記憶部30は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、または、ハードディスク、ソリッドステートドライブ、光ディスクなどの記憶装置で実現することができる。記憶部30は、例えば、車両認識辞書33と、地図情報34とを記憶しており、イベントが検出されたときは、イベント記録データ31と、対応交通案内情報32とを記憶する。記憶部30は、複数の異なるメモリ等で構成されてもよい。また、地図情報34は、ナビゲーション装置や他の装置に記憶されている地図情報を利用してもよい。
 イベント記録データ31は、他車両間で発生した事故などのイベントを含む映像データである。イベント記録データ31は、事故に限定されず、その他のイベントの映像であってもよい。
 対応交通案内情報32は、具体的には後述するが、イベント記録データ31に含まれる他車両が従うべき交通案内情報である。交通案内情報は、例えば、信号機や、交通標識に関する情報である。
 車両認識辞書33は、映像記録制御装置100が映像データに含まれている物体から車両を認識するための辞書データである。すなわち、映像記録制御装置100は、車両認識辞書33に基づいて、映像データから車両を検出する。具体的には、映像記録制御装置100は、車両認識辞書33に含まれる形状データと、映像データに含まれる物体の形状とを比較することで、映像データに含まれる車両を検出する。なお、映像記録制御装置100が他車両を検出する方法は、これに限定されない。映像記録制御装置100は、その他の周知の方法を用いて、他車両を検出してもよい。
 地図情報34は、道路や施設に関する情報に加えて、道路に対応する交通案内情報を含む情報である。例えば、交差点等における進行方向毎の信号機の有無、一時停止標識の有無や、制限速度情報などの情報を含む。
 操作部40は、映像記録制御装置100に対するユーザからの各種の操作を受け付ける。ユーザからの操作には、例えば、記憶部30が記憶しているイベント記録データ31を再生するための操作が含まれる。操作部40は、例えば、物理的なボタンや、表示部50に設けられたタッチパネルで実現することができる。
 表示部50は、各種の映像を表示する。表示部50は、例えば、記憶部30が記憶しているイベント記録データ31を表示する。表示部50は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)または有機EL(Organic Electro-Luminescence)ディスプレイなどを含むディスプレイである。なお、表示部50は、これらに限定されるものではない。
 センサ部60は、自車両C1の各種の情報を検出する。センサ部60は、例えば、加速度センサであり、自車両C1に加わった加速度を検出する。センサ部60は、例えば、ジャイロセンサであり、自車両C1の姿勢に関する情報を検出する。センサ部60は、検出結果をイベント検出部128に出力する。
 GPS受信部70は、GPS受信回路、GPS受信アンテナなどから構成されており、GPS信号を受信する。GPS受信部70は、受信したGPS信号を現在位置算出部129に出力する。
 TSPS受信部80は、自車両C1の周囲に存在する信号機に関する情報を取得する。TSPS受信部80は、例えば、信号情報活用運転支援システムから自車両C1の周囲に存在する信号機に関する情報を取得する。TSPS受信部80は、取得した信号機に関する情報を交通案内情報取得部122に出力する。
 映像記録制御装置100は、データ取得部120と、バッファメモリ121と、交通案内情報取得部122と、記憶制御部123と、再生制御部124と、他車両情報検出部125と、操作制御部126と、表示制御部127と、イベント検出部128と、現在位置算出部129と、交通案内情報対応判断部130と、映像データ処理部131とを備える。映像記録制御装置100が備える各部は、例えば、CPU(Central Processing Unit)を含む電子的な回路で実現することができる。また、映像記録制御装置100が備える各部は、バス110を介して互いに接続されている。
 データ取得部120は、映像記録制御装置100の外部から各種のデータを取得する。データ取得部120は、例えば、カメラ10からカメラ10が撮影した映像データを取得する。データ取得部120は、例えば、マイクロフォン20からマイクロフォン20が検出した音声データを取得する。なお、データ取得部120が取得するデータはこれらに限定されるものではない。
 バッファメモリ121は、各種のデータを一時的に記憶する。バッファメモリ121は、例えば、カメラ10が撮影した映像データを一時的に記憶する。バッファメモリ121は、例えば、マイクロフォン20が検出した音声データを一時的に記憶する。なお、バッファメモリ121が記憶するデータはこれらに限定されるものではない。
 交通案内情報取得部122は、現在位置算出部129が算出した現在位置に基づき、地図情報34から、自車両C1の周囲に存在している交通案内情報を取得する。カメラ10が自車両C1の進行方向を撮影する場合、交通案内情報取得部122は、自車両C1の進行方向、言い換えるとカメラ10が撮影した方向に存在している交通案内情報を取得する。交通案内情報取得部122は、TSPS受信部80から、自車両C1の周囲に存在する信号機に関する情報を取得する。また、交通案内情報取得部122は、地図情報34から、自車両C1の周囲に存在する交通標識に関する情報を取得する。交通案内情報取得部122は、少なくともカメラ10が撮影した方向に存在している交通案内情報を取得すればよい。例えば、図2においては、自車両C1に搭載されたカメラ10の撮影方向には、第一交通案内210と、第二交通案内220と、第三交通案内230とが含まれている。ここで、第一交通案内210は、自車両C1が従うべき交通案内である。第二交通案内220は、他車両C2が従うべき交通案内である。第三交通案内230は、他車両C3が従うべき交通案内である。第一交通案内210から第三交通案内230は、例えば、対応する車両が従うべき交通標識や、信号機のことを意味している。図2に示す例の場合、交通案内情報取得部122は、第一交通案内210から第三交通案内230に関する情報を取得する。
 第一交通案内210から第三交通案内230が信号機である場合、交通案内情報取得部122は、例えば、各信号機の点灯色に関する点灯情報を取得する。この場合、交通案内情報取得部122は、例えば、TSPS受信部80が受信したTSPS信号に基づいて、各信号機の点灯色に関する情報を取得する。また、交通案内情報取得部122は、カメラ10が撮影した映像データに基づいて、各信号機の点灯色に関する情報を取得してもよい。また、交通案内情報取得部122は、カメラ10が撮影した映像データと、映像データに付加された時間に関する情報に基づいて、信号情報活用運転支援システムからその時間の信号機の点灯色に関する情報を取得してもよい。
 第一交通案内210から第三交通案内230が交通標識である場合、交通案内情報取得部122は、地図情報34から、各交通標識に関する情報を取得する。具体的には、交通案内情報取得部122は、交通標識に関する情報として、例えば、一時停止、優先道路、一方通行、速度制限に関する情報を取得する。交通案内情報取得部122は、例えば、各交通標識に関する情報を、GPS受信部70が受信したGPS信号に基づいて取得する。なお、交通案内情報取得部122が取得する交通標識に関する情報は上記に限定されるものではない。
 記憶制御部123は、例えば、カメラ10が撮影した映像データをバッファメモリ121に記憶する。記憶制御部123は、例えば、マイクロフォン20が検出した音声データをバッファメモリ121に記憶する。記憶制御部123は、例えば、少なくともイベント検出部128が検出したイベント発生時点を含む映像データを、イベント記録データ31として記憶部30に記憶する。この場合、記憶制御部123は、例えば、イベント発生前の映像データをバッファメモリ121から読み出して、イベント発生前からイベント発生時の様子を含む映像データを、イベント記録データ31として記憶部30に記憶する。記憶制御部123は、カメラ10が撮影した映像データを、バッファメモリ121を介して記憶部30に上書き可能な状態で記憶し、イベント検出部128がイベントを検出した場合に、イベント記録データ31を上書き禁止状態で記憶部30に記憶させるようにしてもよい。記憶制御部123は、記憶したイベント記録データ31を、改竄不可のデータとして記憶してもよく、一定期間の削除を禁止したデータとして記憶してもよい。
 具体的には、記憶制御部123は、例えば、イベント検出部128がイベントを検出した場合、イベントの発生時点を少なくとも含む期間の映像データに、交通案内情報対応判断部130が判断した他車両が従うべき交通案内情報を含めて記憶部30に記憶する。記憶制御部123は、他車両が従うべき交通案内情報を、イベントの発生時点を少なくとも含む期間の映像データと位置関係が整合した別の映像データである、対応交通案内情報32として記憶部30に記憶する。記憶制御部123は、イベントの発生時点を少なくとも含む期間の映像データと、対応交通案内情報32とを、少なくとも、イベントの発生時点を少なくとも含む期間の映像データのみの再生が可能なように記憶部30に記憶する。記憶制御部123は、イベントの発生時点を少なくとも含む期間の映像データに、他車両が従うべき交通案内情報である対応交通案内情報32を含めた再生が可能なように記憶部30に記憶する。言い換えると、記憶制御部123は、イベント記録データ31と、対応交通案内情報32とを、例えば、それぞれ独立に記憶部30に記憶する。
 再生制御部124は、例えば、操作制御部126からの指示に従って、イベント記録データ31を再生する。再生制御部124は、例えば、対応交通案内情報32とは独立にイベント記録データ31を再生する。再生制御部124は、例えば、イベント記録データ31に対応交通案内情報32を重畳させて再生する。再生制御部124は、例えば、イベント記録データ31の再生データを表示制御部127に出力する。再生制御部124は、例えば、イベント記録データ31に対応交通案内情報32を重畳させた再生データを表示制御部127に出力する。
 他車両情報検出部125は、例えば、データ取得部120がカメラ10から取得した映像データに含まれる他車両を認識する。具体的には、他車両情報検出部125は、例えば、車両認識辞書33に基づいて、データ取得部120がカメラ10から取得した映像データに含まれる他車両を認識する。他車両情報検出部125は、車両認識辞書33に限らず、その他の周知の方法で他車両を検出してもよい。他車両情報検出部125は、例えば、認識した他車両の位置および移動方向を検出する。また、他車両情報検出部125は、認識した他車両の移動推移をさらに検出する。他車両情報検出部125は、例えば、検出結果をイベント検出部128に出力する。他車両情報検出部125は、他車両の認識を、イベント記録データに対して行うこととしてもよい。
 操作制御部126は、例えば、操作部40がユーザから受け付けた、イベント記録データ31の再生に関する操作信号を受け付ける。操作制御部126は、例えば、操作信号に基づいて、再生制御部124にイベント記録データ31を再生させる。また、操作制御部126は、操作部40がユーザから受け付けた、イベント記録指示に関する操作信号を受け取る。操作制御部126がイベント記録指示に関する操作信号を受け取った場合、記憶制御部123は、イベント記録指示に関する操作信号を受け取った時点をイベント発生時点として、イベント発生時点を含む映像データを、イベント記録データ31として記憶部30に記憶する。
 表示制御部127は、例えば、表示部50に映像を表示する。表示制御部127は、例えば、再生制御部124の制御に従って、イベント記録データ31を表示部50に表示する。表示制御部127は、例えば、再生制御部124の制御に従って、イベント記録データ31に対応交通案内情報32を重畳させた映像を表示部50に表示する。
 イベント検出部128は、例えば、他車両が関係するイベントを検出する。イベント検出部128は、例えば、他車両が従うべき交通案内を従わなかった場合に、イベントとして検出する。イベント検出部128は、例えば、他車両間で発生した交通事故をイベントとして検出する。イベント検出部128は、例えば、他車両情報検出部125が認識した他車両の移動推移に基づいて、他車両が関連するイベントを検出する。イベント検出部128は、例えば、他車両情報検出部125が認識した他車両の移動推移に加えて、マイクロフォン20が検出した音声データに基づいて他車両が関連するイベントを検出する。この場合、イベント検出部128は、例えば、マイクロフォン20が検出した人の叫び声や衝突音に基づいて、他車両が関連するイベントを検出する。イベント検出部128は、例えば、他車両情報検出部125が認識した他車両の移動推移に加えて、センサ部60が検出した自車両に加わった加速度に基づいて、他車両および自車両が関連するイベントを検出する。この場合、イベント検出部128は、例えば、センサ部60が検出した急ブレーキなどに起因する負の加速度を検出した場合に、他車両および自車両が関連するイベントを検出する。イベントとして検出される他車両の推移とは、例えば、他車両情報検出部125が認識している他車両が、移動中に急に停止した場合などである。
 現在位置算出部129は、GPS受信部70からGPS信号を取得する。現在位置算出部129は、例えば、GPS信号に基づいて、自車両の現在位置を算出する。
 交通案内情報対応判断部130は、例えば、他車両情報検出部125が検出した他車両の位置および移動方向に基づいて、交通案内情報取得部122が取得した、他車両が従うべき交通案内情報を、他車両に対応付ける。具体的には、交通案内情報対応判断部130は、例えば、他車両が従うべき交通案内情報を、他車両に視覚的に対応付ける。交通案内情報対応判断部130は、対応付けた交通案内情報を記憶制御部123に出力する。
 映像データ処理部131は、例えば、カメラ10が撮影した映像データに対して各種の処理を施す。映像データ処理部131は、例えば、イベントの発生時点を少なくとも含む期間の映像データと位置関係が整合した別の映像データとして保存されている交通案内情報を、イベント発生時点の映像データに重畳させる。
 図3と、図4とを用いて、映像記録システム1の具体的な処理について説明する。図3は、本実施形態に係るイベント検出に基づいて記憶されたイベント記録データの、イベント検出前の映像の一例を示す図である。図4は、本実施形態に係るイベント検出に基づいて記憶されたイベント記録データの、イベント検出時の映像の一例を示す図である。
 図3に示すイベント記録データ300は、図2において、自車両C1が前方に位置する他車両C2と、他車両C3とを撮影したイベント検出前の映像データである。
 イベント記録データ300には、交通案内情報として、第一信号機310と、第二信号機320と、第三信号機330が含まれている。言い換えると、自車両C1の進行方向であり、自車両C1に搭載されたカメラ10の撮影方向に、少なくとも第一信号機310、第二信号機320、第三信号機330を含む信号機が存在していることが、地図情報34から判断できる。この場合、交通案内情報取得部122は、第一信号機310から第三信号機330の点灯情報を取得する。ここでは、交通案内情報取得部122は、第一信号機310及び第二信号機320の点灯色が青、第三信号機330の点灯色が赤であることを取得したものとする。
 イベント記録データ300においては、他車両情報検出部125の認識処理によって、他車両が認識され、映像データを構成するフレーム間の他車両位置に基づき、他車両の移動推移を検出している。図3および図4においては、他車両として他車両C2および他車両C3が検出されている。
 交通案内情報対応判断部130は、他車両C2に対して第二信号機320の点灯情報を対応付ける。図3に示す例の場合、交通案内情報対応判断部130は、図3に示す映像が撮影された時点において、他車両C2に対して第二信号機320の点灯情報が青色であることを対応付ける。交通案内情報対応判断部130は、他車両C3に対して第三信号機330の点灯情報を対応付ける。図3に示す例の場合、交通案内情報対応判断部130は、図3に示す映像が撮影された時点において、他車両C3に対して第三信号機330の点灯情報が赤色であることを対応付ける。各他車両に対応付けられた交通案内情報は、記憶制御部123によって、記憶部30に対応交通案内情報32として記憶される。
 そして、図3に示すように、表示制御部127は、例えば、イベント記録データ300における他車両C2に対応する位置に、対応交通案内情報32として吹き出しP1を重畳させて表示する。この場合、表示制御部127は、例えば、吹き出しP1を第二信号機320の点灯情報に対応させて青色に表示させる。また、表示制御部127は、例えば、吹き出しP1の中身に「第二信号機320の点灯色は青色です」といったような文章を表示してもよい。
 また、表示制御部127は、例えば、イベント記録データ300における他車両C3に対応する位置に、対応交通案内情報32として吹き出しP2を重畳させて表示する。この場合、表示制御部127は、例えば、吹き出しP2を第三信号機330の点灯情報に対応させて赤色に表示させる。また、表示制御部127は、例えば、吹き出しP2の中身に「第三信号機330の点灯色は赤色です」といったような文章を表示してもよい。
 図4に示すイベント記録データ400は、図2において、自車両C1が前方に位置する他車両C2と、他車両C3とを撮影したイベント検出時の映像データである。
 イベント記録データ400には、他車両C2と、他車両C3との間で事故が発生した場合において、他車両C2に対応する位置に吹き出しP1が重畳され、他車両C3に対応する位置に吹き出しP2が重畳されている。言い換えれば、イベント記録データ400には、イベント発生時に他車両C2が従うべき交通案内情報と、他車両C3が従うべき交通案内情報とが示されている。そして、図4には、他車両C3が第三信号機330の表示に従わなかったことが示されている。この場合、イベント検出部128は、他車両C3が第三信号機330を無視し、他車両C2との間で事故が発生したことをイベントとして検出している。そして、記憶制御部123が、イベント検出部128がイベントを検出した時を含む所定期間(例えば、5秒間)前の映像を記録することで、例えば、他車両C3が第三信号機330の表示を無視し、他車両C2との間で発生する事故を記録することができる。例えば、記憶制御部123は、他車両C3が第三信号機330の表示を従わなかった時から、他車両C2との間で事故が発生するまでの映像を記録すればよい。記憶制御部123は、イベントが発生する前の映像はバッファメモリ121から読み出せばよい。
 図3と、図4とでは、イベント検出部128は、他車両間の事故をイベントとして検出したが、これは例示であり、本発明を限定するものではない。他車両と、人物などの物体との事故をイベントして検出してもよい。この場合、交通案内情報対応判断部130は、人物に対し、人物が従うべき交通案内情報を対応付けてもよい。これにより、イベント記録データを確認することによって、事故のイベントの発生時に他車両と、人物との挙動を容易に判別することができる。
 上述のとおり、本実施形態におけるイベント記録データには、イベント発生時における各他車両が従うべき信号機の点灯情報が重畳されている。これにより、イベント記録データを確認することによって、事故などのイベント発生時に他車両の挙動を容易に判別することができる。
 なお、図3と、図4とには、他車両として他車両C2と、他車両C3との2台の他車両が示されているが、これは例示であり、本発明を限定するものではない。本発明は、例えば、他車両が1台のみの単独事故や、他車両が3台以上の更に複数台の車両がからむイベントであっても各他車両の挙動を容易に判別することができる。
 また、図3と、図4とでは、他車両が従うべき交通案内情報を吹き出しとして示したが、これは例示あり、本発明を限定するものではない。
 図5と、図6とを用いて、映像記録システム1の図3と、図4とは異なる処理について説明する。図5は、図3とは異なる、本実施形態に係るイベント検出に基づくイベント記録データの、イベント検出前の映像の一例を示す図である。図6は、図4とは異なる、本実施形態に係るイベント検出に基づくイベント記録データの、イベント検出時の映像の一例を示す図である。
 図5に示すように、表示制御部127は、例えば、イベント記録データ300Aにおける他車両C2が走行する車線に、対応交通案内情報32として領域L1を重畳させて表示する。この場合、表示制御部127は、例えば、領域L1を第二信号機320の点灯情報に対応させて青色に表示させる。
 また、表示制御部127は、例えば、イベント記録データ300Aにおける他車両C3が走行する車線に、対応交通案内情報32として領域L2を重畳させて表示する。この場合、表示制御部127は、例えば、領域L2を第三信号機330の点灯情報に対応させて赤色に表示させる。
 イベント記録データ400Aには、他車両C2と、他車両C3との間で事故が発生した場合において、他車両C2が走行する車線に領域L1が重畳され、他車両C3が走行する車線に領域L2が重畳されている。言い換えれば、イベント記録データ400Aには、イベント発生時に他車両C2が従うべき交通案内情報と、他車両C3が従うべき交通案内情報とが示されている。
 上述のとおり、図5と、図6とで示す例では、各他車両が走行する車線に、それぞれの他車両が従うべき信号機の点灯情報を重畳させている。これにより、イベント記録データを確認することによって、事故などのイベント発生時に他車両の挙動を容易に判別することができる。
 図3から図6では、交通案内情報は信号機であるものとして説明したが、これは例示であり、本発明を限定するものではない。上述のとおり、本実施形態では、交通案内情報は交通標識であってもよい。
 図7を用いて、交通案内情報が標識である場合の処理について説明する。図7は、本実施形態に係るイベント検出に基づくイベント記録データの、交通案内情報が交通標識である場合のイベント検出前の映像の一例を示す図である。なお、イベント検出時の処理については、図4及び図6の処理と同様なので説明は省略する。
 図7に示すイベント記録データ300Bには、第一交通標識340と、第二交通標識350と、第三交通標識360とが含まれている。第一交通標識340は、自車両C1が従うべき交通標識である。第二交通標識350は、他車両C2が従うべき交通標識である。第3交通標識は他車両C3が従うべき交通標識である。
 交通案内情報対応判断部130は、他車両C2に対して第二交通標識350の交通案内情報を対応付ける。図7に示す例の場合、交通案内情報対応判断部130は、例えば、第二交通標識350が「優先道路」を示している場合、他車両C2に対して第二交通標識350の交通案内情報が「優先道路」であることを対応付ける。交通案内情報対応判断部130は、他車両C3に対して第三交通標識360の交通案内情報を対応付ける。図7に示す例の場合、交通案内情報対応判断部130は、例えば、第三交通標識が「一時停止」を示している場合、他車両C3に対して第三信号機330の交通案内情報が「一時停止」であることを対応付ける。
 そして、図7に示すように、表示制御部127は、例えば、イベント記録データ300Bにおける他車両C2に対応する位置に、対応交通案内情報32として吹き出しP1を重畳させて表示する。この場合、表示制御部127は、例えば、吹き出しP1の中身に「優先道路」を示す交通標識を表示させる。また、表示制御部127は、例えば、吹き出しP1の中身に「第二交通標識350は優先道路を示しています」といったような文章を表示してもよい。
 また、表示制御部127は、例えば、イベント記録データ300Bにおける他車両C3に対応する位置に、対応交通案内情報32として吹き出しP2を重畳させて表示する。この場合、表示制御部127は、例えば、吹き出しP2の中身に「一時停止」を示す交通標識を表示させる。また、表示制御部127は、例えば、吹き出しP2の中身に「第三交通標識360は一時停止を示しています」といったような文章を表示してもよい。
 図7では、交通標識は優先道路と、一時停止であるものとして説明したが、これは例示であり、本発明を限定するものではない。交通標識は、制限速度を表示する交通標識であってもよい。この場合、吹き出しの中身には制限速度の交通標識を表示させてもよいし、「制限速度はXXkmです」といったような文章を表示してよい。なお、交通案内情報が交通標識であってもイベントを検出した後の処理については、交通案内情報が信号機と同じであるので説明を省略する。
 上述のとおり、図7に示す例では、各他車両が走行する車線に、それぞれの他車両が従うべき交通標識の表示内容を重畳させている。これにより、イベント記録データを確認することによって、事故などのイベント発生時に他車両の挙動を容易に判別することができる。
 [映像記録制御装置100の処理]
 図8を用いて、本実施形態に係る映像記録制御装置100の処理について説明する。図8は、本実施形態に係る映像記録制御装置100の処理の流れの一例を示すフローチャートである。
 まず、映像記録制御装置100は、カメラ10によって撮影された映像データの記録を開始する(ステップS101)。具体的には、映像記録制御装置100は、データ取得部120によって、カメラ10から映像データを取得し、バッファメモリ121に記憶する。そして、映像記録制御装置100は、ステップS102に進む。
 ステップS102では、映像記録制御装置100は、信号機などの交通案内情報に近接しているか否かを判定する。具体的には、映像記録制御装置100は、現在位置算出部129がGPS受信部70から取得したGPS信号に基づいて現在位置を算出し、算出した現在位置の周辺に信号機などの交通案内情報があるか否かを判定する。
 交通案内情報に近接している場合(ステップS102の「Yes」)、映像記録制御装置100は、ステップS103に進み、交通案内情報を取得する。具体的には、映像記録制御装置100は、交通案内情報取得部122によって交通案内情報を取得する。一方、交通案内情報に近接していない場合(ステップS102の「No」)、映像記録制御装置100は、ステップS109に進む。
 交通案内情報を取得した場合(ステップS103の「Yes」)、映像記録制御装置100は、ステップS104に進み、他車両を検出判定する。具体的には、映像記録制御装置100は、他車両情報検出部125によって他車両を検出する。一方、交通案内情報を取得しなかった場合(ステップS103の「No」)、映像記録制御装置100は、ステップS109に進む。
 他車両を検出した場合(ステップS104の「Yes」)、映像記録制御装置100は、ステップS105に進み、他車両の位置および移動方向から交通案内情報を他車両に対応付ける(ステップS105)。具体的には、映像記録制御装置100は、交通案内情報対応判断部130によって、他車両に交通案内情報を対応付ける。そして、映像記録制御装置100は、ステップS106に進む。一方、他車両を検出しなかった場合(ステップS104の「No」)、映像記録制御装置100は、ステップS109に進む。
 ステップS106では、映像記録制御装置100は、他車両に発生したイベントを検出する。具体的には、映像記録制御装置100は、イベント検出部128によって他車両に発生したイベントを検出する。
 イベントが検出された場合(ステップS106の「Yes」)、映像記録制御装置100は、ステップS107に進む。そして、映像記録制御装置100は、イベント検出前後の映像データと、検出された他車両に対応付けた交通案内情報とをイベント記録データとして記憶部30に保存する(ステップS107)。具体的には、映像記録制御装置100は、記憶制御部123によって、イベント記録データを記憶部30に保存する。そして、映像記録制御装置100は、ステップS108に進む。一方、イベントが検出されなかった場合(ステップS106の「No」)、ステップS108に進む。
 記録を終了しない場合(ステップS108の「No」)、映像記録制御装置100は、ステップS102に戻り、図8の処理を継続する。一方、記録を終了する場合(ステップS108の「Yes」)、映像記録制御装置100は、図8の処理を終了する。
 また、ステップS109では、映像記録制御装置100は、他車両に発生したイベントを検出する。具体的には、映像記録制御装置100は、イベント検出部128によって他車両に発生したイベントを検出する。
 イベントが検出された場合(ステップS109の「Yes」)、映像記録制御装置100は、イベント検出前後の映像データをイベント記録データとして記憶部30に保存する。具体的には、映像記録制御装置100は、記憶制御部123によって、イベント記録データを記憶部30に保存する。そして、映像記録制御装置100は、ステップS108に進み、上述した処理を実行する。一方、イベントが検出されなかった場合(ステップS109の「No」)、映像記録制御装置100は、ステップS108に進み、上述した処理を実行する。
 以上、本発明の実施形態を説明したが、これら実施形態の内容により実施形態が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、前述した実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換又は変更を行うことができる。
 1 映像記録システム
 10 カメラ
 20 マイクロフォン
 30 記憶部
 31 イベント記録データ
 32 対応交通案内情報
 33 車両認識辞書
 34 地図情報
 40 操作部
 50 表示部
 60 センサ部
 70 GPS受信部
 80 TSPS受信部
 100 映像記録制御装置
 110 バス
 120 データ取得部
 121 バッファメモリ
 122 交通案内情報取得部
 123 記憶制御部
 124 再生制御部
 125 他車両情報検出部
 126 操作制御部
 127 表示制御部
 128 イベント検出部
 129 現在位置算出部
 130 交通案内情報対応判断部
 131 映像データ処理部

Claims (10)

  1.  自車両の周囲を撮影するカメラが撮影した映像データを取得するデータ取得部と、
     前記カメラが撮影している方向に存在する交通案内情報を取得する交通案内情報取得部と、
     前記データ取得部が取得した映像データから他車両を認識し、認識した前記他車両の位置および移動方向を検出する他車両情報検出部と、
     前記他車両情報検出部が検出した前記他車両の位置および移動方向に基づいて、前記他車両が従うべき交通案内情報を対応付ける交通案内情報対応判断部と、
     前記他車両が関係するイベントを検出するイベント検出部と、
     前記イベント検出部がイベントを検出した場合、イベントの発生時点を少なくとも含む期間の映像データに、前記交通案内情報対応判断部が判断した前記他車両が従うべき交通案内情報を含めて保存する記憶制御部と、
     を備える映像記録制御装置。
  2.  前記他車両情報検出部は、認識した前記他車両の移動推移をさらに検出し、
     前記イベント検出部は、認識した前記他車両の移動推移に基づき前記他車両が関連するイベントを検出する、
     請求項1に記載の映像記録制御装置。
  3.  前記データ取得部は、映像データに加えて音声データを取得し、
     前記イベント検出部は、認識した他車両の移動推移に加えて音声データに基づき前記他車両が関連するイベントを検出する、
     請求項2に記載の映像記録制御装置。
  4.  前記イベント検出部は、認識した他車両の移動推移に加えて前記自車両に加わった加速度に基づき、前記他車両および前記自車両が関連するイベントを検出する、
     請求項2または3に記載の映像記録制御装置。
  5.  前記記憶制御部は、前記他車両が従うべき交通案内情報を、イベントの発生時点を少なくとも含む期間の映像データと位置関係が整合した別の映像データとして保存する、
     請求項1から4のいずれか1項に記載の映像記録制御装置。
  6.  前記記憶制御部は、イベントの発生時点を少なくとも含む期間の映像データと、前記他車両が従うべき交通案内情報とを、少なくとも、イベントの発生時点を少なくとも含む期間の映像データのみの再生、およびイベントの発生時点を少なくとも含む期間の映像データに前記他車両が従うべき交通案内情報を含めた再生が可能なように保存する、
     請求項1から5のいずれか1項に記載の映像記録制御装置。
  7.  前記交通案内情報は、信号機または交通標識であり、
     前記交通案内情報対応判断部は、前記他車両が従うべき前記信号機の点灯情報または前記交通標識の内容を前記他車両に対応付ける、
     請求項1から6のいずれか1項に記載の映像記録制御装置。
  8.  請求項1から7のいずれか1項に記載の映像記録制御装置と、
     自車両の周囲を撮影するカメラと、
     前記カメラが撮影した映像データを保存する記憶部と、
     を備える映像記録システム。
  9.  自車両の周囲を撮影するカメラが撮影した映像データを取得するデータ取得ステップと、
     前記カメラが撮影している方向に存在する交通案内情報を取得する交通案内情報取得ステップと、
     前記データ取得ステップにおいて取得された映像データから他車両を認識し、認識した前記他車両の位置および移動方向を検出する他車両情報検出ステップと、
     前記他車両情報検出ステップにおいて検出された前記他車両の位置および移動方向に基づいて、前記他車両が従うべき交通案内情報を対応付ける交通案内情報対応判断ステップと、
     前記他車両が関係するイベントを検出するイベント検出ステップと、
     前記イベント検出ステップにおいてイベントが検出された場合、イベントの発生時点を少なくとも含む期間の映像データに、前記交通案内情報対応判断ステップにおいて判断された前記他車両が従うべき交通案内情報を含めて保存する記録制御ステップと、
     を備える映像記録方法。
  10.  自車両の周囲を撮影するカメラが撮影した映像データを取得するデータ取得ステップと、
     前記カメラが撮影している方向に存在する交通案内情報を取得する交通案内情報取得ステップと、
     前記データ取得ステップにおいて取得された映像データから他車両を認識し、認識した前記他車両の位置および移動方向を検出する他車両情報検出ステップと、
     前記他車両情報検出ステップにおいて検出された前記他車両の位置および移動方向に基づいて、前記他車両が従うべき交通案内情報を対応付ける交通案内情報対応判断ステップと、
     前記他車両が関係するイベントを検出するイベント検出ステップと、
     前記イベント検出ステップにおいてイベントが検出された場合、イベントの発生時点を少なくとも含む期間の映像データに、前記交通案内情報対応判断ステップにおいて判断された前記他車両が従うべき交通案内情報を含めて保存する記録制御ステップと、
     をコンピュータに実行させるための映像記録制御プログラム。
PCT/JP2019/015465 2018-09-13 2019-04-09 映像記録制御装置、映像記録システム、映像記録方法、および映像記録制御プログラム WO2020054114A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP19859150.5A EP3754625A4 (en) 2018-09-13 2019-04-09 VIDEO RECORDING CONTROL DEVICE, VIDEO RECORDING SYSTEM, VIDEO RECORDING PROCESS, AND VIDEO RECORDING CONTROL PROGRAM
CN201980012243.8A CN111684505B (zh) 2018-09-13 2019-04-09 影像记录控制装置、影像记录系统、影像记录方法以及影像记录控制程序
US17/008,759 US11321574B2 (en) 2018-09-13 2020-09-01 Video recording control device, video recording system, video recording method, and non-transitory storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-171479 2018-09-13
JP2018171479A JP6708237B2 (ja) 2018-09-13 2018-09-13 映像記録制御装置、映像記録システム、映像記録方法、および映像記録制御プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/008,759 Continuation US11321574B2 (en) 2018-09-13 2020-09-01 Video recording control device, video recording system, video recording method, and non-transitory storage medium

Publications (1)

Publication Number Publication Date
WO2020054114A1 true WO2020054114A1 (ja) 2020-03-19

Family

ID=69778573

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/015465 WO2020054114A1 (ja) 2018-09-13 2019-04-09 映像記録制御装置、映像記録システム、映像記録方法、および映像記録制御プログラム

Country Status (5)

Country Link
US (1) US11321574B2 (ja)
EP (1) EP3754625A4 (ja)
JP (1) JP6708237B2 (ja)
CN (1) CN111684505B (ja)
WO (1) WO2020054114A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7497525B2 (ja) * 2020-10-09 2024-06-10 シグニファイ ホールディング ビー ヴィ エネルギ効率の良い光ワイヤレス通信モジュール
JP7380656B2 (ja) * 2021-07-28 2023-11-15 株式会社デンソー イベント記録システム、イベント記録装置、イベント記録方法、イベント記録プログラム
CN114758511B (zh) * 2022-06-14 2022-11-25 深圳市城市交通规划设计研究中心股份有限公司 一种跑车超速检测系统、方法、电子设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012069051A (ja) 2010-09-27 2012-04-05 Yazaki Corp 車載運行記録装置
JP2015028711A (ja) * 2013-07-30 2015-02-12 富士重工業株式会社 車両の交通環境情報記録装置
WO2017134897A1 (ja) * 2016-02-02 2017-08-10 ソニー株式会社 映像処理装置及び映像処理方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5534010A (en) 1978-08-26 1980-03-10 Iseki Agricult Mach Riding type rice transplanter
US6970102B2 (en) * 2003-05-05 2005-11-29 Transol Pty Ltd Traffic violation detection, recording and evidence processing system
JP4805763B2 (ja) * 2006-09-07 2011-11-02 アルパイン株式会社 車載用ナビゲーション装置
GB0713096D0 (en) * 2007-02-02 2007-08-15 Duong Henri Detectable anti-collision automatic braking device for vehicle
JP2009032143A (ja) * 2007-07-30 2009-02-12 Seiko Epson Corp ドライブレコーダ、ドライブレコーダシステム、ドライブレコーダの制御方法およびプログラム
JP2013088888A (ja) * 2011-10-14 2013-05-13 Sumitomo Electric Ind Ltd 情報処理装置、交通指標推定装置及びコンピュータプログラム
US9020696B2 (en) * 2013-06-25 2015-04-28 Create Electronic Optical Co., Ltd. Event data recorder having traffic monitoring and warning function within safe range
DE102015212923A1 (de) * 2015-07-10 2017-01-12 Bayerische Motoren Werke Aktiengesellschaft Automatische Erkennung und Bewertung von Low-Speed-Crashs
CN105488867B (zh) * 2015-11-30 2018-03-06 四川诚品电子商务有限公司 一种车载行车记录仪视频分享的方法
JP6211113B2 (ja) * 2016-02-03 2017-10-11 三菱電機株式会社 車両接近検出装置
CN105761500B (zh) * 2016-05-10 2019-02-22 腾讯科技(深圳)有限公司 交通事故处理方法及交通事故处理装置
US20190193659A1 (en) 2016-07-07 2019-06-27 Mitsubishi Electric Corporation Accident information collection system, and accident information collection method
JP6788447B2 (ja) * 2016-09-12 2020-11-25 日立オートモティブシステムズ株式会社 映像出力システム
KR101899981B1 (ko) * 2016-12-02 2018-09-19 엘지전자 주식회사 차량용 헤드 업 디스플레이
CN107784840A (zh) * 2017-09-04 2018-03-09 张斌 一种车载违法监控系统及基于该系统的违法监控方法
JP2019204395A (ja) * 2018-05-25 2019-11-28 株式会社Jvcケンウッド 記録制御装置、記録制御方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012069051A (ja) 2010-09-27 2012-04-05 Yazaki Corp 車載運行記録装置
JP2015028711A (ja) * 2013-07-30 2015-02-12 富士重工業株式会社 車両の交通環境情報記録装置
WO2017134897A1 (ja) * 2016-02-02 2017-08-10 ソニー株式会社 映像処理装置及び映像処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3754625A4

Also Published As

Publication number Publication date
CN111684505B (zh) 2022-10-18
US11321574B2 (en) 2022-05-03
EP3754625A1 (en) 2020-12-23
EP3754625A4 (en) 2021-05-19
US20200394427A1 (en) 2020-12-17
CN111684505A (zh) 2020-09-18
JP2020042712A (ja) 2020-03-19
JP6708237B2 (ja) 2020-06-10

Similar Documents

Publication Publication Date Title
US10071745B2 (en) Automated drive assisting system, automated drive assisting method, and computer program
JP4836582B2 (ja) 車載装置
WO2020054114A1 (ja) 映像記録制御装置、映像記録システム、映像記録方法、および映像記録制御プログラム
CN103077624A (zh) 一种基于gps的即时导航路况系统及导航方法
JP2022140530A (ja) 情報記録装置、情報記録方法及び情報記録用プログラム
JP2009085628A (ja) 車載用処理装置、ナビゲーション装置、及び車両進行方位補正プログラム
JP2024069586A (ja) 記録再生制御装置、および記録再生制御方法
JP4596257B2 (ja) 車両用診断装置
JP5151243B2 (ja) 情報処理装置
JP5803624B2 (ja) 車両制御システム、車両制御装置、車両制御方法及びコンピュータプログラム
US10605616B2 (en) Image reproducing device, image reproducing system, and image reproducing method
JP4798549B2 (ja) 車載用ナビゲーション装置
JP2013054770A (ja) 情報処理装置、情報処理方法、及びプログラム
US20200191597A1 (en) Travel guide system and computer program
JP2009133657A (ja) 案内装置、案内方法、案内プログラム及びその記録媒体
JP2020154548A (ja) 記録再生制御装置、記録再生制御方法、およびプログラム
JP2014154125A (ja) 走行支援システム、走行支援方法及びコンピュータプログラム
KR20140099613A (ko) 블랙박스 겸용 avn시스템
JP2006234638A (ja) 車両用情報記録装置
JP2005018575A (ja) カーナビゲーション装置
JP4900599B2 (ja) ナビゲーション装置
CN217238939U (zh) 一种支持交通信号灯识别和行车记录的车载ar导航系统
US11302123B2 (en) Information recording device, information recording method, and program for recording information
US20200200560A1 (en) Driving assistance device, vehicle, information provision device, driving assistance system, and driving assistance method
JP2023101490A (ja) 記録装置、記録方法およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19859150

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019859150

Country of ref document: EP

Effective date: 20200914

NENP Non-entry into the national phase

Ref country code: DE