WO2017134897A1 - 映像処理装置及び映像処理方法 - Google Patents

映像処理装置及び映像処理方法 Download PDF

Info

Publication number
WO2017134897A1
WO2017134897A1 PCT/JP2016/084032 JP2016084032W WO2017134897A1 WO 2017134897 A1 WO2017134897 A1 WO 2017134897A1 JP 2016084032 W JP2016084032 W JP 2016084032W WO 2017134897 A1 WO2017134897 A1 WO 2017134897A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
video
feature
unit
video processing
Prior art date
Application number
PCT/JP2016/084032
Other languages
English (en)
French (fr)
Inventor
慎 小俣
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US15/779,165 priority Critical patent/US20180357484A1/en
Publication of WO2017134897A1 publication Critical patent/WO2017134897A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/085Registering performance data using electronic data carriers
    • G07C5/0866Registering performance data using electronic data carriers the electronic data carrier being a digital video recorder in combination with video camera
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G08G1/0175Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • G08G1/162Decentralised systems, e.g. inter-vehicle communication event-triggered
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • G08G1/163Decentralised systems, e.g. inter-vehicle communication involving continuous checking
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection

Definitions

  • the technology disclosed in the present specification relates to a video processing apparatus and video processing method for performing video recording control and video analysis, and in particular, video processing for video video recording control and video analysis captured by an in-vehicle camera.
  • the present invention relates to an apparatus and a video processing method.
  • drive recorder or “event data recorder” (hereinafter referred to as a drive recorder).
  • the information recorded on the drive recorder is important information for objectively judging the behavior of the car before and after the accident and aiming at accident prevention. Recently, many automobiles are equipped with drive recorders.
  • the main purpose of the drive recorder is to record accidents. Over a limited time that can be recorded in memory, the vehicle information that is detected from moment to moment is overwritten and saved, so that the accident record is not lost. There is a need. For example, there is a drive recorder equipped with a function that detects "impact due to collision” and “acceleration change due to sudden braking due to near-miss” based on information from the acceleration sensor, and saves the previous and next images with overwriting prohibited. Many (see, for example, Patent Documents 1 and 2).
  • acceleration sensor information cannot respond to collisions with things much lighter than the vehicle's own weight or mischief during parking.
  • products that allow the user to individually adjust the sensor sensitivity for each installed vehicle.
  • adjustment for reducing the false detection is troublesome and the user cannot make adjustments.
  • the purpose of the technology disclosed in this specification is to record only accident video and near-miss video from video captured by the in-vehicle camera, or to extract accident video and near-hat video from recorded video of the in-vehicle camera.
  • An object is to provide a video processing apparatus and a video processing method.
  • the technology disclosed in the present specification has been made in consideration of the above-mentioned problems, and the first aspect thereof is An object recognition unit that detects a feature of a scene that may lead to an accident based on a recognition result of an object included in a video obtained by imaging the outside or inside of the vehicle; A control unit that controls processing of the video in response to detection of the feature; Is a video processing apparatus.
  • the object recognition unit of the video processing device detects a feature related to the approach of an object recognized from the video as the feature. It is configured as follows.
  • the object recognition unit of the video processing device detects a feature related to the approach between neighboring vehicles recognized as an object. It is configured as follows.
  • the object recognition unit of the video processing device includes, as the feature, a peripheral vehicle or other object that has recognized an object, and the vehicle. It is comprised so that the characteristic regarding approach may be detected.
  • the object recognition unit of the video processing device further detects a feature related to the approach with reference to a distance image. It is configured.
  • the video processing device further includes an external information detection unit that detects an ambient environment of the vehicle.
  • the said object recognition part is comprised so that the surrounding environment may further be considered, and the characteristic regarding the said approach may be detected.
  • the object recognition unit of the video processing device has, as the feature, a trajectory in a road screen recognized from the video. Based on this, it is configured to detect a feature related to spin or slip of the vehicle.
  • the object recognition unit of the video processing device is based on a lane marking, a road shoulder, and a roadside belt drawn from the video to a road. It is configured to recognize the road.
  • the video processing device further includes a vehicle state detection unit that detects a steering direction of the vehicle.
  • the object recognition unit is configured to detect a feature related to spin or slip of the vehicle based on an angle between the road recognized from the video and the steering direction as the feature.
  • the video processing device further includes an outside-vehicle information detection unit that detects a surrounding environment of the vehicle.
  • the said object recognition part is comprised so that the surrounding environment may be considered and the characteristic regarding the spin or slip of the said vehicle may be detected.
  • the object recognition unit of the video processing device includes, as the feature, an illegal driving of the vehicle or its surrounding vehicles, It is configured to detect features related to violations.
  • the object recognition unit of the video processing device recognizes a lane or a roadside band from the video, and determines the lane of the vehicle. It is configured to detect a feature related to the travel that deviates.
  • the object recognition unit of the video processing device recognizes a lane or a roadside belt and a surrounding vehicle from the video, and It is configured to detect a feature related to traveling that deviates from the lane of the vehicle.
  • the object recognition unit of the video processing device is defined on a traveling road based on the object recognition result of the video.
  • the information regarding the regulation which has been acquired is acquired, and when the driving
  • the video processing device further acquires information related to a regulation defined for a road on the basis of map information. It is configured as follows.
  • the object recognition unit of the video processing device is drawn from the video on a road sign or road surface installed on the side of the road. Recognizing at least one of a road sign, a stop line position drawn on the road, or a traffic light, at least one of the road sign violation, stop line position neglect, or signal neglect of the vehicle or its surrounding vehicles When one of them is detected, it is configured to detect a feature related to the illegal driving.
  • the object recognition unit of the video processing device recognizes a stop line on a road as an object, and detects the vehicle or its surrounding vehicles. When it is determined that the vehicle cannot be stopped from the relationship between the vehicle speed or the acceleration and the stop line position, the feature relating to the violating driving for ignoring the stop position is detected.
  • the object recognition unit of the video processing device recognizes a red signal or a yellow signal of a traffic light as an object, and the vehicle or its surroundings.
  • a feature relating to the illegal operation of ignoring the signal is detected.
  • the object recognition unit of the video processing device recognizes both the traveling state of the surrounding vehicle and the lighting of the lamp as an object, When the lighting of the lamp does not coincide with the lighting of the lamp, it is configured to detect a feature related to the violation of the cueing failure of the surrounding vehicle.
  • the twentieth aspect of the technology disclosed in this specification is: An object recognition step for detecting features of a scene that may lead to an accident based on a recognition result of an object included in a video obtained by imaging the outside or inside of the vehicle; A control step for controlling processing of the video in response to detection of the feature; Is a video processing method.
  • FIG. 1 is a diagram schematically illustrating a configuration example of a vehicle control system 2000 to which the technology disclosed in this specification can be applied.
  • FIG. 2 is a diagram illustrating an example of installation positions of the imaging unit 2410 and the vehicle exterior information detection unit 2420.
  • FIG. 3 is a diagram schematically illustrating a functional configuration of the video processing apparatus 300 that controls recording of the near-miss video.
  • FIG. 4 is a flowchart showing a processing procedure for the video processing device 300 to control the trigger recording of the near-miss video.
  • FIG. 5 is a diagram illustrating a functional configuration of the video processing apparatus 500.
  • FIG. 6 is a diagram schematically showing a functional configuration for performing a near-miss video extraction process of the external apparatus 600.
  • FIG. 7 is a flowchart showing a processing procedure for the external device 600 to extract a near-miss video.
  • FIG. 8 is a diagram showing a functional configuration of the video processing apparatus 800.
  • FIG. 1 schematically shows a configuration example of a vehicle control system 2000 to which the technology disclosed in this specification can be applied.
  • the illustrated vehicle control system 2000 includes a drive system control unit 2100, a body system control unit 2200, a battery control unit 2300, a vehicle exterior information detection unit 2400, a vehicle interior information detection unit 2500, and an integrated control unit 2600. It consists of a control unit.
  • the control units 2100 to 2600 are interconnected via a communication network 2010.
  • the communication network 2010 may be an in-vehicle communication network that conforms to an arbitrary communication standard such as CAN (Controller Area Network), LIN (Local Interconnect Network), LAN (Local Area Network), FlexRay (registered trademark), and the like.
  • CAN Controller Area Network
  • LIN Local Interconnect Network
  • LAN Local Area Network
  • FlexRay registered trademark
  • Each of the control units 2100 to 2600 includes, for example, a microcomputer that performs arithmetic processing according to various programs, a storage unit that stores programs executed by the microcomputer or parameters used for various calculations, and various control objects. And a driving circuit for driving the apparatus.
  • Each of the control units 2100 to 2600 includes a network interface (IF) for communicating with other control units via the communication network 2010, and between the devices and sensors inside and outside the vehicle.
  • IF network interface
  • the drive system control unit 2100 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 2100 includes a driving force generator for generating a driving force of a vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism that adjusts and a braking device that generates a braking force of the vehicle.
  • the drive system control unit 2100 may also have a function as a control device such as ABS (Antilock Break System) or ESC (Electronic Stability Control).
  • a vehicle state detection unit 2110 is connected to the drive system control unit 2100.
  • the vehicle state detection unit 2110 includes, for example, a gyro sensor that detects the angular velocity of the rotational movement of the vehicle body, an acceleration sensor that detects vehicle acceleration, or an accelerator pedal operation amount, a brake pedal operation amount, steering -At least one of sensors for detecting the steering angle of the wheel, the engine speed, or the rotational speed of the wheel is included.
  • the drive system control unit 2100 performs arithmetic processing using a signal input from the vehicle state detection unit 2110, and controls an internal combustion engine, a drive motor, an electric power steering device, a brake device, and the like (all not shown). .
  • the body system control unit 2200 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 2200 includes a control device for locking and releasing a door lock such as a keyless entry system and a smart key system, and starting and stopping of the system 2000, a power window device, and various lamps (head lamp, back lamp, brake lamp). , Including turn signals and fog lights).
  • a control device for locking and releasing a door lock such as a keyless entry system and a smart key system
  • starting and stopping of the system 2000 a power window device, and various lamps (head lamp, back lamp, brake lamp). , Including turn signals and fog lights).
  • a control unit 2200 receives a radio wave transmitted from a portable transmitter incorporated in a key (or substitutes for a key) or signals from various switches, a vehicle door lock device, a power window device, a lamp, etc. Neither is shown).
  • the battery control unit 2300 controls a secondary battery that is a power supply source of the drive motor according to various programs.
  • the battery device 2310 including the secondary battery measures the battery temperature, the battery output voltage, the remaining battery capacity, and the like of the secondary battery, and outputs them to the battery control unit 2300.
  • the battery control unit 2300 performs arithmetic processing using input information from the battery device 2310, and performs control of a secondary battery temperature adjustment control, a cooling device (not shown) provided in the battery device 2310, and the like.
  • the outside information detection unit 2400 detects information outside the vehicle on which the vehicle control system 2000 is mounted.
  • the vehicle exterior information detection unit 2400 is connected to at least one of the imaging unit 2410 and the vehicle exterior information detection unit 2420.
  • the imaging unit 2410 is a so-called in-vehicle camera, and includes at least one of a ToF (Time of Flight) camera, a stereo camera, a monocular camera, an infrared camera, and other cameras.
  • the outside information detection unit 2420 includes, for example, current weather or an environmental sensor for detecting the weather, a surrounding information detection sensor for detecting a surrounding vehicle, an obstacle, a passerby, and a voice sensor (in the vicinity of the vehicle). At least one (none of which is shown) is included.
  • the vehicle outside information detection unit 2420 is an audio sensor, it is possible to acquire sound outside the vehicle accompanying an accident or near-miss, such as a horn, a sudden brake, or a collision sound.
  • the environmental sensors referred to here are, for example, a raindrop sensor that detects rain, a fog sensor that detects fog, a sunshine sensor that detects sunlight intensity, a snow sensor that detects snowfall, and the like.
  • the ambient information detection sensor includes an ultrasonic sensor, a radar device, a LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) device, and the like.
  • the imaging unit 2410 and the outside information detection unit 2420 may be configured as independent sensors or devices, or may be configured as a device in which a plurality of sensors or devices are integrated.
  • imaging units 2910, 2912, 2914, 2916, and 2918 correspond to the imaging unit 2410.
  • the side mirror, the rear bumper, the back door, and the upper part of the windshield in the vehicle interior At least one position.
  • An imaging unit 2910 provided in the front nose and an imaging unit 2918 provided in the upper part of the windshield in the vehicle interior mainly capture an image in front of the vehicle 2900.
  • the imaging units 2912 and 2914 provided in the side mirror mainly capture an image on the side of the vehicle 2900.
  • An imaging unit 2916 provided in the rear bumper or the back door mainly captures an image behind the vehicle 2900.
  • the imaging range a indicates the imaging range of the imaging unit 2910 provided in the front nose
  • the imaging ranges b and c indicate the imaging ranges of the imaging units 2912 and 2914 provided in the left and right side mirrors, respectively.
  • a range d indicates an imaging range of the imaging unit 2916 provided in the rear bumper or the back door.
  • Each vehicle exterior information detection unit 2920, 2922, 2924, 2926, 2928, 2930 provided on the front, rear, side, corner of the vehicle 2900 and the upper part of the windshield in the vehicle interior is constituted by, for example, an ultrasonic sensor or a radar device.
  • the vehicle outside information detection units 2920, 2926, and 2930 provided on the front nose, the rear bumper, the back door, and the windshield in the vehicle interior of the vehicle 2900 may be, for example, LIDAR devices.
  • These outside-vehicle information detection units 2920 to 2930 are mainly used for detecting a preceding vehicle, a passerby, an obstacle, and the like.
  • the vehicle exterior information detection unit 2400 causes the imaging unit 2410 to capture an image outside the vehicle (see FIG. 2), and receives the captured image data from the imaging unit 2410. In addition, the vehicle exterior information detection unit 2400 receives detection information from the vehicle exterior information detection unit 2420.
  • the vehicle exterior information detection unit 2420 is an ultrasonic sensor, a radar device, or a LIDAR device
  • the vehicle exterior information detection unit 2400 transmits ultrasonic waves, electromagnetic waves, or the like, and information on reflected waves from the vehicle exterior information detection unit 2420. Receive.
  • the vehicle outside information detection unit 2400 detects image recognition processing for recognizing surrounding people, vehicles, obstacles, signs, or characters on the road surface based on information received from the vehicle outside information detection unit 2420, Object recognition processing for recognition and distance detection processing for an object outside the vehicle may be performed. Further, the vehicle exterior information detection unit 2400 may perform environment recognition processing for recognizing the surrounding environment such as rain, fog, or road surface conditions based on the information received from the vehicle exterior information detection unit 2420.
  • the vehicle exterior information detection unit 2400 performs processing such as distortion correction or alignment on the image data received from the vehicle exterior information detection unit 2420, and combines the image data captured by the different image capture units 2410 to create an overhead image. Alternatively, a panoramic image may be generated. Further, the vehicle exterior information detection unit 2400 may perform viewpoint conversion processing using image data captured by different imaging units 2410.
  • the in-vehicle information detection unit 2500 detects in-vehicle information.
  • the in-vehicle information detection unit 2500 is connected to, for example, an in-vehicle state detection unit 2510 that detects the state of a driver driving the vehicle (hereinafter simply referred to as “driver”).
  • the vehicle interior information detection unit 2500 detects vehicle interior information based on the driver state information input from the vehicle interior state detection unit 2510. For example, the in-vehicle information detection unit 2500 may calculate the driver's degree of fatigue or concentration, and determines whether the driver is asleep.
  • the vehicle interior information detection unit 2500 detects various driver states and determines whether or not the driver (or a passenger other than the driver) can drive the vehicle (described later).
  • the driver here refers to a passenger sitting in a driver's seat in the vehicle or a passenger stored as a person to be driven by the integrated control unit 2600 among the passengers in the vehicle.
  • the in-vehicle information detection unit 2500 may detect the driver based on the seated position of the passenger, or a face image registered in advance as a driver based on the face of the passenger included in the image captured in the vehicle. You may make it discriminate
  • the in-vehicle state detection unit 2510 may include an in-vehicle camera (Drumoni camera) that images the interior of the vehicle such as a driver or another passenger, a biometric sensor that detects biometric information of the driver, a microphone that collects sound in the interior of the vehicle, and the like. .
  • the vehicle interior information detection unit 2500 may perform signal processing such as noise canceling on an audio signal collected by a microphone. Further, only specific sound may be modulated for the purpose of privacy protection.
  • the biological sensor is provided on, for example, a seat surface or a steering wheel, and detects biological information of a driver who holds the steering wheel or a driver who holds the steering wheel.
  • the microphone can acquire sound in the passenger compartment accompanying an accident or near-miss, such as a horn, a sudden brake, or a passenger's voice (scream).
  • the vehicle interior state detection unit 2510 may include a load sensor that detects a load applied to the driver's seat or other seats (whether or not a person is seated on the seat).
  • the vehicle interior state detection unit 2510 detects the state of the driver based on operations performed by the driver on various devices such as an accelerator, a brake, a steering wheel, a wiper, a turn signal, an air conditioner, and other switches. May be.
  • the in-vehicle state detection unit 2510 may check a status such as a driver's lack of a driver's license or driving refusal.
  • the integrated control unit 2600 controls the overall operation in the vehicle control system 2000 according to various programs.
  • the integrated control unit 2600 includes a microcomputer 2610, a general-purpose communication interface 2620, a dedicated communication interface 2630, a positioning unit 2640, a beacon receiving unit 2650, an in-vehicle device interface 2660, and an audio image.
  • An output unit 2670, an in-vehicle network interface 2680, and a storage unit 2690 are provided.
  • an input unit 2800 is connected to the integrated control unit 2600.
  • the input unit 2800 is configured by a device that can be input by a driver or other passengers, such as a touch panel, a button, a microphone, a switch, and a lever.
  • the input unit 2800 may be, for example, a remote control device using infrared rays or other radio waves, or may be a mobile phone, a PDA (Personal Digital Assistant), a smartphone, a tablet, or the like that supports the operation of the vehicle control system 2000. It may be an external connection device (both not shown).
  • the input unit 2800 may be a voice input using a microphone.
  • the input unit 2800 may be, for example, a camera. In this case, the passenger can input information to the integrated control unit 2600 by a gesture.
  • the input unit 2800 may include, for example, an input control circuit that generates an input signal based on information input by the passengers using the input unit 2800 and outputs the input signal to the integrated control unit 2600. Passengers including the driver can input various data and instruct processing operations to the vehicle control system 2000 by operating the input unit 2800.
  • the storage unit 2690 includes a RAM (Random Access Memory) that stores various programs executed by the microcomputer, and an EEPROM (ElectricallyErasable and Programmable Read Only Memory) that stores various parameters, calculation results, detection values of sensors, and the like. You may go out.
  • the storage unit 2690 is a mass storage device (not shown) such as a magnetic storage device such as an HDD (Hard Disc Drive), a semiconductor storage device such as an SSD (Solid State Drive), an optical storage device, or a magneto-optical storage device. It may be configured.
  • the large-capacity storage device can be used, for example, for recording of images around the vehicle or in the passenger compartment captured by the imaging unit 2410 (steady recording, trigger recording of near-miss images (described later), etc.).
  • the general-purpose communication interface 2620 is a general-purpose communication interface that mediates communication with various devices existing in the external environment 2750.
  • the general-purpose communication interface 2620 is a cellular communication protocol such as GSM (registered trademark) (Global System of Mobile communications), WiMAX, LTE (Long Term Evolution) or LTE-A (LTE-Advanced), Wi-Fi (registered trademark), etc.
  • GSM Global System of Mobile communications
  • WiMAX Wireless LAN
  • LTE-A Long Term Evolution-Advanced
  • Wi-Fi registered trademark
  • Other wireless communication protocols such as wireless LAN and Bluetooth (registered trademark) are implemented.
  • the general-purpose communication interface 2620 is, for example, a device (for example, the Internet, a cloud network, or an operator-specific network) that exists on an external network (for example, a base station in cellular communication or an access point in a wireless LAN).
  • the general-purpose communication interface 2620 uses, for example, P2P (Peer To Peer) technology to a terminal (for example, an information terminal carried by a driver or a passerby, a store adjacent to a running road). It may be connected to an installed store terminal or an MTC (Machine Type Communication) terminal (such as a home gas meter or vending machine) connected to a communication network without human intervention.
  • P2P Peer To Peer
  • MTC Machine Type Communication
  • the dedicated communication interface 2630 is a communication interface that supports a communication protocol formulated for use in a vehicle.
  • the dedicated communication interface 2630 includes, for example, WAVE (Wireless Access in Vehicle Environment) or DSRC (Dedicated Short Range Communication Protocol), which is a combination of the lower layer IEEE 802.11p and the upper layer IEEE 1609, or the DSRC (Dedicated Short Range Communication Protocol). You can do it.
  • the dedicated communication interface 2630 typically includes vehicle-to-vehicle communication, vehicle-to-infrastructure communication, vehicle-to-home communication, and vehicle-to-pedestrian communication.
  • V2X communication which is a concept including one or more, is performed.
  • the positioning unit 2640 receives, for example, a GNSS signal from a GNSS (Global Navigation Satellite System) satellite (for example, a GPS signal from a Global Positioning System (GPS) satellite), performs positioning, and performs latitude, longitude, and altitude of the vehicle.
  • the position information including is generated.
  • the positioning unit 2640 may specify the current position based on the electric measurement information from the wireless access point using PlaceEngine (registered trademark) or the like, or a mobile phone having a positioning function, PHS (Personal Handy-
  • the position information may be acquired from a mobile terminal possessed by the passenger, such as a phone system or a smartphone.
  • the beacon receiving unit 2650 receives, for example, radio waves or electromagnetic waves transmitted from a wireless station installed on the road, and acquires the current position of the vehicle and road traffic information (information such as traffic jams, closed roads, and required time). . Note that the function of the beacon receiving unit 2650 can be included in the dedicated communication interface 2630 described above and mounted.
  • the in-vehicle device interface 2660 is a communication interface that mediates connections between the microcomputer 2610 and various devices 2760 existing in the vehicle.
  • the in-vehicle device interface 2660 may establish a wireless connection using a wireless communication protocol such as a wireless LAN, Bluetooth (registered trademark), NFC (Near Field Communication), or WUSB (Wireless USB (Universal Serial Bus)).
  • the in-vehicle device interface 2660 is connected to a wired terminal such as USB, HDMI (registered trademark) (High Definition Multimedia Interface), MHL (Mobile High-definition Link) via a connection terminal (and a cable if necessary).
  • a connection may be established.
  • the in-vehicle device interface 2660 exchanges a control signal or a data signal with, for example, a mobile device or wearable device possessed by a passenger, or an in-vehicle device 2760 that is carried in or attached to the vehicle.
  • the in-vehicle network interface 2680 is an interface that mediates communication between the microcomputer 2610 and the communication network 2010.
  • the in-vehicle network interface 2680 transmits and receives signals and the like in accordance with a predetermined protocol supported by the communication network 2010.
  • the microcomputer 2610 of the integrated control unit 2600 is acquired via at least one of the general-purpose communication interface 2620, the dedicated communication interface 2630, the positioning unit 2640, the beacon receiving unit 2650, the in-vehicle device interface 2660, and the in-vehicle network interface 2680.
  • the vehicle control system 2000 is controlled according to various programs based on the information to be performed.
  • the microcomputer 2610 calculates a control target value for the driving force generator, steering mechanism, or braking device based on the acquired information inside and outside the vehicle, and outputs a control command to the drive system control unit 2100. May be.
  • the micro computer 2610 may perform cooperative control for the purpose of avoiding collision of the vehicle or mitigating impact, following traveling based on the inter-vehicle distance, vehicle speed maintaining traveling, automatic driving, and the like.
  • the micro computer 2610 is information acquired via at least one of the general-purpose communication interface 2620, the dedicated communication interface 2630, the positioning unit 2640, the beacon receiving unit 2650, the in-vehicle device interface 2660, and the in-vehicle network interface 2680. Based on the above, local map information including peripheral information of the current position of the vehicle may be created. Further, the micro computer 2610 generates a warning signal by predicting dangers such as a collision of the vehicle, approach of a passerby or a building, and approaching a closed road based on the acquired information. You may do it.
  • the warning signal here is, for example, a signal for generating a warning sound or lighting a warning lamp.
  • the micro computer 2610 may realize the drive recorder function using the storage unit 2690 described above. Specifically, the micro computer 2610 may control recording of images around the vehicle and the vehicle interior imaged by the imaging unit 2410 (steady recording, trigger recording of near-miss images (described later), etc.). .
  • the sound image output unit 2670 transmits an output signal of at least one of sound and image to an output device capable of visually or audibly notifying the passenger of the vehicle or the outside of the vehicle.
  • the output device is a display device
  • the display device can display results obtained by various processes performed by the microcomputer 2610 or information received from other control units in various formats such as text, images, tables, and graphs. Display visually.
  • the audio output device converts an audio signal made up of reproduced audio data or acoustic data into an analog signal and outputs it aurally.
  • an audio speaker 2710, a display unit 2720, and an instrument panel 2730 are provided as output devices.
  • Display unit 2720 may include, for example, at least one of an on-board display or a head-up display.
  • a head-up display is a device that uses a windshield to project an image (like an image at an infinite point) into the driver's field of view.
  • the display unit 2720 may have an AR (Augmented Reality) display function.
  • the vehicle may be provided with headphones, a projector, a lamp, or the like as an output device.
  • the instrument panel 2730 is arranged in front of the driver's seat (and the passenger seat), and includes a meter panel indicating information necessary for driving the vehicle such as a speedometer, tachometer, fuel gauge, water temperature gauge, and distance meter. Including a navigation system that provides driving guidance to the destination.
  • the vehicle control system 2000 shown in FIG. 1 may be physically integrated as one unit. Further, the vehicle control system 2000 may further include a control unit other than that shown in FIG. Alternatively, at least one of the control units 2100 to 2600 may be physically constituted by a group of two or more units. Also, some of the functions that the control units 2100 to 2600 should perform may be realized by other control units. In short, it is allowed to change the configuration of the vehicle control system 2000 as long as the above-described arithmetic processing realized by transmission / reception of information via the communication network 2010 is performed by any control unit. . In addition, a sensor or device connected to any one of the control units may be connected to another control unit, and a plurality of pieces of information detected or acquired by a certain sensor or device may be transmitted via the communication network 2010. The control units may transmit and receive each other.
  • the micro computer 2610 can realize the drive recorder function by using the storage unit 2690 (or other large-capacity storage device).
  • the information recorded on the drive recorder is important information for objectively judging the behavior of the car before and after the accident and aiming at accident prevention.
  • the main purpose of the drive recorder is to record accident images and near-miss images (hereinafter, both images are collectively referred to as “near-hat images”). Therefore, it is necessary to accurately extract and record the near-miss video while constantly recording the vehicle information detected every moment in the finite time that can be recorded in the storage unit 2690 or the like (overwriting and saving in the finite time). There is.
  • trigger recording is a method for recording a near-miss video to a storage device dedicated to trigger recording (or a storage area dedicated to trigger recording) that is provided separately from regular recording. For example, there is a method of designating an overwriting-prohibited section of a near-miss video for a storage device that performs steady recording.
  • a technique for trigger recording of a near-miss video with higher accuracy according to the near-hat feature detected based on the recognition result of the object included in the captured image of the in-vehicle camera is disclosed.
  • the technology disclosed in this specification it is detected that a near-miss has occurred according to a near-hat characteristic based on the object recognition result of the image of the vehicle-mounted camera.
  • the near miss event is not erroneously detected from the resulting acceleration change, and the trigger recording accuracy is improved. That is, the recording of erroneously detected video can be suppressed, and the trouble of searching and managing a near-miss video can be greatly reduced.
  • Such an effect of the technology disclosed in the present specification also depends on an improvement in recognition technology for a vehicle-mounted camera image in recent years.
  • a near-miss event with a small acceleration change such as a collision with a vehicle that is much lighter than the vehicle's own weight or a mischief during parking, is also included in the object recognition result of the in-vehicle camera image. Can be detected on the basis.
  • Trigger recording can also be performed as post-processing on a device outside the vehicle such as a PC (Personal Computer) or a server.
  • highly accurate trigger recording can also be performed on the recorded video of a drive recorder that is already in operation.
  • the technology disclosed in this specification is based on the detection of a near-miss event based on the object recognition result of an image captured by an in-vehicle camera.
  • a distance image depth map
  • the near-miss can be more accurately detected.
  • a distance image can be acquired by using a stereo camera for the imaging unit 2410.
  • the technology disclosed in the present specification combines a near-miss feature detected based on the object recognition result of an image captured by an in-vehicle camera and map information (at the current position of the vehicle), so that the near-miss is more accurately detected.
  • Video trigger recording can be performed.
  • the technology disclosed in the present specification combines near-miss features detected based on the object recognition result of the video by the in-vehicle camera and detection information from the acceleration sensor and other various sensors, so that near-miss can be achieved with higher accuracy.
  • Video trigger recording can be performed.
  • the technology disclosed in this specification detects near-miss features based on the result of object recognition not only on the image of the vehicle periphery (that is, outside the vehicle) imaged by the imaging unit 2410 but also on the image of the dramoni camera that images the interior of the vehicle. You may make it do.
  • Near misses can be broadly classified into three types: near incidents caused by driving of the own vehicle, near incidents caused by driving of surrounding vehicles, and near incidents caused by other than vehicle driving.
  • the causes of near-miss due to driving of the own vehicle include abnormal driving of the own vehicle and illegal driving of the own vehicle.
  • the abnormal driving of the own vehicle includes, for example, spin and slip of the own vehicle.
  • the road ahead or rear imaged by an in-vehicle camera such as the imaging unit 2410 becomes an abnormal trajectory in the screen. Therefore, it is possible to detect an abnormal driving of the host vehicle by recognizing the road from the image captured by the in-vehicle camera. For example, lane markings such as a lane center line, a lane boundary line, and a lane boundary line can be extracted from a road imaged by an in-vehicle camera to recognize an object on the road. Further, since the steering direction becomes abnormal with respect to the lane when the host vehicle spins, the steering angle of the steering wheel detected by the vehicle state detection unit 2110 is used together with the object recognition result on the road. Thus, the abnormality can be detected with higher accuracy.
  • abnormal driving of the vehicle such as spin and slip may be caused by the driver performing a driving operation such as a sudden brake or a sudden handle to avoid a collision.
  • a driving operation such as a sudden brake or a sudden handle to avoid a collision.
  • objects other than the own vehicle peripheral vehicles, passers-by, animals, road works, guardrails, utility poles, buildings, and other obstacles
  • abnormal driving of the host vehicle can be detected.
  • the host vehicle turns left and right, a blind spot is likely to occur. It is also possible to recognize an object present at the blind spot position from an image around the host vehicle imaged by the in-vehicle camera.
  • abnormal driving of the vehicle due to deterioration of the surrounding environment can be detected quickly or in advance.
  • the driver's condition can cause the vehicle to become abnormally driven, such as looking aside, driving loosely, leaving the driver (including leaving the steering wheel for a long time), drowsy driving, and loss of consciousness.
  • the abnormal driving of the host vehicle is also performed using the detection result of the driver state by the in-vehicle state detection unit 2510 such as a dramoni camera or a biosensor. Can be detected. Further, not only the captured image of the outside of the vehicle by the imaging unit 2410 but also the captured image of the interior of the vehicle by the dramoni camera may be recorded by trigger.
  • violations of the vehicle include driving that deviates from the vehicle's lane, speed limit violations, stop line ignorance, signal ignorance, one-way violations, and other signs violations. be able to.
  • the traffic regulation mentioned here is, for example, the road traffic law.
  • violations may include acts that violate traffic rules and manners (hereinafter the same).
  • the vehicle spins or slips, it changes the acceleration of the vehicle body.
  • many of the abnormal driving of the host vehicle can be detected even by using the detection result of the acceleration sensor because the driving operation such as sudden braking or sudden steering is performed and the acceleration changes.
  • the abnormal driving does not always involve a change in acceleration, and the acceleration change does not necessarily result from the abnormal driving.
  • driving in violation of the host vehicle if the driver overlooks traffic regulations stipulated on the running road, such as overlooking a road sign, driving operations such as sudden braking and sudden steering are not performed. It is difficult to detect based on the detection result.
  • Possible causes of near-miss due to driving of surrounding vehicles include abnormal driving of surrounding vehicles and illegal driving of surrounding vehicles.
  • the abnormal driving of surrounding vehicles includes the approaching of surrounding vehicles (in particular, preceding vehicles), the approaching of surrounding vehicles to the host vehicle, and the like. It is possible to recognize the surrounding vehicles from the image captured by the in-vehicle camera and detect the approaching of the surrounding vehicles and the approaching of the own vehicle. Further, by using the distance image in combination, the distance between the surrounding vehicles and the distance between the host vehicle and the surrounding vehicles can be measured with higher accuracy.
  • Violations of neighboring vehicles can include driving that deviates from the lanes of neighboring vehicles, speed limit violations, ignoring stop lines, ignoring signals, one-way violations, and other sign violations.
  • Recognize objects such as lane markings (roadway center line, lane boundary line, roadway outer line, etc.) and roadside belts from images captured by in-vehicle cameras, or be placed on the roadside or drawn on the road surface
  • the restriction (one-way traffic etc.) applied to the running road is identified from the object recognition results of the various road signs (same as above).
  • information such as traffic regulation may be acquired using map information (at the current position of the host vehicle). And when the surrounding vehicle by which object recognition was based on the image
  • the acceleration sensor changes when the driver performs driving operations such as sudden braking or sudden steering.
  • a near-miss can be detected using the result.
  • driving operation such as sudden braking or sudden steering is not performed, so the near-miss is detected based on the detection result of the acceleration sensor. It is difficult. In many cases, the driver is unaware of the illegal driving of the surrounding vehicle.
  • Patent Document 1 discloses a driving support device that controls the start of recording on a drive / recorder based on the result of image recognition of an external video.
  • a stop lamp, a hazard lamp, a turn signal of a preceding vehicle is disclosed. Recognize the lighting.
  • the technique described in Patent Document 1 since the recording of the video is controlled based on the rough behavior of the preceding vehicle, the video other than the abnormal operation of the preceding vehicle (that is, not a near-miss) is also erroneously recorded.
  • the technique described in Patent Document 1 cannot record near-miss images related to abnormal driving of surrounding vehicles other than the preceding vehicle and illegal driving of surrounding vehicles.
  • Causes of near-miss caused by other than driving the vehicle include weather such as snow and rain, road conditions such as freezing of the road surface, and objects other than vehicles that may become obstacles (neighboring vehicles and passers-by,
  • the surrounding environment such as the presence of animals, road works, guardrails, utility poles, buildings, and other obstacles.
  • the acceleration of the vehicle body is accompanied, so that it can be detected using the detection result of the acceleration sensor.
  • the driver performs a driving operation such as a sudden brake or a sudden handle
  • the acceleration changes, and therefore, it can be detected using the detection result of the acceleration sensor.
  • the detection result of the acceleration sensor It is difficult to detect based on.
  • the technology disclosed in this specification basically detects near-miss features that trigger a near-miss video recording based on the object recognition result of the image captured by the in-vehicle camera. It may be combined with information to improve detection accuracy, and may be used in combination with detection results of various sensors such as an acceleration sensor. Alternatively, the near-miss feature may be detected by measuring the degree of the near-miss as a “near-miss feature amount” obtained by quantification.
  • near-miss features that trigger a near-miss video recording include (1) the approach of an object that leads to a collision, (2) spin slip Six types are defined: (3) violation driving (including own vehicle and surrounding vehicles), (4) voice, (5) vehicle interior abnormality, and (6) other abnormalities around the own vehicle.
  • violation driving including own vehicle and surrounding vehicles
  • voice including own vehicle and surrounding vehicles
  • the surrounding vehicle or the object other than the vehicle is a target of object recognition for detecting the near-miss feature, and an object recognition process is performed on an image around the own vehicle captured by an in-vehicle camera such as the imaging unit 2410. Recognize objects. By capturing an area outside the driver's field of view with the in-vehicle camera, it is also possible to recognize an object at the blind spot position when turning left and right.
  • the distance between the recognized surrounding vehicles, the distance between the recognized surrounding vehicles and the own vehicle, and the distance between the recognized object and the own vehicle are also measured.
  • the distance image in addition to the video, the distance can be measured with higher accuracy.
  • a near-miss feature value that is quantified may be calculated based on the distance between objects or the time obtained by dividing the distance by the vehicle speed. Then, when the near-miss feature amount exceeds a predetermined threshold, it may be determined that a near-hat feature has been detected from the video, and may be used as a trigger for recording the near-miss video.
  • the near-miss feature may be determined by assigning a weight according to the surrounding environment to the calculated near-hat feature. Depending on the weather and the road surface condition, it can be operated so that the near-miss feature can be easily detected. Snow or rain may be further subject to object recognition, or the detection result of the environmental sensor (described above) included in the vehicle outside information detection unit 2420 may be used in combination.
  • Patent Document 1 discloses a driving support device that controls the start of recording on a drive / recorder based on the result of image recognition of an external video.
  • a stop lamp, a hazard lamp, a turn signal of a preceding vehicle is disclosed. Recognize the lighting.
  • the technique described in Patent Document 1 since the video recording is controlled by roughly determining the collision with the preceding vehicle, the approach between neighboring vehicles and the surrounding vehicles other than the own vehicle and the preceding vehicle It is thought that near-miss images such as the approach of the vehicle and the approach of obstacles other than the vehicle cannot be recorded.
  • spin means that the tire slides with respect to the road surface and the vehicle body rotates, so that the direction in which the vehicle wants to travel and the vehicle body direction are significantly different. Further, even if the tire slips, if the vehicle body does not rotate so much, it is a slip. Spin slip is an abnormal operation of the host vehicle.
  • the road ahead or behind the image captured by the in-vehicle camera such as the imaging unit 2410 becomes an abnormal trajectory in the screen. Therefore, when detecting near-miss features related to spin and slip, the road is a target for object recognition. Object recognition processing is performed on an image of the surroundings of the host vehicle captured by an in-vehicle camera such as the imaging unit 2410, and roads, lane markings drawn on the roads (roadway center line, lane boundary line, roadway outer line, etc.), shoulders, roads Recognize side belts. When the recognized road becomes an abnormal trajectory in the screen, it is detected as a near-miss feature of spin or slip.
  • the steering direction becomes abnormal with respect to the lane where the object is recognized, it is detected as a near-miss feature.
  • the near-miss feature can be detected with higher accuracy.
  • the vehicle moves differently than when the vehicle goes straight or turns left or right, such as when the entire screen of the image captured by the in-vehicle camera slides horizontally, it is detected as a near-miss feature of spin or slip To do.
  • a road can be recognized based on a lane line (a lane center line, a lane boundary line, a lane outside line, etc.). And based on the amount of displacement in the screen of the recognized object road, the angle formed by the steering direction with respect to the recognized direction of the road, the amount of horizontal displacement of the entire screen of the image captured by the in-vehicle camera, etc.
  • a digitized near-miss feature value may be calculated. Then, when the near-miss feature amount exceeds a predetermined threshold, it may be determined that the near-miss feature has been detected, and may be used as a trigger for recording the near-miss video.
  • the near-miss feature may be determined by assigning a weight according to the surrounding environment to the calculated near-hat feature. Depending on the weather and the road surface condition, it is possible to perform an operation so that the near-miss can be easily detected. Snow or rain may be further subject to object recognition, or the detection result of the environmental sensor (described above) included in the vehicle outside information detection unit 2420 may be used in combination.
  • Violent driving The illegal driving referred to here covers both illegal driving of the host vehicle and illegal driving of surrounding vehicles. This is because driving that violates traffic regulations (such as the Road Traffic Law), traffic rules, and manners tends to lead to near-misses and accidents. The same applies to violations of passers-by and bicycles as well as vehicles.
  • traffic regulations such as the Road Traffic Law
  • this category also includes violations of passers-by and bicycles that are not driving in violation of the vehicle but crossing in places other than crosswalks.
  • a road sign installed on a road or drawn on a road surface is recognized as an object, and the contents of regulations (one-way traffic, etc.) stipulated on the currently running road can be acquired.
  • the map information may be used to acquire information such as traffic regulations prescribed for the road that is running. And if it is the own vehicle, it is obtained based on the driving situation obtained by object recognition of roads and landscapes included in the image, the driving situation detected by the vehicle state detection unit 2110, the object recognition of road signs, and map information. If it does not match, it is detected as a near-miss feature related to the illegal driving of the host vehicle.
  • the surrounding vehicle if it is a nearby vehicle, it must analyze the travel status of the surrounding vehicle recognized from the image and compare the road regulation information obtained based on the object recognition of the road sign and the map information. For example, when a surrounding vehicle appears from an alley that violates one-way traffic, it is detected as a near-miss feature related to the violating driving of the surrounding vehicle.
  • the stop line on the road is recognized as an object, and due to the relationship between the vehicle speed or acceleration of the current vehicle and the stop line position, if it is impossible to stop, it is a near-miss feature regarding violation driving (stop position ignored) To detect.
  • red light or yellow traffic light signals are recognized as objects, and from the relationship between the current vehicle speed or acceleration and the position of the traffic light that recognized the object, it is related to illegal driving (ignoring signals) if it is impossible to stop.
  • Detect as near-miss feature. If it is the host vehicle, the vehicle state detection part 2110 detects the vehicle speed or acceleration of the host vehicle. In the case of a surrounding vehicle, the vehicle speed or acceleration is detected by object recognition.
  • the surrounding vehicle or the passer-by is a target for object detection.
  • the vehicle For violations of signal breach by surrounding vehicles, the vehicle recognizes both the driving conditions of the surrounding vehicles (stopping, turning left and right, etc.) and the lighting of the turn signal, and the driving situation does not match the lighting of the turn signal (the surrounding vehicle is turned When the vehicle turns in a direction different from the lighting direction of the signal or when the surrounding vehicle turns to the left or right without turning on the turn signal), a near-miss feature relating to a violation of the signal failure of the surrounding vehicle is detected.
  • the above-mentioned near-miss feature relating to the violation driving of the own vehicle or the surrounding vehicle and further the violation of the passerby is detected, it is used as a trigger for recording the near-miss video.
  • the vehicle interior information detection unit 2500 includes a microphone that collects vehicle interior sound (described above). By recognizing the vehicle interior sound collected by the microphone, it is possible to detect screams, crunches, sudden braking sounds, and collision sounds.
  • the near-miss feature may be detected by complementary use of the object recognition result of the image captured by the in-vehicle camera and the recognition result of the in-vehicle sound, and the near-miss image may be trigger-recorded. Further, when the near-miss feature is detected based on the vehicle interior sound, the drive recorder may record the vehicle interior sound together with the recording of the near-miss video.
  • Vehicle interior abnormality Depending on the driver's condition (abnormal behavior), the vehicle may become abnormal. As a near-miss feature related to vehicle interior abnormalities, you may be allowed to detect abnormal behavior of the driver such as looking aside, driving loosely, leaving the driver (including leaving the steering wheel for a long time), snoozing driving, loss of consciousness, etc. .
  • a vehicle interior abnormality is basically caused by driving of the host vehicle.
  • a driver or other passenger may be notified together with trigger recording of the near-miss video to avoid danger.
  • Information methods such as making a warning sound, displaying on the instrument panel, using a haptic device that gives the seat power, vibration, movement, etc., and information terminals such as smartphones carried by the passenger Can be used (such as sound output such as warning sound, image display, vibration function).
  • the near-miss feature not included in the above-mentioned (1) to (5) is detected as a near-hat feature related to other abnormalities around the own vehicle.
  • turn signals from surrounding vehicles are subject to object recognition in order to detect violations of signal breach of surrounding vehicles as near-miss features.
  • near-miss features related to abnormalities in the vicinity of the host vehicle
  • a sudden turn-on of the stop lamp of the preceding vehicle or a turn-on of the hazard lamp of the preceding vehicle may be detected.
  • the sudden turn-on of the stop lamp of the preceding vehicle indicates that the preceding vehicle is about to stop suddenly, and it is necessary to step on the brake or change the lane to another lane as soon as possible.
  • FIG. 3 schematically shows a functional configuration of a video processing apparatus 300 that controls recording of a near-hat video.
  • the illustrated video processing device 300 includes a video acquisition unit 301, an object recognition unit 302, an acceleration sensor 303, a detection unit 304, a sound acquisition unit 305, a sound recognition unit 306, a control unit 307, and a video recording unit. 308 and a memory 309 are provided.
  • the video processing apparatus 300 is realized as one function of the vehicle control system 100 illustrated in FIG. 1, for example, and is assumed to be used by being mounted on a vehicle.
  • the image acquisition unit 301 is mounted on a vehicle and acquires images captured by one or more in-vehicle cameras that capture the outside (vehicle periphery) and the interior of the vehicle.
  • the vehicle-mounted camera referred to here corresponds to, for example, a doramoni camera included in the imaging unit 2410 and the in-vehicle state detection unit 2510 in the vehicle control system 2000 illustrated in FIG.
  • the imaging unit 2410 includes a plurality of in-vehicle cameras and captures the periphery of the vehicle as described with reference to FIG.
  • the object recognizing unit 302 performs an object recognition process on the video around the vehicle acquired by the video acquiring unit 301 and the video in the passenger compartment, and detects a near-miss feature based on the recognition result.
  • the object recognition unit 302 corresponds to the vehicle exterior information detection unit 2400 that receives the image data captured by the imaging unit 2410 and the vehicle interior information detection unit 2500 that receives the image data captured by the dramony camera.
  • the definition of the near-miss feature detected by the object recognition unit 302 and the object to be recognized in order to detect each near-miss feature are as described above (see Table 1).
  • the object recognition unit 302 determines the weather based on the result of object recognition of snowfall or raining in the video, and performs weighting processing according to the weather. You may make it (it mentioned above). Alternatively, weather or weather information detected by an environmental sensor included in the vehicle outside information detection unit 2420 may be used.
  • the acceleration sensor 303 measures acceleration applied to the vehicle.
  • the detection unit 304 detects a change in acceleration measured by the acceleration sensor 303, and outputs a detection signal to the control unit 307 when the acceleration change exceeds a predetermined threshold value.
  • the acceleration sensor 303 is included in, for example, the vehicle state detection unit 2110 in the vehicle control system 2000 shown in FIG.
  • Detection unit 304 corresponds to drive system control unit 210 that performs arithmetic processing using a signal input from vehicle state detection unit 2110.
  • the acceleration measured by the acceleration sensor 303 changes depending on the impact caused by a vehicle accident, the driving operation such as a sudden brake or a sudden handle caused by a near-miss, a road step or unevenness, and how the driver drives. Due to change. Therefore, the detection signal output by the detection unit 304 does not always indicate an accident or a near-miss.
  • the sound acquisition unit 305 collects sound generated in the passenger compartment or around the vehicle and outputs a sound signal to the sound recognition unit 306.
  • the sound recognition unit 306 performs voice recognition processing and outputs a detection signal to the control unit 307 when detecting an abnormal sound such as a screaming voice, a horn, a sudden braking sound, or a collision sound in the vehicle interior.
  • an abnormal sound such as a screaming voice, a horn, a sudden braking sound, or a collision sound in the vehicle interior.
  • a vehicle interior abnormality is detected by the sound recognition unit 306 without being based on object recognition of an image captured by an in-vehicle camera.
  • the sound acquisition unit 305 corresponds to, for example, a voice sensor included in the vehicle exterior information detection unit 2420 in the vehicle control system 2000 illustrated in FIG. 1 or a microphone that collects a vehicle interior sound included in the vehicle interior state detection unit 2510. To do. Further, the voice recognition unit 306 is configured to perform various recognition / detection processes based on the received signal from the vehicle exterior state detection unit 2420 and the vehicle interior state based on the input signal from the vehicle interior state detection unit 2510. This corresponds to the in-vehicle information detection unit 2500 for detecting
  • the control unit 307 basically controls trigger recording of the captured video of the in-vehicle camera acquired by the video acquisition unit 301 in accordance with the near-hat feature detection signal output from the object recognition unit 302.
  • the control unit 307 corresponds to, for example, the integrated control unit 2600 or the microcomputer 2610 in the vehicle control system 2000 shown in FIG. 1, or can be realized by a plurality of control units included in the vehicle control system 2000.
  • a near-miss video is recorded as a separate file from the regular video recording (overwritten within a finite time) acquired by the video acquisition unit 301.
  • a trigger recording method in which meta information for designating an overwriting-prohibited section of a near-miss video is added to a storage device that performs steady recording.
  • the control unit 307 controls the near-hat image extraction process from the image captured by the in-vehicle camera in response to the input of the near-hat feature detection signal from the object recognition unit 302. Specifically, the control unit 307 outputs a trigger signal (recording trigger) for instructing the near-miss video recording, or generates meta information designating the overwriting prohibition of the section in which the near-hat feature is detected.
  • the control unit 307 may control the output of the recording trigger with reference to not only the detection signal of the near-miss feature but also the detection signal regarding the acceleration change from the detection unit 304.
  • the control unit 307 may control the output of the recording trigger based on the recognition result of a sound (horn, sudden brake sound, collision sound, etc.) indicating abnormality in the vehicle interior by the sound recognition unit 306.
  • the video recording unit 308 corresponds to a mass storage device that can be overwritten and saved, such as a magnetic storage device, a semiconductor storage device, an optical storage device, or a magneto-optical storage device, included in the storage unit 2690 in the integrated control unit 2600, for example.
  • the memory 309 is a RAM or EEPROM included in the storage unit 2690, and can be used for temporarily storing work data.
  • the video recording unit 308 records the video captured by the in-vehicle camera acquired by the video acquisition unit 301 as the steady recording video 310 while being overwritten and stored within a finite time.
  • the video recording unit 308 When the video recording unit 308 receives a recording trigger from the control unit 307, the video recording unit 308 determines that the video being acquired by the video acquisition unit 301 is a near-miss video, and the video before and after the recording trigger is generated is recorded as a steady recording video. And recorded as a trigger recording video 311 which is a separate file.
  • the video recording unit 308 can temporarily store the video before and after the recording trigger in the memory 309 when executing trigger recording.
  • the video recording unit 308 adds a meta information designating an overwriting-prohibited section in the steady recording video 310 in order to protect the near-miss video. There is also.
  • FIG. 4 shows a processing procedure for controlling the trigger recording of a near-miss video in the video processing apparatus 300 shown in FIG. 3 in the form of a flowchart.
  • the image acquisition unit 301 is mounted on a vehicle and acquires images captured by one or more in-vehicle cameras that image the outside of the vehicle (around the vehicle) and the interior of the vehicle (step S401).
  • the video acquired by the video acquisition unit 301 is regularly recorded in parallel with the trigger recording control of the near-miss video.
  • the object recognizing unit 302 performs object recognition processing on the image around the vehicle acquired by the video acquiring unit 301 and the image in the vehicle interior, and extracts a near-miss feature value indicating the degree of near-miss (step S402). Depending on the surrounding environment of the vehicle such as the weather, the near-miss feature value may be weighted (described above).
  • the object recognition unit 302 compares the near-miss feature value with a predetermined threshold (step S403).
  • the near-miss feature amount exceeds the threshold value, it is determined that the near-miss feature has been detected (Yes in step S403), and the object recognition unit 302 outputs a near-hat feature detection signal to the control unit 307.
  • the control unit 307 outputs a recording trigger to the video recording unit 308 (step S404), and instructs to record the near-miss video.
  • the control unit 307 may control the output of the recording trigger with reference to not only the detection signal of the near-miss feature from the object recognition unit 302 but also the detection signal regarding the acceleration change from the detection unit 304. In addition, the control unit 307 may control the output of the recording trigger based on the recognition result of a sound (horn, sudden brake sound, collision sound, etc.) indicating abnormality in the vehicle interior by the sound recognition unit 306.
  • a sound horn, sudden brake sound, collision sound, etc.
  • the video recording unit 308 records the steady recording video 310 while overwriting and saving the video captured by the in-vehicle camera acquired by the video acquisition unit 301 within a finite time.
  • the video recording unit 308 determines that the video being acquired by the video acquisition unit 301 is a near-miss video, and displays the video before and after the recording trigger is generated as the steady recording video. Is recorded as a trigger recording video 311 which is a separate file (step S405).
  • the video recording unit 308 can temporarily store the video before and after the recording trigger in the memory 309 when executing trigger recording.
  • steps S404 to S405 described above may be replaced with processing for generating meta information designating prohibition of overwriting of a section in which a near-miss feature is detected and adding the meta information to the steady recording result 310. .
  • the video processing device 300 functions as a drive recorder, the processes in the above steps S401 to S405 are repeatedly executed.
  • FIG. 5 shows a functional configuration of a video processing apparatus 500 as a modification of the video processing apparatus 300 shown in FIG.
  • the illustrated video processing apparatus 500 includes a video acquisition unit 501, an acceleration sensor 503, a detection unit 504, a sound acquisition unit 505, a sound recognition unit 506, a control unit 507, a video recording unit 508, and a memory 509. I have.
  • the video processing apparatus 500 is realized as one function of the vehicle control system 100 illustrated in FIG. 1, for example, and is assumed to be used by being mounted on a vehicle.
  • the functional modules included in the video processing device 500 those having the same names as the functional modules included in the video processing device 300 illustrated in FIG. 3 have the same functions.
  • the video acquisition unit 501 is mounted on a vehicle and acquires video captured by one or more in-vehicle cameras that capture the outside of the vehicle (around the vehicle) and the interior of the vehicle (same as above).
  • the video recording unit 508 includes a large-capacity storage device, and records the video acquired by the video acquisition unit 501 as a steady recording video 510. For convenience of explanation, it is assumed that the steady recording video 510 is recorded without being overwritten.
  • Acceleration sensor 503 measures acceleration applied to the vehicle.
  • the detection unit 504 detects a change in acceleration measured by the acceleration sensor 503, and outputs a detection signal to the control unit 507 when the acceleration change exceeds a predetermined threshold.
  • the sound acquisition unit 505 collects sounds generated in the passenger compartment or around the vehicle, and outputs a sound signal to the sound recognition unit 506.
  • the sound recognizing unit 506 performs voice recognition processing and outputs a detection signal to the control unit 507 when detecting an abnormal sound such as a screaming voice, a horn, a sudden braking sound, or a collision sound in the passenger compartment.
  • the control unit 507 detects a change in acceleration of the vehicle from a detection signal related to the acceleration change detected by the detection unit 504 and a detection signal related to an abnormal sound (such as a horn, a sudden braking sound, and a collision sound) recognized by the sound recognition unit 506. Meta information related to sound generated inside and outside the vehicle is output to the video recording unit 508.
  • the video recording unit 508 adds the meta information to the steady recording video 510 and records it.
  • the main difference between the video processing device 500 and the video processing device 300 shown in FIG. 3 is that the near-miss video extraction processing is not performed inside the video processing device 500 mounted on the vehicle but outside the vehicle (or video processing). This is a point that is performed by an external device 600 that is installed physically independent of the device 500.
  • the external device 600 acquires the steady recorded video 510 recorded by the video processing device 500, performs object recognition processing of the video, and appropriately refers to the added meta information, and performs post-processing of the near-miss video extraction processing. As implemented.
  • the external device 600 is, for example, an information terminal such as a PC or a tablet, or a server installed on a wide area network such as the Internet.
  • the means for the external device 600 to acquire the steady recorded video 510 from the video processing device 500 is arbitrary.
  • a steady recording video 510 is recorded on a recording medium such as a CD or DVD or a removable memory device (USB memory or the like), and such a recording medium or memory device of the external apparatus 600 is recorded.
  • the video processing device 500 and the external device 600 may be connected by a video transmission cable such as HDMI (registered trademark), and the steady recorded video 510 may be transferred together with the meta information.
  • the steady recorded video 510 may be transferred between the video processing device 500 and the external device 600 via the communication network 2010.
  • the steady recording video may be stored in an external server by wireless communication or the like, and may be simultaneously extracted on the server.
  • FIG. 6 schematically shows a functional configuration for performing a near-miss video extraction process in the external device 600.
  • the external device 600 includes a video acquisition unit 601, an object recognition unit 602, a control unit 607, a video extraction unit 608, and a memory 609.
  • the video acquisition unit 601 is steadily connected from the video processing apparatus 500 by any means such as a recording medium or a memory device, using a video transmission medium such as HDMI (registered trademark), or via the communication network 2010. Recorded video 510 is acquired together with meta information.
  • the video acquisition unit 601 outputs the steady recording video 510 to the video extraction unit 608 and allocates meta information added to the steady recording video 510 to the control unit 607.
  • the object recognition unit 602 performs an object recognition process on the steady recorded video 510 acquired by the video acquisition unit 601 and detects a near-miss feature based on the recognition result.
  • the definition of near-miss features detected by the object recognition unit 602 and the objects to be recognized in order to detect each near-miss feature are as described above (see Table 1).
  • the control unit 607 basically controls processing for extracting a near-miss video from the steady-recorded video 510 by the video extraction unit 608 in accordance with the near-hat feature detection signal output from the object recognition unit 602. Specifically, the control unit 607 outputs an extraction trigger for instructing the video extraction unit 608 to extract the near-miss video in response to the input of the near-hat feature detection signal from the object recognition unit 602. .
  • control unit 507 may control the output of the extraction trigger by appropriately referring not only to the detection signal of the near-miss feature but also to the detection signal related to the acceleration change described in the meta information. Further, the control unit 607 may control the output of the extraction trigger based on the recognition result of the sound (horn, sudden brake sound, collision sound, etc.) indicating the abnormality in the vehicle interior described in the meta information. .
  • the video extraction unit 608 determines that a near-miss occurs at the playback position corresponding to the extraction trigger output from the control unit 607, extracts the video before and after the playback position corresponding to the extraction trigger, and records the near-miss recording Record as video 611.
  • the video extraction unit 608 can temporarily store the playback video before and after the extraction trigger in the memory 609 in order to extract and record the near-miss video.
  • FIG. 7 shows, in the form of a flowchart, a processing procedure for extracting a near-miss video from the steady recording video 510 in the external device 600 shown in FIG.
  • the video acquisition unit 601 acquires the steady recording video 510 from the video processing device 500 (step S701).
  • the object recognition unit 602 performs an object recognition process on the steady recorded video 510 acquired by the video acquisition unit 301, and extracts a near-miss feature amount indicating the degree of near-miss (step S702). Depending on the surrounding environment of the vehicle such as the weather, the near-miss feature value may be weighted (described above).
  • the object recognition unit 602 compares the near-miss feature quantity with a predetermined threshold (step S603).
  • the control unit 607 outputs an extraction trigger to the video extraction unit 608 (step S704), and instructs the extraction of the near-miss video.
  • the control unit 607 may control the output of the extraction trigger by referring to not only the detection signal of the near-miss feature from the object recognition unit 602 but also the information on the acceleration change described in the meta information. Further, the control unit 607 may control the output of the extraction trigger based on the recognition result of the sound (horn, sudden brake sound, collision sound, etc.) indicating the abnormality in the vehicle interior described in the meta information. .
  • the video extraction unit 608 determines that a near-miss has occurred at the playback position corresponding to the extraction trigger output from the control unit 607, extracts the video before and after the playback position corresponding to the extraction trigger, A near-miss recorded image 611 is recorded (step S705).
  • the video extraction unit 608 can temporarily store the playback video before and after the extraction trigger in the memory 609 in order to extract and record the near-miss video.
  • FIG. 8 shows a functional configuration of a video processing apparatus 800 as another modification of the video processing apparatus 300 shown in FIG.
  • the illustrated video processing apparatus 800 includes a video acquisition unit 801, an acceleration sensor 803, a detection unit 804, a sound acquisition unit 805, a sound recognition unit 806, a control unit 807, a video recording unit 808, and a memory 809.
  • a map information acquisition unit 821 is provided.
  • the video processing apparatus 800 is realized as, for example, one function of the vehicle control system 100 illustrated in FIG. 1, and is assumed to be used in a vehicle.
  • those having the same names as the functional modules included in the video processing apparatus 300 illustrated in FIG. 3 have the same functions.
  • the image acquisition unit 801 is mounted on a vehicle and acquires images captured by one or more in-vehicle cameras that capture the outside of the vehicle (around the vehicle) and the interior of the vehicle (same as above). Further, a stereo camera is used as the in-vehicle camera, and the video acquisition unit 801 also acquires a distance image.
  • the object recognition unit 802 performs object recognition processing on the video around the vehicle acquired by the video acquisition unit 801 and the video in the vehicle interior, detects near-miss features based on the recognition result, and recognizes information on the recognized object and near-miss A feature detection signal is output to the control unit 807.
  • the object recognition unit 802 uses the distance image acquired by the video acquisition unit 801 to use objects (peripheral vehicles, passers-by, animals, road works, guardrails, utility poles) that become nearby vehicles and other object obstacles. , Buildings, and other obstacles) can be obtained, so that near-miss features related to object approaching to collision can be detected with higher accuracy.
  • objects peripheral vehicles, passers-by, animals, road works, guardrails, utility poles
  • Acceleration sensor 803 measures acceleration applied to the vehicle.
  • the detection unit 804 detects a change in acceleration measured by the acceleration sensor 803, and outputs a detection signal to the control unit 807 when the acceleration change exceeds a predetermined threshold.
  • the sound acquisition unit 805 collects sound generated in the passenger compartment or around the vehicle and outputs a sound signal to the sound recognition unit 806.
  • the sound recognition unit 806 performs voice recognition processing and outputs a detection signal to the control unit 807 when detecting an abnormal sound such as a screaming voice, a horn, a sudden braking sound, or a collision sound in the passenger compartment.
  • the map information acquisition unit 821 acquires map information at the current position of the vehicle based on position information generated by the positioning unit 2640 based on, for example, a GNSS signal received from a GNSS satellite.
  • the control unit 807 controls trigger recording of the captured image of the in-vehicle camera acquired by the video acquisition unit 801 in accordance with the information on the recognized object output from the object recognition unit 802 and the detection signal of the near-miss feature.
  • control unit 807 outputs a trigger signal (recording trigger) for instructing a near-miss video trigger recording to the video recording unit 808 in response to the input of a near-miss feature detection signal from the object recognition unit 802.
  • a trigger signal recording trigger
  • the control unit 807 also recognizes objects recognized by the object recognition unit 802 (road signs, lane markings (roadway center line, lane boundary line, roadway outer line, etc.), roadside belts, pedestrian crossings, traffic lights, etc.), map information Based on the map information acquired by the acquisition unit 821, information related to regulations (one-way traffic, etc.) that are applied to the road on which the vehicle is currently traveling can be identified. It is possible to more accurately detect driving, and even violations committed by passers-by and bicycles, and control the output of the recording trigger.
  • objects recognized by the object recognition unit 802 road signs, lane markings (roadway center line, lane boundary line, roadway outer line, etc.), roadside belts, pedestrian crossings, traffic lights, etc.
  • map information Based on the map information acquired by the acquisition unit 821, information related to regulations (one-way traffic, etc.) that are applied to the road on which the vehicle is currently traveling can be identified. It is possible to more accurately detect driving, and even violations committed by passers-by and bicycles, and
  • control unit 807 may control the output of the recording trigger with reference to not only the detection signal of the near-miss feature from the object recognition unit 802 but also the detection signal about the acceleration change from the detection unit 804.
  • control unit 807 may control the output of the recording trigger based on the recognition result of a sound (horn, sudden braking sound, collision sound, etc.) indicating abnormality in the passenger compartment by the sound recognition unit 806.
  • the video recording unit 808 records the video captured by the in-vehicle camera acquired by the video acquisition unit 801 as the steady recording video 810 while being overwritten and stored within a finite time.
  • the video recording unit 801 determines that the video being acquired by the video acquisition unit 801 is a near-miss video, and the video before and after the recording trigger is generated is recorded as a regular recording video. Is recorded as a trigger recording video 811 which is a separate file.
  • the video recording unit 808 can temporarily store the video before and after the recording trigger in the memory 809 for trigger recording.
  • the trigger recording control of the near-miss video can be realized by the same processing procedure as the flowchart shown in FIG.
  • video processing devices 300, 500, and 800 described above can be mounted as a module for the integrated control unit 2600 in the vehicle control system 2000 (for example, an integrated circuit module configured by one die).
  • a plurality of control units including the integrated control unit 2600 and other control units can be mounted in combination.
  • a function realized by the video processing devices 300, 500, and 800 can be realized by a computer program, and such a computer program is included in the vehicle control system 2000. It may be executed by any control unit. Further, such a computer program can be provided by being stored in a computer-readable recording medium. Examples of the recording medium include a magnetic disk, an optical disk, a magneto-optical disk, and a flash memory. In addition, such a computer program can be distributed via a network.
  • near-trigger video trigger recording using the technology disclosed in the present specification can be implemented not only as real-time processing during driving of the vehicle, but also as post-processing after driving is finished (for example, FIG. 5 to 7). In the latter case, no dedicated hardware is required in the drive recorder body. Trigger recording of near-miss images using the technology disclosed in this specification can also be applied to recorded images of drive recorders that are already in operation.
  • the technology disclosed in the present specification can be applied to various vehicles such as automobiles (including gasoline vehicles and diesel vehicles), electric vehicles, hybrid electric vehicles, motorcycles, bicycles, personal mobility, and vehicles other than vehicles traveling on roads. It can be applied to any moving body.
  • the drive recorder to which the technology disclosed in this specification is applied performs near-triggered feature extraction by object recognition of the image captured by the in-vehicle camera, and of course uses detection information from acceleration sensors and various sensors in combination. It is also possible to configure to perform trigger recording.
  • the process of detecting near-miss features by object recognition from the recorded video of the drive recorder may be performed as real-time processing in a running car or as post-processing after driving of the car is finished. .
  • the process of detecting near-miss features by object recognition from the recorded video of the drive recorder may be performed by a device other than the drive recorder main body (for example, on a server) in addition to being performed by the drive recorder main body.
  • an object recognition unit that detects a feature of a scene that may lead to an accident based on a recognition result of an object included in an image obtained by imaging the outside or inside of the vehicle;
  • a control unit that controls processing of the video in response to detection of the feature;
  • a video processing apparatus comprising: (1-1) The control unit controls recording of the video according to the characteristics.
  • a trigger recording unit (recording images before and after the near-miss) is further provided, The control unit controls recording of the video on the trigger recording unit according to the characteristics.
  • the apparatus further includes one or more imaging units that are mounted on the vehicle and image the outside or the inside of the vehicle.
  • the object recognition unit detects a feature related to the approach of the object recognized from the video as the feature.
  • the object recognizing unit detects, as the feature, a feature related to the proximity of neighboring vehicles that have recognized the object.
  • the object recognizing unit detects, as the feature, a feature related to the proximity of the vehicle that has recognized the object or the other vehicle, and the vehicle.
  • the video processing apparatus according to (1) above.
  • the object recognition unit further detects a feature related to the approach with reference to a distance image.
  • the video processing device according to any one of (2) to (4) above.
  • the vehicle further includes a vehicle outside information detection unit that detects a surrounding environment of the vehicle, The object recognizing unit further detects the feature related to the approach in consideration of the surrounding environment;
  • the video processing device according to any one of (2) to (5) above.
  • the object recognition unit detects a feature related to spin or slip of the vehicle based on a trajectory in a road screen recognized from the video as the feature.
  • the video processing apparatus recognizes a road based on a lane marking, a road shoulder, and a roadside belt drawn on the road from the video.
  • the video processing apparatus according to (7) above.
  • the vehicle further includes a vehicle state detection unit that detects a steering direction of the vehicle, The object recognition unit detects, as the feature, a feature related to spin or slip of the vehicle based on an angle between a road recognized from the video and the steering direction.
  • the video processing apparatus according to (1) above.
  • a vehicle outside information detection unit for detecting an ambient environment of the vehicle is further provided, The object recognition unit detects characteristics related to spin or slip of the vehicle in consideration of the surrounding environment.
  • the video processing device according to any one of (7) to (9) above.
  • the object recognition unit detects, as the feature, a feature relating to a violation of the vehicle or its surrounding vehicles, a violation of a passerby, The video processing apparatus according to (1) above.
  • the object recognition unit recognizes a lane or a roadside band from the video, and detects a feature relating to traveling that deviates from the lane of the vehicle.
  • (13) The object recognition unit recognizes a lane or a roadside belt and a surrounding vehicle from the video, and detects a feature related to traveling that deviates from the lane of the surrounding vehicle.
  • the object recognizing unit obtains information related to a restriction defined for a road on the basis of the object recognition result of the video, and a traveling state of the vehicle or a surrounding vehicle does not match the restriction. To detect features related to illegal driving, The video processing apparatus according to (11) above. (15) Further, based on the map information, obtain information related to regulations stipulated for the road that is running, The video processing apparatus according to (14) above. (16) The object recognition unit recognizes at least one of a road sign installed on the side of the road, a road sign drawn on the road surface, a stop line position drawn on the road, or a traffic light from the video.
  • the object recognizing unit recognizes both the driving situation of the surrounding vehicle and the lighting of the lamp, and detects a feature related to the violation of the signal default of the surrounding vehicle when the driving situation does not match the lighting of the lamp.
  • the object recognizing unit detects a feature related to an abnormality in a vehicle interior of the vehicle.
  • (21) a sound acquisition unit that acquires sound outside or inside the vehicle; A sound acquisition unit that detects the feature based on a sound recognition result acquired by the sound acquisition unit;
  • the video processing apparatus according to (1) further including: (22) The sound acquisition unit modulates sound other than pre-registered sound, The video processing apparatus according to (21) above.
  • the object recognition unit detects the feature based on a recognition result of a driver included in a video obtained by photographing the inside of the vehicle.
  • a vehicle interior state detection unit that detects the state of the driver is further provided. The object recognition unit detects the feature by referring to a driver state together with a driver recognition result.
  • the object recognition unit detects the feature based on a result of object recognition of lighting of a stop lamp and a hazard lamp of a preceding vehicle of the vehicle.
  • the video processing apparatus according to (1) above.
  • a video processing method
  • DESCRIPTION OF SYMBOLS 300 ... Video processing apparatus 301 ... Video acquisition part 302 ... Object recognition part 303 ... Accelerometer, 304 ... Detection part, 305 ... Sound acquisition part 306 ... Sound recognition part, 307 ... Control part 308 ... Video recording part, 309 ... Memory 310 ... steady recording video, 311 ... trigger recording video 500 ... video processing device, 501 ... video acquisition unit 503 ... acceleration sensor, 504 ... detection unit, 505 ... sound acquisition unit 506 ... sound recognition unit, 507 ... control unit 508 ... Video recording unit, 509... Memory, 510. Stationary recording video 600. Video processing device, 601. Video acquisition unit, 602. Object recognition unit 607.
  • vehicle interior information detection Unit 2510 ... In-vehicle state detection unit 2600 ... Integrated control unit, 2610 ... Micro computer 2620 ... General-purpose communication interface 2630 ... Dedicated communication interface, 2640 ... Positioning unit 2650 ... Beacon receiving unit, 26 DESCRIPTION OF SYMBOLS 0 ... In-vehicle apparatus interface 2670 ... Audio

Abstract

車載カメラで撮像した映像から事故映像やヒヤリハット映像のみを記録し、又は、車載カメラの記録映像から事故映像やヒヤリハット映像を抽出する。物体認識部(302)は、映像取得部(301)で取得した車両周辺の映像や車室内の映像に対して物体認識処理を行ない、認識結果に基づいて物体間の衝突や自車両の異常運転、自車両又は周辺車両の違反運転などに関するヒヤリハット特徴を検出する。コントロール部(307)は、基本的には、物体認識部(302)から出力されるヒヤリハット特徴の検出信号に応じて、映像取得部(301)で取得される車載カメラの撮影映像のトリガー記録の制御を行なう。

Description

映像処理装置及び映像処理方法
 本明細書で開示する技術は、映像の記録制御や記録映像の解析を行なう映像処理装置及び映像処理方法に係り、特に、車載カメラで撮像した映像の記録制御や記録映像の解析を行なう映像処理装置及び映像処理方法に関する。
 車載カメラの撮像映像を始めとして車両の情報を記録する装置の開発が進められている。この種の装置は、「ドライブ・レコーダー」あるいは「イベント・データ・レコーダー」とも呼ばれる(以下では、ドライブ・レコーダーに統一する)。ドライブ・レコーダーに記録される情報は、事故の前後に自動車の挙動を客観的に判断し、さらに事故防止を目指す上で重要な情報である。最近では、多くの自動車にドライブ・レコーダーが装備されるようになってきている。
 ドライブ・レコーダーの主目的は事故の記録であり、メモリーに記録できる有限時間の中で、時々刻々と検出される車両の情報を上書き保存しつつ、事故の記録は消えないように保存しておく必要がある。例えば、加速度センサーの情報に基づいて「衝突による衝撃」や「ヒヤリハットに伴う急ブレーキなどによる加速度変化」を検知して、その前後の映像を上書き禁止にして保存する機能を搭載したドライブ・レコーダーが多い(例えば、特許文献1及び2を参照のこと)。
 しかしながら、加速度センサーの情報を利用する場合、事故やヒヤリハットに伴う加速度変化と、路面の段差や凹凸、運転者の運転の仕方などに起因する加速度変化を見分けるのが難しい。この結果、誤検出による上書き禁止が頻発し、事故映像やヒヤリハット映像が多くの誤検出映像の中に埋没して、ドライブ・レコーダーの機能を有効に活用できなくなってしまう。
 また、加速度センサーの情報では、車両の自重よりずっと軽いものとの衝突や駐車中のいたずらなどに反応できないケースもある。設置車両毎に、ユーザーがセンサーの感度を個別に調整できる製品も存在する。しかしながら、上記誤検出の低減のための調整に手間がかり、ユーザーが調整できないケースもある。
特開2012-221134号公報 特開2013-182573号公報
 本明細書で開示する技術の目的は、車載カメラで撮像した映像から事故映像やヒヤリハット映像のみを記録し、又は、車載カメラの記録映像から事故映像やヒヤリハット映像を抽出することができる、優れた映像処理装置及び映像処理方法を提供することにある。
 本明細書で開示する技術は、上記課題を参酌してなされたものであり、その第1の側面は、
 車両の外部又は内部を撮像した映像に含まれる物体の認識結果に基づいて、事故に至る可能性があるシーンの特徴を検出する物体認識部と、
 前記特徴が検出されたことに応じて前記映像の処理を制御する制御部と、
を具備する映像処理装置である。
 本明細書で開示する技術の第2の側面によれば、第1の側面に記載の映像処理装置の前記物体認識部は、前記特徴として、前記映像から認識した物体の接近に関する特徴を検出するように構成されている。
 本明細書で開示する技術の第3の側面によれば、第1の側面に記載の映像処理装置の前記物体認識部は、前記特徴として、物体認識した周辺車両同士の接近に関する特徴を検出するように構成されている。
 本明細書で開示する技術の第4の側面によれば、第1の側面に記載の映像処理装置の前記物体認識部は、前記特徴として、物体認識した周辺車両又はその他の物体と前記車両の接近に関する特徴を検出するように構成されている。
 本明細書で開示する技術の第5の側面によれば、第2の側面に記載の映像処理装置の前記物体認識部は、さらに距離画像を参照して、前記接近に関する特徴を検出するように構成されている。
 本明細書で開示する技術の第6の側面によれば、第2の側面に記載の映像処理装置は、前記車両の周囲環境を検出する車外情報検出部をさらに備えている。そして、前記物体認識部は、前記周囲環境をさらに考慮して、前記接近に関する特徴を検出するように構成されている。
 本明細書で開示する技術の第7の側面によれば、第1の側面に記載の映像処理装置の前記物体認識部は、前記特徴として、前記映像から認識した道路の画面内での軌道に基づいて前記車両のスピン又はスリップに関する特徴を検出するように構成されている。
 本明細書で開示する技術の第8の側面によれば、第7の側面に記載の映像処理装置の前記物体認識部は、前記映像から道路に引かれた区画線、路肩、路側帯に基づいて道路を認識するように構成されている。
 本明細書で開示する技術の第9の側面によれば、第1の側面に記載の映像処理装置は、前記車両のステアリングの方向を検出する車両状態検出部をさらに備えている。そして、前記物体認識部は、前記特徴として、前記映像から認識した道路と前記ステアリングの方向との角度に基づいて前記車両のスピン又はスリップに関する特徴を検出するように構成されている。
 本明細書で開示する技術の第10の側面によれば、第7の側面に記載の映像処理装置は、前記車両の周囲環境を検出する車外情報検出部をさらに備えている。そして、前記物体認識部は、前記周囲環境を考慮して、前記車両のスピン又はスリップに関する特徴を検出するように構成されている。
 本明細書で開示する技術の第11の側面によれば、第1の側面に記載の映像処理装置の前記物体認識部は、前記特徴として、前記車両又はその周辺車両の違反運転、通行人の違反行為に関する特徴を検出するように構成されている。
 本明細書で開示する技術の第12の側面によれば、第11の側面に記載の映像処理装置の前記物体認識部は、前記映像から車線又は路側帯を認識して、前記車両の車線を逸脱した走行に関する特徴を検出するように構成されている。
 本明細書で開示する技術の第13の側面によれば、第11の側面に記載の映像処理装置の前記物体認識部は、前記映像から車線又は路側帯と周辺車両を認識して、前記周辺車両の車線を逸脱した走行に関する特徴を検出するように構成されている。
 本明細書で開示する技術の第14の側面によれば、第11の側面に記載の映像処理装置の前記物体認識部は、前記映像の物体認識結果に基づいて走行中の道路に規定されている規制に関する情報を取得し、前記車両又はその周辺車両の走行状況が前記規制と一致しないときに、違反運転に関する特徴を検出するように構成されている。
 本明細書で開示する技術の第15の側面によれば、第14の側面に記載の映像処理装置は、さらに地図情報に基づいて、走行中の道路に規定されている規制に関する情報を取得するように構成されている。
 本明細書で開示する技術の第16の側面によれば、第11の側面に記載の映像処理装置の前記物体認識部は、前記映像から、道路脇に設置された道路標識、路面に描かれた道路標識、道路に引かれた停止線位置、又は信号機の少なくともいずれか1つを認識して、前記車両又はその周辺車両の道路標識違反、停止線位置無視、又は信号無視の少なくともいずれか1つを検出したときに、違反運転に関する特徴を検出するように構成されている。
 本明細書で開示する技術の第17の側面によれば、第11の側面に記載の映像処理装置の前記物体認識部は、道路上の停止線を物体認識し、前記車両又はその周辺車両の車速又は加速度と停止線位置までの関係から、停止が不可能であると判定した場合に、停止位置無視の違反運転に関する特徴を検出するように構成されている。
 本明細書で開示する技術の第18の側面によれば、第11の側面に記載の映像処理装置の前記物体認識部は、信号機の赤信号又は黄信号を物体認識し、前記車両又はその周辺車両の車速又は加速度と物体認識した信号機の位置までの関係から、停止が不可能であると判定した場合に、信号無視の違反運転に関する特徴を検出するように構成されている。
 本明細書で開示する技術の第19の側面によれば、第11の側面に記載の映像処理装置の物体認識部は、周辺車両の走行状況とランプの点灯をともに物体認識して、走行状況とランプの点灯が一致しないときに、周辺車両の合図不履行違反に関する特徴を検出するように構成されている。
 また、本明細書で開示する技術の第20の側面は、
 車両の外部又は内部を撮像した映像に含まれる物体の認識結果に基づいて、事故に至る可能性があるシーンの特徴を検出する物体認識ステップと、
 前記特徴が検出されたことに応じて前記映像の処理を制御する制御ステップと、
を有する映像処理方法である。
 本明細書で開示する技術によれば、車載カメラで撮像した映像の記録制御や記録映像の解析を好適に行なうことができる、優れた映像処理装置及び映像処理方法を提供することができる。
 なお、本明細書に記載された効果は、あくまでも例示であり、本発明の効果はこれに限定されるものではない。また、本発明が、上記の効果以外に、さらに付加的な効果を奏する場合もある。
 本明細書で開示する技術のさらに他の目的、特徴や利点は、後述する実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
図1は、本明細書で開示する技術を適用することができる車両制御システム2000の構成例を模式的に示した図である。 図2は、撮像部2410及び車外情報検出部2420の設置位置の一例を示した図である。 図3は、ヒヤリハット映像の記録を制御する映像処理装置300の機能的構成を模式的に示した図である。 図4は、映像処理装置300がヒヤリハット映像のトリガー記録を制御するための処理手順を示したフローチャートである。 図5は、映像処理装置500の機能的構成を示した図である。 図6は、外部装置600のヒヤリハット映像の抽出処理を行なうための機能的構成を模式的に示した図である。 図7は、外部装置600がヒヤリハット映像を抽出するための処理手順を示したフローチャートである。 図8は、映像処理装置800の機能的構成を示した図である。
 以下、図面を参照しながら本明細書で開示する技術の実施形態について詳細に説明する。
A.システム構成
 図1には、本明細書で開示する技術を適用することができる車両制御システム2000の構成例を模式的に示している。図示の車両制御システム2000は、駆動系制御ユニット2100と、ボディ系制御ユニット2200と、バッテリー制御ユニット2300と、車外情報検出ユニット2400と、車内情報検出ユニット2500と、統合制御ユニット2600などの複数の制御ユニットで構成されている。
 各制御ユニット2100~2600は、通信ネットワーク2010を介して相互接続されている。通信ネットワーク2010は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)、FlexRay(登録商標)などの任意の通信規格に準拠した車載通信ネットワークでよい。また、ローカルに定めたプロトコルでも良い。
 各制御ユニット2100~2600はそれぞれ、例えば、各種プログラムに従って演算処理を行なうマイクロ・コンピューターと、マイクロ・コンピューターにより実行されるプログラム又は各種演算に用いられるパラメーターなどを記憶する記憶部と、各種制御対象の装置を駆動する駆動回路とを備えている。また、各制御ユニット2100~2600は、通信ネットワーク2010を介して他の制御ユニットとの間で通信を行なうためのネットワーク・インターフェース(IF)を備えるとともに、車内外の装置又はセンサーなどとの間で有線通信又は無線通信により通信を行なうための通信インターフェースを備えている。
 駆動系制御ユニット2100は、各種プログラムに従って車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット2100は、内燃機関や駆動用モーターなどの車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置などの制御装置として機能する。また、駆動系制御ユニット2100は、ABS(Antilock Brake System)やESC(Electronic Stability Control)などの制御装置としての機能を備えてもよい。
 駆動系制御ユニット2100には、車両状態検出部2110が接続されている。車両状態検出部2110には、例えば、車体の軸回転運動の角速度を検出するジャイロ・センサー、車両の加速度を検出する加速度センサー、あるいは、アクセル・ペダルの操作量、ブレーキ・ペダルの操作量、ステアリング・ホイールの操舵角、エンジン回転数又は車輪の回転速度などを検出するためのセンサーのうちの少なくとも1つが含まれる。駆動系制御ユニット2100は、車両状態検出部2110から入力される信号を用いて演算処理を行ない、内燃機関や駆動用モーター、電動パワー・ステアリング装置、ブレーキ装置など(いずれも図示しない)を制御する。
 ボディ系制御ユニット2200は、各種プログラムに従って車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット2200は、キーレスエントリーシステムやスマートキーシステムといったドアロックの施錠と解除並びにシステム2000の始動と停止に関する制御装置、パワーウィンドウ装置や各種ランプ(ヘッドランプ、バックランプ、ブレーキ・ランプ、ターンシグナル、フォグランプを含む)の制御装置として機能する。ボディ系制御ユニット2200は、鍵に内蔵される(若しくは、鍵を代替する)携帯発信機から送出される電波又は各種スイッチの信号が到来すると、車両のドアロック装置やパワーウィンドウ装置、ランプなど(いずれも図示しない)を制御する。
 バッテリー制御ユニット2300は、各種プログラムに従って駆動用モーターの電力供給源である二次電池を制御する。例えば、バッテリー制御ユニット2300には、二次電池を備えたバッテリー装置2310は、二次電池のバッテリー温度やバッテリー出力電圧、バッテリーの残存容量などを計測して、バッテリー制御ユニット2300に出力する。バッテリー制御ユニット2300は、バッテリー装置2310からの入力情報を用いて演算処理を行ない、二次電池の温度調節制御やバッテリー装置2310に備えられた冷却装置(図示しない)などの制御を実施する。
 車外情報検出ユニット2400は、車両制御システム2000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット2400には、撮像部2410及び車外情報検出部2420のうちの少なくとも一方が接続されている。
 撮像部2410は、いわゆる車載カメラであるが、ToF(Time of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ又はその他のカメラのうちの少なくとも1つが含まれる。車外情報検出部2420には、例えば、現在の天候又は気象を検出するための環境センサーや、周辺車両や障害物、通行人などを検出するための周囲情報検出センサー、音声センサー(車両の周辺で発生する音声を集音するマイク)のうちの少なくとも1つ(いずれも図示しない)が含まれる。車外情報検出部2420が音声センサーの場合、クラクションや急ブレーキ、衝突音など、事故やヒヤリハットに伴う車外の音を取得することができる。
 ここで言う環境センサーは、例えば、雨天を検出する雨滴センサー、霧を検出する霧センサー、日照度合いを検出する日照センサー、降雪を検出する雪センサーなどである。また、周囲情報検出センサーは、超音波センサーやレーダー装置、LIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)装置などで構成される。
 これらの撮像部2410及び車外情報検出部2420は、それぞれ独立したセンサー乃至装置として構成してもよいし、複数のセンサー乃至装置が統合された装置として構成してもよい。
 撮像部2410及び車外情報検出部2420の設置位置の一例を図2に示しておく。同図中、撮像部2910、2912、2914、2916、2918は、撮像部2410に相当するが、例えば車両2900のフロントノーズ、サイドミラー、リアバンパー、バックドア及び車室内のフロントガラスの上部のうちの少なくとも1つの位置に配設されている。フロントノーズに備えられる撮像部2910及び車室内のフロントガラスの上部に備えられる撮像部2918は、主として車両2900の前方の画像を捕捉する。車両2900の前方を捕捉した画像に基づいて、先行車両や通行人、障害物、信号機、交通標識、車線などを検出することができる。また、サイドミラーに備えられる撮像部2912,2914は、主として車両2900の側方の画像を捕捉する。また、リアバンパー又はバックドアに備えられる撮像部2916は、主として車両2900の後方の画像を捕捉する。
 図2中、撮像範囲aはフロントノーズに設けられた撮像部2910の撮像範囲を示し、撮像範囲b並びにcはそれぞれ左右のサイドミラーに設けられた撮像部2912並びに2914の撮像範囲を示し、撮像範囲dはリアバンパー又はバックドアに設けられた撮像部2916の撮像範囲を示している。例えば、撮像部2910,2912,2914,2916で撮像された画像データを重ね合わることにより、車両2900を上方から見た俯瞰画像を得ることができる。なお、車室内のフロントガラスの上部に設けられた撮像部2918の撮像範囲については、図示を省略する。
 車両2900のフロント、リア、サイド、コーナー及び車室内のフロントガラスの上部にそれぞれ設けられる各車外情報検出部2920、2922、2924、2926、2928、2930は、例えば超音波センサーやレーダー装置で構成される。車両2900のフロントノーズ、リアバンパー、バックドア及び車室内のフロントガラスの上部に設けられる車外情報検出部2920、2926、2930は、例えばLIDAR装置であってよい。これらの車外情報検出部2920~2930は、主として先行車両、通行人又は障害物などの検出に用いられる。
 再び図1を参照しながら、車両制御システム2000の構成に関する説明を続ける。車外情報検出ユニット2400は、撮像部2410に車外の画像を撮像させる(図2を参照のこと)とともに、撮像された画像データを撮像部2410から受信する。また、車外情報検出ユニット2400は、車外情報検出部2420から検出情報を受信する。車外情報検出部2420が超音波センサー、レーダー装置、又はLIDAR装置である場合には、車外情報検出ユニット2400は、超音波又は電磁波などを発信させるとともに、車外情報検出部2420からの反射波の情報を受信する。
 車外情報検出ユニット2400は、車外情報検出部2420から受信した情報に基づいて、周囲の人や車両、障害物、標識又は路面上の文字などを認識する画像認識処理や、車外の物体を検出又は認識する物体認識処理、車外の物体までの距離検出処理を行なってもよい。また、車外情報検出ユニット2400は、車外情報検出部2420から受信した情報に基づいて、降雨、霧、又は路面の状態などの周囲環境を認識する環境認識処理を行なってもよい。
 なお、車外情報検出ユニット2400は、車外情報検出部2420から受信した画像データに対して歪補正又は位置合わせなどの処理を行なうとともに、異なる撮像部2410により撮像された画像データを合成して俯瞰画像又はパノラマ画像を生成するようにしてもよい。また、車外情報検出ユニット2400は、異なる撮像部2410により撮像された画像データを用いて、視点変換処理を行なうようにしてもよい。
 車内情報検出ユニット2500は、車内の情報を検出する。車内情報検出ユニット2500には、例えば、車両を運転するドライバー(以下、単に「ドライバー」とする)の状態を検出する車内状態検出部2510が接続されている。車内情報検出ユニット2500は、車内状態検出部2510から入力されるドライバー状態情報に基づいて、車内の情報を検出する。例えば、車内情報検出ユニット2500は、ドライバーの疲労度合い又は集中度合いを算出してもよいし、ドライバーが居眠りをしていないかを判別する。また、車内情報検出ユニット2500は、さまざまなドライバー状態を検出するとともに、ドライバー(又は、ドライバー以外の搭乗者)によって車両の運転の実施が可能か不可能かを判別する(後述)。ここで言うドライバーとは、車内にいる搭乗者のうち、車内の運転席に座っている搭乗者、あるいは、統合制御ユニット2600が運転を行なうべき人物として記憶している搭乗者を指すものとする。車内情報検出ユニット2500は、搭乗者の座っている位置によってドライバーを検知してもよいし、車内を撮像した画像に含まれる搭乗者の顔に基づいて、あらかじめドライバーとして登録してある顔画像と撮像された顔画像の比較によりドライバーを判別するようにしてもよい。
 車内状態検出部2510は、ドライバーや他の搭乗者など車室内を撮像する車載カメラ(ドラモニカメラ)や、ドライバーの生体情報を検出する生体センサー、車室内の音声を集音するマイクなどを含んでもよい。車内情報検出ユニット2500は、マイクで集音された音声信号に対してノイズ・キャンセリングなどの信号処理を行なうようにしてもよい。また、プライバシー保護などの目的で、特定の音声のみ変調をかけてもよい。生体センサーは、例えば、座面又はステアリング・ホイールなどに設けられ、ステアリング・ホイールを握るドライバーやステアリング・ホイールを握るドライバーの生体情報を検出する。マイクは、クラクションや急ブレーキ、搭乗者の音声(悲鳴)など、事故やヒヤリハットに伴う車室内の音を取得することができる。
 また、車内状態検出部2510は、運転席やその他の座席に加わる荷重(座席に人が座ったか否か)を検出する荷重センサーを含んでもよい。また、車内状態検出部2510は、アクセルやブレーキ、ステアリング、ワイパー、ターンシグナル、エアコン、その他のスイッチなど、ドライバーが車両を操作するさまざまなデバイスに対する操作に基づいて、ドライバーの状態を検出するようにしてもよい。また、車内状態検出部2510は、ドライバーの運転免許証不所持や運転拒否といったステータスのチェックを行なうようにしてもよい。
 統合制御ユニット2600は、各種プログラムに従って車両制御システム2000内の動作全般を制御する。図1に示す例では、統合制御ユニット2600は、マイクロ・コンピューター2610と、汎用通信インターフェース2620と、専用通信インターフェース2630と、測位部2640と、ビーコン受信部2650と、車内機器インターフェース2660と、音声画像出力部2670と、車載ネットワーク・インターフェース2680と、記憶部2690を備えている。また、統合制御ユニット2600には、入力部2800が接続されている。
 入力部2800は、例えば、タッチパネルやボタン、マイクロフォン、スイッチ、レバーなど、ドライバーやその他の搭乗者によって入力操作され得る装置で構成される。入力部2800は、例えば、赤外線又はその他の電波を利用したリモート・コントロール装置であってもよいし、車両制御システム2000の操作に対応した携帯電話機やPDA(Personal Digital Assistant)、スマートフォン、タブレットなどの外部接続機器(いずれも図示しない)であってもよい。入力部2800はマイクによる音声入力でもよい。入力部2800は、例えばカメラであってもよく、その場合、搭乗者はジェスチャーにより統合制御ユニット2600に情報を入力することができる。さらに、入力部2800は、例えば、上記の入力部2800を用いて搭乗者らにより入力された情報に基づいて入力信号を生成し、統合制御ユニット2600に出力する入力制御回路などを含んでもよい。ドライバーを始めとする搭乗者らは、この入力部2800を操作することにより、車両制御システム2000に対して各種のデータを入力したり処理動作を指示したりすることができる。
 記憶部2690は、マイクロ・コンピューターにより実行される各種プログラムを記憶するRAM(Random Access Memory)、及び各種パラメーター、演算結果やンサーの検出値などを記憶するEEPROM(ElectricallyErasable and Programmable Read Only Memory)を含んでいてもよい。また、記憶部2690は、HDD(Hard Disc Drive)などの磁気記憶デバイスやSSD(Solid State Drive)などの半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイスなどの大容量記憶装置(図示しない)で構成してもよい。大容量記憶装置は、例えば、撮像部2410で撮像した車両周辺や車室内の映像の記録(定常記録や、ヒヤリハット映像のトリガー記録(後述)など)に利用することができる。
 汎用通信インターフェース2620は、外部環境2750に存在するさまざまな機器との間の通信を仲介する汎用的な通信インターフェースである。汎用通信インターフェース2620は、GSM(登録商標)(Global System of Mobile communications)、WiMAX、LTE(Long Term Evolution)若しくはLTE-A(LTE-Advanced)などのセルラー通信プロトコル、Wi-Fi(登録商標)などの無線LAN、Bluetooth(登録商標)などのその他の無線通信プロトコルを実装している。汎用通信インターフェース2620は、例えば、セルラー通信における基地局や無線LANにおけるアクセスポイントなどを介して、外部ネットワーク(例えば、インターネット、クラウド・ネットワーク、又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーション・サーバー又は制御サーバー、管理サーバー(後述)など)へ接続することができる。また、汎用通信インターフェース2620は、例えばP2P(Peer To Peer)技術を用いて、当該車両の近傍に存在する端末(例えば、ドライバーや通行人が携帯する情報端末、走行中の道路に隣接する店舗に設置された店舗端末、人間の介在なしに通信ネットワークに接続するMTC(Machine Type Communication)端末(家庭用ガスのメーターや自動販売機など)など)と接続してもよい。
 専用通信インターフェース2630は、車両における使用を目的として策定された通信プロトコルをサポートする通信インターフェースである。専用通信インターフェース2630は、例えば、下位レイヤのIEEE802.11pと上位レイヤのIEEE1609との組合せであるWAVE(Wireless Access in Vehicle Environment)、又はDSRC(Dedicated Short Range Communications)、セルラー通信プロトコルといった標準プロトコルを実装してよい。専用通信インターフェース2630は、典型的には、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、車と家の間(Vehicleto Home)及び歩車間(Vehicle to Pedestrian)通信のうちの1つ以上を含む概念であるV2X通信を遂行する。
 測位部2640は、例えば、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して測位を実行し、車両の緯度、経度及び高度を含む位置情報を生成する。なお、測位部2640は、PlaceEngine(登録商標)などを利用して無線アクセスポイントからの電測情報に基づいて現在位置を特定してもよく、又は測位機能を有する携帯電話機、PHS(Personal Handy-phone System)若しくはスマートフォンといった搭乗者が所持する携帯端末から位置情報を取得するようにしてもよい。
 ビーコン受信部2650は、例えば、道路上に設置された無線局などから発信される電波又は電磁波を受信し、車両の現在位置や道路交通情報(渋滞、通行止め、所要時間などの情報)を取得する。なお、ビーコン受信部2650の機能を、上述した専用通信インターフェース2630に含めて実装することも可能である。
 車内機器インターフェース2660は、マイクロ・コンピューター2610と車内に存在するさまざまな機器2760との間の接続を仲介する通信インターフェースである。車内機器インターフェース2660は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)、又はWUSB(Wireless USB(Universal Serial Bus))といった無線通信プロトコルを用いて無線接続を確立してもよい。また、車内機器インターフェース2660は、図示しない接続端子(及び、必要であればケーブル)を介して、USB、HDMI(登録商標)(High Definition Multimedia Interface)、MHL(Mobile High-definition Link)などの有線接続を確立してもよい。車内機器インターフェース2660は、例えば、搭乗者が所持するモバイル機器やウェアラブル機器、又は車両に搬入され若しくは取り付けられる車内機器2760との間で、制御信号又はデータ信号を交換する。
 車載ネットワーク・インターフェース2680は、マイクロ・コンピューター2610と通信ネットワーク2010との間の通信を仲介するインターフェースである。車載ネットワーク・インターフェース2680は、通信ネットワーク2010によりサポートされる所定のプロトコルに則して、信号などを送受信する。
 統合制御ユニット2600のマイクロ・コンピューター2610は、汎用通信インターフェース2620、専用通信インターフェース2630、測位部2640、ビーコン受信部2650、車内機器インターフェース2660、車載ネットワーク・インターフェース2680のうちの少なくとも1つを介して取得される情報に基づいて、各種プログラムに従って、車両制御システム2000を制御する。
 例えば、マイクロ・コンピューター2610は、取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット2100に対して制御指令を出力してもよい。例えば、マイクロ・コンピューター2610は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、自動運転などを目的とした協調制御を行なうようにしてもよい。
 また、マイクロ・コンピューター2610は、汎用通信インターフェース2620、専用通信インターフェース2630、測位部2640、ビーコン受信部2650、車内機器インターフェース2660及び車載ネットワーク・インターフェース2680のうちの少なくとも1つを介して取得される情報に基づいて、当該車両の現在位置の周辺情報を含むローカル地図情報を作成するようにしてもよい。また、マイクロ・コンピューター2610は、取得される情報に基づいて、当該車両の衝突、通行人や建造物などの接近、通行止めの道路への進入などの危険を予測して、警告用信号を生成するようにしてもよい。ここで言う警告用信号は、例えば、警告音を発生させたり、警告ランプを点灯させたりするための信号である。
 また、マイクロ・コンピューター2610は、上述した記憶部2690などを利用して、ドライブ・レコーダー機能を実現するようにしてもよい。具体的には、マイクロ・コンピューター2610は、撮像部2410で撮像した車両周辺や車室内の映像の記録の制御(定常記録や、ヒヤリハット映像のトリガー記録(後述)など)を行なうようにしてもよい。
 音声画像出力部2670は、当該車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。出力装置が表示装置の場合、表示装置は、マイクロ・コンピューター2610が行なった各種処理により得られた結果又は他の制御ユニットから受信された情報を、テキスト、イメージ、表、グラフなどさまざまな形式で視覚的に表示する。また、出力装置が音声出力装置の場合、音声出力装置は、再生された音声データ又は音響データなどからなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。図1に示す例では、出力装置として、オーディオ・スピーカー2710、表示部2720、並びにインストルメント・パネル2730が装備されている。
 表示部2720は、例えば、オンボード・ディスプレイ又はヘッド・アップ・ディスプレイの少なくとも1つを含んでいてもよい。ヘッド・アップ・ディスプレイは、フロントガラスを利用してドライバーの視野に(無限遠の点に結像するような)画像を映し出すデバイスである。表示部2720は、AR(Augmented Reality)表示機能を備えていてもよい。上述した以外にも、ヘッドホン、プロジェクター又はランプなどを出力装置として車両に備えていてもよい。
 また、インストルメント・パネル2730は、運転席(並びに助手席)の正面に配置され、スピードメーターやタコメーター、燃料計、水温計、距離計といった自動車の走行に必要な情報を指し示すメーター・パネルや、目的地までの走行案内を行なうナビゲーション・システムを含む。
 なお、図1に示した車両制御システム2000を構成する複数の制御ユニットのうち少なくとも2つの制御ユニットを物理的に1つのユニットとして一体化して構成してもよい。また、車両制御システム2000が図1に示した以外の制御ユニットをさらに備えていてもよい。あるいは、制御ユニット2100~2600のうち少なくとも1つを物理的には2以上のユニットの集まりで構成してもよい。また、制御ユニット2100~2600が担うべき機能のうち一部を他の制御ユニットで実現するようにしてもよい。要するに、通信ネットワーク2010を介した情報の送受信によって実現される上記の演算処理がいずれかの制御ユニットで行なわれるように構成されていれば、車両制御システム2000の構成を変更することが許容される。また、いずれかの制御ユニットに接続されているセンサーや装置類が他の制御ユニットにも接続されていてもよく、あるセンサー又は装置で検出若しくは取得された情報を、通信ネットワーク2010を介して複数の制御ユニット間で相互に送受信するようにしてもよい。
B.ヒヤリハット映像の記録
 本実施形態に係る車両制御システム2000では、例えばマイクロ・コンピューター2610が記憶部2690(あるいはその他の大容量記憶装置)を利用して、ドライブ・レコーダー機能を実現することができる。
 ドライブ・レコーダーに記録される情報は、事故の前後に自動車の挙動を客観的に判断し、さらに事故防止を目指す上で重要な情報である。言い換えれば、ドライブ・レコーダーの主目的は、事故映像やヒヤリハット映像(以下では、両映像をまとめて「ヒヤリハット映像」と呼ぶことにする)を記録することにある。したがって、記憶部2690などに記録できる有限時間の中で、時々刻々と検出される車両の情報を定常記録(有限時間の中で上書き保存)しつつ、ヒヤリハット映像を正確に抽出して記録する必要がある。
 事故やヒヤリハットの事象を検出したことに応答してヒヤリハット映像を記録することを、「トリガー記録」と呼ぶことにする。トリガー記録は、事故やヒヤリハットの事象を検出したことに応答して、定常記録とは別に設けられたトリガー記録専用の記憶装置(若しくは、トリガー記録専用の記憶領域)にヒヤリハット映像を記録する方法や、定常記録を行なう記憶装置に対してヒヤリハット映像の上書き禁止区間を指定する方法などがある。
 従来のドライブ・レコーダーの多くは、加速度センサーの情報に基づいて事故やヒヤリハットの事象を検出している。しかしながら、加速度センサーの情報を利用する場合、事故やヒヤリハットに伴う加速度変化と、路面の段差や凹凸、運転者の運転の仕方などに起因する加速度変化を見分けるのが難しい。また、加速度センサーの情報では、車両の自重よりずっと軽いものとの衝突や駐車中のいたずらなどに反応できないケースもある。この結果、誤検出によるトリガー記録が頻発し、ヒヤリハット映像が多くの誤検出映像の中に埋没してしまうという問題がある。
 そこで、本明細書では、車載カメラの撮像映像に含まれる物体の認識結果に基づいて検出されるヒヤリハット特徴に応じて、より高精度にヒヤリハット映像のトリガー記録を行なう技術について開示する。
 本明細書で開示する技術によれば、車載カメラの映像の物体認識結果に基づくヒヤリハット特徴に応じてヒヤリハットが発生したことを検出するので、路面の段差や凹凸、運転者の運転の仕方などに起因する加速度変化からヒヤリハットの事象を誤検出することがなくなり、トリガー記録の精度が向上する。すなわち、誤検出映像の記録を抑制することができ、ヒヤリハット映像を検索、管理する手間を大幅に削減することができる。本明細書で開示する技術のかかる効果は、近年の車載カメラ映像に対する認識技術の向上にも依拠する。
 また、本明細書で開示する技術によれば、車両の自重よりもずっと軽いものとの衝突や、駐車中のいたずらなど、加速度変化が小さいヒヤリハットの事象も、車載カメラの映像の物体認識結果に基づいて検出することができる。
 本明細書で開示する技術によれば、映像に映った物体の認識結果に基づいてヒヤリハットの事象を検出するので、車両上のリアルタイム処理としてトリガー記録を行なう以外に、自動車の運転が終了した後にPC(Personal Computer)やサーバーなど車両外の装置上で事後処理としてもトリガー記録を行なうことができる。勿論、既に稼働しているドライブ・レコーダーの記録映像に対しても、高精度なトリガー記録を実施することができる。
 本明細書で開示する技術は、車載カメラによる撮像映像の物体認識結果に基づいてヒヤリハットの事象を検出することを基本とするが、距離画像(depth map)を組み合わせることによって、ヒヤリハットをさらに高精度に検出することができる。例えば、撮像部2410にステレオカメラを用いることで、距離画像を取得することができる。
 また、本明細書で開示する技術は、車載カメラによる撮像映像の物体認識結果に基づいて検出されるヒヤリハット特徴と、(車両の現在位置の)地図情報とを組み合わせることで、より高精度にヒヤリハット映像のトリガー記録を行なうことができるようになる。
 また、本明細書で開示する技術は、車載カメラによる映像の物体認識結果に基づいて検出されるヒヤリハット特徴と、加速度センサーやその他の各種センサーによる検出情報とを組み合わせることで、より高精度にヒヤリハット映像のトリガー記録を行なうことができるようになる。
 本明細書で開示する技術は、撮像部2410で撮像された車両周辺(すなわち、車外)の映像だけでなく、車室内を撮像するドラモニカメラの映像についても物体認識した結果に基づいてヒヤリハット特徴を検出するようにしてもよい。
B-1.ヒヤリハット特徴
 ここで、トリガー記録の対象となるヒヤリハットについて考察する。
 ヒヤリハットを、自車両の運転が原因となるヒヤリハットと、周辺車両の運転が原因となるヒヤリハットと、車両の運転以外が原因となるヒヤリハットの3種類に大別することができる。
 自車両の運転によるヒヤリハットの原因として、自車両の異常運転と、自車両の違反運転を挙げることができる。
 自車両の異常運転には、例えば自車両のスピンやスリップが含まれる。自車両の運転が異常になると、撮像部2410などの車載カメラで撮像した前方又は後方の道路が画面内で異常な軌道となる。したがって、車載カメラで撮像した映像から、道路を物体認識して、自車両の異常運転を検出することができる。例えば、車載カメラで撮像した道路から、車道中央線、車線境界線、車線境界線などの区画線を抽出して、道路を物体認識することができる。また、自車両がスピンした際には、車線に対してステアリングの方向が異常となることから、車両状態検出部2110が検出したステアリング・ホイールの操舵角を道路の物体認識結果と併せて利用することで、より高精度に異常を検出することができる。
 また、衝突を回避するためにドライバーが急ブレーキや急ハンドルなどの運転操作を行なったことにより、スピンやスリップなどの自車両の異常運転が引き起こされることもある。このような場合、車載カメラで撮像した自車両周辺の映像から、自車両以外の物体(周辺車両や通行人、動物、道路工事、ガードレール、電柱、建造物、その他の障害物)を物体認識することによって、自車両の異常運転を検出することができる。自車両が左右折する際、死角が生じ易い。車載カメラで撮像した自車両周辺の映像から、死角位置に存在する物体も認識することができる。
 雪や雨などの天候や、路面の凍結など道路の状態といった周囲環境に起因して、スピンやスリップなどの自車両の異常運転が発生することもある。車載カメラで撮像した自車両周辺の映像から、降雪や降雨、路面を物体認識することによって、周囲環境の悪化による自車両の異常運転を迅速若しくは事前に検出することができる。
 さらに、脇見や漫然運転、ドライバーの離席(ハンドルを長時間離していることを含む)、居眠り運転、意識喪失など、ドライバーの状態(異常な挙動)によって自車両が異常運転となることもある。このような場合、撮像部2410による車外(自車両周辺)の映像の物体認識に加え、ドラモニカメラや生体センサーなど車内状態検出部2510によるドライバー状態の検出結果も利用して、自車両の異常運転を検出することができる。また、撮像部2410による車外の撮像映像をトリガー記録するだけでなく、ドラモニカメラによる車室内の撮像映像もトリガー記録するようにしてもよい。
 また、自車両の違反運転は、その後に事故やヒヤリハットにつながる可能性がある。自車両の違反運転として、自車両の車線を逸脱した走行、制限速度違反、停止線の無視、信号無視、一方通行違反、その他の標識違反など、自車両が道路交通法規に違反した運転を挙げることができる。ここで言う交通法規は、例えば道路交通法である。また、違反には、交通法規の違反の他、交通ルールやマナーに反する行為を含めるようにしてもよい(以下、同様)。
 車載カメラで撮像した映像から、道路に引かれた区画線(車道中央線、車線境界線、車道外側線など)や横断歩道、路側帯、信号機などを物体認識したり、道路脇に設置されたり路面に描かれたりした各種の道路標識の物体認識結果から走行中の道路に適用されている規制(一方通行など)を特定したりし、自車両の運転が交通規制を遵守していないときには違反運転を検出することができる。また、必要に応じて、(自車両の現在位置における)地図情報を用いて、制限速度や一方通行など走行中の道路に規定されている交通規制などの情報を取得するようにしてもよい。
 自車両がスピンやスリップを起こすと、車体の加速度変化を伴う。また、自車両の異常運転の多くは、急ブレーキや急ハンドルなどの運転操作が行なわれて加速度変化を伴うので、加速度センサーの検出結果を用いても検出することができる。但し、異常運転が加速度変化を伴うとは限らず、また、加速度変化が異常運転に起因するとも限らない。一方、自車両の違反運転の場合、ドライバーが道路標識を見落とすなど走行中の道路に規定されている交通規制を看過したときには急ブレーキや急ハンドルなどの運転操作が行なわれないため、そもそも加速度センサーの検出結果に基づいて検出するのは困難である。これに対して、本明細書で開示する技術によれば、車載カメラで撮像した映像の物体認識結果に基づいて、自車両の異常運転だけでなく違反運転について、好適に検出することができる。
 周辺車両の運転によるヒヤリハットの原因として、周辺車両の異常運転と、周辺車両の違反運転を挙げることができる。
 周辺車両の異常運転には、周辺車両(とりわけ、先行車両)同士の接近、周辺車両の自車両への接近などが含まれる。車載カメラで撮像した映像から周辺車両を物体認識して、周辺車両同士の接近や自車両への接近を検出することができる。さらに距離画像を併用することで、周辺車両間の距離や自車両と周辺車両間の距離をより高精度に測定することができる。
 また、周辺車両の違反運転は、自車両を巻き込んで事故やヒヤリハットにつながる可能性がある。周辺車両の違反運転として、周辺車両の車線を逸脱した走行、制限速度違反、停止線の無視、信号無視、一方通行違反、その他の標識違反を挙げることができる。車載カメラで撮像した映像から、道路に引かれた区画線(車道中央線、車線境界線、車道外側線など)や路側帯などを物体認識したり、道路脇に設置されたり路面に描かれたりした各種の道路標識の物体認識結果から走行中の道路に適用されている規制(一方通行など)を特定したりする(同上)。必要に応じて、(自車両の現在位置における)地図情報を用いて交通規制などの情報を取得するようにしてもよい。そして、車載カメラで撮像した映像に基づいて物体認識された周辺車両が、交通規制を遵守していないときには違反運転を検出することができる。
 異常運転や違反運転を行なう周辺車両が接近してくるなど、自車両に危険を及ぼす場合には、ドライバーが急ブレーキや急ハンドルなどの運転操作を行なうと加速度変化を伴うので、加速度センサーの検出結果を用いてもヒヤリハットを検出することができる。しかしながら、異常運転や違反運転を行なう周辺車両がドライバーの死角にありドライバーが看過したときには急ブレーキや急ハンドルなどの運転操作が行なわれないため、加速度センサーの検出結果に基づいてヒヤリハットを検出するのは困難である。また、ドライバーが周辺車両の違反運転に気づかないことも多い。これに対し、本明細書で開示する技術によれば、車載カメラで撮像した映像の物体認識結果に基づいて、自車両だけでなく周辺車両の異常運転や違反運転について、好適に検出することができる。付言すれば、周辺車両の異常運転や違反運転の映像は、自車両のヒヤリハットや事故に結び付かなくても、その後に周辺車両が事故を起こすこともあり、トリガー記録を行なうに値する。
 なお、特許文献1には、外部映像を画像認識した結果に基づいてドライブ・レコーダーへの記録の開始をコントロールする運転支援装置について開示しているが、先行車両のストップランプやハザードランプ、ターンシグナルの点灯を認識するにとどまる。言い換えれば、特許文献1に記載の技術によれば、先行車両の大まかな挙動に基づいて映像の記録を制御するので、先行車両の異常運転以外の(すなわち、ヒヤリハットでない)映像も誤記録してしまう可能性が高く、また、特許文献1に記載の技術では、先行車両以外の周辺車両の異常運転や、周辺車両の違反運転に関するヒヤリハット映像を記録することはできないと思料される。
 車両(自車両及び周辺車両)の運転以外によるヒヤリハットの原因として、雪や雨などの天候や、路面の凍結など道路の状態、障害物となるような車両以外の物体(周辺車両や通行人、動物、道路工事、ガードレール、電柱、建造物、その他の障害物)の存在といった周囲環境を挙げることができる。車載カメラで撮像した自車両周辺の映像から、降雪や降雨、路面、周辺の物体などの周囲環境を物体認識することによって、車両運転以外のヒヤリハットの原因を検出することができる。
 天候や路面の状態の影響により自車両がスピンやスリップを起こすと、車体の加速度変化を伴うので、加速度センサーの検出結果を用いても検出することができる。また、自車両に物体が接近してきたときに、ドライバーが急ブレーキや急ハンドルなどの運転操作を行なうと、加速度変化を伴うので、加速度センサーの検出結果を用いても検出することができる。しかしながら、周囲環境が劣悪若しくは好ましくない状態であっても、まだ車両がスピンやスリップを起こしておらず、ドライバーが急ブレーキや急ハンドルなどの運転操作を行なっていないと、加速度センサーの検出結果に基づいて検出するのは困難である。これに対し、本明細書で開示する技術によれば、車載カメラで撮像した映像の物体認識結果に基づいて、ヒヤリハットの原因となる周囲環境を好適に検出することができる。
 本明細書で開示する技術では、基本的には車載カメラで撮像した映像の物体認識結果に基づいて、ヒヤリハット映像を記録するトリガーとなるヒヤリハット特徴を検出するが、必要に応じて距離画像や地図情報と組み合わせて検出精度を向上させ、また加速度センサーなど各種センサーの検出結果と併用してもよい。また、ヒヤリハットの程度を数値化した「ヒヤリハット特徴量」として測定して、閾値判定によりヒヤリハット特徴を検出するようにしてもよい。
 本明細書で開示する技術では、上述した3種類のヒヤリハットの原因を踏まえて、ヒヤリハット映像を記録するトリガーとなるヒヤリハット特徴として、(1)衝突に結び付く物体の接近、(2)スピン・スリップ、(3)違反運転(自車両及び周辺車両を含む)、(4)音声、(5)車室内異常、(6)その他の自車両周辺の異常、の6種類を定義する。以下、各ヒヤリハット特徴について、検出方法とともに説明する。
(1)衝突に結び付く物体の接近
 衝突に結び付く物体の接近に関するヒヤリハット特徴として、周辺車両同士の接近、自車両と周辺車両の接近、車両以外の物体(通行人、動物、道路工事、ガードレール、電柱、建造物、その他の障害物)の接近などを挙げることができる。衝突に結び付く物体の接近は、自車両の運転が原因となる場合と、周辺車両の運転が原因となる場合がある。
 周辺車両や、車両以外の上記物体がこのヒヤリハット特徴を検出するための物体認識の対象であり、撮像部2410などの車載カメラで撮像した自車両周辺の映像を物体認識処理して、周辺車両や物体を認識する。ドライバーの視野外の領域も車載カメラで撮像することで、左右折の際の死角位置の物体も認識することができる。
 次いで、認識した周辺車両間、認識した周辺車両と自車両間、認識した物体と自車両間の距離も測定する。映像に加えて距離画像も利用することで、距離をより高精度に測定することができる。そして、周辺車両間、周辺車両と自車両間、物体と自車両間の衝突が不可避、又は衝突する可能性が高いことが車速から判断されると、ヒヤリハット特徴として検出する。物体間の距離や、距離を車速で割った時間に基づいて数値化したヒヤリハット特徴量を算出するようにしてもよい。そして、ヒヤリハット特徴量が所定の閾値を超えたときに、映像からヒヤリハット特徴を検出したと判定して、ヒヤリハット映像の記録のトリガーとしてもよい。
 雪や雨などの天候や、路面の凍結など周囲環境が劣悪になると、ブレーキを踏んでからの停止距離が長くなる。そこで、算出したヒヤリハット特徴量に、周囲環境に応じた重みを付けて、ヒヤリハット特徴の判定を行なうようにしてもよい。天候や路面状態に応じて、ヒヤリハット特徴を検出し易くなるように操作することができる。降雪や降雨をさらに物体認識の対象としたり、車外情報検出部2420に含まれる環境センサー(前述)の検出結果を併用したりしてもよい。
 なお、特許文献1には、外部映像を画像認識した結果に基づいてドライブ・レコーダーへの記録の開始をコントロールする運転支援装置について開示しているが、先行車両のストップランプやハザードランプ、ターンシグナルの点灯を認識するにとどまる。言い換えれば、特許文献1に記載の技術によれば、先行車両との衝突を大雑把に判定して映像の記録を制御するので、周辺車両同士の接近や、自車両と先行車両以外の周辺車両との接近、車両以外の障害物との接近などのヒヤリハット映像を記録することはできないと思料される。
(2)スピン・スリップ
 一般には、スピンは、タイヤが路面に対して滑って車体が回転して、進みたい方向と車体の向きが大幅に違ってしまうことである。また、タイヤが滑っても車体がそれほど回転しなければ、スリップである。スピン・スリップは、自車両の異常運転である。
 自車両がスピンやスリップを起こすと、撮像部2410などの車載カメラで撮像した前方又は後方の道路が画面内で異常な軌道となる。したがって、スピンやスリップに関するヒヤリハット特徴を検出する際、道路が物体認識の対象である。撮像部2410などの車載カメラで撮像した自車両周辺の映像を物体認識処理して、道路や、道路に引かれた区画線(車道中央線、車線境界線、車道外側線など)、路肩、路側帯などを認識する。そして、認識した道路が画面内で異常な軌道となったときに、スピン又はスリップのヒヤリハット特徴として検出する。
 また、物体認識した車線に対してステアリングの方向が異常となると、ヒヤリハット特徴として検出する。車両状態検出部2110が検出したステアリング・ホイールの操舵角を併せて利用することで、より高精度にヒヤリハット特徴を検出することができる。
 また、車載カメラで撮像した映像の画面全体が水平にスライドするなど、自車両が直進したり、左右折したりする場合とは異なる動きとなった場合には、スピン又はスリップのヒヤリハット特徴として検出する。
 区画線(車道中央線、車線境界線、車道外側線など)に基づいて道路を認識することができる。そして、物体認識された道路の画面内での変位量や、認識された道路の方向に対するステアリングの方向のなす角度、車載カメラで撮像した映像の画面全体の水平方向の変位量などに基づいて、数値化したヒヤリハット特徴量を算出するようにしてもよい。そして、ヒヤリハット特徴量が所定の閾値を超えたときに、ヒヤリハット特徴を検出したと判定して、ヒヤリハット映像の記録のトリガーとしてもよい。
 雪や雨などの天候や、路面の凍結など周囲環境が劣悪になると、スピンやスリップなどの自車両の異常運転が発生し易くなる。そこで、算出したヒヤリハット特徴量に、周囲環境に応じた重みを付けて、ヒヤリハット特徴の判定を行なうようにしてもよい。天候や路面状態に応じて、ヒヤリハットを検出し易くなるように操作することができる。降雪や降雨をさらに物体認識の対象としたり、車外情報検出部2420に含まれる環境センサー(前述)の検出結果を併用したりしてもよい。
(3)違反運転
 ここで言う違反運転は、自車両の違反運転と周辺車両の違反運転の双方を対象とする。交通法規(道路交通法など)や交通ルール、マナーに違反した運転は、ヒヤリハットや事故に結び付き易いからである。車両だけでなく、通行人や自転車の違反行為も同様である。違反運転に関するヒヤリハット特徴として、車線を逸脱した走行(車線境界線を長時間跨いだ走行、追い越しではないタイミング(追越しのための右側部分はみ出し通行禁止を含む)や先行車両がない状況での車線境界線を跨いだ走行)、路側帯の走行、制限速度の超過、停止線位置で正しく停止しない、信号無視、一方通行違反、その他道路標識に対する違反、合図不履行違反(左折し、右折し、転回し、徐行し、停止し、後退し、又は同一方向に進行しながら進路を変えるときに、ターンシグナルなどにより正しく合図しない、又は合図とは異なる運転をする)を挙げることができる。また、車両の違反運転ではないが、横断歩道ではない場所で横断している通行人や自転車の違反行為も、便宜上このカテゴリーに含めて扱う。
 違反運転に関するヒヤリハット特徴を検出する際、道路や道路に引かれた区画線(車道中央線、車線境界線、車道外側線など)、停止線、横断歩道や路側帯、信号機、道路標識、周辺車両のターンシグナル(の点灯)が物体認識の対象である。
 例えば、道路に設置されたり路面に描かれたりした道路標識を物体認識して、現在走行している道路で規定されている規制(一方通行など)の内容を取得することができる。必要に応じて、地図情報を用いて、走行中の道路に規定されている交通規制などの情報を取得するようにしてもよい。そして、自車両であれば、映像に含まれる道路や風景の物体認識により得られる走行状況や、車両状態検出部2110で検出される走行状況と、道路標識の物体認識や地図情報に基づいて得られた道路の規制の情報とを比較し、一致しなければ、自車両の違反運転に関するヒヤリハット特徴として検出する。また、周辺車両であれば、映像から物体認識された周辺車両の走行状況を解析して、道路標識の物体認識や地図情報に基づいて得られた道路の規制の情報を比較し、一致しなければ(例えば、周辺車両が一方通行を違反した路地から出現したとき)、周辺車両の違反運転に関するヒヤリハット特徴として検出する。
 停止線違反については、道路上の停止線を物体認識し、現在の車両の車速又は加速度と停止線位置までの関係から、停止が不可能であると違反運転(停止位置無視)に関するヒヤリハット特徴として検出する。信号機違反については、信号機の赤信号又は黄信号を物体認識し、現在の車両の車速又は加速度と物体認識した信号機の位置までの関係から、停止が不可能であると違反運転(信号無視)に関するヒヤリハット特徴として検出する。自車両であれば、車両状態検出部2110が自車両の車速又は加速度を検出する。また、周辺車両であれば、物体認識によりその車速又は加速度を検出する。
 自車両の合図不履行違反については、ボディ系制御ユニット2200で制御されるターンシグナルの点灯と、車両状態検出部2110で検出されるステアリング・ホイールの操舵方向とが一致しないときに、自車両の合図不履行違反に関するヒヤリハット特徴を検出する。また、自車両ではなく、周辺車両や通行人の違反に関するヒヤリハット特徴を検出する際には、周辺車両や通行人が物体検出の対象となる。周辺車両の合図不履行違反については、周辺車両の走行状況(停止や左右折など)とターンシグナルの点灯をともに物体認識して、走行状況とターンシグナルの点灯が一致しないときに(周辺車両がターンシグナルの点灯方向とは異なる方向に曲がったとき、又は、周辺車両がターンシグナルの点灯なしに左右折したとき)、周辺車両の合図不履行違反に関するヒヤリハット特徴を検出する。
 自車両や周辺車両の違反運転、さらには通行人の違反に関する上記のヒヤリハット特徴を検出すると、ヒヤリハット映像の記録のトリガーとする。
(4)音声
 衝突に結び付くような物体の接近や自車両の異常運転を、物体認識では検出できないが、ドライバーや搭乗者が目視や五感によって気づくことがある。例えば、衝突に結び付くような物体が接近したり、車両がスピンやスリップしたりした際には、ドライバーがクラクションを鳴らしたり急ブレーキを踏んだり、衝突音が発生したり、ドライバーやその他の搭乗者が音声(悲鳴)を発したりするが、これらは車室内でも観測される。そこで、車室内で観測される異常な音声をヒヤリハット特徴として検出するようにする。異常な音声は、自車両の運転が原因となる場合と、周辺車両の運転が原因となる場合、さらには周囲環境が原因となる場合がある。
 車内情報検出ユニット2500は、車室内音声を集音するマイクを含んでいる(前述)。マイクで集音した車室内音声を認識することによって、叫び声や、クランション、急ブレーキ音、衝突音を検出することができる。車載カメラで撮像した映像の物体認識結果と車室内音声の認識結果を相補的に用いて、ヒヤリハット特徴を検出して、ヒヤリハット映像をトリガー記録するようにしてもよい。また、車室内音声に基づいてヒヤリハット特徴を検出した場合には、ドライブ・レコーダーがヒヤリハット映像の記録に併せて車室内音声の録音も行なうようにしてもよい。
 但し、車室内での搭乗者間の会話にはプライバシー情報も含まれる。そこで、プライバシー保護の観点から、ドライバーなど事前に音声登録した人以外の音声は変調を掛けるようにしてもよい。
(5)車室内異常
 ドライバーの状態(異常な挙動)によって自車両が異常運転となることもある。車室内異常に関するヒヤリハット特徴として、脇見や漫然運転、ドライバーの離席(ハンドルを長時間離していることを含む)、居眠り運転、意識喪失など、ドライバーの異常な挙動を検出するようにしてもよい。車室内異常は、基本的には、自車両の運転を原因とする。
 車室内異常に関するヒヤリハット特徴を検出する場合、ドライバーやその他の搭乗者を物体認識の対象とする。撮像部2410で車外を撮像した映像からは、ドライバーの状態を認識することはできない。そこで、車内状態検出部2510に含まれるドラモニカメラで撮像した映像に対して物体認識を行なうようにする。
 なお、車室内異常に関するヒヤリハット特徴を検出したときには、ヒヤリハット映像をトリガー記録することに併せて、ドライバーやその他の搭乗者に通知して、危険を回避するようにしてもよい。通知方法として、警告音を発することや、インストルメント・パネルに表示すること、座席に力や振動、動きなどを与えるようなハプティック・デバイスを利用すること、搭乗者が所持するスマートフォンなどの情報端末の機能(警告音などの音声出力や画像表示、バイブレーション機能)を利用することなどを挙げることができる。
(6)その他の自車両周辺の異常
 上述した(1)~(5)に含まれないヒヤリハット特徴を、その他の自車両周辺の異常に関するヒヤリハット特徴として検出する。
 例えば、周辺車両の合図不履行違反をヒヤリハット特徴として検出するために、周辺車両のターンシグナルを物体認識の対象とすることを既に述べた。その他の自車両周辺の異常に関するヒヤリハット特徴として、先行車両のストップランプの急な点灯や、先行車両のハザードランプの点灯を検出するようにしてもよい。先行車両のストップランプの急な点灯により、先行車両が急停止しようとしていることが分かり、自車両も早めにブレーキを踏むか他の車線へ車線変更する必要がある。また、先行車両のハザードランプの点灯により、先行車両が停止中又は駐車中であることが分かり、自車両は他の車線へ車線変更する必要がある。
 なお、各ヒヤリハット特徴を検出するための物体認識の対象や、物体認識以外に利用する情報(センサー情報など)を、以下の表1にまとめておく。
Figure JPOXMLDOC01-appb-T000001
B-2.ヒヤリハット映像をトリガー記録するためのシステム構成
 図3には、ヒヤリハット映像の記録を制御する映像処理装置300の機能的構成を模式的に示している。図示の映像処理装置300は、映像取得部301と、物体認識部302と、加速度センサー303と、検出部304と、音取得部305と、音認識部306と、コントロール部307と、映像記録部308と、メモリー309を備えている。映像処理装置300は、例えば図1に示した車両制御システム100の1つの機能として実現され、車両に搭載して用いられることを想定している。
 映像取得部301は、車両に搭載され、車外(車両周辺)と車室内を撮像する1台以上の車載カメラで撮像された映像を取得する。ここで言う車載カメラは、例えば、図1に示した車両制御システム2000中の、撮像部2410や、車内状態検出部2510に含まれるドラモニカメラに相当する。撮像部2410が複数の車載カメラからなり、車両の周辺を撮像する点は、図2を参照しながら説明した通りである。
 物体認識部302は、映像取得部301で取得した車両周辺の映像や車室内の映像に対して物体認識処理を行ない、認識結果に基づいてヒヤリハット特徴を検出する。物体認識部302は、撮像部2410で撮像された画像データを受信する車外情報検出ユニット2400や、ドラモニカメラで撮像された画像データを受信する車内情報検出ユニット2500に相当する。物体認識部302が検出するヒヤリハット特徴の定義や、各ヒヤリハット特徴を検出するために認識対象となる物体は、既に説明した通りである(表1を参照のこと)。
 物体認識部302は、例えばスピン・スリップに関するヒヤリハット特徴を検出する際に、映像に映っている降雪や降雨などを物体認識した結果に基づいて天候を判断して、天候に応じた重み付け処理を行なうようにしてもよい(前述)。あるいは、車外情報検出部2420に含まれる環境センサーで検出された天候又は気象の情報を利用するようにしてもよい。
 加速度センサー303は、車両に加わる加速度を計測する。検出部304は、加速度センサー303で計測された加速度の変化を検出し、加速度変化が所定の閾値以上になると、検出信号をコントロール部307に出力する。加速度センサー303は、例えば図1に示した車両制御システム2000中の車両状態検出部2110に含まれている。また、検出部304は、車両状態検出部2110から入力される信号を用いて演算処理を行なう駆動系制御ユニット210に相当する。
 加速度センサー303によって計測される加速度は、車両の事故に伴う衝撃や、ヒヤリハットに伴う急ブレーキや急ハンドルなどの運転操作によって変化する他、路面の段差や凹凸、運転者の運転の仕方などにも起因して変化する。したがって、検出部304が出力する検出信号は、事故やヒヤリハットを示すとは限らない。
 音取得部305は、車室内や車両周辺で発生する音を集音して、音認識部306に音声信号を出力する。音認識部306は、音声認識処理を行ない、車室内の叫び声やクラクション、急ブレーキ音、衝突音などの異常音を検出すると、検出信号をコントロール部307に出力する。本明細書で開示する技術において定義するヒヤリハット特徴のうち、車室内異常は、車載カメラで撮影した映像の物体認識に基づかず、音認識部306により検出されるものとする。
 音取得部305は、例えば、図1に示した車両制御システム2000中の車外情報検出部2420に含まれる音声センサーや、車内状態検出部2510に含まれる車室内の音声を集音するマイクに相当する。また、音声認識部306は、車外状態検出部2420からの受信信号に基づいて各種の認識・検出処理を行なう車外情報検出ユニット2400や、車内状態検出部2510からの入力信号に基づいて車内の状態を検出する車内情報検出ユニット2500に相当する。
 コントロール部307は、基本的には、物体認識部302から出力されるヒヤリハット特徴の検出信号に応じて、映像取得部301で取得される車載カメラの撮影映像のトリガー記録の制御を行なう。コントロール部307は、例えば図1に示した車両制御システム2000中の統合制御ユニット2600若しくはマイクロ・コンピューター2610に相当するが、あるいは車両制御システム2000に含まれる複数の制御ユニットによって実現することもできる。
 図3に示す映像処理装置300では、トリガー記録として、映像取得部301で取得した映像の定常記録(有限時間の中で上書き保存)とは別ファイルとして、ヒヤリハット映像の記録を行なう。但し、定常記録を行なう記憶装置に対してヒヤリハット映像の上書き禁止区間を指定するメタ情報を付加するというトリガー記録の方法もある。
 コントロール部307は、物体認識部302からヒヤリハット特徴の検出信号が入力されたことに応答して、車載カメラで撮像した映像からヒヤリハット映像の抽出処理を制御する。具体的には、コントロール部307は、ヒヤリハット映像のトリガー記録を指示するトリガー信号(記録トリガー)を出力したり、ヒヤリハット特徴が検出された区間の上書き禁止を指定したメタ情報を生成したりする。また、コントロール部307は、ヒヤリハット特徴の検出信号だけでなく、検出部304からの加速度変化に関する検出信号も参照して記録トリガーの出力を制御するようにしてもよい。また、コントロール部307は、音認識部306による車室内の異常を示す音(クラクションや急ブレーキ音、衝突音など)の認識結果に基づいて記録トリガーの出力を制御するようにしてもよい。
 映像記録部308は、例えば統合制御ユニット2600内の記憶部2690に含まれる、磁気記憶デバイスや半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイスなどの、上書き保存が可能な大容量記憶装置に相当する。また、メモリー309は、記憶部2690に含まれるRAMやEEPROMなどであり、作業データの一時的な保存に利用することができる。
 映像記録部308は、映像取得部301で取得される、車載カメラで撮像した映像を、有限時間の中で上書き保存しながら、定常記録映像310として記録する。
 また、映像記録部308は、コントロール部307から記録トリガーを受信すると、映像取得部301で取得中の映像はヒヤリハット映像であると判定して、記録トリガーが発生した前後の映像を、定常記録映像とは別ファイルとなるトリガー記録映像311として記録する。映像記録部308は、トリガー記録を実行する際に、記録トリガーの前後映像をメモリー309に一時的に保存することができる。
 但し、映像記録部308は、コントロール部307からの記録トリガーに応答して、ヒヤリハット映像の保護のために、定常記録映像310中の上書き禁止区間を指定するメタ情報を付加するというトリガー記録の方法もある。
 図4には、図3に示した映像処理装置300においてヒヤリハット映像のトリガー記録を制御するための処理手順をフローチャートの形式で示している。
 映像取得部301は、車両に搭載され、車外(車両周辺)と車室内を撮像する1台以上の車載カメラで撮像された映像を取得する(ステップS401)。
 なお、映像処理装置300では、ヒヤリハット映像のトリガー記録制御と並行して、映像取得部301で取得した映像の定常記録が行なわれるものとする。
 物体認識部302は、映像取得部301で取得した車両周辺の映像や車室内の映像に対して物体認識処理を行ない、ヒヤリハットの程度を示すヒヤリハット特徴量を抽出する(ステップS402)。天候など自車両の周辺環境に応じて、ヒヤリハット特徴量に重み付け(前述)を行なうようにしてもよい。
 次いで、物体認識部302は、ヒヤリハット特徴量を所定の閾値と大小比較する(ステップS403)。ここで、ヒヤリハット特徴量が閾値を超えたときには、ヒヤリハット特徴を検出したと判定して(ステップS403のYes)、物体認識部302は、コントロール部307に対してヒヤリハット特徴の検出信号を出力する。そして、コントロール部307は、映像記録部308に対して、記録トリガーを出力して(ステップS404)、ヒヤリハット映像のトリガー記録を指示する。
 コントロール部307は、物体認識部302からのヒヤリハット特徴の検出信号だけでなく、検出部304からの加速度変化に関する検出信号も参照して記録トリガーの出力を制御するようにしてもよい。また、コントロール部307は、音認識部306による車室内の異常を示す音(クラクションや急ブレーキ音、衝突音など)の認識結果に基づいて記録トリガーの出力を制御するようにしてもよい。
 映像記録部308は、映像取得部301で取得される、車載カメラで撮像した映像を、有限時間の中で上書き保存しながら、定常記録映像310を記録している。
 そして、映像記録部308は、コントロール部307から記録トリガーを受信すると、映像取得部301で取得中の映像はヒヤリハット映像であると判定して、記録トリガーが発生する前後の映像を、定常記録映像とは別ファイルとなるトリガー記録映像311として記録する(ステップS405)。映像記録部308は、トリガー記録を実行する際に、記録トリガーの前後映像をメモリー309に一時的に保存することができる。
 あるいは、上記のステップS404~S405で実施する処理を、ヒヤリハット特徴が検出された区間の上書き禁止を指定したメタ情報を生成し、定常記録得310にこのメタ情報を付加する処理に置き換えてもよい。
 例えば映像処理装置300がドライブ・レコーダーとして機能している間、上記の各ステップS401~S405における処理が繰り返し実行される。
 図5には、図3に示した映像処理装置300の変形例としての映像処理装置500の機能的構成を示している。図示の映像処理装置500は、映像取得部501と、加速度センサー503と、検出部504と、音取得部505と、音認識部506と、コントロール部507と、映像記録部508と、メモリー509を備えている。映像処理装置500は、例えば図1に示した車両制御システム100の1つの機能として実現され、車両に搭載して用いられることを想定している。映像処理装置500が備える機能モジュールのうち、図3に示した映像処理装置300に含まれる機能モジュールと同じ名称のものは同じ機能を備えているものとする。
 映像取得部501は、車両に搭載され、車外(車両周辺)と車室内を撮像する1台以上の車載カメラで撮像された映像を取得する(同上)。映像記録部508は、大容量記憶装置を含み、映像取得部501で取得され映像を定常記録映像510として記録する。説明の便宜上、上書きなしに定常記録映像510の記録が行なわれるものとする。
 加速度センサー503は、車両に加わる加速度を計測する。検出部504は、加速度センサー503で計測された加速度の変化を検出し、加速度変化が所定の閾値以上になると、検出信号をコントロール部507に出力する。
 音取得部505は、車室内や車両周辺で発生する音を集音して、音認識部506に音声信号を出力する。音認識部506は、音声認識処理を行ない、車室内の叫び声やクラクション、急ブレーキ音、衝突音などの異常音を検出すると、検出信号をコントロール部507に出力する。
 コントロール部507は、検出部504で検出された加速度変化に関する検出信号や、音認識部506で認識された異常音(クラクション、急ブレーキ音、衝突音など)に関する検出信号から、車両の加速度変化や車室内並びに車外で発生した音に関するメタ情報を、映像記録部508に出力する。映像記録部508は、定常記録映像510にこのメタ情報を付加して記録する。
 映像処理装置500の、図3に示した映像処理装置300との主な相違点は、ヒヤリハット映像の抽出処理を、車両に搭載される映像処理装置500内ではなく、車外に(若しくは、映像処理装置500とは物理的に独立して)設置される外部装置600で行なう点である。外部装置600は、映像処理装置500で記録された定常記録映像510を取得して、映像の物体認識処理を行なうとともに、付加されたメタ情報も適宜参照して、ヒヤリハット映像の抽出処理を事後処理として実施する。
 外部装置600は、例えばPCやタブレットなどの情報端末、あるいは、インターネットなどの広域ネットワーク上に設置されたサーバーなどである。外部装置600が映像処理装置500から定常記録映像510を取得する手段は任意である。例えば映像処理装置500側ではCDやDVDなどの記録メディアや取り外し可能なメモリー・デバイス(USBメモリーなど)に定常記録映像510を記録しておき、外部装置600のこのような記録メディアやメモリー・デバイスを外部装置600に装填若しくは取り付ける方法が挙げられる。また、映像処理装置500と外部装置600間をHDMI(登録商標)のような映像伝送用ケーブルで接続して、定常記録映像510をメタ情報とともに転送するようにしてもよい。あるいは、映像処理装置500と外部装置600間で、通信ネットワーク2010を介して定常記録映像510をファイル転送するようにしてもよい。また、定常記録映像は、無線通信などにより外部のサーバーに保存され、そのサーバー上で同時に抽出処理されてもよい。
 図6には、外部装置600において、ヒヤリハット映像の抽出処理を行なうための機能的構成を模式的に示している。外部装置600は、映像取得部601と、物体認識部602と、コントロール部607と、映像抽出部608と、メモリー609を備えている。
 映像取得部601は、記録メディアやメモリー・デバイスを媒介にする、HDMI(登録商標)などの映像伝送媒体を利用する、通信ネットワーク2010を経由するなど、任意の手段により、映像処理装置500から定常記録映像510をメタ情報とともに取得する。映像取得部601は、定常記録映像510を映像抽出部608に出力するとともに、定常記録映像510に付加されたメタ情報をコントロール部607に割り振る。
 物体認識部602は、映像取得部601で取得した定常記録映像510に対して物体認識処理を行ない、認識結果に基づいてヒヤリハット特徴を検出する。物体認識部602が検出するヒヤリハット特徴の定義や、各ヒヤリハット特徴を検出するために認識対象となる物体は、既に説明した通りである(表1を参照のこと)。
 コントロール部607は、基本的には、物体認識部602から出力されるヒヤリハット特徴の検出信号に応じて、映像抽出部608による定常記録映像510からヒヤリハット映像を抽出する処理の制御を行なう。具体的には、コントロール部607は、物体認識部602からヒヤリハット特徴の検出信号が入力されたことに応答して、映像抽出部608に対して、ヒヤリハット映像の抽出を指示する抽出トリガーを出力する。
 また、コントロール部507は、ヒヤリハット特徴の検出信号だけでなく、メタ情報に記載されている加速度変化に関する検出信号も適宜参照して、抽出トリガーの出力を制御するようにしてもよい。また、コントロール部607は、メタ情報に記載されている車室内の異常を示す音(クラクションや急ブレーキ音、衝突音など)の認識結果に基づいて抽出トリガーの出力を制御するようにしてもよい。
 映像抽出部608は、コントロール部607から出力された抽出トリガーに対応する再生位置でヒヤリハットが発生していると判定して、抽出トリガーに対応する再生位置の前後の映像を抽出して、ヒヤリハット記録映像611として記録する。映像抽出部608は、ヒヤリハット映像を抽出して記録するために、抽出トリガーの前後の再生映像をメモリー609に一時的に保存することができる。
 図7には、図6に示した外部装置600において定常記録映像510からヒヤリハット映像を抽出するための処理手順をフローチャートの形式で示している。
 映像取得部601は、映像処理装置500から定常記録映像510を取得する(ステップS701)。
 物体認識部602は、映像取得部301で取得した定常記録映像510に対して物体認識処理を行ない、ヒヤリハットの程度を示すヒヤリハット特徴量を抽出する(ステップS702)。天候など自車両の周辺環境に応じて、ヒヤリハット特徴量に重み付け(前述)を行なうようにしてもよい。
 次いで、物体認識部602は、ヒヤリハット特徴量を所定の閾値と大小比較する(ステップS603)。ここで、ヒヤリハット特徴量が閾値を超えたときには、ヒヤリハット特徴を検出したと判定して(ステップS603のYes)、物体認識部602は、コントロール部607に対してヒヤリハット特徴の検出信号を出力する。そして、コントロール部607は、映像抽出部608に対して、抽出トリガーを出力して(ステップS704)、ヒヤリハット映像の抽出を指示する。
 コントロール部607は、物体認識部602からのヒヤリハット特徴の検出信号だけでなく、メタ情報に記載されている加速度変化の情報も参照して抽出トリガーの出力を制御するようにしてもよい。また、コントロール部607は、メタ情報に記載されている車室内の異常を示す音(クラクションや急ブレーキ音、衝突音など)の認識結果に基づいて抽出トリガーの出力を制御するようにしてもよい。
 そして、映像抽出部608は、コントロール部607から出力された抽出トリガーに対応する再生位置でヒヤリハットが発生していると判定して、抽出トリガーに対応する再生位置の前後の映像を抽出して、ヒヤリハット記録映像611として記録する(ステップS705)。映像抽出部608は、ヒヤリハット映像を抽出して記録するために、抽出トリガーの前後の再生映像をメモリー609に一時的に保存することができる。
 図8には、図3に示した映像処理装置300の他の変形例としての映像処理装置800の機能的構成を示している。図示の映像処理装置800は、映像取得部801と、加速度センサー803と、検出部804と、音取得部805と、音認識部806と、コントロール部807と、映像記録部808と、メモリー809と、地図情報取得部821を備えている。映像処理装置800は、例えば図1に示した車両制御システム100の1つの機能として実現され、車両に搭載して用いられることを想定している。映像処理装置800が備える機能モジュールのうち、図3に示した映像処理装置300に含まれる機能モジュールと同じ名称のものは同じ機能を備えているものとする。
 映像取得部801は、車両に搭載され、車外(車両周辺)と車室内を撮像する1台以上の車載カメラで撮像された映像を取得する(同上)。また、車載カメラにはステレオカメラが用いられており、映像取得部801は距離画像も併せて取得する。
 物体認識部802は、映像取得部801で取得した車両周辺の映像や車室内の映像に対して物体認識処理を行ない、認識結果に基づいてヒヤリハット特徴を検出して、認識した物体の情報とヒヤリハット特徴の検出信号をコントロール部807に出力する。
 また、物体認識部802は、映像取得部801で取得した距離画像を利用して、周辺車両やその他の物体障害物となるような物体(周辺車両や通行人、動物、道路工事、ガードレール、電柱、建造物、その他の障害物)の距離をえることができるので、衝突に結び付く物体接近に関するヒヤリハット特徴をより高精度に検出することができる。
 加速度センサー803は、車両に加わる加速度を計測する。検出部804は、加速度センサー803で計測された加速度の変化を検出し、加速度変化が所定の閾値以上になると、検出信号をコントロール部807に出力する。
 音取得部805は、車室内や車両周辺で発生する音を集音して、音認識部806に音声信号を出力する。音認識部806は、音声認識処理を行ない、車室内の叫び声やクラクション、急ブレーキ音、衝突音などの異常音を検出すると、検出信号をコントロール部807に出力する。
 地図情報取得部821は、例えばGNSS衛星から受信したGNSS信号に基づいて測位部2640で生成される位置情報に基づいて、車両の現在位置における地図情報を取得する。
 コントロール部807は、物体認識部802から出力される認識物体の情報並びにヒヤリハット特徴の検出信号に応じて、映像取得部801で取得される車載カメラの撮影映像のトリガー記録の制御を行なう。
 例えば、コントロール部807は、物体認識部802からヒヤリハット特徴の検出信号が入力されたことに応答して、ヒヤリハット映像のトリガー記録を指示するトリガー信号(記録トリガー)を映像記録部808に出力する。
 また、コントロール部807は、物体認識部802で認識された物体(道路標識や区画線(車道中央線、車線境界線、車道外側線など)、路側帯、横断歩道、信号機など)や、地図情報取得部821で取得した地図情報に基づいて、車両が現在走行している道路に適用されている規制(一方通行など)に関する情報を特定することができ、違反運転(自車両や周辺車両の違反運転、さらには通行人や自転車が犯した違反行為)をより高精度に検出して、記録トリガーの出力を制御することができる。
 また、コントロール部807は、物体認識部802からのヒヤリハット特徴の検出信号だけでなく、検出部804からの加速度変化に関する検出信号も参照して記録トリガーの出力を制御するようにしてもよい。また、コントロール部807は、音認識部806による車室内の異常を示す音(クラクションや急ブレーキ音、衝突音など)の認識結果に基づいて記録トリガーの出力を制御するようにしてもよい。
 映像記録部808は、映像取得部801で取得される、車載カメラで撮像した映像を、有限時間の中で上書き保存しながら、定常記録映像810として記録する。
 また、映像記録部808は、コントロール部807から記録トリガーを受信すると、映像取得部801で取得中の映像はヒヤリハット映像であると判定して、記録トリガーが発生した前後の映像を、定常記録映像とは別ファイルとなるトリガー記録映像811として記録する。映像記録部808は、トリガー記録するために、記録トリガーの前後映像をメモリー809に一時的に保存することができる。
 映像処理装置800においてヒヤリハット映像のトリガー記録制御は、図4に示したフローチャートと同様の処理手順で実現することができるので、ここでは説明を省略する。
 なお、上記で説明した映像処理装置300、500、800を、車両制御システム2000中の統合制御ユニット2600のためのモジュール(例えば、1つのダイで構成される集積回路モジュール)として実装することもでき、あるいは統合制御ユニット2600と他の制御ユニットを含めた複数の制御ユニットを組み合わせて実装することもできる。
 また、映像処理装置300、500、800が実現する機能(例えば、ヒヤリハット映像をトリガー記録する機能)をコンピューター・プログラムで実現することができ、このようなコンピューター・プログラムを車両制御システム2000に含まれるいずれかの制御ユニットで実行するようにしてもよい。また、このようなコンピューター・プログラムを、コンピューター読み取り可能な記録媒体に格納して提供することもできる。記録媒体として、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリーなどを挙げることができる。また、このようなコンピューター・プログラムをネットワーク経由で配信することもできる。
 本明細書で開示する技術をドライブ・レコーダーに適用することによって、ヒヤリハット映像をトリガー記録する精度が向上し、ヒヤリハットの誤検出による無駄な映像の記録を抑制することができる。これにより、映像活用の側面でも、ドライブ・レコーダーからヒヤリハット映像を検索、管理する手間を大幅に削減することができる。
 また、本明細書で開示する技術を利用したヒヤリハット映像のトリガー記録は、車両の運転中のリアルタイム処理としただけでなく、運転を終了した後の事後処理として実施することができる(例えば、図5~図7を参照のこと)。後者の場合、ドライブ・レコーダー本体に専用のハードウェアは不要である。既に稼働しているドライブ・レコーダーの記録映像に対しても、本明細書で開示する技術を利用したヒヤリハット映像のトリガー記録を適用することができる。
 以上、特定の実施形態を参照しながら、本明細書で開示する技術について詳細に説明してきた。しかしながら、本明細書で開示する技術の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。
 本明細書で開示する技術は、自動車(ガソリン車及びディーゼル車を含む)、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナル・モビリティーなどさまざまな車両、さらには道路を走行する車両以外の形態の移動体に適用することができる。
 本明細書で開示する技術を適用したドライブ・レコーダーは、車載カメラで撮像した映像の物体認識によりヒヤリハット特徴を抽出してトリガー記録を行なうが、勿論、加速度センサーや各種センサーによる検出情報を併用してトリガー記録を行なうように構成することもできる。
 ドライブ・レコーダーの記録映像から物体認識によりヒヤリハット特徴を検出する処理は、走行中の自動車でリアルタイム処理として実施したり、あるいは自動車の運転が終了した事後処理として実施したりするようにしても構わない。
 また、ドライブ・レコーダーの記録映像から物体認識によりヒヤリハット特徴検出する処理を、ドライブ・レコーダー本体で行なう他、ドライブ・レコーダー本体以外の機器(例えば、サーバー上)で実施するようにしてもよい。
 要するに、例示という形態により本明細書で開示する技術について説明してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本明細書で開示する技術の要旨を判断するためには、特許請求の範囲を参酌すべきである。
 なお、本明細書の開示の技術は、以下のような構成をとることも可能である。
(1)車両の外部又は内部を撮像した映像に含まれる物体の認識結果に基づいて、事故に至る可能性があるシーンの特徴を検出する物体認識部と、
 前記特徴が検出されたことに応じて前記映像の処理を制御する制御部と、
を具備する映像処理装置。
(1-1)前記制御部は、前記特徴に応じて前記映像の記録を制御する、
上記(1)に記載の映像処理装置。
(1-2)(ヒヤリハット前後の映像を記録する)トリガー記録部をさらに備え、
 前記制御部は、前記特徴に応じて前記映像の前記トリガー記録部への記録を制御する、
上記(1)に記載の映像処理装置。
(1-3)前記映像を所定の有限時間内で定常的に上書き記録する定常記録部をさらに備え、
 前記制御部は、前記特徴に基づいて前記定常記録部の上書き禁止を制御する、
上記(1)に記載の映像処理装置。
(1-4)前記車両に搭載され、前記車両の外部又は内部を撮像する1以上の撮像部をさらに備える、
上記(1)に記載の映像処理装置。
(2)前記物体認識部は、前記特徴として、前記映像から認識した物体の接近に関する特徴を検出する、
上記(1)に記載の映像処理装置。
(3)前記物体認識部は、前記特徴として、物体認識した周辺車両同士の接近に関する特徴を検出する、
上記(1)に記載の映像処理装置。
(4)前記物体認識部は、前記特徴として、物体認識した周辺車両又はその他の物体と前記車両の接近に関する特徴を検出する、
上記(1)に記載の映像処理装置。
(5)前記物体認識部は、さらに距離画像を参照して、前記接近に関する特徴を検出する、
上記(2)乃至(4)のいずれかに記載の映像処理装置。
(6)前記車両の周囲環境を検出する車外情報検出部をさらに備え、
 前記物体認識部は、前記周囲環境をさらに考慮して、前記接近に関する特徴を検出する、
上記(2)乃至(5)のいずれかに記載の映像処理装置。
(7)前記物体認識部は、前記特徴として、前記映像から認識した道路の画面内での軌道に基づいて前記車両のスピン又はスリップに関する特徴を検出する、
上記(1)に記載の映像処理装置。
(8)前記物体認識部は、前記映像から道路に引かれた区画線、路肩、路側帯に基づいて道路を認識する、
上記(7)に記載の映像処理装置。
(9)前記車両のステアリングの方向を検出する車両状態検出部をさらに備え、
 前記物体認識部は、前記特徴として、前記映像から認識した道路と前記ステアリングの方向との角度に基づいて前記車両のスピン又はスリップに関する特徴を検出する、
上記(1)に記載の映像処理装置。
(10)前記車両の周囲環境を検出する車外情報検出部をさらに備え、
 前記物体認識部は、前記周囲環境を考慮して、前記車両のスピン又はスリップに関する特徴を検出する、
上記(7)乃至(9)のいずれかに記載の映像処理装置。
(11)前記物体認識部は、前記特徴として、前記車両又はその周辺車両の違反運転、通行人の違反行為に関する特徴を検出する、
上記(1)に記載の映像処理装置。
(12)前記物体認識部は、前記映像から車線又は路側帯を認識して、前記車両の車線を逸脱した走行に関する特徴を検出する、
上記(11)に記載の映像処理装置。
(13)前記物体認識部は、前記映像から車線又は路側帯と周辺車両を認識して、前記周辺車両の車線を逸脱した走行に関する特徴を検出する、
上記(11)に記載の映像処理装置。
(14)前記物体認識部は、前記映像の物体認識結果に基づいて走行中の道路に規定されている規制に関する情報を取得し、前記車両又はその周辺車両の走行状況が前記規制と一致しないときに、違反運転に関する特徴を検出する、
上記(11)に記載の映像処理装置。
(15)さらに地図情報に基づいて、走行中の道路に規定されている規制に関する情報を取得する、
上記(14)に記載の映像処理装置。
(16)前記物体認識部は、前記映像から、道路脇に設置された道路標識、路面に描かれた道路標識、道路に引かれた停止線位置、又は信号機の少なくともいずれか1つを認識して、前記車両又はその周辺車両の道路標識違反、停止線位置無視、又は信号無視の少なくともいずれか1つを検出したときに、違反運転に関する特徴を検出する、
上記(11)に記載の映像処理装置。
(17)前記物体認識部は、道路上の停止線を物体認識し、前記車両又はその周辺車両の車速又は加速度と停止線位置までの関係から、停止が不可能であると判定した場合に、停止位置無視の違反運転に関する特徴を検出する、
上記(11)に記載の映像処理装置。
(18)前記物体認識部は、信号機の赤信号又は黄信号を物体認識し、前記車両又はその周辺車両の車速又は加速度と物体認識した信号機の位置までの関係から、停止が不可能であると判定した場合に、信号無視の違反運転に関する特徴を検出する、
上記(11)に記載の映像処理装置。
(19)物体認識部は、周辺車両の走行状況とランプの点灯をともに物体認識して、走行状況とランプの点灯が一致しないときに、周辺車両の合図不履行違反に関する特徴を検出する、
上記(11)に記載の映像処理装置。
(20)前記物体認識部は、前記車両の車室内の異常に関する特徴を検出する、
上記(1)に記載の映像処理装置。
(21)前記車両の車外又は車室内の音を取得する音取得部と、
 前記音取得部が取得した音の認識結果に基づいて前記特徴を検出する音取得部と、
をさらに備える上記(1)に記載の映像処理装置。
(22)前記音取得部は、事前登録した音声以外の音声に変調を掛ける、
上記(21)に記載の映像処理装置。
(23)前記物体認識部は、前記車両の内部を撮影した映像に含まれるドライバーの認識結果に基づいて前記特徴を検出する、
上記(1)に記載の映像処理装置。
(24)前記ドライバーの状態を検出する車内状態検出部をさらに備え、
 前記物体認識部は、ドライバーの認識結果とともにドライバーの状態を参照して前記特徴を検出する、
上記(1)に記載の映像処理装置。
(25)前記物体認識部は、前記車両の先行車両のストップランプ、ハザードランプの点灯を物体認識した結果に基づいて前記特徴を検出する、
上記(1)に記載の映像処理装置。
(26)車両の外部又は内部を撮像した映像に含まれる物体の認識結果に基づいて、事故に至る可能性があるシーンの特徴を検出する物体認識ステップと、
 前記特徴が検出されたことに応じて前記映像の処理を制御する制御ステップと、
を有する映像処理方法。
 300…映像処理装置、301…映像取得部、302…物体認識部
 303…加速度センサー、304…検出部、305…音取得部
 306…音認識部、307…コントロール部
 308…映像記録部、309…メモリー
 310…定常記録映像、311…トリガー記録映像
 500…映像処理装置、501…映像取得部
 503…加速度センサー、504…検出部、505…音取得部
 506…音認識部、507…コントロール部
 508…映像記録部、509…メモリー、510…定常記録映像
 600…映像処理装置、601…映像取得部、602…物体認識部
 607…コントロール部、608…映像抽出部、609…メモリー
 800…映像処理装置、801…映像取得部、802…物体認識部
 803…加速度センサー、804…検出部、805…音取得部
 806…音認識部、807…コントロール部
 808…映像記録部、809…メモリー
 810…定常記録映像、811…トリガー記録映像
 821…地図情報取得部
 2000…車両制御システム、2010…通信ネットワーク
 2100…駆動系制御ユニット、2110…車両状態検出部
 2200…ボディ系制御ユニット
 2300…バッテリー制御ユニット、2310…バッテリー装置
 2400…車外情報検出ユニット、2410…撮像部
 2420…車外情報検出部
 2500…車内情報検出ユニット、2510…車内状態検出部
 2600…統合制御ユニット、2610…マイクロ・コンピューター
 2620…汎用通信インターフェース
 2630…専用通信インターフェース、2640…測位部
 2650…ビーコン受信部、2660…車内機器インターフェース
 2670…音声画像出力部
 2680…車載ネットワーク・インターフェース
 2690…記憶部
 2710…オーディオ・スピーカー、2720…表示部
 2730…インストルメント・パネル、2760…車内機器
 2800…入力部
 2900…車両
 2910、2912、2914、2916、2918…撮像部
 2920、2922、2924…車外情報検出部
 2926、2928、2930…車外情報検出部

Claims (20)

  1.  車両の外部又は内部を撮像した映像に含まれる物体の認識結果に基づいて、事故に至る可能性があるシーンの特徴を検出する物体認識部と、
     前記特徴が検出されたことに応じて前記映像の処理を制御する制御部と、
    を具備する映像処理装置。
  2.  前記物体認識部は、前記特徴として、前記映像から認識した物体の接近に関する特徴を検出する、
    請求項1に記載の映像処理装置。
  3.  前記物体認識部は、前記特徴として、物体認識した周辺車両同士の接近に関する特徴を検出する、
    請求項1に記載の映像処理装置。
  4.  前記物体認識部は、前記特徴として、物体認識した周辺車両又はその他の物体と前記車両の接近に関する特徴を検出する、
    請求項1に記載の映像処理装置。
  5.  前記物体認識部は、さらに距離画像を参照して、前記接近に関する特徴を検出する、
    請求項2に記載の映像処理装置。
  6.  前記車両の周囲環境を検出する車外情報検出部をさらに備え、
     前記物体認識部は、前記周囲環境をさらに考慮して、前記接近に関する特徴を検出する、
    請求項2に記載の映像処理装置。
  7.  前記物体認識部は、前記特徴として、前記映像から認識した道路の画面内での軌道に基づいて前記車両のスピン又はスリップに関する特徴を検出する、
    請求項1に記載の映像処理装置。
  8.  前記物体認識部は、前記映像から道路に引かれた区画線、路肩、路側帯に基づいて道路を認識する、
    請求項7に記載の映像処理装置。
  9.  前記車両のステアリングの方向を検出する車両状態検出部をさらに備え、
     前記物体認識部は、前記特徴として、前記映像から認識した道路と前記ステアリングの方向との角度に基づいて前記車両のスピン又はスリップに関する特徴を検出する、
    請求項1に記載の映像処理装置。
  10.  前記車両の周囲環境を検出する車外情報検出部をさらに備え、
     前記物体認識部は、前記周囲環境を考慮して、前記車両のスピン又はスリップに関する特徴を検出する、
    請求項7乃至9のいずれかに記載の映像処理装置。
  11.  前記物体認識部は、前記特徴として、前記車両又はその周辺車両の違反運転、通行人の違反行為に関する特徴を検出する、
    請求項1に記載の映像処理装置。
  12.  前記物体認識部は、前記映像から車線又は路側帯を認識して、前記車両の車線を逸脱した走行に関する特徴を検出する、
    請求項11に記載の映像処理装置。
  13.  前記物体認識部は、前記映像から車線又は路側帯と周辺車両を認識して、前記周辺車両の車線を逸脱した走行に関する特徴を検出する、
    請求項11に記載の映像処理装置。
  14.  前記物体認識部は、前記映像の物体認識結果に基づいて走行中の道路に規定されている規制に関する情報を取得し、前記車両又はその周辺車両の走行状況が前記規制と一致しないときに、違反運転に関する特徴を検出する、
    請求項11に記載の映像処理装置。
  15.  さらに地図情報に基づいて、走行中の道路に規定されている規制に関する情報を取得する、
    請求項14に記載の映像処理装置。
  16.  前記物体認識部は、前記映像から、道路脇に設置された道路標識、路面に描かれた道路標識、道路に引かれた停止線位置、又は信号機の少なくともいずれか1つを認識して、前記車両又はその周辺車両の道路標識違反、停止線位置無視、又は信号無視の少なくともいずれか1つを検出したときに、違反運転に関する特徴を検出する、
    請求項11に記載の映像処理装置。
  17.  前記物体認識部は、道路上の停止線を物体認識し、前記車両又はその周辺車両の車速又は加速度と停止線位置までの関係から、停止が不可能であると判定した場合に、停止位置無視の違反運転に関する特徴を検出する、
    請求項11に記載の映像処理装置。
  18.  前記物体認識部は、信号機の赤信号又は黄信号を物体認識し、前記車両又はその周辺車両の車速又は加速度と物体認識した信号機の位置までの関係から、停止が不可能であると判定した場合に、信号無視の違反運転に関する特徴を検出する、
    請求項11に記載の映像処理装置。
  19.  物体認識部は、周辺車両の走行状況とランプの点灯をともに物体認識して、走行状況とランプの点灯が一致しないときに、周辺車両の合図不履行違反に関する特徴を検出する、
    請求項11に記載の映像処理装置。
  20.  車両の外部又は内部を撮像した映像に含まれる物体の認識結果に基づいて、事故に至る可能性があるシーンの特徴を検出する物体認識ステップと、
     前記特徴が検出されたことに応じて前記映像の処理を制御する制御ステップと、
    を有する映像処理方法。
PCT/JP2016/084032 2016-02-02 2016-11-17 映像処理装置及び映像処理方法 WO2017134897A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/779,165 US20180357484A1 (en) 2016-02-02 2016-11-17 Video processing device and video processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-017697 2016-02-02
JP2016017697A JP2017138694A (ja) 2016-02-02 2016-02-02 映像処理装置及び映像処理方法

Publications (1)

Publication Number Publication Date
WO2017134897A1 true WO2017134897A1 (ja) 2017-08-10

Family

ID=59499659

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/084032 WO2017134897A1 (ja) 2016-02-02 2016-11-17 映像処理装置及び映像処理方法

Country Status (3)

Country Link
US (1) US20180357484A1 (ja)
JP (1) JP2017138694A (ja)
WO (1) WO2017134897A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108711202A (zh) * 2018-08-06 2018-10-26 何沙沙 一种基于大数据的交通事故救援系统
CN109389700A (zh) * 2018-10-19 2019-02-26 福建工程学院 一种基于区块链技术的车辆可见性违法行为识别方法
JP2020042712A (ja) * 2018-09-13 2020-03-19 株式会社Jvcケンウッド 映像記録制御装置、映像記録システム、映像記録方法、および映像記録制御プログラム
JPWO2021024497A1 (ja) * 2019-08-08 2021-02-11
EP3827419A4 (en) * 2018-07-26 2022-04-27 Takosan Otomobil Gostergeleri Sanayi ve Ticaret A.S. MONITORING, CONTROL AND REPORTING OF DRIVER ACTIONS BY AUTOMATIC TRAFFIC RULES FOLLOW-UP
US20220258769A1 (en) * 2021-02-18 2022-08-18 Honda Motor Co., Ltd. Vehicle control device, vehicle control method, and storage medium

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11181923B2 (en) * 2015-06-23 2021-11-23 Nec Corporation Detection system, detection method, and program
JP6540482B2 (ja) * 2015-12-04 2019-07-10 株式会社デンソー 情報処理システム、情報処理装置及び出力制御方法
WO2018105136A1 (ja) * 2016-12-06 2018-06-14 本田技研工業株式会社 車両周辺情報取得装置および車両
JP2019530061A (ja) * 2016-08-10 2019-10-17 ジーボ インコーポレーテッドXevo Inc. 推測注意モデルを用いて収集され格納されたメタデータを通して情報を提供する方法及び装置
US10936884B2 (en) * 2017-01-23 2021-03-02 Magna Electronics Inc. Vehicle vision system with object detection failsafe
US10307780B2 (en) * 2017-06-08 2019-06-04 Meyer Products, Llc Video monitoring system for a spreader hopper
WO2019026332A1 (ja) * 2017-07-31 2019-02-07 株式会社Jvcケンウッド 俯瞰映像生成装置、俯瞰映像生成方法およびプログラム
JP6917842B2 (ja) * 2017-09-19 2021-08-11 本田技研工業株式会社 周辺監視装置、周辺監視方法、およびプログラム
KR102037324B1 (ko) * 2017-11-30 2019-10-28 엘지전자 주식회사 자율주행 차량 및 그 제어 방법
WO2019158457A1 (de) * 2018-02-13 2019-08-22 Inventus Engineering Gmbh Türeinrichrung mit verfahrbarer sensorkomponente zur umfelderkennung sowie verfahren zur umfelderkennung an einer türeinrichtung
JP2019179372A (ja) 2018-03-30 2019-10-17 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 学習データ作成方法、学習方法、危険予測方法、学習データ作成装置、学習装置、危険予測装置、及び、プログラム
JP6627995B2 (ja) * 2018-05-10 2020-01-08 株式会社Jvcケンウッド 記録装置、記録方法、およびプログラム
JP7024603B2 (ja) 2018-05-23 2022-02-24 トヨタ自動車株式会社 データ記録装置
JP2019204395A (ja) * 2018-05-25 2019-11-28 株式会社Jvcケンウッド 記録制御装置、記録制御方法及びプログラム
JP2020003840A (ja) * 2018-06-25 2020-01-09 株式会社デンソー ドライブレコーダ、走行中動画記憶方法
US10795362B2 (en) * 2018-08-20 2020-10-06 Waymo Llc Detecting and responding to processions for autonomous vehicles
WO2020059115A1 (ja) * 2018-09-21 2020-03-26 三菱電機株式会社 運転判定装置および運転判定方法
KR102486161B1 (ko) * 2018-10-01 2023-01-10 현대자동차주식회사 차량, 차량의 제어 방법 및 영상 탐색 장치
KR20200040522A (ko) * 2018-10-10 2020-04-20 아주대학교산학협력단 차량의 영상데이터를 이용한 영상 분석 장치 및 그 방법
US11586856B2 (en) * 2018-10-30 2023-02-21 Nec Corporation Object recognition device, object recognition method, and object recognition program
JP7029377B2 (ja) * 2018-11-08 2022-03-03 本田技研工業株式会社 運行データレコーディングシステム、運行データレコーダ、端末装置、および運行データレコーディング方法
JP6683235B1 (ja) * 2018-11-14 2020-04-15 株式会社Jvcケンウッド 車両用記録制御装置、車両用記録装置、車両用記録制御方法およびプログラム
US11208111B2 (en) 2018-12-11 2021-12-28 Waymo Llc Redundant hardware system for autonomous vehicles
JP2020101960A (ja) * 2018-12-21 2020-07-02 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP6705495B1 (ja) * 2018-12-26 2020-06-03 株式会社Jvcケンウッド 車両用記録制御装置、車両用記録装置、車両用記録制御方法およびプログラム
JP2020119560A (ja) 2019-01-25 2020-08-06 シャープ株式会社 システム、システムの制御方法および情報提供サーバ
JP7192541B2 (ja) * 2019-02-01 2022-12-20 トヨタ自動車株式会社 情報処理装置、情報処理方法およびプログラム
WO2019147111A2 (ko) * 2019-02-21 2019-08-01 엘지전자 주식회사 주차 위치를 기록하기 위한 방법 및 디바이스
JP6920361B2 (ja) * 2019-02-27 2021-08-18 エヌ・ティ・ティ・コミュニケーションズ株式会社 判定装置、判定方法、及びプログラム
JP2020154369A (ja) * 2019-03-18 2020-09-24 株式会社Jvcケンウッド 障害物情報管理装置、障害物情報管理方法、及び障害物情報管理プログラム
JP7165093B2 (ja) * 2019-03-29 2022-11-02 本田技研工業株式会社 車両制御システム
US11494921B2 (en) * 2019-04-26 2022-11-08 Samsara Networks Inc. Machine-learned model based event detection
US11080568B2 (en) 2019-04-26 2021-08-03 Samsara Inc. Object-model based event detection system
US10999374B2 (en) 2019-04-26 2021-05-04 Samsara Inc. Event detection system
US11511737B2 (en) 2019-05-23 2022-11-29 Systomix, Inc. Apparatus and method for processing vehicle signals to compute a behavioral hazard measure
JP7306076B2 (ja) * 2019-06-07 2023-07-11 マツダ株式会社 移動体外部環境認識装置
JP2020201737A (ja) * 2019-06-11 2020-12-17 株式会社Jvcケンウッド 運転支援装置、運転支援方法及びプログラム
JP7300626B2 (ja) * 2019-06-27 2023-06-30 パナソニックIpマネジメント株式会社 映像記録システム、映像記録方法
JP7323356B2 (ja) * 2019-06-28 2023-08-08 フォルシアクラリオン・エレクトロニクス株式会社 駐車支援装置及び駐車支援方法
KR102187441B1 (ko) * 2019-07-22 2020-12-07 고려대학교 산학협력단 비정상 운전 판별이 가능한 드론
JP2021033896A (ja) * 2019-08-29 2021-03-01 ダイハツ工業株式会社 車両仕様算定システム
JP7327042B2 (ja) * 2019-09-26 2023-08-16 株式会社Jvcケンウッド 記録制御装置、記録制御方法、および記録制御プログラム
JP2021057707A (ja) * 2019-09-27 2021-04-08 トヨタ自動車株式会社 車室内検出装置及び車室内検出システム
CN112700658B (zh) * 2019-10-22 2023-02-03 奥迪股份公司 用于车辆的图像分享的系统及相应的方法和存储介质
JP7319906B2 (ja) * 2019-12-18 2023-08-02 日立Astemo株式会社 車両制御装置、車両制御方法及び車両制御システム
JP2021117840A (ja) * 2020-01-28 2021-08-10 トヨタ自動車株式会社 情報処理装置、情報処理方法、及び、プログラム
WO2021152985A1 (ja) * 2020-01-31 2021-08-05 株式会社Jvcケンウッド 記録制御装置、記録制御方法、及びプログラム
WO2021168387A1 (en) * 2020-02-21 2021-08-26 Calamp Corp. Technologies for driver behavior assessment
JP7367848B2 (ja) * 2020-03-12 2023-10-24 日本電気株式会社 走行映像提供システム、装置、方法、及びプログラム
US11669789B1 (en) * 2020-03-31 2023-06-06 GM Cruise Holdings LLC. Vehicle mass determination
WO2021229705A1 (ja) * 2020-05-13 2021-11-18 三菱電機株式会社 走行支援装置および走行支援方法
JP7402753B2 (ja) 2020-06-12 2023-12-21 日立Astemo株式会社 安全支援システム、および車載カメラ画像分析方法
CN114167849B (zh) * 2020-08-21 2023-12-08 富联精密电子(天津)有限公司 自走三角警示架及其行进控制方法
US11412014B1 (en) * 2020-12-21 2022-08-09 Meta Platforms, Inc. Systems and methods for integrated audioconferencing
EP4276788A4 (en) * 2021-02-18 2024-01-17 Nec Corp DEVICE FOR DETECTING IMPROVEMENT ELEMENTS, METHOD FOR DETECTING IMPROVEMENT ELEMENTS AND PROGRAM
WO2022195676A1 (ja) * 2021-03-15 2022-09-22 日本電気株式会社 運転情報出力装置、運転情報出力システム、運転情報出力方法、及び、記録媒体
CN113269042B (zh) * 2021-04-25 2024-03-29 安徽银徽科技有限公司 基于行驶车辆违章识别的智能交通管理方法及系统

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10116400A (ja) * 1996-10-11 1998-05-06 Honda Access Corp 車両の走行履歴記録システム
JP2001350521A (ja) * 2000-06-07 2001-12-21 Nissan Motor Co Ltd 車両の自動操舵装置
JP2002042288A (ja) * 2000-07-26 2002-02-08 Yazaki Corp 運行状態記録装置及びそれを利用した運行管理システム
JP2005178622A (ja) * 2003-12-19 2005-07-07 Denso Corp 車両用安全制御装置
JP2006085285A (ja) * 2004-09-14 2006-03-30 Matsushita Electric Ind Co Ltd 危険車両予測装置
JP2007072641A (ja) * 2005-09-06 2007-03-22 Equos Research Co Ltd 危険車両検出装置
WO2007091723A1 (ja) * 2006-02-07 2007-08-16 National University Corporation Tokyo University Of Agriculture And Technology 車両動作測定装置、車両非正常動作防止装置およびドライブレコーダ
JP2011145892A (ja) * 2010-01-14 2011-07-28 Fuji Heavy Ind Ltd 運転支援装置
JP2011170595A (ja) * 2010-02-18 2011-09-01 Ricoh Co Ltd ドライブレコーダー装置、記録方法、プログラム及び記録媒体
JP2012221134A (ja) * 2011-04-07 2012-11-12 Hitachi Automotive Systems Ltd 運転支援装置
US20140277833A1 (en) * 2013-03-15 2014-09-18 Mighty Carma, Inc. Event triggered trip data recorder
JP2015014988A (ja) * 2013-07-08 2015-01-22 アサヒリサーチ株式会社 車両の運行管理装置及びコンピュータプログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080180537A1 (en) * 2006-11-14 2008-07-31 Uri Weinberg Camera system and methods
CN102067191A (zh) * 2008-06-30 2011-05-18 罗姆股份有限公司 车辆的行驶信息记录装置
US10703299B2 (en) * 2010-04-19 2020-07-07 SMR Patents S.à.r.l. Rear view mirror simulation
US9254846B2 (en) * 2013-05-03 2016-02-09 Google Inc. Predictive reasoning for controlling speed of a vehicle
US9513702B2 (en) * 2013-07-15 2016-12-06 Lg Electronics Inc. Mobile terminal for vehicular display system with gaze detection
JP6234146B2 (ja) * 2013-10-04 2017-11-22 キヤノン株式会社 記録制御装置、記録制御方法、及び、プログラム
KR101622622B1 (ko) * 2014-10-13 2016-05-31 엘지전자 주식회사 차량 하부 이미지 제공 장치 및 이를 구비한 차량
KR20160107054A (ko) * 2015-03-03 2016-09-13 엘지전자 주식회사 차량 제어 장치, 차량 운전 보조 장치, 이동 단말기 및 그 제어 방법
US10345809B2 (en) * 2015-05-13 2019-07-09 Uber Technologies, Inc. Providing remote assistance to an autonomous vehicle
US20160357187A1 (en) * 2015-06-05 2016-12-08 Arafat M.A. ANSARI Smart vehicle
KR101977090B1 (ko) * 2015-07-22 2019-05-10 엘지전자 주식회사 차량 제어 장치 및 이를 구비한 차량의 제어방법
KR101778558B1 (ko) * 2015-08-28 2017-09-26 현대자동차주식회사 물체 인식 장치, 그를 가지는 차량 및 그 제어 방법
KR101843538B1 (ko) * 2015-12-16 2018-03-30 엘지전자 주식회사 차량 운전 보조장치 및 이의 차량 운전 보조방법
CN107945506A (zh) * 2016-10-12 2018-04-20 胜方光电科技股份有限公司 交通影音接收与分析系统
KR20180060784A (ko) * 2016-11-29 2018-06-07 삼성전자주식회사 비정상 객체 판단 방법 및 장치
WO2018212538A1 (en) * 2017-05-16 2018-11-22 Samsung Electronics Co., Ltd. Electronic device and method of detecting driving event of vehicle

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10116400A (ja) * 1996-10-11 1998-05-06 Honda Access Corp 車両の走行履歴記録システム
JP2001350521A (ja) * 2000-06-07 2001-12-21 Nissan Motor Co Ltd 車両の自動操舵装置
JP2002042288A (ja) * 2000-07-26 2002-02-08 Yazaki Corp 運行状態記録装置及びそれを利用した運行管理システム
JP2005178622A (ja) * 2003-12-19 2005-07-07 Denso Corp 車両用安全制御装置
JP2006085285A (ja) * 2004-09-14 2006-03-30 Matsushita Electric Ind Co Ltd 危険車両予測装置
JP2007072641A (ja) * 2005-09-06 2007-03-22 Equos Research Co Ltd 危険車両検出装置
WO2007091723A1 (ja) * 2006-02-07 2007-08-16 National University Corporation Tokyo University Of Agriculture And Technology 車両動作測定装置、車両非正常動作防止装置およびドライブレコーダ
JP2011145892A (ja) * 2010-01-14 2011-07-28 Fuji Heavy Ind Ltd 運転支援装置
JP2011170595A (ja) * 2010-02-18 2011-09-01 Ricoh Co Ltd ドライブレコーダー装置、記録方法、プログラム及び記録媒体
JP2012221134A (ja) * 2011-04-07 2012-11-12 Hitachi Automotive Systems Ltd 運転支援装置
US20140277833A1 (en) * 2013-03-15 2014-09-18 Mighty Carma, Inc. Event triggered trip data recorder
JP2015014988A (ja) * 2013-07-08 2015-01-22 アサヒリサーチ株式会社 車両の運行管理装置及びコンピュータプログラム

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3827419A4 (en) * 2018-07-26 2022-04-27 Takosan Otomobil Gostergeleri Sanayi ve Ticaret A.S. MONITORING, CONTROL AND REPORTING OF DRIVER ACTIONS BY AUTOMATIC TRAFFIC RULES FOLLOW-UP
CN108711202B (zh) * 2018-08-06 2022-01-28 上海市大数据股份有限公司 一种基于大数据的交通事故救援系统
CN108711202A (zh) * 2018-08-06 2018-10-26 何沙沙 一种基于大数据的交通事故救援系统
US11321574B2 (en) 2018-09-13 2022-05-03 Jvckenwood Corporation Video recording control device, video recording system, video recording method, and non-transitory storage medium
CN111684505A (zh) * 2018-09-13 2020-09-18 Jvc建伍株式会社 影像记录控制装置、影像记录系统、影像记录方法以及影像记录控制程序
WO2020054114A1 (ja) * 2018-09-13 2020-03-19 株式会社Jvcケンウッド 映像記録制御装置、映像記録システム、映像記録方法、および映像記録制御プログラム
JP2020042712A (ja) * 2018-09-13 2020-03-19 株式会社Jvcケンウッド 映像記録制御装置、映像記録システム、映像記録方法、および映像記録制御プログラム
CN111684505B (zh) * 2018-09-13 2022-10-18 Jvc建伍株式会社 影像记录控制装置、影像记录系统、影像记录方法以及影像记录控制程序
CN109389700A (zh) * 2018-10-19 2019-02-26 福建工程学院 一种基于区块链技术的车辆可见性违法行为识别方法
JPWO2021024497A1 (ja) * 2019-08-08 2021-02-11
WO2021024497A1 (ja) * 2019-08-08 2021-02-11 株式会社日立物流 運行インシデント画像表示システム、方法及びプログラム
JP7369776B2 (ja) 2019-08-08 2023-10-26 ロジスティード株式会社 運行インシデント画像表示システム、方法及びプログラム
US20220258769A1 (en) * 2021-02-18 2022-08-18 Honda Motor Co., Ltd. Vehicle control device, vehicle control method, and storage medium
US11932283B2 (en) * 2021-02-18 2024-03-19 Honda Motor Co., Ltd. Vehicle control device, vehicle control method, and storage medium

Also Published As

Publication number Publication date
JP2017138694A (ja) 2017-08-10
US20180357484A1 (en) 2018-12-13

Similar Documents

Publication Publication Date Title
WO2017134897A1 (ja) 映像処理装置及び映像処理方法
US11295143B2 (en) Information processing apparatus, information processing method, and program
JP6773046B2 (ja) 運転支援装置及び運転支援方法、並びに移動体
US9786171B2 (en) Systems and methods for detecting and distributing hazard data by a vehicle
JP6402684B2 (ja) 表示装置
US20200294385A1 (en) Vehicle operation in response to an emergency event
US11257374B2 (en) Information processing apparatus, information processing method, and moving object
US20190394652A1 (en) Apparatus for testing hacking of vehicle electronic device
WO2021065626A1 (ja) 交通制御システム、交通制御方法及び制御装置
US20210300401A1 (en) Information processing device, moving body, information processing method, and program
JP7074125B2 (ja) 情報処理装置と情報処理方法
CN112368598A (zh) 信息处理设备、信息处理方法、计算机程序和移动设备
KR20180046705A (ko) 자율 주행 차량 및 자율 주행 차량의 동작 방법
US20200231178A1 (en) Vehicle control system, vehicle control method, and program
WO2019039280A1 (ja) 情報処理装置、情報処理方法、プログラム、及び、車両
US20200035100A1 (en) Driving support apparatus and driving support method
JP2019036862A (ja) サーバ装置、記録方法、およびプログラム、並びに情報処理装置
CN105620490A (zh) 基于adas的驾驶辅助系统
CN110031234A (zh) 便于对高性能车辆特征进行安全检查的方法和设备
WO2019069599A1 (ja) 画像処理装置及び画像処理方法
CN114802435B (zh) 车辆控制方法、装置、车辆、存储介质及芯片
CN115257628B (zh) 车辆控制方法、装置、存储介质、车辆及芯片
KR102245850B1 (ko) 블랙박스 영상을 이용한 통합 관제 서비스를 제공하는 장치 및 방법
WO2022004352A1 (ja) 制御装置、制御方法、記憶媒体、及び制御システム
WO2024024471A1 (ja) 情報処理装置、情報処理方法、及び、情報処理システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16889380

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16889380

Country of ref document: EP

Kind code of ref document: A1