WO2022185653A1 - 車両用記録制御装置および記録制御方法 - Google Patents

車両用記録制御装置および記録制御方法 Download PDF

Info

Publication number
WO2022185653A1
WO2022185653A1 PCT/JP2021/046027 JP2021046027W WO2022185653A1 WO 2022185653 A1 WO2022185653 A1 WO 2022185653A1 JP 2021046027 W JP2021046027 W JP 2021046027W WO 2022185653 A1 WO2022185653 A1 WO 2022185653A1
Authority
WO
WIPO (PCT)
Prior art keywords
event
vehicle
driver
video data
recording
Prior art date
Application number
PCT/JP2021/046027
Other languages
English (en)
French (fr)
Inventor
康利 酒井
啓太 林
紘史 谷山
Original Assignee
株式会社Jvcケンウッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2021155498A external-priority patent/JP2022135889A/ja
Application filed by 株式会社Jvcケンウッド filed Critical 株式会社Jvcケンウッド
Priority to CN202180021589.1A priority Critical patent/CN115336248B/zh
Priority to EP21929211.7A priority patent/EP4113973A4/en
Publication of WO2022185653A1 publication Critical patent/WO2022185653A1/ja
Priority to US17/951,139 priority patent/US20230018277A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/085Registering performance data using electronic data carriers
    • G07C5/0866Registering performance data using electronic data carriers the electronic data carrier being a digital video recorder in combination with video camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • B60W2520/105Longitudinal acceleration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/01Occupants other than the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/223Posture, e.g. hand, foot, or seat position, turned or inclined
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Definitions

  • the present invention relates to a vehicle recording control device and a recording control method.
  • the present disclosure has been made in view of the above, and aims to appropriately record events such as accidents caused by inattentiveness of the driver of the vehicle, including the cause.
  • the vehicle recording control device captures first video data captured by a first capturing unit that captures the surroundings of a vehicle and the interior of the vehicle.
  • a video data acquisition unit that acquires second video data captured by a second imaging unit; and a face or line of sight direction of a driver of the vehicle is detected from the second video data, and the driver detects that the driver is driving the vehicle.
  • a direction detection unit that determines whether or not a first condition that the vehicle is facing in a direction other than the traveling direction is satisfied, an event detection unit that detects an event based on the acceleration applied to the vehicle, and at least the event detection time when the event is detected.
  • a recording control unit that saves the first video data containing as event recording data, and if the orientation detection unit determines that the first condition is satisfied, the processing of a), b) or a) and b)
  • a recording control device for a vehicle that performs a) The recording control unit adds an event recording start flag to the first video data, and when an event is detected in a state where the first condition is satisfied, at least the event detection time point from the event recording start flag. b) the event detection unit detects the event by lowering a threshold of acceleration for detecting the event.
  • a recording control method acquires first video data captured by a first capturing unit that captures the surroundings of a vehicle and second video data captured by a second capturing unit that captures an interior of the vehicle.
  • a recording control method for a vehicle that performs the processing of a), b), or a) and b).
  • an event recording start flag is added to the first video data, and when an event is detected in a state where the first condition is satisfied, at least the event detection time point from the event recording start flag;
  • the event detection step the event is detected by lowering the acceleration threshold for detecting the event.
  • FIG. 1 is a block diagram showing a configuration example of a vehicle recording apparatus having a control device according to the first embodiment.
  • FIG. 2 is a flow chart showing an example of the flow of processing in the control device according to the first embodiment.
  • FIG. 3 is a flow chart showing an example of the flow of processing in the control device according to the second embodiment.
  • FIG. 4 is a flow chart showing an example of the flow of processing in the control device according to the third embodiment.
  • FIG. 1 is a block diagram showing a configuration example of a vehicle recording apparatus 10 having a vehicle recording control apparatus (hereinafter referred to as "control apparatus") 100 according to the first embodiment.
  • the vehicle recording device 10 is a so-called drive recorder that records events occurring in the vehicle.
  • the vehicle recording device 10 records an event when an event is detected in a state in which the driver and passengers are facing the same direction other than the traveling direction of the vehicle.
  • the vehicle recording device 10 may be a portable device that can be used in the vehicle, in addition to being mounted on the vehicle.
  • the vehicle recording device 10 may be implemented by including the functions or configurations of a device installed in advance in the vehicle, a navigation device, or the like.
  • the vehicle recording device 10 includes a first camera (first imaging unit) 200, a second camera (second imaging unit) 210, a recording unit 220, an operation unit 230, an acceleration sensor 240, a GNSS (Global Navigation Satellite System) receiving section 250 , display section 260 , and control device 100 .
  • the first camera 200 has a camera that captures the surroundings of the vehicle.
  • the first camera 200 is, for example, a camera unique to the vehicle recording device 10 or a bird's-eye view camera that captures the surroundings of the vehicle.
  • the first camera 200 is arranged to face the front of the vehicle, and captures an image of the surroundings centered on the front of the vehicle.
  • the first camera 200 constantly captures images during the period from when the engine is started until it is stopped, that is, while the vehicle is in operation.
  • the first camera 200 outputs the captured first image data to the image data acquisition unit 120 of the control device 100 .
  • the first video data is, for example, a moving image composed of images of 30 frames per second.
  • the second camera 210 is a camera that captures the interior of the vehicle.
  • the second camera 210 is arranged at a position capable of photographing at least the face of the driver of the vehicle.
  • the second camera 210 is arranged at a position capable of photographing at least the faces of passengers including the driver seated on all seats of the vehicle.
  • the second camera 210 is arranged, for example, in the instrument panel of the vehicle, or inside or around the rearview mirror of the vehicle.
  • the second camera 210 has a fixed or substantially fixed shooting range and shooting direction.
  • the second camera 210 is composed of, for example, a visible light camera or a near-infrared camera.
  • the second camera 210 may be composed of, for example, a combination of a visible light camera and a near-infrared camera.
  • the second camera 210 constantly captures images from the time the engine is started until it is stopped, that is, while the vehicle is in operation.
  • the second camera 210 outputs the captured second image data to the image data acquisition unit 120 of the control device 100 .
  • the second video data is, for example, a moving image composed of images of 30 frames per second.
  • video data when it is not necessary to distinguish between the first video data and the second video data, they are referred to as video data.
  • the first camera 200 and the second camera 210 may be, for example, a single camera capable of capturing full-dome or half-dome.
  • the first image data in the video data captured in full-dome or half-dome, the range in which the entire video data is shot, the area around the vehicle, or the area in front of the vehicle is taken as the first image data.
  • the image data obtained by photographing the full-dome or the half-dome the range in which the face of the passenger sitting on the seat of the vehicle can be photographed is referred to as the second image data.
  • the entire image data obtained by capturing the full-dome or half-dome may be treated as the first image data and the second image data.
  • the recording unit 220 is used for temporary storage of data in the recording device 10 for vehicle.
  • the recording unit 220 is, for example, a RAM (Random Access Memory), a semiconductor memory device such as a flash memory, or a recording unit such as a memory card. Alternatively, it may be an external recording unit wirelessly connected via a communication device (not shown).
  • the recording unit 220 records loop recording video data or event recording data based on a control signal output from the recording control unit 133 of the control device 100 .
  • the operation unit 230 can receive various operations for the vehicle recording device 10 .
  • the operation unit 230 can accept an operation to manually store captured video data in the recording unit 220 as event recording data.
  • the operation unit 230 can accept an operation to reproduce loop-recorded video data or event-recorded data recorded in the recording unit 220 .
  • the operation unit 230 can accept an operation to erase event record data recorded in the recording unit 220 .
  • the operation unit 230 can accept an operation to end loop recording.
  • the operation unit 230 outputs operation information to the operation control unit 125 of the control device 100 .
  • the acceleration sensor 240 is a sensor that detects acceleration that occurs with respect to the vehicle. Acceleration sensor 240 outputs the detection result to event detection unit 132 of control device 100 .
  • the acceleration sensor 240 is, for example, a sensor that detects acceleration in three axial directions. The three axial directions are the longitudinal direction, the lateral direction, and the vertical direction of the vehicle.
  • the GNSS receiving unit 250 is composed of a GNSS receiver that receives GNSS signals from GNSS satellites.
  • the GNSS reception unit 250 outputs the received GNSS signal to the position information acquisition unit 126 of the control device 100 .
  • the display unit 260 is, for example, a display device unique to the vehicle recording device 10 or a display device shared with other systems including a navigation system.
  • the display section 260 may be formed integrally with the first camera 200 .
  • the display unit 260 is, for example, a display including a liquid crystal display (LCD) or an organic EL (Organic Electro-Luminescence) display.
  • the display unit 260 is arranged on the dashboard, instrument panel, center console, etc. in front of the driver of the vehicle.
  • the display unit 260 displays images based on the image signal output from the display control unit 127 of the control device 100 .
  • the display unit 260 displays images captured by the first camera 200 or images recorded in the recording unit 220 .
  • the control device 100 is an arithmetic processing device (control device) including, for example, a CPU (Central Processing Unit). Controller 100 loads a stored program into memory and executes the instructions contained in the program.
  • the control device 100 includes an internal memory (not shown), which is used for temporary storage of data in the control device 100 and the like.
  • the control device 100 includes a video data acquisition unit 120, a buffer memory 121, a video data processing unit 122, a reproduction control unit 124, an operation control unit, and an operation control unit 120, which are connected to the bus 100X. It has a unit 125 , a position information acquisition unit 126 , a display control unit 127 , an orientation detection unit 131 , an event detection unit 132 , and a recording control unit 133 .
  • the video data acquisition unit 120 acquires first video data that captures the surroundings of the vehicle and second video data that captures the interior of the vehicle. More specifically, the video data acquisition unit 120 acquires the first video data captured by the first camera 200 and the second video data captured by the second camera 210 . The image data acquisition unit 120 acquires the first image data and the second image data output by the first camera 200 and the second camera 210 and outputs them to the buffer memory 121 .
  • the first image data and the second image data acquired by the image data acquiring unit 120 are not limited to data of only images, and may be shooting data including images and sounds.
  • the image data acquisition unit 120 may acquire image data obtained by photographing the full-dome or half-dome as the first image data and the second image data.
  • the buffer memory 121 is an internal memory provided in the control device 100, and is a memory that temporarily records video data for a certain period of time acquired by the video data acquisition unit 120 while updating the data.
  • the video data processing unit 122 converts the video data temporarily stored in the buffer memory 121 into H.264, for example. 264, MPEG-4 (Moving Picture Experts Group), or any other codec, and converted into any file format, such as MP4 format.
  • the video data processing unit 122 generates video data as a file for a certain period of time from the video data temporarily stored in the buffer memory 121 .
  • the video data processing unit 122 generates a file of 60 seconds of video data temporarily stored in the buffer memory 121 in recording order.
  • the video data processing unit 122 outputs the generated video data to the recording control unit 133 .
  • the video data processing unit 122 also outputs the generated video data to the display control unit 127 .
  • the period of video data generated as a file is set to 60 seconds as an example, but is not limited to this.
  • the image data referred to here may be data containing audio in addition to the image captured by the first camera 200 .
  • the playback control unit 124 controls playback of the loop-recorded video data or event-recorded data recorded in the recording unit 220 based on the playback operation control signal output from the operation control unit 125 .
  • the operation control unit 125 acquires operation information of operations accepted by the operation unit 230 .
  • the operation control unit 125 acquires storage operation information indicating a manual storage operation of video data, playback operation information indicating a playback operation, or erasing operation information indicating a video data erasing operation, and outputs a control signal.
  • the operation control unit 125 acquires end operation information indicating an operation for ending loop recording, and outputs a control signal.
  • the position information acquisition unit 126 acquires position information indicating the current position of the vehicle.
  • the position information acquisition unit 126 calculates the position information of the current position of the vehicle by a known method based on the GNSS signals received by the GNSS reception unit 250 .
  • the display control unit 127 controls display of video data on the display unit 260 .
  • the display control unit 127 outputs a video signal that causes the display unit 260 to output video data. More specifically, the display control unit 127 outputs a video signal to be displayed by reproducing the video captured by the first camera 200 or the loop-recorded video data or event-recorded data recorded in the recording unit 220 .
  • the direction detection unit 131 detects the direction of the face or the line of sight of the driver of the vehicle and the passengers other than the driver from the second image data, and detects whether the driver and the passengers are facing the same direction other than the traveling direction of the vehicle. It is determined whether or not the first condition is satisfied.
  • the orientation detection unit 131 recognizes a person from the second video data.
  • a method for recognizing a person from the second image data can use a known method and is not limited.
  • the detected persons are the driver of the vehicle and passengers other than the driver.
  • the direction detection unit 131 detects the direction of the face or line of sight of the driver of the vehicle and the passengers other than the driver.
  • the orientation detection unit 131 performs image processing on the second video data, recognizes the facial parts of the driver and passengers other than the driver, and detects the orientation of the face or line of sight. More specifically, the direction detection unit 131 acquires information indicating the direction of the face or line of sight, for example, by recognizing the eyes of the driver and passengers other than the driver from the second image data.
  • Gaze detection based on the image of the eyes of the driver and passengers other than the driver is arbitrary, such as detection of the gaze based on the positional relationship between the inner corner of the eye and the iris detected from the eye image, and detection of the gaze based on the positional relationship between the corneal reflection and the pupil. method is applicable.
  • the direction detection unit 131 detects a direction other than the front of the vehicle when the face or line of sight of the driver and passengers other than the driver is in a direction outside a predetermined angle range from the forward direction of the vehicle when the vehicle is traveling straight. In other words, it is determined that the subject is looking aside.
  • the predetermined angle range is a range in which a normal driver directs his/her face or line of sight when the vehicle is traveling straight ahead, that is, when the vehicle is not turning left or right or backing up while the vehicle is running.
  • the direction detection unit 131 detects, from the second image data, the directions of the face or the line of sight of the driver of the vehicle and a plurality of passengers other than the driver, and detects the direction of the driver and passengers of a predetermined ratio or more of the plurality of passengers. face the same direction other than the traveling direction of the vehicle.
  • the predetermined ratio is, for example, 50%. That is, when there are two passengers other than the driver, it can be determined that the ratio is greater than or equal to the predetermined ratio when one passenger is facing the same direction as the driver. Similarly, when there are three passengers other than the driver, it can be determined that the ratio is greater than or equal to the predetermined ratio when two passengers face the same direction as the driver.
  • the inattentiveness of a predetermined percentage or more of a plurality of passengers tends to affect the driver. Therefore, when the driver and a predetermined percentage or more of the passengers have the same face or line of sight, it is highly likely that the driver will be less careful about the traveling direction of the vehicle.
  • the direction detection unit 131 detects, from the second image data, the direction of the face or the line of sight of the driver of the vehicle and the passengers sitting in the front seats of the vehicle other than the driver. It may be determined whether or not the first condition of facing the same direction other than the traveling direction of is satisfied.
  • the event detection unit 132 detects events based on acceleration applied to the vehicle. More specifically, event detector 132 detects an event based on the detection result of acceleration sensor 240 . The event detection unit 132 detects that an event has occurred when the acceleration information is greater than or equal to a set threshold that corresponds to a vehicle collision.
  • the recording control unit 133 controls the recording unit 220 to record the video data filed by the video data processing unit 122 .
  • the recording control unit 133 stores the video data filed by the video data processing unit 122 as overwritable video data during a period in which the loop recording process is executed, such as when the accessory power source of the vehicle is ON. to record. More specifically, the recording control unit 133 continues recording the video data generated by the video data processing unit 122 in the recording unit 220 during the loop recording process. The oldest video data is overwritten with new video data and recorded.
  • the recording control unit 133 saves video data corresponding to the detection of the event.
  • the video data corresponding to event detection is video data for a predetermined period in the video data generated by the video data processing unit 122 .
  • the recording control unit 133 saves the video data corresponding to the detection of the event in the recording unit 220 as overwrite-prohibited event recording data.
  • the event recording data stored in the recording unit 220 by the recording control unit 133 is obtained by copying, from the buffer memory 121, video data for a predetermined period of about 10 seconds before and after the event is detected. Save as .
  • the recording control unit 133 saves the first video data including at least the event detection point as event recording data.
  • the recording control unit 133 adds an event recording start flag to the first video data, and the event is detected while the first condition is satisfied.
  • the first video data including at least the event detection point from the event recording start flag is saved as the event recording data.
  • the event recording data stored in the recording unit 220 by the recording control unit 133 is, for example, the video data including at least the event detection point from the event recording start flag, copied from the buffer memory 121, and stored as event recording data.
  • the recording control unit 133 may store the first video data and the second video data including at least the event detection point from the event recording start flag as event recording data.
  • FIG. 2 is a flow chart showing an example of the flow of processing in the control device 100 according to the first embodiment.
  • the control device 100 starts normal recording and passenger monitoring (step S101). More specifically, the control device 100 causes the recording control unit 133 to transmit the image data captured by the first camera 200 and the second camera 210 to the buffer memory 121, for example, every image of a predetermined period such as every 60 seconds. generates a video file and causes the recording unit 220 to record it. The control device 100 proceeds to step S102.
  • the control device 100 determines whether or not the first condition is satisfied (step S102). More specifically, the control device 100 uses the direction detection unit 131 to detect the direction of the face or line of sight of the driver of the vehicle and the passengers other than the driver from the second image data, and It is determined whether or not the first condition of facing the same direction other than the traveling direction is satisfied. When the orientation detection unit 131 determines that the first condition is satisfied (Yes in step S102), the control device 100 proceeds to step S103. When the orientation detection unit 131 does not determine that the first condition is satisfied (No in step S102), the control device 100 proceeds to step S107.
  • the control device 100 When determining that the first condition is satisfied (Yes in step S102), the control device 100 causes the recording control unit 133 to control the period in which the first condition is satisfied, in other words, the driver and passengers other than the driver look aside.
  • An event recording start flag is attached to the video data of the normal recording during the period in which the event recording is started, and the data is stored (step S103). More specifically, the control device 100 uses the recording control unit 133 to add an event recording start flag to the first video data in the period that satisfies the first condition.
  • the control device 100 causes the recording control unit 133 to store the first video data to which the event recording start flag is added in the recording unit 220 as normal recording video data.
  • the control device 100 proceeds to step S104.
  • the control device 100 determines whether or not the state satisfying the first condition continues (step S104). More specifically, the control device 100 determines whether or not the orientation detection unit 131 continues to detect the state that satisfies the first condition. When the orientation detection unit 131 determines that the state satisfying the first condition continues (Yes in step S104), the control device 100 proceeds to step S105. When the orientation detection unit 131 does not determine that the state satisfying the first condition continues (No in step S104), the control device 100 proceeds to step S107. For example, if the orientation detection unit 131 detects that the driver or passenger faces the traveling direction of the vehicle or changes the viewing direction, the state in which the first condition is satisfied ceases (No in step S104), and step S104 returns to step S104. Proceed to S107.
  • step S104 the control device 100 determines whether an event is detected based on the detection result of the event detection unit 132 (step S105). If the acceleration detected by the event detection unit 132 is equal to or greater than the threshold, it is determined that an event has been detected (Yes in step S105), and the process proceeds to step S106. Alternatively, when the event detection unit 132 determines that the detected acceleration is not equal to or greater than the threshold, it determines that no event is detected (No in step S105), and executes the process of step S104 again.
  • the control device 100 causes the recording control unit 133 to store the video data from the event recording start flag to a predetermined period after the event detection (step S106). More specifically, the control device 100 causes the recording control unit 133 to store the first video data to which the event recording start flag is added as the event recording data in the recording unit 220 while prohibiting overwriting.
  • the second video data may also be saved as the event record data. For example, the second video data including at least the event detection point from the event start flag is saved as the event record data together with the first video data.
  • the event recording data is the first video data including a predetermined period after the event detection time from the event recording start flag.
  • the control device 100 proceeds to step S109.
  • the control device 100 causes the event detection unit 132 to Based on the detection result, it is determined whether or not an event has been detected (step S107). If the acceleration detected by the event detection unit 132 is equal to or greater than the threshold, it is determined that an event has been detected (Yes in step S107), and the process proceeds to step S108. Alternatively, when the event detection unit 132 determines that the detected acceleration is not equal to or greater than the threshold, it determines that no event is detected (No in step S107), and proceeds to step S109.
  • the control device 100 causes the recording control unit 133 to save video data including a predetermined period before and after the event detection (step S108). More specifically, the control device 100 causes the recording control unit 133 to store the first video data as event recording data in the recording unit 220 while prohibiting overwriting.
  • the event recording data is first video data including a predetermined period of time before and after the event is detected. The control device 100 proceeds to step S109.
  • the control device 100 determines whether or not to end loop recording and event detection (step S109). For example, it is determined that loop recording and event detection are to be terminated when the power source or power of the vehicle is turned off, or when the operation unit 230 is operated. If the control device 100 determines to end loop recording and event detection (Yes in step S109), it ends this process. If it is determined that the loop recording and event detection are not terminated (No in step S109), the control device 100 executes the process of step S102 again.
  • the event recording start flag when an event is detected in a state in which the driver and passengers other than the driver are facing the same direction other than the traveling direction, the event recording start flag includes at least the event detection time point.
  • the first video data is saved as event record data.
  • the present embodiment can store event record data that includes a period of time prior to the time of event detection. As described above, according to the present embodiment, it is possible to appropriately record an event such as an accident caused by the driver's inattentiveness, including the cause.
  • the first condition is satisfied when the number of passengers facing the same direction as the driver is equal to or greater than a predetermined ratio.
  • a predetermined ratio As described above, when the number of passengers facing the same direction as the driver is equal to or greater than a predetermined ratio, the driver is likely to be affected.
  • the first condition is satisfied based on the direction of the face or line of sight of the driver and the passengers sitting in the front seats of the vehicle other than the driver.
  • front seat passengers are likely to influence the driver. Therefore, when the face or line of sight of the driver and the passengers in the front seats are in the same direction, it is highly likely that the driver will be less careful about the traveling direction of the vehicle. According to the present embodiment, it can be determined that the first condition is satisfied when there is a high possibility that attention to the traveling direction will be neglected.
  • the first video data and the second video data including at least the event detection point from the event recording start flag can be saved as event recording data.
  • the situation around the vehicle and inside the vehicle can be saved as event record data. According to the present embodiment, it is possible to appropriately record an event such as an accident caused by the inattentiveness of the driver of the vehicle, including the cause.
  • FIG. 3 is a flow chart showing an example of the flow of processing in the control device 100 according to the second embodiment.
  • the vehicle recording device 10 has the same basic configuration as the vehicle recording device 10 of the first embodiment. In the following description, components similar to those of the vehicle recording apparatus 10 are given the same reference numerals or corresponding reference numerals, and detailed description thereof will be omitted.
  • the vehicle recording device 10 changes the threshold for detecting an event when an event is detected in a state in which the driver and passenger are facing the same direction other than the traveling direction of the vehicle.
  • the event detection unit 132 detects an event based on the acceleration applied to the vehicle, and when the direction detection unit 131 determines that the first condition is satisfied, the event is detected by lowering the acceleration threshold for event detection.
  • the normal threshold that is, the threshold that is not lowered
  • the threshold that is lowered is set to 0.6G. This makes it easier for the event to be detected when the orientation detection unit 131 determines that the first condition is satisfied.
  • the recording control unit 133 saves the first video data including at least the event detection point as event recording data.
  • Steps S111, S112, S114, S115, and S118 through S120 are the same as steps S101, S102, S104, S105, and S107 through S109 in the flow chart shown in FIG.
  • step S112 If it is determined that the first condition is satisfied (Yes in step S112), the control device 100 lowers the acceleration threshold at which the event detection unit 132 detects an event (step S113). The control device 100 proceeds to step S114.
  • the control device 100 causes the recording control unit 133 to save video data including a predetermined period before and after the event detection (step S116). More specifically, the control device 100 causes the recording control unit 133 to store the first video data as event recording data in the recording unit 220 while prohibiting overwriting.
  • the event recording data is first video data including a predetermined period of time before and after the event is detected. The control device 100 proceeds to step S120.
  • control device 100 changes the acceleration threshold for the event detection unit 132 to detect an event to a normal value (step S117). The control device 100 proceeds to step S118.
  • the orientation detection unit 131 determines that the first condition is satisfied, the event is detected by lowering the acceleration threshold for event detection.
  • This embodiment sets an acceleration threshold for detecting an event in a situation where the driver and passengers other than the driver are looking aside and a minor collision or contact is likely to occur, which is not detected as a collision. can be kept.
  • an event such as an accident caused by the driver's inattentiveness, including the cause.
  • FIG. 4 is a flow chart showing an example of the flow of processing in the control device 100 according to the third embodiment.
  • the vehicle recording apparatus 10 has the same basic configuration as the vehicle recording apparatus 10 of the first and second embodiments.
  • the vehicle recording device 10 changes the threshold for detecting an event when an event is detected in a state in which the driver and passenger are facing the same direction other than the traveling direction of the vehicle.
  • the vehicle recording device 10 saves the first image data including at least the event detection point from the event recording start flag as event recording data.
  • the event detection unit 132 has functions similar to those of the second embodiment. More specifically, the event detection unit 132 detects an event based on the acceleration applied to the vehicle, and when the orientation detection unit 131 determines that the first condition is satisfied, the event is detected by lowering the acceleration threshold for event detection. do.
  • the recording control unit 133 has the same functions as in the first embodiment. More specifically, when the orientation detection unit 131 determines that the first condition is satisfied, the recording control unit 133 adds an event recording start flag to the first video data, and the event starts when the first condition is satisfied. When detected, the first video data including at least the event detection point from the event recording start flag is saved as event recording data.
  • Steps S131 through S133, steps S135 through S137, and steps S139 through S141 are the same as steps S101 through S103, steps S104 through S106, and steps S107 through S109 of the flowchart shown in FIG.
  • Steps S134 and S138 perform the same processing as steps S113 and S117 in the flow chart shown in FIG.
  • the event when it is determined that the first condition is satisfied, the event is detected by lowering the acceleration threshold for event detection.
  • the first video data including at least the event detection point from the event recording start flag is saved as the event recording data.
  • This embodiment can set an acceleration threshold for detecting an event in a situation where the driver and passengers other than the driver are looking aside and minor collisions and contact are likely to occur.
  • the present embodiment can store event record data that includes a period of time prior to the time of event detection. As described above, according to the present embodiment, it is possible to appropriately record an event such as an accident caused by the driver's inattentiveness, including the cause.
  • the vehicle recording apparatus 10 has the same basic configuration as the vehicle recording apparatus 10 of the first and second embodiments. This embodiment differs from the first to third embodiments in that it is determined as a first condition that the driver is facing a direction other than the traveling direction of the vehicle for a predetermined time or longer.
  • the vehicle recording device 10 records an event when an event is detected while the driver is facing in a direction other than the traveling direction of the vehicle.
  • the vehicle recording apparatus 10 When the orientation detection unit 131 determines that the first condition is satisfied, the vehicle recording apparatus 10 performs processing combining the second embodiment and the third embodiment. More specifically, when the orientation detection unit 131 determines that the first condition is satisfied, the vehicle recording device 10 performs a), b) or a) and b). a) The recording control unit 133 assigns an event recording start flag to the first video data, and if an event is detected in a state where the first condition is satisfied, the recording control unit 133 sets the event recording start flag to the event recording start flag including at least the event detection point. 1. Save video data as event record data. a) corresponds to the process of the third embodiment. b) The event detection unit 132 detects an event by lowering the acceleration threshold for event detection. b) corresponds to the process of the second embodiment.
  • the orientation detection unit 131 detects the orientation of the face or line of sight of the driver of the vehicle from the second image data, and determines whether or not the driver satisfies the first condition that the driver faces the same direction other than the traveling direction of the vehicle. to decide. More specifically, the direction detection unit 131 determines that the driver is facing a direction other than the traveling direction of the vehicle for a predetermined time or more as a first condition.
  • control device 100 performs processing according to the flowcharts shown in FIGS.
  • step S101 in FIG. 2 the control device 100 starts normal recording and driver monitoring.
  • step S102 the control device 100 causes the direction detection unit 131 to detect the direction of the face or line of sight of the driver of the vehicle from the second image data, and detects the direction of the driver's face or line of sight from the second image data. Determine whether or not one condition is satisfied.
  • the first image data including at least the event detection point from the event recording start flag is saved as event recording data. can do.
  • the orientation detection unit 131 determines that the first condition is satisfied, the event is detected by lowering the acceleration threshold for event detection.
  • This embodiment can set an acceleration threshold for detecting an event in a situation where the driver is looking aside and a minor collision or contact that is not detected as a collision is likely to occur.
  • the vehicle recording device 10 may be implemented in various different forms other than the above-described embodiment.
  • Each component of the illustrated vehicle recording device 10 is functionally conceptual, and does not necessarily have to be physically configured as illustrated.
  • the specific form of each device is not limited to the illustrated one, and all or part of it may be functionally or physically distributed or integrated in arbitrary units according to the processing load and usage conditions of each device.
  • the configuration of the recording device for vehicle 10 is implemented by, for example, a program loaded into the memory as software.
  • functional blocks realized by cooperation of these hardware or software have been described. That is, these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.
  • the vehicle recording control device, recording control method, and program of the present disclosure can be used, for example, in a drive recorder.
  • vehicle recording device 100 control device (vehicle recording control device) 100X bus 120 video data acquisition unit 121 buffer memory 122 video data processing unit 124 playback control unit 125 operation control unit 126 position information acquisition unit 127 display control unit 131 orientation detection unit 132 event detection unit 133 recording control unit 200 first camera (first one shooting unit) 210 second camera (second imaging unit) 220 recording unit 230 operation unit 240 acceleration sensor 250 GNSS receiving unit 260 display unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Automation & Control Theory (AREA)
  • Ophthalmology & Optometry (AREA)
  • Time Recorders, Dirve Recorders, Access Control (AREA)
  • Traffic Control Systems (AREA)

Abstract

車両の運転者の脇見によって生じる事故等のイベントを、原因も含めて適切に記録すること。制御装置100は、映像データ取得部120と、運転者が車両の進行方向以外を向いている第一条件を満たすか否かを判断する向き検出部131と、イベント検出部132と、イベントが検出された場合、少なくともイベント検出時点を含む第一映像データをイベント記録データとして保存する記録制御部133とを備え、第一条件を満たす場合、a)、b)またはa)およびb)の処理を行う。a)記録制御部133は、第一映像データにイベント記録開始フラグを付与し、第一条件が満たされている状態でイベントが検出された場合、イベント記録開始フラグから少なくともイベント検出時点を含む第一映像データをイベント記録データとして保存、b)イベント検出部132は、イベントを検出する加速度の閾値を低くしてイベントを検出する。

Description

車両用記録制御装置および記録制御方法
 本発明は、車両用記録制御装置および記録制御方法に関する。
 車両が前走車両に追突するなどの事故は、運転者の脇見が原因であることが多い。運転者の脇見は、同乗者の動作にも影響される。また、脇見によって、前走車両に追突した場合や、急ブレーキによる追突回避した場合は、走行中の車間距離が狭い低速走行時であることが多い。このような状態は、車両に加わる加速度が小さい場合があり、イベントとして検出されないこともある。同乗者の顔向きが一致した場合、自車両周辺の状況を車外画像として記録するシステムが開示されている(例えば、特許文献1参照)。
特開2014-096632号公報
 このような技術を、例えばドライブレコーダに適用した場合であっても、車両の搭乗者の顔の向きが一致するような事象と事故との因果関係を正確に判断することは難しい。このため、事故の原因が明確にできないおそれがある。
 本開示は、上記に鑑みてなされたものであって、車両の運転者の脇見によって生じる事故等のイベントを、原因も含めて適切に記録することを目的とする。
 上述した課題を解決し、目的を達成するために、本開示に係る車両用記録制御装置は、車両の周辺を撮影する第一撮影部が撮影した第一映像データおよび前記車両の車室内を撮影する第二撮影部が撮影した第二映像データを取得する映像データ取得部と、前記第二映像データから、前記車両の運転者の顔または視線の向きを検出し、前記運転者が前記車両の進行方向以外を向いている第一条件を満たすか否かを判断する向き検出部と、前記車両に加わる加速度に基づくイベントを検出するイベント検出部と、イベントが検出された場合、少なくともイベント検出時点を含む第一映像データをイベント記録データとして保存する記録制御部と、を備え、前記向き検出部が前記第一条件を満たすと判断した場合、a)、b)またはa)およびb)の処理を行う車両用記録制御装置。a)前記記録制御部は、前記第一映像データにイベント記録開始フラグを付与し、前記第一条件が満たされている状態でイベントが検出された場合、イベント記録開始フラグから少なくともイベント検出時点を含む第一映像データをイベント記録データとして保存、b)前記イベント検出部は、イベントを検出する加速度の閾値を低くしてイベントを検出する。
 本開示に係る記録制御方法は、車両の周辺を撮影する第一撮影部が撮影した第一映像データおよび前記車両の車室内を撮影する第二撮影部が撮影した第二映像データを取得する映像データ取得ステップと、前記第二映像データから、前記車両の運転者の顔または視線の向きを検出し、前記運転者が前記車両の進行方向以外を向いている第一条件を満たすか否かを判断する向き検出ステップと、前記車両に加わる加速度に基づくイベントを検出するイベント検出ステップと、イベントが検出された場合、少なくともイベント検出時点を含む第一映像データをイベント記録データとして保存する記録制御ステップと、が実行され、前記向き検出ステップにおいて前記第一条件を満たすと判断した場合、a)、b)またはa)およびb)の処理を行う車両用記録制御装置が実行する記録制御方法。a)前記記録制御ステップにおいては、前記第一映像データにイベント記録開始フラグを付与し、前記第一条件が満たされている状態でイベントが検出された場合、イベント記録開始フラグから少なくともイベント検出時点を含む第一映像データをイベント記録データとして保存、b)前記イベント検出ステップにおいては、イベントを検出する加速度の閾値を低くしてイベントを検出する。
 本開示によれば、車両の運転者の脇見によって生じる事故等のイベントを、原因も含めて適切に記録することができるという効果を奏する。
図1は、第一実施形態に係る制御装置を有する車両用記録装置の構成例を示すブロック図である。 図2は、第一実施形態に係る制御装置における処理の流れの一例を示すフローチャートである。 図3は、第二実施形態に係る制御装置における処理の流れの一例を示すフローチャートである。 図4は、第三実施形態に係る制御装置における処理の流れの一例を示すフローチャートである。
 以下に添付図面を参照して、本開示に係る車両用記録制御装置の実施形態を詳細に説明する。なお、以下の実施形態により本発明が限定されるものではない。
[第一実施形態]
(車両用記録装置)
 図1は、第一実施形態に係る車両用記録制御装置(以下、「制御装置」という。)100を有する車両用記録装置10の構成例を示すブロック図である。車両用記録装置10は、車両に発生したイベントを記録する、いわゆるドライブレコーダである。車両用記録装置10は、運転者および搭乗者が車両の進行方向以外の同一方向を向いている状態で、イベントが検出された場合、イベントを記録する。
 車両用記録装置10は、車両に載置されているものに加えて、可搬型で車両において利用可能な装置であってもよい。また、車両用記録装置10は、車両にあらかじめ設置されている装置やナビゲーション装置等の機能または構成を含んで実現されてもよい。車両用記録装置10は、第一カメラ(第一撮影部)200と、第二カメラ(第二撮影部)210と、記録部220と、操作部230と、加速度センサ240と、GNSS(Global Navigation Satellite System)受信部250と、表示部260と、制御装置100とを有する。
 第一カメラ200は、車両の周辺を撮影するカメラを有する。第一カメラ200は、一例としては、車両用記録装置10に固有のカメラ、または、車両の周囲を撮影する俯瞰映像用のカメラである。本実施形態では、第一カメラ200は、車両の前方を向いて配置され、車両の前方を中心とした周辺を撮影する。第一カメラ200は、エンジンが始動してから停止するまでの間、つまり車両が動作している間は、映像を常時撮影する。第一カメラ200は、撮影した第一映像データを制御装置100の映像データ取得部120へ出力する。第一映像データは、例えば毎秒30フレームの画像から構成される動画像である。
 第二カメラ210は、車両の車室内を撮影するカメラである。第二カメラ210は、車両の運転者の少なくとも顔部を撮影可能な位置に配置されている。または、第二カメラ210は、車両のすべての座席に着座している運転者を含む搭乗者の少なくとも顔部を撮影可能な位置に配置されている。第二カメラ210は、例えば、車両のインストルメントパネル、または車両のルームミラー内部またはルームミラーの周辺に配置されている。第二カメラ210は、撮影範囲と撮影向きが固定またはほぼ固定である。第二カメラ210は、例えば、可視光カメラまたは近赤外線カメラで構成される。第二カメラ210は、例えば、可視光カメラと近赤外線カメラとの組み合わせで構成されてもよい。第二カメラ210は、エンジンが始動してから停止するまでの間、つまり車両が動作している間は、映像を常時撮影する。第二カメラ210は、撮影した第二映像データを制御装置100の映像データ取得部120へ出力する。第二映像データは、例えば毎秒30フレームの画像から構成される動画像である。なお、第一映像データおよび第二映像データとの区別を要しない場合、映像データと記載する。
 第一カメラ200および第二カメラ210は、例えば全天周や半天周を撮影可能な単一のカメラであってもよい。この場合、全天周や半天周を撮影した映像データにおいて、映像データの全体または車両の周辺を撮影している範囲や、車両の前方などを撮影している範囲を、第一映像データとする。また、全天周や半天周を撮影した映像データにおいて、車両の座席に着座している搭乗者の顔を撮影可能な範囲を、第二映像データとする。さらには、全天周や半天周を撮影した映像データ全体を、第一映像データおよび第二映像データとして扱ってもよい。
 記録部220は、車両用記録装置10におけるデータの一時記憶などに用いられる。記録部220は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、または、メモリカードなどの記録部である。または、図示しない通信装置を介して無線接続される外部記録部であってもよい。記録部220は、制御装置100の記録制御部133から出力された制御信号に基づいて、ループ記録映像データまたはイベント記録データを記録する。
 操作部230は、車両用記録装置10に対する各種操作を受付可能である。例えば、操作部230は、撮影した映像データを記録部220にイベント記録データとして手動で保存する操作を受付可能である。例えば、操作部230は、記録部220に記録したループ記録映像データまたはイベント記録データを再生する操作を受付可能である。例えば、操作部230は、記録部220に記録したイベント記録データを消去する操作を受付可能である。例えば、操作部230は、ループ記録を終了する操作を受付可能である。操作部230は、操作情報を制御装置100の操作制御部125に出力する。
 加速度センサ240は、車両に対して生じる加速度を検出するセンサである。加速度センサ240は、検出結果を制御装置100のイベント検出部132に出力する。加速度センサ240は、例えば3軸方向の加速度を検出するセンサである。3軸方向とは、車両の前後方向、左右方向、および上下方向である。
 GNSS受信部250は、GNSS衛星からのGNSS信号を受信するGNSS受信機などで構成される。GNSS受信部250は、受信したGNSS信号を制御装置100の位置情報取得部126へ出力する。
 表示部260は、一例としては、車両用記録装置10に固有の表示装置、または、ナビゲーションシステムを含む他のシステムと共用した表示装置などである。表示部260は、第一カメラ200と一体に形成されていてもよい。表示部260は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)または有機EL(Organic Electro-Luminescence)ディスプレイなどを含むディスプレイである。本実施形態では、表示部260は、車両の運転者前方の、ダッシュボード、インストルメントパネル、センターコンソールなどに配置されている。表示部260は、制御装置100の表示制御部127から出力された映像信号に基づいて、映像を表示する。表示部260は、第一カメラ200が撮影している映像、または、記録部220に記録された映像を表示する。
(車両用記録制御装置)
 制御装置100は、例えば、CPU(Central Processing Unit)などで構成された演算処理装置(制御装置)である。制御装置100は、記憶されているプログラムをメモリにロードして、プログラムに含まれる命令を実行する。制御装置100には図示しない内部メモリが含まれ、内部メモリは制御装置100におけるデータの一時記憶などに用いられる。制御装置100は、その構成およびプログラムによって実現される機能として、バス100Xに接続された、映像データ取得部120と、バッファメモリ121と、映像データ処理部122と、再生制御部124と、操作制御部125と、位置情報取得部126と、表示制御部127と、向き検出部131と、イベント検出部132と、記録制御部133とを有する。
 映像データ取得部120は、車両の周辺を撮影した第一映像データおよび車両の車室内を撮影した第二映像データを取得する。より詳しくは、映像データ取得部120は、第一カメラ200が撮影した第一映像データおよび第二カメラ210が撮影した第二映像データを取得する。映像データ取得部120は、第一カメラ200および第二カメラ210が出力した第一映像データおよび第二映像データを取得して、バッファメモリ121に出力する。映像データ取得部120が取得する第一映像データおよび第二映像データは、映像のみのデータに限らず、映像と音声とを含む撮影データであってもよい。また、映像データ取得部120は、第一映像データおよび第二映像データとして、全天周や半天周を撮影した映像データを取得してもよい。
 バッファメモリ121は、制御装置100が備える内部メモリであり、映像データ取得部120が取得した一定時間分の映像データを、更新しながら一時的に記録するメモリである。
 映像データ処理部122は、バッファメモリ121が一時的に記憶している映像データを、例えばH.264やMPEG-4(Moving Picture Experts Group)などの任意の方式のコーデックで符号化された、例えばMP4形式などの任意のファイル形式に変換する。映像データ処理部122は、バッファメモリ121が一時的に記憶している映像データから、一定時間分のファイルとした映像データを生成する。具体例として、映像データ処理部122は、バッファメモリ121が一時的に記憶している映像データを、記録順に60秒間の映像データをファイルとして生成する。映像データ処理部122は、生成した映像データを記録制御部133へ出力する。また、映像データ処理部122は、生成した映像データを表示制御部127へ出力する。ファイルとして生成される映像データの期間は、一例として60秒としたが、これには限定されない。ここで言う映像データとは、第一カメラ200が撮影した映像に加えて音声が含まれたデータであってもよい。
 再生制御部124は、操作制御部125から出力された再生操作の制御信号に基づいて、記録部220に記録されたループ記録映像データまたはイベント記録データを再生するよう制御する。
 操作制御部125は、操作部230が受け付けた操作の操作情報を取得する。例えば、操作制御部125は、映像データの手動保存操作を示す保存操作情報、再生操作を示す再生操作情報、または、映像データの消去操作を示す消去操作情報を取得して制御信号を出力する。例えば、操作制御部125は、ループ記録を終了する操作を示す終了操作情報を取得して制御信号を出力する。
 位置情報取得部126は、車両の現在位置を示す位置情報を取得する。位置情報取得部126は、GNSS受信部250が受信したGNSS信号に基づいて、車両の現在位置の位置情報を公知の方法によって算出する。
 表示制御部127は、表示部260における映像データの表示を制御する。表示制御部127は、映像データを表示部260に出力させる映像信号を出力する。より詳しくは、表示制御部127は、第一カメラ200が撮影している映像、または、記録部220に記録されたループ記録映像データまたはイベント記録データの再生によって表示する映像信号を出力する。
 向き検出部131は、第二映像データから、車両の運転者および運転者以外の搭乗者の顔または視線の向きを検出し、運転者および搭乗者が車両の進行方向以外の同一方向を向いている第一条件を満たすか否かを判断する。
 より詳しくは、向き検出部131は、第二映像データから人物を認識する。第二映像データから人物を認識する方法は、公知の方法を使用可能であり、限定されない。検出される人物は、車両の運転者および運転者以外の搭乗者である。
 向き検出部131による顔または視線の向きの検出について説明する。向き検出部131は、車両の運転者および運転者以外の搭乗者の顔または視線の向きを検出する。本実施形態では、向き検出部131は、第二映像データに画像処理を行って、運転者および運転者以外の搭乗者の顔部を認識して、顔または視線の向きを検出する。より詳しくは、向き検出部131は、例えば、第二映像データから運転者および運転者以外の搭乗者の眼を認識して、顔または視線の向きを示す情報を取得する。運転者および運転者以外の搭乗者の目の映像に基づく視線検出は、目の映像から検出した目頭と光彩の位置関係に基づく視線検出や、角膜反射と瞳孔の位置関係に基づく視線検出など任意の手法が適用可能である。
 第二映像データから運転者および運転者以外の搭乗者を検出する方法について説明する。各座席に着座した人物の顔は、第二映像データの座標で定義される範囲内にそれぞれ撮影される。これにより、各座席に対応した、第二映像データの座標で定義される範囲から認識された人または顔が、当該座席の搭乗者である。このようにして、各座席においての搭乗者有無、搭乗者の顔や目の向きを検出可能である。
 向き検出部131は、運転者および運転者以外の搭乗者の顔または視線の向きが、車両の直進時に車両の前方方向から所定角度範囲以外の向きである場合は、車両の前方以外を向いている、言い換えると、脇見をしていると判定する。所定角度範囲は、通常の運転者が、車両の直進時、つまり車両の走行時における右左折や後退以外のときに顔または視線を向ける範囲である。
 向き検出部131は、第二映像データから、車両の運転者および運転者以外の複数の搭乗者の顔または視線の向きを検出し、運転者および複数の搭乗者のうち所定割合以上の搭乗者が車両の進行方向以外の同一方向を向いている第一条件を満たすか否かを判断してもよい。
 所定割合は、例えば5割とする。つまり、運転者以外の搭乗者が2名である場合は、1名の搭乗者が運転者と同一方向を向いている場合に所定割合以上であると判断できる。同様に、運転者以外の搭乗者が3名である場合は、2名の搭乗者が運転者と同一方向を向いている場合に所定割合以上であると判断できる。複数の搭乗者のうち所定割合以上の搭乗者の脇見は、運転者に影響を与えやすい。このため、運転者および所定割合以上の搭乗者の顔または視線の向きが同じである場合、運転者による車両の進行方向に対する確認がさらに疎かになる可能性が高くなる。
 向き検出部131は、第二映像データから、車両の運転者および運転者以外の車両の前部座席に着座している搭乗者の顔または視線の向きを検出し、運転者および搭乗者が車両の進行方向以外の同一方向を向いている第一条件を満たすか否かを判断してもよい。
 前部座席の搭乗者は、運転者と同様の視界があるため、運転者と同様の対象物を視認できる。また、前部座席の搭乗者は、運転者とコミュニケーションがとりやすいため、前部座席の搭乗者の脇見は、運転者に影響を与えやすい。このため、運転者および前部座席の搭乗者の顔または視線の向きが同じである場合、運転者による車両の進行方向に対する確認がさらに疎かになる可能性が高くなる。
 イベント検出部132は、車両に加わる加速度に基づくイベントを検出する。より詳しくは、イベント検出部132は、加速度センサ240の検出結果に基づいて、イベントを検出する。イベント検出部132は、加速度情報が、車両の衝突に該当するような設定した閾値以上である場合、イベントが発生したことを検出する。
 記録制御部133は、映像データ処理部122でファイル化された映像データを、記録部220に記録させる制御を行う。記録制御部133は、車両のアクセサリ電源がONであるときなど、ループ記録処理を実行する期間は、映像データ処理部122でファイル化された映像データを、上書き可能な映像データとして、記録部220に記録する。より詳しくは、記録制御部133は、ループ記録処理を実行する期間は、映像データ処理部122が生成した映像データを記録部220に記録し続け、記録部220の容量が一杯になった場合、最も古い映像データに新しい映像データを上書きして記録する。
 記録制御部133は、イベント検出部132がイベントの発生を検出した場合、イベントの検出に対応する映像データを保存する。イベントの検出に対応する映像データとは、映像データ処理部122が生成した映像データにおける所定の期間の映像データである。記録制御部133は、イベントの検出に対応する映像データを、上書きが禁止されたイベント記録データとして記録部220に保存する。この場合、記録制御部133が記録部220に保存するイベント記録データは、例えば、イベントが検出された時点の前後10秒程度の所定の期間の映像データをバッファメモリ121からコピーし、イベント記録データとして保存する。記録制御部133は、イベントが検出された場合、少なくともイベント検出時点を含む第一映像データをイベント記録データとして保存する。
 さらに、記録制御部133は、向き検出部131が第一条件を満たすと判断した場合、第一映像データにイベント記録開始フラグを付与し、第一条件が満たされている状態でイベントが検出された場合、イベント記録開始フラグから少なくともイベント検出時点を含む第一映像データをイベント記録データとして保存する。この場合、記録制御部133が記録部220に保存するイベント記録データは、例えば、イベント記録開始フラグから少なくともイベント検出時点を含む映像データをバッファメモリ121からコピーし、イベント記録データとして保存する。
 記録制御部133は、イベント記録開始フラグから少なくともイベント検出時点を含む、第一映像データおよび第二映像データをイベント記録データとして保存してもよい。
(車両用記録制御装置における処理)
 次に、図2を用いて、制御装置100における処理の流れについて説明する。図2は、第一実施形態に係る制御装置100における処理の流れの一例を示すフローチャートである。
 制御装置100は、通常記録、乗員モニタを開始する(ステップS101)。より詳しくは、制御装置100は、記録制御部133によって、第一カメラ200および第二カメラ210が撮影した映像データをバッファメモリ121に送信し、例えば、60秒ごとのような所定期間の映像ごとに映像ファイルを生成し、記録部220に記録させる。制御装置100は、ステップS102に進む。
 制御装置100は、第一条件を満たすか否かを判定する(ステップS102)。より詳しくは、制御装置100は、向き検出部131によって、第二映像データから、車両の運転者および運転者以外の搭乗者の顔または視線の向きを検出し、運転者および搭乗者が車両の進行方向以外の同一方向を向いている第一条件を満たすか否かを判断する。制御装置100は、向き検出部131によって、第一条件を満たすと判定する場合(ステップS102でYes)、ステップS103へ進む。制御装置100は、向き検出部131によって、第一条件を満たすと判定しない場合(ステップS102でNo)、ステップS107へ進む。
 第一条件を満たすと判定する場合(ステップS102でYes)、制御装置100は、記録制御部133によって、第一条件を満たす期間、言い換えると、運転者および運転者以外の搭乗者が脇見をしている期間の通常記録の映像データにイベント記録開始フラグを付与して保存する(ステップS103)。より詳しくは、制御装置100は、記録制御部133によって、第一条件を満たす期間の第一映像データにイベント記録開始フラグを付与する。制御装置100は、記録制御部133によって、イベント記録開始フラグが付与された第一映像データを通常記録の映像データとして記録部220に保存する。制御装置100は、ステップS104に進む。
 制御装置100は、第一条件を満たす状態が継続しているか否かを判定する(ステップS104)。より詳しくは、制御装置100は、向き検出部131によって、第一条件を満たす状態が継続して検出されているか否かを判断する。制御装置100は、向き検出部131によって、第一条件を満たす状態が継続していると判定する場合(ステップS104でYes)、ステップS105へ進む。制御装置100は、向き検出部131によって、第一条件を満たす状態が継続していると判定しない場合(ステップS104でNo)、ステップS107へ進む。例えば、向き検出部131によって、運転者または搭乗者が車両の進行方向を向いたり、見る方向が変わったりした場合には、第一条件を満たす状態が継続しなくなり(ステップS104でNo)、ステップS107へ進む。
 第一条件を満たす状態が継続していると判定する場合(ステップS104でYes)、制御装置100は、イベント検出部132による検出結果に基づいて、イベントを検出したか否かを判定する(ステップS105)。イベント検出部132によって、検出された加速度が閾値以上である場合、イベントを検出したと判定して(ステップS105でYes)、ステップS106に進む。または、イベント検出部132によって、検出された加速度が閾値以上ではないと判定する場合、イベントを検出しないと判定して(ステップS105でNo)、ステップS104の処理を再度実行する。
 イベントを検出したと判定した場合(ステップS105でYes)、制御装置100は、記録制御部133によって、イベント記録開始フラグからイベント検出後所定期間までの映像データを保存する(ステップS106)。より詳しくは、制御装置100は、記録制御部133によって、イベント記録開始フラグが付与された第一映像データをイベント記録データとして記録部220に上書きを禁止して保存させる。このとき、第一映像データに加えて第二映像データもイベント記録データとして保存してもよい。例えば、イベント開始フラグから少なくともイベント検出時点を含む第二映像データを、第一映像データとともにイベント記録データとして保存する。イベント記録データは、イベント記録開始フラグからイベント検出時点後の所定期間を含む第一映像データである。制御装置100は、ステップS109に進む。
 第一条件を満たすと判定しない場合(ステップS102でNo)、または、第一条件を満たす状態が継続していると判定しない場合(ステップS104でNo)、制御装置100は、イベント検出部132による検出結果に基づいて、イベントを検出したか否かを判定する(ステップS107)。イベント検出部132によって、検出された加速度が閾値以上である場合、イベントを検出したと判定して(ステップS107でYes)、ステップS108に進む。または、イベント検出部132によって、検出された加速度が閾値以上ではないと判定する場合、イベントを検出しないと判定して(ステップS107でNo)、ステップS109へ進む。
 イベントを検出したと判定した場合(ステップS107でYes)、制御装置100は、記録制御部133によって、イベント検出時点の前後の所定期間を含む映像データを保存する(ステップS108)。より詳しくは、制御装置100は、記録制御部133によって、第一映像データをイベント記録データとして記録部220に上書きを禁止して保存させる。イベント記録データは、イベント検出時点の前後の所定期間を含む第一映像データである。制御装置100は、ステップS109に進む。
 制御装置100は、ループ記録、イベント検出を終了するか否かを判定する(ステップS109)。例えば、車両の電源や動力がOFFにされたことや、操作部230の操作がされたことなどで、ループ記録、イベント検出を終了することが判定される。制御装置100は、ループ記録、イベント検出を終了すると判定された場合(ステップS109でYes)、本処理を終了する。制御装置100は、ループ記録、イベント検出を終了すると判定されない場合(ステップS109でNo)、ステップS102の処理を再度実行する。
(効果)
 上述したように、本実施形態では、運転者および運転者以外の搭乗者が進行方向以外の同一方向を向いている状態でイベントが検出された場合、イベント記録開始フラグから少なくともイベント検出時点を含む第一映像データをイベント記録データとして保存する。本実施形態は、イベント検出時点より前の期間を含むイベント記録データを保存することができる。このように、本実施形態によれば、車両の運転者の脇見によって生じる事故等のイベントを、原因も含めて適切に記録することができる。
 本実施形態では、運転者と同一方向を向いている搭乗者の人数が所定割合以上である場合に、第一条件を満たすと判断することができる。上述したように、運転者と同一方向を向いている搭乗者の人数が所定割合以上である場合、運転者に影響を与えやすい。本実施形態によれば、運転者と、所定割合以上の搭乗者とが同一方向を向き、進行方向への注意がより疎かになるおそれが高い場合に、第一条件を満たすと判断することができる。
 本実施形態では、運転者および運転者以外の車両の前部座席に着座している搭乗者の顔または視線の向きによって、第一条件を満たすか否かを判断することができる。上述したように、前部座席の搭乗者は、運転者に影響を与えやすい。このため、運転者および前部座席の搭乗者の顔または視線の向きが同じである場合、運転者による車両の進行方向に対する確認がさらに疎かになる可能性が高くなる。本実施形態によれば、進行方向への注意がより疎かになるおそれが高い場合に、第一条件を満たすと判断することができる。
 本実施形態は、イベント記録開始フラグから少なくともイベント検出時点を含む、第一映像データおよび第二映像データをイベント記録データとして保存することができる。本実施形態によれば、車両の周辺および車両の車室内の状況をイベント記録データとして保存することができる。本実施形態によれば、車両の運転者の脇見によって生じる事故等のイベントを、原因も含めて適切に記録することができる。
[第二実施形態]
 図3を参照しながら、本実施形態に係る車両用記録装置10について説明する。図3は、第二実施形態に係る制御装置100における処理の流れの一例を示すフローチャートである。車両用記録装置10は、基本的な構成は第一実施形態の車両用記録装置10と同様である。以下の説明においては、車両用記録装置10と同様の構成要素には、同一の符号または対応する符号を付し、その詳細な説明は省略する。車両用記録装置10は、運転者および搭乗者が車両の進行方向以外の同一方向を向いている状態で、イベントが検出された場合、イベントを検出する閾値を変更する。
 イベント検出部132は、車両に加わる加速度に基づくイベントを検出し、向き検出部131が第一条件を満たすと判断した場合、イベントを検出する加速度の閾値を低くしてイベントを検出する。具体例として、通常の閾値、つまり閾値を低く変更しない閾値を1.5Gとし、閾値を低く変更した場合は0.6Gとする。これにより、向き検出部131が第一条件を満たすと判断した場合、イベントが検出されやすくなる。
 記録制御部133は、イベント検出部132がイベントを検出した場合、少なくともイベント検出時点を含む第一映像データをイベント記録データとして保存する。
 次に、図3を用いて、制御装置100における処理の流れについて説明する。ステップS111、ステップS112、ステップS114、ステップS115、ステップS118ないしステップ120は、図2に示すフローチャートのステップS101、ステップS102、ステップS104、ステップS105、ステップS107ないしステップS109と同様の処理を行う。
 第一条件を満たすと判定する場合(ステップS112でYes)、制御装置100は、イベント検出部132がイベントを検出する加速度の閾値を低く変更する(ステップS113)。制御装置100は、ステップS114へ進む。
 イベントを検出したと判定した場合(ステップS115でYes)、制御装置100は、記録制御部133によって、イベント検出時点の前後の所定期間を含む映像データを保存する(ステップS116)。より詳しくは、制御装置100は、記録制御部133によって、第一映像データをイベント記録データとして記録部220に上書きを禁止して保存させる。イベント記録データは、イベント検出時点の前後の所定期間を含む第一映像データである。制御装置100は、ステップS120に進む。
 第一条件を満たす状態が継続していると判定しない場合(ステップS114でNo)、制御装置100は、イベント検出部132がイベントを検出する加速度の閾値を正常値に変更する(ステップS117)。制御装置100は、ステップS118へ進む。
 上述したように、本実施形態では、向き検出部131が第一条件を満たすと判断した場合、イベントを検出する加速度の閾値を低くしてイベントを検出する。本実施形態は、運転者および運転者以外の搭乗者が脇見をしていて、衝突としては検出されない、軽微な衝突および接触が発生しやすい状況において、イベントを検出するための加速度の閾値を設定しておくことができる。このように、本実施形態によれば、車両の運転者の脇見によって生じる事故等のイベントを、原因も含めて適切に記録することができる。
[第三実施形態]
 図4を参照しながら、本実施形態に係る車両用記録装置10について説明する。図4は、第三実施形態に係る制御装置100における処理の流れの一例を示すフローチャートである。車両用記録装置10は、基本的な構成は第一実施形態および第二実施形態の車両用記録装置10と同様である。車両用記録装置10は、運転者および搭乗者が車両の進行方向以外の同一方向を向いている状態で、イベントが検出された場合、イベントを検出する閾値を変更する。車両用記録装置10は、第一条件が満たされている状態でイベントが検出された場合、イベント記録開始フラグから少なくともイベント検出時点を含む第一映像データをイベント記録データとして保存する。
 イベント検出部132は、第二実施形態と同様の機能を有する。より詳しくは、イベント検出部132は、車両に加わる加速度に基づくイベントを検出し、向き検出部131が第一条件を満たすと判断した場合、イベントを検出する加速度の閾値を低くしてイベントを検出する。
 記録制御部133は、第一実施形態と同様の機能を有する。より詳しくは、記録制御部133は、向き検出部131が第一条件を満たすと判断した場合、第一映像データにイベント記録開始フラグを付与し、第一条件が満たされている状態でイベントが検出された場合、イベント記録開始フラグから少なくともイベント検出時点を含む第一映像データをイベント記録データとして保存する。
 次に、図4を用いて、制御装置100における処理の流れについて説明する。ステップS131ないしテップS133、ステップS135ないしステップS137、ステップS139ないしステップS141は、図2に示すフローチャートのステップS101ないしステップS103、ステップS104ないしステップS106、ステップS107ないしステップS109と同様の処理を行う。ステップS134、ステップS138は、図3に示すフローチャートのステップS113、ステップS117と同様の処理を行う。
 上述したように、本実施形態では、第一条件を満たすと判断した場合、イベントを検出する加速度の閾値を低くしてイベントを検出する。本実施形態では、第一条件を満たす状態でイベントが検出された場合、イベント記録開始フラグから少なくともイベント検出時点を含む第一映像データをイベント記録データとして保存する。本実施形態は、運転者および運転者以外の搭乗者が脇見をしていて、軽微な衝突および接触が発生しやすい状況において、イベントを検出するための加速度の閾値を設定しておくことができる。本実施形態は、イベント検出時点より前の期間を含むイベント記録データを保存することができる。このように、本実施形態によれば、車両の運転者の脇見によって生じる事故等のイベントを、原因も含めて適切に記録することができる。
[第四実施形態]
 車両用記録装置10は、基本的な構成は第一実施形態および第二実施形態の車両用記録装置10と同様である。本実施形態では、運転者が車両の進行方向以外を所定時間以上向いていることを第一条件として判断する点で第一実施形態ないし第三実施形態と異なる。
 車両用記録装置10は、運転者が車両の進行方向以外を向いている状態で、イベントが検出された場合、イベントを記録する。
 車両用記録装置10は、向き検出部131が第一条件が満たされていると判断した場合、第二実施形態および第三実施形態を組み合わせた処理を行う。より詳しくは、車両用記録装置10は、向き検出部131が第一条件が満たされていると判断した場合、a)、b)またはa)およびb)の処理を行う。
a)記録制御部133は、第一映像データにイベント記録開始フラグを付与し、第一条件が満たされている状態でイベントが検出された場合、イベント記録開始フラグから少なくともイベント検出時点を含む第一映像データをイベント記録データとして保存する。a)は、第三実施形態の処理に対応する。
b)イベント検出部132は、イベントを検出する加速度の閾値を低くしてイベントを検出する。b)は、第二実施形態の処理に対応する。
 向き検出部131は、第二映像データから、車両の運転者の顔または視線の向きを検出し、運転者が車両の進行方向以外の同一方向を向いている第一条件を満たすか否かを判断する。より詳しくは、向き検出部131は、運転者が車両の進行方向以外を所定時間以上向いていることを第一条件として判断する。
 本実施形態では、制御装置100は、図2ないし図4に示すフローチャートに沿った処理を行う。図2におけるステップS101では、制御装置100は、通常記録、運転者モニタを開始する。そして、ステップS102では、制御装置100は、向き検出部131によって、第二映像データから、車両の運転者の顔または視線の向きを検出し、運転者が車両の進行方向以外を向いている第一条件を満たすか否かを判断する。
 上述したように、本実施形態では、運転者が進行方向以外を向いている状態でイベントが検出された場合、イベント記録開始フラグから少なくともイベント検出時点を含む第一映像データをイベント記録データとして保存することができる。
 本実施形態では、向き検出部131が第一条件を満たすと判断した場合、イベントを検出する加速度の閾値を低くしてイベントを検出する。本実施形態は、運転者が脇見をしていて、衝突としては検出されない、軽微な衝突および接触が発生しやすい状況において、イベントを検出するための加速度の閾値を設定しておくことができる。
 運転者のみが進行方向以外を向いている場合、余所見に加えて周囲確認であっても、進行方向の目視が疎かになるおそれがある。このような本実施形態によれば、運転者のみが進行方向以外を向いている状態で、追突等のイベントが発生したときの運転者の挙動を確認することができる。
 本開示に係る車両用記録装置10は、上述した実施形態以外にも種々の異なる形態にて実施されてもよい。
 図示した車両用記録装置10の各構成要素は、機能概念的なものであり、必ずしも物理的に図示の如く構成されていなくてもよい。すなわち、各装置の具体的形態は、図示のものに限られず、各装置の処理負担や使用状況などに応じて、その全部または一部を任意の単位で機能的または物理的に分散または統合してもよい。
 車両用記録装置10の構成は、例えば、ソフトウェアとして、メモリにロードされたプログラムなどによって実現される。上記実施形態では、これらのハードウェアまたはソフトウェアの連携によって実現される機能ブロックとして説明した。すなわち、これらの機能ブロックについては、ハードウェアのみ、ソフトウェアのみ、または、それらの組み合わせによって種々の形で実現できる。
 上記した構成要素には、当業者が容易に想定できるもの、実質的に同一のものを含む。さらに、上記した構成は適宜組み合わせが可能である。また、本発明の要旨を逸脱しない範囲において構成の種々の省略、置換または変更が可能である。
 本開示の車両用記録制御装置、記録制御方法およびプログラムは、例えば、ドライブレコーダに使用することができる。
 10   車両用記録装置
 100  制御装置(車両用記録制御装置)
 100X  バス
 120  映像データ取得部
 121  バッファメモリ
 122  映像データ処理部
 124  再生制御部
 125  操作制御部
 126  位置情報取得部
 127  表示制御部
 131  向き検出部
 132  イベント検出部
 133  記録制御部
 200  第一カメラ(第一撮影部)
 210  第二カメラ(第二撮影部)
 220  記録部
 230  操作部
 240  加速度センサ
 250  GNSS受信部
 260  表示部

Claims (6)

  1.  車両の周辺を撮影する第一撮影部が撮影した第一映像データおよび前記車両の車室内を撮影する第二撮影部が撮影した第二映像データを取得する映像データ取得部と、
     前記第二映像データから、前記車両の運転者の顔または視線の向きを検出し、前記運転者が前記車両の進行方向以外を向いている第一条件を満たすか否かを判断する向き検出部と、
     前記車両に加わる加速度に基づくイベントを検出するイベント検出部と、
     イベントが検出された場合、少なくともイベント検出時点を含む第一映像データをイベント記録データとして保存する記録制御部と、
     を備え、
     前記向き検出部が前記第一条件を満たすと判断した場合、a)、b)またはa)およびb)の処理を行う車両用記録制御装置。
     a)前記記録制御部は、前記第一映像データにイベント記録開始フラグを付与し、前記第一条件が満たされている状態でイベントが検出された場合、イベント記録開始フラグから少なくともイベント検出時点を含む第一映像データをイベント記録データとして保存、
     b)前記イベント検出部は、イベントを検出する加速度の閾値を低くしてイベントを検出する。
  2.  前記向き検出部は、前記運転者が前記車両の進行方向以外を所定時間以上向いていることを第一条件として判断する、
     請求項1に記載の車両用記録制御装置。
  3.  前記向き検出部は、前記第二映像データから、前記車両の運転者に加えて前記運転者以外の搭乗者の顔または視線の向きを検出し、前記運転者および前記搭乗者が前記車両の進行方向以外の同一方向を向いていることを第一条件として判断する、
     請求項1に記載の車両用記録制御装置。
  4.  前記向き検出部は、前記第二映像データから、前記車両の運転者および前記運転者以外の複数の搭乗者の顔または視線の向きを検出し、前記運転者および前記複数の搭乗者のうち所定割合以上の搭乗者が前記車両の進行方向以外の同一方向を向いている第一条件を満たすか否かを判断する、
     請求項3に記載の車両用記録制御装置。
  5.  前記向き検出部は、前記第二映像データから、前記車両の運転者および前記運転者以外の前記車両の前部座席に着座している搭乗者の顔または視線の向きを検出し、前記運転者および前記搭乗者が前記車両の進行方向以外の同一方向を向いている第一条件を満たすか否かを判断する、
     請求項3に記載の車両用記録制御装置。
  6.  車両の周辺を撮影する第一撮影部が撮影した第一映像データおよび前記車両の車室内を撮影する第二撮影部が撮影した第二映像データを取得する映像データ取得ステップと、
     前記第二映像データから、前記車両の運転者の顔または視線の向きを検出し、前記運転者が前記車両の進行方向以外を向いている第一条件を満たすか否かを判断する向き検出ステップと、
     前記車両に加わる加速度に基づくイベントを検出するイベント検出ステップと、
     イベントが検出された場合、少なくともイベント検出時点を含む第一映像データをイベント記録データとして保存する記録制御ステップと、
     が実行され、
     前記向き検出ステップにおいて前記第一条件を満たすと判断した場合、a)、b)またはa)およびb)の処理を行う車両用記録制御装置が実行する記録制御方法。
     a)前記記録制御ステップにおいては、前記第一映像データにイベント記録開始フラグを付与し、前記第一条件が満たされている状態でイベントが検出された場合、イベント記録開始フラグから少なくともイベント検出時点を含む第一映像データをイベント記録データとして保存、
     b)前記イベント検出ステップにおいては、イベントを検出する加速度の閾値を低くしてイベントを検出する。
PCT/JP2021/046027 2021-03-05 2021-12-14 車両用記録制御装置および記録制御方法 WO2022185653A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202180021589.1A CN115336248B (zh) 2021-03-05 2021-12-14 车辆用记录控制装置以及记录控制方法
EP21929211.7A EP4113973A4 (en) 2021-03-05 2021-12-14 VEHICLE RECORDING CONTROL DEVICE AND RECORDING CONTROL METHOD
US17/951,139 US20230018277A1 (en) 2021-03-05 2022-09-23 On-vehicle recording control apparatus and recording control method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2021035407 2021-03-05
JP2021-035407 2021-03-05
JP2021155498A JP2022135889A (ja) 2021-03-05 2021-09-24 車両用記録制御装置および記録制御方法
JP2021-155498 2021-09-24

Publications (1)

Publication Number Publication Date
WO2022185653A1 true WO2022185653A1 (ja) 2022-09-09

Family

ID=83155270

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/046027 WO2022185653A1 (ja) 2021-03-05 2021-12-14 車両用記録制御装置および記録制御方法

Country Status (4)

Country Link
US (1) US20230018277A1 (ja)
EP (1) EP4113973A4 (ja)
CN (1) CN115336248B (ja)
WO (1) WO2022185653A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6828772B2 (ja) * 2019-06-27 2021-02-10 株式会社Jvcケンウッド 記録制御装置、記録装置、記録制御方法、及び記録制御プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014096632A (ja) 2012-11-07 2014-05-22 Denso Corp 撮像システム
US20180012085A1 (en) * 2016-07-07 2018-01-11 Ants Technology (Hk) Limited. Computer Vision Based Driver Assistance Devices, Systems, Methods and Associated Computer Executable Code
JP2021034975A (ja) * 2019-08-28 2021-03-01 株式会社Jvcケンウッド 記録制御装置、記録制御方法、およびプログラム
JP2021047675A (ja) * 2019-09-19 2021-03-25 パナソニックIpマネジメント株式会社 情報処理装置、情報処理方法、及び、コンピュータプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4313808B2 (ja) * 2006-09-06 2009-08-12 本田技研工業株式会社 車両用監視システム、データ記録装置及び車両用監視装置
JP6432490B2 (ja) * 2015-11-20 2018-12-05 トヨタ自動車株式会社 車載制御装置、及び、車載記録システム
JP6790977B2 (ja) * 2017-04-11 2020-11-25 株式会社デンソー 車両のデータ記憶装置
JP6687869B1 (ja) * 2018-11-14 2020-04-28 株式会社Jvcケンウッド 車両用記録制御装置、車両用記録装置、車両用記録制御方法およびプログラム
JP6705495B1 (ja) * 2018-12-26 2020-06-03 株式会社Jvcケンウッド 車両用記録制御装置、車両用記録装置、車両用記録制御方法およびプログラム
JP6769504B2 (ja) * 2019-03-08 2020-10-14 株式会社Jvcケンウッド 車両用記録制御装置、車両用撮影装置、車両用記録制御方法およびプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014096632A (ja) 2012-11-07 2014-05-22 Denso Corp 撮像システム
US20180012085A1 (en) * 2016-07-07 2018-01-11 Ants Technology (Hk) Limited. Computer Vision Based Driver Assistance Devices, Systems, Methods and Associated Computer Executable Code
JP2021034975A (ja) * 2019-08-28 2021-03-01 株式会社Jvcケンウッド 記録制御装置、記録制御方法、およびプログラム
JP2021047675A (ja) * 2019-09-19 2021-03-25 パナソニックIpマネジメント株式会社 情報処理装置、情報処理方法、及び、コンピュータプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4113973A4

Also Published As

Publication number Publication date
US20230018277A1 (en) 2023-01-19
CN115336248A (zh) 2022-11-11
CN115336248B (zh) 2024-02-09
EP4113973A1 (en) 2023-01-04
EP4113973A4 (en) 2023-11-01

Similar Documents

Publication Publication Date Title
US9922558B2 (en) Driving support device
US11616905B2 (en) Recording reproduction apparatus, recording reproduction method, and program
JP2020024532A (ja) 脇見運転検出装置
JP2010033106A (ja) 運転者支援装置、運転者支援方法および運転者支援処理プログラム
US10531016B2 (en) On-vehicle display control device, on-vehicle display system, on-vehicle display control method, and non-transitory storage medium
US20180330619A1 (en) Display device and display method for displaying pictures, and storage medium
WO2022185653A1 (ja) 車両用記録制御装置および記録制御方法
US20200273153A1 (en) Surroundings monitoring apparatus
KR101580567B1 (ko) 이벤트 영상 촬영 녹화 장치, 이벤트 영상 제공 방법
JP7259661B2 (ja) 車両用記録制御装置、車両用記録装置、車両用記録制御方法およびプログラム
JP2022135889A (ja) 車両用記録制御装置および記録制御方法
US20200023863A1 (en) Concentration degree determination device, concentration degree determination method, and program for determining concentration degree
US11220181B2 (en) Operation control device, operation control method, and storage medium
WO2022044372A1 (ja) 車両用記録制御装置、記録制御方法およびプログラム
JP7447455B2 (ja) 車両用記録制御装置および車両用記録制御方法
JP7441417B2 (ja) ドライバ状態推定装置
JP2021111152A (ja) 車両制御システム
JP2021189778A (ja) 車両用記録制御装置、記録制御方法およびプログラム
JP2021077137A (ja) 運転者状態推定装置
JP7528776B2 (ja) 脇見判定装置および脇見判定方法
JP7287010B2 (ja) 車両用表示制御装置、車両用撮影装置、車両用表示制御方法およびプログラム
JP2022099157A (ja) 脇見判定装置および脇見判定方法
CN113386665B (zh) 车辆控制装置、车辆以及控制方法
US11842661B2 (en) Control method and information display system
JP7501144B2 (ja) 車両用記録装置および記録制御方法

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2021929211

Country of ref document: EP

Effective date: 20220929

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21929211

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE