WO2022091666A1 - 車両用記録制御装置および車両用記録制御方法 - Google Patents

車両用記録制御装置および車両用記録制御方法 Download PDF

Info

Publication number
WO2022091666A1
WO2022091666A1 PCT/JP2021/035354 JP2021035354W WO2022091666A1 WO 2022091666 A1 WO2022091666 A1 WO 2022091666A1 JP 2021035354 W JP2021035354 W JP 2021035354W WO 2022091666 A1 WO2022091666 A1 WO 2022091666A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
video data
unit
event
detection unit
Prior art date
Application number
PCT/JP2021/035354
Other languages
English (en)
French (fr)
Inventor
清史 田端
Original Assignee
株式会社Jvcケンウッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2020182840A external-priority patent/JP7512846B2/ja
Application filed by 株式会社Jvcケンウッド filed Critical 株式会社Jvcケンウッド
Priority to CN202180058643.XA priority Critical patent/CN116057588A/zh
Priority to EP21885785.2A priority patent/EP4216179A4/en
Publication of WO2022091666A1 publication Critical patent/WO2022091666A1/ja
Priority to US18/302,017 priority patent/US20230260289A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/25Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the sides of the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/085Registering performance data using electronic data carriers
    • G07C5/0866Registering performance data using electronic data carriers the electronic data carrier being a digital video recorder in combination with video camera
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/20Monitoring the location of vehicles belonging to a group, e.g. fleet of vehicles, countable or determined number of vehicles
    • G08G1/205Indicating the location of the monitored vehicles as destination, e.g. accidents, stolen, rental
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space

Definitions

  • the present invention relates to a vehicle record control device and a vehicle record control method.
  • Vehicles may come into contact with each other when parking in a parking lot or while parking. However, it may be difficult to identify other vehicles that have come into contact with the video that is saved when an event due to contact between the vehicles is detected while the vehicle is parked.
  • the present embodiment has been made in view of the above, and an object thereof is to appropriately record a video that can identify another vehicle related to a parked event.
  • the vehicle record control device includes a video data acquisition unit that acquires video data taken by a shooting unit that photographs the surroundings of the vehicle, and the vehicle.
  • a parking detection unit that detects that the vehicle is parked, another vehicle detection unit that detects another vehicle from the video data acquired by the video data acquisition unit, an event detection unit that detects an event for the vehicle, and the vehicle parking.
  • the parking detection unit detects this, the video data in which the other vehicle is detected by the other vehicle detection unit is temporarily stored, and when the event detection unit detects an event while the vehicle is parked, it is detected.
  • the vehicle record control method executed by the vehicle record control device uses video data taken by a shooting unit that shoots the surroundings of the vehicle.
  • the video data acquisition step to be acquired, the parking detection step to detect that the vehicle is parked, the other vehicle detection step to detect another vehicle from the video data acquired in the video data acquisition step, and the event for the vehicle are detected.
  • the video data in which the other vehicle is detected in the other vehicle detection step is temporarily stored, and the event is detected while the vehicle is parked.
  • the vehicle recording control device executes a recording control step of associating and storing the video data caused by the detected event and the video data detected by another vehicle.
  • the vehicle record control device and the vehicle record control method according to the present embodiment have an effect that it is possible to appropriately record a video that can identify another vehicle related to a parked event.
  • FIG. 1 is a block diagram showing a configuration example of a vehicle recording device according to the first embodiment.
  • FIG. 2 is an explanatory diagram of an arrangement position of a photographing unit mounted on a vehicle.
  • FIG. 3 is a conceptual diagram of loop recording of video data.
  • FIG. 4 is a flowchart showing a processing flow in the vehicle record control device according to the first embodiment.
  • FIG. 5 is an explanatory diagram showing a state in which the vehicle is parked.
  • FIG. 6 is an explanatory diagram showing a state before a predetermined time from the time when the parking of the vehicle is completed.
  • FIG. 7 is an explanatory diagram of video data when another vehicle is detected.
  • FIG. 8 is an explanatory diagram of a state in which another vehicle is in contact with the vehicle.
  • FIG. 1 is a block diagram showing a configuration example of a vehicle recording device according to the first embodiment.
  • FIG. 2 is an explanatory diagram of an arrangement position of a photographing unit mounted on a vehicle.
  • FIG. 9 is an explanatory diagram of video data when an event is detected while the vehicle is parked.
  • FIG. 10 is a flowchart showing a processing flow in the vehicle record control device according to the second embodiment.
  • FIG. 11 is a flowchart showing a processing flow in the vehicle record control device according to the third embodiment.
  • FIG. 12 is a flowchart showing a processing flow in the vehicle record control device according to the fourth embodiment.
  • FIG. 13 is a block diagram showing a configuration example of the vehicle recording device according to the fifth embodiment.
  • FIG. 14 is a flowchart showing a processing flow in the vehicle record control device according to the fifth embodiment.
  • FIG. 15 is an explanatory diagram showing a state in which the vehicle is parked.
  • FIG. 15 is an explanatory diagram showing a state in which the vehicle is parked.
  • FIG. 16 is an explanatory diagram showing a state in which a moving object exists in the vicinity of a parked vehicle.
  • FIG. 17 is an explanatory diagram showing a state in which another vehicle is stopped at a position near the parked vehicle.
  • FIG. 18 is an explanatory diagram of video data when another vehicle is detected.
  • FIG. 19 is an explanatory diagram of a state in which another vehicle is in contact with the vehicle.
  • FIG. 20 is an explanatory diagram of video data when an event is detected while the vehicle is parked.
  • FIG. 21 is a flowchart showing a processing flow in the vehicle record control device according to the sixth embodiment.
  • FIG. 22 is a flowchart showing a processing flow in the vehicle record control device according to the seventh embodiment.
  • FIG. 1 is a block diagram showing a configuration example of the vehicle recording device 10 according to the first embodiment.
  • FIG. 2 is an explanatory diagram of an arrangement position of the photographing unit 210 mounted on the vehicle 1.
  • the vehicle recording device 10 is a so-called drive recorder, and is driven by electric power supplied from the vehicle 1.
  • the vehicle recording device 10 may be a portable device that can be used in the vehicle, in addition to the device mounted on the vehicle.
  • the vehicle recording device 10 includes a photographing unit 210, a CAN interface 220, an acceleration sensor 230, a recording unit 250, an operation unit 260, a display unit 270, and a GNSS (Global Navigation Satellite System). It has a receiving unit 280, a map information storage unit 290, and a vehicle recording control device (hereinafter, referred to as "control device") 100.
  • control device vehicle recording control device
  • the photographing unit 210 is a camera capable of photographing the periphery of the vehicle 1 on which the vehicle recording device 10 is mounted and outputting it as an electric signal.
  • the photographing unit 210 includes a first photographing unit 211 for photographing the front and rear of the vehicle 1, and a second photographing unit 216 provided on the left and right sides of the vehicle 1.
  • the first photographing unit 211 has a front camera 212 for photographing the front of the vehicle 1 and a rear camera 213 for photographing the rear of the vehicle 1, and the second photographing unit 216 photographs the left side of the vehicle 1. It has a left-side camera 217 and a right-side camera 218 that photographs the right side of the vehicle 1.
  • the front camera 212 of the first photographing unit 211 is arranged near the windshield in the vehicle interior of the vehicle 1 so as to face the front of the vehicle 1 and photographs the surroundings centered on the front of the vehicle 1.
  • the rear camera 213 included in the first photographing unit 211 is arranged behind the vehicle interior of the vehicle 1 so as to face the rear of the vehicle 1, and photographs the surroundings centered on the rear of the vehicle 1.
  • These front camera 212 and rear camera 213 are cameras used as drive recorders.
  • the left side camera 217 of the second photographing unit 216 is arranged on the left side surface of the vehicle 1 facing the left rear side, and photographs the left rear side of the vehicle 1.
  • the right-side camera 218 included in the second photographing unit 216 is arranged on the right side surface of the vehicle 1 so as to face the rear right side, and photographs the rear right side of the vehicle 1.
  • the left side camera 217 and the right side camera 218 may be either a camera for a side monitor (electronic side mirror) or a camera for displaying a bird's-eye view image.
  • the photographing unit 210 configured as described above outputs the photographed video data to the video data acquisition unit 120 of the control device 100.
  • the CAN interface 220 is an interface for acquiring various vehicle information via CAN (Control Area Network).
  • vehicle information includes, for example, information on the operating state of the engine, vehicle speed information, side brake information, and other information regarding the running state of the vehicle.
  • the acceleration sensor 230 is a sensor capable of detecting an event for the vehicle 1 on which the vehicle recording device 10 is mounted, and outputs the detection result to the event detection unit 125 of the control device 100.
  • the acceleration sensor 230 is, for example, a sensor that detects acceleration in three axial directions.
  • the three-axis directions are the front-rear direction, the left-right direction, and the up-down direction of the vehicle 1.
  • the acceleration sensor 230 can detect an impact on the vehicle 1 by accelerating in the three axial directions.
  • the recording unit 250 is used for temporary storage and storage of data in the vehicle recording device 10.
  • the recording unit 250 is, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory (Flash Memory), or a recording medium such as a memory card. Alternatively, it may be an external recording unit wirelessly connected via a communication device (not shown).
  • the recording unit 250 records the video data acquired by the video data acquisition unit 120 based on the control signal output from the recording control unit 126 of the control device 100.
  • the operation unit 260 is an interface that can accept various operations on the vehicle recording device 10.
  • the operation unit 260 accepts, for example, an operation for instructing reproduction of video data, an operation for instructing deletion, and the like. Further, the operation unit 260 can accept an operation for manually recording an event.
  • the operation unit 260 outputs the input operation information to the operation control unit 128 of the control device 100.
  • the display unit 270 is, for example, a display device unique to the vehicle recording device 10 or a display device shared with other systems including a navigation system.
  • the display unit 270 is a display including, for example, a liquid crystal display (LCD: Liquid Crystal Display) or an organic EL (Organic Electro-Luminence) display.
  • the display unit 270 is arranged on the dashboard, the instrument panel, the center console, or the like in front of the driver of the vehicle 1.
  • the display unit 270 displays an image based on the image signal output from the display control unit 129 of the control device 100.
  • the display unit 270 displays the image captured by the photographing unit 210 or the image recorded on the recording unit 250.
  • the GNSS receiving unit 280 receives radio waves emitted from a plurality of positioning satellites.
  • the GNSS receiving unit 280 outputs the received radio wave signal to the position information acquisition unit 130 of the control device 100.
  • the map information storage unit 290 stores map information.
  • the map information includes, for example, parking lot information.
  • the map information storage unit 290 outputs the stored map information to the map information acquisition unit 131 of the control device 100.
  • the map information storage unit 290 may be a storage device such as an external server that acquires map information via a communication function (not shown).
  • the control device 100 is, for example, an arithmetic processing unit (control device) configured by a CPU (Central Processing Unit) or the like.
  • the control device 100 loads the stored program into the memory and executes the instruction included in the program. Therefore, the control device 100 executes the vehicle record control method according to the present invention.
  • the control device 100 is a computer that executes a program according to the present invention.
  • the control device 100 includes an internal memory (not shown), and the internal memory is used for temporary storage of data in the control device 100 and the like.
  • the control device 100 includes a video data acquisition unit 120, a buffer memory 121, a video data processing unit 122, a parking detection unit 123, another vehicle detection unit 124, and an event detection unit 125, which are connected to the bus 110. It has a recording control unit 126, a reproduction control unit 127, an operation control unit 128, a display control unit 129, a position information acquisition unit 130, and a map information acquisition unit 131.
  • the video data acquisition unit 120 acquires video data obtained by photographing the surroundings of the vehicle 1. More specifically, the video data acquisition unit 120 acquires video data output by the photographing unit 210 that photographs the surroundings of the vehicle 1. Further, since the vehicle recording device 10 has a plurality of photographing units 210, the video data acquisition unit 120 can acquire the video data photographed by the plurality of photographing units 210, respectively. That is, the video data acquisition unit 120 can acquire the video data shot by the first shooting unit 211 and the video data shot by the second shooting unit 216, respectively.
  • the buffer memory 121 is an internal memory included in the control device 100, and is a memory for temporarily storing video data.
  • the buffer memory 121 is, for example, a memory for temporarily recording video data for a certain period of time acquired by the video data acquisition unit 120 while updating the video data.
  • the video data processing unit 122 temporarily stores video data (hereinafter referred to as “temporary video data”) stored in the buffer memory 121, for example, H. It is converted into an arbitrary file format encoded by an arbitrary method codec such as 264 or MPEG-4 (Moving Picture Experts Group), for example, MP4 format.
  • the video data processing unit 122 generates video data from the temporary video data by combining the video data for a certain period of time into one file. Specifically, the video data processing unit 122 generates video data of a predetermined time as one file from the temporary video data in the recording order, and creates a file consisting of the video data of the predetermined time according to the shooting time of the shooting unit 210. And generate multiple.
  • the time set by the input operation to the operation unit 260 (for example, 60 seconds) is used.
  • the video data processing unit 122 outputs the video data thus generated to the recording control unit 126. Further, the video data processing unit 122 outputs the generated video data to the display control unit 129.
  • the time of the video data generated as one file is set to 60 seconds as an example, but the time is not limited to this. Further, the video data referred to here may be data including audio in addition to the video shot by the shooting unit 210.
  • the parking detection unit 123 detects that the vehicle 1 is parked or is in a parked state based on the vehicle information acquired from the CAN interface 220.
  • the shift position is "parked"
  • the side brake is operated, for example, the speed becomes zero for a time of 5 seconds or more, and the engine is stopped. And so on.
  • the vehicle 1 may be in a parked state by an arbitrary trigger such as a user operation.
  • the parking detection unit 123 indicates that the position where the vehicle 1 is stopped is a parking lot by referring to the map information acquired by the map information acquisition unit 131, the vehicle 1 is parked. Or parked.
  • the other vehicle detection unit 124 detects another vehicle from the video data acquired by the video data acquisition unit 120. That is, the other vehicle detection unit 124 detects another vehicle that is another vehicle existing around the vehicle 1 based on the video data acquired by the video data acquisition unit 120.
  • the event detection unit 125 detects an event for the vehicle 1.
  • the method by which the event detection unit 125 detects an event for the vehicle 1 is arbitrary, but as an example, the event detection unit 125 detects an event based on the detection result of the acceleration sensor 230.
  • the event detection unit 125 determines from the output of the acceleration sensor 230 that an event has occurred for the vehicle 1 when an acceleration equal to or higher than a predetermined threshold value is applied based on the acceleration applied to the vehicle 1. That is, when the acceleration sensor 230 detects an acceleration equal to or higher than a predetermined threshold value, the event detection unit 125 detects it as an event.
  • the threshold value of the acceleration detected by the event detection unit 125 as an event is a value that can detect the acceleration generated by the contact of another object with the stopped vehicle 1, for example, 0.2G or the like. Set.
  • FIG. 3 is a conceptual diagram of loop recording of video data.
  • the recording control unit 126 controls the recording unit 250 to record the video data 300 filed by the video data processing unit 122.
  • the recording control unit 126 executes the loop recording process and records the video data 300 filed by the video data processing unit 122 as the overwriteable video data 300. Record in section 250. More specifically, when the recording control unit 126 continues to record the video data 300 generated by the video data processing unit 122 in the recording unit 250 while the loop recording process is being executed, and the capacity of the recording unit 250 becomes full. The oldest video data 300 is overwritten with the new video data 300 and recorded.
  • the reproduction control unit 127 reproduces the video data selected by the input operation to the operation unit 260.
  • the reproduction control unit 127 controls to reproduce the video data recorded in the recording unit 250 based on the control signals of the selection operation and the reproduction operation according to the operation of the operation unit 260 output from the operation control unit 128. ..
  • the operation control unit 128 acquires the operation information of the operation received by the operation unit 260, and executes the operation control based on the operation information.
  • the operation control unit 128 acquires, for example, the reproduction information of the video data, and causes the reproduction control unit 127 to reproduce the video data. Further, the operation control unit 128 acquires the erasing operation information indicating the erasing operation of the video data, and causes the recording control unit 126 to erase the video data.
  • the display control unit 129 controls the display of video data on the display unit 270. That is, the display control unit 129 outputs a video signal that is displayed by the display unit 270 by reproducing the video image taken by the photographing unit 210 or the video data recorded in the recording unit 250. As a result, the display control unit 129 causes the display unit 270 to display the video data.
  • the position information acquisition unit 130 calculates the current position information of the vehicle 1 by a known method based on the radio waves received by the GNSS reception unit 280.
  • the map information acquisition unit 131 acquires map information from the map information storage unit 290 according to the current position information of the vehicle 1 acquired by the position information acquisition unit 130. As a result, the map information acquisition unit 131 compares the current position information of the vehicle 1 with the map information and identifies the current position of the vehicle 1 on the acquired map information.
  • FIG. 4 is a flowchart showing a processing flow in the vehicle record control device 100 according to the first embodiment.
  • the start of use of the vehicle recording device 10 is, for example, when the power of the engine or the like of the vehicle 1 is turned on and the electric power is supplied to the vehicle recording device 10.
  • the vehicle recording device 10 performs a function as a known drive recorder.
  • the process of FIG. 4 is periodically executed.
  • the control device 100 determines whether or not the vehicle 1 is parked (step S101). That is, the control device 100 determines whether or not the vehicle 1 equipped with the vehicle recording device 10 is parked by the parking detection unit 123.
  • FIG. 5 is an explanatory diagram showing a state in which the vehicle 1 is parked. For example, as shown in FIG.
  • the vehicle speed becomes 0 km / h and the side brake is applied so as to be in a braking state. It is operated and the shift position is operated to the "parking" position.
  • the parking detection unit 123 acquires vehicle information from the CAN interface 220, and the vehicle information acquired from the CAN interface 220 is based on whether or not the vehicle 1 is in a state of being parked as described above. 1 determines whether or not the vehicle has been parked.
  • the parking detection unit 123 may determine whether or not the vehicle has been parked based on information other than the vehicle information acquired from the CAN interface 220. For example, the parking detection unit 123 acquires the current position information of the vehicle 1 by the position information acquisition unit 130 based on the radio wave received by the GNSS reception unit 280, and the vehicle 1 is based on the map information acquired by the map information acquisition unit 131. If it can be determined that the current position of the vehicle is a parking lot, it may be determined that the vehicle 1 is parked when the vehicle 1 stops at that position. That is, the control device 100 detects that the vehicle 1 is parked in the parking lot.
  • the vehicle recording device 10 starts parking monitoring. That is, while the vehicle 1 is parked, the event detection process by the event detection unit 125 is made to function, and when an event for the vehicle 1 is detected, the video data caused by the event is saved.
  • step S101 No determination
  • the control device 100 ends the process of FIG. 4, and the process of FIG. 4 is executed again.
  • it starts again from step S101.
  • step S101 Yes determination
  • step S102 it is determined whether or not another vehicle in the vicinity is detected when the vehicle is parked.
  • the detection of other vehicles in the vicinity is performed by the other vehicle detection unit 124 based on the video data acquired by the video data acquisition unit 120. That is, the other vehicle detection unit 124 detects another vehicle (see FIG. 6) existing in the vicinity of its own vehicle 1 based on the video data acquired by the video data acquisition unit 120.
  • the other vehicle detection unit 124 detects another vehicle from the video data from the time of parking to a predetermined time before.
  • the predetermined time in this case is a time assumed as the time required for the vehicle 1 to perform the parking operation, and is set as, for example, 60 seconds.
  • FIG. 6 is an explanatory diagram showing a state when the vehicle 1 is parked, that is, a predetermined time before the time when the parking is completed. Since the predetermined time used when the other vehicle detection unit 124 detects the other vehicle V is the time corresponding to the period during which the vehicle 1 performs the parking operation, the predetermined time before the parking of the vehicle 1 is completed.
  • the vehicle 1 performs an operation of parking in an arbitrary parking section P, for example, as shown in FIG. Even while the vehicle 1 is parking, the photographing unit 210 continues to photograph the surroundings of the vehicle 1, and the video data acquisition unit 120 continues to acquire the video data photographed by the photographing unit 210. Therefore, if another vehicle V is present around the vehicle 1 while the vehicle 1 is parking, the other vehicle V is also photographed by the photographing unit 210, and the video data acquisition unit 120 is the other. Acquire video data including vehicle V.
  • the vehicle 1 parks in the parking lot P by reverse movement.
  • the other vehicle V is arranged facing rearward at the rear end of the vehicle 1 and is easily photographed by the rear camera 213. That is, the video data captured by the rear camera 213 is likely to include the other vehicle V, whereby the video data acquisition unit 120 acquires the video data including the other vehicle V.
  • the vehicle 1 when the vehicle 1 tries to park as shown in FIG. 6, in a state where another vehicle V is parked in the parking zone on the right side of the parking zone in which the vehicle 1 parks, the vehicle 1 moves backward to park the parking zone P.
  • the video data taken by the camera 218 on the right side of the vehicle 1 is likely to include another vehicle V.
  • the video data acquisition unit 120 acquires video data including the other vehicle V.
  • the other vehicle detection unit 124 detects another vehicle from the video data acquired by the video data acquisition unit 120 from the time when the parking of the vehicle 1 is completed to a predetermined time before.
  • the detection of other vehicles by the other vehicle detection unit 124 is performed using, for example, a vehicle recognition dictionary.
  • the vehicle recognition dictionary is stored in advance in the internal memory of the control device 100 as a dictionary capable of collating that the object included in the video data is a vehicle.
  • the other vehicle detection unit 124 detects another vehicle from the video data by collating the video data from the time when the parking of the vehicle 1 is completed to a predetermined time before with the vehicle recognition dictionary.
  • the other vehicle detection unit 124 does not need to detect all other vehicles reflected in the video of the video data, but may detect other vehicles existing in the vicinity of the vehicle 1.
  • the other vehicle detection unit 124 has a predetermined area ratio of, for example, 20% or more in the image captured by the photographing unit 210, such as another vehicle whose parking position is adjacent to the parking position of the vehicle 1. It is preferable to recognize other vehicles that occupy an area ratio.
  • FIG. 7 is an explanatory diagram of the video data 300 when another vehicle is detected.
  • the recording control unit 126 is the video data in which the other vehicle is detected.
  • the 300 is set to be treated as another vehicle video data 310, and is temporarily stored.
  • the parking detection unit 123 detects that the vehicle 1 is parked, if the other vehicle is detected by the other vehicle detection unit 124 from the video data 300 from the parking time Tp to the predetermined time before Ta, it is recorded.
  • the control unit 126 temporarily stores the video data 300 in which another vehicle is detected as the other vehicle video data 310 in the recording unit 250.
  • temporary save means that the video data 300 when another vehicle is detected is flagged as having been detected by another vehicle, saved in association with the event video data, or the temporary save is canceled. Until it is done, processing such as prohibiting overwriting is performed.
  • the control device 100 determines whether or not an event for the vehicle 1 has been detected by the event detection unit 125 (step S104). Specifically, the event detection unit 125 detects the occurrence of an event based on whether or not the acceleration detected by the acceleration sensor 230 is equal to or higher than a preset threshold value. That is, when the acceleration detected by the acceleration sensor 230 is less than the threshold value, the event detection unit 125 does not detect an event for the vehicle 1. On the other hand, when the acceleration detected by the acceleration sensor 230 is equal to or greater than the threshold value, the event detection unit 125 detects that a large impact is generated on the vehicle 1 and an event is generated on the vehicle 1.
  • FIG. 8 is an explanatory diagram showing a state in which another vehicle V is in contact with vehicle 1. Since the parked vehicle 1 does not move by itself, as an event for the parked vehicle 1, for example, as shown in FIG. 8, another vehicle V may come into contact with the vehicle 1 at the time of leaving the garage.
  • FIG. 9 is an explanatory diagram of the video data 300 when an event is detected while the vehicle 1 is parked.
  • the vehicle recording device 10 starts shooting by the shooting unit 210 and acquires the video data 300 by the video data acquisition unit 120.
  • the recording unit 250 can record the video data 300 immediately after detecting the event that occurred while the vehicle 1 is parked.
  • the recording control unit 126 sets and saves the video data 300 at a predetermined time from the time of the event occurrence as the event video data 320 among the video data 300 captured immediately after the event is detected in this way.
  • the predetermined time in this case is an assumed time as the time required to verify the cause of the event that occurred in the vehicle 1, and for example, 60 seconds from the event detection is set. Further, for the video of a predetermined period caused by the event, if the video data taken by the photographing unit 210 can be loop-recorded during the parking period of the vehicle 1, for example, 60 seconds before and after the event detection is set.
  • the recording control unit 126 associates the event video data 320, which is video data caused by the detected event, with the other vehicle video data 310. save. Specifically, the recording control unit 126 uses the event video data 320 and the other vehicle video data 310 so that the event video data 320 can be easily played back when the event video data 320 is played back. Associate.
  • the recording control unit 126 causes the other vehicle video data 310 to be continuously played when the event video data 320 is played back, or the event video data 320 when the other vehicle video data 310 is played back. Associate both video data so that they can be played back simultaneously as a split screen or picture-in-picture.
  • Saving the event video data 320 and the other vehicle video data 310 in association with each other means that, for example, both the video data 320 and the other vehicle video data 310 are reproduced simultaneously or continuously. Save the data as overwriting prohibited.
  • the event video data 320 and the other vehicle video data 310 are stored as combined video data as overwriting prohibited so that the video data 320 and the other vehicle video data 310 are continuously reproduced.
  • FIG. 9 when the vehicle 1 is parked, the recording of the video data 300 by the loop recording is stopped, and the video data 310 of the other vehicle temporarily saved by detecting the other vehicle and the video data 310 of the other vehicle are saved by the event detection. It is a figure which conceptually shows the event video data 320.
  • the recording control unit 126 stores the event video data 320 and the other vehicle video data 310 in association with each other.
  • step S106 the parking detection unit 123 determines whether or not parking is completed. That is, the control device 100 determines whether or not the parking of the vehicle 1 equipped with the vehicle recording device 10 is completed by the parking detection unit 123.
  • the parking detection unit 123 determines that the parking is completed when the power of the engine or the like of the vehicle 1 is turned on and the electric power is supplied to the vehicle recording device 10. Further, the parking detection unit 123 acquires vehicle information from the CAN interface 220, the shift position is operated to a position other than "parking", the braking state by the side brake is released, and the vehicle speed becomes higher than 0 km / h. It may be determined whether or not the parking of the vehicle 1 is completed by determining whether or not the vehicle 1 has been parked.
  • step S106 Yes determination
  • the control device 100 ends the process of FIG. In this case, the other vehicle data temporarily saved in step S103 is canceled from the temporary saving and is subject to erasure or overwriting.
  • step S106 If it is determined by the parking detection unit 123 that the parking of the vehicle 1 has not been completed (step S106: No determination), the process returns to step S104, and the event detection unit 125 determines that the parked vehicle 1 has not been parked. It is determined whether or not an event has been detected (step S104).
  • step S104 If the event detection unit 125 does not detect that an event has occurred for the vehicle 1 in the determination in step S104 (step S104: No determination), the process proceeds to step S106 to determine whether parking has been completed. Determination (step S106).
  • step S102 when the other vehicle detection unit 124 does not detect another vehicle located in the vicinity of the vehicle 1 when parked (step S102: No determination), the event detection unit 125 detects the vehicle 1 with respect to the vehicle 1. It is determined whether or not an event has been detected (step S107). That is, based on the acceleration detection result of the acceleration sensor 230, the event detection unit 125 detects the occurrence of an event based on whether or not it is equal to or higher than a preset threshold value.
  • step S107 When the event detection unit 125 detects that an event has occurred for the vehicle 1 (step S107: Yes determination), the video for a predetermined period caused by the event is saved (step S108).
  • step S108 after saving the event video data, the parking detection unit 123 determines whether or not parking is completed (step S109). That is, the control device 100 determines whether or not the parking of the vehicle 1 equipped with the vehicle recording device 10 is completed in the same manner as in the process of step S106.
  • step S109: Yes determination When it is determined from the determination by the parking detection unit 123 that the parking of the vehicle 1 is completed (step S109: Yes determination), the control device 100 ends the process of FIG. Further, when it is determined from the determination by the parking detection unit 123 that the parking of the vehicle 1 has not been completed (step S109: No determination), the process returns to step S107, and the event detection unit 125 determines that the parked vehicle 1 has not been parked. It is determined whether or not an event has been detected (step S107).
  • step S107 If the event detection unit 125 does not detect that an event has occurred for the vehicle 1 in the determination in step S107 (step S107: No determination), the process proceeds to step S109 to determine whether parking has been completed. Determination (step S109).
  • the parking detection unit 123 detects that the vehicle 1 is parked, the image from the time of parking to a predetermined time before, for example, from the parking time Tp to the predetermined time before Ta.
  • the other vehicle image data in which the other vehicle is detected is temporarily stored.
  • the event detection unit 125 detects an event while the vehicle 1 is parked after temporarily storing the video data of another vehicle, the event video data which is the video data caused by the detected event and the video data of the other vehicle are stored. Associate and save.
  • the vehicle recording device 10 according to the second embodiment has the same configuration as the vehicle recording device 10 according to the first embodiment, but detects another vehicle in consideration of the warehousing direction when the vehicle 1 is parked. The point is different. Since the other configurations and processes are the same as those in the first embodiment, the description thereof will be omitted and the same reference numerals will be given.
  • the parking detection unit 123 of the control device 100 detects that the vehicle 1 is parked, and in addition, the vehicle is based on the vehicle information acquired from the CAN interface 220. Detects the warehousing direction when 1 is parked. That is, when the parking detection unit 123 detects that the vehicle 1 is parked, the parking detection unit 123 detects whether the vehicle 1 is warehousing while moving forward or backward in the traveling direction of the vehicle 1 when warehousing at the parked position. It is possible to do.
  • the other vehicle detection unit 124 of the control device 100 detects another vehicle from the video data captured by the parking detection unit 123 and captured by the photographing unit 210 that captures the warehousing direction when the vehicle 1 is parked. That is, in the first embodiment, the other vehicle detection unit 124 detects the other vehicle from the video data captured by all the imaging units 210 among the plurality of imaging units 210, whereas in the second embodiment, the other vehicle detection unit 124 detects the other vehicle. The other vehicle detection unit 124 detects another vehicle from the video data captured by the imaging unit 210 that captures the warehousing direction of the vehicle 1 among the plurality of imaging units 210.
  • FIG. 10 is a flowchart showing a processing flow in the vehicle record control device 100 according to the second embodiment.
  • the parking detection unit 123 determines the parking direction when the vehicle 1 is parked (step S111).
  • the parking detection unit 123 determines the direction in which the parked vehicle 1 was traveling when parking, based on the vehicle information acquired from the CAN interface 220. That is, the parking detection unit 123 determines whether the vehicle 1 has parked while moving forward or has parked while moving backward, and detects the warehousing direction when the vehicle 1 parks.
  • the control device 100 determines whether or not a nearby vehicle is detected from the video data captured by the photographing unit 210 capable of photographing the parking direction when the vehicle is parked (step S112). That is, the other vehicle detection unit 124 detects another vehicle based on the video data captured by the imaging unit 210 that captures the parking direction when the vehicle 1 is parked, which is determined by the parking detection unit 123. In this case, since the parking direction when the vehicle 1 is parked is either the forward direction or the backward direction, the other vehicle detection unit 124 is the first shooting unit 211, the front camera 212 or the rear camera 213. Other vehicles are detected based on the captured video data.
  • the parking detection unit 123 determines that the vehicle 1 parks while moving backward.
  • the other vehicle detection unit 124 detects the other vehicle based on the video data captured by the rear camera 213, which is the imaging unit 210 that captures the rear, which is the parking direction when the vehicle 1 is parked. That is, when the parking detection unit 123 determines that the vehicle 1 has parked while moving backward, the other vehicle detection unit 124 defines the rear camera 213 that captures the rear of the vehicle 1 as the parking direction camera, and sets the rear camera 213 as the parking direction camera. Another vehicle is detected based on the video data taken by the predetermined rear camera 213. Specifically, when the rear camera 213 is determined to be the parking direction camera, the other vehicle detection unit 124 may obtain other information from the video data taken by the rear camera 213 from the time when the vehicle 1 is parked to a predetermined time before. Detect the vehicle.
  • the other vehicle detection unit 124 determines that the front camera 212 that captures the front of the vehicle 1 is a parking direction camera, and the parking direction camera. The other vehicle is detected based on the video data taken by the front camera 212 determined to be. Further, the photographing unit 210 defined as the parking direction camera is reset when the vehicle 1 leaves the garage, and is determined again according to the parking direction when the vehicle 1 is parked next time.
  • the other vehicle image of the parking direction camera is temporarily displayed. Save (step S113).
  • the recording control unit 126 detects another vehicle by the other vehicle detection unit 124 from the video data captured by the imaging unit 210 that captures the warehousing direction of the vehicle 1 detected by the parking detection unit 123 among the plurality of imaging units 210.
  • the data is temporarily saved as video data of other vehicles.
  • the recording control unit 126 detects the other vehicle.
  • the video data of the rear camera 213 is set to be treated as video data of another vehicle, and temporarily saved.
  • the control device 100 determines whether or not an event for the vehicle 1 has been detected by the event detection unit 125 (step S104).
  • the event detection unit 125 detects that an event has occurred for the vehicle 1 by this determination (step S104: Yes determination)
  • the video for a predetermined period caused by the event and the temporary storage in step S113 are performed.
  • the vehicle image is associated and saved (step S105).
  • the parking detection unit 123 detects the warehousing direction when the vehicle 1 is parked, and the other vehicle detection unit 124 is photographed by the photographing unit 210 that photographs the warehousing direction of the vehicle 1.
  • Another vehicle existing in the vicinity of the vehicle 1 is detected from the generated video data.
  • the recording control unit 126 temporarily stores the video data obtained by detecting the other vehicle as the video data of the other vehicle, and further stores the video data of the other vehicle and the event video data in association with each other. Therefore, the control device 100 when detecting another vehicle from the video data taken by the photographing unit 210 without lowering the detection accuracy when detecting another vehicle existing in the vicinity of the vehicle 1 when the vehicle 1 is parked.
  • the event video data and the other vehicle video data can be associated and stored while more reliably suppressing the power consumption when the vehicle 1 is parked. As a result, it is possible to more appropriately record an image capable of identifying another vehicle related to the parked event of the vehicle 1.
  • the vehicle recording device 10 according to the third embodiment has the same configuration as the vehicle recording device 10 according to the first embodiment, but is photographed by a second photographing unit 216 provided on the left and right sides of the vehicle 1. The difference is that other vehicles are detected from the video data. Since the other configurations and processes are the same as those in the first embodiment, the description thereof will be omitted and the same reference numerals will be given.
  • the detection of another vehicle existing in the vicinity of the vehicle 1 when the vehicle 1 is parked is photographed by the second photographing unit 216 provided on the left and right sides of the vehicle 1. Perform from the video data. That is, in the first embodiment, the other vehicle detection unit 124 detects another vehicle from the video data captured by all the imaging units 210 among the plurality of imaging units 210, but in the third embodiment, the other vehicle detection unit detects the other vehicle. The unit 124 detects another vehicle from the video data captured by the second imaging unit 216 among the plurality of imaging units 210.
  • FIG. 11 is a flowchart showing a processing flow in the vehicle record control device 100 according to the third embodiment.
  • the other vehicle detection unit 124 that detects another vehicle based on the video data acquired by the video data acquisition unit 120 is the other vehicle from the video data captured by the second shooting unit 216 acquired by the video data acquisition unit 120. Is detected. Specifically, since the second shooting unit 216 has a left side camera 217 that shoots the left side of the vehicle 1 and a right side camera 218 that shoots the right side of the vehicle 1, the other vehicle detection unit 124 has. , Another vehicle is detected based on the video data taken by the left side camera 217 and the video data taken by the right side camera 218. Thereby, for example, when the vehicle 1 is parked in the parking lot where the vehicles are parked in parallel as shown in FIG. 5, another vehicle parked next to the own vehicle 1 can be appropriately detected. can.
  • Step S121 When another vehicle existing in the vicinity of the vehicle 1 when parked is detected by the other vehicle detection unit 124 from the video data taken by the second shooting unit 216, which is a left and right side camera that photographs the left and right sides of the vehicle 1. (Step S121: Yes determination) temporarily saves another vehicle image of the left and right side cameras (step S122). Temporary storage of images of other vehicles is performed by the recording control unit 126 of the control device 100.
  • the recording control unit 126 includes video data captured by the left side camera 217 of the second shooting unit 216 and video data captured by the right side camera 218, and video data obtained by detecting another vehicle by the other vehicle detection unit 124. Is temporarily saved as video data of other vehicles.
  • the recording control unit 126 uses the video data of the left side camera 217 in which the other vehicle is detected as the other vehicle image. Temporarily save as data.
  • the recording control unit 126 uses the video data of the right side camera 218 in which the other vehicle is detected to be used for the other vehicle. Temporarily save as video data.
  • the recording control unit 126 detects the other vehicle. Any of the recorded video data is temporarily saved as video data of another vehicle.
  • the control device 100 determines whether or not an event for the vehicle 1 has been detected by the event detection unit 125 (step S104).
  • the event detection unit 125 detects that an event has occurred for the vehicle 1 by this determination (step S104: Yes determination)
  • the vehicle image is associated and saved (step S105).
  • step S121 when the other vehicle located in the vicinity of the vehicle 1 when parked is not detected by the other vehicle detection unit 124 from the video data taken by the left and right side cameras (step S121: No determination). Determines whether or not an event for the vehicle 1 has been detected by the event detection unit 125 (step S107).
  • the other vehicle detection unit 124 detects another vehicle existing in the vicinity of the vehicle 1 from the video data taken by the second shooting unit 216 provided on the left and right sides of the vehicle 1. To detect. That is, in a parking lot where vehicles are parked in parallel, another vehicle exists in the vicinity of its own vehicle 1 by detecting another vehicle from the video data captured by the second photographing unit 216 that photographs the left and right sides of the vehicle 1. Other vehicles can be detected efficiently. Therefore, the control device 100 when detecting another vehicle from the video data taken by the photographing unit 210 without lowering the detection accuracy when detecting another vehicle existing in the vicinity of the vehicle 1 when the vehicle 1 is parked. It is possible to reduce the arithmetic processing of.
  • the event video data and the other vehicle video data can be associated and stored while more reliably suppressing the power consumption when the vehicle 1 is parked. As a result, it is possible to more appropriately record identifiable images of other vehicles related to the parked event of the vehicle 1.
  • the vehicle recording device 10 according to the fourth embodiment has the same configuration as the vehicle recording device 10 according to the first embodiment, except that the license plates of other vehicles are detected. Since the other configurations and processes are the same as those in the first embodiment, the description thereof will be omitted and the same reference numerals will be given.
  • the vehicle recording device 10 detects the license plate provided in the other vehicle when the other vehicle existing in the vicinity of the vehicle 1 is detected when the vehicle 1 is parked. That is, in the fourth embodiment, the other vehicle detection unit 124 detects the other vehicle and the license plate of the other vehicle from the video data acquired by the video data acquisition unit 120.
  • FIG. 12 is a flowchart showing a processing flow in the vehicle record control device 100 according to the fourth embodiment.
  • the other vehicle detection unit 124 which detects another vehicle based on the video data acquired by the video data acquisition unit 120, detects another vehicle from the video data acquired by the video data acquisition unit 120, and further detects the other vehicle. Detects the license plate attached to the vehicle. That is, the other vehicle detection unit 124 further detects another vehicle in the video data in which the other vehicle is detected, and detects whether or not the license plate is included in the video data in which the other vehicle is detected.
  • step S131: Yes determination When the license plate of another vehicle existing in the vicinity of the vehicle 1 when parked is detected by the other vehicle detection unit 124 (step S131: Yes determination), the image of the other vehicle in which the license plate is detected is temporarily saved (step S103). ). That is, among the video data acquired by the video data acquisition unit 120, the recording control unit 126 temporarily stores the video data in which the license plate of the other vehicle is detected together with the other vehicle as the video data of the other vehicle.
  • the control device 100 determines whether or not an event for the vehicle 1 has been detected by the event detection unit 125 (step S104).
  • the event detection unit 125 detects that an event has occurred for the vehicle 1 by this determination (step S104: Yes determination)
  • the video for a predetermined period caused by the event and the temporary storage in step S103 are performed.
  • the image of the other vehicle in which the license plate of the other vehicle is detected is associated and saved (step S105).
  • step S131 when the license plate of another vehicle located in the vicinity of the vehicle 1 when parked is not detected by the other vehicle detection unit 124 (step S131: No determination), the event detection unit 125 determines. It is determined whether or not an event for the vehicle 1 has been detected (step S107). That is, when the other vehicle detection unit 124 detects another vehicle based on the video data acquired by the video data acquisition unit 120, the license plate of the other vehicle cannot be detected even if the other vehicle can be detected. (Step S131: No determination) proceeds to step S107 to determine whether or not an event for the vehicle 1 has been detected.
  • the other vehicle detection unit 124 detects not only the other vehicle but also the license plate of the other vehicle from the video data acquired by the video data acquisition unit 120, and the license plate detects the license plate.
  • the saved video data is temporarily saved as video data of another vehicle. Therefore, when the vehicle 1 is parked, other vehicles existing in the vicinity of the vehicle 1 can be more reliably identified based on the information written on the license plate. As a result, even when an event occurs in the parked vehicle 1, the cause of the event can be more reliably identified by referring to the event video data and the other vehicle video data in which the license plate is detected. ..
  • the other vehicle that has come into contact with the parked vehicle 1 can be more reliably identified based on the information written on the license plate displayed in the other vehicle image data. As a result, it is possible to more appropriately record an image that can identify another vehicle related to the parked event of the vehicle 1.
  • the vehicle recording device 10 according to the fifth embodiment has the same configuration as the vehicle recording device 10 according to the first embodiment, but detects a moving object moving in the vicinity of the vehicle 1 while the vehicle 1 is parked. The difference is that the detected moving object is detected as another vehicle V. Since the other configurations and processes are the same as those in the first embodiment, the description thereof will be omitted and the same reference numerals will be given.
  • FIG. 13 is a block diagram showing a configuration example of the vehicle recording device 10 according to the fifth embodiment. Similar to the vehicle recording device 10 according to the first embodiment, the photographing unit 210, the CAN interface 220, the acceleration sensor 230, the recording unit 250, the operation unit 260, the display unit 270, and the GNSS receiving unit 280. It has a map information storage unit 290 and a control device 100. The vehicle recording device 10 according to the fifth embodiment further has a moving body sensor 240.
  • the moving body sensor 240 is a sensor used for detecting a moving body moving in the vicinity of the vehicle 1, and outputs the detection result to the moving body detection unit 132 of the control device 100.
  • a plurality of moving body sensors 240 are arranged on each of the front bumper and the rear bumper of the vehicle 1, and an obstacle sensor that detects an obstacle around the vehicle 1 by ultrasonic waves is used.
  • the moving body sensor 240 detects a moving body moving in the vicinity of the vehicle 1 by detecting that the obstacle detected by the moving body sensor 240 is moving relative to the parked vehicle 1. Is possible.
  • the moving body sensor 240 may detect a moving body moving in the vicinity of the vehicle 1 by means other than ultrasonic waves.
  • the moving body sensor 240 may be configured to be able to detect a moving body moving in the vicinity of the vehicle 1 by using an electromagnetic wave such as infrared rays, for example.
  • the moving object sensor 240 may use the photographing unit 210 to detect a moving object based on the image data photographed by the photographing unit 210.
  • the control device 100 includes a video data acquisition unit 120, a buffer memory 121, a video data processing unit 122, and a parking detection unit 123 connected to the bus 110. , Other vehicle detection unit 124, event detection unit 125, record control unit 126, playback control unit 127, operation control unit 128, display control unit 129, position information acquisition unit 130, and map information acquisition unit. Has 131.
  • the control device 100 further has a moving object detection unit 132.
  • the moving object detection unit 132 detects a moving object moving in the vicinity of the vehicle 1 while the vehicle 1 is parked.
  • the moving object detection unit 132 is a state in which the parking detection unit 123 detects that the vehicle 1 is parked, and the moving object detecting unit 132 is a moving object that moves in the vicinity of the parked vehicle 1 based on the information output from the moving object sensor 240. Perform detection.
  • FIG. 14 is a flowchart showing a processing flow in the vehicle record control device 100 according to the fifth embodiment.
  • FIG. 15 is an explanatory diagram showing a state in which the vehicle 1 is parked. For example, as shown in FIG. 15, when the vehicle 1 parks in an arbitrary parking lot P and the operation for parking is completed, the vehicle speed becomes 0 km / h and the side brake is applied so as to be in a braking state. It is operated and the shift position is operated to the "parking" position.
  • the parking detection unit 123 acquires vehicle information from the CAN interface 220, and the vehicle information acquired from the CAN interface 220 is based on whether or not the vehicle 1 is in a state of being parked as described above. 1 determines whether or not the vehicle has been parked.
  • step S201 No determination
  • the control device 100 ends the process of FIG. 14, and the process of FIG. 14 is executed again.
  • it starts again from step S201.
  • step S202 parking monitoring is started (step S202).
  • the acceleration sensor 230 and the moving body sensor 240 are operated to detect the occurrence of an event by the acceleration sensor 230 and move around the vehicle 1 by the moving body sensor 240. Detect moving objects.
  • FIG. 16 is an explanatory diagram showing a state in which a moving body M exists in the vicinity of the parked vehicle 1.
  • the other vehicle V is own. Move in the vicinity of vehicle 1.
  • the moving object sensor 240 included in the vehicle recording device 10 continuously detects the presence or absence of an object existing in the vicinity of the vehicle 1 and the distance to the object if the object is present in the vicinity of the vehicle 1, and obtains the detection result as the moving object. Output to the detection unit 132.
  • the moving body sensor 240 detects the distance from the other vehicle V and outputs the detection result to the moving body detection unit 132. Further, since the moving body sensor 240 continuously detects the distance to the other vehicle V, when the distance between the moving body sensor 240 and the other vehicle V changes with the passage of time due to the movement of the other vehicle V, the moving body sensor 240 continuously detects the distance to the other vehicle V. The moving body sensor 240 continuously outputs the changing distance to the other vehicle V to the moving body detecting unit 132.
  • the moving body detecting unit 132 Upon receiving the detection result of the moving body sensor 240, the moving body detecting unit 132 moves the moving body detecting unit 132 to the vehicle 1 in the vicinity of the parked vehicle 1 based on the fact that the distance output from the moving body sensor 240 changes with the passage of time. On the other hand, it is detected that there is a moving body M that moves relative to each other. Further, since a plurality of moving body sensors 240 are arranged in the vehicle 1, the moving body detection is performed by integrating the changes in the distances to the objects located in the vicinity of the vehicle 1 detected by the plurality of moving body sensors 240. The unit 132 detects a moving body M moving in the vicinity of the vehicle 1.
  • step S204 it is determined whether or not the moving object is a nearby vehicle. Specifically, when the moving object is detected by the moving object detecting unit 132, the photographing unit 210 starts shooting and the video data acquisition unit 120 acquires the video data. At that time, the video data acquisition unit 120 acquires the video data captured by the plurality of imaging units 210. The other vehicle detection unit 124 detects whether or not the moving object is another vehicle existing in the vicinity of the vehicle 1 based on the video data acquired by the video data acquisition unit 120.
  • the moving object detection unit 132 detects a moving object
  • the other vehicle detecting unit 124 has acquired a plurality of images that the video data acquisition unit 120 has acquired that the detected moving object is another vehicle existing in the vicinity of the vehicle 1. Detect from data.
  • the detection of other vehicles by the other vehicle detection unit 124 is performed using, for example, a vehicle recognition dictionary.
  • the vehicle recognition dictionary is stored in advance in the internal memory of the control device 100 as a dictionary capable of collating that the moving object shown in the video data is a vehicle.
  • the other vehicle detection unit 124 detects a moving object by the moving object detecting unit 132, and collates a plurality of video data captured by the photographing unit 210 that has started photographing with a vehicle recognition dictionary, thereby collating the other vehicle with the video data. Is detected.
  • FIG. 17 is an explanatory diagram showing a state in which another vehicle V is stopped at a position near the parked vehicle 1.
  • the other vehicle detection unit 124 detects the other vehicle V from the plurality of video data acquired by the video data acquisition unit 120, so that, for example, as shown in FIG. 17, the moving body M detected by the moving body detecting unit 132 , Detects that it is another vehicle V stopped at a position near the vehicle 1. That is, when the vehicle 1 is parked, no other vehicle is parked in the parking zone P (see FIG. 15) adjacent to the parking zone P in which the vehicle 1 is parked, and the moving body M is used after the vehicle 1 is parked.
  • the other vehicle detection unit 124 detects the other vehicle V from the video data acquired by the video data acquisition unit 120. .. Further, when the vehicle 1 is parked, another vehicle is already parked in the parking lot P where the vehicle 1 is parked, and the other vehicle leaves the parking lot while the vehicle 1 is parked, and another vehicle moves. It is also detected when the goods are received.
  • the other vehicle detection unit 124 does not need to detect all other vehicles reflected in the video of the video data, but may detect other vehicles existing in the vicinity of the vehicle 1.
  • the other vehicle detection unit 124 has a predetermined area ratio of, for example, 20% or more in the image captured by the photographing unit 210, such as another vehicle whose parking position is adjacent to the parking position of the vehicle 1. It is preferable to recognize other vehicles that occupy an area ratio. Further, the other vehicle detection unit 124 determines that the detected other vehicle has stopped when the detected position of the other vehicle stops or almost stops in the image.
  • FIG. 18 is an explanatory diagram of the video data 300 when another vehicle is detected.
  • the recording control unit 126 detects that the vehicle 1 is parked by the parking detection unit 123 and then detects another vehicle by the other vehicle detection unit 124 from the video data 300 acquired by the video data acquisition unit 120, the recording control unit 126 detects the other vehicle.
  • the video data 300 in which another vehicle is detected is set to be treated as the other vehicle video data 310, and temporarily stored.
  • the recording control unit 126 temporarily stores the video data 300 detected by the other vehicle in the recording unit 250 as the other vehicle video data 310. As a result, the recording control unit 126 temporarily stores the video data 300 in which the other vehicle is detected among the video data 300 shot by the plurality of shooting units 210.
  • the term "temporary save" as used herein means that the video data 300 when another vehicle is detected is flagged as having been detected by another vehicle, saved in association with the event video data, or the temporary save is canceled. Until it is done, processing such as prohibiting overwriting is performed.
  • FIG. 18 is shown as a conceptual diagram when shooting by the shooting unit 210 is stopped after the other vehicle video data 310 is temporarily stored.
  • the control device 100 determines whether or not an event for the vehicle 1 has been detected by the event detection unit 125 (step S206). Specifically, the event detection unit 125 detects the occurrence of an event based on whether or not the acceleration detected by the acceleration sensor 230 is equal to or higher than a preset threshold value. That is, when the acceleration detected by the acceleration sensor 230 is less than the threshold value, the event detection unit 125 does not detect an event for the vehicle 1. On the other hand, when the acceleration detected by the acceleration sensor 230 is equal to or greater than the threshold value, the event detection unit 125 detects that a large impact is generated on the vehicle 1 and an event is generated on the vehicle 1.
  • FIG. 19 is an explanatory diagram of a state in which another vehicle V is in contact with vehicle 1. Since the parked vehicle 1 does not move by itself, as an event for the parked vehicle 1, for example, as shown in FIG. 19, another vehicle V comes into contact with the vehicle 1. As a case where the other vehicle V comes into contact with the vehicle 1, for example, when the other vehicle V parked in the parking lot P adjacent to the parking lot P where the vehicle 1 is parked, as shown in FIG. 17, leaves the parking lot. As shown in FIG. 19, a case where the vehicle comes into contact with the vehicle 1 can be considered. Further, as another case, for example, when the other vehicle V enters the parking lot P, as shown in FIG. 19, a case where the other vehicle V comes into contact with the vehicle 1 can be considered.
  • FIG. 20 is an explanatory diagram of the video data 300 when an event is detected while the vehicle 1 is parked.
  • the vehicle recording device 10 starts shooting by the shooting unit 210 and acquires the video data 300 by the video data acquisition unit 120.
  • the event detection unit 125 since the vehicle recording device 10 temporarily stores the other vehicle video data 310 and then stops the shooting by the shooting unit 210, the event detection unit 125 generates an event while the shooting by the shooting unit 210 is stopped. When it is detected, shooting by the shooting unit 210 is resumed, and the video data 300 is acquired by the video data acquisition unit 120. As a result, it is possible to record the video data 300 immediately after detecting the event that occurred while the vehicle 1 is parked.
  • the recording control unit 126 sets and saves the video data 300 for a predetermined period from the time of the event occurrence as the event video data 320 among the video data 300 shot immediately after the event is detected in this way.
  • the predetermined time in this case is a time assumed as a time required to verify the cause of the event generated in the vehicle 1, and for example, 60 seconds from the event detection is set.
  • the recording control unit 126 associates the event video data 320, which is video data caused by the detected event, with the other vehicle video data 310. save. Specifically, the recording control unit 126 uses the event video data 320 and the other vehicle video data 310 so that the event video data 320 can be easily played back when the event video data 320 is played back. Associate.
  • the recording control unit 126 stores the event video data 320 and the other vehicle video data 310 in association with each other.
  • the parking detection unit 123 determines whether or not parking is completed (step S208). That is, the control device 100 determines whether or not the parking of the vehicle 1 equipped with the vehicle recording device 10 is completed by the parking detection unit 123.
  • the parking detection unit 123 determines that the parking is completed when the power of the engine or the like of the vehicle 1 is turned on and the electric power is supplied to the vehicle recording device 10. Further, the parking detection unit 123 acquires vehicle information from the CAN interface 220, the shift position is operated to a position other than "parking", the braking state by the side brake is released, and the vehicle speed becomes higher than 0 km / h. It may be determined whether or not the parking of the vehicle 1 is completed by determining whether or not the vehicle 1 has been parked.
  • step S208: Yes determination When it is determined from the determination by the parking detection unit 123 that the parking of the vehicle 1 is completed (step S208: Yes determination), the control device 100 ends the process of FIG. In this case, the other vehicle video data temporarily saved in step S205 is canceled from the temporary saving and is subject to erasure or overwriting. Further, in the video data of other vehicles temporarily saved in step S205, the event is not detected (step S206: No determination), the parking is not completed (step S208: No determination), and the moving object is detected again. If (step S203: Yes determination), the temporary storage of the previous video data of another vehicle is canceled, and the new video data of another vehicle is temporarily saved.
  • step S208 when it is determined from the determination by the parking detection unit 123 that the parking of the vehicle 1 has not been completed (step S208: No determination), the process returns to step S203 to determine whether or not a moving object has been detected.
  • step S206 If the event detection unit 125 does not detect that an event has occurred for the vehicle 1 in the determination in step S206 (step S206: No determination), the process proceeds to step S208, and whether or not parking is completed is determined. Determination (step S208).
  • step S203 when it is determined in step S203 that the moving object is not detected (step S203: No determination), or in the determination in step S204, the detected moving object is another vehicle located in the vicinity of the vehicle 1.
  • step S204 the event detection unit 125 determines whether or not an event for the vehicle 1 has been detected (step S209). That is, based on the acceleration detection result of the acceleration sensor 230, the event detection unit 125 detects the occurrence of an event based on whether or not it is equal to or higher than a preset threshold value.
  • step S210 When the event detection unit 125 detects that an event has occurred for the vehicle 1 (step S209: Yes determination), the video for a predetermined period caused by the event is saved (step S210).
  • step S210 after saving the event video data, the parking detection unit 123 determines whether or not parking is completed (step S211). That is, the control device 100 determines whether or not the parking of the vehicle 1 equipped with the vehicle recording device 10 is completed in the same manner as in the process of step S208.
  • step S211: Yes determination When it is determined from the determination by the parking detection unit 123 that the parking of the vehicle 1 is completed (step S211: Yes determination), the control device 100 ends the process of FIG. Further, when it is determined from the determination by the parking detection unit 123 that the parking of the vehicle 1 has not been completed (step S211: No determination), the process returns to step S203 to determine whether or not a moving object has been detected.
  • step S209 No determination
  • the process proceeds to step S211 and whether or not parking is completed is determined. Determination (step S211).
  • the moving body detecting unit 132 detects a moving body moving in the vicinity of the parked vehicle 1
  • the detected moving body is another vehicle moving in the vicinity of the vehicle 1.
  • the other vehicle video data in which the other vehicle is detected is temporarily stored.
  • the event detection unit 125 detects an event while the vehicle 1 is parked after temporarily storing the video data of another vehicle
  • the event video data which is the video data caused by the detected event and the video data of the other vehicle are stored. Associate and save.
  • the video data acquisition unit 120 acquires video data taken by a plurality of shooting units 210
  • the recording control unit 126 obtains video data shot by the plurality of shooting units 210
  • the recording control unit 126 detects another vehicle among the video data taken by the plurality of shooting units 210. Since the video data is temporarily saved, other vehicles can be detected more reliably. That is, when a moving object moving in the vicinity of the vehicle 1 is detected, the moving object can be photographed over a wide range around the vehicle 1, and another vehicle can be detected over a wide range around the vehicle 1. It can be performed. As a result, while the vehicle 1 is parked, other vehicles approaching the vehicle 1 can be detected more reliably, and when an event occurs, the other vehicle that caused the event can be more appropriately identified. be able to.
  • the other vehicle detecting unit 124 parks the vehicle 1 and then places the moving object in the vicinity of the vehicle 1. Other parked vehicles can be detected. Therefore, it is possible to more reliably detect a vehicle that easily comes into contact with the vehicle 1 and is likely to cause an event.
  • the vehicle recording device 10 according to the sixth embodiment has the same configuration as the vehicle recording device 10 according to the fifth embodiment, except that the license plates of other vehicles are detected. Since other configurations and processes are the same as those in the fifth embodiment, the description thereof will be omitted and the same reference numerals will be given.
  • the other vehicle Detects the license plate provided. That is, in the sixth embodiment, the other vehicle detection unit 124 detects the other vehicle and the license plate of the other vehicle from the video data acquired by the video data acquisition unit 120.
  • FIG. 21 is a flowchart showing a processing flow in the vehicle record control device 100 according to the sixth embodiment.
  • step S204 when it is determined by the other vehicle detection unit 124 that the moving body detected by the moving body detecting unit 132 is another vehicle existing in the vicinity of the vehicle 1, the moving body is determined to be another vehicle. (Step S204: Yes determination), it is determined whether or not the license plate of another vehicle in the vicinity is detected (step S221). That is, the other vehicle detection unit 124 that detects another vehicle based on the video data acquired by the video data acquisition unit 120 detects the other vehicle from the video data acquired by the video data acquisition unit 120, and further to the other vehicle. Detects the license plate to be attached. That is, the other vehicle detection unit 124 further detects another vehicle in the video data in which the other vehicle is detected, and detects whether or not the license plate is included in the video data in which the other vehicle is detected.
  • step S221 Yes determination
  • the image of the other vehicle in which the license plate is detected is temporarily saved (step S205). That is, among the video data acquired by the video data acquisition unit 120, the recording control unit 126 temporarily stores the video data in which the license plate of the other vehicle is detected together with the other vehicle as the video data of the other vehicle.
  • the control device 100 determines whether or not an event for the vehicle 1 has been detected by the event detection unit 125 (step S206).
  • the event detection unit 125 detects that an event has occurred for the vehicle 1 by this determination (step S206: Yes determination)
  • the video for a predetermined period caused by the event and the video temporarily stored in step S205 are stored.
  • Another vehicle image is associated and saved (step S207).
  • step S203 when it is determined in step S203 that the moving object M is not detected (step S203: No determination), or in the determination in step S204, the detected moving object M is another vehicle located in the vicinity of the vehicle 1.
  • step S204 No determination
  • step S221 the license plate of the other vehicle V moving in the vicinity of the vehicle 1 is used as the license plate of the other vehicle.
  • step S221 No determination
  • step S209 the event detection unit 125 determines whether or not an event for the vehicle 1 has been detected.
  • Step S221 No determination
  • Step S209 determines whether or not an event for the vehicle 1 has been detected.
  • the other vehicle detection unit 124 not only detects that the moving object is another vehicle from the video data acquired by the video data acquisition unit 120, but also detects the license plate of the other vehicle. It also detects and temporarily saves the video data for which the license plate is detected as video data for other vehicles. Therefore, it is possible to more reliably identify another vehicle that moves in the vicinity of the vehicle 1 while the vehicle 1 is parked, based on the information written on the license plate. As a result, even when an event occurs in the parked vehicle 1, the cause of the event can be more reliably identified by referring to the event video data and the other vehicle video data in which the license plate is detected. ..
  • the other vehicle that has come into contact with the parked vehicle 1 can be more reliably identified based on the information written on the license plate displayed in the other vehicle image data. As a result, it is possible to more appropriately record an image capable of identifying another vehicle related to the parked event of the vehicle 1.
  • the vehicle recording device 10 according to the seventh embodiment has the same configuration as the vehicle recording device 10 according to the first embodiment, and is characterized in that it specifies a method for reproducing the stored video data. Since the other configurations are the same as those of the first embodiment, the description thereof will be omitted and the same reference numerals will be given.
  • the video data in which the event video data is associated with the other vehicle video data is reproduced. ..
  • the reproduction of the video data is executed by inputting the reproduction instruction to the operation unit 260.
  • the video data stored in the recording unit 250 may be reproduced by another device such as a PC (Personal Computer) in addition to the reproduction by the vehicle recording device 10.
  • PC Personal Computer
  • FIG. 22 is a flowchart showing a processing flow in the vehicle record control device 100 according to the seventh embodiment.
  • the reproduction control unit 127 determines whether or not there is an event video data reproduction instruction from the operation control unit 128 (step S301).
  • step S301: No determination When it is determined that there is no event video data reproduction instruction (step S301: No determination), the control device 100 ends the process for reproducing the event video data.
  • step S301: Yes determination the reproduction control unit 127 determines whether or not the event video data instructed to be reproduced is associated with other vehicle image data. (Step S302).
  • step S302 When it is determined by the determination by the reproduction control unit 127 that the event video data for which reproduction is instructed is associated with the other vehicle image data (step S302: Yes determination), the event image data and the other vehicle image data Playback is started (step S303).
  • the event video data and the other vehicle video data are simultaneously reproduced on the same screen, or the event video data and the other vehicle video data are continuously reproduced. By playing back, both video data are played back.
  • the other vehicle video data can be played back by urging the other vehicle video data to be played back by indicating that the other vehicle video data exists.
  • the reproduction control unit 127 determines whether or not the reproduction of the event video data and the other vehicle image data is completed (step S304), and if the reproduction is not completed (step S304: No determination), the reproduction is completed. Continue playing until you do.
  • the end of reproduction includes the end of reproduction by the user's operation in addition to the end of reproduction of event video data and other vehicle image data.
  • step S304: Yes determination the control device 100 ends the process for reproducing the event video data.
  • step S302 When it is determined by the determination in step S302 that the event video data for which the reproduction instruction has been given is not associated with the other vehicle video data (step S302: No determination), the reproduction of the event video data is started (step S305). ..
  • the reproduction control unit 127 determines whether or not the reproduction of the event video data that has started reproduction is completed (step S304), and if the reproduction is not completed (step S304: No determination). ) Continues to play until the end of playback. When the reproduction of the event video data is completed (step S304: Yes determination), the process for reproducing the event video data is terminated.
  • the event video data which is the video data when the event detected while the vehicle 1 is parked
  • the event video data is associated with the other vehicle video data. If so, the other vehicle video data is also reproduced in addition to the event video data, so that the other vehicle related to the event can be more appropriately identified. As a result, the usefulness of the vehicle recording device 10 when the vehicle 1 is parked can be enhanced.
  • vehicle recording device 10 has been described so far, it may be implemented in various different forms other than the above-mentioned first to seventh embodiments.
  • Each component of the illustrated vehicle recording device 10 is a functional concept and does not necessarily have to be physically configured as shown in the illustration. That is, the specific form of each device is not limited to the one shown in the figure, and all or part of the device is functionally or physically dispersed or integrated in an arbitrary unit according to the processing load and usage status of each device. You may.
  • the configuration of the vehicle recording device 10 is realized, for example, by a program loaded in a memory as software.
  • a program loaded in a memory as software.
  • it has been described as a functional block realized by cooperation of these hardware or software. That is, these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.
  • the vehicle record control device and the vehicle record control method of the present embodiment can be used, for example, in a drive recorder.
  • Vehicle 10 Vehicle recording device 100
  • Vehicle recording control device 110 Bus 120
  • Video data acquisition unit 121 Buffer memory 122
  • Other vehicle detection unit 125 Event detection unit 126
  • Recording control unit 127 Playback control unit 128
  • Operation control unit 129 Display control unit 130
  • Position information acquisition unit 131 Map information acquisition unit 132
  • Acceleration sensor 240 Moving object sensor 250 Recording unit 260
  • Operation unit 270 Display unit 280
  • GNSS receiver unit 290 Map information storage unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

車両用記録制御装置(10)は、車両の周囲を撮影する撮影部(210)が撮影した映像データを取得する映像データ取得部(120)と、車両が駐車したことを検出する駐車検出部(123)と、映像データ取得部(120)が取得した映像データから他車両を検出する他車両検出部(124)と、車両に対するイベントを検出するイベント検出部(125)と、車両が駐車したことを駐車検出部(123)で検出した後、他車両検出部(124)により他車両が検出された映像データを一時保存し、車両の駐車中にイベント検出部(125)がイベントを検出した場合、検出したイベントに起因する映像データと他車両が検出された映像データとを関連付けて保存する記録制御部(126)と、を備える。

Description

車両用記録制御装置および車両用記録制御方法
 本発明は、車両用記録制御装置および車両用記録制御方法に関する。
 車両に取り付けられて車両の周辺を撮影し、衝撃を検出することにより車両に対するイベントを検出し、イベント発生時の映像を記録するドライブレコーダが普及している(例えば、特許文献1参照)。
特開2019-28760号公報
 駐車場などで駐車する場合や駐車中においては、車両同士の接触が発生することがある。しかし、車両の駐車中に、車両同士の接触によるイベントが検出された場合に保存される映像では、接触した他車両の特定が困難な場合もある。
 本実施形態は、上記に鑑みてなされたものであって、駐車中のイベントに関係する他車両を特定可能な映像の記録を適切に行うことを目的とする。
 上述した課題を解決し、目的を達成するために、本実施形態に係る車両用記録制御装置は、車両の周囲を撮影する撮影部が撮影した映像データを取得する映像データ取得部と、前記車両が駐車したことを検出する駐車検出部と、前記映像データ取得部が取得した映像データから他車両を検出する他車両検出部と、前記車両に対するイベントを検出するイベント検出部と、前記車両が駐車したことを前記駐車検出部で検出した後、前記他車両検出部により他車両が検出された映像データを一時保存し、前記車両の駐車中に前記イベント検出部がイベントを検出した場合、検出したイベントに起因する映像データと他車両が検出された映像データとを関連付けて保存する記録制御部と、を備える。
 また、上述した課題を解決し、目的を達成するために、本実施形態に係る車両用記録制御装置が実行する車両用記録制御方法は、車両の周囲を撮影する撮影部が撮影した映像データを取得する映像データ取得ステップと、前記車両が駐車したことを検出する駐車検出ステップと、前記映像データ取得ステップで取得した映像データから他車両を検出する他車両検出ステップと、前記車両に対するイベントを検出するイベント検出ステップと、前記車両が駐車したことを前記駐車検出ステップで検出した後、前記他車両検出ステップで他車両が検出された映像データを一時保存し、前記車両の駐車中に前記イベント検出ステップでイベントを検出した場合、検出したイベントに起因する映像データと他車両が検出された映像データとを関連付けて保存する記録制御ステップと、を車両用記録制御装置が実行する。
 本実施形態に係る車両用記録制御装置および車両用記録制御方法は、駐車中のイベントに関係する他車両を特定可能な映像の記録を適切に行うことができる、という効果を奏する。
図1は、第1実施形態に係る車両用記録装置の構成例を示すブロック図である。 図2は、車両に搭載される撮影部の配置位置についての説明図である。 図3は、映像データのループ記録についての概念図である。 図4は、第1実施形態に係る車両用記録制御装置における処理の流れを示すフローチャートである。 図5は、車両が駐車した状態を示す説明図である。 図6は、車両の駐車が完了した時刻から所定時間前の状態を示す説明図である。 図7は、他車両が検出された際の映像データについての説明図である。 図8は、他車両が車両に接触した状態についての説明図である。 図9は、車両の駐車中にイベントが検出された際の映像データについての説明図である。 図10は、第2実施形態に係る車両用記録制御装置における処理の流れを示すフローチャートである。 図11は、第3実施形態に係る車両用記録制御装置における処理の流れを示すフローチャートである。 図12は、第4実施形態に係る車両用記録制御装置における処理の流れを示すフローチャートである。 図13は、第5実施形態に係る車両用記録装置の構成例を示すブロック図である。 図14は、第5実施形態に係る車両用記録制御装置における処理の流れを示すフローチャートである。 図15は、車両が駐車した状態を示す説明図である。 図16は、駐車中の車両の近傍に動体が存在する状態を示す説明図である。 図17は、駐車中の車両の近傍に位置に他車両が停止した状態を示す説明図である。 図18は、他車両が検出された際の映像データについての説明図である。 図19は、他車両が車両に接触した状態についての説明図である。 図20は、車両の駐車中にイベントが検出された際の映像データについての説明図である。 図21は、第6実施形態に係る車両用記録制御装置における処理の流れを示すフローチャートである。 図22は、第7実施形態に係る車両用記録制御装置における処理の流れを示すフローチャートである。
 以下に、本実施形態に係る車両用記録制御装置および車両用記録制御方法の実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が置換可能、且つ、容易に想到できるもの、或いは実質的に同一のものが含まれる。
[第1実施形態]
<車両用記録装置>
 図1は、第1実施形態に係る車両用記録装置10の構成例を示すブロック図である。図2は、車両1に搭載される撮影部210の配置位置についての説明図である。車両用記録装置10は、いわゆるドライブレコーダであり、車両1から供給される電力により駆動する。車両用記録装置10は、車両に載置されているものに加えて、可搬型で車両において利用可能な装置であってもよい。
 車両用記録装置10は、撮影部210と、CANインターフェース220と、加速度センサ230と、記録部250と、操作部260と、表示部270と、GNSS(Global Navigation Satellite System:全地球航法衛星システム)受信部280と、地図情報記憶部290と、車両用記録制御装置(以下、「制御装置」という。)100とを有する。
 撮影部210は、車両用記録装置10が搭載される車両1の周辺を撮影し、電気信号として出力可能なカメラになっている。第1実施形態では、撮影部210は、車両1の前方および後方を撮影する第1撮影部211と、車両1の左右側方に備えられた第2撮影部216とを備えている。第1撮影部211は、車両1の前方を撮影する前方カメラ212と、車両1の後方を撮影する後方カメラ213とを有しており、第2撮影部216は、車両1の左側方を撮影する左側方カメラ217と、車両1の右側方を撮影する右側方カメラ218とを有している。
 このうち、第1撮影部211が有する前方カメラ212は、車両1の車室内のフロントガラス付近に車両1の前方を向いて配置され、車両1の前方を中心とした周辺を撮影する。第1撮影部211が有する後方カメラ213は、車両1の車室内の後方に車両1の後方を向いて配置され、車両1の後方を中心とした周辺を撮影する。これらの前方カメラ212および後方カメラ213は、ドライブレコーダとして用いられるカメラになっている。
 第2撮影部216が有する左側方カメラ217は、車両1の左側面に左側後方を向いて配置されて、車両1の左側の後方を撮影する。第2撮影部216が有する右側方カメラ218は、車両1の右側面に右側後方を向いて配置されて、車両1の右側の後方を撮影する。左側方カメラ217および右側方カメラ218は、サイドモニタ(電子サイドミラー)用のカメラ、または俯瞰映像表示用のカメラのいずれであってもよい。これらのように構成される撮影部210は、撮影した映像データを制御装置100の映像データ取得部120へ出力する。
 CANインターフェース220は、CAN(Controller Area Network)を介して各種車両情報を取得するためのインターフェースである。車両情報には、例えば、エンジンの動作状態や、車速情報、サイドブレーキ情報などの車両の走行状態に関する情報が含まれている。
 加速度センサ230は、車両用記録装置10が搭載される車両1に対するイベントを検出することが可能なセンサになっており、検出結果を制御装置100のイベント検出部125に出力する。加速度センサ230は、例えば3軸方向の加速度を検出するセンサである。3軸方向とは、車両1の前後方向、左右方向、および上下方向である。加速度センサ230は、3軸方向の加速度によって、車両1に対する衝撃が検出可能になっている。
 記録部250は、車両用記録装置10におけるデータの一時記憶や保存などに用いられる。記録部250は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、または、メモリカードなどの記録媒体である。または、図示しない通信装置を介して無線接続される外部記録部であってもよい。記録部250は、制御装置100の記録制御部126から出力された制御信号に基づいて、映像データ取得部120によって取得した映像データを記録する。
 操作部260は、車両用記録装置10に対する各種操作を受付可能なインターフェースになっている。操作部260は、例えば、映像データの再生指示を行う操作や、削除指示を行う操作などを受け付ける。また、操作部260は、手動によるイベント記録を行う操作の受付が可能になっている。操作部260は、入力された操作情報を、制御装置100の操作制御部128に出力する。
 表示部270は、一例としては、車両用記録装置10に固有の表示装置、または、ナビゲーションシステムを含む他のシステムと共用した表示装置などである。表示部270は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)または有機EL(Organic Electro-Luminescence)ディスプレイなどを含むディスプレイである。第1実施形態では、表示部270は、車両1の運転者前方の、ダッシュボード、インストルメントパネル、センターコンソールなどに配置されている。表示部270は、制御装置100の表示制御部129から出力された映像信号に基づいて、映像を表示する。表示部270は、撮影部210が撮影している映像、または、記録部250に記録された映像を表示する。
 GNSS受信部280は、複数の測位衛星から発射される電波を受信する。GNSS受信部280は、受信した電波の信号を制御装置100の位置情報取得部130へ出力する。
 地図情報記憶部290は、地図情報を記憶する。地図情報は、例えば、駐車場の情報を含む。地図情報記憶部290は、記憶している地図情報を制御装置100の地図情報取得部131へ出力する。地図情報記憶部290は、図示しない通信機能を介して地図情報を取得する外部サーバ等の記憶装置であってもよい。
 制御装置100は、例えば、CPU(Central Processing Unit)などで構成された演算処理装置(制御装置)である。制御装置100は、記憶されているプログラムをメモリにロードして、プログラムに含まれる命令を実行する。このため、制御装置100は、本発明にかかる車両用記録制御方法を実行する。また、制御装置100は、本発明にかかるプログラムを実行するコンピュータである。制御装置100には図示しない内部メモリが含まれ、内部メモリは制御装置100におけるデータの一時記憶などに用いられる。制御装置100は、バス110に接続された、映像データ取得部120と、バッファメモリ121と、映像データ処理部122と、駐車検出部123と、他車両検出部124と、イベント検出部125と、記録制御部126と、再生制御部127と、操作制御部128と、表示制御部129と、位置情報取得部130と、地図情報取得部131とを有する。
 映像データ取得部120は、車両1の周囲を撮影した映像データを取得する。より詳しくは、映像データ取得部120は、車両1の周囲を撮影する撮影部210が出力した映像データを取得する。また、車両用記録装置10は、撮影部210を複数有しているため、映像データ取得部120は、複数の撮影部210が撮影した映像データをそれぞれ取得することが可能になっている。つまり、映像データ取得部120は、第1撮影部211が撮影した映像データと、第2撮影部216が撮影した映像データとをそれぞれ取得することが可能になっている。
 バッファメモリ121は、制御装置100が備える内部メモリであり、映像データを一時的に記憶するメモリになっている。バッファメモリ121は、例えば、映像データ取得部120が取得した一定時間分の映像データを、更新しながら一時的に記録するメモリである。
 映像データ処理部122は、バッファメモリ121が一時的に記憶している映像データ(以下、「一時映像データ」という。)を、例えばH.264やMPEG-4(Moving Picture Experts Group)などの任意の方式のコーデックで符号化された、例えばMP4形式などの任意のファイル形式に変換する。映像データ処理部122は、一時映像データから、一定時間分の動画データを1つのファイルとした映像データを生成する。詳しくは、映像データ処理部122は、一時映像データより、記録順に所定の時間の映像データを1ファイルとして生成し、所定の時間の映像データからなるファイルを、撮影部210での撮影時間に応じて複数生成する。この場合における所定の時間は、操作部260への入力操作により設定された時間(例えば、60秒間)が用いられる。映像データ処理部122は、このように生成した映像データを記録制御部126へ出力する。また、映像データ処理部122は、生成した映像データを表示制御部129へ出力する。なお、1つのファイルとして生成される映像データの時間は、一例として60秒としたが、これには限定されない。また、ここで言う映像データとは、撮影部210が撮影した映像に加えて音声が含まれたデータであってもよい。
 駐車検出部123は、CANインターフェース220より取得する車両情報に基づいて、車両1が駐車したことや駐車状態にあることを検出する。車両1が駐車した、または駐車状態にあるとは、シフトポジションが「パーキング」となったことやサイドブレーキが操作されたこと、例えば5秒以上の時間、速度がゼロとなったこと、エンジン停止などである。または、ユーザ操作など任意のトリガによって、車両1が駐車した状態にあるとしてもよい。また、駐車検出部123は、車両1が停止した位置が、地図情報取得部131が取得した地図情報を参照することによって、駐車場であることを示している場合に、車両1が駐車したことや駐車状態にあることを検出してもよい。
 他車両検出部124は、映像データ取得部120が取得した映像データから、他車両を検出する。即ち、他車両検出部124は、映像データ取得部120が取得した映像データに基づいて、車両1の周囲に存在する他の車両である他車両を検出する。
 イベント検出部125は、車両1に対するイベントを検出する。イベント検出部125が車両1に対するイベントを検出する方法は任意であるが、一例としてイベント検出部125は、加速度センサ230の検出結果に基づいて、イベントを検出する。この場合、イベント検出部125は、加速度センサ230の出力から、車両1に加わった加速度に基づき、所定の閾値以上の加速度が加わった場合に、車両1に対してイベントが発生したと判断する。つまり、イベント検出部125は、加速度センサ230が、所定の閾値以上の加速度を検出した場合に、イベントとして検出する。イベント検出部125がイベントとして検出する加速度の閾値は、停止中の車両1に他の物体が接触することで発生する加速度を検出可能な値になっており、例えば、0.2Gなどの値に設定される。
 図3は、映像データのループ記録についての概念図である。図3において、記録制御部126は、映像データ処理部122でファイル化された映像データ300を、記録部250に記録させる制御を行う。記録制御部126は、ループ記録を行うことが設定されている場合は、ループ記録処理を実行し、映像データ処理部122でファイル化された映像データ300を、上書き可能な映像データ300として、記録部250に記録する。より詳しくは、記録制御部126は、ループ記録処理の実行中は、映像データ処理部122が生成した映像データ300を記録部250に記録し続け、記録部250の容量が一杯になった場合、最も古い映像データ300に新しい映像データ300を上書きして記録する。
 再生制御部127は、操作部260への入力操作により選択された映像データを再生する。再生制御部127は、操作制御部128から出力された、操作部260の操作に応じた選択操作および再生操作の制御信号に基づいて、記録部250に記録された映像データを再生するよう制御する。
 操作制御部128は、操作部260が受け付けた操作の操作情報を取得し、操作情報に基づいた操作制御を実行する。操作制御部128は、例えば、映像データの再生情報を取得して、再生制御部127に映像データを再生させる。また、操作制御部128は、映像データの消去操作を示す消去操作情報を取得して、記録制御部126に映像データを消去させる。
 表示制御部129は、表示部270における映像データの表示を制御する。つまり、表示制御部129は、撮影部210が撮影している映像、または、記録部250に記録された映像データを再生によって表示部270で表示する映像信号を出力する。これにより、表示制御部129は、表示部270に映像データを表示させる。
 位置情報取得部130は、GNSS受信部280が受信した電波に基づいて、車両1の現在の位置情報を公知の方法によって算出する。
 地図情報取得部131は、位置情報取得部130により取得した車両1の現在の位置情報に応じて、地図情報記憶部290より地図情報を取得する。これにより、地図情報取得部131は、車両1の現在の位置情報と地図情報とを照らし合わせ、取得した地図情報上における車両1の現在の位置を特定する。
<車両用記録装置における処理>
 次に、図4を用いて、制御装置100における処理の流れについて説明する。図4は、第1実施形態に係る車両用記録制御装置100における処理の流れを示すフローチャートである。
 車両用記録装置10の使用の開始は、例えば、車両1のエンジン等の動力がオンになり、車両用記録装置10に電力が供給された場合などである。車両1が駐車していないときは、車両用記録装置10は、公知のドライブレコーダとしての機能を実行する。車両用記録装置10が動作している間、図4の処理は、定期的に実行される。図4の処理が開始した場合、制御装置100は、車両1が駐車したか否かの判定を行う(ステップS101)。つまり、制御装置100は、車両用記録装置10を搭載する車両1が駐車したか否かを、駐車検出部123により判定する。図5は、車両1が駐車した状態を示す説明図である。車両1が、例えば、図5に示すように、任意の駐車区画Pに駐車を行い、駐車のための動作が完了した場合、車速が0km/hになり、制動状態になるようにサイドブレーキが操作され、シフトポジションが「パーキング」の位置に操作される。駐車検出部123は、CANインターフェース220より、車両情報を取得し、CANインターフェース220より取得した車両情報が、これらのように車両1が駐車したことを示す状態であるか否かに基づいて、車両1は駐車したか否かの判定を行う。
 なお、駐車検出部123は、CANインターフェース220より取得する車両情報以外の情報に基づいて、駐車したか否かの判定を行ってもよい。駐車検出部123は、例えば、GNSS受信部280が受信した電波に基づいて位置情報取得部130で車両1の現在の位置情報を取得し、地図情報取得部131によって取得する地図情報により、車両1の現在の位置が駐車場であると判断できる場合、その位置で車両1が停止した際には、車両1は駐車したと判定してもよい。つまり、制御装置100は、車両1が駐車場に駐車したことを検出する。
 また、車両1が駐車したことが検出された場合、車両用記録装置10は、駐車監視を開始する。つまり、車両1の駐車中、イベント検出部125によるイベント検出処理を機能させ、車両1に対するイベントが検出された場合は、イベントに起因する映像データを保存する。
 駐車検出部123での判定によって、車両1は駐車していないと判定された場合(ステップS101:No判定)は、制御装置100は、図4の処理を終了し、図4の処理が再度実行開始された際に、ステップS101から再び開始する。
 駐車検出部123での判定によって、車両1が駐車したと駐車検出部123で判定した場合(ステップS101:Yes判定)、駐車したときに近傍他車両を検出したか否かを判定する(ステップS102)。この場合における近傍他車両の検出は、映像データ取得部120が取得した映像データに基づいて、他車両検出部124により行う。即ち、他車両検出部124は、映像データ取得部120が取得した映像データに基づいて、自己の車両1の近傍に存在する他車両(図6参照)の検出を行う。他車両検出部124で、他車両の検出を行う際には、駐車した時刻から所定時間前までの映像データより、他車両の検出を行う。この場合における所定時間は、車両1が駐車の動作を行うのに要する時間として想定される時間になっており、例えば、60秒などとして設定される。
 図6は、車両1が駐車したとき、つまり駐車が完了した時刻から所定時間前の状態を示す説明図である。他車両検出部124で他車両Vの検出を行う際に用いられる所定時間は、車両1が駐車の動作を行う期間に相当する時間であるため、車両1の駐車が完了した時刻から所定時間前は、車両1は、例えば、図6に示すように、任意の駐車区画Pに対して駐車を行う動作を行っている。車両1が駐車の動作を行っている最中でも、撮影部210は車両1の周囲を撮影し続け、映像データ取得部120は、撮影部210で撮影した映像データを取得し続ける。このため、車両1が駐車の動作を行っている最中に、車両1の周囲に他車両Vが存在する場合は、他車両Vも撮影部210により撮影され、映像データ取得部120は、他車両Vが含まれる映像データを取得する。
 例えば、図6に示すように、車両1が駐車をしようとする駐車区画Pに隣接する駐車区画Pに他車両Vが既に駐車してある状態において、車両1が後進によって駐車区画Pに駐車する場合、他車両Vは、車両1の後端に後方を向いて配置され後方カメラ213により撮影され易くなる。即ち、後方カメラ213で撮影した映像データには、他車両Vが含まれ易くなり、これにより、映像データ取得部120は、他車両Vが含まれる映像データを取得する。
 また、図6のように車両1が駐車をしようとするときに、車両1が駐車する駐車区画の右側の駐車区画に他車両Vが駐車してある状態において、車両1が後進によって駐車区画Pに駐車する場合、車両1の右側方カメラ218で撮影した映像データには、他車両Vが含まれやすくなる。これにより、映像データ取得部120は、他車両Vが含まれる映像データを取得する。
 他車両検出部124は、映像データ取得部120で取得した映像データのうち、車両1の駐車が完了した時刻から所定時間前までの映像データから、他車両の検出を行う。他車両検出部124での他車両の検出は、例えば、車両認識辞書を用いて行う。車両認識辞書は、映像データに含まれるオブジェクトが車両であることを照合可能な辞書として、制御装置100の内部メモリに予め記憶されている。他車両検出部124は、車両1の駐車が完了した時刻から所定時間前までの映像データを、車両認識辞書に照合することにより、映像データより他車両の検出を行う。
 なお、他車両検出部124は、映像データの映像に映った全ての他車両を検出する必要はなく、車両1の近傍に存在する他車両を検出すればよい。他車両検出部124は、特に、車両1の駐車位置に対して駐車位置が隣接する他車両のような、撮影部210で撮影した映像内において、例えば20%以上の面積割合など、所定以上の面積割合を占める他車両を認識するのが好ましい。
 駐車したときの車両1の近傍に存在する他車両を他車両検出部124で検出した場合(ステップS102:Yes判定)、他車両映像を一時保存する(ステップS103)。図7は、他車両が検出された際の映像データ300についての説明図である。記録制御部126は、車両1の駐車が完了した時刻Tpから所定時間前Taまでの映像データ300から、他車両を他車両検出部124で検出した場合には、他車両が検出された映像データ300を、他車両映像データ310として扱う旨の設定を行い、一時保存する。つまり、車両1が駐車したことを駐車検出部123で検出した際において、駐車した時刻Tpから所定時間前Taまでの映像データ300から、他車両を他車両検出部124で検出した場合は、記録制御部126は、他車両が検出された映像データ300を他車両映像データ310として記録部250に一時保存する。ここでいう一時保存とは、他車両が検出された際の映像データ300に対して、他車両が検出されているフラグを付与したり、イベント映像データに関連付けられて保存、または一時保存が解除されるまで、上書を禁止するなどの処理がなされる。
 次に、制御装置100は、イベント検出部125によって、車両1に対するイベントを検出したか否かを判定する(ステップS104)。詳しくは、イベント検出部125は、加速度センサ230で検出した加速度が、予め設定された閾値以上であるか否かに基づいて、イベントの発生を検出する。即ち、イベント検出部125は、加速度センサ230が検出した加速度が閾値未満である場合は、車両1に対するイベントは検出しない。一方、イベント検出部125は、加速度センサ230が検出した加速度が閾値以上である場合は、車両1に対して大きな衝撃が発生し、車両1に対してイベントが発生したことを検出する。
 図8は、他車両Vが車両1に接触した状態についての説明図である。駐車中の車両1は、自らは移動しないため、駐車中の車両1に対するイベントとしては、例えば、図8に示すように、他車両Vが出庫時に車両1に接触することが挙げられる。
 イベント検出部125が、車両1に対してイベントが発生したことを検出した場合(ステップS104:Yes判定)、イベントに起因した所定期間の映像および一時保存された他車両映像を関連付けて保存する(ステップS105)。図9は、車両1の駐車中にイベントが検出された際の映像データ300についての説明図である。第1実施形態に係る車両用記録装置10は、イベント検出部125でイベントの発生を検出した場合、撮影部210での撮影を開始し、映像データ300を映像データ取得部120で取得する。これにより、記録部250では、車両1の駐車中に発生したイベントを検出した直後の映像データ300を記録することができる。また、記録制御部126は、このようにイベントを検出した直後に撮影された映像データ300のうち、イベント発生時から所定時間の映像データ300を、イベント映像データ320として設定して保存する。
 この場合における所定時間は、車両1に発生したイベントの原因を検証するのに要する時間として想定される時間になっており、例えば、イベント検出から60秒などが設定されている。また、イベントに起因した所定期間の映像は、車両1の駐車期間中に、撮影部210が撮影した映像データをループ記録できる場合は、例えば、イベント検出の前後60秒などが設定される。
 さらに、記録制御部126は、車両1の駐車中にイベント検出部125がイベントを検出した場合、検出したイベントに起因する映像データであるイベント映像データ320と、他車両映像データ310とを関連付けて保存する。具体的には、記録制御部126は、イベント映像データ320の再生を行う際に、他車両映像データ310も容易に再生することができるように、イベント映像データ320と他車両映像データ310とを関連付ける。
 例えば、記録制御部126は、イベント映像データ320を再生した際に、他車両映像データ310が連続的に再生されるようにしたり、他車両映像データ310を再生した際に、イベント映像データ320が分割画面、またはピクチャインピクチャとして同時に再生されるように、双方の映像データを関連付ける。
 イベント映像データ320と、他車両映像データ310とを関連付けて保存することとは、例えば、イベント映像データ320と他車両映像データ310とが、同時または連続的に再生されるように、双方の映像データを上書禁止として保存する。または、イベント映像データ320と他車両映像データ310とが連続的に再生されるように、結合した映像データとして上書禁止として保存する。
 なお、図9は、車両1が駐車したときに、ループ記録による映像データ300の記録が停止するとともに、他車両を検出したことで一時保存された他車両映像データ310と、イベント検出によって保存されたイベント映像データ320とを概念的に示す図である。記録制御部126は、イベント映像データ320と他車両映像データ310を関連付けて保存する。
 ステップS105の処理が終了した後、駐車検出部123は、駐車が終了したか否かを判定する(ステップS106)。つまり、制御装置100は、車両用記録装置10を搭載する車両1の駐車が終了したか否かを、駐車検出部123により判定する。駐車検出部123は、車両1のエンジン等の動力がオンになり、車両用記録装置10に電力が供給されたことで、駐車が終了したことを判断する。また、駐車検出部123は、CANインターフェース220より車両情報を取得し、シフトポジションが「パーキング」以外の位置に操作されたり、サイドブレーキによる制動状態が解除されたり、車速が0km/hより大きくなったかを判定することにより、車両1の駐車が終了したか否かの判定を行ってもよい。
 駐車検出部123での判定より、車両1の駐車が終了したと判定された場合(ステップS106:Yes判定)、制御装置100は、図4の処理を終了する。この場合、ステップS103で一時保存された他車両データは、一時保存が解除され、消去または上書対象となる。
 また、駐車検出部123での判定より、車両1の駐車が終了していないと判定された場合(ステップS106:No判定)、ステップS104に戻り、イベント検出部125によって、駐車中の車両1に対するイベントを検出したか否かを判定する(ステップS104)。
 また、ステップS104での判定で、イベント検出部125が、車両1に対してイベントが発生したことを検出しない場合(ステップS104:No判定)、ステップS106に進み、駐車が終了したか否かを判定する(ステップS106)。
 また、ステップS102での判定で、駐車したときの車両1の近傍に位置する他車両を他車両検出部124で検出しない場合(ステップS102:No判定)は、イベント検出部125によって、車両1に対するイベントを検出したか否かを判定する(ステップS107)。つまり、加速度センサ230での加速度の検出結果に基づいて、予め設定された閾値以上であるか否かに基づいて、イベント検出部125によってイベントの発生を検出する。
 イベント検出部125が、車両1に対してイベントが発生したことを検出した場合(ステップS107:Yes判定)は、イベントに起因した所定期間の映像を保存する(ステップS108)。
 ステップS108において、イベント映像データを保存後、駐車検出部123は、駐車が終了したか否かを判定する(ステップS109)。つまり、制御装置100は、車両用記録装置10を搭載する車両1の駐車が終了したか否かを、ステップS106の処理と同様に判定する。
 駐車検出部123での判定より、車両1の駐車が終了したと判定された場合(ステップS109:Yes判定)、制御装置100は、図4の処理を終了する。また、駐車検出部123での判定より、車両1の駐車が終了していないと判定された場合(ステップS109:No判定)、ステップS107に戻り、イベント検出部125によって、駐車中の車両1に対するイベントを検出したか否かを判定する(ステップS107)。
 また、ステップS107での判定で、イベント検出部125が、車両1に対してイベントが発生したことを検出しない場合(ステップS107:No判定)、ステップS109に進み、駐車が終了したか否かを判定する(ステップS109)。
<効果>
 上述したように、第1実施形態では、車両1が駐車したことを駐車検出部123で検出した際において、駐車したときから所定時間前まで、例えば、駐車時刻Tpから所定時間前Taまでの映像データから他車両を他車両検出部124で検出した場合に、他車両が検出された他車両映像データを一時保存する。さらに、他車両映像データを一時保存した後、車両1の駐車中にイベント検出部125がイベントを検出した場合、検出したイベントに起因する映像データであるイベント映像データと、他車両映像データとを関連付けて保存する。これにより、車両1の駐車時にイベントが発生した場合でも、イベント映像データと他車両映像データとを参照することにより、イベントの発生原因となった他車両を特定可能な映像の記録を適切に行うことができる。例えば、駐車中の車両1に対して他車両が接触することによりイベントが発生した際に、他車両がそのまま走行し、当て逃げをした場合でも、車両1の駐車時に撮影した他車両映像データを参照することにより、当て逃げした他車両を適切に特定することができる。
[第2実施形態]
 第2実施形態に係る車両用記録装置10は、第1実施形態に係る車両用記録装置10と同様の構成であるが、車両1の駐車時における入庫方向を考慮して他車両の検出を行う点が異なる。他の構成および処理は第1実施形態と同様なので、その説明を省略すると共に、同一の符号を付す。
 第2実施形態に係る車両用記録装置10では、制御装置100の駐車検出部123は、車両1が駐車したことを検出することに加えて、CANインターフェース220より取得する車両情報に基づいて、車両1が駐車した際における入庫方向を検出する。つまり、駐車検出部123は、車両1が駐車したことを検出した場合において、駐車した位置に入庫する際における車両1の進行方向が、前進しながら入庫したか、後進しながら入庫したかを検出することが可能になっている。
 また、制御装置100の他車両検出部124は、駐車検出部123で検出した、車両1が駐車した際における入庫方向を撮影する撮影部210が撮影した映像データから、他車両を検出する。つまり、第1実施形態では、他車両検出部124は、複数の撮影部210のうち、全ての撮影部210が撮影した映像データから他車両を検出することに対して、第2実施形態では、他車両検出部124は、複数の撮影部210のうち、車両1の入庫方向を撮影する撮影部210が撮影した映像データから他車両を検出する。
 図10は、第2実施形態に係る車両用記録制御装置100における処理の流れを示すフローチャートである。車両1は駐車したと駐車検出部123で判定した場合(ステップS101:Yes判定)、駐車検出部123は、車両1が駐車したときの駐車方向を判断する(ステップS111)。駐車検出部123は、CANインターフェース220より取得する車両情報に基づき、駐車した車両1が駐車をする際に進行していた方向を判断する。つまり、駐車検出部123は、車両1は前進しながら駐車を行ったか、後進しながら駐車を行ったかを判断し、車両1が駐車をした際における入庫方向を検出する。
 次に、制御装置100は、撮影部210のうち、駐車したときの駐車方向を撮影可能な撮影部210が撮影した映像データから近傍他車両を検出したか否かを判定する(ステップS112)。つまり、他車両検出部124は、駐車検出部123で判断した、車両1が駐車をした際における駐車方向を撮影する撮影部210で撮影した映像データに基づいて他車両の検出を行う。この場合、車両1が駐車をした際における駐車方向は、前進方向か後進方向のいずれかであるため、他車両検出部124は、第1撮影部211である、前方カメラ212または後方カメラ213で撮影した映像データに基づいて、他車両の検出を行う。
 例えば、図6に示すように、車両1が駐車区画Pに対して後進しながら駐車を行う場合、駐車検出部123は、車両1は後進しながら駐車を行ったと判断をする。この場合、他車両検出部124は、車両1が駐車した際の駐車方向である後方を撮影する撮影部210である、後方カメラ213で撮影した映像データに基づいて、他車両の検出を行う。即ち、車両1は後進しながら駐車を行ったと駐車検出部123で判断した場合は、他車両検出部124は、車両1の後方を撮影する後方カメラ213を駐車方向カメラと定め、駐車方向カメラと定められた後方カメラ213で撮影した映像データに基づいて、他車両の検出を行う。詳しくは、他車両検出部124は、後方カメラ213が駐車方向カメラと定められた場合には、車両1が駐車したときから所定時間前までの間に後方カメラ213で撮影した映像データから、他車両の検出を行う。
 なお、駐車検出部123で、車両1は前進しながら駐車を行ったと判断した場合は、他車両検出部124は、車両1の前方を撮影する前方カメラ212を駐車方向カメラと定め、駐車方向カメラと定められた前方カメラ212で撮影した映像データに基づいて、他車両の検出を行う。また、駐車方向カメラとして定められる撮影部210は、車両1が出庫した際にリセットされ、次回の駐車を行った際に、駐車の方向に応じて改めて定められる。
 駐車方向カメラで撮影した映像データから、駐車したときの車両1の近傍に存在する他車両を他車両検出部124で検出した場合(ステップS112:Yes判定)、駐車方向カメラの他車両映像を一時保存する(ステップS113)。記録制御部126は、複数の撮影部210のうち、駐車検出部123が検出した車両1の入庫方向を撮影する撮影部210が撮影した映像データから他車両検出部124で他車両を検出した映像データを、他車両映像データとして一時保存する。例えば、後方カメラ213が駐車方向カメラと定められた場合において、後方カメラ213で撮影した映像データから他車両検出部124により他車両を検出したときは、記録制御部126は、他車両が検出された後方カメラ213の映像データを、他車両映像データとして扱う旨の設定を行い、一時保存する。
 次に、制御装置100は、イベント検出部125によって、車両1に対するイベントを検出したか否かを判定する(ステップS104)。この判定により、イベント検出部125が、車両1に対してイベントが発生したことを検出した場合(ステップS104:Yes判定)、イベントに起因した所定期間の映像および、ステップS113で一時保存された他車両映像を関連付けて保存する(ステップS105)。
<効果>
 上述したように、第2実施形態では、駐車検出部123は、車両1が駐車した際における入庫方向を検出し、他車両検出部124は、車両1の入庫方向を撮影する撮影部210が撮影した映像データから、車両1の近傍に存在する他車両を検出する。記録制御部126は、このように他車両を検出した映像データを他車両映像データとして一時保存し、さらに、他車両映像データとイベント映像データとを、関連付けて保存する。このため、車両1の駐車時に車両1の近傍に存在する他車両を検出する際の検出精度を低下させることなく、撮影部210が撮影した映像データから他車両を検出する際における、制御装置100の演算処理を低減させることができる。これにより、車両1の駐車時における消費電力をより確実に抑えつつ、イベント映像データと他車両映像データとを関連付けて保存することができる。この結果、より適切に車両1の駐車中のイベントに関係する他車両を特定可能な映像の記録を行うことができる。
[第3実施形態]
 第3実施形態に係る車両用記録装置10は、第1実施形態に係る車両用記録装置10と同様の構成であるが、車両1の左右側方に備えられた第2撮影部216で撮影した映像データより他車両の検出を行う点が異なる。他の構成および処理は第1実施形態と同様なので、その説明を省略すると共に、同一の符号を付す。
 第3実施形態に係る車両用記録装置10では、車両1を駐車する際における車両1の近傍に存在する他車両の検出は、車両1の左右側方に備えられた第2撮影部216で撮影した映像データより行う。つまり、第1実施形態では、他車両検出部124は、複数の撮影部210のうち、全ての撮影部210が撮影した映像データから他車両を検出するが、第3実施形態では、他車両検出部124は、複数の撮影部210のうち、第2撮影部216が撮影した映像データから他車両を検出する。
 図11は、第3実施形態に係る車両用記録制御装置100における処理の流れを示すフローチャートである。車両1は駐車したと駐車検出部123で判定した場合(ステップS101:Yes判定)、駐車したときに左右側方カメラ映像から近傍他車両を検出したか否かを判定する(ステップS121)。
 つまり、映像データ取得部120が取得した映像データに基づいて他車両の検出を行う他車両検出部124は、映像データ取得部120が取得した第2撮影部216が撮影した映像データから、他車両を検出する。詳しくは、第2撮影部216は、車両1の左側方を撮影する左側方カメラ217と、車両1の右側方を撮影する右側方カメラ218とを有しているため、他車両検出部124は、左側方カメラ217で撮影した映像データと、右側方カメラ218で撮影した映像データとに基づいて他車両の検出を行う。これにより、例えば、図5に示すような、車両同士を並列に駐車する駐車場に車両1を駐車した際に、自己の車両1の隣に駐車されている他車両を適切に検出することができる。
 車両1の左右側方を撮影する左右側方カメラである第2撮影部216で撮影した映像データから、駐車したときの車両1の近傍に存在する他車両を他車両検出部124で検出した場合(ステップS121:Yes判定)は、左右側方カメラの他車両映像を一時保存する(ステップS122)。他車両映像の一時保存は、制御装置100が有する記録制御部126で行う。記録制御部126は、第2撮影部216が有する左側方カメラ217で撮影した映像データと、右側方カメラ218で撮影した映像データとのうち、他車両検出部124で他車両を検出した映像データを、他車両映像データとして一時保存する。
 例えば、左側方カメラ217で撮影した映像データから他車両検出部124により他車両を検出したときは、記録制御部126は、他車両が検出された左側方カメラ217の映像データを、他車両映像データとして一時保存する。同様に、右側方カメラ218で撮影した映像データから他車両検出部124により他車両を検出したときは、記録制御部126は、他車両が検出された右側方カメラ218の映像データを、他車両映像データとして一時保存する。また、左側方カメラ217で撮影した映像データと、右側方カメラ218で撮影した映像データとの双方から他車両検出部124により他車両を検出したときは、記録制御部126は、他車両が検出されたいずれの映像データも他車両映像データとして一時保存する。
 次に、制御装置100は、イベント検出部125によって、車両1に対するイベントを検出したか否かを判定する(ステップS104)。この判定により、イベント検出部125が、車両1に対してイベントが発生したことを検出した場合(ステップS104:Yes判定)、イベントに起因した所定期間の映像および、ステップS122で一時保存された他車両映像を関連付けて保存する(ステップS105)。
 また、ステップS121での判定で、左右側方カメラで撮影した映像データから、駐車したときの車両1の近傍に位置する他車両を他車両検出部124で検出しない場合(ステップS121:No判定)は、イベント検出部125によって、車両1に対するイベントを検出したか否かを判定する(ステップS107)。
<効果>
 上述したように、第3実施形態では、他車両検出部124は、車両1の左右側方に備えられた第2撮影部216が撮影した映像データから、車両1の近傍に存在する他車両を検出する。つまり、車両同士を並列に駐車する駐車場では、車両1の左右側方を撮影する第2撮影部216が撮影した映像データから他車両を検出することにより、自己の車両1の近傍に存在する他車両を効率よく検出することができる。このため、車両1の駐車時に車両1の近傍に存在する他車両を検出する際の検出精度を低下させることなく、撮影部210が撮影した映像データから他車両を検出する際における、制御装置100の演算処理を低減させることができる。これにより、車両1の駐車時における消費電力をより確実に抑えつつ、イベント映像データと他車両映像データとを関連付けて保存することができる。この結果、より適切に車両1の駐車中のイベントに関係する他車両の特定可能な映像の記録を適切に行うことができる。
[第4実施形態]
 第4実施形態に係る車両用記録装置10は、第1実施形態に係る車両用記録装置10と同様の構成であるが、他車両のナンバープレートの検出を行う点が異なる。他の構成および処理は第1実施形態と同様なので、その説明を省略すると共に、同一の符号を付す。
 第4実施形態に係る車両用記録装置10では、車両1の駐車時において車両1の近傍に存在する他車両を検出する際に、他車両に備えられるナンバープレートの検出を行う。つまり、第4実施形態では、他車両検出部124は、映像データ取得部120が取得した映像データから他車両と、他車両のナンバープレートとを検出する。
 図12は、第4実施形態に係る車両用記録制御装置100における処理の流れを示すフローチャートである。車両1は駐車したと駐車検出部123で判定した場合(ステップS101:Yes判定)、駐車したときに近傍他車両のナンバープレートを検出したか否かを判定する(ステップS131)。
 つまり、映像データ取得部120が取得した映像データに基づいて他車両の検出を行う他車両検出部124は、映像データ取得部120が取得した映像データから他車両を検出し、さらに、検出した他車両に取り付けられるナンバープレートの検出を行う。即ち、他車両検出部124は、他車両が検出された映像データにおける他車両をさらに検出し、他車両が検出された映像データ中にナンバープレートが含まれているか否かを検出する。
 駐車したときの車両1の近傍に存在する他車両のナンバープレートを他車両検出部124で検出した場合(ステップS131:Yes判定)、ナンバープレートが検出された他車両映像を一時保存する(ステップS103)。つまり、記録制御部126は、映像データ取得部120が取得した映像データのうち、他車両と共に他車両のナンバープレートが検出された映像データを、他車両映像データとして一時保存する。
 次に、制御装置100は、イベント検出部125によって、車両1に対するイベントを検出したか否かを判定する(ステップS104)。この判定により、イベント検出部125が、車両1に対してイベントが発生したことを検出した場合(ステップS104:Yes判定)は、イベントに起因した所定期間の映像および、ステップS103で一時保存された他車両のナンバープレートが検出された他車両映像を関連付けて保存する(ステップS105)。
 また、ステップS131での判定で、駐車したときの車両1の近傍に位置する他車両のナンバープレートを他車両検出部124で検出しない場合(ステップS131:No判定)は、イベント検出部125によって、車両1に対するイベントを検出したか否かを判定する(ステップS107)。つまり、映像データ取得部120が取得した映像データに基づいて他車両検出部124で他車両の検出を行った際に、他車両を検出できても、他車両のナンバープレートを検出できなかった場合(ステップS131:No判定)は、ステップS107に進み、車両1に対するイベントを検出したか否かの判定を行う。
<効果>
 上述したように、第4実施形態では、他車両検出部124は、映像データ取得部120で取得した映像データから、他車両のみでなく、他車両のナンバープレートの検出も行い、ナンバープレートが検出された映像データを、他車両映像データとして一時保存する。このため、車両1を駐車した際に、車両1の近傍に存在する他車両を、ナンバープレートに記載されている情報に基づいてより確実に特定することができる。これにより、駐車中の車両1にイベントが発生した場合でも、イベント映像データと、ナンバープレートが検出された他車両映像データとを参照することにより、イベントの原因をより確実に特定することができる。即ち、駐車中の車両1に接触した他車両を、他車両映像データに映っているナンバープレートに記載されている情報に基づいて、より確実に特定することができる。この結果、より適切に車両1の駐車中のイベントに関係する他車両を特定可能な映像の記録を適切に行うことができる。
[第5実施形態]
 第5実施形態に係る車両用記録装置10は、第1実施形態に係る車両用記録装置10と同様の構成であるが、車両1の駐車中に車両1の近傍で移動する動体を検出し、検出した動体が他車両Vであることを検出する点が異なる。他の構成および処理は第1実施形態と同様なので、その説明を省略すると共に、同一の符号を付す。
 図13は、第5実施形態に係る車両用記録装置10の構成例を示すブロック図である。第1実施形態に係る車両用記録装置10と同様に、撮影部210と、CANインターフェース220と、加速度センサ230と、記録部250と、操作部260と、表示部270と、GNSS受信部280と、地図情報記憶部290と、制御装置100とを有している。第5実施形態に係る車両用記録装置10では、さらに、動体センサ240を有している。
 動体センサ240は、車両1の近傍で移動する動体の検出に用いるセンサになっており、検出結果を制御装置100の動体検出部132に出力する。動体センサ240は、例えば、車両1の前側のバンパや後ろ側のバンパのそれぞれに複数配置され、車両1の周囲の障害物を超音波により検出する障害物センサが用いられる。動体センサ240は、当該動体センサ240により検出した障害物が、駐車中の車両1に対して相対的に移動していることを検出することにより、車両1の近傍で移動する動体を検出することが可能になっている。
 なお、動体センサ240は、超音波以外の手段により、車両1の近傍で移動する動体を検出するものであってもよい。動体センサ240は、例えば、赤外線等の電磁波を用いて、車両1の近傍で移動する動体を検出可能に構成されていてもよい。また、動体センサ240は、撮影部210を用い、撮影部210が撮影した映像データに基づいて動体を検出してもよい。
 制御装置100は、第1実施形態に係る車両用記録装置10と同様に、バス110に接続された、映像データ取得部120と、バッファメモリ121と、映像データ処理部122と、駐車検出部123と、他車両検出部124と、イベント検出部125と、記録制御部126と、再生制御部127と、操作制御部128と、表示制御部129と、位置情報取得部130と、地図情報取得部131とを有する。第5実施形態に係る車両用記録装置10では、制御装置100は、さらに、動体検出部132を有している。
 動体検出部132は、車両1の駐車中に、車両1の近傍で移動する動体を検出する。動体検出部132は、駐車検出部123により車両1が駐車中であることを検出された状態において、動体センサ240から出力される情報に基づいて、駐車中の車両1の近傍で移動する動体の検出を行う。
<車両用記録装置における処理>
 次に、図14を用いて、制御装置100における処理の流れについて説明する。図14は、第5実施形態に係る車両用記録制御装置100における処理の流れを示すフローチャートである。
 車両用記録装置10が動作している間、図14の処理は、定期的に実行される。図14の処理が開始した場合、制御装置100は、車両1が駐車したか否かの判定を行う(ステップS201)。つまり、制御装置100は、車両用記録装置10を搭載する車両1が駐車したか否か、言い換えると、車両1が駐車していることを、駐車検出部123により判定する。図15は、車両1が駐車した状態を示す説明図である。車両1が、例えば、図15に示すように、任意の駐車区画Pに駐車を行い、駐車のための動作が完了した場合、車速が0km/hになり、制動状態になるようにサイドブレーキが操作され、シフトポジションが「パーキング」の位置に操作される。駐車検出部123は、CANインターフェース220より、車両情報を取得し、CANインターフェース220より取得した車両情報が、これらのように車両1が駐車したことを示す状態であるか否かに基づいて、車両1は駐車したか否かの判定を行う。
 駐車検出部123での判定によって、車両1は駐車していないと判定された場合(ステップS201:No判定)は、制御装置100は、図14の処理を終了し、図14の処理が再度実行開始された際に、ステップS201から再び開始する。
 駐車検出部123での判定によって、車両1が駐車したと駐車検出部123で判定した場合(ステップS201:Yes判定)、駐車監視を開始する(ステップS202)。駐車監視とは、車両1を駐車させた状態において、加速度センサ230と動体センサ240とを作動させることにより、加速度センサ230によりイベントの発生を検出し、動体センサ240により車両1の周囲を移動する動体を検出する。
 次に、制御装置100は、動体検出部132によって、動体を検出したか否かを判定する(ステップS203)。図16は、駐車中の車両1の近傍に動体Mが存在する状態を示す説明図である。例えば、図16に示すように、車両1が駐車をしている駐車区画Pに隣接する区画Pに、他の車両である他車両Vが駐車をしようとする場合、他車両Vは、自己の車両1の近傍を移動する。車両用記録装置10が有する動体センサ240は、車両1の近傍に存在する物体の有無と、車両1の近傍に物体が存在する場合は物体との距離を継続的に検出し、検出結果を動体検出部132に出力する。このため、車両1の近傍に他車両Vが存在する場合、動体センサ240は、他車両Vとの距離を検出し、検出結果を動体検出部132に出力する。また、動体センサ240は、他車両Vとの距離を継続的に検出するため、他車両Vが移動することにより、動体センサ240と他車両Vとの距離が時間の経過と共に変化する場合は、動体センサ240は、変化する他車両Vとの距離を、継続的に動体検出部132に出力する。
 動体センサ240での検出結果を受けた動体検出部132は、動体センサ240から出力された距離が時間の経過と共に変化していることに基づいて、駐車中の車両1の近傍に、車両1に対して相対移動をする動体Mが存在することを検出する。また、動体センサ240は、車両1に複数が配置されているため、複数の動体センサ240によって検出する、車両1の近傍に位置する物体との距離のそれぞれの変化を総合することにより、動体検出部132は、車両1の近傍で移動する動体Mの検出を行う。
 動体検出部132によって動体を検出したと判定された場合(ステップS203:Yes判定)は、動体は近傍他車両であるか否かを判定する(ステップS204)。詳しくは、動体検出部132により動体を検出した場合は、撮影部210での撮影を開始し、映像データを映像データ取得部120で取得する。その際に、映像データ取得部120は、複数の撮影部210が撮影した映像データを取得する。他車両検出部124は、映像データ取得部120で取得した映像データに基づいて、動体は車両1の近傍に存在する他車両であるか否かの検出を行う。つまり、他車両検出部124は、動体検出部132が動体を検出した場合に、検出した動体が車両1の近傍に存在する他車両であることを、映像データ取得部120が取得した複数の映像データより検出する。
 他車両検出部124での他車両の検出は、例えば、車両認識辞書を用いて行う。車両認識辞書は、映像データに映っている動体が車両であることを照合可能な辞書として、制御装置100の内部メモリに予め記憶されている。他車両検出部124は、動体検出部132によって動体を検出することにより、撮影を開始した撮影部210で撮影した複数の映像データを、それぞれ車両認識辞書に照合することにより、映像データより他車両の検出を行う。
 図17は、駐車中の車両1の近傍に位置に他車両Vが停止した状態を示す説明図である。他車両検出部124は、映像データ取得部120が取得した複数の映像データより、他車両Vの検出を行うことにより、例えば、図17に示すように、動体検出部132が検出した動体Mが、車両1の近傍の位置に停止した他車両Vであることを検出する。つまり、車両1の駐車を行う際には車両1を駐車した駐車区画Pに隣接する駐車区画P(図15参照)には、他車両が駐車されておらず、車両1の駐車後に動体Mである他車両Vの駐車が行われ、車両1の近傍の位置に他車両Vが停止した場合、他車両検出部124は、映像データ取得部120が取得した映像データより、他車両Vを検出する。また、車両1の駐車を行う際に、車両1を駐車した駐車区画Pに、他車両が既に駐車されていた場合であって、車両1の駐車中に他車両が出庫し、別の車両が入庫した際も同様に検出される。
 なお、他車両検出部124は、映像データの映像に映った全ての他車両を検出する必要はなく、車両1の近傍に存在する他車両を検出すればよい。他車両検出部124は、特に、車両1の駐車位置に対して駐車位置が隣接する他車両のような、撮影部210で撮影した映像内において、例えば20%以上の面積割合など、所定以上の面積割合を占める他車両を認識するのが好ましい。また、他車両検出部124は、検出した他車両の位置が映像内で停止またはほぼ停止した場合に、検出した他車両が停止したと判断する。
 動体検出部132で検出した動体は、車両1の近傍に存在する他車両であることが他車両検出部124により検出され、動体は他車両であると判定された場合(ステップS204:Yes判定)、他車両映像を一時保存する(ステップS205)。図18は、他車両が検出された際の映像データ300についての説明図である。記録制御部126は、車両1が駐車したことを駐車検出部123で検出した後、映像データ取得部120が取得した映像データ300より、他車両検出部124によって他車両を検出した場合には、他車両が検出された映像データ300を他車両映像データ310として扱う旨の設定を行い、一時保存する。つまり、駐車中の車両1の近傍を移動する動体が検出されることにより、映像データ取得部120で複数の映像データ300を取得した場合において、映像データ300に映った動体が他車両であることを他車両検出部124で検出した場合は、記録制御部126は、他車両が検出された映像データ300を他車両映像データ310として記録部250に一時保存する。これにより、記録制御部126は、複数の撮影部210が撮影した映像データ300のうち、他車両が検出された映像データ300を一時保存する。ここでいう一時保存とは、他車両が検出された際の映像データ300に対して、他車両が検出されているフラグを付与したり、イベント映像データに関連付けられて保存、または一時保存が解除されるまで、上書を禁止するなどの処理がなされる。
 また、車両1の駐車中において、他車両が検出された映像データを他車両映像データとして記録部250に一時保存した後は、撮影部210での撮影は、そのまま継続してもよく、撮影を停止してもよい。図18は、他車両映像データ310を一時保存した後、撮影部210での撮影を停止した場合の概念図として図示している。
 次に、制御装置100は、イベント検出部125によって、車両1に対するイベントを検出したか否かを判定する(ステップS206)。詳しくは、イベント検出部125は、加速度センサ230で検出した加速度が、予め設定された閾値以上であるか否かに基づいて、イベントの発生を検出する。即ち、イベント検出部125は、加速度センサ230が検出した加速度が閾値未満である場合は、車両1に対するイベントは検出しない。一方、イベント検出部125は、加速度センサ230が検出した加速度が閾値以上である場合は、車両1に対して大きな衝撃が発生し、車両1に対してイベントが発生したことを検出する。
 図19は、他車両Vが車両1に接触した状態についての説明図である。駐車中の車両1は、自らは移動しないため、駐車中の車両1に対するイベントとしては、例えば、図19に示すように、他車両Vが車両1に接触することが挙げられる。他車両Vが車両1に接触するケースとしては、例えば、図17に示すような、車両1が駐車した駐車区画Pに隣接する駐車区画Pに駐車されていた他車両Vが、出庫する際に図19に示すように、車両1に接触するケースが考えられる。また、他のケースとしては、例えば、他車両Vが駐車区画Pに対して入庫する際に、図19に示すように、車両1に接触するケースも考えられる。
 イベント検出部125が、車両1に対してイベントが発生したことを検出した場合(ステップS206:Yes判定)、イベントに起因した所定期間の映像および一時保存された他車両映像を関連付けて保存する(ステップS207)。図20は、車両1の駐車中にイベントが検出された際の映像データ300についての説明図である。第5実施形態に係る車両用記録装置10は、イベント検出部125でイベントの発生を検出した場合、撮影部210での撮影を開始し、映像データ300を映像データ取得部120で取得する。つまり、車両用記録装置10は、他車両映像データ310を一時保存した後、撮影部210での撮影を停止するため、撮影部210での撮影の停止中にイベント検出部125でイベントの発生を検出した際には、撮影部210での撮影を再開し、映像データ300を映像データ取得部120で取得する。これにより、車両1の駐車中に発生したイベントを検出した直後の映像データ300を記録することができる。
 また、記録制御部126は、このようにイベントを検出した直後に撮影された映像データ300のうち、イベント発生時から所定期間の映像データ300を、イベント映像データ320として設定して保存する。この場合における所定時間は、車両1に発生したイベントの原因を検証するのに要する時間として想定される時間になっており、例えば、イベント検出から60秒などが設定されている。
 さらに、記録制御部126は、車両1の駐車中にイベント検出部125がイベントを検出した場合、検出したイベントに起因する映像データであるイベント映像データ320と、他車両映像データ310とを関連付けて保存する。具体的には、記録制御部126は、イベント映像データ320の再生を行う際に、他車両映像データ310も容易に再生することができるように、イベント映像データ320と他車両映像データ310とを関連付ける。
 なお、図20は、図18と同様に、車両1が駐車したときに、ループ記録による映像データ300の記録が停止するとともに、他車両を検出したことで一時保存された他車両映像データ310と、イベント検出によって保存されたイベント映像データ320とを概念的に示す図である。記録制御部126は、イベント映像データ320と他車両映像データ310を関連付けて保存する。
 ステップS207の処理が終了した後、駐車検出部123は、駐車が終了したか否かを判定する(ステップS208)。つまり、制御装置100は、車両用記録装置10を搭載する車両1の駐車が終了したか否かを、駐車検出部123により判定する。駐車検出部123は、車両1のエンジン等の動力がオンになり、車両用記録装置10に電力が供給されたことで、駐車が終了したことを判断する。また、駐車検出部123は、CANインターフェース220より車両情報を取得し、シフトポジションが「パーキング」以外の位置に操作されたり、サイドブレーキによる制動状態が解除されたり、車速が0km/hより大きくなったかを判定することにより、車両1の駐車が終了したか否かの判定を行ってもよい。
 駐車検出部123での判定より、車両1の駐車が終了したと判定された場合(ステップS208:Yes判定)、制御装置100は、図14の処理を終了する。この場合、ステップS205で一時保存された他車両映像データは、一時保存が解除され、消去または上書対象となる。また、ステップS205で一時保存された他車両映像データは、イベントが検出されず(ステップS206:No判定)、駐車が終了していない状態で(ステップS208:No判定)、再度、動体が検出された場合(ステップS203:Yes判定)、以前の他車両映像データの一時保存を解除し、新たな他車両映像データを一時保存する。
 また、駐車検出部123での判定より、車両1の駐車が終了していないと判定された場合(ステップS208:No判定)、ステップS203に戻り、動体が検出されたか否かを判定する。
 また、ステップS206での判定で、イベント検出部125が、車両1に対してイベントが発生したことを検出しない場合(ステップS206:No判定)、ステップS208に進み、駐車が終了したか否かを判定する(ステップS208)。
 また、ステップS203での判定で、動体を検出しないと判定される場合(ステップS203:No判定)、または、ステップS204での判定で、検出した動体は車両1の近傍に位置する他車両であるとの検出が行われないと判定される場合(ステップS204:No判定)は、イベント検出部125によって、車両1に対するイベントを検出したか否かを判定する(ステップS209)。つまり、加速度センサ230での加速度の検出結果に基づいて、予め設定された閾値以上であるか否かに基づいて、イベント検出部125によってイベントの発生を検出する。
 イベント検出部125が、車両1に対してイベントが発生したことを検出した場合(ステップS209:Yes判定)は、イベントに起因した所定期間の映像を保存する(ステップS210)。
 ステップS210において、イベント映像データを保存後、駐車検出部123は、駐車が終了したか否かを判定する(ステップS211)。つまり、制御装置100は、車両用記録装置10を搭載する車両1の駐車が終了したか否かを、ステップS208の処理と同様に判定する。
 駐車検出部123での判定より、車両1の駐車が終了したと判定された場合(ステップS211:Yes判定)、制御装置100は、図14の処理を終了する。また、駐車検出部123での判定より、車両1の駐車が終了していないと判定された場合(ステップS211:No判定)、ステップS203に戻り、動体が検出されたか否かを判定する。
 また、ステップS209での判定で、イベント検出部125が、車両1に対してイベントが発生したことを検出しない場合(ステップS209:No判定)、ステップS211に進み、駐車が終了したか否かを判定する(ステップS211)。
<効果>
 上述したように、第5実施形態では、駐車中の車両1の近傍で移動する動体を動体検出部132で検出した際において、検出した動体が、車両1の近傍を移動する他車両であることを、映像データに基づいて他車両検出部124で検出した場合に、他車両が検出された他車両映像データを一時保存する。さらに、他車両映像データを一時保存した後、車両1の駐車中にイベント検出部125がイベントを検出した場合、検出したイベントに起因する映像データであるイベント映像データと、他車両映像データとを関連付けて保存する。これにより、駐車中の車両1にイベントが発生した場合でも、イベント映像データと他車両映像データとを参照することにより、イベントの発生原因となった他車両を特定可能な映像の記録を適切に行うことができる。例えば、駐車中の車両1に対して、他車両が接触することによりイベントが発生した際に、他車両がそのまま走行し、当て逃げをした場合でも、他車両が検出された他車両映像データを参照することにより、当て逃げした他車両を適切に特定することができる。
 また、映像データ取得部120は、複数の撮影部210が撮影した映像データを取得し、記録制御部126は、複数の撮影部210が撮影した映像データのうち、他車両が検出された他車両映像データを一時保存するため、より確実に他車両を検出することができる。つまり、車両1の近傍を移動する動体が検出された際に、車両1の周囲の広い範囲に亘って動体を撮影することができ、車両1の周囲の広い範囲に亘って、他車両の検出を行うことができる。これにより、車両1の駐車中に、車両1に近付いてきた他車両をより確実に検出することができ、イベントが発生した際に、イベントの発生原因となった他車両をより適切に特定することができる。
 また、他車両検出部124は、動体検出部132が検出した動体が、車両1の近傍の位置に停止した他車両であることを検出するため、車両1を駐車した後に、車両1の近傍に駐車した他車両を検出することができる。このため、車両1に接触し易く、イベント発生の原因になり易い車両を、より確実に検出することができる。
[第6実施形態]
 第6実施形態に係る車両用記録装置10は、第5実施形態に係る車両用記録装置10と同様の構成であるが、他車両のナンバープレートの検出を行う点が異なる。他の構成および処理は第5実施形態と同様なので、その説明を省略すると共に、同一の符号を付す。
 第6実施形態に係る車両用記録装置10では、車両1の駐車中に車両1の近傍を移動する動体が、車両1の近傍に存在する他車両であることを検出する際に、他車両に備えられるナンバープレートの検出を行う。つまり、第6実施形態では、他車両検出部124は、映像データ取得部120が取得した映像データから他車両と、他車両のナンバープレートとを検出する。
 図21は、第6実施形態に係る車両用記録制御装置100における処理の流れを示すフローチャートである。
 ステップS204において、動体検出部132で検出した動体は、車両1の近傍に存在する他車両であることが他車両検出部124により検出されることで、動体は他車両であると判定された場合(ステップS204:Yes判定)、近傍他車両のナンバープレートを検出したか否かを判定する(ステップS221)。つまり、映像データ取得部120が取得した映像データに基づいて他車両の検出を行う他車両検出部124は、映像データ取得部120が取得した映像データから他車両を検出し、さらに、他車両に取り付けられるナンバープレートの検出を行う。即ち、他車両検出部124は、他車両が検出された映像データにおける他車両をさらに検出し、他車両が検出された映像データ中にナンバープレートが含まれているか否かを検出する。
 車両1の近傍を移動する他車両のナンバープレートを他車両検出部124で検出した場合(ステップS221:Yes判定)、ナンバープレートが検出された他車両映像を一時保存する(ステップS205)。つまり、記録制御部126は、映像データ取得部120が取得した映像データのうち、他車両と共に他車両のナンバープレートが検出された映像データを、他車両映像データとして一時保存する。
 次に、制御装置100は、イベント検出部125によって、車両1に対するイベントを検出したか否かを判定する(ステップS206)。この判定により、イベント検出部125が、車両1に対してイベントが発生したことを検出した場合(ステップS206:Yes判定)は、イベントに起因した所定期間の映像および、ステップS205で一時保存された他車両映像を関連付けて保存する(ステップS207)。
 また、ステップS203での判定で、動体Mを検出しないと判定される場合(ステップS203:No判定)、または、ステップS204での判定で、検出した動体Mは車両1の近傍に位置する他車両Vであるとの検出が行われないと判定される場合(ステップS204:No判定)、または、ステップS221での判定で、車両1の近傍を移動する他車両Vのナンバープレートを他車両検出部124で検出しない場合(ステップS221:No判定)は、イベント検出部125によって、車両1に対するイベントを検出したか否かを判定する(ステップS209)。つまり、映像データ取得部120が取得した映像データ300に基づいて、動体Mは車両1の近傍に存在する他車両であることを検出できても、他車両のナンバープレートを検出できなかった場合(ステップS221:No判定)は、ステップS209に進み、車両1に対するイベントを検出したか否かの判定を行う。
<効果>
 上述したように、第6実施形態では、他車両検出部124は、映像データ取得部120で取得した映像データから、動体が他車両であることを検出するのみでなく、他車両のナンバープレートの検出も行い、ナンバープレートが検出された映像データを、他車両映像データとして一時保存する。このため、車両1の駐車中に車両1の近傍で移動する他車両を、ナンバープレートに記載されている情報に基づいてより確実に特定することができる。これにより、駐車中の車両1にイベントが発生した場合でも、イベント映像データと、ナンバープレートが検出された他車両映像データとを参照することにより、イベントの原因をより確実に特定することができる。即ち、駐車中の車両1に接触した他車両を、他車両映像データに映っているナンバープレートに記載されている情報に基づいて、より確実に特定することができる。この結果、より適切に車両1の駐車中のイベントに関係する他車両を特定可能な映像の記録を行うことができる。
[第7実施形態]
 第7実施形態に係る車両用記録装置10は、第1実施形態に係る車両用記録装置10と同様の構成であり、保存した映像データの再生方法を特定する点に特徴がある。他の構成は第1実施形態と同様なので、その説明を省略すると共に、同一の符号を付す。
 第7実施形態に係る車両用記録装置10では、第1実施形態から第6実施形態で例示したように、他車両映像データとイベント映像データが関連付けられて保存されている映像データの再生を行う。映像データの再生は、操作部260に対して再生指示の入力操作が行われることにより実行する。
 なお、記録部250に保存された映像データの再生は、車両用記録装置10による再生に加えて、例えば、PC(Personal Computer)等の他の装置により再生を行ってもよい。
 次に、図22を用いて、イベント映像データを再生する際における処理の流れについて説明する。図22は、第7実施形態に係る車両用記録制御装置100における処理の流れを示すフローチャートである。イベント映像データの再生についての処理手順では、再生制御部127は、操作制御部128からイベント映像データの再生指示が有るか否かを判定する(ステップS301)。
 イベント映像データの再生指示が無いと判定された場合(ステップS301:No判定)、制御装置100は、イベント映像データの再生についての処理を終了する。イベント映像データの再生指示が有ると判定された場合(ステップS301:Yes判定)、再生制御部127は、再生指示されたイベント映像データに、他車両映像データが関連付けられているか否かを判定する(ステップS302)。
 再生制御部127での判定により、再生指示があったイベント映像データに他車両映像データが関連付けられていると判定された場合(ステップS302:Yes判定)は、イベント映像データおよび他車両映像データの再生を開始する(ステップS303)。
 ステップS303で開始されるイベント映像データおよび他車両映像データの再生は、例えば、イベント映像データと他車両映像データとを同一画面内で同時に再生したり、イベント映像データと他車両映像データとを連続して再生したりすることにより、双方の映像データを再生する。または、イベント映像データを再生した際に、他車両映像データが存在することを示すことで他車両映像データの再生を促すことにより、他車両映像データの再生を可能とする。
 次に、イベント映像データおよび他車両映像データの再生が終了したか否かを再生制御部127で判定し(ステップS304)、再生が終了していない場合(ステップS304:No判定)、再生が終了するまで再生し続ける。再生の終了とは、イベント映像データおよび他車両映像データの再生が終了することに加えて、ユーザの操作による再生終了も含まれる。
 イベント映像データおよび他車両映像データの再生が終了したと判定された場合(ステップS304:Yes判定)、制御装置100は、イベント映像データの再生についての処理を終了する。
 ステップS302での判定により、再生指示があったイベント映像データに他車両映像データが関連付けられていないと判定された場合(ステップS302:No判定)、イベント映像データの再生を開始する(ステップS305)。
 イベント映像データの再生開始後、再生制御部127は、再生を開始したイベント映像データの再生が終了したか否かを判定し(ステップS304)、再生が終了していない場合(ステップS304:No判定)は、再生が終了するまで再生し続ける。イベント映像データの再生が終了した場合(ステップS304:Yes判定)は、イベント映像データの再生についての処理を終了する。
<効果>
 上述したように、第7実施形態では、車両1の駐車中に検出されたイベントの発生時の映像データであるイベント映像データの再生指示を行った場合、イベント映像データに他車両映像データが関連付けられている場合、イベント映像データに加えて他車両映像データも再生されるため、イベントに関連する他車両を、より適切に特定することができる。この結果、車両1の駐車時における車両用記録装置10の有用性を高めることができる。
 これまで本発明に係る車両用記録装置10について説明したが、上述した第1実施形態~第7実施形態以外にも種々の異なる形態にて実施されてよい。
 図示した車両用記録装置10の各構成要素は、機能概念的なものであり、必ずしも物理的に図示の如く構成されていなくてもよい。即ち、各装置の具体的形態は、図示のものに限られず、各装置の処理負担や使用状況などに応じて、その全部または一部を任意の単位で機能的または物理的に分散または統合してもよい。
 車両用記録装置10の構成は、例えば、ソフトウェアとして、メモリにロードされたプログラムなどによって実現される。上記実施形態では、これらのハードウェアまたはソフトウェアの連携によって実現される機能ブロックとして説明した。すなわち、これらの機能ブロックについては、ハードウェアのみ、ソフトウェアのみ、または、それらの組み合わせによって種々の形で実現できる。
 上記した構成要素には、当業者が容易に想定できるもの、実質的に同一のものを含む。さらに、上記した構成は適宜組み合わせが可能である。また、本発明の要旨を逸脱しない範囲において構成の種々の省略、置換または変更が可能である。
 本実施形態の車両用記録制御装置および車両用記録制御方法は、例えばドライブレコーダに利用することができる。
 1   車両
 10  車両用記録装置
 100 車両用記録制御装置
 110 バス
 120 映像データ取得部
 121 バッファメモリ
 122 映像データ処理部
 123 駐車検出部
 124 他車両検出部
 125 イベント検出部
 126 記録制御部
 127 再生制御部
 128 操作制御部
 129 表示制御部
 130 位置情報取得部
 131 地図情報取得部
 132 動体検出部
 210 撮影部
 211 第1撮影部
 212 前方カメラ
 213 後方カメラ
 216 第2撮影部
 217 左側方カメラ
 218 右側方カメラ
 220 CANインターフェース
 230 加速度センサ
 240 動体センサ
 250 記録部
 260 操作部
 270 表示部
 280 GNSS受信部
 290 地図情報記憶部

Claims (11)

  1.  車両の周囲を撮影する撮影部が撮影した映像データを取得する映像データ取得部と、
     前記車両が駐車したことを検出する駐車検出部と、
     前記映像データ取得部が取得した映像データから他車両を検出する他車両検出部と、
     前記車両に対するイベントを検出するイベント検出部と、
     前記車両が駐車したことを前記駐車検出部で検出した後、前記他車両検出部により他車両が検出された映像データを一時保存し、前記車両の駐車中に前記イベント検出部がイベントを検出した場合、検出したイベントに起因する映像データと他車両が検出された映像データとを関連付けて保存する記録制御部と、
     を備える車両用記録制御装置。
  2.  前記他車両検出部は、前記車両が駐車したことを前記駐車検出部が検出したときに、駐車したときから所定時間前までの映像データから他車両を検出する、
     請求項1に記載の車両用記録制御装置。
  3.  前記映像データ取得部は、撮影方向が異なる複数の前記撮影部が撮影した映像データを取得し、
     前記駐車検出部は、前記車両が駐車した際における入庫方向を検出し、
     前記記録制御部は、複数の前記撮影部のうち前記駐車検出部が検出した入庫方向を撮影する前記撮影部が撮影した映像データから前記他車両検出部で他車両を検出した映像データを一時保存する、
     請求項2に記載の車両用記録制御装置。
  4.  前記撮影部は、前記車両の前方および後方を撮影する第1撮影部と、前記車両の左右側方に備えられた第2撮影部とを備え、
     前記映像データ取得部は、前記第1撮影部が撮影した映像データと、前記第2撮影部が撮影した映像データとをそれぞれ取得し、
     前記他車両検出部は、前記映像データ取得部が取得した前記第2撮影部が撮影した映像データから他車両を検出する、
     請求項2に記載の車両用記録制御装置。
  5.  前記他車両検出部は、前記映像データ取得部が取得した映像データから他車両と、前記他車両のナンバープレートとを検出し、
     前記記録制御部は、前記他車両検出部が他車両と前記他車両のナンバープレートが検出された映像データを一時保存し、検出したイベントに起因する映像データと他車両および前記他車両のナンバープレートが検出された映像データとを関連付けて保存する、
     請求項2または3に記載の車両用記録制御装置。
  6.  さらに前記車両の駐車中に、前記車両の近傍で移動する動体を検出する動体検出部を備え、
     前記他車両検出部は、前記動体検出部が動体を検出した場合に、検出した動体が前記車両の近傍に存在する他車両であることを前記映像データ取得部が取得した映像データより検出する、
     請求項1に記載の車両用記録制御装置。
  7.  前記映像データ取得部は、撮影方向が異なる複数の前記撮影部が撮影した映像データを取得し、
     前記記録制御部は、複数の前記撮影部が撮影した映像データのうち少なくとも他車両が検出された映像データを一時保存する、
     請求項6に記載の車両用記録制御装置。
  8.  前記他車両検出部は、前記映像データ取得部が取得した映像データから他車両と、前記他車両のナンバープレートとを検出し、
     前記記録制御部は、前記他車両検出部が他車両と前記他車両のナンバープレートが検出された映像データを一時保存し、検出したイベントに起因する映像データと他車両および前記他車両のナンバープレートが検出された映像データとを関連付けて保存する、
     請求項6または7に記載の車両用記録制御装置。
  9.  前記他車両検出部は、前記動体検出部が検出した動体が、前記車両の近傍の位置に停止した他車両であることを検出する、
     請求項6または7に記載の車両用記録制御装置。
  10.  前記他車両検出部は、前記動体検出部が検出した動体が、前記車両の近傍の位置に停止した他車両であることを検出する、
     請求項8に記載の車両用記録制御装置。
  11.  車両の周囲を撮影する撮影部が撮影した映像データを取得する映像データ取得ステップと、
     前記車両が駐車したことを検出する駐車検出ステップと、
     前記映像データ取得ステップで取得した映像データから他車両を検出する他車両検出ステップと、
     前記車両に対するイベントを検出するイベント検出ステップと、
     前記車両が駐車したことを前記駐車検出ステップで検出した後、前記他車両検出ステップで他車両が検出された映像データを一時保存し、前記車両の駐車中に前記イベント検出ステップでイベントを検出した場合、検出したイベントに起因する映像データと他車両が検出された映像データとを関連付けて保存する記録制御ステップと、
     を車両用記録制御装置が実行する車両用記録制御方法。
PCT/JP2021/035354 2020-10-30 2021-09-27 車両用記録制御装置および車両用記録制御方法 WO2022091666A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202180058643.XA CN116057588A (zh) 2020-10-30 2021-09-27 车辆用记录控制装置以及车辆用记录控制方法
EP21885785.2A EP4216179A4 (en) 2020-10-30 2021-09-27 VEHICLE RECORDING CONTROL APPARATUS AND VEHICLE RECORDING CONTROL METHOD
US18/302,017 US20230260289A1 (en) 2020-10-30 2023-04-18 On-vehicle recording control device and on-vehicle recording control method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2020182840A JP7512846B2 (ja) 2020-10-30 車両用記録制御装置および車両用記録制御方法
JP2020-182925 2020-10-30
JP2020-182840 2020-10-30
JP2020182925A JP7512847B2 (ja) 2020-10-30 車両用記録制御装置および車両用記録制御方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/302,017 Continuation US20230260289A1 (en) 2020-10-30 2023-04-18 On-vehicle recording control device and on-vehicle recording control method

Publications (1)

Publication Number Publication Date
WO2022091666A1 true WO2022091666A1 (ja) 2022-05-05

Family

ID=81383994

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/035354 WO2022091666A1 (ja) 2020-10-30 2021-09-27 車両用記録制御装置および車両用記録制御方法

Country Status (4)

Country Link
US (1) US20230260289A1 (ja)
EP (1) EP4216179A4 (ja)
CN (1) CN116057588A (ja)
WO (1) WO2022091666A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6828772B2 (ja) * 2019-06-27 2021-02-10 株式会社Jvcケンウッド 記録制御装置、記録装置、記録制御方法、及び記録制御プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009166737A (ja) * 2008-01-17 2009-07-30 Denso Corp 衝突監視装置
JP2015088794A (ja) * 2013-10-28 2015-05-07 株式会社デンソー 車両周辺映像記録システム、ソナー制御装置
JP2019028760A (ja) 2017-07-31 2019-02-21 株式会社Jvcケンウッド 画像記録装置、画像記録方法および画像記録プログラム
JP2019079250A (ja) * 2017-10-24 2019-05-23 株式会社デンソーテン 画像処理装置及び画像処理方法
JP2019080158A (ja) * 2017-10-24 2019-05-23 株式会社デンソーテン 画像処理装置及び画像処理方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3444785A1 (en) * 2017-08-18 2019-02-20 Volvo Car Corporation Method and system for detecting an incident, accident and/or scam of a vehicle
JP6696558B1 (ja) * 2018-12-26 2020-05-20 株式会社Jvcケンウッド 車両用記録制御装置、車両用記録装置、車両用記録制御方法およびプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009166737A (ja) * 2008-01-17 2009-07-30 Denso Corp 衝突監視装置
JP2015088794A (ja) * 2013-10-28 2015-05-07 株式会社デンソー 車両周辺映像記録システム、ソナー制御装置
JP2019028760A (ja) 2017-07-31 2019-02-21 株式会社Jvcケンウッド 画像記録装置、画像記録方法および画像記録プログラム
JP2019079250A (ja) * 2017-10-24 2019-05-23 株式会社デンソーテン 画像処理装置及び画像処理方法
JP2019080158A (ja) * 2017-10-24 2019-05-23 株式会社デンソーテン 画像処理装置及び画像処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4216179A4

Also Published As

Publication number Publication date
EP4216179A4 (en) 2024-03-06
CN116057588A (zh) 2023-05-02
EP4216179A1 (en) 2023-07-26
US20230260289A1 (en) 2023-08-17

Similar Documents

Publication Publication Date Title
WO2020136943A1 (ja) 車両用記録制御装置、車両用記録装置、車両用記録制御方法およびプログラム
JP6693357B2 (ja) 画像記録装置、画像記録方法およびプログラム
WO2020136941A1 (ja) 車両用記録制御装置、車両用記録装置、車両用記録制御方法およびプログラム
WO2022091666A1 (ja) 車両用記録制御装置および車両用記録制御方法
JP6828725B2 (ja) 記録再生装置、記録再生方法、およびプログラム
JP2024069586A (ja) 記録再生制御装置、および記録再生制御方法
JP7259661B2 (ja) 車両用記録制御装置、車両用記録装置、車両用記録制御方法およびプログラム
JP6769504B2 (ja) 車両用記録制御装置、車両用撮影装置、車両用記録制御方法およびプログラム
JP7006815B2 (ja) 記録再生装置、記録再生方法、およびプログラム
JP7512847B2 (ja) 車両用記録制御装置および車両用記録制御方法
US20210337160A1 (en) Recording control device, recording control system, recording control method, and computer program
JP2022073132A (ja) 車両用記録制御装置および車両用記録制御方法
JP2022073072A (ja) 車両用記録制御装置および車両用記録制御方法
JP7512846B2 (ja) 車両用記録制御装置および車両用記録制御方法
JP7351111B2 (ja) 車両用記録制御装置、記録制御方法およびプログラム
JP6959587B2 (ja) 車両用記録制御装置、および車両用記録制御方法
JP7192678B2 (ja) 車両用記録制御装置、記録制御方法およびプログラム
JP7287010B2 (ja) 車両用表示制御装置、車両用撮影装置、車両用表示制御方法およびプログラム
JP7452169B2 (ja) 車両用記録制御装置、車両用記録装置、車両用記録制御方法及びプログラム
JP6787423B2 (ja) 記録再生制御装置、再生制御装置、記録再生方法およびプログラム
WO2021149316A1 (ja) 記録再生制御装置、再生制御装置、表示制御方法およびプログラム
JP2007030815A (ja) ドライブレコーダ
JP2024047113A (ja) 車両用記録制御装置および車両用記録制御方法
JP2022158154A (ja) 車両用記録制御装置
JP2022060202A (ja) 記録再生装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21885785

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021885785

Country of ref document: EP

Effective date: 20230419

NENP Non-entry into the national phase

Ref country code: DE