WO2020194837A1 - 記録制御装置、記録制御方法、およびプログラム - Google Patents

記録制御装置、記録制御方法、およびプログラム Download PDF

Info

Publication number
WO2020194837A1
WO2020194837A1 PCT/JP2019/042899 JP2019042899W WO2020194837A1 WO 2020194837 A1 WO2020194837 A1 WO 2020194837A1 JP 2019042899 W JP2019042899 W JP 2019042899W WO 2020194837 A1 WO2020194837 A1 WO 2020194837A1
Authority
WO
WIPO (PCT)
Prior art keywords
recording
unit
vehicle
event
user
Prior art date
Application number
PCT/JP2019/042899
Other languages
English (en)
French (fr)
Inventor
紘史 谷山
康利 酒井
啓太 林
Original Assignee
株式会社Jvcケンウッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Jvcケンウッド filed Critical 株式会社Jvcケンウッド
Priority to CN201980077282.6A priority Critical patent/CN113168738A/zh
Priority to EP19921236.6A priority patent/EP3951725B1/en
Publication of WO2020194837A1 publication Critical patent/WO2020194837A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/085Registering performance data using electronic data carriers
    • G07C5/0866Registering performance data using electronic data carriers the electronic data carrier being a digital video recorder in combination with video camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection

Definitions

  • the present invention relates to a record control device, a record control method, and a program, and more particularly, to detect an accident of a moving body such as an automobile and appropriately control the recorded data, the record control device, the record control method, and the program. Regarding.
  • Patent Document 1 discloses a drive recorder that constantly records shooting data on a memory card and, when an event is detected, saves shooting data for a predetermined period before and after the occurrence of the event as event recording data. There is.
  • An object of the present invention is to provide a recording control device, a recording control method, and a program with enhanced security in view of the above problems.
  • the recording control device determines a shooting data acquisition unit that acquires shooting data taken by a camera that shoots the surroundings of the vehicle, an event detection unit that detects an event for the vehicle, and a user change of the vehicle.
  • a shooting data acquisition unit that acquires shooting data taken by a camera that shoots the surroundings of the vehicle
  • an event detection unit that detects an event for the vehicle
  • a user change of the vehicle When the user change determination unit and the shooting data acquired by the shooting data acquisition unit are recorded in the recording unit and the event detection unit detects an event, the shooting data corresponding to the event is used as the event recording data in the recording unit.
  • a recording control unit which is stored in the data and erases the shooting data recorded in the recording unit when the user change determination unit determines the change of the user of the vehicle.
  • the recording control method determines a shooting data acquisition step of acquiring shooting data taken by a camera that shoots the surroundings of the vehicle, an event detection step of detecting an event for the vehicle, and a user change of the vehicle.
  • the user change determination step and the shooting data acquired in the shooting data acquisition step are recorded in the recording unit, and when an event is detected by the event detection, the shooting data corresponding to the event is used as the event recording data in the recording unit. It is provided with a recording control step of erasing the shooting data recorded in the recording unit when the change of the user of the vehicle is determined in the user change determination step.
  • the program according to the present invention includes a shooting data acquisition step of acquiring shooting data taken by a camera that shoots the surroundings of a vehicle, an event detection step of detecting an event for the vehicle, and a use for determining a user change of the vehicle.
  • the person change determination step and the shooting data acquired in the shooting data acquisition step are recorded in the recording unit, and when an event is detected by the event detection, the shooting data corresponding to the event is saved in the recording unit as event recording data.
  • the recording control step of erasing the shooting data recorded in the recording unit when the change of the user of the vehicle is determined in the user change determination step is executed on the computer operating as the recording control device. Let me.
  • the security of video data taken by a vehicle or the like can be enhanced.
  • FIG. 1 is a block diagram showing a configuration of a recording device 1 according to a first embodiment of the present invention.
  • the recording device 1 is mounted as a drive recorder on the upper part of the windshield of the vehicle facing the front of the vehicle, detects an impact corresponding to an accident, and stores shooting data for a period including the time of the accident as event recording data.
  • the recording device 1 as a drive recorder is not limited to a device mounted on a vehicle as a single device, but can also be applied to a configuration realized as a function of a navigation device, a configuration pre-mounted on a vehicle, and the like. Further, the recording device 1 may be an integrated device including each configuration shown in FIG. 1, or may be distributed and realized in a plurality of devices.
  • the recording device 1 includes a control unit 100, an imaging unit 10, a recording unit 20, an operation unit 30, a display unit 40, a sensor 50, and a GPS (Global Positioning System) receiving unit 60 as recording control devices. Therefore, the recording control device according to the present invention may be the recording device according to the present invention.
  • the control unit 100 is composed of a single CPU (Central Processing Unit), a GPU (Graphics Processing Unit), a buffer memory 102, etc. that perform various data processing, and executes various processing by a program.
  • the control unit 100 has a bus line 120, a shooting data acquisition unit 101, a shooting data processing unit 103, a recording control unit 104, a reproduction control unit 105, an operation control unit 106, a display control unit 107, and an event detection unit. It includes at least 108, a position information acquisition unit 109, and a user change determination unit 110.
  • each component of the control unit 100 will be described as exchanging shooting data, control signals, and the like via the bus line 120.
  • the control unit 100 is a recording control device that executes the operation according to the present invention in the recording device 1, and executes the recording method according to the present invention. Further, the control unit 100 is a computer that operates the program according to the present invention.
  • the imaging unit 10 is a camera that photographs the periphery of a moving vehicle.
  • the imaging unit 10 may be integrally provided with the recording device 1 as a configuration provided with the recording device 1, or may be connected to the recording device 1 as a separate body by wire or wirelessly. Further, the unit including the imaging unit 10 and the photographing data acquisition unit 101 may be connected to the recording device 1 as a separate body by wire or wirelessly.
  • the image pickup unit 10 includes a lens, an image pickup element, an AD (Analog to Digital) conversion element, and the like.
  • the imaging unit 10 outputs the captured shooting data to the shooting data acquisition unit 101.
  • the shooting data referred to here is video data shot by the imaging unit 10, and may include audio data in addition to the video data.
  • the imaging unit 10 is shown as a single unit, but the imaging unit 10 may be composed of a plurality of cameras.
  • a plurality of cameras of any combination may be used to photograph the front, rear, side, interior of the vehicle, and the like.
  • the range captured by the imaging unit 10 is the periphery of the vehicle, for example, a range of about 180 degrees in the horizontal direction centered on the front of the vehicle photographed by a camera facing the front of the vehicle, or the front of the vehicle.
  • the recording unit 20 is a non-volatile memory for recording the shooting data taken by the imaging unit 10 under the control of the recording control unit 104, for example, a memory card.
  • the shooting data recorded in the recording unit 20 is reproduced under the control of the reproduction control unit 105.
  • the recording unit 20 may be replaced with a separate recording / playback device including a recording control unit 104 and a playback control unit 105 in addition to the recording unit 20.
  • the recording unit 20 may be a memory that cannot be removed from the recording device 1, other than a memory card that can be attached to and detached from the recording device 1, and is a separate device that is connected to the recording device 1 by wire or wirelessly. May be good.
  • the operation unit 30 is an interface for receiving operations on the recording device 1, and outputs the received operation information to the operation control unit 106.
  • the operation unit 30 is various switches and a touch panel, and accepts operations by the user.
  • the operation unit 30 may accept operations from other wirelessly connected devices.
  • the operation unit 30 receives, for example, an operation of starting recording of an event by a user.
  • the operation unit 30 accepts an operation by the user to reproduce the event recorded data.
  • the display unit 40 is a display device that displays various information under the control of the display control unit 107.
  • the display unit 40 includes a display panel such as a liquid crystal panel or an organic EL panel.
  • the display unit 40 may be integrally provided with the recording device 1, or may be connected as a separate body by wire or wirelessly.
  • the display unit 40 may be another device that is wirelessly connected and includes a display control unit 107.
  • the sensor 50 is, for example, an acceleration sensor, and detects the acceleration applied to the recording device 1 or the vehicle.
  • the sensor 50 is, for example, a three-axis acceleration sensor, and detects acceleration applied in the front-rear direction of the vehicle as the x-axis direction, the left-right direction of the vehicle as the y-axis direction, and the vertical direction of the vehicle as the z-axis direction.
  • the sensor 50 outputs the detected acceleration information to the event detection unit 108.
  • the sensor 50 may be integrally provided with the recording device 1, or may be connected as a separate body by wire or wirelessly. Further, the sensor 50 may be a separate unit including the sensor 50 and the event detection unit 108.
  • the GPS receiving unit 60 is a GPS antenna that receives signals from GPS satellites and the like.
  • the GPS receiving unit 60 outputs the received signal to the position information acquisition unit 109.
  • the GPS receiving unit 60 is not limited to GPS, and may be a receiving device of a positioning satellite system of another type.
  • the GPS receiving unit 60 may be integrally provided in the recording device 1, or may be connected as a separate body by wire or wirelessly. Further, the GPS acquisition unit 60 may be a separate body as another device including the GPS acquisition unit 60 and the position information acquisition unit 109.
  • the shooting data acquisition unit 101 acquires the shooting data taken by the imaging unit 10.
  • the shooting data acquisition unit 101 outputs the shooting data acquired from the imaging unit 10 to the buffer memory 102.
  • the buffer memory 102 is an internal memory of the control unit 100 that temporarily stores the shooting data acquired by the shooting data acquisition unit 101. Specifically, the buffer memory 102 temporarily stores the shooting data for a certain period of time acquired by the shooting data acquisition unit 101 while updating it.
  • the shooting data processing unit 103 stores the shooting data temporarily stored in the buffer memory 102, for example, H. It is converted to an arbitrary file format such as MP4 format encoded by an arbitrary codec such as 264 or MPEG-4 (Moving Picture Experts Group).
  • the shooting data processing unit 103 generates shooting data as a file for a certain period of time from the shooting data temporarily stored in the buffer memory 102.
  • the shooting data processing unit 103 generates shooting data temporarily stored in the buffer memory 102 as one file of shooting data for 60 seconds in the recording order.
  • the shooting data processing unit 103 outputs the generated shooting data to the recording control unit 104. Further, the shooting data processing unit 103 outputs the generated shooting data to the display control unit 107.
  • the period of the shooting data generated as a file is set to 60 seconds as an example, but the period is not limited to this.
  • the recording control unit 104 controls the recording unit 20 to record the shooting data filed by the shooting data processing unit 103. During the period when the event detection unit 108 does not detect an event, the recording control unit 104 records the shooting data filed by the shooting data processing unit 103 in the recording unit 20 as overwriteable shooting data. When the recording capacity of the recording unit 20 reaches the upper limit, the recording control unit 104 starts with new shooting data from the recording area in which the old shooting data is recorded among the overwriteable shooting data recorded in the recording unit 20. Overwrite and record.
  • the recording control unit 104 is prohibited from overwriting the shooting data for a predetermined period including the time when the event occurs when the event detection unit 108 determines that the event has occurred, that is, when the event is detected. It is stored in the recording unit 20 as event recording data.
  • the recording control unit 104 may save the shooting data filed by the shooting data processing unit 103 in the recording unit 20 as event recording data for which overwriting is prohibited.
  • the recording control unit 104 may save the current position information at the time of event detection in addition to the event recording data.
  • the method of saving the event record data by the record control unit 104 is arbitrary.
  • an overwrite prohibition flag is added to the header or payload of the section to be overwrite-prohibited in the shooting data, and the data is stored in the recording unit 20.
  • the overwrite-prohibited section of the shooting data is saved in the overwrite-prohibited area of the recording unit 20.
  • the section of the shooting data that is prohibited from being overwritten is transmitted to another device and saved.
  • the recording control unit 104 controls to erase the shooting data recorded in the recording unit 20.
  • the recording control unit 104 erases the shooting data recorded in the recording unit 20.
  • the shooting data to be deleted when the user change determination unit 110 determines that the user of the vehicle has been changed is the shooting data recorded in the recording unit 20 in an overwritable state.
  • the recording control unit 104 may control to erase the shooting data when the event is not detected in the period until the user is changed.
  • the reproduction control unit 105 controls to reproduce the shooting data recorded in the recording unit 20. In addition to reproducing the overwriteable shooting data recorded in the recording unit 20, the reproduction control unit 105 reproduces the event recording data for which overwrite is prohibited, and outputs the data to the display control unit 107.
  • the operation control unit 106 acquires the operation information received by the operation unit 30, and outputs an operation instruction based on the operation information to each component.
  • the operation control unit 106 acquires selection instructions for various data to be reproduced from the operation unit 30, the operation control unit 106 causes the reproduction control unit 105 to select a file or the like recorded in the recording unit 20.
  • the operation control unit 106 obtains an instruction regarding reproduction of various data from the operation unit 30, the operation control unit 106 causes the reproduction control unit 105 to perform processing related to reproduction.
  • the instructions regarding the reproduction of various data are, for example, reproduction start, pause, reproduction stop, enlarged display, and the like.
  • the display control unit 107 controls the display unit 40 to display various information.
  • the display control unit 107 causes the display unit 40 to display the shooting data during shooting by the imaging unit 10.
  • the display control unit 107 causes the display unit 40 to display shooting data such as event recording data stored in the recording unit 20 reproduced by the reproduction control unit 105.
  • the display control unit 107 causes the display unit 40 to display an icon or the like for performing a touch operation.
  • the event detection unit 108 acquires the acceleration information detected by the sensor 50, which is an acceleration sensor, and determines that the event has been detected when the acceleration corresponding to the event is detected. When it is determined that the event has been detected, the event detection unit 108 outputs the information that the event has been detected to the recording control unit 104.
  • the event detection unit 108 detects the acceleration output from the sensor 50, which corresponds to the acceleration when the vehicle collides with another object such as another vehicle, as the acceleration corresponding to the event.
  • the detection of the acceleration corresponding to the event may be weighted in each of the x-axis direction, the y-axis direction, and the z-axis direction. Further, in the detection of the acceleration corresponding to the event, the acceleration at which the acceleration rises sharply may be the detection target.
  • the position information acquisition unit 109 specifies, for example, the current position for each time based on the signal from the GPS satellite received by the GPS reception unit 60, and records the current position information for each time in the record control unit 104 and the user change determination unit. Output to 110.
  • the position information acquisition unit 109 specifies latitude and longitude as the current position information.
  • the position information acquisition unit 109 may receive radio waves such as Wi-Fi (registered trademark) in addition to the signal from the GPS receiving unit 60, and specify the current position by using the position information of the access point and the like. .. Further, the position information acquisition unit 109 is not limited to GPS, and may be compatible with other types of positioning satellite systems.
  • the user change determination unit 110 determines the change of the vehicle user.
  • the user change determination by the user change determination unit 110 assumes that the vehicle is placed at a specific point and an unspecified user uses the vehicle starting from that specific point, and the vehicle is at a specific point. It is determined that the user of the vehicle will be changed by returning to.
  • the vehicle in this case is, for example, a vehicle for car sharing, a business vehicle located at a specific business establishment, or the like. Further, the specific points in this case are parking lots, business establishments, etc., which are arranged for renting vehicles for car sharing.
  • the user change determination unit 110 can refer in advance to the position information of the point where the vehicle is arranged. The position information of the point where the vehicle is arranged is recorded in the internal memory or the like of the recording device 1.
  • the user of the vehicle may not be changed every time the vehicle returns to a specific point such as the office where the vehicle is located, but even in such a case, the user is changed. It may be regarded as.
  • FIG. 2 is a diagram conceptually showing the relationship between shooting data and event data.
  • the horizontal axis of FIG. 2 indicates the passage of time, and indicates that the time has elapsed toward the right.
  • FIG. 2A shows the shooting data acquired by the shooting data acquisition unit 101 from the imaging unit 10 and temporarily stored in the buffer memory 102.
  • the dotted line in FIG. 2A corresponds to the time t-3 to the time t + 2 described on the time axis, and indicates the period for the photographing data processing unit 103 to generate the file. Since the file is not generated in the state of being temporarily stored in the buffer memory 102, it is displayed by a dotted line here.
  • FIG. 2B shows the shooting data recorded by the recording control unit 104 in the recording unit 20 by converting the shooting data temporarily stored in the buffer memory 102 into a file by the shooting data processing unit 103.
  • the shooting data D-3 is shooting data taken between the time t-3 and the time t-2, and is recorded in a file in a state where it can be overwritten by the recording unit 20.
  • the shooting data D-2 is shooting data shot between the time t-2 and the time t-1, and is recorded in a file in a state where it can be overwritten by the recording unit 20.
  • the shooting data shown in FIG. 2B is overwritten with the shooting data before the shooting data D-3, and then the shooting data D ⁇ 3 is overwritten, and then the shooting data D-2 is overwritten.
  • the shooting data in the period from a predetermined time before time T1 which is the event occurrence time to after a predetermined time elapses at time T1 is obtained.
  • the predetermined time is, for example, from 30 seconds before the time T1 which is the event occurrence time to 30 seconds after the time T1, but is not limited thereto.
  • the recording control unit 104 puts the shooting data D-1 in the overwrite prohibition area of the recording unit 20. Save as -1'.
  • the shooting data D-1 is overwritten following the shooting data D-2, but shooting Since the data D-1 is stored as the shooting data D-1'in the overwrite prohibition area of the recording unit 20 as shown in FIG. 2C, the data D-1 is surely stored.
  • the shooting data for the period from time t-1 to time t is filed, and the shooting data D-1'saved in the overwrite prohibition area of the recording unit 20 is event recording data including time T1 at the time of event occurrence. is there.
  • the event recording data is not limited to the shooting data of the period generated as a file including the time when the event occurs.
  • shooting data in a period from a predetermined time before the time T1 which is the event occurrence time to after the predetermined time elapses at the time T1 may be stored as the event recording data.
  • the predetermined time is, for example, 30 seconds, but is not limited to this.
  • saving the event record data is not limited to saving in the overwrite prohibition area of the recording unit 20.
  • a communication function (not shown) may be used to record in a recording unit provided in another device registered in advance.
  • the event recording data may be transmitted to a smartphone owned by the driver or passenger, which is paired with the recording device 1 in advance and communication is established.
  • the event recording data may be transmitted to the driver, a person related to the driver, or a device such as a server owned by an insurance company, a security company, or the like, which is registered in advance in the recording device 1.
  • both the shooting data and the event recording data described above are recorded in association with the position information acquired by the position information acquisition unit 109.
  • the recording process executed by the recording device 1 is executed by the control unit 100 as a computer operating as the recording device 1 based on a program.
  • the function of the control unit 100 may be executed by a plurality of devices or control devices included in the plurality of units in a distributed manner. In that case, the program is also executed in cooperation with each device or each unit.
  • the start of processing means that the recording device 1 can be operated by turning on, for example, the engine or the power supply of the moving vehicle.
  • the start of the process may be started by instructing the operation unit 30 to start the recording / reproduction process.
  • the recording device 1 starts recording the shooting data and detecting the event (step S001).
  • the start of recording the shooting data means that the shooting data acquisition unit 101 acquires the shooting data from the imaging unit 10, the shooting data processing unit 103 files the shooting data, and the recording control unit 104 transfers the shooting data to the recording unit 20. Recording is to be started.
  • the recording of the shooting data in this case is recorded in the recording unit 20 in a state where it can be overwritten, and is also called normal recording or loop recording.
  • the start of event detection means that the event detection unit 108 starts acquiring acceleration information from the sensor 50, and starts detecting an event based on the acquired acceleration information.
  • the event detection unit 108 determines whether or not an event for the vehicle has been detected (step S002).
  • the event detection unit 108 determines that an event has been detected when the acceleration detected by the sensor 50 is, for example, an acceleration corresponding to a collision of an object with a vehicle.
  • the acceleration corresponding to the collision of an object with a vehicle is an acceleration in which the absolute value of the acceleration is equal to or higher than a predetermined threshold value, a steep acceleration in which the absolute value of the acceleration is equal to or higher than a predetermined threshold value, or the like.
  • step S002 When it is determined in step S002 that an event has been detected (step S002: Yes), the recording control unit 104 saves the shooting data including the time when the event detected in step S002 occurs as event recording data (step S002). S003).
  • the recording control unit 104 stores the shooting data including the time when the event occurs in the overwrite prohibition area of the recording unit 20, for example, as shown in FIG.
  • step S002 If it is determined in step S002 that no event has been detected (step S002: No), the process proceeds to step S004.
  • the user change determination unit 110 determines whether or not there is a user change of the vehicle (step). S004). Specifically, the user change determination unit 110 matches or predetermined both position information based on the current position information acquired from the position information acquisition unit 109 and the position information of a specific point recorded in advance. It determines whether the vehicle is within range, in other words, whether the vehicle has returned or reached a particular point.
  • the term "within a predetermined range" means that the difference between the position information of a specific point recorded in advance and the current position is, for example, less than about 10 m.
  • step S004 the user change determination unit 110 determines that the vehicle user has changed, and determines the current position information acquired from the position information acquisition unit 109 and the position information of a specific point recorded in advance. In addition to determining whether the numbers match or are within the predetermined range, it may be added on condition that the vehicle has stopped. The judgment of stopping the vehicle may be made by not changing the current position information acquired from the position information acquisition unit 109 or by acquiring gear selection information, side brake operation information, etc. from the vehicle using an interface (not shown). Good.
  • the position information of a specific point where it is determined that there is a change in the user of the vehicle in step S004 is, for example, a position where the vehicle is arranged for car sharing shared by an unspecified number of people, in other words. And, it is a point for renting or returning the vehicle.
  • the position information of a specific point where it is determined that there is a change in vehicle user in step S004 does not have to be one place. For example, if there are multiple business establishments for renting or returning vehicles for car sharing, and the rented point and the returning point are different points, multiple points are recorded as specific points. ..
  • the point at which the vehicle for car sharing is rented or returned can be arbitrarily set by the vehicle user. For example, when a user who is using a vehicle sets a point and time at which the vehicle is scheduled to be returned, for example, in a parking lot of an arbitrary store, and another user reserves a vehicle for rent at that time and point. Is.
  • step S004 determines in step S004 that there is no change in the user of the vehicle, specifically, the current position information and the position information of the specific point recorded in advance match or If it is not within the predetermined range (step S004: No), the process proceeds to step S002.
  • step S004 determines in step S004 that there is a user change of the vehicle, specifically, the current position information and the position information of the specific point recorded in advance match or When it is within the predetermined range (step S004: Yes), the recording control unit 104 erases the shooting data recorded in the recording unit 20 (step S005), and ends this process.
  • step S004 Since the user change in step S004 is determined by whether or not the vehicle has returned to a specific point or has reached a specific point, it is regarded as a user change even if the next user does not exist. .. In other words, it is a judgment as to whether or not the use by the user has ended. That is, if it is determined in step S004 that the use by the user has ended (step S004: Yes), the process proceeds to step S005, and if it is not determined that the use by the user has ended (step S004: No), the step It changes to S002.
  • step S005 a process of ending the recording of the shooting data and the detection of the event started in step S001 may be added before erasing the shooting data.
  • the shooting data is deleted after the recording of the shooting data and the detection of the event are completed in step S005, it is preferable that the vehicle is stopped.
  • the shooting data may be deleted on condition that the event is not detected during the period until the user is changed. This is because if the event is not detected during the period until the user is changed, there is no problem in deleting the shooting data when the vehicle is returned.
  • the period until the user change is determined to be Yes in step S004 by the next user using the vehicle after the shooting data is deleted by returning the vehicle after another user has used the vehicle. Is the period until. Further, the period until the user change may be the period from the start of the process shown in FIG. 3, that is, from the start of the use of the vehicle to the time when it is determined to be Yes in step S004.
  • the shooting data erased in step S005 is the shooting data recorded in the recording unit 20 in an overwritable state. If the event is detected in the period until the user is changed and the event recording data is saved in the recording unit 20, neither the shooting data nor the event recording data recorded in the overwriteable state is deleted. This may be the case, and the shooting data recorded in an overwriteable state except for the event recording data may be deleted. This is because if an event is detected during the period until the user change, at least the vehicle manager needs to check the event record data.
  • the event recording data stored in the recording unit 20 may be reproducible or eraseable only by the vehicle manager by a password or an existing authentication technique.
  • the recording device 1 can enhance the security of the video data taken by the vehicle or the like. Specifically, even if the user of the vehicle is changed, it is possible to prevent the video data taken while the other user is using the vehicle from being reproduced or copied by the other user or the like. ..
  • FIGS. 4 and 5 a second embodiment of the present invention will be described with reference to FIGS. 4 and 5.
  • the contents common to the configuration and processing of the recording device according to the first embodiment will not be described.
  • FIG. 4 is a block diagram showing the configuration of the recording device 1A according to the second embodiment of the present invention.
  • the recording device 1A further includes vehicle information I / F 70, which is different from the recording device 1 according to the first embodiment.
  • the control unit 100A according to the second embodiment of the present invention is different from the control unit 100 according to the first embodiment in that the user change determination unit 110A is provided in place of the user change determination unit 110.
  • the vehicle information I / F 70 is an interface for the recording device 1A to acquire information from the vehicle and transmit it to the user change determination unit 110A.
  • the vehicle information I / F 70 is an interface for acquiring information on a smart key for unlocking and using the vehicle from the vehicle, and is, for example, a CAN (Controller Area Network) interface.
  • the vehicle information I / F70 is an interface that can acquire user information, ID, and the like of a smartphone when the vehicle can be unlocked and used by operation with a smartphone that can be used as a pre-registered smart key. ..
  • the user change determination unit 110A determines the change of the vehicle user.
  • the user change determination unit 110A unlocks or starts using the vehicle with different users or smart keys with different IDs based on the information about the smart key acquired via the vehicle information I / F70. By doing so, it is determined that the user of the vehicle has been changed.
  • the recording process executed by the recording device 1A is executed by the control unit 100A as a computer operating as the recording device 1A based on a program.
  • the start of processing is a state in which the trigger for starting the processing is not specifically specified, but at least the vehicle is not in use and is waiting for the start of use of the vehicle.
  • the user change determination unit 110A uses the vehicle information I / F70 to perform the user information such as the smart key, the ID, or the like. To get.
  • the process of FIG. 5 is started based on the start of use of the vehicle.
  • the user change determination unit 110A acquires user information such as a smart key, an ID, and the like via the vehicle information I / F70.
  • the user change determination unit 110A determines whether or not user information such as a smart key, an ID, or the like has been acquired (step S101). If it is determined in step S101 that user information such as a smart key, ID, or the like has not been acquired (step S101: No), the process of step S101 is executed again. When it is determined in step S101 that the user information or ID of the smart key or the like has been acquired (step S101: Yes), the user change determination unit 110A receives the acquired user information or ID of the smart key or the like. , Whether or not it matches the user information and ID of the smart key etc. acquired last time, in other words, whether the current user is different from the previous user based on the user information and ID etc. of the smart key etc. It is determined whether or not (step S102). The determination in step S101 may be added on condition that the vehicle is stopped, in addition to the determination as to whether or not the user information or the like has been acquired.
  • step S102 when it is determined that the current user is not a different user from the previous user, that is, the current user is the same as the previous user (step S102: No), the recording device 1A uses the shooting data. Recording and event detection are started (S104). That is, when the current user is the same as the previous user, the recording of the shooting data and the detection of the event are started without erasing the shooting data recorded in the recording unit 20.
  • step S102 when it is determined that the current user is different from the previous user (step S102: Yes), the recording control unit 104 erases the shooting data recorded in the recording unit 20 (step S102: Yes).
  • Step S103 recording of shooting data and detection of an event are started (step S104).
  • step S105 and step S106 in FIG. 5 are the same as steps S002 and S003 in FIG. 3, description thereof will be omitted.
  • step S107 the recording device 1A determines whether or not to end the recording of the shooting data and the detection of the event started in step S104 (step S107).
  • the determination in step S107 is determined by the user change determination unit 110A acquiring that the use of the vehicle has been completed and that the vehicle has been locked.
  • the determination in step S107 is that both position information match or are within a predetermined range based on the current position information acquired from the position information acquisition unit 109 and the position information of a specific point recorded in advance. It may be added as a condition.
  • step S107 If it is determined in step S107 that the recording of shooting data and the detection of the event are not completed (step S107: No), the process proceeds to step S105. If it is determined in step S107 that the recording of the shooting data and the detection of the event are finished (step S107: Yes), this process is finished.
  • step S102 the determination as to whether or not the current user is the same as the previous user is performed even when the user information such as the smart key or the ID acquired by the user change determination unit 110A is different. , When multiple smart keys, etc. are registered by the same user, even if the smart keys, etc. are changed by the same contractor, the previous user and the current user will be the same user. It may be that.
  • the recording device 1A can enhance the security of the video data taken by the vehicle or the like. Specifically, even if the user of the vehicle is changed, it is possible to prevent the video data taken while the other user is using the vehicle from being reproduced or copied by the other user or the like. ..
  • FIGS. 6 and 7 a third embodiment of the present invention will be described with reference to FIGS. 6 and 7.
  • the contents common to the configuration and processing of the recording device according to the first embodiment will not be described.
  • FIG. 6 is a block diagram showing the configuration of the recording device 1B according to the third embodiment of the present invention.
  • the recording device 1B is different from the recording device 1 according to the first embodiment in that it includes a first imaging unit 10A and a second imaging unit 10B instead of the imaging unit 10.
  • the control unit 100B according to the third embodiment of the present invention is different from the control unit 100 according to the first embodiment in that it includes a shooting data acquisition unit 101B instead of the shooting data acquisition unit 101, and determines a user change.
  • a user change determination unit 110B is provided in place of the unit 110.
  • the control unit 100B includes a recognition processing unit 111.
  • the first imaging unit 10A is the same as the imaging unit 10 according to the first embodiment, and is a camera of various forms that photographs the periphery of a vehicle that is a moving body.
  • the second imaging unit 10B is a camera that photographs the driver's face of the vehicle, and is arranged in the vehicle interior so as to face the driver's face.
  • the second imaging unit 10B may be either a camera that captures visible light or a camera that captures infrared light.
  • the second imaging unit 10B may include an infrared light irradiation unit that irradiates infrared light toward the face of the driver of the vehicle.
  • the shooting data acquisition unit 101B acquires the shooting data taken by the first imaging unit 10A and the second imaging unit 10B.
  • the imaging data acquisition unit 101B acquires the imaging data acquired from the first imaging unit 10A as the first imaging data, and acquires the imaging data acquired from the second imaging unit 10B as the second imaging data.
  • the recognition processing unit 111 recognizes a human face from the second shooting data acquired by the shooting data acquisition unit 101B.
  • the recognition processing unit 111 detects a human face from the second captured data, and detects characteristic parts such as eyes, nose, and mouth in the range of the detected human face.
  • the recognition processing unit 111 outputs the detected parameters of the size ratio and the positional relationship of the feature parts such as eyes, nose, and mouth to the user change determination unit 110B as the face recognition result.
  • the user change determination unit 110B determines the change of the vehicle user.
  • the user change determination unit 110B determines that the user of the vehicle has been changed based on the face recognition result of recognizing the face of the driver of the vehicle recognized by the recognition processing unit 111.
  • the user change determination unit 110B acquires the face recognition result of the person sitting in the driver's seat of the vehicle from the recognition processing unit 111 at an arbitrary timing such as every time the vehicle is stopped or every time the power of the vehicle is stopped. ..
  • the face recognition result acquired from the recognition processing unit 111 indicates that the user is the same person
  • the user change determination unit 110B determines that the user of the vehicle has not been changed and indicates that the person is a different person. If so, it is determined that the user of the vehicle has changed.
  • Any known method can be applied to the face recognition process by the recognition processing unit 111 and the person identity determination process by the user change determination unit 110B.
  • the recording process executed by the recording device 1B is executed by the control unit 100B as a computer operating as the recording device 1B based on a program. Since the processing of steps S203 to S207 in FIG. 7 is the same as the processing of steps S103 to S107 in FIG. 5, the description thereof will be omitted.
  • the user change determination unit 110B acquires face information from the recognition processing unit 111 (step S201).
  • the recognition processing unit 111 recognizes the face of a person sitting in the driver's seat of the vehicle. Therefore, if the face information cannot be obtained by the process of step S201, no person is seated in the driver's seat. In such a case, you may wait until this process is completed or face information is acquired. Further, the user change determination unit 110B stores the acquired face information in an internal memory, a recording unit 20, or the like (not shown).
  • the user change determination unit 110B After acquiring the face information in step S201, the user change determination unit 110B compares the most recently stored face information with the face information acquired in step S201, and whether or not the user is different from the previous one. In other words, it is determined whether or not the driver is different from the previous driver (step S202). The determination in step S202 determines whether or not the person is the same person from the ratio of the sizes of the feature portions of the facial feature portions acquired from the recognition processing unit 111 and the similarity of the positional relationship parameters.
  • step S202 if it is determined that the current user is not a different user from the previous user, that is, the current user is the same as the previous user (step S202: No), the process proceeds to step S203. If it is determined in step S202 that the current user is different from the previous user (step S202: Yes), the process proceeds to step S204.
  • the recording device 1B can enhance the security of the video data taken by the vehicle or the like. Specifically, even if the user of the vehicle is changed, it is possible to prevent the video data taken while the other user is using the vehicle from being reproduced or copied by the other user or the like. ..
  • the present invention is not limited to the above-described embodiment, and can be appropriately modified without departing from the spirit.
  • Each of the above-described embodiments includes substantially the same embodiment and can be appropriately combined.
  • the program for causing the computer to execute the above-described processing can be stored using various types of non-transitory computer-readable media and supplied to the computer operating as a recording device.

Abstract

本発明にかかる記録装置(1)は、車両の周辺を撮影するカメラ(10)が撮影した撮影データを取得する撮影データ取得部(101)と、車両に対するイベントを検出するイベント検出部(108)と、車両の利用者変更を判断する利用者変更判断部(110)と、撮影データ取得部(101)が取得した撮影データを記録部(20)に記録し、イベント検出部(108)がイベントを検出した場合、イベントに対応する撮影データをイベント記録データとして記録部(20)に保存し、利用者変更判断部(110)が車両の利用者の変更を判断したことで記録部(20)に記録された撮影データを消去する、記録制御部(104)と、を備える。

Description

記録制御装置、記録制御方法、およびプログラム
 本発明は、記録制御装置、記録制御方法、およびプログラムに関し、特に詳しくは、自動車などの移動体の事故を検出して記録したデータを適切に制御する、記録制御装置、記録制御方法、およびプログラムに関する。
 車両に対する衝撃を検出して検出時点の前後所定期間の映像データを含む撮影データをイベント記録データとして保存するドライブレコーダが普及している。例えば、特許文献1には、メモリカードに撮影データを常時記録し、イベントが検出された場合に、イベントの発生時点の前後所定期間の撮影データをイベント記録データとして保存するドライブレコーダが開示されている。
特開2019-028763号公報
 上述の特許文献1のドライブレコーダなどが、例えばカーシェア用の車両など、不特定の利用者が利用する車両において用いられると、事前に利用した他人の走行状況が記録された撮影データが再生されてしまう可能性がある。
 本発明は、上記問題に鑑み、セキュリティ性を高めた、記録制御装置、記録制御方法、およびプログラムを提供することを目的とする。
 本発明に係る記録制御装置は、車両の周囲を撮影するカメラが撮影した撮影データを取得する撮影データ取得部と、前記車両に対するイベントを検出するイベント検出部と、前記車両の利用者変更を判断する利用者変更判断部と、前記撮影データ取得部が取得した撮影データを記録部に記録し、前記イベント検出部がイベントを検出した場合、イベントに対応する撮影データをイベント記録データとして前記記録部に保存し、前記利用者変更判断部が前記車両の利用者の変更を判断したことで前記記録部に記録された撮影データを消去する、記録制御部と、を備える。
 本発明に係る記録制御方法は、車両の周囲を撮影するカメラが撮影した撮影データを取得する撮影データ取得ステップと、前記車両に対するイベントを検出するイベント検出ステップと、前記車両の利用者変更を判断する利用者変更判断ステップと、前記撮影データ取得ステップで取得した撮影データを記録部に記録し、前記イベント検出でイベントが検出された場合、イベントに対応する撮影データをイベント記録データとして前記記録部に保存し、前記利用者変更判断ステップで前記車両の利用者の変更が判断されたことで前記記録部に記録された撮影データを消去する、記録制御ステップと、を備える。
 本発明に係るプログラムは、車両の周囲を撮影するカメラが撮影した撮影データを取得する撮影データ取得ステップと、前記車両に対するイベントを検出するイベント検出ステップと、前記車両の利用者変更を判断する利用者変更判断ステップと、前記撮影データ取得ステップで取得した撮影データを記録部に記録し、前記イベント検出でイベントが検出された場合、イベントに対応する撮影データをイベント記録データとして前記記録部に保存し、前記利用者変更判断ステップで前記車両の利用者の変更が判断されたことで前記記録部に記録された撮影データを消去する、記録制御ステップと、を記録制御装置として動作するコンピュータに実行させる。
 本発明によれば、車両等で撮影した映像データのセキュリティ性を高めることができる。
本発明の第1実施形態に係る記録装置の構成を示すブロック図である。 本発明の第1実施形態に係る撮影データとイベント記録データとの関係を概念的に示す図である。 本発明の第1実施形態に係る記録装置の処理例を示すフローチャートである。 本発明の第2実施形態に係る記録装置の構成を示すブロック図である。 本発明の第2実施形態に係る記録装置の処理例を示すフローチャートである。 本発明の第7実施形態に係る記録装置の構成を示すブロック図である。 本発明の第7実施形態に係る記録装置の処理例を示すフローチャートである。
 以下、図面を参照して、本発明の実施の形態について説明する。なお、以下の説明では、本実施の形態にかかる記録装置の例として、移動体である自動車において用いられるドライブレコーダの例として説明するが、本発明はこれに限られるものではない。例えば、オートバイ、自転車などの各種車両、鉄道、船舶、ロボット、さらには人など様々な移動体に対して適用することが可能である。また、以下の実施形態により本発明が限定されるものではない。
 以下、図1から図3を参照して、本発明の第1実施形態を説明する。図1は、本発明の第1実施形態に係る記録装置1の構成を示すブロック図である。記録装置1は、ドライブレコーダとして、車両のウィンドシールド上部に車両の前方を向いて装着され、事故に相当する衝撃を検出して事故発生時を含む期間の撮影データをイベント記録データとして保存する。ドライブレコーダとしての記録装置1は、単体の装置として車両に装着されるものに限らず、ナビゲーション装置の機能として実現される構成や、車両に予め装着されている構成などにも適用可能である。また、記録装置1は、図1に示す各構成を含んだ一体型の装置であってもよく、複数の装置に分散されて実現されてもよい。
 図1において、記録装置1は、記録制御装置としての制御部100、撮像部10、記録部20、操作部30、表示部40、センサ50、GPS(Global Positioning System)受信部60を備える。従って、本発明にかかる記録制御装置は、本発明にかかる記録装置としてもよい。
 制御部100は、各種データ処理を行う単数または複数のCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、バッファメモリ102などで構成され、プログラムによって様々な処理を実行する。制御部100は、その構成および機能として、バスライン120、撮影データ取得部101、撮影データ処理部103、記録制御部104、再生制御部105、操作制御部106、表示制御部107、イベント検出部108、位置情報取得部109、利用者変更判断部110を少なくとも備える。以下、制御部100の各構成要素は、撮影データや制御信号などを、バスライン120を経由して授受することとして説明する。
 制御部100は、記録装置1における本発明にかかる動作を実行する記録制御装置であり、本発明にかかる記録方法を実行する。また、制御部100は、本発明にかかるプログラムを動作させるコンピュータである。
 撮像部10は、移動体である車両の周辺を撮影するカメラである。撮像部10は、記録装置1が備える構成として記録装置1に一体的に備えられていてもよく、記録装置1と有線または無線を用いて別体として接続されていてもよい。また、撮像部10および撮影データ取得部101を含むユニットが、有線または無線により別体として記録装置1に接続されていてもよい。
 撮像部10には、図示しないが、レンズ、撮像素子、A-D(Analog to Digital)変換素子等が含まれる。撮像部10は、撮影した撮影データを、撮影データ取得部101に出力する。ここでいう撮影データとは、撮像部10が撮影した映像データであり、映像データに加えて音声データを含むこととしてもよい。
 図1においては、撮像部10は単数として示したが、撮像部10は複数のカメラで構成されていてもよい。例えば、車両の前方、後方、側方、車室内などを各々撮影する任意の組合せの複数のカメラであってもよい。
 撮像部10が撮影する範囲は、車両の周辺であり、例えば、車両の前方を向いたカメラが撮影する車両の前方を中心とした水平方向で約180度前後の範囲、または、車両の前方を撮影するカメラと車両の後方を撮影するカメラの組み合わせで、車両の前方および後方を中心とした水平方向で各々約180度前後の範囲の組み合わせ、さらには、車両の前後左右方向を撮影する複数のカメラが撮影する車両の周囲などである。
 記録部20は、撮像部10が撮影した撮影データを、記録制御部104の制御によって記録するための不揮発性メモリであり、例えばメモリカードである。記録部20に記録された撮影データは、再生制御部105の制御によって再生される。記録部20は、記録部20に加えて記録制御部104および再生制御部105を備える別体の記録再生装置と置き換えてもよい。記録部20は、記録装置1に対して着脱可能なメモリカード以外に、記録装置1から取り外しできないメモリであってもよく、記録装置1と有線または無線により接続される別体の装置であってもよい。
 操作部30は、記録装置1に対する操作を受け付けるインターフェースであり、受け付けた操作情報を操作制御部106に出力する。操作部30は、各種スイッチやタッチパネルであり、ユーザによる操作を受け付ける。操作部30は、無線接続された他の装置からの操作を受け付けてもよい。操作部30は、例えば、ユーザによるイベントの記録開始の操作を受け付ける。また、操作部30は、ユーザによるイベント記録データの再生を行う操作を受け付ける。
 表示部40は、表示制御部107の制御により各種情報を表示する表示装置である。表示部40は、例えば液晶パネルや有機ELパネルなどの表示パネルを備える。表示部40は、記録装置1に一体的に備えられていてもよく、有線または無線により別体として接続されていてもよい。表示部40は、無線により接続され表示制御部107を備える他の装置であってもよい。
 センサ50は、例えば加速度センサであり、記録装置1または車両に加わった加速度を検出する。センサ50は、例えば3軸の加速度センサであり、x軸方向として車両の前後方向、y軸方向として車両の左右方向、z軸方向として車両の上下方向に加わった加速度を検出する。センサ50は、検出した加速度情報をイベント検出部108に出力する。センサ50は、記録装置1に一体的に備えられていてもよく、有線または無線により別体として接続されていてもよい。また、センサ50は、センサ50およびイベント検出部108を含むユニットとして別体であってもよい。
 GPS受信部60は、GPS衛星等からの信号を受信するGPSアンテナである。GPS受信部60は、受信した信号を位置情報取得部109に出力する。GPS受信部60は、GPSに限らず、他の方式の測位衛星システムの受信装置などであってもよい。GPS受信部60は、記録装置1に一体的に備えられていてもよく、有線または無線により別体として接続されていてもよい。また、GPS取得部60は、GPS取得部60および位置情報取得部109含む他の装置として別体であってもよい。
 撮影データ取得部101は、撮像部10が撮影した撮影データを取得する。撮影データ取得部101は、撮像部10から取得した撮影データを、バッファメモリ102へ出力する。
 バッファメモリ102は、撮影データ取得部101が取得した撮影データを一時的に記憶する制御部100の内部メモリである。具体的には、バッファメモリ102は、撮影データ取得部101が取得した一定時間分の撮影データを、更新しながら一時的に記憶する。
 撮影データ処理部103は、バッファメモリ102が一時的に記憶している撮影データを、例えばH.264やMPEG-4(Moving Picture Experts Group)などの任意の方式のコーデックで符号化された、例えばMP4形式などの任意のファイル形式に変換する。撮影データ処理部103は、バッファメモリ102が一時的に記憶している撮影データから、一定時間分のファイルとした撮影データを生成する。具体例として、撮影データ処理部103は、バッファメモリ102が一時的に記憶している撮影データを、記録順に60秒間の撮影データを1ファイルとして生成する。撮影データ処理部103は、生成した撮影データを記録制御部104へ出力する。また、撮影データ処理部103は、生成した撮影データを表示制御部107へ出力する。ファイルとして生成される撮影データの期間は、一例として60秒としたが、これには限定されない。
 記録制御部104は、撮影データ処理部103でファイル化された撮影データを、記録部20に記録させる制御を行う。記録制御部104は、イベント検出部108がイベントを検出していない期間は、撮影データ処理部103でファイル化された撮影データを、上書き可能な撮影データとして、記録部20に記録する。記録制御部104は、記録部20の記録容量が上限となった場合、記録部20に記録されている上書き可能な撮影データのうち、古い撮影データが記録されている記録領域から、新しい撮影データを上書きして記録する。
 記録制御部104は、イベント検出部108が、イベントが発生したと判断したことを受けて、つまり、イベントが検出された場合、イベント発生時点を含む所定の期間の撮影データを、上書きが禁止されたイベント記録データとして記録部20に保存する。記録制御部104は、撮影データ処理部103でファイル化された撮影データを上書きが禁止されたイベント記録データとして記録部20に保存してもよい。記録制御部104は、イベント記録データに加えて、イベント検出時の現在位置情報を保存してもよい。
 記録制御部104によるイベント記録データの保存方法は任意である。例えば、撮影データにおける上書き禁止とする区間のヘッダもしくはペイロードなどに上書き禁止フラグを付与して、記録部20に保存する。または、撮影データにおける上書き禁止とする区間を、記録部20の上書き禁止エリアに保存する。あるいは、撮影データにおける上書き禁止とする区間を他の装置に送信して保存する。
 記録制御部104は、記録部20に記録された撮影データを消去する制御を行う。記録制御部104は、利用者変更判断部110が車両の利用者が変更されたと判断した場合、記録部20に記録された撮影データを消去する。記録制御部104は、利用者変更判断部110が車両の利用者が変更されたと判断した場合に消去する撮影データは、記録部20において上書き可能な状態で記録されている撮影データである。記録制御部104は、利用者が変更されるまでの期間にイベントが検出されていない場合に、撮影データを消去する制御を行うこととしてもよい。
 再生制御部105は、記録部20に記録された撮影データを再生する制御を行う。再生制御部105は、記録部20に記録された、上書き可能な撮影データの再生に加えて、上書き禁止となっているイベント記録データの再生を行い、表示制御部107に出力する。
 操作制御部106は、操作部30が受け付けた操作情報を取得し、操作情報に基づいた操作指示を、各構成要素に出力する。操作制御部106は、操作部30から再生対象となる各種データの選択指示を取得した場合、再生制御部105に記録部20に記録されているファイルなどを選択させる。操作制御部106は、操作部30から各種データの再生に関する指示を取得した場合、再生制御部105に再生に関する処理を行わせる。各種データの再生に関する指示とは、例えば、再生開始、一時停止、再生停止、拡大表示などである。
 表示制御部107は、表示部40に対し、様々な情報を表示させる制御を行う。例えば、表示制御部107は、撮像部10が撮影中の撮影データを表示部40に表示させる。また、表示制御部107は、再生制御部105によって再生された記録部20に保存されているイベント記録データ等の撮影データを表示部40に表示させる。また、表示制御部107は、表示部40が操作部30としてのタッチパネル機能を備えている場合、タッチ操作を行うアイコンなどを表示部40に表示させる。
 イベント検出部108は、加速度センサであるセンサ50が検出している加速度情報を取得し、イベントに該当する加速度が検出された場合、イベントが検出されたと判断する。イベント検出部108は、イベントが検出されたと判断された場合、記録制御部104にイベントが検出された情報を出力する。
 イベント検出部108は、センサ50から出力された加速度が、車両と、例えば他の車両などの他の物体が衝突したときの加速度に該当する加速度を、イベントに該当する加速度として検出する。イベントに該当する加速度の検出は、x軸方向、y軸方向およびz軸方向の各々で重み付けを行ってもよい。また、イベントに該当する加速度の検出は、加速度の立ち上がりが急峻な加速度を検出対象としてもよい。
 位置情報取得部109は、例えば、GPS受信部60が受信したGPS衛星からの信号に基づき、時刻毎の現在位置を特定し、時刻毎の現在位置情報を記録制御部104および利用者変更判断部110に出力する。位置情報取得部109は、現在位置情報として、緯度経度を特定する。位置情報取得部109は、GPS受信部60からの信号に加えて、Wi-Fi(登録商標)などの電波を受信し、アクセスポイントの位置情報などを併用して現在位置を特定してもよい。また、位置情報取得部109は、GPSに限らず、他の方式の測位衛星システムに対応していてもよい。
 利用者変更判断部110は、車両の利用者の変更を判断する。利用者変更判断部110による利用者の変更判断は、車両が特定の地点に配置され、その特定の地点を起点として不特定の利用者が車両を利用することを前提とし、車両が特定の地点に戻ったことによって、車両の利用者が変更されることを判断する。この場合の車両は、例えば、カーシェア用の車両、特定の事業所に配置されている営業車などである。また、この場合の特定の地点とは、カーシェア用の車両を貸し出すために配置されている駐車場、事業所などである。利用者変更判断部110は、車両が配置されている地点の位置情報を予め参照可能となっている。車両が配置されている地点の位置情報は、記録装置1の内部メモリ等に記録されている。
 例えば、営業車などは、車両が配置されている事業所など特定の地点に戻る毎に車両の利用者が変更されない場合もあるが、このような場合であっても、利用者が変更されるとみなすこととしてもよい。
 次に、図2を用いて、第一撮影データとイベント記録データとの関係を説明する。図2は、撮影データとイベントデータとの関係を概念的に示す図である。図2の横軸は時間の経過を示しており、右方向に向けて時間が経過していることを示す。
 図2(a)は、撮影データ取得部101が撮像部10から取得して、バッファメモリ102に一時的に記憶している撮影データを示している。図2(a)の点線は、時間軸に記載された時刻t-3から時刻t+2に対応しており、撮影データ処理部103がファイルを生成するための期間を示している。バッファメモリ102に一時的に記憶されている状態では、ファイルは生成されていないため、ここでは点線で表示する。
 図2(b)は、撮影データ処理部103が、バッファメモリ102に一時的に記憶している撮影データをファイル化して、記録制御部104が記録部20に記録した撮影データを示している。例えば、撮影データD-3は、時刻t-3から時刻t-2の間に撮影された撮影データであり、ファイル化されて記録部20に上書き可能な状態で記録されている。また、撮影データD-2も同様に、時刻t-2から時刻t-1の間に撮影された撮影データであり、ファイル化されて記録部20に上書き可能な状態で記録されている。
 例えば、記録部20の記録容量が上限となった場合、図2(b)に示されている撮影データにおいては、撮影データD-3の前の撮影データが上書きされ、その次に撮影データD―3が上書きされ、その次に撮影データD-2が上書きされる。
 例えば、時刻t-1から時刻tまでの間の時刻T1でイベントが検出された場合、イベント発生時刻である時刻T1の所定時間前から時刻T1の所定時間経過後までの期間における撮影データを、イベント記録データとして保存する。所定時間とは、例えば、イベント発生時刻である時刻T1の30秒前から時刻T1の30秒後までなどであるが、これに限定はされない。
 一例としては、時刻t-1から時刻tまでの間の時刻T1でイベントが検出された場合、記録制御部104は、撮影データD-1を、記録部20の上書き禁止エリアにイベント記録データD-1´として保存する。
 例えば、記録部20の記録容量が上限となった場合、図2(b)に示されている撮影データにおいては、撮影データD-1は撮影データD-2に続き上書きされてしまうが、撮影データD-1は、図2(c)に示すように記録部20の上書き禁止エリアに撮影データD-1´として保存されているため、確実に保存される。
 時刻t-1から時刻tまでの期間の撮影データがファイル化され、記録部20の上書き禁止エリアに保存された撮影データD-1´は、イベント発生時点である時刻T1を含むイベント記録データである。イベント記録データは、イベント発生時点を含むファイルとして生成された期間の撮影データに限定されない。イベント記録データは、例えば、イベント発生時刻である時刻T1の所定時間前から時刻T1の所定時間経過後までの期間における撮影データを、イベント記録データとして保存することとしてもよい。所定時間とは、例えば30秒などであるが、これに限定はされない。
 また、イベント記録データの保存は、記録部20の上書き禁止エリアへの保存に限らない。例えば、図示しない通信機能を用いて、予め登録された他の装置が備える記録部に記録することとしてもよい。具体例としては、記録装置1と予めペアリングされ通信が確立されている、運転者や同乗者の保有するスマートフォンへ、イベント記録データを送信してもよい。または、記録装置1に予め登録されている、運転者や運転者の関係者、さらには、保険会社や安全保障会社などが保有するサーバ等の装置へ、イベント記録データを送信してもよい。
 上述した、撮影データおよびイベント記録データのいずれにおいても、位置情報取得部109が取得した位置情報を対応付けて記録されることが好ましい。
 次に、図3を用いて、記録装置1が実行する記録処理の流れについて説明する。記録装置1が実行する記録処理は、記録装置1として動作するコンピュータとしての制御部100が、プログラムに基づき実行する。制御部100の機能は、複数の装置または複数のユニットが備える制御装置が分散して実行してもよい。その場合、プログラムも装置毎、またはユニット毎に連携して実行される。
 図3で、処理の開始とは、例えば、移動体である車両のエンジンまたは電源等がオンとなることで、記録装置1が動作可能となることである。処理の開始は、操作部30において記録再生処理の開始が指示されることによって開始されてもよい。
 処理の開始に伴い、記録装置1は、撮影データの記録とイベントの検出を開始する(ステップS001)。撮影データの記録の開始とは、撮影データ取得部101による撮像部10からの撮影データの取得、撮影データ処理部103による撮影データのファイル化、記録制御部104による撮影データの記録部20への記録が開始されることである。この場合の撮影データの記録は、記録部20に上書き可能な状態で記録され、通常記録またはループ記録とも呼ばれる。また、イベントの検出開始とは、イベント検出部108がセンサ50からの加速度情報の取得を開始し、取得した加速度情報に基づいてイベントの検出を開始することである。
 また、図3に示す各処理が実行されている間は、撮影データの記録、加速度情報の取得によるイベント検出、位置情報取得部109による現在位置情報の特定は継続して実行されている。
 ステップS001で、撮影データの記録およびイベントの検出が開始されると、イベント検出部108は、車両に対するイベントが検出されたか否かを判断する(ステップS002)。イベント検出部108は、センサ50が検出した加速度が、例えば、車両に対する物体の衝突に該当するような加速度である場合に、イベントが検出されたと判断する。車両に対する物体の衝突に該当するような加速度とは、加速度の絶対値が所定の閾値以上の加速度である場合や、加速度の絶対値が所定の閾値以上の立ち上がりの急峻な加速度などである。
 ステップS002において、イベントが検出されたと判断された場合(ステップS002:Yes)、記録制御部104は、ステップS002で検出されたイベントの発生時点を含む撮影データを、イベント記録データとして保存する(ステップS003)。記録制御部104は、イベントの発生時点を含む撮影データを、例えば、図2に示すように、記録部20の上書き禁止エリアに保存する。
 ステップS002において、イベントが検出されていないと判断された場合(ステップS002:No)、ステップS004に推移する。
 ステップS003において、イベント記録データが保存された場合、または、ステップS002において、イベントが検出されていない場合、利用者変更判断部110は、車両の利用者変更があるか否かを判断する(ステップS004)。具体的には、利用者変更判断部110は、位置情報取得部109から取得した現在位置情報と、予め記録されている特定の地点の位置情報とに基づいて、双方の位置情報が一致または所定範囲内となったか否か、言い換えると、車両が特定の地点に戻ったか否か、または到達したか否かを判断する。所定範囲内とは、予め記録されている特定の地点の位置情報と、現在位置との差が例えば10m未満程度の場合に所定範囲内とする。
 ステップS004においては、利用者変更判断部110は、車両の利用者変更があるとする判断として、位置情報取得部109から取得した現在位置情報と、予め記録されている特定の地点の位置情報とが一致または所定範囲内となったかの判断に加え、車両が停止したことを条件として加えてもよい。車両の停止の判断は、位置情報取得部109から取得する現在位置情報の変化がないことや、図示しないインターフェースにより車両から、ギヤ選択情報やサイドブレーキ動作情報等を取得することで判断してもよい。
 ステップS004で車両の利用者変更があると判断される特定の地点の位置情報とは、例えば、車両が不特定多数の人により共有されるカーシェアのために配置されている位置であり、言い換えると、車両の貸し出しまたは返却を行うための地点である。
 ステップS004で車両の利用者変更があると判断される特定の地点の位置情報とは、1箇所ではなくともよい。例えば、カーシェア用の車両の貸し出しまたは返却を行うための事業所などが複数あり、貸し出しした地点と返却する地点とが異なる地点である場合は、特定の地点として複数の地点が記録されている。
 また、カーシェア用の車両の貸し出しまたは返却を行う地点は、車両のユーザが任意に設定することも可能である。例えば、車両を利用中のユーザがその車両を返却する予定の地点と時刻を、例えば任意の店舗の駐車場などに設定し、他のユーザがその時刻および地点で車両の貸し出しを予約する場合などである。
 ステップS004において、利用者変更判断部110が、車両の利用者変更がないと判断した場合、具体的には、現在位置情報と、予め記録されている特定の地点の位置情報とにが一致または所定範囲内ではない場合(ステップS004:No)、ステップS002に推移する。ステップS004において、利用者変更判断部110が、車両の利用者変更があると判断した場合、具体的には、現在位置情報と、予め記録されている特定の地点の位置情報とにが一致または所定範囲内となった場合(ステップS004:Yes)、記録制御部104は、記録部20に記録されている撮影データを消去して(ステップS005)、本処理を終了する。
 ステップS004における利用者変更とは、車両が特定の地点に戻ったか否か、または到達したか否かにより判断されるため、次の利用者が存在しない場合であっても、利用者変更とみなす。言い換えると、利用者による利用が終了したか否かの判断である。つまり、ステップS004で、利用者による利用が終了したと判断された場合(ステップS004:Yes)、ステップS005に推移し、利用者による利用が終了したと判断されない場合(ステップS004:No)、ステップS002に推移する。
 ステップS005の処理においては、撮影データの消去前に、ステップS001で開始された撮影データの記録およびイベントの検出を終了する処理を加えてもよい。ステップS005において、撮影データの記録およびイベントの検出を終了してから撮影データの消去を行う場合、車両が停止していることを条件とすることが好ましい。
 ステップS005の処理においては、利用者変更までの期間、イベントが検出されていないことを条件として、撮影データが消去されることとしてもよい。利用者変更までの期間、イベントが検出されていない場合は、車両の返却時に撮影データが消去されることに支障がないためである。利用者変更までの期間とは、他の利用者が車両を利用後に車両を返却することで撮影データが消去されてから、次の利用者が車両を利用してステップS004でYesと判断されるまでの期間である。また、利用者変更までの期間とは、図3に示す処理が開始されてから、つまり車両の利用が開始されてから、ステップS004でYesと判断されるまでの期間としてもよい。
 ステップS005で消去される撮影データは、記録部20に記録されている上書き可能な状態で記録されている撮影データである。利用者変更までの期間にイベントが検出されることで、記録部20にイベント記録データが保存されている場合は、上書き可能な状態で記録されている撮影データおよびイベント記録データのいずれも消去しないこととしてもよく、イベント記録データを除く上書き可能な状態で記録されている撮影データを消去することとしてもよい。利用者変更までの期間にイベントが検出されている場合は、少なくとも車両の管理者がイベント記録データを確認する必要があるためである。記録部20に保存されたイベント記録データは、パスワードや既存の認証技術によって、車両の管理者のみが再生、または消去可能としてもよい。
 このような処理によって、記録装置1は、車両等で撮影された映像データのセキュリティ性を高めることができる。具体的には、車両の利用者の変更があっても、他の利用者が車両を利用中に撮影された映像データが、他の利用者等によって再生、複写等が行われることを防止する。
 次に、図4および図5を参照して、本発明の第2実施形態を説明する。第2実施形態に係る記録装置の構成や処理において、第1実施形態に係る記録装置の構成や処理と共通する内容は、説明を省略する。
 図4は、本発明の第2実施形態に係る記録装置1Aの構成を示すブロック図である。記録装置1Aは、第1実施形態に係る記録装置1と異なる点として、車両情報I/F70をさらに備える。また、本発明の第2実施形態に係る制御部100Aは、第1実施形態に係る制御部100と異なる点として、利用者変更判断部110に代えて利用者変更判断部110Aを備える。
 車両情報I/F70は、記録装置1Aが車両からの情報を取得して、利用者変更判断部110Aに送信するためのインターフェースである。
 車両情報I/F70は、車両の解錠や利用を行うためのスマートキーに関する情報を車両から取得するためのインターフェースであり、例えばCAN(Controller Area Network)インターフェースである。車両情報I/F70は、例えば、車両が予め登録されたスマートキーとして利用可能なスマートフォンによる操作で解錠や利用が可能である場合、スマートフォンの利用者情報やID等が取得可能なインターフェースである。
 利用者変更判断部110Aは、車両の利用者の変更を判断する。利用者変更判断部110Aによる利用者の変更判断は、車両情報I/F70を介して取得したスマートキーに関する情報に基づき、異なる利用者や異なるIDのスマートキーによって車両の解錠や利用開始されたことにより、車両の利用者が変更されたことを判断する。
 次に、図5を用いて、記録装置1Aが実行する記録処理の流れについて説明する。記録装置1Aが実行する記録処理は、記録装置1Aとして動作するコンピュータとしての制御部100Aが、プログラムに基づき実行する。
 図5で、処理の開始とは、具体的に処理を開始するトリガを特定しないが、少なくとも車両が利用されていない状態で、車両の利用開始を待機している状態である。この状態で、車両に対してスマートキー等によって利用開始または解錠の操作が行われると、利用者変更判断部110Aは、車両情報I/F70を介してスマートキー等の利用者情報やID等を取得する。または、図5の処理は、車両の利用開始に基づき処理が開始される。車両の利用が開始されると、利用者変更判断部110Aは、車両情報I/F70を介してスマートキー等の利用者情報やID等を取得する。
 先ず、利用者変更判断部110Aは、スマートキー等の利用者情報やID等が取得されたか否かを判断する(ステップS101)。ステップS101において、スマートキー等の利用者情報やID等が取得されていないと判断された場合(ステップS101:No)、ステップS101の処理を再度実行する。ステップS101において、スマートキー等の利用者情報やID等が取得されたと判断された場合(ステップS101:Yes)、利用者変更判断部110Aは、取得したスマートキー等の利用者情報やID等が、前回取得したスマートキー等の利用者情報やID等と一致するか否か、言い換えると、スマートキー等の利用者情報やID等に基づいて、今回の利用者が前回の利用者と異なるか否かを判断する(ステップS102)。ステップS101の判断は、利用者情報等が取得されたか否かの判断に加えて、車両が停止していることを条件として加えてもよい。
 ステップS102において、今回の利用者が前回の利用者と異なる利用者ではない、つまり今回の利用者が前回の利用者と同一と判断した場合(ステップS102:No)、記録装置1Aは、撮影データの記録とイベントの検出を開始する(S104)。つまり、今回の利用者が前回の利用者と同一である場合は、記録部20に記録されている撮影データの消去を行わずに撮影データの記録とイベントの検出が開始される。ステップS102において、今回の利用者が前回の利用者と異なると判断した場合(ステップS102:Yes)、記録制御部104が、記録部20に記録されている撮影データの消去をおこなった上で(ステップS103)、撮影データの記録とイベントの検出が開始される(ステップS104)。
 図5におけるステップS105およびステップS106は、図3におけるステップS002およびステップS003と同一であるため、説明は省略する。
 ステップS105がNoの場合、またはステップS106の後、記録装置1Aは、ステップS104で開始された撮影データの記録とイベントの検出を終了するか否かを判断する(ステップS107)。ステップS107の判断は、車両の利用が終了したことや車両の施錠が行われたことを利用者変更判断部110Aが取得して判断される。ステップS107の判断は、位置情報取得部109から取得した現在位置情報と、予め記録されている特定の地点の位置情報とに基づいて、双方の位置情報が一致または所定範囲内となったことを条件として加えてもよい。
 ステップS107において、撮影データの記録とイベントの検出を終了しないと判断された場合(ステップS107:No)、ステップS105に推移する。ステップS107において、撮影データの記録とイベントの検出を終了すると判断された場合(ステップS107:Yes)、本処理を終了する。
 ステップS102における、今回の利用者が前回の利用者と同一であるか否かの判断は、利用者変更判断部110Aが取得したスマートキー等の利用者情報やID等が異なる場合であっても、同一の利用者によって複数のスマートキー等が登録されている場合、同一の契約者によるスマートキー等の変更があっても、前回の利用者と今回の利用者とは同一の利用者とすることとしてもよい。
 このような処理によって、記録装置1Aは、車両等で撮影された映像データのセキュリティ性を高めることができる。具体的には、車両の利用者の変更があっても、他の利用者が車両を利用中に撮影された映像データが、他の利用者等によって再生、複写等が行われることを防止する。
 次に、図6および図7を参照して、本発明の第3実施形態を説明する。第3実施形態に係る記録装置の構成や処理において、第1実施形態に係る記録装置の構成や処理と共通する内容は、説明を省略する。
 図6は、本発明の第3実施形態に係る記録装置1Bの構成を示すブロック図である。記録装置1Bは、第1実施形態に係る記録装置1と異なる点として、撮像部10に代えて第一撮像部10Aおよび第二撮像部10Bを備える。また、本発明の第3実施形態に係る制御部100Bは、第1実施形態に係る制御部100と異なる点として、撮影データ取得部 101に代えて撮影データ取得部101Bを備え、利用者変更判断部110に代えて利用者変更判断部110Bを備える。また、制御部100Bは、認識処理部111を備える。
 第一撮像部10Aは、第1実施形態に係る撮像部10と同様であり、移動体である車両の周辺を撮影する、様々な形態のカメラである。
 第二撮像部10Bは、車両の運転者の顔を撮影するカメラであり、車室内に運転者の顔の方向を向いて配置される。第二撮像部10Bは、可視光を撮影するカメラまたは赤外光を撮影するカメラのいずれであってもよい。第二撮像部10Bが、赤外光を撮影するカメラである場合は、車両の運転者の顔に向けて赤外光を照射する赤外光照射部を備えていてもよい。
撮影データ取得部101Bは、第一撮像部10Aおよび第二撮像部10Bが撮影した撮影データを取得する。撮影データ取得部101Bが、第一撮像部10Aから取得した撮影データを第一撮影データとして取得し、第二撮像部10Bから取得した撮影データを第二撮影データとして取得する。
 認識処理部111は、撮影データ取得部101Bが取得した第二撮影データから人の顔を認識する。認識処理部111は、第二撮影データから人の顔を検出し、検出した人の顔の範囲における、目、鼻、口等の特徴部を検出する。認識処理部111は、検出した目、鼻、口等の特徴部の大きさの比や位置関係のパラメータを、顔認識結果として利用者変更判断部110Bに出力する。
 利用者変更判断部110Bは、車両の利用者の変更を判断する。利用者変更判断部110Bによる利用者の変更判断は、認識処理部111が認識した、車両の運転者の顔を認識した顔認識結果に基づき、車両の利用者が変更されたことを判断する。利用者変更判断部110Bは、例えば、車両の停止毎や、車両の動力停止毎などの任意のタイミングで、認識処理部111から車両の運転席に着座している人物の顔認識結果を取得する。利用者変更判断部110Bは、認識処理部111から取得した顔認識結果が同一人物であることを示している場合、車両の利用者が変更されていないと判断し、異なる人物であることを示している場合、車両の利用者が変更されたと判断する。
 認識処理部111による顔認識処理、利用者変更判断部110Bによる人物の同一性判断処理は、公知の任意の手法が適用可能である。
 次に、図7を用いて、記録装置1Bが実行する記録処理の流れについて説明する。記録装置1Bが実行する記録処理は、記録装置1Bとして動作するコンピュータとしての制御部100Bが、プログラムに基づき実行する。図7におけるステップS203からステップS207の処理は、図5におけるステップS103からステップS107の処理と同一であるため、説明を省略する。
 先ず、利用者変更判断部110Bは、認識処理部111から顔情報を取得する(ステップS201)。認識処理部111は、車両の運転席に着座している人物の顔を認識する。このため、ステップS201の処理で顔情報が取得できない場合は、運転席に人物が着座してない。このような場合、本処理を終了するか、顔情報が取得されるまで待機していてもよい。また、利用者変更判断部110Bは、取得した顔情報を、図示しない内部メモリや記録部20などに記憶する。
 ステップS201で顔情報を取得した後、利用者変更判断部110Bは、直近に記憶された顔情報と、ステップS201で取得した顔情報とを比較し、前回とは異なる利用者であるか否か、言い換えると、前回の運転者とは異なる運転者であるか否かを判断する(ステップS202)。ステップS202の判断は、認識処理部111から取得した顔の特徴部の特徴部の大きさの比や位置関係のパラメータの類似度から、同一人物であるか否かを判断する。
 ステップS202において、今回の利用者が前回の利用者と異なる利用者ではない、つまり今回の利用者が前回の利用者と同一と判断した場合(ステップS202:No)、ステップS203に推移する。ステップS202において、今回の利用者が前回の利用者と異なると判断した場合(ステップS202:Yes)、ステップS204に推移する。
 このような処理によって、記録装置1Bは、車両等で撮影された映像データのセキュリティ性を高めることができる。具体的には、車両の利用者の変更があっても、他の利用者が車両を利用中に撮影された映像データが、他の利用者等によって再生、複写等が行われることを防止する。
 なお、本発明は上述した実施形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。上述した各々の実施形態は、実質的に同一の形態を含み、適宜組み合わせることも可能である。また、上述した処理をコンピュータに実行させるためのプログラムは、様々なタイプの非一時的なコンピュータ可読媒体を用いて格納され、記録装置として動作するコンピュータに供給することができる。
 この出願は、2019年3月27日に出願された日本出願特願2019-60184及び2019年9月20日に出願された日本出願特願2019-171779を基礎とする優先権を主張し、その開示の全てをここに取り込む。
1、1A、1B 記録装置
10 撮像部
10A 第一撮像部
10B 第二撮像部
20 記録部
30 操作部
40 表示部
50 センサ
60 GPS受信部
70 車両情報I/F
100、100A、100B 制御部(記録制御装置)
101 撮影データ取得部
102 バッファメモリ
103 撮影データ処理部
104 記録制御部
105 再生制御部
106 操作制御部
107 表示制御部
108 イベント検出部
109 位置情報取得部
110、110A、110B 利用者変更判断部
111 認識処理部
120 バスライン

Claims (9)

  1.  車両の周辺を撮影するカメラが撮影した撮影データを取得する撮影データ取得部と、
     前記車両に対するイベントを検出するイベント検出部と、
     前記車両の利用者変更を判断する利用者変更判断部と、
     前記撮影データ取得部が取得した撮影データを記録部に記録し、前記イベント検出部がイベントを検出した場合、イベントに対応する撮影データをイベント記録データとして前記記録部に保存し、前記利用者変更判断部が前記車両の利用者の変更を判断したことで前記記録部に記録された撮影データを消去する、記録制御部と、
     を備える、記録制御装置。
  2.  前記記録制御部は、利用者変更までの期間にイベントが検出されていない場合、前記利用者変更判断部が前記車両の利用者の変更を判断したことで前記記録部に記録した撮影データを消去する、
     請求項1に記載の記録制御装置。
  3.  前記記録制御部は、利用者変更までの期間にイベントが検出されている場合、前記利用者変更判断部が前記車両の利用者の変更を判断したことで前記記録部に保存したイベント記録データを除く撮影データを消去する、
     請求項1または2に記載の記録制御装置。
  4.  前記利用者変更判断部は、前記車両の位置情報に基づいて利用者変更を判断する、
     請求項1から3のいずれか1項に記載の記録制御装置。
  5.  前記利用者変更判断部は、前記車両が、前記車両の貸し出しまたは返却を行うための特定の地点に到達した場合に、利用者変更を判断する、
     請求項4に記載の記録制御装置。
  6.  前記利用者変更判断部は、前記車両を動作させるスマートキーに基づいて利用者変更を判断する、
     請求項1から5のいずれか1項に記載の記録制御装置。
  7.  前記利用者変更判断部は、前記車両の運転席に着座している人物の顔の認識結果に基づき、利用者変更を判断する、
     請求項1から5のいずれか1項に記載の記録制御装置。
  8.  車両の周辺を撮影するカメラが撮影した撮影データを取得する撮影データ取得ステップと、
     前記車両に対するイベントを検出するイベント検出ステップと、
     前記車両の利用者変更を判断する利用者変更判断ステップと、
     前記撮影データ取得ステップで取得した撮影データを記録部に記録し、前記イベント検出でイベントが検出された場合、イベントに対応する撮影データをイベント記録データとして前記記録部に保存し、前記利用者変更判断ステップで前記車両の利用者の変更が判断されたことで前記記録部に記録された撮影データを消去する、記録制御ステップと、
     を備える、記録制御方法。
  9.  車両の周辺を撮影するカメラが撮影した撮影データを取得する撮影データ取得ステップと、
     前記車両に対するイベントを検出するイベント検出ステップと、
     前記車両の利用者変更を判断する利用者変更判断ステップと、
     前記撮影データ取得ステップで取得した撮影データを記録部に記録し、前記イベント検出でイベントが検出された場合、イベントに対応する撮影データをイベント記録データとして前記記録部に保存し、前記利用者変更判断ステップで前記車両の利用者の変更が判断されたことで前記記録部に記録された撮影データを消去する、記録制御ステップと、
     を記録制御装置として動作するコンピュータに実行させるためのプログラム。
PCT/JP2019/042899 2019-03-27 2019-10-31 記録制御装置、記録制御方法、およびプログラム WO2020194837A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201980077282.6A CN113168738A (zh) 2019-03-27 2019-10-31 记录控制装置、记录控制方法以及程序
EP19921236.6A EP3951725B1 (en) 2019-03-27 2019-10-31 Recording control device, recording control method, and program

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2019060184 2019-03-27
JP2019-060184 2019-03-27
JP2019171779A JP6791331B2 (ja) 2019-03-27 2019-09-20 記録制御装置、記録制御方法、およびプログラム
JP2019-171779 2019-09-20

Publications (1)

Publication Number Publication Date
WO2020194837A1 true WO2020194837A1 (ja) 2020-10-01

Family

ID=72716675

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/042899 WO2020194837A1 (ja) 2019-03-27 2019-10-31 記録制御装置、記録制御方法、およびプログラム

Country Status (5)

Country Link
US (1) US11348341B2 (ja)
EP (1) EP3951725B1 (ja)
JP (1) JP6791331B2 (ja)
CN (1) CN113168738A (ja)
WO (1) WO2020194837A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6828772B2 (ja) * 2019-06-27 2021-02-10 株式会社Jvcケンウッド 記録制御装置、記録装置、記録制御方法、及び記録制御プログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009169486A (ja) * 2008-01-11 2009-07-30 Seiko Epson Corp 運転情報記録システム及び運転情報記録方法
JP2011076443A (ja) * 2009-09-30 2011-04-14 Fujitsu Ten Ltd データ管理装置、データ読取方法及びプログラム
JP2011257934A (ja) * 2010-06-08 2011-12-22 Yazaki Corp 車両用ドライブレコーダおよび運行記録システムならびに運行記録制御方法
JP2016223995A (ja) * 2015-06-03 2016-12-28 パイオニア株式会社 ドライバ推定装置、制御方法、プログラム及び記憶媒体
JP2019028763A (ja) 2017-07-31 2019-02-21 株式会社Jvcケンウッド 画像記録装置、画像記録方法および画像記録プログラム
JP2019060184A (ja) 2017-09-28 2019-04-18 カヤバ システム マシナリー株式会社 掘削現場監視装置
JP2019171779A (ja) 2018-03-29 2019-10-10 理想科学工業株式会社 孔版印刷原紙、孔版印刷原紙用多孔性支持体の製造方法、及び孔版印刷原紙の製造方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1114392A (ja) * 1997-06-20 1999-01-22 Yamaha Motor Co Ltd ナビゲーション装置による走行記録方法
JP3830875B2 (ja) * 2002-08-23 2006-10-11 三菱電機株式会社 系統連系システムの保護継電装置
JP4453046B2 (ja) * 2007-03-30 2010-04-21 アイシン・エィ・ダブリュ株式会社 車両挙動学習装置及び車両挙動学習プログラム
JP2009032143A (ja) 2007-07-30 2009-02-12 Seiko Epson Corp ドライブレコーダ、ドライブレコーダシステム、ドライブレコーダの制御方法およびプログラム
JP2011227701A (ja) * 2010-04-20 2011-11-10 Rohm Co Ltd ドライブレコーダ
CN103295279B (zh) * 2013-05-10 2016-01-20 西安全星智能电子有限责任公司 停车场远程控制的方法及实现该方法的嵌入式主板
JP6156082B2 (ja) * 2013-11-13 2017-07-05 株式会社デンソー 車両状況通知システム
CN106154943A (zh) * 2015-04-24 2016-11-23 北大方正集团有限公司 移动设备位置监控方法、装置及系统
CN113724404A (zh) * 2015-08-19 2021-11-30 西安全星智能电子有限责任公司 停车场车辆控制系统和方法
CN105261081A (zh) * 2015-11-05 2016-01-20 浙江吉利汽车研究院有限公司 车辆安全系统工作记录装置
EP3624069B1 (en) * 2017-05-10 2021-05-05 JVCKenwood Corporation Recording control device, recording control method and recording control program
CN107065694B (zh) * 2017-05-26 2019-05-07 杭州正电科技有限公司 一种管状电机智能控制系统
EP3664041A4 (en) 2017-07-31 2020-07-22 JVCKENWOOD Corporation IMAGE RECORDING DEVICE, METHOD AND PROGRAM
JP6669240B1 (ja) * 2018-12-19 2020-03-18 株式会社Jvcケンウッド 記録制御装置、記録制御システム、記録制御方法、および記録制御プログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009169486A (ja) * 2008-01-11 2009-07-30 Seiko Epson Corp 運転情報記録システム及び運転情報記録方法
JP2011076443A (ja) * 2009-09-30 2011-04-14 Fujitsu Ten Ltd データ管理装置、データ読取方法及びプログラム
JP2011257934A (ja) * 2010-06-08 2011-12-22 Yazaki Corp 車両用ドライブレコーダおよび運行記録システムならびに運行記録制御方法
JP2016223995A (ja) * 2015-06-03 2016-12-28 パイオニア株式会社 ドライバ推定装置、制御方法、プログラム及び記憶媒体
JP2019028763A (ja) 2017-07-31 2019-02-21 株式会社Jvcケンウッド 画像記録装置、画像記録方法および画像記録プログラム
JP2019060184A (ja) 2017-09-28 2019-04-18 カヤバ システム マシナリー株式会社 掘削現場監視装置
JP2019171779A (ja) 2018-03-29 2019-10-10 理想科学工業株式会社 孔版印刷原紙、孔版印刷原紙用多孔性支持体の製造方法、及び孔版印刷原紙の製造方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3951725A4

Also Published As

Publication number Publication date
JP6791331B2 (ja) 2020-11-25
JP2020166812A (ja) 2020-10-08
US11348341B2 (en) 2022-05-31
CN113168738A (zh) 2021-07-23
EP3951725A4 (en) 2022-06-15
EP3951725B1 (en) 2023-08-02
EP3951725A1 (en) 2022-02-09
US20210295064A1 (en) 2021-09-23

Similar Documents

Publication Publication Date Title
US10958866B2 (en) Recording apparatus, recording method, and a non-transitory computer readable medium
WO2020129279A1 (ja) 記録制御装置、記録制御システム、記録制御方法、および記録制御プログラム
JP6705470B2 (ja) 記録再生装置、記録再生方法、およびプログラム
CN109493445A (zh) 车辆用图像记录装置、车辆用图像记录方法以及存储介质
US11917326B2 (en) Recording reproduction apparatus, recording reproduction method, and non-transitory computer readable medium
US20160292935A1 (en) Documentation of a Motor Vehicle Condition
KR101580567B1 (ko) 이벤트 영상 촬영 녹화 장치, 이벤트 영상 제공 방법
JP6791331B2 (ja) 記録制御装置、記録制御方法、およびプログラム
KR101533814B1 (ko) 이벤트 영상 촬영 녹화 장치 및 그 방법과, 이를 이용한 차량 도난 방지 시스템 및 그 방법
CN113544750B (zh) 车辆用记录控制装置、车辆用记录装置、车辆用记录控制方法和存储介质
JP2019020859A (ja) 記録画像処理方法、記録画像処理装置、およびデータ処理システム
JP7006815B2 (ja) 記録再生装置、記録再生方法、およびプログラム
US11580750B2 (en) Recording apparatus, recording method, and non-transitory computer-readable medium
JP6939944B2 (ja) 再生装置、再生方法、およびプログラム
JP2024039223A (ja) 車両用記録装置および映像送信方法
JP2024056065A (ja) 車両用記録制御装置、車両用記録制御方法及びプログラム
JP2024028625A (ja) 車両用記録制御装置、車両用記録制御方法およびプログラム
CN114731386A (zh) 记录控制装置、记录控制方法及记录控制程序
CN114556905A (zh) 记录系统、记录方法以及程序

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19921236

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019921236

Country of ref document: EP

Effective date: 20211027