WO2007052536A1 - 情報記録装置、情報記録方法、情報記録プログラムおよび記録媒体 - Google Patents

情報記録装置、情報記録方法、情報記録プログラムおよび記録媒体 Download PDF

Info

Publication number
WO2007052536A1
WO2007052536A1 PCT/JP2006/321413 JP2006321413W WO2007052536A1 WO 2007052536 A1 WO2007052536 A1 WO 2007052536A1 JP 2006321413 W JP2006321413 W JP 2006321413W WO 2007052536 A1 WO2007052536 A1 WO 2007052536A1
Authority
WO
WIPO (PCT)
Prior art keywords
video data
series
information recording
designation
information
Prior art date
Application number
PCT/JP2006/321413
Other languages
English (en)
French (fr)
Inventor
Hiroaki Shibasaki
Original Assignee
Pioneer Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corporation filed Critical Pioneer Corporation
Publication of WO2007052536A1 publication Critical patent/WO2007052536A1/ja

Links

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/0875Registering performance data using magnetic data carriers
    • G07C5/0891Video recorder in combination with video camera
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/085Registering performance data using electronic data carriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording

Definitions

  • Information recording apparatus information recording method, information recording program, and recording medium
  • the present invention relates to an information recording apparatus, an information recording method, an information recording program, and a recording medium for recording information related to a traveling state of a moving object.
  • utilization of the present invention is not limited to the information recording apparatus, information recording method, information recording program, and recording medium described above.
  • a drive recorder that records the surrounding situation of a running vehicle is known, similar to a flight recorder mounted on an airplane.
  • a drive recorder includes, for example, a front camera that captures the front of the vehicle, a rear camera that captures the rear, and a divided video forming unit that writes the front and rear images in a predetermined area of the image memory in synchronization with the reference signal.
  • the drive recorder adds vehicle position information and time information to the image memory information and regularly records the information in the buffer memory. Then, by inputting a signal greater than a predetermined value of the impact detection sensor, the recorded information is transferred to the storage memory and stored.
  • the escaping vehicle can be identified (for example, see Patent Document 1 below).
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2004-224105
  • the recorded information cannot be stored when the input value to the impact detection sensor is equal to or smaller than a predetermined value, that is, in the case of a minor accident.
  • the problem is given as an example.
  • In vehicles there are comparatively many minor accidents such as accidents involving contact between a vehicle and an object, such as when you get off the vehicle and notice scratches. In this case, the impact does not occur so much, and the record at the time of the accident may have been deleted.
  • the vehicle will not be shocked, and the recorded information cannot be saved. Is an example.
  • Witness information from non-participants regarding the accident will greatly contribute to the resolution of the incident.
  • the drive recorder uses the drive recorder to capture the accident site between other vehicles, the vehicle will not be impacted, and the record will not be able to contribute to the resolution of the incident that is likely to be erased. There is a case.
  • an information recording apparatus that records a series of video data imaged from a moving body, and Designation means for accepting designation of time during recording of a series of video data; extraction means for extracting video data captured at a time designated by the designation means from the series of video data; and the extraction And reproducing means for reproducing the video data extracted by the means.
  • an information recording apparatus for recording a series of video data picked up from a moving body, so that the series of video data is being recorded.
  • a designation means for accepting designation of a point on the travel route of the moving body, and extracting from the series of video data video data captured when traveling at the spot designated by the designation means
  • An extraction unit and a reproduction unit that reproduces the video data extracted by the extraction unit.
  • an information recording apparatus for recording a series of video data picked up from a moving body, so that the series of video data is being recorded.
  • Designation means for accepting designation of a specific behavior of the moving body, and video data captured at the time of the behavior designated by the designation means from the series of video data.
  • Extracting means for extracting, and reproducing means for reproducing the video data extracted by the extracting means.
  • an information recording apparatus is an information recording apparatus that records a series of video data picked up from a moving body, and thus information about the series of video data force objects. Based on the identification result identified by the identification means, it is determined whether or not the series of video data includes video data relating to an accident between the object and the moving body. And determining means for erasing all or part of the series of video data based on the determination result determined by the determining means.
  • the information recording method according to the invention of claim 5 is the information recording method for recording a series of video data picked up from a moving body, and when the series of video data is being recorded.
  • the information recording method according to the invention of claim 6 is an information recording method for recording a series of video data picked up from a moving body, and during recording of the series of video data.
  • a designation step for accepting designation of a point on the travel route of the mobile body, and extracting from the series of video data video data captured when traveling at the point designated by the designation step An extraction process; and a reproduction process for reproducing the video data extracted by the extraction process.
  • an information recording method for recording a series of video data picked up from a moving body, and during the recording of the series of video data.
  • a designation step for accepting designation of a specific behavior of the mobile body an extraction step for extracting video data captured at the behavior designated by the designation step from the series of video data, and the extraction
  • the information recording method according to the invention of claim 8 is a series of images captured from a moving body.
  • an identification step for identifying information relating to the series of video data force objects and the series of video data based on an identification result identified by the identification step.
  • the series of video data based on the determination result determined by the determination step and the determination step of determining whether or not the video data relating to the accident between the object and the moving object is included in And an erasing process for erasing all or part of the image.
  • an information recording program according to the invention of claim 9 causes a computer to execute the information recording method according to any one of claims 5 to 8.
  • a recording medium according to the invention of claim 10 is readable by a computer recording the information recording program of claim 9.
  • FIG. 1 is a block diagram showing a functional configuration of an information recording apparatus according to an embodiment.
  • FIG. 2 is a flowchart showing a procedure of a reproduction process of video data.
  • FIG. 3 is a flowchart showing a procedure of video data erasure processing.
  • FIG. 4 is an explanatory diagram showing the vicinity of the dashboard of a vehicle in which a navigation device is installed.
  • FIG. 5 is a block diagram showing a hardware configuration of the navigation device.
  • FIG. 6 is a flowchart showing a procedure of a travel data recording process of the navigation device.
  • FIG. 7 is a chart showing an example of a list of additional information.
  • FIG. 8 is a flowchart showing a procedure of an accident possibility analysis.
  • FIG. 1 is a block diagram showing a functional configuration of an information recording apparatus according to an embodiment.
  • the information recording apparatus 100 includes a recording unit 101, a specifying unit 102, an extracting unit 103, a reproducing unit 104, an identifying unit 105, a determining unit 106, and an erasing unit 107.
  • the information recording apparatus 100 is installed in a moving body such as a vehicle, for example, and the recording unit 101 records a series of video data imaged from the moving body.
  • the video data captured from the moving body is an image (video) / sound around the path along which the moving body moves or inside the moving body.
  • the series of video data is all video data from the start of imaging to the end of imaging, for example, all the video data captured before the moving start force of the moving body ends.
  • the recording unit 101 may record the time (time) and the point at which the video data was captured attached to the video data.
  • the designation unit 102 accepts designation of time during recording of a series of video data. A series of image data is continuously recorded and recorded for a certain period of time. The designation unit 102 accepts designation of an arbitrary time or time zone among the times during recording. Further, the designation unit 102 may accept designation of a point on the traveling route of the moving object during recording of a series of video data. A series of video data is continuously captured and recorded on a certain route. The designation unit 102 accepts designation of arbitrary points, sections, areas, and features around the travel route among the travel routes.
  • the designation unit 102 accepts designation of a specific behavior of the moving object during recording of a series of video data.
  • the specific behavior is, for example, a sudden stop or impact of a moving body, traveling at a predetermined speed or higher, or meandering.
  • the designation part 102 is able to Any one of the behaviors may be accepted, or multiple designations may be accepted.
  • the extraction unit 103 extracts video data captured at the time designated by the designation unit 102 from a series of video data.
  • the extraction unit 103 extracts the video data captured when traveling at the point specified by the specification unit 102 from the series of video data.
  • the extraction unit 103 extracts video data captured at the time of the behavior designated by the designation unit 102 from a series of video data.
  • Extraction unit 103 extracts video data of a predetermined length including, for example, the time, point, and behavior specified by specification unit 102. If more than one time 'point' action is specified by the specification unit 102, video data corresponding to all the specified items, or one of the specified items, either! The video data corresponding to is extracted.
  • the extraction unit 103 refers to the video data recorded by the recording unit 101 when information about the imaging time (time) of the video data and the imaging point is added to the video data. , Corresponding video data is extracted.
  • the extraction unit 103 may extract an image data by identifying an object or the like reflected in the image data.
  • the reproduction unit 104 reproduces the video data extracted by the extraction unit 103.
  • the reproduction unit 104 reproduces the video data, for example, by projecting the extracted video data on a display.
  • the identification unit 105 identifies information relating to an object as well as a series of video data forces.
  • An object is, for example, a moving object other than the moving object on which the information processing apparatus 100 is mounted, a building 'sign' or a guardrail wall, a traffic light, or other feature existing around the traveling path of the moving object.
  • the information on the object includes, for example, whether or not the object is reflected in the video data, the distance between the object and the moving object, the relative angle between the object and the moving object, and the type of the object.
  • the determination unit 106 determines whether or not the series of video data includes video data regarding an accident between the object and the moving object. For example, when the distance between the object and the moving object is equal to or less than a predetermined distance, the determination unit 106 It is determined that the data on the cause is included.
  • the erasure unit 107 erases all or part of the series of video data based on the determination result determined by the determination unit 106. For example, if the determining unit 106 determines that the video data does not contain information about the accident, the erasing unit 107 deletes the entire video data. Also, for example, if the video data contains information about an accident, the video data of a predetermined length is left before and after the information about the accident, and the other video data is deleted.
  • FIG. 2 is a flowchart showing the procedure of video data reproduction processing.
  • the designation unit 102 accepts any one of time, point, and behavior.
  • the information recording apparatus 100 records a series of video data in which the moving physical strength is also imaged by the recording unit 101 (step S201).
  • step S202 it is determined whether or not the designation unit 102 has accepted designation of time during recording of a series of video data. This determination may be made when the video data recording in step S201 is continued, or may be made after the video data recording is completed. Hereinafter, the determinations in steps S203 and S204 are the same.
  • step S202: Yes When the specification of time is accepted (step S202: Yes), the process proceeds to step S205.
  • step S203 When designation of time is not accepted (step S202: No), it is determined whether designation of a point on the traveling route of the moving body is accepted (step S203).
  • step S203: Yes When designation of a point is accepted (step S203: Yes), the process proceeds to step S205.
  • step S 203: No when the designation of the point is not accepted (step S 203: No), it is determined whether or not the designation of the specific behavior of the moving body during the recording of the series of video data is accepted (step S 204).
  • step S204 When a specific behavior is accepted in step S204 (step S204: Yes), and when designation of time or point is accepted in steps S202 and S203, respectively, the extraction unit 103 is a series of video data. The video data corresponding to the designated item is extracted from (step S205). Then, the video data extracted in step S205 by the playback unit 104 is displayed. Data is reproduced (step S206), and the processing according to this flowchart is terminated. If designation of a specific behavior is not accepted in step S204 (step S204: No), the process returns to step S202 and the subsequent processing is repeated.
  • FIG. 3 is a flowchart showing a procedure of video data erasing processing.
  • the information recording apparatus 100 records a series of video data imaged from the moving body by the recording unit 101 (step S301).
  • the identification unit 105 identifies information relating to the object as well as a series of video data forces (step S302). Note that the information on the object may be identified when the recording of the video data in step S301 is continued, or may be performed after the recording of the video data is completed. Then, the determining unit 106 determines whether or not the series of video data includes video data related to an accident between the object and the moving object (step S303).
  • step S303: Yes If video data related to the accident is included (step S303: Yes), the erasure unit 107 deletes part of the video data (step S304) and ends the processing according to this flowchart. To do. Specifically, video data other than the video data related to the accident will be deleted. On the other hand, if the video data relating to the accident is not included (step S303: No), the entire video data is erased (step S305), and the processing according to this flowchart ends.
  • the information recording apparatus 100 accepts designation of at least one of the time 'point' specific behavior, and the video data corresponding to the designated matter. Extract 'to play. As a result, even when a series of video data captured continuously is recorded, the user can immediately access the desired video data, and the availability of the video data can be improved.
  • the information recording apparatus 100 since the information recording apparatus 100 continuously captures and records a series of video data, the recording start trigger is not generated due to a mistake in the user or a recording start trigger does not occur for some reason. Data recording errors can be reduced. Moreover, even when information that is not related to the device itself is obtained, such as when an accident caused by another mobile object is witnessed, it is possible to make effective use of information that is not erased uniformly. [0041] Furthermore, the information recording apparatus 100 erases all or part of the series of video data depending on whether or not video data related to the accident is included in the series of video data. As a result, video data useful for solving an accident can be stored, and the recording area of the information recording apparatus 100 can be used effectively.
  • the information recording apparatus 100 that works on the above-described embodiment will be described.
  • the information recording device 100 is applied to the drive recorder function of the navigation device 400 mounted on a vehicle.
  • the information recording apparatus 100 according to the embodiment may be applied not only to the drive recorder function of the navigation apparatus 400 but also to a device dedicated to the drive recorder.
  • FIG. 4 is an explanatory diagram showing the vicinity of the dashboard of the vehicle in which the navigation device is installed.
  • the navigation device 400 is installed on the dashboard of the vehicle.
  • the navigation device 400 includes a main body M and a display unit (display) D.
  • the display unit D displays a vehicle current location, map information, current time, and the like.
  • the navigation device 400 is connected to an in-vehicle camera 411 installed on the dashboard and an in-vehicle microphone 412 installed in the sun noise generator.
  • the in-vehicle camera 411 is composed of a fixed camera that captures the front outside the vehicle and a fixed camera that captures the interior of the vehicle.
  • the in-vehicle microphone 412 is used for operations such as voice input of the navigation device 400 or recording the state in the vehicle.
  • the vehicle-mounted camera 411 may be attached to the rear portion of the vehicle.
  • the vehicle-mounted camera 411 may be an infrared camera that records a dark place.
  • a plurality of in-vehicle cameras 411 and in-vehicle microphones 412 may be installed in the vehicle, and may be a movable camera instead of a fixed type.
  • the navigation device 400 performs a route search to the destination point and records information. It has a drive recorder function for recording the running state of the vehicle.
  • the drive recorder function displays images and sounds obtained with the in-vehicle camera 411 and in-vehicle microphone 412, current vehicle position information obtained with the GPS unit 516 and various sensors 517, which will be described later, and changes in travel speed. Recording is performed on a recording medium of the navigation device 400 (a magnetic disk 505 and an optical disk 507 described later).
  • a recording medium of the navigation device 400 a magnetic disk 505 and an optical disk 507 described later.
  • the navigation apparatus 400 continuously operates the drive recorder function until the travel start force of the vehicle ends, and stores all the obtained travel data.
  • the data with the largest capacity is 1 MB for 1 minute if the image has a power of about 100 bps, which is considered to be video data taken by the in-vehicle camera 411.
  • the amount of images per minute is 1.5GB, and about 30GB is enough to store 20 days worth of images. In this way, by saving all the recorded travel data without overwriting it, even when an incident involving the vehicle is discovered later, it is possible to obtain travel data that can be used to resolve the incident. Can do.
  • FIG. 5 is a block diagram showing a hardware configuration of the navigation apparatus.
  • the navigation device 400 includes a CPU 501, a ROM 502, a RAM (memory) 503, a magnetic disk drive 504, a magnetic disk 505, an optical disk drive 506, an optical disk 507, and an audio IZF (interface) 508.
  • Each component 501 to 518 is connected by a bus 520 !.
  • the CPU 501 governs overall control of the navigation device 400.
  • the ROM 502 records programs such as a boot program, a communication program, a database creation program, and a data analysis program.
  • RAM503 is the work area of CPU501. Used.
  • the magnetic disk drive 504 controls reading and writing of data to the magnetic disk 505 according to the control of the CPU 501.
  • the magnetic disk 505 records data written under the control of the magnetic disk drive 504.
  • the magnetic disk 505 for example, HD (node disk) or FD (flexible disk) can be used.
  • the optical disc drive 506 controls reading and writing of data to the optical disc 507 according to the control of the CPU 501.
  • the optical disc 507 is a detachable recording medium from which data is read according to the control of the optical disc drive 506.
  • a writable recording medium can be used as the optical disc 507.
  • the removable recording medium may be a power MO of the optical disc 507, a memory card, or the like.
  • the travel data is recorded by the drive recorder function of the navigation device 400, and is used as verification material when a traffic accident occurs.
  • Map information includes background data that represents features (features) such as buildings, rivers, and the ground surface, and road shape data that represents the shape of the road. The original drawing.
  • map information and the current location of the vehicle acquired by the GPS unit 516 described later are displayed in an overlapping manner.
  • the road shape data further includes traffic condition data.
  • the traffic condition data includes, for example, the presence / absence of traffic lights and pedestrian crossings, the presence / absence of highway doorways and junctions, the length (distance) of each link, road width, direction of travel, road type (high speed). Road, toll road, general road, etc.).
  • the traffic condition data includes past traffic jam information, seasons, days of the week, “large holidays”, etc. Memorize past traffic information statistically processed based on The navigation device 400 obtains information on traffic congestion that is currently occurring from road traffic information received by communication IZF515, which will be described later. .
  • the map information is recorded on the magnetic disk 505 and the optical disk 507.
  • the map information may be provided outside the navigation device 400, not the information recorded only in the one integrated with the navigation device 400 hardware.
  • the navigation device 400 acquires map information via the network through the communication IZF515, for example.
  • the acquired map information is stored in the RAM 503 or the like.
  • the audio IZF 508 is connected to an audio input microphone 509 (for example, the in-vehicle microphone 412 in FIG. 4) and an audio output speaker 510. Audio received by the microphone 509 is AZD converted in the audio IZF508. Audio is output from the speaker 510. Note that the sound input from the microphone 509 can be recorded on the magnetic disk 505 or the optical disk 507 as sound data.
  • the input device 511 includes a remote controller, a keyboard, a mouse, a touch panel, and the like, each having a plurality of keys for inputting characters, numerical values, various instructions, and the like. Furthermore, the input device 511 can connect other information processing terminals (hereinafter simply referred to as devices) such as a digital camera and a mobile phone terminal to input / output data.
  • devices information processing terminals
  • the video I / F 512 is connected to a video input camera 513 (for example, the in-vehicle camera 41 1 in FIG. 4) and a video output display 514.
  • the video IZF512 is output from, for example, a graphic controller that controls the entire display 514, a buffer memory such as VRAM (Video RAM) that temporarily records image information that can be displayed immediately, and a graphic controller. It is configured by a control IC that controls display of the display 514 based on image data.
  • the camera 513 captures images inside and outside the vehicle and outputs them as image data. Images captured by the camera 513 can be recorded on the magnetic disk 505 or the optical disk 507 as image data.
  • Display 514 has icons, cursor, menu, window Or various data such as characters and images are displayed. As this display 514, for example, a CRT, a TFT liquid crystal display, a plasma display, or the like can be adopted.
  • the display 514 is installed, for example, in a manner like the display unit D in FIG.
  • the communication IZF 515 is connected to a network via radio and functions as an interface between the navigation device 400 and the CPU 501.
  • the communication IZF 515 is further connected to a communication network such as the Internet via radio, and also functions as an interface between the communication network and the CPU 501.
  • Communication networks include LANs, WANs, public line networks, mobile phone networks, and the like.
  • the communication IZF515 is composed of, for example, an FM tuner, VICS (Vehicle Information and Communication System) Z beacon resino, wireless navigation device, and other navigation devices. Get road traffic information such as traffic regulations. VICS is a registered trademark.
  • the GPS unit 516 calculates information indicating the current position of the vehicle (the current position of the navigation device 400) using the received wave from the GPS satellite and the output values from various sensors 517 described later.
  • the information indicating the current location is information specifying one point on the map information, for example, latitude / longitude and altitude.
  • the GPS unit 516 outputs an odometer, a speed change amount, and an azimuth change amount using output values from the various sensors 517. This makes it possible to analyze dynamics such as sudden braking and sudden handle.
  • the various sensors 517 are a vehicle speed sensor, an acceleration sensor, an angular velocity sensor, and the like, and their output values are used for calculation of the current point by the GPS unit 516 and measurement of changes in speed and direction. Also, the output values of various sensors 517 are used as travel data to be recorded with the drive recorder function.
  • the DSP (Digital Signal Processor) 518 is a microphone processor specializing in processing of voice and images. Images taken by the in-vehicle camera 411 and audio recorded by the in-vehicle microphone 412 are used. And so on.
  • the DSP518 can change the resolution by thinning out the pixel data of the shot image, cut out a part from the shot image, encode processing using multiple compression codecs with different compression rates, and change the compression rate. Performs encoding processing using an image compression codec.
  • the recording unit 101 includes a microphone 509, a camera 513, a magnetic disk drive 504, a magnetic disk 505, an optical disk drive 506, an optical disk 507, and a DSP 518.
  • the definition 102 [Majin Cadenos 511]
  • the extraction unit 103 is controlled by the CPU 501
  • the playback unit 104 is determined by the video I / F 512
  • the display 514 the identification U
  • the CPU 501 realizes the functions of the eraser by the CPU 501, the magnetic disk drive 504, and the optical disk drive 506.
  • the navigation device 400 stores, on the magnetic disk 505 or the optical disk 507, travel data from the start of travel of the vehicle to the end of travel using the drive recorder function.
  • the stored data is continuously stored until an erasure instruction is issued by the user. For this reason, the accumulated travel data becomes enormous, and there is a risk that the power of where the necessary travel data is located will be lost.
  • the navigation device 400 attaches additional information to the travel data to be stored so that the necessary travel data can be efficiently searched.
  • FIG. 6 is a flowchart showing a procedure of travel data recording processing of the navigation device.
  • the navigation apparatus 400 waits until the vehicle starts running (step S601: No loop).
  • the navigation device 400 determines whether the vehicle has started running using, for example, the output values of the GPS unit 516 and various sensors 517.
  • step S601 When the vehicle starts to travel (step S601: Yes), the navigation apparatus 400 starts to shoot images outside or inside the vehicle using the in-vehicle camera 411 (step S602). In addition, the navigation device 400 acquires current time information “current position information” G sensor output value and the like in parallel with video shooting (step S603). Specifically, output values output from the GPS unit 516 and various sensors 517 (G sensor) are detected. In addition, the output value of the angular velocity sensor may be detected. Next, the navigation apparatus 400 performs an accident possibility analysis using the captured video (step S604).
  • the accident possibility analysis is a judgment of whether or not the vehicle has an accident or is likely to be involved in the accident.
  • the power navigation device 400 sequentially analyzes the captured images and verifies the possibility of an accident.
  • a judgment material for the possibility analysis of an accident it is also possible to detect an accident based on a collision sound, a rubbing sound and a conversational ability in a vehicle by voice analysis.
  • the GPS unit 516 and various sensors 517 may be used as judgment materials for analysis.
  • the navigation device 400 uses the current time information, current position information, G sensor output value obtained in step S603, and the analysis result of the accident possibility analysis performed in step S604 as video data. Add (step S605). Note that these additional information may include the output value of the speed sensor or angular velocity sensor.
  • the navigation device 400 determines whether or not the vehicle has finished traveling (step S606). If the traveling is completed (step S606: Yes), the shooting is terminated (step S607). ). Note that whether or not driving has ended is determined, for example, by whether or not the ignition key is turned off, the user inputs driving end, or the date has been changed.
  • step S605 the video data to which the additional information is added in step S605 is filed as travel data, written on the recording medium (magnetic disk 505, optical disk 507) (step S608), and the processing according to this flowchart is performed. finish.
  • the travel data file may be used in units of days in addition to the unit of travel (with the on key of the ignition key set to one off).
  • step S606: No the process returns to step S602 and the subsequent processing is repeated.
  • step S604 the video data is always analyzed during the running (that is, while the video data is being shot) and the possibility of an accident is analyzed.
  • the possibility of accidents may be analyzed by scanning the video data after completion of shooting or after saving the video data, without performing sex analysis.
  • the processing load on the hardware resources of the navigation device 400 can be reduced.
  • the navigation device 400 analyzes the additional information of the stored video data after the accident possibility analysis is completed. The result may be added, or the video data of the part may be deleted if there is no possibility of an accident being reflected.
  • step S605 information such as current time information is added to the video data itself. However, these additional information may be put together in a list and added to the video data. .
  • FIG. 7 is a chart showing an example of a list of additional information.
  • the additional information list 700 includes a video frame number 701, shooting time information 702, shooting position information 703, G sensor output value information 704, and accident possibility information 705.
  • the video frame number 701 indicates a frame number in the video data file.
  • the shooting time information 702 indicates the shooting time of the video data corresponding to the video frame number 701.
  • the shooting position information 703 indicates the shooting position of the video data corresponding to the video frame number 701.
  • the G sensor output value information 704 indicates the G sensor output value when the video data corresponding to the video frame number 701 is captured.
  • the possibility of accident information 705 indicates whether or not there is a possibility of an accident when the video data corresponding to the video frame number 701 is captured.
  • the user can search video data to be reproduced based on the additional information list 700 or the additional information added to the video information. For example, if the car body is found to be scratched after the run, if there is a reminder such as "Wasn't it hurt at that intersection?", The video data taken at that intersection can be played back.
  • map information may be displayed on the display 514 and specified by the touch panel function.
  • the navigation device 400 erases a file when there is a possibility that the recorded travel data is filed and continues to be recorded on the recording medium, exceeding the capacity of the recording medium. For example, the user confirms that the vehicle is not scratched, and if there is a problem, the driving data relating to the driving is erased, or if a predetermined number of days have passed, no storage instruction is given. Delete with.
  • an accident is analyzed by performing an accident possibility analysis described later on the video recorded on the recording medium at predetermined intervals (for example, every driving or every week). There is no possibility of erasing part of the video data.
  • FIG. 8 is a flowchart showing the procedure of an accident possibility analysis.
  • the navigation device 400 first analyzes the video data captured by the in-vehicle camera 411 (step S801) and determines whether or not an object other than the vehicle and the road has been detected. (Step S802).
  • step S802 If no object other than the vehicle and the road is detected (step S802: No), the process returns to step S801, and the analysis of the video data is continued. On the other hand, if an object other than the vehicle and the road is detected (step S802: Yes), the video is further analyzed, and the distance between the vehicle and the object is calculated (step S803).
  • navigation device 400 determines whether or not the distance between the vehicle and the object is within a predetermined distance (step S804).
  • the distance between the vehicle and the object is within a predetermined distance, the possibility of collision between the vehicle and the object increases.
  • the distance between the vehicle and the object may be gradually reduced, or an analysis may be performed by combining a force within the range of travel where the distance reduction rate is normal. If it is within the predetermined distance (step S804: Yes), the process proceeds to step S807. On the other hand, if not within the predetermined distance (step S804: No), the relative angle between the vehicle and the object is calculated (step S805), and it is determined whether the calculated relative angle is within a predetermined range (step S805). S8 06).
  • the relative angle is, for example, an angle of a straight line connecting the vehicle and the object with respect to the traveling direction of the vehicle.
  • Within the specified range is the range where the absolute value of the relative angle is small to the extent that there is a possibility of collision.
  • step S806 If the relative angle is within the predetermined range (step S806: Yes), and if it is determined that the distance is within the predetermined distance in step S804, it is determined that there is a possibility of an accident (step S807), and step S809 is entered. Transition. On the other hand, if the relative angle is not within the predetermined range (step S806 : No), it is judged that there is no possibility of an accident (step S808). Then, an accident possibility analysis result indicating that there is no possibility of an accident is output (step S809), and the processing according to this flowchart is terminated. If it is determined in step S807 that there is a possibility of an accident, in step S809, an accident possibility analysis result indicating that an accident is likely is output.
  • the accident possibility analysis result output by the above processing is added to the video data as a part of the additional information (see step S605 in Fig. 6).
  • the type of the object can be determined by image recognition, and the collision sound and rubbing sound can be detected by voice recognition. May be used to determine the possibility of an accident.
  • the output value of the G sensor is greater than or equal to a predetermined value, it is determined that there is a possibility of an accident, or the behavior of the vehicle is detected such as sudden braking or abnormal speed for the road type. The possibility of an accident may be judged.
  • traveling data for a predetermined time before and after the accident may be saved in a separate file.
  • data other than driving data saved in a separate file may be automatically deleted.
  • Such an accident possibility analysis may be performed in parallel with the acquisition of travel data during travel, and when the processing load on the navigation device 400 is large, the rear force or the like such as after the travel is completed. Even as an analysis.
  • the navigation device 400 it is possible to search for a corresponding portion of travel data (video data) from the shooting time specified by the user, such as a shooting point. This allows users to access the desired location in the recorded travel data, even if it is travel data that has been captured and stored continuously for a long time, improving the availability of the travel data. Can be made.
  • the navigation device 400 continuously obtains and stores the travel data, and therefore forgets to record the travel data due to a user error or for some reason (for example, the output value of the G sensor is predetermined). Trigger to start recording of driving data depending on the case In the case where no occurrence occurs, video data recording errors can be reduced.
  • the traveling data can be recorded and stored. Since the saved travel data is not deleted until the user gives an instruction, it can be used to solve the accident that is likely to be saved even if the user is not a party to the accident.
  • the navigation device 400 determines the possibility of an accident while traveling based on video data captured by the in-vehicle camera 411, output values from various sensors 517, voice recognition, and the like. Then, using the judgment result, search the driving data, save the driving data of the part with the possibility of accident to another file, or delete the driving data of the part without the possibility of the accident. This makes it possible to store video data that is useful for solving accidents, and to effectively use the recording area of the navigation device 400.
  • the information recording method described in the present embodiment can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation.
  • This program is recorded on a computer-readable recording medium such as a hard disk, a flexible disk, a CD-ROM, an MO, and a DVD, and is executed when the recording medium force is also read by the computer.
  • the program may be a transmission medium that can be distributed through a network such as the Internet.

Abstract

 情報記録装置(100)は、記録部(101)によって移動体から撮像された一連の映像データを記録する。指定部(102)は、一連の映像データの記録中の時間の指定を受け付ける。抽出部(103)は、指定部(102)によって指定された時間に撮像された映像データを抽出する。再生部(104)は、抽出部(103)によって抽出された映像データを再生する。識別部(105)は、一連の映像データから物体に関する情報を識別する。判断部(106)は、識別部(105)によって識別された識別結果に基づいて、一連の映像データに物体と移動体との事故に関する映像データが含まれているか否かを判断する。消去部(107)は、判断部(106)によって判断された判断結果に基づいて、一連の映像データのうち全部または一部を消去する。

Description

明 細 書
情報記録装置、情報記録方法、情報記録プログラムおよび記録媒体 技術分野
[0001] この発明は、移動体の走行状態に関する情報を記録する情報記録装置、情報記 録方法、情報記録プログラムおよび記録媒体に関する。ただし、本発明の利用は、 上述した情報記録装置、情報記録方法、情報記録プログラムおよび記録媒体に限ら れない。
背景技術
[0002] 従来、飛行機に搭載されたフライトレコーダと同様に、走行中の車両の周辺状況の 記録をおこなうドライブレコーダが知られている。このようなドライブレコーダは、たとえ ば、車両前方を撮影する前方カメラ、後方を撮影する後方カメラ、前方および後方映 像を基準信号に同期して画像メモリの所定領域に書き込む分割映像形成部を備える
[0003] ドライブレコーダは、画像メモリ情報に車両位置情報および時刻情報を付与してバ ッファメモリに定常的に記録する。そして、衝撃検知センサの所定値以上の信号を入 力することにより、上記記録情報をストレージメモリへ転送し、保存する。これにより、 たとえば、あて逃げ事故などの事故に遭遇したとき、あて逃げ車両の特定をおこなう ことができる(たとえば、下記特許文献 1参照。 ) o
[0004] 特許文献 1:特開 2004— 224105号公報
発明の開示
発明が解決しょうとする課題
[0005] し力しながら、上述した従来技術によれば、衝撃検知センサへの入力値が所定値 以下の場合、すなわち、軽微な事故の場合は、記録した情報を保存することができな いという問題点が一例として挙げられる。車両においては、車両と物体の接触事故な ど、車両を降りてはじめて傷に気がつくような、ごく軽微な事故が比較的多く発生する 。この場合、事故発生時にはそれほど大きな衝撃は発生せず、事故発生時の記録は 、すでに消去されてしまっている恐れがある。 [0006] また、自車の周辺で他の車両などが事故を起こした場合などは、自車には衝撃が 生じな 、ため、記録した情報を保存することができな 、と 、う問題点が一例として挙 げられる。事故に関する当事者以外力 の目撃情報は、事件の解決に大きく貢献す る。ところ力 仮にドライブレコーダで他車どうしの事故現場を捉えていたとしても、自 車には衝撃が発生しないため、その記録は消去されてしまう可能性が高ぐ事件の解 決に貢献し得な ヽ場合がある。
[0007] さらに、記録した情報を全て保存すると、そのデータ量は膨大となり、必要な情報が どこにあるのか、保存された情報内に必要な情報が存在するのかを検索するのが困 難となるという問題点が一例として挙げられる。このため、せつ力べ保存した情報の可 用性が低下し、ドライブレコーダの機能を発揮し得な 、と 、う問題点が一例として挙 げられる。
課題を解決するための手段
[0008] 上述した課題を解決し、目的を達成するため、請求項 1の発明にかかる情報記録 装置は、移動体から撮像された一連の映像データを記録する情報記録装置にぉ 、 て、前記一連の映像データの記録中の時間の指定を受け付ける指定手段と、前記 一連の映像データの中から、前記指定手段によって指定された時間に撮像された映 像データを抽出する抽出手段と、前記抽出手段によって抽出された映像データを再 生する再生手段と、を備えることを特徴とする。
[0009] また、請求項 2の発明に力かる情報記録装置は、移動体から撮像された一連の映 像データを記録する情報記録装置にぉ 、て、前記一連の映像データの記録中にお ける前記移動体の走行ルート上の地点の指定を受け付ける指定手段と、前記一連の 映像データの中から、前記指定手段によって指定された地点を走行しているときに 撮像された映像データを抽出する抽出手段と、前記抽出手段によって抽出された映 像データを再生する再生手段と、を備えることを特徴とする。
[0010] また、請求項 3の発明に力かる情報記録装置は、移動体から撮像された一連の映 像データを記録する情報記録装置にぉ 、て、前記一連の映像データの記録中にお ける前記移動体の特定の挙動の指定を受け付ける指定手段と、前記一連の映像デ ータの中から、前記指定手段によって指定された挙動時に撮像された映像データを 抽出する抽出手段と、前記抽出手段によって抽出された映像データを再生する再生 手段と、を備えることを特徴とする。
[0011] また、請求項 4の発明にかかる情報記録装置は、移動体から撮像された一連の映 像データを記録する情報記録装置にぉ 、て、前記一連の映像データ力 物体に関 する情報を識別する識別手段と、前記識別手段によって識別された識別結果に基づ いて、前記一連の映像データに前記物体と前記移動体との事故に関する映像デー タが含まれている力否かを判断する判断手段と、前記判断手段によって判断された 判断結果に基づいて、前記一連の映像データのうち全部または一部を消去する消 去手段と、を備えることを特徴とする。
[0012] また、請求項 5の発明に力かる情報記録方法は、移動体から撮像された一連の映 像データを記録する情報記録方法にぉ 、て、前記一連の映像データの記録中の時 間の指定を受け付ける指定工程と、前記一連の映像データの中から、前記指定工程 によって指定された時間に撮像された映像データを抽出する抽出工程と、前記抽出 工程によって抽出された映像データを再生する再生工程と、を含んだことを特徴とす る。
[0013] また、請求項 6の発明に力かる情報記録方法は、移動体から撮像された一連の映 像データを記録する情報記録方法にぉ 、て、前記一連の映像データの記録中にお ける前記移動体の走行ルート上の地点の指定を受け付ける指定工程と、前記一連の 映像データの中から、前記指定工程によって指定された地点を走行しているときに 撮像された映像データを抽出する抽出工程と、前記抽出工程によって抽出された映 像データを再生する再生工程と、を含んだことを特徴とする。
[0014] また、請求項 7の発明に力かる情報記録方法は、移動体から撮像された一連の映 像データを記録する情報記録方法にぉ 、て、前記一連の映像データの記録中にお ける前記移動体の特定の挙動の指定を受け付ける指定工程と、前記一連の映像デ ータの中から、前記指定工程によって指定された挙動時に撮像された映像データを 抽出する抽出工程と、前記抽出工程によって抽出された映像データを再生する再生 工程と、を含んだことを特徴とする。
[0015] また、請求項 8の発明に力かる情報記録方法は、移動体から撮像された一連の映 像データを記録する情報記録方法にぉ 、て、前記一連の映像データ力 物体に関 する情報を識別する識別工程と、前記識別工程によって識別された識別結果に基づ いて、前記一連の映像データに前記物体と前記移動体との事故に関する映像デー タが含まれているカゝ否かを判断する判断工程と、前記判断工程によって判断された 判断結果に基づいて、前記一連の映像データのうち全部または一部を消去する消 去工程と、を含んだことを特徴とする。
[0016] また、請求項 9の発明に力かる情報記録プログラムは、請求項 5〜8のいずれか一 つに記載の情報記録方法をコンピュータに実行させることを特徴とする。
[0017] また、請求項 10の発明に力かる記録媒体は、請求項 9に記載の情報記録プロダラ ムを記録したコンピュータに読み取り可能なことを特徴とする。
図面の簡単な説明
[0018] [図 1]図 1は、実施の形態に力かる情報記録装置の機能的構成を示すブロック図であ る。
[図 2]図 2は、映像データの再生処理の手順を示すフローチャートである。
[図 3]図 3は、映像データの消去処理の手順を示すフローチャートである。
[図 4]図 4は、ナビゲーシヨン装置が設置された車両のダッシュボード付近を示す説明 図である。
[図 5]図 5は、ナビゲーシヨン装置のハードウェア構成を示すブロック図である。
[図 6]図 6は、ナビゲーシヨン装置の走行データ記録処理の手順を示すフローチヤ一 トである。
[図 7]図 7は、付加情報の一覧表の一例を示す図表である。
[図 8]図 8は、事故可能性解析の手順を示すフローチャートである。
符号の説明
[0019] 100 情報記録装置
101 記録部
102 指定部
103 抽出部
104 再生部 105 識別部
106 判断部
107 消去部
発明を実施するための最良の形態
[0020] 以下に添付図面を参照して、この発明にかかる情報記録装置、情報記録方法、情 報記録プログラムおよび記録媒体の好適な実施の形態を詳細に説明する。
[0021] (実施の形態)
はじめに、実施の形態にかかる情報記録装置 100の機能的構成について説明す る。図 1は、実施の形態に力かる情報記録装置の機能的構成を示すブロック図である 。情報記録装置 100は、記録部 101、指定部 102、抽出部 103、再生部 104、識別 部 105、判断部 106、消去部 107によって構成される。
[0022] 情報記録装置 100は、たとえば、車両などの移動体に設置されており、記録部 101 によって、移動体から撮像された一連の映像データを記録する。移動体から撮像さ れた映像データとは、移動体が移動する経路周辺または移動体内部の画像(映像) · 音声である。また、一連の映像データとは、撮像開始から撮像終了までの全ての映 像データであり、たとえば、移動体の移動開始力 移動終了までに撮像した映像デ ータ全てである。なお、記録部 101は、映像データを撮像した時間(時刻)および地 点を、映像データに付して記録してもよい。
[0023] 指定部 102は、一連の映像データの記録中の時間の指定を受け付ける。一連の映 像データは、一定の時間継続して撮像 ·記録されている。指定部 102は、この記録中 の時間のうち、任意の時刻または時間帯の指定を受け付ける。また、指定部 102は、 一連の映像データの記録中における移動体の走行ルート上の地点の指定を受け付 けるものであってもよい。一連の映像データは、一定の走行ルート上を継続して撮像 •記録されている。指定部 102は、この走行ルートのうち、任意の地点や区間、エリア 、走行ルート周辺の地物などの指定を受け付ける。
[0024] また、指定部 102は、一連の映像データの記録中における移動体の特定の挙動の 指定を受け付ける。特定の挙動とは、たとえば、移動体の急停車や衝撃、所定以上 の速度での走行、蛇行走行などである。指定部 102は、これらの時間、地点、特定の 挙動のうち、いずれか 1つの指定を受け付けてもよいし、複数の指定を受け付けても よい。
[0025] 抽出部 103は、指定部 102によって時間が指定された場合、一連の映像データの 中から、指定部 102によって指定された時間に撮像された映像データを抽出する。ま た、抽出部 103は、指定部 102によって地点が指定された場合、一連の映像データ の中から、指定部 102によって指定された地点を走行しているときに撮像された映像 データを抽出する。また、抽出部 103は、指定部 102によって特定の挙動が指定さ れた場合、一連の映像データの中から、指定部 102によって指定された挙動時に撮 像された映像データを抽出する。
[0026] 抽出部 103は、たとえば、指定部 102によって指定された時間.地点.挙動が含ま れる所定の長さの映像データを抽出する。また、指定部 102によって時間 '地点'挙 動のうち複数が指定された場合、指定された全ての事項に該当する映像データ、ま たは指定された事項のうち、!/ヽずれか 1つに該当する映像データを抽出する。
[0027] 抽出部 103は、たとえば、記録部 101が記録した映像データに、その映像データの 撮像時間(時刻)や撮像地点の情報が付加されて 、る場合には、その情報を参照し て、該当する映像データを抽出する。また、抽出部 103は、映像データに映っている 物体などを識別して、映像データを抽出してもよ ヽ。
[0028] 再生部 104は、抽出部 103によって抽出された映像データを再生する。再生部 10 4は、たとえば、抽出した映像データをディスプレイに投影することによって、映像デ ータを再生する。
[0029] 識別部 105は、一連の映像データ力も物体に関する情報を識別する。物体とは、た とえば、情報処理装置 100が搭載されている移動体以外の他の移動体、建物'標識 •ガードレール'壁.信号機など、移動体の走行経路周辺に存在する地物である。物 体に関する情報とは、たとえば、映像データに物体が映っているか否かや、物体と移 動体との距離、物体と移動体との相対角度、物体の種類などである。
[0030] 判断部 106は、識別部 105によって識別された識別結果に基づいて、一連の映像 データに物体と移動体との事故に関する映像データが含まれている力否かを判断す る。判断部 106は、たとえば、物体と移動体との距離が所定距離以下である場合、事 故に関するデータが含まれていると判断する。
[0031] 消去部 107は、判断部 106によって判断された判断結果に基づいて、一連の映像 データのうち全部または一部を消去する。消去部 107は、たとえば、判断部 106によ つて、映像データに事故に関する情報が含まれていないと判断された場合は、その 映像データ全部を消去する。また、たとえば、映像データに事故に関する情報が含ま れている場合には、事故に関する情報の前後所定長さの映像データを残して、それ 以外の映像データを消去する。
[0032] つぎに、再生部 104によって、映像データの再生をおこなう場合の処理手順につい て説明する。図 2は、映像データの再生処理の手順を示すフローチャートである。な お、本フローチャートにおいては、指定部 102は、時間 ·地点 ·挙動のうち、いずれか 1つの指定を受け付けるものとする。図 2のフローチャートにおいて、情報記録装置 1 00は、記録部 101によって、移動体力も撮像された一連の映像データを記録する (ス テツプ S201)。
[0033] つぎに、指定部 102によって、一連の映像データの記録中の時間の指定を受け付 けたか否かを判断する(ステップ S202)。なお、この判断は、ステップ S201の映像デ ータの記録が継続している際におこなってもよいし、映像データの記録が終了した後 におこなってもよい。以下、ステップ S203, S204の判断も同様である。
[0034] 時間の指定を受け付けた場合は (ステップ S 202: Yes)、ステップ S205に移行する 。一方、時間の指定を受け付けない場合は (ステップ S202 : No)、移動体の走行ル ート上の地点の指定を受け付けたか否かを判断する (ステップ S 203)。地点の指定 を受け付けた場合は (ステップ S203 : Yes)、ステップ S205に移行する。一方、地点 の指定を受け付けない場合は (ステップ S 203 : No)、一連の映像データの記録中に おける移動体の特定の挙動の指定を受け付けた力否かを判断する (ステップ S204)
[0035] ステップ S204で特定の挙動を受け付けた場合 (ステップ S 204: Yes)、および、ス テツプ S202, S203でそれぞれ時間または地点の指定を受け付けた場合、抽出部 1 03は、一連の映像データから、指定された事項に該当する映像データを抽出する( ステップ S205)。そして、再生部 104によって、ステップ S205で抽出された映像デー タを再生して (ステップ S206)、本フローチャートによる処理を終了する。なお、ステツ プ S204で特定の挙動の指定を受け付けな 、場合は (ステップ S204: No)、ステップ S202に戻り、以降の処理を繰り返す。
[0036] つぎに、消去部 107によって、映像データの消去をおこなう場合の処理手順につい て説明する。図 3は、映像データの消去処理の手順を示すフローチャートである。図 3のフローチャートにおいて、情報記録装置 100は、記録部 101によって、移動体か ら撮像された一連の映像データを記録する (ステップ S301)。
[0037] つぎに、識別部 105によって、一連の映像データ力も物体に関する情報を識別す る (ステップ S302)。なお、物体に関する情報の識別は、ステップ S301の映像デー タの記録が継続している際におこなってもよいし、映像データの記録が終了した後に おこなってもよい。そして、判断部 106によって、一連の映像データに物体と移動体と の事故に関する映像データが含まれている力否かを判断する (ステップ S303)。
[0038] 事故に関する映像データが含まれている場合は (ステップ S303 : Yes)、消去部 10 7によって、映像データのうち一部を消去して (ステップ S304)、本フローチャートによ る処理を終了する。具体的には、事故に関する映像データ以外の映像データを消去 する。一方、事故に関する映像データが含まれていない場合は (ステップ S303 : No) 、映像データの全部を消去して (ステップ S305)、本フローチャートによる処理を終了 する。
[0039] 以上説明したように、実施の形態に力かる情報記録装置 100は、時間 '地点'特定 の挙動のうち、少なくともいずれか 1つの指定を受け付け、指定された事項に該当す る映像データを抽出'再生する。これにより、連続して撮像された一連の映像データ を記録する場合であっても、ユーザは、即座に所望の映像データにアクセスすること ができ、映像データの可用性を向上させることができる。
[0040] また、情報記録装置 100は、一連の映像データを継続的に撮像 '記録するため、ュ 一ザのミスによる記録のし忘れや、何らかの原因によって記録開始のトリガーが発生 しないなど、映像データの記録ミスを低減させることができる。また、他の移動体どうし による事故を目撃した場合など、自装置に関連しない情報を得た場合であっても、一 律に情報を消去することなぐ情報を有効に活用することができる。 [0041] さらに、情報記録装置 100は、一連の映像データに、事故に関する映像データが 含まれているか否かによって、全部または一部を消去する。これにより、事故の解決 に対して有用な映像データを保存することができ、情報記録装置 100の記録領域を 有効に活用することができる。
実施例
[0042] つぎに、上述した実施の形態に力かる情報記録装置 100の実施例について説明 する。以下の実施例においては、情報記録装置 100を、車両に搭載されたナビゲー シヨン装置 400のドライブレコーダ機能に適用した場合について説明する。なお、実 施の形態に力かる情報記録装置 100は、ナビゲーシヨン装置 400のドライブレコーダ 機能に適用する他、ドライブレコーダ専用の機器に適用することとしてもよい。
[0043] (ナビゲーシヨン装置 400の周辺機器構成)
はじめに、ナビゲーシヨン装置 400の周辺機器構成について説明する。図 4は、ナ ピゲーシヨン装置が設置された車両のダッシュボード付近を示す説明図である。ナビ ゲーシヨン装置 400は、車両のダッシュボードに設置されている。ナビゲーシヨン装置 400は、本体部 Mおよび表示部(ディスプレイ) Dによって構成され、表示部 Dには車 両の現在地点や地図情報、現在時刻などが表示される。
[0044] また、ナビゲーシヨン装置 400には、ダッシュボード上に設置された車載用カメラ 41 1、サンノ ィザ一に設置された車載用マイク 412が接続されている。車載用カメラ 411 は、車外前方を撮影する固定カメラと、車内を撮影する固定カメラとから構成される。 車載用マイク 412は、ナビゲーシヨン装置 400の音声入力による操作や車内の様子 を記録する際などに用いられる。
[0045] また、図示しないが、車載用カメラ 411は、車両の後部に取り付けられていてもよい 。車両の後部に車載用カメラ 411が取り付けられている場合、車両の後方の安全確 認ができる他、他の車両力も追突された際に追突時の状況を記録することができる。 この他、車載用カメラ 411は、暗所の記録をおこなう赤外線カメラであってもよい。ま た、車載用カメラ 411および車載用マイク 412は、車両に複数設置されていてもよい し、さらに、固定式ではなく可動式のカメラであってもよい。
[0046] ナビゲーシヨン装置 400は、目的地点までの経路探索および情報記録をおこなう他 、車両の走行状態について記録するドライブレコーダ機能を有している。ドライブレコ ーダ機能は、車載用カメラ 411や車載用マイク 412で得られた画像および音声や、 後述する GPSユニット 516や各種センサ 517で得られた車両の現在地点情報、走行 速度の変化などを、ナビゲーシヨン装置 400の記録媒体 (後述する磁気ディスク 505 、光ディスク 507)に記録する。このようなドライブレコーダ機能を用いて、走行状態を 常時記録することによって、自車が事故に巻き込まれた場合や、自車の周囲で事故 が発生した場合に、事実関係の究明に用いる資料を得ることができる。以下、ドライ ブレコーダ機能で記録するデータを走行データという。
[0047] ここで、ナビゲーシヨン装置 400は、車両の走行開始力 走行終了まで、ドライブレ コーダ機能を継続して動作させ、得られた走行データを全て保存する。たとえば、走 行データのうち、 1番容量の大きいデータは、車載用カメラ 411によって撮影された 映像データであると考えられる力 100bps程度の画像であれば、 1分間の画像で 1 MB、 1日分の画像で 1. 5GBとなり、 20日分の画像を保存するには 30GB程度の容 量があれば足りる。このように、記録した走行データを上書きせず、全て保存すること によって、車両が関係する事件が事後的に発覚した場合などであっても、事件の解 決の糸口となる走行データを得ることができる。
[0048] (ナビゲーシヨン装置 400のハードウェア構成)
つぎに、ナビゲーシヨン装置 400のハードウェア構成について説明する。図 5は、ナ ピゲーシヨン装置のハードウェア構成を示すブロック図である。図 5において、ナビゲ ーシヨン装置 400は、 CPU501と、 ROM502と、 RAM (メモリ) 503と、磁気ディスク ドライブ 504と、磁気ディスク 505と、光ディスクドライブ 506と、光ディスク 507と、音 声 IZF (インターフェース) 508と、マイク 509と、スピーカ 510と、入力デバイス 511と 、映像 IZF512と、カメラ 513と、ディスプレイ 514と、通信 IZF515と、 GPSユニット 516と、各種センサ 517と、 DSP518とを備えて! /、る。また、各構成咅 501〜518は バス 520によってそれぞれ接続されて!、る。
[0049] まず、 CPU501は、ナビゲーシヨン装置 400の全体の制御を司る。 ROM502は、 ブートプログラム、通信プログラム、データベース作成プログラム、データ解析プログ ラムなどのプログラムを記録している。また、 RAM503は、 CPU501のワークエリアと して使用される。
[0050] 磁気ディスクドライブ 504は、 CPU501の制御に従って磁気ディスク 505に対する データの読み取り Z書き込みを制御する。磁気ディスク 505は、磁気ディスクドライブ 504の制御で書き込まれたデータを記録する。磁気ディスク 505としては、たとえば、 HD (ノヽードディスク)や FD (フレキシブルディスク)を用いることができる。
[0051] また、光ディスクドライブ 506は、 CPU501の制御に従って光ディスク 507に対する データの読み取り Z書き込みを制御する。光ディスク 507は、光ディスクドライブ 506 の制御に従ってデータの読み出される着脱自在な記録媒体である。光ディスク 507 は、書き込み可能な記録媒体を利用することもできる。また、この着脱可能な記録媒 体として、光ディスク 507のほ力 MO、メモリカードなどであってもよい。
[0052] 磁気ディスク 505、光ディスク 507に記録される情報の一例として、図 4に示した車 載用カメラ 411や車載用マイク 412で得られた車内外の画像や音声、後述する GPS ユニット 516で検出された車両の現在地点情報、後述する各種センサ 517からの出 力値など(走行データ)が挙げられる。走行データは、ナビゲーシヨン装置 400が有 するドライブレコーダ機能によって記録され、交通事故発生時の検証用資料などとし て用いられる。
[0053] その他、磁気ディスク 505、光ディスク 507に記録される情報の他の一例として、経 路探索'経路誘導などに用いる地図情報が挙げられる。地図情報は、建物、河川、 地表面などの地物 (フィーチャ)をあらわす背景データと、道路の形状をあらわす道 路形状データとを有しており、ディスプレイ 514の表示画面において 2次元または 3次 元に描画される。ナビゲーシヨン装置 400が経路誘導中の場合は、地図情報と後述 する GPSユニット 516によって取得された自車の現在地点とが重ねて表示されること となる。
[0054] 道路形状データは、さらに交通条件データを有する。交通条件データには、たとえ ば、各ノードについて、信号や横断歩道などの有無、高速道路の出入り口やジャンク シヨンの有無、各リンクについての長さ(距離)、道幅、進行方向、道路種別(高速道 路、有料道路、一般道路など)などの情報が含まれている。
[0055] また、交通条件データには、過去の渋滞情報を、季節 ·曜日'大型連休 '時刻など を基準に統計処理した過去渋滞情報を記憶して 、る。ナビゲーシヨン装置 400は、 後述する通信 IZF515によって受信される道路交通情報によって現在発生している 渋滞の情報を得るが、過去渋滞情報により、指定した時刻における渋滞状況の予想 をおこなうことが可能となる。
[0056] なお、本実施例では地図情報を磁気ディスク 505、光ディスク 507に記録するように したが、これに限るものではない。地図情報は、ナビゲーシヨン装置 400のハードゥエ ァと一体に設けられているものに限って記録されているものではなぐナビゲーシヨン 装置 400外部に設けられていてもよい。その場合、ナビゲーシヨン装置 400は、たと えば、通信 IZF515を通じて、ネットワークを介して地図情報を取得する。取得された 地図情報は RAM503などに記憶される。
[0057] また、音声 IZF508は、音声入力用のマイク 509 (たとえば、図 4の車載用マイク 41 2)および音声出力用のスピーカ 510に接続される。マイク 509に受音された音声は、 音声 IZF508内で AZD変換される。また、スピーカ 510からは音声が出力される。 なお、マイク 509から入力された音声は、音声データとして磁気ディスク 505あるいは 光ディスク 507に記録可能である。
[0058] また、入力デバイス 511は、文字、数値、各種指示などの入力のための複数のキー を備えたリモコン、キーボード、マウス、タツチパネルなどが挙げられる。さらに、入力 デバイス 511は、デジタルカメラや携帯電話端末などの他の情報処理端末 (以下、単 に機器という)を接続し、データの入出力をおこなうことができる。
[0059] また、映像 I/F512は、映像入力用のカメラ 513 (たとえば、図 4の車載用カメラ 41 1)および映像出力用のディスプレイ 514と接続される。映像 IZF512は、具体的に は、たとえば、ディスプレイ 514全体の制御をおこなうグラフィックコントローラと、即時 表示可能な画像情報を一時的に記録する VRAM (Video RAM)などのバッファメ モリと、グラフィックコントローラから出力される画像データに基づいて、ディスプレイ 5 14を表示制御する制御 ICなどによって構成される。
[0060] カメラ 513は、車両内外の映像を撮像し、画像データとして出力する。カメラ 513で 撮像された画像は、画像データとして磁気ディスク 505あるいは光ディスク 507に記 録可能である。ディスプレイ 514には、アイコン、カーソル、メニュー、ウィンドウ、ある いは文字や画像などの各種データが表示される。このディスプレイ 514は、たとえば、 CRT, TFT液晶ディスプレイ、プラズマディスプレイなどを採用することができる。ディ スプレイ 514は、たとえば、図 4の表示部 Dのような態様で設置される。
[0061] また、通信 IZF515は、無線を介してネットワークに接続され、ナビゲーシヨン装置 400と CPU501とのインターフェースとして機能する。通信 IZF515は、さらに、無線 を介してインターネットなどの通信網に接続され、この通信網と CPU501とのインター フェースとしても機能する。
[0062] 通信網には、 LAN, WAN,公衆回線網や携帯電話網などがある。具体的には、 通信 IZF515は、たとえば、 FMチューナー、 VICS (Vehicle Information and Communication System) Zビーコンレシーノ 、無線ナビゲーシヨン装置、および その他のナビゲーシヨン装置によって構成され、 VICSセンター力も配信される渋滞 や交通規制などの道路交通情報を取得する。なお、 VICSは登録商標である。
[0063] また、 GPSユニット 516は、 GPS衛星からの受信波や後述する各種センサ 517から の出力値を用いて、車両の現在地点(ナビゲーシヨン装置 400の現在地点)を示す 情報を算出する。現在地点を示す情報は、たとえば緯度'経度、高度などの、地図情 報上の 1点を特定する情報である。また、 GPSユニット 516は、各種センサ 517から の出力値を用いて、オドメーター、速度変化量、方位変化量を出力する。これにより、 急ブレーキ、急ノヽンドルなどの動態を解析することができる。
[0064] また、各種センサ 517は、車速センサや加速度センサ、角速度センサなどであり、 その出力値は、 GPSユニット 516による現在地点の算出や、速度や方位の変化量の 測定に用いられる。また、各種センサ 517の出力値を、ドライブレコーダ機能で記録 する走行データとしてちょ 、。
[0065] DSP (Digital Signal Processor) 518は、音声や画像などの処理に特化したマ イク口プロセッサであり、車載用カメラ 411で撮影された画像や車載用マイク 412によ つて録音された音声などを処理する。 DSP518では、たとえば、撮影した画像のピク セルデータを間引いて解像度を変更する処理や、撮影した画像から一部分を切り取 る処理、圧縮率の異なる複数の圧縮コーデックによるエンコード処理、圧縮率を変更 可能な画像圧縮コーデックによるエンコード処理などをおこなう。 [0066] なお、実施の形態に力かる情報記録装置 100の機能的構成のうち、記録部 101は マイク 509、カメラ 513、磁気ディスクドライブ 504、磁気ディスク 505、光ディスクドラ イブ 506、光ディスク 507、 DSP518【こよって、 旨定咅 102【ま人カデノィス511【こょ つて、抽出部 103は CPU501によって、再生部 104は映像 I/F512、ディスプレイ 5 14によって、識另 U咅 105、半 IJ断咅 は CPU501によって、消去咅 は、 CPU5 01、磁気ディスクドライブ 504、光ディスクドライブ 506によって、それぞれその機能を 実現する。
[0067] (ナビゲーシヨン装置 400の走行データ記録処理)
つぎに、ナビゲーシヨン装置 400による走行データの記録処理および再生処理に ついて説明する。ナビゲーシヨン装置 400は、ドライブレコーダ機能によって、車両の 走行開始時から走行終了時までの走行データを、磁気ディスク 505または光ディスク 507に保存する。
[0068] 保存されたデータは、原則として、ユーザによって消去指示がされるまで継続して 蓄積される。このため、蓄積される走行データは膨大なものとなり、必要な走行データ がどこにあるのかが分力もなくなる恐れがある。これを防止するため、ナビゲーシヨン 装置 400は、保存する走行データに付加情報を付すことによって、必要な走行デー タを効率的に検索できるようにしている。
[0069] 図 6は、ナビゲーシヨン装置の走行データ記録処理の手順を示すフローチャートで ある。図 6のフローチャートにおいて、ナビゲーシヨン装置 400は、車両が走行を開始 するまで待機する(ステップ S601 :Noのループ)。ナビゲーシヨン装置 400は、たとえ ば、 GPSユニット 516や各種センサ 517の出力値などを用いて、車両が走行を開始 したか否かを判断する。
[0070] 車両が走行を開始すると (ステップ S601: Yes)、ナビゲーシヨン装置 400は、車載 用カメラ 411によって、車外や車内の映像の撮影を開始する (ステップ S602)。また、 ナビゲーシヨン装置 400は、映像の撮影と平行して、現在時刻情報'現在位置情報' Gセンサ出力値などを取得する(ステップ S603)。具体的には、 GPSユニット 516お よび各種センサ 517 (Gセンサ)から出力される出力値を検出する。この他、速度セン サゃ角速度センサの出力値を検出してもよい。 [0071] つぎに、ナビゲーシヨン装置 400は、撮影した映像を用いて、事故可能性解析をお こなう(ステップ S604)。ここで、事故可能性解析とは、自車が事故を起こしたり、事故 に巻き込まれた可能性がある力否かの判断である。処理の詳細は後述する力 ナビ ゲーシヨン装置 400は、撮影した映像を逐次解析して、事故の可能性の有無を検証 する。なお、事故可能性解析の判断材料として、音声解析によって、衝突音や擦り音 、車内での会話力も事故を検知することとしてもよい。また、 GPSユニット 516および 各種センサ 517も解析の判断材料としてもよい。
[0072] つづ!/、て、ナビゲーシヨン装置 400は、ステップ S603で取得した現在時刻情報 ·現 在位置情報 · Gセンサ出力値およびステップ S604でおこなった事故可能性解析の 解析結果を映像データに付加する (ステップ S605)。なお、これら付加される付加情 報には、速度センサや角速度センサの出力値などを含めてもよい。
[0073] つぎに、ナビゲーシヨン装置 400は、車両の走行が終了した力否かを判断し (ステツ プ S606)、走行が終了した場合は (ステップ S606: Yes)、撮影を終了する (ステップ S607)。なお、走行が終了したか否かの判断は、たとえば、イグニッションキーのオフ やユーザからの走行終了の入力、 日付の変更などがあった力否かによって判断する
[0074] そして、ステップ S605で付加情報が付された映像データを、走行データとしてファ ィル化し、記録媒体 (磁気ディスク 505、光ディスク 507)に書き込んで (ステップ S60 8)、本フローチャートによる処理を終了する。なお、走行データのファイルィ匕は、走行 単位 (イグニッションキーのオン力もオフまでを 1走行とする)の他、 日にち単位などで おこなってもよい。一方、走行が終了していない場合は(ステップ S606 : No)、ステツ プ S602〖こ戻り、以降の処理を繰り返す。
[0075] なお、本実施例では、ステップ S604のように、走行中(すなわち映像データの撮影 中)常時映像データを解析し、事故可能性解析をおこなうこととしたが、撮影中は事 故可能性解析をおこなわず、撮影終了後や映像データ保存後に、映像データをスキ ヤンして事故可能性解析をおこなってもよい。これにより、ナビゲーシヨン装置 400の ハードウェア資源への処理負荷を抑えることができる。この場合、ナビゲーシヨン装置 400は、事故可能性解析の終了後、保存されている映像データの付加情報に解析 結果を付加したり、事故が映って 、る可能性がな 、部分の映像データを消去したり する。
[0076] また、ステップ S605で、映像データそのものに現在時刻情報などの情報を付加す ることとしたが、これらの付加情報を一覧表にまとめて、映像データに付加することと してもよい。図 7は、付加情報の一覧表の一例を示す図表である。付加情報一覧表 7 00は、映像フレーム番号 701、撮影時刻情報 702、撮影位置情報 703、 Gセンサ出 力値情報 704、事故可能性情報 705によって構成される。
[0077] 映像フレーム番号 701は、映像データファイル中のフレーム番号を示す。撮影時刻 情報 702は、映像フレーム番号 701に対応する映像データの撮影時刻を示す。撮影 位置情報 703は、映像フレーム番号 701に対応する映像データの撮影位置を示す。 Gセンサ出力値情報 704は、映像フレーム番号 701に対応する映像データの撮影時 の Gセンサ出力値を示す。事故可能性情報 705は、映像フレーム番号 701に対応す る映像データの撮影時における、事故可能性の有無を示す。
[0078] ユーザは、付加情報一覧表 700、または、映像情報に付加された付加情報を元に 、再生したい映像データを検索することができる。たとえば、走行終了後に、車体に 傷を発見した場合、「あの交差点で傷つけたのではな 、か」などの心当たりがあれば 、その交差点で撮影された映像データを再生させることができる。撮影地点を指定す る場合は、地図情報をディスプレイ 514に表示させ、タツチパネル機能によって指定 してもよい。他にも、撮影時刻や事故可能性の有無、 Gセンサ出力値などから、事故 の瞬間が映っている可能性がある映像データを検索することができる。
[0079] なお、ナビゲーシヨン装置 400では、記録した走行データをファイルィ匕して記録媒 体に記録し続ける力 記録媒体の容量を上回る可能性がある場合は、ファイルを消 去していく。たとえば、ユーザによって、自車に傷などがついていないことを確認し、 問題のな力つた場合はその走行に関する走行データを消去したり、所定の日数が経 過したら保存指示のな 、ものは自動で消去する。
[0080] また、記録媒体が容量いっぱい、または、所定の残量になった場合に、案内をおこ ない、ユーザに対して不要なファイルを消去するよう促してもよい。この場合、案内を おこなつているにも関わらず、ユーザがファイルを消去しない場合には、ドライブレコ ーダ機能を停止させたり、古いファイル力も順に自動的に消去することとしてもよい。
[0081] また、たとえば、所定間隔ごと (たとえば、走行ごとや 1週間ごとなど)に、記録媒体 に記録された映像に対して後述する事故可能性解析をおこな 、、事故が映って 、る 可能性がな 、部分の映像データを消去することとしてもょ 、。
[0082] つぎに、図 6のステップ S604でおこなった事故可能性解析の詳細について説明す る。図 8は、事故可能性解析の手順を示すフローチャートである。図 8のフローチヤ一 トにおいて、ナビゲーシヨン装置 400は、まず、車載用カメラ 411によって撮影された 映像データを解析し (ステップ S801)、自車および道路以外の物体を検出したカゝ否 かを判断する (ステップ S802)。
[0083] 自車および道路以外の物体を検出しない場合は (ステップ S802 : No)、ステップ S 801に戻り、映像データの解析を継続する。一方、自車および道路以外の物体を検 出した場合は (ステップ S802 :Yes)、さらに映像を解析し、 自車と物体との距離を算 出する (ステップ S803)。
[0084] つぎに、ナビゲーシヨン装置 400は、自車と物体との距離が所定距離以内か否かを 判断する (ステップ S804)。 自車と物体との距離が所定距離以内の場合、自車と物 体との衝突可能性が高くなる。また、たとえば、自車と物体との距離が段々と縮まって いるか、距離の縮む割合が正常な走行の範囲内力ゝなどを合わせて解析してもよい。 所定距離以内の場合は (ステップ S804 : Yes)、ステップ S807に移行する。一方、所 定距離以内ではな 、場合は (ステップ S804: No)、 自車と物体との相対角度を算出 し (ステップ S805)、算出した相対角度が所定範囲内力ゝ否かを判断する (ステップ S8 06)。
[0085] 相対角度とは、たとえば、自車の進行方向に対する、自車と物体とを結ぶ直線の角 度である。相対角度の絶対値が小さいほど、自車と物体とが正面に向かい合うことと なり、衝突の可能性が高くなる。所定範囲内とは、衝突の可能性がある程度に相対 角度の絶対値が小さい範囲となる。
[0086] 相対角度が所定範囲内の場合 (ステップ S806 : Yes)、および、ステップ S804で所 定距離以内と判断された場合は、事故可能性ありと判断し (ステップ S807)、ステツ プ S809に移行する。一方、相対角度が所定範囲内ではない場合は (ステップ S806 : No)、事故可能性なしと判断する (ステップ S808)。そして、事故可能性なしとする 事故可能性解析結果を出力して (ステップ S809)、本フローチャートによる処理を終 了する。なお、ステップ S807で事故可能性ありと判断した場合、ステップ S809では 、事故可能性ありとする事故可能性解析結果を出力する。
[0087] 以上のような処理によって出力された事故可能性解析結果は、付加情報の一部と して映像データに付加される(図 6のステップ S605参照)。なお、図 8のフローチヤ一 トでは、自車と物体との距離および相対角度によって事故可能性を判断した力 この 他、画像認識によって物体の種類を判別したり、音声認識によって衝突音や擦り音を 識別して、事故可能性の判断材料に用いてもよい。また、通常のドライブレコーダの ように、 Gセンサの出力値が所定値以上の場合に、事故可能性ありと判断したり、急 ブレーキや道路種別に対する速度の異常など、車両の挙動を検知して事故可能性 を判断してもよい。
[0088] また、事故可能性解析結果を用いて、事故可能性がある場合にその前後所定時間 分の走行データを、別ファイルに保存することとしてもよい。これにより、事故発生時 の状況を記録した走行データを効率的に検索することができ、また、不注意による消 去も防止することができる。さらに、別ファイルに保存した走行データ以外は、自動的 に消去するようにしてもよい。
[0089] このような事故可能性解析は、走行中に走行データの取得と並行しておこなっても よいし、ナビゲーシヨン装置 400への処理負荷が大きい場合などは、走行終了後など 後力ら解析することとしてもよ 、。
[0090] 以上説明したように、ナビゲーシヨン装置 400によれば、ユーザが指定する撮影時 間'撮影地点などから、走行データ(映像データ)の該当箇所を検索することができる 。これにより、長時間連続して撮影 '保存されている走行データであっても、ユーザは 、記録されている走行データのうち、所望の箇所にアクセスすることができ、走行デー タの可用性を向上させることができる。
[0091] また、ナビゲーシヨン装置 400は、走行データを継続的に取得'保存するため、ュ 一ザのミスによる走行データの記録のし忘れや、何らかの原因(たとえば、 Gセンサの 出力値が所定値以下であるような場合など)によって走行データの記録開始のトリガ 一が発生しな 、場合など、映像データの記録ミスを低減させることができる。
[0092] また、他の車両どうしによる事故を目撃した場合など、 自車に関連しない情報を得 た場合であっても、走行データを記録'保存することができる。保存された走行データ は、ユーザに指示などがあるまで消去されないため、ユーザが事故の当事者でない 場合も保存されている可能性が高ぐその事故の解決に活用することができる。
[0093] さらに、ナビゲーシヨン装置 400は、車載用カメラ 411によって撮影した映像データ や、各種センサ 517からの出力値、音声認識などによって、走行中の事故可能性に ついて判断する。そして、判断結果を用いて、走行データを検索したり、事故可能性 のある部分の走行データを別ファイルに保存したり、事故可能性のな 、部分の走行 データを消去する。これにより、事故の解決に対して有用な映像データを保存するこ とができ、さらに、ナビゲーシヨン装置 400の記録領域を有効に活用することができる
[0094] なお、本実施の形態で説明した情報記録方法は、あらかじめ用意されたプログラム をパーソナル 'コンピュータやワークステーションなどのコンピュータで実行することに より実現することができる。このプログラムは、ハードディスク、フレキシブルディスク、 CD-ROM, MO、 DVDなどのコンピュータで読み取り可能な記録媒体に記録され 、コンピュータによって記録媒体力も読み出されることによって実行される。またこの プログラムは、インターネットなどのネットワークを介して配布することが可能な伝送媒 体であってもよい。

Claims

請求の範囲
[1] 移動体力 撮像された一連の映像データを記録する情報記録装置において、 前記一連の映像データの記録中の時間の指定を受け付ける指定手段と、 前記一連の映像データの中から、前記指定手段によって指定された時間に撮像さ れた映像データを抽出する抽出手段と、
前記抽出手段によって抽出された映像データを再生する再生手段と、 を備えることを特徴とする情報記録装置。
[2] 移動体力 撮像された一連の映像データを記録する情報記録装置にぉ 、て、 前記一連の映像データの記録中における前記移動体の走行ルート上の地点の指 定を受け付ける指定手段と、
前記一連の映像データの中から、前記指定手段によって指定された地点を走行し ているときに撮像された映像データを抽出する抽出手段と、
前記抽出手段によって抽出された映像データを再生する再生手段と、 を備えることを特徴とする情報記録装置。
[3] 移動体力 撮像された一連の映像データを記録する情報記録装置にぉ 、て、 前記一連の映像データの記録中における前記移動体の特定の挙動の指定を受け 付ける指定手段と、
前記一連の映像データの中から、前記指定手段によって指定された挙動時に撮像 された映像データを抽出する抽出手段と、
前記抽出手段によって抽出された映像データを再生する再生手段と、 を備えることを特徴とする情報記録装置。
[4] 移動体力 撮像された一連の映像データを記録する情報記録装置にぉ 、て、 前記一連の映像データから物体に関する情報を識別する識別手段と、 前記識別手段によって識別された識別結果に基づいて、前記一連の映像データに 前記物体と前記移動体との事故に関する映像データが含まれている力否かを判断 する判断手段と、
前記判断手段によって判断された判断結果に基づ ヽて、前記一連の映像データの うち全部または一部を消去する消去手段と、 を備えることを特徴とする情報記録装置。
[5] 移動体力 撮像された一連の映像データを記録する情報記録方法にぉ 、て、 前記一連の映像データの記録中の時間の指定を受け付ける指定工程と、 前記一連の映像データの中から、前記指定工程によって指定された時間に撮像さ れた映像データを抽出する抽出工程と、
前記抽出工程によって抽出された映像データを再生する再生工程と、 を含んだことを特徴とする情報記録方法。
[6] 移動体力 撮像された一連の映像データを記録する情報記録方法にぉ 、て、 前記一連の映像データの記録中における前記移動体の走行ルート上の地点の指 定を受け付ける指定工程と、
前記一連の映像データの中から、前記指定工程によって指定された地点を走行し ているときに撮像された映像データを抽出する抽出工程と、
前記抽出工程によって抽出された映像データを再生する再生工程と、 を含んだことを特徴とする情報記録方法。
[7] 移動体力 撮像された一連の映像データを記録する情報記録方法にぉ 、て、 前記一連の映像データの記録中における前記移動体の特定の挙動の指定を受け 付ける指定工程と、
前記一連の映像データの中から、前記指定工程によって指定された挙動時に撮像 された映像データを抽出する抽出工程と、
前記抽出工程によって抽出された映像データを再生する再生工程と、 を含んだことを特徴とする情報記録方法。
[8] 移動体力 撮像された一連の映像データを記録する情報記録方法にぉ 、て、 前記一連の映像データ力 物体に関する情報を識別する識別工程と、 前記識別工程によって識別された識別結果に基づいて、前記一連の映像データに 前記物体と前記移動体との事故に関する映像データが含まれている力否かを判断 する判断工程と、
前記判断工程によって判断された判断結果に基づ ヽて、前記一連の映像データの うち全部または一部を消去する消去工程と、 を含んだことを特徴とする情報記録方法。
[9] 請求項 5〜8のいずれか一つに記載の情報記録方法をコンピュータに実行させるこ とを特徴とする情報記録プログラム。
[10] 請求項 9に記載の情報記録プログラムを記録したコンピュータに読み取り可能な記 録媒体。
PCT/JP2006/321413 2005-10-31 2006-10-26 情報記録装置、情報記録方法、情報記録プログラムおよび記録媒体 WO2007052536A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005316982 2005-10-31
JP2005-316982 2005-10-31

Publications (1)

Publication Number Publication Date
WO2007052536A1 true WO2007052536A1 (ja) 2007-05-10

Family

ID=38005688

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/321413 WO2007052536A1 (ja) 2005-10-31 2006-10-26 情報記録装置、情報記録方法、情報記録プログラムおよび記録媒体

Country Status (1)

Country Link
WO (1) WO2007052536A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009060477A (ja) * 2007-09-03 2009-03-19 Yasuaki Iwai 車載画像記録装置
JP2009182853A (ja) * 2008-01-31 2009-08-13 Toshiba Corp 電子透かしを用いた映像管理システム
JP2010158038A (ja) * 2010-02-04 2010-07-15 Yasuaki Iwai 車載画像記録装置
JP2011139468A (ja) * 2010-12-28 2011-07-14 Yasuaki Iwai 画像管理方法、画像記録装置
JP2012093828A (ja) * 2010-10-25 2012-05-17 Denso Corp 車両情報記憶装置
CN104662901A (zh) * 2012-09-28 2015-05-27 索尼公司 图像处理装置及方法

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0520592A (ja) * 1991-07-11 1993-01-29 Taku Kumagai 自動車運行状況記録方法および同方法を実施する装置
JPH06344832A (ja) * 1993-06-14 1994-12-20 Nippondenso Co Ltd 道路状況記録システム
JPH08235491A (ja) * 1995-02-27 1996-09-13 Toyota Motor Corp 車両の走行状態記録装置及び車両の走行状態解析装置
JPH0950547A (ja) * 1995-08-10 1997-02-18 Fujitsu Ten Ltd 運転記録装置
JP2000043764A (ja) * 1998-07-27 2000-02-15 Nec Mobile Commun Ltd 車両用走行状況記録装置及び車両状況監視装置
JP2000171267A (ja) * 1998-12-09 2000-06-23 Data Tec:Kk 運転傾向性の分析が可能な運行管理システム及びその構成装置
JP2002133117A (ja) * 2000-10-19 2002-05-10 Hirofumi Kawahara 自動車保険システム、自動車保険センターおよび自動車
JP2003063459A (ja) * 2001-08-29 2003-03-05 Matsushita Electric Ind Co Ltd 車両用ドライブレコーダ装置
JP2003069936A (ja) * 2001-08-27 2003-03-07 Nippon Signal Co Ltd:The 車両用ドライブレコーダ
JP2003151042A (ja) * 2001-11-13 2003-05-23 Matsushita Electric Ind Co Ltd 車両用ドライブレコーダ
JP2004318912A (ja) * 2004-07-07 2004-11-11 Data Tec:Kk 移動体の運行管理方法、システム及びその構成装置

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0520592A (ja) * 1991-07-11 1993-01-29 Taku Kumagai 自動車運行状況記録方法および同方法を実施する装置
JPH06344832A (ja) * 1993-06-14 1994-12-20 Nippondenso Co Ltd 道路状況記録システム
JPH08235491A (ja) * 1995-02-27 1996-09-13 Toyota Motor Corp 車両の走行状態記録装置及び車両の走行状態解析装置
JPH0950547A (ja) * 1995-08-10 1997-02-18 Fujitsu Ten Ltd 運転記録装置
JP2000043764A (ja) * 1998-07-27 2000-02-15 Nec Mobile Commun Ltd 車両用走行状況記録装置及び車両状況監視装置
JP2000171267A (ja) * 1998-12-09 2000-06-23 Data Tec:Kk 運転傾向性の分析が可能な運行管理システム及びその構成装置
JP2002133117A (ja) * 2000-10-19 2002-05-10 Hirofumi Kawahara 自動車保険システム、自動車保険センターおよび自動車
JP2003069936A (ja) * 2001-08-27 2003-03-07 Nippon Signal Co Ltd:The 車両用ドライブレコーダ
JP2003063459A (ja) * 2001-08-29 2003-03-05 Matsushita Electric Ind Co Ltd 車両用ドライブレコーダ装置
JP2003151042A (ja) * 2001-11-13 2003-05-23 Matsushita Electric Ind Co Ltd 車両用ドライブレコーダ
JP2004318912A (ja) * 2004-07-07 2004-11-11 Data Tec:Kk 移動体の運行管理方法、システム及びその構成装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009060477A (ja) * 2007-09-03 2009-03-19 Yasuaki Iwai 車載画像記録装置
JP2009182853A (ja) * 2008-01-31 2009-08-13 Toshiba Corp 電子透かしを用いた映像管理システム
JP2010158038A (ja) * 2010-02-04 2010-07-15 Yasuaki Iwai 車載画像記録装置
JP2012093828A (ja) * 2010-10-25 2012-05-17 Denso Corp 車両情報記憶装置
JP2011139468A (ja) * 2010-12-28 2011-07-14 Yasuaki Iwai 画像管理方法、画像記録装置
CN104662901A (zh) * 2012-09-28 2015-05-27 索尼公司 图像处理装置及方法

Similar Documents

Publication Publication Date Title
US10071745B2 (en) Automated drive assisting system, automated drive assisting method, and computer program
JP4799565B2 (ja) 情報記録装置、情報記録方法、情報記録プログラムおよびコンピュータに読み取り可能な記録媒体
US11118934B2 (en) Method and system of route guidance for a towing vehicle
WO2007052536A1 (ja) 情報記録装置、情報記録方法、情報記録プログラムおよび記録媒体
WO2007049596A1 (ja) 情報記録装置、情報記録方法、情報記録プログラムおよびコンピュータに読み取り可能な記録媒体
JP2008250463A (ja) 情報記録装置、情報記録方法、情報記録プログラムおよびコンピュータに読み取り可能な記録媒体
WO2007066696A1 (ja) 情報記録装置、情報記録方法、情報記録プログラムおよびコンピュータに読み取り可能な記録媒体
JP4731568B2 (ja) 情報記録装置、情報記録方法、情報記録プログラムおよび記録媒体
JP2009090927A (ja) 情報管理サーバ、駐車支援装置、駐車支援装置を備えたナビゲーション装置、情報管理方法、駐車支援方法、情報管理プログラム、駐車支援プログラム、および記録媒体
JP4917609B2 (ja) データ記録装置、データ記録方法、データ記録プログラムおよびコンピュータに読み取り可能な記録媒体
JP5180450B2 (ja) 運転支援方法および運転支援装置
JP4866061B2 (ja) 情報記録装置、情報記録方法、情報記録プログラムおよびコンピュータに読み取り可能な記録媒体
WO2008072282A1 (ja) 情報記録装置、情報処理装置、情報記録方法、情報処理方法、情報記録プログラム、情報処理プログラムおよびコンピュータに読み取り可能な記録媒体
WO2007063849A1 (ja) 情報記録装置、情報記録方法、情報記録プログラムおよびコンピュータに読み取り可能な記録媒体
WO2008047449A1 (fr) Dispositif d'affichage d'image, procédé d'affichage d'image, programme d'affichage d'image et support d'enregistrement
WO2007049482A1 (ja) 情報記録装置、情報記録方法、情報記録プログラムおよび記録媒体
WO2007055241A1 (ja) 情報記録装置、情報記録方法、情報記録プログラムおよび記録媒体
JP2007122515A (ja) 情報記録装置、情報記録方法、情報記録プログラムおよびコンピュータに読み取り可能な記録媒体
JP2022023863A (ja) 渋滞予測システム、端末装置、渋滞予測方法および渋滞予測プログラム
JP3195716U (ja) 道路点検補助システム
WO2007055194A1 (ja) 情報記録装置、情報記録方法、情報記録プログラムおよび記録媒体
JP4987872B2 (ja) 情報記録装置、情報記録方法、情報記録プログラムおよびコンピュータに読み取り可能な記録媒体
WO2007049520A1 (ja) 情報記録装置、情報記録方法、情報記録プログラムおよびコンピュータに読み取り可能な記録媒体
JP2015118668A (ja) 運行情報管理システム
WO2008038604A1 (fr) Dispositif, procédé, programme d'enregistrement de données vidéo et support d'enregistrement

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 06822382

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP