WO2014013985A1 - 運転支援システム及び運転支援方法 - Google Patents

運転支援システム及び運転支援方法 Download PDF

Info

Publication number
WO2014013985A1
WO2014013985A1 PCT/JP2013/069294 JP2013069294W WO2014013985A1 WO 2014013985 A1 WO2014013985 A1 WO 2014013985A1 JP 2013069294 W JP2013069294 W JP 2013069294W WO 2014013985 A1 WO2014013985 A1 WO 2014013985A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
driving
vehicle
map
statistical
Prior art date
Application number
PCT/JP2013/069294
Other languages
English (en)
French (fr)
Inventor
晃洋 松下
寸田 剛司
中村 仁彦
渉 高野
橋本 淳
Original Assignee
日産自動車株式会社
国立大学法人東京大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日産自動車株式会社, 国立大学法人東京大学 filed Critical 日産自動車株式会社
Priority to EP13819767.8A priority Critical patent/EP2876620B1/en
Priority to US14/415,162 priority patent/US10161754B2/en
Priority to CN201380037746.3A priority patent/CN104508719B/zh
Priority to BR112015000983A priority patent/BR112015000983A2/pt
Priority to RU2015105174A priority patent/RU2015105174A/ru
Priority to JP2014525822A priority patent/JP6200421B2/ja
Priority to MX2015000832A priority patent/MX2015000832A/es
Publication of WO2014013985A1 publication Critical patent/WO2014013985A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3848Data obtained from both position sensors and additional sensors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3635Guidance using 3D or perspective road maps
    • G01C21/3638Guidance using 3D or perspective road maps including 3D objects and buildings
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3841Data obtained from two or more sources, e.g. probe vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids
    • G09B29/106Map spot or coordinate position indicators; Map reading aids using electronic means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/10Historical data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/55External transmission of data to or from the vehicle using telemetry
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/65Data transmitted between vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0129Traffic data processing for creating historical data or processing based on historical data

Definitions

  • the present invention relates to a driving support system and a driving support method for supporting driving of a vehicle.
  • Patent Document 1 there is a map information collecting apparatus described in Patent Document 1 below as a technique for collecting information on traffic environment while traveling by mounting an imaging device or the like on a vehicle.
  • This map information collection device collects information included in a vehicle peripheral image acquired by an imaging device mounted on a vehicle by performing an image recognition process.
  • this map information collecting apparatus suppresses the influence of the recognition position error by performing statistical learning processing when image information of the same place is recognized a plurality of times.
  • the above-described map information collecting apparatus statistically performs learning processing when information is acquired by image recognition and similar image information is recognized multiple times at the same place. Therefore, dynamic traffic environment information that changes with time, such as the movement of the host vehicle and other surrounding vehicles, cannot be statistically created as map information.
  • an object of the present invention is to provide a driving support system and a driving support method that can acquire time-varying information and provide it for driving support. To do.
  • the present invention obtains driving information, and associates statistical information obtained by statistically processing the driving information as a time-series pattern with the position information of the vehicle when the driving information is acquired. Generate and update information.
  • driving assistance is performed, the map information is read based on the vehicle position information and read, and the driving assistance is performed based on the read map information.
  • FIG. 1 is a block diagram showing the configuration of the driving support system shown as the first embodiment of the present invention.
  • FIG. 2 is a diagram illustrating color feature amounts and texture feature amounts in the driving support system shown as the first embodiment of the present invention.
  • FIG. 3 is a diagram for explaining the object shape feature amount in the driving support system shown as the first embodiment of the present invention.
  • FIG. 4 is a flowchart showing the time series processing when the driving information is a surrounding video in the driving support system shown as the first embodiment of the present invention.
  • FIG. 5 is a flowchart showing a process of generating statistical information and updating map information in the driving support system shown as the first embodiment of the present invention.
  • FIG. 1 is a block diagram showing the configuration of the driving support system shown as the first embodiment of the present invention.
  • FIG. 2 is a diagram illustrating color feature amounts and texture feature amounts in the driving support system shown as the first embodiment of the present invention.
  • FIG. 3 is a diagram for explaining the object shape feature amount in the driving support system shown as the
  • FIG. 6 is a diagram illustrating segmentation of time-series driving information in the driving support system shown as the first embodiment of the present invention.
  • FIG. 7 is a diagram illustrating hierarchical classification of segmented driving information in the driving support system shown as the first embodiment of the present invention, where (a) is one driving information and (b). Shows the other driving information.
  • FIG. 8 is a flowchart showing a process for generating and storing map information in the driving support system shown as the first embodiment of the present invention.
  • FIG. 9 is a flowchart showing a process of generating statistical information for each section in the driving support system shown as the first embodiment of the present invention.
  • FIG. 10 is a flowchart including a process of predicting driving information in the driving support system shown as the first embodiment of the present invention.
  • FIG. 11 is a block diagram showing a configuration in which an integrated pattern generation unit is added to the driving support system shown as the second embodiment of the present invention.
  • FIG. 12 is a flowchart showing a process of generating an integrated pattern when generating map information in the driving support system shown as the second embodiment of the present invention.
  • FIG. 13 is a diagram illustrating a process for generating an integrated pattern in the driving support system shown as the second embodiment of the present invention.
  • FIG. 14 is a block diagram showing objects to communicate with each other in the driving support system shown as the third embodiment of the present invention.
  • FIG. 15 is a block diagram showing a configuration in which in-vehicle equipment includes communication means in the driving support system shown as the third embodiment of the present invention.
  • FIG. 16 is a block diagram in which a configuration for adding attributes to driving information is added in the driving support system shown as the fourth embodiment of the present invention.
  • FIG. 17 is a flowchart showing a process of generating statistical information for each attribute of driving information in the driving support system shown as the fourth embodiment of the present invention.
  • the driving support system shown as the first embodiment of the present invention is configured, for example, as shown in FIG.
  • the driving support system includes a driving information acquisition unit 1, a vehicle position information acquisition unit 2, a statistical information generation unit 3, a map information generation unit 4, a map information reference unit 5, a driving support unit 6, and The map information storage unit 7 is included.
  • a part of the driving support system is actually composed of a ROM, a RAM, a CPU, etc., but functions that can be realized when the CPU performs processing according to a driving support program stored in the ROM. It will be described as a block.
  • the driving information acquisition unit 1 may be any one of the driver state information acquisition unit 11, the vehicle surrounding information acquisition unit 12, and the vehicle information acquisition unit 13.
  • the driver state information acquisition unit 11 detects the state of the driver.
  • the vehicle surrounding information acquisition unit 12 acquires environmental information around the vehicle.
  • the vehicle information acquisition unit 13 detects a driver's operation amount and vehicle behavior as vehicle information.
  • the driver state information acquisition unit 11 supplies the acquired driving information to the vehicle position information acquisition unit 2, the statistical information generation unit 3, and the driving support unit 6.
  • the vehicle position information acquisition unit 2 acquires vehicle position information.
  • the vehicle position information acquisition unit 2 includes, for example, a GPS antenna and a GPS arithmetic device.
  • the vehicle position information acquisition unit 2 may calculate the vehicle position information based on the behavior of the vehicle as the driving information acquired from the driving information acquisition unit 1.
  • the vehicle position information acquisition unit 2 supplies the acquired vehicle position information to the driving support unit 6, the map information generation unit 4, and the map information reference unit 5.
  • the statistical information generation unit 3 statistically processes the driving information supplied from the driving information acquisition unit 1 as a time series pattern, and generates statistical information.
  • the map information generation unit 4 generates map information by associating the vehicle position information when the driving information obtained from the vehicle position information acquisition unit 2 is acquired with the statistical information generated by the statistical information generation unit 3. That is, the map information generation unit 4 uses the statistical information generated by the statistical information generation unit 3 based on the position information as map information.
  • the map information storage unit 7 stores road map data as a database.
  • the map information storage unit 7 includes a map information update unit 71 into which the map information sent from the map information generation unit 4 can be written.
  • the map information update unit 71 updates existing map information to the map information generated by the map information generation unit 4.
  • the map information reference unit 5 reads the map information stored in the map information storage unit 7 with reference to the position information acquired by the vehicle position information acquisition unit 2. Thereby, the map information reference part 5 extracts the statistical information regarding the driving
  • the driving support unit 6 performs driving support based on the statistical information (map information) obtained by the map information reference unit 5. Further, the driving support unit 6 may perform driving support based on not only map information but also real-time driving information obtained by the driving information acquisition unit 1. This driving assistance includes providing information useful for driving to the driver. Further, the driving support unit 6 may control the vehicle based on the statistical information and the driving information.
  • the vehicle location information acquisition unit 2 uses a GPS (Global Positioning System) signal mounted on an in-vehicle navigation system or a mobile phone of a driver.
  • the vehicle position information acquisition unit 2 may use, as position information, map information possessed by an in-vehicle navigation system or the like, in addition to acquiring latitude and longitude, altitude, and the like by GPS.
  • map information possessed by an in-vehicle navigation system or the like, in addition to acquiring latitude and longitude, altitude, and the like by GPS.
  • a map for a known navigation system for example, the number of a section divided into a mesh at regular intervals on the map, the link number when a road is expressed as a link, an intersection or a junction point is a contact point between the links
  • a map that is expressed as a node and has the node number as map information is known.
  • the vehicle position information acquisition unit 2 detects the latitude and longitude of the vehicle position by the in-vehicle GPS, then matches the map information and the vehicle position, and uses the mesh number, link number, and node number after matching as latitude and longitude as position information. May be added.
  • the driver state information acquisition unit 11 detects the movement of the face as the driver state.
  • the driver state information acquisition unit 11 acquires an image including the driver's head by using, for example, an imaging device installed in front of the driver's seat, and inputs the image information to the face motion detection device.
  • a known recognition method may be used as the face motion detection device.
  • the driver state information acquisition unit 11 acquires the posture angle of the head. In addition to the posture angle of the head, the driver state information acquisition unit 11 displays the driver's line of sight, blink, mouth movement and facial expression, movement of the hand touching the face and head, and the like based on the captured image.
  • the driver state information acquisition unit 11 may use body pressure distribution values such as a seat seat surface, a back surface, and a side support as the movement of the driver's body. Further, the driver state information acquisition unit 11 uses blood pressure, breathing, heartbeat, sweating, myoelectric potential, or the like as a driver's biological signal, or a brain activity amount that is simply measured by cerebral blood flow or the like. May be.
  • the driver state information acquisition unit 11 combines biometric information and a plurality of measurement values such as line of sight, facial expression, and body temperature, and uses a known calculation technique to determine the degree of sleepiness, irritation, arousal, tension, and relaxation. It may be calculated and acquired as information indicating the state of.
  • the vehicle surrounding information acquisition unit 12 acquires observation values such as a distance and an object shape to an object around the host vehicle as environmental information around the vehicle.
  • the vehicle surrounding information acquisition unit 12 uses, for example, a distance sensor such as a laser sensor, a millimeter wave radar, or an ultrasonic sensor that is a sensor such as a lane keeping system or an inter-vehicle maintenance control system.
  • the vehicle position information acquisition unit 2 uses moving images and still images of an imaging device such as a video camera, and positions such as white lines, stop lines, pedestrian crossings, and arrows indicating a course on the road surface, Detects the target of the driver's attention when driving the vehicle, such as the lateral position of the vehicle, the curvature of the front lane, traffic lights, road signs, pedestrians and bicycles, and vehicles traveling around the vehicle.
  • the shape and color of the vehicle, the relative distance (position) from the host vehicle, and the like may be acquired as environmental information around the vehicle.
  • the vehicle position information acquisition unit 2 operates in a congested vehicle train, a crowded area, a crowded road, a quiet road, or a narrow residential road in a residential area, as will be described later. If the atmosphere of the place related to can be converted to time series data, it may be acquired as environmental information around the vehicle.
  • the vehicle information acquisition unit 13 acquires information on a driver's operation amount and vehicle behavior.
  • the vehicle information acquisition unit 13 includes, for example, a steering angle, an accelerator opening, a brake operation amount, a direction indicator switch signal, a wiper switch signal, a vehicle speed, a longitudinal acceleration, a vertical acceleration, a lateral acceleration, a yaw rate, a roll rate, a pitching rate, and the like. get.
  • the vehicle information acquisition unit 13 may acquire a signal directly from a sensor or an operation device, or may acquire a signal flowing through an in-vehicle network such as the vehicle CAN.
  • the most intuitive method is to detect the vehicle body yaw rate by using a yaw rate sensor provided on the vehicle body.
  • the steering angle and the vehicle speed may be detected, and the vehicle yaw rate may be estimated based on the result.
  • a steering angle sensor and a vehicle speed sensor are provided instead of the yaw rate sensor.
  • the vehicle information acquisition unit 13 may acquire vehicle information as an estimated value by calculation without directly detecting vehicle information.
  • the information acquired by the driving information acquisition unit 1 and the vehicle position information acquisition unit 2 includes information on sensor devices that are standard equipment on the vehicle, such as information flowing in the vehicle CAN, and the user of the vehicle later. Information on sensor devices mounted on the vehicle may be used.
  • the driver state information acquisition unit 11 includes, for example, a navigation system equipped with an existing GPS or gyro sensor, an in-vehicle video camera, an acceleration sensor, or GPS, such as the sensor device that measures the driver's biological signal described above.
  • a mobile device such as a mobile phone, an existing drive recorder, or the like may be installed in the vehicle, and output information of sensors mounted on those devices may be used.
  • the driving information acquired by the driving information acquisition unit 1 includes one-dimensional information such as vehicle speed, steering angle, and inter-vehicle distance.
  • the driving information includes multidimensional time series information in addition to the one-dimensional information.
  • the driving information includes information measured on a “surface” such as a camera image or a millimeter wave radar.
  • the driving information includes information measured by “line (point sequence)” by a scanning sensor such as a laser radar.
  • the driving information includes information that is handled as a set of plural sensors such as ultrasonic sensors and myoelectric potentials installed at the four corners of the vehicle and is measured with relation to “plural points”.
  • a camera image or the like includes a plurality of pieces of information having different meanings in one pixel constituting a screen, such as information on color, brightness, density, texture information, information on object shape features such as contours (edges), etc. have.
  • the driving support system of the present embodiment maintains the relevance between each piece of information as the information acquired at the same time at the same point in the same traffic environment by using the above-described plurality of one-dimensional time-series information and multi-dimensional time-series information. It has a feature that statistical processing is performed in the state.
  • the driving information acquisition unit 1 calculates a feature value 101 for each cell into which the camera video 100 is divided as shown in FIG.
  • the time change of each feature amount is set as time series data.
  • a known color space such as an RGB color space, a CIE-XYZ color space, or an L * a * b * color space may be used as the color space.
  • a color histogram or a color moment (average, variance, covariance, asymmetry, etc.) that is a statistic of the color distribution in the color space may be used as the feature amount of the color.
  • the driving information acquisition unit 1 can calculate the feature amount of the entire image. Further, the driving information acquisition unit 1 may divide the image into cells and calculate the feature amount of each region, then pay attention to the region and use the texture feature amount. Texture features include structural features that describe regular textures (morphological operations, amounts from adjacency graphs, etc.), and statistical features that are described by statistical distribution of image luminance (Fourier power spectrum, density co-occurrence matrix, Markov) A known recognition method such as a random field, a fractal model, various multi-resolution feature quantities such as Gabor transform and Wavelet transform may be used. The driving information acquisition unit 1 calculates the color feature amount and texture feature amount of the entire image and uses them as time series data.
  • the time change of traffic environment (atmosphere) in can be statistically accumulated and used as time series data.
  • the driving information acquisition unit 1 may detect the feature quantity 102 of the object shape as shown in FIG.
  • Driving information acquisition unit 1 is the lateral position of the vehicle in the driving lane, the curvature of the front lane, the road surface display such as stop lines and pedestrian crossings, traffic lights and road signs, pedestrians and bicycles, other vehicles that run around, An object to which the driver pays attention when driving a car is detected.
  • the driving information acquisition unit 1 detects a relative distance (positional relationship) with respect to the detection target, its shape, color, and the like.
  • the driving information acquisition unit 1 acquires the shape, color, and the like of a target to which the driver pays attention when driving a car as the feature amount 102 of the object shape.
  • the driving information acquisition unit 1 may use, as time-series data, a change in the feature amount 102 of the object shape and a movement of the target (positional change in position) obtained in the process of detecting the target.
  • a known recognition method may be used as a method for detecting a specific target and a shape feature amount. For example, region feature values (Zemike moment, 2D Angular Radial Transformation (ART), etc.) and outline feature values (Fourier Descriptor, Curvature Scale Space, Edge Direction Histogram, etc.) are used as local feature values (Color) SIFT And specific features and shape features can be detected using features such as Spin Images, Video Google, and Bag-of-features approach.
  • the driving information acquisition unit 1 converts the acquired driving information into time series data by a process as shown in FIG.
  • step S1 the driving information acquisition unit 1 and the vehicle position information acquisition unit 2 acquire driving information together with the vehicle position information at the time of driving information acquisition.
  • step S2 the driving information acquisition unit 1 converts the acquired driving information into time series data.
  • step S2 may be skipped and the process may proceed to step S3.
  • the driving information acquisition unit 1 calculates a feature amount or the like from the driving information and uses the time change of the calculated information as time series data.
  • step S3 the time-series data set of each feature amount obtained in step S2 is associated with the vehicle position information.
  • the driving information acquisition unit 1 transmits the driving information as multidimensional time series data associated with the vehicle position information in step S3 to the statistical information generation unit 3.
  • the driving information acquisition unit 1 acquires the image around the vehicle together with the position information of the vehicle at the time of imaging in step S1.
  • the driving information acquisition unit 1 extracts a feature amount from the acquired video. Since various information is included in the video, for example, the video is cut out as a still image at regular sample times, and the feature amount is extracted by the known image recognition method described above. The driving information acquisition unit 1 sets the time change for each extracted feature amount as time series data.
  • the obtained time-series data set of each feature amount is associated with the imaging position information (vehicle position information) of the video.
  • the driving information acquisition unit 1 sends a set of each feature quantity associated with the video position information to the statistical information generation unit 3 as multidimensional time-series data.
  • the driving information is described as an example of a camera image that captures the outside of the vehicle, but is not limited thereto.
  • time-series data not only the observed values for each dimension are converted to time-series data, but also one time-series data can be calculated from multiple-dimensional observed values and feature quantities can be extracted.
  • the time change may be used as time series data.
  • a known recognition method is used from the laser radar observation value.
  • the relative position data of other vehicles calculated in this way may be used as time series data.
  • Statistic information generation processing and map information update processing can be realized by the processing shown in FIG. 5, for example.
  • step S ⁇ b> 11 the statistical information generation unit 3 performs time-series processing by the driving information acquisition unit 1 and acquires driving information associated with the vehicle position information.
  • the statistical information generating unit 3 segments the time series data of the driving information acquired in step S11 with the time point when the change is large as the boundary of the time series pattern.
  • the statistical information generation unit 3 reads the time series pattern of the driving information already stored as the map information from the map information storage unit 7 as a database.
  • step S14 the statistical information generation unit 3 has already stored in the map information storage unit 7 a time series pattern that has a high likelihood and similarity to the time series pattern of the driving information segmented in step S13. Determine whether or not. If a similar time series pattern already exists in the map information storage unit 7, the driving information is supplied to the map information generation unit 4 and the process proceeds to step S15. On the other hand, if there is no time series pattern having a high likelihood and similar to the time series pattern of the segmented driving information, the process proceeds to step S17.
  • step S15 the statistical information generation unit 3 and the map information update unit 71 perform statistical processing by adding the newly acquired driving information, and update the time series pattern stored in the map information storage unit 7.
  • step S17 the statistical information generation unit 3 performs statistical processing based on the newly acquired driving information and the time series pattern of other stored driving information. As a result, the statistical information generation unit 3 newly generates a time series pattern of driving information.
  • step S16 the statistical information generating unit 3 transmits the updated or newly generated time series pattern of the driving information to the map information generating unit 4 as statistical information.
  • FIG. 6 is an image diagram for segmenting time-series data of multidimensional driving information. Regardless of the number of dimensions of the acquired time-series data, the statistical information generation unit 3 processes the data A, B, C, D, and E together while maintaining the relationship, and sets the time when the change is large. Segment as a sequence pattern boundary. In the example of FIG. 6, the time series data A, B, C, D, and E of the operation information are segmented into segments after t1 to t2, t2 to t3, t4 to t5, t6 to t7, and t8.
  • FIG. 7 is an image diagram of a tree structure when segmented time-series driving information (segment) is classified into classes by a hierarchical clustering technique as an example of a technique for calculating a time-series pattern from driving information.
  • the time series pattern may be obtained as a statistical time series pattern of each class by statistically processing the segmented operation information of each time series as shown in (a) and (b).
  • one representative segmented time-series operation information may be selected from the class to form a time-series pattern.
  • Japanese Patent No. 4027838 is devised as one means for discovering time series data generation (estimation) methods and controlling the system using the recognition / generation methods.
  • this method may be used as a pattern extraction / recognition method.
  • a pattern extraction method from segmented time series data a stochastic statistical model called a Hidden Markov Model (HMM) is used.
  • HMM Hidden Markov Model
  • a method using a neural network or a genetic algorithm or a method using a linear discriminant function that is identified using a threshold value or a feature plane may be used.
  • a known pattern identification method or data set clustering method may be used.
  • a well-known hierarchical clustering method such as supervised or unsupervised machine learning, group averaging, or Ward method may be used.
  • step S21 the map information generating unit 4 acquires the driving information acquired by the driving information acquiring unit 1, the position information of the vehicle that acquired the driving information, and the time series pattern (driving pattern information).
  • step S22 the map information generating unit 4 converts the driving information acquired in step S21 into a time series pattern, and describes the driving information in time series.
  • step S23 the map information generation unit 4 determines the transition probability from the temporally previous driving information pattern to the temporally subsequent driving information pattern in the driving information sequence described in the time axis in step S22. Is calculated.
  • step S24 the map information generation unit 4 stores the time series pattern of the driving information together with the transition probability obtained in step S23 as map information in association with the position in the map space, and stores it in the map information storage unit 7.
  • the map information is stored in association with the time series pattern of the statistically processed driving information and the position information. For this reason, both the vehicle position information obtained by the vehicle position information acquisition unit 2 and the time series pattern of the driving information as the statistical information obtained by the map information reference unit 5 are combined. As a result, it is possible to know as a statistical time series pattern how the vehicle behavior, driving operation, driver state, traffic environment, etc. change over time in a specific section / point on the map space.
  • the time series pattern of driving information that has been subjected to statistical processing is handled as map information. Thereby, it is not necessary to record all the data acquired by the driving information acquisition unit 1 as it is. For this reason, the recording data capacity of the map information storage unit 7 can be saved, and information can be stored efficiently.
  • temporal and spatial transitions from one time series pattern to another time series pattern are obtained as transition probabilities and stored as map information in association with the time series pattern. For this reason, it becomes possible to discriminate a time series pattern of driving information having a high probability of transition based on the observed driving information and position information.
  • FIG. 9 is a flowchart showing the contents of statistical information generation processing for each section performed by the statistical information generation unit 3 and the map information update unit 71.
  • the time-series processed driving information associated with the position information is acquired in step S11, the time-series driving information acquired in step S12 is segmented, and time-series patterning processing is performed in step S13 and subsequent steps. It is carried out.
  • time series patterning process time series patterns are extracted based on all segmented driving information regardless of the location where the driving information is acquired.
  • the map information generation unit 4 associates the time-series driving information together with the transition probability with the position on the map space to obtain the map information.
  • the time-series driving information acquired in step S11 is divided by the statistical information generation unit 3 for each section on the map in step S41.
  • the section to be divided may be divided at certain distances on the road.
  • segment according to track alignment such as a road division and a road classification.
  • the navigation map may be divided for each link or mesh, or may be divided by latitude / longitude or an area of a certain range.
  • the statistical information generating unit 3 segments the operation information divided for each section in step S12, and then proceeds to step S42.
  • the map information generation unit 4 performs reading, updating, and new generation processing of the time series pattern for each section without targeting all the time series patterns in the world.
  • step S43 the statistical information generation unit 3 transmits to the map information generation unit 4 a time series pattern for each section that is calculated for each section and is already associated with the map space.
  • driving information is divided for each section on the acquired map, and a time series pattern of driving information is calculated for each section based on the divided driving information. Thereby, the time series pattern of the driving information peculiar to the section can be extracted.
  • the timing to calculate and update the time series pattern by statistically processing the driving information is updated sequentially as the driving information is collected, or updated at a fixed period, and updated when a certain amount of recorded driving information is accumulated, Or the timing which the driver
  • the driving information used for updating by calculating the time series pattern may be statistically processed with all the driving information from the start of recording until the latest information, or statistically processed with the driving information recorded for a certain period. Also good.
  • the driving support system shown as the first embodiment may predict the next information provision or driving operation by the map information reference unit 5 and the driving support unit 6 as shown in FIG.
  • step S61 the map information reference unit 5 is based on the vehicle position information obtained in the vehicle position information acquisition unit 2, and the statistics relating to the driving stored at the position from the data stored in the map information storage unit 7. Extract information.
  • the map information reference unit 5 acquires a time series pattern of driving information at the current position.
  • the map information reference unit 5 probabilistically predicts the time series pattern of the driving information that transitions next from the time series pattern of the driving information acquired in step S62.
  • the map information reference unit 5 includes the time series pattern of the statistical driving information that transits next stochastically predicted in step S63 and the real-time information obtained by the driving information acquisition unit 1, Both types of information are used to provide driving assistance such as providing information and operating assistance to the driver.
  • the driving support system uses the driving information observed in real time by the driving information acquisition unit 1 and the statistical information obtained by the map information reference unit 5 to display the current driving state in a time series pattern. You can replace it with And based on the transition probability of the said time series pattern, it becomes possible to discriminate
  • the vehicle position information observed in real time by the vehicle position information acquisition unit 2 and the statistical information obtained by the map information reference unit 5 are used. Thereby, the time series pattern of the driving information associated with the place where the current vehicle exists can be acquired. As a result, it is possible to provide information on what kind of traffic environment the place where the current vehicle exists is to provide driving assistance.
  • the driving support unit 6 sets audio information, visual information, and operation information corresponding to the time-series pattern of driving information in advance.
  • the driving support unit 6 includes an audio output device such as a speaker or a visual information presentation device such as a monitor so that it can be provided to the driver, or a power assist device that can control and output the operation amount and operating force of the steering wheel, accelerator, and brake.
  • the driving support unit 6 may generate a driving operation amount for safety from the predicted time series pattern and present the operating amount to the driver using the driving support means. Further, the driving support unit 6 may present in advance information for preparing for a complicated traffic environment. Further, the driving support unit 6 can perform driving support such as information on route change for traveling more easily, presentation of timing for changing the route, and assisting operation amount.
  • the driving support system shown as the first embodiment statistically processes driving information as a time-series pattern, generates map information in association with vehicle position information, and updates existing map information.
  • the time series pattern of the statistically processed driving information is used as map information in association with the position information, so the vehicle behavior and driving operation in the section / point on the map, the driver's state, the traffic environment It is possible to describe and store dynamic time changes such as. Therefore, according to the driving support system, it is possible to provide information to the driver and provide driving support such as operation support regarding the dynamic traffic environment that changes with time as the host vehicle and other surrounding vehicles move. .
  • the driving support system can acquire the time series pattern associated with the location where the current vehicle exists by using the fact that the time series pattern is stored as the map information. As a result, the driving support system can provide information on what kind of traffic environment the vehicle is usually located in.
  • the driving support system can provide information to the driver as “careful about vehicles changing lanes”. If it is found that there are many vehicles crossing lanes as the time series pattern of the next section spatially, it is possible to provide information to the driver as “Beware of vehicles that will change lanes ahead”. If the driver's condition is often a pattern that turns his face or gaze sideways, combining it with the time-series pattern of vehicle information such as the vehicle speed, the driver will be aware of side-drive and rear-end collision warnings. It is possible to provide such information.
  • the driving support system not only provides the above information provision as audio information and visual information to the display, but also controls the pedal operation amount as the driving operation amount to guide the driver's driving to the safe side. It is also possible to assist. Furthermore, the driving support system obtains time-series patterns from the vehicle information such as acceleration / deceleration when starting from a stop or stop state, stop position and movement of a stop intersection, cruise speed with respect to a limit speed, and steering amount with respect to road alignment. Thus, it is possible to use it as a driving operation amount support for the driver or as a control target value for the autonomous driving vehicle.
  • the driving information is divided for each section on the map from which the information is acquired, and a time series pattern is calculated for each section based on the divided information.
  • the driving support system can extract a time series pattern of driving information specific to the section.
  • a time series pattern of driving information is calculated regardless of the section on the map, and the time series pattern is any time series among a plurality of preset time series patterns. It is determined whether it corresponds to a pattern. Thereby, the number of time series patterns can be suppressed as compared with the case of calculating time series patterns of individual driving information for each place, and the calculation amount and data capacity can be saved.
  • the driving support system shown as the second embodiment is configured as shown in FIG. 11, for example.
  • This driving support system differs from the driving support system shown as the first embodiment in that an integrated pattern generation unit 41 is provided in the map information generation unit 4.
  • the driving information acquisition unit 1 acquires a plurality of information among a driver's operation amount and vehicle behavior, a driver's state, and environmental information around the vehicle.
  • the integrated pattern generation unit 41 associates each time series pattern calculated using each driving information acquired by the driving information acquisition unit 1 as a time series pattern acquired in the same traffic environment.
  • the integrated pattern generation unit 41 performs a process as shown in FIG. For example, the process of the integrated pattern generation unit 41 when the driving information acquisition unit 1 acquires vehicle information, driver state information, and vehicle surrounding information will be described.
  • step S31, step S33, and step S35 the driving information acquisition unit 1 and the vehicle position information acquisition unit 2 simultaneously acquire driving information of vehicle information, driver state information, and vehicle surrounding information together with position information.
  • step S32, step S34, and step S36 the driving information acquisition unit 1 converts each vehicle information, driver state information, and vehicle surrounding information into a time series pattern, and describes each information in a time series of driving patterns.
  • the vehicle information, the driver status information, and the vehicle surrounding information are driving information acquired in the same traffic environment at the same moment and at the same moment, and are originally related to each other.
  • the relationship between information is not the relationship represented by the temporal transition probability in the same type of information, but between different types of driving information by being acquired in the same traffic environment at the same point at the same moment. Relevance (causality, correlation) that exists in
  • the integrated pattern generation unit 41 can express the relevance (causality, correlation) between patterns of different driving information as shown in FIG.
  • FIG. 13 is an image diagram for explaining the processing flow performed by the integrated pattern generation unit 41. The description of FIG. 13 will be described later.
  • the integrated pattern generation unit 41 calculates a conditional probability at each segment point.
  • the integrated pattern generation unit 41 sets the time series pattern of each driving information together with the conditional probability calculated in step S37, and stores it in the map information storage unit 7 in association with the position on the map.
  • a method for expressing the relationship (causality, correlation) between time series patterns of different driving information using a statistical model will be described by taking as an example the case of acquiring vehicle information and vehicle surrounding information.
  • the driving information acquisition unit 1 converts each vehicle information and vehicle surrounding information into a time series pattern and describes each information in a time series pattern, the positions of the nodes are different as shown in FIG.
  • the transition between the vehicle information and the vehicle surrounding information at each node is described as a conditional probability, and the relationship between time series patterns of different driving information is expressed.
  • n ( ⁇ i, ⁇ j) is the number of times a combination ( ⁇ i, ⁇ j) of the time series pattern of the vehicle information and the time series pattern of the vehicle surrounding information appears in the data.
  • n ( ⁇ i, ⁇ j, ⁇ k, ⁇ l) represents the number of times of transition from the set of time series patterns ( ⁇ i, ⁇ j) to ( ⁇ k, ⁇ l).
  • the integrated pattern generation unit 41 obtains ( ⁇ k, ⁇ l) that maximizes the probability P ( ⁇ k, ⁇ l
  • Information and vehicle surrounding information can be estimated. This is similar to a state in which the driver predicts the future traffic environment from the vehicle information and the vehicle surrounding information that the driver feels based on experience. Therefore, the driving support system can present information that can be easily recognized by the driver.
  • the prediction of the next vehicle information and the vehicle surrounding information can be obtained by the following Expression 2.
  • each time series pattern calculated using each driving information is associated as a time series pattern acquired in the same traffic environment. That is, two or more time series patterns based on driving information collected in the same traffic environment are stored in association with each other.
  • the driving support system it is possible to accumulate information while maintaining the relationship between the driving operation corresponding to the traffic environment and the information such as the traffic environment and the driver's state.
  • the information such as the traffic environment and the driver's state.
  • the next state is predicted and related in time based on the driving information that can be observed.
  • Estimate driving information predict driving information that should be happening at the same time in the same traffic environment but cannot be observed, and provide driving assistance to the driver.
  • the driving support system shown as the third embodiment is realized by a network system as shown in FIG. 14, for example.
  • the driving support system shown in FIG. 14 has a communication function in which the in-vehicle device 201 transmits and receives information to and from various devices outside the vehicle.
  • This communication function can communicate with the base station 202, the infrastructure device 203, the on-vehicle device 204, and the mobile device 205.
  • This communication function exchanges information via a telephone line or an Internet line via packet communication of a mobile communication service or wireless communication such as a wireless LAN.
  • the components of the driving support system are made wireless, for example, the base station 202 is provided as a data center outside the vehicle, and all the arithmetic processing is not performed only by the own vehicle in-vehicle device 201 but shared with the base station 202. Good.
  • this driving support system has a configuration in which the vehicle-mounted device 201 and the base station 202 are connected by a communication line.
  • This driving support system includes a communication unit 201a provided in the vehicle-mounted device 201, a temporary storage unit 201b, and a communication unit 202a provided in the base station 202 with respect to the driving support system in the first embodiment.
  • the communication unit 201a that exchanges information with the in-vehicle device 201 and the outside of the vehicle does not necessarily need to be able to always communicate. For example, it communicates at regular intervals, communicates only when the communication line is in good condition, communicates when idling at zero vehicle speed, communicates during charging of an electric vehicle, or communicates at the start of travel or after the end of travel. Alternatively, communication may be performed only when the driver permits communication. Further, the recorded operation information may be stored while the communication line is disconnected, and information may be exchanged in a divided or batch manner at the time of communication connection.
  • the communication unit 201a is not necessarily required to perform wireless communication such as packet communication of a mobile communication service or wireless LAN, and may exchange information by wire when the vehicle is parked.
  • a removable storage medium is installed in the vehicle on-vehicle device 201, and driving information is stored in the storage medium during traveling. Then, the owner of the vehicle may attach / detach the storage medium and manually upload the driving information and download the map information.
  • the communication units 201a and 202a are roadside devices DSRC (spot communication: 5.8 GHz narrow band communication (Dedicated Short Range Communication)), VICS (registered trademark) (road traffic information communication system: Vehicle Information and Communication System), FM used in ETC, etc.
  • Information distribution by communication equipment provided as infrastructure equipment 203 such as multiplex broadcasting, digital broadcasting, radio wave beacon, and optical beacon may be used.
  • the communication unit 201a may exchange information of an imaging device (traffic monitoring camera) or a sensor installed on the road and obtain information obtained by the driving information acquisition unit 1. For example, it is possible to acquire fixed point observed traffic information that cannot be collected by a mobile object from sensors installed on the road.
  • an imaging device traffic monitoring camera
  • a sensor installed on the road For example, it is possible to acquire fixed point observed traffic information that cannot be collected by a mobile object from sensors installed on the road.
  • the communication unit 201a is not limited to the exchange of information between road vehicles, and may perform information communication between the on-vehicle device 204 and the vehicle. Furthermore, the communication unit 201a may exchange information between a mobile device 205 held by a pedestrian or a person riding a bicycle and a person's vehicle. By acquiring travel data of vehicles other than the host vehicle, driving information acquired from a vehicle with a large number of in-vehicle sensors to a small number of vehicles can be provided, or the relative positional relationship in the same environment can be included in the information be able to.
  • the communication unit 201a exchanges information between a mobile device 205 and a person's vehicle possessed by a pedestrian or a person riding a bicycle.
  • the presence and movement of moving objects other than vehicles can be used as information, and pattern information can be exchanged between the pedestrians, bicycles, and vehicles. And avoiding danger.
  • FIG. 14 only two vehicles, ie, a vehicle on which the on-vehicle in-vehicle device 201 is mounted as a vehicle and a vehicle on which the other-vehicle in-vehicle device 204 is mounted are illustrated. However, information can be transmitted to or received from the base station (data center) 202 via the communication path, and the number is not limited. Similarly, only one infrastructure device 203 or mobile device 205 is shown, but other devices (not shown) also transmit and receive information with a plurality of devices and vehicles via a communication path, and limit the number of the devices. Not what you want.
  • the communication unit 201a that exchanges information with the communication device outside the vehicle has the information acquired by the communication unit 201a by the driving information acquisition unit 1. It can be used as driving information.
  • the driving support system can acquire travel data of other vehicles by the vehicle on-vehicle device 201, and can create and use a wide range of map information such as a place where the vehicle has not traveled yet.
  • the driving support system can collect information on imaging devices and sensors in the traffic environment installed on the road. Furthermore, the driving support system enables the vehicle on-vehicle device 201 to communicate with a computing device outside the vehicle such as a server environment, so that it is not necessary to perform all the calculation processing on the vehicle on-vehicle device 201, and communication load and calculation amount can be reduced. Considering this, it becomes possible to share processing optimally.
  • the driving support system shown as the fourth embodiment has an attribute assigning unit 8 as compared with the driving support system of the above-described embodiment, for example, as shown in FIG.
  • the attribute assigning unit 8 assigns an attribute to the driving information acquired by the driving information acquiring unit 1.
  • the statistical information generation unit 3 performs statistical processing using the driving information as a time series pattern for each attribute assigned by the attribute assigning unit 8.
  • Attribute provided by the attribute assigning unit 8 is information for classifying the situation at the time of driving information acquisition. Attributes include, for example, attributes related to time (date, time, time zone, day of the week, month, quarter, season, etc.) and attributes related to driving environment (congestion, crowd, cruise, stop and go, residential area, school zone, mountainous area, etc. Part, etc.), attributes related to the usage of the car (commuting, work, leisure, long distance travel, etc.), and attributes related to the vehicle occupant (one person, multiple persons, family members, senior citizens, driving beginners, etc.).
  • the attribute assigning unit 8 may automatically give an attribute to the driving information when the driving information is acquired, or may give the attribute to the driving information according to the driver's switch operation.
  • This driving support system performs, for example, the processing shown in FIG. 17 and performs statistical processing on the driving information to which the attribute is given.
  • the statistical information generation unit 3 of the driving support system classifies the time-series driving information to which the attribute acquired in step S11 is assigned for each attribute in step S51.
  • the statistical information generation unit 3 segments the driving information classified for each attribute in step S12.
  • step S52 the statistical information generation unit 3 reads out the time series pattern stored as the map information together with the attribute.
  • step S14, S15, and S17 regardless of the attribute, the time-series pattern is updated or a new time-series pattern is generated as in the above-described embodiment.
  • new attribute information is added to the calculated time-series pattern together with the attribute given before the calculation process, and transmitted to the map information generation unit 4.
  • attributes are given to driving information, and statistical processing is performed using the driving information as a time-series pattern for each attribute. It can be obtained for each attribute and provided for driving support. For example, even in the same place on the map, it is possible to describe in more detail the characteristics of places where the traffic environment changes depending on the time zone, season, day of the week, and weather as attributes. For each attribute that forms a location, the location feature can be described.
  • a time series pattern of driving information can be extracted for each driving skill related to the driver, and driving support such as information provision and operation support according to the driving skill can be performed.
  • driving support such as information provision and operation support according to the driving skill can be performed.
  • the driver can select an avoidance route in advance even when he / she passes in a different time zone or at a place where he / she passes for the first time.
  • the time series pattern of the statistically processed driving information is used as map information in association with the position information, so that the time change of the dynamic driving information can be stored and driving assistance can be performed regarding the dynamic environment. it can.

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Business, Economics & Management (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)
  • Navigation (AREA)

Abstract

 運転者の操作量及び車両挙動、運転者の状態、車両周囲の環境情報の何れかを運転情報として取得する運転情報取得部1と、車両の位置情報を取得する車両位置情報取得部2と、運転情報を時系列パターンとして統計処理して、統計情報を生成する統計情報生成部3と、運転情報を取得した時の車両の位置情報と統計情報とを関連付けて地図情報を生成する地図情報生成部4と、既存の地図情報を生成された地図情報に更新する地図情報更新部71と、車両の位置情報に基づいて、地図情報を参照して読み出す地図情報参照部5と、読み出された地図情報に基づき、運転支援を行う運転支援部6とを備える。

Description

運転支援システム及び運転支援方法
 本発明は、車両の運転を支援する運転支援システム及び運転支援方法に関する。
 従来より、車両に撮像装置等を搭載し、走行しながら交通環境の情報を収集する技術として、例えば、下記の特許文献1に記載された地図情報収集装置がある。
 この地図情報収集装置は、車両に搭載した撮像装置により取得した車両周辺画像に含まれる情報を、画像認識処理を行うことで収集する。また、この地図情報収集装置は、同じ場所の画像情報が複数回認識される場合には統計的に学習処理することで、認識位置の誤差の影響を抑制している。
 上述した地図情報収集装置は、画像認識によって情報を取得して同じ場所で同様の画像情報が複数回認識される場合に統計的に学習処理している。したがって、自車両や周囲の他車両の動きといった時間的に変化する動的な交通環境情報を、地図情報として統計的に作成することはできなかった。
 そこで、本発明は、上述した実情に鑑みて提案されたものであり、時間的に変化する情報を取得して運転支援のために提供できる運転支援システム及び運転支援方法を提供することを目的とする。
特開2008-250687号公報(特許第4569837号)
 本発明は、上述の課題を解決するために、運転情報を取得し、当該運転情報を時系列パターンとして統計処理した統計情報を、当該運転情報を取得した時の車両の位置情報と関連付けて地図情報を生成、更新する。運転支援をする際には、車両の位置情報に基づいて地図情報を参照して読み出して、読み出された地図情報に基づき、運転支援を行う。
図1は、本発明の第1実施形態として示す運転支援システムの構成を示すブロック図である。 図2は、本発明の第1実施形態として示す運転支援システムにおいて、色特徴量、テクスチャ特徴量を説明する図である。 図3は、本発明の第1実施形態として示す運転支援システムにおいて、物体形状特徴量を説明する図である。 図4は、本発明の第1実施形態として示す運転支援システムにおいて、運転情報が周囲映像の場合の時系列化処理を示すフローチャートである。 図5は、本発明の第1実施形態として示す運転支援システムにおいて、統計情報を生成し地図情報を更新する処理を示すフローチャートである。 図6は、本発明の第1実施形態として示す運転支援システムにおいて、時系列の運転情報の分節化について説明する図である。 図7は、本発明の第1実施形態として示す運転支援システムにおいて、分節化された運転情報を階層的に分類することを説明する図であり、(a)は一方の運転情報、(b)は他方の運転情報について示す。 図8は、本発明の第1実施形態として示す運転支援システムにおいて、地図情報を生成して記憶する処理を示すフローチャートである。 図9は、本発明の第1実施形態として示す運転支援システムにおいて、区間ごとに統計情報を生成する処理を示すフローチャートである。 図10は、本発明の第1実施形態として示す運転支援システムにおいて、運転情報を予測する処理を含むフローチャートである。 図11は、本発明の第2実施形態として示す運転支援システムにおいて、統合パターン生成手段を追加した構成を示すブロック図である。 図12は、本発明の第2実施形態として示す運転支援システムにおいて、地図情報を生成するに際して統合パターンを生成する処理を示すフローチャートである。 図13は、本発明の第2実施形態として示す運転支援システムにおいて、統合パターンを生成する処理を説明する図である。 図14は、本発明の第3実施形態として示す運転支援システムにおいて、相互に通信を行う対象を示すブロック図である。 図15は、本発明の第3実施形態として示す運転支援システムにおいて、車載機器に通信手段を含む構成を示すブロック図である。 図16は、本発明の第4実施形態として示す運転支援システムにおいて、運転情報に属性を付与する構成を追加したブロック図である。 図17は、本発明の第4実施形態として示す運転支援システムにおいて、運転情報の属性ごとに統計情報を生成する処理を示すフローチャートである。
 以下、本発明の実施の形態について図面を参照して説明する。
[第1実施形態]
 本発明の第1実施形態として示す運転支援システムは、例えば図1に示すように構成されている。図1に示すように、この運転支援システムは、運転情報取得部1、車両位置情報取得部2、統計情報生成部3、地図情報生成部4、地図情報参照部5、運転支援部6、及び、地図情報記憶部7を含む。
 なお、運転支援システムの一部は、実際にはROM、RAM、CPU等にて構成されているが、当該CPUがROMに格納された運転支援用のプログラムに従って処理をすることによって実現できる機能をブロックとして説明する。
 運転情報取得部1は、運転者状態情報取得部11、車両周囲情報取得部12、車両情報取得部13のうち、一つがあればよい。運転者状態情報取得部11は、運転者の状態を検出する。車両周囲情報取得部12は、車両周囲の環境情報を取得する。車両情報取得部13は、車両情報として運転者の操作量及び車両挙動を検出する。運転者状態情報取得部11は、取得した運転情報を車両位置情報取得部2、統計情報生成部3及び運転支援部6に供給する。
 車両位置情報取得部2は、車両の位置情報を取得する。この車両位置情報取得部2は、例えば、GPSアンテナ及びGPS用の演算機器等からなる。車両位置情報取得部2は、運転情報取得部1から取得した運転情報としての車両の挙動に基づいて、車両の位置情報を演算してもよい。車両位置情報取得部2は、取得した車両の位置情報を運転支援部6、地図情報生成部4及び地図情報参照部5に供給する。
 統計情報生成部3は、運転情報取得部1から供給された運転情報を時系列パターンとして統計処理して、統計情報を生成する。
 地図情報生成部4は、車両位置情報取得部2から得られる運転情報を取得した時の車両の位置情報と、統計情報生成部3により生成された統計情報とを関連付けて地図情報を生成する。すなわち、地図情報生成部4は、位置情報に基づき統計情報生成部3で生成される統計情報を地図情報とする。
 地図情報記憶部7には、データベースとして道路地図データが格納されている。地図情報記憶部7は、地図情報生成部4から送られる地図情報を書き込むことができる地図情報更新部71を備える。地図情報更新部71は、既存の地図情報を地図情報生成部4により生成された地図情報に更新する。
 地図情報参照部5は、車両位置情報取得部2によって取得された位置情報に基づいて、地図情報記憶部7に記憶された地図情報を参照して読み出す。これにより、地図情報参照部5は、地図情報記憶部7に蓄えられたデータのうち、現在の車両位置に記憶された運転に関する統計情報を引き出す。
 運転支援部6は、地図情報参照部5によって得られた統計情報(地図情報)に基づいて、運転支援を行う。また、運転支援部6は、地図情報のみならず、運転情報取得部1によって得られるリアルタイムの運転情報に基づいて、運転支援を行ってもよい。この運転支援は、運転者に対して運転に有用な情報を提供することを含む。また、運転支援部6は、統計情報及び運転情報に基づいて、車両の制御を行ってもよい。
 つぎに、上述した運転支援システムにおいて、運転情報取得部1及び車両位置情報取得部2による情報取得処理の詳細について説明する。
 車両位置情報取得部2は、車載のナビゲーションシステムや、運転者の持つ携帯電話などに搭載されているGPS(Global Positioning System)の信号を利用する。車両位置情報取得部2は、位置情報として、GPSで緯度経度、高度などを取得する以外に、車載ナビゲーションシステムなどが持つ地図情報を位置情報としてもよい。公知のナビゲーションシステム用地図として、例えば、地図上で一定間隔のメッシュ状に区切られた区画の番号や、道路をリンクとして表現した際のリンク番号、交差点や分合流地点をリンク同士の接点であるノードとして表現し、そのノード番号などを地図情報として持つ地図が知られている。車両位置情報取得部2は、車載GPSにより車両位置の緯度経度を検出した後に、当該地図情報と車両位置をマッチングし、マッチング後のメッシュ番号やリンク番号、ノード番号を、位置情報として緯度経度に加えてもよい。
 運転者状態情報取得部11は、運転者の状態として顔の動きを検出する。運転者状態情報取得部11は、例えば運転席前方に設置された撮像装置により運転者の頭部を含む映像を取得し、この映像情報を顔動き検出装置に入力する。顔の動き検出装置としては、公知の認識手法を利用すればよい。例えば特開2005-196567に示された技術を利用可能である。この顔向き検出装置により、運転者状態情報取得部11は、頭部の姿勢角を取得する。また、運転者状態情報取得部11は、頭部の姿勢角以外に、撮像した映像に基づいて、運転者の視線や瞬き、口の動きや表情、顔や頭部を触る手の動きなどを検出し、運転者の状態情報として利用してもよい。更に、運転者状態情報取得部11は、運転者の体の動きとして、シート座面・背面・サイドサポートなどの体圧分布値を用いても良い。更に、運転者状態情報取得部11は、運転者の生体信号として、血圧や呼吸、心拍、発汗、筋電位などを利用したり、脳血流などにより簡易的に計測される脳活動量を利用してもよい。運転者状態情報取得部11は、生体情報と、視線、表情、体温など複数の計測値とを組み合わせ、公知の算出技術を用いて眠気やイライラ、覚醒度、緊張度、リラックスの度合いを運転者の状態を示す情報として算出し、取得しても良い。
 車両周囲情報取得部12は、車両周囲の環境情報として、自車両周囲の物体まで距離や物体形状などの観測値を取得する。このために、車両周囲情報取得部12は、例えば、レーンキープシステムや車間維持制御システムなどのセンサであるレーザーセンサやミリ波レーダー、超音波センサといった測距センサを利用する。また、車両位置情報取得部2は、ビデオカメラなど撮像装置の動画や静止画を用い、路面に描かれている白線や停止線、横断歩道、進路を示す矢印などの位置や、車線内の自車両の横位置や前方車線の曲率、信号機や道路標識、歩行者や自転車、周囲を走行する車両など、車を運転する際に運転者が注意を向ける対象を検出し、それら検出値や検出対象の形状や色、自車両との相対距離(位置)などを車両周囲の環境情報として取得してもよい。また、車両位置情報取得部2は、後述するように、センサ値や画像をもとに、渋滞の車列の中や、人ごみの中、閑散とした道路や住宅街の狭い生活道路といった、運転に関連する場の雰囲気を時系列データ化できれば、車両周囲の環境情報として取得してもよい。
 車両情報取得部13は、運転者の操作量や車両挙動の情報を取得する。車両情報取得部13は、例えば、操舵角、アクセル開度、ブレーキ操作量、方向指示器スイッチ信号、ワイパースイッチ信号、車速、前後加速度、上下加速度、左右加速度、ヨーレイト、ロールレイト、ピッチングレイトなどを取得する。車両情報取得部13は、センサや操作機器から直接信号を取得してもよく、また車両CANのような車載ネットワークに流れる信号を取得してもよい。車両挙動の検出に関し、例えば車体ヨーレイトは、車体に設けたヨーレイトセンサによって検出するのが最も直感的な方法である。しかし、直接に車両ヨーレイトを検出する以外にも、例えば操舵角と車両の速度を検出し、その結果に基づいて車両ヨーレイトを推定してもよい。車両ヨーレイトを推定する場合、ヨーレイトセンサの代わりに操舵角センサと車速センサを設ける。このように、車両情報取得部13は、直接に車両情報を検出せずに、演算による推定値としての車両情報を取得してもよい。
 また、運転情報取得部1及び車両位置情報取得部2で取得する情報は、車両CANに流れている情報のように車両に標準装備されているセンサ機器の情報以外に、車両の利用者が後から車載したセンサ機器の情報を利用しても良い。運転者状態情報取得部11において上述した運転者の生体信号を計測するセンサ機器などのように、例えば、既存のGPSやジャイロセンサを搭載するナビゲーションシステムや、車載ビデオカメラ、加速度センサやGPSを備えた携帯電話などのモバイル機器、既存のドライブレコーダーなどを車両に設置して、それらの機器が搭載するセンサの出力情報を利用しても良い。
 運転情報取得部1により取得する運転情報には、車速や舵角、車間距離といった1次元の情報が含まれる。運転情報には、1次元情報のほかに、多次元時系列情報が含まれる。例えば、運転情報には、カメラ画像やミリ波レーダーのように“面”で計測される情報が含まれる。更に、運転情報には、レーザーレーダーのような走査型センサにより“線(点列)”で計測される情報が含まれる。更に、運転情報には、車両四隅に設置した超音波センサや筋電位のように複数個で一式として扱われ、“複数点”に関連を持たせて計測される情報が含まれる。更に、カメラ画像などは、色、輝度、濃度といった情報や、テクスチャ情報、輪郭(エッジ)など物体形状特徴の情報、というように、画面を構成する1ピクセルの中にも意味が異なる複数の情報を持っている。
 本実施形態の運転支援システムは、上述の複数の1次元時系列情報や多次元時系列情報を、同じ交通環境において同じ地点で同じ時間に取得された情報として、各情報間の関連性を保った状態で統計処理を行うという特徴を有する。
 図2及び図3は、運転情報取得部1により取得する情報が“面”で車外を撮像するカメラ映像100の場合に、静止画として映像を切り出し、それぞれの静止画から特徴量101を抽出して時系列化する処理のイメージ図である。色の特徴量やテクスチャ特徴量を抽出する場合は、運転情報取得部1は、図2に示すように、カメラ映像100を分割したセルごとに特徴量101を算出し、時間軸に沿ってセルごとの特徴量の時間変化を時系列データとする。色の特徴量に関して、色空間としてRGB色空間やCIE-XYZ色空間、L*a*b*色空間など公知の色空間を利用してもよい。また、色の特徴量としてセルごとに、色ヒストグラムや、色空間における色分布の統計量である色モーメント(平均、分散、共分散、非対称性など)、などを利用してもよい。
 また、運転情報取得部1は、画像全体の特徴量を算出できる。さらに、運転情報取得部1は、画像をセルに分割して各領域の特徴量を計算した上で、領域に着目し、テクスチャ特徴量を利用してもよい。テクスチャ特徴量としては、規則的なテクスチャを記述する構造特徴(モルフォロジ演算、隣接グラフなどによる量)や、画像輝度の統計的分布で記述する統計特徴(フーリエ・パワースペクトル、濃度共起行列、マルコフランダムフィールド、フラクタルモデル、Gabor変換やWavelet変換など各種多重解像度特徴量など)といった公知の認識手法を利用すればよい。運転情報取得部1は、画像全体の色特徴量やテクスチャ特徴量を算出し、時系列データとして利用する。これにより、交通環境が人や自転車、他車両によって混雑している状態や空いている状態、壁や障害物が迫っている狭い道や山道、同じような景色が続く高速道路など、情報取得地点における交通環境(雰囲気)の時間変化を、時系列データとして統計的に蓄積・利用することができる。
 さらに、運転情報取得部1は、図3に示すように物体形状の特徴量102を検出してもよい。運転情報取得部1は、走行車線内の自車両の横位置や前方車線の曲率、停止線や横断歩道などの路面表示、信号機や道路標識、歩行者や自転車、周囲を走行する他車両など、車を運転する際に運転者が注意を向ける対象を検出する。さらに、運転情報取得部1は、検出対象との相対距離(位置関係)やその形状、色などを検出する。運転情報取得部1は、車を運転する際に運転者が注意を向ける対象の形状や色などを、物体形状の特徴量102として取得する。
 運転情報取得部1は、対象を検出する過程で求める物体形状の特徴量102の変化や対象の動き(位置の時間変化)を、時系列データとして利用してもよい。特定対象の検出や形状特徴量の検出方法は、公知の認識手法を利用すればよい。例えば、大域形状特徴量として領域特徴量(Zemike moment、2D Angular Radial Transformation(ART)など)や輪郭特徴量(Fourier Descriptor、Curvature Scale Space、Edge Direction Histogramなど)を、局所特徴量として(Color)SIFTやSpin Images、Video Googleといった特徴量や、Bag-of-featuresアプローチなどを利用して、特定の対象物や形状特徴量を検出すればよい。
 運転情報取得部1は、図4に示すような処理によって、取得した運転情報を時系列データに変換する。
 まず、ステップS1において、運転情報取得部1及び車両位置情報取得部2は、運転情報取得時の車両の位置情報と共に運転情報を取得する。
 次のステップS2において、運転情報取得部1は、取得した運転情報を時系列データ化する。CAN信号など取得時点で時系列化の処理が必要ない情報については、ステップS2をスキップして、ステップS3へ進めてもよい。上述した映像などが運転情報である場合には、運転情報取得部1は、運転情報から特徴量などを算出し、算出情報の時間変化を時系列データとする。
 次のステップS3において、ステップS2にて得られた各特徴量の時系列データのセットと、車両位置情報とを関連付ける。
 次のステップS4において、運転情報取得部1は、ステップS3において車両の位置情報と関連づけられた多次元の時系列データとしての運転情報を、統計情報生成部3に送信する。
 車両周囲情報取得部12として車外を撮像するカメラ映像を使用した場合、ステップS1において、運転情報取得部1によって、車両周囲の映像を、撮像時の車両の位置情報と共に取得する。
 次のステップS2において、運転情報取得部1は、取得した映像から特徴量を抽出する。映像には様々な情報が含まれているため、例えば一定のサンプル時間ごとに静止画として映像を切り出し、上述した公知の画像認識手法により特徴量を抽出する。運転情報取得部1は、抽出した各特徴量ごとの時間変化を、時系列データとする。
 次のステップS3において、得られた各特徴量の時系列データのセットと、映像の撮像位置情報(車両位置情報)とを関連付ける。
 次のステップS4において、運転情報取得部1は、統計情報生成部3に、映像の位置情報と関連づけられた各特徴量のセットを、多次元の時系列データとして送る。
 ここで、運転情報が車外を撮像するカメラ映像である一例として説明したが、これに限定されるものではない。他の多次元の時系列データについても、各次元ごとの観測値を時系列データとするだけでなく、複数次元の観測値から一つの時系列データを算出したり、特徴量などを抽出してその時間変化を時系列データとして利用してもよい。例えば、車間維持制御システムなどで利用されている走査型測距センサのレーザーレーダーを利用した場合は、観測される走査角度ごとの距離データに加えて、レーザーレーダー観測値から公知の認識手法を用いて算出される他車両の相対位置データを時系列データとして利用してもよい。
 つぎに、統計情報生成部3による統計状態の生成処理、及び、地図情報生成部4及び地図情報更新部71による地図情報の更新処理について説明する。
 統計情報の生成処理及び地図情報の更新処理は、例えば図5に示すような処理により実現できる。
 先ず、ステップS11において、統計情報生成部3は、運転情報取得部1によって時系列処理され、車両位置情報と関連付けられた運転情報を取得する。
 次のステップS12において、統計情報生成部3は、ステップS11にて取得した運転情報の時系列データについて、変化が大きい時点を時系列パターンの境界として分節化する。
 次のステップS13において、統計情報生成部3は、データベースとしての地図情報記憶部7から地図情報として既に記憶されている運転情報の時系列パターンを読み出す。
 次のステップS14において、統計情報生成部3は、ステップS13にて分節化した運転情報の時系列パターンと尤度が高く類似している時系列パターンが、既に地図情報記憶部7に記憶されているか否かを判断する。類似した時系列パターンが既に地図情報記憶部7に存在する場合は、運転情報を地図情報生成部4に供給して、ステップS15に処理を進める。一方、分節化した運転情報の時系列パターンと尤度が高く類似した時系列パターンが存在しない場合は、ステップS17に処理を進める。
 ステップS15において、統計情報生成部3、地図情報更新部71は、新たに取得した運転情報を加えて統計処理を行い、地図情報記憶部7に記憶した時系列パターンを更新する。
 一方、ステップS17において、統計情報生成部3は、新たに取得した運転情報と他の記憶されている運転情報の時系列パターンをもとに統計処理を行う。これにより、統計情報生成部3は、新規に運転情報の時系列パターンを生成する。
 ステップS16において、統計情報生成部3は、更新された又は新たに生成された運転情報の時系列パターンを統計情報として地図情報生成部4に送信する。
 図6は、多次元の運転情報の時系列データを分節化するイメージ図である。統計情報生成部3は、取得した時系列データの次元数に関わらず、データA,B,C,D,E間の関係性を維持した状態でまとめて処理し、その変化が大きい時点を時系列パターンの境界として分節化する。図6の一例では、t1~t2,t2~t3,t4~t5,t6~t7,t8以降、に運転情報の時系列データA,B,C,D,Eを区分して分節化している。
 図7は、運転情報から時系列パターンを算出する手法の一例として、分節化された時系列の運転情報(segment)を階層的クラスタリング手法によってクラスに分類する場合の木構造のイメージ図である。時系列パターンは、分節化された各時系列の運転情報を(a)、(b)のように、クラスごとに統計処理し、各クラスの統計的な時系列パターンとして求めてもよい。また、クラスの中から代表的な分節化された時系列の運転情報を一つ選び、時系列パターンとしてもよい。
 発明者らはこれまでに、連続多次元の時系列観測データから、そのデータを構成するパターンを抽出する方法と、パターンによる時系列観測データの認識(コード化・抽象化)方法、パターンからの時系列データの生成(推定)方法を発見し、それら認識・生成方法を用いてシステムの制御を行うための1つの手段として、例えば特許第4027838号を考案している。
 本実施形態の統計情報生成部3及び地図情報生成部4において、この手法をパターンの抽出・認識手法として利用してもよい。分節化した時系列データからのパターン抽出手法として、隠れマルコフモデル(HMM)という確率統計モデルを用いている。そのほかに、本実施形態においては、ニューラルネットワークや遺伝的アルゴリズムを用いた手法でも、閾値や特徴平面を利用して識別する線形判別関数を用いた手法を用いてもよい。公知のパターン識別手法やデータ集合のクラスタリング手法を用いてもよい。教師あり、教師なしの機械学習や、群平均やウォード法といった公知の階層的クラスタリング手法を利用してもよい。
 つぎに、地図情報生成部4及び地図情報記憶部7で行われる処理の内容を、図8のフローチャートを参照して説明する。
 ステップS21において、地図情報生成部4は、運転情報取得部1で取得した運転情報、当該運転情報を取得した車両の位置情報、時系列パターン(運転パターン情報)を取得する。
 ステップS22において、地図情報生成部4は、ステップS21にて取得した運転情報を時系列のパターンへ変換し、運転情報を時系列で記述する。
 ステップS23において、地図情報生成部4は、ステップS22にて時間軸で記述された運転情報の列において、時間的に前の運転情報のパターンから時間的に後の運転情報のパターンへの遷移確率を算出する。
 ステップS24において、地図情報生成部4は、ステップS23で求めた遷移確率と共に運転情報の時系列パターンを、地図空間上の位置に関連付けて地図情報とし、地図情報記憶部7に記憶する。
 地図情報は、統計処理された運転情報の時系列パターンと位置情報とを関連付けて記憶させている。このため、車両位置情報取得部2によって得られる車両位置情報と、地図情報参照部5によって得られる統計情報としての運転情報の時系列パターンとの両方の情報を組み合わせている。これにより、地図空間上の特定の区間・地点において、車両挙動や運転操作、運転者の状態、交通環境などがどのように時間変化するのか、統計的な時系列パターンとして知ることができる。
 また、統計処理を行った運転情報の時系列パターンを地図情報として扱っている。これにより、運転情報取得部1が取得したデータの全てをそのまま記録する必要がなくなる。このため、地図情報記憶部7の記録データ容量を節約でき、効率的に情報を蓄えることができる。
 さらに、ある時系列パターンから他の時系列パターンへの時間的、空間的遷移を遷移確率として求め、地図情報として時系列パターンに関連付けて記憶させている。このため、観測される運転情報や位置情報をもとに遷移する確率の高い運転情報の時系列パターンを判別することが可能になる。
 図9は、統計情報生成部3、地図情報更新部71で行われる、区間ごとの統計情報生成の処理の内容を示すフローチャートである。
 ここで、図5では、時系列処理され位置情報と関連付けられた運転情報をステップS11で取得し、ステップS12で取得した時系列の運転情報を分節化し、ステップS13以降で時系列パターン化の処理を行っている。時系列パターン化の処理にあたっては、運転情報の取得場所に関係なく、全ての分節化された運転情報をもとに時系列パターンの抽出を行う。その後、図8によって説明したように、地図情報生成部4において、時系列の運転情報を遷移確率と共に地図空間上の位置に関連付けて地図情報としている。地図上の情報取得された区間に関係なくまとめて時系列パターンを算出することで、時系列パターンの数を抑制するなど数をコントロールすることができ、演算量やデータ容量を節約することができる。
 これに対し、図9の処理は、ステップS11で取得した時系列の運転情報を、統計情報生成部3によって、ステップS41で地図上の区間ごとに分割する。分割する区間は、道路上の一定距離ごとに区切ってもよい。また、道路区画や道路種別など走路線形に応じて区切ってもよい。更に、ナビゲーション用の地図が持つリンクやメッシュごとに区切ってもよく、緯度経度、一定範囲のエリアで区切ってもよい。
 統計情報生成部3は、区間ごとに分割された運転情報をステップS12で分節化した後、ステップS42に進む。ステップS42以降のステップでは、地図情報生成部4は、世の中全ての時系列パターンを対象とせず、区間ごとで時系列パターンの読み出し、更新、新規生成処理を行う。
 ステップS43では、統計情報生成部3は、区間ごとに算出され、既に地図空間上に関連付けられている区間ごとの時系列パターンを地図情報生成部4へ送信する。
 以上のように、運転情報を取得された地図上の区間ごとに分割し、分割された運転情報をもとに区間ごとに、運転情報の時系列パターンを算出する。これにより、その区間特有の運転情報の時系列パターンを抽出することができる。
 なお、運転情報を統計処理して時系列パターンを算出して更新するタイミングは、運転情報を収集するにつれて逐次更新、あるいは一定周期で更新、収録した運転情報が一定量蓄積された時点で更新、あるいは運転者が任意に設定したタイミングであってもよい。また、時系列パターンを算出して更新に使用する運転情報は、収録開始時から最新の情報まで全ての運転情報で統計処理してもよく、一定期間に収録された運転情報で統計処理してもよい。
 更に、第1実施形態として示す運転支援システムは、図10に示すように、地図情報参照部5及び運転支援部6によって次の情報提供又は運転操作を予測してもよい。
 先ず、ステップS61において、地図情報参照部5は、車両位置情報取得部2において得られる車両位置情報に基づき、地図情報記憶部7に蓄えられたデータの中からその位置に記憶された運転に関する統計情報を引き出す。
 次のステップS62において、地図情報参照部5は、現在位置における運転情報の時系列パターンを獲得する。
 次のステップS63において、地図情報参照部5は、ステップS62にて獲得した運転情報の時系列パターンから、次に遷移する運転情報の時系列パターンを確率的に予測する。
 次のステップS64において、地図情報参照部5は、ステップS63にて確率的に予測された次に遷移する統計的な運転情報の時系列パターンと、運転情報取得部1によって得られるリアルタイムの情報、両方の情報を利用して運転者へ情報提供や操作支援などの運転支援を行う。
 以上のように、運転支援システムは、運転情報取得部1によってリアルタイムに観測される運転情報と、地図情報参照部5によって得られる統計情報とを利用することにより、現在の運転状態を時系列パターンに置き換えて記述することができる。そして、当該時系列パターンの遷移確率に基づいて、時間的に次に遷移する確率が高い運転情報の時系列パターンを判別することが可能になる。これにより、車両が次に遭遇する交通環境の運転情報を時系列パターンとして確率的に予測することができる。
 一方、車両位置情報取得部2によってリアルタイムに観測される車両位置情報と、地図情報参照部5によって得られる統計情報とを利用している。これにより、現在の車両が存在する場所に関連付けられている運転情報の時系列パターンを取得することができる。これにより、現在の車両が存在する場所が普段はどのような交通環境なのかを情報提供して、運転支援をすることができる。
 さらには、空間的に隣の場所・区間が普段はどのような交通環境なのかについても情報提供して、運転支援をすることができる。さらに、現在の車両が存在する場所に関連付けられている時系列パターンの遷移確率に基づいて、時間的に次に遷移する確率が高い時系列パターンを判別することが可能になる。普段この場所を通った車両が次に遭遇する交通環境の運転情報を確率的に予測することも可能になるということである。
 運転支援部6は、事前に運転情報の時系列パターンに対応する音声情報や視覚情報、操作情報を設定する。運転支援部6は、運転者へ提供できるようにスピーカなどの音声出力装置あるいはモニタなどの視覚情報提示装置、あるいはハンドルやアクセル、ブレーキの操作量や操作力を制御出力できるパワーアシスト装置を含む。運転支援部6は、前述の予測される時系列パターンから安全のための運転操作量を生成し、運転支援手段を利用して運転者に対して操作量を提示してもよい。さらに、運転支援部6は、複雑な交通環境への気構えとなる情報を事前に提示してもよい。さらに、運転支援部6は、より楽に走行するための経路変更の情報や、進路変更のタイミングの提示や操作量のアシストなど、といった運転支援を行うことが可能になる。
 以上のように、第1実施形態として示す運転支援システムは、運転情報を時系列パターンとして統計処理して、車両位置情報と関連付けて地図情報を生成し、既存の地図情報を更新する。この運転支援システムによれば、統計処理された運転情報の時系列パターンを位置情報と関連付けて地図情報として用いるため、地図上の区間・地点における車両挙動や運転操作、運転者の状態、交通環境などの動的な時間変化を記述・記憶することができる。そのため、運転支援システムによれば、自車両や周囲の他車両が動くことによって時間変化する動的な交通環境に関して、運転者へ情報提供したり操作支援などの運転支援を行うことが可能になる。
 運転支援システムは、地図情報として時系列パターンが記憶されていることを利用することで、現在の車両が存在する場所に関連付けられている時系列パターンを取得することができる。これにより、運転支援システムは、車両が存在する場所が普段はどのような交通環境なのかを情報提供することができる。
 例えば、走行軌跡が車線内に留まっていない時系列パターンが得られた場合、車線間を交差する車両が多いことがわかる。このため、運転支援システムは、「車線変更を行う車両に注意」と運転者に対して情報提供することが可能になる。空間的に次の区間の時系列パターンとして、車線間を交差する車両が多いとわかれば、「この先、車線変更を行う車両に注意」と運転者に対して情報提供することが可能になる。運転者の状態として、顔の動きや視線を横に向けるパターンが多く得られる場合、車速などの車両情報の時系列パターンと合わせることで運転者に対して「わき見運転注意」、「追突注意」といった情報を提供することが可能になる。さらに、血圧や心拍、表情をもとに運転者のイライラ状態や緊張状態、眠気度合いを時系列パターンとして得ることで、「車間距離をとりましょう」「運転お疲れ様です。一休みしましょう」といった情報提供が可能になる。
 運転支援システムは、上述した情報提供を、音声情報やディスプレイへの視覚情報として提供するだけでなく、運転操作量としてペダル操作量などを制御することで、運転者の運転を安全側へ誘導・アシストすることも可能である。さらに、運転支援システムは、車両情報から、停止や停止状態から発進する際の加減速度、一時停止交差点の停止位置や動き出し方、制限速度に対する巡航速度、道路線形に対する操舵量といった時系列パターンを得ることで、運転者への運転操作量支援や、自動運転車両の制御目標値として利用することも可能になる。
 また、運転支援システムによれば、運転情報を、当該情報取得された地図上の区間ごとに分割し、分割された情報をもとに区間ごとに時系列パターンを算出する。これにより、運転支援システムは、その区間特有の運転情報の時系列パターンを抽出することができる。
 更にまた、この運転支援システムによれば、地図上の区間に関わりなく運転情報の時系列パターンを算出して、当該時系列パターンが、予め設定された複数の時系列パターンのうち何れの時系列パターンに相当するかを判別する。これにより、場所ごとに個別の運転情報の時系列パターンを算出する場合に比べて時系列パターンの数を抑制することができ、演算量やデータ容量を節約することができる。
 [第2実施形態]
 つぎに、第2実施形態に係る運転支援システムについて説明する。なお、上述の第1実施形態と同様の部分については同一符号を付することによりその詳細な説明を省略する。
 第2実施形態として示す運転支援システムは、例えば図11に示すように構成されている。この運転支援システムは、第1実施形態として示した運転支援システムに対し、地図情報生成部4に統合パターン生成部41が設けられている点で異なる。
 この運転支援システムにおいて、運転情報取得部1は、運転者の操作量及び車両挙動、運転者の状態、車両周囲の環境情報のうち複数の情報を取得する。統合パターン生成部41は、運転情報取得部1により取得された各運転情報を用いて算出される各時系列パターンを、同じ交通環境で取得された時系列パターンとして関連付ける。
 統合パターン生成部41は、例えば図12に示すような処理を行う。例えば、運転情報取得部1によって、車両情報、運転者状態情報、車両周囲情報を取得する場合における統合パターン生成部41の処理を説明する。
 ステップS31、ステップS33、ステップS35において、運転情報取得部1及び車両位置情報取得部2は、同時に車両情報、運転者状態情報、車両周囲情報の各運転情報を位置情報と共に取得する。
 ステップS32、ステップS34、ステップS36において、運転情報取得部1は、それぞれ車両情報、運転者状態情報、車両周囲情報ごとに時系列パターンに変換し、各情報を運転パターンの時系列で記述する。
 ここで、車両情報、運転者状態情報、車両周囲情報はそれぞれ、同じ地点で同じ瞬間に同じ交通環境で取得された運転情報であり、本来は各情報間に関連性を持っている。情報間の関連性とは、同じ種類の情報における時間的な遷移確率で表される関連性ではなく、同じ地点で同じ瞬間に同じ交通環境で取得されることによる、異なる種類の運転情報の間に存在する関連性(因果律、相関関係)である。
 次のステップS37において、統合パターン生成部41は、図13に示すように、異なる運転情報のパターン同士の関連性(因果律、相関関係)を表現することができる。図13は、統合パターン生成部41で行われる処理フローの説明のためのイメージ図である。なお、図13の説明は後述する。このとき、統合パターン生成部41は、各分節点において条件付き確率を算出する。
 次のステップS38において、統合パターン生成部41は、ステップS37にて算出された条件付き確率と共に各運転情報の時系列パターンをセットにし、地図上の位置に関連付けて、地図情報記憶部7に記憶させる。
 車両情報と車両周囲情報を取得している場合を一例として、異なる運転情報の時系列パターン同士の関連性(因果律、相関関係)を統計モデルによって表現する手法について説明する。運転情報取得部1によって車両情報、車両周囲情報ごとに時系列パターンに変換し、各情報を時系列パターンで記述すると、図13のように分節点の位置が異なる。各分節点における車両情報と車両周囲情報の遷移を条件付き確率として記述し、異なる運転情報の時系列パターン同士の関連性を表現する。
 ある分節点において、車両情報の時系列パターンλiと車両周囲情報の時系列パターンωjの状態から、車両情報の時系列パターンλkと車両周囲情報の時系列パターンωlの状態へ遷移する確率をP(λk、ωl|λi、ωj)として表現する。この遷移確率は、次の式1のように求めることができる。
Figure JPOXMLDOC01-appb-M000001
 ここで、n(λi、ωj)は、車両情報の時系列パターンと車両周囲情報の時系列パターンの組み(λi、ωj)がデータ中に現れた回数である。n(λi、ωj、λk、ωl)は、時系列パターンの組み(λi、ωj)から(λk、ωl)へ遷移した回数を表す。
 統合パターン生成部41は、時系列パターンの組(λi、ωj)の交通環境の状態から、確率P(λk、ωl|λi、ωj)が最大となる(λk、ωl)を求めることによって、車両情報や車両周囲情報を推定することができる。これは、運転者が経験に基づいて、感じ取った車両情報、車両周囲情報から未来の交通環境を予測する状態に似ている。したがって、運転支援システムは、運転者が認知しやすい情報を提示できる。
 現在の車両情報がλ[k]、車両周囲情報がω[k]であるときに、次の車両情報、車両周囲情報の予測は、次の式2ように求めることができる。
Figure JPOXMLDOC01-appb-M000002
 以上のように、第2実施形態として示した運転支援システムによれば、各運転情報を用いて算出される各時系列パターンを、同じ交通環境で取得された時系列パターンとして関連付ける。すなわち、同じ交通環境で収集された運転情報に基づく2つ以上の時系列パターンを関連付けて記憶させる。
 これにより、運転支援システムによれば、交通環境に対応した運転操作や、交通環境と運転者の状態といった情報間の関係性を保った状態で情報を蓄積することができる。異なる種類の運転情報の時系列パターンを条件付き確率で関連付けることで、一部の運転情報が観測できない場合でも、観測できる運転情報を元に、時間的に次の状態の予測、関連付けられている運転情報の推定、同じ交通環境下で同時に起きているはずだが観測できない運転情報の予測ができ、運転者に対して運転支援ができる。
 [第3実施形態]
 つぎに、第3実施形態に係る運転支援システムについて説明する。なお、上述の実施形態と同様の部分については同一符号を付することによりその詳細な説明を省略する。
 第3実施形態として示す運転支援システムは、例えば図14に示すようなネットワークシステムにより実現される。
 図14に示す運転支援システムは、自車両車載機器201が車外の各種機器との間で情報を授受する通信機能を備えている。この通信機能は、基地局202、インフラ機器203、他車両車載機器204、モバイル機器205と通信可能である。この通信機能は、例えば移動体通信サービスのパケット通信や無線LANのような無線通信を介して、電話回線やインターネット回線を経由して情報を授受する。なお、運転支援システムの構成要素間を無線化して、例えば基地局202を車外のデータセンターとして備え、全ての演算処理を自車両車載機器201のみで行うことなく、基地局202と分担してもよい。
 この運転支援システムは、図15に示すように、自車両車載機器201と基地局202を通信回線でつないだ構成を示している。この運転支援システムは、第1実施形態における運転支援システムに対して、自車両車載機器201に備えられた通信部201a、一時記憶部201b、基地局202に備えられた通信部202aを含む。
 この運転支援システムは、自車両車載機器201とデーターサーバーなどの車外の演算機器とつなぐことによって、車載器のみで全ての演算処理を行う必要が無くなり、通信負荷や演算量を考慮して、演算処理の分担を最適に行うことができるようになる。
 なお、自車両車載機器201と車外と情報を授受する通信部201aは、必ずしも常時通信可能である必要はない。例えば、一定間隔で通信したり、通信回線の状況が良いときのみ通信したり、車速ゼロのアイドリング時に通信したり、電気自動車の充電中に通信したり、走行開始時や走行終了後に通信接続したり、運転者が通信を許可したときのみ通信したりしてもよい。更には、通信回線が不通の間は収録される運転情報を蓄積しておき、通信接続時に、分割あるいは一括で情報を授受しても良い。
 そのため、通信部201aは、必ずしも移動体通信サービスのパケット通信や無線LANのような無線通信を行う必要はなく、車両駐車時に有線で情報の授受を行ってもよい。
 また、自車両車載機器201において着脱可能な記憶メディアを搭載し、走行中は記憶メディアに運転情報を蓄積する。そして、車両の所有者が記憶メディアを着脱して、手動で運転情報のアップロード、地図情報のダウンロードを行ってもよい。
 また、通信部201a、202aは、ETCなどで利用される路側機DSRC(スポット通信:5.8GHz帯狭域通信(DedicatedShortRangeCommunication))やVICS(登録商標)(道路交通情報通信システム:VehicleInformationandCommunicationSystem)、FM多重放送、デジタル放送、電波ビーコン、光ビーコンなど、インフラ機器203として整備されている通信機器による情報配信を利用してもよい。
 また、通信部201aは、路上に設置されている交通環境の撮像装置(交通監視カメラ)やセンサーの情報をやり取りし、運転情報取得部1で取得する情報としてもよい。例えば路上に設置されているセンサからは、移動体では収集できない定点観測された交通情報などを取得することができる。
 さらに、通信部201aは、路車間の情報のやり取りに限らず、他車両車載機器204と車車間の情報通信を行ってもよい。更に、通信部201aは、歩行者や自転車に乗っている人が持つモバイル機器205と、人車間で情報の授受を行ってもよい。自車両以外の他車両の走行データを取得することにより、車載センサの数が豊富な車両から少ない車両へ取得される運転情報を提供したり、同一環境における相対的な位置関係などを情報に含めることができる。
 これにより、より豊富な情報で交通環境を記述することができたり、自車両が走行したことが無い場所の情報や、自車両の走行範囲よりも広範囲の地図情報作成が可能になる。また、車車間で情報交換することにより、相手の運転パターンを知ることができ、その結果、自分自身の運転行動を変更したり、他車両へ働きかけて交通環境を好転させることが可能になる。
 更に、通信部201aは、歩行者や自転車に乗っている人が持つモバイル機器205と人車間で情報の授受を行う。これにより、車両以外の移動体の存在や動きを情報として利用できたり、歩行者や自転車側と車両側でそれぞれのパターン情報を授受でき、これにより、相手の動きの予測や、予測に基づく事故や危険の回避を行うことができる。
 なお、図14中には、車両として自車両車載機器201を搭載する車両と他車両車載機器204を搭載する車両の二台のみを図示しているが、本実施形態では、図示しない他の車両も、通信経路を介して、基地局(データセンター)202と情報の送信または受信を行うことができ、その数を制限するものではない。同様に、インフラ機器203やモバイル機器205も一つのみを図示しているが、図示しない他の機器も、通信経路を介して複数の機器や車両と情報の送信受信を行ない、その数を制限するものではない。
 以上のように、第3実施形態として示す運転支援システムによれば、車両外の通信装置と情報を授受する通信部201aを有し、運転情報取得部1によって通信部201aにより取得された情報を運転情報として利用できる。これにより、運転支援システムは、自車両車載機器201によって他車両の走行データを取得することができ、まだ走行したことが無い場所など、広範囲の地図情報作成、利用が可能になる。
 また、運転支援システムは、路上に設置されている交通環境の撮像装置やセンサーの情報を収集することが可能になる。さらに、運転支援システムは、自車両車載機器201をサーバー環境など車外の演算機器と通信可能とすることによって、自車両車載機器201で全ての演算処理をする必要が無くなり、通信負荷や演算量を考慮して、処理を最適に分担することができるようになる。
[第4実施形態]
 つぎに、第4実施形態に係る運転支援システムについて説明する。なお、上述の実施形態と同様の部分については同一符号を付することによりその詳細な説明を省略する。
 第4実施形態として示す運転支援システムは、例えば図16に示すように、上述した実施形態の運転支援システムに対して、属性付与部8を有する。属性付与部8は、運転情報取得部1により取得された運転情報に属性を付与する。そして、統計情報生成部3は、属性付与部8により付与された属性ごとに、運転情報を時系列パターンとして統計処理を行う。
 属性付与部8が付与する属性は、運転情報取得時の状況を分類する情報である。属性は、例えば、時間に関する属性(日付、時刻、時間帯、曜日、月、四半期、季節、など)や、走行環境に関する属性(渋滞、人ごみ、巡航、ストップアンドゴー、住宅街、スクールゾーン、山間部、など)、クルマの使用用途に関する属性(通勤、仕事、レジャー、長距離旅行、など)、クルマの乗員に関する属性(1人、複数、家族、高齢、運転初心者、など)である。属性付与部8は、運転情報取得時に自動的に運転情報に属性を付与してもよく、運転者のスイッチ操作に応じて運転情報に属性を付与しても良い。
 この運転支援システムは、例えば図17に示す処理を行って、属性を付与した運転情報に統計処理を行う。
 運転支援システムの統計情報生成部3は、ステップS11にて取得する属性が付与された時系列の運転情報を、ステップS51で属性ごとに分類する。統計情報生成部3は、属性ごとに分類された運転情報をステップS12にて分節化する。
 その後、統計情報生成部3は、ステップS52において、属性と共に地図情報として記憶されている時系列パターンを読み出す。以降のステップS14、ステップS15、ステップS17では、属性に関係なく、上述した実施形態と同様に時系列パターンの更新又は時系列パターンの新規生成を行う。
 次のステップS53において、算出された時系列パターンに対し、演算処理前に付与されていた属性と共に新たな属性情報を付与して、地図情報生成部4へ送信する。
 以上のように、第4実施形態として示す運転支援システムによれば、運転情報に属性を付与し、当該属性ごとに運転情報を時系列パターンとして統計処理を行うので、時間的に変化する情報を属性ごとに取得して運転支援のために提供できる。例えば、地図上の同じ場所であっても、属性としての時間帯ごと、季節ごと、曜日ごと、天候ごとに、交通環境の状態が変化する場所の特徴をより細かく記述することができ、交通環境を形成している属性ごとにその場所の特徴を記述することができる。
 そのため、例えば、運転者に関する運転スキルなどごとに運転情報の時系列パターンを抽出することができ、運転スキルに応じた情報提供や操作支援といった運転支援を行うことができる。また、例えば「月曜から金曜の朝の時間帯は渋滞している」といった時間帯によって変化する交通環境の情報を取得することが可能になり、その情報を運転者へ提供できる。これによって、いつもと違う時間帯に通る場合でも、初めて通る場所であっても運転者が事前に回避ルートを選択したりすることが可能になる。
 なお、上述の実施の形態は本発明の一例である。このため、本発明は、上述の実施形態に限定されることはなく、この実施の形態以外であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計等に応じて種々の変更が可能であることは勿論である。
 特願2012-158314号(出願日:2012年7月17日)の全内容は、ここに援用される。
 本発明によれば、統計処理された運転情報の時系列パターンを位置情報と関連付けて地図情報として用いるため、動的な運転情報の時間変化を記憶でき動的な環境に関して運転支援を行うことができる。
 1 運転情報取得部
 2 車両位置情報取得部
 3 統計情報生成部
 4 地図情報生成部
 5 地図情報参照部
 6 運転支援部
 7 地図情報記憶部
 8 属性付与部
 11 運転者状態情報取得部
 12 車両周囲情報取得部
 13 車両情報取得部
 41 統合パターン生成部
 71 地図情報更新部
 201 自車両車載機器
 201a 通信部
 201b 一時記憶部
 202 基地局
 202a 通信部
 203 インフラ機器
 204 他車両車載機器
 205 モバイル機器

Claims (7)

  1.  運転者の操作量及び車両挙動、運転者の状態、車両周囲の環境情報の何れかを運転情報として取得する運転情報取得手段と、
     車両の位置情報を取得する車両位置情報取得手段と、
     前記運転情報を時系列パターンとして統計処理して、統計情報を生成する統計情報生成手段と、
     前記運転情報を取得した時の車両の位置情報と前記統計情報とを関連付けて地図情報を生成する地図情報生成手段と、
     既存の地図情報を前記地図情報生成手段により生成された地図情報に更新する地図更新手段と、
     前記車両位置情報取得手段によって取得された位置情報に基づいて、前記地図情報を参照して読み出す地図情報参照手段と、
     前記地図情報参照手段によって読み出された地図情報に基づき、運転支援を行う運転支援手段と
     を備えることを特徴とする運転支援システム。
  2.  前記運転情報取得手段は、運転者の操作量及び車両挙動、運転者の状態、車両周囲の環境情報のうち複数の情報を取得し、
     前記運転情報取得手段により取得された各運転情報を用いて算出される各時系列パターンを、同じ環境で取得された時系列パターンとして関連付ける統合パターン生成手段を有すること
     を特徴とする請求項1に記載の運転支援システム。
  3.  車両外の通信装置と情報を授受する通信手段を有し、
     前記運転情報取得手段は、前記通信手段により取得された情報を運転情報として利用すること
     を特徴とする請求項1又は請求項2に記載の運転支援システム。
  4.  前記統計情報生成手段は、地図上の区間ごとに前記運転情報を分割し、区間ごとに分割された運転情報を用いて区間ごとの時系列パターンを算出することを特徴とする請求項1乃至請求項3の何れか1項に記載の運転支援システム。
  5.  前記統計情報生成手段は、地図上の区間に関わりなく前記運転情報の時系列パターンを算出し、
     前記統計情報生成手段により算出された時系列パターンが、予め設定された複数の時系列パターンのうち何れの時系列パターンに相当するかを判別するパターン判別手段を有し、
     前記地図情報生成手段は、前記パターン判別手段により判別された時系列パターンと前記運転情報とを関連付けて地図情報を生成すること
     を特徴とする請求項1乃至請求項3の何れか1項に記載の運転支援システム。
  6.  前記運転情報取得手段により取得された運転情報に、当該運転情報に属性を付与する属性付与手段を有し、
     前記統計情報生成手段は、前記属性付与手段により付与された属性ごとに、前記運転情報を時系列パターンとして統計処理を行うこと
     を特徴とする請求項1乃至請求項5の何れか1項に記載の運転支援システム。
  7.  運転者の操作量及び車両挙動、運転者の状態、車両周囲の環境情報の何れかを運転情報として取得すると共に、車両の位置情報を取得し、
     前記運転情報を時系列パターンとして統計処理して、統計情報を生成し、
     前記運転情報を取得した時の車両の位置情報と前記統計情報とを関連付けて地図情報を生成し、
     既存の地図情報を前記生成された地図情報に更新し、
     前記取得された車両の位置情報に基づいて、前記地図情報を参照して読み出し、
     前記読み出された地図情報に基づき、運転支援を行うこと
     を特徴とする運転支援方法。
PCT/JP2013/069294 2012-07-17 2013-07-16 運転支援システム及び運転支援方法 WO2014013985A1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
EP13819767.8A EP2876620B1 (en) 2012-07-17 2013-07-16 Driving assistance system and driving assistance method
US14/415,162 US10161754B2 (en) 2012-07-17 2013-07-16 Driving assistance system and driving assistance method
CN201380037746.3A CN104508719B (zh) 2012-07-17 2013-07-16 驾驶辅助系统以及驾驶辅助方法
BR112015000983A BR112015000983A2 (pt) 2012-07-17 2013-07-16 sistema de assistência de condução e método de assistência de condução
RU2015105174A RU2015105174A (ru) 2012-07-17 2013-07-16 Система помощи при вождении и способ помощи при вождении
JP2014525822A JP6200421B2 (ja) 2012-07-17 2013-07-16 運転支援システム及び運転支援方法
MX2015000832A MX2015000832A (es) 2012-07-17 2013-07-16 Sistema de asistencia a la conduccion y metodo de asistencia a la conduccion.

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-158314 2012-07-17
JP2012158314 2012-07-17

Publications (1)

Publication Number Publication Date
WO2014013985A1 true WO2014013985A1 (ja) 2014-01-23

Family

ID=49948811

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/069294 WO2014013985A1 (ja) 2012-07-17 2013-07-16 運転支援システム及び運転支援方法

Country Status (8)

Country Link
US (1) US10161754B2 (ja)
EP (1) EP2876620B1 (ja)
JP (1) JP6200421B2 (ja)
CN (1) CN104508719B (ja)
BR (1) BR112015000983A2 (ja)
MX (1) MX2015000832A (ja)
RU (1) RU2015105174A (ja)
WO (1) WO2014013985A1 (ja)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105059288A (zh) * 2015-08-11 2015-11-18 奇瑞汽车股份有限公司 一种车道保持控制系统及方法
JP2015230694A (ja) * 2014-06-06 2015-12-21 株式会社デンソー 運転コンテキスト情報生成装置
JP2016095707A (ja) * 2014-11-14 2016-05-26 株式会社デンソー 遷移予測データ生成装置および遷移予測装置
CN105629977A (zh) * 2016-03-06 2016-06-01 王保亮 一种全自动导航式无人驾驶电动汽车的使用方法
JP2016103267A (ja) * 2014-11-14 2016-06-02 株式会社デンソー 運転データ収集システム
CN105691230A (zh) * 2016-03-06 2016-06-22 王保亮 全自动导航式无人驾驶电动汽车
CN105810013A (zh) * 2014-12-30 2016-07-27 中国移动通信集团公司 一种基于车群风险的车辆防撞控制方法和装置
CN107074178A (zh) * 2014-09-16 2017-08-18 本田技研工业株式会社 驾驶辅助装置
WO2017179209A1 (ja) * 2016-04-15 2017-10-19 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
WO2017179151A1 (ja) * 2016-04-13 2017-10-19 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
WO2017208529A1 (ja) * 2016-06-02 2017-12-07 オムロン株式会社 運転者状態推定装置、運転者状態推定システム、運転者状態推定方法、運転者状態推定プログラム、対象者状態推定装置、対象者状態推定方法、対象者状態推定プログラム、および記録媒体
JP2017220197A (ja) * 2016-06-12 2017-12-14 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 車両制御方法と装置及び判断モジュールの獲得方法と装置
US10093320B2 (en) 2016-04-14 2018-10-09 Toyota Jidosha Kabushiki Kaisha Drive support device for controlling drive support functions and evaluating driver performance
WO2018189990A1 (ja) * 2017-04-11 2018-10-18 株式会社デンソー 車両用報知装置
WO2019008755A1 (ja) * 2017-07-07 2019-01-10 マクセル株式会社 情報処理システム及びそれに用いる情報処理システムインフラ及び情報処理方法
WO2019022119A1 (ja) * 2017-07-26 2019-01-31 学校法人五島育英会 移動体データ処理装置及びコンピュータプログラム
JP2019016238A (ja) * 2017-07-07 2019-01-31 Kddi株式会社 運転車両信号から個人特性を特定しやすい道路区間を推定する推定装置、車両端末、プログラム及び方法
CN109993966A (zh) * 2018-01-02 2019-07-09 中国移动通信有限公司研究院 一种构建用户画像的方法及装置
JP2020060674A (ja) * 2018-10-10 2020-04-16 トヨタ自動車株式会社 地図情報システム
US10691123B2 (en) 2016-04-08 2020-06-23 Honda Motor Co., Ltd. Vehicle control system, vehicle control method, and vehicle control program
US10692369B2 (en) 2016-04-14 2020-06-23 Toyota Jidosha Kabushiki Kaisha Server and information providing device
JP2020144332A (ja) * 2019-03-08 2020-09-10 トヨタ自動車株式会社 仮想現実システムおよび仮想現実方法
WO2020188691A1 (ja) * 2019-03-18 2020-09-24 三菱電機株式会社 車載機器及び通信方法
JP2022058625A (ja) * 2014-09-30 2022-04-12 Case特許株式会社 自動運転制御装置及び車両

Families Citing this family (72)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9812007B2 (en) * 2013-03-28 2017-11-07 Honda Motor Co., Ltd. Map generation system, map generation device, map generation method, and program
JP6433268B2 (ja) 2014-03-31 2018-12-05 国立大学法人 東京大学 検査システムおよび検査方法
JP6316068B2 (ja) * 2014-03-31 2018-04-25 国立大学法人 東京大学 検査システムおよび検査方法
US10163340B2 (en) * 2014-05-26 2018-12-25 Telefonaktiebolaget Lm Ericsson (Publ) Methods and network nodes for notifying vehicle drivers about their driving
US9321461B1 (en) * 2014-08-29 2016-04-26 Google Inc. Change detection using curve alignment
US9731713B2 (en) * 2014-09-10 2017-08-15 Volkswagen Ag Modifying autonomous vehicle driving by recognizing vehicle characteristics
CN104820424B (zh) * 2015-05-15 2017-12-01 山东省计算中心(国家超级计算济南中心) 基于北斗导航的电动汽车自动驾驶系统及其控制方法
CN111028529A (zh) * 2015-05-27 2020-04-17 关晓芙 安装在车辆中的车载设备及相关设备与方法
JP6439591B2 (ja) 2015-05-31 2018-12-19 株式会社デンソー 走行制御装置、走行制御方法
JP5945999B1 (ja) * 2015-07-31 2016-07-05 パナソニックIpマネジメント株式会社 運転支援装置、運転支援システム、運転支援方法、運転支援プログラム及び自動運転車両
US10846537B2 (en) * 2015-09-30 2020-11-24 Nec Corporation Information processing device, determination device, notification system, information transmission method, and program
DE102016205434A1 (de) * 2015-11-25 2017-06-01 Volkswagen Aktiengesellschaft Verfahren und System zum Erstellen einer spurgenauen Belegungskarte für Fahrspuren
DE102016205436A1 (de) * 2015-11-25 2017-06-01 Volkswagen Aktiengesellschaft Verfahren und System zum Erstellen einer digitalen Karte
US11663508B1 (en) * 2015-12-15 2023-05-30 Lytx, Inc. Environmental condition-based risk level
US10165171B2 (en) 2016-01-22 2018-12-25 Coban Technologies, Inc. Systems, apparatuses, and methods for controlling audiovisual apparatuses
DE102017101343A1 (de) * 2016-01-26 2017-07-27 GM Global Technology Operations LLC Systeme und verfahren zur fahrzeugsystemsteuerung auf grundlage physiologischer merkmale
CN107200022B (zh) * 2016-03-15 2019-11-12 奥迪股份公司 驾驶辅助系统和方法
KR20170109275A (ko) * 2016-03-21 2017-09-29 현대자동차주식회사 차량 및 그 제어 방법
US20190086226A1 (en) * 2016-03-30 2019-03-21 Mitsubishi Electric Corporation Travel plan generation device, travel plan generation method, and computer readable recording medium
JP6790417B2 (ja) * 2016-03-31 2020-11-25 ソニー株式会社 情報処理装置及び情報処理サーバ
US10370102B2 (en) 2016-05-09 2019-08-06 Coban Technologies, Inc. Systems, apparatuses and methods for unmanned aerial vehicle
US10152858B2 (en) 2016-05-09 2018-12-11 Coban Technologies, Inc. Systems, apparatuses and methods for triggering actions based on data capture and characterization
US10789840B2 (en) * 2016-05-09 2020-09-29 Coban Technologies, Inc. Systems, apparatuses and methods for detecting driving behavior and triggering actions based on detected driving behavior
US11222438B2 (en) * 2016-05-27 2022-01-11 Kabushiki Kaisha Toshiba Information processing apparatus, vehicle, and information processing method for presence probability of object
US11132611B2 (en) * 2016-05-27 2021-09-28 Kabushiki Kaisha Toshiba Information processing apparatus and information processing method for determining presence probability of object
US10007854B2 (en) * 2016-07-07 2018-06-26 Ants Technology (Hk) Limited Computer vision based driver assistance devices, systems, methods and associated computer executable code
DE102016214257A1 (de) * 2016-08-02 2018-02-08 Continental Teves Ag & Co. Ohg Verfahren zum Bereitstellen einer Karte in einem Fahrzeug
CN106326873B (zh) * 2016-08-29 2019-04-16 吉林大学 Cacc驾驶员肢体肌电信号表征的操纵意图预测方法
US9739627B1 (en) 2016-10-18 2017-08-22 Allstate Insurance Company Road frustration index risk mapping and mitigation
US10830605B1 (en) 2016-10-18 2020-11-10 Allstate Insurance Company Personalized driving risk modeling and estimation system and methods
CN106611481B (zh) * 2016-11-02 2018-12-25 纳智源科技(唐山)有限责任公司 疲劳驾驶监控装置及可穿戴设备
CN109565564B (zh) * 2016-11-18 2021-07-02 Jvc 建伍株式会社 记录装置、记录方法、再现方法以及存储介质
WO2018126261A1 (en) * 2017-01-02 2018-07-05 Visteon Global Technologies, Inc. Employing vehicular sensor information for retrieval of data
US10380886B2 (en) 2017-05-17 2019-08-13 Cavh Llc Connected automated vehicle highway systems and methods
EP3348964A1 (de) * 2017-01-13 2018-07-18 Carrosserie Hess AG Verfahren zur vorhersage zukünftiger fahrbedingungen für ein fahrzeug
DE102017100671A1 (de) * 2017-01-16 2018-07-19 Voith Patent Gmbh Verfahren zur Optimierung einer Schaltstrategie
JP6528797B2 (ja) * 2017-03-30 2019-06-12 トヨタ自動車株式会社 車載ミリ波通信装置および通信方法
WO2018179406A1 (ja) * 2017-03-31 2018-10-04 本田技研工業株式会社 車載装置、情報管理サーバ、情報管理システム、および方法
US12008893B2 (en) 2017-05-17 2024-06-11 Cavh Llc Autonomous vehicle (AV) control system with roadside unit (RSU) network
US10692365B2 (en) 2017-06-20 2020-06-23 Cavh Llc Intelligent road infrastructure system (IRIS): systems and methods
JP2018203214A (ja) * 2017-06-09 2018-12-27 アイシン精機株式会社 駐車支援装置、駐車支援方法、運転支援装置、および運転支援方法
JP7013722B2 (ja) * 2017-08-22 2022-02-01 株式会社デンソー 運転支援装置
CN107704870B (zh) * 2017-09-07 2021-04-20 武汉大学 基于ble指纹定位与imu动作识别融合的可靠人车临近感知装置与方法
JP6928722B2 (ja) 2017-10-24 2021-09-01 ニッサン ノース アメリカ,インク 車両動作のための位置特定の決定
EP3495220B1 (en) * 2017-12-11 2024-04-03 Volvo Car Corporation Path prediction for a vehicle
US10867512B2 (en) 2018-02-06 2020-12-15 Cavh Llc Intelligent road infrastructure system (IRIS): systems and methods
CN108600938B (zh) * 2018-03-29 2020-09-22 南京邮电大学 一种车联网中感知服务节点智能选择方法
DE102018205199B4 (de) * 2018-04-06 2021-03-18 Volkswagen Aktiengesellschaft Ermittlung und Verwendung von Haltepunkten für Kraftfahrzeuge
KR20210008836A (ko) 2018-05-09 2021-01-25 씨에이브이에이치 엘엘씨 차량 및 고속도로 사이의 주행 지능 할당을 위한 시스템 및 방법
WO2019246246A1 (en) 2018-06-20 2019-12-26 Cavh Llc Connected automated vehicle highway systems and methods related to heavy vehicles
CN110634324A (zh) * 2018-06-22 2019-12-31 上海擎感智能科技有限公司 一种基于车载终端的礼让行人的提醒方法、系统及车载终端
WO2020014227A1 (en) 2018-07-10 2020-01-16 Cavh Llc Route-specific services for connected automated vehicle highway systems
US11373122B2 (en) 2018-07-10 2022-06-28 Cavh Llc Fixed-route service system for CAVH systems
US10807604B2 (en) * 2018-09-11 2020-10-20 Hyundai Motor Company Vehicle and method for controlling thereof
CN112703541B (zh) * 2018-09-17 2022-09-20 日产自动车株式会社 车辆行为预测方法以及车辆行为预测装置
AT521724A1 (de) * 2018-09-24 2020-04-15 Avl List Gmbh Verfahren und Vorrichtung zur Analyse eines Sensordatenstroms sowie Verfahren zum Führen eines Fahrzeugs
CN109376682A (zh) * 2018-11-06 2019-02-22 东莞市凯木金电子科技有限公司 一种智能摄像头及疲劳状态识别方法
CN109540162B (zh) * 2018-11-12 2021-12-21 北京四维图新科技股份有限公司 Adas地图数据的处理方法、获取方法、装置及车载设备
CN111413957B (zh) 2018-12-18 2021-11-02 北京航迹科技有限公司 用于确定自动驾驶中的驾驶动作的系统和方法
DE102019203739A1 (de) * 2018-12-20 2020-06-25 Continental Automotive Gmbh Datenspeicher, Recheneinheit und Verfahren zum Ausführen einer Funktion eines Fahrzeuges
JP7238393B2 (ja) * 2018-12-25 2023-03-14 株式会社デンソー 地図データ生成装置、地図データ生成システム、地図データ生成プログラム及び記憶媒体
CN109774492B (zh) * 2018-12-29 2021-06-22 江苏大学 一种基于未来驱动功率需求的纯电动汽车整车功率分配方法
CN109808705B (zh) * 2019-01-23 2021-11-02 青岛慧拓智能机器有限公司 一种用于远程遥控驾驶控制的系统
TWI715958B (zh) * 2019-04-08 2021-01-11 國立交通大學 評估駕駛者之疲勞分數的方法
KR20200135630A (ko) * 2019-05-23 2020-12-03 현대자동차주식회사 자율 주행 차량의 제어장치 및 그 방법
JP7269103B2 (ja) * 2019-06-05 2023-05-08 日立Astemo株式会社 電子制御装置、制御方法、自動運転システム
US11142214B2 (en) 2019-08-06 2021-10-12 Bendix Commercial Vehicle Systems Llc System, controller and method for maintaining an advanced driver assistance system as active
CN110689642B (zh) * 2019-09-18 2020-10-09 山东大学 基于车载obd数据及概率统计的异常驾驶判别方法及系统
CN112309117A (zh) * 2020-10-30 2021-02-02 上海炬宏信息技术有限公司 一种基于密度聚类的交通事件融合系统和方法
GB2618341A (en) * 2022-05-03 2023-11-08 Oxa Autonomy Ltd Controlling an autonomous vehicle
CN115346362B (zh) * 2022-06-10 2024-04-09 斑马网络技术有限公司 行车数据处理方法、装置、电子设备及存储介质
CN116486606B (zh) * 2023-03-07 2023-11-24 智能网联汽车(山东)协同创新研究院有限公司 一种智能网联车载终端中央控制系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11321690A (ja) * 1998-03-10 1999-11-24 Nissan Motor Co Ltd レーンキープシステム
JP2005196567A (ja) 2004-01-08 2005-07-21 Nissan Motor Co Ltd 顔向き検出装置
JP4027838B2 (ja) 2003-05-08 2007-12-26 独立行政法人科学技術振興機構 隠れマルコフモデルによる運動データの認識・生成方法、それを用いた運動制御方法及びそのシステム
JP2008250687A (ja) 2007-03-30 2008-10-16 Aisin Aw Co Ltd 地物情報収集装置及び地物情報収集方法
JP2008292498A (ja) * 2001-08-06 2008-12-04 Panasonic Corp 情報提供方法
JP2011134207A (ja) * 2009-12-25 2011-07-07 Konica Minolta Holdings Inc 運転記録装置および地図作成システム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7715961B1 (en) * 2004-04-28 2010-05-11 Agnik, Llc Onboard driver, vehicle and fleet data mining
US7783417B2 (en) * 2007-03-09 2010-08-24 Mitac International Corporation Methods and apparatus for determining a route having an estimated minimum fuel usage for a vehicle
JP4427759B2 (ja) 2007-06-29 2010-03-10 アイシン・エィ・ダブリュ株式会社 車両挙動学習装置及び車両挙動学習プログラム
DE102009007950A1 (de) * 2008-02-08 2009-10-08 FKFS Forschungsinstitut für Kraftfahrwesen und Fahrzeugmotoren Stuttgart Vorrichtung und Verfahren zur Bereitstellung von Informationen über Fahrsituationen
RU2011119211A (ru) * 2008-11-13 2012-12-20 Асер Рич Лимитед. Система и способ повышения безопасности транспортного средства путем улучшения знания ситуации водителем транспортного средства
JP5691145B2 (ja) * 2009-08-10 2015-04-01 ソニー株式会社 車両経路判定方法およびナビゲーション装置
DE102010048263A1 (de) 2010-10-12 2011-05-19 Daimler Ag Verfahren und Vorrichtung zum Unterstützen eines Fahrers eines Fahrzeugs
CN201910918U (zh) * 2010-12-30 2011-07-27 上海博泰悦臻电子设备制造有限公司 业务系统及车载终端

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11321690A (ja) * 1998-03-10 1999-11-24 Nissan Motor Co Ltd レーンキープシステム
JP2008292498A (ja) * 2001-08-06 2008-12-04 Panasonic Corp 情報提供方法
JP4027838B2 (ja) 2003-05-08 2007-12-26 独立行政法人科学技術振興機構 隠れマルコフモデルによる運動データの認識・生成方法、それを用いた運動制御方法及びそのシステム
JP2005196567A (ja) 2004-01-08 2005-07-21 Nissan Motor Co Ltd 顔向き検出装置
JP2008250687A (ja) 2007-03-30 2008-10-16 Aisin Aw Co Ltd 地物情報収集装置及び地物情報収集方法
JP2011134207A (ja) * 2009-12-25 2011-07-07 Konica Minolta Holdings Inc 運転記録装置および地図作成システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2876620A4

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015230694A (ja) * 2014-06-06 2015-12-21 株式会社デンソー 運転コンテキスト情報生成装置
CN107074178A (zh) * 2014-09-16 2017-08-18 本田技研工业株式会社 驾驶辅助装置
CN107074178B (zh) * 2014-09-16 2018-07-24 本田技研工业株式会社 驾驶辅助装置
JP2022058625A (ja) * 2014-09-30 2022-04-12 Case特許株式会社 自動運転制御装置及び車両
JP2016103267A (ja) * 2014-11-14 2016-06-02 株式会社デンソー 運転データ収集システム
JP2016095707A (ja) * 2014-11-14 2016-05-26 株式会社デンソー 遷移予測データ生成装置および遷移予測装置
CN105810013A (zh) * 2014-12-30 2016-07-27 中国移动通信集团公司 一种基于车群风险的车辆防撞控制方法和装置
CN105059288A (zh) * 2015-08-11 2015-11-18 奇瑞汽车股份有限公司 一种车道保持控制系统及方法
CN105691230A (zh) * 2016-03-06 2016-06-22 王保亮 全自动导航式无人驾驶电动汽车
CN105629977A (zh) * 2016-03-06 2016-06-01 王保亮 一种全自动导航式无人驾驶电动汽车的使用方法
US10691123B2 (en) 2016-04-08 2020-06-23 Honda Motor Co., Ltd. Vehicle control system, vehicle control method, and vehicle control program
JPWO2017179151A1 (ja) * 2016-04-13 2018-10-25 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
WO2017179151A1 (ja) * 2016-04-13 2017-10-19 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
US10676101B2 (en) 2016-04-13 2020-06-09 Honda Motor Co., Ltd. Vehicle control system, vehicle control method, and vehicle control program
US10692369B2 (en) 2016-04-14 2020-06-23 Toyota Jidosha Kabushiki Kaisha Server and information providing device
US10093320B2 (en) 2016-04-14 2018-10-09 Toyota Jidosha Kabushiki Kaisha Drive support device for controlling drive support functions and evaluating driver performance
WO2017179209A1 (ja) * 2016-04-15 2017-10-19 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
CN108885828A (zh) * 2016-04-15 2018-11-23 本田技研工业株式会社 车辆控制系统、车辆控制方法及车辆控制程序
US11169537B2 (en) 2016-04-15 2021-11-09 Honda Motor Co., Ltd. Providing driving support in response to changes in driving environment
CN108885828B (zh) * 2016-04-15 2021-08-17 本田技研工业株式会社 车辆控制系统、车辆控制方法及存储介质
JPWO2017179209A1 (ja) * 2016-04-15 2018-10-18 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
WO2017208529A1 (ja) * 2016-06-02 2017-12-07 オムロン株式会社 運転者状態推定装置、運転者状態推定システム、運転者状態推定方法、運転者状態推定プログラム、対象者状態推定装置、対象者状態推定方法、対象者状態推定プログラム、および記録媒体
JP2017220197A (ja) * 2016-06-12 2017-12-14 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 車両制御方法と装置及び判断モジュールの獲得方法と装置
US10429841B2 (en) 2016-06-12 2019-10-01 Baidu Online Network Technology (Beijing) Co., Ltd. Vehicle control method and apparatus and method and apparatus for acquiring decision-making model
US11191468B2 (en) 2017-04-11 2021-12-07 Denso Corporation Vehicular notification apparatus
JP2018179704A (ja) * 2017-04-11 2018-11-15 株式会社デンソー 車両用報知装置
WO2018189990A1 (ja) * 2017-04-11 2018-10-18 株式会社デンソー 車両用報知装置
JP2019016238A (ja) * 2017-07-07 2019-01-31 Kddi株式会社 運転車両信号から個人特性を特定しやすい道路区間を推定する推定装置、車両端末、プログラム及び方法
WO2019008755A1 (ja) * 2017-07-07 2019-01-10 マクセル株式会社 情報処理システム及びそれに用いる情報処理システムインフラ及び情報処理方法
WO2019022119A1 (ja) * 2017-07-26 2019-01-31 学校法人五島育英会 移動体データ処理装置及びコンピュータプログラム
CN109993966A (zh) * 2018-01-02 2019-07-09 中国移动通信有限公司研究院 一种构建用户画像的方法及装置
JP2020060674A (ja) * 2018-10-10 2020-04-16 トヨタ自動車株式会社 地図情報システム
JP7147448B2 (ja) 2018-10-10 2022-10-05 トヨタ自動車株式会社 地図情報システム
JP2020144332A (ja) * 2019-03-08 2020-09-10 トヨタ自動車株式会社 仮想現実システムおよび仮想現実方法
WO2020188691A1 (ja) * 2019-03-18 2020-09-24 三菱電機株式会社 車載機器及び通信方法

Also Published As

Publication number Publication date
EP2876620A1 (en) 2015-05-27
CN104508719B (zh) 2018-02-23
MX2015000832A (es) 2015-04-08
CN104508719A (zh) 2015-04-08
EP2876620B1 (en) 2019-08-14
BR112015000983A2 (pt) 2017-06-27
JPWO2014013985A1 (ja) 2016-06-30
US20150211868A1 (en) 2015-07-30
EP2876620A4 (en) 2016-03-23
RU2015105174A (ru) 2016-09-10
JP6200421B2 (ja) 2017-09-20
US10161754B2 (en) 2018-12-25

Similar Documents

Publication Publication Date Title
JP6200421B2 (ja) 運転支援システム及び運転支援方法
US11640174B2 (en) Smart vehicle
US10816993B1 (en) Smart vehicle
US10928830B1 (en) Smart vehicle
US11990036B2 (en) Driver behavior monitoring
US20200151479A1 (en) Method and apparatus for providing driver information via audio and video metadata extraction
US10769456B2 (en) Systems and methods for near-crash determination
Bila et al. Vehicles of the future: A survey of research on safety issues
JP7499256B2 (ja) ドライバの挙動を分類するためのシステムおよび方法
US20150178572A1 (en) Road surface condition classification method and system
JP2015075398A (ja) 車両用車線案内システム及び車両用車線案内方法
JP2014081947A (ja) 情報配信装置
US20230134342A1 (en) System and/or method for vehicle trip classification
US20230303122A1 (en) Vehicle of interest detection by autonomous vehicles based on amber alerts
JP2023171455A (ja) 経路予測装置、それを備えた車載装置、経路予測システム、経路予測方法、及びコンピュータプログラム
CN117416344A (zh) 自主驾驶系统中校车的状态估计
US20230048304A1 (en) Environmentally aware prediction of human behaviors
CN117197834A (zh) 基于图像的行人的速度估计
Rodemerk Potential of Driving Style Adaptation for a Maneuver Prediction System at Urban Intersections

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13819767

Country of ref document: EP

Kind code of ref document: A1

DPE2 Request for preliminary examination filed before expiration of 19th month from priority date (pct application filed from 20040101)
ENP Entry into the national phase

Ref document number: 2014525822

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14415162

Country of ref document: US

Ref document number: MX/A/2015/000832

Country of ref document: MX

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: IDP00201500304

Country of ref document: ID

WWE Wipo information: entry into national phase

Ref document number: 2013819767

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2015105174

Country of ref document: RU

Kind code of ref document: A

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112015000983

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 112015000983

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20150115