WO2021006110A1 - 車両制御装置 - Google Patents

車両制御装置 Download PDF

Info

Publication number
WO2021006110A1
WO2021006110A1 PCT/JP2020/025611 JP2020025611W WO2021006110A1 WO 2021006110 A1 WO2021006110 A1 WO 2021006110A1 JP 2020025611 W JP2020025611 W JP 2020025611W WO 2021006110 A1 WO2021006110 A1 WO 2021006110A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
stationary object
control device
stored
vehicle control
Prior art date
Application number
PCT/JP2020/025611
Other languages
English (en)
French (fr)
Inventor
晃年 宮崎
敬亮 竹内
大司 清宮
松田 聡
Original Assignee
日立オートモティブシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立オートモティブシステムズ株式会社 filed Critical 日立オートモティブシステムズ株式会社
Priority to JP2021530620A priority Critical patent/JP7259032B2/ja
Priority to US17/622,548 priority patent/US20220355800A1/en
Priority to DE112020002514.4T priority patent/DE112020002514T5/de
Publication of WO2021006110A1 publication Critical patent/WO2021006110A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3658Lane guidance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects

Definitions

  • the present invention relates to a vehicle control device.
  • position information on three-dimensional objects such as stationary objects and moving objects around the own vehicle
  • road markings road surface paint
  • traffic lights existing around the road traffic lights existing around the road
  • speed signs The situation around the outside world such as.
  • a method of estimating the own vehicle position a method called dead reckoning that estimates the own vehicle position using the own vehicle sensor information such as a wheel sensor, a steering angle sensor, an acceleration sensor, and a gyro sensor, or GPS (Global Positioning System) is used.
  • Known methods include a method in which the environment around the route is stored in advance and the position of the own vehicle is estimated by collating the information acquired by an external recognition sensor such as a camera or a rider with the information stored in advance when traveling following the target route. ing.
  • the accuracy deteriorates because the error accumulates as the mileage increases, and the GPS method also uses the GPS method when there are buildings around the own vehicle. Accuracy deteriorates due to the reflection of radio waves.
  • the environment around the route is memorized in advance, and the position of the own vehicle is estimated by collating the stationary object information acquired by the outside world recognition sensor such as a camera or a rider with the stationary object information memorized in advance when traveling along the route.
  • the accuracy of own vehicle position estimation depends on the accuracy of the outside world recognition sensor, and the own vehicle position can be estimated with high accuracy by using a high-performance sensor.
  • the stationary object here refers to an object that has not moved at the time of recognition by the outside world recognition sensor.
  • the present invention is a vehicle control device that has a processor and a memory and controls the running of the vehicle, and acquires a stationary object from a sensor that acquires the surrounding environment information of the vehicle and the surrounding environment information acquired by the sensor.
  • the peripheral environment storage unit includes a peripheral environment storage unit that calculates the position of the stationary object and stores the position of the vehicle on the traveling path and the position of the stationary object in association with each other.
  • the vehicle control unit can follow the target route and continue the running of the vehicle.
  • FIG. 5 is a flowchart showing Example 1 of the present invention and showing an example of a process in which a vehicle control device stores a traveling route and an environment around the route. It is a flowchart which shows Example 1 of this invention, and shows an example of the process which follows and travels with the traveling path stored in the storage part as a target path by a vehicle control device.
  • FIG. 5 is a flowchart showing Example 1 of the present invention and showing an example of a process in which a vehicle control device stores a traveling route and an environment around the route. It is a flowchart which shows Example 1 of this invention, and shows an example of the process which follows and travels with the traveling path stored in the storage part as a target path by a vehicle control device.
  • FIG. 2 is a flowchart showing Example 2 of the present invention, showing an example of a process of following a travel path stored in a storage unit by a vehicle control device as a target path.
  • FIG. 3 is a flowchart showing Example 3 of the present invention, showing an example of a process of following a travel path stored in a storage unit by a vehicle control device as a target route. It is a flowchart which shows Example 4 of this invention, and shows an example of the process which follows the traveling path stored in the storage part by a vehicle control device as a target path.
  • FIG. 5 is a flowchart showing Example 5 of the present invention, showing an example of a process of following a travel path stored in a storage unit by a vehicle control device as a target path.
  • Example 6 is a flowchart showing Example 6 of the present invention, showing an example of a process of following and traveling with a travel path stored in a storage unit by the vehicle control device as a target route.
  • FIG. 7 is a flowchart showing Example 7 of the present invention and showing an example of a process in which the vehicle control device stores a traveling route and an environment around the route.
  • FIG. 7 is a flowchart showing Example 7 of the present invention, showing an example of a process of following a travel path stored in a storage unit by a vehicle control device as a target path.
  • 8 is a flowchart showing Example 8 of the present invention, showing an example of a process of following a travel path stored in a storage unit by a vehicle control device as a target path.
  • FIG. 1 is a diagram showing an example of the configuration of the vehicle according to the present invention.
  • the vehicle 1 shown is, for example, an in-cylinder injection type gasoline engine 11 as a driving power source, an automatic transmission 12 capable of transmitting the driving force of the engine 11, a propeller shaft 13, a differential gear 14, and a drive.
  • a rear-wheel drive vehicle having a shaft 15, a braking device 20 including four wheels 16 and a wheel sensor, and an electric power steering 21.
  • the vehicle 1 includes a device including a vehicle control device 18 and various sensors 19 described later, an actuator, and devices capable of exchanging signals and data through an in-vehicle LAN or CAN communication.
  • the vehicle control device 18 obtains information on the outside of the own vehicle from sensors described later, and sets command values for realizing control such as automatic parking and automatic driving with the engine 11 and the brake device 20 including the wheel sensor. , Transmission to the electric power steering 21 and the automatic transmission 12.
  • the wheel sensor 50 generates a pulse waveform according to the rotation of the wheel and transmits it to the vehicle control device 18.
  • An imaging sensor 17 and a short-distance distance measuring sensor 24 are provided in front of, behind, and to the side of the vehicle 1. Further, the medium-range distance measuring sensor 22 is arranged in front of and behind the vehicle 1. Further, the long-distance distance measuring sensor 25 is arranged in front of the vehicle 1.
  • These sensors function as an outside world recognition sensor 31 (FIG. 2) that detects the road environment such as a three-dimensional object and a white line around the own vehicle and supplies the vehicle to the vehicle control device 18.
  • the mounting positions and the number of various sensors are not limited to the positions shown in FIG.
  • the illustrated vehicle 1 is an example of a vehicle to which the present invention can be applied, and the present invention does not limit the configuration of the applicable vehicle.
  • a vehicle in which a continuously variable transmission (CVT) is adopted instead of the automatic transmission 12 may be used.
  • the engine 11 which is a traveling power source
  • a motor or a vehicle using an engine and a motor as a traveling power source may be used.
  • FIG. 2 is a block diagram showing an example of the function of the driving support system to which the present invention is applied.
  • the driving support system shown in FIG. 2 is mounted on the vehicle 1, and includes an outside world recognition sensor 31, an input switch unit 27, a wheel sensor 50, a steering angle sensor 28, a position detector 29, and a display. It is composed of 37, a voice output device 38, a communication device 30, various vehicle sensors / actuator ECUs 36, and a vehicle control device 18 connecting these.
  • the outside world recognition sensor 31 is composed of an image pickup sensor 17, a short-distance distance measurement sensor 24, a medium-range distance measurement sensor 22, and a long-distance distance measurement sensor 25.
  • the vehicle control device 18 includes a processor 2 and a memory 3.
  • the vehicle control device 18 loads each program of the own vehicle position estimation unit 32, the surrounding environment storage unit 33, the storage information collation unit 34, and the vehicle control unit 35 into the memory 3 and executes them by the processor 2.
  • the vehicle control unit 35 is composed of a steering control unit 39, an acceleration / deceleration control unit 40, and a shift control unit 41.
  • the processor 2 operates as a functional unit that provides a predetermined function by executing processing according to the program of each functional unit.
  • the processor 2 functions as the own vehicle position estimation unit 32 by executing the process according to the own vehicle position estimation program. The same applies to other programs.
  • the processor 2 also operates as a functional unit that provides each function of a plurality of processes executed by each program.
  • a computer and a computer system are devices and systems including these functional parts.
  • the image sensor 17 can be configured by, for example, a camera.
  • the image sensor 17 is used to image information on a three-dimensional object, a white line, or a sign by an image sensor mounted around the own vehicle. Further, in the example shown in FIG. 2, the number of cameras is one, but a stereo camera having two cameras may be used.
  • the image data captured by the image sensor 17 can be combined and processed, for example, as a bird's-eye view image showing a state of looking down from a virtual viewpoint above the vehicle that can display the periphery of the vehicle.
  • the image pickup data from the image pickup sensor 17 is input to the vehicle control device 18.
  • the short-distance distance measuring sensor 24 can be configured by, for example, sonar.
  • the short-distance distance measuring sensor 24 is used to transmit ultrasonic waves toward the periphery of the vehicle 1 and receive the reflected waves to detect the distance to a three-dimensional object in the vicinity of the own vehicle.
  • the distance measurement data obtained by the short-range distance measurement sensor 24 is input to the vehicle control device 18.
  • the medium-range ranging sensor 22 can be configured by, for example, a millimeter-wave radar.
  • the medium-range distance measuring sensor is used to transmit a high frequency wave called a millimeter wave toward the periphery of the vehicle 1 and receive the reflected wave to detect the distance to a three-dimensional object.
  • the distance measurement data obtained by the medium-range distance measurement sensor 22 is input to the vehicle control device 18.
  • the long-distance ranging sensor 25 can be configured by, for example, a millimeter-wave radar.
  • the long-distance distance measuring sensor 25 is used to transmit a high frequency wave called a millimeter wave toward the front of the vehicle 1 and receive the reflected wave to detect the distance to a distant three-dimensional object.
  • the long-distance ranging sensor 25 is not limited to the millimeter-wave radar, and may be configured by a stereo camera or the like.
  • the distance measurement data obtained by the long-distance distance measurement sensor 25 is input to the vehicle control device 18.
  • the wheel sensor 50 includes a wheel speed sensor attached to each wheel 16 of the vehicle 1 to detect the rotation speed of the wheel 16 and a controller that integrates the detection values detected by the wheel speed sensor to generate a vehicle speed signal. ..
  • the vehicle speed signal data from the wheel sensor 50 is input to the vehicle control device 18. It is possible to omit the wheel sensor 50 in Examples 1 to 6 and 8 which will be described later.
  • the steering angle sensor 28 includes a sensor attached to the steering shaft (not shown) of the vehicle 1 to detect the steering direction and the steering angle, and a controller to generate a steering angle signal from the value detected by the sensor.
  • the steering angle signal data from the steering angle sensor 28 is input to the vehicle control device 18.
  • the rudder angle sensor 28 can be omitted.
  • the position detector 29 is composed of an orientation sensor that measures the front orientation of the vehicle 1 and a GPS receiver for GPS (Global Positioning System) that measures the position of the vehicle based on radio waves from satellites.
  • GPS Global Positioning System
  • the display 37 is composed of, for example, a liquid crystal display, and on the display screen of the display 37, a bird's-eye view image generated from an image captured by the image sensor 17 described later can be displayed, or an image signal from the vehicle control device 18 can be displayed. Display the image of.
  • the display 37 may include a touch panel that functions as an input device.
  • the voice output device 38 is composed of, for example, a speaker, is arranged at an appropriate place in the vehicle interior of the vehicle 1, and is used for voice guidance to the user and output of a warning sound.
  • the communication device 30 is a device for exchanging and receiving communication from the outside.
  • road information around the vehicle 1, road surface information (lane marker position, stop line position, pedestrian crossing, and other road surface paint types and positions) , Acquires three-dimensional object information (three-dimensional objects existing around the road such as signs, traffic lights, and features).
  • this information is detected by sensors installed in the road infrastructure, road surrounding information (road surface information, three-dimensional object information, etc.) stored in an external data center, and other vehicles. It is also possible to acquire road peripheral information (road surface information, three-dimensional object information, etc.) using the communication device 30. Further, it is also possible to change the road information around the traveling position stored in advance to the latest information by using the communication device 30.
  • the vehicle control unit 35 calculates a target value for controlling various sensors / actuators ECU 36 when performing low-speed automatic driving, and outputs a control instruction.
  • FIG. 3 is a plan view showing an example of the driving environment of the vehicle 1 having the driving support system.
  • FIG. 3 shows a scene in which the vehicle 1 travels to the storage location through a route that is used on a daily basis and stops at the parking position 101.
  • the vehicle control device 18 When the user (driver) is driving the vehicle 1 by himself / herself, when the storage start position 102 instructs the start of storage of the surrounding environment information, the vehicle control device 18 causes the subsequent travel path 109 of the vehicle 1 and Environmental information around the traveling route is stored in the peripheral environment storage unit 33.
  • the object of memory is the time point recognized by the outside world recognition sensor 31 such as the utility pole 103 existing on the side of the road, the traffic light 104, the pedestrian crossing 105, the sign 107, the road marking 106, and the white line 108. It is assumed that it is a stationary object (three-dimensional object information or road surface information) that is not moving.
  • the vehicle control device 18 stores the position of the storage start position 102.
  • the vehicle control device 18 informs the user when the storage start position 102 is reached. Notify that automatic driving is possible.
  • the vehicle control device 18 controls the steering and the vehicle speed, so that the vehicle 1 automatically travels while following the stored traveling path 109.
  • the vehicle control device 18 starts to memorize the traveling route and the environment around the route.
  • FIG. 4 is a flowchart showing an example of processing executed by the vehicle control device 18 when the vehicle 1 stores the surrounding environment information while traveling by the user's driving. This process is executed when a predetermined command for starting the storage of the surrounding environment information is received from the input switch unit 27.
  • the peripheral environment storage unit 33 of the vehicle control device 18 determines whether or not the user performs a predetermined operation on the input switch unit 27 and the storage completion operation is performed (Ste S201).
  • the process of determining whether or not the user has performed the storage completion operation may be performed continuously in time or discretely at regular intervals.
  • the peripheral environment storage unit 33 may display a predetermined message on the display 37 in order to inform the user that the storage is successful.
  • the surrounding environment storage unit 33 acquires the surrounding environment information around the vehicle 1 from the outside world recognition sensor 31 and detects a stationary object from the surrounding environment information. .. Then, the surrounding environment storage unit 33 determines whether or not the outside world recognition sensor 31 has detected three or more stationary objects (step S202).
  • the position include a method of storing the coordinate value of a stationary object when the storage start position 102 is the origin, a method of storing the coordinate value of the stationary object when the parking position 101 is the origin, and the like. There is a way.
  • the coordinate value of the stationary object is the position of the stationary object based on the distance and angle to the stationary object with the estimated value of the vehicle position as the origin. It may be calculated.
  • the features of the stationary object include a value (for example, a feature amount) calculated by substituting the color, size, outer shape, and sensor value of the stationary object into a predetermined calculation formula.
  • the peripheral environment storage unit 33 stores the position and characteristics of the stationary object detected by the external world recognition sensor 31, the peripheral environment storage unit 33 stores the route (traveling route 109) traveled up to now in the peripheral environment storage unit 33.
  • the vehicle control device 18 executes the processes from step S201 to step S204 at regular intervals until the storage process is completed.
  • the travel path 109 is stored in a coordinate system with the storage start position 102 as the origin from the travel distance from the storage start position 102 and the distance or orientation from the position of the vehicle 1 to the stationary object for estimating the position of the own vehicle.
  • the travel path 109 is not limited to the above, and is information based on the relationship between the travel distance from the storage start position 102 at each position on the travel path 109 and the position information of the stationary object for estimating the position of the own vehicle. All you need is.
  • the peripheral environment storage unit 33 periodically sets the position on the traveling path 109. Stores a stationary object for estimating the position of the own vehicle.
  • the surrounding environment storage unit 33 detects three or more stationary objects at each position on the traveling path 109 that is periodically stored, calculates the position and characteristics of the stationary objects, and serves as a stationary object for estimating the position of the own vehicle.
  • FIG. 4 shows an example in which the surrounding environment storage unit 33 stores a position on the traveling path 109 and a stationary object for estimating the position of the own vehicle by loop processing, but the present invention is not limited to this, and the vehicle is not limited to this, and is at predetermined intervals.
  • the position on the traveling path 109 and the stationary object for estimating the position of the own vehicle may be stored.
  • the surrounding environment storage unit 33 may memorize the position on the traveling path 109 and the stationary object for estimating the position of the own vehicle at a predetermined time interval or a predetermined distance.
  • the peripheral environment storage unit 33 ends the storage process at the position where the user performs the storage completion operation on the input switch unit 27, but the user (driver) uses the parking brake (or parking).
  • the parking position 101 may be set by ending the memory of the surrounding environment storage unit 33 at the position where the range) is operated.
  • the vehicle 1 stores the information.
  • follow-up traveling (automatic operation) is started with the traveling route 109 as the target route.
  • FIG. 5 shows a process executed by the storage information collating unit 34 and the vehicle control unit 35 of the vehicle control device 18 when the vehicle 1 follows the travel path 109 stored in the surrounding environment storage unit 33 as a target route. It is a flowchart which shows an example.
  • the storage information collation unit 34 of the vehicle control device 18 determines whether or not the outside world recognition sensor 31 has detected two or more stationary objects (step S205). When the outside world recognition sensor 31 does not detect two or more stationary objects, the storage information collation unit 34 ends the target route following travel. When stopping the target route following travel, the storage information collation unit 34 may display a predetermined message on the display 37 in order to inform the user that the target route following travel has failed.
  • the storage information collating unit 34 detects the stationary objects based on the characteristics of the stationary objects detected by the storage information collating unit 34. It is collated which of the own vehicle position estimation stationary objects stored in 33 corresponds to the own vehicle position estimation stationary object (step S206).
  • the storage information collation unit 34 estimates the position of the own vehicle (own vehicle position) by using the relative positional relationship with the stationary object for estimating the own vehicle position detected by the own vehicle position estimation unit 32 (the own vehicle position). Step S207).
  • the own vehicle position estimation unit 32 As a specific method of estimating the position of the own vehicle performed by the own vehicle position estimation unit 32, the distance between the stationary object whose radius is detected and the vehicle 1 centering on the stationary object detected for each of the detected stationary objects. It is possible to use a method of drawing a circle, calculating the intersection of each circle, and estimating the point where the vehicle yaw angles match from the obtained plurality of intersections as the own vehicle position.
  • the vehicle position estimation unit 32 compares the orientation of the stationary object observed from the vehicle 1 with the orientation of the stationary object observed from each intersection, and sets the intersection at which the orientation observed from the vehicle 1 approximates or matches as the vehicle position. Can be estimated.
  • the method by which the own vehicle position estimation unit 32 estimates the own vehicle position is not limited to the above, and the positions of a plurality of own vehicle position estimation stationary objects and the own vehicle position estimation stationary objects from the vehicle 1 are not limited to the above. It can be calculated by a well-known or known method from the distance and angle to.
  • the vehicle control unit 35 of the vehicle control device 18 determines whether or not the vehicle 1 has reached the parking position 101 (step S208). When the vehicle control unit 35 determines that the vehicle 1 has reached the parking position 101, the vehicle control unit 35 ends the target route following travel. When the vehicle control unit 35 finishes the target route following travel, the vehicle control unit 35 may display a predetermined message on the display 37 to inform the user that the target route following travel has been successful.
  • the vehicle control unit 35 controls steering and acceleration / deceleration based on the relationship between the target route (traveling route 109) and the position of the own vehicle (step S209). ..
  • the vehicle control unit 35 controls steering so as to reduce the error between the target route (traveling route 109) and the vehicle width direction, and the distance between the vehicle position and the end point of the target route is long. In that case, the vehicle speed is increased, and when the distance between the own vehicle position and the parking position 101 is short, acceleration / deceleration control is performed so as to decrease the vehicle speed.
  • the automatic driving by the vehicle control unit 35 is not limited to the above, and a known or well-known method can be adopted.
  • the vehicle control unit 35 executes the processes from step S205 to step S209 at regular intervals until the target route following travel is completed.
  • the storage information collation unit 34 acquires the peripheral area from the outside world recognition sensor 31. Two or more stationary objects are detected from the environmental information, and a stationary object that matches the stationary object for estimating the position of the own vehicle stored in the surrounding environment storage unit 33 is specified. Then, the own vehicle position estimation unit 32 estimates the own vehicle position from the positions of two or more specified stationary objects for own vehicle position estimation, and the vehicle control unit 35 estimates the own vehicle position along the target route. The control is carried out as follows.
  • the vehicle control device 18 of the first embodiment when the vehicle control device 18 of the first embodiment stores the traveling route 109 and the surrounding environment information around the route, the vehicle control device 18 simultaneously uses three or more stationary objects for estimating the position of the own vehicle.
  • the position of the own vehicle is estimated from two or more stationary objects even if the environment around the traveling path 109 changes during traveling following the target route and one stationary object disappears. This enables the vehicle control unit 35 to follow the target route and drive the vehicle 1.
  • Example 2 of the present invention will be described with reference to FIG.
  • FIG. 6 is a flowchart showing an example of processing executed by the vehicle control device 18 when the vehicle 1 follows the travel path 109 stored in the surrounding environment storage unit 33 as a target route in the second embodiment.
  • the difference between the first embodiment and the second embodiment is the processing after step 210 in FIG. 6, the configuration of the vehicle 1 of the second embodiment, the configuration of the driving support system, and the storage processing of the traveling route 109 and the environment around the route. Is the same as in the above embodiment.
  • FIG. 6 of Example 2 shows a process in which the processes of steps S210 to S213 are added between steps S206 and S207 of FIG. 5 of Example 1. In the following, duplicate description will be omitted for the same steps as in the first embodiment.
  • the stationary object for estimating the position of the own vehicle is used. It is determined whether or not there is an undetected stationary object among the stored stationary objects (step S210). Specifically, it is determined whether there is a stationary object that is currently detected and a stationary object for estimating the position of the own vehicle that is stored at the same time as the memory, and that is not detected at the present time.
  • the stationary object for estimating the position of the own vehicle held in the surrounding environment storage unit 33 disappears, for example, another vehicle that was stopped when the surrounding environment information was stored moved during the following running and could not be detected. There is.
  • the storage information collation unit 34 may have an undetected stationary object based on the position of the detected stationary object.
  • a stationary object is detected again in the range (step S211).
  • the range in which an undetected stationary object may exist is calculated based on the performance of the external world recognition sensor 31 and the like.
  • the storage information collation unit 34 has an undetected stationary object in a region having a predetermined size (or radius) centered on a position where the undetected stationary object should exist. A method such as setting it to a possible range can be mentioned.
  • the predetermined size is set based on the performance of the outside world recognition sensor 31.
  • the storage information collating unit 34 determines that the stationary object for estimating the position of the own vehicle no longer exists (S212) and detects it.
  • the information of the stationary object for estimating the position of the own vehicle that could not be obtained is deleted from the surrounding environment storage unit 33 (step S213).
  • the free space of the peripheral environment storage unit 33 can be expanded by deleting unnecessary information from the peripheral environment storage unit 33, and new information can be stored.
  • the information of the newly detected stationary object for vehicle position estimation can be stored, and the already stored stationary object for vehicle position estimation can be stored by adding a new feature.
  • the processing after deleting the unnecessary information from the surrounding environment storage unit 33 is the same as that in the first embodiment.
  • Example 3 of the present invention will be described with reference to FIG.
  • FIG. 7 is a flowchart showing an example of processing executed by the vehicle control device 18 when the vehicle 1 follows the travel path 109 stored in the surrounding environment storage unit 33 as a target route in the third embodiment.
  • Example 4 of the present invention will be described with reference to FIG.
  • step S208 when the vehicle control unit 35 determines in step S208 that the vehicle 1 has not reached the parking position 101, the vehicle proceeds to step S214, and the storage information collation unit 34 uses the external world recognition sensor 31 to determine the surrounding environment storage unit 33. It is determined whether or not a new stationary object that is not stored in is detected.
  • the storage information collating unit 34 temporarily stores the newly detected stationary object in the peripheral environment storage unit 33 (Ste S216).
  • a stationary object temporarily stored is referred to as a temporary storage stationary object.
  • the vehicle control unit 35 does not use the provisional storage stationary object when estimating the position of the own vehicle.
  • the storage information collation unit 34 newly secures an area for storing the temporary storage stationary object in the memory 3 separately from the surrounding environment storage unit 33, and stores the area for storing the temporary storage object in the area. May be good.
  • the storage information collation unit 34 temporarily stores the newly detected stationary object, and then determines whether or not the stationary object stored as the temporary storage stationary object is detected among the stationary objects detected in step S205. (Step S217).
  • step S209 after updating the number of detections is the same as that of the first embodiment.
  • the storage information collation unit 34 determines whether or not there is a temporary storage stationary object whose number of detections has reached a predetermined number of times. (Step S219).
  • the storage information collation unit 34 stores the corresponding temporary storage stationary object in the surrounding environment storage unit 33 as a stationary object for estimating the position of the own vehicle. (Step S220), it will be used for estimating the position of the own vehicle from the next time of traveling following the target route.
  • the vehicle control device 18 sets a limit that the number of detections is a predetermined number or more when storing a newly detected stationary object, so that the vehicle position can be estimated when the object is a movable object such as a parked vehicle. It is possible to prevent it from being stored as a stationary object.
  • Example 5 of the present invention will be described with reference to FIG.
  • FIG. 9 is a flowchart showing an example of processing executed by the vehicle control device 18 when the vehicle 1 follows the travel path 109 stored in the surrounding environment storage unit 33 as the target route in the fifth embodiment.
  • FIG. 9 shows that the processes of steps S214 to S215 and S221 are added between steps S208 and S209 of FIG. 5 of the first embodiment.
  • duplicate description will be omitted for the same steps as in the first embodiment.
  • step S208 when the vehicle control unit 35 determines in step S208 that the vehicle 1 has not reached the parking position 101, the process proceeds to step S214, and the storage information collation unit 34 uses the external world recognition sensor 31 to store the surrounding environment. It is determined whether or not a stationary object not stored in 33 is detected (step S214).
  • the storage information collating unit 34 calculates the feature amount of the stationary object and determines whether or not the feature amount is equal to or more than a predetermined value. Determine (step S221).
  • the storage information collation unit 34 calculates the possibility that the stationary object has wheels from the outer shape of the stationary object detected by the outside world recognition sensor 31, and features the possibility that the stationary object does not have wheels. And so on.
  • the stationary object has a high possibility of having wheels, the feature amount becomes small, and when the stationary object has a low possibility of having wheels, the feature amount becomes large.
  • the storage information collating unit 34 stores it in the surrounding environment storage unit 33 as a stationary object for estimating the position of the own vehicle (step S215).
  • the process after storing the newly detected stationary object in the surrounding environment storage unit 33 as a stationary object for estimating the position of the own vehicle is the same as that in the first embodiment.
  • the vehicle control device 18 is a system for changes in the surrounding environment of the route stored by storing the newly detected feature amount of the stationary object in the peripheral environment storage unit 33 as a stationary object for estimating the position of the own vehicle.
  • the robustness of the car can be improved.
  • the vehicle control device 18 when the vehicle control device 18 stores the newly detected stationary object, the vehicle control device 18 sets a condition for the feature amount of the stationary object, so that the vehicle is stationary for estimating the position of the own vehicle when it is a movable object such as a parked vehicle. It is possible to prevent it from being memorized as an object.
  • Example 6 of the present invention will be described with reference to FIG.
  • FIG. 10 is a flowchart showing an example of processing executed by the vehicle control device 18 when the vehicle 1 follows the travel path 109 stored in the surrounding environment storage unit 33 as a target route in the sixth embodiment.
  • FIG. 9 shows that the processes of steps S222 to S224 are added after step S208 of FIG. 5 of the first embodiment. In the following description, duplicate description will be omitted for the same steps as in the first embodiment.
  • the stationary object for estimating the position of the own vehicle whose undetected number of times has reached a predetermined number of times no longer exists and by deleting unnecessary information from the peripheral environment storage unit 33, the peripheral environment storage unit 33 Free space can be increased and new information can be stored.
  • the peripheral environment storage unit 33 Free space can be increased and new information can be stored.
  • when deleting a stationary object that could not be detected by setting a limit that the number of undetected times is equal to or more than a predetermined number, when the performance of the external world recognition sensor 31 deteriorates due to the influence of the weather, time zone, etc. , It is possible to prevent the stationary object for estimating the position of the own vehicle from being deleted.
  • Example 7 of the present invention will be described with reference to FIGS. 11 and 12.
  • FIG. 11 shows that step S202 of FIG. 4 of the first embodiment is replaced with step S205.
  • step S205 duplicate description will be omitted for the same steps as in the first embodiment.
  • FIG. 12 is a flowchart showing an example of processing executed by the vehicle control device 18 when the vehicle 1 follows the travel path 109 stored in the vehicle 1 as a target in the seventh embodiment, and the difference from the first embodiment is the step. This is the process after S222.
  • FIG. 12 shows that the processes of steps S225 to S228 are added after step S209 of FIG. 5 of the first embodiment.
  • the vehicle 1 includes the wheel sensor 50. It is also desirable that the vehicle 1 also has a steering angle sensor 28.
  • the storage information collation unit 34 determines whether or not one or more stationary objects have been detected when a predetermined time or more has passed since the start of the target route following running (step S226).
  • the vehicle position estimation unit 32 uses the values of the wheel sensor 50, the steering angle sensor 28, etc., based on the immediately preceding vehicle position (estimated position), and performs dead reckoning.
  • the vehicle position is estimated (step S227).
  • the storage information collating unit 34 stores the detected stationary objects in the surrounding environment storage unit 33 based on the characteristics of the detected stationary objects. It is collated which of the estimation stationary objects corresponds to the own vehicle position estimation stationary object (step S206).
  • the own vehicle position estimation unit 32 estimates the own vehicle position using the relative positional relationship with the detected stationary object (step S207).
  • step S208 the vehicle control unit 35 proceeds to step S208 and performs the same processing as in the first embodiment.
  • the vehicle control unit 35 can estimate the vehicle position even if there is a moment when a stationary object cannot be detected while traveling following the target route. It is possible to continue the route-following running.
  • Example 8 is different from the first to seventh embodiments, and it is essential that the vehicle 1 has a position detector 29.
  • FIG. 13 is a flowchart showing an example of processing executed by the vehicle control device 18 when following the travel path 109 stored in the vehicle 1 as the target route in the eighth embodiment.
  • Example 8 the process when two or more stationary objects are detected is the same as in Example 1.
  • FIG. 13 shows that the processes of steps S226 to S229 are added in the case of NO in step S205 of FIG. 5 of the first embodiment. In the following description, duplicate description will be omitted for the same steps as in the first embodiment.
  • the storage information collation unit 34 determines whether or not one or more stationary objects are detected (step S226). If the number of detected stationary objects is less than one, the storage information collation unit 34 ends the target route following travel.
  • the storage information collation unit 34 may display a message on the display 37 to inform the user that the target route following the running has failed. Further, when the own vehicle position estimation unit 32 has been able to estimate the own vehicle position in the previous cycle, the wheel sensor 50 and the steering angle sensor 28 are used based on the own vehicle position calculated in the previous cycle. The position of the own vehicle may be estimated by the dead reckoning used. If the position of the own vehicle can be estimated, the process proceeds to step S206.
  • the detected stationary objects are stored in the surrounding environment storage unit 33 based on the characteristics of the stationary objects detected by the storage information collation unit 34. It is collated which of the stationary objects for estimating the position of the own vehicle corresponds to the stationary object for estimating the position of the own vehicle (step S206).
  • the own vehicle position estimation unit 32 estimates the own vehicle position using the detected relative positional relationship with the stationary object and GPS information (step S229). Specifically, the own vehicle position estimation unit 32 has the most distance from the own vehicle position based on GPS information at a point on the circumference where the radius of the detected stationary object is the distance between the detected stationary object and the own vehicle. A method such as setting a small point as the position of the own vehicle can be mentioned. After estimating the position of the own vehicle, the process proceeds to step S208 and the same processing as in the first embodiment is performed.
  • the vehicle control device 18 of the eighth embodiment uses GPS information as the own vehicle position estimation method, and is stationary even if there is a moment when two or more stationary objects cannot be detected at the same time while traveling following the target route. If even one object can be detected, the position of the own vehicle can be estimated and the traveling following the target route can be continued.
  • Examples 1 to 8 may be executed only at a predetermined distance from the start position of the target route to the route length, or a predetermined ratio of the latter half of the target route including the parking position 101. You may execute only the part.
  • the storage capacity required by the surrounding environment storage unit 33 can be reduced by limiting the locations in the vicinity where a plurality of stationary objects are stored for estimating the position of the own vehicle.
  • the peripheral environment storage unit 33 uses the communication device 30 to obtain the peripheral environment information when another vehicle has traveled in the past. It can be obtained from an external data center or road infrastructure that manages the vehicle position information. By sharing the surrounding environment information with an external data center, road infrastructure, etc., it is possible to drive automatically by using the surrounding environment information not only with the own vehicle but also with other vehicles of different vehicle types.
  • the peripheral environment storage unit 33 when the vehicle control device 18 receives a predetermined command from the input switch unit 27 to start storing the surrounding environment information, the peripheral environment storage unit 33 periodically estimates the position on the traveling path 109 and the position of the own vehicle. Memorize stationary objects. The surrounding environment storage unit 33 detects three or more stationary objects at each position on the traveling path 109 that is periodically stored, calculates the position and characteristics of the stationary objects, and serves as a stationary object for estimating the position of the own vehicle.
  • the surrounding environment storage unit 33 detects three or more stationary objects at each position on the traveling path 109 that is periodically stored, calculates the position and characteristics of the stationary objects, and serves as a stationary object for estimating the position of the own vehicle.
  • the sensor (31) acquires the command.
  • the storage information collating unit (34) that detects a stationary object from the surrounding environment information and identifies the stationary object for vehicle position estimation that matches the stationary object, and the position of the identified stationary object for vehicle position estimation. Vehicles that perform automatic driving based on the own vehicle position estimation unit (32) that estimates the position of the vehicle (1), the estimated position of the vehicle (1), and the stored traveling route (109).
  • the control unit (35) and the storage information collation unit (34) further have the control unit (35), and when two or more of the stationary objects are detected, the vehicle position estimation stationary object is specified.
  • the storage information collation unit 34 acquires the peripheral area from the outside world recognition sensor 31. Two or more stationary objects are detected from the environmental information, and a stationary object that matches the stationary object for estimating the position of the own vehicle stored in the surrounding environment storage unit 33 is specified. Then, the own vehicle position estimation unit 32 estimates the own vehicle position from the positions of two or more specified stationary objects for own vehicle position estimation, and the vehicle control unit 35 estimates the own vehicle position along the target route. The control is carried out as follows.
  • the storage information collation unit (34) is the detected rest of the stored stationary objects for estimating the position of the own vehicle. If there is a stationary object for estimating the position of the own vehicle that is not included in the object, the stationary object is detected again within the range where the stationary object for estimating the position of the own vehicle may exist, and the detection result is obtained. If the stationary object for estimating the position of the own vehicle is not detected, the stationary object for estimating the position of the own vehicle is deleted.
  • the vehicle control device 18 can expand the free space of the peripheral environment storage unit 33 by deleting unnecessary information from the peripheral environment storage unit 33, and can store new information. It becomes.
  • the storage information collating unit (34) is used for estimating the position of the own vehicle when the stationary object for estimating the position of the own vehicle is deleted.
  • the stationary object that is not stored as a stationary object is detected, it is stored as a new stationary object for estimating the position of the own vehicle.
  • the number of detections is limited to a predetermined number or more, so that if it is a movable object such as a parked vehicle, it is stored as a stationary object for estimating the position of the own vehicle. It can be prevented from doing so.
  • the storage information collation unit (34) determines a feature amount of a stationary object that does not match the stored stationary object for vehicle position estimation. When the feature amount is calculated and is equal to or more than a predetermined value, the predetermined number of times is reduced.
  • the vehicle control device 18 estimates the position of the own vehicle when it is a movable object such as a parked vehicle by setting a condition for the feature amount of the stationary object when storing the newly detected stationary object. It is possible to prevent it from being stored as a stationary object.
  • the storage information collation unit (34) has a predetermined shape of a stationary object that does not match the stored stationary object for estimating the position of the own vehicle. In the case of the shape of, the predetermined number of times is reduced.
  • the vehicle control device 18 is for estimating the position of the own vehicle when it is a movable object such as a parked vehicle by setting a condition for the feature of the stationary object when storing the newly detected stationary object. It is possible to prevent it from being stored as a stationary object.
  • the vehicle control device 18 is a system for changes in the surrounding environment of the route stored by storing the newly detected feature amount of the stationary object in the peripheral environment storage unit 33 as a stationary object for estimating the position of the own vehicle.
  • the robustness of the car can be improved.
  • the peripheral environment storage unit (33) cannot detect three of the stationary objects at each position on the traveling path (109).
  • the detected stationary object is stored as a stationary object for estimating the position of the own vehicle, and the own vehicle position estimation unit (32) estimates the position of the vehicle (1) by the stationary object for estimating the position of the own vehicle and dead reckoning. To do.
  • the vehicle control device 18 can estimate the position of the own vehicle even if there is a moment when a stationary object cannot be detected while following the target route by using dead reckoning as a method of estimating the position of the own vehicle. It is possible to continue following the target route.
  • the stationary object for vehicle position estimation that has not been detected a predetermined number of times no longer exists, and the unnecessary stationary object for vehicle position estimation is deleted from the surrounding environment storage unit 33.
  • the free space of the surrounding environment storage unit 33 can be increased, and new information can be stored.
  • the storage information collating unit (34) matches the stationary object when the detected stationary object is one.
  • the position of the stationary object for estimating the position of the own vehicle is output, and the position information by the own vehicle position estimation unit (32) can be used by the position information by the positioning satellite, and the position of the stationary object for estimating the position of the own vehicle and the positioning satellite are used.
  • the position of the vehicle (1) is estimated from the position information.
  • the vehicle control device 18 uses GPS information as the vehicle position estimation method, so that even if there is a moment when two or more stationary objects cannot be detected at the same time while traveling following the target route, even one stationary object can be detected. If it can be detected, the position of the own vehicle can be estimated and the traveling following the target route can be continued.
  • the vehicle control device (18) according to any one of (2) to (11) above, wherein the peripheral environment storage unit (33) starts to store the peripheral environment information and the traveling route.
  • the stationary object is stored as a stationary object for estimating the position of the own vehicle in a predetermined section of the traveling route (109) from the starting position where the command is received.
  • the vehicle control device 18 can reduce the storage capacity required by the surrounding environment storage unit 33 by limiting the locations where a plurality of stationary objects are stored for estimating the position of the own vehicle.
  • the vehicle control device (18) according to any one of (2) to (11), wherein the peripheral environment storage unit (33) includes a predetermined ratio including the end point of the traveling route (109).
  • the stationary object is stored as a stationary object for estimating the position of the own vehicle.
  • the vehicle control device 18 can reduce the storage capacity required by the surrounding environment storage unit 33 by limiting the locations where a plurality of stationary objects are stored for estimating the position of the own vehicle.
  • the present invention is not limited to the above-mentioned examples, and includes various modifications.
  • the above-described embodiment is described in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to the one including all the configurations described.
  • any of addition, deletion, or replacement of other configurations can be applied alone or in combination.
  • each of the above configurations, functions, processing units, processing means, etc. may be realized by hardware by designing a part or all of them, for example, by an integrated circuit. Further, each of the above configurations, functions, and the like may be realized by software by the processor interpreting and executing a program that realizes each function. Information such as programs, tables, and files that realize each function can be placed in a memory, a hard disk, a recording device such as an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.
  • SSD Solid State Drive
  • control lines and information lines indicate what is considered necessary for explanation, and not all control lines and information lines are necessarily shown on the product. In practice, it can be considered that almost all configurations are interconnected.
  • Vehicle 11 Engine 12 Automatic transmission 13 Propeller shaft 14 Differential gear 15 Drive shaft 16 Wheel 17 Imaging sensor 18
  • Vehicle control device 19 Various sensors 20 Brake device 21 Electric power steering 24 Short-range ranging sensor 22 Medium-range ranging sensor 25 Far Distance measurement sensor 27 Input switch unit 29 Position detector 30 Communication device 31 External world recognition sensor 32 Own vehicle position estimation unit 33 Peripheral environment storage unit 34 Storage information collation unit 35 Vehicle control unit 36 Various sensors / actuators ECU 37 Display 38 Voice output device 39 Steering control unit 40 Acceleration / deceleration control unit 41 Shift control unit 50 Wheel sensor

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

走行経路に追従する走行時には走行経路の周辺の環境が変化しても、静止物から自車位置の推定を実現する。プロセッサとメモリを有し、車両の走行を制御する車両制御装置であって、前記車両の周辺環境情報を取得するセンサと、前記センサが取得した周辺環境情報から静止物を取得し、前記静止物の位置を算出し、走行経路上の前記車両の位置と、前記静止物の位置を対応付けて記憶する周辺環境記憶部と、を有し、前記周辺環境記憶部は、前記周辺環境情報と走行経路の記憶を開始する指令を受け付けた場合には、前記走行経路上の各位置において3以上の前記静止物を自車位置推定用静止物として記憶する。

Description

車両制御装置
 本発明は、車両制御装置に関する。
 従来、車両の自動運転システムや駐車支援システムを実現するために、自車両が走行した経路と自車両周辺の立体物や白線等といった周辺環境情報を記憶し、以降、自車両が記憶した経路を目標経路として追従して走行するように車両を制御する車両制御装置が知られている(例えば、特許文献1を参照)。
 自車両の周辺環境情報として、自車両周辺の静止物や移動物等の立体物に関する位置情報や道路上の白線、停止線などの路面標示(路面ペイント)や道路周辺に存在する信号機、速度標識などの外界周辺状況が挙げられる。
特開2018-86928号公報
 自車両が記憶した経路を目標経路として追従走行するよう制御するためには、自車位置を高精度で推定する必要がある。自車位置を推定する方法は車輪センサや舵角センサ、加速度センサ、ジャイロセンサ等の自車センサ情報を用いて自車位置を推定するデッドレコニングという方法や、GPS(Global Positioning System)を利用する方法や、予め経路周辺の環境を記憶しておき目標経路追従走行時にカメラやライダー等の外界認識センサによって取得した情報と予め記憶した情報を照合して自車位置を推定する方法などが知られている。
 しかし、デッドレコニングによる自車位置推定では走行距離が長くなるほど誤差が積み上がっていくために精度が悪化し、GPSを利用した方法も自車両の周辺に建物などがある場合では建物が衛星からの電波を反射することが原因で精度が悪化する。
 一方、予め経路周辺の環境を記憶しておき経路追従走行時にカメラやライダー等の外界認識センサによって取得した静止物情報と、予め記憶した経路周辺の静止物情報を照合して自車位置を推定する方法では、自車位置推定の精度は外界認識センサの精度に依存し、高性能なセンサを使用すれば自車位置を高精度で推定できる。なお、ここでの静止物とは外界認識センサで認識した時点で移動していない物体を指す。
 しかし、記憶した経路の周辺環境が変化して記憶した静止物が目標経路追従走行時になくなってしまった場合には、自車位置が推定できなくなるという課題がある。また、検知した静止物が1個の場合は、検知した静止物を中心として自車両と検知した静止物との距離を半径とする円周上のどこに自車両が位置するか決定できないため、最低限2個の静止物を検知しないと検知した静止物と自車両の相対位置関係に基づいて自車位置を推定できないという課題がある。
 本発明は、プロセッサとメモリを有し、車両の走行を制御する車両制御装置であって、前記車両の周辺環境情報を取得するセンサと、前記センサが取得した周辺環境情報から静止物を取得し、前記静止物の位置を算出し、走行経路上の前記車両の位置と、前記静止物の位置を対応付けて記憶する周辺環境記憶部と、を有し、前記周辺環境記憶部は、前記周辺環境情報と走行経路の記憶を開始する指令を受け付けた場合には、前記走行経路上の各位置において3以上の前記静止物を自車位置推定用静止物として記憶する。
 したがって、本発明は、同時に3個以上の静止物を自車位置推定用静止物として記憶することで、走行経路に追従する走行時に、走行経路の周辺の環境が変化して、静止物が1個なくなってしまった場合でも、2個以上の静止物から自車位置を推定することができる。これにより、車両制御部は目標経路に追従して車両の走行を継続させることが可能となる。
 本明細書において開示される主題の、少なくとも一つの実施の詳細は、添付されている図面と以下の記述の中で述べられる。開示される主題のその他の特徴、態様、効果は、以下の開示、図面、請求項により明らかにされる。
本発明の実施例1を示し、車両の構成の一例を示す図である。 本発明の実施例1を示し、運転支援システムの機能の一例を示すブロック図である。 本発明の実施例1を示し、運転支援システムを利用する走行環境の一例を示す平面図である。 本発明の実施例1を示し、車両制御装置が走行経路及び経路周辺環境を記憶する処理の一例を示すフローチャートである。 本発明の実施例1を示し、車両制御装置が記憶部に記憶した走行経路を目標経路として追従走行する処理の一例を示すフローチャートである。 本発明の実施例2を示し、車両制御装置が記憶部に記憶した走行経路を目標経路として追従走行する処理の一例を示すフローチャートである。 本発明の実施例3を示し、車両制御装置が記憶部に記憶した走行経路を目標経路として追従走行する処理の一例を示すフローチャートである。 本発明の実施例4を示し、車両制御装置が記憶部に記憶した走行経路を目標経路として追従走行する処理の一例を示すフローチャートである。 本発明の実施例5を示し、車両制御装置が記憶部に記憶した走行経路を目標経路として追従走行する処理の一例を示すフローチャートである。 本発明の実施例6を示し、車両制御装置が記憶部に記憶した走行経路を目標経路として追従走行する処理の一例を示すフローチャートである。 本発明の実施例7を示し、車両制御装置が走行経路及び経路周辺環境を記憶する処理の一例を示すフローチャートである。 本発明の実施例7を示し、車両制御装置が記憶部に記憶した走行経路を目標経路として追従走行する処理の一例を示すフローチャートである。 本発明の実施例8を示し、車両制御装置が記憶部に記憶した走行経路を目標経路として追従走行する処理の一例を示すフローチャートである。
 以下、本発明の実施形態を添付図面に基づいて説明する。
 図1は、本発明に係る車両の構成の一例を示す図である。図示の車両1は、走行用動力源としての、例えば筒内噴射式ガソリンエンジン11と、該エンジン11の駆動力を伝達可能な自動変速機12と、プロペラシャフト13と、ディファレンシャルギア14と、ドライブシャフト15と、4つの車輪16及び車輪センサを含むブレーキ装置20と、電動パワーステアリング21を有する後輪駆動車である。
 車両1には、後述する車両制御装置18及び各種センサ19類を含む装置と、アクチュエータと、機器類は、車内LANやCAN通信を通じて信号やデータの授受を行えるようになっている。車両制御装置18は後述するセンサ類から自車両の外部の情報を得て、自動駐車や、自動運転等の制御を実現するための指令値を、エンジン11と、車輪センサを含むブレーキ装置20と、電動パワーステアリング21と、自動変速機12へ送信する。車輪センサ50は車輪の回転に応じてパルス波形を生成し、車両制御装置18へ送信する。
 車両1の前方、後方、側方には撮像センサ17と、近距離測距センサ24が配備されている。また、車両1の前方、後方に中距離測距センサ22を配置する。また、車両1の前方に遠距離測距センサ25を配置する。これらのセンサは自車両周囲の立体物や白線等の道路環境について検知し、車両制御装置18へ供給する外界認識センサ31(図2)として機能する。これらの取り付け位置、各種センサの数は図1に示す位置に限定されない。
 なお、図示の車両1は、本発明を適用可能な車両の一例であり、本発明は適用可能な車両の構成を限定するものではない。例えば、前記自動変速機12に代えて無段変速機(CVT)を採用した車両でもよい。また、走行動力源であるエンジン11に代えてモーターあるいは、エンジンとモーターを走行動力源とした車両でもよい。
 図2は、本発明が適用された運転支援システムの機能の一例を示すブロック図である。図2に示す運転支援システムは、車両1に搭載されるものであり、外界認識センサ31と、入力スイッチ部27と、車輪センサ50と、舵角センサ28と、位置検出器29と、表示器37と、音声出力器38と、通信装置30と、車両の各種センサ/アクチュエータECU36、及びこれらを接続した車両制御装置18、によって構成される。また、外界認識センサ31は、撮像センサ17と、近距離測距センサ24と、中距離測距センサ22、遠距離測距センサ25によって構成される。
 車両制御装置18は、プロセッサ2と、メモリ3を含む。車両制御装置18は、自車位置推定部32と、周辺環境記憶部33と、記憶情報照合部34と、車両制御部35の各プログラムをメモリ3へそれぞれロードしてプロセッサ2で実行する。車両制御部35は、操舵制御部39と加減速制御部40とシフト制御部41によって構成される。
 プロセッサ2は、各機能部のプログラムに従って処理を実行することによって、所定の機能を提供する機能部として稼働する。例えば、プロセッサ2は、自車位置推定プログラムに従って処理を実行することで自車位置推定部32として機能する。他のプログラムについても同様である。さらに、プロセッサ2は、各プログラムが実行する複数の処理のそれぞれの機能を提供する機能部としても稼働する。計算機及び計算機システムは、これらの機能部を含む装置及びシステムである。
 撮像センサ17は、例えば、カメラで構成することができる。撮像センサ17は、自車両の周囲に取り付けられた撮像素子により、立体物や白線や標識の情報を撮像するために用いられる。また、図2に示す例では、カメラを1つとしているが、カメラが2つあるステレオカメラとしてもよい。撮像センサ17による撮像データは、例えば、車両周辺を表示できる車両上方の仮想視点から見下ろした様子を表す俯瞰画像のように合成して処理することができる。撮像センサ17による撮像データは、車両制御装置18に入力される。
 近距離測距センサ24は、例えば、ソナーで構成することができる。近距離測距センサ24は、車両1の周囲に向かって超音波を送波し、その反射波を受信することで自車両近傍の立体物との距離を検知するために用いられる。近距離測距センサ24による測距データは車両制御装置18に入力される。
 中距離測距センサ22は、例えば、ミリ波レーダーで構成することができる。中距離測距センサは、車両1の周囲に向かってミリ波と呼ばれる高周波を送波し、その反射波を受信することで立体物との距離を探知するために用いられる。中距離測距センサ22による測距データは車両制御装置18に入力される。
 遠距離測距センサ25は、例えば、ミリ波レーダーで構成することができる。遠距離測距センサ25は、車両1の前方に向かってミリ波と呼ばれる高周波を送波し、その反射波を受信することで遠方の立体物との距離を検知するために用いられる。また、遠距離測距センサ25は、ミリ波レーダーに限定せず、ステレオカメラなどで構成することもできる。遠距離測距センサ25による測距データは車両制御装置18に入力される。
 入力スイッチ部27は、例えば、運転席の周辺に設けられた専用の機械式スイッチである。また、表示器37をタッチパネルで構成した場合、入力スイッチ部27は、GUI(Graphical User Interface)スイッチなどであってもよい。入力スイッチ部27は、車両1の周辺環境を記憶させる指示や、車両を自動制御させる指示をユーザー操作によって受け付ける。
 車輪センサ50は、車両1の各車輪16に取り付けられて車輪16の回転速度を検出する車輪速センサと、車輪速センサにより検出された検出値を統合して車速信号を生成するコントローラとを含む。車輪センサ50による車速信号データは車両制御装置18に入力される。なお、後述する実施例1から実施例6及び実施例8においては、車輪センサ50を省略することが可能である。
 舵角センサ28は、車両1のステアリングシャフト(図示省略)に取り付けられ、操舵の向き、操舵角を検出するセンサと、センサにより検出された値から舵角信号を生成するコントローラとを含む。舵角センサ28による舵角信号データは車両制御装置18に入力される。なお、舵角センサ28は省略することが可能である。
 位置検出器29は、車両1の前方の方位を測定する方位センサや、衛星からの電波に基づいて車両の位置を測定するGPS(Global Positioning System)のためのGPS受信機で構成される。なお、後述する本発明の実施例1から実施例7においては、位置検出器29を省略することが可能である。
 表示器37は、例えば、液晶ディスプレイによって構成され、表示器37の表示画面には、後述する撮像センサ17が撮像した画像から生成された俯瞰画像を表示したり、車両制御装置18からの画像信号の画像を表示する。なお、表示器37は、入力装置として機能するタッチパネルを含んでいてもよい。
 音声出力器38は、例えば、スピーカーによって構成され、車両1の車室内の適切な場所に配置され、ユーザーへの音声案内や警告音の出力に利用される。
 通信装置30は、外部からの通信を授受する装置であり、例えば、車両1の周辺の道路情報として路面情報(レーンマーカー位置、停止線位置、横断歩道、などの路面ペイント種別と位置など)と、立体物情報(標識、信号機、地物、など道路の周辺に存在する立体物)を取得する。
 後述するように、これらの情報は、道路インフラに設置されたセンサによって検知した情報や、外部のデータセンタに記憶された道路周辺情報(路面情報や立体物情報など)や、他車両が検知した道路周辺情報(路面情報や立体物情報など)を通信装置30を用いて取得することも可能である。さらに、事前に記憶している走行位置周辺の道路情報を通信装置30を用いて最新の情報に変更することも可能である。
 各種センサ/アクチュエータECU36は、周知又は公知のものでよく、例えば、駆動力を操作するアクセルペダルや制動力を操作するブレーキペダル、パーキングブレーキ、車両の進路方向を操作するステアリング、車両の進行方向を操作するシフトレバー等の機械要素や信号変換装置を示す。
 車両制御部35は、低速自動運転を実施する際に各種センサ/アクチュエータECU36を制御する目標値を演算し、制御指示を出力する。
 本発明の実施例1を図3、図4、図5を用いて説明する。
 図3は、運転支援システムを有する車両1の走行環境の一例を示す平面図である。図3では、車両1が、日常的に利用する経路を通って保管場所まで走行し、駐車位置101で停止するシーンを示している。
 ユーザー(運転者)が自身で車両1を運転している場合、記憶開始位置102にて、周辺環境情報の記憶開始を指示すると、車両制御装置18は、以降の車両1の走行経路109、及び前記走行経路周辺の環境情報を周辺環境記憶部33に記憶する。記憶の対象は、具体的には、図3において、道路脇に存在する電柱103や、信号機104、横断歩道105、標識107、路面標示106、白線108など、外界認識センサ31により認識された時点で運動していない静止物(立体物情報や路面情報)とする。また、ユーザーが、自身の運転操作により駐車を開始する場合に、駐車開始位置の記憶を指示すると、車両制御装置18は、記憶開始位置102の位置を記憶する。
 上記周辺環境情報の記憶が完了した状態で、次に車両1が同じ走行経路109を通って駐車位置101まで走行する場合、記憶開始位置102に到達すると、車両制御装置18は、ユーザーに対し、自動走行が可能である旨を通知する。ここでユーザーが自動走行開始を指示すると、車両制御装置18が操舵及び車速を制御することにより、車両1は、記憶された走行経路109を追従しながら自動走行を行う。
 ここで、走行経路及び経路周辺環境を記憶する処理について図4で説明する。
 車両1がユーザーの運転操作により走行している場合、ユーザーが入力スイッチ部27にて所定の操作を行うと、車両制御装置18は、走行経路及び経路周辺環境の記憶を開始する。
 図4は、車両1がユーザーの運転により走行しながら周辺環境情報を記憶する際、車両制御装置18により実行される処理の一例を示すフローチャートである。この処理は入力スイッチ部27から周辺環境情報の記憶を開始する所定の指令を受け付けた場合に実行される。
 走行経路及び経路周辺環境の記憶を開始すると、車両制御装置18の周辺環境記憶部33は、ユーザーが入力スイッチ部27にて所定の操作を行い記憶完了操作が実施されたか否かを判定する(ステップS201)。ユーザーが記憶完了操作を実施したか否かの判定処理は、時間的に連続で行ってもよいし、一定の周期で離散的に行ってもよい。
 ユーザーが記憶完了操作を実施したと判定した場合は、記憶処理を終了する。その際、周辺環境記憶部33は、表示器37上に記憶に成功したことをユーザーに伝えるために所定のメッセージを表示してもよい。
 ユーザーが記憶完了処理を実施していないと判定した場合、周辺環境記憶部33は、外界認識センサ31から車両1の周囲の周辺環境情報を取得し、周辺環境情報の中から静止物を検知する。そして、周辺環境記憶部33は、外界認識センサ31が静止物を3個以上検知しているか否かを判定する(ステップS202)。
 周辺環境記憶部33は、静止物を3個以上検知していない場合は、記憶処理を終了する。その際、周辺環境記憶部33は、表示器37上に記憶が失敗したことをユーザーに伝えるために所定のメッセージを表示してもよい。
 静止物を3個以上検知した場合、周辺環境記憶部33は、静止物の位置と特徴を周辺環境記憶部33に記憶する(ステップS203)。以下、記憶した静止物を自車位置推定用静止物と呼ぶこととする。
 位置の具体例として、記憶開始位置102を原点とした場合の静止物の座標値を位置として記憶する方法や、駐車位置101を原点とした場合の静止物の座標値を位置として記憶するなどの方法がある。なお、静止物の座標値は、自車位置推定部32が車両の位置を推定している場合は、自車位置の推定値を原点とする静止物までの距離及び角度で静止物の位置を算出してもよい。
 また、静止物の特徴の具体例としては、静止物の色、大きさ、外形、センサ値を用いて所定の計算式に代入して計算した値(例えば、特徴量)などが挙げられる。周辺環境記憶部33は、外界認識センサ31で検知した静止物の位置と特徴を記憶したら、現在までに走行した経路(走行経路109)を周辺環境記憶部33に記憶する。車両制御装置18は、上記ステップS201からステップS204までの処理を、記憶処理が終了するまで、一定の周期で実行する。
 なお、走行経路109は、記憶開始位置102からの走行距離と、車両1の位置から自車位置推定用静止物までの距離又は方位から、記憶開始位置102を原点とする座標系で記憶する。なお、走行経路109は、上記に限定されるものではなく、走行経路109上の各位置における記憶開始位置102からの走行距離と、自車位置推定用静止物の位置情報の関係に基づく情報であればよい。
 上記処理によって、車両制御装置18は、入力スイッチ部27(入力部)から周辺環境情報の記憶を開始する所定の指令を受け付けると、周辺環境記憶部33が周期的に走行経路109上の位置と自車位置推定用静止物を記憶する。
 周辺環境記憶部33は、周期的に記憶した走行経路109上の各位置では、3個以上の静止物を検知して、静止物の位置と特徴を演算して自車位置推定用静止物として記憶する。
 図4では、周辺環境記憶部33が、ループ処理によって走行経路109上の位置と自車位置推定用静止物を記憶する例を示したが、これに限定されるものではなく、所定の間隔で走行経路109上の位置と自車位置推定用静止物を記憶してもよい。例えば、周辺環境記憶部33が、所定の時間間隔や、所定の距離毎に走行経路109上の位置と自車位置推定用静止物を記憶するようにしてもよい。
 また、上記では、ユーザーが入力スイッチ部27で記憶完了操作を行った位置で、周辺環境記憶部33が記憶処理を終了する例を示したが、ユーザー(運転者)が、パーキングブレーキ(又はパーキングレンジ)を操作した位置で周辺環境記憶部33の記憶を終了させて駐車位置101としてもよい。
 次に、車両制御装置18の周辺環境記憶部33が記憶した走行経路109を、目標経路として追従走行する処理について説明する。
 周辺環境記憶部33に、走行経路109と経路周辺の自車位置推定用静止物の情報が記憶されている場合、ユーザーが入力スイッチ部27にて所定の操作を行うと、車両1は、記憶した走行経路109を目標経路として追従走行(自動運転)を開始する。
 図5は、車両1が周辺環境記憶部33に記憶された走行経路109を目標経路として追従走行する際に、車両制御装置18の記憶情報照合部34と車両制御部35により実行される処理の一例を示すフローチャートである。
 車両制御装置18の記憶情報照合部34は、目標経路追従走行を開始すると、外界認識センサ31が静止物を2個以上検知しているか否かを判定する(ステップS205)。記憶情報照合部34は、外界認識センサ31が静止物を2個以上検知していない場合は、目標経路追従走行を終了する。目標経路追従走行を中止する際、記憶情報照合部34は、表示器37上に目標経路追従走行に失敗したことをユーザーに伝えるために所定のメッセージを表示してもよい。
 記憶情報照合部34は、外界認識センサ31が静止物を2個以上検知した場合は、記憶情報照合部34にて、検知した静止物の特徴に基づいて、検知した静止物が周辺環境記憶部33に記憶された自車位置推定用静止物のうちのどの自車位置推定用静止物に該当するかを照合する(ステップS206)。
 記憶情報照合部34は、照合が完了したら、自車位置推定部32にて検知した自車位置推定用静止物との相対位置関係を用いて自車両の位置(自車位置)を推定する(ステップS207)。
 自車位置推定部32が行う自車位置推定の具体的な方法としては、検知した静止物のそれぞれに対して検知した静止物を中心として、半径が検知された静止物と車両1との距離の円を描いて、各円の交点を算出し、得られた複数の交点の中から車両ヨー角が一致する点を自車位置として推定する手法を用いることができる。
 あるいは、自車位置推定部32が車両1から観測した静止物の方位と、各交点から観測した静止物の方位を比較し、車両1から観測した方位が近似又は一致する交点を自車位置として推定することができる。
 なお、自車位置推定部32が自車位置を推定する手法は、上記に限定されるものではなく、複数の自車位置推定用静止物の位置と、車両1から自車位置推定用静止物までの距離や角度から周知又は公知の手法で算出することができる。
 車両制御装置18の車両制御部35は、自車位置推定部32で自車位置を推定したら、車両1が駐車位置101に到達したか否かを判定する(ステップS208)。車両制御部35は、車両1が駐車位置101に到達したと判定したら、目標経路追従走行を終了する。車両制御部35は、目標経路追従走行を終了する際、表示器37上に目標経路追従走行が成功したことをユーザーに伝えるために所定のメッセージを表示してもよい。
 車両1が駐車位置101に到達していないと判定した場合、目標経路(走行経路109)と自車位置の関係に基づいて、車両制御部35にて操舵制御及び加減速制御する(ステップS209)。
 具体的には、車両制御部35が、目標経路(走行経路109)と自車位置の車幅方向の誤差を小さくするように操舵制御し、自車位置と目標経路の終点との距離が長い場合には車速を増大し、自車位置と駐車位置101との距離が短い場合には車速を低下させるように加減速制御する。
 なお、車両制御部35による自動運転は、上記に限定されるものではなく、公知又は周知の手法を採用することができる。
 車両制御部35は、上記ステップS205からステップS209までの処理を、目標経路追従走行が終了するまで、一定の周期で実行する。
 上記処理によって、車両制御装置18は、入力スイッチ部27(入力部)から走行経路109を目標経路として追従走行を行う指令を受け付けると、記憶情報照合部34が、外界認識センサ31から取得した周辺環境情報から2以上の静止物を検知し、周辺環境記憶部33で記憶された自車位置推定用静止物と一致する静止物を特定する。そして、自車位置推定部32が、特定された2以上の自車位置推定用静止物の位置から自車位置を推定し、車両制御部35は、自車位置の推定値が目標経路に沿うように制御を実施する。
 上記のように、実施例1の車両制御装置18は、走行経路109と経路周辺の周辺環境情報を記憶する場合に、車両制御装置18は、同時に3個以上の静止物を自車位置推定用静止物として記憶することで、目標経路追従走行時に走行経路109の周辺の環境が変化して、静止物が1個なくなってしまった場合でも、2個以上の静止物から自車位置を推定することができ、車両制御部35は目標経路に追従して車両1を走行させることが可能となる。
 次に、本発明の実施例2を、図6を用いて説明する。
 図6は、第2の実施例において車両1が周辺環境記憶部33に記憶した走行経路109を目標経路として追従走行する際、車両制御装置18により実行される処理の一例を示すフローチャートである。
 前記実施例1と実施例2の差異は、図6のステップ210以降の処理であり、実施例2の車両1の構成と、運転支援システムの構成と、走行経路109と経路周辺環境の記憶処理は前記実施例と同様である。
 前記実施例1の図5のステップS206とS207の間に、ステップS210~S213の処理を加えたものが実施例2の図6である。以下では、前記実施例1と同一のステップについては重複する説明を省略する。
 実施例2では、外界認識センサ31で検知した静止物と、周辺環境記憶部33に記憶した自車位置推定用静止物を記憶情報照合部34が照合した後に、自車位置推定用静止物として記憶した静止物で、検知していない静止物が存在するか判定する(ステップS210)。具体的には、現時点で検知している静止物と記憶時に同時に記憶した自車位置推定用静止物で、現時点で検知していない静止物があるか判定する。
 例えば、周辺環境情報の記憶時に停車していた他の車両は、追従走行時には移動してしまって検知できない等、周辺環境記憶部33に保持されていた自車位置推定用静止物が消失する場合がある。
 記憶情報照合部34は、自車位置推定用静止物のうち検知されなかった静止物がある場合は、検知された静止物の位置に基づいて検知されなかった静止物が存在する可能性のある範囲で静止物を再度検知する(ステップS211)。検知されなかった静止物が存在する可能性のある範囲は、外界認識センサ31の性能などに基づいて算出される。
 具体的には、記憶情報照合部34は、検知されなかった静止物が存在するはずの位置を中心として、所定の大きさ(又は半径)を有する領域を、検知されなかった静止物が存在する可能性のある範囲とするなどの方法が挙げられる。前記所定の大きさは、外界認識センサ31の性能に基づいて設定される。
 目標経路追従走行中に、ステップS211で算出した範囲内に静止物を検知しなかった場合、記憶情報照合部34は、自車位置推定用静止物が存在しなくなったと判定し(S212)、検知できなかった自車位置推定用静止物の情報を周辺環境記憶部33から削除する(ステップS213)。
 実施例2では、不要となった情報を周辺環境記憶部33から削除することで周辺環境記憶部33の空き容量を拡大することができ、新たな情報を記憶することが可能となる。具体的には、新たに検知した自車位置推定用静止物の情報を記憶したり、既に記憶している自車位置推定用静止物について新たに特徴を追加して記憶するなどが挙げられる。不要となった情報を周辺環境記憶部33から削除した後の処理は、前記実施例1と同様である。
 次に、本発明の実施例3を図7を用いて説明する。
 図7は実施例3において、車両1が周辺環境記憶部33に記憶した走行経路109を目標経路として追従走行する際、車両制御装置18により実行される処理の一例を示すフローチャートである。
 前記実施例2との差異は、ステップS214からステップS215の処理を追加した点であり、実施例3の車両1の構成と、運転支援システムの構成、走行経路109と経路周辺環境の記憶処理は前記実施例2と同様である。
 実施例2の図6のステップS213とS207の間に、ステップS214とS215を加えたものが実施例3である。以下の説明では、前記実施例2と同一のステップについては重複する説明を省略する。
 実施例3では、検知されなかった自車位置推定用静止物の情報を周辺環境記憶部33から削除した後に、記憶情報照合部34は、周辺環境記憶部33に記憶されていない静止物を検知したか否かを判定する(ステップS214)。
 記憶情報照合部34は、周辺環境記憶部33に記憶されていない静止物を検知した場合は、新たな自車位置推定用静止物として周辺環境記憶部33に位置と特徴を記憶する(ステップS215)。
 上記のように周辺環境記憶部33で検出できなかった自車位置推定用の静止物情報を削除した場合に、新たに検知した静止物を自車位置推定用静止物として記憶することで記憶した走行経路109の周辺環境の変化に対する運転支援システムのロバスト性を維持することができる。
 次に、本発明の実施例4を図8を用いて説明する。
 図8は、実施例4において車両1が周辺環境記憶部33に記憶した走行経路109を目標経路として追従走行する際、車両制御装置18により実行される処理の一例を示すフローチャートである。
 実施例1と実施例4の差異は、図8のステップS214以降の処理であり、実施例4の車両1の構成と、運転支援システムの構成、走行経路109と経路周辺環境の記憶処理は前記実施例1と同様である。
 図8は、前記実施例1の図5のステップS208以降に、ステップS214~S218の処理を追加したものである。以下の説明では、前記実施例1と同一のステップについては、重複する説明を省略する。
 実施例4では、ステップS208で車両制御部35は車両1が駐車位置101に到達していないと判定した場合、ステップS214へ進んで記憶情報照合部34が外界認識センサ31で周辺環境記憶部33に記憶されていない新たな静止物を検知したか否かを判定する。
 外界認識センサ31が周辺環境記憶部33に記憶していない静止物を検知していた場合は、記憶情報照合部34が新たに検知した静止物を暫定的に周辺環境記憶部33に記憶させる(ステップS216)。ここで、暫定的に記憶させた静止物を暫定記憶静止物と呼ぶこととする。なお、車両制御部35は、暫定記憶静止物は自車位置推定の際には使用しない。また、記憶情報照合部34は、暫定記憶静止物を記憶する領域を、周辺環境記憶部33とは別に新たに暫定静止物記憶用の領域をメモリ3に確保して、当該領域に記憶してもよい。
 記憶情報照合部34は、新たに検知した静止物を暫定的に記憶した後、ステップS205で検知した静止物の中で、暫定記憶静止物として記憶された静止物を検知したか否かを判定する(ステップS217)。
 記憶情報照合部34は、暫定的に記憶している静止物を検知した場合は、当該暫定記憶静止物の検知回数を更新する(ステップS218)。
 検知回数を更新した後のステップS209の処理は、実施例1と同様である。また、車両1が駐車位置101に到達したと車両制御部35が判定した場合、記憶情報照合部34は暫定記憶静止物で検知回数が所定回数に達した静止物があるか否かを判定する(ステップS219)。
 記憶情報照合部34は、暫定記憶静止物で検知回数が所定回数に達した静止物があった場合、該当する暫定記憶静止物を自車位置推定用静止物として周辺環境記憶部33に記憶させ(ステップS220)、次回の目標経路追従走行時から自車位置推定に使用する。
 また、記憶情報照合部34は、暫定記憶静止物の特徴から、暫定記憶静止物が信号や電柱など、常時同じ場所に存在する物体である可能性が高いと判断できる場合は、前記所定回数を小さく設定してもよい。
 具体的には、外界認識センサ31で検知した静止物の外形から車輪を有している可能性が低いと判断できる場合などである。また、道路標識などのように規格化されており、パターンマッチングなどで高精度に識別可能な静止物を暫定的に記憶した場合は、所定回数を小さく設定してもよい。なお、外界認識センサ31で検知した静止物の形状が所定の特徴(電柱、標識)を有する場合に、所定回数を小さく設定してもよい。
 上記のように実施例4の車両制御装置18は、目標経路追従走行時に新たに検知した静止物を周辺環境記憶部33に自車位置推定用静止物として記憶することで、既に記憶した走行経路109の周辺環境の変化に対するシステムのロバスト性を向上させることができる。
 また、車両制御装置18は、新たに検知した静止物を記憶する際に、検知回数が所定回数以上という制限を設けることで、駐車車両などの移動可能な物体だった場合に自車位置推定用静止物として記憶してしまうことを防止できる。
 次に、本発明の実施例5を図9を用いて説明する。
 図9は実施例5において車両1が周辺環境記憶部33に記憶した走行経路109を目標経路として追従走行する際、車両制御装置18により実行される処理の一例を示すフローチャートである。
 実施例1と実施例5の差異は、図9のステップS214以降の処理であり、実施例5の車両1の構成と、運転支援システムの構成、走行経路109と経路周辺環境の記憶処理は前記実施例1と同様である。
 図9は、前記実施例1の図5のステップS208とS209の間に、ステップS214~S215、S221の処理を追加したものである。以下の説明では、前記実施例1と同一のステップについては、重複する説明を省略する。
 実施例5では、ステップS208で車両制御部35が、車両1が駐車位置101に到達していないと判定した場合、ステップS214へ進んで記憶情報照合部34は外界認識センサ31で周辺環境記憶部33に記憶されていない静止物を検知したか否かを判定する(ステップS214)。
 外界認識センサ31が周辺環境記憶部33に記憶していない静止物を検知していた場合は、記憶情報照合部34が静止物の特徴量を算出し、特徴量が所定値以上か否かを判定する(ステップS221)。
 具体的には、記憶情報照合部34が、外界認識センサ31で検知した静止物の外形から車輪を有している可能性を算出し、静止物が車輪を有していない可能性を特徴量として用いるなどが挙げられる。なお、静止物が車輪を有している可能性が高い場合には特徴量は小さくなり、静止物が車輪を有している可能性が低い場合には特徴量は大きくなる。
 記憶情報照合部34は、新たに検知した静止物の特徴量が所定値以上の場合は、周辺環境記憶部33に自車位置推定用静止物として記憶する(ステップS215)。新たに検知した静止物を周辺環境記憶部33に自車位置推定用静止物として記憶した後の処理は、実施例1と同様である。
 上記のように車両制御装置18は、新たに検知した静止物の特徴量に基づいて周辺環境記憶部33に自車位置推定用静止物として記憶させることで記憶した経路の周辺環境の変化に対するシステムのロバスト性を向上さることができる。
 また、車両制御装置18は、新たに検知した静止物を記憶する際に、静止物の特徴量に条件を設けることで、駐車車両などの移動可能な物体だった場合に自車位置推定用静止物として記憶してしまうことを防止できる。
 次に、本発明の実施例6を図10を用いて説明する。
 図10は実施例6において車両1が周辺環境記憶部33に記憶した走行経路109を目標経路として追従走行する際、車両制御装置18により実行される処理の一例を示すフローチャートである。
 実施例1と実施例6の差異は、図10のステップS222以降の処理であり、実施例6の車両1の構成と、運転支援システムの構成、走行経路109と経路周辺環境の記憶処理は実施例1と同様である。
 図9は、前記実施例1の図5のステップS208以降に、ステップS222~S224の処理を追加したものである。以下の説明では、前記実施例1と同一のステップについては、重複する説明を省略する。
 実施例6では、ステップS208で車両制御部35が、車両1が駐車位置101に到達したと判定した場合、ステップS222へ進んで記憶情報照合部34は周辺環境記憶部33に記憶された自車位置推定用静止物で、目標経路追従走行中に検知しなかった自車位置推定用静止物について、未検知回数を更新する(ステップS222)。
 記憶情報照合部34は、目標経路追従走行中に検知されなかった自車位置推定用静止物の未検知回数を更新した後、未検知回数が所定回数に達した自車位置推定用静止物があるか否かを判定する(ステップS223)。
 記憶情報照合部34は、未検知回数が所定回数に達した自車位置推定用静止物について、周辺環境記憶部33から削除する(ステップS224)。
 上記処理によって、未検知回数が所定回数に達した自車位置推定用静止物は実在しなくなったと判定でき、不要となった情報を周辺環境記憶部33から削除することで周辺環境記憶部33の空き容量を増大することができ、新たな情報を記憶することが可能となる。また、検知できなかった静止物を削除する際に、未検知回数が所定回数以上という制限を設けることで、天候や時間帯などの影響による外界認識センサ31の性能低下で検知できなかった場合に、自車位置推定用静止物が削除されてしまうことを防止できる。
 次に、本発明の実施例7を図11と図12を用いて説明する。
 図11は、実施例7において車両1がユーザーの運転により走行しながら周辺環境情報を記憶する際、車両制御装置18により実行される処理の一例を示すフローチャートである。実施例7の車両1の構成と、運転支援システムの構成は実施例1と同様である。
 図11は、前記実施例1の図4のステップS202を、ステップS205に置き換えたものである。以下の説明では、前記実施例1と同一のステップについては、重複する説明を省略する。
 ステップS205では、前記実施例1の3個以上に代わって2個以上の静止物を検知していれば、周辺環境記憶部33はステップS203に進んで前記実施例1と同様の処理を行う。
 図12は、実施例7において車両1が記憶した走行経路109を目標として追従走行する際、車両制御装置18により実行される処理の一例を示すフローチャートであり、実施例1との差異は、ステップS222以降の処理である。図12は、前記実施例1の図5のステップS209以降に、ステップS225~S228の処理を追加したものである。
 実施例7において、前記実施例1から実施例6とは異なり、車両1は車輪センサ50を含んでいることが必須である。また、車両1は舵角センサ28も有する方が望ましい。
 実施例7では、車両制御部35は、目標経路追従走行を開始してから所定時間が経過したか否かを判定する(ステップS225)。例えば、自車位置推定部32は、目標経路追従走行を開始した直後に検知した静止物が1個のみの場合は自車位置を推定することができないが、目標経路追従走行を開始してから1度でも自車位置を推定することができていれば、目標経路追従走行時に検知した静止物が1個のみでも検知情報と直前の自車位置を用いることで自車位置を推定できる。
 具体的には、自車位置推定部32が、検知した静止物を中心として半径が自車位置と検知した距離とする円周上の点で、直前の自車位置推定値と最も距離が短い点を自車位置とするなどが挙げられる。また、車両制御部35は、目標経路追従走行を開始してから所定時間が経過したか否かではなく、目標経路追従走行を開始してから所定距離以上走行したか否かで判定してもよい。
 次に、記憶情報照合部34は、目標経路追従走行を開始してから所定時間以上経過していた場合、静止物を1個以上検知しているか判定する(ステップS226)。
 静止物を検知していない場合は、自車位置推定部32にて、直前の自車位置(推定位置)を基準に、車輪センサ50や舵角センサ28などの値を用いてデッドレコニングにより自車位置を推定する(ステップS227)。
 一方、静止物を1個以上検知していた場合は、記憶情報照合部34にて、検知した静止物の特徴に基づいて、検知した静止物が周辺環境記憶部33に記憶された自車位置推定用静止物のうちのどの自車位置推定用静止物に該当するか照合する(ステップS206)。
 照合が完了したら、自車位置推定部32にて、検知した静止物との相対位置関係を用いて自車位置を推定する(ステップS207)。
 自車位置推定部32は、検知した静止物との相対位置関係に基づいて自車位置を算出した後、前回の周期でステップS227のデッドレコニングによって自車位置を推定していた場合は、検知した静止物との相対関係に基づいて算出した自車位置と、前回の周期で推定した自車位置の差が所定値以内か判定する(ステップS228)。
 車両制御部35は、前記差が所定値を超えた場合は、車輪センサ50や舵角センサ28の故障もしくは、外界認識センサ31の故障の可能性が高いため目標経路追従走行を終了する。目標経路追従走行を中止する際、車両制御部35は、表示器37上に目標経路追従走行に失敗したことを伝えるためのメッセージを表示してもよい。
 車両制御部35は、前記差が所定値以内だった場合は、ステップS208へ進んで前記実施例1と同様の処理を行う。
 上記のように、車両制御部35は、自車位置推定方法にデッドレコニングを用いることで、目標経路追従走行中に静止物を検知できない瞬間があっても自車位置を推定することができ目標経路追従走行を継続することができる。
 次に、本発明の実施例8を図13を用いて説明する。
 実施例8は、前記実施例1から実施例7とは異なり、車両1は位置検出器29を有することが必須である。
 図13は、実施例8において車両1が記憶した走行経路109を目標経路として追従走行する際、車両制御装置18により実行される処理の一例を示すフローチャートである。
 実施例7と実施例8の差異は、車両1及び運転支援システムがGPS情報(測位衛星による位置情報)を使用できることと、図13のステップS205以降の処理であり、経路と経路周辺環境の記憶処理は同じである。
 実施例8において、静止物を2個以上検知していた場合の処理は実施例1と同様である。図13は、前記実施例1の図5のステップS205でNOの場合に、ステップS226~S229の処理を追加したものである。以下の説明では、前記実施例1と同一のステップについては、重複する説明を省略する。
 記憶情報照合部34は、検知した静止物が2個未満の場合は、静止物を1個以上検知しているか判定する(ステップS226)。記憶情報照合部34は、検知した静止物が1個未満だった場合は、目標経路追従走行を終了する。
 終了する際、記憶情報照合部34は、表示器37上に目標経路追従走行に失敗したことをユーザーに伝えるためのメッセージを表示してもよい。また、自車位置推定部32は、前回の周期で自車位置を推定することができていた場合には、前回の周期で算出した自車位置を基準に車輪センサ50や舵角センサ28を用いたデッドレコニングによって自車位置を推定してもよい。自車位置を推定できた場合は、ステップS206へ進む。
 記憶情報照合部34は、静止物を一個以上検知していた場合は、記憶情報照合部34にて検知した静止物の特徴に基づいて、検知した静止物が周辺環境記憶部33に記憶された自車位置推定用静止物のうちのどの自車位置推定用静止物に該当するか照合する(ステップS206)。
 照合が完了したら、自車位置推定部32にて、検知した静止物との相対位置関係とGPS情報を用いて自車位置を推定する(ステップS229)。具体的には、自車位置推定部32は、検知した静止物を中心として半径が検知した静止物と自車両の距離となる円周上の点で、GPS情報による自車位置と最も距離が小さい点を自車位置とするなどの方法が挙げられる。自車位置を推定した後はステップS208に進み前記実施例1と同様の処理を行う。
 上記のように、実施例8の車両制御装置18は、自車位置推定方法にGPS情報を用いることで、目標経路追従走行中に静止物を同時に2個以上検知できない瞬間があっても、静止物を1個でも検知できていれば自車位置を推定することができ目標経路追従走行を継続することができる。
 また、上記の実施例1から実施例8の処理を、目標経路の開始位置から経路長に対する所定の距離でのみ実行してもよいし、駐車位置101を含む目標経路の後半部分の所定の割合箇所のみ実行してもよい。駐車位置101に正確に到達するために実施例1から実施例8の構成を用いて精度の高い自車位置を算出する必要性が大きいのは、目標経路追従走行の開始地点又は、駐車位置101付近であり、複数の静止物体を自車位置推定用に記憶する箇所を限定することで、周辺環境記憶部33で必要とされる記憶容量を小さくすることができる。
 また、周辺環境記憶部33は、撮像センサ17、近距離測距センサ24、中距離測距センサ22、遠距離測距センサ25によって手動操作にて走行した際に取得した周辺環境情報と、走行経路情報を記憶させておくことも可能であるが、走行経路109によっては記憶する情報が膨大になる可能性があるため、記憶容量が足りない場合がある。そのため、周辺環境記憶部33に記憶する周辺環境情報は、通信装置30によって、大容量のデータを記憶できる本制御装置の外部設備へデータを送信し、外部のデータセンタに蓄積させておくことも可能である。その際、周辺環境情報を記憶した運転者を特定する方法を用いる。
 また、周辺環境記憶部33は、手動操作にて走行した際に取得した周辺環境情報が存在しない場合は、通信装置30を用いて、他車両が過去に走行した際に取得した周辺環境情報と自車位置情報を管理している外部のデータセンタや道路インフラ等から取得することが可能である。外部のデータセンタや道路インフラ等で周辺環境情報を共有することで、自車両以外にも車種の異なる他車両でも周辺環境情報を使用することで、自動走行することが可能となる。
 <結び>
 以上のように、上記実施例1~8の車両制御装置は、以下のような構成とすることができる。
 (1)プロセッサ(2)とメモリ(3)を有し、車両(1)の走行を制御する車両制御装置(18)であって、前記車両(1)の周辺環境情報を取得するセンサ(外界認識センサ31)と、前記センサ(31)が取得した周辺環境情報から静止物を取得し、前記静止物の位置を算出し、走行経路(109)上の前記車両(1)の位置と、前記静止物の位置を対応付けて記憶する周辺環境記憶部(33)と、を有し、前記周辺環境記憶部(33)は、前記周辺環境情報と走行経路(109)の記憶を開始する指令を受け付けた場合には、前記走行経路(109)上の各位置において3以上の前記静止物を自車位置推定用静止物として記憶する。
 上記構成により、車両制御装置18は、入力スイッチ部27から周辺環境情報の記憶を開始する所定の指令を受け付けると、周辺環境記憶部33が周期的に走行経路109上の位置と自車位置推定用静止物を記憶する。周辺環境記憶部33は、周期的に記憶した走行経路109上の各位置では、3個以上の静止物を検知して、静止物の位置と特徴を演算して自車位置推定用静止物として記憶する。
 (2)上記(1)に記載の車両制御装置(18)であって、前記記憶された走行経路(109)上の位置に追従する指令を受け付けた場合には、前記センサ(31)が取得した周辺環境情報から静止物を検知し、当該静止物に一致する前記自車位置推定用静止物を特定する記憶情報照合部(34)と、前記特定された自車位置推定用静止物の位置から前記車両(1)の位置を推定する自車位置推定部(32)と、前記推定された車両(1)の位置と、前記記憶された走行経路(109)に基づいて自動運転を行う車両制御部(35)と、さらに有し、前記記憶情報照合部(34)は、2以上の前記静止物を検知した場合に前記自車位置推定用静止物を特定する。
 上記構成により、車両制御装置18は、入力スイッチ部27(入力部)から走行経路109を目標経路として追従走行を行う指令を受け付けると、記憶情報照合部34が、外界認識センサ31から取得した周辺環境情報から2以上の静止物を検知し、周辺環境記憶部33で記憶された自車位置推定用静止物と一致する静止物を特定する。そして、自車位置推定部32が、特定された2以上の自車位置推定用静止物の位置から自車位置を推定し、車両制御部35は、自車位置の推定値が目標経路に沿うように制御を実施する。車両制御装置18は、走行経路109と経路周辺の周辺環境情報を記憶する場合に、車両制御装置18は、同時に3個以上の静止物を自車位置推定用静止物として記憶することで、目標経路追従走行時に走行経路109の周辺の環境が変化して、静止物が1個なくなってしまった場合でも、2個以上の静止物から自車位置を推定することができ、車両制御部35は目標経路に追従して車両1を走行させることが可能となる。
 (3)上記(2)に記載の車両制御装置(18)であって、前記記憶情報照合部(34)は、前記記憶された前記自車位置推定用静止物のうち、前記検知された静止物に含まれない前記自車位置推定用静止物が存在する場合には、当該自車位置推定用静止物が存在する可能性を有する範囲で再度静止物の検知を実施して、検知の結果前記自車位置推定用静止物が検知されなかった場合には、当該自車位置推定用静止物を削除する。
 上記構成により、車両制御装置18は、不要となった情報を周辺環境記憶部33から削除することで周辺環境記憶部33の空き容量を拡大することができ、新たな情報を記憶することが可能となる。
 (4)上記(3)に記載の車両制御装置(18)であって、前記記憶情報照合部(34)は、前記自車位置推定用静止物を削除した場合に、前記自車位置推定用静止物として記憶されていない静止物を検知した場合には、新たな前記自車位置推定用静止物として記憶する。
 上記構成により、上記のように周辺環境記憶部33で検出できなかった自車位置推定用の静止物情報を削除した場合に、新たに検知した静止物を自車位置推定用静止物として記憶することで記憶した走行経路109の周辺環境の変化に対する運転支援システムのロバスト性を維持することができる。
 (5)上記(2)に記載の車両制御装置(18)であって、前記記憶情報照合部(34)は、前記記憶された自車位置推定用静止物に一致しない静止物を所定回数以上検知した場合には、新たな自車位置推定用静止物として記憶する。
 上記構成により、新たに検知した静止物を記憶する際に、検知回数が所定回数以上という制限を設けることで、駐車車両などの移動可能な物体だった場合に自車位置推定用静止物として記憶してしまうことを防止できる。
 (6)上記(5)に記載の車両制御装置(18)であって、前記記憶情報照合部(34)は、前記記憶された自車位置推定用静止物に一致しない静止物の特徴量を算出し、前記特徴量が所定値以上のときは、前記所定回数を低減する。
 上記構成により、車両制御装置18は、新たに検知した静止物を記憶する際に、静止物の特徴量に条件を設けることで、駐車車両などの移動可能な物体だった場合に自車位置推定用静止物として記憶してしまうことを防止できる。
 (7)上記(5)に記載の車両制御装置(18)であって、前記記憶情報照合部(34)は、前記記憶された自車位置推定用静止物に一致しない静止物の形状が所定の形状の場合には、前記所定回数を低減する。
 上記構成により、車両制御装置18は、新たに検知した静止物を記憶する際に、静止物の特徴に条件を設けることで、駐車車両などの移動可能な物体だった場合に自車位置推定用静止物として記憶してしまうことを防止できる。
 (8)上記(2)に記載の車両制御装置(18)であって、前記記憶情報照合部(34)は、前記記憶された自車位置推定用静止物に一致しない静止物を検知した場合には、当該静止物の特徴量を算出し、前記特徴量が所定値以上の場合には新たに自車位置推定用静止物として記憶する。
 上記構成により、車両制御装置18は、新たに検知した静止物の特徴量に基づいて周辺環境記憶部33に自車位置推定用静止物として記憶することで記憶した経路の周辺環境の変化に対するシステムのロバスト性を向上さることができる。
 (9)上記(2)に記載の車両制御装置(18)であって、前記周辺環境記憶部(33)は、前記走行経路(109)上の各位置において3個の前記静止物を検知できない場合は、検知した静止物を自車位置推定用静止物として記憶し、前記自車位置推定部(32)は、前記自車位置推定用静止物とデッドレコニングによって車両(1)の位置を推定する。
 上記構成により、車両制御装置18は、自車位置の推定方法にデッドレコニングを用いることで、目標経路の追従走行中に静止物を検知できない瞬間があっても自車位置を推定することができ目標経路の追従走行を継続することができる。
 (10)上記(2)に記載の車両制御装置(18)であって、前記記憶情報照合部(34)は、前記記憶された自車位置推定用静止物を所定回数検知しなかった場合には、当該自車位置推定用静止物を記憶から削除する。
 上記構成により、未検知の回数が所定回数に達した自車位置推定用静止物は実在しなくなったと判定でき、不要となった自車位置推定用静止物の情報を周辺環境記憶部33から削除することで周辺環境記憶部33の空き容量を増大することができ、新たな情報を記憶することが可能となる。
 (11)上記(2)に記載の車両制御装置(18)であって、前記記憶情報照合部(34)は、前記検知された静止物が1個の場合には、当該静止物と一致する自車位置推定用静止物の位置を出力し、前記自車位置推定部(32)は、測位衛星による位置情報を利用可能であって、前記自車位置推定用静止物の位置と測位衛星による位置情報から車両(1)の位置を推定する。
 上記構成により、車両制御装置18は、自車位置推定方法にGPS情報を用いることで、目標経路追従走行中に静止物を同時に2個以上検知できない瞬間があっても、静止物を1個でも検知できていれば自車位置を推定することができ目標経路追従走行を継続することができる。
 (12)上記(2)ないし(11)のいずれかひとつに記載の車両制御装置(18)であって、前記周辺環境記憶部(33)は、前記周辺環境情報と走行経路の記憶を開始する指令を受け付けた前記開始位置から前記走行経路(109)の所定の区間で、前記静止物を自車位置推定用静止物として記憶する。
 上記構成により、車両制御装置18は、複数の静止物を自車位置推定用に記憶する箇所を限定することで、周辺環境記憶部33で必要とされる記憶容量を小さくすることができる。
 (13)上記(2)ないし(11)のいずれかひとつに記載の車両制御装置(18)であって、前記周辺環境記憶部(33)は、前記走行経路(109)の終点を含む所定割合の区間で、前記静止物を自車位置推定用静止物として記憶する。
 上記構成により、車両制御装置18は、複数の静止物を自車位置推定用に記憶する箇所を限定することで、周辺環境記憶部33で必要とされる記憶容量を小さくすることができる。
 なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に記載したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加、削除、又は置換のいずれもが、単独で、又は組み合わせても適用可能である。
 また、上記の各構成、機能、処理部、及び処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、及び機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、又は、ICカード、SDカード、DVD等の記録媒体に置くことができる。
 また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
1 車両
11 エンジン
12 自動変速機
13 プロペラシャフト
14 ディファレンシャルギア
15 ドライブシャフト
16 車輪
17 撮像センサ
18 車両制御装置
19 各種センサ
20 ブレーキ装置
21 電動パワーステアリング
24 近距離測距センサ
22 中距離測距センサ
25 遠距離測距センサ
27 入力スイッチ部
29 位置検出器
30 通信装置
31 外界認識センサ
32 自車位置推定部
33 周辺環境記憶部
34 記憶情報照合部
35 車両制御部
36 各種センサ/アクチュエータECU
37 表示器
38 音声出力器
39 操舵制御部
40 加減速制御部
41 シフト制御部
50 車輪センサ

Claims (13)

  1.  プロセッサとメモリを有し、車両の走行を制御する車両制御装置であって、
     前記車両の周辺環境情報を取得するセンサと、
     前記センサが取得した周辺環境情報から静止物を取得し、前記静止物の位置を算出し、走行経路上の前記車両の位置と、前記静止物の位置を対応付けて記憶する周辺環境記憶部と、を有し、
     前記周辺環境記憶部は、
     前記周辺環境情報と走行経路の記憶を開始する指令を受け付けた場合には、前記走行経路上の各位置において3以上の前記静止物を自車位置推定用静止物として記憶することを特徴とする車両制御装置。
  2.  請求項1に記載の車両制御装置であって、
     前記記憶された走行経路上の位置に追従する指令を受け付けた場合には、前記センサが取得した周辺環境情報から静止物を検知し、当該静止物に一致する前記自車位置推定用静止物を特定する記憶情報照合部と、
     前記特定された自車位置推定用静止物の位置から前記車両の位置を推定する自車位置推定部と、
     前記推定された車両の位置と、前記記憶された走行経路に基づいて自動運転を行う車両制御部と、をさらに有し、
     前記記憶情報照合部は、
     2以上の前記静止物を検知した場合に前記自車位置推定用静止物を特定することを特徴とする車両制御装置。
  3.  請求項2に記載の車両制御装置であって、
     前記記憶情報照合部は、
     前記記憶された前記自車位置推定用静止物のうち、前記検知された静止物に含まれない前記自車位置推定用静止物が存在する場合には、当該自車位置推定用静止物が存在する可能性を有する範囲で再度静止物の検知を実施して、検知の結果前記自車位置推定用静止物が検知されなかった場合には、当該自車位置推定用静止物を削除することを特徴とする車両制御装置。
  4.  請求項3に記載の車両制御装置であって、
     前記記憶情報照合部は、
     前記自車位置推定用静止物を削除した場合に、前記自車位置推定用静止物として記憶されていない静止物を検知した場合には、新たな前記自車位置推定用静止物として記憶することを特徴とする車両制御装置。
  5.  請求項2に記載の車両制御装置であって、
     前記記憶情報照合部は、
     前記記憶された自車位置推定用静止物に一致しない静止物を所定回数以上検知した場合には、新たな自車位置推定用静止物として記憶することを特徴とする車両制御装置。
  6.  請求項5に記載の車両制御装置であって、
     前記記憶情報照合部は、
     前記記憶された自車位置推定用静止物に一致しない静止物の特徴量を算出し、前記特徴量が所定値以上の場合には、前記所定回数を低減することを特徴とする車両制御装置。
  7.  請求項5に記載の車両制御装置であって、
     前記記憶情報照合部は、
     前記記憶された自車位置推定用静止物に一致しない静止物の形状が所定の形状の場合には、前記所定回数を低減することを特徴とする車両制御装置。
  8.  請求項2に記載の車両制御装置であって、
     前記記憶情報照合部は、
     前記記憶された自車位置推定用静止物に一致しない静止物を検知した場合には、当該静止物の特徴量を算出し、前記特徴量が所定値以上の場合には新たに自車位置推定用静止物として記憶することを特徴とする車両制御装置。
  9.  請求項2に記載の車両制御装置であって、
     前記周辺環境記憶部は、
     前記走行経路上の各位置において3個の前記静止物を検知できない場合は、検知した静止物を自車位置推定用静止物として記憶し、
     前記自車位置推定部は、
     前記自車位置推定用静止物とデッドレコニングによって車両の位置を推定することを特徴とする車両制御装置。
  10.  請求項2に記載の車両制御装置であって、
     前記記憶情報照合部は、
     前記記憶された自車位置推定用静止物を所定回数検知しなかった場合には、当該自車位置推定用静止物を記憶から削除することを特徴とする車両制御装置。
  11.  請求項2に記載の車両制御装置であって、
     前記記憶情報照合部は、
     前記検知された静止物が1個の場合には、当該静止物と一致する自車位置推定用静止物の位置を出力し、
     前記自車位置推定部は、
     測位衛星による位置情報を利用可能であって、前記自車位置推定用静止物の位置と測位衛星による位置情報から車両の位置を推定することを特徴とする車両制御装置。
  12.  請求項2ないし請求項11のいずれかひとつに記載の車両制御装置であって、
     前記周辺環境記憶部は、
     前記周辺環境情報と走行経路の記憶を開始する指令を受け付けた開始位置から前記走行経路の所定の区間で、前記静止物を自車位置推定用静止物として記憶することを特徴とする車両制御装置。
  13.  請求項2ないし請求項11のいずれかひとつに記載の車両制御装置であって、
     前記周辺環境記憶部は、
     前記走行経路の終点を含む所定割合の区間で、前記静止物を自車位置推定用静止物として記憶することを特徴とする車両制御装置。
PCT/JP2020/025611 2019-07-11 2020-06-30 車両制御装置 WO2021006110A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021530620A JP7259032B2 (ja) 2019-07-11 2020-06-30 車両制御装置
US17/622,548 US20220355800A1 (en) 2019-07-11 2020-06-30 Vehicle control device
DE112020002514.4T DE112020002514T5 (de) 2019-07-11 2020-06-30 Fahrzeugsteuervorrichtung

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019128962 2019-07-11
JP2019-128962 2019-07-11

Publications (1)

Publication Number Publication Date
WO2021006110A1 true WO2021006110A1 (ja) 2021-01-14

Family

ID=74114823

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/025611 WO2021006110A1 (ja) 2019-07-11 2020-06-30 車両制御装置

Country Status (4)

Country Link
US (1) US20220355800A1 (ja)
JP (1) JP7259032B2 (ja)
DE (1) DE112020002514T5 (ja)
WO (1) WO2021006110A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4082853A1 (en) * 2021-04-28 2022-11-02 KNORR-BREMSE Systeme für Nutzfahrzeuge GmbH Evaluation apparatus for evaluating a trajectory hypothesis for a vehicle

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000337887A (ja) * 1999-05-25 2000-12-08 Mitsubishi Electric Corp 移動体の自己位置標定装置
JP2001142532A (ja) * 1999-11-12 2001-05-25 Nippon Signal Co Ltd:The 移動体の位置検出装置
JP2008008783A (ja) * 2006-06-29 2008-01-17 Toyota Motor Corp 車輪速パルス補正装置
JP2019095210A (ja) * 2017-11-17 2019-06-20 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6717174B2 (ja) 2016-11-29 2020-07-01 トヨタ自動車株式会社 車両誘導装置および車両誘導方法
JP7393128B2 (ja) * 2019-03-20 2023-12-06 フォルシアクラリオン・エレクトロニクス株式会社 車載処理装置、移動支援システム
US11774250B2 (en) * 2019-07-05 2023-10-03 Nvidia Corporation Using high definition maps for generating synthetic sensor data for autonomous vehicles

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000337887A (ja) * 1999-05-25 2000-12-08 Mitsubishi Electric Corp 移動体の自己位置標定装置
JP2001142532A (ja) * 1999-11-12 2001-05-25 Nippon Signal Co Ltd:The 移動体の位置検出装置
JP2008008783A (ja) * 2006-06-29 2008-01-17 Toyota Motor Corp 車輪速パルス補正装置
JP2019095210A (ja) * 2017-11-17 2019-06-20 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム

Also Published As

Publication number Publication date
US20220355800A1 (en) 2022-11-10
JPWO2021006110A1 (ja) 2021-01-14
JP7259032B2 (ja) 2023-04-17
DE112020002514T5 (de) 2022-02-24

Similar Documents

Publication Publication Date Title
US10437257B2 (en) Autonomous driving system
JP6705414B2 (ja) 動作範囲決定装置
US11890986B2 (en) Notification device
US9896098B2 (en) Vehicle travel control device
WO2021002219A1 (ja) 車両制御装置
JP6780611B2 (ja) 自動運転装置
US11507110B2 (en) Vehicle remote assistance system, vehicle remote assistance server, and vehicle remote assistance method
US20190347492A1 (en) Vehicle control device
US11636762B2 (en) Image display device
CN104221068A (zh) 驾驶辅助装置
US20200094875A1 (en) Vehicle control device, vehicle control method, and storage medium
JP7189691B2 (ja) 車両の走行制御システム
US11305785B2 (en) Driving assistance apparatus, driving assistance system, driving assistance method, and program
CN109476307B (zh) 行驶控制方法及行驶控制装置
US20220204027A1 (en) Vehicle control device, vehicle control method, and storage medium
WO2021033632A1 (ja) 車両制御方法及び車両制御装置
CN112650210A (zh) 车辆控制装置、车辆控制方法及存储介质
JP2020087191A (ja) 車線境界設定装置、車線境界設定方法
JP2017003395A (ja) 車両の測位システム
EP4046883B1 (en) Automated valet parking system, control method of automated valet parking system, and autonomous driving vehicle
WO2021006110A1 (ja) 車両制御装置
JP6610601B2 (ja) 車両識別装置
JP2023112053A (ja) 画像処理装置
US11932283B2 (en) Vehicle control device, vehicle control method, and storage medium
JP2023017401A (ja) 情報処理サーバ

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20836984

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021530620

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 20836984

Country of ref document: EP

Kind code of ref document: A1