WO2021033632A1 - 車両制御方法及び車両制御装置 - Google Patents

車両制御方法及び車両制御装置 Download PDF

Info

Publication number
WO2021033632A1
WO2021033632A1 PCT/JP2020/030841 JP2020030841W WO2021033632A1 WO 2021033632 A1 WO2021033632 A1 WO 2021033632A1 JP 2020030841 W JP2020030841 W JP 2020030841W WO 2021033632 A1 WO2021033632 A1 WO 2021033632A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle control
vehicle
control device
information
point
Prior art date
Application number
PCT/JP2020/030841
Other languages
English (en)
French (fr)
Inventor
敬亮 竹内
知靖 坂口
大司 清宮
Original Assignee
日立オートモティブシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立オートモティブシステムズ株式会社 filed Critical 日立オートモティブシステムズ株式会社
Priority to JP2021540757A priority Critical patent/JPWO2021033632A1/ja
Priority to US17/611,333 priority patent/US20220196424A1/en
Publication of WO2021033632A1 publication Critical patent/WO2021033632A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • G01C21/3484Personalized, e.g. from learned user behaviour or user-defined profiles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3617Destination input or retrieval using user history, behaviour, conditions or preferences, e.g. predicted or inferred from previous use or current movement
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4049Relationship among other objects, e.g. converging dynamic objects

Definitions

  • the present invention relates to a vehicle control method and a vehicle control device for supporting the driving of an automobile.
  • automatic parking guides the vehicle in a narrower space such as within the parking frame or between other vehicles or objects, so it is also more highly recognizable to the outside world. Accuracy is required.
  • a camera or a distance measuring sensor is adopted as an outside world sensor for recognizing the outside world.
  • the frame line cannot be recognized by the ultrasonic sensor, so the frame line is detected from the image taken by the camera by the image recognition technology and the stop position is calculated. To do.
  • an error occurs in the relative position and directivity from the reference point on the vehicle. Further, in the case of the wheel speed sensor, an error occurs in the tire circumference.
  • the present invention has been made in view of the above problems, and an object of the present invention is to suppress the accumulation of errors due to running after correction by correcting the error of the external sensor.
  • the present invention is a vehicle control method in which a vehicle control device having a processor and a memory controls a vehicle, wherein the vehicle control device stores route information to a predetermined point, and the vehicle control device is described.
  • the step of automatically traveling based on the route information includes a step of storing the section for collecting information for performing disturbance correction for the external world sensor in the memorizing step, and the step of performing the automatic traveling of the section. Disturbance correction of the outside world sensor is performed using the information collected during driving.
  • the present invention by performing error correction of the outside world sensor immediately before the start of automatic parking, it is possible to minimize the accumulation of errors due to the corrected running, so that the vehicle automatically runs to the parking start point.
  • the position accuracy when stopping is improved, which contributes to the improvement of the accuracy of the final parking position.
  • correction information closer to the ideal can be obtained compared to the case where the occupant drives. Therefore, the correction accuracy is improved.
  • the state of the outside world sensor can be corrected under conditions closer to those when automatic parking is performed.
  • FIG. 5 is a flowchart showing Example 1 of the present invention and showing an example of a process in which the vehicle control device stores a traveling route and an environment around the route.
  • FIG. 1 is a plan view showing Example 1 of the present invention and showing an example of a traveling route approximation process by a vehicle control device.
  • FIG. 1 is a plan view showing Example 1 of the present invention and showing an example of a traveling route approximation process by a vehicle control device.
  • Example 5 is a flowchart showing Example 1 of the present invention and showing an example of a process in which the vehicle control device extracts a collection section of correction information. It is a flowchart which shows Example 1 of this invention and shows an example of the automatic traveling process by a vehicle control device. It is a flowchart which shows Example 1 of this invention and shows from the collection of the correction information by the vehicle control device to the correction process. It is a top view which shows Example 1 of this invention and shows the locus of the feature point on the bird's-eye view image when the position and the directivity of a camera are design values.
  • Example 1 of this invention shows the locus of a feature point on a bird's-eye view image when there is an error from a design value in a position and a directivity direction of a camera. It is a top view which shows Example 1 of this invention, and shows the locus of a feature point on a bird's-eye view image when there is an error from a design value in a position and a directivity direction of a camera. It is a top view which shows Example 1 of this invention, and shows the locus of a feature point on a bird's-eye view image when there is an error from a design value in a position and a directivity direction of a camera.
  • FIG. 2 is a flowchart showing Example 2 of the present invention and showing an example of a process in which the vehicle control device extracts a collection section of correction information.
  • FIG. 4 is a plan view showing Example 4 of the present invention and showing an example of a vehicle passing through an ETC gate.
  • FIG. 5 is a flowchart showing Example 4 of the present invention and showing an example of processing executed by the vehicle control device.
  • Example 1 of the present invention will be described with reference to FIGS. 1 to 9.
  • a driving support system that performs automatic driving including parking using a traveling route stored in advance
  • information for correcting an error in the position and directivity of the camera is automatically provided during automatic driving. Acquire and perform correction processing.
  • FIG. 1 is a block diagram showing an example of the function of the driving support system according to the first embodiment of the present invention.
  • the vehicle control device 100 includes a camera 111, a short-range distance measurement sensor 112, a medium-range distance measurement sensor 113, a long-range distance measurement sensor 114, a wheel speed sensor 115, a position detector 116, various vehicle sensors / actuator ECU 130, and an HMI (HMI). It is composed of Human Machine Interface) 140.
  • HMI Human Machine Interface
  • the vehicle control device 100 includes a processor 1 and a memory 2.
  • the vehicle control device 100 includes the own vehicle position estimation unit 101, the surrounding environment storage unit 102, the storage information collation unit 103, the route storage unit 104, the correction information collection section extraction unit 105, and the correction processing unit 106.
  • Each program of the vehicle control unit 107 is loaded into the memory 2 and executed by the processor 1.
  • the processor 1 operates as a functional unit that provides a predetermined function by executing processing according to the program of each functional unit.
  • the processor 1 functions as the own vehicle position estimation unit 101 by executing the process according to the own vehicle position estimation program. The same applies to other programs.
  • the processor 1 also operates as a functional unit that provides each function of a plurality of processes executed by each program.
  • a computer and a computer system are devices and systems including these functional parts.
  • the own vehicle position estimation unit 101 calculates the position of the own vehicle (vehicle 200) by using the information output from the position detector 116 and the wheel speed sensor 115.
  • the peripheral environment storage unit 102 uses the camera 111, the short-distance ranging sensor 112, the medium-distance ranging sensor 113, and the long-distance ranging sensor 114 to acquire the peripheral environment when the vehicle travels by the driving operation of the occupant. Memorize information.
  • the camera 111, the short-distance distance measuring sensor 112, the medium-distance measuring sensor 113, and the long-distance measuring sensor 114 function as external world sensors.
  • the surrounding environment information includes information on three-dimensional objects such as utility poles, signs, and traffic lights, and road surface information such as white lines on the road surface, cracks, and unevenness of the road surface.
  • the storage information collation unit 103 collates the information of the surrounding environment detected by the external sensor mounted on the vehicle 200 with the information stored in the peripheral environment storage unit 102, and determines whether or not the two match. To do.
  • the vehicle control device 100 transitions to the automatic traveling capable state, and when it is determined that the surrounding environment information does not match, the vehicle control device 100 transitions to the automatic traveling impossible state. ..
  • the route storage unit 104 generates and stores automatic travel route information from the travel locus of the vehicle when the surrounding environment information is acquired.
  • the correction information collection section extraction unit 105 uses the route information stored in the route storage unit 104 and the peripheral environment information stored in the peripheral environment storage unit 102 to provide information necessary for correcting the error of the camera 111. Extract the section to collect.
  • the correction processing unit 106 calculates the error of the camera 111 using the correction information collected in the section determined by the correction information collection section extraction unit 105, and determines the necessity of correction. Further, the correction processing unit 106 calculates the correction amount when it is determined that the correction is necessary, and applies it to the process of inputting the image from the camera 111.
  • the vehicle control unit 107 is composed of a steering control unit 108 and an acceleration / deceleration control unit 109, calculates target values for steering and acceleration / deceleration when performing automatic driving, and sets the target values for various sensors / actuator ECUs 130. Output the including control instruction.
  • the camera 111 is used to image an object whose visual information is mainly meaningful, such as white lines around the vehicle, road markings, and signs.
  • the image data captured by the camera 111 is input to the vehicle control device 100.
  • the short-distance distance measuring sensor 112 is used to detect an object in a range of about several meters around the vehicle, and is composed of a sonar as an example.
  • the sonar transmits ultrasonic waves toward the surroundings of the own vehicle and receives the reflected waves to detect the distance to an object in the vicinity of the own vehicle.
  • the distance measurement data obtained by the short-range distance measurement sensor 112 is input to the vehicle control device 100.
  • the medium-range ranging sensor 113 is used to detect an object within a range of about several tens of meters in front of and behind the vehicle, and is configured by a millimeter-wave radar as an example.
  • the millimeter wave radar transmits a high frequency called a millimeter wave toward the periphery of the own vehicle, and detects the distance to the object by receiving the reflected wave.
  • the distance measurement data by the medium-range distance measurement sensor 113 is input to the vehicle control device 100.
  • the long-distance distance measuring sensor 114 is used to detect an object in a range of about 200 m in front of the vehicle, and is composed of a millimeter-wave radar, a stereo camera, or the like as an example.
  • the distance measurement data obtained by the long-distance distance measurement sensor 114 is input to the vehicle control device 100.
  • the wheel speed sensor 115 includes a pulse counter attached to each wheel of the vehicle 200 to count the pulse signal generated by the rotation of the wheel, and a controller that integrates the detection values of the pulse counter to generate the vehicle speed signal.
  • the vehicle speed signal data from the wheel speed sensor 115 is input to the vehicle control device 100.
  • the position detector 116 is composed of an orientation sensor that measures the front orientation of the own vehicle and a GNSS (Global Navigation Satellite System) signal receiver that measures the position of the vehicle based on radio waves from satellites.
  • GNSS Global Navigation Satellite System
  • Various sensors / actuators ECU 130 operates a traveling power source, a transmission, a braking device, etc. according to an instruction from the vehicle control device 100.
  • the HMI 140 is composed of a display 141, a voice output unit 142, and an operation unit 143, and an occupant sets the driving support and gives an instruction to start and end the driving support via the operation unit 143.
  • notification information to the occupant is received from other components, and the content is displayed on the display 141 in the form of words or pictograms, or the voice output unit 142 notifies as an alarm sound or voice guidance.
  • the operation unit 143 may be operated by using a physical switch arranged near the driver's seat, or by touching a button displayed on the display 141 composed of a touch panel with a finger.
  • the form is not limited.
  • FIG. 2 shows an example of a configuration diagram of the vehicle according to the first embodiment of the present invention.
  • the illustrated vehicle 200 includes a traveling power source 201, a transmission 202, four wheels 203, a braking device 204 including a wheel speed sensor, and a power steering device 205.
  • the actuators and ECUs that operate the above components are connected to the vehicle control device 100 via an in-vehicle network such as CAN (Controller Area Network).
  • CAN Controller Area Network
  • the vehicle control device 100 obtains information on the outside of the vehicle 200 from the external sensor, and transmits command values for realizing control such as automatic parking and automatic driving to various sensors / actuator ECUs 130.
  • the various sensors / actuator ECU 130 operate the traveling power source 201, the brake device 204, the power steering device 205, and the transmission 202 in accordance with the command values.
  • the vehicle 200 has a front camera 111A attached to the front end, side cameras 111B and 111C attached to the left and right side surfaces, and a rear camera 111D attached to the rear end.
  • the vehicle control device 100 can synthesize a bird's-eye view image of the vehicle 200 and its surroundings from above by projecting and converting the images captured by the four cameras 111A to 111D and combining them.
  • the bird's-eye view image is used when it is displayed on the display 141.
  • the short-distance distance measuring sensor 112 is attached to the front end, the rear end, and the side surface
  • the medium-distance measuring sensor 113 is attached to the front end and the rear end
  • the long-distance measuring sensor 114 is attached to the front end. Is installed.
  • the mounting positions and numbers thereof are not limited to those shown in FIG.
  • FIG. 3 shows a plan view in which a vehicle 200 having this system travels to a storage location through a route used on a daily basis and stops at a target parking position 301.
  • the vehicle control device 100 When the occupant is driving the vehicle 200 by himself / herself, when the storage start point 302 instructs the start of storage of the surrounding environment information, the vehicle control device 100 causes the subsequent travel path 310 of the vehicle 200 and the travel path 310. Memorize the surrounding environment information of.
  • the vehicle control device 100 memorizes the position of the parking start point 303.
  • the vehicle control device 100 automatically informs the occupants. Notify that driving is possible.
  • the vehicle control device 100 controls steering and vehicle speed, so that the vehicle 200 automatically travels while following the stored traveling path 310.
  • the vehicle 200 automatically stops.
  • the vehicle 200 automatically parks while following the memorized travel route 310.
  • the target parking position 301 is reached, the automatic driving ends.
  • the vehicle control device 100 When the vehicle 200 is traveling by the driving operation of the occupant, when the occupant performs a predetermined operation on the operation unit 143, the vehicle control device 100 starts to memorize the traveling route and the environment around the route.
  • FIG. 4 is a flowchart showing an example of a process executed by the vehicle control device 100 when the vehicle 200 stores surrounding environment information while traveling while being driven by an occupant.
  • the vehicle control device 100 acquires and stores the position of the own vehicle when the occupant starts to store the surrounding environment information (step S401). Specifically, the GNSS information of the position detector 116 is used to roughly calculate the position of the vehicle 200.
  • the vehicle control device 100 recognizes and recognizes the surrounding environment of the vehicle 200 by input from the camera 111, the short-distance distance measuring sensor 112, the medium-distance measuring sensor 113, and the long-distance measuring sensor 114.
  • the position information of the obtained information is acquired (step S402).
  • the object of recognition is three-dimensional object information such as a utility pole 321 existing on the side of a road, a traffic light 322, a pedestrian crossing 323, a sign 324, a road marking 325, and a white line 326, and a road surface.
  • stationary objects are used, and these stationary objects are used as surrounding environment information.
  • a pattern in which feature points can be extracted by the correction processing unit 106 is registered in advance, and if the pattern is matched, the road surface for reference is used. Add identification information indicating that it is a marking.
  • the vehicle control device 100 determines whether or not the occupant has operated to end the storage of the surrounding environment information (step S403). Specifically, a predetermined operation by the operation unit 143, a shift operation to the P range, an operation of the parking brake, or the like is detected. If the storage end operation of the surrounding environment information is not detected, the process returns to step S401 and the above process is repeated.
  • the position information of the vehicle 200 can be acquired not only by GNSS but also by dead reckoning that calculates the moving distance and yaw angle using wheel pulses.
  • dead reckoning the vehicle position is given as a coordinate value with the storage start point 302 as the origin.
  • the vehicle control device 100 stores the recognized peripheral environment information in the peripheral environment storage unit 102 (step S404). At this time, the vehicle control device 100 converts the position information of the peripheral object represented by the relative coordinates with the own vehicle into the absolute coordinate system.
  • the absolute coordinate system may have, for example, a memory start point 302 as an origin or a target parking position 301 as an origin, but is not necessarily limited to these.
  • the vehicle control device 100 displays a message or the like storing the surrounding environment information on the display 141.
  • the position of the vehicle 200 that has detected the shift operation to the P range, the operation of the parking brake, or the like may be set as the target parking position 301, or the target parking position 301 may be designated from the operation unit 143.
  • the vehicle control device 100 can obtain the traveling locus of the vehicle 200 in the section from the position information of the vehicle 200 acquired while traveling by the driving operation of the occupant, but when all the position information is retained. , The amount of data becomes enormous, and there is a possibility that it cannot be recorded in the route storage unit 104.
  • the route storage unit 104 performs a process of reducing the amount of data on the position information.
  • the route storage unit 104 uses a combination of a straight line section and a curved section for the section from the storage start point 302 to the parking start point 303 in the locus (traveling path 310) obtained from the own vehicle position information acquired in step S401. Performs approximation processing.
  • the straight section obtained by this is represented by the start point and the end point, and the curved section is represented by using the start point and the end point and an intermediate point added as needed.
  • route points the start point, end point, and intermediate point of each of the above sections are collectively referred to as route points.
  • FIG. 5 shows an example in which the traveling path 310 of FIG. 3 is approximated by a combination of a straight line section and a curved section.
  • the solid line indicates a straight section and the dotted line indicates a curved section.
  • the white circles in the figure indicate the start points of the straight section, the black circles indicate the start points of the curved sections, and the black square marks are the intermediate points of the curved sections.
  • the end point of the straight section is the same as the start point of the subsequent curved section, and the end point of the curved section is the same as the start point of the subsequent straight section.
  • the route storage unit 104 holds the information of the route point (start point or intermediate point) obtained by the above processing, with the route storage start point as the 0th position, and then assigning numbers in the order of passage.
  • the i-th path point is referred to as a path point (i).
  • the information of the path point includes at least the coordinate value represented by the absolute coordinate system and the attribute value.
  • the attribute value indicates whether it corresponds to the start point of the straight line section, the end point of the straight line section, the start point of the curved section, the middle point of the curved section, or the end point of the curved section. Further, when it corresponds to the final route point, that is, the parking start position, the information is also retained as an attribute value.
  • the steering control unit 108 refers to the above route information and generates a steering profile at the time of automatic driving so as to maintain a neutral steering angle and perform straight running in a straight section.
  • the correction information collection section extraction unit 105 extracts the section for collecting the correction information of the external sensor.
  • FIG. 6 is a flowchart showing an example of the processing of the correction information collecting section extraction unit 105. This process is executed before automatically traveling on the stored travel path 310.
  • step S603 when the path point (i) is the start point of the straight section, the correction information collection section extraction unit 105 refers to the information of the path point (i + 1) stored in the route storage unit 104.
  • Step S604 the path point (i + 1) is the end point of the straight section starting from the path point (i).
  • the correction information collecting section extraction unit 105 refers to the surrounding environment information stored in the surrounding environment storage unit 102, and is used for reference in the section between the route point (i) and the route point (i + 1). It is determined whether or not there is a road marking (step S605).
  • step S605 when the road marking is present, the correction information collecting section extraction unit 105 calculates the distance from the path point (i) to the road marking, and determines whether or not the value is larger than the predetermined distance.
  • the predetermined distance is the viewing range of the front camera 111A in the vehicle front-rear direction.
  • step S605 If there is no road marking in step S605, the process proceeds to step S609.
  • step S606 when the distance from the route point (i) to the road marking is larger than the predetermined distance, the correction information collecting section extraction unit 105 determines a point located behind the road marking by the predetermined distance.
  • the path storage unit 104 stores the position of the road marking as the start point of the correction information collection section (step S607), and stores the position of the road marking in the route storage unit 104 as the end point of the correction information collection section (step S608).
  • the correction information collection section extraction unit 105 determines whether or not the path point (i + 1) is the final path point (step S609).
  • step S610 If the path point (i + 1) is the final path point, the correction information collection section extraction unit 105 ends the process, otherwise, 2 is added to i (step S610), and step S602 is performed. Go back and repeat the above process.
  • step S606 if the distance from the route point (i) to the road marking is smaller than the predetermined distance, the process proceeds to step S609.
  • step S603 when the path point (i) is not the start point of the straight section, the correction information collection section extraction unit 105 determines whether or not the path point (i) is the final path point (step S611). ).
  • step S612 If the route point (i) is the end point of the automatic traveling route, the process is terminated. If not, 1 is added to i (step S612), and the process returns to step S602.
  • the acceleration / deceleration control unit 109 generates a vehicle speed profile that holds a predetermined vehicle speed in the correction information collection section set by the correction information collection section extraction unit 105.
  • This vehicle speed profile generation process may be executed at any time as long as it can be completed by the start of the next automatic driving.
  • the correction information collection section extraction unit 105 detects the reference road marking in the traveling path 310 by the above processing, the correction information collection section extraction unit 105 stores the position behind the reference road marking by a predetermined distance as the start point of the correction information collection section.
  • the position of the reference road marking can be stored as the end point of the correction information collection section.
  • FIG. 7 is a flowchart showing an example of processing executed by the vehicle control device 100 when automatically traveling using the stored surrounding environment information.
  • the vehicle control device 100 uses the GNSS information of the position detector 116 when the vehicle 200 is traveling by the driving operation of the occupant in a state where the surrounding environment information and the route information are stored, and the rough position of the own vehicle is obtained. (Step S701).
  • the vehicle control device 100 compares the position of the own vehicle acquired in step S701 with the position of the storage start point 302, and determines whether or not the vehicle 200 has approached the storage start point 302 (step S702). If it is determined that the memory start point is not approached, the process returns to step S701.
  • step S702 When it is determined in step S702 that the memory start point is approached, the vehicle control device 100 recognizes the surrounding environment (step S703) and is stored in the peripheral environment storage unit 102 by the storage information collation unit 103. The surrounding environment information is collated with the recognized surrounding environment (step S704).
  • the position of an object such as an object or a white line recognized by the camera 111, the short-distance measuring sensor 112, the medium-distance measuring sensor 113, and the long-distance measuring sensor 114, and the surrounding environment storage unit 52 It is determined whether or not the difference from the position of the object stored in is equal to or less than a predetermined value.
  • step S704 when the storage information collating unit 103 determines that the recognized peripheral environment information matches the information stored in the peripheral environment storage unit 102, the vehicle control device 100 is in a state where automatic driving is possible. The transition is made, and it is determined whether or not there is an automatic driving start operation by the occupant (step S705).
  • the vehicle control device 100 determines whether or not the vehicle has traveled a predetermined distance or more from the storage start position (step S706). If the vehicle has traveled a predetermined distance or more, the process ends, and if not, the process returns to step S705.
  • the vehicle control device 100 When the automatic driving start operation is detected, the vehicle control device 100 performs steering and acceleration / deceleration control by the vehicle control unit 107 (step S707) to perform automatic driving.
  • step S708 the vehicle control device 100 collects correction information of the camera 111 and determines the necessity of correction when the automatic traveling is started. As a result, if it is determined that correction is necessary, correction processing is performed (step S708). The detailed processing of step S708 will be described later.
  • step S708 the vehicle control device 100 determines whether or not the vehicle 200 has reached the parking start point 303 (step S709). If the parking start point 303 has not been reached, the process returns to step S707 and the above process is repeated.
  • the HMI 140 waits for the operation of restarting the automatic driving by the operation unit 143 (step S710).
  • the operation unit 143 is displayed on a terminal capable of remote control of the vehicle 200 so that all the occupants can operate the vehicle even when they get off the vehicle 200.
  • step S710 When the operation of restarting the automatic driving is detected in step S710, the vehicle control device 100 performs steering and acceleration / deceleration control by the vehicle control unit 107 (step S711), and automatically parks the vehicle.
  • the vehicle control device 100 determines whether or not the target parking position 301 has been reached (step S712), and if it determines that the target parking position 301 has been reached, the steering and acceleration / deceleration control is terminated (step S713), and the process is completed. ..
  • step S708 the details of the process in step S708 will be described.
  • FIG. 8 is a flowchart showing the detailed processing of step S708 executed by the correction processing unit 106 of the vehicle control device 100.
  • the correction processing unit 106 of the vehicle control device 100 acquires the own vehicle position information (step S801), and determines whether or not the end point of the correction information collection section stored in the route storage unit 104 has been passed (step S801). Step S802).
  • the vehicle control device 100 determines whether or not the start point of the correction information collection section has been passed (step S803).
  • the acceleration / deceleration control unit 109 performs acceleration / deceleration control so as to maintain a predetermined vehicle speed according to the vehicle speed profile generated after extracting the correction information collection section. (Step S804).
  • the correction processing unit 106 commands the acceleration / deceleration control unit 109 to go straight (the steering angle is neutral) and to set a preset vehicle speed so as to obtain the optimum driving conditions for collecting the correction information.
  • the correction processing unit 106 saves the image taken by the camera 111 (front camera 111A) as a correction image series (step S805), and ends the process of step S708 in FIG. 7.
  • step S803 If it is determined in step S803 that the start point of the correction information collection section has not been passed, the vehicle control device 100 ends the process of step S708.
  • step S802 When it is determined in step S802 that the end point of the correction information collecting section has been passed, the vehicle control device 100 determines whether or not the correction processing necessity determination has been performed (step S806). When it is determined that the necessity determination of the correction process has not been performed, the correction processing unit 106 determines the necessity of the correction process by using the saved image series for correction (step S807).
  • a plurality of feature points are detected from the road markings shown in each frame of the correction image series, and their trajectories are projected on the bird's-eye view image.
  • FIGS. 9A to 9E schematically show the loci of the feature points on the bird's-eye view image when there is an error from the design value in the position and directivity of the camera.
  • the loci 90A of all the feature points on the bird's-eye view image are as shown in FIG. 9A. , It becomes a straight line parallel to the traveling direction of the vehicle 200.
  • the loci 90B of the plurality of feature points are not parallel to the traveling direction of the vehicle 200.
  • the locus 90C of the feature point is not parallel to the traveling direction of the vehicle 200.
  • the lengths of the loci 90D of a plurality of feature points are not equal as shown in FIG. 9D.
  • the correction processing unit 106 compares the difference between the locus 90A of the feature point in the ideal state and the locus of the feature point obtained from the actually captured image, and if the difference is equal to or less than the threshold value, an error occurs. Is determined to be within the permissible value, and it is determined that the correction process is unnecessary.
  • the correction processing unit 106 compares the difference between the locus 90A of the feature points in the ideal state and the locus of the feature points obtained from the actually captured image, and if the difference exceeds the threshold value, It is determined that the error exceeds the allowable value, and it is determined that correction processing is necessary.
  • the correction processing unit 106 determines the position and orientation of the camera so that the trajectory of the feature point in an ideal state can be obtained from the captured correction image.
  • the amount of deviation in the direction is estimated (step S808), and the obtained value is applied to the image recognition process (step S809).
  • step S807 If it is determined in step S807 that the correction process is unnecessary, the vehicle control device 100 ends the process in step S708.
  • step S806 When it is determined in step S806 that the necessity determination of the correction process has been performed, the vehicle control device 100 ends the process of step S708.
  • the error in the position and the pointing direction of the front camera 111A is corrected by using the correction information acquired while performing the automatic running immediately before the start of the automatic parking, so that the automatic parking can be performed.
  • the recognition accuracy by the camera is improved, and the accuracy of the parking position can be improved.
  • the correction process is performed on the front camera 111A in the first embodiment, the same process can be performed on the side cameras 111B and 111C and the rear camera 111D.
  • Example 2 of the present invention will be described below.
  • the configuration of the driving support system of the second embodiment of the present invention is the same as that of the first embodiment, but the processing of the correction information collection section extraction unit 105 and the correction processing unit 106 is different from that of the first embodiment.
  • FIG. 10 is a flowchart showing an example of the processing of the correction information collecting section extraction unit 105 in the second embodiment of the present invention.
  • step S1003 when the path point (i) is the start point of the straight section, the correction information collecting section extraction unit 105 refers to the information of the path point (i + 1) stored in the path storage unit 104.
  • Step S1004 the path point (i + 1) is the end point of the straight section starting from the path point (i).
  • the correction information collecting section extraction unit 105 refers to the surrounding environment information stored in the surrounding environment storage unit 102, and sets the section between the path point (i) and the path point (i + 1) for reference. It is determined whether or not there is a road marking (step S1005).
  • step S1005 the correction information collecting section extraction unit 105 calculates the distance from the route point (i) to the road marking when the road marking is present, and determines whether or not the value is larger than the predetermined distance.
  • the predetermined distance is the total length of the vehicle.
  • step S1005 If there is no road marking in step S1005, the process proceeds to step S1010.
  • step S1006 the correction information collecting section extraction unit 105 calculates the distance from the road marking to the road marking (i + 1) when the distance from the road marking (i) to the road marking is larger than the predetermined distance. Then, it is determined whether or not the value is larger than the predetermined distance (step S1007).
  • step S1006 if the distance from the route point (i) to the road marking is smaller than the predetermined distance, the process proceeds to step S1010.
  • step S1007 when the distance from the road marking to the path point (i + 1) is larger than the predetermined distance, the correction information collecting section extraction unit 105 determines a point located behind the road marking by the predetermined distance.
  • the route storage unit 104 stores as the start point of the correction information collection section (step S1008), and the point located ahead of the road marking by the predetermined distance is stored in the route storage unit 104 as the end point of the correction information collection section (step S1008). Step S1009).
  • the correction information collection section extraction unit 105 determines whether or not the path point (i + 1) is the final path point (step S1010).
  • the correction information collection section extraction unit 105 ends the process, and if not, adds 2 to i (step S1011) and goes to step S1002. go back.
  • step S1007 if the distance from the road marking to the route point (i + 1) is smaller than the predetermined distance, the process proceeds to step S1010.
  • step S1003 if the path point (i) is not the start point of the straight section, the correction information collection section extraction unit 105 determines whether or not the path point (i) is the final path point (step S1012). ).
  • step S1013 If the route point (i) is the end point of the automatic traveling route, the process is terminated. If not, 1 is added to i (step S1013), the process returns to step S1002, and the above process is repeated.
  • the processing of the correction processing unit 106 is as shown in the flowchart shown in FIG. 8, but the content of the correction information acquired in step S805 and the specific content of the correction processing after step S807 are different from those of the first embodiment. ..
  • step S805 the correction processing unit 106 saves the image taken by the front camera 111A and the rear camera 111D, and the wheel speed pulse count value at the time of taking the image as correction information.
  • step S807 the correction processing unit 106 detects feature points from the road markings shown in the image of the front camera 111A and the image of the rear camera 111D of each frame in the correction information, and determines their relative positions with respect to the vehicle 200. calculate.
  • the image closest to the vehicle 200 is selected.
  • the correction processing unit 106 calculates the distance traveled by the vehicle between the acquisition of the image of the front camera 111A and the image of the rear camera 111D by using the relative position calculated above and the total length of the own vehicle. By dividing this value by the difference between the wheel speed pulse count value at the time of shooting the image of the front camera 111A and the image of the rear camera 111D, the moving distance per pulse count can be calculated.
  • the error of the tire circumference is corrected by using the correction information acquired while performing automatic driving immediately before the start of automatic parking, so that the self-reconciliation due to dead reckoning during automatic parking is performed.
  • the vehicle position estimation is improved, and the accuracy of the parking position can be improved.
  • Example 3 of the present invention will be described below.
  • the process of extracting the section for collecting the information necessary for correcting the error of the camera 111 is executed not by the vehicle control device 100 mounted on the vehicle 200 but by the computer 1112 capable of communicating with the vehicle 200. Different from Example 1.
  • FIG. 11 is a functional block diagram of the driving support system according to the third embodiment of the present invention.
  • the vehicle control device 100 is replaced with the vehicle control device 1100, and a communication device 1111 is added.
  • the vehicle control device 1100 has a configuration in which the correction information collection section extraction unit 105 is removed from the vehicle control device 100 shown in the first embodiment.
  • the communication device 1111 transmits / receives data to / from a computer 1112 outside the vehicle connected via a wireless communication line such as a mobile phone or a wireless LAN.
  • the process of storing the traveling route and the environment around the route is the same as that of the first embodiment, specifically as shown in the flowchart of FIG.
  • the vehicle control device 1100 After the process of storing the travel route 310 and the peripheral environment information of the route is completed, the vehicle control device 1100 transmits the stored travel route 310 and the peripheral environment information of the route to the computer 1112 via the communication device 1111.
  • the computer 1112 extracts the correction information collection section by using the received travel route and the surrounding environment information of the route.
  • the processing at this time is the same as that of the correction information collection section extraction unit 105 in the first embodiment, and is specifically as shown in the flowchart of FIG.
  • the computer 1112 transmits the extracted correction information collection section information to the vehicle control device 1100.
  • the vehicle control device 1100 receives the information of the correction information collection section via the communication device 1111 and stores it in the route storage unit 104.
  • the processing load of the vehicle control device can be reduced by executing the extraction process of the correction information collection section externally.
  • Example 4 of the present invention will be described below.
  • the camera 111 in a driving support system that automatically travels including passing through an ETC (Electronic Toll Collection system) gate on an expressway using a travel path 310 stored in advance, the camera 111 is subjected to the method of the present invention. Information for correcting errors in the position and pointing direction is automatically acquired during automatic driving, and correction processing is performed.
  • ETC Electronic Toll Collection system
  • the system configuration of the fourth embodiment of the present invention is the same as that of the first embodiment, but the trigger for processing each component of the vehicle control device 100 and the processing of the vehicle control unit 107 are different from those of the first embodiment.
  • the vehicle control device 100 has three automatic driving modes: a normal automatic driving mode, a stored route following automatic driving mode, and a low speed automatic driving mode.
  • the normal automatic driving mode is a mode in which automatic driving is performed using the route information calculated from the map information.
  • the stored route following automatic driving mode is a mode in which the traveling route 310 traveled by the occupant in advance is stored and the vehicle automatically travels so as to follow the traveling route 310.
  • the low-speed automatic driving mode follows the pre-stored driving route 310 in the same manner as the stored route-following automatic driving mode, but at a vehicle speed lower than that of the other modes because it passes through a narrower lane than the normal driving lane. In addition, it is a mode that automatically travels with high position accuracy.
  • FIG. 12 shows a plan view of the vehicle 200 having the main driving support system passing through the ETC gate 1201.
  • the vehicle control device 100 When the occupant is driving the vehicle 200 by himself / herself, when he / she instructs the start of storage of the surrounding environment information at the storage start point 1202, the vehicle control device 100 causes the subsequent travel path 1205 of the vehicle 200 and the travel route 1205. Memorize the surrounding environment information of.
  • the vehicle control device 100 memorizes the position of the ETC gate start point 1203.
  • the vehicle control device 100 stores the position of the end point 1204 of the ETC gate.
  • the vehicle control device 100 automatically follows the stored route following the automatic driving mode.
  • the steering and vehicle speed are controlled according to the stored travel path 1205.
  • the vehicle 200 automatically travels while following the stored travel path 1205.
  • the vehicle control device 100 automatically switches to the low speed automatic driving mode and automatically travels in the ETC gate 1201.
  • the vehicle control device 100 switches to the normal automatic driving mode and continues the automatic driving.
  • the process of storing the traveling route and the environment around the route is the same as that of the first embodiment, specifically as shown in the flowchart of FIG.
  • FIG. 13 is a flowchart of processing executed by the vehicle control device 100 when automatically traveling on the ETC gate 1201 using the stored surrounding environment information.
  • the vehicle control device 100 uses the GNSS information of the position detector 116 when the vehicle 200 is traveling in the normal automatic driving mode in a state where the surrounding environment information and the route information are stored, and the rough position of the own vehicle is obtained. (Step S1301).
  • the vehicle control device 100 compares the position of the own vehicle acquired in step S1301 with the position of the storage start point 1202, and determines whether or not the vehicle 200 has approached the storage start point 1202 (step S1302). If it is determined that the memory start point 1202 is not approached, the process returns to step S1301.
  • step S1302 When it is determined in step S1302 that the memory start point 1202 is approached, the vehicle control device 100 recognizes the surrounding environment by the outside world sensor (step S1303), and the storage information collating unit 103 informs the peripheral environment storage unit 102. The collation process with the stored surrounding environment information is performed (step S1304).
  • the specific process of step S1304 is the same as that of step S704 in the first embodiment.
  • the vehicle control device 100 automatically follows the stored route.
  • the mode is changed to the traveling mode (step S1305), and steering and acceleration / deceleration control are performed based on the stored traveling path 1205 (step S1306).
  • step S1307 the vehicle control device 100 collects correction information of the camera 111 and determines whether or not correction is necessary, triggered by the transition to the stored route following automatic traveling mode. As a result, if it is determined that correction is necessary, correction processing is performed (step S1307).
  • the specific process of step S1307 is the same as that of step S708 in the first embodiment.
  • step S1307 the vehicle control device 100 determines whether or not the vehicle 200 has reached the ETC gate start point 1203 (step S1308).
  • step S1306 If the vehicle control device 100 determines that the ETC gate start point 1203 has not been reached, the process returns to step S1306.
  • step S1308 When it is determined in step S1308 that the ETC gate start point 1203 has been reached, the vehicle control device 100 shifts to the low-speed automatic driving mode (step S1309), and steers and adds to the low-speed traveling based on the stored travel path 1205. Deceleration control is performed (step S1310).
  • the vehicle control device 100 determines whether or not the ETC gate end point 1204 has been reached (step S1311), and if it determines that the ETC gate end point 1204 has been reached, the vehicle control device 100 transitions to the normal automatic driving mode (step S1312). If it is determined that the item has not been reached, the process returns to step S1310.
  • the correction information acquired while performing the automatic driving is used to correct the error in the position and the pointing direction of the camera 111, thereby performing the automatic traveling.
  • the recognition accuracy by the camera 111 when passing through the ETC gate 1201 is improved, and the guidance accuracy of the vehicle 200 can be improved.
  • the vehicle control device 100 of Examples 1 to 4 can have the following configuration.
  • a vehicle control device (100) having a processor (1) and a memory (2) is a vehicle control method for controlling a vehicle, and the vehicle control device (100) stores route information to a predetermined point.
  • the step (route storage unit 104) and the step (vehicle control unit 107) in which the vehicle control device (100) automatically travels based on the route information are included.
  • a section for collecting information for performing disturbance correction for the external world sensor is stored (correction information collecting section extraction unit 105), and in the step (107) of performing the automatic running, the information collected during the running of the section is used.
  • the disturbance of the external sensor is corrected (correction processing unit 106).
  • the necessity of the disturbance correction of the external world sensor is determined by the predetermined point based on the collected information. (106) When it is determined that the disturbance correction is necessary, the disturbance correction of the external world sensor is performed before reaching the predetermined point by using the collected information (106).
  • the vehicle control device 100 can memorize the route that travels to the storage location through the route that is used on a daily basis and stops at the target parking position 301.
  • the vehicle in the step (107) of performing the automatic driving, the vehicle passes through a section for collecting information for performing the disturbance correction. At that time, the vehicle travels under driving conditions (105, S804) suitable for collecting the information.
  • the correction processing unit 106 commands the acceleration / deceleration control unit 109 to go straight (the steering angle is neutral) and to command the acceleration / deceleration control unit 109 as driving conditions suitable for collecting information, so that the camera 111 (front camera)
  • the conditions for shooting with 111A) can be optimized.
  • the vehicle control device 100 can store the desired parking position driven by the occupant as the target parking position 301.
  • the route information is a route (1205) passing through an ETC gate (1201), and the predetermined point is an ETC. It is the start point (1203) of the gate, and in the memorizing step, the route (1205) from the start point (1203) to the end point (1204) of the ETC gate (1201) is also memorized, and the automatic traveling is performed (107). ) Will automatically travel based on the route information generated based on the outside world information after reaching the end point (1204) of the ETC gate.
  • the correction information acquired while performing automatic driving is used to correct the error in the position and pointing direction of the camera 111, thereby passing the ETC gate 1201 by automatic driving.
  • the recognition accuracy by the camera 111 at the time is improved, and the guidance accuracy of the vehicle 200 can be improved.
  • the present invention is not limited to the above-mentioned examples, and includes various modifications.
  • the above-described embodiment is described in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to the one including all the configurations described.
  • any of addition, deletion, or replacement of other configurations can be applied alone or in combination.
  • each of the above configurations, functions, processing units, processing means, etc. may be realized by hardware by designing a part or all of them, for example, by an integrated circuit. Further, each of the above configurations, functions, and the like may be realized by software by the processor interpreting and executing a program that realizes each function.
  • control lines and information lines indicate those that are considered necessary for explanation, and do not necessarily indicate all the control lines and information lines in the product. In practice, it can be considered that almost all configurations are interconnected. ⁇ Supplement>
  • the vehicle control method according to claim 4, which is the scope of claims, is characterized in that the section for collecting information for performing the disturbance correction is a straight section having a length equal to or longer than a predetermined length including road markings. Vehicle control method.
  • Vehicle control device 101 Own vehicle position estimation unit 102 Peripheral environment storage unit 103 Storage information collation unit 104 Route storage unit 105 Correction information collection section extraction unit 106 Correction processing unit 107 Vehicle control unit 108 Steering control unit 109 Acceleration / deceleration control unit 111 Camera 112 Short-range ranging sensor 113 Medium-range ranging sensor 114 Long-range ranging sensor 115 Wheel speed sensor 116 Position detector 130 Various sensors / actuators ECU 140 HMI 141 Display unit 142 Audio output unit 143 Operation unit 200 Vehicle 201 Traveling power source 202 Transmission 203 Wheel 204 Brake device 205 Power steering device 301 Target parking position 302 Memory start point 303 Parking start point 310 Route 321 Utility pole 322 Signal 323 Pedestrian crossing 324 Sign 325 Road marking 326 White line

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Social Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)

Abstract

車両を自動走行させて目標地点まで誘導するとき、車両の経年変化や乗車状態や積載状態により、外界センサの位置や寸法に設計値からの誤差が生じると、センシング結果にも誤差が生じるため、目標地点における位置精度が劣化する。 プロセッサとメモリを有する車両制御装置が、車両を制御する車両制御方法 であって、前記車両制御装置が、所定地点までの経路情報を記憶するステップと、前記車両制御装置が、前記経路情報に基づいて自動走行を行うステップと、を含み、前記記憶するステップでは、外界センサに対する外乱補正を行うための情報を収集する区間を記憶し、前記自動走行を行うステップでは、前記区間の走行時に収集した情報を用いて外界センサの外乱補正を実施する。

Description

車両制御方法及び車両制御装置
 本発明は、自動車の運転を支援するための車両制御方法及び車両制御装置に関する。
 従来、車両の自動運転システムや駐車支援システムを実現するために、自車両が走行した経路と、自車両周辺の物体や白線等の周辺環境情報を記憶し、以降、記憶した周辺環境情報を用いて車両を制御する車両制御装置が知られている(例えば、特許文献1を参照)。
 自動駐車では、一般的な道路の自動走行と比較して、駐車枠線内や他車両もしくは物体の間など、より狭い空間内で車両の誘導を行うため、外界認識に対しても、より高い精度が要求される。外界を認識するための外界センサとしては、カメラや測距センサが採用されている。
 特に、枠線が描かれた駐車枠内に車両を停車させる場合、超音波センサでは枠線を認識できないため、カメラで撮影した画像から画像認識技術により枠線を検出して、停車位置を算出する。
 また、自動駐車における操舵制御及び加減速制御においては、自車位置を高い精度で検知する必要があるが、自車位置測定用途で広く用いられるGPS(Global Positioning System)では必要な精度が得られないため、車輪速センサを用いた自車位置推定が用いられる(例えば、特許文献2を参照)。
特開2016-99635号公報 国際公開第2018/173907号
 前記のような自動駐車のための外界センサは、一方で、車両の経年変化や、乗員の乗車状態もしくは荷物の積載状態に起因して、位置や寸法に、設計値からの誤差が生じる。
 具体的には、カメラの場合、車両上の基準点からの相対位置や指向方向に誤差が生じる。また、車輪速センサの場合、タイヤ周長に誤差が生じる。
 上記誤差が残存すると、センシング結果にも誤差が生じるため、自動駐車の場合は所望の停止位置に対し、高い精度で停止できなくなる。上記誤差はトリップごとに変動するため、毎回の自動駐車開始までに補正することが望ましい。
 そこで本発明は、上記問題点に鑑みてなされたもので、外界センサの誤差の補正を実施することで、補正後の走行に伴う誤差の蓄積を抑制することを目的とする。
 本発明は、プロセッサとメモリを有する車両制御装置が、車両を制御する車両制御方法であって、前記車両制御装置が、所定地点までの経路情報を記憶するステップと、前記車両制御装置が、前記経路情報に基づいて自動走行を行うステップと、を含み、前記記憶するステップでは、外界センサに対する外乱補正を行うための情報を収集する区間を記憶し、前記自動走行を行うステップでは、前記区間の走行時に収集した情報を用いて外界センサの外乱補正を実施する。
 本発明によれば、自動駐車の開始直前に外界センサの誤差補正を実施することで、補正後の走行に伴う誤差の蓄積を最小限に抑えることができるため、自動走行して駐車開始地点に停止するときの位置精度が向上し、最終的な駐車位置の精度向上に寄与する。
 また、自動走行により、車速や操舵を所定値に保ちながら、外界センサの誤差を補正するための情報を収集することで、乗員が運転する場合と比較して、より理想に近い補正情報が得られるため、補正精度が向上する。
 さらに、自動駐車の開始直前に外界センサの誤差を補正することで、外界センサの状態が、自動駐車の実施時により近い条件で補正することが可能となる。
 本明細書において開示される主題の、少なくとも一つの実施の詳細は、添付されている図面と以下の記述の中で述べられる。開示される主題のその他の特徴、態様、効果は、以下の開示、図面、請求項により明らかにされる。
本発明の実施例1を示し、運転支援システムの機能の一例を示すブロック図である。 本発明の実施例1を示し、車両の構成の一例を示す図である。 本発明の実施例1を示し、運転支援システムが想定する利用形態の一例を示す平面図である。 本発明の実施例1を示し、車両制御装置が走行経路及び経路周辺環境を記憶する処理の一例を示すフローチャートである。 本発明の実施例1を示し、車両制御装置による走行経路の近似処理の一例を示す平面図である。 本発明の実施例1を示し、車両制御装置が補正用情報の収集区間を抽出する処理の一例を示すフローチャートである。 本発明の実施例1を示し、車両制御装置による自動走行処理の一例を示すフローチャートである。 本発明の実施例1を示し、車両制御装置による補正用情報の収集から補正処理までを示すフローチャートである。 本発明の実施例1を示し、カメラの位置や指向方向が設計値の場合の、俯瞰画像上の特徴点の軌跡を示す平面図である。 本発明の実施例1を示し、カメラの位置や指向方向に設計値からの誤差がある場合の、俯瞰画像上の特徴点の軌跡を示す平面図である。 本発明の実施例1を示し、カメラの位置や指向方向に設計値からの誤差がある場合の、俯瞰画像上の特徴点の軌跡を示す平面図である。 本発明の実施例1を示し、カメラの位置や指向方向に設計値からの誤差がある場合の、俯瞰画像上の特徴点の軌跡を示す平面図である。 本発明の実施例1を示し、カメラの位置や指向方向に設計値からの誤差がある場合の、俯瞰画像上の特徴点の軌跡を示す平面図である。 本発明の実施例2を示し、車両制御装置が補正用情報の収集区間を抽出する処理の一例を示すフローチャートである。 本発明の実施例3を示し、運転支援システムの機能の一例を示すブロック図である。 本発明の実施例4を示し、ETCゲートを通過する車両の一例を示す平面図である。 本発明の実施例4を示し、車両制御装置で実行される処理の一例を示すフローチャートである。
 以下、本発明の実施形態を添付図面に基づいて説明する。
 本発明の実施例1を、図1から図9までを用いて説明する。
 実施例1では、事前に記憶した走行経路を用いて、駐車を含めた自動走行を行う運転支援システムにおいて、カメラの位置や指向方向の誤差を補正するための情報を自動走行中に自動的に取得し、補正処理を行う。
 図1は、本発明の実施例1における運転支援システムの機能の一例を示すブロック図である。車両制御装置100は、カメラ111、近距離測距センサ112、中距離測距センサ113、遠距離測距センサ114、車輪速センサ115、位置検出器116、車両の各種センサ/アクチュエータECU130、HMI(Human Machine Interface)140により構成される。
 車両制御装置100は、プロセッサ1と、メモリ2を含む。車両制御装置100は、自車位置推定部101と、周辺環境記憶部102と、記憶情報照合部103と、経路記憶部104と、補正用情報収集区間抽出部105と、補正処理部106と、車両制御部107の各プログラムをメモリ2へそれぞれロードしてプロセッサ1で実行する。
 プロセッサ1は、各機能部のプログラムに従って処理を実行することによって、所定の機能を提供する機能部として稼働する。例えば、プロセッサ1は、自車位置推定プログラムに従って処理を実行することで自車位置推定部101として機能する。他のプログラムについても同様である。さらに、プロセッサ1は、各プログラムが実行する複数の処理のそれぞれの機能を提供する機能部としても稼働する。計算機及び計算機システムは、これらの機能部を含む装置及びシステムである。
 自車位置推定部101は、位置検出器116や車輪速センサ115より出力される情報を用いて、自車(車両200)の位置を算出する。
 周辺環境記憶部102は、カメラ111と、近距離測距センサ112と、中距離測距センサ113と、遠距離測距センサ114を用いて、乗員の運転操作により走行した際に取得した周辺環境情報を記憶する。
 なお、本実施例では、カメラ111と、近距離測距センサ112と、中距離測距センサ113と、遠距離測距センサ114が外界センサとして機能する。また、周辺環境情報としては、電柱や標識や信号機などの立体物情報と、路面の白線や、亀裂や、路面の凹凸等の路面情報が含まれる。
 記憶情報照合部103は、車両200に搭載されている外界センサによって検知した周辺環境の情報を、周辺環境記憶部102が記憶している情報と照合し、両者が合致しているか否かを判定する。
 車両制御装置100は、周辺環境情報が記憶された情報に合致していると判定された場合は自動走行可能状態に遷移し、合致していないと判定された場合は自動走行不可状態に遷移する。
 経路記憶部104は、前記周辺環境情報の取得を行った際の車両の走行軌跡から、自動走行経路情報を生成し、記憶する。
 補正用情報収集区間抽出部105は、経路記憶部104が記憶している経路情報、及び周辺環境記憶部102が記憶している周辺環境情報を用いて、カメラ111の誤差の補正に必要な情報を収集する区間を抽出する。
 補正処理部106は、補正用情報収集区間抽出部105により決定された区間にて収集された補正用情報を用いて、カメラ111の誤差を算出し、補正の要否を判定する。また、補正処理部106は、補正が必要と判定された場合に、補正量を算出し、カメラ111からの画像を入力とする処理に適用する。
 車両制御部107は、操舵制御部108と加減速制御部109により構成され、自動走行を実施する際の操舵や加減速の目標値を演算し、各種センサ/アクチュエータECU130に対し、前記目標値を含む制御指示を出力する。
 カメラ111は、車両の周囲の白線や路面標示、標識など、主に視覚情報が意味を持つ対象物を撮像するために用いられる。カメラ111による撮像データは、車両制御装置100に入力される。
 近距離測距センサ112は、車両周囲の概ね数m程度までの範囲にある物体を検知するために用いられ、一例としてソナーにより構成される。ソナーは、自車両の周囲に向かって超音波を送波し、その反射波を受信することで自車両近傍の物体との距離を検知する。
近距離測距センサ112による測距データは、車両制御装置100に入力される。
 中距離測距センサ113は、車両前後の概ね数十m程度までの範囲にある物体を検知するために用いられ、一例としてミリ波レーダにより構成される。ミリ波レーダは、自車両の周囲に向かってミリ波と呼ばれる高周波を送波し、その反射波を受信することで物体との距離を検知する。中距離測距センサ113による測距データは、車両制御装置100に入力される。
 遠距離測距センサ114は、車両前方の概ね200m程度までの範囲にある物体を検知するために用いられ、一例としてミリ波レーダやステレオカメラなどにより構成される。
遠距離測距センサ114による測距データは、車両制御装置100に入力される。
 車輪速センサ115は、車両200の各車輪に取り付けられて車輪の回転により発生するパルス信号を計数するパルスカウンタと、パルスカウンタによる検出値を統合して車速信号を生成するコントローラとを含む。車輪速センサ115による車速信号データは、車両制御装置100に入力される。
 位置検出器116は、自車両の前方の方位を測定する方位センサや、衛星からの電波に基づいて車両の位置を測定するGNSS(Global Navigation Satellite System)の信号の受信機で構成される。
 各種センサ/アクチュエータECU130は、走行用動力源や変速機、ブレーキ装置などを、車両制御装置100からの指示に従って動作させる。
 HMI140は、表示器141と、音声出力部142と、操作部143により構成され、乗員が操作部143を介して、運転支援に関する設定や、運転支援の開始及び終了の指示を行う。また、他の構成要素から乗員への通知情報を受信し、その内容を表示器141に文言や絵記号の形で表示したり、音声出力部142から警報音や音声案内として報知を行う。
 操作部143は、運転席付近に配置される物理的なスイッチを用いる形態や、タッチパネルで構成された表示器141に表示されるボタンに指で触れることで操作を行う形態などが考えられるが、本発明においてはその形態を限定しない。
 図2は、本発明の実施例1における車両の構成図の一例を示す。図示の車両200は、走行用動力源201と、変速機202と、4つの車輪203と、車輪速センサを含むブレーキ装置204、及びパワーステアリング装置205を有する。
 前記の構成要素を動作させるアクチュエータやECUは、CAN(Controller Area Network)などの車内ネットワークを介して、車両制御装置100に接続されている。
 車両制御装置100は、外界センサから車両200の外部の情報を得て、自動駐車や自動運転等の制御を実現するための指令値を、各種センサ/アクチュエータECU130に送信する。各種センサ/アクチュエータECU130は、前記指令値に従い、走行用動力源201、ブレーキ装置204、パワーステアリング装置205、変速機202を動作させる。
 また車両200は、前端に前方カメラ111Aが取り付けられ、左右側面に側方カメラ111B、111Cが取り付けられ、後端に後方カメラ111Dが取り付けられている。
車両制御装置100は、4つのカメラ111A~111Dにより撮像された映像を投影変換して結合することで、車両200とその周囲を上方から見下ろした俯瞰画像を合成することが可能である。なお、俯瞰画像は表示器141に表示する際に使用する。
 さらに車両200は、前端、後端及び側面には、近距離測距センサ112が取り付けられ、前端及び後端には中距離測距センサ113が取り付けられ、前部には遠距離測距センサ114が取り付けられている。なお、これらの取り付け位置や数は、図2に示す内容に限定しない。
 本発明の実施例1における運転支援システムが想定する利用形態を、図3を用いて説明する。図3は、本システムを有する車両200が、日常的に利用する経路を通って保管場所まで走行し、目標駐車位置301で停止する平面図を示している。
 乗員が自身で車両200を運転しているとき、記憶開始地点302にて、周辺環境情報の記憶開始を指示すると、車両制御装置100は、以降の車両200の走行経路310、及び前記走行経路310の周辺環境情報を記憶する。
 また、乗員が、自身の運転操作により駐車を開始するときに、駐車開始地点303の記憶を指示すると、車両制御装置100は、駐車開始地点303の位置を記憶する。
 上記情報の記憶が完了した状態で、次に車両200が同じ走行経路310を通って目標駐車位置301まで走行するとき、記憶開始地点302に到達すると、車両制御装置100は、乗員に対し、自動走行が可能である旨を通知する。
 ここで乗員が自動走行開始を指示すると、車両制御装置100が操舵及び車速を制御することにより、車両200は、記憶した走行経路310に追従しながら自動走行を行う。
 さらに、上記自動走行により、駐車開始地点303に到達すると、車両200は自動的に停車する。
 ここで乗員が降車し、車両200の車内が無人になった後、乗員が車外から遠隔操作により駐車開始を指示すると、車両200は記憶した走行経路310に追従しながら自動的に駐車を行い、目標駐車位置301に到達すると、自動走行を終了する。
 ここで、走行経路及び経路周辺環境を記憶する処理について説明する。
 車両200が乗員の運転操作により走行しているとき、乗員が操作部143にて所定の操作を行うと、車両制御装置100は、走行経路及び経路周辺環境の記憶を開始する。
 図4は、車両200が乗員の運転により走行しながら周辺環境情報を記憶する際、車両制御装置100により実行される処理の一例を示すフローチャートである。
 車両制御装置100は、乗員により周辺環境情報の記憶が開始されると、自車位置を取得し、記憶する(ステップS401)。具体的には、位置検出器116のGNSS情報を使用して、大まかな車両200の位置を算出する。
 次に、車両制御装置100は、カメラ111と、近距離測距センサ112と、中距離測距センサ113と、遠距離測距センサ114からの入力により、車両200の周辺環境を認識し、認識した情報の位置情報を取得する(ステップS402)。認識の対象は、具体的には、図3において、道路脇に存在する電柱321や、信号機322や、横断歩道323や、標識324や、路面標示325や、白線326など、立体物情報や路面情報のうち静止物とし、これらの静止物を周辺環境情報とする。
 ステップS402で取得される周辺環境情報のうち、路面標示325については、補正処理部106による特徴点の抽出が可能なパターンを予め登録しておき、当該パターンに合致した場合は、参照用の路面標示であることを示す識別情報を付加する。
 次に車両制御装置100は、乗員による周辺環境情報の記憶終了操作の有無を判定する(ステップS403)。具体的には、操作部143による所定の操作や、Pレンジへのシフト操作、あるいはパーキングブレーキの操作等を検知する。周辺環境情報の記憶終了操作が検知されない場合は、ステップS401に戻って上記処理を繰り返す。
 なお、以降でステップS401を実行する際に、車両200の位置情報は、GNSSのほかに、車輪パルスを用いて移動距離、ヨー角を算出するデッドレコニングによっても取得することができる。デッドレコニングを使用する場合、自車位置は、記憶開始地点302を原点とする座標値で与えられる。
 ステップS403において周辺環境情報の記憶終了操作が検知された場合、車両制御装置100は、認識した周辺環境情報を周辺環境記憶部102に記憶する(ステップS404)。このとき、車両制御装置100は、自車との相対座標で表現されている周辺物の位置情報を、絶対座標系に変換する。ここで、絶対座標系は、例えば、記憶開始地点302を原点とするものや、目標駐車位置301を原点にするものが考えられるが、必ずしもこれらに限定するものではない。
 上記処理が完了すると、車両制御装置100は、表示器141に周辺環境情報を記憶したメッセージ等を表示する。なお、Pレンジへのシフト操作、あるいはパーキングブレーキの操作等を検知した車両200の位置を目標駐車位置301としてもよいし、操作部143から目標駐車位置301を指定するようにしてもよい。
 上記のようにして、車両制御装置100は、乗員の運転操作による走行中に取得した車両200の位置情報から、当該区間における車両200の走行軌跡が得られるが、前記位置情報を全て保持した場合、データ量が膨大になり、経路記憶部104に記録できない可能性がある。
 このため、経路記憶部104では、前記位置情報に対し、データ量を削減する処理を行う。
 経路記憶部104は、前記ステップS401で取得した自車位置情報から得られる軌跡(走行経路310)のうち、記憶開始地点302から駐車開始地点303までの区間を、直線区間と曲線区間の組合せで近似する処理を行う。
 これにより得られる直線区間は、開始点と終点で表現され、曲線区間は、開始点と終点に加え、必要に応じて追加される中間点を用いて表現される。
 以下では上記の各区間の開始点、終点、中間点を、経路点と総称する。
 図5は、図3の走行経路310に対し、直線区間と曲線区間の組合せで近似する処理を行った例を示す。
 図中の走行経路310のうち、実線は直線区間、点線は曲線区間を示す。また、図中の白い丸印は直線区間の開始点を示し、黒い丸印は曲線区間の開始点を示し、黒い四角印は曲線区間の中間点である。直線区間の終点は後続の曲線区間の開始点と同一であり、曲線区間の終点は後続の直線区間の開始点と同一である。
 次に経路記憶部104は、上記処理により得られた経路点(開始点又は中間点)の情報を、経路記憶開始点を0番目とし、以降、通過する順に番号を付与して保持する。以下、i番目の経路点を経路点(i)と表記する。
 ここで、経路点の情報は、少なくとも、絶対座標系で表される座標値、及び属性値を含む。属性値は、直線区間の開始点、直線区間の終点、曲線区間の開始点、曲線区間の中間点、曲線区間の終点のいずれに該当するかを示す。また、最終の経路点、すなわち駐車開始位置に該当する場合には、その情報も属性値として保持される。
 操舵制御部108は、上記の経路情報を参照し、直線区間においては、中立舵角を維持して直進走行を行うよう、自動走行時の操舵プロファイルを生成する。
 車両制御装置100は、経路情報の記憶が完了すると、補正用情報収集区間抽出部105は、外界センサの補正用情報を収集する区間を抽出する。
 図6は、補正用情報収集区間抽出部105の処理の一例をフローチャートで示す。この処理は、記憶された走行経路310を自動走行する以前に実行される。
 補正用情報収集区間抽出部105は、経路点をi=0として(ステップS601)、経路記憶部104に記憶されている、経路点(i)の情報を参照し(ステップS602)、経路点(i)が直線区間の開始点であるか否かを判定する(ステップS603)。
 ステップS603において、経路点(i)が直線区間の開始点である場合は、補正用情報収集区間抽出部105は、経路記憶部104に記憶されている、経路点(i+1)の情報を参照する(ステップS604)。ここで、経路点(i+1)は、経路点(i)を開始点とする直線区間の終点となる。
 次に、補正用情報収集区間抽出部105は、周辺環境記憶部102に記憶されている周辺環境情報を参照し、経路点(i)と経路点(i+1)の間の区間での参照用の路面標示の有無を判定する(ステップS605)。
 ステップS605において、路面標示が存在する場合は、補正用情報収集区間抽出部105が経路点(i)から前記路面標示までの距離を算出し、その値が所定距離より大きいか否かを判定する(ステップS606)。ここで、所定距離とは、前方カメラ111Aの車両前後方向の視野範囲とする。
 ステップS605において、路面標示が存在しない場合は、ステップS609に進む。
 ステップS606において、補正用情報収集区間抽出部105は、経路点(i)から前記路面標示までの距離が、前記所定距離より大きい場合は、前記路面標示から前記所定距離だけ後方に位置する地点を、補正情報収集区間の始点として経路記憶部104に記憶し(ステップS607)、前記路面標示の位置を、補正情報収集区間の終点として経路記憶部104に記憶する(ステップS608)。
 次に、補正用情報収集区間抽出部105は、経路点(i+1)が最終の経路点であるか否かを判定する(ステップS609)。
 経路点(i+1)が最終の経路点である場合には、補正用情報収集区間抽出部105は処理を終了し、そうでない場合は、iに2を加算して(ステップS610)、ステップS602に戻って上記処理を繰り返す。
 ステップS606において、経路点(i)から前記路面標示までの距離が、前記所定距離より小さい場合は、ステップS609に進む。
 ステップS603において、経路点(i)が直線区間の開始点でない場合は、補正用情報収集区間抽出部105は、経路点(i)が最終の経路点であるか否かを判定する(ステップS611)。
 経路点(i)が自動走行経路の終点である場合は、処理を終了し、そうでない場合は、iに1を加算して(ステップS612)、ステップS602に戻る。
 加減速制御部109は、補正用情報収集区間抽出部105により設定された前記補正情報収集区間において、所定の車速を保持する車速プロファイルを生成する。この車速プロファイルの生成処理は、次回の自動走行開始までに完了できる限りにおいて、どの時点で実行してもよい。
 上記処理によって、補正用情報収集区間抽出部105は、走行経路310内に参照用路面標示を検知すると、参照用路面標示から所定距離だけ後方の位置を補正情報収集区間の開始点として記憶し、参照用路面標示の位置を補正情報収集区間の終点として記憶することができる。
 図7は、記憶した周辺環境情報を用いて自動走行する際、車両制御装置100により実行される処理の一例を示すフローチャートである。
 車両制御装置100は、周辺環境情報及び経路情報が記憶された状態で、車両200が乗員の運転操作により走行しているとき、位置検出器116のGNSS情報を使用し、自車の大まかな位置を取得する(ステップS701)。
 次に車両制御装置100は、ステップS701にて取得した自車位置と記憶開始地点302の位置を比較し、車両200が記憶開始地点302へ接近したか否かを判定する(ステップS702)。記憶開始地点に接近していないと判定された場合は、ステップS701に戻る。
 ステップS702において、記憶開始地点に接近したと判定された場合、車両制御装置100は、周辺環境を認識し(ステップS703)、記憶情報照合部103にて、周辺環境記憶部102に記憶されている周辺環境情報と、上記認識した周辺環境の照合処理を行う(ステップS704)。
 具体的には、カメラ111と、近距離測距センサ112と、中距離測距センサ113と、遠距離測距センサ114で認識した物体や白線などの対象物の位置と、周辺環境記憶部52に記憶されている当該対象物の位置との差分が所定値以下であるか否かを判定する。
 ステップS704において、記憶情報照合部103が、認識した周辺環境情報が、周辺環境記憶部102に記憶されている情報と合致したと判定した場合、車両制御装置100は、自動走行が可能な状態に遷移し、乗員による自動走行開始操作の有無を判定する(ステップS705)。
 自動走行開始操作が検知されなかった場合、車両制御装置100は、記憶開始位置から所定距離以上走行したか否かを判定する(ステップS706)。所定距離以上走行した場合は処理を終了し、そうでない場合はステップS705に戻る。
 自動走行開始操作を検知した場合、車両制御装置100は、車両制御部107で操舵及び加減速制御を行い(ステップS707)、自動走行を行う。
 また、車両制御装置100は、自動走行の開始を契機として、カメラ111の補正用情報を収集し、補正の要否を判定する。その結果、補正が必要と判定された場合は、補正処理を行う(ステップS708)。なお、ステップS708の詳細な処理については後述する。
 車両制御装置100は、ステップS708が終了すると、車両200が駐車開始地点303に到達したか否かを判定する(ステップS709)。駐車開始地点303に到達していない場合は、ステップS707に戻って上記処理を繰り返す。
 駐車開始地点303に到達したら、HMI140は、操作部143による自動走行を再開する操作を待ち受ける(ステップS710)。
 操作部143は、乗員全員が車両200から降車した場合でも操作できるよう、車両200の遠隔操作が可能な端末上に表示される。
 ステップS710において、自動走行を再開する操作を検知した場合、車両制御装置100は、車両制御部107で操舵及び加減速制御を行い(ステップS711)、自動駐車を行う。
 このとき、カメラ111の位置や指向方向の誤差が補正された状態となっているため、カメラ111による認識精度が改善される。
 また、車両制御装置100は、目標駐車位置301に到達したか否か判定し(ステップS712)、到達したと判定した場合には操舵及び加減速制御を終了し(ステップS713)、処理を完了する。
 ここで、上記ステップS708の処理の詳細について説明する。
 図8は、車両制御装置100の補正処理部106により実行される、ステップS708の詳細な処理を示すフローチャートである。
 車両制御装置100の補正処理部106は、自車位置情報を取得し(ステップS801)、経路記憶部104に記憶されている補正情報収集区間の終点を通過済みであるか否かを判定する(ステップS802)。
 補正情報収集区間の終点を通過済みでないと判定された場合、車両制御装置100は、補正情報収集区間の始点を通過済みであるか否かを判定する(ステップS803)。
 補正情報収集区間の始点を通過済みであると判定された場合、加減速制御部109は、補正情報収集区間の抽出後に生成した車速プロファイルに従い、所定の車速を保持するよう、加減速制御を行う(ステップS804)。
 補正情報を収集するために最適な走行条件となるよう、補正処理部106は、直進(操舵角が中立)、予め設定した車速を加減速制御部109へ指令する。
 また、補正処理部106は、カメラ111(前方カメラ111A)により撮影された画像を、補正用画像系列として保存し(ステップS805)、図7のステップS708の処理を終了する。
 ステップS803において、補正情報収集区間の始点を通過済みでないと判定された場合、車両制御装置100は、ステップS708の処理を終了する。
 ステップS802において、補正情報収集区間の終点を通過済みであると判定された場合、車両制御装置100は、補正処理の要否判定を実施済みであるか否かを判定する(ステップS806)。補正処理の要否判定が実施済みでないと判定された場合、補正処理部106は、保存した補正用画像系列を用いて、補正処理の要否を判定する(ステップS807)。
 具体的には、補正用画像系列の各フレームに写っている路面標示から複数の特徴点を検出し、それらの軌跡を俯瞰画像上に投影する。
 図9A~図9Eに、カメラの位置や指向方向に設計値からの誤差がある場合の、俯瞰画像上の特徴点の軌跡を模式的に示す。
 車両200が直進していて、かつ前方カメラ111Aの位置及び指向方向が設計値通りの理想的な状態の場合、前記俯瞰画像上での全ての特徴点の軌跡90Aが、図9Aに示すように、車両200の進行方向に平行な直線となる。
 これに対し、車体にピッチ角が生じている場合、図9Bに示すように、複数の特徴点の軌跡90Bは車両200の進行方向と平行にならない。
 また、車体にヨー角が生じている場合、図9Cに示すように、特徴点の軌跡90Cが車両200の進行方向に平行にならない。
 車体にロール角が生じている場合、図9Dに示すように、複数の特徴点の軌跡90Dの長さが等しくならない。
 車体の沈み込みなどにより、高さ方向のずれが生じている場合、図9Eに示すように、特徴点の追跡結果90Eの長さと、車両の走行距離91Eが一致しない。
 そこで、補正処理部106は、理想的な状態における特徴点の軌跡90Aと、実際に撮影された画像から得られる特徴点の軌跡との差分を比較し、その差分が閾値以下であれば、誤差が許容値以内と判定し、補正処理は不要と判定する。
 一方、補正処理部106は、理想的な状態における特徴点の軌跡90Aと、実際に撮影された画像から得られる特徴点の軌跡との差分を比較し、その差分が閾値を超えていれば、誤差が許容値を超えたと判定し、補正処理が必要と判定する。
 補正処理部106は、ステップS807において、補正処理が必要と判定された場合には、撮影された補正用画像から、理想的な状態における特徴点の軌跡が得られるような、カメラの位置及び指向方向のずれ量を推定し(ステップS808)、得られた値を、画像認識処理に適用する(ステップS809)。
 ステップS807において、補正処理が不要と判定された場合、車両制御装置100は、ステップS708の処理を終了する。
 ステップS806において、補正処理の要否判定が実施済みと判定された場合、車両制御装置100は、ステップS708の処理を終了する。
 本発明の実施例1によれば、自動駐車開始直前に、自動走行を行いながら取得した補正用情報を用いて、前方カメラ111Aの位置や指向方向の誤差を補正することで、自動駐車時のカメラによる認識精度が改善され、駐車位置の精度を高めることができる。
 なお、上記実施例1では、前方カメラ111Aについて補正処理を行う例を示したが、側方カメラ111B、111Cや後方カメラ111Dについても同様の処理を行うことができる。
 本発明の実施例2を、以下で説明する。
 実施例2では、事前に記憶した走行経路310を用いて、駐車を含めた自動走行を行う運転支援システムにおいて、タイヤ(車輪203)の周長の誤差を補正するための情報を自動走行中に自動的に取得し、特許文献2に示す方法に基づいた補正処理を行う。
 本発明の実施例2の運転支援システムの構成は、実施例1と同一であるが、補正用情報収集区間抽出部105及び補正処理部106の処理が、実施例1とは異なる。
 以下、実施例1と同一の構成要素や処理については、実施例1と同じ符号を付し、その詳細な説明は割愛する。
 図10に、本発明の実施例2における、補正用情報収集区間抽出部105の処理の一例をフローチャートで示す。
 補正用情報収集区間抽出部105は、経路点をi=0として(ステップS1001)、経路記憶部104に記憶されている、経路点(i)の情報を参照し(ステップS1002)、経路点iが直線区間の開始点であるか否かを判定する(ステップS1003)。
 ステップS1003において、補正用情報収集区間抽出部105は、経路点(i)が直線区間の開始点である場合は、経路記憶部104に記憶されている、経路点(i+1)の情報を参照する(ステップS1004)。ここで、経路点(i+1)は、経路点(i)を開始点とする直線区間の終点となる。
 次に、補正用情報収集区間抽出部105は、周辺環境記憶部102に記憶されている周辺環境情報を参照し、経路点(i)と経路点(i+1)の間の区間に、参照用の路面標示の有無を判定する(ステップS1005)。
 ステップS1005において、補正用情報収集区間抽出部105は、路面標示が存在する場合は、経路点(i)から前記路面標示までの距離を算出し、その値が所定距離より大きいか否かを判定する(ステップS1006)。ここで、所定距離とは、車両全長とする。
 ステップS1005において、路面標示が存在しない場合は、ステップS1010に進む。
 ステップS1006において、補正用情報収集区間抽出部105は、経路点(i)から前記路面標示までの距離が、前記所定距離より大きい場合は、前記路面標示から経路点(i+1)までの距離を算出し、その値が所定距離より大きいか否かを判定する(ステップS1007)。
 ステップS1006において、経路点(i)から前記路面標示までの距離が、前記所定距離より小さい場合は、ステップS1010に進む。
 ステップS1007において、補正用情報収集区間抽出部105は、前記路面標示から経路点(i+1)までの距離が、前記所定距離より大きい場合は、前記路面標示から前記所定距離だけ後方に位置する地点を、補正情報収集区間の始点として経路記憶部104に記憶し(ステップS1008)、前記路面標示から前記所定距離だけ前方に位置する地点を、補正情報収集区間の終点として経路記憶部104に記憶する(ステップS1009)。
 次に、補正用情報収集区間抽出部105は、経路点(i+1)が最終の経路点であるか否かを判定する(ステップS1010)。
 経路点(i+1)が最終の経路点である場合には、補正用情報収集区間抽出部105は処理を終了し、そうでない場合は、iに2を加算して(ステップS1011)、ステップS1002に戻る。
 ステップS1007において、前記路面標示から経路点(i+1)までの距離が、前記所定距離より小さい場合は、ステップS1010に進む。
 ステップS1003において、経路点(i)が直線区間の開始点でない場合は、補正用情報収集区間抽出部105は、経路点(i)が最終の経路点であるか否かを判定する(ステップS1012)。
 経路点(i)が自動走行経路の終点である場合は、処理を終了し、そうでない場合は、iに1を加算して(ステップS1013)、ステップS1002に戻って上記の処理を繰り返す。
 次に、本発明の実施例2における、補正処理部106の処理を説明する。
 補正処理部106の処理は、図8に示すフローチャートの通りであるが、ステップS805において取得する補正用情報の内容と、ステップS807以降の、具体的な補正処理の内容が、実施例1と異なる。
 ステップS805において、補正処理部106は、前方カメラ111A及び後方カメラ111Dにより撮影された画像、及び画像の撮影時点の車輪速パルスカウント値を、補正用情報として保存する。
 ステップS807において、補正処理部106は、補正用情報における各フレームの前方カメラ111Aの画像及び後方カメラ111Dの画像に写っている路面標示から特徴点を検出し、それらの車両200との相対位置を算出する。
 前方カメラ111Aの画像もしくは後方カメラ111Dの画像の複数のフレームに、特徴点を含む前記路面標示が写っている場合には、車両200との相対位置が最も近い画像を選択する。
 補正処理部106は、上記にて算出された相対位置と自車全長を用いて、前方カメラ111Aの画像の撮影と後方カメラ111Dの画像の撮影の間に車両が移動した距離を算出する。この値を、前方カメラ111Aの画像と後方カメラ111Dの画像の撮影時点の車輪速パルスカウント値の差分で除算すれば、1パルスカウントあたりの移動距離を算出することができる。
 本発明の実施例2によれば、自動駐車開始直前に、自動走行を行いながら取得した補正用情報を用いて、タイヤの周長の誤差を補正することで、自動駐車時のデッドレコニングによる自車位置推定が改善され、駐車位置の精度を高めることができる。
 本発明の実施例3を、以下で説明する。
 実施例3では、実施例1と同じく、事前に記憶した走行経路310を用いて、駐車を含めた自動走行を行う運転支援システムにおいて、カメラ111の位置や指向方向の誤差を補正するための情報を自動走行中に自動的に取得し、補正処理を行う。
 ただし、前記カメラ111の誤差の補正に必要な情報を収集する区間を抽出する処理を、車両200に搭載された車両制御装置100ではなく、車両200と通信可能な計算機1112で実行する点が、実施例1と異なる。
 以下、実施例1と同一の構成要素や処理については、実施例1と同じ符号を付し、その詳細な説明は割愛する。
 図11は、本発明の実施例3における運転支援システムの機能ブロック図であり、図1に対して、車両制御装置100が車両制御装置1100に置き換わり、通信装置1111が追加されている。
 車両制御装置1100は、前記実施例1に示した車両制御装置100から、補正用情報収集区間抽出部105を除いた構成となっている。
 通信装置1111は、携帯電話や無線LANなどの無線通信回線を介して接続された車両外部の計算機1112との間でデータの送受信を行う。
 本実施例において、走行経路及び経路周辺環境を記憶する処理は、実施例1と同じであり、具体的には図4のフローチャートに示す通りである。
 車両制御装置1100は、走行経路310及び経路の周辺環境情報を記憶する処理が完了した後、通信装置1111を介して、記憶した走行経路310及び経路の周辺環境情報を、計算機1112に送信する。
 計算機1112は、受信した走行経路及び経路の周辺環境情報を用いて、補正用情報収集区間を抽出する。
 このときの処理は、実施例1における補正用情報収集区間抽出部105と同じであり、具体的には図6のフローチャートに示す通りである。
 計算機1112は、補正用情報収集区間の抽出が完了すると、抽出された補正用情報収集区間の情報を、車両制御装置1100に送信する。
 車両制御装置1100は、通信装置1111を介して、補正用情報収集区間の情報を受信し、経路記憶部104に記憶する。
 この後の、記憶した周辺環境情報を用いた自動走行の処理は、実施例1と同じである。
 本発明の実施例3によれば、実施例1の効果に加えて、補正用情報収集区間の抽出処理を外部で実行することにより、車両制御装置の処理負荷を削減できる。
 本発明の実施例4を、以下で説明する。
 実施例4では、事前に記憶した走行経路310を用いて、高速道路のETC(Electronic Toll Collection system)ゲートの通過を含めた自動走行を行う運転支援システムにおいて、本発明の方式により、カメラ111の位置や指向方向の誤差を補正するための情報を自動走行中に自動的に取得し、補正処理を行う。
 本発明の実施例4のシステム構成は、実施例1と同一であるが、車両制御装置100の各構成要素の処理の契機や、車両制御部107の処理が、実施例1とは異なる。
 以下、実施例1と同一の構成要素や処理については、実施例1と同じ符号を付し、その詳細な説明は割愛する。
 本発明の実施例4における車両制御装置100は、通常自動走行モードと、記憶済み経路追従自動走行モードと、低速自動走行モードの3つの自動走行モードを有する。
 通常自動走行モードは、地図情報から算出した経路情報を用いて、自動走行を行うモードである。
 記憶済み経路追従自動走行モードは、前記実施例1で示したように、事前に乗員による運転で走行した走行経路310を記憶し、その走行経路310に追従するように自動走行するモードである。
 低速自動走行モードは、記憶済み経路追従自動走行モードと同様に、事前に記憶した走行経路310に追従するが、通常の走行車線より狭い走路を通過するために、他のモードより低い車速で、かつ高い位置精度で自動走行するモードである。
 本発明の実施例4における運転支援システムが想定する利用形態を、図12を用いて説明する。
 図12は、本運転支援システムを有する車両200が、ETCゲート1201を通過する平面図を示している。
 乗員が自身で車両200を運転しているとき、記憶開始地点1202にて、周辺環境情報の記憶開始を指示すると、車両制御装置100は、以降の車両200の走行経路1205、及び前記走行経路1205の周辺環境情報を記憶する。
 また、乗員が、自身の運転操作によりETCゲート1201を通過するときに、ETCゲート1201の始点位置の記憶を指示すると、車両制御装置100は、ETCゲート始点1203の位置を記憶する。
 さらに、乗員が、ETCゲート1201を通過した後に、ETCゲート1201の終点位置の記憶を指示すると、車両制御装置100は、ETCゲート終点1204の位置を記憶する。
 上記情報の記憶が完了した状態で、次に車両200が自動走行によりETCゲート1201を通過するとき、記憶開始地点1202に到達すると、車両制御装置100は、自動的に記憶済み経路追従自動走行モードに切り替え、記憶した走行経路1205に従って操舵及び車速を制御する。これにより、車両200は、記憶した走行経路1205に追従しながら自動走行を行う。
 さらに、上記自動走行により、ETCゲート始点1203に到達すると、車両制御装置100は、自動的に低速自動走行モードに切り替え、ETCゲート1201内を自動走行する。
 その後、ETCゲート終点1204に到達すると、車両制御装置100は、通常自動走行モードに切り替え、自動走行を継続する。
 本実施例において、走行経路及び経路周辺環境を記憶する処理は、実施例1と同じであり、具体的には図4のフローチャートに示す通りである。
 また、補正用情報を収集する区間を抽出する処理は、実施例1と同じであり、具体的には図6のフローチャートに示す通りである。
 図13は、記憶した周辺環境情報を用いてETCゲート1201を自動走行する際、車両制御装置100により実行される処理のフローチャートである。
 車両制御装置100は、周辺環境情報及び経路情報が記憶された状態で、車両200が通常自動走行モードで走行しているとき、位置検出器116のGNSS情報を使用し、自車の大まかな位置を取得する(ステップS1301)。
 次に、車両制御装置100は、ステップS1301にて取得した自車位置と記憶開始地点1202の位置を比較し、車両200が記憶開始地点1202に接近したか否かを判定する(ステップS1302)。記憶開始地点1202に接近していないと判定された場合は、ステップS1301に戻る。
 ステップS1302において、記憶開始地点1202に接近したと判定された場合、車両制御装置100は、外界センサによって周辺環境を認識し(ステップS1303)、記憶情報照合部103にて、周辺環境記憶部102に記憶されている周辺環境情報との照合処理を行う(ステップS1304)。ステップS1304の具体的な処理は、実施例1におけるステップS704と同じである。
 ステップS1304において、記憶情報照合部103が、認識した周辺環境情報が、周辺環境記憶部102に記憶されている周辺環境情報と合致したと判定した場合、車両制御装置100は、記憶済み経路追従自動走行モードに遷移し(ステップS1305)、記憶した走行経路1205に基づいた操舵及び加減速制御を行う(ステップS1306)。
 また、車両制御装置100は、記憶済み経路追従自動走行モードへの遷移を契機として、カメラ111の補正用情報を収集し、補正の要否を判定する。その結果、補正が必要と判定された場合は、補正処理を行う(ステップS1307)。ステップS1307の具体的な処理は、実施例1におけるステップS708と同じである。
 車両制御装置100は、ステップS1307で補正処理が完了すると、車両200がETCゲート始点1203に到達したか否かを判定する(ステップS1308)。
 車両制御装置100は、ETCゲート始点1203に到達していないと判定した場合は、ステップS1306に戻る。
 ステップS1308において、ETCゲート始点1203に到達したと判定した場合、車両制御装置100は、低速自動走行モードに遷移し(ステップS1309)、記憶した走行経路1205に基づいて低速走行するための操舵及び加減速制御を行う(ステップS1310)。
 このとき、カメラ111の位置や指向方向の誤差が補正された状態となっているため、カメラ111による認識精度が改善される。
 また、車両制御装置100は、ETCゲート終点1204に到達したか否か判定し(ステップS1311)、到達したと判定した場合には通常自動走行モードに遷移する(ステップS1312)。到達していないと判定された場合は、ステップS1310に戻る。
 本発明の実施例4によれば、ETCゲート1201に到達する直前に、自動走行を行いながら取得した補正用情報を用いて、カメラ111の位置や指向方向の誤差を補正することで、自動走行によるETCゲート1201の通過時のカメラ111による認識精度が改善され、車両200の誘導精度を高めることができる。
 <結び>
 以上のように、上記実施例1~4の車両制御装置100は、以下のような構成とすることができる。
 (1)プロセッサ(1)とメモリ(2)を有する車両制御装置(100)が、車両を制御する車両制御方法であって、前記車両制御装置(100)が、所定地点までの経路情報を記憶するステップ(経路記憶部104)と、前記車両制御装置(100)が、前記経路情報に基づいて自動走行を行うステップ(車両制御部107)と、を含み、前記記憶するステップ(104)では、外界センサに対する外乱補正を行うための情報を収集する区間を記憶し(補正用情報収集区間抽出部105)、前記自動走行を行うステップ(107)では、前記区間の走行時に収集した情報を用いて外界センサの外乱補正を実施する(補正処理部106)。
 上記構成により、自動駐車の開始直前に外界センサの誤差補正を実施することで、補正後の走行に伴う誤差の蓄積を最小限に抑えることができるため、自動走行して駐車開始地点に停止するときの位置精度が向上し、最終的な駐車位置の精度向上に寄与する。
 (2)上記(1)に記載の車両制御方法であって、前記自動走行を行うステップ(107)では、前記収集した情報に基づき前記所定地点までに外界センサの外乱補正の要否を判断し(106)、外乱補正要と判断した場合に前記収集した情報を用いて前記所定地点の到達前に外界センサの外乱補正を実施する(106)。
 上記構成により、自動駐車の開始直前に外界センサの誤差補正を実施することで、補正後の走行に伴う誤差の蓄積を最小限に抑えることができるため、自動走行して駐車開始地点に停止するときの位置精度が向上し、最終的な駐車位置の精度向上に寄与する。
 (3)上記(1)又は請求項2に記載の車両制御方法であって、前記記憶するステップでは、運転者の操作により前記所定地点までの経路を記憶する。
 上記構成により、車両制御装置100は、日常的に利用する経路を通って保管場所まで走行し、目標駐車位置301で停止する経路を記憶することができる。
 (4)上記(1)乃至(3)のいずれかに記載の車両制御方法であって、前記自動走行を行うステップ(107)では、前記外乱補正を行うための情報を収集する区間を通過する際に、前記情報の収集に適した走行条件(105、S804)で走行する。
 上記構成により、補正処理部106は、情報の収集に適した走行条件として、直進(操舵角が中立)かつ、予め設定した車速を加減速制御部109へ指令することで、カメラ111(前方カメラ111A)で撮影する条件を最適にすることができる。
 (5)上記(1)乃至(4)のいずれかに記載の車両制御方法であって、前記所定地点は、車両の乗員が降車する地点である。
 上記構成により、駐車開始地点303を車両の乗員が降車する地点とすることで、目標駐車位置301までを自動駐車で走行させることができる。
 (6)上記(5)に記載の車両制御方法であって、前記記憶するステップでは、前記所定地点から終点である駐車位置までの経路も合わせて記憶し、前記自動走行を行うステップでは、前記所定地点から終点まで運転者が乗車していない状態で自動走行を行う。
 上記構成により、車両制御装置100は、乗員が運転した所望の駐車位置を目標駐車位置301として記憶することができる。
 (7)上記(1)乃至(4)のいずれかに記載の車両制御方法であって、前記経路情報は、ETCゲート(1201)を通過する経路(1205)であり、前記所定地点は、ETCゲートの始点(1203)であり、前記記憶するステップでは、ETCゲート(1201)の始点(1203)から終点(1204)までの経路(1205)も合わせて記憶し、前記自動走行を行うステップ(107)は、前記ETCゲートの終点(1204)に到達した後は外界情報に基づき生成した経路情報に基づき自動走行を行う。
 上記構成により、ETCゲート1201に到達する直前に、自動走行を行いながら取得した補正用情報を用いて、カメラ111の位置や指向方向の誤差を補正することで、自動走行によるETCゲート1201の通過時のカメラ111による認識精度が改善され、車両200の誘導精度を高めることができる。
 なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。
例えば、上記した実施例は本発明を分かりやすく説明するために詳細に記載したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加、削除、又は置換のいずれもが、単独で、又は組み合わせても適用可能である。
 また、上記の各構成、機能、処理部、及び処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、及び機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。
 また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
 <補足>
 特許請求の範囲に記載した以外の本発明の観点の代表的なものとして、次のものがあげられる。
 <5>
 特許請求の範囲の請求項4に記載の車両制御方法であって、前記外乱は、タイヤ径若しくはタイヤ周長の変化であることを特徴とする車両制御方法。
 <6>
 特許請求の範囲の請求項4に記載の車両制御方法であって、前記外乱は、カメラの指向方向の変化であることを特徴とする車両制御方法。
 <7>
 特許請求の範囲の請求項4に記載の車両制御方法であって、前記経路を記憶するステップでは、複数地点での外界センシング結果から、前記外乱補正を行うための情報を収集する区間を記憶することを特徴とする車両制御方法。
 <8>
 特許請求の範囲の請求項4に記載の車両制御方法であって、前記外乱補正を行うための情報を収集する区間は、路面標示を含む所定以上の長さの直線区間であることを特徴とする車両制御方法。
 <8>
 特許請求の範囲の請求項8に記載の車両制御方法であって、前記外乱補正を行うための情報を収集する区間として、前記直線区間の始点位置を記憶することを特徴とする車両制御方法。
 <12>
 特許請求の範囲の請求項1乃至請求項11に記載の車両制御方法であって、前記外乱補正を行うための情報を収集する区間は、前記車両に搭載された車両制御手段により抽出されることを特徴とする車両制御方法。
 <13>
 特許請求の範囲の請求項1乃至請求項11に記載の車両制御方法であって、前記外乱補正を行うための情報を収集する区間は、前記車両とは別個の場所に設置され、前記車両と通信可能な計算機により抽出されることを特徴とする車両制御方法。
100 車両制御装置
101 自車位置推定部
102 周辺環境記憶部
103 記憶情報照合部
104 経路記憶部
105 補正用情報収集区間抽出部
106 補正処理部
107 車両制御部
108 操舵制御部
109 加減速制御部
111 カメラ
112 近距離測距センサ
113 中距離測距センサ
114 遠距離測距センサ
115 車輪速センサ
116 位置検出器
130 各種センサ/アクチュエータECU
140 HMI
141 表示部
142 音声出力部
143 操作部
200 車両
201 走行動力源
202 変速機
203 車輪
204 ブレーキ装置
205 パワーステアリング装置
301 目標駐車位置
302 記憶開始地点
303 駐車開始地点
310 経路
321 電柱
322 信号機
323 横断歩道
324 標識
325 路面標示
326 白線

Claims (14)

  1.  プロセッサとメモリを有する車両制御装置が、車両を制御する車両制御方法であって、
     前記車両制御装置が、所定地点までの経路情報を記憶するステップと、
     前記車両制御装置が、前記経路情報に基づいて自動走行を行うステップと、を含み、
     前記記憶するステップでは、
     外界センサに対する外乱補正を行うための情報を収集する区間を記憶し、
     前記自動走行を行うステップでは、
     前記区間の走行時に収集した情報を用いて外界センサの外乱補正を実施することを特徴とする車両制御方法。
  2.  請求項1に記載の車両制御方法であって、
     前記自動走行を行うステップでは、
     前記収集した情報に基づき前記所定地点までに外界センサの外乱補正の要否を判断し、
    外乱補正要と判断した場合に前記収集した情報を用いて前記所定地点の到達前に外界センサの外乱補正を実施することを特徴とする車両制御方法。
  3.  請求項1又は請求項2に記載の車両制御方法であって、
     前記記憶するステップでは、
     運転者の操作により前記所定地点までの経路を記憶することを特徴とする車両制御方法。
  4.  請求項1乃至請求項3のいずれかに記載の車両制御方法であって、
     前記自動走行を行うステップでは、
     前記外乱補正を行うための情報を収集する区間を通過する際に、前記情報の収集に適した走行条件で走行することを特徴とする車両制御方法。
  5.  請求項1乃至請求項4のいずれかに記載の車両制御方法であって、
     前記所定地点は、車両の乗員が降車する地点であることを特徴とする車両制御方法。
  6.  請求項5に記載の車両制御方法であって、
     前記記憶するステップでは、
     前記所定地点から終点である駐車位置までの経路も合わせて記憶し、
     前記自動走行を行うステップでは、
     前記所定地点から終点まで運転者が乗車していない状態で自動走行を行うことを特徴とする車両制御方法。
  7.  請求項1乃至請求項4のいずれかに記載の車両制御方法であって、
     前記経路情報は、ETCゲートを通過する経路であり、
     前記所定地点は、ETCゲートの始点であり、
     前記記憶するステップでは、
     ETCゲートの始点から終点までの経路も合わせて記憶し、
     前記自動走行を行うステップは、
     前記ETCゲートの終点に到達した後は外界情報に基づき生成した経路情報に基づき自動走行を行うことを特徴とする車両制御方法。
  8.  プロセッサとメモリを有する車両制御装置であって、
     所定地点までの経路情報を記憶する記憶部と、
     前記経路情報に基づいて車両を制御する車両制御部と、を有し、
     前記記憶部は、外界センサに対する外乱補正を行うための情報を収集する区間を記憶し、
     前記区間の走行時に収集した情報を用いて外界センサの外乱補正を実施する補正処理部と、を有することを特徴とする車両制御装置。
  9.  請求項8に記載の車両制御装置であって、
     前記収集した情報に基づき、前記記憶した経路上の所定地点到達までに外界センサの外乱補正の要否を判断する判断部と、を有し、
     前記補正処理部は、前記判断部が要と判断した場合に前記外乱補正を実施することを特徴とする車両制御装置。
  10.  請求項8又は請求項9に記載の車両制御装置であって、
     前記記憶部は、乗員による運転で走行した際の経路情報を記憶することを特徴とする車両制御装置。
  11.  請求項10に記載の車両制御装置であって、
     前記車両制御部は、前記外乱補正を行うための情報を収集する区間を通過する際に、前記情報の収集に適した走行条件で走行するよう車両を制御することを特徴とする車両制御装置。
  12.  請求項8乃至請求項11のいずれかに記載の車両制御装置であって、
     前記所定地点は、車両の乗員が降車する地点であることを特徴とする請求項8乃至11のいずれかに記載の車両制御装置。
  13.  請求項8乃至請求項11のいずれかに記載の車両制御装置であって、
     前記所定地点は、駐車位置であり、
     前記記憶部は、車両の乗員が降車する降車地点も合わせて記憶しており、
     前記車両制御部は、前記降車地点から駐車位置まで運転者が乗車していない状態で自動走行を行うよう車両を制御することを特徴とする車両制御装置。
  14.  請求項8乃至請求項11のいずれかに記載の車両制御装置であって、
     前記経路情報は、ETCゲートを通過する経路であり、
     前記所定地点は、ETCゲートの始点であり、
     前記記憶するステップでは、ETCゲートの始点から終点までの経路も合わせて記憶し、
     前記車両制御部は、前記ETCゲートの終点に到達した後は外界情報に基づき生成した経路情報に基づき自動走行を行うことを特徴とする車両制御装置。
PCT/JP2020/030841 2019-08-20 2020-08-14 車両制御方法及び車両制御装置 WO2021033632A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021540757A JPWO2021033632A1 (ja) 2019-08-20 2020-08-14
US17/611,333 US20220196424A1 (en) 2019-08-20 2020-08-14 Vehicle control method and vehicle control device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019150517 2019-08-20
JP2019-150517 2019-08-20

Publications (1)

Publication Number Publication Date
WO2021033632A1 true WO2021033632A1 (ja) 2021-02-25

Family

ID=74660848

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/030841 WO2021033632A1 (ja) 2019-08-20 2020-08-14 車両制御方法及び車両制御装置

Country Status (3)

Country Link
US (1) US20220196424A1 (ja)
JP (1) JPWO2021033632A1 (ja)
WO (1) WO2021033632A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114407933A (zh) * 2022-02-24 2022-04-29 东风汽车有限公司 自动驾驶的路面干扰消除方法、装置、设备及存储介质
WO2022219962A1 (ja) * 2021-04-16 2022-10-20 日立Astemo株式会社 車両管制装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022142175A (ja) * 2021-03-16 2022-09-30 トヨタ自動車株式会社 移動経路算出装置、移動体制御システム、移動経路算出方法、及び、移動経路算出プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06286449A (ja) * 1993-03-31 1994-10-11 Mazda Motor Corp アクティブサスペンション装置
JP2001091217A (ja) * 1999-09-24 2001-04-06 Honda Motor Co Ltd 物体認識装置
JP2005028887A (ja) * 2003-07-07 2005-02-03 Fuji Heavy Ind Ltd 路面摩擦係数推定装置および路面摩擦係数推定方法
JP2011239349A (ja) * 2010-05-13 2011-11-24 Fujitsu Ltd 画像処理装置および画像処理プログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5915480B2 (ja) * 2012-09-26 2016-05-11 トヨタ自動車株式会社 自車位置校正装置および自車位置校正方法
US9008961B2 (en) * 2012-11-30 2015-04-14 Google Inc. Determining and displaying auto drive lanes in an autonomous vehicle
US10139824B2 (en) * 2014-04-30 2018-11-27 Mico Latta Inc. Automatic driving vehicle and program for automatic driving vehicle
JP6310565B2 (ja) * 2014-09-11 2018-04-11 本田技研工業株式会社 運転支援装置
US9721397B2 (en) * 2015-08-11 2017-08-01 International Business Machines Corporation Automatic toll booth interaction with self-driving vehicles
JP6834685B2 (ja) * 2017-03-29 2021-02-24 アイシン精機株式会社 車両誘導装置、方法及びプログラム
JP7132037B2 (ja) * 2018-08-29 2022-09-06 フォルシアクラリオン・エレクトロニクス株式会社 車載処理装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06286449A (ja) * 1993-03-31 1994-10-11 Mazda Motor Corp アクティブサスペンション装置
JP2001091217A (ja) * 1999-09-24 2001-04-06 Honda Motor Co Ltd 物体認識装置
JP2005028887A (ja) * 2003-07-07 2005-02-03 Fuji Heavy Ind Ltd 路面摩擦係数推定装置および路面摩擦係数推定方法
JP2011239349A (ja) * 2010-05-13 2011-11-24 Fujitsu Ltd 画像処理装置および画像処理プログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022219962A1 (ja) * 2021-04-16 2022-10-20 日立Astemo株式会社 車両管制装置
CN114407933A (zh) * 2022-02-24 2022-04-29 东风汽车有限公司 自动驾驶的路面干扰消除方法、装置、设备及存储介质
CN114407933B (zh) * 2022-02-24 2024-04-19 东风汽车有限公司 自动驾驶的路面干扰消除方法、装置、设备及存储介质

Also Published As

Publication number Publication date
JPWO2021033632A1 (ja) 2021-02-25
US20220196424A1 (en) 2022-06-23

Similar Documents

Publication Publication Date Title
US10019017B2 (en) Autonomous driving system
US9796416B2 (en) Automated driving apparatus and automated driving system
US9914463B2 (en) Autonomous driving device
CN108688660B (zh) 运行范围确定装置
US9896098B2 (en) Vehicle travel control device
WO2021033632A1 (ja) 車両制御方法及び車両制御装置
US11505178B2 (en) Vehicle control device, vehicle control method, and storage medium
US10509412B2 (en) Movable body control system
CN112046501A (zh) 自动驾驶装置和方法
CN105270287A (zh) 车辆驾驶辅助装置及具有该车辆驾驶辅助装置的车辆
CN109661338B (zh) 障碍物的判定方法、停车辅助方法、出库辅助方法及障碍物判定装置
JP7225400B2 (ja) 車両制御装置
US20190347492A1 (en) Vehicle control device
CN112309157B (zh) 图像显示装置
CN114126954A (zh) 用于自动化地停泊车辆的方法
JP7152339B2 (ja) 走行制御装置、走行制御方法、およびプログラム
US20200298874A1 (en) Vehicle control device, vehicle control method, and storage medium
CN111936364B (zh) 停车辅助装置
US11513527B2 (en) Vehicle control device, vehicle control method, and storage medium
CN111752270A (zh) 车辆控制系统、车辆控制方法及存储介质
CN112061113B (zh) 车辆控制装置、车辆控制方法及存储介质
CN111619555A (zh) 车辆控制装置、车辆控制方法及存储介质
US11932283B2 (en) Vehicle control device, vehicle control method, and storage medium
US20200282978A1 (en) Vehicle control system, vehicle control method, and storage medium
EP4046883B1 (en) Automated valet parking system, control method of automated valet parking system, and autonomous driving vehicle

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20855271

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021540757

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20855271

Country of ref document: EP

Kind code of ref document: A1