WO2021246004A1 - 車両制御装置及び車両制御方法 - Google Patents

車両制御装置及び車両制御方法 Download PDF

Info

Publication number
WO2021246004A1
WO2021246004A1 PCT/JP2021/007423 JP2021007423W WO2021246004A1 WO 2021246004 A1 WO2021246004 A1 WO 2021246004A1 JP 2021007423 W JP2021007423 W JP 2021007423W WO 2021246004 A1 WO2021246004 A1 WO 2021246004A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
map information
vehicle control
control device
unit
Prior art date
Application number
PCT/JP2021/007423
Other languages
English (en)
French (fr)
Inventor
正人 今井
直之 田代
健人 緒方
智 大久保
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Publication of WO2021246004A1 publication Critical patent/WO2021246004A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram

Definitions

  • the present invention relates to a vehicle control device that generates map information from the surrounding environment of the own vehicle.
  • high-precision maps are also required for such automatic driving.
  • the high-precision map contains more detailed and accurate information than the map of the conventional navigation device, and includes, for example, the type and position of the lane boundary line, the type and position of road markings and signs, and the position of a signal.
  • high-precision maps are created with priority given to highways, metropolitan areas, and other roads and areas with a large population, automatic driving is performed in areas with a small population and alleys around private residences. Difficult to meet needs.
  • Japanese Patent Application Laid-Open No. 2019-197453 describes a collecting unit that collects route information indicating a route traveled by a vehicle equipped with a sensor and sensor information collected by the sensor while traveling along the route in association with identification information. Based on the route information and the sensor information collected by the collection unit, the generation unit generates the route indicated by the route information as map information for the vehicle having the autonomous travel function to autonomously travel, and the generation unit.
  • the map information includes a providing unit that provides the generated map information to the target specified by the identification information, and the map information includes information about the target specified by the identification information.
  • the information processing apparatus is described (see claim 1).
  • JP-A-2019-197453 The technique disclosed in JP-A-2019-197453 is to travel in a place where there is no high-precision map, collect route information and sensor information at that time, and generate a high-precision map from these information. , It is possible to drive on the road where the driver wants to carry out automatic driving, generate a high-precision map, and enable automatic driving. However, it is difficult to collect all the information necessary for a high-precision map in one run, and it is necessary to run the same road multiple times. Therefore, there is a problem that the operation is troublesome because it is necessary to set whether or not to collect information every time the driver travels on the road where he / she wants to carry out automatic driving.
  • the present invention has been made in view of the above-mentioned circumstances, and an object of the present invention is to generate a high-precision map without causing trouble to the driver in order to enable automatic driving in a place where there is no high-precision map. ..
  • a typical example of the invention disclosed in the present application is as follows. That is, a vehicle control device mounted on a vehicle, a peripheral environment recognition unit that recognizes the surrounding environment of the own vehicle and outputs recognition information, and a self that estimates the position of the own vehicle and outputs the position information of the own vehicle.
  • a vehicle position estimation unit a map information generation unit that generates map information based on the recognition information and the own vehicle position information, a map information storage unit that stores the map information, and a determination to start generation of the map information.
  • the map information generation start determination unit has a map information generation start determination unit, and the map information generation start determination unit generates the map information based on the fact that the map information generation start determination unit detects the passage of a preset arbitrary point. It is characterized by starting.
  • FIGS. 1 and 2 are schematic configuration diagrams of a vehicle control device according to the first embodiment of the present invention.
  • the control device 100a exemplified in FIGS. 1 and 2 is a computer that controls the own vehicle, and by executing a program stored in a storage medium (not shown), the surrounding environment recognition unit 1 and the own vehicle position estimation unit are executed. 2. It functions as a map information generation unit 3, a map information generation start / end determination unit 4, a map information storage unit 5, a user setting input unit 6, an HMI control unit 7, a traveling track generation unit 8, and a vehicle control unit 9. It should be noted that the reason why the configurations are described separately in FIGS. 1 and 2 is that different operations are performed in the two operation modes (during map learning and driving support) described in the flowchart of FIG.
  • the control device 100a includes a steering device 111, a drive device 112, a braking device 113, and a transmission device 114 of the own vehicle, an external environment recognition device 101, an absolute position measurement device 102, a sound generator 115, and a display provided in the own vehicle. It is connected to the device 116. Further, the control device 100a is connected to a transmission line such as a CAN (not shown) or a dedicated line of the own vehicle, and vehicle information such as the vehicle speed, steering angle, and shift position of the own vehicle via these transmission lines. And user operation information such as switch input and touch panel input are input.
  • a transmission line such as a CAN (not shown) or a dedicated line of the own vehicle
  • vehicle information such as the vehicle speed, steering angle, and shift position of the own vehicle via these transmission lines.
  • user operation information such as switch input and touch panel input are input.
  • the external environment recognition device 101 is a device that acquires information on the surrounding environment of the own vehicle, and is, for example, four in-vehicle cameras that capture the surrounding environment of the front, rear, right side, and left side of the own vehicle, respectively. ..
  • the image obtained by the in-vehicle camera is output as analog data or A / D converted to the control device 100a via a transmission line such as a dedicated line.
  • a stereo camera can be used as another in-vehicle camera.
  • a radar that measures the distance to an object using millimeter waves or laser light
  • a sonar that measures the distance to an object using ultrasonic waves. Etc. can be used.
  • These devices such as an in-vehicle camera output information such as the distance to the detected object and its direction to the control device 100a via a transmission line such as a dedicated line.
  • the absolute position measuring device 102 is a device that acquires absolute position information on the map of the own vehicle, and is, for example, a GNSS (satellite positioning system) such as GPS or GLONASS.
  • the position information obtained by GNSS is output to the control device 100a via a transmission line such as CAN or a dedicated line.
  • the position information of the own vehicle may be acquired by using road-to-vehicle communication or the like.
  • the steering device 111 is composed of an electric power steering, a hydraulic power steering, etc. that can control the steering angle by an electric or hydraulic actuator or the like by an external drive command.
  • the drive device 112 is composed of an engine system that can control engine torque with an electric throttle or the like by an external drive command, an electric power train system that can control a driving force of a motor or the like by an external drive command, and the like.
  • the braking device 113 is composed of an electric brake, a hydraulic brake, or the like that can control the braking force by an electric or hydraulic actuator or the like by an external braking command.
  • the transmission 114 is composed of a transmission or the like that can switch between forward and reverse with an electric or hydraulic actuator or the like in response to a shift command from the outside.
  • the sound generator 115 is composed of a speaker or the like, and functions as an information notification unit that outputs an alarm, voice guidance, or the like to the driver.
  • the display device 116 is composed of a display such as a navigation device, a meter panel, a warning light, and the like.
  • the display device 116 functions as an information notification unit that notifies information such as an operation screen of the control device 100a and a warning screen that visually informs the driver that there is a danger that the own vehicle collides with an obstacle.
  • the surrounding environment recognition unit 1 uses image data and distance measurement information captured around the own vehicle input from the external environment recognition device 101 to road surfaces such as stationary solid objects, moving objects, and lane boundaries around the own vehicle. It has a determination function of detecting the shape and position of an object such as a paint or a sign, and further detecting unevenness of the road surface to determine whether or not the vehicle can travel on the road surface.
  • the stationary three-dimensional object is, for example, a structure such as a guardrail, a wall, a pole, a pylon, a curb, a bollard, or a parked vehicle.
  • the moving body is, for example, a pedestrian, a bicycle, a motorcycle, a vehicle, or the like.
  • the stationary three-dimensional object and the moving object are collectively referred to as an obstacle.
  • the shape and position of the object may be detected by pattern matching, but may be detected by using other techniques.
  • the surrounding environment recognition unit 1 travels, for example, when traveling on a general road, based on the information on the shape and position of the detected object and the determination result of whether or not the own vehicle can travel on the road surface. Detects possible lane positions and turnable spaces at intersections. Further, in the case of a parking lot, a parkable space that is a space where the own vehicle can be parked, a travelable space that is a space that can be turned to park in the parkable space, and the like are detected. The travelable space is defined by using the width of the passage, the distance to the obstacle in front of the own vehicle, the position of the obstacle (parked vehicle) adjacent to the parkable space, and the like.
  • the own vehicle position estimation unit 2 estimates the own vehicle position on the map using the detected absolute position information, dead reckoning, and the like.
  • Dead reckoning is a method of estimating the position of the own vehicle by using information such as the number of revolutions of each wheel of the own vehicle, the vehicle speed, the steering angle, and the yaw rate, and is known as a known technique.
  • the method for estimating the position of the own vehicle on the map here differs depending on the available maps.
  • the map is not a high-precision map like a map of a conventional navigation device, the position of the own vehicle is estimated by using, for example, a map matching method which is a known technique.
  • the high-precision of the own vehicle is based on the road surface paint and signs such as the lane boundary line detected by the surrounding environment recognition unit 1, and other obstacles and landmarks stored on the high-precision map. Estimate the position of your vehicle on the map.
  • the map information generation unit 3 generates a high-precision map from the detected surrounding environment and information on the position of the own vehicle. Specifically, a high-precision map based on the vehicle position estimated by the vehicle position estimation unit 2 for information such as road surface paints and signs such as lane boundaries detected by the surrounding environment recognition unit 1 and obstacles and landmarks. Learn up. As a learning means, for example, there is a method of registering information in a high-precision map as information with higher reliability as information detected at the same place a plurality of times. Further, as the generated map information, the learning progress information for grasping the learning situation is calculated for each predetermined section and stored as additional information in the map information.
  • the predetermined section is, for example, a section between intersections of roads, a section of a predetermined distance (for example, 100 m), a section to which identification information is given in a map of a conventional navigation device, and the like. Further, the learning progress is increased every time the vehicle travels in a predetermined section, and the section not traveled for a predetermined period (for example, one week) is decreased, so that the operation while maintaining the freshness of the map information becomes possible.
  • the map information generation start / end determination unit 4 determines the generation start and generation end of the map information based on the information on the position of the own vehicle and the contents set by the user operation.
  • One is a judgment method that does not depend on user operation. When it is detected from the travel history of the own vehicle position that the vehicle has traveled the same route or the same section multiple times (for example, twice or more), the road is frequently used by the user. When the judgment is made and the point where the same road is entered next time is detected, the map information of the road is generated.
  • the second is a judgment method that depends on the user operation. It detects that the user has performed an operation (for example, setting a learning start point, setting a destination, etc.) and has passed a point set based on the operation. Generate map information.
  • the map information generation start / end determination unit 4 stops the generation of map information when it arrives at the destination, leaves the route of the travel history, or leaves the range set by the user. What is common to the above is to detect the passage of an arbitrary point (map information generation start point) and determine the map information generation timing. By automatically generating the map information in this way, it is possible to eliminate the annoyance to the user and improve the convenience.
  • the map information storage unit 5 stores the map information generated by the map information generation unit 3.
  • the map of the conventional navigation device and the map information generated by the map information generation unit 3 may be stored in the same place or may be stored separately.
  • the map information storage unit 5 may store newly generated map information in the oldest generated map information storage area after the storage area is filled with map information.
  • the user setting input unit 6 inputs user operation information by switch input, touch panel input, etc., and receives setting information such as learning start point setting, destination setting, learning ceria setting, and route setting.
  • the HMI control unit 7 appropriately generates information for notifying the user according to the situation, and outputs the information to the sound generator 115 and the display device 116.
  • the traveling track generation unit 8 generates a track for moving the own vehicle from the current own vehicle position to the target position. Further, the target speed of traveling on the generated track is calculated using information such as the speed limit of the map information, the curvature of the track, the traffic light, the stop position, and the speed of the preceding vehicle. For example, when driving on a general road, a destination is set using a navigation device or the like, and the track is based on information such as the positional relationship between the vehicle and obstacles and the lane position when traveling toward the destination. To generate. In the case of a parking lot, a target parking position for parking the own vehicle is set in the parkable space based on the positional relationship between the own vehicle and an obstacle, and a track to that point is generated.
  • the vehicle control unit 9 controls the travel of the own vehicle along the target track generated by the travel track generation unit 8.
  • the vehicle control unit 9 calculates a target steering angle and a target speed based on the target trajectory.
  • the target steering angle and the target speed are calculated so that the own vehicle does not collide with the obstacle.
  • the vehicle control unit 9 outputs the target steering torque for realizing the target steering angle to the steering device 111.
  • the vehicle control unit 9 outputs the target engine torque and the target brake pressure for achieving the target speed to the drive device 112 and the braking device 113. Further, when it is necessary to change the traveling direction of the own vehicle, a shift command is output to the transmission 114.
  • 3 to 5 are flowcharts showing an example of the processing procedure of the control device 100a.
  • FIG. 3 is a flowchart of the process of switching the operation mode.
  • the process is changed based on the current operation mode. If the operation mode is map learning, the process proceeds to the map learning process of the process S302, and if the operation mode is during the driving support, the process proceeds to the operation support process of the process S303.
  • FIG. 4 is a flowchart showing the details of the map learning process of the process S302 of FIG.
  • control device 100a acquires the recognition result of the external environment from the external environment recognition device 101.
  • control device 100a acquires the measurement result of the absolute position from the absolute position measuring device 102.
  • the peripheral environment recognition unit 1 detects road surface paint, signs, obstacles, landmarks, etc. such as lane boundaries around the own vehicle based on the external environment recognition result acquired in the process S401.
  • the own vehicle position estimation unit 2 uses the detection result of the surrounding environment recognition unit 1 and the map information and vehicle information (rotation of each wheel) of the map information storage unit 5 based on the absolute position measurement result acquired in the process S402. Estimate the position of the own vehicle using the number, vehicle speed, steering angle, yaw rate, etc.).
  • Process S405 determines the start and end of generation of map information based on the information on the position of the own vehicle and the contents set by the user operation.
  • the process S406 it is determined whether or not the determination result of the process S405 is the map information generation timing, and if it is the map information generation timing, the process proceeds to the process S407, and if it is not the map information generation timing, the process proceeds to the process S409.
  • a high-precision map is generated from the detected surrounding environment and the information of the own vehicle position, the process proceeds to the process S408, and the generated map information is stored.
  • the content of the notification to the user is updated. For example, when it is determined in the process S406 that it is the map information generation timing, the user is notified that the map information is being learned and the learning state of the map information is being notified by using the sound generator 115 or the display device 116.
  • process S410 it is determined whether or not there is a driving support intention display from the switch operation from the user, and if there is a driving support intention display, the process proceeds to the process S411, and if there is no driving support intention display, the process ends. ..
  • the content of driving support is determined.
  • the contents of driving support are, for example, automatic driving level 2 (automatic driving that the driver needs to constantly monitor), automatic driving level 3 (automatic driving under certain conditions, and the driver takes charge of driving operation in an emergency).
  • Automatic driving level 4 automatic driving within a limited area, no driver's driving operation is required
  • the operation mode is changed during the operation support.
  • the operation support content determined in the process S411 is notified to the user by using the sound generator 115 or the display device 116, and the process ends.
  • FIG. 5 is a flowchart showing the details of the driving support process of the process S303 of FIG.
  • the target steering angle, the target speed, and the appropriate shift position for traveling on the target trajectory generated in the process S505 are calculated.
  • control parameters for outputting the target steering angle, the target speed, and the appropriate shift position calculated in the process S506 to each of the steering device 111, the drive device 112, the braking device 113, and the transmission device 114 are calculated. ..
  • the control parameter output to the steering device 111 has a target steering torque for realizing the target steering angle, but depending on the configuration of the steering device 111, the target speed steering angle may be output directly.
  • the control parameters output to the drive device 112 and the braking device 113 include the target engine torque and the target braking pressure for achieving the target speed, but the target speed is directly determined depending on the configuration of the drive device 112 and the braking device 113. It may be output.
  • control parameters calculated in the process S507 are output to each of the steering device 111, the drive device 112, the braking device 113, and the transmission device 114.
  • process S510 the operation mode is changed during map learning.
  • FIG. 6 shows a road environment in which the roads in the left-right direction on the diagram from H1 to H4 and the roads in the vertical direction on the diagram from V1 to V5 intersect, respectively.
  • an identifier is assigned to each of the roads between intersections as predetermined sections.
  • ID For example, in the H1 road, the section between the V1 road and the V2 road is defined as ID: H1-1-2.
  • FIG. 6 shows a situation in which the own vehicle 600 is traveling from the point B to the point A along the route 601.
  • the map information generation start / end determination unit 4 stores the route traveled by the own vehicle 600. For example, if the user travels on the route 601 of FIG. 6 a plurality of times (for example, twice or more), the user determines that the route 601 is frequently used, and maps the points where the vehicle 600 gets on the route 601 during the third and subsequent travels. It is set as the information generation start point, and learning of map information is started when the map information generation start point is passed, and map information is learned after the map information generation start point.
  • the route is divided into predetermined sections (for example, sections for each street sandwiched between intersections), and the number of runs is counted for each divided section. Then, the section frequently used by the user may be determined.
  • FIG. 7 shows a situation in which the own vehicle 700 is traveling along the route 701 from the position of the own vehicle 700 to the point A.
  • the map information generation start / end determination unit 4 starts learning at the position where learning is started (this position is the start of map information generation).
  • this position is the start of map information generation.
  • FIG. 8 shows a situation in which the vehicle is traveling from the position of the vehicle 800 and the position of the vehicle 810 to the point A.
  • the own vehicle 800 and the own vehicle 810 (the reason why they are given different numbers is to clarify the position of the own vehicle, and the own vehicle 800 and the own vehicle 810 are the same vehicle), respectively.
  • the home or the like is registered in advance by the user, and the range of the distance X (the distance X may be set in advance by the user or may be a specified value) around the point A is the learning target of the map information. Set to range.
  • the map information generation start / end determination unit 4 determines the learning start at the position where the own vehicle has entered the learning target range (the boundary point of this learning target range is set as the map information generation start point), and within the learning target range. Generate map information. In FIG. 8, when the position of the own vehicle 800 or the own vehicle 810 (map information generation start point) is reached, the map information generation start / end determination unit 4 determines the learning start.
  • FIG. 9 shows a situation in which the vehicle is traveling from the position of the vehicle 900 and the position of the vehicle 910 to the point A.
  • the own vehicle 900 and the own vehicle 910 (the reason why they are given different numbers is to clarify the position of the own vehicle, and the own vehicle 900 and the own vehicle 910 are the same vehicle), respectively. Travels along Route 901 and Route 911 from the position of the own vehicle 900 and the position of the own vehicle 910 in FIG. 9 to the point A.
  • the map information generation start / end determination unit 4 sets the position where the own vehicle has entered the learning target area (the boundary point of this learning target range is map information).
  • the start of learning is determined at the generation start point), and map information is generated within the learning target range.
  • map information generation start / end determination unit 4 determines the learning start.
  • the learning target area may be a rectangular area or an arbitrary shape as shown in FIG.
  • FIG. 10 shows a situation in which the vehicle travels on a route from the position of the own vehicle 1000 and the position of the own vehicle 1010 to the point B to the point A.
  • the map information generation start / end determination unit 4 owns the vehicle on the stored route 1020.
  • the learning start is determined and the map information is generated.
  • the own vehicle 1000 has entered the route 1020 on the traveling route 1001
  • it is determined that learning has started and map information is generated on the route.
  • map information is generated on the route.
  • the vehicle control device 100a of the present embodiment determines to start learning the map information when the map information generation start point is passed, the troublesomeness of the user when learning the high-precision map is eliminated. However, it is possible to improve convenience.
  • the generated map stores learning progress information indicating the degree of learning for each predetermined section as additional information.
  • the learning progress is in three stages (low, medium, high) for each section. ..
  • the learning progress increases every time a predetermined section is run, and decreases in a section that has not been run for a predetermined period (for example, one week) and has not been learned most recently. For example, when the point A is the home of the user, as shown in FIG. 11, since the traveling frequency is high around the point A, the learning progress is high.
  • the content of driving support may be associated and managed for each learning progress.
  • low learning progress corresponds to automatic driving level 2
  • high learning progress corresponds to automatic driving level 3
  • high learning progress corresponds to automatic driving level 4.
  • FIG. 12 shows an example of information notification to the user by the display device 116.
  • the status of the learning progress shown in FIG. 11 and the driving support content associated therewith are displayed on the screen in an easy-to-understand manner.
  • the same information as in FIG. 11 showing the state of learning progress is displayed.
  • the learning progress is set as the road learning state and the legend is displayed together with the driving support content, but either the learning progress or the driving support content may be displayed.
  • the mark 1200 indicates the position of the own vehicle.
  • the learning progress and the driving support content may be notified by voice using the sound generator 115 instead of the display device 116.
  • the route 1301 has two sections of learning progress (during learning progress and high learning progress).
  • the driving support of the automatic driving level 3 can be implemented, and in the section where the learning progress is high, the driving support of the automatic driving level 4 can be implemented.
  • the following two methods can be adopted.
  • the first is a method of providing driving support according to the automatic driving level for each section.
  • the automatic driving level may be switched from the lower one to the higher one, but the automatic driving level may be switched from the higher one to the lower one.
  • the second method is to adopt the lowest automatic driving level without switching the automatic driving level on the route.
  • driving support is provided to the destination (point A) at automatic driving level 3. implement.
  • the two methods can be similarly adopted. The user may set these two methods in advance, or may select either of them when starting the driving support.
  • FIG. 14 shows an example of information notification to the user by the display device 116.
  • the learning state of the road described with reference to FIG. 12 is displayed on the screen 1401, and the mark 1400 is the current position of the own vehicle.
  • the high learning progress can be achieved at an early stage. Therefore, since it is sufficient to drive the route 1402 as shown in FIG.
  • FIG. 14 shows a method of displaying the recommended route for the automatic driving level 4, the target driving support may be the automatic driving level 3 or the automatic driving level 2, and it is specified even if the user sets it in advance. It may be a value.
  • the recommended route and the automatic operation level may be notified by voice using the sound generator 115 instead of the display device 116.
  • a route that can implement a high automatic driving level may be preferentially selected. By selecting a route that can implement a high level of autonomous driving, the user can easily drive the vehicle.
  • the driver's operation is unnecessary or only the first operation is required, and then the learning is automatically performed. Therefore, when learning a high-precision map. It is possible to eliminate the annoyance of users, improve convenience, and provide driving support using high-precision maps.
  • the present embodiment has been described by taking some patterns as examples, the present invention can be applied to other patterns as well. In addition, it can be carried out in various ways as long as it does not deviate from the gist of the present invention.
  • the vehicle control device 100a of the embodiment of the present invention has the peripheral environment recognition unit 1 that recognizes the surrounding environment of the own vehicle and outputs the recognition information, and the own vehicle by estimating the position of the own vehicle.
  • Own vehicle position estimation unit 2 that outputs position information
  • map information generation unit 3 that generates map information based on recognition information and own vehicle position information
  • map information storage unit 5 that stores map information, and map information.
  • the map information generation start / end determination unit 4 is provided with a map information generation start / end determination unit (map information generation start / end determination unit 4) for determining the start of generation of the map information. Since the map information generation is started based on the detection of the passage of the point (map information generation start point), the user's trouble when learning the high-precision map can be eliminated, the convenience can be improved, and the high level. Driving support using an accurate map can be implemented.
  • the vehicle control device 100a further includes a user setting input unit 6 that receives input of setting information from the user, and an arbitrary point (map information generation start point) is set based on the setting information, so that the map information can be obtained.
  • the area to be generated can be set accurately according to the user's intention. Further, after the user inputs the setting information once, the generation of the map information is automatically started, so that the troublesomeness of the user can be eliminated.
  • any point is a point on the map set by the user by the user setting input unit 6, a point at a predetermined distance from the destination set by the user, a boundary point of the area set by the user, and the like. Since at least one of the points on the route set by the user is set, map information can be generated in an area suitable for the user's wishes and uses.
  • the vehicle control device 100a further includes a vehicle control unit 9 that controls the running of the vehicle, and a learning progress indicating the degree of learning is added to the map information generated by the map information generation unit 3, and the vehicle control Since the part 9 changes the content of the driving support based on the learning progress, it is possible to provide a high level of automatic driving on the road with a high learning progress, and it is possible to call attention to the user according to the level of the provided automatic driving. Accidents can be prevented.
  • the map information generation unit 3 increases the learning progress of the section in which the own vehicle has traveled, and decreases the learning progress of the section in which the own vehicle has not traveled for a predetermined period. Since the calculation is performed, it is possible to detect an object that cannot be detected in one run in a plurality of runs and improve the accuracy of the map information. In addition, old information can be discarded and map information according to the new situation can be provided.
  • the vehicle control unit 9 changes the content of the driving support for each section based on the learning progress for each section included in the route for implementing the driving support, the vehicle control unit 9 changes the content of the driving support for each section, so that the level is high for each section according to the driver's intention. Can provide driving assistance.
  • the vehicle control unit 9 supports driving of the route at the lowest automatic driving level among the automatic driving levels of each section included in the route, based on the learning progress of each section included in the route for which driving support is performed. Therefore, it is possible to reduce the burden on the driver by switching the driving support level and prevent accidents.
  • an information notification unit (sound generator 115, display device 116) for notifying the user of information is further provided, and the information notification units 115 and 116 are the learning progress for each section and the content of the driving support corresponding to the learning progress. Since at least one of them is notified to the user, the division of roles between the driver and the vehicle becomes clear, and accidents can be prevented.
  • the vehicle control unit 9 compares the learning progress of each section, selects a recommended route such that the level of driving support increases at an early stage, and the information notification units 115 and 116 select the selected recommended route by the user. Therefore, it is expected that the learning progress will be improved promptly, and a high level of driving support can be provided at an early stage.
  • the present invention is not limited to the above-mentioned embodiment, but includes various modifications and equivalent configurations within the scope of the attached claims.
  • the above-described examples have been described in detail in order to explain the present invention in an easy-to-understand manner, and the present invention is not necessarily limited to those having all the described configurations.
  • a part of the configuration of one embodiment may be replaced with the configuration of another embodiment.
  • the configuration of another embodiment may be added to the configuration of one embodiment.
  • other configurations may be added / deleted / replaced with respect to a part of the configurations of each embodiment.
  • each configuration, function, processing unit, processing means, etc. described above may be realized by hardware by designing a part or all of them by, for example, an integrated circuit, and the processor realizes each function. It may be realized by software by interpreting and executing the program to be executed.
  • Information such as programs, tables, and files that realize each function can be stored in a storage device such as a memory, a hard disk, SSD (Solid State Drive), or a recording medium such as an IC card, SD card, or DVD.
  • a storage device such as a memory, a hard disk, SSD (Solid State Drive), or a recording medium such as an IC card, SD card, or DVD.
  • control lines and information lines show what is considered necessary for explanation, and do not necessarily show all the control lines and information lines necessary for mounting. In practice, it can be considered that almost all configurations are interconnected.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Human Computer Interaction (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)

Abstract

車両に搭載される車両制御装置であって、自車両の周辺環境を認識して認識情報を出力する周辺環境認識部と、自車両の位置を推定して自車位置情報を出力する自車位置推定部と、前記認識情報及び前記自車位置情報に基づいて、地図情報を生成する地図情報生成部と、前記地図情報を記憶する地図情報記憶部と、前記地図情報の生成開始を判定する地図情報生成開始判定部と、を有し、前記地図情報生成部は、前記地図情報生成開始判定部が予め設定された任意の地点の通過を検出したことに基づいて、前記地図情報の生成を開始する。

Description

車両制御装置及び車両制御方法 参照による取り込み
 本出願は、令和2年(2020年)6月2日に出願された日本出願である特願2020-95893の優先権を主張し、その内容を参照することにより、本出願に取り込む。
 本発明は、自車両の周辺環境から地図情報を生成する車両制御装置に関する。
 車載カメラやレーダなどの外界認識センサを用いて自車両周辺の物体(車両、歩行者、構造物など)や道路標示や道路標識(区画線などの路面ペイント、止まれなどの標識など)を認識するための技術が種々提案されている。さらに、これらの技術を用いて自車両を制御し、運転者の運転操作をアシストして目的地まで走行させる自動運転技術が開発されている。
 このような自動運転には外界認識技術に加え、高精度地図も必要である。高精度地図は、従来のナビゲーション装置の地図より詳細かつ正確な情報を含んでおり、例えば、車線境界線の種別や位置、道路標示や標識の種別や位置、信号の位置などを含む。ただし、高精度地図は、高速道路や大都市圏等の通行量や人口が多い道路や地域を優先して作成されているため、人口の少ない地域や個人宅周辺の路地等において、自動運転のニーズを満たすことが難しい。
 このような高精度地図の課題を解決する技術として、以下の先行技術がある。特開2019-197453号公報には、センサを搭載した車両が走行した経路を示す経路情報と、前記経路を走行時に前記センサが収集したセンサ情報と、を識別情報に関連付けて収集する収集部と、前記収集部が収集した前記経路情報及び前記センサ情報に基づいて、前記経路情報が示す経路を自律走行機能を有する車両が自律走行するための地図情報として生成する生成部と、前記生成部が生成した前記地図情報を前記識別情報により特定された対象に提供する提供部と、を備え、前記地図情報は、前記識別情報により特定された対象に関する情報が含まれている、ことを特徴とする情報処理装置が記載されている(請求項1参照)。
 特開2019-197453号公報に開示されている技術は、高精度地図がない場所を走行し、その時の経路情報やセンサ情報を収集して、これらの情報から高精度地図を生成するものであり、運転者が自動運転を実施したいと思う道路を走行し、高精度地図を生成して自動運転を可能とすることができる。しかしながら、一度の走行では高精度地図に必要な全ての情報の収集は困難であり、同じ道路を複数回の走行が必要である。そのため、運転者が自動運転を実施したいと思う道路を走行する度に、情報収集するか否かを設定する必要があるため、操作が煩わしいという課題がある。
 本発明は、前述した事情を鑑みてなされたもので、高精度地図がない場所で自動運転を可能するために、運転者に煩わしさを与えることなく高精度地図を生成することを目的とする。
 本願において開示される発明の代表的な一例を示せば以下の通りである。すなわち、車両に搭載される車両制御装置であって、自車両の周辺環境を認識して認識情報を出力する周辺環境認識部と、自車両の位置を推定して自車位置情報を出力する自車位置推定部と、前記認識情報及び前記自車位置情報に基づいて、地図情報を生成する地図情報生成部と、前記地図情報を記憶する地図情報記憶部と、前記地図情報の生成開始を判定する地図情報生成開始判定部と、を有し、前記地図情報生成部は、前記地図情報生成開始判定部が予め設定された任意の地点の通過を検出したことに基づいて、前記地図情報の生成を開始することを特徴とする。
 本発明の一態様によれば、高精度地図を学習する際のユーザの煩わしさを解消し、利便性を向上できる。前述した以外の課題、構成及び効果は、以下の実施例の説明によって明らかにされる。
本発明の第1の実施例における車両制御装置の概略構成図である。 本発明の第1の実施例における車両制御装置の概略構成図である。 本発明の第1の実施例において運転モードを切り替える処理のフローチャートである。 本発明の第1の実施例における地図学習処理のフローチャートである。 本発明の第1の実施例における運転支援処理のフローチャートである。 地図情報生成開始終了判定部の処理内容を説明するための図である。 地図情報生成タイミングを説明するための図である。 地図情報生成タイミングを説明するための図である。 地図情報生成タイミングを説明するための図である。 地図情報生成タイミングを説明するための図である。 地図の学習状態を説明するための図である。 表示装置によるユーザへの情報報知の一例を示す図である。 運転支援の内容の決定方法を説明するための図である。 表示装置によるユーザへの情報報知の一例を示す図である。
 以下、実施例について図面を用いて説明する。
 (第1の実施例)
 図1及び図2は、本発明の第1の実施例による車両制御装置の概略構成図である。図1及び図2に例示される制御装置100aは、自車両を制御するコンピュータであり、不図示の記憶媒体に記憶されたプログラムを実行することによって、周辺環境認識部1、自車位置推定部2、地図情報生成部3、地図情報生成開始終了判定部4、地図情報記憶部5、ユーザ設定入力部6、HMI制御部7、走行軌道生成部8、及び車両制御部9として機能する。なお、図1と図2に構成を分けて記載しているのは、図3のフローチャートで説明する2つの運転モード(地図学習中、運転支援中)で異なる動作をするためである。
 制御装置100aは、自車両の操舵装置111、駆動装置112、制動装置113、及び変速装置114と、自車両に設けられた外環境認識装置101、絶対位置計測装置102、音発生装置115、表示装置116とに接続されている。また、制御装置100aは、自車両のCAN(不図示)や専用線などの伝送路に接続されており、これらの伝送路を経由して自車両の車速、舵角、シフト位置などの車両情報及びスイッチ入力、及びタッチパネル入力などのユーザ操作情報が入力される。
 外環境認識装置101は、自車両の周囲環境に関する情報を取得する装置であって、例えば、自車両の前方、後方、右側方、左側方の周囲環境をそれぞれ撮影する4個の車載カメラである。車載カメラにより得られた画像は、アナログデータのまま、又はA/D変換して、専用線などの伝送路を経由して制御装置100aに出力される。また、他の車載カメラとしてステレオカメラを用いることができ、車載カメラ以外にもミリ波やレーザー光を用いて物体との距離を計測するレーダ、超音波を用いて物体との距離を計測するソナー等を用いることができる。車載カメラなどのこれらの装置は、検出した物体との距離とその方角等の情報を専用線などの伝送路を経由して制御装置100aに出力する。
 絶対位置計測装置102は、自車両の地図上の絶対位置情報を取得する装置であって、例えば、GPS、GLONASSなどのGNSS(衛星測位システム)である。GNSSにより得られた位置情報は、CANや専用線などの伝送路を経由して制御装置100aに出力される。また、GNSS以外にも路車間通信などを利用して自車両の位置情報を取得してもよい。
 操舵装置111は、外部からの駆動指令により電動や油圧のアクチュエータなどによって舵角を制御できる電動パワーステアリング、油圧パワーステアリング等で構成される。
 駆動装置112は、外部からの駆動指令により電動のスロットルなどでエンジントルクを制御できるエンジンシステムや、外部からの駆動指令によりモータなどの駆動力を制御できる電動パワートレインシステム等で構成される。
 制動装置113は、外部からの制動指令により電動や油圧のアクチュエータなどで制動力を制御できる電動ブレーキや油圧ブレーキ等で構成される。
 変速装置114は、外部からの変速指令により電動や油圧のアクチュエータなどで前進や後退を切り替え可能なトランスミッション等で構成される。
 音発生装置115は、スピーカー等で構成され、運転者に対する警報や音声ガイダンス等を出力する情報報知部として機能する。
 表示装置116は、ナビゲーション装置等のディスプレイ、メーターパネル、警告灯等で構成される。表示装置116は、制御装置100aの操作画面や、自車両が障害物に衝突する危険があることなどを運転者に視覚的に伝える警告画面等の情報を報知する情報報知部として機能する。
 周辺環境認識部1は、外環境認識装置101から入力された自車両の周囲を撮像した画像データや測距情報を用いて、自車両周辺の静止立体物、移動体、車線境界線等の路面ペイント、標識等の物体の形状や位置を検出し、さらに、路面の凹凸等を検出して自車両が走行可能な路面であるか否かを判定する判定機能を有する。静止立体物とは、例えば、ガードレール、壁、ポール、パイロン、縁石、車止めなどの構造物や、駐車車両である。また、移動体とは、例えば、歩行者、自転車、バイク、車両などである。以降、静止立体物と移動体の二つをまとめて障害物と称する。物体の形状や位置は、パターンマッチングによって検出するとよいが、他の技術を用いて検出してもよい。
 また、周辺環境認識部1は、検出した物体の形状や位置に関する情報と自車両が走行可能な路面であるか否かの判定結果に基づいて、例えば一般道を走行する場合であれば、走行可能な車線位置や交差点の旋回可能スペース等を検出する。また、駐車場の場合であれば、自車両を駐車させることができる空間である駐車可能空間や、駐車可能空間に駐車するために転回などが可能な空間である走行可能空間等を検出する。なお、この走行可能空間は、通路幅、自車両前方の障害物までの距離、駐車可能空間に隣接する障害物(駐車車両)の位置などを用いて定義する。
 自車位置推定部2は、検出した絶対位置の情報や推測航法などを用いて地図上の自車位置を推定する。推測航法とは、例えば自車両の各車輪の回転数や、車速や舵角、ヨーレートなどの情報を用いて自車位置を推定する手法であり、公知の技術として知られている。また、ここで地図上の自車位置を推定する手法は、利用可能な地図により異なる。従来のナビゲーション装置の地図のように高精度地図ではない場合は、例えば公知技術であるマップマッチング手法を用いて自車位置を推定する。高精度地図の場合は、周辺環境認識部1により検出した車線境界線などの路面ペイントや標識、その他高精度地図上に記憶している障害物やランドマークの情報に基づいて自車両の高精度地図上での自車位置を推定する。
 地図情報生成部3は、検出した周囲環境と自車位置の情報から高精度地図を生成する。具体的には、周辺環境認識部1により検出した車線境界線などの路面ペイントや標識、障害物やランドマークなどの情報を自車位置推定部2で推定した自車位置に基づいて高精度地図上に学習していく。学習の手段としては、例えば複数回同じ場所で検出された情報ほど信頼度が高い情報として高精度地図に登録する方法がある。また、生成する地図情報は、所定の区間毎に学習の状況を把握するための学習進度の情報を算出し、地図情報に付加情報として記憶する。ここで、所定の区間とは、例えば道路の交差点間の区間、所定距離(例えば100m)の区間、従来のナビゲーション装置の地図における識別情報が付与されている区間などである。また、学習進度は所定の区間を走行する毎に増加させ、所定の期間(例えば1週間)走行していない区間は減少させることで地図情報の鮮度を保った運用が可能となる。
 地図情報生成開始終了判定部4は、自車位置の情報やユーザ操作により設定された内容に基づいて地図情報の生成開始と生成終了を判定する。一つはユーザ操作に依存しない判定方法で、自車位置の走行履歴から同じルートもしくは同じ区間を複数回(例えば2回以上)走行したことを検出すると、ユーザが頻繁に使用する道路であると判定し、次回同じ道路に進入した地点を検出するとその道路の地図情報を生成する。二つ目はユーザ操作に依存する判定方法で、ユーザが操作(例えば学習開始地点の設定、目的地の設定など)を行い、その操作に基づいて設定された地点を通過したことを検出して地図情報を生成する。また、地図情報生成開始終了判定部4は、目的地への到着、走行履歴のルートからの離脱、又はユーザによって設定された範囲からの離脱を契機として、地図情報の生成を停止する。前述で共通することは、任意の地点(地図情報生成開始地点)の通過を検出して地図情報の生成タイミングを決定することである。このように地図情報の生成を自動で行うことでユーザへの煩わしさが解消され、利便性の向上を図ることが可能となる。
 地図情報記憶部5は、地図情報生成部3により生成された地図情報を記憶する。ここでは、従来のナビゲーション装置の地図と地図情報生成部3により生成された地図情報を同じ場所に格納しても良く、別々に格納しても良い。地図情報記憶部5は、その記憶領域が地図情報で一杯になった後、最古に生成された地図情報の記憶領域に、新たに生成される地図情報を記憶するとよい。
 ユーザ設定入力部6は、スイッチ入力やタッチパネル入力などでのユーザ操作情報を入力し、学習開始点の設定、目的地の設定、学習セリアの設定、ルート設定などの設定情報を受け付ける。
 HMI制御部7は、ユーザに報知するための情報を状況に応じて適宜生成し、音発生装置115及び表示装置116に出力する。
 走行軌道生成部8は、現在の自車位置から目標位置に自車両を移動するための軌道を生成する。さらに、生成した軌道を走行する目標速度を地図情報の制限速度や軌道の曲率、信号機、一時停止位置、先行車の速度等の情報を用いて演算する。例えば、一般道を走行する場合には、ナビゲーション装置などを利用して目的地を設定し、目的地に向かって走行する際の自車両と障害物との位置関係や車線位置等の情報から軌道を生成する。また、駐車場の場合では、自車両と障害物との位置関係から自車両を駐車する目標駐車位置を駐車可能空間内に設定し、そこまでの軌道を生成する。
 車両制御部9は、走行軌道生成部8で生成した目標軌道に沿って自車両の走行を制御する。車両制御部9は、目標軌道に基づいて目標舵角と目標速度を演算する。なお、自車両と障害物との衝突が予測される場合には、自車両が障害物に衝突しないように目標舵角と目標速度を演算する。そして、車両制御部9は、その目標舵角を実現するための目標操舵トルクを操舵装置111へ出力する。また、車両制御部9は、目標速度を実現するための目標エンジントルクや目標ブレーキ圧を駆動装置112や制動装置113へ出力する。さらに、自車両の進行方向を変更する必要がある場合、変速指令を変速装置114に出力する。
 次に、フローチャートを用いて制御装置100aの処理手順を説明する。
 図3から図5は、制御装置100aの処理手順の一例を示すフローチャートである。
 図3は、運転モードを切り替える処理のフローチャートである。
 図3の処理S301では、現在の運転モードに基づいて処理を変更する。運転モードが地図学習中の場合は処理S302の地図学習処理に進み、運転支援中の場合は処理S303の運転支援処理に進む。
 図4は、図3の処理S302の地図学習処理の詳細を示すフローチャートである。
 図4の処理S401では、制御装置100aは、外環境認識装置101から外界環境の認識結果を取得する。
 処理S402では、制御装置100aは、絶対位置計測装置102から絶対位置の計測結果を取得する。
 処理S403では、周辺環境認識部1は、処理S401で取得した外界環境認識結果に基づいて、自車両周辺の車線境界線などの路面ペイント、標識、障害物、ランドマークなどを検出する。
 処理S404では、自車位置推定部2は、処理S402で取得した絶対位置計測結果に基づいて、周辺環境認識部1の検出結果と地図情報記憶部5の地図情報及び車両情報(各車輪の回転数、車速や舵角、ヨーレートなど)を用いて自車位置を推定する。
 処理S405では、自車位置の情報やユーザ操作によって設定された内容に基づいて、地図情報の生成開始と生成終了を判定する。
 処理S406では、処理S405の判定結果が地図情報生成タイミングか否かを判定し、地図情報生成タイミングであれば処理S407に進み、地図情報生成タイミングでなければ処理S409に進む。
 処理S407では、検出された周囲環境と自車位置の情報から高精度地図を生成して、処理S408に進み、生成した地図情報を記憶する。
 処理S409では、ユーザへの報知内容を更新する。例えば、処理S406で地図情報生成タイミングであると判定された場合は、地図情報を学習中であることや地図情報の学習状態を音発生装置115又は表示装置116を用いてユーザに報知する。
 処理S410では、ユーザからのスイッチ操作などから運転支援の意思表示があるか否かを判定し、運転支援の意思表示があれば処理S411に進み、運転支援の意思表示がなければ処理を終了する。
 処理S411では、運転支援の内容を決定する。運転支援の内容としては、例えば自動運転レベル2(運転者が常に監視が必要な自動運転)、自動運転レベル3(一定条件下での自動運転で、緊急時は運転者が運転操作を担う)、自動運転レベル4(限定領域内での自動運転で、運転者の運転操作は不要)などがある。
 処理S412では、運転支援中に運転モードを変更する。
 処理S413では、処理S411で決定された運転支援内容を音発生装置115又は表示装置116を用いてユーザに報知し、処理を終了する。
 図5は、図3の処理S303の運転支援処理の詳細を示すフローチャートである。
 図5の処理S501から処理S504までは、図4の処理S401から処理S404までと同じ処理であるため説明は省略する。
 処理S505では、現在の自車位置から目標位置に自車両を移動するための軌道を生成する。
 処理S506では、処理S505で生成された目標軌道を走行するための目標舵角、目標速度、適正シフト位置を演算する。
 処理S507では、処理S506で演算された目標舵角、目標速度、及び適正シフト位置を操舵装置111、駆動装置112、制動装置113、及び変速装置114のそれぞれに出力するための制御パラメータを演算する。例えば、操舵装置111に出力する制御パラメータは、目標操舵角を実現するための目標操舵トルクがあるが、操舵装置111の構成によっては直接目標速舵角を出力してもよい。また、駆動装置112及び制動装置113に出力する制御パラメータは、目標速度を実現するための目標エンジントルクや目標ブレーキ圧等があるが、駆動装置112と制動装置113の構成によっては直接目標速度を出力してもよい。
 処理S508では、処理S507で演算された制御パラメータを操舵装置111、駆動装置112、制動装置113、及び変速装置114のそれぞれに出力する。
 処理S509では、目標位置に到達したか否かを判定し、目標位置に到達したら処理S510に進み、目標位置に到達していないなら処理S511に進む。
 処理S510では、運転モードを地図学習中に変更する。
 処理S511では、処理S509で目標位置に到達した場合は運転支援を終了する案内を、目標位置に到達していない場合は運転支援中の案内を音発生装置115又は表示装置116を用いてユーザに報知し、処理を終了する。
 以上に説明した処理を実行することによって、高精度地図を学習する際のユーザの煩わしさを解消し、利便性の向上を図るとともに、高精度地図を利用した運転支援が実施可能となる。
 次に、図6から図10を参照して、地図情報生成開始終了判定部4の具体的な処理内容(図4の処理S405の詳細)を説明する。
 図6は、H1からH4の図上左右方向の道路とV1からV5の図上上下方向の道路がそれぞれ交差している道路環境を示す。図示する道路環境において、交差点間の道路を所定の区間としてそれぞれ識別子(ID)を付与しており、例えばH1道路においてV1道路とV2道路の間の区間をID:H1_1-2と定義する。
 図6は、自車両600がルート601に沿って地点Bから地点Aまで走行している状況を示す。地図情報生成開始終了判定部4は、自車両600が走行したルートを記憶する。例えば、図6のルート601を複数回(例えば2回以上)走行すると、ユーザはルート601を頻繁に使用すると判定し、3回目以降の走行時に自車両600がルート601上に乗った地点を地図情報生成開始地点とし、地図情報生成開始地点通過時に地図情報の学習を開始し、地図情報生成開始地点以後は地図情報を学習する。また、複数回の走行はルートの走行をカウントしてもよいが、ルートを所定の区間(例えば、交差点に挟まれた街路毎の区間)に分割し、分割された区間毎に走行回数をカウントして、ユーザが頻繁に利用する区間を判定してもよい。
 図7は、自車両700がルート701に沿って、自車両700の位置から地点Aまで走行している状況を示す。ユーザが図7の自車両700の位置で地図情報を学習したい位置を(例えばスイッチ操作で)入力すると、地図情報生成開始終了判定部4は、学習を開始した位置(この位置を地図情報生成開始地点とする)を記憶し、地図情報生成開始地点通過時に地図情報の学習を開始し、地図情報生成開始地点以後は地図情報を学習する。次回以降の学習済みルートの走行では、地図情報生成開始終了判定部4が記憶している地図情報生成開始地点の通過を判定すると、ユーザの新たな操作を待つことなく地図情報の学習を開始する。
 図8は、自車両800の位置及び自車両810の位置から地点Aまで走行している状況を示す。図8においては、自車両800及び自車両810(異なる番号を付しているのは自車両の位置を明示的にするためであり、自車両800及び自車両810は同じ車両である)のそれぞれがルート801及びルート811に沿って、図8の自車両800の位置及び自車両810の位置から地点Aまで走行している。地点Aは、ユーザにより予め自宅などが登録されており、地点Aを中心に距離X(距離Xは、ユーザが予め設定してもよいし、規定値でもよい)の範囲を地図情報の学習対象範囲に設定する。地図情報生成開始終了判定部4は、この学習対象範囲に自車両が進入した位置(この学習対象範囲の境界地点を地図情報生成開始地点とする)で学習開始を判定し、学習対象範囲内で地図情報を生成する。図8では、自車両800又は自車両810の位置(地図情報生成開始地点)に到達したときに、地図情報生成開始終了判定部4は学習開始を判定する。
 図9は、自車両900の位置及び自車両910の位置から地点Aまで走行している状況を示す。図9においては、自車両900及び自車両910(異なる番号を付しているのは自車両の位置を明示的にするためであり、自車両900及び自車両910は同じ車両である)のそれぞれがルート901及びルート911に沿って、図9の自車両900の位置及び自車両910の位置から地点Aまで走行している。ユーザが予め地図情報を学習したいエリアを点線矩形920のように設定すると、地図情報生成開始終了判定部4はこの学習対象エリアに自車両が進入した位置(この学習対象範囲の境界地点を地図情報生成開始地点とする)で学習開始を判定し、学習対象範囲内で地図情報を生成する。図9では、自車両900又は自車両910の位置(地図情報生成開始地点)に到達したときに、地図情報生成開始終了判定部4は学習開始を判定する。なお、学習対象エリアは、図9に示すように矩形のエリアでも、任意の形状でもよい。
 図10は、自車両1000の位置及び自車両1010の位置から地点Bから地点Aまでのルートを走行する状況を示す。図10においては、地点Aと地点Bの間でルート案内を行ったことがあるルート1020を記憶している状況で、地図情報生成開始終了判定部4は、記憶されているルート1020に自車両が乗ったことを判定すると(記憶してあるルートに自車両が乗った位置を地図情報生成開始地点とする)、学習開始を判定し、地図情報を生成する。具体的には、図10では、自車両1000が走行経路1001でルート1020に乗ったことを判定すると学習開始を判定し、当該ルートにおいて地図情報を生成する。また、自車両1010が走行経路1011でルート1020に乗ったことを判定すると学習開始を判定し、当該ルートにおいて地図情報を生成する。なお、ルート案内の設定時に、当該ルートについて2回目以後の走行においてに学習をするかを設定可能としてもよい。また、ルート案内の設定時に、当該ルートについて1回目の走行から学習をするかを設定可能としてもよい。
 以上説明したように、本実施例の車両制御装置100aは、地図情報生成開始地点の通過時に地図情報の学習を開始する判定をするので、高精度地図を学習する際のユーザの煩わしさを解消し、利便性の向上を図ることが可能となる。
 次に、図11及び図12を用いて地図の学習状態を説明する。生成する地図には所定区間毎に学習の程度を示す学習進度の情報が付加情報として記憶されており、本例では、学習進度が区間毎に3段階(低・中・高)となっている。学習進度に関しては、所定の区間を走行する毎に増加して、所定の期間(例えば1週間)走行しておらず、直近に学習がされていない区間は減少する。例えば、地点Aがユーザの自宅である場合、図11に示すように地点Aの周辺は走行頻度が高いことから、学習進度が高くなる。また、それぞれの学習進度に対して運転支援の内容を関連づけて管理してもよい。本例では、学習進度低は自動運転レベル2、学習進度中は自動運転レベル3、学習進度高は自動運転レベル4を対応させる。
 図12は、表示装置116によるユーザへの情報報知の一例を示す。図12に例示する画面1201では、図11に示す学習進度の状況及びそれに対応づけられた運転支援内容を画面でユーザに分かりやすく表示する。画面1201では、図11と同様の学習進度の状況が分かる情報を表示している。図12に示す例では、学習進度を道路学習状態として運転支援内容と合わせて凡例を表示しているが、学習進度又は運転支援内容の一方を表示してもよい。なお、マーク1200は自車両の位置を表す。なお、学習進度及び運転支援内容の報知は、表示装置116ではなく、音発生装置115を用いた音声による報知でもよい。
 次に、図13を用いて図4の処理S411における運転支援の内容の決定方法について説明する。図13の自車両1300の位置で運転支援を開始し、ルート1301に沿って地点Aまで走行する場合、ルート1301には、二つの学習進度(学習進度中、学習進度高)の区間が存在し、学習進度中の区間では自動運転レベル3の運転支援が実施可能で、学習進度高の区間では自動運転レベル4の運転支援が実施可能である。この場合、例えば、以下の二つの方法を採用できる。一つ目は、区間毎の自動運転レベルに合わせて運転支援を実施する方法であり、ルート1301に沿う場合は最初は自動運転レベル3で運転支援を実施し、その後、IDがH2_2-3の区間から自動運転レベル4に切り替える。この一つ目の方法では、自動運転レベルは低い方から高い方に切り替えるとよいが、自動運転レベルは高い方から低い方に切り替えるとよい。二つ目は、ルート上で自動運転レベルを切り替えることなく、最も低い自動運転レベルを採用する方法であり、ルート1301に沿う場合は、自動運転レベル3で目的地(地点A)まで運転支援を実施する。また、図13の自車両1310の位置で運転支援を開始し、ルート1311に沿って地点Aまで走行する場合も、同様に二つの方法を採用できる。なお、この二つの方法は、ユーザが予め設定してもよいし、運転支援を開始する際にどちらかを選択してもよい。
 次に、図14を用いて運転支援を早期に実現可能な走行をユーザに報知する方法について説明する。図14は、表示装置116によるユーザへの情報報知の一例を示す。画面1401には図12で説明した道路の学習状態が表示されており、マーク1400は自車両の現在位置である。例えば自動運転レベル4の運転支援を早期に実現するには、学習進度が高い区間を優先的に走行すればよい(すなわち、学習進度中の区間の走行を繰り返すことによって、学習進度高を早期に達成できる)ため、現状の学習進度からは図14のようにルート1402を走行すればよいことから、画面1401にルート1402を表示してユーザに自動運転レベル4を早期に実現できる推奨ルートであることを報知する。ただし、このようなルートを演算するには目的地までの距離や道幅や渋滞状況も考慮する必要があるため、従来のナビゲーション装置で用いられている公知のルート案内方法に、経路選択の優先度として学習進度を考慮するとよい。また、図14では、自動運転レベル4向けの推奨ルートを表示する方法を示したが、対象とする運転支援を自動運転レベル3又は自動運転レベル2としてもよく、ユーザが予め設定しても規定値としてもよい。なお、推奨ルート及び自動運転レベルの報知は、表示装置116ではなく、音発生装置115を用いた音声による報知でもよい。
 また、前述とは異なり、高い自動運転レベルが実施可能なルートを優先的に選択してもよい。高い自動運転レベルが実施可能なルートを選択することによって、ユーザが楽に自動車を走行できる。
 以上説明したように、本実施例の車両制御装置によると、運転者の操作が不要又は最初の一度の操作で済み、その後は自動的に学習が行われることから、高精度地図を学習する際のユーザの煩わしさを解消し、利便性を向上でき、高精度地図を利用した運転支援を実施できる。
 なお、本実施例はいくつかのパターンを例にして説明したが、他のパターンにも本発明は適用可能である。また、本発明の趣旨を逸脱しない範囲において、種々の様態で実施することができる。
 以上に説明したように、本発明の実施例の車両制御装置100aは、自車両の周辺環境を認識して認識情報を出力する周辺環境認識部1と、自車両の位置を推定して自車位置情報を出力する自車位置推定部2と、認識情報及び自車位置情報に基づいて、地図情報を生成する地図情報生成部3と、地図情報を記憶する地図情報記憶部5と、地図情報の生成開始を判定する地図情報生成開始判定部(地図情報生成開始終了判定部4)と、を有し、地図情報生成部3は、地図情報生成開始終了判定部4が予め設定された任意の地点(地図情報生成開始地点)の通過を検出したことに基づいて、地図情報の生成を開始するので、高精度地図を学習する際のユーザの煩わしさを解消し、利便性を向上でき、高精度地図を利用した運転支援を実施できる。
 また、車両制御装置100aは、ユーザからの設定情報の入力を受けるユーザ設定入力部6をさらに備え、任意の地点(地図情報生成開始地点)は設定情報に基づいて設定されるので、地図情報を生成する領域をユーザの意思に従って的確に設定できる。また、ユーザが設定情報を1回入力した後は、自動的に地図情報の生成を開始するので、ユーザの煩わしさを解消できる。
 また、任意の地点(地図情報生成開始地点)は、ユーザ設定入力部6によりユーザが設定した地図上の地点、ユーザが設定した目的地から所定距離の地点、ユーザが設定した領域の境界地点、ユーザが設定したルート上に乗った地点のうち少なくとも一つとしたので、ユーザの希望や用途に適する領域において地図情報を生成できる。
 また、車両制御装置100aは、車両の走行を制御する車両制御部9をさらに備え、地図情報生成部3が生成した地図情報には、学習の程度を示す学習進度が付加されており、車両制御部9は、学習進度に基づいて運転支援の内容を変更するので、学習進度が高い道路において高いレベルの自動運転を提供でき、提供される自動運転のレベルに応じてユーザに注意を喚起でき、事故を防止できる。
 また、地図情報生成部3は、自車両が走行した区間の学習進度を増加し、自車両が所定の期間走行していない区間の学習進度を減少するように、所定の区間毎に学習進度を演算するので、1回の走行では検出できない物体を複数回の走行で検出して、地図情報の精度を向上できる。また、古い情報を廃棄して、新しい状況に応じた地図情報を提供できる。
 また、車両制御部9は、運転支援を実施する経路に含まれる区間毎の学習進度に基づいて、区間毎の運転支援の内容を変更するので、運転者の意図に沿って区間毎に高いレベルの運転支援を提供できる。
 また、車両制御部9は、運転支援を実施する経路に含まれる区間毎の学習進度に基づいて、経路に含まれる各区間の自動運転レベルのうち最も低い自動運転レベルで、当該経路の運転支援を実施するので、運転支援レベルの切り替えによる運転者の負担を軽減でき、事故を防止できる。
 また、ユーザに情報を報知する情報報知部(音発生装置115、表示装置116)をさらに備え、情報報知部115、116は、区間毎の学習進度、及び学習進度に対応した運転支援の内容の少なくとも一方をユーザに報知するので、運転者と車両の役割分担が明確になり、事故を防止できる。
 また、車両制御部9は、区間毎の学習進度を比較して、運転支援のレベルが早期に増加するような推奨経路を選択し、情報報知部115、116は、選択された推奨経路をユーザに報知するので、学習進度の速やかな向上が期待でき、早期に高レベルの運転支援を提供できる。
 なお、本発明は前述した実施例に限定されるものではなく、添付した特許請求の範囲の趣旨内における様々な変形例及び同等の構成が含まれる。例えば、前述した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに本発明は限定されない。また、ある実施例の構成の一部を他の実施例の構成に置き換えてもよい。また、ある実施例の構成に他の実施例の構成を加えてもよい。また、各実施例の構成の一部について、他の構成の追加・削除・置換をしてもよい。
 また、前述した各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等により、ハードウェアで実現してもよく、プロセッサがそれぞれの機能を実現するプログラムを解釈し実行することにより、ソフトウェアで実現してもよい。
 各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ、ハードディスク、SSD(Solid State Drive)等の記憶装置、又は、ICカード、SDカード、DVD等の記録媒体に格納することができる。
 また、制御線や情報線は説明上必要と考えられるものを示しており、実装上必要な全ての制御線や情報線を示しているとは限らない。実際には、ほとんど全ての構成が相互に接続されていると考えてよい。

Claims (10)

  1.  車両に搭載される車両制御装置であって、
     自車両の周辺環境を認識して認識情報を出力する周辺環境認識部と、
     自車両の位置を推定して自車位置情報を出力する自車位置推定部と、
     前記認識情報及び前記自車位置情報に基づいて、地図情報を生成する地図情報生成部と、
     前記地図情報を記憶する地図情報記憶部と、
     前記地図情報の生成開始を判定する地図情報生成開始判定部と、を有し、
     前記地図情報生成部は、前記地図情報生成開始判定部が予め設定された任意の地点の通過を検出したことに基づいて、前記地図情報の生成を開始することを特徴とする車両制御装置。
  2.  請求項1に記載の車両制御装置であって、
     ユーザからの設定情報の入力を受けるユーザ設定入力部をさらに備え、
     前記任意の地点は前記設定情報に基づいて設定されることを特徴とする車両制御装置。
  3.  請求項2に記載の車両制御装置であって、
     前記任意の地点は、前記ユーザ設定入力部によりユーザが設定した地図上の地点、ユーザが設定した目的地から所定距離の地点、ユーザが設定した領域の境界地点、ユーザが設定したルート上に乗った地点のうち少なくとも一つであることを特徴とする車両制御装置。
  4.  請求項1に記載の車両制御装置であって、
     車両の走行を制御する車両制御部をさらに備え、
     前記地図情報生成部が生成した地図情報には、学習の程度を示す学習進度が付加されており、
     前記車両制御部は、前記学習進度に基づいて運転支援の内容を変更することを特徴とする車両制御装置。
  5.  請求項4に記載の車両制御装置であって、
     前記地図情報生成部は、前記自車両が走行した区間の学習進度を増加し、前記自車両が所定の期間走行していない区間の学習進度を減少するように、所定の区間毎に前記学習進度を演算することを特徴とする車両制御装置。
  6.  請求項5に記載の車両制御装置であって、
     前記車両制御部は、運転支援を実施する経路に含まれる区間毎の学習進度に基づいて、区間毎の運転支援の内容を変更することを特徴とする車両制御装置。
  7.  請求項5に記載の車両制御装置であって、
     前記車両制御部は、運転支援を実施する経路に含まれる区間毎の学習進度に基づいて、経路に含まれる各区間の自動運転レベルのうち最も低い自動運転レベルで、当該経路の運転支援を提供することを特徴とする車両制御装置。
  8.  請求項6又は7に記載の車両制御装置であって、
     ユーザに情報を報知する情報報知部をさらに備え、
     前記情報報知部は、区間毎の学習進度及び前記学習進度に対応した運転支援の内容の少なくとも一方をユーザに報知することを特徴とする車両制御装置。
  9.  請求項8に記載の車両制御装置であって、
     前記車両制御部は、前記区間毎の学習進度を比較して、学習進度が早期に増加するような推奨経路を選択し、
     前記情報報知部は、前記選択された推奨経路をユーザに報知することを特徴とする車両制御装置。
  10.  車両に搭載される車両制御装置が実行する車両制御方法であって、
     自車両の周辺環境を認識して認識情報を出力する周辺環境認識手順と、
     自車両の位置を推定して自車位置情報を出力する自車位置推定手順と、
     地図情報の生成開始を判定する地図情報生成開始判定手順と、
     前記認識情報及び前記自車位置情報に基づいて、前記地図情報を生成する地図情報生成手順と、
     前記地図情報を記憶する地図情報記憶手順と、を有し、
     前記地図情報生成手順では、前記地図情報生成開始判定手順で、予め設定された任意の地点の通過を検出したことに基づいて、前記地図情報の生成を開始することを特徴とする車両制御方法。
PCT/JP2021/007423 2020-06-02 2021-02-26 車両制御装置及び車両制御方法 WO2021246004A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020095893A JP2021189871A (ja) 2020-06-02 2020-06-02 車両制御装置及び車両制御方法
JP2020-095893 2020-06-02

Publications (1)

Publication Number Publication Date
WO2021246004A1 true WO2021246004A1 (ja) 2021-12-09

Family

ID=78830799

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/007423 WO2021246004A1 (ja) 2020-06-02 2021-02-26 車両制御装置及び車両制御方法

Country Status (2)

Country Link
JP (1) JP2021189871A (ja)
WO (1) WO2021246004A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06273186A (ja) * 1993-03-24 1994-09-30 Nissan Motor Co Ltd 地図情報生成装置
JP2006184976A (ja) * 2004-12-24 2006-07-13 Toshiba Corp 移動ロボット、移動ロボットの移動方法および移動プログラム
JP2016065819A (ja) * 2014-09-25 2016-04-28 トヨタ自動車株式会社 車両の制御装置
WO2017149628A1 (ja) * 2016-02-29 2017-09-08 株式会社小松製作所 作業機械の管理システム、及び作業機械

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06273186A (ja) * 1993-03-24 1994-09-30 Nissan Motor Co Ltd 地図情報生成装置
JP2006184976A (ja) * 2004-12-24 2006-07-13 Toshiba Corp 移動ロボット、移動ロボットの移動方法および移動プログラム
JP2016065819A (ja) * 2014-09-25 2016-04-28 トヨタ自動車株式会社 車両の制御装置
WO2017149628A1 (ja) * 2016-02-29 2017-09-08 株式会社小松製作所 作業機械の管理システム、及び作業機械

Also Published As

Publication number Publication date
JP2021189871A (ja) 2021-12-13

Similar Documents

Publication Publication Date Title
US10331139B2 (en) Navigation device for autonomously driving vehicle
JP6859907B2 (ja) 車両制御装置
JP6137212B2 (ja) 運転支援装置
CN110471406B (zh) 自动驾驶系统
JP2018030495A (ja) 車両制御装置
CN110473416B (zh) 车辆控制装置
JPWO2017158768A1 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
US10421394B2 (en) Driving assistance device, and storage medium
CN104221068A (zh) 驾驶辅助装置
JP6930152B2 (ja) 自動運転システム
JP4631519B2 (ja) 駐車支援装置および駐車支援方法
EP3816966B1 (en) Driving assistance method and driving assistance device
JP7152339B2 (ja) 走行制御装置、走行制御方法、およびプログラム
JP7225400B2 (ja) 車両制御装置
JP2019087139A (ja) 車両制御装置
CN113313933B (zh) 用于自动驾驶车辆的基于车道的路线选择系统
JP2017189989A (ja) 車線維持装置
CN110654391B (zh) 车辆控制装置
JP2019109700A (ja) 車両制御装置
JP2020045039A (ja) 車両制御方法及び車両制御装置
JP6650851B2 (ja) 表示装置
JP6819054B2 (ja) 自動運転車両
WO2021246004A1 (ja) 車両制御装置及び車両制御方法
WO2016170683A1 (ja) 走行制御装置およびデータ構造
WO2022215325A1 (ja) 車両制御装置及び車両制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21817029

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21817029

Country of ref document: EP

Kind code of ref document: A1