WO2022215325A1 - 車両制御装置及び車両制御方法 - Google Patents

車両制御装置及び車両制御方法 Download PDF

Info

Publication number
WO2022215325A1
WO2022215325A1 PCT/JP2022/003105 JP2022003105W WO2022215325A1 WO 2022215325 A1 WO2022215325 A1 WO 2022215325A1 JP 2022003105 W JP2022003105 W JP 2022003105W WO 2022215325 A1 WO2022215325 A1 WO 2022215325A1
Authority
WO
WIPO (PCT)
Prior art keywords
map information
vehicle
unit
difficulty level
map
Prior art date
Application number
PCT/JP2022/003105
Other languages
English (en)
French (fr)
Inventor
正人 今井
智 大久保
Original Assignee
日立Astemo株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立Astemo株式会社 filed Critical 日立Astemo株式会社
Publication of WO2022215325A1 publication Critical patent/WO2022215325A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/0969Systems involving transmission of navigation instructions to the vehicle having a display in the form of a map
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids

Definitions

  • the present invention relates to a vehicle control device and a vehicle control method that generate map information from the surrounding environment of the own vehicle.
  • external recognition sensors such as in-vehicle cameras and radar.
  • self-driving technology is being developed that uses these technologies to control the vehicle, assist the driver's driving operations, and drive the vehicle to its destination.
  • high-precision maps are also required for such autonomous driving.
  • a high-definition map contains more detailed and accurate information than a map of a conventional navigation device, such as the types and positions of lane boundaries, the types and positions of road markings and signs, and the positions of traffic lights.
  • high-precision maps are created with priority given to roads and areas with high traffic volume and population, such as expressways and metropolitan areas. As a result, it is difficult to meet the needs of autonomous driving in sparsely populated areas and alleyways around private residences.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2019-197453
  • route information indicating a route traveled by a vehicle equipped with a sensor and sensor information collected by the sensor when traveling the route are associated with identification information.
  • a collection unit that collects, and a generation unit that generates map information based on the route information and the sensor information collected by the collection unit, the route indicated by the route information as map information for a vehicle having an autonomous driving function to autonomously travel.
  • a providing unit that provides the map information generated by the generating unit to a target identified by the identification information, wherein the map information includes information about the target identified by the identification information.
  • Patent Document 1 The technology disclosed in Patent Document 1 is to drive in a place where there is no high-precision map, collect route information and sensor information at that time, and generate a high-precision map from this information. You can drive on the road where you want to implement automatic driving and generate a high-definition map to enable automatic driving. Moreover, with such technology, it is difficult to collect all the information necessary for a high-precision map in one run, and multiple runs on the same road are required. Therefore, if the road on which the vehicle is traveling is in an environment with few characteristics (e.g., no white lines are drawn, white lines are blurred, there are few signs and signs, there are no curbs or guardrails, etc.), sensor information is small. Therefore, it is possible that the information necessary for automatic driving to be permitted cannot be collected, and it takes a considerable number of runs to be able to drive automatically, and it is possible that automatic driving will not be possible no matter how many times the vehicle is driven. be.
  • few characteristics e.g., no white lines are drawn, white
  • the present invention has been made in view of the circumstances described above, and is a vehicle control device capable of generating a high-precision map by an efficient method in order to enable automatic driving at an early stage in a place where there is no high-precision map. and to provide a vehicle control method.
  • a vehicle control device mounted on a vehicle includes a surrounding environment recognizing unit for detecting recognition information that recognizes the surrounding environment of the own vehicle, and a vehicle position estimating unit for estimating the own vehicle position information of the own vehicle.
  • a map information generation unit that generates map information based on the recognition information and the vehicle position information; a map information storage unit that stores the map information; an HMI control unit that exchanges information with a user; and further comprising a map information generation difficulty level acquisition unit that acquires the map information generation difficulty level, wherein the HMI control unit notifies the user of the generation difficulty level and/or determines the generation difficulty level of It is characterized by searching for the travel route of the own vehicle by taking into consideration.
  • a high-precision map can be efficiently generated because a user (driver or passenger) can select and travel on roads that are easy to learn (low difficulty in generating map information). This allows the vehicle to be ready for automated driving more quickly.
  • FIG. 1 is a schematic configuration diagram of a vehicle control device in a first embodiment of the invention
  • FIG. 1 is a schematic configuration diagram of a vehicle control device in a first embodiment of the invention
  • FIG. It is a flow chart of processing which changes an operation mode in the 1st example of the present invention.
  • 4 is a flowchart of map learning processing in the first embodiment of the present invention
  • 4 is a flowchart of map information generation processing in the first embodiment of the present invention
  • 4 is a flow chart of route search processing in the first embodiment of the present invention
  • 4 is a flowchart of driving assistance processing in the first embodiment of the present invention
  • FIG. 2 is a diagram for explaining map information and a definition of a route
  • FIG. It is a figure for demonstrating map information generation difficulty.
  • FIG. 2 is a schematic configuration diagram of a vehicle control device according to a second embodiment of the present invention
  • FIG. 11 is a schematic configuration diagram of a vehicle control device according to a third embodiment of the present invention
  • FIG. 11 is a schematic configuration diagram of a vehicle control device according to a fourth embodiment of the present invention
  • FIGS. 1 and 2 are schematic configuration diagrams of a vehicle control system according to a first embodiment of the present invention.
  • the vehicle control device 100a exemplified in FIGS. 1 and 2 is, for example, a computer mounted on a vehicle (self-vehicle) and controlling the self-vehicle.
  • a program stored in a storage medium By executing a program stored in a storage medium (not shown), Surrounding environment recognition unit 1, vehicle position estimation unit 2, map information generation unit 3, map information generation difficulty level acquisition unit 4, map information storage unit 5, user setting input unit 6, HMI control unit 7, running trajectory generation unit 8 , a vehicle control unit 9, and a map information generation difficulty level output unit 10.
  • 1 and 2 are shown separately because different operations are performed in the two driving modes (during map learning and during driving support) described in the flow chart of FIG.
  • FIG. 1 shows the functional configuration that operates in the driving mode during map learning
  • FIG. 2 shows the functional configuration that operates in the driving mode during driving support.
  • the vehicle control device 100a includes a steering device 111, a driving device 112, a braking device 113, and a transmission device 114 of the own vehicle, an external environment recognition device 101 provided in the own vehicle, an absolute position measuring device 102, a sound generating device 115, It is connected to the display device 116 .
  • the vehicle control device 100a is connected to a CAN (not shown) of the own vehicle and a transmission line such as a dedicated line. Information and user operation information such as switch inputs and touch panel inputs are input.
  • the external environment recognition device 101 is a device that acquires information about the surrounding environment of the own vehicle, and is, for example, four in-vehicle cameras that photograph the surrounding environment of the front, rear, right, and left sides of the own vehicle. .
  • An image obtained by the vehicle-mounted camera is output to the vehicle control device 100a via a transmission line such as a dedicated line, either as analog data or after A/D conversion.
  • a stereo camera can be used as another in-vehicle camera, and in addition to the in-vehicle camera, a radar that measures the distance to an object using millimeter waves or laser light, a sonar that measures the distance to an object using ultrasonic waves etc. can be used.
  • These devices such as an in-vehicle camera output information such as the distance to a detected object and its direction (direction) to the vehicle control device 100a via a transmission line such as a dedicated line.
  • the absolute position measurement device 102 is a device that acquires the absolute position information of the own vehicle on the map, and is, for example, a GNSS (satellite positioning system) such as GPS or GLONASS.
  • the position information obtained by GNSS is output to the vehicle control device 100a via a transmission line such as CAN or a dedicated line.
  • vehicle-to-road communication or the like may be used to acquire the position information of the own vehicle.
  • the steering device 111 is composed of an electric power steering, a hydraulic power steering, or the like that can control the steering angle by an electric or hydraulic actuator or the like in response to a drive command from the outside.
  • the drive device 112 is composed of an engine system that can control the engine torque with an electric throttle or the like according to an external drive command, or an electric power train system that can control the driving force of a motor or the like according to an external drive command.
  • the braking device 113 is composed of an electric brake, a hydraulic brake, or the like that can control the braking force with an electric or hydraulic actuator or the like in response to a braking command from the outside.
  • the transmission 114 is composed of a transmission or the like that can switch between forward and backward movement using an electric or hydraulic actuator or the like in response to a gear change command from the outside.
  • the sound generator 115 is composed of a speaker or the like, and functions as an information notification unit that outputs warnings, voice guidance, etc. to the driver.
  • the display device 116 is composed of a display such as a navigation device, a meter panel, a warning light, and the like.
  • the display device 116 functions as an information notification unit that notifies information such as an operation screen of the vehicle control device 100a and a warning screen that visually notifies the driver that there is a danger of the vehicle colliding with an obstacle.
  • the surrounding environment recognition unit 1 uses the image data of the surroundings of the vehicle input from the external environment recognition device 101 and the distance measurement information to recognize stationary solid objects, moving objects, and lane boundaries (division lines) around the vehicle. ), the shape and position of objects such as road surface paint and signs, etc., and also detect unevenness of the road surface to determine whether the road surface is drivable for the vehicle.
  • Stationary three-dimensional objects are, for example, structures such as guardrails, walls, poles, pylons, curbs, and bollards, and parked vehicles.
  • moving bodies are, for example, pedestrians, bicycles, motorcycles, vehicles, and the like.
  • both the stationary three-dimensional object and the moving object will be collectively referred to as obstacles.
  • the shape and position of an object may be detected by pattern matching, but may be detected using other techniques.
  • the surrounding environment recognition unit 1 based on the information about the shape and position of the detected object and the determination result of whether or not the road surface is on which the vehicle can travel, determines whether the vehicle is traveling on a general road, for example. Detect possible lane positions and turning spaces at intersections. In the case of a parking lot, a parking space in which the vehicle can be parked and a travelable space in which a turn can be made to park in the parking space are detected. Note that this travelable space is defined using the passage width, the distance to an obstacle in front of the vehicle, the position of an obstacle (a parked vehicle) adjacent to the parkingable space, and the like. In this manner, the surrounding environment recognition unit 1 detects recognition information that recognizes the surrounding environment of the own vehicle.
  • the vehicle position estimation unit 2 estimates the vehicle position (information) on the map using information on the absolute position detected by the absolute position measuring device 102, dead reckoning, and the like.
  • Dead reckoning is a method of estimating the vehicle position using information such as the number of rotations of each wheel of the vehicle, vehicle speed, steering angle, and yaw rate, and is known as a known technique. Also, the method for estimating the position of the vehicle on the map differs depending on the available map. If the map is not a high-precision map like the map of a conventional navigation device, the vehicle position is estimated using, for example, a known map matching technique.
  • a high-precision map of the vehicle is detected based on road surface paint such as lane boundaries and signs detected by the surrounding environment recognition unit 1, as well as information on other obstacles and landmarks stored on the high-precision map. Estimate the vehicle position on the map.
  • the map information generation unit 3 generates a high-precision map from the detected surrounding environment and vehicle position information. Specifically, information such as road surface paint such as lane boundaries, road signs, obstacles, and landmarks detected by the surrounding environment recognition unit 1 is used to estimate the vehicle position by the vehicle position estimation unit 2. learning upwards. As a means of learning, for example, there is a method of registering information detected at the same place more than once as highly reliable information in the high-precision map. Further, the map information to be generated calculates learning progress information (in other words, indicating the degree of learning) for grasping the learning situation for each predetermined section (each road unit), and adds information to the map information.
  • learning progress information in other words, indicating the degree of learning
  • the number of learning runs (in other words, the number of times map information is generated) and the amount of learning data per predetermined distance are calculated for each predetermined section (each road unit), and each of these is stored as additional information in the map information.
  • the predetermined section is, for example, a section between intersections of a road, a section of a predetermined distance (for example, 100 m), a section to which identification information in a map of a conventional navigation device is assigned, and the like.
  • the learning progress is increased each time a predetermined section is traveled, and is decreased for sections that have not been traveled for a predetermined period (for example, one week), thereby making it possible to operate while maintaining the freshness of the map information.
  • the map information generation difficulty level acquisition unit 4 acquires map information generation difficulty level information defined for each predetermined section of map information. Communication, data exchange using a storage medium, and the like.
  • the difficulty level of map information generation defines the ease of learning map information using multiple levels.
  • a road, level 5, can be defined as the road that is the hardest to learn.
  • the map information generation difficulty level can be calculated based on the driving data of other vehicles or the map information that has been developed. If it is based on the driving data of other vehicles, it is determined by how many times the other vehicle has learned driving before it became capable of autonomous driving, or by using the amount of learning data per unit distance during the learning driving of the other vehicle. . In the case of the former, for example, roads on which automated driving is possible after two learning runs are set to level 1 (the easiest roads to learn), and automated driving is possible after five learning runs or less. There is a method to classify the roads that did not pass as Level 5 (roads that are the most difficult to learn), and classify the roads that have become capable of autonomous driving after 3, 4, and 5 learning runs as Levels 2 to 4, respectively.
  • roads with a learning data amount of 100 kilobytes or more per unit distance are level 1 (easiest roads to learn), and roads with less than 10 kilobytes are level 5 (least learned).
  • 80 KB or more and less than 100 KB, 50 KB or more and less than 80 KB, and 10 KB or more and less than 50 KB are classified as levels 2 to 4, respectively.
  • the developed map information includes detailed positional information such as lane boundaries (division lines), road signs, road markings, traffic lights, etc., the units described above It is possible to convert to the amount of learning data per distance. However, in reality, it is not possible to collect all the information from the vehicle sensors. multiplied by 0.8, etc.).
  • map information generation difficulty is calculated based on the driving data of other vehicles or the map information that has been developed, statistical processing is performed at a data center that can collect data from multiple vehicles. It is desirable to calculate In addition, it is desirable to use high-precision map information managed by a data center or the like for the map information that has been prepared.
  • the map information storage unit 5 stores the map information generated by the map information generation unit 3.
  • the map information generation difficulty level acquired by the map information generation difficulty level acquisition unit 4 may also be stored in the map information storage unit 5 . Further, from the stored information, the amount of learning data per predetermined distance may be calculated for each predetermined section (each road unit) and stored as additional information in the map information.
  • the map of the conventional navigation device and the map information generated by the map information generation unit 3 may be stored in the same place or may be stored separately.
  • the map information storage unit 5 may store newly generated map information in the storage area of the oldest generated map information after the storage area is filled with map information.
  • the map information storage unit 5 is based on the generated map information (more specifically, from the learning progress and the number of learning runs stored as additional information in the map information), the level at which automatic driving is permitted for each predetermined section. Determines whether learning has progressed up to the number of times of learning driving for each predetermined section when the progress of learning reaches a level that allows automatic driving
  • a map information generation difficulty level (based on travel data of the own vehicle for each predetermined section) is calculated from the amount of learning data.
  • the user setting input unit 6 inputs user operation information such as switch input and touch panel input, and accepts destination setting, route setting, and the like.
  • the HMI control unit 7 exchanges information with a user (driver or passenger), generates information to notify the user according to the situation, and outputs the information to the sound generator 115 and the display device 116 . . Also, when a route search instruction is received from the user, a route that meets the route search conditions for the set destination is calculated and notified to the user. Regarding the specific method of route search here, a known method may be used, but roads that are easy to learn using map information generation difficulty information (roads with low map information generation difficulty) are prioritized. Suppose you add a condition for selection.
  • the traveling trajectory generation unit 8 generates a trajectory for moving the vehicle from the current vehicle position to the target position. Furthermore, the target speed for traveling on the generated track is calculated using information such as the speed limit of the map information, the curvature of the track, the traffic signal, the stop position, the speed of the preceding vehicle, and the like. For example, when driving on a general road, the destination is set using a navigation device, etc., and information such as the positional relationship between the vehicle and obstacles and the lane position when driving toward the destination is used to determine the trajectory. to generate In the case of a parking lot, a target parking position for parking the own vehicle is set within the parking space from the positional relationship between the own vehicle and an obstacle, and a trajectory to that position is generated.
  • the vehicle control unit 9 controls the travel of the own vehicle along the target trajectory generated by the travel trajectory generation unit 8.
  • the vehicle control unit 9 calculates a target steering angle and a target speed based on the target trajectory.
  • the target steering angle and the target speed are calculated so that the own vehicle does not collide with the obstacle.
  • the vehicle control unit 9 outputs a target steering torque for realizing the target steering angle to the steering device 111 .
  • the vehicle control unit 9 also outputs a target engine torque and a target brake pressure for realizing the target speed to the driving device 112 and the braking device 113 .
  • a shift command is output to the transmission device 114 .
  • the map information generation difficulty level output unit 10 outputs the map information generation difficulty level calculated by the map information storage unit 5 .
  • Output methods include communication with a data center, vehicle-to-vehicle communication, road-to-vehicle communication, data exchange using a storage medium, etc.
  • the output information is used for map information learning of other vehicles.
  • the information to be output is the number of times of learning driving for each predetermined section when the progress of learning reaches a level that allows automatic driving and map information.
  • the learning data amount per predetermined distance stored in the storage unit 5 may be included.
  • 3 to 7 are flowcharts showing an example of the processing procedure of the vehicle control device 100a.
  • FIG. 3 is a flowchart for switching the operation mode.
  • the process is changed based on the current operating mode.
  • the driving mode is map learning
  • the process proceeds to map learning processing in step S302, and when driving assistance is in progress, the driving assistance processing proceeds to step S303.
  • FIG. 4 is a flowchart showing the details of the map learning process of process S302 in FIG.
  • the vehicle control device 100a acquires the recognition result of the external environment from the external environment recognition device 101.
  • the vehicle control device 100a acquires the measurement result of the absolute position from the absolute position measurement device 102.
  • step S403 the surrounding environment recognition unit 1 detects (recognition information) road paint such as lane boundaries, signs, obstacles, landmarks, etc. around the vehicle based on the external environment recognition result acquired in step S401. do.
  • the vehicle position estimation unit 2 extracts the detection result of the surrounding environment recognition unit 1, the map information in the map information storage unit 5, and the vehicle information (rotation of each wheel number, vehicle speed, steering angle, yaw rate, etc.) to estimate the vehicle position (information).
  • processing S405 the map information generation unit 3 generates a high-precision map. The details of this processing will be described with reference to the flowchart of FIG.
  • FIG. 5 is a flow chart showing the details of the map information generation process of process S405 in FIG.
  • the start and end of generation of map information are determined based on the information on the position of the vehicle and the content set by the user's operation.
  • processing S502 it is determined whether or not the determination result in processing S501 is the map information generation timing. If it is the map information generation timing, the process proceeds to processing S503.
  • process S503 a high-precision map is generated from the detected surrounding environment and vehicle position information, and the process proceeds to process S504.
  • process S504 the generated map information is stored, and the process ends.
  • the map information generation difficulty level is acquired by the map information generation difficulty level acquisition unit 4.
  • processing S407 the HMI control unit 7 executes route search processing. The details of this process will be described with reference to the flowchart of FIG.
  • FIG. 6 is a flowchart showing the details of the route search process of process S407 in FIG.
  • processing S601 of FIG. 6 it is determined whether or not the route has been searched and the route is being displayed.
  • step S602 it is checked whether or not the vehicle is traveling according to the displayed route, and if the vehicle is following the route, the same route is displayed. End the process.
  • process S603 it is determined whether or not there is a route search instruction from the user. If there is a route search instruction, the process proceeds to process S604, and if there is no route search instruction, the process ends.
  • processing S604 a route to the destination is searched, and the processing ends.
  • processing S408 of FIG. 4 the content of notification to the user is updated, and the user is notified using the sound generator 115 or the display device 116.
  • route search processing is executed in processing S407, a display for letting the user determine the route is displayed, and when reroute processing is executed, a display is displayed to notify the user that reroute has been performed.
  • step S409 it is determined whether or not there is a manifestation of intention for driving assistance from the user's switch operation or the like. .
  • the content of driving support includes, for example, automatic driving level 2 (automatic driving that requires constant monitoring by the driver), automatic driving level 3 (automatic driving under certain conditions, and the driver is responsible for driving operations in an emergency). , Autonomous Driving Level 4 (automatic driving within a limited area, no driver operation is required), etc.
  • processing S411 the driving mode is changed to "under driving support".
  • process S412 the user is notified of the driving assistance content determined in process S410 using the sound generator 115 or display device 116, and the process ends.
  • FIG. 7 is a flow chart showing the details of the driving support process of process S303 in FIG.
  • the travel trajectory generation unit 8 In processing S705, the travel trajectory generation unit 8 generates a trajectory for moving the vehicle from the current vehicle position to the target position.
  • the vehicle control unit 9 calculates the target steering angle, target speed, and appropriate shift position for traveling on the target trajectory generated in processing S705.
  • step S707 the vehicle control unit 9 outputs the target steering angle, target speed, and proper shift position calculated in step S706 to the steering device 111, the driving device 112, the braking device 113, and the transmission device 114.
  • the control parameter output to the steering device 111 includes a target steering torque for realizing the target steering angle, but depending on the configuration of the steering device 111, the target steering angle may be output directly.
  • Control parameters output to the driving device 112 and the braking device 113 include target engine torque, target brake pressure, etc. for realizing the target speed. may be output.
  • the vehicle control unit 9 outputs the control parameters calculated in processing S707 to the steering device 111, the driving device 112, the braking device 113, and the transmission device 114 as vehicle control signals.
  • process S709 it is determined whether or not the host vehicle has reached the target position. If the target position has been reached, the process proceeds to process S710, and if the target position has not been reached, the process proceeds to process S711.
  • step S711 if the target position has been reached in step S709, guidance to end the driving assistance is given to the user using the sound generator 115 or display device 116. Notify and terminate the process.
  • map information generation difficulty level output process by the map information generation difficulty level output unit 10 may be inserted at an arbitrary position in the above process. This makes it possible to effectively utilize the output map information generation difficulty level when generating map information for other vehicles.
  • FIG. 8 assumes a road environment in which the roads in the horizontal direction from H1 to H4 and the roads in the vertical direction from V1 to V5 intersect.
  • roads between intersections are given identifiers (IDs) as predetermined sections.
  • IDs identifiers
  • a section between the H1 road and the H2 road is defined as ID: V1_1-2.
  • the vehicle 800 is traveling from point B to point A along a route (driving route) 801 .
  • the calculated route 801 basically gives priority to the shortest distance or the shortest arrival time.
  • Fig. 9 shows the map information generation difficulty level applied to each road section in the same road environment as Fig. 8.
  • the map information generation difficulty level is represented by three levels (learning difficulty level: low, learning difficulty level: middle level, learning difficulty level: high level).
  • the route from point B to point A is route 901 if priority is given to the shortest distance or the shortest arrival time.
  • the route 902 is slightly longer than the route 901, the map information generation difficulty level is relatively low, and the automatic driving becomes possible more quickly. In this way, considering the priority of roads that are easy to learn (low map information generation difficulty), it is possible to make automatic driving possible more quickly.
  • a screen 1001 displays the map information of the own vehicle 1000 and its surroundings, and also displays the map information generation difficulty level information described with reference to FIG.
  • wording for conveying the map information generation difficulty level to the user in an easy-to-understand manner is also displayed. In this way, by conveying information about roads that are easy to learn to the user, the user can select a road and drive on his or her own judgment. In other words, if the user wants to enable automatic driving as soon as possible, he/she should select a road that is easy to learn and drive.
  • map information of the own vehicle 1100 and its surroundings is displayed on the screen 1101, and information on the map information generation difficulty level described in FIG. 9 is also displayed. Furthermore, a route 1102 is searched and displayed, taking into account the priority of easy-to-learn roads using the map information generation difficulty level information described with reference to FIG. In this way, a route that considers the priority of easy-to-learn roads is displayed to the user, and the user travels along this route, so that automatic driving can be made possible more quickly.
  • the map information generation difficulty level includes information on how many times the route will be able to drive automatically
  • the map information generation It is also possible to calculate based on the speed and display the wording of how many times the vehicle will be in a state where automatic driving is possible as shown in FIG. 11, thereby improving user convenience. Specifically, based on the number of times of travel on the road for each predetermined section on the target route, the maximum number of times is displayed.
  • a screen 1201 displays the map information of the own vehicle 1200 and its surroundings, and also displays the map information generation difficulty level information described in FIG. Furthermore, a route 1203 considering the priority of easy-to-learn roads using the map information generation difficulty level information explained in FIG. This is a situation in which the user is suggested which route to choose, and an explanation is added to each route. In this way, it is possible to transmit necessary information to the user and allow the user to select a route, so that it is possible to propose a route that takes into account the user's preference.
  • two routes are displayed at the same time and the user is allowed to select a route.
  • the HMI control unit 7 searches for a route to the destination based on the map information generation difficulty level and at least distance information to the destination. For example, there is also a method that allows the user to change whether to preferentially display easy-to-learn roads or to preferentially display shortest distances based on the input from the user. As a result, only one route can be proposed in consideration of the user's preference, thereby saving the user's trouble and improving operability.
  • FIG. 13 is a schematic block diagram of a vehicle control system according to a second embodiment of the invention. 13, the functions explained in FIG. 1 are divided into a vehicle control device 100b and a navigation device 200b. It's becoming The navigation map storage unit 11 stores map information for the purpose of conventional route guidance instead of high-precision maps required for automatic driving. and store the information in a form that is added to the conventional map information.
  • FIG. 14 is a schematic block diagram of a vehicle control system according to a third embodiment of the invention.
  • FIG. 14 divides the functions described in FIG. 1 into the vehicle control device 100c and the navigation device 200c. It has a configuration in which the part 4 is connected.
  • the map information generation difficulty level is input from the map information generation difficulty level acquisition section 4 to the map information storage section 5, and the information is added to the map information generated by the map information generation section 3.
  • Store the map information generation difficulty level
  • FIG. 15 is a schematic block diagram of a vehicle control system according to a fourth embodiment of the invention.
  • FIG. 15 divides the functions described in FIG. 2 into a vehicle control device 100d and a navigation device 200d.
  • the map information generation difficulty level output unit 10 is arranged in the vehicle control device 100d, but may be arranged in the navigation device 200d.
  • map information is also provided for large parking lots of housing complexes, commercial facilities, etc., and private roads leading to them, for example.
  • the present invention can be applied, and it is possible to automatically complete parking by setting an arbitrary parking space as the destination. If the map information of such a place is not stored in advance in the vehicle control device, it may be acquired together with the map information generation difficulty level information.
  • map information is not maintained in most parking lots of private residences, etc., it is difficult to apply all of the present invention. Since it is possible, it is possible to apply a part of the present invention, such as determining how many more runs it will take to be in a state where automatic driving is possible, and notifying the user of that information.
  • the vehicle control apparatus of this embodiment is a vehicle control apparatus mounted on a vehicle, for example.
  • a vehicle position estimation unit 2 for estimating vehicle position information of a vehicle
  • a map information generation unit 3 for generating map information based on the recognition information and the vehicle position information
  • a map information storage for storing the map information.
  • an HMI control unit 7 for exchanging information with a user, and further comprising a map information generation difficulty level acquisition unit 4 for acquiring the map information generation difficulty level, wherein the HMI control unit 7 , the generated difficulty level is reported to the user, and/or the driving route of the own vehicle is searched in consideration of the generated difficulty level.
  • the vehicle control method of this embodiment is a vehicle control method executed by a vehicle control device mounted on a vehicle, and includes a surrounding environment recognition procedure for detecting recognition information for recognizing the surrounding environment of the own vehicle; A vehicle position estimation procedure for estimating vehicle position information of a vehicle, a map information generation procedure for generating map information based on the recognition information and the vehicle position information, and a map information storage procedure for storing the map information. , an HMI control procedure for exchanging information with a user, and a map information generation difficulty level acquisition procedure for acquiring the map information generation difficulty level, wherein the HMI control procedure obtains the generation difficulty level. The user is notified and/or the travel route of the own vehicle is searched in consideration of the generated difficulty level.
  • map information generation difficulty level information on the ease of learning (map information generation difficulty level) generated based on travel data of other vehicles or developed map information is acquired, and this information is taken into consideration when the own vehicle travels. or display this information on a map (navigation) and refer to it while driving.
  • the user can select a road that is easy for the user to learn (low difficulty level of map information generation) and drive. can be made possible. In addition, it becomes possible to execute automatic driving using the learned high-precision map.
  • the present invention is not limited to the above-described embodiments, and includes various modifications and equivalent configurations within the scope of the attached claims.
  • the above-described embodiments have been described in detail for easy understanding of the present invention, and the present invention is not necessarily limited to those having all the described configurations.
  • part of the configuration of one embodiment may be replaced with the configuration of another embodiment.
  • the configuration of another embodiment may be added to the configuration of one embodiment.
  • additions, deletions, and replacements of other configurations may be made for a part of the configuration of each embodiment.
  • each configuration, function, processing unit, processing means, etc. described above may be realized by hardware, for example, by designing a part or all of them with an integrated circuit, and the processor realizes each function. It may be realized by software by interpreting and executing a program to execute.
  • Information such as programs, tables, and files that implement each function can be stored in storage devices such as memory, hard disks, SSDs (Solid State Drives), or recording media such as IC cards, SD cards, and DVDs.
  • storage devices such as memory, hard disks, SSDs (Solid State Drives), or recording media such as IC cards, SD cards, and DVDs.
  • control lines and information lines indicate those that are considered necessary for explanation, and do not necessarily indicate all the control lines and information lines necessary for implementation. In practice, it can be considered that almost all configurations are interconnected.
  • Map information generation unit 1 Surrounding environment recognition unit 2 Vehicle position estimation unit 3 Map information generation unit 4 Map information generation difficulty level acquisition unit 5 Map information storage unit 6 User setting input unit 7 HMI control unit 8 Traveling trajectory generation unit 9 Vehicle control unit 10 Map information Generation difficulty level output unit 11 Navigation map storage unit 100a, 100b, 100c, 100d Vehicle control device 101 External environment recognition device 102 Absolute position measurement device 111 Steering device 112 Driving device 113 Braking device 114 Transmission device 115 Sound generating device 116 Display device 200b , 200c, 200d navigation device 800 own vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Mathematical Physics (AREA)
  • Automation & Control Theory (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)

Abstract

効率的に高精度地図を生成し、より早く自動運転が可能な状態にすることができる車両制御装置及び車両制御方法を提供する。たとえば車両に搭載される車両制御装置であって、自車両の周辺環境を認識した認識情報を検出する周辺環境認識部1と、前記自車両の自車位置情報を推定する自車位置推定部2と、前記認識情報および前記自車位置情報に基づいて地図情報を生成する地図情報生成部3と、前記地図情報を記憶する地図情報記憶部5と、ユーザとの情報のやり取りを行うHMI制御部7と、を有し、前記地図情報の生成難易度を取得する地図情報生成難易度取得部4をさらに備え、前記HMI制御部7は、前記生成難易度をユーザに報知する、および/または、前記生成難易度を加味して前記自車両の走行ルートを探索する。

Description

車両制御装置及び車両制御方法
 本発明は、自車両の周辺環境から地図情報を生成する車両制御装置及び車両制御方法に関する。
 車載カメラやレーダなどの外界認識センサを用いて自車両周辺の物体(車両、歩行者、構造物など)や道路標示や道路標識(区画線などの路面ペイント、止まれなどの標識など)を認識するための技術が種々提案されている。さらに、これらの技術を用いて自車両を制御し、運転者の運転操作をアシストして目的地まで走行させる自動運転技術が開発されている。
 このような自動運転には外界認識技術に加え、高精度地図も必要である。高精度地図は、従来のナビゲーション装置の地図より詳細かつ正確な情報を含んでおり、例えば、車線境界線の種別や位置、道路標示や標識の種別や位置、信号の位置などを含む。ただし、高精度地図は、高速道路や大都市圏等の通行量や人口が多い道路や地域を優先して作成されている。そのため、人口の少ない地域や個人宅周辺の路地等において、自動運転のニーズを満たすことが難しい。
 このような高精度地図の課題を解決する技術として、以下の先行技術がある。特許文献1(特開2019-197453号公報)には、センサを搭載した車両が走行した経路を示す経路情報と、前記経路を走行時に前記センサが収集したセンサ情報と、を識別情報に関連付けて収集する収集部と、前記収集部が収集した前記経路情報及び前記センサ情報に基づいて、前記経路情報が示す経路を自律走行機能を有する車両が自律走行するための地図情報として生成する生成部と、前記生成部が生成した前記地図情報を前記識別情報により特定された対象に提供する提供部と、を備え、前記地図情報は、前記識別情報により特定された対象に関する情報が含まれている、ことを特徴とする情報処理装置が記載されている(請求項1参照)。
特開2019-197453号公報
 特許文献1に開示されている技術は、高精度地図がない場所を走行し、その時の経路情報やセンサ情報を収集して、これらの情報から高精度地図を生成するものであり、運転者が自動運転を実施したいと思う道路を走行し、高精度地図を生成して自動運転を可能とすることができる。また、このような技術は、一度の走行では高精度地図に必要な全ての情報の収集は困難であり、同じ道路について複数回の走行が必要である。そのため、走行している道路が特徴の少ない環境(例えば、白線が引いていない、白線がかすれて見えない、標識や標示が少ない、縁石やガードレールなどがない、など)の場合、センサ情報が少ないために自動運転が許可されるのに必要な情報が収集できずに、自動運転ができるようになるためにかなりの走行回数を要したり、何度走行しても自動運転ができない可能性もある。
 本発明は、前述した事情を鑑みてなされたもので、高精度地図がない場所で自動運転を早期に可能とするために、効率の良い方法で高精度地図を生成することができる車両制御装置及び車両制御方法を提供することを目的とする。
 本願において開示される発明の代表的な一例を示せば以下の通りである。すなわち、たとえば車両に搭載される車両制御装置であって、自車両の周辺環境を認識した認識情報を検出する周辺環境認識部と、前記自車両の自車位置情報を推定する自車位置推定部と、前記認識情報および前記自車位置情報に基づいて地図情報を生成する地図情報生成部と、前記地図情報を記憶する地図情報記憶部と、ユーザとの情報のやり取りを行うHMI制御部と、を有し、前記地図情報の生成難易度を取得する地図情報生成難易度取得部をさらに備え、前記HMI制御部は、前記生成難易度をユーザに報知する、および/または、前記生成難易度を加味して前記自車両の走行ルートを探索することを特徴とする。
 本発明の一態様によれば、ユーザ(運転者ないし乗員)が学習しやすい(地図情報の生成難易度が低い)道路を選択して走行することができるため、効率的に高精度地図を生成し、より早く自動運転が可能な状態にすることができる。
 前述した以外の課題、構成及び効果は、以下の実施例の説明によって明らかにされる。
本発明の第1の実施例における車両制御装置の概略構成図である。 本発明の第1の実施例における車両制御装置の概略構成図である。 本発明の第1の実施例において運転モードを切り替える処理のフローチャートである。 本発明の第1の実施例における地図学習処理のフローチャートである。 本発明の第1の実施例における地図情報生成処理のフローチャートである。 本発明の第1の実施例におけるルート探索処理のフローチャートである。 本発明の第1の実施例における運転支援処理のフローチャートである。 地図情報とルートの定義を説明するための図である。 地図情報生成難易度を説明するための図である。 表示装置によるユーザへの情報報知の一例を示す図である。 表示装置によるユーザへの情報報知の一例を示す図である。 表示装置によるユーザへの情報報知の一例を示す図である。 本発明の第2の実施例における車両制御装置の概略構成図である。 本発明の第3の実施例における車両制御装置の概略構成図である。 本発明の第4の実施例における車両制御装置の概略構成図である。
 以下、本発明の実施例について図面を用いて説明する。なお、実施例を説明するための全図において、同一の機能を有する部分には同一の符号を付し、その繰り返し説明は省略する場合がある。
(第1の実施例)
 図1及び図2は、本発明の第1の実施例による車両制御装置の概略構成図である。図1及び図2に例示される車両制御装置100aは、たとえば車両(自車両)に搭載され、自車両を制御するコンピュータであり、不図示の記憶媒体に記憶されたプログラムを実行することによって、周辺環境認識部1、自車位置推定部2、地図情報生成部3、地図情報生成難易度取得部4、地図情報記憶部5、ユーザ設定入力部6、HMI制御部7、走行軌道生成部8、車両制御部9、及び地図情報生成難易度出力部10として機能する。なお、図1と図2に構成を分けて記載しているのは、図3のフローチャートで説明する2つの運転モード(地図学習中、運転支援中)で異なる動作をするためである。図1は、地図学習中の運転モードで動作する機能構成、図2は、運転支援中の運転モードで動作する機能構成を記載している。
 車両制御装置100aは、自車両の操舵装置111、駆動装置112、制動装置113、及び変速装置114と、自車両に設けられた外環境認識装置101、絶対位置計測装置102、音発生装置115、表示装置116とに接続されている。また、車両制御装置100aは、自車両のCAN(不図示)や専用線などの伝送路に接続されており、これらの伝送路を経由して自車両の車速、舵角、シフト位置などの車両情報及びスイッチ入力、及びタッチパネル入力などのユーザ操作情報が入力される。
 外環境認識装置101は、自車両の周囲環境に関する情報を取得する装置であって、例えば、自車両の前方、後方、右側方、左側方の周囲環境をそれぞれ撮影する4個の車載カメラである。車載カメラにより得られた画像は、アナログデータのまま、又はA/D変換して、専用線などの伝送路を経由して車両制御装置100aに出力される。また、他の車載カメラとしてステレオカメラを用いることができ、車載カメラ以外にもミリ波やレーザー光を用いて物体との距離を計測するレーダ、超音波を用いて物体との距離を計測するソナー等を用いることができる。車載カメラなどのこれらの装置は、検出した物体との距離とその方角(方向)等の情報を専用線などの伝送路を経由して車両制御装置100aに出力する。
 絶対位置計測装置102は、自車両の地図上の絶対位置情報を取得する装置であって、例えば、GPS、GLONASSなどのGNSS(衛星測位システム)である。GNSSにより得られた位置情報は、CANや専用線などの伝送路を経由して車両制御装置100aに出力される。また、GNSS以外にも路車間通信などを利用して自車両の位置情報を取得してもよい。
 操舵装置111は、外部からの駆動指令により電動や油圧のアクチュエータなどによって舵角を制御できる電動パワーステアリング、油圧パワーステアリング等で構成される。
 駆動装置112は、外部からの駆動指令により電動のスロットルなどでエンジントルクを制御できるエンジンシステムや、外部からの駆動指令によりモータなどの駆動力を制御できる電動パワートレインシステム等で構成される。
 制動装置113は、外部からの制動指令により電動や油圧のアクチュエータなどで制動力を制御できる電動ブレーキや油圧ブレーキ等で構成される。
 変速装置114は、外部からの変速指令により電動や油圧のアクチュエータなどで前進や後退を切り替え可能なトランスミッション等で構成される。
 音発生装置115は、スピーカー等で構成され、運転者に対する警報や音声ガイダンス等を出力する情報報知部として機能する。
 表示装置116は、ナビゲーション装置等のディスプレイ、メーターパネル、警告灯等で構成される。表示装置116は、車両制御装置100aの操作画面や、自車両が障害物に衝突する危険があることなどを運転者に視覚的に伝える警告画面等の情報を報知する情報報知部として機能する。
<車両制御装置100aの機能説明>
 周辺環境認識部1は、外環境認識装置101から入力された自車両の周囲を撮像した画像データや測距情報を用いて、自車両周辺の静止立体物、移動体、車線境界線(区画線)等の路面ペイント、標識等の物体の形状や位置を検出し、さらに、路面の凹凸等を検出して自車両が走行可能な路面であるか否かを判定する判定機能を有する。静止立体物とは、例えば、ガードレール、壁、ポール、パイロン、縁石、車止めなどの構造物や、駐車車両である。また、移動体とは、例えば、歩行者、自転車、バイク、車両などである。以降、静止立体物と移動体の二つをまとめて障害物と称する。物体の形状や位置は、パターンマッチングによって検出するとよいが、他の技術を用いて検出してもよい。
 また、周辺環境認識部1は、検出した物体の形状や位置に関する情報と自車両が走行可能な路面であるか否かの判定結果に基づいて、例えば一般道を走行する場合であれば、走行可能な車線位置や交差点の旋回可能スペース等を検出する。また、駐車場の場合であれば、自車両を駐車させることができる空間である駐車可能空間や、駐車可能空間に駐車するために転回などが可能な空間である走行可能空間等を検出する。なお、この走行可能空間は、通路幅、自車両前方の障害物までの距離、駐車可能空間に隣接する障害物(駐車車両)の位置などを用いて定義する。このようにして、周辺環境認識部1は、自車両の周辺環境を認識した認識情報を検出する。
 自車位置推定部2は、絶対位置計測装置102で検出した絶対位置の情報や推測航法などを用いて地図上の自車位置(情報)を推定する。推測航法とは、例えば自車両の各車輪の回転数や、車速や舵角、ヨーレートなどの情報を用いて自車位置を推定する手法であり、公知の技術として知られている。また、ここで地図上の自車位置を推定する手法は、利用可能な地図により異なる。従来のナビゲーション装置の地図のように高精度地図ではない場合は、例えば公知技術であるマップマッチング手法を用いて自車位置を推定する。高精度地図の場合は、周辺環境認識部1により検出した車線境界線などの路面ペイントや標識、その他高精度地図上に記憶している障害物やランドマークの情報に基づいて自車両の高精度地図上での自車位置を推定する。
 地図情報生成部3は、検出した周囲環境と自車位置の情報から高精度地図を生成する。具体的には、周辺環境認識部1により検出した車線境界線などの路面ペイントや標識、障害物やランドマークなどの情報を自車位置推定部2で推定した自車位置に基づいて高精度地図上に学習していく。学習の手段としては、例えば複数回同じ場所で検出された情報ほど信頼度が高い情報として高精度地図に登録する方法がある。また、生成する地図情報は、所定の区間毎(道路単位毎)に学習の状況を把握するための(換言すれば、学習の度合いを示す)学習進度の情報を算出し、地図情報に付加情報として記憶する。さらに、所定の区間毎(道路単位毎)に学習走行の回数(換言すれば、地図情報を生成した回数)と所定距離当たりの学習データ量を算出して、それぞれを地図情報に付加情報として記憶する。ここで、所定の区間(道路単位)とは、例えば道路の交差点間の区間、所定距離(例えば100m)の区間、従来のナビゲーション装置の地図における識別情報が付与されている区間などである。また、学習進度は、所定の区間を走行する毎に増加させ、所定の期間(例えば1週間)走行していない区間は減少させることで、地図情報の鮮度を保った運用が可能となる。
 地図情報生成難易度取得部4は、地図情報の所定の区間毎に定義された地図情報生成難易度の情報を取得するもので、取得方法として、データセンタとの通信、車車間通信、路車間通信、記憶媒体を用いたデータ授受などがある。地図情報生成難易度は、地図情報の学習のしやすさを複数のレベルなどを用いて定義するもので、例えばレベルを1~5の5段階で表現する場合は、レベル1が最も学習しやすい道路、レベル5が最も学習しにくい道路と定義できる。
 地図情報生成難易度は、他車両の走行データ又は整備済みの地図情報に基づいて算出が可能である。他車両の走行データに基づく場合は、他車両が何回の学習走行で自動運転が可能な状態になったか、もしくは、他車両の学習走行時における単位距離当たりの学習データ量を用いて決定する。前者に基づく場合、例えば、2回以内の学習走行で自動運転が可能な状態になった道路はレベル1(最も学習しやすい道路)とし、5回以下の学習走行で自動運転が可能な状態にならなかった道路はレベル5(最も学習しにくい道路)とし、3回、4回、5回の学習走行で自動運転が可能な状態になった道路はそれぞれレベル2~4とする方法がある。後者に基づく場合、例えば、単位距離(例えば10m)当たりの学習データ量が100キロバイト以上の道路はレベル1(最も学習しやすい道路)とし、同様に10キロバイト未満の道路はレベル5(最も学習しにくい道路)とし、80キロバイト以上100キロバイト未満、50キロバイト以上80キロバイト未満、10キロバイト以上50キロバイト未満の道路はそれぞれレベル2~4とする方法がある。また、整備済みの地図情報に基づく場合は、例えば、整備済みの地図情報に、車線境界線(区画線)、道路標識、道路標示、信号機などの詳細な位置情報が含まれる場合、前述した単位距離当たりの学習データ量に換算することが可能である。ただし、実際には車両のセンサですべての情報を収集できることはないため、すべて収集できた場合の学習データ量に対してある程度減算した値(例えば、すべて収集できた場合の学習データ量に対して0.8をかける、など)を採用する。
 なお、地図情報生成難易度は、他車両の走行データ又は整備済みの地図情報に基づいて算出されるため、複数の車両のデータを吸い上げることが可能なデータセンタなどにおいて、統計的な処理を施して算出することが望ましい。また、整備済みの地図情報に関しても、データセンタなどで管理する高精度地図情報を用いることが望ましい。
 地図情報記憶部5は、地図情報生成部3により生成された地図情報を記憶する。また、地図情報生成難易度取得部4により取得した地図情報生成難易度も地図情報記憶部5に記憶しても良い。また、記憶した情報から、所定の区間毎(道路単位毎)に所定距離当たりの学習データ量を算出して、それを地図情報に付加情報として記憶してもよい。ここでは、従来のナビゲーション装置の地図と地図情報生成部3により生成された地図情報を同じ場所に格納しても良く、別々に格納しても良い。地図情報記憶部5は、その記憶領域が地図情報で一杯になった後、最古に生成された地図情報の記憶領域に、新たに生成される地図情報を記憶する方式としてもよい。また、地図情報記憶部5は、生成された地図情報に基づいて(詳しくは、地図情報に付加情報として記憶した学習進度および学習走行の回数から)、所定の区間毎に自動運転を許可するレベルまで学習が進んでいるかを判定し、学習の進み具合が自動運転を許可するレベルに到達した際の所定の区間毎の学習走行の回数と(地図情報に付加情報として記憶した)所定距離当たりの学習データ量から、(所定の区間毎に自車両の走行データに基づく)地図情報生成難易度を算出する。
 ユーザ設定入力部6は、スイッチ入力やタッチパネル入力などでのユーザ操作情報を入力し、目的地の設定、ルート設定などを受け付ける。
 HMI制御部7は、ユーザ(運転者ないし乗員)との情報のやり取りを行うもので、ユーザに報知するための情報を状況に応じて適宜生成し、音発生装置115および表示装置116に出力する。また、ユーザからルート探索指示があった場合には設定された目的地に対してルート探索条件に合ったルートを演算してユーザに報知する。ここでのルート探索の具体的な手法に関しては公知の手法を用いてもよいが、地図情報生成難易度の情報を用いて学習しやすい道路(地図情報生成難易度の低い道路)を優先的に選択する条件を加えるものとする。
 走行軌道生成部8は、現在の自車位置から目標位置に自車両を移動するための軌道を生成する。さらに、生成した軌道を走行する目標速度を地図情報の制限速度や軌道の曲率、信号機、一時停止位置、先行車の速度等の情報を用いて演算する。例えば、一般道を走行する場合には、ナビゲーション装置などを利用して目的地を設定し、目的地に向かって走行する際の自車両と障害物との位置関係や車線位置等の情報から軌道を生成する。また、駐車場の場合では、自車両と障害物との位置関係から自車両を駐車する目標駐車位置を駐車可能空間内に設定し、そこまでの軌道を生成する。
 車両制御部9は、走行軌道生成部8で生成した目標軌道に沿って自車両の走行を制御する。車両制御部9は、目標軌道に基づいて目標舵角と目標速度を演算する。なお、自車両と障害物との衝突が予測される場合には、自車両が障害物に衝突しないように目標舵角と目標速度を演算する。そして、車両制御部9は、その目標舵角を実現するための目標操舵トルクを操舵装置111へ出力する。また、車両制御部9は、目標速度を実現するための目標エンジントルクや目標ブレーキ圧を駆動装置112や制動装置113へ出力する。さらに、自車両の進行方向を変更する必要がある場合、変速指令を変速装置114に出力する。
 地図情報生成難易度出力部10は、地図情報記憶部5により算出した地図情報生成難易度を出力する。出力方法として、データセンタとの通信、車車間通信、路車間通信、記憶媒体を用いたデータ授受などがあり、出力された情報は他車両の地図情報学習のために利用される。なお、出力する情報は、自車両の走行データに基づく地図情報生成難易度以外に、学習の進み具合が自動運転を許可するレベルに到達した際の所定の区間毎の学習走行の回数と地図情報記憶部5に記憶した所定距離当たりの学習データ量を含めても良い。
<車両制御装置100aの処理内容説明>
 次に、フローチャートを用いて車両制御装置100aの処理手順を説明する。
 図3から図7は、車両制御装置100aの処理手順の一例を示すフローチャートである。
 図3は、運転モードを切り替えるためのフローチャートである。
 図3の処理S301では、現在の運転モードに基づいて処理を変更する。運転モードが地図学習中の場合は処理S302の地図学習処理に進み、運転支援中の場合は処理S303の運転支援処理に進む。
 図4は、図3の処理S302の地図学習処理の詳細を示すフローチャートである。
 図4の処理S401では、車両制御装置100aは、外環境認識装置101から外界環境の認識結果を取得する。
 処理S402では、車両制御装置100aは、絶対位置計測装置102から絶対位置の計測結果を取得する。
 処理S403では、周辺環境認識部1は、処理S401で取得した外界環境認識結果に基づいて、自車両周辺の車線境界線などの路面ペイント、標識、障害物、ランドマークなど(認識情報)を検出する。
 処理S404では、自車位置推定部2は、処理S402で取得した絶対位置計測結果に基づいて、周辺環境認識部1の検出結果と地図情報記憶部5の地図情報及び車両情報(各車輪の回転数、車速や舵角、ヨーレートなど)を用いて自車位置(情報)を推定する。
 処理S405では、地図情報生成部3により高精度地図を生成する。この処理の詳細は図5のフローチャートで説明する。
 図5は、図4の処理S405の地図情報生成処理の詳細を示すフローチャートである。
 図5の処理S501では、自車位置の情報やユーザ操作によって設定された内容に基づいて、地図情報の生成開始と生成終了を判定する。
 処理S502では、処理S501の判定結果が地図情報生成タイミングか否かを判定し、地図情報生成タイミングであれば処理S503に進み、地図情報生成タイミングでなければ処理を終了する。
 処理S503では、検出された周囲環境と自車位置の情報から高精度地図を生成して、処理S504に進み、処理S504では、生成した地図情報を記憶し、処理を終了する。
 図4の処理S406では、地図情報生成難易度取得部4により地図情報生成難易度を取得する。
 処理S407では、HMI制御部7によりルート探索処理を実行する。この処理の詳細は図6のフローチャートで説明する。
 図6は、図4の処理S407のルート探索処理の詳細を示すフローチャートである。
 図6の処理S601では、ルート探索済みでルートを表示中であるか否かを判定し、ルートを表示中であれば処理S602に進み、ルートを表示中でなければ処理S603に進む。
 処理S602では、自車両が表示されているルートに従って走行しているか否かを確認し、ルートに従っている場合は同じルートを表示し、ルートから外れた場合は再度ルート探索するリルート処理を実行し、処理を終了する。
 処理S603では、ユーザからのルート探索指示があったか否かを判定し、ルート探索指示があった場合には処理S604に進み、ルート探索指示がなかった場合には処理を終了する。
 処理S604では、目的地までのルートを探索し、処理を終了する。
 図4の処理S408では、ユーザへの報知内容の更新を行い、音発生装置115もしくは表示装置116を用いてユーザに報知する。例えば、処理S407でルート探索処理が実行された場合にユーザにルートを決定させるための表示を出したり、リルート処理が実行された場合にユーザにリルートした旨を通知する表示を出したりする。
 処理S409では、ユーザからのスイッチ操作などから運転支援の意思表示があるか否かを判定し、運転支援の意思表示があれば処理S410に進み、運転支援の意思表示がなければ処理を終了する。
 処理S410では、運転支援の内容を決定する。運転支援の内容としては、例えば自動運転レベル2(運転者が常に監視が必要な自動運転)、自動運転レベル3(一定条件下での自動運転で、緊急時は運転者が運転操作を担う)、自動運転レベル4(限定領域内での自動運転で、運転者の運転操作は不要)などがある。
 処理S411では、“運転支援中”に運転モードを変更する。
 処理S412では、処理S410で決定された運転支援内容を音発生装置115又は表示装置116を用いてユーザに報知し、処理を終了する。
 図7は、図3の処理S303の運転支援処理の詳細を示すフローチャートである。
 図7の処理S701から処理S704までは図4の処理S401から処理S404までと同じ処理であるため説明は省略する。
 処理S705では、走行軌道生成部8は、現在の自車位置から目標位置に自車両を移動するための軌道を生成する。
 処理S706では、車両制御部9は、処理S705で生成された目標軌道を走行するための目標舵角、目標速度、適正シフト位置を演算する。
 処理S707では、車両制御部9は、処理S706で演算された目標舵角、目標速度、及び適正シフト位置を操舵装置111、駆動装置112、制動装置113、及び変速装置114のそれぞれに出力するための制御パラメータを演算する。例えば、操舵装置111に出力する制御パラメータは、目標舵角を実現するための目標操舵トルクがあるが、操舵装置111の構成によっては直接目標舵角を出力してもよい。また、駆動装置112及び制動装置113に出力する制御パラメータは、目標速度を実現するための目標エンジントルクや目標ブレーキ圧等があるが、駆動装置112と制動装置113の構成によっては直接目標速度を出力してもよい。
 処理S708では、車両制御部9は、処理S707で演算された制御パラメータを車両制御信号として操舵装置111、駆動装置112、制動装置113、及び変速装置114のそれぞれに出力する。
 処理S709では、自車両が目標位置に到達したか否かを判定し、目標位置に到達したら処理S710に進み、目標位置に到達していないなら処理S711に進む。
 処理S710では、運転モードを“地図学習中”に変更する。
 処理S711では、処理S709で目標位置に到達した場合は運転支援を終了する案内を、目標位置に到達していない場合は運転支援中の案内を音発生装置115又は表示装置116を用いてユーザに報知し、処理を終了する。
 以上説明したフローを実行することで、ユーザが学習しやすい(地図情報生成難易度の低い)道路を選択して走行することができるため、効率的に高精度地図を生成し、より早く自動運転が可能な状態にすることができる。また、学習した高精度地図を利用した自動運転が実行可能となる。
 なお、上記処理の中で地図情報生成難易度出力部10による地図情報生成難易度出力処理を任意の位置に挿入しても良い。これにより、出力した地図情報生成難易度を他車両の地図情報生成時に有効活用することが可能となる。
<地図情報生成難易度の具体的な用途説明>
 次に、図8から図12を用いて、地図情報生成難易度取得部4により取得される地図情報生成難易度の具体的な使用方法を説明する。
 図8は、H1からH4の左右方向の道路とV1からV5の上下方向の道路がそれぞれ交差している道路環境を想定している。また、この道路環境においては交差点間の道路を所定の区間としてそれぞれ識別子(ID)を付与しており、たとえばH1道路のV1道路とV2道路の間の区間をID:H1_1-2、V1道路のH1道路とH2道路の間の区間をID:V1_1-2と定義する。
 図8においては、自車両800がルート(走行ルート)801に沿って地点Bから地点Aまで走行している状況である。この状況下では、地図情報生成難易度を考慮していないことを前提としており、演算されたルート801は基本的には最短距離もしくは最短の到達時間が優先されている。
 図9は、図8と同じ道路環境において、地図情報生成難易度をそれぞれの道路区間に当てはめたものである。ここでの地図情報生成難易度はレベルを3段階(学習難易度低、学習難易度中、学習難易度高)で表現している。図8と同様に地点Bから地点Aまでのルートは、最短距離もしくは最短の到達時間が優先されるとルート901のようになるが、ここに地図情報生成難易度の情報を用いて学習しやすい道路の優先度を考慮するとルート902のようになる。ルート902はルート901と比較して若干距離が長くなるが、地図情報生成難易度が相対的に低く、より早く自動運転が可能な状態になるルートである。このように、学習しやすい(地図情報生成難易度の低い)道路の優先度を考慮すると、より早く自動運転が可能な状態にすることができる。
 図10から図12は、ユーザに情報を報知する表示装置116の一例である。図10では、画面1001に自車両1000と周辺の地図情報が表示されており、図9で説明した地図情報生成難易度の情報も表示している。また、地図情報生成難易度をユーザに分かりやすく伝達するための文言も合わせて表示している。このように、学習しやすい道路の情報をユーザに伝えることで、ユーザ自身の判断で道路を選択して走行することができるようになる。すなわち、ユーザが早く自動運転を可能な状態にしたいと考えるならば、学習しやすい道路を選択して走行すればよいことになる。
 図11は、画面1101に自車両1100と周辺の地図情報が表示されており、図9で説明した地図情報生成難易度の情報も表示している。さらに、図9で説明した地図情報生成難易度の情報を用いて学習しやすい道路の優先度を考慮したルート1102が探索されて表示されている。このように、学習しやすい道路の優先度を考慮したルートをユーザに表示し、ユーザがこのルートに沿って走行することで、より早く自動運転が可能な状態にすることができる。また、地図情報生成難易度には何回の走行で自動運転が可能な状態になるかの情報も含まれるため、ルートがあと何回の走行で自動運転が可能になるかを地図情報生成難易度に基づいて演算し、図11のように何回の走行で自動運転が可能な状態になるかの文言を表示することもでき、これによりユーザの利便性が向上する。具体的には、目的のルート上の所定区間毎の道路における何回の走行で自動運転が可能な状態になるかの情報に基づいて、最も多い回数を表示する。
 図12は、画面1201に自車両1200と周辺の地図情報が表示されており、図9で説明した地図情報生成難易度の情報も表示している。さらに、図9で説明した地図情報生成難易度の情報を用いて学習しやすい道路の優先度を考慮したルート1203と、最短距離もしくは最短の到達時間が優先したルート1202が表示されている。これは、ユーザにどちらのルートを選択するかを提案している状況で、それぞれのルートに対して説明文を付加している。このように、ユーザに必要な情報を伝達するとともに、ユーザにルートを選択させることができるため、ユーザの嗜好を考慮したルートを提案することが可能になる。また、図12の例では2本のルートを同時に表示してユーザに選択させる方式としているが、学習しやすい道路を優先的に表示するか、最短距離を優先的に表示するかを事前にユーザにより設定しておく方式もある。言い換えれば、HMI制御部7は、地図情報生成難易度および少なくとも目的地までの距離情報に基づいて目的地までのルートを探索するが、ルートを探索する際の地図情報生成難易度の優先度(たとえば、学習しやすい道路を優先的に表示するか、最短距離を優先的に表示するか)をユーザからの入力に基づいて変更可能とする方式もある。これにより、ユーザの嗜好を考慮したルートを1本だけ提案することができるため、ユーザの手間も省け、操作性が向上する。
(第2~第4の実施例)
 次に、図1及び図2で説明した第1の実施例の車両制御装置の概略構成図においては、車両制御装置100aにすべての機能が構成されているが、例えば、図13から図15に示すように、機能を2つの装置に分けて構成しても良い。言い換えれば、車両制御装置100aの機能の一部を、他の装置(ここではナビゲーション装置)に分けて構成しても良い。
(第2の実施例)
 図13は、本発明の第2の実施例による車両制御装置の概略構成図である。図13は、図1で説明した機能を車両制御装置100bとナビゲーション装置200bに分けて構成しており、ナビゲーション装置200bのナビ地図記憶部11に地図情報生成難易度取得部4が接続する構成となっている。ナビ地図記憶部11は、自動運転に必要な高精度地図ではなく、従来の経路案内を目的とする地図情報が格納されており、ここに地図情報生成難易度取得部4から地図情報生成難易度を入力し、従来の地図情報に付加する形で情報を格納する。
(第3の実施例)
 図14は、本発明の第3の実施例による車両制御装置の概略構成図である。図14は、図13と同様に、図1で説明した機能を車両制御装置100cとナビゲーション装置200cに分けて構成しており、車両制御装置100cの地図情報記憶部5に地図情報生成難易度取得部4が接続する構成となっている。第1の実施例と同様に、地図情報記憶部5に地図情報生成難易度取得部4から地図情報生成難易度を入力し、地図情報生成部3で生成した地図情報に付加する形で情報を格納する。
(第4の実施例)
 図15は、本発明の第4の実施例による車両制御装置の概略構成図である。図15は、図2で説明した機能を車両制御装置100dとナビゲーション装置200dに分けて構成している。ここで、地図情報生成難易度出力部10は車両制御装置100dに配置されているが、ナビゲーション装置200dの方に配置してもよい。
 また、本実施例では道路を走行中の状況を想定して説明したが、例えば、集合住宅や商用施設等の大型の駐車場やそこに至るまでの私道等においても地図情報が整備されている場合には本発明を適用可能なことは明らかであり、目的地設定を任意の駐車スペースとすることで駐車まで自動で完了させることも可能である。なお、このような場所の地図情報を事前に車両制御装置内に格納していない場合は、地図情報生成難易度の情報と合わせて取得する方法としてもよい。また、個人宅の駐車場等においては地図情報が整備されていないことがほとんどのため、本発明のすべてを適用することは困難であるが、例えば、1回の学習走行で学習データ量が算出可能であるので、あと何回の走行で自動運転が可能な状態になるかを判断でき、その情報をユーザに通知する等、本発明の一部を適用することが可能である。
(第1~第4の実施例の作用効果)
 以上説明したように、本実施例の車両制御装置は、たとえば車両に搭載される車両制御装置であって、自車両の周辺環境を認識した認識情報を検出する周辺環境認識部1と、前記自車両の自車位置情報を推定する自車位置推定部2と、前記認識情報および前記自車位置情報に基づいて地図情報を生成する地図情報生成部3と、前記地図情報を記憶する地図情報記憶部5と、ユーザとの情報のやり取りを行うHMI制御部7と、を有し、前記地図情報の生成難易度を取得する地図情報生成難易度取得部4をさらに備え、前記HMI制御部7は、前記生成難易度をユーザに報知する、および/または、前記生成難易度を加味して前記自車両の走行ルートを探索する。
 また、本実施例の車両制御方法は、車両に搭載される車両制御装置が実行する車両制御方法であって、自車両の周辺環境を認識した認識情報を検出する周辺環境認識手順と、前記自車両の自車位置情報を推定する自車位置推定手順と、前記認識情報および前記自車位置情報に基づいて地図情報を生成する地図情報生成手順と、前記地図情報を記憶する地図情報記憶手順と、ユーザとの情報のやり取りを行うHMI制御手順と、を有し、前記地図情報の生成難易度を取得する地図情報生成難易度取得手順をさらに備え、前記HMI制御手順は、前記生成難易度をユーザに報知する、および/または、前記生成難易度を加味して前記自車両の走行ルートを探索する。
 すなわち、たとえば、他車両の走行データもしくは整備済みの地図情報に基づいて生成された学習しやすさの情報(地図情報生成難易度)を取得し、自車両が走行する際にこの情報を考慮してルート計算する、または、地図(ナビ)上にこの情報を表示して、ユーザ自身が参照しながら走行する。
 本実施例の車両制御装置によると、ユーザが学習しやすい(地図情報生成難易度の低い)道路を選択して走行することができるため、効率的に高精度地図を生成し、より早く自動運転が可能な状態にすることができる。また、学習した高精度地図を利用した自動運転が実行可能となる。
 なお、本実施例はいくつかのパターンを例にとって説明したが、ほかのパターンにおいても本発明は適用可能である。また、本発明の趣旨を逸脱しない範囲において、種々の様態で実施することができる。
 また、本発明は前述した実施例に限定されるものではなく、添付した特許請求の範囲の趣旨内における様々な変形例及び同等の構成が含まれる。例えば、前述した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに本発明は限定されない。また、ある実施例の構成の一部を他の実施例の構成に置き換えてもよい。また、ある実施例の構成に他の実施例の構成を加えてもよい。また、各実施例の構成の一部について、他の構成の追加・削除・置換をしてもよい。
 また、前述した各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等により、ハードウェアで実現してもよく、プロセッサがそれぞれの機能を実現するプログラムを解釈し実行することにより、ソフトウェアで実現してもよい。
 各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ、ハードディスク、SSD(Solid State Drive)等の記憶装置、又は、ICカード、SDカード、DVD等の記録媒体に格納することができる。
 また、制御線や情報線は説明上必要と考えられるものを示しており、実装上必要な全ての制御線や情報線を示しているとは限らない。実際には、ほとんど全ての構成が相互に接続されていると考えてよい。
1   周辺環境認識部
2   自車位置推定部
3   地図情報生成部
4   地図情報生成難易度取得部
5   地図情報記憶部
6   ユーザ設定入力部
7   HMI制御部
8   走行軌道生成部
9   車両制御部
10  地図情報生成難易度出力部
11  ナビ地図記憶部
100a、100b、100c、100d 車両制御装置
101 外環境認識装置
102 絶対位置計測装置
111 操舵装置
112 駆動装置
113 制動装置
114 変速装置
115 音発生装置
116 表示装置
200b、200c、200d ナビゲーション装置
800 自車両

Claims (12)

  1.  自車両の周辺環境を認識した認識情報を検出する周辺環境認識部と、前記自車両の自車位置情報を推定する自車位置推定部と、前記認識情報および前記自車位置情報に基づいて地図情報を生成する地図情報生成部と、前記地図情報を記憶する地図情報記憶部と、ユーザとの情報のやり取りを行うHMI制御部と、を有する車両制御装置において、
     前記地図情報の生成難易度を取得する地図情報生成難易度取得部をさらに備え、
     前記HMI制御部は、前記生成難易度をユーザに報知する、および/または、前記生成難易度を加味して前記自車両の走行ルートを探索することを特徴とする車両制御装置。
  2.  前記生成難易度は、所定の道路単位で定義され、他車両の走行データおよび/または整備済み地図情報に基づいて決定されるものであり、
     前記他車両の走行データは、前記他車両が何回の学習走行で自動運転が可能な状態になったか、または、前記他車両の学習走行における単位距離当たりの学習データ量、の少なくとも一方を含み、
     前記整備済み地図情報は、道路標識、区画線、または、道路標示、の少なくとも一つ以上に関して、位置の情報を含むことを特徴とする請求項1に記載の車両制御装置。
  3.  前記生成難易度は、前記他車両の走行データおよび/または前記整備済み地図情報に基づいて複数のレベルで難易度を定義することを特徴とする請求項2に記載の車両制御装置。
  4.  前記HMI制御部は、前記走行ルートがあと何回の走行で自動運転が可能になるかを前記生成難易度に基づいて演算し、該演算結果をユーザに報知することを特徴とする請求項1に記載の車両制御装置。
  5.  前記HMI制御部は、前記生成難易度および少なくとも目的地までの距離情報に基づいて前記目的地までの走行ルートを探索し、前記走行ルートを探索する際の前記生成難易度の優先度をユーザからの入力に基づいて変更できることを特徴とする請求項1に記載の車両制御装置。
  6.  前記地図情報生成難易度取得部は、データセンタとの通信、車車間通信、路車間通信、記憶媒体を用いたデータ授受のうち少なくとも一つを用いて前記生成難易度を取得することを特徴とする請求項1に記載の車両制御装置。
  7.  前記地図情報生成部は、前記所定の道路単位毎に地図情報の学習の度合いを示す学習進度を演算し、前記地図情報記憶部に該学習進度を記憶することを特徴とする請求項2に記載の車両制御装置。
  8.  前記地図情報生成部は、前記所定の道路単位毎に地図情報を生成した回数を演算し、前記地図情報記憶部に該回数を記憶することを特徴とする請求項2に記載の車両制御装置。
  9.  前記地図情報記憶部は、前記所定の道路単位毎に単位距離当たりの学習データ量を演算し、該学習データ量を記憶することを特徴とする請求項2に記載の車両制御装置。
  10.  前記地図情報生成部は、
     前記所定の道路単位毎に地図情報の学習の度合いを示す学習進度を演算し、前記地図情報記憶部に該学習進度を記憶し、
     前記所定の道路単位毎に地図情報を生成した回数を演算し、前記地図情報記憶部に該回数を記憶し、
     前記地図情報記憶部は、
     前記所定の道路単位毎に単位距離当たりの学習データ量を演算し、該学習データ量を記憶し、
     前記地図情報記憶部に記憶した前記学習進度および前記地図情報を生成した回数から前記学習進度が自動運転を許可するレベルに到達したときの前記地図情報を生成した回数を求め、該回数または前記地図情報記憶部に記憶した前記学習データ量に基づいて前記所定の道路単位毎に前記自車両の走行データに基づく生成難易度を演算することを特徴とする請求項2に記載の車両制御装置。
  11.  前記地図情報の生成難易度を出力する地図情報生成難易度出力部をさらに備え、
     前記地図情報生成難易度出力部は、前記学習進度が自動運転を許可するレベルに到達したときの前記地図情報を生成した回数、前記地図情報記憶部に記憶した前記学習データ量、前記自車両の走行データに基づく生成難易度のうち少なくとも一つを、データセンタとの通信、車車間通信、路車間通信、記憶媒体を用いたデータ授受のうち少なくとも一つを用いて出力することを特徴とする請求項10に記載の車両制御装置。
  12.  車両に搭載される車両制御装置が実行する車両制御方法であって、
     自車両の周辺環境を認識した認識情報を検出する周辺環境認識手順と、前記自車両の自車位置情報を推定する自車位置推定手順と、前記認識情報および前記自車位置情報に基づいて地図情報を生成する地図情報生成手順と、前記地図情報を記憶する地図情報記憶手順と、ユーザとの情報のやり取りを行うHMI制御手順と、を有し、
     前記地図情報の生成難易度を取得する地図情報生成難易度取得手順をさらに備え、
     前記HMI制御手順は、前記生成難易度をユーザに報知する、および/または、前記生成難易度を加味して前記自車両の走行ルートを探索することを特徴とする車両制御方法。
PCT/JP2022/003105 2021-04-08 2022-01-27 車両制御装置及び車両制御方法 WO2022215325A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-066009 2021-04-08
JP2021066009A JP2022161301A (ja) 2021-04-08 2021-04-08 車両制御装置及び車両制御方法

Publications (1)

Publication Number Publication Date
WO2022215325A1 true WO2022215325A1 (ja) 2022-10-13

Family

ID=83546284

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/003105 WO2022215325A1 (ja) 2021-04-08 2022-01-27 車両制御装置及び車両制御方法

Country Status (2)

Country Link
JP (1) JP2022161301A (ja)
WO (1) WO2022215325A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7680749B1 (en) * 2006-11-02 2010-03-16 Google Inc. Generating attribute models for use in adaptive navigation systems
JP2019197453A (ja) * 2018-05-11 2019-11-14 パイオニア株式会社 情報処理装置
JP2019220027A (ja) * 2018-06-21 2019-12-26 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理方法及び情報処理装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7680749B1 (en) * 2006-11-02 2010-03-16 Google Inc. Generating attribute models for use in adaptive navigation systems
JP2019197453A (ja) * 2018-05-11 2019-11-14 パイオニア株式会社 情報処理装置
JP2019220027A (ja) * 2018-06-21 2019-12-26 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理方法及び情報処理装置

Also Published As

Publication number Publication date
JP2022161301A (ja) 2022-10-21

Similar Documents

Publication Publication Date Title
JP7209601B2 (ja) 高精度地図生成方法、高精度地図生成装置、コンピュータ機器、非一時的なコンピュータ読み取り可能な記憶媒体及びコンピュータプログラム
US10118614B2 (en) Detailed map format for autonomous driving
JP7150159B2 (ja) 自律車両の信号機検知および車線状態認識
RU2642547C1 (ru) Система определения обновления карт
US11011064B2 (en) System and method for vehicle platooning
CN110473416B (zh) 车辆控制装置
US20200233426A1 (en) System and method for estimating lane prediction errors for lane segments
JP2020087464A (ja) 3dデータを2d画像データに登録するためのシステム及び方法
WO2019191287A1 (en) Use of relative atlas in an autonomous vehicle
JPWO2018179415A1 (ja) 運転制御方法及び運転制御装置
US10884410B2 (en) Systems and methods for determining whether a vehicle is capable of navigating an intersection in an autonomous driving mode
JP2020154623A (ja) 交通制御システム
JP7172562B2 (ja) 運転支援装置および該方法
WO2022215325A1 (ja) 車両制御装置及び車両制御方法
WO2016170683A1 (ja) 走行制御装置およびデータ構造
WO2021246004A1 (ja) 車両制御装置及び車両制御方法
JP2019035622A (ja) 車両用情報記憶方法、車両の走行制御方法、及び車両用情報記憶装置
JP7147545B2 (ja) 運転支援装置および該方法
RU2763331C1 (ru) Способ отображения плана движения и устройство отображения плана движения
JP2022123940A (ja) 車両制御装置
JP2022127729A (ja) 車両位置認識装置
US12073633B2 (en) Systems and methods for detecting traffic lights of driving lanes using a camera and multiple models
WO2022249610A1 (ja) 自車位置推定装置及び自車位置推定方法
JP2006031602A (ja) 車両用自動運転システム
US20240126254A1 (en) Path selection for remote vehicle assistance

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22784311

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22784311

Country of ref document: EP

Kind code of ref document: A1