WO2024089810A1 - 移動体制御システム、その制御方法、プログラム、及び移動体 - Google Patents

移動体制御システム、その制御方法、プログラム、及び移動体 Download PDF

Info

Publication number
WO2024089810A1
WO2024089810A1 PCT/JP2022/039961 JP2022039961W WO2024089810A1 WO 2024089810 A1 WO2024089810 A1 WO 2024089810A1 JP 2022039961 W JP2022039961 W JP 2022039961W WO 2024089810 A1 WO2024089810 A1 WO 2024089810A1
Authority
WO
WIPO (PCT)
Prior art keywords
trajectory
mobile
control system
road shape
mobile body
Prior art date
Application number
PCT/JP2022/039961
Other languages
English (en)
French (fr)
Inventor
航輝 相澤
涼至 若山
健登 白方
英樹 松永
Original Assignee
本田技研工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 本田技研工業株式会社 filed Critical 本田技研工業株式会社
Priority to PCT/JP2022/039961 priority Critical patent/WO2024089810A1/ja
Publication of WO2024089810A1 publication Critical patent/WO2024089810A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the present invention relates to a mobile object control system, a control method thereof, a program, and a mobile object.
  • small mobile bodies such as electric vehicles with a passenger capacity of one or two people, known as ultra-compact mobility (also called micromobility), and mobile robots that provide various services to people, have become known. Some of these mobile bodies perform autonomous driving while periodically generating a driving route to a destination.
  • small mobile bodies have limited hardware resources, and it is difficult to secure an area to store high-precision map information for generating a route, or a communication device that can quickly acquire large amounts of map information. Therefore, there is a demand for generating routes for such small mobile bodies without using high-precision map information.
  • Patent Document 1 proposes recognizing the road shape by extracting white lines at the edge of the road from images captured by a camera or the like in curved sections, obtaining the curvature of the white lines, and estimating the white lines in the extension direction that falls outside the range of the captured image, without using map information.
  • the curvature of the curved section is assumed to be constant in the direction of extension, and the white lines are extracted to recognize the road shape in the direction of extension. Therefore, while it can handle road shapes where white lines are continuous, such as curves, it cannot handle shapes with multiple exits, such as intersections, because the white lines are not continuous. If it is not possible to grasp the road shape of intersections, etc., it is not possible to generate a route without using highly accurate map information.
  • the present invention was made in consideration of the above problems, and aims to generate optimal driving routes even for road structures that have exits that require course changes at intersections, etc., without using highly accurate map information.
  • a mobile body control system includes an imaging means for acquiring an image of a driving area to which a mobile body is to move, a recognition means for recognizing a road shape contained in the captured image, and a trajectory generation means for generating a trajectory of the mobile body based on the road shape recognized by the recognition means, and is characterized in that, when a road shape having an entry section and at least one exit section involving a lane change is recognized by the recognition means, the trajectory generation means generates a first trajectory from the current position of the mobile body to the entry section, and a second trajectory from the entry section to an exit section specified according to instruction information regarding the destination of the mobile body.
  • the present invention makes it possible to generate optimal driving routes even for road structures that have exits that require course changes such as intersections, without using highly accurate map information.
  • FIG. 2 is a block diagram showing an example of the hardware configuration of a moving body according to the embodiment
  • FIG. 2 is a block diagram showing an example of the hardware configuration of a moving body according to the embodiment
  • FIG. 2 is a block diagram showing a control configuration of a moving object according to the present embodiment
  • FIG. 2 is a block diagram showing the functional configuration of a moving body according to the embodiment
  • FIG. 1 shows a captured image according to the present embodiment.
  • FIG. 2 is a diagram showing a road shape in a captured image according to the present embodiment;
  • FIG. 1 is a diagram showing an example of a trajectory generation method for an intersection according to the present embodiment
  • FIG. 1 is a diagram showing an example of a trajectory generation method for an intersection according to the present embodiment
  • FIG. 1 is a diagram showing an example of a trajectory generation procedure for an intersection according to the present embodiment
  • Fig. 1A shows a side view of the moving body 100 according to this embodiment
  • Fig. 1B shows the internal configuration of the moving body 100.
  • arrow X indicates the front-rear direction of the moving body 100
  • F indicates the front
  • R indicates the rear
  • Arrows Y and Z indicate the width direction (left-right direction) and up-down direction of the moving body 100.
  • the mobile body 100 is an ultra-compact mobility equipped with a driving unit 12, which moves mainly by motor power with a battery 13 as the main power source.
  • An ultra-compact mobility is an ultra-compact vehicle that is more compact than a typical automobile and has a passenger capacity of about one or two people.
  • a four-wheeled ultra-compact mobility is described as an example of the mobile body 100, but this is not intended to limit the present invention, and it may be, for example, a three-wheeled vehicle or a saddle-type vehicle.
  • the mobile body of the present invention is not limited to vehicles, but may be a mobile body that carries luggage and runs alongside a person walking, or a mobile body that leads a person.
  • the present invention is not limited to four-wheeled or two-wheeled vehicles, and may also be applicable to walking robots that are capable of autonomous movement.
  • the battery 13 is a secondary battery such as a lithium-ion battery, and the mobile body 100 is self-propelled by the driving unit 12 using power supplied from the battery 13.
  • the driving unit 12 is a four-wheeled vehicle equipped with a pair of left and right front wheels 20 and a pair of left and right rear wheels 21.
  • the driving unit 12 may be in another form, such as a tricycle.
  • the mobile body 100 is equipped with a seat 14 for one or two people. In front of the seat 14, an operation unit 25 is provided for the passenger to input directional instructions.
  • the operation unit 25 is any device that indicates the direction of movement of the mobile body 100, and a device that allows input in multiple directions, such as a joystick, can be applied. Before entering a road shape that has an exit that requires a course change, such as an intersection, the driver can operate the operation unit 25 to indicate which exit to exit from.
  • the traveling unit 12 includes a steering mechanism 22.
  • the steering mechanism 22 is a mechanism that uses a motor 22a as a drive source to change the steering angle of the pair of front wheels 20. By changing the steering angle of the pair of front wheels 20, the traveling direction of the mobile body 100 can be changed.
  • the traveling unit 12 also includes a drive mechanism 23.
  • the drive mechanism 23 is a mechanism that uses a motor 23a as a drive source to rotate the pair of rear wheels 21. By rotating the pair of rear wheels 21, the mobile body 100 can move forward or backward.
  • the moving body 100 is equipped with detection units 15-17 that detect targets around the moving body 100.
  • the detection units 15-17 are a group of external sensors that monitor the surroundings of the moving body 100, and in the present embodiment, each is an imaging device that captures an image of the surroundings of the moving body 100, and includes, for example, an optical system such as a lens and an image sensor.
  • an optical system such as a lens and an image sensor.
  • radar or lidar Light Detection and Ranging
  • the two detection units 15 are arranged at the front of the moving body 100, spaced apart in the Y direction, and mainly detect targets in front of the moving body 100.
  • the detection units 16 are arranged on the left and right sides of the moving body 100, respectively, and mainly detect targets to the sides of the moving body 100.
  • the detection unit 17 is arranged at the rear of the moving body 100, and mainly detects targets behind the moving body 100.
  • detection units are provided on the front, rear, left and right sides of the moving body 100 is described, but this is not intended to limit the present invention, and a configuration in which detection units are provided only in a certain direction of the moving body 100 (for example, the front).
  • the mobile body 100 captures an image of the area ahead of the mobile body 100 using at least the detection unit 15, extracts the road shape from the captured image, and generates a route according to recognition information indicating the extracted road shape and operation instructions from the operation unit 25 by the driver, or information regarding course changes obtained from a route plan to the destination.
  • the recognition information is output by a machine learning model that processes the image information (captured image).
  • the machine learning model performs processing to recognize the road shape contained in the image information, for example, by calculating a deep learning algorithm using a deep neural network (DNN).
  • the recognition information includes various lines and lane information on the road, the lane in which the vehicle is located (Ego lane), various intersections (intersections, etc.), entrances to various roads (Road entrances), etc.
  • FIG. 2 is a block diagram of a control system of the moving body 100 according to this embodiment.
  • the configuration necessary for implementing the present invention will be mainly described. Therefore, in addition to the configuration described below, other configurations may be included.
  • each unit described below is described as being included in the moving body 100, but this is not intended to limit the present invention, and the moving body control system may be realized as a moving body control system including multiple devices.
  • some functions of the control unit 30 may be realized by a server device connected in a communicable manner, or the detection units 15 to 17 and the GNSS sensor 34 may be provided as external devices.
  • the moving body 100 includes a control unit (ECU) 30.
  • ECU control unit
  • the control unit 30 includes a processor represented by a CPU, a storage device such as a semiconductor memory, an interface with an external device, and the like.
  • the storage device stores a program executed by the processor, data used by the processor for processing, and the like.
  • a plurality of sets of the processor, storage device, and interface may be provided according to the functions of the moving body 100 and configured to be able to communicate with each other.
  • the control unit 30 acquires the detection results of the detection units 15-17, input information from the operation panel 31, voice information input from the voice input device 33, position information from the GNSS sensor 34, directional instruction information from the operation unit 25, and information received via the communication unit 36, and executes the corresponding processing.
  • the control unit 30 controls the motors 22a, 23a (drive control of the drive unit 12), controls the display of the operation panel 31, notifies the occupants of the mobile body 100 by voice from the speaker 32, and outputs information.
  • the voice input device 33 picks up the voices of the occupants of the mobile body 100.
  • the control unit 30 can recognize the input voices and execute the corresponding processing.
  • the GNSS (Global Navigation Satellite system) sensor 134 receives GNSS signals to detect the current position of the mobile body 100.
  • the storage device 35 is a storage device that stores images captured by the detection units 15 to 17, obstacle information, previously generated routes, and occupancy grid maps, etc.
  • the storage device 35 may also store programs executed by the processor and data used by the processor for processing, etc.
  • the storage device 35 may also store various parameters of machine learning models for voice recognition and image recognition executed by the control unit 30 (for example, learned parameters and hyperparameters of a deep neural network, etc.).
  • the communication unit 36 communicates with the communication device 120, which is an external device, via wireless communication such as Wi-Fi or fifth generation mobile communication.
  • the communication device 120 is, for example, a smartphone, but is not limited to this and may be an earphone-type communication terminal, a personal computer, a tablet terminal, a game console, etc.
  • the communication device 120 connects to a network via wireless communication such as Wi-Fi or fifth generation mobile communication.
  • a user who owns the communication device 120 can give instructions to the mobile body 100 via the communication device 120.
  • the instructions include, for example, an instruction to call the mobile body 100 to a location desired by the user and join the mobile body 100.
  • the mobile body 100 sets a target position based on the position information included in the instruction.
  • the mobile body 100 can also set a target position from images captured by the detection units 15-17, or based on instructions from a user riding the mobile body 100 via the operation panel 31.
  • a target position from an image for example, a person raising their hand toward the mobile body 100 is detected in the captured image, and the position of the detected person is estimated and set as the target position.
  • the functional configuration of the moving body 100 according to this embodiment will be described with reference to Fig. 3.
  • the functional configuration described here is realized in the control unit 30, for example, by the CPU reading out a program stored in a memory such as a ROM into a RAM and executing it.
  • the functional configuration described below describes only the functions necessary for explaining the present invention, and does not describe all of the functional configurations actually included in the moving body 100.
  • the functional configuration of the moving body 100 according to the present invention is not limited to the functional configuration described below.
  • the user instruction acquisition unit 301 has a function of accepting instructions from the user, and can accept user instructions via the operation unit 25 or operation panel 31, user instructions from an external device such as the communication device 120 via the communication unit 36, and user spoken instructions via the voice input device 33.
  • user instructions include instructions to set a target position (also called a destination) for the mobile body 100 and instructions related to driving control of the mobile body 100.
  • the image information processing unit 302 processes the captured images acquired by the detection units 15 to 17. Specifically, the image information processing unit 302 extracts the recognized road shape from the captured images acquired by the detection units 15 to 17.
  • the image information processing unit 302 also includes a machine learning model that processes image information, and may execute the learning stage processing and inference stage processing of the machine learning model.
  • the machine learning model of the image information processing unit 302 can perform processing to recognize the road shape, etc. contained in the image information, for example, by performing calculations of a deep learning algorithm using a deep neural network (DNN).
  • the recognition information indicating the recognized road shape includes, for example, information indicating lines such as white lines, lanes, the shape of the intersection, and the entrances and exits of the intersection.
  • the trajectory generating unit 303 generates a travel path (trajectory) of the moving body 100 to the target position set by the user instruction acquiring unit 301. Specifically, the trajectory generating unit 303 generates a trajectory based on the road shape (recognition information) recognized from the captured images of the detection units 15 to 17 and the direction instruction information via the operation unit 25, without requiring obstacle information from a high-precision map.
  • the recognition information is information on the road shape within a predetermined range from the moving body 100, and it is not possible to recognize the road shape beyond that.
  • the recognition information is information that is periodically updated as the moving body 100 advances. Therefore, distant areas are gradually recognized in accordance with the movement of the moving body 100.
  • the trajectory generating unit 303 sequentially generates a trajectory according to the updated recognition information.
  • the direction instruction information is not limited to information received via the operation unit 25, but may be based on information on a course change obtained by a route plan to the destination. Therefore, the operation unit 25 is not a required component of the present invention, and it can be applied to moving bodies that do not have the operation unit 25.
  • the speed planning unit 304 also plans the speed according to the curvature of the trajectory generated by the trajectory generation unit 303, and also plans the speed based on the direction instructions from the driver. For example, when an instruction to turn right or left is given at an intersection, the speed plan controls the vehicle to decelerate to 8 km in the case of a right turn, and to 6 km in the case of a left turn, before going straight ahead and starting to curve. By controlling the speed according to the trajectory generated in this way and instructions from the driver, it is possible to avoid sudden deceleration, etc.
  • the driving control unit 305 controls the driving of the moving body 100 according to the generated trajectory and speed plan. Specifically, the driving control unit 305 controls the driving unit 12 according to the trajectory and speed plan to control the speed and angular velocity of the moving body 100. If the driving plan for the trajectory deviates due to the driver's operation, the driving control unit 305 may again obtain a new trajectory generated by the trajectory generation unit 303 and control the driving, or may control the speed and angular velocity of the moving body 100 to eliminate the deviation from the trajectory currently in use.
  • Fig. 4A shows a captured image according to this embodiment.
  • Fig. 4B shows an example of a road shape included in the captured image of Fig. 4A.
  • the captured image 400 shown in Fig. 4A shows an image captured by the detection unit 15 provided in front of the moving body 100.
  • a shaded area 401 shows the inside of the cockpit of the moving body 100 captured in the captured image 400.
  • the area other than the shaded area 401 is an area where the surrounding environment spreading in the area in front of the moving body 100 is captured.
  • FIG. 4B shows the road shape included in the captured image 400 shown in FIG. 4A.
  • the dotted area 410 indicates a three-way intersection (T-junction).
  • T-junction three-way intersection
  • in the area ahead of the moving body 100 there is a three-way intersection, and there are two exits for the intersection: one that can be reached by going straight ahead in the direction of travel, and another that can be reached by turning right. Beyond the exit for going straight through the intersection, there is a road that curves sharply to the right.
  • the captured image 400 from the viewpoint of the moving body 100 before entering the intersection 410, it is possible to recognize the existence of multiple exits as indicated by the arrows, but it is not possible to recognize the road shape beyond the exit.
  • the moving body 100 generates a trajectory sequentially or stepwise using the road shape that has become clear as it moves.
  • the accuracy of its recognition increases, and the trajectory is generated according to the degree of recognition.
  • the moving body 100 determines that the road shape recognized from the captured image 400 includes at least one exit section that involves a course change if the road shape includes multiple exit sections, or if at least one exit section is located outside a predetermined range from the current traveling direction. In such a case, the present embodiment determines that there is a possibility of a course change, and executes trajectory generation, which will be described later.
  • ⁇ Trajectory generation method> 5 and 6 show a trajectory generation method according to this embodiment.
  • trajectory generation will be described when an instruction to turn right is received via the operation unit 25 when approaching an intersection (T-junction) shown in FIG. 4B.
  • a T-junction is used as an example of a road shape having an entrance part and an exit part (exit) with a lane change, but the present invention may also use an intersection, a T-junction, an entrance to a facility along the road, an L-shaped driving area, etc. as a road shape having an entrance part and an exit part (exit) with a lane change.
  • the entrance to a facility along the road includes, for example, an entrance to a shopping mall, a gas station, a parking lot, etc.
  • the trajectory generation unit 303 acquires the intersection 504 between the center line 502 of the lane in which the mobile body 100 is traveling and the center line 503 of the target lane in order to generate a trajectory that crosses the intersection.
  • the target lane indicates the lane that continues to the exit when the mobile body 100 passes through the intersection.
  • the trajectory generation unit 303 then acquires the distance d0 between the current position xs of the mobile body 100 and the acquired intersection 504, and the distance dg between the intersection exit xg and the intersection 504.
  • the trajectory generating unit 303 obtains the start point and end point of the simple curve, and obtains the radius R from them. After that, the trajectory generating unit 303 generates a trajectory to include a simple curve and, if necessary, a straight line.
  • the example shown in FIG. 5 shows how a trajectory 501 is generated in which a straight line is followed by a simple curve when d0>dg.
  • the example shown in FIG. 6 shows how a trajectory 601 is generated in which a simple curve is followed by a straight line when d0 ⁇ dg.
  • a simple curve + straight line or a straight line + simple curve is described, but this is not intended to limit the present invention.
  • a trajectory of only a simple curve or a straight line + simple curve + straight line may be generated.
  • a simple curve is described as an example of a curve, but other curves such as a clothoid curve or a cubic curve may be generated instead of or in addition to a simple curve.
  • Fig. 7 shows a trajectory generation procedure according to the recognition status of an intersection according to this embodiment.
  • a trajectory generation procedure when approaching an intersection (T-junction) shown in Fig. 4B will be described.
  • a trajectory when passing through a road shape such as an intersection having an entrance part and an exit part involving a lane change is generated sequentially (step by step) according to recognition information of the road shape obtained from a captured image.
  • phase 0 is a state in which the distance from the moving body 100 to the intersection is more than 30 m.
  • the image information processing unit 302 recognizes the "Ego lane" indicating the driving area in which the moving body 100 is driving from the captured images acquired by the detection units 15 to 17, but does not recognize the shape of the road that constitutes the intersection.
  • Phase 1 is a state in which the distance from the mobile body 100 to the intersection is less than 30 m, and an instruction to turn right has been received from the operation unit 25.
  • the image information processing unit 302 can recognize the intersection in addition to the above-mentioned "Ego lane.” Note that the intersection recognition information here recognizes the shape of the intersection and the entrance (“Road entrance”), but does not clearly recognize the exit (exit) or driving area beyond.
  • the road shape recognition information (e.g., "Intersection” indicating an intersection, etc.) extracted by the image information processing unit 302 using the machine learning model includes various parameters according to the recognition situation.
  • the parameters include, for example, "Road entrance” indicating an entrance or exit that requires a lane change, information indicating the boundaries of the "Intersection," information indicating the white lines (lines) of the nearby road shape, and information indicating the lanes (driving area, lane).
  • the recognition situation only parameters indicating the shape (boundaries) of the "Intersection” may be included, and it may not be possible to recognize the lanes or lines at the branching point.
  • the trajectory generation unit 303 must therefore generate and update the trajectory sequentially in response to such recognition conditions. In this phase 1, although an instruction to turn right has been received, the exit point of the intersection and the driving area beyond it have not yet been identified. Therefore, the trajectory generation unit 303 maintains the current trajectory as the trajectory, and does not generate a trajectory that changes the course.
  • Phase 2 is a state in which the distance from the mobile body 100 to the intersection is less than 20 m, and an instruction to turn right has been received from the operation unit 25.
  • the image information processing unit 302 recognizes the driving area "Target lane" ahead and extracts the entrance to that driving area. Note that although the driving area "Target lane” is recognized here, the line indicating the boundary of that driving area cannot be recognized, and the accuracy of the recognition of that driving area is low. On the other hand, the entrance area "Road entrance" of the intersection in the case of the instructed right turn can be clearly recognized.
  • Phase 2 the vehicle is approaching the intersection, and the boundary of the intersection on the right turn side can be clearly recognized, with the upper half being estimated as the driving lane (driving area "Target lane") and the lower half being estimated as the oncoming lane.
  • the trajectory generation unit 303 generates a trajectory for changing course based on information that can be recognized with a higher degree of accuracy. Specifically, the trajectory generation unit 303 generates a first trajectory from the current position of the mobile body 100 to the already recognized entrance "Road entrance” of the intersection, and a second trajectory from the entrance to the exit "Road entrance” of the intersection on the right turn side.
  • the second trajectory is generated by the trajectory generation method described using Figures 5 and 6, and includes curved trajectories such as simple curves, clothoid curves, and cubic curves.
  • the second trajectory may include straight lines in addition to such curves.
  • the second trajectory may also be generated as a trajectory from the center of the entrance to the center of the identified exit.
  • Phase 3 is the state in which the mobile body 100 has entered an intersection.
  • the image information processing unit 302 can further recognize a white line indicating the boundary of the driving area "Target lane” ahead, and can recognize the driving area "Target lane” more accurately than in phase 2. Therefore, in phase 3, the trajectory generation unit 303 generates a third trajectory that follows the second trajectory generated in phase 2 above and is within the recognized driving area. This makes it possible to generate a trajectory when a right turn is instructed at an intersection.
  • the trajectory generation unit 303 may determine that the driving area "Target lane” has been determined to a certain extent when the moving body 100 proceeds beyond the entrance to the intersection, and generate the third trajectory. Note that the timing when the moving body 100 proceeds beyond the entrance to the intersection is the timing when the moving body 100 starts traveling on the second trajectory. Alternatively, the trajectory generation unit 303 may determine that the driving area "Target lane” has been determined to a certain extent when the moving body 100 approaches a predetermined distance from the identified entrance on the right turn side, and generate the third trajectory.
  • the trajectory generation unit 303 may generate a trajectory by determining that a right turn will be made without even receiving the above-mentioned directional instruction information. Also, for example, if the traveling direction is at a dead end and a left or right turn is required but directional instruction information from the operation unit 25 has not been received, the trajectory may be generated by determining that a left or right turn will be made. In this case, for example, a course change in a direction approaching the destination may be selected for the route plan to the destination.
  • the speed planning unit 304 plans the target speed in each phase, as shown in the "Speed" row in FIG. 7. For example, if an instruction to turn right or left is received after recognizing an intersection, a lane change will occur, and it is necessary to decelerate to a predetermined speed (e.g., 8 km/h for a right turn, 6 km/h for a left turn) by the time the vehicle enters the intersection. Therefore, it is desirable for the speed planning unit 304 to perform stepwise deceleration in each phase to avoid sudden deceleration.
  • a predetermined speed e.g. 8 km/h for a right turn, 6 km/h for a left turn
  • ⁇ Basic flow> 8 is a flowchart showing the basic control of the moving body 100 according to this embodiment. The process described below is realized in the control unit 30, for example, by the CPU reading out a program stored in a memory such as a ROM into the RAM and executing the program.
  • the control unit 30 sets a target position for the moving body 100 based on a user instruction received by the user instruction acquisition unit 301. As described above, the user instruction can be received in various ways.
  • the control unit 30 acquires direction indication information. This includes direction indication information when the driver operates the operation unit 25 and direction indication information for changing course determined according to the set destination position. For the sake of convenience, the process of acquiring direction indication information is described as being performed in S102, but in reality, this process occurs as an interrupt process whenever the driver operates the operation unit 25. Therefore, even after the process of S102, direction indication information is acquired by operation interruption and used for trajectory generation.
  • control unit 30 captures an image of the area ahead of the moving body 100 (in the direction of travel) using the detection unit 15, and acquires the captured image.
  • control unit processes the captured image using the image information processing unit 302, and acquires recognition information indicating the road shape recognized using the machine learning model. Note that the processes of S103 and S104 are performed continuously or periodically, and the captured image and the recognition information acquired from the captured image are updated as needed.
  • the control unit 30 generates a trajectory for the moving body 100 by the trajectory generation section 303 according to the recognition information acquired in S104. A detailed procedure for trajectory generation by the trajectory generation section 303 will be described later with reference to FIG. 9.
  • the control unit 30 generates a speed plan for the moving body 100 based on the generated trajectory and the direction indication information. Furthermore, in S107, the control unit 30 determines the speed and angular velocity of the moving body 100 by the driving control section 305, and controls driving.
  • the control unit 30 determines whether the moving body 100 has reached the target position based on the position information from the GNSS sensor 34, and if the target position has not been reached, the process returns to S102, and the process of generating a trajectory while updating the captured image and controlling driving is repeated. On the other hand, if the target position has been reached, the process of this flowchart ends.
  • ⁇ Trajectory generation procedure> 9 is a flowchart showing a detailed process of trajectory generation (S105) according to the present embodiment.
  • the process described below is realized by, for example, a CPU reading out a program stored in a memory such as a ROM into a RAM in the control unit 30 and executing the program.
  • the trajectory generating unit 303 determines whether the recognition information acquired in S104 includes information indicating an intersection or the like having an exit section that involves a lane change. Specifically, if the road shape indicated by the acquired recognition information includes multiple exit sections, or if at least one exit section is located outside a predetermined range from the current traveling direction, the trajectory generating unit 303 determines that the road shape includes at least one exit section that involves a lane change. Note that the reason for the term "at least one" exit section is that there is a possibility that another exit section will be newly recognized as the moving body 100 approaches an intersection or the like.
  • the process proceeds to S203, and if not, the process proceeds to S202.
  • the trajectory generating unit 303 generates a trajectory of a predetermined range along the lane in which the vehicle is traveling, and ends the processing of this flowchart.
  • the trajectory generation unit 303 determines whether or not direction indication information was acquired in S102. If not, the process proceeds to S202, and if acquired, the process proceeds to S204. In S204, the trajectory generation unit 303 determines whether or not it has recognized the exit point identified by the acquired direction indication information among multiple exit points included in an intersection, etc. If it has not recognized it, the process proceeds to S202, and if it has recognized it, the process proceeds to S205.
  • the trajectory generation unit 303 generates a first trajectory from the current location of the mobile body 100 to an entrance such as an intersection as a control for generating a trajectory for a lane change.
  • the first trajectory is basically a straight line shape, and is a trajectory connecting the center of the vehicle's lane and the center of the entrance having a predetermined width.
  • the trajectory generation unit 303 generates a second trajectory within the intersection that follows the first trajectory. Details will be described later using FIG. 10.
  • the trajectory generation unit 303 judges whether or not the target driving area existing beyond the entrance portion identified as the moving destination has been recognized. Whether or not the target driving area has been recognized is judged according to each parameter in the road shape recognized by the image information processing unit 302, as described above. Here, for example, it is judged that the driving area has been recognized because a white line for identifying the shape of the target driving area has been recognized. Note that instead of such a judgment, it may be judged that the driving area has been recognized when the traveling of the second trajectory starts or when the distance from the moving body 100 to the identified entrance portion approaches a predetermined distance.
  • the process proceeds to S208, where the trajectory generation unit 303 generates a third trajectory from the identified entrance portion according to the recognized driving area, and the process returns to S104.
  • ⁇ Trajectory generation at intersections, etc.> 10 is a flowchart showing a detailed process for generating a second trajectory in an intersection (S206) according to this embodiment.
  • the process described below is realized by, for example, a CPU reading a program stored in a memory such as a ROM into a RAM and executing the program in the control unit 30.
  • the trajectory generation unit 303 acquires the start point and end point of the second trajectory.
  • the start point of the second trajectory is, for example, the center of the entry section.
  • the end point is, for example, the center of the identified exit section.
  • the trajectory generation unit 303 acquires the intersection point between a straight line along the traveling direction of the moving body 100 (for example, the center line of the vehicle lane) and a straight line along the traveling direction of the destination (for example, the center line of the target lane).
  • the trajectory generation unit 303 acquires a first distance d0 from the start point to the intersection point, and a second distance dg from the intersection point to the end point.
  • the trajectory generating unit 303 compares the first distance d0 with the second distance dg to determine whether or not to generate a straight line in addition to the simple curve. Specifically, if the first distance d0 is equal to the second distance dg, the process proceeds to S306, where the trajectory generating unit 303 determines to generate a simple curve as the curved path, and proceeds to S309. If the first distance d0 is shorter than the second distance dg, the process proceeds to S307, where the trajectory generating unit 303 determines to generate a simple curve from the starting point as the curved path, and to generate a straight line from the generated simple curve to the end point, and proceeds to S309.
  • the process proceeds to S308, where the trajectory generating unit 303 determines to generate a straight line from the starting point as the curved path, and to generate a simple curve from the generated straight line to the end point, and proceeds to S309.
  • the trajectory generating unit 303 acquires the radius R of the simple curve to be generated.
  • the trajectory generation unit 303 generates a path that includes curves in accordance with the decisions made in S306 to S308, and returns the process to S306.
  • the mobile object control system (e.g., 100) of the above embodiment includes: An imaging means for acquiring an image of a travel area to which the moving object is to move (e.g., 15 to 17); A recognition means (e.g., 302) for recognizing a road shape included in the captured image; a trajectory generation means (e.g., 303) for generating a trajectory of the moving object based on the road shape recognized by the recognition means; Equipped with The trajectory generation means is characterized in that, when the recognition means recognizes a road shape having an entry section and at least one exit section involving a lane change, it generates a first trajectory from the current position of the moving body to the entry section, and a second trajectory from the entry section to an exit section specified in accordance with instruction information regarding the destination of the moving body (e.g., 303, S205, S206, Figure 7).
  • An imaging means for acquiring an image of a travel area to which the moving object is to move (e.g., 15 to 17);
  • a recognition means
  • the trajectory generation means generates, as the second trajectory, a trajectory from the center of the entry section to the center of the identified exit section (e.g., Figures 5 and 6).
  • the trajectory generation means when the recognition means recognizes a traveling area following the specified entry portion while the mobile object is traveling along the first or second trajectory, the trajectory generation means generates a third trajectory following the second trajectory and within the recognized traveling area (e.g., S208, FIG. 7).
  • the trajectory generation means when the mobile object starts traveling on the second trajectory, the trajectory generation means generates a third trajectory that follows the second trajectory and is within a traveling area that follows the specified entrance portion recognized by the recognition means (e.g., S208, FIG. 7).
  • the trajectory generation means when the mobile object approaches within a predetermined distance from the identified entrance portion, the trajectory generation means generates a third trajectory that follows the second trajectory, the third trajectory being within a travel area that follows the identified entrance portion and is recognized by the recognition means (e.g., S208, FIG. 7).
  • the road shape having the entrance section and the multiple exit sections is any one of an intersection, a T-junction, and a driving area including an entrance to a facility along the road.
  • a driving route can be generated appropriately without using highly accurate map information.
  • the mobile object control system of the above embodiment further includes a direction instruction means (e.g., 25) for receiving the instruction information regarding the destination of the mobile object.
  • a direction instruction means e.g., 25
  • a driving route can be generated according to the driver's intentions.
  • the trajectory generation means when the direction indication means has not received the instruction information and a course change is required, the trajectory generation means generates the second trajectory to the entry point identified in response to the course change.
  • a driving route when route changes occur according to the route plan or when traveling on a road whose structure requires route changes, a driving route can be generated appropriately without using highly accurate map information.
  • the trajectory generation means generates a trajectory including at least a simple curve as the second trajectory when a course change occurs (e.g., Figures 5, 6, and 10).
  • a smooth trajectory can be easily generated even when a lane change occurs at an intersection, etc.
  • a speed planning means (e.g., 304) is provided for generating a speed plan for the mobile object according to the trajectory generated by the trajectory generating means and the instruction information related to the destination of the mobile object.
  • a travel control means (e.g., 305) for controlling the travel of the moving body in accordance with the trajectory generated by the trajectory generation means and the speed plan generated by the speed plan means. It further comprises:
  • the trajectory generation means determines that the road shape recognized by the recognition means includes at least one exit that involves a course change (e.g., 303, S205, S206, FIG. 7).
  • This embodiment makes it possible to appropriately identify intersections and other locations that require lane changes.

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Abstract

本移動体制御システムは、移動体による移動先の走行領域の撮像画像を取得し、撮像画像に含まれる道路形状を認識し、認識された道路形状に基づいて、移動体の軌道を生成する。軌道生成においては、進入部と進路変更を伴う少なくとも1つの進出部とを有する道路形状が認識されると、移動体の現在位置から進入部までの第1軌道と、進入部から移動体の移動先に関する指示情報に従って特定される進出部までの第2軌道とを生成する。

Description

移動体制御システム、その制御方法、プログラム、及び移動体
 本発明は、移動体制御システム、その制御方法、プログラム、及び移動体に関する。
 近年、超小型モビリティ(マイクロモビリティとも称する。)と呼ばれる、乗車定員が1~2名程度の電動車両や、人に対して種々のサービスを提供する移動型ロボットなどの小型の移動体が知られている。このような移動体には、目的地までの走行経路を周期的に生成しながら自律走行を行うものがある。なお、小型の移動体においてはハードウェア資源が乏しく、経路を生成するための高精度な地図情報を記憶する領域や、大量の地図情報を高速に取得する通信デバイスを確保することは難しい。したがって、このような小型の移動体においては高精度な地図情報を利用することなく、経路を生成することが要求されている。
 特許文献1は、地図情報を用いることなく、カーブ区間においてカメラ等により取得した画像から道路端の白線を抽出して、当該白線の曲率を取得し、撮像画像の範囲外となる延在方向の白線を推定して、道路形状を認識することが提案されている。
特開2016-43837号公報
 上記従来技術では、カーブ区間の曲率が延在方向において一定であるものとして推定し、白線を抽出して延在方向の道路形状を認識するものである。したがって、カーブなどの白線が継続している道路形状には対応できるものの、交差点等の複数の出口を有する形状については白線が継続していないため対応することができない。交差点等の道路形状を把握できなければ、高精度な地図情報を利用することなく経路を生成することができない。
 一方、移動体に設けられたカメラ等による撮像画像では、交差点出口の画像を交差点に進入する前には捉えることができない。したがって、白線が継続していないような交差点等の道路構造においても、撮像画像から好適に走行経路を生成する仕組みが必要となる。
 本発明は、上記課題に鑑みてなされ、高精度な地図情報を利用することなく、交差点等の進路変更を伴う出口を有する道路構造においても走行経路を好適に生成することにある。
 本発明によれば、移動体制御システムであって、移動体による移動先の走行領域の撮像画像を取得する撮像手段と、前記撮像画像に含まれる道路形状を認識する認識手段と、前記認識手段によって認識された道路形状に基づいて、前記移動体の軌道を生成する軌道生成手段とを備え、前記軌道生成手段は、前記認識手段によって進入部と進路変更を伴う少なくとも1つの進出部とを有する道路形状が認識されると、前記移動体の現在位置から前記進入部までの第1軌道と、前記進入部から前記移動体の移動先に関する指示情報に従って特定される進出部までの第2軌道とを生成することを特徴とする。
 本発明によれば、高精度な地図情報を利用することなく、交差点等の進路変更を伴う出口を有する道路構造においても走行経路を好適に生成することができる。
 本発明のその他の特徴及び利点は、添付図面を参照とした以下の説明により明らかになるであろう。なお、添付図面においては、同じ若しくは同様の構成には、同じ参照番号を付す。
 添付図面は明細書に含まれ、その一部を構成し、本発明の実施の形態を示し、その記述と共に本発明の原理を説明するために用いられる。
本実施形態に係る移動体のハードウェアの構成例を示すブロック図 本実施形態に係る移動体のハードウェアの構成例を示すブロック図 本実施形態に係る移動体の制御構成を示すブロック図 本実施形態に係る移動体の機能構成を示すブロック図 本実施形態に係る撮像画像を示す図 本実施形態に係る撮像画像の道路形状を示す図 本実施形態に係る交差点の軌道生成方法の一例を示す図 本実施形態に係る交差点の軌道生成方法の一例を示す図 本実施形態に係る交差点の軌道生成手順の一例を示す図 本実施形態に係る移動体の走行を制御する処理手順を示すフローチャート 本実施形態に係る軌道生成の処理手順を示すフローチャート 本実施形態に係る交差点内の軌道生成の処理手順を示すフローチャート
 以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではなく、また実施形態で説明されている特徴の組み合わせの全てが発明に必須のものとは限らない。実施形態で説明されている複数の特徴のうち二つ以上の特徴は任意に組み合わされてもよい。また、同一若しくは同様の構成には同一の参照番号を付し、重複した説明は省略する。
 <移動体の構成>
 図1を参照して、本実施形態に係る移動体100の構成について説明する。図1Aは本実施形態に係る移動体100の側面を示し、図1Bは移動体100の内部構成を示している。図中矢印Xは移動体100の前後方向を示しFが前をRが後を示す。矢印Y、Zは移動体100の幅方向(左右方向)、上下方向を示す。
 移動体100は、走行ユニット12を備え、バッテリ13を主電源として主にモータの動力で移動する超小型モビリティである。超小型モビリティとは、一般的な自動車よりもコンパクトであり、乗車定員が1又は2名程度の超小型車両である。本実施形態では、移動体100の一例として四輪の超小型モビリティを例に説明するが、本発明を限定する意図はなく例えば三輪車両や鞍乗型車両であってもよい。また、本発明の移動体は、乗り物に限らず、荷物を積載して人の歩行に並走する移動体や、人を先導する移動体であってもよい。さらに、本発明には、四輪や二輪等の車両に限らず、自律移動が可能な歩行型ロボットなども適用可能である。
 バッテリ13は例えばリチウムイオンバッテリ等の二次電池であり、バッテリ13から供給される電力により走行ユニット12によって移動体100は自走する。走行ユニット12は、左右一対の前輪20と、左右一対の後輪21とを備えた四輪車である。走行ユニット12は三輪車の形態等、他の形態であってもよい。移動体100は、一人用又は二人用の座席14を備える。座席14の前方には、乗員が方向指示を入力するための操作ユニット25が設けられる。操作ユニット25は、移動体100の移動方向を指示する任意のデバイスであり、例えばジョイスティックなどの多方向への入力が可能なデバイスを適用することができる。運転者は、例えば交差点等の進路変更を伴う出口を有する道路形状へ進入する前に、操作ユニット25を操作することにより何れの方向の出口から抜けるかを指示することができる。
 走行ユニット12は操舵機構22を備える。操舵機構22はモータ22aを駆動源として一対の前輪20の舵角を変化させる機構である。一対の前輪20の舵角を変化させることで移動体100の進行方向を変更することができる。走行ユニット12は、また、駆動機構23を備える。駆動機構23はモータ23aを駆動源として一対の後輪21を回転させる機構である。一対の後輪21を回転させることで移動体100を前進又は後進させることができる。
 移動体100は、移動体100の周囲の物標を検知する検知ユニット15~17を備える。検知ユニット15~17は、移動体100の周辺を監視する外界センサ群であり、本実施形態の場合、いずれも移動体100の周囲の画像を撮像する撮像装置であり、例えば、レンズなどの光学系とイメージセンサとを備える。しかし、撮像装置に代えて或いは撮像装置に加えて、レーダやライダ(Light Detection and Ranging)を採用することも可能である。
 検知ユニット15は移動体100の前部にY方向に離間して二つ配置されており、主に、移動体100の前方の物標を検知する。検知ユニット16は移動体100の左側部及び右側部にそれぞれ配置されており、主に、移動体100の側方の物標を検知する。検知ユニット17は移動体100の後部に配置されており、主に、移動体100の後方の物標を検知する。また、本実施形態では、移動体100の前後左右に検知ユニットを設ける例について説明するが、本発明を限定する意図はなく、移動体100の一部の方向(例えば、前方)のみに設ける構成としてもよい。
 本実施形態に係る移動体100は、少なくとも検知ユニット15を用いて移動体100の前方領域を撮像し、撮像画像から道路形状を抽出し、抽出した道路形状を示す認識情報と運転者からの操作ユニット25の操作指示、または目的地までの経路計画から得られる進路変更に関する情報に従って経路を生成する。認識情報については、画像情報(撮像画像)を処理する機械学習モデルによって出力される、機械学習モデルは、例えば、ディープニューラルネットワーク(DNN)を用いた深層学習アルゴリズムの演算を行って、画像情報に含まれる道路形状を認識する処理を行う。認識情報には、道路の各種ラインや各種レーン情報、自車両が位置するレーン(Ego lane)、各種のインターセクション(交差点など、Intersection)、各種道路への入り口(Road entrance)などが含まれる。
 <移動体の制御構成>
 図2は、本実施形態に係る移動体100の制御系のブロック図である。ここでは本発明を実施する上で必要な構成を主に説明する。従って、以下で説明する構成に加えてさらに他の構成が含まれてもよい。また、本実施形態では、以下で説明する各部が移動体100に含まれるものとして説明するが、本発明を限定する意図はなく、複数のデバイスを含む移動体制御システムとして実現されてもよい。例えば、制御ユニット30の一部の機能が通信可能に接続されたサーバ装置によって実現されてもよいし、検知ユニット15~17やGNSSセンサ34が外部デバイスとして設けられてもよい。移動体100は、制御ユニット(ECU)30を備える。制御ユニット30は、CPUに代表されるプロセッサ、半導体メモリ等の記憶デバイス、外部デバイスとのインタフェース等を含む。記憶デバイスにはプロセッサが実行するプログラムやプロセッサが処理に使用するデータ等が格納される。プロセッサ、記憶デバイス、インタフェースは、移動体100の機能別に複数組設けられて互いに通信可能に構成されてもよい。
 制御ユニット30は、検知ユニット15~17の検知結果、操作パネル31の入力情報、音声入力装置33から入力された音声情報、GNSSセンサ34からの位置情報、操作ユニット25からの方向指示情報、及び通信ユニット36を介した受信情報を取得して、対応する処理を実行する。制御ユニット30は、モータ22a、23aの制御(走行ユニット12の走行制御)、操作パネル31の表示制御、スピーカ32の音声による移動体100の乗員への報知、情報の出力を行う。
 音声入力装置33は、移動体100の乗員の音声を収音する。制御ユニット30は、入力された音声を認識して、対応する処理を実行可能である。GNSS(Global Navigation Satellite system)センサ134は、GNSS信号を受信して移動体100の現在位置を検知する。記憶装置35は、検知ユニット15~17による撮像画像、障害物情報、過去に生成した経路、及び占有格子地図等を記憶する記憶デバイスである。記憶装置35にも、プロセッサが実行するプログラムやプロセッサが処理に使用するデータ等が格納されてよい。記憶装置35は、制御ユニット30によって実行される音声認識や画像認識用の機械学習モデルの各種パラメータ(例えばディープニューラルネットワークの学習済みパラメータやハイパーパラメータなど)を格納してもよい。
 通信ユニット36は、例えば、Wi‐Fiや第5世代移動体通信などの無線通信を介して外部装置である通信装置120と相互に通信を行う。通信装置120は、例えばスマートフォンであるが、これに限らず、イヤフォン型の通信端末であってもよいし、パーソナルコンピュータ、タブレット端末、ゲーム機などであってもよい。通信装置120は、例えば、Wi‐Fiや第5世代移動体通信などの無線通信を介してネットワークに接続する。
 通信装置120を所有するユーザは、当該通信装置120を介して移動体100に対して指示を行うことができる。当該指示は、例えば移動体100をユーザが所望する位置へ呼び寄せて合流するための指示を含む。当該指示を受信すると、移動体100は指示に含まれる位置情報に基づいて目標位置を設定する。なお、移動体100はこのような指示以外にも、検知ユニット15~17の撮像画像から目標位置を設定したり、移動体100に乗車するユーザからの操作パネル31を介した指示に基づいて目標位置を設定したりすることができる。撮像画像から目標位置を設定する場合は、例えば撮像画像内に移動体100に向かって手を挙げている人を検出し、検出された人の位置を推定して目標位置として設定する。
 <移動体の機能構成>
 次に、図3を参照して、本実施形態に係る移動体100の機能構成について説明する。ここで説明する機能構成は、制御ユニット30において、例えばCPUがROM等のメモリに格納されたプログラムをRAMに読み出して実行することにより実現される。なお、以下で説明する機能構成は、本発明を説明する上で必要な機能のみについて説明するものであり、移動体100に実際に含まれる機能構成の全てを説明するものではない。つまり、本発明に係る移動体100の機能構成を以下で説明する機能構成に限定するものではない。
 ユーザ指示取得部301は、ユーザからの指示を受け付ける機能を有し、操作ユニット25や操作パネル31を介したユーザ指示や、通信ユニット36を介して通信装置120等の外部装置からユーザ指示、音声入力装置33を介してユーザの発話による指示を受け付けることができる。ユーザ指示には上述したように、移動体100の目標位置(目的地とも称する。)を設定する指示や、移動体100の走行制御に関わる指示が含まれる。
 画像情報処理部302は、検知ユニット15~17によって取得された撮像画像を処理する。具体的には、画像情報処理部302は、検知ユニット15~17によって取得された撮像画像から認識した道路形状を抽出する。また、画像情報処理部302は、画像情報を処理する機械学習モデルを含み、当該機械学習モデルの学習段階の処理や推論段階の処理を実行してもよい。画像情報処理部302の機械学習モデルは、例えば、ディープニューラルネットワーク(DNN)を用いた深層学習アルゴリズムの演算を行って、画像情報に含まれる道路形状等を認識する処理を行うことができる。認識した道路形状を示す認識情報には、例えば、白線などのライン、レーン、交差点の形状、交差点の進入口や出口などを示す情報が含まれる。
 軌道生成部303は、ユーザ指示取得部301によって設定された目標位置に対しての移動体100の走行経路(軌道)を生成する。具体的には、軌道生成部303は、高精度地図の障害物情報を必要とすることなく、検知ユニット15~17の撮像画像から認識した道路形状(認識情報)と、操作ユニット25を介した方向指示情報とに基づいて軌道を生成する。なお、認識情報は、移動体100から所定範囲の道路形状の情報であり、それらより遠方の道路形状を認識することができない。一方で、認識情報は、移動体100が進むにつれて周期的に更新される情報である。したがって、移動体100の移動に合わせて遠方の領域が徐々に認識される。軌道生成部303は、更新される認識情報に従って逐次的に軌道を生成する。また、方向指示情報については、操作ユニット25を介して受け付ける情報に限られず、目的地までの経路計画によって得られる進路変更の情報に基づくものであってもよい。したがって、本発明は操作ユニット25を必須の構成とするものではなく、操作ユニット25を有していない移動体等にも適用することができる。
 また、速度計画部304は、軌道生成部303によって生成された軌道の曲率に従って速度を計画するとともに、運転者による方向指示に基づいて速度を計画する。例えば、交差点等において右左折の指示が行われた場合において、速度計画では、直進からカーブを開始するまでに、右折の場合は8kmまで減速し、左折の場合は6kmまで減速するように制御する。このように生成された軌道と、運転者からの指示とに応じて、速度を制御することにより、急激な減速などを回避することができる。
 走行制御部305は、生成された軌道と速度計画に従って移動体100の走行を制御する。具体的には、走行制御部305は、軌道及び速度計画に従って走行ユニット12を制御して移動体100の速度及び角速度を制御する。走行制御部305は、運転者の操作によって軌道の運転計画にずれが生じた場合には、再度、軌道生成部303によって生成された新たな軌道を取得して走行を制御してもよいし、使用中の軌道からのずれを解消するように移動体100の速度及び角速度を制御してもよい。
 <撮像画像>
 図4Aは本実施形態に係る撮像画像を示す。図4Bは図4Aの撮像画像に含まれる道路形状の一例を示す。図4Aに示す撮像画像400は、移動体100の前方に設けられた検知ユニット15によって撮像された画像を示す。なお、網掛け領域401は、撮像画像400に写り込んだ移動体100のコクピット内を示す。網掛け領域401以外の領域は、移動体100の前方領域に広がる周辺環境が撮影された領域である。
 図4Bは、図4Aに示す撮像画像400に含まれる道路形状を示す。410の点線領域は三叉路(T字路)の交差点を示す。図4Bに示すように、移動体100の前方領域には、手前に三叉路の交差点が存在し、交差点の出口として進行方向を直進した先の出口と、右折した場合の出口とが存在する。交差点を直進した場合の出口の先は、右に大きくカーブする道路が続いている。撮像画像400に示すように、交差点410へ進入する前の移動体100からの視点では、矢印に示す複数の出口が存在することが認識できるものの、出口の先の道路形状を認識することができない。したがって、本実施形態に係る移動体100は、移動するにつれて、明らかとなった道路形状を用いて逐次的又は段階的に軌道を生成する。つまり、移動体100は、所定の道路形状へ近づくにつれて、その認識の確度が高まり、認識具合に応じて軌道を生成する。また、本実施形態に係る移動体100は、撮像画像400から認識された道路形状において、複数の進出部が含まれる場合、又は、少なくとも1つの進出部が現在の進行方向から所定範囲外に位置する場合には、当該道路形状が進路変更を伴う少なくとも1つの進出部を含むものと判断する。このように判断した場合において本実施形態によれば、進路変更の可能性があるものと判断して、後述する軌道生成を実行する。
 <軌道生成方法>
 図5及び図6は、本実施形態に係る軌道生成方法を示す。ここでは、図4Bに示す交差点(T字路)に近づいた際に、操作ユニット25を介して右折する指示を受信した場合の軌道生成について説明する。なお、本実施形態では、進入部と進路変更を伴う進出部(出口)を有する道路形状の一例としてT字路を用いて説明するが、本発明は、進入部と進路変更を伴う進出部(出口)を有する道路形状として交差点や、T字路、道路沿いの施設への入り口、L字形状などの走行領域などであってもよい。道路沿いの施設への入り口とは、例えばショッピングモールやガソリンスタンド、駐車場などへの入り口を含む。
 501は生成される交差点での軌道を示す。ここで、図5に示すように、移動体100の現在位置(又は、交差点入口)をxsとし、目標となる交差点出口をxgとする。操作ユニット25を介して右折の指示を受け付けると、交差点を横断する軌道を生成するため、軌道生成部303は、移動体100が走行しているレーンの中心線502と、ターゲットレーンの中心線503との交点504を取得する。ここで、ターゲットレーンとは、移動体100が交差点を通過する際の出口に続く車線を示す。
 続いて、軌道生成部303は、移動体100の現在位置xsと、取得した交点504との距離d0と、交差点出口xgと交点504との距離dgとを取得する。さらに、軌道生成部303は、取得した距離d0と、距離dgとを比較し、d0<dgのときは単曲線に続いて直線となる軌道を生成するよう決定し、d0>dgのときは直線に続いて単曲線となる軌道を生成するよう決定する。なお、d0=dgの場合は単曲線のみの軌道を生成するように決定する。
 次に、軌道生成部303は、単曲線の始点と終点とを取得し、それらから半径Rを取得する。その後、軌道生成部303は、単曲線と、必要に応じて直線とを含むように軌道を生成する。図5に示す例は、d0>dgの場合において、直線に続いて単曲線となる軌道501を生成する様子を示す。一方、図6に示す例は、d0<dgの場合において、単曲線に続いて直線となる軌道601を生成する様子を示す。ここでは、単曲線+直線又は直線+単曲線の例について説明したが、本発明を限定する意図はなく、例えば、移動体100の現在位置や交差点の形状に応じては、単曲線のみや直線+単曲線+直線となる軌道が生成される場合もあり得る。なお、ここでは説明を容易にするため、曲線として単曲線を例に説明したが、単曲線に代えて又は加えて、クロソイド曲線や、3次曲線などの他の曲線を生成してもよい。
 <認識状況に応じた軌道生成手順>
 図7は、本実施形態に係る交差点の認識状況に応じた軌道生成手順を示す。ここでは、図4Bに示す交差点(T字路)に近づいた際の軌道生成手順について説明する。本実施形態によれば、進入部と進路変更を伴う進出部とを有する交差点等の道路形状を通過する際の軌道を、撮像画像から得られた道路形状の認識情報に応じて逐次的(段階的)に生成する。
 ここでは移動体100と交差点との距離に応じて4段階で軌道制御を行う例について説明する。図7に示すように、フェーズ0は、移動体100から交差点までの距離が30mよりも離れている状態である。この状態において、画像情報処理部302は、検知ユニット15~17によって取得された撮像画像から、移動体100が走行している走行領域を示す”Ego lane”を認識しているものの、交差点となる道路形状については認識していない状態である。
 フェーズ1は、移動体100から交差点までの距離が30mより近づいた状態で、且つ操作ユニット25から右折の指示を受け付けた状態である。この状態において、画像情報処理部302は、上記”Ego lane”に加えて、交差点を認識することができる。なお、ここでの交差点の認識情報では、交差点の形状と進入部(”Road entrance”)は認識されているものの、その先の進出部(出口)や走行領域までは明確に認識できていない状態である。
 画像情報処理部302が機械学習モデルを用いて抽出した道路形状の認識情報(例えば、交差点等を示す”Intersection”)には、その認識状況に応じて各種パラメータが含まれる。当該パラメータには、例えば進入部や進路変更を伴う進出部を示す”Road entrance”や、”Intersection”の境界を示す情報、付近の道路形状の白線(ライン)を示す情報、車線(走行領域、レーン)を示す情報などが含まれる。つまり、認識状況によっては、”Intersection”の形状(境界)を示すパラメータのみが含まれることもあり、分岐先のレーンやラインについては認識できていない可能性もある。
 従って、軌道生成部303は、そのような認識状況に応じて逐次的に軌道を生成及び更新する必要がある。当該フェーズ1においては、右折の指示を受け付けているものの、まだ交差点の進出部(出口)やその先の走行領域を特定できていない。よって、軌道生成部303は、軌道としては現状の軌道を維持し、進路を変更するような軌道は生成しない。
 フェーズ2は、移動体100から交差点までの距離が20mより近づいた状態で、且つ操作ユニット25から右折の指示を受け付けた状態である。この状態において、画像情報処理部302は、上記フェーズ1の認識情報に加えて、その先の走行領域”Target lane”を認識して、当該走行領域に対する進出部を抽出する。なお、ここでは、走行領域”Target lane”を認識しているものの、当該走行領域の境界を示すラインは認識できておらず、当該走行領域の認識の確度は低いものとなっている。一方で、指示された右折する場合の交差点の進出部”Road entrance”は明確に認識できている状態である。例えば、フェーズ2においては、交差点に近づいてきており、右折側の交差点の境界を明確に認識することができ、その上側半分が走行車線(走行領域”Target lane”)として推定でき、下側半分が対向車線と推定できるためである。
 従って、フェーズ2において軌道生成部303は、より確度高く認識できる情報に基づいて、進路変更の軌道を生成する。具体的には、軌道生成部303は、移動体100の現在位置から、既に認識されている交差点の進入部”Road entrance”までの第1軌道と、当該進入部から右折側の交差点の進出部”Road entrance”までの第2軌道とを生成する。第2軌道については図5及び図6を用いて説明した軌道生成方法により生成され、単曲線、クロソイド曲線、3次曲線などの曲線の軌道を含む。第2軌道は、このような曲線に加えて直線を含むものであってもよい。また、第2軌道については、進入部の中心から特定された進出部の中心までの軌道として生成されてもよい。
 フェーズ3は、移動体100が交差点へ進入した状態である。この状態において、画像情報処理部302は、上記フェーズ2の認識情報に加えて、その先の走行領域”Target lane”の境界を示す白線(ライン)をさらに認識することができ、走行領域”Target lane”をフェーズ2よりも正確に認識できる。従って、フェーズ3において軌道生成部303は、上記フェーズ2で生成した第2軌道に続く第3軌道であって、認識された走行領域内の第3軌道を生成する。これにより、交差点において右折指示が行われた場合の軌道を生成することできる。
 なお、上記フェーズ3においては、移動体100が交差点に進入した後に、走行領域”Target lane”の白線(例えば、車線の境界を示す線”Lane instance”)を認識してより正確に走行領域”Target lane”が確定したタイミングで第3軌道を生成する例について説明したが、本発明を限定するものではない。例えば、上記のように走行領域”Target lane”を確定したタイミングではなく、軌道生成部303は、移動体100が交差点への進入部より先に進むと、走行領域”Target lane”がある程度確定したと判断して、第3軌道を生成するようにしてもよい。なお、移動体100が交差点への進入部より先に進むタイミングとは、即ち、上記第2軌道の走行を開始したタイミングとなる。或いは、軌道生成部303は、特定された右折側の進出部から所定の距離まで移動体100が近づくと、走行領域”Target lane”がある程度確定したと判断して、第3軌道を生成するようにしてもよい。
 また、本発明では、操作ユニット25からの方向指示の情報に基づいて右左折等の進路変更を判断する例について説明したが、本発明を限定するものではない。例えば、予め設定されている目的地に従って経路計画を行っている中で、次の交差点を右折する必要があれば、軌道生成部303は、上記のような方向指示情報を受け付けるまでもなく、右折するものと判断して軌道を生成するようにしてもよい。また、例えば進行方向が突き当りになっており、左折もしくは右折しなければならない場合に操作ユニット25からの方向指示の情報を受け付けていない場合、左折又は右折を行うと判断して軌道を生成するようにしてもよい。この場合、例えば、目的地までの経路計画に対して、当該目的地へ近づく方向への進路変更が選択されうる。
 また、本実施形態によれば、速度計画部304は、図7の「速度」の行に示すように、各フェーズにおける目標速度を計画する。例えば、交差点を認識した状態で右左折の指示を受け付けた場合には、進路変更が発生するため、交差点の進入部までに所定の速度(例えば、右折の場合は時速8km、左折の場合は時速6km)まで減速する必要がある。したがって、速度計画部304は、急激な減速を回避するため、各フェーズにおいて段階的に減速を行うことが望ましい。
 <基本フロー>
 図8は、本実施形態に係る移動体100の基本制御を示すフローチャートである。以下で説明する処理は、制御ユニット30において、例えばCPUがROM等のメモリに格納されたプログラムをRAMに読み出して実行することにより実現される。
 S101で制御ユニット30は、ユーザ指示取得部301によって受信したユーザ指示に基づいて、移動体100の目標位置を設定する。ユーザ指示については、上述したように、種々の方法で受け付けることができる。続いて、S102で制御ユニット30は、方向指示情報を取得する。ここでは、運転者が操作ユニット25を操作した場合の方向指示情報や、設定された目的位置に応じて定まる進路変更の方向指示情報が含まれる。ここでは、方向指示情報を取得する処理として、便宜的にS102で行われる説明としているが、実際には運転者が操作ユニット25を操作したタイミングで割り込み処理として随時発生する処理である。したがって、S102の処理以降においても操作割り込みにより、方向指示情報が取得され、軌道生成に用いられるものである。
 次に、S103で制御ユニット30は、検知ユニット15によって移動体100の前方領域(進行方向)を撮像し、撮像画像を取得する。その後S104で制御ユニットは、取得した撮像画像を画像情報処理部302によって処理し、機械学習モデルを用いて認識した道路形状を示す認識情報を取得する。なお、S103及びS104の処理は継続的又は周期的に実施され、撮像画像や撮像画像から取得される認識情報は随時更新される情報となる。
 次に、S105で制御ユニット30は、S104で取得された認識情報に従って、軌道生成部303によって移動体100の軌道を生成する。軌道生成部303に軌道生成の詳細な手順については図9を用いて後述する。続いて、S106で制御ユニット30は、生成した軌道と方向指示情報とに基づいて、移動体100の速度計画を生成する。さらにS107で制御ユニット30は、走行制御部305によって移動体100の速度及び角速度を決定し、走行を制御する。その後、S108で制御ユニット30は、移動体100が目標位置へ到達したかどうかをGNSSセンサ34からの位置情報に基づいて判断し、目標位置へ到達していない場合は処理をS102に戻して、撮像画像を更新しながら軌道を生成し、走行を制御する処理を繰り返し行う。一方、目標位置へ到達した場合は、本フローチャートの処理を終了する。
 <軌道生成の処理手順>
 図9は、本実施形態に係る軌道生成(S105)の詳細な処理手順を示すフローチャートである。以下で説明する処理は、制御ユニット30において、例えばCPUがROM等のメモリに格納されたプログラムをRAMに読み出して実行することにより実現される。
 まずS201で軌道生成部303は、S104で取得した認識情報に、進路変更を伴う進出部を有する交差点等を示す情報が含まれているかどうかを判断する。具体的には、軌道生成部303は、取得した認識情報が示す道路形状において、複数の進出部が含まれる場合、又は、少なくとも1つの進出部が現在の進行方向から所定範囲外に位置する場合には、当該道路形状が進路変更を伴う少なくとも1つの進出部を含むものと判断する。なお、ここで、「少なくとも1つ」の進出部としているのは、移動体100が交差点等に近づくにつれて他の進出部を新たに認識する可能性があるためである。つまり、移動体100の移動に従って、認識される進出部が増加する可能性もあり、進路変更を伴う進出部が増加する可能性を考慮したものである。進路変更を伴う少なくとも1つの進出部が含まれていればS203に進み、含まれていなければS202に進む。S202で軌道生成部303は、走行中の自車レーンに沿って所定範囲の軌道を生成し、本フローチャートの処理を終了する。
 一方、S203で軌道生成部303は、S102で方向指示情報を取得したかどうかを判断する。取得していなければS202に進み、取得していればS204に進む。S204で軌道生成部303は、交差点等に含まれる複数の進出部のうち、取得した方向指示情報によって特定される進出部を認識できているかどうかを判断する。認識できていなればS202に進み、認識できていればS205に進む。
 S205で軌道生成部303は、進路変更の軌道を生成する制御として、まず移動体100の現在地から交差点等の進入部までの第1軌道を生成する。第1軌道は基本的には直線形状であり、自車レーンの中心と、所定の幅を有する進入部の中心とを結ぶ軌道となる。続いて、S206で軌道生成部303は、第1軌道に続く交差点内の第2軌道を生成する。詳細については図10を用いて後述する。
 次に、S207で軌道生成部303は、移動先として特定された進出部の先に存在する目標の走行領域が認識できたかどうかを判断する。目標の走行領域が認識できたかどうかは、上述したように、画像情報処理部302によって認識された道路形状における各パラメータに応じて判断する。ここでは、例えば、目標の走行領域の形状を特定するための白線が認識されたことにより、当該走行領域が認識できたと判断する。なお、このような判断に代えて、第2軌道の走行を開始したタイミングや、移動体100から特定された進出部までの距離が所定の距離まで近づいたタイミングなどに当該走行領域が認識できたとして判断してもよい。目標の走行領域が認識されるとS208に進み、軌道生成部303は、認識された走行領域に従って、特定された進出部からの第3軌道を生成し、処理をS104に戻す。
 <交差点等での軌道生成>
 図10は、本実施形態に係る交差点内での第2軌道の生成(S206)の詳細な処理手順を示すフローチャートである。以下で説明する処理は、制御ユニット30において、例えばCPUがROM等のメモリに格納されたプログラムをRAMに読み出して実行することにより実現される。
 S301で軌道生成部303は、第2軌道の始点と終点とを取得する。第2軌道の始点は、例えば進入部の中心である。また終点は、例えば特定された進出部の中心である。続いてS302で軌道生成部303は、移動体100の進行方向に沿う直線(例えば、自車レーンの中心線)と、移動先の進行方向に沿う直線(例えば、目標レーンの中心線)との交点を取得する。続いて、S303で軌道生成部303は、始点から上記交点までの第1距離d0と、交点から上記終点までの第2距離dgとを取得する。
 その後、S304及びS305で軌道生成部303は、第1距離d0と、第2距離dgとを比較して、単曲線に加えて直線を生成するか否かを判断する。具体的には、第1距離d0と第2距離dgとが等しい場合はS306に進み、軌道生成部303は、曲線の経路として単曲線を生成すると判断してS309に進む。また、第1距離d0が第2距離dgより短い場合はS307に進み、軌道生成部303は、曲線の経路として、上記始点から単曲線を生成し、生成した単曲線に続けて上記終点までの直線を生成すると判断してS309に進む。また、第1距離d0が第2距離dgより長い場合はS308に進み、軌道生成部303は、曲線の経路として、上記始点から直線を生成し、生成した直線に続けて上記終点までの単曲線を生成すると判断してS309に進む。S309で軌道生成部303は、生成する単曲線の半径Rを取得する。続いてS310で軌道生成部303は、S306乃至S308の判断に従って、曲線を含む経路を生成し、処理をS306に戻す。
 <実施形態のまとめ>
 1.上記実施形態の移動体制御システム(例えば、100)は、
 移動体による移動先の走行領域の撮像画像を取得する撮像手段と、(例えば、15~17)
 前記撮像画像に含まれる道路形状を認識する認識手段と、(例えば、302)
 前記認識手段によって認識された道路形状に基づいて、前記移動体の軌道を生成する軌道生成手段と(例えば、303)
を備え、
 前記軌道生成手段は、前記認識手段によって進入部と進路変更を伴う少なくとも1つの進出部とを有する道路形状が認識されると、前記移動体の現在位置から前記進入部までの第1軌道と、前記進入部から前記移動体の移動先に関する指示情報に従って特定される進出部までの第2軌道とを生成することを特徴とする(例えば、303、S205、S206、図7)。
 この実施形態によれば、高精度な地図情報を利用することなく、交差点等の複数の出口を有する道路構造においても走行経路を好適に生成することができる。
 2.上記実施形態の移動体制御システムでは、前記軌道生成手段は、前記第2軌道として、前記進入部の中心から前記特定された進出部の中心までの軌道を生成する(例えば、図5、図6)。
 この実施形態によれば、高精度な地図情報を利用することなく、交差点等の進路変更を伴う出口を有する道路構造においても走行経路を好適に生成することができる。
 3.上記実施形態の移動体制御システムでは、前記軌道生成手段は、前記移動体が前記第1軌道又は前記第2軌道に従って走行中に、前記認識手段によって、前記特定された進出部に続く走行領域が認識されると、前記第2軌道に続く第3軌道であって、前記認識された走行領域内の前記第3軌道を生成する(例えば、S208、図7)。
 この実施形態によれば、高精度な地図情報を利用することなく、交差点等の進路変更を伴う出口を有する道路構造においても走行経路を好適に生成することができる。
 4.上記実施形態の移動体制御システムでは、前記軌道生成手段は、前記移動体が前記第2軌道の走行を開始すると、前記第2軌道に続く第3軌道であって、前記認識手段によって認識される前記特定された進出部に続く走行領域内の前記第3軌道を生成する(例えば、S208、図7)。
 この実施形態によれば、高精度な地図情報を利用することなく、交差点等の進路変更を伴う出口を有する道路構造においても走行経路を好適に生成することができる。
 5.上記実施形態の移動体制御システムでは、前記軌道生成手段は、前記特定された進出部から所定の距離まで前記移動体が近づくと、前記第2軌道に続く第3軌道であって、前記認識手段によって認識される前記特定された進出部に続く走行領域内の前記第3軌道を生成する(例えば、S208、図7)。
 この実施形態によれば、高精度な地図情報を利用することなく、交差点等の進路変更を伴う出口を有する道路構造においても走行経路を好適に生成することができる。
 6.上記実施形態の移動体制御システムでは、前記進入部と前記複数の進出部とを有する前記道路形状とは、交差点、T字路、及び道路沿いの施設への入り口を含む走行領域の何れかである。
 この実施形態によれば、進入部と進路変更を伴う進出部とを有する道路形状であれば、高精度な地図情報を利用することなく、走行経路を好適に生成することができる。
 7.上記実施形態の移動体制御システムは、前記移動体の移動先に関する前記指示情報を受け付ける方向指示手段をさらに備える(例えば、25)。
 この実施形態によれば、運転者の意図に応じた走行経路を生成することができる。
 8.上記実施形態の移動体制御システムでは、前記軌道生成手段は、前記方向指示手段によって前記指示情報を受け付けていない場合であって、かつ、進路変更が必要な場合においては、前記進路変更に対応して特定される進出部までの前記第2軌道を生成する。
 この実施形態によれば、経路計画に応じて進路変更が発生する場合や、進路変更を行わなければならない構造の道路を走行する場合において、高精度な地図情報を利用することなく、走行経路を好適に生成することができる。
 9.上記実施形態の移動体制御システムは、前記軌道生成手段は、進路変更が生じる場合において、前記第2軌道として、少なくとも単曲線を含む軌道を生成する(例えば、図5、図6、図10)。
 この実施形態によれば、交差点等において進路変更が生じる場合においても容易に滑らかな軌道を生成することができる。
 10.上記実施形態の移動体制御システムでは、前記軌道生成手段によって生成された軌道と、前記移動体の移動先に関する前記指示情報とに従って、前記移動体の速度計画を生成する速度計画手段と、(例えば、304)
 前記軌道生成手段によって生成された軌道と、前記速度計画手段によって生成された速度計画とに従って、前記移動体の走行を制御する走行制御手段と(例えば、305)
をさらに備える。
 この実施形態によれば、交差点等において進路変更が生じる場合においても容易に滑らかな軌道を生成するとともに、急激な減速等を回避することができる。
 11.上記実施形態の移動体制御システムでは、前記軌道生成手段は、前記認識手段によって認識された道路形状において、複数の進出部が含まれる場合、又は、少なくとも1つの進出部が現在の進行方向から所定範囲外に位置する場合には、前記認識手段によって認識された道路形状が進路変更を伴う少なくとも1つの進出部を含むものと判断する(例えば、303、S205、S206、図7)。
 この実施形態によれば、進路変更を伴う交差点等を好適に判断することができる。
 発明は上記の実施形態に制限されるものではなく、発明の要旨の範囲内で、種々の変形・変更が可能である。

Claims (14)

  1.  移動体制御システムであって、
     移動体による移動先の走行領域の撮像画像を取得する撮像手段と、
     前記撮像画像に含まれる道路形状を認識する認識手段と、
     前記認識手段によって認識された道路形状に基づいて、前記移動体の軌道を生成する軌道生成手段と
    を備え、
     前記軌道生成手段は、前記認識手段によって進入部と進路変更を伴う少なくとも1つの進出部とを有する道路形状が認識されると、前記移動体の現在位置から前記進入部までの第1軌道と、前記進入部から前記移動体の移動先に関する指示情報に従って特定される進出部までの第2軌道とを生成することを特徴とする移動体制御システム。
  2.  前記軌道生成手段は、前記第2軌道として、前記進入部の中心から前記特定された進出部の中心までの軌道を生成することを特徴とする請求項1に記載の移動体制御システム。
  3.  前記軌道生成手段は、前記移動体が前記第1軌道又は前記第2軌道に従って走行中に、前記認識手段によって、前記特定された進出部に続く走行領域が認識されると、前記第2軌道に続く第3軌道であって、前記認識された走行領域内の前記第3軌道を生成することを特徴とする請求項2に記載の移動体制御システム。
  4.  前記軌道生成手段は、前記移動体が前記第2軌道の走行を開始すると、前記第2軌道に続く第3軌道であって、前記認識手段によって認識される前記特定された進出部に続く走行領域内の前記第3軌道を生成することを特徴とする請求項2に記載の移動体制御システム。
  5.  前記軌道生成手段は、前記特定された進出部から所定の距離まで前記移動体が近づくと、前記第2軌道に続く第3軌道であって、前記認識手段によって認識される前記特定された進出部に続く走行領域内の前記第3軌道を生成することを特徴とする請求項2に記載の移動体制御システム。
  6.  前記進入部と前記進路変更を伴う少なくとも1つの進出部とを有する前記道路形状とは、交差点、T字路、及び道路沿いの施設への入り口を含む走行領域の何れかであることを特徴とする請求項1に記載の移動体制御システム。
  7.  前記移動体の移動先に関する前記指示情報を受け付ける方向指示手段をさらに備えることを特徴とする請求項1に記載の移動体制御システム。
  8.  前記軌道生成手段は、前記方向指示手段によって前記指示情報を受け付けていない場合であって、かつ、進路変更が必要な場合においては、前記進路変更に対応して特定される進出部までの前記第2軌道を生成することを特徴とする請求項7に記載の移動体制御システム。
  9.  前記軌道生成手段は、進路変更が生じる場合において、前記第2軌道として、少なくとも単曲線を含む軌道を生成することを特徴とする請求項2に記載の移動体制御システム。
  10.  前記軌道生成手段によって生成された軌道と、前記移動体の移動先に関する前記指示情報とに従って、前記移動体の速度計画を生成する速度計画手段と、
     前記軌道生成手段によって生成された軌道と、前記速度計画手段によって生成された速度計画とに従って、前記移動体の走行を制御する走行制御手段と
    をさらに備えることを特徴とする請求項1に記載の移動体制御システム。
  11.  前記軌道生成手段は、前記認識手段によって認識された道路形状において、複数の進出部が含まれる場合、又は、少なくとも1つの進出部が現在の進行方向から所定範囲外に位置する場合には、前記認識手段によって認識された道路形状が進路変更を伴う少なくとも1つの進出部を含むものと判断することを特徴とする請求項1に記載の移動体制御システム。
  12.  移動体制御システムの制御方法であって、
     移動体による移動先の走行領域の撮像画像を取得する撮像工程と、
     前記撮像画像に含まれる道路形状を認識する認識工程と、
     前記認識工程で認識された道路形状に基づいて、前記移動体の軌道を生成する軌道生成工程と
    を含み、
     前記軌道生成工程では、前記認識工程において進入部と進路変更を伴う少なくとも1つの進出部とを有する道路形状が認識されると、前記移動体の現在位置から前記進入部までの第1軌道と、前記進入部から前記移動体の移動先に関する指示情報に従って特定される進出部までの第2軌道とを生成することを特徴とする移動体制御システムの制御方法。
  13.  コンピュータを、請求項1から11のいずれか1項に記載の移動体制御システムの各手段として機能させるためのプログラム。
  14.  移動体であって、
     移動先の走行領域の撮像画像を取得する撮像手段と、
     前記撮像画像に含まれる道路形状を認識する認識手段と、
     前記認識手段によって認識された道路形状に基づいて、前記移動体の軌道を生成する軌道生成手段と
    を備え、
     前記軌道生成手段は、前記認識手段によって進入部と進路変更を伴う少なくとも1つの進出部とを有する道路形状が認識されると、前記移動体の現在位置から前記進入部までの第1軌道と、前記進入部から前記移動体の移動先に関する指示情報に従って特定される進出部までの第2軌道とを生成することを特徴とする移動体。
PCT/JP2022/039961 2022-10-26 2022-10-26 移動体制御システム、その制御方法、プログラム、及び移動体 WO2024089810A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/039961 WO2024089810A1 (ja) 2022-10-26 2022-10-26 移動体制御システム、その制御方法、プログラム、及び移動体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/039961 WO2024089810A1 (ja) 2022-10-26 2022-10-26 移動体制御システム、その制御方法、プログラム、及び移動体

Publications (1)

Publication Number Publication Date
WO2024089810A1 true WO2024089810A1 (ja) 2024-05-02

Family

ID=90830389

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/039961 WO2024089810A1 (ja) 2022-10-26 2022-10-26 移動体制御システム、その制御方法、プログラム、及び移動体

Country Status (1)

Country Link
WO (1) WO2024089810A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014006759A1 (ja) * 2012-07-06 2014-01-09 トヨタ自動車株式会社 車両の走行制御装置
JP2019128614A (ja) * 2018-01-19 2019-08-01 本田技研工業株式会社 予測装置、予測方法、およびプログラム
JP2021117039A (ja) * 2020-01-23 2021-08-10 アイシン・エィ・ダブリュ株式会社 運転支援装置及びコンピュータプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014006759A1 (ja) * 2012-07-06 2014-01-09 トヨタ自動車株式会社 車両の走行制御装置
JP2019128614A (ja) * 2018-01-19 2019-08-01 本田技研工業株式会社 予測装置、予測方法、およびプログラム
JP2021117039A (ja) * 2020-01-23 2021-08-10 アイシン・エィ・ダブリュ株式会社 運転支援装置及びコンピュータプログラム

Similar Documents

Publication Publication Date Title
US10858012B2 (en) Autonomous driving assistance device and computer program
US11079762B2 (en) Vehicle control device, vehicle control method, and storage medium
WO2018138769A1 (ja) 車両制御装置、車両制御方法、および車両制御プログラム
WO2018116409A1 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
JP6601696B2 (ja) 予測装置、予測方法、およびプログラム
US20190286130A1 (en) Vehicle control device, vehicle control method, and storage medium
WO2018123019A1 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
WO2018087801A1 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
JP6809611B2 (ja) 走行支援方法及び走行支援装置
JP7170637B2 (ja) 車両制御システム、車両制御方法、およびプログラム
WO2021184378A1 (en) A method of parking an autonomous driving vehicle for autonomous charging
JP6465497B2 (ja) 情報表示装置、情報表示方法、および情報表示プログラム
JP6460420B2 (ja) 情報表示装置、情報表示方法、および情報表示プログラム
JP6696006B2 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
WO2019069347A1 (ja) 車両制御装置、車両制御方法、およびプログラム
WO2018123346A1 (ja) 車両制御装置、車両制御方法、及びプログラム
WO2018142562A1 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
US20200074302A1 (en) Learning device, simulation system, learning method, and storage medium
JPWO2018142576A1 (ja) 通過ゲート決定装置、車両制御システム、通過ゲート決定方法、およびプログラム
JPWO2018142566A1 (ja) 通過ゲート決定装置、車両制御システム、通過ゲート決定方法、およびプログラム
EP3842315B1 (en) Autonomous driving vehicle three-point turn
RU2721436C1 (ru) Способ помощи вождению и устройство помощи вождению
WO2024089810A1 (ja) 移動体制御システム、その制御方法、プログラム、及び移動体
JP2020166123A (ja) 地図データ作成方法及び地図データ作成装置
JP2020124995A (ja) 車両運動制御方法及び車両運動制御装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22963459

Country of ref document: EP

Kind code of ref document: A1