WO2022034735A1 - 位置推定システム - Google Patents

位置推定システム Download PDF

Info

Publication number
WO2022034735A1
WO2022034735A1 PCT/JP2021/022315 JP2021022315W WO2022034735A1 WO 2022034735 A1 WO2022034735 A1 WO 2022034735A1 JP 2021022315 W JP2021022315 W JP 2021022315W WO 2022034735 A1 WO2022034735 A1 WO 2022034735A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
position estimation
sensor
detection
feature points
Prior art date
Application number
PCT/JP2021/022315
Other languages
English (en)
French (fr)
Inventor
佑一 小森谷
Original Assignee
日立Astemo株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立Astemo株式会社 filed Critical 日立Astemo株式会社
Priority to US18/009,767 priority Critical patent/US20230242102A1/en
Priority to JP2022542585A priority patent/JP7402993B2/ja
Publication of WO2022034735A1 publication Critical patent/WO2022034735A1/ja
Priority to JP2023208675A priority patent/JP2024020641A/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/12Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to parameters of the vehicle itself, e.g. tyre models
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/0969Systems involving transmission of navigation instructions to the vehicle having a display in the form of a map
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects

Definitions

  • the present invention relates to a position estimation system.
  • Patent Document 1 a technology for determining the position of the own vehicle based on information obtained from sensors provided in the own vehicle is known.
  • Patent Document 1 a plurality of reference data obtained by extracting characteristic portions of landscape images taken from an in-vehicle camera at intervals in the traveling direction on a road are stored in association with their respective positions on a map. Then, a matching process is performed to determine whether or not the landscape image taken from the in-vehicle camera and the plurality of reference data match, and the reference data determined to match by the matching process is supported.
  • the degree of matching between the determination data obtained by the application and the reference data is equal to or greater than the determination threshold, it is determined that they match, and when the degree of matching is less than the determination threshold, they do not match.
  • a position determination device is disclosed, which is performed by determination and is adjusted so that the determination threshold tends to decrease as the vehicle speed increases and decreases as the steering amount of the steering wheel increases.
  • the landscape image and the reference data can be referred to by relaxing the condition for determining that the landscape image taken from the vehicle-mounted camera and the reference data match when it becomes difficult to match.
  • the chances of matching the data are forcibly increased, and there is a risk that the accuracy of the position determination of the own vehicle will deteriorate.
  • the present invention has been made in view of the above, and an object of the present invention is to provide a position estimation system capable of estimating the position of the own vehicle more accurately according to the running state and the running environment of the own vehicle.
  • the present invention is a position estimation system provided in a vehicle, in which a front sensor for detecting an object in front of the vehicle, a range closer than the front sensor, and the vehicle.
  • the detection range is a range including at least the left-right direction of the object, and the object is obtained from the detection results of at least one of the peripheral sensor that detects an object around the vehicle in the detection range, the detection result of the front sensor, and the detection result of the peripheral sensor.
  • a position estimation device that detects a plurality of feature points of the above and estimates the position of the vehicle using the detected plurality of feature points, and a control device that controls the operation of the vehicle based on the estimation result of the position estimation device.
  • the position estimation device weights each of a plurality of information regarding the state of the vehicle, and also weights information regarding the surrounding environment of the vehicle, and the plurality of detected by the front sensor and the peripheral sensor. For a plurality of feature point groups consisting of a part of the feature points, whether or not to use them for the position estimation shall be selected for each feature point group based on the result of the weighting.
  • the position of the own vehicle can be estimated more accurately according to the running state and the running environment of the own vehicle.
  • FIGS. 1 to 3 are diagrams showing an example of position estimation by a position estimation system mounted on a vehicle.
  • a moving object such as a vehicle
  • the latitude and longitude of the own vehicle on the earth are determined by GNSS (Global Navigation Satellite System).
  • GNSS Global Navigation Satellite System
  • the position of the own vehicle in an environment such as in a tunnel by performing arithmetic processing by combining information from various sensors such as a gyro sensor and an acceleration sensor with information from GNSS and the like.
  • dead reckoning There are methods such as those for estimating (so-called dead reckoning).
  • the position estimation system estimates the position of the own vehicle by comparing the information obtained from the detection results of various sensors mounted on the own vehicle with the information of the map prepared in advance. Is. More specifically, by detecting the feature points of the object around the own vehicle by the sensor mounted on the own vehicle and associating it with the map including the information of the feature points created in advance by the preliminary measurement or the like, the map can be displayed. Estimate the position of your vehicle.
  • the details of the position estimation system according to the present embodiment will be described.
  • FIG. 4 is a functional block diagram schematically showing the overall configuration of the position estimation system according to the present embodiment.
  • the position estimation system is schematically configured from a front sensor 201, a peripheral sensor 202, a vehicle internal sensor 203, a GNSS204, a map storage unit 205, a target route setting unit 206, an external world sensor 207, and an own vehicle position estimation device 100. Has been done.
  • the front sensor 201 is a long-distance narrow-angle sensor that detects an object in front of the own vehicle 1 (see FIG. 12 and the like later).
  • a stereo camera is used, and the front sensor 201 is obtained by the stereo camera.
  • An object is detected from the measurement result (image) and output as point group data indicating the position of the surface (or inside) of the object.
  • the front sensor 201 only needs to be able to detect an object in front of the own vehicle 1, for example, a method of detecting an object from an image obtained by a camera, or a radar (Radar: Radio Detection and Ringing).
  • Sonar Sonar
  • lidar LiDAR: Light Detection and Ringing: light detection and ranging
  • other techniques may be used to detect the object.
  • the peripheral sensor 202 is a short-range omnidirectional sensor that detects an object in the vicinity of the own vehicle 1, and for example, in the present embodiment, a plurality of peripheral sensors 202 having a detection range of the front, the left side, the rear side, and the right side, respectively. It is composed of sensors 202a, 202b, 202c, and 202d that use a lidar, detects an object from the obtained measurement results, and outputs it as point group data indicating the position of the surface (or inside) of the object.
  • the peripheral sensor 202 may detect an object in the vicinity of the own vehicle 1, for example, a method of detecting an object from an image obtained by a camera, or a radar (Radar: Radio Detection and Ringing). , Sonar (Sound navigation and ranging) and other techniques may be used to detect the object.
  • the vehicle internal sensor 203 is various sensors that detect information on the own vehicle 1, for example, a vehicle speed sensor that detects the traveling speed of the own vehicle, a steering angle sensor that detects the steering angle, and the like.
  • the GNSS204 is called a Global Navigation Satellite System, and measures the position (that is, latitude and longitude) of the own vehicle 1 in the earth coordinate system.
  • the map storage unit 205 stores map information including the traveling environment of the own vehicle 1.
  • map information the position information of the feature points of the structure such as a road or a building is measured in advance, and is stored as, for example, three-dimensional point cloud data showing the feature points as shown in FIG.
  • the target route setting unit 206 sets the travel path of the own vehicle 1 and its curvature. For example, when the own vehicle 1 is automatically traveling, the travel route of the own vehicle set by the automatic travel is set. Set the curvature from. Further, when the vehicle is manually driven, the curvature of the traveling path of the own vehicle is based on the detection result from the sensor that acquires the information around the own vehicle, including the sensors such as the front sensor 201 and the peripheral sensor 202. To set.
  • the outside world sensor 207 detects information on the traveling environment of the own vehicle (for example, information on the presence / absence and position of other vehicles around the own vehicle) as a recognition result, and is also used by, for example, the front sensor 201 and the peripheral sensor 202. That is, the detection results of the front sensor 201 and the peripheral sensor 202 may be used as the detection results of the external sensor 207. Further, the external sensor 207 may be configured to be separately provided with a sensor.
  • a method used for the external world sensor 207 for example, a method of detecting an object from a measurement result (image) obtained by a stereo camera using a stereo camera, a method of detecting an object from an image obtained by the camera, and a method of detecting an object from an image obtained by the camera.
  • Detects objects using technologies such as radar (Radar: Radio Detection and Ranging), sonar (SONAR: Sound navigation and ranging), and lidar (LiDAR: Light Detection and Ranging).
  • a method may be used.
  • the own vehicle position estimation device 100 determines the position of the own vehicle based on the information from the front sensor 201, the peripheral sensor 202, the vehicle internal sensor 203, the GNSS204, the map storage unit 205, the target route setting unit 206, and the outside world sensor 207. It estimates and outputs the estimation result to the control device 300 that controls the operations such as automatic driving and manual driving in the own vehicle 1.
  • the feature point detection unit 110 detects a plurality of feature points of the detected object from the point cloud data which is the measurement result of the front sensor 201 and the peripheral sensor 202.
  • the feature point area generation unit 120 divides a plurality of feature points detected by the feature point detection unit 110 into a plurality of feature point groups each consisting of a plurality of feature points by associating the plurality of feature points with any of a plurality of predetermined detection areas. do.
  • FIG. 13 is a diagram showing an example of the detection range of the front sensor and the peripheral sensor
  • FIGS. 14 and 15 are diagrams for explaining the detection region defined in the present embodiment.
  • the front sensor 201 has a long-distance narrow angle in front of the own vehicle as a detection range, and detects an object within the detection range.
  • the peripheral sensor 202 uses a plurality of sensors 202a, 202b, 202c, 202d installed around the own vehicle to set the entire short-distance range around the own vehicle as the detection range, and detects an object within the detection range.
  • the front area E is defined as a detection area in front of the own vehicle 1 and including a certain range at a relatively long distance.
  • the peripheral area A is used as the front detection area
  • the peripheral area B is used as the left side detection area
  • the peripheral area C is used as the rear detection area
  • the right side detection area is used.
  • the peripheral area D is defined.
  • a plurality of feature points (a plurality of feature point groups) detected from the measurement results obtained by the front sensor 201 and the peripheral sensors 202 (sensors 202a, 202b, 202c, 202d) and a preset detection area.
  • a plurality of feature points are divided into a plurality of feature point groups. That is, the plurality of feature points detected from the detection result of the front sensor 201 are included in the feature point group corresponding to the front area E.
  • the feature points detected from the detection results of the peripheral sensors 202 correspond to the peripheral area A, the peripheral area B, the peripheral area C, and the peripheral area D, respectively. Included in the point cloud.
  • the feature point area determination unit 150 used is each detection area (front area E, peripheral area A) based on information from the vehicle internal sensor 203, GNSS204, map storage unit 205, target route setting unit 206, and external world sensor 207. , B, C, D), it is determined whether or not to use it for the estimation process of the position of the own vehicle 1 for each of the feature point groups. That is, for example, when it is determined that the feature point group of the front area E is not used for the estimation process of the own vehicle 1, the determination result (selected area value) is output to the front matching unit 130. Similarly, when it is determined that the feature point group of the peripheral area A is not used for the estimation process of the own vehicle 1, the determination result (selected area value) is output to the peripheral matching unit 140. The details of the determination process in the use feature point area determination unit 150 will be described later.
  • the front matching unit 130 compares a plurality of feature points (here, feature points belonging to the front area E) obtained from the detection result of the front sensor 201 with the feature points of the map stored in the map storage unit 205. By associating with each other, the position of the own vehicle 1 on the map is estimated and output. In addition, information on whether or not the result of position estimation has been updated since the previous mapping process is output at the same time.
  • feature points here, feature points belonging to the front area E
  • FIGS. 16 to 18 Various methods can be considered for estimating the position of the own vehicle 1 by associating the feature points of the front area E with the feature points of the map.
  • the IPC Intelligent Closest Point
  • FIGS. 16 to 18 can be used. It is conceivable to use a method. In this case, first, as shown in FIG. 17, the nearest feature points are searched for the feature points of the feature point group of the front area E as shown in FIG. 16 and the feature points of the feature point group of the map. As shown in FIG. 18, the position of the feature point group in the front area E is adjusted so that the difference in the positions of the associated feature points is minimized. Then, when the processes of FIGS.
  • the feature point group of the front area E and the feature point group on the map represent the same object. It is determined that the vehicle 1 is present, and the position of the own vehicle 1 on the map is estimated.
  • the peripheral matching unit 140 has a plurality of feature points (here, features belonging to the peripheral areas A, B, C, and D) obtained from the detection results of the peripheral sensors 202 (sensors 202a, 202b, 202c, 202d).
  • the point) and the feature point of the map stored in the map storage unit 205 are compared and associated with each other to estimate and output the position of the own vehicle 1 on the map.
  • information on whether or not the result of position estimation has been updated since the previous mapping process is output at the same time.
  • the same method as that of the front matching unit 130 can be used. ..
  • FIG. 5 is a functional block diagram schematically showing the overall configuration of the use feature point area determination unit according to the present embodiment.
  • the used feature point area determination unit 150 is outlined from the speed determination unit 151, the turning determination unit 152, the traveling environment determination unit 153, the predicted curvature determination unit 154, the surrounding environment determination unit 155, and the area cost calculation unit 156. It is configured.
  • FIG. 6 is a diagram showing the processing contents of the speed determination unit.
  • the speed determination unit 151 calculates the weight based on the vehicle speed information acquired from the vehicle internal sensor 203 (that is, weights the information related to the vehicle speed), and outputs the calculation result (weight A). do.
  • the various numerical values in the above processing are examples and can be changed as appropriate.
  • FIG. 7 is a diagram showing the processing contents of the turning determination unit.
  • the various numerical values in the above processing are examples and can be changed as appropriate.
  • FIG. 8 is a diagram showing the processing contents of the driving environment judgment unit.
  • the driving environment determination unit 153 determines the driving environment based on the position information from the GNSS 204 and the map information from the map storage unit 205, and calculates the weight according to the driving environment (that is,). (Weighting of information related to the driving environment), and the calculation result (weight C) is output.
  • the various numerical values in the above processing are examples and can be changed as appropriate.
  • FIG. 9 is a diagram showing the processing contents of the predicted curvature determination unit.
  • the map storage unit 205 As shown in FIG. 9, based on the map information from the predicted curvature determination unit 154, the map storage unit 205, the route information and curvature information from the target route setting unit 206, and the recognition result information from the external world sensor 207.
  • the predicted curvature in the traveling path of the vehicle 1 is determined, the weight according to the predicted curvature is calculated (that is, the information related to the traveling environment is weighted), and the calculation result (weight D) is output.
  • the predicted curvature determination unit 154 averages the weight obtained when the own vehicle 1 is in automatic driving and the weight obtained when the own vehicle 1 is in non-automatic driving in a predetermined time range.
  • the weight D is acquired.
  • the predicted curvature determination unit 154 acquires the target path and the curvature during automatic operation, for example, when the curvature is small (that is, in the case of a gentle curve), the weight is 0.5, and when the curvature is large. (That is, in the case of a sharp curve), the weight is 0.1, and when the curvature is 0 (zero) (that is, in the case of a straight line), the weight is 0.9.
  • the curvature obtained from the external sensor 207 is acquired, for example, when the curvature is small (that is, in the case of a gentle curve), the weight is set to 0.5, and when the curvature is large (that is, in the case of a gentle curve). That is, in the case of a sharp curve), the weight is 0.1, and in the case of a curvature of 0 (zero) (that is, in the case of a straight line), the weight is 0.9.
  • the weight D is obtained by calculating the time average of the weights during the automatic operation and the non-automatic operation.
  • the degree of weighting to the curvature is the same during automatic operation and non-automatic operation is illustrated, it may be set differently. Further, for example, a table may be prepared in advance in which the weight decreases as the predicted curvature increases, and the weight may be obtained using this table. Further, various numerical values in the above processing are shown as an example and can be changed as appropriate.
  • FIG. 10 is a diagram showing the processing contents of the surrounding environment judgment unit.
  • the surrounding environment determination unit 155 determines another dynamic object (for example, another vehicle, a motorcycle, a bicycle, etc.) in the surrounding environment of the own vehicle 1 based on the recognition result from the external world sensor 207.
  • the presence or absence is determined, and the weight according to the determination result is calculated for each detection area (front area E, peripheral area A, B, C, D) (that is, weighting of information related to the surrounding environment is performed).
  • the weight of the detection area in which the dynamic object exists is 0.0 (zero)
  • the weight of the detection area in which the dynamic object does not exist is 1.0.
  • 19 to 21 are diagrams showing an example of the surrounding environment of the own vehicle.
  • the weights of the front area E and the peripheral area A are 0.0, and the weights of the peripheral areas B, C, and D are 1.0.
  • the weights of the peripheral areas B, C, and D are 1.0.
  • FIG. 11 is a diagram showing the processing contents of the area cost calculation unit.
  • the area cost calculation unit 156 is calculated from the speed determination unit 151, the turning determination unit 152, the traveling environment determination unit 153, the predicted curvature determination unit 154, and the surrounding environment determination unit 155 (weight A). , B, C, D, area weight), the selected area values of each detection area (front area E, peripheral area A, B, C, D) are calculated and output.
  • the area cost calculation unit 156 calculates a weight multiplication value for each detection area, and sets a selection area value for each detection area according to the weight multiplication value.
  • the weight multiplication value weight A (speed) ⁇ weight B (turning) ⁇ weight C (running environment) ⁇ weight D (predicted curvature) ⁇ area weight (periphery). Environment) is calculated.
  • Area weight (surrounding environment) 1.0 (all detection areas).
  • weights A to D and the area weights are used.
  • Weight A (speed) 0.5
  • weight B (turning) 0.5
  • weight C (driving environment) 0.9
  • weight D predicted curvature
  • area weight (surrounding environment) 1.0 (all detection areas).
  • the weight multiplication value of the front area E is 0.1125
  • the threshold value is larger than 0.1125
  • the selection area value of the front area E is 0.
  • the own vehicle 1 is caught in a traffic jam on a national road, is in a state of repeatedly stopping and starting, and is traveling in the left lane, and other dynamics are to the front, the rear, and the right side.
  • the selection area value of the front area E is 0.
  • the selected area values of the peripheral areas A, C, and D are 0.
  • the selected area value of the peripheral area B is 0.0027
  • the weight multiplication value of the front area E is 0.045
  • the selection area value of the front area E is 1.
  • the weight multiplication value of the peripheral areas B and C 0.
  • the vehicle movement amount estimation unit 160 estimates the movement amount and the movement direction of the vehicle by using the vehicle speed information and the steering angle information acquired from the vehicle internal sensor 203.
  • Various methods can be considered as a method for estimating the amount of movement and the direction of movement of the vehicle. For example, it is conceivable to use a dead reckoning technique for estimating a relative position from a certain reference point.
  • the vehicle position fusion unit 170 includes the position information of the own vehicle 1 estimated by the front matching unit 130, the position information of the own vehicle 1 estimated by the peripheral matching unit 140, and the self estimated by the vehicle movement amount estimation unit 160. By fusing with the movement amount of the vehicle 1, the position of the own vehicle 1 is calculated and output to the control device 300.
  • the vehicle position fusion unit 170 has the speed, angular velocity, skid angle, and time of the own vehicle 1 estimated by the vehicle movement amount estimation unit 160, and the own vehicle estimated by the front matching unit 130 and the peripheral matching unit 140.
  • the position, attitude, and time are used for fusion by the extended Kalman filter, and the position of the own vehicle 1 is calculated.
  • FIG. 22 is a flowchart showing the processing contents in the own vehicle position estimation device.
  • the feature point detection unit 110 of the own vehicle position estimation device 100 first acquires point cloud data from the front sensor 201 and the peripheral sensor 202 (step S100), and detects the feature points of surrounding objects (step S100). S110).
  • the feature point area generation unit 120 associates the plurality of feature points detected by the feature point detection unit 110 with any of the plurality of predetermined detection areas, so that each of the plurality of feature points is composed of the plurality of feature points. Divide into groups (step S120).
  • the vehicle movement amount estimation unit 160 estimates the movement amount of the own vehicle 1 (step S130).
  • step S170 When the processing in step S170 is completed, or when the determination result in step S160 is NO, the vehicle position fusion unit 170 subsequently fuses the calculation results of the front matching unit 130 and the peripheral matching unit 140. Then, the position of the own vehicle 1 is calculated (step S180), and the process is terminated.
  • FIG. 23 is a flowchart showing the processing content of the area selection process in the use feature point area determination unit.
  • the speed determination unit 151 and the turn determination unit 152 of the use feature point area determination unit 150 acquire own vehicle information such as vehicle speed information and steering angle information from the vehicle internal sensor 203 (step S210).
  • the driving environment determination unit 153 acquires position information from GNSS204 (step S220), and the driving environment determination unit 153 and the predicted curvature determination unit 154 acquire map information from the map storage unit 205 (step S230).
  • the predicted curvature determination unit 154 acquires target information such as route information and curvature information from the target route setting unit 206 (step S240), and the surrounding environment determination unit 155 and the predicted curvature determination unit 154 recognize from the outside world sensor 207. Acquire result information (step S250).
  • the speed determination unit 151, the turning determination unit 152, the traveling environment determination unit 153, the predicted curvature determination unit 154, and the peripheral environment determination unit 155 perform weight calculation processing (see FIGS. 6 to 10) to perform weight A. , B, C, D and the area weight are calculated (step S300), the area cost calculation unit 156 performs cost calculation processing (see FIG. 11) to calculate the selected area value (step S400), and ends the processing. ..
  • a technology for determining the position of the own vehicle based on information obtained from sensors provided in the own vehicle is known.
  • the detection accuracy of the sensors affects the accuracy of the position estimation of the own vehicle, but the detection accuracy of the sensors differs depending on the traveling condition of the own vehicle.
  • the amount of change in the detection range of the long-distance narrow-angle front sensor Since the amount of movement in the lateral direction is large, the detection accuracy tends to decrease, which has a large effect on the accuracy of position estimation.
  • the amount of change in the detection range (lateral movement amount) of the peripheral sensor in all directions at a short distance is relatively small, the detection accuracy tends to be difficult to decrease, and the influence on the accuracy of position estimation is small.
  • the amount of change in the detection range of the long-distance narrow-angle front sensor is relatively small, so that the detection accuracy is high. Tends to be less likely to decrease, and has a small effect on the accuracy of position estimation.
  • the detection accuracy tends to decrease, which greatly affects the accuracy of position estimation.
  • the detection range of the long-distance narrow-angle front sensor is obstructed by another vehicle in front of the vehicle.
  • the accuracy tends to decrease, which has a large effect on the accuracy of position estimation.
  • the detection accuracy tends to be difficult to decrease even when the range in which information can be obtained is limited, which affects the accuracy of position estimation. small.
  • the position of the own vehicle is estimated from the feature points detected from the detection results of each sensor and the feature points on the map, and the position estimation result is fused to estimate the own vehicle position.
  • the fusion result is affected by the detection result in which the detection accuracy is lowered, and the position estimation result is lowered.
  • the position estimation system provided in the vehicle includes a front sensor that detects an object in front of the vehicle, a range closer than the front sensor, and at least the left-right direction of the vehicle.
  • the range is set as the detection range, and a plurality of feature points of the object are detected and detected from at least one of the detection results of the peripheral sensor that detects the object around the vehicle in the detection range and the detection result of the front sensor and the detection result of the peripheral sensor.
  • the position estimation device includes a position estimation device that estimates the position of the vehicle using the plurality of feature points, and a control device that controls the operation of the vehicle based on the estimation result of the position estimation device.
  • a plurality of feature points (a plurality of feature point groups) detected from the measurement results obtained by the front sensor 201 and the peripheral sensors 202 (sensors 202a, 202b, 202c, 202d) are set in advance.
  • An example is shown in which a plurality of feature point clouds are generated by associating the detected detection areas (front area E, peripheral areas A, B, C, D), but as shown in FIG. 28, for example, as a peripheral sensor.
  • the detection range of the peripheral sensor is divided in advance according to the relative position with the own vehicle 1, and the divided detection range and the detection area correspond in advance. By attaching it, it may be configured to generate a feature point cloud.
  • the front sensor and the rear sensor are used as shown in FIG. 29, the front sensor and the left and right side sensors are used as shown in FIG. 30, or the detection range is long in the front-rear direction as shown in FIG. 31.
  • the detection area here, the sensor
  • the position is estimated using the detection result of the sensor that has little influence on the detection accuracy according to the driving situation (that is, the selection area value of the detection area related to the sensor is set to 1). Further selection is made for the first embodiment in which the detection result of the sensor having a large influence on the detection accuracy is not used for the position estimation (that is, the area value of the detection area related to the sensor is 0).
  • the calculation resource used for the calculation of the position estimation based on the detection result of the unselected sensor is used for the calculation related to the feature points increased by the increase in the number of samplings.
  • the information is weighted by the used feature point area determination unit 150, and the feature point group used for the position estimation of the own vehicle 1 is based on the selection area value set according to the result of the weighting.
  • the detection area it may be configured to select a detection area having a large number of feature points and use the feature points for position estimation.
  • the surface position of the object is detected as a point cloud by the front sensor 201 and the peripheral sensor 202, and the position is estimated using the feature points detected from the point cloud (so-called point cloud matching).
  • the road surface paint information such as white lines and stop lines on the high-precision map can be associated with the road surface paint information on the map from the acquisition results from the sensor.
  • it may be configured to associate with landmark information such as a sign, a signal, a sign, and a telegraph column.
  • the present invention is not limited to the above-described embodiments, and includes various modifications and combinations.
  • the above-described embodiment has been described in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to the one including all the described configurations.
  • each of the above configurations, functions and the like may be realized by designing a part or all of them by, for example, an integrated circuit.
  • each of the above configurations, functions, and the like may be realized by software by the processor interpreting and executing a program that realizes each function.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

車両に設けられた位置推定システムであって、前方センサと、周辺センサと、前方センサの検出結果および周辺センサの検出結果の少なくとも一方の検出結果から物体の複数の特徴点を検出し、検出した複数の特徴点を用いて車両の位置推定を行う位置推定装置と、位置推定装置の推定結果に基づいて車両の動作を制御する制御装置とを備え、位置推定装置は、車両の状態に関する複数の情報のそれぞれについて重み付けを行うとともに、車両の周辺環境に関する情報について重み付けを行い、前方センサ及び周辺センサで検出された複数の特徴点の一部からなる複数の特徴点群について、位置推定に用いるか否かを重み付けの結果に基づき特徴点群ごとに選択する。これにより、自車両の走行状態や走行環境に応じてより精度良く自車両の位置を推定することができる。

Description

位置推定システム
 本発明は、位置推定システムに関する。
 安全運転や自動運転などに向けた技術としては、自車両に設けられたセンサ類から得られる情報により自車両の位置を判定するものが知られている。例えば、特許文献1には、道路上で走行方向に間隔をもって車載カメラから撮影された風景画像の特徴的部分を抽出して得られる複数の参照データをそれぞれ対応する地図上の位置と関連付けて記憶しておき、車載カメラから撮影される風景画像と前記複数の参照データとが一致しているか否かを判定するマッチング処理を行ない、該マッチング処理により一致していると判定された参照データに対応する地図上の位置に基づいて車両の地図上の位置を判定する位置判定装置であって、前記マッチング処理は、車両から撮影される風景画像に対して特徴的部分を抽出する所定の画像処理を施して得られる判定用データと前記参照データとの一致の程度が判定用閾値以上のときに一致していると判定し、前記一致の程度が前記判定用閾値未満のときに一致していないと判定することにより行なわれ、前記判定用閾値は、車速が大きいほど小さくなる傾向に且つハンドル操舵量が大きいほど小さくなる傾向に調整されてなる、位置判定装置が開示されている。
特開2005-318568号公報
 しかしながら、上記従来技術においては、車載カメラから撮影される風景画像と参照データとが一致しにくい状態となった場合に一致していると判定するための条件を緩和することで、風景画像と参照データとが一致する機会を無理に増やしており、自車両の位置判定の精度が低下してしまうおそれがあった。
 本発明は上記に鑑みてなされたものであり、自車両の走行状態や走行環境に応じてより精度良く自車両の位置を推定することができる位置推定システムを提供することを目的とする。
 上記目的を達成するために、本発明は、車両に設けられた位置推定システムであって、前記車両の前方の物体を検出する前方センサと、前記前方センサよりも近距離の範囲、かつ前記車両の少なくとも左右方向を含む範囲を検知範囲とし、前記検知範囲における前記車両の周辺の物体を検出する周辺センサと、前記前方センサの検出結果および前記周辺センサの検出結果の少なくとも一方の検出結果から物体の複数の特徴点を検出し、検出した前記複数の特徴点を用いて前記車両の位置推定を行う位置推定装置と、前記位置推定装置の推定結果に基づいて前記車両の動作を制御する制御装置とを備え、前記位置推定装置は、前記車両の状態に関する複数の情報のそれぞれについて重み付けを行うとともに、前記車両の周辺環境に関する情報について重み付けを行い、前記前方センサ及び前記周辺センサで検出された複数の特徴点の一部からなる複数の特徴点群について、前記位置推定に用いるか否かを前記重み付けの結果に基づき前記特徴点群ごとに選択するものとする。
 本発明によれば、自車両の走行状態や走行環境に応じてより精度良く自車両の位置を推定することができる。
車両に搭載される位置推定システムによる位置推定の一例を示す図である。 車両に搭載される位置推定システムによる位置推定の一例を示す図である。 車両に搭載される位置推定システムによる位置推定の一例を示す図である。 位置推定システムの全体構成を概略的に示す機能ブロック図である。 使用特徴点エリア判断部の全体構成を概略的に示す機能ブロック図である。 速度判断部の処理内容を示す図である。 旋回判断部の処理内容を示す図である。 走行環境判断部の処理内容を示す図である。 予測曲率判断部の処理内容を示す図である。 周辺環境判断部の処理内容を示す図である。 エリアコスト演算部の処理内容を示す図である。 特徴点を示す3次元点群データの一例を示す図である。 前方センサおよび周辺センサの検出範囲の一例を示す図である。 検出領域について説明する図である。 検出領域について説明する図である。 IPCの手法について説明する図である。 IPCの手法について説明する図である。 IPCの手法について説明する図である。 自車両の周辺環境の一例を示す図である。 自車両の周辺環境の一例を示す図である。 自車両の周辺環境の一例を示す図である。 自車位置推定装置における処理内容を示すフローチャートである。 使用特徴点エリア判断部におけるエリア選択処理の処理内容を示すフローチャートである。 走行状況の一例を示す図である。 走行状況の一例を示す図である。 走行状況の一例を示す図である。 従来技術における融合結果の一例を示す図である。 センサ構成の他の例を示す図である。 センサ構成の他の例を示す図である。 センサ構成の他の例を示す図である。 センサ構成の他の例を示す図である。
 以下、本発明の実施の形態を図面を参照しつつ説明する。
 <第1の実施の形態>
  本発明の第1の実施の形態を図1~図27を参照しつつ説明する。
 図1~図3は、車両に搭載される位置推定システムによる位置推定の一例を示す図である。
 車両のような移動体による位置推定(所謂、自車位置推定)には、図1に示すように、GNSS(Global Navigation Satellite System:全世界測定システム)によって自車両の地球上における緯度および経度を絶対位置として推定するものや、図2に示すように、カメラ等から得られる情報から自車両の位置を周辺の構造(道路上に設けられたラインや他の物体など)との相対位置として推定するもの、或いは、図3に示すように、ジャイロセンサや加速度センサなどの各種センサからの情報とGNSS等との情報を合わせて演算処理することにより、トンネル内などの環境下で自車両の位置を推定するもの(所謂、デッドレコニング)などの方法がある。
 本実施の形態に係る位置推定システムは、自車両に搭載された各種センサなどの検出結果から得られた情報と予め用意した地図の情報とを比較することにより、自車両の位置を推定するものである。より具体的には、自車両に搭載されたセンサによって自車両周辺の物体の特徴点を検出し、事前測定などによって予め作成された特徴点の情報を含む地図と対応付けすることにより、地図上の自車両の位置を推定する。以降、このような本実施の形態に係る位置推定システムの詳細について説明する。
 図4は、本実施の形態に係る位置推定システムの全体構成を概略的に示す機能ブロック図である。
 図4において、位置推定システムは、前方センサ201、周辺センサ202、車両内部センサ203、GNSS204、地図記憶部205、目標経路設定部206、外界センサ207、及び、自車位置推定装置100から概略構成されている。
 前方センサ201は、自車両1(後の図12等参照)の前方の物体を検出する長距離狭角のセンサであり、例えば、本実施の形態ではステレオカメラを用い、ステレオカメラで得られた測定結果(画像)から物体を検出し、物体の表面(或いは内部)の位置を示す点群データとして出力する。なお、前方センサ201としては、自車両1の前方の物体を検出できれば良く、例えば、カメラで得られた画像から物体を検出する手法や、レーダー(Radar:Radio Detecting and Ranging:電波探知測距)、ソナー(SONAR:Sound navigation and ranging)、ライダー(LiDAR:Light Detection and Ranging:光検出と測距)などの技術を用いて物体を検出する手法を用いても良い。
 周辺センサ202は、自車両1の周辺の物体を検出する近距離全方位のセンサであり、例えば、本実施の形態では前方、左側方、後方、及び、右側方をそれぞれ検出範囲とする複数のライダーを用いるセンサ202a,202b,202c,202dで構成され、得られた測定結果から物体を検出し、物体の表面(或いは内部)の位置を示す点群データとして出力する。なお、周辺センサ202としては、自車両1の周辺の物体を検出できれば良く、例えば、カメラで得られた画像から物体を検出する手法や、レーダー(Radar:Radio Detecting and Ranging:電波探知測距)、ソナー(SONAR:Sound navigation and ranging)などの技術を用いて物体を検出する手法を用いても良い。
 車両内部センサ203は、自車両1の情報を検出する各種センサであり、例えば、自車両の走行速度を検出する車速センサや、舵角を検出する舵角センサなどである。
 GNSS204は、全世界測定システム(Global Navigation Satellite System)と呼ばれるものであり、地球座標系における自車両1の位置(すなわち、緯度および経度)を測定する。
 地図記憶部205は、自車両1の走行環境を含む地図情報を記憶している。地図情報には、道路や建物などの構造物の特徴点の位置情報が予め測定されて、例えば、図12に示すような特徴点を示す3次元点群データとして記憶されている。
 目標経路設定部206は、自車両1の走行経路やその曲率を設定するものであり、例えば、自車両1が自動走行を行っている場合には、自動走行で設定された自車両の走行経路から曲率を設定する。また、手動走行を行っている場合には、前方センサ201や周辺センサ202などのセンサを含む、自車両の周辺の情報を取得するセンサからの検出結果に基づいて、自車両の走行経路の曲率を設定する。
 外界センサ207は、自車両の走行環境の情報(例えば、自車両周辺の他の車両の有無や位置の情報)を認識結果として検出するものであり、例えば、前方センサ201や周辺センサ202で兼用する、すなわち、前方センサ201や周辺センサ202の検出結果を外界センサ207の検出結果として用いても良い。また、外界センサ207として別途センサを設けるように構成しても良い。なお、外界センサ207に用いる手法としては、例えば、ステレオカメラを用い、ステレオカメラで得られた測定結果(画像)から物体を検出する手法や、カメラで得られた画像から物体を検出する手法、レーダー(Radar:Radio Detecting and Ranging:電波探知測距)、ソナー(SONAR:Sound navigation and ranging)、ライダー(LiDAR:Light Detection and Ranging:光検出と測距)などの技術を用いて物体を検出する手法を用いても良い。
 自車位置推定装置100は、前方センサ201、周辺センサ202、車両内部センサ203、GNSS204、地図記憶部205、目標経路設定部206、及び、外界センサ207からの情報に基づいて自車両の位置を推定し、自車両1における自動運転や手動運転などの動作を制御する制御装置300に推定結果を出力するものであり、特徴点検出部110、特徴点エリア生成部120、前方マッチング部130、周辺マッチング部140、使用特徴点エリア判断部150、車両移動量推定部160、及び、車両位置融合部170から概略構成されている。
 特徴点検出部110は、前方センサ201や周辺センサ202の測定結果である点群データから、検出された物体の複数の特徴点を検出するものである。
 特徴点エリア生成部120は、特徴点検出部110で検出した複数の特徴点を予め定めた複数の検出領域の何れかと対応付けることで、それぞれが複数の特徴点からなる複数の特徴点群に分割する。
 図13は、前方センサおよび周辺センサの検出範囲の一例を示す図であり、図14及び図15は、本実施の形態において定義する検出領域について説明する図である。
 図13に示すように、前方センサ201は、自車両の前方の長距離狭角を検出範囲としており、検出範囲内の物体を検知する。また、周辺センサ202は、自車両の周囲に設置された複数のセンサ202a,202b,202c,202dによって自車両の周辺の近距離全範囲を検出範囲としており、検知範囲内の物体を検知する。
 また、図14及び図15に示すように、自車両1の前方及び周辺に複数の検出領域を予め定義する。本実施の形態では、例えは、自車両1の前方であって比較的遠距離の一定の範囲を含む検出領域として前方エリアEを定義する。同様に、自車両1の近距離における周辺について、前方の検出領域として周辺エリアAを、左側方の検出領域として周辺エリアBを、後方の検出領域として周辺エリアCを、右側方の検出領域として周辺エリアDを定義する。
 本実施の形態では、前方センサ201及び周辺センサ202(センサ202a,202b,202c,202d)において得られた測定結果から検出された複数の特徴点(複数の特徴点群)と予め設定した検出領域(周辺エリアA,B,C,D、前方エリアE)とをそれぞれ対応付けることで、複数の特徴点を複数の特徴点群に分割する。すなわち、前方センサ201の検出結果から検出された複数の特徴点は前方エリアEに対応する特徴点群に含まれる。同様に、周辺センサ202(センサ202a,202b,202c,202d)の検出結果から検出された特徴点は、それぞれ、周辺エリアA、周辺エリアB、周辺エリアC、及び、周辺エリアDに対応する特徴点群に含まれる。
 使用特徴点エリア判断部150は、車両内部センサ203、GNSS204、地図記憶部205、目標経路設定部206、及び、外界センサ207からの情報に基づいて、各検出領域(前方エリアE、周辺エリアA,B,C,D)に属する特徴点群のそれぞれに対し、自車両1の位置の推定処理に用いるか否かを判断する。すなわち、例えば、前方エリアEの特徴点群を自車両1の推定処理に用いないと判断した場合には、その判断結果(選択エリア値)を前方マッチング部130に出力する。同様に、周辺エリアAの特徴点群を自車両1の推定処理に用いないと判断した場合には、その判断結果(選択エリア値)を周辺マッチング部140に出力する。なお、使用特徴点エリア判断部150における判断処理の詳細については後述する。
 前方マッチング部130は、前方センサ201の検出結果から得られた複数の特徴点(ここでは、前方エリアEに属する特徴点)と地図記憶部205に記憶された地図の特徴点とを比較して対応付けすることにより、自車両1の地図上の位置を推定し、出力する。また、前回の対応付けの処理から位置推定の結果の更新があるか否かの情報を同時に出力する。
 前方エリアEの特徴点と地図の特徴点とを対応付けて自車両1の位置を推定する方法は種々のものが考えられるが、例えば、図16~図18に示すIPC(Iterative Closest Point)の手法を用いることが考えられる。この場合には、まず、図16に示すような前方エリアEの特徴点群の特徴点と地図の特徴点群の特徴点とに対して、図17に示すように最近傍の特徴点を探索して対応付けし、図18に示すように対応付けた特徴点の位置の差が最小化するように前方エリアEの特徴点群の位置を調整する。そして、図16~図18の処理を繰り返して特徴点群間の差が予め定めた条件を満たした場合に、前方エリアEの特徴点群と地図上の特徴点群とが同じ物体を表していると判定し、自車両1の地図上の位置を推定する。
 なお、前方マッチング部130は、後述する使用特徴点エリア判断部150において、前方エリアEの特徴点を位置推定に用いないと判断された場合(すなわち、前方エリアEの選択エリア値=0の場合)には、前方エリアEの特徴点を用いた位置推定及び結果の出力を行わない。
 同様に、周辺マッチング部140は、周辺センサ202(センサ202a,202b,202c,202d)の検出結果から得られた複数の特徴点(ここでは、周辺エリアA,B,C,Dにそれぞれ属する特徴点)と地図記憶部205に記憶された地図の特徴点とを比較して対応付けすることにより、自車両1の地図上の位置を推定し、出力する。また、前回の対応付けの処理から位置推定の結果の更新があるか否かの情報を同時に出力する。なお、周辺エリアA,B,C,Dにそれぞれ属する特徴点と地図の特徴点とを対応付けて自車両1の位置を推定する方法は、前方マッチング部130と同様の手法を用いることができる。
 また、周辺マッチング部140は、後述する使用特徴点エリア判断部150において、特徴点を位置推定に用いないと判断された周辺エリア(すなわち、選択エリア値=0の周辺エリア)については、その周辺エリアの特徴点を用いた位置推定及び結果の出力を行わない。
 図5は、本実施の形態に係る使用特徴点エリア判断部の全体構成を概略的に示す機能ブロック図である。
 図5において、使用特徴点エリア判断部150は、速度判断部151、旋回判断部152、走行環境判断部153、予測曲率判断部154、周辺環境判断部155、及び、エリアコスト演算部156から概略構成されている。
 図6は、速度判断部の処理内容を示す図である。
 図6に示すように、速度判断部151は、車両内部センサ203から取得した車速情報に基づいて重みを演算し(すなわち、車速に係る情報の重み付けを行い)、演算結果(重みA)を出力する。速度判断部151では、例えば、車速の増加に応じて重みAが増加するようなテーブルを予め用意し、車速が80km/h以上の場合には重みA=1.0とし、車速が80km/h未満かつ0(ゼロ)km/hより大きい場合にはテーブルに応じて重みAを演算し、車速が0(ゼロ)km/hの場合には重みA=0.1とする。なお、上記の処理における各種数値は一例を示すものであり適宜変更が可能である。
 図7は、旋回判断部の処理内容を示す図である。
 図7に示すように、旋回判断部152は、車両内部センサ203から取得した舵角情報に基づいて重みを演算し(すなわち、舵角に係る情報の重み付けを行い)、演算結果(重みB)を出力する。旋回判断部152では、例えば、舵角(絶対値)の増加に応じて重みBが減少するようなテーブルを予め用意し、舵角の絶対値が90°の場合には重みB=0.1とし、舵角の絶対値が90°未満かつ0.0°より大きい場合にはテーブルに応じて重みBを演算し、舵角が0°(ゼロ度)の場合には重みB=0.9とする。なお、上記の処理における各種数値は一例を示すものであり適宜変更が可能である。
 図8は、走行環境判断部の処理内容を示す図である。
 図8に示すように、走行環境判断部153は、GNSS204からの位置情報および地図記憶部205からの地図情報に基づいて走行環境を判断し、走行環境に応じた重みを演算して(すなわち、走行環境に係る情報の重み付けを行って)、演算結果(重みC)を出力する。走行環境判断部153では、自車両1の走行環境に応じた予め重み付けの情報を有しており、例えば、自車両1の走行環境が高速道路であれば重みC=0.9とし、国道や環状道路であれば重みC=0.7とし、その他の道路であれば重みC=0.4とし、スーパーなどの駐車場であれば重みC=0.1とする。なお、上記の処理における各種数値は一例を示すものであり適宜変更が可能である。
 図9は、予測曲率判断部の処理内容を示す図である。
 図9に示すように、予測曲率判断部154、地図記憶部205からの地図情報、目標経路設定部206からの経路情報や曲率情報、及び、外界センサ207からの認識結果情報に基づいて、自車両1の走行経路における予測曲率を判断し、予測曲率に応じた重みを演算して(すなわち、走行環境に係る情報の重み付けを行って)、演算結果(重みD)を出力する。予測曲率判断部154では、予め定めた時間範囲において、自車両1が自動運転中である場合に得られた重みと、非自動運転中である場合に得られた重みとを平均することで、重みDを取得している。
 予測曲率判断部154では、自動運転中においては、目標経路と曲率とを取得し、例えば、曲率が小さい場合(すなわち、緩やかなカーブの場合)には重み=0.5とし、曲率が大きい場合(すなわち、急カーブの場合)には重み=0.1とし、曲率が0(ゼロ)の場合(すなわち、直線の場合)には重み=0.9とする。
 同様に、非自動運転中においては、外界センサ207から得られる曲率を取得し、例えば、曲率が小さい場合(すなわち、緩やかなカーブの場合)には重み=0.5とし、曲率が大きい場合(すなわち、急カーブの場合)には重み=0.1とし、曲率が0(ゼロ)の場合(すなわち、直線の場合)には重み=0.9とする。
 そして、自動運転中と非自動運転中における重みの時間平均を求めることで重みDを得る。
 なお、自動運転中と非自動運転中とで曲率に対する重み付けの程度を同じとした場合を例示したが、異なるように設定しても良い。また、例えば、予測曲率の増加に応じて重みが減少するようなテーブルを予め用意し、これを用いて重みを求めるように構成しても良い。また、上記の処理における各種数値は一例を示すものであり適宜変更が可能である。
 図10は、周辺環境判断部の処理内容を示す図である。
 図10に示すように、周辺環境判断部155は、外界センサ207からの認識結果に基づいて、自車両1の周辺環境における他の動的物体(例えば、他の車両やバイク、自転車など)の有無を判断し、判断結果に応じた重みを各検出領域(前方エリアE、周辺エリアA,B,C,D)ごとに演算して(すなわち、周辺環境に係る情報の重み付けを行って)、演算結果(エリア重み)を出力する。周辺環境判断部155では、例えば、動的物体が存在する検出領域の重み=0.0(ゼロ)とし、動的物体が存在しない検出領域の重み=1.0とする。
 図19~図21は、自車両の周辺環境の一例を示す図である。
 例えば、周辺環境判断部155は、図19に示すように自車両1の前方に他の車両2が存在する場合、すなわち、前方の検出領域(前方エリアE、周辺エリアA)に動的物体が存在する場合には、前方エリアEおよび周辺エリアAの重み=0.0とし、周辺エリアB,C,Dの重み=1.0とする。また、例えば、図20に示すように自車両1の前方、後方、右側方、及び、右斜め前方にそれぞれ他の車両2,3,4,5が存在する場合、すなわち、前方および周辺の検出領域(前方エリアE、周辺エリアA,C,D)に動的物体が存在する場合には、前方エリアEおよび周辺エリアA,C,Dの重み=0.0とし、周辺エリアBの重み=1.0とする。また、例えば、図21に示すように自車両1の前方および後方の比較的遠方にそれぞれ他の車両6,7が存在する場合、すなわち、前方の検出領域(前方エリアE)に動的物体が存在する場合には、前方エリアEの重み=0.0とし、周辺エリアA,B,C,Dの重み=1.0とする。
 図11は、エリアコスト演算部の処理内容を示す図である。
 図11に示すように、エリアコスト演算部156は、速度判断部151、旋回判断部152、走行環境判断部153、予測曲率判断部154、及び、周辺環境判断部155からの演算結果(重みA,B,C,D、エリア重み)に応じて、各検出領域(前方エリアE、周辺エリアA,B,C,D)の選択エリア値をそれぞれ演算し、出力する。エリアコスト演算部156では、検出領域ごとに重み乗算値を算出し、重み乗算値に応じて各検出領域の選択エリア値を設定する。
 すなわち、エリアコスト演算部156では、まず、各検出領域について、重み乗算値=重みA(速度)×重みB(旋回)×重みC(走行環境)×重みD(予測曲率)×エリア重み(周辺環境)を演算する。
 続いて、周辺エリアA,B,C,Dについては、重み乗算値が0.0よりも大きい検出領域の選択エリア値=1とし、重み乗算値が0.0の検出領域の選択エリア値=0とする。同様に、周辺エリアEについては、重み乗算値が予め定めた閾値以上の場合には選択エリア値=1とし、重み乗算値が予め定めた閾値未満の場合には選択エリア値=0とする。
 エリアコスト演算部156における処理内容の具体例を挙げると、例えば、自車両1が直線の高速道路で100km/hで走行しており、かつ、周辺に他の動的物体が存在しない場合には、重みA~Dおよびエリア重みは、重みA(速度)=1.0、重みB(旋回)=0.9、重みC(走行環境)=0.9、重みD(予測曲率)=0.9、エリア重み(周辺環境)=1.0(全ての検出領域)となる。ここで、前方エリアEの重み乗算値=0.729となる。したがって、閾値が0.729より小さい場合には、前方エリアEの選択エリア値=1となる。また、周辺エリアA,B,C,Dの重み乗算値はそれぞれ0.0となるので、周辺エリアA,B,C,Dの選択エリア値=0となる。
 また、例えば、自車両1が高速道路のJCS(ジャンクション)のカーブを50km/hで走行しており、かつ、周辺に他の動的物体が存在しない場合には、重みA~Dおよびエリア重みは、重みA(速度)=0.5、重みB(旋回)=0.5、重みC(走行環境)=0.9、重みD(予測曲率)=0.5、エリア重み(周辺環境)=1.0(全ての検出領域)となる。ここで、前方エリアEの重み乗算値=0.1125となるので、閾値が0.1125より大きい場合には、前方エリアEの選択エリア値=0となる。また、周辺エリアA,B,C,Dの重み乗算値はそれぞれ0.0125となるので、周辺エリアA,B,C,Dの選択エリア値=1となる。
 また、例えば、自車両1が国道で渋滞に巻き込まれており、停止と発進を繰り返している状態であって、かつ、左車線を走行し、前方、後方、及び、右側方に他の動的物体(他の車両)が存在する場合には、重みA~Dは、重みA(速度)=1.0、重みB(旋回)=0.9、重みC(走行環境)=0.7、重みD(予測曲率)=0.9となる。また、周辺エリアBのエリア重み(周辺環境)=1.0であり、前方エリアE及び周辺エリアA,C,Dのエリア重み(周辺環境)=0.0となる。ここで、前方エリアEの重み乗算値=0となるので、閾値が0.0より大きい場合には、前方エリアEの選択エリア値=0となる。また、周辺エリアA,C,Dの重み乗算値はそれぞれ0.0となるので、周辺エリアA,C,Dの選択エリア値=0となる。また、周辺エリアBの重み乗算値は0.0027となるので、周辺エリアBの選択エリア値=1となる。
 また、例えば、自車両1が交差点で右側車線の先頭位置において信号待ちをしており、かつ、後方と左側方に他の動的物体(他の車両)が存在する場合には、重みA~Dは、重みA(速度)=0.1、重みB(旋回)=0.9、重みC(走行環境)=0.5、重みD(予測曲率)=0.9となる。また、前方エリアEおよび周辺エリアA,Dのエリア重み(周辺環境)=1.0であり、前方エリアB,Cのエリア重み(周辺環境)=0.0となる。ここで、前方エリアEの重み乗算値=0.045となるので、閾値が0.0045より小さい場合には、前方エリアEの選択エリア値=1となる。また、周辺エリアA,Dの重み乗算値はそれぞれ0.0045となるので、周辺エリアA,Dの選択エリア値=1となる。また、周辺エリアB,Cの重み乗算値は0.0となるので、周辺エリアB,Cの選択エリア値=0となる。
 図4に戻る。
 車両移動量推定部160は、車両内部センサ203から取得した車速情報と舵角情報とを用いて、車両の移動量及び移動方向を推定する。車両の移動量及び移動方向の推定方法としては、種々の方法が考えられるが、例えば、ある基準点からの相対位置を推定するデッドレコニング技術を用いることが考えられる。
 車両位置融合部170は、前方マッチング部130で推定された自車両1の位置情報と、周辺マッチング部140で推定された自車両1の位置情報と、車両移動量推定部160で推定された自車両1の移動量とを融合することにより、自車両1の位置を演算して制御装置300に出力する。
 自車両1の位置の演算方法には種々のものが考えられるが、例えば、拡張カルマンフィルタを用いることが考えられる。この場合、車両位置融合部170は、車両移動量推定部160で推定された自車両1の速度、角速度、横滑り角、時間と、前方マッチング部130および周辺マッチング部140で推定された自車両の位置、姿勢、時間とを用いて拡張カルマンフィルタによる融合を行い、自車両1の位置を演算する。
 図22は、自車位置推定装置における処理内容を示すフローチャートである。
 図22において、自車位置推定装置100の特徴点検出部110は、まず、前方センサ201および周辺センサ202から点群データを取得し(ステップS100)、周辺の物体の特徴点を検出する(ステップS110)。
 続いて、特徴点エリア生成部120は、特徴点検出部110で検出した複数の特徴点を予め定めた複数の検出領域の何れかと対応付けることで、それぞれが複数の特徴点からなる複数の特徴点群に分割する(ステップS120)。
 続いて、使用特徴点エリア判断部150は、エリア選択処理において、車両内部センサ203、GNSS204、地図記憶部205、目標経路設定部206、及び、外界センサ207からの情報に基づいて、各検出領域(前方エリアE、周辺エリアA,B,C,D)に属する特徴点群のそれぞれに対し、自車両1の位置の推定処理に用いるか否か(すなわち、選択エリア値=1とするか否か)を判断する(ステップS200)。
 続いて、車両移動量推定部160は、自車両1の移動量を推定する(ステップS130)。
 続いて、前方マッチング部130は、エリア選択処理(ステップS200)において、前方エリアEが選択されたか否か、すなわち、前方エリアEの選択エリア値=1であるか否かを判定し、判定結果がYESの場合には、前方エリアEの特徴点群を用いて自車両1の位置を推定する(ステップS150)。
 ステップS150での処理が終了した場合、又は、ステップS140での判定結果がNOの場合には、続いて、周辺マッチング部140は、エリア選択処理(ステップS200)において、周辺エリアA,B,C,Dがそれぞれ選択されたか否か、すなわち、周辺エリアA,B,C,Dのそれぞれの選択エリア値=1であるか否かを判定する(ステップS160)。
 ステップS160での判定結果がYESの場合には、選択エリア値=1である周辺エリアの特徴点群を用いて自車両1の位置を推定する(ステップS170)。
 ステップS170での処理が終了した場合、又は、ステップS160での判定結果がNOの場合には、続いて、車両位置融合部170は、前方マッチング部130および周辺マッチング部140での演算結果を融合して自車両1の位置を演算し(ステップS180)、処理を終了する。
 図23は、使用特徴点エリア判断部におけるエリア選択処理の処理内容を示すフローチャートである。
 図23において、使用特徴点エリア判断部150の速度判断部151及び旋回判断部152は、車両内部センサ203から車速情報や舵角情報などの自車情報を取得し(ステップS210)。
 また、走行環境判断部153は、GNSS204から位置情報を取得し(ステップS220)、走行環境判断部153および予測曲率判断部154は、地図記憶部205から地図情報を取得する(ステップS230)。
 また、予測曲率判断部154は、目標経路設定部206から経路情報や曲率情報などの目標情報を取得し(ステップS240)、周辺環境判断部155及び予測曲率判断部154は、外界センサ207から認識結果情報を取得する(ステップS250)。
 続いて、速度判断部151、旋回判断部152、走行環境判断部153、予測曲率判断部154、及び、周辺環境判断部155は、重み演算処理(図6~図10参照)を行って重みA,B,C,D及びエリア重みを演算し(ステップS300)、エリアコスト演算部156は、コスト演算処理(図11参照)を行って選択エリア値を演算し(ステップS400)、処理を終了する。
 以上のように構成した本実施の形態における作用効果を説明する。
 安全運転や自動運転などに向けた技術としては、自車両に設けられたセンサ類から得られる情報により自車両の位置を判定するものが知られている。このような技術においては、センサ類による検出精度が自車両の位置推定の精度に影響するが、自車両の走行状況によってセンサ類の検出精度が異なる。
 例えば、図24に示すように、交差点を左折(又は右折)するような低速走行で大舵角となるような走行状況の場合には、長距離狭角の前方センサの検出範囲の変化量(横方向の移動量)が大きくなるため、検出精度が低下する傾向にあり、位置推定の精度への影響が大きい。一方、近距離全方位の周辺センサの検出範囲の変化量(横方向の移動量)が比較的小さいため、検出精度が低下しにくい傾向にあり、位置推定の精度への影響が小さい。
 また、例えば、図25に示すように、高速道路を走行するような高速走行を行う走行状況の場合には、長距離狭角の前方センサの検出範囲の変化量が比較的小さいため、検出精度が低下しにくい傾向にあり、位置推定の精度への影響が小さい。一方、近距離全方位の周辺センサの検出範囲は変化量が大きいため、検出精度が低下しやすい傾向にあり、位置推定の精度への影響が大きい。
 また、例えば、図26に示すように、渋滞中のような低速走行を行う走行状況の場合には、前方の他の車両などによって長距離狭角の前方センサの検出範囲が遮られるため、検出精度が低下しやすく、位置推定の精度への影響が大きい。一方、近距離全方位の周辺センサの検出範囲は変化量が小さいため、情報が得られる範囲が限定されてしまう場合においても検出精度が低下しにくい傾向にあり、位置推定の精度への影響が小さい。
 このような種々の走行状況において、各センサの検出結果から検出した特徴点と地図の特徴点とから自車両の位置を推定し、位置の推定結果を融合して自車位置を推定する場合には、図27に示すように、検出精度の低下した検出結果に融合結果が影響を受けて、位置の推定結果が低下してしまう。
 そこで、本実施の形態においては、車両に設けられた位置推定システムであって、車両の前方の物体を検出する前方センサと、前方センサよりも近距離の範囲、かつ車両の少なくとも左右方向を含む範囲を検知範囲とし、検知範囲における車両の周辺の物体を検出する周辺センサと、前方センサの検出結果および周辺センサの検出結果の少なくとも一方の検出結果から物体の複数の特徴点を検出し、検出した複数の特徴点を用いて車両の位置推定を行う位置推定装置と、位置推定装置の推定結果に基づいて車両の動作を制御する制御装置とを備え、位置推定装置は、車両の状態に関する複数の情報のそれぞれについて重み付けを行うとともに、車両の周辺環境に関する情報について重み付けを行い、前方センサ及び周辺センサで検出された複数の特徴点の一部からなる複数の特徴点群について、位置推定に用いるか否かを重み付けの結果に基づき特徴点群ごとに選択するように構成したので、自車両の走行状態や走行環境に応じてより精度良く自車両の位置を推定することができる。
 <第1の変形例>
  第1の実施の形態においては、前方センサ201及び周辺センサ202(センサ202a,202b,202c,202d)において得られた測定結果から検出された複数の特徴点(複数の特徴点群)と予め設定した検出領域(前方エリアE、周辺エリアA,B,C,D)とを対応付けることで、複数の特徴点群を生成する場合を例示したが、例えば、図28に示すように、周辺センサとして自車両1の周辺の物体一括で検出する1つのセンサを用い、その周辺センサの検出範囲を自車両1との相対位置などに応じて予め分割し、分割した検出範囲と検出領域とを予め対応付けておくことで、特徴点群を生成するように構成しても良い。また、図29に示すように前方センサと後方センサとを用いる場合や、図30に示すように前方センサと左右の側方センサを用いる場合、或いは、図31に示すように前後に長い検出範囲を有する周辺センサを用いる場合などにおいても、走行状況に応じて検出領域(ここでは、センサ)を選択するように構成しても良い。
 <第2の変形例>
  第1の実施の形態に対して、さらに、前方センサ201及び周辺センサ202の複数のサブセンサ(センサ202a,202b,202c,202d)のうち、位置推定に用いる選択をした特徴点群(すなわち、選択エリア値=1である検出領域)に係るセンサのサンプリング数を増加させるように構成してもよい。
 位置推定においては、演算に用いる特徴点の数(点密度)が増加するほど位置推定の精度は向上するものの、演算時間が指数関数的に増加するため、位置推定の精度と演算時間の適切な配分が必要となる。
 そこで、本変形例においては、走行状況に応じて検出精度に影響の少ないセンサの検出結果を用いて位置推定を行う(すなわち、当該センサに係る検出領域の選択エリア値=1とする)とともに、検出精度に影響の大きいセンサの検出結果を位置推定に用いない(すなわち、当該センサに係る検出領域のエリア値=0とする)ように構成した第1の実施の形態に対して、さらに、選択エリア値=1である検出領域に係るセンサのサンプリング数を、選択エリア値=0である検出領域に係るセンサの数に応じて増加させる。このとき、選択しなかったセンサの検出結果による位置推定の演算に用いていた演算リソースをサンプリング数の増加によって増えた特徴点に係る演算に用いる。
 これにより、演算時間の増加を抑制しつつ、さらに精度良く自車両の位置を推定することができる。
 <第3の変形例>
  第1の実施の形態においては、使用特徴点エリア判断部150において情報の重み付けを行い、この重み付けの結果に応じて設定される選択エリア値によって、自車両1の位置推定に用いる特徴点群の検出領域を選択するように構成したが、特徴点の数が多い検知領域を選択し、その特徴点を位置推定に用いるように構成しても良い。
 <第4の変形例>
  第1の実施の形態においては、前方センサ201や周辺センサ202によって物体の表面位置を点群として検出し、その点群から検出した特徴点を用いて位置推定を行う(所謂、点群マッチングを行う)ように構成したが、他の手法を用いても良く、例えば、センサからの取得結果から高精度地図上の白線や停止線などの路面ペイント情報と地図の路面ペイント情報を対応付けたり、或いは、標識、信号、看板、電信柱などランドマーク情報から対応付けたりするように構成してもよい。
 <付記>
  なお、本発明は上記した各実施の形態に限定されるものではなく、様々な変形例や組み合わせが含まれる。例えば、上記した実施の形態は本願発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、上記の各構成、機能等は、それらの一部又は全部を、例えば集積回路で設計する等により実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。
 1…自車両、2~7…他の車両、100…自車位置推定装置、110…特徴点検出部、120…特徴点エリア生成部、130…前方マッチング部、140…周辺マッチング部、150…使用特徴点エリア判断部、151…速度判断部、152…旋回判断部、153…走行環境判断部、154…予測曲率判断部、155…周辺環境判断部、156…エリアコスト演算部、160…車両移動量推定部、170…車両位置融合部、201…前方センサ、202…周辺センサ、202a~202d…センサ、203…車両内部センサ、204…GNSS、205…地図記憶部、206…目標経路設定部、207…外界センサ、300…制御装置

Claims (9)

  1.  車両に設けられた位置推定システムであって、
     前記車両の前方の物体を検出する前方センサと、
     前記前方センサよりも近距離の範囲、かつ前記車両の少なくとも左右方向を含む範囲を検知範囲とし、前記検知範囲における前記車両の周辺の物体を検出する周辺センサと、
     前記前方センサの検出結果および前記周辺センサの検出結果の少なくとも一方の検出結果から物体の複数の特徴点を検出し、検出した前記複数の特徴点を用いて前記車両の位置推定を行う位置推定装置と、
     前記位置推定装置の推定結果に基づいて前記車両の動作を制御する制御装置とを備え、
     前記位置推定装置は、
     前記車両の状態に関する複数の情報のそれぞれについて重み付けを行うとともに、前記車両の周辺環境に関する情報について重み付けを行い、
     前記前方センサ及び前記周辺センサで検出された複数の特徴点の一部からなる複数の特徴点群について、前記位置推定に用いるか否かを前記重み付けの結果に基づき前記特徴点群ごとに選択することを特徴とする位置推定システム。
  2.  請求項1記載の位置推定システムにおいて、
     前記位置推定装置は、
     前記前方センサの検出結果から検出された前記複数の特徴点と予め定めた地図の複数の特徴点とを照合して前記地図における前記車両の位置を推定する前方位置推定部と、
     前記周辺センサの検出結果から検出された前記複数の特徴点と前記地図の特徴点とを照合して前記地図における前記車両の位置を推定する周辺位置推定部と
    を備えたことを特徴とする位置推定システム。
  3.  請求項1記載の位置推定システムにおいて、
     前記位置推定装置は、
     前記車両の速度に係る情報の重み付けを行う速度判断部と、
     前記車両の舵角に係る情報の重み付けを行う舵角判断部と、
     前記車両の走行環境に係る情報の重み付けを行う走行環境判断部と、
     前記車両の走行経路の曲率に係る情報の重み付けを行う予測曲率判断部と、
     前記車両の周辺環境に係る情報の重み付けを行う周辺環境判断部と、
     前記速度判断部、前記舵角判断部、前記走行環境判断部、前記予測曲率判断部、及び、前記周辺環境判断部による重み付けの結果に基づいて、前記複数の特徴点群を前記位置推定に用いるか否かを前記特徴点群ごとに選択するエリアコスト演算部と
    を備えたことを特徴とする位置推定システム。
  4.  請求項1記載の位置推定システムにおいて、
     前記位置推定装置は、
     前記車両の周辺環境に係る情報として、前記前方センサの検知範囲に前記車両とは異なる他の車両が存在するか否かの情報、及び、前記周辺センサの検知範囲に前記車両とは異なる他の車両が存在するか否かの情報を取得し、それらの情報の重み付けを行う周辺環境判断部を備え、
     前記前方センサの検出結果から検出された特徴点からなる特徴点群と、前記前方センサの検出結果から検出され特徴点からなる特徴点群とについて、前記位置推定に用いるか否かを前記周辺環境判断部による重み付けの結果に基づき前記特徴点群ごとに選択することを特徴とする位置推定システム。
  5.  請求項1記載の位置推定システムにおいて、
     前記位置推定装置は、前記前方センサの検出結果から検出された特徴点からなる特徴点群と、前記前方センサの検出結果から検出された特徴点からなる特徴点群とについて、前記位置推定に用いるか否かを前記重み付けの結果に基づき前記特徴点群ごとに選択することを特徴とする位置推定システム。
  6.  請求項1記載の位置推定システムにおいて、
     前記周辺センサは、前記車両の周辺の異なる方向を検知範囲とする複数のサブセンサから成り、
     前記位置推定装置は、前記前方センサの検出結果から検出された特徴点からなる特徴点群と、前記前方センサの複数のサブセンサのそれぞれの測定結果から検出された特徴点からなる複数の特徴点群とについて、前記位置推定に用いるか否かを前記重み付けの結果に基づき前記特徴点群ごとに選択することを特徴とする位置推定システム。
  7.  請求項5又は6に記載の位置推定システムにおいて、
     前記位置推定装置は、前記前方センサ及び前記周辺センサの複数のサブセンサのうち、前記位置推定に用いる選択をした特徴点群に係る前記前方センサ又は前記サブセンサのサンプリング数を増加させることを特徴とする位置推定システム。
  8.  請求項1記載の位置推定システムにおいて、
     前記位置推定装置は、前記前方センサ及び前記周辺センサの検知範囲の一部からなる複数の検知エリアについて、前記複数の検知エリアにそれぞれ含まれる特徴点を前記位置推定に用いるか否かを前記重み付けの結果に基づき前記検知エリアごとに選択することを特徴とする位置推定システム。
  9.  請求項8記載の位置推定システムにおいて、
     前記位置推定装置は、前記特徴点の数が多い検知エリアの特徴点を前記位置推定に用いる選択をすることを特徴とする位置推定システム。
PCT/JP2021/022315 2020-08-11 2021-06-11 位置推定システム WO2022034735A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US18/009,767 US20230242102A1 (en) 2020-08-11 2021-06-11 Position estimation system
JP2022542585A JP7402993B2 (ja) 2020-08-11 2021-06-11 位置推定システム
JP2023208675A JP2024020641A (ja) 2020-08-11 2023-12-11 位置推定システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020135698 2020-08-11
JP2020-135698 2020-08-11

Publications (1)

Publication Number Publication Date
WO2022034735A1 true WO2022034735A1 (ja) 2022-02-17

Family

ID=80247926

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/022315 WO2022034735A1 (ja) 2020-08-11 2021-06-11 位置推定システム

Country Status (3)

Country Link
US (1) US20230242102A1 (ja)
JP (2) JP7402993B2 (ja)
WO (1) WO2022034735A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230099598A1 (en) * 2021-09-27 2023-03-30 Ford Global Technologies, Llc Vehicle object tracking

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004206267A (ja) * 2002-12-24 2004-07-22 Fujitsu Ten Ltd 物標検出装置、及び物標検出方法
JP2018146326A (ja) * 2017-03-03 2018-09-20 日立オートモティブシステムズ株式会社 移動体の位置推定装置及び方法
WO2019082669A1 (ja) * 2017-10-24 2019-05-02 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び、移動体
JP2019135620A (ja) * 2018-02-05 2019-08-15 アイシン精機株式会社 走行支援装置
WO2019188391A1 (ja) * 2018-03-29 2019-10-03 ソニー株式会社 制御装置、制御方法、並びにプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004206267A (ja) * 2002-12-24 2004-07-22 Fujitsu Ten Ltd 物標検出装置、及び物標検出方法
JP2018146326A (ja) * 2017-03-03 2018-09-20 日立オートモティブシステムズ株式会社 移動体の位置推定装置及び方法
WO2019082669A1 (ja) * 2017-10-24 2019-05-02 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び、移動体
JP2019135620A (ja) * 2018-02-05 2019-08-15 アイシン精機株式会社 走行支援装置
WO2019188391A1 (ja) * 2018-03-29 2019-10-03 ソニー株式会社 制御装置、制御方法、並びにプログラム

Also Published As

Publication number Publication date
JP2024020641A (ja) 2024-02-14
US20230242102A1 (en) 2023-08-03
JP7402993B2 (ja) 2023-12-21
JPWO2022034735A1 (ja) 2022-02-17

Similar Documents

Publication Publication Date Title
US9714034B2 (en) Vehicle control device
US20200064846A1 (en) Intelligent vehicle navigation systems, methods, and control logic for multi-lane separation and trajectory extraction of roadway segments
CN108688660B (zh) 运行范围确定装置
CN102208035B (zh) 图像处理系统及位置测量系统
JP6036371B2 (ja) 車両用運転支援システム及び運転支援方法
WO2010035781A1 (ja) 車線判定装置及びナビゲーションシステム
WO2017056247A1 (ja) 走行制御方法および走行制御装置
US20190073540A1 (en) Vehicle control device, vehicle control method, and storage medium
WO2019200563A1 (en) Map-less and localization-less lane following method for autonomous driving of autonomous driving vehicles on highway
JP7047824B2 (ja) 車両制御装置
CN110388925A (zh) 用于与自动导航有关的车辆定位的系统和方法
JPWO2018066133A1 (ja) 車両判定方法、走行経路補正方法、車両判定装置、及び走行経路補正装置
WO2016194168A1 (ja) 走行制御装置及び方法
JP2017138660A (ja) 物体検出方法、物体検出装置、およびプログラム
US20180347993A1 (en) Systems and methods for verifying road curvature map data
JP2018106490A (ja) 自動運転装置
JP2024020641A (ja) 位置推定システム
JP2022117882A (ja) 自動運転支援システム
CN109425861B (zh) 本车位置可信度运算装置
JP7069624B2 (ja) 位置演算方法、車両制御方法及び位置演算装置
JP2007241470A (ja) 車両用地図データ更新装置
JP7198005B2 (ja) 自車位置検出装置
JP6798206B2 (ja) 移動体の推奨ルート決定システム
JP2019196941A (ja) 自車位置推定装置
JP7136050B2 (ja) 自車位置推定装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21855814

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022542585

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21855814

Country of ref document: EP

Kind code of ref document: A1