WO2023162807A1 - 車両位置推定システム - Google Patents

車両位置推定システム Download PDF

Info

Publication number
WO2023162807A1
WO2023162807A1 PCT/JP2023/005139 JP2023005139W WO2023162807A1 WO 2023162807 A1 WO2023162807 A1 WO 2023162807A1 JP 2023005139 W JP2023005139 W JP 2023005139W WO 2023162807 A1 WO2023162807 A1 WO 2023162807A1
Authority
WO
WIPO (PCT)
Prior art keywords
error
vehicle
lane
position estimation
control unit
Prior art date
Application number
PCT/JP2023/005139
Other languages
English (en)
French (fr)
Inventor
亮太 木村
Original Assignee
株式会社アイシン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社アイシン filed Critical 株式会社アイシン
Publication of WO2023162807A1 publication Critical patent/WO2023162807A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/02Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by astronomical means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments

Definitions

  • the present invention relates to a vehicle position estimation system.
  • Patent Document 1 Japanese Patent Document 1
  • the present invention has been made in view of the above problems, and an object of the present invention is to provide a technique for increasing the possibility of preventing the deterioration of the vehicle position estimation accuracy.
  • the vehicle position estimation system includes a first error acquisition unit that acquires a first error indicating an error of GNSS (Global Navigation Satellite System) information acquired by the vehicle, and an error of autonomous navigation.
  • a second error acquiring unit that acquires a second error indicating the a position estimating unit that selects a position estimating method with the smallest error among the first error, the second error, and the third error, and estimates the position of the vehicle in the width direction of the road using the selected position estimating method.
  • GNSS Global Navigation Satellite System
  • the vehicle position estimation system compares the first error, the second error, and the third error, selects the position estimation method with the smallest error among the three, and uses the selected position estimation method in the width direction of the road. Estimate vehicle location. Therefore, the position of the vehicle in the width direction of the road can be estimated by the position estimation method that is estimated to have the smallest error (error in the width direction of the road) from the actual position of the vehicle among the three position estimation methods. As a result, it is possible to increase the possibility of preventing the deterioration of the vehicle position estimation accuracy by continuing the position estimation using the same position estimation method.
  • FIG. 1 is a block diagram showing the configuration of a vehicle position estimation system
  • FIG. FIG. 2A is a diagram showing an example of a photographed image
  • FIG. 2B is a diagram for explaining depth position setting.
  • FIG. 4 is a diagram showing a vehicle position estimation method used to update the vehicle position in each direction; 4A is a flowchart of vehicle position estimation processing, FIG. 4B is a flowchart of vehicle position update data setting processing, FIG. 4C is a flowchart of various data acquisition processing, and FIG. 4D is a flowchart of second error acquisition processing.
  • 5A is a flowchart of the first error acquisition process
  • FIG. 5B is a flowchart of the vehicle position front/rear update setting process, and
  • FIG. 5C is a flowchart of the vehicle position update process.
  • FIG. 1 is a block diagram showing the configuration of a vehicle position estimation system 10 according to one embodiment of the present invention.
  • a vehicle position estimation system 10 is provided in a vehicle, and includes a control unit 20 having a CPU, a RAM, a ROM, etc., and a recording medium 30 .
  • the vehicle position estimation system 10 can execute a program stored in the recording medium 30 or ROM by the control unit 20 .
  • Map information 30a is recorded in the recording medium 30 in advance.
  • the map information 30a is information used for estimating the vehicle position in this embodiment, and includes node data indicating the positions of nodes set on the road on which the vehicle travels, and specifying the shape of the road between the nodes. It includes shape interpolation point data indicating the positions of shape interpolation points for the purpose, link data indicating connections between nodes, feature data indicating the positions of features existing on roads and their surroundings, and the like.
  • lane data is associated with link data.
  • Lane data is information about lanes on the road, and indicates information indicating the number and width of lanes that exist in the road section corresponding to the link, the type of line markings on the left and right of the lane, and other aspects. Contains information.
  • the control unit 20 can specify the number of lanes and the lane width at the estimated vehicle position based on the lane data.
  • the vehicle in this embodiment includes a GNSS receiver 41 , a vehicle speed sensor 42 , a 6-axis sensor 43 , a camera 44 and a user I/F section 45 .
  • a camera 44 photographs the front of the vehicle.
  • the optical axis of the camera 44 is fixed with respect to the vehicle, and the vehicle position estimation system 10 only needs to know the direction of the optical axis.
  • the camera 44 is fixed so that the center of the optical axis is perpendicular to the width direction of the vehicle and the center of the optical axis passes through the center of the vehicle in the width direction.
  • the camera 44 is attached to the vehicle in such a posture that the forward direction of the vehicle is included in the field of view.
  • the control unit 20 acquires the image output by the camera 44 and analyzes the image to detect the lane markings on the road in front of the vehicle.
  • the user I/F unit 45 is an interface unit for inputting commands from passengers and providing various types of information to the passengers. It has an output section.
  • the user I/F unit 45 receives a control signal from the control unit 20 and displays on the touch panel display an image for providing various guidance such as a map including the current location of the vehicle and a planned travel route.
  • the GNSS receiver 41 is a device that receives signals from the Global Navigation Satellite System.
  • the GNSS receiving unit 41 adopts the RTK-GNSS (Real Time Kinematics Global Navigation Satellite System) method, and corrects the detection result based on the signal received from the satellite using the correction information received from the GNSS fixed reference station.
  • RTK-FIX Real Time Kinematics Global Navigation Satellite System
  • the position can be detected with an accuracy of several centimeters.
  • RTK-FIX a state of detecting the position using the correction information received from the GNSS fixed reference station
  • status information indicating that it is in the RTK-FIX state and , and outputs GNSS information including the detected position and information indicating the range of error (error circle) with respect to the position.
  • the vehicle speed sensor 42 outputs a signal corresponding to the rotational speed of the wheels of the vehicle.
  • the control unit 20 acquires this signal through an interface (not shown) and acquires the vehicle speed.
  • the 6-axis sensor 43 includes a 3-axis (front-rear, left-right, up-down) acceleration sensor and a gyro sensor with the same 3 axes specified for the vehicle. to output
  • the control unit 20 acquires the traveling direction of the vehicle by acquiring signals indicating the angular velocities of the three axes.
  • the control unit 20 By executing the vehicle position estimation program 21, the control unit 20 continuously estimates the vehicle position in a predetermined cycle and accumulates the trajectory of the vehicle position in each cycle as a travel trajectory.
  • the control unit 20 identifies the link on which the vehicle is traveling by map matching using the map information 30a.
  • the vehicle position estimation program 21 includes a first error acquisition section 21a, a second error acquisition section 21b, a third error acquisition section 21c, a position It includes the function of the estimation unit 21d.
  • the control unit 20 acquires the first error indicating the positional error of the GNSS information acquired by the vehicle.
  • the control unit 20 acquires GNSS information from the GNSS reception unit 41 at predetermined intervals. Then, the control unit 20 acquires the position included in the GNSS information as one candidate for updating the latest vehicle position. Also, when the status information indicates the RTK-FIX state, the control unit 20 acquires the radius of the error circle as the first error.
  • the error in the width direction (horizontal direction) of the vehicle is represented by the first error (the error in the longitudinal direction is also represented by the first error). That is, the first error indicates the reliability of the position when estimating the position of the vehicle based on the GNSS information. The smaller the first error, the higher the reliability of the position of the vehicle in the width direction, and the higher the reliability of the position of the vehicle in the width direction of the road.
  • the control section 20 acquires a second error indicating an error of autonomous navigation.
  • the control unit 20 uses the vehicle speed and traveling direction acquired from the outputs of the vehicle speed sensor 42 and the 6-axis sensor 43 to identify the travel locus of the vehicle at predetermined intervals.
  • the control unit 20 acquires the position specified based on the base point and the travel locus from the base point as one candidate for updating the latest vehicle position. Errors in the position of the vehicle specified by such autonomous navigation accumulate and increase as the distance traveled from the base point increases.
  • the error per unit distance is stored in advance, and the control unit 20 calculates the traveling distance from the previously updated position of the vehicle and the error per unit distance. Errors in the longitudinal direction and in the lateral direction accumulated during the traveled distance are calculated from the errors. Then, the control unit 20 adds the values obtained by adding the errors in the longitudinal direction and the longitudinal direction and the errors in the lateral direction accumulated during the traveled distance to the errors in the longitudinal direction and the longitudinal direction and the lateral direction of the vehicle updated last time. , the error in updating the position of the vehicle by autonomous navigation is obtained as the second error.
  • the second error is acquired for each of the front-rear direction and the left-right direction (the width direction of the vehicle). That is, the second error indicates the reliability of the position when the position of the vehicle is estimated by autonomous navigation. The smaller the second error, the higher the reliability of the position of the vehicle in the width direction. The reliability of the vehicle position in the width direction of the
  • the control section 20 acquires a third error indicating an error when detecting lane markings included in an image of the road around the vehicle.
  • the control unit 20 performs marking line recognition processing based on the image captured by the camera 44 .
  • the lane marking is recognized by, for example, performing semantic segmentation. That is, the control unit 20 inputs an image into a machine-learned model prepared in advance, and labels each pixel with the type of subject photographed. A marking line is included in the label, and when the pixels labeled as marking lines around the vehicle extend in a direction parallel to the traveling direction of the vehicle and form a solid line or a broken line, the control is performed.
  • the unit 20 regards the pixel as a marking line that is a lane boundary.
  • the control unit 20 regards the nearest lane markings existing on the left and right sides of the vehicle as lane markings indicating the boundary of the lane in which the vehicle is traveling.
  • the control unit 20 detects the line type of lane markings indicating the boundary of the lane in which the vehicle is traveling. If there are other lane markings extending in a direction parallel to the direction of travel, the control unit 20 specifies the number of lanes of the road on which the vehicle is traveling based on the positions and number of the lane markings, and determines the number of lanes among the plurality of lanes. Locate the lane in which the vehicle is traveling.
  • the lane marking recognition processing may be semantic segmentation, Hough transform, image processing for extracting characteristic amounts of lane markings, or the like.
  • the control unit 20 calculates the lane width of the lane on which the vehicle is traveling.
  • the lane width at the position in front of the vehicle which is predetermined as the depth position setting, is acquired.
  • the relative distance between the subject photographed at each pixel and the vehicle is associated in advance.
  • FIG. 2A is a diagram showing an example of an image captured by the camera 44, and the description continues assuming that the image is captured when the vehicle is at the point Pi in FIG. 2B.
  • the depth position setting is a position a distance K away from the position of the vehicle.
  • the control unit 20 identifies a pixel at a distance corresponding to the depth position setting in the image.
  • a dashed line L1 in FIG. 2A indicates a pixel corresponding to a position a distance K ahead of the vehicle.
  • the correspondence relationship between the number of pixels in the horizontal direction in the image and the actual distance in the horizontal direction on the road surface is specified in advance. Based on this correspondence relationship, the control unit 20 adjusts the distance W corresponding to the number of pixels between the two closest lane markings La and Lb existing on the left and right sides of the vehicle at the position of the dashed line L1 in the image while the vehicle is running. Identifies the lane width of the lane.
  • a dashed dotted line L2 in FIG. 2A indicates the center of the optical axis of the camera 44. As shown in FIG.
  • the control unit 20 determines the position of the vehicle in the width direction of the road with reference to the lane markings of the driving lane by specifying the distance between the nearest lane markings existing on the left and right sides of the vehicle and the center of the vehicle in the width direction. get. Specifically, for example, the distance corresponding to the number of pixels between the intersection point Pa of the dashed line L1 and either one of the lane markings (for example, La) on the left or right of the vehicle's driving lane, and the intersection point P of the dashed line L1 and the dashed-dotted line L2. K is calculated as the distance between the driving lane and the vehicle.
  • the control unit 20 calculates from the image the lane markings on the road on which the vehicle is traveling, the lane width of the lane on which the vehicle is traveling, and the relative position from the lane markings in the lane on which the vehicle is traveling (the position in the width direction of the road),
  • the information is stored as image recognition information 30b in chronological order in association with the imaging cycle of the image.
  • the image captured when the vehicle is positioned at point Pi does not include the road surface at point Pi.
  • the position of the vehicle at the point Pi (the position in the width direction of the road) is an image taken before the vehicle reaches the point Pi (in the past), and is the difference between the position of the vehicle at the time the image was taken and the point Pi. It can be obtained by image recognition of an image taken at a point Pj with a distance of K.
  • the control unit 20 calculates the traveling distance of the vehicle in each period based on the vehicle speed obtained in the predetermined period. Since the camera 44 captures images at a predetermined cycle, the control unit 20 can specify how many cycles before the image was captured at the point Pj, which is a distance K behind the point Pi in the traveling direction. .
  • the control unit 20 acquires the image recognition information 30b of the specified image from the recording medium 30, and acquires the position of the vehicle at the point Pi (position in the width direction of the road) and the lane width Wi at the point Pi.
  • the control unit 20 calculates the lane width of the point Pi calculated based on the image recognition information 30b of the image including the point Pi where the vehicle is currently located (the point where the vehicle is located in the latest cycle). Wi is compared with the lane width wi at the point specified based on the map information 30a. That is, the control unit 20 refers to the link data (map information 30a) of the link matched by the vehicle, and obtains the lane width wi of the lane on which the vehicle is traveling. Then, the control unit 20 acquires the difference between the lane width Wi and the lane width wi as the third error. That is, the third error indicates the reliability when acquiring the relative position of the vehicle in the width direction of the road by image recognition. The smaller the third error, the higher the reliability of the relative position.
  • the control unit 20 selects the position estimation method with the smallest error among the first error, the second error, and the third error, and uses the selected position estimation method to calculate the position in the width direction of the road. Estimate vehicle location.
  • the position in the longitudinal direction is updated with the position calculated by the position estimation method with the smaller error, either GNSS or autonomous navigation. That is, GNSS is selected if the first error is smaller, and autonomous navigation is selected if the second error is smaller.
  • the position in the left-right direction (the width direction of the road) is updated with the position calculated by the position estimation method with the smallest error among GNSS, autonomous navigation, and image recognition.
  • the image is captured at a point Pj that is a distance K behind the point Pi where the vehicle was located in the cycle.
  • the position of the vehicle in the width direction of the road is updated using the image recognition result of the obtained image.
  • the position in the width direction based on the image taken at the point Pj is the same width when the vehicle reaches the point Pi. It can be assumed that the position of the direction is maintained.
  • the lane width Wi obtained by image recognition and the lane based on the map information 30a
  • the third error which is the difference from the width wi, tends to increase, and image recognition is less likely to be selected as a position estimation method for updating the vehicle position in the width direction of the road.
  • the direction of travel as shown in FIG. 3, the direction of travel based on the output of the gyro sensor of the 6-axis sensor 43 is adopted in this embodiment.
  • the vehicle position estimation system 10 of the present embodiment is configured to select the method with the smallest error among a plurality of position estimation methods and update the latest vehicle position every predetermined period. As a result, it is possible to increase the possibility of preventing deterioration in vehicle position estimation accuracy by estimating the position using the same position estimation method. Further, in the present embodiment, the first error, the second error, and the third error are obtained in a predetermined cycle, and the position estimation method corresponding to the minimum error among the first to third errors is selected in the predetermined cycle. and the position is estimated by the selected method.
  • the position estimation method with the smallest error may not be selected in practice, and as a result, the accuracy of position estimation is reduced. can decline.
  • the first to third errors are obtained at predetermined intervals, thereby reducing the possibility that the accuracy of position estimation is lowered.
  • the acquisition cycle of the first to third errors may be equal to or shorter than the predetermined cycle of vehicle position estimation as in the present embodiment (higher frequency than vehicle position estimation). desirable.
  • step S100 vehicle position update data setting process
  • step S105 vehicle position update process
  • the vehicle position update data setting process in step S100 is a process of acquiring the first error, the second error, and the third error, comparing the sizes, and selecting the vehicle position estimation method in each of the front-rear direction and the left-right direction.
  • the vehicle position update process of step S105 is a process of updating the vehicle position by the vehicle position estimation method selected according to the comparison result.
  • FIG. 4B is a flowchart of the vehicle position update data setting process in step S100 of the vehicle position estimation process of FIG. 4A.
  • the control unit 20 executes various data acquisition processes (step S200). Subsequently, the control unit 20 sequentially executes the vehicle position front/rear update setting process (step S205) and the vehicle position left/right update setting process (step S210) by the function of the position estimation unit 21d.
  • FIG. 4C is a flowchart of various data acquisition processing in step S200 of the vehicle position update data setting processing in FIG. 4B.
  • the control unit 20 acquires sensor data from the vehicle speed sensor 42 and the 6-axis sensor 43 by the function of the second error acquisition unit 21b (step S300), and based on the acquired sensor data to execute the second error acquisition process (step S305).
  • control unit 20 acquires GNSS information using the function of the first error acquisition unit 21a (step S310), and executes first error acquisition processing based on the acquired GNSS information (step S315).
  • the GNSS information in step S310 includes information indicating status information, vehicle position, and error circles.
  • control unit 20 acquires image recognition information using the function of the third error acquisition unit 21c (step S320), and executes third error acquisition processing based on the acquired image recognition information (step S325).
  • the image recognition information 30b acquired in step S320 is stored in the recording medium 30 in chronological order by associating the lane width of the lane with the imaging cycle.
  • FIG. 4D is a flowchart of the second error acquisition process in step S305 of FIG. 4C.
  • the control unit 20 acquires the latest vehicle position in the previous cycle (step S400), and adds the error due to the autonomous navigation to the front, rear, left, and right errors of the latest vehicle position to obtain the second error (step S405). That is, the control unit 20 adds the error of the autonomous navigation according to the traveling distance from the previous latest position to the error of the latest position of the vehicle updated last time to calculate the second error (back and forth, left and right). .
  • FIG. 5A is a flowchart of the first error acquisition process in step S315 of FIG. 4C.
  • the control unit 20 refers to the status information included in the GNSS information acquired in step S310 of FIG. 4C, and determines whether or not it is in the RTK-FIX state (step S500). If the RTK-FIX state is determined in step S500, the control unit 20 sets the radius of the error circle as the first error (step S505). If the RTK-FIX state is not determined in step S500, the control unit 20 sets the maximum value to the first error (step S510). The maximum value is the maximum value previously assumed as the GNSS error circle. Therefore, when the RTK-FIX state is not set, GNSS is less likely to be selected as the method for estimating the longitudinal vehicle position.
  • FIG. 6 is a flowchart of the third error acquisition process in step S325 of FIG. 4C.
  • the control unit 20 acquires the latest vehicle position in the previous cycle (step S600). That is, the control unit 20 acquires the same position as in step S400 in the second error acquisition process of FIG. 4D as the latest vehicle position.
  • the control unit 20 acquires the current vehicle speed (step S605). That is, the control unit 20 acquires the latest vehicle speed based on the output of the vehicle speed sensor 42 . Subsequently, the control unit 20 acquires the depth position setting used in the image recognition information (step S610). That is, the control unit 20 acquires the distance K (see FIG. 2B).
  • the control unit 20 acquires past image recognition information in consideration of the current vehicle speed (step S615).
  • the control unit 20 specifies the photographing cycle in which the point at which the vehicle is currently located is photographed at a position corresponding to the depth position setting in the image, among the image recognition information 30b accumulated in the recording medium 30. , acquires the image recognition information 30b of the images shot in the shooting cycle.
  • the control unit 20 determines whether or not the image recognition information includes at least one partition line (step S620). That is, the control unit 20 refers to the past image recognition information acquired in step S615 and determines whether or not at least one marking line along the road on which the vehicle is traveling has been detected. If it is not determined in step S620 that there is a marking line on at least one side, that is, if there are no marking lines on both the left and right sides, the control unit 20 sets the maximum value as the third error (left and right) (step S675). ). The maximum value is the maximum value that can be presumed as the difference between the lane width obtained by image recognition and the lane width at the current location based on the map information. Therefore, in this case, image recognition is less likely to be selected as a width direction position estimation method.
  • step S620 When it is determined in step S620 that there is a lane marking on at least one side, the control unit 20 acquires lane data for the current location (step S625). That is, the control unit 20 uses the map information 30a to identify the link that matches the latest vehicle position acquired in step S600, and refers to the lane data of the link to determine the number of lanes and the number of lanes that the link has. Acquire the lane width, line type, etc. of the lane.
  • the control unit 20 identifies the driving lane based on the lane data of the current location and the image recognition information (step S630). That is, the control unit 20, based on the information about the lane markings on the road on which the vehicle is traveling (such as the line type of the lane markings closest to the left and right of the vehicle, the position and line type of other lane markings, etc.), which is included in the image recognition information, , the position of the driving lane (the left end, the center, etc. in the direction of travel) among the lanes of the matching link is specified.
  • the control unit 20 determines whether or not there are both left and right marking lines in the image recognition information (step S635). If it is determined in step S635 that there are lane markings on both the left and right sides, the controller 20 acquires the lane width (image recognition lane width) at the position indicated by the depth position setting from the image recognition information (step S640). That is, the lane width of the lane in which the vehicle is traveling is acquired based on the image recognition information of the image including the point where the vehicle is currently located, among the accumulated image recognition information. Subsequently, the control unit 20 sets the difference between the lane width based on the map information and the image-recognized lane width as the third error (step S645). That is, the third error is the difference between the lane width specified in steps S625 and S630 and the image-recognized lane width obtained in step S640.
  • step S635 If it is not determined in step S635 that there are both left and right marking lines, that is, if either the left or right marking line is not detected, the control unit 20 selects the last 100 marking lines that have both left and right marking lines.
  • the average lane width obtained from the image recognition information is used as the image recognition lane width (step S650). That is, the control unit 20 sequentially traces the image recognition information 30b accumulated in the recording medium 30 from the image recognition information of the period acquired in step S615 to the past, and obtains the latest 100 pieces of image recognition information having both left and right lane markings. is specified, and the average lane width is calculated from the 100 pieces of image recognition information and set as the image recognition lane width.
  • control unit 20 sets the difference between the lane width based on the map information and the lane width for image recognition as a temporary third error (step S655). That is, the difference between the lane width specified in steps S625 and S630 and the image-recognized lane width obtained in step S650 becomes the provisional third error.
  • control unit 20 acquires the number of consecutive pieces of image recognition information in which the marking line is on only one side (step S660). That is, the control unit 20 traces back from the image recognition information acquired in step S615 and acquires the number of continuous image recognition information in which the marking line is detected on only one side.
  • the control unit 20 sets a coefficient according to the number of consecutive pieces (step S665). That is, the control unit 20 sets a coefficient according to the number obtained in step S660. When the number of consecutive items is large, the coefficient is set to a larger value than when the number is small. Subsequently, the control unit 20 multiplies the provisional third error by a coefficient to obtain a third error (step S670). That is, the control unit 20 calculates the third error by multiplying the provisional third error obtained in step S655 by the coefficient obtained in step S665. Note that the method of calculating the third error described above when there is a marking line on only one of the left and right sides is an example, and various other methods can be adopted. The above is the third error acquisition process, and the various data acquisition processes in FIG. 4C are completed.
  • FIG. 5B is a flowchart of the vehicle position longitudinal update setting process in step S205 of FIG. 4B.
  • This process is a process of comparing the first error and the second error in the front-back direction and selecting the smaller position estimation method as the position update method in the front-back direction. That is, the control unit 20 determines whether or not the second error (before and after) is smaller than the first error (before and after) (step S700). That is, it is determined whether or not the error in the longitudinal direction when the position is estimated using autonomous navigation is smaller than the error in the longitudinal direction when the position is estimated using GNSS information.
  • step S700 If it is determined in step S700 that the second error is smaller than the first error, the control unit 20 selects autonomous navigation as a method of updating the front and rear of the vehicle position (step S705). If it is not determined in step S700 that the second error is smaller than the first error, the control unit 20 selects GNSS as a method for updating the front and rear of the vehicle position (step S710).
  • FIG. 7 is a flowchart of the vehicle position left/right update setting process in step S210 of FIG. 4B.
  • This process is a process of comparing the first error, the second error, and the third error in the left-right direction (the width direction of the vehicle), and selecting the position estimation method with the smallest error as the method for updating the position in the left-right direction. That is, the control unit 20 determines whether or not the second error (left and right) is smaller than the first error (left and right) (step S800). If it is determined in step S800 that the second error (left and right) is smaller than the first error (left and right), the control unit 20 determines whether the second error (left and right) is smaller than the third error (left and right). (step S805).
  • step S805 If it is determined in step S805 that the second error (left/right) is smaller than the third error (left/right), that is, the second error (left/right) is greater than either the first error (left/right) or the third error (left/right). If smaller, the control unit 20 selects autonomous navigation as a method for updating the width direction of the vehicle position (step S810).
  • step S805 If it is determined in step S805 that the second error (left/right) is not smaller than the third error (left/right), that is, the third error (left/right) is either the first error (left/right) or the second error (left/right). , the control unit 20 selects image recognition as a method for updating the width direction of the vehicle position (step S815).
  • step S820 determines whether the first error (left and right) is smaller than the third error (left and right). is determined (step S820). If it is determined in step S820 that the first error (left and right) is smaller than the third error (left and right), that is, the first error (left and right) is greater than both the second error (left and right) and the third error (left and right). If it is smaller, the control unit 20 selects GNSS as a method of updating the left and right of the vehicle position (step S825).
  • step S820 If it is determined in step S820 that the first error (left and right) is not smaller than the third error (left and right), that is, the third error (left and right) is greater than either the first error (left or right) or the second error (left and right). is smaller, the control unit 20 selects image recognition as a method for updating the left and right sides of the vehicle position (step S830).
  • FIG. 5C is a flowchart of vehicle position update processing in step S105 of FIG. 4A.
  • the control unit 20 executes vehicle position update processing by the function of the position estimation unit 21d.
  • the control unit 20 acquires the latest vehicle position (step S900). That is, the control unit 20 acquires the latest vehicle position updated in the previous vehicle position update process.
  • the control unit 20 acquires forward/backward update data (step S905). That is, the control unit 20 acquires the position component of the vehicle in the direction parallel to the traveling direction, which is the vehicle position estimated by the method selected in the vehicle position longitudinal update setting process of FIG. 5B, as the longitudinal update data. do.
  • control unit 20 acquires left and right update data (step S910). That is, the control unit 20 acquires the component of the position of the vehicle in the direction orthogonal to the traveling direction, which is the position of the vehicle estimated by the method selected in the vehicle position left/right update setting process of FIG. 7, as left/right update data. do.
  • control unit 20 updates the vehicle position (step S915) and sets the updated vehicle position as the latest (step S920). That is, the control unit 20 updates the updated vehicle position with the front/rear update data acquired in step S905 and the left/right update data acquired in step S910.
  • the vehicle position estimation system may be a device implemented by multiple devices. Some configurations of the above-described embodiments may be omitted, and the order of processing may be changed or omitted. Furthermore, even if at least part of the first error acquisition unit 21a, the second error acquisition unit 21b, the third error acquisition unit 21c, and the position estimation unit 21d that constitute the vehicle position estimation system are divided into a plurality of devices, good. For example, part of the functions of the third error acquisition unit 21c may be realized by another device integrated with the camera. Of course, some configurations of the above-described embodiments may be omitted, and the order of processing may be changed or omitted.
  • the traveling direction of the vehicle is obtained based on the output of the 3-axis gyro sensor, and the moving speed and moving distance of the vehicle in the traveling direction are obtained based on the output of the 3-axis acceleration sensor.
  • the third error may be a value that indicates the error of the estimated position when estimating the position of the vehicle based on the lane markings included in the image of the road around the vehicle.
  • the vehicle may be equipped with various sensors other than the camera, for example, a sensor such as LIDAR that senses the surroundings of the vehicle. good too.
  • the position in the width direction of the road may be estimated by image recognition processing for the latest image.
  • the latest image includes an image of a point a distance K ahead of the point where the vehicle was positioned at the time of photographing
  • the control unit outputs the lane width of a point a distance K ahead of the vehicle position from the image
  • It may be configured to compare with the lane width of the driving lane specified from the map information and acquire the difference between the two as the third error.
  • the camera or sensor for calculating the third error is not limited to the configuration provided in the vehicle so as to sense the scenery in front of the vehicle. may
  • the predetermined period may be a period defined by time or a period defined by distance. That is, the position estimation method with the smallest error may be selected each time a predetermined time elapses, or the position estimation method with the smallest error may be selected each time the vehicle moves a predetermined distance. It may be a configuration in which the method is selected.
  • the position estimating unit only needs to be able to estimate the vehicle position by a method selected based on each error in a predetermined cycle, and the first error, the second error, and the third error are not necessarily acquired in synchronization with the predetermined cycle.
  • the vehicle position may be estimated using the latest first error or the latest second error in the cycle in which the vehicle position is estimated.
  • the road around the vehicle does not necessarily have to be photographed at a predetermined cycle, and it is sufficient if the photographing timing (photographing time) can be specified.
  • the first error, the second error, and the third error may be values directly expressed as lengths, in which case the length values indicative of the errors may be directly compared.
  • the ranks associated with the range of error values may be the first error, the second error, and the third error, in which case the magnitude of the error may be compared with the rank.
  • the first error, the second error, and the third error do not necessarily have the same error unit, nor do they necessarily have the same value range.
  • the method of the present invention can also be applied as a program or method.
  • the system, program, and method described above may be realized as an independent device, or may be realized using parts shared with each part provided in the vehicle, and may include various aspects. It is a thing. In addition, it can be changed as appropriate such that part of it is software and part of it is hardware.
  • the invention is established as a recording medium for a program for controlling the system.
  • the program recording medium may be a magnetic recording medium, a semiconductor memory, or any other recording medium that will be developed in the future.
  • SYMBOLS 10 Vehicle position estimation system, 20... Control part, 21... Vehicle position estimation program, 21d... Position estimation part, 30... Recording medium, 30a... Map information, 30b... Image recognition information, 41... GNSS receiver, 42... Vehicle speed Sensor, 43... 6-axis sensor, 44... Camera, 45... User I/F section

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Astronomy & Astrophysics (AREA)
  • Navigation (AREA)

Abstract

【課題】車両位置の推定精度の悪化を防止できる可能性を高める技術の提供。 【解決手段】車両にて取得されたGNSS(Global Navigation Satellite System)情報の誤差を示す第1誤差を取得する第1誤差取得部と、自律航法の誤差を示す第2誤差を取得する第2誤差取得部と、前記車両の周辺の道路を撮影した画像に含まれる区画線を検出した際の誤差を示す第3誤差を取得する第3誤差取得部と、前記第1誤差と前記第2誤差と前記第3誤差のうち最も誤差が小さい位置推定方法を選択し、選択した位置推定方法を用いて前記道路の幅方向における前記車両の位置を推定する位置推定部と、を備える車両位置推定システムを構成する。

Description

車両位置推定システム
 本発明は、車両位置推定システムに関する。
 従来、GNSS情報によって推定される位置と、自律航法によって推定される位置との差が所定の基準より大きくなった場合に、自律航法によって推定された位置をGNSS情報による位置で補正する手法が知られている(例えば、特許文献1)。
特開平11-230772号公報
 しかし、従来の手法では、両者の差が基準より大きくなる等の所定条件を満たした場合に車両の位置が補正される構成であるため、所定条件を満たすまでの間、車両の位置が補正されないという問題があった。
  本発明は、上記課題にかんがみてなされたもので、車両位置の推定精度の悪化を防止できる可能性を高める技術の提供を目的とする。
 上記の目的を達成するため、車両位置推定システムは、車両にて取得されたGNSS(Global Navigation Satellite System)情報の誤差を示す第1誤差を取得する第1誤差取得部と、自律航法の誤差を示す第2誤差を取得する第2誤差取得部と、車両の周辺の道路を撮影した画像に含まれる区画線を検出した際の誤差を示す第3誤差を取得する第3誤差取得部と、第1誤差と第2誤差と第3誤差のうち最も誤差が小さい位置推定方法を選択し、選択した位置推定方法を用いて道路の幅方向における車両の位置を推定する位置推定部と、を備える。
 すなわち、車両位置推定システムでは、第1誤差と第2誤差と第3誤差を比較して3つのうち最も誤差が小さい位置推定方法を選択し、選択した位置推定方法を用いて道路の幅方向における車両の位置を推定する。そのため3つの位置推定方法のうち実際の車両の位置との誤差(道路の幅方向における誤差)が最も少ないと推定される位置推定方法で道路の幅方向における車両の位置を推定することができる。その結果、同じ位置推定方法を採用した位置推定を継続することによって車両位置の推定精度の悪化を防止できる可能性を高めることができる。
車両位置推定システムの構成を示すブロック図。 図2Aは撮影画像の一例を示す図、図2Bは奥行き位置設定を説明する図。 各方向における車両位置の更新に用いる車両位置推定方法を示す図。 図4Aは車両位置推定処理のフローチャート、図4Bは車両位置の更新データ設定処理のフローチャート、図4Cは各種データ取得処理のフローチャート、図4Dは第2誤差取得処理のフローチャート。 図5Aは第1誤差取得処理のフローチャート、図5Bは車両位置前後更新設定処理のフローチャート、図5Cは車両位置更新処理のフローチャート。 第3誤差取得処理のフローチャート。 車両位置左右更新設定処理のフローチャート。
 ここでは、下記の順序に従って本発明の実施の形態について説明する。
(1)車両位置推定システムの構成:
(2)車両位置推定処理:
(3)他の実施形態:
 (1)車両位置推定システムの構成:
  図1は、本発明の一実施形態にかかる車両位置推定システム10の構成を示すブロック図である。車両位置推定システム10は、車両に備えられており、CPU,RAM,ROM等を備える制御部20、記録媒体30を備えている。車両位置推定システム10は、記録媒体30やROMに記憶されたプログラムを制御部20で実行することができる。
 記録媒体30には、予め地図情報30aが記録されている。地図情報30aは、本実施形態においては車両位置の推定に利用される情報であり、車両が走行する道路上に設定されたノードの位置等を示すノードデータ,ノード間の道路の形状を特定するための形状補間点の位置等を示す形状補間点データ,ノード同士の連結を示すリンクデータ,道路やその周辺に存在する地物の位置等を示す地物データ等を含んでいる。本実施形態においては、リンクデータに対してレーンデータが対応づけられている。レーンデータは、道路上に存在する車線に関する情報であり、リンクに対応する道路区間に存在する車線の数と車線の幅を示す情報、車線の左右の区画線の線種やその他の態様を示す情報が含まれている。また、リンクの途中で車線数や車線幅が変化する場合には変化する位置がレーンデータに含まれている。制御部20は、レーンデータに基づいて、推定される車両位置における車線数や車線幅を特定することができる。
 本実施形態における車両は、GNSS受信部41と車速センサ42と6軸センサ43とカメラ44とユーザI/F部45を備えている。カメラ44は、車両の前方を撮影する。カメラ44の光軸は車両に対して固定されており、車両位置推定システム10において当該光軸の方向が既知であればよい。本実施形態において、カメラ44は、車両の幅方向と光軸中心が垂直で、かつ光軸中心が幅方向の車両中心を通るように固定されている。また、カメラ44は、車両の進行方向前方が視野に含まれるような姿勢で車両に取り付けられている。制御部20は、当該カメラ44の出力する画像を取得し、画像を解析することによって車両の前方の道路の区画線を検出することができる。
 ユーザI/F部45は、乗員の指示を入力し、また乗員に各種の情報を提供するためのインタフェース部であり、図示しないタッチパネルディスプレイからなる表示部やスイッチ等の入力部、スピーカ等の音声出力部を備えている。ユーザI/F部45は制御信号を制御部20から受信し、車両の現在地を含む地図や走行予定経路等の各種案内を行うための画像をタッチパネルディスプレイに表示する。
 GNSS受信部41は、Global Navigation Satellite Systemの信号を受信する装置である。GNSS受信部41は、RTK-GNSS(Real Time Kinematics Global Navigation Satellite System)方式を採用しており、GNSSの固定基準局から受信する補正情報を用いて、衛星から受信した信号に基づく検出結果を補正することにより、数cmの精度で位置を検出する。GNSS受信部41は、GNSSの固定基準局から受信した補正情報を用いて位置を検出している状態(以下、RTK-FIXという)である場合に、RTK-FIX状態であることを示すステータス情報と、検出した位置と、当該位置を基準とした誤差の範囲(誤差円)を示す情報と、を含むGNSS情報を出力する。
 車速センサ42は、車両が備える車輪の回転速度に対応した信号を出力する。制御部20は、図示しないインタフェースを介してこの信号を取得し、車速を取得する。6軸センサ43は、車両に規定された3軸(前後、左右、上下)の加速度センサと、同3軸のジャイロセンサを含んでおり、各3軸について、加速度を示す信号および角速度を示す信号を出力する。制御部20は、3軸の角速度を示す信号を取得して車両の進行方向を取得する。
 制御部20は、車両位置推定プログラム21を実行することにより、所定周期で車両位置を継続的に推定し、各周期における車両位置の軌跡を走行軌跡として蓄積する。制御部20は、地図情報30aを用いたマップマッチングにより、車両が走行中のリンクを特定する。車両位置推定プログラム21は、車両位置の推定精度の悪化を防止する機能を制御部20に実現させるために、第1誤差取得部21a、第2誤差取得部21b、第3誤差取得部21c、位置推定部21dの機能を含んでいる。
 第1誤差取得部21aの機能により、制御部20は、車両にて取得されたGNSS情報の位置の誤差を示す第1誤差を取得する。本実施形態において制御部20は、所定周期毎に、GNSS受信部41からGNSS情報を取得する。そして、制御部20は、GNSS情報に含まれる位置を最新の車両位置を更新するための1候補として取得する。また、制御部20は、ステータス情報がRTK-FIX状態であることを示す場合に、誤差円の半径を第1誤差として取得する。車両の幅方向(左右方向)における誤差は、第1誤差で表される(前後方向の誤差も第1誤差で表される)。すなわち第1誤差は、GNSS情報に基づいて車両の位置を推定する場合の、当該位置の信頼度を示している。第1誤差が小さいほど、車両の幅方向における位置の信頼度が高く、また、道路の幅方向における車両の位置の信頼度が高い。
 第2誤差取得部21bの機能により、制御部20は、自律航法の誤差を示す第2誤差を取得する。本実施形態において制御部20は、車速センサ42および6軸センサ43の出力から取得した車速や進行方向を用いて、所定周期毎に車両の走行軌跡を特定する。制御部20は、基点と当該基点からの走行軌跡とに基づいて特定された位置を、最新の車両位置を更新するための1候補として取得する。このような自律航法によって特定された車両の位置の誤差は、基点からの走行距離が伸びるほど蓄積され増大する。車両の前後方向の誤差と左右方向(幅方向)の誤差について、単位距離当たりの誤差が予め記憶されており、制御部20は、前回更新された車両の位置からの走行距離と単位距離当たりの誤差とから、当該走行距離を走行する間に蓄積された前後方向および左右方向の誤差を算出する。そして制御部20は、前回更新された車両についての前後方向および左右方向の誤差に、当該走行距離を走行する間に蓄積された前後方向および左右方向の誤差をそれぞれ加算した値を、今回の周期において自律航法によって車両の位置を更新する場合の誤差を第2誤差として取得する。第2誤差は、前後方向および左右方向(車両の幅方向)のそれぞれについて取得される。すなわち第2誤差は、自律航法によって車両の位置を推定する場合の、当該位置の信頼度を示しており、第2誤差が小さいほど、車両の幅方向における位置の信頼度が高く、また、道路の幅方向における車両の位置の信頼度が高い。
 第3誤差取得部21cの機能により、制御部20は、車両の周辺の道路を撮影した画像に含まれる区画線を検出した際の誤差を示す第3誤差を取得する。本実施形態において、制御部20は、カメラ44が撮影した画像に基づいて、制御部20は、区画線認識処理を行う。区画線認識処理では、例えば、セマンティックセグメンテーション(Semantic Segmentation)を行うことにより区画線が認識される。すなわち、制御部20は、予め用意された機械学習済モデルに画像を入力し、画素毎に各画素に撮影された被写体の種類をラベリングする。ラベルの中には区画線が含まれており、車両の周囲において区画線としてラベリングされた画素が車両の進行方向と平行な方向に延びており、実線または破線を形成している場合に、制御部20は、当該画素を、車線(レーン)の境界である区画線とみなす。制御部20は、車両の左右に存在する最も近い区画線を走行中の車線の境界を示す区画線と見なす。また、制御部20は、車両が走行中の車線の境界を示す区画線の線種を検出する。制御部20は、進行方向と平行な方向に延びる他の区画線が存在する場合にはその位置や個数に基づいて、車両が走行中の道路が有する車線数を特定し、複数の車線のうち車両が走行中の車線の位置を特定する。なお、区画線認識処理は、セマンティックセグメンテーションの他、ハフ変換や区画線の特徴量を抽出する画像処理等であってもよい。
 制御部20は、画像に基づいて、車両が走行中の車線の車線幅を算出する。本実施形態においては、奥行き位置設定として予め決められた車両前方の位置における車線幅を取得する。画像内の各画素の座標毎に、各画素に撮影された被写体と車両との相対距離とが予め対応づけられている。図2Aは、カメラ44で撮影された画像の一例を示す図であり、車両が図2Bの地点Piにある場合に撮影されたものとして説明を続ける。奥行き位置設定は、車両の位置から前方に距離K離れた位置である。制御部20は、画像内において、奥行き位置設定に相当する距離の位置の画素を特定する。図2Aの破線L1は車両から前方に距離K離れた位置に相当する画素を示している。
 画像内の破線L1の位置において、画像内における水平方向の画素数に対応する路面上の左右方向の実際の距離との対応関係が予め特定されている。制御部20は、この対応関係に基づいて、画像内の破線L1の位置の、車両の左右に存在する最も近い2つの区画線La,Lb間の画素数に対応する距離Wを、走行中の車線の車線幅として特定する。図2Aの一点鎖線L2はカメラ44の光軸中心を示している。制御部20は、車両の左右に存在する最も近い区画線と車両の幅方向の中心との距離を特定することにより、走行車線の区画線を基準とした当該車両の道路の幅方向における位置を取得する。具体的には、例えば、車両の走行車線の左右いずれか一方の区画線(例えばLa)と破線L1の交点Paと、破線L1および一点鎖線L2の交点Pとの間の画素数に対応する距離Kが、走行車線と車両との距離として算出される。
 制御部20は、走行中の道路上の区画線、走行中の車線の車線幅と、走行中の車線内における区画線からの相対位置(道路の幅方向の位置)とを画像から算出し、画像の撮影周期と対応付けて時系列順に画像認識情報30bとして蓄積する。
 図2Bに示すように、車両が地点Piに位置している場合に撮影された画像には、地点Piの路面は含まれない。地点Piにおける車両の位置(道路の幅方向の位置)は、車両が地点Piに到達する以前(過去)に撮影された画像であって当該画像を撮影した際の車両の位置と地点Piとの距離がKである地点Pjにおいて撮影された画像を画像認識することによって取得されることができる。制御部20は所定周期で取得する車速に基づいて各周期における車両の走行距離を算出する。カメラ44は画像を所定周期で撮影するため、制御部20は、地点Piより進行方向の後方側に距離K離れた地点Pjが何周期前に撮影された画像であるかを特定することができる。制御部20はこのように特定された画像の画像認識情報30bを記録媒体30から取得し、地点Piにおける車両の位置(道路の幅方向の位置)および地点Piにおける車線幅Wiを取得する。
 制御部20は、このようにして車両が現在位置している地点Pi(最新周期において車両が位置している地点)が含まれる画像の画像認識情報30bに基づいて算出された地点Piの車線幅Wiと、地図情報30aに基づいて特定された地点における車線幅wiとを比較する。すなわち制御部20は、車両がマッチングしているリンクのリンクデータ(地図情報30a)を参照し、車両が走行中の車線の車線幅wiを取得する。そして、制御部20は、車線幅Wiと車線幅wiとの差を第3誤差として取得する。すなわち第3誤差は、道路の幅方向における車両の相対位置を画像認識によって取得する場合の、信頼度を示している。第3誤差が小さいほど、当該相対位置の信頼度が高い。
 位置推定部21dの機能により、制御部20は、第1誤差と第2誤差と第3誤差のうち最も誤差が小さい位置推定方法を選択し、選択した位置推定方法を用いて道路の幅方向における車両の位置を推定する。本実施形態においては、図3に示すように、前後方向における位置は、GNSSと自律航法のいずれかのうち、誤差が小さい方の位置推定方法によって算出された位置で更新される。すなわち第1誤差の方が小さい場合はGNSSが選択され、第2誤差の方が小さい場合は自律航法が選択される。また、左右方向(道路の幅方向)の位置は、GNSSと自律航法と画像認識のうち、誤差が最も小さい位置推定方法によって算出された位置で更新される。左右方向(道路の幅方向)の位置を更新する位置推定方法として画像認識が選択された場合、当該周期において車両が位置していた地点Piより後方側に距離K離れた地点Pjにて撮影された画像の画像認識結果を用いて、車両の道路の幅方向における位置が更新される。地点Pjと地点Piとの間で車両が車線の形状に沿って進行している場合、地点Pjにて撮影された画像に基づく幅方向の位置は車両が地点Piに到達したタイミングでも同様の幅方向の位置を維持していると推定できる。仮に地点Pjにおいて車両の進行方向が車線の延びる方向に対して傾いている場合(車線を逸脱する方向に進行している場合)、画像認識により取得される車線幅Wiと地図情報30aに基づく車線幅wiとの差である第3誤差が大きくなる傾向にあり、道路の幅方向の車両の位置を更新するための位置推定方法として画像認識が選択されにくくなる。
  なお、進行方向については、図3に示すように、本実施形態においては6軸センサ43のジャイロセンサの出力に基づく進行方向が採用される。
 以上のように、本実施形態の車両位置推定システム10は、所定周期毎に複数の位置推定方法のうち最も誤差が小さい方法を選択して最新の車両位置を更新するように構成されている。その結果、同じ位置推定方法を採用して位置を推定することによって車両位置の推定精度が悪化することを防止できる可能性を高めることができる。また、本実施形態では、所定周期で第1誤差と第2誤差と第3誤差が取得され、当該所定周期でこれら第1~第3誤差のうちの最小の誤差に対応する位置推定方法が選択され、選択された方法で位置が推定される。仮に所定周期より長い周期で第1~第3の少なくともいずれかの誤差が取得される場合、実際には最も誤差が小さい位置推定方法が選択されない場合があり得、その結果、位置推定の精度が低下しうる。本実施形態では、第1~第3誤差が所定周期で取得されることにより、位置推定の精度が低下する可能性を低減できる。第1~第3誤差の取得周期は、本実施形態のように車両位置推定の周期である所定周期と同じか、あるいはそれよりも短い周期(車両位置推定より高頻度となる)であることが望ましい。
 (2)車両位置推定処理:
  次に、制御部20が実行する車両位置推定処理を、図4Aを参照しながら説明する。車両位置推定処理は、所定周期で繰り返し実行される。車両位置推定処理では、制御部20は、車両位置の更新データ設定処理(ステップS100)を行った後、車両位置更新処理(ステップS105)を行う。ステップS100の車両位置の更新データ設定処理は、第1誤差、第2誤差、第3誤差を取得して大小を比較し、前後方向および左右方向においてそれぞれ車両位置推定方法を選択する処理であり、ステップS105の車両位置更新処理は、比較結果に応じて選択した車両位置推定方法で車両位置を更新する処理である。
 図4Bは、図4Aの車両位置推定処理のステップS100における車両位置の更新データ設定処理のフローチャートである。車両位置の更新データ設定処理では、制御部20は、各種データ取得処理を実行する(ステップS200)。続いて制御部20は、位置推定部21dの機能により、車両位置前後更新設定処理(ステップS205)と、車両位置左右更新設定処理(ステップS210)を順に実行する。
 図4Cは、図4Bの車両位置の更新データ設定処理のステップS200における各種データ取得処理のフローチャートである。各種データ取得処理が開始されると、制御部20は、第2誤差取得部21bの機能により、車速センサ42および6軸センサ43からセンサデータを取得し(ステップS300)、取得したセンサデータに基づいて第2誤差取得処理を実行する(ステップS305)。
 続いて、制御部20は、第1誤差取得部21aの機能により、GNSS情報を取得し(ステップS310)、取得したGNSS情報に基づいて第1誤差取得処理を実行する(ステップS315)。ステップS310におけるGNSS情報には、ステータス情報、車両位置、および誤差円を示す情報が含まれている。
 続いて、制御部20は、第3誤差取得部21cの機能により、画像認識情報を取得し(ステップS320)、取得した画像認識情報に基づいて、第3誤差取得処理を実行する(ステップS325)。ステップS320で取得した画像認識情報30bは、車線の車線幅を撮影周期に対応付けて、記録媒体30に時系列順に蓄積される。
 図4Dは、図4CのステップS305における第2誤差取得処理のフローチャートである。第2誤差取得処理では、制御部20は、前回周期における最新車両位置を取得し(ステップS400)、当該最新車両位置における前後左右の誤差に自律航法による誤差を加算して第2誤差とする(ステップS405)。すなわち制御部20は、前回更新された車両の最新位置についての誤差に、前回の最新位置からの走行距離に応じた自律航法の誤差を加算して、第2誤差(前後、左右)を算出する。
 図5Aは、図4CのステップS315における第1誤差取得処理のフローチャートである。第1誤差取得処理では、制御部20は、図4CのステップS310で取得したGNSS情報に含まれるステータス情報を参照し、RTK-FIX状態であるか否かを判定する(ステップS500)。ステップS500においてRTK-FIX状態であると判定された場合、制御部20は、第1誤差を誤差円の半径とする(ステップS505)。ステップS500においてRTK-FIX状態であると判定されなかった場合、制御部20は、第1誤差に最大値を設定する(ステップS510)。最大値は、GNSSの誤差円として予め想定される最大の値である。従ってRTK-FIX状態でない場合前後方向の車両位置の位置推定方法としてGNSSが選択されにくくなる。
 図6は、図4CのステップS325における第3誤差取得処理のフローチャートである。第3誤差取得処理が開始されると、制御部20は、前回周期における最新の車両位置を取得する(ステップS600)。すなわち、図4Dの第2誤差取得処理におけるステップS400と同じ位置を制御部20は、最新車両位置として取得する。
 続いて、制御部20は、現在の車速を取得する(ステップS605)。すなわち、制御部20は、車速センサ42の出力に基づいて最新の車両の速度を取得する。続いて、制御部20は、画像認識情報で利用する奥行き位置設定を取得する(ステップS610)。すなわち、制御部20は、距離K(図2Bを参照)を取得する。
 続いて、制御部20は、現在の車速を考慮して過去の画像認識情報を取得する(ステップS615)。すなわち、制御部20は、記録媒体30に蓄積された画像認識情報30bのうち、車両が現在位置している地点が、画像内の奥行き位置設定に相当する位置で撮影された撮影周期を特定し、当該撮影周期に撮影された画像の画像認識情報30bを取得する。
 続いて、制御部20は、画像認識情報に少なくとも片側の区画線が有るか否かを判定する(ステップS620)。すなわち制御部20はステップS615で取得した過去の画像認識情報を参照し、走行中の道路に沿った少なくとも1本の区画線が検出されているか否かを判定する。ステップS620において、少なくとも片側の区画線が有ると判定されなかった場合、すなわち、左右両側の区画線が存在しない場合、制御部20は、第3誤差(左右)として最大値を設定する(ステップS675)。最大値は、画像認識による車線幅と地図情報に基づく現在地の車線幅との差として予め想定されうる最大の値である。したがってこの場合、画像認識は、幅方向の位置推定方法として選択されにくくなる。
 ステップS620において、少なくとも片側の区画線が存在すると判定された場合、制御部20は、現在地のレーンデータを取得する(ステップS625)。すなわち、制御部20は、地図情報30aを用いて、ステップS600で取得した最新の車両位置にマッチングしているリンクを特定し、当該リンクのレーンデータを参照して当該リンクが有する車線数や各車線の車線幅、線種等を取得する。
 続いて、制御部20は、現在地のレーンデータと画像認識情報とに基づいて、走行車線を特定する(ステップS630)。すなわち制御部20は、画像認識情報に含まれる、走行中の道路上の区画線に関する情報(車両の左右で最も近い区画線の線種やその他の区画線の位置や線種など)に基づいて、マッチングしているリンクが有する車線のうちの走行車線の位置(進行方向前方に向かって左端、中央、等)を特定する。
 続いて、制御部20は、画像認識情報に左右両方の区画線があるか否かを判定する(ステップS635)。ステップS635において、左右両方に区画線があると判定された場合、制御部20は、画像認識情報から奥行き位置設定が示す位置における車線幅(画像認識車線幅)を取得する(ステップS640)。すなわち、蓄積された画像認識情報のうち、車両が現在位置している地点を含む画像の画像認識情報に基づいて車両が走行中の車線の車線幅が取得される。続いて、制御部20は、地図情報に基づく車線幅と画像認識車線幅との差を、第3誤差とする(ステップS645)。すなわちステップS625、S630で特定した車線幅と、ステップS640で取得した画像認識車線幅との差が第3誤差となる。
 ステップS635において左右両方の区画線が有ると判定されなかった場合、すなわち、左右いずれか一方の区画線が検出されていない状態の場合、制御部20は、左右両方区画線がある直近100個の画像認識情報から求めた平均車線幅を画像認識車線幅とする(ステップS650)。すなわち制御部20は、記録媒体30に蓄積されている画像認識情報30bを、ステップS615で取得した周期の画像認識情報からさらに過去に順に遡り、左右両方区画線がある直近100個の画像認識情報を特定し、当該100個の画像認識情報から平均車線幅を算出して画像認識車線幅とする。
 続いて、制御部20は、地図情報に基づく車線幅と画像認識車線幅との差を、仮の第3誤差とする(ステップS655)。すなわちステップS625、S630で特定した車線幅と、ステップS650で取得した画像認識車線幅との差が仮の第3誤差となる。続いて、制御部20は、区画線が片側のみである画像認識情報が連続する個数を取得する(ステップS660)。すなわち制御部20は、ステップS615で取得した画像認識情報からさらに過去に遡って、区画線が片側のみ検出されている画像認識情報が連続する個数を取得する。続いて、制御部20は、連続する個数に応じた係数を設定する(ステップS665)。すなわち、制御部20は、ステップS660で取得した個数に応じた係数を設定する。連続する個数が多い場合は少ない場合よりも、係数は大きな値が設定される。続いて、制御部20は、仮の第3誤差に係数を乗じて第3誤差とする(ステップS670)。すなわち、制御部20は、ステップS655で取得した仮の第3誤差に、ステップS665で取得した係数を乗じて、第3誤差を算出する。なお左右いずれか一方のみに区画線が存在する場合の上述の第3誤差の算出方法は一例であり、他にも種々の方法を採用可能である。以上が第3誤差取得処理であり、以上で図4Cの各種データ取得処理が終了する。
 図5Bは、図4BのステップS205における車両位置前後更新設定処理のフローチャートである。この処理は、前後方向について第1誤差と第2誤差を比較し、小さい方の位置推定方法を前後方向の位置更新の方法として選択する処理である。すなわち制御部20は、第2誤差(前後)は第1誤差(前後)より小さいか否かを判定する(ステップS700)。すなわち、自律航法を採用して位置を推定した場合の前後方向の誤差が、GNSS情報によって位置を推定した場合の前後方向の誤差よりも小さいか否かが判定される。ステップS700において第2誤差が第1誤差よりも小さいと判定された場合、制御部20は、車両位置の前後を更新する方法として自律航法を選択する(ステップS705)。ステップS700において第2誤差が第1誤差よりも小さいと判定されなかった場合、制御部20は、車両位置の前後を更新する方法としてGNSSを選択する(ステップS710)。
 図7は、図4BのステップS210における車両位置左右更新設定処理のフローチャートである。この処理は、左右方向(車両の幅方向)について第1誤差と第2誤差と第3誤差を比較し、誤差が最も小さい位置推定方法を左右方向の位置更新の方法として選択する処理である。すなわち制御部20は、第2誤差(左右)は第1誤差(左右)より小さいか否かを判定する(ステップS800)。ステップS800において第2誤差(左右)が第1誤差(左右)より小さいと判定された場合、制御部20は、第2誤差(左右)は第3誤差(左右)よりも小さいか否かを判定する(ステップS805)。ステップS805において第2誤差(左右)が第3誤差(左右)より小さいと判定された場合、すなわち、第2誤差(左右)が第1誤差(左右)および第3誤差(左右)のいずれよりも小さい場合、制御部20は、車両位置の幅方向を更新する方法として自律航法を選択する(ステップS810)。
 ステップS805において、第2誤差(左右)が第3誤差(左右)より小さいと判定されなかった場合、すなわち、第3誤差(左右)が第1誤差(左右)および第2誤差(左右)のいずれよりも小さい場合、制御部20は、車両位置の幅方向を更新する方法として画像認識を選択する(ステップS815)。
 ステップS800において、第2誤差(左右)が第1誤差(左右)より小さいと判定されなかった場合、制御部20は、第1誤差(左右)は第3誤差(左右)よりも小さいか否かを判定する(ステップS820)。ステップS820において第1誤差(左右)が第3誤差(左右)より小さいと判定された場合、すなわち、第1誤差(左右)が第2誤差(左右)および第3誤差(左右)のいずれよりも小さい場合、制御部20は、車両位置の左右を更新する方法としてGNSSを選択する(ステップS825)。ステップS820において第1誤差(左右)が第3誤差(左右)よりも小さいと判定されなかった場合、すなわち第3誤差(左右)が第1誤差(左右)および第2誤差(左右)のいずれよりも小さい場合、制御部20は、車両位置の左右を更新する方法として画像認識を選択する(ステップS830)。
 図5Cは、図4AのステップS105における車両位置更新処理のフローチャートである。制御部20は位置推定部21dの機能により車両位置更新処理を実行する。車両位置更新処理が開始されると、制御部20は、最新車両位置を取得する(ステップS900)。すなわち制御部20は、前回車両位置更新処理で更新された最新の車両位置を取得する。続いて、制御部20は、前後更新データを取得する(ステップS905)。すなわち、制御部20は、図5Bの車両位置前後更新設定処理で選択した方法で推定される車両の位置であって、進行方向と平行な方向における車両の位置の成分を、前後更新データとして取得する。
 続いて、制御部20は、左右更新データを取得する(ステップS910)。すなわち、制御部20は、図7の車両位置左右更新設定処理で選択した方法で推定される車両の位置であって、進行方向と直交する方向における車両の位置の成分を、左右更新データとして取得する。
 続いて、制御部20は、車両位置を更新し(ステップS915)、更新した車両位置を最新として設定する(ステップS920)。すなわち、制御部20は、ステップS905で取得した前後更新データとステップS910で取得した左右更新データで、更新した車両位置を最新とする。
 (3)他の実施形態:
  以上の実施形態は本発明を実施するための一例であり、他にも種々の実施形態を採用可能である。例えば、車両位置推定システムは複数の装置によって実現される装置であっても良い。上述の実施形態の一部の構成が省略されてもよいし、処理の順序が変動または省略されてもよい。さらに、車両位置推定システムを構成する第1誤差取得部21a、第2誤差取得部21b、第3誤差取得部21c、位置推定部21dの少なくとも一部が複数の装置に分かれて存在していても良い。例えば、第3誤差取得部21cの機能の一部がカメラと一体化された別の装置で実現されてもよい。むろん、上述の実施形態の一部の構成が省略されてもよいし、処理の順序が変動または省略されてもよい。
 自律航法による車両位置推定では、3軸のジャイロセンサの出力に基づいて車両の進行方向を取得し、3軸の加速度センサの出力に基づいて進行方向における車両の移動速度および移動距離を取得する構成であってもよい。
 第3誤差は、車両の周辺の道路を撮影した画像に含まれる区画線に基づいて車両の位置を推定する場合に、推定される位置の誤差を示す値であればよい。車両が、カメラ以外の各種センサ、例えば、自車両の周囲をセンシングするLIDAR等のセンサを備えていて良く、このようなセンサを用いて区画線を検出し第3誤差を取得する構成であってもよい。また、最新の画像に対する画像認識処理によって道路の幅方向の位置を推定するように構成されてもよい。具体的には例えば、最新の画像は車両が撮影時に位置した地点の距離K前方の地点の像を含んでおり、制御部は、車両位置の距離K前方の地点の車線幅を画像から差出し、地図情報から特定した走行車線の車線幅と比較して両者の差を第3誤差として取得するように構成されてもよい。なお第3誤差を算出するためのカメラやセンサは、車両の前方の風景をセンシングするように車両に備えられている構成に限定されず、例えば、後方であってもよいし、両側方であってもよい。
 所定周期は、時間で規定される周期であってもよいし距離で規定される周期であってもよい。すなわち、所定時間が経過する毎に各位置推定方法のうち誤差が最も小さい方法が選択される構成であってもよいし、車両が所定距離移動する毎に各位置推定方法のうち誤差が最も小さい方法が選択される構成であってもよい。
 位置推定部は所定周期で各誤差に基づいて選択した方法で車両位置を推定することができればよく、第1誤差と第2誤差と第3誤差は、所定周期に必ずしも同期して取得されていなくてもよい。例えば、車両位置が推定される周期における最新の第1誤差や最新の第2誤差を用いて車両位置が推定されてもよい。また、車両の周囲の道路の撮影は、必ずしも所定周期で行われなくても良く、撮影タイミング(撮影時刻)が特定可能であればよい。
 第1誤差と第2誤差と第3誤差は、長さとして直接的に表現された値であってもよく、その場合誤差を示す長さの値が直接比較されてもよい。あるいは、誤差の値の範囲に対応付けられたランクが第1誤差、第2誤差、第3誤差であってもよく、その場合、当該ランクで誤差の大小が比較されてもよい。その場合、第1誤差と第2誤差と第3誤差とでは、誤差の単位は必ずしも同じでなくてもよいし、値の範囲も必ずしも同じでなくてもよい。
 さらに、本発明の手法は、プログラムや方法としても適用可能である。また、以上のようなシステム、プログラム、方法は、単独の装置として実現される場合もあれば、車両に備えられる各部と共有の部品を利用して実現される場合もあり、各種の態様を含むものである。また、一部がソフトウェアであり一部がハードウェアであったりするなど、適宜、変更可能である。さらに、システムを制御するプログラムの記録媒体としても発明は成立する。むろん、そのプログラムの記録媒体は、磁気記録媒体であってもよいし半導体メモリであってもよいし、今後開発されるいかなる記録媒体においても全く同様に考えることができる。
 10…車両位置推定システム、20…制御部、21…車両位置推定プログラム、21d…位置推定部、30…記録媒体、30a…地図情報、30b…画像認識情報、41…GNSS受信部、42…車速センサ、43…6軸センサ、44…カメラ、45…ユーザI/F部

Claims (6)

  1.  車両にて取得されたGNSS(Global Navigation Satellite System)情報の誤差を示す第1誤差を取得する第1誤差取得部と、
     自律航法の誤差を示す第2誤差を取得する第2誤差取得部と、
     前記車両の周辺の道路を撮影した画像に含まれる区画線を検出した際の誤差を示す第3誤差を取得する第3誤差取得部と、
     前記第1誤差と前記第2誤差と前記第3誤差のうち最も誤差が小さい位置推定方法を選択し、選択した位置推定方法を用いて前記道路の幅方向における前記車両の位置を推定する位置推定部と、
    を備える車両位置推定システム。
  2.  前記位置推定部において、前記車両の位置の推定は、所定周期毎に行われる、
    請求項1に記載の車両位置推定システム。
  3.  前記第3誤差は、前記画像に含まれる区画線に基づいて算出された前記車両が走行中の車線の車線幅と、地図情報に基づいて特定された前記車線の車線幅との差である、
    請求項1または請求項2に記載の車両位置推定システム。
  4.  前記画像に含まれる区画線に基づいて算出された前記車線の車線幅を時系列順に蓄積し、蓄積された車線幅のうち、前記車両が現在位置している地点が含まれる前記画像に基づいて算出された前記地点の車線幅と、前記地図情報に基づいて特定された前記地点における車線幅とが比較される、
    請求項3に記載の車両位置推定システム。
  5.  前記第1誤差および前記第2誤差は、前記車両の幅方向における誤差である、
    請求項1~請求項4のいずれか一項に記載の車両位置推定システム。
  6.  前記第1誤差と前記第2誤差と前記第3誤差とは、前記所定周期で算出される、
    請求項2に記載の車両位置推定システム。
PCT/JP2023/005139 2022-02-22 2023-02-15 車両位置推定システム WO2023162807A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-025759 2022-02-22
JP2022025759 2022-02-22

Publications (1)

Publication Number Publication Date
WO2023162807A1 true WO2023162807A1 (ja) 2023-08-31

Family

ID=87765938

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/005139 WO2023162807A1 (ja) 2022-02-22 2023-02-15 車両位置推定システム

Country Status (1)

Country Link
WO (1) WO2023162807A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019035670A (ja) * 2017-08-17 2019-03-07 株式会社Subaru 自機位置計測装置、自機位置計測方法及び自機位置計測プログラム
JP2021064056A (ja) * 2019-10-10 2021-04-22 本田技研工業株式会社 ゼブラゾーン認識装置、車両制御装置、ゼブラゾーン認識方法、およびプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019035670A (ja) * 2017-08-17 2019-03-07 株式会社Subaru 自機位置計測装置、自機位置計測方法及び自機位置計測プログラム
JP2021064056A (ja) * 2019-10-10 2021-04-22 本田技研工業株式会社 ゼブラゾーン認識装置、車両制御装置、ゼブラゾーン認識方法、およびプログラム

Similar Documents

Publication Publication Date Title
JP6427908B2 (ja) 地図情報生成システム、方法およびプログラム
JP6760114B2 (ja) 情報処理装置、データ管理装置、データ管理システム、方法、及びプログラム
JP5782708B2 (ja) 走行支援装置
JP5966747B2 (ja) 車両走行制御装置及びその方法
JP4453728B2 (ja) 位置補正装置
JP4763250B2 (ja) 物体検出装置
WO2014115319A1 (ja) 道路環境認識システム
KR20220024791A (ko) 차량의 궤적을 결정하기 위한 방법 및 장치
CN113753028B (zh) 驾驶辅助装置、驾驶辅助方法及电脑可读取记录介质
JP2007278813A (ja) 車両位置測位装置
JPH0990026A (ja) 物体検出装置およびその方法
JP6539129B2 (ja) 自車位置推定装置、及びそれを用いた操舵制御装置、並びに自車位置推定方法
KR101394770B1 (ko) 곡선 차선 모델을 이용한 영상 안정화 방법 및 시스템
WO2023162807A1 (ja) 車両位置推定システム
US20210190509A1 (en) Position estimating apparatus and position estimating method
WO2017109978A1 (ja) 距離推定装置、距離推定方法及びプログラム
JP6988873B2 (ja) 位置推定装置および位置推定用コンピュータプログラム
JP6680319B2 (ja) 地図情報生成システム、方法およびプログラム
JP2021128754A (ja) 渋滞検出システム
US11740103B2 (en) Map creation device, map creation system, map creation method, and storage medium
JP7456857B2 (ja) 自己位置推定装置
JP2019132762A (ja) 自車位置推定装置
EP3435286A1 (en) Imaging control device and imaging control method
CN113795726A (zh) 自身位置修正方法及自身位置修正装置
JP4492592B2 (ja) 車両検出装置、ナビゲーション装置、車両検出プログラムおよび車両検出方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23759808

Country of ref document: EP

Kind code of ref document: A1