WO2019188886A1 - 端末装置、情報処理方法、プログラム、及び、記憶媒体 - Google Patents

端末装置、情報処理方法、プログラム、及び、記憶媒体 Download PDF

Info

Publication number
WO2019188886A1
WO2019188886A1 PCT/JP2019/012328 JP2019012328W WO2019188886A1 WO 2019188886 A1 WO2019188886 A1 WO 2019188886A1 JP 2019012328 W JP2019012328 W JP 2019012328W WO 2019188886 A1 WO2019188886 A1 WO 2019188886A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
feature
size
difference value
vehicle
Prior art date
Application number
PCT/JP2019/012328
Other languages
English (en)
French (fr)
Inventor
加藤 正浩
岩井 智昭
多史 藤谷
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Publication of WO2019188886A1 publication Critical patent/WO2019188886A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • G08G1/133Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams within the vehicle ; Indicators inside the vehicles or at stops
    • G08G1/137Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams within the vehicle ; Indicators inside the vehicles or at stops the indicator being in the form of a map
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram

Definitions

  • the present invention relates to a technique for correcting the size and orientation of features in map data.
  • Patent Document 1 generates change point candidate data by comparing the peripheral information based on the output of the sensor unit and the partial map DB, and considers the accuracy of the sensor when acquiring the change point candidate data. Describes how to update data.
  • the map data stored in the server includes information such as the position, size, and orientation of the feature, but if the feature installation state changes for some reason after measuring the feature, the map data indicates the feature installation state.
  • the actual installation state of features will not match.
  • the position, size, and direction of a road sign may change due to an accident or disaster, the direction signboard may be changed, and the road sign may change due to fading or redrawing.
  • the estimation error increases, which may hinder driving assistance and automatic driving.
  • An object of the present invention is to detect that the actual size or orientation of a feature does not match the size or orientation in map data, and to correct the map data as necessary.
  • the invention according to claim 1 is a terminal device mounted on a mobile object, the first acquisition means for acquiring first information indicating at least one of the size and orientation of the feature acquired from the map information;
  • the second acquisition means for acquiring second information indicating at least one of the size and orientation of the feature measured by the measurement unit, and using the difference value between the first information and the second information,
  • Output means for outputting output information indicating a difference value of at least one of a size and an orientation between one information and the second information.
  • the invention according to claim 7 is an information processing method executed by a terminal device mounted on a mobile object, wherein the first information indicating at least one of a size and a direction of a feature acquired from map information is provided.
  • the invention according to claim 8 is a program that is mounted on a moving body and is executed by a terminal device including a computer, and is first information that indicates at least one of a size and an orientation of a feature acquired from map information.
  • the computer is caused to function as output means for outputting output information indicating a difference value of at least one of the size and orientation between the first information and the second information.
  • the parameters for evaluating the size of the feature are shown. It is a flowchart of the difference value evaluation process about the size of a feature. It is a flowchart of the map correction process about the size of a feature. The parameters for evaluating the orientation of features are shown. It is a flowchart of the difference value evaluation process about the direction of a feature. It is a flowchart of the map correction process about the direction of a feature.
  • One preferable embodiment of the present invention is a terminal device mounted on a mobile body, and acquires first information indicating at least one of a size and an orientation of a feature acquired from map information.
  • Means a second acquisition means for acquiring second information indicating at least one of the size and orientation of the feature, and a difference value between the first information and the second information, measured by the measurement unit,
  • Output means for outputting output information indicating a difference value of at least one of a size and an orientation between the first information and the second information.
  • the above terminal device acquires first information indicating at least one of the size and direction of the feature, which is acquired from the map information. Further, second information indicating at least one of the size and orientation of the feature, which is measured by the measurement unit, is acquired. And a terminal device outputs the output information which shows the difference value of at least one of the size and direction between 1st information and 2nd information using the difference value of 1st information and 2nd information. Thereby, the difference value of map information and measurement information is obtained for at least one of the size and orientation of the feature.
  • One aspect of the terminal device includes a detection unit that detects a difference between the first information and the second information using a difference value that is equal to or greater than a predetermined value, and the output unit includes the predetermined value. When the above deviation is detected, the output information is output. In this aspect, output information is output when a shift of a predetermined value or more is detected between the first information and the second information.
  • the first information and the second information are information indicating a size of the feature
  • the detection unit is configured to measure the size of the feature and the measurement unit. Based on the point interval, a deviation greater than the predetermined value is detected.
  • the output information includes a measurement time by the measurement unit, identification information of the feature, and the measurement point interval.
  • the first information and the second information are information indicating a direction of the feature with respect to the moving body
  • the detection unit includes the difference value and the moving body. Based on the azimuth estimation accuracy, a deviation greater than the predetermined value is detected.
  • the output information includes a measurement time by the measurement unit, identification information of the feature, and the orientation estimation accuracy.
  • Another preferred embodiment of the present invention is an information processing method executed by a terminal device mounted on a moving body, and is a first method that indicates at least one of the size and orientation of a feature acquired from map information.
  • a first acquisition step of acquiring information, a second acquisition step of acquiring second information indicating at least one of the size and orientation of the feature, which is measured by the measurement unit, and the first information and the second information And outputting the output information indicating the difference value of at least one of the size and the direction between the first information and the second information using the difference value.
  • the difference value of map information and measurement information is obtained for at least one of the size and orientation of the feature.
  • Another preferred embodiment of the present invention is a program that is mounted on a mobile body and executed by a terminal device that includes a computer, and is a first program that indicates at least one of the size and orientation of a feature acquired from map information.
  • 1st acquisition means which acquires 1 information
  • 2nd acquisition means which acquires the 2nd information which shows at least one of the size and direction of the above-mentioned feature measured by a measurement part
  • the 1st information and the 2nd information Using the difference value, the computer is caused to function as output means for outputting output information indicating a difference value of at least one of a size and an orientation between the first information and the second information.
  • the above terminal device can be realized by executing this program on a computer.
  • This program can be stored and handled in a storage medium.
  • FIG. 1 is a schematic configuration diagram of a driving support system according to the present embodiment.
  • the driving support system roughly includes an in-vehicle device 10 mounted on the vehicle 1 and a server device 20.
  • the vehicle 1 includes an in-vehicle device 10 that performs control related to driving support of the vehicle, a lidar (Lider: Light Detection and Ranging or Laser Illuminated Detection And Ranging) 2, a gyro sensor 3, a vehicle speed sensor 4, and GPS reception.
  • the machine 5 is mounted.
  • the server device 20 includes a map database (hereinafter, “database” is referred to as “DB”) 23 that stores map data.
  • database hereinafter, “database” is referred to as “DB” 23 that stores map data.
  • the in-vehicle device 10 and the server device 20 transmit and receive data by wireless communication.
  • the server device 20 communicates with the in-vehicle devices 10 of the plurality of vehicles 1.
  • the in-vehicle device 10 is electrically connected to the lidar 2, the gyro sensor 3, the vehicle speed sensor 4, and the GPS receiver 5, and based on these outputs, the position of the vehicle on which the in-vehicle device 10 is mounted (“own vehicle position”). Is also called.). And the vehicle equipment 10 performs automatic driving
  • the in-vehicle device 10 stores a map DB 13 that stores road data and feature information that is information about a feature that is a landmark provided near the road.
  • the above-mentioned landmark features include, for example, a kilometer post, a 100 m post, a delineator, a traffic infrastructure facility (for example, a sign, a direction signboard, a signal), a utility pole, a streetlight, a road marking (for example, a white line,
  • the feature information is at least the feature ID, which is the identification information of each feature, the location information of the feature, and the size and direction (orientation) information of the feature. Information.
  • the vehicle equipment 10 collates with the output of the lidar 2 etc. based on this feature information, and estimates the own vehicle position.
  • the lidar 2 emits a pulse laser in a predetermined angle range in the horizontal direction and the vertical direction, thereby discretely measuring the distance to an object existing in the outside world, and a three-dimensional point indicating the position of the object Generate group information.
  • the lidar 2 includes an irradiation unit that emits laser light while changing the irradiation direction, a light receiving unit that receives reflected light (scattered light) of the irradiated laser light, and scan data based on a light reception signal output by the light receiving unit. And an output unit for outputting (point cloud data).
  • the scan data is generated based on the irradiation direction corresponding to the laser beam received by the light receiving unit and the response delay time of the laser beam specified based on the above-described received light signal.
  • the rider 2 is installed facing the traveling direction of the vehicle so as to scan at least the front of the vehicle.
  • the rider 2, the gyro sensor 3, the vehicle speed sensor 4, and the GPS receiver 5 each supply output data to the in-vehicle device 10.
  • FIG. 2 is a block diagram showing a functional configuration of the in-vehicle device 10.
  • the in-vehicle device 10 mainly includes an interface 11, a storage unit 12, an input unit 14, a control unit 15, and an information output unit 16. Each of these elements is connected to each other via a bus line.
  • the interface 11 acquires output data from sensors such as the lidar 2, the gyro sensor 3, the vehicle speed sensor 4, and the GPS receiver 5, and supplies the output data to the control unit 15. In addition, the interface 11 supplies a signal related to the traveling control of the vehicle generated by the control unit 15 to an electronic control unit (ECU: Electronic Control Unit) of the vehicle.
  • ECU Electronic Control Unit
  • the storage unit 12 stores a program executed by the control unit 15 and information necessary for the control unit 15 to execute a predetermined process.
  • the storage unit 12 stores a map DB 13 including feature information.
  • the feature information is information in which information related to the feature is associated with each feature, and here includes a feature ID that is identification information of the feature, position information, and shape information.
  • the position information indicates the absolute position of the feature represented by latitude and longitude (and altitude).
  • the shape information is information related to the shape of the feature, and includes orientation information indicating the direction of the feature (that is, a normal direction with respect to the front) and size information indicating the size of the feature.
  • the map DB 13 may be updated regularly.
  • the control unit 15 receives partial map information related to the area to which the vehicle position belongs from the server device 20 that manages the map information via a communication unit (not shown) and reflects the partial map information in the map DB 13.
  • the input unit 14 is a button operated by the user, a touch panel, a remote controller, a voice input device, and the like, and receives an input for specifying a destination for route search, an input for specifying on / off of automatic driving, and the like.
  • the information output unit 16 is, for example, a display or a speaker that outputs based on the control of the control unit 15.
  • the control unit 15 includes a CPU that executes a program and the like, and controls the entire vehicle-mounted device 10.
  • the control unit 15 includes a host vehicle position estimation unit 17 and an automatic driving control unit 18.
  • the own vehicle position estimation unit 17 is based on the distance and angle measurement values by the lidar 2 with respect to the feature and the position information of the feature extracted from the map DB 13, and the gyro sensor 3, the vehicle speed sensor 4, and / or the GPS receiver.
  • the vehicle position estimated from the output data of 5 is corrected.
  • the vehicle position estimation unit 17 estimates a vehicle position from output data from the gyro sensor 3 and the vehicle speed sensor 4 based on a state estimation method based on Bayesian estimation,
  • the measurement update step for correcting the estimated value of the vehicle position calculated in the prediction step is executed alternately.
  • the automatic driving control unit 18 refers to the map DB 13 and transmits a signal necessary for automatic driving control to the vehicle based on the set route and the own vehicle position estimated by the own vehicle position estimating unit 17. Based on the set route, the automatic operation control unit 18 sets a target track, and the vehicle position estimated by the host vehicle position estimation unit 17 is set so as to be within a predetermined width from the target track. Then, a guide signal is transmitted to control the position of the vehicle.
  • the lidar 2 is an example of the measurement unit of the present invention
  • the in-vehicle device 10 is an example of the terminal device of the present invention
  • the control unit 15 is the first acquisition unit, the second acquisition unit, and the detection of the present invention.
  • the information output unit 16 is an example of an output unit of the present invention.
  • FIG. 3 is a block diagram showing a functional configuration of the server device 20.
  • the server device 20 mainly includes a communication unit 21, a storage unit 22, and a control unit 25. Each of these elements is connected to each other via a bus line.
  • the communication unit 21 communicates with the in-vehicle device 10 by wireless communication or the like.
  • the storage unit 22 stores a program executed by the control unit 25 and information necessary for the control unit 25 to execute a predetermined process. Moreover, the memory
  • the control unit 25 includes a CPU that executes a program and controls the entire server device 20. Specifically, the control unit 25 executes a map correction process described later.
  • vehicle position estimation processing Next, a description will be given of a first embodiment of the vehicle position estimation process performed by the vehicle position estimation unit 17.
  • the own vehicle position estimating unit 17 sequentially repeats the prediction step and the measurement update step to perform the own vehicle position estimation.
  • Various filters developed to perform Bayesian estimation can be used as the state estimation filter used in these steps, and examples thereof include an extended Kalman filter, an unscented Kalman filter, and a particle filter. As described above, various methods have been proposed for position estimation based on Bayesian estimation. In the following, vehicle position estimation using an extended Kalman filter will be briefly described as an example.
  • FIG. 4 is a diagram showing the state variable vector X in two-dimensional orthogonal coordinates.
  • the z coordinate is projected on the two-dimensional orthogonal coordinate of xy.
  • the vehicle position on a plane defined on the two-dimensional orthogonal coordinates of xy is represented by coordinates “(x, y)” and the direction “ ⁇ ” of the vehicle.
  • the direction ⁇ is defined as an angle formed by the traveling direction of the vehicle and the x axis.
  • the coordinates (x, y) indicate an absolute position in a coordinate system with a certain reference position as the origin, which corresponds to, for example, a combination of latitude and longitude.
  • FIG. 5 is a diagram illustrating a schematic relationship between the prediction step and the measurement update step.
  • calculation and update of the estimated value of the state variable vector X are sequentially performed by repeating the prediction step and the measurement update step.
  • the state variable vector of the reference time that is, current time
  • Xe (k) or “Xp (k)”.
  • the provisional prediction value predicted in the prediction step is attached with “e” as a subscript, and the estimated value updated in the measurement update step is added to the value with a subscript “p”. ".
  • the vehicle position estimation unit 17 uses the vehicle movement speed “v” and the z axis around the state variable vector Xp (k ⁇ 1) at time k ⁇ 1 calculated in the immediately preceding measurement update step.
  • the predicted value of the vehicle position at time k also referred to as “predicted vehicle position”
  • Xe. (K) is calculated.
  • the vehicle position estimation unit 17 calculates the covariance matrix Pe (k) corresponding to the error distribution of the predicted vehicle position Xe (k) at the time k ⁇ 1 calculated in the immediately preceding measurement update step. Is calculated from the covariance matrix Pp (k ⁇ 1).
  • the vehicle position estimation unit 17 associates the position vector of the feature registered in the map DB 13 with the scan data of the lidar 2.
  • the vehicle position estimation unit 17 obtains a measurement value (referred to as “feature measurement value”) “Z (i)” by the lidar 2 of the feature that has been associated.
  • feature measurement value a measurement value
  • the feature measurement value Z (i) is a two-dimensional vector obtained by converting the feature of index number i from the distance and scan angle measured by the lidar 2 into components with the vehicle traveling direction and the lateral direction as axes. And the own vehicle position estimation part 17 calculates the difference value of the feature measurement value Z (i) and the feature prediction value Ze (i), as shown in the following formula
  • the vehicle position estimation unit 17 adds the Kalman gain “K (k) to the difference value between the feature measurement value Z (i) and the feature prediction value Ze (i). ”And adding this to the predicted own vehicle position Xe (k), an updated state variable vector (also referred to as“ measurement updated own vehicle position ”) Xp (k) is calculated.
  • the vehicle position estimation unit 17 converts the covariance matrix Pp (k) corresponding to the error distribution of the measurement update vehicle position Xp (k) to the prior covariance matrix Pe (k), as in the prediction step.
  • Parameters such as the Kalman gain K (k) can be calculated in the same manner as a known self-location technique using an extended Kalman filter, for example.
  • the prediction step and the measurement update step are repeatedly performed, and the predicted vehicle position Xe (k) and the measurement update vehicle position Xp (k) are sequentially calculated, so that the most likely vehicle position is determined. Calculated.
  • the vehicle position calculated in this way is referred to as “estimated vehicle position”.
  • the in-vehicle device 10 evaluates the size of the feature based on the size information of the feature stored in the map DB 13 and the measurement information obtained by the lidar 2. That is, the in-vehicle device 10 evaluates whether or not the size of the feature measured by the lidar 2 matches the size of the feature stored in the map DB 13.
  • FIG. 6 shows a planar shape of a certain feature 30 as viewed from the front.
  • the feature 30 is assumed to be a road sign or a direction signboard.
  • Map DB13 in-vehicle device 10 as the size information of the feature 30, vertical and horizontal size of the feature 30, i.e., the width W M and height H M is stored.
  • the in-vehicle device 10 measures the width W L and the height H L of the feature 30 by the lidar 2. As shown in FIG. 6, the rider 2 measures the width W L and the height H L of the feature based on the number of the plurality of scan points 40 obtained by the feature 30.
  • the horizontal scan point interval of the scan points 40 by the lidar 2 is “I WL ”, and the vertical scan point interval is “I HL ”.
  • the scan point interval is determined based on the resolution of the emitted light from the lidar 2 and the distance from the lidar 2 to the feature 30. Therefore, the vehicle-mounted device 10 calculates the size of the feature 30 based on the number of scan points in the vertical direction and the horizontal direction obtained on the feature 30 and the scan point intervals I WL and I HL .
  • the vehicle equipment 10 calculates
  • the width difference value dW and the height difference value dH (hereinafter collectively referred to as “size difference value”) are obtained as follows.
  • the reason why the absolute values of the size difference values dW and dH increase is considered to be one of the following.
  • A Since the number of lidar measurement points is small, there is an error in the lidar measurement value.
  • the scan point interval obtained by the lidar measurement varies depending on the distance from the lidar to the feature and the resolution of the rider itself. Basically, the feature farther from the lidar has a larger scan point interval. Therefore, in the case of a feature far from the rider, the number of scan data to be measured is reduced, and the error of the measurement value is increased.
  • the feature size information stored in the map DB is different from the actual size information.
  • the size of an actual feature may not match the size stored in the map DB due to an accident or disaster caused by a road sign or by changing the direction signboard. That is, when the feature size information stored in the map DB is not updated, the lidar measurement value and the map data are different.
  • the in-vehicle device 10 determines whether or not the cause of the increase in the difference value is (A) based on the resolution of the lidar 2 and the distance from the detected feature. That is, since the distance between the scan points by the lidar increases as the feature is further away, the in-vehicle device 10 determines whether or not a sufficient number of scan points are measured for the size of the target feature. To do.
  • the in-vehicle device 10 indicates the number of scan points as follows. Evaluation values E W and E h are calculated by the formula.
  • the in-vehicle device 10 determines that the cause of the large size difference value is the above (A). .
  • the in-vehicle device 10 determines that the cause of the increase in the size difference value is the above (B) or (C), and the difference Error information indicating the values dW and dH is transmitted to the server device 20.
  • FIG. 7 is a flowchart of the difference value evaluation process for the size of the feature. This process is performed by the control unit 15 of the in-vehicle device 10 executing a program prepared in advance.
  • the control unit 15 measures a feature with the lidar 2 and obtains a size measurement value (width W L , height H L ) of the feature (step S11).
  • the control unit 15 acquires size information (width W M , height H M ) of the feature from the map DB 13 (step S12).
  • the control unit 15 calculates the difference values dW and dH from the equations (3) to (4) (step S13), and further evaluates the evaluation values E W and E h from the equations (5) to (6). Is calculated (step S14).
  • control unit 15 compares the evaluation values E W and E h with predetermined values (step S15). When the evaluation values E W and E h are less than the predetermined values (step S15: No), the control unit 15 determines that the cause of the difference value being the above (A), and ends the process.
  • the control unit 15 causes the difference value to be large as described above in (B) or (C).
  • the error information is transmitted to the server device 20 (step S16).
  • the error information includes the date and time information at that time, the feature ID of the target feature, the size difference values dW and dH, and the scan point interval of the lidar 2 (horizontal direction: I WL , vertical direction: I HL ). Including. Note that, instead of the size difference values dW and dH, size measurement values (width W L and height H L ) may be included in the error information. In that case, the server device 20 calculates the difference values dW and dH from the size measurement value and the size information included in the map data.
  • the control part 15 finishes a process.
  • the date and time information is included in the error information transmitted to the server device 20 when the actual size of the feature has changed due to a change in the environment of the feature or the like, and when the change has occurred is known from the date and time information. Because it is important in that it can.
  • the control unit 15 determines that the cause of the increase in the size difference value is (A), and the evaluation values E W , If at least one of the E h is a predetermined value or more, the cause of the size difference value becomes larger (B) or are determined to be (C), but due to the size difference value is larger (a) , (B), (C) may not be determined.
  • step S15 the control unit 15, the evaluation value E W, the E h is compared with a predetermined value (step S15), and the evaluation value E W, E h is is less than the predetermined value: the process ends (step S15 No) If at least one of the evaluation values E W and E h is greater than or equal to a predetermined value (step S15: Yes), error information may be transmitted to the server device 20 (step S16).
  • FIG. 8 is a flowchart of the map correction process. This process is performed by the control unit 25 of the server device 20 executing a program prepared in advance.
  • the server device 20 acquires error information from a plurality of vehicles (step S21).
  • the server device 20 determines whether or not a predetermined number or more of error information has been acquired for the same feature (step S22).
  • step S22 When the error information of a predetermined number or more is not acquired for the same feature (step S22: No), the server device 20 causes the difference value to increase on the vehicle side is (B), that is, occlusion, etc. Therefore, it is determined that the difference value happens to be large, and the process is terminated.
  • the server device 20 causes the difference value to increase on the vehicle side is (C), that is, map data It is determined that the size information of the inside feature does not match the actual feature size. Then, the server device 20 performs a weighting statistical process on the basis of the difference values dW and dH included in the error information received from the plurality of in-vehicle devices 10, and the correction difference value indicating the correction amount of the size of the feature in the map data. Is determined (step S23).
  • the server device 20 performs weighting based on the scan point intervals I WL and I HL by the rider of each vehicle included in the error information received from the in-vehicle device 10 and statistically processes the difference value. For example, error information with small scan point intervals I WL and I HL is judged to have high accuracy and its weight is increased. In this way, the server device 20 determines the correction difference value.
  • the server device 20 determines whether or not the variation of each difference value is equal to or less than a predetermined value in the process of calculating the correction difference value (step S24).
  • the server device 20 corrects the size of the feature in the map data using the correction difference value (step S25).
  • the size of the feature in the map data is corrected based on the error information obtained from the plurality of vehicles. Since the difference value for correction used here is obtained by performing weighted statistical processing on the difference value included in the error information acquired from the plurality of in-vehicle devices 10 according to the scan interval of the lidar, The size of the feature in the map data can be corrected without being affected by the scan point interval.
  • step S24 if the variation of each difference value is not less than or equal to the predetermined value (step S24: No), it is difficult to accurately determine the correction amount of the feature size in the map data.
  • Information on the appropriateness of the object is lowered (step S26). That is, the server device 20 adds information indicating that the degree of appropriateness is low as a measurement target for the feature in the map data. Then, the process ends. Thereby, in vehicle equipment 10, since it turns out that the appropriateness is low when using the information of the feature in the map data, it is used by reducing the weight in the own vehicle position estimation process or not using it. Measures can be taken.
  • the vehicle-mounted device 10 on the vehicle 1 side can be prevented from performing driving support or automatic driving using information with low measurement accuracy.
  • the vehicle-mounted device 10 obtains a difference value dW based on the width W M of the road line stored in the map DB 13, and the width W L of the road line measured by the rider 2. Then, the vehicle-mounted device 10 obtains the evaluation value E W by the equation (5) may be compared with a predetermined value.
  • the in-vehicle device 10 evaluates the direction of the feature based on the direction (direction) information of the feature stored in the map DB 13 and the measurement information obtained by the lidar 2. That is, the in-vehicle device 10 evaluates whether or not the orientation of the feature measured by the lidar 2 matches the orientation of the feature stored in the map DB 13.
  • FIG. 9 shows a planar shape of a certain feature 31 as viewed from above.
  • the feature 31 is assumed to be a road sign or a direction signboard.
  • the map DB 13 in the in-vehicle device 10 stores the orientation ⁇ M of the feature 31.
  • the in-vehicle device 10 calculates the orientation ⁇ (k) of the feature 31 with respect to the own vehicle by the rider 2.
  • the in-vehicle device 10 calculates the azimuth ⁇ L (k) of the feature 31 from the azimuth ⁇ (k) of the feature 31 and the estimated azimuth ⁇ (k) of the own vehicle obtained by the Kalman filter by the following formula. Is calculated.
  • the estimated direction ⁇ (k) of the host vehicle is ⁇ e (k) after the prediction step, and ⁇ p (k) after the measurement update step.
  • the in-vehicle device 10 calculates a difference value between the calculated orientation ⁇ L (k) of the feature 31 and the orientation ⁇ M of the feature 31 stored in the map DB 13 (hereinafter, “ Called “azimuth difference value.”) D ⁇ is obtained.
  • this azimuth difference value d ⁇ becomes large due to one of the following causes.
  • D Since the accuracy of the estimated value of the direction of the vehicle by the in-vehicle device 10 is poor, a deviation occurs in the direction of the feature 31 calculated using the estimated value.
  • the orientation information of the feature stored in the map DB is different from the actual one.
  • the direction of the actual feature may not match the direction stored in the map DB due to an accident or disaster caused by a road sign or by changing the direction signboard. That is, when the orientation information of the feature stored in the map DB is not updated, the lidar measurement value and the map data are different.
  • the vehicle-mounted device 10 the ratio standard deviation sigma [psi regarding an orientation of the covariance matrix P of the Kalman filter (k), to evaluate the azimuth difference value d [phi].
  • the Kalman filter covariance matrix P (k) is expressed as follows.
  • the covariance matrix P (k) is Pe (k) after the prediction step and Pp (k) after the measurement update step.
  • the in-vehicle device 10 calculates the standard deviation ⁇ ⁇ as the square root of the value “ ⁇ 2 ⁇ (k)” of the third row and third column of the covariance matrix P (k), and calculates the azimuth difference value d ⁇ by the following evaluation formula.
  • An evaluation value E ⁇ is calculated.
  • the evaluation value E ⁇ indicates the ratio of the azimuth difference value d ⁇ to the standard deviation ⁇ ⁇ .
  • the in-vehicle device 10 determines that the cause of the large azimuth difference value is the above (D).
  • the evaluation value E ⁇ is equal to or greater than the predetermined value
  • the in-vehicle device 10 determines that the cause of the increase in the azimuth difference value is the above (E) or (F), and information indicating the azimuth difference value d ⁇ . Is transmitted to the server device 20.
  • FIG. 10 is a flowchart of the difference value evaluation process for the direction (azimuth) of the feature. This process is performed by the control unit 15 of the in-vehicle device 10 executing a program prepared in advance.
  • control unit 15 measures the feature 31 using the lidar 2 and calculates the orientation measurement value ⁇ L of the feature using Equation (7) (step S31).
  • control unit 15 acquires the orientation information ⁇ M of the feature 31 from the map DB 13 (step S32).
  • control unit 15 calculates the azimuth difference value d ⁇ by the equation (8) (step S33), and calculates the evaluation value E ⁇ by the above equation (10) (step S34).
  • control unit 15 compares the evaluation value E [ Psi] with a predetermined value (step S35). When the evaluation value E ⁇ is less than the predetermined value (step S35: No), the control unit 15 determines that the cause of the large azimuth difference value is the above (D), and ends the process.
  • the control unit 15 determines that the cause of the increase in the azimuth difference value is the above (E) or (F), and an error Information is transmitted to the server apparatus 20 (step S36).
  • the error information includes date and time information at that time, the feature ID of the feature of interest, the orientation difference value d [phi], the standard deviation sigma [psi of vehicle direction.
  • the azimuth measurement value ⁇ L may be included in the error information instead of the azimuth difference value d ⁇ . In that case, the server device 20 calculates the azimuth measurement value [psi L, the azimuth difference value d ⁇ from the azimuth information included in the map data.
  • the control part 15 finishes a process.
  • the date and time information is included in the error information transmitted to the server device 20 when the actual size of the feature has changed due to a change in the environment of the feature or the like, and when the change has occurred is known from the date and time information. Because it is important in that it can.
  • the control unit 15 determines that the cause of the increase in the azimuth difference value is (D), and the evaluation value E ⁇ is equal to or greater than the predetermined value. , It is determined that the cause of the increase in the azimuth difference value is (E) or (F), but the cause of the increase in the azimuth difference value is that of (D), (E), (F). It is not necessary to determine that it is either.
  • step S35 the control unit 15, the evaluation value E [psi is compared with a predetermined value (step S35), if the evaluation value E [psi is less than the predetermined value (step S35: No) in the process is terminated evaluation value E [psi is If it is equal to or greater than the predetermined value (step S35: Yes), error information may be transmitted to the server device 20 (step S36).
  • the map correction process for the orientation of the feature is basically the same as the map correction process for the size of the feature shown in FIG.
  • the server device 20 acquires error information from a plurality of vehicles (step S41).
  • the server device 20 determines whether or not a predetermined number or more of error information has been acquired for the same feature (step S42).
  • step S42 When the error information of a predetermined number or more is not acquired for the same feature (step S42: No), the server device 20 causes (E) that the difference value is large on the vehicle side, that is, occlusion, etc. Therefore, it is determined that the difference value happens to be large, and the process is terminated.
  • step S42 when the error information of a predetermined number or more is acquired for the same feature (step S42: Yes), the server device 20 causes the difference value to increase on the vehicle side is (F), that is, map data It is determined that the orientation information of the inside feature does not match the orientation of the actual feature. Then, the server device 20 obtains a correction difference value indicating a correction amount of the azimuth of the feature in the map data by weighted statistical processing based on the azimuth difference value d ⁇ included in the error information received from the plurality of in-vehicle devices 10. Determine (step S43).
  • the server device 20 performs weighting based on the standard deviation ⁇ ⁇ of the vehicle direction included in the error information received from the in-vehicle device 10 and statistically processes the difference value. For example, error information with a small standard deviation ⁇ ⁇ is judged to have high accuracy and its weight is increased. In this way, the server device 20 determines the correction difference value.
  • the server device 20 determines whether or not the variation of each difference value is equal to or less than a predetermined value in the process of calculating the difference value for correction (step S44).
  • the server device 20 corrects the orientation of the feature in the map data using the correction difference value (step S45).
  • the correction difference value used here is obtained by weighting statistical processing of the difference value included in the error information acquired from the plurality of in-vehicle devices 10 with the standard deviation ⁇ ⁇ of the vehicle direction.
  • the direction of the feature in the map data can be corrected without being affected by the vehicle position estimation accuracy in FIG.
  • step S44 when the variation of each difference value is not less than or equal to the predetermined value (step S44: No), it is difficult to accurately determine the correction amount of the orientation of the feature in the map data.
  • Information on the appropriateness of the object is lowered (step S46). That is, the server device 20 adds information indicating that the degree of appropriateness is low as a measurement target for the feature in the map data. Then, the process ends.
  • Modification 1 In said Example, the difference value evaluation process which evaluates a difference value is performed by the vehicle equipment 10 side of the vehicle 1, and the map correction process is performed by the server apparatus 20 side.
  • the in-vehicle device 10 may transmit data relating to all the features to the server device 20 and perform the difference value evaluation process and the map correction process on the server device 20 side.
  • the in-vehicle device 10 transmits error information regarding all the features to the server device 20 without performing evaluation based on the evaluation values E w , E h , and E ⁇ .
  • the server device 20 may first calculate the evaluation values E w , E h , E ⁇ using the received error information, and execute map correction processing for error information that exceeds a predetermined value.
  • the difference value evaluation process and the map correction process may be performed on the vehicle-mounted device 10 side of the vehicle 1.
  • the in-vehicle device 10 first executes a difference value evaluation process, generates error information, and stores the error information in the storage unit 12.
  • the vehicle 1 travels the same place a plurality of times, a plurality of error information regarding the same feature is obtained. Therefore, the in-vehicle device 10 performs map correction processing using a plurality of error information for the same feature stored in the storage unit 12. That is, instead of using error information acquired from a large number of vehicles, a plurality of error information obtained by a plurality of times of traveling of the host vehicle is used.
  • the in-vehicle device 10 corrects the feature stored in the map DB 13 using the correction difference value, or performs a process of reducing the appropriateness information about the feature. Moreover, you may transmit the map data which performed such correction to the server apparatus 20 as needed.
  • the server device 20 collects error information from the in-vehicle device 10. However, when the vehicle measures a predetermined feature a plurality of times, the in-vehicle device 10 measures the measured values W L , H L , and ⁇ for a plurality of times. A weighted average value and variance may be calculated for L , and error information may be transmitted to the server device 20 when the variance value is small.
  • (I) Size of feature Specifically, regarding the size of the feature, the evaluation values E w and E h are larger than the predetermined values, and the reason why the difference value is large is because “(A) the number of measurement points of the rider is small. If the measurement value of the rider has an error, the vehicle-mounted device 10 calculates the weighted average value based on the measurement values W L and H L calculated N times. That is, increasing the weight of the width W L and a height H L when precision is good, calculated by reducing the weighting of the width W L and a height H L when poor accuracy.
  • the weighted average of the width W L is calculated by the equation (11) below using the width W L and a scan point interval I WL, weighted average value of the height H L, the width H L and the scan point It calculates by the following formula
  • the in-vehicle device 10 calculates the variance of the width W L and the height H L by the following formulas (13) and (14) based on the calculated weighted average value.
  • the in-vehicle device 10 terminates the process without transmitting error information to the server device 20.
  • the variance is small, it can be seen that there is little variation in the measured values W L and H L , so the cause of the large difference value is “(C)
  • the size information of the feature stored in the map DB is actually The in-vehicle device 10 transmits the weighted average value and the accuracy of the weighted average value to the server device 20.
  • the accuracy of the weighted average value of the width W L is calculated by the following equation (15)
  • the accuracy of the weighted average value of the height H L is calculated by the following equation (16).
  • the in-vehicle device 10 transmits N measurement values W L , H L , scan point intervals I W , I HL to the server device 20, and the server device calculates the weighted average value and variance using the above formulas, You may perform the determination of (B) and (C) by dispersion
  • the reason why the difference value is increased by performing such processing in the in-vehicle device 10 is “(C)
  • the size information of the feature stored in the map DB is different from the actual one”. Since only data with a high possibility is transmitted to the server device 20, the frequency of data transmission from the in-vehicle device 10 to the server device 20 can be reduced, and the processing on the server device 20 side can be reduced.
  • the server device 20 determines whether or not to perform the above-described processing of the in-vehicle device 10.
  • the server device 20 may transmit request information indicating that the above-described processing is performed to the in-vehicle device 10. .
  • the server device 20 determines whether or not it is necessary to examine the position of the feature stored in the map DB 23 based on the last update date, the accuracy of the map information, and the like.
  • the server device 20 is set to transmit error information from the in-vehicle device 10 to the server device 20 without transmitting request information for performing the above processing.
  • the server device 20 transmits request information for performing the above process to the in-vehicle device 10. Thereby, the process according to the necessity of the close inspection for every feature is attained.
  • the vehicle-mounted device 10 calculates the variance of the azimuth ⁇ L by the following formula (18) based on the calculated weighted average value.
  • the cause of the large difference value is “(E) occlusion occlusion or mixing of other objects. It is determined that there is a high possibility that the measured value of “is inconsistent.”, The in-vehicle device 10 ends the process without transmitting error information to the server device 20.
  • the variance is small, it can be seen that the azimuth ⁇ L has little variation. Therefore, the reason for the large difference value is “(F)
  • the direction information of the feature stored in the map DB is not the actual one.
  • the vehicle-mounted device 10 transmits the weighted average value and the accuracy of the weighted average value to the server device 20.
  • the in-vehicle device 10 transmits the azimuth ⁇ L and standard deviation ⁇ ⁇ for N times to the server device 20, and the server device calculates the weighted average value and variance using the above formula, and (E) and (F ) And the calculation of the accuracy of the weighted average value may be performed.
  • the reason why the difference value is increased by performing such processing in the vehicle-mounted device 10 is “(F)
  • the direction information of the feature stored in the map DB is different from the actual one”. Since only data with a high possibility is transmitted to the server device 20, the frequency of data transmission from the in-vehicle device 10 to the server device 20 can be reduced, and the processing on the server device 20 side can be reduced.
  • the server device 20 determines whether or not to perform the above-described processing of the in-vehicle device 10.
  • the server device 20 may transmit request information indicating that the above-described processing is performed to the in-vehicle device 10. .
  • the server device 20 determines whether or not it is necessary to examine the position of the feature stored in the map DB 23 based on the last update date, the accuracy of the map information, and the like.
  • the server device 20 is set to transmit error information from the in-vehicle device 10 to the server device 20 without transmitting request information for performing the above processing.
  • the server device 20 transmits request information for performing the above process to the in-vehicle device 10. Thereby, the process according to the necessity of the close inspection for every feature is attained.

Abstract

端末装置は、地図情報から取得される、地物のサイズ及び向きの少なくとも一方を示す第1情報を取得する。また、計測部により計測される、地物のサイズ及び向きの少なくとも一方を示す第2情報を取得する。そして、端末装置は、第1情報と第2情報の差分値を用いて、第1情報と第2情報との間のサイズ及び向きの少なくとも一方の差分値を示す出力情報を出力する。

Description

端末装置、情報処理方法、プログラム、及び、記憶媒体
 本発明は、地図データにおける地物のサイズや向きを修正する技術に関する。
 車両に搭載される外界センサにより検出される周辺情報に基づいて、地図データを更新する手法が提案されている。例えば、特許文献1は、センサ部の出力に基づく周辺情報と部分地図DBとを比較することで変化点候補データを生成し、当該変化点候補データの取得時のセンサの精度を考慮して地図データの更新を行う手法を記載している。
特開2016-156973号公報
 サーバに記憶された地図データは地物の位置、サイズ、向きなどの情報を含むが、地物の測定後に何らかの原因で地物の設置状態が変化すると、地図データが示す地物の設置状態と実際の地物の設置状態とが一致しなくなる。例えば、道路標識は事故や災害によって、方面看板は付け替えによって、また、道路標示はかすれや引き直しによって、それぞれ位置、サイズ、向きが変化する可能性がある。このような状態で、地図データ中の地物の位置、サイズ、向きなどを利用して車両の自車位置を推定すると推定誤差が大きくなり、運転支援や自動運転に支障をきたす恐れがある。
 本発明が解決しようとする課題として上記のものが例として挙げられる。本発明は、地物の実際のサイズ又は向きが地図データにおけるサイズ又は向きと一致しないことを検出し、必要に応じて地図データを修正することを目的とする。
 請求項1に記載の発明は、移動体に搭載される端末装置であって、地図情報から取得される、地物のサイズ及び向きの少なくとも一方を示す第1情報を取得する第1取得手段と、計測部により計測される、前記地物のサイズ及び向きの少なくとも一方を示す第2情報を取得する第2取得手段と、前記第1情報と前記第2情報の差分値を用いて、前記第1情報と前記第2情報との間のサイズ及び向きの少なくとも一方の差分値を示す出力情報を出力する出力手段と、を備える。
 請求項7に記載の発明は、移動体に搭載される端末装置により実行される情報処理方法であって、地図情報から取得される、地物のサイズ及び向きの少なくとも一方を示す第1情報を取得する第1取得工程と、計測部により計測される、前記地物のサイズ及び向きの少なくとも一方を示す第2情報を取得する第2取得工程と、前記第1情報と前記第2情報の差分値を用いて、前記第1情報と前記第2情報との間のサイズ及び向きの少なくとも一方の差分値を示す出力情報を出力する出力工程と、を備える。
 請求項8に記載の発明は、移動体に搭載され、コンピュータを備える端末装置により実行されるプログラムであって、地図情報から取得される、地物のサイズ及び向きの少なくとも一方を示す第1情報を取得する第1取得手段、計測部により計測される、前記地物のサイズ及び向きの少なくとも一方を示す第2情報を取得する第2取得手段、前記第1情報と前記第2情報の差分値を用いて、前記第1情報と前記第2情報との間のサイズ及び向きの少なくとも一方の差分値を示す出力情報を出力する出力手段、として前記コンピュータを機能させる。
運転支援システムの概略構成図である。 車載機の機能的構成を示すブロック図である。 サーバ装置の機能的構成を示すブロック図である。 状態変数ベクトルを2次元直交座標で表した図である。 予測ステップと計測更新ステップとの概略的な関係を示す図である。 地物のサイズを評価するためのパラメータを示す。 地物のサイズについての差分値評価処理のフローチャートである。 地物のサイズについての地図修正処理のフローチャートである。 地物の向きを評価するためのパラメータを示す。 地物の向きについての差分値評価処理のフローチャートである。 地物の向きについての地図修正処理のフローチャートである。
 本発明の1つの好適な実施形態は、移動体に搭載される端末装置であって、地図情報から取得される、地物のサイズ及び向きの少なくとも一方を示す第1情報を取得する第1取得手段と、計測部により計測される、前記地物のサイズ及び向きの少なくとも一方を示す第2情報を取得する第2取得手段と、前記第1情報と前記第2情報の差分値を用いて、前記第1情報と前記第2情報との間のサイズ及び向きの少なくとも一方の差分値を示す出力情報を出力する出力手段と、を備える。
 上記の端末装置は、地図情報から取得される、地物のサイズ及び向きの少なくとも一方を示す第1情報を取得する。また、計測部により計測される、地物のサイズ及び向きの少なくとも一方を示す第2情報を取得する。そして、端末装置は、第1情報と第2情報の差分値を用いて、第1情報と第2情報との間のサイズ及び向きの少なくとも一方の差分値を示す出力情報を出力する。これにより、地物のサイズ及び向きの少なくとも一方について、地図情報と計測情報との差分値が得られる。
 上記の端末装置の一態様は、前記差分値を用いて、前記第1情報と前記第2情報との間の所定値以上のずれを検出する検出手段を備え、前記出力手段は、前記所定値以上のずれが検出された場合に、前記出力情報を出力する。この態様では、第1情報と第2情報との間に所定値以上のずれが検出された場合に出力情報が出力される。
 上記の端末装置の他の一態様では、前記第1情報及び前記第2情報は、前記地物のサイズを示す情報であり、前記検出手段は、前記地物のサイズと、前記計測部による計測点間隔とに基づいて、前記所定値以上のずれを検出する。この場合、好ましくは、前記出力情報は、前記計測部による計測時刻と、前記地物の識別情報と、前記計測点間隔とを含む。
 上記の端末装置の他の一態様では、前記第1情報及び前記第2情報は、前記移動体に対する前記地物の向きを示す情報であり、前記検出手段は、前記差分値と、前記移動体の方位推定精度とに基づいて、前記所定値以上のずれを検出する。この場合、好ましくは、前記出力情報は、前記計測部による計測時刻と、前記地物の識別情報と、前記方位推定精度とを含む。
 本発明の他の好適な実施形態は、移動体に搭載される端末装置により実行される情報処理方法であって、地図情報から取得される、地物のサイズ及び向きの少なくとも一方を示す第1情報を取得する第1取得工程と、計測部により計測される、前記地物のサイズ及び向きの少なくとも一方を示す第2情報を取得する第2取得工程と、前記第1情報と前記第2情報の差分値を用いて、前記第1情報と前記第2情報との間のサイズ及び向きの少なくとも一方の差分値を示す出力情報を出力する出力工程と、を備える。これにより、地物のサイズ及び向きの少なくとも一方について、地図情報と計測情報との差分値が得られる。
 本発明の他の好適な実施形態は、移動体に搭載され、コンピュータを備える端末装置により実行されるプログラムであって、地図情報から取得される、地物のサイズ及び向きの少なくとも一方を示す第1情報を取得する第1取得手段、計測部により計測される、前記地物のサイズ及び向きの少なくとも一方を示す第2情報を取得する第2取得手段、前記第1情報と前記第2情報の差分値を用いて、前記第1情報と前記第2情報との間のサイズ及び向きの少なくとも一方の差分値を示す出力情報を出力する出力手段、として前記コンピュータを機能させる。このプログラムをコンピュータで実行することにより、上記の端末装置を実現することができる。このプログラムは、記憶媒体に記憶して取り扱うことができる。
 以下、図面を参照して本発明の好適な各実施例について説明する。
 [概略構成]
 図1は、本実施例に係る運転支援システムの概略構成図である。運転支援システムは、大別すると、車両1に搭載される車載機10と、サーバ装置20とを備える。車両1には、車両の運転支援に関する制御を行う車載機10と、ライダ(Lidar:Light Detection and Ranging、または、Laser Illuminated Detection And Ranging)2と、ジャイロセンサ3と、車速センサ4と、GPS受信機5とが搭載されている。サーバ装置20は、地図データを記憶した地図データベース(以下、「データベース」を「DB」と記す。)23を備える。車載機10とサーバ装置20とは、無線通信によりデータを送受信する。なお、図1においては便宜上1つの車両1及び車載機10のみを図示しているが、実際には、サーバ装置20は複数の車両1の車載機10と通信する。
 車載機10は、ライダ2、ジャイロセンサ3、車速センサ4、及び、GPS受信機5と電気的に接続し、これらの出力に基づき、車載機10が搭載される車両の位置(「自車位置」とも呼ぶ。)の推定を行う。そして、車載機10は、自車位置の推定結果に基づき、設定された目的地への経路に沿って走行するように、車両の自動運転制御などを行う。車載機10は、道路データ及び道路付近に設けられた目印となる地物に関する情報である地物情報を記憶した地図DB13を記憶する。上述の目印となる地物は、例えば、道路脇に周期的に並んでいるキロポスト、100mポスト、デリニエータ、交通インフラ設備(例えば標識、方面看板、信号)、電柱、街灯、道路標示(例えば白線、路面ペイント等)などの地物であり、地物情報は、各地物の識別情報である地物IDと、地物の位置情報と、地物のサイズ及び向き(方位)の情報とが少なくとも関連付けられた情報である。そして、車載機10は、この地物情報に基づき、ライダ2等の出力と照合させて自車位置の推定を行う。
 ライダ2は、水平方向および垂直方向の所定の角度範囲に対してパルスレーザを出射することで、外界に存在する物体までの距離を離散的に測定し、当該物体の位置を示す3次元の点群情報を生成する。この場合、ライダ2は、照射方向を変えながらレーザ光を照射する照射部と、照射したレーザ光の反射光(散乱光)を受光する受光部と、受光部が出力する受光信号に基づくスキャンデータ(点群データ)を出力する出力部とを有する。スキャンデータは、受光部が受光したレーザ光に対応する照射方向と、上述の受光信号に基づき特定される当該レーザ光の応答遅延時間とに基づき生成される。本実施例では、ライダ2は、少なくとも車両の前方をスキャンするように車両の進行方向を向いて設置されているものとする。ライダ2、ジャイロセンサ3、車速センサ4、GPS受信機5は、それぞれ、出力データを車載機10へ供給する。
 図2は、車載機10の機能的構成を示すブロック図である。車載機10は、主に、インターフェース11と、記憶部12と、入力部14と、制御部15と、情報出力部16と、を有する。これらの各要素は、バスラインを介して相互に接続されている。
 インターフェース11は、ライダ2、ジャイロセンサ3、車速センサ4、及びGPS受信機5などのセンサから出力データを取得し、制御部15へ供給する。また、インターフェース11は、制御部15が生成した車両の走行制御に関する信号を車両の電子制御装置(ECU:Electronic Control Unit)へ供給する。
 記憶部12は、制御部15が実行するプログラムや、制御部15が所定の処理を実行するのに必要な情報を記憶する。また、本実施例では、記憶部12は、地物情報を含む地図DB13を記憶する。地物情報は、地物ごとに当該地物に関する情報が関連付けられた情報であり、ここでは、地物の識別情報である地物IDと、位置情報と、形状情報とを含んでいる。位置情報は、緯度及び経度(及び標高)等により表わされた地物の絶対的な位置を示す。形状情報は、地物の形状に関する情報であり、地物の向き(即ち正面に対する法線方向)を示す方位情報と、地物のサイズを示すサイズ情報とを含む。なお、地図DB13は定期的に更新されてもよい。この場合、例えば、制御部15は、図示しない通信部を介し、地図情報を管理するサーバ装置20から、自車位置が属するエリアに関する部分地図情報を受信し、地図DB13に反映させる。
 入力部14は、ユーザが操作するためのボタン、タッチパネル、リモートコントローラ、音声入力装置等であり、経路探索のための目的地を指定する入力、自動運転のオン及びオフを指定する入力などを受け付ける。情報出力部16は、例えば、制御部15の制御に基づき出力を行うディスプレイやスピーカ等である。
 制御部15は、プログラムを実行するCPUなどを含み、車載機10の全体を制御する。本実施例では、制御部15は、自車位置推定部17と、自動運転制御部18とを有する。自車位置推定部17は、地物に対するライダ2による距離及び角度の計測値と、地図DB13から抽出した地物の位置情報とに基づき、ジャイロセンサ3、車速センサ4、及び/又はGPS受信機5の出力データから推定した自車位置を補正する。本実施例では、一例として、自車位置推定部17は、ベイズ推定に基づく状態推定手法に基づき、ジャイロセンサ3、車速センサ4等の出力データから自車位置を推定する予測ステップと、直前の予測ステップで算出した自車位置の推定値を補正する計測更新ステップとを交互に実行する。
 自動運転制御部18は、地図DB13を参照し、設定された経路と、自車位置推定部17が推定した自車位置とに基づき、自動運転制御に必要な信号を車両に送信する。自動運転制御部18は、設定された経路に基づき、目標軌道を設定し、自車位置推定部17が推定した自車位置が目標軌道から所定幅以内のずれ幅となるように、車両に対してガイド信号を送信して車両の位置を制御する。
 上記の構成において、ライダ2は本発明の計測部の一例であり、車載機10は本発明の端末装置の一例であり、制御部15は本発明の第1取得手段、第2取得手段、検出手段の一例であり、情報出力部16は本発明の出力手段の一例である。
 図3は、サーバ装置20の機能的構成を示すブロック図である。サーバ装置20は、主に、通信部21と、記憶部22と、制御部25と、を備える。これらの各要素は、バスラインを介して相互に接続されている。通信部21は、無線通信などにより車載機10と通信する。記憶部22は、制御部25が実行するプログラムや、制御部25が所定の処理を実行するのに必要な情報を記憶する。また、記憶部22は、地物情報を含む地図DB23を記憶する。制御部25は、プログラムを実行するCPUなどを含み、サーバ装置20の全体を制御する。具体的には、制御部25は後述する地図修正処理を実行する。
 [自車位置推定処理]
 次に、自車位置推定部17による自車位置の推定処理の第1実施例について説明する。自車位置推定部17は、予測ステップと計測更新ステップを逐次的に繰り返して自車位置推定を行う。これらのステップで用いる状態推定フィルタは、ベイズ推定を行うように開発された様々のフィルタが利用可能であり、例えば、拡張カルマンフィルタ、アンセンテッドカルマンフィルタ、パーティクルフィルタなどが該当する。このように、ベイズ推定に基づく位置推定は、種々の方法が提案されている。以下では、一例として拡張カルマンフィルタを用いた自車位置推定について簡略的に説明する。
 図4は、状態変数ベクトルXを2次元直交座標で表した図である。なお、第1実施例では、z座標をxyの2次元直交座標上に投影したものとする。図4に示すように、xyの2次元直交座標上で定義された平面での自車位置は、座標「(x,y)」、及び、自車の方位「Ψ」により表される。ここでは、方位Ψは、車の進行方向とx軸とのなす角として定義されている。座標(x,y)は、例えば緯度及び経度の組合せに相当する、ある基準位置を原点とした座標系による絶対位置を示す。
 図5は、予測ステップと計測更新ステップとの概略的な関係を示す図である。図5に示すように、予測ステップと計測更新ステップとを繰り返すことで、状態変数ベクトルXの推定値の算出及び更新を逐次的に実行する。ここでは、計算対象となる基準時刻(即ち現在時刻)「k」の状態変数ベクトルを、「Xe(k)」または「Xp(k)」と表記している。なお、予測ステップで予測された暫定的な予測値には添え字に「e」を付し、計測更新ステップで更新された、より精度の高い推定値には当該値には添え字に「p」を付す。(「状態変数ベクトルXe(k)=(x(k)、y(k)、Ψ(k))」、「状態変数ベクトルXp(k)=(x(k)、y(k)、Ψ(k))」と表記する。)
 予測ステップでは、自車位置推定部17は、直前の計測更新ステップで算出された時刻k-1の状態変数ベクトルXp(k-1)に対し、車両の移動速度「v」とz軸回りのヨー角速度「ω」(これらをまとめて「制御値u(k)」と表記する。)を作用させることで、時刻kの自車位置の予測値(「予測自車位置」とも呼ぶ。)Xe(k)を算出する。また、これと同時に、自車位置推定部17は、予測自車位置Xe(k)の誤差分布に相当する共分散行列Pe(k)を、直前の計測更新ステップで算出された時刻k-1での共分散行列Pp(k-1)から算出する。
 計測更新ステップでは、自車位置推定部17は、地図DB13に登録された地物の位置ベクトルとライダ2のスキャンデータとの対応付けを行う。そして、自車位置推定部17は、この対応付けができた場合に、対応付けができた地物のライダ2による計測値(「地物計測値」と呼ぶ。)「Z(i)」と、予測自車位置Xe(k)及び地図DB13に登録された地物の位置ベクトルを用いてライダ2による計測処理をモデル化して求めた地物の予測値(「地物予測値」と呼ぶ。)「Ze(i)」とをそれぞれ取得する。地物計測値Z(i)は、インデックス番号iの地物をライダ2が計測した距離及びスキャン角度から、車両の進行方向と横方向を軸とした成分に変換した2次元ベクトルである。そして、自車位置推定部17は、以下の式(1)に示すように、地物計測値Z(i)と地物予測値Ze(i)との差分値を算出する。
Figure JPOXMLDOC01-appb-M000001
 また、自車位置推定部17は、以下の式(2)に示すように、地物計測値Z(i)と地物予測値Ze(i)との差分値にカルマンゲイン「K(k)」を乗算し、これを予測自車位置Xe(k)に加えることで、更新された状態変数ベクトル(「計測更新自車位置」とも呼ぶ。)Xp(k)を算出する。
Figure JPOXMLDOC01-appb-M000002
 また、計測更新ステップでは、自車位置推定部17は、予測ステップと同様、計測更新自車位置Xp(k)の誤差分布に相当する共分散行列Pp(k)を事前共分散行列Pe(k)から求める。カルマンゲインK(k)等のパラメータについては、例えば拡張カルマンフィルタを用いた公知の自己位置技術と同様に算出することが可能である。
 このように、予測ステップと計測更新ステップが繰り返し実施され、予測自車位置Xe(k)と計測更新自車位置Xp(k)が逐次的に計算されることにより、もっとも確からしい自車位置が計算される。このように計算される自車位置を「推定自車位置」と呼ぶ。
 [地物のサイズの評価]
 次に、地物のサイズの評価方法について説明する。車載機10は、地図DB13に記憶されている地物のサイズ情報と、ライダ2による計測情報とに基づいて、地物のサイズを評価する。即ち、車載機10は、ライダ2により計測された地物のサイズが、地図DB13に記憶されている地物のサイズと一致するか否かを評価する。
 図6は、ある地物30を正面から見た平面形状を示す。この地物30は、道路標識又は方面看板であるものとする。車載機10内の地図DB13には、地物30のサイズ情報として、地物30の縦方向と横方向のサイズ、即ち、幅Wと高さHが記憶されている。
 車載機10は、ライダ2により地物30の幅Wと高さHを計測する。図6に示すように、ライダ2は、地物30により得られる複数のスキャン点40の数に基づいて地物の幅Wと高さHを計測する。ライダ2によるスキャン点40の横方向のスキャン点間隔を「IWL」、縦方向のスキャン点間隔を「IHL」とする。スキャン点間隔は、ライダ2の出射光の分解能と、ライダ2から地物30までの距離とに基づいて定まる。よって、車載機10は、地物30上で得られたスキャン点の縦方向及び横方向の数と、スキャン点間隔IWL及びIHLとに基づいて地物30のサイズを算出する。
 そして、車載機10は、算出された地物30のサイズと、地図DB13に記憶されている地物30のサイズとの差分を求める。幅の差分値dWと高さの差分値dH(以下、まとめて「サイズ差分値」とも呼ぶ。)は以下のように求められる。
Figure JPOXMLDOC01-appb-M000003
 さて、これらのサイズ差分値dW、dHの絶対値が大きくなる原因は以下のいずれかと考えられる。
(A)ライダの計測点数が少ないため、ライダの計測値に誤差がある。
 ライダによる計測で得られるスキャン点間隔は、ライダから地物までの距離と、ライダ自身の分解能とにより変化し、基本的にライダから遠い地物ほど、計測されるスキャン点間隔は大きくなる。よって、ライダから遠い地物の場合、計測されるスキャンデータ数が少なくなり、計測値の誤差が大きくなる。
(B)オクルージョンによる遮蔽、又は、他のオブジェクトの混入などがあり、ライダの計測値にずれがある。
 ライダにより地物を計測した際、ライダと地物との間にたまたま他の車両などが存在する場合や、地物の近傍に他のオブジェクトがあってライダが地物とそのオブジェクトを一体として検出してしまったような場合には、ライダの計測値と地図データとが異なってしまう。
(C)地図DBに記憶されている地物のサイズ情報が、実際のものとは異なっている。
 例えば、道路標識は事故や災害などにより、また、方面看板は付け替えにより、実際の地物のサイズが地図DBに記憶されているサイズとは一致しなくなることがある。即ち、地図DBに記憶されている地物のサイズ情報が更新されていない場合には、ライダの計測値と地図データとが異なってしまう。
 よって、まず、車載機10は、ライダ2の分解能、及び、検出した地物との距離に基づいて、差分値が大きくなった原因が(A)であるか否かを判定する。即ち、地物が遠くにあるほどライダによるスキャン点の間隔が広がるため、車載機10は、対象となる地物のサイズに対して、十分な数のスキャン点が計測されているか否かを判定する。
 具体的には、図6に示すように、ライダ2による横方向のスキャン点間隔をIWL、縦方向のスキャン点間隔をIHLとすると、車載機10はスキャン点の数を示す以下の評価式により評価値E、Eを算出する。
Figure JPOXMLDOC01-appb-M000004
 そして、評価値E、Eが所定値よりも小さい場合、即ち、スキャン点の数が少ない場合、車載機10はサイズ差分値が大きくなった原因は上記の(A)であると判断する。一方、評価値E、Eの少なくとも一方が所定値以上である場合、車載機10は、サイズ差分値が大きくなった原因は上記の(B)又は(C)であると判断し、差分値dW、dHを示す誤差情報をサーバ装置20に送信する。
 図7は、地物のサイズについての差分値評価処理のフローチャートである。この処理は、車載機10の制御部15が予め用意されたプログラムを実行することにより行われる。まず、制御部15は、ライダ2により地物を計測して地物のサイズ計測値(幅W、高さH)を取得する(ステップS11)。次に、制御部15は、地図DB13からその地物のサイズ情報(幅W、高さH)を取得する(ステップS12)。そして、制御部15は、式(3)~(4)によりそれらの差分値dW、dHを算出し(ステップS13)、さらに上記の式(5)~(6)により評価値E、Eを算出する(ステップS14)。
 次に、制御部15は、評価値E、Eを所定値と比較する(ステップS15)。評価値E、Eが所定値未満である場合(ステップS15:No)、制御部15は、差分値が大きくなった原因は上記の(A)であると判定し、処理を終了する。
 一方、評価値E、Eの少なくとも一方が所定値以上である場合(ステップS15:Yes)、制御部15は、差分値が大きくなった原因が上記の(B)又は(C)であると判定し、誤差情報をサーバ装置20へ送信する(ステップS16)。ここで、誤差情報は、そのときの日時情報、対象となる地物の地物ID、サイズ差分値dW、dH、ライダ2のスキャン点間隔(横方向:IWL、縦方向:IHL)を含む。なお、サイズ差分値dW、dHの代わりに、サイズ計測値(幅W、高さH)を誤差情報に含めてもよい。その場合には、サーバ装置20はサイズ計測値と、地図データに含まれるサイズ情報から差分値dW、dHを算出する。
 そして、制御部15は、処理を終了する。なお、サーバ装置20へ送信する誤差情報に日時情報を含めるのは、地物の環境変化などによって地物の実際のサイズが変化した場合に、その変化がいつから発生しているかを日時情報によって知ることができる点で重要だからである。
 このように、車載機10における差分値評価処理によれば、地物のサイズ差分値が大きくなった原因が上記の(B)又は(C)である可能性があることが検出されると、そのときの誤差情報がサーバ装置20へ送信される。
 なお、上記の処理では、制御部15は、評価値E、Eが所定値未満である場合、サイズ差分値が大きくなった原因は(A)であると判定し、評価値E、Eの少なくとも一方が所定値以上である場合、サイズ差分値が大きくなった原因は(B)又は(C)であると判定しているが、サイズ差分値が大きくなった原因が(A)、(B)、(C)のいずれかであることを判定しなくてもよい。すなわち、制御部15は、評価値E、Eを所定値と比較し(ステップS15)、評価値E、Eが所定値未満である場合(ステップS15:No)に処理を終了し、評価値E、Eの少なくとも一方が所定値以上である場合(ステップS15:Yes)に誤差情報をサーバ装置20へ送信(ステップS16)してもよい。
 次に、サーバ装置20により行われる地図修正処理について説明する。図8は、地図修正処理のフローチャートである。この処理は、サーバ装置20の制御部25が予め用意されたプログラムを実行することにより行われる。まず、サーバ装置20は、複数の車両から誤差情報を取得する(ステップS21)。次に、サーバ装置20は、同一の地物について所定数以上の誤差情報を取得したか否かを判定する(ステップS22)。
 同一の地物について所定数以上の誤差情報を取得していない場合(ステップS22:No)、サーバ装置20は、車両側で差分値が大きくなった原因は(B)である、即ち、オクルージョンなどにより、たまたま差分値が大きくなったと判断し、処理を終了する。
 一方、同一の地物について所定数以上の誤差情報を取得した場合(ステップS22:Yes)、サーバ装置20は、車両側で差分値が大きくなった原因は(C)である、即ち、地図データ中の地物のサイズ情報と実際の地物のサイズとが一致していないと判断する。そして、サーバ装置20は複数の車載機10から受信した誤差情報に含まれる差分値dW、dHに基づいて、重み付け統計処理により、地図データ中の地物のサイズの修正量を示す修正用差分値を決定する(ステップS23)。具体的には、サーバ装置20は、車載機10から受信した誤差情報に含まれる各車両のライダによるスキャン点間隔IWL、IHLに基づく重み付けを行って差分値を統計処理する。例えば、スキャン点間隔IWL、IHLが小さい誤差情報は、精度が高いと判断して、その重みを大きくする。こうして、サーバ装置20は、修正用差分値を決定する。
 次に、サーバ装置20は、修正用差分値の算出過程において各差分値のばらつきが所定値以下であるか否かを判定する(ステップS24)。各差分値のばらつきが所定値以下である場合(ステップS24:Yes)、サーバ装置20は、修正用差分値を用いて、地図データにおけるその地物のサイズを修正する(ステップS25)。こうして、複数の車両から得られた誤差情報に基づいて、地図データにおける地物のサイズが修正される。ここで使用される修正用差分値は、複数の車載機10から取得した誤差情報に含まれる差分値を、ライダのスキャン間隔により重み付け統計処理して求めているので、各車載機10におけるライダのスキャン点間隔の影響を受けることなく地図データ中の地物のサイズを修正することができる。
 一方、各差分値のばらつきが所定値以下でない場合(ステップS24:No)、地図データにおける地物のサイズの修正量を正確に決定することが難しいので、サーバ装置20は、地図データにおけるその地物の適正度情報を低下させる(ステップS26)。即ち、サーバ装置20は、地図データにおけるその地物に対して測定対象として適正度が低い旨の情報を付加する。そして、処理は終了する。これにより、車載機10では、地図データ中のその地物の情報を使用する際に適正度が低いことがわかるので、自車位置推定処理において重みを下げて利用する、又は、利用しないなどの対策を行うことができる。なお、実際には、このような地物については、専用の計測車両などにより再度計測を行うことが多いが、それまでの間の処置として、適正度が低い旨の情報を付加しておくことにより、車両1側の車載機10が計測精度の低い情報を用いて運転支援や自動運転などを行うことを防止することができる。
 なお、上記の例では、地物30として道路標識や方面看板を用いたが、その代わりに白線などの路面線を用いることもできる。その場合、車載機10は、地図DB13に記憶されている路面線の幅Wと、ライダ2により計測した路面線の幅Wとに基づいて差分値dWを求める。そして、車載機10は、式(5)により評価値Eを求め、所定値と比較すればよい。
 [地物の向きの評価]
 車載機10は、地図DB13に記憶されている地物の向き(方位)情報と、ライダ2による計測情報とに基づいて、地物の向きを評価する。即ち、車載機10は、ライダ2により計測された地物の向きが、地図DB13に記憶されている地物の向きと一致するか否かを評価する。
 図9は、ある地物31を上方から見た平面形状を示す。この地物31は、道路標識又は方面看板であるものとする。車載機10内の地図DB13には、地物31の方位Ψが記憶されている。また、図9に示すように、車載機10は、ライダ2により自車に対する地物31の方位φ(k)を算出する。そして、車載機10は、地物31の方位φ(k)と、カルマンフィルタで求めた自車の推定方位Ψ(k)とから、以下の式により、その地物31の方位Ψ(k)を算出する。なお、自車の推定方位Ψ(k)は、予測ステップ後であればΨ(k)であり、計測更新ステップ後であればΨ(k)である。
Figure JPOXMLDOC01-appb-M000005
 次に、車載機10は、以下の式により、算出された地物31の方位Ψ(k)と、地図DB13に記憶されている地物31の方位Ψとの差分値(以下、「方位差分値」と呼ぶ。)dΨを求める。
Figure JPOXMLDOC01-appb-M000006
 さて、この方位差分値dΨが大きくなるのは、以下のいずれかの原因によると考えられる。
 (D)車載機10による自車方位の推定値の精度が悪いため、それを用いて計算した地物31の方位にずれが生じた。
 (E)オクルージョンによる遮蔽、又は、他のオブジェクトの混入などがあり、ライダの計測値にずれがある。
 ライダにより地物を計測した際、ライダと地物との間にたまたま他の車両などが存在する場合や、地物の近傍に他のオブジェクトがあってライダが地物とそのオブジェクトを一体として検出してしまったような場合には、ライダの計測値と地図データとが異なってしまう。
 (F)地図DBに記憶されている地物の方位情報が、実際のものとは異なっている。
 例えば、道路標識は事故や災害などにより、また、方面看板は付け替えにより、実際の地物の方位が地図DBに記憶されている方位とは一致しなくなることがある。即ち、地図DBに記憶されている地物の方位情報が更新されていない場合には、ライダの計測値と地図データとが異なってしまう。
 よって、まず、車載機10は、カルマンフィルタの共分散行列P(k)の方位に関する標準偏差σΨに対する割合により、方位差分値dΨを評価する。カルマンフィルタの共分散行列P(k)は以下のように表される。なお、共分散行列P(k)は、予測ステップ後であればPe(k)であり、計測更新ステップ後であればPp(k)である。
Figure JPOXMLDOC01-appb-M000007
 車載機10は、共分散行列P(k)の第3行第3列の値「σ Ψ(k)」の平方根として標準偏差σΨを算出し、以下の評価式により方位差分値dΨの評価値EΨを算出する。なお、評価値EΨは、標準偏差σΨに対する方位差分値dΨの割合を示す。
Figure JPOXMLDOC01-appb-M000008
 評価値EΨが所定値よりも小さい場合、車載機10は方位差分値が大きくなった原因は上記の(D)であると判断する。一方、評価値EΨが所定値以上である場合、車載機10は、方位差分値が大きくなった原因は上記の(E)又は(F)であると判断し、方位差分値dΨを示す情報をサーバ装置20に送信する。
 図10は、地物の向き(方位)についての差分値評価処理のフローチャートである。この処理は、車載機10の制御部15が予め用意されたプログラムを実行することにより行われる。
 まず、制御部15は、ライダ2により地物31を計測し、式(7)により地物の方位計測値Ψを算出する(ステップS31)。次に、制御部15は、地図DB13からその地物31の方位情報Ψを取得する(ステップS32)。そして、制御部15は、式(8)により方位差分値dΨを算出し(ステップS33)、上記の式(10)により評価値EΨを算出する(ステップS34)。
 次に、制御部15は、評価値EΨを所定値と比較する(ステップS35)。評価値EΨが所定値未満である場合(ステップS35:No)、制御部15は、方位差分値が大きくなった原因は上記の(D)であると判定し、処理を終了する。
 一方、評価値EΨが所定値以上である場合(ステップS35:Yes)、制御部15は、方位差分値が大きくなった原因は上記の(E)又は(F)であると判定し、誤差情報をサーバ装置20へ送信する(ステップS36)。ここで、誤差情報は、そのときの日時情報、対象となる地物の地物ID、方位差分値dΨ、自車方位の標準偏差σΨを含む。なお、方位差分値dΨの代わりに方位計測値Ψを誤差情報に含めてもよい。その場合には、サーバ装置20は方位計測値Ψと、地図データに含まれる方位情報から方位差分値dΨを算出する。
 そして、制御部15は、処理を終了する。なお、サーバ装置20へ送信する誤差情報に日時情報を含めるのは、地物の環境変化などによって地物の実際のサイズが変化した場合に、その変化がいつから発生しているかを日時情報によって知ることができる点で重要だからである。
 このように、車載機10における差分値評価処理によれば、地物の方位差分値が大きくなっている原因が上記の(D)又は(E)である可能性があることが検出されると、そのときの誤差情報がサーバ装置20へ送信される。
 なお、上記の処理において、制御部15は、評価値EΨが所定値未満である場合、方位差分値が大きくなった原因は(D)であると判定し、評価値EΨが所定値以上である場合、方位差分値が大きくなった原因は(E)又は(F)であると判定しているが、方位差分値が大きくなった原因を(D)、(E)、(F)のいずれかであることを判定しなくてもよい。すなわち、制御部15は、評価値EΨを所定値と比較し(ステップS35)、評価値EΨが所定値未満である場合(ステップS35:No)に処理を終了し、評価値EΨが所定値以上である場合(ステップS35:Yes)に誤差情報をサーバ装置20へ送信(ステップS36)してもよい。
 次に、サーバ装置20により行われる地図修正処理について説明する。地物の方位についての地図修正処理は、基本的には図8に示す地物のサイズについての地図修正処理と同様である。まず、サーバ装置20は、複数の車両から誤差情報を取得する(ステップS41)。次に、サーバ装置20は、同一の地物について所定数以上の誤差情報を取得したか否かを判定する(ステップS42)。
 同一の地物について所定数以上の誤差情報を取得していない場合(ステップS42:No)、サーバ装置20は、車両側で差分値が大きくなった原因は(E)である、即ち、オクルージョンなどにより、たまたま差分値が大きくなったと判断し、処理を終了する。
 一方、同一の地物について所定数以上の誤差情報を取得した場合(ステップS42:Yes)、サーバ装置20は、車両側で差分値が大きくなった原因は(F)である、即ち、地図データ中の地物の方位情報と実際の地物の方位とが一致していないと判断する。そして、サーバ装置20は複数の車載機10から受信した誤差情報に含まれる方位差分値dΨに基づいて、重み付け統計処理により、地図データ中の地物の方位の修正量を示す修正用差分値を決定する(ステップS43)。具体的には、サーバ装置20は、車載機10から受信した誤差情報に含まれる自車方位の標準偏差σΨに基づく重み付けを行って差分値を統計処理する。例えば、標準偏差σΨが小さい誤差情報は精度が高いと判断して、その重みを大きくする。こうして、サーバ装置20は、修正用差分値を決定する。
 次に、サーバ装置20は、修正用差分値の算出過程において各差分値のばらつきが所定値以下であるか否かを判定する(ステップS44)。各差分値のばらつきが所定値以下である場合(ステップS44:Yes)、サーバ装置20は、修正用差分値を用いて、地図データにおけるその地物の方位を修正する(ステップS45)。こうして、複数の車両から得られた誤差情報に基づいて、地図データにおける地物の方位が修正される。ここで使用される修正用差分値は、複数の車載機10から取得した誤差情報に含まれる差分値を、自車方位の標準偏差σΨにより重み付け統計処理して求めているので、各車載機10における自車位置推定精度の影響を受けることなく地図データ中の地物の方位を修正することができる。
 一方、各差分値のばらつきが所定値以下でない場合(ステップS44:No)、地図データにおける地物の方位の修正量を正確に決定することが難しいので、サーバ装置20は、地図データにおけるその地物の適正度情報を低下させる(ステップS46)。即ち、サーバ装置20は、地図データにおけるその地物に対して測定対象として適正度が低い旨の情報を付加する。そして、処理は終了する。
 [変形例]
 以下、実施例に好適な変形例について説明する。以下の変形例は、組み合わせて実施例に適用してもよい。
 (変形例1)
 上記の実施例では、差分値を評価する差分値評価処理を車両1の車載機10側で行い、地図修正処理をサーバ装置20側で行っている。その代わりに、車載機10が全ての地物に関するデータをサーバ装置20へ送信し、サーバ装置20側で差分値評価処理及び地図修正処理を行うこととしてもよい。具体的には、車載機10は、評価値E、E、EΨによる評価を行うことなく、全ての地物に関する誤差情報をサーバ装置20へ送信する。サーバ装置20は、受信した誤差情報を利用してまず評価値E、E、EΨを算出し、それらが所定値を超える誤差情報について地図修正処理を実行すればよい。
 (変形例2)
 逆に、差分値評価処理及び地図修正処理を車両1の車載機10側で行うこととしてもよい。この場合には、車載機10は、まず差分値評価処理を実行し、誤差情報を生成して記憶部12に記憶しておく。車両1が同じ場所を複数回走行すると、同じ地物についての誤差情報が複数得られることになる。よって、車載機10は、記憶部12に記憶されている、同一の地物についての複数の誤差情報を利用して地図修正処理を行う。即ち、多数の車両から取得した誤差情報を使用する代わりに、自車の複数回の走行により得られた複数の誤差情報を利用する。こうして、車載機10は、地図DB13に記憶されている地物について、修正用差分値を用いて修正を行うか、その地物についての適正度情報を低下させる処理を行う。また、必要に応じて、そのような修正を行った地図データをサーバ装置20へ送信してもよい。
 (変形例3)
 上記実施例ではサーバ装置20は車載機10から誤差情報を収集しているが、車両が所定の地物を複数回計測した場合、車載機10は複数回分の計測値W、H、Ψについて重み付き平均値及び分散を算出し、分散値が小さい場合に誤差情報をサーバ装置20に送信してもよい。
 (i)地物のサイズ
 具体的に、地物のサイズに関しては、評価値E、Eが所定値より大きく、差分値が大きくなった原因が「(A)ライダの計測点数が少ないため、ライダの計測値に誤差がある。」に該当しない場合、車載機10は、N回算出した計測値W、Hに基づいて、重み付け平均値を算出する。すなわち、精度が良い時の幅W及び高さHの重み付けを大きく、精度が悪い時の幅W及び高さHの重み付けを小さくして計算する。
 具体的に、幅Wの重み付け平均は、幅W及びスキャン点間隔IWLを用いて以下の式(11)により算出され、高さHの重み付け平均値は、幅H及びスキャン点間隔IHLを用いて、以下の式(12)により算出される。
Figure JPOXMLDOC01-appb-M000009
 次に、車載機10は、算出された重み付け平均値に基づいて、以下の式(13)、(14)により、幅Wと高さHの分散を算出する。
Figure JPOXMLDOC01-appb-M000010
 この計算結果において、分散が大きければ、計測値W、Hにばらつきが多いことがわかるため、差分値が大きくなった原因は「(B)オクルージョンによる遮蔽、又は、他のオブジェクトの混入などがあり、ライダの計測値にずれがある。」の可能性が高いと判断し、車載機10はサーバ装置20に誤差情報を送信せずに処理を終了する。一方、分散が小さければ、計測値W、Hにばらつきが少ないことがわかるため、差分値が大きくなった原因は「(C)地図DBに記憶されている地物のサイズ情報が、実際のものとは異なっている。」の可能性が高いと判断し、車載機10は、重み付け平均値、及び、重み付け平均値の精度をサーバ装置20に送信する。
 ここで、幅Wの重み付け平均値の精度は以下の式(15)で算出され、高さHの重み付け平均値の精度は以下の式(16)で算出される。
Figure JPOXMLDOC01-appb-M000011
 なお、車載機10はN回分の計測値W、H、スキャン点間隔I、IHLをサーバ装置20に送信し、サーバ装置が上記の式を用いて重み付け平均値と分散の計算、分散による(B)と(C)の判定、重み付け平均値の精度の算出を行ってもよい。
 このような処理を車載機10で行うことにより、差分値が大きくなった原因が「(C)地図DBに記憶されている地物のサイズ情報が、実際のものとは異なっている。」である可能性の高いデータのみをサーバ装置20に送信するため、車載機10からサーバ装置20へのデータの送信頻度を少なくすることができ、サーバ装置20側での処理を軽減することができる。
 更に、上記の車載機10の処理を行うか否かをサーバ装置20が決定し、処理を行う場合はサーバ装置20が車載機10に対し上記処理を行う旨の要求情報を送信してもよい。具体的には、サーバ装置20は、最終更新日や地図情報の精度等に基づき、地図DB23に記憶されている地物の位置の精査が必要か否かを判断する。地物の位置の精査が必要な場合、サーバ装置20は、上記処理を行う旨の要求情報を送信せず、車載機10からサーバ装置20へ誤差情報を送信する設定とする。一方、地物の位置の精査が必要でない場合、サーバ装置20は、上記処理を行う旨の要求情報を車載機10へ送信する。これにより、地物ごとに精査の必要性に応じた処理が可能となる。
 (ii)地物の方位
 次に、地物の方位に関しては、評価値EΨが所定値より大きく、差分値が大きくなった原因が「(D)車載機10による自車方位の推定値の精度が悪いため、それを用いて計算した地物31の方位にずれが生じた。」に該当しない場合、車載機10は、N回算出した方位Ψ及び標準偏差σΨに基づいて、以下の式(17)により、重み付け平均値を算出する。すなわち、精度が良い時の方位Ψの重み付けを大きく、精度が悪い時の方位Ψの重み付けを小さくして計算する。
Figure JPOXMLDOC01-appb-M000012
 次に、車載機10は、算出された重み付け平均値に基づいて、以下の式(18)により、方位Ψの分散を算出する。
Figure JPOXMLDOC01-appb-M000013
 この計算結果において、分散が大きければ、方位Ψにばらつきが多いことがわかるため、差分値が大きくなった原因は「(E)オクルージョンによる遮蔽、又は、他のオブジェクトの混入などがあり、ライダの計測値にずれがある。」の可能性が高いと判断し、車載機10はサーバ装置20に誤差情報を送信せずに処理を終了する。一方、分散が小さければ、方位Ψにばらつきが少ないことがわかるため、差分値が大きくなった原因は「(F)地図DBに記憶されている地物の方位情報が、実際のものとは異なっている。」の可能性が高いと判断し、車載機10は、重み付け平均値、及び、重み付け平均値の精度をサーバ装置20に送信する。
 ここで、方位Ψの重み付け平均値の精度は以下の式(19)で算出される。
Figure JPOXMLDOC01-appb-M000014
 なお、車載機10はN回分の方位Ψ、標準偏差σΨをサーバ装置20に送信し、サーバ装置が上記の式を用いて重み付け平均値と分散の計算、分散による(E)と(F)の判定、重み付け平均値の精度の算出などを行ってもよい。
 このような処理を車載機10で行うことにより、差分値が大きくなった原因が「(F)地図DBに記憶されている地物の方位情報が、実際のものとは異なっている。」である可能性の高いデータのみをサーバ装置20に送信するため、車載機10からサーバ装置20へのデータの送信頻度を少なくすることができ、サーバ装置20側での処理を軽減することができる。
 更に、上記の車載機10の処理を行うか否かをサーバ装置20が決定し、処理を行う場合はサーバ装置20が車載機10に対し上記処理を行う旨の要求情報を送信してもよい。具体的には、サーバ装置20は、最終更新日や地図情報の精度等に基づき、地図DB23に記憶されている地物の位置の精査が必要か否かを判断する。地物の位置の精査が必要な場合、サーバ装置20は、上記処理を行う旨の要求情報を送信せず、車載機10からサーバ装置20へ誤差情報を送信する設定とする。一方、地物の位置の精査が必要でない場合、サーバ装置20は、上記処理を行う旨の要求情報を車載機10へ送信する。これにより、地物ごとに精査の必要性に応じた処理が可能となる。
 1 車載機
 2 ライダ
 3 ジャイロセンサ
 4 車速センサ
 5 GPS受信機
 10 車載器
 13 地図DB
 15、25 制御部
 20 サーバ装置
 23 地図DB

Claims (9)

  1.  移動体に搭載される端末装置であって、
     地図情報から取得される、地物のサイズ及び向きの少なくとも一方を示す第1情報を取得する第1取得手段と、
     計測部により計測される、前記地物のサイズ及び向きの少なくとも一方を示す第2情報を取得する第2取得手段と、
     前記第1情報と前記第2情報の差分値を用いて、前記第1情報と前記第2情報との間のサイズ及び向きの少なくとも一方の差分値を示す出力情報を出力する出力手段と、
     を備える端末装置。
  2.  前記差分値を用いて、前記第1情報と前記第2情報との間の所定値以上のずれを検出する検出手段を備え、
     前記出力手段は、前記所定値以上のずれが検出された場合に、前記出力情報を出力する請求項1に記載の端末装置。
  3.  前記第1情報及び前記第2情報は、前記地物のサイズを示す情報であり、
     前記検出手段は、前記地物のサイズと、前記計測部による計測点間隔とに基づいて、前記所定値以上のずれを検出する請求項2に記載の端末装置。
  4.  前記出力情報は、前記計測部による計測時刻と、前記地物の識別情報と、前記計測点間隔とを含む請求項3に記載の端末装置。
  5.  前記第1情報及び前記第2情報は、前記移動体に対する前記地物の向きを示す情報であり、
     前記検出手段は、前記差分値と、前記移動体の方位推定精度とに基づいて、前記所定値以上のずれを検出する請求項2に記載の端末装置。
  6.  前記出力情報は、前記計測部による計測時刻と、前記地物の識別情報と、前記方位推定精度とを含む請求項5に記載の端末装置。
  7.  移動体に搭載される端末装置により実行される情報処理方法であって、
     地図情報から取得される、地物のサイズ及び向きの少なくとも一方を示す第1情報を取得する第1取得工程と、
     計測部により計測される、前記地物のサイズ及び向きの少なくとも一方を示す第2情報を取得する第2取得工程と、
     前記第1情報と前記第2情報の差分値を用いて、前記第1情報と前記第2情報との間のサイズ及び向きの少なくとも一方の差分値を示す出力情報を出力する出力工程と、
     を備える情報処理方法。
  8.  移動体に搭載され、コンピュータを備える端末装置により実行されるプログラムであって、
     地図情報から取得される、地物のサイズ及び向きの少なくとも一方を示す第1情報を取得する第1取得手段、
     計測部により計測される、前記地物のサイズ及び向きの少なくとも一方を示す第2情報を取得する第2取得手段、
     前記第1情報と前記第2情報の差分値を用いて、前記第1情報と前記第2情報との間のサイズ及び向きの少なくとも一方の差分値を示す出力情報を出力する出力手段、
     として前記コンピュータを機能させるプログラム。
  9.  請求項8に記載のプログラムを記憶した記憶媒体。
PCT/JP2019/012328 2018-03-30 2019-03-25 端末装置、情報処理方法、プログラム、及び、記憶媒体 WO2019188886A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-067980 2018-03-30
JP2018067980 2018-03-30

Publications (1)

Publication Number Publication Date
WO2019188886A1 true WO2019188886A1 (ja) 2019-10-03

Family

ID=68061766

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/012328 WO2019188886A1 (ja) 2018-03-30 2019-03-25 端末装置、情報処理方法、プログラム、及び、記憶媒体

Country Status (1)

Country Link
WO (1) WO2019188886A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3822360A1 (fr) 2019-11-15 2021-05-19 Commissariat à l'énergie atomique et aux énergies alternatives Procédé de détermination de la sensibilité d'une souche bactérienne à l'égard d'un virus bactériophage
WO2021192826A1 (ja) * 2020-03-25 2021-09-30 株式会社デンソー 地図更新装置及び地図更新プログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007101690A (ja) * 2005-09-30 2007-04-19 Toyota Central Res & Dev Lab Inc 地図更新装置
JP2008051612A (ja) * 2006-08-24 2008-03-06 Hitachi Ltd ランドマーク認識システム
JP2011027595A (ja) * 2009-07-27 2011-02-10 Toyota Infotechnology Center Co Ltd 地図データ検証システム
JP2011511281A (ja) * 2008-02-04 2011-04-07 テレ アトラス ノース アメリカ インコーポレイテッド センサにより検出されたオブジェクトとマップマッチングする方法
JP2015108604A (ja) * 2013-12-06 2015-06-11 日立オートモティブシステムズ株式会社 車両位置推定システム,装置,方法、及び、カメラ装置
US20180005407A1 (en) * 2016-07-01 2018-01-04 Uber Technologies, Inc. Autonomous vehicle localization using passive image data

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007101690A (ja) * 2005-09-30 2007-04-19 Toyota Central Res & Dev Lab Inc 地図更新装置
JP2008051612A (ja) * 2006-08-24 2008-03-06 Hitachi Ltd ランドマーク認識システム
JP2011511281A (ja) * 2008-02-04 2011-04-07 テレ アトラス ノース アメリカ インコーポレイテッド センサにより検出されたオブジェクトとマップマッチングする方法
JP2011027595A (ja) * 2009-07-27 2011-02-10 Toyota Infotechnology Center Co Ltd 地図データ検証システム
JP2015108604A (ja) * 2013-12-06 2015-06-11 日立オートモティブシステムズ株式会社 車両位置推定システム,装置,方法、及び、カメラ装置
US20180005407A1 (en) * 2016-07-01 2018-01-04 Uber Technologies, Inc. Autonomous vehicle localization using passive image data

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KOJIMA, YOSHIKO ET AL.: "Ego-localization in outdoor environments using a laser radar and GPS", IEICE TECHNICAL REPORT, THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS, vol. 106, no. 181, 20 July 2006 (2006-07-20), pages 13 - 18, ISSN: 0913-5685 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3822360A1 (fr) 2019-11-15 2021-05-19 Commissariat à l'énergie atomique et aux énergies alternatives Procédé de détermination de la sensibilité d'une souche bactérienne à l'égard d'un virus bactériophage
WO2021192826A1 (ja) * 2020-03-25 2021-09-30 株式会社デンソー 地図更新装置及び地図更新プログラム
JP2021157241A (ja) * 2020-03-25 2021-10-07 株式会社デンソー 地図更新装置及び地図更新プログラム
JP7310674B2 (ja) 2020-03-25 2023-07-19 株式会社デンソー 地図更新装置及び地図更新プログラム

Similar Documents

Publication Publication Date Title
WO2018181974A1 (ja) 判定装置、判定方法、及び、プログラム
JP7155284B2 (ja) 計測精度算出装置、自己位置推定装置、制御方法、プログラム及び記憶媒体
WO2018212294A1 (ja) 自己位置推定装置、制御方法、プログラム及び記憶媒体
EP4071739A1 (en) Information processing device, control method, program, and storage medium
JP6968877B2 (ja) 自己位置推定装置、制御方法、プログラム及び記憶媒体
WO2018180245A1 (ja) 出力装置、制御方法、プログラム及び記憶媒体
JP2023164553A (ja) 位置推定装置、推定装置、制御方法、プログラム及び記憶媒体
WO2019188886A1 (ja) 端末装置、情報処理方法、プログラム、及び、記憶媒体
JP2019174191A (ja) データ構造、情報送信装置、制御方法、プログラム及び記憶媒体
WO2019188820A1 (ja) 情報送信装置、データ構造、制御方法、プログラム及び記憶媒体
JP2023076673A (ja) 情報処理装置、制御方法、プログラム及び記憶媒体
JP2020046411A (ja) データ構造、記憶装置、端末装置、サーバ装置、制御方法、プログラム及び記憶媒体
WO2019188874A1 (ja) データ構造、情報処理装置、及び地図データ生成装置
JP2019174675A (ja) データ構造、地図データ生成装置、制御方法、プログラム及び記憶媒体
JP2019174194A (ja) データ構造、情報処理装置、及び地図データ生成装置
US20220413150A1 (en) Information processing device, control method, program and storage medium
US11822009B2 (en) Self-position estimation device, self-position estimation method, program, and recording medium
WO2021112078A1 (ja) 情報処理装置、制御方法、プログラム及び記憶媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19774641

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 19774641

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP