WO2021065212A1 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
WO2021065212A1
WO2021065212A1 PCT/JP2020/030584 JP2020030584W WO2021065212A1 WO 2021065212 A1 WO2021065212 A1 WO 2021065212A1 JP 2020030584 W JP2020030584 W JP 2020030584W WO 2021065212 A1 WO2021065212 A1 WO 2021065212A1
Authority
WO
WIPO (PCT)
Prior art keywords
self
information processing
component
processing device
sensing data
Prior art date
Application number
PCT/JP2020/030584
Other languages
English (en)
French (fr)
Inventor
雅貴 豊浦
圭祐 津高
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2021550396A priority Critical patent/JPWO2021065212A1/ja
Priority to US17/763,347 priority patent/US20220334259A1/en
Publication of WO2021065212A1 publication Critical patent/WO2021065212A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions

Definitions

  • This technology relates to information processing devices, information processing methods and programs related to autonomous driving of moving objects such as automobiles and robots.
  • a 3D point cloud acquired by LiDAR (Light Detection and Ranging) or the like is used to match with a map prepared in advance, or a 3D point cloud is used. It is common to perform self-position identification by performing SLAM (Simultaneous Localization and Mapping) using SLAM. However, if the environment in which the moving body moves does not have a remarkable feature, it may not be possible to correctly match and identify the self-position. In addition, the wrong self-position may be identified even though the matching is completely established.
  • SLAM Simultaneous Localization and Mapping
  • Patent Document 1 describes a method for estimating the self-position of a robot in order to prevent the robot from falling into a situation where the accuracy of position estimation (position identification) that occurs when the environment in which the robot moves is not characteristic.
  • a self-position estimation ease parameter indicating the ease (difficulty) of self-position estimation due to the environment or terrain corresponding to each block of map data is calculated by simulation. , Present to the user. Based on the presented self-position estimation ease parameter, the user installs an obstacle in, for example, a corridor having no feature, and performs an action that facilitates self-position estimation.
  • Patent Document 1 it is not possible for the robot to determine in real time the situation where the accuracy of self-position identification deteriorates, and it is necessary to assume a situation where the accuracy deteriorates in advance by simulation or the like.
  • an object of the present technology is an information processing device, an information processing method, and an information processing method capable of continuously generating a self-position even in a featureless environment in which a moving body moves. Provide a program.
  • the information processing device includes a first self-position identification unit and an evaluation unit.
  • the first self-position identification unit identifies the first self-position of the moving body based on the first sensing data.
  • the evaluation unit evaluates whether or not each component of the identified first self-position is effective.
  • the component evaluated to be effective by the evaluation unit may be adopted to further include a self-position generation unit that generates the final self-position of the moving body.
  • a second self-position identification unit for identifying the second self-position of the moving body based on the second sensing data different from the first sensing data is further provided, and the self-position generation unit is provided by the evaluation unit.
  • the component determined to be ineffective may be replaced with the component of the second self-position identified by the second self-position identification unit to generate the final self-position of the moving body.
  • the first sensor that outputs the first sensing data and the second sensor that outputs the second sensing data may be different.
  • the second sensor may have higher robustness in a featureless environment than the first sensor.
  • the second sensor may be an internal sensor mounted on the moving body.
  • the first sensor may be a LiDAR (Light Detection and Ranging) mounted on the moving body.
  • the first self-position identification unit is based on the matching processing result of the point cloud of the surrounding environment of the moving body, which is the first sensing data, and the point cloud for matching acquired in advance.
  • the location may be identified.
  • the evaluation unit may evaluate whether or not each component of the first self-position is effective or not by using the matching processing result.
  • the evaluation unit may reject the component evaluated as ineffective.
  • the information processing device includes a first module, a second module, a third module, and a self-position generation unit.
  • the first module is effective for each component of the first self-position identification unit that identifies the first self-position of the moving body based on the first sensing data and the identified first self-position. It is provided with a first evaluation unit for evaluating whether or not it is.
  • the second module includes a second self-position identification unit that identifies the second self-position of the moving body based on the second sensing data.
  • the third module is effective for each component of the third self-position identification unit that identifies the third self-position of the moving body based on the third sensing data and the identified third self-position.
  • the self-position generation unit uses the evaluation results of the first evaluation unit and the third evaluation unit, the first self-position, the second self-position, and the third self-position. Generate the final self-position of the moving object.
  • the information processing device includes a second module, a first module, and a third module.
  • the second module includes a second self-position identification unit that identifies the second self-position of the moving object based on the second sensing data.
  • the first module is effective for each component of the first self-position identification unit that identifies the first self-position of the moving body based on the first sensing data and the identified first self-position.
  • Self-position generation that generates the self-position of the moving body using the first evaluation unit that evaluates the presence or absence, the evaluation result of the first evaluation unit, the first self-position, and the second self-position. It has a part and.
  • the third module is effective for each component of the third self-position identification unit that identifies the third self-position of the moving body based on the third sensing data and the identified third self-position.
  • the final of the moving body using the third evaluation unit for evaluating the presence or absence, the evaluation result of the third evaluation unit, the third self-position, and the self-position generated by the first module. It is provided with a self-position generation unit that generates a specific self-position.
  • the first sensor that outputs the first sensing data, the second sensor that outputs the second sensing data, and the third sensor that outputs the third sensing data may be different from each other. ..
  • the first sensor is a LiDAR (Light Detection and Ranging) mounted on the moving body
  • the second sensor is an internal sensor mounted on the moving body
  • the third sensor is the moving body. It may be a camera mounted on the body.
  • the information processing device of this technology when identifying the self-position of a moving body using sensing data from multiple sensors with different robustness to changes in the environment, the surrounding environment of the moving body is taken into consideration for each component. From which sensor the sensing data is adopted is determined. As a result, even if the moving body is placed in a featureless environment, the self-positioning of the moving body can be continuously generated.
  • a four-wheeled vehicle hereinafter, simply referred to as a vehicle
  • a control unit that performs a series of processes for self-position identification is provided in the vehicle, and the vehicle functions as an information processing device.
  • FIG. 1 is a block diagram showing a functional configuration of the vehicle 1. As shown in FIG. 1, the vehicle 1 has a sensor group 2, a control unit 3, and a motor 12.
  • the control unit 3 generates a self-position of the vehicle 1 according to various programs stored in the storage unit 20 described later, and controls the movement of the vehicle 1 using the generated self-position. Details will be described later.
  • the sensor group 2 acquires the state of the vehicle 1 itself (inside information) and the surrounding environment information of the vehicle 1.
  • the sensor group 2 includes an internal sensor 21 and a radar using a reverberation localization method such as LiDAR (Light Detection and Ranging) 22.
  • LiDAR Light Detection and Ranging
  • the inner world sensor 21 as the second sensor is a sensor for obtaining the state (inner world information) of the vehicle 1 itself.
  • the internal sensor 21 includes an inertial measurement unit (abbreviation: IMU), a wheel encoder, a gyro sensor, an acceleration sensor, and the like.
  • IMU inertial measurement unit
  • the output value of the wheel encoder as the second sensing data includes information such as the moving direction, the moving amount, and the rotation angle of the vehicle 1.
  • the output value of the IMU as the second sensing data includes information such as the three-dimensional angular velocity and acceleration of the vehicle 1.
  • the LiDAR 22 as the first sensor is a sensor for obtaining environmental information around the vehicle 1, and is installed in the vehicle 1 so as to be able to detect all directions, for example.
  • the LiDAR 22 is provided, for example, on the front nose, rear bumper, back door of the vehicle and above the windshield in the vehicle interior.
  • LiDAR22 is mainly used for detecting a preceding vehicle, a pedestrian, an obstacle, or the like.
  • an object such as a vehicle, a person, or a wall (hereinafter, may be referred to as a feature) existing in the environment around the own vehicle can be detected by using a sensor that recognizes the surroundings such as LiDAR22.
  • the LiDAR 22 can detect the distance, direction, etc.
  • the output value of LiDAR22 as the first sensing data is the data related to the reflected wave of the laser beam, and includes the distance information from the own vehicle 1 to the object. For example, from the output value of LiDAR mounted on the vehicle 1, the shape of a feature such as a wall around the vehicle 1 can be observed as a three-dimensional point cloud to detect an object.
  • the internal sensor 21 has a lower self-position identification accuracy than the LiDAR 22, but is more robust to environmental changes.
  • the second sensing data output from the internal sensor 21 is data that changes less due to changes in the surrounding environment than the first sensing data output from the LiDAR 22.
  • the second sensing data output from the internal sensor 21 has low self-position identification accuracy because errors are accumulated according to the mileage. For example, when it is desired to cause the vehicle to perform the same operation in the same environment for a long period of time, the second sensing data alone is insufficient for self-position identification.
  • the LiDAR 22 has higher self-position identification accuracy than the internal sensor 21, but has lower robustness.
  • the LiDAR 22 is generally mounted outside the vehicle. For example, when it rains or snows, the LiDAR22 may erroneously detect the distance to the object (feature) to be observed because the laser beam output from the LiDAR22 is reflected by the raindrops or snowdrops.
  • the LiDAR22 is mounted in the vehicle, the laser is attenuated by the glass, so it is difficult to detect the reflected light from the observed object.
  • the data obtained from LiDAR22 is easily affected by changes in the environment such as the influence of the weather.
  • the environment in which the vehicle 1 moves is a featureless environment
  • matching is established when the vehicle self-position is identified by the matching process between the three-dimensional point cloud observed by LiDAR22 and the three-dimensional point cloud to be matched.
  • erroneous self-position identification may be made.
  • the LiDAR 22 has a lower robustness than the internal sensor 21 in a featureless environment.
  • FIGS. 5 to 7 are schematic views illustrating self-position identification in an environment with features and in an environment with few features.
  • Figures 5 to 7 correspond to views of the road from above.
  • the horizontal plane is defined as the XY plane.
  • the X-axis and the Y-axis and Z-axis are orthogonal to each other.
  • the traveling direction of the vehicle is from left to right in the figure, and corresponds to the X-axis in the positive direction.
  • the "left and right" described below correspond to the left and right when the vehicle faces the traveling direction.
  • the self-position identification of the vehicle is performed by matching the three-dimensional point cloud observed by LiDAR and the three-dimensional point cloud of the matching target prepared in advance.
  • the self-position may be identified using the SLAM accumulation result.
  • matching is performed while changing the position and posture of the currently acquired point cloud.
  • the position where the matching degree exceeds a predetermined threshold value is identified as the self-position.
  • the self-position identification in an environment where matching is established at a plurality of locations, a situation may occur in which the self-position is incorrect even though the result can be obtained with a high matching rate.
  • FIGS. 5 (A) and 5 (B) show a three-dimensional point cloud of the matching target acquired and prepared in advance, or a three-dimensional point cloud of the matching target when the self-position could be detected in the past.
  • FIG. 5A shows a characteristic environment in which the shape of the road 84 is not linear, and the left and right walls 62 and 63 on both sides of the road 84 have curved shapes, respectively.
  • a reference numeral 36 is attached to the matching target three-dimensional point cloud indicating the left wall 62
  • a reference numeral 37 is attached to the matching target three-dimensional point cloud indicating the right wall 63.
  • the three-dimensional point cloud to be matched is a point cloud acquired when the vehicle is located at the position 50.
  • FIG. 5B shows an environment with few features, in which the shape of the road 85 is linear, and the left and right walls 64 and 65 on both sides of the road 85 extend linearly and are located in parallel.
  • a reference numeral 38 is attached to the matching target three-dimensional point cloud indicating the left wall 64
  • a reference numeral 39 is attached to the matching target three-dimensional point cloud indicating the right wall 65.
  • the three-dimensional point cloud to be matched is a point cloud acquired when the vehicle is located at the position 50.
  • reference numeral 50 indicates a self-position that has been acquired in advance or a self-position that has been identified in the past.
  • a map including a three-dimensional point cloud for matching is acquired in advance and stored in the map DB (database) 11 will be described.
  • FIG. 6 (A) shows the three-dimensional point clouds 51 and 52 observed by the LiDAR 22 mounted on the vehicle 1 traveling on the road 84 shown in FIG. 5 (A).
  • the three-dimensional point cloud 51 located on the left side has a linear shape
  • the three-dimensional point cloud 52 located on the right side has a curved shape.
  • FIG. 6B shows the three-dimensional point clouds 53 and 54 observed by the LiDAR 22 mounted on the vehicle 1 traveling on the road 85 shown in FIG. 5 (B).
  • the three-dimensional point cloud 53 located on the left side and the three-dimensional point cloud 54 located on the right side both have a linear shape.
  • matching target three-dimensional point cloud 5 is referred to as a "matching target three-dimensional point cloud”
  • the three-dimensional point cloud acquired by the LiDAR 22 mounted on the vehicle 1 is referred to as “matching target three-dimensional point cloud”. It may be referred to as "observed three-dimensional point cloud”.
  • FIG. 7 (A) shows the result of matching the observed three-dimensional point cloud with the matching target three-dimensional point cloud shown in each of FIGS. 5 (A) and 6 (A).
  • FIG. 7 (B) shows the result of matching the observed three-dimensional point cloud with the matching target three-dimensional point cloud shown in each of FIGS. 5 (B) and 6 (B).
  • the three-dimensional point clouds 36 to 39 to be matched are represented by thin solid lines
  • the observed point clouds 51 to 54 are represented by thick solid lines. Where the thick solid line is located, the fine solid line overlaps, and the fine solid line does not appear in the figure.
  • the traveling direction of the vehicle and the extending direction of the road 85 are parallel
  • the virtual broken line 60 is parallel to the extending direction of the road 85.
  • the matching coordinates are fixed at one place, so that the self-position of the vehicle 1 can be correctly identified.
  • the vehicles 1a and the vehicles 1b located on the broken line 60 and having different positions are matched.
  • all the vehicles located on the broken line 60 result in perfect matching, and the matching coordinates are not fixed at one place. Therefore, it may be erroneously detected that the vehicle 1 is stopped even though it is moving forward, or it may be erroneously detected that the vehicle 1 is moving forward even though it is stopped. In this way, even though the result can be obtained with a high matching rate during the matching process, erroneous self-position identification may be performed.
  • the "feature-free environment” refers to an environment in which the coordinates are not fixed in one place by the matching process as shown in the example shown in FIG. 7B, and matching is established in a plurality of places.
  • the surrounding environment of the vehicle 1 is taken into consideration, the sensing data from which sensor is adopted is determined for each component of the self-position, and the final self-position of the vehicle 1 is generated. Will be done.
  • the sensing data from which sensor is adopted is determined for each component of the self-position, and the final self-position of the vehicle 1 is generated.
  • the rotation component is uniquely determined.
  • the Y-axis component and the yaw-axis rotation component of the first self-position identified based on the output of LiDAR22 are considered to be effective, and the Y-axis component and the yaw-axis rotation component of the final self-position are considered to be effective.
  • Adopt as.
  • the X-axis component of the first self-position identified based on the output of LiDAR22 is regarded as invalid and is not adopted as the final X-axis component of the self-position and is rejected.
  • the second self-position X-axis component identified based on the output of the internal sensor 21 which is another sensor different from the LiDAR 22 is adopted, and the final self-position X-axis component is adopted. Generate the self-position of vehicle 1. Details will be described later.
  • the motor 12 is a drive unit that drives the wheels of the vehicle 1.
  • the motor 12 is driven based on the control signal generated by the motor control unit 10.
  • the control unit 3 includes a data acquisition unit 4, a first self-position identification unit 5, a second self-position identification unit 6, a LiDAR self-position identification evaluation unit 7, and a self-position generation unit 73. It has an obstacle detection unit 8, an action planning unit 9, a motor control unit 10, a map DB 11, and a storage unit 20.
  • the data acquisition unit 4 acquires the second sensing data output from the internal sensor 21 and the first sensing data output from the LiDAR 22.
  • the acquired first sensing data (data output from LiDAR) is output to the first self-position identification unit 5.
  • the acquired second sensing data (data output from the internal sensor) is output to the second self-position identification unit 6.
  • the second self-position identification unit 6 identifies the second self-position of the vehicle 1 based on the second sensing data (data output from the internal sensor) acquired by the data acquisition unit 4.
  • the second self-position identification result is output to the self-position generation unit 73.
  • the first self-position identification unit 5 identifies the first self-position of the vehicle 1 based on the first sensing data (data output from LiDAR) acquired by the data acquisition unit 4. More specifically, as described above with reference to FIGS. 5 to 7, the first self-position identification unit 5 has the three-dimensional point cloud observed by LiDAR 22 and the matching target 3 stored in the map DB 11. The first self-position of the vehicle 1 is identified by comprehensively matching the dimension point cloud with the search area. The matching processing result and the information of the first self-position are output to the LiDAR self-position identification evaluation unit 7.
  • the first self-position and the second self-position include an X-axis component, a Y-axis component, and a Z-axis component related to position information, as well as a roll-axis rotation component and pitch-axis rotation related to attitude information. Ingredients, yaw axis rotation component, etc. are included.
  • the self-position may be two-dimensionally expressed by using mainly the X-axis component and the Y-axis component as the position information and mainly using the yaw-axis rotation component as the posture information.
  • the first self-position identification unit 5 and the second self-position identification unit 6 each identify the self-position of the vehicle 1 using the sensing data output for each of the different sensors.
  • the LiDAR self-position identification evaluation unit 7 as an evaluation unit is a component of the first self-position based on the matching processing result performed when the first self-position identification unit 5 identifies the first self-position of the vehicle 1. Is evaluated for each component. Details will be described later.
  • the self-position generation unit 73 generates the final self-position of the vehicle 1 based on the evaluation result of the LiDAR self-position identification evaluation unit 7.
  • the self-position generation unit 73 adopts the first self-position component evaluated as effective by the matching result component analysis unit 72 described later of the LiDAR self-position identification evaluation unit 7 as the final self-position component of the vehicle 1. To do.
  • the self-position generation unit 73 rejects the component evaluated as invalid by the matching result component analysis unit 72 of the LiDAR self-position identification evaluation unit 7, and is identified based on the second sensing data output from the internal sensor 21.
  • the second self-positioning component is adopted as the final self-positioning component of the vehicle 1. If the matching itself is not established, the final self-position of the vehicle 1 becomes the same as the second self-position.
  • the obstacle detection unit 8 acquires obstacle information around the vehicle 1 by using the sensing data acquired by the data acquisition unit 4.
  • the action planning unit 9 generates a global path using the final self-position of the vehicle 1 generated by the self-position generation unit 73 and the map stored in the map DB 11. Further, the action planning unit 9 generates a target movement route (local path) of the vehicle 1 by using the global path and the obstacle information acquired by the obstacle detection unit 8.
  • the motor control unit 10 generates a control signal for the motor 12 based on the target movement path generated by the action planning unit 9.
  • the map DB 11 stores a map including a three-dimensional point cloud of the matching target used in the matching process executed by the first self-position identification unit 5.
  • the storage unit 20 stores various programs including a series of programs that generate a final self-position.
  • the LiDAR self-position identification evaluation unit 7 includes a high matching location extraction unit 71 and a matching result component analysis unit 72.
  • the high matching location extraction unit 71 extracts a location showing a high matching rate, that is, a high matching location, using the result of the matching process executed by the first self-position identification unit 5. Specifically, the high matching location extraction unit 71 acquires, for example, matching results at a plurality of locations, and extracts locations (high matching locations) showing a matching rate equal to or higher than the threshold value from the plurality of locations.
  • the threshold is preset. For example, as shown in FIG. 3A, in an environment where there is no feature that can be detected by LiDAR 22 around the vehicle 1, the matching process is not established and the matched portion becomes 0.
  • the matching result component analysis unit 72 has an X-axis component, a Y-axis component, a Z-axis component, and a roll-axis rotation of the first self-position. Whether or not it is effective is evaluated for each component, pitch axis rotation component, and yaw axis rotation component.
  • the first self-position component evaluated to be effective is adopted when the final self-position is generated by the self-position generation unit 73 in the subsequent stage.
  • the first self-position component evaluated as invalid (invalid) is rejected and is not adopted when the final self-position generation unit 73 in the subsequent stage generates the final self-position.
  • the second self-positioning component is adopted as the final self-positioning component.
  • dispersion can be used to evaluate whether or not each component is effective. In the evaluation of whether or not the component is effective, it is determined whether or not the component to be evaluated is uniquely determined.
  • the matching result component analysis unit 72 refers to the extracted plurality of high matching points with respect to the X-axis component, the Y-axis component, the Z-axis component, the roll-axis rotation component, the pitch-axis rotation component, and the yaw-axis.
  • the variance is calculated for each component of the rotating component.
  • the matching result component analysis unit 72 evaluates that the component is effective when the variance is less than a preset threshold. On the other hand, if the variance is greater than or equal to the threshold, the component is evaluated as invalid.
  • a general variance formula can be used to calculate the variance. Further, in each component, whether it is valid or invalid may be evaluated based on whether or not all the extracted high-matching portions are present within a predetermined range. For example, it may be evaluated whether or not it is effective depending on whether or not all the other high matching points are included in a predetermined range from one of the extracted high matching points.
  • the matching result component analysis unit 72 evaluates that there is no effective component.
  • FIG. 3 and 4 are schematic views illustrating various environmental examples in which the vehicle 1 is placed, and all correspond to a view when the vehicle 1 is viewed from above.
  • FIG. 3B is an example in which vehicles 13A to 13H are located around the vehicle 1.
  • the laser beam emitted from the LiDAR 22 may not reach the location indicating the point cloud to be matched.
  • Such an environment can be a featureless environment in which there are no features observable by LiDAR22 for use in the matching process for self-position identification.
  • the matching itself is not established, so that it is determined that there is no active ingredient.
  • the second self-position component identified by using the second sensing data from the internal sensor 21 is adopted for all the components of the final self-position of the vehicle 1.
  • FIG. 3C is a partial schematic view of the rotary intersection as viewed from above.
  • FIG. 3C is an example in which the vehicle 1 is curved and traveling along the island 15 having a circular shape at the center of the rotary intersection, and is an example of an environment in which the LiDAR 22 has few observable features.
  • Reference numeral 16 indicates a three-dimensional point cloud observed by LiDAR 22 of the vehicle 1.
  • the vehicle located on the line parallel to the curved portion of the island 15 by the matching process.
  • matching is also performed at the position of the vehicle 17 indicated by the broken line.
  • the matching between the observed three-dimensional point cloud and the matching target three-dimensional point cloud may have a high matching rate at a plurality of points.
  • a plurality of solutions exist for each of the X-axis component, the Y-axis component, and the yaw-axis rotation component in the matching process, and the matching result component analysis unit 72 finds the dispersion.
  • the self-position generation unit 73 identifies the final self-position of the vehicle 1 as the X-axis component, the Y-axis component, and the yaw-axis rotation component of the second self-position based on the output of the internal sensor 21.
  • An X-axis component, a Y-axis component, and a yaw-axis rotation component are adopted.
  • the roll axis rotation component and the pitch axis rotation component are uniquely determined, so that the matching result component analysis unit 72 can use the matching result component analysis unit 72.
  • the variance is below the threshold and is evaluated as valid.
  • the self-position generation unit 73 may adopt the first self-position roll axis rotation component and pitch axis rotation component as the final self-position roll axis rotation component and pitch axis rotation component.
  • FIG. 4A is an example of an environment in which the shape of the road 85 is straight and the left and right walls 64 and 65 on both sides of the road 85 are linearly extending in parallel with each other.
  • An example is shown in which the extending direction of the road 85 and the traveling direction of the vehicle 1 are parallel to each other.
  • a reference numeral 38 is attached to the matching target point group indicating the left wall 64 with respect to the traveling direction of the vehicle 1, and a reference numeral 39 is attached to the matching target point group indicating the right wall 65.
  • the thick line shows the three-dimensional point clouds 53 and 54 observed by the LiDAR 22 mounted on the vehicle 1.
  • the walls 64 and 65 which are the features to be matched, are sufficiently present, but their shapes are uniform with respect to the traveling direction of the vehicle 1.
  • the position is on a line parallel to the walls 64 and 65 by the matching process.
  • the matching is performed at the position of the vehicle 18 indicated by the broken line. Therefore, the matching between the observed three-dimensional point cloud and the matching target three-dimensional point cloud has a high matching rate at a plurality of points along the traveling direction.
  • the self-position generation unit 73 adopts the second self-position component identified based on the output of the internal sensor 21 as the X-axis component of the final self-position of the vehicle 1.
  • the first self-positioning component identified based on the output of LiDAR22 is adopted.
  • the roll axis rotation component and the pitch axis rotation component are uniquely determined, so that the matching result component analysis unit 72 can use the matching result component analysis unit 72.
  • the variance is below the threshold and is evaluated as valid.
  • the self-position generation unit 73 may adopt the first self-position roll axis rotation component and pitch axis rotation component as the final self-position roll axis rotation component and pitch axis rotation component.
  • FIG. 4B is a schematic view of the crossroads 74 viewed from above, and there are sufficient walls 32 to 35 as features to be matched, but the shape thereof is relative to the yaw direction when viewed from the center of the crossroads 74.
  • This is an example of an environment that has a repeating pattern.
  • the thick lines 42 to 45 show the three-dimensional point cloud observed by the LiDAR 22 mounted on the vehicle 1, respectively.
  • the matching result component analysis unit 72 evaluates that the variance is less than the threshold value and is effective. Then, the self-position generation unit 73 adopts the second self-position yaw axis rotation component identified based on the output of the internal sensor 21 as the final self-position yaw axis rotation component of the vehicle 1. ..
  • the X-axis component and the Y-axis component the X-axis component and the Y-axis component at the first self-position identified based on the output of LiDAR22 are adopted.
  • the roll axis rotation component and the pitch axis rotation component are uniquely determined, so that the matching result component analysis unit 72 can use the matching result component analysis unit 72.
  • the variance is below the threshold and is evaluated as valid.
  • the self-position generation unit 73 may adopt the first self-position roll axis rotation component and pitch axis rotation component as the final self-position roll axis rotation component and pitch axis rotation component.
  • the data acquisition unit 4 acquires the second sensing data output from the internal sensor 21 and the first sensing data output from the LiDAR 22 (S1).
  • the second sensing data is output to the second self-position identification unit 6.
  • the first sensing data is output to the first self-position identification unit 5.
  • the second self-position identification unit 6 identifies the second self-position of the vehicle 1 based on the second sensing data (S2).
  • the second self-position information is output to the LiDAR self-position identification evaluation unit 7.
  • the first self-position identification unit 5 performs matching processing between the observed three-dimensional point cloud, which is the first sensing data, and the matching target three-dimensional point cloud stored in the map DB 11, and the vehicle 1
  • the first self-position is identified (S3).
  • the matching processing result and the information of the first self-position are output to the LiDAR self-position identification evaluation unit 7.
  • the LiDAR self-position identification evaluation unit 7 extracts high matching points based on the matching processing result. Further, when a plurality of high matching points are extracted, the LiDAR self-position identification evaluation unit 7 evaluates whether or not each component is effective in the extracted plurality of high matching points (S4).
  • the self-position generation unit 73 generates the final self-position of the vehicle 1 based on the effective evaluation result for each component (S5). That is, the first self-positioning component is adopted for the component evaluated as effective, the second self-positioning component is adopted for the component evaluated as invalid, and the final self-positioning of the vehicle 1 is determined. Will be generated.
  • the self-position generation unit 73 outputs the generated final self-position to the action planning unit 9 (S6).
  • the environment in which the vehicle 1 is placed is taken into consideration, and the identification is performed using the sensing data output from the internal sensor 21 and the LiDAR 22 having different robustness.
  • Which of the second self-position and the first self-position is adopted is determined for each component. This makes it possible to continuously generate a self-position even in a featureless space.
  • FIG. 8 is a block diagram showing a functional configuration of the vehicle 81 according to the present embodiment.
  • the vehicle 81 has a sensor group 82, a control unit 83, and a motor 12.
  • the sensor group 82 includes an internal sensor 21, a LiDAR 22, a stereo camera (hereinafter, referred to as a camera) 23, and the like.
  • the control unit 83 identifies the self-position of the vehicle 81 and controls the movement of the vehicle 81 according to various programs stored in the storage unit 20. Details will be described later.
  • the camera 23 as the third sensor is a surrounding recognition sensor for obtaining environmental information around the vehicle 81.
  • the camera 23 is installed in the vehicle 81 so that it can detect all directions, for example.
  • the camera 23 acquires image data as a third sensing data which is ambient information.
  • the camera 23 is provided at at least one position of, for example, the front nose of the vehicle, the side mirrors, the rear bumper, the back door, and the upper part of the windshield in the vehicle interior.
  • the camera mounted on the front nose and the camera mounted on the upper part of the windshield in the vehicle interior mainly acquire an image of the front of the vehicle.
  • the camera provided in the side mirror mainly acquires an image of the side of the vehicle.
  • a camera mounted on the rear bumper or back door mainly acquires an image of the rear of the vehicle.
  • the camera provided on the upper part of the windshield in the vehicle interior is mainly used for detecting a preceding vehicle or a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • Object detection is mainly performed using the image data obtained from the camera 23.
  • the third self-position of the vehicle 81 can be identified by matching the image data acquired by the camera 23 with the matching image data stored in advance in the map DB 86 described later.
  • the sensing data acquired by the internal sensor 21, the LiDAR 22, and the camera 23 are used to generate the final self-position of the vehicle 81.
  • the environment in which the vehicle 81 is placed is taken into consideration, and the sensing data of the internal sensors 21, LiDAR 22, and the camera 23 having different robustness are used. Which of the identified second self-position, first self-position, and third self-position component is to be adopted is determined for each component.
  • a module including a second self-position identification unit 6 that identifies a second self-position using the second sensing data output from the internal sensor 21 is referred to as a second module B.
  • the first self-position identification unit 5 that identifies the first self-position using the first sensing data output from the LiDAR 22, the LiDAR self-position identification evaluation unit 7 as the first evaluation unit, and the self-position generation unit 73.
  • the module included with 893 is referred to as a third module C.
  • the second self-position is identified.
  • the information of the second self-position identified in the second module B is output to the first module A.
  • the first self-position is identified by the matching process using the first sensing data. Further, in the first module A, whether or not the component of the first self-position is effective for each component is evaluated based on the matching processing result, and the evaluation result, the information of the first self-position, and the first self-position are evaluated.
  • the self-position is generated by using the information of the self-position of 2.
  • the self-position information generated by the first module A is output to the third module C.
  • the third self-position is identified by the matching process using the third sensing data. Further, in the third module C, whether or not the component of the third self-position is effective for each component is evaluated based on the matching processing result, and the evaluation result, the information of the third self-position, and the third self-position are evaluated. The final self-position is generated using the self-position information generated in module A of 1.
  • a plurality of modules for which self-position identification results having different accuracy are calculated may be configured in multiple stages, and the final self-position may be generated by using the active ingredient.
  • these modules are arranged in series in the order of the second module B, the first module A, and the third module C.
  • the wheel encoder which is an internal sensor 21 having low self-position identification accuracy but high robustness, and the second sensing data output from the IMU are used.
  • the sensing data output from the internal sensor 21 is not easily affected by changes in the environment, and is highly robust even in a featureless space. On the other hand, cumulative error occurs.
  • the first sensing data output from LiDAR22 which has moderate self-position identification accuracy and robustness, is used.
  • LiDAR22 has higher accuracy than the internal sensor, but has low robustness in a featureless environment, is easily affected by weather, etc., and has lower robustness to environmental changes than the internal sensor. ..
  • the third sensing data output from the camera 23, which has high self-position identification accuracy but can be used only under specific environmental conditions, is used.
  • the camera 23 has low robustness in a featureless environment.
  • the degree of matching between the image features is evaluated between the image data observed by the camera 23 and the image data to be matched registered in advance on the map. The correspondence is done. Therefore, in self-position identification using image data, highly accurate self-position identification is possible when there are sufficiently characteristic features to be matched in the surrounding environment of the vehicle 81.
  • the self-position identification accuracy is low.
  • the camera 23 is a sensor capable of more robust observation than the LiDAR 22 because it is not easily affected by the weather under a specific environmental condition in which a characteristic feature is present.
  • the control unit is configured by providing the module so that the accuracy of the sensing data used becomes higher as the stage progresses.
  • the self-position component generated in the first module A is the final self-position. It is adopted as an ingredient of.
  • the first module A the component evaluated as valid among the first self-positions identified in the first module A is adopted, and the component evaluated as invalid is adopted as the component in the second self-position. And self-position is generated. Therefore, for the components evaluated as invalid in both the first module A and the third module C, the second self-positioning component is adopted as the final self-positioning component.
  • the module having high robustness is located at the uppermost stage in a featureless environment.
  • the control unit 83 includes a data acquisition unit 4, a first self-position identification unit 5, a second self-position identification unit 6, and a LiDAR self-position identification evaluation unit 7 as a first evaluation unit. , Self-position generation unit 73, obstacle detection unit 8, action planning unit 9, motor control unit 10, storage unit 20, map DB86, third self-position identification unit 88, and third evaluation unit. It has a camera self-position identification evaluation unit 89 and a self-position generation unit 893.
  • the data acquisition unit 4 acquires the second sensing data output from the internal sensor 21, the first sensing data output from the LiDAR 22, and the third sensing data output from the camera 23.
  • the acquired first sensing data (data output from LiDAR) is output to the first self-position identification unit 5.
  • the acquired second sensing data (data output from the internal sensor) is output to the second self-position identification unit 6.
  • the acquired third sensing data (data output from the camera) is output to the third self-position identification unit 88.
  • the third sensing data may be referred to as observed image data.
  • the map DB 86 contains a three-dimensional point cloud of the matching target used in the matching process executed by the first self-position identification unit 5 and image data of the matching target used in the matching process executed by the third self-position identification unit 88. Store the map including and.
  • the third self-position identification unit 88 identifies the third self-position of the vehicle 81 based on the third sensing data (data output from the camera) acquired by the data acquisition unit 4. Specifically, the third self-position identification unit 88 comprehensively performs matching processing between the observed image data and the image data to be matched stored in the map DB 86 within the search area, and the vehicle 81. Identify the third self-position of. The matching processing result and the information of the third self-position are output to the camera self-position identification evaluation unit 89.
  • the third self-position includes an X-axis component, a Y-axis component, a Z-axis component related to position information, a roll-axis rotation component related to attitude information, a pitch-axis rotation component, a yaw-axis rotation component, and the like.
  • the first self-position identification unit 5, the second self-position identification unit 6, and the third self-position identification unit 88 each identify the self-position of the vehicle 81 using the sensing data output for each different sensor.
  • the camera self-position identification evaluation unit 89 has a high matching location extraction unit 891 and a matching result component analysis unit 892.
  • the high matching location extraction unit 891 extracts a location showing a high matching rate, that is, a high matching location, using the matching processing result executed by the third self-position identification unit 88. Specifically, the high matching location extraction unit 891 acquires, for example, matching results at a plurality of locations, and extracts locations (high matching locations) showing a matching rate equal to or higher than the threshold value from the plurality of locations.
  • the threshold is preset. For example, when there is no characteristic feature around the vehicle 81, the matching process is not established and the matched portion becomes 0.
  • the matching result component analysis unit 892 has an X-axis component, a Y-axis component, a Z-axis component, and a roll-axis rotation at the third self-position. Whether or not it is effective is evaluated for each component, pitch axis rotation component, and yaw axis rotation component.
  • the third self-position component evaluated as effective is adopted at the time of self-position generation of the self-position generation unit 893 in the subsequent stage.
  • the component of the third self-position evaluated as ineffective (invalid) is rejected and is not adopted at the time of self-position generation of the self-position generation unit 893 in the subsequent stage.
  • the self-positioning component generated in the first module A is adopted as the final self-positioning component.
  • the method shown in the first embodiment can be used to evaluate whether or not each component is effective.
  • the matching result component analysis unit 892 evaluates that there is no effective component.
  • the self-position generation unit 893 generates the final self-position of the vehicle 81 based on the evaluation result of the matching result component analysis unit 892.
  • the self-position generation unit 893 adopts the third self-position component evaluated as effective by the matching result component analysis unit 892 as the final self-position component of the vehicle 81.
  • the self-position generation unit 893 rejects the third self-position component evaluated as invalid by the matching result component analysis unit 892, and the self-position component generated by the first module A is the final self-position component of the vehicle 81. Adopted as a component of self-position. As described above, the final self-position is generated.
  • the generated self-position is output to the action planning unit 9.
  • the environment in which the vehicle 81 is placed is taken into consideration, and the identification is made using the sensing data of the internal sensors 21, LiDAR 22, and the camera 23 having different robustness.
  • Which of the second self-position, the first self-position, and the third self-position is adopted is determined for each component. This makes it possible to continuously generate a self-position even in a featureless space.
  • FIG. 9 is a block diagram showing a functional configuration of the vehicle 91 in the present embodiment.
  • the self-position generation unit is provided in each of the first module A and the third module C, but in the present embodiment, the self-position generation unit is not provided in each module.
  • the self-position generation unit 96 is provided separately from each module. To the self-position generation unit 96, the information of the first self-position identified in the first module A, the matching processing result used in the first self-position identification, and the second identified in the second module B. The self-position information of, the third self-position information identified in the third module C, and the matching processing result used in the third self-position identification are output.
  • the vehicle 91 has a sensor group 82, a control unit 93, and a motor 12.
  • the sensor group 82 includes an internal sensor 21, a LiDAR 22, a camera 23, and the like.
  • the control unit 93 identifies the self-position of the vehicle 91 and controls the movement of the vehicle 91 according to various programs stored in the storage unit 20.
  • the environment in which the vehicle 91 is placed is taken into consideration, and the internal sensor 21, LiDAR 22, and the camera 23 having different robustness are each.
  • Which of the second self-position, the first self-position, and the third self-position identified by using the sensing data is adopted is determined for each component. This makes it possible to continuously generate a self-position even in a featureless space.
  • the module including the second self-position identification unit 6 that identifies the self-position using the second sensing data output from the internal sensor 21 is referred to as a second module B.
  • the module including the first self-position identification unit 5 and the LiDAR self-position identification evaluation unit 7 that identify the first self-position using the first sensing data output from the LiDAR 22 is referred to as the first module A.
  • a module including a third self-position identification unit 88 for identifying a third self-position using the third sensing data output from the camera 23 and a camera self-position identification evaluation unit 89 is referred to as a third module C.
  • the control unit 93 includes a data acquisition unit 4, a first self-position identification unit 5, a second self-position identification unit 6, a LiDAR self-position identification evaluation unit 7, an obstacle detection unit 8, and an action planning unit 9. , A motor control unit 10, a storage unit 20, a map DB 86, a third self-position identification unit 88, a camera self-position identification evaluation unit 89, and a self-position generation unit 96.
  • the information of the second self-position identified by the second self-position identification unit 6 is output to the self-position generation unit 96.
  • the effective evaluation result for each component of the first self-position evaluated by the LiDAR self-position identification evaluation unit 7 and the information of the first self-position identified by the first self-position identification unit 5 are the self-position generation unit 96. Is output to.
  • the effective evaluation result for each component of the third self-position evaluated by the camera self-position identification evaluation unit 89 and the information of the third self-position identified by the third self-position identification unit 88 are the self-position generation unit 96. Is output to.
  • the self-position generation unit 96 provides information on the first self-position and a second self-position based on the effective evaluation result of each component of the first self-position and the effective evaluation result of each component of the third self-position. And the information of the third self-position are integrated by, for example, a Kalman filter or the like to generate the final self-position.
  • the third self-position component is adopted as the final self-position component for the component evaluated as effective among the third self-position components.
  • the component of the first self-position is the final self-position. It is adopted as an ingredient of.
  • the component of the second self-position is adopted.
  • the generated self-position is output to the action planning unit 9.
  • the self-position result in which the information of the first self-position and the information of the second self-position are integrated based on the effective evaluation result of each component of the first self-position by the self-position generation unit 96. May be output to the third self-position identification unit 88.
  • the third self-position identification unit 88 may identify the third self-position by using the result of the integrated self-position as a hint. In this way, each self-position identification unit may be configured so that the previous self-position integration result is input as a hint from the self-position generation unit 96.
  • control units 3, 83, and 93 that perform a series of processes for generating the final self-position are provided in the vehicle that is a moving body, but the control units 3, 83, and 93 are provided on the cloud server. It may be provided in an external information processing device other than the mobile body.
  • a vehicle having four wheels as a moving body has been described as an example, but the present technology is not limited to this, and the present technology can be used for all other moving bodies. For example, it can be applied to moving objects such as motorcycles, differential two-wheeled robots, multi-legged robots, and drones that move in three-dimensional space.
  • the first sensing data is used to identify the first self-position, but in addition to this, the first self-position identified is used as a hint. You may identify the self-position of. In this way, when identifying the self-position based on the output of a certain sensor, the self-position may be identified by using the self-position identified based on the output of another sensor as a hint.
  • the self-position is identified by using the same self-position identification algorithm using the sensing data from the same sensor, but a plurality of modules having different algorithm parameters may be provided and these may be configured in multiple stages. That is, even if the same sensor and the same self-position identification algorithm are used, different self-position identification results can be obtained by changing the parameters (observation range, resolution, matching threshold value, matching target map) of the algorithm to change the performance. In some cases. Therefore, the same sensing data may be used, but a plurality of modules for calculating self-position identification results having different algorithm parameters and different accuracy may be provided, and the final self-position may be generated by using the active ingredient thereof.
  • locally preprocessed data may be used for each of the individual sensors provided in the sensor group, which is called processed data, or raw data (unprocessed data, raw data). You may use the so-called data that has not been preprocessed locally.
  • processing data it is processed locally in advance and unnecessary information such as noise is omitted, so that the burden on the subsequent processing is small and the processing can be performed at a relatively high speed.
  • raw data since no processing is performed locally in advance, data with a large amount of information is output as compared with the case where processed data is used. More accurate results can be calculated.
  • some of the plurality of sensors may be configured to output raw data as sensing data, and other sensors may be configured to output processed data for use.
  • a first self-position identification unit that identifies the first self-position of the moving body based on the first sensing data
  • An information processing device including an evaluation unit for evaluating whether or not each component of the identified first self-position is effective.
  • An information processing device further comprising a self-position generation unit that generates a final self-position of the moving body by adopting a component evaluated to be effective by the evaluation unit.
  • a second self-position identification unit for identifying the second self-position of the moving body based on the second sensing data different from the first sensing data is provided.
  • the self-position generation unit replaces the component determined to be ineffective by the evaluation unit with the component of the second self-position identified by the second self-position identification unit, and finally the moving body.
  • An information processing device that generates its own position.
  • the information processing device is an information processing device having higher robustness in a featureless environment than the first sensor.
  • the information processing device is an information processing device that is an internal sensor mounted on the moving body.
  • the information processing device is an information processing device that is a LiDAR (Light Detection and Ranging) mounted on the moving body.
  • LiDAR Light Detection and Ranging
  • the information processing device is based on the matching processing result of the point cloud of the surrounding environment of the moving body, which is the first sensing data, and the point cloud for matching acquired in advance, and the first self-position identification unit is described.
  • An information processing device that identifies the position.
  • the evaluation unit is an information processing device that evaluates whether or not each component of the first self-position is effective by using the matching processing result.
  • the information processing device according to any one of (1) to (9) above.
  • the above evaluation unit is an information processing device that rejects components that are evaluated as ineffective.
  • the first self-position identification unit that identifies the first self-position of the moving body based on the first sensing data, and the first that evaluates whether or not each component of the identified first self-position is effective.
  • a third module with a third evaluation unit, and Using the evaluation results of the first evaluation unit and the third evaluation unit, the first self-position, the second self-position, and the third self-position, the final self of the moving body.
  • An information processing device including a self-position generator that generates a position.
  • a second module having a second self-position identification unit that identifies the second self-position of the moving object based on the second sensing data, and Based on the first sensing data, the first self-position identification unit that identifies the first self-position of the moving body and whether or not each component of the identified first self-position is effective is evaluated.
  • a first evaluation unit includes an evaluation result of the first evaluation unit, a self-position generation unit that generates a self-position of the moving body using the first self-position and the second self-position.
  • the third self-position identification unit that identifies the third self-position of the moving body and whether or not each component of the identified third self-position is effective is evaluated.
  • the final self-position of the moving body is generated by using the third evaluation unit, the evaluation result of the third evaluation unit, the third self-position, and the self-position generated by the first module.
  • An information processing device including a self-position generator and a third module including the self-position generator.
  • the information processing device is a LiDAR (Light Detection and Ranging) mounted on the moving body
  • the second sensor is an internal sensor mounted on the moving body
  • the third sensor is the moving body.

Abstract

【課題】移動体が移動する環境に特徴がない無特徴環境下においても継続して自己位置を生成することができる情報処理装置、情報処理方法、及びプログラムを提供する。 【解決手段】情報処理装置は、第1の自己位置同定部と、評価部とを具備する。上記第1の自己位置同定部は、第1のセンシングデータに基づいて移動体の第1の自己位置を同定する。上記評価部は、同定された上記第1の自己位置の各成分について有効であるか否かを評価する。

Description

情報処理装置、情報処理方法、及びプログラム
 本技術は、自動車やロボット等の移動体の自律走行に係る情報処理装置、情報処理方法及びプログラムに関する。
 自動車やロボット等の移動体の自律走行では、LiDAR(Light Detection and Ranging)等により取得される3次元点群を用いて、予め用意している地図とのマッチングを行ったり、3次元点群を用いてSLAM(Simultaneous Localization and Mapping)を行うことによって、自己位置同定を行うのが一般的である。
 しかしながら、移動体が移動する環境が、顕著な特徴を有さない場合、正しくマッチングが行えず自己位置の同定ができないことがある。また、完全にマッチングが成立したにも関わらず誤った自己位置を同定することがある。
 特許文献1には、ロボットが移動する環境に特徴がない場合に生じる位置推定(位置同定)の精度が悪い状況に陥ることを防ぐためのロボットの自己位置推定方法が記載されている。
 特許文献1に記載される発明では、シミュレーションにより、地図データの各ブロックに対応する、環境や地形に起因する自己位置推定のしやすさ(困難性)を示す自己位置推定容易性パラメータを算出し、ユーザに提示する。ユーザは、提示された自己位置推定容易性パラメータに基づいて、例えば特徴のない廊下等に障害物を設置し、自己位置推定が容易になるような行為を行う。
特開2012-141662号公報
 特許文献1においては、自己位置同定の精度が悪くなる状況をリアルタイムにロボットが判断することができず、シミュレーション等によって事前に精度が悪くなる状況を想定する必要がある。
 以上のような事情に鑑み、本技術の目的は、移動体が移動する環境に特徴がない無特徴環境下においても継続して自己位置を生成することができる情報処理装置、情報処理方法、及びプログラムを提供する。
 本技術の一形態に係る情報処理装置は、第1自己位置同定部と、評価部とを具備する。
 上記第1自己位置同定部は、第1のセンシングデータに基づいて移動体の第1の自己位置を同定する。
 上記評価部は、同定された上記第1の自己位置の各成分について、有効であるか否かを評価する。
 このような構成によれば、同定された第1の自己位置の成分のうち有効なものを決定することができる。
 上記評価部によって有効であると評価された成分を採用して、上記移動体の最終的な自己位置を生成する自己位置生成部を更に具備してもよい。
 第1のセンシングデータとは異なる第2のセンシングデータに基づいて上記移動体の第2の自己位置を同定する第2自己位置同定部を更に具備し、上記自己位置生成部は、上記評価部によって有効でないと判断された成分を、上記第2自己位置同定部で同定された上記第2の自己位置の成分に置き換えて、上記移動体の最終的な自己位置を生成してもよい。
 上記第1のセンシングデータを出力する第1のセンサと、上記第2のセンシングデータを出力する第2のセンサとは異なってもよい。
 上記第2のセンサは、上記第1のセンサよりも無特徴環境下におけるロバスト性が高くてもよい。
 上記第2のセンサは、上記移動体に搭載される内界センサであってもよい。
 上記第1のセンサは、上記移動体に搭載されるLiDAR(Light Detection and Ranging)であってもよい。
 上記第1自己位置同定部は、上記第1のセンシングデータである上記移動体の周囲環境の点群と、予め取得されているマッチング用の点群とのマッチング処理結果により、上記第1の自己位置を同定してもよい。
 上記評価部は、上記マッチング処理結果を用いて上記第1の自己位置の各成分について有効であるか否かを評価してもよい。
 上記評価部は、有効でないと評価した成分は棄却してもよい。
 本技術の一形態に係る情報処理装置は、第1のモジュールと、第2のモジュールと、第3のモジュールと、自己位置生成部とを具備する。
 上記第1のモジュールは、第1のセンシングデータに基づいて移動体の第1の自己位置を同定する第1自己位置同定部と、同定された上記第1の自己位置の各成分について有効であるか否かを評価する第1評価部と、を備える。
 上記第2のモジュールは、第2のセンシングデータに基づいて上記移動体の第2の自己位置を同定する第2自己位置同定部を備える。
 上記第3のモジュールは、第3のセンシングデータに基づいて上記移動体の第3の自己位置を同定する第3自己位置同定部と、同定された上記第3の自己位置の各成分について有効であるか否かを評価する第3評価部と、を備える。
 上記自己位置生成部は、上記第1評価部及び上記第3評価部の評価結果と、上記第1の自己位置と、上記第2の自己位置と、上記第3の自己位置を用いて、上記移動体の最終的な自己位置を生成する。
 本技術の一形態に係る情報処理装置は、第2のモジュールと、第1のモジュールと、第3のモジュールとを具備する。
 上記第2のモジュールは、第2のセンシングデータに基づいて移動体の第2の自己位置を同定する第2自己位置同定部を備える。
 上記第1のモジュールは、第1のセンシングデータに基づいて上記移動体の第1の自己位置を同定する第1自己位置同定部と、同定された上記第1の自己位置の各成分について有効であるか否かを評価する第1評価部と、上記第1評価部の評価結果と上記第1の自己位置と上記第2の自己位置を用いて上記移動体の自己位置を生成する自己位置生成部と、を備える。
 上記第3のモジュールは、第3のセンシングデータに基づいて上記移動体の第3の自己位置を同定する第3自己位置同定部と、同定された上記第3の自己位置の各成分について有効であるか否かを評価する第3評価部と、上記第3評価部の評価結果と上記第3の自己位置と上記第1のモジュールで生成された自己位置とを用いて、上記移動体の最終的な自己位置を生成する自己位置生成部と、を備える。
 上記第1のセンシングデータを出力する第1のセンサと、上記第2のセンシングデータを出力する第2のセンサと、上記第3のセンシングデータを出力する第3のセンサとは互いに異なってもよい。
 上記第1のセンサは上記移動体に搭載されるLiDAR(Light Detection and Ranging)であり、上記第2のセンサは上記移動体に搭載される内界センサであり、上記第3のセンサは上記移動体に搭載されるカメラであってもよい。
 本技術の一形態に係る情報処理方法は、第1のセンシングデータに基づいて移動体の第1の自己位置を同定し、同定された上記第1の自己位置の各成分について、有効であるか否かを評価する。
 本技術の一形態に係るプログラムは、第1のセンシングデータに基づいて移動体の第1の自己位置を同定するステップと、同定された上記第1の自己位置の各成分について、有効であるか否かを評価するステップを含む処理を情報処理装置に実行させる。
本技術の第1の実施形態に係る情報処理装置の機能構成を示すブロック図である。 上記情報処理装置を用いた自己位置同定方法(情報処理方法)を説明するフロー図である。 移動体がおかれる環境例を説明する図である。 移動体がおかれる環境例を説明する図である。 マッチング対象の3次元点群の例を説明する図である。 移動体に搭載されるLiDARにより観測された3次元点群の例を説明する図である。 図5に示すマッチング対象の3次元点群と図6に示す観測された3次元点群とのマッチングを説明する図である。 第2の実施形態に係る情報処理装置の機能構成を示すブロック図である。 第3の実施形態に係る情報処理装置の機能構成を示すブロック部である。
 本技術の情報処理装置では、環境の変化に対してロバスト性が異なる複数のセンサからのセンシングデータを用いて移動体の自己位置を同定するにあたり、移動体の周囲環境が加味されて、成分毎に、どのセンサからのセンシングデータを採用するかが決定される。
 これにより、無特徴環境下に移動体がおかれても、継続して移動体の自己位置生成が可能となる。
 以下、実施形態を用いて詳細を説明する。以下では、移動体として四輪車両(以下、単に車両と称する。)を例にあげる。自己位置同定を行う一連の処理を行う制御部は車両に設けられ、車両が情報処理装置として機能する。
 <第1の実施形態>
 [車両(情報処理装置)の構成]
 図1を参照して本技術の一実施形態に係る情報処理装置としての車両1について説明する。図1は、車両1の機能構成を示すブロック図である。
 図1に示すように、車両1は、センサ群2と、制御部3と、モータ12と、を有する。
 制御部3は、後述する記憶部20に格納された各種プログラムにしたがって、車両1の自己位置を生成し、生成した自己位置を用いて車両1の動きを制御する。詳細については後述する。
 センサ群2は、車両1自体の状態(内界情報)及び車両1の周辺環境情報を取得する。
 センサ群2は、内界センサ21と、LiDAR(Light Detection and Ranging)22といった反響定位法を用いたレーダ等を有する。
 第2のセンサとしての内界センサ21は、車両1自体の状態(内界情報)を得るためのセンサである。
 内界センサ21には、慣性計測装置(Inertial Measurement Unit、略称:IMU)、車輪エンコーダ、ジャイロセンサ、加速度センサ等がある。ここでは、内界センサ21として、IMU、車輪エンコーダを例にあげて説明する。
 第2のセンシングデータとしての車輪エンコーダの出力値には、車両1の移動方向、移動量、回転角度等の情報が含まれる。第2のセンシングデータとしてのIMUの出力値には、車両1の3次元の角速度、加速度等の情報が含まれる。
 第1のセンサとしてのLiDAR22は、車両1の周囲の環境情報を得るためのセンサであり、例えば全方位を検知可能に車両1に設置される。
 LiDAR22は、例えば車両のフロントノーズ、リアバンパ、バックドア及び車室内のフロントガラスの上部に設けられる。LiDAR22は、主として先行車両、歩行者又は障害物等の検出に用いられる。
 車両1において、LiDAR22などの周囲を認識するセンサを利用して自車両周囲の環境に存在する車両、人物、壁といった物体(以下、地物と称する場合がある。)を検知することができる。LiDAR22ではレーザ光を用いて、自車両1から物体までの距離、方位等を検出することができる。検出には、パルス方式やFMCW(Frequency Modulated Continuous Wave)方式等が一般的に使われる。
 第1のセンシングデータとしてのLiDAR22の出力値はレーザ光の反射波に係るデータであり、自車両1から物体までの距離情報を含む。例えば、車両1に搭載されるLiDARの出力値から、車両1の周囲にある壁などの地物の形状を3次元点群として観測し、物体検出することができる。
 内界センサ21は、LiDAR22よりも、自己位置同定精度は低いが、環境変化に対するロバスト性が高い。
 内界センサ21から出力される第2のセンシングデータは、LiDAR22から出力される第1のセンシングデータよりも周囲の環境変化による変化が少ないデータである。その一方で、内界センサ21から出力される第2のセンシングデータは、走行距離に従って誤差が蓄積されるため、自己位置同定精度が低い。例えば長期間同じ環境で同じ動作を車両に実行させたい場合には、第2のセンシングデータだけでは自己位置同定に不十分となる。
 LiDAR22は、内界センサ21よりも自己位置同定精度は高いが、ロバスト性が低い。
 LiDAR22は、一般に車外に搭載される。LiDAR22は、例えば雨や雪が降った場合、LiDAR22から出力されたレーザ光が雨粒や雪粒に反射し、観測したい対象物(地物)との距離を誤検出してしまうことがある。尚、LiDAR22を車内に搭載すると、レーザがガラスで減衰してしまうため、観測した対象物からの反射光を検出することが難しい。
 このように、LiDAR22から得られるデータは、天候の影響等の環境の変化に影響されやすい。
 更に、車両1が移動する環境が無特徴環境である場合、LiDAR22によって観測された3次元点群とマッチング対象の3次元点群とのマッチング処理により車両の自己位置同定をする際、マッチングが成立したにも関わらず、誤った自己位置同定がなされる場合がある。このように、LiDAR22は、無特徴環境下におけるロバスト性が内界センサ21よりも低い。
 以下、無特徴環境下において、マッチングが成立したにも関わらず、誤った自己位置同定がなされる例を図5~7を用いて説明する。
 図5~7は、特徴がある環境下と特徴が少ない環境下それぞれでの自己位置同定について説明する模式図である。図5~7は、いずれも道路を上方からみた図に相当する。
 尚、本明細書において、水平面をXY平面とする。X軸とY軸及びZ軸は相互に直交する。
 図5~7に示す例では、車両の走行方向は図上左から右にむかう方向であり、正方向のX軸に対応する。以下で説明する「左右」は車両が走行方向を向いたときの左右に対応する。
 ここで、車両の自己位置同定は、LiDARで観測された3次元点群と予め準備したマッチング対象の3次元点群とをマッチング処理することにより行われる。尚、SLAM蓄積結果を用いて自己位置を同定してもよい。この場合、過去に自己位置を検出できた位置を基点に、現在取得できている点群の位置や姿勢を変更しながらマッチングをとっていく。そして、最終的に、マッチングの一致度が予め定められた閾値を上回った位置を自己位置として同定する。
 自己位置同定において、複数の箇所でマッチングが成立する様な環境では、高いマッチング率で結果が取得できたにもかかわらず、自己位置が誤っているという事態が発生する場合がある。
 図5(A)及び(B)は、予め取得し準備したマッチング対象の3次元点群、又は、過去に自己位置を検出できたときのマッチング対象の3次元点群を示す。
 図5(A)は、道路84の形状が直線状でなく、道路84の両側にある左右の壁62、63がそれぞれ曲がった形状を有する、特徴がある環境を示す。左側の壁62を示すマッチング対象の3次元点群に符号36を付し、右側の壁63を示すマッチング対象の3次元点群に符号37を付す。マッチング対象の3次元点群は、車両が位置50に位置した場合に取得される点群である。
 図5(B)は、道路85の形状が直線状で、道路85の両側にある左右の壁64、65が直線状に延在して平行に位置する、特徴の少ない環境下を示す。左側の壁64を示すマッチング対象の3次元点群に符号38を付し、右側の壁65を示すマッチング対象の3次元点群に符号39を付す。マッチング対象の3次元点群は、車両が位置50に位置した場合に取得される点群である。
 図5において、符号50は、予め取得されている自己位置、又は、過去に同定できた自己位置を示す。尚、本実施形態では、マッチング用の3次元点群を含む地図が予め取得され地図DB(データベース)11に格納されている例をあげて説明する。
 図6(A)は、図5(A)に示す道路84を走行した車両1に搭載されるLiDAR22で観測された3次元点群51、52を示す。図6(A)に示す例では、左側に位置する3次元点群51は直線状を有し、右側に位置する3次元点群52は曲がった形状を有している。
 図6(B)は、図5(B)に示す道路85を走行した車両1に搭載されるLiDAR22で観測された3次元点群53、54を示す。図6(B)に示す例では、左側に位置する3次元点群53及び右側に位置する3次元点群54は、いずれも直線形状を有している。
 尚、図5に示すマッチング処理時にマッチングの対象となる3次元点群を「マッチング対象の3次元点群」と称するのに対し、車両1に搭載されるLiDAR22が取得する3次元点群を「観測された3次元点群」と称して説明する場合がある。
 図7(A)は、図5(A)及び図6(A)それぞれに示されるマッチング対象の3次元点群と観測された3次元点群をマッチングした結果を示す。図7(B)は、図5(B)及び図6(B)それぞれに示されるマッチング対象の3次元点群と観測された3次元点群をマッチングした結果を示す。
 図7(A)及び(B)において、マッチング対象の3次元点群36~39を細実線、観測された点群51~54を太実線で表している。太実線が位置する箇所では、細実線が重なっており、細実線は図上現れていない。図7(B)において、車両の走行方向と道路85の延在方向は平行となっており、仮想の破線60は道路85の延在する方向と平行となっている。
 図7(A)に示すように、特徴のある環境下では、マッチングする座標が一箇所に定まるため、車両1の自己位置が正しく同定され得る。
 一方、図7(B)に示すように、特徴の少ない環境下では、破線60上に位置する互いに位置が異なる車両1aも車両1bにおいてもマッチングすることになる。図7(B)に示す例では、破線60上に位置する車両は全て完全にマッチングする結果となり、マッチングする座標が一箇所に定まらない。そのため、車両1が前進しているのにもかかわらず停止していると誤検出されたり、停止しているのに前進していると誤検出される場合がある。このように、マッチング処理時に高いマッチング率で結果が取得できたにもかかわらず、誤った自己位置同定がなされることがある。
 尚、明細書において、「無特徴環境」とは、図7(B)に示す例のようなマッチング処理で座標が1カ所に定まらず、複数の箇所でマッチングが成立する様な環境をいう。
 これに対し、本技術では、車両1の周囲環境が加味されて、自己位置の成分毎に、どのセンサからのセンシングデータを採用するかが決定されて、車両1の最終的な自己位置が生成される。
 具体的には、図7(B)に示す例では、車両の最終的な自己位置を同定するにあたり、マッチング処理ではX軸成分における解が複数存在することになるが、Y軸成分及びヨー軸回転成分は一意に定まる。
 このよう場合では、LiDAR22の出力を基に同定された第1の自己位置のY軸成分及びヨー軸回転成分については、有効であるとして、最終的な自己位置のY軸成分及びヨー軸回転成分として採用する。
 一方、LiDAR22の出力を基に同定された第1の自己位置のX軸成分については、無効であるとして、最終的な自己位置のX軸成分としては採用せず、棄却する。そして、最終的な自己位置のX軸成分として、LiDAR22とは異なる他のセンサである内界センサ21の出力を基に同定された第2の自己位置のX軸成分を採用し、最終的な車両1の自己位置を生成する。
 詳細については後述する。
 モータ12は、車両1の車輪を駆動する駆動部である。モータ12は、モータ制御部10で生成された制御信号に基づいて駆動する。
 (制御部の構成)
 図1に示すように、制御部3は、データ取得部4と、第1自己位置同定部5と、第2自己位置同定部6と、LiDAR自己位置同定評価部7と、自己位置生成部73と、障害物検出部8と、行動計画部9と、モータ制御部10と、地図DB11と、記憶部20と、を有する。
 データ取得部4は、内界センサ21から出力された第2のセンシングデータと、LiDAR22から出力された第1のセンシングデータと、を取得する。
 取得された第1のセンシングデータ(LiDARから出力されたデータ)は、第1自己位置同定部5へ出力される。
 取得された第2のセンシングデータ(内界センサから出力されたデータ)は、第2自己位置同定部6へ出力される。
 第2自己位置同定部6は、データ取得部4で取得された第2のセンシングデータ(内界センサから出力されたデータ)に基づいて車両1の第2の自己位置を同定する。第2の自己位置の同定結果は、自己位置生成部73へ出力される。
 第1自己位置同定部5は、データ取得部4で取得された第1のセンシングデータ(LiDARから出力されたデータ)に基づいて車両1の第1の自己位置を同定する。
 より詳細には、上記で図5~7を用いて説明したように、第1自己位置同定部5は、LiDAR22で観測された3次元点群と、地図DB11に格納されているマッチング対象の3次元点群とを、探索領域内で網羅的にマッチング処理して、車両1の第1の自己位置を同定する。
 マッチング処理結果及び第1の自己位置の情報は、LiDAR自己位置同定評価部7に出力される。
 第1の自己位置及び第2の自己位置には、位置情報に係るX軸成分、Y軸成分、Z軸成分の他、姿勢情報に係るロール(roll)軸回転成分、ピッチ(pitch)軸回転成分、ヨー(yaw)軸回転成分等が含まれる。
 尚、地上を走行する車両において、位置情報として主にX軸成分、Y軸成分を用い、姿勢情報として主にヨー軸回転成分を用いて、2次元的に自己位置を表してもよい。
 第1自己位置同定部5及び第2自己位置同定部6では、それぞれ、異なるセンサ毎に出力されたセンシングデータを用いて車両1の自己位置が同定される。
 評価部としてのLiDAR自己位置同定評価部7は、第1自己位置同定部5で車両1の第1の自己位置を同定するにあたり行われたマッチング処理結果に基づいて、第1の自己位置の成分を、成分毎に有効か否かを評価する。詳細については後述する。
 自己位置生成部73は、LiDAR自己位置同定評価部7の評価結果に基づいて、最終的な車両1の自己位置を生成する。
 自己位置生成部73は、LiDAR自己位置同定評価部7の後述するマッチング結果成分分析部72で有効と評価された第1の自己位置の成分を、車両1の最終的な自己位置の成分として採用する。
 自己位置生成部73は、LiDAR自己位置同定評価部7のマッチング結果成分分析部72で無効と評価された成分を棄却し、内界センサ21から出力された第2のセンシングデータに基づいて同定された第2の自己位置の成分を車両1の最終的な自己位置の成分として採用する。
 マッチング自体が成立しなかった場合、車両1の最終的な自己位置は、第2の自己位置と同じとなる。
 障害物検出部8は、データ取得部4で取得されたセンシングデータを用いて、車両1の周辺の障害物情報を取得する。
 行動計画部9は、自己位置生成部73で生成された車両1の最終的な自己位置と、地図DB11に格納されている地図を用いてグローバルパスを生成する。更に、行動計画部9は、このグローバルパスと障害物検出部8で取得した障害物情報を用いて車両1の目標移動経路(ローカルパス)を生成する。
 モータ制御部10は、行動計画部9で生成された目標移動経路に基づいてモータ12の制御信号を生成する。
 地図DB11は、第1自己位置同定部5で実行されるマッチング処理に用いられるマッチング対象の3次元点群を含む地図を格納する。
 記憶部20は、最終的な自己位置を生成する一連のプログラムを含む各種プログラムを格納する。
 (自己位置同定評価部の構成)
 図1に示すように、LiDAR自己位置同定評価部7は、高マッチング箇所抽出部71と、マッチング結果成分分析部72と、を有する。
 高マッチング箇所抽出部71は、第1自己位置同定部5で実行されたマッチング処理の結果を用いて、高いマッチング率を示した箇所、すなわち、高マッチング箇所を抽出する。
 具体的には、高マッチング箇所抽出部71では、例えば、複数箇所でマッチングされた結果が取得され、この複数箇所から閾値以上のマッチング率を示す箇所(高マッチング箇所)が抽出される。閾値は、予め設定される。
 尚、例えば、図3(A)に示すように、車両1の周囲にLiDAR22で検出できる地物が存在しないような環境では、マッチング処理が成立せず、マッチングされた箇所は0となる。
 マッチング結果成分分析部72は、高マッチング箇所抽出部71で抽出された高マッチング箇所が複数存在している場合、第1の自己位置のX軸成分、Y軸成分、Z軸成分、ロール軸回転成分、ピッチ軸回転成分、及び、ヨー軸回転成分の成分毎に、有効か否かを評価する。
 有効と評価された第1の自己位置の成分は、後段の自己位置生成部73の最終的な自己位置の生成時に採用される。
 有効でない(無効)と評価された第1の自己位置の成分は、棄却され、後段の自己位置生成部73の最終的な自己位置の生成時には採用されない。代わりとして、第2の自己位置の成分が、最終的な自己位置の成分として採用される。
 各成分が有効か否かの評価には、例えば分散を用いることができる。成分の有効か否かの評価では、評価対象の成分が一意に定まるかが判定される。
 分散を用いて評価する場合、マッチング結果成分分析部72は、抽出された複数の高マッチング箇所について、X軸成分、Y軸成分、Z軸成分、ロール軸回転成分、ピッチ軸回転成分、ヨー軸回転成分の成分毎に、分散を算出する。
 マッチング結果成分分析部72は、分散が予め設定された閾値未満である場合、その成分は有効であると評価する。一方、分散が閾値以上である場合、その成分は無効であると評価する。
 分散の算出には一般的な分散式を用いることができる。
 また、各成分において、ある所定の範囲内に、抽出された複数の高マッチング箇所が全て存在するか否かで、有効か無効かを評価してもよい。例えば、抽出された複数の高マッチング箇所のうちの1つの高マッチング箇所から所定の範囲内に、他の全ての高マッチング箇所が含まれるか否かによって有効か否かを評価してもよい。
 マッチング結果が0でマッチング自体が成立しなかった場合、マッチング結果成分分析部72は、有効な成分はないと評価する。
 このように、LiDAR22の出力に基づいて推定された第1の自己位置の各成分を、マッチング処理結果を用いてその有効性を評価することにより、自己位置同定の精度が悪くなる無特徴環境をリアルタイムに判断することができる。従って、シミュレーション等によって事前に精度が悪くなる状況を想定する必要がない。
 また、例えば、同じ無特徴環境であっても、環境に応じて有効な成分が異なる場合がある。本技術では、成分毎に第1の自己位置の成分の有効性が評価され、有効な成分においては、第2の自己位置よりも精度の高い第1の自己位置の成分が採用されて最終的な自己位置が生成される。これにより、無特徴環境下であっても、比較的精度が高い自己位置を生成することができ、環境が変化しても継続した車両の自己位置生成が可能となる。
 尚、高精度のマッチングが行われていないと判定される場合は、車両1の運転者にエラーを通知し、例えば、自己位置生成に関する処理を停止し、自己位置同定に基づく自律走行システムを停止するようにしてもよい。
 [自己位置生成例]
 次に具体的な環境例をあげ、自己位置生成例について説明する。
 図3及び4は、車両1がおかれる様々な環境例を説明する模式図であり、いずれも車両1を上方からみたときの図に相当する。
 (第1例)
 上述したように、図3(A)に示す、車両1の周囲にLiDAR22で観測できる地物が存在しない環境例では、マッチング処理が成立せず、マッチングされた箇所は0となる。
 このような周囲に地物が乏しく、マッチングするほどの点群が得られない無特徴環境例では、マッチング自体が成立しないため、有効成分はないと判定される。
 この場合、車両1の最終的な自己位置の全ての成分に、内界センサ21からの第2のセンシングデータを用いて同定された第2の自己位置の成分が採用される。
 (第2例)
 図3(B)は車両1の周囲に車両13A~13Hが位置する例である。このような環境例では、車両1に搭載されるLiDAR22から出力される第1のセンシングデータとして周囲の車両13A~13Hの一部を示す3次元点群(観測された3次元点群)14A~14Hが得られる。しかし、マッチング対象の点群を示す箇所にLiDAR22から照射されるレーザ光が届かない場合がある。このような環境は、自己位置同定のマッチング処理に用いるためのLiDAR22で観測できる地物が存在しない無特徴環境となり得る。
 このような、周囲を動物体に囲まれ、自己位置を同定するに十分な静的な地物がLiDAR22によって観測できない環境例では、マッチング自体が成立しないため、有効成分はないと判定される。
 この場合、車両1の最終的な自己位置の全ての成分に、内界センサ21からの第2のセンシングデータを用いて同定された第2の自己位置の成分が採用される。
 (第3例)
 図3(C)は、ロータリー交差点を上方からみた部分模式図である。図3(C)は、ロータリー交差点の中心の円形状を有する島15に沿って車両1が曲がって走行している例であり、LiDAR22が観測できる地物が少ない環境の例である。符号16は車両1のLiDAR22が観測した3次元点群を示す。
 図3(C)に示す例では、LiDAR22からの第1のセンシングデータに基づいて車両1の自己位置を同定したとき、マッチング処理で、島15のカーブ部分と平行に沿った線上に位置する車両1の他、破線で示す車両17の位置においてもマッチングすることになる。このように、観測された3次元点群とマッチング対象の3次元点群とのマッチングが複数の箇所で高いマッチング率となる場合がある。
 この例では、車両1の自己位置を同定するにあたり、マッチング処理ではX軸成分、Y軸成分、ヨー軸回転成分それぞれにおいて解が複数存在することになり、マッチング結果成分分析部72では、分散が閾値以上となって、これらの成分は無効と評価される。そして、自己位置生成部73により、車両1の最終的な自己位置のX軸成分、Y軸成分、ヨー軸回転成分として、内界センサ21の出力に基づいて同定された第2の自己位置のX軸成分、Y軸成分、ヨー軸回転成分が採用される。
 尚、3次元的に自己位置を推定する場合であってLiDAR22が地面を観測することが可能な環境では、ロール軸回転成分、ピッチ軸回転成分は一意に定まるため、マッチング結果成分分析部72では、分散が閾値未満となって、有効であると評価される。そして、自己位置生成部73により、最終的な自己位置のロール軸回転成分及びピッチ軸回転成分として、第1の自己位置のロール軸回転成分及びピッチ軸回転成分が採用されてもよい。
 (第4例)
 図4(A)は、道路85の形状が直線状で、道路85の両側にある左右の壁64、65が直線状に互いに平行して延在して位置する環境例である。道路85が延在する方向と車両1の走行方向とが平行になっている例を示す。車両1の進行方向に対する左側の壁64を示すマッチング対象の点群に符号38を付し、右側の壁65を示すマッチング対象の点群に符号39を付す。図中、太線は車両1に搭載されるLiDAR22によって観測された3次元点群53及び54を示す。
 図4(A)に示す例では、マッチング対象となる地物である壁64、65が十分に存在するが、その形状が車両1の進行方向に対して一様となっている。
 図4(A)に示す例では、LiDAR22からの第1のセンシングデータに基づいて車両1の第1の自己位置を同定したとき、マッチング処理で、壁64、65に平行に沿った線上に位置する車両1の他、破線で示す車両18の位置においてもマッチングすることになる。従って、観測された3次元点群とマッチング対象の3次元点群とのマッチングが、進行方向に沿って複数の箇所で高いマッチング率となる。
 この例では、マッチング処理を用いて車両1の第1の自己位置を同定する際、マッチング処理ではX軸成分において解が複数存在することになり、マッチング結果成分分析部72では、分散が閾値以上となって、X軸成分は無効と評価される。一方、一意に定まるY軸成分及びヨー軸回転成分は、マッチング結果成分分析部72では分散が閾値未満となって、有効と評価される。そして、自己位置生成部73により、車両1の最終的な自己位置のX軸成分には、内界センサ21の出力に基づいて同定された第2の自己位置の成分が採用される。Y軸成分及びヨー軸回転成分には、LiDAR22の出力に基づいて同定された第1の自己位置の成分が採用される。
 尚、3次元的に自己位置を推定する場合であってLiDAR22が地面を観測することが可能な環境では、ロール軸回転成分、ピッチ軸回転成分は一意に定まるため、マッチング結果成分分析部72では、分散が閾値未満となって、有効であると評価される。そして、自己位置生成部73により、最終的な自己位置のロール軸回転成分及びピッチ軸回転成分として、第1の自己位置のロール軸回転成分及びピッチ軸回転成分が採用されてもよい。
 (第5例)
 図4(B)は、十字路74を上方からみた模式図であり、マッチング対象となる地物となる壁32~35が十分に存在するが、その形状が十字路74の中心からみてヨー方向に対して繰り返しパターンとなっている環境例である。図4(B)において、太線42~45は、それぞれ車両1に搭載されるLiDAR22によって観測された3次元点群を示す。
 図4(B)に示す例では、LiDAR22からの第1のセンシングデータに基づいて車両1の第1の自己位置を同定する際、マッチング処理で、車両1の他、破線で示す、負のX軸方向、正のY軸方向、負のY軸方向それぞれに向く車両19の位置においてもマッチングする。この場合、ヨー軸回転方向において4箇所で高いマッチング率となる。
 したがって、第1の自己位置のヨー軸回転成分は、マッチング結果成分分析部72では、分散が閾値以上となって、無効と評価される。一方、X軸成分及びY軸成分は一意に定まるため、マッチング結果成分分析部72では、分散が閾値未満となって、有効と評価される。そして、自己位置生成部73により、車両1の最終的な自己位置のヨー軸回転成分は、内界センサ21の出力に基づいて同定された第2の自己位置のヨー軸回転成分が採用される。X軸成分及びY軸成分は、LiDAR22の出力に基づいて同定された第1の自己位置のX軸成分及びY軸成分が採用される。
 尚、3次元的に自己位置を生成する場合であってLiDAR22が地面を観測することが可能な環境では、ロール軸回転成分、ピッチ軸回転成分は一意に定まるため、マッチング結果成分分析部72では、分散が閾値未満となって、有効であると評価される。そして、自己位置生成部73により、最終的な自己位置のロール軸回転成分及びピッチ軸回転成分として、第1の自己位置のロール軸回転成分及びピッチ軸回転成分が採用されてもよい。
 [自己位置生成方法]
 次に図2のフローに従って情報処理方法としての自己位置生成方法について説明する。
 自己位置生成処理が開始されると、データ取得部4により、内界センサ21から出力された第2のセンシングデータと、LiDAR22から出力された第1のセンシングデータが取得される(S1)。第2のセンシングデータは第2自己位置同定部6へ出力される。第1のセンシングデータは第1自己位置同定部5へ出力される。
 次に、第2自己位置同定部6により、第2のセンシングデータに基づいて車両1の第2の自己位置が同定される(S2)。第2の自己位置の情報は、LiDAR自己位置同定評価部7へ出力される。
 次に、第1自己位置同定部5により、第1のセンシングデータである観測された3次元点群と地図DB11に格納されているマッチング対象の3次元点群とがマッチング処理され、車両1の第1の自己位置が同定される(S3)。マッチング処理結果及び第1の自己位置の情報は、LiDAR自己位置同定評価部7へ出力される。
 次に、LiDAR自己位置同定評価部7により、マッチング処理結果に基づいて高マッチング箇所が抽出される。更に、複数の高マッチング箇所が抽出される場合、LiDAR自己位置同定評価部7により、抽出された複数の高マッチング箇所において、成分毎に有効か否かが評価される(S4)。
 次に、自己位置生成部73により、成分毎の有効評結果に基づいて、車両1の最終的な自己位置が生成される(S5)。すなわち、有効と評価された成分については第1の自己位置の成分が採用され、無効と評価された成分については第2の自己位置の成分が採用されて、車両1の最終的な自己位置が生成される。
 次に、自己位置生成部73により、生成された最終的な自己位置は行動計画部9に出力される(S6)。
 このように、車両1の最終的な自己位置を生成するにあたり、車両1がおかれる環境が加味されて、ロバスト性が異なる内界センサ21とLiDAR22それぞれから出力されるセンシングデータを用いて同定された第2の自己位置、第1の自己位置のうちどの自己位置の成分を採用するかが成分毎に決定される。
 これにより、無特徴空間においても自己位置を継続して生成することが可能となる。
 <第2実施形態>
 本実施形態では、センサとしてカメラを更に用いて自己位置同定をする場合を例にあげ、図8を用いて説明する。第1実施形態と同様の構成については同様の符号を付し、説明を省略する場合がある。図8は、本実施形態における車両81の機能構成を示すブロック図である。
 図8に示すように、車両81は、センサ群82と、制御部83と、モータ12と、を有する。
 センサ群82は、内界センサ21と、LiDAR22と、ステレオカメラ(以下、カメラと称する。)23等を有する。
 制御部83は、記憶部20に格納された各種プログラムにしたがって、車両81の自己位置を同定し、車両81の動きを制御する。詳細については後述する。
 第3のセンサとしてのカメラ23は、車両81の周囲の環境情報を得るための周囲認識センサである。カメラ23は、例えば全方位を検知可能に車両81に設置される。カメラ23は周囲情報となる第3のセンシングデータとしての画像データを取得する。
 カメラ23は、例えば車両のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等のうちの少なくとも一つの位置に設けられる。フロントノーズに備えられるカメラ及び車室内のフロントガラスの上部に備えられるカメラは、主として車両の前方の画像を取得する。サイドミラーに備えられるカメラは、主として車両の側方の画像を取得する。リアバンパ又はバックドアに備えられるカメラは、主として車両の後方の画像を取得する。車室内のフロントガラスの上部に備えられるカメラは、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 カメラ23から得られる画像データを用いて主に物体検出が行われる。カメラ23で取得された画像データと、後述する地図DB86に予め格納されているマッチング用の画像データとをマッチング処理して車両81の第3の自己位置を同定することができる。
 本実施形態では、車両81の最終的な自己位置を生成するにあたり、内界センサ21と、LiDAR22と、カメラ23それぞれで取得されるセンシングデータが用いられる。本実施形態では、車両1の最終的な自己位置が生成される際、車両81がおかれる環境が加味されて、ロバスト性が異なる内界センサ21、LiDAR22、カメラ23それぞれのセンシングデータを用いて同定された第2の自己位置、第1の自己位置、第3の自己位置のうちどの自己位置の成分を採用するかが成分毎に決定される。
 図8において、内界センサ21から出力される第2のセンシングデータを用いて第2の自己位置を同定する第2自己位置同定部6を含むモジュールを第2のモジュールBと称する。
 LiDAR22から出力される第1のセンシングデータを用いて第1の自己位置を同定する第1自己位置同定部5と、第1評価部としてのLiDAR自己位置同定評価部7と、自己位置生成部73とを含むモジュールを第1のモジュールAと称する。
 カメラ23から出力される第3のセンシングデータを用いて第3の自己位置を同定する第3自己位置同定部88と、第3評価部としてのカメラ自己位置同定評価部89と、自己位置生成部893とを用いて含むモジュールを第3のモジュールCと称する。
 第2のモジュールBでは第2の自己位置が同定される。
 第2のモジュールBで同定された第2の自己位置の情報は、第1のモジュールAへ出力される。
 第1のモジュールAでは第1のセンシングデータを用いたマッチング処理により第1の自己位置が同定される。更に、第1のモジュールAでは、マッチング処理結果に基づいて、第1の自己位置の成分が成分毎に有効か否かが評価され、当該評価結果と、第1の自己位置の情報と、第2の自己位置の情報とが用いられて、自己位置が生成される。
 第1のモジュールAで生成された自己位置の情報は、第3のモジュールCへ出力される。
 第3のモジュールCでは第3のセンシングデータを用いたマッチング処理により第3の自己位置が同定される。更に、第3のモジュールCでは、マッチング処理結果に基づいて、第3の自己位置の成分が成分毎に有効か否かが評価され、当該評価結果と、第3の自己位置の情報と、第1のモジュールAで生成された自己位置の情報とを用いて、最終的な自己位置が生成される。
 このように、互いに精度が異なる自己位置同定結果が算出される複数のモジュールを多段に構成し、その有効成分を利用して最終的な自己位置を生成してもよい。本実施形態では、第2のモジュールB、第1のモジュールA、第3のモジュールCの順番でこれらモジュールは直列に並んでいる。
 最上段に位置する第2のモジュールBにおいては、自己位置同定精度は低いがロバスト性の高い内界センサ21である車輪エンコーダとIMUから出力される第2のセンシングデータが用いられる。
 内界センサ21から出力されるセンシングデータは、環境変化に影響されにくく、無特徴空間化でもロバスト性が高い。その一方で、累積誤差が生じる。
 中段に位置する第1のモジュールAにおいては、自己位置同定精度もロバスト性も中程度のLiDAR22から出力される第1のセンシングデータが用いられる。上述したように、LiDAR22は、精度が内界センサよりも高いが、無特徴環境下ではロバスト性が低く、また、天候等の影響を受けやすく、環境変化に対するロバスト性が内界センサよりも低い。
 最下段に位置する第3のモジュールCにおいては、自己位置同定精度は高いが、特定の環境条件下でしか利用できないカメラ23から出力される第3のセンシングデータが用いられる。カメラ23は、無特徴環境下ではロバスト性が低くなる。
 第3のセンシングデータとしての画像データを用いたマッチング処理では、カメラ23で観測された画像データと、予め地図上に登録されたマッチング対象の画像データとの間で画像特徴同士のマッチング度を評価し対応づけが行われる。
 従って、画像データを用いた自己位置同定において、車両81の周囲環境にマッチング対象となる特徴的な地物が十分に存在する場合、精度の高い自己位置同定が可能となる。一方、無特徴環境下では、自己位置同定精度が低くなる。特徴的な地物が存在するという特定の環境条件下において、カメラ23は、天候の影響を受けにくいため、LiDAR22よりもロバスト性の高い観測が可能なセンサである。
 このように、本実施形態では、後段に進むほど用いるセンシングデータの精度が高くなるようモジュールを設けて制御部を構成している。
 このような構成では、第3のモジュールCにおいて同定された第3の自己位置のうち無効と評価された成分については、第1のモジュールAにおいて生成された自己位置の成分が最終的な自己位置の成分として採用される。
 第1のモジュールAでは、第1のモジュールAにおいて同定された第1の自己位置のうち有効と評価された成分が採用され、無効と評価された成分には第2の自己位置の成分が採用されて自己位置が生成される。
 したがって、第1のモジュールA及び第3のモジュールCのいずれにおいても無効と評価された成分については第2の自己位置の成分が最終的な自己位置の成分として採用されることになる。
 このように、最上段には、無特徴環境下においてロバスト性が高いモジュールが位置することが好ましい。
 図8に示すように、制御部83は、データ取得部4と、第1自己位置同定部5と、第2自己位置同定部6と、第1評価部としてのLiDAR自己位置同定評価部7と、自己位置生成部73と、障害物検出部8と、行動計画部9と、モータ制御部10と、記憶部20と、地図DB86と、第3自己位置同定部88と、第3評価部としてのカメラ自己位置同定評価部89と、自己位置生成部893と、を有する。
 データ取得部4は、内界センサ21から出力される第2のセンシングデータと、LiDAR22から出力される第1のセンシングデータと、カメラ23から出力される第3のセンシングデータと、を取得する。
 取得された第1のセンシングデータ(LiDARから出力されたデータ)は、第1自己位置同定部5へ出力される。
 取得された第2のセンシングデータ(内界センサから出力されたデータ)は、第2自己位置同定部6へ出力される。
 取得された第3のセンシングデータ(カメラから出力されたデータ)は、第3自己位置同定部88へ出力される。以下、第3のセンシングデータを、観測された画像データと称する場合がある。
 地図DB86は、第1自己位置同定部5で実行されるマッチング処理に用いられるマッチング対象の3次元点群と、第3自己位置同定部88で実行されるマッチング処理に用いられるマッチング対象の画像データとを含む地図を格納する。
 第3自己位置同定部88は、データ取得部4で取得された第3のセンシングデータ(カメラから出力されたデータ)に基づいて車両81の第3の自己位置を同定する。
 具体的には、第3自己位置同定部88は、観測された画像データと、地図DB86に格納されているマッチング対象の画像データとを、探索領域内で網羅的にマッチング処理して、車両81の第3の自己位置を同定する。
 マッチング処理結果及び第3の自己位置の情報は、カメラ自己位置同定評価部89へ出力される。
 第3の自己位置には、位置情報に係るX軸成分、Y軸成分、Z軸成分の他、姿勢情報に係るロール軸回転成分、ピッチ軸回転成分、ヨー軸回転成分等が含まれる。
 第1自己位置同定部5、第2自己位置同定部6及び第3自己位置同定部88では、それぞれ、異なるセンサ毎に出力されたセンシングデータを用いて、車両81の自己位置が同定される。
 カメラ自己位置同定評価部89は、第3自己位置同定部88で第3の自己位置を同定するにあたり行われたマッチング処理結果に基づいて、第3の自己位置の成分を、成分毎に有効か否かを評価する。
 カメラ自己位置同定評価部89は、高マッチング箇所抽出部891と、マッチング結果成分分析部892と、を有する。
 高マッチング箇所抽出部891は、第3自己位置同定部88で実行されたマッチング処理結果を用いて、高いマッチング率を示した箇所、すなわち、高マッチング箇所を抽出する。
 具体的には、高マッチング箇所抽出部891では、例えば、複数箇所でマッチングされた結果が取得され、この複数箇所から閾値以上のマッチング率を示す箇所(高マッチング箇所)が抽出される。閾値は、予め設定される。
 尚、例えば、車両81の周囲に特徴的な地物が存在しないような場合、マッチング処理が成立せず、マッチングされた箇所は0となる。
 マッチング結果成分分析部892は、高マッチング箇所抽出部891で抽出された高マッチング箇所が複数存在している場合、第3の自己位置のX軸成分、Y軸成分、Z軸成分、ロール軸回転成分、ピッチ軸回転成分、ヨー軸回転成分の成分毎に、有効か否かを評価する。
 有効と評価された第3の自己位置の成分は、後段の自己位置生成部893の自己位置生成時に採用される。
 有効でない(無効)と評価された第3の自己位置の成分は、その成分は棄却され、後段の自己位置生成部893の自己位置生成時には採用されない。代わりとして、第1のモジュールAで生成された自己位置の成分が、最終的な自己位置の成分として採用される。
 各成分が有効か否かの評価は、第1実施形態で示した手法を用いることができる。
 マッチング結果が0でマッチング自体が成立しなかった場合、マッチング結果成分分析部892は、有効な成分はないと評価する。
 自己位置生成部893は、マッチング結果成分分析部892の評価結果に基づいて、車両81の最終的な自己位置を生成する。
 自己位置生成部893は、マッチング結果成分分析部892で有効と評価された第3の自己位置の成分については、車両81の最終的な自己位置の成分として採用する。
 自己位置生成部893は、マッチング結果成分分析部892で無効と評価された第3の自己位置の成分については棄却し、第1のモジュールAで生成された自己位置の成分を車両81の最終的な自己位置の成分として採用する。
 以上のように最終的な自己位置が生成される。生成された自己位置は、行動計画部9に出力される。
 このように、車両81の最終的な自己位置を生成するにあたり、車両81がおかれる環境が加味されて、ロバスト性が異なる内界センサ21、LiDAR22及びカメラ23それぞれのセンシングデータを用いて同定された第2の自己位置、第1の自己位置、第3の自己位置のうちどの自己位置の成分を採用するかが成分毎に決定される。
 これにより、無特徴空間においても自己位置を継続して生成することが可能となる。
 <第3実施形態>
 本実施形態では、第2実施形態と同様に、センサとしてカメラを更に用いて自己位置同定をする場合を例にあげる。図9を用いて説明する。第2実施形態と同様の構成については同様の符号を付し、説明を省略する場合がある。本実施形態では、第2実施形態と異なる構成を中心に説明する。
 図9は、本実施形態における車両91の機能構成を示すブロック図である。
 第2の実施形態では、第2のモジュールB、第1のモジュールA、第3のモジュールCが直列に並んで構成される例をあげたが、図9に示すように、これらのモジュールを並列に並べてもよい。
 第2の実施形態では、第1のモジュールA及び第3のモジュールCそれぞれに自己位置生成部を設けていたが、本実施形態では、各モジュールに自己位置生成部を設けていない。本実施形態では、各モジュールとは別に自己位置生成部96を設けている。
 自己位置生成部96へは、第1のモジュールAで同定された第1の自己位置の情報及び第1の自己位置同定で用いられたマッチング処理結果、第2のモジュールBで同定された第2の自己位置の情報、第3のモジュールCで同定された第3の自己位置の情報及び第3の自己位置同定で用いられたマッチング処理結果が出力される。
 図9に示すように、車両91は、センサ群82と、制御部93と、モータ12と、を有する。
 センサ群82は、内界センサ21と、LiDAR22と、カメラ23等を有する。
 制御部93は、記憶部20に格納された各種プログラムにしたがって、車両91の自己位置を同定し、車両91の動きを制御する。
 本実施形態においても、第2実施形態と同様に、最終的な自己位置を生成するにあたり、車両91がおかれる環境が加味されて、ロバスト性が異なる内界センサ21、LiDAR22、カメラ23それぞれのセンシングデータを用いて同定された第2の自己位置、第1の自己位置、第3の自己位置のうちどの自己位置の成分を採用するかが成分毎に決定される。
 これにより、無特徴空間においても自己位置を継続して生成することが可能となる。
 図9において、内界センサ21から出力される第2のセンシングデータを用いて自己位置を同定する第2自己位置同定部6を含むモジュールを第2のモジュールBと称する。
 LiDAR22から出力される第1のセンシングデータを用いて第1の自己位置を同定する第1自己位置同定部5とLiDAR自己位置同定評価部7を含むモジュールを第1のモジュールAと称する。
 カメラ23から出力される第3のセンシングデータを用いて第3の自己位置を同定する第3自己位置同定部88とカメラ自己位置同定評価部89を含むモジュールを第3のモジュールCと称する。
 制御部93は、データ取得部4と、第1自己位置同定部5と、第2自己位置同定部6と、LiDAR自己位置同定評価部7と、障害物検出部8と、行動計画部9と、モータ制御部10と、記憶部20と、地図DB86と、第3自己位置同定部88と、カメラ自己位置同定評価部89と、自己位置生成部96と、を有する。
 第2自己位置同定部6で同定された第2の自己位置の情報は、自己位置生成部96へ出力される。
 LiDAR自己位置同定評価部7で評価された第1の自己位置の成分毎の有効評価結果と、第1自己位置同定部5で同定された第1の自己位置の情報は、自己位置生成部96へ出力される。
 カメラ自己位置同定評価部89で評価された第3の自己位置の成分毎の有効評価結果と、第3自己位置同定部88で同定された第3の自己位置の情報は、自己位置生成部96へ出力される。
 自己位置生成部96は、第1の自己位置の各成分の有効評価結果及び第3の自己位置の各成分の有効評価結果に基づいて、第1の自己位置の情報と、第2の自己位置の情報と、第3の自己位置の情報を例えばカルマンフィルタ等で統合し、最終的な自己位置を生成する。
 最終的な自己位置生成において、第3の自己位置の成分のうち有効と評価された成分については、第3の自己位置の成分が最終的な自己位置の成分として採用される。第3の自己位置の成分のうち無効と評価された成分であって、第1の自己位置の成分のうち有効と評価された成分については、第1の自己位置の成分が最終的な自己位置の成分として採用される。第3の自己位置及び第1の自己位置のいずれにおいても無効と評価された成分については、第2の自己位置の成分が採用される。
 生成された自己位置は、行動計画部9に出力される。
 尚、例えば、自己位置生成部96により、第1の自己位置の各成分の有効評価結果に基づいて、第1の自己位置の情報及び第2の自己位置の情報が統合された自己位置の結果が第3自己位置同定部88に出力されてもよい。第3自己位置同定部88は、統合された自己位置の結果をヒントに第3の自己位置を同定してもよい。このように、各自己位置同定部において、自己位置生成部96から前回の自己位置統合結果がヒントとして入力されるように構成されてもよい。
 本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、上述の実施形態においては、最終的な自己位置を生成する一連の処理を行う制御部3、83、93を移動体である車両に設ける例をあげたが、クラウドサーバ上に設ける等、移動体以外の外部の情報処理装置に設けてもよい。
 また、例えば、上述の実施形態においては、移動体として自動四輪の車両を例あげて説明したが、これに限定されず、本技術は他の移動体全般に使用可能である。例えば、自動二輪車、差動二輪型ロボット、多脚型ロボット、3次元空間を移動するドローン等の移動体に適用することができる。
 また、上述の実施形態においては、姿勢情報(回転情報)としてロール軸回転成分、ヨー軸回転成分、ピッチ軸回転成分を用いる例をあげたが、姿勢の情報としてクォータニオン表現のデータを用いてもよい。
 また、上述の実施形態では、例えば、第1の自己位置を同定するにあたり、第1のセンシングデータを用いていたが、これに加えて、同定された第2の自己位置をヒントにして第1の自己位置を同定してもよい。このように、あるセンサの出力に基づいて自己位置を同定する際、他のセンサの出力に基づいて同定された自己位置をヒントにして、自己位置を同定してもよい。
 また、上述の第2及び3の実施形態において、カメラとLiDARそれぞれのセンシングデータに対応してモジュールを設け、これらモジュールを多段に構成する例を挙げたが、これに限定されない。
 例えば、同じセンサからのセンシングデータを利用して同じ自己位置同定アルゴリズムを用いて自己位置を同定するが、アルゴリズムのパラメータが異なる複数のモジュールを設け、これらを多段に構成してもよい。すなわち、同じセンサかつ同じ自己位置同定アルゴリズムであっても、そのアルゴリズムのパラメータ(観測範囲、解像度、マッチング閾値、マッチング対象地図)を変更して性能を変えることによって、異なる自己位置同定結果が得られる場合がある。従って、同じセンシングデータを用いるが、アルゴリズムのパラメータが異なる、精度の異なる自己位置同定結果を算出する複数のモジュールを設け、その有効成分を利用して最終的な自己位置を生成してもよい。
 また、用いられるセンシングデータは、処理データと呼ばれる、センサ群に備えられる個々のセンサのそれぞれにおいて、ローカルで事前処理されたデータを用いてもよいし、ローデータ(未処理データ、生データ)と呼ばれる、ローカルでの事前処理がなされていないデータを用いてもよい。
 処理データを用いる場合には、ローカルにおいて事前に処理がなされ、ノイズなどの余計な情報が省かれているため、後段の処理にかかる負担が少なく、比較的高速に処理を行うことができる。
 一方で、ローデータを用いる場合には、ローカルにおいて事前に何らの処理もなされていないため、処理データを用いる場合と比較して情報量が豊富なデータが出力されるため、後段の処理において、より正確な結果を算出することができる。
 また、複数のセンサのうちの一部のセンサについては、センシングデータとしてローデータを出力させ、その他については処理データを出力させ、用いるように構成してもよい。
 なお、本技術は以下のような構成もとることができる。
 (1)
 第1のセンシングデータに基づいて移動体の第1の自己位置を同定する第1自己位置同定部と、
 同定された上記第1の自己位置の各成分について、有効であるか否かを評価する評価部と
 を具備する情報処理装置。
 (2)
 上記(1)に記載の情報処理装置であって、
 上記評価部によって有効であると評価された成分を採用して、上記移動体の最終的な自己位置を生成する自己位置生成部
 を更に具備する情報処理装置。
 (3)
 上記(2)に記載の情報処理装置であって、
 第1のセンシングデータとは異なる第2のセンシングデータに基づいて上記移動体の第2の自己位置を同定する第2自己位置同定部
 を更に具備し、
 上記自己位置生成部は、上記評価部によって有効でないと判断された成分を、上記第2自己位置同定部で同定された上記第2の自己位置の成分に置き換えて、上記移動体の最終的な自己位置を生成する
 情報処理装置。
 (4)
 上記(3)に記載の情報処理装置であって、
 上記第1のセンシングデータを出力する第1のセンサと、上記第2のセンシングデータを出力する第2のセンサとは異なる
 情報処理装置。
 (5)
 上記(4)に記載の情報処理装置であって、
 上記第2のセンサは、上記第1のセンサよりも無特徴環境下におけるロバスト性が高い
 情報処理装置。
 (6)
 上記(4)又は(5)に記載の情報処理装置であって、
 上記第2のセンサは、上記移動体に搭載される内界センサである
 情報処理装置。
 (7)
 上記(4)~(6)のいずれか1つに記載の情報処理装置であって、
 上記第1のセンサは、上記移動体に搭載されるLiDAR(Light Detection and Ranging)である
 情報処理装置。
 (8)
 上記(1)~(7)のいずれか1つに記載の情報処理装置であって、
 上記第1自己位置同定部は、上記第1のセンシングデータである上記移動体の周囲環境の点群と、予め取得されているマッチング用の点群とのマッチング処理結果により、上記第1の自己位置を同定する
 情報処理装置。
 (9)
 上記(8)に記載の情報処理装置であって、
 上記評価部は、上記マッチング処理結果を用いて上記第1の自己位置の各成分それぞれについて有効であるか否かを評価する
 情報処理装置。
 (10)
 上記(1)~(9)のいずれか1つに記載の情報処理装置であって、
 上記評価部は、有効でないと評価した成分は棄却する
 情報処理装置。
 (11)
 第1のセンシングデータに基づいて移動体の第1の自己位置を同定する第1自己位置同定部と、同定された上記第1の自己位置の各成分について有効であるか否かを評価する第1評価部と、を備える第1のモジュールと、
 第2のセンシングデータに基づいて上記移動体の第2の自己位置を同定する第2自己位置同定部を備える第2のモジュールと、
 第3のセンシングデータに基づいて上記移動体の第3の自己位置を同定する第3自己位置同定部と、同定された上記第3の自己位置の各成分について有効であるか否かを評価する第3評価部と、を備える第3のモジュールと、
 上記第1評価部及び上記第3評価部の評価結果と、上記第1の自己位置と、上記第2の自己位置と、上記第3の自己位置を用いて、上記移動体の最終的な自己位置を生成する自己位置生成部と
 を具備する情報処理装置。
 (12)
 第2のセンシングデータに基づいて移動体の第2の自己位置を同定する第2自己位置同定部を備える第2のモジュールと、
 第1のセンシングデータに基づいて上記移動体の第1の自己位置を同定する第1自己位置同定部と、同定された上記第1の自己位置の各成分について有効であるか否かを評価する第1評価部と、上記第1評価部の評価結果と上記第1の自己位置と上記第2の自己位置を用いて上記移動体の自己位置を生成する自己位置生成部と、を備える第1のモジュールと、
 第3のセンシングデータに基づいて上記移動体の第3の自己位置を同定する第3自己位置同定部と、同定された上記第3の自己位置の各成分について有効であるか否かを評価する第3評価部と、上記第3評価部の評価結果と上記第3の自己位置と上記第1のモジュールで生成された自己位置とを用いて、上記移動体の最終的な自己位置を生成する自己位置生成部と、を備える第3のモジュールと
 を具備する情報処理装置。
 (13)
 上記(11)又は(12)に記載の情報処理装置であって、
 上記第1のセンシングデータを出力する第1のセンサと、上記第2のセンシングデータを出力する第2のセンサと、上記第3のセンシングデータを出力する第3のセンサとは互いに異なる
 情報処理装置。
 (14)
 上記(13)に記載の情報処理装置であって、
 上記第1のセンサは上記移動体に搭載されるLiDAR(Light Detection and Ranging)であり、上記第2のセンサは上記移動体に搭載される内界センサであり、上記第3のセンサは上記移動体に搭載されるカメラである
 情報処理装置。
 (15)
 第1のセンシングデータに基づいて移動体の第1の自己位置を同定し、
 同定された上記第1の自己位置の各成分について、有効であるか否かを評価する
 情報処理方法。
 (16)
 第1のセンシングデータに基づいて移動体の第1の自己位置を同定するステップと、
 同定された上記第1の自己位置の各成分について、有効であるか否かを評価するステップ
 を含む処理を情報処理装置に実行させるためのプログラム。
 1、81、91…車両(情報処理装置)
 5…第1自己位置同定部
 6…第2自己位置同定部
 7、87…LiDAR自己位置同定評価部(評価部、第1評価部)
 21…内界センサ(第1のセンサ)
 22…LiDAR(第2のセンサ)
 23…カメラ(第3のセンサ)
 73、96、893…自己位置生成部
 88…第3自己位置同定部
 89…カメラ自己位置同定評価部(第3評価部)
 A…第1のモジュール
 B…第2のモジュール
 C…第3のモジュール

Claims (16)

  1.  第1のセンシングデータに基づいて移動体の第1の自己位置を同定する第1自己位置同定部と、
     同定された前記第1の自己位置の各成分について、有効であるか否かを評価する評価部と
     を具備する情報処理装置。
  2.  請求項1に記載の情報処理装置であって、
     前記評価部によって有効であると評価された成分を採用して、前記移動体の最終的な自己位置を生成する自己位置生成部
     を更に具備する情報処理装置。
  3.  請求項2に記載の情報処理装置であって、
     第1のセンシングデータとは異なる第2のセンシングデータに基づいて前記移動体の第2の自己位置を同定する第2自己位置同定部
     を更に具備し、
     前記自己位置生成部は、前記評価部によって有効でないと判断された成分を、前記第2自己位置同定部で同定された前記第2の自己位置の成分に置き換えて、前記移動体の最終的な自己位置を生成する
     情報処理装置。
  4.  請求項3に記載の情報処理装置であって、
     前記第1のセンシングデータを出力する第1のセンサと、前記第2のセンシングデータを出力する第2のセンサとは異なる
     情報処理装置。
  5.  請求項4に記載の情報処理装置であって、
     前記第2のセンサは、前記第1のセンサよりも無特徴環境下におけるロバスト性が高い
     情報処理装置。
  6.  請求項4に記載の情報処理装置であって、
     前記第2のセンサは、前記移動体に搭載される内界センサである
     情報処理装置。
  7.  請求項4に記載の情報処理装置であって、
     前記第1のセンサは、前記移動体に搭載されるLiDAR(Light Detection and Ranging)である
     情報処理装置。
  8.  請求項1に記載の情報処理装置であって、
     前記第1自己位置同定部は、前記第1のセンシングデータである前記移動体の周囲環境の点群と、予め取得されているマッチング用の点群とのマッチング処理結果により、前記第1の自己位置を同定する
     情報処理装置。
  9.  請求項8に記載の情報処理装置であって、
     前記評価部は、前記マッチング処理結果を用いて前記第1の自己位置の各成分について有効であるか否かを評価する
     情報処理装置。
  10.  請求項1に記載の情報処理装置であって、
     前記評価部は、有効でないと評価した成分は棄却する
     情報処理装置。
  11.  第1のセンシングデータに基づいて移動体の第1の自己位置を同定する第1自己位置同定部と、同定された前記第1の自己位置の各成分について有効であるか否かを評価する第1評価部と、を備える第1のモジュールと、
     第2のセンシングデータに基づいて前記移動体の第2の自己位置を同定する第2自己位置同定部を備える第2のモジュールと、
     第3のセンシングデータに基づいて前記移動体の第3の自己位置を同定する第3自己位置同定部と、同定された前記第3の自己位置の各成分について有効であるか否かを評価する第3評価部と、を備える第3のモジュールと、
     前記第1評価部及び前記第3評価部の評価結果と、前記第1の自己位置と、前記第2の自己位置と、前記第3の自己位置を用いて、前記移動体の最終的な自己位置を生成する自己位置生成部と
     を具備する情報処理装置。
  12.  第2のセンシングデータに基づいて移動体の第2の自己位置を同定する第2自己位置同定部を備える第2のモジュールと、
     第1のセンシングデータに基づいて前記移動体の第1の自己位置を同定する第1自己位置同定部と、同定された前記第1の自己位置の各成分について有効であるか否かを評価する第1評価部と、前記第1評価部の評価結果と前記第1の自己位置と前記第2の自己位置を用いて前記移動体の自己位置を生成する自己位置生成部と、を備える第1のモジュールと、
     第3のセンシングデータに基づいて前記移動体の第3の自己位置を同定する第3自己位置同定部と、同定された前記第3の自己位置の各成分について有効であるか否かを評価する第3評価部と、前記第3評価部の評価結果と前記第3の自己位置と前記第1のモジュールで生成された自己位置とを用いて、前記移動体の最終的な自己位置を生成する自己位置生成部と、を備える第3のモジュールと
     を具備する情報処理装置。
  13.  請求項11又は12に記載の情報処理装置であって、
     前記第1のセンシングデータを出力する第1のセンサと、前記第2のセンシングデータを出力する第2のセンサと、前記第3のセンシングデータを出力する第3のセンサとは互いに異なる
     情報処理装置。
  14.  請求項13に記載の情報処理装置であって、
     前記第1のセンサは前記移動体に搭載されるLiDAR(Light Detection and Ranging)であり、前記第2のセンサは前記移動体に搭載される内界センサであり、前記第3のセンサは前記移動体に搭載されるカメラである
     情報処理装置。
  15.  第1のセンシングデータに基づいて移動体の第1の自己位置を同定し、
     同定された前記第1の自己位置の各成分について、有効であるか否かを評価する
     情報処理方法。
  16.  第1のセンシングデータに基づいて移動体の第1の自己位置を同定するステップと、
     同定された前記第1の自己位置の各成分について、有効であるか否かを評価するステップ
     を含む処理を情報処理装置に実行させるためのプログラム。
PCT/JP2020/030584 2019-10-03 2020-08-11 情報処理装置、情報処理方法、及びプログラム WO2021065212A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021550396A JPWO2021065212A1 (ja) 2019-10-03 2020-08-11
US17/763,347 US20220334259A1 (en) 2019-10-03 2020-08-11 Information processing apparatus, information processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-183058 2019-10-03
JP2019183058 2019-10-03

Publications (1)

Publication Number Publication Date
WO2021065212A1 true WO2021065212A1 (ja) 2021-04-08

Family

ID=75338180

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/030584 WO2021065212A1 (ja) 2019-10-03 2020-08-11 情報処理装置、情報処理方法、及びプログラム

Country Status (3)

Country Link
US (1) US20220334259A1 (ja)
JP (1) JPWO2021065212A1 (ja)
WO (1) WO2021065212A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005190089A (ja) * 2003-12-25 2005-07-14 Matsushita Electric Ind Co Ltd 自走式機器およびそのプログラム
JP2014149622A (ja) * 2013-01-31 2014-08-21 Secom Co Ltd 自律飛行ロボット
WO2016139747A1 (ja) * 2015-03-03 2016-09-09 パイオニア株式会社 車両制御装置、制御方法、プログラム及び記憶媒体

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005190089A (ja) * 2003-12-25 2005-07-14 Matsushita Electric Ind Co Ltd 自走式機器およびそのプログラム
JP2014149622A (ja) * 2013-01-31 2014-08-21 Secom Co Ltd 自律飛行ロボット
WO2016139747A1 (ja) * 2015-03-03 2016-09-09 パイオニア株式会社 車両制御装置、制御方法、プログラム及び記憶媒体

Also Published As

Publication number Publication date
US20220334259A1 (en) 2022-10-20
JPWO2021065212A1 (ja) 2021-04-08

Similar Documents

Publication Publication Date Title
US11783707B2 (en) Vehicle path planning
CN111532257B (zh) 用于补偿交通工具校准误差的方法和系统
US10739459B2 (en) LIDAR localization
US10025317B2 (en) Methods and systems for camera-based autonomous parking
CN108007452B (zh) 根据障碍物更新环境地图的方法、装置及机器人
JP7074438B2 (ja) 自車位置推定装置
CN108162974B (zh) 使用道路角度数据的车辆控制
CN111044066B (zh) 支援控制系统
US11512975B2 (en) Method of navigating an unmanned vehicle and system thereof
US20140350835A1 (en) Method and system for obstacle detection for vehicles using planar sensor data
US20220308580A1 (en) Redundant Lateral Velocity Determination and Use in Secondary Vehicle Control Systems
KR102056147B1 (ko) 자율주행차량을 위한 거리 데이터와 3차원 스캔 데이터의 정합 방법 및 그 장치
CN110979317A (zh) 固定摄像机定位
CN111208814B (zh) 用于自动车辆的、利用动态模型的、基于记忆的最优运动规划
CN112172778A (zh) 车辆姿势确定
CN113296111A (zh) 车辆传感器融合
Gläser et al. Environment perception for inner-city driver assistance and highly-automated driving
US20230182774A1 (en) Autonomous driving lidar technology
JP2022027593A (ja) 可移動機器の測位方法、装置及び可移動機器
US11607999B2 (en) Method and apparatus for invisible vehicle underbody view
JP7337617B2 (ja) 推定装置、推定方法及びプログラム
WO2021065212A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US10775804B1 (en) Optical array sensor for use with autonomous vehicle control systems
CN115731531A (zh) 对象轨迹预测
CN115540889A (zh) 使用相机、gps和imu定位自动驾驶车辆

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20872292

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021550396

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20872292

Country of ref document: EP

Kind code of ref document: A1