WO2021079716A1 - 環境地図構築装置、環境地図構築方法および環境地図構築プログラム - Google Patents

環境地図構築装置、環境地図構築方法および環境地図構築プログラム Download PDF

Info

Publication number
WO2021079716A1
WO2021079716A1 PCT/JP2020/037484 JP2020037484W WO2021079716A1 WO 2021079716 A1 WO2021079716 A1 WO 2021079716A1 JP 2020037484 W JP2020037484 W JP 2020037484W WO 2021079716 A1 WO2021079716 A1 WO 2021079716A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
environment map
data
recognition
environment
Prior art date
Application number
PCT/JP2020/037484
Other languages
English (en)
French (fr)
Inventor
淳也 白石
聡幸 廣井
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Publication of WO2021079716A1 publication Critical patent/WO2021079716A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram

Definitions

  • This disclosure relates to an environmental map construction device for constructing an environmental map, an environmental map construction method, and an environmental map construction program.
  • Patent Documents 1 to 3 technologies related to moving objects such as robots that recognize the external environment and move autonomously according to the recognized environment have been disclosed.
  • the environmental map construction method includes the following two. -Processing one or more recognition data output from one or more external environment recognition units that recognize the external environment based on the environment map of the previous time-Using one or more recognition data after processing , Building an environmental map of the current time
  • the environmental map construction program causes a computer to execute the following two. -Processing one or more recognition data output from one or more external environment recognition units that recognize the external environment based on the environment map of the previous time-Using one or more recognition data after processing , Building an environmental map of the current time
  • FIG. It is a figure which shows an example of the processing procedure in the environment map construction apparatus of FIG. It is a figure which shows the schematic configuration example of the environment map construction apparatus which concerns on Example. It is a figure which shows an example of the processing procedure in the environment map construction apparatus of FIG. It is a figure which shows the schematic configuration example of the environment map construction apparatus which concerns on Example. It is a figure which shows an example of the processing procedure in the environment map construction apparatus of FIG. It is a figure which shows the schematic configuration example of the environment map construction apparatus which concerns on Example. It is a figure which shows an example of the processing procedure in the environment map construction apparatus of FIG. It is a figure which shows the schematic configuration example of the environment map construction apparatus which concerns on Example.
  • Patent Document 1 discloses a method of improving sensor integrated output by exchanging information between a plurality of sensors.
  • Patent Document 2 discloses a method of integrating a plurality of sensors stepwise and adaptively based on reliability.
  • Patent Document 3 discloses a method of feeding back an improvement instruction from the sensor integration unit to the sensor data processing unit.
  • the objects often have a geometric structure.
  • walls, floors of passages, sides of buildings, glass windows, etc. are often composed of planes arranged vertically and horizontally.
  • human perception and behavior in such an environment it seems that even if there are areas and moments that are somewhat difficult to see visually, we are taking appropriate actions by imagining and guessing.
  • human beings visually infer the structure of the area based on the surrounding geometric information, the geometric information visually recognized immediately before, the recognition of the object as an object, and the knowledge associated with it. It also seems to make up for the lack of information.
  • Each sensor element 11a to 11e recognizes the external environment and outputs recognition data Da to De corresponding to the recognized external environment.
  • the signal processing units 12a to 12e perform predetermined processing on the recognition data Da to De output from the sensor elements 11a to 11e, and output the processed recognition data Da to De.
  • the signal processing units 12a to 12c and 12e output the processed recognition data Da to Dc and De to the signal processing unit 20.
  • the signal processing units 12d and 12e output the processed recognition data Dd and De to the self-position detection unit 30.
  • the signal processing unit 12e outputs the processed recognition data De to the object recognition unit 40.
  • the recognition data Da and the processed recognition data Da are represented by the coordinate system of the sensor element 11a.
  • the recognition data Db and the processed recognition data Db are represented by the coordinate system of the sensor element 11b.
  • the recognition data Dc and the processed recognition data Dc are represented by the coordinate system of the sensor element 11c.
  • the recognition data Dd and the processed recognition data Dd are represented by the coordinate system of the sensor element 11d.
  • the recognition data De and the processed recognition data De are represented by the coordinate system of the sensor element 11e.
  • the relative positions of the sensor elements 11a to 11e in the recognition system 1 are known. Therefore, for example, the conversion relationship between the world coordinate system and the coordinate systems of the sensor elements 11a to 11e can be obtained from, for example, the current position data CL of the recognition system 1 represented by the world coordinate system.
  • the sensor element 11d is, for example, an inertial measurement element.
  • the inertial measurement element includes, for example, a 3-axis acceleration sensor and a 3-axis gyro sensor, and outputs measurement data output from these sensors to the signal processing unit 12d as recognition data Dd.
  • the signal processing unit 12d performs predetermined processing on the recognition data Dd input from the sensor element 11d, and outputs the processed recognition data Dd to the self-position detection unit 30.
  • the sensor element 11e is, for example, a stereo camera.
  • the stereo camera includes, for example, a two-lens CCD (Charge Coupled Device) image sensor or a two-eye CMOS (Complementary Metal Oxide Semiconductor) image sensor.
  • the stereo camera further generates parallax data based on two RAW data obtained by a two-lens CCD image sensor or a two-lens CMOS image sensor, and uses the generated parallax data as recognition data De in a signal processing unit.
  • Output to 12e The signal processing unit 12e performs predetermined processing on the recognition data De input from the sensor element 11e, and outputs the processed recognition data De to the signal processing unit 20, the self-position detection unit 30, and the object recognition unit 40. ..
  • the signal processing unit 20 processes the recognition data Da to Dc, De input from the sensor units 10a to 10c, 10e based on the environment map Mb at the previous time.
  • the signal processing unit 20 outputs the processed recognition data Da'to Dc', De'to the environment map construction unit 50.
  • the self-position detection unit 30 derives the current position data CL of the recognition system 1 based on the recognition data Dd and De input from the sensor units 10d and 10e.
  • the self-position detection unit 30 outputs the derived current position data CL to the signal processing unit 20 and the action planning unit 70.
  • the object recognition unit 40 derives identification data CO for one or more objects existing in the external environment based on the recognition data De input from the sensor unit 10e.
  • the identification data CO is, for example, data representing the type of an object (for example, metal, mirror, glass, etc.).
  • the object recognition unit 40 outputs the derived identification data CO to the environment map construction unit 50.
  • the environment map construction unit 50 reads out an environment map of a predetermined area including the current position data CL from the environment map 61 stored in the storage unit 60, and uses the read environment map as the environment map Mb at the previous time to signal. Output to the processing unit 20. For example, identification data CO is associated with the environment map Mb at the previous time.
  • FIG. 2 shows a configuration example of the recognition system 1.
  • the recognition system 1 may be composed of sensor units 10a to 10e, a recognition device 1A, and a storage unit 60.
  • the recognition device 1A is, for example, a signal processing board provided separately from the sensor units 10a to 10e and the storage unit 60, and is a signal processing unit 20, a self-position detecting unit 30, an object recognition unit 40, and an environment. It is composed of a map construction unit 50 and an action planning unit 70.
  • the recognition device 1A uses the recognition data Da to 10e from the sensor units 10a to 10e as input data and the action plan AP as output data.
  • the recognition device 1A exchanges data with the storage unit 60 via, for example, the environment map construction unit 50 or the action planning unit 70.
  • FIG. 3 shows a configuration example of the recognition system 1.
  • the recognition system 1 may be composed of sensor elements 11a to 11e, a recognition device 1B, and a storage unit 60.
  • the recognition device 1B is, for example, a signal processing board provided separately from the sensor elements 11a to 11e and the storage unit 60, and is a signal processing unit 12a to 12e, a signal processing unit 20, and a self-position detecting unit 30.
  • the recognition device 1B uses the recognition data Da to 10e from the sensor elements 11a to 11e as input data and the action plan AP as output data.
  • the recognition device 1B exchanges data with the storage unit 60 via, for example, the environment map construction unit 50 or the action planning unit 70.
  • the calculation unit 81 for example, by executing the environment map construction program 82a stored in the storage unit 82, causes the signal processing unit 20, the self-position detection unit 30, the object recognition unit 40, the environment map construction unit 50, and the action planning unit. Perform each of the 70 functions.
  • the functions of the signal processing unit 20, the self-position detection unit 30, the object recognition unit 40, the environment map construction unit 50, and the action planning unit 70 are loaded into the calculation unit 81 by the environment map construction program 82a. Is executed by.
  • the calculation unit 81 for example, by executing the environment map construction program 82a stored in the storage unit 82, causes the signal processing units 12a to 12e, the signal processing unit 20, the self-position detection unit 30, the object recognition unit 40, and the environment map.
  • Each function of the construction unit 50 and the action planning unit 70 may be executed.
  • the environment map construction program 82a calculates the functions of the signal processing units 12a to 12e, the signal processing unit 20, the self-position detection unit 30, the object recognition unit 40, the environment map construction unit 50, and the action planning unit 70. It is executed by being loaded into the unit 81.
  • FIG. 10 shows an embodiment of the recognition system 1.
  • the sensor unit 10x is any of the sensor units 10a to 10c and 10e.
  • the coordinate conversion unit 21 and the filter unit 22 are specific examples of the components included in the signal processing unit 20.
  • the coordinate conversion unit 21 acquires the constraint condition 61a from the environment map 61 (environment map at the previous time) in the storage unit 60.
  • the coordinate conversion unit 21 acquires the restraint condition 61a from the environment map 61 (environment map at the previous time) in the storage unit 60 via the communication unit 80.
  • the constraint condition 61a includes, for example, geometric data.
  • the coordinate conversion unit 21 further performs a coordinate conversion process for converting the constraint condition 61a from the coordinate system of the environment map 61 (environment map of the previous time) to the coordinate system of the sensor unit 10x, and the constraint is performed by the coordinate conversion process.
  • the condition 61b is output to the filter unit 22.
  • the filter unit 22 processes the recognition data Dx input from the sensor unit 10x based on the constraint condition 61b input from the coordinate conversion unit 21.
  • the filter unit 22 removes noise or outliers included in the recognition data Dx input from the sensor unit 10x, for example, based on the constraint condition 61b input from the coordinate conversion unit 21.
  • the filter unit 22 may be configured by, for example, the guided filter described in the reference ("Fast Guided Filter” Kaming He Jian Sun, arXiv: 1505.00996v1 [cs.CV] 5 May 2015).
  • the filter unit 22 may be composed of, for example, a Bayesian filter composed of a least squares regression (ridge regression) with a regularization term.
  • the filter unit 22 obtains the recognition data Dx'from which noise or outliers have been removed.
  • the filter unit 22 outputs the processed recognition data Dx'to the environment map construction unit 50.
  • the environment map construction unit 50 constructs the environment map Ma at the current time using the recognition data Dx'processed by the filter unit 22.
  • the environment map construction unit 50 stores the obtained environment map Ma at the current time in the environment map 61 of the storage unit 60.
  • FIG. 11 shows an embodiment of the processing procedure in the recognition system 1 of FIG.
  • the sensor unit 10x acquires the recognition data Dx (step S101).
  • the coordinate conversion unit 21 acquires the constraint condition 61a from the environment map 61 (environment map at the previous time) in the storage unit 60 (step S102).
  • the coordinate conversion unit 21 performs a coordinate conversion process for converting the acquired constraint condition 61a from the coordinate system of the environment map 61 (environment map of the previous time) to the coordinate system of the sensor unit 10x (step S103).
  • the filter unit 22 filters the recognition data Dx based on the constraint condition 61b after the coordinate transformation (step S104).
  • FIG. 12 shows an embodiment of the recognition system 1.
  • the sensor unit 10x is any of the sensor units 10a to 10c and 10e.
  • the coordinate conversion unit 21, the filter unit 22, and the clustering unit 23 are specific examples of the components included in the signal processing unit 20.
  • the clustering unit 23 corresponds to a specific example of the “shape approximation unit” of the present disclosure.
  • the coordinate conversion unit 21 acquires the constraint condition 61a from the environment map 61 (environment map at the previous time) in the storage unit 60.
  • the coordinate conversion unit 21 acquires the restraint condition 61a from the environment map 61 (environment map at the previous time) in the storage unit 60 via the communication unit 80.
  • the constraint condition 61a includes, for example, geometric data.
  • the coordinate conversion unit 21 further converts the constraint condition 61a from the coordinate system of the environment map 61 (environment map of the previous time) to the coordinate system of the sensor unit 10x with respect to the environment map 61 (environment map of the previous time).
  • the coordinate conversion process is performed, and the constraint condition 61b for which the coordinate conversion process has been performed is output to the filter unit 22.
  • the clustering unit 23 derives the shape approximation formula Fx by clustering the plurality of local data. For example, when the recognition data Dx is given as a point cloud, the clustering unit 23 aggregates each point as a cluster according to the physical size of the area and the number of points included in the area, and covariates each cluster. And the shape approximation formula Fx with the normal vector obtained from it as a parameter is derived.
  • the filter unit 22 processes the shape approximation formula Fx input from the clustering unit 23 based on the constraint condition 61b input from the coordinate conversion unit 21.
  • the filter unit 22 removes noise or outliers included in the shape approximation formula Fx input from the clustering unit 23, for example, based on the constraint condition 61b input from the coordinate conversion unit 21.
  • the filter unit 22 may be configured by, for example, the guided filter described in the reference ("Fast Guided Filter” Kaming He Jian Sun, arXiv: 1505.00996v1 [cs.CV] 5 May 2015).
  • the filter unit 22 may be composed of, for example, a Bayesian filter composed of a least squares regression (ridge regression) with a regularization term.
  • the filter unit 22 obtains the shape approximation formula Fx'from which noise or outliers have been removed.
  • the filter unit 22 outputs the processed shape approximation formula Fx'to the environment map construction unit 50.
  • the environment map construction unit 50 constructs the environment map Ma at the current time using the shape approximation formula Fx'processed by the filter unit 22.
  • the environment map construction unit 50 stores the obtained environment map Ma at the current time in the environment map 61 of the storage unit 60.
  • FIG. 13 shows an embodiment of the processing procedure in the recognition system 1 of FIG.
  • the sensor unit 10x acquires the recognition data Dx (step S201).
  • the clustering unit 23 clusters the plurality of local data (step S202).
  • the clustering unit 23 derives the shape approximation formula.
  • the coordinate conversion unit 21 acquires the constraint condition 61a from the environment map 61 (environment map at the previous time) in the storage unit 60 (step S203).
  • the coordinate conversion unit 21 acquires the constraint condition 61a from the environment map 61 (environment map at the previous time) in the storage unit 60.
  • the coordinate conversion unit 21 acquires the restraint condition 61a from the environment map 61 (environment map at the previous time) in the storage unit 60 via the communication unit 80.
  • the constraint condition 61a includes, for example, geometric data.
  • the coordinate conversion unit 21 further converts the constraint condition 61a from the coordinate system of the environment map 61 (environment map of the previous time) to the coordinate system of the sensor unit 10x with respect to the environment map 61 (environment map of the previous time).
  • the coordinate conversion process is performed, and the constraint condition 61b for which the coordinate conversion process has been performed is output to the filter unit 22.
  • the data aggregation unit 27 derives a plurality of specific point data Ex by performing a data aggregation operation on the plurality of local data. For example, when the recognition data Dx is given as a point cloud, the data aggregation unit 27 performs a point thinning operation, a neighborhood average value operation, and the like for deriving the specific point data.
  • the filter unit 22 processes a plurality of specific point data Exs input from the data aggregation unit 27 based on the constraint condition 61b input from the coordinate conversion unit 21.
  • the filter unit 22 removes noise or outliers included in a plurality of specific point data Exs input from the data aggregation unit 27, for example, based on the constraint condition 61b input from the coordinate conversion unit 21.
  • the filter unit 22 may be configured by, for example, the guided filter described in the reference ("Fast Guided Filter” Kaming He Jian Sun, arXiv: 1505.00996v1 [cs.CV] 5 May 2015).
  • the filter unit 22 may be composed of, for example, a Bayesian filter composed of a least squares regression (ridge regression) with a regularization term.
  • the filter unit 22 outputs a plurality of specific point data Ex'after processing to the environment map construction unit 50.
  • the environment map construction unit 50 constructs the environment map Ma at the current time using the plurality of specific point data Ex'processed by the filter unit 22.
  • the environment map construction unit 50 stores the obtained environment map Ma at the current time in the environment map 61 of the storage unit 60.
  • FIG. 15 shows an embodiment of the processing procedure in the recognition system 1 of FIG.
  • the sensor unit 10x acquires the recognition data Dx (step S201).
  • the data aggregation unit 27 performs a data aggregation operation on the plurality of local data (step S207).
  • the coordinate conversion unit 21 acquires the constraint condition 61a from the environment map 61 (environment map at the previous time) in the storage unit 60 (step S203).
  • the coordinate conversion unit 21 performs a coordinate conversion process for converting the acquired constraint condition 61a from the coordinate system of the environment map 61 (environment map of the previous time) to the coordinate system of the sensor unit 10x (step S204).
  • the filter unit 22 filters a plurality of specific point data Ex based on the constraint condition 61b after the coordinate conversion (step S208).
  • the filter unit 22 removes noise or outliers included in the plurality of specific point data Ex, for example, based on the constraint condition 61b after the coordinate conversion.
  • the environment map construction unit 50 constructs the environment map Ma at the current time using the plurality of specific point data Ex'after processing (step S209).
  • the environment map construction unit 50 stores the obtained environment map Ma at the current time in the environment map 61 of the storage unit 60. In this way, the processing in the recognition system 1 of FIG. 14 is performed.
  • the coordinate conversion unit 21 acquires the constraint condition 61a from the environment map 61 (environment map at the previous time) in the storage unit 60.
  • the coordinate conversion unit 21 acquires the restraint condition 61a from the environment map 61 (environment map at the previous time) in the storage unit 60 via the communication unit 80.
  • the constraint condition 61a includes, for example, geometric data.
  • the coordinate conversion unit 21 sets the constraint condition 61a from the coordinate system of the environment map 61 (environment map of the previous time) with respect to the environment map 61 (environment map of the previous time) to the coordinate system of the sensor unit 10x1, 10x2.
  • the coordinate conversion process is performed, and the constraint condition 61b for which the coordinate conversion process has been performed is output to the filter unit 22.
  • the sensor integration unit 24 derives the integrated recognition data Gx by integrating the recognition data Dx1 and Dx2 obtained from the sensor units 10x1 and 10x2 by a predetermined method.
  • the filter unit 22 processes the integrated recognition data Gx input from the sensor integration unit 24 based on the constraint condition 61b input from the coordinate conversion unit 21.
  • the filter unit 22 removes noise or outliers included in the integrated recognition data Gx input from the sensor integration unit 24, for example, based on the constraint condition 61b input from the coordinate conversion unit 21.
  • the filter unit 22 may be configured by, for example, the guided filter described in the reference ("Fast Guided Filter” Kaming He Jian Sun, arXiv: 1505.00996v1 [cs.CV] 5 May 2015).
  • the filter unit 22 may be composed of, for example, a Bayesian filter composed of a least squares regression (ridge regression) with a regularization term.
  • the filter unit 22 outputs the processed integrated recognition data Gx'to the environment map construction unit 50.
  • the environment map construction unit 50 constructs the environment map Ma at the current time using the integrated recognition data Gx'processed by the filter unit 22.
  • the environment map construction unit 50 stores the obtained environment map Ma at the current time in the environment map 61 of the storage unit 60.
  • FIG. 17 shows an embodiment of the processing procedure in the recognition system 1 of FIG.
  • the sensor unit 10x1, 10x2 acquires the recognition data Dx1, Dx2 (step S301).
  • the sensor integration unit 24 integrates the recognition data Dx1 and Dx2 obtained from the sensor units 10x1 and 10x2 by a predetermined method (step S302).
  • the sensor integration unit 24 derives the integrated recognition data Gx.
  • the coordinate conversion unit 21 acquires the constraint condition 61a from the environment map 61 (environment map at the previous time) in the storage unit 60 (step S303).
  • the coordinate conversion unit 21 performs coordinate conversion processing for converting the acquired constraint condition 61a from the coordinate system of the environment map 61 (environment map of the previous time) to the coordinate system of the sensor unit 10x1, 10x2 (Ste S304).
  • the filter unit 22 filters the shape approximation formula based on the constraint condition 61b after the coordinate transformation (step S305).
  • the filter unit 22 removes noise or outliers included in the integrated recognition data Gx, for example, based on the constraint condition 61b after the coordinate conversion.
  • the environment map construction unit 50 constructs the environment map Ma at the current time using the processed integrated recognition data Gx'(step S306).
  • the environment map construction unit 50 stores the obtained environment map Ma at the current time in the environment map 61 of the storage unit 60. In this way, the processing in the recognition system 1 of FIG. 16 is performed.
  • FIG. 18 shows an embodiment of the recognition system 1.
  • the two sensor units 10x1 and 10x2 are any two of the sensor units 10a to 10c and 10e.
  • the coordinate conversion unit 21, the filter units 22a and 22b, and the sensor integration unit 24 are specific examples of the components included in the signal processing unit 20.
  • the coordinate conversion unit 21 acquires the constraint condition 61a from the environment map 61 (environment map at the previous time) in the storage unit 60.
  • the coordinate conversion unit 21 acquires the restraint condition 61a from the environment map 61 (environment map at the previous time) in the storage unit 60 via the communication unit 80.
  • the constraint condition 61a includes, for example, geometric data.
  • the coordinate conversion unit 21 sets the constraint condition 61a from the coordinate system of the environment map 61 (environment map of the previous time) with respect to the environment map 61 (environment map of the previous time) to the coordinate system of the sensor unit 10x1, 10x2.
  • the coordinate conversion process is performed, and the constraint condition 61b for which the coordinate conversion process has been performed is output to the filter units 22a and 22b.
  • the filter unit 22b processes the recognition data Dx2 input from the sensor unit 10x2 based on the constraint condition 61b input from the coordinate conversion unit 21.
  • the filter unit 22b removes noise or outliers included in the recognition data Dx2 input from the sensor unit 10x2, for example, based on the constraint condition 61b input from the coordinate conversion unit 21.
  • the filter unit 22b may be configured by, for example, the guided filter described in the reference ("Fast Guided Filter” Kaming He Jian Sun, arXiv: 1505.00996v1 [cs.CV] 5 May 2015).
  • the filter unit 22b may be composed of, for example, a Bayesian filter composed of a least squares regression (ridge regression) with a regularization term. As a result, the filter unit 22b obtains the recognition data Dx2'from which noise or outliers have been removed.
  • the filter unit 22b outputs the processed recognition data Dx2'to the sensor integration unit 24.
  • the sensor integration unit 24 derives the integrated recognition data Hx by integrating the recognition data Dx1'and Dx2' obtained from the filter units 22a and 22b by a predetermined method.
  • the environment map construction unit 50 constructs the environment map Ma at the current time using the integrated recognition data Hx input from the sensor integration unit 24.
  • the environment map construction unit 50 stores the obtained environment map Ma at the current time in the environment map 61 of the storage unit 60.
  • FIG. 19 shows an embodiment of the processing procedure in the recognition system 1 of FIG.
  • the sensor unit 10x1, 10x2 acquires the recognition data Dx1 and Dx2 (step S401).
  • the coordinate conversion unit 21 acquires the constraint condition 61a from the environment map 61 (environment map at the previous time) in the storage unit 60 (step S402).
  • the coordinate conversion unit 21 performs coordinate conversion processing for converting the acquired constraint condition 61a from the coordinate system of the environment map 61 (environment map of the previous time) to the coordinate system of the sensor unit 10x1, 10x2 ( Step S403).
  • the filter unit 22a filters the recognition data Dx1 based on the constraint condition 61b after the coordinate conversion
  • the filter unit 22b filters the recognition data Dx2 based on the constraint condition 61b after the coordinate conversion.
  • the filter unit 22a removes noise or outliers included in the recognition data Dx1 based on, for example, the constraint condition 61b after the coordinate conversion
  • the filter unit 22b is based on, for example, the constraint condition 61b after the coordinate conversion.
  • the noise or outliers contained in the recognition data Dx2 are removed.
  • the sensor integration unit 24 integrates the recognition data Dx1'and Dx2' obtained from the filter units 22a and 22b by a predetermined method (step S405).
  • the sensor integration unit 24 derives the integrated recognition data Hx.
  • the environment map construction unit 50 constructs the environment map Ma at the current time using the processed integrated recognition data Hx (step S406).
  • the environment map construction unit 50 stores the obtained environment map Ma at the current time in the environment map 61 of the storage unit 60. In this way, the processing in the recognition system 1 of FIG. 18 is performed.
  • FIG. 20 shows an embodiment of the recognition system 1.
  • the two sensor units 10x1 and 10x2 are any two of the sensor units 10a to 10c and 10e.
  • the coordinate conversion unit 21, the filter units 22a and 22b, and the sensor integration unit 24 are specific examples of the components included in the signal processing unit 20.
  • the coordinate conversion unit 21 acquires the constraint condition 61a from the environment map 61 (environment map at the previous time) in the storage unit 60.
  • the coordinate conversion unit 21 acquires the restraint condition 61a from the environment map 61 (environment map at the previous time) in the storage unit 60 via the communication unit 80.
  • the constraint condition 61a includes, for example, geometric data.
  • the coordinate conversion unit 21 sets the constraint condition 61a from the coordinate system of the environment map 61 (environment map of the previous time) with respect to the environment map 61 (environment map of the previous time) to the coordinate system of the sensor unit 10x1, 10x2.
  • the coordinate conversion process is performed, and the constraint condition 61b for which the coordinate conversion process has been performed is output to the filter units 22a and 22b.
  • the filter unit 22b processes the recognition data Dx2 input from the sensor unit 10x2 based on the constraint condition 61b input from the coordinate conversion unit 21.
  • the filter unit 22b removes noise or outliers included in the recognition data Dx2 input from the sensor unit 10x2, for example, based on the constraint condition 61b input from the coordinate conversion unit 21.
  • the filter unit 22b may be configured by, for example, the guided filter described in the reference ("Fast Guided Filter” Kaming He Jian Sun, arXiv: 1505.00996v1 [cs.CV] 5 May 2015).
  • the filter unit 22b may be composed of, for example, a Bayesian filter composed of a least squares regression (ridge regression) with a regularization term. As a result, the filter unit 22b obtains the recognition data Dx2'from which noise or outliers have been removed.
  • the filter unit 22b outputs the processed recognition data Dx2'to the sensor integration unit 24.
  • the object recognition unit 40 derives identification data CO for one or more objects existing in the external environment based on the recognition data Df input from the sensor unit 10f.
  • the identification data CO is, for example, data representing the type of an object (for example, metal, mirror, glass, etc.).
  • the object recognition unit 40 outputs the derived identification data CO to the environment map construction unit 50.
  • the sensor integration unit 24 processes the recognition data Dx1'and Dx2' obtained from the filter units 22a and 22b based on the identification data CO of the previous time input from the environment map construction unit 50.
  • the identification data CO is input to the sensor integration unit 24
  • the identification data CO input to the sensor integration unit 24 is the identification data CO at the current time.
  • the identification data CO input to the sensor integration unit 24 corresponds to the identification data CO at the previous time.
  • the sensor integration unit 24 weights the recognition data Dx1'based on, for example, the identification data CO of the previous time and the characteristics of the sensor unit 10x1.
  • the sensor integration unit 24 weights the recognition data Dx2'based on, for example, the identification data CO of the previous time and the characteristics of the sensor unit 10x2.
  • the characteristics of the sensor unit 10x1 refer to, for example, data corresponding to the material of an object that is not easy for the sensor unit 10x1 to recognize, and data corresponding to the material of the object that is easy to recognize for the sensor unit 10x1.
  • the characteristics of the sensor unit 10x2 refer to, for example, data corresponding to the material of an object that is not easy for the sensor unit 10x2 to recognize, and data corresponding to the material of the object that is easy to recognize for the sensor unit 10x2.
  • the sensor integration unit 24 integrates the recognition data Dx1'' weighted with respect to the recognition data Dx1'and the recognition data Dx2'' weighted with respect to the recognition data Dx2' by a predetermined method. , Derivation of integrated recognition data Jx.
  • the sensor integration unit 24 outputs the derived integrated recognition data Jx to the environment map construction unit 50.
  • the environment map construction unit 50 constructs the environment map Ma at the current time using the integrated recognition data Jx input from the sensor integration unit 24.
  • the environment map construction unit 50 stores the obtained environment map Ma at the current time in the environment map 61 of the storage unit 60.
  • the environment map construction unit 50 associates the identification data CO of the current time input from the object recognition unit 40 with the environment map Ma of the current time.
  • the environment map construction unit 50 stores the identification data CO of the current time in the environment map 61 of the storage unit 60 in association with the environment map Ma of the current time.
  • the environmental map construction unit 50 further outputs the identification data CO of the current time to the sensor integration unit 24.
  • FIG. 21 shows an embodiment of the processing procedure in the recognition system 1 of FIG.
  • the sensor unit 10x1, 10x2, 10f acquires the recognition data Dx1, Dx2, Df (step S501).
  • the coordinate conversion unit 21 acquires the constraint condition 61a from the environment map 61 (environment map at the previous time) in the storage unit 60 (step S502).
  • the coordinate conversion unit 21 performs coordinate conversion processing for converting the acquired constraint condition 61a from the coordinate system of the environment map 61 (environment map of the previous time) to the coordinate system of the sensor unit 10x1, 10x2 ( Step S503).
  • the filter unit 22a filters the recognition data Dx1 based on the constraint condition 61b after the coordinate conversion
  • the filter unit 22b filters the recognition data Dx2 based on the constraint condition 61b after the coordinate conversion.
  • the filter unit 22a removes noise or outliers included in the recognition data Dx1 based on, for example, the constraint condition 61b after the coordinate conversion
  • the filter unit 22b is based on, for example, the constraint condition 61b after the coordinate conversion.
  • the noise or outliers contained in the recognition data Dx2 are removed.
  • the sensor integration unit 24 processes the recognition data Dx1'and Dx2' obtained from the filter units 22a and 22b based on the identification data CO of the previous time input from the environment map construction unit 50.
  • the sensor integration unit 24 weights the recognition data Dx1'based on, for example, the identification data CO of the previous time and the characteristics of the sensor unit 10x1.
  • the sensor integration unit 24 weights the recognition data Dx2'based on, for example, the identification data CO of the previous time and the characteristics of the sensor unit 10x2.
  • the sensor integration unit 24 further integrates the recognition data Dx1'' weighted with respect to the recognition data Dx1'and the recognition data Dx2'' weighted with respect to the recognition data Dx2' by a predetermined method. (Step S505). As a result, the sensor integration unit 24 derives the integrated recognition data Jx.
  • the environment map construction unit 50 constructs the environment map Ma at the current time using the derived integrated recognition data Jx (step S506).
  • the environment map construction unit 50 stores the obtained environment map Ma at the current time in the environment map 61 of the storage unit 60.
  • the object recognition unit 40 derives the identification data CO at the current time based on the recognition data Df input from the sensor unit 10f (step S507).
  • the object recognition unit 40 outputs the derived current time identification data CO to the environment map construction unit 50.
  • the environment map construction unit 50 stores the identification data CO of the current time in the environment map 61 of the storage unit 60 in association with the environment map Ma of the current time.
  • the environmental map construction unit 50 further outputs the identification data CO of the current time to the sensor integration unit 24.
  • the sensor integration unit 24 can use the identification data CO input from the environment map construction unit 50 as the identification data CO of the previous time at the time of the next integration process. In this way, the processing in the recognition system 1 of FIG. 20 is performed.
  • FIG. 22 shows an embodiment of the recognition system 1.
  • the sensor unit 10x is any of the sensor units 10a to 10c and 10e.
  • the sensor element 11x is any one of the sensor elements 11a to 11c and 11e.
  • the signal processing unit 12x is any one of the signal processing units 12a to 12c and 12e.
  • the coordinate conversion unit 21 is a specific example of the components included in the signal processing unit 20.

Abstract

環境地図構築装置は、データ処理部と、環境地図構築部とを備えている。データ処理部は、前時刻の環境地図に基づいて、外部環境を認識する1または複数の外部環境認識部から出力された1または複数の認識データを処理する。環境地図構築部は、データ処理部によって処理された1または複数の認識データを用いて、現時刻の環境地図を構築する。

Description

環境地図構築装置、環境地図構築方法および環境地図構築プログラム
 本開示は、環境地図を構築する環境地図構築装置、環境地図構築方法および環境地図構築プログラムに関する。
 近年、外部環境を認識し、認識された環境に応じて自律的に移動するロボットなどの移動体に関する技術が開示されている(例えば、特許文献1~3参照)。
特開2013-132748号公報 特開2012-248032号公報 特開2011-47836号公報
 ロボットなどの移動体では、外部環境を認識するために各種センサが設けられており、各種センサから得られたセンサデータに基づいて、外部環境に対応する環境地図が構築される。しかし、センサデータに含まれるノイズに起因して、環境地図を適切に構築することが困難となる場合がある。従って、環境地図を適切に構築することの可能な環境地図構築装置、環境地図構築方法および環境地図構築プログラムを提供することが望ましい。
 本開示の一実施形態に係る環境地図構築装置は、データ処理部と、環境地図構築部とを備えている。データ処理部は、前時刻の環境地図に基づいて、外部環境を認識する1または複数の外部環境認識部から出力された1または複数の認識データを処理する。環境地図構築部は、データ処理部によって処理された1または複数の認識データを用いて、現時刻の環境地図を構築する。
 本開示の一実施形態に係る環境地図構築方法は、以下の2つを含む。
・前時刻の環境地図に基づいて、外部環境を認識する1または複数の外部環境認識部から出力された1または複数の認識データを処理すること
・処理後の1または複数の認識データを用いて、現時刻の環境地図を構築すること
 本開示の一実施形態に係る環境地図構築プログラムは、以下の2つをコンピュータに実行させる。
・前時刻の環境地図に基づいて、外部環境を認識する1または複数の外部環境認識部から出力された1または複数の認識データを処理すること
・処理後の1または複数の認識データを用いて、現時刻の環境地図を構築すること
 本開示の一実施形態に係る環境地図構築装置、環境地図構築および環境地図構築プログラムでは、現時刻の環境地図の構築に用いられる認識データが、前時刻の環境地図に基づいて処理される。このように、本開示では、認識データに対して、前時刻の環境地図がフィードバックされる。これにより、例えば、前時刻の環境地図から、認識データが得られた領域の構造を推定することが可能となり、推定した構造から、認識データに含まれるノイズや外れ値などを特定することが可能となる。
本開示の一実施形態に係る環境地図構築装置の概略構成例を表す図である。 図1の環境地図構築装置の概略構成の一具体例を表す図である。 図1の環境地図構築装置の概略構成の一具体例を表す図である。 図1の環境地図構築装置の概略構成の一具体例を表す図である。 図1の環境地図構築装置の概略構成の一変形例を表す図である。 図2の環境地図構築装置の概略構成の一変形例を表す図である。 図3の環境地図構築装置の概略構成の一変形例を表す図である。 図4の環境地図構築装置の概略構成の一変形例を表す図である。 図2、図3、図6、図7の認識装置の概略構成例を表す図である。 実施例に係る環境地図構築装置の概略構成例を表す図である。 図10の環境地図構築装置における処理手順の一例を表す図である。 実施例に係る環境地図構築装置の概略構成例を表す図である。 図12の環境地図構築装置における処理手順の一例を表す図である。 実施例に係る環境地図構築装置の概略構成例を表す図である。 図15の環境地図構築装置における処理手順の一例を表す図である。 実施例に係る環境地図構築装置の概略構成例を表す図である。 図16の環境地図構築装置における処理手順の一例を表す図である。 実施例に係る環境地図構築装置の概略構成例を表す図である。 図18の環境地図構築装置における処理手順の一例を表す図である。 実施例に係る環境地図構築装置の概略構成例を表す図である。 図20の環境地図構築装置における処理手順の一例を表す図である。 実施例に係る環境地図構築装置の概略構成例を表す図である。 図22の環境地図構築装置における処理手順の一例を表す図である。 実施例に係る環境地図構築装置の概略構成例を表す図である。 図24の環境地図構築装置における処理手順の一例を表す図である。 実施例に係る環境地図構築装置の概略構成例を表す図である。 図26の環境地図構築装置における処理手順の一例を表す図である。 実施例に係る環境地図構築装置の概略構成例を表す図である。 図28の環境地図構築装置における処理手順の一例を表す図である。
 以下、本開示を実施するための形態について、図面を参照して詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
<1.背景>
 例えばカメラを備えたロボットなどの移動体において、外部環境を観測し、観測状況に応じて移動体の周囲の地図(環境地図)を作成する環境地図構築処理は、移動体が外部環境に応じて自律的に移動するために行われる。自律移動型の移動体には、外部環境を認識するために各種センサが設けられており、各種センサから得られたセンサデータに基づいて、環境地図が構築される。
 各種センサには、方式毎に環境や対象に対する得手不得手がある。そのため、自律移動型の移動体の認識システムの多くの例で、複数のセンサを用い、お互いの不得手を補い合うことで、総合的なロバストネスを改善している。例えば、上記特許文献1には、複数センサ間で情報を交換することで、センサ統合出力を改善する方法が開示されている。また、例えば、上記特許文献2には、段階的にかつ適応的に信頼度に基づいて複数センサを統合する方法が開示されている。また、例えば、上記特許文献3には、センサ統合部からセンサデータ処理部に対して改善指示をフィードバックする方法が開示されている。
 しかしながら、これらの従来技術をもってしても、環境や対象に固有の、センサデータの劣化に対応できず、地図構築が適切に行えなくなり、移動体の自律的な行動ができなくなる場合がしばしば発生する。そのため、自律移動型の移動体の開発において、環境や対象に固有の、センサデータの劣化に対処することが、大きな技術的課題となっている。
 一方で、我々をとりまく、また将来自律移動型の移動体が活動すると想定される環境について着目してみると、対象は幾何的な構造を持っている場合が多い。例えば、壁面、通路の床面、建物の側面、ガラス窓などは垂直、水平で配置された平面で構成されている場合が多い。これのような環境での人間の認識・行動について考察すると、視覚において多少に見えにくい領域・瞬間があっても想像、推測によって適切な行動をとっているように思われる。具体的には、人間は、周辺の幾何情報あるいは直前に視覚し認識した幾何情報、オブジェクトとしての対象の認識とそれに関連付けられた知識を基に、その領域の構造を推測することで視覚からの情報不足を補っているようにも思われる。
 自律移動型の移動体の認識システムに目を転じると、環境地図には、周辺の幾何情報が豊富に蓄えられている。そこで、以下では、自律移動型の移動体の認識システムにおいて、現時刻の環境地図を構築するために得られたセンサデータに対して、前時刻の環境地図をフィードバックすることにより、センサデータの劣化に対処することの可能な認識システムについて説明する。
<2.実施の形態>
[構成]
 本開示の一実施の形態に係る認識システム1について説明する。図1は、認識システム1の概略構成例を表したものである。認識システム1は、例えば、図1に示したように、複数のセンサ部10a~10e、信号処理部20、自己位置検出部30、物体認識部40、環境地図構築部50、記憶部60および行動計画部70を備えている。センサ部10a~10eは、例えば、センサ素子11a~11eと、信号処理部12a~12eとを有している。記憶部60は、環境地図61を記憶している。
 認識システム1は、本開示の「環境地図構築装置」の一具体例に相当する。各センサ部10a~10c,10eは、本開示の「外部環境認識部」の一具体例に相当する。信号処理部20および信号処理部12a~12c,12eは、本開示の「データ処理部」の一具体例に相当する。記憶部60は、本開示の「記憶部」の一具体例に相当する。環境地図61は、本開示の「環境地図」の一具体例に相当する。
 各センサ素子11a~11eは、外部環境を認識し、認識した外部環境に対応する認識データDa~Deを出力する。各信号処理部12a~12eは、各センサ素子11a~11eから出力された認識データDa~Deに対して所定の処理を行い、処理後の認識データDa~Deを出力する。信号処理部12a~12c,12eは、処理後の認識データDa~Dc,Deを信号処理部20に出力する。信号処理部12d,12eは、処理後の認識データDd,Deを自己位置検出部30に出力する。信号処理部12eは、処理後の認識データDeを物体認識部40に出力する。
 認識データDaおよび処理後の認識データDaは、センサ素子11aの座標系で表現されている。認識データDbおよび処理後の認識データDbは、センサ素子11bの座標系で表現されている。認識データDcおよび処理後の認識データDcは、センサ素子11cの座標系で表現されている。認識データDdおよび処理後の認識データDdは、センサ素子11dの座標系で表現されている。認識データDeおよび処理後の認識データDeは、センサ素子11eの座標系で表現されている。センサ素子11a~11eの認識システム1における相対位置は既知である。そのため、例えば、世界座標系とセンサ素子11a~11eの座標系の変換関係は、例えば、世界座標系で表現される認識システム1の現在位置データCLから得ることが出来る。
 センサ素子11dは、例えば、慣性計測素子(inertial measurement element)である。慣性計測素子は、例えば、3軸加速度センサおよび3軸ジャイロセンサを含んで構成されており、これらのセンサから出力される計測データを認識データDdとして信号処理部12dに出力する。信号処理部12dは、センサ素子11dから入力された認識データDdに対して所定の処理を行い、処理後の認識データDdを自己位置検出部30に出力する。
 センサ素子11eは、例えば、ステレオカメラである。ステレオカメラは、例えば、2眼のCCD(Charge Coupled Device)イメージセンサ、または、2眼のCMOS(Complementary Metal Oxide Semiconductor)イメージセンサを含んでいる。ステレオカメラは、例えば、さらに、2眼のCCDイメージセンサまたは2眼のCMOSイメージセンサで得られた2つのRAWデータに基づいて視差データを生成し、生成した視差データを認識データDeとして信号処理部12eに出力する。信号処理部12eは、センサ素子11eから入力された認識データDeに対して所定の処理を行い、処理後の認識データDeを信号処理部20、自己位置検出部30および物体認識部40に出力する。
 信号処理部20は、前時刻の環境地図Mbに基づいて、センサ部10a~10c,10eから入力された認識データDa~Dc,Deを処理する。信号処理部20は、処理後の認識データDa’~Dc’,De’を環境地図構築部50に出力する。自己位置検出部30は、センサ部10d,10eから入力された認識データDd,Deに基づいて、認識システム1の現在位置データCLを導出する。自己位置検出部30は、導出した現在位置データCLを信号処理部20および行動計画部70に出力する。物体認識部40は、センサ部10eから入力された認識データDeに基づいて、外部環境に存在する1または複数の物体についての識別データCOを導出する。識別データCOは、例えば、物体の種類(例えば、金属、鏡、ガラスなど)を表すデータである。物体認識部40は、導出した識別データCOを環境地図構築部50に出力する。
 環境地図構築部50は、信号処理部20によって処理された認識データDa’~Dc’,De’を用いて、現時刻の環境地図Maを構築する。環境地図構築部50は、例えば、さらに、物体認識部40から入力された識別データCOを、現時刻の環境地図Maに対応付ける。環境地図構築部50は、得られた現時刻の環境地図Maを、記憶部60の環境地図61に格納する。環境地図構築部50は、例えば、物体認識部40から入力された識別データCOを、得られた現時刻の環境地図Maに対応付けて、記憶部60の環境地図61に格納する。環境地図構築部50は、記憶部60に記憶されている環境地図61から、現在位置データCLを含む所定の領域の環境地図を読み出し、読み出した環境地図を、前時刻の環境地図Mbとして、信号処理部20に出力する。前時刻の環境地図Mbには、例えば、識別データCOが対応付けられている。
 記憶部60は、例えば、DRAM(Dynamic Random Access Memory)などの揮発性メモリ、または、EEPROM(Electrically Erasable Programmable Read-Only Memory)
やフラッシュメモリなどの不揮発性メモリによって構成されている。記憶部60は、環境地図61を記憶している。環境地図61は、例えば、環境地図構築部50から入力された現時刻の環境地図Maを含んで構成された地図データベースである。環境地図61、環境地図Maおよび環境地図Mbは、例えば、世界座標系で表現されている。行動計画部70は、記憶部60から読み出した環境地図61と、自己位置検出部30で得られた現在位置データCLとに基づいて行動計画を作成する。行動計画部70は、例えば、記憶部60から読み出した環境地図61に基づいて、自己位置検出部30で得られた現在位置データCLからどのような経路を、どのような向きおよび姿勢で移動するかを判断し、その判断の結果を行動計画APとして出力する。
 図2は、認識システム1の構成例を表したものである。認識システム1は、例えば、図2に示したように、センサ部10a~10eと、認識装置1Aと、記憶部60とによって構成されていてもよい。この場合、認識装置1Aは、例えば、センサ部10a~10eおよび記憶部60とは別体で設けられた信号処理基板であり、信号処理部20、自己位置検出部30、物体認識部40、環境地図構築部50および行動計画部70を含んで構成されている。認識装置1Aは、センサ部10a~10eからの認識データDa~10eを入力データとし、行動計画APを出力データとする。認識装置1Aは、例えば、環境地図構築部50または行動計画部70を介して、記憶部60との間でデータのやり取りを行う。
 図3は、認識システム1の構成例を表したものである。認識システム1は、例えば、図3に示したように、センサ素子11a~11eと、認識装置1Bと、記憶部60とによって構成されていてもよい。この場合、認識装置1Bは、例えば、センサ素子11a~11eおよび記憶部60とは別体で設けられた信号処理基板であり、信号処理部12a~12e、信号処理部20、自己位置検出部30、物体認識部40、環境地図構築部50および行動計画部70を含んで構成されている。認識装置1Bは、センサ素子11a~11eからの認識データDa~10eを入力データとし、行動計画APを出力データとする。認識装置1Bは、例えば、環境地図構築部50または行動計画部70を介して、記憶部60との間でデータのやり取りを行う。
 図4は、認識システム1の構成例を表したものである。認識システム1は、例えば、図4に示したように、認識装置2およびサーバ装置3を備えていてもよい。この場合、認識装置2は、例えば、センサ部10a~10e、信号処理部20、自己位置検出部30、物体認識部40、環境地図構築部50、行動計画部70および通信部80を備えている。サーバ装置3は、例えば、記憶部60を備えている。
 認識装置2およびサーバ装置3は、ネットワーク4に接続されている。ネットワーク4は、例えば、インターネットで標準的に利用されている通信プロトコル(TCP/IP)を用いて通信を行う外部ネットワークである。認識装置2は、通信部80を介して、ネットワーク4に接続されている。通信部80は、ネットワーク4を介して、サーバ装置3と通信可能となっている。
 なお、例えば、図5、図6、図7、図8に示したように、認識システム1において、物体認識部40が省略されていてもよい。
 認識装置1A,1Bは、例えば、図9に示したように、演算部81および記憶部82によって構成されていてもよい。この場合、演算部81は、例えば、CPU(Central Processing Unit)およびGPU(Graphics Processing Unit)を含んで構成されている。記憶部82は、例えば、DRAMなどの揮発性メモリ、または、EEPROMやフラッシュメモリなどの不揮発性メモリによって構成されている。記憶部82は、環境地図構築プログラム82aを記憶している。
 演算部81は、例えば、記憶部82に記憶された環境地図構築プログラム82aを実行することにより、信号処理部20、自己位置検出部30、物体認識部40、環境地図構築部50および行動計画部70の各機能を実行する。この場合には、信号処理部20、自己位置検出部30、物体認識部40、環境地図構築部50および行動計画部70の各機能が、環境地図構築プログラム82aが演算部81にロードされることによって実行される。
 演算部81は、例えば、記憶部82に記憶された環境地図構築プログラム82aを実行することにより、信号処理部12a~12e、信号処理部20、自己位置検出部30、物体認識部40、環境地図構築部50および行動計画部70の各機能を実行してもよい。この場合には、信号処理部12a~12e、信号処理部20、自己位置検出部30、物体認識部40、環境地図構築部50および行動計画部70の各機能が、環境地図構築プログラム82aが演算部81にロードされることによって実行される。
 なお、物体認識部40が省略されている場合には、演算部81は、例えば、物体認識部40を除く各機能を実行する。
[実施例]
 以下に、認識システム1の実施例について説明する。
(実施例1)
 図10は、認識システム1の一実施例を表したものである。図10において、センサ部10xは、センサ部10a~10c,10eのいずれかである。また、座標変換部21およびフィルタ部22は、信号処理部20に含まれる構成要素の一具体例である。
 座標変換部21は、記憶部60内の環境地図61(前時刻の環境地図)から拘束条件61aを取得する。記憶部60がサーバ装置3に設けられている場合には、座標変換部21は、通信部80を介して、記憶部60内の環境地図61(前時刻の環境地図)から拘束条件61aを取得する。拘束条件61aは、例えば、幾何データを含む。座標変換部21は、さらに、拘束条件61aを、環境地図61(前時刻の環境地図)の座標系から、センサ部10xの座標系に変換する座標変換処理を行い、座標変換処理のなされた拘束条件61bをフィルタ部22に出力する。環境地図の座標系は、例えば、世界座標系で表現されている。現時刻のセンサ部10xの座標系は、例えば、自己位置検出部30で導出された現在位置データCLと既知であるシステムにおけるセンサ部10xの相対位置より得る。
 フィルタ部22は、座標変換部21から入力された拘束条件61bに基づいて、センサ部10xから入力された認識データDxを処理する。フィルタ部22は、例えば、座標変換部21から入力された拘束条件61bに基づいて、センサ部10xから入力された認識データDxに含まれるノイズもしくは外れ値を除去する。フィルタ部22は、例えば、参考文献("Fast Guided Filter" Kaming He Jian Sun, arXiv:1505.00996v1 [cs.CV] 5 May 2015 )に記載のguided filterによって構成されていてもよい。フィルタ部22は、例えば、正則化項付き最小二乗回帰(リッジ回帰)からなるベイジアンフィルタによって構成されていてもよい。これにより、フィルタ部22は、ノイズもしくは外れ値が除去された認識データDx’を得る。フィルタ部22は、処理後の認識データDx’を環境地図構築部50に出力する。環境地図構築部50は、フィルタ部22によって処理された認識データDx’を用いて、現時刻の環境地図Maを構築する。環境地図構築部50は、得られた現時刻の環境地図Maを、記憶部60の環境地図61に格納する。
 図11は、図10の認識システム1における処理手順の一実施例を表したものである。まず、センサ部10xが認識データDxを取得する(ステップS101)。次に、座標変換部21は、記憶部60内の環境地図61(前時刻の環境地図)から拘束条件61aを取得する(ステップS102)。座標変換部21は、続いて、取得した拘束条件61aを、環境地図61(前時刻の環境地図)の座標系から、センサ部10xの座標系に変換する座標変換処理を行う(ステップS103)。次に、フィルタ部22は、座標変換後の拘束条件61bに基づいて、認識データDxをフィルタ処理する(ステップS104)。フィルタ部22は、例えば、座標変換後の拘束条件61bに基づいて、認識データDxに含まれるノイズもしくは外れ値を除去する。次に、環境地図構築部50は、処理後の認識データDx’を用いて、現時刻の環境地図Maを構築する(ステップS105)。環境地図構築部50は、得られた現時刻の環境地図Maを、記憶部60の環境地図61に格納する。このようにして、図10の認識システム1における処理が行われる。
(実施例2)
 図12は、認識システム1の一実施例を表したものである。図12において、センサ部10xは、センサ部10a~10c,10eのいずれかである。また、座標変換部21、フィルタ部22およびクラスタ化部23は、信号処理部20に含まれる構成要素の一具体例である。クラスタ化部23は、本開示の「形状近似部」の一具体例に相当する。
 座標変換部21は、記憶部60内の環境地図61(前時刻の環境地図)から拘束条件61aを取得する。記憶部60がサーバ装置3に設けられている場合には、座標変換部21は、通信部80を介して、記憶部60内の環境地図61(前時刻の環境地図)から拘束条件61aを取得する。拘束条件61aは、例えば、幾何データを含む。座標変換部21は、さらに、拘束条件61aを、環境地図61(前時刻の環境地図)に対して、環境地図61(前時刻の環境地図)の座標系から、センサ部10xの座標系に変換する座標変換処理を行い、座標変換処理のなされた拘束条件61bをフィルタ部22に出力する。
 クラスタ化部23は、認識データDxが複数の局所データを含んでいる場合に、複数の局所データをクラスタ化することにより、形状近似式Fxを導出する。クラスタ化部23は、例えば、認識データDxが点群(point cloud)として与えられるとき、各点を領域の物理的な大きさや領域に含まれる点数毎にクラスタとして集約し、各クラスタの共分散やそれから求められる法線ベクトル等をパラメータとした形状近似式Fxを導出する。
 フィルタ部22は、座標変換部21から入力された拘束条件61bに基づいて、クラスタ化部23から入力された形状近似式Fxを処理する。フィルタ部22は、例えば、座標変換部21から入力された拘束条件61bに基づいて、クラスタ化部23から入力された形状近似式Fxに含まれるノイズもしくは外れ値を除去する。フィルタ部22は、例えば、参考文献("Fast Guided Filter" Kaming He Jian Sun, arXiv:1505.00996v1 [cs.CV] 5 May 2015 )に記載のguided filterによって構成されていてもよい。フィルタ部22は、例えば、正則化項付き最小二乗回帰(リッジ回帰)からなるベイジアンフィルタによって構成されていてもよい。これにより、フィルタ部22は、ノイズもしくは外れ値が除去された形状近似式Fx’を得る。フィルタ部22は、処理後の形状近似式Fx’を環境地図構築部50に出力する。環境地図構築部50は、フィルタ部22によって処理された形状近似式Fx’を用いて、現時刻の環境地図Maを構築する。環境地図構築部50は、得られた現時刻の環境地図Maを、記憶部60の環境地図61に格納する。
 図13は、図12の認識システム1における処理手順の一実施例を表したものである。まず、センサ部10xが認識データDxを取得する(ステップS201)。次に、クラスタ化部23は、認識データDxが複数の局所データを含んでいる場合に、複数の局所データをクラスタ化する(ステップS202)。これにより、クラスタ化部23は、形状近似式を導出する。次に、座標変換部21は、記憶部60内の環境地図61(前時刻の環境地図)から拘束条件61aを取得する(ステップS203)。座標変換部21は、続いて、取得した拘束条件61aに対して、環境地図61(前時刻の環境地図)の座標系から、センサ部10xの座標系に変換する座標変換処理を行う(ステップS204)。次に、フィルタ部22は、座標変換後の拘束条件61bに基づいて、形状近似式をフィルタ処理する(ステップS205)。フィルタ部22は、例えば、座標変換後の拘束条件61bに基づいて、形状近似式に含まれるノイズもしくは外れ値を除去する。次に、環境地図構築部50は、処理後の形状近似式を用いて、現時刻の環境地図Maを構築する(ステップS206)。環境地図構築部50は、得られた現時刻の環境地図Maを、記憶部60の環境地図61に格納する。このようにして、図12の認識システム1における処理が行われる。
(実施例3)
 図14は、認識システム1の一実施例を表したものである。図14において、センサ部10xは、センサ部10a~10c,10eのいずれかである。また、座標変換部21、フィルタ部22およびデータ集約化部27は、信号処理部20に含まれる構成要素の一具体例である。データ集約化部27は、本開示の「特定点データ導出部」の一具体例に相当する。
 座標変換部21は、記憶部60内の環境地図61(前時刻の環境地図)から拘束条件61aを取得する。記憶部60がサーバ装置3に設けられている場合には、座標変換部21は、通信部80を介して、記憶部60内の環境地図61(前時刻の環境地図)から拘束条件61aを取得する。拘束条件61aは、例えば、幾何データを含む。座標変換部21は、さらに、拘束条件61aを、環境地図61(前時刻の環境地図)に対して、環境地図61(前時刻の環境地図)の座標系から、センサ部10xの座標系に変換する座標変換処理を行い、座標変換処理のなされた拘束条件61bをフィルタ部22に出力する。
 データ集約化部27は、認識データDxが複数の局所データを含んでいる場合に、複数の局所データに対してデータ集約化演算を行うことにより、複数の特定点データExを導出する。データ集約化部27は、例えば、認識データDxが点群(point cloud)として与えられるとき、特定点データの導出には、点の間引き演算や近傍の平均値的演算等を行う。
 フィルタ部22は、座標変換部21から入力された拘束条件61bに基づいて、データ集約化部27から入力された複数の特定点データExを処理する。フィルタ部22は、例えば、座標変換部21から入力された拘束条件61bに基づいて、データ集約化部27から入力された複数の特定点データExに含まれるノイズもしくは外れ値を除去する。フィルタ部22は、例えば、参考文献("Fast Guided Filter" Kaming He Jian Sun, arXiv:1505.00996v1 [cs.CV] 5 May 2015 )に記載のguided filterによって構成されていてもよい。フィルタ部22は、例えば、正則化項付き最小二乗回帰(リッジ回帰)からなるベイジアンフィルタによって構成されていてもよい。フィルタ部22は、処理後の複数の特定点データEx’を環境地図構築部50に出力する。環境地図構築部50は、フィルタ部22によって処理された複数の特定点データEx’を用いて、現時刻の環境地図Maを構築する。環境地図構築部50は、得られた現時刻の環境地図Maを、記憶部60の環境地図61に格納する。
 図15は、図14の認識システム1における処理手順の一実施例を表したものである。まず、センサ部10xが認識データDxを取得する(ステップS201)。次に、データ集約化部27は、認識データDxが複数の局所データを含んでいる場合に、複数の局所データに対してデータ集約化演算を行う(ステップS207)。これにより、データ集約化部27は、複数の特定点データExを導出する。次に、座標変換部21は、記憶部60内の環境地図61(前時刻の環境地図)から拘束条件61aを取得する(ステップS203)。座標変換部21は、続いて、取得した拘束条件61aを、環境地図61(前時刻の環境地図)の座標系から、センサ部10xの座標系に変換する座標変換処理を行う(ステップS204)。次に、フィルタ部22は、座標変換後の拘束条件61bに基づいて、複数の特定点データExをフィルタ処理する(ステップS208)。フィルタ部22は、例えば、座標変換後の拘束条件61bに基づいて、複数の特定点データExに含まれるノイズもしくは外れ値を除去する。次に、環境地図構築部50は、処理後の複数の特定点データEx’を用いて、現時刻の環境地図Maを構築する(ステップS209)。環境地図構築部50は、得られた現時刻の環境地図Maを、記憶部60の環境地図61に格納する。このようにして、図14の認識システム1における処理が行われる。
(実施例4)
 図16は、認識システム1の一実施例を表したものである。図16において、2つのセンサ部10x1,10x2は、センサ部10a~10c,10eのいずれか2つである。また、座標変換部21、フィルタ部22およびセンサ統合部24は、信号処理部20に含まれる構成要素の一具体例である。
 座標変換部21は、記憶部60内の環境地図61(前時刻の環境地図)から拘束条件61aを取得する。記憶部60がサーバ装置3に設けられている場合には、座標変換部21は、通信部80を介して、記憶部60内の環境地図61(前時刻の環境地図)から拘束条件61aを取得する。拘束条件61aは、例えば、幾何データを含む。座標変換部21は、さらに、拘束条件61aを、環境地図61(前時刻の環境地図)に対して、環境地図61(前時刻の環境地図)の座標系から、センサ部10x1,10x2の座標系に変換する座標変換処理を行い、座標変換処理のなされた拘束条件61bをフィルタ部22に出力する。
 センサ統合部24は、センサ部10x1,10x2から得られた認識データDx1,Dx2を所定の方法で統合することにより、統合認識データGxを導出する。
 フィルタ部22は、座標変換部21から入力された拘束条件61bに基づいて、センサ統合部24から入力された統合認識データGxを処理する。フィルタ部22は、例えば、座標変換部21から入力された拘束条件61bに基づいて、センサ統合部24から入力された統合認識データGxに含まれるノイズもしくは外れ値を除去する。フィルタ部22は、例えば、参考文献("Fast Guided Filter" Kaming He Jian Sun, arXiv:1505.00996v1 [cs.CV] 5 May 2015 )に記載のguided filterによって構成されていてもよい。フィルタ部22は、例えば、正則化項付き最小二乗回帰(リッジ回帰)からなるベイジアンフィルタによって構成されていてもよい。これにより、ノイズもしくは外れ値が除去された統合認識データGx’を得る。フィルタ部22は、処理後の統合認識データGx’を環境地図構築部50に出力する。環境地図構築部50は、フィルタ部22によって処理された統合認識データGx’を用いて、現時刻の環境地図Maを構築する。環境地図構築部50は、得られた現時刻の環境地図Maを、記憶部60の環境地図61に格納する。
 図17は、図16の認識システム1における処理手順の一実施例を表したものである。まず、センサ部10x1,10x2が認識データDx1,Dx2を取得する(ステップS301)。次に、センサ統合部24は、センサ部10x1,10x2から得られた認識データDx1,Dx2を所定の方法で統合する(ステップS302)。これにより、センサ統合部24は、統合認識データGxを導出する。次に、座標変換部21は、記憶部60内の環境地図61(前時刻の環境地図)から拘束条件61aを取得する(ステップS303)。座標変換部21は、続いて、取得した拘束条件61aに対して、環境地図61(前時刻の環境地図)の座標系から、センサ部10x1,10x2の座標系に変換する座標変換処理を行う(ステップS304)。次に、フィルタ部22は、座標変換後の拘束条件61bに基づいて、形状近似式をフィルタ処理する(ステップS305)。フィルタ部22は、例えば、座標変換後の拘束条件61bに基づいて、統合認識データGxに含まれるノイズもしくは外れ値を除去する。次に、環境地図構築部50は、処理後の統合認識データGx’を用いて、現時刻の環境地図Maを構築する(ステップS306)。環境地図構築部50は、得られた現時刻の環境地図Maを、記憶部60の環境地図61に格納する。このようにして、図16の認識システム1における処理が行われる。
(実施例5)
 図18は、認識システム1の一実施例を表したものである。図18において、2つのセンサ部10x1,10x2は、センサ部10a~10c,10eのいずれか2つである。また、座標変換部21、フィルタ部22a,22bおよびセンサ統合部24は、信号処理部20に含まれる構成要素の一具体例である。
 座標変換部21は、記憶部60内の環境地図61(前時刻の環境地図)から拘束条件61aを取得する。記憶部60がサーバ装置3に設けられている場合には、座標変換部21は、通信部80を介して、記憶部60内の環境地図61(前時刻の環境地図)から拘束条件61aを取得する。拘束条件61aは、例えば、幾何データを含む。座標変換部21は、さらに、拘束条件61aを、環境地図61(前時刻の環境地図)に対して、環境地図61(前時刻の環境地図)の座標系から、センサ部10x1,10x2の座標系に変換する座標変換処理を行い、座標変換処理のなされた拘束条件61bをフィルタ部22a,22bに出力する。
 フィルタ部22aは、座標変換部21から入力された拘束条件61bに基づいて、センサ部10x1から入力された認識データDx1を処理する。フィルタ部22aは、例えば、座標変換部21から入力された拘束条件61bに基づいて、センサ部10x1から入力された認識データDx1に含まれるノイズもしくは外れ値を除去する。フィルタ部22aは、例えば、参考文献("Fast Guided Filter" Kaming He Jian Sun, arXiv:1505.00996v1 [cs.CV] 5 May 2015 )に記載のguided filterによって構成されていてもよい。フィルタ部22aは、例えば、正則化項付き最小二乗回帰(リッジ回帰)からなるベイジアンフィルタによって構成されていてもよい。これにより、フィルタ部22aは、ノイズもしくは外れ値が除去された認識データDx1’を得る。フィルタ部22aは、処理後の認識データDx1’をセンサ統合部24に出力する。
 フィルタ部22bは、座標変換部21から入力された拘束条件61bに基づいて、センサ部10x2から入力された認識データDx2を処理する。フィルタ部22bは、例えば、座標変換部21から入力された拘束条件61bに基づいて、センサ部10x2から入力された認識データDx2に含まれるノイズもしくは外れ値を除去する。フィルタ部22bは、例えば、参考文献("Fast Guided Filter" Kaming He Jian Sun, arXiv:1505.00996v1 [cs.CV] 5 May 2015 )に記載のguided filterによって構成されていてもよい。フィルタ部22bは、例えば、正則化項付き最小二乗回帰(リッジ回帰)からなるベイジアンフィルタによって構成されていてもよい。これにより、フィルタ部22bは、ノイズもしくは外れ値が除去された認識データDx2’を得る。フィルタ部22bは、処理後の認識データDx2’をセンサ統合部24に出力する。
 センサ統合部24は、フィルタ部22a,22bから得られた認識データDx1’,Dx2’を所定の方法で統合することにより、統合認識データHxを導出する。
 環境地図構築部50は、センサ統合部24から入力された統合認識データHxを用いて、現時刻の環境地図Maを構築する。環境地図構築部50は、得られた現時刻の環境地図Maを、記憶部60の環境地図61に格納する。
 図19は、図18の認識システム1における処理手順の一実施例を表したものである。まず、センサ部10x1,10x2が認識データDx1,Dx2を取得する(ステップS401)。次に、座標変換部21は、記憶部60内の環境地図61(前時刻の環境地図)から拘束条件61aを取得する(ステップS402)。座標変換部21は、続いて、取得した拘束条件61aに対して、環境地図61(前時刻の環境地図)の座標系から、センサ部10x1,10x2の座標系に変換する座標変換処理を行う(ステップS403)。次に、フィルタ部22aは、座標変換後の拘束条件61bに基づいて、認識データDx1をフィルタ処理するとともに、フィルタ部22bは、座標変換後の拘束条件61bに基づいて、認識データDx2をフィルタ処理する(ステップS404)。フィルタ部22aは、例えば、座標変換後の拘束条件61bに基づいて、認識データDx1に含まれるノイズもしくは外れ値を除去するとともに、フィルタ部22bは、例えば、座標変換後の拘束条件61bに基づいて、認識データDx2に含まれるノイズもしくは外れ値を除去する。センサ統合部24は、フィルタ部22a,22bから得られた認識データDx1’,Dx2’を所定の方法で統合する(ステップS405)。これにより、センサ統合部24は、統合認識データHxを導出する。次に、環境地図構築部50は、処理後の統合認識データHxを用いて、現時刻の環境地図Maを構築する(ステップS406)。環境地図構築部50は、得られた現時刻の環境地図Maを、記憶部60の環境地図61に格納する。このようにして、図18の認識システム1における処理が行われる。
(実施例6)
 図20は、認識システム1の一実施例を表したものである。図20において、2つのセンサ部10x1,10x2は、センサ部10a~10c,10eのいずれか2つである。また、座標変換部21、フィルタ部22a,22bおよびセンサ統合部24は、信号処理部20に含まれる構成要素の一具体例である。
 座標変換部21は、記憶部60内の環境地図61(前時刻の環境地図)から拘束条件61aを取得する。記憶部60がサーバ装置3に設けられている場合には、座標変換部21は、通信部80を介して、記憶部60内の環境地図61(前時刻の環境地図)から拘束条件61aを取得する。拘束条件61aは、例えば、幾何データを含む。座標変換部21は、さらに、拘束条件61aを、環境地図61(前時刻の環境地図)に対して、環境地図61(前時刻の環境地図)の座標系から、センサ部10x1,10x2の座標系に変換する座標変換処理を行い、座標変換処理のなされた拘束条件61bをフィルタ部22a,22bに出力する。
 フィルタ部22aは、座標変換部21から入力された拘束条件61bに基づいて、センサ部10x1から入力された認識データDx1を処理する。フィルタ部22aは、例えば、座標変換部21から入力された拘束条件61bに基づいて、センサ部10x1から入力された認識データDx1に含まれるノイズもしくは外れ値を除去する。フィルタ部22aは、例えば、参考文献("Fast Guided Filter" Kaming He Jian Sun, arXiv:1505.00996v1 [cs.CV] 5 May 2015 )に記載のguided filterによって構成されていてもよい。フィルタ部22aは、例えば、正則化項付き最小二乗回帰(リッジ回帰)からなるベイジアンフィルタによって構成されていてもよい。これにより、フィルタ部22aは、ノイズもしくは外れ値が除去された認識データDx1’を得る。フィルタ部22aは、処理後の認識データDx1’をセンサ統合部24に出力する。
 フィルタ部22bは、座標変換部21から入力された拘束条件61bに基づいて、センサ部10x2から入力された認識データDx2を処理する。フィルタ部22bは、例えば、座標変換部21から入力された拘束条件61bに基づいて、センサ部10x2から入力された認識データDx2に含まれるノイズもしくは外れ値を除去する。フィルタ部22bは、例えば、参考文献("Fast Guided Filter" Kaming He Jian Sun, arXiv:1505.00996v1 [cs.CV] 5 May 2015 )に記載のguided filterによって構成されていてもよい。フィルタ部22bは、例えば、正則化項付き最小二乗回帰(リッジ回帰)からなるベイジアンフィルタによって構成されていてもよい。これにより、フィルタ部22bは、ノイズもしくは外れ値が除去された認識データDx2’を得る。フィルタ部22bは、処理後の認識データDx2’をセンサ統合部24に出力する。
 物体認識部40は、センサ部10fから入力された認識データDfに基づいて、外部環境に存在する1または複数の物体についての識別データCOを導出する。識別データCOは、例えば、物体の種類(例えば、金属、鏡、ガラスなど)を表すデータである。物体認識部40は、導出した識別データCOを環境地図構築部50に出力する。
 センサ統合部24は、環境地図構築部50から入力された前時刻の識別データCOに基づいて、フィルタ部22a,22bから得られた認識データDx1’,Dx2’を処理する。なお、識別データCOがセンサ統合部24に入力された時点では、センサ統合部24に入力された識別データCOは、現時刻の識別データCOである。しかし、認識データDx1’,Dx2’を処理する時点では、センサ統合部24に入力された識別データCOは、前時刻の識別データCOに相当する。
 センサ統合部24は、例えば、前時刻の識別データCOと、センサ部10x1の特性とに基づいて、認識データDx1’に対する重み付けを行う。センサ統合部24は、例えば、前時刻の識別データCOと、センサ部10x2の特性とに基づいて、認識データDx2’に対する重み付けを行う。
 センサ部10x1の特性とは、例えば、センサ部10x1にとって認識の容易ではない物体の材質などに対応するデータや、センサ部10x1にとって認識の容易な物体の材質などに対応するデータを指している。センサ部10x2の特性とは、例えば、センサ部10x2にとって認識の容易ではない物体の材質などに対応するデータや、センサ部10x2にとって認識の容易な物体の材質などに対応するデータを指している。
 センサ統合部24は、認識データDx1’に対して重み付けのなされた認識データDx1’’と、認識データDx2’に対して重み付けのなされた認識データDx2’’とを所定の方法で統合することにより、統合認識データJxを導出する。センサ統合部24は、導出した統合認識データJxを環境地図構築部50に出力する。
 環境地図構築部50は、センサ統合部24から入力された統合認識データJxを用いて、現時刻の環境地図Maを構築する。環境地図構築部50は、得られた現時刻の環境地図Maを、記憶部60の環境地図61に格納する。このとき、環境地図構築部50は、物体認識部40から入力された現時刻の識別データCOを、現時刻の環境地図Maに対応付ける。環境地図構築部50は、現時刻の識別データCOを、現時刻の環境地図Maに対応付けて、記憶部60の環境地図61に格納する。環境地図構築部50は、さらに、現時刻の識別データCOをセンサ統合部24に出力する。
 図21は、図20の認識システム1における処理手順の一実施例を表したものである。まず、センサ部10x1,10x2,10fが認識データDx1,Dx2,Dfを取得する(ステップS501)。次に、座標変換部21は、記憶部60内の環境地図61(前時刻の環境地図)から拘束条件61aを取得する(ステップS502)。座標変換部21は、続いて、取得した拘束条件61aに対して、環境地図61(前時刻の環境地図)の座標系から、センサ部10x1,10x2の座標系に変換する座標変換処理を行う(ステップS503)。次に、フィルタ部22aは、座標変換後の拘束条件61bに基づいて、認識データDx1をフィルタ処理するとともに、フィルタ部22bは、座標変換後の拘束条件61bに基づいて、認識データDx2をフィルタ処理する(ステップS504)。フィルタ部22aは、例えば、座標変換後の拘束条件61bに基づいて、認識データDx1に含まれるノイズもしくは外れ値を除去するとともに、フィルタ部22bは、例えば、座標変換後の拘束条件61bに基づいて、認識データDx2に含まれるノイズもしくは外れ値を除去する。
 センサ統合部24は、環境地図構築部50から入力された前時刻の識別データCOに基づいて、フィルタ部22a,22bから得られた認識データDx1’,Dx2’を処理する。センサ統合部24は、例えば、前時刻の識別データCOと、センサ部10x1の特性とに基づいて、認識データDx1’に対する重み付けを行う。センサ統合部24は、例えば、前時刻の識別データCOと、センサ部10x2の特性とに基づいて、認識データDx2’に対する重み付けを行う。センサ統合部24は、さらに、認識データDx1’に対して重み付けのなされた認識データDx1’’と、認識データDx2’に対して重み付けのなされた認識データDx2’’とを所定の方法で統合する(ステップS505)。これにより、センサ統合部24は、統合認識データJxを導出する。
 次に、環境地図構築部50は、導出した統合認識データJxを用いて、現時刻の環境地図Maを構築する(ステップS506)。環境地図構築部50は、得られた現時刻の環境地図Maを、記憶部60の環境地図61に格納する。
 物体認識部40は、センサ部10fから入力された認識データDfに基づいて、現時刻の識別データCOを導出する(ステップS507)。物体認識部40は、導出した現時刻の識別データCOを環境地図構築部50に出力する。環境地図構築部50は、現時刻の識別データCOを、現時刻の環境地図Maに対応付けて、記憶部60の環境地図61に格納する。環境地図構築部50は、さらに、現時刻の識別データCOをセンサ統合部24に出力する。これにより、センサ統合部24は、次回の統合処理の際に、環境地図構築部50から入力された識別データCOを前時刻の識別データCOとして利用することができる。このようにして、図20の認識システム1における処理が行われる。
(実施例7)
 図22は、認識システム1の一実施例を表したものである。図22において、センサ部10xは、センサ部10a~10c,10eのいずれかである。また、センサ素子11xは、センサ素子11a~11c,11eのいずれかである。また、信号処理部12xは、信号処理部12a~12c,12eのいずれかである。座標変換部21は、信号処理部20に含まれる構成要素の一具体例である。
 座標変換部21は、記憶部60内の環境地図61(前時刻の環境地図)から拘束条件61aを取得する。記憶部60がサーバ装置3に設けられている場合には、座標変換部21は、通信部80を介して、記憶部60内の環境地図61(前時刻の環境地図)から拘束条件61aを取得する。拘束条件61aは、例えば、幾何データを含む。座標変換部21は、さらに、拘束条件61aを、環境地図61(前時刻の環境地図)の座標系から、センサ部10xの座標系に変換する座標変換処理を行う。座標変換部21は、さらに、座標変換処理のなされた拘束条件61bにおける複数の特徴点に対する、確からしさに関する特徴量61cを導出する。座標変換部21は、導出した特徴量61cを信号処理部12xに出力する。特徴量61cは、例えば、複数の特徴点に対する、確からしさの確率分布である。
 座標変換部21は、拘束条件61aに対して、座標変換処理だけでなく、センサ素子11xの感度に関するモデルを考慮した処理も行ってもよい。例えば、センサ素子11xにおいて、正面方向の感度と、左右方向の感度とが互いに異なるとする。この場合、認識データDxにおいて、センサ素子11xの正面方向に相当するデータについては、誤差が相対的に小さく、センサ素子11xの左右方向に相当するデータについては、誤差が相対的に大きい。座標変換部21は、このような、センサ素子11xにおける誤差の分布を、センサ素子11xの感度に関するモデルとして記憶しておき、センサ素子11xに対応する信号処理部12xに与える拘束条件61aに対して、センサ素子11xの感度に関するモデルを考慮した補正を行ってもよい。
 信号処理部12xは、座標変換部21から入力された特徴量61cに基づいて、センサ素子11xから入力された認識データDxを処理する。信号処理部12xは、例えば、座標変換部21から入力された特徴量61cに基づいて、センサ部10xから入力された認識データDxに対する重み付けを行う。これにより、信号処理部12xは、重み付けのなされた認識データKxを得る。例えば、ステレオカメラの場合、特徴量はカメラ画像における特徴点の確からしさを示す値であり、信号処理部12xは、確からしさを前提とした左右カメラの特徴点の視差演算を行い、認識データとして対象までの距離情報を得る。信号処理部12xは、処理後の認識データKxを環境地図構築部50に出力する。環境地図構築部50は、信号処理部12xによって処理された認識データKxを用いて、現時刻の環境地図Maを構築する。環境地図構築部50は、得られた現時刻の環境地図Maを、記憶部60の環境地図61に格納する。
 図23は、図22の認識システム1における処理手順の一実施例を表したものである。まず、センサ素子11xが認識データDxを取得する(ステップS601)。次に、座標変換部21は、記憶部60内の環境地図61(前時刻の環境地図)から拘束条件61aを取得する(ステップS602)。座標変換部21は、続いて、取得した拘束条件61aを、環境地図61(前時刻の環境地図)の座標系から、センサ部10xの座標系に変換する座標変換処理を行う(ステップS603)。このとき、座標変換部21は、必要に応じて、拘束条件61aに対して、センサ素子11xの感度に関するモデルを考慮した処理(感度処理)を行ってもよい。
 座標変換部21は、座標変換処理のなされた拘束条件61b、または、座標変換処理および感度処理のなされた拘束条件61bにおける複数の特徴点に対する、確からしさに関する特徴量61cを導出する(ステップS604)。次に、信号処理部12xは、座標変換部21から入力された特徴量61cに基づいて、センサ素子11xから入力された認識データDxを処理する(ステップS605)。信号処理部12xは、例えば、座標変換部21から入力された特徴量61cに基づいて、センサ部10xから入力された認識データDxに対する重み付けを行う。これにより、信号処理部12xは、重み付けのなされた認識データKxを得る。環境地図構築部50は、信号処理部12xによって処理された認識データKxを用いて、現時刻の環境地図Maを構築する(ステップS606)。環境地図構築部50は、得られた現時刻の環境地図Maを、記憶部60の環境地図61に格納する。このようにして、図22の認識システム1における処理が行われる。
 なお、実施例7において、図24に示したように、信号処理部12xの代わりに学習モデル120xが設けられていてもよい。この場合、学習モデル120xは、前時刻の環境地図Mbから得られた拘束条件61bと、センサ素子11xから出力された認識データDxとを説明変数とするとともに、前時刻の環境地図Mbから得られた拘束条件61bに基づく処理のなされた認識データKxを目的変数とする機械学習が行われた学習モデルである。学習モデル120xは、例えば、多層ニューラルネットワークである。学習モデル120xの学習時に入力される拘束条件61bは、例えば、座標変換処理のなされた拘束条件61b、または、座標変換処理および感度処理のなされた拘束条件61bである。
 信号処理部12xの代わりに学習モデル120xが設けられている場合、座標変換部21は、座標変換処理のなされた拘束条件61b、または、座標変換処理および感度処理のなされた拘束条件61bを学習モデル120xに入力する。
 図25は、図24の認識システム1における処理手順の一実施例を表したものである。まず、センサ素子11xが認識データDxを取得する(ステップS701)。次に、座標変換部21は、記憶部60内の環境地図61(前時刻の環境地図)から拘束条件61aを取得する(ステップS702)。座標変換部21は、必要に応じて、拘束条件61aを、環境地図61(前時刻の環境地図)の座標系から、センサ部10xの座標系に変換する座標変換処理を行う。座標変換部21は、さらに、必要に応じて、拘束条件61aに対して感度処理を行う。
 次に、学習モデル120xは、座標変換部21から入力された拘束条件61bに基づいて、センサ素子11xから入力された認識データDxを処理し、それにより、認識データKxを出力する。環境地図構築部50は、このようにして、認識データDxおよび拘束条件61bの入力に対する出力(認識データKx)を学習モデル120xから取得する(ステップS703)。環境地図構築部50は、学習モデル120xから取得した認識データKxを用いて、現時刻の環境地図Maを構築する(ステップS704)。環境地図構築部50は、得られた現時刻の環境地図Maを、記憶部60の環境地図61に格納する。このようにして、図24の認識システム1における処理が行われる。
(実施例8)
 図26は、認識システム1の一実施例を表したものである。図26において、センサ部10xは、センサ部10a~10c,10eのいずれかである。また、座標変換部21、フィルタ部22、移動物体検出部25および現時刻位置予測部26は、信号処理部20に含まれる構成要素の一具体例である。
 移動物体検出部25は、記憶部60内の環境地図61(前時刻の環境地図)内に含まれる1または複数の移動物体を検出する。現時刻位置予測部26は、移動物体検出部25によって検出された1または複数の移動物体の、現時刻における現時刻位置を予測する。
 座標変換部21は、記憶部60内の環境地図61(前時刻の環境地図)から拘束条件61aを取得する。記憶部60がサーバ装置3に設けられている場合には、座標変換部21は、通信部80を介して、記憶部60内の環境地図61(前時刻の環境地図)から拘束条件61aを取得する。拘束条件61aは、例えば、幾何データを含む。座標変換部21は、さらに、現時刻位置予測部26によって得られた、1または複数の移動物体の、現時刻における現時刻位置(現在位置データCL)に基づいて、拘束条件61aを補正する。座標変換部21は、補正により得られた拘束条件61a’を、環境地図61(前時刻の環境地図)の座標系から、センサ部10xの座標系に変換する座標変換処理を行い、座標変換処理のなされた拘束条件61bをフィルタ部22に出力する。
 フィルタ部22は、座標変換部21から入力された拘束条件61bに基づいて、センサ部10xから入力された認識データDxを処理する。フィルタ部22は、例えば、座標変換部21から入力された拘束条件61bに基づいて、センサ部10xから入力された認識データDxに含まれるノイズもしくは外れ値を除去する。フィルタ部22は、例えば、参考文献("Fast Guided Filter" Kaming He Jian Sun, arXiv:1505.00996v1 [cs.CV] 5 May 2015 )に記載のguided filterによって構成されていてもよい。フィルタ部22は、例えば、正則化項付き最小二乗回帰(リッジ回帰)からなるベイジアンフィルタによって構成されていてもよい。これにより、フィルタ部22は、ノイズもしくは外れ値が除去された認識データDx’を得る。フィルタ部22は、処理後の認識データDx’を環境地図構築部50に出力する。環境地図構築部50は、フィルタ部22によって処理された認識データDx’を用いて、現時刻の環境地図Maを構築する。環境地図構築部50は、得られた現時刻の環境地図Maを、記憶部60の環境地図61に格納する。
 図27は、図26の認識システム1における処理手順の一実施例を表したものである。まず、センサ部10xが認識データDxを取得する(ステップS801)。次に、座標変換部21は、記憶部60内の環境地図61(前時刻の環境地図)から拘束条件61aを取得する(ステップS802)。次に、移動物体検出部25は、記憶部60内の環境地図61(前時刻の環境地図)内に含まれる1または複数の移動物体を検出する(ステップS803)。続いて、現時刻位置予測部26は、移動物体検出部25によって検出された1または複数の移動物体の、現時刻における現時刻位置を推定する(ステップS804)。
 その後、座標変換部21は、現時刻位置予測部26によって得られた、1または複数の移動物体の、現時刻における現時刻位置(現在位置データCL)を考慮した拘束条件61a’を生成する(ステップS805)。座標変換部21は、補正により得られた拘束条件61a’を、環境地図61(前時刻の環境地図)の座標系から、センサ部10xの座標系に変換する座標変換処理を行い、座標変換処理のなされた拘束条件61bをフィルタ部22に出力する。
 次に、フィルタ部22は、座標変換後の拘束条件61bに基づいて、認識データDxをフィルタ処理する(ステップS806)。フィルタ部22は、例えば、座標変換後の拘束条件61bに基づいて、認識データDxに含まれるノイズもしくは外れ値を除去する。次に、環境地図構築部50は、処理後の認識データDx’を用いて、現時刻の環境地図Maを構築する(ステップS807)。環境地図構築部50は、得られた現時刻の環境地図Maを、記憶部60の環境地図61に格納する。このようにして、図26の認識システム1における処理が行われる。
(実施例9)
 図28は、認識システム1の一実施例を表したものである。図28において、センサ素子11xは、センサ素子11a~11c,11eのいずれかである。また、信号処理部12xは、信号処理部12a~12c,12eのいずれかである。座標変換部21は、信号処理部20に含まれる構成要素の一具体例である。図28において、「D」は、センサ素子11xから出力された認識データDx、または、座標変換部21から出力された拘束条件61bを、フレーム単位で遅延させる素子を指している。従って、センサ素子11xから出力された過去の複数フレーム分の認識データDxが信号処理部12に入力される。
 移動物体検出部25は、記憶部60内の環境地図61(前時刻の環境地図)内に含まれる1または複数の移動物体を検出する。現時刻位置予測部26は、移動物体検出部25によって検出された1または複数の移動物体の、現時刻における現時刻位置を推定する。
 座標変換部21は、記憶部60内の環境地図61(前時刻の環境地図)から拘束条件61aを取得する。記憶部60がサーバ装置3に設けられている場合には、座標変換部21は、通信部80を介して、記憶部60内の環境地図61(前時刻の環境地図)から拘束条件61aを取得する。拘束条件61aは、例えば、幾何データを含む。座標変換部21は、さらに、現時刻位置予測部26によって得られた、1または複数の移動物体の、現時刻における現時刻位置(現在位置データCL)に基づいて、拘束条件61aを補正する。座標変換部21は、補正により得られた拘束条件61a’を、環境地図61(前時刻の環境地図)の座標系から、センサ部10xの座標系に変換する座標変換処理を行い、座標変換処理のなされた拘束条件61bを信号処理部12に出力する。信号処理部12は、複数の信号処理部12xからなる。
 信号処理部12は、座標変換部21から入力された拘束条件61bに基づいて、センサ部10xから入力された認識データDxを処理する。フィルタ部22は、例えば、座標変換部21から入力された拘束条件61bに基づいて、センサ部10xから入力された認識データDxに含まれるノイズもしくは外れ値を除去する。フィルタ部22は、例えば、参考文献("Fast Guided Filter" Kaming He Jian Sun, arXiv:1505.00996v1 [cs.CV] 5 May 2015 )に記載のguided filterによって構成されていてもよい。フィルタ部22は、例えば、正則化項付き最小二乗回帰(リッジ回帰)からなるベイジアンフィルタによって構成されていてもよい。これにより、フィルタ部22は、ノイズもしくは外れ値が除去された認識データDx’を得る。フィルタ部22は、処理後の認識データDx’を環境地図構築部50に出力する。環境地図構築部50は、フィルタ部22によって処理された認識データDx’を用いて、現時刻の環境地図Maを構築する。環境地図構築部50は、得られた現時刻の環境地図Maを、記憶部60の環境地図61に格納する。
 図29は、図28の認識システム1における処理手順の一実施例を表したものである。まず、信号処理部12が各センサ素子11xから複数時刻(フレーム)の認識データDxを取得する(ステップS901)。一方、座標変換部21は、記憶部60内の環境地図61(前時刻の環境地図)から拘束条件61aを取得する(ステップS902)。次に、移動物体検出部25は、記憶部60内の環境地図61(前時刻の環境地図)内に含まれる1または複数の移動物体を検出する(ステップS903)。続いて、現時刻位置予測部26は、移動物体検出部25によって検出された1または複数の移動物体の、現時刻における現時刻位置を予測する(ステップS904)。
 その後、座標変換部21は、現時刻位置予測部26によって得られた、1または複数の移動物体の、現時刻における現時刻位置(現在位置データCL)を考慮した拘束条件61a’を生成する(ステップS905)。座標変換部21は、補正により得られた拘束条件61a’を、環境地図61(前時刻の環境地図)の座標系から、センサ部10xの座標系に変換する座標変換処理を行い、座標変換処理のなされた拘束条件61bを信号処理部12に出力する。信号処理部12は、座標変換部21から、複数時刻(フレーム)の拘束条件61bを取得する(ステップS906)。
 次に、信号処理部12は、複数時刻(フレーム)の拘束条件61bに基づいて、複数時刻(フレーム)の認識データDxを処理する(ステップS907)。これにより、信号処理部12は、認識データDx’を取得する。次に、環境地図構築部50は、処理後の認識データDx’を用いて、現時刻の環境地図Maを構築する(ステップS908)。環境地図構築部50は、得られた現時刻の環境地図Maを、記憶部60の環境地図61に格納する。このようにして、図28の認識システム1における処理が行われる。
[効果]
 次に、認識システム1の効果について説明する。
 本実施の形態では、現時刻の環境地図Ma(環境地図61)の構築に用いられる認識データDxが、前時刻の環境地図Mbに基づいて処理される。このように、本実施の形態では、認識データDxに対して、前時刻の環境地図Mbがフィードバックされる。これにより、例えば、前時刻の環境地図Mbから、認識データDxが得られた領域の構造を推定することが可能となり、推定した構造から、認識データDxに含まれるノイズや外れ値などを特定することが可能となる。これにより、より精度の高い、あるいは外乱耐性のより高い環境地図61を構築することができる。従って、環境地図61を適切に構築することができる。
 また、本実施の形態では、前時刻の環境地図Mbから拘束条件61aを取得し、取得した拘束条件61aに基づいて、認識データDxが処理される。拘束条件61aは、例えば、幾何データを含む。これにより、例えば、拘束条件61a(幾何データ)から、認識データDxに含まれるノイズや外れ値などを特定することが可能となる。これにより、より精度の高い、あるいは外乱耐性のより高い環境地図61を構築することができる。従って、環境地図61を適切に構築することができる。
 また、本実施の形態では、複数の局所データをクラスタ化することにより、形状近似式Fxが導出される。これにより、フィルタ処理に関する演算量を低減することができるので、演算負荷の低い認識システム1を実現することができる。
 また、本実施の形態では、複数の局所データに対してデータ集約化演算を行うことにより、複数の特定点データExが導出される。これにより、フィルタ処理に関する演算量を低減することができるので、演算負荷の低い認識システム1を実現することができる。
 また、本実施の形態では、拘束条件61bと、外部環境に存在する1または複数の物体についての識別データCOとに基づいて、認識データDxが処理される。これにより、物体の種類に起因して生じるノイズや外れ値を効果的に特定することが可能となる。これにより、より精度の高い、あるいは外乱耐性のより高い環境地図61を構築することができる。従って、環境地図61を適切に構築することができる。
 また、本実施の形態では、前時刻の環境地図における複数の特徴点に対する、確からしさに関する特徴量61cが、認識データDxに対する拘束条件として用いられる。これにより、より精度の高い、あるいは外乱耐性のより高い環境地図61を構築することができる。従って、環境地図61を適切に構築することができる。
 また、本実施の形態では、拘束条件61bに対して座標変換が行われる。これにより、センサ素子11xの座標系に応じた拘束条件61bにすることができるので、より精度の高い、あるいは外乱耐性のより高い環境地図61を構築することができる。従って、環境地図61を適切に構築することができる。
 また、本実施の形態では、拘束条件61aに対して、座標変換処理だけでなく、センサ素子11xの感度に関するモデルを考慮した処理が行われる。これにより、センサ素子11xの特性に応じた拘束条件61bにすることができるので、より精度の高い、あるいは外乱耐性のより高い環境地図61を構築することができる。従って、環境地図61を適切に構築することができる。
 また、本実施の形態では、学習モデル120xによって、センサ素子11xの出力が処理される。これにより、センサ素子11xの出力をより適切に処理することができるので、より精度の高い、あるいは外乱耐性のより高い環境地図61を構築することができる。従って、環境地図61を適切に構築することができる。
 また、本実施の形態では、記憶部60内の環境地図61(前時刻の環境地図)内に含まれる1または複数の移動物体の、現時刻における現時刻位置が予測される。これにより、認識システム1を搭載した移動体の周囲に、移動物体が存在する場合であっても、移動物体の動きを考慮した行動計画を立てつつ、より精度の高い、あるいは外乱耐性のより高い環境地図61を構築することができる。従って、環境地図61を適切に構築することができる。
 また、本実施の形態では、記憶部60に記憶された環境地図61(前時刻の環境地図)から拘束条件61aが取得され、取得された拘束条件61aが認識データDxにフィードバックされる。これにより、例えば、前時刻の環境地図Mbから、認識データDxが得られた領域の構造を推定することが可能となり、推定した構造から、認識データDxに含まれるノイズや外れ値などを特定することが可能となる。これにより、より精度の高い、あるいは外乱耐性のより高い環境地図61を構築することができる。従って、環境地図61を適切に構築することができる。
 また、本実施の形態では、通信部80を介して、記憶部60に記憶された環境地図61(前時刻の環境地図)から拘束条件61aが取得され、取得された拘束条件61aが認識データDxにフィードバックされる。このようにした場合には、環境地図61を、複数の認識装置2で共有することが可能となるので、より精度の高い、あるいは外乱耐性のより高い環境地図61を効率良く構築することができる。従って、環境地図61を適切に構築することができる。
<3.変形例>
 上記実施の形態では、複数のセンサ部10a~10c,10eが設けられていた。しかし、上記実施の形態において、1つのセンサ部だけが設けられていてもよい。例えば、上記実施の形態に係る認識システム1において、センサ部10eだけが設けられていてもよい。この場合であっても、上記実施の形態と同様の効果が得られる。
 また、例えば、本開示は以下のような構成を取ることができる。
(1)
 前時刻の環境地図に基づいて、外部環境を認識する1または複数の外部環境認識部から出力された1または複数の認識データを処理するデータ処理部と、
 前記データ処理部によって処理された前記1または複数の認識データを用いて、現時刻の環境地図を構築する環境地図構築部と
 を備えた
 環境地図構築装置。
(2)
 前記データ処理部は、前記前時刻の環境地図から拘束条件を取得し、取得した前記拘束条件に基づいて、前記1または複数の認識データを処理する
 (1)に記載の環境地図構築装置。
(3)
 前記拘束条件は、幾何データを含む
 (2)に記載の環境地図構築装置。
(4)
 前記データ処理部は、前記幾何データに基づいて、前記1または複数の認識データに含まれるノイズもしくは外れ値を除去するフィルタ部を有する
 (3)に記載の環境地図構築装置。
(5)
 前記1または複数の認識データは、複数の局所データを含み、
 前記データ処理部は、前記複数の局所データをクラスタ化することにより、形状近似式を導出する形状近似部を更に有し、
 前記フィルタ部は、前記幾何データに基づいて、前記形状近似式に含まれるノイズもしくは外れ値を除去する
 (4)に記載の環境地図構築装置。
(6)
 前記1または複数の認識データは、複数の局所データを含み、
 前記データ処理部は、前記複数の局所データに対してデータ集約化演算を行うことにより、複数の特定点データを導出する特定点データ導出部を更に有し、
 前記フィルタ部は、前記幾何データに基づいて、前記複数の特定点データに含まれるノイズもしくは外れ値を除去する
 (4)に記載の環境地図構築装置。
(7)
 前記データ処理部は、前記拘束条件と、前記外部環境に存在する1または複数の物体についての識別情報とに基づいて、前記1または複数の認識データを処理する
 (2)に記載の環境地図構築装置。
(8)
 前記拘束条件は、前記前時刻の環境地図における複数の特徴点に対する、確からしさに関する特徴量を含む
 (2)に記載の環境地図構築装置。
(9)
 前記データ処理部は、前記拘束条件を、前記前時刻の環境地図の座標系から、前記1または複数の外部環境認識部の座標系に変換する座標変換処理を行い、前記座標変換処理のなされた前記拘束条件に基づいて、前記1または複数の認識データを処理する
 (2)に記載の環境地図構築装置。
(10)
 前記データ処理部は、前記拘束条件に対して、前記座標変換処理だけでなく、前記1または複数の外部環境認識部の感度に関するモデルを考慮した処理も行う
 (9)に記載の環境地図構築装置。
(11)
 前記データ処理部は、前記前時刻の環境地図から得られた拘束条件と、前記1または複数の外部環境認識部から出力された1または複数の認識データとを説明変数とするとともに、前記前時刻の環境地図から得られた拘束条件に基づく処理のなされた1または複数の認識データを目的変数とする機械学習が行われた学習モデルを有する
 (1)に記載の環境地図構築装置。
(12)
 前記データ処理部は、前記前時刻の環境地図に含まれる1または複数の移動物体の、現時刻における現時刻位置を推定し、推定により得られた前記現時刻位置を考慮して前記拘束条件を生成する
 (2)に記載の環境地図構築装置。
(13)
 前記前時刻の環境地図を記憶する記憶部を更に備え、
 前記データ処理部は、前記記憶部に記憶された前記前時刻の環境地図から前記拘束条件を取得する
 (1)ないし(10)のいずれか一項に記載の環境地図構築装置。
(14)
 外部ネットワークを介して、前記前時刻の環境地図を記憶する外部装置と通信可能な通信部を更に備え、
 前記データ処理部は、前記通信部を介して、前記記憶部に記憶された前記前時刻の環境地図から前記拘束条件を取得する
 (1)ないし(10)のいずれか一項に記載の環境地図構築装置。
(15)
 前時刻の環境地図に基づいて、外部環境を認識する1または複数の外部環境認識部から出力された1または複数の認識データを処理することと、
 処理後の前記1または複数の認識データを用いて、現時刻の環境地図を構築することと
 を含む
 環境地図構築方法。
(16)
 前時刻の環境地図に基づいて、外部環境を認識する1または複数の外部環境認識部から出力された1または複数の認識データを処理することと、
 処理後の前記1または複数の認識データを用いて、現時刻の環境地図を構築することと
 をコンピュータに実行させる
 環境地図構築プログラム。
 本開示の一実施形態に係る環境地図構築装置、環境地図構築および環境地図構築プログラムによれば、認識データに対して、前時刻の環境地図をフィードバックするようにしたので、例えば、前時刻の環境地図から、認識データが得られた領域の構造を推定することが可能となり、推定した構造から、認識データに含まれるノイズや外れ値などを特定することが可能となる。これにより、より精度の高い、あるいは外乱耐性のより高い環境地図を構築することができる。従って、環境地図を適切に構築することができる。
 本出願は、日本国特許庁において2019年10月21日に出願された日本特許出願番号第2019-191930号を基礎として優先権を主張するものであり、この出願のすべての内容を参照によって本出願に援用する。
 当業者であれば、設計上の要件や他の要因に応じて、種々の修正、コンビネーション、サブコンビネーション、および変更を想到し得るが、それらは添付の請求の範囲やその均等物の範囲に含まれるものであることが理解される。

Claims (16)

  1.  前時刻の環境地図に基づいて、外部環境を認識する1または複数の外部環境認識部から出力された1または複数の認識データを処理するデータ処理部と、
     前記データ処理部によって処理された前記1または複数の認識データを用いて、現時刻の環境地図を構築する環境地図構築部と
     を備えた
     環境地図構築装置。
  2.  前記データ処理部は、前記前時刻の環境地図から拘束条件を取得し、取得した前記拘束条件に基づいて、前記1または複数の認識データを処理する
     請求項1に記載の環境地図構築装置。
  3.  前記拘束条件は、幾何データを含む
     請求項2に記載の環境地図構築装置。
  4.  前記データ処理部は、前記幾何データに基づいて、前記1または複数の認識データに含まれるノイズもしくは外れ値を除去するフィルタ部を有する
     請求項3に記載の環境地図構築装置。
  5.  前記1または複数の認識データは、複数の局所データを含み、
     前記データ処理部は、前記複数の局所データをクラスタ化することにより、形状近似式を導出する形状近似部を更に有し、
     前記フィルタ部は、前記幾何データに基づいて、前記形状近似式に含まれるノイズもしくは外れ値を除去する
     請求項4に記載の環境地図構築装置。
  6.  前記1または複数の認識データは、複数の局所データを含み、
     前記データ処理部は、前記複数の局所データに対してデータ集約化演算を行うことにより、複数の特定点データを導出する特定点データ導出部を更に有し、
     前記フィルタ部は、前記幾何データに基づいて、前記複数の特定点データに含まれるノイズもしくは外れ値を除去する
     請求項4に記載の環境地図構築装置。
  7.  前記データ処理部は、前記拘束条件と、前記外部環境に存在する1または複数の物体についての識別データとに基づいて、前記1または複数の認識データを処理する
     請求項2に記載の環境地図構築装置。
  8.  前記拘束条件は、前記前時刻の環境地図における複数の特徴点に対する、確からしさに関する特徴量を含む
     請求項2に記載の環境地図構築装置。
  9.  前記データ処理部は、前記拘束条件を、前記前時刻の環境地図の座標系から、前記1または複数の外部環境認識部の座標系に変換する座標変換処理を行い、前記座標変換処理のなされた前記拘束条件に基づいて、前記1または複数の認識データを処理する
     請求項2に記載の環境地図構築装置。
  10.  前記データ処理部は、前記拘束条件に対して、前記座標変換処理だけでなく、前記1または複数の外部環境認識部の感度に関するモデルを考慮した処理も行う
     請求項9に記載の環境地図構築装置。
  11.  前記データ処理部は、前記前時刻の環境地図から得られた拘束条件と、前記1または複数の外部環境認識部から出力された1または複数の認識データとを説明変数とするとともに、前記前時刻の環境地図から得られた拘束条件に基づく処理のなされた1または複数の認識データを目的変数とする機械学習が行われた学習モデルを有する
     請求項1に記載の環境地図構築装置。
  12.  前記データ処理部は、前記前時刻の環境地図に含まれる1または複数の移動物体の、現時刻における現時刻位置を推定し、推定により得られた前記現時刻位置を考慮して前記拘束条件を生成する
     請求項2に記載の環境地図構築装置。
  13.  前記前時刻の環境地図を記憶する記憶部を更に備え、
     前記データ処理部は、前記記憶部に記憶された前記前時刻の環境地図から前記拘束条件を取得する
     請求項2に記載の環境地図構築装置。
  14.  外部ネットワークを介して、前記前時刻の環境地図を記憶する外部装置と通信可能な通信部を更に備え、
     前記データ処理部は、前記通信部を介して、前記記憶部に記憶された前記前時刻の環境地図から前記拘束条件を取得する
     請求項2に記載の環境地図構築装置。
  15.  前時刻の環境地図に基づいて、外部環境を認識する1または複数の外部環境認識部から出力された1または複数の認識データを処理することと、
     処理後の前記1または複数の認識データを用いて、現時刻の環境地図を構築することと
     を含む
     環境地図構築方法。
  16.  前時刻の環境地図に基づいて、外部環境を認識する1または複数の外部環境認識部から出力された1または複数の認識データを処理することと、
     処理後の前記1または複数の認識データを用いて、現時刻の環境地図を構築することと
     をコンピュータに実行させる
     環境地図構築プログラム。
PCT/JP2020/037484 2019-10-21 2020-10-01 環境地図構築装置、環境地図構築方法および環境地図構築プログラム WO2021079716A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-191930 2019-10-21
JP2019191930 2019-10-21

Publications (1)

Publication Number Publication Date
WO2021079716A1 true WO2021079716A1 (ja) 2021-04-29

Family

ID=75619817

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/037484 WO2021079716A1 (ja) 2019-10-21 2020-10-01 環境地図構築装置、環境地図構築方法および環境地図構築プログラム

Country Status (1)

Country Link
WO (1) WO2021079716A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015144013A (ja) * 2015-03-31 2015-08-06 株式会社日立製作所 ロボットシステム及び地図更新方法
JP2017182175A (ja) * 2016-03-28 2017-10-05 国立大学法人豊橋技術科学大学 自律走行装置及びその開始位置判定プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015144013A (ja) * 2015-03-31 2015-08-06 株式会社日立製作所 ロボットシステム及び地図更新方法
JP2017182175A (ja) * 2016-03-28 2017-10-05 国立大学法人豊橋技術科学大学 自律走行装置及びその開始位置判定プログラム

Similar Documents

Publication Publication Date Title
CN110084832B (zh) 相机位姿的纠正方法、装置、系统、设备和存储介质
CN106780608B (zh) 位姿信息估计方法、装置和可移动设备
US20190236399A1 (en) Visual-inertial sensor fusion for navigation, localization, mapping, and 3d reconstruction
CN111089585A (zh) 一种基于传感器信息融合的建图及定位方法
US10732643B2 (en) Control system, moving object, and control apparatus
US9563528B2 (en) Mobile apparatus and localization method thereof
CN110517324B (zh) 基于变分贝叶斯自适应算法的双目vio实现方法
US8175782B2 (en) Adaptive driver assistance systems with robust estimation of object properties
US20130116823A1 (en) Mobile apparatus and walking robot
Michot et al. Bi-objective bundle adjustment with application to multi-sensor slam
TW202115366A (zh) 機率性多機器人slam的系統及方法
CN107782304B (zh) 移动机器人的定位方法及装置、移动机器人及存储介质
US20180315211A1 (en) Tracking system and method thereof
US11874666B2 (en) Self-location estimation method
WO2020024182A1 (zh) 一种参数处理方法、装置及摄像设备、飞行器
US11076264B2 (en) Localization of a mobile device based on image and radio words
CN113587928B (zh) 导航方法、装置、电子设备、存储介质及计算机程序产品
JP2022502791A (ja) ロボットの姿勢を推定するシステムおよび方法、ロボット、並びに記憶媒体
WO2021079716A1 (ja) 環境地図構築装置、環境地図構築方法および環境地図構築プログラム
CN117392241A (zh) 自动驾驶中的传感器标定方法、装置及电子设备
De Silva et al. Observability analysis of relative localization filters subjected to platform velocity constraints
WO2020003764A1 (ja) 画像処理装置、移動装置、および方法、並びにプログラム
CN115307646A (zh) 一种多传感器融合的机器人定位方法、系统及装置
KR20220158628A (ko) 깊이 보조 시각적 관성 주행 거리 측정을 위한 방법 및 장치
KR20190013176A (ko) 드론을 이용한 구조물의 변화 탐지 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20879861

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20879861

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP