WO2019069524A1 - 環境情報更新装置、環境情報更新方法及びプログラム - Google Patents

環境情報更新装置、環境情報更新方法及びプログラム Download PDF

Info

Publication number
WO2019069524A1
WO2019069524A1 PCT/JP2018/026133 JP2018026133W WO2019069524A1 WO 2019069524 A1 WO2019069524 A1 WO 2019069524A1 JP 2018026133 W JP2018026133 W JP 2018026133W WO 2019069524 A1 WO2019069524 A1 WO 2019069524A1
Authority
WO
WIPO (PCT)
Prior art keywords
area
obstacle
information
updating
mobile robot
Prior art date
Application number
PCT/JP2018/026133
Other languages
English (en)
French (fr)
Inventor
遼 高橋
超 王
小林 大
雅貴 豊浦
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP18864697.0A priority Critical patent/EP3693825B1/en
Priority to CN201880062770.5A priority patent/CN111164529B/zh
Priority to JP2019546537A priority patent/JP7136114B2/ja
Priority to KR1020207007765A priority patent/KR102629762B1/ko
Priority to US16/651,139 priority patent/US11687089B2/en
Publication of WO2019069524A1 publication Critical patent/WO2019069524A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0217Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with energy consumption, time reduction or distance reduction criteria
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram

Definitions

  • the present disclosure relates to an environmental information update device, an environmental information update method, and a program.
  • Patent Document 1 described below describes a technology that assumes that a moving object is accurately moved along a target route, and control is performed so as to avoid an unexpected obstacle on the target route.
  • a moving object which cumulatively generates in the moving direction an environmental map around the moving object in consideration of the presence of the object as the moving object moves, and which does not interfere with the object based on the target route information and the environmental map It is stated to decide the course of the
  • Patent Document 2 describes a technology that assumes efficient movement by removing a ghost of a moving obstacle in a timely manner with respect to an autonomous moving body.
  • Patent Document 3 describes a technique regarding detection of an obstacle, assuming that even if there is a shielded place where detection of the obstacle by the on-board sensor is not possible, the countermeasure against the shielded place is appropriately performed. ing.
  • Patent Document 1 has a problem that the amount of calculation becomes enormous because all observation data are stored and the presence or absence of an object is determined by voting or probabilistic processing. Therefore, it is difficult to apply to a small mobile robot or the like.
  • Patent Document 3 is a method using data of re-observation, and erases it when it changes from an obstacle to a release area at the time of re-observation.
  • this method has a problem that distant obstacle maps that can not be re-observed continue to remain.
  • a small mobile robot does not have sufficient computer resources, and a method is required which can determine the elimination and storage of an obstacle with lower load.
  • a method is required which can determine the elimination and storage of an obstacle with lower load.
  • the updating unit updates the information of the obstacle area where the obstacle exists in the space where the moving object moves and the information of the free area where the obstacle does not exist, and the updating section An environmental information updating apparatus is provided, which performs updating of the obstacle area and updating of the free area based on different elapsed times.
  • the information processing apparatus further comprises: updating information on an obstacle area in which an obstacle is present in a space in which a mobile moves and information on a free area in which the obstacle does not exist; A method of updating environmental information is provided, wherein updating of the free space and updating of the free space are performed based on different elapsed times.
  • a program for causing a computer to function is provided as means for updating the free space based on different elapsed times.
  • information on an obstacle area where an obstacle is present in a space in which a mobile moves and information on a free area where no obstacle exists are optimally updated to minimize the amount of information. It will be possible to limit as much as possible. Note that the above-mentioned effects are not necessarily limited, and, along with or in place of the above-mentioned effects, any of the effects shown in the present specification, or other effects that can be grasped from the present specification May be played.
  • the distance sensor with which a mobile robot is equipped detects an obstacle, and is a mimetic diagram showing the field of view of the mobile robot obtained by detection of an obstacle.
  • route 1 and a route 2 as a route to a destination
  • Outline FIG. 1 is a schematic view showing an outline of path generation and path tracking in the movement plan of a self-supporting mobile robot 100 (mobile body).
  • the mobile robot 100 moves, it is often configured to first calculate and generate a target route to the destination, and then to travel so as to follow it. At this time, in order to generate a route that avoids an obstacle by the mobile robot, and also to calculate a velocity at which the mobile robot 100 does not collide with a nearby obstacle, it is general to perform environment measurement by a distance sensor. It is.
  • FIG. 2 is a schematic view showing the field of view of the mobile robot 100 obtained by the distance sensor 110 provided in the mobile robot 100 detecting the obstacle 200 and detection of the obstacle 200.
  • the information on the view is also referred to as environmental information.
  • FIG. 2 shows the mobile robot 100 as viewed from above.
  • the distance sensor 110 enables the mobile robot 100 to obtain the distance to the current obstacle 200 centered on itself. Since the distance sensor 110 generally measures the distance between the object (the obstacle 200) using a straight wave phenomenon such as sound or light, the closest obstacle on the ray starting from the distance sensor 110 Only the object 200 can be detected. The distance sensor 110 can not measure the obstacle 202 hidden inside or behind the obstacle 200.
  • the mobile robot 100 has a field of view in the range of the angle ⁇ , and is otherwise blind.
  • An obstacle 200 is present in front of the mobile robot 100. Also, behind the obstacle 200, there is an invisible obstacle 202.
  • the obstacle 200 is detected by the distance sensor 110.
  • the obstacle 200 serves as a barrier, and the distance sensor 110 can not perform observation, so the invisible obstacle 202 is not observed.
  • the right side of FIG. 2 shows information actually obtained by observation by the distance sensor 110.
  • the hatched area is an "invisible area" which is not observed by the distance sensor 110.
  • the information of the area where the obstacle 200 is observed by the distance sensor 110 is obtained as the information of the obstacle area 280.
  • the information of the area closer to the mobile robot 100 than the obstacle area 280 is obtained as the information of the empty area 290.
  • the mobile robot 100 may erroneously recognize a portion where the obstacle 200 is actually present as the free space 290. For this reason, it is safer that the mobile robot 100 stores and holds the obstacle 200 that has been recognized even once.
  • FIG. 3 shows a case where there is a region 310 which can not be recognized by the distance sensor 110 between the mobile robot 100 and the destination 300 when there are the route 1 and the route 2 as the route to the destination 300.
  • a dead end 320 exists in the unrecognizable area 310 when the route 2 is followed. The mobile robot 100 notices the dead end 320 at a turn around the corner 330, can not reach the destination 300, and returns.
  • FIG. 4 is a schematic view showing how an actual environment map is generated.
  • the actual environment around the mobile robot 100, the information obtained from the distance sensor 110, and the environment map 500 stored by the mobile robot 100 are shown in order from the top.
  • environmental information can be obtained from the current output of the distance sensor 110.
  • the environmental information includes information on the obstacle area 280 and information on the free area 290.
  • the mobile robot 100 shifts the environment information according to the current output of the distance sensor 110 by an amount corresponding to the movement distance d of the mobile robot 100 and superimposes it on the environment map 500 generated so far.
  • the environmental map 500 is accumulated by repeating.
  • the movement path can not be drawn. If the information on the distant obstacle 200 out of the range of the distance sensor 110 is not updated, the obstacle once stored Even after 200 runs out, it is determined that the location where the obstacle 200 was present can not pass, and route generation may not be performed correctly. If the information on the invisible obstacle 200 is also unnecessary, a method is required to delete it.
  • FIG. 5 is a schematic view showing an adverse effect of keeping a remote, moving obstacle 210 stored. Since the mobile robot 100 memorizes that there is a person (dynamic obstacle 210) at the exit 340, the path 3 to the destination 300 can not be drawn. A person is present at the exit 340 in the past, but if the mobile robot 100 keeps storing it constantly, the obstacle 210 remains as a memory. Therefore, the storage area can be saved by deleting the information of the obstacle area 280 where the observation is old and can not be relied upon, and the information of the obstacle area 280 which is distant and unnecessary for movement planning.
  • a person dynamic obstacle 210
  • FIG. 6 is a schematic view showing an obstacle 220 generated by continuing to store a dynamic obstacle.
  • an obstacle 220 such as a wall remains in front of the mobile robot 100 in the environment map 500 on the memory of the mobile robot 100.
  • the environment map 500 is created by removing the ghost area 230 from the obstacle 220.
  • the environment map 500 has to be erased along with the memory.
  • the mobile robot 100 that performs route planning while acquiring the environment map 500 using the distance sensor 110, information of the obstacle 200 that is unnecessary for setting the movement plan is erased. The details will be described below.
  • FIG. 7 is a schematic view showing a configuration of a system according to the present embodiment.
  • This system relates to a system of a mobile robot 100 provided with a distance sensor 110 for acquiring distance information such as a stereo camera or a range sensor.
  • this system may be called an own system.
  • the mobile robot 100 has a distance sensor 110, an update information generation unit 120, a long distance erase unit 130, a map integration unit 140, an invisible area eraser (invisible area eraser) 150,
  • the configuration includes an area update unit (visible region update unit) 160, an environment map creation unit 165, a route generation unit 170, and an environment map 500.
  • Each component other than the distance sensor 110 shown in FIG. 7 can be configured from hardware (circuit) or a central processing unit such as a CPU and a program for causing the central processing unit to function.
  • the program can be stored in a storage medium such as a memory of the mobile robot 100 or a storage medium connected to the mobile robot 100 from the outside.
  • the distance sensor 110 is a sensor for the own system to acquire information on the obstacle 200 in the vicinity. If it is possible to determine the distance between the position of the obstacle 200 and the obstacle 200 from the mobile robot 100, stereo matching using a stereo camera, distance measurement using an IR camera, laser range finder
  • the distance sensor 110 may be any type of sensor, such as the one using.
  • the update information generation unit 120 is a component that shapes the environment information obtained by the distance sensor 110 into the size of the stored environment map 500. In addition to the information on the obstacle area 280 and the empty area 290 in the visible area, the update information generation unit 120 compensates for the invisible part with the information on the unknown area.
  • the environmental map 500 is a map generated by accumulating the output (environmental information) of the distance sensor 110 obtained so far.
  • the environment map 500 holds, for the same coordinates, the time of last observation of the environment information indicating the obstacle area 280 and the empty area 290, respectively.
  • the long-distance eraser 130 is a component that reduces the storage area by trimming and erasing information in a part far from the mobile robot 100 in the integrated environment map 500.
  • the map integration unit 140 is a component that integrates the current environment information output from the update information generation unit 120 with the trimmed environment map.
  • the invisible area removal section 150 removes information about the obstacle area 280 and the free area 290 of the part not visible from the current position of the mobile robot 100 with the passage of time. It is a component that determines whether to delete or hold.
  • the visible area update unit 160 is a component that updates the information of the obstacle area 280 and the free area 290 of the part that is visible from the current position of the mobile robot 100 as a result of the map integration.
  • the environment map creating unit 165 creates the environment map 500 by unifying the invisible region erasing unit 150 and the obstacle region 280 after processing by the visible region updating unit 160, the vacant region 290, and the unknown region.
  • the environment map 500 is stored in a memory or the like included in the mobile robot 100.
  • the route generation unit 170 is a component that generates a route to be moved by the mobile robot 100 from the environment map 500 in which the visible region and the invisible region obtained by the above processing are combined.
  • the path generation unit 170 generates a path so that the mobile robot 100 passes through the empty area 290 while avoiding the obstacle area 280.
  • the output of the distance sensor 110 is integrated into the environment map 500, information is erased or held according to the distance from the mobile robot 100 and the elapsed time, and the environment map 500 is updated.
  • the processing performed by the system is, as shown in FIG. 8, trimming outside the fixed distance range (step S10), integrating the map (step S12), updating the visible area (step S14), and updating the invisible area (Step S16) This is performed in five steps of composition and output of the map (step S18).
  • the long-distance eraser 130 deletes environment information farther from the environment map 500 than a predetermined distance centered on the mobile robot 100.
  • “deletion” means making an unknown area that is neither the empty area 290 nor the obstacle area 280, and means simply releasing (clearing) the storage area on the computer.
  • the predetermined distance centered on the mobile robot 100 can be the distance to the longest goal point assumed at the place where the mobile robot 100 is applied.
  • the visible area updating unit 160 updates the information of the coordinates whose time has been updated to the current time on the integrated environment map 500.
  • processing will be described for the coordinates that were observed as being vacant area 290 before but now are vacant area 290 as a result of observation. It is not preferable to reflect the free space 290 on the environmental map 500 as it is because there is a possibility of noise of the distance sensor 110 that the information indicating the free space 290 is present. Therefore, the reliability is improved using the difference from the time observed as the obstacle area 280 last.
  • the coordinates are set as the free space 290.
  • the environment map 500 is reflected as the free space 290 only when the coordinates continue to be observed as the free space 290 for a period longer than t_m. In such a case, the noise of the distance sensor 110 There is no need to doubt the
  • the time widths t_m and t_s may be determined by satisfying the relationship t_m> t_s, but t_m is also the time required for the ghost region 230 of the dynamic obstacle 210 described above to disappear.
  • t_m is also the time required for the ghost region 230 of the dynamic obstacle 210 described above to disappear.
  • Invisible Region Update information of coordinates whose time has not been updated is updated on the integrated environment map 500. Coordinates for which the last observation time was not updated are coordinates that were not observed by the distance sensor 110, and are areas that can not be seen by the mobile robot 100 at present. Information in this area is useful for route planning, so it is desirable to keep for a certain period of time, but there is also a possibility that movement of obstacle 200 may occur in an invisible area, and it becomes unreliable information over time. Go. Therefore, the erasing unit 150 of the invisible region erases the difference when the difference between the last observation time t_last and the current time t_now exceeds a certain time width t_l.
  • "erasing" means that the coordinates are registered as an unknown state that is neither an empty area nor an obstacle.
  • the time width t_l should be set longer as an acceptable search time because of the moving speed of the mobile robot 100 and the size of the environment to be applied.
  • obstacle 210 observed in the past within the search range moves during the search and moves even when a certain route becomes passable.
  • the robot 100 is capable of handling and can set a passable route. If it is an environment where such moving obstacle 210 is not assumed, if time t_l is infinite, the obstacle 210 is not erased in time, and the search can be continued until the destination is reached.
  • the present system is "a system in which obstacle information is erased with the passage of time, and the information is promptly updated when the obstacle moves and becomes an empty area". You will get the features.
  • the time t_l is set to a fixed time, but the larger the t_l is, the larger the area to be stored in the mobile robot 100 may be, which is not preferable from the viewpoint of reduction of the memory area. Therefore, a method may be adopted in which the time width t_l is made variable for each coordinate according to the moving speed and direction of the robot. Note that these variations will be described in detail later.
  • Map composition and output In this step, the visible area and the invisible area of the obstacle area 280 and the free area 290 are integrated, and the memory is updated as a new environment map 500.
  • the route generation unit 170 generates a route using the updated environmental map 500.
  • FIG. 9 shows obstacles according to the passage of time and distance in each of the visible area and the invisible area based on the above-mentioned rule It is a schematic diagram which shows a mode that the area
  • the horizontal axis represents distance
  • the vertical axis represents time.
  • the visible area is an area where the distance from the mobile robot 100 is relatively short, and the information on the obstacle area 280 and the empty area 290 is updated.
  • the information on the obstacle area 280 and the empty area 290 is updated.
  • the change from the vacant area 290 to the obstacle area 280 is promptly reflected on the environmental map 500, and the security can be further ensured. That is, due to the time difference until the disappearance, the information of the same point is more easily held in the obstacle area 280 than in the empty area 290.
  • the invisible area is an area relatively distant from the mobile robot 100, and both the obstacle area 280 and the empty area 290 are erased after the elapse of t_l. . That is, if the correct path can not be drawn within the time of t_l, the oldest observation information is erased in order.
  • the environmental map 500 includes an obstacle map 510 and a vacant area map 520, and the environmental map 500 is created by integrating the obstacle map 510 and the vacant area map 520. .
  • FIG. 10A shows a past obstacle map 510, a vacant area map 520, and an environmental map 500.
  • FIG. 10B has shown the obstruction map 510 which integrated the information by the distance sensor 110, and the vacant area map 520.
  • FIG. 10C shows an obstacle map 510, a vacant area map 520, and an environment map 500 which are integrated and updated with the information of the distance sensor 110.
  • the state shown in FIGS. 10B and 10C shows the state after one second has elapsed from the state shown in FIG. 10A.
  • the coordinates of each area 502 are represented by absolute values, and when the mobile robot 100 moves, the environment information of each area 502 is updated in consideration of the movement amount. In the following, for convenience of explanation, a case where the mobile robot 100 does not move will be described as an example.
  • the numerical values shown in each area 502 indicate the elapsed time since the observation.
  • the numerical value shown in a certain area 502 indicates the elapsed time (seconds) since the information of the obstacle area 280 is obtained in that area.
  • the numerical value shown in a certain area 502 indicates the elapsed time (seconds) since the information of the free area 290 is obtained in that area.
  • the obstacle map 510 and the space area map 520 When integrating the obstacle map 510 and the space area map 520 to create the environment map 500, in the area 502 where values are written in both maps, the respective numerical values (observation times) are compared, and the obstacle area is generated. It is determined which of 280 and free space 290 is to be adopted. As a result, in the environment map 500, dots indicating the obstacle area 280 and the free area 290 are attached according to the result of adoption. The obstacle area 280 has dots that are darker (dense) than the empty area 290. Further, in the environment map 500, the area to which the dot is not attached is an unknown area to which neither the obstacle area 280 nor the empty area 290 is registered.
  • the numerical value of the obstacle map 510 is “0”, and the numerical value of the vacant area map 520 is “2”.
  • the numerical value of the obstacle map 510 is "3", and the numerical value of the vacant area map 520 is "2".
  • FIG. 10B current information obtained by the distance sensor 110 is integrated with the past obstacle map 510, the space area map 520, and the environment map 500 shown in FIG. 10A.
  • FIG. 10B on the left of the obstacle map 510, the current latest observation information 530 obtained by the distance sensor 110 is shown.
  • the latest observation information 530 around the mobile robot 100 obtained from the distance sensor 110 is reflected on the obstacle map 510 and the vacant area map 520. Then, as a result, an area 502 of which the numerical value is "0" is generated.
  • FIG. 10B since the upper left region 502 of the observation information 530 is an unknown region, eight regions 502 excluding the upper left region 502 of the observation information 530 are reflected on the obstacle map 510 and the empty region map 520. It shows how you are doing.
  • the area 502d of the observation information 530 of FIG. Therefore, in the free area information 520 of FIG. 10B, the area 502d is registered as a free area, and a numerical value "0" is assigned. At this time, for the area 502 d already set as the free area 290 in FIG. 10A, the numerical value already assigned is updated to “0”.
  • the obstacle map 510 and the free space map 520 shown in FIG. 10C are the same as in FIG. 10B. As shown in FIG. 10C, the environmental map 500 is created by integrating the obstacle map 510 and the free space map 520.
  • the numerical value of the obstacle map 510 is "4", and the numerical value of the vacant area map 520 is "0".
  • t_l 8 seconds is reached for the area 502f for which the numerical value is “8”, so it is unknown that neither the obstacle area 280 nor the empty area 290 Registered as an area.
  • the environmental map 500 is updated based on the observation information 530 of the area viewed by the distance sensor 110.
  • the area not seen by the distance sensor 110 there is an area that changes to an unknown area as the numerical value increases by “1”.
  • the far-distance eraser 130 trims and erases the information on the part far from the mobile robot 100.
  • FIGS. 11 to 13 are schematic diagrams for explaining how to determine the distance (predetermined value r) serving as a trigger for erasing information on the obstacle area 280 and the empty area 290.
  • FIG. FIG. 11 is a schematic view showing a room of a moving space of the mobile robot 100, a floor plan 750 (left view) of a corridor, and a topological map 700 (right view) corresponding to the floor plan 750.
  • the topological map 700 is a map in which connection information of rooms in the mobile space of the mobile robot 100, connection information of rooms and corridors, and the like are described.
  • the floor plan 750 is shown superimposed by a broken line.
  • FIG. 12 is a schematic view showing how the mobile robot 100 moves on the topological map 700, and shows the mobile robot 100 and its path viewed from above.
  • FIG. 12 shows the vicinity of the corridor of the floor plan 750 shown in FIG. 11 and the topological map 700 corresponding thereto.
  • the mobile robot 100 sets the next connection point 704 as the current goal and does not move to the final goal 702 at one time, and moves to the next connection point 704. I do.
  • the mobile robot 100 reaches the final goal 702 by repeating the movement to the next connection point.
  • connection point 704 When the mobile robot 100 reaches the current goal (connection point 704), the moving path of the mobile robot 100 switches to the next goal (final goal 702). At that time, if the mobile robot 100 does not move back, the information of the environment map 500 up to that point becomes unnecessary.
  • the range of the environment map 500 to be stored by the mobile robot 100 may include the “circle having the length of the longest side as the radius” on the topological map 700. Since the circle of radius r completely includes the path in motion, it is sufficient for the mobile robot 100 to store the obstacle area 280 and the free area 290 in the range of this circle.
  • t_m is the time until the obstacle area 280 becomes the empty area 290.
  • the obstacle area 280 is switched to the empty area 290 on the environment map 500.
  • the change from the obstacle area 280 to the empty area 290 can lead to a collision of the mobile robot 100 if the sensor signal is unreliable.
  • t_m ⁇ (time last observed as the obstacle area 280)-(time last observed as the empty area 290) (1)
  • FIG. 14 shows the case where the mobile robot 100 moves following the person 800.
  • the upper diagram shows an obstacle area 280 and a vacant area 290 behind the person 800 when the person 800 and the mobile robot 100 stand still.
  • the middle diagram of FIG. 14 when the human 800 starts moving with respect to the upper diagram and the mobile robot 100 follows the human 800, an obstacle area 280 behind the human 800 and an empty area 290 Is shown.
  • the lower part of FIG. 14 shows an obstacle area 280 and a vacant area 290 behind the person 800 when the person 800 and the mobile robot 100 move further with respect to the middle part.
  • the trace of the person 800 moves as an obstacle area 280 (the area 230 of the ghost) for only t_m. It will remain in the memory of the robot 100.
  • the obstacle region 280 (the region 230 of the ghost) continues to remain behind the person 800, and thus the mobile robot 100 It becomes difficult to make the person 800 smoothly follow.
  • t_m L_h / v_robot (3)
  • L_h an ideal distance between the robot and the person when causing the person 800 to follow
  • v_robot the maximum velocity of the mobile robot 100 at the time of following.
  • t — 0 is the time when the obstacle area 280 and the free area 290 were last observed in the area 502, and t is the current time.
  • t — 10 in the equation (4) is a fixed value
  • t — 10 in the equation (4) is a fixed value
  • by adding the moving speed and the moving direction of the mobile robot 100 it is possible to adopt an effective method for saving the storage area. For example, when the mobile robot 100 is moving at high speed, since the mobile robot 100 moves away from the obstacle 200 in the past, it is not necessary to increase the value of t_l so much.
  • the mobile robot 100 is moving at a low speed, it is assumed that a path is carefully searched, and it is considered that it is desirable to hold peripheral information as much as possible.
  • the time t_l can be increased or decreased according to the integral value of the moving speed of the robot up to that point, and when the mobile robot is moving at high speed, the environment information is erased quickly by reducing t_l. Also, when the mobile robot is moving at low speed, environment information is kept for a long time by increasing t_l. In addition, when the mobile robot 100 is stopped, there is no concern that the environment map 500 becomes larger. Therefore, the time t_l may be infinite and the environment information may not disappear in the course of time.
  • FIG. 15 is a schematic view showing the erasing of the information of the obstacle area 280 according to the speed of the mobile robot 100.
  • FIG. 15 As shown in FIG. As shown in the upper diagram of FIG. 15, when the mobile robot 100 is moving at a high speed, it is necessary to hold the information of the obstacle area 280 in the unobservable range, since the place where it was in the past is rapidly moved away. It disappears.
  • the lower part of FIG. 15 when the mobile robot 100 is at rest, there is no possibility that the environment map 500 is expanded, so the information of the obstacle area 280 in the unobservable range is not deleted. There is also a good case.
  • t_l vel in which the velocity component is added to t_l 0 as in equation (5) is small when the moving velocity of the mobile robot 100 is fast, and therefore can not be observed when the moving velocity of the mobile robot 100 is fast.
  • the environmental map 500 of the range will be reset rapidly.
  • t_l vel increases, and the obstacle area 280 is less likely to disappear with the passage of time.
  • means for increasing or decreasing t_l using the moving direction of the mobile robot 100 may be incorporated.
  • the mobile robot 100 travels straight in a direction, information behind the mobile robot 100 becomes unnecessary.
  • the storage area can be efficiently reduced even in such a linear movement by setting that t_l of the coordinates behind the position of the mobile robot 100 decreases and t_l of the front increases.
  • t_l is averaged over all directions. Is desirable.
  • the information of the obstacle area 280 in the traveling direction of the mobile robot 100 may be used on the route plan of the mobile robot 100. For this reason, the information in the obstacle area 280 in the traveling direction may be prevented from being wasted by eliminating the observation.
  • the two methods of changing t_l are methods derived from the method of fixing t_l, and it is possible to apply the two methods simultaneously.
  • implementation is possible by high-speed image processing methods such as mask processing on the environmental map 500 and matrix sum calculation, and high levels of object identification and probabilistic handling etc. of the conventional method can be implemented. It can be realized at low cost as compared to the heavy processing. Thus, according to the present embodiment, it is possible to implement even a small-sized target with limited computing power such as a domestic pet robot.
  • An update unit that updates information on an obstacle area in which an obstacle exists in a space in which a mobile moves and information on an empty area in which the obstacle does not exist;
  • the environment information updating apparatus wherein the updating unit performs the updating of the obstacle area and the updating of the free area based on different elapsed times.
  • the updating unit The area is updated as the obstacle area after an elapse of a first time with respect to the area in which the information on the obstacle area is obtained, For the area for which information on the free area is obtained, the area is updated as the free area after the second time has elapsed,
  • the environmental information update device according to (1), wherein the second time is longer than the first time.
  • the environment information updating device includes an area erasing unit.
  • the environment information updating device wherein the predetermined time changes in accordance with the speed of movement of the moving body.
  • the environment information updating device wherein the predetermined time becomes shorter as the speed of movement of the moving body is larger.
  • the environment information updating device wherein the predetermined time changes in accordance with the moving direction of the moving body.
  • the environment information updating device (7)
  • the predetermined time becomes shorter as the moving direction of the moving object moves away from the position of the obstacle area or the empty area.
  • the environment information updating device (8)
  • the environment information updating device changes in accordance with the moving speed and moving direction of the moving body.
  • the remote area eraser according to any one of (1) to (8), further comprising: a long distance eraser that erases the information of the obstacle area and the empty area located at a distance away from the mobile body by a predetermined value or more.
  • Environmental information update device (10)
  • the environment information updating device according to any one of (1) to (9), further comprising: an environment map creating unit that creates an environment map based on the updated information on the obstacle area and the empty area.
  • the environment information updating device further including: a path generation unit that generates a path along which the mobile unit travels based on the environment map.
  • the environment information updating device according to any one of (1) to (11), wherein the information on the obstacle area and the empty area is observed by a sensor mounted on the mobile unit.
  • the environmental information update method which performs update of the said obstruction area and update of the said vacant area based on different elapsed time.
  • a program to make a computer function

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Optics & Photonics (AREA)
  • Acoustics & Sound (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Instructional Devices (AREA)

Abstract

【課題】移動体が移動する空間に障害物が存在する障害物領域の情報と、障害物が存在しない空き領域の情報とを最適に更新し、情報量を最小限に抑える。 【解決手段】本開示によれば、移動体が移動する空間に障害物が存在する障害物領域の情報と、前記障害物が存在しない空き領域の情報とを更新する更新部、を備え、前記更新部は、前記障害物領域の更新と前記空き領域の更新を異なる経過時間に基づいて行う、環境情報更新装置が提供される。

Description

環境情報更新装置、環境情報更新方法及びプログラム
 本開示は、環境情報更新装置、環境情報更新方法及びプログラムに関する。
 従来、下記の特許文献1には、目標経路に沿って移動体を正確に移動させ、目標経路上
の予期しない障害物を回避するように制御することを想定した技術が記載されている。特許文献1では、移動体の移動に伴い物体の存在を考慮した移動体周囲の環境地図を移動方向に累積的に生成し、目標経路情報及び環境地図に基づいて物体に非干渉となる移動体の進路を決定することが記載されている。
 また、下記の特許文献2には、自律型移動体に関し、移動障害物のゴーストを適時に除去することにより、効率的な移動を行うことを想定した技術が記載されている。また、下記の特許文献3には、障害物の検出に関し、搭載センサによる障害物の検出が不可な遮蔽箇所があっても、該遮蔽箇所に対する対応を適正に行うことを想定した技術が記載されている。
特開2005-332204号公報 特開2011-150473号公報 特開2007-233764号公報
 しかし、上記特許文献1に記載された技術は、全ての観測データを保存しておき、投票や確率的処理によって物体の存在の有無を決定するため、計算量が膨大になるという問題がある。このため、小型の移動ロボットなどに適用するのは困難である。
 また、上記特許文献2に記載された技術では、観測した障害物が動的障害物か否かをまず判定し、動的障害物と判定された場合は、再観測されない場合でも時間経過後にその場を移動している可能性が高いため、一定時間の後に消去している。しかしながら、動的障害物の認識には一定の計算機リソースが必要であり、小型のロボットへの適用が難しいことがある。また、時間経過で頻繁に静的障害物が移動する家庭内のような環境においては、記憶量を低減して移動範囲を広げることは困難である。
  また、上記特許文献3に記載された技術では、再観測のデータを用いる手法であり、再観測時に障害物から解放領域に変化した場合にこれを消去している。しかしながら、この手法では再観測されない遠方の障害物地図は残り続けてしまうという問題点がある。
 以上のように、小型の移動ロボットには十分な計算機リソースがなく、より低負荷で障害物の消去・記憶の判断が出来る手法が求められる。また、人間の生活環境では静的障害物の位置も頻繁に入れ替わるため、存在しない静的障害物を消去し得る手法が必要である。更に、移動ロボットが二度と行かないほど遠くの障害物や、古い観測情報は信用できないため、消去することが望ましい。
 そこで、移動体が移動する空間に障害物が存在する障害物領域の情報と、障害物が存在しない空き領域の情報とを最適に更新し、情報量を最小限に抑えることが求められていた。
 本開示によれば、移動体が移動する空間に障害物が存在する障害物領域の情報と、前記障害物が存在しない空き領域の情報とを更新する更新部、を備え、前記更新部は、前記障害物領域の更新と前記空き領域の更新を異なる経過時間に基づいて行う、環境情報更新装置が提供される。
 また、本開示によれば、移動体が移動する空間に障害物が存在する障害物領域の情報と、前記障害物が存在しない空き領域の情報とを更新すること、を備え、前記障害物領域の更新と前記空き領域の更新を異なる経過時間に基づいて行う、環境情報更新方法が提供される。
 また、本開示によれば、移動体が移動する空間に障害物が存在する障害物領域の情報と、前記障害物が存在しない空き領域の情報とを更新する手段、 前記障害物領域の更新と前記空き領域の更新を異なる経過時間に基づいて行う手段、としてコンピュータを機能させるためのプログラムが提供される。
 以上説明したように本開示によれば、移動体が移動する空間に障害物が存在する障害物領域の情報と、障害物が存在しない空き領域の情報とを最適に更新し、情報量を最小限に抑えることが可能となる。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
自立式の移動ロボットの移動計画における経路生成と経路追従を示す模式図である。 移動ロボットが備える距離センサが障害物を検出し、障害物の検出により得られる移動ロボットの視界を示す模式図である。 目的地までの経路として経路1と経路2がある場合に、移動ロボットから目的地の間に距離センサでは認識できない領域がある場合を示す模式図である。 実際の環境地図の生成の様子を示す模式図である。 遠方の動的な障害物を記憶し続けることによる弊害を示す模式図である。 動的障害物を記憶し続けることで発生する障害物を示す模式図である。 本実施形態に係るシステムの構成を示す模式図である。 本実施形態に係るシステムで行われる処理を示すフローチャートである。 見えている領域と見えていない領域のそれぞれにおいて、時間の経過と距離に応じて空き領域と障害物の情報が変化する様子を示す模式図である。 環境地図の作成を説明するための模式図であって、移動ロボットを中心とする上方から見た領域を複数の正方形の領域に分割した状態を示す模式図である。 環境地図の作成を説明するための模式図であって、移動ロボットを中心とする上方から見た領域を複数の正方形の領域に分割した状態を示す模式図である。 環境地図の作成を説明するための模式図であって、移動ロボットを中心とする上方から見た領域を複数の正方形の領域に分割した状態を示す模式図である。 移動空間の部屋、廊下の間取りと、間取りに対応するトポロジカルマップを示す模式図である。 トポロジカルマップ上を移動ロボットが移動する様子を示す模式図であって、移動ロボット及びその経路を上方から見た状態を示す模式図である。 移動ロボットが記憶しておくべき環境地図の範囲を示す模式図である。 移動ロボットが人を追従して移動する場合を示す模式図である。 移動ロボットの速度に応じた障害物情報の消去を示す模式図である。 移動ロボットの進行方向にある障害物について、移動ロボットの経路計画上で利用される可能性を示す模式図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.概要
 2.システムの構成例
 3.本実施形態に係るシステムで行われる処理
  3.1.一定距離範囲外のトリミング
  3.2.地図の統合
  3.3.見えている範囲の更新
  3.4.見えていない範囲の更新
  3.5.地図の合成と出力
 4.時間の経過と距離に応じた障害物領域と空き領域の変化
 5.環境地図の更新の具体例
 6.各パラメータの決め方
  6.1.所定値rの決め方
  6.2.t_mの決め方
  6.3.t_lの決め方
 1.概要
 図1は、自立式の移動ロボット100(移動体)の移動計画における経路生成と経路追従の概要を示す模式図である。移動ロボット100が移動する際には、最初に目的地までの目標経路を計算して生成し、次にそれに追従するように走行させるという構成をとる場合が多い。この際、移動ロボットが障害物を避けるような経路を生成するため、また移動ロボット100が周辺の障害物にぶつからない様な速度を計算するために、距離センサによる環境計測を行うことが一般的である。
 図2は、移動ロボット100が備える距離センサ110が障害物200を検出し、障害物200の検出により得られる移動ロボット100の視界を示す模式図である。以下では、この視界に関する情報を環境情報とも称する。図2では、移動ロボット100を上方から見た状態を示している。距離センサ110によって、移動ロボット100は、自身を中心とした現在の障害物200までの距離を取得できる。距離センサ110は一般に音や光のような直進性のある波動現象を用いて対象物(障害物200)との間の距離を計測するため、距離センサ110を基点とした射線上の最も近い障害物200のみを検出可能である。距離センサ110は、障害物200の内部やその背後に隠された障害物202を計測することはできない。
 図2中の左側の図に示すように、移動ロボット100は、角度θの範囲の視界を有しており、それ以外は死角となる。移動ロボット100の正面には、障害物200が存在している。また、障害物200の背後には、見えない障害物202も存在する。
 図2中の中央の図に示すように、距離センサ110により障害物200が検知される。この際、ハッチングを付与した領域では、障害物200が障壁となり、距離センサ110による観測ができないため、見えない障害物202は観測されないことになる。
 図2中の右側の図は、距離センサ110による観測により実際に得られる情報を示している。ハッチングを付与した領域は、距離センサ110による観測されない「見えない領域」となる。また、距離センサ110によって障害物200が観測された領域の情報は、障害物領域280の情報として得られる。また、障害物領域280よりも移動ロボット100側の領域の情報は、空き領域290の情報として得られる。
 距離センサ110から得られる出力そのものである、「現在の環境情報」だけを用いて、障害物200を避けながら目的地まで移動しようとすると、以下のa~cのような問題が生じる。
 a.距離センサ110のノイズによって障害物200を見落としている可能性がある
 距離センサ110の信号にはノイズが含まれるため、距離センサ110による現在の観測情報が常に正しいとは限らない。移動ロボット100は、ノイズによって、実際には障害物200が存在する箇所を空き領域290だと誤認識する可能性がある。このため、移動ロボット100は、一度でも認識した障害物200は記憶し、保持しておいた方が安全である。
 b.移動ロボット100の死角の障害物200に衝突する可能性がある
 例えば、移動ロボット100に対して「曲がり角の向こう側に立っている人」を距離センサ110で検出する場合、角を曲がり切って人と距離センサ110の間に遮蔽物(この場合は曲がり角)が無い状態にならないと検出できない。移動ロボット100の移動速度がある程度速い場合は、曲がり角を曲がって人を検出した後の減速が追い付かず、移動ロボット100と人が衝突する可能性がある。
 c.遠くの情報が分からないと正しい移動経路が引けない
 移動ロボット100による経路生成では、移動ロボット100が追従すべき経路を遠方の目的地まで計算する。しかし、遠方の情報が分からない状態で移動ロボット100が生成した最短経路は、実際は到達不可能な行き止まりに続いている可能性がある。図3は、目的地300までの経路として、経路1と経路2がある場合に、移動ロボット100から目的地300の間に距離センサ110では認識できない領域310がある場合を示している。この場合、図3の右側の図に示すように、経路2を辿った場合は、認識できない領域310の中に行き止まり320が存在する。移動ロボット100は、曲がり角330を曲がったところで行き止まり320に気付くことになり、目的地300に到達することができず、引き返すことになる。
 従って、移動ロボット100は、距離センサ110により計測した環境情報として、現在の環境情報だけでなく、過去の環境情報を記憶する必要がある。ここで、過去に移動ロボット100がいた地点の環境情報を記憶して生成する地図を環境地図と称する。図4は、実際の環境地図の生成の様子を示す模式図である。図4では、上から順に移動ロボット100の周辺の実際の環境、距離センサ110から得られる情報、移動ロボット100が記憶する環境地図500をそれぞれ示している。
 図4に示すように、移動ロボット100の周辺の実際の環境に応じて、現在の距離センサ110の出力から環境情報が得られる。環境情報には、障害物領域280の情報と、空き領域290の情報が含まれる。移動ロボット100は、基本的には、これまでに生成した環境地図500の上に、現在の距離センサ110の出力に応じた環境情報を移動ロボット100の移動距離dの分だけずらして重ね合わせる操作を繰り返すことで、環境地図500を蓄積していく。
 しかしながら、環境地図500上に過去の環境情報を全て記憶しておけば良いという訳ではない。過去の環境情報600を全て蓄積して記憶すると、以下のd~fの問題が生じる。
 d.距離センサ110のノイズをすべて残しておくと、空間が障害物200だらけになる
 距離センサ110のノイズに起因する障害物領域280の情報を残し続けると、移動ロボット100は、移動できる経路も通行不可なように見えてしまう。移動ロボット100は、観測した障害物領域280の情報を保持するだけでなく、障害物領域280の情報を適切なタイミングで更新し、存在しない障害物領域280の情報は消去する処理も必要になる。
 e.遠方の既に存在しない障害物200が残っていると思い込むことで、移動経路が引けなくなる
 距離センサ110のレンジ外の遠方の障害物200の情報を更新しないままにしておくと、一度記憶した障害物200がいなくなった後でも、その障害物200が存在していた場所が通れないとの判断がされ続け、経路生成が正しくされない可能性がある。見えない範囲の障害物200の情報も不要であれば消去する手法が必要である。
 f.長距離移動する場合は環境地図500が際限なく拡大し、記憶領域の圧迫につながる
 環境地図500を消去することなく記憶し続けることは、移動ロボット100が保有するメモリ等の記憶領域の圧迫に結びつく。図5は、遠方の動的な障害物210を記憶し続けることによる弊害を示す模式図である。移動ロボット100は、記憶の上では、出口340に人(動的な障害物210)がいたことを記憶しているため、目的地300への経路3を引くことができない。人が出口340に存在したのは過去のことであるが、そのことを移動ロボット100が常に記憶し続けると、障害物210が記憶として残ってしまう。このため、観測が古く信用できなくなった障害物領域280の情報や、距離が遠くで移動計画上不要な障害物領域280の情報を消去すれば、記憶領域を節約できる。
 g.動的障害物(人間など)が残り続けると壁として認識されてしまう
 移動する障害物210(動的障害物)の観測情報を記憶し続けると、その軌跡が壁の様な巨大な障害物220として残ってしまう。図6は、動的障害物を記憶し続けることで発生する障害物220を示す模式図である。図6に示すように、動的な障害物210を記憶し続けると、移動ロボット100の記憶上の環境地図500では、移動ロボット100の前方に壁のような障害物220が残ってしまうことになる。障害物220のうち、現在の障害物210の位置を除いた領域230はゴーストであるため、障害物220からゴーストの領域230を除いて環境地図500を作成する。このように、動的な障害物210については、既に存在しないと判断されるタイミングで、存在しない領域を障害物領域280の情報から除去する必要がある。
 以上のように、環境地図500は、記憶とともに消去を行わなければならないことが分かる。本実施形態では、距離センサ110を用いて環境地図500を取得しながら経路計画をする移動ロボット100において、移動計画を設定する上で不要な障害物200の情報を消去する。以下、詳細に説明する。
 2.システムの構成例
 図7は、本実施形態に係るシステムの構成を示す模式図である。このシステムは、ステレオカメラやレンジセンサなどの距離情報を取得する距離センサ110を備えた移動ロボット100のシステムに関する。なお、以下では、本システムを自システムと称する場合がある。
 図7に示すように、移動ロボット100は、距離センサ110、更新情報生成部120、遠距離消去部130、地図統合部140、見えない領域の消去部(不可視領域消去部)150、見えている領域の更新部(可視領域更新部)160、環境地図作成部165、経路生成部170、環境地図500、を有して構成されている。なお、図7に示す距離センサ110以外の各構成要素は、ハードウェア(回路)、またはCPUなどの中央演算処理装置と、これを機能させるためのプログラムから構成することができる。この場合に、そのプログラムは、移動ロボット100が備えるメモリなどの記憶媒体、または外部から移動ロボット100に接続される記録媒体などに格納されることができる。
 距離センサ110は、自システムが周辺の障害物200の情報を取得するためのセンサである。障害物200の位置と障害物200が移動ロボット100からどの程度の距離に存在しているのかを判別可能であれば、ステレオカメラを用いたステレオマッチング、IRカメラを用いた測距、レーザーレンジファインダを用いるものなど、距離センサ110はどのような方式のセンサであっても構わない。
 更新情報生成部120は、距離センサ110によって得られた環境情報を蓄積された環境地図500のサイズに成形する構成要素である。更新情報生成部120は、見えている領域の障害物領域280及び空き領域290の情報に加えて、見えない部分は未知領域という情報で補填する。
 環境地図500は、これまでに得られた距離センサ110の出力(環境情報)を蓄積して生成した地図である。環境地図500は、同じ座標について、障害物領域280、空き領域290のそれぞれを示す環境情報を最後に観測した時刻を保持している。
 遠距離消去部130は、統合された環境地図500の中で、移動ロボット100から遠い部分の情報をトリミングして消去することで、記憶領域を低減する構成要素である。地図統合部140は、更新情報生成部120から出力される現在の環境情報と、トリミングされた環境地図を統合する構成要素である。
 見えない領域の消去部150は、地図統合部140による地図統合の結果、現在の移動ロボット100の位置からは見えない部分の障害物領域280、空き領域290の情報について、時間の経過に伴って消去するか、又は保持するかを判定する構成要素である。見えている領域の更新部160は、地図統合の結果、現在の移動ロボット100の位置からは見えている部分の障害物領域280、空き領域290の情報を更新する構成要素である。
 環境地図作成部165は、見えない領域の消去部150、見えている領域の更新部160による処理後の障害物領域280、空き領域290、未知領域を統合して環境地図500を作成する。環境地図500は、移動ロボット100が備えるメモリ等に格納される。
 経路生成部170は、以上の処理で得られた可視領域と不可視領域を合わせた環境地図500から、移動ロボット100の移動すべき経路を生成する構成要素である。経路生成部170は、障害物領域280を避けて、空き領域290を移動ロボット100が通るように経路を生成する。
 3.本実施形態に係るシステムで行われる処理
 以下、本実施形態に係るシステムで行われる処理について説明する。本システムでは、距離センサ110の出力を環境地図500に統合し、移動ロボット100からの距離と経過時間に応じて情報の消去または保持の判定を行い、環境地図500を更新する。システムで行われる処理は、図8に示すように、一定距離範囲外のトリミング(ステップS10)、地図の統合(ステップS12)、見えている領域の更新(ステップS14)、見えていない領域の更新(ステップS16)、地図の合成と出力(ステップS18)、の5つのステップで行われる。
 3.1.一定距離範囲外のトリミング
 移動ロボット100が目的地300に移動するにあたって、目的地300よりも遠方や、今までに通って来た道の情報を保持していても、それらは経路計画に寄与しない場合がある。また、取得した時間が古いため情報は確度も低く、いたずらに記憶領域を圧迫するだけである。従って、このステップでは、遠距離消去部130が、環境地図500上から、移動ロボット100を中心とした所定の距離よりも遠くの環境情報を削除する。ここでの「削除」とは、空き領域290でも障害物領域280でもない未知領域にすることであり、単純に計算機上の記憶領域を解放(クリア)するという意味である。
 移動ロボット100を中心とした所定の距離は、移動ロボット100を適用する場所において想定される最長のゴールポイントまでの距離とすることができる。
 3.2.地図の統合
 このステップは、距離センサ110から得られた環境情報を、上述のトリミングを行った環境地図500に反映させるステップである。環境地図500には、地図上の各座標において、障害物領域280、空き領域290が最後に観測された時刻が書き込まれている。距離センサ110から得られる環境情報の中で、障害物領域280、空き領域290が検出された座標については、現在時刻を上書きする。障害物領域280、空き領域290のどちらも検出されず、未知領域だと判断される座標については、書き込まれている時刻を保持する。
 3.3.見えている領域の更新
 このステップは、見えている領域の更新部160によって行われる。見えている領域の更新部160は、統合された環境地図500上で、時刻が現在時刻に更新された座標の情報更新を行う。観測の結果、以前は空き領域290であったが現在は空き領域290であると観測された座標について、最初に処理を説明する。空き領域290である旨の情報は、距離センサ110のノイズの可能性があるため、そのまま空き領域290を環境地図500に反映させることは好ましくない。そこで、最後に障害物領域280として観測された時刻との差を用いて信頼性を上げる。
 以前は空き領域290であったが空き領域290であると観測された座標では、障害物領域280として観測された時刻t_obsが空き領域290として観測された時刻t_vcntよりも古い状態になっている。つまり、以下の関係が成立する。
t_obs<t_vcnt=現在時刻
 この時間差Δt=t_obs-t_vcntが、ある時間t_mよりも大きい場合のみ、当該座標を空き領域290とする。こうすることで、t_mよりも長い期間、当該座標が空き領域290と観測され続けた場合にのみ空き領域290として環境地図500に反映されることになり、そのようなケースでは距離センサ110のノイズを疑う必要はなくなる。
 次に、観測の結果、以前は空き領域290であったが現在は障害物領域280であると観測された座標についての処理を説明する。障害物領域280であるという情報もまた、距離センサ110のノイズの可能性があるが、移動ロボット100の移動上の安全性を考慮するならば、空き領域290であると観測されたケースよりも早めに障害物領域280として環境地図500に反映させることが望ましい。そこで、このケースでも、最後に空き領域290として観測された時刻t_vcntと障害物領域280として観測された時刻t_obs(現在時刻)との差を用いるが、時間差Δt=t_vcnt-t_obsが、上述した時間t_mよりも短い時間t_sを超えた場合に当該座標を障害物領域280とみなすことにする。これによって空き領域290から障害物領域280への変化はより迅速に反映されることとなり、安全性をより確保できる。
 時間幅t_mとt_sの決め方は、t_m>t_sの関係を満たせば良いが、t_mは、上述した動的な障害物210のゴーストの領域230が消えるまでに要する時間でもある。システムが適用される状況における動的障害物の大きさや移動速度などに基づき、t_mを少なめに見積もることで、ゴーストに移動を阻害されにくくすることができる。t_sは距離センサ110のノイズ量が多い場合や、移動ロボット100の移動速度が遅く、同じ座標を何度も計測する場合は長めの時間にすることができる。逆に、安全性を追求したい場合は、t_sを0としても構わない。
 3.4.見えていない領域の更新
 このステップでは、統合された環境地図500上で、時刻が更新されなかった座標の情報更新を行う。最終観測時刻が更新されなかった座標は、距離センサ110により観測されなかった座標であり、現在は移動ロボット100からは見えていない領域である。この領域の情報は、経路計画上有用であるため一定期間は保持しておきたいが、見えていない領域で障害物200の移動が生じる可能性もあり、時間の経過とともに信用できない情報になっていく。そこで、見えない領域の消去部150は、最終観測時刻t_lastと現在時刻t_nowとの差がある時間幅t_lを超えた場合に、これを消去するものとする。ここでの「消去」とは、空き領域でも障害物でもない未知状態として当該座標を登録するという意味である。
 これにより、最後に観測してから時間幅t_lが経過した時点で過去の障害物領域280、空き領域290の情報は消えてしまう。これは、時間幅t_lの間だけは周辺の環境情報の記憶を保持しながら移動ロボット100が経路の探索を続けられることを意味している。時間幅t_lは、移動ロボット100の移動速度と適用する環境の広さから許容できる探索時間として長めに設定すべきである。
 時刻t_lの経過後に記憶がリセットされて再探索を開始するため、探索範囲内で過去に観測された障害物210が探索中に移動し、ある経路が通行可能になったような場合にも移動ロボット100は対応可能であり、通行可能な経路を設定することができる。仮にそのような移動する障害物210が想定されない環境であるならば、時刻t_lは無限大とすれば、障害物210は時間消去されず、目的地に到達するまで探索を続けることもできる。
 また、ある座標が環境地図500上で障害物領域280だと判定されている場合に、これが空き領域290に変化した場合は時刻t_m経過後に変化が反映される。また、障害物200が見えなくなった場合は時刻t_l経過後に未知領域に変化する。t_m<t_lとすることで、本システムは「障害物情報が時間の経過で消去されるシステムであって、障害物が移動して空き領域になった場合は速やかに情報が更新される」という特徴を得ることになる。
 上記の例では時刻t_lを一定時間にしたが、t_lが大きいほど移動ロボット100の記憶すべき領域が拡大する可能性があり、記憶領域削減の観点からは好ましくない。そこで、時間幅t_lをロボットの移動速度、方向に応じて座標ごとに可変にするという手法を取り入れても良い。なお、これらのバリエーションについては、後で詳細に説明する。
 3.5.地図の合成と出力
 このステップでは、見えている範囲と見えていない範囲の障害物領域280、空き領域290を統合し、新たな環境地図500として記憶を更新する。経路生成部170は、この更新された環境地図500を用いて経路生成を行う。
 4.時間の経過と距離に応じた障害物領域と空き領域の変化
 図9は、上述したルールに基づいて、見えている領域と見えていない領域のそれぞれにおいて、時間の経過と距離に応じて障害物領域280と空き領域290が変化する様子を示す模式図である。図9において、横軸は距離を示し、縦軸は時間を示している。
 先ず、見えている領域に着目すると、図9に示すように、見えている領域は、移動ロボット100からの距離が比較的近い領域であり、障害物領域280と空き領域290の情報の更新に特徴がある。時刻0で障害物領域280と判定されても直ちに環境地図500には反映されず、障害物領域280と判定されてからt_sが経過すると環境地図500に障害物領域280として反映される。これにより、距離センサ110のノイズによる障害物領域280の誤認を抑制できる。
 また、時刻0で空き領域290と判定されても直ちに環境地図500には反映されず、空き領域290と判定されてからt_mが経過すると環境地図500に空き領域290として反映される。これにより、距離センサ110のノイズによる空き領域290の誤認を抑制できる。また、動的障害物によるゴーストの領域230が記憶されることによる記憶量の増加を抑制できる。
 また、上述したようにt_m>t_sの関係を満たすことにより、空き領域290から障害物領域280への変化は環境地図500に迅速に反映されることとなり、安全性をより確保できる。つまり、この消失までの時間差により同じ地点の情報は、空き領域290よりも障害物領域280の方が保持され易いことになる。
 次に、見えていない領域に着目すると、見えていない領域は、移動ロボット100からの距離が比較的遠い領域であり、障害物領域280、空き領域290のいずれも、t_lの経過後に消去される。つまり、t_lの時間内に正しい経路を引けない場合は、古い観測情報から順に消去されることになる。
 また、移動ロボット100からの距離が所定値rを超えると、見えていない領域の障害物領域280、空き領域290の情報は全て消去される。
 5.環境地図の更新の具体例
 次に、図10A~図10Cに基づいて、環境地図500の更新の具体例について説明する。図10A~図10Cは、環境地図500の作成を説明するための模式図であって、移動ロボット100を中心とする上方から見た領域を7×7=49個の正方形の領域502に分割した状態を示している。図10A~図10Cに示すように、環境地図500は、障害物地図510と空き領域地図520から構成され、障害物地図510と空き領域地図520を統合することで、環境地図500が作成される。
 図10Aは、過去の障害物地図510、空き領域地図520、環境地図500を示している。また、図10Bは、距離センサ110による情報を統合した障害物地図510、空き領域地図520を示している。また、図10Cは、距離センサ110の情報と統合して更新した障害物地図510、空き領域地図520、環境地図500を示している。図10B及び図10Cに示す状態は、図10Aに示す状態から1秒が経過した後の状態を示している。
 各領域502の座標は絶対値で表され、移動ロボット100が移動した場合は、移動量を考慮して各領域502の環境情報が更新される。以下では、説明の便宜上、移動ロボット100が移動しない場合を例に挙げて説明する。
 各領域502に示す数値は、観測されてからの経過時間を示している。例えば、障害物地図510では、ある領域502に示された数値は、その領域で障害物領域280の情報が得られてからの経過時間(秒)を示している。同様に、空き領域地図510においても、ある領域502に示された数値は、その領域で空き領域290の情報が得られてからの経過時間(秒)を示している。
 図10A~図10Cに示す例では、各時間パラメータt_s,t_m,t_lの値は、t_s=2秒、t_m=4秒、t_l=8秒であるものとする。
 障害物地図510と空き領域地図520を統合して環境地図500を作成する際に、双方の地図に値が書き込まれている領域502では、それぞれの数値(観測時刻)を比較し、障害物領域280と空き領域290のどちらを採用するかを決定する。この結果、環境地図500では、採用の結果に従って、障害物領域280、空き領域290を示すドットが付されている。障害物領域280は、空き領域290よりも濃い(密な)ドットが付されている。また、環境地図500において、ドットが付与されていない領域は、障害物領域280、空き領域290のいずれも登録されていない未知領域である。
 例えば、図10Aに示す領域502aでは、障害物地図510の数値が“0”であり、空き領域地図520の数値が“2”である。このため、領域502aでは、2秒前は空き領域290であり、現在は障害物領域280であることが分かる。障害物領域280になってからの時間は、2-0=2(秒)であり、障害物領域280になってからの時間が更新時間t_s(=2秒)に達しているため、領域502aの状態としては障害物領域280が採用される。従って、図10Aに示す環境地図500では、領域502aは障害物領域280となる。
 また、図10に示す領域502bでは、障害物地図510の数値が“3”であり、空き領域地図520の数値が“2”である。このため、領域502bでは、3秒前に障害物領域であり、現在は空き領域であることが分かる。空き領域領域になってからの時間は、2-0=2(秒)であり、空き領域になってからの時間が更新時間t_m(=4秒)よりも小さいため、領域502aの状態としては障害物領域280が採用される。従って、図10Aに示す環境地図500では、領域502bは障害物領域となる。
 図10Bでは、図10Aに示した過去の過去の障害物地図510、空き領域地図520、環境地図500に対して、距離センサ110により得られた現在の情報を統合する。図10Bでは、障害物地図510の左に、距離センサ110により得られた現在の最新の観測情報530が示されている。観測情報530は、7×7=49個の領域502のうち、中央の3×3=9個の領域502に対応する。
 統合の際には、距離センサ110から得られた移動ロボット100の周囲の最新の観測情報530が障害物地図510、空き領域地図520に反映される。そして、これにより、数値が“0”の領域502が発生することになる。なお、図10Bでは、観測情報530の左上の領域502が未知領域であるため、観測情報530のうち、左上の領域502を除いた8つの領域502を障害物地図510、空き領域地図520に反映している様子を示している。
 例えば、図10Bの領域502cでは、図10Aでは障害物領域、空き領域のいずれも登録されていなかったが、図10Aから1秒が経過した時点では、図10Bの観測情報530に示すように、距離センサ110により障害物領域280の情報が観測されている。従って、図10Bの障害物地図510では、領域502cは障害物領域280として登録され、数値“0”が付与される。この際、図10Aで既に障害物領域280とされている領域502dについては、既に付与されていた数値が“0”に更新される。
 また、図10Bの観測情報530の領域502dでは、空き領域290であることが観測されている。このため、図10Bの空き領域情報520では、領域502dは空き領域として登録され、数値“0”が付与される。この際、図10Aで既に空き領域290とされている領域502dについては、既に付与されていた数値が“0”に更新される。
 また、図10Bの障害物地図510、空き領域地図520において、図10Aで数値が付与されている領域502であって、観測情報530からの更新が無かった領域502では、図10Aの状態から1秒が経過しているため、数値が1だけ増加する。
 図10Cに示す障害物地図510及び空き領域地図520は、図10Bと同様である。図10Cに示すように、障害物地図510と空き領域地図520を統合して環境地図500が作成される。
 例えば、図10Cに示す領域502eでは、障害物地図510の数値が“4”であり、空き領域地図520の数値が“0”である。このため、領域502eでは、4秒前に障害物領域280であり、現在は空き領域290であることが分かる。空き領域290になってからの時間は、4-0=4(秒)であり、空き領域290になってからの時間が更新時間t_m(=4秒)に達しているため、領域502eの状態としては空き領域290が採用される。従って、図10Cに示す環境地図500では、領域502eは空き領域290となる。
 また、図10Cに示す環境地図500を作成する際には、数値が“8”になった領域502fについては、t_l=8秒に達しているため、障害物領域280でも空き領域290でもない未知領域として登録される。
 以上のように、図10Cに示す更新後の環境地図500では、距離センサ110で見えている領域の観測情報530に基づいて環境地図500が更新される。また、距離センサ110によって見えていない領域の中には、数値が“1”だけ増加したことで未知領域に変化するものが現れる。
 なお、図10A~図10Cでは、遠距離消去部130による処理は含まれていない。図10A~図10Cに示す処理により生成された環境地図500に対して、遠距離消去部130は、移動ロボット100から遠い部分の情報をトリミングして消去する。
 6.各パラメータの決め方
 以下では、各パラメータの決め方の例について説明する。
 6.1.所定値rの決め方
 図11~図13は、障害物領域280、空き領域290の情報を消去するトリガとなる距離(所定値r)の決め方を説明するための模式図である。図11は、移動ロボット100の移動空間の部屋、廊下の間取り750(左図)と、間取り750に対応するトポロジカルマップ700(右図)を示す模式図である。トポロジカルマップ700は、移動ロボット100の移動空間の部屋同士の接続情報、部屋と廊下の接続情報などを記述した地図である。図11に示すトポロジカルマップ700には、間取り750を破線で重畳して示している。
 図12は、トポロジカルマップ700上を移動ロボット100が移動する様子を示す模式図であって、移動ロボット100及びその経路を上方から見た状態を示している。図12では、図11に示した間取り750の廊下の周辺と、これに対応するトぽロジカルマップ700を示している。移動ロボット100は、目的地300まで移動する際は、最終ゴール702までの移動経路を一度に生成せずに、次の接続点704を現在のゴールとして設定し、次の接続点704までの移動を行う。移動ロボット100は、次の接続点までの移動を繰り返すことで、最終ゴール702へ到達する。
 移動ロボット100が現在のゴール(接続点704)に到達すると、移動ロボット100の移動経路は次のゴール(最終ゴール702)までのものに切り替わる。その時点で、移動ロボット100が後戻りしなければ、それまでの環境地図500の情報は不要になる。
 従って、図13に示すように、移動ロボット100が記憶しておくべき環境地図500の範囲は、トポロジカルマップ700上の「最も長い辺の長さを半径とする円」を含めば十分である。半径rの円は移動中の経路を完全に含むため、移動ロボット100は、この円の範囲の障害物領域280、空き領域290を記憶しておけば十分である。
 6.2.t_mの決め方
 次に、t_mの決め方について説明する。ここでは、人への追従に基づいたt_mの決め方について説明する。上述したように、t_mは、障害物領域280が空き領域290になるまでの時間である。
 ここで、以下の式(1)が成立する場合に、環境地図500上で障害物領域280が空き領域290に切り替わる。障害物領域280から空き領域290への変化は、センサ信号が信頼できない場合には移動ロボット100の衝突を招く可能性ある。このため、上述したようにt_mは、逆のケース(空き領域290→障害物領域280)での認識変化に用いる時間t_sよりも大きくすることが望ましい。
t_m<(障害物領域280として最後に観測された時刻)-(空き領域290として最後に観測された時刻)   ・・・(1)
 一方、図14は、移動ロボット100が人800を追従して移動する場合を示している。図14において、上段の図は、人800と移動ロボット100が静止している場合に、人800の後方の障害物領域280と空き領域290を示している。また、図14の中段の図は、上段の図に対して人800が移動を始め、移動ロボット100が人800に追従している場合に、人800の後方の障害物領域280と空き領域290を示している。また、図14の下段の図は、中段の図に対して更に人800及び移動ロボット100が移動した場合に、人800の後方の障害物領域280と空き領域290を示している。
 図14の中段及び下段の図に示すように、移動ロボット100に人800の追従をさせようとすると、人800の通った跡はt_mの間だけ障害物領域280(ゴーストの領域230)として移動ロボット100の記憶に残り続けることになる。例えば、追従対象がの人800速度v_humanで移動している場合、ゴーストの長さLは、以下の式(2)で表すことができる。
L=v_human×t_m   ・・・(2)
 以上のようにゴーストの長さLはt_mに応じて変化するため、t_mが大きい場合は、その分だけ障害物領域280(ゴーストの領域230)が人800の後ろに残り続けるため、移動ロボット100を滑らかに人800に追従させることが困難になっていく。
 そこで、式(2)を逆に用いて、t_mを以下の式(3)ように決めることも可能である。
t_m=L_h/v_robot   ・・・(3)
 但し、式(3)において、L_hは、人800に追従させる際のロボットと人との理想的な距離であり、v_robotは追従時の移動ロボット100の最大速度である。
 6.3.t_lの決め方
 次に、距離センサ110で観測出来ない範囲の障害物領域280の消失時間であるt_lの決め方について説明する。上述したように、ある領域502の情報を最後に観測してからt_lが経過した場合に、その領域502の情報はリセットされ、その領域520は未知領域に変化する。すなわち、その領域502は障害物領域280、空き領域290のいずれでもなくなる。具体的に、数式で表現すると、以下の式(4)が満たされた領域502が未知領域にリセットされる。なお、式(4)では、t_lが固定値であることを示すため、t_lをt_lとして示している。
t_l≦Δt(=t-t_0)   ・・・(4)
 但し、式(4)において、t_0は、その領域502で障害物領域280、空き領域290を最後に観測した時刻であり、tは現在時刻である。
 式(4)におけるt_lは固定値であるが、移動ロボット100の移動速度、移動方向を加味することで、より記憶領域の節減に効果的な手法を採ることができる。例えば、移動ロボット100が高速で移動している場合、移動ロボット100は過去の障害物200から離れていくため、t_lの値をそれ程大きくする必要はない。一方、移動ロボット100が低速で移動している場合は、入念に経路を探索しているケースが想定され、できる限り周辺の情報を保持したいと考えられる。そこで、時刻t_lは、それまでのロボットの移動速度の積分値に応じて増減できるようにし、移動ロボットが高速で移動している場合にはt_lを小さくして速やかに環境情報を消去する。また、移動ロボットが低速で移動している場合は、t_lを増大することで環境情報を長時間保持するようにする。また、移動ロボット100が停止している場合は、環境地図500がより大きくなる懸念がないため、時刻t_lを無限大とし、環境情報が時間の経過では消えなくなるような仕組みにしてもよい。
 具体的に、図15は、移動ロボット100の速度に応じた障害物領域280の情報の消去を示す模式図である。図15の上段の図に示すように、移動ロボット100が高速で移動している時、過去にいた場所は急速に遠ざかっていくため、観測できない範囲の障害物領域280の情報を保持する必要は無くなる。また、図15の下段の図に示すように、移動ロボット100が静止している場合は、環境地図500が拡大する可能性が無いため、観測できない範囲の障害物領域280の情報を消さなくても良い場合がある。
 そこで、式(5)に示すように、式(4)を変形し、t_lに対して速度による補正項を追加し、t_lの値を速度に応じて変化する値(=t_lvel)としても良い。
Figure JPOXMLDOC01-appb-M000001
 
 式(5)のようにt_lに対して速度要素を追加したt_lvelは、移動ロボット100の移動速度が速い場合に値が小さくなるため、移動ロボット100の移動速度が速い場合は、観測できない範囲の環境地図500が急速にリセットされていくことになる。逆に、移動ロボット100が静止している場合は、t_lvelが増加し、障害物領域280は時間の経過によっても消失しにくくなる。
 また、移動ロボット100の移動方向を用いてt_lを増減するという手段を取り入れてもよい。移動ロボット100がある方向に直進しているケースでは、移動ロボット100の背後の情報は不要になっていく。移動ロボット100の姿勢に対して背後にある座標のt_lが減少し、前方のt_lは増大するという設定にすれば、このような直線的な移動時でも効率的に記憶領域を低減できる。このような設定で移動ロボット100が複雑な形状の経路を探索して移動する場合は、移動ロボット100の姿勢が頻繁に回転することが予想されるため、t_lを全方位に渡って平均化することが望ましい。
 具体的に、速度と向きを用いてt_lを変化させる手法について説明する。速度の大きさだけでなく、移動方向を加味してt_lを変化させることもできる。図16に示すように、移動ロボット100の進行方向にある障害物領域280の情報は、移動ロボット100の経路計画上で利用される可能性がある。このため、進行方向にある障害物領域280の情報は、消失させないことで観測の無駄を防げる可能性がある。
 一方、移動ロボット100の後ろ側にある障害物領域280の情報は、移動ロボット100が障害物から遠ざかることにより利用されない可能性が高い。このため、移動ロボット100の後ろ側にある障害物領域280の情報は保持していても無駄であり、消失を早める。
 そこで、以下の式(6)に示すように、例えばt_lに速度と移動方向を同時に加味した補正項を追加し、t_lの値を速度と移動方法に応じて変化する値(=t_ldir)としても良い。
Figure JPOXMLDOC01-appb-M000002
 
 以上のように、t_lを変化させる2つの手法は、t_lを固定する手法から派生した手法であり、上記2つの手法を同時に適用することが可能である。
 以上説明したように本実施形態によれば、環境地図500上のマスク処理や行列の和計算などの高速な画像処理手法で実装が可能であり、従来手法の物体識別や確率的取り扱いなどの高負荷な処理に比して低コストで実現可能である。これにより、本実施形態によれば、家庭内愛玩用ロボットなどの小型で計算能力が限られている対象にも実装が可能となる。
 また、例えば家庭環境に適応する場合、例えば床に置かれている荷物や散らかった玩具などの静的な障害物の位置が頻繁に入れ替わることが想定される。動的障害物、静的障害物の識別を行ってから選択的に動的障害物を消去する手法では、これらの移動する静的障害物への対処が十分に出来ず、移動範囲を狭める結果になる。しかし、本実施形態によれば、静的障害物と動的障害物の区別なく同じ基準で記憶が消去されるため、静的障害物の移動に起因する制約を受けずに行動することが出来る。
 更に、従来の手法では見えない(再観測されない)点が一定の存在確率で残り続け、環境地図が徐々に拡大して記憶領域を圧迫する可能性があるが、本実施形態によれば、見えない障害物をむしろ積極的に消去するため、効果的に記憶領域を節約することが可能となっている。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1) 移動体が移動する空間に障害物が存在する障害物領域の情報と、前記障害物が存在しない空き領域の情報とを更新する更新部、を備え、
 前記更新部は、前記障害物領域の更新と前記空き領域の更新を異なる経過時間に基づいて行う、環境情報更新装置。
(2) 前記更新部は、
 前記障害物領域の情報が得られた領域について、第1の時間の経過後に当該領域を前記障害物領域として更新し、
 前記空き領域の情報が得られた領域について、第2の時間の経過後に当該領域を前記空き領域として更新し、
 前記第1の時間よりも前記第2の時間の方が長い、前記(1)に記載の環境情報更新装置。
(3) 前記移動体からは観測できない領域に存在する前記障害物領域又は前記空き領域の情報については、前記障害物領域又は前記空き領域の情報が得られてから所定時間の経過後に消去する不可視領域消去部を備える、前記(1)又は(2)に記載の環境情報更新装置。
(4) 前記所定時間は、前記移動体の移動の速さに応じて変化する、前記(3)に記載の環境情報更新装置。
(5) 前記所定時間は、前記移動体の移動の速さが大きいほど短くなる、前記(3)に記載の環境情報更新装置。
(6) 前記所定時間は、前記移動体の移動方向に応じて変化する、前記(3)に記載の環境情報更新装置。
(7) 前記所定時間は、前記移動体の移動方向が前記障害物領域又は前記空き領域の位置から離れるほど短くなる、前記(3)に記載の環境情報更新装置。
(8) 前記所定時間は、前記移動体の移動の速さ及び移動方向に応じて変化する、前記(3)に記載の環境情報更新装置。
(9) 前記移動体から所定値以上離れた場所に位置する前記障害物領域及び前記空き領域の情報を消去する遠距離消去部を備える、前記(1)~(8)のいずれかに記載の環境情報更新装置。
(10) 更新した前記障害物領域及び前記空き領域の情報に基づいて、環境地図を作成する環境地図作成部を備える、前記(1)~(9)のいずれかに記載の環境情報更新装置。
(11) 前記環境地図に基づいて、前記移動体が移動する経路を生成する経路生成部を備える、前記(10)に記載の環境情報更新装置。
(12) 前記障害物領域及び前記空き領域の情報は、前記移動体に搭載されたセンサによって観測される、前記(1)~(11)のいずれかに記載の環境情報更新装置。
(13) 移動体が移動する空間に障害物が存在する障害物領域の情報と、前記障害物が存在しない空き領域の情報とを更新すること、を備え、
 前記障害物領域の更新と前記空き領域の更新を異なる経過時間に基づいて行う、環境情報更新方法。
(14) 移動体が移動する空間に障害物が存在する障害物領域の情報と、前記障害物が存在しない空き領域の情報とを更新する手段、
 前記障害物領域の更新と前記空き領域の更新を異なる経過時間に基づいて行う手段、
 としてコンピュータを機能させるためのプログラム。
 100  移動体
 120  更新情報生成部
 120  遠距離消去部
 150  見えない領域の消去部
 160  見えている領域の更新部
 165  環境地図生成部
 170  経路生成部
 500  環境地図

Claims (14)

  1.  移動体が移動する空間に障害物が存在する障害物領域の情報と、前記障害物が存在しない空き領域の情報とを更新する更新部、を備え、
     前記更新部は、前記障害物領域の更新と前記空き領域の更新を異なる経過時間に基づいて行う、環境情報更新装置。
  2.  前記更新部は、
     前記障害物領域の情報が得られた領域について、第1の時間の経過後に当該領域を前記障害物領域として更新し、
     前記空き領域の情報が得られた領域について、第2の時間の経過後に当該領域を前記空き領域として更新し、
     前記第1の時間よりも前記第2の時間の方が長い、請求項1に記載の環境情報更新装置。
  3.  前記移動体からは観測できない領域に存在する前記障害物領域又は前記空き領域の情報については、前記障害物領域又は前記空き領域の情報が得られてから所定時間の経過後に消去する不可視領域消去部を備える、請求項1に記載の環境情報更新装置。
  4.  前記所定時間は、前記移動体の移動の速さに応じて変化する、請求項3に記載の環境情報更新装置。
  5.  前記所定時間は、前記移動体の移動の速さが大きいほど短くなる、請求項3に記載の環境情報更新装置。
  6.  前記所定時間は、前記移動体の移動方向に応じて変化する、請求項3に記載の環境情報更新装置。
  7.  前記所定時間は、前記移動体の移動方向が前記障害物領域又は前記空き領域の位置から離れるほど短くなる、請求項3に記載の環境情報更新装置。
  8.  前記所定時間は、前記移動体の移動の速さ及び移動方向に応じて変化する、請求項3に記載の環境情報更新装置。
  9.  前記移動体から所定値以上離れた場所に位置する前記障害物領域及び前記空き領域の情報を消去する遠距離消去部を備える、請求項1に記載の環境情報更新装置。
  10.  更新した前記障害物領域及び前記空き領域の情報に基づいて、環境地図を作成する環境地図作成部を備える、請求項1に記載の環境情報更新装置。
  11.  前記環境地図に基づいて、前記移動体が移動する経路を生成する経路生成部を備える、請求項10に記載の環境情報更新装置。
  12.  前記障害物領域及び前記空き領域の情報は、前記移動体に搭載されたセンサによって観測される、請求項1に記載の環境情報更新装置。
  13.  移動体が移動する空間に障害物が存在する障害物領域の情報と、前記障害物が存在しない空き領域の情報とを更新すること、を備え、
     前記障害物領域の更新と前記空き領域の更新を異なる経過時間に基づいて行う、環境情報更新方法。
  14.  移動体が移動する空間に障害物が存在する障害物領域の情報と、前記障害物が存在しない空き領域の情報とを更新する手段、
     前記障害物領域の更新と前記空き領域の更新を異なる経過時間に基づいて行う手段、
     としてコンピュータを機能させるためのプログラム。
PCT/JP2018/026133 2017-10-02 2018-07-11 環境情報更新装置、環境情報更新方法及びプログラム WO2019069524A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP18864697.0A EP3693825B1 (en) 2017-10-02 2018-07-11 Environment information update apparatus, environment information update method, and program
CN201880062770.5A CN111164529B (zh) 2017-10-02 2018-07-11 环境信息更新装置、环境信息更新方法以及程序
JP2019546537A JP7136114B2 (ja) 2017-10-02 2018-07-11 環境情報更新装置、環境情報更新方法及びプログラム
KR1020207007765A KR102629762B1 (ko) 2017-10-02 2018-07-11 환경 정보 갱신 장치, 환경 정보의 갱신 방법 및 프로그램
US16/651,139 US11687089B2 (en) 2017-10-02 2018-07-11 Environmental information update apparatus, environmental information update method, and program for updating information regarding an obstacle in a space

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-192627 2017-10-02
JP2017192627 2017-10-02

Publications (1)

Publication Number Publication Date
WO2019069524A1 true WO2019069524A1 (ja) 2019-04-11

Family

ID=65994309

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/026133 WO2019069524A1 (ja) 2017-10-02 2018-07-11 環境情報更新装置、環境情報更新方法及びプログラム

Country Status (6)

Country Link
US (1) US11687089B2 (ja)
EP (1) EP3693825B1 (ja)
JP (1) JP7136114B2 (ja)
KR (1) KR102629762B1 (ja)
CN (1) CN111164529B (ja)
WO (1) WO2019069524A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111123949A (zh) * 2019-12-31 2020-05-08 深圳前海达闼云端智能科技有限公司 机器人的避障方法、装置、机器人及存储介质
WO2020241273A1 (ja) * 2019-05-31 2020-12-03 住友電気工業株式会社 車両用通信システム、車載機、制御方法及びコンピュータプログラム
WO2020255409A1 (ja) * 2019-06-21 2020-12-24 株式会社ソニー・インタラクティブエンタテインメント 要素データ管理装置、要素データ管理方法、プログラム及び要素データのデータ構造
WO2022259621A1 (ja) * 2021-06-11 2022-12-15 ソニーグループ株式会社 情報処理装置、情報処理方法、コンピュータプログラム
WO2023058382A1 (ja) * 2021-10-04 2023-04-13 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10162362B2 (en) 2016-08-29 2018-12-25 PerceptIn, Inc. Fault tolerance to provide robust tracking for autonomous positional awareness
US11314262B2 (en) * 2016-08-29 2022-04-26 Trifo, Inc. Autonomous platform guidance systems with task planning and obstacle avoidance
US10043076B1 (en) 2016-08-29 2018-08-07 PerceptIn, Inc. Visual-inertial positional awareness for autonomous and non-autonomous tracking
US20200122711A1 (en) * 2018-10-19 2020-04-23 GEOSAT Aerospace & Technology Unmanned ground vehicle and method for operating unmanned ground vehicle
US11774983B1 (en) 2019-01-02 2023-10-03 Trifo, Inc. Autonomous platform guidance systems with unknown environment mapping
CN112462768B (zh) * 2020-11-25 2024-03-29 深圳拓邦股份有限公司 移动机器人导航地图的创建方法、装置及移动机器人
DE102023002598A1 (de) * 2022-07-26 2024-02-01 Sew-Eurodrive Gmbh & Co Kg Verfahren zum Betrieb einer technischen Anlage und technische Anlage
CN116069045B (zh) * 2023-04-06 2023-06-20 武汉大学 一种基于移动机器人的辐射环境探测方法和系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005332204A (ja) 2004-05-20 2005-12-02 Univ Waseda 移動制御装置、環境認識装置及び移動体制御用プログラム
JP2006023440A (ja) * 2004-07-07 2006-01-26 Matsushita Electric Ind Co Ltd 地図配信システムおよびそれに用いるセンタ装置
JP2007233764A (ja) 2006-03-01 2007-09-13 Toyota Motor Corp 障害物検出方法、障害物検出装置及び標準移動体モデル
JP2009169845A (ja) * 2008-01-18 2009-07-30 Toyota Motor Corp 自律移動ロボット及び地図更新方法
JP2009301401A (ja) * 2008-06-16 2009-12-24 Panasonic Electric Works Co Ltd 自律移動装置
JP2011150473A (ja) 2010-01-20 2011-08-04 Ihi Aerospace Co Ltd 自律型移動体

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3994950B2 (ja) 2003-09-19 2007-10-24 ソニー株式会社 環境認識装置及び方法、経路計画装置及び方法、並びにロボット装置
JP2006239844A (ja) * 2005-03-04 2006-09-14 Sony Corp 障害物回避装置、障害物回避方法及び障害物回避プログラム並びに移動型ロボット装置
KR101503903B1 (ko) * 2008-09-16 2015-03-19 삼성전자 주식회사 이동 로봇의 지도 구성 장치 및 방법
NZ598500A (en) 2009-08-31 2013-11-29 Neato Robotics Inc Method and apparatus for simultaneous localization and mapping of mobile robot environment
KR102093177B1 (ko) * 2013-10-31 2020-03-25 엘지전자 주식회사 이동 로봇 및 그 동작방법
EP2952993B1 (en) * 2014-06-05 2018-04-25 Softbank Robotics Europe Method for building a map of probability of one of absence and presence of obstacles for an autonomous robot
CN105182979B (zh) 2015-09-23 2018-02-23 上海物景智能科技有限公司 一种移动机器人障碍物检测及避让方法和系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005332204A (ja) 2004-05-20 2005-12-02 Univ Waseda 移動制御装置、環境認識装置及び移動体制御用プログラム
JP2006023440A (ja) * 2004-07-07 2006-01-26 Matsushita Electric Ind Co Ltd 地図配信システムおよびそれに用いるセンタ装置
JP2007233764A (ja) 2006-03-01 2007-09-13 Toyota Motor Corp 障害物検出方法、障害物検出装置及び標準移動体モデル
JP2009169845A (ja) * 2008-01-18 2009-07-30 Toyota Motor Corp 自律移動ロボット及び地図更新方法
JP2009301401A (ja) * 2008-06-16 2009-12-24 Panasonic Electric Works Co Ltd 自律移動装置
JP2011150473A (ja) 2010-01-20 2011-08-04 Ihi Aerospace Co Ltd 自律型移動体

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020241273A1 (ja) * 2019-05-31 2020-12-03 住友電気工業株式会社 車両用通信システム、車載機、制御方法及びコンピュータプログラム
WO2020255409A1 (ja) * 2019-06-21 2020-12-24 株式会社ソニー・インタラクティブエンタテインメント 要素データ管理装置、要素データ管理方法、プログラム及び要素データのデータ構造
JPWO2020255409A1 (ja) * 2019-06-21 2021-12-23 株式会社ソニー・インタラクティブエンタテインメント 要素データ管理装置、要素データ管理方法、プログラム及び要素データのデータ構造
JP7232909B2 (ja) 2019-06-21 2023-03-03 株式会社ソニー・インタラクティブエンタテインメント 要素データ管理装置、要素データ管理方法、プログラム及び要素データのデータ構造
CN111123949A (zh) * 2019-12-31 2020-05-08 深圳前海达闼云端智能科技有限公司 机器人的避障方法、装置、机器人及存储介质
WO2022259621A1 (ja) * 2021-06-11 2022-12-15 ソニーグループ株式会社 情報処理装置、情報処理方法、コンピュータプログラム
WO2023058382A1 (ja) * 2021-10-04 2023-04-13 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム

Also Published As

Publication number Publication date
EP3693825B1 (en) 2022-03-23
KR20200054977A (ko) 2020-05-20
JPWO2019069524A1 (ja) 2020-11-05
EP3693825A1 (en) 2020-08-12
US20200241554A1 (en) 2020-07-30
JP7136114B2 (ja) 2022-09-13
KR102629762B1 (ko) 2024-01-29
CN111164529A (zh) 2020-05-15
EP3693825A4 (en) 2020-12-09
US11687089B2 (en) 2023-06-27
CN111164529B (zh) 2023-09-05

Similar Documents

Publication Publication Date Title
WO2019069524A1 (ja) 環境情報更新装置、環境情報更新方法及びプログラム
CN108399218B (zh) 基于Walsh内核投影技术的自动驾驶车辆定位
JP6317230B2 (ja) 交差点における画像及び地図に基づく車両の検出法
JP2007310866A (ja) 絶対方位角を利用したロボット及びこれを利用したマップ作成方法
CN112455430B (zh) 无车位线的斜列车位的检测方法、泊车方法及泊车系统
JPWO2019058720A1 (ja) 情報処理装置、自律型移動装置、および方法、並びにプログラム
CN111469127B (zh) 代价地图更新方法、装置、机器人及存储介质
JP5902275B1 (ja) 自律移動装置
JP2011054082A (ja) 自律移動装置
CN113432533B (zh) 一种机器人定位方法、装置、机器人及存储介质
CN111897335A (zh) 一种机器人弓字型行走时的避障控制方法及其控制系统
JP6825715B2 (ja) 移動車両
JP2009229226A (ja) 物体検出装置及び物体検出方法
US20230205234A1 (en) Information processing device, information processing system, method, and program
CN114077252A (zh) 机器人碰撞障碍区分装置及方法
US20220413503A1 (en) Information processing device, information processing method, and information processing program
CN111986232B (zh) 目标物体的检测方法、装置、机器人及存储介质
JP7200970B2 (ja) 車両制御装置
JP5088875B2 (ja) 移動ロボット及び移動ロボットの行動制御方法
CN112585616A (zh) 用于预测行人的至少一个将来的速度矢量和或将来的姿态的方法
CN114489050A (zh) 沿直线行驶的避障路线控制方法、装置、设备及存储介质
KR102324099B1 (ko) 실내 이동체의 경로 계획 방법, 이를 구현하기 위한 프로그램이 저장된 기록매체 및 이를 구현하기 위해 매체에 저장된 컴퓨터프로그램
JP6594565B1 (ja) 車載装置、情報処理方法及び情報処理プログラム
CN117719500B (zh) 车辆碰撞检测方法、装置、电子设备及存储介质
US20210364600A1 (en) Method and apparatus for rear cross collision warning

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18864697

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019546537

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018864697

Country of ref document: EP

Effective date: 20200504