JP5518579B2 - Movable region extraction apparatus and movable region extraction method - Google Patents

Movable region extraction apparatus and movable region extraction method Download PDF

Info

Publication number
JP5518579B2
JP5518579B2 JP2010127122A JP2010127122A JP5518579B2 JP 5518579 B2 JP5518579 B2 JP 5518579B2 JP 2010127122 A JP2010127122 A JP 2010127122A JP 2010127122 A JP2010127122 A JP 2010127122A JP 5518579 B2 JP5518579 B2 JP 5518579B2
Authority
JP
Japan
Prior art keywords
obstacle
area
information
moving
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010127122A
Other languages
Japanese (ja)
Other versions
JP2011253377A (en
Inventor
薫 鳥羽
進太郎 藤田
善太 宮下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2010127122A priority Critical patent/JP5518579B2/en
Publication of JP2011253377A publication Critical patent/JP2011253377A/en
Application granted granted Critical
Publication of JP5518579B2 publication Critical patent/JP5518579B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、自律的に移動する移動体が移動することができる移動可能領域を抽出する移動可能領域抽出装置および移動可能領域抽出方法に関する。   The present invention relates to a movable area extracting apparatus and a movable area extracting method for extracting a movable area where a moving body that moves autonomously can move.

自律的に移動する移動体(以下、「自律移動ロボット」という)は、自律移動ロボットに設定された移動経路に従って移動する。そして、自律移動ロボットが安全に移動するためには、移動経路中に存在する障害物を回避した上で、最適な移動経路を生成することが重要である。   A mobile body that moves autonomously (hereinafter referred to as an “autonomous mobile robot”) moves according to a movement route set for the autonomous mobile robot. In order for the autonomous mobile robot to move safely, it is important to generate an optimal movement path while avoiding obstacles existing in the movement path.

従来の自律移動ロボットは、カメラ、レーザレンジファインダ、超音波センサなどの検出装置を備えている。そして、自律移動ロボットが移動する際には、検出装置によって得られる検出情報に基づいて移動経路中に存在する障害物を検出し、検出した障害物を回避するように移動経路を逐次更新しながら目的の場所に移動する。しかし、検出装置によって得られた検出情報から障害物を抽出して移動経路を生成するための演算量は非常に多く、経路生成に要する演算時間が長い。そして、この演算量の多さが、自律移動ロボットが移動する速度の制約となっている。この演算量の多さに起因する自律移動ロボットの移動速度の制約を回避するため、例えば、特許文献1では、前回の障害物抽出において障害物とされた領域および前回の検出範囲外の検出情報のみを使用することによって、次回の障害物抽出および経路生成に要する演算時間を短縮している。   A conventional autonomous mobile robot includes a detection device such as a camera, a laser range finder, and an ultrasonic sensor. When the autonomous mobile robot moves, it detects obstacles in the movement path based on the detection information obtained by the detection device, and sequentially updates the movement path so as to avoid the detected obstacle. Move to the desired location. However, the amount of calculation for generating obstacles by extracting obstacles from the detection information obtained by the detection device is very large, and the calculation time required for path generation is long. The large amount of calculation is a restriction on the speed at which the autonomous mobile robot moves. In order to avoid the restriction on the movement speed of the autonomous mobile robot due to the large amount of calculation, for example, in Patent Document 1, in the previous obstacle extraction, the area that was regarded as an obstacle and the detection information outside the previous detection range The time required for the next obstacle extraction and path generation is shortened by using only.

特開2008−197884号公報JP 2008-197884 A

しかしながら、一般的に、自律移動ロボットが移動する移動経路上には、固定された障害物のみではなく、例えば、人や他の自律移動ロボットなどの移動体も存在することが考えられる。特許文献1では、前回の障害物抽出において障害物がないとされた領域は、次に障害物を検出する領域とはならない。このため、自律移動ロボットの移動経路上に移動体が進入してきた場合には、進入してきた移動体を障害物として検出することができず、この障害物を回避することができないため、自律移動ロボットが安全に移動することができないという問題がある。   However, in general, it is conceivable that not only fixed obstacles but also moving objects such as humans and other autonomous mobile robots exist on the movement path along which the autonomous mobile robot moves. In Patent Document 1, the area where there is no obstacle in the previous obstacle extraction is not the area where the obstacle is detected next. For this reason, when a moving body enters the movement path of the autonomous mobile robot, the moving body that has entered cannot be detected as an obstacle, and this obstacle cannot be avoided. There is a problem that the robot cannot move safely.

また、従来から、自律移動ロボットの移動経路中の障害物を検出する方法として、自律移動ロボットの移動領域内に検出装置を設置し、検出装置によって得られた検出情報に基づいて自律移動ロボットの移動経路中に存在する障害物を抽出する方法もある。例えば、自律移動ロボットが屋内で移動する場合、移動領域内の天井にレーザレンジファインダなどの距離センサを設置し、このレーザレンジファインダによって障害物を検出する方法である。そして、天井に設置されたレーザレンジファインダが検出した障害物を回避するような移動経路を自律移動ロボットに設定することによって、障害物を回避(迂回)しながら自律移動ロボットが目的の場所に安全に移動することができる。   Conventionally, as a method for detecting an obstacle in the movement path of the autonomous mobile robot, a detection device is installed in the movement area of the autonomous mobile robot, and the autonomous mobile robot is detected based on the detection information obtained by the detection device. There is also a method for extracting obstacles existing in the moving route. For example, when an autonomous mobile robot moves indoors, a distance sensor such as a laser range finder is installed on the ceiling in the moving area, and an obstacle is detected by the laser range finder. And, by setting a movement path in the autonomous mobile robot that avoids the obstacle detected by the laser range finder installed on the ceiling, the autonomous mobile robot can safely be at the target location while avoiding (detouring) the obstacle. Can be moved to.

このように、自律移動ロボットの移動領域内の高所にレーザレンジファインダを設置した場合、レーザレンジファインダによって、広い範囲の障害物を検出することができる。そして、レーザレンジファインダによって得られた検出情報から障害物を抽出して移動経路を生成するための演算を、より処理能力の高い処理装置を用いて行うことによって、自律移動ロボットが移動する速度の制約を回避することができる。また、自律移動ロボットの移動経路上に進入してくる移動体を早い段階で検出することもできる。しかしながら、天井に設置されたレーザレンジファインダによる障害物の検出範囲は、例えば、円錐状に広がっているため、自律移動ロボットが移動する床面に置かれた障害物の陰や、移動体の陰など、レーザレンジファインダが検出することができない未知の領域が発生してしまう。通常、この未知の領域も障害物の領域とし、自律移動ロボットが移動することができない移動不可能領域に含めることによって、自律移動ロボットが目的の場所に安全に移動するための支障となることは少ない。   As described above, when the laser range finder is installed at a high position in the moving area of the autonomous mobile robot, a wide range of obstacles can be detected by the laser range finder. Then, by performing an operation for extracting an obstacle from the detection information obtained by the laser range finder and generating a movement path using a processing device having a higher processing capacity, the speed at which the autonomous mobile robot moves can be determined. Restrictions can be avoided. It is also possible to detect a moving body that enters the movement path of the autonomous mobile robot at an early stage. However, the obstacle detection range by the laser range finder installed on the ceiling is, for example, conically widened, so the shadow of the obstacle placed on the floor where the autonomous mobile robot moves or the shadow of the moving object For example, an unknown area that cannot be detected by the laser range finder is generated. Normally, this unknown area is also used as an obstacle area, and if it is included in a non-movable area where the autonomous mobile robot cannot move, it may hinder the autonomous mobile robot from moving safely to the target location. Few.

しかし、全ての未知の領域を移動不可能領域に含めてしまうと、自律移動ロボットが障害物を回避(迂回)する範囲が大きくなってしまうため、自律移動ロボットの移動経路を最短にするなど、効率の良い移動経路を生成することができないという問題がある。この問題を解決して効率の良い移動経路を生成するために、複数台のレーザレンジファインダを、各レーザレンジファインダの検出範囲の一部が重複するように自律移動ロボットの移動領域内の天井に設置することが考えられる。そして、複数台のレーザレンジファインダの検出情報を融合して、最終的な障害物を抽出することが考えられる。これにより、床面に置かれた障害物の陰や移動体の陰などの未知の領域をある程度少なくすることができる。しかしながら、各レーザレンジファインダによる障害物の検出タイミングを同期させるための制御は複雑な処理が必要となるため、現状では、各レーザレンジファインダが非同期に障害物を検出している。   However, if all unknown areas are included in the non-movable area, the range in which the autonomous mobile robot avoids (bypasses) obstacles becomes large. There is a problem that an efficient movement route cannot be generated. In order to solve this problem and generate an efficient movement path, multiple laser range finders are placed on the ceiling in the movement area of the autonomous mobile robot so that some of the detection ranges of each laser range finder overlap. It is possible to install it. Then, it is conceivable to extract the final obstacle by fusing detection information of a plurality of laser range finders. Thereby, unknown areas, such as the shadow of an obstacle placed on the floor and the shadow of a moving object, can be reduced to some extent. However, since the control for synchronizing the detection timing of the obstacle by each laser range finder requires complicated processing, each laser range finder detects the obstacle asynchronously at present.

このような状態において、例えば、人がレーザレンジファインダの検出範囲が重複している領域を移動した場合、人は、2つのレーザレンジファインダによってそれぞれ検出される。ところが、2つのレーザレンジファインダに検出された人の位置は、レーザレンジファインダ毎に異なる位置である。これは、上述のように、各レーザレンジファインダが非同期に障害物を検出している状態では、2つのレーザレンジファインダの検出タイミングが同時刻でなく、同一の人をそれぞれ異なるタイミングで検出してしまうためである。この状態を別の構成に例えると、同一の移動している人を、2台のカメラでそれぞれ別のタイミングで撮影するようなものである。そして、異なる位置に検出された同一の人の検出情報を融合すると、人の陰を含め、人が移動した軌跡の範囲が障害物の領域として全て抽出されてしまうこととなる。これにより、自律移動ロボットが障害物を回避(迂回)する範囲が大きくなってしまう。また、さらに、人が移動することによって、レーザレンジファインダによって前回検出された位置にいない場合でも、自律移動ロボットには前回障害物として抽出された人の位置を回避(迂回)するような移動経路が設定されることとなる。   In such a state, for example, when a person moves in a region where the detection ranges of the laser range finder overlap, the person is detected by two laser range finders. However, the position of the person detected by the two laser range finders is different for each laser range finder. As described above, in the state where each laser range finder detects an obstacle asynchronously, the detection timing of the two laser range finders is not the same time, but the same person is detected at different timings. It is because it ends. If this state is compared with another structure, it is like taking the same moving person with two cameras at different timings. When the detection information of the same person detected at different positions is merged, the range of the trajectory in which the person has moved, including the shadow of the person, is extracted as an obstacle area. This increases the range in which the autonomous mobile robot avoids (bypasses) obstacles. In addition, even when the person moves and is not at the position previously detected by the laser range finder, the autonomous mobile robot avoids (bypasses) the position of the person previously extracted as an obstacle. Will be set.

また、例えば、自律移動ロボットが設定された移動経路に従って移動することによって、レーザレンジファインダが後方から自律移動ロボット自身を検出する位置に自律移動ロボットが移動した場合、自律移動ロボット自身の陰も未知の領域となってしまう。このような状態において、自律移動ロボット自身の陰の領域を障害物の領域として抽出してしまうと、自律移動ロボットが移動することができる移動可能領域が、自律移動ロボット自身の陰によってなくなってしまうこととなる。   Also, for example, when the autonomous mobile robot moves to the position where the laser range finder detects the autonomous mobile robot itself from the back by moving along the set movement route, the shadow of the autonomous mobile robot itself is also unknown It becomes the area of. In such a state, if the shadow area of the autonomous mobile robot itself is extracted as an obstacle area, the movable area where the autonomous mobile robot can move is lost by the shadow of the autonomous mobile robot itself. It will be.

このように、天井に設置したレーザレンジファインダを用いて自律移動ロボットが移動する移動経路上の障害物を抽出しようとした場合には、本来抽出すべき、テーブルや椅子などの固定された障害物の他に、人や他の自律移動ロボットなどの移動体や、自律移動ロボット自身も障害物として抽出されてしまうという問題がある。そして、本来抽出すべき障害物以外も回避(迂回)すべき障害物として抽出されてしまうと、自律移動ロボットが効率良く移動することができる移動経路を生成することができないという問題がある。   In this way, when trying to extract obstacles on the movement path where the autonomous mobile robot moves using the laser range finder installed on the ceiling, fixed obstacles such as tables and chairs that should be extracted originally In addition, there is a problem that a moving object such as a person or another autonomous mobile robot or the autonomous mobile robot itself is extracted as an obstacle. Then, if an obstacle other than the one that should be extracted is extracted as an obstacle that should be avoided (bypassed), there is a problem that it is not possible to generate a movement route that allows the autonomous mobile robot to move efficiently.

本発明は、上記の課題認識に基づいてなされたものであり、移動体が移動する移動領域内の障害物を検出する際に、人や他の自律移動ロボットなど、移動経路上から移動する移動体を障害物として抽出することなく、移動体が目的地まで効率良く移動することができる移動経路を生成するための移動可能領域抽出装置および移動可能領域抽出方法を提供することを目的としている。   The present invention has been made on the basis of the above-mentioned problem recognition, and a movement that moves from a movement path, such as a person or another autonomous mobile robot, when detecting an obstacle in a movement area where the moving body moves. It is an object of the present invention to provide a movable area extracting apparatus and a movable area extracting method for generating a moving route that allows a moving body to move efficiently to a destination without extracting the body as an obstacle.

上記の課題を解決するため、請求項1に記載した発明の移動可能領域抽出装置(例えば、実施の形態における移動可能領域抽出部30)は、自律的に移動する移動体(例えば、実施の形態における自律移動ロボット100)が移動する空間内の予め定められた第1の高さから前記空間の下方を観測するように設置された第1の距離センサ(例えば、実施の形態における天井LRF10)と、前記空間内の予め定められた前記第1の高さより低い第2の高さから前記空間の側方を観測するように設置された第2の距離センサ(例えば、実施の形態における側方LRF20)と、によって前記移動体が移動する前記空間内に存在する障害物を検出し、該検出した障害物の領域の情報(例えば、実施の形態における非床面グリッドおよび未知グリッド)に基づいて、前記移動体が移動することができる移動可能領域の情報(例えば、実施の形態における移動可能領域情報)を抽出する移動可能領域抽出装置において、前記第1の距離センサが観測した距離の情報に基づいて、前記障害物の領域を表す第1の障害物領域を検出する第1の障害物検出手段(例えば、実施の形態におけるグリッド変換部331)と、前記第2の距離センサが観測した距離の情報に基づいて、前記障害物の領域を表す第2の障害物領域を検出する第2の障害物検出手段(例えば、実施の形態における移動体位置抽出部340)と、前記第2の障害物領域に基づいて継続的に移動している前記障害物を移動物として検出し、前記第1の障害物領域から、該検出した前記移動物の領域を表す前記第1の障害物領域を除いた領域を、移動不可能領域と判定することにより、前記移動体が移動することができる移動可能領域抽出する障害物領域抽出手段(例えば、実施の形態における移動体位置キャンセル部332)と、を備える、ことを特徴とする。 In order to solve the above-described problem, the movable region extraction device according to the first aspect of the invention (for example, the movable region extraction unit 30 in the embodiment) is a mobile body that moves autonomously (for example, the embodiment). A first distance sensor (for example, the ceiling LRF 10 in the embodiment) installed so as to observe the lower part of the space from a predetermined first height in the space in which the autonomous mobile robot 100) moves A second distance sensor (for example, a lateral LRF 20 in the embodiment) installed so as to observe the side of the space from a second height lower than the predetermined first height in the space. ) To detect an obstacle existing in the space in which the moving body moves, and information on the area of the detected obstacle (for example, the non-floor grid and the unknown grid in the embodiment). ) Based on the first distance sensor in the movable area extracting device that extracts information on the movable area in which the movable body can move (for example, movable area information in the embodiment). First obstacle detection means (for example, the grid conversion unit 331 in the embodiment) for detecting a first obstacle area representing the obstacle area based on distance information, and the second distance sensor Second obstacle detection means (for example, the mobile object position extraction unit 340 in the embodiment) for detecting a second obstacle region representing the obstacle region based on the information on the distance observed by The first obstacle representing the area of the detected moving object from the first obstacle area by detecting the obstacle continuously moving based on the second obstacle area as a moving object. Exclude object area The area, by judging an immovable area, an obstacle region extracting means for extracting a movable area which can be the mobile moves (e.g., movement in the embodiment body position canceling unit 332), It is characterized by comprising.

この発明によれば、第1の高さに設置された第1の距離センサ(例えば、実施の形態における天井LRF10)が観測した障害物までの距離の情報に基づいて、移動体(例えば、実施の形態における自律移動ロボット100)が移動する空間内に存在する第1の障害物領域を検出する。また、第1の高さより低い第2の高さに設置された第2の距離センサ(例えば、実施の形態における側方LRF20)が観測した障害物までの距離の情報に基づいて、移動体が移動する空間内に存在する第2の障害物領域を検出する。また、第2の障害物領域に基づいて、移動体が移動する空間内を継続的に移動している移動物を検出する。そして、移動物を観測することによって得られた第1の障害物領域を除いた第1の障害物領域を、移動体が移動することができる移動可能領域として抽出する。   According to the present invention, based on the information on the distance to the obstacle observed by the first distance sensor (for example, the ceiling LRF 10 in the embodiment) installed at the first height, the mobile body (for example, the implementation) The first obstacle region existing in the space in which the autonomous mobile robot 100) moves is detected. Moreover, based on the information on the distance to the obstacle observed by the second distance sensor (for example, the side LRF 20 in the embodiment) installed at the second height lower than the first height, the moving body is A second obstacle area existing in the moving space is detected. In addition, based on the second obstacle area, a moving object continuously moving in the space in which the moving object moves is detected. And the 1st obstacle area | region except the 1st obstacle area | region obtained by observing a moving object is extracted as a movable area | region which a mobile body can move.

請求項2に記載した発明の前記第2の障害物検出手段は、前記第2の距離センサが前記障害物を観測したときの前記距離の情報に基づいて、前記障害物の位置を表す障害物位置(例えば、実施の形態における人候補位置)を抽出し、前記障害物領域抽出手段は、前記第2の障害物検出手段が抽出した前記障害物位置(例えば、実施の形態における現在の人候補位置)と、以前に前記第2の障害物検出手段が抽出した過去の障害物位置(例えば、実施の形態における過去の人候補位置)とに基づいて前記移動物を検出し、該検出した移動物の位置を表す前記障害物位置を含む前記第1の障害物領域を除いた領域を、前記移動可能領域とする、ことを特徴とする。   According to a second aspect of the present invention, in the second obstacle detection means, the obstacle representing the position of the obstacle based on the information of the distance when the second distance sensor observes the obstacle. A position (for example, a candidate position in the embodiment) is extracted, and the obstacle region extracting unit extracts the obstacle position (for example, a current candidate in the embodiment) extracted by the second obstacle detecting unit. Position) and a past obstacle position (for example, a past person candidate position in the embodiment) previously extracted by the second obstacle detection means, the moving object is detected, and the detected movement is detected. An area excluding the first obstacle area including the obstacle position representing the position of an object is defined as the movable area.

この発明によれば、第2の距離センサが観測した障害物までの距離の情報に基づいて、観測した障害物の障害物位置(例えば、実施の形態における人候補位置)を抽出する。そして、現在の観測によって得られた障害物位置(例えば、実施の形態における現在の人候補位置)と、以前の観測によって得られた過去の障害物位置(例えば、実施の形態における過去の人候補位置)とに基づいて、移動体が移動する空間内を継続的に移動している移動物を検出する。そして、移動体の障害物位置(例えば、実施の形態における現在の人候補位置)を含む第1の障害物領域を除いた第1の障害物領域を、移動体が移動することができる移動可能領域として抽出する。   According to the present invention, based on the information on the distance to the obstacle observed by the second distance sensor, the obstacle position of the observed obstacle (for example, the candidate position in the embodiment) is extracted. The obstacle position obtained by the current observation (for example, the current person candidate position in the embodiment) and the past obstacle position obtained by the previous observation (for example, the past person candidate in the embodiment). And a moving object that is continuously moving in the space in which the moving object moves is detected. The movable body can move in the first obstacle area excluding the first obstacle area including the obstacle position of the moving object (for example, the current candidate position in the embodiment). Extract as a region.

請求項3に記載した発明の前記第2の障害物検出手段は、前記第2の距離センサが前記障害物を観測したときの前記距離の情報に基づいて、前記障害物の位置を表す障害物位置(例えば、実施の形態における人候補位置)を抽出し、前記障害物領域抽出手段は、前記第2の障害物検出手段が抽出した前記障害物位置(例えば、実施の形態における現在の人候補位置)と、以前に前記第2の障害物検出手段が抽出した過去の障害物位置(例えば、実施の形態における過去の人候補位置)とに基づいて前記移動物を検出し、該検出した移動物の位置を表す前記障害物位置を含む予め定められた範囲(例えば、実施の形態における移動体キャンセル範囲)の前記第1の障害物領域を除いた領域を、前記移動可能領域とする、ことを特徴とする。   The second obstacle detection means of the invention described in claim 3 is an obstacle that represents a position of the obstacle based on the information of the distance when the second distance sensor observes the obstacle. A position (for example, a candidate position in the embodiment) is extracted, and the obstacle region extracting unit extracts the obstacle position (for example, a current candidate in the embodiment) extracted by the second obstacle detecting unit. Position) and a past obstacle position (for example, a past person candidate position in the embodiment) previously extracted by the second obstacle detection means, the moving object is detected, and the detected movement is detected. An area excluding the first obstacle area in a predetermined range including the obstacle position that represents the position of an object (for example, the movable object cancellation range in the embodiment) is set as the movable area. It is characterized by.

この発明によれば、第2の距離センサが観測した障害物までの距離の情報に基づいて、観測した障害物の障害物位置(例えば、実施の形態における人候補位置)を抽出する。そして、現在の観測によって得られた障害物位置(例えば、実施の形態における現在の人候補位置)と、以前の観測によって得られた過去の障害物位置(例えば、実施の形態における過去の人候補位置)とに基づいて、移動体が移動する空間内を継続的に移動している移動物を検出する。そして、移動体の障害物位置(例えば、実施の形態における現在の人候補位置)を含む予め定められた範囲(例えば、実施の形態における移動体キャンセル範囲)の第1の障害物領域を除いた第1の障害物領域を、移動体が移動することができる移動可能領域として抽出する。   According to the present invention, based on the information on the distance to the obstacle observed by the second distance sensor, the obstacle position of the observed obstacle (for example, the candidate position in the embodiment) is extracted. The obstacle position obtained by the current observation (for example, the current person candidate position in the embodiment) and the past obstacle position obtained by the previous observation (for example, the past person candidate in the embodiment). And a moving object that is continuously moving in the space in which the moving object moves is detected. Then, the first obstacle region in a predetermined range (for example, the moving object cancellation range in the embodiment) including the obstacle position of the moving body (for example, the current candidate position in the embodiment) is excluded. The first obstacle area is extracted as a movable area where the moving body can move.

請求項4に記載した発明の前記障害物領域抽出手段は、前記移動物の位置を表す前記障害物位置に最も近い位置に設置されている前記第1の距離センサを検索し、前記移動物の障害物位置と該検索した前記第1の距離センサとの距離(例えば、実施の形態における距離Lh)、および該検索した前記第1の距離センサが前記移動物を観測したときの前記距離の情報に含まれる前記移動物の高さの情報(例えば、実施の形態における高さHsおよび高さHh)に基づいて、該移動物によって前記第1の距離センサが観測することができない陰の領域の長さ(例えば、実施の形態における陰部の長さLs)を算出し、該移動物の障害物位置から該算出した陰の領域の長さだけ離れた位置までの間、前記予め定められた範囲を、該移動物の障害物位置と該検索した前記第1の距離センサの設置位置とを結んだ延長線上で移動し、前記予め定められた範囲前記第1の障害物領域から除いた領域を、前記移動可能領域とする、ことを特徴とする。 The obstacle area extracting means of the invention described in claim 4 searches the first distance sensor installed at a position closest to the obstacle position representing the position of the moving object, and Information on the distance between the obstacle position and the searched first distance sensor (for example, the distance Lh in the embodiment), and the distance when the searched first distance sensor observes the moving object Based on the height information of the moving object included in the moving object (for example, the height Hs and the height Hh in the embodiment) of the shadow area that cannot be observed by the first distance sensor by the moving object . The length (for example, the length Ls of the shadow in the embodiment) is calculated, and the predetermined range from the obstacle position of the moving object to a position separated by the calculated length of the shadow area. The obstacle position of the moving object And moving at an extension of connecting the installation position of the first distance sensors the search, the region excluding the first obstacle area range in which the predetermined and the movable area, It is characterized by that.

この発明によれば、移動物の障害物位置に最も近い位置に設置されている第1の距離センサを検索する。そして、移動物の障害物位置と第1の距離センサとの距離(例えば、実施の形態における距離Lh)、および第1の距離センサが移動物を観測したときの高さの情報(例えば、実施の形態における高さHsおよび高さHh)に基づいて、移動物の陰となって第1の距離センサが距離の情報を観測することができない陰の領域の長さ(例えば、実施の形態における陰部の長さLs)を算出する。そして、予め定められた範囲(例えば、実施の形態における移動体キャンセル範囲)を、現在の移動物の障害物位置から陰の領域の長さだけ離れた位置までの間、移動物の障害物位置と第1の距離センサの設置位置とを結んだ延長線上で移動して、陰の領域に含まれる第1の障害物領域を除いた第1の障害物領域を、移動体が移動することができる移動可能領域として抽出する。   According to the present invention, the first distance sensor installed at the position closest to the obstacle position of the moving object is searched. Then, the distance between the obstacle position of the moving object and the first distance sensor (for example, the distance Lh in the embodiment) and the height information when the first distance sensor observes the moving object (for example, implementation) Based on the height Hs and the height Hh) in the form of the shaded area, the length of the shaded area in which the first distance sensor cannot observe the distance information (eg, in the embodiment) The shadow length Ls) is calculated. Then, the obstacle position of the moving object between a predetermined range (for example, the moving body canceling range in the embodiment) and a position away from the obstacle position of the current moving object by the length of the shadow area. And the moving body may move in the first obstacle area excluding the first obstacle area included in the shadow area. Extract as possible movable area.

請求項5に記載した発明の前記障害物領域抽出手段は、前記第2の障害物検出手段が抽出した前記障害物位置が、以前に前記第2の障害物検出手段が抽出した過去の障害物位置から予め定められた閾値(例えば、実施の形態における予め定められた距離)以上変化している場合に、前記障害物位置に対応する前記障害物が前記移動物であると判定する、ことを特徴とする。   The obstacle area extracting means according to claim 5 is characterized in that the obstacle position extracted by the second obstacle detecting means is a past obstacle previously extracted by the second obstacle detecting means. Determining that the obstacle corresponding to the obstacle position is the moving object when the position changes by more than a predetermined threshold (for example, a predetermined distance in the embodiment) from the position. Features.

この発明によれば、第2の距離センサによる観測によって得られた現在の障害物位置と、第2の距離センサによる以前の観測によって得られた過去の障害物位置との差が、予め定められた閾値(例えば、実施の形態における予め定められた距離)以上である場合に、現在の障害物位置に位置している障害物が、移動体が移動する空間内を継続的に移動している移動物であると判定する。   According to this invention, the difference between the current obstacle position obtained by observation by the second distance sensor and the past obstacle position obtained by previous observation by the second distance sensor is determined in advance. The obstacle located at the current obstacle position is continuously moving in the space in which the moving object moves when the threshold is equal to or greater than the threshold (for example, a predetermined distance in the embodiment). It is determined that the object is moving.

請求項6に記載した発明の前記移動体が移動する空間が建物内にあるとき、前記第1の距離センサは、前記建物内の天井に予め定められた間隔で複数設置され、前記第1の障害物検出手段は、複数設置されたそれぞれの前記第1の距離センサの観測範囲を融合した空間における距離の情報に基づいて、前記第1の障害物領域を検出する、ことを特徴とする。   When the space in which the moving body of the invention described in claim 6 moves is in a building, a plurality of the first distance sensors are installed at a predetermined interval on the ceiling in the building, and the first The obstacle detection means detects the first obstacle region based on distance information in a space obtained by merging the observation ranges of the plurality of first distance sensors installed.

この発明によれば、移動体が移動する空間が建物内であるとき、第1の距離センサを設置する第1の高さを建物内の天井の高さとする。また、建物内の天井には、予め定められた間隔で複数の第1の距離センサを設置する。そして、複数設置されたそれぞれの第1の距離センサの観測範囲を融合した空間が、移動体が移動する空間となる。そして、第1の障害物検出手段は、それぞれの第1の距離センサの観測範囲を融合した空間における距離の情報に基づいて、第1の障害物領域を検出する。   According to this invention, when the space in which the moving body moves is in the building, the first height at which the first distance sensor is installed is set as the height of the ceiling in the building. A plurality of first distance sensors are installed at predetermined intervals on the ceiling in the building. And the space which united the observation range of each 1st distance sensor installed in multiple becomes space where a mobile body moves. Then, the first obstacle detection means detects the first obstacle region based on distance information in a space in which the observation ranges of the respective first distance sensors are merged.

請求項7に記載した発明の前記第2の距離センサは、前記天井と床面との間の予め定められた高さで、前記建物内の床面に平行な観測範囲を観測するように、予め定められた間隔で複数設置され、前記第2の障害物検出手段は、複数設置されたそれぞれの前記第2の距離センサの観測範囲を融合した平面における距離の情報に基づいて、前記第2の障害物領域を検出する、ことを特徴とする。   The second distance sensor of the invention described in claim 7 is configured to observe an observation range parallel to the floor surface in the building at a predetermined height between the ceiling and the floor surface. A plurality of second obstacle detection means are installed at a predetermined interval, and the second obstacle detection means is configured to select the second obstacle based on distance information in a plane obtained by merging observation ranges of the plurality of second distance sensors installed. The obstacle area is detected.

この発明によれば、移動体が移動する空間が建物内であるとき、第2の距離センサを設置する第2の高さを、建物内の天井の高さと建物内の床面の高さとの間の予め定められた高さとする。また、第2の距離センサの観測範囲が建物内の床面と平行となるように、予め定められた間隔で複数の第2の距離センサを設置する。そして、複数設置されたそれぞれの第2の距離センサの観測範囲を融合した平面が、移動体が移動する空間内の平面となる。そして、第2の障害物検出手段は、それぞれの第2の距離センサの観測範囲を融合した平面における距離の情報に基づいて、第2の障害物領域を検出する。   According to this invention, when the space in which the moving body moves is in the building, the second height at which the second distance sensor is installed is set to the height of the ceiling in the building and the height of the floor in the building. It is set to a predetermined height. In addition, a plurality of second distance sensors are installed at predetermined intervals so that the observation range of the second distance sensor is parallel to the floor surface in the building. And the plane which united the observation range of each 2nd distance sensor installed in plurality becomes a plane in the space where a mobile object moves. Then, the second obstacle detection means detects the second obstacle region based on distance information on a plane obtained by merging the observation ranges of the respective second distance sensors.

請求項8に記載した発明の前記障害物領域抽出手段は、抽出した移動可能領域に基づいて、前記移動体が移動する経路を生成する経路生成手段(例えば、実施の形態における経路生成部40)、をさらに備える、ことを特徴とする。   The obstacle area extracting means of the invention described in claim 8 is a path generating means for generating a path along which the moving body moves based on the extracted movable area (for example, the path generating unit 40 in the embodiment). , Further comprising.

この発明によれば、障害物領域抽出手段に、抽出した移動可能領域に基づいて移動体が移動する経路を生成する経路生成手段(例えば、実施の形態における経路生成部40)をさらに備える。   According to the present invention, the obstacle region extraction unit further includes a route generation unit (for example, the route generation unit 40 in the embodiment) that generates a route along which the moving body moves based on the extracted movable region.

請求項9に記載した発明の移動可能領域抽出装置(例えば、実施の形態における移動可能領域抽出部31)は、自律的に移動する移動体(例えば、実施の形態における自律移動ロボット100)が移動する空間内の予め定められた高さから前記空間の下方を観測するように設置された距離センサ(例えば、実施の形態における天井LRF10)と、によって前記移動体が移動する前記空間内に存在する障害物を検出し、該検出した障害物の領域の情報(例えば、実施の形態における非床面グリッドおよび未知グリッド)に基づいて、前記移動体が移動することができる移動可能領域の情報(例えば、実施の形態における移動可能領域情報)を抽出する移動可能領域抽出装置において、前記距離センサが観測した距離の情報に基づいて、前記障害物の領域を表す障害物領域を検出する障害物検出手段(例えば、実施の形態におけるグリッド変換部331)と、前記距離センサが障害物を観測したときの反射波の光量の情報に基づいて、前記障害物の形状を検出する形状検出手段(例えば、実施の形態における移動体位置抽出部380)と、前記形状検出手段によって検出した障害物の形状と予め定められた物体の形状とを比較し、該障害物の形状が前記予め定められた物体の形状と同等である場合に、前記距離センサが該障害物を観測したときの前記距離の情報に基づいて、該障害物の継続的な移動を検出し、前記障害物領域から、該検出した継続的に移動している前記障害物の領域を表す前記障害物領域であって、前記障害物の速度に応じて設定された前記障害物領域を除いた領域を、移動不可能領域と判定することにより、前記移動体が移動することができる移動可能領域抽出する障害物領域抽出手段(例えば、実施の形態における移動体位置キャンセル部332)と、を備える、ことを特徴とする。 The movable region extraction apparatus according to the invention described in claim 9 (for example, the movable region extraction unit 31 in the embodiment) is such that the mobile body that moves autonomously (for example, the autonomous mobile robot 100 in the embodiment) moves. And a distance sensor (for example, the ceiling LRF 10 in the embodiment) installed so as to observe the lower part of the space from a predetermined height in the space to be present in the space in which the moving body moves. An obstacle is detected, and based on information on the area of the detected obstacle (for example, non-floor grid and unknown grid in the embodiment), information on a movable area in which the moving body can move (for example, In the movable area extracting device for extracting the movable area information in the embodiment, the obstacle is based on the distance information observed by the distance sensor. Based on the information of the amount of reflected wave when the distance sensor observes the obstacle, the obstacle detection means (for example, the grid conversion unit 331 in the embodiment) for detecting the obstacle area representing the area of the object, The shape detection means for detecting the shape of the obstacle (for example, the moving body position extraction unit 380 in the embodiment) and the shape of the obstacle detected by the shape detection means are compared with a predetermined object shape. , When the shape of the obstacle is equivalent to the shape of the predetermined object, the obstacle sensor continuously moves based on the distance information when the distance sensor observes the obstacle. The obstacle area representing the area of the obstacle that is continuously moving from the obstacle area , the obstacle area set according to the speed of the obstacle Area excluding , By determining the immovable area, comprises, an obstacle region extracting means for extracting a movable area which can be the mobile moves (e.g., mobile location cancellation unit 332 in the embodiment), It is characterized by that.

この発明によれば、予め定められた高さに設置された距離センサ(例えば、実施の形態における天井LRF10)が観測した障害物までの距離の情報に基づいて、移動体(例えば、実施の形態における自律移動ロボット100)が移動する空間内に存在する障害物領域を検出する。また、距離センサが障害物を観測したときの反射波の光量の情報に基づいて、障害物の形状を検出する。また、検出した障害物の形状と予め定められた物体の形状とが同等である場合に、距離センサがこの障害物を観測したときの距離の情報に基づいて、この障害物が、移動体が移動する空間内を継続的に移動している移動物であるかを判定する。そして、移動物を観測することによって得られた障害物領域を除いた障害物領域を、移動体が移動することができる移動可能領域として抽出する。   According to this invention, based on the information on the distance to the obstacle observed by the distance sensor (for example, the ceiling LRF 10 in the embodiment) installed at a predetermined height, the mobile body (for example, the embodiment) The obstacle region existing in the space in which the autonomous mobile robot 100) moves is detected. Further, the shape of the obstacle is detected based on the information on the amount of the reflected wave when the distance sensor observes the obstacle. In addition, when the shape of the detected obstacle is equal to the predetermined shape of the object, the obstacle is determined based on the distance information when the distance sensor observes the obstacle. It is determined whether the moving object is continuously moving in the moving space. And the obstacle area | region except the obstacle area | region obtained by observing a moving object is extracted as a movable area | region which a mobile body can move.

請求項10に記載した発明の移動可能領域抽出方法は、自律的に移動する移動体が移動する空間内の予め定められた第1の高さから前記空間の下方を観測するように設置された第1の距離センサと、前記空間内の予め定められた前記第1の高さより低い第2の高さから前記空間の側方を観測するように設置された第2の距離センサと、によって前記移動体が移動する前記空間内に存在する障害物を検出し、該検出した障害物の領域の情報に基づいて、前記移動体が移動することができる移動可能領域の情報を抽出する移動可能領域抽出方法において、前記第1の距離センサが観測した距離の情報に基づいて、前記障害物の領域を表す第1の障害物領域を検出する第1の障害物検出手順と、前記第2の距離センサが観測した距離の情報に基づいて、前記障害物の領域を表す第2の障害物領域を検出する第2の障害物検出手順と、前記第2の障害物領域に基づいて継続的に移動している前記障害物を移動物として検出し、前記第1の障害物領域から、該検出した前記移動物の領域を表す前記第1の障害物領域を除いた領域を、移動不可能領域と判定することにより、前記移動体が移動することができる移動可能領域抽出する障害物領域抽出手順と、を含む、ことを特徴とする。 The movable region extraction method according to the invention described in claim 10 is installed so as to observe the lower part of the space from a first predetermined height in the space in which the moving body that moves autonomously moves. A first distance sensor and a second distance sensor installed to observe a side of the space from a second height lower than the predetermined first height in the space; A movable area that detects an obstacle existing in the space in which the moving body moves and extracts information on a movable area in which the moving body can move based on information on the area of the detected obstacle. In the extraction method, a first obstacle detection procedure for detecting a first obstacle region representing the obstacle region based on information on a distance observed by the first distance sensor, and the second distance Based on distance information observed by sensors A second obstacle detection procedure for detecting a second obstacle region representing the obstacle region, and the obstacle continuously moving based on the second obstacle region as a moving object The moving object moves by detecting and determining an area excluding the first obstacle area representing the detected area of the moving object from the first obstacle area as a non-movable area. And an obstacle region extraction procedure for extracting a movable region that can be performed.

この発明によれば、第1の高さに設置された第1の距離センサが観測した障害物までの距離の情報に基づいて、移動体が移動する空間内に存在する第1の障害物領域を検出し、第1の高さより低い第2の高さに設置された第2の距離センサが観測した障害物までの距離の情報に基づいて、移動体が移動する空間内に存在する第2の障害物領域を検出する。そして、第2の障害物領域に基づいて、移動体が移動する空間内を継続的に移動している移動物を検出し、検出した移動物を観測した距離の情報から得られた第1の障害物領域を除いた第1の障害物領域を、移動体が移動することができる移動可能領域として抽出する。   According to this invention, based on the information on the distance to the obstacle observed by the first distance sensor installed at the first height, the first obstacle area existing in the space in which the moving body moves. Based on the information on the distance to the obstacle observed by the second distance sensor installed at the second height lower than the first height, the second existing in the space in which the moving body moves Detect obstacle areas. Then, based on the second obstacle region, the moving object continuously moving in the space in which the moving object moves is detected, and the first obtained from the information of the distance at which the detected moving object is observed. The first obstacle area excluding the obstacle area is extracted as a movable area where the moving body can move.

請求項11に記載した発明の移動可能領域抽出方法は、自律的に移動する移動体が移動する空間内の予め定められた高さから前記空間の下方を観測するように設置された距離センサと、によって前記移動体が移動する前記空間内に存在する障害物を検出し、該検出した障害物の領域の情報に基づいて、前記移動体が移動することができる移動可能領域の情報を抽出する移動可能領域抽出方法において、前記距離センサが観測した距離の情報に基づいて、前記障害物の領域を表す障害物領域を検出する障害物検出手順と、前記距離センサが障害物を観測したときの反射波の光量の情報に基づいて、前記障害物の形状を検出する形状検出手順と、前記形状検出手順によって検出した障害物の形状と予め定められた物体の形状とを比較し、該障害物の形状が前記予め定められた物体の形状と同等である場合に、前記距離センサが該障害物を観測したときの前記距離の情報に基づいて、該障害物の継続的な移動を検出し、前記障害物領域から、該検出した継続的に移動している前記障害物の領域を表す前記障害物領域であって、前記障害物の速度に応じて設定された前記障害物領域を除いた領域を、移動不可能領域と判定することにより、前記移動体が移動することができる移動可能領域抽出する障害物領域抽出手順と、を含む、ことを特徴とする。 A movable region extraction method according to an eleventh aspect of the present invention is a distance sensor installed so as to observe a lower portion of the space from a predetermined height in the space in which the autonomously moving mobile body moves. , Detecting an obstacle existing in the space in which the moving body moves, and extracting information on a movable area in which the moving body can move based on information on the area of the detected obstacle. In the movable region extraction method, an obstacle detection procedure for detecting an obstacle region representing the obstacle region based on information on a distance observed by the distance sensor, and when the distance sensor observes the obstacle Based on the information on the amount of reflected wave, the shape detection procedure for detecting the shape of the obstacle is compared with the shape of the obstacle detected by the shape detection procedure and the shape of the predetermined object. When the shape is equivalent to the shape of the predetermined object, the distance sensor detects continuous movement of the obstacle based on the information of the distance when the obstacle is observed, The obstacle area representing the area of the detected obstacle that is continuously moving from the obstacle area , excluding the obstacle area set in accordance with the speed of the obstacle. And an obstacle region extraction procedure for extracting a movable region in which the moving body can move by determining the region as a non-movable region .

この発明によれば、予め定められた高さに設置された距離センサが観測した障害物までの距離の情報に基づいて、移動体が移動する空間内に存在する障害物領域を検出し、距離センサが障害物を観測したときの反射波の光量の情報に基づいて、障害物の形状を検出する。そして、検出した障害物の形状が予め定められた物体の形状と同等である場合に、距離センサがこの障害物を観測したときの距離の情報に基づいて、移動体が移動する空間内を継続的に移動している移動物であるかを判定する。そして、移動物を観測した距離の情報から得られた障害物領域を除いた障害物領域を、移動体が移動することができる移動可能領域として抽出する。   According to this invention, based on the information on the distance to the obstacle observed by the distance sensor installed at a predetermined height, the obstacle area existing in the space in which the moving body moves is detected, and the distance The shape of the obstacle is detected based on information on the amount of reflected wave light when the sensor observes the obstacle. Then, when the detected obstacle shape is equivalent to the predetermined object shape, the distance sensor continues in the space where the moving body moves based on the distance information when the obstacle is observed. It is determined whether the moving object is moving. And the obstacle area | region except the obstacle area | region obtained from the information of the distance which observed the moving object is extracted as a movable area | region which a mobile body can move.

請求項1に記載した発明によれば、第1の高さに設置された第1の距離センサが観測した障害物までの距離の情報に基づいて、移動体が移動する空間内に存在する第1の障害物領域を検出する。また、第1の高さより低い第2の高さに設置された第2の距離センサが観測した障害物までの距離の情報に基づいて、移動体が移動する空間内に存在する第2の障害物領域を検出する。このため、移動体が移動する空間内の障害物を第1の高さから広範囲で観測することができるとともに、第1の高さより低い第2の高さの障害物を抽出することができる。
また、第2の障害物領域に基づいて、移動体が移動する空間内を継続的に移動している移動物を検出するため、移動体が移動する空間内を継続的に移動している第2の高さ以上の高さを持つ移動物を検出することができる。
また、移動物を観測することによって得られた第1の障害物領域を除いた第1の障害物領域を、移動体が移動することができる移動可能領域として抽出するため、第1の距離センサによって広範囲に観測した障害物の領域の情報から、第2の高さ以上の高さを持つ移動物を除いた情報を、移動可能領域の情報として出力することができる。
According to the first aspect of the present invention, based on the information on the distance to the obstacle observed by the first distance sensor installed at the first height, 1 obstacle area is detected. Further, the second obstacle existing in the space in which the moving body moves based on the information on the distance to the obstacle observed by the second distance sensor installed at the second height lower than the first height. Detect object areas. For this reason, the obstacle in the space in which the moving body moves can be observed over a wide range from the first height, and the obstacle having the second height lower than the first height can be extracted.
Further, in order to detect a moving object continuously moving in the space in which the moving body moves based on the second obstacle region, the first moving in the space in which the moving body moves is detected. A moving object having a height of 2 or more can be detected.
In addition, the first distance sensor is used to extract the first obstacle area excluding the first obstacle area obtained by observing the moving object as a movable area where the moving body can move. Thus, information obtained by removing a moving object having a height greater than or equal to the second height from information on the area of the obstacle observed over a wide range can be output as information on the movable area.

請求項2に記載した発明によれば、第2の距離センサが観測した障害物までの距離の情報に基づいて、観測した障害物の障害物位置を抽出するため、障害物を代表する、例えば、中心の位置を得ることができる。
また、現在の観測によって得られた障害物位置と、以前の観測によって得られた過去の障害物位置とに基づいて、移動体が移動する空間内を継続的に移動している移動物を検出するため、移動物を代表する位置(例えば、中心の位置)が過去の位置から現在の位置に移動したときの移動量(例えば、距離など)の情報を得ることができる。
また、移動体の障害物位置を含む第1の障害物領域を除いた第1の障害物領域を、移動体が移動することができる移動可能領域として抽出するため、予め定められた移動量の移動物のみを障害物の領域の情報から除くことによって、固定されている障害物の領域を除くことなく、移動体が移動することができる移動可能領域の範囲を広げることができる。
According to the second aspect of the invention, the obstacle position of the observed obstacle is extracted based on the information on the distance to the obstacle observed by the second distance sensor. The center position can be obtained.
In addition, based on the obstacle position obtained by the current observation and the past obstacle position obtained by the previous observation, the moving object moving continuously in the space where the moving object moves is detected. Therefore, it is possible to obtain information on the amount of movement (for example, distance) when the position representing the moving object (for example, the center position) has moved from the past position to the current position.
Further, in order to extract the first obstacle area excluding the first obstacle area including the obstacle position of the moving body as a movable area where the moving body can move, a predetermined amount of movement is determined. By removing only the moving object from the information on the obstacle area, the range of the movable area in which the moving body can move can be expanded without removing the fixed obstacle area.

請求項3に記載した発明によれば、第2の距離センサが観測した障害物までの距離の情報に基づいて、観測した障害物の障害物位置を抽出するため、障害物を代表する、例えば、中心の位置を得ることができる。
また、現在の観測によって得られた障害物位置と、以前の観測によって得られた過去の障害物位置とに基づいて、移動体が移動する空間内を継続的に移動している移動物を検出するため、移動物を代表する位置(例えば、中心の位置)が過去の位置から現在の位置に移動したときの移動量(例えば、距離など)の情報を得ることができる。
また、移動体の障害物位置を含む予め定められた範囲の第1の障害物領域を除いた第1の障害物領域を、移動体が移動することができる移動可能領域として抽出するため、予め定められた移動量の移動物を含む予め定められた範囲のみを障害物の領域の情報から除くことによって、固定されている障害物の領域を除くことなく、移動体が移動することができる移動可能領域の範囲を広げることができる。
According to the invention described in claim 3, in order to extract the obstacle position of the observed obstacle based on the information of the distance to the obstacle observed by the second distance sensor, the obstacle is represented, for example, The center position can be obtained.
In addition, based on the obstacle position obtained by the current observation and the past obstacle position obtained by the previous observation, the moving object moving continuously in the space where the moving object moves is detected. Therefore, it is possible to obtain information on the amount of movement (for example, distance) when the position representing the moving object (for example, the center position) has moved from the past position to the current position.
In addition, in order to extract the first obstacle area excluding the first obstacle area in a predetermined range including the obstacle position of the moving body as a movable area where the moving body can move, Movement that allows the moving object to move without removing the fixed obstacle area by removing only the predetermined range including the moving object of the predetermined moving amount from the obstacle area information. The range of possible areas can be expanded.

請求項4に記載した発明によれば、移動物の障害物位置に最も近い位置に設置されている第1の距離センサを検索する。そして、移動物の障害物位置と第1の距離センサとの距離、および第1の距離センサが移動物を観測したときの高さの情報に基づいて、移動物の陰となって第1の距離センサが距離の情報を観測することができない陰の領域の長さを算出する。そして、予め定められた範囲を、現在の移動物の障害物位置から陰の領域の長さだけ離れた位置までの間、移動物の障害物位置と第1の距離センサの設置位置とを結んだ延長線上で移動して、陰の領域に含まれる第1の障害物領域を除いた第1の障害物領域を、移動体が移動することができる移動可能領域として抽出する。このため、予め定められた範囲外に残っている障害物の領域において、移動体の陰によって第1の距離センサが検出することができない領域を障害物の領域の情報から除くことができ、不用意に移動体が移動することができる移動可能領域を狭めることがなくなる。   According to the invention described in claim 4, the first distance sensor installed at the position closest to the obstacle position of the moving object is searched. Then, based on the distance between the obstacle position of the moving object and the first distance sensor, and the height information when the first distance sensor observes the moving object, the first object becomes the shade of the moving object. The length of the shadow area where the distance sensor cannot observe the distance information is calculated. Then, the obstacle position of the moving object and the installation position of the first distance sensor are connected within a predetermined range from the obstacle position of the current moving object to a position separated by the length of the shadow area. The first obstacle area excluding the first obstacle area included in the shadow area by moving on the extension line is extracted as a movable area where the moving body can move. For this reason, in the area of the obstacle remaining outside the predetermined range, the area that cannot be detected by the first distance sensor due to the shadow of the moving object can be excluded from the information on the area of the obstacle. It is no longer necessary to narrow the movable area where the moving body can move.

請求項5に記載した発明によれば、第2の距離センサによる観測によって得られた現在の障害物位置と、第2の距離センサによる以前の観測によって得られた過去の障害物位置との差が、予め定められた閾値以上である場合に、現在の障害物位置に位置している障害物が、移動体が移動する空間内を継続的に移動している移動物であると判定するため、移動物であるが移動速度が遅いことによって固定された障害物と同等に扱う必要がある移動物を障害物の領域の情報から除いてしまうことがなくなる。このため、不用意に移動体が移動することができる移動可能領域を広げすぎてしまうことがなくなる。   According to the invention described in claim 5, the difference between the current obstacle position obtained by the observation by the second distance sensor and the past obstacle position obtained by the previous observation by the second distance sensor. Is equal to or greater than a predetermined threshold value, it is determined that the obstacle located at the current obstacle position is a moving object that is continuously moving in the space in which the moving object moves. The moving object that needs to be handled in the same manner as the fixed obstacle due to the slow movement speed is not excluded from the information of the obstacle area. For this reason, the movable area where the moving body can move is not expanded too much carelessly.

請求項6に記載した発明によれば、移動体が移動する空間が建物内であるとき、第1の距離センサを設置する第1の高さを建物内の天井の高さとして、予め定められた間隔で複数の第1の距離センサを設置する。そして、複数設置されたそれぞれの第1の距離センサの観測範囲を融合した空間が、移動体が移動する空間となるため、移動体が移動する空間内における障害物を検出することができない領域(オクルージョン領域)を少なくすることができ、移動体が移動する空間内の障害物を広範囲で観測することができる。
また、第1の障害物検出手段は、それぞれの第1の距離センサの観測範囲を融合した空間における距離の情報に基づいて、第1の障害物領域を検出するため、移動体が移動する空間の全ての範囲の障害物を観測することができ、移動体の移動経路上に進入してくる移動物を早い段階で観測することもできる。
According to the invention described in claim 6, when the space in which the moving body moves is in the building, the first height for installing the first distance sensor is set in advance as the ceiling height in the building. A plurality of first distance sensors are installed at regular intervals. And since the space which united the observation range of each 1st distance sensor installed in multiple numbers becomes the space where a mobile body moves, the area | region which cannot detect the obstacle in the space where a mobile body moves ( Occlusion area) can be reduced, and obstacles in the space where the moving body moves can be observed over a wide range.
The first obstacle detection means detects the first obstacle region based on the distance information in the space obtained by merging the observation ranges of the respective first distance sensors. Obstacles in the entire range can be observed, and moving objects entering the moving path of the moving object can be observed at an early stage.

請求項7に記載した発明によれば、移動体が移動する空間が建物内であるとき、第2の距離センサを設置する第2の高さを、建物内の天井の高さと建物内の床面の高さとの間の予め定められた高さとして、第2の距離センサの観測範囲が建物内の床面と平行となるように、予め定められた間隔で複数の第2の距離センサを設置する。そして、複数設置されたそれぞれの第2の距離センサの観測範囲を融合した平面が、移動体が移動する空間内の平面となる。そして、第2の障害物検出手段は、それぞれの第2の距離センサの観測範囲を融合した平面における距離の情報に基づいて、第2の障害物領域を検出する。このため、移動体が移動する空間内に存在することが想定される高さ以上の高さを持つ移動物(例えば、人や他の自律移動ロボットなど)を検出することができる。   According to the seventh aspect of the present invention, when the space in which the moving body moves is in the building, the second height at which the second distance sensor is installed is set to the ceiling height in the building and the floor in the building. A plurality of second distance sensors are arranged at predetermined intervals so that the observation range of the second distance sensor is parallel to the floor surface in the building as a predetermined height between the surface heights. Install. And the plane which united the observation range of each 2nd distance sensor installed in plurality becomes a plane in the space where a mobile object moves. Then, the second obstacle detection means detects the second obstacle region based on distance information on a plane obtained by merging the observation ranges of the respective second distance sensors. For this reason, it is possible to detect a moving object (for example, a person or another autonomous mobile robot) having a height higher than the height assumed to exist in the space in which the moving body moves.

請求項8に記載した発明によれば、障害物領域抽出手段に、抽出した移動可能領域に基づいて移動体が移動する経路を生成する経路生成手段をさらに備えるため、抽出した移動可能領域の情報に基づいて、移動体が移動する移動経路を効率的に生成することができる。   According to the eighth aspect of the present invention, the obstacle region extracting means further includes route generating means for generating a route along which the moving body moves based on the extracted movable region, so that information on the extracted movable region is provided. Based on the above, it is possible to efficiently generate a moving path along which the moving body moves.

請求項9に記載した発明によれば、予め定められた高さに設置された距離センサが観測した障害物までの距離の情報に基づいて、移動体が移動する空間内に存在する障害物領域を検出する。また、距離センサが障害物を観測したときの反射波の光量の情報に基づいて、障害物の形状を検出する。また、検出した障害物の形状と予め定められた物体の形状とが同等である場合に、距離センサがこの障害物を観測したときの距離の情報に基づいて、この障害物が、移動体が移動する空間内を継続的に移動している移動物であるかを判定する。このため、移動体が移動する空間内を継続的に移動している予め定められた特定の移動物を検出することができる。
また、移動物を観測することによって得られた障害物領域を除いた障害物領域を、移動体が移動することができる移動可能領域として抽出するため、距離センサによって観測した障害物の領域の情報から、特定の移動物を除いた情報を、移動可能領域の情報として出力することができる。
According to the ninth aspect of the present invention, based on the information on the distance to the obstacle observed by the distance sensor installed at a predetermined height, the obstacle area existing in the space in which the moving body moves Is detected. Further, the shape of the obstacle is detected based on the information on the amount of the reflected wave when the distance sensor observes the obstacle. In addition, when the shape of the detected obstacle is equal to the predetermined shape of the object, the obstacle is determined based on the distance information when the distance sensor observes the obstacle. It is determined whether the moving object is continuously moving in the moving space. For this reason, it is possible to detect a predetermined specific moving object that is continuously moving in the space in which the moving body moves.
In addition, in order to extract the obstacle area excluding the obstacle area obtained by observing the moving object as a movable area where the moving body can move, information on the area of the obstacle observed by the distance sensor Therefore, information excluding a specific moving object can be output as information on the movable area.

請求項10に記載した発明によれば、第1の高さに設置された第1の距離センサが観測した障害物までの距離の情報に基づいて、移動体が移動する空間内に存在する第1の障害物領域を検出し、第1の高さより低い第2の高さに設置された第2の距離センサが観測した障害物までの距離の情報に基づいて、移動体が移動する空間内に存在する第2の障害物領域を検出する。そして、第2の障害物領域に基づいて、移動体が移動する空間内を継続的に移動している移動物を検出し、検出した移動物を観測した距離の情報から得られた第1の障害物領域を除いた第1の障害物領域を、移動体が移動することができる移動可能領域として抽出する。このため、第1の距離センサによって広範囲に観測した障害物の領域の情報から、第2の高さ以上の高さを持つ移動物を除いた情報を、移動可能領域の情報として出力することができる。   According to the invention described in claim 10, based on the information on the distance to the obstacle observed by the first distance sensor installed at the first height, In the space where the moving body moves based on the information on the distance to the obstacle detected by the second distance sensor installed at the second height lower than the first height. The second obstacle area existing in the area is detected. Then, based on the second obstacle region, the moving object continuously moving in the space in which the moving object moves is detected, and the first obtained from the information of the distance at which the detected moving object is observed. The first obstacle area excluding the obstacle area is extracted as a movable area where the moving body can move. For this reason, information obtained by removing a moving object having a height equal to or higher than the second height from the information on the area of the obstacle observed over a wide range by the first distance sensor may be output as information on the movable area. it can.

請求項11に記載した発明によれば、予め定められた高さに設置された距離センサが観測した障害物までの距離の情報に基づいて、移動体が移動する空間内に存在する障害物領域を検出し、距離センサが障害物を観測したときの反射波の光量の情報に基づいて、障害物の形状を検出する。そして、検出した障害物の形状が予め定められた物体の形状と同等である場合に、距離センサがこの障害物を観測したときの距離の情報に基づいて、移動体が移動する空間内を継続的に移動している移動物であるかを判定する。そして、移動物を観測した距離の情報から得られた障害物領域を除いた障害物領域を、移動体が移動することができる移動可能領域として抽出する。このため、距離センサによって観測した障害物の領域の情報から、特定の移動物を除いた情報を、移動可能領域の情報として出力することができる。   According to the eleventh aspect of the present invention, the obstacle region exists in the space in which the moving body moves based on the information on the distance to the obstacle observed by the distance sensor installed at a predetermined height. And the shape of the obstacle is detected based on the information on the amount of reflected wave light when the distance sensor observes the obstacle. Then, when the detected obstacle shape is equivalent to the predetermined object shape, the distance sensor continues in the space where the moving body moves based on the distance information when the obstacle is observed. It is determined whether the moving object is moving. And the obstacle area | region except the obstacle area | region obtained from the information of the distance which observed the moving object is extracted as a movable area | region which a mobile body can move. For this reason, information obtained by removing a specific moving object from information on the area of the obstacle observed by the distance sensor can be output as information on the movable area.

本発明の第1の実施形態による経路生成システムが用いられた移動領域を模式的に示した図である。It is the figure which showed typically the movement area | region where the route generation system by the 1st Embodiment of this invention was used. 本発明の第1の実施形態による経路生成システムの概略構成を示したブロック図である。1 is a block diagram showing a schematic configuration of a route generation system according to a first embodiment of the present invention. 本第1の実施形態の移動可能領域抽出部において登録されるグリッドの種別を説明する図である。It is a figure explaining the classification of the grid registered in the movable area extraction part of the 1st embodiment. 本第1の実施形態の移動可能領域抽出部における移動不可能領域の判定方法の例を説明する図である。It is a figure explaining the example of the determination method of the immovable area | region in the movable area | region extraction part of the 1st embodiment. 本第1の実施形態の移動可能領域抽出部における移動体位置の算出方法の例を説明する図である。It is a figure explaining the example of the calculation method of the mobile body position in the movable area | region extraction part of the 1st embodiment. 本第1の実施形態の移動可能領域抽出部における移動体位置のキャンセル方法の第1の例を説明する図である。It is a figure explaining the 1st example of the cancellation method of the moving body position in the movable area extraction part of the 1st embodiment. 本第1の実施形態の移動可能領域抽出部における移動体位置のキャンセル方法の第2の例を説明する図である。It is a figure explaining the 2nd example of the cancellation method of the moving body position in the movable area extraction part of the 1st embodiment. 本第1の実施形態の経路生成システムにおいて検出される移動体の例を説明する図である。It is a figure explaining the example of the mobile body detected in the route generation system of the 1st embodiment. 本第1の実施形態の移動可能領域抽出部における移動体の陰部の領域のキャンセル方法の例を説明する図である。It is a figure explaining the example of the cancellation method of the area | region of the shadow of a moving body in the movable area | region extraction part of the 1st embodiment. 本第1の実施形態の経路生成システムにおける移動経路生成処理の処理手順を示したフローチャートである。It is the flowchart which showed the process sequence of the movement route generation process in the route generation system of the 1st embodiment. 本第1の実施形態の経路生成システムにおける移動体のキャンセル処理を説明する図である。It is a figure explaining the cancellation process of the moving body in the route generation system of the 1st embodiment. 本発明の第2の実施形態による経路生成システムの概略構成を示したブロック図である。It is the block diagram which showed schematic structure of the route generation system by the 2nd Embodiment of this invention. 本第2の実施形態の移動体位置抽出部における移動体の判定方法の例を説明する図である。It is a figure explaining the example of the determination method of the mobile body in the mobile body position extraction part of the 2nd embodiment.

<第1の実施形態>
以下、本発明の実施形態について、図面を参照して説明する。図1は、本発明の第1の実施形態による経路生成システムが用いられた移動領域を模式的に示した図である。図1において移移動領域内には、天井と側方に複数のレーザレンジファインダ(Laser Range Finder:レーザ距離計、以下「LRF」という)が設置されている。以下の説明においては、天井に設置されたLRFを、天井LRF10という。また、側方に設置されたLRFを、側方LRF20という。また、天井LRF10および側方LRF20を特定しない場合は、単に「LRF」という。図1では、自律移動ロボット100の移動領域内で、テーブルや椅子などが固定された障害物として検出され、人および自律移動ロボット100自身が移動している障害物(移動体)として検出される場合を表している。
<First Embodiment>
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a diagram schematically showing a moving region in which the route generation system according to the first embodiment of the present invention is used. In FIG. 1, a plurality of laser range finders (laser rangefinders, hereinafter referred to as “LRF”) are installed on the ceiling and the side. In the following description, the LRF installed on the ceiling is referred to as a ceiling LRF10. Further, the LRF installed on the side is referred to as a side LRF 20. Further, when the ceiling LRF 10 and the side LRF 20 are not specified, they are simply referred to as “LRF”. In FIG. 1, a table, a chair, or the like is detected as an obstacle that is fixed in the movement area of the autonomous mobile robot 100, and is detected as an obstacle (moving body) in which a person and the autonomous mobile robot 100 are moving. Represents the case.

図2は、本第1の実施形態による経路生成システムの概略構成を示したブロック図である。図2において経路生成システム1は、天井LRF10と、側方LRF20と、移動可能領域抽出部30と、移動経路生成部40とを備えている。移動可能領域抽出部30は、天井LRF10に対応した距離情報取得部310と、側方LRF20に対応した距離情報取得部320と、障害物位置抽出部330と、移動体位置抽出部340とを備えている。また、障害物位置抽出部330は、グリッド変換部331と、移動体位置キャンセル部332と、移動体陰キャンセル部333とを備えている。   FIG. 2 is a block diagram showing a schematic configuration of the route generation system according to the first embodiment. In FIG. 2, the route generation system 1 includes a ceiling LRF 10, a side LRF 20, a movable region extraction unit 30, and a movement route generation unit 40. The movable region extraction unit 30 includes a distance information acquisition unit 310 corresponding to the ceiling LRF 10, a distance information acquisition unit 320 corresponding to the side LRF 20, an obstacle position extraction unit 330, and a moving body position extraction unit 340. ing. The obstacle position extraction unit 330 includes a grid conversion unit 331, a moving body position cancellation unit 332, and a moving body shadow cancellation unit 333.

経路生成システム1は、天井LRF10によって自律移動ロボットが移動する移動領域内の障害物を検出し、側方LRF20によって移動領域内に存在する移動体(例えば、人や他の自律移動ロボットなどの移動体、および自律移動ロボット100自身)を検出する。そして、経路生成システム1は、天井LRF10が検出した全ての障害物の領域から、側方LRF20が検出した移動体(移動している障害物)の領域を除いた領域を、自律移動ロボット100の移動可能領域として抽出し、抽出した移動可能領域の情報に基づいて、自律移動ロボット100の移動経路を生成する。   The path generation system 1 detects an obstacle in a moving area where the autonomous mobile robot moves by the ceiling LRF 10 and moves a moving object (for example, a person or another autonomous mobile robot) existing in the moving area by the side LRF 20. Body and autonomous mobile robot 100 itself). Then, the route generation system 1 determines the area of the autonomous mobile robot 100 by removing the area of the moving body (moving obstacle) detected by the side LRF 20 from the area of all obstacles detected by the ceiling LRF 10. Extracted as a movable area, and a movement path of the autonomous mobile robot 100 is generated based on the extracted information on the movable area.

天井LRF10は、観測範囲内に存在する物体(障害物)との距離を検出する3次元の測距センサである。天井LRF10は、自律移動ロボット100の移動領域内の高所に設置され、図示しない制御部からの制御に応じて、予め定められた観測範囲内に複数のレーザビームを照射する。そして、天井LRF10が照射したレーザビームが物体によって反射された反射波を観測する。天井LRF10は、観測した反射波の情報を移動可能領域抽出部30に出力する。   The ceiling LRF 10 is a three-dimensional distance measuring sensor that detects a distance from an object (obstacle) existing in the observation range. The ceiling LRF 10 is installed at a high place in the moving area of the autonomous mobile robot 100, and emits a plurality of laser beams in a predetermined observation range in accordance with control from a control unit (not shown). And the reflected wave which the laser beam with which ceiling LRF10 irradiated was reflected by the object is observed. The ceiling LRF 10 outputs the observed reflected wave information to the movable region extraction unit 30.

側方LRF20は、観測範囲内に存在する物体(障害物)との距離を検出する2次元の測距センサである。側方LRF20は、自律移動ロボット100の移動領域内において予め定められた高さ(例えば、人を検出することができる高さ)の位置に設置され、図示しない制御部からの制御に応じて、予め定められた観測範囲内に複数のレーザビームを照射する。そして、側方LRF20が照射したレーザビームが物体によって反射された反射波を観測する。側方LRF20は、観測した反射波の情報を移動可能領域抽出部30に出力する。   The side LRF 20 is a two-dimensional distance measuring sensor that detects a distance from an object (obstacle) existing within the observation range. The side LRF 20 is installed at a position of a predetermined height (for example, a height at which a person can be detected) in the movement area of the autonomous mobile robot 100, and in accordance with control from a control unit (not shown), A plurality of laser beams are irradiated within a predetermined observation range. Then, the reflected wave reflected by the object is observed by the laser beam irradiated by the side LRF 20. The side LRF 20 outputs the information of the observed reflected wave to the movable area extraction unit 30.

なお、本第1の実施形態における天井LRF10は、自律移動ロボット100の移動領域内において、自律移動ロボット100が移動する面(例えば、建物内の床面など)の高さを検出することができる一定の姿勢で、一定の高さ(例えば、建物内の天井など)の予め定められた位置に設置されているものとして説明を行う。そして、天井LRF10は、例えば、天井LRF10を頂点とした円錐状の範囲にレーザビームを照射し、観測範囲内に存在する物体を検出する。また、本第1の実施形態における側方LRF20は、自律移動ロボット100の移動領域内において、自律移動ロボット100が移動する面(例えば、建物内の床面など)から予め定められた一定の高さの水平面を検出することができる一定の姿勢で、予め定められた位置に設置されているものとして説明を行う。そして、側方LRF20は、例えば、側方LRF20が設置された高さの水平面上の扇形の範囲にレーザビームを照射し、観測範囲内に存在する物体を検出する。   Note that the ceiling LRF 10 in the first embodiment can detect the height of a surface (for example, a floor surface in a building) on which the autonomous mobile robot 100 moves within the movement area of the autonomous mobile robot 100. The description will be made assuming that the device is installed at a predetermined position with a certain posture and a certain height (for example, a ceiling in a building). The ceiling LRF 10 irradiates a conical range with the ceiling LRF 10 as an apex, for example, to detect an object existing within the observation range. Further, the side LRF 20 in the first embodiment has a predetermined height from a surface (for example, a floor surface in a building) on which the autonomous mobile robot 100 moves within the movement area of the autonomous mobile robot 100. In the following description, it is assumed that the robot is installed at a predetermined position in a certain posture capable of detecting the horizontal plane. Then, for example, the side LRF 20 irradiates a laser beam onto a fan-shaped range on a horizontal plane where the side LRF 20 is installed, and detects an object existing within the observation range.

また、天井LRF10および側方LRF20の設置高さと設置姿勢とは、天井LRF10および側方LRF20の観測範囲の座標と、自律移動ロボット100の移動可能領域の座標とが一致するように、事前に校正(調整)されているものとする。従って、自律移動ロボット100の移動範囲内において、ある一定の場所に固定され、側方LRF20が観測することができるある一定の高さの物体は、天井LRF10および側方LRF20によって同じ位置に固定された物体として観測される。   Further, the installation height and installation posture of the ceiling LRF 10 and the side LRF 20 are calibrated in advance so that the coordinates of the observation range of the ceiling LRF 10 and the side LRF 20 coincide with the coordinates of the movable area of the autonomous mobile robot 100. (Adjusted). Accordingly, an object of a certain height that can be observed by the side LRF 20 within a moving range of the autonomous mobile robot 100 is fixed at the same position by the ceiling LRF 10 and the side LRF 20. Observed as an object.

なお、天井LRF10の設置高さおよび設置姿勢は、自律移動ロボット100の移動領域をグリッドマップで表したとき、天井LRF10が照射するレーザビームが、グリッドマップ内の各グリッドに少なくとも1点照射されるような高さおよび姿勢に設置することが望ましい。なお、自律移動ロボット100の移動領域を表すグリッドマップ内のグリッドの大きさは、天井LRF10によって検出しようとする物体の大きさに応じて決定される。例えば、床面に落ちている携帯電話のような小さな物体を検出しようとする場合には、想定される物体に応じてグリッドを小さくし、人を検出しようとする場合には想定される人の幅に応じてグリッドを大きくする。   As for the installation height and installation posture of the ceiling LRF 10, when the moving area of the autonomous mobile robot 100 is represented by a grid map, at least one point of the laser beam emitted from the ceiling LRF 10 is applied to each grid in the grid map. It is desirable to install in such a height and posture. Note that the size of the grid in the grid map representing the moving area of the autonomous mobile robot 100 is determined according to the size of the object to be detected by the ceiling LRF 10. For example, when trying to detect a small object such as a mobile phone falling on the floor, the grid is made smaller according to the assumed object, and when trying to detect a person, Increase the grid according to the width.

また、側方LRF20の設置姿勢は、側方LRF20の観測範囲内に検出しようとする物体が存在するとき、側方LRF20が照射するレーザビームが、物体に少なくとも1点以上照射されるような姿勢に設置することが望ましい。   Further, the installation posture of the side LRF 20 is such that when there is an object to be detected within the observation range of the side LRF 20, the laser beam emitted from the side LRF 20 is emitted to at least one point on the object. It is desirable to install in.

なお、1個の天井LRF10または側方LRF20によって自律移動ロボット100が移動する全ての移動領域を観測することができない場合は、別の位置に新たな天井LRF10または側方LRF20を設置し、複数の天井LRF10または側方LRF20によって検出される領域をそれぞれ融合することによって、自律移動ロボット100が移動する全ての移動領域を観測することもできる。   In addition, when it is not possible to observe all the moving areas in which the autonomous mobile robot 100 moves by one ceiling LRF10 or side LRF20, a new ceiling LRF10 or side LRF20 is installed at another position, By merging the areas detected by the ceiling LRF 10 or the side LRF 20, it is possible to observe all the moving areas in which the autonomous mobile robot 100 moves.

移動可能領域抽出部30は、天井LRF10から入力された反射波の情報、および側方LRF20から入力された反射波の情報に基づいて、自律移動ロボット100の移動領域内の障害物を抽出する。そして、抽出した全ての障害物から移動体であると判断された障害物を除いた障害物の位置情報、すなわち、自律移動ロボット100の移動領域内に固定されている障害物の位置情報を、移動経路生成部40に出力する。   The movable area extraction unit 30 extracts obstacles in the movement area of the autonomous mobile robot 100 based on the information on the reflected wave input from the ceiling LRF 10 and the information on the reflected wave input from the side LRF 20. Then, the position information of the obstacle excluding the obstacle determined to be a moving body from all the extracted obstacles, that is, the position information of the obstacle fixed in the movement area of the autonomous mobile robot 100, The data is output to the movement route generation unit 40.

距離情報取得部310は、天井LRF10から入力された反射波の情報に基づいて、天井LRF10とレーザビームを反射した物体との距離を算出する。そして、算出した距離の情報と、天井LRF10が照射したレーザビームのスキャン角度の情報とを、距離データとして障害物位置抽出部330に出力する。   The distance information acquisition unit 310 calculates the distance between the ceiling LRF 10 and the object that has reflected the laser beam, based on the information of the reflected wave input from the ceiling LRF 10. Then, the calculated distance information and the scan angle information of the laser beam emitted from the ceiling LRF 10 are output to the obstacle position extraction unit 330 as distance data.

距離情報取得部320は、側方LRF20から入力された反射波の情報に基づいて、側方LRF20とレーザビームを反射した物体との距離を算出する。そして、算出した距離の情報と、側方LRF20が照射したレーザビームのスキャン角度の情報とを、距離データとして移動体位置抽出部340に出力する。   The distance information acquisition unit 320 calculates the distance between the side LRF 20 and the object that has reflected the laser beam based on the information of the reflected wave input from the side LRF 20. Then, the calculated distance information and the scan angle information of the laser beam irradiated by the side LRF 20 are output as distance data to the moving body position extracting unit 340.

移動体位置抽出部340は、距離情報取得部320から入力された距離データに含まれるレーザビームのスキャン角度の情報、および側方LRF20と物体との距離の情報に基づいて、側方LRF20が観測した物体の中心位置を表す2次元の座標(x,y)を算出する。例えば、距離情報取得部320から入力された距離データに含まれる側方LRF20と物体との距離の情報が予め設定された値以上変化する点の座標を、距離データに含まれるレーザビームのスキャン角度の情報に基づいてそれぞれ算出する。そして、算出した2つの座標を直線で結んだときの中心の座標を、物体の中心位置を表す2次元の座標(x,y)とする。
また、移動体位置抽出部340は、算出した物体の中心位置の座標を表すデータ(以下、「移動体候補データ」という)を、障害物位置抽出部330に出力する。
The moving body position extraction unit 340 observes the side LRF 20 based on the information on the scan angle of the laser beam included in the distance data input from the distance information acquisition unit 320 and the information on the distance between the side LRF 20 and the object. A two-dimensional coordinate (x, y) representing the center position of the object is calculated. For example, the coordinates of a point at which the distance information between the side LRF 20 and the object included in the distance data input from the distance information acquisition unit 320 changes by a predetermined value or more are used as the scan angle of the laser beam included in the distance data. It calculates based on the information of each. Then, the coordinates of the center when the calculated two coordinates are connected by a straight line are set as two-dimensional coordinates (x, y) representing the center position of the object.
In addition, the moving body position extraction unit 340 outputs data representing the coordinates of the calculated center position of the object (hereinafter referred to as “moving body candidate data”) to the obstacle position extraction unit 330.

障害物位置抽出部330は、距離情報取得部310から入力された距離データに含まれるレーザビームのスキャン角度の情報、および天井LRF10と物体との距離の情報に基づいて、天井LRF10が観測した物体の位置と高さの情報を表す3次元(x,y,z)の座標を算出する。例えば、天井LRF10を中心として天井LRF10の観測範囲を表す水平の平面を仮定する。そして、天井LRF10が観測した物体の水平平面における位置を座標(x,y)とし、天井LRF10が観測した物体の高さを座標(z)とすることにより、3次元の座標(x,y,z)を算出する。以下、3次元の座標を表すデータを、「測距点データ」という。   The obstacle position extraction unit 330 is configured to detect the object observed by the ceiling LRF 10 based on the information on the scan angle of the laser beam included in the distance data input from the distance information acquisition unit 310 and the information on the distance between the ceiling LRF 10 and the object. The three-dimensional (x, y, z) coordinates representing the position and height information are calculated. For example, a horizontal plane that represents the observation range of the ceiling LRF 10 around the ceiling LRF 10 is assumed. Then, the position of the object observed by the ceiling LRF 10 in the horizontal plane is set as coordinates (x, y), and the height of the object observed by the ceiling LRF 10 is set as coordinates (z), so that the three-dimensional coordinates (x, y, z) is calculated. Hereinafter, data representing three-dimensional coordinates is referred to as “ranging point data”.

なお、以下の説明においては、天井LRF10が設置されている建物内の床面における観測範囲を水平平面として仮定し、天井LRF10が観測した物体の高さ(z)は、建物内の床面からの高さの値であるものとして説明する。また、上述のように、天井LRF10の観測範囲の座標と、側方LRF20の観測範囲の座標とは、その座標が一致するように事前に校正(調整)されている。従って、移動体候補データに含まれる2次元の座標(x,y)の値と、測距点データに含まれる水平平面を表す座標(x,y)の値とは、自律移動ロボット100の移動領域内の座標を基準とした座標値となる。   In the following description, the observation range on the floor surface in the building where the ceiling LRF 10 is installed is assumed to be a horizontal plane, and the height (z) of the object observed by the ceiling LRF 10 is from the floor surface in the building. In the following description, it is assumed that the value is a height value. Further, as described above, the coordinates of the observation range of the ceiling LRF 10 and the coordinates of the observation range of the side LRF 20 are calibrated (adjusted) in advance so that the coordinates coincide. Therefore, the value of the two-dimensional coordinate (x, y) included in the moving object candidate data and the value of the coordinate (x, y) representing the horizontal plane included in the distance measuring point data are the movement of the autonomous mobile robot 100. The coordinate value is based on the coordinates in the area.

また、障害物位置抽出部330内のグリッド変換部331は、自律移動ロボット100の移動領域をグリッドマップに変換し、このグリッドマップ上に測距点データに表された物体を表す情報を登録する。また、障害物位置抽出部330内の移動体位置キャンセル部332は、測距点データに応じてグリッドマップに登録されている物体が移動体であるか否かを判定する。移動体位置キャンセル部332による物体が移動体であるか否かの判定は、移動体位置抽出部340から入力された移動体候補データと、以前に入力された移動体候補データとに基づいて行われる。そして、物体が移動体であると判定された場合には、グリッド変換部331によって登録されたグリッドマップ内の物体の登録を削除(キャンセル)する。さらに、障害物位置抽出部330内の移動体陰キャンセル部333によって移動体の陰を表す情報を削除(キャンセル)する。このように、障害物位置抽出部330は、移動体以外の物体が登録されたグリッドマップを、移動可能領域抽出部30が抽出した自律移動ロボット100の移動可能領域のグリッド情報(以下、「移動可能領域情報」という)として、移動経路生成部40に出力する。なお、障害物位置抽出部330内の各構成要素による詳細な処理内容については後述する。   In addition, the grid conversion unit 331 in the obstacle position extraction unit 330 converts the movement area of the autonomous mobile robot 100 into a grid map, and registers information representing the object represented by the distance measurement point data on the grid map. . In addition, the moving object position canceling unit 332 in the obstacle position extracting unit 330 determines whether or not the object registered in the grid map is a moving object according to the distance measurement point data. Whether or not the object is a moving object by the moving object position canceling unit 332 is determined based on the moving object candidate data input from the moving object position extracting unit 340 and the previously input moving object candidate data. Is called. If it is determined that the object is a moving object, the registration of the object in the grid map registered by the grid conversion unit 331 is deleted (cancelled). Further, the moving object shadow canceling unit 333 in the obstacle position extracting unit 330 deletes (cancels) information representing the shadow of the moving object. As described above, the obstacle position extraction unit 330 uses the grid information (hereinafter referred to as “movement”) of the movable area of the autonomous mobile robot 100 extracted by the movable area extraction unit 30 from the grid map in which objects other than the moving body are registered. Is output to the movement route generation unit 40 as “possible area information”. The detailed processing contents by each component in the obstacle position extraction unit 330 will be described later.

移動経路生成部40は、移動可能領域抽出部30から入力された移動可能領域情報に基づいて、自律移動ロボット100の移動経路を生成する。   The movement path generation unit 40 generates a movement path of the autonomous mobile robot 100 based on the movable area information input from the movable area extraction unit 30.

次に、本第1の実施形態の移動可能領域抽出部30によって抽出される移動可能領域情報について説明する。図3〜図9は、本第1の実施形態の移動可能領域抽出部30内の各構成要素において行われる処理の具体例を説明する図である。   Next, the movable area information extracted by the movable area extraction unit 30 of the first embodiment will be described. 3 to 9 are diagrams illustrating specific examples of processing performed in each component in the movable area extracting unit 30 according to the first embodiment.

最初に、天井LRF10によって観測される物体と障害物位置抽出部330内のグリッド変換部331によってグリッドマップに登録される物体について説明する。図3は、本第1の実施形態の移動可能領域抽出部30において登録されるグリッドの種別を説明する図である。なお、上述のように、天井LRF10は、天井LRF10を頂点とした円錐状の範囲にレーザビームを照射することによって、観測範囲内に存在する物体を検出するが、以下の説明においては、説明を容易にするため、図3に示したような四角の範囲を天井LRF10の観測範囲とする。   First, an object observed by the ceiling LRF 10 and an object registered in the grid map by the grid conversion unit 331 in the obstacle position extraction unit 330 will be described. FIG. 3 is a diagram for explaining the types of grids registered in the movable area extraction unit 30 of the first embodiment. As described above, the ceiling LRF 10 detects an object existing in the observation range by irradiating the conical range with the ceiling LRF 10 as the apex, thereby detecting an object in the observation range. In order to facilitate, a square range as shown in FIG. 3 is set as the observation range of the ceiling LRF 10.

図3に示すように、天井LRF10が、自律移動ロボット100の移動領域内の物体を観測し、距離情報取得部310が、天井LRF10が観測した反射波の情報に基づいた距離データを障害物位置抽出部330に出力する。グリッド変換部331は、距離情報取得部310から入力された距離データに基づいて、自律移動ロボット100の移動領域のグリッドマップに、図3に示した床面領域、障害物領域、およびセンシング外領域をそれぞれ登録する。なお、図3に示した床面領域は、天井LRF10によって床面が観測された領域を表し、障害物領域は、天井LRF10によって床面以外が観測された領域を表し、センシング外領域は、天井LRF10によって何も観測されなかった領域を表す。このセンシング外領域は、天井LRF10からのレーザビームが照射されないことによって測距点データが存在しない、所謂、障害物などの陰となっている領域である。   As shown in FIG. 3, the ceiling LRF 10 observes an object in the moving area of the autonomous mobile robot 100, and the distance information acquisition unit 310 obtains distance data based on the reflected wave information observed by the ceiling LRF 10 as an obstacle position. The data is output to the extraction unit 330. Based on the distance data input from the distance information acquisition unit 310, the grid conversion unit 331 adds the floor area, the obstacle area, and the outside sensing area illustrated in FIG. 3 to the grid map of the movement area of the autonomous mobile robot 100. Register each. 3 represents a region where the floor surface is observed by the ceiling LRF10, an obstacle region represents a region where the floor surface other than the floor surface is observed by the ceiling LRF10, and an outside sensing region represents the ceiling This represents a region where nothing was observed by the LRF 10. This non-sensing region is a region behind a so-called obstacle in which no distance measurement point data is present because the laser beam from the ceiling LRF 10 is not irradiated.

ここで、グリッド変換部331による各領域の登録方法の一例を説明する。距離情報取得部310は、天井LRF10が照射したレーザビームによって観測範囲内の複数の測距点データを得て、その測距点データをグリッド変換部331に出力する。そして、グリッド変換部331は、まず、各測距点データに含まれる高さ(z)の情報が、自律移動ロボット100が移動する床面の高さに対して予め設定された範囲内の高さ(z)の情報をもつ測距点データであるか否かを判別する。そして、床面の高さに対して予め設定された範囲内の高さ(z)の情報をもつ測距点データを床面データとし、床面の高さに対して予め設定された範囲外の高さ(z)の情報をもつ測距点データを非床面データとする。   Here, an example of a registration method of each area by the grid conversion unit 331 will be described. The distance information acquisition unit 310 obtains a plurality of distance measurement point data within the observation range by the laser beam emitted from the ceiling LRF 10 and outputs the distance measurement point data to the grid conversion unit 331. The grid conversion unit 331 first sets the height (z) information included in each ranging point data to a height within a range set in advance with respect to the height of the floor on which the autonomous mobile robot 100 moves. It is determined whether or not the distance measuring point data has the information (z). Then, ranging point data having information on the height (z) within the range set in advance with respect to the height of the floor surface is used as the floor surface data, and is outside the range set in advance with respect to the height of the floor surface. Ranging point data having information on the height (z) of the non-floor surface data.

続いて、グリッド変換部331は、床面データの水平平面座標(x,y)の領域を、床面の領域(床面領域)とし、非床面データの水平平面座標(x,y)の領域を、障害物の位置(障害物領域)とする。そして、自律移動ロボット100の移動領域を変換したグリッドマップ内の床面領域に対応するグリッドに、床面であることを表す情報をマッピングする。また、障害物領域に対応するグリッドに、障害物であることを表す情報をマッピングする。   Subsequently, the grid conversion unit 331 sets the area of the horizontal plane coordinates (x, y) of the floor data as the floor area (floor area), and the horizontal plane coordinates (x, y) of the non-floor data. The area is defined as an obstacle position (obstacle area). And the information showing that it is a floor surface is mapped to the grid corresponding to the floor area in the grid map which converted the movement area of the autonomous mobile robot 100. Also, information representing an obstacle is mapped to the grid corresponding to the obstacle area.

続いて、グリッド変換部331は、グリッドマップ内に床面であることを表す情報および障害物であることを表す情報のいずれもマッピングされていないグリッドに、不確定の領域(センシング外領域)であることを表す情報をマッピングする。以下の説明においては、グリッドマップにおいて、床面であることを表す情報がマッピングされたグリッドを「床面グリッド」、障害物であることを表す情報がマッピングされたグリッドを「非床面グリッド」、センシング外領域であることを表す情報がマッピングされたグリッドを「未知グリッド」という。   Subsequently, the grid conversion unit 331 uses an indeterminate area (non-sensing area) on a grid in which neither the information indicating the floor surface nor the information indicating the obstacle is mapped in the grid map. Map information that represents something. In the following description, in the grid map, a grid to which information representing a floor surface is mapped is a “floor grid”, and a grid to which information representing an obstacle is mapped is a “non-floor grid”. A grid on which information representing an area outside the sensing is mapped is called an “unknown grid”.

次に、障害物位置抽出部330内のグリッド変換部331による移動不可能領域の判定方法について説明する。図4は、本第1の実施形態の移動可能領域抽出部30における移動不可能領域の判定方法の例を説明する図である。図4(a)は、天井LRF10によって、固定された障害物である「机」と、移動体である「人」とが観測され、グリッド変換部331によって、天井LRF10に観測された「机」と「人」とが、マッピングされた場合を示している。そして、図4(a)に示すように、グリッドマップ内で「机」と「人」とが存在する位置は、それぞれ、非床面グリッド(障害物領域)であり、「机」と「人」とによって陰となる領域は、未知グリッド(センシング外領域)である。   Next, a method for determining a non-movable area by the grid conversion unit 331 in the obstacle position extraction unit 330 will be described. FIG. 4 is a diagram illustrating an example of a method for determining a non-movable area in the movable area extracting unit 30 according to the first embodiment. In FIG. 4A, a “desk” that is a fixed obstacle and a “person” that is a moving object are observed by the ceiling LRF 10, and the “desk” that is observed by the grid conversion unit 331 on the ceiling LRF 10. And “person” are mapped. As shown in FIG. 4A, the positions where “desk” and “person” exist in the grid map are non-floor grids (obstacle regions), respectively, ”Is an unknown grid (outside sensing area).

まず、グリッド変換部331は、マッピングされたそれぞれのグリッドの情報に応じて、障害物の有無を表す2値化の処理を行う。より具体的には、図4(b)に示すように、障害物がある非床面グリッドの値を“1”とし、障害物がない床面グリッドの値を“0”とする。また、グリッド変換部331は、未知グリッドも障害物がある領域とするため、未知グリッドの値を非床面グリッドと同じ“1”とする。これにより、障害物があるまたは障害物がある可能性のある領域が障害物の領域となる。   First, the grid conversion unit 331 performs binarization processing that represents the presence or absence of an obstacle according to the information of each mapped grid. More specifically, as shown in FIG. 4B, the value of the non-floor grid with an obstacle is “1”, and the value of the floor grid without an obstacle is “0”. In addition, the grid conversion unit 331 sets the value of the unknown grid to “1”, which is the same as that of the non-floor grid, since the unknown grid is also an area with an obstacle. Thereby, an area where there is an obstacle or a possibility that there is an obstacle becomes an area of the obstacle.

続いて、グリッド変換部331は、それぞれのグリッドの値を確認して同じ値となっているグリッドをグループ化し、それぞれのグループを識別する情報であるラベルを付与するラベリングの処理を行う。より具体的には、例えば、あるグリッドの周辺に位置している8個のグリッドの値をそれぞれ確認し、同じ値となっているグリッドを同じグループとする。このような周辺に位置しているグリッドの値の確認を、グリッドマップ内の全てのグリッドに対して行う。そして、それぞれのグループ毎にグループを識別するためのラベルを付与する。図4(c)では、図4(a)において「机」が位置している部分のラベルを“1”とし、「人」が位置している部分のラベルを“2”としている。そして、グリッド変換部331は、ラベリングされたそれぞれのグループ毎に、外接する最小面積の長方形を、移動不可能領域と判定する。   Subsequently, the grid conversion unit 331 checks the values of the respective grids, groups the grids having the same value, and performs a labeling process for assigning a label that is information for identifying each group. More specifically, for example, the values of eight grids positioned around a certain grid are confirmed, and the grids having the same value are set as the same group. Confirmation of the values of grids located in the vicinity is performed for all the grids in the grid map. A label for identifying the group is assigned to each group. In FIG. 4C, the label of the part where “desk” is located in FIG. 4A is “1”, and the label of the part where “person” is located is “2”. Then, the grid conversion unit 331 determines, for each labeled group, the minimum area rectangle that circumscribes the group as a non-movable region.

次に、移動体位置抽出部340によって移動体候補データを算出する方法について説明する。図5は、本第1の実施形態の移動可能領域抽出部30における移動体位置の算出方法の例を説明する図である。   Next, a method for calculating moving object candidate data by the moving object position extraction unit 340 will be described. FIG. 5 is a diagram for explaining an example of a method for calculating the moving object position in the movable region extracting unit 30 according to the first embodiment.

図5(a)に示すように、側方LRF20は、側方LRF20が設置された高さの水平面上の扇形の範囲にレーザビームを照射することによって、観測範囲内に存在する物体を観測する。そして、距離情報取得部320は、側方LRF20の観測点の情報に基づいて、複数の距離データを算出する。   As shown in FIG. 5A, the side LRF 20 observes an object existing in the observation range by irradiating a fan-shaped range on a horizontal plane having the height where the side LRF 20 is installed with a laser beam. . And the distance information acquisition part 320 calculates several distance data based on the information of the observation point of the side LRF20.

移動体位置抽出部340は、それぞれの距離データの差が予め設定された値以上である場合、その距離データを物体の角(エッジ)部分の距離データであると判断する。そして、移動体位置抽出部340は、それぞれの距離データに含まれるレーザビームのスキャン角度の情報、および側方LRF20と物体との距離の情報に基づいて、2つのエッジ部分の観測点の2次元の座標(x,y)を算出する。図5(b)では、観測点Aと観測点Bとが物体のエッジ部分の距離データであると判断され、2次元の座標(xA,yA)および座標(xB,yB)が算出された場合を示している。   When the difference between the distance data is greater than or equal to a preset value, the moving body position extraction unit 340 determines that the distance data is the distance data of the corner (edge) portion of the object. Then, the moving body position extraction unit 340 performs two-dimensional observation of the two edge portions based on the information on the scan angle of the laser beam included in each distance data and the information on the distance between the side LRF 20 and the object. The coordinates (x, y) of are calculated. In FIG. 5B, when the observation point A and the observation point B are determined as the distance data of the edge portion of the object, two-dimensional coordinates (xA, yA) and coordinates (xB, yB) are calculated. Is shown.

そして、移動体位置抽出部340は、算出した2つの座標を直線で結んだときの中心の位置を表す2次元の座標(x,y)を算出する。図5(b)では、点Cが物体の中心位置として算出され、その2次元の座標が座標(xC,yC)である場合を示している。この座標(xC,yC)が、移動体位置抽出部340が算出した移動体候補データとなる。   Then, the moving body position extraction unit 340 calculates two-dimensional coordinates (x, y) representing the center position when the calculated two coordinates are connected by a straight line. FIG. 5B shows a case where the point C is calculated as the center position of the object and the two-dimensional coordinates are coordinates (xC, yC). This coordinate (xC, yC) becomes the moving object candidate data calculated by the moving object position extraction unit 340.

なお、複数の側方LRF20によって同一の物体を観測した場合、それぞれの側方LRF20の距離データによって算出された中心位置を表す複数の2次元の座標(x,y)に基づいて、算出した中心位置を表す新たな2次元の座標(x,y)を、移動体位置抽出部340が算出した移動体候補データ(図5(c)の点D参照)とすることもできる。   When the same object is observed by a plurality of side LRFs 20, the calculated center is based on a plurality of two-dimensional coordinates (x, y) representing the center position calculated by the distance data of each side LRF 20. The new two-dimensional coordinates (x, y) representing the position can be used as the moving object candidate data (see point D in FIG. 5C) calculated by the moving object position extraction unit 340.

ここで、移動体位置のキャンセル方法について説明する前に、本第1の実施形態による経路生成システム1における天井LRF10と側方LRF20とによる物体の観測時間の関係について説明しておく。通常、各LRFが障害物を観測するタイミングを同期させるための制御は複雑な処理となるため、本第1の実施形態による経路生成システム1においても、天井LRF10と側方LRF20との物体の観測タイミングは、非同期である。また、側方LRF20が観測範囲内を1回観測する観測時間と、天井LRF10が観測範囲内を1回観測する観測時間とは異なる。これは、天井LRF10と側方LRF20との性能の差や、観測範囲に照射するレーザビームの数の差(天井LRF10は3次元で観測範囲内の物体を観測し、側方LRF20は2次元で観測範囲内の物体を観測している)などの要因にもよる。以下の説明においては、例えば、天井LRF10が観測範囲内を1回観測する時間を250[ms]、側方LRF20が観測範囲内を1回観測する時間を100[ms]というように、側方LRF20による観測時間(周期)は、天井LRF10による観測時間(周期)に比べて短いものとして説明する。従って、天井LRF10および側方LRF20の両方で同じ障害物を観測した場合、天井LRF10が物体を1回観測する間に、側方LRF20は、同じ物体を複数回観測することとなる。   Here, before explaining the method of canceling the moving body position, the relationship between the observation times of the objects by the ceiling LRF 10 and the side LRF 20 in the route generation system 1 according to the first embodiment will be explained. Normally, control for synchronizing the timing at which each LRF observes an obstacle is a complicated process. Therefore, even in the route generation system 1 according to the first embodiment, observation of objects of the ceiling LRF 10 and the side LRF 20 is performed. Timing is asynchronous. In addition, the observation time when the side LRF 20 observes the observation range once is different from the observation time when the ceiling LRF 10 observes the observation range once. This is because the difference in performance between the ceiling LRF 10 and the side LRF 20 and the difference in the number of laser beams applied to the observation range (the ceiling LRF 10 observes an object in the observation range in three dimensions, and the side LRF 20 in two dimensions. It depends on factors such as observing objects within the observation range. In the following description, for example, the time when the ceiling LRF 10 observes the observation range once is 250 [ms], and the time when the side LRF 20 observes the observation range once is 100 [ms]. The observation time (cycle) by the LRF 20 will be described as being shorter than the observation time (cycle) by the ceiling LRF 10. Therefore, when the same obstacle is observed on both the ceiling LRF 10 and the side LRF 20, the side LRF 20 observes the same object a plurality of times while the ceiling LRF 10 observes the object once.

また、以下の説明においては、人を移動している障害物(移動体)として検出する場合を例として説明する。そして、人の幅を50[cm]と想定し、天井LRF10および側方LRF20は、10[cm]間隔で物体を観測する。また、移動体位置抽出部340は、人の位置のみを抽出する、すなわち、移動体位置抽出部340は、物体の幅が予め設定された人の幅(50[cm])と同等である移動体候補データを、人の候補データ(以下、「人候補位置」という)として障害物位置抽出部330に出力するものとして説明する。   Moreover, in the following description, the case where a person is detected as a moving obstacle (moving body) will be described as an example. Then, assuming that the width of a person is 50 [cm], the ceiling LRF 10 and the side LRF 20 observe objects at intervals of 10 [cm]. In addition, the moving body position extracting unit 340 extracts only the position of the person, that is, the moving body position extracting unit 340 moves the object whose width is equal to the preset width (50 [cm]) of the person. The body candidate data will be described as being output to the obstacle position extracting unit 330 as human candidate data (hereinafter referred to as “person candidate position”).

<第1の移動体位置キャンセル方法>
次に、障害物位置抽出部330内の移動体位置キャンセル部332による移動体の判別と、移動体位置のキャンセル方法について説明する。図6は、本第1の実施形態の移動可能領域抽出部30における移動体位置のキャンセル方法の第1の例を説明する図である。図6に示した第1の移動体位置キャンセル方法においては、天井LRF10による観測によって移動不可能領域と判定された領域が、移動体によるものであるかを、側方LRF20が観測した情報に基づいて判断し、移動体によるものであると判断された領域のラベルに基づいて移動不可能領域のグリッドをキャンセルする。図6(a)は、天井LRF10によって、移動体である「人」が観測され、グリッド変換部331によって、グリッドマップ内で「人」が存在する位置および「人」によって陰となる領域が移動不可能領域と判定されている場合を示している。また、側方LRF20が観測した情報に基づいて、移動体位置抽出部340が人候補位置を抽出している。
<First moving body position canceling method>
Next, the moving body position canceling unit 332 in the obstacle position extracting unit 330 and the moving body position canceling method will be described. FIG. 6 is a diagram illustrating a first example of a method for canceling a moving body position in the movable region extraction unit 30 according to the first embodiment. In the first moving body position canceling method shown in FIG. 6, based on the information observed by the side LRF 20 as to whether or not the area determined as the non-movable area by the observation by the ceiling LRF 10 is due to the moving body. The grid of the non-movable area is canceled based on the label of the area determined to be due to the moving body. In FIG. 6A, a “person” that is a moving object is observed by the ceiling LRF 10, and a position where “person” exists in the grid map and a region that is shaded by “person” are moved by the grid conversion unit 331. The case where it is determined as an impossible area is shown. Moreover, based on the information observed by the side LRF 20, the moving body position extraction unit 340 extracts the candidate positions.

本第1の移動体位置キャンセル方法において移動体位置キャンセル部332は、移動体位置抽出部340から入力された現在の移動体候補データと過去の移動体候補データとに基づいて、移動不可能領域が移動体によるものであるかを判断する。例えば、移動体位置キャンセル部332は、図6(a)に示すように、移動体位置抽出部340から入力された現在の人候補位置と過去の人候補位置(1つ過去の人候補位置および2つ過去の人候補位置)とが予め定められた距離以上変化している場合に、現在の人候補位置を含む移動不可能領域が移動体によるものであると判定する。そして、移動体によるものであると判定された移動不可能領域と同一のラベルを持つ全てのグリッドにマッピングされている情報を、障害物がない床面グリッドと同じ“0”とする。これにより、観測された移動体による移動不可能領域がキャンセルされ、自律移動ロボット100が移動することができる移動可能領域とすることができる。   In the first moving body position canceling method, the moving body position canceling unit 332 is based on the current moving body candidate data and the past moving body candidate data input from the moving body position extracting unit 340, so that the unmovable region Is determined to be due to a moving object. For example, as shown in FIG. 6A, the mobile body position canceling unit 332 includes the current human candidate position and the past human candidate position (one past human candidate position and In the case where the position of two past human candidate positions) changes by a predetermined distance or more, it is determined that the immovable region including the current human candidate position is due to the moving object. Then, the information mapped to all grids having the same label as the non-movable area determined to be due to the moving object is set to “0”, which is the same as the floor grid without an obstacle. Thereby, the non-movable area by the observed mobile body is canceled, and it can be set as the movable area where the autonomous mobile robot 100 can move.

なお、図6(a)では、3つの人候補位置によって移動不可能領域が移動体によるものであるかを判断している。この移動不可能領域の判断に用いる人候補位置の数は、天井LRF10と側方LRF20との観測時間の差に応じて決定する。本第1の実施形態では、天井LRF10の観測周期が250[ms]、側方LRF20の観測周期が100[ms]であるため、天井LRF10と側方LRF20との観測タイミングは、例えば、図6(b)のような関係となる。このことから天井LRF10の観測周期内には、側方LRF20の観測タイミングが3回あるというように考えて、移動不可能領域が移動体によるものであるかの判断に用いる人候補位置の数を決定する。   In FIG. 6A, it is determined whether the immovable region is due to a moving object based on the three candidate positions. The number of candidate positions used to determine this immovable region is determined according to the difference in observation time between the ceiling LRF 10 and the side LRF 20. In the first embodiment, since the observation period of the ceiling LRF 10 is 250 [ms] and the observation period of the side LRF 20 is 100 [ms], the observation timing of the ceiling LRF 10 and the side LRF 20 is, for example, FIG. The relationship is as shown in (b). From this, it is considered that there are three observation timings of the side LRF 20 within the observation period of the ceiling LRF 10, and the number of candidate positions used for determining whether the immovable region is due to the moving object is determined. decide.

また、本第1の移動体位置キャンセル方法によって移動不可能領域をキャンセルする場合には、天井LRF10によって観測された現在の測距点データに基づいたグリッドマップのみではなく、過去のグリッドマップの移動不可能領域の情報も考慮して、観測された移動体による移動不可能領域をキャンセルすることが望ましい。例えば、過去のグリッドマップにおいては異なるラベルを持っていたグリッドが、現在のグリッドマップにおいては同一のラベルとなっているような場合には、過去のグリッドマップにおいても移動体によるものであると判定された移動不可能領域のみをキャンセルする。これにより、固定された障害物と人とが接近している場合に、本来キャンセルされるべきではない固定された障害物までもキャンセルしてしまうことを防止することができる。   In addition, when canceling the immovable area by the first moving body position canceling method, not only the grid map based on the current distance measurement point data observed by the ceiling LRF 10 but also the movement of the past grid map is performed. It is desirable to cancel the non-movable area due to the observed moving object in consideration of information on the non-movable area. For example, if a grid that had a different label in the past grid map has the same label in the current grid map, it is determined that the grid is due to a moving object in the past grid map. Cancel only the non-movable area. Thereby, when the fixed obstacle and the person are approaching, it can prevent canceling even the fixed obstacle which should not be canceled originally.

なお、本第1の移動体位置キャンセル方法においては、側方LRF20が観測した情報に基づいて移動体位置抽出部340が人候補位置を抽出し、抽出した人候補位置が予め定められた距離以上変化している場合に、人候補位置を含む移動不可能領域が移動体によるものであると判定している。移動不可能領域が移動体によるものであるか否かの判定方法は、側方LRF20が観測した情報に基づいて行う判定に限定されるものではなく、天井LRF10によって観測された移動不可能領域の情報を用いて、移動不可能領域が移動体によるものであるかを判定することもできる。例えば、天井LRF10による観測によって移動不可能領域と判定された現在のグリッドマップの移動不可能領域の情報と、過去のグリッドマップの移動不可能領域の情報と比較し、同じ障害物によるものと判断される移動不可能領域が、予め定められたグリッド(距離)以上変化している場合に、この移動不可能領域は移動体によるものであると判定することもできる。   In the first moving body position canceling method, the moving body position extracting unit 340 extracts a candidate position based on the information observed by the side LRF 20, and the extracted candidate position is equal to or greater than a predetermined distance. If it has changed, it is determined that the immovable region including the candidate position is due to the moving object. The method of determining whether or not the immovable region is due to a moving object is not limited to the determination performed based on the information observed by the side LRF 20, and the method of determining the immovable region observed by the ceiling LRF 10 is not limited. It is also possible to determine whether the immovable region is due to a moving object using the information. For example, the information on the non-movable area of the current grid map determined as the non-movable area by the observation with the ceiling LRF 10 is compared with the information on the non-movable area of the past grid map, and it is determined that the obstacle is the same. When the non-movable area to be moved is changed by a predetermined grid (distance) or more, it can be determined that the non-movable area is due to the moving body.

<第2の移動体位置キャンセル方法>
次に、障害物位置抽出部330内の移動体位置キャンセル部332による移動体位置のキャンセル方法の別の方法について説明する。図7は、本第1の実施形態の移動可能領域抽出部30における移動体位置のキャンセル方法の第2の例を説明する図である。図7に示した第2の移動体位置キャンセル方法においては、天井LRF10による観測によって移動不可能領域と判定され、側方LRF20が観測した情報に基づいて移動体によるものであると判断された移動不可能領域の内、予め想定される移動体の範囲内で同一のラベルを持つ移動不可能領域のグリッドをキャンセルする。
<Second moving body position canceling method>
Next, another method for canceling the moving object position by the moving object position canceling unit 332 in the obstacle position extracting unit 330 will be described. FIG. 7 is a diagram for explaining a second example of the method for canceling the moving object position in the movable region extracting unit 30 according to the first embodiment. In the second moving body position canceling method shown in FIG. 7, the movement is determined to be due to the moving body based on the information observed by the side LRF 20 by being determined as the non-movable area by observation with the ceiling LRF 10. Among the impossible areas, the grid of the non-movable area having the same label within the range of the movable body assumed in advance is canceled.

本第2の移動体位置キャンセル方法は、例えば、図7(a)に示すように、天井LRF10によって、固定された障害物である「机」と、移動体である「人」とが観測され、観測された「机」と「人」とが接近している場合に有効な方法である。すなわち、観測された「机」と「人」とが接近している場合、図7(b)に示すように、グリッド変換部331によって、「机」と「人」とが同じグループの移動不可能領域と判定されてしまう。この状態で、上述の第1の移動体位置キャンセル方法によって同一のラベルを持つ全てのグリッドを単純にキャンセルしてしまうと、本来キャンセルされるべきではない固定された障害物である「机」までもがキャンセルされてしまうこととなる。   In the second moving body position canceling method, for example, as shown in FIG. 7A, a “desk” that is a fixed obstacle and a “person” that is a moving body are observed by the ceiling LRF 10. This is an effective method when the observed “desk” and “person” are close to each other. That is, when the observed “desk” and “person” are close to each other, as shown in FIG. 7B, the grid conversion unit 331 causes the “table” and “person” to move in the same group. It will be determined as a possible area. In this state, if all grids having the same label are simply canceled by the above-described first moving body position canceling method, up to the “desk” which is a fixed obstacle that should not be canceled originally. Will be canceled.

そこで、本第2の移動体位置キャンセル方法では、移動体位置キャンセル部332が予め想定された移動体の大きさ、本第1の実施形態においては、想定した移動体である「人」の幅(50[cm])に基づいて、図7(c)に示した、移動不可能領域内のグリッドをキャンセルする大きさ(以下、「移動体キャンセル範囲」という)を決定する。図7(c)は、人の幅(距離)の半分の距離を半径rと設定し、移動体位置抽出部340から入力された人候補位置を中心として、設定した半径rの円の範囲を移動体キャンセル範囲とする。そして、移動体キャンセル範囲内のグリッドをキャンセルする例を示している。より具体的には、移動体位置キャンセル部332は、移動体位置抽出部340から入力された人候補位置の移動体候補データに含まれる物体の中心位置である2次元の座標p1(x1,y1)を中心とする。そして、下式(1)の関係が成り立つ移動不可能領域内のグリッド(図7(c)では、座標pn(xn,yn)のグリッド)を、移動体を表すグリッドであると判定する。   Therefore, in the second moving body position canceling method, the moving body position canceling unit 332 assumes the size of the moving body assumed in advance, and in the first embodiment, the width of the “human” that is the assumed moving body. Based on (50 [cm]), the size (hereinafter referred to as “moving body cancellation range”) for canceling the grid in the immovable region shown in FIG. 7C is determined. In FIG. 7C, a radius half of the person's width (distance) is set as the radius r, and the range of the circle with the set radius r is centered on the person candidate position input from the moving body position extracting unit 340. The moving object cancellation range. And the example which cancels the grid in the mobile body cancellation range is shown. More specifically, the moving object position canceling unit 332 includes two-dimensional coordinates p1 (x1, y1) that are the center positions of the objects included in the moving object candidate data of the human candidate positions input from the moving object position extracting unit 340. ). Then, the grid in the immovable region where the relationship of the following expression (1) holds (in FIG. 7C, the grid of coordinates pn (xn, yn)) is determined to be a grid representing a moving body.

本第2の移動体位置キャンセル方法において移動体位置キャンセル部332は、まず、上述の第1の移動体位置キャンセル方法と同様に、移動体位置抽出部340から入力された現在の人候補位置と過去の人候補位置(1つ過去の人候補位置および2つ過去の人候補位置)とが予め定められた距離以上変化している移動不可能領域を移動体によるものであると判定する。続いて、移動体位置キャンセル部332は、移動体によるものであると判定された移動不可能領域内で、移動体を表すグリッドであると判定された移動体キャンセル範囲内の全てのグリッドにマッピングされている情報を、障害物がない床面グリッドと同じ“0”とする(図7(d)参照)。これにより、図7(e)に示すように、移動体である「人」を表すグリッドの領域がキャンセルされ、自律移動ロボット100が移動することができる移動可能領域とすることができる。また、固定された障害物である「机」を表すグリッドの領域は、キャンセルされることなく、移動不可能領域のままである。   In the second moving body position canceling method, the moving body position canceling unit 332 first determines the current human candidate position input from the moving body position extracting unit 340, as in the first moving body position canceling method described above. It is determined that a non-movable region in which past human candidate positions (one past human candidate position and two past human candidate positions) have changed by a predetermined distance or more is due to a moving object. Subsequently, the moving object position canceling unit 332 maps to all the grids within the moving object cancellation range determined to be a grid representing the moving object in the non-movable area determined to be due to the moving object. The information is set to “0”, which is the same as the floor grid without an obstacle (see FIG. 7D). As a result, as shown in FIG. 7E, the grid area representing the “person” that is the moving body is canceled and can be made a movable area in which the autonomous mobile robot 100 can move. The area of the grid representing the “desk”, which is a fixed obstacle, remains a non-movable area without being canceled.

なお、移動体位置キャンセル部332が予め想定された移動体の大きさに基づいて決定する移動体キャンセル範囲は、側方LRF20が物体を観測するときの位置検出精度、天井LRF10が物体を観測するときの位置検出精度、人の着衣の厚さを考慮した人の平均的肩幅などに応じて、設定する半径rを変更することができる。また、移動体が移動している速度に応じて、設定する半径rを動的に変更することもできる。例えば、移動体が移動している速度が速い場合には、設定する半径rを大きくすることによって、移動体キャンセル範囲を広くする。   The moving body cancellation range determined by the moving body position canceling unit 332 based on the size of the moving body assumed in advance is the position detection accuracy when the side LRF 20 observes the object, and the ceiling LRF 10 observes the object. The radius r to be set can be changed according to the position detection accuracy at the time, the average shoulder width of the person in consideration of the thickness of the person's clothes. In addition, the radius r to be set can be dynamically changed according to the moving speed of the moving body. For example, when the moving speed of the moving body is high, the moving body cancellation range is widened by increasing the set radius r.

また、移動体キャンセル範囲は、半径rの円の範囲ではなく、移動体が移動している方向によって移動体キャンセル範囲の形を変えることもできる。例えば、移動体が、図7(c)の上方向に移動している場合には、移動体が移動している上方向と、その反対の下方向の距離を短くした楕円の範囲を、移動体キャンセル範囲とすることもできる。このように、移動体キャンセル範囲を移動体に合わせて変更することにより、本来キャンセルされるべきではない範囲までもがキャンセルされてしまうことを防止することができる。   In addition, the moving body canceling range is not a range of a circle with a radius r, but the shape of the moving body canceling range can be changed depending on the direction in which the moving body is moving. For example, when the moving body is moving upward in FIG. 7 (c), the range of the ellipse in which the distance in the upward direction in which the moving body is moving and the opposite downward direction is shortened is moved. It can also be a body cancellation range. In this way, by changing the moving body cancellation range according to the moving body, it is possible to prevent even a range that should not be canceled from being canceled.

<移動体陰キャンセル方法>
次に、障害物位置抽出部330内の移動体陰キャンセル部333による移動体の陰の部分のキャンセル方法について説明する。図8は、本第1の実施形態の経路生成システム1において検出される移動体の例を説明する図である。経路生成システム1では、複数の天井LRF10および複数の側方LRF20(図示せず)によって、自律移動ロボット100が移動する移動領域内の障害物を検出している。そして、例えば、図8(a)に示すように、各天井LRF10の観測範囲は、互いに重複するようにそれぞれの天井LRF10が設置されている。これにより、自律移動ロボット100の移動領域内に存在する障害物などの陰となっている領域を少なくするようにしている。しかし、図8(a)に示すように、例えば、移動領域内の端の方に物体(図8(a)においては、「人」)が存在している場合には、移動領域内の「人」に一番近い天井LRF10でも全ての陰となる領域をなくすことはできない。
<Movement shade cancellation method>
Next, a method for canceling the shadow of the moving object by the moving object shadow canceling unit 333 in the obstacle position extracting unit 330 will be described. FIG. 8 is a diagram illustrating an example of a moving object detected in the route generation system 1 according to the first embodiment. In the route generation system 1, an obstacle in a moving area where the autonomous mobile robot 100 moves is detected by a plurality of ceiling LRFs 10 and a plurality of side LRFs 20 (not shown). For example, as shown in FIG. 8A, the ceiling LRFs 10 are installed such that the observation ranges of the ceiling LRFs 10 overlap each other. Thereby, the area | region which is shadowed by the obstacle etc. which exists in the movement area | region of the autonomous mobile robot 100 is decreased. However, as shown in FIG. 8A, for example, when an object (“person” in FIG. 8A) is present toward the end in the moving area, “ Even the ceiling LRF 10 closest to “people” cannot eliminate all the shadow areas.

すなわち、上述した第2の移動体位置キャンセル方法によって移動体による移動不可能領域をキャンセルした後でも、移動体の陰の領域が残ってしまうことがある。例えば、図8(b−1)に示すように、天井LRF10によって、移動体である「人」と、その「人の陰」が観測される場合を考える。なお、「人の陰」は、上述のように、センシング外領域で未知グリッドとされた領域である。そして、図8(b−2)に示すように、グリッド変換部331によって、「人」と「人の陰」とが同じグループの移動不可能領域として判定される。この状態で、上述の第2の移動体位置キャンセル方法によって移動体である「人」を表すグリッドの領域をキャンセルする。しかし、「人の陰」の領域が、移動体キャンセル範囲よりも大きい範囲であると、図8(b−3)に示すように、移動体キャンセル範囲外の「人の陰」の領域が、移動不可能領域として残ってしまう。   That is, the area behind the moving object may remain even after the non-movable area by the moving object is canceled by the second moving object position canceling method described above. For example, as shown in FIG. 8B-1, consider a case where a “person” that is a moving object and the “shadow of a person” are observed by the ceiling LRF 10. As described above, the “human shadow” is an area that is an unknown grid outside the sensing area. Then, as illustrated in FIG. 8B-2, the grid conversion unit 331 determines that “person” and “person's shadow” are immovable areas of the same group. In this state, the grid area representing the “person” that is the moving body is canceled by the second moving body position canceling method described above. However, if the “human shadow” area is larger than the moving object cancellation range, as shown in FIG. 8B-3, the “human shadow” area outside the moving object cancellation range is It remains as a non-movable area.

そこで、本移動体陰キャンセル方法では、第2の移動体位置キャンセル方法によって移動体による移動不可能領域をキャンセルした後に残っている移動体の陰部の領域をキャンセルする。図9は、本第1の実施形態の移動可能領域抽出部30における移動体の陰部の領域のキャンセル方法の例を説明する図である。本移動体陰キャンセル方法においては、天井LRF10から入力された反射波の情報に基づいて算出された距離データに応じて、移動体の高さを算出し、算出した移動体の高さに基づいて移動体の陰部の長さを算出する。そして、移動体キャンセル範囲の中心位置、すなわち、移動体位置抽出部340から入力された人候補位置であって、第2の移動体位置キャンセル方法において移動体(人)が存在すると判定された位置(以下、「人位置」という)を変更しながら、移動不可能領域のキャンセルをさらに追加で行う。これにより、移動不可能領域として残っている移動体(人)の陰部の領域をキャンセルし、自律移動ロボット100が移動することができる移動可能領域とすることができる。   Therefore, in this moving body shadow canceling method, the shadow area of the moving body remaining after the non-movable area by the moving body is canceled by the second moving body position canceling method is cancelled. FIG. 9 is a diagram illustrating an example of a method for canceling the shadow area of the moving object in the movable area extracting unit 30 according to the first embodiment. In the moving object shadow canceling method, the height of the moving object is calculated according to the distance data calculated based on the information of the reflected wave input from the ceiling LRF 10, and based on the calculated height of the moving object. The length of the shadow of the moving object is calculated. Then, the center position of the mobile object cancellation range, that is, the position of the candidate person input from the mobile object position extraction unit 340, which is determined to have a mobile object (person) in the second mobile object position canceling method. While changing (hereinafter referred to as “person position”), the non-movable area is additionally canceled. As a result, the area behind the moving body (person) remaining as the immovable area can be canceled to be a movable area where the autonomous mobile robot 100 can move.

本移動体陰キャンセル方法において移動体陰キャンセル部333は、以下の手順で移動不可能領域として残っている移動体(人)の陰部の領域をキャンセルする(図9参照)。
(手順1):移動体陰キャンセル部333は、人位置(図9(b)に示した座標(x2,y2))に最も近い天井LRF10の設置位置の座標(図9(b)に示した座標(x1,y1))を検索する。
(手順2):移動体陰キャンセル部333は、人位置と天井LRF10の位置との距離Lhを算出する。なお、距離Lhの算出は、例えば、下式(2)を用いて算出することができる。
In the moving body shadow canceling method, the moving body shadow canceling unit 333 cancels the shadow area of the moving body (person) remaining as the unmovable area in the following procedure (see FIG. 9).
(Procedure 1): The moving object shadow canceling unit 333 has the coordinates of the installation position of the ceiling LRF 10 closest to the person position (the coordinates (x2, y2) shown in FIG. 9B) (shown in FIG. 9B). The coordinates (x1, y1)) are searched.
(Procedure 2): The moving object shadow canceling unit 333 calculates the distance Lh between the human position and the position of the ceiling LRF10. The distance Lh can be calculated using, for example, the following formula (2).

(手順3):移動体陰キャンセル部333は、人位置に存在する「人」の高さに基づいて、陰部の長さLsを算出する。なお、陰部の長さLsは、例えば、下式(3)を用いて算出することができる。 (Procedure 3): The moving object shadow canceling unit 333 calculates the length Ls of the shadow part based on the height of the “person” existing at the person position. Note that the length Ls of the shadow can be calculated using, for example, the following expression (3).

上式(3)において、Hsは人位置に最も近い天井LRF10が設置されている高さ、Hhは人位置の測距点データに含まれる高さ(z)の情報を示す。なお、高さHhは、人位置のグリッドの周辺に位置するグリッド(例えば、人の幅(50[cm])の範囲内のグリッド)の測距点データに含まれる高さ(z)の情報において最も高い値(ピーク値)とすることもできる。   In the above equation (3), Hs indicates the height at which the ceiling LRF 10 closest to the person position is installed, and Hh indicates information on the height (z) included in the distance measurement point data at the person position. The height Hh is information on the height (z) included in the distance measurement point data of a grid (for example, a grid within the range of the human width (50 [cm])) located around the grid of the human position. It can also be set to the highest value (peak value).

(手順4):移動体陰キャンセル部333は、人位置に最も近い天井LRF10と人位置との単位ベクトルE(ex,ey)を算出する。なお、単位ベクトルE(ex,ey)は、例えば、下式(4)を用いて算出することができる。 (Procedure 4): The moving body shadow canceling unit 333 calculates a unit vector E (ex, ey) between the ceiling LRF 10 closest to the person position and the person position. The unit vector E (ex, ey) can be calculated using, for example, the following equation (4).

(手順5):移動体陰キャンセル部333は、現在の人位置(最初は、座標(x2,y2))から、人位置の座標を単位ベクトルE(ex,ey)の方向に、予め定められた距離Lだけ移動し、この移動した位置の座標を新たな人位置(例えば、図9(b)に示した座標ps(xs,ys))とする。なお、新たな人位置の座標ps(xs,ys)の移動は、例えば、下式(5)を用いて算出することができる。 (Procedure 5): The moving object shadow canceling unit 333 determines the coordinates of the person position in the direction of the unit vector E (ex, ey) from the current person position (initially coordinates (x2, y2)). The coordinates of the moved position are set as a new person position (for example, coordinates ps (xs, ys) shown in FIG. 9B). The movement of the coordinates ps (xs, ys) of the new person position can be calculated using, for example, the following equation (5).

そして、新たな人位置を中心とした移動体キャンセル範囲内に存在する未知グリッド(図9(c)では、座標pn(xn,yn)のグリッド)にマッピングされている情報を、障害物がない床面グリッドと同じ“0”とする。これにより、新たな人位置を中心とし、設定した半径rの円、すなわち、下式(6)の関係が成り立つ移動不可能領域内のグリッドを、自律移動ロボット100が移動することができる移動可能領域とすることができる(図9(c)参照)。   Then, the information mapped to the unknown grid (in FIG. 9C, the grid of coordinates pn (xn, yn)) existing within the moving object cancellation range centered on the new person position is free of obstacles. Set to “0”, the same as the floor grid. As a result, the autonomous mobile robot 100 can move around the circle of the set radius r around the new person position, that is, the grid in the non-movable area where the relationship of the following equation (6) holds. An area can be used (see FIG. 9C).

以降、上述の手順5を繰り返し、新たな人位置の座標ps(xs,ys)によって、陰部の長さLsまでに存在する未知グリッドを順次、床面グリッドに変更する。なお、手順5の繰り返しは、例えば、最初に、本移動体陰キャンセルを行う前の人位置と天井LRF10の位置の距離Lhを距離L1とする。そして、距離Lを、例えば、100[mm]とした場合、下式(7)のように、順次、距離L1を更新しながら、距離L1が、下式(8)で表される距離L2となるまで、手順5を繰り返す。   Thereafter, the above-described procedure 5 is repeated, and the unknown grid existing up to the shadow length Ls is sequentially changed to the floor grid according to the coordinates ps (xs, ys) of the new person position. In the repetition of the procedure 5, for example, first, the distance Lh between the position of the person and the position of the ceiling LRF 10 before performing the moving body shadow cancellation is set as the distance L1. When the distance L is, for example, 100 [mm], the distance L1 is updated with the distance L2 represented by the following equation (8) while sequentially updating the distance L1 as the following equation (7). Repeat step 5 until

なお、本第1の実施形態の経路生成システム1では、上述のように、天井LRF10の設置位置は、自律移動ロボット100の移動領域内で事前に校正(調整)されているため、本移動体陰キャンセル方法における、例えば、人位置に最も近い天井LRF10が設置されている高さHsや、設置位置の座標(x1,y1)などの値は、全て自律移動ロボット100の移動領域内の座標を基準とした値である。   In the route generation system 1 according to the first embodiment, as described above, the installation position of the ceiling LRF 10 is calibrated (adjusted) in advance within the movement area of the autonomous mobile robot 100, and thus the moving body. In the shadow cancellation method, for example, values such as the height Hs at which the ceiling LRF 10 closest to the person position is installed and the coordinates (x1, y1) of the installation position are all coordinates in the movement area of the autonomous mobile robot 100. This is the standard value.

なお、上述した第1の移動体位置キャンセル方法において、過去のグリッドマップの移動不可能領域の情報も考慮した上で、移動体によるものであると判定された同一のラベルを持つ全ての移動不可能領域をキャンセルした場合には、本移動体陰キャンセル方法による移動体の陰の部分のキャンセルを行わないようにすることもできる。   In the first moving object position canceling method described above, all moving objects having the same label determined to be due to the moving object are also taken into consideration in consideration of information on the non-movable area of the past grid map. When the possible area is canceled, it is also possible not to cancel the shadow portion of the moving body by the moving body shadow canceling method.

<移動経路生成処理>
次に、本第1の実施形態の経路生成システム1のおける自律移動ロボット100の移動経路の生成方法について説明する。図10は、本第1の実施形態の経路生成システム1における移動経路生成処理の処理手順を示したフローチャートである。なお、天井LRF10は経路生成システム1の稼働に際して事前に所定の高さに設置され、天井LRF10の設置高さと、設置姿勢とは、事前に校正(調整)されているものとして説明を行う。また、図10に示した移動経路生成の処理手順においては、図8に示したように、複数の天井LRF10から入力された測距点データをグリッド変換部331がマージして、自律移動ロボット100の移動領域の全てがグリッドマップに変換されている場合の処理手順について説明する。
<Move route generation process>
Next, a method for generating a movement route of the autonomous mobile robot 100 in the route generation system 1 according to the first embodiment will be described. FIG. 10 is a flowchart showing a processing procedure of the movement route generation process in the route generation system 1 of the first embodiment. Note that the ceiling LRF 10 is installed at a predetermined height in advance when the route generation system 1 is operated, and the installation height and the installation posture of the ceiling LRF 10 are described as being calibrated (adjusted) in advance. Further, in the moving route generation processing procedure shown in FIG. 10, as shown in FIG. 8, the grid conversion unit 331 merges the ranging point data input from the plurality of ceiling LRFs 10, and the autonomous mobile robot 100. A processing procedure in the case where all of the moving areas are converted into a grid map will be described.

経路生成システム1が稼働すると、まず、ステップS100において、距離情報取得部310は、天井LRF10がレーザビームを照射して観測範囲内の障害物をスキャンした情報を取得し、障害物の距離データを障害物位置抽出部330に出力する。また、距離情報取得部320は、側方LRF20がレーザビームを照射して観測範囲内の障害物をスキャンした情報を取得し、障害物の距離データを移動体位置抽出部340に出力する。   When the route generation system 1 operates, first, in step S100, the distance information acquisition unit 310 acquires information obtained by the ceiling LRF 10 irradiating the laser beam to scan the obstacle in the observation range, and the obstacle distance data is obtained. Output to the obstacle position extraction unit 330. Further, the distance information acquisition unit 320 acquires information obtained by the side LRF 20 irradiating the laser beam to scan the obstacle within the observation range, and outputs the obstacle distance data to the moving body position extraction unit 340.

続いて、ステップS200において、障害物位置抽出部330は、距離情報取得部310から入力された距離データに基づいて、障害物の測距点データを算出する。そして、障害物位置抽出部330内のグリッド変換部331は、自律移動ロボット100の移動領域をグリッドマップに、測距点データで表された物体(障害物)の位置の情報を登録する。   Subsequently, in step S200, the obstacle position extraction unit 330 calculates distance measurement point data of the obstacle based on the distance data input from the distance information acquisition unit 310. Then, the grid conversion unit 331 in the obstacle position extraction unit 330 registers information on the position of the object (obstacle) represented by the distance measurement point data in the grid map of the movement area of the autonomous mobile robot 100.

続いて、ステップS300において、移動体位置抽出部340は、距離情報取得部320から入力された距離データに基づいて、移動体候補データを算出し、障害物位置抽出部330に出力する。そして、ステップS400において、障害物位置抽出部330内の移動体位置キャンセル部332は、移動体位置抽出部340から入力された移動体候補データに基づいて、移動している移動体を判定する。   Subsequently, in step S <b> 300, the moving object position extraction unit 340 calculates moving object candidate data based on the distance data input from the distance information acquisition unit 320, and outputs it to the obstacle position extraction unit 330. In step S400, the moving object position canceling unit 332 in the obstacle position extracting unit 330 determines a moving moving object based on the moving object candidate data input from the moving object position extracting unit 340.

続いて、ステップS500において、移動体位置キャンセル部332は、判定した移動体による移動不可能領域のグリッドをキャンセルする。そして、ステップS600において、障害物位置抽出部330内の移動体陰キャンセル部333は、判定した移動体の陰部の移動不可能領域のグリッドをキャンセルする。   Subsequently, in step S500, the moving body position canceling unit 332 cancels the grid of the non-movable area by the determined moving body. Then, in step S600, the moving object shadow canceling unit 333 in the obstacle position extracting unit 330 cancels the grid of the determined non-movable area in the shadow of the moving object.

続いて、ステップS700において、障害物位置抽出部330は、全ての移動体による移動不可能領域のキャンセルが完了したか否かを判断する。全ての移動体による移動不可能領域のキャンセルが完了した場合は、ステップS800に進む。また、全ての移動体による移動不可能領域のキャンセルが完了していない場合は、ステップS300に戻って、距離情報取得部320から入力された距離データに基づいた移動体候補データの算出、移動している移動体の判定、および移動体による移動不可能領域のキャンセルを繰り返す。   Subsequently, in step S700, the obstacle position extraction unit 330 determines whether or not cancellation of the immovable area by all the moving bodies has been completed. When the cancellation of the immovable area by all the moving objects is completed, the process proceeds to step S800. If cancellation of the immovable area by all the moving objects has not been completed, the process returns to step S300 to calculate and move the moving object candidate data based on the distance data input from the distance information acquisition unit 320. The determination of the moving body and the cancellation of the non-movable area by the moving body are repeated.

続いて、ステップS800において、障害物位置抽出部330は、移動体による移動不可能領域のグリッドをキャンセルした移動可能領域情報(グリッドマップ)を生成し、生成した移動可能領域情報を移動経路生成部40に出力する。   Subsequently, in step S800, the obstacle position extraction unit 330 generates movable region information (grid map) in which the grid of the non-movable region by the moving body is canceled, and the generated movable region information is used as the movement route generation unit. Output to 40.

続いて、ステップS900において、移動経路生成部40は、障害物位置抽出部330から入力された移動可能領域情報に基づいて、自律移動ロボット100の移動経路を生成する。なお、本第1の実施形態の経路生成システム1において自律移動ロボット100の移動経路を生成する方法は、例えば、RRT−connectなど、従来から用いられている移動経路の生成方法を用いることとする。また、例えば、自律移動ロボット100の現在の位置と移動先の目的地とを直線で結んだ経路を移動経路とする。ここで、移動経路上に障害物が存在する場合には、障害物の手前で障害物を回避することができる安全な地点を算出し、この算出した地点から移動可能領域が広い方向に障害物を回避する経路を生成する。そして、障害物の回避が完了した地点と目的地とを再び直線で結んだ経路を、新たな移動経路とする。さらに、新たな移動経路上に障害物が存在する場合には、上述のように障害物を回避することができる経路を生成する。このような移動経路の生成を繰り返して、最終的な移動経路を生成する。   Subsequently, in step S900, the movement path generation unit 40 generates a movement path of the autonomous mobile robot 100 based on the movable area information input from the obstacle position extraction unit 330. In addition, as a method for generating the movement route of the autonomous mobile robot 100 in the route generation system 1 of the first embodiment, a conventionally used movement route generation method such as RRT-connect is used. . Further, for example, a route connecting the current position of the autonomous mobile robot 100 and the destination of the movement destination with a straight line is set as a movement route. Here, when there are obstacles on the moving route, calculate a safe point where the obstacle can be avoided before the obstacle, and from the calculated point, the obstacle can be moved in a wider direction. Generate a route that avoids Then, a route that connects the point where the obstacle avoidance has been completed and the destination again with a straight line is defined as a new travel route. Furthermore, when an obstacle exists on the new movement route, a route that can avoid the obstacle is generated as described above. Such a movement route generation is repeated to generate a final movement route.

上記に述べたように、本第1の実施形態の経路生成システム1によれば、側方LRF20が観測した予め定められた高さの位置の物体の情報に基づいて、移動可能領域抽出部30が、自律移動ロボット100の移動範囲内で移動している障害物(移動体)を検出することができる。そして、移動体による移動不可能領域の情報をキャンセルすることができる。これにより、自律移動ロボット100が移動するための移動経路を生成する際に、目的地まで効率良く移動することができる移動経路を生成することができる。   As described above, according to the route generation system 1 of the first embodiment, the movable region extraction unit 30 is based on the information of the object at the position of the predetermined height observed by the side LRF 20. However, it is possible to detect an obstacle (moving body) moving within the movement range of the autonomous mobile robot 100. Then, the information on the non-movable area by the moving body can be canceled. Thereby, when the movement path | route for the autonomous mobile robot 100 to move is produced | generated, the movement path | route which can move efficiently to the destination can be produced | generated.

なお、生成した移動経路の周辺には、人などの移動体が存在する場合がある。このような場合は、移動体の移動速度や移動方向を予測して、移動経路を生成するための移動可能領域情報を生成することが望ましい。例えば、移動体位置抽出部340から入力された現在の移動体候補データと過去の移動体候補データとに基づいて、移動体が移動している速度を算出し、算出した移動速度vが予め定められた移動速度vaよりも速い場合は、自律移動ロボット100が移動体の位置まで移動する間に生成した移動経路上から離れると判断し、移動体による移動不可能領域の情報をキャンセルする。また、算出した移動速度vが予め定められた移動速度vaよりも遅い場合には、自律移動ロボット100が移動体の位置まで移動する間に生成した移動経路の周辺に滞留(固定)すると判断し、移動体による移動不可能領域の情報のキャンセルを行わない。   There may be a moving body such as a person around the generated movement route. In such a case, it is desirable to generate the movable area information for generating the movement route by predicting the moving speed and moving direction of the moving body. For example, the moving speed of the moving body is calculated based on the current moving body candidate data and the past moving body candidate data input from the moving body position extracting unit 340, and the calculated moving speed v is determined in advance. If it is faster than the movement speed va, it is determined that the autonomous mobile robot 100 leaves the movement path generated while moving to the position of the moving body, and the information on the non-movable area by the moving body is canceled. Further, when the calculated moving speed v is slower than the predetermined moving speed va, it is determined that the autonomous mobile robot 100 stays (fixes) around the moving path generated while moving to the position of the moving body. The information on the non-movable area is not canceled by the moving body.

図11は、本第1の実施形態の経路生成システム1における移動体のキャンセル処理を説明する図である。図11では、生成される自律移動ロボット100の移動経路の周辺に、移動体である「人」が存在している。そして、それぞれの「人」の移動速度は、移動速度v1〜v4である。移動可能領域抽出部30は、それぞれの移動体の移動速度v1〜v4と予め定められた移動速度vaとを比較し、移動体による移動不可能領域の情報をキャンセルするか否かを判断する。図11では、移動速度v1(v1<Va)である移動体と、移動速度v2(v2<Va)である移動体による移動不可能領域をキャンセルせず、移動速度v3(v3>Va)である移動体と、移動速度v4(v4>Va)である移動体による移動不可能領域をキャンセルする場合を表している。   FIG. 11 is a diagram illustrating a canceling process for a moving object in the route generation system 1 according to the first embodiment. In FIG. 11, a “person” that is a moving object exists around the movement route of the generated autonomous mobile robot 100. The moving speed of each “person” is moving speeds v1 to v4. The movable area extraction unit 30 compares the moving speeds v1 to v4 of the respective moving bodies with a predetermined moving speed va, and determines whether or not to cancel the information on the non-movable areas by the moving bodies. In FIG. 11, the moving speed v3 (v3> Va) is not canceled without canceling the non-movable area by the moving body having the moving speed v1 (v1 <Va) and the moving body having the moving speed v2 (v2 <Va). This represents a case where a non-movable area is canceled by a moving body and a moving body having a moving speed v4 (v4> Va).

なお、予め定める移動速度vaは、移動体の位置に移動するまでの自律移動ロボット100の速度や、自律移動ロボット100と移動体との距離に基づいて定めることができる。また、自律移動ロボット100の移動経路の周辺に移動体が滞留(固定)していると判断した場合において、移動体が滞留している時間を計測し、計測した滞留時間に基づいて移動不可能領域の情報をキャンセルするか否かを判断することも考えられる。   The predetermined moving speed va can be determined based on the speed of the autonomous mobile robot 100 until the mobile body 100 moves to the position of the mobile body and the distance between the autonomous mobile robot 100 and the mobile body. In addition, when it is determined that the moving body is staying (fixed) around the movement path of the autonomous mobile robot 100, the time during which the moving body stays is measured, and the mobile body cannot move based on the measured staying time. It may be possible to determine whether or not to cancel the area information.

<第2の実施形態>
次に、本発明の別の実施形態について説明する。図12は、本発明の第2の実施形態による経路生成システムの概略構成を示したブロック図である。図12において経路生成システム2は、天井LRF10と、移動可能領域抽出部31と、移動経路生成部40とを備えている。移動可能領域抽出部31は、天井LRF10に対応した距離情報取得部310と、天井LRF10に対応した光量情報取得部370と、障害物位置抽出部330と、移動体位置抽出部380とを備えている。また、障害物位置抽出部330は、グリッド変換部331と、移動体位置キャンセル部332と、移動体陰キャンセル部333とを備えている。
<Second Embodiment>
Next, another embodiment of the present invention will be described. FIG. 12 is a block diagram showing a schematic configuration of a route generation system according to the second exemplary embodiment of the present invention. In FIG. 12, the route generation system 2 includes a ceiling LRF 10, a movable region extraction unit 31, and a movement route generation unit 40. The movable region extraction unit 31 includes a distance information acquisition unit 310 corresponding to the ceiling LRF10, a light amount information acquisition unit 370 corresponding to the ceiling LRF10, an obstacle position extraction unit 330, and a moving body position extraction unit 380. Yes. The obstacle position extraction unit 330 includes a grid conversion unit 331, a moving body position cancellation unit 332, and a moving body shadow cancellation unit 333.

なお、図12に示した経路生成システム2は、図1に示した経路生成システム1に備えた側方LRF20が削除されている。さらに、図2に示した経路生成システム1に備えた移動可能領域抽出部30が移動可能領域抽出部31に変更されているが、より詳細には、距離情報取得部320および移動体位置抽出部340が、光量情報取得部370および移動体位置抽出部380に変更されているのみである。従って、以下の説明においては、図2に示した経路生成システム1の構成要素と同様の構成要素には、同一の符号を付与して説明を省略する。   In the route generation system 2 shown in FIG. 12, the side LRF 20 provided in the route generation system 1 shown in FIG. 1 is deleted. Further, the movable area extraction unit 30 provided in the route generation system 1 shown in FIG. 2 has been changed to the movable area extraction unit 31, and more specifically, the distance information acquisition unit 320 and the moving body position extraction unit. 340 is only changed to a light amount information acquisition unit 370 and a moving body position extraction unit 380. Therefore, in the following description, the same components as those of the route generation system 1 shown in FIG.

経路生成システム2は、天井LRF10によって自律移動ロボットが移動する移動領域内の障害物と、移動領域内に存在する移動体(例えば、人や他の自律移動ロボットなどの移動体、および自律移動ロボット100自身)を検出する。そして、経路生成システム2は、天井LRF10が検出した全ての障害物の領域から、検出した移動体(移動している障害物)の領域を除いた領域を、自律移動ロボット100の移動可能領域として抽出し、抽出した移動可能領域の情報に基づいて、自律移動ロボット100の移動経路を生成する。   The route generation system 2 includes an obstacle in a moving area where the autonomous mobile robot moves by the ceiling LRF 10, a moving body (for example, a moving body such as a person or another autonomous mobile robot, and an autonomous mobile robot) 100 itself). Then, the route generation system 2 sets, as the movable region of the autonomous mobile robot 100, the region obtained by removing the region of the detected moving body (moving obstacle) from the region of all obstacles detected by the ceiling LRF 10. Based on the extracted information on the movable area, the movement path of the autonomous mobile robot 100 is generated.

移動可能領域抽出部31は、天井LRF10から入力された反射波の情報に基づいて、自律移動ロボット100の移動領域内の障害物を抽出する。そして、抽出した全ての障害物から移動体であると判断された障害物を除いた障害物の位置情報、すなわち、自律移動ロボット100の移動領域内に固定されている障害物の位置情報を、移動経路生成部40に出力する。   The movable area extraction unit 31 extracts an obstacle in the movement area of the autonomous mobile robot 100 based on the information of the reflected wave input from the ceiling LRF 10. Then, the position information of the obstacle excluding the obstacle determined to be a moving body from all the extracted obstacles, that is, the position information of the obstacle fixed in the movement area of the autonomous mobile robot 100, The data is output to the movement route generation unit 40.

光量情報取得部370は、天井LRF10から入力された反射波の情報に基づいて、レーザビームを反射した物体による反射波の光量を算出する。そして、算出した反射波の光量の情報と、天井LRF10と物体との距離の情報と、天井LRF10が照射したレーザビームのスキャン角度の情報とを、光量データとして移動体位置抽出部380に出力する。   The light amount information acquisition unit 370 calculates the light amount of the reflected wave by the object that reflects the laser beam based on the reflected wave information input from the ceiling LRF 10. Then, the calculated light amount information of the reflected wave, the information on the distance between the ceiling LRF 10 and the object, and the information on the scan angle of the laser beam irradiated by the ceiling LRF 10 are output as light amount data to the moving body position extracting unit 380. .

移動体位置抽出部380は、光量情報取得部370から入力された光量データに含まれる反射波の光量の情報およびレーザビームのスキャン角度の情報に基づいて、天井LRF10が観測した物体の形状が、自律移動ロボット100の移動領域内を移動する予め想定された移動体の形状であるか否かを判定する。   The moving body position extraction unit 380 is configured such that the shape of the object observed by the ceiling LRF 10 is based on the information on the reflected light amount and the laser beam scan angle information included in the light amount data input from the light amount information acquisition unit 370. It is determined whether or not the shape of a moving body assumed in advance moving in the movement area of the autonomous mobile robot 100 is determined.

ここで、予め想定された移動体が「人」である場合における移動体の判定方法の一例について説明する。図13は、本第2の実施形態の移動体位置抽出部380における移動体の判定方法の例を説明する図である。天井LRF10から入力された反射波の光量によって、例えば、図13(a)に示したような移動体(人)などの形状を濃淡の画像で表すことができる。移動体位置抽出部380は、光量情報取得部370から入力された光量データ(濃淡画像)が、予め想定される移動体(人)の光量データであるか否かを判定する。なお、本第2の実施形態の経路生成システム2において予め想定される移動体(人)か否かを判定する方法は、従来から用いられているパターンマッチングやテンプレートマッチングの方法を用いることとする。このときのテンプレートは、テンプレートとなる移動体(人)の位置の水平平面座標(x,y)と高さ、およびレーザビームスキャンの角度に応じて作成しても良い。あるいは、光量情報取得部370から入力される光量データの代わりに、距離情報取得部310が出力する距離データを利用して移動体(人)を検出しても良い。その場合、例えば、図13(b)に示したように、「人」の肩付近から頭の先までの形状が認識される。そして、この場合のテンプレートは、光量データではなく距離データによって作成される。   Here, an example of a method for determining a moving object when the assumed moving object is “person” will be described. FIG. 13 is a diagram illustrating an example of a moving object determination method in the moving object position extraction unit 380 according to the second embodiment. For example, the shape of a moving body (person) as shown in FIG. 13A can be represented by a grayscale image based on the amount of reflected waves input from the ceiling LRF 10. The moving body position extraction unit 380 determines whether or not the light amount data (grayscale image) input from the light amount information acquisition unit 370 is light amount data of a moving body (person) assumed in advance. In addition, as a method for determining whether or not a mobile object (person) is assumed in advance in the route generation system 2 of the second embodiment, a conventionally used pattern matching or template matching method is used. . The template at this time may be created according to the horizontal plane coordinates (x, y) and height of the position of the moving body (person) serving as the template, and the angle of the laser beam scan. Alternatively, instead of the light amount data input from the light amount information acquisition unit 370, the moving object (person) may be detected using distance data output from the distance information acquisition unit 310. In that case, for example, as shown in FIG. 13B, the shape from the vicinity of the shoulder of the “person” to the tip of the head is recognized. The template in this case is created not by the light amount data but by the distance data.

移動体位置抽出部380は、光量情報取得部370から入力された光量データが、予め想定される移動体(人)の光量データであると判定された場合に、移動体の中心位置を表す2次元の座標(x,y)を算出し、算出した移動体の中心位置の座標を表す移動体候補データを、障害物位置抽出部330に出力する。例えば、図13(b)においては、頭の先の位置の座標を表すデータを、移動体候補データとして障害物位置抽出部330に出力する。   The moving body position extraction unit 380 indicates the center position of the moving body when it is determined that the light amount data input from the light amount information acquisition unit 370 is light amount data of a moving body (person) assumed in advance. Dimensional coordinates (x, y) are calculated, and moving object candidate data representing the coordinates of the calculated center position of the moving object is output to the obstacle position extracting unit 330. For example, in FIG. 13B, data representing the coordinates of the position of the tip of the head is output to the obstacle position extraction unit 330 as moving object candidate data.

障害物位置抽出部330は、距離情報取得部310から入力された距離データに基づいて、測距点データを算出し、障害物位置抽出部330内の移動体位置キャンセル部332は、移動体位置抽出部380から入力された移動体候補データと、以前に入力された移動体候補データとに基づいて、グリッドマップに登録されている物体が移動体であるか否かを判定する。そして、障害物位置抽出部330は、物体が移動体であると判定された場合には、グリッド変換部331によって登録されたグリッドマップ内の物体の登録の削除(キャンセル)、および移動体陰キャンセル部333による移動体の陰を表す情報の削除(キャンセル)を行った移動可能領域情報を、移動可能領域抽出部31が抽出した移動可能領域情報として移動経路生成部40に出力する。   The obstacle position extraction unit 330 calculates distance measurement point data based on the distance data input from the distance information acquisition unit 310, and the moving body position cancellation unit 332 in the obstacle position extraction unit 330 Based on the moving object candidate data input from the extraction unit 380 and the previously input moving object candidate data, it is determined whether or not the object registered in the grid map is a moving object. When it is determined that the object is a moving object, the obstacle position extraction unit 330 deletes (cancels) registration of the object in the grid map registered by the grid conversion unit 331 and cancels the moving object shadow. The movable area information in which the information representing the shadow of the moving object is deleted (cancelled) by the unit 333 is output to the movement route generation unit 40 as the movable area information extracted by the movable area extraction unit 31.

そして、移動経路生成部40は、移動可能領域抽出部31から入力された移動可能領域情報に基づいて、自律移動ロボット100の移動経路を生成する。   Then, the movement path generation unit 40 generates a movement path of the autonomous mobile robot 100 based on the movable area information input from the movable area extraction unit 31.

上記に述べたように、本第2の実施形態の経路生成システム2によれば、天井LRF10が観測した予め想定される移動体の情報に基づいて、移動可能領域抽出部31が、自律移動ロボット100の移動範囲内で移動している障害物(移動体)を検出することができる。そして、移動体による移動不可能領域の情報をキャンセルすることができる。これにより、自律移動ロボット100が移動するための移動経路を生成する際に、目的地まで効率良く移動することができる移動経路を生成することができる。   As described above, according to the route generation system 2 of the second embodiment, the movable region extraction unit 31 is configured to be an autonomous mobile robot based on the information on the assumed moving body observed by the ceiling LRF 10. Obstacles (moving bodies) that are moving within the 100 moving range can be detected. Then, the information on the non-movable area by the moving body can be canceled. Thereby, when the movement path | route for the autonomous mobile robot 100 to move is produced | generated, the movement path | route which can move efficiently to the destination can be produced | generated.

上記に述べたとおり、本発明を実施するための形態によれば、測距センサを自律移動ロボット100の移動領域内に設置することによって、人や他の自律移動ロボットなど、自律移動ロボット100の移動経路上から移動する移動体を障害物として抽出することなく、自律移動ロボット100の移動において障害となる障害物を検出することができる。これにより、自律移動ロボット100が目的地まで効率良く移動することができる移動経路を生成することができる。   As described above, according to the mode for carrying out the present invention, by installing the distance measuring sensor in the movement area of the autonomous mobile robot 100, the autonomous mobile robot 100 such as a person or another autonomous mobile robot can be used. An obstacle that becomes an obstacle in the movement of the autonomous mobile robot 100 can be detected without extracting a moving body moving on the movement route as an obstacle. Thereby, the movement path | route which the autonomous mobile robot 100 can move to a destination efficiently can be produced | generated.

また、本発明の移動可能領域抽出部30または移動可能領域抽出部31によって抽出された移動可能領域情報のみで移動経路を生成することができる。これにより、自律移動ロボット100自身に障害物を検出する装置を取り付けなくても自律移動ロボット100が安全に移動することができる。   In addition, it is possible to generate a movement route only from the movable area information extracted by the movable area extraction unit 30 or the movable area extraction unit 31 of the present invention. Accordingly, the autonomous mobile robot 100 can safely move without attaching an obstacle detection device to the autonomous mobile robot 100 itself.

なお、本実施形態においては、移動している障害物(移動体)として「人」を検出する場合を例として説明したが、移動体は、本発明を実施するための形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲において様々な移動体を想定して検出することができる。   In this embodiment, the case where “person” is detected as a moving obstacle (moving body) has been described as an example. However, the moving body is limited to a mode for carrying out the present invention. Instead, various mobile objects can be detected within a range not departing from the gist of the present invention.

また、本実施形態においては、側方LRF20を予め定めた1つの高さの位置に設置した場合について説明したが、側方LRF20を設置する高さは、本発明を実施するための形態に限定されるものではなく、側方LRF20を同じ場所に複数設置することによって、複数の高さの障害物を検出することによって、様々な高さの移動体を検出することができる。また、本実施形態においては、「人」が予め想定される移動体である場合について説明したが、予め想定される移動体は、本発明を実施するための形態に限定されるものではなく、予め想定される移動体の形状を、様々な移動体に対応させて複数設定することによって、様々な移動体を検出することができる。   Further, in the present embodiment, the case where the side LRF 20 is installed at a predetermined height position has been described. However, the height at which the side LRF 20 is installed is limited to the mode for carrying out the present invention. Instead, by installing a plurality of side LRFs 20 at the same location, it is possible to detect moving objects of various heights by detecting obstacles having a plurality of heights. Moreover, in this embodiment, although the case where "person" is the mobile body assumed beforehand is demonstrated, the mobile body assumed beforehand is not limited to the form for implementing this invention, Various moving bodies can be detected by setting a plurality of shapes of the moving bodies assumed in advance corresponding to the various moving bodies.

また、本実施形態においては、自律移動ロボット100自身も障害物として認識され、障害物位置抽出部330が、自律移動ロボット100以外の移動体と同様に判定することによって、自律移動ロボット100自身による移動不可能領域も削除(キャンセル)される。この自律移動ロボット100自身による移動不可能領域を削除(キャンセル)する方法は、本発明を実施するための形態に限定されるものではなく、自律移動ロボット100自身を直接的に判別することによって、自律移動ロボット100自身による移動不可能領域を容易に削除(キャンセル)する方法も考えられる。例えば、自律移動ロボット100自身に備えているジャイロセンサなどの各種センサによる自律移動ロボット100の自己位置(オドメトリ)情報や、GPS(Global Positioning System)の情報などを経路生成システムに通知することによって、経路生成システムが自律移動ロボット100自身の位置情報を算出し、経路生成システムが算出した自律移動ロボット100自身の位置情報に基づいて移動不可能領域を削除(キャンセル)することもできる。また、例えば、自律移動ロボット100の頭の先に、レーザビームを高い効率で反射する反射シートなどを貼り付けることによって、レーザビームの反射波の光量から自律移動ロボット100自身とその他の移動体とを区別し、経路生成システムが区別した自律移動ロボット100自身による移動不可能領域を削除(キャンセル)することもできる。   In the present embodiment, the autonomous mobile robot 100 itself is also recognized as an obstacle, and the obstacle position extraction unit 330 makes a determination in the same manner as a moving body other than the autonomous mobile robot 100, whereby the autonomous mobile robot 100 itself Unmovable areas are also deleted (cancelled). The method of deleting (cancelling) the non-movable area by the autonomous mobile robot 100 itself is not limited to the mode for carrying out the present invention, but by directly determining the autonomous mobile robot 100 itself, A method of easily deleting (cancelling) a non-movable area by the autonomous mobile robot 100 itself is also conceivable. For example, by notifying the route generation system of self-position (odometry) information of the autonomous mobile robot 100 by various sensors such as a gyro sensor provided in the autonomous mobile robot 100 itself, GPS (Global Positioning System) information, etc. The route generation system can calculate the position information of the autonomous mobile robot 100 itself, and the non-movable area can be deleted (cancelled) based on the position information of the autonomous mobile robot 100 itself calculated by the route generation system. In addition, for example, by attaching a reflection sheet or the like that reflects the laser beam with high efficiency to the tip of the autonomous mobile robot 100, the autonomous mobile robot 100 itself and other moving objects can be determined from the amount of reflected waves of the laser beam. And the non-movable area by the autonomous mobile robot 100 itself identified by the route generation system can be deleted (cancelled).

また、本実施形態においては、移動可能領域抽出部30または移動可能領域抽出部31が抽出する移動可能領域情報を、天井LRF10が観測範囲内を観測する毎に移動経路生成部40に出力する場合について説明したが、移動可能領域情報が変更された情報、すなわち、移動可能領域情報の差分情報を出力するようにすることもできる。この場合、例えば、移動可能領域抽出部30が前回移動経路生成部40に出力した移動可能領域情報を保持し、保持している移動可能領域情報と今回移動経路生成部40に出力する予定の移動可能領域情報との差分のみを移動経路生成部40に出力する。これにより、例えば、移動可能領域抽出部30と移動経路生成部40とが通信によって移動可能領域情報の受け渡しを行っている場合において、移動可能領域抽出部30と移動経路生成部40との間の通信効率を向上することができる。   In the present embodiment, the movable region information extracted by the movable region extraction unit 30 or the movable region extraction unit 31 is output to the movement route generation unit 40 every time the ceiling LRF 10 observes the observation range. However, it is also possible to output information in which the movable area information is changed, that is, difference information of the movable area information. In this case, for example, the movable area extraction unit 30 holds the movable area information output to the movement path generation unit 40 last time, and holds the movable area information and the movement to be output to the current movement path generation unit 40. Only the difference from the possible area information is output to the movement route generation unit 40. Thereby, for example, when the movable region extraction unit 30 and the movement route generation unit 40 are transferring the movable region information by communication, the transfer between the movable region extraction unit 30 and the movement route generation unit 40 is performed. Communication efficiency can be improved.

なお、本実施形態においては、測距センサがレーザレンジファインダである場合について説明したが、その他の測距センサを用いても同様の移動可能領域を抽出することができる。例えば、ステレオカメラなど、画像データから物体を検出することによって、移動可能領域情報を移動経路生成部40に出力することもできる。   In the present embodiment, the case where the distance measuring sensor is a laser range finder has been described. However, a similar movable region can be extracted using other distance measuring sensors. For example, the movable region information can be output to the movement path generation unit 40 by detecting an object from image data such as a stereo camera.

なお、図2に示した移動可能領域抽出部30の各構成要素による処理、図10に示した経路生成システム1の各処理ステップ、または、図12に示した移動可能領域抽出部31の各構成要素による処理を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、当該記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、経路生成システム1における移動可能領域抽出部30、または経路生成システム2における移動可能領域抽出部31に係る上述した種々の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。   The processing by each component of the movable area extraction unit 30 shown in FIG. 2, each processing step of the route generation system 1 shown in FIG. 10, or each configuration of the movable area extraction unit 31 shown in FIG. A program for realizing processing by elements is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into the computer system and executed to extract a movable area in the route generation system 1 The above-described various processes relating to the movable region extraction unit 31 in the unit 30 or the route generation system 2 may be performed. Here, the “computer system” may include an OS and hardware such as peripheral devices. Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used. The “computer-readable recording medium” means a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, etc. This is a storage device.

さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。   Further, the “computer-readable recording medium” refers to a volatile memory (for example, DRAM (Dynamic) in a computer system serving as a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. Random Access Memory)) that holds a program for a certain period of time is also included. The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient.

以上、本発明の実施形態について、図面を参照して説明してきたが、具体的な構成はこの実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲においての種々の変更も含まれる。   The embodiment of the present invention has been described above with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes various modifications within the scope of the present invention. It is.

1,2・・・経路生成システム
10・・・天井LRF(第1の距離センサ、距離センサ)
20・・・側方LRF(第2の距離センサ)
30・・・移動可能領域抽出部(移動可能領域抽出装置)
310・・・距離情報取得部(第1の障害物検出手段)
320・・・距離情報取得部(第2の障害物検出手段)
330・・・障害物位置抽出部(第1の障害物検出手段,障害物領域抽出手段)
331・・・グリッド変換部(第1の障害物検出手段)
332・・・移動体位置キャンセル部(障害物領域抽出手段)
333・・・移動体陰キャンセル部(障害物領域抽出手段)
340・・・移動体位置抽出部(第2の障害物検出手段)
31・・・移動可能領域抽出部(移動可能領域抽出装置)
370・・・光量情報取得部(形状検出手段)
380・・・移動体位置抽出部(形状検出手段)
40・・・移動経路生成部(経路生成手段)
100・・・自律移動ロボット
1, 2 ... Route generation system 10 ... Ceiling LRF (first distance sensor, distance sensor)
20 ... Side LRF (second distance sensor)
30... Movable area extraction unit (movable area extraction device)
310 ... Distance information acquisition unit (first obstacle detection means)
320 ... Distance information acquisition unit (second obstacle detection means)
330: Obstacle position extraction unit (first obstacle detection means, obstacle area extraction means)
331 ... Grid converter (first obstacle detection means)
332... Moving body position canceling unit (obstacle area extracting means)
333 ... Moving object shadow canceling unit (obstacle region extracting means)
340 ... Moving object position extraction unit (second obstacle detection means)
31... Movable area extraction unit (movable area extraction device)
370 ... Light quantity information acquisition unit (shape detection means)
380 ... Moving body position extraction unit (shape detection means)
40... Travel route generation unit (route generation means)
100: Autonomous mobile robot

Claims (11)

自律的に移動する移動体が移動する空間内の予め定められた第1の高さから前記空間の下方を観測するように設置された第1の距離センサと、前記空間内の予め定められた前記第1の高さより低い第2の高さから前記空間の側方を観測するように設置された第2の距離センサと、によって前記移動体が移動する前記空間内に存在する障害物を検出し、該検出した障害物の領域の情報に基づいて、前記移動体が移動することができる移動可能領域の情報を抽出する移動可能領域抽出装置において、
前記第1の距離センサが観測した距離の情報に基づいて、前記障害物の領域を表す第1の障害物領域を検出する第1の障害物検出手段と、
前記第2の距離センサが観測した距離の情報に基づいて、前記障害物の領域を表す第2の障害物領域を検出する第2の障害物検出手段と、
前記第2の障害物領域に基づいて継続的に移動している前記障害物を移動物として検出し、前記第1の障害物領域から、該検出した前記移動物の領域を表す前記第1の障害物領域を除いた領域を、移動不可能領域と判定することにより、前記移動体が移動することができる移動可能領域抽出する障害物領域抽出手段と、
を備える、
ことを特徴とする移動可能領域抽出装置。
A first distance sensor installed so as to observe a lower portion of the space from a predetermined first height in the space in which the autonomously moving mobile body moves; and a predetermined in the space An obstacle present in the space in which the movable body moves is detected by a second distance sensor installed so as to observe the side of the space from a second height lower than the first height. In the movable area extracting device that extracts information on the movable area where the moving body can move based on the detected area information of the obstacle,
First obstacle detection means for detecting a first obstacle region representing the obstacle region based on information on a distance observed by the first distance sensor;
Second obstacle detection means for detecting a second obstacle region representing the obstacle region based on information on a distance observed by the second distance sensor;
The obstacle that is continuously moving based on the second obstacle area is detected as a moving object, and the first obstacle that represents the area of the detected moving object is detected from the first obstacle area. Obstacle area extraction means for extracting a movable area where the moving body can move by determining an area excluding the obstacle area as an immovable area ;
Comprising
A movable region extraction apparatus characterized by the above.
前記第2の障害物検出手段は、
前記第2の距離センサが前記障害物を観測したときの前記距離の情報に基づいて、前記障害物の位置を表す障害物位置を抽出し、
前記障害物領域抽出手段は、
前記第2の障害物検出手段が抽出した前記障害物位置と、以前に前記第2の障害物検出手段が抽出した過去の障害物位置とに基づいて前記移動物を検出し、該検出した移動物の位置を表す前記障害物位置を含む前記第1の障害物領域を除いた領域を、前記移動可能領域とする、
ことを特徴とする請求項1に記載の移動可能領域抽出装置。
The second obstacle detection means includes
Based on the information on the distance when the second distance sensor observes the obstacle, the obstacle position representing the position of the obstacle is extracted,
The obstacle region extracting means includes
The moving object is detected based on the obstacle position extracted by the second obstacle detecting means and the past obstacle position previously extracted by the second obstacle detecting means, and the detected movement is detected. An area excluding the first obstacle area including the obstacle position representing the position of an object is defined as the movable area.
The movable area extracting device according to claim 1, wherein
前記第2の障害物検出手段は、
前記第2の距離センサが前記障害物を観測したときの前記距離の情報に基づいて、前記障害物の位置を表す障害物位置を抽出し、
前記障害物領域抽出手段は、
前記第2の障害物検出手段が抽出した前記障害物位置と、以前に前記第2の障害物検出手段が抽出した過去の障害物位置とに基づいて前記移動物を検出し、該検出した移動物の位置を表す前記障害物位置を含む予め定められた範囲の前記第1の障害物領域を除いた領域を、前記移動可能領域とする、
ことを特徴とする請求項1に記載の移動可能領域抽出装置。
The second obstacle detection means includes
Based on the information on the distance when the second distance sensor observes the obstacle, the obstacle position representing the position of the obstacle is extracted,
The obstacle region extracting means includes
The moving object is detected based on the obstacle position extracted by the second obstacle detecting means and the past obstacle position previously extracted by the second obstacle detecting means, and the detected movement is detected. An area excluding the first obstacle area in a predetermined range including the obstacle position representing the position of an object is set as the movable area.
The movable area extracting device according to claim 1, wherein
前記障害物領域抽出手段は、
前記移動物の位置を表す前記障害物位置に最も近い位置に設置されている前記第1の距離センサを検索し、
前記移動物の障害物位置と該検索した前記第1の距離センサとの距離、および該検索した前記第1の距離センサが前記移動物を観測したときの前記距離の情報に含まれる前記移動物の高さの情報に基づいて、該移動物によって前記第1の距離センサが観測することができない陰の領域の長さを算出し、
該移動物の障害物位置から該算出した陰の領域の長さだけ離れた位置までの間、前記予め定められた範囲を、該移動物の障害物位置と該検索した前記第1の距離センサの設置位置とを結んだ延長線上で移動し、前記予め定められた範囲前記第1の障害物領域から除いた領域を、前記移動可能領域とする、
ことを特徴とする請求項3に記載の移動可能領域抽出装置。
The obstacle region extracting means includes
Search for the first distance sensor installed at a position closest to the obstacle position representing the position of the moving object;
The distance between the obstacle position of the moving object and the searched first distance sensor, and the moving object included in the distance information when the searched first distance sensor observes the moving object. On the basis of the height information, the length of the shadow area that the first distance sensor cannot observe by the moving object is calculated,
The predetermined distance between the obstacle position of the moving object and a position separated by the length of the calculated shadow area is determined as the obstacle position of the moving object and the first distance sensor searched. of moving at an extension of connecting the installation position, the excluding predetermined range from the first obstacle area region and the movable region,
The movable area extracting device according to claim 3, wherein
前記障害物領域抽出手段は、
前記第2の障害物検出手段が抽出した前記障害物位置が、以前に前記第2の障害物検出手段が抽出した過去の障害物位置から予め定められた閾値以上変化している場合に、前記障害物位置に対応する前記障害物が前記移動物であると判定する、
ことを特徴とする請求項2から請求項4のいずれか1の項に記載の移動可能領域抽出装置。
The obstacle region extracting means includes
When the obstacle position extracted by the second obstacle detection means has changed by more than a predetermined threshold from the previous obstacle position previously extracted by the second obstacle detection means, Determining that the obstacle corresponding to the obstacle position is the moving object;
The movable area extracting device according to any one of claims 2 to 4, wherein the movable area extracting device is provided.
前記移動体が移動する空間が建物内にあるとき、
前記第1の距離センサは、
前記建物内の天井に予め定められた間隔で複数設置され、
前記第1の障害物検出手段は、
複数設置されたそれぞれの前記第1の距離センサの観測範囲を融合した空間における距離の情報に基づいて、前記第1の障害物領域を検出する、
ことを特徴とする請求項1から請求項5のいずれか1の項に記載の移動可能領域抽出装置。
When the space in which the moving body moves is in the building,
The first distance sensor is
A plurality are installed at predetermined intervals on the ceiling in the building,
The first obstacle detection means includes
Detecting the first obstacle region based on distance information in a space obtained by merging observation ranges of the first distance sensors installed in a plurality;
The movable area extracting device according to any one of claims 1 to 5, wherein
前記第2の距離センサは、
前記天井と床面との間の予め定められた高さで、前記建物内の床面に平行な観測範囲を観測するように、予め定められた間隔で複数設置され、
前記第2の障害物検出手段は、
複数設置されたそれぞれの前記第2の距離センサの観測範囲を融合した平面における距離の情報に基づいて、前記第2の障害物領域を検出する、
ことを特徴とする請求項1から請求項6のいずれか1の項に記載の移動可能領域抽出装置。
The second distance sensor is
At a predetermined height between the ceiling and the floor, a plurality of sets are installed at predetermined intervals so as to observe an observation range parallel to the floor in the building,
The second obstacle detection means includes
Detecting the second obstacle region based on information on a distance in a plane obtained by merging observation ranges of a plurality of the second distance sensors installed,
The movable area extracting apparatus according to any one of claims 1 to 6, wherein the movable area extracting apparatus is provided.
前記障害物領域抽出手段は、
抽出した移動可能領域に基づいて、前記移動体が移動する経路を生成する経路生成手段、
をさらに備える、
ことを特徴とする請求項1から請求項7のいずれか1の項に記載の移動可能領域抽出装置。
The obstacle region extracting means includes
A route generating means for generating a route along which the moving body moves based on the extracted movable region;
Further comprising
The movable area extracting device according to any one of claims 1 to 7, wherein the movable area extracting device is provided.
自律的に移動する移動体が移動する空間内の予め定められた高さから前記空間の下方を観測するように設置された距離センサと、によって前記移動体が移動する前記空間内に存在する障害物を検出し、該検出した障害物の領域の情報に基づいて、前記移動体が移動することができる移動可能領域の情報を抽出する移動可能領域抽出装置において、
前記距離センサが観測した距離の情報に基づいて、前記障害物の領域を表す障害物領域を検出する障害物検出手段と、
前記距離センサが障害物を観測したときの反射波の光量の情報に基づいて、前記障害物の形状を検出する形状検出手段と、
前記形状検出手段によって検出した障害物の形状と予め定められた物体の形状とを比較し、該障害物の形状が前記予め定められた物体の形状と同等である場合に、前記距離センサが該障害物を観測したときの前記距離の情報に基づいて、該障害物の継続的な移動を検出し、前記障害物領域から、該検出した継続的に移動している前記障害物の領域を表す前記障害物領域であって、前記障害物の速度に応じて設定された前記障害物領域を除いた領域を、移動不可能領域と判定することにより、前記移動体が移動することができる移動可能領域抽出する障害物領域抽出手段と、
を備える、
ことを特徴とする移動可能領域抽出装置。
An obstacle present in the space in which the moving body moves by a distance sensor installed so as to observe the lower part of the space from a predetermined height in the space in which the moving body moves autonomously In the movable area extracting device that detects an object and extracts information on the movable area where the moving body can move based on the detected area information of the obstacle,
Obstacle detection means for detecting an obstacle area representing the area of the obstacle based on information on the distance observed by the distance sensor;
Shape detection means for detecting the shape of the obstacle based on information on the amount of reflected wave light when the distance sensor observes the obstacle;
Comparing the shape of the obstacle detected by the shape detection means with the shape of the predetermined object, and when the shape of the obstacle is equivalent to the shape of the predetermined object, the distance sensor Based on the distance information when the obstacle is observed, the continuous movement of the obstacle is detected, and the detected area of the obstacle that is continuously moving is represented from the obstacle area. The movable body can move by determining the area that is the obstacle area , excluding the obstacle area set according to the speed of the obstacle, as the non-movable area. Obstacle area extracting means for extracting an area;
Comprising
A movable region extraction apparatus characterized by the above.
自律的に移動する移動体が移動する空間内の予め定められた第1の高さから前記空間の下方を観測するように設置された第1の距離センサと、前記空間内の予め定められた前記第1の高さより低い第2の高さから前記空間の側方を観測するように設置された第2の距離センサと、によって前記移動体が移動する前記空間内に存在する障害物を検出し、該検出した障害物の領域の情報に基づいて、前記移動体が移動することができる移動可能領域の情報を抽出する移動可能領域抽出方法において、
前記第1の距離センサが観測した距離の情報に基づいて、前記障害物の領域を表す第1の障害物領域を検出する第1の障害物検出手順と、
前記第2の距離センサが観測した距離の情報に基づいて、前記障害物の領域を表す第2の障害物領域を検出する第2の障害物検出手順と、
前記第2の障害物領域に基づいて継続的に移動している前記障害物を移動物として検出し、前記第1の障害物領域から、該検出した前記移動物の領域を表す前記第1の障害物領域を除いた領域を、移動不可能領域と判定することにより、前記移動体が移動することができる移動可能領域抽出する障害物領域抽出手順と、
を含む、
ことを特徴とする移動可能領域抽出方法。
A first distance sensor installed so as to observe a lower portion of the space from a predetermined first height in the space in which the autonomously moving mobile body moves; and a predetermined in the space An obstacle present in the space in which the movable body moves is detected by a second distance sensor installed so as to observe the side of the space from a second height lower than the first height. In the movable area extracting method for extracting information on the movable area where the moving body can move based on the detected area information of the obstacle,
A first obstacle detection procedure for detecting a first obstacle area representing the obstacle area based on information on a distance observed by the first distance sensor;
A second obstacle detection procedure for detecting a second obstacle region representing the obstacle region based on information on a distance observed by the second distance sensor;
The obstacle that is continuously moving based on the second obstacle area is detected as a moving object, and the first obstacle that represents the area of the detected moving object is detected from the first obstacle area. An obstacle area extraction procedure for extracting a movable area in which the moving body can move by determining an area excluding the obstacle area as an immovable area ;
including,
A movable region extraction method characterized by the above.
自律的に移動する移動体が移動する空間内の予め定められた高さから前記空間の下方を観測するように設置された距離センサと、によって前記移動体が移動する前記空間内に存在する障害物を検出し、該検出した障害物の領域の情報に基づいて、前記移動体が移動することができる移動可能領域の情報を抽出する移動可能領域抽出方法において、
前記距離センサが観測した距離の情報に基づいて、前記障害物の領域を表す障害物領域を検出する障害物検出手順と、
前記距離センサが障害物を観測したときの反射波の光量の情報に基づいて、前記障害物の形状を検出する形状検出手順と、
前記形状検出手順によって検出した障害物の形状と予め定められた物体の形状とを比較し、該障害物の形状が前記予め定められた物体の形状と同等である場合に、前記距離センサが該障害物を観測したときの前記距離の情報に基づいて、該障害物の継続的な移動を検出し、前記障害物領域から、該検出した継続的に移動している前記障害物の領域を表す前記障害物領域であって、前記障害物の速度に応じて設定された前記障害物領域を除いた領域を、移動不可能領域と判定することにより、前記移動体が移動することができる移動可能領域抽出する障害物領域抽出手順と、
を含む、
ことを特徴とする移動可能領域抽出方法。
An obstacle present in the space in which the moving body moves by a distance sensor installed so as to observe the lower part of the space from a predetermined height in the space in which the moving body moves autonomously In the movable region extraction method for detecting an object and extracting information on a movable region in which the moving body can move based on information on the detected obstacle region,
An obstacle detection procedure for detecting an obstacle region representing the obstacle region based on information on a distance observed by the distance sensor;
A shape detection procedure for detecting the shape of the obstacle based on information on the amount of reflected wave light when the distance sensor observes the obstacle;
Comparing the shape of the obstacle detected by the shape detection procedure with the shape of the predetermined object, and when the shape of the obstacle is equivalent to the shape of the predetermined object, the distance sensor Based on the distance information when the obstacle is observed, the continuous movement of the obstacle is detected, and the detected area of the obstacle that is continuously moving is represented from the obstacle area. The movable body can move by determining the area that is the obstacle area , excluding the obstacle area set according to the speed of the obstacle, as the non-movable area. Obstacle area extraction procedure for extracting the area;
including,
A movable region extraction method characterized by the above.
JP2010127122A 2010-06-02 2010-06-02 Movable region extraction apparatus and movable region extraction method Active JP5518579B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010127122A JP5518579B2 (en) 2010-06-02 2010-06-02 Movable region extraction apparatus and movable region extraction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010127122A JP5518579B2 (en) 2010-06-02 2010-06-02 Movable region extraction apparatus and movable region extraction method

Publications (2)

Publication Number Publication Date
JP2011253377A JP2011253377A (en) 2011-12-15
JP5518579B2 true JP5518579B2 (en) 2014-06-11

Family

ID=45417261

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010127122A Active JP5518579B2 (en) 2010-06-02 2010-06-02 Movable region extraction apparatus and movable region extraction method

Country Status (1)

Country Link
JP (1) JP5518579B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11181923B2 (en) * 2015-06-23 2021-11-23 Nec Corporation Detection system, detection method, and program

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5672327B2 (en) 2013-03-19 2015-02-18 株式会社安川電機 Robot system
CA2942553C (en) * 2016-02-01 2018-10-02 Komatsu Ltd. Work machine control system, work machine, and work machine management system
US9864377B2 (en) * 2016-04-01 2018-01-09 Locus Robotics Corporation Navigation using planned robot travel paths
CN110100215B (en) * 2017-03-28 2022-05-06 株式会社日立产机系统 Map generation system and robot system
WO2018189770A1 (en) * 2017-04-10 2018-10-18 三菱電機株式会社 Map management device and autonomous mobile body control device
JP6538793B2 (en) * 2017-09-20 2019-07-03 株式会社小松製作所 Work machine control system, work machine, and work machine management system
US20210026368A1 (en) * 2018-03-26 2021-01-28 Jabil Inc. Apparatus, system, and method of using depth assessment for autonomous robot navigation
JP7111172B2 (en) 2018-11-01 2022-08-02 日本電気株式会社 POSITION DETECTION DEVICE, POSITION DETECTION SYSTEM, REMOTE CONTROLLER, REMOTE CONTROL SYSTEM, POSITION DETECTION METHOD, AND PROGRAM
KR20210045022A (en) * 2019-10-16 2021-04-26 네이버 주식회사 Method and system for controlling robot using recognized personal space associated with human

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003300186A (en) * 2002-04-03 2003-10-21 Mitsubishi Heavy Ind Ltd Mobile robot system
JP2005288657A (en) * 2004-04-05 2005-10-20 Matsushita Electric Ind Co Ltd Robot
JP4682973B2 (en) * 2006-12-19 2011-05-11 トヨタ自動車株式会社 Travel route creation method, autonomous mobile body, and autonomous mobile body control system
JP4871160B2 (en) * 2007-02-16 2012-02-08 株式会社東芝 Robot and control method thereof
JP5080333B2 (en) * 2007-04-06 2012-11-21 本田技研工業株式会社 Object recognition device for autonomous mobile objects
JP4576445B2 (en) * 2007-04-12 2010-11-10 パナソニック株式会社 Autonomous mobile device and program for autonomous mobile device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11181923B2 (en) * 2015-06-23 2021-11-23 Nec Corporation Detection system, detection method, and program

Also Published As

Publication number Publication date
JP2011253377A (en) 2011-12-15

Similar Documents

Publication Publication Date Title
JP5518579B2 (en) Movable region extraction apparatus and movable region extraction method
CN106796434B (en) Map generation method, self-position estimation method, robot system, and robot
CN110858076B (en) Equipment positioning and grid map construction method and mobile robot
JP5048077B2 (en) Apparatus and method for creating an environment map for a moving body capable of quickly adapting to surrounding environmental changes and creating an environment map
JP5205366B2 (en) Movable area extraction apparatus, movable area extraction system, movable area extraction method, and program
KR20120046974A (en) Moving robot and simultaneous localization and map-buliding method thereof
EP2058720A2 (en) Apparatus and method for generating three-dimensional map using structured light
JP5649298B2 (en) Object detection apparatus and object detection method
US11960297B2 (en) Robot generating map based on multi sensors and artificial intelligence and moving based on map
JP2015127664A (en) Calibration device, calibration method, and calibration program
KR101864949B1 (en) Method for building a grid map with mobile robot unit
US11822340B2 (en) Method and system for obstacle avoidance in robot path planning using depth sensors
TWI772743B (en) Information processing device and mobile robot
JP2011048706A (en) Device, method, and program for automatically generating map by sensor fusion and moving mobile body by using the map automatically generated
WO2017038012A1 (en) Mapping method, localization method, robot system, and robot
JP2017526083A (en) Positioning and mapping apparatus and method
RU2740229C1 (en) Method of localizing and constructing navigation maps of mobile service robot
JP2009229226A (en) Object detection device and method for detecting object
JP4774401B2 (en) Autonomous mobile route setting device
JP5765163B2 (en) Self-position estimation apparatus, method, and program
CN113446971B (en) Space recognition method, electronic device and non-transitory computer readable storage medium
Luo et al. Autonomous mobile robot navigation and localization based on floor plan map information and sensory fusion approach
KR20230092422A (en) System for generation of indoor map, autonomous robot and method for creating indoor map using multi-robot
JP2022085320A (en) Information processing device, control method, program and storage medium
KR102009479B1 (en) Apparatus and method for controlling mobile robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131003

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140402

R150 Certificate of patent or registration of utility model

Ref document number: 5518579

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150