JP2018005470A - Autonomous mobile device, autonomous mobile method, and program - Google Patents

Autonomous mobile device, autonomous mobile method, and program Download PDF

Info

Publication number
JP2018005470A
JP2018005470A JP2016130114A JP2016130114A JP2018005470A JP 2018005470 A JP2018005470 A JP 2018005470A JP 2016130114 A JP2016130114 A JP 2016130114A JP 2016130114 A JP2016130114 A JP 2016130114A JP 2018005470 A JP2018005470 A JP 2018005470A
Authority
JP
Japan
Prior art keywords
map
movable object
autonomous mobile
depth data
mobile device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016130114A
Other languages
Japanese (ja)
Inventor
泰士 前野
Hiroshi Maeno
泰士 前野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2016130114A priority Critical patent/JP2018005470A/en
Publication of JP2018005470A publication Critical patent/JP2018005470A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PROBLEM TO BE SOLVED: To distinguish a movable object with other obstacles to immediately reflect movement of the movable object on a map.SOLUTION: An autonomous mobile device 100 comprises a depth sensor 31 for acquiring depth data on distance to an object, a movable object detection sensor 32 for detecting the movable object, and a control unit 10. The control unit 10 creates a map recording presence probability of an object for each predetermined area on the basis of the depth data that the depth sensor 31 has acquired and, if the movable object detection sensor 32 detects the movable object, changes the presence probability in the predetermined area where the movable object has been detected.SELECTED DRAWING: Figure 1

Description

本発明は、自律移動装置、自律移動方法及びプログラムに関する。   The present invention relates to an autonomous mobile device, an autonomous mobile method, and a program.

用途に応じて自律的に移動する自律移動装置が普及してきている。例えば、屋内の掃除のために自律的に移動する自律移動装置が知られている。このような自律移動装置は、実空間の地図として占有格子地図を作成することが多い。占有格子地図とは、格子点の値が物体(障害物)の存在を表す地図である。   Autonomous mobile devices that move autonomously according to their use have become widespread. For example, an autonomous mobile device that moves autonomously for indoor cleaning is known. Such an autonomous mobile device often creates an occupied grid map as a map in real space. The occupied grid map is a map in which values of grid points indicate the presence of an object (obstacle).

占有格子地図を作成する際には、深度(測域)センサや測距センサ等を使って周囲に存在する物体までの距離を検出する。これらのセンサが検出する距離には通常誤差が含まれているため、誤差の影響を軽減させるために、地図にヒステリシスを持たせることが多い。例えば、特許文献1には、地図の各格子点の値を物体の存在確率とし、存在確率が閾値以上か否かによって物体の存否を表すことによって、地図にヒステリシスを持たせる技術が開示されている。   When creating an occupancy grid map, a distance to a surrounding object is detected using a depth (ranging) sensor, a ranging sensor, or the like. Since the distances detected by these sensors usually include an error, the map is often provided with hysteresis in order to reduce the influence of the error. For example, Patent Document 1 discloses a technique for giving hysteresis to a map by using the value of each grid point on the map as the existence probability of the object and expressing the existence of the object based on whether the existence probability is equal to or higher than a threshold value. Yes.

特開2014−219723号公報JP 2014-219723 A

しかし、特許文献1に開示されている技術により地図にヒステリシスを持たせると、物体(障害物)が無くなってもすぐには地図に反映されなくなる。そのため、人等の可動物体が障害物として地図に記録されると、その可動物体が記録された場所から移動しても、しばらくの間は地図に残ってしまう。この場合、この地図を利用して移動する自律移動装置は、障害物を避けるように移動するので、例えば人に追従する場合、人を回避する経路を選択してしまうという問題がある。   However, if the map is given hysteresis by the technique disclosed in Patent Document 1, even if the object (obstacle) disappears, it is not immediately reflected in the map. Therefore, when a movable object such as a person is recorded on the map as an obstacle, even if the movable object moves from the recorded location, it remains on the map for a while. In this case, since the autonomous mobile device that moves using this map moves so as to avoid obstacles, for example, when following a person, there is a problem that a route that avoids the person is selected.

本発明は、上記問題を解決するためになされたものであり、人等の可動物体を他の障害物と区別することにより、可動物体が移動したことをすぐに地図に反映することができる自律移動装置、自律移動方法及びプログラムを提供することを目的とする。   The present invention has been made to solve the above problem, and by distinguishing a movable object such as a person from other obstacles, it is possible to immediately reflect the movement of the movable object on a map. It is an object to provide a mobile device, an autonomous mobile method, and a program.

上記目的を達成するため、本発明の自律移動装置は、
地図を作成し、前記地図に基づいて移動する自律移動装置であって、
制御部を備え、
前記制御部は、
可動物体及びそれ以外の静止物体の存否を繰り返し確認し、
前記地図の所定の領域毎に、前記可動物体の存在確率及び前記静止物体の存在確率を記録するとともに、前記可動物体の存在確率と前記静止物体の存在確率とを異ならせることを特徴とする。
In order to achieve the above object, the autonomous mobile device of the present invention provides:
An autonomous mobile device that creates a map and moves based on the map,
With a control unit,
The controller is
Repeatedly confirm the existence of movable objects and other stationary objects,
The movable object existence probability and the stationary object existence probability are recorded for each predetermined area of the map, and the movable object existence probability and the stationary object existence probability are made different.

本発明によれば、可動物体を他の障害物と区別することにより、可動物体が移動したことをすぐに地図に反映することができる。   According to the present invention, it is possible to immediately reflect the movement of the movable object on the map by distinguishing the movable object from other obstacles.

本発明の実施形態1に係る自律移動装置の機能構成を示す図である。It is a figure which shows the function structure of the autonomous mobile apparatus which concerns on Embodiment 1 of this invention. (A)深度センサでのスキャン例を示す図である。(B)深度センサで得られる深度データの例を示す図である。(A) It is a figure which shows the example of a scan in a depth sensor. (B) It is a figure which shows the example of the depth data obtained with a depth sensor. 実施形態1に係る自律移動装置のソフトウェアモジュールの全体構成を示す図である。It is a figure which shows the whole structure of the software module of the autonomous mobile apparatus which concerns on Embodiment 1. FIG. 実施形態1に係る地図作成モジュールのフローチャートである。It is a flowchart of the map creation module which concerns on Embodiment 1. FIG. 実施形態1に係る地図作成部が作成する占有格子地図の具体例を示す図である。It is a figure which shows the specific example of the occupation grid map which the map preparation part which concerns on Embodiment 1 produces. 実施形態1に係る経路計画モジュールのフローチャートである。4 is a flowchart of a path planning module according to the first embodiment. 実施形態1に係る移動制御モジュールのフローチャートである。3 is a flowchart of a movement control module according to the first embodiment. 本発明の実施形態2に係る自律移動装置の機能構成を示す図である。It is a figure which shows the function structure of the autonomous mobile apparatus which concerns on Embodiment 2 of this invention. 実施形態2に係る地図作成モジュールのフローチャートである。It is a flowchart of the map creation module which concerns on Embodiment 2. FIG. 実施形態2に係る経路計画モジュールのフローチャートである。10 is a flowchart of a route planning module according to the second embodiment. 実施形態2に係る移動制御モジュールのフローチャートである。10 is a flowchart of a movement control module according to the second embodiment.

以下、本発明の実施形態に係る自律移動装置について、図表を参照して説明する。なお、図中同一又は相当部分には同一符号を付す。   Hereinafter, an autonomous mobile device according to an embodiment of the present invention will be described with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals.

(実施形態1)
本発明の実施形態に係る自律移動装置は、周囲の地図を作成しながら、用途に応じて自律的に移動する装置である。この用途とは、例えば、警備監視用、屋内掃除用、ペット用、玩具用等である。
(Embodiment 1)
The autonomous mobile device according to the embodiment of the present invention is a device that autonomously moves according to the application while creating a surrounding map. Examples of this use include security monitoring, indoor cleaning, pets, and toys.

図1に示すように、本発明の実施形態1に係る自律移動装置100は、制御部10、記憶部20、センサ部30、撮像部41、駆動部42、通信部43、を備える。   As shown in FIG. 1, the autonomous mobile device 100 according to the first embodiment of the present invention includes a control unit 10, a storage unit 20, a sensor unit 30, an imaging unit 41, a drive unit 42, and a communication unit 43.

制御部10は、CPU(Central Processing Unit)等で構成され、記憶部20に記憶されたプログラムを実行することにより、後述する各部(位置姿勢推定部11、地図作成部12、可動物体領域地図変更部13、経路計画部14、移動制御部15、深度データ取得部16、可動物体存在方向取得部17)の機能を実現する。また、制御部10は、タイマー(図示せず)を備え、経過時間をカウントすることができる。   The control unit 10 is configured by a CPU (Central Processing Unit) or the like, and by executing a program stored in the storage unit 20, each unit described later (position and orientation estimation unit 11, map creation unit 12, movable object region map change) The functions of the unit 13, the route plan unit 14, the movement control unit 15, the depth data acquisition unit 16, and the movable object presence direction acquisition unit 17) are realized. Moreover, the control part 10 is provided with a timer (not shown), and can count elapsed time.

記憶部20は、ROM(Read Only Memory)、RAM(Random Access Memory)等で構成され、機能的に、画像記憶部21、地図記憶部22、深度データ記憶部23、可動物体存在方向記憶部24を含む。ROMには制御部10のCPUが実行するプログラムや、プログラムを実行する上で予め必要なデータが記憶されている。RAMには、プログラム実行中に作成されたり変更されたりするデータが記憶される。   The storage unit 20 includes a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. Functionally, the image storage unit 21, the map storage unit 22, the depth data storage unit 23, and the movable object presence direction storage unit 24 are provided. including. The ROM stores programs executed by the CPU of the control unit 10 and data necessary for executing the programs in advance. The RAM stores data that is created or changed during program execution.

画像記憶部21には、撮像部41が撮影した画像が記憶される。ただし、記憶容量を節約するために、撮影した全ての画像を記憶しなくてもよい。自律移動装置100は、画像記憶部21に記憶された複数の画像を用いて、SLAM(Simultaneous Localization And Mapping)処理により、地図の作成や自機位置の推定を行う。自機位置の推定に用いた画像については、その画像の情報と共に、その画像を撮影した時の自機位置(自機の位置及び向き)の情報も記憶される。   The image storage unit 21 stores an image captured by the imaging unit 41. However, in order to save the storage capacity, it is not necessary to store all captured images. The autonomous mobile device 100 uses a plurality of images stored in the image storage unit 21 to create a map and estimate its own position through SLAM (Simultaneous Localization And Mapping) processing. Regarding the image used for estimating the position of the own device, information on the own device (the position and orientation of the own device) when the image is taken is stored together with information on the image.

地図記憶部22には、SLAM処理や後述するセンサ部30からの情報に基づいて地図作成部12が作成した地図が記憶される。   The map storage unit 22 stores a map created by the map creation unit 12 based on information from the SLAM process and the sensor unit 30 described later.

深度データ記憶部23には、角度毎の深度データが記憶される。深度データとは、後述する深度センサ31を用いて、図2に示すように、深度センサ31(自律移動装置100)を中心に水平面内を所定の角度間隔(例えば1°)で、各角度の方向に存在する物体までの距離を計測したデータである。その方向に物体が無ければ、その角度に対する深度データは無しとなる。   The depth data storage unit 23 stores depth data for each angle. As shown in FIG. 2, the depth data is a depth sensor 31 (described later) and has a predetermined angular interval (for example, 1 °) in the horizontal plane around the depth sensor 31 (autonomous mobile device 100). This is data obtained by measuring the distance to an object existing in the direction. If there is no object in that direction, there will be no depth data for that angle.

可動物体存在方向記憶部24には、後述する可動物体検出センサ32を用いて可動物体の存在を検出した方向(可動物体存在方向)が記憶される。   The movable object presence direction storage unit 24 stores a direction (movable object presence direction) in which the presence of a movable object is detected using a movable object detection sensor 32 described later.

センサ部30は、深度センサ31と可動物体検出センサ32を含む。深度センサ31は、角度を変えながらスキャンして、その角度の方向に存在する物体までの距離を計測可能なセンサである。スキャンする角度の範囲や、角度の分解能は使用する深度センサに応じて様々な値があり得るが、本実施形態においては、スキャンする角度の範囲は−30°〜30°の範囲とし、角度の分解能はΔA(例えば、ΔA=0.1°)とする。   The sensor unit 30 includes a depth sensor 31 and a movable object detection sensor 32. The depth sensor 31 is a sensor capable of scanning while changing an angle and measuring a distance to an object existing in the direction of the angle. The range of angles to be scanned and the resolution of the angles may have various values depending on the depth sensor to be used. However, in this embodiment, the range of angles to be scanned is in the range of −30 ° to 30 °. The resolution is ΔA (for example, ΔA = 0.1 °).

可動物体検出センサ32は、人等の可動物体を検出するセンサであり、例えば赤外線カメラ(サーモグラフィー)である。赤外線カメラを用いれば、人だけでなく、ペットや動物も検出可能である。また、後述する撮像部41で取得した画像から人等の可動物体を画像認識することによって、可動物体を検出しても良い。撮像部41で取得した画像から可動物体を画像認識する場合は独立した可動物体検出センサ32は不要であり、撮像部41が可動物体検出センサ32を兼ねることになる。この場合、画像認識によって、人やペットだけでなく、車や電車等の動くおもちゃ、ロボット、他の自律移動装置100等を検出することも可能になる。以下、これら、可動物体検出センサ32で検出することが可能な人、ペット、動くおもちゃ、ロボット、他の自律移動装置100等を総称して可動物体と呼ぶ。また、センサ部30は、これら以外のセンサ、例えば、他の物体に衝突したことを検知するバンパーセンサー(図示せず)、自機の動きを検出する角速度センサや加速度センサ(いずれも図示せず)等を備えても良い。   The movable object detection sensor 32 is a sensor that detects a movable object such as a person, and is an infrared camera (thermography), for example. If an infrared camera is used, not only humans but also pets and animals can be detected. Alternatively, the movable object may be detected by recognizing a movable object such as a person from an image acquired by the imaging unit 41 described later. When recognizing a movable object from an image acquired by the imaging unit 41, the independent movable object detection sensor 32 is unnecessary, and the imaging unit 41 also serves as the movable object detection sensor 32. In this case, it is possible to detect not only people and pets but also moving toys such as cars and trains, robots, other autonomous mobile devices 100, etc. by image recognition. Hereinafter, these persons, pets, moving toys, robots, other autonomous mobile devices 100 and the like that can be detected by the movable object detection sensor 32 are collectively referred to as movable objects. The sensor unit 30 is a sensor other than these, for example, a bumper sensor (not shown) that detects collision with another object, an angular velocity sensor or an acceleration sensor (not shown) that detects the movement of the device itself. ) Etc. may be provided.

撮像部41は、単眼の撮像装置(カメラ)を備える。撮像部41は、例えば、30fpsで画像(フレーム)を取得する。自律移動装置100は、撮像部41が逐次取得した画像に基づいて、SLAM処理により、自機位置と周囲環境とをリアルタイムに認識しながら、自律移動を行う。   The imaging unit 41 includes a monocular imaging device (camera). The imaging unit 41 acquires an image (frame) at 30 fps, for example. The autonomous mobile device 100 performs autonomous movement while recognizing its own position and surrounding environment in real time by SLAM processing based on images sequentially acquired by the imaging unit 41.

駆動部42は、独立2輪駆動型であって、車輪とモータとを備える移動手段である。自律移動装置100は、2つの車輪の同一方向駆動により前後の平行移動(並進移動)を、2つの車輪の逆方向駆動によりその場での回転(向き変更)を、2つの車輪のそれぞれ速度を変えた駆動により旋回移動(並進+回転(向き変更)移動)を、行うことができる。また、各々の車輪にはロータリエンコーダが備えられており、ロータリエンコーダで車輪の回転数を計測し、車輪の直径や車輪間の距離等の幾何学的関係を利用することで並進移動量及び回転量を計算できる。   The drive unit 42 is an independent two-wheel drive type, and is a moving means including wheels and a motor. The autonomous mobile device 100 translates back and forth (translation) by driving the two wheels in the same direction, and rotates (changes direction) on the spot by driving the two wheels in the reverse direction. A swivel movement (translation + rotation (direction change) movement) can be performed by the changed drive. Each wheel is also equipped with a rotary encoder, which measures the rotational speed of the wheel with the rotary encoder and uses the geometric relationship such as the wheel diameter and the distance between the wheels to translate and move. The amount can be calculated.

例えば、車輪の直径をD、回転数をR(ロータリエンコーダにより測定)とすると、その車輪の接地部分での並進移動量はπ・D・Rとなる。また、車輪の直径をD、車輪間の距離をI、右車輪の回転数をR、左車輪の回転数をRとすると、向き変更の回転量は(右回転を正とすると)360°×D×(R−R)/(2×I)となる。この並進移動量や回転量を逐次足し合わせていくことで、駆動部42は、いわゆるオドメトリとして機能し、自機位置(移動開始時の位置及び向きを基準とした位置及び向き)を計測することができる。なお、本明細書では、自機の「向き」のことを自機の「姿勢」ともいう。 For example, if the wheel diameter is D and the rotation speed is R (measured by a rotary encoder), the translational movement amount at the ground contact portion of the wheel is π · D · R. Further, if the wheel diameter is D, the distance between the wheels is I, the rotation speed of the right wheel is R R , and the rotation speed of the left wheel is RL , the rotation amount of the direction change is 360 (when the right rotation is positive). ° × D × (R L −R R ) / (2 × I). By sequentially adding the translational movement amount and the rotation amount, the drive unit 42 functions as a so-called odometry, and measures its own position (position and orientation with reference to the position and orientation at the start of movement). Can do. In this specification, the “orientation” of the own device is also referred to as the “posture” of the own device.

なお、車輪の代わりにクローラを備えるようにしても良いし、複数(例えば二本)の足を備えて足で歩行することによって移動を行うようにしても良い。これらの場合も、二つのクローラの動きや、足の動きに基づいて、車輪の場合と同様に自機の位置や向き(姿勢)の計測が可能である。   In addition, you may make it provide a crawler instead of a wheel, and you may make it move by providing a plurality (for example, two) leg | foot and walking with a leg | foot. Also in these cases, the position and orientation (posture) of the own device can be measured based on the movements of the two crawlers and the movements of the feet, as in the case of the wheels.

通信部43は、外部装置と通信するためのモジュールであり、外部装置と無線通信する場合にはアンテナを含む無線モジュールである。例えば、通信部43は、Bluetooth(登録商標)に基づく近距離無線通信を行うための無線モジュールである。通信部43を用いることにより、自律移動装置100は、外部とデータの受け渡し等を行うことができる。例えば、自律移動装置100に目的地を指示する際には、この通信部43を介して目的地の情報を伝える。   The communication unit 43 is a module for communicating with an external device, and is a wireless module including an antenna when wirelessly communicating with the external device. For example, the communication unit 43 is a wireless module for performing short-range wireless communication based on Bluetooth (registered trademark). By using the communication unit 43, the autonomous mobile device 100 can exchange data with the outside. For example, when instructing the destination to the autonomous mobile device 100, the destination information is transmitted via the communication unit 43.

次に、制御部10の機能について説明する。制御部10は、位置姿勢推定部11、地図作成部12、可動物体領域地図変更部13、経路計画部14、移動制御部15、深度データ取得部16、可動物体存在方向取得部17を含み、自律移動装置100の移動制御等を行う。また、制御部10は、マルチスレッド機能に対応しており、複数のスレッド(異なる処理の流れ)を並行して実行することができる。   Next, functions of the control unit 10 will be described. The control unit 10 includes a position / orientation estimation unit 11, a map creation unit 12, a movable object region map change unit 13, a route plan unit 14, a movement control unit 15, a depth data acquisition unit 16, and a movable object presence direction acquisition unit 17. The movement control of the autonomous mobile device 100 is performed. Further, the control unit 10 corresponds to the multi-thread function, and can execute a plurality of threads (different processing flows) in parallel.

位置姿勢推定部11は、撮像部41が撮影し画像記憶部21に記憶された画像を複数用いて、SLAM処理により自機の位置や姿勢を推定する。また、この位置や姿勢の推定の際には、駆動部42から取得できるオドメトリの情報も用いることができる。   The position / orientation estimation unit 11 estimates the position and orientation of its own device by SLAM processing using a plurality of images taken by the imaging unit 41 and stored in the image storage unit 21. In addition, when estimating the position and orientation, odometry information that can be acquired from the drive unit 42 can also be used.

地図作成部12は、深度センサ31や、可動物体検出センサ32からの情報を用いて障害物(物体)の位置を記録した占有格子地図を作成し、地図記憶部22に記憶する。この占有格子地図は、平面を格子点に分割し、各格子点に「観測回数」、「検出回数」、「物体の有無」を記録したものである。「観測回数」はその格子点を深度センサ31で観測した回数であり、「検出回数」は、その格子点の位置に物体が存在することを深度センサ31で検出した回数である。つまり地図には、「検出関数」÷「観測回数」で求まる、その格子点における物体の存在確率を記録していると考えることができる。また、「物体の有無」は、「物体有り」、「物体無し」、「未観測」の3通りの値を取る。   The map creation unit 12 creates an occupied grid map in which the position of an obstacle (object) is recorded using information from the depth sensor 31 and the movable object detection sensor 32, and stores it in the map storage unit 22. This occupied grid map is obtained by dividing a plane into grid points and recording “observation count”, “detection count”, and “object presence / absence” at each grid point. The “number of observations” is the number of times that the lattice point is observed by the depth sensor 31, and the “number of detections” is the number of times that the depth sensor 31 detects that an object exists at the position of the lattice point. In other words, it can be considered that the existence probability of the object at the lattice point obtained by “detection function” ÷ “number of observations” is recorded on the map. Further, the “presence / absence of object” takes three values: “with object”, “without object”, and “unobserved”.

可動物体領域地図変更部13は、地図作成部12が作成した地図の中に存在していた可動物体が移動等でいなくなった場合に、すぐに地図からその可動物体の存在を消去できるように、可動物体の存在している領域に対応する地図データを変更する。   The movable object area map changing unit 13 can immediately delete the presence of the movable object from the map when the movable object existing in the map created by the map creating unit 12 is not moved. The map data corresponding to the area where the movable object exists is changed.

経路計画部14は、地図作成部12が作成した地図に基づき、自機の現在位置から目的地までの経路を計画する。   The route planning unit 14 plans a route from the current position of the own device to the destination based on the map created by the map creating unit 12.

移動制御部15は、地図作成部12が作成した地図と、経路計画部14が計画した経路に基づき、自機の移動方向や移動速度を決定し、駆動部42を制御する。   The movement control unit 15 determines the moving direction and moving speed of the own machine based on the map created by the map creating unit 12 and the route planned by the route planning unit 14 and controls the driving unit 42.

深度データ取得部16は、深度センサ31から所定の方向(角度)毎に、深度データ(物体までの距離)を取得する。その方向に物体が存在しない場合は、深度データは無しとなって、取得されない。   The depth data acquisition unit 16 acquires depth data (distance to an object) from the depth sensor 31 for each predetermined direction (angle). If there is no object in that direction, there is no depth data and it is not acquired.

可動物体存在方向取得部17は、可動物体検出センサ32の検出情報に基づき、検出された可動物体が存在する方向(可動物体存在方向)を取得する。可動物体が検出されなければ、可動物体の存在方向の情報は無しとなる。   The movable object presence direction acquisition unit 17 acquires the direction in which the detected movable object exists (movable object presence direction) based on the detection information of the movable object detection sensor 32. If no movable object is detected, there is no information on the direction of presence of the movable object.

以上、自律移動装置100の機能構成について説明した。次に、自律移動装置100のソフトウェアモジュールの全体構成について、図3を参照して説明する。図3中、位置姿勢推定モジュール51は上記機能構成で説明した位置姿勢推定部11に対応し、地図作成モジュール52は地図作成部12に対応し、経路計画モジュール53は経路計画部14に対応し、移動制御モジュール54は移動制御部15に対応する。   The functional configuration of the autonomous mobile device 100 has been described above. Next, the overall configuration of the software module of the autonomous mobile device 100 will be described with reference to FIG. In FIG. 3, the position / orientation estimation module 51 corresponds to the position / orientation estimation unit 11 described in the above functional configuration, the map creation module 52 corresponds to the map creation unit 12, and the route planning module 53 corresponds to the route planning unit 14. The movement control module 54 corresponds to the movement control unit 15.

これらのソフトウェアモジュールは、自律移動装置100の電源が入ると、それぞれ別スレッドとして起動し、並行して実行が開始される。位置姿勢推定モジュール51は、撮像部41から取得する画像情報を用いてSLAM処理を行い、駆動部42から取得するオドメトリ情報も用いて、自機の位置及び姿勢を推定する。地図作成モジュール52は、位置姿勢推定モジュール51が推定した位置及び姿勢と、深度センサ31から取得した深度データと、可動物体検出センサ32から取得した可動物体の存在方向の情報と、に基づき、地図を作成する。   When the autonomous mobile device 100 is powered on, these software modules are activated as separate threads, and are executed in parallel. The position / orientation estimation module 51 performs SLAM processing using the image information acquired from the imaging unit 41, and estimates the position and orientation of the own device also using odometry information acquired from the driving unit. Based on the position and orientation estimated by the position / orientation estimation module 51, the depth data acquired from the depth sensor 31, and the information on the direction of presence of the movable object acquired from the movable object detection sensor 32, the map creation module 52 Create

経路計画モジュール53は、位置姿勢推定モジュール51が推定した位置及び姿勢と、地図作成モジュール52が作成した地図と、に基づき、経路を計画する。移動制御モジュール54は、位置姿勢推定モジュール51が推定した位置及び姿勢と、地図作成モジュール52が作成した地図と、経路計画モジュール53が計画した経路と、に基づき、駆動部42を制御する移動制御情報(主に速度情報)を生成する。そして、駆動部42は、移動制御モジュール54が生成した移動制御情報に基づいて駆動され、目的地への移動が行われる。   The route planning module 53 plans a route based on the position and orientation estimated by the position / orientation estimation module 51 and the map created by the map creation module 52. The movement control module 54 controls the driving unit 42 based on the position and orientation estimated by the position / orientation estimation module 51, the map created by the map creation module 52, and the route planned by the route planning module 53. Information (mainly speed information) is generated. And the drive part 42 is driven based on the movement control information which the movement control module 54 produced | generated, and the movement to a destination is performed.

では、可動物体の移動をすぐに反映できる地図を作成するための地図作成モジュール52の処理内容について、図4を参照して説明する。   Now, the processing contents of the map creation module 52 for creating a map that can immediately reflect the movement of the movable object will be described with reference to FIG.

まず、地図作成部12は、地図記憶部22に記憶されている地図を初期化する(ステップS101)。地図の初期化は、占有格子地図の全ての格子点における「観測回数」及び「検出回数」を0にし、「物体の有無」を「未観測」にすることにより行われる。次に制御部10は、自律移動装置100が動作を終了するか否かを判定する(ステップS102)。ユーザが自律移動装置100の電源を落とした場合や、バッテリーの残量が所定量(例えば残り3%等)を下回った場合等に、自律移動装置100は動作を終了する。自律移動装置100が動作を終了するなら(ステップS102;Yes)、処理を終了する。動作を終了しないなら(ステップS102;No)、深度データ取得部16は、深度センサ31の角度を−30°から+30°まで変えながら深度データを取得し、深度データ記憶部23に記憶する(ステップS103)。   First, the map creation unit 12 initializes a map stored in the map storage unit 22 (step S101). The initialization of the map is performed by setting “observation count” and “detection count” at all grid points of the occupied grid map to 0 and “presence / absence of object” to “unobserved”. Next, the control part 10 determines whether the autonomous mobile apparatus 100 complete | finishes operation | movement (step S102). The autonomous mobile device 100 ends its operation when the user turns off the autonomous mobile device 100 or when the remaining battery level falls below a predetermined amount (for example, 3% remaining). If the autonomous mobile device 100 ends the operation (step S102; Yes), the process ends. If the operation is not finished (step S102; No), the depth data acquisition unit 16 acquires depth data while changing the angle of the depth sensor 31 from −30 ° to + 30 °, and stores it in the depth data storage unit 23 (step). S103).

次に制御部10は、位置姿勢推定部11がその時点で推定している自機の位置及び姿勢を取得する(ステップS104)。そして、可動物体存在方向取得部17は、可動物体検出センサ32を用いて可動物体が存在する方向(角度の範囲)を取得し、可動物体存在方向記憶部24に記憶する(ステップS105)。次に、各角度での深度データに基づいて地図を作成するために、制御部10は、角度の初期値としてA=−30°を設定する(ステップS106)。そして、制御部10は角度Aにおける深度データが存在するか否かを判定する(ステップS107)。   Next, the control unit 10 acquires the position and orientation of the own device estimated by the position / orientation estimation unit 11 at that time (step S104). Then, the movable object presence direction acquisition unit 17 acquires the direction (angle range) in which the movable object exists using the movable object detection sensor 32, and stores it in the movable object presence direction storage unit 24 (step S105). Next, in order to create a map based on the depth data at each angle, the control unit 10 sets A = −30 ° as an initial value of the angle (step S106). And the control part 10 determines whether the depth data in the angle A exists (step S107).

角度Aにおける深度データが存在しなければ(ステップS107;No)、地図作成部12は、地図上で角度Aに対応する全ての格子点の「観測回数」に1を加算する(ステップS108)。この処理について、図5に示す占有格子地図60を参照して、具体例で説明する。図5のL1で示す線が、深度センサ31からの角度Aに対応する線だとすると、ステップS108の処理は、図5のL1が通る灰色で示す全ての格子点の「観測回数」に1を加算する。そして、ステップS112に進む。なお、角度Aに対応する線上の格子点は、ステップS104で取得した自律移動装置100の位置及び姿勢の値と、深度センサ31を原点とする極座標の値と、から求めることができる。   If there is no depth data at the angle A (step S107; No), the map creating unit 12 adds 1 to the “number of observations” of all grid points corresponding to the angle A on the map (step S108). This process will be described with a specific example with reference to the occupation grid map 60 shown in FIG. If the line indicated by L1 in FIG. 5 is a line corresponding to the angle A from the depth sensor 31, the process of step S108 adds 1 to the “number of observations” of all grid points indicated by gray through which L1 in FIG. To do. Then, the process proceeds to step S112. Note that the lattice points on the line corresponding to the angle A can be obtained from the position and orientation values of the autonomous mobile device 100 acquired in step S104 and the polar coordinate values with the depth sensor 31 as the origin.

角度Aにおける深度データが存在するなら(ステップS107;Yes)、地図作成部12は、角度Aにおける深度データ(深度センサ31を原点とする極座標での位置)を、ステップS104で取得した自機の位置及び姿勢の値を用いて、格子点の座標に変換し、物体の存在する格子点を取得する(ステップS109)。そして、地図作成部12は、物体の存在する格子点の「検出回数」に1を加算する(ステップS110)。次に、地図作成部12は、深度センサ31から物体までの全ての格子点の「観測回数」に1を加算する(ステップS111)。   If there is depth data at the angle A (step S107; Yes), the map creating unit 12 obtains the depth data at the angle A (position in polar coordinates with the depth sensor 31 as the origin) of the own device acquired in step S104. Using the position and orientation values, the coordinates are converted into the coordinates of the grid points, and the grid points where the object exists are acquired (step S109). Then, the map creation unit 12 adds 1 to the “number of detections” of the grid point where the object exists (step S110). Next, the map creation unit 12 adds 1 to the “number of observations” of all grid points from the depth sensor 31 to the object (step S111).

この処理について再度図5を参照して説明する。図5のL2で示す線が、角度Aにおける深度データが存在する線だとすると、ステップS110の処理は、図5の障害物の左にある濃い灰色で示す格子点の「検出回数」に1を加算する。そして、ステップS111の処理は、図5のL2で示す線が通る灰色及び濃い灰色で示す全ての格子点の「観測回数」に1を加算する。そして、ステップS112に進む。なお、角度Aに対応する深度センサ31から物体までの全ての格子点は、ステップS104で取得した自機の位置及び姿勢の値と、深度センサ31を原点とする極座標の値と、ステップS109で取得した物体の存在する格子点と、から求めることができる。   This process will be described again with reference to FIG. If the line indicated by L2 in FIG. 5 is a line having depth data at the angle A, the process of step S110 adds 1 to the “detection count” of the grid point indicated by the dark gray on the left of the obstacle in FIG. To do. Then, in the process of step S111, 1 is added to the “number of observations” of all grid points indicated by gray and dark gray through which the line indicated by L2 in FIG. 5 passes. Then, the process proceeds to step S112. Note that all the lattice points from the depth sensor 31 to the object corresponding to the angle A are the values of the position and orientation of the own device acquired in step S104, the polar coordinate values with the depth sensor 31 as the origin, and the step S109. It can be obtained from the acquired grid point where the object exists.

そして、制御部10は、Aの値にΔA(深度センサの分解能。例えば0.1°)を加算し(ステップS112)、Aが30°以下であるかを判定する(ステップS113)。Aが30°以下であるなら(ステップS113;Yes)、ステップS107に戻る。   Then, the control unit 10 adds ΔA (depth sensor resolution, for example, 0.1 °) to the value of A (step S112), and determines whether A is 30 ° or less (step S113). If A is 30 ° or less (step S113; Yes), the process returns to step S107.

Aが30°を超えているなら(ステップS113;No)、全ての格子点について「物体の有無」を設定するために、地図作成部12は、「物体の有無」を設定する格子点の位置を初期化する(ステップS114)。ここでは、格子点を(X,Y)で表すことにし、初期値としてXもYも0に設定する。次に、地図作成部12は、格子点(X,Y)の「観測回数」が0より大きいか否かを判定する(ステップS115)。   If A exceeds 30 ° (step S113; No), in order to set “presence / absence of object” for all lattice points, the map creating unit 12 sets the position of the lattice point for setting “presence / absence of object”. Is initialized (step S114). Here, the lattice point is represented by (X, Y), and X and Y are set to 0 as initial values. Next, the map creating unit 12 determines whether or not the “number of observations” at the grid point (X, Y) is greater than 0 (step S115).

格子点(X,Y)の「観測回数」が0なら(ステップS115;No)、地図作成部12は、その格子点の「物体の有無」を「未観測」に設定し(ステップS116)、ステップS122に進む。なお、ステップS101での地図の初期化処理によって、全ての格子点の「物体の有無」は「未観測」に設定済なので、ステップS116の処理無しでステップS122に進んでも良い。   If the “number of observations” of the grid point (X, Y) is 0 (step S115; No), the map creation unit 12 sets “presence / absence of object” of the grid point to “unobserved” (step S116). Proceed to step S122. Since the “presence / absence of object” of all grid points has been set to “unobserved” by the map initialization process in step S101, the process may proceed to step S122 without the process of step S116.

格子点(X,Y)の「観測回数」が0より大きいなら(ステップS115;Yes)、地図作成部12は、その格子点の「検出回数」÷「観測回数」が閾値以上であるか否かを判定する(ステップS117)。ここで、閾値は、地図にヒステリシスを持たせるためのもので、通常は0.5〜0.8位の値(例えば0.6)を設定する。   If the “observation count” of the grid point (X, Y) is greater than 0 (step S115; Yes), the map creation unit 12 determines whether “detection count” ÷ “observation count” of the grid point is equal to or greater than a threshold value. Is determined (step S117). Here, the threshold value is for giving hysteresis to the map, and usually a value in the order of 0.5 to 0.8 (for example, 0.6) is set.

「検出回数」÷「観測回数」が閾値未満なら(ステップS117;No)、地図作成部12は、その格子点の「物体の有無」を「物体無し」に設定し(ステップS118)、ステップS122に進む。   If “the number of detections” ÷ “the number of observations” is less than the threshold value (step S117; No), the map creating unit 12 sets the “presence / absence of object” of the grid point to “no object” (step S118), and step S122. Proceed to

「検出回数」÷「観測回数」が閾値以上なら(ステップS117;Yes)、地図作成部12は、その格子点の「物体の有無」を「物体有り」に設定する(ステップS119)。そして、可動物体領域地図変更部13は、格子点(X,Y)が可動物体の存在する領域か否かを判定する(ステップS120)。この判定は、自律移動装置100の位置及び姿勢を基準(極座標の原点)として、格子点(X,Y)を極座標(動径r,角度θ)に変換したときの角度θが、ステップS105で取得した可動物体の存在する角度の範囲に入っているか否かで判定することができる。   If “the number of detections” ÷ “the number of observations” is equal to or greater than the threshold (step S117; Yes), the map creating unit 12 sets “the presence / absence of object” at the grid point to “there is object” (step S119). Then, the movable object area map changing unit 13 determines whether the lattice point (X, Y) is an area where a movable object exists (step S120). In this determination, the angle θ when the lattice point (X, Y) is converted into polar coordinates (radial radius r, angle θ) with the position and orientation of the autonomous mobile device 100 as a reference (the origin of polar coordinates) is determined in step S105. The determination can be made based on whether or not the acquired movable object is within an angle range.

格子点(X,Y)が可動物体の存在する領域でなければ(ステップS120;No)、ステップS122に進む。一方、格子点(X,Y)が可動物体の存在する領域なら(ステップS120;Yes)、可動物体領域地図変更部13は、格子点(X,Y)の「検出回数」を、その点の「観測回数」×閾値に設定する(ステップS121)。もし、「観測回数」×閾値が整数にならず、「検出回数」として整数値しか設定できない場合は、「観測回数」×閾値の小数部分を切り上げた値を、その点の「検出回数」に設定する。   If the lattice point (X, Y) is not an area where a movable object exists (step S120; No), the process proceeds to step S122. On the other hand, if the grid point (X, Y) is an area where a movable object exists (step S120; Yes), the movable object area map changing unit 13 determines the “detection count” of the grid point (X, Y) at the point. “Observation count” × threshold value is set (step S121). If `` Observation count '' x threshold value is not an integer, but only an integer value can be set as `` Detection count '', the value obtained by rounding up the decimal part of `` Observation count '' x threshold value is set as the `` Detection count '' at that point. Set.

そして、地図作成部12は、「物体の有無」の設定対象の格子点を次に進める(ステップS122)。この処理は、例えば、Xに1を加算し、Xが規定範囲を超えたらXを0に戻してYに1を加算する。そして、地図作成部12は、全ての格子点(X,Y)の「物体の有無」を設定したか否かを判定する(ステップS123)。これは、先に説明したようにステップS122でXやYに1を加算している場合なら、Yの値が規定範囲を超えたか否かを判定すればよい。   Then, the map creating unit 12 advances the grid point to be set for “presence / absence of object” (step S122). In this processing, for example, 1 is added to X, and when X exceeds a specified range, X is returned to 0 and 1 is added to Y. Then, the map creation unit 12 determines whether or not the “presence / absence of object” of all grid points (X, Y) has been set (step S123). As described above, if 1 is added to X or Y in step S122 as described above, it may be determined whether or not the value of Y exceeds the specified range.

まだ全ての格子点の「物体の有無」を設定していないなら(ステップS123;No)、ステップS115に戻り、全ての格子点の「物体の有無」を設定しているなら(ステップS123;Yes)、ステップS102に戻る。   If “presence / absence of object” for all grid points has not been set yet (step S123; No), the process returns to step S115, and if “presence / absence of object” for all grid points has been set (step S123; Yes). ), The process returns to step S102.

以上の処理により、深度センサ31で観測した全ての格子点の「物体の有無」に、実際に観測された物体の有無が設定される。また、可動物体検出センサ32で観測した可動物体の存在する格子点の「検出回数」は、ステップS117の判定においてぎりぎり閾値を上回るように設定されるので、可動物体が移動していなくなると、ステップS117での判定ですぐに閾値を下回るようになり、ステップS118において、その格子点は「物体無し」に設定されるようになる。したがって、可動物体が移動したことをすぐに地図に反映することができる。   With the above processing, the presence / absence of an actually observed object is set in the “presence / absence of object” of all lattice points observed by the depth sensor 31. In addition, since the “detection count” of the lattice point where the movable object is present, which is observed by the movable object detection sensor 32, is set to exceed the threshold value in the determination in step S117, if the movable object is no longer moving, As a result of the determination in S117, the value immediately falls below the threshold value, and in step S118, the lattice point is set to “no object”. Therefore, it is possible to immediately reflect on the map that the movable object has moved.

次に、地図作成モジュール52で作成された地図を用いて目的地までの経路を計画する経路計画モジュール53の処理内容について、図6を参照して説明する。   Next, processing contents of the route planning module 53 for planning a route to the destination using the map created by the map creating module 52 will be described with reference to FIG.

まず、制御部10は、自律移動装置100が動作を終了するか否かを判定する(ステップS201)。動作を終了するなら(ステップS201;Yes)、処理を終了する。動作を終了しないなら(ステップS201;No)、経路計画部14は、目的地が設定されたか否かを判定する(ステップS202)。目的地は、自律移動装置100のユーザが通信部43を介して設定することもあるし、自律移動装置100が必要に応じて(例えば、バッテリー残量が所定量(例えば10%)を下回った場合に、充電ステーションを目的地に設定する等)自律的に設定することもある。   First, the control part 10 determines whether the autonomous mobile apparatus 100 complete | finishes operation | movement (step S201). If the operation is finished (step S201; Yes), the process is finished. If the operation is not terminated (step S201; No), the route planning unit 14 determines whether or not the destination is set (step S202). The destination may be set by the user of the autonomous mobile device 100 via the communication unit 43, or the autonomous mobile device 100 may need to set the destination (for example, the remaining battery level falls below a predetermined amount (for example, 10%)). In some cases, the charging station may be set autonomously (such as setting the charging station as the destination).

目的地が設定されているなら(ステップS202;Yes)、地図を取得するためにステップS204へ進む。目的地が設定されていないなら(ステップS202;No)、経路計画部14は、移動制御モジュール54からエラーが通知されたか否かを判定する(ステップS203)。エラーが通知されていないなら(ステップS203;No)、ステップS201に戻る。エラーが通知されたなら(ステップS203;Yes)、再度地図を取得するためにステップS204に進む。   If the destination has been set (step S202; Yes), the process proceeds to step S204 to obtain a map. If the destination is not set (step S202; No), the route planning unit 14 determines whether an error is notified from the movement control module 54 (step S203). If no error has been notified (step S203; No), the process returns to step S201. If an error is notified (step S203; Yes), it will progress to step S204 in order to acquire a map again.

そして、経路計画部14は、地図作成モジュール52が作成した、その時点で最新の地図を取得する(ステップS204)。次に、経路計画部14は、位置姿勢推定モジュール51が推定した自機の現在の位置及び姿勢を取得する(ステップS205)。そして、経路計画部14は、取得した地図並びに位置及び姿勢と設定された目的地とに基づき、現在位置から目的地までの経路を計画する(ステップS206)。   Then, the route planning unit 14 acquires the latest map created by the map creation module 52 at that time (step S204). Next, the path planning unit 14 acquires the current position and orientation of the own device estimated by the position / orientation estimation module 51 (step S205). Then, the route planning unit 14 plans a route from the current position to the destination based on the acquired map, the position and orientation, and the set destination (step S206).

そして、経路計画部14は、経路が計画できたか否か(経路が存在するか否か)を判定する(ステップS207)。経路が存在しないなら(ステップS207;No)、ユーザにその旨を通知する等のエラー処理を行い(ステップS208)、ステップS201に戻る。経路が存在するなら(ステップS207;Yes)、経路計画部14は、計画した経路を移動制御モジュール54に通知し(ステップS209)、ステップS201に戻る。   Then, the route planning unit 14 determines whether the route has been planned (whether the route exists) (step S207). If there is no path (step S207; No), error processing such as notifying the user of that is performed (step S208), and the process returns to step S201. If a route exists (step S207; Yes), the route plan unit 14 notifies the movement control module 54 of the planned route (step S209), and returns to step S201.

以上の経路計画モジュール53の処理により、目的地までの経路が得られる。次に、この経路を用いて目的地まで移動制御を行う移動制御モジュール54の処理内容について、図7を参照して説明する。   The route to the destination is obtained by the processing of the route planning module 53 described above. Next, processing contents of the movement control module 54 that performs movement control to the destination using this route will be described with reference to FIG.

まず、制御部10は、自律移動装置100が動作を終了するか否かを判定する(ステップS301)。動作を終了するなら(ステップS301;Yes)、処理を終了する。動作を終了しないなら(ステップS301;No)、移動制御部15は、経路計画モジュール53により経路が設定されたか否か(経路計画モジュール53が計画した経路が通知されたか否か)を判定する(ステップS302)。経路が通知されていないなら(ステップS302;No)、経路がまだ設定されていないということなので、ステップS301に戻る。   First, the control part 10 determines whether the autonomous mobile apparatus 100 complete | finishes operation | movement (step S301). If the operation is finished (step S301; Yes), the process is finished. If the operation is not finished (step S301; No), the movement control unit 15 determines whether or not a route is set by the route planning module 53 (whether or not a route planned by the route planning module 53 is notified) (step S301; No). Step S302). If the route is not notified (step S302; No), it means that the route has not been set yet, and the process returns to step S301.

経路が通知されたなら(ステップS302;Yes)、経路が設定されたということなので、移動制御部15は、経路計画モジュール53が計画したその経路を取得する(ステップS303)。次に、移動制御部15は、位置姿勢推定モジュール51が推定した自機の現在の位置及び姿勢を取得する(ステップS304)。そして、移動制御部15は、自機が目的地に到着したか否かを判定する(ステップS305)。なお、経路の情報には、目的地の情報も含まれるため、移動制御部15は、現在の位置が経路に含まれる目的地と一致するか否かを判定することにより、目的地に到着したか否かを判定することができる。   If the route is notified (step S302; Yes), it means that the route has been set, and the movement control unit 15 acquires the route planned by the route planning module 53 (step S303). Next, the movement control unit 15 acquires the current position and orientation of the own device estimated by the position and orientation estimation module 51 (step S304). Then, the movement control unit 15 determines whether or not the own device has arrived at the destination (step S305). Since the route information includes destination information, the movement control unit 15 arrives at the destination by determining whether or not the current position matches the destination included in the route. It can be determined whether or not.

目的地に到着したなら(ステップS305;Yes)、ステップS301に戻る。目的地に到着していないなら(ステップS305;No)、移動制御部15は、地図作成モジュール52が作成した、その時点で最新の地図を取得する(ステップS306)。そして、移動制御部15は、取得した地図及び経路に基づき、経路に沿って移動可能か否かを判定する(ステップS307)。   If the destination has been reached (step S305; Yes), the process returns to step S301. If the destination has not been reached (step S305; No), the movement control unit 15 acquires the latest map created by the map creation module 52 at that time (step S306). And the movement control part 15 determines whether it can move along a path | route based on the acquired map and path | route (step S307).

経路に沿って移動が可能でないなら(ステップS307:No)、経路計画モジュール53にエラーを通知し(ステップS308)、ステップS301に戻る。経路に沿って移動可能なら(ステップS307;Yes)、経路に沿って移動するように駆動部42を制御し(ステップS309)、ステップS304に戻る。   If movement along the route is not possible (step S307: No), an error is notified to the route planning module 53 (step S308), and the process returns to step S301. If it can move along the route (step S307; Yes), the drive unit 42 is controlled to move along the route (step S309), and the process returns to step S304.

以上の移動制御モジュール54の処理により、自律移動装置100は、目的地まで移動することができる。そして、地図作成モジュール52が作成する地図は、可動物体が移動したことがすぐに反映される地図になっているため、過去に人等の可動物体が存在しても、現在その可動物体が存在しない場所であれば、経路計画モジュール53は、そのような場所を回避しない経路を計画することができ、自律移動装置100が本来必要のない回避動作をすることを防ぐことができる。   Through the processing of the movement control module 54 described above, the autonomous mobile device 100 can move to the destination. Since the map created by the map creation module 52 is a map that immediately reflects the movement of the movable object, even if a movable object such as a person has existed in the past, the movable object currently exists. If it is not a place, the route planning module 53 can plan a route that does not avoid such a place, and the autonomous mobile device 100 can be prevented from performing an unnecessary avoidance operation.

(実施形態1の変形例1)
実施形態1の地図作成モジュール52の処理において、図4のステップS121では、「観測回数」×閾値を「検出回数」に設定することにより、「検出回数」÷「観測回数」が閾値と一致するようにしているが、「検出回数」÷「観測回数」が閾値よりも若干大きくなるように「検出回数」を設定しても良い。このようにすると、可動物体の存在に対しても小さなヒステリシスを生じさせることができる。つまり、その後、可動物体の存在した場所での深度センサ31による物体の検出が1〜2回行われなかったとしても、「検出回数」÷「観測回数」を閾値以上に保つことができる。深度センサ31は物体が存在しているにもかかわらず、その物体の存在を検出できないことがまれにあるが、このような処理によって、小さなヒステリシスを生じさせれば、深度センサ31での検出漏れがあった場合でも、可動物体の存在を見失わずに地図を作成することができる。
(Modification 1 of Embodiment 1)
In the processing of the map creation module 52 of the first embodiment, in step S121 in FIG. 4, “number of times of detection” ÷ “number of times of observation” matches the threshold value by setting “number of times of observation” × threshold value to “number of times of detection”. However, the “number of detections” may be set so that “the number of detections” ÷ “the number of observations” is slightly larger than the threshold. In this way, a small hysteresis can be generated even for the presence of a movable object. That is, after that, even if the detection of the object by the depth sensor 31 is not performed once or twice at the place where the movable object exists, “the number of detections” ÷ “the number of observations” can be kept above the threshold value. Although the depth sensor 31 is rarely able to detect the presence of the object even though the object is present, if a small hysteresis is caused by such processing, the detection of the depth sensor 31 is not detected. Even if there is, you can create a map without losing sight of the presence of moving objects.

(実施形態1の変形例2)
実施形態1では、可動物体の存在する場所に対応する格子点の「検出回数」を、ステップS117の判定においてぎりぎり閾値を上回るように変更する。しかし、各格子点では、「検出回数」÷「観測回数」に基づいて、その格子点での物体の正しい存在確率が得られている。したがって、「検出回数」を変更せずに、正しい存在確率をそのまま保ちたい場合もあると考えられる。このような場合には、地図の情報として、「観測回数」、「検出回数」、「物体の有無」に加えて「閾値」も含めるようにし、可動物体が検出された格子点の「閾値」を通常の閾値(例えば0.6)よりも大きな値(例えば0.9)の「可動物体用閾値」に設定するようにしても良い。この場合、地図の初期化の際には各格子点の「閾値」には通常の閾値を設定しておく。
(Modification 2 of Embodiment 1)
In the first embodiment, the “number of detections” of the lattice point corresponding to the place where the movable object exists is changed so as to exceed the threshold value in the determination in step S117. However, at each grid point, the correct existence probability of the object at that grid point is obtained based on “number of detections” ÷ “number of observations”. Therefore, it is considered that there is a case where it is desired to keep the correct existence probability as it is without changing the “number of detections”. In such a case, the map information includes “threshold” in addition to “observation count”, “detection count”, “presence / absence of object”, and “threshold value” of the grid point where the movable object is detected. May be set to a “threshold for movable object” having a larger value (eg, 0.9) than a normal threshold value (eg, 0.6). In this case, when the map is initialized, a normal threshold is set as the “threshold” for each grid point.

このようにすることにより、「観測回数」や「検出回数」を変更しなくても、実施形態1と同じく、可動物体が移動していなくなると、ステップS117での判定で「検出回数」÷「観測回数」はすぐに「閾値」(可動物体用閾値)を下回るようになる。したがって、可動物体が移動したことをすぐに地図に反映することができる。しかも、各格子点では、「検出回数」÷「観測回数」に基づいて、その格子点での物体の正しい存在確率を得ることができる。なお、「閾値」を「可動物体用閾値」に変更した格子点については、その後その格子点の「検出回数」÷「観測回数」が通常の閾値(例えば0.6)を下回ったら、「閾値」の値を可動物体用閾値から通常の閾値の値に戻す。   By doing this, even if the “observation count” and “detection count” are not changed, as in the first embodiment, if the movable object is not moved, the determination in step S117 is “detection count” ÷ “ The “number of observations” immediately falls below the “threshold” (threshold for movable objects). Therefore, it is possible to immediately reflect on the map that the movable object has moved. Moreover, at each grid point, the correct existence probability of the object at that grid point can be obtained based on “number of detections” ÷ “number of observations”. For a grid point whose “threshold value” is changed to “threshold value for movable object”, if the “number of detections” ÷ “number of observations” of the grid point thereafter falls below a normal threshold value (for example, 0.6), “threshold value” Is returned from the movable object threshold value to the normal threshold value.

(実施形態2)
実施形態1に係る自律移動装置100において、地図作成モジュール52が作成する地図は、可動物体が移動したことがすぐに反映される地図ではあるが、可動物体と他の静止物体とは区別されずに記憶されている。したがって、経路計画モジュール53は、地図を取得するタイミングによっては、直後に移動して存在しなくなる可動物体を回避する経路を計画することになる。この場合、自律移動装置100は本来不要な回避のための移動を行うことになる。このようなことを避けるためには、可動物体以外の静止物体だけに基づいて経路を計画することが考えられる。静止物体だけに基づく経路に沿って移動すると、可動物体に衝突する可能性があるが、衝突を防ぐには、自律移動装置は、移動する最中に可動物体を回避する移動制御を行えば良い。このような考え方に基づく実施形態2について説明する。
(Embodiment 2)
In the autonomous mobile device 100 according to the first embodiment, the map created by the map creation module 52 is a map that immediately reflects the movement of the movable object, but the movable object and other stationary objects are not distinguished. Is remembered. Therefore, the route planning module 53 plans a route that avoids a movable object that moves and immediately disappears depending on the timing of acquiring a map. In this case, the autonomous mobile device 100 performs a movement for avoiding unnecessary. In order to avoid such a situation, it is conceivable to plan a route based only on a stationary object other than a movable object. When moving along a path based only on a stationary object, there is a possibility of colliding with a movable object. However, in order to prevent a collision, the autonomous mobile device may perform movement control to avoid the movable object during the movement. . A second embodiment based on this concept will be described.

本発明の実施形態2に係る自律移動装置101の機能構成は、図8に示すように、実施形態1に係る自律移動装置100の機能構成に、可動物体無し地図作成部18と可動物体無し地図記憶部25を追加した構成になっている。その他の構成については実施形態1に係る自律移動装置100と同じである。ただし、地図記憶部22が各格子点に記録する「物体の有無」は、「物体有り」、「物体無し」、「未観測」に加え「可動物体有り」の値も取るので、合計4通りの値を取る。   As shown in FIG. 8, the functional configuration of the autonomous mobile device 101 according to the second embodiment of the present invention is the same as the functional configuration of the autonomous mobile device 100 according to the first embodiment. The storage unit 25 is added. Other configurations are the same as those of the autonomous mobile device 100 according to the first embodiment. However, the “presence / absence of object” recorded at each grid point by the map storage unit 22 takes the values of “with object”, “without object”, “unobserved” and “with movable object”, so there are four types in total. Take the value of

可動物体無し地図作成部18は、深度センサ31や可動物体検出センサ32からの情報を用いて、可動物体の存在を無視して、障害物(物体)の位置を記録した占有格子地図を作成し、可動物体無し地図記憶部25に記憶する。つまり深度センサ31が物体を検出しても、可動物体検出センサ32によりその物体が可動物体であることが検出された場合は、その物体は存在しないものとして占有格子地図を作成する。この占有格子地図も、地図作成部12が作成する占有格子地図と同様に、平面を格子点に分割し、各格子点に「観測回数」、「検出回数」、「物体の有無」を記録したものである。   The movable object-free map creating unit 18 uses the information from the depth sensor 31 and the movable object detection sensor 32 to create an occupied grid map in which the position of the obstacle (object) is recorded while ignoring the presence of the movable object. Then, the map is stored in the movable object-free map storage unit 25. That is, even if the depth sensor 31 detects an object, if the movable object detection sensor 32 detects that the object is a movable object, an occupied grid map is created assuming that the object does not exist. Similarly to the occupied grid map created by the map creating unit 12, this occupied grid map also divides the plane into grid points and records “number of observations”, “number of detections”, and “presence / absence of object” at each grid point. Is.

可動物体無し地図記憶部25には、可動物体無し地図作成部18が作成した地図が記憶される。   The map created by the movable object-free map creating unit 18 is stored in the movable object-free map storage unit 25.

実施形態2に係る自律移動装置101のソフトウェアモジュールの全体構成は、図3に示す実施形態1に係る自律移動装置100のソフトウェアモジュールの全体構成と同じなので、説明は省略する。   The overall configuration of the software module of the autonomous mobile device 101 according to Embodiment 2 is the same as the overall configuration of the software module of the autonomous mobile device 100 according to Embodiment 1 shown in FIG.

では、実施形態2に係る地図作成モジュール52の処理内容について、図9を参照して説明する。ただし、この処理内容は、図4を参照して説明した実施形態1に係る地図作成モジュール52の処理内容と重複する部分がかなりあるため、適宜省略しながら説明する。   Now, the processing content of the map creation module 52 according to the second embodiment will be described with reference to FIG. However, since this processing content overlaps considerably with the processing content of the map creation module 52 according to the first embodiment described with reference to FIG.

まず、ステップS401〜ステップS409は、図4のステップS101〜S109と同じ処理なので、説明を省略する。   First, steps S401 to S409 are the same as steps S101 to S109 in FIG.

ステップS410では、可動物体無し地図作成部18は、ステップS409で取得した物体の存在する格子点が可動物体の存在する領域か否かを判定する。この判定は、角度Aが、ステップS405で取得した可動物体の存在する角度の範囲に入っているか否かで判定することができる。   In step S410, the movable object-free map creation unit 18 determines whether or not the lattice point where the object acquired in step S409 exists is an area where the movable object exists. This determination can be made based on whether or not the angle A is within the range of the angle at which the movable object obtained in step S405 exists.

物体の存在する格子点が可動物体の存在する領域なら(ステップS410;Yes)、ステップS413に進む。物体の存在する格子点が可動物体の存在する領域でないなら(ステップS410;No)、地図作成部12は、物体の存在する格子点の「検出回数」に1を加算する(ステップS411)。次に、地図作成部12は、深度センサ31から物体までの全ての格子点の「観測回数」に1を加算する(ステップS412)。   If the lattice point where the object exists is an area where the movable object exists (step S410; Yes), the process proceeds to step S413. If the grid point where the object exists is not the area where the movable object exists (step S410; No), the map creating unit 12 adds 1 to the “detection count” of the grid point where the object exists (step S411). Next, the map creating unit 12 adds 1 to the “number of observations” of all grid points from the depth sensor 31 to the object (step S412).

ステップS413〜ステップS420は、図4のステップS112〜S119と同じ処理なので、説明を省略する。また、ステップS421は図4のステップS122と同じ処理なので、説明を省略する。   Steps S413 to S420 are the same as steps S112 to S119 in FIG. Step S421 is the same as step S122 in FIG.

ステップS422では、地図作成部12は、全ての格子点(X,Y)の「物体の有無」を設定したか否かを判定する。まだ全ての格子点の「物体の有無」を設定していないなら(ステップS422;No)、ステップS416に戻り、全ての格子点の「物体の有無」を設定しているなら(ステップS422;Yes)、可動物体無し地図作成部18は、それまでに地図作成部12が作成した地図を可動物体無し地図記憶部25に保存する(ステップS423)。   In step S422, the map creating unit 12 determines whether or not the “presence / absence of object” of all grid points (X, Y) has been set. If “presence / absence of object” for all grid points has not been set yet (step S422; No), the process returns to step S416, and if “presence / absence of object” for all grid points has been set (step S422; Yes). ) The movable object-free map creating unit 18 stores the map created by the map creating unit 12 so far in the movable object-free map storage unit 25 (step S423).

次に、各角度での深度データに基づいて、可動物体を含めた地図を作成するために、制御部10は、角度の初期値としてA=−30°を設定する(ステップS424)。そして、制御部10は角度Aにおける深度データが存在するか否かを判定する(ステップS425)。角度Aにおける深度データが存在しなければ(ステップS425;No)、ステップS429に進む。   Next, in order to create a map including a movable object based on the depth data at each angle, the control unit 10 sets A = −30 ° as an initial value of the angle (step S424). And the control part 10 determines whether the depth data in the angle A exists (step S425). If there is no depth data at the angle A (step S425; No), the process proceeds to step S429.

角度Aにおける深度データが存在するなら(ステップS425;Yes)、地図作成部12は、角度Aにおける深度データ(深度センサ31を原点とする極座標での位置)を、ステップS404で取得した自機の位置及び姿勢の値を用いて、格子点の座標に変換し、物体の存在する格子点を取得する(ステップS426)。そして、この物体の存在する格子点が可動物体の存在する領域か否かを判定する(ステップS427)。この判定は、角度Aが、ステップS405で取得した可動物体の存在する角度の範囲に入っているか否かで判定することができる。   If there is depth data at the angle A (step S425; Yes), the map creating unit 12 acquires the depth data at the angle A (position in polar coordinates with the depth sensor 31 as the origin) of the own device acquired in step S404. Using the position and orientation values, the coordinates are converted into the coordinates of the grid points, and the grid points where the object exists are acquired (step S426). Then, it is determined whether or not the lattice point where the object exists is an area where the movable object exists (step S427). This determination can be made based on whether or not the angle A is within the range of the angle at which the movable object obtained in step S405 exists.

この物体の存在する格子点が可動物体の存在する領域でないなら(ステップS427;No)、ステップS429に進む。この格子点が可動物体の存在する領域なら(ステップS427;Yes)、その格子点の「物体の有無」を「可動物体有り」に設定する(ステップS428)。   If the lattice point where this object exists is not the area where the movable object exists (step S427; No), the process proceeds to step S429. If this lattice point is an area where a movable object exists (step S427; Yes), the “presence / absence of object” of the lattice point is set to “movable object present” (step S428).

ステップS429では、制御部10は、Aの値にΔA(深度センサの分解能。例えば0.1°)を加算する。そして、制御部10は、加算後のAが30°以下であるかを判定する(ステップS430)。Aが30°以下であるなら(ステップS430;Yes)、ステップS425に戻る。Aが30°を超えているなら(ステップS430;No)、地図作成部12は、地図記憶部22に記憶されている占有格子地図を可動物体有り地図として保存し(ステップS431)、ステップS402に戻る。   In step S429, the control unit 10 adds ΔA (depth sensor resolution, for example, 0.1 °) to the value of A. And the control part 10 determines whether A after addition is 30 degrees or less (step S430). If A is 30 ° or less (step S430; Yes), the process returns to step S425. If A exceeds 30 ° (step S430; No), the map creation unit 12 stores the occupied grid map stored in the map storage unit 22 as a movable object presence map (step S431), and the process proceeds to step S402. Return.

以上の処理により、可動物体の存在を無視した可動物体無し地図と、可動物体も含めた全ての障害物(物体)が記録された可動物体有り地図の、2つの地図が作成される。次に、実施形態2に係る経路計画モジュール53の処理内容について、図10を参照して説明する。ただし、この処理内容は、図6を参照して説明した実施形態1に係る経路計画モジュール53の処理内容と重複する部分がかなりあるため、適宜省略しながら説明する。   Through the above processing, two maps are created: a map without moving object that ignores the presence of the moving object, and a map with moving object in which all obstacles (objects) including the moving object are recorded. Next, processing contents of the route planning module 53 according to the second embodiment will be described with reference to FIG. However, since this processing content has a considerable overlap with the processing content of the route planning module 53 according to the first embodiment described with reference to FIG.

まず、ステップS501は、図6のステップS201と同じ処理である。次に、経路計画部14は、目的地が設定されたか否かを判定する(ステップS502)。目的地が設定されているなら(ステップS502;Yes)、経路計画部14は、地図作成モジュール52が作成した、可動物体無し地図を取得し(ステップS505)、ステップS506に進む。   First, step S501 is the same process as step S201 of FIG. Next, the route planning unit 14 determines whether or not a destination has been set (step S502). If the destination is set (step S502; Yes), the route plan unit 14 acquires the movable object-free map created by the map creation module 52 (step S505), and proceeds to step S506.

目的地が設定されていないなら(ステップS502;No)、経路計画部14は、移動制御モジュール54からエラーが通知されたか否かを判定する(ステップS503)。エラーが通知されていないなら(ステップS503;No)、ステップS501に戻る。エラーが通知されたなら(ステップS503;Yes)、経路計画部14は、地図作成モジュール52が作成した、その時点で最新の可動物体有り地図を取得し(ステップS504)、ステップS506に進む。   If the destination is not set (step S502; No), the route planning unit 14 determines whether an error is notified from the movement control module 54 (step S503). If no error has been notified (step S503; No), the process returns to step S501. If an error is notified (step S503; Yes), the route planning unit 14 acquires the latest moving object presence map created by the map creation module 52 at that time (step S504), and proceeds to step S506.

ステップS506〜ステップS510は、図6のステップS205〜S209と同じ処理である。   Steps S506 to S510 are the same processes as steps S205 to S209 in FIG.

以上の経路計画モジュール53の処理により、最初は可動物体無し地図により、可動物体の存在を無視した効率的な経路を計画することができる。そして、もし可動物体の存在により経路に沿って移動できない場合には、移動制御モジュール54からエラーが通知されるので、その時点での可動物体有り地図により、可動物体を回避した経路を計画できる。次に、この経路を用いて目的地まで移動制御を行う移動制御モジュール54の処理内容について、図11を参照して説明する。   Through the processing of the route planning module 53 described above, it is possible to plan an efficient route ignoring the presence of a movable object using a map without a movable object at first. If the movement control module 54 is not able to move along the route due to the presence of the movable object, an error is notified from the movement control module 54. Therefore, a route avoiding the movable object can be planned based on the movable object presence map at that time. Next, processing contents of the movement control module 54 that performs movement control to the destination using this route will be described with reference to FIG.

ただし、実施形態2に係る移動制御モジュール54の処理内容は、図7を参照して説明した実施形態1に係る移動制御モジュール54の処理内容と、ステップS606以外は同じであるので、異なる点のみを説明する。実施形態1に係る移動制御モジュール54では、1つの占有格子地図しか使用していなかったので、ステップS306では、その1つの占有格子地図を取得する。実施形態2に係る移動制御モジュール54では、可動物体無し地図と可動物体有り地図の2種類の占有格子地図が存在するが、ステップS606では、可動物体有り地図を取得する。ステップS606以外は、図11に示す実施形態2に係る移動制御モジュール54の処理は、図7に示す実施形態1に係る移動制御モジュール54の処理と同じである。   However, the processing content of the movement control module 54 according to the second embodiment is the same as the processing content of the movement control module 54 according to the first embodiment described with reference to FIG. 7 except for step S606. Will be explained. Since only one occupied grid map is used in the movement control module 54 according to the first embodiment, the single occupied grid map is acquired in step S306. In the movement control module 54 according to the second embodiment, there are two types of occupied grid maps: a map without a movable object and a map with a movable object. In step S606, a map with a movable object is acquired. Except for step S606, the process of the movement control module 54 according to the second embodiment shown in FIG. 11 is the same as the process of the movement control module 54 according to the first embodiment shown in FIG.

以上の処理により、移動制御の際は、常に可動物体の存在も考慮して駆動部42を制御し、可動物体にぶつからないように移動することができる。しかも、経路は最初、可動物体無し地図を用いて計画されるので、可動物体の存在を無視した効率的な経路を計画できる。   With the above processing, in the case of movement control, it is possible to control the drive unit 42 in consideration of the presence of a movable object, and to move so as not to hit the movable object. In addition, since the route is initially planned using a map without moving objects, an efficient route can be planned ignoring the presence of moving objects.

(変形例1)
上述した実施形態では、角度Aにおける深度データが存在しない場合は、角度Aに対応する全ての点(図5のL1で示す線が通る灰色の点)の観測回数に1を加算している。しかし、深度センサ31によっては測定可能な距離範囲があり、物体(障害物)がその範囲より近くにあるのか遠くにあるのか区別できない場合には、深度データが存在せず、物体(障害物)の位置を地図に記録する事ができない。このような場合、図4の実施形態1の地図作成モジュール52のステップS108や、図9の実施形態2の地図作成モジュール52のステップS408は省略してよい。ステップS108やステップS408の処理は、地図が大きい場合にはかなり処理時間がかかるので、この処理を省略することにより、地図作成モジュール52の処理の高速化を図ることができる。
(Modification 1)
In the embodiment described above, when there is no depth data at the angle A, 1 is added to the number of observations of all points corresponding to the angle A (gray points through which a line indicated by L1 in FIG. 5 passes). However, depending on the depth sensor 31, there is a measurable distance range, and when it is impossible to distinguish whether the object (obstacle) is closer or farther than that range, there is no depth data, and the object (obstacle) The location of can't be recorded on the map. In such a case, step S108 of the map creation module 52 of the first embodiment in FIG. 4 and step S408 of the map creation module 52 of the second embodiment in FIG. 9 may be omitted. Since the processing of step S108 and step S408 takes a considerable amount of processing time when the map is large, the processing of the map creating module 52 can be speeded up by omitting this processing.

(変形例2)
また、上述した実施形態は、いずれも、物体(障害物)の存在確率pを「検出回数」÷「観測回数」で計算し、pが閾値以上であるか否かにより、物体の有無を判定している。この場合、存在確率pの計算には割り算を行う必要があるが、割り算は加算や減算に比較して計算時間がより多く必要である。そこで、対数オッズの考え方を用いることにより、割り算を不要とする処理にすることもできる。対数オッズlは、log(p/(1−p))で求められ、存在確率pの値の範囲は0〜1であるが、これに対応する対数オッズlの値の範囲は−∞〜∞となる。このため、存在確率pやその閾値は小数の値として扱う必要があるが、これに対応する対数オッズlやその閾値は整数の値を用いることができ、この観点でも処理をかなり高速化できることになる。また、対数オッズを使うことにより、速度の効果だけでなく存在確率を0や1付近で更新した時に、桁落ちの発生を防ぐという効果もある。
(Modification 2)
In any of the embodiments described above, the existence probability p of an object (obstacle) is calculated by “number of detections” ÷ “number of observations”, and whether or not an object is present is determined based on whether p is equal to or greater than a threshold value. doing. In this case, division needs to be performed to calculate the existence probability p, but division requires more calculation time than addition and subtraction. Therefore, by using the concept of log odds, it is also possible to make the processing unnecessary division. Logarithmic odds l is obtained by log (p / (1-p)), and the range of the value of existence probability p is 0 to 1, but the range of values of logarithmic odds l corresponding to this is −∞ to ∞. It becomes. For this reason, the existence probability p and its threshold value need to be treated as decimal values, but the logarithmic odds l and its threshold value corresponding to this can use integer values, and from this point of view, the processing can be considerably speeded up. Become. In addition, by using log odds, not only the speed effect but also the effect of preventing the occurrence of a digit loss when the existence probability is updated near 0 or 1 is obtained.

対数オッズの考え方を用いる場合の処理について、実施形態1の地図作成モジュール52(図4)の処理における相違点を中心に説明する。なお、高速化に貢献するので、変形例1の説明で述べたステップS108の処理の省略も同時に行うこととする。対数オッズの考え方を用いる場合は、地図記憶部22に記憶する占有格子地図60の各格子点には「観測回数」及び「検出回数」の代わりに「対数オッズ」を記録する。そして、ステップS101では、「対数オッズ」を初期値0に、「物体の有無」を「未観測」に設定する。   Processing in the case of using the logarithmic odds concept will be described focusing on differences in processing of the map creation module 52 (FIG. 4) of the first embodiment. In addition, since it contributes to speeding up, the process of step S108 described in the description of the modification 1 is omitted at the same time. When the logarithmic odds concept is used, “logarithmic odds” are recorded instead of “observation count” and “detection count” at each grid point of the occupied grid map 60 stored in the map storage unit 22. In step S101, “log odds” is set to an initial value 0, and “presence / absence of object” is set to “unobserved”.

そして、物体を検出したら、ステップS110では、「検出回数」に1を加算する代わりに、「対数オッズ」に2を加算する。そして、ステップS111では、深度センサ31から物体までの格子点の「観測回数」に1を加算する代わりに、深度センサ31から物体の手前までの格子点の「対数オッズ」から2を減算する。つまり、図5のL2で示す線が通る格子点のうち、灰色の格子点の「対数オッズ」から2を減算し、濃い灰色の格子点の「対数オッズ」に2を加算する。なお、ここで加減算している値の2は例であって、他の値でも良い。また加算する値と減算する値とは異なっていても良い。   When an object is detected, in step S110, 2 is added to "logarithmic odds" instead of adding 1 to "number of detections". In step S111, instead of adding 1 to the “number of observations” of the grid point from the depth sensor 31 to the object, 2 is subtracted from the “log odds” of the grid point from the depth sensor 31 to the object. That is, 2 is subtracted from the “logarithmic odds” of the gray grid point among the grid points through which the line indicated by L2 in FIG. 5 passes, and 2 is added to the “logarithmic odds” of the dark gray grid point. Note that the value 2 added or subtracted here is an example, and other values may be used. The value to be added may be different from the value to be subtracted.

そして、物体の有無の判定には、物体有り判定用閾値(例えば1)と、物体無し判定用閾値(例えば−1)の二つの閾値を用意する。ステップS115の判定では、「対数オッズ」が物体無し判定用閾値以上、かつ、物体有り判定用閾値未満なら「未観測領域」と判定して、ステップS116に進む。また、ステップS117では、「対数オッズ」が物体無し判定用閾値未満なら、「物体無し領域」と判定して、ステップS118に進む。そして、「対数オッズ」が物体有り判定用閾値以上なら、「物体有り領域」と判定して、ステップS119に進む。そして、ステップS121では、「対数オッズ」に、物体有り判定用閾値を設定する。これ以外の処理は、図4に示す実施形態1の地図作成モジュール52の処理と同じである。このように、対数オッズの考え方を導入することにより、整数の加減算だけで物体の有無を判定できるようになり、地図作成モジュール52の処理を高速化することができる。   For the determination of the presence / absence of an object, two thresholds are prepared: an object presence determination threshold (for example, 1) and an object absence determination threshold (for example, -1). In the determination in step S115, if “log odds” is equal to or greater than the object absence determination threshold and less than the object presence determination threshold, it is determined as an “unobserved region” and the process proceeds to step S116. In step S117, if “logarithmic odds” is less than the object absence determination threshold, it is determined as “object absence region”, and the process proceeds to step S118. If “logarithmic odds” is equal to or larger than the object presence determination threshold, it is determined as “object presence region”, and the process proceeds to step S119. In step S121, an object presence determination threshold is set in “logarithmic odds”. The other processes are the same as those of the map creation module 52 of the first embodiment shown in FIG. In this way, by introducing the concept of log odds, it becomes possible to determine the presence or absence of an object only by adding and subtracting integers, and the processing of the map creation module 52 can be speeded up.

上記の変形例2では、実施形態1に基づいて対数オッズの考え方を導入する方法を説明したが、実施形態2においても、物体有無判定について、上記と同様に処理することにより、対数オッズの考え方を導入することができる。   In the second modification, the method of introducing the logarithmic odds concept based on the first embodiment has been described, but in the second embodiment, the logarithmic odds concept can be obtained by processing the object presence / absence determination in the same manner as described above. Can be introduced.

なお、本発明における「存在確率」は、各格子点における物体の存否を判定するための基準となる値として便宜上「存在確率」と呼んでいるものであり、物体の正確な存在確率である必要はない。したがって、上記全ての実施形態及び全ての変形例において、各格子点に記録している「検出回数」と「観測回数」の組や、「対数オッズ」のことも存在確率と呼ぶ。   The “existence probability” in the present invention is referred to as “existence probability” for convenience as a reference value for determining the presence / absence of an object at each lattice point, and must be an accurate existence probability of an object. There is no. Therefore, in all of the above-described embodiments and all of the modifications, a combination of “number of detections” and “number of observations” recorded at each grid point and “log odds” are also referred to as existence probabilities.

なお、上述した実施形態では、深度センサ31のスキャンする角度の範囲は、−30°〜30°としたが、これに限定されない。全方位360°スキャンできる深度センサ31を使用する場合は、スキャン範囲を−180°〜180°として処理してもよい。   In the above-described embodiment, the range of the angle scanned by the depth sensor 31 is −30 ° to 30 °, but is not limited thereto. When using the depth sensor 31 that can scan 360 ° in all directions, the scan range may be set to −180 ° to 180 °.

また、上述した実施形態は、いずれも、撮像部41が撮像した画像を画像記憶部21に記憶し、画像記憶部21に記憶された複数の画像を用いてSLAM処理により、地図の作成や自機位置の推定を行うこととしている。しかし、SLAM処理を行わなくても、駆動部42によるオドメトリの情報と深度センサ31による角度毎の深度データとを用いれば、位置推定や地図作成を行うことができる。したがって、SLAM処理を行わない場合は、自律移動装置100,101は、撮像部41や画像記憶部21を備えなくても良い。   In each of the above-described embodiments, the image captured by the image capturing unit 41 is stored in the image storage unit 21, and the map is created or automatically created by SLAM processing using a plurality of images stored in the image storage unit 21. The position of the aircraft is estimated. However, even if SLAM processing is not performed, position estimation and map creation can be performed using odometry information from the drive unit 42 and depth data for each angle from the depth sensor 31. Therefore, when the SLAM process is not performed, the autonomous mobile devices 100 and 101 do not need to include the imaging unit 41 and the image storage unit 21.

なお、この発明の自律移動装置100,101の各機能は、通常のPC(Personal Computer)等のコンピュータによっても実施することができる。具体的には、上記実施形態では、自律移動装置100,101が行う自律移動制御処理のプログラムが、記憶部20のROMに予め記憶されているものとして説明した。しかし、プログラムを、フレキシブルディスク、CD−ROM(Compact Disc Read Only Memory)、DVD(Digital Versatile Disc)及びMO(Magneto−Optical Disc)等のコンピュータ読み取り可能な記録媒体に格納して配布し、そのプログラムをコンピュータに読み込んでインストールすることにより、上述の各機能を実現することができるコンピュータを構成してもよい。   Note that the functions of the autonomous mobile devices 100 and 101 of the present invention can also be implemented by a computer such as a normal PC (Personal Computer). Specifically, in the above embodiment, the autonomous movement control processing program performed by the autonomous mobile devices 100 and 101 has been described as being stored in advance in the ROM of the storage unit 20. However, the program is stored and distributed on a computer-readable recording medium such as a flexible disk, CD-ROM (Compact Disc Read Only Memory), DVD (Digital Versatile Disc), and MO (Magneto-Optical Disc). A computer capable of realizing each of the functions described above may be configured by reading and installing the program on a computer.

以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲が含まれる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to the specific embodiment which concerns, This invention includes the invention described in the claim, and its equivalent range It is. Hereinafter, the invention described in the scope of claims of the present application will be appended.

(付記1)
地図を作成し、前記地図に基づいて移動する自律移動装置であって、
制御部を備え、
前記制御部は、
可動物体及びそれ以外の静止物体の存否を繰り返し確認し、
前記地図の所定の領域毎に、前記可動物体の存在確率及び前記静止物体の存在確率を記録するとともに、前記可動物体の存在確率と前記静止物体の存在確率とを異ならせることを特徴とする自律移動装置。
(Appendix 1)
An autonomous mobile device that creates a map and moves based on the map,
With a control unit,
The controller is
Repeatedly confirm the existence of movable objects and other stationary objects,
Autonomy characterized by recording the existence probability of the movable object and the existence probability of the stationary object for each predetermined area of the map, and making the existence probability of the movable object different from the existence probability of the stationary object Mobile equipment.

(付記2)
前記可動物体は人、生物、又は可動物であることを特徴とする、
付記1に記載の自律移動装置。
(Appendix 2)
The movable object is a person, a living thing, or a movable object,
The autonomous mobile device according to attachment 1.

(付記3)
地図を作成し、前記地図に基づいて移動する自律移動装置であって、
物体までの距離である深度データを取得する深度センサと、
可動物体を検出する可動物体検出センサと、
制御部とを備え、
前記制御部は、
前記深度センサが取得した深度データに基づいて、所定の領域毎に、前記物体の存在確率を記録する地図を作成し、
前記可動物体検出センサが前記可動物体を検出すると、前記可動物体が検出された前記所定の領域における前記存在確率を変更する、
自律移動装置。
(Appendix 3)
An autonomous mobile device that creates a map and moves based on the map,
A depth sensor that acquires depth data that is the distance to the object;
A movable object detection sensor for detecting a movable object;
A control unit,
The controller is
Based on the depth data acquired by the depth sensor, for each predetermined area, create a map that records the existence probability of the object,
When the movable object detection sensor detects the movable object, the existence probability in the predetermined region where the movable object is detected is changed.
Autonomous mobile device.

(付記4)
前記制御部は、
前記深度センサに、所定の方向毎に物体の存否を確認させ、物体が存在する場合には該物体までの距離である深度データを取得させ、
前記可動物体検出センサに、可動物体を検出させ、該可動物体検出センサが検出した情報に基づき、検出された可動物体が存在する方向を取得し、
前記深度センサに取得させた深度データによって定まる前記所定の領域での、前記物体の該深度データに基づく存在確率を記録する地図を作成し、
前記取得した方向に存在する可動物体に対応する前記所定の領域における前記存在確率を変更する、
付記3に記載の自律移動装置。
(Appendix 4)
The controller is
Let the depth sensor check the presence or absence of an object for each predetermined direction, if there is an object, to obtain depth data that is the distance to the object,
Causing the movable object detection sensor to detect a movable object, and based on information detected by the movable object detection sensor, obtaining a direction in which the detected movable object exists;
Creating a map for recording the existence probability based on the depth data of the object in the predetermined area determined by the depth data acquired by the depth sensor;
Changing the existence probability in the predetermined area corresponding to the movable object existing in the acquired direction;
The autonomous mobile device according to attachment 3.

(付記5)
前記制御部が作成する地図は、前記存在確率が所定の閾値以上であるか否かにより前記物体の前記所定の領域における存否を表し、
前記制御部は、前記取得した方向に存在する可動物体に対応する前記所定の領域における前記存在確率を、前記所定の閾値に変更する、
付記4に記載の自律移動装置。
(Appendix 5)
The map created by the control unit represents whether or not the object is present in the predetermined region depending on whether the existence probability is equal to or higher than a predetermined threshold.
The control unit changes the existence probability in the predetermined region corresponding to the movable object existing in the acquired direction to the predetermined threshold.
The autonomous mobile device according to attachment 4.

(付記6)
前記制御部が作成する地図は、前記存在確率が所定の閾値以上であるか否かにより前記物体の前記所定の領域における存否を表し、
前記制御部は、前記取得した方向に存在する可動物体に対応する前記所定の領域における前記存在確率を、前記所定の閾値よりも所定の値だけ大きな値に変更する、
付記4に記載の自律移動装置。
(Appendix 6)
The map created by the control unit represents whether or not the object is present in the predetermined region depending on whether the existence probability is equal to or higher than a predetermined threshold.
The control unit changes the existence probability in the predetermined area corresponding to the movable object existing in the acquired direction to a value larger than the predetermined threshold by a predetermined value;
The autonomous mobile device according to attachment 4.

(付記7)
前記制御部が作成する地図は、前記存在確率が所定の閾値以上であるか否かにより前記物体の前記所定の領域における存否を表し、
前記制御部は、前記取得した方向に存在する可動物体に対応する前記所定の領域における前記閾値を、所定の可動物体用閾値に変更する、
付記4に記載の自律移動装置。
(Appendix 7)
The map created by the control unit represents whether or not the object is present in the predetermined region depending on whether the existence probability is equal to or higher than a predetermined threshold.
The control unit changes the threshold value in the predetermined region corresponding to the movable object existing in the acquired direction to a predetermined movable object threshold value.
The autonomous mobile device according to attachment 4.

(付記8)
前記制御部は、
前記取得した方向以外の方向において、前記深度センサに取得させた深度データによって定まる前記所定の領域での前記存在確率により、前記可動物体以外の物体の該領域における存否を表す可動物体無し地図を作成し、
前記可動物体無し地図により、前記取得した方向に存在する前記可動物体に対応する前記所定の領域の前記存在確率を変更する、
付記4に記載の自律移動装置。
(Appendix 8)
The controller is
In a direction other than the acquired direction, a movable object-free map that represents the presence or absence of an object other than the movable object in the region is created based on the existence probability in the predetermined region determined by the depth data acquired by the depth sensor. And
The presence probability of the predetermined area corresponding to the movable object existing in the acquired direction is changed by the movable object-free map.
The autonomous mobile device according to attachment 4.

(付記9)
前記制御部は、
前記地図及び前記可動物体無し地図に基づいて目的地までの経路を計画し、
前記経路に基づいて自機の移動を制御し、
目的地が設定された直後は前記可動物体無し地図に基づいて前記目的地までの経路を計画する、
付記8に記載の自律移動装置。
(Appendix 9)
The controller is
Plan a route to the destination based on the map and the moving object-free map,
Control the movement of the aircraft based on the route,
Immediately after the destination is set, the route to the destination is planned based on the movable object-free map.
The autonomous mobile device according to appendix 8.

(付記10)
前記制御部は、前記可動物体無し地図に基づいて計画した経路では自機の移動を制御できない場合は、前記地図に基づいて経路を計画する、
付記9に記載の自律移動装置。
(Appendix 10)
The control unit, when it is not possible to control the movement of its own device in the route planned based on the map without moving objects, plans a route based on the map,
The autonomous mobile device according to attachment 9.

(付記11)
前記制御部は、
前記存在確率を前記物体の存否の確認回数に対する前記深度データの取得回数の割合として地図に記録する、
付記4から10のいずれか1つに記載の自律移動装置。
(Appendix 11)
The controller is
Recording the existence probability on a map as a ratio of the number of times the depth data is acquired to the number of times the object is confirmed
The autonomous mobile device according to any one of appendices 4 to 10.

(付記12)
前記制御部は、
前記存在確率を対数オッズにより地図に記録する、
付記3から10のいずれか1つに記載の自律移動装置。
(Appendix 12)
The controller is
Recording the probability of existence on a map with logarithmic odds;
The autonomous mobile device according to any one of appendices 3 to 10.

(付記13)
地図を作成して、前記作成した地図に基づいて移動するための自律移動方法であって、
可動物体を検出すると、可動物体が検出された領域の前記地図を変更する、
自律移動方法。
(Appendix 13)
An autonomous movement method for creating a map and moving based on the created map,
When the movable object is detected, the map of the area where the movable object is detected is changed.
Autonomous movement method.

(付記14)
所定の方向毎に物体の存否を確認し、物体が存在する場合には該物体までの距離である深度データを取得する深度データ取得ステップと、
可動物体を検出し、検出した前記可動物体の存在する方向を取得する可動物体存在方向取得ステップと、
前記深度データ取得ステップで取得した深度データによって定まる所定の領域での、前記物体の該深度データに基づく存在確率により、前記物体の前記所定の領域における存否を表す地図を作成する地図作成ステップと、
前記可動物体存在方向取得ステップで取得した方向に存在する前記可動物体に対応する前記所定の領域の前記地図を変更する可動物体領域地図変更ステップと、
を備える自律移動方法。
(Appendix 14)
A depth data acquisition step of confirming the presence or absence of an object for each predetermined direction and acquiring depth data that is a distance to the object when the object exists;
A movable object presence direction acquisition step of detecting a movable object and acquiring a direction in which the detected movable object exists;
A map creation step of creating a map indicating the presence or absence of the object in the predetermined region based on the existence probability based on the depth data of the object in the predetermined region determined by the depth data acquired in the depth data acquisition step;
A movable object region map changing step of changing the map of the predetermined region corresponding to the movable object existing in the direction acquired in the movable object presence direction acquiring step;
An autonomous movement method comprising:

(付記15)
コンピュータに、
所定の方向毎に物体の存否を確認し、物体が存在する場合には該物体までの距離である深度データを取得する深度データ取得ステップ、
可動物体を検出し、検出した前記可動物体の存在する方向を取得する可動物体存在方向取得ステップ、
前記深度データ取得ステップで取得した深度データによって定まる所定の領域での、前記物体の該深度データに基づく存在確率により、前記物体の前記所定の領域における存否を表す地図を作成する地図作成ステップ、
前記可動物体存在方向取得ステップで取得した方向に存在する前記可動物体に対応する前記所定の領域の前記地図を変更する可動物体領域地図変更ステップ、
を実行させるためのプログラム。
(Appendix 15)
On the computer,
A depth data acquisition step of confirming the presence or absence of an object for each predetermined direction and acquiring depth data that is a distance to the object if the object exists;
A movable object presence direction acquisition step of detecting a movable object and acquiring a direction in which the detected movable object exists;
A map creating step for creating a map representing the presence or absence of the object in the predetermined region based on the existence probability based on the depth data of the object in the predetermined region determined by the depth data acquired in the depth data acquiring step;
A movable object region map change step for changing the map of the predetermined region corresponding to the movable object existing in the direction acquired in the movable object presence direction acquisition step;
A program for running

100,101…自律移動装置、10…制御部、11…位置姿勢推定部、12…地図作成部、13…可動物体領域地図変更部、14…経路計画部、15…移動制御部、16…深度データ取得部、17…可動物体存在方向取得部、18…可動物体無し地図作成部、20…記憶部、21…画像記憶部、22…地図記憶部、23…深度データ記憶部、24…可動物体存在方向記憶部、25…可動物体無し地図記憶部、30…センサ部、31…深度センサ、32…可動物体検出センサ、41…撮像部、42…駆動部、43…通信部、51…位置姿勢推定モジュール、52…地図作成モジュール、53…経路計画モジュール、54…移動制御モジュール、60…占有格子地図 DESCRIPTION OF SYMBOLS 100, 101 ... Autonomous mobile device, 10 ... Control part, 11 ... Position and orientation estimation part, 12 ... Map preparation part, 13 ... Movable object area map change part, 14 ... Path planning part, 15 ... Movement control part, 16 ... Depth Data acquisition unit, 17 ... movable object presence direction acquisition unit, 18 ... movable object-free map creation unit, 20 ... storage unit, 21 ... image storage unit, 22 ... map storage unit, 23 ... depth data storage unit, 24 ... movable object Presence direction storage unit, 25 ... Map storage unit without moving object, 30 ... Sensor unit, 31 ... Depth sensor, 32 ... Movable object detection sensor, 41 ... Imaging unit, 42 ... Drive unit, 43 ... Communication unit, 51 ... Position and orientation Estimating module 52 ... Map creation module 53 ... Route planning module 54 ... Movement control module 60 ... Occupied grid map

Claims (15)

地図を作成し、前記地図に基づいて移動する自律移動装置であって、
制御部を備え、
前記制御部は、
可動物体及びそれ以外の静止物体の存否を繰り返し確認し、
前記地図の所定の領域毎に、前記可動物体の存在確率及び前記静止物体の存在確率を記録するとともに、前記可動物体の存在確率と前記静止物体の存在確率とを異ならせることを特徴とする自律移動装置。
An autonomous mobile device that creates a map and moves based on the map,
With a control unit,
The controller is
Repeatedly confirm the existence of movable objects and other stationary objects,
Autonomy characterized by recording the existence probability of the movable object and the existence probability of the stationary object for each predetermined area of the map, and making the existence probability of the movable object different from the existence probability of the stationary object Mobile equipment.
前記可動物体は人、生物、又は可動物であることを特徴とする、
請求項1に記載の自律移動装置。
The movable object is a person, a living thing, or a movable object,
The autonomous mobile device according to claim 1.
地図を作成し、前記地図に基づいて移動する自律移動装置であって、
物体までの距離である深度データを取得する深度センサと、
可動物体を検出する可動物体検出センサと、
制御部とを備え、
前記制御部は、
前記深度センサが取得した深度データに基づいて、所定の領域毎に、前記物体の存在確率を記録する地図を作成し、
前記可動物体検出センサが前記可動物体を検出すると、前記可動物体が検出された前記所定の領域における前記存在確率を変更する、
自律移動装置。
An autonomous mobile device that creates a map and moves based on the map,
A depth sensor that acquires depth data that is the distance to the object;
A movable object detection sensor for detecting a movable object;
A control unit,
The controller is
Based on the depth data acquired by the depth sensor, for each predetermined area, create a map that records the existence probability of the object,
When the movable object detection sensor detects the movable object, the existence probability in the predetermined region where the movable object is detected is changed.
Autonomous mobile device.
前記制御部は、
前記深度センサに、所定の方向毎に物体の存否を確認させ、物体が存在する場合には該物体までの距離である深度データを取得させ、
前記可動物体検出センサに、可動物体を検出させ、該可動物体検出センサが検出した情報に基づき、検出された可動物体が存在する方向を取得し、
前記深度センサに取得させた深度データによって定まる前記所定の領域での、前記物体の該深度データに基づく存在確率を記録する地図を作成し、
前記取得した方向に存在する可動物体に対応する前記所定の領域における前記存在確率を変更する、
請求項3に記載の自律移動装置。
The controller is
Let the depth sensor check the presence or absence of an object for each predetermined direction, if there is an object, to obtain depth data that is the distance to the object,
Causing the movable object detection sensor to detect a movable object, and based on information detected by the movable object detection sensor, obtaining a direction in which the detected movable object exists;
Creating a map for recording the existence probability based on the depth data of the object in the predetermined area determined by the depth data acquired by the depth sensor;
Changing the existence probability in the predetermined area corresponding to the movable object existing in the acquired direction;
The autonomous mobile device according to claim 3.
前記制御部が作成する地図は、前記存在確率が所定の閾値以上であるか否かにより前記物体の前記所定の領域における存否を表し、
前記制御部は、前記取得した方向に存在する可動物体に対応する前記所定の領域における前記存在確率を、前記所定の閾値に変更する、
請求項4に記載の自律移動装置。
The map created by the control unit represents whether or not the object is present in the predetermined region depending on whether the existence probability is equal to or higher than a predetermined threshold.
The control unit changes the existence probability in the predetermined region corresponding to the movable object existing in the acquired direction to the predetermined threshold.
The autonomous mobile device according to claim 4.
前記制御部が作成する地図は、前記存在確率が所定の閾値以上であるか否かにより前記物体の前記所定の領域における存否を表し、
前記制御部は、前記取得した方向に存在する可動物体に対応する前記所定の領域における前記存在確率を、前記所定の閾値よりも所定の値だけ大きな値に変更する、
請求項4に記載の自律移動装置。
The map created by the control unit represents whether or not the object is present in the predetermined region depending on whether the existence probability is equal to or higher than a predetermined threshold.
The control unit changes the existence probability in the predetermined area corresponding to the movable object existing in the acquired direction to a value larger than the predetermined threshold by a predetermined value;
The autonomous mobile device according to claim 4.
前記制御部が作成する地図は、前記存在確率が所定の閾値以上であるか否かにより前記物体の前記所定の領域における存否を表し、
前記制御部は、前記取得した方向に存在する可動物体に対応する前記所定の領域における前記閾値を、所定の可動物体用閾値に変更する、
請求項4に記載の自律移動装置。
The map created by the control unit represents whether or not the object is present in the predetermined region depending on whether the existence probability is equal to or higher than a predetermined threshold.
The control unit changes the threshold value in the predetermined region corresponding to the movable object existing in the acquired direction to a predetermined movable object threshold value.
The autonomous mobile device according to claim 4.
前記制御部は、
前記取得した方向以外の方向において、前記深度センサに取得させた深度データによって定まる前記所定の領域での前記存在確率により、前記可動物体以外の物体の該領域における存否を表す可動物体無し地図を作成し、
前記可動物体無し地図により、前記取得した方向に存在する前記可動物体に対応する前記所定の領域の前記存在確率を変更する、
請求項4に記載の自律移動装置。
The controller is
In a direction other than the acquired direction, a movable object-free map that represents the presence or absence of an object other than the movable object in the region is created based on the existence probability in the predetermined region determined by the depth data acquired by the depth sensor. And
The presence probability of the predetermined area corresponding to the movable object existing in the acquired direction is changed by the movable object-free map.
The autonomous mobile device according to claim 4.
前記制御部は、
前記地図及び前記可動物体無し地図に基づいて目的地までの経路を計画し、
前記経路に基づいて自機の移動を制御し、
目的地が設定された直後は前記可動物体無し地図に基づいて前記目的地までの経路を計画する、
請求項8に記載の自律移動装置。
The controller is
Plan a route to the destination based on the map and the moving object-free map,
Control the movement of the aircraft based on the route,
Immediately after the destination is set, the route to the destination is planned based on the movable object-free map.
The autonomous mobile device according to claim 8.
前記制御部は、前記可動物体無し地図に基づいて計画した経路では自機の移動を制御できない場合は、前記地図に基づいて経路を計画する、
請求項9に記載の自律移動装置。
The control unit, when it is not possible to control the movement of its own device in the route planned based on the map without moving objects, plans a route based on the map,
The autonomous mobile device according to claim 9.
前記制御部は、
前記存在確率を前記物体の存否の確認回数に対する前記深度データの取得回数の割合として地図に記録する、
請求項4から10のいずれか1項に記載の自律移動装置。
The controller is
Recording the existence probability on a map as a ratio of the number of times the depth data is acquired to the number of times the object is confirmed
The autonomous mobile device according to any one of claims 4 to 10.
前記制御部は、
前記存在確率を対数オッズにより地図に記録する、
請求項3から10のいずれか1項に記載の自律移動装置。
The controller is
Recording the probability of existence on a map with logarithmic odds;
The autonomous mobile device according to any one of claims 3 to 10.
地図を作成して、前記作成した地図に基づいて移動するための自律移動方法であって、
可動物体を検出すると、可動物体が検出された領域の前記地図を変更する、
自律移動方法。
An autonomous movement method for creating a map and moving based on the created map,
When the movable object is detected, the map of the area where the movable object is detected is changed.
Autonomous movement method.
所定の方向毎に物体の存否を確認し、物体が存在する場合には該物体までの距離である深度データを取得する深度データ取得ステップと、
可動物体を検出し、検出した前記可動物体の存在する方向を取得する可動物体存在方向取得ステップと、
前記深度データ取得ステップで取得した深度データによって定まる所定の領域での、前記物体の該深度データに基づく存在確率により、前記物体の前記所定の領域における存否を表す地図を作成する地図作成ステップと、
前記可動物体存在方向取得ステップで取得した方向に存在する前記可動物体に対応する前記所定の領域の前記地図を変更する可動物体領域地図変更ステップと、
を備える自律移動方法。
A depth data acquisition step of confirming the presence or absence of an object for each predetermined direction and acquiring depth data that is a distance to the object when the object exists;
A movable object presence direction acquisition step of detecting a movable object and acquiring a direction in which the detected movable object exists;
A map creation step of creating a map indicating the presence or absence of the object in the predetermined region based on the existence probability based on the depth data of the object in the predetermined region determined by the depth data acquired in the depth data acquisition step;
A movable object region map changing step of changing the map of the predetermined region corresponding to the movable object existing in the direction acquired in the movable object presence direction acquiring step;
An autonomous movement method comprising:
コンピュータに、
所定の方向毎に物体の存否を確認し、物体が存在する場合には該物体までの距離である深度データを取得する深度データ取得ステップ、
可動物体を検出し、検出した前記可動物体の存在する方向を取得する可動物体存在方向取得ステップ、
前記深度データ取得ステップで取得した深度データによって定まる所定の領域での、前記物体の該深度データに基づく存在確率により、前記物体の前記所定の領域における存否を表す地図を作成する地図作成ステップ、
前記可動物体存在方向取得ステップで取得した方向に存在する前記可動物体に対応する前記所定の領域の前記地図を変更する可動物体領域地図変更ステップ、
を実行させるためのプログラム。
On the computer,
A depth data acquisition step of confirming the presence or absence of an object for each predetermined direction and acquiring depth data that is a distance to the object if the object exists;
A movable object presence direction acquisition step of detecting a movable object and acquiring a direction in which the detected movable object exists;
A map creating step for creating a map representing the presence or absence of the object in the predetermined region based on the existence probability based on the depth data of the object in the predetermined region determined by the depth data acquired in the depth data acquiring step;
A movable object region map change step for changing the map of the predetermined region corresponding to the movable object existing in the direction acquired in the movable object presence direction acquisition step;
A program for running
JP2016130114A 2016-06-30 2016-06-30 Autonomous mobile device, autonomous mobile method, and program Pending JP2018005470A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016130114A JP2018005470A (en) 2016-06-30 2016-06-30 Autonomous mobile device, autonomous mobile method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016130114A JP2018005470A (en) 2016-06-30 2016-06-30 Autonomous mobile device, autonomous mobile method, and program

Publications (1)

Publication Number Publication Date
JP2018005470A true JP2018005470A (en) 2018-01-11

Family

ID=60949346

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016130114A Pending JP2018005470A (en) 2016-06-30 2016-06-30 Autonomous mobile device, autonomous mobile method, and program

Country Status (1)

Country Link
JP (1) JP2018005470A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019207463A (en) * 2018-05-28 2019-12-05 株式会社日立製作所 Robot, behavior detection server, and behavior detection system
WO2020008754A1 (en) * 2018-07-06 2020-01-09 ソニー株式会社 Information processing device, optimum time estimation method, self-position estimation method, and recording medium in which program is recorded
WO2020017111A1 (en) * 2018-07-20 2020-01-23 ソニー株式会社 Agent, presence probability map creation method, agent action control method, and program
WO2020026294A1 (en) * 2018-07-30 2020-02-06 学校法人 千葉工業大学 Map generation system and mobile object

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019207463A (en) * 2018-05-28 2019-12-05 株式会社日立製作所 Robot, behavior detection server, and behavior detection system
WO2020008754A1 (en) * 2018-07-06 2020-01-09 ソニー株式会社 Information processing device, optimum time estimation method, self-position estimation method, and recording medium in which program is recorded
WO2020017111A1 (en) * 2018-07-20 2020-01-23 ソニー株式会社 Agent, presence probability map creation method, agent action control method, and program
WO2020026294A1 (en) * 2018-07-30 2020-02-06 学校法人 千葉工業大学 Map generation system and mobile object
CN112352272A (en) * 2018-07-30 2021-02-09 千叶工业大学 Map generation system and moving object
JPWO2020026294A1 (en) * 2018-07-30 2021-05-13 学校法人千葉工業大学 Map generation system and mobile
JP7123430B2 (en) 2018-07-30 2022-08-23 学校法人千葉工業大学 Map generation system and moving object
US11802779B2 (en) 2018-07-30 2023-10-31 Chiba Institute Of Technology Map generation system and mobile object

Similar Documents

Publication Publication Date Title
US20230064687A1 (en) Restricting movement of a mobile robot
US10726568B2 (en) Method and apparatus for map constructing and map correcting
JP7087290B2 (en) Autonomous mobile devices, autonomous mobile methods and programs
JP2018005470A (en) Autonomous mobile device, autonomous mobile method, and program
JP5276931B2 (en) Method for recovering from moving object and position estimation error state of moving object
US20190101926A1 (en) Autonomous mobile cleaning apparatus, cleaning method, and recording medium
CN109213142B (en) Autonomous moving apparatus, autonomous moving method, and storage medium
US10152057B2 (en) Autonomous mobile device, autonomous movement method, and recording medium storing program
KR20190053558A (en) Robot cleaner and controlling method thereof
JP6870574B2 (en) Autonomous mobile devices, autonomous mobile methods and programs
JP2018190391A (en) Portable mobile robot and operation method thereof
CN109254580A (en) The operation method of service equipment for self-traveling
CN113168180A (en) Mobile device and object detection method thereof
JP2008033760A (en) Mobile robot
TW202228587A (en) Moving robot system
JP2008012635A (en) Personal identification system
TWI789896B (en) Moving robot system and method of performing collaborative driving of moving robots
JP7342664B2 (en) Robots, control methods, and programs
JP2020027443A (en) Autonomous mobile apparatus, soil detection method for lens of autonomous mobile device and program
TWI837507B (en) Moving robot system
TW202215183A (en) Moving robot system