JP7120071B2 - autonomous mobile robot - Google Patents

autonomous mobile robot Download PDF

Info

Publication number
JP7120071B2
JP7120071B2 JP2019029812A JP2019029812A JP7120071B2 JP 7120071 B2 JP7120071 B2 JP 7120071B2 JP 2019029812 A JP2019029812 A JP 2019029812A JP 2019029812 A JP2019029812 A JP 2019029812A JP 7120071 B2 JP7120071 B2 JP 7120071B2
Authority
JP
Japan
Prior art keywords
mobile robot
autonomous mobile
controller
sensor
output signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019029812A
Other languages
Japanese (ja)
Other versions
JP2020135560A (en
Inventor
薪雄 鈴木
艶艶 楊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sintokogio Ltd
Original Assignee
Sintokogio Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sintokogio Ltd filed Critical Sintokogio Ltd
Priority to JP2019029812A priority Critical patent/JP7120071B2/en
Publication of JP2020135560A publication Critical patent/JP2020135560A/en
Application granted granted Critical
Publication of JP7120071B2 publication Critical patent/JP7120071B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、自律移動ロボットに関する。 The present invention relates to autonomous mobile robots.

医療施設や介護施設などに代表される施設においては、昼間は多くの職員が施設内を行き来しており、施設内で不具合が発生した対象者を職員が迅速に発見することが可能である。一方、夜間は宿直担当職員が一定時間間隔で施設内を定期巡回することにより不具合の発見に努めている。 In facilities such as medical facilities and nursing care facilities, many staff come and go during the daytime, and it is possible for the staff to quickly find the target person who has a problem in the facility. On the other hand, at night, the staff in charge of night duty make regular patrols of the facility at regular intervals to find problems.

このような状況を補うために、施設内の所定の位置にカメラを設置し、該カメラが撮像した画像(静止画像又は動画像)を職員が待機している居室に転送するシステムが採用されている。 In order to compensate for this situation, a system was adopted in which a camera was installed at a predetermined position within the facility, and the image (still image or moving image) captured by the camera was transferred to the room where the staff were waiting. there is

しかしながら、上述したシステムにおいて、カメラの死角に存在する対象者を画像で発見することは困難である。例えば、宿直担当職員の巡回時間間隔が1時間の場合、巡回直後にカメラの死角で転倒したり徘徊している対象者を発見するのは、次の1時間後になってしまう場合がある。 However, in the system described above, it is difficult to find a target person in the blind spot of the camera in the image. For example, if the patrol time interval of the night duty staff is one hour, it may be one hour later that the subject falling or wandering in the blind spot of the camera is found immediately after the patrol.

かかる状況を改善すべく、施設内を自動巡回する自律移動ロボットを利用することができる。自律移動ロボットが施設内を自動巡回する際に、施設内のフロア上に障害物が存在する場合、当該障害物を回避する適切な回避方向を判断しないと、適切に巡回移動することが困難になる。 In order to improve this situation, it is possible to use an autonomous mobile robot that automatically patrols the facility. When an autonomous mobile robot automatically patrols the facility, if there are obstacles on the floor of the facility, it will be difficult for the robot to properly patrol unless it can determine the appropriate direction to avoid the obstacles. Become.

本発明は、上記の問題点に鑑みてなされたものであり、その目的は、施設内の目標に向かって好適に障害物を回避する進行方向を決定する自律移動ロボットを実現することにある。 SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and an object of the present invention is to realize an autonomous mobile robot that determines a direction of movement toward a target in a facility to avoid obstacles.

上記の課題を解決するために、本発明の態様1に係る自律移動ロボットは、施設内を自動巡回する自律移動ロボットであって、現在地点から障害物までの距離を方向毎に検知するセンサと、前記センサの出力信号を参照して当該自律移動ロボットを制御するコントローラと、を備え、前記コントローラは、方向毎の重みを与える重み関数であって、自動巡回の目標方向の重みが最大となる重み関数を用いて前記センサの出力信号を補正する処理と、補正後の出力信号に応じて当該自律移動ロボットの進行方向を決定する処理と、を実行する、構成である。 In order to solve the above problems, an autonomous mobile robot according to aspect 1 of the present invention is an autonomous mobile robot that automatically patrols a facility, and includes a sensor that detects the distance from the current position to an obstacle in each direction. and a controller for controlling the autonomous mobile robot with reference to the output signal of the sensor, wherein the controller is a weight function that gives a weight for each direction, and the weight in the target direction of automatic patrol is maximized. A process of correcting the output signal of the sensor using a weighting function and a process of determining the traveling direction of the autonomous mobile robot according to the corrected output signal are executed.

上記の構成によれば、施設内の目標に向かって好適に障害物を回避する進行方向を決定する自律移動ロボットを実現することができる。 According to the above configuration, it is possible to realize an autonomous mobile robot that determines the direction of movement toward a target within a facility to avoid obstacles.

本発明の態様2に係る自律移動ロボットは、上記の態様1において、当該自律移動ロボットを移動させる駆動装置を更に備え、前記コントローラは、決定した進行方向に当該自律移動ロボットを移動させるための制御信号を前記駆動装置に供給する、構成としてもよい。 An autonomous mobile robot according to aspect 2 of the present invention is the above-described aspect 1, further comprising a driving device for moving the autonomous mobile robot, wherein the controller performs control for moving the autonomous mobile robot in the determined traveling direction. A signal may be provided to the drive device.

上記の構成によれば、施設内の目標に向かって好適に障害物を回避しつつ自律移動する自律移動ロボットを実現することができる。 According to the above configuration, it is possible to realize an autonomous mobile robot that autonomously moves toward a target in a facility while suitably avoiding obstacles.

本発明の態様3に係る自律移動ロボットは、上記の態様1又は2において、前記センサは、レーザを用いて特定の周期で現在地点から障害物までの距離を検知し、前記コントローラは、前記特定の周期で前記各処理を実行する、構成としてもよい。 An autonomous mobile robot according to aspect 3 of the present invention is an autonomous mobile robot according to aspect 1 or 2 above, wherein the sensor uses a laser to detect the distance from the current position to the obstacle in a specific cycle, and the controller detects the specified may be configured such that each of the above processes is executed in a period of .

上記の構成によれば、施設内の目標に向かって好適に障害物を回避する進行方向を周期的に決定し自動巡回する自律移動ロボットを実現することができる。 According to the above configuration, it is possible to realize an autonomous mobile robot that cyclically determines a direction of movement to avoid obstacles and automatically patrols toward a target in a facility.

本発明の態様4に係る自律移動ロボットは、上記の態様1~3までの何れか1態様において、前記コントローラは、前記センサの出力信号を取得する少なくとも1つの入力インタフェースと、予め定められたプログラムに従って前記各処理を実行する少なくとも1つのプロセッサと、前記プログラムを格納した少なくとも1つのメモリと、を備えている、構成としてもよい。 An autonomous mobile robot according to aspect 4 of the present invention is any one aspect of aspects 1 to 3 above, wherein the controller comprises at least one input interface that acquires the output signal of the sensor, and a predetermined program and at least one memory storing the program.

上記の構成によれば、メモリに格納された情報を参照してプロセッサが処理を実行することにより、施設内の目標に向かって好適に障害物を回避しつつ自動巡回する自律移動ロボットを実現することができる。 According to the above configuration, the processor executes processing with reference to the information stored in the memory, thereby realizing an autonomous mobile robot that automatically patrols toward a target within a facility while suitably avoiding obstacles. be able to.

本発明の態様5に係る制御方法は、施設内を自動巡回する自律移動ロボットを制御する制御方法であって、センサを用いて現在地点から障害物までの距離を方向毎に検知する工程と、前記センサの出力信号を参照して当該自律移動ロボットを制御する工程と、を含み、前記制御する工程は、方向毎の重みを与える重み関数であって、自動巡回の目標方向の重みが最大となる重み関数を用いて前記センサの出力信号を補正する処理と、補正後の出力信号に応じて当該自律移動ロボットの進行方向を決定する処理と、を含む、方法である。 A control method according to aspect 5 of the present invention is a control method for controlling an autonomous mobile robot that automatically patrols a facility, comprising a step of detecting a distance from a current position to an obstacle in each direction using a sensor; and a step of controlling the autonomous mobile robot with reference to the output signal of the sensor, wherein the step of controlling is a weight function that gives a weight for each direction, and the weight in the target direction of automatic patrol is the maximum. and a process of determining the traveling direction of the autonomous mobile robot according to the corrected output signal.

上記の構成によれば、施設内の目標に向かって好適に障害物を回避する進行方向を決定する自律移動ロボットを制御することができる。 According to the above configuration, it is possible to control the autonomous mobile robot that determines the direction of movement toward the target in the facility to avoid obstacles.

本発明の態様6に係る自律移動ロボットを制御する制御プログラムであって、前記コントローラに前記各処理を実行させることを特徴とする制御プログラムは、上記の態様1~4の何れか1項において、請求項1~4の何れか1項に記載の自律移動ロボットを制御する制御プログラムであって、前記コントローラに前記各処理を実行させる構成としてもよい。 A control program for controlling an autonomous mobile robot according to aspect 6 of the present invention, characterized in that the control program causes the controller to execute each of the processes, in any one of aspects 1 to 4 above, A control program for controlling the autonomous mobile robot according to any one of claims 1 to 4, wherein the controller may be configured to execute each of the processes.

上記の構成によれば、前記制御方法と同様の効果を奏する。 According to the above configuration, the same effects as those of the above control method can be obtained.

本発明の一態様によれば、施設内の目標に向かって好適に障害物を回避する進行方向を決定する自律移動ロボットを実現することができるという効果を奏する。 ADVANTAGE OF THE INVENTION According to one aspect of the present invention, there is an effect that it is possible to realize an autonomous mobile robot that determines a direction of movement toward a target in a facility to avoid obstacles.

本発明の一実施形態に係る自律移動ロボットが備えている主要な構成を模式的に示す概略図である。1 is a schematic diagram schematically showing the main components of an autonomous mobile robot according to an embodiment of the present invention; FIG. 本発明の一実施形態に係るブロック図を模式的に示した概略図である。1 is a schematic diagram schematically showing a block diagram according to one embodiment of the present invention; FIG. 障害物を回避しつつ目標方向に自律移動ロボットを進行させる方法を示すフローチャートである。4 is a flow chart showing a method of advancing an autonomous mobile robot in a target direction while avoiding obstacles. 測域センサにより検知された障害物をマッピングした様子を模式的に示す概略平面図である。FIG. 4 is a schematic plan view schematically showing how obstacles detected by a range sensor are mapped. (a)は、測域センサ12により検知された障害物マッピング情報を離散化したグリッドマップの一例を示す。(b)は、(a)のグリッドマップをモフォロジー処理した一例を示す。(a) shows an example of a grid map obtained by discretizing obstacle mapping information detected by the range sensor 12. FIG. (b) shows an example of morphology processing of the grid map of (a). 障害物回避方向の数値化処理を模式的に示した概略図である。FIG. 4 is a schematic diagram schematically showing digitization processing of an obstacle avoidance direction; 障害物回避方向と目標方向との関係を模式的に示した概略図である。FIG. 4 is a schematic diagram schematically showing a relationship between an obstacle avoidance direction and a target direction; (a)は、走査角度に対する障害物までの距離を表したグラフを示す。(b)は、重み関数の一例を示したグラフである。(a) shows a graph representing the distance to an obstacle against the scan angle. (b) is a graph showing an example of a weighting function. (a)は、障害物の間に自律移動ロボット10を配置した位置関係を模式的に示す概略平面図である。(b)は、重み関数を適用した後の進行方向と目標方向との関係を示したグラフである。(a) is a schematic plan view schematically showing a positional relationship in which the autonomous mobile robot 10 is arranged between obstacles. (b) is a graph showing the relationship between the traveling direction and the target direction after applying the weighting function. 障害物回避方向選択処理に用いる条件を平面図に表した模式図である。FIG. 10 is a schematic plan view showing conditions used for obstacle avoidance direction selection processing; 本発明の一実施形態に係る自律移動ロボットが備えているコントローラのハードウェア構成を模式的に示す概略図である。1 is a schematic diagram schematically showing the hardware configuration of a controller included in an autonomous mobile robot according to one embodiment of the present invention; FIG.

〔実施形態1〕
本発明の一実施形態に係る自律移動ロボット10について、図1~図11を参照して説明する。自律移動ロボット10は、医療施設や介護施設などの職員に代わって施設内の見回りを実施する介護医療用の自律移動ロボットであって、障害物を回避しつつ目標方向に向かって巡回移動する自走式の自律移動ロボットである。
[Embodiment 1]
An autonomous mobile robot 10 according to one embodiment of the present invention will be described with reference to FIGS. 1 to 11. FIG. The autonomous mobile robot 10 is an autonomous mobile robot for nursing care and medical care that patrols the facility in place of the staff of a medical facility or a nursing care facility. It is a running type autonomous mobile robot.

(自律移動ロボット10の主要構成)
図1は、自律移動ロボット10の主なハードウェア構成を示したブロック図である。図1に示すように、自律移動ロボット10は、少なくともコントローラ11と、測域センサ12と、駆動装置13と、エンコーダ14とを備えている。
(Main Configuration of Autonomous Mobile Robot 10)
FIG. 1 is a block diagram showing the main hardware configuration of an autonomous mobile robot 10. As shown in FIG. As shown in FIG. 1, the autonomous mobile robot 10 includes at least a controller 11, a range sensor 12, a driving device 13, and an encoder .

コントローラ11は、少なくとも受信部15と、マップ情報入力部16と、順路情報生成部17と、出力部18と、位置情報生成部19とを有する。図1では、コントローラ11を機能ブロック図を用いて機能的に示しているが、後述する図11では、コントローラ11のハードウェア構成を示す。 The controller 11 has at least a receiving section 15 , a map information input section 16 , a route information generating section 17 , an output section 18 and a position information generating section 19 . Although FIG. 1 functionally shows the controller 11 using a functional block diagram, the hardware configuration of the controller 11 is shown in FIG. 11, which will be described later.

好ましい実施形態では、受信部15は、測域センサ12から測域センサデータを取得する。マップ情報入力部16は、後述する施設内のブロック地図情報を取得する。位置情報生成部19は、エンコーダ14を介して自律移動ロボット10の施設内における現在位置情報を生成する。順路情報生成部17は、当該生成された自律移動ロボット10の施設内における現在位置情報と、ブロック地図情報と、測域センサデータとに基づいて、自律移動ロボット10が施設内を巡回移動する順路情報を生成する。出力部18は、当該生成された順路情報に応じた出力情報を駆動装置13に出力する。当該出力情報に基づいて駆動装置13により自律移動ロボット10が巡回移動する。自律移動ロボット10が施設内を巡回移動するための駆動装置13の移動量に基づいてエンコーダ14は、自律移動ロボット10の走行距離と移動方向の情報を生成する。 In a preferred embodiment, the receiver 15 acquires range sensor data from the range sensor 12 . The map information input unit 16 acquires block map information within the facility, which will be described later. The position information generator 19 generates current position information of the autonomous mobile robot 10 within the facility via the encoder 14 . The route information generation unit 17 determines a route for the autonomous mobile robot 10 to patrol within the facility based on the generated current position information of the autonomous mobile robot 10 in the facility, block map information, and range sensor data. Generate information. The output unit 18 outputs output information corresponding to the generated route information to the driving device 13 . Based on the output information, the autonomous mobile robot 10 is circulated by the driving device 13 . The encoder 14 generates information on the traveling distance and moving direction of the autonomous mobile robot 10 based on the amount of movement of the driving device 13 for the autonomous mobile robot 10 to patrol within the facility.

(ブロック地図情報)
上述のとおり、マップ情報入力部16は、施設内のブロック地図情報を取得する。本発明においてブロック地図とは、施設内のフロア情報を簡略化してブロック化した地図のことをいう。
(Block map information)
As described above, the map information input unit 16 acquires block map information within the facility. In the present invention, a block map refers to a map obtained by simplifying floor information within a facility into blocks.

図2は、本発明の一実施形態に係るブロック地図を模式的に示した概略平面図である。ブロック地図の設定の一例について以下に説明する。好ましい実施形態では、医療施設や介護施設などの施設のフロア図から自律移動ロボット10が通ってよい場所を設定する。次いで、1つの部屋の前の廊下が1つのブロック(21a、21b、21c、21d)となるようにブロック分けをする。ここで大きなブロックは1~2mを目安に分割することが好ましい。各ブロックの中心点(22b、22c、22d)を設定する。自律移動ロボット10が現時点で存在するブロック(図2ではブロック21a)には中心点を設定する必要はない。各ブロックの中心点を目標地点に設定する。図2では、ブロック21aに存在している自律移動ロボット10を出発点として、自律移動ロボット10の現在位置から自律移動ロボット10が存在しているブロックの次のブロックの中心点を点線矢印で結線し、最終ブロック21dまで移動する経路を示している。図2のブロック21b中の23bは、障害物を示す。各ブロックの中心点を目標地点に設定することにより、自律移動ロボット10のおおまかな移動方向情報を生成することができる。好ましい実施形態では、当該移動方向情報を組み合わせた移動ブロック経路の生成を人為的に設定することができるが、目標地点(最終ブロックの中心点)を設定することにより最短経路を生成するアルゴリズムによって自動的に移動ブロック経路を設定することもできる。このように生成したブロック地図の情報をマップ情報入力部16に入力する。 FIG. 2 is a schematic plan view schematically showing a block map according to one embodiment of the present invention. An example of setting a block map is described below. In a preferred embodiment, a place where the autonomous mobile robot 10 may pass is set from a floor plan of facilities such as medical facilities and nursing care facilities. Next, the corridor in front of one room is divided into blocks (21a, 21b, 21c, 21d). Here, it is preferable to divide a large block by 1 to 2 m as a guideline. Set the center point (22b, 22c, 22d) of each block. It is not necessary to set a center point for the block (block 21a in FIG. 2) where the autonomous mobile robot 10 currently exists. Set the center point of each block as the target point. In FIG. 2, with the autonomous mobile robot 10 existing in the block 21a as a starting point, the center point of the block next to the block where the autonomous mobile robot 10 exists is connected by a dotted line arrow from the current position of the autonomous mobile robot 10. to the final block 21d. 23b in block 21b of FIG. 2 indicates an obstacle. By setting the center point of each block as the target point, rough moving direction information of the autonomous mobile robot 10 can be generated. In a preferred embodiment, it is possible to artificially set the generation of the moving block route by combining the moving direction information, but automatically by an algorithm that generates the shortest route by setting the target point (the center point of the final block). It is also possible to set the moving block route automatically. The block map information generated in this manner is input to the map information input unit 16 .

(ブロック地図における位置判断)
図3は、障害物を回避しつつ目標方向に自律移動ロボット10を進行させる方法を示すフローチャートである。順路情報生成部17は、マップ情報入力部16に入力されたブロック地図の情報を受信し、以下の処理を実行する。まず最終目標ブロックを設定する(S160)。次いで、自律移動ロボット10が現時点で存在しているブロックから最終目標ブロックまでのブロック経路を生成する(S161)。自律移動ロボット10が現時点で存在しているブロックが最終目標ブロックか否か判断する(S162)。自律移動ロボット10が現時点で存在しているブロックが最終目標ブロックの場合(S162でYES)、処理を終了する。自律移動ロボット10が現時点で存在しているブロックが最終目標ブロックでない場合(S162でNO)、障害物回避を考慮しつつ、次の目標ブロックに向けた速度指令を生成する(S171)。
(Position judgment on block map)
FIG. 3 is a flow chart showing a method of advancing the autonomous mobile robot 10 in the target direction while avoiding obstacles. The route information generation unit 17 receives the block map information input to the map information input unit 16, and executes the following processing. First, a final target block is set (S160). Next, the autonomous mobile robot 10 generates a block path from the current block to the final target block (S161). It is determined whether or not the block where the autonomous mobile robot 10 currently exists is the final target block (S162). If the block in which the autonomous mobile robot 10 currently exists is the final target block (YES in S162), the process ends. If the block where the autonomous mobile robot 10 currently exists is not the final target block (NO in S162), a speed command for the next target block is generated while considering obstacle avoidance (S171).

(測域センサによる障害物検知)
上述したとおり、順路情報生成部17は、障害物回避を考慮しつつ、次の目標ブロックに向けた速度指令を生成する(S171)。ここで障害物を回避するために、順路情報生成部17は、測域センサ12により得られた測域センサデータを受信部15を介して取得する。測域センサ12は、自律移動ロボット10の筐体の表面に露出した様態で配置することが好ましい。測域センサ12は、自律移動ロボット10の筐体の表面の任意の場所に配置されることができるが、自律移動ロボット10の前進方向正面に配置されていることが好ましい。測域センサ12は、例えば、北陽電機株式会社製のUST-10LXのようなレーザ方式の測域センサを採用することができる。
(obstacle detection by range sensor)
As described above, the route information generator 17 generates a speed command directed to the next target block while considering obstacle avoidance (S171). Here, in order to avoid obstacles, the route information generator 17 acquires range sensor data obtained by the range sensor 12 via the receiver 15 . The range sensor 12 is preferably arranged so as to be exposed on the surface of the housing of the autonomous mobile robot 10 . The range sensor 12 can be placed anywhere on the surface of the housing of the autonomous mobile robot 10, but is preferably placed in front of the autonomous mobile robot 10 in the forward direction. As the range sensor 12, for example, a laser type range sensor such as UST-10LX manufactured by Hokuyo Electric Co., Ltd. can be adopted.

図4は、測域センサ12により検知された障害物をマッピングした様子を模式的に示す概略平面図である。自律移動ロボット10の筐体に搭載された測域センサ12の位置を原点とし、自律移動ロボット10の前進方向をx軸とし、x軸に直交する方向をy軸とした。図4において、障害物は小さな丸印によって表示されている。図4に示すように、測域センサ12の走査角度を±θ°で示す。好ましい実施形態では、測域センサ12は、±θ=±115度の範囲で障害物を検知する。また、0.06m~10m程度の検出距離であることが好ましい。走査時間は25msであることが好ましい。角度分解能は0.25度程度が好ましい。これらの値に限定されることなく、測域センサ12は、任意の検出距離、走査角度、走査時間、角度分解能を有することができる。 FIG. 4 is a schematic plan view schematically showing how obstacles detected by the range sensor 12 are mapped. The position of the range sensor 12 mounted on the housing of the autonomous mobile robot 10 is defined as the origin, the forward direction of the autonomous mobile robot 10 is defined as the x-axis, and the direction orthogonal to the x-axis is defined as the y-axis. In FIG. 4, obstacles are indicated by small circles. As shown in FIG. 4, the scanning angle of the range sensor 12 is indicated by ±θ°. In a preferred embodiment, range sensor 12 detects obstacles in the range of ±θ=±115 degrees. Moreover, it is preferable that the detection distance is about 0.06 m to 10 m. Preferably the scan time is 25 ms. The angular resolution is preferably about 0.25 degrees. Without being limited to these values, range sensor 12 can have any detection distance, scanning angle, scanning time, and angular resolution.

(測域センサデータの加工)
順路情報生成部17は、図4に示した、測域センサ12により検知された障害物マッピング情報に基づいて障害物を回避する方向を判断する。当該判断処理に伴う計算量を低減させるため、順路情報生成部17は、測域センサ12により検知された障害物マッピング情報を離散化する。
(Processing of range sensor data)
The route information generator 17 determines the obstacle avoidance direction based on the obstacle mapping information detected by the range sensor 12 shown in FIG. In order to reduce the amount of calculation associated with the determination process, the route information generator 17 discretizes the obstacle mapping information detected by the range sensor 12 .

図5の(a)は、測域センサ12により検知された障害物マッピング情報を離散化したグリッドマップの一例を示す。好ましい実施形態では、図5の(a)に示すようにx軸方向4m×y軸方向5mの障害物マッピング情報について、0.1m×0.1mのグリッドに離散化することができる。 (a) of FIG. 5 shows an example of a grid map obtained by discretizing the obstacle mapping information detected by the range sensor 12 . In a preferred embodiment, as shown in FIG. 5(a), obstacle mapping information of 4 m in the x-axis direction by 5 m in the y-axis direction can be discretized into a grid of 0.1 m×0.1 m.

図5の(b)は、図5の(a)のグリッドマップをモフォロジー処理した一例を示す。順路情報生成部17は、障害物を回避する方向を判断する際に、自律移動ロボット10を点として取り扱う。そのため、順路情報生成部17は、図5の(a)のグリッドマップに対して障害物領域を自律移動ロボット10のフットプリントの半径分だけ膨張させるモフォロジー処理を施す。かかる膨張モフォロジー処理を施した後のグリッドマップ(図5の(b))において、グリッドが1マスでも空いていれば自律移動ロボット10は、障害物の間を通過することができる。 FIG. 5(b) shows an example of morphology processing of the grid map of FIG. 5(a). The route information generator 17 treats the autonomous mobile robot 10 as a point when determining the direction to avoid obstacles. Therefore, the route information generator 17 performs morphology processing to expand the obstacle area by the radius of the footprint of the autonomous mobile robot 10 on the grid map of FIG. 5(a). In the grid map ((b) of FIG. 5) after such dilation morphology processing, the autonomous mobile robot 10 can pass between obstacles if the grid is empty even by one square.

(障害物回避方向の数値化)
図5の(b)に示すような膨張モフォロジー処理を施した後のグリッドマップを用いて、順路情報生成部17は、障害物回避方向の数値化処理を行う。
(Quantification of obstacle avoidance direction)
Using the grid map that has been subjected to dilation morphology processing as shown in FIG. 5B, the route information generator 17 digitizes the obstacle avoidance direction.

図6は、障害物回避方向の数値化処理を模式的に示した概略図である。膨張モフォロジー処理を施した後のグリッドマップにおいて、自律移動ロボット10の現在位置を中心に±θ°の走査角度範囲内において一定の角度を隔てた放射線を設定する。好ましい実施形態では、放射線間の間隔角度は5度である。図6に示した放射線間の間隔角度は10度である。また自律移動ロボット10の現在位置を中心に複数の同心円を設定する。好ましい実施形態では同心円の最大半径は3m程度であり、各同心円の半径は0.1m間隔で設定する。図6に示した同心円の最大半径は2.4mであり、各同心円の半径は0.2m間隔で設定される。 FIG. 6 is a schematic diagram schematically showing the numerical processing of the obstacle avoidance direction. In the grid map after dilation morphology processing, rays are set at regular angles within a scanning angle range of ±θ° centering on the current position of the autonomous mobile robot 10 . In a preferred embodiment, the spacing angle between rays is 5 degrees. The spacing angle between rays shown in FIG. 6 is 10 degrees. Also, a plurality of concentric circles are set around the current position of the autonomous mobile robot 10 . In a preferred embodiment, the maximum radius of the concentric circles is about 3 m, and the radius of each concentric circle is set at intervals of 0.1 m. The maximum radius of the concentric circles shown in FIG. 6 is 2.4 m, and the radius of each concentric circle is set at intervals of 0.2 m.

当該同心円と放射線との交点のうち、膨張モフォロジー処理を施した障害物に該当しない交点であって、自律移動ロボット10の現在位置と障害物との間に存在する交点の数を放射線ごとにカウントする(点数化する)。図6に示した例では、θ=-100度付近の放射線では、4点とカウントされ、θ=+100度付近の放射線では、5点とカウントされている。θ=+10度付近の放射線では12点とカウントされ、最高得点となっていることが確認できる。これにより自律移動ロボット10の現在位置を中心に障害物までの距離を数値化することができる。 Among the intersections of the concentric circles and the radiation, the number of intersections that do not correspond to obstacles subjected to expansion morphology processing and that exist between the current position of the autonomous mobile robot 10 and the obstacle is counted for each radiation. (scoring). In the example shown in FIG. 6, radiation near θ=−100 degrees is counted as 4 points, and radiation near θ=+100 degrees is counted as 5 points. It can be confirmed that the radiation around θ=+10 degrees is counted as 12 points, which is the highest score. As a result, the distance from the current position of the autonomous mobile robot 10 to the obstacle can be quantified.

順路情報生成部17は、当該最高得点となった放射線の方向を障害物回避方向として設定することができる。図7は、障害物回避方向と目標方向との関係を模式的に示した概略図である。順路情報生成部17は、自律移動ロボット10の現在位置を起点として、次のブロックの中心点を目標位置とし、当該目標位置の方向を目標方向として設定する。図7から明らかなように、障害物回避方向に自律移動ロボット10を移動させると、目標方向とは異なっているため、目標位置に到達できない。 The route information generation unit 17 can set the direction of the radiation with the highest score as the obstacle avoidance direction. FIG. 7 is a schematic diagram schematically showing the relationship between the obstacle avoidance direction and the target direction. The route information generator 17 sets the current position of the autonomous mobile robot 10 as a starting point, the center point of the next block as a target position, and sets the direction of the target position as a target direction. As is clear from FIG. 7, when the autonomous mobile robot 10 is moved in the obstacle avoidance direction, it cannot reach the target position because the direction is different from the target direction.

(障害物回避行動)
上述のように目標位置に到達できない状況を解消するために、順路情報生成部17は、以下のように進行方向を算出する。
(Obstacle avoidance behavior)
In order to solve the situation where the target position cannot be reached as described above, the route information generation unit 17 calculates the traveling direction as follows.

図9の(a)は、膨張モフォロジー処理を施した障害物の間に自律移動ロボット10を配置した位置関係を模式的に示す概略平面図である。測域センサ12を搭載した自律移動ロボット10の正面をx軸正方向とした場合、目標方向は約-20度の方向であることが確認できる。また、障害物までの距離はBの方向よりもAの方向の方が長いことも確認できる。 FIG. 9(a) is a schematic plan view schematically showing the positional relationship in which the autonomous mobile robot 10 is arranged between obstacles subjected to expansion morphology processing. Assuming that the front of the autonomous mobile robot 10 equipped with the range sensor 12 is the positive x-axis direction, it can be confirmed that the target direction is about -20 degrees. It can also be confirmed that the distance to the obstacle is longer in the A direction than in the B direction.

図8の(a)は、図9の(a)に示した位置関係において、自律移動ロボット10の正面に搭載された測域センサ12の走査角度に対する障害物までの距離を表したグラフである。より具体的には、図8の(a)は、自律移動ロボット10が配置された位置を原点として測域センサ12により走査角度±θ=約±115度の範囲で障害物を検知し、各走査角度における障害物までの距離をプロットしたグラフである。当該グラフの縦軸は、障害物までの距離を正規化した値を用いて表したものである。当該縦軸の値により障害物回避方向を数値化した結果を示す。図9の(a)に示した位置関係に基づいて、約-20度の方向が目標方向である旨を明記している。図8の(a)のグラフからも、自律移動ロボット10から障害物までの距離はBの方向よりもAの方向の方が長いことが確認できる。 FIG. 8(a) is a graph showing the distance to an obstacle against the scanning angle of the range sensor 12 mounted in front of the autonomous mobile robot 10 in the positional relationship shown in FIG. 9(a). . More specifically, (a) of FIG. 8 detects obstacles in a range of scanning angles ±θ=approximately ±115 degrees by the range sensor 12 with the position where the autonomous mobile robot 10 is arranged as the origin, and each Fig. 3 is a graph plotting the distance to obstacles at scan angles; The vertical axis of the graph represents the normalized value of the distance to the obstacle. The result of digitizing the obstacle avoidance direction by the value of the vertical axis is shown. Based on the positional relationship shown in FIG. 9(a), it is specified that the direction of about -20 degrees is the target direction. From the graph of FIG. 8(a), it can be confirmed that the distance from the autonomous mobile robot 10 to the obstacle is longer in the A direction than in the B direction.

図8の(b)は、重み関数の一例を示したグラフである。COS関数、ガウス関数、放物線関数などのように目標方向の重みが最大となる任意の重み関数を用いることができる。どのような重み関数を適用するかは、フロア構成/ブロック地図構成に依存するパラメータであり、オフラインで設定することが好ましい。本実施形態では、目標方向の重みを最大(=1)とした1次関数(ただし、目標方向より正方向では傾きが負となり、目標方向より負方向では傾きが正となる)を採用した。図8の(a)のグラフに当該重み関数を重畳した結果を図9の(b)に示す。 (b) of FIG. 8 is a graph showing an example of the weighting function. Any weighting function, such as a COS function, a Gaussian function, a parabolic function, etc., that maximizes the weight in the target direction can be used. What kind of weighting function is applied is a parameter dependent on the floor configuration/block map configuration, and is preferably set off-line. In the present embodiment, a linear function with the maximum weight (=1) in the target direction (however, the slope is negative in the positive direction from the target direction, and the slope is positive in the negative direction from the target direction). FIG. 9(b) shows the result of superimposing the weighting function on the graph of FIG. 8(a).

図9の(b)の結果から、目標方向の影響を考慮した重み関数を適用すると、自律移動ロボット10から障害物までの距離はAの方向よりもBの方向の方が長いことが確認できる。したがって、順路情報生成部17は、進行方向をBの方向と決定する。かかる順路情報生成部17の判断により、目標方向に一番近い障害物回避方向を選択することができる。 From the result of FIG. 9B, it can be confirmed that the distance from the autonomous mobile robot 10 to the obstacle is longer in the B direction than in the A direction by applying a weighting function that considers the influence of the target direction. . Therefore, the route information generator 17 determines that the traveling direction is the B direction. Based on the judgment of the route information generator 17, the obstacle avoidance direction closest to the target direction can be selected.

図10は、このような一連の障害物回避方向選択処理に用いた条件を平面図に表した模式図である。iはブロックを表し、iiは障害物までの距離を表し、iiiは障害物回避方向を表し、ivは目標方向を表し、vは重み関数を表し、viは重み関数を重畳した後の障害物までの距離を表し、viiは進行方向を表す。 FIG. 10 is a schematic plan view showing the conditions used for such a series of obstacle avoidance direction selection processes. i represents the block, ii represents the distance to the obstacle, iii represents the obstacle avoidance direction, iv represents the target direction, v represents the weighting function, and vi represents the obstacle after superimposing the weighting function. vii represents the direction of travel.

(駆動装置の駆動)
上述したとおり、順路情報生成部17は、障害物回避方向を選択して、次の目標ブロックに向けた速度指令を生成する(S171)。駆動速度は、予め設定した速度を用いることが好ましい。順路情報生成部17にて決定された障害物回避方向に所定の駆動速度で駆動させる出力情報を、出力部18は駆動装置13に出力する。好ましい実施形態では、駆動装置13は少なくとも左右2つのモーターから構成される。左右のモーターの回転数を制御することにより、自律移動ロボット10を障害物回避方向へ移動させることができる(S181)。
(Drive of drive device)
As described above, the route information generator 17 selects the obstacle avoidance direction and generates a speed command directed to the next target block (S171). A preset speed is preferably used as the driving speed. The output unit 18 outputs to the driving device 13 output information for driving at a predetermined driving speed in the obstacle avoidance direction determined by the route information generating unit 17 . In a preferred embodiment, the drive 13 consists of at least two motors, one on the left and one on the right. By controlling the number of rotations of the left and right motors, the autonomous mobile robot 10 can be moved in the obstacle avoidance direction (S181).

(位置情報生成)
エンコーダ14は、左右のモーターのシャフトの回転運動から、走行距離と移動方向の情報を生成することができる。エンコーダ14により生成された当該走行距離と移動方向の情報に基づいて、位置情報生成部19は自律移動ロボット10の位置情報を生成し、ブロック地図における自己位置を推定する(S191)。
(location information generation)
The encoder 14 can generate information on the distance traveled and the direction of travel from the rotational motion of the shafts of the left and right motors. Based on the travel distance and movement direction information generated by the encoder 14, the position information generator 19 generates position information of the autonomous mobile robot 10 and estimates its own position on the block map (S191).

位置情報生成部19により生成された移動後の位置情報に基づいて、自律移動ロボット10が現時点で存在しているブロックが最終目標ブロックか否か判断する(S162)。 Based on the post-movement position information generated by the position information generator 19, it is determined whether or not the block where the autonomous mobile robot 10 currently exists is the final target block (S162).

当該ループ処理のための重み関数の適用周期は、25msであることが好ましい。 The application period of the weighting function for the loop processing is preferably 25 ms.

(コントローラのハードウェア構成)
図11は、本発明の一実施形態に係る自律移動ロボット10が備えている主要なハードウェア構成を模式的に示す概略図である。図11に示すように、自律移動ロボット10は、少なくとも1つのコントローラ130を有する。コントローラ130は、図1のコントローラ11に相当するハードウェア構成である。図1のコントローラ11は、当該コントローラ11の構成要素を機能的に表現したものであり、一つのコントローラ11のみを記載した。一方、ハードウェア構成としてのコントローラ130は、情報処理の対象によって複数のコントローラ130を備えていてもよい。
(Hardware configuration of controller)
FIG. 11 is a schematic diagram schematically showing the main hardware configuration of the autonomous mobile robot 10 according to one embodiment of the present invention. As shown in FIG. 11, the autonomous mobile robot 10 has at least one controller 130 . The controller 130 has a hardware configuration corresponding to the controller 11 in FIG. The controller 11 in FIG. 1 functionally expresses the components of the controller 11, and only one controller 11 is described. On the other hand, the controller 130 as a hardware configuration may include a plurality of controllers 130 depending on the target of information processing.

コントローラ130は、少なくとも入力インタフェース133、出力インタフェース114、プロセッサ135、メモリ136を備える。 Controller 130 comprises at least input interface 133 , output interface 114 , processor 135 and memory 136 .

例えば、コントローラ130は、現在地点から障害物までの距離を方向毎に検知する測域センサ12に関する情報を処理する第1のコントローラ130aと、自律移動ロボットを移動させる駆動装置13に関する情報を処理する第2のコントローラ130bとのように複数のコントローラに制御を分担させる構成としてもよい。 For example, the controller 130 processes information on the first controller 130a that processes information on the range sensor 12 that detects the distance from the current position to the obstacle in each direction, and information on the driving device 13 that moves the autonomous mobile robot. A configuration may be adopted in which a plurality of controllers share the control, such as the second controller 130b.

より具体的には、1のコントローラ130aは、前記測域センサ12の出力信号を参照して当該自律移動ロボットを制御することができる。具体的には、第1のコントローラ130aは、受信部15、マップ情報入力部16、順路情報生成部17を制御することができる。例えば、方向毎の重みを与える重み関数であって、自動巡回の目標方向の重みが最大となる重み関数を用いて前記センサの出力信号を補正する処理と、補正後の出力信号に応じて当該自律移動ロボットの進行方向を決定する処理と、を実行することができる。 More specifically, the first controller 130a can refer to the output signal of the range sensor 12 to control the autonomous mobile robot. Specifically, the first controller 130 a can control the receiving section 15 , the map information input section 16 and the route information generating section 17 . For example, a process of correcting the output signal of the sensor using a weight function that gives a weight for each direction, the weight function maximizing the weight in the target direction of the automatic tour; and a process of determining the traveling direction of the autonomous mobile robot.

第2のコントローラ130bは、決定した進行方向に当該自律移動ロボットを移動させるための制御信号を前記駆動装置13に供給する処理を実行することができる。具体的には、第2のコントローラ130bは、出力部18、位置情報生成部19を制御することができる。 The second controller 130b can execute a process of supplying the driving device 13 with a control signal for moving the autonomous mobile robot in the determined traveling direction. Specifically, the second controller 130 b can control the output section 18 and the position information generation section 19 .

入力インタフェース133から入力された情報の処理を実施するアルゴリズムを実行するプログラムは、メモリ136に格納される。当該メモリ136に格納されたプログラムをプロセッサ135にて実行することにより、入力された情報を処理することができる。当該処理された情報は出力情報として出力インタフェース114から出力される。出力インタフェース114から出力された情報により、駆動装置13を制御することができる。 Programs for executing algorithms that implement processing of information input from input interface 133 are stored in memory 136 . Input information can be processed by executing the program stored in the memory 136 by the processor 135 . The processed information is output from the output interface 114 as output information. The information output from the output interface 114 can be used to control the driving device 13 .

〔実施形態2〕
本発明の他の実施形態について、以下に説明する。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
[Embodiment 2]
Other embodiments of the invention are described below. For convenience of description, members having the same functions as those of the members described in the above embodiments are denoted by the same reference numerals, and description thereof will not be repeated.

実施形態1では、一つのコントローラ11によって、測域センサ12および駆動装置13を制御する構成を示した。別の実施形態では、測域センサ12を制御する第1のコントローラ130aと、駆動装置13を制御する第2のコントローラ130bは異なるコントローラから構成することができる。第1のコントローラ130aにより生成された出力情報を第2のコントローラ130bが受信し、第2のコントローラ130bが当該出力情報に基づいて駆動装置13を制御することができる。 In Embodiment 1, the configuration in which one controller 11 controls the range sensor 12 and the driving device 13 is shown. In another embodiment, the first controller 130a controlling the range sensor 12 and the second controller 130b controlling the driving device 13 may comprise different controllers. The output information generated by the first controller 130a is received by the second controller 130b, and the second controller 130b can control the driving device 13 based on the output information.

〔ソフトウェアによる実現例〕
自律移動ロボット10のコントローラ11は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
[Example of realization by software]
The controller 11 of the autonomous mobile robot 10 may be implemented by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or may be implemented by software.

後者の場合、自律移動ロボット10は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば1つ以上のプロセッサを備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。 In the latter case, the autonomous mobile robot 10 is equipped with a computer that executes program instructions, which are software that implements each function. This computer includes, for example, one or more processors, and a computer-readable recording medium storing the program. In the computer, the processor reads the program from the recording medium and executes it, thereby achieving the object of the present invention. As the processor, for example, a CPU (Central Processing Unit) can be used. As the recording medium, a "non-temporary tangible medium" such as a ROM (Read Only Memory), a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. In addition, a RAM (Random Access Memory) for developing the above program may be further provided. Also, the program may be supplied to the computer via any transmission medium (communication network, broadcast wave, etc.) capable of transmitting the program. Note that one aspect of the present invention can also be implemented in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiments, but can be modified in various ways within the scope of the claims, and can be obtained by appropriately combining technical means disclosed in different embodiments. is also included in the technical scope of the present invention.

10 自律移動ロボット
11 コントローラ
12 測域センサ
13 駆動装置
14 エンコーダ
15 受信部
16 マップ情報入力部
17 順路情報生成部
18 出力部
19 位置情報生成部
21a、21b ブロック
21d 最終ブロック
22d 中心点
114 出力インタフェース
130 コントローラ
130a 第1のコントローラ
130b 第2のコントローラ
133 入力インタフェース
135 プロセッサ
136 メモリ
10 autonomous mobile robot 11 controller 12 range sensor 13 drive device 14 encoder 15 receiver 16 map information input unit 17 route information generator 18 output unit 19 position information generator 21a, 21b block 21d final block 22d center point 114 output interface 130 controller 130a first controller 130b second controller 133 input interface 135 processor 136 memory

Claims (6)

施設内を自動巡回する自律移動ロボットであって、
現在地点から障害物までの距離を方向毎に検知するセンサと、
前記センサの出力信号を参照して当該自律移動ロボットを制御するコントローラと、を備え、
前記コントローラは、
方向毎の重みを与える重み関数であって、自動巡回の目標方向の重みが最大となる、一次関数の組み合わせ、cоs関数、ガウス関数または放物線関数からなる重み関数を用いて前記センサの出力信号を補正する処理と、
補正後の出力信号のうち最大の出力信号に対応する方向を当該自律移動ロボットの進行方向決定する処理と、を実行する、
ことを特徴とする自律移動ロボット。
An autonomous mobile robot that automatically patrols the facility,
a sensor that detects the distance from the current location to an obstacle in each direction;
a controller that controls the autonomous mobile robot by referring to the output signal of the sensor;
The controller is
The output signal of the sensor is calculated using a weighting function that gives a weight for each direction and is composed of a combination of linear functions, a cos function, a Gaussian function, or a parabolic function that maximizes the weight in the target direction of the automatic tour. a correction process;
determining the direction corresponding to the maximum output signal among the corrected output signals as the traveling direction of the autonomous mobile robot;
An autonomous mobile robot characterized by:
当該自律移動ロボットを移動させる駆動装置を更に備え、
前記コントローラは、決定した進行方向に当該自律移動ロボットを移動させるための制御信号を前記駆動装置に供給する、
ことを特徴とする請求項1に記載の自律移動ロボット。
further comprising a driving device for moving the autonomous mobile robot,
The controller supplies a control signal to the driving device for moving the autonomous mobile robot in the determined traveling direction.
The autonomous mobile robot according to claim 1, characterized in that:
前記センサは、レーザを用いて特定の周期で現在地点から障害物までの距離を検知し、
前記コントローラは、前記特定の周期で前記各処理を実行する、
ことを特徴とする請求項1又は2に記載の自律移動ロボット。
The sensor uses a laser to detect the distance from the current location to the obstacle at a specific cycle,
The controller executes each of the processes in the specific cycle,
3. The autonomous mobile robot according to claim 1 or 2, characterized in that:
前記コントローラは、
前記センサの出力信号を取得する少なくとも1つの入力インタフェースと、
予め定められたプログラムに従って前記各処理を実行する少なくとも1つのプロセッサと、
前記プログラムを格納した少なくとも1つのメモリと、を備えている、
ことを特徴とする請求項1~3までの何れか1項に記載の自律移動ロボット。
The controller is
at least one input interface for obtaining an output signal of the sensor;
at least one processor that executes each process according to a predetermined program;
at least one memory storing the program;
The autonomous mobile robot according to any one of claims 1 to 3, characterized in that:
施設内を自動巡回する自律移動ロボットを制御する制御方法であって、
センサを用いて現在地点から障害物までの距離を方向毎に検知する工程と、
前記センサの出力信号を参照して当該自律移動ロボットを制御する工程と、を含み、
前記制御する工程は、
方向毎の重みを与える重み関数であって、自動巡回の目標方向の重みが最大となる、一次関数の組み合わせ、cоs関数、ガウス関数または放物線関数からなる重み関数を用いて前記センサの出力信号を補正する処理と、
補正後の出力信号のうち最大の出力信号に対応する方向を当該自律移動ロボットの進行方向決定する処理と、を含む、
ことを特徴とする制御方法。
A control method for controlling an autonomous mobile robot that automatically patrols a facility, comprising:
A step of detecting the distance from the current position to the obstacle in each direction using a sensor;
a step of controlling the autonomous mobile robot by referring to the output signal of the sensor;
The controlling step includes:
The output signal of the sensor is calculated using a weighting function that gives a weight for each direction and is composed of a combination of linear functions, a cos function, a Gaussian function, or a parabolic function that maximizes the weight in the target direction of the automatic tour. a correction process;
A process of determining the direction corresponding to the maximum output signal among the output signals after correction as the traveling direction of the autonomous mobile robot,
A control method characterized by:
請求項1~4の何れか1項に記載の自律移動ロボットを制御する制御プログラムであって、前記コントローラに前記各処理を実行させることを特徴とする制御プログラム。 A control program for controlling the autonomous mobile robot according to any one of claims 1 to 4, wherein the control program causes the controller to execute each of the processes.
JP2019029812A 2019-02-21 2019-02-21 autonomous mobile robot Active JP7120071B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019029812A JP7120071B2 (en) 2019-02-21 2019-02-21 autonomous mobile robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019029812A JP7120071B2 (en) 2019-02-21 2019-02-21 autonomous mobile robot

Publications (2)

Publication Number Publication Date
JP2020135560A JP2020135560A (en) 2020-08-31
JP7120071B2 true JP7120071B2 (en) 2022-08-17

Family

ID=72278710

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019029812A Active JP7120071B2 (en) 2019-02-21 2019-02-21 autonomous mobile robot

Country Status (1)

Country Link
JP (1) JP7120071B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7517251B2 (en) 2021-06-03 2024-07-17 株式会社豊田自動織機 Route Generation Device
CN116540747B (en) * 2023-07-06 2023-10-20 中国科学技术大学 Mobile robot motion planning and obstacle avoidance decision method with priority of avoidance and stop

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001344596A (en) 2000-05-31 2001-12-14 Nippon Signal Co Ltd:The Image processor and traveling object traveling controller using the same
JP2010282443A (en) 2009-06-04 2010-12-16 Panasonic Electric Works Co Ltd Autonomous mobile device
JP2011008313A (en) 2009-06-23 2011-01-13 Yamaha Motor Co Ltd Traveling direction control device and traveling object
US20160188977A1 (en) 2014-12-24 2016-06-30 Irobot Corporation Mobile Security Robot
CN108873915A (en) 2018-10-12 2018-11-23 湖南万为智能机器人技术有限公司 Dynamic obstacle avoidance method and its omnidirectional's security robot

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001344596A (en) 2000-05-31 2001-12-14 Nippon Signal Co Ltd:The Image processor and traveling object traveling controller using the same
JP2010282443A (en) 2009-06-04 2010-12-16 Panasonic Electric Works Co Ltd Autonomous mobile device
JP2011008313A (en) 2009-06-23 2011-01-13 Yamaha Motor Co Ltd Traveling direction control device and traveling object
US20160188977A1 (en) 2014-12-24 2016-06-30 Irobot Corporation Mobile Security Robot
CN108873915A (en) 2018-10-12 2018-11-23 湖南万为智能机器人技术有限公司 Dynamic obstacle avoidance method and its omnidirectional's security robot

Also Published As

Publication number Publication date
JP2020135560A (en) 2020-08-31

Similar Documents

Publication Publication Date Title
JP6881723B2 (en) Angle correction method for mobile robots in the work area and mobile robots
US11402850B2 (en) Robotic cleaning device with operating speed variation based on environment
US10948907B2 (en) Self-driving mobile robots using human-robot interactions
WO2019128070A1 (en) Target tracking method and apparatus, mobile device and storage medium
JP7120071B2 (en) autonomous mobile robot
CN112214015B (en) Self-moving robot and recharging method, system and computer storage medium thereof
JP2020501283A (en) Robot movement control method and robot
CN111949027B (en) Self-adaptive robot navigation method and device
JP2018500624A (en) System and method for use of an optical mileage sensor in a mobile robot
JP6907525B2 (en) Indoor position detection and navigation system for moving objects, indoor position detection and navigation methods, and indoor position detection and navigation programs
JP2002182742A (en) Mobile robot and its route correcting method
JP2010079853A (en) Mobile device
CN111474930A (en) Tracking control method, device, equipment and medium based on visual positioning
JP2017527776A (en) Device for detecting obstacles by crossing plane and detection method using such a device
JP6990755B1 (en) Methods, systems and non-transient computer-readable recording media for controlling the movement of robots
CN111759230A (en) Walking control method and device for mobile robot, floor washing machine and storage medium
US11762390B1 (en) Autonomous machine safety management in a dynamic environment
JP7147624B2 (en) autonomous mobile robot
CN114610042A (en) Robot path dynamic planning method and device and robot
JP7188232B2 (en) autonomous mobile robot
CN115373406B (en) Obstacle crossing method and system for crawling robot
US20220022715A1 (en) Autonomously traveling mobile robot and traveling control method therefor
WO2021106616A1 (en) Information processing device, information processing method, and program
JP2021086541A (en) Robot, control method, and program
WO2021059560A1 (en) Information processing device, robot, and information processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210513

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220718

R150 Certificate of patent or registration of utility model

Ref document number: 7120071

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150