JP5392028B2 - Autonomous mobile robot - Google Patents
Autonomous mobile robot Download PDFInfo
- Publication number
- JP5392028B2 JP5392028B2 JP2009268428A JP2009268428A JP5392028B2 JP 5392028 B2 JP5392028 B2 JP 5392028B2 JP 2009268428 A JP2009268428 A JP 2009268428A JP 2009268428 A JP2009268428 A JP 2009268428A JP 5392028 B2 JP5392028 B2 JP 5392028B2
- Authority
- JP
- Japan
- Prior art keywords
- person
- unit
- robot body
- autonomous mobile
- mobile robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000001514 detection method Methods 0.000 claims description 81
- 238000000034 method Methods 0.000 description 60
- 238000010586 diagram Methods 0.000 description 15
- 238000012545 processing Methods 0.000 description 9
- 238000013459 approach Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Description
本件は、自律移動ロボットに関する。 This case relates to an autonomous mobile robot.
従来、ショッピングセンタやオフィスなど、人が共存する環境で移動し、人と対話、応対して情報提供や案内などの作業を行う自律移動ロボット(サービスロボット)がある。 2. Description of the Related Art Conventionally, there are autonomous mobile robots (service robots) that move in an environment where people coexist, such as shopping centers and offices, and interact with people and provide work such as providing information and guidance.
この種の自律移動ロボットに適用可能な技術として、例えば、特許文献1、2のような人の視線や顔の方向を検出して制御に利用する技術がある。特許文献1に記載の技術は、視線判定手段と発話判定手段を持つぬいぐるみ等の擬人的媒体で、ユーザの発話状態と視線方向の情報を連続的に取得し、当該情報に基づいて擬人的媒体の動作を制御する技術である。具体的には、擬人的媒体は、例えば、人が発話しながら横を向いた場合に、その視線方向を向くなどの動作を行う。また、特許文献2に記載の技術は、利用者の顔方向検出手段と無発話状態を検出する手段を備え、顔方向と発話状態の情報に基づいて会話モードと、作業モードとを切り換えるシステムに関するものである。会話モードでは顔方向に従って複数カメラを切り換えて顔の正面を映し出し、作業モードでは作業に集中できるよう相手の映像を正面ディスプレイから消す等の制御を行う。
As a technique applicable to this type of autonomous mobile robot, for example, there is a technique such as
また、自律移動ロボットに適用可能な技術として、例えば特許文献3のような接触回避技術がある。特許文献3に記載の技術は、自己の移動軌道と相手移動体の移動軌道を拡張してそれぞれ移動空間を作成し、移動空間が接触する可能性が高い場合に、接触を回避する軌道を探索して、その軌道を目標軌道に変更する技術である。この技術では、目標軌道が探索できない場合には、通行可能領域の境界に近づく軌道を探索し、相手移動体が通過後に再び軌道を探索し移動を行う。 Moreover, as a technique applicable to an autonomous mobile robot, there exists a contact avoidance technique like patent document 3, for example. The technique described in Patent Document 3 creates a moving space by expanding the moving trajectory of the own moving body and the moving body of the opponent moving body, and searches for a trajectory that avoids contact when the moving space is highly likely to contact In this technique, the trajectory is changed to the target trajectory. In this technique, when the target trajectory cannot be searched, a trajectory approaching the boundary of the passable area is searched, and the opponent mobile body searches for the trajectory again after passing and moves.
しかしながら、特許文献1、2に記載のように人の視線や顔の方向を検出しても、人の意図(自律移動ロボットに退いてもらいたいのか、応対してもらいたいのか)が不明な場合もある。このような場合、特許文献1、2や特許文献3を用いても、自律移動ロボットの動きを適切に制御することはできない。
However, even if a person's line of sight or face direction is detected as described in
具体的には、人に「退いてください」と声掛けされたときに、人が止まっていたり、人の移動方向と顔の方向が異なっていたりすると、人がどの方向に行きたいのか、ロボットはどの方向に退けば良いのかを判別することが難しい。また、上記の場合、人が単に通り抜けたい場合に限らず、ロボットの横の棚や扉に用がある場合もあるため、ロボットが単純に広い方向に退くのでは人の意図に反する場合がある。 Specifically, when a person asks "Please retreat", if the person stops, or if the direction of the person's movement and the direction of the face are different, the robot wants to go in which direction, the robot It is difficult to determine which direction to retreat. In addition, in the above case, not only when a person simply wants to pass through, but also for a shelf or door next to the robot, there are cases where it is contrary to the intention of the person if the robot simply retreats in a wide direction. .
そこで本件は上記の課題に鑑みてなされたものであり、適切な移動を行うことが可能な自律移動ロボットを提供することを目的とする。 Therefore, the present invention has been made in view of the above problems, and an object thereof is to provide an autonomous mobile robot capable of performing appropriate movement.
本明細書に記載の自律移動ロボットは、ロボット本体と、前記ロボット本体の周囲に存在する人の位置及び移動方向を検出する人物検出部と、前記人の顔が向いている方向を検出する顔検出部と、前記人が発する音声を認識する音声認識部と、前記人物検出部と前記顔検出部の検出結果及び前記音声認識部の認識結果に基づいて、前記ロボット本体の動作を決定し、当該動作を前記ロボット本体に実行させる実行部と、前記実行部の指示により前記ロボット本体を移動させる移動部と、を備え、前記実行部が、前記音声認識部の認識結果に基づいて前記人が前記ロボット本体を退かそうとする意志があるか否かを判定するとともに、前記人物検出部と前記顔検出部の検出結果に基づいて前記人が移動したい方向を判定し、当該判定の結果、前記人に前記意志があるが、前記人が移動したい方向が不明であった場合に、前記ロボット本体を前記人から離れる方向に前記移動部により移動させ、前記ロボット本体が前記人から離れる方向に移動された後に、前記人物検出部により検出される前記人が動いた方向に基づいて、前記人から離れる方向に前記ロボット本体を前記移動部により移動させる自律移動ロボットである。 An autonomous mobile robot described in this specification includes a robot body, a person detection unit that detects a position and a movement direction of a person existing around the robot body, and a face that detects a direction in which the person's face is facing. The operation of the robot body is determined based on a detection unit, a voice recognition unit that recognizes a voice emitted by the person, a detection result of the person detection unit and the face detection unit, and a recognition result of the voice recognition unit, An execution unit that causes the robot main body to execute the operation; and a moving unit that moves the robot main body according to an instruction from the execution unit, wherein the execution unit determines whether the person is based on a recognition result of the voice recognition unit. It is determined whether or not there is a will to retreat the robot body, and the direction in which the person wants to move is determined based on the detection results of the person detection unit and the face detection unit. Previous If the person has the will but the direction in which the person wants to move is unknown, the robot body is moved by the moving unit in a direction away from the person, and the robot body is moved in the direction away from the person. Then, the autonomous mobile robot moves the robot body by the moving unit in a direction away from the person based on the direction of movement of the person detected by the person detecting unit.
本明細書に記載の自律移動ロボットは、適切な移動を行うことができるという効果を奏する。 The autonomous mobile robot described in this specification has an effect of being able to perform appropriate movement.
以下、自律移動ロボットの一実施形態について、図1〜図14に基づいて詳細に説明する。図1には、自律移動ロボット100が斜視図にて示されている。また、図2には、自律移動ロボット100の制御系のブロック図が示されている。この自律移動ロボット100は、ショッピングセンタやオフィスなどに配置され、人との対話、人に対する応対を行うロボットである。また、自律移動ロボット100は、対話や応対を行わないときには、人に接触しないように回避動作を行う。
Hereinafter, an embodiment of an autonomous mobile robot will be described in detail with reference to FIGS. In FIG. 1, an autonomous
自律移動ロボット100は、図1に示すように、ロボット本体10と、ロボット本体10を2次元面内で移動させる移動部20と、を備えている。ロボット本体10は、頭部10a、胴体部10b、及び首部10cを有する。頭部10aには、カメラ12と、図2に示すアレイマイク14と、距離センサ16と、が設けられている。カメラ12は、例えばステレオカメラであり、撮影される映像は、図2に示すように、制御系30の人物検出部60、位置検出部62及び顔検出部52に送られる。アレイマイク14は、周囲の音声を取得し、当該音声情報を図2に示す音源方向検出部54及び音声認識部56に送る。距離センサ16は、LRF(レーザ・レンジ・ファインダ)などを含み、周囲に存在する物体までの距離を検出することで、周辺物体の位置を検出する。当該検出結果は、図2の障害物検出部58に送られる。
As shown in FIG. 1, the autonomous
胴体部10bには、図1及び図2に示すスピーカ18と、図2に示すジャイロセンサ32と、地図情報保持部としての地図情報DB34と、が設けられている。スピーカ18は、人に対して、問い掛けや応対のための音声を出力する。ジャイロセンサ32は、自律移動ロボット100の角速度及び角度を検出し、当該検出結果を位置検出部62に送る。地図情報DB34は、自律移動ロボット100が配置される場所の地図情報を格納する。なお、地図情報については後述する。なお、図2では、制御系30が頭部10aや胴体部10bとは別に記載されているが、制御系30は、頭部10aや胴体部10bの内部に設けられても良い。
The
首部10cは、図2に示す首モータ36の回転駆動により回転される。これにより、頭部10aやカメラ12等が回転されるようになっている。
The
移動部20は、制御系30からの指示を受けて、ロボット本体10を移動させるものであり、図2に示すように、複数の車輪(タイヤなど)22と、当該車輪を回転駆動する走行モータ24と、走行モータ24、複数の車輪22の回転角度及び回転数を検出するエンコーダ26と、有する。複数の車輪22が走行モータ24により回転されることで、自律移動ロボット100は、前後左右に移動可能となっている。エンコーダ26は、複数の車輪22それぞれの回転角度及び回転数を検出するため、結果的に自律移動ロボット100の移動方向および移動量を検出することができる。
The moving
図2の制御系30は、顔検出部52と、音源方向検出部54と、音声認識部56と、障害物検出部58と、人物検出部60と、ロボット本体位置検出部としての位置検出部62と、を備える。また、制御系30は、首制御部64と、走行制御部66と、発声制御部68と、地図更新部72と、動作決定部80と、を備える。
2 includes a
顔検出部52は、カメラ12により撮影された画像から、人の顔を検出するとともに、人の顔の方向(向き)を検出する。音源方向検出部54は、アレイマイク14で取得された音声情報に基づいて、人により声が発せられた方向を検出する。音声認識部56は、アレイマイク14で取得された音声情報から、人が発した言葉を解析して認識する。障害物検出部58は、距離センサ16において検出された周辺物体の位置を用いて、障害物の位置を検出する。
The
人物検出部60は、カメラ12により撮影された画像から人の位置を検出する。また、人の位置をリアルタイム連続検出した結果から、人の移動方向及び移動速度を算出する。なお、人物検出部60は、検出精度を高めるために、距離センサ16の検出結果を併用して、人の位置や移動方向及び速度を検出することとしても良い。また、周囲に複数の人が存在しているような場合には、音源方向検出部54で検出される、声の発せられた方向を用いて、声を発した人を特定する。
The
位置検出部62は、例えば、カメラ12により検出される画像から、画像処理で判別しやすい特徴的な物体(マークや構造物など)の特徴データを抽出する。そして、当該特徴データと、カメラ12又は距離センサ16により検出される周辺の障害物の位置とを、地図情報DB34に格納されている地図情報とマッチングし、自律移動ロボット100(ロボット本体10)の初期位置を検出する。なお、周辺の障害物の位置は、カメラ12及び距離センサ16の両方の検出結果を用いて検出することとしてもよい。これにより検出精度を向上することができる。また、位置検出部62は、移動を開始した後は、初期位置と、エンコーダ26の検出結果(移動方向及び移動量)とを用いて、自律移動ロボット100の位置を検出する。なお、移動方向及び移動量の検出精度を向上するため、移動方向や移動量の検出に、ジャイロセンサ32やカメラ12、距離センサ16などの検出結果を用いることとしても良い。
For example, the
首制御部64は、首モータ36の回転を制御して、頭部10aの向き(カメラ12の向き)を調整する。走行制御部66は、走行モータ24の回転を制御して、自律移動ロボット100を移動させる。発声制御部68は、状況に応じた音声を、音声合成などを用いて、スピーカ18から出力する。スピーカ18からは、人に対する応対のための音声も出力される。すなわち、スピーカ18と発声制御部68とを含んで、応対部としての機能が実現される。地図更新部72は、障害物検出部58の検出結果に基づいて、障害物の存在位置に自律移動ロボット100が入らないようにするために、地図情報を更新する。
The
動作決定部80は、制御系30の各部の検出結果を用いて、自律移動ロボット100の動作を決定し、首制御部64、走行制御部66、発声制御部68、地図更新部72に対して指示を出す。このうち、動作決定部80、首制御部64、走行制御部66、及び発声制御部68を含んで、ロボット本体10(自律移動ロボット100)の動作を決定し、当該動作を移動部20に実行させる実行部が実現される。
The
次に、地図情報DB34に格納されている地図情報について、図3(a)、図3(b)に基づいて説明する。図3(a)は、自律移動ロボット100が配置される領域の地図情報を模式的に示した図であり、図3(b)は、地図情報DB34に実際に格納される、図3(a)のXY座標を用いた地図情報のデータを示す図である。
Next, the map information stored in the map information DB 34 will be described with reference to FIGS. 3 (a) and 3 (b). FIG. 3A is a diagram schematically showing map information of an area where the autonomous
図3(a)の地図情報では、移動可能範囲と、移動不可範囲と、ロボット応対可能範囲と、応対不可範囲とが定義されている。移動可能範囲は、自律移動ロボット100が移動できる範囲を意味し、移動不可範囲は、自律移動ロボット100が侵入できない範囲を意味する。また、ロボット応対可能範囲は、幅が狭い通路などの領域で、人に対して応対する自律移動ロボット100が位置すべき範囲を意味する。このロボット応対範囲は、狭い通路でも、自律移動ロボット100が人の通行の邪魔にならない範囲である。更に、応対不可範囲は、ドアなどが近傍に存在するため、応対のときに自律移動ロボット100が位置すべきでない範囲を意味する。また、図3(b)のデータでは、各XY座標に対応して、オリジナルデータとして移動可能範囲や移動不可範囲、ロボット応対可能範囲、応対不可範囲等が定義されている。また、例えば、移動可能範囲等に障害物(人など)が存在している場合には、障害物検出部58の検出結果に基づいて、地図更新部72が地図情報のデータの更新の項目を、「障害物あり」に更新する。更新の項目が「障害物あり」となっている場合には、オリジナルが移動可能範囲等であっても、移動不可範囲と同等の取り扱いがなされる。
In the map information of FIG. 3A, a movable range, a non-movable range, a robot serviceable range, and a non-serviceable range are defined. The movable range means a range where the autonomous
次に、自律移動ロボット100の動作について、図4、図5、図12のフローチャートに沿って、その他図面を適宜参照しつつ説明する。
Next, the operation of the autonomous
まず、図4のステップS10では、動作決定部80が、人物検出部60の検出結果に基づいて、人が近づいてきたか否かを判断する。ここでの判断が否定された場合には、ステップS12に移行し、判断が肯定された場合には、ステップS14に移行する。ステップS12に移行した場合、動作決定部80は、音声認識部56が音声を認識したか否かを判断する。ここでの判断が否定された場合には、ステップS10に戻り、判断が肯定された場合には、ステップS14に移行する。すなわち、ステップS14に移行する場合とは、人が近づいてきたか、あるいは人の発する音声を認識した場合である。動作決定部80は、近づいてきた人あるいは音声を発した人を、動作対象と認識する。
First, in step S10 of FIG. 4, the
ステップS14では、人物検出部60が、人(動作対象)の位置及び進行方向を検出する。次いで、動作決定部80は、ステップS16において、人(動作対象)が退いて欲しい意味の音声を発したことで、音声認識部56が当該音声を認識したか否かを判断する。ここでの判断が否定された場合には、ステップS38に移行する。なお、ステップS38以降の処理については後述する。一方、ステップS16の判断が肯定された場合には、ステップS18に移行する。
In step S <b> 14, the
ステップS18では、動作決定部80が、人物検出部60の検出結果に基づいて、人(動作対象)が移動中であるか否かを判断する。ここでの判断が肯定された場合には、ステップS20に移行する。ステップS20では、動作決定部80が、位置検出部62において検出される自律移動ロボット100の位置と、人物検出部において検出される人の位置及び移動方向とを結ぶ線を算出し、当該線と人の進行方向との角度差を計算する。そして、動作決定部80は、ステップS22において、角度差が所定範囲内か否かを判断する。ここで、所定範囲としては、自律移動ロボット100と人の位置を結ぶ線と、人の進行方向とがほぼ一致するとみなせる範囲を定めることができる。ここでの判断が否定された場合、すなわち、人が退いてほしいとの声を発し(ステップS16が肯定)、人がロボットを避ける方向に移動していると判断された場合には、ステップS36において、動作決定部80は、自律移動ロボット100の回避処理開始を決定する。具体的には、動作決定部80は、人の移動を妨げず、人が移動しやすくなる方向、例えば、人の移動方向に垂直な方向、に移動を開始するように決定する。そして、動作決定部80が回避処理を行うことを決定すると、走行制御部66は、当該決定に基づいて走行モータ24を駆動し、回避処理を行う。この回避処理が完了すると、図4、図5の全処理を終了する。
In step S <b> 18, the
一方、ステップS22の判断が肯定された場合には、ステップS24に移行する。ステップS24に移行する場合とは、人(動作対象)が退いてほしいとの声を発し、当該人が自律移動ロボット100の方向に向かって移動している又は停止している(ステップS18が否定)場合である。すなわち、自律移動ロボット100は、どの方向に避けるべきかが判別不能な状況であるといえる。この場合、動作決定部80は、ステップS24において、人に対して反対に移動するように決定し、走行制御部66を介して、走行モータ24を駆動して、人と反対方向に移動する。具体的には、図6に示すような動作を実行する。図6では、人をHで示し、自律移動ロボット100をRで示している。ここで、人は、ロボットを避けて通行したいという意志を有している場合でも、ロボットとの位置関係からどちらに避ければ良いか判断できない場合がある。しかるに、人は、このような場合でもロボットと人との間隔が変われば、どちらに避ければ良いかを判断することができる場合がある。したがって、ステップS24では、自律移動ロボット100が人と反対方向に移動して、人との間隔を変えることで、人に判断及び動作を促している。
On the other hand, if the determination in step S22 is affirmed, the process proceeds to step S24. In the case of shifting to step S24, the person (action target) makes a voice saying that he / she wants to retreat, and the person is moving in the direction of the autonomous
次いで、ステップS26では、人物検出部60が、人(動作対象)の位置及び進行方向を検出する。次いで、ステップS28では、動作決定部80が、人(動作対象)が移動中であるか否かを判断する。ここでの判断が肯定された場合、すなわち、人が移動している場合には、ステップS32において、ステップS20と同様、動作決定部80が、自律移動ロボット100の位置と人の位置とを結ぶ線と、人の進行方向との角度差を計算する。そして、ステップS34では、ステップS22と同様、動作決定部80が、角度差が所定範囲内であるか否かを判断する。ここでの判断が否定された場合は、自律移動ロボット100が人の進行方向とは反対の方向に移動して、様子を見た結果、人が異なる方向に移動したと推定される。このような場合には、ステップS36に移行し、動作決定部80は、前述と同様に、人が移動している方向から離れる方向を回避方向として決定する。そして、動作決定部80は、走行制御部66を介して、走行モータ24を駆動して、上記回避方向に回避処理を実行する。一方、ステップS34の判断が肯定された場合、すなわち、自律移動ロボット100を人の進行方向とは反対の方向に移動させて様子を見た結果、人がまだ自律移動ロボット100に向けて移動している場合には、ステップS24に戻る。そして、ステップS24を再度実行して、自律移動ロボット100を人の進行方向と反対の方向に更に移動させて様子を見る(ステップS26)。
Next, in step S <b> 26, the
これに対し、ステップS28の判断が否定された場合、すなわち、人の進行方向に対して反対方向に移動した結果、人が移動を止めた場合には、ステップS30に移行する。ステップS30では、動作決定部80が、位置検出部62及び人物検出部60の検出結果から、人と自律移動ロボット100とが一定距離離れたか否かを判断する。ここでの判断が肯定された場合には、全処理を終了し、動作対象であった人を動作対象から解除する。一方、ステップS30の判断が否定された場合には、ステップS24に戻る。その後は、ステップS30が肯定されるまで、あるいはステップS36の処理が完了するまで、ステップS24以降の処理を繰り返す。
On the other hand, if the determination in step S28 is negative, that is, if the person stops moving as a result of moving in the opposite direction to the person's traveling direction, the process proceeds to step S30. In step S <b> 30, the
ところで、図4のステップS16の判断が否定された場合、すなわち、人が退いてほしい意味の音声を発していない場合には、図5に移行して、ステップS38の処理を実施する。具体的には、ステップS38では、動作決定部80が、地図情報DB34に格納されている地図情報を用いて、自律移動ロボット100が位置している場所の幅が一定以下か否かを判断する。ここでの判断が否定された場合、すなわち、自律移動ロボット100が、広い場所に位置していると判断された場合には、自律移動ロボット100が人の邪魔とならないと推定される。このため、図4、図5の全処理を終了する。一方、ステップS38の判断が肯定された場合には、ステップS40に移行する。
By the way, if the determination in step S16 of FIG. 4 is negative, that is, if the voice that the person wants to leave is not uttered, the process proceeds to FIG. 5 and the process of step S38 is performed. Specifically, in step S38, the
ステップS40では、動作決定部80が、人(動作対象)が移動中であるか否かを判断する。ここでの判断が否定された場合にはステップS52に移行する。一方、ステップS40の判断が肯定された場合には、ステップS42に移行し、ステップS20、S32と同様、動作決定部80が、自律移動ロボット100の位置と人の位置とを結ぶ線と、人の進行方向との角度差を計算する。そして、ステップS44では、ステップS22、S34と同様、動作決定部80が、角度差が所定範囲内であるか否かを判断する。ここでの判断が肯定された場合、ステップS52に移行する。一方、ステップS44の判断が否定された場合にも、ステップS48において、動作決定部80が、顔検出部52の検出結果に基づいて、人が自律移動ロボット100に顔を向けているか否かを判断する。ここでの判断が肯定された場合には、ステップS52に移行する。また、ここでの判断が否定された場合には、ステップS50に移行する。
In step S40, the
ここで、ステップS40〜S48の処理・判断について、図7〜図9に基づいて具体的に説明する。なお、図7〜図9では、一例として、自律移動ロボット100が棚の前に位置している場合を図示している。
Here, the processing and determination of steps S40 to S48 will be specifically described with reference to FIGS. 7 to 9 illustrate a case where the autonomous
(A) ステップS40〜S48の処理・判断の結果、ステップS50に移行する場合
図7(a)、図7(b)に示すように、人が、自律移動ロボット100に向かって近づいてなく、かつ人が自律移動ロボット100に顔を向けていない場合であり、自律移動ロボット100に用がないと推定される場合である。このような場合、ステップS40(肯定)、ステップS42、ステップS44(否定)、ステップS48(否定)を経て、ステップS50に移行するようになっている。
(A) As a result of the processing / determination in steps S40 to S48, the process proceeds to step S50. As shown in FIGS. 7A and 7B, a person is not approaching the autonomous
(B) ステップS40〜S48の処理・判断の結果、ステップS52に移行する場合
(1)人が停止している場合
図8(a)に示すように人が停止している場合、人が自律移動ロボット100に退いて欲しいと考えているのか、人が棚にアクセスしたいと考えているのかが不明であると推定される。このような場合、ステップS40の判断が否定された後、ステップS52に移行するようになっている。
(B) As a result of the processing / determination of steps S40 to S48, when the process proceeds to step S52 (1) When the person is stopped When the person is stopped as shown in FIG. It is estimated that it is unknown whether the
(2)人が自律移動ロボット100に向かって近づいており、かつ自律移動ロボット100の方向に顔を向けている場合
図8(b)に示すように、人が自律移動ロボット100に向かって近づいており、かつ自律移動ロボット100の方向に顔を向けている場合も、人が自律移動ロボット100に退いて欲しいと考えているのか、自律移動ロボット100に用があるのかが不明であると推定される。このような場合、ステップS40(肯定)、ステップS42、ステップS44(肯定)を経て、ステップS52に移行するようになっている。
(2) When a person approaches toward the autonomous
(3)人が自律移動ロボット100に向かって近づいているが、自律移動ロボット100の方向に顔を向けていない場合
図9(a)に示すように、人が自律移動ロボット100に向かって近づいているが自律移動ロボット100の方向に顔を向けていない場合も、人が自律移動ロボット100に退いて欲しいと考えているのか不明であると推定される。このような場合も上記(2)と同様に、ステップS40(肯定)、ステップS42、ステップS44(肯定)を経て、ステップS52に移行するようになっている。
(3) When a person approaches toward the autonomous
(4)人が自律移動ロボット100に向かって近づいていないが、自律移動ロボット100の方向に顔を向けている場合
図9(b)に示すように、人が自律移動ロボット100に向かって近づいていないが自律移動ロボット100の方向に顔を向けている場合も、人が自律移動ロボット100に退いて欲しいと考えているのか不明であると推定される。このような場合、ステップS40(肯定)、ステップS42、ステップS44(否定)、ステップS48(肯定)を経て、ステップS52に移行するようになっている。
(4) When a person is not approaching the autonomous
図5に戻り、ステップS50では、前述したステップS36と同様にして、回避処理を実行する。具体的には、図10(a)、図10(b)に示すように、自律移動ロボット100が、人の進行方向から離れる方向に移動するように、動作決定部80が移動方向を決定し、走行制御部66を介して走行モータ24を駆動する。
Returning to FIG. 5, in step S50, avoidance processing is executed in the same manner as in step S36 described above. Specifically, as shown in FIGS. 10A and 10B, the
一方、ステップS52では、動作決定部80は、発声制御部68を介してスピーカ18から音声を出力して、人の意志を確認する。具体的には、「何か御用でしょうか」などの音声をスピーカ18から出力する。次いで、ステップS54では、動作決定部80が、音声認識部56において、人からの回答があったことが認識されたか否かを判断する。ここでの判断が肯定された場合にはステップS56に移行し、否定された場合には、図4のステップS24に移行する。
On the other hand, in step S <b> 52, the
ステップS56では、動作決定部80が、人からの回答が退いて欲しい意味の音声であったと、音声認識部56において認識されたか否かを判断する。ここでの判断が肯定された場合には、図4のステップS24に移行する。
In step S56, the
図4のステップS24に移行した場合、すなわち、人からの回答が無かったり、回答があったが、当該回答が退いて欲しいという意味であった場合には、ステップS24以降の処理を、前述したのと同様に実行する。具体的には、図11(a)のように人が停止している場合(図8(a)に対応)、図11(b)、図11(c)のように人が自律移動ロボット100に向かって移動している場合(図8(b)、図9(a)に対応)、及び図11(d)に示すように人の顔が自律移動ロボット100に向いている場合(図9(b)に対応)のいずれにおいても、人から離れる方向に移動する。そして、自律移動ロボット100の移動後における人の動きを見て、当該人の動きから離れる方向に自律移動ロボット100が回避するようにする(ステップS36)。
When the process proceeds to step S24 in FIG. 4, that is, when there is no answer from a person or there is an answer, but it means that the answer is desired to be withdrawn, the processing after step S24 is described above. Run as you did. Specifically, when the person is stopped as shown in FIG. 11A (corresponding to FIG. 8A), the person is autonomously moving the
図5に戻り、ステップS54の判断が否定された場合、すなわち、人に自律移動ロボット100に退いてほしいという意志がない場合には、動作決定部80等が、人(動作対象)に対する応対を処理を実行する(ステップS58)。
Returning to FIG. 5, if the determination in step S54 is negative, that is, if the person does not want to move away from the autonomous
ステップS58のサブルーチンでは、図12に示す処理を実行する。 In the subroutine of step S58, the process shown in FIG. 12 is executed.
図12の処理では、まず、ステップS60において、動作決定部80が、位置検出部62で検出される自律移動ロボット100の位置を取得する。次いで、ステップS62において、動作決定部80が、人物検出部60で検出された人(動作対象)の位置を取得する。次いで、ステップS64では、動作決定部80の指示の下、首制御部64が首モータ36を駆動して、人に頭部10a正面を向けるとともに、発声制御部68がスピーカ18を介して発話などを行うことで、応対を開始することを示す。
In the process of FIG. 12, first, in step S <b> 60, the
次いで、ステップS66では、動作決定部80が、地図情報DB34に格納されている地図情報(図3(b)参照)と、ステップS60で取得した位置から、自己位置情報及び通路幅を取得する。動作決定部80は、自己位置情報として、図3に示すデータからオリジナルの項目(例えば、移動可能範囲や応対不可範囲など)の情報を取得する。次いで、ステップS68では、動作決定部80が、自律移動ロボット100が位置する領域における通路幅が規定幅より狭いか否かを判断する。すなわち、自律移動ロボット100(ロボット本体10)の周囲に所定広さ、例えば、自律移動ロボット100の幅と人の幅(予め設定されているものとする)の合計よりも広い通路幅、が確保されているか否かを判断する。ここでの判断が否定された場合、すなわち、図13(a)に示すように、通路幅が規定幅より広い場合には、ステップS82に移行する。そして、ステップS82では、動作決定部80の指示の下、走行制御部66が走行モータ24を駆動したり、首制御部64が首モータ36を駆動したりすることで、自律移動ロボット100の方向を人に向けて、応対を行う。このように、通路幅が規定幅より広い場合には、図13(c)に示すように、その場で応対を行っても、動作対象の人以外の人の通行等を邪魔することが無いことから、自律移動ロボット100は、その場で応対を行うようにしている。なお、応対は、発声制御部68がスピーカ18から音声を出力したり、音声認識部56が人の音声を認識し、人の問いかけに適切に答えたりすることにより、行われる。
Next, in step S66, the
一方、ステップS68の判断が肯定されると、ステップS70に移行して、動作決定部80は、自律移動ロボット100の位置がロボット応対可能範囲であるか否かを判断する。ここでの判断が肯定された場合、すなわち、図13(b)に示すように、既に、自律移動ロボット100がロボット応対可能範囲に存在している場合には、特に移動することなく、前述と同様、ステップS82の処理(応対)を行う。
On the other hand, when the determination in step S68 is affirmed, the process proceeds to step S70, and the
一方、ステップS70の判断が否定された場合、すなわち図13(c)に示すように、自律移動ロボット100がロボット応対可能範囲に存在していない場合には、ステップS72に移行する。ステップS72では、動作決定部80が、障害物検出部58で検出される障害物の位置を取得し、地図情報を更新する。具体的には、図3(b)に示すように、更新の項目を「障害物あり」と更新する。
On the other hand, if the determination in step S70 is negative, that is, as shown in FIG. 13C, if the autonomous
次いで、ステップS74では、動作決定部80が、自律移動ロボット100の移動場所を決定する。例えば、図14(a)に示すように、自律移動ロボット100近傍に移動不可範囲や応対不可範囲が存在しない場合には、動作決定部80は、ロボット応対可能範囲のうちで最も近い位置を移動場所として決定する。この決定においては、ポテンシャル法などの既存技術を用いることができる。また、図14(b)に示すように、自律移動ロボット100の近傍に障害物としての人が存在している場合には、当該人に接触せずに移動でき、かつロボット応対可能範囲のうちで最も近い位置を移動場所として決定する。更に、図14(c)のように、自律移動ロボット100の近傍に応対不可範囲がある場合には、応対不可範囲を除き、ロボット応対可能範囲のうちで最も近い位置を移動場所として決定する。図14(b),図14(c)のような場合にもポテンシャル法を用いることができる。
Next, in step S <b> 74, the
次いで、ステップS76では、動作決定部80の指示の下、発声制御部68がスピーカ18を介して、人に対して移動開始を通知する。次いで、ステップS78では、動作決定部80の指示の下、走行制御部66が、走行モータ24を駆動して、自律移動ロボット100を、ステップS74で決定した移動場所まで移動させる。次いで、動作決定部80は、ステップS80において、移動が完了するまで待機し、移動が完了した段階で、ステップS82に移行する。ステップS82では、前述したのと同様に、自律移動ロボット100の向きを人に向け、応対を行う。
Next, in step S <b> 76, under the instruction of the
以上のようにして、図12の処理が終了すると、図5に戻り、全処理を終了する。 When the process of FIG. 12 is completed as described above, the process returns to FIG. 5 and all the processes are completed.
以上、詳細に説明したように、本実施形態によると、動作決定部80及び走行制御部66は、音声認識部56の認識結果に基づいて人が自律移動ロボット100を退かそうとしているか否かを判定するとともに、人物検出部60と顔検出部52の検出結果に基づいて人が移動したい方向を判定する。そして、判定の結果、人に退かそうとする意志があるが移動したい方向が不明であった場合には、自律移動ロボット100を人から離れる方向に移動させ(ステップS24)、自律移動ロボット100が人から離れる方向に移動した後に、人が動いた方向に基づいて、人から離れる方向に自律移動ロボット100を移動する。ここで、人は、ロボットを避けて通行したいという意志を有している場合でも、ロボットとの位置関係からどちらに避ければ良いかという判断ができない場合がある。このような場合でも、人は、ロボットとの間隔が変化すると、自発的にどちらに避ければ良いかを判断し、その方向への動作を実行する習性を有している。このため、本実施形態の自律移動ロボット100は、人が自律移動ロボット100を退かしたいと考え、かつ人が移動したい方向が不明な場合に、人から一旦離れ、そのときの様子を見て人の移動したい方向を確認し、人から離れるように移動するようにしている。これにより、人の移動したい方向が不明な場合でも、適切な移動(回避動作)を行うことが可能である。
As described above in detail, according to the present embodiment, the
また、本実施形態では、動作決定部80及び走行制御部66は、人の移動方向が自律移動ロボット100に向かう方向でなく、かつ人の顔の向きが自律移動ロボット100の方向でない場合に、自律移動ロボット100に、人に接触しないように回避動作を実行させる。このように、人の移動方向が自律移動ロボット100に向かう方向でなく、かつ人の顔の向きが自律移動ロボット100の方向でない場合には、人が自律移動ロボット100に用がある可能性が低い。したがって、自律移動ロボット100は人に接触しないように回避動作を実行することで、人の邪魔をすることなく、同一の空間で人と共存することができるようになる。
In the present embodiment, the
また、本実施形態では、動作決定部80及び走行制御部66並びに発声制御部68は、音声認識部56の認識結果に基づいて人が自律移動ロボット100を退かそうとする意志が無いと判定した場合で、かつ、(a)人が移動していない場合、(b)人が移動中で当該人の顔が自律移動ロボット100の方向を向いている場合、及び(c)人が自律移動ロボットの方向に移動中で当該人の顔が自律移動ロボット100の方向を向いていない場合のいずれかに該当する場合に、スピーカ18から人に対して意志を確認する音声を発生させ、音声認識部56の認識結果に基づいて人が自律移動ロボット100を退かそうとする意志があるか否かを判定する。このように、人の移動方向と人の顔の向きを確認した結果、人に自律移動ロボット100を退かそうとする意志があるか否かが不明と判定されたときに、人の意志を確認することができる。これにより、確認結果を用いることで、自律移動ロボット100を適切に動作させることができるようになる。
Further, in the present embodiment, the
また、本実施形態では、自律移動ロボット100の位置する通路の幅が狭い場合、すなわち、自律移動ロボット100の周囲に所定広さ、例えば、自律移動ロボット100の幅と人の幅の合計よりも広い通路幅、が確保されていない場合に、人の意志を確認する。したがって、自律移動ロボット100が退かなくても人の邪魔にならないような場合まで、自律移動ロボット100を動作させなくても良くなるので、動作を効率よく行うことが可能である。
Further, in the present embodiment, when the width of the path where the autonomous
また、本実施形態では、人が自律移動ロボットを退かそうとする意志が無いと判定された場合に、邪魔にならない場所に移動した後、人に対する応対を行う。これにより、動作対象の人以外の人にとっても自律移動ロボット100が邪魔にならずに、動作対象の人に対する応対を行うことができる。
Further, in this embodiment, when it is determined that there is no intention of the person to leave the autonomous mobile robot, after moving to a place where it does not get in the way, the person is treated. As a result, the autonomous
また、本実施形態では、応対不可範囲や移動不可範囲を除く領域内で自律移動ロボット100を移動させるので、自律移動ロボット100を適切な範囲で移動させることが可能である。
Moreover, in this embodiment, since the autonomous
また、本実施形態では、検出した障害物の位置を、新たな応対不可範囲として地図情報に設定するため、障害物(応対する人以外の人など)に自律移動ロボット100が接触するのを回避することができる。
Further, in this embodiment, the position of the detected obstacle is set in the map information as a new unacceptable range, so that the autonomous
なお、上記実施形態では、図14(a)〜図14(c)の回避動作に代えて、図15(a)、図15(b)のような回避動作を、自律移動ロボット100に行わせても良い。具体的には、図15(a)に示すように、自律移動ロボット100近傍に障害物(人)が存在する場合、自律移動ロボット100は、図15(a)の紙面上側及び下側のロボット応対可能範囲のいずれかに移動することができる。ここでは、動作決定部80は、人との距離が離れないように移動場所を決定することとする。例えば、図15(a)の場合であれば、人(動作対象)との距離の増加しない範囲(円L内)で、かつ移動距離が最も少なくなる位置100’を移動場所とする。このようにすることで、場所100”に移動する場合よりも応対時の人との位置関係を適切に保つことができる。同様に、図15(b)に示すように、応対不可範囲が自律移動ロボット100の近傍にある場合にも、人との距離の増加しない範囲(円L内)で、かつ移動距離が最も少ない位置を移動場所とする。これにより、動作対象の人との位置関係を適切に保つことができる。
In the above embodiment, the autonomous
なお、上記実施形態では、カメラ12としてステレオカメラを用い、当該カメラ12で撮影される画像を用いて、顔検出及び人の位置検出を行う場合について説明した。しかしながら、これに限られるものではなく、顔検出用のカメラを別途設け、当該顔検出用のカメラで撮影される画像を用いて人の顔を検出することとしても良い。
In the above embodiment, a case has been described in which a stereo camera is used as the
なお、上記実施形態では、前述のように、ジャイロセンサ32は、自律移動ロボット100の向きを精度良く検出するために用いるためのものである。このため、然程精度が要求されないような場合には、ジャイロセンサ32を設けないこととしても良い。
In the above embodiment, as described above, the
また、上記実施形態では、首部10cが回転可能である場合について説明したが、これに限らず、首部10cは回転しなくても良い。この場合、首モータ36や首制御部64を省略することができる。カメラ12の撮影方向を変更する場合には、移動部20の走行モータ24を用いることとすれば良い。
Moreover, although the said embodiment demonstrated the case where the
上述した実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。 The above-described embodiment is an example of a preferred embodiment of the present invention. However, the present invention is not limited to this, and various modifications can be made without departing from the scope of the present invention.
10 ロボット本体
18 スピーカ(応対部の一部)
20 移動部
34 地図情報DB(地図情報保持部)
56 音声認識部
60 人物検出部
62 位置検出部(ロボット本体位置検出部)
64 首制御部(実行部の一部)
66 走行制御部(実行部の一部)
68 発声制御部(実行部の一部、発声部、応対部の一部)
80 動作決定部(実行部の一部)
100 自律移動ロボット
10
20 moving part 34 map information DB (map information holding part)
56
64 Neck control unit (part of the execution unit)
66 Travel control part (part of execution part)
68 Voice control part (part of execution part, voice part, part of response part)
80 Action determination unit (part of execution unit)
100 autonomous mobile robot
Claims (8)
前記ロボット本体の周囲に存在する人の位置及び移動方向を検出する人物検出部と、
前記人の顔が向いている方向を検出する顔検出部と、
前記人が発する音声を認識する音声認識部と、
前記人物検出部と前記顔検出部の検出結果及び前記音声認識部の認識結果に基づいて、前記ロボット本体の動作を決定し、当該動作を前記ロボット本体に実行させる実行部と、
前記実行部の指示により前記ロボット本体を移動させる移動部と、
を備え、
前記実行部は、
前記音声認識部の認識結果に基づいて前記人が前記ロボット本体を退かそうとする意志があるか否かを判定するとともに、前記人物検出部と前記顔検出部の検出結果に基づいて前記人が移動したい方向を判定し、
当該判定の結果、前記人に前記意志があるが、前記人が移動したい方向が不明であった場合に、前記ロボット本体を前記人から離れる方向に前記移動部により移動させ、
前記ロボット本体が前記人から離れる方向に移動された後に、前記人物検出部により検出される前記人が動いた方向に基づいて、前記人から離れる方向に前記ロボット本体を前記移動部により移動させることを特徴とする自律移動ロボット。 The robot body,
A person detecting unit for detecting a position and a moving direction of a person existing around the robot body;
A face detection unit for detecting a direction in which the human face is facing;
A speech recognition unit for recognizing speech emitted by the person;
An execution unit that determines an operation of the robot body based on a detection result of the person detection unit and the face detection unit and a recognition result of the voice recognition unit, and causes the robot body to execute the operation;
A moving unit that moves the robot body according to an instruction from the execution unit;
With
The execution unit is
Based on the recognition result of the voice recognition unit, it is determined whether or not the person intends to leave the robot body, and the person is detected based on the detection results of the person detection unit and the face detection unit. Determine the direction you want to move,
As a result of the determination, if the person has the will, but the direction in which the person wants to move is unknown, the robot body is moved by the moving unit in a direction away from the person,
After the robot body is moved in a direction away from the person, the robot body is moved in the direction away from the person by the moving unit based on the direction of movement of the person detected by the person detection unit. An autonomous mobile robot characterized by
前記音声認識部の認識結果に基づいて前記人が前記ロボット本体を退かそうとする意志が無いと判定した場合で、かつ、前記人が移動していない場合、前記人が移動中で当該人の顔が前記ロボット本体の方向を向いている場合、及び前記人が前記ロボット本体の方向に移動中で当該人の顔が前記ロボット本体の方向を向いていない場合のいずれかに該当する場合に、
前記発声部から前記人に対して意志を確認する音声を発生し、その後の前記音声認識部の認識結果に基づいて前記人が前記ロボット本体を退かそうとする意志があるか否かを判定することを特徴とする請求項1又は2に記載の自律移動ロボット。 The execution unit includes a utterance unit that utters voice,
When it is determined that the person is not willing to leave the robot body based on the recognition result of the voice recognition unit, and the person is not moving, the person is moving When the person's face is facing the direction of the robot body and when the person is moving in the direction of the robot body and the person's face is not facing the direction of the robot body ,
Generates a voice confirming the will from the utterance unit to the person, and determines whether or not the person is willing to leave the robot body based on a recognition result of the voice recognition unit thereafter The autonomous mobile robot according to claim 1 or 2, characterized in that:
前記ロボット本体の位置を検出するロボット本体位置検出部と、を更に備え、
前記実行部は、前記ロボット本体位置検出部で検出された前記ロボット本体の位置と、前記地図情報保持部に保持されている地図情報とに基づいて、前記ロボット本体の周囲に所定広さが確保されているか否かを判断し、
前記所定広さが確保されていない場合に、前記発声部から前記人に対して意志を確認する音声を発生させることを特徴とする請求項3に記載の自律移動ロボット。 A map information holding unit for holding map information of an area where the robot body is arranged;
A robot body position detector for detecting the position of the robot body;
The execution unit secures a predetermined area around the robot body based on the position of the robot body detected by the robot body position detection unit and the map information held in the map information holding unit. To determine whether or not
The autonomous mobile robot according to claim 3, wherein when the predetermined area is not secured, a voice for confirming a will for the person is generated from the voice generation unit.
前記地図情報には、前記ロボット本体が位置しても邪魔にならない場所が設定されており、
前記実行部は、前記人が前記ロボット本体を退かそうとする意志が無いと判定した場合に、前記邪魔にならない場所に前記ロボット本体を移動させて、前記応対部に応対を実行させることを特徴とする請求項4に記載の自律移動ロボット。 And further comprising a reception unit for interacting with the person,
In the map information, a place that does not get in the way even if the robot body is located is set,
The execution unit, in the case where the person has been determined that there is no will to Dokaso the robot body, the moves the robot body in a location that said do not get in the way, be executed the answering before Symbol answering part The autonomous mobile robot according to claim 4.
前記地図情報には、前記ロボット本体が位置できない禁止場所が設定されており、
前記実行部は、前記人がロボット本体を退かそうとする意志が無いと判断した場合に、前記禁止場所を除く場所に前記ロボット本体を前記移動部により位置させて、前記応対部に応対を実行させることを特徴とする請求項4に記載の自律移動ロボット。 And further comprising a reception unit for interacting with the person,
In the map information, a prohibited place where the robot body cannot be located is set,
When the execution unit determines that the person is not willing to leave the robot body , the execution unit positions the robot body in a place other than the prohibited place by the moving unit, and handles the reception unit. The autonomous mobile robot according to claim 4 , wherein the autonomous mobile robot is executed.
前記障害物検出部は、検出した障害物の位置を、新たな禁止場所として地図情報に設定することを特徴とする請求項7に記載の自律移動ロボット。 An obstacle detection unit for detecting an obstacle located around the robot body;
The autonomous mobile robot according to claim 7, wherein the obstacle detection unit sets the position of the detected obstacle in the map information as a new prohibited place.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009268428A JP5392028B2 (en) | 2009-11-26 | 2009-11-26 | Autonomous mobile robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009268428A JP5392028B2 (en) | 2009-11-26 | 2009-11-26 | Autonomous mobile robot |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011110644A JP2011110644A (en) | 2011-06-09 |
JP5392028B2 true JP5392028B2 (en) | 2014-01-22 |
Family
ID=44233393
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009268428A Expired - Fee Related JP5392028B2 (en) | 2009-11-26 | 2009-11-26 | Autonomous mobile robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5392028B2 (en) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013069195A1 (en) | 2011-11-09 | 2013-05-16 | パナソニック株式会社 | Autonomous locomotion device, autonomous locomotion method and program for an autonomous locomotion device |
JP5597322B1 (en) * | 2012-11-05 | 2014-10-01 | パナソニック株式会社 | RUNNING INFORMATION GENERATION DEVICE, METHOD, AND PROGRAM FOR AUTONOMOUS TRAVEL DEVICE |
GB2563785B (en) * | 2016-03-28 | 2021-03-03 | Groove X Inc | Autonomously acting robot that performs a greeting action |
KR101954610B1 (en) * | 2016-11-29 | 2019-03-06 | 한국기술교육대학교 산학협력단 | Communion robot system for senior citizen |
KR20180082777A (en) * | 2017-01-11 | 2018-07-19 | 한국기술교육대학교 산학협력단 | Communion robot system for senior citizen |
JP6343362B1 (en) * | 2017-03-21 | 2018-06-13 | 三菱ロジスネクスト株式会社 | Manned and unmanned vehicles and dispatch systems |
JP6885160B2 (en) * | 2017-03-31 | 2021-06-09 | カシオ計算機株式会社 | Mobile devices, control methods and programs for mobile devices |
JP7186339B2 (en) * | 2017-09-28 | 2022-12-09 | 智幸 伊豆 | Unmanned Fire Extinguishing System, Unmanned Fire Extinguishing Method and Unmanned Fire Extinguishing Program |
KR102116259B1 (en) * | 2018-03-26 | 2020-05-29 | 제주대학교 산학협력단 | Sympathetic Companion Plant Robot System |
JP6650988B1 (en) * | 2018-11-14 | 2020-02-19 | 株式会社東芝 | Control system, control method, program, and storage medium |
JP6823327B2 (en) * | 2019-06-18 | 2021-02-03 | 国立大学法人千葉大学 | Autonomous mobile robot and vital sign monitoring method |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4315872B2 (en) * | 2004-07-28 | 2009-08-19 | 本田技研工業株式会社 | Mobile robot controller |
JP2006043792A (en) * | 2004-08-02 | 2006-02-16 | Yaskawa Electric Corp | Robot with collision preventive function |
JP4477029B2 (en) * | 2007-03-27 | 2010-06-09 | 株式会社東芝 | robot |
-
2009
- 2009-11-26 JP JP2009268428A patent/JP5392028B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2011110644A (en) | 2011-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5392028B2 (en) | Autonomous mobile robot | |
JP4266211B2 (en) | Robot device, method of moving robot device, and program | |
JP7017025B2 (en) | Autonomous mobile robots, control methods and control programs for autonomous mobile robots | |
US20120316680A1 (en) | Tracking and following of moving objects by a mobile robot | |
US8010231B2 (en) | Communication robot | |
US11554487B2 (en) | Robot navigating through waypoints based on obstacle avoidance and method of robot's navigation | |
JP4276624B2 (en) | Robot control apparatus, robot control method, and robot control program | |
US20100198443A1 (en) | Path planning device, path planning method, and moving body | |
JP3906743B2 (en) | Guide robot | |
JP4682973B2 (en) | Travel route creation method, autonomous mobile body, and autonomous mobile body control system | |
JP5366048B2 (en) | Information provision system | |
JP2007260822A (en) | Guide robot | |
Lee et al. | Autonomous tour guide robot by using ultrasonic range sensors and QR code recognition in indoor environment | |
JP2008084135A (en) | Movement control method, mobile robot and movement control program | |
JP4670807B2 (en) | Travel route creation method, autonomous mobile body, and autonomous mobile body control system | |
KR101771643B1 (en) | Autonomously traveling robot and navigation method thereof | |
WO2016039158A1 (en) | Mobile body control device and mobile body | |
JP2011224737A (en) | Guide robot, guide method, and program for controlling guide | |
CN112631269A (en) | Autonomous mobile robot and control program for autonomous mobile robot | |
US20200382695A1 (en) | Robot and electronic device for acquiring video, and method for acquiring video using robot | |
JP2017177228A (en) | Service provision robot system | |
JP5115886B2 (en) | Road guidance robot | |
WO2020100488A1 (en) | Communication robot | |
JP2010026774A (en) | Mobile robot apparatus, and method of controlling mobile robot | |
WO2020203341A1 (en) | Control device, control method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120815 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130806 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130830 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130917 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130930 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |