JP2009113190A - Autonomous working robot and method of controlling operation of autonomous working robot - Google Patents
Autonomous working robot and method of controlling operation of autonomous working robot Download PDFInfo
- Publication number
- JP2009113190A JP2009113190A JP2007292443A JP2007292443A JP2009113190A JP 2009113190 A JP2009113190 A JP 2009113190A JP 2007292443 A JP2007292443 A JP 2007292443A JP 2007292443 A JP2007292443 A JP 2007292443A JP 2009113190 A JP2009113190 A JP 2009113190A
- Authority
- JP
- Japan
- Prior art keywords
- obstacle
- unit
- robot
- output
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 22
- 230000007613 environmental effect Effects 0.000 claims abstract description 13
- 230000033001 locomotion Effects 0.000 claims description 56
- 230000002093 peripheral effect Effects 0.000 abstract 1
- 241000282414 Homo sapiens Species 0.000 description 18
- 241000282412 Homo Species 0.000 description 10
- 230000001678 irradiating effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 210000003414 extremity Anatomy 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
本発明は、自律的に動作を行う自律動作型ロボットおよび自律動作型ロボットの動作制御方法に関する。 The present invention relates to an autonomous motion robot that autonomously operates and an operation control method for the autonomous motion robot.
近年、建物内部や屋外の広場などといった移動領域内において、周囲の環境に基づいて、移動やゼスチャーなどの自律的な動作を行う、人間と共生する自律動作型のロボットが開発されつつある。このようなロボットは、工場内に設置され特定の動作を行うような産業型ロボットとは異なり、その周囲に安全柵を設けて周囲の人間や物体との距離を確保する、といった処置をとることができない。そのため、ロボットに対して、自律動作を行う際に周囲の人間や物体に対する接触を避けるような制御を行わせる必要がある。 In recent years, autonomous robots coexisting with human beings have been developed that perform autonomous movement such as movement and gesture based on the surrounding environment in a moving area such as an inside of a building or an open space. Unlike industrial robots that are installed in factories and perform specific actions, such robots must be provided with a safety fence around them to ensure distance from surrounding people and objects. I can't. Therefore, it is necessary to cause the robot to perform control so as to avoid contact with surrounding humans and objects when performing autonomous operation.
しかしながら、ロボットが周囲の環境を認識した際にはその動作に影響するような障害物がなくても、実際に動作を行う際に、ロボットの動作範囲内に障害物が接近してくる場合がある。そのため、自律動作を行うロボットにおいては、その動作を継続する場合に確実かつ安全に自律動作を行うことが難しい。 However, when the robot recognizes the surrounding environment, even if there are no obstacles that affect its operation, the obstacle may approach the robot's movement range when actually performing the operation. is there. For this reason, it is difficult for a robot that performs an autonomous operation to reliably and safely perform an autonomous operation when the operation is continued.
そこで、例えば特許文献1においては、ロボットに搭載したプロジェクタにより、移動する平面上において危険情報を投影し、外部の人間に周囲の危険な情報を伝達するように構成したロボットが提案されている。また、特許文献2に記載されたロボットは、ロボットに搭載したプロジェクタにより、移動を予定する移動経路の情報を投影することで、周囲の人間がロボットの移動経路を視覚的に認識できるようにしている。これらのロボットでは、ロボットから発せられた視覚的な情報によって、周囲の人間にロボットの行動を知らしめることで、注意を促すことができる。 Therefore, for example, Patent Document 1 proposes a robot configured to project dangerous information on a moving plane by a projector mounted on the robot and to transmit surrounding dangerous information to an external person. In addition, the robot described in Patent Document 2 projects information on a movement path scheduled to move by a projector mounted on the robot so that surrounding humans can visually recognize the movement path of the robot. Yes. In these robots, attention can be urged by notifying surrounding humans of the behavior of the robot by visual information emitted from the robot.
一方、特許文献3では、ロボットが動作を行う動作空間内と、周囲の人間がロボットに対して接近するように行動する行動空間とが交錯する場合に、ロボットに接近する人間の行動を妨げる行動をロボットが行う旨が開示されている。 On the other hand, in Patent Document 3, when an action space in which a robot operates and an action space in which surrounding people act so as to approach the robot intersect, an action that hinders the action of a person approaching the robot. It is disclosed that the robot performs this.
また、特許文献4に記載の技術では、移動型ロボット(搬送用台車)において、周囲に存在する障害物を検知するスキャン装置を設け、障害物を検知すると警告等を点灯するとともに、警報を鳴らすような技術が開示されている。
しかしながら、これらのいずれのロボットにおいても、ロボットが障害物となる物体を認識したことを周囲の人間が確認できるものの、ロボットの認識した障害物が何であるかを知ることができない。そのため、周囲の人間がロボットの次の動作を予測することが難しく、人間側がロボットの次の動作に対してどのように行動をすればよいかを判断することが困難となる場合がある。 However, in any of these robots, although surrounding humans can confirm that the robot has recognized an obstacle object, it is impossible to know what the obstacle the robot has recognized. Therefore, it is difficult for surrounding humans to predict the next motion of the robot, and it may be difficult for the human side to determine how to act on the next motion of the robot.
本発明は、このような問題を解決するためになされたものであり、周囲の人間がロボットの認識した障害物が何であるかを容易に判断可能である自律動作型ロボットを提供することを目的とするものである。 The present invention has been made to solve such a problem, and an object of the present invention is to provide an autonomously-operated robot in which surrounding humans can easily determine what an obstacle recognized by the robot is. It is what.
本発明にかかる自律動作型ロボットは、周囲の環境情報を取得する環境情報取得部と、前記環境情報取得部で取得した環境情報に基づいて自律動作を制御する制御部と、前記制御部により動作を制御される動作部と、を備えるとともに、取得した環境情報に基づいて把握した周囲に存在する物体のうち、前記動作部を正常に動作させる際に影響を及ぼす物体を障害物と認識する障害物認識部と、前記障害物認識部により認識された障害物を特定する障害物特定情報を外部に対して視覚的に出力する出力部と、を備えることを特徴とすることを特徴としている。 An autonomous motion robot according to the present invention is operated by an environment information acquisition unit that acquires surrounding environment information, a control unit that controls autonomous operation based on the environment information acquired by the environment information acquisition unit, and the control unit An obstacle that recognizes an object that affects the normal operation of the operation part as an obstacle among objects existing around the environment based on the acquired environmental information. It is characterized by comprising an object recognizing unit and an output unit that visually outputs obstacle identifying information for identifying an obstacle recognized by the obstacle recognizing unit to the outside.
このような自律動作型ロボットは、障害物認識部により認識した障害物を特定するように、外部に視覚的に情報を出力するため、ロボットの周囲に存在する人間が、ロボットの認識した障害物が何であるかを容易に判断することが可能となる。 Since such an autonomously operating robot visually outputs information to the outside so as to identify the obstacle recognized by the obstacle recognizing unit, humans around the robot can recognize obstacles recognized by the robot. It is possible to easily determine what is.
また、このような自律動作型ロボットにおいては、前記動作部の動作範囲を含む所定の安全領域を特定し、該安全領域内に存在する物体を障害物と認識するように構成してもよい。このようにすると、ロボットがその周囲に位置する物体を、障害物であるか否かを容易に認識することができる。 In addition, such an autonomous movement type robot may be configured to identify a predetermined safety area including the movement range of the movement unit and recognize an object existing in the safety area as an obstacle. In this way, it is possible to easily recognize whether or not an object located around the robot is an obstacle.
さらに、このような自律動作型ロボットが動作を行う場合に、前記制御部が、障害物認識部により障害物が認識された際に、動作部の動作を一時的に停止するようにすることが好ましい。このように、動作範囲を含む安全領域内に障害物が存在する場合に動作を一時的に停止することで、ロボットの動作部を障害物と接触させることがなくなり、より高い安全性が保たれる。 Further, when such an autonomously operating robot performs an operation, the control unit may temporarily stop the operation of the operation unit when an obstacle is recognized by the obstacle recognition unit. preferable. As described above, when an obstacle exists in the safety area including the operation range, the operation of the robot is not brought into contact with the obstacle by temporarily stopping the operation, and higher safety is maintained. It is.
また、このような自律動作型ロボットは、前記認識した障害物が移動するか否かを判別する判別部をさらに備えるように構成してもよい。このような判別部を備えることによって、ロボットの周囲に存在する物体が、人間などの移動物か、静止物であるかを簡単に判別することができるため、障害物の種類に応じた行動を取りやすくなるという効果が得られる。 In addition, such an autonomously operating robot may further include a determination unit that determines whether or not the recognized obstacle moves. By providing such a discriminating unit, it is possible to easily discriminate whether an object existing around the robot is a moving object such as a human being or a stationary object, so that an action corresponding to the type of obstacle is performed. The effect that it becomes easy to take is acquired.
また、このような自律動作型ロボットは、認識する障害物の種類ごとに対応する複数の特定情報を備えた特定情報データベースを予め記憶させるとともに、前記出力部によって、前記障害物認識部で認識した障害物に対応する特定情報を前記データベースから読み出し、出力するように構成してもよい。このようにすると、ロボットが認識した障害物に対して、適切な障害物特定情報を簡単に出力することが可能となる。 In addition, such an autonomous motion robot stores in advance a specific information database including a plurality of specific information corresponding to each type of obstacle to be recognized, and is recognized by the obstacle recognition unit by the output unit. The specific information corresponding to the obstacle may be read from the database and output. In this way, it is possible to easily output appropriate obstacle specifying information for the obstacle recognized by the robot.
また、出力部により前記障害物特定情報を出力する方向は、前記障害物認識部により認識された障害物の位置に基づいて定められるようにすると好適である。これにより、ロボットの周囲に存在する人間が、ロボットの動作に対する障害物をより明確に判断することが可能となる。この場合、出力部より障害物特定情報を出力する方向を、障害物の位置に向けた方向としてもよい。この場合、ロボットが障害物と認識した物体を明確に外部に示すことが可能となる。 The direction in which the obstacle identifying information is output by the output unit is preferably determined based on the position of the obstacle recognized by the obstacle recognition unit. Thereby, it is possible for a person existing around the robot to more clearly determine an obstacle to the operation of the robot. In this case, the direction in which the obstacle specifying information is output from the output unit may be a direction toward the position of the obstacle. In this case, the object recognized by the robot as an obstacle can be clearly shown to the outside.
また、前記出力部を複数設置し、ロボットの周囲全体に障害物特定情報を出力可能とするように構成することが好ましい。自律動作型ロボットをこのように構成することで、ロボットの取り得る全ての動作に対して障害となる障害物を特定して、その障害物の位置に対して障害物特定情報を出力することができる。 Further, it is preferable that a plurality of the output units are installed so that obstacle specifying information can be output to the entire periphery of the robot. By configuring the autonomous motion robot in this way, it is possible to identify obstacles that become obstacles to all the actions that the robot can take and output obstacle identification information for the positions of the obstacles. it can.
なお、このような出力部としては、出力する方向を変更可能に取り付けられたプロジェクタであることが好ましい。このような出力部は、重量が小さく、かつ高精度に障害物特定情報を出力することができるため、ロボットに取り付けて障害物特定情報を出力させる場合には好適である。 Note that such an output unit is preferably a projector attached so that the output direction can be changed. Since such an output unit is small in weight and can output obstacle specifying information with high accuracy, it is suitable for attaching obstacle specifying information to a robot.
また、出力部により出力する障害物特定情報としては、特に限定されるものではないが、文字情報であってもよい。この場合、出力する文字情報を予め定めておくことで、周囲に存在する人間に対して、次の動作を特定するように情報を提供することが可能となるとともに、周囲の状況に応じて出力する内容を容易に変更することもできる。 Further, the obstacle specifying information output by the output unit is not particularly limited, but may be character information. In this case, by predetermining the character information to be output, it becomes possible to provide information so that the next person can identify the next action and output it according to the surrounding situation. It is also possible to easily change the contents to be performed.
なお、このような自律動作型ロボットとしては、前記動作部がロボットの位置を変更する移動手段を含み、自律移動を可能とするものであると、より効果的である。 In addition, as such an autonomously moving robot, it is more effective that the moving unit includes a moving unit that changes the position of the robot and enables autonomous movement.
また、前記動作部が、関節により駆動し、その姿勢を変形可能な関節駆動部を含むものであってもよい。特に、人間と同様に手や足を備えたヒューマノイド型の外観を備えたロボットの場合、人間と共生するためにより好適である。 Further, the operation unit may include a joint drive unit that is driven by a joint and capable of changing its posture. In particular, in the case of a robot having a humanoid appearance with hands and feet like a human being, it is more suitable for coexisting with a human being.
また、このような自律動作型ロボットにおける関節駆動部を、多関節を有する腕部で構成した場合、前記出力部をこの腕部に取り付けてもよい。この場合、障害物特定情報を出力する方向を、この腕部の関節を駆動することで任意に変更することもできるため、少ない数の出力部でより広範囲に障害物特定情報を出力することが可能となる。 Moreover, when the joint drive part in such an autonomous operation type | mold robot is comprised with the arm part which has many joints, you may attach the said output part to this arm part. In this case, since the direction in which the obstacle specifying information is output can be arbitrarily changed by driving the joint of the arm portion, the obstacle specifying information can be output more widely with a small number of output units. It becomes possible.
また、本発明は自律動作型ロボットの動作制御方法をも提供するものであり、この動作制御方法は、動作部の動作範囲を特定する動作範囲特定ステップと、周囲の環境情報を取得する環境情報取得ステップと、前記環境情報取得ステップにおいて取得した環境情報に基づいて把握した周囲に存在する物体のうち、前記動作部の動作範囲に含まれる物体を障害物と認識する障害物認識ステップと、前記障害物認識ステップにより認識された障害物を特定する障害物特定情報を外部に対して視覚的に出力する障害物特定情報出力ステップと、を備えることを特徴としている。 The present invention also provides an operation control method for an autonomous robot, which includes an operation range specifying step for specifying an operation range of an operation unit, and environment information for acquiring surrounding environment information. An obstacle recognizing step of recognizing an object included in the operation range of the operation unit as an obstacle among objects existing around based on the environment information acquired in the environment information acquisition step; An obstacle specifying information output step for visually outputting to the outside obstacle specifying information for specifying the obstacle recognized by the obstacle recognition step.
このような自律動作型ロボットの動作制御方法によれば、外部に対して、認識した障害物を特定するように視覚的に障害物特定情報を出力することができるため、ロボットの周囲に存在する人間が、ロボットの認識した障害物が何であるかを容易に判断することが可能となる。 According to such an operation control method of an autonomous movement type robot, since obstacle identification information can be visually output to the outside so as to identify a recognized obstacle, it exists around the robot. It becomes possible for a human to easily determine what is the obstacle recognized by the robot.
以上、説明したように、本発明によると、周囲の人間がロボットの認識した障害物が何であるかを容易に判断可能である自律動作型ロボットおよび自律動作型ロボットの制御方法を提供することが可能となる。 As described above, according to the present invention, it is possible to provide an autonomous motion robot and a control method for the autonomous motion robot in which surrounding humans can easily determine what an obstacle recognized by the robot is. It becomes possible.
発明の実施の形態1.
以下に、図1から図7を参照しつつ本発明の実施の形態1にかかる自律動作型ロボットおよび自律動作型ロボットの制御方法について説明する。この実施の形態においては、自律動作型ロボット(以下、単にロボットという)として、車輪駆動により移動可能で、かつ、上半身がヒューマノイド型に構成されたロボットである例を用いて説明するものとする。
Embodiment 1 of the Invention
Hereinafter, an autonomous motion robot and an autonomous motion robot control method according to a first embodiment of the present invention will be described with reference to FIGS. 1 to 7. In this embodiment, an autonomously operating robot (hereinafter simply referred to as a robot) will be described using an example of a robot that can be moved by wheel driving and that has a humanoid type upper body.
図1に示すロボット10は、その上半身がヒューマノイド型に構成されるロボットであり、頭部11、胴体部12、右腕部13、左腕部14、腰部15および移動部20を備えている。
A
頭部11は、その前面左右においてカメラ111、112が設けられるとともに、その側面にアンテナ113を備えるほか、前面下方にスピーカ114を備えており、さらに外部からの音声を入力するためのマイク115,116を備えている。
The
頭部11に設けられたカメラ111、112は周囲の環境を視認するものであり、視認した結果得られる画像情報を後述する制御コンピュータに出力する。このようなカメラとしては、例えば赤外線レーザを3次元的に照射するレーザセンサなどを用いることができる。この場合、照射したレーザの反射状態から、物体の形状情報や、ロボット10からの距離情報を環境情報として取得することができる。
また、アンテナ113は、ロボット10の絶対位置を認識する位置信号を受信するともに、現在の自己位置や自己の状態を示す信号を送信するために用いられる。これらの情報の送受信は、図示しないロボット監視システムとの間で行われる。前述の演算処理部は、アンテナ113により受信した位置信号に基づいて、自身の絶対位置をリアルタイムで認識する。このようにして得られた位置信号も、前述のような経路計画や移動する方向を定める際に用いられる。
The
また、マイク114は、制御コンピュータの記憶領域に含まれる音声データファイルから、適宜選択された音声データを外部に出力する。マイク114から出力される音声ファイルは、ガイドなどの内容の他、後述するように、障害物を認識した場合に、認識した物体の種類に応じて適宜選択され、障害物を特定するための音声に関する内容のものが用いられる。
Moreover, the
胴体部12は、前述のように制御コンピュータ120を内蔵するとともに、ロボットの各構成要素に電力を供給するためのバッテリー(図示せず)を備えている。
The
そして、図2に示すように、胴体部12の内部には、カメラ111や112、およびマイク115,116から入力された画像信号や音声信号の内容を認識し、適切な動作を行うための制御部としての制御コンピュータ120と、このコンピュータ120を含む各構成要素を動作させるための電力供給を行うバッテリー(図示せず)が備えられている。この制御コンピュータ120に含まれる演算処理部120aは、前述したカメラ111,112から得られた情報に基づいて、外部の物体に関する情報、すなわち物体の形状やロボットまでの相対距離といった環境情報を算出する。なお、詳細は省略するが、このカメラにより障害物と認識した物体が、所定時間静止しているか否かに基づいて、人間であるか静止物であるか否かが制御コンピュータにより判断される。
As shown in FIG. 2, inside the
また、右腕部13および左腕部14は、胴体部12の左右側面に取り付けられ、肘部、手首部、指部などの各所において図示しないモータ部により駆動される複数の関節部を備える。そして、これらの関節部の関節駆動量を制御コンピュータ120からの信号により変更することでその姿勢を変更し、物体把持、方向指示などの所望の動作を自律的に取ることができる。また、関節部により駆動される各腕部は、その形状が予め制御コンピュータに記憶されており、関節部の駆動により動作を行う際に、その動作により腕部が占める空間が演算処理部により計算されるものとする。すなわち、本実施形態においては、これらの腕部および前述の移動部が動作部を構成している。
Moreover, the
腰部15は、移動部20の上方に固定されるとともに、胴体部12の底面に対してモータ等の駆動力によって回動可能に取り付けられ、移動部20と胴体部12との相対的な姿勢を変更可能としている。
The
また、移動部20は、図3に示すように、1対の対向する車輪21と、その前方にキャスタ22を備える対向2輪型の車両で構成されている。ロボット10は、これらの車輪21、キャスタ22とでその姿勢を水平に支持された状態で移動可能となっている。さらに、移動部20の内部には、車輪21をそれぞれ駆動するモータ23と、各車輪の回転数を検出するためのカウンタ24とが備えられている。このように構成された移動部20は、制御コンピュータにより、車輪21の駆動量をそれぞれ独立に制御され、直進や曲線移動(旋回)、後退、その場回転(両車輪の中点を中心とした旋回)などの移動動作を行うことができるとともに、移動速度や移動する方向が自律的に定められる。
As shown in FIG. 3, the moving
さらに、図4に示すように、移動部20の前面、背面、および両側面には、障害物特定情報を視覚的に出力するための出力部としてのプロジェクタ26が各々取り付けられている。そして、これらのプロジェクタは、前記カメラ111,112により認識された物体が障害物と認識された場合に、その認識した障害物を外部に対して特定するように、複数種類の色または/および形状の光を照射する。照射される光としては、例えば赤色や黄色、緑色の光で円形状の照射領域を形成するようなもののほか、文字情報を描写するようなものが含まれる。また、図4に示すように、これらのプロジェクタの照射するエリアが、移動部20が接地している移動領域の周囲、すなわちロボット10の周囲全体に亘って障害物特定情報を出力可能となるように、その取り付け位置および照射領域が予め調整されている。
Further, as shown in FIG. 4,
さらに、これらのプロジェクタは、図5に示すように、鉛直方向および水平方向について障害物特定情報を出力する方向を変化可能となるように、所定の軸を中心として回動自在に取り付けられている。そして、これらのプロジェクタは、前述の制御コンピュータからの信号により、その照射方向を適宜変更可能に構成されている。 Further, as shown in FIG. 5, these projectors are mounted so as to be rotatable about a predetermined axis so that the direction in which the obstacle specifying information is output in the vertical direction and the horizontal direction can be changed. . And these projectors are comprised so that the irradiation direction can be suitably changed with the signal from the above-mentioned control computer.
また、これらのプロジェクタにより照射される情報(障害物特定情報)は、予め制御コンピュータ内部に設けられた記憶領域120bに記憶されており、これらの情報を読み出して外部に出力(照射)される。この障害物特定情報については詳細を後述する。
Information (obstacle identification information) emitted by these projectors is stored in advance in a
次に、胴体部12の内部に設けられた制御コンピュータ120について説明する。本実施形態に係る自律動作型のロボットにおいては、前述のプログラムを制御コンピュータ120に含まれる演算処理部120aにより読み出すことによって、腕部(右腕部13、左腕部14)や移動部20等の各構成が、所定の制御プログラムに従って駆動する。例えば、胴体部や腕部等に含まれる関節部を駆動するモータの駆動量を制御する制御信号を出力することで、これらの間接の関節駆動角度を決定し、胴体部や腕部の状態を所望の姿勢となるように制御する。
Next, the
また、制御コンピュータ120においては、前述した記憶領域内において移動する領域における移動経路を決定するプログラムが記憶され、周囲の環境に応じて移動経路を適宜決定する。詳細については説明を省略するが、認識された外部の物体に関する情報に基づいて、移動する方向や経路計画、または取り得る動作を自律的に選択する。また、前述の記憶領域においては、動作部としての腕部や移動部が次の動作を行うためのプログラムや、認識する障害物の種類および障害物のロボットからの相対距離ごとに対応する特定情報からなる障害物特定情報データベース等も記憶されている。
Further, the
この障害物特定情報データベースは、例えば図6に示すように、ロボットの移動経路上に障害物が存在する場合、経路付近(移動経路から所定距離内)に存在する場合、移動経路上からは離れているが、腕部の動作範囲に含まれる場合について、異なる障害物特定情報を設定する。なお、この実施形態においては、認識した障害物が人間であるか静止物であるかによって出力する情報が異なる。 For example, as shown in FIG. 6, the obstacle specifying information database is separated from the moving route when there is an obstacle on the moving route of the robot, or when it is near the route (within a predetermined distance from the moving route). However, different obstacle specifying information is set for the case where it is included in the movement range of the arm. In this embodiment, the information to be output differs depending on whether the recognized obstacle is a human or a stationary object.
例えば移動経路上に障害物としての人間が存在する場合は、『道を空けてください』といった文字情報を照射する赤色の光を出力する。また、移動経路上からは外れているが、経路より所定距離内に人間が存在する場合は、『近くを通ります。ご注意ください』といった文字情報を、黄色の光を用いて出力する。また、移動経路上からは大きく離れているが、腕部の動作範囲に含まれる場所に人間が存在する場合は、『離れて下さい』といった文字情報を、赤色の光を用いて出力する。 For example, when there is a human being as an obstacle on the moving route, a red light that emits character information such as “please make a way” is output. In addition, if a person is within a predetermined distance from the route but is off the route, “Pass nearby. Please output the text information such as “Please Note” using yellow light. In addition, when a person is present at a place included in the movement range of the arm portion although it is far away from the moving route, character information such as “Please leave” is output using red light.
このように、障害物を人間と認識した場合は、その障害物特定情報は文字情報を含み、その位置に応じて情報を出力する際に用いる光を異ならせている。なお、この場合、出力する文字情報と同一または類似の内容の音声情報を、マイク114から出力するようにしてもよい。
As described above, when the obstacle is recognized as a human, the obstacle specifying information includes character information, and the light used when outputting the information differs according to the position. In this case, audio information having the same or similar content as the character information to be output may be output from the
また、障害物と認識した物体が静止物である場合は、その物体に対して略円形の光を照射する。この場合においても、図6に示すように、物体の位置がロボットの移動経路上にある場合は赤色の光、移動経路から所定距離内にある場合は黄色の光、移動経路から離れているものの、腕部の動作範囲に位置する場合は赤色の光、といったように、出力する光の色を異ならせるようにしてもよい。 When the object recognized as an obstacle is a stationary object, the object is irradiated with substantially circular light. Even in this case, as shown in FIG. 6, when the position of the object is on the movement path of the robot, the red light is used. When the object is within a predetermined distance from the movement path, the yellow light is used. Alternatively, the color of the output light may be made different, such as red light when located in the movement range of the arm.
この場合、情報を出力する方向は、認識した障害物の位置、または障害物の近傍とすることが好ましい。例えば、障害物として認識した物体が人間である場合は、出力する方向を人間の位置から少し離れた近傍(例えば足元付近)に文字情報が照射されるような位置に障害物特定情報を出力する。一方、障害物として認識した物体が静止物である場合は、その静止物に対して光を照射するように、その出力方向を定める。このようにすると、ロボットの周囲に位置する人間が、ロボットがどの物体を障害物として認識しているかを明確に知ることができる。 In this case, the direction in which information is output is preferably the position of the recognized obstacle or the vicinity of the obstacle. For example, when the object recognized as an obstacle is a human, the obstacle specifying information is output to a position where the character information is irradiated in the vicinity where the output direction is slightly away from the human position (for example, near the feet). . On the other hand, when the object recognized as an obstacle is a stationary object, the output direction is determined so that the stationary object is irradiated with light. In this way, a person located around the robot can clearly know which object the robot recognizes as an obstacle.
また、制御コンピュータ120は、カメラ111,112より確認された外部の物体が、ロボットの予想される動作範囲内に位置している場合に、これらの物体を障害物と認識し、動作部としての腕部や移動部の動作を暫定的に停止する。カメラ111,112により確認される物体とロボットとの相対位置は、物体とカメラとの相対位置(距離および方向)を三角測量の手法等を用いて算出することにより求められる。
In addition, when external objects confirmed by the
このように、本実施形態においては、前記カメラ111,112および制御コンピュータ120により、本発明でいう環境認識部および障害物認識部が構成され、制御コンピュータおよびプロジェクタにより出力部が構成されている。さらに、制御コンピュータは、認識した障害物が移動するか否かを判別する判別部としても作用する。
As described above, in the present embodiment, the
次に、このように構成された自律動作型のロボットが、認識した周囲の障害物を特定するための情報を外部に出力する手法について図7に示すフローチャートを用いて説明する。 Next, a method in which the autonomously operating robot configured as described above outputs information for identifying recognized obstacles to the outside will be described with reference to the flowchart shown in FIG.
まず、制御コンピュータ120によって、ロボットの動作範囲、すなわち腕部を動かすことにより腕部が通過する領域や、移動部によりロボット本体が通過する領域(動作範囲)を、ロボットを中心として三次元的に特定する(STEP101)。この動作範囲の特定は、微小な時間間隔で連続して行われる。
First, the operation range of the robot by the
次に、カメラ111,112により、周囲に位置する物体の情報(環境情報)を取得し(STEP102)、それらの物体が前記特定した動作範囲内に存在するか否か、すなわち前記物体が障害物であるか否かを判定する(STEP103)。カメラにより情報が取得された周囲の物体が動作範囲内に存在しない場合は、特に新たな処理を行わず、動作を継続しつつSTEP101に戻って動作範囲の特定を連続して行う。
Next, information (environment information) of surrounding objects is acquired by the
一方、カメラが特定した動作範囲内に物体が存在する場合は、その物体を障害物とみなして一旦動作を停止し(STEP104)、その後に障害物と認識した物体が静止物か否かを判断する(STEP105)。障害物と認識した物体が静止物であるか否かは、停止したロボットに対して、その物体が相対的に所定時間移動するか否かなどの手法により判断する。 On the other hand, if an object exists within the motion range specified by the camera, the object is regarded as an obstacle and the operation is temporarily stopped (STEP 104), and then it is determined whether or not the object recognized as the obstacle is a stationary object. (STEP 105). Whether or not the object recognized as an obstacle is a stationary object is determined by a method such as whether or not the object moves for a predetermined time relative to the stopped robot.
障害物と認識された物体が静止物である場合は、その動作を停止したまま、障害物特定情報としての光を外部に対して照射する(STEP106)。このとき、光を照射する方向は、障害物の位置に応じて適宜選択し、認識した障害物のロボットに対する相対位置に基づいて定められる。そして、認識した障害物に対して光を照射し続けたまま、障害物を避けるための新たな経路を経路計画により探索し(STEP107)、新たな経路上を移動することで、認識した障害物がロボットの動作範囲内から外れるか否かを判断する(STEP108)。ロボットの動作範囲内から障害物が外れると判断された場合は、移動を含む動作を継続する(STEP109)。またロボットの動作範囲内に障害物が存在する場合は、STEP107に戻って再度新たな経路を探索する。 When the object recognized as the obstacle is a stationary object, the light as the obstacle specifying information is irradiated to the outside while the operation is stopped (STEP 106). At this time, the light irradiation direction is appropriately selected according to the position of the obstacle, and is determined based on the relative position of the recognized obstacle to the robot. Then, while continuing to irradiate light on the recognized obstacle, a new route for avoiding the obstacle is searched by the route plan (STEP 107), and the recognized obstacle is moved by moving on the new route. Is determined to be out of the movement range of the robot (STEP 108). When it is determined that the obstacle is out of the movement range of the robot, the operation including the movement is continued (STEP 109). If there is an obstacle in the movement range of the robot, the process returns to STEP 107 to search for a new route again.
その後、移動を含む動作を終了するか否かを判断し(STEP110)、終了しない場合はSTEP101に戻って動作範囲の特定を連続して行うとともに、終了する場合は所定の動作終了処理(STEP111)を行った後にその動作を完全に停止する。 Thereafter, it is determined whether or not the operation including the movement is to be ended (STEP 110). If the operation is not ended, the operation returns to STEP 101 to continuously specify the operation range, and if the operation is to be ended, a predetermined operation end process (STEP 111). After that, the operation is completely stopped.
一方、障害物と認識した物体が静止物でない場合は、障害物と認識した物体が人間であると判断し、障害物特定情報としての文字情報を照射する(STEP206)。このとき、文字情報に併せて、障害物が静止物である場合と同様に、円形の光を照射するようにしてもよい。そして、文字情報を所定時間(例えば数秒間)照射後、ロボットの動作範囲内から人間がいなくなったか否かを判断し(STEP207)、人間がまだ存在する場合は、動作を停止し続けたまま、STEP206に戻って文字情報を照射し続ける。なお、文字情報を照射する際に、さらに音声情報を出力するなどの処理を加えてもよい。また、STEP207において人間がロボットの動作範囲に存在しなくなったと判断すると、STEP109に進み、動作を継続する。
On the other hand, if the object recognized as an obstacle is not a stationary object, it is determined that the object recognized as an obstacle is a human being, and character information serving as obstacle specifying information is emitted (STEP 206). At this time, circular light may be irradiated together with the character information as in the case where the obstacle is a stationary object. Then, after irradiating the character information for a predetermined time (for example, several seconds), it is determined whether or not the human is gone from within the movement range of the robot (STEP 207). It returns to STEP206 and continues irradiating character information. In addition, when irradiating character information, you may add the process of outputting audio | voice information further. If it is determined in
このように、本実施形態に係る自律動作型ロボットおよび自律動作型ロボットの動作制御方法によれば、認識した周囲の障害物を特定するための情報を、認識した障害物の種類に応じて外部に出力することで、周囲の人間にロボットが障害物と認識している物体を伝達することができる。その結果、ロボットが何故停止や経路変更などを行っているかを、周囲の人間が簡単に把握し、障害物となる静止物を除去するなどの作業を行ったり、障害物と認識された人間が場所を移動するなどの処置をとることが可能となる。 As described above, according to the autonomous operation robot and the operation control method of the autonomous operation robot according to the present embodiment, the information for identifying the recognized surrounding obstacles is externally determined according to the types of the recognized obstacles. Can output an object that the robot recognizes as an obstacle to surrounding humans. As a result, the surrounding humans can easily understand why the robot is stopping or changing the route, and perform tasks such as removing stationary objects that become obstacles. It is possible to take measures such as moving the place.
なお、前述の実施形態においては、障害物と認識された物体が静止物でない(人間である)と判断された後に、その障害物がロボットの動作範囲から外れるまで文字情報を照射し続けているが、本発明はこれに限られるものではない。例えば、所定時間文字情報を照射し続けた後、障害物と認識された物体が移動しない場合は、この物体は静止物であると判断し、円形の光を照射するなどの静止物に対する障害物特定情報を出力するフローにより処理を行ってもよい。 In the above-described embodiment, after it is determined that an object recognized as an obstacle is not a stationary object (a person), the character information is continuously irradiated until the obstacle is out of the movement range of the robot. However, the present invention is not limited to this. For example, if an object that is recognized as an obstacle does not move after being irradiated with character information for a predetermined time, it is determined that the object is a stationary object, and an obstacle to a stationary object such as irradiating circular light. Processing may be performed by a flow for outputting specific information.
また、前述の実施形態においては、認識する障害物の種類として、静止物か人間かの判断のみを行っているが、これに代えて、より詳細な障害物の種類を識別するようにしてもよい。例えば、制御コンピュータ内部に予め種々の障害物の形状データを記憶させ、ロボットに備えられたカメラにより認識した外部の物体の形状と、記憶した形状データとをマッチングさせるなどの手法を用いることによって、より詳細な障害物の種類を識別させることができる。 In the above-described embodiment, only the determination of whether the object is a stationary object or a human is performed as the type of obstacle to be recognized. Instead, a more detailed type of obstacle may be identified. Good. For example, by storing the shape data of various obstacles in the control computer in advance and using a method such as matching the shape of the external object recognized by the camera provided in the robot with the stored shape data, More detailed types of obstacles can be identified.
また、前述の実施形態においては、所定時間の間静止しなかった物体を人間と判断しているが、これに代えて、カメラなどの撮像手段により認識する物体の特徴点抽出を行うことで、その物体が人間であるか否かの人物認識を行ってもよい。 Further, in the above-described embodiment, an object that has not been stationary for a predetermined time is determined as a human, but instead of this, by performing feature point extraction of an object recognized by an imaging unit such as a camera, Person recognition may be performed to determine whether the object is a human.
さらに、前述の実施形態においては、ロボットの移動部に出力部としてのプロジェクタを設けているが、これに代えてロボットの胴体部や他の箇所に出力部を設けてもよい。この場合、出力部の回動範囲をできるだけ広く取り得る箇所を選択することで、少ない台数のプロジェクタで障害物特定情報を広範囲に出力することが可能となる。例えば、前述の実施形態のようなヒューマノイド型のロボットの場合、出力部を動作部としての腕部先端(手首部など)に設けると、腕部の関節駆動量を調整することで、より広範囲に障害物特定情報を出力することが可能となる。 Further, in the above-described embodiment, the projector as the output unit is provided in the moving unit of the robot. However, instead of this, an output unit may be provided in the body of the robot or in other places. In this case, by selecting a location where the rotation range of the output unit can be as wide as possible, it is possible to output obstacle identification information over a wide range with a small number of projectors. For example, in the case of a humanoid robot as in the above-described embodiment, if the output unit is provided at the tip of the arm unit (such as the wrist unit) as the operation unit, the joint drive amount of the arm unit can be adjusted to achieve a wider range. Obstacle identification information can be output.
また、外部に出力する障害物特定情報として、前述の実施形態においては、光(文字情報および略円形の光)を用いた例を開示しているが、本発明はこれに限られるものではない。例えば、これらの光による照射に加えて、音声情報を出力したり、腕部などの動作部を用いて認識した障害物を指し示すなどの動作を行うことで、障害物を特定することも可能である。 Further, in the above-described embodiment, light (character information and substantially circular light) is disclosed as the obstacle specifying information output to the outside, but the present invention is not limited to this. . For example, in addition to irradiation with these lights, it is also possible to specify an obstacle by outputting voice information or pointing an obstacle recognized using an action part such as an arm part. is there.
また、前述の実施形態においては、このような自律動作型ロボットとして、自律移動を行うタイプのロボットを用いて説明しているが、このような自律移動を行うことができるロボットを、建物内部を案内する案内ロボットや、家庭内に用いる家庭用ロボットなどとして利用する際に、本発明は有用となる。また、本発明は、前述のように自律的な移動を行うようなロボットに限られるものではなく、移動を行わず、手足の動作のみを行うものであってもよい。このようなロボットとして、例えば自律的な動作と外部からの制御による動作とをともに含むような動作型ロボットであってもよい。すなわち、外部からの指示によって移動する方向等が決定される一方、他の動作部のみが自律的に制御されるようなものであってもよい。また、このようなロボットの外観としては、必ずしもヒューマノイド型を備えていなくともよい。 In the above-described embodiment, a robot that performs autonomous movement is described as such an autonomous movement type robot. However, a robot that can perform such autonomous movement is installed inside a building. The present invention is useful when it is used as a guidance robot for guiding or a home robot used in the home. Further, the present invention is not limited to a robot that performs autonomous movement as described above, and may perform only movement of a limb without moving. Such a robot may be, for example, an operation type robot that includes both an autonomous operation and an operation by external control. That is, the moving direction or the like may be determined by an instruction from the outside, while only other operation units may be autonomously controlled. Further, the appearance of such a robot does not necessarily have a humanoid type.
以上、説明したように、本発明に係る自律動作型ロボットおよび自律動作型ロボットの動作制御方法よると、ロボットの認識した障害物が何であるかを、動作を行うロボットの周囲に位置する人間が容易に判断することが可能となる。 As described above, according to the autonomous motion robot and the motion control method of the autonomous motion robot according to the present invention, what is the obstacle recognized by the robot is determined by a person located around the robot performing the motion. Judgment can be easily made.
10・・・ロボット(自律動作型ロボット)
11・・・頭部
111,112・・・カメラ(環境認識部)
114・・・スピーカ(出力部)
115,116・・・マイク
12・・・胴体部
120・・・制御コンピュータ(制御部)
13・・・右腕部(動作部)
14・・・左腕部(動作部)
15・・・腰部
20・・・移動部(動作部)
21・・・車輪
22・・・キャスタ
23・・・モータ
26・・・プロジェクタ(出力部)
10 ... Robot (autonomous robot)
11 ... heads 111,112 ... camera (environment recognition unit)
114 ... Speaker (output unit)
115, 116 ...
13 ... Right arm (operation part)
14 ... Left arm (operation part)
15 ...
21 ... Wheel 22 ...
Claims (14)
前記環境情報取得部で取得した環境情報に基づいて自律動作を制御する制御部と、
前記制御部により動作を制御される動作部と、を備える自律動作型ロボットであって、
取得した環境情報に基づいて把握した周囲に存在する物体のうち、前記動作部を正常に動作させる際に影響を及ぼす物体を障害物と認識する障害物認識部と、
前記障害物認識部により認識された障害物を特定する障害物特定情報を外部に対して視覚的に出力する出力部と、を備えることを特徴とする自律動作型ロボット。 An environmental information acquisition unit for acquiring surrounding environmental information;
A control unit that controls autonomous operation based on environmental information acquired by the environmental information acquisition unit;
An autonomous operation robot comprising an operation unit whose operation is controlled by the control unit,
An obstacle recognizing unit that recognizes an object that affects the normal operation of the operating unit among objects existing around the environment based on the acquired environment information; and
An autonomous motion robot, comprising: an output unit that visually outputs to the outside obstacle specifying information for specifying an obstacle recognized by the obstacle recognition unit.
周囲の環境情報を取得する環境情報取得ステップと、
前記環境情報取得ステップにおいて取得した環境情報に基づいて把握した周囲に存在する物体のうち、前記動作部の動作範囲に含まれる物体を障害物と認識する障害物認識ステップと、
前記障害物認識ステップにより認識された障害物を特定する障害物特定情報を外部に対して視覚的に出力する障害物特定情報出力ステップと、を備えることを特徴とする自律動作型ロボットの動作制御方法。 An operation range specifying step for specifying an operation range of the operation unit;
An environmental information acquisition step for acquiring surrounding environmental information;
An obstacle recognition step of recognizing an object included in the operation range of the operation unit as an obstacle among objects existing around based on the environment information acquired in the environment information acquisition step;
And an obstacle identification information output step for visually outputting obstacle identification information for identifying an obstacle recognized in the obstacle recognition step to the outside. Method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007292443A JP2009113190A (en) | 2007-11-09 | 2007-11-09 | Autonomous working robot and method of controlling operation of autonomous working robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007292443A JP2009113190A (en) | 2007-11-09 | 2007-11-09 | Autonomous working robot and method of controlling operation of autonomous working robot |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009113190A true JP2009113190A (en) | 2009-05-28 |
Family
ID=40780891
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007292443A Pending JP2009113190A (en) | 2007-11-09 | 2007-11-09 | Autonomous working robot and method of controlling operation of autonomous working robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009113190A (en) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011067941A (en) * | 2009-09-22 | 2011-04-07 | Gm Global Technology Operations Inc | Visual perception system and method for humanoid robot |
US8816874B2 (en) | 2010-01-25 | 2014-08-26 | Panasonic Corporation | Danger presentation device, danger presentation system, danger presentation method and program |
CN104093527A (en) * | 2012-02-03 | 2014-10-08 | 日本电气株式会社 | Communication draw-in system, communication draw-in method, and communication draw-in program |
JP2015016549A (en) * | 2010-05-20 | 2015-01-29 | アイロボット コーポレイション | Mobile Human interface robot |
WO2016080321A1 (en) * | 2014-11-21 | 2016-05-26 | シャープ株式会社 | Display projection control device, display projection system, program for controlling display projection control device, computer-readable recording medium having control program recorded thereon, and method for controlling display projection control device |
JP2016198839A (en) * | 2015-04-08 | 2016-12-01 | 富士電機株式会社 | Production line monitor system |
CN108818573A (en) * | 2018-09-11 | 2018-11-16 | 中新智擎科技有限公司 | A kind of Multifunctional service robot |
JP2019214084A (en) * | 2018-06-11 | 2019-12-19 | オムロン株式会社 | Route planning device, route planning method, and route planning program |
JP2020154635A (en) * | 2019-03-19 | 2020-09-24 | 株式会社フジタ | Unmanned moving device |
CN112381048A (en) * | 2020-11-30 | 2021-02-19 | 重庆优乃特医疗器械有限责任公司 | 3D posture detection analysis system and method based on multi-user synchronous detection |
JP2021086217A (en) * | 2019-11-25 | 2021-06-03 | トヨタ自動車株式会社 | Autonomous mobile body system, control program of autonomous mobile body and method for controlling autonomous mobile body |
CN112894850A (en) * | 2021-01-27 | 2021-06-04 | 国网安徽省电力有限公司电力科学研究院 | Pole-climbing robot control system and control method thereof |
JP7285354B1 (en) | 2022-03-11 | 2023-06-01 | Dmg森精機株式会社 | traveling robot system |
-
2007
- 2007-11-09 JP JP2007292443A patent/JP2009113190A/en active Pending
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011067941A (en) * | 2009-09-22 | 2011-04-07 | Gm Global Technology Operations Inc | Visual perception system and method for humanoid robot |
US8816874B2 (en) | 2010-01-25 | 2014-08-26 | Panasonic Corporation | Danger presentation device, danger presentation system, danger presentation method and program |
JP2015016549A (en) * | 2010-05-20 | 2015-01-29 | アイロボット コーポレイション | Mobile Human interface robot |
CN104093527A (en) * | 2012-02-03 | 2014-10-08 | 日本电气株式会社 | Communication draw-in system, communication draw-in method, and communication draw-in program |
JPWO2013114493A1 (en) * | 2012-02-03 | 2015-05-11 | 日本電気株式会社 | Communication pull-in system, communication pull-in method and communication pull-in program |
US9662788B2 (en) | 2012-02-03 | 2017-05-30 | Nec Corporation | Communication draw-in system, communication draw-in method, and communication draw-in program |
WO2016080321A1 (en) * | 2014-11-21 | 2016-05-26 | シャープ株式会社 | Display projection control device, display projection system, program for controlling display projection control device, computer-readable recording medium having control program recorded thereon, and method for controlling display projection control device |
JPWO2016080321A1 (en) * | 2014-11-21 | 2017-05-25 | シャープ株式会社 | Display projection control device, display projection system, control program for display projection control device, computer-readable recording medium storing the control program, and control method for display projection control device |
JP2016198839A (en) * | 2015-04-08 | 2016-12-01 | 富士電機株式会社 | Production line monitor system |
JP2019214084A (en) * | 2018-06-11 | 2019-12-19 | オムロン株式会社 | Route planning device, route planning method, and route planning program |
US11207780B2 (en) | 2018-06-11 | 2021-12-28 | Omron Corporation | Path planning apparatus, path planning method, and path planning program |
JP7077800B2 (en) | 2018-06-11 | 2022-05-31 | オムロン株式会社 | Route planning device, route planning method, and route planning program |
CN108818573A (en) * | 2018-09-11 | 2018-11-16 | 中新智擎科技有限公司 | A kind of Multifunctional service robot |
JP2020154635A (en) * | 2019-03-19 | 2020-09-24 | 株式会社フジタ | Unmanned moving device |
JP7312582B2 (en) | 2019-03-19 | 2023-07-21 | 株式会社フジタ | unmanned mobile device |
JP2021086217A (en) * | 2019-11-25 | 2021-06-03 | トヨタ自動車株式会社 | Autonomous mobile body system, control program of autonomous mobile body and method for controlling autonomous mobile body |
CN112381048A (en) * | 2020-11-30 | 2021-02-19 | 重庆优乃特医疗器械有限责任公司 | 3D posture detection analysis system and method based on multi-user synchronous detection |
CN112381048B (en) * | 2020-11-30 | 2024-05-10 | 重庆优乃特医疗器械有限责任公司 | 3D posture detection analysis system and method based on multi-user synchronous detection |
CN112894850A (en) * | 2021-01-27 | 2021-06-04 | 国网安徽省电力有限公司电力科学研究院 | Pole-climbing robot control system and control method thereof |
CN112894850B (en) * | 2021-01-27 | 2023-11-17 | 国网安徽省电力有限公司电力科学研究院 | Control system and control method of pole-climbing robot |
JP7285354B1 (en) | 2022-03-11 | 2023-06-01 | Dmg森精機株式会社 | traveling robot system |
WO2023171500A1 (en) * | 2022-03-11 | 2023-09-14 | Dmg森精機株式会社 | Travel robot system |
JP2023132875A (en) * | 2022-03-11 | 2023-09-22 | Dmg森精機株式会社 | traveling robot system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009113190A (en) | Autonomous working robot and method of controlling operation of autonomous working robot | |
JP6436604B2 (en) | Method and system implemented by a computing system | |
JP6601155B2 (en) | Robot control system | |
US9517559B2 (en) | Robot control system, robot control method and output control method | |
US20210346557A1 (en) | Robotic social interaction | |
JP4266211B2 (en) | Robot device, method of moving robot device, and program | |
WO2021220679A1 (en) | Robot control device, method, and program | |
JP5764795B2 (en) | Mobile robot, mobile robot learning system, and mobile robot behavior learning method | |
JP2011204145A (en) | Moving device, moving method and program | |
JP2009136967A (en) | Communication robot | |
JP6828579B2 (en) | Environmental maintenance robot and its control program | |
US11241790B2 (en) | Autonomous moving body and control program for autonomous moving body | |
KR101842459B1 (en) | Robot cleaner and method for controlling the same | |
US20210157326A1 (en) | Autonomous mobile body system, control program for autonomous mobile body, and control method for autonomous mobile body | |
JP2007199965A (en) | Autonomous mobile device | |
JP2020181434A (en) | Autonomous traveling work apparatus and autonomous traveling work system | |
JP2017146945A (en) | Lead robot | |
JP6177837B2 (en) | Robot system using visual sensor | |
JP2003140747A (en) | Autonomous moving device and system for operating the same | |
JP2006231447A (en) | Confirmation method for indicating position or specific object and method and device for coordinate acquisition | |
JP5552710B2 (en) | Robot movement control system, robot movement control program, and robot movement control method | |
JP2007264950A (en) | Autonomously moving robot | |
SHARMA et al. | Human following robot | |
JP2005222560A (en) | Autonomous moving unit and autonomous moving unit operation system | |
US20220221870A1 (en) | Method, robot and system for interacting with actors or item recipients |