JP2003170376A - Autonomously acting robot and autonomously acting robot system - Google Patents
Autonomously acting robot and autonomously acting robot systemInfo
- Publication number
- JP2003170376A JP2003170376A JP2001372408A JP2001372408A JP2003170376A JP 2003170376 A JP2003170376 A JP 2003170376A JP 2001372408 A JP2001372408 A JP 2001372408A JP 2001372408 A JP2001372408 A JP 2001372408A JP 2003170376 A JP2003170376 A JP 2003170376A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- autonomous
- action
- information
- behavior
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 230000009471 action Effects 0.000 claims abstract description 159
- 238000000034 method Methods 0.000 claims description 36
- 238000004891 communication Methods 0.000 claims description 18
- 230000033001 locomotion Effects 0.000 claims description 15
- 230000005540 biological transmission Effects 0.000 claims description 10
- 230000007246 mechanism Effects 0.000 claims description 8
- 230000006399 behavior Effects 0.000 description 47
- 238000010586 diagram Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 10
- 238000004140 cleaning Methods 0.000 description 9
- 230000008859 change Effects 0.000 description 7
- 230000008901 benefit Effects 0.000 description 5
- 230000002354 daily effect Effects 0.000 description 5
- 101000629937 Homo sapiens Translocon-associated protein subunit alpha Proteins 0.000 description 4
- 101000629913 Homo sapiens Translocon-associated protein subunit beta Proteins 0.000 description 4
- 102100026231 Translocon-associated protein subunit alpha Human genes 0.000 description 4
- 102100026229 Translocon-associated protein subunit beta Human genes 0.000 description 4
- 230000005855 radiation Effects 0.000 description 4
- 101000746134 Homo sapiens DNA endonuclease RBBP8 Proteins 0.000 description 3
- 101000969031 Homo sapiens Nuclear protein 1 Proteins 0.000 description 3
- 101000697347 Homo sapiens Translocon-associated protein subunit gamma Proteins 0.000 description 3
- 102100021133 Nuclear protein 1 Human genes 0.000 description 3
- 102100028160 Translocon-associated protein subunit gamma Human genes 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 2
- 101100131116 Oryza sativa subsp. japonica MPK3 gene Proteins 0.000 description 2
- 101100456045 Schizosaccharomyces pombe (strain 972 / ATCC 24843) map3 gene Proteins 0.000 description 2
- 239000000853 adhesive Substances 0.000 description 2
- 230000001070 adhesive effect Effects 0.000 description 2
- 230000001276 controlling effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- HONKEGXLWUDTCF-YFKPBYRVSA-N (2s)-2-amino-2-methyl-4-phosphonobutanoic acid Chemical compound OC(=O)[C@](N)(C)CCP(O)(O)=O HONKEGXLWUDTCF-YFKPBYRVSA-N 0.000 description 1
- 101000979001 Homo sapiens Methionine aminopeptidase 2 Proteins 0.000 description 1
- 101000969087 Homo sapiens Microtubule-associated protein 2 Proteins 0.000 description 1
- 101000616438 Homo sapiens Microtubule-associated protein 4 Proteins 0.000 description 1
- 101000969594 Homo sapiens Modulator of apoptosis 1 Proteins 0.000 description 1
- 102100023174 Methionine aminopeptidase 2 Human genes 0.000 description 1
- 102100021794 Microtubule-associated protein 4 Human genes 0.000 description 1
- 102100021440 Modulator of apoptosis 1 Human genes 0.000 description 1
- 101100342486 Oryza sativa subsp. japonica KSL10 gene Proteins 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000002079 cooperative effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Aviation & Aerospace Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Electric Vacuum Cleaner (AREA)
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、人の操作によるこ
となく自律行動を行なう自律行動ロボットおよび自律行
動ロボットシステムに関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an autonomous action robot and an autonomous action robot system that perform an autonomous action without being operated by a person.
【0002】[0002]
【従来の技術】室内において、自律的に行動を行なう自
律行動ロボットは、一般に使用者がその動作を個別に指
示することを省くことが多く、その行動に対するすべて
の指示が使用者によって直接なされるわけではない。し
たがって、使用者は自律行動ロボットに対して与えた指
示がどのように実際の自律行動ロボットの行動に反映さ
れたかを把握しておくのが困難である。2. Description of the Related Art In an indoor environment, an autonomous behavior robot that autonomously behaves often does not require the user to individually instruct its operation, and all instructions for the action are directly given by the user. Do not mean. Therefore, it is difficult for the user to understand how the instruction given to the autonomous action robot is reflected in the action of the actual autonomous action robot.
【0003】自律行動を行なう自律行動ロボットの行動
を使用者が把握する技術としては、たとえば、特開平1
1−267074号公報に記載の掃除用自律行動ロボッ
トのような技術があり、その掃除用自律行動ロボットに
おいては、行動の履歴およびロボットの状態等を、掃除
用自律行動ロボットに搭載したディスプレイによって表
示する手法により、自律行動ロボットの取った行動の態
様に関する情報を自律行動ロボット自体が直接使用者に
提供している。As a technique for a user to grasp the behavior of an autonomous behavior robot which performs autonomous behavior, for example, Japanese Patent Laid-Open No.
There is a technique such as the cleaning autonomous action robot described in Japanese Patent Publication No. 1-267074, and in the cleaning autonomous action robot, the history of actions and the state of the robot are displayed by a display mounted on the cleaning autonomous action robot. By the method described above, the autonomous action robot itself directly provides the user with information regarding the mode of action taken by the autonomous action robot.
【0004】また、特開平3−163390号公報にお
いては、自律行動する放射線探知機能を有する自律行動
ロボットが発見した放射線源にマーキングを行なうこと
により、人間に視覚によって汚染場所を確認させること
を可能にすることを特徴とする装置が開示されており、
自律行動ロボットが行動した経路における周辺環境の認
識結果を使用者に提供している。Further, in Japanese Laid-Open Patent Publication No. 3-163390, it is possible to allow a human to visually confirm a contaminated place by marking a radiation source discovered by an autonomously acting robot having a radiation detecting function that autonomously acts. A device characterized by:
It provides the user with the recognition result of the surrounding environment in the path of the behavior of the autonomous robot.
【0005】[0005]
【発明が解決しようとする課題】自律行動ロボットの情
報の提供は、特開平11−267074号公報に記載さ
れている自律行動掃除ロボットによれば、搭載された表
示手段などを用いて、自律行動ロボットの内部に格納さ
れた自律行動ロボット自体の状態または行動履歴などの
情報を提示することにより行なわれれる。そのため、使
用者や他の自律行動ロボットなどの他者が自律行動ロボ
ットの提示する情報を認識するためには、自律行動ロボ
ット自体が表示手段を用いて明示的に表示を行なうとと
もに、他者がその情報を認識できる範囲内に存在する必
要がある。According to the autonomous action cleaning robot disclosed in Japanese Patent Application Laid-Open No. 11-267074, autonomous action robots are provided using the display means etc. provided. It is performed by presenting information such as the state of the autonomous action robot itself or action history stored inside the robot. Therefore, in order for another person, such as the user or another autonomous action robot, to recognize the information presented by the autonomous action robot, the autonomous action robot itself displays the information explicitly using the display means, and the other person The information needs to exist within a range that can be recognized.
【0006】さらに、自律行動ロボットが行動の態様の
記録を残す場合には、行動をロボットのメモリ手段上に
保存しておく必要があるため、メモリ手段の領域を不要
に消費するとともに、メモリ手段が破壊されたり、メモ
リ手段に記憶されている情報が消去されたりする場合に
は、自律行動ロボットの行動の記録が損傷を受けてしま
うという問題がある。Further, when the autonomous action robot keeps a record of the mode of action, it is necessary to save the action in the memory means of the robot, so that the area of the memory means is unnecessarily consumed and the memory means is used. When the robot is destroyed or the information stored in the memory means is erased, there is a problem that the record of the action of the autonomous action robot is damaged.
【0007】ここで、特開平3−163390号公報に
開示されたような自走式放射線物質自動測定装置におい
ては、自律行動ロボットがそのセンサにより取得した情
報から、抽出した情報である放射物質の存在について、
マーキングすることにより人間に知らせることができる
ために、上述のような内部メモリ手段を利用することに
よる問題を回避することができる。Here, in the self-propelled radiation substance automatic measuring apparatus as disclosed in Japanese Patent Laid-Open No. 3-163390, the radiation substance which is the information extracted from the information acquired by the sensor by the autonomous behavior robot. About being
Since the person can be informed by marking, the problem caused by using the internal memory means as described above can be avoided.
【0008】しかしながら、特開平3−163390号
公報における装置の抽出する情報は、周辺環境の状況の
情報提示という限定された目的に使用されるものであ
り、自律行動ロボット自体の行動に関する情報を外部に
出力して外部に記録させているわけではない。However, the information extracted by the device in Japanese Patent Laid-Open No. 3-163390 is used for a limited purpose of presenting information on the situation of the surrounding environment, and the information on the behavior of the autonomous behavior robot itself is externally provided. It is not output to and recorded externally.
【0009】したがって、自律行動ロボットが存在しな
ければ、他者は自律行動ロボット自体の行動態様に関す
る情報を認識することができなかった。Therefore, if the autonomous action robot does not exist, another person cannot recognize the information about the action mode of the autonomous action robot itself.
【0010】本発明は、上述の問題に鑑みてなされたも
のであり、その目的は、自律行動ロボットが存在しなく
ても、他者が自律行動ロボット自体の行動態様に関する
情報を認識することが可能な自律行動ロボットおよび自
律行動ロボットシステムを提供することである。The present invention has been made in view of the above problems, and an object thereof is to allow another person to recognize information regarding the behavior mode of the autonomous action robot itself, even if the autonomous action robot does not exist. It is to provide a possible autonomous action robot and autonomous action robot system.
【0011】また、前述した、自律行動ロボットによっ
て認識された外部環境の情報のマークは、単一のマーク
により行なわれるため、マーク自体に多様な意味を持た
せることが考慮されておらず、前述のマーキングする手
法そのものの汎用性は低いものである。Further, since the above-described information mark of the external environment recognized by the autonomous action robot is performed by a single mark, it is not considered that the mark itself has various meanings. The marking method itself has low versatility.
【0012】したがって、本発明のさらなる目的は、マ
ーク自体に多様な意味を持たせることが考慮された自律
行動ロボットおよび自律行動ロボットシステムを提供す
ることである。Therefore, a further object of the present invention is to provide an autonomous action robot and an autonomous action robot system in which it is considered that the mark itself has various meanings.
【0013】また、前述の従来の自律行動ロボットは、
自律行動ロボットのメモリ手段に記憶されている外部環
境の情報を外部に出力して記憶させるものであっても、
自律行動ロボットと人間、または、自律行動ロボット同
士の情報伝達に用いるためのものでもない。Further, the above-mentioned conventional autonomous action robot is
Even if the information of the external environment stored in the memory means of the autonomous behavior robot is output to the outside and stored,
It is not intended to be used for information transmission between autonomous behavior robots and humans, or between autonomous behavior robots.
【0014】したがって、本発明のさらなる目的は、自
律行動ロボットと人間、または、自律行動ロボット同士
の情報伝達を行なうことが可能な情報を外部に出力する
ことができる自律行動ロボットおよび自律行動ロボット
システムを提供することである。Therefore, a further object of the present invention is to provide an autonomous action robot and an autonomous action robot system capable of outputting information capable of transmitting information between the autonomous action robot and human or between the autonomous action robots to the outside. Is to provide.
【0015】これに加えて、特に人間が生活する日常空
間内において自律行動を行なう自律行動ロボットに関し
て、画像処理を初めとしてさまざまな環境認識手法が提
案されているが、いずれの環境手法も環境の変化が激し
い日常空間内においては、確実性という点で問題がある
のが現状である。In addition to this, various environmental recognition methods such as image processing have been proposed, especially for autonomous robots that perform autonomous behaviors in the everyday space in which humans live. In daily life, where there is a lot of change, there is a problem in terms of certainty.
【0016】したがって、本発明のさらなる目的は、い
ずれの環境手法も環境の変化が激しい日常空間内におい
て、確実性を有した環境認識が可能な自律行動ロボット
および自律行動ロボットシステムを提供することであ
る。Therefore, it is a further object of the present invention to provide an autonomous action robot and an autonomous action robot system capable of reliably recognizing the environment in a daily space in which the environment changes drastically. is there.
【0017】[0017]
【課題を解決するための手段】本発明の自律行動ロボッ
トは、人の操作によることなく自律的に行動することが
可能な自律行動ロボットであって、自律行動するための
行動手段と、行動手段により実行された行動の態様に関
する情報を、外部において人が認識可能な態様で記録さ
せるように、外部へ出力することが可能な情報出力手段
とを備えている。このような構成によれば、自律行動ロ
ボット自体が存在しなくても、他者が自律行動ロボット
自体の行動の態様に関する情報を認識することを可能と
なる。An autonomous action robot of the present invention is an autonomous action robot capable of autonomously acting without being operated by a person, and is an action means for performing autonomous action and an action means. The information output means capable of outputting the information regarding the mode of the action executed by the external device so as to record the information in a mode that can be recognized by a person outside. According to such a configuration, it is possible for another person to recognize information about the behavior mode of the autonomous action robot itself, even if the autonomous action robot itself does not exist.
【0018】本発明の自律行動ロボットは、周辺環境の
状態を認識するための周辺環境認識手段を備え、環境認
識手段を用いて得られた周辺環境情報の解析を行ない、
解析の結果に基づいて行動の態様を決定するものであっ
てもよい。このような構成によれば、自律行動ロボット
自体が存在しなくても、他者が周辺環境の状態に応じて
自律行動ロボットがどのように行動したかを認識するこ
とが可能となる。The autonomous behavior robot of the present invention comprises a surrounding environment recognition means for recognizing the state of the surrounding environment, and analyzes the surrounding environment information obtained using the environment recognition means,
The behavior may be determined based on the analysis result. With such a configuration, it is possible to recognize how another person has acted according to the state of the surrounding environment, even if the autonomous action robot itself does not exist.
【0019】本発明の自律行動ロボットは、行動態様に
関する情報が、周辺環境情報を含んでいてもよい。この
ような構成によれば、自律行動ロボットが存在しなくて
も、自律行動ロボットが行動した経路の周辺の環境の状
態を認識することができる。In the autonomous behavior robot of the present invention, the information on the behavior mode may include surrounding environment information. According to such a configuration, even if the autonomous action robot does not exist, it is possible to recognize the state of the environment around the route on which the autonomous action robot has acted.
【0020】本発明の自律行動ロボットは、周辺環境認
識手段が、周辺環境の状態を画像として認識するための
画像認識装置を含んでいてもよい。このような構成によ
れば、自律行動ロボットが存在しなくても、自律行動ロ
ボットが行動した経路の周辺の環境の状態を画像で認識
することができる。In the autonomous behavior robot of the present invention, the surrounding environment recognition means may include an image recognition device for recognizing the state of the surrounding environment as an image. According to such a configuration, even if the autonomous action robot does not exist, it is possible to recognize the state of the environment around the route along which the autonomous action robot has acted with an image.
【0021】本発明の自律行動ロボットは、行動の態様
に関する情報が、自律行動ロボットのための充電装置へ
の経路を示す情報を含んでいてもよい。このような構成
によれば、充電装置への経路を示唆することができる。In the autonomous behavior robot of the present invention, the information on the behavior mode may include information indicating a route to the charging device for the autonomous behavior robot. With such a configuration, the route to the charging device can be suggested.
【0022】本発明の自律行動ロボットは、行動手段
が、車輪の回転により該車輪と該車輪が接地する接地面
との間での摩擦力により行動可能とする車輪型行動機構
であってもよい。このような構成によれば、安定した自
律行動を行なうことができる。In the autonomous action robot of the present invention, the action means may be a wheel-type action mechanism that allows the action of the wheel due to the frictional force between the wheel and the ground contact surface on which the wheel contacts the ground. . With such a configuration, stable autonomous action can be performed.
【0023】本発明の自律行動ロボットは、行動手段
が、複数の脚の歩行運動により行動する脚型行動機構で
あってもよい。このような構成によれば、複雑な路面で
も自律行動することができる。In the autonomous action robot of the present invention, the action means may be a leg type action mechanism that acts by walking motion of a plurality of legs. With such a configuration, autonomous action can be performed even on a complicated road surface.
【0024】本発明の自律行動ロボットは、情報出力手
段が、外部において人が認識可能な態様で記憶させる手
法として、物理的な情報伝達媒体を用いて外部環境その
ものにマーキングする手法を用いてもよい。このように
することにより、人が物理的な情報伝達媒体を利用し
て、自律行動ロボットの行動の態様に関する情報を認識
することができる。In the autonomous behavior robot of the present invention, the information output means may use a method of marking the external environment itself by using a physical information transmission medium as a method of storing the information in a manner that can be recognized by a person outside. Good. By doing so, a person can recognize the information on the behavior mode of the autonomous action robot by using the physical information transmission medium.
【0025】本発明の自律行動ロボットは、情報出力手
段が、物理的な情報伝達媒体を用いて外部環境そのもの
にマーキングする手法として、シールを外部環境へ貼り
付ける手法を用いてもよい。このようにすることによ
り、簡単に外部環境に対してマーキングすることができ
る。In the autonomous-behavior of the present invention, the information output means may use a physical information transmission medium to mark the external environment itself by applying a sticker to the external environment. By doing so, it is possible to easily mark the external environment.
【0026】本発明の自律行動ロボットは、情報出力手
段が、物理的な情報伝達媒体を用いて外部環境そのもの
にマーキングする手法として、内部に情報を記録可能な
データタグを含むシールを外部環境へ貼り付ける手法を
用いてもよい。このようにすることにより、シールに多
様な情報を含ませることができる。In the autonomous behavior robot of the present invention, the information output means uses a physical information transmission medium to mark the external environment itself, and a sticker including a data tag capable of recording information inside is attached to the external environment. You may use the method of sticking. By doing so, various information can be included in the sticker.
【0027】本発明の自律行動ロボットは、データタグ
が、非接触通信可能なデータタグであってもよい。この
ような構成によれば、データタグとの通信により、デー
タタグから離れたところで自律行動ロボットの行動の態
様に関する情報を認識することができる。In the autonomous behavior robot of the present invention, the data tag may be a data tag capable of non-contact communication. According to such a configuration, it is possible to recognize the information regarding the behavior mode of the autonomous action robot at a place apart from the data tag by communicating with the data tag.
【0028】本発明の自律行動ロボットは、情報出力手
段が、外部において人が認識可能な態様で記録させる手
法として、コンピュータに読取可能な記録媒体に記録さ
せる手法を用いてもよい。このようにすることにより、
行動の態様に関する情報をコンピュータにおいて認識す
ることができる。In the autonomous behavior robot of the present invention, the information output means may use a method of recording in a computer-readable recording medium as a method of recording in a manner that can be recognized by a person outside. By doing this,
Information regarding the mode of action can be recognized by the computer.
【0029】本発明の自律行動ロボットは、情報出力手
段が、外部環境に設けられ、非接触で通信可能なデータ
タグに対して、行動の態様に関する情報を記録させても
よい。このようにすることにより、行動の態様に関する
情報を外部出力するための物理的な情報伝達媒体を所持
する必要がなくなる。In the autonomous behavior robot of the present invention, the information output means may record the information regarding the mode of behavior in a data tag which is provided in the external environment and is capable of contactless communication. By doing so, it is not necessary to have a physical information transmission medium for externally outputting the information regarding the behavior mode.
【0030】本発明の自律行動ロボットは、情報出力手
段が、他の自律行動ロボットに対して内部の情報を送信
することが可能であればより好ましい。このようにする
ことにより、他の自律行動ロボットと協調して行動する
ことができる。In the autonomous action robot of the present invention, it is more preferable that the information output means can transmit the internal information to other autonomous action robots. By doing so, it is possible to act in cooperation with other autonomous action robots.
【0031】本発明の自律行動ロボットは、行動の態様
を制御する行動態様制御手段を備え、行動態様制御手段
が、他の自律行動ロボットと協調した行動をするように
制御することが可能であればより好ましい。このような
構成によれば、協調行動により作業効率を向上させるこ
とができる。The autonomous action robot of the present invention is provided with an action mode control means for controlling the action mode, and the action mode control means can perform control so as to cooperate with another autonomous action robot. More preferable. According to such a configuration, it is possible to improve work efficiency by cooperative action.
【0032】本発明の自律行動ロボットシステムは、前
述の自律行動ロボットを複数使用して、該複数の自律行
動ロボットに共同作業を行なわせる。このようにするこ
とにより、複数の自律行動ロボットを用いて協調して行
動することにより共同作業の効率を向上させることが可
能となる。The autonomous action robot system of the present invention uses a plurality of the above-mentioned autonomous action robots to cause the plurality of autonomous action robots to perform a collaborative work. By doing so, it becomes possible to improve the efficiency of collaborative work by acting in a coordinated manner using a plurality of autonomous action robots.
【0033】[0033]
【発明の実施の形態】以下、本発明の実施の形態の自律
行動ロボットおよび自律行動ロボットシステムを、図を
参照して説明する。BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, an autonomous action robot and an autonomous action robot system according to an embodiment of the present invention will be described with reference to the drawings.
【0034】(実施の形態1)図1に示すように、ロボ
ットRは、本実施の形態の自律行動ロボットが具体化さ
れた装置であり、自律行動を行なうための行動手段の一
部をなす左右2つずつ計4個の車輪TIを有し、路面S
U上において移動を行なう車輪型移動ロボットであり、
その内部に制御基板BOおよびバッテリBA、上部にロ
ボットRの前方に向けて、周辺環境認識手段の一例とし
ての外部環境を認識可能とするCCD(Charge Couple
d Device)カメラCA1が左右にそれぞれ配置されて
いる。行動態様決定手段の一例としての制御基板BO
は、CCDなどで得られた周辺環境の画像の処理を行な
うための画像処理回路などが搭載された画像処理制御基
板BObと、種々の演算を行ない画像処理回路により処
理された画像を解析する処理が可能な演算部と、解析の
結果による周辺環境の状態を記録可能なメモリと、周辺
環境の状態に応じて車輪を駆動するモータを制御するこ
とが可能なモータドライバ回路などを含むロボット制御
基板BOaとに分かれている。ここで、制御基板BOの
詳細についての説明は、本発明の趣旨ではないため省略
する。(Embodiment 1) As shown in FIG. 1, a robot R is a device embodying the autonomous action robot of the present embodiment and forms a part of action means for performing autonomous action. It has a total of four wheels TI, two on each side,
A wheel-type mobile robot that moves on U,
A control board BO and a battery BA are provided inside the CCD, and a CCD (Charge Couple) that recognizes an external environment as an example of a peripheral environment recognition means is directed toward the front of the robot R at the upper part.
d Device) Cameras CA1 are arranged on the left and right respectively. Control board BO as an example of action mode determination means
Is an image processing control board BOb equipped with an image processing circuit for processing an image of the surrounding environment obtained by a CCD or the like, and a process of analyzing various images processed by the image processing circuit. Robot control board including a calculation unit capable of performing the above operation, a memory capable of recording the state of the surrounding environment resulting from the analysis, and a motor driver circuit capable of controlling the motor that drives the wheels according to the state of the surrounding environment. It is divided into BOa. Here, the detailed description of the control board BO is omitted because it is not the purpose of the present invention.
【0035】また、ロボットRの前面には、その高さお
よび角度を調整できる姿勢調整機構MEおよびその先端
に接続されたマーキング装置STが取付けられており、
ロボットRは路面SUに小型円形のシールSHを貼るこ
とで、マーキングを残すことができる。On the front surface of the robot R, a posture adjusting mechanism ME capable of adjusting its height and angle and a marking device ST connected to its tip are attached.
The robot R can leave the marking by attaching a small circular sticker SH to the road surface SU.
【0036】なお、本実施の形態では、ロボットRの対
象とする移動空間が、日常生活空間である場合を考慮し
てロボットRの貼るシールSHは、剥がした後、糊の残
りにくいものを使用するものとする。In this embodiment, in consideration of the case where the moving space targeted by the robot R is a daily living space, the sticker SH attached to the robot R is such that the adhesive is not likely to remain after peeling. It shall be.
【0037】図2は、図1のロボットRにおいて使用す
る情報出力手段の一例としてのマーキング装置ST1を
示す図である。マーキング装置ST1は図2の左下隅に
開口のあるケースST1cによってカバーされており、
ケースST1cの内部にはケースST1cに回転中心軸
の片縁が固定されているローラST1r1,STr2,
STr3が設けられている。このうちローラST1r
1,STr2はモータにより回転駆動可能となっている
ため、マーキング用シールSH1を含むテープST1t
を巻取ることができる。FIG. 2 is a diagram showing a marking device ST1 as an example of information output means used in the robot R of FIG. The marking device ST1 is covered by a case ST1c having an opening in the lower left corner of FIG.
Inside the case ST1c, rollers ST1r1, STr2, one edge of the rotation center shaft of which is fixed to the case ST1c, are provided.
STr3 is provided. Of these, roller ST1r
Since 1 and STr2 can be rotationally driven by a motor, the tape ST1t including the marking sticker SH1
Can be wound up.
【0038】また、ケースST1の下端をマーキングし
たい面SUに押付け、矢印RO1の方向にローラST1
cを回転させることによりシールSH1を面SUに貼り
付けることができる。The lower end of the case ST1 is pressed against the surface SU to be marked, and the roller ST1 is moved in the direction of the arrow RO1.
The seal SH1 can be attached to the surface SU by rotating c.
【0039】図3は、ロボットRがシールSHを貼る方
法を説明するための図である。壁面であれば高さ方向に
可変のローラ型マーキング装置STのローラを壁面SU
1wに密着させ、ロボットRのカメラCA1が認識しや
すい高さにシールを貼る。FIG. 3 is a diagram for explaining a method in which the robot R attaches the sticker SH. If it is a wall surface, the roller of the roller type marking device ST that is variable in the height direction
The sticker is attached to 1w, and a sticker is attached at a height easily recognized by the camera CA1 of the robot R.
【0040】床面であればマーキング装置STを床面S
U1fに密着させた状態でやはりロボットRの搭載カメ
ラCA1が認識しやすい位置にシールを貼る。以上の方
法によりロボットRは室内において壁面および床面にシ
ールを貼ることができるため、広い範囲にマーキングを
行なうことができ、画像処理基板BObにおける画像処
理がしやすい位置にシールを貼り付けることができる。If the floor surface, the marking device ST
With the U1f being in close contact, a sticker is attached to a position where the onboard camera CA1 of the robot R can easily recognize it. By the above method, the robot R can put the seal on the wall surface and the floor surface in the room, so that the marking can be performed in a wide range and the sticker can be put on the image processing board BOb at a position where the image processing can be easily performed. it can.
【0041】図4は、上記のロボットRによってシール
SHを貼ることによって行なわれるマーキングのパター
ンを示す図である。マーキングに用いるシールSHの形
状および色が単一であっても、シールSHのパターンを
変更することにより、マークに意味を持たせることがで
きる。FIG. 4 is a diagram showing a marking pattern performed by applying the sticker SH by the robot R described above. Even if the sticker SH used for marking has a single shape and color, the mark can be made meaningful by changing the pattern of the sticker SH.
【0042】図4中パターンMAP1が最も単純なマー
キングのパターンであり、単に移動経路を示すときに用
いることとする。パターンMAP2はシールSHを2つ
用いたパターンであり、矢印AR1のようなロボットR
の移動の経路を示している。パターンMAP3はシール
SHを3つ用いたパターンであり、矢印AR2のように
ロボットRの移動の方向を示している。The pattern MAP1 in FIG. 4 is the simplest marking pattern, and is used to simply indicate the movement route. The pattern MAP2 is a pattern using two seals SH, and the robot R as indicated by the arrow AR1.
Shows the route of movement of the. The pattern MAP3 is a pattern using three stickers SH, and indicates the moving direction of the robot R as indicated by an arrow AR2.
【0043】たとえば、本実施の形態では、矢印の方向
に内蔵電池BAに充電を行なうことが可能な充電器PS
がある位置を示すことができる。For example, in the present embodiment, a charger PS capable of charging built-in battery BA in the direction of the arrow.
Can indicate a position.
【0044】また、パターンMAP4はシールSHを3
つ用いたパターンであり、矢印AR3のようにロボット
Rが方向転換をしたことを示している。Further, the pattern MAP4 has the seal SH of 3
The pattern used by the robot R indicates that the robot R has changed direction as indicated by an arrow AR3.
【0045】図4には、4つのパターンのみを示した
が、シールSHの数を増やすことや、シールSHの相対
位置を変更することによりさらに多様な意味をマーキン
グに持たせることができるようになる。Although only four patterns are shown in FIG. 4, it is possible to give more various meanings to the marking by increasing the number of seals SH or changing the relative position of the seals SH. Become.
【0046】図5は、図4に示したパターンを用いたロ
ボットRの移動に関する情報提示結果を示す図であり、
ロボットRが移動を行なった室内を天井側から見下ろし
たところである。パターンMA1a,MA1b,MA1
cは、ロボットRにとって重要な装置であるロボットR
の充電器PS1の位置を示すパターンであって、図4に
おける矢印を意味するパターンMAP3を用いている。
ロボットRが壁面にパターンMA1a,MA1b,MA
1cを見付けた場合に、その指示する方向に進めば充電
器PS1があると解釈できるようなプログラムをロボッ
ト制御基板BOaの記憶手段に内臓しておけば、ロボッ
トRが自己の位置を見失った場合であっても向きを示す
矢印の意味を有するパターンMA1a,MA1b,MA
1cのいずれかを発見することにより、充電器PS1に
辿り付くことができる。FIG. 5 is a diagram showing a result of information presentation regarding movement of the robot R using the pattern shown in FIG.
The room where the robot R moved is looking down from the ceiling side. Patterns MA1a, MA1b, MA1
c is a robot R which is an important device for the robot R
The pattern MAP3 indicating the position of the charger PS1 is used, which means the arrow in FIG.
Robot R has pattern MA1a, MA1b, MA on the wall
If the robot R loses its position by storing a program in the memory means of the robot control board BOa that can interpret the charger PS1 if it finds 1c in the indicated direction. Even if the pattern MA1a, MA1b, MA has the meaning of the arrow indicating the direction
It is possible to reach the charger PS1 by discovering any one of 1c.
【0047】パターンMA1a,MA1b,MA1cは
壁面に充電器指示のパターンを貼り付けたものであった
が、パターンMA2a,MA2b,MA3に示すように
マーキングは床面にも行なうことができる。Although the patterns MA1a, MA1b, MA1c are formed by sticking a charger-instructing pattern on the wall surface, marking can also be performed on the floor surface as shown in the patterns MA2a, MA2b, MA3.
【0048】また、ロボットRが矢印AR4のような移
動経路を進行したとき、パターンMA3a,MA3b,
MA3c,MA3dのようにマーキングを行なうことに
よりロボットRの移動履歴を示すことができる。したが
って、マーキングを観測することにより人間あるいは他
のロボットRはマーキングを行なう自律移動型のロボッ
トRの移動範囲を把握することができる。Further, when the robot R travels on the movement route indicated by the arrow AR4, the patterns MA3a, MA3b,
By marking like MA3c and MA3d, the movement history of the robot R can be shown. Therefore, by observing the marking, a human or another robot R can grasp the moving range of the autonomous mobile robot R that performs the marking.
【0049】図4および図5に示したパターンMAを、
たとえば、赤などの室内において目立つ色のシールSH
によって構成することにより、ロボットRはパターンを
把握することが容易になる。このようなパターンMAは
人間の生活空間などの複雑な環境においても画像処理の
確実性を高めることができるために、マーキングはロボ
ットRの自律移動の参照点として利用することもでき
る。The pattern MA shown in FIGS. 4 and 5 is
For example, a sticker SH of a color such as red that stands out in the room
With this configuration, the robot R can easily recognize the pattern. Since such a pattern MA can enhance the certainty of image processing even in a complicated environment such as human living space, the marking can also be used as a reference point for autonomous movement of the robot R.
【0050】さらに、ロボットRの環境把握および移動
経路情報提示のためのパターンMAのマーキングはロボ
ットR自体が行なうために、ロボットRのカメラCA1
の視点に基づいて適切な位置を選択することができる。Further, since the robot R itself performs marking of the pattern MA for grasping the environment of the robot R and presenting movement path information, the camera CA1 of the robot R is used.
An appropriate position can be selected based on the viewpoint of.
【0051】したがって、マーキングの位置などはロボ
ットR自体が発見しやすい場所に行なうことができるの
で、ロボットRがマーキングされたパターンMAを参照
する場合の画像処理制御基板BObにおける画像処理の
確実性をさらに高めることができる。Therefore, the marking position can be set at a position where the robot R itself can easily find it. Therefore, when the robot R refers to the marked pattern MA, the reliability of the image processing in the image processing control board BOb can be ensured. It can be further increased.
【0052】また、ロボットRのメモリ上にロボットR
が行なったマーキングのマップを記録しておけば、移動
中に発見したマーキングの履歴と照合することによりロ
ボットRは室内における自己の現在位置を推定すること
ができる。In addition, the robot R stores in the memory of the robot R.
If the map of the markings made by the robot is recorded, the robot R can estimate its own current position in the room by checking the history of the markings found during the movement.
【0053】以上のようなシールSHのパターンMAを
用いる方法により、人間がロボットRの移動経路あるい
は行動を把握することは容易である。このとき、仮にロ
ボットRが他の部屋に移動するなどして人間と対面して
いない場合であっても、ロボットRが動作していない場
合であっても、また、ロボットRの不在時においても、
人間はシールSHのみを参照すればロボットRの移動の
履歴を確認することができる。By the method using the pattern MA of the seal SH as described above, it is easy for a human to grasp the movement route or the action of the robot R. At this time, even if the robot R is not facing a human, such as moving to another room, the robot R is not operating, or even when the robot R is absent. ,
A human can confirm the history of movement of the robot R by referring to only the seal SH.
【0054】また、図5の例に示したように、各パター
ンの持つ意味を明確に設定しておくことにより、人間が
家具を動かすなど、室内環境を変更すると同時にマーキ
ングの位置を変更するなどの動作を行なうことにより、
マーキングを通じてロボットRに環境の変化を教示する
ことができる。Further, as shown in the example of FIG. 5, by clearly setting the meaning of each pattern, a person moves furniture, changes the indoor environment, and simultaneously changes the marking position. By performing the operation of
Through the marking, the robot R can be instructed of changes in the environment.
【0055】さらに、また、これまで説明してきたよう
な自律移動型のロボットRのマーキングはマーキングを
行なったロボットR以外の自律移動型のロボットRであ
っても画像処理を行なうことにより情報として利用可能
であるために、ロボットR同士の情報を共有という効果
もある。たとえば、シールSHの色をそれぞれのロボッ
トRごとに変更することにより、他のロボットRの行な
ったマーキングと自らの行なったマーキングを選別する
ことが可能であり、シールSHの色を区別することでお
互いに連携を取って自律移動の範囲を調整することも可
能である。その他、シールSHの形(丸や四角など)や
大きさをロボットRごとに変更したり、さらには、シー
ルSH上に各ロボットR固有の識別コードを付すように
してもよい。Furthermore, the marking of the autonomous mobile robot R as described above is used as information by performing image processing even on the autonomous mobile robot R other than the marking robot R. Since it is possible, there is also an effect of sharing information between the robots R. For example, by changing the color of the sticker SH for each robot R, it is possible to distinguish the markings made by other robots R from the markings made by other robots R, and by distinguishing the colors of the sticker SH. It is also possible to coordinate with each other and adjust the range of autonomous movement. In addition, the shape (circle, square, etc.) and size of the seal SH may be changed for each robot R, and further, an identification code unique to each robot R may be attached on the seal SH.
【0056】たとえば、ロボットRが室内の清掃を行な
うロボットRだとした場合、各ロボットRが掃除を完了
した領域において、マーキングを施すことにすれば、一
部のロボットRが掃除を完了した領域を他のロボットR
が再び掃除をするという無駄をなくすことができる。For example, assuming that the robot R is a robot R for cleaning the room, if marking is performed in the area where each robot R has completed cleaning, some robots R have completed cleaning. Other robot R
Can eliminate the waste of cleaning again.
【0057】ここまで、本実施の形態におけるマーキン
グ方法として、シールSHの配置を用いたマーキングへ
の情報付与の方法を説明してきたが、シールSHが、た
とえば、データタグを含み、シールSH自体に情報を記
録できるものであれば、シールSHのパターンは1つだ
けであっても多様な情報の提示を行なうことができる。Up to this point, as the marking method in the present embodiment, the method of adding information to the marking using the arrangement of the seal SH has been described. However, the seal SH includes, for example, a data tag, and the seal SH itself is provided. If the information can be recorded, even if only one pattern of the sticker SH is provided, various information can be presented.
【0058】また、赤外線、マイクロ波などを利用した
通信機能を持つデータタグが一般に用いられている。通
信機能を持つデータタグの通信距離は、たとえば、20
cm程度の近距離に制限することも可能である。前述の
マーキングのためのデータタグとして近距離通信機能を
有するものを用い、ロボットRにデータタグとの通信機
能を有するようにすれば、ロボットRは、データタグ近
傍においては、データタグと通信を行なうことができる
ようになるために、マーキングされたシールSHを発見
することが容易になる。A data tag having a communication function utilizing infrared rays, microwaves, etc. is generally used. The communication distance of a data tag having a communication function is, for example, 20
It is also possible to limit the short distance to about cm. If a data tag having a short-distance communication function is used as the above-mentioned marking data tag, and the robot R has a communication function with the data tag, the robot R can communicate with the data tag in the vicinity of the data tag. Being able to do so makes it easier to find the marked seal SH.
【0059】さらに、また、ロボットRはシールSHの
配置を変更することなく記録情報の変更を行なうことが
できる。したがって、たとえば、床面にデータタグを敷
き詰める部屋を用意し、ロボットRは近距離通信により
データタグを書換ることによりマーキングを行なう構成
を取れば、ロボットRはシールSHを貼り付ける必要が
ないために部屋を汚さずに、シールSHを用いる場合と
同様の機能を実現することができる。Furthermore, the robot R can change the recorded information without changing the arrangement of the seal SH. Therefore, for example, if a room in which data tags are spread on the floor is prepared and the robot R is configured to perform marking by rewriting the data tags by short-range communication, the robot R does not need to attach the sticker SH. It is possible to realize the same function as when the seal SH is used, without making the room dirty.
【0060】(実施の形態2)上述の実施の形態1は、
ロボットRが外界に対して物理的にマーキングを行なう
場合の例であったが、本実施の形態のロボットRのよう
に、外界に対して行なうマーキングが電子計算機により
処理可能なデータとして取扱えるような仮想的なもので
あってもよい。(Embodiment 2) The above-described Embodiment 1 is
This is an example in which the robot R physically marks the outside world, but like the robot R of the present embodiment, the marking performed on the outside world can be handled as data that can be processed by an electronic computer. It may be a virtual one.
【0061】以下においては、本実施の形態として、ロ
ボットRが計算上のメモリ上に仮想的にマーキングを行
なう場合の例を示す。In the following, an example in which the robot R virtually marks on a computational memory will be described as the present embodiment.
【0062】図6は、本実施の形態を説明するためのロ
ボットRおよび室内に配置された装置の構成を示す図で
ある。FIG. 6 is a diagram showing the configuration of the robot R and the apparatus arranged in the room for explaining the present embodiment.
【0063】図中ロボットRは上述の実施の形態1にお
けるロボットRから、シールSHを用いたマーキングを
行なうための姿勢調整機構MEおよびマーキング装置S
Tを取り去り、超音波発生装置SS1および無線通信装
置WLC1を追加したものである。また、CCDカメラ
および画像処理装置も特に必要はない。In the figure, the robot R is different from the robot R in the first embodiment described above in the posture adjusting mechanism ME and the marking device S for performing marking using the seal SH.
The ultrasonic wave generator SS1 and the wireless communication device WLC1 are removed by removing T. Moreover, a CCD camera and an image processing device are not particularly required.
【0064】一方、ロボットRが自律移動を行なう室内
には、3隅に超音波受信装置SSR1,SSR2,SS
R3が、残った隅には常時電源が投入されている家庭内
サーバとしての計算機HSが設置されており、超音波受
信装置SSR1,SSR2,SSR3の検出結果は計算
機HSにより集計される。また、計算機HSにはロボッ
トRと通信データCOM1により通信を行なうための無
線通信装置WLC2が接続されている。On the other hand, the ultrasonic receivers SSR1, SSR2, SS are provided at three corners in the room where the robot R autonomously moves.
In the remaining corner of R3, a computer HS is installed as a home server whose power is always turned on, and the detection results of the ultrasonic receivers SSR1, SSR2, SSR3 are totaled by the computer HS. A wireless communication device WLC2 for communicating with the robot R by communication data COM1 is connected to the computer HS.
【0065】ロボットRの超音波発生装置SS1は一定
時間間隔ごとに超音波を発しており、超音波発生装置S
S1の位置は、室内3隅に取付けられた超音波受信装置
SSR1,SSR2,SSR3により受信された信号の
受信時間に基づき計算機HSにより三角測量によって逐
次求められている。The ultrasonic generator SS1 of the robot R emits ultrasonic waves at regular time intervals.
The position of S1 is sequentially obtained by triangulation by the computer HS based on the reception time of the signals received by the ultrasonic wave receiving devices SSR1, SSR2, SSR3 attached to the three corners of the room.
【0066】以下で述べるように、ロボットRと計算機
HSとの間でやり取りする通信データCOM1は大容量
のものではないために、ロボットRの無線通信装置WL
C1はそれほど高速なものではなくてもよい。As described below, since the communication data COM1 exchanged between the robot R and the computer HS is not of large capacity, the wireless communication device WL of the robot R is used.
C1 does not have to be very fast.
【0067】ここで、ロボットRが記録を行なうための
条件は、上述の実施の形態1の場合と同様とし、マーキ
ングを行なう位置は図5中のパターンMA1、MA2、
MA3であるとし、これを仮想的に行なった場合のマー
キングのパターンをMA′1、MA′2、MA3′とす
る。Here, the conditions for the robot R to perform recording are the same as in the case of the above-described first embodiment, and the marking positions are the patterns MA1, MA2 in FIG.
MA3 is assumed, and marking patterns when this is virtually performed are MA'1, MA'2, and MA3 '.
【0068】ロボットRから計算機HSに通信データC
OM1により送られる情報は、マーキングを行なう場合
の実行位置と、マーキングのパターンMA′1、MA′
2、MA3′および車輪の回転量であり、逆にHSから
ロボットRに送られる情報は、三角測量により計算され
たロボットRの室内における位置から見える計算機HS
上のデータとして、仮想的に存在するロボットRが行な
ったマーキングのパターンMA′1、MA′2、MA
3′の位置情報である。Communication data C from the robot R to the computer HS
The information sent by the OM1 includes the execution position for marking and the marking patterns MA'1 and MA '.
2, MA3 'and the amount of rotation of the wheels, and conversely, the information sent from the HS to the robot R is a computer HS that can be seen from the position of the robot R in the room calculated by triangulation.
As the above data, marking patterns MA′1, MA′2, MA made by the virtually existing robot R are used.
3'position information.
【0069】ここで、上記超音波発生装置SS1のアン
テナから発した超音波を用いて三角測量により推定でき
るロボットRの情報はロボットRの位置のみであり、ロ
ボットRの姿勢を特定可能なロボットの向きを示す角度
データは含まれないために、ロボットRの姿勢はロボッ
トRの車輪TIの動作履歴およびロボットR自体の位置
から推定する必要がある。Here, the information of the robot R that can be estimated by triangulation using the ultrasonic waves emitted from the antenna of the ultrasonic generator SS1 is only the position of the robot R, and the posture of the robot R can be specified. Since the angle data indicating the direction is not included, the posture of the robot R needs to be estimated from the operation history of the wheels TI of the robot R and the position of the robot R itself.
【0070】以上のような構成を取ることにより、本実
施の形態においてもロボットRのマーキングは実施の形
態1と同様に行なうことができる。With the above-described structure, the robot R can be marked in the present embodiment as in the first embodiment.
【0071】また、マーキングがロボットR外部の計算
機HSの記憶領域上で行なわれるために、計算機HSを
ネットワークに繋ぐことにより遠隔地からロボットRの
動作を管理できる利点がある。Further, since the marking is performed on the storage area of the computer HS outside the robot R, there is an advantage that the operation of the robot R can be managed from a remote place by connecting the computer HS to the network.
【0072】また、ロボットRの行なうマーキングのパ
ターンMA′1、MA′2、MA3′は、電子データと
して取扱うことができるために、本実施の形態において
現実に行なうマーキングのパターンMA1、MA2、M
A3における画像処理基板BObの認識力の問題などは
発生しない。Since the marking patterns MA'1, MA'2, MA3 'performed by the robot R can be handled as electronic data, the marking patterns MA1, MA2, M actually performed in the present embodiment.
The problem of the recognition ability of the image processing board BOb in A3 does not occur.
【0073】(実施の形態3)前述の実施の形態2にお
いては超音波による三角測量を用いたロボットRの位置
推定を行なっているために、ロボットRの角度姿勢の推
定において不確実な部分があった。図7は実施の形態3
の自律行動ロボットを説明するための図であり、ロボッ
トの外部の一例である天井に周辺環境認識手段の一例で
あるカメラCA2を取付けることにより、前述の実施の
形態2におけるロボットRの角度姿勢の推定の問題を解
消するものである。(Embodiment 3) In Embodiment 2 described above, since position estimation of the robot R is performed using triangulation by ultrasonic waves, there are uncertain parts in the estimation of the angular orientation of the robot R. there were. FIG. 7 shows the third embodiment.
FIG. 7 is a diagram for explaining the autonomous behavior robot of FIG. 1, in which the camera CA2, which is an example of a surrounding environment recognition unit, is attached to the ceiling, which is an example of the outside of the robot, so that It solves the estimation problem.
【0074】ここで、自律移動型のロボットRからは、
超音波発生装置SS1を取外し、天井にカメラCA2を
取付ける構成を取る。カメラCA2の画像は家庭用サー
バである計算機HSに入力され、画像処理を行ないロボ
ットRの位置および姿勢情報を決定するために使われ
る。Here, from the autonomous mobile robot R,
The ultrasonic generator SS1 is removed and the camera CA2 is attached to the ceiling. The image of the camera CA2 is input to the computer HS, which is a home server, and is used to perform image processing and determine the position and orientation information of the robot R.
【0075】このようにして、ロボットRの位置および
姿勢をカメラCA2の画像から決定することを除けば、
実施の形態3におけるロボットRの行動手段、情報出力
手段、およびマーキング方法等は前述の実施の形態2の
ものと同様である。In this way, except that the position and orientation of the robot R is determined from the image of the camera CA2,
The action means, information output means, marking method, etc. of the robot R in the third embodiment are the same as those in the second embodiment.
【0076】以上の3つの実施の形態により、ロボット
Rの情報記録の方法とその作用を説明してきたが、各実
施の形態を組合せることによりマーキング精度をさらに
向上させることができる。Although the method of recording information of the robot R and its operation have been described by the above three embodiments, the marking accuracy can be further improved by combining the respective embodiments.
【0077】たとえば、前述の実施の形態2のロボット
の角度推定に不確実な部分があり、実施の形態3のロボ
ットが机の下を移動する場合など、カメラCA2の死角
に存在する場合にロボットRの位置を判断することがで
きないという問題がある。これら実施の形態を組合せる
ことにより、さらに確実にロボットRの姿勢を推定する
ことができる。For example, when there is an uncertain part in the angle estimation of the robot of the second embodiment and the robot of the third embodiment moves under the desk, and when the robot is in the blind spot of the camera CA2, There is a problem that the position of R cannot be determined. By combining these embodiments, the posture of the robot R can be more reliably estimated.
【0078】また、上記の3つの実施の形態はいずれも
車輪型のロボットRを例に取って説明を行なってきた
が、一般に、車輪型ロボットは床面が比較的片付いた状
態の室内においては移動効率がよく、姿勢のぶれが小さ
いために画像が安定して取得できるという利点がある。Although the above three embodiments have been described by taking the wheel type robot R as an example, in general, the wheel type robot is used in a room where the floor surface is relatively tidy. There is an advantage that the image can be stably acquired because the movement efficiency is good and the shake of the posture is small.
【0079】本発明の自律行動ロボットのもう一方の代
表的な形態である足型移動ロボットは、上記の車輪型ロ
ボットのような利点はないものの、障害物が散乱してい
るなど比較的複雑な環境における移動可能領域が広く、
たとえば、段差などが存在する環境であっても移動を行
なうことができるという利点がある。このような足型移
動ロボットにおいても本発明の情報出力手段を設けるこ
とが可能である。The foot-type mobile robot, which is another typical form of the autonomous behavior robot of the present invention, does not have the advantages of the above-mentioned wheel-type robot, but is relatively complicated such as obstacles are scattered. The movable area in the environment is wide,
For example, there is an advantage that it is possible to move even in an environment where there are steps. Even in such a foot-type mobile robot, the information output means of the present invention can be provided.
【0080】また、足型移動ロボットにおけるマーキン
グの対象として段差などの境界線を加えることにより、
足型移動ロボットが段差をより確実に認識するための補
助とすることができ、自律行動ロボットの移動がより安
定に行なえるようになることが期待できる。Further, by adding a boundary line such as a step as a target of marking in the foot-type mobile robot,
It can be expected that the foot-type mobile robot can assist the robot to more surely recognize the step, and the autonomous action robot can move more stably.
【0081】また、上記本実施の形態の自律行動ロボッ
トにより得られる効果をまとめると以下のようになる。
上記実施の形態の自律行動ロボットにおいては、移動手
段やセンサ手段などに加えて、マーキングを行なう装置
を付け、センサ入力により自律行動ロボットの環境認識
に優位な時点においてマーキングを施す機能が付与され
ている。また、マーキングの形状を環境認識結果に応じ
て変更する機能が設けられているため、自律行動ロボッ
トの行なったマーキング自体に情報性を持たせ、自律行
動ロボットと人あるいは自律行動ロボットと自律行動ロ
ボットとの情報伝達にも利用できる構成となっている。Further, the effects obtained by the autonomous action robot according to the present embodiment described above are summarized as follows.
In the autonomous behavior robot of the above embodiment, in addition to the moving means, the sensor means, etc., a device for marking is attached, and the function of performing marking at a time superior to environmental recognition of the autonomous behavior robot by sensor input is added. There is. In addition, since a function to change the shape of the marking according to the environment recognition result is provided, the marking itself performed by the autonomous action robot is given information, and the autonomous action robot and person or the autonomous action robot and autonomous action robot are provided. It has a structure that can also be used to communicate information with.
【0082】このように、センサ入力による環境認識に
応じた情報を、自律行動ロボットがマーキングできるよ
うにすることにより、室内の特定の場所において自律行
動ロボットが行動をする場合に有用な情報をその特定の
場所自体に記録させておくことができるようになる。As described above, by allowing the autonomous action robot to mark the information according to the environment recognition by the sensor input, the information useful when the autonomous action robot acts in a specific place in the room can be obtained. You will be able to record it in a specific place itself.
【0083】また、マーキングの形状を環境認識結果に
応じて変更できるようにすることにより、自律行動ロボ
ット自体、他の自律行動ロボット、人などに自律行動ロ
ボットの環境認識情報をより効率的に記録あるいは伝達
できる。Further, by making it possible to change the shape of the marking in accordance with the result of environment recognition, the environment recognition information of the autonomous action robot can be more efficiently recorded in the autonomous action robot itself, other autonomous action robots, people, etc. Or you can communicate.
【0084】さらに、また、マーキングの位置や形状な
どを変更可能にすることにより、自律行動ロボットの環
境認識結果を他の自律行動ロボットや人が変更できるこ
とになり、自律行動ロボットへの指令手段の機能を向上
させることができる。Furthermore, by making it possible to change the position and shape of the marking, the result of environmental recognition of the autonomous action robot can be changed by other autonomous action robots and persons, and the command means for the autonomous action robot can be changed. The function can be improved.
【0085】ここで、マーキングの形状は室内に存在す
る物体や壁面あるいは床面に比較して明らかに異なり、
たとえば、自律行動ロボットに搭載した画像処理などの
センサ手段によって判別可能なものにすることで、日常
生活空間など複雑な環境下において確率に判別できる環
境認識の点を形成することができるために、自律行動ロ
ボット自体の移動についてロバスト性を確保することが
できる。Here, the shape of the marking is obviously different as compared with the object, wall surface or floor surface existing in the room,
For example, by making it identifiable by a sensor means such as image processing installed in an autonomous behavior robot, it is possible to form a point of environment recognition that can be probabilistically identified in a complex environment such as daily living space. Robustness can be secured for the movement of the autonomous action robot itself.
【0086】また、マーキングにデータタグ、計算上の
仮想空間を用いる構成を取れば、容易にロボットの内部
情報を外部環境に記録しておくことが可能になるため
に、自律移動ロボットとの情報のインターフェイスとし
ての機能も充実することになる。If the data tag and the virtual space for calculation are used for marking, the internal information of the robot can be easily recorded in the external environment. The function as the interface of will be enhanced.
【0087】また、前述したように、マーキングはその
形状や種類などを制限していないために、形状あるいは
種類に関するルールを事前に定めておけば、たとえば、
充電器の位置を指示したり、障害物の位置を指示したり
と多様な情報をマーキングにより自律行動ロボットが判
断することができるために、人間の日常生活空間などの
複雑な条件下で自律移動を行なう自律行動ロボットに有
用な情報を与えることができる。Further, as described above, since the marking does not limit the shape or type of the marking, if a rule regarding the shape or type is set in advance, for example,
Marking various information such as indicating the position of the charger and the position of obstacles allows the autonomous action robot to judge, so it can move autonomously under complicated conditions such as human daily life space. It is possible to give useful information to the autonomous behavior robot that performs.
【0088】ここで、自律行動ロボットの環境認識手段
を、画像入力装置および画像処理装置によって構成すれ
ば、自律行動ロボットの環境認識をさまざまな方法で行
なうことができるために、変化の多い環境においても自
律行動ロボットに適切な方法で環境認識を行なわせるこ
とができる。Here, if the environment recognizing means of the autonomous action robot is composed of the image input device and the image processing device, the environment recognition of the autonomous action robot can be performed by various methods. Can make the autonomous behavior robot recognize the environment by an appropriate method.
【0089】また、本実施の形態の自律行動ロボットの
移動方式は、車輪型であっても足型であってもよく、車
輪型移動方式を利用した場合には少ないエネルギで安定
な画像処理を得られる利点があり、足型移動方式を利用
した場合には複雑な路面上において自律行動ロボットの
移動を行なわせることができる。Further, the moving system of the autonomous behavior robot of this embodiment may be a wheel type or a foot type, and when the wheel type moving system is used, stable image processing can be performed with less energy. There is an advantage to be obtained, and when the foot type moving method is used, the autonomous action robot can be moved on a complicated road surface.
【0090】また、前述の実施の形態の自律行動ロボッ
トにおいては、マーキングを、段差などの不整路面の存
在を指示するものとして事前に決めておくことにより、
自律行動ロボットは確実に路面状態を認識することがで
きるために移動を安定して行なうことができる。In the autonomous behavior robot of the above-described embodiment, the marking is determined in advance as an instruction to indicate the presence of an irregular road surface such as a step,
Since the autonomous behavior robot can reliably recognize the road surface condition, it can move stably.
【0091】また、前述したように、自律行動ロボット
の情報記録を物理的なマークによりに行なえれば、ロボ
ット外部にサーバなどの計算機が存在しない場合であっ
ても、環境に情報を記録することができるために、自律
行動ロボットのロボットシステムの構成を簡略化でき
る。Further, as described above, if the information recording of the autonomous action robot can be performed by a physical mark, the information can be recorded in the environment even if there is no computer such as a server outside the robot. Therefore, the configuration of the robot system of the autonomous action robot can be simplified.
【0092】また、前述したように、自律移動ロボット
のマーキング方法をシールの環境への貼り付けとするこ
とにより、自律行動ロボットのマーキング装置を簡易に
構成することができ、周辺のパターンを変更することに
よりマーキングに多様な意味を持たせることができる。Further, as described above, the marking method of the autonomous mobile robot is the sticking of the sticker to the environment, so that the marking device of the autonomous action robot can be easily constructed and the peripheral pattern is changed. By doing so, the marking can have various meanings.
【0093】また、自律行動ロボット自体がシールの貼
り付けを行なうことができるために、シールはロボット
の認識しやすい位置に置くことができ、前述の画像処理
装置を持つ自律行動ロボットがマーキングを識別するこ
とが容易になる。また、シールを粘着力の弱いものにす
ることにより、人間の生活環境を汚すことなく、自律行
動ロボットはマーキングを行なうことができる。Further, since the autonomous action robot itself can attach the sticker, the sticker can be placed at a position where the robot can easily recognize it, and the autonomous action robot having the above-mentioned image processing device can identify the marking. Easy to do. Further, by making the sticker having a weak adhesive force, the autonomous action robot can perform marking without polluting the human living environment.
【0094】ここで、前述したように、自律行動ロボッ
トがマーキングを行なうためのシールに、ロボット内部
に識別情報などデータを記録できるデータタグを使用す
れば、自律行動ロボットはデータタグの識別情報を変更
することにより、複雑な動作を行なうことなくマーキン
グを行なうことができる。Here, as described above, if a data tag capable of recording data such as identification information inside the robot is used as a sticker for marking by the autonomous action robot, the autonomous action robot will use the identification information of the data tag. By changing it, marking can be performed without performing a complicated operation.
【0095】さらに、データ記録が可能なデータタグと
して非接触通信可能なデータタグを用いれば、自律行動
ロボットはタグとの通信によりマークの位置を容易に検
索できる上、マーク近傍においてデータ内容を変更でき
るためにマーキング時の作業が容易になる。Furthermore, if a data tag capable of non-contact communication is used as a data tag capable of recording data, the autonomous behavior robot can easily retrieve the position of the mark by communicating with the tag and change the data content near the mark. Because of this, the work at the time of marking becomes easy.
【0096】また、マーキングの対象は、ロボット外部
の計算機上のデータにおける仮想的なものでもよい。こ
のようなマーキングの方法を取ることにより、人間の生
活環境を汚すことなくロボットはマーキングを行なうこ
とができるようになる上、計算機をネットワークに接続
して外部からそのデータを参照することにより、遠隔地
からロボットの行動を監視することができる。また、人
間がマーキングの確認や変更を行なうことが容易にな
る。The marking target may be a virtual one in the data on the computer outside the robot. By taking such a marking method, the robot can perform marking without polluting the human living environment, and by connecting the computer to the network and referencing the data from the outside, The behavior of the robot can be monitored from the ground. In addition, it becomes easy for a person to confirm or change the marking.
【0097】また、マーキングのために外部計算資源に
も特定地点に配置された非接触でデータ更新が可能なデ
ータタグを使用すれば、ロボットは物理的なマーキング
手段としての情報伝達媒体を持つ必要がない上に、マー
キングの数を一定にすることができるため、環境を汚染
することがない。Further, if a data tag which is arranged at a specific point and capable of updating data in a non-contact manner is used for marking, the robot must have an information transmission medium as a physical marking means. Moreover, since the number of markings can be kept constant, the environment is not polluted.
【0098】本実施の形態の自律行動ロボットのマーキ
ング方法は、自律行動ロボット同士の情報交換のために
も用いることが可能であり、複数台の自律掃除ロボット
に前述したような本実施の形態の構成を適用すれば、複
数の自律行動ロボットはお互いの作業領域をマークによ
り識別することが可能であるために、サーバなどによる
集中管理装置がない場合であっても効率的に作業を行な
うことができる。The marking method of the autonomous action robot according to the present embodiment can also be used for exchanging information between the autonomous action robots, and a plurality of autonomous cleaning robots according to the present embodiment as described above. If the configuration is applied, a plurality of autonomous action robots can identify each other's work areas by marks, so that work can be performed efficiently even if there is no centralized management device such as a server. it can.
【0099】なお、たとえば、自律行動ロボットの形状
を、犬などの動物を模したものにすれば、自律行動ロボ
ットが行なうマーキングは犬などの動物のマーキングで
あるかのような印象を与えるため、自律行動ロボットの
機械的な行動によりペットの動作を連想させることがで
きる。このような自律行動ロボットの行動を通じて使用
者に自律行動ロボットに対する親近感および安心感を与
えることができる。For example, when the shape of the autonomous action robot is imitated by an animal such as a dog, the marking performed by the autonomous action robot gives an impression as if it were marking of an animal such as a dog. The behavior of the pet can be associated with the mechanical behavior of the autonomous behavior robot. Through such an action of the autonomous action robot, it is possible to give the user a sense of familiarity and a sense of security with respect to the autonomous action robot.
【0100】なお、以上開示された実施の形態は、すべ
ての点で例示であって制限的なものではないと考えられ
るべきである。本発明の範囲は上記した説明ではなく、
特許請求の範囲によって示され、特許請求の範囲と均等
の意味および範囲内でのすべての変更が含まれることが
意図される。It should be understood that the embodiments disclosed above are illustrative in all points and not restrictive. The scope of the invention is not the above description,
It is intended to include all modifications within the meaning and range of equivalency of the claims, as indicated by the claims.
【0101】[0101]
【発明の効果】本発明の自律行動ロボットによれば、自
律行動ロボット自体が存在しなくても、他者が自律行動
ロボット自体の行動の態様に関する情報を認識すること
を可能となる。According to the autonomous action robot of the present invention, it is possible for another person to recognize the information regarding the behavior mode of the autonomous action robot itself, even if the autonomous action robot itself does not exist.
【0102】本発明の自律行動ロボットシステムによれ
ば、複数の自律行動ロボットを用いて協調して行動する
ことにより共同作業の効率を向上させることが可能とな
る。According to the autonomous action robot system of the present invention, it is possible to improve the efficiency of collaborative work by using a plurality of autonomous action robots to act in a coordinated manner.
【図1】 実施の形態1の自律移動型のロボットを説明
するための図である。FIG. 1 is a diagram for explaining an autonomous mobile robot according to a first embodiment.
【図2】 図1におけるマーキング装置の詳細を説明す
るための図である。FIG. 2 is a diagram for explaining the details of the marking device in FIG.
【図3】 実施の形態1の自律移動型のロボットの情報
記録方法を説明するための図である。FIG. 3 is a diagram for explaining an information recording method of the autonomous mobile robot according to the first embodiment.
【図4】 実施の形態1の自律移動型のロボットの情報
記録のパターンを説明するための図である。FIG. 4 is a diagram for explaining an information recording pattern of the autonomous mobile robot according to the first embodiment.
【図5】 実施の形態1の自律移動型のロボットの情報
記録結果の例を説明するための図である。FIG. 5 is a diagram for explaining an example of an information recording result of the autonomous mobile robot according to the first embodiment.
【図6】 実施の形態2の自律移動型のロボットの情報
記録方法を説明するための図である。FIG. 6 is a diagram for explaining an information recording method of the autonomous mobile robot according to the second embodiment.
【図7】 実施の形態3の自律移動型のロボットの情報
記録方法を説明するための図である。FIG. 7 is a diagram for explaining an information recording method of an autonomous mobile robot according to a third embodiment.
R ロボット、SU 路面、SU1f 床面、SU1w
壁面、SH シール、MA マークのパターン、MA
P マークのパターン、CA1−L,CA1−R ロボ
ット用カメラ、BA バッテリ、BOa 画像処理制御
基板、BObロボット制御基板、TI ロボットの車
輪、ST マーキング装置、ME マーキング装置の姿
勢調整機構、STr マーキング装置のローラ、STt
マーキング装置のテープ、RO1 ローラ回転方向、
AR 矢印、SS1 超音波発生装置、WLC1,WL
C2 無線通信装置、SSR1,SSR2,SSR3
超音波受信装置、COM1,COM2 通信データ、H
S コンピュータ、CA2天井に取付けたカメラ、PS
1,PS2 ロボットのバッテリ用の充電器。R robot, SU road surface, SU1f floor surface, SU1w
Wall, SH seal, MA mark pattern, MA
P mark pattern, CA1-L, CA1-R robot camera, BA battery, BOa image processing control board, BOb robot control board, TI robot wheel, ST marking device, ME marking device attitude adjustment mechanism, STr marking device Roller, STt
Marking device tape, RO1 roller rotation direction,
AR arrow, SS1 ultrasonic generator, WLC1, WL
C2 wireless communication device, SSR1, SSR2, SSR3
Ultrasonic receiver, COM1, COM2 communication data, H
S Computer, CA2 ceiling mounted camera, PS
1, PS2 Robot battery charger.
フロントページの続き Fターム(参考) 3B057 DA00 3C007 CS08 HS09 JS02 JS07 KS10 KT02 LV00 LV02 WA12 WA16 WC00 WC06 5H301 AA02 BB14 CC03 CC06 CC08 DD02 EE13 FF05 FF08 FF10 FF11 FF21 GG09 GG10 GG12 GG16 GG24 QQ04 Continued front page F-term (reference) 3B057 DA00 3C007 CS08 HS09 JS02 JS07 KS10 KT02 LV00 LV02 WA12 WA16 WC00 WC06 5H301 AA02 BB14 CC03 CC06 CC08 DD02 EE13 FF05 FF08 FF10 FF11 FF21 GG09 GG10 GG12 GG16 GG24 QQ04
Claims (16)
ることが可能な自律行動ロボットであって、 自律行動するための行動手段と、 該行動手段により実行された行動の態様に関する情報
を、外部において人が認識可能な態様で記録させるよう
に、外部へ出力することが可能な情報出力手段とを備え
た、自律行動ロボット。1. An autonomous action robot capable of autonomously acting without being operated by a person, the action means for performing autonomous action, and information on a mode of action executed by the action means. An autonomous action robot comprising: an information output unit capable of outputting to the outside so as to be recorded in a manner that can be recognized by a person outside.
境認識手段を備え、 該環境認識手段を用いて得られた周辺環境情報の解析を
行ない、該解析の結果に基づいて前記行動の態様を決定
する、自律行動ロボット。2. A surrounding environment recognizing means for recognizing a state of the surrounding environment, wherein the surrounding environment information obtained by using the environment recognizing means is analyzed, and the behavior mode is based on a result of the analysis. An autonomous action robot that determines
辺環境情報を含む情報である、請求項2に記載の自律行
動ロボット。3. The autonomous action robot according to claim 2, wherein the information regarding the behavior mode is information including the surrounding environment information.
態を画像として認識するための画像認識装置を含む、請
求項1〜3のいずれかに記載の自律行動ロボット。4. The autonomous action robot according to claim 1, wherein the surrounding environment recognition means includes an image recognition device for recognizing a state of the surrounding environment as an image.
動ロボットのための充電装置への経路を示す情報を含
む、請求項1〜4のいずれかに記載の自律行動ロボッ
ト。5. The autonomous action robot according to claim 1, wherein the information regarding the behavior mode includes information indicating a route to a charging device for the autonomous action robot.
輪と該車輪が接地する接地面との間での摩擦力により行
動可能とする車輪型行動機構である、請求項1〜5のい
ずれかに記載の自律行動ロボット。6. The wheel-type action mechanism according to claim 1, wherein the action means is a wheel-type action mechanism capable of acting by a frictional force between the wheel and a ground contact surface on which the wheel is grounded by rotation of the wheel. The autonomous behavior robot described in Crab.
より行動する脚型行動機構である、請求項1〜6のいず
れかに記載の自律行動ロボット。7. The autonomous action robot according to claim 1, wherein the action means is a leg type action mechanism that acts by walking motion of a plurality of legs.
人が認識可能な態様で記憶させる手法として、物理的な
情報伝達媒体を用いて外部環境そのものにマーキングす
る手法を用いる、請求項1〜7のいずれかに記載の自律
行動ロボット。8. The information output means uses a method of marking the external environment itself using a physical information transmission medium as a method of storing the information in a manner that can be recognized by a person in the outside. 7. The autonomous action robot according to any one of 1.
伝達媒体を用いて外部環境そのものにマーキングする手
法として、シールを外部環境へ貼り付ける手法を用い
る、請求項8に記載の自律行動ロボット。9. The autonomous action robot according to claim 8, wherein the information output means uses a method of attaching a sticker to the external environment as a method of marking the external environment itself using the physical information transmission medium. .
報伝達媒体を用いて外部環境そのものにマーキングする
手法として、内部に情報を記録可能なデータタグを含む
シールを外部環境へ貼り付ける手法を用いる、請求項8
または9に記載の自律行動ロボット。10. The method for marking the external environment itself by using the physical information transmission medium, wherein the information output means is a method of sticking a seal containing a data tag capable of recording information to the external environment. Use, Claim 8
Alternatively, the autonomous behavior robot according to Item 9.
データタグである、請求項10に記載の自律行動ロボッ
ト。11. The autonomous action robot according to claim 10, wherein the data tag is a data tag capable of non-contact communication.
て人が認識可能な態様で記憶させる手法として、コンピ
ュータに読取可能な記録媒体に記録させる手法を用い
る、請求項1〜7のいずれかに記載の自律行動ロボッ
ト。12. The method according to claim 1, wherein the information output means uses a method of recording on a computer-readable recording medium as a method of storing the information in a manner that can be recognized by a person in the outside. Autonomous behavior robot.
られ、非接触で通信可能なデータタグに対して、前記行
動の態様に関する情報を記録させる、請求項12に記載
の自律行動ロボット。13. The autonomous-behavior robot according to claim 12, wherein the information output unit is provided in an external environment and causes a data tag, which can communicate in a contactless manner, to record information about the behavior mode.
ボットに対して自己の内部の情報を送信することが可能
である、請求項1〜13のいずれかに記載の自律行動ロ
ボット。14. The autonomous action robot according to claim 1, wherein the information output means is capable of transmitting internal information of itself to another autonomous action robot.
御手段を備え、 該行動態様制御手段は、前記他の自律行動ロボットと協
調した行動をするように制御することが可能である、請
求項1〜14のいずれかに記載の自律行動ロボット。15. A behavior mode control means for controlling the mode of the behavior is provided, and the behavior mode control means can control to perform a behavior in cooperation with the other autonomous behavior robot. The autonomous action robot according to any one of 1 to 14.
律行動ロボットを複数使用して、該複数の自律行動ロボ
ットに共同作業を行なわせる、自律行動ロボットシステ
ム。16. An autonomous action robot system using a plurality of autonomous action robots according to claim 1, and causing the plurality of autonomous action robots to collaborate.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001372408A JP2003170376A (en) | 2001-12-06 | 2001-12-06 | Autonomously acting robot and autonomously acting robot system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001372408A JP2003170376A (en) | 2001-12-06 | 2001-12-06 | Autonomously acting robot and autonomously acting robot system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2003170376A true JP2003170376A (en) | 2003-06-17 |
Family
ID=19181311
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001372408A Withdrawn JP2003170376A (en) | 2001-12-06 | 2001-12-06 | Autonomously acting robot and autonomously acting robot system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2003170376A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010531485A (en) * | 2007-06-05 | 2010-09-24 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Self-moving robot control system and method |
JP2011134191A (en) * | 2009-12-25 | 2011-07-07 | Honda Motor Co Ltd | Orientation measuring device, orientation measuring system, orientation measuring method, and orientation measuring program |
JP6402266B1 (en) * | 2018-02-09 | 2018-10-10 | ユニティガードシステム株式会社 | Robot movement control system and movement control method |
CN112099504A (en) * | 2020-09-16 | 2020-12-18 | 深圳优地科技有限公司 | Robot moving method, device, equipment and storage medium |
US10976746B2 (en) | 2018-12-28 | 2021-04-13 | Caterpillar Paving Products Inc. | System and method to mark autonomous work area |
-
2001
- 2001-12-06 JP JP2001372408A patent/JP2003170376A/en not_active Withdrawn
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010531485A (en) * | 2007-06-05 | 2010-09-24 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Self-moving robot control system and method |
JP2011134191A (en) * | 2009-12-25 | 2011-07-07 | Honda Motor Co Ltd | Orientation measuring device, orientation measuring system, orientation measuring method, and orientation measuring program |
JP6402266B1 (en) * | 2018-02-09 | 2018-10-10 | ユニティガードシステム株式会社 | Robot movement control system and movement control method |
JP2019139516A (en) * | 2018-02-09 | 2019-08-22 | ユニティガードシステム株式会社 | Movement control system and movement control method for robot |
US10976746B2 (en) | 2018-12-28 | 2021-04-13 | Caterpillar Paving Products Inc. | System and method to mark autonomous work area |
CN112099504A (en) * | 2020-09-16 | 2020-12-18 | 深圳优地科技有限公司 | Robot moving method, device, equipment and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11465284B2 (en) | Restricting movement of a mobile robot | |
US20200150655A1 (en) | Method for controlling an autonomous, mobile robot | |
KR100988736B1 (en) | Home network system and method for moving the shortest path of autonomous mobile robot | |
CN108227699B (en) | Method for operating a vehicle with automatic forward motion | |
JP2018190391A (en) | Portable mobile robot and operation method thereof | |
CN110750097A (en) | Indoor robot navigation system and map building, positioning and moving method | |
JP2018190363A (en) | Portable mobile robot and operation method thereof | |
Khaliq et al. | Inexpensive, reliable and localization-free navigation using an RFID floor | |
JP2003170376A (en) | Autonomously acting robot and autonomously acting robot system | |
CN113084776B (en) | Intelligent epidemic prevention robot and system based on vision and multi-sensor fusion | |
JP2018005470A (en) | Autonomous mobile device, autonomous mobile method, and program | |
Wei et al. | An approach to navigation for the humanoid robot nao in domestic environments | |
US20220222944A1 (en) | Security camera drone base station detection | |
KR20100071748A (en) | Robot system for ball play and therefor robot termianl and therefof method | |
US20210107143A1 (en) | Recording medium, information processing apparatus, and information processing method | |
Martínez et al. | A proposal of a multi-agent system implementation for the control of an Assistant Personal Robot | |
Khaliq et al. | Point-to-point safe navigation of a mobile robot using stigmergy and RFID technology | |
Chakraborty et al. | A low cost autonomous multipurpose vehicle for advanced robotics | |
Fiala | A robot control and augmented reality interface for multiple robots | |
Hasan et al. | Application of a plug-and-play guidance module for hospital robots | |
US20230131425A1 (en) | System and method for navigating with the assistance of passive objects | |
Aydemir et al. | A Mapping and Monitoring Platform for Mobile Robots | |
Baltes et al. | Vision-based obstacle run for teams of humanoid robots | |
KR20240122372A (en) | Method of pose estimation and robot system using the same method | |
Baltes et al. | The Keystone Fire Brigade 2003. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20050301 |