JP2003345435A - Robot and robot system - Google Patents

Robot and robot system

Info

Publication number
JP2003345435A
JP2003345435A JP2002151148A JP2002151148A JP2003345435A JP 2003345435 A JP2003345435 A JP 2003345435A JP 2002151148 A JP2002151148 A JP 2002151148A JP 2002151148 A JP2002151148 A JP 2002151148A JP 2003345435 A JP2003345435 A JP 2003345435A
Authority
JP
Japan
Prior art keywords
robot
user
target
command
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002151148A
Other languages
Japanese (ja)
Inventor
Masahito Takuhara
雅人 宅原
Shintaro Kumano
信太郎 熊野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP2002151148A priority Critical patent/JP2003345435A/en
Publication of JP2003345435A publication Critical patent/JP2003345435A/en
Withdrawn legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a robot which effectively carriers material goods. <P>SOLUTION: The robot comprises an input unit (60) or a sensor (20) which acquires an instruction for carrying an objective material good from a user, an arithmetic unit (10) for retrieving a position for the objective material good from a material good database (56), and a communication unit (70) for communicating with another robot to obtain the position of the other robot. Furthermore, the arithmetic unit (10) refers to a map data (53) and selects one of the robots that execute the instruction or itself on the basis of the positions of the objective material good and the other robot. The communication unit (70) sends the instruction to the selected robot or executes the instruction by itself. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ロボットに関し、
特に利用者からの命令により物を運搬するロボットに関
する。
TECHNICAL FIELD The present invention relates to a robot,
In particular, the present invention relates to a robot that transports an object according to an instruction from a user.

【0002】[0002]

【従来の技術】利用者からの命令に従い作業を行なうロ
ボットが使用されている。利用者がロボットに、利用者
が持ってくることを要求する物(以下、目的物)を持っ
てくるように命令をすると、その目的物を探して持って
くるロボットが開発されている。しかし、従来のこのよ
うなロボットに、目的物を持ってくるよう命令した場
合、そのロボット自身がその命令を実行する。このた
め、命令を実行するために適当な位置に当該ロボットが
いない場合、当該ロボットが命令を実行するために長い
時間を要する場合がある。
2. Description of the Related Art A robot that performs a work in accordance with a command from a user is used. When a user instructs a robot to bring an object (hereinafter, an object) requested by the user, a robot has been developed which searches for the object and brings it. However, when such a conventional robot is instructed to bring an object, the robot itself executes the instruction. Therefore, when the robot is not at an appropriate position to execute the command, it may take a long time for the robot to execute the command.

【0003】また、ロボットは、目的物の同等品となる
ものが近くにある場合にも命令された遠くにある目的物
を取りに行く、または、位置がわからない目的物を探し
まわることがあるため、命令を実行するのに時間が掛か
ることがある。
[0003] In addition, the robot may go for a commanded distant object or search for an object whose position is unknown even when an object equivalent to the object is nearby. , It may take some time to execute the instruction.

【0004】さらに、目的物まで移動する経路が多様な
形状を有する場合、ロボットはその経路全てに対応する
移動手段を有する必要がある。具体的には、目的物まで
の移動経路に平坦な床と階段とがある場合、床と階段の
両方に対応する移動手段を有する必要がある。また、一
台のロボットが担当するエリアが広い場合、ロボットが
記憶する担当するエリアに関するデータ量が大きくなる
ことがある。
[0004] Further, when a route for moving to an object has various shapes, the robot needs to have moving means corresponding to all the routes. Specifically, when there is a flat floor and stairs on the movement route to the object, it is necessary to have moving means corresponding to both the floor and the stairs. Further, when the area assigned to one robot is large, the data amount of the assigned area stored by the robot may be large.

【0005】さらに、従来のロボットは利用者に目的物
を運んだ後、命令がなければその物を片付けない。利用
者がその物を片付ける場合、その物を決められた場所に
片付けなければ、次回ロボットがその物を探す時、ロボ
ットはその物がどこにあるか記憶していないため、試行
錯誤して探す必要がある。ロボットが、自ら運んできた
物を、運んできた場所、または、決められた場所に自動
的に片付けることが好ましい。
[0005] In addition, the conventional robot does not clear the object if there is no command after carrying the object to the user. If the user clears the object, if the user does not clear the object to the designated place, the next time the robot searches for the object, the robot does not remember where it is, so it is necessary to search by trial and error There is. It is preferable that the robot automatically cleans up the objects carried by the robot at the place where the objects have been carried or at a predetermined place.

【0006】[0006]

【発明が解決しようとする課題】物を効果的に運んでく
るロボットを提供すること。
SUMMARY OF THE INVENTION It is an object of the present invention to provide a robot that effectively carries an object.

【0007】[0007]

【課題を解決するための手段】以下に、[発明の実施の
形態]で使用する番号・符号を用いて、課題を解決する
ための手段を説明する。これらの番号・符号は、[特許
請求の範囲]の記載と[発明の実施の形態]の記載との
対応関係を明らかにするために付加されたものである
が、[特許請求の範囲]に記載されている発明の技術的
範囲の解釈に用いてはならない。
Means for solving the problem will be described below using the numbers and symbols used in the embodiments of the present invention. These numbers and symbols are added to clarify the correspondence between the description of [Claims] and the description of [Embodiments of the Invention]. It should not be used to interpret the technical scope of the described invention.

【0008】本発明によるロボット(1)は、入力部
(60)またはセンサ(20)と、通信部(70)と、
演算部(10)と、物の位置の情報を含む物データ(5
6)と特定の範囲の地図の情報を含む地図データ(5
3)を記憶している記憶部(50)と、を具備する。入
力部(60)またはセンサ(20)は、利用者から目的
物を運ぶ内容を含む命令を取得し、演算部(10)は、
物データ(56)から目的物の位置を検索し、通信部
(70)は、他のロボットと通信し、他のロボットの位
置を入手し、さらに、演算部(10)は、地図データ
(53)を参照し、目的物の位置と他のロボットの位置
から、命令を実施する他のロボットの一つ、もしくは自
分を選択し、通信部(70)は、選択されたロボットに
命令を送信する、もしくは、自分で命令を実行する。
[0008] A robot (1) according to the present invention comprises an input unit (60) or a sensor (20), a communication unit (70),
An operation unit (10) and object data (5
6) and map data (5) including information of a map in a specific range.
And a storage unit (50) for storing 3). The input unit (60) or the sensor (20) acquires a command including a content for carrying the target from the user, and the arithmetic unit (10)
The communication unit (70) communicates with another robot to obtain the position of another robot by searching for the position of the target object from the object data (56), and further, the arithmetic unit (10) outputs the map data (53). ), And selects one of the other robots to execute the command or itself from the position of the object and the position of the other robot, and the communication unit (70) transmits the command to the selected robot. Or, execute the instructions yourself.

【0009】本発明によるロボットシステムは、センサ
(20)又は入力部(60)と、通信部(70)と、記
憶部(50)と、演算部(10)と、動作機構(40)
を具備する複数のロボットが、特定の範囲内に存在す
る。複数のロボットの中の任意の第1ロボットが、、セ
ンサ(20)または入力部(60)で利用者から作業命
令を受け、他のロボットに作業情報を送信し、他のロボ
ットは作業情報を受信し、第1ロボットに作業に関する
情報を送信し、第1ロボットは、受信した作業に関する
情報から、作業を実施する他のロボット、または、自分
自身を選択し、選択されたロボットに作業を実施するよ
うに通信し選択されたロボットが作業を実施する、また
は、第1ロボットが自分自身で作業を実施する。
The robot system according to the present invention comprises a sensor (20) or an input unit (60), a communication unit (70), a storage unit (50), a calculation unit (10), and an operation mechanism (40).
Are within a specific range. An arbitrary first robot among the plurality of robots receives a work instruction from a user through the sensor (20) or the input unit (60), transmits work information to another robot, and the other robot receives the work information. Receiving and transmitting information about the work to the first robot, the first robot selects another robot to perform the work or itself from the received information about the work, and performs the work on the selected robot. The selected robot communicates to perform the work, or the first robot performs the work by itself.

【0010】本発明によるロボットシステムは、センサ
(20)又は入力部(60)と、通信部(70)と、記
憶部(50)と、演算部(10)と、動作機構(40)
を具備する複数のロボットが、特定の範囲内に存在す
る。各ロボットの記憶部(50)は、物の位置の情報を
含む物データ(56)と特定範囲の地図の情報を含む地
図データ(53)、及び自らの位置を含む位置情報を記
憶する。センサ(20)または入力部(60)で、利用
者から目的物を運ぶ作業に関する作業命令を受けた、複
数のロボット内の第1ロボットが、他のロボットに他の
ロボット自身の位置情報を送るよう送信命令を送信し、
他のロボットの各々は、送信命令を受信し、第1ロボッ
トに自分の位置情報を送信する。第1ロボットは、受信
した他のロボットの位置情報と自分の位置情報から、物
データ(56)と地図データ(53)を参照して、目的
物への移動経路が最も短い他のロボット、または、自分
自身を選択し、選択されたロボットに作業を実施するよ
うに通信する、または、第1ロボットが自分自身で作業
を実施する。
The robot system according to the present invention comprises a sensor (20) or an input unit (60), a communication unit (70), a storage unit (50), a calculation unit (10), and an operation mechanism (40).
Are within a specific range. The storage unit (50) of each robot stores object data (56) including information on the position of the object, map data (53) including information on a map in a specific range, and position information including its own position. A first robot among a plurality of robots, which receives a work instruction related to a work of carrying a target object from a user at a sensor (20) or an input unit (60), sends position information of the other robot to another robot. Send a send command like
Each of the other robots receives the transmission command and transmits its position information to the first robot. The first robot refers to the object data (56) and the map data (53) based on the received position information of the other robot and its own position information, and refers to another robot that has the shortest moving path to the object, or Select itself and communicate with the selected robot to perform the task, or the first robot performs the task on its own.

【0011】本発明によるロボットシステムは、センサ
(20)又は入力部(60)と、通信部(70)と、記
憶部(50)と、演算部(10)と、動作機構(40)
を具備する複数のロボットが、特定の範囲内に存在す
る。各ロボットの記憶部(50)は、物の位置の情報を
含む物データ(56)と特定範囲の地図の情報を含む地
図データ(53)、及び自らの位置を含む位置情報を記
憶する。センサ(20)または入力部(60)で、利用
者から目的物を運ぶ作業に関する作業命令を受けた、複
数のロボット内の第1ロボットが、他のロボットに作業
命令を送信し、他のロボットの各々は作業命令を受信
し、第1ロボットに、物データ(56)と地図データ
(53)を参照して、自分が作業命令を完了する場合に
予想される所要時間を送信する。第1ロボットは演算部
(10)で物データ(56)と地図データ(53)を参
照して、自分が作業命令を完了するのに予想される所要
時間を算出する。第1ロボットは、受信した他のロボッ
トの所要時間と自分の所要時間から、所要時間が最も短
い他のロボット、または、自分自身を選択し、選択され
たロボットに作業命令を実施するように通信する、また
は、第1ロボットが自分自身で作業命令を実施する。
The robot system according to the present invention comprises a sensor (20) or an input unit (60), a communication unit (70), a storage unit (50), a calculation unit (10), and an operation mechanism (40).
Are within a specific range. The storage unit (50) of each robot stores object data (56) including information on the position of the object, map data (53) including information on a map in a specific range, and position information including its own position. A first robot among the plurality of robots, which receives a work command related to a task of carrying a target object from a user at the sensor (20) or the input unit (60), transmits the work command to another robot, and outputs the other robot. Receives the work command and transmits the expected time required to complete the work command to the first robot with reference to the object data (56) and the map data (53). The first robot refers to the object data (56) and the map data (53) in the calculation unit (10) and calculates the expected time required for completing the work command. The first robot selects the other robot or the shortest required time from the received required time of the other robot and its own required time, and communicates so as to execute a work instruction to the selected robot. Or the first robot executes the work command by itself.

【0012】本発明によるロボットは、入力部(60)
またはセンサ(20)と、記憶部(50)と、演算部
(10)と、動作機構(40)を具備する。記憶部(5
0)は、物の位置を含む物位置情報と、物と同等の機能
を有する同等品を関連付ける同等品リストを含む物デー
タ(56)を記憶する。入力部(60)またはセンサ
(20)は、利用者から目的物を持ってくる内容を含む
命令を受ける。演算部(10)は、同等品リストを参照
して目的物の同等品を検索し、物位置情報から目的物と
同等品の位置を検索し、目的物より同等品の方が命令を
実施するのに有利な場合に、同等品を持ってくるように
動作機構(50)を制御する。
The robot according to the present invention has an input unit (60).
Alternatively, it includes a sensor (20), a storage unit (50), a calculation unit (10), and an operation mechanism (40). Storage unit (5
0) stores the item position information including the position of the item and the item data (56) including the equivalent item list relating the equivalent item having the same function as the item. The input unit (60) or the sensor (20) receives a command including contents for bringing a target from a user. The operation unit (10) searches for an equivalent of the target product with reference to the equivalent product list, searches for the position of the equivalent of the target product from the object position information, and executes the instruction of the equivalent product from the target product. If it is advantageous to control the operation mechanism (50) to bring an equivalent product.

【0013】上記の同等品の方が命令を実施するのに有
利な場合は、目的物より同等品の位置が近い場合、目的
物の位置の情報がない場合、目的物より同等品が軽い場
合、目的物より同等品が速く運搬できる場合のいずれか
である。
In the case where the above-mentioned equivalent product is more advantageous for executing the command, when the position of the equivalent product is closer to the target product, when there is no information on the position of the target product, or when the equivalent product is lighter than the target product Either the case where the equivalent can be transported faster than the target.

【0014】さらに、出力部(30)を具備し、同等品
の方が命令を実施するのに有利な場合に、出力部(3
0)は、利用者に同等品を持ってくることを確認する質
問を出力する。入力部(60)またはセンサ(20)
で、質問に対する利用者の反応を検出し、演算部(1
0)は、反応から同等品を持ってくることを決定する。
Further, an output unit (30) is provided, and when an equivalent product is more advantageous for executing the instruction, the output unit (3) is provided.
0) outputs a question to the user to confirm that an equivalent product will be brought. Input unit (60) or sensor (20)
Then, the response of the user to the question is detected, and the calculation unit (1
0) decides to bring an equivalent from the reaction.

【0015】本発明のロボットシステムは、複数のエリ
ア内の第1エリアを担当する第1ロボットと、第1エリ
アに隣接する第2エリアを担当する第2ロボットとを含
む。第1ロボットが利用者から第2エリアにある目的物
を持ってくるように命令を受けた時に、第1ロボットは
第2ロボットに、目的物を第1エリアと第2エリアの境
に持ってくるよう通信する。第2ロボットは、目的物を
境に運搬する。第1ロボットは、目的物を境から利用者
に運搬する。
[0015] The robot system of the present invention includes a first robot in charge of a first area in a plurality of areas, and a second robot in charge of a second area adjacent to the first area. When the first robot receives a command from the user to bring the target in the second area, the first robot holds the target at the boundary between the first and second areas by the second robot. Communicate. The second robot transports the target to the boundary. The first robot transports the object from the boundary to the user.

【0016】本発明のロボットシステムは、複数のエリ
ア内の第1エリアを担当する第1ロボットと、第1エリ
アに隣接する第2エリアを担当する第2ロボットとを含
む。第1ロボットおよび第2ロボットの各々は、入力部
(60)またはセンサ(20)と、記憶部(50)と、
演算部(10)と、通信部(70)と、および、動作機
構(40)と、を具備する。記憶部(50)は、物の位
置情報を含む物データ(56)を記憶する。第1ロボッ
トが、入力部(60)またはセンサ(20)で、利用者
から目的物を持ってくるように命令を受ける。第1ロボ
ットの演算部(10)は、物データ(56)を参照し、
目的物が第2エリアにあることを認識した場合に、第1
ロボットは通信部(70)により、第2ロボットに、目
的物を第1エリアと第2エリアの境に持ってくるよう通
信する。第2ロボットは、第1ロボットのから通信を受
信し、目的物を探索して、目的物を境に運搬する。第1
ロボットは、目的物を境から利用者に運搬する。
[0016] The robot system of the present invention includes a first robot in charge of a first area in a plurality of areas, and a second robot in charge of a second area adjacent to the first area. Each of the first robot and the second robot includes an input unit (60) or a sensor (20), a storage unit (50),
An operation unit (10), a communication unit (70), and an operation mechanism (40) are provided. The storage unit (50) stores object data (56) including position information of the object. The first robot receives a command from an input unit (60) or a sensor (20) to bring an object from a user. The operation unit (10) of the first robot refers to the object data (56),
If it recognizes that the object is in the second area,
The robot communicates with the second robot via the communication unit (70) so as to bring the target object to the boundary between the first area and the second area. The second robot receives the communication from the first robot, searches for the target, and transports the target to the boundary. First
The robot transports the object to the user from the border.

【0017】本発明ロボットは、利用者からの命令によ
り目的物を持ってくる機能を有する。さらに本発明ロボ
ットは、利用者が目的物を使用していることを監視し、
利用者が目的物の使用が終了した動作を検出し、目的物
を、持ってきた位置に戻す。
The robot of the present invention has a function of bringing an object according to a command from a user. Furthermore, the robot of the present invention monitors that the user is using the object,
The user detects the end of use of the object and returns the object to the brought position.

【0018】本発明のロボットは、演算部(10)と、
センサ(20)と、物の片付け位置、及び、物と物に対
応する使用終了動作を対応付ける情報を含む物データ
(56)を記憶する記憶部(50)と、利用者からの命
令により目的物を運搬する機能(40)と、を具備す
る。センサ(20)は、利用者が目的物を使用している
動作を検出する。演算部(10)は、物データを参照し
て、利用者の動作が、目的物の使用終了動作であること
を検出したとき、目的物を片付け位置に戻すように、目
的物を運搬する機能(40)を制御する。
The robot according to the present invention comprises: an arithmetic unit (10);
A sensor (20), a storage unit (50) for storing object data (56) including information for associating an object clearing position and an end-of-use operation corresponding to the object, and a target object according to an instruction from a user (40) for transporting The sensor (20) detects an operation in which the user is using the target object. The operation unit (10) refers to the object data and, when detecting that the operation of the user is the operation of ending the use of the object, transports the object so as to return the object to the clearing position. (40) is controlled.

【0019】上記において、利用者の命令により目的物
を運んできた場合、ロボットは目的物を運んできた位置
を記憶し、片付け位置は、運んできた場所である。
In the above, when the object is carried by the user's command, the robot stores the position where the object is carried, and the clearing position is the place where the object is carried.

【0020】[0020]

【発明の実施の形態】添付図面を参照して、本発明によ
るロボットの実施の形態を以下に説明する。本発明のロ
ボット1は、利用者の命令に従って、移動する、物を持
ってくる、などの作業を行なうことができるロボット1
に代表される。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of a robot according to the present invention will be described below with reference to the accompanying drawings. The robot 1 according to the present invention is capable of performing operations such as moving, bringing an object, etc. according to a user's command.
Is represented by

【0021】図1にロボット1の、外観の例を示す。図
1に示されるロボット1は、頭部2、胴部3を持ち、カ
メラ21、マイク22、モニタ31、スピーカ32、ア
ーム42、移動機構41、ハンド43、通信装置70等
を具備しているロボット1が例示されている。ロボット
1は、人間の各部に対応した位置に、同様の機能を持つ
センサや出力装置を備えることが、人とのコミュニケー
ションをとる上で好ましい。具体的には、頭部2の人の
目に対応する位置にカメラ21を備え、口の位置にスピ
ーカ32を備え、耳の位置にマイク22を備えることで
ある。また、人間の腕の様に肩および肘に可動部を持
ち、手振りや踊りができることである。人はロボット1
の顔の部分を見てロボット1に話し掛けるため、ロボッ
ト1の顔に相当する位置にカメラ21を備えることで、
対面する人の顔の画像を撮影することができる。人間に
近い構成を持つことで、ロボット1を使用する人は、ロ
ボット1に親近感を持ち、ロボット1を人と擬制して扱
うようになる。特に、介護に使用されるロボット1にお
いては、利用者に親近感を持たれ、家族や友人のように
感じられるロボット1が望まれる。
FIG. 1 shows an example of the appearance of the robot 1. The robot 1 shown in FIG. 1 has a head 2 and a trunk 3, and includes a camera 21, a microphone 22, a monitor 31, a speaker 32, an arm 42, a moving mechanism 41, a hand 43, a communication device 70, and the like. The robot 1 is illustrated. It is preferable that the robot 1 be provided with sensors and output devices having similar functions at positions corresponding to various parts of a human in order to communicate with humans. Specifically, the camera 21 is provided at a position corresponding to the human eye of the head 2, the speaker 32 is provided at the mouth, and the microphone 22 is provided at the position of the ear. In addition, it has a movable part on the shoulder and elbow like a human arm, and can perform hand gestures and dance. Human is robot 1
The camera 21 is provided at a position corresponding to the face of the robot 1 in order to talk to the robot 1 while looking at the face of the robot 1.
An image of the face of the person facing can be taken. By having a configuration close to a human, a person who uses the robot 1 has a feeling of closeness to the robot 1 and treats the robot 1 as if it were a human. In particular, in the case of the robot 1 used for nursing care, it is desired that the robot 1 be provided with a feeling of closeness to the user and be felt like a family or a friend.

【0022】図2にロボット1の構成を示す。ロボット
1は、演算装置10、センサ20、出力装置30、動作
装置40、記憶装置50、入力装置60、通信装置70
を具備する。
FIG. 2 shows the configuration of the robot 1. The robot 1 includes an arithmetic device 10, a sensor 20, an output device 30, an operation device 40, a storage device 50, an input device 60, a communication device 70
Is provided.

【0023】演算装置10は、機能的には中央演算部1
1、センサ情報処理部12、出力装置制御部13、動作
装置制御部14、通信情報処理部17を具備する。演算
装置10の上記各部は機能上の分類であり、装置の構成
は単数もしくは複数のCPUを具備するコンピュータに
代表される。
The arithmetic unit 10 is functionally the central processing unit 1
1, a sensor information processing unit 12, an output device control unit 13, an operation device control unit 14, and a communication information processing unit 17. The above-described units of the arithmetic device 10 are classified according to functions, and the configuration of the device is represented by a computer having one or more CPUs.

【0024】センサ情報処理部12は、センサ20が検
出した情報を処理し、中央演算部11に送信する。セン
サ情報処理部12はセンサ20の種類により、個別に構
成されてもよい。具体的には、カメラ21には画像処理
部が対応し、マイク22には音声処理部が対応する等で
ある。
The sensor information processing section 12 processes information detected by the sensor 20 and transmits the processed information to the central processing section 11. The sensor information processing unit 12 may be individually configured depending on the type of the sensor 20. Specifically, the camera 21 corresponds to an image processing unit, the microphone 22 corresponds to an audio processing unit, and so on.

【0025】出力装置制御部13は、中央演算部11が
決定した出力に関する指令に対応して、出力装置30の
制御を行なう。出力装置制御部13は、出力装置30の
種類により、個別に構成されてもよい。動作装置制御部
14は、中央演算部11が決定した動作に関する指令に
対応して、動作装置40の制御を行なう。動作装置制御
部14は、動作装置40の種類により、個別に構成され
てもよい。
The output device control unit 13 controls the output device 30 in accordance with the output command determined by the central processing unit 11. The output device control unit 13 may be individually configured depending on the type of the output device 30. The operating device control unit 14 controls the operating device 40 in response to the command regarding the operation determined by the central processing unit 11. The operating device control unit 14 may be individually configured depending on the type of the operating device 40.

【0026】センサ20は、カメラ21、マイク22、
赤外線センサ23、重量感知器24、触覚感知器25、
姿勢感知器26などに代表され、ロボット1に要求され
る機能に合わせ、必要なセンサが、単数または複数選択
されて装着される。
The sensor 20 includes a camera 21, a microphone 22,
Infrared sensor 23, weight sensor 24, tactile sensor 25,
One or a plurality of necessary sensors are selected and mounted according to the function required for the robot 1 as represented by the posture sensor 26 and the like.

【0027】カメラ21はCCDカメラに代表され、目
的物の探索ための撮影、ロボット1の移動時に経路上の
障害物を検出するための撮影、人を探索するための撮影
などに使用される。カメラ21で撮影された画像は、セ
ンサ情報処理部12で画像処理される。
The camera 21 is typified by a CCD camera, and is used for photographing for searching for an object, photographing for detecting an obstacle on a route when the robot 1 is moving, photographing for searching for a person, and the like. The image captured by the camera 21 is subjected to image processing by the sensor information processing unit 12.

【0028】マイク22は、人の声を含む音声を検出
し、命令の音声入力に使用される。さらに、マイク22
は、電子メールの音声入力、または、周辺の情報収集等
にも使用される。
The microphone 22 detects a voice including a human voice, and is used for voice input of a command. In addition, the microphone 22
Is also used for voice input of e-mail or for gathering information about the surroundings.

【0029】赤外線センサ23は、2点間の赤外線が切
断されることにより人や物の存在を確認するセンサや、
温度差により人の存在等を検出する赤外線カメラに代表
される。
The infrared sensor 23 detects the presence of a person or an object by cutting off infrared rays between two points,
It is represented by an infrared camera that detects the presence of a person or the like based on a temperature difference.

【0030】重量感知器24は、ロボット1がものを持
ったときに重さを感知したり、物を持っていることを検
出したりする。触覚感知器25は、物にぶつかったこと
や、持っている物の固さ、もしくは利用者に撫でられ
た、または、叩かれたことを検知する。また、指紋など
を検出する機能を有することもできる。姿勢感知器26
は、ロボット1が自身の姿勢を感知し、感知結果は移動
時などの姿勢制御に使用される。
The weight sensor 24 senses the weight when the robot 1 holds an object, and detects that the robot 1 has an object. The tactile sensor 25 detects a collision with an object, the hardness of an object being held, or a stroke or a tap of a user. Further, a function of detecting a fingerprint or the like can be provided. Posture sensor 26
Is used, the robot 1 senses its own posture, and the sensing result is used for posture control at the time of movement or the like.

【0031】出力装置30は、モニタ31、スピーカ3
2、発光部33、印刷部34などに代表され、ロボット
1の機能に合わせ、必要な出力装置が単数または複数選
択されて装着される。
The output device 30 includes a monitor 31 and a speaker 3
2. One or a plurality of necessary output devices are selected and mounted according to the function of the robot 1 as represented by the light emitting unit 33, the printing unit 34, and the like.

【0032】モニタ31は、液晶ディスプレイ等に代表
され、情報の表示、電子メールの表示等を行なう。
The monitor 31 is typified by a liquid crystal display or the like, and displays information, e-mail, and the like.

【0033】スピーカ32は、音声や音楽を出力する。
スピーカ32は、音声による情報提示やロボット1の会
話に使用される。
The speaker 32 outputs voice and music.
The speaker 32 is used for presenting information by voice and talking with the robot 1.

【0034】発光部33は、ロボットの顔に当たる部分
に設置されるLEDなどに代表される。ロボット1の情
況、文字、表情等を示すことが出来る。
The light emitting section 33 is represented by an LED or the like installed at a portion corresponding to the robot's face. The situation, characters, facial expressions, etc. of the robot 1 can be shown.

【0035】印刷部34は、利用者の命令によりデータ
を印刷する場合等に使用される。
The printing unit 34 is used for printing data according to a user's command.

【0036】動作装置40は、移動機構41、アーム4
2、ハンド43、本体・首の動作機構44に代表され、
ロボット1の機能に合わせ、必要な動作装置が単数また
は複数選択されて装着される。
The operating device 40 includes a moving mechanism 41, an arm 4
2, represented by the hand 43, the body / neck movement mechanism 44,
One or a plurality of necessary operating devices are selected and mounted according to the function of the robot 1.

【0037】移動機構41は、ロボット1が移動するた
めの機構で、2足歩行用脚、4足歩行用脚、その他の移
動用脚、車輪、クローラ等に代表され、ロボット1が移
動する場所や移動スピードに合わせて選択される。移動
機構41は、利用者の命令に応答して作業をする場合に
使用される。移動機構41はロボット1が担当する範囲
を移動できるように選択されて設置される。
The moving mechanism 41 is a mechanism for moving the robot 1 and is represented by a bipedal leg, a quadrupedal leg, other moving legs, wheels, a crawler, etc., and is a place where the robot 1 moves. Or according to the moving speed. The moving mechanism 41 is used when working in response to a user command. The moving mechanism 41 is selected and installed so that the robot 1 can move in a range in which the robot 1 is in charge.

【0038】アーム42は、人の腕に相当する機能を有
し、ロボット1の本体に可動的に取り付けられ、アーム
42の先端にハンド43が取り付けられる。アーム42
は、利用者の命令に応答して動作をする場合に使用され
る。ハンド43は、アーム42の先に取り付けられ、物
を掴む機能を有する。ハンド43も、利用者の命令に応
答して動作をする場合に使用される。アーム42とハン
ド43により、ロボット1は物を把持することができ
る。
The arm 42 has a function equivalent to a human arm, is movably attached to the main body of the robot 1, and a hand 43 is attached to the tip of the arm 42. Arm 42
Is used when operating in response to a user command. The hand 43 is attached to the tip of the arm 42 and has a function of grasping an object. The hand 43 is also used when operating in response to a user command. The arm 1 and the hand 43 allow the robot 1 to grasp an object.

【0039】本体・首の動作機構44は、本体・首を振
ったり、回したりする機構で、方向転換、会話している
人の方へ向きの変更、センサ20の向きを変更するため
に使用される。
The main body / neck movement mechanism 44 is a mechanism for shaking or turning the main body / neck, and is used to change the direction, change the direction toward the person who is talking, and change the direction of the sensor 20. Is done.

【0040】記憶装置50は、動作履歴51、通信情報
52、地図/領域情報53、個人認証データ54、物デ
ータ56、などのデータから、ロボット1に要求される
機能に合わせ、必要なデータを記憶している。
The storage device 50 stores necessary data from data such as an operation history 51, communication information 52, map / area information 53, personal authentication data 54, and object data 56 in accordance with a function required for the robot 1. I remember.

【0041】動作履歴51は、ロボット1が行なった動
作を時間毎に記録したデータである。動作履歴により行
動パターンやルーチンの行動を認識し、効率よい行動パ
ターンを学習することに利用される。
The operation history 51 is data in which the operation performed by the robot 1 is recorded for each time. It is used to recognize an action pattern or a routine action based on the action history and to learn an efficient action pattern.

【0042】通信情報52は、電子メールなどの受信履
歴及び内容、担当する人のメールアドレス、メールサー
バ情報、アドレス帖などの通信に関する情報を含む。ま
た、他のロボットと通信により通信した情報を一次的に
記憶することもできる。地図/領域情報53は、ロボッ
ト1が移動するエリアの地図情報、担当する人に関連付
けられた場所、物の位置、障害物情報などの情報を含
む。また、地図/領域情報53は特定の範囲にいる他の
ロボットの位置や、そのロボットが担当する範囲の情報
を含む。地図/領域情報53は、ロボット1が移動した
ときに入手される情報により、順次更新されることが好
ましい。
The communication information 52 includes information related to communication such as reception history and contents of electronic mail and the like, a mail address of a person in charge, mail server information, and an address book. Further, information communicated by communication with another robot can be temporarily stored. The map / area information 53 includes information such as map information of an area where the robot 1 moves, a place associated with a person in charge, a position of an object, and obstacle information. Further, the map / area information 53 includes information on the position of another robot in a specific range and information on the range in which the robot is in charge. It is preferable that the map / area information 53 is sequentially updated by information obtained when the robot 1 moves.

【0043】個人認証データ54は、個人認証に使用さ
れるデータ、具体的には顔、指紋、手形、虹彩、声紋、
体型(骨格)などの特徴量、もしくは、暗証番号、ID
カード等に記憶された磁気もしくは電気的な情報などの
IDデータと、個人名を関連付ける情報を含む。個人認
証は、中央演算部11が、個人認証データ54と、セン
サ20や入力装置60から入手した特徴量やIDデータ
を基に行なう。使用されるデータは、いずれか一つ、も
しくはいずれかの組合せにより行なわれる。個人認証
は、ロボット1が特定の人にのみ使用される場合に、利
用者を特定するために使用される場合がある。また、物
を渡すときに、相手が適当であるか個人認証を行なうこ
とができる。
The personal authentication data 54 includes data used for personal authentication, specifically, face, fingerprint, handprint, iris, voiceprint,
Features such as body type (skeleton), or PIN, ID
It includes information that associates ID data such as magnetic or electrical information stored on a card or the like with a personal name. The personal authentication is performed by the central processing unit 11 based on the personal authentication data 54 and the feature amount and ID data obtained from the sensor 20 and the input device 60. The data used is performed by any one or any combination. Personal authentication may be used to identify a user when the robot 1 is used only by a specific person. Also, when delivering a product, personal authentication can be performed as to whether the other party is appropriate.

【0044】物データ56は、ロボット1が担当するエ
リアもしくは特定のエリアにある物の情報と、その位
置、形、色、大きさ、重さ、機能等が関連付けられてい
る。物データ56は、ロボット1が物を探す場合などに
使用される。さらに、物データ55は、ある物の同等品
または同じ機能を有する物を、その物と関連付ける同等
品リストを含んでいる。具体的には、鉛筆とボールペ
ン、はさみとカッターなどを関連付けるリストである。
さらに、物データには、物とその物を利用者が使用する
動作、および、使用を終了した場合の動作を関連付ける
情報を含む場合がある。
The object data 56 is associated with information on an object in an area in which the robot 1 is in charge or a specific area, and its position, shape, color, size, weight, function, and the like. The object data 56 is used when the robot 1 searches for an object. Further, the object data 55 includes an equivalent item list for associating an equivalent item of an object or an item having the same function with the object. Specifically, it is a list that associates pencils and ballpoint pens, scissors and cutters, and the like.
Further, the object data may include information that associates an object with an operation in which a user uses the object and an operation when the use is terminated.

【0045】入力装置60は、スイッチ61、キー6
2、カード読取装置63に代表され、ロボット1の機能
に合わせ、必要な入力装置が単数または複数選択されて
装着される。
The input device 60 includes a switch 61 and a key 6
2. One or a plurality of necessary input devices are selected and mounted according to the function of the robot 1, as represented by the card reader 63.

【0046】スイッチ61は、電源や各種設定などをす
るスイッチである。複数のキー62はキーボード等を形
成し、暗証番号の入力や各種設定、命令を入力すること
ができる。また、利用者は、キー62で電子メールや文
章等の入力をすることができる。カード読取装置63
は、個人認証時に、IDカードの磁気や電気的信号を読
み取るために使用される場合がある。
The switch 61 is a switch for performing power supply, various settings, and the like. The plurality of keys 62 form a keyboard or the like, and can input a personal identification number, various settings, and commands. Further, the user can input an e-mail, a text, and the like with the key 62. Card reader 63
May be used to read the magnetic and electrical signals of the ID card during personal authentication.

【0047】通信装置70は、送受信部71を具備し、
インターネットやイントラネットを通じて、電子メール
等の情報を送受信できる。通信は、無線通信であること
が好ましい。さらに、ロボット1は、通信装置70を使
用して、他のロボットと通信することができる。ロボッ
ト1は他のロボットとの通信により、他のロボットの位
置情報や目的物の位置情報を入手することができる。ま
た、他のロボットに、利用者から命令された作業もしく
は作業の一部を行なうように命令を送信することができ
る。
The communication device 70 includes a transmission / reception unit 71,
Information such as e-mail can be transmitted and received via the Internet or an intranet. Preferably, the communication is a wireless communication. Further, the robot 1 can use the communication device 70 to communicate with another robot. The robot 1 can obtain the position information of the other robot and the position information of the target object by communicating with the other robot. Further, a command can be transmitted to another robot to perform a task or a part of the task instructed by the user.

【0048】(実施の形態1)本実施の形態では、同じ
エリアもしくは重複するエリアを担当するロボットがロ
ボット1の他に複数または単数存在しいる。ロボット1
が利用者から目的物を持ってくるように命令された場
合、ロボット1は、単数もしくは複数の他のロボットと
通信して各ロボットの位置情報を入手する。ロボット1
は、目的物の位置情報と入手した各ロボットの位置情報
から、命令を実行するロボット(以下、ロボット1’)
を選択して、利用者からの命令を実行するよう命令を送
信する。適当な位置にいるロボット1’により命令が実
行されることにより、ロボット1が命令を実行するより
迅速に命令が実施される。
(Embodiment 1) In this embodiment, a plurality or a single robot other than the robot 1 is in charge of the same area or an overlapping area. Robot 1
Is instructed by the user to bring the object, the robot 1 communicates with one or more other robots and obtains position information of each robot. Robot 1
Is a robot that executes an instruction from the position information of the target object and the obtained position information of each robot (hereinafter, robot 1 ′).
To send a command to execute the command from the user. Execution of the command by the robot 1 'at an appropriate position allows the command to be executed more quickly than the robot 1 executes the command.

【0049】図3を参照して、実施の形態1のロボット
1及びロボット1’の動作が説明される。利用者に近い
位置にいるロボット1が、入力装置70もしくはセンサ
20で利用者から目的物を持ってくるように命令を受け
る(SA1)。ロボット1は、演算装置10で物データ
56を検索して、目的物の位置を確認する(SA2)。
ロボット1は、通信装置70で、複数または単数の他の
ロボットと通信し(SA3)、他のロボットの位置を入
手する(SA4)。ロボット1は、演算装置10で、入
手した他のロボットの位置、自分の位置、目的物の位置
を、地図/領域データを参照して確認し、各ロボットの
目的物までの移動経路を作成する。ロボット1の演算装
置10は、移動経路から最も目的物に近いロボット1’
を選択する(SA5)。ロボット1は、利用者からの命
令、および、目的物の位置、命令者の位置を選択された
ロボット1’に通信装置70で無線で送信する(SA
6)。ロボット1は、自分が一番速く目的物へ移動でき
る時は、自分を選択し、自分で命令を実行する。
With reference to FIG. 3, the operation of the robot 1 and the robot 1 'according to the first embodiment will be described. The robot 1 located at a position close to the user receives a command from the user using the input device 70 or the sensor 20 to bring the target (SA1). The robot 1 searches the object data 56 with the arithmetic unit 10 to confirm the position of the target object (SA2).
The robot 1 communicates with a plurality or a single other robot through the communication device 70 (SA3), and obtains the position of the other robot (SA4). The robot 1 checks the obtained position of the other robot, its own position, and the position of the target object with reference to the map / area data by the arithmetic unit 10, and creates a movement route of each robot to the target object. . The arithmetic unit 10 of the robot 1 is a robot 1 ′ that is closest to the target object from the movement path.
Is selected (SA5). The robot 1 wirelessly transmits the command from the user, the position of the target object, and the position of the commander to the selected robot 1 'by wireless communication using the communication device 70 (SA).
6). When the robot 1 can move to the target fastest, the robot 1 selects itself and executes a command by itself.

【0050】選択されたロボット1’は、通信装置70
で命令内容を受信する(SB1)。命令内容には、目的
物の位置、および、利用者の位置が含まれる。ロボット
1’は、演算装置10で、記憶装置50で記憶している
地図/領域情報53を参照し、受信した目的物の位置を
確認して、移動機構41で目的物の位置まで移動する
(SB2)。ロボット1’は、目的物の位置を受信しな
いで、記憶している地図/領域情報53を参照して、目
的物を探索することもできる。ロボット1’は、目的物
が既定の位置になかった場合は、センサ20等で目的物
の探索を行なう。他のロボットに探索するよう命令を送
信し、通信しながら協働で探索することもできる。ロボ
ット1’は、センサ20で目的物を見つけた場合、物デ
ータを参照して目的物を確認し、動作装置40で目的物
を把持する(SB3)。
The selected robot 1 'is connected to the communication device 70
Receives the instruction content (SB1). The instruction content includes the position of the object and the position of the user. The robot 1 ′ refers to the map / region information 53 stored in the storage device 50 with the arithmetic device 10, confirms the position of the received target, and moves to the position of the target with the moving mechanism 41 ( SB2). The robot 1 'can also search for the target by referring to the stored map / area information 53 without receiving the position of the target. If the target object is not at the predetermined position, the robot 1 'searches for the target object using the sensor 20 or the like. It is also possible to send a command to another robot to search, and to search cooperatively while communicating. When the robot 1 'finds an object with the sensor 20, the robot 1' checks the object with reference to the object data, and holds the object with the operation device 40 (SB3).

【0051】ロボット1’は、受信した利用者の位置に
基づき、動作機構40で目的物を把持したまま、移動機
構41で利用者の近くに移動する(SB4)。ロボット
1’は、利用者に目的物を渡す(SB5)。
The robot 1 'moves closer to the user by the moving mechanism 41 based on the received position of the user, while holding the target by the operating mechanism 40 (SB4). The robot 1 'delivers the target to the user (SB5).

【0052】このように、目的物に経路上最も近いロボ
ット1’が選択されて、命令が実行されるため、命令を
受けたロボット1が目的物を取りに行くより、命令が迅
速に実行される。
As described above, since the robot 1 'closest to the target on the route is selected and the command is executed, the command is executed more quickly than the robot 1 receiving the command picks up the target. You.

【0053】本実施の形態では、命令を受けたロボット
1が、他のロボットの位置を受信して、命令を実行する
ロボット1’を選択したが、位置に限らず以下の方法で
選択することも出来る。他のロボットに命令内容(物の
位置、物の情報、利用者の位置を含む)を送信し、送信
されたロボットは、現在の作業内容、自己の運搬能力、
移動経路などから、それぞれ命令を実施できる予想時間
を算出し、ロボット1に送信する。各ロボットの命令を
実施できる予想時間をロボット1が受信し、ロボット1
が、最も短時間で命令を遂行できるロボット1’を選択
し、命令を実行するよう命令を送信する。このように各
ロボットの作業の予想時間から実施するロボット1’を
選択することにより、他のロボットが他の作業している
場合や、ロボット毎に機能や能力が異なる場合でも、命
令を最も迅速に遂行できるロボット1’を選択すること
ができる。
In the present embodiment, the robot 1 receiving the instruction receives the position of another robot and selects the robot 1 'that executes the instruction. However, the robot 1 is not limited to the position but may be selected in the following manner. You can also. Send the command contents (including the position of the object, the information of the object, and the position of the user) to the other robots, and the transmitted robots will perform the current work,
The estimated time at which each command can be executed is calculated from the moving route and the like, and transmitted to the robot 1. The robot 1 receives the estimated time at which each robot command can be executed, and the robot 1
Selects the robot 1 'that can execute the command in the shortest time, and transmits the command to execute the command. In this way, by selecting the robot 1 'to be executed based on the estimated time of the operation of each robot, even if another robot is performing another operation, or the function or ability differs for each robot, the instruction can be executed quickly. Can be selected.

【0054】(実施の形態2)本実施の形態では、図4
を参照して、利用者がロボット1に目的物をも持ってく
るように命令した場合に、ロボット1の記憶部に目的物
の位置が記憶されていない場合や、ロボット1の担当範
囲に目的物がない場合、目的物の位置が遠く命令の実施
に既定以上の時間が掛かる場合に、ロボット1が目的物
の同等品を選択して持って来る動作が説明される。
(Embodiment 2) In this embodiment, FIG.
, If the user instructs the robot 1 to bring the target object, the position of the target object is not stored in the storage unit of the robot 1, or the target In the case where there is no object, if the position of the object is far and it takes more than a predetermined time to execute the command, an operation in which the robot 1 selects and brings an equivalent product of the object will be described.

【0055】利用者は、ロボット1に目的物を持ってく
るように命令を伝える(SC1)。ロボット1は、マイ
ク22から利用者の音声を受信し、または、入力装置6
0の入力により命令を受ける(SD1)。ロボット1
は、演算装置10で物データ56を検索して、目的物の
位置を確認する(SD2)。演算装置10は、目的物の
位置が、既定の位置より遠い場合、予想される持ってく
るまでの時間が既定の時間より長い場合、または、位置
が確認できない場合、ロボット1は物データ55の同等
品リストを参照して、目的物と同等の機能を有するもの
(以下、同等品)を検索する(SD3)。さらに、演算
装置10は、検索した同等品の位置を検索し、検索した
同等品の中から最も近い同等品を選択する(SD4)。
ロボット1は選択した同等品を持ってくることで了承す
るか、出力装置30で質問を提示して、利用者に確認す
る(SD6)。具体的には、ロボット1が「鉛筆」を持
ってくるように命令された時に、「鉛筆」の場所が不明
の場合、近くにある「ボールペン」で了承するか、スピ
ーカ32からの音声で確認する等である。
The user sends a command to bring the object to the robot 1 (SC1). The robot 1 receives the user's voice from the microphone 22 or uses the input device 6
An instruction is received by inputting 0 (SD1). Robot 1
Searches the object data 56 with the arithmetic unit 10 to confirm the position of the object (SD2). If the position of the target object is farther than the predetermined position, if the expected time to bring the object is longer than the predetermined time, or if the position cannot be confirmed, the robot 1 Referring to the equivalent product list, a product having the same function as the target product (hereinafter, equivalent product) is searched (SD3). Further, the arithmetic unit 10 searches for the position of the searched equivalent product, and selects the closest equivalent product from the searched equivalent products (SD4).
The robot 1 accepts the selected equivalent, or presents a question on the output device 30 to confirm with the user (SD6). Specifically, when the robot 1 is instructed to bring a “pencil”, if the location of the “pencil” is unknown, the robot 1 can accept it with a nearby “ballpoint pen” or confirm with a voice from the speaker 32. And so on.

【0056】利用者は、同等品で了承するか、同等品で
了承しないか、回答する(SC2)。センサ20または
入力装置60で、利用者の回答を取得する。演算装置1
0は、同等品で了承しない場合、次に近くにある別の種
類の同等品を選択(SD5)し、出力装置30で質問を
提示して、利用者に確認する(SD6)。ロボット1
は、同等品が利用者により了承されるか、目的物が一番
近くなる場合まで、質問を繰り返す(SD6→SC2→
SD5→SD6)。
The user replies whether the user agrees with the equivalent product or rejects the equivalent product (SC2). The user's answer is acquired by the sensor 20 or the input device 60. Arithmetic unit 1
In the case of 0, if the user does not agree with the equivalent product, another equivalent product of the next nearby type is selected (SD5), a question is presented on the output device 30, and the user is confirmed (SD6). Robot 1
Repeats the question until the equivalent is approved by the user or the object is closest (SD6 → SC2 →
SD5 → SD6).

【0057】センサ20または入力装置60で取得した
利用者の回答が了承であった場合、ロボット1は、同等
品(同等品がなかった場合は目的物、以下同じ)の位置
へ移動機構41で移動する(SD7)。ロボット1は、
センサ10で同等品を確認し、動作装置40で同等品を
把持する(SD8)。ロボット1は、動作装置40で同
等品を把持した状態で、移動機構41で利用者の近くへ
移動(SD9)し、利用者へ同等品を渡す(SD1
0)。
If the user's answer obtained by the sensor 20 or the input device 60 is accepted, the robot 1 moves to the position of an equivalent product (the target object if there is no equivalent product, the same applies hereinafter) by the moving mechanism 41. Move (SD7). Robot 1
An equivalent product is confirmed by the sensor 10, and the equivalent device is gripped by the operation device 40 (SD8). The robot 1 moves closer to the user with the moving mechanism 41 while holding the equivalent device with the operating device 40 (SD9), and delivers the equivalent product to the user (SD1).
0).

【0058】このように、ロボット1は、目的物が担当
する範囲にない場合や遠くにある場合に、目的物を探し
まわることや遠くに取りに行くことなく同等品を持って
くることで、迅速に命令を遂行することができる。ま
た、同等品が利用者に了承されるか確認することで、無
駄な作業をすることを避けることができる。
As described above, when the target object is not in the responsible area or is far away, the robot 1 can search for the target object and bring the equivalent without having to go far. The order can be executed quickly. Further, it is possible to avoid unnecessary work by confirming that the user accepts the equivalent product.

【0059】(実施の形態3)実施の形態3では、隣接
する複数のエリアのそれぞれが、複数のロボットのそれ
ぞれがが担当するように構成されている。本実施の形態
では、、利用者からの命令に対して、複数のロボットの
各々が自分の担当するエリア内の作業を実施すること
で、協働して命令を実施する場合が説明される。
(Embodiment 3) In Embodiment 3, each of a plurality of adjacent areas is configured so that each of a plurality of robots is in charge of the area. In the present embodiment, a case will be described in which, in response to a command from a user, each of a plurality of robots performs a task in an area in which the robot is in charge, thereby cooperatively executing the command.

【0060】図5に特定の範囲とロボットの概要を示
す。特定の範囲が、エリアA、エリアB、エリアCに分
割されている。エリアAはエリアBと接している。エリ
アBはエリアAおよびエリアCと接している。エリアC
はエリアBと接しているがエリアAとは接していない。
ロボット1aはエリアAを担当している。ロボット1b
は、エリアBを担当している。ロボット1cはエリアC
を担当している。ロボット1a、1b、1cは、それぞ
れ担当するエリアの地図/領域情報53、物データ56
を記憶している。それぞれのロボット1a、1b、1c
が記憶している地図/領域情報53、物データ56は、
それぞれ担当している範囲のみの場合と、他のエリアの
情報も含んでいる場合がある。
FIG. 5 shows a specific range and an outline of the robot. A specific range is divided into an area A, an area B, and an area C. Area A is in contact with area B. Area B is in contact with area A and area C. Area C
Is in contact with area B but not in area A.
The robot 1a is in charge of the area A. Robot 1b
Is in charge of area B. Robot 1c is in area C
Is in charge of The robots 1a, 1b, and 1c respectively have map / area information 53 and object data 56 of an area in charge.
I remember. Each robot 1a, 1b, 1c
The map / area information 53 and the object data 56 stored by
There are cases where only the respective areas are in charge, and cases where information on other areas is also included.

【0061】エリアAにいる利用者が、ロボット1aに
エリアCにある目的物を取ってくるように命令した場合
の、ロボット1a、1b、1cの動作が図6を参照して
説明される。
The operation of the robots 1a, 1b, 1c when the user in the area A instructs the robot 1a to pick up the target in the area C will be described with reference to FIG.

【0062】利用者が、エリアAにいて、ロボット1a
に目的物を取ってくるよう指示をする。ロボット1aは
センサ20または入力装置60で指示を受ける(SE
1)。ロボット1aは、演算装置10で記憶装置50が
記憶いている物データ56を参照し、目的物の位置を確
認する(SE2)。自分の持つデータに目的物の情報が
ない場合、他のロボット1b、1cと通信装置70で通
信して目的物の位置を確認することもできる。
When the user is in the area A and the robot 1a
Instruct the person to retrieve the object. The robot 1a receives an instruction from the sensor 20 or the input device 60 (SE
1). The robot 1a refers to the object data 56 stored in the storage device 50 by the arithmetic unit 10 and confirms the position of the target object (SE2). If there is no target information in the data held by the user, the position of the target can be confirmed by communicating with the other robots 1b and 1c by the communication device 70.

【0063】ロボット1aは、演算装置10で現在地と
目的物の間の経路を作成する(SE3)。ロボット1a
が、担当するエリア以外の地図/領域情報を記憶してい
ない場合、他のロボット1b、1cと通信して地図情報
を入手することもできる。ロボット1aは各エリアの細
かい情報を入手する必要はなく、エリアの位置関係だけ
入手して、詳細ルートは各エリアのロボットが作成して
もよい。ロボット1aは、各エリアの担当ロボットの情
報も合わせて入手する場合もある。
The robot 1a creates a route between the current position and the target by the arithmetic unit 10 (SE3). Robot 1a
However, when the map / area information other than the area in charge is not stored, the map information can be obtained by communicating with the other robots 1b and 1c. The robot 1a does not need to obtain detailed information of each area, but may obtain only the positional relationship between the areas, and the detailed route may be created by the robot of each area. In some cases, the robot 1a also obtains information on a robot in charge of each area.

【0064】本実施例では、目的物がエリアCにあるた
め、ロボット1aは、演算装置10でエリアCからエリ
アBを経由してエリアAに至る経路を作成する。ロボッ
ト1aは、目的物があるエリアCを担当するロボット1
cを選択し(SE4)、目的物の情報と経路情報を含む
命令を、通信装置70でで送信する(SE5)。さら
に、経路上のエリアBを担当するロボット1bを選択し
(SE6)、目的物の情報と経路情報を含む命令を通信
装置70で送信する(SE7)。ロボット1cに送信さ
れる指令には、ロボット1cが目的物を把持し、経路上
でエリアCとエリアBの境の第1中継点に目的物を運ぶ
命令が含まれる。ロボット1bに送信される命令には、
第1中継点でロボット1cから目的物を受け取り、エリ
アBとエリアAの境の第2中継点まで運ぶ指令が含まれ
る。
In this embodiment, since the object is in the area C, the robot 1a creates a route from the area C to the area A via the area B by the arithmetic unit 10. The robot 1a is a robot 1 that is in charge of the area C where the object is located.
c is selected (SE4), and a command including information on the target and route information is transmitted by the communication device 70 (SE5). Further, the robot 1b in charge of the area B on the route is selected (SE6), and a command including information on the target and the route information is transmitted by the communication device 70 (SE7). The command transmitted to the robot 1c includes a command that the robot 1c grasps the target and transports the target to a first relay point on the route between the area C and the area B. The commands sent to the robot 1b include:
A command is received at the first relay point to receive the target object from the robot 1c and carry it to the second relay point at the boundary between the area B and the area A.

【0065】ロボット1aは、各ロボット1b、1cに
指令を送信した後、ロボット1bから目的物を受け取る
ため、移動機構41で第2中継点に移動する(SE
8)。
After transmitting the command to each of the robots 1b and 1c, the robot 1a moves to the second relay point by the moving mechanism 41 to receive the target from the robot 1b (SE).
8).

【0066】ロボット1cは、通信装置70でロボット
1aから命令を受信(SG1)し、演算装置10で物デ
ータ56を参照して目的物の位置を確認し、移動機構4
1で目的物へ移動する(SG2)。ロボット1cはセン
サ20で目的物を確認し、動作機構40で目的物を把持
する(SG3)。ロボット1cは、目的物を把持した状
態で、移動機構41で第1中継点に移動し(SG4)、
目的物をロボット1bへ渡す。
The robot 1c receives a command from the robot 1a by the communication device 70 (SG1), checks the position of the target object by referring to the object data 56 by the arithmetic unit 10, and
Move to the target in step 1 (SG2). The robot 1c confirms the target with the sensor 20, and grips the target with the operation mechanism 40 (SG3). The robot 1c moves to the first relay point by the moving mechanism 41 while holding the target object (SG4),
The target is passed to the robot 1b.

【0067】ロボット1bは、通信装置70で、ロボッ
ト1aから命令を受信(SF1)し、移動機構41で第
1中継点に移動する(SF1)。ロボット1bは、第1
中継地点で、ロボット1cから目的物を受け取り(SF
3)、動作装置40で目的物を把持した状態で、移動機
構41で第2中継点に移動し(SF4)、目的物をロボ
ット1aへ渡す。
The robot 1b receives a command from the robot 1a by the communication device 70 (SF1), and moves to the first relay point by the moving mechanism 41 (SF1). The robot 1b has a first
At the relay point, a target object is received from the robot 1c (SF
3) With the operation device 40 holding the target, the moving mechanism 41 moves to the second relay point (SF4), and transfers the target to the robot 1a.

【0068】ロボット1aは、動作装置40で目的物を
受け取り(SE9)、目的物を把持した状態で、移動機
構41で利用者の近くに移動し(SE10)、目的物を
利用者に渡す(SE11)。
The robot 1a receives the target by the operating device 40 (SE9), moves to a position near the user by the moving mechanism 41 while holding the target (SE10), and delivers the target to the user (SE10). SE11).

【0069】このように、エリア毎にロボットを担当さ
せることにより、ロボットが記憶する地図/領域データ
53や物データ56の量を少なくすることができる。ま
た、エリア毎に地形が違う場合、地形に合わせて移動手
段を備えることで、各ロボットの機能を特化することが
できる。具体的には、エリアCが2階フロア、エリアB
が階段、エリアAが1階フロアの場合、ロボット1bは
階段を移動する手段を備えるだけで良い。また、他のロ
ボット1a、1cは床用の移動手段を備えれば良く、そ
れぞれのロボットの構造を簡潔にすることができる。各
ロボット1a、1b、1cは、独立しているので、どの
ロボット1でも利用者からの命令を聞くことができる。
また、エリアの数は上記のように3エリアに限定され
ず、複数のエリアがあれば、複数のロボットがそれぞれ
のエリアを担当して上記のように協働して作業すること
ができる。
As described above, by assigning the robot to each area, the amount of map / area data 53 and object data 56 stored by the robot can be reduced. Further, when the terrain is different for each area, the function of each robot can be specialized by providing the moving means according to the terrain. Specifically, area C is the second floor, area B
Is a staircase, and the area A is the first floor, the robot 1b only needs to have means for moving the stairs. In addition, the other robots 1a and 1c may be provided with floor moving means, and the structure of each robot can be simplified. Since each robot 1a, 1b, 1c is independent, any robot 1 can hear commands from the user.
Also, the number of areas is not limited to three as described above, and if there are a plurality of areas, a plurality of robots can work in charge of each area and work together as described above.

【0070】(実施の形態4)本実施の形態では、図7
を参照して、利用者に目的物を持ってくるよう命令を受
けたロボット1が、目的物を利用者に渡した後、利用者
が目的物を使用し終わったことを判断して、目的物を既
定の場所もしくは元の場所に片付ける動作が説明され
る。
(Embodiment 4) In this embodiment, FIG.
, The robot 1 that has been instructed to bring the object to the user, passes the object to the user, determines that the user has finished using the object, The operation of clearing an object to a predetermined place or an original place is described.

【0071】利用者がロボット1に目的物を持ってくる
よう指示をする(SH1)。ロボット1は、センサ20
または入力装置61で目的物を持ってくる指示を受け
(SJ1)、上記の実施例に記載しているような方法で
目的物を取ってくる動作を行い(SJ2)、利用者に目
的物を渡す(SJ3)。
The user instructs the robot 1 to bring an object (SH1). The robot 1 has a sensor 20
Alternatively, an instruction to bring the object is received by the input device 61 (SJ1), the operation of taking the object is performed by the method described in the above embodiment (SJ2), and the object is given to the user. Hand over (SJ3).

【0072】利用者は目的物を受け取り(SH2)、目
的物を使用する(SH3)。利用者に目的物を渡した
後、ロボット1は、センサ20で利用者の目的物使用情
況を監視する(SJ4)。利用者は目的物の使用を完了
する(SH4)と、ロボット1の演算装置10は、セン
サ20で検出した利用者の動作と、物データに記憶され
ている利用者の物の使用終了動作と照合して、使用完了
動作を確認する(SJ5)。具体的には、ロボット1
は、利用者が目的物をどこかに置いて一定時間経過し
た、または、手を離して一定時間経過したといった動作
により使用完了を判断する。ロボット1は音声により、
利用者に目的物の使用の完了を確認することもできる。
The user receives the target (SH2) and uses the target (SH3). After giving the object to the user, the robot 1 monitors the state of use of the object by the sensor using the sensor 20 (SJ4). When the user completes the use of the object (SH4), the arithmetic unit 10 of the robot 1 performs the operation of the user detected by the sensor 20 and the operation of ending the use of the object of the user stored in the object data. By collation, the use completion operation is confirmed (SJ5). Specifically, the robot 1
Determines that the use has been completed by an operation in which the user places the target object somewhere and a certain time has elapsed, or the user has released his hand and a certain time has elapsed. The robot 1 uses voice
The user can also confirm completion of use of the object.

【0073】ロボット1は、動作装置40で使用が完了
した目的物を把持し(SJ6)、記憶装置50に記憶さ
れている目的物が以前あった場所、もしくは物データ5
6に含まれる既定の場所に、移動機構41で移動し(S
J7)、動作装置40で目的物を元の場所もしくは既定
の場所に置く(SJ8)。目的物を以前あった場所に運
ぶ場合も、上記の実施の形態3と組合わせて複数のロボ
ット1が連携する場合もある。
The robot 1 grips the target object which has been used by the operation device 40 (SJ6), and stores the target object stored in the storage device 50 where the former object was located or the object data 5
6 by the moving mechanism 41 (S)
J7) The object is placed at the original place or the predetermined place by the operation device 40 (SJ8). There may be a case where the target object is carried to the place where it was before, or a case where a plurality of robots 1 cooperate in combination with the third embodiment.

【0074】このようにロボット1が、自分で物を片付
けることにより、人が物を片付ける必要がない。また、
物の位置がロボット1に記憶されるので、ロボット1が
次に取りに行く動作において、目的物を探しまわる必要
がない。
As described above, since the robot 1 clears the object by itself, there is no need for a person to clear the object. Also,
Since the position of the object is stored in the robot 1, there is no need to search around for the object in the next operation of the robot 1 to pick up.

【0075】[0075]

【発明の効果】本発明のロボットは、効果的に物を取っ
てくることができる。
The robot according to the present invention can effectively retrieve objects.

【図面の簡単な説明】[Brief description of the drawings]

【図1】図1は本発明のロボットの外観の例を示す。FIG. 1 shows an example of the appearance of a robot of the present invention.

【図2】図2は本発明のロボットの構成を示す。FIG. 2 shows a configuration of a robot according to the present invention.

【図3】図3は本発明の複数のロボットと通信して適当
なロボットを選択して命令を実行する動作のフローを示
す。
FIG. 3 shows a flow of an operation of communicating with a plurality of robots of the present invention, selecting an appropriate robot, and executing a command.

【図4】図4は本発明のロボットが命令された目的物の
同等品を選択して取ってくる動作のフローを示す。
FIG. 4 shows a flow of an operation in which the robot of the present invention selects and fetches an equivalent product of a commanded object.

【図5】図5は本発明の複数のロボットがそれぞれのエ
リアを担当している概念図を示す。
FIG. 5 is a conceptual diagram in which a plurality of robots of the present invention are in charge of respective areas.

【図6】図6は本発明の複数のロボットがそれぞれのエ
リアを担当して目的物を運搬する動作のフローを示す。
FIG. 6 shows a flow of an operation in which a plurality of robots of the present invention are in charge of respective areas and transport an object.

【図7】図7は本発明のロボットが物を片付ける動作の
フローを示す。
FIG. 7 shows a flow of an operation of the robot of the present invention for clearing an object.

【符号の説明】[Explanation of symbols]

1、1’、1a、1b、1c ロボット 2 頭部 3 胴部 10 演算装置 11 中央演算部 12 センサ情報処理部 13 出力装置制御部 14 動作装置制御部 17 通信情報処理部 20 センサ 21 カメラ 22 マイク 23 赤外線センサ 24 重量感知器 25 触覚感知器 26 姿勢感知器 30 出力装置 31 モニタ 32 スピーカ 33 発光部 34 印刷部 40 動作装置 41 移動機構 42 アーム 43 ハンド 44 本体/首動作機構 50 記憶装置 51 動作履歴 52 通信情報 53 地図/領域情報 54 個人認証データ 56 物データ 60 入力装置 61 スイッチ 62 キー 70 通信装置 71 送受信部 1, 1 ', 1a, 1b, 1c robot 2 head 3 torso 10 arithmetic unit 11 Central processing unit 12 Sensor information processing unit 13 Output device controller 14 Operating device controller 17 Communication information processing unit 20 sensors 21 Camera 22 microphone 23 Infrared sensor 24 Weight Sensor 25 Tactile sensor 26 Attitude sensor 30 Output device 31 monitor 32 speakers 33 Light emitting unit 34 Printing Department 40 Operating device 41 Moving mechanism 42 arm 43 hands 44 Main body / neck movement mechanism 50 storage devices 51 Operation history 52 Communication information 53 Map / Area Information 54 Personal authentication data 56 object data 60 input device 61 switch 62 keys 70 Communication device 71 Transceiver

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 3C007 AS01 AS34 CS08 JS02 KS07 KS18 KS36 KS39 KX02 LT06 WA03 WA13 WA16 WC11 5H301 AA10 BB05 CC03 DD15 DD17 FF15 KK19    ────────────────────────────────────────────────── ─── Continuation of front page    F term (reference) 3C007 AS01 AS34 CS08 JS02 KS07                       KS18 KS36 KS39 KX02 LT06                       WA03 WA13 WA16 WC11                 5H301 AA10 BB05 CC03 DD15 DD17                       FF15 KK19

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】入力部またはセンサと、 通信部と、 演算部と、 物の位置の情報を含む物データと特定の範囲の地図の情
報を含む地図データを記憶している記憶部と、を具備
し、 前記入力部または前記センサは、利用者から、目的物を
運ぶ内容を含む命令を取得し、 前記演算部は、前記物データから前記目的物の位置を検
索し、 前記通信部は、他のロボットと通信し、前記他のロボッ
トの位置を入手し、 さらに、前記演算部は、前記地図データを参照し、前記
目的物の位置と前記他のロボットの位置から、前記命令
を実施する前記他のロボットの一つ、もしくは自分を選
択し、 前記通信部は、選択されたロボットに前記命令を送信す
る、もしくは、自分で前記命令を実行する、ロボット。
An input unit or a sensor, a communication unit, a calculation unit, and a storage unit that stores object data including information on the position of an object and map data including information on a map of a specific range. The input unit or the sensor obtains a command including a content for carrying a target from a user, the arithmetic unit searches a position of the target from the object data, and the communication unit includes: Communicate with another robot to obtain the position of the other robot. Further, the arithmetic unit refers to the map data and executes the command from the position of the target and the position of the other robot. A robot that selects one of the other robots or the self, and the communication unit transmits the command to the selected robot, or executes the command by itself.
【請求項2】センサ又は入力部と、通信部と、記憶部
と、演算部と、動作機構を具備する複数のロボットが、
特定の範囲内に存在するロボットシステムであって、 前記複数のロボットの中の任意の第1ロボットが、前記
センサまたは前記入力部で利用者から作業命令を受け、
他のロボットに作業情報を送信し、 前記他のロボットは前記作業情報を受信し、前記第1ロ
ボットに作業に関する情報を送信し、 前記第1ロボットは、受信した前記作業に関する情報か
ら、作業を実施する他のロボット、または、自分自身を
選択し、 選択されたロボットに前記作業を実施するように通信す
る、または、前記第1ロボットが自分自身で前記作業を
実施する、 ロボットシステム。
2. A plurality of robots each comprising a sensor or an input unit, a communication unit, a storage unit, a calculation unit, and an operation mechanism,
A robot system existing within a specific range, wherein an arbitrary first robot among the plurality of robots receives a work command from a user at the sensor or the input unit,
The other robot receives the work information, transmits the work information to the first robot, and transmits the work information to the first robot. The first robot performs the work based on the received information about the work. A robot system which selects another robot to perform or itself and communicates with the selected robot to perform the work, or the first robot performs the work by itself.
【請求項3】センサ又は入力部と、通信部と、記憶部
と、演算部と、動作機構を具備する複数のロボットが、
特定の範囲内に存在するロボットシステムであって、 各ロボットの前記記憶部は、物の位置の情報を含む物デ
ータと特定範囲の地図の情報を含む地図データ、及び自
らの位置を含む位置情報を記憶し、 前記センサまたは前記入力部で、利用者から目的物を運
ぶ作業に関する作業命令を受けた、前記複数のロボット
内の第1ロボットが、他のロボットに前記他のロボット
自身の前記位置情報を送るよう送信命令を送信し、 前記他のロボットの各々は、前記送信命令を受信し、前
記第1ロボットに自分の位置情報を送信し、 前記第1ロボットは、受信した前記他のロボットの前記
位置情報と自分の位置情報から、前記物データと前記地
図データを参照して、前記目的物への移動経路が最も短
い他のロボット、または、自分自身を選択し、 選択されたロボットに前記作業を実施するように通信す
る、または、前記第1ロボットが自分自身で前記作業を
実施する、 ロボットシステム。
3. A plurality of robots each having a sensor or an input unit, a communication unit, a storage unit, a calculation unit, and an operation mechanism.
A robot system existing in a specific range, wherein the storage unit of each robot includes: object data including position information of the object; map data including map information of a specific range; and position information including its own position. The first robot in the plurality of robots, which receives a work instruction related to a work of carrying a target object from a user at the sensor or the input unit, causes the other robot to position the other robot itself. Transmitting a transmission command to transmit information; each of the other robots receiving the transmission command and transmitting their own position information to the first robot; and the first robot receiving the other robot. From the position information and the own position information, referring to the object data and the map data, select another robot having the shortest moving route to the target object, or select oneself, and select Communicate to perform the work robots, or, the first robot performing the work on their own robotic system.
【請求項4】センサ又は入力部と、通信部と、記憶部
と、演算部と、動作機構を具備する複数のロボットが、
特定の範囲内に存在するロボットシステムであって、 各ロボットの前記記憶部は、物の位置の情報を含む物デ
ータと特定範囲の地図の情報を含む地図データ、及び自
らの位置を含む位置情報を記憶し、 前記センサまたは前記入力部で、利用者から目的物を運
ぶ作業に関する作業命令を受けた、前記複数のロボット
内の第1ロボットが、他のロボットに前記作業命令を送
信し、 前記他のロボットの各々は前記作業命令を受信し、前記
物データと前記地図データを参照して、自分が前記作業
命令を完了する場合に予想される所要時間を前記第1ロ
ボットに送信し、 前記第1ロボットは前記演算部で前記物データと前記地
図データを参照して、自分が前記作業命令を完了するの
に予想される所要時間を算出し、 前記第1ロボットは、受信した前記他のロボットの前記
所要時間と自分の前記所要時間から、前記所要時間が最
も短い他のロボット、または、自分自身を選択し、 選択されたロボットに前記作業命令を実施するように通
信する、または、前記第1ロボットが自分自身で前記作
業命令を実施する、 ロボットシステム。
4. A plurality of robots each including a sensor or an input unit, a communication unit, a storage unit, a calculation unit, and an operation mechanism,
A robot system existing in a specific range, wherein the storage unit of each robot includes: object data including position information of the object; map data including map information of a specific range; and position information including its own position. A first robot among the plurality of robots, which has received a work instruction related to a work of carrying a target object from a user at the sensor or the input unit, transmits the work instruction to another robot, Each of the other robots receives the work command, refers to the object data and the map data, and transmits to the first robot an estimated time required to complete the work command. The first robot refers to the object data and the map data in the arithmetic unit, calculates a time required to complete the work command, and calculates a time required for the first robot to receive the work command. From the required time of the other robot and the required time of the other robot, select the other robot or the shortest required time, and communicate with the selected robot to execute the work instruction, or A robot system in which the first robot executes the work command by itself.
【請求項5】入力部またはセンサと、記憶部と、演算部
と、動作機構を具備し、 前記記憶部は、物の位置を含む物位置情報と、物と同等
の機能を有する同等品を関連付ける同等品リストを含む
物データを記憶し、 前記入力部または前記センサは、利用者から目的物を持
ってくる内容を含む命令を受け、 前記演算部は、前記同等品リストを参照して前記目的物
の同等品を検索し、前記物位置情報から前記目的物と前
記同等品の位置を検索し、前記目的物より前記同等品の
方が命令を実施するのに有利な場合に、前記同等品を持
ってくるように前記動作機構を制御する、ロボット。
5. An input unit or a sensor, a storage unit, a calculation unit, and an operation mechanism, wherein the storage unit stores object position information including a position of an object and an equivalent product having a function equivalent to the object. The input unit or the sensor receives an instruction including a content for bringing a target from a user, and the arithmetic unit refers to the equivalent list to store the object data including an equivalent item list to be associated. Search for the equivalent of the target, search the position of the target and the equivalent from the position information of the object, and if the equivalent is more advantageous to execute the command than the target, the equivalent A robot for controlling the operation mechanism so as to bring an article;
【請求項6】前記同等品の方が命令を実施するのに有利
な場合は、前記目的物より前記同等品の位置が近い場
合、前記目的物の位置の情報がない場合、前記目的物よ
り前記同等品が軽い場合、前記目的物より前記同等品が
速く運搬できる場合のいずれかである、 請求項5に記載のロボット。
6. In the case where the equivalent is more advantageous for executing the command, the position of the equivalent is closer to the object, the position of the object is not known, and the position of the object is smaller than that of the object. The robot according to claim 5, wherein the case where the equivalent product is lighter is one of a case where the equivalent product can be transported faster than the target object.
【請求項7】さらに、出力部を具備し、 前記同等品の方が命令を実施するのに有利な場合に、 前記出力部は、前記利用者に前記同等品を持ってくるこ
とを確認する質問を出力し、 前記入力部または前記センサで、前記質問に対する前記
利用者の反応を検出し、 前記演算部は、前記反応から前記同等品を持ってくるこ
とを決定する、請求項5または6のいずれかに記載され
たロボット。
7. An apparatus according to claim 1, further comprising an output unit, wherein the output unit confirms that the equivalent is brought to the user when the equivalent is more advantageous for executing the command. 7. A question is output, a response of the user to the question is detected by the input unit or the sensor, and the calculation unit determines to bring the equivalent product from the response. 8. The robot described in any of the above.
【請求項8】複数のエリア内の第1エリアを担当する第
1ロボットと、前記第1エリアに隣接する第2エリアを
担当する第2ロボットとを含むロボットシステムにおい
て、 前記第1ロボットが利用者から第2エリアにある目的物
を持ってくるように命令を受けた時に、 前記第1ロボットは前記第2ロボットに、前記目的物を
前記第1エリアと前記第2エリアの境に持ってくるよう
通信し、 前記第2ロボットは、前記目的物を前記境に運搬し、 前記第1ロボットは、前記目的物を前記境から前記利用
者に運搬する、ロボットシステム。
8. A first area in charge of a first area in a plurality of areas.
In a robot system including one robot and a second robot that is in charge of a second area adjacent to the first area, a command is issued so that the first robot brings a target in the second area from a user. Upon receipt, the first robot communicates to the second robot to bring the object to the boundary between the first area and the second area, and the second robot moves the object to the boundary A robot system, wherein the first robot transports the object from the boundary to the user.
【請求項9】複数のエリア内の第1エリアを担当する第
1ロボットと、前記第1エリアに隣接する第2エリアを
担当する第2ロボットとを含むロボットシステムにおい
て、 前記第1ロボットおよび前記第2ロボットの各々は、入
力部またはセンサと、記憶部と、演算部と、通信部と、
および、動作機構と、を具備し、 前記記憶部は、物の位置情報を含む物データを記憶し、 前記第1ロボットが、前記入力部または前記センサで、
利用者から目的物を持ってくるように命令を受け、 前記第1ロボットの前記演算部は、前記物データを参照
し、前記目的物が前記第2エリアにあることを認識した
場合に、 前記第1ロボットは前記通信部により、前記第2ロボッ
トに、前記目的物を前記第1エリアと前記第2エリアの
境に持ってくるよう通信し、 前記第2ロボットは、前記第1ロボットのから通信を受
信し、前記目的物を探索して、前記目的物を前記境に運
搬し、 前記第1ロボットは、前記目的物を前記境から前記利用
者に運搬する、ロボットシステム。
9. A method for controlling a first area in a plurality of areas.
In a robot system including one robot and a second robot in charge of a second area adjacent to the first area, each of the first robot and the second robot includes an input unit or a sensor, a storage unit, An operation unit, a communication unit,
And an operation mechanism, wherein the storage unit stores object data including position information of the object, wherein the first robot is the input unit or the sensor,
Upon receiving a command from the user to bring the object, the arithmetic unit of the first robot refers to the object data and recognizes that the object is in the second area. The first robot communicates with the second robot by the communication unit so as to bring the target object to a boundary between the first area and the second area, and the second robot is connected to the first robot. A robot system that receives a communication, searches for the target, and transports the target to the boundary, and the first robot transports the target to the user from the boundary.
【請求項10】利用者からの命令により目的物を持って
くる機能を有するロボットであって、 利用者が前記目的物を使用していることを監視し、 利用者が前記目的物の使用が終了した動作を検出し、 前記目的物を、持ってきた位置に戻すロボット。
10. A robot having a function of bringing a target object according to a command from a user, wherein the robot monitors that the user is using the target object, and the user checks whether the target object is used. A robot that detects the completed operation and returns the object to the position where it was brought.
【請求項11】演算部と、 センサと、 物の片付け位置、及び、物と前記物に対応する使用終了
動作を対応付ける情報を含む物データを記憶する記憶部
と、 利用者からの命令により目的物を運搬する機能と、を具
備するロボットであって、 前記センサは、利用者が前記目的物を使用している動作
を検出し、 前記演算部は、前記物データを参照して、前記利用者の
動作が、前記目的物の使用終了動作であることを検出し
たとき、前記目的物を片付け位置に戻すように、前記目
的物を運搬する機能を制御する、ロボット。
11. An arithmetic unit, a sensor, a storage unit for storing object data including information for associating an object with a clearing position, and associating an object with a use ending operation corresponding to the object, and an object according to an instruction from a user. A robot for transporting an object, wherein the sensor detects an operation in which a user is using the object, and the arithmetic unit refers to the object data and performs the use. A robot that controls a function of transporting the target object so as to return the target object to a clearing position when detecting that the operation of the user is a use end operation of the target object.
【請求項12】利用者の命令により前記目的物を運んで
きた場合、前記片付け位置は、運んできた場所である、
請求項11に記載されたロボット。
12. When the object is carried by a user's command, the clearing position is a place where the object is carried.
The robot according to claim 11.
JP2002151148A 2002-05-24 2002-05-24 Robot and robot system Withdrawn JP2003345435A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002151148A JP2003345435A (en) 2002-05-24 2002-05-24 Robot and robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002151148A JP2003345435A (en) 2002-05-24 2002-05-24 Robot and robot system

Publications (1)

Publication Number Publication Date
JP2003345435A true JP2003345435A (en) 2003-12-05

Family

ID=29768823

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002151148A Withdrawn JP2003345435A (en) 2002-05-24 2002-05-24 Robot and robot system

Country Status (1)

Country Link
JP (1) JP2003345435A (en)

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005262378A (en) * 2004-03-18 2005-09-29 Oki Electric Ind Co Ltd Autonomous robot and its control method
JP2005313303A (en) * 2004-04-30 2005-11-10 Japan Science & Technology Agency Robot remote control system
JP2005324278A (en) * 2004-05-13 2005-11-24 Honda Motor Co Ltd Robot control device
JP2006031220A (en) * 2004-07-14 2006-02-02 Tokyu Construction Co Ltd Entrance multifunctional support device
JP2006167840A (en) * 2004-12-14 2006-06-29 Honda Motor Co Ltd Robot control system
JP2006326703A (en) * 2005-05-23 2006-12-07 Honda Motor Co Ltd Robot control device
JP2007115275A (en) * 2007-01-12 2007-05-10 Nippon Telegr & Teleph Corp <Ntt> Robot control system
JP2007245317A (en) * 2006-03-17 2007-09-27 Nippon Telegr & Teleph Corp <Ntt> Robot controller, program, and robot control method
JP2008062359A (en) * 2006-09-11 2008-03-21 Nec Corp Control device and method for apparatus
WO2009072228A1 (en) * 2007-12-04 2009-06-11 Honda Motor Co., Ltd. Robot and task execution system
JP2010064154A (en) * 2008-09-08 2010-03-25 Nec Corp Robot control system, remote management device, robot, robot control and remote management methods, and robot control and remote management programs
JP2011206279A (en) * 2010-03-30 2011-10-20 Nohmi Bosai Ltd Disaster prevention system
JP2011245618A (en) * 2010-05-28 2011-12-08 Compal Communications Inc Automatic machine and method for controlling the same
JP2013031897A (en) * 2011-08-02 2013-02-14 Sony Corp Control unit, control method, program, and robot control system
JP2014079819A (en) * 2012-10-12 2014-05-08 Nippon Telegr & Teleph Corp <Ntt> Robot cooperative conveyance planning device, method and program
JP2014211667A (en) * 2013-04-17 2014-11-13 日本電信電話株式会社 Robot cooperative conveyance planning device, method, and program
JP2016155179A (en) * 2015-02-23 2016-09-01 株式会社国際電気通信基礎技術研究所 Guidance service system, guidance service program, guidance service method and guidance service device
JP2017130027A (en) * 2016-01-20 2017-07-27 株式会社ダイヘン Moving body system and server
JP2017151517A (en) * 2016-02-22 2017-08-31 富士ゼロックス株式会社 Robot control system
JP2017167797A (en) * 2016-03-16 2017-09-21 富士ゼロックス株式会社 Robot control system
WO2019187581A1 (en) 2018-03-28 2019-10-03 ソニー株式会社 Information processing device, information processing system, information processing method, and information processing program
JP2020032529A (en) * 2015-02-23 2020-03-05 株式会社国際電気通信基礎技術研究所 System, program, method and device for guide service
JP2020046478A (en) * 2018-09-14 2020-03-26 株式会社フュートレック Robot system
CN111612312A (en) * 2020-04-29 2020-09-01 深圳优地科技有限公司 Robot distribution method, robot, terminal device and storage medium
WO2022085625A1 (en) * 2020-10-19 2022-04-28 株式会社Preferred Robotics Autonomous vehicle
US11397428B2 (en) * 2017-08-02 2022-07-26 Strong Force Iot Portfolio 2016, Llc Self-organizing systems and methods for data collection
US11493903B2 (en) 2016-05-09 2022-11-08 Strong Force Iot Portfolio 2016, Llc Methods and systems for a data marketplace in a conveyor environment
US11663442B2 (en) 2016-05-09 2023-05-30 Strong Force Iot Portfolio 2016, Llc Methods and systems for detection in an industrial Internet of Things data collection environment with intelligent data management for industrial processes including sensors
US11774944B2 (en) 2016-05-09 2023-10-03 Strong Force Iot Portfolio 2016, Llc Methods and systems for the industrial internet of things

Cited By (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005262378A (en) * 2004-03-18 2005-09-29 Oki Electric Ind Co Ltd Autonomous robot and its control method
JP2005313303A (en) * 2004-04-30 2005-11-10 Japan Science & Technology Agency Robot remote control system
JP4713846B2 (en) * 2004-04-30 2011-06-29 独立行政法人科学技術振興機構 Robot remote control system
US7765028B2 (en) 2004-05-13 2010-07-27 Honda Motor Co., Ltd. Robot control apparatus
JP2005324278A (en) * 2004-05-13 2005-11-24 Honda Motor Co Ltd Robot control device
JP2006031220A (en) * 2004-07-14 2006-02-02 Tokyu Construction Co Ltd Entrance multifunctional support device
JP2006167840A (en) * 2004-12-14 2006-06-29 Honda Motor Co Ltd Robot control system
JP4580226B2 (en) * 2004-12-14 2010-11-10 本田技研工業株式会社 Robot control system
JP2006326703A (en) * 2005-05-23 2006-12-07 Honda Motor Co Ltd Robot control device
JP4621073B2 (en) * 2005-05-23 2011-01-26 本田技研工業株式会社 Robot controller
JP2007245317A (en) * 2006-03-17 2007-09-27 Nippon Telegr & Teleph Corp <Ntt> Robot controller, program, and robot control method
JP2008062359A (en) * 2006-09-11 2008-03-21 Nec Corp Control device and method for apparatus
JP4490448B2 (en) * 2007-01-12 2010-06-23 日本電信電話株式会社 Robot control system
JP2007115275A (en) * 2007-01-12 2007-05-10 Nippon Telegr & Teleph Corp <Ntt> Robot control system
US8285417B2 (en) 2007-12-04 2012-10-09 Honda Motor Co., Ltd. Robot and task execution system
EP2199038A1 (en) * 2007-12-04 2010-06-23 Honda Motor Co., Ltd. Robot and task execution system
JP2009136932A (en) * 2007-12-04 2009-06-25 Honda Motor Co Ltd Robot and task execution system
WO2009072228A1 (en) * 2007-12-04 2009-06-11 Honda Motor Co., Ltd. Robot and task execution system
EP2199038A4 (en) * 2007-12-04 2011-02-02 Honda Motor Co Ltd Robot and task execution system
JP2010064154A (en) * 2008-09-08 2010-03-25 Nec Corp Robot control system, remote management device, robot, robot control and remote management methods, and robot control and remote management programs
JP2011206279A (en) * 2010-03-30 2011-10-20 Nohmi Bosai Ltd Disaster prevention system
JP2011245618A (en) * 2010-05-28 2011-12-08 Compal Communications Inc Automatic machine and method for controlling the same
US8666549B2 (en) 2010-05-28 2014-03-04 Compal Communications, Inc. Automatic machine and method for controlling the same
JP2013031897A (en) * 2011-08-02 2013-02-14 Sony Corp Control unit, control method, program, and robot control system
US10890884B2 (en) 2011-08-02 2021-01-12 Sony Corporation Control device, control method, computer program product, and robot control system
US9766604B2 (en) 2011-08-02 2017-09-19 Sony Corporation Control device, control method, computer program product, and robot control system
JP2014079819A (en) * 2012-10-12 2014-05-08 Nippon Telegr & Teleph Corp <Ntt> Robot cooperative conveyance planning device, method and program
JP2014211667A (en) * 2013-04-17 2014-11-13 日本電信電話株式会社 Robot cooperative conveyance planning device, method, and program
JP2016155179A (en) * 2015-02-23 2016-09-01 株式会社国際電気通信基礎技術研究所 Guidance service system, guidance service program, guidance service method and guidance service device
JP2020032529A (en) * 2015-02-23 2020-03-05 株式会社国際電気通信基礎技術研究所 System, program, method and device for guide service
JP2017130027A (en) * 2016-01-20 2017-07-27 株式会社ダイヘン Moving body system and server
JP2017151517A (en) * 2016-02-22 2017-08-31 富士ゼロックス株式会社 Robot control system
US10513038B2 (en) 2016-03-16 2019-12-24 Fuji Xerox Co., Ltd. Robot control system
JP2017167797A (en) * 2016-03-16 2017-09-21 富士ゼロックス株式会社 Robot control system
US11770196B2 (en) 2016-05-09 2023-09-26 Strong Force TX Portfolio 2018, LLC Systems and methods for removing background noise in an industrial pump environment
US11609553B2 (en) 2016-05-09 2023-03-21 Strong Force Iot Portfolio 2016, Llc Systems and methods for data collection and frequency evaluation for pumps and fans
US11836571B2 (en) 2016-05-09 2023-12-05 Strong Force Iot Portfolio 2016, Llc Systems and methods for enabling user selection of components for data collection in an industrial environment
US11838036B2 (en) 2016-05-09 2023-12-05 Strong Force Iot Portfolio 2016, Llc Methods and systems for detection in an industrial internet of things data collection environment
US11797821B2 (en) 2016-05-09 2023-10-24 Strong Force Iot Portfolio 2016, Llc System, methods and apparatus for modifying a data collection trajectory for centrifuges
US11791914B2 (en) 2016-05-09 2023-10-17 Strong Force Iot Portfolio 2016, Llc Methods and systems for detection in an industrial Internet of Things data collection environment with a self-organizing data marketplace and notifications for industrial processes
US11493903B2 (en) 2016-05-09 2022-11-08 Strong Force Iot Portfolio 2016, Llc Methods and systems for a data marketplace in a conveyor environment
US11774944B2 (en) 2016-05-09 2023-10-03 Strong Force Iot Portfolio 2016, Llc Methods and systems for the industrial internet of things
US11586188B2 (en) 2016-05-09 2023-02-21 Strong Force Iot Portfolio 2016, Llc Methods and systems for a data marketplace for high volume industrial processes
US11586181B2 (en) 2016-05-09 2023-02-21 Strong Force Iot Portfolio 2016, Llc Systems and methods for adjusting process parameters in a production environment
US11609552B2 (en) 2016-05-09 2023-03-21 Strong Force Iot Portfolio 2016, Llc Method and system for adjusting an operating parameter on a production line
US11755878B2 (en) 2016-05-09 2023-09-12 Strong Force Iot Portfolio 2016, Llc Methods and systems of diagnosing machine components using analog sensor data and neural network
US11646808B2 (en) 2016-05-09 2023-05-09 Strong Force Iot Portfolio 2016, Llc Methods and systems for adaption of data storage and communication in an internet of things downstream oil and gas environment
US11663442B2 (en) 2016-05-09 2023-05-30 Strong Force Iot Portfolio 2016, Llc Methods and systems for detection in an industrial Internet of Things data collection environment with intelligent data management for industrial processes including sensors
US11397428B2 (en) * 2017-08-02 2022-07-26 Strong Force Iot Portfolio 2016, Llc Self-organizing systems and methods for data collection
WO2019187581A1 (en) 2018-03-28 2019-10-03 ソニー株式会社 Information processing device, information processing system, information processing method, and information processing program
US11558482B2 (en) 2018-03-28 2023-01-17 Sony Corporation Information processing apparatus, information processing system, and information processing method
US11949753B2 (en) 2018-03-28 2024-04-02 Sony Group Corporation Information processing apparatus, information processing system, and information processing method
JP2020046478A (en) * 2018-09-14 2020-03-26 株式会社フュートレック Robot system
CN111612312A (en) * 2020-04-29 2020-09-01 深圳优地科技有限公司 Robot distribution method, robot, terminal device and storage medium
CN111612312B (en) * 2020-04-29 2023-12-22 深圳优地科技有限公司 Robot distribution method, robot, terminal device, and storage medium
JP7367231B2 (en) 2020-10-19 2023-10-23 株式会社Preferred Robotics Autonomous vehicles, control devices and programs
JPWO2022085625A1 (en) * 2020-10-19 2022-04-28
WO2022085625A1 (en) * 2020-10-19 2022-04-28 株式会社Preferred Robotics Autonomous vehicle

Similar Documents

Publication Publication Date Title
JP2003345435A (en) Robot and robot system
US11072068B2 (en) Robot apparatus and method of controlling robot apparatus
EP2068275B1 (en) Communication robot
JP3996015B2 (en) Posture recognition device and autonomous robot
EP2917001B1 (en) Hybrid gesture control haptic system
JP5429462B2 (en) Communication robot
US7653458B2 (en) Robot device, movement method of robot device, and program
US20010047226A1 (en) Articulated robot and method of controlling the motion of the same
JP6444499B1 (en) Control device, picking system, distribution system, program, and control method
JP2007260822A (en) Guide robot
CN106272478A (en) A kind of full-automatic shopping robot and using method
JP6325174B1 (en) Control device, picking system, distribution system, program, control method, and production method
JP2007148527A (en) Method for avoiding interference of robot and robot
JP2007139710A (en) Walking-aid robot
JP6258556B1 (en) Control device, picking system, distribution system, program, control method, and production method
JP7318655B2 (en) Information processing device, control method and program
CN108572586B (en) Information processing apparatus and information processing system
JP6363294B1 (en) Information processing apparatus, picking system, distribution system, program, and information processing method
JP5108032B2 (en) Multi-joint structure teaching device
JP2011200970A (en) Autonomous moving device and work determining method
JP2003340762A (en) Robot and robot system
JP5163202B2 (en) Article estimation system
Iossifidis et al. Anthropomorphism as a pervasive design concept for a robotic assistant
JP7473685B2 (en) Control device, robot system and learning device
JP5194314B2 (en) Communication system

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050802