JP2003334783A - Robot information control method - Google Patents

Robot information control method

Info

Publication number
JP2003334783A
JP2003334783A JP2002136822A JP2002136822A JP2003334783A JP 2003334783 A JP2003334783 A JP 2003334783A JP 2002136822 A JP2002136822 A JP 2002136822A JP 2002136822 A JP2002136822 A JP 2002136822A JP 2003334783 A JP2003334783 A JP 2003334783A
Authority
JP
Japan
Prior art keywords
command
brain
robot
hand
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002136822A
Other languages
Japanese (ja)
Inventor
Kazunobu Sugitani
和宣 杉谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2002136822A priority Critical patent/JP2003334783A/en
Publication of JP2003334783A publication Critical patent/JP2003334783A/en
Withdrawn legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a distributed processing robot for enhancing performance even if parts are replaced without changing the software of a brain. <P>SOLUTION: Each part of the robot has a CPU, a memory and a sensor. The respective part has a recognition item table to a rough command from the brain, and perform processing within a range of one's own performance by interpreting the command according to this table. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は頭脳部分と動作を行
なう手足の部分にも判断・処理を行なう頭脳を備えた分
散処理ロボットの情報制御方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information control method for a distributed processing robot having a brain for making judgments and processings on a brain part and limbs that perform movements.

【0002】[0002]

【従来の技術】従来ロボットは生産現場において使用さ
れる数値制御の物が主であった。これらのロボットは動
きの全てが予め組まれた、プログラムにより決定されて
いた。しかしながら、センサーを付けた犬型ロボットや
人間型ロボットは愛玩用として近年開発され、センサー
の感知に応じて、動きが変化する様になっている。
2. Description of the Related Art Conventionally, robots have been mainly numerically controlled ones used in production sites. These robots had all their movements pre-programmed, determined by a program. However, dog-like robots and humanoid robots with sensors have been developed in recent years for pets, and their movements change according to the detection of the sensors.

【0003】これらのロボットは頭脳部からの一元的な
指令による為、処理速度の遅さが問題となっていた。
Since these robots receive a single command from the brain, slow processing speed has been a problem.

【0004】ただ、ロボットの中にはこの問題を解消す
る為に、頭脳の中心となる中央制御部分のCPUの他
に、手足の関節部分等の制御を司るドライバーには別に
独立したCPUを使う事は考えられる。
However, in order to solve this problem, some robots use an independent CPU for the driver that controls the joints of the limbs, in addition to the CPU for the central control that is the center of the brain. Things are possible.

【0005】しかし、総合的な判断と認識を経由して動
作させるのはあくまでも中央の頭脳部であった。
However, it is only the central part of the brain that operates through comprehensive judgment and recognition.

【0006】従って、例えば手の部分だけを独自の判断
・認識を伴う高度な動きに変えようとしても、手のパー
ツを交換するだけではだめで、頭脳部分のプログラムも
一緒に変更する必要があった。
Therefore, for example, even if only the hand part is changed to an advanced movement involving unique judgment / recognition, it is not enough to replace the hand part, and the program of the brain part needs to be changed together. It was

【0007】[0007]

【発明が解決しようとする課題】本発明では、上述した
欠点を除去し、ロボットの動作を司るパーツに頭脳部を
持たせ、中央の頭脳部分の負担を軽くした。
SUMMARY OF THE INVENTION In the present invention, the above-mentioned drawbacks are eliminated and the parts that control the operation of the robot are provided with a brain portion to lighten the burden on the central brain portion.

【0008】又パーツの交換により、中央部の処理を変
えることなく、そのパーツに関わる動作処理能力を向上
させる様にした。
Further, by exchanging the parts, the operation processing capacity related to the parts is improved without changing the processing in the central portion.

【0009】[0009]

【課題を解決するための手段】上記目的を達成する為
に、本発明のロボットの情報制御方法は互いに独立した
第1の指令系統と第2の指令系統を有し、前記第1の指
令系統から発した指令を前記第2の指令系統が受信する
受信手段、該受信手段により受信した該指令を分類する
指令分類手段、該指令を明確化する指令明確化手段、該
明確化手段により明確化された該指令を実行出来るか否
か判断する実行判断手段、該実行判断手段により実行出
来ると判断した時に、実行する実行手段を有する事を特
徴とする。
In order to achieve the above object, the robot information control method of the present invention has a first command system and a second command system which are independent of each other. Receiving means for receiving the command issued from the second command system, command classifying means for classifying the command received by the receiving means, command clarifying means for clarifying the command, and clarifying by the clarifying means It is characterized by having an execution judging means for judging whether or not the specified command can be executed, and an executing means for executing when the execution judging means judges that the command can be executed.

【0010】さらに、前記第2の指令系統、前記受信手
段、前記分類手段、前記指令明確化手段、前記実行判断
手段、前記実行手段を、前記第1の指令系統から分離し
他の第2の指令系統、受信手段、分類手段、指令明確化
手段、実行判断手段、実行手段と交換する交換手段を有
する事を特徴とする。
Furthermore, the second command system, the receiving means, the classifying means, the command clarifying means, the execution determining means, and the executing means are separated from the first command system and another second system is provided. The system is characterized by having a command system, a receiving unit, a classifying unit, a command clarifying unit, an execution determining unit, and an exchanging unit for exchanging with the executing unit.

【0011】[0011]

【発明の実施の形態】以下、本発明の実施の形態を図面
に基づいて詳細に説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described in detail below with reference to the drawings.

【0012】(実施例の概要)まず、本発明実施例の概
要を図1を参照して述べる。
(Outline of Embodiment) First, an outline of an embodiment of the present invention will be described with reference to FIG.

【0013】図1は人型ロボットの簡略的な構造図であ
る。101はロボット全体の制御を司る頭脳に相当する
部分で、人間からの指示を受け取ったり、光や音を認識
したり、手足に指令を発したりする。
FIG. 1 is a simplified structural diagram of a humanoid robot. Reference numeral 101 is a part corresponding to a brain that controls the entire robot, and receives instructions from humans, recognizes light and sound, and issues commands to limbs.

【0014】102、103は腕の制御を司る司令部
で、前述した頭脳部からの指示を受けて腕や手、指を動
作させたり、独自に腕や指に関するセンサーを持ち、そ
のセンサーの結果に応じて腕や指を動かす。
Reference numerals 102 and 103 are control units for controlling the arms, which operate the arms, hands, and fingers in response to the instructions from the above-mentioned brain unit, or have sensors for the arms and fingers, and the results of the sensors. Move your arms and fingers accordingly.

【0015】105、106は足の制御を司る司令部で
ある。役割は腕の102、103と同様である。
Reference numerals 105 and 106 are command units for controlling the feet. The role is similar to the arms 102 and 103.

【0016】104は胴体の制御を司る司令部である。
胴体の動きやセンサーを司る。
Reference numeral 104 is a commanding unit that controls the body.
Controls body movements and sensors.

【0017】胴体と手足の制御部は頭脳とライン(10
7)で結ばれており、頭脳からの指示を、各手足や胴体
が自分で動作出来る範囲内で解釈して各々細かい動きを
行なう。
The torso and limbs are controlled by the brain and lines (10
It is tied in 7), and interprets the instructions from the brain within the range where each limb or torso can move by itself and makes fine movements.

【0018】(頭脳部分のブロック図)図2に上述した
頭脳部分のブロック図を示した。
(Block diagram of brain part) FIG. 2 shows a block diagram of the above-mentioned brain part.

【0019】人間からの指示やセンサーから情報を得る
入力部IN(201)から入ったデータは中央処理装置
CPU(202)で処理される。CPUはセンサーから
の情報を整理、蓄積したりする他、予め組まれたプログ
ラムによって各種演算や手足への指示を行なう。このプ
ログラムを格納するのはリードオンリメモリROM(2
03)である。又、ランダムアクセスメモリRAM(2
04)はCPUが演算処理を実行する際に必要なワーク
等を記憶する部分である。
Data input from an input unit IN (201) for obtaining an instruction from a human or information from a sensor is processed by a central processing unit CPU (202). The CPU organizes and accumulates information from the sensor, and also performs various calculations and instructions to the limbs by a preassembled program. This program is stored in the read-only memory ROM (2
03). In addition, random access memory RAM (2
Reference numeral 04) is a portion for storing a work or the like required when the CPU executes the arithmetic processing.

【0020】表示器DISP(205)は文字や映像を
表示させる為のデバイスである。また、操作部KEY
(206)はロボット装置に対する人間からの指示を行
なうデバイスである。
The display DISP (205) is a device for displaying characters and images. In addition, the operation unit KEY
Reference numeral (206) is a device that gives a human instruction to the robot apparatus.

【0021】出力部OUT(207)は音を出したり、
光を発したりする部分である。あるいはモータ制御によ
る顔の表情の変化を行なう。
The output unit OUT (207) outputs a sound,
It is the part that emits light. Alternatively, the facial expression is changed by controlling the motor.

【0022】以上のデバイスをバスラインBL(20
8)が結んで情報のやりとりを実行する。更に、この線
から胴体BODY(209)、右手RARM(21
0)、左手LARAM(211)、右足RLEG(21
2)、左足LLEG(213)への信号が出ている。
The above devices are connected to the bus line BL (20
8) is tied and exchanges information. Further, from this line, the body BODY (209) and the right hand RARM (21
0), left hand LARAM (211), right foot RLEG (21
2), a signal is output to the left leg LLEG (213).

【0023】(手足・胴体部分のブロック図)図3に手
足若しくは胴体部分の司令部のブロック図を示した。
(Block Diagram of Limb / Body) FIG. 3 shows a block diagram of the command center of the limb or the body.

【0024】頭脳HEAD(301)からの指示は中央
処理装置CPU(302)で処理される。
The instruction from the brain HEAD (301) is processed by the central processing unit CPU (302).

【0025】センサーSEN(303)は手ならば指先
等からの圧力や熱を感じる部分でもあるし、目の代わり
になる映像認識部分も持つ。
The sensor SEN (303) is a part that feels pressure and heat from a fingertip or the like if it is a hand, and also has an image recognition part that replaces the eyes.

【0026】リードオンリメモリROM(304)には
CPUの命令を格納するプログラムの他に、後述する動
作を分解して整理する為の動作認識項目テーブルが格納
されている。
The read-only memory ROM (304) stores an operation recognition item table for disassembling and organizing operations to be described later, in addition to a program for storing CPU instructions.

【0027】ランダムアクセスメモリRAM(305)
はCPUが演算処理を実行する際に必要なワーク等を記
憶する部分である。
Random access memory RAM (305)
Is a portion for storing a work or the like required when the CPU executes arithmetic processing.

【0028】出力部OUT(307)は手ならば腕全体
を動かしたり、指を動かす物理的な動作を司るデバイス
である。
The output unit OUT (307) is a device that controls physical movements of moving the entire arm or fingers if it is a hand.

【0029】以上のデバイスをバスラインBL(30
6)が結んで情報のやりとりを実行する。
The above devices are connected to the bus line BL (30
6) Connects and exchanges information.

【0030】(頭脳部における命令の分解)ロボットに
内蔵されたプログラム若しくは人間からの命令で、ある
仕事をロボットが行なう場合、命令を分解或は細分化し
て、センサーからの感知やその結果をもって手足に対し
ての動作指示を行なう。
(Decomposition of command in brain part) When the robot performs a certain work by a program built in the robot or a command from a human, the command is decomposed or subdivided, and the limb is detected by the sensor or the result thereof. To give an operation instruction to.

【0031】図4に示したのは仕事を細かく分解した系
統図である。例えば「椅子をドアまで移動せよ」という
命令(401)を受けた場合、この命令は6つに分割さ
れて、ここの細分化された命令をセンサーや動力に指示
する訳である。
FIG. 4 is a system diagram in which work is finely decomposed. For example, when a command (401) "move a chair to a door" is received, this command is divided into six, and the subdivided commands are given to the sensor and the power.

【0032】どのように分解されるか見てみると、ま
ず、椅子はどこにあるのか探す必要がある。これは視覚
と触覚を利用して椅子の位置を認識する(402)。
Looking at how it is disassembled, first, it is necessary to find where the chair is. This recognizes the position of the chair using the visual sense and the tactile sense (402).

【0033】椅子の位置が分かったなら、その椅子まで
移動する。移動するには移動の為の方向転換も含めて足
を動かさねばならない。足に対して移動の指示を出す。
さらに椅子までたどり着いたら止まる動作を行なう。こ
の時椅子の手前何センチのところで止まるかもセンサー
で感知しながら進む(403)。
Once the position of the chair is known, move to that chair. To move, you must move your feet, including changing the direction of movement. Instruct the legs to move.
When you reach the chair, it stops. At this time, the sensor moves forward to detect how many centimeters it will stop before the chair (403).

【0034】次に、椅子を持つ動作を行なう。実際には
単に持つといっても、どこを持つのか、持ち手の形状や
位置により、手の動きを制御しなければならないので、
目に相当するセンサーが必要である。持ち上げた後も、
どの高さで止めれば良いか、プログラムで規定する必要
がある(404)。
Next, the operation of holding a chair is performed. Actually, even if you just hold it, you have to control the movement of the hand depending on where you hold it, depending on the shape and position of the handle,
A sensor equivalent to the eyes is needed. Even after lifting
It is necessary to programmatically determine at what height the stop should be made (404).

【0035】椅子を持ったら移動する前に、ドアの位置
を認識する。これは目に相当するセンサーが行なう(4
05)。
If you have a chair, recognize the position of the door before moving. This is done by the sensor corresponding to the eye (4
05).

【0036】しかる後、ドアまで移動する。移動する為
に足に歩くという指示を与える。ドアまでたどり着いた
ら止まる。ドアまでの距離を距離センサーで感知する仕
事も含まれる(406)。
After that, the door is moved to the door. Give the foot instructions to move to move. Stop when you reach the door. The work of sensing the distance to the door with a distance sensor is also included (406).

【0037】最後に椅子を下ろす。これは腕への指示で
行なう(407)。
Finally, the chair is lowered. This is done by instructing the arm (407).

【0038】以上述べた様に人間なら簡単に出来る仕事
も、ロボットでは細かく作業を分解して、センサーを利
用して認識して、その結果で手足への指示を出して手足
の動力によって或は手足についているセンサーによって
一連の作業を完了するわけである。
As described above, even a job that can be easily performed by a human being can be broken down into small pieces by a robot, recognized by using sensors, and as a result, an instruction can be given to the limbs or by the power of the limbs or The sensors on the limbs complete a series of tasks.

【0039】(手足の決定事項)上述した分解された作
業のうち、「椅子を持つ」作業は手が行なうものである
が、この実行の為には対象物へより細かい認識が必要で
ある。図5に「椅子を持つ」(501)為に必要な決定
事項を列挙した。まず椅子のどこを持つのか(50
2)、片手で持つのか両手で持つのか(503)、持っ
た後どの程度の高さまで持ちあげるのか(504)、又
持ち方の強さ、強く持つのか或は弱く持つのか。強く持
ち過ぎると壊れる場合があるし弱く持つと落とす恐れが
ある(505)。
(Measurement Items of Hands and Feet) Among the disassembled works described above, the work of “holding a chair” is performed by the hand, but in order to carry out this work, more detailed recognition of the object is required. FIG. 5 enumerates the decisions necessary to “have a chair” (501). First, where do you have a chair (50
2) Whether to hold it with one hand or both hands (503), how high it should be after holding it (504), and how strong it is, whether to hold it strongly or weakly. If you hold it too hard, it may break, and if you hold it too weak, it may drop (505).

【0040】このような事項に対して一つ一つ解答を出
した後、初めて「椅子を持つ」という仕事が完成する。
After giving answers one by one to such matters, the work of "holding a chair" is completed for the first time.

【0041】(決定事項に関わる認識項目テーブル)上
述した決定すべき事項に解答を出す為には、「持つ」と
いう動作を行なう対象物を正しく認識しなければならな
いが、認識した結果どう対処すべきか、基準となる項目
を予め決めておかなければならない。例えば1kg以下
の重さの物は片手で持てるが、それ以上は両手で持つと
か、さらに3kg以上の物は持つ事は不可能であるとい
った限界も決めておかねばならない。そのデータをテー
ブルとして「手」のROMに持たせておく。これを認識
項目テーブルと呼ぶ。図6に「持つ」という動作に関わ
る認識項目を示した。持つ為には形状、重さ、大きさ、
硬さ、把手の位置と形などのデータ(602)が必要で
ある。これらはロボットの「手」の種類に応じて異な
る。ロボットの「手」を交換する事によって性能を上げ
ることが出来るのは、対象物とこの「手」の持っている
認識項目テーブルの内容の比較により的確な判断が出来
るからである。
(Recognized Item Table Related to Decision Items) In order to give an answer to the above-mentioned items to be decided, it is necessary to correctly recognize the object that has the action of "holding". You must decide in advance which items will be the standard. For example, you must have a limit such that you can hold an object weighing less than 1 kg with one hand, but you can hold more than 2 kg with both hands, or you can not hold an object weighing more than 3 kg. The data is stored as a table in the "hand" ROM. This is called a recognition item table. FIG. 6 shows the recognition items related to the operation of “hold”. To have, shape, weight, size,
Data (602) such as hardness and position and shape of the handle is required. These differ depending on the type of "hand" of the robot. The reason why the performance can be improved by exchanging the "hand" of the robot is that an accurate judgment can be made by comparing the contents of the recognition item table held by the object and this "hand".

【0042】図8に形状に関する例を示した。「手」が
「持つ」事の出来る形状として「把手がある」「球形」
等があり、持てない形状として「円筒形」「直方体」等
がある。これは一例であり、円筒形でも持つことの出来
る「手」ならば当然円筒形は持てる形状に含まれる。
FIG. 8 shows an example of the shape. "Handle" is a "sphere" that can be "held" by a "hand"
Etc., and the shapes that cannot be held include “cylindrical” and “cuboid”. This is an example, and if the "hand" that can be held in a cylindrical shape is naturally included in the shape that the cylindrical shape can hold.

【0043】(手における処理過程)「手」が頭脳から
の指令により、処理を行なう過程を図7のフローチャー
トで説明する。
(Processing Process in Hand) A process in which the "hand" performs a process in response to a command from the brain will be described with reference to the flowchart of FIG.

【0044】この処理の流れはプログラムとして「手」
のROMに格納されている。
The flow of this processing is "hand" as a program.
Stored in the ROM.

【0045】まず、頭脳からの指令を受信する。先の例
で言えば「椅子を持て」という事になる(ステップS7
01)。
First, a command from the brain is received. In the previous example, it means "hold a chair" (step S7).
01).

【0046】次に、「持つ」という動作の認識項目テー
ブルを「手」のROMから検索する(ステップS70
2)。
Next, the recognition item table of the action of "holding" is retrieved from the ROM of "hand" (step S70).
2).

【0047】つまり、図6のテーブルをROM内で検索
するわけである。次に持つ対象物の検知を行なう。例え
ば形状はどうか重さはどうかといった事を認識するわけ
である(ステップS703)。
That is, the table of FIG. 6 is searched in the ROM. Next, the object to be held is detected. For example, the shape and the weight are recognized (step S703).

【0048】認識した結果と前述した認識項目テーブル
と比較して、実行可能か否か判別する(ステップS70
4)。
The result of recognition is compared with the above-mentioned recognition item table to determine whether or not it can be executed (step S70).
4).

【0049】つまり、持てない形状や重過ぎるものは持
てないので、ここで判断する。その結果実行不可能と判
断された場合は、実行不可能である旨のメッセージを頭
脳部に送る。頭脳部は表示器にこのメッセージを表示す
る(ステップS707)。
That is, since the shape which cannot be held or the object which is too heavy cannot be held, the judgment is made here. As a result, if it is determined that the job cannot be executed, a message indicating that the job cannot be executed is sent to the brain. The brain section displays this message on the display (step S707).

【0050】実行可能の場合は全ての項目の比較が終わ
るまでループする(ステップS705)。
If it is feasible, the process loops until all items are compared (step S705).

【0051】全項目が実行可能の場合初めて実行を行な
う(ステップS706)。
When all the items are executable, the execution is performed for the first time (step S706).

【0052】以上が「手」で行なう処理である。勿論
「足」「胴体」も同様の処理を行なう。
The above is the process performed by "hand". Of course, the same processing is performed for the "foot" and "body".

【0053】(性能による違い)ロボットの「手」の性
能の違いの具体例を以下に示す。図9、図10は「手」
が円筒を持っている図である。
(Differences in Performance) Specific examples of differences in the performance of the “hands” of the robot are shown below. 9 and 10 are "hands"
It is a figure which has a cylinder.

【0054】図9の方は手の先についている指(90
1、905)が2本あるが、円筒(902)との接点は
2箇所(903、904)なので1箇所にかかる圧力が
強くて、円筒を破壊してしまう恐れがある。従って円筒
は持てないとする。
In FIG. 9, the finger (90
Although there are two contact points with the cylinder (902), there are two points (903, 904) in contact with the cylinder (902), so that the pressure applied to one point is strong, and the cylinder may be broken. Therefore, the cylinder cannot be held.

【0055】図10の手は指が2本しかなくても、関節
が多いので(1001〜1005)円筒(1006)と
の接点は5箇所(1007〜1011)あるので円筒を
破壊せずに持つことが出来る。
Even if the hand of FIG. 10 has only two fingers, since there are many joints (1001 to 1005) and there are five points (1007 to 1011) of contact with the cylinder (1006), the cylinder is held without being broken. You can

【0056】このように手を変える事により、頭脳を変
えずに性能を上げる事が可能である。
By changing the hands in this way, it is possible to improve the performance without changing the brain.

【0057】(その他の実施例)上述した実施例では例
えば実行不可メッセージは頭脳部に送って頭脳部の表示
器に表示させる様にしたが、手や足に或は胴体に表示器
を持たせて、その表示器に表示させる様にしても良い。
(Other Embodiments) In the above-described embodiments, for example, the execution-disabled message is sent to the brain portion and displayed on the display unit of the brain unit. However, the hand or foot or the torso should have the display unit. Then, the display may be displayed.

【0058】手足を交換する事を想定したが、逆に頭脳
部分を交換しても同じ事である。
Although it is assumed that the hands and feet are exchanged, the same thing can be said if the brain part is exchanged.

【0059】[0059]

【発明の効果】以上説明した通り、本発明では、上述し
た欠点を除去し、ロボットの動作を司るパーツに頭脳部
を持たせ、中央の頭脳部分の負担を軽くした。
As described above, according to the present invention, the above-mentioned drawbacks are eliminated, and the parts that control the operation of the robot are provided with the brain portion, and the burden on the central brain portion is lightened.

【0060】又パーツの交換により、中央部の処理を変
えることなく、そのパーツに関わる動作処理能力を向上
させる様にした。
Further, by exchanging the parts, the operation processing ability related to the parts is improved without changing the processing in the central portion.

【図面の簡単な説明】[Brief description of drawings]

【図1】人型ロボットの構造図。FIG. 1 is a structural diagram of a humanoid robot.

【図2】頭脳部分のブロック図。FIG. 2 is a block diagram of a brain portion.

【図3】手足、胴体の司令部のブロック図。FIG. 3 is a block diagram of a limb and torso command center.

【図4】仕事を分解した系統図。FIG. 4 is a systematic diagram that decomposes work.

【図5】「椅子を持つ」の決定事項図。FIG. 5 is a diagram of decision items for “having a chair”.

【図6】「手」の認識項目テーブル。FIG. 6 is a recognition item table of “hand”.

【図7】「手」の処理フローチャート。FIG. 7 is a processing flowchart of “hand”.

【図8】形状に関する認識項目テーブル例。FIG. 8 is an example of a recognition item table regarding shapes.

【図9】手が円筒を持つ例図。FIG. 9 is a diagram showing an example in which a hand has a cylinder.

【図10】手が円筒を持つ例図。FIG. 10 is a view showing an example in which a hand has a cylinder.

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 互いに独立した第1の指令系統と第2の
指令系統を有し、前記第1の指令系統から発した指令を
前記第2の指令系統が受信する受信手段、該受信手段に
より受信した該指令を分類する指令分類手段、該指令を
明確化する指令明確化手段、該明確化手段により明確化
された該指令を実行出来るか否か判断する実行判断手
段、該実行判断手段により実行出来ると判断した時に、
実行する実行手段を有する事を特徴とするロボットの情
報制御方法。
1. A receiving unit having a first command system and a second command system independent from each other, wherein the second command system receives a command issued from the first command system, and the receiving unit. Command classification means for classifying the received commands, command clarification means for clarification of the commands, execution judgment means for judging whether or not the commands clarified by the clarification means can be executed, and execution judgment means When you decide that you can do it,
An information control method for a robot, characterized by having an executing means for executing.
【請求項2】 前記第2の指令系統、前記受信手段、前
記分類手段、前記指令明確化手段、前記実行判断手段、
前記実行手段を、前記第1の指令系統から分離し他の第
2の指令系統、受信手段、分類手段、指令明確化手段、
実行判断手段、実行手段と交換する交換手段を有する事
を特徴とする請求項1記載のロボットの情報制御方法。
2. The second command system, the receiving unit, the classifying unit, the command clarifying unit, the execution determining unit,
The executing means is separated from the first command system, and another second command system, receiving means, classifying means, command clarifying means,
2. The robot information control method according to claim 1, further comprising an execution determination means and an exchange means for exchanging the execution means.
JP2002136822A 2002-05-13 2002-05-13 Robot information control method Withdrawn JP2003334783A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002136822A JP2003334783A (en) 2002-05-13 2002-05-13 Robot information control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002136822A JP2003334783A (en) 2002-05-13 2002-05-13 Robot information control method

Publications (1)

Publication Number Publication Date
JP2003334783A true JP2003334783A (en) 2003-11-25

Family

ID=29698753

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002136822A Withdrawn JP2003334783A (en) 2002-05-13 2002-05-13 Robot information control method

Country Status (1)

Country Link
JP (1) JP2003334783A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100362496C (en) * 2003-11-26 2008-01-16 中国科学院沈阳自动化研究所 Distributed underwater robot control system
JP2011516287A (en) * 2008-04-09 2011-05-26 アルデバラン ロボティクス Control command architecture for mobile robots using joint limbs
JP2015168056A (en) * 2014-03-04 2015-09-28 サルコス・エルシー Coordinated robotic control
US9409292B2 (en) 2013-09-13 2016-08-09 Sarcos Lc Serpentine robotic crawler for performing dexterous operations
CN107877501A (en) * 2017-12-20 2018-04-06 万博宣 Mechanical arm

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100362496C (en) * 2003-11-26 2008-01-16 中国科学院沈阳自动化研究所 Distributed underwater robot control system
JP2011516287A (en) * 2008-04-09 2011-05-26 アルデバラン ロボティクス Control command architecture for mobile robots using joint limbs
US9327400B2 (en) 2008-04-09 2016-05-03 Aldebaran Robotics Control-command architecture for a mobile robot using articulated limbs
US9409292B2 (en) 2013-09-13 2016-08-09 Sarcos Lc Serpentine robotic crawler for performing dexterous operations
JP2015168056A (en) * 2014-03-04 2015-09-28 サルコス・エルシー Coordinated robotic control
US9566711B2 (en) 2014-03-04 2017-02-14 Sarcos Lc Coordinated robotic control
CN107877501A (en) * 2017-12-20 2018-04-06 万博宣 Mechanical arm

Similar Documents

Publication Publication Date Title
CN107921645B (en) Remote operation robot system
US8954195B2 (en) Hybrid gesture control haptic system
US10166673B2 (en) Portable apparatus for controlling robot and method thereof
WO2011065035A1 (en) Method of creating teaching data for robot, and teaching system for robot
US20210394362A1 (en) Information processing device, control method, and program
CN114347033B (en) Robot character grabbing method and device, robot and storage medium
Martín-Barrio et al. Application of immersive technologies and natural language to hyper-redundant robot teleoperation
JP2003334783A (en) Robot information control method
US20200026478A1 (en) Control Apparatus, Head Mounted Display And Robot System
JP4997419B2 (en) Robot motion conversion system
JPH04156610A (en) Automatic recognition device for man action using neural network
CN116214522B (en) Mechanical arm control method, system and related equipment based on intention recognition
JP7079435B2 (en) Robot control device, robot control method and robot control program
KR20130122288A (en) 3d simulation method and system for robot
US20220101477A1 (en) Visual Interface And Communications Techniques For Use With Robots
Mortimer et al. Searching Baxter's URDF robot joint and link tree for active serial chains
JP2011067884A (en) Robot control system, robot control method, robot control device, and program, applied to high speed high precision contact work,
CN115702066A (en) Robot control device
WO2008066273A1 (en) Apparatus and method for detecting posture of robot
RU2745380C1 (en) Method and system for capturing objects using robotic device
US20240123627A1 (en) Robot control device
KR100853424B1 (en) Motion and facial expression composing device and method in human type robot
KR101969727B1 (en) Apparatus for manipulating multi-joint robot and method thereof
Yu et al. Sensors assisted telemanipulation for maximizing manipulation capabilities of persons with disabilities
Michalowski Progress towards a robotic aid for the severely disabled

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050802