JP5638283B2 - Control device - Google Patents
Control device Download PDFInfo
- Publication number
- JP5638283B2 JP5638283B2 JP2010107734A JP2010107734A JP5638283B2 JP 5638283 B2 JP5638283 B2 JP 5638283B2 JP 2010107734 A JP2010107734 A JP 2010107734A JP 2010107734 A JP2010107734 A JP 2010107734A JP 5638283 B2 JP5638283 B2 JP 5638283B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- trajectory
- predicted
- posture
- task
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Manipulator (AREA)
Description
本発明は、対象物との相互作用を伴うタスクをロボットに実行させるロボットの制御装置に関する。 The present invention relates to a robot control apparatus that causes a robot to execute a task involving interaction with an object.
近年、ロボットに対象物を把持して該対象物を移動させるなど、対象物との相互作用を伴うタスクをロボットに実行させるための様々な技術が提案されている(例えば、下記特許文献1参照)。 In recent years, various techniques have been proposed for causing a robot to perform a task that involves interaction with the object, such as holding the object by the robot and moving the object (for example, see Patent Document 1 below). ).
しかしながら、タスクの種類によっては、タスクを実行するための目標軌道を生成するのに比較的長い時間を要してしまい、タスク実行までに時間が掛かるという問題がある。 However, depending on the type of task, it takes a relatively long time to generate a target trajectory for executing the task, and there is a problem that it takes time to execute the task.
一方で、タスクの実行開始を早めるために、タスクをその実行段階毎に分けて、各実行段階について目標軌道を生成させることも考えられるが、実行段階が切り替わる際に、次の実行段階における目標軌道が生成されるまで、タスクが中断していまい、ロボットの動作が不連続になるという問題がある。 On the other hand, in order to expedite task execution, it may be possible to divide the task into its execution stages and generate a target trajectory for each execution stage, but when the execution stage switches, the target in the next execution stage Until the trajectory is generated, the task is interrupted and the robot operation becomes discontinuous.
そこで、本発明は、以上の点に鑑み、タスクの実行開始を早めることができ、かつ、ロボットの動作が不連続性となることを防止することができるロボットの制御装置を提供することを目的とする。 Therefore, in view of the above points, the present invention has an object to provide a robot control device that can speed up the start of task execution and prevent the operation of the robot from becoming discontinuous. And
第1発明の制御装置は、基体と、前記基体に連結された肢体とを備えるロボットに、前記肢体と一または複数の対象物との接触を伴う、複数の実行段階に区分されるタスクを実行させるロボットの制御装置であって、前記複数の実行段階のそれぞれにおいて前記ロボットの要求軌道を生成する要求タスク生成手段と、前記要求タスク生成手段により生成された前記複数の実行段階のそれぞれにおける前記要求軌道に基づき、前記ロボットが少なくとも次に実行する将来の実行段階の初期における前記対象物の予測位置および予測姿勢を予測する外界予測手段と、前記外界予測手段により予測された、前記将来の実行段階の初期における前記対象物の予測位置および予測姿勢から、前記将来の実行段階における前記ロボットの時系列的な位置および姿勢の目標軌道を生成する行動計画手段と、を備えることを特徴とする。 A control device according to a first aspect of the present invention performs a task divided into a plurality of execution stages involving contact between the limb and one or a plurality of objects on a robot including a base and a limb connected to the base. a control apparatus for a robot to a requested task generating means for generating a request trajectory of the robot at each of said plurality of execution stages, the request in each of the request the plurality of execution steps generated by the task generating unit based on the track, the robot is predicted and the outside world predicting means for predicting a predicted position and predicted orientation of the object in the initial future execution step of performing at least the following, by the external prediction means, the future execution phase from the predicted position and the predicted attitude of the early the object, you sequence position when the robot before Symbol future execution phase An action planning means for generating a target trajectory of the fine orientation, characterized in that it comprises a.
第1発明の制御装置によれば、タスクの各実行段階における対象物の位置および姿勢を予測しておき、その予測に基づいて、ロボットがこれから実行する実行段階における、ロボットの時系列的な位置および姿勢を生成する。これにより、タスクをその実行段階毎に分けてタスクの実行開始を早めた場合にも、実行段階が切り替わる際には、次の実行段階におけるロボットの行動計画の作成が為されているため、タスクの実行が中断していまい、ロボットの動作が時間的に不連続になることを防止することができる。 According to the control device of the first aspect of the present invention, the position and orientation of the object in each execution stage of the task are predicted, and the time-series position of the robot in the execution stage to be executed by the robot based on the prediction. And generate posture. As a result, even if the task is divided into execution stages and the task execution start is accelerated, the robot action plan is created in the next execution stage when the execution stage switches, so the task It is possible to prevent the operation of the robot from being discontinuous and the operation of the robot from being discontinuous in time.
さらに、生成されたロボットの時系列的な位置および姿勢は、タスクの各実行段階における対象物の予測位置および予測姿勢に即したものであるため、ロボットの位置および姿勢が空間的に不連続になることも防止することができる。 In addition, the time-series position and orientation of the generated robot are in line with the predicted position and orientation of the target object at each execution stage of the task, so the robot position and orientation are spatially discontinuous. It can also be prevented.
このように、第1発明の制御装置によれば、タスクの実行開始を早めることができ、かつ、ロボットの動作が不連続性となることを防止することができる。 As described above, according to the control device of the first aspect of the present invention, it is possible to speed up the start of task execution and to prevent the operation of the robot from becoming discontinuous.
第2発明の制御装置は、第1発明において、
前記行動計画手段は、前記外界予測手段より予測された、前記タスクの1の実行段階の終了時の前記対象物の予測位置および予測姿勢から、前記ロボットの目標位置軌道および目標姿勢軌道になるように、該1の実行段階の次の実行段階における前記ロボットの時系列的な位置および姿勢を生成するための制約条件を決定することを特徴とする。
The control device of the second invention is the control device according to the first invention,
The behavior planning unit is configured to obtain a target position trajectory and a target posture trajectory of the robot from the predicted position and predicted posture of the object at the end of the execution stage of one of the tasks predicted by the external world predicting unit. Further, it is characterized in that a constraint condition for generating a time-series position and posture of the robot in an execution stage subsequent to the one execution stage is determined.
第2発明の制御装置によれば、タスクの各実行段階の終了時の対象物の予測位置および予測姿勢、すなわち、予測を行った次の実行段階の対象物の初期位置および初期姿勢を予測することができる。そして、この対象物の初期位置および初期姿勢から、該次の実行段階のロボットの時系列的な位置および姿勢を生成するための制約条件を決定する。かかる制約条件に基づいて、予め次の実行段階におけるロボットの時系列的な位置および姿勢を生成しておくことができ、タスクをその実行段階毎に分けた場合にも、実行段階が切り替わる際に、次の実行段階におけるロボットの行動計画の作成が為されているため、タスクの実行が中断していまい、ロボットの動作が時間的に不連続になることを防止することができる。 According to the control device of the second aspect of the invention, the predicted position and posture of the target object at the end of each execution stage of the task, that is, the initial position and initial position of the target object in the next execution stage in which prediction has been performed are predicted. be able to. Then, a constraint condition for generating a time-series position and posture of the robot in the next execution stage is determined from the initial position and initial posture of the target object. Based on these constraints, the time-series position and orientation of the robot in the next execution stage can be generated in advance, and even when the task is divided for each execution stage, when the execution stage switches Since the robot action plan is created in the next execution stage, the task execution is not interrupted, and it is possible to prevent the robot operation from being discontinuous in time.
さらに、生成されたロボットの時系列的な位置および姿勢は、タスクの各実行段階の終了時の対象物の予測位置および予測姿勢に基づくため、タスクの各実行段階が切り替わる際にロボットの位置および姿勢が空間的に不連続になることも防止することができる。 Furthermore, since the generated time-series position and orientation of the robot are based on the predicted position and predicted posture of the target object at the end of each execution stage of the task, the robot position and orientation are changed when each execution stage of the task is switched. It is also possible to prevent the posture from becoming spatially discontinuous.
このように、第2発明の制御装置によれば、タスクの実行開始を早めることができ、かつ、ロボットの動作が不連続性となることを防止することができる。 Thus, according to the control device of the second aspect of the present invention, it is possible to speed up the start of task execution and prevent the robot operation from becoming discontinuous.
第3発明の制御装置は、第1または第2発明において、
外界予測手段は、前記外界予測手段より予測された、前記タスクの1の実行段階における前記対象物の予測位置および予測姿勢が、該1の実行段階における現在の前記対象物の位置および姿勢と相違する場合に、現在の前記対象物の位置および姿勢から、該1の実行段階以降の各実行段階における前記対象物の予測位置および予測姿勢を予測することを特徴とする。
The control device of the third invention is the first or second invention,
The outside world predicting means is such that the predicted position and the predicted posture of the object in the execution stage of the one task predicted by the external world prediction means are different from the current position and attitude of the object in the one execution stage. when, from the position and orientation of the current of the object, characterized by predicting a predicted position and predicted orientation of the object in each execution phase of the execution stage subsequent of the 1.
第3発明の制御装置によれば、タスクの各実行段階の対象物の予測位置および予測姿勢が、各実行段階における現実の対象物の位置および姿勢と相違する場合に、実際の対象物の位置および姿勢に基づいて、これ以降の各実行段階における前記対象物の予測位置および予測姿勢が予測される。そのため、タスクの実行段階で、予測した状況に変化が生じた場合にも、その変化に応じて、これ以降の各実行段階の対象物の予測位置および予測姿勢に基づいて、次にロボットが実行する実行段階における、ロボットの時系列的な位置および姿勢が生成される。 According to the control device of the third aspect of the present invention, when the predicted position and the predicted posture of the object in each execution stage of the task are different from the actual position and posture of the target object in each execution stage, the actual position of the target object The predicted position and predicted posture of the object in each subsequent execution stage are predicted based on the posture and the posture. Therefore, even if a change occurs in the predicted situation in the task execution stage, the robot executes next based on the predicted position and posture of the target object in each subsequent execution stage according to the change. A time-series position and posture of the robot in the execution stage are generated.
これにより、予測した状況に変化が生じた場合にも、状況の変化に応じたロボットの時系列的な位置および姿勢を生成するのに時間を要して、ロボットのタスク実行が中断することを防止することができ、ロボットの動作が不連続になることを防止することができる。 As a result, even if a change occurs in the predicted situation, it takes time to generate a time-series position and posture of the robot according to the change in the situation, and the task execution of the robot is interrupted. It is possible to prevent the movement of the robot from becoming discontinuous.
さらに、生成されたロボットの時系列的な位置および姿勢は、タスクの各実行段階における対象物の予測位置および予測姿勢に即したものであるため、ロボットの位置および姿勢が空間的に不連続になることも防止することができる。 In addition, the time-series position and orientation of the generated robot are in line with the predicted position and orientation of the target object at each execution stage of the task, so the robot position and orientation are spatially discontinuous. It can also be prevented.
このように第3発明の制御装置によれば、予測した状況に変化が生じた場合にも、タスクの実行が中断してロボットの動作が不連続性となることを防止することができる。 As described above, according to the control device of the third aspect of the present invention, it is possible to prevent the execution of the task from being interrupted and causing the robot operation to become discontinuous even when the predicted situation changes.
次に、本発明のロボットの制御装置の実施形態について、図1〜図6を参照して説明する。 Next, an embodiment of the robot control apparatus of the present invention will be described with reference to FIGS.
まず、図1に示すように、ロボットの制御装置は、自律移動ロボットR(以下、ロボットRという)のコントローラ100およびサポートサーバ200により構成されている。
First, as shown in FIG. 1, the robot control device includes a
ロボットRは、基体10と、基体10の上部に設けられた頭部11と、基体10の上部左右両側から延設された左右の腕部12と、腕部12の先端部に設けられた手部14と、基体10の下部から下方に延設された左右の脚部13と、脚部13の先端部に取り付けられている足部15とを備えている。ロボットRは、再表03/090978号公報や、再表03/090979号公報に開示されているように、アクチュエータ1000(図3参照)から伝達される力によって、人間の肩関節、肘関節、手根関節、股関節、膝関節、足関節等の複数の関節に相当する複数の関節部分において腕部12や脚部13を屈伸運動させることができる。ロボットRは、左右の脚部13(または足部15)のそれぞれの離床および着床の繰り返しを伴う動きによって自律的に移動することができる。基体10の鉛直方向に対する傾斜角度が調節されることによって、頭部11の高さが調節されうる。なお、移動装置は複数の脚部13の動作によって自律的に移動するロボットRのほか、車輪式移動ロボット(自動車)等、移動機能を有するあらゆる装置であってもよい。
The robot R includes a
頭部11には、左右に並んでロボットRの前方に向けられた一対の頭カメラ(CCDカメラ)C1が搭載されている。基体10には、ロボットRの前側下部の検知領域A(C2)に赤外レーザ光線(電磁波)を出力し、その反射光の入力に応じた信号を出力する腰カメラC2が搭載されている。腰カメラC2はロボットRの前方下方にある物体の位置の測定、床面に付されているマークの形状および姿勢の認識に基づくロボットRの方位または姿勢の測定、および、台車等の運搬対象物に付されているマークの形状または姿勢の認識結果に基づくこの運搬対象物の位置または姿勢の測定等に用いられる。
The
ロボットRはハードウェアとしてのECUまたはコンピュータ(CPU,ROM,RAM,I/O等により構成されている。)により構成されているコントローラ100と、通信機器140(図2参照)とを備えている。コンピュータのメモリには制御プログラム(ソフトウェア)が格納されている。制御プログラムはCDやDVD等のソフトウェア記録媒体を通じてコンピュータにインストールされてもよいが、ロボットRからサーバに要求信号が送信されたことに応じて当該サーバによってネットワークや人工衛星を介して当該コンピュータにダウンロードされてもよい。
The robot R includes a
図2に示すように、コントローラ100は、入力装置101のほか、ロボットRに搭載された頭カメラC1、腰カメラC2、肩カメラC3、ロータリエンコーダ102、ジャイロセンサ103、GPS受信器104等の出力信号に基づき、アクチュエータ1000の動作を制御することにより、腕部12や脚部13の動作を制御する。コントローラ100は、サポートサーバ200からロボットRに対して送信された生成軌道にしたがって、このロボットRの行動を制御する。
As shown in FIG. 2, in addition to the
入力装置(ユーザ端末)101は、例えば、キーボードやタッチパネルなどの入力デバイスと、液晶ディスプレーなどのモニタを備えたパーソナルコンピュータからなる端末であって、コントローラ100との間で通信可能に構成されている。入力装置101は、ユーザがこれを操作することにより、ロボットRで実行可能なタスクを指定することができる。このように、入力装置101は、ロボットRの起動・停止・タスク実行などをユーザが指示してロボットRを遠隔操作するためのユーザインターフェースとして用いられると共に、頭カメラC1等の映像の表示などロボット自体の作動状況の監視に用いることもできる。
The input device (user terminal) 101 is a terminal composed of a personal computer including an input device such as a keyboard and a touch panel and a monitor such as a liquid crystal display, and is configured to be able to communicate with the
頭カメラC1、腰カメラC2等は、対象物や外界干渉物の挙動状態等、ロボットRの外部状態または環境を測定するためのセンサに相当する。 The head camera C 1 , the waist camera C 2, and the like correspond to sensors for measuring the external state or environment of the robot R, such as the behavior state of an object or an external interference object.
ロータリエンコーダ102、ジャイロセンサ103、GPS受信器104は、ロボットRの内部状態または挙動状態を測定するためのセンサ等に相当し、これには、図示しないロボットRに搭載されたバッテリの端子電圧を検出する電圧センサ、脚部13に作用する床反力に応じた信号を出力する力センサ等、ロボットRに搭載されている種々のセンサが内部状態センサ等が該当する。これらのセンサの検出値に基づいて、コントローラ100は、ロボットRの内部状態または挙動状態を認識する。
The
アクチュエータ1000は電動モータ等の駆動源のほか、駆動源の出力軸と腕部12や脚部13を構成するリンクとの間に設けられた減速機や、弾性部材等の柔軟要素により構成されている。
The
さらに、コントローラ100は、要求タスク生成部110と、画像処理部120と、将来外界予測部130と、通信機器140と、主制御部150とを備える。
Further, the
要求タスク生成部110は、入力装置101によるユーザの操作を認識する機能を有し、入力装置101を介してユーザによって指定された要求タスクを認識し、要求タスクを実行するために要求される要求軌道群を作成する。ここで、要求軌道群は、タスクをその実行段階に応じておおまかに分割した場合の各段階で要求される軌道の集合体を指す。そして、要求タスク生成部110は、生成した要求軌道群を将来外界予測部130およびサポートサーバ200へ出力する。
The request
画像処理部120は、ステレオ処理部121と、障害物検出部122と、対象物認識部123とを備え、カメラC1〜C3で撮影した画像を処理して、撮影された画像からロボットRの周囲の状況を把握するため、周囲の障害物や対象物の認識を行う。なお、障害物は、後述するようにロボットRとの干渉を回避する必要性がある点で、本発明の対象物に含まれる概念である。
The
ステレオ処理部121は、左右の頭カメラC1,C1が撮影した2枚の画像の一方を基準としてパターンマッチングを行い、左右の画像中の対応する各画素の視差を計算して視差画像を生成し、生成した視差画像及び元の画像を障害物検出部122へ出力する。なお、この視差は、ロボットRから撮影された物体までの距離を表すものである。
The
障害物検出部122は、ステレオ処理部101から出力されたデータに基づき、撮影した画像中の障害物を検出する。さらに、障害物検出部122は、検出した障害物の所定距離範囲のみの視差画像として、障害物を抽出し、対象物認識部123へ障害物の画像を出力する。
The
対象物認識部123は、検出した障害物からタスクの実行の際に相互作用を伴う対象物の形状等を抽出して、その大きさ、形状等から対象物を認識する。
The
なお、障害物検出部122で検出された障害物の領域、大きさ、形状と、対象物認識部123で認識された対象物の領域、大きさ、形状とは、将来外界予測部130へ出力される。
Note that the area, size, and shape of the obstacle detected by the
将来外界予測部130は、要求タスク生成部110により生成された要求軌道群と、障害物検出部122および対象物認識部123で認識された現時点での障害物および対象物から、タスクの実行段階に応じた将来の障害物および対象物の位置等を推定する。
The future external
すなわち、将来外界予測部130は、現時点から、タスクをその実行段階に応じておおまかに分割した場合の第1段階で要求される軌道に従ってロボットRを動作させた後の障害物および対象物の位置等を推定する。次に、この状態(第1段階の実行後)から、第2段階で要求される軌道に従ってロボットRを動作さえた後の障害物および対象物の位置等を推定する。以下、この推定を繰り返すことで、要求タスク生成部110により生成された要求軌道群に従ってロボットを動作させた各段階での障害物および対象物の位置等を予め推定する。
That is, the future external
主制御部150は、サポートサーバ200からロボットRに対して送信された生成軌道にしたがって、複数のアクチュエータ1000を制御し、生成軌道にこのロボットRの行動を追従させる。
The main control unit 150 controls the plurality of
サポートサーバ(CPU,ROM,RAM,I/O等により構成されている。)200は基地局(図示略)および通信網を介してロボットRとの通信機能を有している。 A support server (comprising a CPU, ROM, RAM, I / O, etc.) 200 has a communication function with the robot R via a base station (not shown) and a communication network.
サポートサーバ200は、動作区分処理部210と、軌道探索管理部220と、干渉判定部230とを備える。
The
動作区分処理部210は、要求タスク生成部110により生成された要求軌道群の各実行段階における一連の動作をさらに次のように区分する。
The motion
各段階の一連の動作を、(1)ロボットRまたはロボットRと一体となった第2対象物T2が第1対象物T1に対して非接触状態から接触状態へ遷移する(例えば対象物を把持する)動作区分である第1動作区分D1と、(2)ロボットRまたはロボットRと一体となった第2対象物T2が第1対象物T1に対して接触状態から非接触状態へ遷移する(対象物を放す)動作区分である第2動作区分D2と、(3)第1動作区分D1と第2動作区分D2とのいずれか一方または両方に連続する動作区分である第3動作区間D3とに区分する。 A series of operations at each stage is performed as follows: (1) The robot R or the second object T2 integrated with the robot R transitions from the non-contact state to the contact state with respect to the first object T1 (for example, gripping the object) (1) The first motion section D1 which is the motion section, and (2) the robot R or the second object T2 integrated with the robot R transitions from the contact state to the non-contact state with respect to the first object T1 ( A second motion segment D2 that is a motion segment (releasing the object), and (3) a third motion segment D3 that is a motion segment that is continuous with one or both of the first motion segment D1 and the second motion segment D2. Divide into
軌道探索管理部220は、要求タスク生成部110により生成された要求軌道群の各実行段階における一連の動作の軌道探索を行い、初期姿勢探索部221と、終端姿勢探索部222と、中間姿勢探索部223とを備える。
The trajectory
初期姿勢探索部221は、動作区分処理部210により区分された第2動作区分D2についての軌道探索を行う。
The initial
終端姿勢探索部222は、動作区分処理部210により区分された第1動作区分D1についての軌道探索を行う。
The terminal
中間姿勢探索部223は、動作区分処理部210により区分された第3動作区分D3についての軌道探索を行う。
The intermediate
なお、軌道探索管理部220による軌道探索については、後述する。
The trajectory search by the trajectory
干渉判定部230は、(A)画像処理部120の障害物検出部122で検出された障害物および対象物認識部123で認識された対象物と、(B)ロボットRまたはロボットと一体となった対象物との干渉可能性の有無をチェックする。
The
次に、図3を参照して本実施形態のロボットRの制御装置における処理内容を示す説明する。 Next, processing contents in the control device for the robot R of this embodiment will be described with reference to FIG.
まず、コントローラ100は、ユーザからのタスク実行の要求があるか否か判定する(図3/STEP10)。そして、ユーザが、入力装置101を介してロボットRの実行タスクを指定すると(図3/STEP10でYES)、コントローラ100の要求タスク生成部110が、要求軌道群を作成する(図3/STEP20)。
First, the
なお、これと並行して主制御部150による処理(図3/STEP30〜)が実行されるが、主制御手段による処理内容については後述する。 In parallel with this, processing by the main control unit 150 (FIG. 3 / STEP 30-) is executed, and details of processing by the main control means will be described later.
ここで、主制御部150によるSTEP30〜の処理が、STEP20〜の処理と同時並行的に実行されるのは、主制御部150は、STEP20〜の処理による目標軌道の生成タイミングに拠らず、ロボットRにタスクを連続的に実行させるためである。 Here, the main control unit 150 executes the processing from STEP 30 on in parallel with the processing from STEP 20 on. The main control unit 150 does not depend on the generation timing of the target trajectory by the processing from STEP 20 on. This is to cause the robot R to continuously execute tasks.
具体的には、図4に示すように、ロボットRの実行タスクとしては、テーブルW1上の2つのカップW21およびW22を順番にトレイW3に移動するタスクが指定される。この場合、図4に模式的に示すように、タスクの実際の実行段階が第i段階である場合には、コントローラ100およびサポートサーバ200によるSTEP20〜の処理により、第(i+1)段階の外界の予測状況に基づいて、少なくとも第(i+1)段階のロボットRの目標軌道が予め生成される。
Specifically, as shown in FIG. 4, the task for moving the two cups W21 and W22 on the table W1 to the tray W3 in order is designated as an execution task of the robot R. In this case, as schematically shown in FIG. 4, when the actual execution stage of the task is the i-th stage, the processing of STEP 20-by the
すなわち、タスクの実際の実行段階である第i段階では、ロボットRは、1つ目のカップW21を把持してトレイW3へ移動しているが、コントローラ100およびサポートサーバ200によるSTEP20〜の処理では、予め第i段階が終了した状況での対象物および障害物の予測位置および予測姿勢、すなわち、第(i+1)段階の対象物および障害物の初期位置および初期姿勢を予測する。第(i+1)段階の対象物および障害物の初期位置および初期姿勢では、1つ目のカップW21は既にトレイW3に収容されているため、この予測された初期状態から、第(i+1)段階におけるロボットRの目標軌道が予め生成される。
That is, in the i-th stage, which is the actual execution stage of the task, the robot R grips the first cup W21 and moves to the tray W3. However, in the processing from STEP 20 to the
以下、STEP20以下の処理の詳細について、図5を参照して詳細に説明する。 Hereinafter, the details of the processing from STEP 20 will be described in detail with reference to FIG.
まず、要求タスク生成部110は、ユーザにより指定されたタスクに対して、図5に示すように、タスクの実行段階を第1段階、第2段階、・・第n段階に分割し各段階で要求される要求軌道群を生成する(図3/STEP20)。
First, the requested
ここで、第1段階、第2段階、・・第n段階は、軌道探索管理部220による処理単位を考慮した決定されるものである。すなわち、軌道探索管理部220では、第2動作区分D2(初期姿勢)から第3動作区分D3(中間姿勢)を経て第1動作区分D1(終端姿勢)へ至る一連の動作を処理単位としているため、要求タスク生成部110は、これを1つの段階として分割する。
Here, the first stage, the second stage,..., The nth stage are determined in consideration of the processing unit by the trajectory
また、要求軌道群は、後述する姿勢探索(図3/STEP24〜26)を行う際の条件を各段階について規定したものである。すなわち、各段階について、ロボットRの目標軌道(目標姿勢軌道および目標姿勢軌道)として要求される軌道探索条件を規定したものである。 The required trajectory group defines conditions for performing a posture search (FIG. 3 / STEPs 24 to 26) described later for each stage. That is, for each stage, the trajectory search conditions required as the target trajectory (target posture trajectory and target posture trajectory) of the robot R are defined.
次いで、将来外界予測部130が、要求タスク生成部110により生成された要求軌道群と、障害物検出部122および対象物認識部123で認識された現時点での障害物および対象物から、タスクの実行段階に応じた将来の障害物および対象物の位置等を推定した将来外界状況群を作成する(図3/STEP21)。
Next, the future external
具体的に、将来外界予測部130は、図5に示す第1段階〜第3の各段階後のテーブルW1、カップW2、トレイW3の位置等の状況を推定した将来外界状況群を作成する。例えば、将来外界予測部130は、現在の状況からタスクを第2段階まで実行した後の状況(カップW2がトレイに移動された図5(f)の状況)を予測し、次に、第2段階の終了時の予測した状況から、第3段階までタスクを実行した後の状況を予測する。以下、第n段階までの状況を順番に予測する。
Specifically, the future outside
より正確には、将来外界予測部130は、第i段階の終了時の障害物および対象物の位置X(ti)および姿勢θ(ti)から、第(i+1)段階終了時の障害物および対象物の位置X(ti+1)および姿勢θ(ti+1)を、第(i+1)段階の要求軌道(STEP20参照)に基づいて算出する。このとき、iは、0≦i≦n−1の整数であり、i=0は、ロボットRの初期状態(初期位置X(t0)および初期姿勢θ(t0))を示す。
More precisely, the future
次に、サポートサーバ200は、コントローラ100から、軌道生成要求があるか否かを判定する(図3/STEP22)。
Next, the
軌道生成要求の有無は、要求タスク生成部110で作成された要求軌道群および将来外界予測部130で作成された将来外界状況群がサポートサーバ200へ送信の有無によりは判定される。
The presence / absence of a trajectory generation request is determined based on whether or not the requested trajectory group created by the requested
そして、軌道生成要求がある場合には(図3/STEP22でYES)、動作区分処理部210が、要求軌道群の各実行段階における一連の動作をその動作区分に応じて分割する(図3/STEP23)。一方、軌道生成要求がない場合には(図3/STEP22でNO)、この処理を終了する。
When there is a trajectory generation request (YES in FIG. 3 / STEP 22), the motion
具体的に、動作区分処理部210は、図5(a)および(b)に示す第1段階では、まず、カップW2を第1対象物T1として、ロボットRが第1対象物に対して非接触状態から接触状態に遷移する動作区分である第1動作区分D1を分割する(図5(b)参照)。そして、動作区分処理部210は、第1段階で第1動作区分D1に連続する動作区分を第3動作区分D3とする(図5(a)参照)。
Specifically, in the first stage shown in FIGS. 5A and 5B, the motion
ここで、図5(b)に示す第1動作区分D1の始点は、第1対象物であるカップを把持する動作の初期姿勢および初期位置により規定される。例えば、腕部12および手部14を動作させることにより第1対象物であるカップを把持することができる、ロボットRの初期姿勢および初期位置が第1動作区分D1の始点となる。これは、第2動作区分D2の始点についても同様である。
Here, the starting point of the first motion section D1 shown in FIG. 5B is defined by the initial posture and the initial position of the motion of gripping the cup that is the first object. For example, the initial posture and the initial position of the robot R that can hold the cup as the first object by moving the
次いで、動作区分処理部210は、図5(c)〜(e)に示す第2段階では、まず、カップW2をロボットRと一体となったカップW2を第2対象物T2、テーブルW1を第1対象物T1として、ロボットRおよびこれと一体となったカップW2(T2)が、テーブルW1(T1)に対して接触状態から非接触状態に遷移する動作区分である第2動作区分D2を分割する(図5(c)参照)。さらに、カップW2をロボットRと一体となったカップW2を第2対象物T2、トレイW3を第1対象物T1として、ロボットRおよびこれと一体となったカップW2(T2)が、トレイW3(T1)に対して非接触状態から接触状態に遷移する動作区分である第1動作区分D1を分割する(図5(e)参照)。そして、第2段階で第2動作区分D2および第1動作区分D1に連続する動作区分を第3動作区分D3とする(図5(d)参照)。
Next, in the second stage shown in FIGS. 5C to 5E, the motion
同様に、動作区分処理部210は、図5(f)に示す第3段階では、まず、カップW2を第1対象物T1として、ロボットRが、カップW2(T1)に対して接触状態から非接触状態に遷移する動作区分である第2動作区分D2を分割する(図5(d)参照)。そして、動作区分処理部210は、第3段階で第2動作区分D2に連続する動作区分(基本姿勢への復帰)を第3動作区分D3とする(図示省略)。
Similarly, in the third stage shown in FIG. 5F, the motion
次に、軌道探索管理部220が、第1〜第3段階の各段階におけるロボットRの軌道を探索して、タスクの各段階におけるロボットRの時系列的な位置および姿勢を生成する(図3/STEP24〜27)。
Next, the trajectory
具体的には、第1〜第3段階の各段階について、初期姿勢探索部221が、第2動作区分D2についての軌道探索を行い(図3/STEP24)、終端姿勢探索部222が、第1動作区分D1についての軌道探索を行い(図3/STEP25)、中間姿勢探索部223が、第3動作区分D3についての軌道探索を行う(図3/STEP26)。
Specifically, for each of the first to third stages, the initial
ここで、軌道探索管理部220による軌道探索は、要求タスク生成部110により生成された、タスクの各実行段階で要求される要求軌道を満たす軌道を探索する。具体的には、ロボットRの各部位について、空間的な位置を代表する代表点の目標位置の時系列としての目標位置軌道と、目標姿勢の時系列としての目標姿勢軌道とを探索する。さらに、ロボットRと第2対象物T2が一体となっている場合には、第2対象物の空間的な位置を代表する代表点の目標位置の時系列としての目標位置軌道と、目標姿勢の時系列としての目標姿勢軌道とを併せて探索する。
Here, the trajectory search by the trajectory
このとき、軌道探索管理部220は、図6に示すように、タスクにおいて相互作用を伴う第1対象物T1については、第1対象物T1の形状に応じた回転自由度と並進自由度とのいずれか一方または両方を与えて目標位置軌道および目標姿勢軌道を探索する。
At this time, as shown in FIG. 6, the trajectory
具体的には、図6(a)に示すように、第1対象物T1の形状が円形である場合には、中心軸に対する回転自由度を与えて、目標位置軌道および目標姿勢軌道を探索する。 Specifically, as shown in FIG. 6A, when the shape of the first object T1 is a circle, the target position trajectory and the target posture trajectory are searched by giving a degree of freedom of rotation with respect to the central axis. .
一方、図6(b)に示すように、第1対象物T1の形状が筒型である場合のように軸方向の位置依存がない場合には、その軸方向に並進自由度を与えて、目標位置軌道および目標姿勢軌道を探索する。 On the other hand, as shown in FIG. 6B, when there is no position dependency in the axial direction as in the case where the shape of the first object T1 is a cylindrical shape, a translational freedom is given in the axial direction, A target position trajectory and a target posture trajectory are searched.
以上説明した軌道探索管理部220による軌道探索において、初期姿勢探索部221が行う第2動作区分D2についての軌道探索では、ロボットRとロボットRと一体となった第2対象物T2と、第1対象物T1との干渉判定が省略される。
In the trajectory search by the trajectory
例えば、図5(c)に示す第2動作区分D2では、ロボットRとロボットRと一体となった第2対象物T2であるカップW2と、第1対象物T1であるテーブルW1との干渉判定部230による干渉判定が省略される。また、図5(f)に示す第2動作区分D2では、ロボットRと、第1対象物T1であるカップW2との干渉判定部230による干渉判定が省略される。
For example, in the second motion section D2 shown in FIG. 5C, the interference determination between the robot R and the cup W2 that is the second object T2 integrated with the robot R and the table W1 that is the first object T1. The interference determination by the
さらに、終端姿勢探索部222が行う第1動作区分D1についての軌道探索では、ロボットRとロボットRと一体となった第2対象物T2と、第1対象物T1との干渉判定が省略される。
Further, in the trajectory search for the first motion section D1 performed by the terminal
例えば、図5(a)に示す第1動作区分D1では、ロボットRと、第1対象物T1であるカップW2との干渉判定部230による干渉判定が省略される。また、図5(e)に示す第1動作区分D1では、ロボットRと一体となった第2対象物であるカップW2と、第1対象物T1であるトレイW3との干渉判定部230による干渉判定が省略される。
For example, in the first motion section D1 illustrated in FIG. 5A, the interference determination by the
これにより、第1動作区分D1および第2動作区分D2では、タスクにおける相互作用を伴う第1対象物T1との間の干渉判定による演算処理負荷が増大することを抑制することができる。 Thereby, in 1st operation | movement division D1 and 2nd operation | movement division D2, it can suppress that the calculation processing load by the interference determination with the 1st target object T1 with the interaction in a task increases.
また、第1動作区分D1および第2動作区分D2では、第1対象物T1は、ロボットRまたはロボットRと一体となった第2対象物T2と既に接触しているか、これから接触するものであるため、第1対象物T1との間の干渉判定を省略しても、第1対象物T1以外の他の物体との干渉を回避できれば、ロボットRにタスクを実行させることができる。 In the first motion section D1 and the second motion section D2, the first object T1 is already in contact with the robot R or the second object T2 integrated with the robot R, or will come into contact therewith. Therefore, even if the interference determination with the first object T1 is omitted, the robot R can execute the task if interference with other objects other than the first object T1 can be avoided.
一方、中間姿勢探索部223が行う第3動作区分D3についての軌道探索では、ロボットRとロボットRと一体となった第2対象物T2と、第1対象物T1を含めたすべての障害物との干渉判定が行われる。
On the other hand, in the trajectory search for the third motion category D3 performed by the intermediate
これにより、第1および第2動作区分以外の第3動作区分D3では、第1対象物T1との間の干渉判定を実行することで、第1対象物T1を含めて他の障害物との干渉を回避しながら、タスクを実行する一連の動作を実現することができる。 Thereby, in 3rd operation division D3 other than the 1st and 2nd operation division, by performing interference judgment with the 1st target object T1, it is with other obstacles including the 1st target object T1. A series of operations for executing a task can be realized while avoiding interference.
次に、軌道探索管理部220は、初期姿勢探索部221による第2動作区分D2の目標軌道(目標位置軌道および目標姿勢軌道、以下同じ)と、終端姿勢探索部222による第1動作区分D1の目標軌道と、中間姿勢探索部223によるこれらの区分の間を繋ぐ第2動作区分D3の目標軌道との全て目標軌道が生成されたか否かを判定する(図3/STEP27)。
Next, the trajectory
そして、全ての目標軌道が生成されている場合には(図3/STEP27でYES)、軌道探索管理部220が生成された目標軌道を図示しないメモリ等に記録し(図3/STEP28)、STEP23へリターンする。これにより、次のタスクの実行段階について、STEP23以降の処理を繰り返し実行する。
If all target trajectories have been generated (YES in FIG. 3 / STEP 27), the trajectory
一方、全ての目標軌道が生成されていない場合には(図3/STEP27でNO)、STEP24へリターンして、再度、STEP24以降の処理を実行する。 On the other hand, when all the target trajectories have not been generated (NO in STEP 27 in FIG. 3), the process returns to STEP 24 and the processes after STEP 24 are executed again.
以上が、要求タスクに応じて目標軌道を生成する一連の処理である。 The above is a series of processes for generating the target trajectory according to the requested task.
次に、説明を後回しにした主制御部150による処理(図3/STEP30〜STEP34)を説明する。 Next, processing (FIG. 3 / STEP 30 to STEP 34) performed by the main control unit 150, which has been described later, will be described.
なお、主制御部150は、前述のように、STEP24〜26により目標軌道が生成されたタイミングで目標軌道に追従するように、アクチュエータ1000を制御するのではなく、STEP28でメモリ等に記録された目標軌道が蓄積されていれば、それを逐次処理する。
As described above, the main control unit 150 does not control the
これにより、目標軌道の生成タイミングに拠らず、ロボットRにタスク実行を行わせることができ、ロボットRの実行動作に時間的な連続性を持たせることができる。さらに、生成された目標軌道は、タスクの各実行段階における対象物の予測位置および予測姿勢に即したものであるため、目標軌道に基づいて制御されるロボットRの動作が空間的に不連続になることも防止することができる。 Thereby, the task execution can be performed by the robot R regardless of the generation timing of the target trajectory, and the execution operation of the robot R can be given temporal continuity. Furthermore, since the generated target trajectory is in accordance with the predicted position and predicted posture of the object in each execution stage of the task, the operation of the robot R controlled based on the target trajectory is spatially discontinuous. It can also be prevented.
まず、主制御部150は、要求タスク生成部110が作成した要求軌道群を取得する(図3/STEP30)。 First, the main control unit 150 acquires the requested trajectory group created by the requested task generation unit 110 (FIG. 3 / STEP 30).
次いで、主制御部150は、軌道追従要求があるか否かを判定する(図3/STEP31)。 Next, the main control unit 150 determines whether or not there is a trajectory follow-up request (FIG. 3 / STEP 31).
そして、主制御部150は、軌道追従要求がない場合には(図3/STEP31でNO)、この処理を終了し、軌道追従要求がある場合には(図3/STEP31でYES)、軌道探索管理部220により軌道が生成されているか否かを判定する(図3/STEP32)。 When there is no trajectory follow-up request (NO in FIG. 3 / STEP 31), the main control unit 150 ends this process, and when there is a trajectory follow-up request (YES in FIG. 3 / STEP 31), trajectory search. It is determined whether or not a trajectory has been generated by the management unit 220 (FIG. 3 / STEP 32).
そして、軌道探索管理部220により生成された目標軌道が図示しないメモリ等に記録されている場合には(図3/STEP32でYES)、主制御部150は、ロボットRのアクチュエータ1000を制御することにより、生成された目標軌道にロボットRを追従させる(図3/STEP33)。
When the target trajectory generated by the trajectory
なお、この場合に、目標軌道に第1対象物T1への押し付け動作がある場合には、ロボットRの対象部位のアクチュエータ1000を制御してロボットRに押し付け動作を行わせる。
In this case, when there is a pressing operation on the first target T1 in the target trajectory, the robot R is controlled to perform the pressing operation by controlling the
次いで、主制御部150は、目標軌道にロボットRが追従しているか否かを判定する(図3/STEP34)。 Next, the main control unit 150 determines whether or not the robot R follows the target trajectory (FIG. 3 / STEP 34).
そして、主制御部150は、ロボットRが目標軌道に追従している場合には(図3/STEP34でYES)、STEP31へリターンして、次の軌道追従要求があるか否かを判定する。一方、ロボットRが目標軌道に追従していない場合には(図3/STEP34でNO)、アクチュエータ1000による目標軌道の追従が不可能か否かを判定する(図3/STEP35)。 When the robot R follows the target trajectory (YES in FIG. 3 / STEP 34), the main control unit 150 returns to STEP 31 and determines whether there is a next trajectory follow-up request. On the other hand, when the robot R does not follow the target trajectory (NO in FIG. 3 / STEP 34), it is determined whether or not the target trajectory cannot be followed by the actuator 1000 (FIG. 3 / STEP 35).
そして、主制御部150は、目標軌道の追従が可能な場合には(図3/STEP35でNO)、STEP34へリターンして、ロボットRが目標軌道に追従するまでこの処理を繰り返す。一方、目標軌道の追従が不可能な場合には(図3/STEP35でYES)、現在のタスクの実行状況が目標軌道と相違しているものとして、STEP21へリターンして、現在の実際の状況(画像処理部120により認識される現在の障害物や対象物)に基づいて将来の外界状況群を作成し、現在の実際の状況および将来の外界状況群から目標軌道を再生成する(図3/STEP21〜)。 If the target track can be followed (NO in STEP 3 / NO in STEP 35), the main control unit 150 returns to STEP 34 and repeats this process until the robot R follows the target track. On the other hand, if it is impossible to follow the target trajectory (YES in FIG. 3 / STEP 35), it is determined that the current task execution status is different from the target trajectory, and the process returns to STEP 21 and the current actual status. A future external world situation group is created based on (the current obstacle or object recognized by the image processing unit 120), and the target trajectory is regenerated from the current actual situation and the future external world situation group (FIG. 3). / STEP 21-).
これにより、予測した状況に変化が生じた場合にも、これ以降の各実行段階の対象物の予測位置および予測姿勢が更新されて、これからロボットRが実行する各実行段階における、ロボットRの時系列的な目標位置軌道よび目標姿勢軌道が再生成される。そのため、状況の変化により目標軌道を生成するのに時間を要して、ロボットのタスク実行が中断することを防止することができ、ロボットの動作が不連続になることを防止することができる。 As a result, even when a change occurs in the predicted situation, the predicted position and predicted posture of the object in each subsequent execution stage are updated, and the robot R in each execution stage to be executed by the robot R from now on A series of target position trajectories and target attitude trajectories are regenerated. Therefore, it is possible to prevent the task execution of the robot from being interrupted because it takes time to generate the target trajectory due to a change in the situation, and it is possible to prevent the operation of the robot from becoming discontinuous.
一方、(STEP31で)軌道探索管理部220により生成された目標軌道が図示しないメモリ等に記録されていない場合には(図3/STEP31でNO)、一定時間待機し、軌道探索管理部220により軌道が生成されたタイミングで(図3/STEP34でNO)、STEP32以降の処理を実行する。一方で、待機時間が経過してタイムアップした場合には(図3/STEP34でYES)、目標軌道が存在しないか、すでに生成されたすべての目標軌道についてロボットRの追従が完了したものとして、一連の処理を終了する。
On the other hand, if the target trajectory generated by the trajectory
以上が、本実施形態のロボットRの制御装置における処理内容であり、上述したように、かかる制御装置によれば、予めタスクの各実行段階における将来の状況を予測して、予め目標軌道を生成しておくことで、実行段階が切り替わる際には、次の実行段階におけるロボットRの目標軌道の生成が為されているため、タスクの実行が中断していまい、ロボットの動作が不連続になることを防止することができる。 The above is the processing contents in the control device for the robot R of the present embodiment. As described above, according to such a control device, the future situation in each execution stage of the task is predicted in advance, and the target trajectory is generated in advance. By doing so, when the execution stage is switched, the target trajectory of the robot R in the next execution stage is generated, so the task execution is not interrupted and the robot operation becomes discontinuous. This can be prevented.
なお、上記実施形態では、ロボットRのコントローラ100による処理負荷を軽減すべく、動作区分処理部210、軌道探索管理部220および干渉判定部230をサポートサーバ200に設け、分散処理を行う構成について説明したが、これに限定されるものではない。すなわち、コントローラ100の各処理部110〜130,150と、サポートサーバの各処理部210〜230の一部または全部をコントローラ100に備え、残りの処理部をサポートサーバに備えるように構成してもよい。例えば、コントローラ100にすべての処理部を設けて、サポートサーバ200を備えない構成としてもよい。
In the above-described embodiment, a configuration is described in which the motion
また、上記実施形態では、情報端末である入力装置101によりタスクが指定される構成について説明したが、これに限定されるものではない。例えば、ロボットRが備えマイクロフォン等によりユーザの指示を音声認識するように構成してもよい。
Moreover, although the said embodiment demonstrated the structure by which a task is designated by the
さらに、上記実施形態では、要求タスク生成部110により、タスクを実行する一連の動作を、該タスクの実行段階(第1段階、第2段階、・・・、第n段階)に毎に区分しているが、これに限定されるものではない。
Furthermore, in the above embodiment, the request
すなわち、本実施形態では、タスクを各実行段階に区分して、各実行段階におけるロボットRの動作により実現される将来の状況(STEP20の要求軌道群から予測される各実行段階の終了時の対象物の位置および姿勢)から、予測された実行段階の次の実行段階におけるロボットRの目標姿勢軌道および目標位置軌道を生成しているが、タスクを各実行段階に区分しないように構成してもよい。 That is, in this embodiment, the task is divided into each execution stage, and the future situation realized by the operation of the robot R in each execution stage (the target at the end of each execution stage predicted from the required trajectory group in STEP 20) The target posture trajectory and target position trajectory of the robot R in the next execution stage after the predicted execution stage are generated from the object position and attitude), but the task may not be divided into execution stages. Good.
この場合、将来外界予測部130が、タスクの進捗状況に応じた対象物の時系列的な予測位置および予測姿勢を逐次予測し、その予測位置および予測姿勢に基づいて、軌道探索管理部220が、ロボットRの目標姿勢軌道および目標位置軌道を逐次生成するように構成される。これにより、上記実施形態と同様に、ロボットの動作が時間的かつ空間的に不連続になることを防止することができる。
In this case, the future external
R…ロボット、100…コントローラ、101…入力装置、110…要求タスク生成部、120…画像処理部、130…将来外界予測部(外界予測手段)、150…主制御部、200…サポートサーバ、210…動作区分処理部、220…軌道探索管理部(行動計画手段)、221…初期姿勢探索部、222…終端姿勢探索部、223…中間姿勢探索部、230…干渉判定部(干渉判定手段)、D1…第1動作区分、D2…第2動作区分、D3…第3動作区分、T1…第1対象物、T2…第2対象物、W1…テーブル、W2(W21,W22)…カップ、W3…トレイ。 R ... Robot, 100 ... Controller, 101 ... Input device, 110 ... Request task generation unit, 120 ... Image processing unit, 130 ... Future external world prediction unit (external world prediction means), 150 ... Main control unit, 200 ... Support server, 210 ... motion classification processing unit, 220 ... trajectory search management unit (behavior planning unit), 221 ... initial posture search unit, 222 ... end posture search unit, 223 ... intermediate posture search unit, 230 ... interference determination unit (interference determination unit), D1 ... 1st motion section, D2 ... 2nd motion section, D3 ... 3rd motion section, T1 ... 1st object, T2 ... 2nd object, W1 ... Table, W2 (W21, W22) ... Cup, W3 ... tray.
Claims (3)
前記複数の実行段階のそれぞれにおいて前記ロボットの要求軌道を生成する要求タスク生成手段と、
前記要求タスク生成手段により生成された前記複数の実行段階のそれぞれにおける前記要求軌道に基づき、前記ロボットが少なくとも次に実行する将来の実行段階の初期における前記対象物の予測位置および予測姿勢を予測する外界予測手段と、
前記外界予測手段により予測された、前記将来の実行段階の初期における前記対象物の予測位置および予測姿勢から、前記将来の実行段階における前記ロボットの時系列的な位置および姿勢の目標軌道を生成する行動計画手段と、を備えることを特徴とする制御装置。 A robot control apparatus that causes a robot including a base and a limb connected to the base to perform a task divided into a plurality of execution stages involving contact between the limb and one or more objects. ,
Request task generating means for generating a required trajectory of the robot in each of the plurality of execution stages;
Based on the requested trajectory in each of the plurality of execution stages generated by the requested task generation means , the robot predicts the predicted position and predicted posture of the target object at least in the initial stage of the future execution stage to be executed next. Outside world prediction means,
Predicted by the external prediction means, generating a target trajectory of the time-series position and posture of the robot from the predicted position and the predicted attitude, before Symbol future execution phase of the object in the initial of the future execution phase And a behavior planning means.
前記行動計画手段は、前記外界予測手段より予測された、前記タスクの一の実行段階の終了時の前記対象物の予測位置および予測姿勢から、前記ロボットの目標位置軌道および目標姿勢軌道になるように、該一の実行段階の次の実行段階における前記ロボットの時系列的な位置および姿勢を生成するための制約条件を決定することを特徴とする制御装置。 The control device according to claim 1,
The behavior planning unit is configured to obtain a target position trajectory and a target posture trajectory of the robot from the predicted position and predicted posture of the object at the end of one execution stage of the task predicted by the external world predicting unit. And determining a constraint condition for generating a time-series position and posture of the robot in an execution stage subsequent to the one execution stage.
外界予測手段は、前記外界予測手段より予測された、前記タスクの一の実行段階における前記対象物の予測位置および予測姿勢が、該一の実行段階における現在の前記対象物の位置および姿勢と相違する場合に、現在の前記対象物の位置および姿勢から、該一の実行段階以降の各実行段階における前記対象物の予測位置および予測姿勢を予測することを特徴とする制御装置。 The control device according to claim 1 or 2,
The outside world predicting means is such that the predicted position and posture of the object in one execution stage of the task predicted by the outside world prediction means are different from the current position and attitude of the object in the one execution stage. In this case, the control device predicts the predicted position and the predicted posture of the target object in each execution stage after the one execution stage from the current position and posture of the target object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010107734A JP5638283B2 (en) | 2010-05-07 | 2010-05-07 | Control device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010107734A JP5638283B2 (en) | 2010-05-07 | 2010-05-07 | Control device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011235379A JP2011235379A (en) | 2011-11-24 |
JP5638283B2 true JP5638283B2 (en) | 2014-12-10 |
Family
ID=45323923
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010107734A Expired - Fee Related JP5638283B2 (en) | 2010-05-07 | 2010-05-07 | Control device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5638283B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015174155A (en) * | 2014-03-13 | 2015-10-05 | 三菱重工業株式会社 | Robot, method of controlling robot, and control program of robot |
CN110442086A (en) * | 2018-05-02 | 2019-11-12 | 深圳市优必选科技有限公司 | A kind of robot and its method of movement switching |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005088175A (en) * | 2003-09-19 | 2005-04-07 | Sony Corp | Robot device and operation control method for the robot device |
CN101213052B (en) * | 2006-01-13 | 2011-01-12 | 松下电器产业株式会社 | Control device for mechanical arm |
JP4908020B2 (en) * | 2006-03-02 | 2012-04-04 | 本田技研工業株式会社 | Hand control system |
JP4451858B2 (en) * | 2006-05-19 | 2010-04-14 | 株式会社日立製作所 | Unmanned vehicle |
JP4811128B2 (en) * | 2006-05-25 | 2011-11-09 | トヨタ自動車株式会社 | Autonomous mobile device |
JP4316630B2 (en) * | 2007-03-29 | 2009-08-19 | 本田技研工業株式会社 | Robot, robot control method, and robot control program |
JP2008260107A (en) * | 2007-04-13 | 2008-10-30 | Yaskawa Electric Corp | Mobile robot system |
-
2010
- 2010-05-07 JP JP2010107734A patent/JP5638283B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2011235379A (en) | 2011-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9492925B2 (en) | Robot controller, robot system, robot, robot control method, and program | |
JP4936288B2 (en) | Target route generation system | |
EP2199038B1 (en) | Robot and task execution system | |
JP2003269937A (en) | Obstruction recognition device, obstruction recognition method, obstruction recognition program and mobile robot device | |
KR20140031316A (en) | Tracking and following of moving objects by a mobile robot | |
JP2003266345A (en) | Path planning device, path planning method, path planning program, and moving robot device | |
JP7417356B2 (en) | robot control system | |
CN111496776B (en) | Robot system, robot control method, robot controller, and recording medium | |
JP7221839B2 (en) | Autonomous Mobile Robot and Control Program for Autonomous Mobile Robot | |
JP6322949B2 (en) | Robot control apparatus, robot system, robot, robot control method, and robot control program | |
JP7036399B2 (en) | Autonomous mobile robots, their control devices and motion control programs | |
JP5539001B2 (en) | Control device | |
JP2012128585A (en) | Mobile device, robot, and control system for the same | |
JP5638283B2 (en) | Control device | |
US11992945B2 (en) | System and methods for training robot policies in the real world | |
JP4577697B2 (en) | Mobile device and mobile device system | |
WO2020153299A1 (en) | Robot control system | |
JP5539000B2 (en) | Control device | |
EP4316747A1 (en) | Robot remote operation control device, robot remote operation control system, robot remote operation control method, and program | |
US20240054393A1 (en) | Learning Device, Learning Method, Recording Medium Storing Learning Program, Control Program, Control Device, Control Method, and Recording Medium Storing Control Program | |
JP2022156954A (en) | Control device, robot system, control method and program | |
JP2021045816A (en) | Device, method and program for supporting operation of redundant degree of freedom robot arm | |
CN113316505B (en) | Image analysis system | |
WO2024013895A1 (en) | Remote control system, remote control method, and remote control program | |
Lee et al. | A hybrid joystick with impedance control for a stable remote control of a mobile robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20121127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130827 |
|
RD13 | Notification of appointment of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7433 Effective date: 20131017 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131028 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140401 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140529 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140930 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141022 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5638283 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |