JP6421408B2 - 制御装置、ロボット、ロボットシステム及び制御方法 - Google Patents
制御装置、ロボット、ロボットシステム及び制御方法 Download PDFInfo
- Publication number
- JP6421408B2 JP6421408B2 JP2013227274A JP2013227274A JP6421408B2 JP 6421408 B2 JP6421408 B2 JP 6421408B2 JP 2013227274 A JP2013227274 A JP 2013227274A JP 2013227274 A JP2013227274 A JP 2013227274A JP 6421408 B2 JP6421408 B2 JP 6421408B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- posture
- target
- robot
- motion information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
図1(A)に、本実施形態の制御手法によりロボットを制御する制御装置の第1の構成例を示す。制御装置100は、受付部110と処理部120とを含む。
次に、コンデンサー20を電子基板50に組み付ける場合を例に、制御処理の詳細を説明する。図2に、制御処理のフローチャートを示す。なお、図2では各ステップの概要を説明し、各ステップの詳細については後述する。
長リード線30を第1の穴60に一致させる場合を例に、ビジュアルサーボの基本的な制御処理について説明する。なお、以下ではカメラ(撮像部)が2台である場合を例に説明するが、カメラは1台又は3台以上であってもよい。
次に、図2のステップS3で説明した第1のビジュアルサーボについて詳細に説明する。
次に、図2のステップS5で説明した第2のビジュアルサーボの第1の制御手法について説明する。
次に、図2のステップS5で説明した第2のビジュアルサーボにおける第2の制御手法について説明する。
図12に、第1の動作情報及び第2の動作情報を入力するための表示画面の第1の例を示す。表示画面は、例えば図14(A)、図14(B)に示すロボットの表示部130に表示制御部140が表示させる。
次に、図14(A)及び図14(B)に、本実施形態の制御装置100(ロボット制御システム)が適用されるロボット300の構成例を示す。図14(A)及び図14(B)のどちらの場合にも、ロボット300は、アーム320とエンドエフェクター310を有する。
ここでは、ビジュアルサーボの概要と、特徴ベースビジュアルサーボの処理フローについて説明する。
40 短リード線、50 電子基板、60 第1の穴、70 第2の穴、
100 制御装置、110 受付部、120 処理部、130 表示部、
140 表示制御部、200 撮像部、300 ロボット、
305 ロボット本体、310 エンドエフェクター、320 アーム、
330 端末装置、400 ネットワーク、500 サーバー、
CM1 第1のカメラ、CM2 第2のカメラ、OB1 コンデンサーの画像、
OB2 電子基板の画像、OP1 第1の選択肢、OP2 第2の選択肢、
R ハンドの姿勢、RF 回転方向、Rg ハンドの目標姿勢、
sl1,sl2 長リード線の画像特徴量、
slg1、slg2 長リード線の目標画像特徴量、
ss1,ss2 短リード線の画像特徴量、
ssg1,ssg2 短リード線の画像特徴量、
ΔXc ハンドの位置及び姿勢の変化量、
Δslc 長リード線の画像特徴量の推定変化量
Claims (24)
- 第1の動作情報と、前記第1の動作情報とは異なる第2の動作情報とを受け付ける受付部と、
ロボットが第1の姿勢から前記第1の姿勢とは異なる第2の姿勢へと移る間に被撮像物を複数回撮像した複数の撮像画像を用いて、前記第1の動作情報及び前記第2の動作情報に基づく動作を前記ロボットに行わせる処理部と、
を含み、
前記第1の動作情報は、被作業物の第1の部位と第1の目標とを一致させる動作の情報であり、
前記第2の動作情報は、前記ロボットのエンドエフェクターと第2の目標とを近づける動作の情報であり、
前記処理部は、
前記複数の撮像画像に基づく前記第1の部位に対応する画像特徴量を、参照画像に基づく前記第1の目標に対応する画像特徴量に一致させる処理、及び前記エンドエフェクターの姿勢を、前記第1の動作情報及び前記第2の動作情報に基づく動作を開始するときの、前記第2の目標に対応する前記エンドエフェクターの姿勢に近づける処理を行うことで、前記第1の動作情報及び前記第2の動作情報に基づく動作を前記ロボットに行わせることを特徴とする制御装置。 - 第1の動作情報と、前記第1の動作情報とは異なる第2の動作情報とを受け付ける受付部と、
ロボットが第1の姿勢から前記第1の姿勢とは異なる第2の姿勢へと移る間に被撮像物を複数回撮像した複数の撮像画像を用いて、前記第1の動作情報及び前記第2の動作情報に基づく動作を前記ロボットに行わせる処理部と、
を含み、
前記第1の動作情報は、被作業物の第1の部位と第1の目標とを一致させる動作の情報であり、
前記第2の動作情報は、前記第1の部位とは異なる前記被作業物の部位と第2の目標とを近づける動作の情報であり、
前記処理部は、
前記複数の撮像画像に基づく前記第1の部位に対応する画像特徴量を、参照画像に基づく前記第1の目標に対応する画像特徴量に一致させる処理、及び前記第1の動作情報に基づく動作により前記被作業物の部位の画像特徴量が変化する量を推定した推定変化量を、前記第2の目標に対応するゼロに近づける処理を行うことで、前記第1の動作情報及び前記第2の動作情報に基づく動作を前記ロボットに行わせることを特徴とする制御装置。 - 第1の動作情報と、前記第1の動作情報とは異なる第2の動作情報とを受け付ける受付部と、
ロボットが第1の姿勢から前記第1の姿勢とは異なる第2の姿勢へと移る間に被撮像物を複数回撮像した複数の撮像画像を用いて、前記第1の動作情報及び前記第2の動作情報に基づく動作を前記ロボットに行わせる処理部と、
を含み、
前記処理部は、
前記ロボットのエンドエフェクターの位置及び姿勢の自由度よりも少ない自由度の画像特徴量を目標特徴量に一致させる処理及び、前記第2の動作情報に基づく動作を規定する評価関数を最大化する処理により、前記第1の動作情報及び前記第2の動作情報に基づく動作を前記ロボットに行わせ、
前記エンドエフェクターの位置及び姿勢Xの変化ΔXを、
ΔX=λJ#(sg−s)+(I−J#J)ξkp
により制御し、
sは前記複数の撮像画像に基づく画像特徴量であり、sgは参照画像に基づく目標特徴量であり、ξは前記評価関数のXによる微分であり、JはXとsを関係づけるヤコビアンであり、J#はJの疑似逆行列であり、Iは単位行列であり、λ、kpは、制御ゲインであることを特徴とする制御装置。 - 請求項1乃至3のいずれかにおいて、
前記第1の動作情報と前記第2の動作情報とは、優先度が異なる情報であり、
前記第2の動作情報は、前記第1の動作情報よりも優先度が低いことを特徴とする制御装置。 - 請求項1乃至4のいずれかにおいて、
前記受付部は、
前記第1の動作情報及び前記第2の動作情報を入力するための表示画面が表示部に表示される場合に、前記表示画面によりユーザーが入力した前記第1の動作情報及び前記第2の動作情報を受け付けることを特徴とする制御装置。 - 請求項5において、
前記表示画面には、第1の被作業物の画像と第2の被作業物の画像が表示され、
前記第1の動作情報は、前記第1の被作業物の画像において第1の部位が指定され、前記第2の被作業物の画像において前記第1の部位を一致させる第1の目標が指定されることで、入力される情報であり、
前記第2の動作情報は、前記第1の被作業物の画像において第2の部位が指定され、前記第2の被作業物の画像において前記第2の部位を近づける第2の目標が指定されることで、入力される情報であることを特徴とする制御装置。 - 請求項5において、
前記表示画面には、第1の動作情報を入力するための第1の選択肢と、第2の動作情報を入力するための第2の選択肢と、が表示され、
前記第1の動作情報及び前記第2の動作情報は、前記第1の選択肢と前記第2の選択肢の中からユーザーが所望する動作が選択されることで、入力される情報であることを特徴とする制御装置。 - 請求項4において、
前記処理部は、
前記優先度が低い前記第2の動作情報に基づく動作よりも前記第1の動作情報に基づく動作を優先して前記ロボットに行わせることを特徴とする制御装置。 - 請求項1乃至8のいずれかにおいて、
前記第1の動作情報は、前記ロボットのエンドエフェクターの位置及び姿勢の自由度よりも少ない自由度で行う動作の情報であり、
前記第2の動作情報は、前記第1の動作情報に基づく動作における前記エンドエフェクターの位置及び姿勢の冗長自由度で行う動作の情報であることを特徴とする制御装置。 - 請求項1乃至9のいずれかにおいて、
前記第1の動作情報及び前記第2の動作情報に基づく動作は、所定の作業を含み、
前記所定の作業は、組立作業、嵌合作業、挿入作業のうちいずれか1つの作業を含むことを特徴とする制御装置。 - 請求項1乃至10のいずれかにおいて、
前記処理部は、
前記複数の撮像画像を用いたビジュアルサーボ制御により、前記第1の動作情報及び前記第2の動作情報に基づく動作を前記ロボットに行わせることを特徴とする制御装置。 - 第1の動作情報と、前記第1の動作情報とは異なる第2の動作情報とを受け付ける受付部と、
ロボットが第1の姿勢から前記第1の姿勢とは異なる第2の姿勢へと移る間に被撮像物を複数回撮像した複数の撮像画像を用いて、前記第1の動作情報及び前記第2の動作情報に基づく動作を前記ロボットに行わせる処理部と、
を含み、
前記第1の動作情報は、被作業物の第1の部位と第1の目標とを一致させる動作の情報であり、
前記第2の動作情報は、前記被作業物の部位又は前記ロボットの部位である第2の部位と第2の目標とを近づける動作の情報であり、
前記処理部は、
前記第1の動作情報に基づいて前記第1の部位と前記第1の目標とを一致させる動作を前記ロボットに行わせる際に、前記第1の動作情報よりも優先度が低い前記第2の動作情報に基づいて前記第2の部位と前記第2の目標とを近づける動作を前記ロボットに行わせることを特徴とする制御装置。 - 被作業物の第1の部位と第1の目標とを一致させる動作の情報である第1の動作情報と、ロボットのエンドエフェクターと第2の目標とを近づける動作の情報である第2の動作情報とを受け付け、
第1の姿勢から前記第1の姿勢とは異なる第2の姿勢へと移る間に被撮像物を複数回撮像した複数の撮像画像を受け付け、
前記複数の撮像画像に基づく前記第1の部位に対応する画像特徴量を、参照画像に基づく前記第1の目標に対応する画像特徴量に一致させる処理、及び前記エンドエフェクターの姿勢を、前記第1の動作情報及び前記第2の動作情報に基づく動作を開始するときの、前記第2の目標に対応する前記エンドエフェクターの姿勢に近づける処理を行うことで、前記第1の動作情報及び前記第2の動作情報に基づく動作を行う、
ことを特徴とするロボット。 - 被作業物の第1の部位と第1の目標とを一致させる動作の情報である第1の動作情報と、前記第1の部位とは異なる前記被作業物の部位と第2の目標とを近づける動作の情報である第2の動作情報とを受け付け、
第1の姿勢から前記第1の姿勢とは異なる第2の姿勢へと移る間に被撮像物を複数回撮像した複数の撮像画像を受け付け、
前記複数の撮像画像に基づく前記第1の部位に対応する画像特徴量を、参照画像に基づく前記第1の目標に対応する画像特徴量に一致させる処理、及び前記第1の動作情報に基づく動作により前記被作業物の部位の画像特徴量が変化する量を推定した推定変化量を、前記第2の目標に対応するゼロに近づける処理を行うことで、前記第1の動作情報及び前記第2の動作情報に基づく動作を行う、
ことを特徴とするロボット。 - 第1の動作情報と、前記第1の動作情報とは異なる第2の動作情報とを受け付け、
第1の姿勢から前記第1の姿勢とは異なる第2の姿勢へと移る間に被撮像物を複数回撮像した複数の撮像画像を受け付け、
前記複数の撮像画像を用いて、ロボットのエンドエフェクターの位置及び姿勢の自由度よりも少ない自由度の画像特徴量を目標特徴量に一致させる処理及び、前記第2の動作情報に基づく動作を規定する評価関数を最大化する処理により、前記第1の動作情報及び前記第2の動作情報に基づく動作を行い、
前記エンドエフェクターの位置及び姿勢Xの変化ΔXを、
ΔX=λJ#(sg−s)+(I−J#J)ξkp
により制御し、
sは前記複数の撮像画像に基づく画像特徴量であり、sgは参照画像に基づく目標特徴量であり、ξは前記評価関数のXによる微分であり、JはXとsを関係づけるヤコビアンであり、J#はJの疑似逆行列であり、Iは単位行列であり、λ、kpは、制御ゲインであることを特徴とするロボット。 - 被作業物の第1の部位と第1の目標とを一致させる動作の情報である第1の動作情報と、前記被作業物の部位又はロボットの部位である第2の部位と第2の目標とを近づける動作の情報であり且つ前記第1の動作情報とは異なる第2の動作情報とを受け付け、
第1の姿勢から前記第1の姿勢とは異なる第2の姿勢へと移る間に被撮像物を複数回撮像した複数の撮像画像を受け付け、
前記複数の撮像画像を用いて、前記第1の動作情報に基づいて前記第1の部位と前記第1の目標とを一致させる動作を行う際に、前記第1の動作情報よりも優先度が低い前記第2の動作情報に基づいて前記第2の部位と前記第2の目標とを近づける動作を行う、
ことを特徴とするロボット。 - 第1の動作情報と、前記第1の動作情報とは異なる第2の動作情報とを受け付ける受付部と、
第1の姿勢から前記第1の姿勢とは異なる第2の姿勢へと移る間に複数回、被撮像物を撮像する撮像部と、
前記撮像部による複数の撮像画像を用いて、前記第1の動作情報及び前記第2の動作情報に基づく動作を行うロボットと、
を含み、
前記第1の動作情報は、被作業物の第1の部位と第1の目標とを一致させる動作の情報であり、
前記第2の動作情報は、前記ロボットのエンドエフェクターと第2の目標とを近づける動作の情報であり、
前記ロボットは、
前記複数の撮像画像に基づく前記第1の部位に対応する画像特徴量を、参照画像に基づく前記第1の目標に対応する画像特徴量に一致させる処理、及び前記エンドエフェクターの姿勢を、前記第1の動作情報及び前記第2の動作情報に基づく動作を開始するときの、前記第2の目標に対応する前記エンドエフェクターの姿勢に近づける処理を行うことで、前記第1の動作情報及び前記第2の動作情報に基づく動作を行うことを特徴とするロボットシステム。 - 第1の動作情報と、前記第1の動作情報とは異なる第2の動作情報とを受け付ける受付部と、
第1の姿勢から前記第1の姿勢とは異なる第2の姿勢へと移る間に複数回、被撮像物を撮像する撮像部と、
前記撮像部による複数の撮像画像を用いて、前記第1の動作情報及び前記第2の動作情報に基づく動作を行うロボットと、
を含み、
前記第1の動作情報は、被作業物の第1の部位と第1の目標とを一致させる動作の情報であり、
前記第2の動作情報は、前記第1の部位とは異なる前記被作業物の部位と第2の目標とを近づける動作の情報であり、
前記ロボットは、
前記複数の撮像画像に基づく前記第1の部位に対応する画像特徴量を、参照画像に基づく前記第1の目標に対応する画像特徴量に一致させる処理、及び前記第1の動作情報に基づく動作により前記被作業物の部位の画像特徴量が変化する量を推定した推定変化量を、前記第2の目標に対応するゼロに近づける処理を行うことで、前記第1の動作情報及び前記第2の動作情報に基づく動作を行うことを特徴とするロボットシステム。 - 第1の動作情報と、前記第1の動作情報とは異なる第2の動作情報とを受け付ける受付部と、
第1の姿勢から前記第1の姿勢とは異なる第2の姿勢へと移る間に複数回、被撮像物を撮像する撮像部と、
前記撮像部による複数の撮像画像を用いて、前記第1の動作情報及び前記第2の動作情報に基づく動作を行うロボットと、
を含み、
前記ロボットは、
前記ロボットのエンドエフェクターの位置及び姿勢の自由度よりも少ない自由度の画像特徴量を目標特徴量に一致させる処理及び、前記第2の動作情報に基づく動作を規定する評価関数を最大化する処理により、前記第1の動作情報及び前記第2の動作情報に基づく動作を行い、
前記エンドエフェクターの位置及び姿勢Xの変化ΔXを、
ΔX=λJ#(sg−s)+(I−J#J)ξkp
により制御し、
sは前記複数の撮像画像に基づく画像特徴量であり、sgは参照画像に基づく目標特徴量であり、ξは前記評価関数のXによる微分であり、JはXとsを関係づけるヤコビアンであり、J#はJの疑似逆行列であり、Iは単位行列であり、λ、kpは、制御ゲインであることを特徴とするロボットシステム。 - 第1の動作情報と、前記第1の動作情報とは異なる第2の動作情報とを受け付ける受付部と、
第1の姿勢から前記第1の姿勢とは異なる第2の姿勢へと移る間に複数回、被撮像物を撮像する撮像部と、
前記撮像部による複数の撮像画像を用いて、前記第1の動作情報及び前記第2の動作情報に基づく動作を行うロボットと、
を含み、
前記第1の動作情報は、被作業物の第1の部位と第1の目標とを一致させる動作の情報であり、
前記第2の動作情報は、前記被作業物の部位又は前記ロボットの部位である第2の部位と第2の目標とを近づける動作の情報であり、
前記ロボットは、
前記第1の動作情報に基づいて前記第1の部位と前記第1の目標とを一致させる動作を行う際に、前記第1の動作情報よりも優先度が低い前記第2の動作情報に基づいて前記第2の部位と前記第2の目標とを近づける動作を行うことを特徴とするロボットシステム。 - 被作業物の第1の部位と第1の目標とを一致させる動作の情報である第1の動作情報と、ロボットのエンドエフェクターと第2の目標とを近づける動作の情報である第2の動作情報とを受け付けることと、
前記ロボットが第1の姿勢から前記第1の姿勢とは異なる第2の姿勢へと移る間に被撮像物を複数回撮像した複数の撮像画像を用いて、前記複数の撮像画像に基づく前記第1の部位に対応する画像特徴量を、参照画像に基づく前記第1の目標に対応する画像特徴量に一致させる処理、及び前記エンドエフェクターの姿勢を、前記第1の動作情報及び前記第2の動作情報に基づく動作を開始するときの、前記第2の目標に対応する前記エンドエフェクターの姿勢に近づける処理を行うことで、前記第1の動作情報及び前記第2の動作情報に基づく動作を前記ロボットに行わせることと、
を含むことを特徴とする制御方法。 - 被作業物の第1の部位と第1の目標とを一致させる動作の情報である第1の動作情報と、前記第1の部位とは異なる前記被作業物の部位と第2の目標とを近づける動作の情報である前記第1の動作情報とは異なる第2の動作情報とを受け付けることと、
ロボットが第1の姿勢から前記第1の姿勢とは異なる第2の姿勢へと移る間に被撮像物を複数回撮像した複数の撮像画像を用いて、前記複数の撮像画像に基づく前記第1の部位に対応する画像特徴量を、参照画像に基づく前記第1の目標に対応する画像特徴量に一致させる処理、及び前記第1の動作情報に基づく動作により前記被作業物の部位の画像特徴量が変化する量を推定した推定変化量を、前記第2の目標に対応するゼロに近づける処理を行うことで、前記第1の動作情報及び前記第2の動作情報に基づく動作を前記ロボットに行わせることと、
を含むことを特徴とする制御方法。 - 第1の動作情報と、前記第1の動作情報とは異なる第2の動作情報とを受け付けることと、
ロボットが第1の姿勢から前記第1の姿勢とは異なる第2の姿勢へと移る間に被撮像物を複数回撮像した複数の撮像画像を用いて、前記ロボットのエンドエフェクターの位置及び姿勢の自由度よりも少ない自由度の画像特徴量を目標特徴量に一致させる処理及び、前記第2の動作情報に基づく動作を規定する評価関数を最大化する処理により、前記第1の動作情報及び前記第2の動作情報に基づく動作を前記ロボットに行わせることと、
前記エンドエフェクターの位置及び姿勢Xの変化ΔXを、
ΔX=λJ#(sg−s)+(I−J#J)ξkp
により制御することと、
を含み、
sは前記複数の撮像画像に基づく画像特徴量であり、sgは参照画像に基づく目標特徴量であり、ξは前記評価関数のXによる微分であり、JはXとsを関係づけるヤコビアンであり、J#はJの疑似逆行列であり、Iは単位行列であり、λ、kpは、制御ゲインであることを特徴とする制御方法。 - 被作業物の第1の部位と第1の目標とを一致させる動作の情報である第1の動作情報と、前記被作業物の部位又はロボットの部位である第2の部位と第2の目標とを近づける動作の情報であり且つ前記第1の動作情報とは異なる第2の動作情報とを受け付けることと、
前記ロボットが第1の姿勢から前記第1の姿勢とは異なる第2の姿勢へと移る間に被撮像物を複数回撮像した複数の撮像画像を用いて、前記第1の動作情報に基づいて前記第1の部位と前記第1の目標とを一致させる動作を前記ロボットに行わせる際に、前記第1の動作情報よりも優先度が低い前記第2の動作情報に基づいて前記第2の部位と前記第2の目標とを近づける動作を前記ロボットに行わせることと、
を含むことを特徴とする制御方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013227274A JP6421408B2 (ja) | 2013-10-31 | 2013-10-31 | 制御装置、ロボット、ロボットシステム及び制御方法 |
US14/520,672 US9555549B2 (en) | 2013-10-31 | 2014-10-22 | Control device, robot, robot system, and control method |
CN201510137050.9A CN104827472B (zh) | 2013-10-31 | 2014-10-29 | 控制装置、机器人、机器人系统以及控制方法 |
CN201410593480.7A CN104589347A (zh) | 2013-10-31 | 2014-10-29 | 控制装置、机器人、机器人系统以及控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013227274A JP6421408B2 (ja) | 2013-10-31 | 2013-10-31 | 制御装置、ロボット、ロボットシステム及び制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015085467A JP2015085467A (ja) | 2015-05-07 |
JP6421408B2 true JP6421408B2 (ja) | 2018-11-14 |
Family
ID=53048818
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013227274A Expired - Fee Related JP6421408B2 (ja) | 2013-10-31 | 2013-10-31 | 制御装置、ロボット、ロボットシステム及び制御方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6421408B2 (ja) |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0746759B2 (ja) * | 1986-01-25 | 1995-05-17 | 日本電気ホームエレクトロニクス株式会社 | 不定型リ−ド部品のプリント板への自動装着方法 |
US4980971A (en) * | 1989-12-14 | 1991-01-01 | At&T Bell Laboratories | Method and apparatus for chip placement |
JPH0852674A (ja) * | 1994-08-12 | 1996-02-27 | Kobe Steel Ltd | マニピュレータの位置姿勢決定方法 |
JP3207728B2 (ja) * | 1995-10-11 | 2001-09-10 | 三菱重工業株式会社 | 冗長マニピュレータの制御方法 |
JP3981778B2 (ja) * | 1997-09-01 | 2007-09-26 | 株式会社安川電機 | 撮像装置を用いた機械装置のビジュアルフィードバック方法およびその機械装置 |
US6278906B1 (en) * | 1999-01-29 | 2001-08-21 | Georgia Tech Research Corporation | Uncalibrated dynamic mechanical system controller |
JP2002355784A (ja) * | 2001-05-31 | 2002-12-10 | Toyota Central Res & Dev Lab Inc | ロボット装置 |
DE10319253B4 (de) * | 2003-04-28 | 2005-05-19 | Tropf, Hermann | Dreidimensional lagegerechtes Zuführen mit Roboter |
JP2007011978A (ja) * | 2005-07-04 | 2007-01-18 | Toyota Motor Corp | ロボットの運動制御装置 |
JP5175691B2 (ja) * | 2008-11-20 | 2013-04-03 | トヨタ自動車株式会社 | ロボットアームの教示システム及び方法 |
JP5071361B2 (ja) * | 2008-12-09 | 2012-11-14 | 株式会社安川電機 | 複腕ロボットの作業プログラム作成方法および複腕ロボット |
JP2013173191A (ja) * | 2012-02-23 | 2013-09-05 | Seiko Epson Corp | ロボット装置、ロボット制御装置、ロボット制御方法及びロボット制御プログラム |
-
2013
- 2013-10-31 JP JP2013227274A patent/JP6421408B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2015085467A (ja) | 2015-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9555549B2 (en) | Control device, robot, robot system, and control method | |
CN111482959B (zh) | 机器人运动视觉系统的自动手眼标定系统与方法 | |
JP7467041B2 (ja) | 情報処理装置、情報処理方法及びシステム | |
US9221176B2 (en) | Robot system and method for controlling the same | |
JP5685027B2 (ja) | 情報処理装置、物体把持システム、ロボットシステム、情報処理方法、物体把持方法およびプログラム | |
JP6430986B2 (ja) | ロボットを用いた位置決め装置 | |
JP5471355B2 (ja) | 3次元視覚センサ | |
CN111565895B (zh) | 机器人系统及机器人控制方法 | |
CN109648605B (zh) | 机器人系统 | |
JP2012254518A (ja) | ロボット制御システム、ロボットシステム及びプログラム | |
JP2015071206A (ja) | 制御装置、ロボット、教示データ生成方法及びプログラム | |
JP2016187846A (ja) | ロボット、ロボット制御装置およびロボットシステム | |
JP6885856B2 (ja) | ロボットシステムおよびキャリブレーション方法 | |
JP2013099808A (ja) | 組み付け装置、およびその方法、組み付け動作プログラム | |
JP6390088B2 (ja) | ロボット制御システム、ロボット、プログラム及びロボット制御方法 | |
JP2018051634A (ja) | ロボット制御装置、ロボット、ロボットシステムおよび姿勢特定装置 | |
JP6331335B2 (ja) | 制御装置、ロボット、ロボットシステム及び制御方法 | |
US20140094951A1 (en) | Working unit control device, working robot, working unit control method, and working unit control program | |
US20220203517A1 (en) | Non-transitory storage medium and method and system of creating control program for robot | |
CN115446847A (zh) | 用于提高机器人系统的3d眼手协调准确度的系统和方法 | |
JP2008009899A (ja) | 組立作業用ロボットの自動教示システム及び教示方法 | |
JP6421408B2 (ja) | 制御装置、ロボット、ロボットシステム及び制御方法 | |
JP2015003348A (ja) | ロボット制御システム、制御装置、ロボット、ロボット制御システムの制御方法及びロボットの制御方法 | |
JP6337445B2 (ja) | ロボット、処理装置及び検査方法 | |
WO2022092168A1 (ja) | ロボット制御装置及びロボットシステム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161018 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170824 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170905 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171102 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180403 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180501 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180918 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181001 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6421408 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |