JP2003211381A - ロボット制御装置 - Google Patents

ロボット制御装置

Info

Publication number
JP2003211381A
JP2003211381A JP2002007356A JP2002007356A JP2003211381A JP 2003211381 A JP2003211381 A JP 2003211381A JP 2002007356 A JP2002007356 A JP 2002007356A JP 2002007356 A JP2002007356 A JP 2002007356A JP 2003211381 A JP2003211381 A JP 2003211381A
Authority
JP
Japan
Prior art keywords
data
error
robot arm
image
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002007356A
Other languages
English (en)
Inventor
Koji Okamoto
幸司 岡本
Takashi Naito
貴志 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Wave Inc
Toyota Central R&D Labs Inc
Original Assignee
Denso Wave Inc
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Wave Inc, Toyota Central R&D Labs Inc filed Critical Denso Wave Inc
Priority to JP2002007356A priority Critical patent/JP2003211381A/ja
Publication of JP2003211381A publication Critical patent/JP2003211381A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)

Abstract

(57)【要約】 【課題】 ビジュアルサーボによるロボットアームの制
御にあって、画像処理上の工夫により応答性の向上を図
る。 【解決手段】 ロボット制御装置を、ロボットアームに
取付けられたCCDカメラ、その撮影画像データを処理
する視覚認識装置、視覚認識装置からの位置補正量に基
づいてロボットアームの位置姿勢を制御するロボットコ
ントローラから構成する。視覚認識装置には、予めロボ
ットアームの目標位置におけるCCDカメラの撮影画像
上の特徴量からなる目標データが記憶され、実作業時に
おいて、CCDカメラによりワークを撮影し(S1,S
2)、視覚認識装置によりその撮影画像データを処理し
て現在データひいては目標データとの誤差を求め(S
5,S6)、誤差が0に収束するまでロボットアームの
位置姿勢を制御することを繰返す(S7,S8)。この
とき、前回の誤差が大きいときには(S3;N)、画像
処理の分解能を下げて処理すべき画像データ量を低減さ
せる(S5)。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、視覚センサの撮影
画像データに基づいて、ロボットアームの位置姿勢の視
覚フィードバック制御(いわゆるビジュアルサーボ)を
行うようにしたロボット制御装置に関する。
【0002】
【発明が解決しようとする課題】例えば組立用ロボット
等においては、例えばロボットアームによりワークを把
持する際に、視覚装置を用いてロボットアームを制御す
ることが行われている。この制御は、一般に、ワークか
ら比較的離れた所定位置にて、ロボットアームの手先部
に取付けたカメラによりそのワークを撮影し、その撮影
画像データからワークの絶対的な位置を検出し、その検
出位置にロボットアームを移動させてハンドでワークを
把持するというものであった。
【0003】ところが、このような制御方法では、位置
合せ精度が比較的低く、またカメラ座標系をロボット座
標系に変換する等の機器間のキャリブレーションが必要
となるために、非常に面倒な準備作業(パラメータの設
定)等を要し、さらには、撮影後にワークが動いてしま
った場合(あるいはワークが相対移動するような場合)
には、適用できなくなる等の不具合がある。
【0004】そこで、近年では、ビジュアルサーボと称
される視覚フィードバック制御が注目されてきている。
この手法では、例えば教示時にロボットアームをワーク
を把持する直前の位置に移動させ、その際にロボットア
ームに取付けられたカメラによりワークを撮影し、その
画像の特徴量を目標データとして記憶しておく。そし
て、実作業時においては、常にカメラによりワークを撮
影し、その現在データを目標データと比較してその誤差
を0とするように、つまり教示時と同一の見え方となる
ようにロボットアームの位置姿勢を制御(フィードバッ
ク制御)することを繰返し、例えば誤差が0に収束した
ところで、ハンドによる把持動作を実行するものであ
る。
【0005】尚、この場合、前記特徴量は、ワークに設
定された複数個(例えば8個)の特徴点(特定のエッジ
や穴、貼付されたマーカ等)を抽出して、その位置や向
きを検出することに基づいて求められ、カメラ座標によ
る三次元空間でのワークの位置及び姿勢を認識するもの
である。
【0006】このようなビジュアルサーボによる制御
は、従来のようないわば「見てから動く」方法とは異な
り、「見ながら動く」ものであるため、ロボットアーム
の迅速で正確な位置姿勢制御が行えると共に、ワークに
対する相対的な位置制御を行うものであるから、ロボッ
トの絶対的な座標への変換(キャリブレーション)が不
要となって、教示作業(準備作業)も簡単となり、ま
た、例えばコンベア上を移動してくるワークの把持や、
移動ロボットにより移動しながらのワークの把持など、
対象物が相対移動する場合にも適用できる利点がある。
【0007】しかしながら、従来のビジュアルサーボに
よる制御では、その応答性といった点で、改善の余地が
残されていた。即ち、図10に示すように、制御の1サ
イクルにおいては、時刻T0からカメラの撮影処理(露
光時間)に数十msec 、カメラからの画像データの取込
みに33msec (30Hz)、画像処理に数十msecが
かかり、この時点(時刻T1)からロボットの動作(移
動)時間に数十msec(時刻T2)かかっていた。この
ように、画像処理(位置検出)に数十msec から百数十
msec を要しており、ビジュアルサーボの応答性の限界
はその処理時間に依存することになる。この場合、カメ
ラによる撮影時点からロボットの制御終了までに、T2
−T0時間の遅れ時間が経過するので、例えばワークが
比較的高速で移動している場合の追従性に劣ってしまう
ことになる。
【0008】ここで、高速で画像データを取込むことの
できるカメラ(例えば2倍速、4倍速といったカメラ)
や、処理速度の高いマイコン(CPU)等を用いること
で、画像処理の速度を高め得ることは勿論であるが、そ
れでは装置のコストアップ等を伴う虞もあるため、その
ような機器の性能の向上のみに頼ることなく、画像処理
上の工夫(ソフトウエア的な工夫)により、応答性の向
上を図ることが望まれるのである。
【0009】本発明は上記事情に鑑みてなされたもの
で、その目的は、いわゆるビジュアルサーボによりロボ
ットアームを制御するものにあって、画像処理上の工夫
により応答性の向上を図ることができるロボット制御装
置を提供するにある。
【0010】
【課題を解決するための手段】従来のビジュアルサーボ
においては、現在のロボットアーム位置の目標教示位置
までの距離が遠い近いといったケースに関係なく、常に
同様の画像処理、ひいては同様の制御が行われていた。
これに対し、本発明者は、例えば、ロボットアーム位置
が目標教示位置から比較的離れているときには、大雑把
でも良いから目標教示位置の近傍まで早く移動させ、目
標教示位置に近付いた後に精度良く位置姿勢の制御を行
うといったように、場面場面で異なる制御(画像処理)
を行うことに着目し、本発明を成し遂げたのである。
【0011】即ち、請求項1に係る発明は、いわゆるビ
ジュアルサーボによりロボットアームを制御するものに
あって、現在データと目標データとの誤差の大小に応じ
て画像処理手段の処理するデータ量を増減させる処理デ
ータ変更手段を設けたところに特徴を有するものであ
る。これによれば、画像処理手段の処理するデータ量を
低減させれば、位置姿勢制御の精度の低下は予測される
ものの、画像処理に要する時間が短時間で済んで応答性
を高めることができ、一方、画像処理手段の処理するデ
ータ量を増加させれば(通常に戻せば)、位置姿勢制御
の精度を高いものとすることができる。
【0012】従って、例えば誤差が大きいときには画像
処理手段の処理するデータ量を低減させて応答性を高
め、誤差が小さいときに画像処理手段の処理するデータ
量を増加させて位置姿勢制御の精度を高めるといったよ
うに、画像処理上の工夫により、全体としての応答性
(応答速度)の向上を図ることができるのである。尚、
上記とは逆に、誤差が小さいときに画像処理手段の処理
するデータ量を低減させて応答性を高めるようにするこ
とも可能である。
【0013】より具体的には、処理データ変更手段によ
り、画像処理手段の処理するデータ量を低減させる手法
としては、次のものがある。まず、視覚センサにより撮
影した撮影画像データの分解能を下げる或いは画面の部
分的な撮影画像データのみを処理することにより、処理
すべき画像データ量を低減させることができる(請求項
2の発明)。
【0014】現在データを対象物における複数個の特徴
点の画像上の位置検出に基づいて求めるものにあって
は、それら複数個の特徴点のうちの一部のみの位置に基
づいて現在データひいては誤差量を求めるように構成す
ることにより、処理すべきデータ量を低減させることが
できる(請求項3の発明)。現在データひいては誤差が
複数の成分から構成される場合には、それら複数の成分
のうち一部の特定の成分に関してのみの誤差を算出する
ように構成することにより、処理すべきデータ量を低減
させることができる(請求項4の発明)。
【0015】また、この種ビジュアルサーボにおいて
は、ロボットアームの位置姿勢制御を行うにあたり、画
像処理手段は、視覚センサの光軸方向をZ軸、撮影画面
をXY平面とした三次元直交座標系に基づいて、現在デ
ータひいては目標データとの誤差を、x(X軸方向の位
置),y(Y軸方向の位置),z(Z軸方向の位置),
Rx(X軸回りの姿勢(回転角)),Ry(Y軸回りの
姿勢(回転角)),Rz(Z軸回りの姿勢(回転角))
の6つの成分に関して求め、それらを位置補正量として
制御手段に出力することが行われる。
【0016】この場合、従来では、6つの成分の全てに
ついて誤差(位置補正量)が求められた後に、ロボット
アームの制御が行われていた。ところが前記6つの成分
を同時に算出することもできるが、必ずしも同時に算出
されるわけではなく、例えば、まず位置x及びyが求め
られ、次に位置z及び姿勢Rzが求められ、最後に姿勢
Rx及びRyが求められるというように、順次求められ
る場合もある。
【0017】そこで、本発明の請求項5に係る発明は、
いわゆるビジュアルサーボによりロボットアームを制御
するものにあって、画像処理手段を、視覚センサにより
対象物を撮影した撮影画像データから、現在データひい
ては誤差を成分毎に順次求め、各成分に関する誤差が求
められる都度、位置補正量として制御手段に出力するよ
うに構成すると共に、制御手段を、最初の成分に関する
誤差が出力された時点から該当する成分に関するロボッ
トアームの位置姿勢の制御を開始するように構成したも
のである。
【0018】これによれば、画像処理手段による画像処
理が全て終了する前の途中の時点から、ロボットアーム
の位置姿勢の制御を開始させることができるので、その
分ロボットアームの動作開始時期を早めることができ、
画像処理上の工夫によって応答性の向上を図ることがで
きるものである。
【0019】
【発明の実施の形態】以下、本発明を例えば組立用の多
関節(6軸)型ロボットに適用したいくつかの実施例に
ついて、図1ないし図9を参照しながら説明する。 (1)第1の実施例 まず、図1ないし図4を参照しながら、本発明の第1の
実施例(請求項1,2に対応)について述べる。
【0020】図3は、本実施例におけるロボットシステ
ムの構成を概略的に示しており、このシステムにおいて
は、この場合固定的に設置された6軸型のロボットアー
ム(ロボット本体)1により、作業台2上に任意の位置
及び姿勢で供給(あるいはコンベア等により搬入)され
る対象物たるワークWを把持して、組付けや所定位置へ
の搬送等を行うようになっている。尚、図示はしない
が、前記ワークWには、後述する視覚認識のための、複
数個(例えば8個)の特徴点(特定のエッジや穴、貼付
されたマーカ等)が設定されるようになっている。
【0021】前記ロボットアーム1は、設備に固定設置
されるベース3上に、第1アーム4が垂直軸を中心に回
動(旋回)可能に設けられ、その第1アーム4の先端
に、第2アーム5が水平軸を中心に回動可能に設けら
れ、その第2アーム5の先端に、第3アーム6が水平軸
を中心に回動可能に設けられている。さらに、その第3
アーム6の先端面部に、第4アーム7が同軸回転可能に
設けられ、第4アーム7の先端には、第5アーム8が回
転可能に設けられ、第5アーム8の先端面に第6アーム
9が同軸回転可能に設けられて構成されている。そし
て、前記第6アーム9の先端面には、図示しないハンド
等のツールが着脱(交換)自在に取付けられるようにな
っている。
【0022】また、上記したロボットアーム1の各アー
ム4〜9は、エンコーダ付きのサーボモータ(図示せ
ず)によりそれぞれ駆動されるようになっており、それ
ら各サーボモータ(並びにハンド)は、外部に設けられ
マイコンを主体として構成されるロボットコントローラ
10により制御され、もってワークWの把持作業等が自
動で実行されるようになっている。
【0023】このとき、ロボットコントローラ10は、
本実施例に係るロボット制御装置の一部を構成し、その
ソフトウエア構成(プログラムの実行)により、視覚セ
ンサの情報に基づいてロボットアーム1の位置姿勢を例
えばワークWの把持位置にフィードバック制御する、ビ
ジュアルサーボと称される動的な視覚フィードバック制
御を実行するようになっている。
【0024】このビジュアルサーボによる位置姿勢制御
の実現のため、ロボットアーム1のうち例えば第4アー
ム7(あるいは第5アーム8)の側面部に、前記ワーク
Wの画像を撮影するための視覚センサとしてのCCDカ
メラ11が取付けられている。これと共に、マイコンを
主体として成り、前記CCDカメラ11からの撮影画像
データを取込んで処理する視覚認識装置12が設けられ
ている。
【0025】この視覚認識装置12は、画像処理に基づ
いて、制御動作信号(位置補正量)をロボットコントロ
ーラ10に与えるようになっており、これらロボットコ
ントローラ10、CCDカメラ11、視覚認識装置12
から、本実施例に係るロボット制御装置13が構成され
るようになっている。尚、前記視覚認識装置12をロボ
ットコントローラ10に内蔵する構成としても良い。
【0026】この場合、前記視覚認識装置12には、予
め実行される教示動作により得られる目標データが記憶
される記憶部(図示せず)が設けられている。この教示
動作は、例えばティーチングペンダントを用いたマニュ
アル操作により、ロボットアーム1をワークWに対して
教示目標位置(ハンドによりワークWを把持する直前の
位置姿勢)に移動させ、その位置においてCCDカメラ
11によりワークWを撮影し、その際の画像上のワーク
Wの三次元的な位置や姿勢を表す特徴量(例えばワーク
Wの複数個の特徴点の画像上の位置、大きさ(長さ,面
積)、傾き角など)が目標データ(設定値)として記憶
されるのである。
【0027】そして、図2にビジュアルサーボによる制
御ブロック線図を示すように、実作業時においては、ロ
ボット制御装置13は、ロボットアーム1の任意の位置
姿勢にて、CCDカメラ11によりワークWを撮影し、
視覚認識装置12によりその撮影画像データを処理して
現在の画像上の特徴量(ワークWの位置や姿勢)を同様
にして現在データ(フィードバック信号)として求め、
その現在データを目標データと比較してその誤差(偏
差)を減少させる(例えば0とする)ように、つまりC
CDカメラ11による画像が教示時と同一の見え方とな
るように位置補正量を算出して制御動作信号としてロボ
ットコントローラ10に出力するようになっている。
尚、前記位置補正量は、ロボットアーム1の手先の動作
速度を与える速度ベクトルに変換されてロボットコント
ローラ10に入力されるようになっている。
【0028】この場合、図示はしないが、視覚認識装置
12は、例えばCCDカメラ11の撮影光軸方向をZ
軸、撮影画面(投影面)をXY平面とした三次元直交座
標系に基づいて、ワークWの撮影画像の特徴量ひいては
目標データとの誤差を、x(X軸方向の位置),y(Y
軸方向の位置),z(Z軸方向の位置),Rx(X軸回
りの姿勢(回転角)),Ry(Y軸回りの姿勢(回転
角)),Rz(Z軸回りの姿勢(回転角))の6つの成
分に関して求め、それらを位置補正量としてロボットコ
ントローラ10に出力するようになっている。
【0029】ロボットコントローラ10は、その位置補
正量に基づいてロボットアーム1の位置姿勢を制御(フ
ィードバック制御)することを繰返し、この制御によっ
て誤差が0に収束した(あるいは所定値以下となっ
た)、つまりロボットアーム1のワークWに対する位置
姿勢が教示目標位置に一致したところで、ハンドによる
ワークWの把持動作を実行するものである。従って、視
覚認識装置12が、本発明にいう記憶手段及び画像処理
手段として機能し、ロボットコントローラ10が本発明
にいう制御手段として機能するのである。
【0030】さて、後の作用説明でも述べるように、本
実施例のロボット制御装置13においては、ビジュアル
サーボによるロボットアーム1の位置姿勢制御におい
て、誤差の大小に応じて次回の制御サイクルにおける視
覚認識装置12の処理するデータ量が増減されるように
なっている。これは、例えば視覚認識装置12のソフト
ウエア的構成(プログラムの実行)により実現され、以
て、視覚認識装置12が本発明にいう処理データ変更手
段として機能するようになっている。
【0031】より具体的には、CCDカメラ11は、例
えば512×480画素を有しており、通常はそれに応
じた分解能で画像データの取込み及び処理が可能なので
あるが、図4に模式的(イメージ的)に示すように、前
回の誤差がしきい値以上である場合には、CCDカメラ
11の分解能を下げることにより(図4(a)参照)、
処理すべき画像データ量を低減させ、誤差がしきい値よ
りも小さいときには、分解能を通常に戻すようになって
いる(図4(b)参照)。尚、この分解能を下げる方法
としては、走査線1本置きに画像データを取込むように
するといった手法が知られている。また、ズームカメラ
を使用することでも可能となる。
【0032】次に、上記構成の作用について、図1も参
照して述べる。図1のフローチャートは、実作業時に、
ロボット制御装置13が実行するビジュアルサーボによ
るロボットアーム1の位置姿勢の制御の手順を概略的に
示している。即ち、まずステップS1では、CCDカメ
ラ11によりワークWを撮影可能な位置までロボットア
ーム1を移動させ、引続きステップS2にて、CCDカ
メラ11によるワークWの撮影が行われる。
【0033】そして、視覚認識装置12により、CCD
カメラ11からの撮影画像データが取込まれて画像処理
が行われるが、ここでは、ステップS3にて、前回の誤
差がしきい値よりも小さいかどうかが判断され、小さい
場合には(Yes)、ステップS4にて、通常の分解能
で画像データの取込み及び画像処理が行われる。これに
対し、前回の誤差がしきい値以上に大きかった場合には
(ステップS3にてNo)、ステップS5にて、分解能
を下げて画像データの取込み及び画像処理(特徴量の抽
出)が行われるのである。
【0034】この画像処理により現在データが求められ
ると、次のステップS6にて、目標データとの誤差即ち
位置補正量が求められ、誤差が0となっていない場合
(あるいは誤差が所定値よりも大きい場合)、つまりロ
ボットアーム1が教示目標位置に達していない場合には
(ステップS7にてNo)、その位置補正量が制御動作
信号としてロボットコントローラ10に出力され、ステ
ップS8にて、ロボットアーム1の位置姿勢の制御(移
動)が行われる。この後、ステップS2からの処理が繰
返される。
【0035】このような制御により、ロボットアーム1
の手先は、ワークWから比較的離れた位置から次第にワ
ークWに近付いていき、遂には、誤差が0に収束する、
つまりロボットアーム1のワークWに対する位置姿勢が
教示目標位置に一致するようになり(ステップS7にて
Yes)、この時点でビジュアルサーボによる制御が終
了し、ハンドによるワークWの把持動作に移行されるの
である。
【0036】ここで、通常のビジュアルサーボによる制
御の場合には、制御の1サイクルにおいては、例えば、
CCDカメラ11の撮影処理(露光時間)に数十msec
、CCDカメラ11からの画像データの取込みに33
msec (30Hz)、画像処理に数十msec がかかり、
この時点からロボットアーム1の動作(移動)時間に数
十msec かかり、画像処理(位置検出)に数十msec か
ら百数十msec を要するものとなっている。
【0037】ところが、本実施例では、上記ステップS
3にて誤差が比較的大きいと判断された場合(No)、
即ち、現在のCCDカメラ11(ロボットアーム1の手
先)の位置が、目標位置(ワークW)から比較的離れて
いる場合には、ステップS5にてCCDカメラ11の撮
影画像データの分解能を下げるようにしたので、視覚認
識装置12の処理するデータ量が低減されようになる。
これにより、位置姿勢制御(誤差検出)の精度の低下は
予測されるものの、画像処理に要する時間が短時間で済
んで応答性を高めることができるのである。
【0038】一方、誤差が比較的小さくなった、即ち、
ロボットアーム1がワークWに対する目標位置に接近し
た後は(ステップS3にてYes)、ステップS4に
て、CCDカメラ11の撮影画像データの分解能を通常
に戻すようにしたので、位置検出ひいては位置姿勢制御
の精度を高いものとすることができるのである。つまり
本実施例では、ロボットアーム1がワークWから比較的
離れているときには、精度が低くなっても、応答性を高
めてロボットアーム1をワークWの付近まで迅速に移動
させ、ワークWに近付いた後には、位置姿勢制御の精度
を高めてロボットアーム1を精度良く目標位置に制御す
るものである。
【0039】このように本実施例によれば、いわゆるビ
ジュアルサーボによりロボットアーム11を制御するロ
ボット制御装置13にあって、誤差の大小に応じて画像
処理の分解能を変更するという画像処理上の工夫を施し
たことにより、視覚認識装置12の処理する画像データ
量を全体として低減させることができ、応答性の向上を
図ることができるという優れた効果を得ることができる
ものである。
【0040】(2)第2の実施例、他の実施例 図5は、本発明の第2の実施例(請求項2に対応)を示
しており、上記第1の実施例とは次の点が相違してい
る。即ち、上記第1の実施例では、誤差が比較的大きい
とき即ちロボットアーム1の位置が目標位置(ワーク
W)から比較的離れているときに、撮影画像データの分
解能を下げるようにしたが、この実施例では、それとは
逆に、誤差が比較的大きいときには、分解能を通常(比
較的高い)ものとし(図5(a)参照)、誤差が小さく
なったとき、つまりロボットアーム1が目標位置(ワー
クW)に接近したときに、分解能を下げるようにしてい
る(図5(b)参照)。
【0041】これによれば、ワークWから離れていると
きに、精度良くロボットアーム1の位置姿勢制御が行わ
れ、ワークWに接近した状態では、画像処理に要する時
間を短時間で済ませ、応答性を高めることができる。こ
の場合、例えばワークWが高速で相対移動している場合
における追従性を高めることが可能となるのである。こ
のように、応答性と精度とのいずれを重視するかについ
ては、作業内容や対象物等の条件に応じて様々なパター
ンが考えられる。また、分解能を下げることに代えて、
画面全体でなく画面の部分的(例えば中央の所定領域
等)な撮影画像データのみを処理する構成とすることも
でき、同様の作用・効果を得ることができる。
【0042】そして、上記した第1,第2の実施例で
は、ロボット制御装置13(視覚認識装置12)の処理
すべきデータ量を低減させる手段として、CCDカメラ
10による撮影画像データの分解能を下げるように構成
したが、以下のようにして処理すべきデータ量を低減さ
せるようにしても良く、これらによっても、画像処理上
の工夫によって応答性の向上を図ることができる。
【0043】即ち、まず、上述のように、現在データを
構成する特徴量(画像上のワークWの位置)は、ワーク
Wに設定された8個の特徴点の画像上の位置検出に基づ
いて求められるのであるが、例えば誤差が大きいときに
は、複数個の特徴点のうちの一部(3個以上例えば4
個)の特徴点の位置検出に基づいて特徴量を求めるよう
に構成することができる(請求項3に対応)。これによ
れば、誤差が大きいときには、特徴量検出の精度は低下
するものの、処理すべきデータ量を低減させて処理時間
を短縮化することができ、応答性を高めることができ
る。
【0044】また、上述のように、視覚認識装置12は
ワークWの撮影画像の特徴量ひいては目標データとの誤
差を、位置x,y,z及び姿勢(回転角)Rx,Ry,
Rzの6つの成分に関して求めるようになっているので
あるが、例えば誤差が大きいときには、それら複数の成
分のうち一部の特定の成分に関してのみの特徴量の誤差
を算出するように構成することができる(請求項4に対
応)。これによれば、例えば誤差が大きいときには、
x,y成分についてのみ誤差を求めてロボットアーム1
をx,yに関してのみ移動させる、あるいはx,y,z
成分についてのみ誤差を求めてロボットアーム1をx,
y,zに関してのみ移動させるといったようにすること
により、位置決めの精度は低下するものの、処理すべき
データ量を低減させて処理時間を短縮化することがで
き、応答性を高めることができる。
【0045】更には、上記した各構成の組合わせも可能
であり、分解能を下げたときには、x,y成分のみある
いはx,y,z成分のみについてロボットアーム1を制
御するようにし、分解能が高くなったときに、ロボット
アーム1を回転方向(姿勢)についても制御するといっ
た構成や、特徴量を求めるための特徴点数を削減した場
合には、x,y成分のみあるいはx,y,z成分のみに
ついてロボットアーム1を制御するといった構成とする
こともでき、処理すべきデータ量をより一層低減させて
処理時間を短縮化することができ、応答性を高めること
ができる。
【0046】(3)第3,第4の実施例、その他の実施
例 次に、図6ないし図8を参照して、本発明の第3の実施
例(請求項5に対応)について述べる。尚、この第3の
実施例でも、システム(ロボットアーム1及びロボット
制御装置13)のハードウエア構成等については、上記
第1の実施例と共通するので、上記第1の実施例と共通
する部分については、図示及び新たな説明を省略し符号
も共通させて使用することとし、以下、主として異なる
点について述べる。
【0047】本実施例に係るロボット制御装置13も、
ロボットアーム1に取付けられる視覚センサたるCCD
カメラ11、目標データを記憶する記憶手段及び撮影画
像データを処理して特徴量ひいては誤差を算出する画像
処理手段として機能する視覚認識装置12、ロボットア
ーム1の位置姿勢を制御する制御手段として機能するロ
ボットコントローラ10を備えて構成されており、いわ
ゆるビジュアルサーボによるロボットアーム1の位置姿
勢の制御(フィードバック制御)を実行するようになっ
ている。
【0048】ここで、視覚認識装置12は、やはり図8
に示すように、CCDカメラ11の光軸方向をZ軸、撮
影画面をXY平面とした三次元直交座標系に基づいて、
撮影画像データから、ワークWの画像上の特徴量ひいて
は誤差を、x(X軸方向の位置),y(Y軸方向の位
置),z(Z軸方向の位置),Rx(X軸回りの姿勢
(回転角)),Ry(Y軸回りの姿勢(回転角)),R
z(Z軸回りの姿勢(回転角))の6つの成分に関して
求め、それらを位置補正量としてロボットコントローラ
10に出力するようになっている。
【0049】このとき、視覚認識装置12の画像処理に
おいては、前記6つの成分が同時に算出されるわけでは
なく、まず位置x及びyが求められ、次に位置z及び姿
勢Rzが求められ、最後に姿勢Rx及びRyが求められ
るというように、順次求められる。そこで、後のフロー
チャート説明でも述べるように、本実施例のロボット制
御装置13においては、視覚認識装置12は、そのソフ
トウエア的構成により、CCDカメラ11の撮影画像デ
ータから、複数の成分から構成される特徴量ひいては誤
差を成分毎に順次求め、各成分に関する誤差が求められ
る都度、位置補正量としてロボットコントローラ10に
出力するようになっている。
【0050】そして、ロボットコントローラ10は、そ
のソフトウエア的構成により、前記視覚認識装置12か
ら、最初の成分(位置x及びy)に関する位置補正量が
出力された時点から該当する成分に関するロボットアー
ム1の位置姿勢の制御(移動)を開始し、以下、各成分
に関しての制御を出力された順に実行するように構成さ
れている。
【0051】図6のフローチャートは、実作業時に、ロ
ボット制御装置13が実行するビジュアルサーボによる
ロボットアーム1の位置姿勢の制御の手順を概略的に示
している。即ち、ステップS11では、CCDカメラ1
1によりワークWを撮影可能な位置までロボットアーム
1を移動させ、引続きステップS12にて、CCDカメ
ラ11によるワークWの撮影が行われ、撮影画像データ
が視覚認識装置12に取込まれる。
【0052】そして、視覚認識装置12における画像処
理により、画像上のワークWの現在データ(ひいては目
標データとの誤差)が求められるのであるが、ここで
は、上述のように、まずステップS13にて、位置x及
びyについての目標データとの誤差即ち位置補正量が求
められると、その位置補正量がロボットコントローラ1
0に出力されてロボットアーム1のX,Y方向の移動が
開始される。次いで、ステップS14にて、位置z及び
姿勢Rzについての目標データとの誤差即ち位置補正量
が求められると、その位置補正量がロボットコントロー
ラ10に出力されて引続きロボットアーム1のZ,Rz
方向の移動が実行される。
【0053】最後に、ステップS15にて、姿勢Rx及
びRyについての目標データとの誤差即ち位置補正量が
求められると、その位置補正量がロボットコントローラ
10に出力されて引続きロボットアーム1のRx及びR
y方向の移動が実行される。尚、この移動の際には、指
令値の前のデータを基に補間が行われ、急激な動作を行
わないように調整することにより、滑らかな動作が実行
される。
【0054】そして、ステップS16では、誤差が0と
なっているかどうか、つまりロボットアーム1が教示目
標位置に達しているかどうかが判断され、目標位置に達
していない場合には(No)、ステップS12からの処
理が繰返される。そして、このような制御により、遂に
は、誤差が0に収束する、つまりロボットアーム1のワ
ークWに対する位置姿勢が教示目標位置に一致するよう
になり(ステップS16にてYes)、この時点でビジ
ュアルサーボによる制御が終了し、ハンドによるワーク
Wの把持動作に移行されるのである。
【0055】ここで、通常(従来)のビジュアルサーボ
による制御の場合には、図10に示したように、従来で
は、6つの成分の全てについて位置補正量が求められた
後に、ロボットアームの制御が行われていた。このた
め、従来では、画像処理に数十msec がかかった後、そ
の時点(時刻T1)からロボットの動作が開始され、移
動時間に数十msec かかって、時刻T2で制御の1サイ
クルが終了していた。
【0056】これに対し、本実施例の制御では、図7に
示すように、時刻T0からカメラの撮影処理(露光時
間)に数十msec 、カメラからの画像データの取込みに
33msec (30Hz)かかった後(ここまでは従来と
同じ)、全体で数十msec かかる画像処理の途中の時刻
t1の時点で、位置x及びy成分についての位置補正量
が出力されてロボットアーム1の動作が開始される。従
って、ロボットアーム1の動作開始時刻を、従来の時刻
T1から早めることができる。
【0057】そして、位置z及び姿勢Rz成分、並び
に、姿勢Rx及びRy成分についてもその位置補正量が
順次出力されて順次ロボットアーム1を制御できるの
で、ロボットアーム1の移動時間に同様に数十msec か
かったとしても、その動作終了時刻、つまり制御の1サ
イクルが終了する時刻を、従来の時刻T2よりも十分に
早い時刻t2とすることができ、制御の1サイクルに要
する時間つまり応答時間の短縮を図ることができたので
ある。
【0058】このように本実施例によっても、いわゆる
ビジュアルサーボによりロボットアーム1を制御するも
のにあって、視覚認識装置12による画像処理が全て終
了する前の途中の時点から、ロボットアーム1の位置姿
勢の制御を開始させることができるので、その分ロボッ
トアーム1の動作開始時期を早めることができ、画像処
理上の工夫により応答性の向上を図ることができるとい
う優れた効果を得ることができるものである。
【0059】図9は、本発明の第4の実施例を示してい
る。ここで、ワークWには、特徴点としての例えば4個
のマーカM1〜M4が設けられており、視覚認識装置1
2は、撮影画像データからそれら特徴点の抽出処理を行
うのであるが、本実施例では、従来のような全ての特徴
点を抽出した上で現在データひいては誤差を算出するこ
とに代えて、特徴点を例えばマーカM1,M2,M3,
M4の順に分割して抽出(結果出力)し、夫々目標デー
タと比較し、成分毎の誤差を算出できる順に求めるよう
になっている。
【0060】この場合も、例えば2個の特徴点(マーカ
M1,M2)が抽出された時点でX,Y成分について現
在データひいては誤差を求めるというように、上記第3
の実施例と同様に、現在データひいては誤差を成分毎に
順次求めることができ、各成分に関する誤差が求められ
る都度、位置補正量としてロボットコントローラ10に
出力し、最初の成分(位置x及びy)に関する位置補正
量が出力された時点から該当する成分に関するロボット
アーム1の位置姿勢の制御(移動)を開始することがで
きる。
【0061】従って、この第4の実施例においても、上
記第3の実施例と同様に、視覚認識装置12による画像
処理が全て終了する前の途中の時点から、ロボットアー
ム1の位置姿勢の制御を開始させることができるので、
その分ロボットアーム1の動作開始時期を早めることが
でき、画像処理上の工夫により応答性の向上を図ること
ができるという優れた効果を得ることができる。
【0062】尚、本発明においては、上記した実施例を
組合わせて実施することも可能であり、例えば、上記第
1の実施例のように誤差に応じて分解能を変更し、分解
能を高めた(通常に戻した)場合には、第3の実施例の
ように成分毎にロボットアーム1を制御するといった構
成としても良く、これにより応答性の向上により効果的
となる。また、例えば誤差と制御(画像処理)の内容と
の関係をユーザのニーズに応じて設定したテーブルを予
め記憶しておき、それを参照して処理内容を変更する構
成としても良い。
【0063】その他、本発明は上記した各実施例に限定
されるものではなく、例えば移動ロボットに本発明を適
用することも可能であり、またコンベア等により移動し
ているワークWを把持する等の作業にも本発明を適用で
き、さらにはワークの把持,搬送の作業以外の各種の作
業に適用できる等、ロボットアームのハードウエア的構
成や作業(制御)の内容等についても、種々の変形が可
能である。視覚センサの取付位置等についても様々な変
形例が考えられる等、本発明は要旨を逸脱しない範囲内
で適宜変更して実施し得るものである。
【図面の簡単な説明】
【図1】本発明の第1の実施例を示すもので、ロボット
アームの位置姿勢の制御の手順を概略的に示すフローチ
ャート
【図2】ビジュアルサーボによる制御ブロック線図
【図3】システムの外観構成を概略的に示す図
【図4】分解能を下げた場合(a)及び通常に戻した場
合(b)の撮影画像をイメージで示す図
【図5】本発明の第2の実施例を示すもので、通常の分
解能とした場合(a)及び分解能を下げた場合(b)の
撮影画像をイメージで示す図
【図6】本発明の第3の実施例を示すもので、ロボット
アームの位置姿勢の制御の手順を概略的に示すフローチ
ャート
【図7】制御に係る各処理時間の例を示す図
【図8】座標系と成分との関係を示す図
【図9】本発明の第4の実施例を示すもので、特徴点の
検出結果を分割して出力する様子を模式的に示す図
【図10】従来例を示す図7相当図
【符号の説明】
図面中、1はロボットアーム、10はロボットコントロ
ーラ(制御手段)、11はCCDカメラ(視覚セン
サ)、12は視覚認識装置(記憶手段、画像処理手段、
処理データ変更手段)、13はロボット制御装置、Wは
ワーク(対象物)、M1〜M4はマーカ(特徴点)を示
す。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 内藤 貴志 愛知県愛知郡長久手町大字長湫字横道41番 地の1 株式会社豊田中央研究所内 Fターム(参考) 3C007 BS12 CT05 CV08 CW08 KS03 KS07 KT01 KT05 KT11 LT06 LT08 LT12 MT02 5B057 AA05 CH01 DA07 DC30 5L096 BA05 FA69 HA07 JA11

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】 ロボットアームに取付けられた視覚セン
    サと、 前記ロボットアームを予めワーク等の対象物に対する教
    示目標位置に位置させた状態で前記視覚センサにより前
    記対象物を撮影した際の画像上の特徴量を目標データと
    して記憶する記憶手段と、 前記視覚センサにより前記対象物を撮影した撮影画像デ
    ータを処理して現在の画像上の特徴量を現在データとし
    て求め、前記目標データとの誤差を算出する画像処理手
    段と、 この画像処理手段により得られた誤差に基づいて、その
    誤差を減少させるように前記ロボットアームの位置姿勢
    をフィードバック制御する制御手段とを具備してなるロ
    ボット制御装置であって、 前記誤差の大小に応じて前記画像処理手段の処理するデ
    ータ量を増減させる処理データ変更手段を設けたことを
    特徴とするロボット制御装置。
  2. 【請求項2】 前記処理データ変更手段は、視覚センサ
    により撮影した撮影画像データの分解能を下げる或いは
    画面の部分的な撮影画像データのみを処理することによ
    り、処理すべき画像データ量を低減させるように構成さ
    れていることを特徴とする請求項1記載のロボット制御
    装置。
  3. 【請求項3】 前記現在データは、前記対象物における
    複数個の特徴点の画像上の位置検出に基づいて求められ
    るようになっていると共に、前記処理データ変更手段
    は、前記複数個の特徴点のうちの一部のみの位置に基づ
    いて現在データを求めることにより、処理すべきデータ
    量を低減させるように構成されていることを特徴とする
    請求項1記載のロボット制御装置。
  4. 【請求項4】 前記現在データは複数の成分から構成さ
    れると共に、前記処理データ変更手段は、前記複数の成
    分のうち一部の特定の成分に関してのみの現在データひ
    いては誤差を算出することにより、処理すべきデータ量
    を低減させるように構成されていることを特徴とする請
    求項1記載のロボット制御装置。
  5. 【請求項5】 ロボットアームに取付けられた視覚セン
    サと、 前記ロボットアームを予めワーク等の対象物に対する教
    示目標位置に位置させた状態で前記視覚センサにより前
    記対象物を撮影した際の画像上の特徴量を目標データと
    して記憶する記憶手段と、 前記視覚センサにより前記対象物を撮影した撮影画像デ
    ータを処理して現在の画像上の特徴量を現在データとし
    て求め、前記目標データとの誤差を算出する画像処理手
    段と、 この画像処理手段により得られた誤差に基づいて、その
    誤差を減少させるように前記ロボットアームの位置姿勢
    をフィードバック制御する制御手段とを具備してなるロ
    ボット制御装置であって、 前記画像処理手段は、前記撮影画像データから、複数の
    成分から構成される現在データひいては誤差を成分毎に
    順次求め、各成分に関する誤差が求められる都度、位置
    補正量として前記制御手段に出力し、 前記制御手段は、最初の成分に関する位置補正量が出力
    された時点から該当する成分に関する前記ロボットアー
    ムの位置姿勢の制御を開始するように構成されているこ
    とを特徴とするロボット制御装置。
JP2002007356A 2002-01-16 2002-01-16 ロボット制御装置 Pending JP2003211381A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002007356A JP2003211381A (ja) 2002-01-16 2002-01-16 ロボット制御装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002007356A JP2003211381A (ja) 2002-01-16 2002-01-16 ロボット制御装置

Publications (1)

Publication Number Publication Date
JP2003211381A true JP2003211381A (ja) 2003-07-29

Family

ID=27645892

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002007356A Pending JP2003211381A (ja) 2002-01-16 2002-01-16 ロボット制御装置

Country Status (1)

Country Link
JP (1) JP2003211381A (ja)

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009051003A (ja) * 2007-08-23 2009-03-12 Ihi Corp ロボット装置の制御方法及びロボット装置
JP2009083094A (ja) * 2007-09-29 2009-04-23 Ihi Corp ロボット装置の制御方法及びロボット装置
JP2009136968A (ja) * 2007-12-06 2009-06-25 Honda Motor Co Ltd 移動型ロボット
JP2011136377A (ja) * 2009-12-25 2011-07-14 Ihi Corp ロボット制御装置及び方法
JP2011143494A (ja) * 2010-01-13 2011-07-28 Ihi Corp ロボット制御装置及び方法
JP2011251384A (ja) * 2010-06-03 2011-12-15 Yaskawa Electric Corp 移載装置
CN102300680A (zh) * 2008-12-05 2011-12-28 本田技研工业株式会社 机器人手臂的控制方法
JP2012028949A (ja) * 2010-07-21 2012-02-09 Canon Inc 画像処理装置及びその制御方法
KR101197125B1 (ko) * 2012-03-20 2012-11-07 한국기계연구원 물체 파지 시스템 및 물체 파지 방법
JP2013013950A (ja) * 2011-07-01 2013-01-24 Seiko Epson Corp ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム
JP2013240847A (ja) * 2012-05-18 2013-12-05 Ihi Corp ロボットハンド装置と制御方法
CN104400788A (zh) * 2014-12-03 2015-03-11 安徽省库仑动力自动化科技有限公司 一种用于废旧铅电池拆解的视觉识别机器人系统
DE102015001527A1 (de) 2014-02-13 2015-08-13 Fanuc Corporation Robotersystem, das visuelle Rückmeldung verwendet
JPWO2014020739A1 (ja) * 2012-08-02 2016-07-11 富士機械製造株式会社 多関節型ロボットを備えた作業機および電気部品装着機
EP3222393A1 (en) * 2016-03-21 2017-09-27 Recognition Robotics, Inc. Automated guidance system and method for a coordinated movement machine
WO2017179452A1 (ja) * 2016-04-15 2017-10-19 オムロン株式会社 アクチュエータ制御システム、アクチュエータ制御方法、情報処理プログラム、および記録媒体
CN108717262A (zh) * 2018-05-14 2018-10-30 湖南大学 一种基于矩特征学习神经网络的异形曲面跟踪方法及系统
JP2019089188A (ja) * 2017-11-16 2019-06-13 株式会社東芝 作動システムおよびプログラム
CN109986541A (zh) * 2019-05-06 2019-07-09 深圳市恒晟智能技术有限公司 机械手
JP2020110916A (ja) * 2020-04-07 2020-07-27 オムロン株式会社 アクチュエータ制御システム、センサ装置、制御装置、アクチュエータ制御方法、情報処理プログラム、および記録媒体
JP2020116687A (ja) * 2019-01-24 2020-08-06 ファナック株式会社 追随ロボットおよび作業ロボットシステム
CN112566758A (zh) * 2019-03-06 2021-03-26 欧姆龙株式会社 机器人控制装置、机器人控制方法及机器人控制程序
WO2021147035A1 (en) * 2020-01-22 2021-07-29 Abb Schweiz Ag System and method for operating the robot, electronic device and computer readable medium
CN114054167A (zh) * 2021-10-11 2022-02-18 深圳市中金岭南有色金属股份有限公司凡口铅锌矿 一种研磨体的自动添加方法及系统、终端设备
US11253999B2 (en) 2018-03-29 2022-02-22 Fanuc Corporation Machine learning device, robot control device and robot vision system using machine learning device, and machine learning method
CN114538088A (zh) * 2022-02-11 2022-05-27 珠海市运泰利自动化设备有限公司 基于飞拍的高速高精度取放料方法
US11565421B2 (en) 2017-11-28 2023-01-31 Fanuc Corporation Robot and robot system
WO2023167490A1 (en) * 2022-03-01 2023-09-07 Samsung Electronics Co., Ltd. Apparatus and method for self-supervised learning for visual feature representation of egocentric images

Cited By (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009051003A (ja) * 2007-08-23 2009-03-12 Ihi Corp ロボット装置の制御方法及びロボット装置
JP2009083094A (ja) * 2007-09-29 2009-04-23 Ihi Corp ロボット装置の制御方法及びロボット装置
JP2009136968A (ja) * 2007-12-06 2009-06-25 Honda Motor Co Ltd 移動型ロボット
JP4516592B2 (ja) * 2007-12-06 2010-08-04 本田技研工業株式会社 移動型ロボット
CN102300680A (zh) * 2008-12-05 2011-12-28 本田技研工业株式会社 机器人手臂的控制方法
JP2011136377A (ja) * 2009-12-25 2011-07-14 Ihi Corp ロボット制御装置及び方法
JP2011143494A (ja) * 2010-01-13 2011-07-28 Ihi Corp ロボット制御装置及び方法
US8554359B2 (en) 2010-06-03 2013-10-08 Kabushiki Kaisha Yaskawa Denki Transfer apparatus
JP2011251384A (ja) * 2010-06-03 2011-12-15 Yaskawa Electric Corp 移載装置
JP2012028949A (ja) * 2010-07-21 2012-02-09 Canon Inc 画像処理装置及びその制御方法
JP2013013950A (ja) * 2011-07-01 2013-01-24 Seiko Epson Corp ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム
KR101197125B1 (ko) * 2012-03-20 2012-11-07 한국기계연구원 물체 파지 시스템 및 물체 파지 방법
JP2013240847A (ja) * 2012-05-18 2013-12-05 Ihi Corp ロボットハンド装置と制御方法
JPWO2014020739A1 (ja) * 2012-08-02 2016-07-11 富士機械製造株式会社 多関節型ロボットを備えた作業機および電気部品装着機
DE102015001527A1 (de) 2014-02-13 2015-08-13 Fanuc Corporation Robotersystem, das visuelle Rückmeldung verwendet
US9517563B2 (en) 2014-02-13 2016-12-13 Fanuc Corporation Robot system using visual feedback
DE102015001527B4 (de) 2014-02-13 2019-02-28 Fanuc Corporation Robotersystem, das visuelle Rückmeldung verwendet
CN104400788A (zh) * 2014-12-03 2015-03-11 安徽省库仑动力自动化科技有限公司 一种用于废旧铅电池拆解的视觉识别机器人系统
US9990685B2 (en) 2016-03-21 2018-06-05 Recognition Robotics, Inc. Automated guidance system and method for a coordinated movement machine
EP3222393A1 (en) * 2016-03-21 2017-09-27 Recognition Robotics, Inc. Automated guidance system and method for a coordinated movement machine
US11209790B2 (en) 2016-04-15 2021-12-28 Omron Corporation Actuator control system, actuator control method, information processing program, and storage medium
WO2017179452A1 (ja) * 2016-04-15 2017-10-19 オムロン株式会社 アクチュエータ制御システム、アクチュエータ制御方法、情報処理プログラム、および記録媒体
CN108778637A (zh) * 2016-04-15 2018-11-09 欧姆龙株式会社 致动器控制系统、致动器控制方法、信息处理程序及记录介质
JP2017189856A (ja) * 2016-04-15 2017-10-19 オムロン株式会社 アクチュエータ制御システム、アクチュエータ制御方法、情報処理プログラム、および記録媒体
CN108778637B (zh) * 2016-04-15 2021-07-13 欧姆龙株式会社 致动器控制系统、致动器控制方法及记录介质
JP2019089188A (ja) * 2017-11-16 2019-06-13 株式会社東芝 作動システムおよびプログラム
US11565421B2 (en) 2017-11-28 2023-01-31 Fanuc Corporation Robot and robot system
DE102019002065B4 (de) 2018-03-29 2022-10-13 Fanuc Corporation Maschinelle Lernvorrichtung, Robotersteuervorrichtung und Robotervisionssystem, das eine maschinelle Lernvorrichtung verwendet, und maschinelles Lernverfahren
US11253999B2 (en) 2018-03-29 2022-02-22 Fanuc Corporation Machine learning device, robot control device and robot vision system using machine learning device, and machine learning method
CN108717262A (zh) * 2018-05-14 2018-10-30 湖南大学 一种基于矩特征学习神经网络的异形曲面跟踪方法及系统
CN108717262B (zh) * 2018-05-14 2020-10-02 湖南大学 一种基于矩特征学习神经网络的异形曲面跟踪方法及系统
US11230005B2 (en) 2019-01-24 2022-01-25 Fanuc Corporation Following robot and work robot system
JP7000361B2 (ja) 2019-01-24 2022-01-19 ファナック株式会社 追随ロボットおよび作業ロボットシステム
JP2020116687A (ja) * 2019-01-24 2020-08-06 ファナック株式会社 追随ロボットおよび作業ロボットシステム
CN112566758A (zh) * 2019-03-06 2021-03-26 欧姆龙株式会社 机器人控制装置、机器人控制方法及机器人控制程序
CN109986541A (zh) * 2019-05-06 2019-07-09 深圳市恒晟智能技术有限公司 机械手
WO2021147035A1 (en) * 2020-01-22 2021-07-29 Abb Schweiz Ag System and method for operating the robot, electronic device and computer readable medium
JP2020110916A (ja) * 2020-04-07 2020-07-27 オムロン株式会社 アクチュエータ制御システム、センサ装置、制御装置、アクチュエータ制御方法、情報処理プログラム、および記録媒体
CN114054167A (zh) * 2021-10-11 2022-02-18 深圳市中金岭南有色金属股份有限公司凡口铅锌矿 一种研磨体的自动添加方法及系统、终端设备
CN114538088A (zh) * 2022-02-11 2022-05-27 珠海市运泰利自动化设备有限公司 基于飞拍的高速高精度取放料方法
CN114538088B (zh) * 2022-02-11 2024-02-13 珠海市运泰利自动化设备有限公司 基于飞拍的高速高精度取放料方法
WO2023167490A1 (en) * 2022-03-01 2023-09-07 Samsung Electronics Co., Ltd. Apparatus and method for self-supervised learning for visual feature representation of egocentric images

Similar Documents

Publication Publication Date Title
JP2003211381A (ja) ロボット制御装置
US9519736B2 (en) Data generation device for vision sensor and detection simulation system
CN109719438B (zh) 一种工业焊接机器人焊缝自动跟踪方法
JP2022028672A (ja) ロボットモーション用のビジョンシステムの自動ハンドアイ校正のためのシステム及び方法
CN111565895B (zh) 机器人系统及机器人控制方法
US20140288710A1 (en) Robot system and calibration method
JPH04344503A (ja) ロボットの数値制御装置
JPH0435885A (ja) 視覚センサのキャリブレーション方法
CN101733755A (zh) 机械手系统、机械手控制装置以及机械手控制方法
JP2003211382A (ja) ロボット制御装置
JP2002018754A (ja) ロボット装置及びその制御方法
JP2003231078A (ja) ロボットアームの位置制御方法およびロボット装置
CN110636923B (zh) 一种机器人的运动控制方法、机器人及控制器
JP2004001122A (ja) ピッキング装置
JP2003311670A (ja) ロボットアームの位置制御方法およびロボット装置
JP2019119027A (ja) ロボットシステムの制御方法、およびロボットシステム
JP2012061553A (ja) ワーク姿勢検出装置、ワーク処理実行装置及びワーク姿勢検出方法
JP5509859B2 (ja) ロボット制御装置及び方法
JP7323993B2 (ja) 制御装置、ロボットシステム、制御装置の動作方法及びプログラム
GB2581418A (en) Systems and methods for determining lighting fixture arrangement information
JPH0299802A (ja) ハンドアイを用いた視覚センサにおける座標系設定方法
WO2022209578A1 (ja) ロボット制御システム、および制御装置
JPH07117403B2 (ja) ロボットの視覚座標校正方法およびシステム
WO2023013739A1 (ja) ロボット制御装置、ロボット制御システム、及びロボット制御方法
WO2022014458A1 (ja) 検出装置及び検出方法

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20040308

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20040308

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040413

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060322

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060711