JPH0588721A - 関節型ロボツトの制御装置 - Google Patents
関節型ロボツトの制御装置Info
- Publication number
- JPH0588721A JPH0588721A JP25082491A JP25082491A JPH0588721A JP H0588721 A JPH0588721 A JP H0588721A JP 25082491 A JP25082491 A JP 25082491A JP 25082491 A JP25082491 A JP 25082491A JP H0588721 A JPH0588721 A JP H0588721A
- Authority
- JP
- Japan
- Prior art keywords
- articulated robot
- learning
- position information
- angle
- control device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Numerical Control (AREA)
- Manipulator (AREA)
- Control Of Position Or Direction (AREA)
Abstract
(57)【要約】
【目的】 関節型ロボットの制御装置に関し、手先位置
の直交座標から各関節の角度座標を得る座標変換装置の
変換精度並びに変換性能を向上させることを目的とす
る。 【構成】 関節型ロボットを種々の状態に設定したとき
の手先位置の測定値を入力信号に、また各関節角度の測
定値を教師信号にして学習を行なった学習装置を座標変
換装置として設けることにより構成する。
の直交座標から各関節の角度座標を得る座標変換装置の
変換精度並びに変換性能を向上させることを目的とす
る。 【構成】 関節型ロボットを種々の状態に設定したとき
の手先位置の測定値を入力信号に、また各関節角度の測
定値を教師信号にして学習を行なった学習装置を座標変
換装置として設けることにより構成する。
Description
【0001】
【産業上の利用分野】本発明は、関節型ロボットの作業
部位を目的の位置まで移動させるための制御装置に関す
る。
部位を目的の位置まで移動させるための制御装置に関す
る。
【0002】関節型ロボットを制御する場合には、視覚
座標系で得られた情報を利用することが多い。この視覚
座標は、一般に2次元または3次元の直交座標で表わさ
れる。しかし、この直交座標を用いて関節型ロボットを
制御するためには、直交座標を各関節の角度座標に変換
する必要がある。
座標系で得られた情報を利用することが多い。この視覚
座標は、一般に2次元または3次元の直交座標で表わさ
れる。しかし、この直交座標を用いて関節型ロボットを
制御するためには、直交座標を各関節の角度座標に変換
する必要がある。
【0003】
【従来の技術】図10は従来の技術を示す図であり、そ
の中で(a)の方は従来の制御について示している。作
業部位移動指示装置50は、関節型ロボットの作業部位
が移動すべき位置を直交座標を用いて指示する。座標の
逆変換装置51は、直交座標から角度座標への座標変換
を行なう。関節部位駆動装置52は、与えられる角度座
標で表わされた角度の情報に従って各関節角度を大きく
したりあるいは小さくしたりする。
の中で(a)の方は従来の制御について示している。作
業部位移動指示装置50は、関節型ロボットの作業部位
が移動すべき位置を直交座標を用いて指示する。座標の
逆変換装置51は、直交座標から角度座標への座標変換
を行なう。関節部位駆動装置52は、与えられる角度座
標で表わされた角度の情報に従って各関節角度を大きく
したりあるいは小さくしたりする。
【0004】図10(b)は座標の逆変換を説明する図
である。関節型ロボットがn個の関節を持っていた場
合、n個の関節角度を定めると作業部位の空間位置が一
意に定まる。図中(b)の方では、n個の関節角度をい
ろいろと変化させたときの関節の角度座標と、それぞれ
の場合における作業部位の空間位置を示す直交座標とを
関節型ロボットの設計値に基づいて対応させている。角
度座標から直交座標への変換は関節型ロボットの設計値
に基づいて行なうことができるが、直交座標から角度座
標への逆変換の方は複雑な数式処理が必要である。
である。関節型ロボットがn個の関節を持っていた場
合、n個の関節角度を定めると作業部位の空間位置が一
意に定まる。図中(b)の方では、n個の関節角度をい
ろいろと変化させたときの関節の角度座標と、それぞれ
の場合における作業部位の空間位置を示す直交座標とを
関節型ロボットの設計値に基づいて対応させている。角
度座標から直交座標への変換は関節型ロボットの設計値
に基づいて行なうことができるが、直交座標から角度座
標への逆変換の方は複雑な数式処理が必要である。
【0005】
【発明が解決しようとする課題】関節型ロボットであっ
て、その作業部位が2次元の平面を移動するものについ
ては3関節以上の冗長自由度を、また3次元空間を移動
するものについては7関節以上の冗長自由度を持つもの
については、上述の直交座標から角度座標への逆変換を
解析的に解くことができないという問題点がある。その
他の関節型ロボットについても、解析的に解いた逆変換
規則に従って空間座標から角度座標を得ても、作業部位
の実際の位置は、各アームの自重による誤差などが積算
するために目的の位置から大きくずれることがあるとい
う問題点があった。
て、その作業部位が2次元の平面を移動するものについ
ては3関節以上の冗長自由度を、また3次元空間を移動
するものについては7関節以上の冗長自由度を持つもの
については、上述の直交座標から角度座標への逆変換を
解析的に解くことができないという問題点がある。その
他の関節型ロボットについても、解析的に解いた逆変換
規則に従って空間座標から角度座標を得ても、作業部位
の実際の位置は、各アームの自重による誤差などが積算
するために目的の位置から大きくずれることがあるとい
う問題点があった。
【0006】また、作業部位の実際の位置と各関節角度
との測定値を数多く集めて行なう実測値に基づいた関節
の制御は、相当数に及ぶ実測値を収集する必要がある
上、実測値は結局離散的な値である関係上、連続的な値
で示される任意の空間位置については座標変換を行なう
ことができないという問題点があった。
との測定値を数多く集めて行なう実測値に基づいた関節
の制御は、相当数に及ぶ実測値を収集する必要がある
上、実測値は結局離散的な値である関係上、連続的な値
で示される任意の空間位置については座標変換を行なう
ことができないという問題点があった。
【0007】本発明は、このような従来の問題点に鑑
み、関節型ロボットの制御装置において学習装置を設け
ることにより、この学習装置が容易とする学習によって
従来の複雑な数式処理を不要とし、同時に学習の補完機
能により、任意の空間位置について座標変換を可能とさ
せることを目的とする。
み、関節型ロボットの制御装置において学習装置を設け
ることにより、この学習装置が容易とする学習によって
従来の複雑な数式処理を不要とし、同時に学習の補完機
能により、任意の空間位置について座標変換を可能とさ
せることを目的とする。
【0008】
【課題を解決するための手段】本発明によれば、上述の
目的は、前記特許請求の範囲に記載した手段により達成
される。
目的は、前記特許請求の範囲に記載した手段により達成
される。
【0009】すなわち、請求項1の発明は、目的の位置
まで関節型ロボットの作業部位を移動させるために関節
型ロボットの各関節角度を制御する装置において、関節
型ロボットの動作に伴って移動する対象物の位置を測定
する装置が得る位置情報と、関節型ロボットの各関節角
度を測定する装置が得る角度情報とを与えられると、前
記位置情報の入力に対する出力データを前記角度情報に
一致させる学習を行なう座標変換装置を設ける関節型ロ
ボットの制御装置である。
まで関節型ロボットの作業部位を移動させるために関節
型ロボットの各関節角度を制御する装置において、関節
型ロボットの動作に伴って移動する対象物の位置を測定
する装置が得る位置情報と、関節型ロボットの各関節角
度を測定する装置が得る角度情報とを与えられると、前
記位置情報の入力に対する出力データを前記角度情報に
一致させる学習を行なう座標変換装置を設ける関節型ロ
ボットの制御装置である。
【0010】請求項2の発明は、対象物を写す複数のテ
レビカメラと、該テレビカメラの画像情報から対象物の
重心等におけるX座標とY座標および対象物の傾斜角度
並びに対象物の面積などの位置情報を生成する画像処理
装置とを具備する対象物の位置を測定する装置が得る位
置情報により前記学習を行なう座標変換装置を設ける請
求項1記載の関節型ロボットの制御装置である。
レビカメラと、該テレビカメラの画像情報から対象物の
重心等におけるX座標とY座標および対象物の傾斜角度
並びに対象物の面積などの位置情報を生成する画像処理
装置とを具備する対象物の位置を測定する装置が得る位
置情報により前記学習を行なう座標変換装置を設ける請
求項1記載の関節型ロボットの制御装置である。
【0011】請求項3の発明は、X−Yステージなどの
テーブル上に搭載されて対象物の位置を測定する移動可
能な装置が得る位置情報と、該装置自体の位置情報とを
合わせた位置情報とを請求項1記載の位置情報として前
記学習を行なう座標変換装置を設ける請求項1記載の関
節型ロボットの制御装置である。
テーブル上に搭載されて対象物の位置を測定する移動可
能な装置が得る位置情報と、該装置自体の位置情報とを
合わせた位置情報とを請求項1記載の位置情報として前
記学習を行なう座標変換装置を設ける請求項1記載の関
節型ロボットの制御装置である。
【0012】請求項4の発明は、対象物の位置を無作為
に設定した時の位置情報と角度情報とにより前記学習を
行なう座標変換装置を設ける請求項1〜3何れか記載の
関節型ロボットの制御装置である。
に設定した時の位置情報と角度情報とにより前記学習を
行なう座標変換装置を設ける請求項1〜3何れか記載の
関節型ロボットの制御装置である。
【0013】請求項5の発明は、対象物の位置をある空
間では密に、他の空間では疎に設定した時の位置情報と
角度情報とにより前記学習を行なう座標変換装置を設け
る請求項1〜3何れか記載の関節型ロボットの制御装置
である。
間では密に、他の空間では疎に設定した時の位置情報と
角度情報とにより前記学習を行なう座標変換装置を設け
る請求項1〜3何れか記載の関節型ロボットの制御装置
である。
【0014】請求項6の発明は、関節型ロボットの各関
節角度を一定の割合で変化させた時の位置情報と角度情
報とにより前記学習を行なう座標変換装置を設ける請求
項1〜3何れか記載の関節型ロボットの制御装置であ
る。
節角度を一定の割合で変化させた時の位置情報と角度情
報とにより前記学習を行なう座標変換装置を設ける請求
項1〜3何れか記載の関節型ロボットの制御装置であ
る。
【0015】請求項7の発明は、対象物が移動する空間
を複数に分割したときの各空間の座標変換を担当し、自
己が担当する空間の位置情報について前記学習を行なう
複数の座標変換装置を設ける請求項1〜6何れか記載の
関節型ロボットの制御装置である。
を複数に分割したときの各空間の座標変換を担当し、自
己が担当する空間の位置情報について前記学習を行なう
複数の座標変換装置を設ける請求項1〜6何れか記載の
関節型ロボットの制御装置である。
【0016】請求項8の発明は、関節型ロボットの作業
部位を対象物とした時の位置情報により前記学習を行な
う座標変換装置を設ける請求項1〜7何れか記載の関節
型ロボットの制御装置である。
部位を対象物とした時の位置情報により前記学習を行な
う座標変換装置を設ける請求項1〜7何れか記載の関節
型ロボットの制御装置である。
【0017】請求項9の発明は、関節型ロボットの作業
部位が取り扱う物体を対象物とした時の位置情報により
前記学習を行なう座標変換装置を設ける請求項1〜7何
れか記載の関節型ロボットの制御装置である。
部位が取り扱う物体を対象物とした時の位置情報により
前記学習を行なう座標変換装置を設ける請求項1〜7何
れか記載の関節型ロボットの制御装置である。
【0018】請求項10の発明は、オフセットを持つ物
体を対象物とする請求項9記載の関節型ロボットの制御
装置である。
体を対象物とする請求項9記載の関節型ロボットの制御
装置である。
【0019】請求項11の発明は、座標変換装置が示す
角度に適合するように各関節角度を制御することによる
作業部位の移動分に加えて、オフセットの向きおよび距
離に相当するだけの移動を制御する手段を設ける請求項
10記載の関節型ロボットの制御装置である。
角度に適合するように各関節角度を制御することによる
作業部位の移動分に加えて、オフセットの向きおよび距
離に相当するだけの移動を制御する手段を設ける請求項
10記載の関節型ロボットの制御装置である。
【0020】請求項12の発明は、関節型ロボットの作
業部位にテレビカメラを設け、該テレビカメラの画像情
報に基づいてオフセットの位置補正を行なう請求項11
記載の関節型ロボットの制御装置である。
業部位にテレビカメラを設け、該テレビカメラの画像情
報に基づいてオフセットの位置補正を行なう請求項11
記載の関節型ロボットの制御装置である。
【0021】
【作用】図1は、本発明の原理説明図である。図1
(a)において、学習装置1は入力信号として作業部位
測定装置2が出力する位置情報を、教師信号として関節
角度測定装置3が出力する角度情報を与えられる。学習
機構4は、位置情報の入力に対する出力信号として関節
角度を出力する。比較手段5は、学習機構4の出力信号
と関節角度測定装置3からの教師信号とを比較し、その
誤差を出力する。設定変更手段6は、この誤差が小さく
なるように学習機構4を制御し、その設定を変更する。
以上の学習を繰り返すことにより、学習装置1は位置情
報の入力に対して、関節角度測定装置3からの角度情報
と同様な角度情報の出力を行なうようになる。
(a)において、学習装置1は入力信号として作業部位
測定装置2が出力する位置情報を、教師信号として関節
角度測定装置3が出力する角度情報を与えられる。学習
機構4は、位置情報の入力に対する出力信号として関節
角度を出力する。比較手段5は、学習機構4の出力信号
と関節角度測定装置3からの教師信号とを比較し、その
誤差を出力する。設定変更手段6は、この誤差が小さく
なるように学習機構4を制御し、その設定を変更する。
以上の学習を繰り返すことにより、学習装置1は位置情
報の入力に対して、関節角度測定装置3からの角度情報
と同様な角度情報の出力を行なうようになる。
【0022】図1(b)は、上述の学習を行なった学習
装置1を関節型ロボットの制御装置に設けたときの制御
について示している。作業部位移動指示装置7は、関節
型ロボットの作業部位が移動すべき位置を直交座標を用
いて指示する。学習装置1は上述の学習によって、直交
座標から角度座標への座標変換を行なうので関節角度を
出力する。従来とは異なり、学習装置1を用いているの
で任意の値の直交座標について変換が可能である。関節
部位駆動装置8は、与えられる角度座標で表わされた角
度の情報に従って各関節角度を調節する。
装置1を関節型ロボットの制御装置に設けたときの制御
について示している。作業部位移動指示装置7は、関節
型ロボットの作業部位が移動すべき位置を直交座標を用
いて指示する。学習装置1は上述の学習によって、直交
座標から角度座標への座標変換を行なうので関節角度を
出力する。従来とは異なり、学習装置1を用いているの
で任意の値の直交座標について変換が可能である。関節
部位駆動装置8は、与えられる角度座標で表わされた角
度の情報に従って各関節角度を調節する。
【0023】
【実施例】図2は、学習装置に与える学習データの一例
を示す図である。図2において、関節型ロボット9は、
3つの関節の角度をそれぞれθ1 ,θ2 ,θ3 の角度に
曲げてその手先に物体12を持っている。θ1 ,θ2 ,
θ3 の角度は、各関節部位に角度エンコーダなどを設け
ることにより正確に測定する。2台のカメラ10,11
は、関節型ロボット9の手先の方を向いており、物体1
2を写す。角度エンコーダなどが得る角度情報から教師
信号が、また2台のカメラ10,11が得る画像情報か
ら入力信号が得られる。
を示す図である。図2において、関節型ロボット9は、
3つの関節の角度をそれぞれθ1 ,θ2 ,θ3 の角度に
曲げてその手先に物体12を持っている。θ1 ,θ2 ,
θ3 の角度は、各関節部位に角度エンコーダなどを設け
ることにより正確に測定する。2台のカメラ10,11
は、関節型ロボット9の手先の方を向いており、物体1
2を写す。角度エンコーダなどが得る角度情報から教師
信号が、また2台のカメラ10,11が得る画像情報か
ら入力信号が得られる。
【0024】図2では、手先を種々の位置に設定して学
習データを得ている。この時の設定方法には、例えば無
作為に手先位置を設定する方法や、手先が頻繁に移動す
る空間では密に、アームが伸び切るようなときの手先位
置周辺では疎にというように作為的に手先位置を設定す
る方法が考えられる。その他、各関節角度の最大角度を
適当な分割数で割り、各関節を一定の割り合いで曲げて
いくことにより手先の位置を設定する方法も考えられ
る。
習データを得ている。この時の設定方法には、例えば無
作為に手先位置を設定する方法や、手先が頻繁に移動す
る空間では密に、アームが伸び切るようなときの手先位
置周辺では疎にというように作為的に手先位置を設定す
る方法が考えられる。その他、各関節角度の最大角度を
適当な分割数で割り、各関節を一定の割り合いで曲げて
いくことにより手先の位置を設定する方法も考えられ
る。
【0025】図3は、学習装置が行なう学習の一例を示
す図である。図3において、学習データの入力信号は2
台のカメラの画像情報を元に生成している。また、学習
データの教師信号は、n個の関節を有するロボットの各
関節角度である。カメラの画像情報を画像処理すること
により、物体の重心におけるX座標とY座標および傾斜
角度α並びに面積Sが求まる。これらの位置情報を入力
信号として学習装置13は学習を行なう。図3の学習装
置13は、3層の階層型ニューラルネットワークを用い
て構成している。
す図である。図3において、学習データの入力信号は2
台のカメラの画像情報を元に生成している。また、学習
データの教師信号は、n個の関節を有するロボットの各
関節角度である。カメラの画像情報を画像処理すること
により、物体の重心におけるX座標とY座標および傾斜
角度α並びに面積Sが求まる。これらの位置情報を入力
信号として学習装置13は学習を行なう。図3の学習装
置13は、3層の階層型ニューラルネットワークを用い
て構成している。
【0026】図4は、学習装置に与える学習データの他
の例を示す図である。図4において、関節型ロボット1
4は、3つの関節の角度をそれぞれθ1 ,θ2 ,θ3 の
角度に曲げてその手先に物体17を持っている。θ1 ,
θ2 ,θ3 の角度は、各関節部位に角度エンコーダなど
を設けることにより正確に測定する。2台のカメラ1
5,16は各々3次元的に位置と姿勢を変えられる移動
テーブル上に搭載してあり、関節型ロボット14の手先
を捕らえている。
の例を示す図である。図4において、関節型ロボット1
4は、3つの関節の角度をそれぞれθ1 ,θ2 ,θ3 の
角度に曲げてその手先に物体17を持っている。θ1 ,
θ2 ,θ3 の角度は、各関節部位に角度エンコーダなど
を設けることにより正確に測定する。2台のカメラ1
5,16は各々3次元的に位置と姿勢を変えられる移動
テーブル上に搭載してあり、関節型ロボット14の手先
を捕らえている。
【0027】2台のカメラ15,16の位置と姿勢は、
角度エンコーダなどにより測定し、このカメラの位置情
報とカメラが得る画像情報に基づく物体17の位置情報
とを合わせて学習データの入力信号を得る。一方、関節
型ロボット14の関節部位に設ける角度エンコーダなど
の測定装置が得る関節角度の情報から学習データの教師
信号を得る。
角度エンコーダなどにより測定し、このカメラの位置情
報とカメラが得る画像情報に基づく物体17の位置情報
とを合わせて学習データの入力信号を得る。一方、関節
型ロボット14の関節部位に設ける角度エンコーダなど
の測定装置が得る関節角度の情報から学習データの教師
信号を得る。
【0028】図5は、学習装置が行なう学習の他の例を
示す図である。図5において、学習データの入力信号
は、2台のカメラの位置と姿勢を示す空間座標および極
座標で示される位置情報と、この2台のカメラの画像情
報を元に生成した手先の物体の位置情報とで構成する。
また学習データの教師信号は、n個の関節を有するロボ
ットの各関節角度である。学習装置18は、入力層、中
間層、出力層の3層で構成する階層型ニューラルネット
ワークを用いている。
示す図である。図5において、学習データの入力信号
は、2台のカメラの位置と姿勢を示す空間座標および極
座標で示される位置情報と、この2台のカメラの画像情
報を元に生成した手先の物体の位置情報とで構成する。
また学習データの教師信号は、n個の関節を有するロボ
ットの各関節角度である。学習装置18は、入力層、中
間層、出力層の3層で構成する階層型ニューラルネット
ワークを用いている。
【0029】図6は、座標変換装置の一構成例を示す図
である。ここでは、関節型ロボットの手先が移動する空
間を複数に分割し、それぞれの空間に対応する学習装置
19〜22を設けている。この場合は、学習装置がひと
つの場合に比べて、学習時間の短縮および補完精度の向
上が図れる。学習装置19〜22は、対応する空間につ
いての位置情報を与えられると関節型ロボットの各関節
がとるべき角度情報を出力するように学習されている。
手先位置の直交座標が与えられるとその手先位置に適合
する学習装置が角度座標への変換を行なう。
である。ここでは、関節型ロボットの手先が移動する空
間を複数に分割し、それぞれの空間に対応する学習装置
19〜22を設けている。この場合は、学習装置がひと
つの場合に比べて、学習時間の短縮および補完精度の向
上が図れる。学習装置19〜22は、対応する空間につ
いての位置情報を与えられると関節型ロボットの各関節
がとるべき角度情報を出力するように学習されている。
手先位置の直交座標が与えられるとその手先位置に適合
する学習装置が角度座標への変換を行なう。
【0030】図7は、座標変換装置の他の構成例を示す
図である。図7において、学習装置24〜27は、手先
が移動する空間の一部の空間についての位置情報を与え
られると関節型ロボットの各関節がとるべき角度情報を
出力するように学習されている。また、学習装置23
は、カメラの座標を与えられると、これに最も適合する
学習装置を選択するように学習している。手先位置の直
交座標が与えられると、その手先位置に適合する学習装
置が選択される。選択された学習装置は角度座標への座
標変換を行なう。
図である。図7において、学習装置24〜27は、手先
が移動する空間の一部の空間についての位置情報を与え
られると関節型ロボットの各関節がとるべき角度情報を
出力するように学習されている。また、学習装置23
は、カメラの座標を与えられると、これに最も適合する
学習装置を選択するように学習している。手先位置の直
交座標が与えられると、その手先位置に適合する学習装
置が選択される。選択された学習装置は角度座標への座
標変換を行なう。
【0031】図8は、請求項10の発明の実施例を示す
図である。図8において、関節型ロボット28の手先は
オフセットを有する物体29を持っている。テレビカメ
ラやレーザ等を利用した距離計測装置は、物体29を捕
らえて学習データを作成する。よって、上述したような
手段により手先が移動すべき位置情報を与えて各関節角
度を制御すると、手先は目的の位置からオフセットの分
だけ離れた位置にくる。このようにすれば、座標変換に
多少の誤差を持つ場合であっても、目標物との衝突の危
険性が大きく減少する。
図である。図8において、関節型ロボット28の手先は
オフセットを有する物体29を持っている。テレビカメ
ラやレーザ等を利用した距離計測装置は、物体29を捕
らえて学習データを作成する。よって、上述したような
手段により手先が移動すべき位置情報を与えて各関節角
度を制御すると、手先は目的の位置からオフセットの分
だけ離れた位置にくる。このようにすれば、座標変換に
多少の誤差を持つ場合であっても、目標物との衝突の危
険性が大きく減少する。
【0032】図9は、請求項11の発明の実施例を示す
図である。図9において、カメラ32を手先に取り付け
られた関節型ロボット30はオフセットを有する物体3
1を持っている。学習装置を用いる関節角度の制御によ
り、手先は目標物からオフセットの分だけ離れた位置に
くる。残りのオフセットの分は、従来と同様な制御によ
る移動に加えて、カメラ32が捕らえる目標物の画像情
報を参考にした精巧な移動を行なう。
図である。図9において、カメラ32を手先に取り付け
られた関節型ロボット30はオフセットを有する物体3
1を持っている。学習装置を用いる関節角度の制御によ
り、手先は目標物からオフセットの分だけ離れた位置に
くる。残りのオフセットの分は、従来と同様な制御によ
る移動に加えて、カメラ32が捕らえる目標物の画像情
報を参考にした精巧な移動を行なう。
【0033】
【発明の効果】以上説明したように、本発明によれば、
視覚座標から角度座標への座標変換を学習装置に行なわ
せているので、複雑な数式処理が不要となり、多関節の
ロボットの制御も可能となる。また、学習装置の補完機
能により代表的な作業位置を教えるだけでも十分な制御
を行なうことができるので、全空間についての網羅的な
測定が不要となるという効果を奏し、産業の発達に寄与
するところが大きい。
視覚座標から角度座標への座標変換を学習装置に行なわ
せているので、複雑な数式処理が不要となり、多関節の
ロボットの制御も可能となる。また、学習装置の補完機
能により代表的な作業位置を教えるだけでも十分な制御
を行なうことができるので、全空間についての網羅的な
測定が不要となるという効果を奏し、産業の発達に寄与
するところが大きい。
【図1】本発明の原理説明図である。
【図2】学習装置に与える学習データの一例を示す図で
ある。
ある。
【図3】学習装置が行なう学習の一例を示す図である。
【図4】学習装置に与える学習データの他の例を示す図
である。
である。
【図5】学習装置が行なう学習の他の例を示す図であ
る。
る。
【図6】座標変換装置の一構成例を示す図である。
【図7】座標変換装置の他の構成例を示す図である。
【図8】請求項10の発明の実施例を示す図である。
【図9】請求項11の発明の実施例を示す図である。
【図10】従来の技術を示す図である。
1,13,18〜27 学習装置 2 作業部位測定装置 3 関節角度測定装置 4 学習機構 5 比較手段 6 設定変更手段 7,50 作業部位移動指示装置 8,52 関節部位駆動装置 9,14 関節型ロボット 10,11,15,16,32 カメラ 12,17,29,31 物体 28,30 手先 51 座標の逆変換装置
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.5 識別記号 庁内整理番号 FI 技術表示箇所 G05B 19/403 V 9064−3H G05D 3/12 K 9179−3H
Claims (12)
- 【請求項1】 目的の位置まで関節型ロボットの作業部
位を移動させるために関節型ロボットの各関節角度を制
御する装置において、 関節型ロボットの動作に伴って移動する対象物の位置を
測定する装置が得る位置情報と、関節型ロボットの各関
節角度を測定する装置が得る角度情報とを与えられる
と、前記位置情報の入力に対する出力データを前記角度
情報に一致させる学習を行なう座標変換装置を設けるこ
とを特徴とする関節型ロボットの制御装置。 - 【請求項2】 対象物を写す複数のテレビカメラと、該
テレビカメラの画像情報から対象物の重心等におけるX
座標とY座標および対象物の傾斜角度並びに対象物の面
積などの位置情報を生成する画像処理装置とを具備する
対象物の位置を測定する装置が得る位置情報により前記
学習を行なう座標変換装置を設ける請求項1記載の関節
型ロボットの制御装置。 - 【請求項3】 X−Yステージなどのテーブル上に搭載
されて対象物の位置を測定する移動可能な装置が得る位
置情報と、該装置自体の位置情報とを合わせた位置情報
とを請求項1記載の位置情報として前記学習を行なう座
標変換装置を設ける請求項1記載の関節型ロボットの制
御装置。 - 【請求項4】 対象物の位置を無作為に設定した時の位
置情報と角度情報とにより前記学習を行なう座標変換装
置を設ける請求項1〜3何れか記載の関節型ロボットの
制御装置。 - 【請求項5】 対象物の位置をある空間では密に、他の
空間では疎に設定した時の位置情報と角度情報とにより
前記学習を行なう座標変換装置を設ける請求項1〜3何
れか記載の関節型ロボットの制御装置。 - 【請求項6】 関節型ロボットの各関節角度を一定の割
合で変化させた時の位置情報と角度情報とにより前記学
習を行なう座標変換装置を設ける請求項1〜3何れか記
載の関節型ロボットの制御装置。 - 【請求項7】 対象物が移動する空間を複数に分割した
ときの各空間の座標変換を担当し、自己が担当する空間
の位置情報について前記学習を行なう複数の座標変換装
置を設ける請求項1〜6何れか記載の関節型ロボットの
制御装置。 - 【請求項8】 関節型ロボットの作業部位を対象物とし
た時の位置情報により前記学習を行なう座標変換装置を
設ける請求項1〜7何れか記載の関節型ロボットの制御
装置。 - 【請求項9】 関節型ロボットの作業部位が取り扱う物
体を対象物とした時の位置情報により前記学習を行なう
座標変換装置を設ける請求項1〜7何れか記載の関節型
ロボットの制御装置。 - 【請求項10】 オフセットを持つ物体を対象物とする
請求項9記載の関節型ロボットの制御装置。 - 【請求項11】 座標変換装置が示す角度に適合するよ
うに各関節角度を制御することによる作業部位の移動分
に加えて、オフセットの向きおよび距離に相当するだけ
の移動を制御する手段を設ける請求項10記載の関節型
ロボットの制御装置。 - 【請求項12】 関節型ロボットの作業部位にテレビカ
メラを設け、該テレビカメラの画像情報に基づいてオフ
セットの位置補正を行なう請求項11記載の関節型ロボ
ットの制御装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP25082491A JPH0588721A (ja) | 1991-09-30 | 1991-09-30 | 関節型ロボツトの制御装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP25082491A JPH0588721A (ja) | 1991-09-30 | 1991-09-30 | 関節型ロボツトの制御装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0588721A true JPH0588721A (ja) | 1993-04-09 |
Family
ID=17213580
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP25082491A Withdrawn JPH0588721A (ja) | 1991-09-30 | 1991-09-30 | 関節型ロボツトの制御装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0588721A (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005098927A (ja) * | 2003-09-26 | 2005-04-14 | Advanced Telecommunication Research Institute International | 移動体検出装置、移動体検出方法及び移動体検出プログラム |
JP2009083095A (ja) * | 2007-09-29 | 2009-04-23 | Ihi Corp | ロボット装置の制御方法及びロボット装置 |
JP2017064910A (ja) * | 2015-07-31 | 2017-04-06 | ファナック株式会社 | ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法 |
JP2018130800A (ja) * | 2017-02-15 | 2018-08-23 | ファナック株式会社 | 学習制御機能を備えたロボットシステム及び学習制御方法 |
JP2019166626A (ja) * | 2018-03-26 | 2019-10-03 | ファナック株式会社 | 制御装置及び機械学習装置 |
US10717196B2 (en) | 2015-07-31 | 2020-07-21 | Fanuc Corporation | Machine learning device, robot system, and machine learning method for learning workpiece picking operation |
KR20220039205A (ko) * | 2020-09-22 | 2022-03-29 | 한국전기연구원 | 다자유도 로봇 제어방법 및 시스템 |
JPWO2022138339A1 (ja) * | 2020-12-21 | 2022-06-30 | ||
US11904469B2 (en) | 2015-07-31 | 2024-02-20 | Fanuc Corporation | Machine learning device, robot controller, robot system, and machine learning method for learning action pattern of human |
-
1991
- 1991-09-30 JP JP25082491A patent/JPH0588721A/ja not_active Withdrawn
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005098927A (ja) * | 2003-09-26 | 2005-04-14 | Advanced Telecommunication Research Institute International | 移動体検出装置、移動体検出方法及び移動体検出プログラム |
JP2009083095A (ja) * | 2007-09-29 | 2009-04-23 | Ihi Corp | ロボット装置の制御方法及びロボット装置 |
US10717196B2 (en) | 2015-07-31 | 2020-07-21 | Fanuc Corporation | Machine learning device, robot system, and machine learning method for learning workpiece picking operation |
JP2017064910A (ja) * | 2015-07-31 | 2017-04-06 | ファナック株式会社 | ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法 |
US11904469B2 (en) | 2015-07-31 | 2024-02-20 | Fanuc Corporation | Machine learning device, robot controller, robot system, and machine learning method for learning action pattern of human |
US11780095B2 (en) | 2015-07-31 | 2023-10-10 | Fanuc Corporation | Machine learning device, robot system, and machine learning method for learning object picking operation |
JP2018130800A (ja) * | 2017-02-15 | 2018-08-23 | ファナック株式会社 | 学習制御機能を備えたロボットシステム及び学習制御方法 |
US10618164B2 (en) | 2017-02-15 | 2020-04-14 | Fanuc Corporation | Robot system having learning control function and learning control method |
US11235461B2 (en) | 2018-03-26 | 2022-02-01 | Fanuc Corporation | Controller and machine learning device |
JP2019166626A (ja) * | 2018-03-26 | 2019-10-03 | ファナック株式会社 | 制御装置及び機械学習装置 |
KR20220039205A (ko) * | 2020-09-22 | 2022-03-29 | 한국전기연구원 | 다자유도 로봇 제어방법 및 시스템 |
JPWO2022138339A1 (ja) * | 2020-12-21 | 2022-06-30 | ||
WO2022138339A1 (ja) * | 2020-12-21 | 2022-06-30 | ファナック株式会社 | 教師データ生成装置、機械学習装置、及びロボット関節角度推定装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1215017B1 (en) | Robot teaching apparatus | |
DE102018213985B4 (de) | Robotersystem | |
US11130236B2 (en) | Robot movement teaching apparatus, robot system, and robot controller | |
US20080027580A1 (en) | Robot programming method and apparatus with both vision and force | |
JPH0435885A (ja) | 視覚センサのキャリブレーション方法 | |
EP0151417A1 (en) | Method for correcting systems of coordinates in a robot having visual sensor device and apparatus therefor | |
JPH08377B2 (ja) | ロボット不正確度修正方法 | |
US20230123629A1 (en) | 3d computer-vision system with variable spatial resolution | |
JPH03213251A (ja) | ワーク位置検知装置 | |
JPH0588721A (ja) | 関節型ロボツトの制御装置 | |
Sharma et al. | A framework for robot motion planning with sensor constraints | |
Krotkov et al. | An agile stereo camera system for flexible image acquisition | |
US12036663B2 (en) | Method and control arrangement for determining a relation between a robot coordinate system and a movable apparatus coordinate system | |
Wei et al. | Multisensory visual servoing by a neural network | |
JP3160443B2 (ja) | 非接触点教示装置 | |
US7764386B2 (en) | Method and system for three-dimensional measurement and method and device for controlling manipulator | |
JPH06106490A (ja) | 制御装置 | |
JPH04269194A (ja) | 平面計測方法 | |
JPH0617795B2 (ja) | 三次元位置計測装置 | |
JP3175623B2 (ja) | ロボットの制御装置 | |
JPS6257892A (ja) | 視覚付ロボツトのカメラ座標較正方法 | |
JPH05204423A (ja) | 視覚装置付きロボット装置における座標較正方法 | |
Curtis et al. | An integrated robotic laser range sensing system for automatic mapping of wide workspaces | |
Sharma et al. | Unifying configuration space and sensor space for vision-based motion planning | |
ГОРЯЩЕНКО et al. | TECHNICAL VISION SYSTEM WITH ARTIFICIAL INTELLIGENCE FOR CAPTURING CYLINDRICAL OBJECTS BY ROBOT |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 19981203 |