JPH05119823A - ロボツトの軌道計画方法及び制御装置 - Google Patents
ロボツトの軌道計画方法及び制御装置Info
- Publication number
- JPH05119823A JPH05119823A JP27746491A JP27746491A JPH05119823A JP H05119823 A JPH05119823 A JP H05119823A JP 27746491 A JP27746491 A JP 27746491A JP 27746491 A JP27746491 A JP 27746491A JP H05119823 A JPH05119823 A JP H05119823A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- image
- local image
- pixel
- obstacle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Numerical Control (AREA)
- Manipulator (AREA)
Abstract
(57)【要約】 (修正有)
【目的】ロボットの障害物回避動作軌道計画を実時間で
行い,少ない演算量で,動作終了点に確実に到達できる
方法,装置を得る。 【構成】ロボットに設けられた画像検出手段により障害
物,非障害物の二値化画像を得て,その画像と最適動作
目標位置の関係をニュ−ラルネットワ−クで学習的に関
係付け,ロボットの関節位置に変換して出力する構成と
した。 【効果】ロボットより作業部の画像を実時間で検出する
ため,障害物変化にも対応でき,ニュ−ラルネットワ−
クの前向き演算を利用することにより,演算量を低減で
き,汎化機能により,動作終了点に到達できなくなるこ
となくできるようにした。
行い,少ない演算量で,動作終了点に確実に到達できる
方法,装置を得る。 【構成】ロボットに設けられた画像検出手段により障害
物,非障害物の二値化画像を得て,その画像と最適動作
目標位置の関係をニュ−ラルネットワ−クで学習的に関
係付け,ロボットの関節位置に変換して出力する構成と
した。 【効果】ロボットより作業部の画像を実時間で検出する
ため,障害物変化にも対応でき,ニュ−ラルネットワ−
クの前向き演算を利用することにより,演算量を低減で
き,汎化機能により,動作終了点に到達できなくなるこ
となくできるようにした。
Description
【0001】
【産業上の利用分野】本発明は,ロボットの作業環境に
障害物がある場合に,障害物を回避しながら実時間で軌
道を生成し動作させる場合の軌道生成をロボットに装着
された画像検出手段(例えばカメラ)の検出画像に基づ
き行うロボットの軌道計画方法とそれを実現するロボッ
トの制御装置に関する。
障害物がある場合に,障害物を回避しながら実時間で軌
道を生成し動作させる場合の軌道生成をロボットに装着
された画像検出手段(例えばカメラ)の検出画像に基づ
き行うロボットの軌道計画方法とそれを実現するロボッ
トの制御装置に関する。
【0002】
【従来の技術】本発明は,ロボットの障害物回避軌道計
画方法に関するものであるが,その従来技術について説
明する。
画方法に関するものであるが,その従来技術について説
明する。
【0003】従来技術としては,1)ザ・インタ−ナシ
ョナル・ジャ−ナル・オブ・ロボティクス・リサ−チ,
第5巻,第1号,昭61,第90ペ−ジ〜第98ペ−ジ
(The International Journal of Robotics Research,
vol.5, no.1, 1986, pp90-98) に記載されているよう
に,移動ロボットの障害物回避軌道計画を環境情報を基
に制御系の応答偏差と障害物の距離の2次形式で与えら
れる人工ポテンシャルを計算し,その極値をとるパラメ
−タを算出する軌道計画方法、また,2)特開平3−1
39704号に記載のように,ロボットと障害物の距離
からファジィル−ルに基づき障害物回避軌道計画を行う
方式が知られていた。
ョナル・ジャ−ナル・オブ・ロボティクス・リサ−チ,
第5巻,第1号,昭61,第90ペ−ジ〜第98ペ−ジ
(The International Journal of Robotics Research,
vol.5, no.1, 1986, pp90-98) に記載されているよう
に,移動ロボットの障害物回避軌道計画を環境情報を基
に制御系の応答偏差と障害物の距離の2次形式で与えら
れる人工ポテンシャルを計算し,その極値をとるパラメ
−タを算出する軌道計画方法、また,2)特開平3−1
39704号に記載のように,ロボットと障害物の距離
からファジィル−ルに基づき障害物回避軌道計画を行う
方式が知られていた。
【0004】
【発明が解決しようとする課題】本技術に関する前記第
1の従来技術は,ロボットの障害物回避軌道計画方法に
関する理論的指針を与えた技術内容を開示しているが,
環境情報の収集手段については言い及んではいない。
1の従来技術は,ロボットの障害物回避軌道計画方法に
関する理論的指針を与えた技術内容を開示しているが,
環境情報の収集手段については言い及んではいない。
【0005】また,前記第2の従来技術は,ロボットと
障害物の相対位置とロボットの動作方向をファジィル−
ルで関係付けている。この方法は,定性的な情報をル−
ル化して関係付けているため,簡易に実現できる反面,
定量的に既知な情報をル−ル化しにくい問題がある。
障害物の相対位置とロボットの動作方向をファジィル−
ルで関係付けている。この方法は,定性的な情報をル−
ル化して関係付けているため,簡易に実現できる反面,
定量的に既知な情報をル−ル化しにくい問題がある。
【0006】
【課題を解決するための手段】本発明は,このような課
題を解決するために,下記の手段を用いた。
題を解決するために,下記の手段を用いた。
【0007】まず,環境情報を得るためにロボットに画
像検出手段(例えばカメラ)を設置することにより作業
部の局所画像を検出する。
像検出手段(例えばカメラ)を設置することにより作業
部の局所画像を検出する。
【0008】また,定量的に既知な情報をル−ル化する
ために,ニュ−ラルネットワ−クでロボットと障害物の
相対位置とロボットの動作方向を関係付けることにし
た。
ために,ニュ−ラルネットワ−クでロボットと障害物の
相対位置とロボットの動作方向を関係付けることにし
た。
【0009】
【作用】本発明の軌道計画方法及びロボット制御装置は
以下述べるように作用する。
以下述べるように作用する。
【0010】ロボットの障害物回避軌道計画問題は,ロ
ボット手先を所望の点間を移動させる際に,ロボット本
体が作業領域内の障害物に衝突しないように移動させる
ことにより,障害物及びロボットの破損を防ぐ問題であ
る。
ボット手先を所望の点間を移動させる際に,ロボット本
体が作業領域内の障害物に衝突しないように移動させる
ことにより,障害物及びロボットの破損を防ぐ問題であ
る。
【0011】ロボットは,その各関節に設けられている
モ−タを駆動することにより駆動される。電磁式モ−タ
は,そのコイルに電流を通電することにより,コイルと
磁石間でロ−レンツの法則に基づく力がモ−タの駆動方
向に発生する。
モ−タを駆動することにより駆動される。電磁式モ−タ
は,そのコイルに電流を通電することにより,コイルと
磁石間でロ−レンツの法則に基づく力がモ−タの駆動方
向に発生する。
【0012】モ−タの電流指令は,モ−タ制御装置に位
置指令を与えることにより,モ−タに連結された位置検
出器により得られる位置検出量との偏差から制御則に基
づき生成される。制御則を適切に選ぶことにより,モ−
タが連結された負荷と共に位置指令に対して高速で応答
可能になる。
置指令を与えることにより,モ−タに連結された位置検
出器により得られる位置検出量との偏差から制御則に基
づき生成される。制御則を適切に選ぶことにより,モ−
タが連結された負荷と共に位置指令に対して高速で応答
可能になる。
【0013】従って,上記の障害物回避軌道計画問題
は,軌道計画に基づくロボット各関節の位置指令をいか
に決めるかが重要となる。本発明では,この決め方とし
て,ロボットに装着された局所画像検出手段(カメラ)
による局所画像の検出による障害物の検知を行った。ロ
ボットに装着された局所画像検出手段は,作業部を2次
元画像として抽出し,画像処理により各画素を障害物部
と非障害物部に2値化して分離識別し,目標位置への最
短距離方向の点との相対距離に基づく人工ポテンシャル
を算出し,その極値をとる点が最適動作目標点である。
は,軌道計画に基づくロボット各関節の位置指令をいか
に決めるかが重要となる。本発明では,この決め方とし
て,ロボットに装着された局所画像検出手段(カメラ)
による局所画像の検出による障害物の検知を行った。ロ
ボットに装着された局所画像検出手段は,作業部を2次
元画像として抽出し,画像処理により各画素を障害物部
と非障害物部に2値化して分離識別し,目標位置への最
短距離方向の点との相対距離に基づく人工ポテンシャル
を算出し,その極値をとる点が最適動作目標点である。
【0014】次に,上記の人工ポテンシャルを算出する
方法は演算量が多いため,演算量を軽減するため,局所
画像の2値化情報と人工ポテンシャルが極値をとる画素
とをニュ−ラルネットワ−クで学習させることにより前
向き計算のみで極値(次の動作目標点)を実時間で求
め,ロボットが動作を行うことが可能になる。
方法は演算量が多いため,演算量を軽減するため,局所
画像の2値化情報と人工ポテンシャルが極値をとる画素
とをニュ−ラルネットワ−クで学習させることにより前
向き計算のみで極値(次の動作目標点)を実時間で求
め,ロボットが動作を行うことが可能になる。
【0015】
【実施例】本発明の第1の実施例を図1〜図8を用いて
説明する。本実施例は,本発明のロボットの動作軌道計
画方法及び制御装置の第1の構成を述べるものである。
図1は,本発明のロボット制御装置の構成図を示し,図
2は本発明の軌道計画方法のフロ−チャ−トを示し,図
3は,ロボット制御装置のブロック図を示し,図4は,
局所画像検出プロセスを示し,図5は,局所画像を示
し,図6は,局所画像の2値化状況を示し,図7は,人
工ポテンシャル計算例を示し,図8は,任意の障害物配
置状態における動作軌道計画結果を示している。
説明する。本実施例は,本発明のロボットの動作軌道計
画方法及び制御装置の第1の構成を述べるものである。
図1は,本発明のロボット制御装置の構成図を示し,図
2は本発明の軌道計画方法のフロ−チャ−トを示し,図
3は,ロボット制御装置のブロック図を示し,図4は,
局所画像検出プロセスを示し,図5は,局所画像を示
し,図6は,局所画像の2値化状況を示し,図7は,人
工ポテンシャル計算例を示し,図8は,任意の障害物配
置状態における動作軌道計画結果を示している。
【0016】ロボットの軌道計画問題について,図1を
用いて説明する。図1は,水平多関節型ロボット1を用
いて作業テ−ブル8上の突起物(障害物)9を回避して
A点からB点まで移動する動作を示している。水平多関
節型ロボット1は,第1軸モ−タ2により駆動される第
1ア−ム3と,第1ア−ム先端に設けられた第2軸モ−
タ4により駆動される第2ア−ム5と,その先端に設け
られた上下方向及び回転方向に移動可能な手首部6から
なっている。手首部はその下端に工具を装着可能であ
り,例えば開閉可能な把持具を装着することにより部品
を移載することが可能である。この型のロボットは水平
方向及び上下方向に高速動作が可能なことから,組立作
業にしばしば用いられている。ロボットの各関節のモ−
タは作業者12により入出力演算装置11を介してロボ
ット制御装置10に位置指令が与えられ,ロボット制御
装置内において,モ−タの位置検出量との偏差に基づき
モ−タのトルク指令(電流指令)が生成され,増幅され
てモ−タに電力が供給される。ここでは,障害物回避動
作軌道計画を行うに当り,第2ア−ム先端に設けられた
画像検出手段(カメラ)7を用いて作業テ−ブル上の2
次元画像を検出する。画像検出手段の出力は,入出力演
算装置の画像処理部で画像処理されて動作軌道決定情報
をロボット制御装置に送る。
用いて説明する。図1は,水平多関節型ロボット1を用
いて作業テ−ブル8上の突起物(障害物)9を回避して
A点からB点まで移動する動作を示している。水平多関
節型ロボット1は,第1軸モ−タ2により駆動される第
1ア−ム3と,第1ア−ム先端に設けられた第2軸モ−
タ4により駆動される第2ア−ム5と,その先端に設け
られた上下方向及び回転方向に移動可能な手首部6から
なっている。手首部はその下端に工具を装着可能であ
り,例えば開閉可能な把持具を装着することにより部品
を移載することが可能である。この型のロボットは水平
方向及び上下方向に高速動作が可能なことから,組立作
業にしばしば用いられている。ロボットの各関節のモ−
タは作業者12により入出力演算装置11を介してロボ
ット制御装置10に位置指令が与えられ,ロボット制御
装置内において,モ−タの位置検出量との偏差に基づき
モ−タのトルク指令(電流指令)が生成され,増幅され
てモ−タに電力が供給される。ここでは,障害物回避動
作軌道計画を行うに当り,第2ア−ム先端に設けられた
画像検出手段(カメラ)7を用いて作業テ−ブル上の2
次元画像を検出する。画像検出手段の出力は,入出力演
算装置の画像処理部で画像処理されて動作軌道決定情報
をロボット制御装置に送る。
【0017】次に,ロボットの動作軌道計画方法につい
て,図2〜図8を用いて説明する。作業者は,まず入出
力演算装置に対して動作開始点,動作終了点,及び局所
画像画素数を入力する(工程1)。この局所画像画素数
は,ロボット手先現在位置近傍のウィンドウ状局所画像
の画素数であり,演算量の制約等から決定されるもので
ある。次に画像検出手段による作業部の全体画像の検出
を行う(工程2)。次に,全体画像から局所画像を抽出
する(工程3)。局所画像は,動作方向に図4の破線の
ようにとられ,障害物部は影部もしくはエッジの片側領
域として表現される。動作終了点と局所画像の相対位置
を演算する(工程4)。図4の局所画像は図5のように
画像方向を変換し,ロボット手先の現在位置(D点)と
動作終了点(B点)を結んで得られる直線と局所画像の
縁部の交点(C点)を参照位置とする。次に,局所画像
の各画素を障害物部と非障害物部に2値化する(工程
5)。ここでは,障害物をポテンシャル係数η=0,非
障害物をη=1とした。この二値化に当っては,影部の
情報もしくは,エッジの情報等を用いる。この工程で図
6のような情報が得られる。次に,各画素の人工ポテン
シャルUを参照位置C点の画素と局所画像の全画素との
距離ρに基づき,U=η/ρと計算する(工程6)。そ
の計算例を図7に示した。この場合は,参照位置C点が
非障害物部にあるため最大ポテンシャルを示し,最適な
動作目標点である(工程7)。しかし,参照位置が障害
物部にある場合は異なる点が最大ポテンシャル点とな
る。次に,このようにして求まった動作目標点をロボッ
トの各関節位置指令に逆変換し出力する(工程8)。位
置決め時に動作終了点に到達したか否かを判定し,動作
終了点に到達した場合はその位置で停止し,動作終了点
に到達しない場合は,工程2へ戻り,工程2〜工程9を
繰り返す。これらの動作軌道計画を実現する制御装置の
ブロック図を図3に示した。動作終了点位置が与えられ
ると,画像検出手段により検出される全体画像から抽出
された局所画像と相対位置演算部で演算し,障害物部,
非障害物部分離部で分離二値化し,その出力を人工ポテ
ンシャル極値画素検出部へ入力し,次の動作目標点位置
を求め,関節位置演算部でロボットの各関節位置指令に
変換し,増幅部を経てモ−タに電力を印加してロボット
を動作させることができる。次に,任意の障害物配置状
況における動作軌道計画結果例を図8に示した。これか
ら,障害物間を障害物と干渉することなく移動可能なこ
とを示している。
て,図2〜図8を用いて説明する。作業者は,まず入出
力演算装置に対して動作開始点,動作終了点,及び局所
画像画素数を入力する(工程1)。この局所画像画素数
は,ロボット手先現在位置近傍のウィンドウ状局所画像
の画素数であり,演算量の制約等から決定されるもので
ある。次に画像検出手段による作業部の全体画像の検出
を行う(工程2)。次に,全体画像から局所画像を抽出
する(工程3)。局所画像は,動作方向に図4の破線の
ようにとられ,障害物部は影部もしくはエッジの片側領
域として表現される。動作終了点と局所画像の相対位置
を演算する(工程4)。図4の局所画像は図5のように
画像方向を変換し,ロボット手先の現在位置(D点)と
動作終了点(B点)を結んで得られる直線と局所画像の
縁部の交点(C点)を参照位置とする。次に,局所画像
の各画素を障害物部と非障害物部に2値化する(工程
5)。ここでは,障害物をポテンシャル係数η=0,非
障害物をη=1とした。この二値化に当っては,影部の
情報もしくは,エッジの情報等を用いる。この工程で図
6のような情報が得られる。次に,各画素の人工ポテン
シャルUを参照位置C点の画素と局所画像の全画素との
距離ρに基づき,U=η/ρと計算する(工程6)。そ
の計算例を図7に示した。この場合は,参照位置C点が
非障害物部にあるため最大ポテンシャルを示し,最適な
動作目標点である(工程7)。しかし,参照位置が障害
物部にある場合は異なる点が最大ポテンシャル点とな
る。次に,このようにして求まった動作目標点をロボッ
トの各関節位置指令に逆変換し出力する(工程8)。位
置決め時に動作終了点に到達したか否かを判定し,動作
終了点に到達した場合はその位置で停止し,動作終了点
に到達しない場合は,工程2へ戻り,工程2〜工程9を
繰り返す。これらの動作軌道計画を実現する制御装置の
ブロック図を図3に示した。動作終了点位置が与えられ
ると,画像検出手段により検出される全体画像から抽出
された局所画像と相対位置演算部で演算し,障害物部,
非障害物部分離部で分離二値化し,その出力を人工ポテ
ンシャル極値画素検出部へ入力し,次の動作目標点位置
を求め,関節位置演算部でロボットの各関節位置指令に
変換し,増幅部を経てモ−タに電力を印加してロボット
を動作させることができる。次に,任意の障害物配置状
況における動作軌道計画結果例を図8に示した。これか
ら,障害物間を障害物と干渉することなく移動可能なこ
とを示している。
【0018】次に,本発明の第2の実施例を図9〜図1
3を用いて説明する。本実施例は,ニュ−ラルネットワ
−クを用いてパラメ−タ間の関係付けを行い演算量の低
減を図り,かつ第1の実施例の動作軌道計画方法では行
きずまってしまう動作状況の回避を図るものである。図
9は,本実施例の制御装置のブロック図を示し,図10
は,本実施例の動作軌道計画方法のフロ−チャ−トを示
し,図11は,ニュ−ラルネットワ−クの構成を示し,
図12は,動作軌道計画の難しい状況を示し,図13
は,本制御装置を用いた任意の障害物配置状況における
ロボットの動作軌道計画結果を示したものである。
3を用いて説明する。本実施例は,ニュ−ラルネットワ
−クを用いてパラメ−タ間の関係付けを行い演算量の低
減を図り,かつ第1の実施例の動作軌道計画方法では行
きずまってしまう動作状況の回避を図るものである。図
9は,本実施例の制御装置のブロック図を示し,図10
は,本実施例の動作軌道計画方法のフロ−チャ−トを示
し,図11は,ニュ−ラルネットワ−クの構成を示し,
図12は,動作軌道計画の難しい状況を示し,図13
は,本制御装置を用いた任意の障害物配置状況における
ロボットの動作軌道計画結果を示したものである。
【0019】まず,図10及び図11を用いて本実施例
の動作軌道計画法の説明を行う。工程1〜工程5は,第
1の実施例と同一である。得られた障害物,非障害物の
2値化画像と,人工ポテンシャル極値画素の関係付けを
ニュ−ラルネットワ−クで学習的に行う(工程6)。学
習工程である場合は,二値化画像をニュ−ラルネットワ
−クに入力し,その出力と,前記二値化画像から人工ポ
テンシャルを演算し得られた極値画素のみ異なる二値化
量である画像デ−タ列の偏差を基にニュ−ラルネットワ
−クの重み係数を修正する。学習工程では,この工程を
異なる入力デ−タに対して繰り返し計算し,学習終了
(重み係数修正量が微小となる)後に,再生工程に移
る。再生工程では,二値化画像デ−タをニュ−ラルネッ
トワ−クに入力することにより,人工ポテンシャル極値
画素デ−タを得ることができる(工程7)。得られた人
工ポテンシャル極値画素デ−タは,ロボットの各関節の
位置指令生成に逆変換され,出力される(工程8)。ロ
ボットが動作終了点に到達した場合はその場所で停止
し,到達しない場合は工程2に戻り,工程2〜工程9を
繰り返す。ニュ−ラルネットワ−クの構成例を図11に
示した。このニュ−ラルネットワ−クは,階層型であ
り,入力層,隠れ層,および出力層の3層構造となって
いる。各層間は重み係数wで連結されており各素子間で
量の重み係数との積和演算を行った出力を次の層へ伝え
る構成となっている。学習時は,出力と対応する教師デ
−タとの偏差に基づき例えば最急降下法に基づき重み係
数が修正される。再生工程では,重み係数が確定してい
るため,前向きの積和演算を行うのみで出力を少ない演
算量で得ることができる。
の動作軌道計画法の説明を行う。工程1〜工程5は,第
1の実施例と同一である。得られた障害物,非障害物の
2値化画像と,人工ポテンシャル極値画素の関係付けを
ニュ−ラルネットワ−クで学習的に行う(工程6)。学
習工程である場合は,二値化画像をニュ−ラルネットワ
−クに入力し,その出力と,前記二値化画像から人工ポ
テンシャルを演算し得られた極値画素のみ異なる二値化
量である画像デ−タ列の偏差を基にニュ−ラルネットワ
−クの重み係数を修正する。学習工程では,この工程を
異なる入力デ−タに対して繰り返し計算し,学習終了
(重み係数修正量が微小となる)後に,再生工程に移
る。再生工程では,二値化画像デ−タをニュ−ラルネッ
トワ−クに入力することにより,人工ポテンシャル極値
画素デ−タを得ることができる(工程7)。得られた人
工ポテンシャル極値画素デ−タは,ロボットの各関節の
位置指令生成に逆変換され,出力される(工程8)。ロ
ボットが動作終了点に到達した場合はその場所で停止
し,到達しない場合は工程2に戻り,工程2〜工程9を
繰り返す。ニュ−ラルネットワ−クの構成例を図11に
示した。このニュ−ラルネットワ−クは,階層型であ
り,入力層,隠れ層,および出力層の3層構造となって
いる。各層間は重み係数wで連結されており各素子間で
量の重み係数との積和演算を行った出力を次の層へ伝え
る構成となっている。学習時は,出力と対応する教師デ
−タとの偏差に基づき例えば最急降下法に基づき重み係
数が修正される。再生工程では,重み係数が確定してい
るため,前向きの積和演算を行うのみで出力を少ない演
算量で得ることができる。
【0020】次にこの制御装置のブロック図を図9に示
した。演算部にニュ−ラルネットワ−クが挿入された点
が図3と異なる点である。人工ポテンシャル極値画素検
出部では,学習工程においてのみ他の要素ブロックと連
結されており,再生工程においては切り離され,ニュ−
ラルネットワ−クのみが他の要素ブロックと連結されて
いる。
した。演算部にニュ−ラルネットワ−クが挿入された点
が図3と異なる点である。人工ポテンシャル極値画素検
出部では,学習工程においてのみ他の要素ブロックと連
結されており,再生工程においては切り離され,ニュ−
ラルネットワ−クのみが他の要素ブロックと連結されて
いる。
【0021】次に,図12を用いてニュ−ラルネットワ
−クを用いることにより実現可能となる動作について説
明する。図12は動作方向と直角方向に障害物が配置さ
れている場合である。この場合,人工ポテンシャル最大
位置が,障害物と直角方向の点に停留してしまい,第1
の実施例の方法では,動作終了点への動作軌道計画がで
きなくなる。ニュ−ラルネットワ−クを用いた場合は,
その汎化機能により誤差を含んだ近似がなされるため,
このケ−スでも障害物と動作方向が直交することはな
く,図中一点鎖線のように動作軌道計画を行うことがで
き,動作終了点に到達できる。また,画像検出手段から
ノイズを含んだ二値化情報が得られた場合にも著しく誤
ることのない動作軌道計画が可能となる。次に,本方法
を用いた場合の任意の障害物配置状況における動作軌道
計画結果を示したが,問題なく行われていることを示し
ている。
−クを用いることにより実現可能となる動作について説
明する。図12は動作方向と直角方向に障害物が配置さ
れている場合である。この場合,人工ポテンシャル最大
位置が,障害物と直角方向の点に停留してしまい,第1
の実施例の方法では,動作終了点への動作軌道計画がで
きなくなる。ニュ−ラルネットワ−クを用いた場合は,
その汎化機能により誤差を含んだ近似がなされるため,
このケ−スでも障害物と動作方向が直交することはな
く,図中一点鎖線のように動作軌道計画を行うことがで
き,動作終了点に到達できる。また,画像検出手段から
ノイズを含んだ二値化情報が得られた場合にも著しく誤
ることのない動作軌道計画が可能となる。次に,本方法
を用いた場合の任意の障害物配置状況における動作軌道
計画結果を示したが,問題なく行われていることを示し
ている。
【0022】次に,図14及び図15を用いて,本動作
軌道計画方法及び制御装置の適用可能なロボットの構成
を示した。図14は,垂直多関節型ロボットを示してお
り,図15は,移動ロボットを示している。垂直多関節
型ロボットは,第1軸モ−タ2,第2軸モ−タ4により
第1ア−ム3,第2ア−ム5が回転駆動される。また,
第1ア−ム3の下部の旋回台が,鉛直軸回りに回転す
る。第2ア−ム先端の手首部6は姿勢決め自由度を有し
ている。手首部には,画像検出手段7が設けられてい
る。
軌道計画方法及び制御装置の適用可能なロボットの構成
を示した。図14は,垂直多関節型ロボットを示してお
り,図15は,移動ロボットを示している。垂直多関節
型ロボットは,第1軸モ−タ2,第2軸モ−タ4により
第1ア−ム3,第2ア−ム5が回転駆動される。また,
第1ア−ム3の下部の旋回台が,鉛直軸回りに回転す
る。第2ア−ム先端の手首部6は姿勢決め自由度を有し
ている。手首部には,画像検出手段7が設けられてい
る。
【0023】図15は,移動ロボットを示しており,水
平方向に移動可能な移動機構を有する移動部16は,そ
の上部に設けられた画像検出手段7による画像検出結果
に基づき動作軌道計画を行い移動する。
平方向に移動可能な移動機構を有する移動部16は,そ
の上部に設けられた画像検出手段7による画像検出結果
に基づき動作軌道計画を行い移動する。
【0024】
【発明の効果】以上述べたように本発明のロボットの動
作軌道計画方法及び制御装置は構成されているので,下
記に示すような効果を奏する。
作軌道計画方法及び制御装置は構成されているので,下
記に示すような効果を奏する。
【0025】(1)ロボットの実画像を検出しながら動
作軌道計画を行うので,障害物の位置変化にも対応可能
である。
作軌道計画を行うので,障害物の位置変化にも対応可能
である。
【0026】(2)既知の画像検出手段の二値化画像と
最適動作目標位置の関係をニュ−ラルネットワ−クを用
いて学習させることにより,簡易な関係付けが可能にな
り,少ない演算量で,動作終了点に到達できなくなるこ
となく動作軌道計画を行うことが可能である。
最適動作目標位置の関係をニュ−ラルネットワ−クを用
いて学習させることにより,簡易な関係付けが可能にな
り,少ない演算量で,動作終了点に到達できなくなるこ
となく動作軌道計画を行うことが可能である。
【図1】本発明のロボット制御装置の構成図
【図2】本発明の第1の実施例の動作軌道計画方法のフ
ロ−チャ−ト
ロ−チャ−ト
【図3】本発明の第1の実施例のロボット制御装置のブ
ロック図
ロック図
【図4】局所画像検出プロセス図
【図5】局所画像図
【図6】局所画像の二値化状況図
【図7】人工ポテンシャル計算図
【図8】任意の障害物配置状態における動作軌道計画結
果
果
【図9】本発明の第2の実施例のロボット制御装置のブ
ロック図
ロック図
【図10】本発明の第2の実施例の動作軌道計画方法の
フロ−チャ−ト
フロ−チャ−ト
【図11】ニュ−ラルネットワ−クの構成図
【図12】動作軌道計画困難状況図
【図13】本発明の第2の実施例の任意の障害物配置状
態における動作軌道計画結果
態における動作軌道計画結果
【図14】本発明の対象ロボットの他の構成図
【図15】本発明の対象ロボットの他の構成図
1…ロボット,2…第1軸モ−タ,3…第1ア−ム,4
…第2軸モ−タ,5…第2ア−ム,6…手首部,7…画
像検出手段,8…作業テ−ブル,9…障害物,10…ロ
ボット制御装置,11…入出力演算装置,12…作業
者,14…局所画像,15…障害物部,16…移動部
…第2軸モ−タ,5…第2ア−ム,6…手首部,7…画
像検出手段,8…作業テ−ブル,9…障害物,10…ロ
ボット制御装置,11…入出力演算装置,12…作業
者,14…局所画像,15…障害物部,16…移動部
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.5 識別記号 庁内整理番号 FI 技術表示箇所 G05B 19/403 T 9064−3H V 9064−3H
Claims (6)
- 【請求項1】ロボットの動作開始点,動作終了点,及び
局所画像画素数を入力する工程と,ロボットに設けられ
た画像検出手段による作業部の全体画像検出工程と,全
体画像より局所画像を抽出する工程と,上記動作終了点
と上記局所画像検出工程で得られた局所画像との相対位
置を演算する工程と,上記局所画像を小区画に分割した
画素単位で障害物の有無を判定し二値化する工程と,上
記画素の二値化デ−タに基づき人工ポテンシャルを計算
する工程と,この人工ポテンシャルが最大もしくは最小
となる画素を見い出し現在位置からその点を結ぶ動作軌
道を決定する工程と,ロボットの各軸の位置指令を生成
する工程とからなることを特徴とするロボットの軌道計
画方法。 - 【請求項2】請求項1におけるロボットの軌道計画方法
において、上記人工ポテンシャルUを,局所画像中にお
けるロボット手先写像位置の中心画素と動作終了点を結
んだ線と局所画像縁部の交わる画素を参照画素としたと
き,参照画素と局所画像の全体領域もしくは一部領域の
全画素との距離をρとし,ポテンシャル係数η{=1
(画素が障害物領域にない場合),=0(画素が障害物
領域にある場合)}としたとき,U=η/ρで与え,そ
の最大値をとる画素を次の動作目標位置とすることを特
徴とするロボットの軌道計画方法。 - 【請求項3】ロボットの動作開始点,動作終了点,及び
局所画像画素数を入力する工程と,ロボットに設けられ
た画像検出手段による作業部の全体画像検出工程と,こ
の全体画像より局所画像を抽出する工程と,上記動作終
了点と上記局所画像検出工程で得られた局所画像との相
対位置を演算する工程と,上記局所画像を小区画に分割
した画素単位で障害物の有無を判定し二値化する工程
と,この画素の二値化デ−タと動作目標位置をニュ−ラ
ルネットワ−クで関係付ける工程と,ロボットの各軸の
位置指令を生成する工程とからなることを特徴とするロ
ボットの軌道計画方法。 - 【請求項4】請求項3におけるロボットの軌道計画方法
おいて,上記画素の二値化デ−タと,人工ポテンシャル
の極値画素デ−タをニュ−ラルネットワ−クを用いて学
習により関係付け,画素の二値化デ−タから直接極値画
素デ−タを導出し,動作目標位置を生成することを特徴
とするロボットの軌道計画方法。 - 【請求項5】動作開始点,動作終了点,及び局所画像画
素数を指令デ−タとして与えると,サンプル周期毎にロ
ボットに装着された画像検出手段により作業部の画像デ
−タを取り込み,軌道計画を演算部で実行し,生成され
たロボット各軸モ−タの位置指令デ−タをサ−ボ制御部
に送り,サ−ボ制御部で各軸モ−タの位置検出値との偏
差に基づきモ−タの電流指令を生成し,サ−ボ増幅部で
所望の電流をモ−タに印加できるよう電力供給を行うこ
とを特徴とするロボットの制御装置。 - 【請求項6】演算部において,ニュ−ラルネットワ−ク
の学習を行い,動作開始点,動作終了点,及び局所画像
画素数をデ−タとして与えると,サンプル周期毎にロボ
ットに装着された画像検出手段により作業部の画像デ−
タを取り込み,前記演算部で軌道計画を実行し,生成さ
れたロボット各軸モ−タの位置指令デ−タをサ−ボ制御
部に送り,サ−ボ制御部で各軸モ−タの位置検出値との
偏差に基づきモ−タの電流指令を生成し,サ−ボ増幅部
で所望の電流をモ−タに印加できるよう電力供給を行う
ことを特徴とするロボットの制御装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP27746491A JPH05119823A (ja) | 1991-10-24 | 1991-10-24 | ロボツトの軌道計画方法及び制御装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP27746491A JPH05119823A (ja) | 1991-10-24 | 1991-10-24 | ロボツトの軌道計画方法及び制御装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH05119823A true JPH05119823A (ja) | 1993-05-18 |
Family
ID=17583962
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP27746491A Pending JPH05119823A (ja) | 1991-10-24 | 1991-10-24 | ロボツトの軌道計画方法及び制御装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH05119823A (ja) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008254150A (ja) * | 2007-04-09 | 2008-10-23 | Denso Wave Inc | ロボットの教示装置及び教示方法 |
CN106737673A (zh) * | 2016-12-23 | 2017-05-31 | 浙江大学 | 一种基于深度学习的端到端的机械臂控制的方法 |
WO2018143003A1 (ja) * | 2017-01-31 | 2018-08-09 | 株式会社安川電機 | ロボットパス生成装置及びロボットシステム |
JP2019005834A (ja) * | 2017-06-22 | 2019-01-17 | 株式会社デンソー | 学習システム及び学習方法 |
CN109382825A (zh) * | 2017-08-08 | 2019-02-26 | 发那科株式会社 | 控制装置以及学习装置 |
JP2020006489A (ja) * | 2018-07-11 | 2020-01-16 | 株式会社デンソー | 軌道生成装置、軌道生成方法および軌道生成プログラム |
JP2021522701A (ja) * | 2018-04-17 | 2021-08-30 | アイトゲネシッシェ テヒニッシェ ホーホシューレ チューリッヒEidgenoessische Technische Hochschule Zuerich | ロボットカメラソフトウェアと制御装置 |
CN113613851A (zh) * | 2019-03-26 | 2021-11-05 | 三星电子株式会社 | 估计工具轨迹的方法和装置 |
US11312011B2 (en) | 2018-02-28 | 2022-04-26 | Kabushiki Kaisha Toshiba | Manipulator system, control device, control method, and computer program product |
WO2023013126A1 (ja) * | 2021-08-02 | 2023-02-09 | ソニーグループ株式会社 | 情報処理装置、学習モデル、及び情報処理方法 |
-
1991
- 1991-10-24 JP JP27746491A patent/JPH05119823A/ja active Pending
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008254150A (ja) * | 2007-04-09 | 2008-10-23 | Denso Wave Inc | ロボットの教示装置及び教示方法 |
CN106737673B (zh) * | 2016-12-23 | 2019-06-18 | 浙江大学 | 一种基于深度学习的端到端的机械臂控制的方法 |
CN106737673A (zh) * | 2016-12-23 | 2017-05-31 | 浙江大学 | 一种基于深度学习的端到端的机械臂控制的方法 |
WO2018143003A1 (ja) * | 2017-01-31 | 2018-08-09 | 株式会社安川電機 | ロボットパス生成装置及びロボットシステム |
US11446820B2 (en) | 2017-01-31 | 2022-09-20 | Kabushiki Kaisha Yaska Wa Denki | Robot path generating device and robot system |
JPWO2018143003A1 (ja) * | 2017-01-31 | 2019-06-27 | 株式会社安川電機 | ロボットパス生成装置及びロボットシステム |
JP2019005834A (ja) * | 2017-06-22 | 2019-01-17 | 株式会社デンソー | 学習システム及び学習方法 |
JP2019030941A (ja) * | 2017-08-08 | 2019-02-28 | ファナック株式会社 | 制御装置及び学習装置 |
CN109382825A (zh) * | 2017-08-08 | 2019-02-26 | 发那科株式会社 | 控制装置以及学习装置 |
CN109382825B (zh) * | 2017-08-08 | 2021-03-02 | 发那科株式会社 | 控制装置以及学习装置 |
US10953538B2 (en) | 2017-08-08 | 2021-03-23 | Fanuc Corporation | Control device and learning device |
US11312011B2 (en) | 2018-02-28 | 2022-04-26 | Kabushiki Kaisha Toshiba | Manipulator system, control device, control method, and computer program product |
JP2021522701A (ja) * | 2018-04-17 | 2021-08-30 | アイトゲネシッシェ テヒニッシェ ホーホシューレ チューリッヒEidgenoessische Technische Hochschule Zuerich | ロボットカメラソフトウェアと制御装置 |
JP2020006489A (ja) * | 2018-07-11 | 2020-01-16 | 株式会社デンソー | 軌道生成装置、軌道生成方法および軌道生成プログラム |
CN113613851A (zh) * | 2019-03-26 | 2021-11-05 | 三星电子株式会社 | 估计工具轨迹的方法和装置 |
WO2023013126A1 (ja) * | 2021-08-02 | 2023-02-09 | ソニーグループ株式会社 | 情報処理装置、学習モデル、及び情報処理方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110573308B (zh) | 用于机器人设备的空间编程的基于计算机的方法及系统 | |
KR102619004B1 (ko) | 로봇 장치 및 로봇의 작업 기술을 학습하는 방법 | |
Dixon et al. | Adaptive tracking control of a wheeled mobile robot via an uncalibrated camera system | |
EP2314429B1 (en) | Movable robot | |
Zergeroglu et al. | Vision-based nonlinear tracking controllers with uncertain robot-camera parameters | |
CN113412178A (zh) | 机器人控制装置、机器人系统以及机器人控制方法 | |
JPH05119823A (ja) | ロボツトの軌道計画方法及び制御装置 | |
Hanebeck et al. | Roman: A mobile robotic assistant for indoor service applications | |
JP2018167334A (ja) | 教示装置および教示方法 | |
JP3225635B2 (ja) | 建設支援装置及び方法 | |
JP2020194432A (ja) | 機械学習方法および移動ロボット | |
CN113319859A (zh) | 一种机器人示教方法、系统、装置及电子设备 | |
CN114851209B (zh) | 一种基于视觉的工业机器人工作路径规划优化方法及系统 | |
Liu et al. | Vision AI-based human-robot collaborative assembly driven by autonomous robots | |
DE112020004852T5 (de) | Steuerungsverfahren, steuerungsvorrichtung, robotersystem, programm und aufzeichnungsmedium | |
Morel et al. | Robust visual servoing: Bounding the task function tracking errors | |
JPH0635525A (ja) | ロボットアームの制御方法 | |
JP2823243B2 (ja) | 多関節型ロボット | |
JP3404681B2 (ja) | センサ指向方向逐次制御方法 | |
Chen et al. | SAVIC: A simulation, visualization and interactive control environment for mobile robots | |
Lange et al. | Predictive feedforward control for high speed tracking tasks | |
Han et al. | The Key Technology of Robotic Autonomous Welding in More Subsections of Large Ship | |
JPH08388B2 (ja) | ロボット制御装置 | |
Sgouros et al. | Qualitative Autonomous Navigation for Wheelchair Robots' | |
De Luca et al. | Visual-based planning and control for nonholonomic mobile robots |