JPH1185240A - ロボットプログラミング方法とその装置及び生成プログラムを記録した記録媒体 - Google Patents

ロボットプログラミング方法とその装置及び生成プログラムを記録した記録媒体

Info

Publication number
JPH1185240A
JPH1185240A JP23997297A JP23997297A JPH1185240A JP H1185240 A JPH1185240 A JP H1185240A JP 23997297 A JP23997297 A JP 23997297A JP 23997297 A JP23997297 A JP 23997297A JP H1185240 A JPH1185240 A JP H1185240A
Authority
JP
Japan
Prior art keywords
local model
data
local
work
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP23997297A
Other languages
English (en)
Inventor
Masayuki Tsuda
雅之 津田
Hiroyuki Ogata
博之 小方
Yoshito Nanjo
義人 南條
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP23997297A priority Critical patent/JPH1185240A/ja
Publication of JPH1185240A publication Critical patent/JPH1185240A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Stored Programmes (AREA)
  • Numerical Control (AREA)

Abstract

(57)【要約】 【課題】 人間に負担や手間をかけることなく、人間が
作業を実演することで、自動的に組立作業用ロボットプ
ログラムを生成できるようにする。 【解決手段】 作業に対して局所的な幾何モデル(局所
モデル)をあらかじめ記憶した手段と、教示者が3次元
ポインティングデバイスなどを通して実演して得られる
教示データを入力して、ワークの各頂点の位置、姿勢の
時系列データ(データA)と、ワークの中心の位置、姿
勢の時系列データ(データB)を算出する手段と、デー
タAを用いて局所モデルを割り付ける手段と、データB
から動作変化点を抽出する手段と、割り付けられた局所
モデルを動作変化点によりいくつかの局所モデル群にク
ラスタリングすることでプログラムを生成する手段とを
設ける。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、組立作業用ロボッ
トシステムの自動プログラミング技術に係わり、特に接
触状態遷移を行なうためのロボットプログラムを人間の
実演教示から局所モデル群の遷移として自動生成するロ
ボットプログラミング方法および装置、更に生成プログ
ラムを記録した記録媒体に関するものである。
【0002】
【従来の技術】ロボットによる組立作業は、ロボットに
持たせたワークと治具等で据え付けられたワークとの間
の接触状態を順次遷移させることで遂行される。これを
ロボットに行なわせるには、接触状態遷移を予め人間が
プログラムするか、もしくは幾何モデル等で表し動作計
画を行なわせることが必要である。
【0003】組立作業用ロボットのプログラミングに
は、従来より以下の2つの方式がある。1つは、教示ペ
ンダントと呼ばれる装置を用いて、ロボットを実際に動
かして、人間が接触状態遷移を計画しながら、空間上の
点として位置、姿勢を逐一入力していく方式である。教
示した点を修正する場合には、実際のロボットを動かし
て、位置、姿勢を再入力することにより修正を行なう。
もう1つは、ロボットコマンドを用いて接触状態遷移を
記述、編集してロボットプログラムを作成する方式であ
る。接触状態遷移計画は、プログラマである人間が予め
考え、その考えをプログラムに反映させる。プログラム
の修正は、エディタを用いて、プログラムを修正するこ
とにより修正する。
【0004】以上のようなロボットプログラミングにお
いて、人間が行なってきた接触状態遷移の負担を軽減す
る方法としてコンピュータによる自動動作計画がある。
自動計画では、まず、ロボットやワークをコンピュータ
が取り扱いやすいようにモデル化する。そして、そのモ
デルにおいて、組立最終状態への最短経路などを計算す
ることによって接触状態の遷移決定する。
【0005】
【発明が解決しようとする課題】上記従来技術におい
て、教示装置を用いた教示では、人間が位置、姿勢を逐
一入力しなければならず、また、教示データの修正の際
も、人間が位置、姿勢を逐一入力しなければならず、人
間に非常に負担がかかる問題がある。一方、ロボットコ
マンドによるプログラム作成では、まず、プログラミン
グ方法に精通しなければならならない。また、プログラ
ム通りロボットが動かない場合には、その原因を見つ
け、対処するために、プログラムを1行1行追っていか
なければならず、多大な手間を要する問題がある。
【0006】一方、コンピュータによる自動動作計画で
は、接触状態遷移を表すモデルを作成する必要がある。
しかしながら、モデルはワークの形状に強く依存してい
るため、ワーク形状が変化した場合始めから作り直さな
ければならないという問題がある。
【0007】本発明は、上述した従来の問題点を鑑みて
なされたもので、人間による教示の負担や接触状態遷移
の計画を考える負担、自動動作計画で用いるモデル生成
の負担を減らし、容易に且つ短時間に組立作業用ロボッ
トプログラムを生成する方法及びその装置、更には該生
成プログラムを記録した記録媒体を提出することを目的
とする。
【0008】
【課題を解決するための手段】上記目的を達成するた
め、請求項1の発明のロボットプログラミング方法は、
作業に対して局所的な幾何モデル(局所モデル)を予め
用意し、教示者が3次元入力デバイスなどを通じて実演
教示して得られる教示データを入力し解析し、局所モデ
ルを複数集めた局所モデル群をプログラムの実行単位と
し、局所モデル群の遷移をプログラムシーケンスとする
ロボットプログラムを自動生成することを特徴とする。
【0009】また、請求項2の発明のロボットプログラ
ミング方法は、入力された教示データからワークの各頂
点の位置、姿勢の時系列データ(データA)とワークの
中心の位置、姿勢の時系列データ(データB)を算出
し、前記データAを用いて接触状態遷移を起こす頂点の
各組に局所モデルを割り付け、前記データBから動作の
変化した時間を算出し、前記割り付けられた局所モデル
を各変化時間ごとに一つの局所モデル群にまとめ、該局
所モデル群間の遷移の方向性と要素である局所モデルの
重なりを調べることで、局所モデル群のクラスタリング
を行い、前記クラスタリングした各時点での当該局所モ
デルの接触状態をクラスタリングした局所モデル群間の
遷移のための条件として、局所モデル群を時系列に並べ
たものをロボットプログラムとすることを特徴とする。
【0010】また、請求項3の発明のロボットプログラ
ミング装置は、人間がワークや装置を直接操作すること
ができる3次元ポインティングデバイスと、作業に対し
て局所的な幾何モデル(局所モデル)をあらかじめ記憶
する手段と、前記3次元ポインティングデバイスの出力
結果からワークの各頂点の位置、中心の位置及び姿勢を
算出する手段と、前記算出されたワークの各頂点の位
置、中心の位置及び姿勢を記憶する手段と、前記記憶さ
れたワークの各頂点の位置及び姿勢から前記局所モデル
を割り付ける手段と、前記記憶装置に記憶されたワーク
の中心の位置及び姿勢から動作の変化点を抽出する手段
と、局所モデル群のクラスタリングとクラスタリングし
た局所モデル群間の遷移条件を抽出し、局所モデル群を
時系列に並べたものをロボットプログラムとして生成す
る手段とからなることを特徴とする。
【0011】さらに、請求項4の発明は、あらかじめ用
意された作業に対して局所的な幾何モデル(局所モデ
ル)と、教示者が3次元入力デバイスなどを通じて実演
教示して得られる教示データにより、ロボットプログラ
ムを生成する生成プログラムを記憶したコンピュータ読
み取り可能な記録媒体であって、該生成プログラムは、
入力教示データからワークの各頂点の位置、姿勢の時系
列データ(データA)とワークの中心の位置、姿勢の時
系列データ(データB)を算出するプロセスと、前記デ
ータAを用いて接触状態遷移を起こす頂点の各組に、あ
らかじめ用意された局所モデルを割り付けるプロセス
と、前記データBから動作の変化した時間を抽出するプ
ロセスと、前記割り付けられた局所モデルを各変化時間
ごとに一つの局所モデル群にまとめ、該局所モデル群間
の遷移の方向性と要素である局所モデルの重なりを調べ
ることで、局所モデル群のクラスタリングを行うプロセ
スと、前記クラスタリングした各時点での当該局所モデ
ルの接触状態をクラスタリングした局所モデル群間の遷
移のための条件として、局所モデル群を時系列に並べた
ものをロボットプログラムとするプロセスとを有するこ
とを特徴とする。
【0012】本発明は、人間がワークを直接把持し、作
業を実演し、該実演して得られた教示データから、ロボ
ットが接触状態遷移を行うためのプログラムやモデルを
局所モデル群のシーケンスとして生成する点が、従来技
術と異なる。
【0013】
【発明の実施の形態】以下、本発明の実施の形態につい
て図面を参照して説明する。図1は、本発明によるロボ
ットプログミング方法の一実施形態を示す全体的処理フ
ローチャートである。以下、各ステップでの処理につい
て詳述する。なお、ワーク形状に依存しないワーク間の
1組の頂点の接触状態遷移を表し、作業に対して局所的
な幾何モデル(以下、局所モデルと呼ぶ)は予め用意し
ておく。
【0014】〈ステップ1〉人間(教示者)が3次元ポ
インティングデバイスなどを通しでワークや装置を直接
操作し、作業を実施することで得られる教示データを順
次入力する。
【0015】〈ステップ2〉入力した教示データから、
操作ワークの各頂点の位置、姿勢の時系列データ(以
下、データAと呼ぶ)、及び、操作したワーク中心の位
置、姿勢の時系列データ(以下、データBと呼ぶ)を算
出する。
【0016】〈ステップ3〉操作ワークの各頂点の位
置、姿勢の時系列データ(データA)を被組立側ワーク
の各頂点との接触状態の有無によってセグメンテーショ
ンし、接触が生じる操作ワーク頂点と被組立側ワーク頂
点のペアを時間順に並べる(以下、これをデータCと呼
ぶ)。データCにおいて、接触状態間で遷移可能でかつ
時間の連続した接触状態を抽出し、その接触状態をつく
る頂点ペアに局所モデルを割り付ける。なお、割り付け
た局所モデルはデータCに従って時間順に並べておく。
【0017】〈ステップ4〉操作したワーク中心の位
置、姿勢の時系列データ(データB)にローパスフィル
タをかけ、データBにおいて高周波成分として現れる手
振れなどを削除する。フィルタから出力されるデータ
(以下、データB′と呼ぶ)を時間で微分し、動作の変
化した時間(動作変化点)を抽出する。
【0018】〈ステップ5〉データB′から抽出した各
変化時間ごとに、その変化時間に接触状態遷移が起こっ
ている局所モデルを取り出し、1つの局所モデル群にま
とめる。各局所モデル群を切り出した変化時間ごとにな
らべ、隣り合う局所モデル群間で接触状態遷移の方向が
同じであるか、また、局所モデルが重複していないかを
調べる。局所モデルが重複していない場合、もしくは、
局所モデルが重複しているが、接触状態遷移の方向が異
なる場合、局所モデル群を別々のグループとしてクラス
タリングする。どちらでもない場合は、2つの局所モデ
ル群を1つの局所モデル群に統合する。
【0019】〈ステップ6〉2つの局所モデル群(仮に
局所モデル群A,Bとする。時間順序はA,Bの順)が動
作変化時間tA,Bでクラスタリングされた場合、動作時
間tA,Bでの局所モデル群Aの各局所モデルの接触状態
を調べ、それら接触状態が満たされることを局所モデル
群A,B間の遷移の条件とする。
【0020】〈ステップ7〉ステップ5でクラスタリン
グされた局所モデル群を時間順に並べ、各局所モデル群
間をステップ6で得た遷移条件により分岐させること
で、組立作業用ロボットシステムのプログラムとする。
【0021】以上、図1に示す各ステップを経ること
で、教示者の実演した教示データから局所モデル群のシ
ーケンスとしてロボットプログラムを生成するすること
が可能となる。
【0022】まず、局所モデルについて述べる。局所モ
デルとしては、図2に示すワーク間の1組の頂点ペアの
接触状態遷移を用いる。この局所モデルは、ワーク形状
に依存することなく頂点ペアの接触状態遷移を表す。そ
の理由を以下に記す。
【0023】図2に示すワーク間の1組の頂点ペアの接
触は、幾何モデルC−Space法により表すと、図3
(a)に示す多様体の表面で表すことができる。ここ
で、図3(a)に示す多様体の表面は、接触状態により
17種類の面、線分、点に分類され(N1,・・・,N
17)、各隣接関係が状態遷移を表す。図3(b)は、こ
れをテーブル化したものである。
【0024】図3(a)の面、線分、点をノードとし、
隣接するもの同士を線分で結ぶことで、図2に示す頂点
ペアの接触状態遷移は、図4に示すグラフとして表され
る。ワークの頂点の角度や向きが変わった場合、図3
(a)に示す多様体形状は変化するものの、17種類の
接触状態やその隣接関係は変化しない。従って、図4の
グラフはワーク形状に関係なく使うことができる。
【0025】次に、図1の特にステップ3からステップ
5の処理について、より具体的に説明する。
【0026】ステップ3において、局所モデルの割り付
けの前処理である、操作ワーク各頂点の位置、姿勢の時
系列データ(データA)からの接触状態の有無によるセ
グメンテーションは、具体的には次のようにして行う。
一般に、物体の接触は、操作ワークの頂点と被組立ワー
クの面(Type-A接触)、操作ワークの面と被組立ワー
クの頂点(Type-B接触)、操作ワークの稜線と被組立
ワークの稜線(Type-C接触)の3種類の接触に分類で
きる、なお、面と面の接触は面と頂点の接触で表すこと
ができる。各接触状態の条件式は以下の数1乃至数3で
表わされる。
【0027】
【数1】
【0028】
【数2】
【0029】
【数3】
【0030】ステップ3では、局所モデルの割り付けの
前処理として、これら条件式を各データAに適用してい
き接触有無を調べる。そして、接触を生じた時点のデー
タAだけにフラグをつけ、該フラグがついたものだけを
時間順に並べる。これが、データCである。
【0031】局所モデルの割り付けでは、時間順に並べ
た接触状態のデータA(データC)を用いて、まず、時
間的な連続性を調べる。そして、時間的な連続した接触
状態間の遷移が局所モデル上の接触状態遷移として存在
するかどうかを調べ、存在するなら局所モデルをその頂
点間に割り付け、データCに従って時間順に並べる。
【0032】ステップ4において、データBに対する高
周波成分のカットは、データBをフーリエ変換により周
波数領域に展開することで行なう。このデータBから高
周波成分を除いたデータをフーリエ逆変換することでデ
ータB′を作成する。データB′から動作変化する時間
を見つけ出すことは、データB′を時間微分し、微分値
が0となる時間を調べることで行なうことができる。
【0033】ステップ5において、局所モデル群間で局
所モデルが重複していないかどうかは、局所モデル群間
で直積をとり、各ペアの要素に同じ局所モデルがないか
どうかによって判別することができる。各局所モデル群
間で動作の変化が生じる時間で接触状態遷移の方向が同
じかどうかは、局所モデル群間で直積をとり、局所モデ
ルの各ペアごとに、変化時間で遷移する遷移先の局所モ
デル群に属する局所モデルでは動作変化時間tからt+
Δtに遷移する遷移ベクトルを計算し、変化時間で遷移
する遷移元の局所モデル群に属する局所モデルではt−
Δtから動作変化時間tに遷移する遷移ベクトルを計算
し、両者の各成分ごとに積をとり、その値が正負のどち
らかであるかを用いて判別することができる。
【0034】図5は、本発明によるロボットプログラミ
ング装置の構成例を示すブロック図である。図におい
て、100はロボットプログラム自動生成の処理装置本
体(コンピュータ)、110は人間(教示者)がワーク
等を直接操作することができ、3次元の位置・姿勢を一
定時間ごとにサンプリングして計測できる6軸関節型等
の3次元ポインティングデバイス、120は制御対象の
組立作業用ロボット、130は局所モデルがあらかじめ
記憶された局所モデル記憶装置である。
【0035】処理装置100は、3次元ポインティング
デバイス110から出力される教示データを入力し、ワ
ークの各頂点の位置、姿勢の時系列データ(データA)
とワークの中心の位置、姿勢の時系列データ(データ
B)を算出するワーク位置・姿勢算出部101、該ワー
ク位置・姿勢算出部101の算出結果(データA,デー
タB)を記憶するRAM等のデータ記憶部102、デー
タ記憶部102のデータAにより局所モデル記憶装置1
30にあらかじめ記憶されている局所モデルを割り付け
る局所モデル割付部103、データ記憶部102のデー
タBにより動作の変化時間(動作変化点)を抽出する動
作変化検出部104、局所モデル割付け部103と動作
変化点検出部104の出力結果から局所モデル群のクラ
スタリングとクラスタリングした局所モデル群間の遷移
条件を抽出し、局所モデル群のシーケンスとしてロボッ
トプログラムを生成するロボットプログラム生成部10
5から構成される。データ記憶部102には、教示者が
3次元ポインティングデバイス110による実演開始か
ら終了まで、順次、ワーク位置・姿勢算出部101を介
してデータAとデータBが蓄積される。そして、データ
Aは局所モデル割付け部103に、データBは動作変化
点検出部104に出力され、それぞれ局所モデルの割付
け、動作変化点の検出に用いられるロボットプログラム
生成部105では、局所モデル割付部103、動作変化
点検出部104の両方の処理結果が入力されるまで、処
理を行わないようにする。
【0036】図5のような装置構成をとることで、図1
に示すステップ順に処理を行い、教示者を実施して得ら
れた教示データから、局所モデル群のシーケンスとして
ロボットプログラムを自動生成することができる。
【0037】以下に、本発明によるプログラミングの具
体例として、T型ワークの組立作業のプログラミングを
示す。プログラミングでは、図2に示した局所モデル用
いた。ここで、図2に示した局所モデルを対応する頂点
ペア(例えば、操作側ワークをP、被組立側ワークをH
とする)によって〈P−H〉と表す。図6は6軸関節型
3次元ポインティングデバイスを用いて実演教示してい
る様子である。図7は以下で述べる頂点のラベルを表
す。図8は実演教示によってワークがどのように操作さ
れたかを示す。
【0038】6軸関節型3次元ポインインティングデバ
イスを使用して実演教示、ワーク中心(データB)と各
頂点(データA)の位置、姿勢のデータを一定のサンプ
リング周期で実演開始から終了まで30秒間取得し、一
旦蓄積する。データAからステップ3の局所モデルの割
付けの前処理として接触有無を判定した結果、17種類
の接触が得られた(図9)。図9を用いて、ステップ3
において局所モデルの割り付けを行うことで、5種類の
局所モデルが割り付けられる(図10)。次に、データ
Bを用いて、ステップ4にて動作の変化する時間を調べ
る。データBとして、ワーク中心の角度の変化を用い
た。図11に用いた角度の時間変化をしめす。図11を
フーリエ変換し高周波成分を除去した結果、図11のA
部が除去された。残った周波数成分を逆フーリエ変換
し、時間微分することで、図11のB部(22[sec]
の部分)が動作の変化する点として抽出される。ステッ
プ5において、まず、動作変化時刻22[sec]で図1
0に示す局所モデルは局所モデル群A(〈f−B〉,
〈f−D〉,〈e−A〉,〈d−A〉)と局所モデル群
B(〈c−C〉,〈f−D〉,〈d−A〉)に分けられ
る。次に、局所モデル群AとBに局所モデルをクラスタ
リングできるかどうか調べる。局所モデル群AとBでは
〈f−D〉,〈d−A〉が重なるので、2つの局所モデ
ル群間で直積をとり遷移方向を調べる。すると、〈f−
D〉と〈d−A〉で22[sec]で遷移方向が変化して
いるので、このことから局所モデル群AとBに局所モデ
ルがクラスタリングされる。ステップ6より、局所モデ
ル群AとBの切替え条件として、〈f−D〉と〈d−
A〉での22[sec]での接触状態(調べると図3のN
6であった)を満たすことが出力された。ステップ7に
おいて、以上の結果から図12に示すロボットプログラ
ムが生成された。
【0039】以上、本発明の一実施形態について説明し
たが、図1に示した処理フローチャートのプロセスは、
ロボットプログラム生成プログラムとして、FD若しく
はCD−ROM等の記録媒体にコンピュータで読み取り
可能な形式で記録し、販売してもよい。この記録媒体に
記録された生成プログラムを計算機にインストールする
と、例えば図5の装置構成例における各部101〜10
5の機能が実現される。
【0040】
【発明の効果】以上述べたように、本発明によれば次の
ような効果が得られる。 (1) 教示者である人間に負担や手間をかけることな
く、ワークを持って実演することで、容易に組立作業用
ロボットプログラムを生成することができる。 (2) プログラムの修正についても、再度実演教示する
だけでよく、教示者の負担を減らすことができる。 (3) ワークの形状が変わった場合にでも、教示者が実
演するだけでプログラムを生成することができることか
ら、ワーク形状の変化に対して、プログラム開発の時間
を短縮することができる。 (4) 実演教示によって得られたプログラムが局所モデ
ル群を構成していることから、接触状態遷移に必要なモ
デルだけを取り出すことができる。 (5) 自動動作計画のモデル作成の手間を削減すること
ができる。
【図面の簡単な説明】
【図1】本発明によるロボットプログラミング方法の一
実施形態の処理フローチャートである。
【図2】局所モデルとして接触状態遷移をモデル化する
頂点を示す図である。
【図3】局所モデルのC−Space法による表現例を示す
図である。
【図4】局所モデルのグラフによる表現例を示す図であ
る。
【図5】本発明によるロボットプログラミング装置の構
成例を示すブロック図である。
【図6】実演教示の様子を示す図である。
【図7】頂点のラベルを示す図である。
【図8】実演教示したワークの軌跡を示す図である。
【図9】接触が生じた頂点ペアの時間変化を示す図であ
る。
【図10】割り付けられた局所モデルの時間変化を示す
図である。
【図11】教示したワーク中心の角度の時間変化を示す
図である。
【図12】生成したロボットプログラムを示す図であ
る。
【符号の説明】 100 処理装置 101 ワーク位置・姿勢算出部 102 データ記憶部 103 局所モデル割付部103 104 動作変化検出部 105 ロボットプログラム生成部 110 3次元ポインティングデバイス 120 ロボット 130 局所モデル記憶装置

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】 コンピュータを利用して組立作業用ロボ
    ットシステムのプログラム(以下、ロボットプログラム
    と呼ぶ)を自動生成するロボットプログラミング方法で
    あって、 作業に対して局所的な幾何モデル(以下、局所モデルと
    呼ぶ)を予め用意し、教示者が3次元入力デバイスなど
    を通じて実演教示して得られる教示データを入力し解析
    し、局所モデルを複数集めた局所モデル群をプログラム
    の実行単位とし、局所モデル群の遷移をプログラムシー
    ケンスとするロボットプログラムを自動生成することを
    特徴とするロボットプログラミング方法。
  2. 【請求項2】 請求項1記載のロボットプログラミング
    方法において、 入力された教示データからワークの各頂点の位置、姿勢
    の時系列データ(以下、データAと呼ぶ)とワークの中
    心の位置、姿勢の時系列データ(以下、データBと呼
    ぶ)を算出し、 前記データAを用いて接触状態遷移を起こす頂点の各組
    に局所モデルを割り付け、前記データBから動作の変化
    した時間を算出し、 前記割り付けられた局所モデルを各変化時間ごとに一つ
    の局所モデル群にまとめ、該局所モデル群間の遷移の方
    向性と要素である局所モデルの重なりを調べることで、
    局所モデル群のクラスタリングを行い、 前記クラスタリングした各時点での当該局所モデルの接
    触状態をクラスタリングした局所モデル群間の遷移のた
    めの条件として、局所モデル群を時系列に並べたものを
    ロボットプログラムとすることを特徴とするロボットプ
    ログラミング方法。
  3. 【請求項3】 人間がワークや装置を直接操作すること
    ができる3次元ポインティングデバイスと、 作業に対して局所的な幾何モデル(局所モデル)をあら
    かじめ記憶する手段と、 前記3次元ポインティングデバイスの出力結果からワー
    クの各頂点の位置、中心の位置及び姿勢を算出する手段
    と、 前記算出されたワークの各頂点の位置、中心の位置及び
    姿勢を記憶する手段と、 前記記憶されたワークの各頂点の位置及び姿勢から前記
    局所モデルを割り付ける手段と、 前記記憶装置に記憶されたワークの中心の位置及び姿勢
    から動作の変化点を抽出する手段と、 局所モデル群のクラスタリングとクラスタリングした局
    所モデル群間の遷移条件を抽出し、局所モデル群を時系
    列に並べたものをロボットプログラムとして生成する手
    段と、からなることを特徴とするロボットプログラミン
    グ装置。
  4. 【請求項4】 あらかじめ用意された作業に対して局所
    的な幾何モデル(局所モデル)と、教示者が3次元入力
    デバイスなどを通じて実演教示して得られる教示データ
    により、ロボットプログラムを生成する生成プログラム
    を記憶したコンピュータ読み取り可能な記録媒体であっ
    て、 入力教示データからワークの各頂点の位置、姿勢の時系
    列データ(データA)とワークの中心の位置、姿勢の時
    系列データ(データB)を算出するプロセスと、 前記データAを用いて接触状態遷移を起こす頂点の各組
    に、あらかじめ用意された局所モデルを割り付けるプロ
    セスと、 前記データBから動作の変化した時間を抽出するプロセ
    スと、 前記割り付けられた局所モデルを各変化時間ごとに一つ
    の局所モデル群にまとめ、該局所モデル群間の遷移の方
    向性と要素である局所モデルの重なりを調べることで、
    局所モデル群のクラスタリングを行うプロセスと、 前記クラスタリングした各時点での当該局所モデルの接
    触状態をクラスタリングした局所モデル群間の遷移のた
    めの条件として、局所モデル群を時系列に並べたものを
    ロボットプログラムとするプロセスとを有することを特
    徴とする記録媒体。
JP23997297A 1997-09-04 1997-09-04 ロボットプログラミング方法とその装置及び生成プログラムを記録した記録媒体 Pending JPH1185240A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP23997297A JPH1185240A (ja) 1997-09-04 1997-09-04 ロボットプログラミング方法とその装置及び生成プログラムを記録した記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP23997297A JPH1185240A (ja) 1997-09-04 1997-09-04 ロボットプログラミング方法とその装置及び生成プログラムを記録した記録媒体

Publications (1)

Publication Number Publication Date
JPH1185240A true JPH1185240A (ja) 1999-03-30

Family

ID=17052582

Family Applications (1)

Application Number Title Priority Date Filing Date
JP23997297A Pending JPH1185240A (ja) 1997-09-04 1997-09-04 ロボットプログラミング方法とその装置及び生成プログラムを記録した記録媒体

Country Status (1)

Country Link
JP (1) JPH1185240A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102292733B1 (ko) * 2020-06-08 2021-08-20 롯데정보통신 주식회사 복수의 이동 로봇의 자율 주행을 위한 비동기 분산 방식의 인공지능 모델 할당 시스템 및 그 방법
WO2022080132A1 (ja) * 2020-10-16 2022-04-21 オムロン株式会社 軌道生成装置、軌道生成方法、及び軌道生成プログラム
WO2023148804A1 (ja) * 2022-02-01 2023-08-10 日本電気株式会社 指定装置、ロボットシステム、指定方法、および記録媒体

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102292733B1 (ko) * 2020-06-08 2021-08-20 롯데정보통신 주식회사 복수의 이동 로봇의 자율 주행을 위한 비동기 분산 방식의 인공지능 모델 할당 시스템 및 그 방법
WO2022080132A1 (ja) * 2020-10-16 2022-04-21 オムロン株式会社 軌道生成装置、軌道生成方法、及び軌道生成プログラム
WO2023148804A1 (ja) * 2022-02-01 2023-08-10 日本電気株式会社 指定装置、ロボットシステム、指定方法、および記録媒体

Similar Documents

Publication Publication Date Title
Duque et al. Trajectory generation for robotic assembly operations using learning by demonstration
Tang et al. A framework for manipulating deformable linear objects by coherent point drift
CN110573308B (zh) 用于机器人设备的空间编程的基于计算机的方法及系统
Kang et al. Toward automatic robot instruction from perception-temporal segmentation of tasks from human hand motion
Oikonomidis et al. Full dof tracking of a hand interacting with an object by modeling occlusions and physical constraints
CN109483534B (zh) 一种物体抓取方法、装置和系统
Sanz et al. Vision-guided grasping of unknown objects for service robots
Sanders et al. A robotic welding system using image processing techniques and a CAD model to provide information to a multi‐intelligent decision module
Hak et al. Reverse control for humanoid robot task recognition
CN110142769B (zh) 基于人体姿态识别的ros平台在线机械臂示教系统
Skoglund et al. Programming by demonstration of pick-and-place tasks for industrial manipulators using task primitives
CN112917516A (zh) 用于自主装配机器人的知识学习与推理执行系统
KR20170108526A (ko) 모사학습 및 행동 조합에 기반한 로봇의 작업 행동궤적 생성 방법 및 그 장치
JP2005182759A (ja) 多関節物体と環境との間の衝突を回避しながらの仮想環境における仮想多関節物体の動き
Bhatt et al. Incorporating tool contact considerations in tool-path planning for robotic operations
Dagioglou et al. Smoothing of human movements recorded by a single rgb-d camera for robot demonstrations
Lopez et al. Taichi algorithm: Human-like arm data generation applied on non-anthropomorphic robotic manipulators for demonstration
JPH1185240A (ja) ロボットプログラミング方法とその装置及び生成プログラムを記録した記録媒体
Palm et al. Recognition of human grasps by time-clustering and fuzzy modeling
Wang et al. Robot programming by demonstration with a monocular RGB camera
Fomena et al. Towards practical visual servoing in robotics
US20040054510A1 (en) System and method for simulating human movement
Wang et al. Virtual-reality-based point-and-direct robotic inspection in manufacturing
JP7384000B2 (ja) 協調作業システム、解析収集装置および解析プログラム
JPH09198121A (ja) ロボット教示方法