JPH03129407A - ロボット制御装置 - Google Patents
ロボット制御装置Info
- Publication number
- JPH03129407A JPH03129407A JP26626589A JP26626589A JPH03129407A JP H03129407 A JPH03129407 A JP H03129407A JP 26626589 A JP26626589 A JP 26626589A JP 26626589 A JP26626589 A JP 26626589A JP H03129407 A JPH03129407 A JP H03129407A
- Authority
- JP
- Japan
- Prior art keywords
- image
- closed area
- tracing
- control unit
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004364 calculation method Methods 0.000 claims description 21
- 238000003384 imaging method Methods 0.000 claims description 10
- 230000001131 transforming effect Effects 0.000 abstract 1
- 230000033001 locomotion Effects 0.000 description 13
- 238000000034 method Methods 0.000 description 13
- 230000005540 biological transmission Effects 0.000 description 12
- 230000001174 ascending effect Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 240000002853 Nelumbo nucifera Species 0.000 description 1
- 235000006508 Nelumbo nucifera Nutrition 0.000 description 1
- 235000006510 Nelumbo pentapetala Nutrition 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Landscapes
- Numerical Control (AREA)
- Manipulator (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
[産業上の利用分野]
この発明は、動作領域内の閉塞画像(例えば、閉ループ
線画)を認識し、この閉塞画像内を自動的に塗り潰すこ
とができるようにしたロボット制御装置に関するもので
ある。
線画)を認識し、この閉塞画像内を自動的に塗り潰すこ
とができるようにしたロボット制御装置に関するもので
ある。
[従来の技術]
従来より、単純作業や危険作業を人に代えてロボットで
行うことが盛んに行われている。その構造及び機能は、
要求される目的及び作業内容に応して異なるが、より高
度の操作や複雑な操作を行えるロボット更には学習など
のAI機能などの行えるロボットの提供が望まれている
。
行うことが盛んに行われている。その構造及び機能は、
要求される目的及び作業内容に応して異なるが、より高
度の操作や複雑な操作を行えるロボット更には学習など
のAI機能などの行えるロボットの提供が望まれている
。
例えば、前者の1つに特開昭61−74399号、後者
のiつに特開昭62−72004号がある。
のiつに特開昭62−72004号がある。
[発明が解決しようとする課8]
しかし、従来のロボットにあっては、ツールの移動は、
そのパターンを予めロボット制御部内のメモリに記憶さ
せておき、これを実行時に読出す方法をとっている。こ
のため、動作対象となる画像を予め登録していないもの
に対しては、ツールを移動させることかできなかった0
例えば、動作範囲内に図示された閉塞画像を塗り潰すな
ど、複雑な作業を自動的に行わせることは困難であった
。このため、デモンストレーションなどの用途に供する
ロボットにあっては、見学者が注目するような動作をさ
せることはできなかった。
そのパターンを予めロボット制御部内のメモリに記憶さ
せておき、これを実行時に読出す方法をとっている。こ
のため、動作対象となる画像を予め登録していないもの
に対しては、ツールを移動させることかできなかった0
例えば、動作範囲内に図示された閉塞画像を塗り潰すな
ど、複雑な作業を自動的に行わせることは困難であった
。このため、デモンストレーションなどの用途に供する
ロボットにあっては、見学者が注目するような動作をさ
せることはできなかった。
この発明は、予め画像の51録処理を行うことなく、動
作範囲内に図示された閉塞画像を塗り潰すように自動的
にツールを移動できるようにしたロボット制御装置の提
供を目的とする。
作範囲内に図示された閉塞画像を塗り潰すように自動的
にツールを移動できるようにしたロボット制御装置の提
供を目的とする。
[課題を解決するための手段]
上記目的を遠戚するために、この発明は、ツールの動作
範囲内に図示された閉領域画像を原画像として撮像する
撮像手段と、該撮像手段による画像情報から2ti化画
像を作成する2値化処理手段と、前記原画像中から特異
点を除去する閉領域ループ演算手段と、該演算手段の演
算結果に基づいて閉領域画像をトレース処理する境界点
を演算する閉領域境界点演算手段と、該手段及び前記閉
領域ループ演算手段の各演算結果に基づいて前記閉領域
内を所定のパターンによって前記ツールをトレースさせ
る制御手段とを設けるようにしたものである。
範囲内に図示された閉領域画像を原画像として撮像する
撮像手段と、該撮像手段による画像情報から2ti化画
像を作成する2値化処理手段と、前記原画像中から特異
点を除去する閉領域ループ演算手段と、該演算手段の演
算結果に基づいて閉領域画像をトレース処理する境界点
を演算する閉領域境界点演算手段と、該手段及び前記閉
領域ループ演算手段の各演算結果に基づいて前記閉領域
内を所定のパターンによって前記ツールをトレースさせ
る制御手段とを設けるようにしたものである。
[作用]
上記した1段によれば、撮像手段によってIjJ像され
たツールの動作範囲内の画像に対し2値化を行った後、
その2値化画像の特徴か袖山されると共に輪郭の始点及
び増減値か算出される。更に、輪郭座標なX、Y座標に
変換し、これに対してソーティングを行うことにより閉
領域認識か行われる。従って、rめ移動4A跡を設定登
録するなどの作業を行うことなく、′Lえられた画像を
読取り、これに対する輪郭認識を行って、領域内への線
引きなどのトレース作業を行うので、どの様な閉領域の
画像を与えられても2ツールをトレース移動させること
か’ol能になる。
たツールの動作範囲内の画像に対し2値化を行った後、
その2値化画像の特徴か袖山されると共に輪郭の始点及
び増減値か算出される。更に、輪郭座標なX、Y座標に
変換し、これに対してソーティングを行うことにより閉
領域認識か行われる。従って、rめ移動4A跡を設定登
録するなどの作業を行うことなく、′Lえられた画像を
読取り、これに対する輪郭認識を行って、領域内への線
引きなどのトレース作業を行うので、どの様な閉領域の
画像を与えられても2ツールをトレース移動させること
か’ol能になる。
[実施例]
以下 この発明の実施例について図面を参照しながら説
明する。
明する。
第1図はこの発明の一実施例を示すブロック図である。
ここでは、ロボット本体として、Mm型を用いた場合を
例示している。
例示している。
ここに示す実施例は、ロボット本体3を動作させるため
のプログラム作成及びデータ入力を行う指令制御部l、
ロボット本体3に内蔵されると共に指令制御部1とデー
タを交換しながら該指令制御部lの指示通りにロボット
本体3を駆動するための制御を行うロボット制御部2及
び腕2手、指(相当する可動部を備え、その各々の駆動
源として複数のモータ(不図示)を内蔵し、これらモー
タがロボット制御部2によって制御されるロボット本体
3から構成される。
のプログラム作成及びデータ入力を行う指令制御部l、
ロボット本体3に内蔵されると共に指令制御部1とデー
タを交換しながら該指令制御部lの指示通りにロボット
本体3を駆動するための制御を行うロボット制御部2及
び腕2手、指(相当する可動部を備え、その各々の駆動
源として複数のモータ(不図示)を内蔵し、これらモー
タがロボット制御部2によって制御されるロボット本体
3から構成される。
指令制御部lは各種のデータ、設定値及びプログラムな
どの入力を行う為の操作filo1.ロボット本体3の
可動先端の動作範囲を視野とするテレビ(TV)カメラ
102.操作盤101の出力信号を所定のタイミングで
取込む入力インターフェースl 03.プログラムを実
行してロボットの可動部を駆動させるための処理を行う
中央処理装置(CPU)104.プログラムを格納した
リード・オンリーメモリ(ROM)105.処理結果や
データを一時的に記憶するランダム・アクセス・メモリ
(RAM)106.ロボット制御に必要な特定の処理ア
ルゴリズム、定数などが格納されるチーフル用メモリ1
07.ロボットを動かすための後記する画像処理及びモ
ニタ109に画像を表示させるための画像処理及び制御
を行う画像処理制御部108.CPU104による処理
内容あるいはロボットの動作状態を表示するモニタ10
9、後記するプリンタ111を制御する出力インターフ
ェースiio、、1出力インターフェース110の制御
のもとに処理結果などをプリントアウトするプリンタ1
11.及びロボット制御部2に対しデータを送出すると
共にロボット制御部2からロボット本体3の動作状態情
報を受信する伝送入出力部112から構成される。
どの入力を行う為の操作filo1.ロボット本体3の
可動先端の動作範囲を視野とするテレビ(TV)カメラ
102.操作盤101の出力信号を所定のタイミングで
取込む入力インターフェースl 03.プログラムを実
行してロボットの可動部を駆動させるための処理を行う
中央処理装置(CPU)104.プログラムを格納した
リード・オンリーメモリ(ROM)105.処理結果や
データを一時的に記憶するランダム・アクセス・メモリ
(RAM)106.ロボット制御に必要な特定の処理ア
ルゴリズム、定数などが格納されるチーフル用メモリ1
07.ロボットを動かすための後記する画像処理及びモ
ニタ109に画像を表示させるための画像処理及び制御
を行う画像処理制御部108.CPU104による処理
内容あるいはロボットの動作状態を表示するモニタ10
9、後記するプリンタ111を制御する出力インターフ
ェースiio、、1出力インターフェース110の制御
のもとに処理結果などをプリントアウトするプリンタ1
11.及びロボット制御部2に対しデータを送出すると
共にロボット制御部2からロボット本体3の動作状態情
報を受信する伝送入出力部112から構成される。
またCPU104に対し、データ信号、コントロール信
号及びアドレス信号などが接続される各部材とCPo
104間とは、バス113によって相互に接続されてい
る。更に、テレビカメラ102とハス113との間には
、テレビカメラ102の画像出力を2値化、即ち、ディ
ジタル化する2埴化処裡部114が接続されている。
号及びアドレス信号などが接続される各部材とCPo
104間とは、バス113によって相互に接続されてい
る。更に、テレビカメラ102とハス113との間には
、テレビカメラ102の画像出力を2値化、即ち、ディ
ジタル化する2埴化処裡部114が接続されている。
なお、説明の便宜に、テレビカメラ102を指令制御部
l内に含める記載としているが、実際にはロボット本体
3の近傍に設置され、その視野がロボット本体3の可動
部の動作範囲になるようにセツティングされる。
l内に含める記載としているが、実際にはロボット本体
3の近傍に設置され、その視野がロボット本体3の可動
部の動作範囲になるようにセツティングされる。
また、ロボット制御部2は伝送入出力部112からの信
号を受信すると共に、ロボ・ント本体3の動作状態に関
する情報などな送出する伝送入出力部201.該伝送入
出力部201からの信号に基づいてモータ駆動のための
制御情報を出力すると共に指令制御部l側へ送出する情
報の管理を行う制御部202.及び該制御部202から
の指令に従ってロボット本体3の各モータなどの駆動源
を駆動するモータ駆動部203から構成される。
号を受信すると共に、ロボ・ント本体3の動作状態に関
する情報などな送出する伝送入出力部201.該伝送入
出力部201からの信号に基づいてモータ駆動のための
制御情報を出力すると共に指令制御部l側へ送出する情
報の管理を行う制御部202.及び該制御部202から
の指令に従ってロボット本体3の各モータなどの駆動源
を駆動するモータ駆動部203から構成される。
制御部202はCPU及びその周辺回路を含んで構成さ
れ、マスターである指令制御部1のCPU 104に対
し、スレーブとして動作する。
れ、マスターである指令制御部1のCPU 104に対
し、スレーブとして動作する。
次に、以上の構成による実施例の動作について、第2図
のフローチャートを参照して説明する。なお、以下にお
いては、フローのステップをSとして表記している。
のフローチャートを参照して説明する。なお、以下にお
いては、フローのステップをSとして表記している。
まず、実行開始の指令を操作I!!1101でキーイン
し、装置を起動させると共に初期化を行い、更にロボッ
トを動作させるための条件を指定する。
し、装置を起動させると共に初期化を行い、更にロボッ
トを動作させるための条件を指定する。
入力された設定条件は、テーブル用メモリ107に格納
される。また、動作範囲をテレビカメラ102で撮影し
、その画像出力を取込む、CPU104は、ロボットに
動作させることか可能な内容をモニタ109に表示して
待機する。また、必霞な情報を伝送入出力部112を介
してロボット制御部2へ伝達する。
される。また、動作範囲をテレビカメラ102で撮影し
、その画像出力を取込む、CPU104は、ロボットに
動作させることか可能な内容をモニタ109に表示して
待機する。また、必霞な情報を伝送入出力部112を介
してロボット制御部2へ伝達する。
ロボット制御部2ては、第2図に示すフローに従って制
御部202か処理を実行すると共に指令制御部lとの情
報交換を行う。
御部202か処理を実行すると共に指令制御部lとの情
報交換を行う。
まず、電源オンと共にロボット本体3の初期化を行い(
S 21)、動作孫囲内にある物体に関するデータの初
期設定を行う(S 22)。つい”C1指令制御i!i
′lil側に対し伝送入出力部201を介して、どのよ
うな動きをすべきかのロボット動作選択要求を行う(S
23)。
S 21)、動作孫囲内にある物体に関するデータの初
期設定を行う(S 22)。つい”C1指令制御i!i
′lil側に対し伝送入出力部201を介して、どのよ
うな動きをすべきかのロボット動作選択要求を行う(S
23)。
指令制御部lては、ロボット制御部2からのロボット動
作選択要求に対し、モニタ109に表示されているメニ
ュー(S 32)の中から操作者に選択を促し、操作1
101によって選択された動作選択結果をロボット制御
部2へ返送する。これを受けた制御部202は、指令制
御部1に対し画像処理要求を出し、これを受けた指令制
御部lてはテレビカメラ102から取込んだ画像情報を
画像処理制御部108で処理し、その画像処理内容(S
3])をロボット制御部2へ返送する。
作選択要求に対し、モニタ109に表示されているメニ
ュー(S 32)の中から操作者に選択を促し、操作1
101によって選択された動作選択結果をロボット制御
部2へ返送する。これを受けた制御部202は、指令制
御部1に対し画像処理要求を出し、これを受けた指令制
御部lてはテレビカメラ102から取込んだ画像情報を
画像処理制御部108で処理し、その画像処理内容(S
3])をロボット制御部2へ返送する。
また、制御部202からは、引続いて画像処理結果要求
が出される( S 25)、この画像処理に対しては、
指令制御部lとロボット制御部2間て複数の往復交換が
行われ、指令制御部1て画像処理結果34が出るまで繰
返えされる。
が出される( S 25)、この画像処理に対しては、
指令制御部lとロボット制御部2間て複数の往復交換が
行われ、指令制御部1て画像処理結果34が出るまで繰
返えされる。
画像処理の結果か得られると、制御部202はケえられ
た動作選択要求及び画像内容に対し、ロボットかとるべ
き動作(即ち、始点と終点の2点間をどのように移動す
るか)を計重する( 326)。
た動作選択要求及び画像内容に対し、ロボットかとるべ
き動作(即ち、始点と終点の2点間をどのように移動す
るか)を計重する( 326)。
この計画内容に基づいて制御部202は、モータ駆動部
203に制御指令を送出し、ロボット本体3のアームな
どの駆動を開始させる。
203に制御指令を送出し、ロボット本体3のアームな
どの駆動を開始させる。
1つの動作か終了すると、実行すべき次の処理が存在す
るか否かを指令制御部lに間合わせる( S 28)。
るか否かを指令制御部lに間合わせる( S 28)。
この間合わせに対して操作者は、モニタ109hのメニ
ュー画面(S :15)を見ながら、前回と同一の動作
、あるいは他の異なる動作を選択する。この選択内容は
、伝送入出力部112及び伝送路を介してロボット制御
部2の伝送入出力部201に伝送され、制御部202C
取込まれる。
ュー画面(S :15)を見ながら、前回と同一の動作
、あるいは他の異なる動作を選択する。この選択内容は
、伝送入出力部112及び伝送路を介してロボット制御
部2の伝送入出力部201に伝送され、制御部202C
取込まれる。
制御部202は受信内容を判定(S29)L/、それか
同じ動作の再実行である場合には、再度ステップ27以
降の動作を繰返し実行する。
同じ動作の再実行である場合には、再度ステップ27以
降の動作を繰返し実行する。
また、異なる動作の実行の要求に対しては、それが同一
種類の動作に該当するものか否かを判定(S:lO)シ
、同一である場合にはステップ24以降の処理を繰返し
実行する。一方、同一種類の動作でない場合、ステップ
23で行った動作要求を再び指令制御部lへ要求するか
否かを判定しく S :ll)、動作再選択の指示か判
定された場合には、ステップ23以降の処理を特徴とす
る特許た、動作再選択の指示か無い場合には、全ての処
理を終了する。
種類の動作に該当するものか否かを判定(S:lO)シ
、同一である場合にはステップ24以降の処理を繰返し
実行する。一方、同一種類の動作でない場合、ステップ
23で行った動作要求を再び指令制御部lへ要求するか
否かを判定しく S :ll)、動作再選択の指示か判
定された場合には、ステップ23以降の処理を特徴とす
る特許た、動作再選択の指示か無い場合には、全ての処
理を終了する。
ロボット制御部2では、第3図に示すフローに従って制
御部202か処理を実行すると共に指令制御部1との情
報交換を行う。
御部202か処理を実行すると共に指令制御部1との情
報交換を行う。
まず、テレビカメラ102によって、動作範囲を撮像し
、その画像情報を2値化処理した後、これをメモリ(R
AM106)に記憶する。一方、操作盤101から使用
ツール、連続軌跡、動作精度などを指定しく S 41
)、更にホームポジション待機に入り、作業道具把持及
びツールの高さを指定する( S 42)。
、その画像情報を2値化処理した後、これをメモリ(R
AM106)に記憶する。一方、操作盤101から使用
ツール、連続軌跡、動作精度などを指定しく S 41
)、更にホームポジション待機に入り、作業道具把持及
びツールの高さを指定する( S 42)。
ついで、次に示すような定義及び指定を行って目標位置
への移動計算(閉領域の始点)を行う(S 43)。
への移動計算(閉領域の始点)を行う(S 43)。
■座標系の定義(ロボットのツール座標系を定義)
■姿勢制御の指定
■軌跡制御の指定(移動速度など)
(4)把持物体の仕様を設定(例えば、高さなど)次に
、以上の処理に基づいて閉領域に対するトレース作業を
実行する( S 44)、即ち、X方向に対する線引き
をY方向へ一定間隔に行う。ついて、閉領域の全域に対
し線引きトレースが実行されたか否かをチエツクする(
S 45)、 )−レースが終了であれば、直ちにツ
ールによる線引きトレースを開始できるように、ホーム
ポジション待機モードとする( S 46)、そして作
業道具を取外し、そのまま待機する。一方、トレース作
業か未終了てあれば、n番目の線引きトレースの開始点
へ移動させ(S 47)、ステップ44の処理を続行す
る。
、以上の処理に基づいて閉領域に対するトレース作業を
実行する( S 44)、即ち、X方向に対する線引き
をY方向へ一定間隔に行う。ついて、閉領域の全域に対
し線引きトレースが実行されたか否かをチエツクする(
S 45)、 )−レースが終了であれば、直ちにツ
ールによる線引きトレースを開始できるように、ホーム
ポジション待機モードとする( S 46)、そして作
業道具を取外し、そのまま待機する。一方、トレース作
業か未終了てあれば、n番目の線引きトレースの開始点
へ移動させ(S 47)、ステップ44の処理を続行す
る。
次に、第4図(A)、(B)、(C)を参照して、閉領
域トレースの処理の詳細について説明する。
域トレースの処理の詳細について説明する。
ここては、トレースとして、閉領域内を一定間隔に平行
線を線引きする場合を例示する。
線を線引きする場合を例示する。
まず、テレビカメラ102によって撮像されたツールの
動作範囲内の画像が原画像として入力される。この動作
範囲(=カメラの視野範囲)内には、ツールの移動対象
となる線画が描かれている。この原画像を曲線領域に設
置したウィンドウに入力する( S 51)。
動作範囲内の画像が原画像として入力される。この動作
範囲(=カメラの視野範囲)内には、ツールの移動対象
となる線画が描かれている。この原画像を曲線領域に設
置したウィンドウに入力する( S 51)。
ついで、中間輝度レベルの変換処理を行う(S52)と
共に、予め定めたコート及び画像解析定数テーブルの設
定値に基づいて基本の画像処理を行う(S 5:l)、
更に、ステップ53において濃淡画像から2値画像を生
成(2値化処理手段)する( S 54)、これによっ
て得られた2値化画像に対し、閉領域ループ演算手段と
しての特徴抽出処理を行う(S 55)、この特徴抽出
処理は、入力2値化画像に対し、物体の交点数及び輪郭
追跡テーブルからロボットの座標であるワーク用座標(
2値出力画像)を得るものである。
共に、予め定めたコート及び画像解析定数テーブルの設
定値に基づいて基本の画像処理を行う(S 5:l)、
更に、ステップ53において濃淡画像から2値画像を生
成(2値化処理手段)する( S 54)、これによっ
て得られた2値化画像に対し、閉領域ループ演算手段と
しての特徴抽出処理を行う(S 55)、この特徴抽出
処理は、入力2値化画像に対し、物体の交点数及び輪郭
追跡テーブルからロボットの座標であるワーク用座標(
2値出力画像)を得るものである。
次に、第4図(B)に示すように、ステ・ンプ55で得
られた画像に対し、輪郭追跡テーブル内に閉領域輪郭点
座標を抽出する( S 56)、この処理は、1画素当
たりの囲まれた領域の輪郭を抽出するものであり、それ
が真に閉領域であるか否かの判定は、物体の交点かある
か否かの算出によって行う。即ち、交点があった場合に
は、閉領域とは見なさない。次に、輪郭追跡テーブル内
の開始点X、、Y、及び増減値ΔX、ΔYをx、y座標
に変換し、これを輪郭追跡テーブルに格納する(S57
)。
られた画像に対し、輪郭追跡テーブル内に閉領域輪郭点
座標を抽出する( S 56)、この処理は、1画素当
たりの囲まれた領域の輪郭を抽出するものであり、それ
が真に閉領域であるか否かの判定は、物体の交点かある
か否かの算出によって行う。即ち、交点があった場合に
は、閉領域とは見なさない。次に、輪郭追跡テーブル内
の開始点X、、Y、及び増減値ΔX、ΔYをx、y座標
に変換し、これを輪郭追跡テーブルに格納する(S57
)。
ついで、以下のようなソーティング処理(閉領域境界点
演算手段)が3段階に実行される。まず、iiのソーテ
ィング処理が実行される(S58)、この処理は、例え
ば、100個の輪郭点数に対し、Y座標の昇順に輪郭座
標のソーティングを行い、Y座標の数字の小さい順に並
べ替える。即ち輪郭座標か下記のような昇順であるとす
ると、(輪 郭 座 標) Y 】010 10 11 7 12 12 15 13 14 12 13 11 12 11 11 10 (輪郭点数 ソーティング後は次のようになる。
演算手段)が3段階に実行される。まず、iiのソーテ
ィング処理が実行される(S58)、この処理は、例え
ば、100個の輪郭点数に対し、Y座標の昇順に輪郭座
標のソーティングを行い、Y座標の数字の小さい順に並
べ替える。即ち輪郭座標か下記のような昇順であるとす
ると、(輪 郭 座 標) Y 】010 10 11 7 12 12 15 13 14 12 13 11 12 11 11 10 (輪郭点数 ソーティング後は次のようになる。
(ソーティング後の輪郭座標)
Y
010
10
11 10
8 11
13 11
211
12
12
412
100個目)
次に、第4図(C)のステップ59において、同一座標
グループ内てX座標昇順に、下記のようなソーティンク
を行う。
グループ内てX座標昇順に、下記のようなソーティンク
を行う。
(ソーティング後の輪郭座標)
Y
9 10(始点)
l口 ↓(終点)
11 ↓
11
12 ↓
I3 ↓
5 12
7 ↓
14 ↓
そして、同−Yグループ内の最下位及び最−h位データ
をテーブルに格納する。この組合わせをlグループとし
て、例えば20グループを抽出し、この始点、終点座標
を閉領域認識結果テーブルに格納する。このとき、ワー
ルド座標系に換算後、昇順に再ソーティングする。
をテーブルに格納する。この組合わせをlグループとし
て、例えば20グループを抽出し、この始点、終点座標
を閉領域認識結果テーブルに格納する。このとき、ワー
ルド座標系に換算後、昇順に再ソーティングする。
このようにして得られた閉領域認識結果は、伝送入出力
部112を介してロボット制御部2へ伝送され、ロボッ
ト制御部2側に準備されている環境データベースを用い
て、手先姿勢算出、動作経路選定処理の後、第3図て示
した処理に従って線引きトレース動作が実行される。
部112を介してロボット制御部2へ伝送され、ロボッ
ト制御部2側に準備されている環境データベースを用い
て、手先姿勢算出、動作経路選定処理の後、第3図て示
した処理に従って線引きトレース動作が実行される。
なお、以上の説明では、閉ループ内に一定間隔で平行線
を線引きトレースするものとしたか、直線のほか1点線
、網線、網点、ベタ塗りなどとすることもできる。
を線引きトレースするものとしたか、直線のほか1点線
、網線、網点、ベタ塗りなどとすることもできる。
また、上記実施例では、閉領域内にトレース処理を施す
ものとしたか、領域外を処理対象とすることもできる。
ものとしたか、領域外を処理対象とすることもできる。
[発明の効果コ
以上説明した通り、この発明は、ツールの動作範囲内に
図示された閉領域画像を原画像として撮像する撮像手段
と、該撮像手段による画像情報から2値化画像を作成す
る2値化処理手段と、前記原画像中から特異点を除去す
る閉領域ループ演算手段と、該演算手段の演算結果に基
づいて閉領域画像を1へレース処理する境界点を演算す
る閉領域境界点演算手段と、該手段及び前記閉領域ルー
プ演算手段の各演算結果に基づいて前記閉領域内を所定
のパターンによって前記ツールをトレースさせる制御手
段とを設けるようにしたので、与えられた画像に対する
輪郭認識を行い、領域内への線引きなどのトレース作業
を行うのて、どの様な閉領域の画像を与えられても、ツ
ールをトレース移動させることが可能になる。しかも、
従来のように、予め移動軌跡を設定登録するなどの作業
が不必要になり、汎用性に優れたロボットの提供が可能
になる。
図示された閉領域画像を原画像として撮像する撮像手段
と、該撮像手段による画像情報から2値化画像を作成す
る2値化処理手段と、前記原画像中から特異点を除去す
る閉領域ループ演算手段と、該演算手段の演算結果に基
づいて閉領域画像を1へレース処理する境界点を演算す
る閉領域境界点演算手段と、該手段及び前記閉領域ルー
プ演算手段の各演算結果に基づいて前記閉領域内を所定
のパターンによって前記ツールをトレースさせる制御手
段とを設けるようにしたので、与えられた画像に対する
輪郭認識を行い、領域内への線引きなどのトレース作業
を行うのて、どの様な閉領域の画像を与えられても、ツ
ールをトレース移動させることが可能になる。しかも、
従来のように、予め移動軌跡を設定登録するなどの作業
が不必要になり、汎用性に優れたロボットの提供が可能
になる。
第1図はこの発明の一実施例を示すブロック図、第2図
は指令制御部Iとロボット制御部2の処理の概略を説明
するフローチャート、第3図はロボット制御部2の動作
を示すフローチャート、第4図(A)、(B)、(C)
はこの発明における閉領域認識処理の詳細を示すフロー
チャートである。 図中。 l:指令制御部 3:ロボット本体 101:操作盤 104:CP U 108二画像処理制御部 109:モニタ 112伝送人Lt力部114:
2値化処理部 2旧:伝送穴;i1力部202:制御部
203:モータ駆動部2:ロボット制御部 4:外部記憶装置 102:テレビカメラ 107:テーブル用メモリ
は指令制御部Iとロボット制御部2の処理の概略を説明
するフローチャート、第3図はロボット制御部2の動作
を示すフローチャート、第4図(A)、(B)、(C)
はこの発明における閉領域認識処理の詳細を示すフロー
チャートである。 図中。 l:指令制御部 3:ロボット本体 101:操作盤 104:CP U 108二画像処理制御部 109:モニタ 112伝送人Lt力部114:
2値化処理部 2旧:伝送穴;i1力部202:制御部
203:モータ駆動部2:ロボット制御部 4:外部記憶装置 102:テレビカメラ 107:テーブル用メモリ
Claims (1)
- ツールの動作範囲内に図示された閉領域画像を原画像と
して撮像する撮像手段と、該撮像手段による画像情報か
ら2値化画像を作成する2値化処理手段と、前記原画像
中から特異点を除去する閉領域ループ演算手段と、該演
算手段の演算結果に基づいて閉領域画像をトレース処理
する境界点を演算する閉領域境界点演算手段と、該手段
及び前記閉領域ループ演算手段の各演算結果に基づいて
前記閉領域内を所定のパターンによって前記ツールをト
レースさせる制御手段とを具備することを特徴とするロ
ボット制御装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1266265A JPH08388B2 (ja) | 1989-10-16 | 1989-10-16 | ロボット制御装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1266265A JPH08388B2 (ja) | 1989-10-16 | 1989-10-16 | ロボット制御装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH03129407A true JPH03129407A (ja) | 1991-06-03 |
JPH08388B2 JPH08388B2 (ja) | 1996-01-10 |
Family
ID=17428574
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP1266265A Expired - Fee Related JPH08388B2 (ja) | 1989-10-16 | 1989-10-16 | ロボット制御装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH08388B2 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05197415A (ja) * | 1992-01-17 | 1993-08-06 | Mitsubishi Electric Corp | 産業用ロボット装置の画像処理システム |
JPH05204459A (ja) * | 1992-01-24 | 1993-08-13 | Fujitsu Ltd | 位置計測装置及びコネクタの嵌合方法 |
KR100382266B1 (ko) * | 2000-08-18 | 2003-05-01 | 이용중 | 로봇 자세 보정 알고리즘을 이용한 크기 가변작업대상물의 자동 상표 부착방법 |
CN107498555A (zh) * | 2017-08-11 | 2017-12-22 | 上海思依暄机器人科技股份有限公司 | 一种动作透传方法、装置及机器人 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63238976A (ja) * | 1987-03-26 | 1988-10-05 | Matsushita Electric Ind Co Ltd | センサ付溶接ロボツト |
JPH01174903A (ja) * | 1987-12-29 | 1989-07-11 | Kawasaki Steel Corp | 荷物載置場所のターゲット認識方法 |
JPH01176795A (ja) * | 1987-12-29 | 1989-07-13 | Kawasaki Steel Corp | クレーンの位置検出並びに制御装置 |
-
1989
- 1989-10-16 JP JP1266265A patent/JPH08388B2/ja not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63238976A (ja) * | 1987-03-26 | 1988-10-05 | Matsushita Electric Ind Co Ltd | センサ付溶接ロボツト |
JPH01174903A (ja) * | 1987-12-29 | 1989-07-11 | Kawasaki Steel Corp | 荷物載置場所のターゲット認識方法 |
JPH01176795A (ja) * | 1987-12-29 | 1989-07-13 | Kawasaki Steel Corp | クレーンの位置検出並びに制御装置 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05197415A (ja) * | 1992-01-17 | 1993-08-06 | Mitsubishi Electric Corp | 産業用ロボット装置の画像処理システム |
JPH05204459A (ja) * | 1992-01-24 | 1993-08-13 | Fujitsu Ltd | 位置計測装置及びコネクタの嵌合方法 |
KR100382266B1 (ko) * | 2000-08-18 | 2003-05-01 | 이용중 | 로봇 자세 보정 알고리즘을 이용한 크기 가변작업대상물의 자동 상표 부착방법 |
CN107498555A (zh) * | 2017-08-11 | 2017-12-22 | 上海思依暄机器人科技股份有限公司 | 一种动作透传方法、装置及机器人 |
Also Published As
Publication number | Publication date |
---|---|
JPH08388B2 (ja) | 1996-01-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7338034B2 (ja) | リモートクライアントデバイスからの入力に基づく効率的なロボットの制御 | |
US20190152054A1 (en) | Gripping system with machine learning | |
JP7071054B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
Sachs et al. | 3-Draw: A tool for designing 3D shapes | |
JP5838873B2 (ja) | シミュレーション装置、シミュレーション方法、および、シミュレーションプログラム | |
CN108182689A (zh) | 应用于机器人搬运打磨领域的板状工件三维识别定位方法 | |
CN111462154A (zh) | 基于深度视觉传感器的目标定位方法、装置及自动抓取机器人 | |
JPS63288683A (ja) | 組立てロボット | |
CN113814986B (zh) | 一种基于机器视觉控制scara机器人的方法及系统 | |
CN110385694A (zh) | 机器人的动作示教装置、机器人系统以及机器人控制装置 | |
CN113319859B (zh) | 一种机器人示教方法、系统、装置及电子设备 | |
CN114630734B (zh) | 具有专用硬件加速的支持机器学习的视觉伺服 | |
CN114670189B (zh) | 存储介质、以及生成机器人的控制程序的方法及系统 | |
CN112947458B (zh) | 基于多模态信息的机器人准确抓取方法及计算机可读介质 | |
CN114463244A (zh) | 一种视觉机器人抓取系统及其控制方法 | |
CN109079777B (zh) | 一种机械臂手眼协调作业系统 | |
JP3886471B2 (ja) | 画像処理装置 | |
JPH05108108A (ja) | コンプライアンス制御方法及び制御装置 | |
JPH03129407A (ja) | ロボット制御装置 | |
CN109934155B (zh) | 一种基于深度视觉的协作机器人手势识别方法及装置 | |
CN111673745A (zh) | 一种基于体感互动的机器人控制系统和方法 | |
JPH05150835A (ja) | ロボツトによる組み立て装置 | |
Corke | Video-rate robot visual servoing | |
JPH0299802A (ja) | ハンドアイを用いた視覚センサにおける座標系設定方法 | |
JPH08387B2 (ja) | ロボット制御装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
LAPS | Cancellation because of no payment of annual fees |