JP2022042867A - ロボット制御方法 - Google Patents
ロボット制御方法 Download PDFInfo
- Publication number
- JP2022042867A JP2022042867A JP2020148511A JP2020148511A JP2022042867A JP 2022042867 A JP2022042867 A JP 2022042867A JP 2020148511 A JP2020148511 A JP 2020148511A JP 2020148511 A JP2020148511 A JP 2020148511A JP 2022042867 A JP2022042867 A JP 2022042867A
- Authority
- JP
- Japan
- Prior art keywords
- work
- robot
- control method
- visual sensor
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は物体または部位に対して作業を行うロボットを制御する方法に関する。
物体を3次元カメラ等で認識して自律的に作業するロボットの普及が進んでいる。例えば、特許文献1には、複数の線状物の3次元形状を計測し、そのうちの1本を他の線状物と干渉しないで把持可能かを判定して、ロボットハンドで把持する方法が開示されている。特許文献2には、線状物の色の違いを利用して、複数の線状物の中から特定の線状物を抽出して、その3次元形状を高速に計測する方法が記載されている。
また、ロボットの自律的な作業を補助するために、物体の表面に2次元コード等を利用することが行われている。例えば、特許文献3には、ロボットによる物体の把持作業において、把持位置までの相対位置が符号化された情報パターンを含む二次元コードを物体に記しておき、ロボットが備えるカメラで二次元コードを撮像し、把持位置を算出して、ロボットのハンド部で物体を把持することが記載されている。ここでは、物体に記した二次元コードによって当該物体の把持位置をロボットに知らせている。特許文献4には、ロボットに作業を自動的に行わせるにあたり、道具表面に認識用の二次元表示を設け、二次元表示を視覚情報入力部で撮影して道具の位置等の認識を行い、あるいは、命令通信部を介して供給された命令を解析して使用する道具を選択することが記載されている。ここでは、道具に設けた二次元表示によって、当該道具の位置や種類をロボットに知らせている。
特許文献3や特許文献4に記載された二次元コード等は物体や道具表面に設けられ、当該物体や道具に関する情報を表現するものであった。しかし、ロボットによる作業内容自体を変更する場合には、依然としてロボットの制御プログラムや各種パラメータを変更して変更内容を制御部等に入力する必要があった。ロボットへの作業指示方法には効率化の余地があった。また、線状物のように細く可撓性がある物体の場合、ワーク自体に2次元コードを設けることは困難であった。
本発明は上記を考慮してなされたものであり、自律的に作業可能なロボットに対して作業内容を簡単に指示できるロボット制御方法を提供することを目的とする。
本発明のロボット制御方法は、物体または部位に対して作業を行うロボットを制御する方法であって、前記作業の内容を示す作業情報を表現する2次元コードを前記物体または部位の近傍に配置する工程と、第1視覚センサを用いて前記作業情報を読み取る工程と、第2視覚センサで前記物体または部位を撮像し、取得した画像と前記作業情報に基づいて動作情報を生成する工程と、前記動作情報に基づいて制御部が前記ロボットに動作を指示して、前記ロボットが前記物体または部位に対して前記作業を行う工程とを有する。
ここで作業の対象となる部位には、メス型コネクタの接続穴や、加工装置に設けられた材料の供給孔など、物体とは言えないがロボットによる作業の対象となるものが含まれる。作業の内容を示す作業情報は、作業の目標とする物体または部位(以下両者を合わせて「物体等」ということがある)を特定するための情報と、作業の各種パラメータを含む。この方法により、2次元コードを物体等の近くに配置するだけで、ロボットに作業を指示できる。
好ましくは、前記動作情報を生成する工程は、前記取得した画像と前記作業情報に基づいて前記物体または部位の中から前記作業の目標とする特定物体または特定部位を選択する工程を含む。
またこのとき、前記物体または部位は同種のもの毎に分別して配置されており、前記2次元コードが前記特定物体または特定部位として選択すべき前記物体または部位が配置された概略位置をさらに表現していてもよい。これにより、作業情報が指示する物体等の条件が視覚センサのみによっては判別できないときにも、本発明のロボット制御方法を適用することができる。
好ましくは、上記ロボット制御方法において、前記第2視覚センサがステレオカメラであり、前記物体または部位の3次元形状に基づいて前記動作情報が生成される。物体等の3次元形状を計測することによって、多数の物体等がある場合でも、より的確に動作情報を生成することができる。
上記ロボット制御方法において、前記第1視覚センサおよび前記第2視覚センサとして1台の視覚センサが兼用されてもよい。
好ましくは、前記物体が線状物であり、前記作業が前記ロボットの有するロボットハンドによって前記線状物の1本を把持することであり、前記作業情報が少なくとも前記ロボットハンドによる前記線状物の把持位置および把持角度を含む。対象物が線状物である場合は、線状物の上に2次元コードを設けることができないので、本発明のロボット制御方法を適用することによる効果が大きい。
あるいは、好ましくは、前記部位が挿入穴であり、前記作業は、前記ロボットの有するロボットハンドが保持するワークを前記挿入穴に挿入することであり、前記作業情報が少なくとも前記ワークを前記挿入穴に挿入する挿入深さおよび挿入角度を含む。
好ましくは、前記部位が作業位置であり、前記作業が前記ロボットの有するロボットハンドが保持するワークを前記作業位置まで移動させることであり、前記作業情報が前記作業位置を示す3次元座標を含む。
好ましくは、前記作業情報が当該作業の優先度を含み、それぞれ異なる作業情報を表現する複数の前記2次元コードを前記物体または部位の近傍に配置する。これにより、ロボットが順次行うべき複数の作業をまとめて指示することができる。
本発明のロボット制御方法によれば、制御プログラムや各種パラメータを変更して制御部等に入力することなく、2次元コードを物体等の近くに配置するだけで、物体等に対する作業を簡単にロボットに指示できる。
本発明のロボット制御方法の第1実施形態を図1および図2に基づいて説明する。本実施形態では、電線等の線状物をロボットハンドで把持する作業を例として説明する。
図1を参照して、本実施形態のロボット制御方法を実施するための全体システム10はロボット20、第1視覚センサ30、第2視覚センサ31および制御部32を有する。線状物Sは容器40に収容され、容器の近くに2次元コード50が配置されている。
ロボット20としては、公知の多関節ロボットを好適に利用できる。ロボットはアームの先端にロボットハンド21を備えており、線状物を把持することができる。ロボット20は事前のティーチングなしに、制御部32の指示に従って自律的に線状物の把持作業を行うことができる。
第1視覚センサ30は2次元コード50を読み取る。より詳細には、第1視覚センサは2次元コードを撮影してその画像を制御部32に送信し、2次元コードに表現された情報を制御部が解析する。第1視覚センサの種類は、2次元コードの読み取りが可能であれば特に限定されない。第1視覚センサは、作業場の適当な位置に固定されていてもよいし、ロボット20の例えばロボットハンド21に装着されていてもよい。
第2視覚センサ31は線状物Sを撮像する。この画像に基づいて作業の目標とする特定線状物S*が選択される。第2視覚センサとしては、好ましくは、線状物の3次元計測が可能なものを用いる。取得した画像を用いて線状物Sの3次元計測を行うことにより、作業の目標とする特定線状物をより的確に選択できる。また、第2視覚センサが線状物Sの3次元計測を行うことによって、把持作業時のロボットハンド21の移動経路を算出することもできる。第2視覚センサとしては、より好ましくはステレオカメラを用いる。ステレオカメラは線状物の3次元形状を高速に計測するのに適するからである。第2視覚センサは、作業場の適当な位置に固定されていてもよいし、ロボット20の例えばロボットハンド21に取り付けられていてもよい。
また、図1では第1視覚センサ30と第2視覚センサ31を別個に設けたが、第1視覚センサと第2視覚センサの機能を1台の視覚センサで兼用してもよい。
制御部32は、ロボット20、第1視覚センサ30、第2視覚センサ31の全体を制御する。また、制御部は、第1視覚センサ30が読み取った2次元コード50の情報の解析、第2視覚センサが撮像した線状物Sの3次元形状の計算、把持動作に必要なロボット20の関節の運動の計算などすべての演算を行い、ロボットに作業をさせるための動作情報を生成する。
2次元コード50はロボット20に行わせる作業の内容を示す作業情報を符号化して表現したものである。作業情報には、例えば、作業の目標とすべき物体等の特徴に加えて、作業の各種パラメータが含まれる。具体的には、作業内容には把持すべき線状物Sの色、サイズ、形状、端部に固定されたコネクタの形状などの線状物の特徴と、ロボットハンド21で線状物を把持する際の把持位置、把持角度などを含むことができる。
2次元コード50には複数の作業情報が含まれていてもよい。その場合、好ましくは、作業情報には作業の優先度が含まれる。これにより、1つの2次元コード50によって、ロボット20が順次実施すべき複数の作業を指示できる。あるいは、作業の内容と当該作業の優先度を含む作業情報を表現する2次元コードを異なる作業毎に作成しておいて、線状物Sの近傍に複数の2次元コードを配置してもよい。
2次元コード50の種類は作業の内容を示す作業情報が表現できれば特に限定されない。2次元コードは一般に、規格に従って自身の形式情報、型番情報、誤り訂正コードなどを持ち、情報の読み取りに関してファインダパターン、位置合わせパターン、タイミングパターンなどを含んでいる。2次元コードとしては、好ましくはマトリクス系の2次元コードを用いる。マルチロー系など他の2次元コードと比べて、符号化できる情報量が多いからである。マトリクス系の2次元コードの例としては、QRコード(登録商標)が挙げられる。
次に、本実施形態のロボット制御方法を図2に示した工程フローに沿って説明する。
まず、線状物Sを適当に、図1では容器40に複数本収容して配置する(S10)。線状物Sは1本だけを配置してもよいし、同種のものだけを複数本配置してもよいし、類似のものを混ぜて複数本配置してもよい。同種の線状物とは、すべての特徴を共通する線状物をいう。類似の線状物とは、多くの特徴を共通するが、特徴の1つまたはいくつかが異なる線状物をいう。例えば、絶縁被覆の色のみが異なる電線は類似の線状物である。
2次元コード50を線状物Sの近傍に、線状物との位置関係を正確に規定することなく配置する(S11)。図1では、線状物Sを収容した容器40の前に配置している。例えば、各種の作業に対応する作業情報を表現する2次元コードをカードに印刷して多数準備しておけば、所要のカードを適宜選択して線状物Sの近くに置くことができる。
第1視覚センサ30で2次元コード50を読み取る(S12)。第1視覚センサ30は2次元コードを撮影して画像を制御部32に送信し、制御部は2次元コード50が表現する作業内容を取得する。作業内容は、例えば「赤い線状物の先端から5mmの位置を線状物の長さ方向と直角に把持する」などの如くである。
次に、第2視覚センサ31で2次元コードの近傍にある線状物Sを撮像し、作業情報に基づいて、線状物Sの中からロボット20の作業の目標とする特定線状物S*を選択する(S13)。線状物Sが1本しかない場合は、その線状物Sを特定線状物S*として選択する。その際、その線状物が作業情報の指定する線状物の条件に合致するか否かを確認してから特定線状物S*として選択してもよい。
類似の線状物Sが混在している場合は、まず作業情報が指定する条件に合致する線状物を抽出し、その中から特定線状物S*を選択する。例えば、赤い線状物が指定された場合は、第2視覚センサ31にカラーカメラを用い、特許文献2に記載された方法によって画像から赤い線状物を抽出することができる。
同種の線状物Sが複数本配置されていた場合や、作業情報に基づいて抽出した線状物が複数本あった場合は、その中から作業を行うのに適した線状物を特定線状物S*として選択する。例えば、第2視覚センサ31が取得した画像を用いて複数の線状物Sの3次元形状を測定し、特許文献1に記載された方法によって、ロボットハンド21で把持する際に周辺の他の線状物と干渉しない線状物を特定線状物S*として選択することができる。あるいは、同じく特許文献1に記載された方法によって、ロボットハンド21の待機位置に最も近い線状物を特定線状物S*として選択することができる。ロボットハンドの待機位置とは、ロボットハンドが線状物を把持する動作の前に待機する位置であり、線状物に干渉しない位置である。つまり、第2視覚センサで線状物の3次元計測を行うことによって、同種の線状物が多数ある中から作業のしやすい特定線状物をより的確に選択できる。
制御部32が特定線状物S*の把持作業に必要なロボットハンド21の移動経路等を計算し、そのために必要なロボット20の関節の動きを計算して、ロボットの動作に関する動作情報を生成する(S14)。線状物Sの3次元形状が計算されている場合は、作業情報と線状物の3次元形状に基づいて、より的確な動作情報を生成できる。
生成された動作情報に基づいて制御部32がロボットに動作を指示し、その指示に従ってロボット20が特定線状物S*を把持する(S15)。このとき、第2視覚センサ31で特定線状物S*の位置を監視しながら、ロボット20の動作にフィードバックしてもよい。
本実施形態のロボット制御方法の効果は次のとおりである。まず、本実施形態では、2次元コード50を線状物Sの近くに配置することで線状物に対する作業をロボット20に指示できる。このとき、2次元コード50を正確な位置に配置する必要がないので、ロボットへの指示を極めて簡単に行うことができる。また、本実施形態の方法では、2次元コードを作業の対象となる物体に直接印刷したり貼付したりする必要がない。そのため、線状物のようにその物自体の上に2次元コードを設けるのが難しい場合にも適用できるし、物体の数が多いときにも1つの2次元コードで作業を指示できるので手間が少ない。また、定形の物体を対象とする特許文献3や特許文献4と異なり、本実施形態の方法では、柔軟な線状物のように不定形の物体を対象とする場合でもロボットに適切な動作の指示を与えることができる。
本実施形態のロボット制御方法が対象とする線状物としては、各種電気・電子製品の配線に用いられる電線、ワイヤーハーネスのワイヤー、各種線状の医療器具、その材料となる樹脂チューブや金属線、ケーブル、光ファイバーなどが挙げられる。また、線状物は作業対象の例として示したものであって、本発明のロボット制御方法は線状物以外の物体にも適用可能である。例えば、フラットケーブルやテープのような帯状物に対しても線状物と同様に適用可能である。
本発明のロボット制御方法の第2実施形態を図3および図4に基づいて説明する。本実施形態では、ロボットハンドが把持した線状物をワークとして、所定の挿入穴に挿入する作業を例として説明する。
図3を参照して、本実施形態のロボット制御方法を実施するための全体システム11は、第1実施形態の全体システム10と同じく、ロボット20、第1視覚センサ30、第2視覚センサ31および制御部32を有する。ロボット20、第1視覚センサ30、第2視覚センサ31および制御部32の機能や好ましい態様は第1実施形態と同様である。作業対象となる部位である挿入穴Hの近くに2次元コード51が配置されている。ワークWはロボットハンド21に把持され、挿入穴Hに挿入される。
挿入穴Hは、例えば、メス型コネクタの接続穴や、加工装置に設けられた材料の供給孔などである。
2次元コード51が表現する作業情報には、例えば、作業の目標とすべき部位の特徴に加えて、作業の各種パラメータが含まれる。具体的には、作業内容には挿入の目標とする挿入穴の開口形状、左から何番目であるかなどの挿入穴の特徴と、ワークWを挿入する挿入深さや挿入角度、挿入穴の深さなどを含むことができる。
次に、本実施形態のロボット制御方法を図4に示した工程フローに沿って説明する。
まず、挿入穴Hが適当に配置される(S20)。図3では2つの挿入穴Hが配置されているが、挿入穴は1つだけまたは3以上が配置されていてもよい。2次元コード51を挿入穴Hの近傍に、挿入穴との位置関係を正確に規定することなく配置する(S21)。図3では、挿入穴Hが設けられた箱の前面に貼付されている。
第1視覚センサ30で2次元コード51を読み取る(S22)。第1視覚センサ30は2次元コードを撮影して画像を制御部32に送信し、制御部は2次元コード51が表現する作業内容を取得する。
次に、第2視覚センサ31で2次元コード51の近傍にある挿入穴Hを撮像して、作業情報に基づいて、挿入穴Hの中からロボット20の作業の目標とする特定挿入穴H*を選択する(S23)。2次元コード51の近傍に挿入穴が1つしかない場合は、第2視覚センサによってその位置を確認して、その挿入穴Hを特定挿入穴H*として選択する。その際、その挿入穴が作業情報の指定する挿入穴の条件に合致するか否かを確認してから特定挿入穴H*として選択してもよい。また、挿入穴の位置が予め決められた位置に固定されている場合は、第2視覚センサで撮像しなくてもよい。
制御部32がワークWの特定挿入穴H*への挿入作業に必要なロボットハンド21の移動経路等を計算し、そのために必要なロボット20の関節の動きを計算して、ロボットの動作に関する動作情報を生成する(S24)。動作情報に基づいて制御部32がロボットに動作を指示し、その指示に従ってロボット20がワークを特定挿入穴H*に挿入する(S25)。このとき、第2視覚センサ31で作業の進捗を監視してもよい。例えば、第2視覚センサ31でワークWの状態を見ながら、作業情報に含まれる挿入深さと比較することにより、挿入作業が完了したかどうかを判定してもよい。
本発明のロボット制御方法の第3実施形態を図5に基づいて説明する。本実施形態では、第1実施形態と同じく、電線等の線状物をロボットハンドで把持する作業を例として説明する。
図5を参照して、本実施形態のロボット制御方法を実施するための全体システム10は、第1実施形態と同じであり、ロボット20、第1視覚センサ30、第2視覚センサ31および制御部32を有する。
本実施形態では、線状物Sが同種のもの毎に容器41~43に分別して収容されている。つまり容器41に収容された線状物Sはすべて同種の線状物であり、容器42または容器43に収容された線状物Sとは類似であるが同種ではない。
2次元コード52は、作業情報に加えて、特定線状物S*として選択すべき線状物Sの概略位置に関する情報を表現する。概略位置に関する情報は、第2視覚センサ31で線状物を撮像したときに、線状物の複数のまとまりのうちで、特定線状物S*を選択すべき線状物Sの一群がどれであるかを画像上で特定できる情報であればよい。概略位置に関する情報の例は、左から2番目の容器に収容されている、「B」とマークされた容器に収容されているなどである。これにより、図2の特定線状物S*の選択工程S13において、特定線状物S*として選択すべき線状物の概略位置に関する情報によって示される一群の線状物、例えば容器42に収容された線状物の中から特定線状物S*が選択される。
あるいは、収容された線状物の種類を表現する2次元コードを各容器に貼付しておいて、作業の目標とする線状物の種類を2次元コード52が表現する作業情報で指定してもよい。作業時には、第1視覚センサ30、第2視覚センサ31、または他の視覚センサを用いて各容器の2次元コードを読み取ることで、作業情報で指定された種類の線状物が収容された容器を知ることができる。
本実施形態は、作業情報が指定する線状物Sの条件が第2視覚センサ31のみによっては判別できないときにも適用できる。例えば線状物Sである電線が、外観は同一でありながらその電線の不純物濃度や導電率が異なる場合に、かかる特性に基づいて作業の目標となる線状物が指定される場合などである。
本発明のロボット制御方法の第4実施形態を説明する。本実施形態では、ロボットは保持した線状物のワークを、作業情報が指定する座標位置まで移動させる。作業位置は次工程へワークを受け渡すための受け渡し位置であり、当該受け渡し位置まで移動させた線状物を次工程のロボットがロボットハンドで把持するか、または作業員が受け取る。2次元コードの設置位置は特に限定されないが、例えば受け渡し位置の近傍に適宜設置すればよい。このような作業を行う場合、従来は、ロボットのティーチングプログラムを変更することで作業位置を変更する必要があったが、本実施形態であれば、2次元コードを変更することで簡単に受け渡し位置を指示できる。これにより、製造ラインの変更や、人とロボットが協働する場合でも柔軟にロボットを制御することができる。
本発明は、上記の実施形態に限定されるものではなく、その技術的思想の範囲内で種々の変形が可能である。
10、11 ロボット制御方法を実施するための全体システム
20 ロボット
21 ロボットハンド
30 第1視覚センサ
31 第2視覚センサ
32 制御部
40~43 容器
50~52 2次元コード
S 線状物(物体)
S* 特定線状物(特定物体)
H 挿入穴(部位)
H* 特定挿入穴(特定部位)
W ワーク
20 ロボット
21 ロボットハンド
30 第1視覚センサ
31 第2視覚センサ
32 制御部
40~43 容器
50~52 2次元コード
S 線状物(物体)
S* 特定線状物(特定物体)
H 挿入穴(部位)
H* 特定挿入穴(特定部位)
W ワーク
Claims (9)
- 物体または部位に対して作業を行うロボットを制御する方法であって、
前記作業の内容を示す作業情報を表現する2次元コードを前記物体または部位の近傍に配置する工程と、
第1視覚センサを用いて前記作業情報を読み取る工程と、
第2視覚センサで前記物体または部位を撮像し、取得した画像と前記作業情報に基づいて動作情報を生成する工程と、
前記動作情報に基づいて制御部が前記ロボットに動作を指示して、前記ロボットが前記物体または部位に対して前記作業を行う工程と、
を有するロボット制御方法。 - 前記動作情報を生成する工程は、前記取得した画像と前記作業情報に基づいて前記物体または部位の中から前記作業の目標とする特定物体または特定部位を選択する工程を含む、
請求項1に記載のロボット制御方法。 - 前記物体または部位は同種のもの毎に分別して配置されており、
前記2次元コードは前記特定物体または特定部位として選択すべき前記物体または部位が配置された概略位置をさらに表現する、
請求項2に記載のロボット制御方法。 - 前記第2視覚センサがステレオカメラであり、前記物体または部位の3次元形状に基づいて前記動作情報が生成される、
請求項1~3のいずれか一項に記載のロボット制御方法。 - 前記第1視覚センサおよび前記第2視覚センサとして1台の視覚センサが兼用される、
請求項1~4のいずれか一項に記載のロボット制御方法。 - 前記物体が線状物であり、
前記作業が前記ロボットの有するロボットハンドによって前記線状物の1本を把持することであり、
前記作業情報が少なくとも前記ロボットハンドによる前記線状物の把持位置および把持角度を含む、
請求項1~5のいずれか一項に記載のロボット制御方法。 - 前記部位が挿入穴であり、
前記作業が前記ロボットの有するロボットハンドが保持するワークを前記挿入穴に挿入することであり、
前記作業情報が少なくとも前記ワークを前記挿入穴に挿入する挿入深さおよび挿入角度を含む、
請求項1~5のいずれか一項に記載のロボット制御方法。 - 前記部位が作業位置であり、
前記作業が前記ロボットの有するロボットハンドが保持するワークを前記作業位置まで移動させることであり、
前記作業情報が前記作業位置を示す3次元座標を含む、
請求項1~6のいずれか一項に記載のロボット制御方法。 - 前記作業情報が当該作業の優先度を含み、
それぞれ異なる作業情報を表現する複数の前記2次元コードを前記物体または部位の近傍に配置する、
請求項1~8のいずれか一項に記載のロボット制御方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020148511A JP2022042867A (ja) | 2020-09-03 | 2020-09-03 | ロボット制御方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020148511A JP2022042867A (ja) | 2020-09-03 | 2020-09-03 | ロボット制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022042867A true JP2022042867A (ja) | 2022-03-15 |
Family
ID=80641721
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020148511A Pending JP2022042867A (ja) | 2020-09-03 | 2020-09-03 | ロボット制御方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022042867A (ja) |
-
2020
- 2020-09-03 JP JP2020148511A patent/JP2022042867A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7467041B2 (ja) | 情報処理装置、情報処理方法及びシステム | |
US10052765B2 (en) | Robot system having augmented reality-compatible display | |
JP5778311B1 (ja) | ピッキング装置およびピッキング方法 | |
DE102018213985B4 (de) | Robotersystem | |
JP4763074B2 (ja) | ロボットのツール先端点の位置の計測装置および計測方法 | |
EP3222393A1 (en) | Automated guidance system and method for a coordinated movement machine | |
CN101510084B (zh) | 用于处理误差可视化表示的系统和方法 | |
WO2011039542A1 (en) | Method and system of programming a robot | |
JP2016099257A (ja) | 情報処理装置及び情報処理方法 | |
JP2009107043A (ja) | 把持装置および把持装置制御方法 | |
EP2481529B1 (en) | Method for manipulating a series of successively presented identical workpieces by means of a robot. | |
JP2011110620A (ja) | ロボットの動作を制御する方法およびロボットシステム | |
CN110871441A (zh) | 感测系统、作业系统、增强现实图像的显示方法、以及存储有程序的存储介质 | |
JP2020189356A (ja) | ワーク識別方法 | |
CN109278021A (zh) | 一种用于抓取薄壁壳体类工件的机器人工具系统 | |
CN114670189B (zh) | 存储介质、以及生成机器人的控制程序的方法及系统 | |
CN114502337B (zh) | 机器人系统以及工件的三维模型的形成方法 | |
JP2022042867A (ja) | ロボット制御方法 | |
CN111757796B (zh) | 线状物的前端移动方法、控制装置以及三维照相机 | |
CN109129480A (zh) | 一种基于双目3d定位的机械臂加工系统 | |
CN112805127A (zh) | 用于创建机器人控制程序的方法和设备 | |
JP7106571B2 (ja) | 線状物把持方法および制御装置 | |
JP2020183019A (ja) | ワーク識別方法 | |
JP2012228757A (ja) | ロボット教示方法、ロボット教示装置およびプログラム | |
US20230053168A1 (en) | Control device for robot, robot system, control method, and program |