JP2009523623A - ワーク自動把持の方法と装置 - Google Patents
ワーク自動把持の方法と装置 Download PDFInfo
- Publication number
- JP2009523623A JP2009523623A JP2008551815A JP2008551815A JP2009523623A JP 2009523623 A JP2009523623 A JP 2009523623A JP 2008551815 A JP2008551815 A JP 2008551815A JP 2008551815 A JP2008551815 A JP 2008551815A JP 2009523623 A JP2009523623 A JP 2009523623A
- Authority
- JP
- Japan
- Prior art keywords
- virtual
- actual
- work
- gripping
- workpiece
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 53
- 238000004364 calculation method Methods 0.000 claims description 38
- 208000024891 symptom Diseases 0.000 claims 1
- 238000012360 testing method Methods 0.000 description 23
- 238000012545 processing Methods 0.000 description 16
- 238000005259 measurement Methods 0.000 description 14
- 230000000007 visual effect Effects 0.000 description 10
- 238000005192 partition Methods 0.000 description 6
- 238000012876 topography Methods 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000004088 simulation Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000010276 construction Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1671—Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40038—Black list, exclude operation on workpiece when not possible, collision, error
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40053—Pick 3-D object from pile of objects
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
- Image Processing (AREA)
Abstract
【選択図】 図1
Description
−段階S1からS3 3次元視覚センサを用いて作業状況の画像を獲得し、得られた画像内に検出された各ワークに対して、センサの照準距離を計算する。得られた計測データwk(照準距離)はメモリに蓄積される。
−段階S4からS5 スキャニングとレンジファインダを用いた高さ測定によって、バラ積みされた一山の物体の表面のトポグラフィーを得る。この表面のトポグラフィー(データhij)は、メモリに保存される。
−段階S6 データwk(照準距離)と、表面のトポグラフィーについてのデータ(hij)から、表面のトポグラフィー上での各ワークの位置を決定する(各ワークに対応する各照準距離wkと、トポグラフィーの表面の一要素Sijとの交差による)。例えば、EP 1 428 634の図2の曲面(1個のワークが交点40で位置決定された、表面のトポグラフィー)が得られる。
−段階S7 各ワークについて、ワークの概略の姿勢(Fk)の決定。
−段階S8 把持するワークの選択。この選択は、例えば二つの基準、最も高い位置にあるワーク(基準1)、その姿勢Fkが、確実な把持に相応しいか(基準2)に応じて行われる。
−段階S9 3次元視覚センサによってより近くから計測するための、適当なロボットの位置(S8の段階で選択されたワークに近い位置)の計算。
−段階S10 段階S9において計算された近距離の計測位置における、ロボットの把持アーム(とりわけ、ロボットの把持アームに装着された3次元視覚センサ)と、環境との干渉可能性の確認。
−段階S11 干渉の問題が存在しない場合、段階S9で計算された近距離の計測位置への把持アームの移動(位置と姿勢)と、装着された3次元視覚センサによる、把持するワークの3次元の位置および空間内における姿勢の検出。
−段階S12 段階S11において実行された近距離の計測に基づく、ワーク把持のための、把持アームの位置と姿勢の決定。
−段階S13 ロボットの把持アーム(とりわけ、ロボットの把持アームに装着された3次元視覚センサ)と環境(バラ積みされた他のワークを含む)との間の干渉可能性の確認。推奨される方法は、アームがワーク把持の位置にある際、把持アームの周囲に、状況内の他のいかなる要素も存在を許されない禁止領域を設定しておくものである。干渉が検知されたら、段階S8(把持する他のワークの選択)へ戻る。
−段階S14 ロボットによるワーク把持実行のためのロボット操作。
−ワーク把持の順序の自動管理(段階S8を参照)
−把持に最適な把持装置の状態の自動管理(段階S12)
−この把持装置と環境との干渉管理(段階S10およびS11)
(a)実際の作業環境およびこの作業環境に存在する各ワーク(Pj)によって構成される実際の作業状況(RWS)の表面を、3次元座標[Nj(Xj,Yj,Zj)]の点群データ(N)[Nj(Xj,Yj,Zj)]として3次元デジタル化する。
(b)実際のワーク(Pj)および実際の作業環境についての、3次元CADのデジタルモデルを利用し、段階(a)で得られた点群データ(N)内において、バーチャルな各ワーク(P’j)、およびバーチャル作業環境を自動的に位置決定する。
(c)実際の作業状況(RWS)に対応し、また、段階(b)で位置決定されたバーチャルな各ワーク(P’j)およびバーチャル作業環境によって構成される、3次元のバーチャル作業状況(VWS)を自動的に構築する。この構築は、各々の実際のワーク(Pj)および実際の作業環境についての3次元CADのデジタルモデル、ならびに、段階(b)で決定された、バーチャルな各ワーク(P’j)とバーチャル作業環境についての位置データ[(x,y,z);(α,β,γ)]を利用することによって、自動的に実現される。
(d)段階(c)で構築されたバーチャル作業状況(VWS)内において、バーチャルなワーク(P’j)の一つを自動的に選択する。
(e)実際の把持装置へコマンドを送信し、段階(d)で選択されたバーチャルなワーク(P’j)に対応する実際のワーク(Pj)を自動的に把持する。
−実際の作業環境は2個以上の実際のワーク(Pj)を含み、段階(a)から(e)までは、実際の作業環境内にワークがなくなるまで自動的に繰り返される。
−実際の作業環境は2個以上の実際のワーク(Pj)を含む。また、段階(d)でバーチャルなワーク(P’j)の選択を最終的に許可する前に、バーチャル作業状況(VWS)において、重なり状態について事前に定めた基準を一つ以上適用し、選択したバーチャルなワーク(P’j)に対し近接のバーチャルなワークが少なくとも部分的に重なっているかどうかを予め確認する。そのバーチャルなワーク(P’j)に事前に定めた基準通りに近接のバーチャルなワークが重なっている場合には、そのワークを選択しない。
−段階(d)でバーチャルなワーク(P’j)の選択を最終的に許可する前に、バーチャル作業状況(VWS)において、少なくともそのバーチャルなワーク(P’j)とバーチャル作業環境とが干渉しないかどうか、および/あるいは、少なくともそのバーチャルなワーク(P’j)と、別の1個のバーチャルなワークとが干渉しないかどうかを予め確認し、干渉が検知された場合には、そのワークを選択しない。
−段階(d)でバーチャルなワーク(P’j)の選択を最終的に許可する前に、バーチャル作業状況(VWS)内に、実際の把持装置についての3次元CADのデジタルモデルによって定義されたバーチャルな把持装置を配置し、このバーチャルな把持装置が、前述のバーチャルなワーク(P’j)に対して、事前に定めた少なくとも一つの把持の形状に置かれるようにした際、少なくともこのバーチャルな把持装置と、バーチャルな作業環境とが干渉しないかどうか、および/あるいは、少なくともこのバーチャルな把持装置と、別の1個のバーチャルなワークとが干渉しないかどうかを確認し、干渉が検知された場合には、そのワーク(P’j)を選択しない。
−この方法は、バラ積みされた複数のワークの全体の中から、1個以上の実際のワーク(Pj)を自動的に把持するために使用される。
−実際の作業環境内に置かれた1個以上の実際のワーク(Pj)を自動的に把持するためのシステム。この把持システムは1個以上の実際の把持装置を備えた1台の把持ロボット、少なくとも把持ロボットにコマンドを送信できるコマンド装置、先に定義された把持方法の段階(a)を実現するための3次元デジタル化装置、および、先に定義された把持の方法の(b)から(d)までの段階を自動的に実現するための演算手段を含む。コマンド装置は、演算手段によって得られた演算データに基づいて、先に定義された把持の方法の段階(e)を実現するように構成されている。
−記憶媒体上あるいはメモリ内に搭載され、一方で、把持のシステムについてプログラムすることが可能な演算手段によって自動的に実行される演算プログラム。この把持システムはさらに、1個以上の実際の把持装置を備えた1台の把持ロボット、少なくとも把持ロボットにコマンドを送信できるコマンド装置、および、1個の実際の物体、ないしは複数の実際の物体の全体の表面を、3次元座標[Nj(Xj,Yj,Zj)]の点群データ(N)として3次元にデジタル化することのできる3次元デジタル化装置を含んでいる。この演算プログラムは、前述の演算手段によって実行された際に、先に定義された把持の方法の(b)から(d)までの段階を自動的に実現できるものである。
本発明のその他の特徴と利点は、発明の好ましい実現例についての以下の詳細な説明において、より明らかになるだろう。この説明は模範例であり、発明に制限を課したり、また網羅的であったりするものではなく、付記された図面を参照するものである。図面は以下の通りである。
把持システム
この把持システムは以下のものを含む。
−多関節把持ロボット1
−3次元デジタル化装置2
−コマンド装置3
−演算手段4
把持ロボット1の構造は周知のものである。このロボットは多関節のアーム10を持ち、その先端には把持のための可動式ハンド、およびアーム10の動きを操作するための駆動装置が備えられている。
3次元デジタル化装置2は一般的に、3次元点群データとして、物体の表面をデジタル化できるものである。
−レーザーの光源と組み合わされた1台以上のカメラ(CCDタイプないしその他)。このカメラは、視野内に置かれたデジタル化すべき物体の表面に反射した光束を捕えることができるものである。このタイプのカメラは三角測定によって機能する。
−遠隔測定によって機能し、レーザー光源、超音波、マイクロ波等を用いるセンサ。
ロボットのコマンド装置3はよく知られており、詳述しない。一般にはコントロールボードという形を取り、1個のプロセッサ、少なくとも1個のメモリを含み、そのメモリ内に「コマンド」と呼ばれるプログラムが記憶され、このプロセッサによって実行される。また入出力インターフェイスを備えている。コマンド装置3のプロセッサは、ロボットの駆動装置、把持装置11の操作手段、3次元デジタル化装置2の画像処理装置20と通信するものである。
−画像処理装置20に送信されたコマンドによって3次元デジタル化を開始する。
−ロボットの多関節アーム10の運動を制御し、把持ロボット1の把持ハンド11を操作(開/閉)する。
演算手段4は、あらゆるタイプのプログラム可能なプロセッシングユニットによって実装可能なものである。例えば、マイクロプロセッサやマイクロコントローラを搭載したプリント基板によって演算手段を実装することができる。肝心なのは、このプロセッシングユニットが1個のプロセッサ、プロセッサによって実行可能なローカルプログラムを記憶できる少なくとも1個のメモリ、そしてコミュニケーションインターフェイス(入出力)を含むことである。このインターフェイスによって、プロセッサは、コマンド装置3のプロセッサ、そして図1の個別例においては画像処理装置20のプロセッサとも、通信が可能である。
本発明の自動把持の方法の実用の一個別例を、これより図13のフローチャートを参照しながら詳述する。
コマンド装置3は、画像処理装置20にデジタル化のコマンドを送信する。画像処理装置20のプロセッサは3次元デジタルセンサ21を操作し、実際の作業状況RWSの表面を自動的に3次元デジタル化する(デジタル化プログラムの実行)。
この段階131以降、演算手段4のプロセッサが実行する演算プログラムによって、把持の方法が実現される。
−実際のワークPjについての3次元CADのデジタルモデルを含むファイル、或いはその同等物。
−実際の作業環境、すなわち付記された図例における容器5についての3次元CADのデジタルモデルを含むファイル、或いはその同等物。
(1)3次元座標[Nj(Xj,Yj,Zj)]の点群データ(N)と、(実際のワークPjおよび実際の作業環境5についての)3次元CADのデジタルモデルを対応させる最初の段階。
(2)3次元CADのデジタルモデルに対し、3次元座標[Nj(Xj,Yj,Zj)]の点群データ(N)のアライメントを行う第2段階。
既知の様々な技術によって、3次元座標[Nj(Xj,Yj,Zj)]の点群データN内で、バーチャルなワークP’jあるいはバーチャル作業環境5’の近似的な位置(x,y,z)と方向(α,β,γ)を認識することができる。これら様々な技術の基本原則は、実際のワークPjあるいは実際の作業環境5について、それらが空間内に占める位置と方向とは独立した、局所的形状の特徴を抽出することにある。その際に考慮される基準は、3次元座標[Nj(Xj,Yj,Zj)]の点群データNと3次元CADのデジタルモデルから算出される。
対応の段階(1)を終えると、それぞれのバーチャルなワークP’jおよびバーチャル作業環境5’に対して、位置決定(位置と方向)を可能とする1個または複数の解が、場合に応じて見出されたことになる。
位置決定の段階131の後、演算手段4は、位置(x,y,z)と方向(α,β,γ)のような空間位置データをメモリ内に含んでおり、バーチャル作業環境5’とそれぞれのバーチャルなワークP’jを、3次元デジタルセンサ21の3次元座標内に位置決定することができる。
バーチャル作業状況VWS内にバーチャルなワークP’jが存在しなければ、作業環境(容器5)は空であるため、演算手段4は演算プログラムを停止する。把持の方法は完了したことになる。
バーチャル作業状況VWS内に、1個以上のバーチャルなワークP’jが存在する場合、演算手段4はこれらのワークの中に(前回のプロセスでの段階135において)まだ選別されなかったワークが少なくとも1個は存在するかどうかを確認する。
テストの結果が否定(位置決定された全てのワークは既に選別されている)の場合、演算手段4はエラー・コード等を生成し、演算プログラムは中断されることになる。
テストの結果が肯定(まだ選別されていないワークが存在する)の場合、演算手段4は演算プログラムを引き続き実行する(段階135以降)。
演算手段4は、まだ選別されていない1個または複数のワークの中から、事前に定められた1個または複数の選択基準を適用し、自動的にバーチャルなワークP’jを選択する。
演算手段4は、前の段階132において構築されたバーチャル作業状況VWS内で、事前に定めた重なりについての基準を少なくとも一つ以上適用して、段階135において選択されたバーチャルなワークP’jが、少なくとも部分的に他の隣接するワークが重なっていないか、自動的に確認する。
付記された図中の実際のワークPjは、把持装置11によって、事前に定めたはっきり区別される二通りの形状で把持されうる。それぞれ図3、図4に描かれた個別例においては、二つの形状は把持ハンド11の間隔の調節に違いが認められる。この把持の二通りの形状は、演算手段4のメモリ内に事前に登録されている。それぞれの把持の形状に関して、使用者は、例えば周知のCADのソフトを用いて、ワークに対する把持装置の位置を定義する。把持するワークに合わせたそれぞれの把持形状について、座標系内での把持装置の立体的な変形がメモリに保存される。把持装置のCADのデジタルモデルは、全ての形状に対して同一であることも、異なっていることも(同じハンドの開き具合を変える、異なるハンドを利用する、等)可能である。
一度把持の形状が選択されると、演算手段4は、段階134で選択されたワークP’jとの関係において、段階132で構築されたバーチャル作業状況(VWS)内で、段階138で選択された把持の形状に一致するように、(実際の把持装置11に対応する)バーチャルな把持装置11’を配置する。
−図7上には、バーチャル作業状況VWS内で、バーチャルな把持装置11’が、選択されたバーチャルなワークP’3に対して、第1の形状にあるシミュレーション。
−図8上には、バーチャル作業状況VWS内に、バーチャルな把持装置11’が、選択されたバーチャルなワークP’4に対して、第1の形状にあるシミュレーションの結果。
−図9上には、バーチャル作業状況VWS内に、バーチャルな把持装置11’が、選択されたバーチャルなワークP’5に対して、第2の形状にあるシミュレーションの結果。
−図10上には、バーチャル作業状況VWS内に、バーチャルな把持装置11’が、選択されたバーチャルなワークP’1に対して、第2の形状にあるシミュレーションの結果。
(i)選択されたバーチャルなワークP’jに対して配置されたバーチャルな把持装置11’によって構成される表面全体と、他の1個以上のバーチャルなワークの表面との間に交差が存在するかどうか。
(ii)選択されたバーチャルなワークP’jに対して配置されたバーチャルな把持装置11’によって構成される表面全体と、バーチャルな作業環境5’の表面との間に交差が存在するかどうか。
この段階141はコマンド装置3のプロセッサによって実行される(コマンド・プログラム)。
Claims (8)
- 実際の作業環境(5)内に置かれた、少なくとも1個の実際のワーク(Pj)を、実際の把持装置(11)を利用して自動的に把持するための、以下の連続した段階を含むことを特徴とする方法:
(a)実際の作業環境(5)およびこの作業環境に存在する各ワーク(Pj)によって構成される実際の作業状況(RWS)の表面を、3次元座標[Nj(Xj,Yj,Zj)]の点群データ[Nj(Xj,Yj,Zj)](N)として自動的に3次元デジタル化する;
(b)(a)の段階で得られた点群データ(N)内において、バーチャルな各ワーク(P’j)、およびバーチャル作業環境(5’)を自動的に位置決定する、その際、実際のワーク(Pj)および実際の作業環境(5)についての、3次元CADのデジタルモデルを利用する;
(c)実際の作業状況(RWS)に対応し、また、(b)の段階で位置決定されたバーチャルな各ワーク(P’j)およびバーチャル作業環境(5’)によって構成される、3次元のバーチャル作業状況(VWS)を自動的に構築する、この構築は、各々の実際のワーク(Pj)および実際の作業環境(5)についての3次元CADのデジタルモデル、ならびに、(b)の段階で決定された、バーチャルな各ワーク(P’j)とバーチャル作業環境(5’)についての位置データ[(x,y,z);(α,β,γ)]を利用することによって、自動的に実現される;
(d)(c)の段階で構築されたバーチャル作業状況(VWS)内において、バーチャルなワーク(P’j)の一つを自動的に選択する;
(e)実際の把持装置(11)へコマンドを送信し、(d)の段階で選択されたバーチャルなワーク(P’j)に対応する実際のワーク(Pj)を自動的に把持する。 - 実際の作業環境(5)が、2個以上の実際のワーク(Pj)を含むこと、および、(a)から(e)までの段階が、実際の作業環境(5)内にワークがなくなるまで自動的に繰り返されることを特徴とする、請求項1に記載の方法。
- 実際の作業環境(5)が2個以上の実際のワーク(Pj)を含むこと、および、(d)の段階においてバーチャルなワーク(P’j)の選択を最終的に許可する以前に、バーチャル作業状況(VWS)において、重なり状態について事前に定めた基準の一つ以上を適用して、そのバーチャルなワーク(P’j)に対し近接のバーチャルなワークが少なくとも部分的に重なっているかどうかを予め確認し、そのバーチャルなワーク(P’j)に事前に定めた基準通りに近接のバーチャルなワークが重なっている場合には、そのワークを選択しないことを特徴とする、請求項1あるいは請求項2に記載の方法。
- (d)の段階においてバーチャルなワーク(P’j)の選択を最終的に許可する以前に、バーチャル作業状況(VWS)において、少なくともそのバーチャルなワーク(P’j)とバーチャル作業環境(5’)とが干渉しないかどうか、および/あるいは、少なくともそのバーチャルなワーク(P’j)と、別の1個のバーチャルなワークとが干渉しないかどうかを予め確認し、干渉が検知された場合には、そのワークを選択しないことを特徴とする、請求項1から請求項3の内のいずれか1項に記載の方法。
- (d)の段階においてバーチャルなワーク(P’j)の選択を最終的に許可する以前に、バーチャル作業状況(VWS)内に、実際の把持装置(11)についての3次元CADのデジタルモデルによって定義されたバーチャルな把持装置(11’)を配置し、このバーチャルな把持装置(11’)が、前述のバーチャルなワーク(P’j)に対して、事前に定めた少なくとも一つの把持の形状に置かれるようにした際、少なくともこのバーチャルな把持装置(11’)と、バーチャルな作業環境(5’)とが干渉しないかどうか、および/あるいは、少なくともこのバーチャルな把持装置(11’)と、別の1個のバーチャルなワークとが干渉しないかどうかを確認し、干渉が検知された場合には、そのワーク(P’j)を選択しないことを特徴とする、請求項1から請求項4の内のいずれか1項に記載の方法。
- バラ積みされた複数のワークの全体の中から、1個以上の実際のワーク(Pj)を自動的に把持するために使用されることを特徴とする、請求項1から請求項5の内のいずれか1項に記載の方法。
- 実際の作業環境(5)内に置かれた1個以上の実際のワーク(Pj)を自動的に把持するためのシステム:この把持システムは1個以上の実際の把持装置(11)を備えた1台の把持ロボット(1)、および、少なくとも把持ロボット(1)にコマンドを送信できるコマンド装置(3)を含み、請求項1から請求項6の内のいずれか1項において定義された把持の方法の段階(a)を実現するための3次元デジタル化装置(2)、および、請求項1から請求項6の内のいずれか1項において定義された把持の方法の(b)から(d)までの段階を自動的に実現するための演算手段(4)を含むことを特徴とし、かつ、演算手段(4)によって得られた演算データに基づいて、請求項1から請求項6の内のいずれか1項において定義された把持の方法の段階(e)を実現するために、コマンド装置(3)が構成されていることを特徴とする。
- 記憶媒体上あるいはメモリ内に搭載され、一方で、把持システムについてプログラム可能な演算手段(4)によって自動的に実行可能な演算プログラム:この把持システムはさらに、1個以上の実際の把持装置(11)を備えた1台の把持ロボット(1)、少なくとも把持ロボット(1)にコマンドを送信できるコマンド装置(3)、および、1個の実際の物体、ないしは複数の実際の物体の全体の表面を、3次元座標[Nj(Xj,Yj,Zj)]の点群データ(N)[Nj(Xj,Yj,Zj)]として3次元にデジタル化することのできる3次元デジタル化装置(2)を含んでおり、この演算プログラムは、前述の演算手段(4)によって実行された際に、請求項1から請求項6の内のいずれか1項において定義された把持の方法の(b)から(d)までの段階を自動的に実現できるものである。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0600569 | 2006-01-23 | ||
FR0600569A FR2896441B1 (fr) | 2006-01-23 | 2006-01-23 | Procede et systeme permettant la prehension automatisee de piece(s) |
PCT/FR2007/000114 WO2007083039A2 (fr) | 2006-01-23 | 2007-01-22 | Procede et systeme permettant la prehension automatisee de piece(s) |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009523623A true JP2009523623A (ja) | 2009-06-25 |
JP5281414B2 JP5281414B2 (ja) | 2013-09-04 |
Family
ID=37124071
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008551815A Active JP5281414B2 (ja) | 2006-01-23 | 2007-01-22 | ワーク自動把持のための方法及びシステム |
Country Status (6)
Country | Link |
---|---|
EP (1) | EP1976671B1 (ja) |
JP (1) | JP5281414B2 (ja) |
CN (1) | CN101370624B (ja) |
CA (1) | CA2674317C (ja) |
FR (1) | FR2896441B1 (ja) |
WO (1) | WO2007083039A2 (ja) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011167815A (ja) * | 2010-02-19 | 2011-09-01 | Ihi Corp | 物体認識ロボットシステム |
JP2015147256A (ja) * | 2014-02-04 | 2015-08-20 | セイコーエプソン株式会社 | ロボット、ロボットシステム、制御装置、及び制御方法 |
WO2018105121A1 (ja) * | 2016-12-09 | 2018-06-14 | トーヨーカネツソリューションズ株式会社 | 物品探りあて把持装置 |
JP2018144164A (ja) * | 2017-03-03 | 2018-09-20 | 株式会社キーエンス | ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器 |
JP2018144162A (ja) * | 2017-03-03 | 2018-09-20 | 株式会社キーエンス | ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器 |
CN109318226A (zh) * | 2017-08-01 | 2019-02-12 | 欧姆龙株式会社 | 机器人控制装置、机器人控制方法及存储介质 |
KR20190053850A (ko) * | 2016-09-28 | 2019-05-20 | 제롬 그호부와 | 로봇 손을 이용해 크레이트에 오브젝트를 자동화 적재하는 방법 |
WO2020153299A1 (ja) * | 2019-01-25 | 2020-07-30 | 株式会社ソニー・インタラクティブエンタテインメント | ロボット制御システム |
WO2022264726A1 (ja) * | 2021-06-15 | 2022-12-22 | 三菱電機株式会社 | 搬送システム、物品の搬送を制御するためにコンピュータで実行される方法、および、当該方法をコンピュータに実行させるプログラム |
US12103162B2 (en) | 2019-01-25 | 2024-10-01 | Sony Interactive Entertainment Inc. | Robotic device having an image analysis system |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4226623B2 (ja) | 2006-09-29 | 2009-02-18 | ファナック株式会社 | ワーク取り出し装置 |
DE102007026956A1 (de) | 2007-06-12 | 2008-12-18 | Kuka Innotec Gmbh | Verfahren und System zum Roboter geführten Depalettieren von Reifen |
JP2010094777A (ja) * | 2008-10-16 | 2010-04-30 | Fuji Electric Systems Co Ltd | 遠隔操作支援装置 |
US8442304B2 (en) * | 2008-12-29 | 2013-05-14 | Cognex Corporation | System and method for three-dimensional alignment of objects using machine vision |
DE102009009569B4 (de) * | 2009-02-19 | 2019-12-19 | Daimler Ag | Verfahren zum Ermitteln einer Teilfläche eines Bauteils |
FR2945136A1 (fr) * | 2009-05-04 | 2010-11-05 | Turbomeca | Structure de donnees d'une nomenclature |
JP6092530B2 (ja) | 2012-06-18 | 2017-03-08 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
JP5670397B2 (ja) * | 2012-08-29 | 2015-02-18 | ファナック株式会社 | バラ積みされた物品をロボットで取出す装置及び方法 |
JP6015282B2 (ja) * | 2012-09-21 | 2016-10-26 | オムロン株式会社 | シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム |
JP5754454B2 (ja) * | 2013-03-18 | 2015-07-29 | 株式会社安川電機 | ロボットピッキングシステム及び被加工物の製造方法 |
JP2015089590A (ja) * | 2013-11-05 | 2015-05-11 | ファナック株式会社 | バラ積みされた物品をロボットで取出す装置及び方法 |
DE102016212695B4 (de) * | 2016-05-31 | 2019-02-21 | Siemens Aktiengesellschaft | Industrieroboter |
AT518859B1 (de) * | 2016-08-12 | 2018-02-15 | Qness Gmbh | Verfahren und Vorrichtung zur Härteprüfung |
CN107742199A (zh) * | 2017-10-17 | 2018-02-27 | 东华大学 | 一种考虑结构件几何特征的物料清点系统 |
DE102018205669B4 (de) * | 2018-04-13 | 2021-12-23 | Kuka Deutschland Gmbh | Aufnehmen von Nutzlasten mittels eines robotergeführten Werkzeugs |
CN110480684A (zh) * | 2018-07-10 | 2019-11-22 | 肇庆市高新区晓靖科技有限公司 | 一种机械手的无死角识别器 |
CN111376239B (zh) * | 2018-12-29 | 2023-06-27 | 希姆通信息技术(上海)有限公司 | 机器人的抓取方法及系统 |
FR3108183B1 (fr) * | 2020-03-13 | 2022-02-25 | Orano Ds Demantelement Et Services | Procédé de réalisation automatique d’une opération sur un objet avec un outil porté par un système polyarticulé |
EP3989164A1 (en) | 2020-10-26 | 2022-04-27 | Purple S.r.l. a socio unico | Method for identifying a discontinuity on the surface of an object |
CN112917486B (zh) * | 2021-01-21 | 2022-06-14 | 江苏科技大学 | 一种基于无人机的船舶外板智能喷涂路径自动规划方法 |
WO2024187346A1 (en) * | 2023-03-13 | 2024-09-19 | Abb Schweiz Ag | Method for determining gripping sequence, controller, and computer readable storage medium |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09167234A (ja) * | 1995-12-15 | 1997-06-24 | Okayama Univ | Cad情報を用いた3次元認識手法及び装置 |
JP2004188562A (ja) * | 2002-12-13 | 2004-07-08 | Fanuc Ltd | ワーク取出し装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5568593A (en) * | 1994-01-13 | 1996-10-22 | Ethicon, Inc. | Robotic control system for a needle sorting and feeding apparatus |
DE10080012B4 (de) * | 1999-03-19 | 2005-04-14 | Matsushita Electric Works, Ltd., Kadoma | Dreidimensionales Verfahren zum Erkennen von Gegenständen und System zum Aufnehmen eines Gegenstandes aus einem Behältnis mit Verwendung des Verfahrens |
JP3300682B2 (ja) * | 1999-04-08 | 2002-07-08 | ファナック株式会社 | 画像処理機能を持つロボット装置 |
JP3805310B2 (ja) * | 2003-01-30 | 2006-08-02 | ファナック株式会社 | ワーク取出し装置 |
JP3930490B2 (ja) * | 2004-04-23 | 2007-06-13 | ファナック株式会社 | 物品取出し装置 |
-
2006
- 2006-01-23 FR FR0600569A patent/FR2896441B1/fr not_active Expired - Fee Related
-
2007
- 2007-01-22 JP JP2008551815A patent/JP5281414B2/ja active Active
- 2007-01-22 WO PCT/FR2007/000114 patent/WO2007083039A2/fr active Application Filing
- 2007-01-22 CN CN2007800028927A patent/CN101370624B/zh active Active
- 2007-01-22 EP EP07718289.7A patent/EP1976671B1/fr active Active
- 2007-01-22 CA CA2674317A patent/CA2674317C/fr active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09167234A (ja) * | 1995-12-15 | 1997-06-24 | Okayama Univ | Cad情報を用いた3次元認識手法及び装置 |
JP2004188562A (ja) * | 2002-12-13 | 2004-07-08 | Fanuc Ltd | ワーク取出し装置 |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011167815A (ja) * | 2010-02-19 | 2011-09-01 | Ihi Corp | 物体認識ロボットシステム |
JP2015147256A (ja) * | 2014-02-04 | 2015-08-20 | セイコーエプソン株式会社 | ロボット、ロボットシステム、制御装置、及び制御方法 |
JP7026102B2 (ja) | 2016-09-28 | 2022-02-25 | ジェローム グロスボワ, | グリッパーロボットを使用して物体を箱に自動的に装填する方法 |
KR102444067B1 (ko) | 2016-09-28 | 2022-09-16 | 제롬 그호부와 | 로봇 손을 이용해 크레이트에 오브젝트를 자동화 적재하는 방법 |
KR20190053850A (ko) * | 2016-09-28 | 2019-05-20 | 제롬 그호부와 | 로봇 손을 이용해 크레이트에 오브젝트를 자동화 적재하는 방법 |
JP2019529128A (ja) * | 2016-09-28 | 2019-10-17 | ジェローム グロスボワ, | グリッパーロボットを使用して物体を箱に自動的に装填する方法 |
WO2018105121A1 (ja) * | 2016-12-09 | 2018-06-14 | トーヨーカネツソリューションズ株式会社 | 物品探りあて把持装置 |
JPWO2018105121A1 (ja) * | 2016-12-09 | 2019-12-12 | トーヨーカネツソリューションズ株式会社 | 物品探りあて把持装置 |
JP7027335B2 (ja) | 2016-12-09 | 2022-03-01 | トーヨーカネツ株式会社 | 物品探りあて把持装置 |
JP2018144164A (ja) * | 2017-03-03 | 2018-09-20 | 株式会社キーエンス | ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器 |
JP2018144162A (ja) * | 2017-03-03 | 2018-09-20 | 株式会社キーエンス | ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器 |
CN109318226A (zh) * | 2017-08-01 | 2019-02-12 | 欧姆龙株式会社 | 机器人控制装置、机器人控制方法及存储介质 |
JP7116901B2 (ja) | 2017-08-01 | 2022-08-12 | オムロン株式会社 | ロボット制御装置、ロボット制御方法及びロボット制御プログラム |
JP2019025618A (ja) * | 2017-08-01 | 2019-02-21 | オムロン株式会社 | ロボット制御装置、ロボット制御方法及びロボット制御プログラム |
JP2020116711A (ja) * | 2019-01-25 | 2020-08-06 | 株式会社ソニー・インタラクティブエンタテインメント | ロボット制御システム |
WO2020153299A1 (ja) * | 2019-01-25 | 2020-07-30 | 株式会社ソニー・インタラクティブエンタテインメント | ロボット制御システム |
JP7309371B2 (ja) | 2019-01-25 | 2023-07-18 | 株式会社ソニー・インタラクティブエンタテインメント | ロボット制御システム |
US12103162B2 (en) | 2019-01-25 | 2024-10-01 | Sony Interactive Entertainment Inc. | Robotic device having an image analysis system |
WO2022264726A1 (ja) * | 2021-06-15 | 2022-12-22 | 三菱電機株式会社 | 搬送システム、物品の搬送を制御するためにコンピュータで実行される方法、および、当該方法をコンピュータに実行させるプログラム |
JP7499967B2 (ja) | 2021-06-15 | 2024-06-14 | 三菱電機株式会社 | 搬送システム、物品の搬送を制御するためにコンピュータで実行される方法、および、当該方法をコンピュータに実行させるプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN101370624A (zh) | 2009-02-18 |
WO2007083039A3 (fr) | 2007-09-13 |
EP1976671B1 (fr) | 2013-09-18 |
FR2896441A1 (fr) | 2007-07-27 |
FR2896441B1 (fr) | 2009-07-03 |
WO2007083039A2 (fr) | 2007-07-26 |
CN101370624B (zh) | 2011-04-13 |
CA2674317C (fr) | 2015-05-26 |
EP1976671A2 (fr) | 2008-10-08 |
CA2674317A1 (fr) | 2007-07-26 |
JP5281414B2 (ja) | 2013-09-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5281414B2 (ja) | ワーク自動把持のための方法及びシステム | |
CN110640730B (zh) | 生成用于机器人场景的三维模型的方法和系统 | |
US11511421B2 (en) | Object recognition processing apparatus and method, and object picking apparatus and method | |
US10335951B2 (en) | Information processing apparatus, information processing method, robot control apparatus, and robot system | |
JP6586532B2 (ja) | ロボットの把持のための深層機械学習方法および装置 | |
JP7154815B2 (ja) | 情報処理装置、制御方法、ロボットシステム、コンピュータプログラム、及び記憶媒体 | |
Nieuwenhuisen et al. | Mobile bin picking with an anthropomorphic service robot | |
JP5835926B2 (ja) | 情報処理装置、情報処理装置の制御方法、およびプログラム | |
JP5458885B2 (ja) | 物体検出方法と物体検出装置およびロボットシステム | |
WO2021177239A1 (ja) | 取り出しシステム及び方法 | |
US20220024037A1 (en) | Robot control apparatus and method for learning task skill of the robot | |
JP2017136677A (ja) | 情報処理装置、情報処理方法、ロボット制御装置及びロボットシステム | |
JP2004295223A (ja) | 画像処理装置及びロボットシステム | |
JP6598814B2 (ja) | 情報処理装置、情報処理方法、プログラム、システム、および物品製造方法 | |
WO2020190166A1 (ru) | Способ и система захвата объекта с помощью роботизированного устройства | |
JP6632656B2 (ja) | 干渉判定装置、干渉判定方法、コンピュータプログラム | |
JP2018144144A (ja) | 画像処理装置、画像処理方法、及びコンピュータプログラム | |
CN112512754A (zh) | 对工业机器人编程的方法 | |
JP7454132B2 (ja) | ロボットシステムの制御装置、ロボットシステムの制御方法、コンピュータ制御プログラム、及びロボットシステム | |
CN110914021A (zh) | 带有用于执行至少一个工作步骤的操纵设备的操纵装置以及方法和计算机程序 | |
JP2018179859A (ja) | 画像処理装置、画像処理方法、及びコンピュータプログラム | |
US12097627B2 (en) | Control apparatus for robotic system, control method for robotic system, computer-readable storage medium storing a computer control program, and robotic system | |
WO2022123850A1 (ja) | 制御装置、制御方法、プログラム | |
KR102452315B1 (ko) | 딥러닝과 마커를 이용한 비전인식을 통한 로봇 제어장치 및 그 방법 | |
CN112824060B (zh) | 加工路径生成装置及其方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20091207 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110706 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110712 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20110929 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20111006 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120706 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20120913 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20120921 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130517 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130524 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 5281414 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |