JP2022543865A - 製品をハンドリングするための自動化システム及び方法 - Google Patents
製品をハンドリングするための自動化システム及び方法 Download PDFInfo
- Publication number
- JP2022543865A JP2022543865A JP2022507822A JP2022507822A JP2022543865A JP 2022543865 A JP2022543865 A JP 2022543865A JP 2022507822 A JP2022507822 A JP 2022507822A JP 2022507822 A JP2022507822 A JP 2022507822A JP 2022543865 A JP2022543865 A JP 2022543865A
- Authority
- JP
- Japan
- Prior art keywords
- product
- handling
- training
- image data
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000012549 training Methods 0.000 claims abstract description 86
- 238000013179 statistical model Methods 0.000 claims abstract description 29
- 230000007246 mechanism Effects 0.000 claims abstract description 19
- 238000004590 computer program Methods 0.000 claims abstract description 7
- 230000008569 process Effects 0.000 claims abstract description 6
- 238000012545 processing Methods 0.000 claims description 13
- 230000033001 locomotion Effects 0.000 claims description 9
- 238000004458 analytical method Methods 0.000 claims description 4
- 238000013527 convolutional neural network Methods 0.000 claims description 4
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 238000013135 deep learning Methods 0.000 claims description 3
- 238000004836 empirical method Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 claims description 2
- 238000007637 random forest analysis Methods 0.000 claims description 2
- 230000000306 recurrent effect Effects 0.000 claims description 2
- 230000002787 reinforcement Effects 0.000 claims description 2
- 238000012706 support-vector machine Methods 0.000 claims description 2
- 238000012360 testing method Methods 0.000 claims description 2
- 230000008901 benefit Effects 0.000 description 3
- 230000001276 controlling effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000000875 corresponding effect Effects 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000000853 adhesive Substances 0.000 description 1
- 230000001070 adhesive effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000000593 degrading effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003754 machining Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40053—Pick 3-D object from pile of objects
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40514—Computed robot optimized configurations to train ann, output path in real time
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40564—Recognize shape, contour of object, extract position and orientation
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40607—Fixed camera to observe workspace, object, workpiece, global
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Geometry (AREA)
- Manipulator (AREA)
Abstract
本発明は、自動化システムを使用して製品(17)をハンドリングする方法及び自動化システム(10)に関し、製品は、自動化システムの制御装置(12)の画像センサ(18)によって捕捉され、自動化システムのハンドリング装置(11)のハンドリング機構(13)によってハンドリングされ、制御装置は、画像センサからのセンサ画像データを処理し、制御装置のデータメモリ(21)に含まれるトレーニングデータセットによって指定されるようにハンドリング装置を制御し、トレーニングデータセットは、トレーニング画像データ及び/又は幾何学的データ及びそれに関連する制御命令を含み、統計モデルとして、製品のトレーニング画像データに含まれる幾何学的データのみから、そこで実行されるコンピュータプログラム製品を使用するコンピュータによって生成され、制御装置に送信される。【選択図】図1
Description
本発明は、自動化システムを使用して製品をハンドリングする方法、及び自動化システムに関し、製品は、自動化システムの制御装置の画像センサによって捕捉され、自動化システムのハンドリング装置のハンドリング機構によってハンドリングされ、制御装置は、画像センサからのセンサ画像データを処理し、制御装置のデータメモリに含まれるトレーニングデータセットによって指定されるようにハンドリング装置を制御するものに関する。
この種の方法及び自動化システムは、十分に知られており、製品をハンドリングするために一般に使用されている。これに関連して、ハンドリング装置は、ロボット、又は工作機械の把持又は搬送装置のような、製品をハンドリングするのに適した任意のタイプの機械とすることができる。ここで、製品は、ハンドリングを開始するための様々な開始位置にある様々な製品及び/又は同じタイプの製品であり得ることが必須である。各製品は画像センサ、例えばカメラ等により撮像され、画像センサのセンサ画像データは自動化システムの制御装置により処理される。ここで、制御装置は、例えば、異なる製品(場合によっては異なる位置にある)がロボットによって自動的に把持され、分類されるか、又は所定の順序で別のスポットに配置されるように、関連するロボットを制御する。ここで、制御装置は、複数の可能な製品を含むトレーニングデータセットと、ロボットを制御するためのそれに関連する制御命令を含むそれらの開始位置とを含むデータメモリを備える。このようにして、ロボットは、その位置や開始位置に関係なく、適切な把持点で自動的に製品を把持し、指定通りに扱えるようにすることができる。
トレーニングデータセットは、例えば、ロボットに以前に教示された画像データ及びそれに関連する制御命令を含むことができる。これは、ロボットが手動で製品の方に移動され、この移動が制御命令としてデータメモリに記憶されることによって達成され得る。さらに、この種のハンドリングタスクのために、いわゆる人工知能を使用することが知られている。ここでは、コンピュータがハンドリングタスクの統計モデルを生成する。様々な制御命令が、例えば、一連の可能性のある製品及びそれらの位置に対して提供され、この場合の正しい制御命令を適用するための規則は、制御命令の実際の実行又はシミュレーションによってコンピュータによって統計的に決定される。トレーニングデータセットは、ハンドリング装置又はロボットとは独立に、コンピュータを用いたシミュレーションによって収集することができる。しかしながら、ハンドリングされるべき製品の種類及び前記製品をハンドリング方法に応じて、対応するトレーニングデータセットを作成するには、個々に高い修正、したがってプログラミング労力が必要である。例えば、把持タスクが最も確実な方法で実行されると想定される場合には、把持タスクをシミュレートするために、製品の重量及び運動のダイナミクスを考慮に入れることが必要である。これは、個々の修正、したがってプログラミングの労力が非常に高いという欠点を有する。同時に、大量のデータを処理しなければならず、これは、トレーニングデータセットを生成するための技術的労力及び時間の費用をさらに増加させる。
したがって、本発明の目的は、ハンドリングタスクのための人工知能の単純化された適用を可能にする自動化システム及び自動化システムを使用して製品を処理するための方法を提案することである。
この目的は、請求項1の特徴を有する方法及び請求項18の特徴を有する自動化システムによって達成される。
自動化システムを使用して製品をハンドリングするための本発明の方法では、製品は、自動化システムの制御装置の画像センサによって捕捉され、自動化システムのハンドリング装置のハンドリング機構によってハンドリングされ、制御装置は、画像センサからのセンサ画像データを処理し、制御装置のデータメモリに含まれるトレーニングデータセットによって指定されるように、ハンドリング装置を制御し、トレーニングデータセットは、トレーニング画像データ及び/又は幾何学的データと、それに関連する制御命令とを含み、トレーニングデータセットは、製品のトレーニング画像データに含まれる幾何学的データのみから、コンピュータによって生成され、トレーニングデータセットは、そこで実行されるコンピュータプログラム製品を使用し、制御装置に送信される。
本発明による方法に使用されるハンドリング機構は、産業プロセスの一部として物体の形の製品を操作するのに適した任意のタイプの機構とすることができる。ここで、製品をハンドリングすることは、例えば、製品を機械加工することも含むことができる。さらに、画像センサは、製品の画像又はその幾何学的形状の画像を捕捉することを可能にする任意のタイプのセンサとすることができる。特に、制御装置は、画像処理によって画像センサからの実センサ画像データを処理し、ハンドリング装置は、実センサ画像データの機能として、且つ、トレーニングデータセットによって指定されるように、制御装置によって制御されることが想定される。トレーニングデータセットは、トレーニング画像データと、それに関連する制御命令とを含むか、あるいは、それぞれの製品の幾何学的データとそれに関連する制御命令とを含む。制御装置は、センサ画像データをトレーニング画像データに割り当て、又はその逆を行い、画像センサによって取り込まれた製品を、それに関連する制御命令に従ってハンドリングする。トレーニングデータセットは、コンピュータ及びそこで実行されるコンピュータプログラム製品又はソフトウェアを用いて、ハンドリング装置とは独立して収集される。ここで、トレーニングデータセットは、画像処理によってトレーニング画像データから収集される幾何データからのみソフトウェアによって生成される。特に、統計モデルは、それに関連する制御命令と共に製品のそれぞれの幾何学的データに対して生成され、この幾何学的データは、製品自体及びその位置によって決定される。適切な制御命令は、他の物理的パラメータを考慮することなく、単に幾何学的データに基づいて、様々な制御命令のシミュレートされた適用によって識別される。このため、他のパラメータを考慮しないことにより、トレーニングデータセットの簡略化されたプログラム及びより高速な計算が可能になるので、様々なアプリケーションのためのトレーニングデータセットを作成することがはるかに容易になる。したがって、自動化システムは、様々なハンドリングタスクにより容易に適合させることができ、より普遍的に使用することができる。
トレーニングデータセットは、方法の第1のステップで生成することができ、このトレーニングデータセットは、方法の第2のステップで制御装置に送信される。したがって、制御装置又はハンドリング装置とは別個の場所でコンピュータを使用してトレーニングデータセットを生成することが想定され得る。そして、コンピュータと制御装置との局所的又は空間的な分離は、例えばインターネットを介した接続があることが可能であっても、データ伝送のための接続を必ずしも必要としない。したがって、第1のステップで完了したトレーニングデータセットは、データ接続を介して制御装置に送信することもでき、次いで、制御装置は、制御のためにトレーニングデータセットを使用する。
製品をハンドリングする際に、存在する機械的変数、特に力、トルク及び/又は摩擦は、統計モデルを適用する際に無視することができる。ハンドリング機構の運動をシミュレートするときに力及びトルクを考慮することは、コンピュータの特に高い計算能力を必要とし、時間がかかる。上述したように、これらの機械的変数は考慮される必要はなく、十分に多数の使用可能なトレーニングデータセットが結果として依然として得られる。
あるいは、製品をハンドリングするとき、現在の機械的変数、特に力、トルク及び/又は摩擦は、制御装置の少なくとも1つの他のセンサによって決定することができ、統計モデルを適用するときに考慮に入れることができる。他の決定センサとして、力センサ、トルクセンサ、電流センサ、触覚センサ及び/又は圧力センサを使用することができる。このようにして、特に多数の非常に精密なトレーニングデータセットをシミュレーションによって得ることができ、ハンドリングタスク中の実際の状態に適応させることができる。さらに、他方のセンサによるトレーニング画像データにおける制御指示のための品質規格を示すことができる。これにより、実トレーニング画像データの品質を向上させることができる。
製品の実画像データ及び/又は人工的に作成された代表画像データをトレーニング画像データとして使用することができる。実画像データを使用することにより、実際の状況が実際に示されているので、トレーニングデータセットの精度を高めることができる。しかしながら、製品の人工的に作成された代表的な画像データを得ることができ、かなり少ない労力でより多くの製品を製造することができる。
統計モデルは、トレーニング画像データの指定された公差なしに生成することができる。トレーニング画像データ及び/又は幾何学的データは、意図的に指定された公差なしに、他の変数及び制御命令と共にトレーニングデータセットを計算するための統計モデルを使用して処理することができる。トレーニングデータセットを編集する際の努力は、トレーニングデータセットの品質を劣化させることなく、計算に使用されるデータの指定された公差なしに行うことによって、さらに低減可能であることが示されている。同様に、計算に使用されるデータの特定の許容範囲又は意図的な不確実性を想定することが可能である。
統計モデルは、経験的又は解析的方法を用いて生成することができる。経験的方法は、ハンドリング機構が手元のケースに対して最良の動きを行わないように、例えば、製品とその位置及び制御命令に従ったハンドリング機構の動きを一般化したものである。
統計モデルは、近似法、特にディープラーニング、畳み込みニューラルネットワーク(CNN)、再帰型ニューラルネットワーク(RNN)、確率機械、ランダムフォレスト、又はサポートベクタマシンによって生成することができる。これらの近似方法は、入力層と出力層との間に多数の中間層を有し、その内部構造がトレーニング画像データ及び制御命令を使用するトレーニングの一部として形成され得る人工ニューラルネットワークの異なる最適化方法に関する。
統計モデルは、教師付き学習及び/又は強化学習によって生成することができる。次いで、コンピュータプログラム製品又はコンピュータのソフトウェアは、統計モデル又はトレーニング画像データ及び/又はそれに関連する制御命令のための入力を生成することができ、それらのカテゴリ及び接続を認識することができる。教師付き学習では、クラスタリング方法を使用することができる。
制御装置は、製品をハンドリングするハンドリング機構のモーションシーケンスをキャプチャするように構成され、画像センサは、製品のハンドリングシーケンスをキャプチャするように構成され、制御装置は、画像センサのセンサ画像データを処理し、シーケンス及びモーションシーケンスの機能として制御装置のデータメモリに含まれるトレーニングデータセットを変更するように構成され、トレーニングデータセットの統計モデルは、変更することができる。したがって、制御装置がトレーニングデータセットを使用しているとき、又はハンドリング装置の実際の動作中に、トレーニングデータセットがさらに最適化されることを想定することができる。この最適化は、画像センサからのセンサ画像データが、画像処理によって制御装置によって処理され、制御装置の実行された制御命令と相関関係にあるという点で行うことができる。制御命令の代わりに、制御装置は、統計モデルを最適化するために、近距離センサ、力センサ、及び/又は加速度センサなど、ハンドリング機構の他のセンサを使用することもできる。ハンドリング装置のオフライン動作においてコンピュータを使用してコンパイルされたトレーニングデータセットが、統計モデルを適合させることによって、ハンドリング装置のオンライン動作においてさらに最適化され得ることが不可欠である。
制御装置は、製品ハンドリングの品質を決定し、トレーニングデータセットの統計モデルを変更するときに前記品質を考慮に入れるように構成される。製品ハンドリングの品質は、例えば、製品をハンドリングすることができない場合、又はハンドリング機構の他のセンサのセンサデータがハンドリング機構の制御命令に対応していない場合、画像センサからのセンサ画像データを介して検出することができる。例えば、製品をハンドリングするときにエラーが発生した場合、エラーの原因となるセンサ画像データ及び制御命令を、統計モデルの変更に統合することができる。
画像センサとしては、カメラ、立体カメラ、構造化照明カメラ、ライトフィールドカメラ又はライダシステムを用いることができる。ハンドリングする製品の種類によっては、製品の二次元画像で十分な場合がある。画像センサの補助を受けて当該製品の三次元画像又はモデルを得ることができるように、複数のカメラを使用することは有利である。センサ画像データの高品質を一貫して確保するために、例えば、照明状況から独立したセンサを使用することができる。上記のセンサとは別に、用途に応じて、製品を走査するための機械的センサ又は超音波センサも画像センサとして使用することができる。
したがって、それぞれの製品の2次元及び/又は3次元形状を記述するトレーニング画像データ及び/又はセンサ画像データを有利に使用することができる。
ハンドリング装置は、製品を把持し、接合し、試験し、適用し、又は機械加工するように構成される。したがって、製品のハンドリングは、製品を搬送することとは別に、製品に対して実行されるすべての操作又はアクティビティを含むものと理解される。
それぞれの製品における把持点は、トレーニング画像データ及び/又はセンサ画像データから検出することができる。ハンドリング機構が製品を把持する場合にのみ把持点を検出することは合理的である。把持は、機械的平行グリッパ、真空グリッパ、磁気グリッパ、接着グリッパ等の、一般に知られており、それぞれの製品に適したグリッパを使用して行うことができる。把持点を検出するか、又はそれらを予め選択することによって、製品のハンドリングを大幅に改善することができる。
把持点が画像処理によって決定されると有利である。把持点は、例えば、画像の特徴、いわゆる特徴マッチングアルゴリズムを比較することによって検出することができる。さらに、画像処理によって、製品及び把持点の位置特定、物体認識、及び/又は位置認識を含む座標分析を行うことができる。把持点を検出するために、座標分析は必ずしも必要ではない。
使用されるハンドリング機構は、少なくとも、2つ又は3つの空間軸で移動可能であり、好ましくは、多軸ロボットであり得る。多軸ロボットは、複数のヒンジを有することができ、ここで、距離センサ、力センサ及び/又は加速度センサをそれぞれのヒンジ内に統合することができる。これらの他のセンサは、例えば、力センサ、トルクセンサ、電流センサ、触覚センサ及び/又は圧力センサであってもよく、制御装置による製品の実ハンドリング配列の評価に使用することができる。
本発明による自動化システムは、特にロボットなどであり、製品をハンドリングするためのハンドリング機構と、ハンドリング装置を制御するための制御装置とを有するハンドリング装置を備え、制御装置は、トレーニングデータセットと、製品を取り込むための少なくとも1つの画像センサとを備え、制御装置は、画像センサからの画像センサデータを処理し、トレーニングデータセットによって指定されるようにハンドリング装置を制御するように構成され、トレーニングデータセットは、トレーニング画像データ及び/又は幾何学的データと、それに関連する制御命令とを備え、トレーニングデータセットは、製品のトレーニング画像データに含まれる幾何学的データのみから、コンピュータによって生成されるように構成され、トレーニングデータセットは、制御装置に送信されるように構成される。
本発明による自動化システムの利点に関しては、本発明による方法の利点の説明を参照されたい。自動化システムの他の有利な実施形態は、方法請求項1に従属する従属クレームの特徴の説明から明らかである。
以下、添付図面を参照して、本発明の好ましい実施形態をより詳細に説明する。
図1は、自動化システム10を示しており、これは簡略化されて図示されており、ハンドリング装置11と制御装置12とによって形成されている。ハンドリング装置11は、駆動制御装置14を有する多軸ロボット13と、容器16内に位置する異なる製品17を把持するために実現されるグリッパ15とを備える。製品17はそれぞれ異なる形状を有し、構造化されていない状態で配置され、グリッパ15によって把持され、ロボット13によってハンドリングされ、又は仕分けられる。
制御装置12は、ここではカメラ19によって実現される画像センサ18と、画像処理手段20と、トレーニングデータセットを含むデータメモリ21と、制御ユニット22とを備える。次いで、カメラ19によって、製品17の画像を撮像し、センサ画像データとして画像処理手段20に送信することができる。次いで、画像処理の一部として、製品17の位置特定又は物体認識及び把持点認識が行われる。把持点のタイプ及び位置に応じて、それに関連する制御命令がトレーニングデータセットから選択され、制御ユニット22によって駆動制御装置14に送信され、この駆動制御装置14は、関連する製品17を把持し、ハンドリングするためにロボット13又はグリッパ15の移動を開始する。
図2は、図1に示した制御装置とは独立にトレーニングデータセットを生成する方法の概略図である。第1に、トレーニング画像データ23及び制御命令24が提供され、実際のトレーニング画像データ及び制御命令、並びにコンピュータによって人工的に作成されたトレーニング画像データ及び制御命令の両方を使用することが可能である。トレーニング画像データ23及び制御命令24は、コンピュータプログラム製品又はソフトウェアとしてコンピュータ(ここでは図示せず)上で実行される統計モデル25によって処理される。統計モデル25では、近似法、例えばディープラーニングが使用され、それを用いてトレーニングデータセット26が生成される。トレーニングデータセット26は、トレーニング画像データ23及び/又はそれに関連する制御命令24を含む幾何学的データを含み、これらは統計モデル25によってトレーニング画像データ23に割り当てられている。このようにして生成されたトレーニングデータセット26は、次に、使用されるために図1の例に対応するロボットに送信することができる。
Claims (18)
- 自動化システム(10)を使用して製品(17)をハンドリングする方法であって、
前記製品は、前記自動化システムの制御装置(12)の画像センサ(18)によって捕捉され、前記自動化システムのハンドリング装置(11)のハンドリング機構(13)によってハンドリングされ、
前記制御装置は、前記画像センサによって生成されたセンサ画像データを処理し、前記制御装置のデータメモリ(21)に含まれるトレーニングデータセット(26)によって指定されるようにハンドリング装置を制御し、
前記トレーニングデータセットが、
トレーニング画像データ(23)及び/又はそれに関連する幾何学的データ並びに制御命令(24)を含み、
前記製品の前記トレーニング画像データに含まれる幾何学的データのみから、そこで実行されるコンピュータプログラム製品を使用するコンピュータによって、統計モデル(25)として生成され、
前記制御装置に送信される。
ことを特徴とする製品(17)をハンドリングする方法。 - 前記トレーニングデータセット(26)が、
第1のステップで生成され、
第2のステップで制御装置(12)に送信される
ことを特徴とする請求項1に記載の方法。 - 前記製品(17)をハンドリングするとき、現在の機械的変数、特に力、トルク及び/又は摩擦が、前記統計モデル(25)を適用するときに考慮されない
ことを特徴とする請求項1又は2に記載の方法。 - 前記製品(17)をハンドリングするとき、現在の機械的変数、特に力、トルク及び/又は摩擦が、前記制御装置(12)の少なくとも1つの他のセンサ(18)によって決定され、前記統計モデル(25)を適用するときに考慮される
ことを特徴とする請求項1又は2に記載の方法。 - 実画像データ及び/又は製品(17)の人工的に生成された代表画像データが、トレーニング画像データ(23)として使用される。
ことを特徴とする請求項1から4のいずれか1つに記載の方法。 - 前記統計モデル(25)が、前記トレーニング画像データ(23)の指定された公差なしに生成される
ことを特徴とする請求項1から5のいずれか1つに記載の方法。 - 前記統計モデル(25)が、経験的又は解析的方法を用いて生成される
ことを特徴とする請求項1から6のいずれか1つに記載の方法。 - 前記統計モデル(25)が、近似法、特にディープラーニング、畳み込みニューラルネットワーク(CNN)、再帰型ニューラルネットワーク(RNN)、確率機械、ランダムフォレスト、又はサポートベクタマシンによって生成される
ことを特徴とする請求項1から7のいずれか1つに記載の方法。 - 前記統計モデル(25)が、教師付き学習及び/又は強化学習によって生成される
ことを特徴とする請求項1から8のいずれか1つに記載の方法。 - 前記制御装置(12)が、製品(17)をハンドリングする前記ハンドリング機構(13)の動作シーケンスを取り込み、
前記画像センサ(18)が前記製品のハンドリングシーケンスを取り込み、
前記制御装置が前記画像センサのセンサ画像データを処理し、前記制御装置のデータメモリ(21)に含まれる前記トレーニングデータセット(26)をシーケンス及び動作シーケンスの機能として変更し、前記トレーニングデータセットの統計モデルが変更される
ことを特徴とする請求項1から9のいずれか1つに記載の方法。 - 前記制御装置(12)が、前記製品のハンドリングの品質を決定し、前記トレーニングデータセット(26)の前記統計モデル(25)を変更するときに前記品質を考慮に入れる
ことを特徴とする請求項10に記載の方法。 - 前記画像センサ(18)として、カメラ(19)、立体カメラ、構造光カメラ、ライトフィールドカメラ又はライダシステムが用いられる
ことを特徴とする請求項1から11のいずれか1項に記載の方法。 - トレーニング画像データ(23)及び/又はそれぞれの製品(17)の2次元及び/又は3次元形状を記述するセンサ画像データが使用される
ことを特徴とする請求項1から12のいずれか1項に記載の方法。 - 前記ハンドリング装置(11)が、前記製品(17)を把持し、接合し、試験し、適用し、又は機械加工する
ことを特徴とする請求項1から13のいずれか1項に記載の方法。 - それぞれの製品(17)における把持点が、前記トレーニング画像データ(23)及び/又はセンサ画像データから検出される
ことを特徴とする請求項1から14のいずれか1項に記載の方法。 - 前記把持点が画像処理によって決定される
ことを特徴とする請求項15記載の方法。 - 使用される前記ハンドリング機構が、少なくとも2つ又は3つの空間軸で移動可能であり、好ましくは多軸ロボット(13)である
ことを特徴とする請求項1から16のいずれか1項に記載の方法。 - 特にロボット等の、製品(17)を扱う自動化システム(10)であって、
製品(17)を扱うハンドリング機構(13)を有するハンドリング装置(11)と、
前記ハンドリング装置を制御する制御装置(12)と、
トレーニングデータセット(26)及び製品をキャプチャするための少なくとも1つの画像センサ(18)を有するデータメモリ(21)とを備え、
前記制御装置が、
前記画像センサから画像センサデータを処理し、
前記トレーニングデータセット(26)が指定したように前記ハンドリング装置を制御するように構成され、
前記トレーニングデータセットが、
トレーニング画像データ(23)及び/又はそれに関連する幾何学的データ及び制御命令(24)を含み、
製品のトレーニング画像データに含まれる幾何学的データのみから、コンピュータ上で実行可能なコンピュータプログラム製品を使用するコンピュータによって、統計モデル(25)として生成されるように構成され、
前記制御装置に送信されるように構成される
ことを特徴とする自動化システム(10)。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019121889.6 | 2019-08-14 | ||
DE102019121889.6A DE102019121889B3 (de) | 2019-08-14 | 2019-08-14 | Automatisierungssystem und Verfahren zur Handhabung von Produkten |
PCT/EP2020/063415 WO2021028084A1 (de) | 2019-08-14 | 2020-05-14 | Automatisierungssystem und verfahren zur handhabung von produkten |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022543865A true JP2022543865A (ja) | 2022-10-14 |
Family
ID=70861446
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022507822A Pending JP2022543865A (ja) | 2019-08-14 | 2020-05-14 | 製品をハンドリングするための自動化システム及び方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20220314433A1 (ja) |
EP (1) | EP4013574A1 (ja) |
JP (1) | JP2022543865A (ja) |
CN (1) | CN114269522A (ja) |
DE (1) | DE102019121889B3 (ja) |
WO (1) | WO2021028084A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021069084A1 (en) * | 2019-10-11 | 2021-04-15 | Toyota Motor Europe | Methods and systems for determining the 3d-locations, the local reference frames and the grasping patterns of grasping points of an object |
DE102021104001B3 (de) | 2021-02-19 | 2022-04-28 | Gerhard Schubert Gesellschaft mit beschränkter Haftung | Verfahren zum automatischen Ergreifen, insbesondere Umsetzen, von Gegenständen |
DE102021202759A1 (de) | 2021-03-22 | 2022-09-22 | Robert Bosch Gesellschaft mit beschränkter Haftung | Vorrichtung und Verfahren zum Trainieren eines neuronalen Netzwerks zum Steuern eines Roboters |
DE102021210749B3 (de) | 2021-09-27 | 2023-03-23 | OPTIMA pharma GmbH | Verfahren und Vorrichtung zur Überwachung einer Füll- und/oder Verschließanlage und/oder Nachverarbeitungsanlage |
DE102022212198A1 (de) | 2022-11-16 | 2024-05-16 | Kuka Deutschland Gmbh | Anpassung einer Greifsimulation durch Parameteridentifikation in der realen Welt |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4565023B2 (ja) * | 2008-07-04 | 2010-10-20 | ファナック株式会社 | 物品取り出し装置 |
CN202412277U (zh) * | 2012-02-01 | 2012-09-05 | 昆山华恒焊接股份有限公司 | 搬运机器人系统 |
JP5616478B1 (ja) * | 2013-04-18 | 2014-10-29 | ファナック株式会社 | ワークを搬送するロボットを備えるロボットシステム |
JP6429450B2 (ja) * | 2013-10-31 | 2018-11-28 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
JP2015089590A (ja) * | 2013-11-05 | 2015-05-11 | ファナック株式会社 | バラ積みされた物品をロボットで取出す装置及び方法 |
DE102016009030B4 (de) * | 2015-07-31 | 2019-05-09 | Fanuc Corporation | Vorrichtung für maschinelles Lernen, Robotersystem und maschinelles Lernsystem zum Lernen eines Werkstückaufnahmevorgangs |
DE202017106506U1 (de) * | 2016-11-15 | 2018-04-03 | Google Llc | Einrichtung für tiefes Maschinenlernen zum Robotergreifen |
JP6438512B2 (ja) * | 2017-03-13 | 2018-12-12 | ファナック株式会社 | 機械学習により補正した計測データでワークの取り出しを行うロボットシステム、計測データ処理装置および計測データ処理方法 |
JP2020530637A (ja) * | 2017-08-09 | 2020-10-22 | アレン インスティテュート | 予測タグ付けを有する画像を生成するための画像処理のためのシステム、デバイス、および方法 |
JP6695843B2 (ja) * | 2017-09-25 | 2020-05-20 | ファナック株式会社 | 装置、及びロボットシステム |
CN109760050A (zh) * | 2019-01-12 | 2019-05-17 | 鲁班嫡系机器人(深圳)有限公司 | 机器人行为训练方法、装置、系统、存储介质及设备 |
US11977384B2 (en) * | 2019-06-25 | 2024-05-07 | Lg Electronics Inc. | Control system for controlling a plurality of robots using artificial intelligence |
-
2019
- 2019-08-14 DE DE102019121889.6A patent/DE102019121889B3/de active Active
-
2020
- 2020-05-14 CN CN202080056505.3A patent/CN114269522A/zh active Pending
- 2020-05-14 EP EP20728685.7A patent/EP4013574A1/de active Pending
- 2020-05-14 JP JP2022507822A patent/JP2022543865A/ja active Pending
- 2020-05-14 US US17/633,657 patent/US20220314433A1/en active Pending
- 2020-05-14 WO PCT/EP2020/063415 patent/WO2021028084A1/de unknown
Also Published As
Publication number | Publication date |
---|---|
CN114269522A (zh) | 2022-04-01 |
DE102019121889B3 (de) | 2020-11-19 |
EP4013574A1 (de) | 2022-06-22 |
WO2021028084A1 (de) | 2021-02-18 |
US20220314433A1 (en) | 2022-10-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022543865A (ja) | 製品をハンドリングするための自動化システム及び方法 | |
Brito et al. | A machine learning approach for collaborative robot smart manufacturing inspection for quality control systems | |
JP2020532440A (ja) | オブジェクトをロバストに把持し、ターゲティングするためのロボットシステムおよび方法 | |
Liu et al. | Symbiotic human-robot collaboration: multimodal control using function blocks | |
Rahman | Cognitive cyber-physical system (C-CPS) for human-robot collaborative manufacturing | |
Schyja et al. | A modular and extensible framework for real and virtual bin-picking environments | |
Zhang et al. | Industrial robot programming by demonstration | |
Ellgass et al. | A digital twin concept for manufacturing systems | |
Huang et al. | Grasping novel objects with a dexterous robotic hand through neuroevolution | |
Slavov | Object size estimation with industrial robot gripper using neural network and machine learning | |
Jha et al. | Generalizable human-robot collaborative assembly using imitation learning and force control | |
Flores et al. | Concept of a learning knowledge-based system for programming industrial robots | |
Sanfilippo et al. | A mapping approach for controlling different maritime cranes and robots using ANN | |
CN110914021A (zh) | 带有用于执行至少一个工作步骤的操纵设备的操纵装置以及方法和计算机程序 | |
Pichler et al. | Towards robot systems for small batch manufacturing | |
Gonnochenko et al. | Coinbot: Intelligent robotic coin bag manipulation using artificial brain | |
Bogue Consultant | Random bin picking: has its time finally come? | |
Yuvethieka Sri | Balancing Assembly Line Using Collaborative Robots in Modern Manufacturing Industry under Improvements of Efficiency and Ergonomics Study | |
Chen et al. | Object Recognition and Localization for Pick-and-Place Task using Difference-based Dynamic Movement Primitives | |
Shukla et al. | Robotized grasp: grasp manipulation using evolutionary computing | |
Gomes et al. | Deep Reinforcement learning applied to a robotic pick-and-place application | |
Chandan et al. | Intelligent Robotic Arm for Industry Applications | |
JP2022002043A (ja) | 設備監視システム | |
Pichler et al. | User centered framework for intuitive robot programming | |
Rivera-Calderón et al. | Online assessment of computer vision and robotics skills based on a digital twin |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230209 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231205 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240625 |