JP2021167060A - 人間の実演によるロボット教示 - Google Patents
人間の実演によるロボット教示 Download PDFInfo
- Publication number
- JP2021167060A JP2021167060A JP2021062636A JP2021062636A JP2021167060A JP 2021167060 A JP2021167060 A JP 2021167060A JP 2021062636 A JP2021062636 A JP 2021062636A JP 2021062636 A JP2021062636 A JP 2021062636A JP 2021167060 A JP2021167060 A JP 2021167060A
- Authority
- JP
- Japan
- Prior art keywords
- hand
- robot
- image
- work
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 241000282414 Homo sapiens Species 0.000 title claims abstract description 86
- 238000000034 method Methods 0.000 claims abstract description 84
- 230000036544 posture Effects 0.000 claims description 78
- 210000003811 finger Anatomy 0.000 claims description 75
- 210000003813 thumb Anatomy 0.000 claims description 42
- 239000003550 marker Substances 0.000 claims description 28
- 238000010191 image analysis Methods 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 9
- 238000013528 artificial neural network Methods 0.000 claims description 7
- 210000004247 hand Anatomy 0.000 claims description 7
- 230000009466 transformation Effects 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 210000001145 finger joint Anatomy 0.000 claims description 3
- 230000006870 function Effects 0.000 claims description 3
- 238000009434 installation Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 13
- 230000008569 process Effects 0.000 description 12
- 230000000007 visual effect Effects 0.000 description 10
- 210000000988 bone and bone Anatomy 0.000 description 9
- 238000001514 detection method Methods 0.000 description 9
- 238000004458 analytical method Methods 0.000 description 8
- 229910003460 diamond Inorganic materials 0.000 description 6
- 239000010432 diamond Substances 0.000 description 6
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000007792 addition Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000001788 irregular Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000004513 sizing Methods 0.000 description 2
- 239000000243 solution Substances 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 210000003484 anatomy Anatomy 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0081—Programme-controlled manipulators with master teach-in means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B25/00—Models for purposes not provided for in G09B23/00, e.g. full-sized devices for demonstration purposes
- G09B25/02—Models for purposes not provided for in G09B23/00, e.g. full-sized devices for demonstration purposes of industrial processes; of machinery
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39546—Map human grasps to manipulator grasps
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40116—Learn by operator observation, symbiosis, show, watch
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40532—Ann for vision processing
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Manipulator (AREA)
- Numerical Control (AREA)
Abstract
【課題】カメラからの画像を用いた人間の実演に基づいて操作を実施するようにロボットに教示する方法を提供する。【解決手段】この方法は、2Dカメラ又は3Dカメラが、ワークを把持して移動させる人間の手を検出し、手とワークの画像を分析して、手の姿勢及び位置に等しいロボット把持部の姿勢及び位置と、ワークの対応する姿勢及び位置とを判定する教示段階を含む。次に、ワークの姿勢及び位置に対する計算された把持部の姿勢及び位置からロボットプログラミングコマンドを生成する。再生段階では、カメラはワークの姿勢及び位置を識別し、プログラミングコマンドにより、実演したようにロボットが把持部を動かして、ワークを取り出して、移動させて、設置する。このほか、人間の手のカメラ画像を使用してロボットの動きをリアルタイムで制御する遠隔操作モードを開示する。【選択図】図1
Description
本開示は、産業用ロボットプログラミングの分野、さらに具体的には、単一のカメラが人間の手によるワークの把持及び移動を検出し、手の姿勢に相当する把持姿勢を判定し、計算された把持姿勢からロボットプログラミングコマンドを生成する教示段階をはじめとして、ワークの取り出し、移動及び設置の操作を実施するようにロボットをプログラミングする方法に関する。
産業用ロボットを使用して、製造、組み立て及び材料移動のさまざまな操作を繰り返し実施することは周知である。しかし、コンベア上で不規則な位置と方向にあるワークを取り出し、容器又は別のコンベアにワークを移動するなど、かなり単純な操作でさえも、実施するようにロボットに教示することは、従来の方法を使用すると、直感的ではなかったり、時間がかかったり、及び/又はコストがかかったりした。
ロボットには伝統的に、教示ペンダントを使用する人間の操作者によって上記のタイプのピックアンドプレース操作を実施するように教示してきた。教示ペンダントは、ロボットとその把持部がワークを把持するのに正しい位置及び向きになるまで、「X方向に軽く押す」、「把持部を局所的なZ軸回りに回転させる」など、増分移動を実施するようにロボットに指示するために、操作者が使用する。次に、ロボットの構成と、ワークの位置及び姿勢とがロボットコントローラによって記録されて、「取り出し」操作に使用される。次に、ほぼ同じ教示ペンダントコマンドを使用して、「移動」及び「設置」の操作を定義する。しかし、ロボットをプログラミングするために教示ペンダントを使用することには、特に専門家でない操作者にとって、直感的ではなく、エラーが発生しやすく、時間がかかることがよくある。
ピックアンドプレース操作を実施するようにロボットに教示する別の既知の技術には、モーションキャプチャシステムの使用が挙げられる。モーションキャプチャシステムは、作業セル周りに配置された複数のカメラから構成されて、操作者がワークを操作するときに、人間の操作者及びワークの位置及び向きを記録する。操作者及び/又はワークには、操作が実施されるときに、カメラ画像内の操作者及びワーク上の重要な場所をさらに正確に検出するために、一意に認識可能なマーカドットが貼付されている場合がある。しかし、このタイプのモーションキャプチャシステムは、コストがかかり、記録された位置が正確になるように、正確に設定し、構成するのは困難で時間がかかる。
上記の状況に照らして、人間の操作者が実施するのが簡単で直感的である改良されたロボット教示技術が必要である。
本開示の教示に従って、単一のカメラからの画像を用いて、人間の実演に基づいて操作を実施するようにロボットを教示し、制御するための方法を説明し、図示する。この方法は、ワークを把持して移動させる人間の手を単一のカメラが検出し、手とワークの画像を分析して、手の姿勢及び位置に相当するロボットの把持部の姿勢及び位置と、ワークの対応する姿勢及び位置とを判定する教示段階を含む。2Dカメラ又は3Dカメラのいずれかを使用するための技術を開示する。次に、ワークの姿勢及び位置に対する計算された把持部の姿勢及び位置から、ロボットプログラミングコマンドを生成する。再生段階では、カメラはワークの姿勢及び位置を識別し、プログラミングコマンドにより、ロボットが把持部を動かして、人間の手が実演するようにワークを取り出して、移動させ、設置するようにする。このほか、人間の手のカメラ画像を使用してロボットの動きをリアルタイムで制御する遠隔操作モードを開示する。
現在開示している装置及び方法の追加の特徴が、添付の図面と併せて、以下の説明及び添付の特許請求の範囲から明らかになるであろう。
単一のカメラを使用して人間の実演によってロボットを教示することを対象とする本開示の実施形態に関する以下の考察は、本質的に単なる例示であり、開示した装置及び技術、あるいはその用途又は使用を制限することを意図するものでは決してない。
製造、組み立て、材料移動のさまざまな操作に産業用ロボットを使用することは周知である。ロボット操作の既知のタイプの1つが、「取り出し、移動及び設置」として知られている場合がある。この場合、ロボットが第1の場所から部品又はワークを取り出し、部品を移動して第2の場所に設置する。第1の場所は、金型から取り出したばかりの部品など、不規則に方向付けられた部品が流れるコンベアベルトであることがよくある。第2の場所は、異なる操作につながる別のコンベアであっても、輸送容器であってもよいが、いずれの場合も、部品は特定の場所に設置され、第2の場所での特定の姿勢に方向付けられる必要がある。
上記のタイプの取り出し、移動及び設置の操作を実施するには、典型的には、カメラを使用して、入ってくる部品の位置及び向きを判定し、指型の把持部、あるいは磁気又は吸盤把持部を使用して特定の方法で部品を把持するようにロボットに教示する必要がある。部品の向きに応じて部品を把持する方法をロボットに教示することを、伝統的に、教示ペンダントを使用して人間の操作者によって実施してきた。教示ペンダントは、ロボット及びその把持部が、ワークを把持するのに正しい位置及び向きになるまで、「X方向に軽く押す」又は「把持部を局所的なZ軸回りに回転させる」など、増分移動を実施するようにロボットに指示するために操作者が使用する。次に、ロボットの構成及びワークの位置及び姿勢が、ロボットコントローラによって記録されて、「取り出し」操作に使用される。次に、ほぼ同じ教示ペンダントコマンドを使用して、「移動」及び「設置」の操作を定義する。しかし、ロボットをプログラミングするための教示ペンダントの使用は、特に専門家ではない操作者にとっては、直感的ではなく、エラーが発生しやすく、時間がかかることがよくある。
ロボットに取り出し、移動及び設置の操作を実施するように教示する別の既知の技術には、モーションキャプチャシステムの使用が挙げられる。モーションキャプチャシステムは、作業セル周りに配置された複数のカメラから構成されて、操作者がワークを操作するときに、人間の操作者とワークの位置及び向きを記録する。操作者及び/又はワークは、操作が実施されるときに、カメラ画像内の操作者及びワーク上の重要な場所をさらに正確に検出するために、一意に認識可能なマーカドットが貼付されている場合がある。しかし、このタイプのモーションキャプチャシステムはコストがかかり、記録された位置が正確になるように正確に設定し、構成するのは困難で時間がかかる。
本開示は、単一のカメラを使用して、部品の把持及び移動の自然な行動を実施する人間の画像を取得し、人の手の画像及び部品に対するその位置を分析して、ロボットプログラミングコマンドを生成する技術を提供することによって、既存のロボット教示方法の限界を克服する。
図1は、本開示の一実施形態による、人間の手の画像を分析して、指型ロボット把持部の対応する位置及び向きを判定する方法を示す図である。手110が、その手自体に取り付けられるように定義された手座標系120を有する。手110は、親指先端114を備えた親指112と、人差し指先端118を備えた人差し指116とを備える。親指112及び人差し指116上の他の点、例えば、親指112及び人差し指116の基部の場所並びに親指112及び人差し指116の第1の指関節の場所などがこのほか、カメラ画像にて識別されてもよい。
点122を、親指112の基部と人差し指116の基部との間の中間に位置づける。ここで、点122は、手座標系120の原点として定義される。手座標系120の向きは、ロボット把持部の向きとの相関に適した任意の慣習を使用して定義されてもよい。例えば、手座標系120のY軸は、親指112及び人差し指116の平面(その平面は点114、点118及び点122によって定義される)に直交すると定義されてもよい。このため、X軸及びZ軸は、親指112及び人差し指116の平面内にある。さらに、Z軸は、親指112及び人差し指116によって形成される角度(角度114−122−118)を二等分するものとして定義されてもよい。次に、X軸の向きは、既知のY軸とZ軸から右手の法則によって見つけられてもよい。上記のように、ここで定義されている慣習は単なる例示であり、代わりに他の座標系の向きを使用してもよい。重要なのは、座標系の位置及び向きを、手の主要な認識可能な点に基づいて定義してもよく、座標系の位置及び向きを、ロボット把持部の位置及び向きに関連付けることができるということである。
(図1には示しておらず、後に考察する)カメラを使用して、手110の画像を提供してもよい。ここで、次に画像を分析して、指関節と共に親指先端114及び人差し指先端118、ひいては、原点位置122及び手基準座標系120の向きをはじめとする、親指112及び人差し指116の(作業セル座標系内などの)空間位置を判定することができる。図1では、手基準座標系120の場所及び向きは、ロボット160に取り付けられた把持部150の把持部座標系140に相関している。把持部座標系140は、手基準座標系120の原点122に対応する原点142と、人差し指先端118及び親指先端114にそれぞれ対応する点144及び点146とを有する。このため、指型把持部150の2本の指は、把持部座標系140のX−Z平面内にあり、このときZ軸は、角度146−142−144を二等分している。
把持部座標系140の原点142はこのほか、ロボット160のツール中心点として定義される。ツール中心点は、点であって、その位置及び向きがロボットコントローラに認識されている点である。ここで、コントローラは、ロボット160にコマンド信号を提供して、ツール中心点及びその関連する座標系(把持部座標系140)を、定義された場所及び向きに移動させることができる。
図2は、本開示の一実施形態による、人間の手の画像を分析して、磁気又は吸盤タイプのロボット把持部の対応する位置及び向きを決定する方法を示す図である。図1は、可動指を備えた機械式把持部の向きに手の姿勢を関連付ける方法を示しているのに対し、図2は、吸引力又は磁力のいずれかを備える部品の平坦な表面によって部品を取り出す平坦な把持部(例えば円形)に手の姿勢を関連付ける方法を示している。
この場合も、手210が親指212及び人差し指216を備える。親指212が部品220と接触する場所に点214を位置づける。人差し指216が部品220と接触する場所に点218を位置づける。点230を、点214と点218との間の中間に存在するものとして定義する。ここで、点230は、ロボット260上の表面把持部250のツール中心点(TCP)240に対応する。図2に示す表面把持部250の場合、把持部250の平面は、指関節と指先の検出に基づいて、線214−218を含み、親指212及び人差し指216の平面に直交する平面として定義されてもよい。把持部250のツール中心点240は、上記のように、点230に対応する。これは、手210の位置及び姿勢に対応する表面把持部250の場所及び向きを全体的に定義する。
図3は、本開示の一実施形態による、人間の手のカメラ画像を使用してピックアンドプレース操作を実施するようにロボットに教示するためのシステム300及びステップを示す図である。図3に示す教示段階は、作業セル302にて実施される。作業セル302は、教示ステップの画像を撮影するためのカメラ310を備える。カメラ310は、これまでに考察した指先、親指先端及び指関節などの手の特定の点及び特徴の座標を識別することができる限り、3次元(3D)カメラ又は2次元(2D)カメラであってもよい。手の姿勢検出に3Dカメラを使用するための技術と、手の姿勢検出に2Dカメラを使用するための別の技術とについて以下で考察する。カメラ310は、部品移動活動(以下で考察するステップ(1)−(3)の全部)が実施されている作業セル302の部分の画像を提供するように構成される。
カメラ310は、ロボットコントローラ320と通信する。コントローラ320は、教示ステップの画像を分析し、以下で考察するようにロボットプログラミングコマンドを生成する。ここで、ロボットプログラミングコマンドは、再生段階中にピックアンドプレース操作を実施するロボットの運動を制御するために使用される。このほか、カメラ310とコントローラ320との間に別個のコンピュータを設けることがあり得る。ここで、この別個のコンピュータは、カメラ画像を分析し、把持部位置をコントローラ320に伝達する。図3の教示段階は、3つのステップから構成される。取り出しステップ(ステップ(1))では、ワークの位置及び姿勢(姿勢は向きと交換可能な用語)を判定し、ワークを把持する手の位置及び姿勢を判定する。移動ステップ(ステップ(2))では、ワークが取り出し場所から設置場所に移動するときに、ワークと手の位置を追跡する。設置ステップ(ステップ(3))では、ワークが、その目的の(設置)場所に設置されたときに、ワークの位置及び姿勢を判定する。3つのステップについて、以下で詳細に考察する。
ステップ(1)(取り出し)では、カメラ画像を使用して、ワーク330の位置及び姿勢を識別する。ワークがコンベア上で入ってくる方向に流れている場合、ワーク330の位置の1つの座標(Zなど)を、コンベア位置指数に従って追跡する。図3に示すワーク330は単純な立方体である。しかし、ワーク330の任意のタイプ又は形状を、カメラ画像から識別してもよい。例えば、ワーク330が特定の射出成形部品であることが知られており、コンベア上で任意の不規則な向き及び位置を有し得る場合、カメラ310からの画像を分析して、ワーク330の主要な特徴を識別し、そのような特徴からワーク座標系332の位置及び向きを判定することができる。
さらにステップ(1)(取り出し)では、カメラ画像をこのほか、ワーク330を把持するときの手340の位置及び姿勢を識別するために使用する。手340の画像は、図1に関して上記で考察され、以下で詳細(2つの異なる技術)に説明する方法で、手座標系342の位置及び向きを判定するために分析される。手340は、矢印344が示す方向にてワーク330に接近する。点350に示すように親指先端がワーク330に接触し、指先がワーク330に接触すると(この接触点は見えない)、コントローラ320は、この特定の画像からの全データを取り出しデータとして保存する。取り出しデータは、そのワーク座標系332によって定義されるようなワーク330の位置及び姿勢と、その手座標系342によって定義されるような手340の位置及び姿勢とを含む。
ステップ(2)(移動)では、カメラ画像を使用して、ワーク330とハンド340の両方が経路360に沿って移動するときの位置を追跡する。ワーク330及び手340の複数の画像を記録して、経路360を定義する。これは直線ではない場合がある。例えば、経路360は、長く、広範囲に及ぶ曲線を含んでもよく、あるいは経路360は、ワーク330をある種の障壁を越えて上方に移動させることを含んでもよい。いずれの場合でも、経路360は、移動ステップ中のワーク330及び手340の位置(及び場合によっては向き)を定義する複数の点を含む。これまでに考察したものと同じ技術を使用して、カメラ画像からワーク座標系332の位置及び姿勢と、手座標系342の位置及び姿勢とを識別する。手の姿勢の判定技術についても、以下で詳細に考察する。
ステップ(3)(設置)では、カメラ画像を使用して、矢印370が示すように目的の場所に設置された後のワーク330の(そのワーク座標系332によって定義される)最終の位置及び姿勢を識別する。これまでに考察したものと同じ技術を使用して、カメラ画像からワーク座標系332の位置及び姿勢を識別する。親指先端と指先がワーク330との接触を断ち切ると、コントローラ320は、この特定の画像からのワーク座標系データを設置データとして保存する。設置データはこのほか、ワーク330が移動を停止したことに基づいて記録され保存されてもよい。即ち、ワーク座標系332は、ある期間(1−2秒など)、まったく同じ位置及び姿勢にある。
図4は、本開示の一実施形態による、人間の手及びワークのカメラ画像を使用してピックアンドプレース操作を実施するようにロボットに教示するための方法のフローチャート図400である。フローチャート図400は、図3に示すように、取り出しステップ(右側)、移動ステップ(中央)及び設置ステップ(左側)に対応する3つの垂直列に配置されている。取り出しステップは、開始ボックス402から始まる。ボックス404では、ワーク330及び手340は、カメラ310からの画像にて検出される。画像の分析は、コントローラ320、あるいはコントローラ320と通信する別個のコンピュータにて実施される。ワーク座標系332の位置及び向きは、ワーク330の画像の分析から判定され、手座標系342の位置及び向きは、手340の画像の分析から判定される。
決定ダイヤモンド406では、指先(図1の親指先端114及び人差し指先端118)がワーク330に接触したかどうかが判定される。これはカメラ画像から判定される。指先がワーク330に接触すると、ワーク330及び手340の把持姿勢及び位置は、ボックス408にてコントローラ320によって記録される。ワーク330に対する手340の姿勢及び位置が識別されることが重要である。即ち、手座標系342及びワーク座標系332の位置及び向きは、作業セル座標系などのいくつかの包括的固定参照座標系に対して定義されなければならない。これにより、コントローラ320は、以下で考察するように、後の再生段階にてワークを把持するために把持部を位置決めする方法を判定することができる。
ワーク330及び手340の把持姿勢及び位置が、ボックス408にてコントローラ320によって記録された後、取り出しステップは、終了ボックス410にて終了する。次に、工程は、ボックス422にて始まる移動ステップに進む。ボックス424では、ワーク330はカメラ画像にて検出される。決定ダイヤモンド426では、ワーク330がカメラ画像にて検出されない場合、工程は、別の画像を撮影するためにボックス424に一巡して戻る。ワーク330がカメラ画像にて検出されると、ワークの位置(及び場合によっては姿勢)は、ボックス428にてコントローラ320によって記録される。
ボックス434では、手340はカメラ画像にて検出される。決定ダイヤモンド436では、手340がカメラ画像にて検出されない場合、工程は、ボックス434に一巡して戻り、別の画像を撮影する。手340がカメラ画像にて検出されると、手の位置(及び場合によっては姿勢)は、ボックス438にてコントローラ320によって記録される。(ボックス428からの)ワークの位置と(ボックス438からの)手の位置の両方が同じカメラ画像から検出され記録されると、手の位置とワークの位置とが組み合わされ、ボックス440にて記録される。手の位置とワークの位置との組み合わせは、2つの平均をとるだけで達成されてもよい。例えば、親指先端114と人差し指先端118との間の中点がワーク330の中心/原点と一致する必要がある場合、平均場所は、中点とワークの中心との間で計算することができる。
好ましくは、移動開始ボックス422から手とワークの位置の組み合わせボックス440を介して活動を繰り返すことによって、滑らかな移動経路を定義するために、移動ステップに沿った複数の位置を記録する。手の位置とワークの位置とが組み合わされてボックス440にて記録され、移動ステップ位置がそれ以上必要とされなくなった後、移動ステップは終了ボックス442にて終了する。次に、工程は、ボックス462にて始まる設置ステップに進む。
ボックス464では、ワーク330の位置は、カメラ310からの画像にて検出される。画像分析ステップの全部と同じように、ボックス464での画像の分析は、コントローラ320、あるいはコントローラ320に接続された図形プロセッサ、あるいは必要に応じて中間コンピュータ上で実施される。決定ダイヤモンド466では、ワーク330がカメラ画像内に存在しているかどうかと、ワーク330が静止しているかどうかとが判定される。これとは別に、指先がワーク330との接触を断ち切ったかどうかを判定することがあり得る。ワーク330が静止していると判定されたとき及び/又は指先がワーク330との接触を断ち切ったとき、ワーク330の目的の姿勢及び位置は、ボックス468にてコントローラ320によって記録される。設置ステップと、教示段階の全工程とは、終了ボックス470にて終了する。
図1−図4の前述の考察全体を通して、カメラ画像から手の姿勢(親指と人差し指の要点の位置)を検出し、その手の姿勢から手座標系を定義するという概念について多くの言及がなされてきた。手座標系(図1の手座標系120など)の原点及び軸配向を定義するには、手の要点の3次元(X、Y及びZ)座標を判定する必要がある。手の要点の3D座標を判定するための2つの異なる技術について、以下の考察で説明する。このような手の姿勢検出技術のいずれかを、人間の実演からロボットを教示するための全体的な方法にて使用してもよい。
手の姿勢検出の一実施形態では、3次元(3D)カメラを使用して、手の要点の3D座標を直接検出する。(図3のカメラ310であることがあり得る)3Dカメラが、画像平面内で要点を識別することができる画像を提供するだけでなく、奥行き(画像平面に垂直な方向の距離)を検出することもできる。一部の3Dカメラは、2つ以上のレンズ、あるいは単一のレンズであって、その位置を移行して、複数の視点を記録するレンズを使用する。ここで、2つの視点を組み合わせることにより、奥行きの知覚が可能になる。他の3Dカメラが、範囲撮像を使用して、カメラのレンズから画像内のさまざまな点までの範囲(距離)を判定する。範囲撮像は、飛行時間測定又は他の技術を使用して達成されてもよい。
3Dカメラから直接入手できるデータを使用して、手の要点(図1の点112及び点118など)のX/Y/Z座標を判定してもよい。手の要点のX/Y/Z座標から、これまでに考察したように、手座標系の原点及び向きを全体的に計算してもよい。次に、ロボットの運動コマンドを、これまでに考察したように、手座標系と把持部座標系との間の対応に基づいて定義してもよい。
手の姿勢検出の別の実施形態では、2次元(2D)カメラを使用して、2段階工程を用いて手の要点の3D座標を検出してもよい。2Dカメラが3Dカメラよりも広く入手可能で安価であり、2Dカメラの画像フレームレートがはるかに速いため、一部の用途では、人間の実演によるロボット教示に2Dカメラを使用するのが有利な場合がある。
2D画像から手の要点のX/Y/Z座標を判定するための既存の技術は、信頼できない可能性がある。このような既存の方法は、典型的には、実際の手の画像と合成の手の画像の両方を含むデータベースを使用した深層学習画像分析技術に依存している。しかし、手のサイズは人によって大きく異なるため、このような既存の方法では精度が低くなる可能性がある。
既存の方法の限界を克服するために、2Dカメラ画像から手の姿勢を検出するための新たな技術をここに開示する。ここでは、手のサイズを測定する1回の予備ステップが実施され、次に、ロボット教示中の2Dカメラ画像を、手の要点の3D座標について正確に分析することができる。
図5Aは、本開示の一実施形態による、2Dカメラ画像から手の姿勢を検出するための第1のステップの第1の部分の図である。ステップ1Aと呼ぶことになる第1のステップのこの第1の部分では、カメラ510を使用して、後で人間の実演を介してロボットプログラムを教示することになる操作者の手520の画像を取得する。カメラ520は、図3のカメラ310と同じものであってもよい。手520は、ArUcoマーカのグリッド530上に設置され、写真(デジタル画像)がステップ1Aで撮影される。カメラ較正用の従来のチェス盤は、ArUcoマーカの代わりに使用することができるもう1つの選択肢である。デジタル画像は、ステップ1の残りの部分で分析されて、手の520の個々の要素又は区分のサイズを判定する。ステップ1は、個々の操作者の手に対して1回だけ実施される。ステップ2(人間の手の実演によるロボット経路及び工程教示)は、ステップ1を繰り返す必要なしに、手520に対して何度も実施することができる。
ステップ1の工程は、実環境/物理環境内の点とその2D画像投影との間の対応を見つけることに基づいている。このステップを容易にするために、合成マーカ又は基準マーカが使用される。取り組みの1つには、ArUcoマーカなどの2値正方形基準マーカを使用することが挙げられる。このようなマーカの主な利点は、単一のマーカが、マーカの平面に対するカメラの姿勢を取得するのに充分な対応(その4つの隅)を提供することである。グリッド530に多くのマーカを使用することは、手520の個々の指区分の実際のサイズを判定するのに充分なデータを提供する。
ArUcoマーカとは、幅の広い黒い境界線と、その識別子を判定する内側の2値行列とから構成される正方形の視覚マーカである。黒の境界線は画像内での高速検出を容易にし、2進化は、その識別と、エラー検出及び訂正技術の適用とを可能にする。図5Aのグリッド530は、個々のマーカ532、534及び536をはじめ、ArUcoマーカの5×7配列を含む。グリッド530内の各ArUcoマーカは固有のものである。グリッド530にて使用される5×7配列は、人間の手の視覚的測定を容易にするようにサイズ設定されており、単なる例示である。ArUcoマーカのグリッド530は、以下で考察するように、デジタル画像に充分な情報「帯域幅」を提供して、画像平面のマーカ平面への較正も、手520上の複数の要点のマーカ平面内の座標の判定も可能にするために使用される。
ステップ1Aからの画像は、手520がグリッド530上に平らに置かれた状態で、ステップ1B(図5B)及びステップ1C(図5C)の両方に提供される。ここで、2つの異なるタイプの画像分析が実施される。
図5Bは、本開示の一実施形態による、2Dカメラ画像から手の姿勢を検出するための第1のステップの第2の部分の図である。ボックス540では、図5Bは、手のサイズ判定工程のステップ1Bを描写する。ステップ1Bでは、ステップ1Aからの画像の分析が、画像(仮想)座標からマーカ(物理)座標への回転変換及び並進変換を判定するために実施される。グリッド530、あるいは個々のマーカ(532、534など)のいずれかは、マーカの平面内に局所的なX及びY軸を有し、図示のように上向きにマーカに垂直な局所的なZ軸を有するマーカ座標系538を有すると定義される。
(図5Aからの)カメラ510は、自身に固定されるように定義されたカメラ座標系518を有し、局所的なX及びY軸は画面又は画像の平面内にあり、局所的なZ軸は画面に垂直であり、カメラの視野の方向に(マーカグリッド530に向かって)方向付けられる。この技術では、カメラは、マーカ平面に平行なカメラ画像平面に正確に位置合わせする必要がないことに留意されたい。変換計算は、回転及び並進の不整合を処理することになる。カメラ座標系518内の理想化された画像内の点が、座標(xc,yc)を有する。マーカ座標系538からカメラ座標系518への変換は、回転ベクトルR及び並進ベクトルtによって定義される。
実際の観察された画像座標系548を、実際の観察された画像の平面内に局所的なX及びY軸を有するものとして定義する。ここで、画像は2次元であるため、局所的なZ軸は無関係である。実際に観察された画像座標系548は、画像の歪みのためにカメラ座標系518とは異なる。 実際に観察された画像座標系548内の実際の画像内の点が、座標(xd,yd)を有する。カメラ座標系518から実際に観測された画像座標系548への変換は、固有のカメラパラメータ行列kによって定義される。カメラ固有のパラメータには、焦点距離、画像センサの形式及び主点が含まれる。
図5Cは、本開示の一実施形態による、2Dカメラ画像から手の姿勢を検出するための第1のステップの第3の部分の図である。ボックス550では、図5Cは、手のサイズ判定工程のステップ1Cを描写する。ステップ1Cでは、画像内の手520の要点を特定するために、ステップ1Aからの画像の分析が実施される。
畳み込み層560を使用して、画像を分析し、手520の要点を識別し特定する。畳み込み層とは、当技術分野で知られているように、視覚画像の分析に一般的に適用される深層ニューラルネットワークのクラスである。畳み込み層560は、既知の手の解剖学的構造及び比率、指関節の屈曲及び膨らみなどの視覚的手がかりをはじめとする要因に基づいて、人間の手の構造トポロジーを識別するように特別に訓練されている。特に、畳み込み層560は、指先及び指関節を含む画像内の点を識別して特定することができる。
畳み込み層560の出力は、ボックス570に示される。ArUcoマーカの手520及びグリッド530は、ボックス570内の画像に見ることができる。このほか、画像上に重ね合わされて見えるのは、手520のトポロジーであり、手520内の骨と、点として表される骨間の関節とを含む。例えば、親指の先端は点572として識別され、人差し指の先端は点574として識別される。点572及び点574並びにボックス570内のトポロジーに示される全要点は、画像座標、具体的には、実際に観察された画像座標系548の座標にて知られている場所を有する。これは、畳み込み層560が、いかなる方法でもまだ調整も変換もされていないステップ1Aからの画像に適用されるためである。
図5Dは、本開示の一実施形態による、2Dカメラ画像から手の姿勢を検出するための第1のステップの第4の部分の図である。ステップ1B(図5B)からの変換パラメータk,R及びtと、ステップ1C(図5C)からの画像座標での手520の要点とは両方ともステップ1Dに提供される。ここで、計算が実施されて手520の要点間の真の距離を判定する。
真の世界/マーカ座標にて手520のトポロジーを生成するために実施される計算は、式(1)(数1)のように定義される。
ここで、Xdはステップ1Bの実際の画像座標での手の要点のセットであり、Xwは現在計算されている世界/マーカ座標での手の要点のセットであり、k,R及びtは上記で定義されたものである。
式(1)を使用して、手の要点Xwのセットを計算することができる。ステップ1Dでのボックス580に示されている手の要点Xwは世界座標にあり、同じ座標系内の多数のArUcoマーカによって較正されている。
このため、点582(親指の先端)と点584(親指の先端に最も近い指関節)との間の真の距離を、点582と点584の座標の差の2乗の合計の平方根として計算することができる。この距離は590で示され、親指の外側の区分(骨)の実際の長さである。同じように、点586と点588との間の距離を、592に示されるように計算することができ、この距離は、人差し指の外側区分の真の長さである。手520内の各骨(各指の各区分)の真の長さは、この方法で計算することができる。
上記で考察した2Dカメラ画像から手の姿勢を検出するための方法のステップ1は、手520内の各指の各区分の真の長さを提供する。手520はそれ以後、以下で考察する方法のステップ2に従って、要点の3D場所を判定するために2Dカメラからの画像を分析している状態で、ロボット教示に使用することができる。
図6Aは、本開示の一実施形態による、2Dカメラ画像から手の姿勢を検出するための第2のステップの第1の部分の図である。第2のステップのこの第1の部分では、ロボット教示期間中に、物体を把持するなどの任意の姿勢での手520のカメラ画像を分析して、上記で考察した要点を識別する。ボックス610には、手520の画像が提供されている。画像は、カメラ510又は別のカメラによって提供することができる。ボックス620では、上記で考察した方法で、画像分析を、ニューラルネットワーク畳み込み層を使用して実施して、手520上の要点を識別する。手は、典型的には、ボックス610からの画像の表面上に平らに置かれることはないため、手の一部が遮蔽される(画像には見えない)可能性がある。さらに、ボックス610からの画像内の指の区分は概ね、真の長さの位置にないことになる。これについて後に考察する。
ボックス630では、手520上のあらゆる認識可能な要点を、画面座標でのその場所と共に識別する。例えば、人差し指の先端の要点632を、親指の近位にある指の中心先端を見つけることによって識別してもよい。人差し指の外側指関節の要点634を、画像にて識別可能な指関節の側部点636と638との間にあると識別してもよい。ニューラルネットワーク畳み込み層は、その過去の訓練に基づいて、例えば、指の画像の膨らみと曲がりを探すことによって、点を識別する。他の認識可能な要点、例えば、側部点642と644との間にある人差し指の中指関節の要点640を同じように識別する。
次に、手520内の指区分のそれぞれ(個々の骨)の画面座標を判定することができる。人差し指の外側区分652を、ボックス610からの画像の画面座標にて、要点632から要点634まで延びる直線として判定する。同じように、人差し指の中央区分654を、要点634から要点640まで延びる直線として判定し、人差し指の内側区分656を、要点640から要点646まで延びる直線として判定する。
ボックス630内の図は、さまざまな要点の全部を単に明確に示すために平坦な位置にある手520を描写している。要点は、ボックス610からの画像に見える場合に識別されてもよい。実際には、ボックス630は、ボックス610の画像とまったく同じように見える画像内の(例えば、把持姿勢の)手520の要点の識別及び位置特定を含む。手520は、ボックス610でのカメラ画像からボックス630での要点識別まで、いかなる方法でも平坦化も変形もされていない。
手520の可視で認識可能な全要点及び指区分(指の骨)の画面座標の位置特定及び識別は、図6Bの追加の分析ステップに提供される。ここで、手520の3D姿勢が最終的に判定されることになる。
図6Bは、本開示の一実施形態による、2Dカメラ画像から手の姿勢を検出するための第2のステップの第2の部分の図である。ボックス660では、ステップ1(図5D)からの手のサイズが入力として提供される。具体的には、上記で詳細に考察したように、手520内の各骨(各指の各区分)の真の長さが提供される。このほか、図6Aのボックス630からの姿勢での手520内の認識可能な各要点の画面座標での識別及び位置特定が、左側にある入力として提供される。このような入力を使用して、662に示しているように一連のPerspective−n−Point計算を実施する。
Perspective−n−Point(PnP)は、世界のn個の3D点のセットと、その対応する画像内の2D投影とを前提として、較正されたカメラの姿勢を推定する問題である。カメラの姿勢は、「世界」又は作業セルの座標系に対するカメラの回転(ロール、ピッチ及びヨー)と3D並進移動とから構成される6自由度(DOF)から構成される。この問題に対して使用されることの多い解は、P3Pと呼ばれるn=3の場合であり、n≧3の一般的な場合には多くの解を利用することができる。人差し指及び親指の各区分の少なくとも4−6個の要点が図6Aのボックス630にて(おそらく他の指の他のいくつかの骨と共に)識別されることになるため、充分な数を超える点が662でのPnP計算に対して存在する。
人差し指の外側区分652上の要点の画面座標での識別及び位置特定は、図示のように、図6Aのボックス630から提供される。同じように、このほか、人差し指の中央区分654及び人差し指の内側区分656上の要点の画面座標での識別及び位置特定が提供される。指区分(652、654、656)のそれぞれの真の長さは、ボックス660から提供される。次に、指区分(652、654、656)のそれぞれについて、PnP問題は、664に示しているボックスにて解決される。PnP問題を解くと、手520の指区分のそれぞれに対するカメラ510の姿勢が得られる。世界又は作業セル座標でのカメラ510の姿勢が既知であるため、世界又は作業セル座標での手520の指区分の姿勢を計算することができる。このようにして、指区分(652、654、656)の3D姿勢は、666にて示したボックスにて取得される。ボックス668では、個々の区分652、654及び656の3D姿勢は、人差し指全体の3D姿勢を取得するために組み合わされる。
ボックス672では、親指の区分及び任意の他の目に見える指区分上の要点の画面座標での識別及び位置特定は、図6Aのボックス630から提供される。ボックス674では、PnP問題は、上記で考察したように、要点画面座標及び指区分の真の長さを入力として使用して、個々の指区分ごとに解かれる。ボックス676では、ボックス610からの画像に見える各指区分の3D姿勢が取得される。親指の区分は、親指全体及び他の同じように目に見える指の3D姿勢を取得するために、ボックス678で組み合わされる。
ボックス680では、ボックス668及び678からの指及び親指の3D姿勢は、手520全体の3D姿勢を得るために組み合わされる。ボックス690では、ステップ2の方法及び計算の最終出力が示されている。これには、ピラミッド形状692として表されたカメラ510の位置及び向き並びにワイヤフレーム694として表された手520の姿勢が含まれる。手520の姿勢は、手520上の識別可能な各指区分(骨)の世界座標(又は作業セル座標系)での3D位置特定を含む。これは、親指及び人差し指が特定されている限り、図1に示すように、手座標系120を定義するのに充分なものである。
図6A及び図6Bに関して上記で考察した2Dカメラ画像から手の姿勢を検出するための方法の第2のステップは、人間の実演によるロボット教示の全工程中に繰り返し連続的に実施される。即ち、再び図3及び図4を参照すると、2Dカメラを使用して、ワークを把持して移動させる手520を検出する場合、途中の位置ごとの手の姿勢は、図6A及び図6Bのステップ2シーケンスを使用して判定される。対照的に、手のサイズ(各指区分の真の長さ、図5A〜図5D)を判定するステップ1は、ロボット教示のための手の姿勢検出の前に1回だけ実施される。
手のサイズを判定するため(図5A〜図5D)及び手の要点の3D座標から手の姿勢を判定するため(図6A及び図6B)の2Dカメラ画像分析ステップは、図3のコントローラ320などのロボットコントローラ、あるいはコントローラ320と通信している別個のコンピュータにて実施されてもよい。
図7は、本開示の一実施形態による、ワークのカメラ画像と、事前に人間の手の画像によって教示されたプログラミングとを使用して、ロボットがピックアンドプレース操作を実施するためのシステム700及びステップの図である。システム700は、コントローラ720と通信するカメラ740を含む作業セル702内に位置づけられている。このような部材は、これまでに図3に示した作業セル302、カメラ310及びコントローラ320と同じである場合もそうでない場合もある。カメラ740及びコントローラ720に加えて、作業セル702は、典型的には物理ケーブル712を介して、コントローラ720と通信するロボット710を含む。
システム700は、システム300内で人間の操作者によって教示された取り出し、移動及び設置の操作を「再生」するように設計される。フローチャート図400の取り出し、移動及び設置のステップに記録された手及びワークのデータは、以下のようにロボットプログラミング命令を生成するために使用される。ロボット710は、当業者に知られているように、把持部720を定位置に位置決めする。カメラ740は、入ってくるコンベアに載置されている可能性のある新たなワーク730の位置及び向きを識別する。取り出しステップのボックス408から、コントローラ320(図3)は、ワーク730を適切に把持するためのワーク730に対するハンド340の位置及び向き(ひいては、図1から、把持部720の位置及び向き)を認識している。経路1が、把持部720を定位置から、ワーク730の位置及び向きに基づいて計算された取り出し位置に移動させるための経路として計算される。取り出し操作は、経路1の終端にて実施される。把持部720Aは、取り出し位置に近い経路1に沿って示され、ワーク730Aは、取り出し位置に示されている。
移動ステップ(図4)のボックス440から、コントローラ320は、移動に沿った複数の場所でのワーク330(ひいては、ワーク730)の位置を認識する。経路2は、把持部720A及びワーク730Aを移動経路に沿って取り出し位置から移動させる経路として計算される。図7では、移動経路に沿った中間位置のうちの1つが、把持部720Bを示す。
経路2は、ボックス468に記録された設置位置にて終端する。これには、ワーク730Cに対応するワーク330の位置及び姿勢(向き)の両方が含まれる。把持部720がワーク730Cを設置位置及び向きに設置した後、把持部720はワーク730Cを解放し、経路3を介して定位置に戻る。
図8は、本開示の一実施形態による、ワークのカメラ画像と、事前に人間の手の画像によって教示されたプログラミングとを使用して、ロボットがピックアンドプレース操作を実施するための方法のフローチャート図800である。ボックス802では、ピックアンドプレース操作の人間による実演からのデータが、上記で詳細に考察したように、ロボットコントローラ720に提供される。このデータは、2Dカメラ又は3Dカメラから取得でき、人間の手によって指示される取り出し、移動及び設置運動コマンドが含まれる。ボックス804では、カメラ740からの画像をコントローラ720によって分析して、ワーク730の場所及び向き(位置及び姿勢)を識別する。ボックス606では、コントローラ720は、ロボット710に運動コマンドを提供して、把持部720をロボットの定位置から移動させて、ワーク730を把持する。運動コマンドは、ボックス806でのカメラ画像の分析から知られているワーク730の位置及び姿勢並びに取り出し操作の人間による実演(図3及び図4)から知られているワーク730に対する把持部720の相対的な位置及び姿勢に基づいて、コントローラ720によって計算される。
ボックス808では、ロボット710は、コントローラの指示に応答して、人間の実演中に教示されたように、移動経路に沿ってワーク730を保持している把持部720を移動させる。移動経路は、取り出し位置と設置位置との間の1つ又は複数の中間点を含んでもよく、その結果、移動経路は、任意の3次元曲線を追跡してもよい。ボックス810では、ロボット710は、設置操作の人間による実演中に教示された位置及び姿勢にワーク730を設置する。ワークの設置の位置及び姿勢は、設置操作の人間による実演から既知であり、ワーク730に対する把持部720の相対的な位置及び姿勢は、取り出し操作の人間による実演から既知である。ボックス812では、ロボット710は、次のワークを取り出すための指示を受け取る準備として、ロボットの定位置に戻る。
以下は、上記で詳細に考察した人間の実演によるロボットプログラミングのための開示技術の要約である。
・人間の手を使用して、ワークの把持、移動、設置を実演する。
・手及びワークのカメラ画像を分析して、手の要点に基づいて、ワークに対するロボット把持部の適切な姿勢及び位置を判定する。
・手の要点を、3Dカメラからの画像から、あるいは手のサイズ判定の準備ステップを伴う2Dカメラからの画像から判定してもよい。
・ワークに対するロボット把持部の適切な姿勢及び位置を使用して、再生段階の新たなワークのカメラ画像に基づいてロボット運動コマンドを生成する。
・これには、最初に新たなワークを把持し、次に人間の実演中に取得された移動及び設置のデータに基づいて新たなワークを移動させ設置することが含まれる。
・人間の手を使用して、ワークの把持、移動、設置を実演する。
・手及びワークのカメラ画像を分析して、手の要点に基づいて、ワークに対するロボット把持部の適切な姿勢及び位置を判定する。
・手の要点を、3Dカメラからの画像から、あるいは手のサイズ判定の準備ステップを伴う2Dカメラからの画像から判定してもよい。
・ワークに対するロボット把持部の適切な姿勢及び位置を使用して、再生段階の新たなワークのカメラ画像に基づいてロボット運動コマンドを生成する。
・これには、最初に新たなワークを把持し、次に人間の実演中に取得された移動及び設置のデータに基づいて新たなワークを移動させ設置することが含まれる。
これまでの考察では、教示段階が事前に実施され、入ってくるワークのカメラ画像をロボットが使用して実稼働環境にて操作を実施する再生段階中に人間がもはやループに存在しない、人間の実演によるロボット教示の実施形態を説明している。上記のピックアンドプレース操作は、人間の実演によるロボット教示の一例にすぎない。他のロボット操作を同じ方法で教示してもよい。ここでは、手のカメラ画像を使用して、ワークに対する把持部又は他のツールの相対位置を判定する。別の実施形態を以下に開示する。ここでは、生産作業中に人間がループに留まるが、入ってくるワークのカメラ画像は必要とされない。
図9は、本開示の実施形態による、人間の手のカメラ画像及び人間の目を介した視覚的フィードバックを使用するロボットの遠隔操作のためのシステム900及びステップの図である。人間の操作者910が、カメラ920が操作者の手の画像を取得することができる位置にある。カメラ920は、2Dカメラであっても3Dカメラであってもよい。カメラ920は、図1及び図2のほか図5及び図6(2Dカメラの実施形態の場合)も参照して詳細に説明したように、画像を分析して手の主要な特徴を識別するコンピュータ930に画像を提供する。画像の分析から、手座標系、ひいては把持部座標系の位置及び向きを判定することができる。把持部座標系の位置及び向きは、ロボットコントローラ940に提供される。この実施形態のわずかな変形例では、コンピュータ930は排除してもよく、コントローラ940は、画像分析機能を実施して、把持部座標系の位置及び向きを判定してもよい。
コントローラ940は、ロボット950と通信している。コントローラ940は、ロボット運動コマンドを計算して、ロボット950に、その把持部960を、画像から識別された把持部座標系の位置及び向きに移動させる。ロボット950は、コントローラ940からのコマンドに応答し、次にカメラ画像からの手の位置に応答して、把持部960を移動させる。任意選択で、手の姿勢と把持部の姿勢との間に転置を含めてもよい。例えば、把持部の姿勢及び動きを手の姿勢及び動きの鏡像にする。図9の状況は、把持部960がワーク970を把持し、ワーク970を異なる位置及び/又は姿勢に移動するなど、ワーク970に何らかの操作を実施することになることである。把持部960は、指型把持部として示しているが、代わりに、これまでに説明したように、吸盤又は磁気表面把持部であってもよい。
人間の操作者910は、ロボット950、把持部960及びワーク970を見ることができる位置にいる。操作者910は、ロボット950と同じ作業セル内にいても、窓付きの壁によって分離された別の部屋にいてもよい。操作者910は、ロボット950から離れていても、そうでなければ視覚的に阻害されていてもよい。その場合、ロボット950、把持部960及びワーク970のリアルタイムビデオ画像が、視覚的フィードバックの手段として操作者910に提供されるであろう。
システム900では、ワーク970の画像を提供するためにカメラを使用しない。代わりに、操作者910は、把持部960の動きを監視し、把持部960にワーク970に対して操作を実施させるために操作者の手を動かす。1つのあり得る状況では、操作者910は、人差し指と親指を広げてワーク970に向かって手を動かし、手を動かし続けて把持部960を所望の向きからワーク970に近づけ、自分の手の人差し指と親指で挟んでワーク970を把持し、次に、ワーク970を保持しながらワーク970を別の位置及び/又は姿勢に移動させる。
システム700では、操作者910は、把持部/ワークの場面の視覚的フィードバックに基づいて手を動かし、カメラ920は、手の連続画像を提供し、コントローラ940は、カメラ画像にて分析されたように手の動きに基づいて把持部960を移動させる。
図10は、本開示の一実施形態による、人間の手のカメラ画像及び人間の目を介した視覚的フィードバックを使用するロボットの遠隔操作のための方法のフローチャート図1000である。図10の方法は、図9のシステム900を使用する。この方法は、開始ボックス1002から始まる。ボックス1004では、人間の手はカメラ画像にて検出される。決定ダイヤモンド1006では、手が検出されない場合、工程は、画像を撮り続けるためにボックス1004に一巡して元に戻る。ボックス1008では、カメラ画像にて手が適切に検出されると、コンピュータ930は、手の要点の識別によって判定されたときの手の位置及び姿勢に基づいて、把持部960の位置及び姿勢を計算する。
ボックス1010では、把持部の位置及び姿勢は、コンピュータ930からコントローラ940に転送される。これとは別に、把持部の位置及び姿勢の画像分析及び計算は、コントローラ940上で直接実施されてもよく、その場合、ボックス1010は排除される。ボックス1012では、コントローラ940は、ごく最近分析された手の画像に基づいて、ロボット950に運動コマンドを提供して、把持部960を新たな位置に移動させる。ボックス1014では、人間の操作者910は、把持部の位置及び姿勢を視覚的に確認する。決定ダイヤモンド1016では、操作者910は、把持部960の目標位置が達成されたかどうかを判定する。達成されていない場合、操作者910は、ボックス1018にて手を動かし、把持部960に、新たなカメラ画像への閉ループフィードバックを介して対応する動きをさせる。目標位置に到達すると、工程は末端1020で終了する。
現実の実務では、操作者910は、遠隔操作を介してロボットを制御するために、手の運動の連続シーケンスを実施してもよい。例えば、操作者910は、自身の手を動かして把持部960をワーク970に近づけ、ワーク970を把持し、ワーク970を目的の場所に移動させ、ワーク970を設置して解放し、把持部960を後方に移動させて開始場所に戻して、新たなワークに近づいてもよい。
これまでの考察を通じて、さまざまなコンピュータとコントローラについて説明し、暗示している。このようなコンピュータ及びコントローラのソフトウェアアプリケーション及びモジュールは、プロセッサ及びメモリモジュールを有する1つ又は複数の計算装置上で実行されることを理解されたい。特に、これには、コンピュータ930とともに、上記で考察したロボットコントローラ320、720及び940のプロセッサが含まれる。具体的には、コントローラ320、720及び940並びにコンピュータ930のプロセッサは、上記で考察した方法で人間の実演を介してロボット教示を実施するように構成される。
上記で概説したように、人間の実演によるロボット教示のための開示技術は、単一のカメラのみを必要とする単純さを提供しながら、ロボット運動プログラミングを事前の技術よりも速く、簡単かつ直感的なものにする。
人間の実演によるロボット教示のいくつかの例示的な態様及び実施形態が上記で考察されてきたが、当業者は、その修正、置換、追加及び副次的組み合わせを認識するであろう。このため、以下の添付の特許請求の範囲及び以下に導入される請求項は、その真の精神及び範囲内にあるようなそのような修正、置換、追加及び副次的組み合わせのいずれをも含むと解釈されることが意図される。
Claims (28)
- 人間の実演によって操作を実施するようにロボットをプログラミングするための方法であって、前記方法は、
人間の手によってワークに対する前記操作を実演するステップと、
前記ワークに対する前記操作を実演する前記手のカメラ画像をコンピュータによって分析して、実演データを作成するステップと、
新たなワークのカメラ画像を分析して、前記新たなワークの初期の位置及び向きを判定するステップと、
前記ロボットに前記新たなワークに対する前記操作を実施させるために、前記実演データと、前記新たなワークの前記初期の位置及び向きとに基づいてロボット運動コマンドを生成するステップと、
前記ロボットによって前記新たなワークに対する前記操作を実施するステップと、を含む方法。 - 前記人間の手による前記ワークに対する前記操作を実演するステップと、前記ロボットによって前記新たなワークに対する前記操作を実施するステップとの両方がロボット作業セル内で実施され、前記カメラ画像が単一のカメラによって撮影される、請求項1に記載の方法。
- 前記カメラは、画像と、前記画像内の前記手にある複数の識別可能な点のX、Y及びZ座標とを直接取得する3次元カメラである、請求項2に記載の方法。
- 前記カメラは2次元カメラであり、前記人間の手の指の複数の区分の真の長さが、手のサイズの画像分析ステップを使用して事前に判定されている、請求項2に記載の方法。
- 前記手のサイズの画像分析ステップは、ArUcoマーカのグリッド上に前記人間の手の画像を提供するステップと、前記画像を分析して、マーカ座標系から画面座標系への変換を計算するステップと、ニューラルネットワーク畳み込み層にて前記画像を処理して前記画像内の前記人間の手の要点を識別するステップと、前記変換を使用して前記マーカ座標系の前記要点の座標を計算するステップと、前記人間の手の前記指の前記区分の前記真の長さを計算するステップとを含む、請求項4に記載の方法。
- 前記ワークに対する前記操作を実演する前記手のカメラ画像を分析するステップには、ニューラルネットワーク畳み込み層にて前記画像を処理して、前記画像内の前記人間の手の要点を識別するステップと、前記画像内の前記人間の手の前記要点と、前記人間の手の前記指の前記複数の区分の前記事前に判定された真の長さとを使用してPoint−n−Perspective計算を実施するステップと、前記複数の区分の3次元姿勢を計算するステップとが含まれる、請求項4に記載の方法。
- 前記操作を実演する前記手のカメラ画像を分析するステップには、親指及び人差し指のそれぞれの先端、基部指関節及び第2の指関節をはじめとする前記手の複数の点の場所を識別するステップが含まれる、請求項1に記載の方法。
- 前記実演データは、前記操作の把持ステップでの、手座標系、前記手座標系に対応する把持部座標系及びワーク座標系の位置及び向きを含む、請求項7に記載の方法。
- 前記実演データは、前記操作の中間ステップのための前記手座標系及び前記ワーク座標系の位置と、前記操作の最終ステップのための前記ワーク座標系の位置及び向きとをさらに含む、請求項8に記載の方法。
- 前記手座標系は、前記親指と人差し指の前記基部指関節の中間点にある原点と、前記親指と人差し指の前記先端の中間点を通るZ軸と、前記親指と人差し指を含む平面に垂直なY軸とを有する、請求項8に記載の方法。
- 前記新たなワークは、前記ロボットによる前記操作の前に、コンベアに載置され、前記新たなワークの前記初期の位置はコンベア位置指数の関数である、請求項1に記載の方法。
- ロボット運動コマンドを生成するステップには、プロセッサ及びメモリを有するロボットコントローラによって、前記新たなワークの前記初期の位置及び向きと、前記実演データに含まれる前記ワークに対するロボット把持部の位置及び向きとに基づいて前記ロボット把持部を把持の位置及び向きに移動させるコマンドを生成するステップが含まれる、請求項1に記載の方法。
- ロボット運動コマンドを生成するステップには、前記ロボット把持部に前記新たなワークを前記把持の位置から前記実演データに含まれる他の位置に移動させるコマンドを生成するステップがさらに含まれる、請求項12に記載の方法。
- 前記ロボット把持部は、指型把持部又は吸引力又は磁力を使用する表面把持部である、請求項12に記載の方法。
- 人間の実演によって操作を実施するようにロボットをプログラミングするための方法であって、前記方法は、
人間の手によるワークに対する前記操作を実演するステップと、
前記ワークに対する前記操作を実演する前記手のカメラ画像を分析して、実演データを作成するステップであって、前記手の複数の点の場所を識別するステップと、前記ワークに対するロボット把持部の位置及び向きを判定するステップとを含む、ステップと、
新たなワークのカメラ画像を分析して、前記新たなワークの初期の位置及び向きを判定するステップであって、コンベア位置指数に基づいて前記新たなワークの前記初期の位置及び向きを調整するステップを含む、ステップと、
プロセッサ及びメモリを有するロボットコントローラによって、前記実演データと、前記新たなワークの前記初期の位置及び向きとに基づいて、前記ロボットに前記新たなワークに対する前記操作を実施させるロボット運動コマンドであって、前記新たなワークの前記初期の位置及び向きと、前記実演データに含まれる前記ワークに対する前記把持部の前記位置及び向きとに基づいて、前記把持部を把持の位置及び向きに移動させる運動コマンドを含む、ロボット運動コマンドを生成するステップと、
前記ロボットによって前記新たなワークに対する前記操作を実施するステップと、を含む方法。 - 前記人間の手による前記ワークに対する前記操作を実演するステップと、前記ロボットによって前記新たなワークに対する前記操作を実施するステップとは両方とも、ロボット作業セル内で実施され、前記カメラ画像は、単一の2次元カメラ又は3次元カメラによって撮影される、請求項15に記載の方法。
- 人間の実演によって操作を実施するようにロボットをプログラミングするためのシステムであって、前記システムは、
カメラと、
産業用ロボットと、
プロセッサ及びメモリを有するロボットコントローラであって、前記コントローラは前記ロボットと通信し、前記カメラから画像を受信し、前記コントローラは、
ワークに対する前記操作を実演する人間の手のカメラ画像を分析して、実演データを作成するステップと、
新たなワークのカメラ画像を分析して、前記新たなワークの初期の位置及び向きを判定するステップと、
前記実演データと、前記新たなワークの前記初期の位置及び向きに基づいて、前記ロボットに前記新たなワークに対する前記操作を実施させるロボット運動コマンドを生成するステップと、
前記ロボットによって前記新たなワークに対する前記操作を実施するステップと、を含むステップを実施するように構成されたロボットコントローラとを具備する、システム。 - 前記操作を実演する前記手のカメラ画像を分析するステップには、親指及び人差し指のそれぞれの先端、基部指関節及び第2の指関節をはじめとする前記手の複数の要点の場所を識別するステップが含まれる、請求項17に記載のシステム。
- 前記カメラは、画像と、前記画像のそれぞれの前記手にある前記複数の要点のX、Y及びZ座標とを直接取得する3次元カメラである、請求項18に記載のシステム。
- 前記カメラは2次元カメラであり、前記人間の手の指の複数の区分の真の長さが、手のサイズの画像分析ステップを使用して事前に判定されている、請求項18に記載のシステム。
- 前記手のサイズの画像分析ステップは、ArUcoマーカのグリッド上に前記人間の手の画像を提供するステップと、前記画像を分析してマーカ座標系から画面座標系への変換を計算するステップと、ニューラルネットワーク畳み込み層にて前記画像を処理して前記画像内の前記人間の手の要点を識別するステップと、前記変換を使用して前記マーカ座標系の前記要点の座標を計算するステップと、前記人間の手の前記指の前記区分の前記真の長さを計算するステップとを含む、請求項20に記載のシステム。
- 前記ワークに対する前記操作を実演する前記手のカメラ画像を分析するステップには、ニューラルネットワーク畳み込み層にて前記画像を処理して、前記画像内の前記人間の手の複数の要点を識別するステップと、前記画像内の前記人間の手の前記要点と、前記人間の手の前記指の前記複数の区分の前記事前に判定された真の長さとを使用してPoint−n−Perspective計算を実施するステップと、前記複数の区分の3次元姿勢を計算するステップとを含む、請求項20に記載のシステム。
- 前記実演データは、前記操作の把持ステップでの、手座標系、前記手座標系に対応する把持部座標系、及びワーク座標系の位置及び向きを含む、請求項18に記載のシステム。
- 前記実演データは、前記操作の中間ステップのための前記手座標系及び前記ワーク座標系の位置と、前記操作の最終ステップのための前記ワーク座標系の位置及び向きとをさらに含む、請求項23に記載のシステム。
- 前記手座標系は、前記親指と人差し指の前記基部指関節の中間点にある原点と、前記親指と人差し指の前記先端の中間点を通るZ軸と、前記親指と人差し指を含む平面に垂直なY軸とを有する、請求項23に記載のシステム。
- コンベアであって、前記ロボットによる前記操作の前に前記新たなワークが前記コンベアに載置されており、前記新たなワークの前記初期の位置はコンベア位置指数の関数であるコンベアをさらに具備する、請求項17に記載のシステム。
- ロボット運動コマンドを生成するステップには、前記新たなワークの前記初期の位置及び向きと、前記実演データに含まれた前記ワークに対するロボット把持部の位置及び向きとに基づいて、前記ロボット把持部を把持の位置及び向きに移動させるコマンドを生成するステップと、前記ロボット把持部に前記新たなワークを前記把持の位置から前記実演データに含まれた他の位置に移動させるコマンドを生成するステップとが含まれる、請求項17に記載のシステム。
- 前記ロボット把持部は、指型把持部又は吸引力又は磁力を使用する表面把持部である、請求項17に記載のシステム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/843,185 | 2020-04-08 | ||
US16/843,185 US11813749B2 (en) | 2020-04-08 | 2020-04-08 | Robot teaching by human demonstration |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021167060A true JP2021167060A (ja) | 2021-10-21 |
Family
ID=77851773
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021062636A Pending JP2021167060A (ja) | 2020-04-08 | 2021-04-01 | 人間の実演によるロボット教示 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11813749B2 (ja) |
JP (1) | JP2021167060A (ja) |
CN (1) | CN113492393A (ja) |
DE (1) | DE102021107532A1 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9238304B1 (en) * | 2013-03-15 | 2016-01-19 | Industrial Perception, Inc. | Continuous updating of plan for robotic object manipulation based on received sensor data |
CN112917470A (zh) * | 2019-12-06 | 2021-06-08 | 鲁班嫡系机器人(深圳)有限公司 | 一种机械手的示教方法、装置、系统、存储介质及设备 |
US11826908B2 (en) | 2020-04-27 | 2023-11-28 | Scalable Robotics Inc. | Process agnostic robot teaching using 3D scans |
US20220048199A1 (en) * | 2020-08-17 | 2022-02-17 | Faro Technologies, Inc. | Referencing pose manipulation system for marker based tracking of position measurement system |
US11999060B2 (en) * | 2020-12-28 | 2024-06-04 | Cloudminds Robotics Co., Ltd. | Action learning method, medium, and electronic device |
CN113894774A (zh) * | 2021-10-26 | 2022-01-07 | 季华实验室 | 一种机器人抓取控制方法、装置、存储介质和机器人 |
EP4194154A1 (en) * | 2021-12-07 | 2023-06-14 | Fundación AITIIP | Robot programming system |
DE102022118180B3 (de) | 2022-07-20 | 2023-08-31 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Regelungsverfahren für die Teleaktuierung, Aktuatorsystem und Roboter |
DE102022120633A1 (de) | 2022-08-16 | 2024-02-22 | Syntegon Technology Gmbh | Verfahren zu einem Anlernen einer Handhabungsvorrichtung, Handhabungsvorrichtung, die mit einem derartigen Verfahren anlernbar ist, sowie Produktions- und/oder Transportmaschine mit einer derartigen Handhabungsvorrichtung |
CN117558174B (zh) * | 2023-11-13 | 2024-04-12 | 山东卓朗检测股份有限公司 | 面向教学机器人训练的数据采集和分析方法 |
CN117428788B (zh) * | 2023-12-13 | 2024-04-05 | 杭州海康机器人股份有限公司 | 一种设备控制方法、装置、电子设备及存储介质 |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5040056A (en) * | 1990-01-29 | 1991-08-13 | Technistar Corporation | Automated system for locating and transferring objects on a conveyor belt |
US6435794B1 (en) | 1998-11-18 | 2002-08-20 | Scott L. Springer | Force display master interface device for teleoperation |
US7626571B2 (en) | 2005-12-22 | 2009-12-01 | The Board Of Trustees Of The Leland Stanford Junior University | Workspace expansion controller for human interface systems |
US20090132088A1 (en) | 2007-04-24 | 2009-05-21 | Tairob Ltd. | Transfer of knowledge from a human skilled worker to an expert machine - the learning process |
US8996173B2 (en) * | 2010-09-21 | 2015-03-31 | Intuitive Surgical Operations, Inc. | Method and apparatus for hand gesture control in a minimally invasive surgical system |
US9678662B2 (en) * | 2010-04-23 | 2017-06-13 | Handscape Inc. | Method for detecting user gestures from alternative touchpads of a handheld computerized device |
KR101941844B1 (ko) | 2012-01-10 | 2019-04-11 | 삼성전자주식회사 | 로봇 및 그 제어방법 |
US10406686B2 (en) * | 2012-12-14 | 2019-09-10 | Abb Schweiz Ag | Bare hand robot path teaching |
US8989902B1 (en) * | 2013-03-05 | 2015-03-24 | U.S. Department Of Energy | User interface for a tele-operated robotic hand system |
JP6042291B2 (ja) * | 2013-08-27 | 2016-12-14 | 株式会社デンソーアイティーラボラトリ | ロボット、ロボット制御方法、及びロボット制御プログラム |
WO2015153739A1 (en) * | 2014-04-01 | 2015-10-08 | University Of South Florida | Systems and methods for planning a robot grasp based upon a demonstrated grasp |
US9785247B1 (en) | 2014-05-14 | 2017-10-10 | Leap Motion, Inc. | Systems and methods of tracking moving hands and recognizing gestural interactions |
US10768708B1 (en) * | 2014-08-21 | 2020-09-08 | Ultrahaptics IP Two Limited | Systems and methods of interacting with a robotic tool using free-form gestures |
US9561587B2 (en) | 2014-12-16 | 2017-02-07 | Amazon Technologies, Inc. | Robotic grasping of items in inventory system |
US9849595B2 (en) | 2015-02-06 | 2017-12-26 | Abb Schweiz Ag | Contact force limiting with haptic feedback for a tele-operated robot |
US9690984B2 (en) * | 2015-04-14 | 2017-06-27 | Microsoft Technology Licensing, Llc | Two-dimensional infrared depth sensing |
US10730180B2 (en) | 2015-05-29 | 2020-08-04 | Abb Schweiz Ag | User interface for a teleoperated robot |
WO2017192829A1 (en) | 2016-05-04 | 2017-11-09 | Worcester Polytechnic Institute | Haptic gloves as a wearable force feedback user interface |
CN109863459A (zh) * | 2016-09-08 | 2019-06-07 | 法孚里内机床有限公司 | 加工站、工件保持系统和工件加工方法 |
CN107169519B (zh) | 2017-05-18 | 2018-05-01 | 重庆卓来科技有限责任公司 | 一种工业机器人视觉系统及其示教方法 |
US10929654B2 (en) * | 2018-03-12 | 2021-02-23 | Nvidia Corporation | Three-dimensional (3D) pose estimation from a monocular camera |
JP6826069B2 (ja) * | 2018-04-18 | 2021-02-03 | ファナック株式会社 | ロボットの動作教示装置、ロボットシステムおよびロボット制御装置 |
US11107242B2 (en) * | 2019-01-11 | 2021-08-31 | Microsoft Technology Licensing, Llc | Detecting pose using floating keypoint(s) |
US20210086364A1 (en) * | 2019-09-20 | 2021-03-25 | Nvidia Corporation | Vision-based teleoperation of dexterous robotic system |
US11288871B2 (en) * | 2019-11-08 | 2022-03-29 | Fujifilm Business Innovation Corp. | Web-based remote assistance system with context and content-aware 3D hand gesture visualization |
-
2020
- 2020-04-08 US US16/843,185 patent/US11813749B2/en active Active
-
2021
- 2021-03-25 DE DE102021107532.7A patent/DE102021107532A1/de active Pending
- 2021-04-01 JP JP2021062636A patent/JP2021167060A/ja active Pending
- 2021-04-08 CN CN202110378564.9A patent/CN113492393A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
US11813749B2 (en) | 2023-11-14 |
US20210316449A1 (en) | 2021-10-14 |
DE102021107532A1 (de) | 2021-10-14 |
CN113492393A (zh) | 2021-10-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021167060A (ja) | 人間の実演によるロボット教示 | |
US20210205986A1 (en) | Teleoperating Of Robots With Tasks By Mapping To Human Operator Pose | |
CN107160364B (zh) | 一种基于机器视觉的工业机器人示教系统及方法 | |
Ferreira et al. | Stereo-based real-time 6-DoF work tool tracking for robot programing by demonstration | |
US8244402B2 (en) | Visual perception system and method for a humanoid robot | |
JP6826069B2 (ja) | ロボットの動作教示装置、ロボットシステムおよびロボット制御装置 | |
US20220080581A1 (en) | Dual arm robot teaching from dual hand human demonstration | |
JP2023084116A (ja) | 視覚サーボを用いた実演によるロボット教示 | |
JP6499272B2 (ja) | ティーチング装置及び制御情報の生成方法 | |
CN112805127A (zh) | 用于创建机器人控制程序的方法和设备 | |
US20220168902A1 (en) | Method And Control Arrangement For Determining A Relation Between A Robot Coordinate System And A Movable Apparatus Coordinate System | |
Wang et al. | Robot programming by demonstration with a monocular RGB camera | |
Niu et al. | Eye-in-hand manipulation for remote handling: Experimental setup | |
CN117794704A (zh) | 机器人控制设备、机器人控制系统以及机器人控制方法 | |
Pedrosa et al. | A skill-based architecture for pick and place manipulation tasks | |
Ren et al. | Vision based object grasping of robotic manipulator | |
US11712797B2 (en) | Dual hand detection in teaching from demonstration | |
Katsuki et al. | Development of fast-response master-slave system using high-speed non-contact 3D sensing and high-speed robot hand | |
Al-Junaid | ANN based robotic arm visual servoing nonlinear system | |
JP2023059863A (ja) | 人の両手の実演による双腕ロボットの教示 | |
US20240037848A1 (en) | Systems, methods, and computer program products for implementing object permanence in a simulated environment | |
Wörn et al. | Multi-fingered reactive grasping with active guided camera systems | |
Grzyb et al. | Robust grasping of 3D objects with stereo vision and tactile feedback | |
JP2023059837A (ja) | 人間のデモンストレーションによるロボットプログラム作成方法 | |
RAMÍREZ | Visual Servoing for Reaching and Grasping Behaviors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240306 |