JP6586532B2 - ロボットの把持のための深層機械学習方法および装置 - Google Patents

ロボットの把持のための深層機械学習方法および装置 Download PDF

Info

Publication number
JP6586532B2
JP6586532B2 JP2018545901A JP2018545901A JP6586532B2 JP 6586532 B2 JP6586532 B2 JP 6586532B2 JP 2018545901 A JP2018545901 A JP 2018545901A JP 2018545901 A JP2018545901 A JP 2018545901A JP 6586532 B2 JP6586532 B2 JP 6586532B2
Authority
JP
Japan
Prior art keywords
end effector
image
gripping
neural network
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018545901A
Other languages
English (en)
Other versions
JP2019508273A (ja
Inventor
セルゲイ・レヴァイン
ピーター・パストール・サンペドロ
アレックス・クリジェフスキー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2019508273A publication Critical patent/JP2019508273A/ja
Priority to JP2019163134A priority Critical patent/JP6921151B2/ja
Application granted granted Critical
Publication of JP6586532B2 publication Critical patent/JP6586532B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1669Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/027Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39509Gripping, grasping, links embrace, encircle, envelop object to grasp

Description

本発明は、ロボットの把持のための深層機械学習方法および装置に関する。
多くのロボットは、1つまたは複数の物体を把持するために1つまたは複数のエンドエフェクタを利用するようにプログラムされる。たとえば、ロボットは、物体を第1の位置から拾い上げ、物体を第2の位置に移動させ、かつ物体を第2の位置に落とすために、(たとえば、ピン、針などを使用して物体に物理的に突き刺さる)「衝撃的(impactive)」グリッパまたは「侵入的(ingressive)」グリッパなどの把持エンドエフェクタを利用することができる。物体を把持することができるロボットエンドエフェクタのいくつかの追加の例は、2〜3例を挙げると、(たとえば、物体を拾い上げるために吸引または真空を使用する)「収斂性(astrictive)」エンドエフェクタ、および1つまたは複数の(たとえば、物体を拾い上げるために表面張力、凍結、または接着を使用する)「接触的(contigutive)」エンドエフェクタを含む。
本明細書は、全体的に、ロボットのエンドエフェクタによる物体の操作に関連する深層機械学習方法および装置に向けられている。いくつかの実装形態は、ロボットのエンドエフェクタに関する候補動きデータがエンドエフェクタによる1つもしくは複数の物体の成功した把持をもたらす確率を予測するために、(本明細書では"CNN"とも呼ばれる)畳み込みニューラルネットワーク(convolutional neural network)などの深層ニューラルネットワークをトレーニングすることに向けられている。たとえば、いくつかの実装形態は、トレーニングされた深層ニューラルネットワークへの入力として、少なくとも、(1)ロボットの把持エンドエフェクタの候補動き(もしあるなら)を定義する候補動きベクトルと、(2)ロボットの作業空間の少なくとも一部をキャプチャする画像とを適用することができ、適用することに基づいて、少なくとも、候補動きベクトルが成功した把持をもたらす確率を直接もしくは間接的に示す尺度を生成することができる。予測された確率は、次いで把持エンドエフェクタを有するロボットによる把持試行のサーボ制御動作において使用され、それによってその環境における物体を成功裏に把持するロボットの能力を改善することができる。
いくつかの実装形態は、把持エンドエフェクタによって物体の成功した把持を達成するために、ロボットの把持エンドエフェクタをサーボ制御するための、トレーニングされた深層ニューラルネットワークの利用に向けられている。たとえば、ロボットの把持エンドエフェクタの姿勢を制御するロボットの1つまたは複数のアクチュエータのための動き制御コマンドの反復的な更新において、および把持エンドエフェクタによる試行された把持を実施するために把持制御コマンドを生成するときを決定するために、トレーニングされた深層ニューラルネットワークが利用されてもよい。様々な実装形態では、把持エンドエフェクタをサーボ制御するためのトレーニングされた深層ニューラルネットワークの利用は、ロボットの混乱および/もしくは環境物体の動きに対する高速フィードバックならびに/または不正確なロボットの作動に対するロバスト性を可能にすることができる。
いくつかの実装形態では、ロボットの把持エンドエフェクタを現在の姿勢から追加の姿勢に移動する動きを定義する候補エンドエフェクタ動きベクトルを生成するステップを含む方法が提供される。本方法は、ロボットに関連付けられた視覚センサによって取り込まれ、把持エンドエフェクタと、ロボットの環境内の少なくとも1つの物体とをキャプチャする現在の画像を識別するステップをさらに含む。本方法は、トレーニングされた畳み込みニューラルネットワークへの入力として現在の画像と候補エンドエフェクタ動きベクトルとを適用するステップと、トレーニングされた畳み込みニューラルネットワークを介して、動きの適用による物体の成功した把持の尺度を生成するステップとをさらに含む。尺度は、トレーニングされた畳み込みニューラルネットワークへの画像およびエンドエフェクタ動きベクトルの適用に基づいて生成される。本方法は、オプションで尺度に基づいてエンドエフェクタコマンドを生成するステップと、エンドエフェクタコマンドをロボットの1つまたは複数のアクチュエータに提供するステップをさらに含む。エンドエフェクタコマンドは、把持コマンドまたはエンドエフェクタ動きコマンドであってもよい。
この方法および本明細書で開示される技術の他の実装形態は、各々以下の特徴のうちの1つまたは複数をオプションで含んでもよい。
いくつかの実装形態では、本方法は、動きの適用なしの物体の成功した把持の現在の尺度を決定するステップと、尺度と現在の尺度とに基づいてエンドエフェクタコマンドを生成するステップとをさらに含む。それらの実装形態のうちのいくつかの変形では、エンドエフェクタコマンドは、把持コマンドであり、把持コマンドを生成するステップは、尺度と現在の尺度との比較が閾値を満たすと判定するステップに応答する。それらの実装形態のいくつかの他の変形では、エンドエフェクタコマンドは、エンドエフェクタ動きコマンドであり、エンドエフェクタ動きコマンドを生成するステップは、候補エンドエフェクタ動きベクトルに従うようにエンドエフェクタ動きコマンドを生成するステップを含む。それらの実装形態のさらに他の変形では、エンドエフェクタコマンドは、エンドエフェクタ動きコマンドであり、エンドエフェクタ動きコマンドを生成するステップは、エンドエフェクタに対する軌道修正を実施するようにエンドエフェクタ動きコマンドを生成するステップを含む。いくつかの実装形態では、動きの適用なしの物体の成功した把持の現在の尺度を決定するステップは、トレーニングされた畳み込みニューラルネットワークへの入力として画像とヌルエンドエフェクタ動きベクトルとを適用するステップと、トレーニングされた畳み込みニューラルネットワークを介して、動きの適用なしの物体の成功した把持の現在の尺度を生成するステップとを含む。
いくつかの実装形態では、エンドエフェクタコマンドは、エンドエフェクタ動きコマンドであり、候補エンドエフェクタ動きベクトルに従う。それらの実施形態のうちのいくつかでは、エンドエフェクタ動きコマンドを1つまたは複数のアクチュエータに提供するステップは、エンドエフェクタを新しい姿勢に移動させ、本方法は、把持エンドエフェクタを新しい姿勢からさらなる追加姿勢に移動させる新しい動きを定義する追加の候補エンドエフェクタ動きベクトルを生成するステップと、ロボットに関連付けられた視覚センサによってキャプチャされた新しい画像を識別するステップであって、新しい画像が、新しい姿勢におけるエンドエフェクタをキャプチャし、環境内の物体をキャプチャする、ステップと、トレーニングされた畳み込みニューラルネットワークへの入力として新しい画像と追加の候補エンドエフェクタ動きベクトルとを適用するステップと、トレーニングされた畳み込みニューラルネットワークを介して、新しい動きの適用による物体の成功した把持の新しい尺度を生成するステップであって、新しい尺度が、トレーニングされた畳み込みニューラルネットワークへの新しい画像および追加のエンドエフェクタ動きベクトルの適用に基づいて生成される、ステップと、新しい尺度に基づいて新しいエンドエフェクタコマンドを生成するステップであって、新しいエンドエフェクタコマンドが、把持コマンドまたは新しいエンドエフェクタ動きコマンドである、ステップと、新しいエンドエフェクタコマンドをロボットの1つまたは複数のアクチュエータに提供するステップとをさらに含む。
いくつかの実装形態では、トレーニングされた畳み込みニューラルネットワークへの入力として画像と候補エンドエフェクタ動きベクトルとを適用するステップは、トレーニングされた畳み込みニューラルネットワークの初期層への入力として画像を適用するステップと、トレーニングされた畳み込みニューラルネットワークの追加層に候補エンドエフェクタ動きベクトルを適用するステップとを含む。追加層は、初期層の下流にあってもよい。それらの実装形態のうちのいくつかでは、追加層に候補エンドエフェクタ動きベクトルを適用するステップが、エンドエフェクタ動きベクトル出力を生成するためにエンドエフェクタ動きベクトルを畳み込みニューラルネットワークの全結合層に渡すステップと、エンドエフェクタ動きベクトル出力を上流出力と連結するステップとを含む。上流出力は、追加層のすぐ上流にあり、畳み込みニューラルネットワークの初期層および1つまたは複数の中間層から下流にある畳み込みニューラルネットワークのすぐ上流の層からのものである。初期層は、畳み込み層であってもよく、すぐ上流の層は、プーリング層であってもよい。
いくつかの実装形態では、本方法は、視覚センサによってキャプチャされた追加画像を識別するステップと、トレーニングされた畳み込みニューラルネットワークへの追加入力として追加画像を適用するステップとをさらに含む。追加画像は、1つまたは複数の環境物体をキャプチャし、ロボットエンドエフェクタを省略するか、または画像内のロボットエンドエフェクタの姿勢と異なる姿勢におけるロボットエンドエフェクタを含んでもよい。それらの実装形態のうちのいくつかでは、画像と追加画像とを畳み込みニューラルネットワークに適用するステップは、連結画像を生成するために画像と追加画像とを連結するステップと、畳み込みニューラルネットワークの初期層への入力として連結画像を適用するステップとを含む。
いくつかの実装形態では、候補エンドエフェクタ動きベクトルを生成するステップは、複数の候補エンドエフェクタ動きベクトルを生成するステップと、複数の候補エンドエフェクタ動きベクトルから候補エンドエフェクタ動きベクトルを選択するために、複数の候補エンドエフェクタ動きベクトルにクロスエントロピー最適化の1回または複数回の反復を実行するステップとを含む。
いくつかの実装形態では、ロボットによる複数の把持試行中に1つまたは複数のロボットからのセンサ出力に基づいて生成された複数のトレーニング例を識別するステップを含む方法が提供される。トレーニング例の各々は、トレーニング例入力とトレーニング例出力とを含む。トレーニング例の各々のトレーニング例入力は、把持試行のうちの対応する把持試行の対応する時間インスタンスに関する画像であって、対応する時間インスタンスにおけるロボットエンドエフェクタと1つまたは複数の環境物体とをキャプチャする画像と、対応する時間インスタンスにおけるエンドエフェクタの時間インスタンス姿勢から対応する把持試行に関するエンドエフェクタの最終姿勢に移動するエンドエフェクタの動きを定義するエンドエフェクタ動きベクトルとを含む。トレーニング例の各々のトレーニング例出力は、対応する把持試行の成功を示す把持成功ラベルを含む。本方法は、トレーニング例に基づいて畳み込みニューラルネットワークをトレーニングするステップをさらに含む。
この方法および本明細書で開示される技術の他の実装形態は、各々以下の特徴のうちの1つまたは複数をオプションで含んでもよい。
いくつかの実装形態では、トレーニング例の各々のトレーニング例入力は、対応する把持試行に関する追加画像をさらに含む。追加画像は、1つまたは複数の環境物体をキャプチャし、ロボットエンドエフェクタを省略するか、または画像内のロボットエンドエフェクタの姿勢と異なる姿勢におけるロボットエンドエフェクタを含んでもよい。いくつかの実装形態では、畳み込みニューラルネットワークをトレーニングするステップは、畳み込みニューラルネットワークに、トレーニング例のうちの所与のトレーニング例のトレーニング例入力を適用するステップを含む。それらの実装形態のうちのいくつかでは、所与のトレーニング例のトレーニング例入力を適用するステップは、連結画像を生成するために画像と所与のトレーニング例の追加画像とを連結するステップと、畳み込みニューラルネットワークの初期層への入力として連結画像を適用するステップとを含む。
いくつかの実装形態では、畳み込みニューラルネットワークをトレーニングするステップは、畳み込みニューラルネットワークに、トレーニング例のうちの所与のトレーニング例のトレーニング例入力を適用するステップを含む。それらの実装形態のうちのいくつかでは、所与のトレーニング例のトレーニング例入力を適用するステップは、畳み込みニューラルネットワークの初期層への入力として所与のトレーニング例の画像を適用するステップと、所与のトレーニング例のエンドエフェクタ動きベクトルを畳み込みニューラルネットワークの追加層に適用するステップとを含む。追加層は、初期層の下流にあってもよい。それらの実装形態のうちのいくつかでは、エンドエフェクタ動きベクトルを追加層に適用するステップは、エンドエフェクタ動きベクトル出力を生成するためにエンドエフェクタ動きベクトルを全結合層に渡すステップと、エンドエフェクタ動きベクトル出力を上流出力に連結するステップとを含む。上流出力は、追加層のすぐ上流にあり、畳み込みニューラルネットワークの初期層および1つまたは複数の中間層から下流にある畳み込みニューラルネットワークのすぐ上流の層からのものであってもよい。初期層は、畳み込み層であってもよく、すぐ上流の層は、プーリング層であってもよい。
いくつかの実装形態では、エンドエフェクタ動きベクトルは、タスク空間におけるエンドエフェクタの動きを定義する。
いくつかの実装形態では、トレーニング例は、第1のロボットによる複数の把持試行中に第1のロボットの複数の第1のロボットセンサからの出力に基づいて生成されたトレーニング例の第1のグループと、第2のロボットによる複数の把持試行中に第2のロボットの複数の第2のロボットセンサからの出力に基づいて生成されたトレーニング例の第2のグループとを含む。それらの実装形態のうちのいくつかでは、第1のロボットセンサは、第1のグループのトレーニング例に関する画像を生成する第1の視覚センサを含み、第2のロボットセンサは、第2のグループのトレーニング例に関する画像を生成する第2の視覚センサを含み、第1のロボットの第1のベースに対する第1の視覚センサの第1の姿勢は、第2のロボットの第2のベースに対する第2の視覚センサの第2の姿勢とは異なる。
いくつかの実装形態では、複数のトレーニング例が基づく把持試行は、エンドエフェクタをエンドエフェクタの開始姿勢からエンドエフェクタの最終姿勢にランダムに動かし、次いで最終姿勢においてエンドエフェクタで把持する複数のランダムアクチュエータコマンドをそれぞれ含む。それらの実装形態のうちのいくつかでは、本方法は、トレーニングされた畳み込みニューラルネットワークに基づいて追加の把持試行を生成するステップと、追加の把持試行に基づいて複数の追加のトレーニング例を識別するステップと、追加のトレーニング例に基づく畳み込みニューラルネットワークのさらなるトレーニングによって畳み込みニューラルネットワークを更新するステップとをさらに含む。
いくつかの実装形態では、トレーニング例の各々に関する把持成功ラベルは、成功を示す第1の値または失敗を示す第2の値のいずれかである。
いくつかの実装形態では、トレーニングするステップは、複数のトレーニング例のトレーニング例出力に基づいて畳み込みニューラルネットワークに対する逆伝播を実行するステップを備える。
他の実装形態は、上記で説明した方法のうちの1つまたは複数などの方法を実行するためにプロセッサ(たとえば、中央処理装置(CPU)またはグラフィックス処理装置(GPU))によって実行可能な命令を記憶する非一時的コンピュータ可読記憶媒体を含むことができる。さらに別の実装形態は、上記で説明した方法のうちの1つまたは複数などの方法を実行するために記憶された命令を実行するように動作可能な1つまたは複数のプロセッサを含む1つもしくは複数のコンピュータおよび/または1つもしくは複数のロボットのシステムを含むことができる。
前述の概念と本明細書でより詳細に説明される追加の概念のすべての組合せが本明細書で開示される主題の一部であると考えられることを理解すべきである。たとえば、本開示の最後に現れる特許請求される主題のすべての組合せが、本明細書で開示される主題の一部であると考えられる。
把持試行がロボットによって実行されてもよく、把持試行に関連するデータがトレーニング例を生成するために利用されてもよく、および/またはトレーニング例が畳み込みニューラルネットワークをトレーニングするために利用されてもよい例示的な環境を示す図である。 図1のロボットのうちの1つと、経路に沿ったロボットの把持エンドエフェクタの動きの一例とを示す図である。 把持試行を実行し、把持試行に関連するデータを記憶する例示的な方法を示すフローチャートである。 ロボットの把持試行に関連するデータに基づいてトレーニング例を生成する例示的な方法を示すフローチャートである。 トレーニング例に基づいて畳み込みニューラルネットワークをトレーニングする例示的な方法を示すフローチャートである。 例示的な畳み込みニューラルネットワークのアーキテクチャを示す図である。 例示的な畳み込みニューラルネットワークのアーキテクチャを示す図である。 把持エンドエフェクタをサーボ制御するためにトレーニングされた畳み込みニューラルネットワークを利用する例示的な方法を示すフローチャートである。 図7Aのフローチャートの特定のブロックのいくつかの実装形態を示すフローチャートである。 ロボットの例示的なアーキテクチャを概略的に示す図である。 コンピュータシステムの例示的なアーキテクチャを概略的に示す図である。
本明細書で説明される技術のいくつかの実装形態は、ロボットの把持エンドエフェクタに関する候補動きデータがエンドエフェクタによる1つまたは複数の物体の成功した把持をもたらす確率を示す尺度を予測するために、トレーニングされた深層ニューラルネットワークの利用を可能にするために、CNNなどの深層ニューラルネットワークをトレーニングすることに向けられている。いくつかの実装形態では、トレーニングされた深層ニューラルネットワークは、視覚センサによって生成された画像(It)を受け入れ、タスク空間動きベクトルなどのエンドエフェクタ動きベクトル(vt)を受け入れる。トレーニングされた深層ニューラルネットワークへの画像(It)およびエンドエフェクタ動きベクトル(vt)の適用は、深層ニューラルネットワークを介して、動きベクトル(vt)によって定義される動きを実施し、その後把持する実行コマンドが成功した把持を生じさせる予測尺度を生成するために使用されてもよい。いくつかの実装形態は、把持エンドエフェクタによる物体の成功した把持を達成するために、ロボットの把持エンドエフェクタをサーボ制御するための、トレーニングされた深層ニューラルネットワークの利用に向けられている。技術のこれらのおよび他の実装形態の追加の説明を以下に提供する。
図1〜図6Bを参照し、CNNをトレーニングする様々な実装形態について説明する。図1は、把持試行がロボット(たとえば、ロボット180A、180B、および/または他のロボット)によって実行されてもよく、把持試行に関連するデータがトレーニング例を生成するために利用されてもよく、ならびに/またはトレーニング例がCNNをトレーニングするために利用されてもよい例示的な環境を示す。
例示的なロボット180Aおよび180Bが図1に示される。ロボット180Aおよび180Bは、把持エンドエフェクタ182Aおよび182Bを所望の位置に位置決めするために複数の潜在的な経路のいずれかに沿った把持エンドエフェクタ182Aおよび182Bの横断を可能にするために複数の自由度を有する「ロボットアーム」である。たとえば、図2を参照すると、経路201に沿ってそのエンドエフェクタを横断させるロボット180Aの一例が示される。図2は、経路201に沿って横断する際にロボット180Aおよびそのエンドエフェクタによってとられる姿勢のセットのうちの2つの異なる姿勢を示すロボット180Aのファントム画像および非ファントム画像を含む。再び図1を参照すると、ロボット180Aおよび180Bは、それぞれそれらの対応する把持エンドエフェクタ182A、182Bの2つの対抗する「爪(claw)」を少なくとも開位置と閉位置(および/またはオプションで複数の「部分的に閉じられた」位置)との間で爪を作動させるようにさらに制御する。
例示的な視覚センサ184Aおよび184Bがまた図1に示される。図1では、視覚センサ184Aは、ロボット180Aのベースまたは他の静止した基準点に対して固定された姿勢で取り付けられる。視覚センサ184Bも、ロボット180Bのベースまたは他の静止した基準点に対して固定された姿勢で取り付けられる。図1に示すように、ロボット180Aに対する視覚センサ184Aの姿勢は、ロボット180Bに対する視覚センサ184Bの姿勢とは異なる。本明細書で説明するように、いくつかの実装形態では、これはカメラ較正に対して堅牢でありおよび/または独立したニューラルネットワークをトレーニングするために利用されてもよい様々なトレーニング例の生成を可能にするのに有益であってもよい。視覚センサ184Aおよび184Bは、センサの視線内にある物体の形状、色、奥行き、および/または他の特徴に関連する画像を生成することができるセンサである。視覚センサ184Aおよび184Bは、たとえばモノグラフィック(monographic)カメラ、立体カメラ、および/または3Dレーザスキャナであってもよい。3Dレーザスキャナは、光を放射する1つまたは複数のレーザと、放射された光の反射に関連するデータを収集する1つまたは複数のセンサとを含む。3Dレーザスキャナは、たとえば飛行時間型3Dレーザスキャナまたは三角測量ベースの3Dレーザスキャナであってもよく、位置検知型検出器(PSD(position sensitive detector))または他の光学的位置センサを含んでもよい。
視覚センサ184Aは、例示的な物体191Aを含む作業空間の一部などのロボット180Aの作業空間の少なくとも一部の視野を有する。物体191Aの載置面は、図1に示されていないが、それらの物体は、テーブル、トレイ、および/または他の表面上に載っていてもよい。物体191Aは、へら(spatula)と、ステープラと、鉛筆とを含む。他の実装形態では、より多くの物体、より少ない物体、追加の物体、および/または代替の物体が、本明細書で説明するようにロボット180Aの把持試行のすべてまたは一部の間に提供されてもよい。視覚センサ184Bは、例示的な物体191Bを含む作業空間の一部などのロボット180Bの作業空間の少なくとも一部の視野を有する。物体191Bの載置面は、図1に示されていないが、それらは、テーブル、トレイ、および/または他の表面上に載っていてもよい。物体191Bは、鉛筆と、ステープラと、眼鏡とを含む。他の実装形態では、より多くの物体、より少ない物体、追加の物体、および/または代替の物体が、本明細書で説明するようにロボット180Bの把持試行のすべてまたは一部の間に提供されてもよい。
特定のロボット180Aおよび180Bが図1に示されるが、ロボット180Aおよび180Bと同様の追加のロボットアーム、他のロボットアーム形状を有するロボット、人間型形状を有するロボット、動物形状を有するロボット、1つまたは複数の車輪を介して移動するロボット(たとえば、自己平衡型ロボット)、潜水艇ロボット、無人航空機("UAV"(unmanned aerial vehicle))などを含む追加および/または代替ロボットが利用されてもよい。また、特定の把持エンドエフェクタが図1に示されるが、代替の衝撃的把持エンドエフェクタ(たとえば、把持「プレート」を有するもの、より多いまたはより少ない「指」/「爪」を有するもの)、「侵入的」把持エンドエフェクタ、「収斂性」把持エンドエフェクタ、もしくは「接触的」把持エンドエフェクタ、または非把持エンドエフェクタなどの追加のおよび/または代替のエンドエフェクタが利用されてもよい。加えて、視覚センサ184Aおよび184Bの特定の取り付けが図1に示されるが、追加のおよび/または代替の取り付けが利用されてもよい。たとえば、いくつかの実装形態では、視覚センサは、ロボットの非作動可能コンポーネント上、またはロボットの作動可能コンポーネント上(たとえば、エンドエフェクタ上またはエンドエフェクタに近いコンポーネント上)など、ロボットに直接取り付けられてもよい。また、たとえばいくつかの実装形態では、視覚センサは、その関連するロボットとは別個の非静止構造体に取り付けられてもよく、および/またはその関連するロボットとは別個の構造体上に非静止状態で取り付けられてもよい。
ロボット180A、180B、および/または他のロボットは、多量の把持試行を実行するために利用されてもよく、把持試行に関連するデータは、トレーニング例を生成するためにトレーニング例生成システム110によって利用されてもよい。いくつかの実装形態では、トレーニング例生成システム110のすべてまたは諸態様は、ロボット180Aおよび/またはロボット180Bにおいて(たとえば、ロボット180Aおよび180Bの1つまたは複数のプロセッサを介して)実装されてもよい。たとえば、ロボット180Aおよび180Bは、それぞれトレーニング例生成システム110のインスタンスを含むことができる。いくつかの実装形態では、トレーニング例生成システム110のすべてまたは態様は、ロボット180Aおよび180Bとは別個であるが、ロボット180Aおよび180Bとネットワーク通信する1つまたは複数のコンピュータシステム上に実装されてもよい。
ロボット180A、180B、および/または他のロボットによる各把持試行は、Tの別個の時間ステップまたはインスタンスからなる。各時間ステップにおいて、把持試行を実行するロボットの視覚センサによってキャプチャされた現在の画像
が記憶され、エンドエフェクタの現在の姿勢
もまた記憶され、ロボットは、次にグリッパを動かす経路(平行移動および/または回転)を選択する。最終時間ステップTにおいて、ロボットは、グリッパを作動させ(たとえば、閉じ)、把持の成功の評価を可能にするために追加のデータを記憶し、および/または1つもしくは複数の追加のアクションを実行する。トレーニング例生成システム110の把持成功エンジン116は、把持の成功を評価し、把持成功ラベル(li)を生成する。
各把持試行は、
によって表されるTのトレーニング例をもたらす。すなわち、各トレーニング例は、少なくともその時間ステップにおいて観察された画像
と、その時間ステップにおける姿勢から最終的に到達する画像(把持試行の最終姿勢)へのエンドエフェクタ動きベクトル
と、把持試行の把持成功ラベル(li)とを含む。各エンドエフェクタ動きベクトルは、トレーニング例生成システム110のエンドエフェクタ動きベクトルエンジン114によって決定されてもよい。たとえば、エンドエフェクタ動きベクトルエンジン114は、現在の姿勢と把持試行の最終姿勢との間の変換を決定し、変換をエンドエフェクタ動きベクトルとして使用することができる。複数のロボットの複数の把持試行に関するトレーニング例は、トレーニング例生成システム110によってトレーニング例データベース117内に記憶される。
ロボットに関連付けられたセンサによって生成されたデータ、および/または生成されたデータから導出されたデータは、ロボットに局所的な、および/またはロボットから離れた1つまたは複数の非一時的コンピュータ可読媒体内に記憶されてもよい。いくつかの実装形態では、現在の画像は、赤色チャネル、青色チャネル、緑色チャネル、および/または深度チャネルなどの複数のチャネルを含むことができる。画像の各チャネルは、画像のピクセルの各々に関する0から255までの値などの画像の複数のピクセルの各々に関する値を規定する。いくつかの実装形態では、トレーニング例の各々は、現在の画像と、対応する把持試行に関する追加画像とを含むことができ、追加画像は、把持エンドエフェクタを含まず、または異なる姿勢(たとえば、現在の画像の姿勢と重複しない姿勢)におけるエンドエフェクタを含む。たとえば、追加画像は、任意の先行する把持試行後であるが、把持試行に関するエンドエフェクタの動きが開始する前、および把持エンドエフェクタが視覚センサの視野外に移動されたときに取り込まれてもよい。現在の姿勢、および現在の姿勢から把持試行の最終姿勢へのエンドエフェクタ動きベクトルは、タスク空間において、ジョイント空間において、または別の空間において表されてもよい。たとえば、エンドエフェクタ動きベクトルは、タスク空間における5つの値、すなわち3次元(3D)平行移動ベクトルを規定する3つの値、およびエンドエフェクタの軸の周りのエンドエフェクタの向きにおける変化のサイン−コサイン符号化を表す2つの値によって表されてもよい。いくつかの実装形態では、把持成功ラベルは、「0/成功」または「1/不成功」ラベルなどの2値ラベルである。いくつかの実装形態では、把持成功ラベルは、0、1、および0と1との間の1つまたは複数の値などの2つ以上のオプションから選択されてもよい。たとえば、"0"は、確認された「不成功の把持」を示してもよく、"1"は、確認された「成功した把持」を示してもよく、"0.25"は、「成功しない可能性が最も高い把持」を示してもよく、"0.75"は、「成功する可能性が最も高い把持」を示してもよい。
トレーニングエンジン120は、トレーニング例データベース117のトレーニング例に基づいて、CNN125または他のニューラルネットワークをトレーニングする。CNN125をトレーニングすることは、CNN125へのトレーニング例の適用に基づいてCNN125を反復的に更新することを含んでもよい。たとえば、現在の画像、追加画像、および現在の姿勢からトレーニング例の把持試行の最終姿勢へのベクトルは、トレーニング例入力として利用されてもよく、把持成功ラベルは、トレーニング例出力として利用されてもよい。トレーニングされたCNN125は、現在の画像(および、オプションでエンドエフェクタを少なくとも部分的に省略した画像などの追加画像)を考慮して、所与のエンドエフェクタ動きベクトルに従ってグリッパを移動し、その後把持することが成功した把持を生じさせる確率を示す尺度を予測するようにトレーニングされる。
図3は、把持試行を実行し、把持試行に関連するデータを記憶する例示的な方法300を示すフローチャートである。便宜上、フローチャートの動作について、動作を実行するシステムを参照して説明する。このシステムは、ロボット180A、180B、840、および/または他のロボットのプロセッサおよび/またはロボット制御システムなどのロボットの1つまたは複数のコンポーネントを含むことができる。さらに、方法300の動作が特定の順序で示されるが、これは限定することを意味しない。1つまたは複数の動作が、並べ替えられ、省略され、または追加されてもよい。
ブロック352において、システムは、把持試行を開始する。ブロック354において、システムは、エンドエフェクタが画像内に存在しない環境の画像を記憶する。たとえば、システムは、把持エンドエフェクタを視覚センサの視野外に移動させ(すなわち、環境の眺めを遮らない)、把持エンドエフェクタが視野外にあるときのインスタンスにおける画像を取り込むことができる。画像は、次いで記憶され、把持試行に関連付けられてもよい。
ブロック356において、システムは、エンドエフェクタの動きを決定しかつ実施する。たとえば、システムは、エンドエフェクタの姿勢を制御するアクチュエータのうちの1つまたは複数を作動させ、それによってエンドエフェクタの姿勢を変化させる1つまたは複数の動きコマンドを生成することができる。
ブロック356のいくつかの実装形態および/または反復では、動きコマンドは、エンドエフェクタによって到達可能な作業空間、エンドエフェクタが把持試行に限られる制限された空間、ならびに/またはエンドエフェクタの姿勢を制御するアクチュエータの位置制限および/もしくはトルク制限によって規定される空間などの所与の空間内でランダムであってもよい。たとえば、ニューラルネットワークの初期トレーニングが完了する前に、エンドエフェクタの動きを実施するためにブロック356においてシステムによって生成された動きコマンドは、所与の空間内でランダムであってもよい。本明細書で使用されるランダムは、真のランダムまたは疑似ランダムを含むことができる。
いくつかの実装形態では、エンドエフェクタの移動を実施するためにブロック356においてシステムによって生成された動きコマンドは、トレーニングされたニューラルネットワークの現在のバージョンに少なくとも部分的に基づくことができ、および/または他の基準に基づくことができる。いくつかの実装形態では、各把持試行に対するブロック356の最初の反復において、エンドエフェクタは、エンドエフェクタがブロック354において視野外に移動されることに基づいて、「位置の外」であってもよい。これらの実装形態のうちのいくつかでは、ブロック356の最初の反復の前に、エンドエフェクタは、ランダムにまたは他の形で「位置に戻す」ように動かされてもよい。たとえば、エンドエフェクタは、設定された「開始位置」に戻されてもよく、および/または所与の空間内のランダムに選択された位置に移動されてもよい。
ブロック358において、システムは、(1)把持試行の現在のインスタンスにおけるエンドエフェクタと環境とをキャプチャする画像と、(2)現在のインスタンスにおけるエンドエフェクタの姿勢とを記憶する。たとえば、システムは、ロボットに関連付けられた視覚センサによって生成された現在の画像を記憶し、画像を現在のインスタンスと(たとえば、タイムスタンプと)関連付けることができる。また、たとえばシステムは、その位置がロボットの姿勢に影響を及ぼすロボットの関節の1つまたは複数の関節位置センサからのデータに基づいてエンドエフェクタの現在の姿勢を決定することができ、システムは、その姿勢を記憶することができる。システムは、タスク空間、ジョイント空間、または別の空間におけるエンドエフェクタの姿勢を決定および記憶することができる。
ブロック360において、システムは、現在のインスタンスが把持試行に関する最終インスタンスであるかどうかを判定する。いくつかの実装形態では、システムはブロック352、354、356、もしくは358においてインスタンスカウンタをインクリメントすることができ、および/または時間が経過するにつれて時間カウンタをインクリメントすることができ、カウンタの値を閾値と比較することに基づいて現在のインスタンスが最終インスタンスであるかどうかを判定することができる。たとえば、カウンタは、時間カウンタであってもよく、閾値は、3秒、4秒、5秒、および/または他の値であってもよい。いくつかの実装形態では、閾値は、方法300の1つまたは複数の反復間で変化してもよい。
システムがブロック360において現在のインスタンスが把持試行に関する最終インスタンスではないと判定した場合、システムはブロック356に戻り、別のエンドエフェクタの動きを決定および実施し、次いでブロック358に進み、現在のインスタンスにおける画像と姿勢とを記憶する。所与の把持試行に関するブロック356、358および360の複数の反復を通して、エンドエフェクタの姿勢は、ブロック356の複数の反復によって変更され、それらの反復の各々において画像と姿勢とが記憶される。多くの実装形態では、ブロック356、358、360、および/または他のブロックは、比較的高い頻度で実行されてもよく、それによって各把持試行に関する比較的大量のデータを記憶することができる。
システムがブロック360において現在のインスタンスが把持試行に関する最終インスタンスであると判定した場合、システムはブロック362に進み、エンドエフェクタのグリッパを作動させる。たとえば、衝撃的グリッパエンドエフェクタについて、システムは、1つまたは複数のプレート、指、および/または他の部材を閉じさせることができる。たとえば、システムは、部材が完全に閉じられた位置になるか、部材に関連付けられたトルクセンサによって測定されたトルク読み取り値が閾値を満たすまで、部材を閉じさせることができる。
ブロック364において、システムはブロック360の把持の成功の決定を可能にするために、追加データを記憶し、オプションで1つまたは複数の追加アクションを実行する。いくつかの実装形態では、追加データは、位置読み取り値、トルク読み取り値、および/またはグリッパエンドエフェクタからの他の読み取り値である。たとえば、ある閾値(たとえば、1cm)よりも大きい位置読み取り値は、成功した把持を示すことができる。
いくつかの実装形態では、ブロック364において、システムは、加えておよび/または代替的に、(1)エンドエフェクタを作動された(たとえば、閉じられた)位置に維持し、エンドエフェクタと、エンドエフェクタによって把持されている場合がある任意の物体とを(たとえば、垂直および/または横方向に)移動し、(2)エンドエフェクタが移動された後、元の把持位置をキャプチャする画像を記憶し、(3)(オプションで、グリッパを元の把持位置の近くに戻した後)エンドエフェクタに、エンドエフェクタによって把持されている任意の物体を「落とさせ」、(4)(もしあれば)物体が落とされた後、元の把持位置をキャプチャする画像を記憶する。システムは、エンドエフェクタおよび物体(もしあれば)が移動された後に元の把持位置をキャプチャする画像を記憶してもよく、物体(もしあれば)が落とされた後に元の把持位置をキャプチャする画像を記憶してもよく、画像を把持試行に関連付けてもよい。エンドエフェクタおよび物体(もしあれば)が移動された後の画像と、物体(もしあれば)が落とされた後の画像とを比較することは、把持が成功したかどうかを示す場合がある。たとえば、一方の画像内に現れるが、他方の画像内には現れない物体は、成功した把持を示す場合がある。
ブロック366において、システムは、カウンタ(たとえば、インスタンスカウンタおよび/または時間カウンタ)をリセットし、別の把持試行を開始するためにブロック352に戻る。
いくつかの実装形態では、図3の方法300は、オプションでは方法300のそれらのそれぞれの反復のうちの1つまたは複数(たとえば、すべて)の間に並列に動作する、複数のロボットの各々において実施されてもよい。これは、1つのロボットのみが方法300を動作していた場合よりも多くの把持試行が所与の時間期間内に達成されることを可能にすることができる。さらに、複数のロボットのうちの1つまたは複数が他のロボットに関連付けられた1つまたは複数の視覚センサの姿勢と異なるロボットに対する姿勢を有する関連する視覚センサを含む実装形態では、複数のロボットからの把持試行に基づいて生成されたトレーニング例は、それらのトレーニング例に基づいてトレーニングされたニューラルネットワークにおける視覚センサの姿勢にロバスト性を提供することができる。さらに、複数のロボットの把持エンドエフェクタおよび/もしくは他のハードウェアコンポーネントが異なっているかおよび/もしくは異なって摩耗する実装形態、ならびに/または異なるロボット(たとえば、同じ型および/もしくはモデル、ならびに/または異なる型および/もしくはモデル)が異なる物体(たとえば、異なるサイズ、異なる重さ、異なる形状、異なる透光性、異なる材料の物体)、および/または異なる環境(たとえば異なる表面、異なる照明、異なる環境上の障害)と相互作用する実装形態では、複数のロボットからの把持試行に基づいて生成されたトレーニング例は、様々なロボット構成および/または環境構成にロバスト性を提供することができる。
いくつかの実装形態では、所与のロボットによって到達可能であり、把持試行が行われてもよい物体は、方法300の異なる反復中に異なってもよい。たとえば、人間のオペレータおよび/または別のロボットは、ロボットの1つまたは複数の把持試行間にロボットの作業空間に物体を追加および/または除去することができる。また、たとえばロボット自体は、1つまたは複数の物体の成功した把持に続いて、それらの物体をその作業空間外に落とすことができる。これは、トレーニングデータの多様性を増加させる場合がある。いくつかの実装形態では、照明、表面、障害物などの環境要因は、加えておよび/または代替的に、方法300の異なる反復中に異なる場合があり、それがまた、トレーニングデータの多様性を増加させる場合がある。
図4は、ロボットの把持試行に関連するデータに基づいてトレーニング例を生成する例示的な方法400を示すフローチャートである。便宜上、フローチャートの動作について、動作を実行するシステムを参照して説明する。このシステムは、ロボット180A、180B、1220のプロセッサおよび/もしくはロボット制御システム、ならびに/またはトレーニング例生成システム110および/もしくはオプションではロボットとは別個に実装されてもよい他のシステムのプロセッサなどのロボットおよび/または別のコンピュータシステムの1つまたは複数のコンポーネントを含むことができる。さらに、方法400の動作が特定の順序で示されるが、これは限定することを意味しない。1つまたは複数の動作が、並べ替えられ、省略され、または追加されてもよい。
ブロック452において、システムは、トレーニング例生成を開始する。ブロック454において、システムは把持試行を選択する。たとえば、システムは、複数の記憶された把持試行に関連するデータを含むデータベースにアクセスし、記憶された把持試行のうちの1つを選択することができる。選択された把持試行は、たとえば図3の方法300に基づいて生成された把持試行であってもよい。
ブロック456において、システムは、選択された把持試行に関する記憶されたデータに基づいて、選択された把持試行に対する把持成功ラベルを決定する。たとえば、方法300のブロック364に関して説明したように、把持試行に対する把持成功ラベルの決定を可能にするために、把持試行に関して追加データが記憶されてもよい。記憶されたデータは、1つまたは複数のセンサからのデータを含むことができ、データは、把持試行中および/または把持試行後に生成される。
一例として、追加のデータは、位置読み取り値、トルク読み取り値、および/または把持エンドエフェクタからの他の読み取り値であってもよい。そのような例では、システムは、読み取り値に基づいて把持成功ラベルを決定することができる。たとえば、読み取り値が位置読み取り値である場合、システムは、読み取り値がある閾値(たとえば、1cm)よりも大きい場合、「成功把持」ラベルを決定することができ、読み取り値がある閾値(たとえば、1cm)よりも小さい場合、「不成功把持」ラベルを決定することができる。
別の例として、追加データは、エンドエフェクタおよび物体(もしあれば)が移動された後の元の把持位置をキャプチャする画像、ならびに、物体(もしあれば)が落とされた後の元の把持位置をキャプチャする画像であってもよい。把持成功ラベルを決定するために、システムは、(1)エンドエフェクタおよび物体(もしあれば)が移動された後の画像を(2)物体(もしあれば)が落とされた後の画像と比較してもよい。たとえば、システムは、2つの画像のピクセルを比較してもよく、2つの画像間の閾値数よりも多いピクセルが異なる場合、システムは、「成功した把持」ラベルを決定してもよい。また、たとえばシステムは、2つの画像の各々において物体検出を実行し、物体(もしあれば)が落とされた後にキャプチャされた画像において物体が検出されたが、エンドエフェクタおよび物体(もしあれば)が移動された後にキャプチャされた画像において物体が検出されなかった場合、「成功した把持」ラベルを決定してもよい。
さらに別の例として、追加データは、エンドエフェクタおよび物体(もしあれば)が移動された後の元の把持位置をキャプチャする画像であってもよい。把持成功ラベルを決定するために、システムは、(1)エンドエフェクタおよび物体(もしあれば)が移動された後の画像と、(2)把持試行が開始する前に撮られた環境の追加画像(たとえば、エンドエフェクタを省略した追加画像)とを比較してもよい。
いくつかの実装形態では、把持成功ラベルは、「成功」/「不成功」ラベルなどの2値ラベルである。いくつかの実装形態では、把持成功ラベルは、0、1、および0と1との間の1つまたは複数の値などの3つ以上のオプションから選択されてもよい。たとえば、ピクセル比較手法では、"0"は、確認された「成功しなかった把持」を示してもよく、第1の閾値数未満のピクセルが2つの画像間で異なっているときにシステムによって選択されてもよく、"0.25"は、「成功していない可能性が最も高い把持」を示してもよく、異なるピクセルの数が第1の閾値からより大きい第2の閾値までであるときに選択されてもよく、"0.75"は、「成功した可能性が最も高い把持」を示してもよく、異なるピクセルの数が第2の閾値(または他の閾値)よりも大きいが、第3の閾値未満であるときに選択されてもよく、"1"は、「確認された成功した把持」を示してもよく、異なるピクセルの数が第3の閾値以上であるときに選択されてもよい。
ブロック458において、システムは、把持試行に関するインスタンスを選択する。たとえば、システムは、タイムスタンプ、および/またはインスタンスを把持試行の他のインスタンスと区別する、データに関連する他の境界に基づいてインスタンスに関連するデータを選択することができる。
ブロック460において、システムは、インスタンスにおけるエンドエフェクタの姿勢と、把持試行の最終インスタンスにおけるエンドエフェクタの姿勢とに基づいて、インスタンスに関するエンドエフェクタ動きベクトルを生成する。たとえば、システムは、現在の姿勢と把持試行の最終姿勢との間の変換を決定し、エンドエフェクタ動きベクトルとして変換を使用することができる。現在の姿勢、および現在の姿勢から把持試行の最終姿勢へのエンドエフェクタ動きベクトルは、タスク空間、ジョイント空間、または別の空間において表されてもよい。たとえば、エンドエフェクタ動きベクトルは、タスク空間における5つの値、すなわち3次元(3D)平行移動ベクトルを規定する3つの値、およびエンドエフェクタの軸の周りのエンドエフェクタの向きにおける変化のサイン−コサイン符号化を表す2つの値によって表されてもよい。
ブロック462において、システムは、(1)インスタンスに関する記憶された画像と、(2)ブロック460においてインスタンスに関して生成されたエンドエフェクタ動きベクトルと、(3)ブロック456において決定された把持成功ラベルとを含むインスタンスに関するトレーニング例を生成する。いくつかの実装形態では、システムは、エンドエフェクタを少なくとも部分的に除外し、把持試行の前にキャプチャされたものなどの把持試行に関する記憶された追加画像も含むトレーニング例を生成する。それらの実装形態のうちのいくつかでは、システムは、トレーニング例のための連結された画像を生成するために、インスタンスに関する記憶された画像と、把持試行に関する記憶された追加画像とを連結する。連結された画像は、インスタンスに関する記憶された画像と、記憶された追加画像の両方を含む。たとえば、両方の画像がX×Yピクセルと、3つのチャネル(たとえば、赤色、青色、緑色)とを含む場合、連結された画像は、X×Yピクセルと、6つのチャネル(各画像から3つ)とを含むことができる。本明細書で説明するように、現在の画像、追加画像、および現在の姿勢からトレーニング例の把持試行の最終姿勢へのベクトルはトレーニング例入力として利用されてもよく、把持成功ラベルはトレーニング例出力として利用されてもよい。
いくつかの実装形態では、ブロック462において、システムは、オプションで画像を処理することができる。たとえば、システムは、オプションでCNNの入力層の規定されたサイズに合うように画像の大きさを変更し、画像から1つまたは複数のチャネルを除去し、および/または(画像が深度チャネルを含む実装形態では)深度チャネルの値を正規化することができる。
ブロック464において、システムは、選択されたインスタンスが把持試行の最終インスタンスであるかどうかを判定する。システムが、選択されたインスタンスが把持試行の最終インスタンスではないと判定した場合、システムはブロック458に戻り、別のインスタンスを選択する。
システムが、選択されたインスタンスが把持試行の最終インスタンスであると判定した場合、システムはブロック466に進み、処理する追加の把持試行が存在するかどうかを判定する。システムが、処理する追加の把持試行が存在すると判定した場合、システムはブロック454に戻り、別の把持試行を選択する。いくつかの実装形態では、処理する追加の把持試行が存在するかどうかを判定することは、任意の残りの未処理把持試行が存在するかどうかを判定することを含むことができる。いくつかの実装形態では、処理する追加の把持試行が存在するかどうかを判定することは、加えておよび/または代替的に、閾値数のトレーニング例が既に生成されているかどうか、および/または他の基準が満たされているかどうかを判定することを含むことができる。
システムが、処理する追加の把持試行が存在しないと判定した場合、システムはブロック466に進み、方法400は、終了する。方法400の別の反復が再び実行されてもよい。たとえば、方法400は、実行されている少なくとも閾値数の追加把持試行に応答して再び実行されてもよい。
方法300および方法400は、明確のため本明細書では別個の図において示されるが、方法400の1つまたは複数のブロックは、方法300の1つまたは複数のブロックを実行する同じコンポーネントによって実行されてもよいことが理解される。たとえば、方法300および方法400のブロックのうちの1つまたは複数(たとえば、すべて)は、ロボットのプロセッサによって実行されてもよい。また、方法400の1つまたは複数のブロックは、方法300の1つまたは複数のブロックと組み合わせて、またはその前もしくは後に実行されてもよいことが理解される。
図5は、トレーニング例に基づいて畳み込みニューラルネットワークをトレーニングする例示的な方法500を示すフローチャートである。便宜上、フローチャートの動作について、動作を実行するシステムを参照して説明する。このシステムは、トレーニングエンジン120のプロセッサ(たとえば、GPU)、および/または畳み込みニューラルネットワーク(たとえば、CNN125)を介して動作する他のコンピュータシステムなどのコンピュータシステムの1つまたは複数のコンポーネントを含むことができる。さらに、方法500の動作が特定の順序で示されるが、これは限定することを意味しない。1つまたは複数の動作が、並べ替えられ、省略され、または追加されてもよい。
ブロック552において、システムは、トレーニングを開始する。ブロック554において、システムは、トレーニング例を選択する。たとえば、システムは、図4の方法400に基づいて生成されたトレーニング例を選択することができる。
ブロック556において、システムは、トレーニング例のインスタンスに関する画像と、選択されたトレーニング例の追加画像とをCNNの初期層に適用する。たとえば、システムは、CNNの初期畳み込み層に画像を適用することができる。本明細書で説明するように、追加画像は、エンドエフェクタを少なくとも部分的に除外することができる。いくつかの実装形態では、システムは、画像と追加画像とを連結し、連結された画像を初期層に適用する。いくつかの他の実装形態では、画像および追加画像は、トレーニング例において既に連結されている。
ブロック558において、システムは、選択されたトレーニング例のエンドエフェクタ動きベクトルをCNNの追加層に適用する。たとえば、システムはブロック556において画像が適用された初期層の下流にあるCNNの追加層にエンドエフェクタ動きベクトルを適用することができる。いくつかの実装形態では、エンドエフェクタ動きベクトルを追加層に適用するために、システムは、エンドエフェクタ動きベクトル出力を生成するためにエンドエフェクタ動きベクトルを全結合層に通し、エンドエフェクタ動きベクトル出力をCNNのすぐ上流の層からの出力と連結する。すぐ上流の層は、エンドエフェクタ動きベクトルが適用される追加層のすぐ上流の層であり、オプションでブロック556において画像が適用される初期層から下流の1つまたは複数の層であってもよい。いくつかの実装形態では、初期層は畳み込み層であり、すぐ上流の層はプーリング(pooling)層であり、追加層は畳み込み層である。
ブロック560において、システムは、トレーニング例の把持成功ラベルに基づいてCNNに対して逆伝播を実行する。ブロック562において、システムは、追加のトレーニング例が存在するかどうかを判定する。システムが、追加のトレーニング例が存在すると判定した場合、システムはブロック554に戻り、別のトレーニング例を選択する。いくつかの実装形態では、追加のトレーニング例が存在するかどうかを判定することは、CNNをトレーニングするために利用されていない任意の残りのトレーニング例が存在するかどうかを判定することを含むことができる。いくつかの実装形態では、追加のトレーニング例が存在するかどうかを判定することは、加えておよび/または代替的に、閾値数のトレーニング例が利用されているかどうか、および/または他の基準が満たされているかどうかを判定することを含むことができる。
システムが、追加のトレーニング例が存在しないと判定した場合、および/または何らかの他の基準が満たされていると判定した場合、システムはブロック564またはブロック566に進む。
ブロック564において、CNNのトレーニングは終了することができる。トレーニングされたCNNは、次いで把持エンドエフェクタによる物体の成功した把持を達成するために、把持エンドエフェクタをサーボ制御する際に1つまたは複数のロボットによって使用するために提供されてもよい。たとえば、ロボットは、図7Aの方法700を実行する際にトレーニングされたCNNを利用することができる。
ブロック566において、システムは、加えておよび/または代替的にトレーニングされたCNNに基づいて追加のトレーニング例を生成するために、トレーニングされたCNNを提供することができる。たとえば1つまたは複数のロボットは、把持試行を実行する際にトレーニングされたCNNを利用することができ、それらの把持試行からのデータが、追加のトレーニング例を生成するために利用されてもよい。たとえば、1つまたは複数のロボットは、図7Aの方法700に基づいて把持試行を実行する際にトレーニングされたCNNを利用することができ、それらの把持試行からのデータが、図4の方法400に基づいて追加のトレーニング例を生成するために利用されてもよい。そのデータが追加のトレーニング例を生成するために利用されるロボットは、実験室/トレーニングセットアップにおけるロボット、および/または1人または複数の消費者による実際の使用におけるロボットであってもよい。
ブロック568において、システムはブロック566においてトレーニングされたCNNを提供することに応答して生成された追加のトレーニング例に基づいてCNNを更新してもよい。たとえば、システムは、追加のトレーニング例に基づいてブロック554、556、558および560の追加の反復を実行することによってCNNを更新してもよい。
ブロック566とブロック568との間に延びる矢印によって示すように、更新されたCNNは、さらなるトレーニング例を生成するためにブロック566において再び提供されてもよく、それらのトレーニング例は、ブロック568においてCNNをさらに更新するために利用される。いくつかの実装形態では、ブロック566の将来の反復に関連して実行される把持試行は、将来の反復において実行されるものおよび/またはトレーニングされたCNNの利用なしで実行されるものよりも時間的に長い把持試行であってもよい。たとえば、トレーニングされたCNNの利用なしで実行される図3の方法300の実装形態は、時間的により短い把持試行を有することができ、最初にトレーニングされたCNNを用いて実行されたものは、時間的により長い把持試行を有することができ、トレーニングされたCNNの次の反復を用いて実行されたものは、さらに時間的により長い把持試行を有することなどができる。これは、オプションで方法300のオプションのインスタンスカウンタおよび/または時間カウンタによって実現されてもよい。
図6Aおよび図6Bは、様々な実装形態のCNN600の例示的なアーキテクチャを示す。図6Aおよび図6BのCNN600は、図5の方法500に基づいてトレーニングされてもよいCNNの例である。図6Aおよび図6BのCNN600は、さらに一旦トレーニングされると、図7Aの方法700に基づいて把持エンドエフェクタをサーボ制御する際に利用されてもよいCNNの例である。一般に、畳み込みニューラルネットワークは、入力層と、1つまたは複数の畳み込み層と、オプションの重みおよび/または他の層と、出力層とを含む多層学習フレームワークである。トレーニング中、畳み込みニューラルネットワークは、特徴表現の階層を学習するためにトレーニングされる。ネットワークの畳み込み層は、フィルタを用いて畳み込まれ、オプションでプーリング層によってダウンサンプリングされる。一般に、プーリング層は、最大、最小、および/または正規化サンプリングなどの1つまたは複数のダウンサンプリング関数によって、値をより小さい領域内に集約する。
CNN600は、畳み込み層である初期入力層663を含む。いくつかの実装形態では、初期入力層663は、ストライド2と64のフィルタとを有する6×6の畳み込み層である。エンドエフェクタを有する画像661Aおよびエンドエフェクタのない画像661Bも図6Aに示される。画像661Aおよび661Bは、さらに連結されているように示され(たとえば、それぞれから延びる合流線によって表され)、連結された画像は、初期入力層663に供給される。いくつかの実装形態では、画像661Aおよび661Bは、それぞれ472ピクセル×472ピクセル×3チャネル(たとえば、3チャネルは、深度チャネル、第1の色チャネル、第2の色チャネル、第3の色チャネルから選択されてもよい)であってもよい。したがって、連結された画像は、472ピクセル×472ピクセル×6チャネルであってもよい。異なるピクセルサイズまたはより多いもしくはより少ないチャネルなどの他のサイズが使用されてもよい。画像661Aおよび661Bは、初期入力層663に畳み込まれる。CNN600の初期入力層および他の層の特徴の重みは、複数のトレーニング例に基づいてCNN600のトレーニング中に学習される。
初期入力層663の後に最大プーリング層664が続く。いくつかの実装形態では、最大プーリング層664は、64のフィルタを有する3×3最大プーリング層である。最大プーリング層664の後に6つの畳み込み層が続き、そのうちの2つは、図6A中で665および666によって表される。いくつかの実装形態では、6つの畳み込み層は、それぞれ64のフィルタを有する5×5畳み込み層である。畳み込み層666の後に最大プーリング層667が続く。いくつかの実装形態では、最大プーリング層667は、64のフィルタを有する3×3最大プーリング層である。
エンドエフェクタ動きベクトル662も図6Aに示される。エンドエフェクタ動きベクトル662は、(図6Aの"+"によって示されるように)最大プーリング層667の出力と連結され、連結された出力は、畳み込み層670に適用される(図6B)。いくつかの実装形態では、エンドエフェクタ動きベクトル662を最大プーリング層667の出力と連結することは、全結合層668によってエンドエフェクタ動きベクトル662を処理することを含み、その出力は、次いでタイル(tiled)ベクトル669を介して出力を空間次元にわたってタイリングすることによって最大プーリング層667の応答マップ内の各点に点ごとに加算される。言い換えれば、エンドエフェクタ動きベクトル662は、全結合層668に通され、タイルベクトル669を介して最大プーリング層667の応答マップの空間次元にわたって複製される。
ここで図6Bに進むと、エンドエフェクタ動きベクトル662と最大プーリング層667の出力との連結は、畳み込み層670に提供され、畳み込み層670の後にはもう5つの畳み込み層が続く(それらの5つのうち最後の畳み込み層671が図6Bに示されるが、介在する4つは示されない)。いくつかの実装形態では、畳み込み層670および671、ならびに4つの介在する畳み込み層は、それぞれ64のフィルタを有する3×3畳み込み層である。
畳み込み層671の後に最大プーリング層672が続く。いくつかの実装形態では、最大プーリング層672は、64のフィルタを有する2×2最大プーリング層である。最大プーリング層672の後に3つの畳み込み層が続き、そのうちの2つが図6Aにおいて673および674によって表される。
CNN600の最後の畳み込み層674は第1の全接続層675に完全に接続され、第1の全接続層675は次に第2の全接続層676に完全に接続される。全接続層675および676は、サイズ64のベクトルなどのベクトルであってもよい。第2の全結合層676の出力は、成功した把持の尺度677を生成するために利用される。たとえば、尺度677を生成して出力するために、シグモイドが利用されてもよい。CNN600をトレーニングするいくつかの実装形態では、エポック、学習レート、重み減衰、ドロップアウト確率、および/または他のパラメータに関する様々な値が利用されてもよい。いくつかの実装形態では、CNN600をトレーニングおよび/または利用するために、1つまたは複数のGPUが利用されてもよい。特定の畳み込みニューラルネットワーク600が図6に示されるが、変形が可能である。たとえば、より多いまたはより少ない畳み込み層が設けられてもよく、1つまたは複数の層が例として提供されたものと異なるサイズであるなどでもよい。
CNN600または他のニューラルネットワークが本明細書で説明される技法に従って一旦トレーニングされると、それは、把持エンドエフェクタをサーボ制御するために利用されてもよい。図7Aを参照すると、把持エンドエフェクタをサーボ制御するためにトレーニングされた畳み込みニューラルネットワークを利用する例示的な方法700を示すフローチャートが示される。便宜上、フローチャートの動作について、動作を実行するシステムを参照して説明する。このシステムは、ロボット180A、180B、840、および/または他のロボットのプロセッサ(たとえば、CPUおよび/またはGPU)および/またはロボット制御システムなどのロボットの1つまたは複数のコンポーネントを含むことができる。方法700の1つまたは複数のブロックを実施する際、システムは、たとえばロボットにおいて局所的に記憶されてもよい、および/またはロボットから離れて記憶されてもよいトレーニングされたCNNを介して動作することができる。さらに、方法700の動作が特定の順序で示されるが、これは限定することを意味しない。1つまたは複数の動作が、並べ替えられ、省略され、または追加されてもよい。
ブロック752において、システムは、候補エンドエフェクタ動きベクトルを生成する。候補エンドエフェクタ動きベクトルは、さらなるブロックにおいて利用されるべきトレーニングされたCNNの入力パラメータに応じて、タスク空間、ジョイント空間、または別の空間において規定されてもよい。
いくつかの実装形態では、システムは、エンドエフェクタによって到達可能な作業空間、エンドエフェクタが把持試行に限られる制限された空間、ならびに/またはエンドエフェクタの姿勢を制御するアクチュエータの位置制限および/もしくはトルク制限によって規定される空間などの所与の空間内でランダムである候補エンドエフェクタ動きベクトルを生成する。
いくつかの実装形態では、システムは、候補エンドエフェクタ動きベクトルのグループをサンプリングし、サンプリングされたグループからサブグループを選択するために、1つまたは複数の技法を利用することができる。たとえば、システムは、クロスエントロピー法(CEM:cross-entropy method)などの最適化技法を利用することができる。CEMは、各反復においてNの値のバッチをサンプリングし、これらのサンプルのうちのM<Nにガウス分布を適合させ、次いでこのガウスからNの新しいバッチをサンプリングする無導関数(derivative-free)最適化アルゴリズムである。たとえば、システムは、CEMと、M=64およびN=6の値とを利用し、(CEMによって)最良の利用可能な候補エンドエフェクタ動きベクトルを決定するために、CEMの3回の反復を実行することができる。
いくつかの実装形態では、ブロック752において生成されてもよい候補エンドエフェクタ動きベクトルに対して1つまたは複数の制約が課されてもよい。たとえば、CEMまたは他の技法によって評価される候補エンドエフェクタの動きは、制約に基づいて制約されてもよい。制約の一例は、把持が試行されてもよい領域に対する制約、把持が試行されてもよい特定の物体および/または特定の物体分類に対する制約などを課す、(たとえば、コンピュータシステムのユーザインターフェース入力デバイスを介して)人間が入力した制約である。制約の別の例は、把持が試行されてもよい領域に対する制約、把持が試行されてもよい特定の物体および/または特定の物体分類に対する制約などを課す、コンピュータが生成した制約である。たとえば、物体分類器は、キャプチャされた画像に基づいて1つまたは複数の物体を分類し、把持を特定の分類の物体に制限する制約を課してもよい。制約のさらに他の例は、たとえばロボットの作業空間、ロボットの関節限界、ロボットのトルク限界、衝突回避システムによって提供され、1つまたは複数の物体との衝突を防止するためのロボットの動きを制限する制約、などに基づく制約を含む。
ブロック754において、システムは、エンドエフェクタと1つまたは複数の環境物体とをキャプチャする現在の画像を識別する。いくつかの実装形態では、システムはまた、エンドエフェクタが少なくとも部分的に視覚センサの視野外にあったときに視覚センサによってキャプチャされた環境物体の追加画像などのエンドエフェクタを少なくとも部分的に省略した追加画像を識別する。いくつかの実装形態では、システムは、連結画像を生成するために画像と追加画像とを連結する。いくつかの実装形態では、システムは、(たとえば、CNNの入力にサイズを合わせるために)画像および/または連結画像の処理をオプションで実行する。
ブロック756において、システムは、現在の画像と候補エンドエフェクタ動きベクトルとをトレーニングされたCNNに適用する。たとえば、システムは、現在の画像と追加画像とを含む連結画像をトレーニングされたCNNの初期層に適用することができる。システムはまた、候補エンドエフェクタ動きベクトルを初期層の下流にあるトレーニングされたCNNの追加層に適用することができる。いくつかの実装形態では、候補エンドエフェクタ動きベクトルを追加層に適用する際、システムは、エンドエフェクタ動きベクトル出力を生成し、エンドエフェクタ動きベクトル出力をCNNの上流出力に連結するために、エンドエフェクタ動きベクトルをCNNの全結合層に渡す。上流出力は、追加層のすぐ上流にありCNNの初期層および1つまたは複数の中間層から下流にあるCNNのすぐ上流からである。
ブロック758において、システムは、トレーニングされたCNNを介して、エンドエフェクタ動きベクトルに基づいて成功した把持の尺度を生成する。尺度は、ブロック756におけるトレーニングされたCNNへの現在の画像(およびオプションで追加画像)および候補エンドエフェクタ動きベクトルの適用と、トレーニングされたCNNの学習された重みに基づいて尺度を決定することとに基づいて生成される。
ブロック760において、システムは、成功した把持の尺度に基づいてエンドエフェクタコマンドを生成する。たとえば、いくつかの実装形態では、システムはブロック752において1つまたは複数の追加の候補エンドエフェクタ動きベクトルを生成し、ブロック756の追加の反復においてそれらの追加の候補エンドエフェクタ動きベクトルおよび現在の画像(およびオプションで追加画像)をトレーニングされたCNNに適用することによって、ブロック758の追加の反復においてそれらの追加の候補エンドエフェクタ動きベクトルに関する成功した把持の尺度を生成してもよい。ブロック756および758の追加の反復は、オプションでシステムによって並列に実行されてもよい。それらの実装形態のうちのいくつかでは、システムは、候補エンドエフェクタ動きベクトルに関する尺度と、追加の候補エンドエフェクタ動きベクトルに関する尺度とに基づいて、エンドエフェクタコマンドを生成してもよい。たとえば、システムは、成功した把持を最も示す尺度を用いて、候補エンドエフェクタ動きベクトルに完全にまたは実質的に従うエンドエフェクタコマンドを生成することができる。たとえば、システムのロボットの制御システムは、エンドエフェクタ動きベクトルに基づいてエンドエフェクタを移動させるためにロボットの1つまたは複数のアクチュエータを作動させる動きコマンドを生成することができる。
いくつかの実装形態では、システムは、候補エンドエフェクタ動きベクトルが新しい動きコマンド(たとえば、成功した把持の現在の尺度)を生成するために利用されない場合、成功した把持の現在の尺度に基づいてエンドエフェクタコマンドを生成してもよい。たとえば、現在の尺度と成功した把持を最も示す候補エンドエフェクタ動きベクトルの尺度との1つまたは複数の比較が閾値を満たさない場合、エンドエフェクタ動きコマンドは、エンドエフェクタに把持を試行させる(たとえば、衝撃的把持エンドエフェクタの指を閉じさせる)「把持コマンド」であってもよい。たとえば、成功した把持を最も示す候補エンドエフェクタ動きベクトルの尺度で割った現在の尺度の結果が第1の閾値(たとえば、0.9)以上である場合、(グリッパを閉じることがそれを動かすのと同じくらい成功した把持を生じさせる可能性がある場合に把持を早く停止することの論理的根拠の下で)把持コマンドが生成されてもよい。また、たとえば結果が第2の閾値(たとえば、0.5)以下である場合、エンドエフェクタコマンドは、(把持エンドエフェクタが良好な構成に配置されていない可能性が最も高く、比較的大きい動きが必要とされるという論理的根拠の下で)軌道修正を達成させる(たとえば、把持エンドエフェクタを少なくともXメートルだけ「上」に上げる)動きコマンドであってもよい。また、たとえば結果が第1の閾値と第2の閾値との間である場合、成功した把持を最も示す尺度を用いて、候補エンドエフェクタ動きベクトルに実質的にまたは完全に従う動きコマンドが生成されてもよい。システムによって生成されたエンドエフェクタコマンドは、1つもしくは複数のコマンドの単一のグループ、または1つもしくは複数のコマンドの一連のグループであってもよい。
候補エンドエフェクタ動きベクトルが新しい動きコマンドを生成するために利用されない場合の成功した把持の尺度は、方法700の前の反復において利用された候補エンドエフェクタ動きベクトルに関する尺度に基づくことができ、ならびに/または「ヌル」動きベクトルと現在の画像(およびオプションで追加画像)とをブロック756の追加の反復においてトレーニングされたCNNに適用すること、およびブロック758の追加の反復に基づいて尺度を生成することに基づくことができる。
ブロック762において、システムは、エンドエフェクタコマンドが把持コマンドであるかどうかを判定する。システムがブロック762において、エンドエフェクタコマンドが把持コマンドであると判定した場合、システムはブロック764に進み、把持コマンドを実行する。いくつかの実装形態では、システムは、(たとえば、本明細書で説明する技法を使用して)把持コマンドが成功した把持をもたらすかどうかをオプションで判定することができ、成功しない場合、システムは、エンドエフェクタの姿勢をオプションで調整し、ブロック752に戻ることができる。把持が成功した場合であっても、システムは、別の物体を把持するために後になってブロック752に戻ることができる。
システムがブロック762において、エンドエフェクタコマンドが把持コマンドではない(たとえば、それが動きコマンドである)と判定した場合、システムはブロック766に進み、エンドエフェクタコマンドを実行し、次いでブロック752に戻り、別の候補エンドエフェクタ動きベクトルを生成する。たとえば、ブロック766において、システムは、成功した把持を最も示す尺度を用いて、候補エンドエフェクタ動きベクトルに実質的にまたは完全に従うエンドエフェクタ動きコマンドを実行することができる。
多くの実装形態では、方法700のブロックは、比較的高い頻度で実行されてもよく、それによってエンドエフェクタコマンドの反復更新を可能にし、成功した把持の比較的高い確率をもたらすために、トレーニングされたCNNによって通知された軌道に沿ったエンドエフェクタのサーボ制御を可能にする。
図7Bは、図7Aのフローチャートの特定のブロックのいくつかの実装形態を示すフローチャートである。特に、図7Bは、図7Aのブロック758および760のいくつかの実装形態を示すフローチャートである。
ブロック758Aにおいて、システムは、CNNを介して、ブロック752の候補エンドエフェクタ動きベクトルに基づいて、成功した把持の尺度を生成する。
ブロック758Bにおいて、システムは、エンドエフェクタの現在の姿勢に基づいて、成功した把持の現在の尺度を決定する。たとえば、システムは、候補エンドエフェクタ動きベクトルが、方法700の直前の反復において利用された候補エンドエフェクタ動きベクトルに関する尺度に基づいて新しい動きコマンドを生成するために利用されない場合、成功した把持の現在の尺度を決定してもよい。また、たとえばシステムはブロック756の追加の反復において「ヌル」動きベクトルと現在の画像(およびオプションで追加画像)とをトレーニングされたCNNに適用し、ブロック758の追加の反復に基づいて尺度を生成することに基づいて現在の尺度を決定してもよい。
ブロック760Aにおいて、システムはブロック758Aおよび758Bの尺度を比較する。たとえば、システムは、尺度を除算すること、尺度を減算すること、および/または尺度を1つもしくは複数の関数に適用することによって、それらを比較してもよい。
ブロック760Bにおいて、システムはブロック760Aの比較に基づいてエンドエフェクタコマンドを生成する。たとえば、ブロック758Bの尺度がブロック758Aの尺度によって除算され、商が閾値(たとえば、0.9)以上である場合、エンドエフェクタ動きコマンドは、エンドエフェクタに把持を試行させる「把持コマンド」であってもよい。また、たとえばブロック758Bの尺度がブロック758Aの尺度によって除算され、商が第2の閾値(たとえば、0.5)以下である場合、エンドエフェクタコマンドは、軌道修正を実施する動きコマンドであってもよい。また、たとえばブロック758Bの尺度がブロック758Aの尺度によって除算され、商が第2の閾値と第1の閾値との間である場合、候補エンドエフェクタ動きベクトルに実質的にまたは完全に従う動きコマンドが生成されてもよい。
本明細書では、CNNをトレーニングし、および/またはエンドエフェクタをサーボ制御するためにCNNを利用する特定の例が与えられている。しかしながら、いくつかの実装形態は、特定の例とは異なる追加の特徴および/または代替的な特徴を含む場合がある。たとえば、いくつかの実装形態では、CNNは、ロボットのエンドエフェクタに関する候補動きデータが、特定の分類の物体(たとえば、鉛筆、筆記用具、へら、台所用具、略矩形の構成を有する物体、柔らかい物体、最小の境界がXとYとの間にある物体など)などの1つまたは複数の特定の物体の成功した把持をもたらす可能性を示す尺度を予測するようにトレーニングされてもよい。
たとえば、いくつかの実装形態では、特定の分類の物体は、様々な把持試行中にロボットが把持するための他の物体と共に含まれてもよい。(1)把持が成功した場合、および(2)把持がその特定の分類に適合する物体のものである場合にのみ「成功した把持」の把持ラベルが見つけられるトレーニング例が生成されてもよい。物体が特定の分類に一致するかどうかを判定することは、たとえばロボットが把持エンドエフェクタを把持試行に続いて視覚センサに向け、把持エンドエフェクタによって把持された物体(もしあれば)の画像を取り込むために視覚センサを使用することに基づいて決定されてもよい。人間の観察者および/または画像分類ニューラルネットワーク(または他の画像分類システム)は、次いでエンドエフェクタによって把持された物体が特定の分類のものであるかどうかを判定してもよく、その決定は、適切な把持レベルを適用するために利用される。そのようなトレーニング例は、本明細書で説明するようにCNNをトレーニングするために利用されてもよく、そのようなトレーニング例によるトレーニングの結果として、トレーニングされたCNNは、特定の分類のものである物体の把持エンドエフェクタによる成功した把持を達成するためにロボットの把持エンドエフェクタをサーボ制御するために利用されてもよい。
図8は、ロボット840の例示的なアーキテクチャを概略的に示す。ロボット840は、ロボット制御システム860と、1つまたは複数の動作コンポーネント840a〜840nと、1つまたは複数のセンサ842a〜842mとを含む。センサ842a〜842mは、たとえば視覚センサ、光センサ、圧力センサ、圧力波センサ(たとえば、マイクロフォン)、近接センサ、加速度計、ジャイロスコープ、温度計、気圧計などを含むことができる。センサ842a〜842mは、ロボット840と一体であるように描かれているが、これは限定することを意味しない。いくつかの実装形態では、センサ842a〜842mは、たとえば独立型ユニットとして、ロボット840の外部に配置されてもよい。
動作コンポーネント840a〜840nは、たとえばロボットの1つまたは複数のコンポーネントの移動を実施するために、1つもしくは複数のエンドエフェクタおよび/または1つもしくは複数のサーボモータまたは他のアクチュエータを含むことができる。たとえば、ロボット840は、複数の自由度を有することができ、アクチュエータの各々は、制御コマンドに応答して自由度のうちの1つまたは複数の範囲内のロボット840の作動を制御することができる。本明細書で使用される場合、アクチュエータという用語は、アクチュエータに関連付けられてもよく、受信した制御コマンドをアクチュエータを駆動するための1つまたは複数の信号に変換する任意のドライバに加えて、動きを引き起こす機械的または電気的デバイス(たとえば、モータ)を包含する。したがって、制御コマンドをアクチュエータに提供することは、制御コマンドを所望の動きを作成するために電気的または機械的デバイスを駆動するための適切な信号に変換するドライバに制御コマンドを提供することを含むことができる。
ロボット制御システム860は、ロボット840のCPU、GPU、および/または他のコントローラなどの1つまたは複数のプロセッサ内に実装されてもよい。いくつかの実装形態では、ロボット840は、制御システム860のすべてまたは態様を含むことができる「ブレインボックス(brain box)」を備えることができる。たとえば、ブレインボックスは、データのリアルタイムバーストを動作コンポーネント840a〜840nに提供することができ、リアルタイムバーストの各々は、とりわけ、動作コンポーネント840a〜840nのうちの1つまたは複数の各々に関する(もしあれば)動きのパラメータを指示する1つまたは複数の制御コマンドのセットを備える。いくつかの実装形態では、ロボット制御システム860は、本明細書で説明する方法300、400、500、および/または700の1つまたは複数の態様を実行することができる。
本明細書で説明するように、いくつかの実装形態では、物体を把持するためにエンドエフェクタを位置決めする際に制御システム860によって生成される制御コマンドのすべてまたは態様は、トレーニングされたCNNなどのトレーニングされたニューラルネットワークの利用に基づいて生成されたエンドエフェクタコマンドに基づくことができる。たとえば、センサ842a〜842mの視覚センサは、現在の画像と追加画像とを取り込むことができ、ロボット制御システム860は、候補動きベクトルを生成することができる。ロボット制御システム860は、トレーニングされたCNNに、現在の画像と、追加画像と、候補動きベクトルとを提供することができ、ロボットのエンドエフェクタの動きおよび/または把持を制御するための1つまたは複数のエンドエフェクタ制御コマンドを生成するために、適用することに基づいて生成された尺度を利用することができる。制御システム860は、図8においてロボット840の一体部分として示されるが、いくつかの実装形態では、制御システム860のすべてまたは態様は、ロボット840とは別個であるがロボット840と通信するコンポーネント内に実装されてもよい。たとえば、制御システム860のすべてまたは態様は、コンピューティングデバイス910などのロボット840と有線および/またはワイヤレス通信する1つまたは複数のコンピューティングデバイス上に実装されてもよい。
図9は、本明細書で説明する技法の1つまたは複数の態様を実行するためにオプションで利用されてもよい例示的なコンピューティングデバイス910のブロック図である。コンピューティングデバイス910は、典型的には、バスサブシステム912を介していくつかの周辺デバイスと通信する少なくとも1つのプロセッサ914を含む。それらの周辺デバイスは、たとえばメモリサブシステム925およびファイル記憶サブシステム926を含む記憶サブシステム924と、ユーザインターフェース出力デバイス920と、ユーザインターフェース入力デバイス922と、ネットワークインターフェースサブシステム916とを含むことができる。入力デバイスおよび出力デバイスは、コンピューティングデバイス910とのユーザ対話を可能にする。ネットワークインターフェースサブシステム916は、外部ネットワークとのインターフェースを提供し、他のコンピューティングデバイスにおける対応するインターフェースデバイスに結合される。
ユーザインターフェース入力デバイス922は、キーボード、マウス、トラックボール、タッチパッド、もしくはグラフィックスタブレットなどのポインティングデバイス、スキャナ、ディスプレイに組み込まれたタッチスクリーン、音声認識システムなどのオーディオ入力デバイス、マイクロフォン、および/または他のタイプの入力デバイスを含むことができる。一般に、「入力デバイス」という用語の使用は、コンピューティングデバイス910内または通信ネットワーク上に情報を入力するすべての可能なタイプのデバイスおよび方法を含むことを意図している。
ユーザインターフェース出力デバイス920は、ディスプレイサブシステム、プリンタ、ファックスマシン、またはオーディオ出力デバイスなどの非視覚的ディスプレイを含むことができる。ディスプレイサブシステムは、陰極線管(CRT)、液晶ディスプレイ(LCD)などのフラットパネルデバイス、プロジェクションデバイス、または可視画像を作成するための何らかの他の機構を含むことができる。ディスプレイサブシステムはまた、オーディオ出力デバイスを介するなどして、非視覚的ディスプレイを提供することができる。一般に、「出力デバイス」という用語の使用は、コンピューティングデバイス910からユーザまたは別の機械もしくはコンピューティングデバイスに情報を出力するすべての可能なタイプのデバイスおよび方法を含むことを意図している。
記憶サブシステム924は、本明細書で説明するモジュールのうちのいくつかまたはすべての機能を提供するプログラミング構造およびデータ構造を記憶する。たとえば、記憶サブシステム924は、図3、図4、図5、ならびに/または図7Aおよび図7Bの方法の選択された態様を実行するロジックを含むことができる。
これらのソフトウェアモジュールは、一般に、プロセッサ914単独によって、または他のプロセッサと組み合わせて実行される。記憶サブシステム924において使用されるメモリ925は、プログラム実行中の命令およびデータの記憶のためのメインランダムアクセスメモリ(RAM)930と、固定命令が記憶される読み出し専用メモリ(ROM)932とを含むいくつかのメモリを含むことができる。ファイル記憶サブシステム926は、プログラムファイルおよびデータファイルの永続的なストレージを提供することができ、ハードディスクドライブ、関連するリムーバブル媒体を伴うフロッピーディスクドライブ、CD-ROMドライブ、光学ドライブ、またはリムーバブル媒体カートリッジを含むことができる。特定の実装形態の機能を実装するモジュールは、記憶サブシステム924内の、またはプロセッサ914によってアクセス可能な他の機械内のファイル記憶サブシステム926によって記憶されてもよい。
バスサブシステム912は、コンピューティングデバイス910の様々なコンポーネントおよびサブシステムが意図されたように互いに通信することを可能にするための機構を提供する。バスサブシステム912は、単一のバスとして概略的に示されるが、バスサブシステムの代替的な実装形態は、複数のバスを使用することができる。
コンピューティングデバイス910は、ワークステーション、サーバ、コンピューティングクラスタ、ブレードサーバ、サーバファーム、または任意の他のデータ処理システムもしくはコンピューティングデバイスを含む様々なタイプであってもよい。コンピュータおよびネットワークの時々刻々と変化する性質のために、図9に示すコンピューティングデバイス910の説明は、いくつかの実装形態を説明する目的のための特定の例としてのみ意図されている。図9に示すコンピューティングデバイスよりも多いまたは少ないコンポーネントを有するコンピューティングデバイス910の多くの他の構成が可能である。
本明細書では、いくつかの実装形態について説明し、例示してきたが、本明細書で説明した機能を実行し、ならびに/または結果および/もしくは1つもしくは複数の利点を得るための様々な他の手段および/または構造が利用されてもよく、そのような変形および/または修正の各々は、本明細書で説明した実装形態の範囲内にあると見なされる。より一般的には、本明細書で説明したすべてのパラメータ、寸法、材料および構成は、例示的であることを意図したものであり、実際のパラメータ、寸法、材料および/または構成は、教示が使用される特定の用途に依存する。当業者は、ほんの日常的な実験を使用して、本明細書で説明した特定の実装形態の多くの等価物を認識するか、または確認することができるであろう。したがって、前述の実装形態が単なる例として提示され、添付の特許請求の範囲およびその均等物の範囲内で、実装形態は、具体的に説明および特許請求されたものと違うやり方で実施されてもよいことが理解されるべきである。本開示の実装形態は、本明細書で説明した個々の特徴、システム、物品、材料、キット、および/または方法に向けられている。加えて、2つ以上のそのような特徴、システム、物品、材料、キット、および/または方法の任意の組合せは、そのような特徴、システム、物品、材料、キット、および/または方法が相互に矛盾しない場合、本開示の範囲内に含まれる。
110 トレーニング例生成システム
114 エンドエフェクタ動きベクトルエンジン
116 把持成功エンジン
117 トレーニング例データベース
120 トレーニングエンジン
125 畳み込みニューラルネットワーク
180A ロボット
180B ロボット
182A 把持エンドエフェクタ
182B 把持エンドエフェクタ
184A 視覚センサ
184B 視覚センサ
191A 物体
191B 物体
201 経路
600 CNN
661A エンドエフェクタを有する画像、画像
661B エンドエフェクタのない画像、画像
662 エンドエフェクタ動きベクトル
663 初期入力層
664 最大プーリング層
665 畳み込み層
666 畳み込み層
667 最大プーリング層
668 全結合層
669 タイルベクトル
670 畳み込み層
671 畳み込み層
672 最大プーリング層
673 畳み込み層
674 畳み込み層
675 全結合層
676 全結合層
677 成功した把持の尺度、尺度
840 ロボット
842a センサ
842b センサ
842m センサ
860 ロボット制御システム、制御システム
910 コンピューティングデバイス
912 バスサブシステム
914 プロセッサ
916 ネットワークインターフェースサブシステム
920 ユーザインターフェース出力デバイス
922 ユーザインターフェース入力デバイス
924 記憶サブシステム
925 メモリサブシステム、メモリ
926 ファイル記憶サブシステム
930 メインランダムアクセスメモリ(RAM)
932 読み出し専用メモリ(ROM)

Claims (20)

1つまたは複数のプロセッサによって、ロボットの把持エンドエフェクタを現在の姿勢から追加の姿勢に移動させる動きを定義する候補エンドエフェクタ動きベクトルを生成するステップと、
前記プロセッサのうちの1つまたは複数によって、前記ロボットに関連付けられた視覚センサによってキャプチャされた現在の画像を識別するステップであって、前記視覚センサが、前記把持エンドエフェクタと、前記ロボットの環境内の少なくとも1つの物体とを前記現在の画像内にキャプチャする、ステップと、
前記プロセッサのうちの1つまたは複数によって、トレーニングされた畳み込みニューラルネットワークへの入力として前記現在の画像と前記候補エンドエフェクタ動きベクトルとを適用するステップと、
前記トレーニングされた畳み込みニューラルネットワークを介して、前記候補エンドエフェクタ動きベクトルの適用による前記物体の把持成功確率を示す尺度を生成するステップであって、前記尺度が、前記トレーニングされた畳み込みニューラルネットワークへの前記現在の画像および前記候補エンドエフェクタ動きベクトルの前記適用に基づいて生成される、ステップと、
前記尺度に基づいてエンドエフェクタコマンドを生成するステップであって、前記エンドエフェクタコマンドが把持コマンドまたはエンドエフェクタ動きコマンドである、ステップと、
前記エンドエフェクタコマンドを前記ロボットの1つまたは複数のアクチュエータに提供するステップと
を備える、方法。
前記プロセッサのうちの1つまたは複数によって、前記候補エンドエフェクタ動きベクトルの適用なしの前記物体の把持成功確率を示す現在の尺度を決定するステップをさらに備え、
前記エンドエフェクタコマンドを生成するステップが、前記尺度と前記現在の尺度とに基づく、
請求項1に記載の方法。
前記エンドエフェクタコマンドが前記把持コマンドであり、前記現在の尺度が前記尺度と同程度以上であることに基づいて、前記把持コマンド生成される、請求項2に記載の方法。
前記エンドエフェクタコマンドが前記エンドエフェクタ動きコマンドであり、前記エンドエフェクタ動きコマンドを生成するステップが、前記候補エンドエフェクタ動きベクトルに適合するように前記エンドエフェクタ動きコマンドを生成するステップを備える、請求項2に記載の方法。
前記候補エンドエフェクタ動きベクトルの適用なしの前記現在の尺度を決定するステップが、
前記プロセッサのうちの1つまたは複数によって、前記トレーニングされた畳み込みニューラルネットワークへの入力として前記現在の画像とヌルエンドエフェクタ動きベクトルとを適用するステップと、
前記トレーニングされた畳み込みニューラルネットワークを介して、前記候補エンドエフェクタ動きベクトルの適用なしの記現在の尺度を生成するステップであって、前記現在の尺度が、前記トレーニングされた畳み込みニューラルネットワークへの前記現在の画像および前記ヌルエンドエフェクタ動きベクトルの前記適用に基づいて生成される、ステップと
を備える、請求項2に記載の方法。
前記エンドエフェクタコマンドが前記エンドエフェクタ動きコマンドであり、かつ前記候補エンドエフェクタ動きベクトルに適合し、前記エンドエフェクタ動きコマンドを前記1つまたは複数のアクチュエータに提供するステップが、前記把持エンドエフェクタを新しい姿勢に移動させ、
1つまたは複数のプロセッサによって、前記把持エンドエフェクタを前記新しい姿勢からさらなる追加姿勢に移動させる新しい動きを定義する追加の候補エンドエフェクタ動きベクトルを生成するステップと、
前記プロセッサのうちの1つまたは複数によって、前記ロボットに関連付けられた視覚センサによってキャプチャされた新しい画像を識別するステップであって、前記視覚センサが、前記新しい姿勢における前記把持エンドエフェクタを前記新しい画像内にキャプチャし、かつ前記環境内の前記物体を前記新しい画像内にキャプチャする、ステップと、
前記プロセッサのうちの1つまたは複数によって、前記トレーニングされた畳み込みニューラルネットワークへの入力として前記新しい画像と前記追加の候補エンドエフェクタ動きベクトルとを適用するステップと、
前記トレーニングされた畳み込みニューラルネットワークを介して、前記追加の候補エンドエフェクタ動きベクトルの適用による前記物体の把持成功確率を示す新しい尺度を生成するステップであって、前記新しい尺度が、前記トレーニングされた畳み込みニューラルネットワークへの前記新しい画像および前記追加の候補エンドエフェクタ動きベクトルの前記適用に基づいて生成される、ステップと、
前記新しい尺度に基づいて新しいエンドエフェクタコマンドを生成するステップであって、前記新しいエンドエフェクタコマンドが、前記把持コマンドまたは新しいエンドエフェクタ動きコマンドである、ステップと、
前記新しいエンドエフェクタコマンドを前記ロボットの1つまたは複数のアクチュエータに提供するステップと
をさらに備える、請求項1に記載の方法。
前記トレーニングされた畳み込みニューラルネットワークへの入力として前記現在の画像と前記候補エンドエフェクタ動きベクトルとを適用するステップが、
前記トレーニングされた畳み込みニューラルネットワークの初期層への入力として前記現在の画像を適用するステップと、
前記トレーニングされた畳み込みニューラルネットワークの追加層に前記候補エンドエフェクタ動きベクトルを適用するステップであって、前記追加層が前記初期層の下流にある、ステップと
を備える、請求項1に記載の方法。
前記追加層に前記候補エンドエフェクタ動きベクトルを適用するステップが、
エンドエフェクタ動きベクトル出力を生成するために前記候補エンドエフェクタ動きベクトルを前記畳み込みニューラルネットワークの全結合層に渡すステップと、
前記エンドエフェクタ動きベクトル出力を上流出力と連結するステップであって、前記上流出力が、前記追加層のすぐ上流にありかつ前記畳み込みニューラルネットワークの初期層および1つまたは複数の中間層から下流にある前記畳み込みニューラルネットワークのすぐ上流の層からのものである、請求項7に記載の方法。
前記初期層が畳み込み層であり、前記すぐ上流の層がプーリング層である、請求項8に記載の方法。
前記プロセッサのうちの1つまたは複数によって、前記視覚センサによってキャプチャされた追加画像を識別するステップであって、前記視覚センサが、前記1つまたは複数の環境物体を前記追加画像内にキャプチャし、前記追加画像が、前記把持エンドエフェクタを省略するかまたは前記現在の画像内の前記把持エンドエフェクタの姿勢と異なる姿勢における前記把持エンドエフェクタを含む、ステップと、
前記トレーニングされた畳み込みニューラルネットワークへの追加入力として前記追加画像を適用するステップと
をさらに備える、請求項1に記載の方法。
前記現在の画像と前記追加画像とを前記畳み込みニューラルネットワークに適用するステップが、
連結画像を生成するために前記現在の画像と前記追加画像とを連結するステップと、
前記畳み込みニューラルネットワークの初期層への入力として前記連結画像を適用するステップと
を備える、請求項10に記載の方法。
前記候補エンドエフェクタ動きベクトルを生成するステップが、
複数の候補エンドエフェクタ動きベクトルを生成するステップと、
前記複数の候補エンドエフェクタ動きベクトルから前記候補エンドエフェクタ動きベクトルを選択するために、前記複数の候補エンドエフェクタ動きベクトルに対してクロスエントロピー最適化の1つまたは複数の反復を実行するステップと
を備える、請求項1に記載の方法。
環境を見ている視覚センサと、
1つまたは複数の非一時的コンピュータ可読記憶媒体内に記憶されたトレーニングされた畳み込みニューラルネットワークと、
少なくとも1つのプロセッサであって、
ロボットエンドエフェクタを現在の姿勢から追加の姿勢に移動させる動きを定義する候補エンドエフェクタ動きベクトルを生成することと、
前記トレーニングされた畳み込みニューラルネットワークへの入力として、前記候補エンドエフェクタ動きベクトルと、前記視覚センサによってキャプチャされた画像とを適用することであって、前記視覚センサが、前記ロボットエンドエフェクタと、環境内の少なくとも1つの物体とを前記画像内にキャプチャする、適用することと、
前記トレーニングされた畳み込みニューラルネットワークを介して、前記候補エンドエフェクタ動きベクトルの適用による前記物体の把持成功確率を示す尺度を生成することであって、前記尺度が、前記トレーニングされた畳み込みニューラルネットワークへの前記画像および前記候補エンドエフェクタ動きベクトルの前記適用に基づいて生成される、生成することと、
前記尺度に基づいてエンドエフェクタコマンドを生成することであって、前記エンドエフェクタコマンドが、把持コマンドまたはエンドエフェクタ動きコマンドである、生成することと、
前記エンドエフェクタコマンドをロボットの1つまたは複数のアクチュエータに提供することと
を行うように構成される少なくとも1つのプロセッサと
を備える、システム。
畳み込みニューラルネットワークをトレーニングする方法であって、
1つまたは複数のプロセッサによって、1つまたは複数のロボットによる複数の把持試行中に前記ロボットからのセンサ出力に基づいて生成された複数のトレーニング例を識別するステップであって、
前記トレーニング例の各々が、
前記把持試行のうちの対応する把持試行の対応する時間インスタンスの画像であって、前記センサが、前記対応する時間インスタンスにおけるロボットエンドエフェクタと1つまたは複数の環境物体とを前記画像内にキャプチャする、画像と、
前記対応する時間インスタンスにおける前記ロボットエンドエフェクタの時間インスタンス姿勢から前記対応する把持試行に関する前記ロボットエンドエフェクタの最終姿勢へ動く前記ロボットエンドエフェクタの動きを定義するエンドエフェクタ動きベクトルと
を含むトレーニング例入力を含み、
前記トレーニング例の各々が、
前記対応する把持試行の成功を示す把持成功ラベルを備える
トレーニング例出力を含む、
ステップと、
前記プロセッサのうちの1つまたは複数によって、前記トレーニング例に基づいて前記畳み込みニューラルネットワークをトレーニングするステップと
を備える、方法。
前記トレーニング例の各々の前記トレーニング例入力が、
前記対応する把持試行に関する追加画像をさらに備え、前記センサが、前記1つまたは複数の環境物体を前記追加画像内にキャプチャし、前記追加画像が、前記ロボットエンドエフェクタを省略するかまたは前記トレーニング例に含まれる画像内の前記ロボットエンドエフェクタの姿勢と異なる姿勢における前記ロボットエンドエフェクタを含む、請求項14に記載の方法。
前記畳み込みニューラルネットワークをトレーニングするステップが、前記畳み込みニューラルネットワークに、前記トレーニング例のうちの所与のトレーニング例の前記トレーニング例入力を適用するステップを備え、前記所与のトレーニング例の前記トレーニング例入力を適用するステップが、
連結画像を生成するために、前記所与のトレーニング例に含まれる前記画像と前記追加画像とを連結するステップと、
前記畳み込みニューラルネットワークの初期層への入力として前記連結画像を適用するステップと
を備える、請求項15に記載の方法。
前記畳み込みニューラルネットワークをトレーニングするステップが、前記畳み込みニューラルネットワークに、前記トレーニング例のうちの所与のトレーニング例の前記トレーニング例入力を適用するステップを備え、前記所与のトレーニング例の前記トレーニング例入力を適用するステップが、
前記畳み込みニューラルネットワークの初期層への入力として前記所与のトレーニング例の前記画像を適用するステップと、
前記所与のトレーニング例の前記エンドエフェクタ動きベクトルを前記畳み込みニューラルネットワークの追加層に適用するステップであって、前記追加層が前記初期層の下流にある、ステップと
を備える、請求項14に記載の方法。
前記エンドエフェクタ動きベクトルを前記追加層に適用するステップが、
エンドエフェクタ動きベクトル出力を生成するために前記エンドエフェクタ動きベクトルを全結合層に渡すステップと、前記エンドエフェクタ動きベクトル出力を上流出力に連結するステップとを備え、前記上流出力が、前記追加層のすぐ上流にあり、かつ前記畳み込みニューラルネットワークの前記初期層および1つまたは複数の中間層から下流にある前記畳み込みニューラルネットワークのすぐ上流の層からのものである、請求項17に記載の方法。
前記トレーニング例が、
第1のロボットによる複数の前記把持試行中に前記第1のロボットの複数の第1のロボットセンサからの出力に基づいて生成された前記トレーニング例の第1のグループと、
第2のロボットによる複数の前記把持試行中に前記第2のロボットの複数の第2のロボットセンサからの出力に基づいて生成された前記トレーニング例の第2のグループと
を備える、請求項14に記載の方法。
前記トレーニングされた畳み込みニューラルネットワークに基づいて追加の把持試行を生成するステップと、
前記追加の把持試行に基づいて複数の追加のトレーニング例を識別するステップと、
前記追加のトレーニング例に基づく前記畳み込みニューラルネットワークのさらなるトレーニングによって前記畳み込みニューラルネットワークを更新するステップと
をさらに備える、請求項14に記載の方法。
JP2018545901A 2016-03-03 2016-12-13 ロボットの把持のための深層機械学習方法および装置 Active JP6586532B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019163134A JP6921151B2 (ja) 2016-03-03 2019-09-06 ロボットの把持のための深層機械学習方法および装置

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201662303139P 2016-03-03 2016-03-03
US62/303,139 2016-03-03
PCT/US2016/066393 WO2017151206A1 (en) 2016-03-03 2016-12-13 Deep machine learning methods and apparatus for robotic grasping
US15/377,280 2016-12-13
US15/377,280 US10207402B2 (en) 2016-03-03 2016-12-13 Deep machine learning methods and apparatus for robotic grasping

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019163134A Division JP6921151B2 (ja) 2016-03-03 2019-09-06 ロボットの把持のための深層機械学習方法および装置

Publications (2)

Publication Number Publication Date
JP2019508273A JP2019508273A (ja) 2019-03-28
JP6586532B2 true JP6586532B2 (ja) 2019-10-02

Family

ID=59723212

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018545901A Active JP6586532B2 (ja) 2016-03-03 2016-12-13 ロボットの把持のための深層機械学習方法および装置
JP2019163134A Active JP6921151B2 (ja) 2016-03-03 2019-09-06 ロボットの把持のための深層機械学習方法および装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2019163134A Active JP6921151B2 (ja) 2016-03-03 2019-09-06 ロボットの把持のための深層機械学習方法および装置

Country Status (8)

Country Link
US (3) US10207402B2 (ja)
EP (2) EP3405910B1 (ja)
JP (2) JP6586532B2 (ja)
KR (2) KR102023588B1 (ja)
CN (2) CN109074513B (ja)
CA (1) CA3016418C (ja)
MX (1) MX2022002983A (ja)
WO (1) WO2017151206A1 (ja)

Families Citing this family (104)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109074513B (zh) 2016-03-03 2020-02-18 谷歌有限责任公司 用于机器人抓握的深度机器学习方法和装置
KR102023149B1 (ko) * 2016-03-03 2019-11-22 구글 엘엘씨 로봇 파지를 위한 심층 기계 학습 방법 및 장치
US20170277955A1 (en) * 2016-03-23 2017-09-28 Le Holdings (Beijing) Co., Ltd. Video identification method and system
US10058995B1 (en) 2016-07-08 2018-08-28 X Development Llc Operating multiple testing robots based on robot instructions and/or environmental parameters received in a request
US10055667B2 (en) 2016-08-03 2018-08-21 X Development Llc Generating a model for an object encountered by a robot
KR102567525B1 (ko) * 2016-11-17 2023-08-16 삼성전자주식회사 이동 로봇 시스템, 이동 로봇 및 이동 로봇 시스템의 제어 방법
US11271420B2 (en) * 2017-02-03 2022-03-08 Ford Global Technologies, Llc Jump start drone
US10546242B2 (en) * 2017-03-03 2020-01-28 General Electric Company Image analysis neural network systems
US11351673B2 (en) 2017-03-06 2022-06-07 Miso Robotics, Inc. Robotic sled-enhanced food preparation system and related methods
US20210030199A1 (en) 2017-03-06 2021-02-04 Miso Robotics, Inc. Augmented reality-enhanced food preparation system and related methods
US10836525B1 (en) * 2017-03-07 2020-11-17 Amazon Technologies, Inc. Robotic gripper for bagging items
CN111094136B (zh) * 2017-09-20 2022-10-28 麦格纳国际公司 用于制造业用的适应性箱子拾取的系统和方法
US10899011B2 (en) * 2018-11-14 2021-01-26 Fetch Robotics, Inc. Method and system for selecting a preferred robotic grasp of an object-of-interest using pairwise ranking
JP6676030B2 (ja) * 2017-11-20 2020-04-08 株式会社安川電機 把持システム、学習装置、把持方法、及び、モデルの製造方法
JP6680750B2 (ja) 2017-11-22 2020-04-15 ファナック株式会社 制御装置及び機械学習装置
JP6737764B2 (ja) 2017-11-24 2020-08-12 ファナック株式会社 ロボットに対して教示操作を行う教示装置
US10108903B1 (en) * 2017-12-08 2018-10-23 Cognitive Systems Corp. Motion detection based on machine learning of wireless signal properties
US10682774B2 (en) 2017-12-12 2020-06-16 X Development Llc Sensorized robotic gripping device
US10792809B2 (en) * 2017-12-12 2020-10-06 X Development Llc Robot grip detection using non-contact sensors
CN108340367A (zh) * 2017-12-13 2018-07-31 深圳市鸿益达供应链科技有限公司 用于机械臂抓取的机器学习方法
US10981272B1 (en) * 2017-12-18 2021-04-20 X Development Llc Robot grasp learning
US10754318B2 (en) * 2017-12-21 2020-08-25 X Development Llc Robot interaction with objects based on semantic information associated with embedding spaces
CN107972036B (zh) * 2017-12-25 2021-04-27 厦门大学嘉庚学院 基于TensorFlow的工业机器人动力学控制系统及方法
US11097418B2 (en) 2018-01-04 2021-08-24 X Development Llc Grasping of an object by a robot based on grasp strategy determined using machine learning model(s)
US11393251B2 (en) 2018-02-09 2022-07-19 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
CN108393892B (zh) * 2018-03-05 2020-07-24 厦门大学 一种机器人前馈力矩补偿方法
CN111727108B (zh) * 2018-03-05 2023-09-15 欧姆龙株式会社 用于控制机器人的方法、装置及系统以及存储介质
KR101860797B1 (ko) * 2018-03-08 2018-05-25 (주)모던텍 오토 핸들 장치
JP6911798B2 (ja) * 2018-03-15 2021-07-28 オムロン株式会社 ロボットの動作制御装置
CN108714914B (zh) * 2018-03-19 2021-09-07 山东超越数控电子股份有限公司 一种机械臂视觉系统
CN110293553B (zh) * 2018-03-21 2021-03-12 北京猎户星空科技有限公司 控制机械臂操作物体的方法、装置及模型训练方法、装置
EP3769174B1 (en) * 2018-03-21 2022-07-06 Realtime Robotics, Inc. Motion planning of a robot for various environments and tasks and improved operation of same
JP6810087B2 (ja) * 2018-03-29 2021-01-06 ファナック株式会社 機械学習装置、機械学習装置を用いたロボット制御装置及びロボットビジョンシステム、並びに機械学習方法
WO2019204700A1 (en) * 2018-04-19 2019-10-24 University Of South Florida Neonatal pain identification from neonatal facial expressions
US11584016B2 (en) 2018-04-24 2023-02-21 Fanuc Corporation Robot controller and system
JP7154815B2 (ja) * 2018-04-27 2022-10-18 キヤノン株式会社 情報処理装置、制御方法、ロボットシステム、コンピュータプログラム、及び記憶媒体
US10967507B2 (en) * 2018-05-02 2021-04-06 X Development Llc Positioning a robot sensor for object classification
US20210118166A1 (en) * 2019-10-18 2021-04-22 Nvidia Corporation Pose determination using one or more neural networks
WO2019221754A1 (en) * 2018-05-18 2019-11-21 Verb Surgical Inc. System and method for controlling a robotic wrist
WO2019239562A1 (ja) * 2018-06-14 2019-12-19 ヤマハ発動機株式会社 機械学習装置及びこれを備えたロボットシステム
US10706499B2 (en) * 2018-06-21 2020-07-07 Canon Kabushiki Kaisha Image processing using an artificial neural network
CN112368656B (zh) * 2018-07-06 2021-08-20 三菱电机株式会社 机器学习装置、数控装置、工作机械及机器学习方法
US11192258B2 (en) 2018-08-10 2021-12-07 Miso Robotics, Inc. Robotic kitchen assistant for frying including agitator assembly for shaking utensil
US10719737B2 (en) 2018-08-23 2020-07-21 Denso International America, Inc. Image classification system for resizing images to maintain aspect ratio information
US11833681B2 (en) * 2018-08-24 2023-12-05 Nvidia Corporation Robotic control system
US11325252B2 (en) 2018-09-15 2022-05-10 X Development Llc Action prediction networks for robotic grasping
US10611026B1 (en) * 2018-10-16 2020-04-07 University Of South Florida Systems and methods for learning and generating movement policies for a dynamical system
US11007642B2 (en) 2018-10-23 2021-05-18 X Development Llc Machine learning methods and apparatus for automated robotic placement of secured object in appropriate location
US11577401B2 (en) 2018-11-07 2023-02-14 Miso Robotics, Inc. Modular robotic food preparation system and related methods
KR102228525B1 (ko) * 2018-11-20 2021-03-16 한양대학교 산학협력단 뉴럴 네트워크를 이용하는 파지 방법, 파지 학습 방법 및 파지 로봇
JP7044047B2 (ja) * 2018-12-14 2022-03-30 トヨタ自動車株式会社 ロボット
WO2020142498A1 (en) * 2018-12-31 2020-07-09 Abb Schweiz Ag Robot having visual memory
WO2020142296A1 (en) * 2019-01-01 2020-07-09 Giant.Ai, Inc. Software compensated robotics
US11312012B2 (en) 2019-01-01 2022-04-26 Giant Ai, Inc. Software compensated robotics
US11433555B2 (en) * 2019-03-29 2022-09-06 Rios Intelligent Machines, Inc. Robotic gripper with integrated tactile sensor arrays
CN110000785B (zh) * 2019-04-11 2021-12-14 上海交通大学 农业场景无标定机器人运动视觉协同伺服控制方法与设备
CN110238840B (zh) * 2019-04-24 2021-01-29 中山大学 一种基于视觉的机械臂自主抓取方法
JP7263920B2 (ja) * 2019-05-23 2023-04-25 トヨタ自動車株式会社 演算装置、制御プログラム、機械学習器及び把持装置
EP3979896A1 (en) 2019-06-05 2022-04-13 Pupil Labs GmbH Devices, systems and methods for predicting gaze-related parameters
EP3771522A1 (de) * 2019-07-30 2021-02-03 Siemens Aktiengesellschaft Verfahren und manipulationssystem zur manipulation eines objekts durch einen roboter mittels vektorfelder
US20220281120A1 (en) 2019-08-02 2022-09-08 Dextrous Robotics, Inc. Robotic manipulators
NL2023651B1 (en) * 2019-08-16 2021-02-24 Laundry Robotics B V Method and system feeding a flatwork item to a transport conveyor and/or a flatwork treating device
NL2023653B1 (en) * 2019-08-16 2021-03-24 Laundry Robotics B V Method and system for detecting and gripping a corner of a flatwork item
WO2021034190A1 (en) * 2019-08-16 2021-02-25 Laundry Robotics B.V. Method and system feeding a flatwork item to a transport conveyor and/or a flatwork treating device
NL2023652B1 (en) * 2019-08-16 2021-03-24 Laundry Robotics B V Method and system for detecting and gripping a second corner of a flatwork item
WO2021039995A1 (ja) 2019-08-28 2021-03-04 株式会社DailyColor ロボット制御装置
US20220355475A1 (en) * 2019-08-30 2022-11-10 Nec Corporation Information processing device, control method, and storage medium
US11685045B1 (en) * 2019-09-09 2023-06-27 X Development Llc Asynchronous robotic control using most recently selected robotic action data
US20210081791A1 (en) * 2019-09-13 2021-03-18 Osaro Computer-Automated Robot Grasp Depth Estimation
US11571809B1 (en) * 2019-09-15 2023-02-07 X Development Llc Robotic control using value distributions
US20210080970A1 (en) * 2019-09-16 2021-03-18 X Development Llc Using adjustable vision component for on-demand vision data capture of areas along a predicted trajectory of a robot
US11389957B2 (en) * 2019-09-30 2022-07-19 Mitsubishi Electric Research Laboratories, Inc. System and design of derivative-free model learning for robotic systems
WO2021067680A1 (en) * 2019-10-02 2021-04-08 Baker Hughes Oilfield Operations Llc Telemetry harvesting and analysis from extended reality streaming
JP7458741B2 (ja) * 2019-10-21 2024-04-01 キヤノン株式会社 ロボット制御装置及びその制御方法及びプログラム
US20210125052A1 (en) * 2019-10-24 2021-04-29 Nvidia Corporation Reinforcement learning of tactile grasp policies
KR102288566B1 (ko) * 2019-11-04 2021-08-11 울산과학기술원 딥 뉴럴 네트워크 구성 방법 및 장치
US11173610B2 (en) * 2019-11-13 2021-11-16 Vicarious Fpc, Inc. Method and system for robot control using visual feedback
US11724401B2 (en) * 2019-11-13 2023-08-15 Nvidia Corporation Grasp determination for an object in clutter
TWI790408B (zh) * 2019-11-19 2023-01-21 財團法人工業技術研究院 抓取裝置及抓取方法
US20220189185A1 (en) * 2019-12-09 2022-06-16 Cognex Corporation System and method for applying deep learning tools to machine vision and interface for the same
JP6792230B1 (ja) * 2019-12-12 2020-11-25 株式会社エクサウィザーズ 情報処理装置、方法およびプログラム
CN112989881A (zh) * 2019-12-16 2021-06-18 深圳慧智星晨科技有限公司 一种无监督可迁移的3d视觉物体抓取方法
CN111113416A (zh) * 2019-12-19 2020-05-08 郑州宇恒环保技术有限公司 基于机器视觉的轴承在线检测系统
CN111251294A (zh) * 2020-01-14 2020-06-09 北京航空航天大学 一种基于视觉位姿感知和深度强化学习的机器人抓取方法
DE112021001435T5 (de) * 2020-03-05 2023-01-12 Fanuc Corporation Maschinen-Lern-Vorrichtung
CN111428815B (zh) * 2020-04-16 2022-05-17 重庆理工大学 一种基于Anchor angle机制的机械臂抓取检测方法
WO2021250854A1 (ja) * 2020-06-11 2021-12-16 Pst株式会社 情報処理装置、情報処理方法、情報処理システム、及び情報処理プログラム
US11559885B2 (en) 2020-07-14 2023-01-24 Intrinsic Innovation Llc Method and system for grasping an object
US11275942B2 (en) 2020-07-14 2022-03-15 Vicarious Fpc, Inc. Method and system for generating training data
WO2022015807A1 (en) 2020-07-14 2022-01-20 Vicarious Fpc, Inc. Method and system for object grasping
WO2022086157A1 (ko) * 2020-10-20 2022-04-28 삼성전자주식회사 전자 장치 및 그 제어 방법
WO2022104161A2 (en) * 2020-11-13 2022-05-19 Armstrong Robotics, Inc. System for automated manipulation of objects using a vision-based collision-free motion plan
US20220152825A1 (en) * 2020-11-13 2022-05-19 Armstrong Robotics, Inc. Automated manipulation of objects using a vision-based method for determining collision-free motion planning
CN112847235B (zh) * 2020-12-25 2022-09-09 山东大学 基于深度强化学习的机器人分阶力引导装配方法及系统
US11717963B2 (en) * 2021-02-18 2023-08-08 Sanctuary Cognitive Systems Corporation Systems, devices, and methods for grasping by multi-purpose robots
CN113103237B (zh) * 2021-04-25 2022-10-04 长春工业大学 一种面向未知环境约束的可重构机械臂控制方法及系统
US20220346598A1 (en) 2021-05-01 2022-11-03 Miso Robotics, Inc. Automated bin system for accepting food items in robotic kitchen workspace
TWI771004B (zh) * 2021-05-14 2022-07-11 財團法人工業技術研究院 物件姿態估測系統及其執行方法與圖案化使用者介面
CN117813603A (zh) * 2021-06-17 2024-04-02 Abb瑞士股份有限公司 生成用于神经网络的扩充训练数据的系统和方法
WO2023084207A1 (en) * 2021-11-09 2023-05-19 Danu Robotics Ltd Robotic system and method for picking and/or sorting objects
WO2023205176A1 (en) 2022-04-18 2023-10-26 Dextrous Robotics, Inc. System and/or method for grasping objects
WO2024025541A1 (en) * 2022-07-28 2024-02-01 Hitachi Vantara Llc Unsupervised multi-target motion profile sequence prediction and optimization
CN116512254B (zh) * 2023-04-11 2024-01-23 中国人民解放军军事科学院国防科技创新研究院 基于方向的机械臂智能控制方法及系统、设备、存储介质
CN116604571B (zh) * 2023-07-14 2023-10-27 湖南大学 一种基于深度强化学习的机器人三维测量路径规划方法

Family Cites Families (74)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5673367A (en) * 1992-10-01 1997-09-30 Buckley; Theresa M. Method for neural network control of motion using real-time environmental feedback
JPH06314103A (ja) 1993-04-30 1994-11-08 Fujitsu Ltd 制御装置と能動的センシング装置
JPH0780790A (ja) * 1993-09-16 1995-03-28 Fujitsu Ltd 三次元物体把持システム
JP3421608B2 (ja) 1999-04-08 2003-06-30 ファナック株式会社 教示モデル生成装置
EP1262907B1 (en) 2001-05-28 2007-10-03 Honda Research Institute Europe GmbH Pattern recognition with hierarchical networks
DE10130485C2 (de) * 2001-06-25 2003-06-26 Robert Riener Programmierbarer Gelenksimulator
CA2458979C (en) * 2001-08-31 2010-09-28 George Danko Coordinated joint motion control system
US7443115B2 (en) * 2002-10-29 2008-10-28 Matsushita Electric Industrial Co., Ltd. Apparatus and method for robot handling control
US7415321B2 (en) 2002-12-12 2008-08-19 Matsushita Electric Industrial Co., Ltd. Robot controller
US10589087B2 (en) * 2003-11-26 2020-03-17 Wicab, Inc. Systems and methods for altering brain and body functions and for treating conditions and diseases of the same
US20110020779A1 (en) * 2005-04-25 2011-01-27 University Of Washington Skill evaluation using spherical motion mechanism
US7533071B2 (en) * 2005-06-28 2009-05-12 Neurosciences Research Foundation, Inc. Neural modeling and brain-based devices using special purpose processor
US8260463B2 (en) 2006-02-02 2012-09-04 Kabushiki Kaisha Yaskawa Denki Robot system
JP2007245326A (ja) * 2006-02-17 2007-09-27 Toyota Motor Corp ロボットとロボットの制御方法
US20080009771A1 (en) * 2006-03-29 2008-01-10 Joel Perry Exoskeleton
US20090278798A1 (en) * 2006-07-26 2009-11-12 The Research Foundation Of The State University Of New York Active Fingertip-Mounted Object Digitizer
US20100243344A1 (en) * 2006-09-25 2010-09-30 Board Of Trustees Of Leland Stanford Junior University Electromechanically counterbalanced humanoid robotic system
RU2361726C2 (ru) * 2007-02-28 2009-07-20 Общество С Ограниченной Ответственностью "Алгоритм-Робо" Система управления антропоморфным роботом и способ управления
US20090132088A1 (en) 2007-04-24 2009-05-21 Tairob Ltd. Transfer of knowledge from a human skilled worker to an expert machine - the learning process
JP2008296330A (ja) 2007-05-31 2008-12-11 Fanuc Ltd ロボットシミュレーション装置
US7997847B2 (en) * 2007-12-10 2011-08-16 Robotic Systems & Technologies, Inc. Automated robotic system for handling surgical instruments
US8155479B2 (en) * 2008-03-28 2012-04-10 Intuitive Surgical Operations Inc. Automated panning and digital zooming for robotic surgical systems
US9119533B2 (en) * 2008-10-07 2015-09-01 Mc10, Inc. Systems, methods, and devices having stretchable integrated circuitry for sensing and delivering therapy
US8204623B1 (en) * 2009-02-13 2012-06-19 Hrl Laboratories, Llc Planning approach for obstacle avoidance in complex environment using articulated redundant robot arm
KR20120027253A (ko) 2009-04-23 2012-03-21 코닌클리케 필립스 일렉트로닉스 엔.브이. 물체-학습 로봇 및 방법
US20110043537A1 (en) * 2009-08-20 2011-02-24 University Of Washington Visual distortion in a virtual environment to alter or guide path movement
JP4837116B2 (ja) 2010-03-05 2011-12-14 ファナック株式会社 視覚センサを備えたロボットシステム
EP2542296A4 (en) * 2010-03-31 2014-11-26 St Jude Medical Atrial Fibrill INTUITIVE USER INTERFACE CONTROL FOR REMOTE CATHETER NAVIGATION AND 3D CARTOGRAPHY AND VISUALIZATION SYSTEMS
FI20105732A0 (fi) 2010-06-24 2010-06-24 Zenrobotics Oy Menetelmä fyysisten kappaleiden valitsemiseksi robottijärjestelmässä
US8849580B2 (en) * 2010-07-26 2014-09-30 The University Of Vermont Uses of systems with degrees of freedom poised between fully quantum and fully classical states
RU2475290C1 (ru) * 2010-11-17 2013-02-20 Общество С Ограниченной Ответственностью "Айтэм Мультимедиа" Устройство для игр
CN102161198B (zh) * 2011-03-18 2012-09-19 浙江大学 用于三维空间中移动机械臂路径规划的主从式协进化方法
JP5787642B2 (ja) 2011-06-28 2015-09-30 キヤノン株式会社 対象物保持装置、対象物保持装置の制御方法、およびプログラム
KR20130017123A (ko) * 2011-08-10 2013-02-20 한국생산기술연구원 로봇 파지 지능 학습 지원 시스템 및 방법
US20130041508A1 (en) * 2011-08-12 2013-02-14 Georgia Tech Research Corporation Systems and methods for operating robots using visual servoing
JP2013046937A (ja) 2011-08-29 2013-03-07 Dainippon Screen Mfg Co Ltd 対象物把持装置および対象物把持方法および対象物把持プログラム
JP5623358B2 (ja) * 2011-09-06 2014-11-12 三菱電機株式会社 ワーク取り出し装置
TWI454246B (zh) * 2011-09-30 2014-10-01 Mackay Memorial Hospital Immediate monitoring of the target location of the radiotherapy system
US8386079B1 (en) 2011-10-28 2013-02-26 Google Inc. Systems and methods for determining semantic information associated with objects
JP2013111726A (ja) * 2011-11-30 2013-06-10 Sony Corp ロボット装置及びその制御方法、並びにコンピューター・プログラム
US9014850B2 (en) * 2012-01-13 2015-04-21 Toyota Motor Engineering & Manufacturing North America, Inc. Methods and computer-program products for evaluating grasp patterns, and robots incorporating the same
US8996175B2 (en) * 2012-06-21 2015-03-31 Rethink Robotics, Inc. Training and operating industrial robots
KR101997566B1 (ko) * 2012-08-07 2019-07-08 삼성전자주식회사 수술 로봇 시스템 및 그 제어방법
US20140180479A1 (en) 2012-12-20 2014-06-26 Wal-Mart Stores, Inc. Bagging With Robotic Arm
US9764468B2 (en) 2013-03-15 2017-09-19 Brain Corporation Adaptive predictor apparatus and methods
US20150138078A1 (en) 2013-11-18 2015-05-21 Eyal Krupka Hand pose recognition using boosted look up tables
CN104680508B (zh) 2013-11-29 2018-07-03 华为技术有限公司 卷积神经网络和基于卷积神经网络的目标物体检测方法
US10226869B2 (en) * 2014-03-03 2019-03-12 University Of Washington Haptic virtual fixture tools
US9533413B2 (en) * 2014-03-13 2017-01-03 Brain Corporation Trainable modular robotic apparatus and methods
JP6415066B2 (ja) 2014-03-20 2018-10-31 キヤノン株式会社 情報処理装置、情報処理方法、位置姿勢推定装置、ロボットシステム
JP6364856B2 (ja) 2014-03-25 2018-08-01 セイコーエプソン株式会社 ロボット
US9283676B2 (en) * 2014-06-20 2016-03-15 GM Global Technology Operations LLC Real-time robotic grasp planning
US9978013B2 (en) 2014-07-16 2018-05-22 Deep Learning Analytics, LLC Systems and methods for recognizing objects in radar imagery
US11256982B2 (en) 2014-07-18 2022-02-22 University Of Southern California Noise-enhanced convolutional neural networks
US9767385B2 (en) 2014-08-12 2017-09-19 Siemens Healthcare Gmbh Multi-layer aggregation for object detection
US10768708B1 (en) * 2014-08-21 2020-09-08 Ultrahaptics IP Two Limited Systems and methods of interacting with a robotic tool using free-form gestures
US10518409B2 (en) * 2014-09-02 2019-12-31 Mark Oleynik Robotic manipulation methods and systems for executing a domain-specific application in an instrumented environment with electronic minimanipulation libraries
US10754328B2 (en) * 2014-09-05 2020-08-25 Accenture Global Solutions Limited Self-adaptive device intelligence as a service enterprise infrastructure for sensor-rich environments
CA2882968C (en) * 2015-02-23 2023-04-25 Sulfur Heron Cognitive Systems Inc. Facilitating generation of autonomous control information
US10335951B2 (en) 2015-07-29 2019-07-02 Canon Kabushiki Kaisha Information processing apparatus, information processing method, robot control apparatus, and robot system
US9616568B1 (en) 2015-08-25 2017-04-11 X Development Llc Generating a grasp affordance for an object based on a thermal image of the object that is captured following human manipulation of the object
KR101808840B1 (ko) 2015-09-04 2017-12-13 한국전자통신연구원 학습 기반 깊이 정보 추출 방법 및 장치
CN106548127B (zh) 2015-09-18 2022-11-04 松下电器(美国)知识产权公司 图像识别方法
US9689696B1 (en) * 2015-09-22 2017-06-27 X Development Llc Determining handoff checkpoints for low-resolution robot planning
US9662787B1 (en) * 2015-09-25 2017-05-30 Google Inc. Hydraulic pressure variation in a legged robot
US20170106542A1 (en) * 2015-10-16 2017-04-20 Amit Wolf Robot and method of controlling thereof
US9904874B2 (en) 2015-11-05 2018-02-27 Microsoft Technology Licensing, Llc Hardware-efficient deep convolutional neural networks
US9959468B2 (en) 2015-11-06 2018-05-01 The Boeing Company Systems and methods for object tracking and classification
JP2017102671A (ja) 2015-12-01 2017-06-08 キヤノン株式会社 識別装置、調整装置、情報処理方法及びプログラム
US10471594B2 (en) * 2015-12-01 2019-11-12 Kindred Systems Inc. Systems, devices, and methods for the distribution and collection of multimodal data associated with robots
US9799198B2 (en) * 2015-12-18 2017-10-24 General Electric Company System and method for communicating with an operator of the system
US10229324B2 (en) 2015-12-24 2019-03-12 Intel Corporation Video summarization using semantic information
US20170213576A1 (en) 2016-01-22 2017-07-27 Artur Nugumanov Live Comics Capturing Camera
CN109074513B (zh) 2016-03-03 2020-02-18 谷歌有限责任公司 用于机器人抓握的深度机器学习方法和装置

Also Published As

Publication number Publication date
US10207402B2 (en) 2019-02-19
BR112018067482A2 (pt) 2019-01-02
JP2019508273A (ja) 2019-03-28
JP2019217632A (ja) 2019-12-26
US10946515B2 (en) 2021-03-16
CN109074513A (zh) 2018-12-21
JP6921151B2 (ja) 2021-08-18
EP3742347B1 (en) 2022-11-02
CN109074513B (zh) 2020-02-18
KR102487493B1 (ko) 2023-01-11
US11548145B2 (en) 2023-01-10
CN111230871A (zh) 2020-06-05
CN111230871B (zh) 2023-04-07
KR102023588B1 (ko) 2019-10-14
EP3405910A1 (en) 2018-11-28
EP3742347A1 (en) 2020-11-25
US20190283245A1 (en) 2019-09-19
WO2017151206A1 (en) 2017-09-08
KR20180114217A (ko) 2018-10-17
EP3405910B1 (en) 2020-11-25
CA3016418C (en) 2020-04-14
MX2022002983A (es) 2022-04-06
KR20190108191A (ko) 2019-09-23
US20210162590A1 (en) 2021-06-03
US20170252922A1 (en) 2017-09-07
CA3016418A1 (en) 2017-09-08

Similar Documents

Publication Publication Date Title
JP6586532B2 (ja) ロボットの把持のための深層機械学習方法および装置
JP6586243B2 (ja) ロボットの把持のための深層機械学習方法および装置
CN110691676B (zh) 使用神经网络和几何感知对象表示的机器人抓取预测
US10166676B1 (en) Kinesthetic teaching of grasp parameters for grasping of objects by a grasping end effector of a robot
CN110785268B (zh) 用于语义机器人抓取的机器学习方法和装置
CN111788041A (zh) 由机器人基于使用(一个或多个)机器学习模型确定的抓取策略对物体的抓取
US11772272B2 (en) System(s) and method(s) of using imitation learning in training and refining robotic control policies

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181026

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181026

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20181026

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190318

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190909

R150 Certificate of patent or registration of utility model

Ref document number: 6586532

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250