JP7399912B2 - 物体を取り込む画像に基づき、環境内の将来のロボット運動に関するパラメータに基づいて、ロボットの環境内の物体の動きを予測することに関する機械学習の方法および装置 - Google Patents
物体を取り込む画像に基づき、環境内の将来のロボット運動に関するパラメータに基づいて、ロボットの環境内の物体の動きを予測することに関する機械学習の方法および装置 Download PDFInfo
- Publication number
- JP7399912B2 JP7399912B2 JP2021116336A JP2021116336A JP7399912B2 JP 7399912 B2 JP7399912 B2 JP 7399912B2 JP 2021116336 A JP2021116336 A JP 2021116336A JP 2021116336 A JP2021116336 A JP 2021116336A JP 7399912 B2 JP7399912 B2 JP 7399912B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- image
- candidate
- predicted
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000033001 locomotion Effects 0.000 title claims description 333
- 238000010801 machine learning Methods 0.000 title description 2
- 238000013528 artificial neural network Methods 0.000 claims description 122
- 238000000034 method Methods 0.000 claims description 105
- 238000012549 training Methods 0.000 claims description 88
- 230000009471 action Effects 0.000 claims description 82
- 230000009466 transformation Effects 0.000 claims description 70
- 230000000007 visual effect Effects 0.000 claims description 25
- 238000009826 distribution Methods 0.000 claims description 16
- 238000000844 transformation Methods 0.000 claims description 16
- 230000001131 transforming effect Effects 0.000 claims description 15
- 230000015572 biosynthetic process Effects 0.000 claims description 10
- 238000003786 synthesis reaction Methods 0.000 claims description 10
- 239000002131 composite material Substances 0.000 claims description 9
- 230000004044 response Effects 0.000 claims description 9
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 7
- 230000001537 neural effect Effects 0.000 claims description 5
- 230000007704 transition Effects 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 3
- 239000000203 mixture Substances 0.000 claims description 3
- 230000006403 short-term memory Effects 0.000 claims description 3
- 230000002194 synthesizing effect Effects 0.000 claims 1
- 239000012636 effector Substances 0.000 description 50
- 230000000875 corresponding effect Effects 0.000 description 25
- 239000003795 chemical substances by application Substances 0.000 description 13
- 239000013598 vector Substances 0.000 description 13
- 238000010586 diagram Methods 0.000 description 10
- 230000003993 interaction Effects 0.000 description 9
- 230000010399 physical interaction Effects 0.000 description 7
- 230000001143 conditioned effect Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 230000007613 environmental effect Effects 0.000 description 5
- 230000015654 memory Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000003068 static effect Effects 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 238000001994 activation Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 238000003062 neural network model Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000000873 masking effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000011017 operating method Methods 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/0265—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
- G05B13/027—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/008—Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39289—Adaptive ann controller
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30164—Workpiece; Machine component
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Robotics (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Automation & Control Theory (AREA)
- Medical Informatics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Human Computer Interaction (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Databases & Information Systems (AREA)
- Fuzzy Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
Description
画像フレームに適用することが、次の画像フレームを形成する。様々な動き予測モデルが利用され得、そのうちの3つが、本明細書で詳細に説明される。本明細書で時々動的ニューラル移流(dynamic neural advection)(DNA)モデルと呼ばれる第1のモデルは、新しいフレーム内の画素ごとに以前の画像フレーム内の位置にわたる分布を出力する。その後、予測された画素値が、この分布の下での期待値として計算される。本明細書で時々畳み込み動的ニューラル移流(convolutional dynamic neural advection)(CDNA)モデルと呼ばれるDNAモデルに対する変形形態は、新しい画素値を計算するために以前の画像フレームに適用すべき複数の正規化された畳み込みカーネルのパラメータを出力する。本明細書で時々空間トランスフォーマ・プレディクタ(spatial transformer predictor)(STP)モデルと呼ばれる最後の手法は、以前の画像フレームに適用すべき複数のアフィン変換のパラメータを出力する。DNAモデルおよびSTPモデルの場合に、各予測された変換は、別々の物体を処理することが意図されている。予測を単一の画像に組み合わせるために、モデルは、変換のそれぞれに関する合成マスクをも予測する。DNAおよびCDNAは、STPより単純であり、かつ/または実施がより簡単である可能性があり、物体中心のCDNAモデルおよびSTPモデルは、解釈可能な内部表現をも提供することができる。
DNA動き予測モデルでは、位置にわたる分布が、新しいフレーム内の画素ごとに以前のフレーム内で予測される。予測された画素値は、この分布の下の期待値として計算される。画素運動は、画素が長距離を移動しないという規則化する仮定の下で、ローカル領域に制約される。これは、予測の次元性を低く保つことができる。
同一の機構が、画像の異なる領域内の異なる物体の動きを予測するのに使用され得るという仮定の下で、CDNA動き予測モデルは、動きを予測するためのより物体中心の手法を提示することができる。画素ごとに異なる分布を予測するのではなく、このモデルは、すべての画素の動き分布の期待値を計算する畳み込み(拘束された重みを用いる)を介して画像全体にそれぞれが適用される複数の離散分布を予測する。同一の剛性物体上の画素は、一緒に動き、したがって、同一の変換を共有することができる。より形式的には、以前の画像
STP動き予測モデルは、2Dアフィン画像変換のパラメータの複数のセットを作り、バイリニア・サンプリング・カーネルを使用して変換を適用する。より形式的には、アフィン・パラメータのセット
ど影響するのかを示す。マスクのチャネルにわたるソフトマックスは、その合計が1になることを保証することができる。より形式的には、予測された画像の合成
スクでの意思決定に学習されたモデルを使用することである。ビデオからの教師なし学習は、エージェントが、人間の介入なしに独力で世界に関して学習することを可能にすることができ、これは、相互作用学習をスケール・アップするのに有益である可能性がある。ロボット・タスクに関するアクション条件付けされたビデオ予測を調査するために、実世界の物理物体相互作用に関するデータセットが使用され得る。たとえば、データセットは、ビン内の数百個の物体を押す10個のロボット・アームを使用して生成され得る(100万ビデオ・フレームにわたって合計50000個の相互作用シーケンスになる)。画像(たとえば、RGB画像またはRGBD画像)を含めることに加えて、各フレームは、フレームの時間ステップでのグリッパ姿勢(本明細書では「内部状態」または「ロボット状態」と呼ばれる場合がある)と、その時間ステップでのアクション(後続(たとえば、次)の時間ステップでのグリッパ姿勢に対応することができる)または後続時間ステップでのグリッパ姿勢に達するための動きベクトルもしくはコマンドとを用いて注釈を付けられることも可能である。
調整を可能にする。また、たとえば、ロボットの内部システムが、物体に向けられたタスク(たとえば、物体を新しい姿勢に移動する)の達成において物体の目標状態を定義することができる。様々な候補アクションが、複数の予測された画像を生成するのに動き予測モデルを利用して考慮され得る。その目標状態に最も近い物体を描く予測された画像が判定され得、予測された画像を生成するために適用される候補アクションが、物体をその目標状態に移動するためにロボットによって選択され、適用され得る。この形で、動き予測モデルは、ロボットの環境に対する様々な候補アクションの影響を予測するのに利用され得、所望の環境影響に最もよく従う予測された画像をもたらした候補アクションが、選択され得る。これは、様々なロボット・アクションを実際には実施せずにこれらのアクションの影響を当初に考慮することと、その後の、考慮された影響に基づいて実際に実施すべき、これらのロボット・アクションのうちの1つまたは複数の選択とを可能にする。
び180Bは、把持エンド・エフェクタ182Aおよび182Bを所望の姿勢に位置決めするための、複数の潜在的な経路のいずれかに沿った把持エンド・エフェクタ182Aおよび182Bのトラバースを、ロボットの運動を介して可能にするために複数の自由度を有する「ロボット・アーム」である。たとえば、図2を参照すると、経路201に沿ってそのエンド・エフェクタをトラバースするロボット180Aの例が示されている。図2は、経路201に沿ってトラバースする際のロボット180Aおよびそのエンド・エフェクタによってとられる姿勢のセットのうちの2つの異なる姿勢を示すロボット180Aのファントム画像および非ファントム画像を含む。図1をもう一度参照すると、ロボット180Aおよび180Bは、それぞれ、少なくとも開位置と閉位置と(および/またはオプションで複数の「部分的に閉じた」位置と)の間で爪を作動させるためにそれに対応する把持エンド・エフェクタ182Aおよび182Bの2つの対向する「爪」をさらに制御する。
および/または代替のエンド・エフェクタが利用され得る。たとえば、把持が可能ではないエンド・エフェクタが利用され得る。さらに、視覚センサ184Aおよび184Bの特定の取付けが図1に示されているが、追加のおよび/または代替の取付けが利用され得る。たとえば、いくつかの実施態様では、視覚センサは、ロボットの作動不能構成要素上またはロボットの作動可能構成要素上(たとえば、エンド・エフェクタ上またはエンド・エフェクタの近くの構成要素上)など、ロボットに直接に取り付けられ得る。また、たとえば、いくつかの実施態様では、視覚センサは、それに関連するロボットとは別々の非静止構造上に取り付けられ得、かつ/またはそれに関連するロボットとは別々の構造上に非静止の形で取り付けられ得る。
ランダムおよび/または擬似ランダム)な運動とすることができる。中央に掃引する試みは、その中で物体の動きの試みが制限される制約されたエリアの外側境界の付近またはその上のランダムな位置から開始することができ、制約されたエリアの中央に向かってエンド・エフェクタを曲折させることができる。たとえば、制約されたエリアは、全般的にビンに従うことができ、ランダムな掃引の試みは、ビンの周辺付近のランダムな位置から開始し、ビンの中央に向かってランダムに曲折することができる。ランダムな掃引の試みは、物体がビンの縁に集積するのを防ぐのに有益である可能性がある。
持エンド・エフェクタを移動し、把持エンド・エフェクタが視野の外にある時の実例に画像を取り込むことができる。その後、画像は、記憶され、物体の動きの試みに関連付けられ得る。いくつかの実施態様では、ブロック354は省略され得る。
とができる。
のうちの1つまたは複数を含むことができる。
た画像)を処理するのに利用される。10個の正規化されたCDNA変換カーネル682の出力は、ネットワークの最小次元層(畳み込みLSTM層675)に関する出力として生成され、合成マスク684(たとえば、11チャネル・マスク)の出力は、最後の層(畳み込み層62)に関する出力として生成される。本明細書で説明するように、合成マスク684は、静的背景用の1つのチャネルと10個の追加チャネル(それぞれ、10個のCDNA変換カーネル682のうちの対応する1つに基づいて生成される変換された画像に対応する)とを含むことができる。CDNAカーネル682は、画像601(たとえば、最初の反復ではカメラによって取り込まれた画像、後続の反復では直前に予測された画像)を10個の異なる変換された画像683に変換693するために適用される。10個の異なる変換された画像は、マスクされた合成694で、予測された画像685を生成するために合成マスク684に従って合成される。10個の異なる変換された画像683への画像601の変換693は、CDNAカーネル682に基づいて画像601を畳み込むこと(たとえば、変換された画像683のうちの第1の画像を生成するためにCDNAカーネル682のうちの第1のカーネルに基づいて画像601を畳み込むこと、変換された画像683のうちの第2の画像を生成するためにCDNAカーネルのうちの第2のカーネルに基づいて画像601を畳み込むこと、その他)を含むことができる。合成マスク684は、適用されるチャネルに関するソフトマックスに起因して、各画素で合計1になる。
ット状態602は、ベクトル(x,y,z)および角度(ピッチ,ヨー)の値を有する5次元とすることができる。ロボット・アクションは、やはり5次元とすることができ、アクションが適用される場合に後続(たとえば、次)の時間ステップのベクトルおよび角度の値、ならびに/またはアクションが適用される場合に動きベクトルとすることができる。たとえば、ロボット・アクションは、指令されるグリッパ姿勢のベクトル(x,y,z)および角度(ピッチ,ヨー)とすることができる。指令されるグリッパ姿勢は、次の時間ステップの指令されるグリッパ姿勢または将来の時間ステップの指令されるグリッパ姿勢(たとえば、最後の時間ステップでのグリッパのターゲット姿勢)とすることができる。ロボット状態602およびロボット・アクション603のベクトルは、まず、10個のチャネルを有する8×8応答マップ681にタイリングされ、その後、693で、チャネルに関して、畳み込みLSTM層675の入力(畳み込みLSTM層674からの出力と連結されるに連結される。現在の反復のロボット状態602は、現在のロボット状態とすることができ、後続の反復のロボット状態602は、先行する現在のロボット状態および先行するロボット・アクションから線形に予測され得るが、追加のまたは代替のロボット状態予測モデルが使用され得る。
る。図7を参照すると、ロボットの運動が発生した後のロボットの環境を予測する予測された画像(1つまたは複数)を生成するのにトレーニングされるニューラル・ネットワークを利用し、かつ/または予測された画像に基づいて1つまたは複数のアクションを実行する、方法700の例の流れ図が示されている。便宜のために、この流れ図の動作は、その動作を実行するシステムを参照して説明される。このシステムは、ロボット180A、180B、840、および/または他のロボットのプロセッサ(たとえば、GPUおよび/またはCPU)および/またはロボット制御システムなど、ロボットの1つまたは複数の構成要素を含むことができる。方法700の1つまたは複数のブロックを実施する際に、システムは、たとえばロボットにローカルに記憶され、かつ/またはロボットからリモートに記憶され得るトレーニングされるニューラル・ネットワークを介して動作することができる。さらに、方法700の動作が、特定の順序で示されるが、これは、限定的であることを意図されたものではない。1つまたは複数の動作が、並べ変えられ、省略され、または追加され得る。
り込んだ画像を識別する。候補運動の一部に関する方法700の最初の反復など、いくつかの実施態様では、画像は現在の画像である。いくつかの実施態様では、システムは、エンド・エフェクタが少なくとも部分的に視覚センサの視野の外にあった時に視覚センサによって取り込まれた環境物体の追加画像など、エンド・エフェクタおよび/または他のロボット構成要素を少なくとも部分的に省略した追加画像をも識別する。いくつかの実施態様では、システムは、連結された画像を生成するために、画像と追加画像とを連結する。いくつかの実施態様では、システムは、オプションで、画像および/または連結された画像の処理を実行する(たとえば、ニューラル・ネットワークの入力にサイズを合わせるために)。
ク752に戻って進み、その部分の候補ロボット運動パラメータを生成し、その後、ブロック754に進み、画像を識別し、その後、ブロック756~758に進み、追加の候補ロボット運動パラメータに基づいて別の予測された画像を生成する。いくつかの実施態様では、ブロック754の追加の反復で識別される画像は、ブロック760の直前の反復で生成された予測された画像である。このプロセスは、ブロック754の反復で識別され、ブロック756のその反復で適用される画像として直前の反復からの予測された画像を毎回利用して繰り返され得、これによって、将来の複数の時間ステップのそれぞれについて予測された画像が生成されることを可能にする。この形で、予測された画像は、現在の画像に対して条件付けられ、候補ロボット運動パラメータに基づいて、複数の時間ステップにわたって物体(1つまたは複数)の動きを判定するのに利用され得る。
は複数の信号に変換する任意のドライバ(1つまたは複数)に加えて、動きを作成する機械デバイスまたは電気デバイス(たとえば、モータ)を包含する。したがって、アクチュエータへの制御コマンドの供給は、所望の動きを作成するために電気デバイスまたは機械デバイスを駆動するのに適当な信号に変換するドライバへの制御コマンドの供給を含むことができる。
オーディオ入力デバイス、マイクロホン、および/または他のタイプの入力デバイスを含むことができる。一般に、用語「入力デバイス」の使用は、コンピューティング・デバイス910または通信ネットワークに情報を入力するためのすべての可能なタイプのデバイスおよび形を含むことが意図されている。
Claims (20)
現在のロボット状態を異なるロボット状態に遷移させるための候補ロボット運動パラメータを生成するステップであって、前記候補ロボット運動パラメータは、ロボットの作業空間内において前記ロボットの1つまたは複数のアクチュエータによって実行可能な候補運動の少なくとも一部を定義する、ステップと、
前記ロボットに関連する視覚センサによって取り込まれた現在の画像を識別するステップであって、前記現在の画像は、前記ロボットの前記作業空間の少なくとも一部を取り込む、ステップと、
前記作業空間内で発生する物体の動きを予測する動き予測モデルを用いるニューラル・ネットワークへの入力として、前記現在の画像および前記候補ロボット運動パラメータを適用するステップであって、前記動き予測モデルが、以前のフレームからの画素動きにわたる分布を予測することによって画素動きを明示的にモデル化する、ステップと、
前記現在の画像内における少なくとも1つの予測された変換を生成するステップであって、前記予測された変換は、前記ニューラル・ネットワークへの前記現在の画像および前記候補ロボット運動パラメータの前記適用に基づいて生成される、ステップと、
少なくとも1つの予測された画像を生成するために、前記少なくとも1つの予測された変換に基づいて前記現在の画像を変換するステップであって、前記予測された画像は、前記候補運動の少なくとも一部が前記作業空間内において前記ロボットの前記1つまたは複数のアクチュエータによって実行された場合に前記視覚センサによって取り込まれると予測された画像である、ステップと、
前記予測された画像に基づいて、前記物体の予測された動きが所望の動きに従うと判断された場合に、前記候補運動を実行すると決定するステップと、
前記候補運動を実行するために前記ロボットの前記1つまたは複数のアクチュエータに1つまたは複数の制御コマンドを供給するステップと
を含む、1つまたは複数のプロセッサによって実施される方法。
前記少なくとも1つの合成マスクが、複数の合成マスクを含み、
前記予測された画像を生成するために、前記少なくとも1つの予測された変換に基づいて前記現在の画像を変換するステップが、
前記複数の予測された変換に基づき複数の予測された画像を生成するステップと、
前記予測された画像を生成するために前記複数の合成マスクに基づいて前記複数の予測された画像を合成するステップと
を含む、請求項2に記載の方法。
前記ニューラル・ネットワークへの入力として前記現在の画像および前記第2の候補ロボット運動パラメータを適用するステップと、
前記現在の画像の少なくとも1つの第2の予測された変換を生成するステップであって、前記第2の予測された変換は、前記現在の画像および前記第2の候補ロボット運動パラメータの前記ニューラル・ネットワークへの前記適用に基づき生成される、ステップと、
少なくとも1つの第2の予測された画像を生成するために、前記第2の予測された変換に基づいて前記現在の画像の1つまたは複数の画素を変換するステップであって、前記第2の運動の前記少なくとも一部が前記作業空間内において前記ロボットの前記1つまたは複数のアクチュエータによって実行された場合に前記視覚センサにより取り込まれると予測された画像である、ステップと
をさらに含む、請求項1に記載の方法。
前記候補運動または前記第2の運動のうちの前記選択された1つを実行するために、前記ロボットの前記1つまたは複数のアクチュエータに1つまたは複数の制御コマンドを提供するステップと
をさらに含む、請求項4に記載の方法。
前記予測された画像および前記継続する候補ロボット運動パラメータを前記ニューラル・ネットワークに適用するステップと、
前記予測された画像の少なくとも1つの継続する予測された変換を生成するステップであって、前記継続する予測された変換は、前記予測された画像および前記継続する候補ロボット運動パラメータの前記ニューラル・ネットワークへの前記適用に基づいて生成される、ステップと、
前記継続する予測された画像を生成するために、前記継続する予測された変換に基づき前記予測された画像を変換するステップと
をさらに含む、請求項1に記載の方法。
前記候補運動を実行するために前記ロボットの1つまたは複数のアクチュエータに前記1つまたは複数の制御コマンドを提供するステップと
をさらに含む、請求項6に記載の方法。
前記ニューラル・ネットワークの初期層への入力として前記現在の画像を適用するステップと、
前記ニューラル・ネットワークの追加の相へ前記候補ロボット運動パラメータを適用するステップであって、前記追加の相が前記初期層の下流にある、ステップと
をさらに含む、請求項1に記載の方法。
ロボットの作業空間を監視する視覚センサと、
1つまたは複数の非一時的コンピュータ可読媒体に記録されたニューラル・ネットワークと、
少なくとも1つのプロセッサと
を備え、前記少なくとも1つのプロセッサが、
前記ロボットに関連する前記視覚センサにより取り込まれる現在の画像を識別することと、
前記ロボットの現在の状態を識別することと、
前記ロボットを前記現在の状態から候補状態に遷移させるためのアクションである候補アクションを識別することであって、前記候補状態は前記ロボットが遷移可能な状態である、識別することと、
前記現在の画像、前記現在の状態、および前記候補アクションを前記ニューラル・ネットワークへの入力として適用することであって、前記ニューラル・ネットワークは、以前のフレームから画素の動きを予測することにより画素の動きを明示的にモデル化する予測モデルを採用する、適用することと、
前記現在の画像、前記現在の状態、および前記候補アクションの前記ニューラル・ネットワークへの前記適用に基づいて、前記現在の画像内における少なくとも1つの予測された変換を生成することと、
前記少なくとも1つの予測された変換に基づいて前記現在の画像を変換して、少なくとも1つの予測された画像を生成することと、
前記予測された画像に基づき、前記候補アクションを実行すると決定することと、
前記候補アクションを実行するために、前記ロボットの1つまたは複数のアクチュエータに1つまたは複数の制御コマンドを提供することと
を行うように構成された、システム。
前記現在の状態に続く次の状態を前記候補アクションに基づいて決定することと、
前記ロボットを前記次の状態から、さらなる候補状態へ遷移させるための次の候補アクションを識別することと、
前記ニューラル・ネットワークへの入力として前記現在の画像、前記現在の状態、および前記候補アクションを入力することに続き、前記予測された画像、前記次の状態、および前記次の候補アクションを前記ニューラル・ネットワークへの入力として適用することと、
前記ニューラル・ネットワークへの入力として前記予測された画像、前記次の状態、および前記次の候補アクションを適用することに基づき、次の予測された画像を生成することと
をさらに行うように構成され、
前記候補アクションを実行することを決定する際に、前記少なくとも1つのプロセッサは、前記次の予測された画像に基づいて前記候補アクションを実行することを決定する、請求項12に記載のシステム。
1つまたは複数のプロセッサによって、1つまたは複数のロボットによる物体の動きの複数の試み中に前記ロボットに関連するセンサからのセンサ出力に基づいて生成された複数のトレーニング例を識別するステップであって、
前記複数のトレーニング例の各々が、
前記物体の動きの試みに対応する複数の順次画像のグループであって、前記複数の順次画像の各々が、対応する時間における前記ロボットの作業空間内の1つまたは複数の対応する物体を取り込む、複数の順次画像のグループと、
前記複数の順次画像の各々について、
前記対応する時間における前記ロボットの状態と、
前記対応する時間における前記ロボットの前記状態を前記複数の順次画像の次の順次画像に対応する新たな状態に遷移させるために適用されるアクションと
を含む、ステップと、
前記1つまたは複数のプロセッサによって、前記ロボットによる物体の動きの試みに応答して前記作業空間の画像に対して発生する変換を予測するように、前記トレーニング例に基づいて前記ニューラル・ネットワークをトレーニングするステップと
を含む方法。
前記複数の順次画像の所与の画像、ならびに前記所与の画像に関する前記状態および前記アクションを前記ニューラル・ネットワークへの初期入力として適用するステップと、
前記ニューラル・ネットワークへの前記初期入力の適用に基づいて予測された画像を生成するステップと、
前記予測された画像と前記複数の順次画像における前記所与の画像に続く前記次の順次画像とに基づき誤差を決定するステップと、
前記誤差に基づき前記ニューラル・ネットワークを更新するステップと
を含む、請求項14に記載の方法。
前記初期入力の適用に続く、前記ニューラル・ネットワークへの次の入力として、前記予測された画像ならびに前記次の順次画像に関する前記状態および前記アクションを適用するステップと、
前記ニューラル・ネットワークへの前記次の入力の適用に基づいて追加の予測された画像を生成するステップと、
前記追加の予測された画像と、前記複数の順次画像における前記次の順次画像に続く、さらなる次の順次画像とに基づき追加の誤差を決定するステップと、
前記追加の誤差に基づき前記ニューラル・ネットワークを更新するステップと
を含む、請求項15に記載の方法。
所与のトレーニング例の前記所与の画像を、前記ニューラル・ネットワークの初期層への入力として適用するステップと、
前記初期層の下流にある追加の層に、前記所与の画像に関する前記状態および前記アクションを適用するステップと
を含む、請求項15に記載の方法。
第1のロボットによる複数の物体の動きの試み中に前記第1のロボットの複数の第1のロボットセンサからの出力に基づき生成されるトレーニング例の第1のグループと、
第2のロボットによる複数の物体の動きの試み中に前記第2のロボットの複数の第2のロボットセンサからの出力に基づき生成されるトレーニング例の第2のグループと
を含む、請求項14に記載の方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023205781A JP2024019422A (ja) | 2016-05-20 | 2023-12-06 | 物体を取り込む画像に基づき、環境内の将来のロボット運動に関するパラメータに基づいて、ロボットの環境内の物体の動きを予測することに関する機械学習の方法および装置 |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662339734P | 2016-05-20 | 2016-05-20 | |
US62/339,734 | 2016-05-20 | ||
US15/596,103 | 2017-05-16 | ||
US15/596,103 US11173599B2 (en) | 2016-05-20 | 2017-05-16 | Machine learning methods and apparatus related to predicting motion(s) of object(s) in a robot's environment based on image(s) capturing the object(s) and based on parameter(s) for future robot movement in the environment |
JP2020069785A JP2020128003A (ja) | 2016-05-20 | 2020-04-08 | 物体を取り込む画像に基づき、環境内の将来のロボット運動に関するパラメータに基づいて、ロボットの環境内の物体の動きを予測することに関する機械学習の方法および装置 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020069785A Division JP2020128003A (ja) | 2016-05-20 | 2020-04-08 | 物体を取り込む画像に基づき、環境内の将来のロボット運動に関するパラメータに基づいて、ロボットの環境内の物体の動きを予測することに関する機械学習の方法および装置 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023205781A Division JP2024019422A (ja) | 2016-05-20 | 2023-12-06 | 物体を取り込む画像に基づき、環境内の将来のロボット運動に関するパラメータに基づいて、ロボットの環境内の物体の動きを予測することに関する機械学習の方法および装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021175592A JP2021175592A (ja) | 2021-11-04 |
JP7399912B2 true JP7399912B2 (ja) | 2023-12-18 |
Family
ID=58873885
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018559945A Pending JP2019516568A (ja) | 2016-05-20 | 2017-05-16 | 物体を取り込む画像に基づき、環境内の将来のロボット運動に関するパラメータに基づいて、ロボットの環境内の物体の動きを予測することに関する機械学習の方法および装置 |
JP2020069785A Ceased JP2020128003A (ja) | 2016-05-20 | 2020-04-08 | 物体を取り込む画像に基づき、環境内の将来のロボット運動に関するパラメータに基づいて、ロボットの環境内の物体の動きを予測することに関する機械学習の方法および装置 |
JP2021116336A Active JP7399912B2 (ja) | 2016-05-20 | 2021-07-14 | 物体を取り込む画像に基づき、環境内の将来のロボット運動に関するパラメータに基づいて、ロボットの環境内の物体の動きを予測することに関する機械学習の方法および装置 |
JP2023205781A Pending JP2024019422A (ja) | 2016-05-20 | 2023-12-06 | 物体を取り込む画像に基づき、環境内の将来のロボット運動に関するパラメータに基づいて、ロボットの環境内の物体の動きを予測することに関する機械学習の方法および装置 |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018559945A Pending JP2019516568A (ja) | 2016-05-20 | 2017-05-16 | 物体を取り込む画像に基づき、環境内の将来のロボット運動に関するパラメータに基づいて、ロボットの環境内の物体の動きを予測することに関する機械学習の方法および装置 |
JP2020069785A Ceased JP2020128003A (ja) | 2016-05-20 | 2020-04-08 | 物体を取り込む画像に基づき、環境内の将来のロボット運動に関するパラメータに基づいて、ロボットの環境内の物体の動きを予測することに関する機械学習の方法および装置 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023205781A Pending JP2024019422A (ja) | 2016-05-20 | 2023-12-06 | 物体を取り込む画像に基づき、環境内の将来のロボット運動に関するパラメータに基づいて、ロボットの環境内の物体の動きを予測することに関する機械学習の方法および装置 |
Country Status (4)
Country | Link |
---|---|
US (2) | US11173599B2 (ja) |
JP (4) | JP2019516568A (ja) |
KR (2) | KR102168003B1 (ja) |
WO (1) | WO2017201023A1 (ja) |
Families Citing this family (89)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9948885B2 (en) * | 2003-12-12 | 2018-04-17 | Kurzweil Technologies, Inc. | Virtual encounters |
US9634855B2 (en) | 2010-05-13 | 2017-04-25 | Alexander Poltorak | Electronic personal interactive device that determines topics of interest using a conversational agent |
US9381916B1 (en) * | 2012-02-06 | 2016-07-05 | Google Inc. | System and method for predicting behaviors of detected objects through environment representation |
DE102015216659A1 (de) * | 2015-09-01 | 2017-03-02 | Siemens Aktiengesellschaft | Vorrichtung zur Anbindung an einen Roboter |
US11222461B2 (en) | 2016-03-25 | 2022-01-11 | Outward, Inc. | Arbitrary view generation |
US11232627B2 (en) | 2016-03-25 | 2022-01-25 | Outward, Inc. | Arbitrary view generation |
US11989821B2 (en) | 2016-03-25 | 2024-05-21 | Outward, Inc. | Arbitrary view generation |
US11989820B2 (en) | 2016-03-25 | 2024-05-21 | Outward, Inc. | Arbitrary view generation |
US11972522B2 (en) | 2016-03-25 | 2024-04-30 | Outward, Inc. | Arbitrary view generation |
US10163250B2 (en) | 2016-03-25 | 2018-12-25 | Outward, Inc. | Arbitrary view generation |
US10163251B2 (en) | 2016-03-25 | 2018-12-25 | Outward, Inc. | Arbitrary view generation |
US10163249B2 (en) | 2016-03-25 | 2018-12-25 | Outward, Inc. | Arbitrary view generation |
US10058995B1 (en) | 2016-07-08 | 2018-08-28 | X Development Llc | Operating multiple testing robots based on robot instructions and/or environmental parameters received in a request |
US11049010B2 (en) * | 2016-07-26 | 2021-06-29 | The University Of Connecticut | Early prediction of an intention of a user's actions |
US11370113B2 (en) * | 2016-09-06 | 2022-06-28 | Verily Life Sciences Llc | Systems and methods for prevention of surgical mistakes |
US11518051B2 (en) | 2017-02-07 | 2022-12-06 | Veo Robotics, Inc. | Dynamic, interactive signaling of safety-related conditions in a monitored environment |
US12103170B2 (en) | 2017-01-13 | 2024-10-01 | Clara Vu | Dynamic, interactive signaling of safety-related conditions in a monitored environment |
CN110494900A (zh) | 2017-02-07 | 2019-11-22 | 韦奥机器人股份有限公司 | 工作空间安全监控和设备控制 |
US11820025B2 (en) | 2017-02-07 | 2023-11-21 | Veo Robotics, Inc. | Safe motion planning for machinery operation |
US11541543B2 (en) | 2017-02-07 | 2023-01-03 | Veo Robotics, Inc. | Dynamic, interactive signaling of safety-related conditions in a monitored environment |
US10223821B2 (en) * | 2017-04-25 | 2019-03-05 | Beyond Imagination Inc. | Multi-user and multi-surrogate virtual encounters |
EP3593291B8 (en) * | 2017-05-19 | 2024-08-14 | DeepMind Technologies Limited | Making object-level predictions of the future state of a physical system |
US11237872B2 (en) * | 2017-05-23 | 2022-02-01 | Kla-Tencor Corporation | Semiconductor inspection and metrology systems for distributing job among the CPUs or GPUs based on logical image processing boundaries |
US11468286B2 (en) * | 2017-05-30 | 2022-10-11 | Leica Microsystems Cms Gmbh | Prediction guided sequential data learning method |
US11126854B1 (en) * | 2017-06-02 | 2021-09-21 | Amazon Technologies, Inc. | Efficient identification of objects in videos using motion information |
JP6695843B2 (ja) * | 2017-09-25 | 2020-05-20 | ファナック株式会社 | 装置、及びロボットシステム |
US10692244B2 (en) | 2017-10-06 | 2020-06-23 | Nvidia Corporation | Learning based camera pose estimation from images of an environment |
JP6456555B1 (ja) * | 2017-11-02 | 2019-01-23 | 三菱電機株式会社 | キャリブレーション装置、キャリブレーション方法および制御装置 |
US11701773B2 (en) * | 2017-12-05 | 2023-07-18 | Google Llc | Viewpoint invariant visual servoing of robot end effector using recurrent neural network |
US10572775B2 (en) * | 2017-12-05 | 2020-02-25 | X Development Llc | Learning and applying empirical knowledge of environments by robots |
JP7122821B2 (ja) * | 2017-12-15 | 2022-08-22 | 川崎重工業株式会社 | ロボットシステム及びロボット制御方法 |
US10579908B2 (en) * | 2017-12-15 | 2020-03-03 | Google Llc | Machine-learning based technique for fast image enhancement |
JP6734253B2 (ja) * | 2017-12-20 | 2020-08-05 | ファナック株式会社 | ワークを撮像する視覚センサを備える撮像装置 |
US11043006B1 (en) * | 2017-12-29 | 2021-06-22 | Perceive Corporation | Use of machine-trained network for misalignment identification |
CN111630526B (zh) * | 2018-01-22 | 2023-12-29 | 苹果公司 | 在合成现实布景中生成用于目标实现器的目标 |
US12097625B2 (en) * | 2018-02-06 | 2024-09-24 | Veo Robotics, Inc. | Robot end-effector sensing and identification |
US12049014B2 (en) | 2018-02-06 | 2024-07-30 | Veo Robotics, Inc. | Workplace monitoring and semantic entity identification for safe machine operation |
CN108491767B (zh) * | 2018-03-06 | 2022-08-09 | 北京因时机器人科技有限公司 | 基于在线视频感知的自主滚动响应方法、系统和机械手 |
JP6933167B2 (ja) * | 2018-03-14 | 2021-09-08 | オムロン株式会社 | ロボットの制御装置 |
CN108390380B (zh) * | 2018-05-16 | 2021-04-06 | 国网山东省电力公司青岛供电公司 | 一种变压器状态参量趋势预测方法及系统 |
US11904467B2 (en) | 2018-05-18 | 2024-02-20 | Google Llc | System and methods for pixel based model predictive control |
US20190362235A1 (en) * | 2018-05-23 | 2019-11-28 | Xiaofan Xu | Hybrid neural network pruning |
DE112018007729B4 (de) * | 2018-06-14 | 2022-09-08 | Yamaha Hatsudoki Kabushiki Kaisha | Maschinelle Lernvorrichtung und mit dieser ausgestattetes Robotersystem |
US10713487B2 (en) * | 2018-06-29 | 2020-07-14 | Pixart Imaging Inc. | Object determining system and electronic apparatus applying the object determining system |
US10953548B2 (en) | 2018-07-19 | 2021-03-23 | International Business Machines Corporation | Perform peg-in-hole task with unknown tilt |
EP3837666A4 (en) | 2018-08-17 | 2022-05-11 | Dauntless.io, Inc. | SYSTEMS AND METHODS FOR MODELING AND CONTROLLING DYNAMIC PHYSICAL SYSTEMS USING ARTIFICIAL INTELLIGENCE |
US11597084B2 (en) | 2018-09-13 | 2023-03-07 | The Charles Stark Draper Laboratory, Inc. | Controlling robot torque and velocity based on context |
EP3788549B1 (en) | 2018-09-27 | 2023-09-06 | DeepMind Technologies Limited | Stacked convolutional long short-term memory for model-free reinforcement learning |
US20200160210A1 (en) * | 2018-11-20 | 2020-05-21 | Siemens Industry Software Ltd. | Method and system for predicting a motion trajectory of a robot moving between a given pair of robotic locations |
US11839983B2 (en) * | 2018-11-27 | 2023-12-12 | Ocado Innovation Limited | Systems and methods for robotic grasp verification |
US11501179B2 (en) | 2018-11-28 | 2022-11-15 | International Business Machines Corporation | Cognitive robotics system that requests additional learning content to complete learning process |
CN109658413B (zh) * | 2018-12-12 | 2022-08-09 | 达闼机器人股份有限公司 | 一种机器人目标物体抓取位置检测的方法 |
US20200202178A1 (en) * | 2018-12-19 | 2020-06-25 | Abb Schweiz Ag | Automatic visual data generation for object training and evaluation |
CN111476257A (zh) * | 2019-01-24 | 2020-07-31 | 富士通株式会社 | 信息处理方法和信息处理装置 |
EP3918437A4 (en) * | 2019-01-31 | 2022-11-02 | Brain Corporation | SYSTEMS AND METHODS FOR LASER ODOMETRY AND IMAGING FOR AUTONOMOUS ROBOTS |
WO2020167739A1 (en) * | 2019-02-11 | 2020-08-20 | Hypertherm, Inc. | Motion distribution in robotic systems |
US11657801B2 (en) * | 2019-02-27 | 2023-05-23 | Comcast Cable Communications, Llc | Voice command detection and prediction |
EP3930617A1 (en) * | 2019-02-28 | 2022-01-05 | Koninklijke Philips N.V. | Training data collection for machine learning models |
EP3790710A1 (en) | 2019-03-01 | 2021-03-17 | Google LLC | Robotic manipulation using domain-invariant 3d representations predicted from 2.5d vision data |
JP7044204B2 (ja) | 2019-03-15 | 2022-03-30 | オムロン株式会社 | パラメータ調整装置、パラメータ調整方法及びプログラム |
CN110000781B (zh) * | 2019-03-29 | 2021-06-08 | 郑州大学 | 基于发育网络的移动机器人运动方向预先决策方法 |
US11845191B1 (en) * | 2019-06-26 | 2023-12-19 | Amazon Technologies, Inc. | Robotic picking of cuboidal items from a pallet |
WO2021002465A1 (ja) * | 2019-07-03 | 2021-01-07 | 株式会社Preferred Networks | 情報処理装置、ロボットシステム、および、情報処理方法 |
CN110450153B (zh) * | 2019-07-08 | 2021-02-19 | 清华大学 | 一种基于深度强化学习的机械臂物品主动拾取方法 |
KR20210011591A (ko) * | 2019-07-23 | 2021-02-02 | 엘지전자 주식회사 | 액션 로봇과 연결된 단말기 및 그의 동작 방법 |
US20220305647A1 (en) * | 2019-08-27 | 2022-09-29 | Google Llc | Future prediction, using stochastic adversarial based sampling, for robotic control and/or other purpose(s) |
WO2021044751A1 (ja) * | 2019-09-02 | 2021-03-11 | ソニー株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
US11685045B1 (en) * | 2019-09-09 | 2023-06-27 | X Development Llc | Asynchronous robotic control using most recently selected robotic action data |
US20210125052A1 (en) * | 2019-10-24 | 2021-04-29 | Nvidia Corporation | Reinforcement learning of tactile grasp policies |
JP2022553846A (ja) * | 2019-11-08 | 2022-12-26 | アウトワード・インコーポレーテッド | 任意ビューの生成 |
US20210158141A1 (en) * | 2019-11-22 | 2021-05-27 | Sony Interactive Entertainment Inc. | Control input scheme for machine learning in motion control and physics based animation |
US20220189185A1 (en) * | 2019-12-09 | 2022-06-16 | Cognex Corporation | System and method for applying deep learning tools to machine vision and interface for the same |
CN111002349A (zh) * | 2019-12-13 | 2020-04-14 | 中国科学院深圳先进技术研究院 | 一种机器人跟随转向方法及采用该方法的机器人系统 |
US11635802B2 (en) | 2020-01-13 | 2023-04-25 | Sony Interactive Entertainment Inc. | Combined light intensity based CMOS and event detection sensor for high speed predictive tracking and latency compensation in virtual and augmented reality HMD systems |
CN111324987B (zh) * | 2020-02-20 | 2022-07-08 | 西北工业大学 | 一种基于稀疏高斯过程的目标运动预测方法 |
EP4122654A4 (en) * | 2020-03-31 | 2023-11-22 | Siemens Aktiengesellschaft | PREDICTIVE MODEL LEARNING METHOD, APPARATUS AND SYSTEM FOR AN INDUSTRIAL SYSTEM |
US20220084306A1 (en) * | 2020-07-14 | 2022-03-17 | Kalpit Jain | Method and system of guiding a user on a graphical interface with computer vision |
JP7436317B2 (ja) | 2020-07-29 | 2024-02-21 | 日立建機株式会社 | 電動作業機械 |
US12017359B2 (en) | 2020-11-11 | 2024-06-25 | Sony Interactive Entertainment Inc. | Method for robotic training based on randomization of surface damping |
US20220152816A1 (en) * | 2020-11-13 | 2022-05-19 | Intrinsic Innovation Llc | Decentralized robotic operating environment optimization |
KR102422762B1 (ko) | 2020-11-18 | 2022-07-20 | 지니주식회사 | 인공지능 로봇 교육 장치 및 그 제어 방법 |
CN113211441B (zh) * | 2020-11-30 | 2022-09-09 | 湖南太观科技有限公司 | 神经网络训练和机器人控制方法及装置 |
US20220188625A1 (en) * | 2020-12-11 | 2022-06-16 | Poyen Hsieh | Method and computer implemented system for generating layout plan using neural network |
WO2022221719A2 (en) * | 2021-04-16 | 2022-10-20 | Strong Force Vcn Portfolio 2019, Llc | Systems, methods, kits, and apparatuses for digital product network systems and biology-based value chain networks |
US11938638B2 (en) | 2020-12-31 | 2024-03-26 | Google Llc | Simulation driven robotic control of real robot(s) |
WO2023003979A2 (en) * | 2021-07-21 | 2023-01-26 | University Of Washington | Optimal data-driven decision-making in multi-agent systems |
WO2023115182A1 (pt) | 2021-12-20 | 2023-06-29 | Embraer S.A. | Plataforma de controle para sistemas autônomos |
CN114363617A (zh) * | 2022-03-18 | 2022-04-15 | 武汉大学 | 一种网络轻量级视频流传输方法、系统及设备 |
CN118493399A (zh) * | 2024-06-27 | 2024-08-16 | 安徽大学 | 基于多功能抓取及对象无关框架的机器人抓取方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002059384A (ja) | 2000-08-22 | 2002-02-26 | Sony Corp | ロボットのための学習システム及び学習方法 |
WO2008047872A1 (fr) | 2006-10-20 | 2008-04-24 | Hitachi, Ltd. | Manipulateur |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06106490A (ja) | 1992-09-29 | 1994-04-19 | Fujitsu Ltd | 制御装置 |
JPH06314103A (ja) | 1993-04-30 | 1994-11-08 | Fujitsu Ltd | 制御装置と能動的センシング装置 |
JPH0780790A (ja) | 1993-09-16 | 1995-03-28 | Fujitsu Ltd | 三次元物体把持システム |
JP3560670B2 (ja) * | 1995-02-06 | 2004-09-02 | 富士通株式会社 | 適応的認識システム |
US7469237B2 (en) | 1996-05-02 | 2008-12-23 | Cooper David L | Method and apparatus for fractal computation |
JP2002239960A (ja) | 2001-02-21 | 2002-08-28 | Sony Corp | ロボット装置の動作制御方法、プログラム、記録媒体及びロボット装置 |
US9286941B2 (en) * | 2001-05-04 | 2016-03-15 | Legend3D, Inc. | Image sequence enhancement and motion picture project management system |
US7107107B2 (en) * | 2003-01-31 | 2006-09-12 | Matsushita Electric Industrial Co., Ltd. | Predictive action decision device and action decision method |
JP5115965B2 (ja) | 2007-10-01 | 2013-01-09 | 独立行政法人理化学研究所 | ニューロン装置、神経回路網装置、非負整数符号化装置、整数クラスタ装置、フィードバック制御装置、ならびに、プログラム |
CN101482923B (zh) | 2009-01-19 | 2012-05-23 | 刘云 | 视频监控中人体目标的检测与性别识别方法 |
US9248569B2 (en) * | 2013-11-22 | 2016-02-02 | Brain Corporation | Discrepancy detection apparatus and methods for machine learning |
US9346167B2 (en) * | 2014-04-29 | 2016-05-24 | Brain Corporation | Trainable convolutional network apparatus and methods for operating a robotic vehicle |
US10055850B2 (en) * | 2014-09-19 | 2018-08-21 | Brain Corporation | Salient features tracking apparatus and methods using visual initialization |
US9630318B2 (en) * | 2014-10-02 | 2017-04-25 | Brain Corporation | Feature detection apparatus and methods for training of robotic navigation |
CN104758096B (zh) | 2015-03-30 | 2016-11-30 | 山东科技大学 | 一种对假肢目标空间定位精度矫正的方法 |
US10372968B2 (en) * | 2016-01-22 | 2019-08-06 | Qualcomm Incorporated | Object-focused active three-dimensional reconstruction |
US10242266B2 (en) * | 2016-03-02 | 2019-03-26 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for detecting actions in videos |
-
2017
- 2017-05-16 US US15/596,103 patent/US11173599B2/en active Active
- 2017-05-16 WO PCT/US2017/032865 patent/WO2017201023A1/en active Application Filing
- 2017-05-16 JP JP2018559945A patent/JP2019516568A/ja active Pending
- 2017-05-16 KR KR1020197013816A patent/KR102168003B1/ko active IP Right Grant
- 2017-05-16 KR KR1020187035430A patent/KR101980603B1/ko active IP Right Grant
-
2020
- 2020-04-08 JP JP2020069785A patent/JP2020128003A/ja not_active Ceased
-
2021
- 2021-07-14 JP JP2021116336A patent/JP7399912B2/ja active Active
- 2021-11-11 US US17/524,185 patent/US20220063089A1/en active Pending
-
2023
- 2023-12-06 JP JP2023205781A patent/JP2024019422A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002059384A (ja) | 2000-08-22 | 2002-02-26 | Sony Corp | ロボットのための学習システム及び学習方法 |
WO2008047872A1 (fr) | 2006-10-20 | 2008-04-24 | Hitachi, Ltd. | Manipulateur |
Also Published As
Publication number | Publication date |
---|---|
JP2019516568A (ja) | 2019-06-20 |
JP2024019422A (ja) | 2024-02-09 |
US20170334066A1 (en) | 2017-11-23 |
US20220063089A1 (en) | 2022-03-03 |
JP2021175592A (ja) | 2021-11-04 |
KR101980603B1 (ko) | 2019-05-22 |
KR20190054189A (ko) | 2019-05-21 |
JP2020128003A (ja) | 2020-08-27 |
WO2017201023A1 (en) | 2017-11-23 |
US11173599B2 (en) | 2021-11-16 |
KR20180137026A (ko) | 2018-12-26 |
KR102168003B1 (ko) | 2020-10-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7399912B2 (ja) | 物体を取り込む画像に基づき、環境内の将来のロボット運動に関するパラメータに基づいて、ロボットの環境内の物体の動きを予測することに関する機械学習の方法および装置 | |
CN109153123B (zh) | 与基于捕获物体的图像并且基于用于环境中的未来机器人运动的参数来预测机器人环境中的物体运动有关的机器学习方法和装置 | |
Manuelli et al. | Keypoints into the future: Self-supervised correspondence in model-based reinforcement learning | |
US11325252B2 (en) | Action prediction networks for robotic grasping | |
US20200215686A1 (en) | Deep machine learning methods and apparatus for robotic grasping | |
Zheng et al. | Gimo: Gaze-informed human motion prediction in context | |
JP2019520654A (ja) | ビデオデータの中のオブジェクトの検出 | |
JP2022519194A (ja) | 奥行き推定 | |
Hirose et al. | Vunet: Dynamic scene view synthesis for traversability estimation using an rgb camera | |
JP7458741B2 (ja) | ロボット制御装置及びその制御方法及びプログラム | |
CN112512755A (zh) | 使用从2.5d视觉数据预测的域不变3d表示的机器人操纵 | |
WO2020152436A1 (en) | Mapping an environment using a state of a robotic device | |
CN110689611A (zh) | 一种空间遥操作中基于实时重建模型的预测显示方法 | |
Nematollahi et al. | Hindsight for foresight: Unsupervised structured dynamics models from physical interaction | |
Kim et al. | Acceleration of actor-critic deep reinforcement learning for visual grasping in clutter by state representation learning based on disentanglement of a raw input image | |
WO2021096561A1 (en) | Mitigating reality gap through training a simulation-to-real model using a vision-based robot task model | |
CN118081758A (zh) | 一种杂乱场景下机器人自主拾取与放置位姿获取方法 | |
Kim et al. | Acceleration of actor-critic deep reinforcement learning for visual grasping by state representation learning based on a preprocessed input image | |
JP7286091B2 (ja) | 推定システム、推定装置および推定方法 | |
Hong et al. | Sim-to-Real: Autonomous Robotic Control |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210812 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221031 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230529 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230829 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231025 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231106 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231206 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7399912 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |