JPWO2021016394A5 - - Google Patents

Download PDF

Info

Publication number
JPWO2021016394A5
JPWO2021016394A5 JP2022503980A JP2022503980A JPWO2021016394A5 JP WO2021016394 A5 JPWO2021016394 A5 JP WO2021016394A5 JP 2022503980 A JP2022503980 A JP 2022503980A JP 2022503980 A JP2022503980 A JP 2022503980A JP WO2021016394 A5 JPWO2021016394 A5 JP WO2021016394A5
Authority
JP
Japan
Prior art keywords
task
image
pixel
teach
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022503980A
Other languages
English (en)
Other versions
JP2022544007A (ja
Publication date
Priority claimed from US16/570,852 external-priority patent/US11580724B2/en
Application filed filed Critical
Publication of JP2022544007A publication Critical patent/JP2022544007A/ja
Publication of JPWO2021016394A5 publication Critical patent/JPWO2021016394A5/ja
Pending legal-status Critical Current

Links

Description

特許請求の範囲は上記に示された正確な構成及び構成要素に限定されないことが理解されるべきである。上に説明した方法及び装置の配置、操作、並びに詳細に対して、特許請求の範囲から逸脱せずに、様々な修正、変更及び変形がなされ得る。
本明細書に開示される発明は以下の態様を含む。
〔態様1〕
ロボット装置をタスク環境に配置することと、
タスク環境中の風景のタスク画像のディスクリプタを教示環境の教示画像にマッピングすることと、
前記マッピングに基づいて前記タスク画像と前記教示画像との間の相対変換を定義することと、
前記教示画像に対応するタスクを実行するために、前記相対変換に基づいてパラメーター化された動作のセットのパラメーターを更新することと、
を含む、ロボット装置の制御方法。
〔態様2〕
前記パラメーター化された動作のセットは、前記ロボット装置が前記タスクを実行するように仮想現実インターフェースを用いて訓練されている間にユーザーにより実行される動作を含む、態様1に記載の方法。
〔態様3〕
前記タスク画像の現在の風景からの前記ディスクリプタを前記教示画像からのディスクリプタにインターバルを空けてマッピングすることを更に含む、態様1に記載の方法。
〔態様4〕
前記ロボット装置は、教示環境内での訓練中に使用されたスタート状況又は位置から逸脱して配置され、
前記タスク環境は、前記教示環境と類似しているか、又は同じである、
態様1に記載の方法。
〔態様5〕
スタート時の状況又は位置からの逸脱は、前記ロボット装置の異なるスタート位置及び/又は姿勢を含む、態様4に記載の方法。
〔態様6〕
スタート時の状況又は位置からの逸脱は、前記タスクが実行される対象である物体の異なるスタート位置及び/又は姿勢を含む、態様4に記載の方法。
〔態様7〕
前記ディスクリプタは、ピクセルディスクリプタ又はニューラルネットワークディスクリプタを有する、態様1に記載の方法。
〔態様8〕
メモリと、
前記メモリに接続された少なくとも1つのプロセッサを備え、前記少なくとも1つのプロセッサは、
ロボット装置をタスク環境に配置し、
タスク環境中の風景のタスク画像のディスクリプタを教示環境の教示画像にマッピングし、
前記マッピングに基づいて前記タスク画像と前記教示画像との間の相対変換を定義し、
前記教示画像に対応するタスクを実行するために、前記相対変換に基づいてパラメーター化された動作のセットのパラメーターを更新する、
ように構成されている、ロボット装置を制御する装置。
〔態様9〕
前記パラメーター化された動作のセットは、前記ロボット装置が前記タスクを実行するように仮想現実インターフェースを用いて訓練されている間にユーザーにより実行される動作を含む、態様8に記載の装置。
〔態様10〕
前記少なくとも1つのプロセッサは更に、前記タスク画像の現在の風景からの前記ディスクリプタを前記教示画像からのディスクリプタにインターバルを空けてマッピングするように構成されている、態様8に記載の装置。
〔態様11〕
前記ロボット装置は、教示環境内での訓練中に使用されたスタート状況又は位置から逸脱して配置され、
前記タスク環境は、前記教示環境と類似しているか、又は同じである、
態様8に記載の装置。
〔態様12〕
スタート時の状況又は位置からの逸脱は、前記ロボット装置の異なるスタート位置及び/又は姿勢を含む、態様11に記載の装置。
〔態様13〕
スタート時の状況又は位置からの逸脱は、前記タスクが実行される対象である物体の異なるスタート位置及び/又は姿勢を含む、態様11に記載の装置。
〔態様14〕
前記ディスクリプタは、ピクセルディスクリプタ又はニューラルネットワークディスクリプタを有する、態様8に記載の装置。
〔態様15〕
ロボット装置を制御するためのプログラムコードを記録した非一時的なコンピュータ可読媒体であって、
前記プログラムコードはプロセッサにより実行され、
前記ロボット装置をタスク環境に配置するプログラムコードと、
タスク環境中の風景のタスク画像のディスクリプタを教示環境の教示画像にマッピングするプログラムコードと、
前記マッピングに基づいて前記タスク画像と前記教示画像との間の相対変換を定義するプログラムコードと、
前記教示画像に対応するタスクを実行するために、前記相対変換に基づいてパラメーター化された動作のセットのパラメーターを更新するプログラムコードと、
を含む、非一時的なコンピュータ可読媒体
〔態様16〕
前記パラメーター化された動作のセットは、前記ロボット装置が前記タスクを実行するように仮想現実インターフェースを用いて訓練されている間にユーザーにより実行される動作を含む、態様15に記載の非一時的なコンピュータ可読媒体。
〔態様17〕
前記プログラムコードは更に、タスク画像中の現在の風景からの前記ディスクリプタを前記教示画像からのディスクリプタへ、インターバルを空けてマッピングするプログラムコードを含む、態様15に記載の非一時的なコンピュータ可読媒体。
〔態様18〕
前記ロボット装置は、教示環境内での訓練中に使用されたスタート状況又は位置から逸脱して配置され、
前記タスク環境は、前記教示環境と類似しているか、又は同じである、
態様15に記載の非一時的なコンピュータ可読媒体。
〔態様19〕
スタート時の状況又は位置からの逸脱は、前記ロボット装置の異なるスタート位置及び/又は姿勢を含む、態様18に記載の非一時的なコンピュータ可読媒体。
〔態様20〕
スタート時の状況又は位置からの逸脱は、前記タスクが実行される対象である物体の異なるスタート位置及び/又は姿勢を含む、態様18に記載の非一時的なコンピュータ可読媒体。

Claims (20)

  1. ロボット装置を制御する方法であって、
    前記ロボット装置をタスク環境に配置することと、
    タスク環境中の風景のタスク画像内の第1のピクセルグループに関連付けられた複数のタスク画像ピクセルディスクリプタを、教示環境の教示画像内の第2のピクセルグループに関連付けられた複数の教示画像ピクセルディスクリプタにマッピングすることであって、複数のタスク画像ピクセルディスクリプタの各タスク画像ピクセルディスクリプタは、第1のピクセルグループ内のピクセルに関連付けられた第1のピクセル値を含み、複数の教示画像ピクセルディスクリプタの各教示画像ピクセルディスクリプタは、第2のピクセルグループ内のピクセルに関連付けられた第2のピクセル値を含み、各タスク画像ピクセルディスクリプタに関連付けられた第1のピクセル値は、各タスク画像ピクセルディスクリプタにマッピングされた教示画像ピクセルディスクリプタに関連付けられた第2のピクセル値と同じ値を有する、ことと、
    複数のタスク画像ピクセルディスクリプタのマッピングに基づいて、タスク画像と教示画像との間の相対変換であって、前記タスク画像と前記教示画像との間のX軸、Y軸、Z軸、ロール、ピッチ、またはヨーのうちの1つまたは複数の変化を示す相対変換を定義することと、
    前記教示画像に対応するタスクを実行するために、前記相対変換に基づいてパラメーター化された動作のセットのパラメーターを更新することと、
    を含む方法。
  2. 前記パラメーター化された動作のセットは、前記ロボット装置が前記タスクを実行するように仮想現実インターフェースを用いて訓練されている間にユーザーにより実行される動作を含む、請求項1に記載の方法。
  3. 前記複数のタスク画像ピクセルディスクリプタは、前記複数の教示画像ピクセルディスクリプタにインターバルを空けてマッピングされる、請求項1に記載の方法。
  4. 前記タスク環境内の前記ロボット装置の第1の位置は、前記教示環境内での訓練中の前記ロボット装置の第2の位置とは異なる、請求項1に記載の方法。
  5. 前記第1の位置と前記第2の位置とは、前記ロボット装置のスタート位置または姿勢の一方あるいは両方と関連付けられる、請求項4に記載の方法。
  6. 前記第1の位置と前記第2の位置とは、前記タスクが実行される対象である物体のスタート位置または姿勢の一方または両方と関連付けられる、請求項4に記載の方法。
  7. ロボット装置を制御する装置であって、
    メモリと、
    前記メモリに接続された少なくとも1つのプロセッサとを備え、前記少なくとも1つのプロセッサは、
    ロボット装置をタスク環境に配置し、
    タスク環境中の風景のタスク画像内の第1のピクセルグループに関連付けられた複数のタスク画像ピクセルディスクリプタを、教示環境の教示画像内の第2のピクセルグループに関連付けられた複数の教示画像ピクセルディスクリプタにマッピングすることであって、複数のタスク画像ピクセルディスクリプタの各タスク画像ピクセルディスクリプタは、第1のピクセルグループ内のピクセルに関連付けられた第1のピクセル値を含み、複数の教示画像ピクセルディスクリプタの各教示画像ピクセルディスクリプタは、第2のピクセルグループ内のピクセルに関連付けられた第2のピクセル値を含み、各タスク画像ピクセルディスクリプタに関連付けられた第1のピクセル値は、各タスク画像ピクセルディスクリプタにマッピングされた教示画像ピクセルディスクリプタに関連付けられた第2のピクセル値と同じ値を有し、
    複数のタスク画像ピクセルディスクリプタのマッピングに基づいて、タスク画像と教示画像との間の相対変換であって、前記タスク画像と前記教示画像との間のX軸、Y軸、Z軸、ロール、ピッチ、またはヨーのうちの1つまたは複数の変化を示す相対変換を定義し、
    前記教示画像に対応するタスクを実行するために、前記相対変換に基づいてパラメーター化された動作のセットのパラメーターを更新する、
    ように構成されている、装置。
  8. 前記パラメーター化された動作のセットは、前記ロボット装置が前記タスクを実行するように仮想現実インターフェースを用いて訓練されている間にユーザーにより実行される動作を含む、請求項7に記載の装置。
  9. 前記複数のタスク画像ピクセルディスクリプタは、前記複数の教示画像ピクセルディスクリプタにインターバルを空けてマッピングされる、請求項7に記載の装置。
  10. 前記タスク環境内の前記ロボット装置の第1の位置は、前記教示環境内での訓練中の前記ロボット装置の第2の位置とは異なる、請求項7に記載の装置。
  11. 前記第1の位置と前記第2の位置とは、前記ロボット装置のスタート位置または姿勢の一方あるいは両方と関連付けられる、請求項10に記載の装置。
  12. 前記第1の位置と前記第2の位置とは、前記タスクが実行される対象である物体のスタート位置または姿勢の一方または両方と関連付けられる、請求項10に記載の装置。
  13. ロボット装置を制御するためのプログラムコードを記録した非一時的なコンピュータ可読媒体であって、
    前記プログラムコードがプロセッサにより実行され、
    前記ロボット装置をタスク環境に配置するプログラムコードと、
    タスク環境中の風景のタスク画像内の第1のピクセルグループに関連付けられた複数のタスク画像ピクセルディスクリプタを、教示環境の教示画像内の第2のピクセルグループに関連付けられた複数の教示画像ピクセルディスクリプタにマッピングするプログラムコードであって、複数のタスク画像ピクセルディスクリプタの各タスク画像ピクセルディスクリプタは、第1のピクセルグループ内のピクセルに関連付けられた第1のピクセル値を含み、複数の教示画像ピクセルディスクリプタの各教示画像ピクセルディスクリプタは、第2のピクセルグループ内のピクセルに関連付けられた第2のピクセル値を含み、各タスク画像ピクセルディスクリプタに関連付けられた第1のピクセル値は、各タスク画像ピクセルディスクリプタにマッピングされた教示画像ピクセルディスクリプタに関連付けられた第2のピクセル値と同じ値を有する、プログラムコードと、
    複数のタスク画像ピクセルディスクリプタのマッピングに基づいて、タスク画像と教示画像との間の相対変換であって、前記タスク画像と前記教示画像との間のX軸、Y軸、Z軸、ロール、ピッチ、またはヨーのうちの1つまたは複数の変化を示す相対変換を定義するプログラムコードと、
    前記教示画像に対応するタスクを実行するために、前記相対変換に基づいてパラメーター化された動作のセットのパラメーターを更新するプログラムコードと、
    を含む、非一時的なコンピュータ可読媒体。
  14. 前記パラメーター化された動作のセットは、前記ロボット装置が前記タスクを実行するように仮想現実インターフェースを用いて訓練されている間にユーザーにより実行される動作を含む、請求項13に記載の非一時的なコンピュータ可読媒体。
  15. 前記複数のタスク画像ピクセルディスクリプタは、前記複数の教示画像ピクセルディスクリプタにインターバルを空けてマッピングされる、請求項13に記載の非一時的なコンピュータ可読媒体。
  16. 前記タスク環境内の前記ロボット装置の第1の位置は、前記教示環境内での訓練中の前記ロボット装置の第2の位置とは異なる、請求項13に記載の非一時的なコンピュータ可読媒体。
  17. 前記第1の位置と前記第2の位置とは、前記ロボット装置のスタート位置または姿勢の一方あるいは両方と関連付けられる、請求項16に記載の非一時的なコンピュータ可読媒体。
  18. 前記第1の位置と前記第2の位置とは、前記タスクが実行される対象である物体のスタート位置または姿勢の一方または両方と関連付けられる、請求項16に記載の非一時的なコンピュータ可読媒体。
  19. 前記タスク環境と前記教示環境とは、同じ環境に関連付けられる、請求項1に記載の方法。
  20. 前記タスク環境と前記教示環境とは、同じ環境に関連付けられる、請求項7に記載の装置。
JP2022503980A 2019-07-23 2020-07-22 移動操作システムの視覚的教示と繰り返し Pending JP2022544007A (ja)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US201962877792P 2019-07-23 2019-07-23
US201962877791P 2019-07-23 2019-07-23
US201962877793P 2019-07-23 2019-07-23
US62/877,792 2019-07-23
US62/877,793 2019-07-23
US62/877,791 2019-07-23
US16/570,852 US11580724B2 (en) 2019-07-23 2019-09-13 Virtual teach and repeat mobile manipulation system
US16/570,852 2019-09-13
PCT/US2020/043144 WO2021016394A1 (en) 2019-07-23 2020-07-22 Visual teach and repeat mobile manipulation system

Publications (2)

Publication Number Publication Date
JP2022544007A JP2022544007A (ja) 2022-10-17
JPWO2021016394A5 true JPWO2021016394A5 (ja) 2023-07-31

Family

ID=74189690

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2022503981A Pending JP2022542858A (ja) 2019-07-23 2020-06-05 ディープネットワークの訓練方法
JP2022503979A Pending JP2022542241A (ja) 2019-07-23 2020-06-05 ロボット装置からの視覚的出力を補強するシステム及び方法
JP2022503936A Pending JP2022542239A (ja) 2019-07-23 2020-06-10 視角エンベディングに基づいた自律タスク実行
JP2022503980A Pending JP2022544007A (ja) 2019-07-23 2020-07-22 移動操作システムの視覚的教示と繰り返し

Family Applications Before (3)

Application Number Title Priority Date Filing Date
JP2022503981A Pending JP2022542858A (ja) 2019-07-23 2020-06-05 ディープネットワークの訓練方法
JP2022503979A Pending JP2022542241A (ja) 2019-07-23 2020-06-05 ロボット装置からの視覚的出力を補強するシステム及び方法
JP2022503936A Pending JP2022542239A (ja) 2019-07-23 2020-06-10 視角エンベディングに基づいた自律タスク実行

Country Status (5)

Country Link
US (6) US11580724B2 (ja)
EP (4) EP4004828A4 (ja)
JP (4) JP2022542858A (ja)
CN (4) CN114127806A (ja)
WO (4) WO2021015868A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11580724B2 (en) 2019-07-23 2023-02-14 Toyota Research Institute, Inc. Virtual teach and repeat mobile manipulation system
US11685045B1 (en) * 2019-09-09 2023-06-27 X Development Llc Asynchronous robotic control using most recently selected robotic action data
US20210101280A1 (en) * 2019-10-02 2021-04-08 Baker Hughes Oilfield Operations, Llc Telemetry harvesting and analysis from extended reality streaming
US11328170B2 (en) * 2020-02-19 2022-05-10 Toyota Research Institute, Inc. Unknown object identification for robotic device
US11813748B2 (en) * 2020-10-13 2023-11-14 Google Llc Simulating multiple robots in virtual environments
CA3174258A1 (en) * 2020-10-14 2022-04-21 One Cup Productions Ltd. Animal visual identification, tracking, monitoring and assessment systems and methods thereof
US20220197277A1 (en) * 2020-12-23 2022-06-23 Qatar Foundation For Education, Science And Community Development Telepresence control schemes for hazardous environments
IT202100003821A1 (it) * 2021-02-19 2022-08-19 Univ Pisa Procedimento di interazione con oggetti
US20220355692A1 (en) * 2021-05-05 2022-11-10 Abb Schweiz Ag Systems and Methods for Electric Vehicle Charging Using Machine Learning
GB2616001A (en) * 2022-02-17 2023-08-30 Roke Manor Res Limited Remote visual inspection guidance
US20230286161A1 (en) * 2022-03-11 2023-09-14 Boston Dynamics, Inc. Systems and Methods for Robotic Manipulation Using Extended Reality
CN116823838B (zh) * 2023-08-31 2023-11-14 武汉理工大学三亚科教创新园 高斯先验标签分配与特征解耦的海洋船舶检测方法与系统

Family Cites Families (74)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7082497B2 (en) * 2001-12-28 2006-07-25 Hewlett-Packard Development Company, L.P. System and method for managing a moveable media library with library partitions
JP3834297B2 (ja) * 2003-05-12 2006-10-18 ファナック株式会社 画像処理装置
WO2005098729A2 (en) * 2004-03-27 2005-10-20 Harvey Koselka Autonomous personal service robot
JP2005308993A (ja) * 2004-04-20 2005-11-04 Matsushita Electric Ind Co Ltd 学習支援システム
DE102005009437A1 (de) * 2005-03-02 2006-09-07 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Einblenden von AR-Objekten
JP2007026309A (ja) * 2005-07-20 2007-02-01 Fuji Xerox Co Ltd 画像形成装置及びその制御方法
US7836437B2 (en) * 2006-02-10 2010-11-16 Microsoft Corporation Semantic annotations for virtual objects
US8930025B2 (en) * 2006-05-25 2015-01-06 Takehiro Ishizaki Work robot
US8121347B2 (en) 2006-12-12 2012-02-21 Rutgers, The State University Of New Jersey System and method for detecting and tracking features in images
JP5037248B2 (ja) * 2007-07-17 2012-09-26 株式会社日立製作所 情報収集システムおよび情報収集ロボット
DE602008005318D1 (de) * 2007-08-22 2011-04-14 Honda Res Inst Europe Gmbh Schätzung der ordnungsgemässen bewegung von objekten mithilfe optischer fluss-, kinematik- und tiefeninformationen
FR2946160B1 (fr) 2009-05-26 2014-05-09 Aldebaran Robotics Systeme et procede pour editer et commander des comportements d'un robot mobile.
JP2013022705A (ja) 2011-07-25 2013-02-04 Sony Corp ロボット装置及びロボット装置の制御方法、コンピューター・プログラム、並びにロボット・システム
US9092698B2 (en) * 2012-06-21 2015-07-28 Rethink Robotics, Inc. Vision-guided robots and methods of training them
US9186793B1 (en) * 2012-08-31 2015-11-17 Brain Corporation Apparatus and methods for controlling attention of a robot
US9940553B2 (en) * 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
US9542626B2 (en) 2013-09-06 2017-01-10 Toyota Jidosha Kabushiki Kaisha Augmenting layer-based object detection with deep convolutional neural networks
US10888998B2 (en) * 2013-10-07 2021-01-12 Abb Schweiz Ag Method and device for verifying one or more safety volumes for a movable mechanical unit
US9259844B2 (en) * 2014-02-12 2016-02-16 General Electric Company Vision-guided electromagnetic robotic system
WO2015194864A1 (ko) * 2014-06-17 2015-12-23 (주)유진로봇 이동 로봇의 맵을 업데이트하기 위한 장치 및 그 방법
US10518409B2 (en) 2014-09-02 2019-12-31 Mark Oleynik Robotic manipulation methods and systems for executing a domain-specific application in an instrumented environment with electronic minimanipulation libraries
US9579790B2 (en) * 2014-09-17 2017-02-28 Brain Corporation Apparatus and methods for removal of learned behaviors in robots
US9630318B2 (en) * 2014-10-02 2017-04-25 Brain Corporation Feature detection apparatus and methods for training of robotic navigation
JP2016107379A (ja) * 2014-12-08 2016-06-20 ファナック株式会社 拡張現実対応ディスプレイを備えたロボットシステム
WO2016103065A1 (en) * 2014-12-23 2016-06-30 Husqvarna Ab Robotic vehicle with adjustable operating area
CN104732518B (zh) 2015-01-19 2017-09-01 北京工业大学 一种基于智能机器人地面特征的ptam改进方法
CN104808590B (zh) 2015-02-14 2017-01-25 浙江大学 一种基于关键帧策略的移动机器人视觉伺服控制方法
US9643314B2 (en) * 2015-03-04 2017-05-09 The Johns Hopkins University Robot control, training and collaboration in an immersive virtual reality environment
US9922271B2 (en) 2015-03-20 2018-03-20 Netra, Inc. Object detection and classification
US9868211B2 (en) * 2015-04-09 2018-01-16 Irobot Corporation Restricting movement of a mobile robot
US9646655B2 (en) 2015-08-31 2017-05-09 Fuji Xerox Co., Ltd. Systems and methods for interaction-based analysis and visualization of remote collaboration sessions
WO2017132636A1 (en) * 2016-01-29 2017-08-03 Pointivo, Inc. Systems and methods for extracting information about objects from scene information
CN114040153B (zh) * 2016-05-09 2024-04-12 格拉班谷公司 用于在环境内计算机视觉驱动应用的系统
CN114967433B (zh) * 2016-05-20 2023-08-18 谷歌有限责任公司 基于捕获物体的图像的机器学习方法和装置
CN106023211B (zh) 2016-05-24 2019-02-26 深圳前海勇艺达机器人有限公司 基于深度学习的机器人图像定位方法及系统
US10105847B1 (en) * 2016-06-08 2018-10-23 X Development Llc Detecting and responding to geometric changes to robots
US10055667B2 (en) * 2016-08-03 2018-08-21 X Development Llc Generating a model for an object encountered by a robot
US9964955B2 (en) 2016-08-04 2018-05-08 Canvas Technology, Inc. System and methods of determining a geometric pose of a camera based on spatial and visual mapping
JP2018055429A (ja) * 2016-09-29 2018-04-05 ファナック株式会社 物体認識装置および物体認識方法
US10162360B2 (en) * 2016-12-01 2018-12-25 GM Global Technology Operations LLC Vehicle environment imaging systems and methods
KR101850410B1 (ko) * 2016-12-26 2018-04-20 한국생산기술연구원 가상 현실 기반 로봇 교시를 위한 시뮬레이션 장치 및 방법
JP2018122376A (ja) * 2017-01-31 2018-08-09 セイコーエプソン株式会社 画像処理装置、ロボット制御装置、及びロボット
EP4292775A3 (en) * 2017-02-25 2024-07-17 Diligent Robotics, Inc. Systems, apparatus, and methods for robotic learning and execution of skills
CN110709790A (zh) * 2017-03-02 2020-01-17 罗博艾特有限责任公司 用于控制自主移动机器人的方法
CN109213306B (zh) * 2017-06-30 2022-02-01 沈阳新松机器人自动化股份有限公司 一种机器人远程控制平台及其设计方法
KR102024092B1 (ko) * 2017-07-12 2019-09-23 엘지전자 주식회사 이동 로봇 시스템 및 그 제어방법
CA3071332A1 (en) * 2017-07-25 2019-01-31 Mbl Limited Systems and methods for operations a robotic system and executing robotic interactions
CN107610579A (zh) * 2017-09-05 2018-01-19 芜湖瑞思机器人有限公司 基于vr系统控制的工业机器人示教系统及其示教方法
US10354139B1 (en) * 2017-09-07 2019-07-16 X Development Llc Generating and utilizing spatial affordances for an object in robotics applications
WO2019060787A1 (en) * 2017-09-21 2019-03-28 Lexset.Ai Llc DETECTION OF AT LEAST ONE OBJECT IN AN IMAGE, OR A SEQUENCE OF IMAGES, AND DETERMINATION OF A CATEGORY AND AT LEAST ONE DESCRIPTOR FOR EACH OF THESE OBJECTS, GENERATION OF SYNTHETIC LEARNING DATA, AND FORMATION OF A NEURONAL NETWORK USING SYNTHETIC LEARNING DATA
US10607079B2 (en) * 2017-09-26 2020-03-31 Toyota Research Institute, Inc. Systems and methods for generating three dimensional skeleton representations
BR112020008021A2 (pt) 2017-10-24 2020-10-27 L'ORéAL S.A. dispositivos de computação, método para gerar uma cnn treinada para processar imagens e métodos para processar uma imagem
WO2019089018A1 (en) * 2017-10-31 2019-05-09 Hewlett-Packard Development Company, L.P. Mobile robots to generate reference maps for localization
US10346721B2 (en) * 2017-11-01 2019-07-09 Salesforce.Com, Inc. Training a neural network using augmented training datasets
JP6972962B2 (ja) * 2017-11-22 2021-11-24 コニカミノルタ株式会社 物体追跡装置、物体追跡方法、および、物体追跡プログラム
US11771283B2 (en) * 2017-12-06 2023-10-03 BISSELL , Inc. Method and system for manual control of autonomous floor cleaner
US10380751B1 (en) * 2017-12-12 2019-08-13 The Government Of The United States Of America, As Represented By The Secretary Of The Navy Robot vision in autonomous underwater vehicles using the color shift in underwater imaging
US10810427B1 (en) * 2017-12-15 2020-10-20 AI Incorporated Methods for an autonomous robotic device to identify locations captured in an image
US10981272B1 (en) * 2017-12-18 2021-04-20 X Development Llc Robot grasp learning
JP6641447B2 (ja) * 2017-12-26 2020-02-05 キヤノン株式会社 撮像装置及びその制御方法、プログラム、記憶媒体
US10913154B2 (en) * 2018-01-02 2021-02-09 General Electric Company Systems and method for robotic learning of industrial tasks based on human demonstration
US11097418B2 (en) * 2018-01-04 2021-08-24 X Development Llc Grasping of an object by a robot based on grasp strategy determined using machine learning model(s)
CN108333941A (zh) * 2018-02-13 2018-07-27 华南理工大学 一种基于混合增强智能的云机器人协作学习方法
US11340630B2 (en) * 2018-03-30 2022-05-24 Brain Corporation Systems and methods for robust robotic mapping
CN108619723A (zh) * 2018-04-18 2018-10-09 咪咕互动娱乐有限公司 一种应用操作的处理方法、装置以及存储介质
US10332261B1 (en) * 2018-04-26 2019-06-25 Capital One Services, Llc Generating synthetic images as training dataset for a machine learning network
US11189078B2 (en) * 2018-06-20 2021-11-30 Google Llc Automated understanding of three dimensional (3D) scenes for augmented reality applications
US10636114B2 (en) * 2018-08-04 2020-04-28 Beijing Jingdong Shangke Information Technology Co., Ltd. System and method for scan-matching oriented visual slam
US11030458B2 (en) * 2018-09-14 2021-06-08 Microsoft Technology Licensing, Llc Generating synthetic digital assets for a virtual scene including a model of a real-world object
US10824923B1 (en) * 2019-01-23 2020-11-03 Facebook Technologies, Llc System and method for improving localization and object tracking
US10870204B2 (en) * 2019-01-25 2020-12-22 Mujin, Inc. Robotic system control method and controller
JP7203474B2 (ja) * 2019-02-20 2023-01-13 富士フイルム株式会社 マンモグラフィ装置及びプログラム
US11580724B2 (en) 2019-07-23 2023-02-14 Toyota Research Institute, Inc. Virtual teach and repeat mobile manipulation system
US11529737B2 (en) * 2020-01-30 2022-12-20 Raytheon Company System and method for using virtual/augmented reality for interaction with collaborative robots in manufacturing or industrial environment

Similar Documents

Publication Publication Date Title
CN110026987B (zh) 一种机械臂抓取轨迹的生成方法、装置、设备及存储介质
CN108161882B (zh) 一种基于增强现实的机器人示教再现方法及装置
WO2019192149A1 (zh) 一种基于机器视觉的绘图方法及系统
JPWO2021016394A5 (ja)
JP2019512913A5 (ja)
JP6671694B1 (ja) 機械学習装置、機械学習システム、データ処理システム及び機械学習方法
JP2010112859A (ja) ロボットシステム、ロボット制御装置およびロボット制御方法
CN108927801B (zh) 一种机械臂末端姿态调整方法及装置
JP2015071206A (ja) 制御装置、ロボット、教示データ生成方法及びプログラム
CN108044625B (zh) 一种基于多Leapmotion虚拟手势融合的机器人机械臂操控方法
CN110385694A (zh) 机器人的动作示教装置、机器人系统以及机器人控制装置
CN111151463A (zh) 一种基于3d视觉的机械臂分拣抓取系统及方法
JP2021056678A5 (ja)
CN110977966B (zh) 一种基于虚拟场景训练的机器人避障方法
JP2018045608A5 (ja)
WO2019059343A1 (ja) ワーク情報処理装置およびワークの認識方法
KR20210012672A (ko) 인공지능 기반 로봇 매니퓰레이터의 자동 제어 시스템 및 방법
US20220377962A1 (en) Crop row guidance systems
JP2014029664A (ja) 比較画像範囲生成方法、位置姿勢検出方法、比較画像範囲生成装置、位置姿勢検出装置、ロボット、ロボットシステム、比較画像範囲生成プログラム及び位置姿勢検出プログラム
KR101916675B1 (ko) 사용자 인터랙션을 위한 제스처 인식 방법 및 시스템
JP2017120672A5 (ja) 画像処理装置、画像処理システム、および画像処理方法
JP6777670B2 (ja) 画像処理を利用してロボットの教示を補正するロボットシステム
WO2022208963A1 (ja) ロボット制御用のキャリブレーション装置
CN111241940B (zh) 一种机器人的远程控制方法、人体边界框确定方法及系统
KR20200059111A (ko) 뉴럴 네트워크를 이용하는 파지 방법, 파지 학습 방법 및 파지 로봇