JPWO2021015883A5 - - Google Patents

Download PDF

Info

Publication number
JPWO2021015883A5
JPWO2021015883A5 JP2022503936A JP2022503936A JPWO2021015883A5 JP WO2021015883 A5 JPWO2021015883 A5 JP WO2021015883A5 JP 2022503936 A JP2022503936 A JP 2022503936A JP 2022503936 A JP2022503936 A JP 2022503936A JP WO2021015883 A5 JPWO2021015883 A5 JP WO2021015883A5
Authority
JP
Japan
Prior art keywords
robotic device
pixel
pixels
image
task
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022503936A
Other languages
English (en)
Other versions
JP2022542239A (ja
Publication date
Priority claimed from US16/570,618 external-priority patent/US11288883B2/en
Application filed filed Critical
Publication of JP2022542239A publication Critical patent/JP2022542239A/ja
Publication of JPWO2021015883A5 publication Critical patent/JPWO2021015883A5/ja
Pending legal-status Critical Current

Links

Description

特許請求の範囲は上記に示された正確な構成及び構成要素に限定されないことが理解されるべきである。上に説明した方法及び装置の配置、操作、並びに詳細に対して、特許請求の範囲から逸脱せずに、様々な修正、変更及び変形がなされ得る。
本明細書に開示される発明は以下の態様を含む。
〔態様1〕
ロボット装置の現在の視覚に対応する画像を撮影することと、
前記画像の第2のピクセルのセットに一致する第1のピクセルのセットを有するキーフレーム画像を識別することと、
前記ロボット装置により前記キーフレーム画像に対応するタスクを実行することと、
を含む、ロボット装置を制御する方法。
〔態様2〕
前記ロボット装置が前記タスクを実行するように訓練されている間に前記キーフレーム画像を撮影することを更に含む、態様1に記載の方法。
〔態様3〕
前記第1のピクセルのセット及び前記第2のピクセルのセット中の各ピクセルにピクセルディスクリプタを割り当てることを更に含む、態様1に記載の方法。
〔態様4〕
前記ピクセルディスクリプタはピクセルレベル情報及び奥行情報に対応する値のセットを有する、態様3に記載の方法。
〔態様5〕
距離、姿勢、又は前記キーフレーム画像と前記画像の間の組み合わせのうちの1つの相違点を判断することと、
前記判断した相違点に基づいて前記タスクを調整することと、
を更に含む、態様1に記載の方法。
〔態様6〕
前記タスクは、物体と相互作用することと、環境中を走行することと、又はそれらの組み合わせと、のうちの少なくとも1つを有する、態様1に記載の方法。
〔態様7〕
前記第1のピクセルのセットに対応する領域はユーザーによって選択される、態様1に記載の方法。
〔態様8〕
メモリと、
少なくとも1つのプロセッサと、を備え、前記少なくとも1つのプロセッサは、
ロボット装置の現在の視覚に対応する画像を撮影し、
前記画像の第2のピクセルのセットに一致する第1のピクセルのセットを有するキーフレーム画像を識別し、
前記キーフレーム画像に対応するタスクを実行する、
ように構成されている、ロボット装置。
〔態様9〕
前記少なくとも1つのプロセッサは更に、前記ロボット装置が前記タスクを実行するように訓練されている間に前記キーフレーム画像を撮影するように構成されている、態様8に記載のロボット装置。
〔態様10〕
前記少なくとも1つのプロセッサは更に、前記第1のピクセルのセット及び前記第2のピクセルのセット中の各ピクセルにピクセルディスクリプタを割り当てるように構成されている、態様8に記載のロボット装置。
〔態様11〕
前記ピクセルディスクリプタは、ピクセルレベル情報及び奥行情報に対応する値のセットを有する、態様10に記載のロボット装置。
〔態様12〕
前記少なくとも1つのプロセッサは更に、
距離、姿勢、又は前記キーフレーム画像と前記画像の間の組み合わせのうちの1つの相違点を判断し、
前記判断した相違点に基づいて前記タスクを調整する、
ように構成されている、態様8に記載のロボット装置。
〔態様13〕
前記タスクは、物体と相互作用することと、環境中を走行することと、又はそれらの組み合わせと、のうちの少なくとも1つを有する、態様8に記載のロボット装置。
〔態様14〕
前記第1のピクセルのセットに対応する領域は、ユーザーによって選択される、態様8に記載のロボット装置。
〔態様15〕
ロボット装置を制御するためのプログラムコードを記録した非一時的なコンピュータ可読媒体であって、
前記プログラムコードは、
前記ロボット装置の現在の視覚に対応する画像を撮影するプログラムコードと、
前記画像の第2のピクセルのセットに一致する第1のピクセルのセットを有するキーフレーム画像を識別するプログラムコードと、
前記ロボット装置により前記キーフレーム画像に対応するタスクを実行するプログラムコードと、
を含む、非一時的なコンピュータ可読媒体。
〔態様16〕
前記プログラムコードは更に、前記ロボット装置が前記タスクを実行するように訓練されている間に前記キーフレーム画像を撮影するプログラムコードを含む、態様15に記載の非一時的なコンピュータ可読媒体。
〔態様17〕
前記プログラムコードは更に、前記第1のピクセルのセット及び前記第2のピクセルのセット中の各ピクセルにピクセルディスクリプタを割り当てるプログラムコードを含む、態様15に記載の非一時的なコンピュータ可読媒体。
〔態様18〕
前記ピクセルディスクリプタは、ピクセルレベル情報及び奥行情報に対応する値のセットを有する、態様17に記載の非一時的なコンピュータ可読媒体。
〔態様19〕
前記プログラムコードは更に、
距離、姿勢、又は前記キーフレーム画像と前記画像の間の組み合わせのうちの1つの相違点を判断するプログラムコードと、
前記判断した相違点に基づいて前記タスクを調整するプログラムコードと、
を含む、態様15に記載の非一時的なコンピュータ可読媒体。
〔態様20〕
前記タスクは、物体と相互作用することと、環境中を走行することと、又はそれらの組み合わせと、のうちの少なくとも1つを有する、態様15に記載の非一時的なコンピュータ可読媒体。

Claims (20)

  1. ロボット装置の現在の視覚に対応する画像を撮影することと、
    キーフレーム画像の第1のピクセルのセットの各ピクセルのRGB(赤-緑-青)値が前記画像の第2のピクセルのセットの対応するピクセルのRGB値に一致することに基づいてキーフレーム画像を識別することと、
    前記キーフレーム画像の第1の物体に対する前記ロボット装置の第1の姿勢と、前記画像の第2の物体に対する前記ロボット装置の第2の姿勢との間の第1の相違点、または、前記ロボット装置の第1の物体に対する第1の距離と、前記ロボット装置の第2の物体に対する第2の距離との間の第2の相違点の一方または両方を判定することと、
    前記第1の相違点または前記第2の相違点の一方または両方を判定することに基づいて、前記ロボット装置のエフェクタによって実行されるタスクであって前記キーフレーム画像に関連付けられタスクに関連する速度または位置の一方または両方を調整することと、
    前記ロボット装置の前記エフェクタを介して、前記エフェクタの速度または位置の一方または両方を調整することに基づいて前記タスクを実行することと、
    を含む、ロボット装置を制御する方法。
  2. 前記ロボット装置が前記タスクを実行するように訓練されている間に前記キーフレーム画像を撮影することを更に含む、請求項1に記載の方法。
  3. 前記第1のピクセルのセット及び前記第2のピクセルのセットの各ピクセルは、ピクセルディスクリプタに関連付けられる、請求項1に記載の方法。
  4. 各ピクセルディスクリプタは、ピクセルレベル情報及び奥行情報に対応する値のセットを有し、前記ピクセルレベル情報は前記ピクセルディスクリプタに関連付けられたピクセルのRGB値を有する、請求項3に記載の方法。
  5. 前記タスクは、物体と相互作用することと、環境中を走行することと、又はそれらの組み合わせと、のうちの少なくとも1つを有する、請求項1に記載の方法。
  6. 前記第1のピクセルのセットに対応する領域は、ユーザーによって選択される、請求項1に記載の方法。
  7. メモリと、
    少なくとも1つのプロセッサと、を備え、前記少なくとも1つのプロセッサは、
    ロボット装置の現在の視覚に対応する画像を撮影し、
    キーフレーム画像の第1のピクセルのセットの各ピクセルのRGB(赤-緑-青)値が前記画像の第2のピクセルのセットの対応するピクセルのRGB値に一致することに基づいて前記キーフレーム画像を識別し、
    前記キーフレーム画像の第1の物体に対する前記ロボット装置の第1の姿勢と、前記画像の第2の物体に対する前記ロボット装置の第2の姿勢との間の第1の相違点、または、前記ロボット装置の第1の物体に対する第1の距離と、前記ロボット装置の第2の物体に対する第2の距離との間の第2の相違点の一方または両方を判定し、
    前記第1の相違点または前記第2の相違点の一方または両方を判定することに基づいて、前記ロボット装置のエフェクタによって実行されるタスクであってキーフレーム画像に関連付けられるタスクに関連する速度または位置の一方または両方を調整し、
    前記ロボット装置の前記エフェクタを介して、前記エフェクタの速度または位置の一方または両方を調整することに基づいて前記タスクを実行する、
    ように構成されている、ロボット装置。
  8. 前記少なくとも1つのプロセッサは更に、前記ロボット装置が前記タスクを実行するように訓練されている間に前記キーフレーム画像を撮影するように構成されている、請求項7に記載のロボット装置。
  9. 前記第1のピクセルのセット及び前記第2のピクセルのセットの各ピクセルは、ピクセルディスクリプタに関連付けられる、請求項7に記載のロボット装置。
  10. 各ピクセルディスクリプタは、ピクセルレベル情報及び奥行情報に対応する値のセットを有し、前記ピクセルレベル情報は前記ピクセルディスクリプタに関連付けられたピクセルのRGBを有する、請求項9に記載のロボット装置。
  11. 前記タスクは、物体と相互作用することと、環境中を走行することと、又はそれらの組み合わせと、のうちの少なくとも1つを有する、請求項7に記載のロボット装置。
  12. 前記第1のピクセルのセットに対応する領域は、ユーザーによって選択される、請求項7に記載のロボット装置。
  13. ロボット装置を制御するためのプログラムコードを記録した非一時的なコンピュータ可読媒体であって、
    前記プログラムコードは、
    前記ロボット装置の現在の視覚に対応する画像を撮影するプログラムコードと、
    キーフレーム画像の第1のピクセルのセットの各ピクセルのRGB(赤-緑-青)値が前記画像の第2のピクセルのセットの対応するピクセルのRGB値に一致することに基づいてキーフレーム画像を識別するプログラムコードと、
    前記キーフレーム画像の第1の物体に対する前記ロボット装置の第1の姿勢と、前記画像の第2の物体に対する前記ロボット装置の第2の姿勢との間の第1の相違点、または、前記ロボット装置の第1の物体に対する第1の距離と、前記ロボット装置の第2の物体に対する第2の距離との間の第2の相違点の一方または両方を判定するプログラムコードと、
    前記第1の相違点または前記第2の相違点の一方または両方を判定することに基づいて、前記ロボット装置のエフェクタによって実行されるタスクであって前記キーフレーム画像に関連付けられタスクに関連する速度または位置の一方または両方を調整するプログラムコードと、
    前記ロボット装置の前記エフェクタを介して、前記エフェクタの速度または位置の一方または両方を調整することに基づいて前記タスクを実行するプログラムコードと、
    を含む、非一時的なコンピュータ可読媒体。
  14. 前記プログラムコードは更に、前記ロボット装置が前記タスクを実行するように訓練されている間に前記キーフレーム画像を撮影するプログラムコードを含む、請求項13に記載の非一時的なコンピュータ可読媒体。
  15. 前記第1のピクセルのセット及び前記第2のピクセルのセットの各ピクセルは、ピクセルディスクリプタに関連付けられる、請求項13に記載の非一時的なコンピュータ可読媒体。
  16. 各ピクセルディスクリプタは、ピクセルレベル情報及び奥行情報に対応する値のセットを有し、前記ピクセルレベル情報は前記ピクセルディスクリプタに関連付けられたピクセルのRGB値を有する、請求項15に記載の非一時的なコンピュータ可読媒体。
  17. 前記タスクは、物体と相互作用することと、環境中を走行することと、又はそれらの組み合わせと、のうちの少なくとも1つを有する、請求項13に記載の非一時的なコンピュータ可読媒体。
  18. 前記ロボット装置は、人間によるデモンストレーションに基づいて前記タスクを実行するように訓練される、請求項1に記載の方法。
  19. 前記ロボット装置は、人間によるデモンストレーションに基づいて前記タスクを実行するように訓練される、請求項7に記載のロボット装置。
  20. 前記ロボット装置は、人間によるデモンストレーションに基づいて前記タスクを実行するように訓練される、請求項13に記載の非一時的なコンピュータ可読媒体。
JP2022503936A 2019-07-23 2020-06-10 視角エンベディングに基づいた自律タスク実行 Pending JP2022542239A (ja)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US201962877792P 2019-07-23 2019-07-23
US201962877793P 2019-07-23 2019-07-23
US201962877791P 2019-07-23 2019-07-23
US62/877,793 2019-07-23
US62/877,792 2019-07-23
US62/877,791 2019-07-23
US16/570,618 US11288883B2 (en) 2019-07-23 2019-09-13 Autonomous task performance based on visual embeddings
US16/570,618 2019-09-13
PCT/US2020/037025 WO2021015883A1 (en) 2019-07-23 2020-06-10 Autonomous task performance based on visual embeddings

Publications (2)

Publication Number Publication Date
JP2022542239A JP2022542239A (ja) 2022-09-30
JPWO2021015883A5 true JPWO2021015883A5 (ja) 2023-06-19

Family

ID=74189690

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2022503981A Pending JP2022542858A (ja) 2019-07-23 2020-06-05 ディープネットワークの訓練方法
JP2022503979A Pending JP2022542241A (ja) 2019-07-23 2020-06-05 ロボット装置からの視覚的出力を補強するシステム及び方法
JP2022503936A Pending JP2022542239A (ja) 2019-07-23 2020-06-10 視角エンベディングに基づいた自律タスク実行
JP2022503980A Pending JP2022544007A (ja) 2019-07-23 2020-07-22 移動操作システムの視覚的教示と繰り返し

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2022503981A Pending JP2022542858A (ja) 2019-07-23 2020-06-05 ディープネットワークの訓練方法
JP2022503979A Pending JP2022542241A (ja) 2019-07-23 2020-06-05 ロボット装置からの視覚的出力を補強するシステム及び方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022503980A Pending JP2022544007A (ja) 2019-07-23 2020-07-22 移動操作システムの視覚的教示と繰り返し

Country Status (5)

Country Link
US (6) US11288883B2 (ja)
EP (4) EP4004828A4 (ja)
JP (4) JP2022542858A (ja)
CN (4) CN114127805A (ja)
WO (4) WO2021015869A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11288883B2 (en) 2019-07-23 2022-03-29 Toyota Research Institute, Inc. Autonomous task performance based on visual embeddings
US11685045B1 (en) * 2019-09-09 2023-06-27 X Development Llc Asynchronous robotic control using most recently selected robotic action data
US20210101280A1 (en) * 2019-10-02 2021-04-08 Baker Hughes Oilfield Operations, Llc Telemetry harvesting and analysis from extended reality streaming
US11328170B2 (en) * 2020-02-19 2022-05-10 Toyota Research Institute, Inc. Unknown object identification for robotic device
US11813748B2 (en) * 2020-10-13 2023-11-14 Google Llc Simulating multiple robots in virtual environments
US20220197277A1 (en) * 2020-12-23 2022-06-23 Qatar Foundation For Education, Science And Community Development Telepresence control schemes for hazardous environments
IT202100003821A1 (it) * 2021-02-19 2022-08-19 Univ Pisa Procedimento di interazione con oggetti
US20220355692A1 (en) * 2021-05-05 2022-11-10 Abb Schweiz Ag Systems and Methods for Electric Vehicle Charging Using Machine Learning
GB2616001A (en) * 2022-02-17 2023-08-30 Roke Manor Res Limited Remote visual inspection guidance
US20230286161A1 (en) * 2022-03-11 2023-09-14 Boston Dynamics, Inc. Systems and Methods for Robotic Manipulation Using Extended Reality
CN116823838B (zh) * 2023-08-31 2023-11-14 武汉理工大学三亚科教创新园 高斯先验标签分配与特征解耦的海洋船舶检测方法与系统

Family Cites Families (74)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7082497B2 (en) * 2001-12-28 2006-07-25 Hewlett-Packard Development Company, L.P. System and method for managing a moveable media library with library partitions
JP3834297B2 (ja) * 2003-05-12 2006-10-18 ファナック株式会社 画像処理装置
WO2005098729A2 (en) * 2004-03-27 2005-10-20 Harvey Koselka Autonomous personal service robot
JP2005308993A (ja) * 2004-04-20 2005-11-04 Matsushita Electric Ind Co Ltd 学習支援システム
DE102005009437A1 (de) * 2005-03-02 2006-09-07 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Einblenden von AR-Objekten
JP2007026309A (ja) * 2005-07-20 2007-02-01 Fuji Xerox Co Ltd 画像形成装置及びその制御方法
US7836437B2 (en) * 2006-02-10 2010-11-16 Microsoft Corporation Semantic annotations for virtual objects
JP4320363B2 (ja) * 2006-05-25 2009-08-26 豪洋 石崎 作業ロボット
US8121347B2 (en) 2006-12-12 2012-02-21 Rutgers, The State University Of New Jersey System and method for detecting and tracking features in images
JP5037248B2 (ja) * 2007-07-17 2012-09-26 株式会社日立製作所 情報収集システムおよび情報収集ロボット
WO2009024349A1 (en) * 2007-08-22 2009-02-26 Honda Research Institute Europe Gmbh Estimating objects proper motion using optical flow, kinematics and depth information
FR2946160B1 (fr) 2009-05-26 2014-05-09 Aldebaran Robotics Systeme et procede pour editer et commander des comportements d'un robot mobile.
JP2013022705A (ja) 2011-07-25 2013-02-04 Sony Corp ロボット装置及びロボット装置の制御方法、コンピューター・プログラム、並びにロボット・システム
US8965580B2 (en) * 2012-06-21 2015-02-24 Rethink Robotics, Inc. Training and operating industrial robots
US9186793B1 (en) * 2012-08-31 2015-11-17 Brain Corporation Apparatus and methods for controlling attention of a robot
US9940553B2 (en) * 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
US9542626B2 (en) 2013-09-06 2017-01-10 Toyota Jidosha Kabushiki Kaisha Augmenting layer-based object detection with deep convolutional neural networks
WO2015051815A1 (en) * 2013-10-07 2015-04-16 Abb Technology Ltd A method and a device for verifying one or more safety volumes for a movable mechanical unit
US9259844B2 (en) * 2014-02-12 2016-02-16 General Electric Company Vision-guided electromagnetic robotic system
EP3159121A4 (en) 2014-06-17 2018-05-16 Yujin Robot Co., Ltd. Device for updating map of mobile robot and method therefor
US10518409B2 (en) 2014-09-02 2019-12-31 Mark Oleynik Robotic manipulation methods and systems for executing a domain-specific application in an instrumented environment with electronic minimanipulation libraries
US9579790B2 (en) * 2014-09-17 2017-02-28 Brain Corporation Apparatus and methods for removal of learned behaviors in robots
US9630318B2 (en) * 2014-10-02 2017-04-25 Brain Corporation Feature detection apparatus and methods for training of robotic navigation
JP2016107379A (ja) * 2014-12-08 2016-06-20 ファナック株式会社 拡張現実対応ディスプレイを備えたロボットシステム
WO2016103065A1 (en) * 2014-12-23 2016-06-30 Husqvarna Ab Robotic vehicle with adjustable operating area
CN104732518B (zh) 2015-01-19 2017-09-01 北京工业大学 一种基于智能机器人地面特征的ptam改进方法
CN104808590B (zh) 2015-02-14 2017-01-25 浙江大学 一种基于关键帧策略的移动机器人视觉伺服控制方法
US9643314B2 (en) * 2015-03-04 2017-05-09 The Johns Hopkins University Robot control, training and collaboration in an immersive virtual reality environment
US9922271B2 (en) 2015-03-20 2018-03-20 Netra, Inc. Object detection and classification
US9868211B2 (en) * 2015-04-09 2018-01-16 Irobot Corporation Restricting movement of a mobile robot
US9646655B2 (en) 2015-08-31 2017-05-09 Fuji Xerox Co., Ltd. Systems and methods for interaction-based analysis and visualization of remote collaboration sessions
EP3408848A4 (en) * 2016-01-29 2019-08-28 Pointivo Inc. SYSTEMS AND METHOD FOR EXTRACTING INFORMATION ON OBJECTS FROM SCENE INFORMATION
JP7009389B2 (ja) * 2016-05-09 2022-01-25 グラバンゴ コーポレイション 環境内のコンピュータビジョン駆動型アプリケーションのためのシステムおよび方法
CN114967433B (zh) * 2016-05-20 2023-08-18 谷歌有限责任公司 基于捕获物体的图像的机器学习方法和装置
CN106023211B (zh) 2016-05-24 2019-02-26 深圳前海勇艺达机器人有限公司 基于深度学习的机器人图像定位方法及系统
US10105847B1 (en) * 2016-06-08 2018-10-23 X Development Llc Detecting and responding to geometric changes to robots
US10055667B2 (en) * 2016-08-03 2018-08-21 X Development Llc Generating a model for an object encountered by a robot
US9964955B2 (en) 2016-08-04 2018-05-08 Canvas Technology, Inc. System and methods of determining a geometric pose of a camera based on spatial and visual mapping
JP2018055429A (ja) * 2016-09-29 2018-04-05 ファナック株式会社 物体認識装置および物体認識方法
US10162360B2 (en) * 2016-12-01 2018-12-25 GM Global Technology Operations LLC Vehicle environment imaging systems and methods
KR101850410B1 (ko) * 2016-12-26 2018-04-20 한국생산기술연구원 가상 현실 기반 로봇 교시를 위한 시뮬레이션 장치 및 방법
JP2018122376A (ja) * 2017-01-31 2018-08-09 セイコーエプソン株式会社 画像処理装置、ロボット制御装置、及びロボット
EP3585569B1 (en) * 2017-02-25 2023-06-07 Diligent Robotics, Inc. Systems, apparatus, and methods for robotic learning and execution of skills
EP3974934A1 (de) * 2017-03-02 2022-03-30 Robart GmbH Verfahren zur steuerung eines autonomen, mobilen roboters
CN109213306B (zh) * 2017-06-30 2022-02-01 沈阳新松机器人自动化股份有限公司 一种机器人远程控制平台及其设计方法
KR102024092B1 (ko) * 2017-07-12 2019-09-23 엘지전자 주식회사 이동 로봇 시스템 및 그 제어방법
US11345040B2 (en) * 2017-07-25 2022-05-31 Mbl Limited Systems and methods for operating a robotic system and executing robotic interactions
CN107610579A (zh) * 2017-09-05 2018-01-19 芜湖瑞思机器人有限公司 基于vr系统控制的工业机器人示教系统及其示教方法
US10354139B1 (en) * 2017-09-07 2019-07-16 X Development Llc Generating and utilizing spatial affordances for an object in robotics applications
WO2019060787A1 (en) * 2017-09-21 2019-03-28 Lexset.Ai Llc DETECTION OF AT LEAST ONE OBJECT IN AN IMAGE, OR A SEQUENCE OF IMAGES, AND DETERMINATION OF A CATEGORY AND AT LEAST ONE DESCRIPTOR FOR EACH OF THESE OBJECTS, GENERATION OF SYNTHETIC LEARNING DATA, AND FORMATION OF A NEURONAL NETWORK USING SYNTHETIC LEARNING DATA
US10607079B2 (en) * 2017-09-26 2020-03-31 Toyota Research Institute, Inc. Systems and methods for generating three dimensional skeleton representations
CN111448581B (zh) 2017-10-24 2023-12-05 巴黎欧莱雅公司 使用深层神经网络进行图像处理的系统和方法
WO2019089018A1 (en) * 2017-10-31 2019-05-09 Hewlett-Packard Development Company, L.P. Mobile robots to generate reference maps for localization
US10346721B2 (en) * 2017-11-01 2019-07-09 Salesforce.Com, Inc. Training a neural network using augmented training datasets
JP6972962B2 (ja) * 2017-11-22 2021-11-24 コニカミノルタ株式会社 物体追跡装置、物体追跡方法、および、物体追跡プログラム
US11771283B2 (en) * 2017-12-06 2023-10-03 BISSELL , Inc. Method and system for manual control of autonomous floor cleaner
US10380751B1 (en) * 2017-12-12 2019-08-13 The Government Of The United States Of America, As Represented By The Secretary Of The Navy Robot vision in autonomous underwater vehicles using the color shift in underwater imaging
US10810427B1 (en) * 2017-12-15 2020-10-20 AI Incorporated Methods for an autonomous robotic device to identify locations captured in an image
US10981272B1 (en) * 2017-12-18 2021-04-20 X Development Llc Robot grasp learning
JP6641447B2 (ja) * 2017-12-26 2020-02-05 キヤノン株式会社 撮像装置及びその制御方法、プログラム、記憶媒体
US10913154B2 (en) * 2018-01-02 2021-02-09 General Electric Company Systems and method for robotic learning of industrial tasks based on human demonstration
US11097418B2 (en) * 2018-01-04 2021-08-24 X Development Llc Grasping of an object by a robot based on grasp strategy determined using machine learning model(s)
CN108333941A (zh) * 2018-02-13 2018-07-27 华南理工大学 一种基于混合增强智能的云机器人协作学习方法
US11340630B2 (en) * 2018-03-30 2022-05-24 Brain Corporation Systems and methods for robust robotic mapping
CN108619723A (zh) * 2018-04-18 2018-10-09 咪咕互动娱乐有限公司 一种应用操作的处理方法、装置以及存储介质
US10332261B1 (en) * 2018-04-26 2019-06-25 Capital One Services, Llc Generating synthetic images as training dataset for a machine learning network
US11189078B2 (en) * 2018-06-20 2021-11-30 Google Llc Automated understanding of three dimensional (3D) scenes for augmented reality applications
US10636114B2 (en) * 2018-08-04 2020-04-28 Beijing Jingdong Shangke Information Technology Co., Ltd. System and method for scan-matching oriented visual slam
US11030458B2 (en) * 2018-09-14 2021-06-08 Microsoft Technology Licensing, Llc Generating synthetic digital assets for a virtual scene including a model of a real-world object
US10824923B1 (en) * 2019-01-23 2020-11-03 Facebook Technologies, Llc System and method for improving localization and object tracking
US10870204B2 (en) * 2019-01-25 2020-12-22 Mujin, Inc. Robotic system control method and controller
JP7203474B2 (ja) * 2019-02-20 2023-01-13 富士フイルム株式会社 マンモグラフィ装置及びプログラム
US11288883B2 (en) 2019-07-23 2022-03-29 Toyota Research Institute, Inc. Autonomous task performance based on visual embeddings
US11529737B2 (en) * 2020-01-30 2022-12-20 Raytheon Company System and method for using virtual/augmented reality for interaction with collaborative robots in manufacturing or industrial environment

Similar Documents

Publication Publication Date Title
JP6961797B2 (ja) プレビュー写真をぼかすための方法および装置ならびにストレージ媒体
US10430650B2 (en) Image processing system
JP2019028843A (ja) 人物の視線方向を推定するための情報処理装置及び推定方法、並びに学習装置及び学習方法
US9734612B2 (en) Region detection device, region detection method, image processing apparatus, image processing method, program, and recording medium
KR20150055543A (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
JP2020161129A5 (ja)
JPWO2021015883A5 (ja)
JP2014137756A5 (ja)
US9268408B2 (en) Operating area determination method and system
JP7377627B2 (ja) 物体検出装置、物体把持システム、物体検出方法及び物体検出プログラム
US10207409B2 (en) Image processing method, image processing device, and robot system
JP2017120672A5 (ja) 画像処理装置、画像処理システム、および画像処理方法
JP2019020778A5 (ja)
KR20150106824A (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
JP2016178608A5 (ja)
US20220012514A1 (en) Identification information assignment apparatus, identification information assignment method, and program
JP2006021300A (ja) 推定装置および把持装置
JP7359577B2 (ja) ロボット教示装置及びロボットシステム
JP2019211981A5 (ja)
JPWO2021015869A5 (ja)
JPWO2021016394A5 (ja)
US20230150142A1 (en) Device and method for training a machine learning model for generating descriptor images for images of objects
JP2014144516A (ja) ロボット制御装置、ロボットシステム、ロボット、制御方法及びプログラム
JP2021108022A5 (ja)
US11138684B2 (en) Image processing apparatus, image processing method, and robot system