JPWO2021016394A5 - - Google Patents
Download PDFInfo
- Publication number
- JPWO2021016394A5 JPWO2021016394A5 JP2022503980A JP2022503980A JPWO2021016394A5 JP WO2021016394 A5 JPWO2021016394 A5 JP WO2021016394A5 JP 2022503980 A JP2022503980 A JP 2022503980A JP 2022503980 A JP2022503980 A JP 2022503980A JP WO2021016394 A5 JPWO2021016394 A5 JP WO2021016394A5
- Authority
- JP
- Japan
- Prior art keywords
- task
- image
- pixel
- teach
- environment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Description
特許請求の範囲は上記に示された正確な構成及び構成要素に限定されないことが理解されるべきである。上に説明した方法及び装置の配置、操作、並びに詳細に対して、特許請求の範囲から逸脱せずに、様々な修正、変更及び変形がなされ得る。
本明細書に開示される発明は以下の態様を含む。
〔態様1〕
ロボット装置をタスク環境に配置することと、
タスク環境中の風景のタスク画像のディスクリプタを教示環境の教示画像にマッピングすることと、
前記マッピングに基づいて前記タスク画像と前記教示画像との間の相対変換を定義することと、
前記教示画像に対応するタスクを実行するために、前記相対変換に基づいてパラメーター化された動作のセットのパラメーターを更新することと、
を含む、ロボット装置の制御方法。
〔態様2〕
前記パラメーター化された動作のセットは、前記ロボット装置が前記タスクを実行するように仮想現実インターフェースを用いて訓練されている間にユーザーにより実行される動作を含む、態様1に記載の方法。
〔態様3〕
前記タスク画像の現在の風景からの前記ディスクリプタを前記教示画像からのディスクリプタにインターバルを空けてマッピングすることを更に含む、態様1に記載の方法。
〔態様4〕
前記ロボット装置は、教示環境内での訓練中に使用されたスタート状況又は位置から逸脱して配置され、
前記タスク環境は、前記教示環境と類似しているか、又は同じである、
態様1に記載の方法。
〔態様5〕
スタート時の状況又は位置からの逸脱は、前記ロボット装置の異なるスタート位置及び/又は姿勢を含む、態様4に記載の方法。
〔態様6〕
スタート時の状況又は位置からの逸脱は、前記タスクが実行される対象である物体の異なるスタート位置及び/又は姿勢を含む、態様4に記載の方法。
〔態様7〕
前記ディスクリプタは、ピクセルディスクリプタ又はニューラルネットワークディスクリプタを有する、態様1に記載の方法。
〔態様8〕
メモリと、
前記メモリに接続された少なくとも1つのプロセッサを備え、前記少なくとも1つのプロセッサは、
ロボット装置をタスク環境に配置し、
タスク環境中の風景のタスク画像のディスクリプタを教示環境の教示画像にマッピングし、
前記マッピングに基づいて前記タスク画像と前記教示画像との間の相対変換を定義し、
前記教示画像に対応するタスクを実行するために、前記相対変換に基づいてパラメーター化された動作のセットのパラメーターを更新する、
ように構成されている、ロボット装置を制御する装置。
〔態様9〕
前記パラメーター化された動作のセットは、前記ロボット装置が前記タスクを実行するように仮想現実インターフェースを用いて訓練されている間にユーザーにより実行される動作を含む、態様8に記載の装置。
〔態様10〕
前記少なくとも1つのプロセッサは更に、前記タスク画像の現在の風景からの前記ディスクリプタを前記教示画像からのディスクリプタにインターバルを空けてマッピングするように構成されている、態様8に記載の装置。
〔態様11〕
前記ロボット装置は、教示環境内での訓練中に使用されたスタート状況又は位置から逸脱して配置され、
前記タスク環境は、前記教示環境と類似しているか、又は同じである、
態様8に記載の装置。
〔態様12〕
スタート時の状況又は位置からの逸脱は、前記ロボット装置の異なるスタート位置及び/又は姿勢を含む、態様11に記載の装置。
〔態様13〕
スタート時の状況又は位置からの逸脱は、前記タスクが実行される対象である物体の異なるスタート位置及び/又は姿勢を含む、態様11に記載の装置。
〔態様14〕
前記ディスクリプタは、ピクセルディスクリプタ又はニューラルネットワークディスクリプタを有する、態様8に記載の装置。
〔態様15〕
ロボット装置を制御するためのプログラムコードを記録した非一時的なコンピュータ可読媒体であって、
前記プログラムコードはプロセッサにより実行され、
前記ロボット装置をタスク環境に配置するプログラムコードと、
タスク環境中の風景のタスク画像のディスクリプタを教示環境の教示画像にマッピングするプログラムコードと、
前記マッピングに基づいて前記タスク画像と前記教示画像との間の相対変換を定義するプログラムコードと、
前記教示画像に対応するタスクを実行するために、前記相対変換に基づいてパラメーター化された動作のセットのパラメーターを更新するプログラムコードと、
を含む、非一時的なコンピュータ可読媒体。
〔態様16〕
前記パラメーター化された動作のセットは、前記ロボット装置が前記タスクを実行するように仮想現実インターフェースを用いて訓練されている間にユーザーにより実行される動作を含む、態様15に記載の非一時的なコンピュータ可読媒体。
〔態様17〕
前記プログラムコードは更に、タスク画像中の現在の風景からの前記ディスクリプタを前記教示画像からのディスクリプタへ、インターバルを空けてマッピングするプログラムコードを含む、態様15に記載の非一時的なコンピュータ可読媒体。
〔態様18〕
前記ロボット装置は、教示環境内での訓練中に使用されたスタート状況又は位置から逸脱して配置され、
前記タスク環境は、前記教示環境と類似しているか、又は同じである、
態様15に記載の非一時的なコンピュータ可読媒体。
〔態様19〕
スタート時の状況又は位置からの逸脱は、前記ロボット装置の異なるスタート位置及び/又は姿勢を含む、態様18に記載の非一時的なコンピュータ可読媒体。
〔態様20〕
スタート時の状況又は位置からの逸脱は、前記タスクが実行される対象である物体の異なるスタート位置及び/又は姿勢を含む、態様18に記載の非一時的なコンピュータ可読媒体。
本明細書に開示される発明は以下の態様を含む。
〔態様1〕
ロボット装置をタスク環境に配置することと、
タスク環境中の風景のタスク画像のディスクリプタを教示環境の教示画像にマッピングすることと、
前記マッピングに基づいて前記タスク画像と前記教示画像との間の相対変換を定義することと、
前記教示画像に対応するタスクを実行するために、前記相対変換に基づいてパラメーター化された動作のセットのパラメーターを更新することと、
を含む、ロボット装置の制御方法。
〔態様2〕
前記パラメーター化された動作のセットは、前記ロボット装置が前記タスクを実行するように仮想現実インターフェースを用いて訓練されている間にユーザーにより実行される動作を含む、態様1に記載の方法。
〔態様3〕
前記タスク画像の現在の風景からの前記ディスクリプタを前記教示画像からのディスクリプタにインターバルを空けてマッピングすることを更に含む、態様1に記載の方法。
〔態様4〕
前記ロボット装置は、教示環境内での訓練中に使用されたスタート状況又は位置から逸脱して配置され、
前記タスク環境は、前記教示環境と類似しているか、又は同じである、
態様1に記載の方法。
〔態様5〕
スタート時の状況又は位置からの逸脱は、前記ロボット装置の異なるスタート位置及び/又は姿勢を含む、態様4に記載の方法。
〔態様6〕
スタート時の状況又は位置からの逸脱は、前記タスクが実行される対象である物体の異なるスタート位置及び/又は姿勢を含む、態様4に記載の方法。
〔態様7〕
前記ディスクリプタは、ピクセルディスクリプタ又はニューラルネットワークディスクリプタを有する、態様1に記載の方法。
〔態様8〕
メモリと、
前記メモリに接続された少なくとも1つのプロセッサを備え、前記少なくとも1つのプロセッサは、
ロボット装置をタスク環境に配置し、
タスク環境中の風景のタスク画像のディスクリプタを教示環境の教示画像にマッピングし、
前記マッピングに基づいて前記タスク画像と前記教示画像との間の相対変換を定義し、
前記教示画像に対応するタスクを実行するために、前記相対変換に基づいてパラメーター化された動作のセットのパラメーターを更新する、
ように構成されている、ロボット装置を制御する装置。
〔態様9〕
前記パラメーター化された動作のセットは、前記ロボット装置が前記タスクを実行するように仮想現実インターフェースを用いて訓練されている間にユーザーにより実行される動作を含む、態様8に記載の装置。
〔態様10〕
前記少なくとも1つのプロセッサは更に、前記タスク画像の現在の風景からの前記ディスクリプタを前記教示画像からのディスクリプタにインターバルを空けてマッピングするように構成されている、態様8に記載の装置。
〔態様11〕
前記ロボット装置は、教示環境内での訓練中に使用されたスタート状況又は位置から逸脱して配置され、
前記タスク環境は、前記教示環境と類似しているか、又は同じである、
態様8に記載の装置。
〔態様12〕
スタート時の状況又は位置からの逸脱は、前記ロボット装置の異なるスタート位置及び/又は姿勢を含む、態様11に記載の装置。
〔態様13〕
スタート時の状況又は位置からの逸脱は、前記タスクが実行される対象である物体の異なるスタート位置及び/又は姿勢を含む、態様11に記載の装置。
〔態様14〕
前記ディスクリプタは、ピクセルディスクリプタ又はニューラルネットワークディスクリプタを有する、態様8に記載の装置。
〔態様15〕
ロボット装置を制御するためのプログラムコードを記録した非一時的なコンピュータ可読媒体であって、
前記プログラムコードはプロセッサにより実行され、
前記ロボット装置をタスク環境に配置するプログラムコードと、
タスク環境中の風景のタスク画像のディスクリプタを教示環境の教示画像にマッピングするプログラムコードと、
前記マッピングに基づいて前記タスク画像と前記教示画像との間の相対変換を定義するプログラムコードと、
前記教示画像に対応するタスクを実行するために、前記相対変換に基づいてパラメーター化された動作のセットのパラメーターを更新するプログラムコードと、
を含む、非一時的なコンピュータ可読媒体。
〔態様16〕
前記パラメーター化された動作のセットは、前記ロボット装置が前記タスクを実行するように仮想現実インターフェースを用いて訓練されている間にユーザーにより実行される動作を含む、態様15に記載の非一時的なコンピュータ可読媒体。
〔態様17〕
前記プログラムコードは更に、タスク画像中の現在の風景からの前記ディスクリプタを前記教示画像からのディスクリプタへ、インターバルを空けてマッピングするプログラムコードを含む、態様15に記載の非一時的なコンピュータ可読媒体。
〔態様18〕
前記ロボット装置は、教示環境内での訓練中に使用されたスタート状況又は位置から逸脱して配置され、
前記タスク環境は、前記教示環境と類似しているか、又は同じである、
態様15に記載の非一時的なコンピュータ可読媒体。
〔態様19〕
スタート時の状況又は位置からの逸脱は、前記ロボット装置の異なるスタート位置及び/又は姿勢を含む、態様18に記載の非一時的なコンピュータ可読媒体。
〔態様20〕
スタート時の状況又は位置からの逸脱は、前記タスクが実行される対象である物体の異なるスタート位置及び/又は姿勢を含む、態様18に記載の非一時的なコンピュータ可読媒体。
Claims (20)
- ロボット装置を制御する方法であって、
前記ロボット装置をタスク環境に配置することと、
タスク環境中の風景のタスク画像内の第1のピクセルグループに関連付けられた複数のタスク画像ピクセルディスクリプタを、教示環境の教示画像内の第2のピクセルグループに関連付けられた複数の教示画像ピクセルディスクリプタにマッピングすることであって、複数のタスク画像ピクセルディスクリプタの各タスク画像ピクセルディスクリプタは、第1のピクセルグループ内のピクセルに関連付けられた第1のピクセル値を含み、複数の教示画像ピクセルディスクリプタの各教示画像ピクセルディスクリプタは、第2のピクセルグループ内のピクセルに関連付けられた第2のピクセル値を含み、各タスク画像ピクセルディスクリプタに関連付けられた第1のピクセル値は、各タスク画像ピクセルディスクリプタにマッピングされた教示画像ピクセルディスクリプタに関連付けられた第2のピクセル値と同じ値を有する、ことと、
複数のタスク画像ピクセルディスクリプタのマッピングに基づいて、タスク画像と教示画像との間の相対変換であって、前記タスク画像と前記教示画像との間のX軸、Y軸、Z軸、ロール、ピッチ、またはヨーのうちの1つまたは複数の変化を示す相対変換を定義することと、
前記教示画像に対応するタスクを実行するために、前記相対変換に基づいてパラメーター化された動作のセットのパラメーターを更新することと、
を含む、方法。 - 前記パラメーター化された動作のセットは、前記ロボット装置が前記タスクを実行するように仮想現実インターフェースを用いて訓練されている間にユーザーにより実行される動作を含む、請求項1に記載の方法。
- 前記複数のタスク画像ピクセルディスクリプタは、前記複数の教示画像ピクセルディスクリプタにインターバルを空けてマッピングされる、請求項1に記載の方法。
- 前記タスク環境内の前記ロボット装置の第1の位置は、前記教示環境内での訓練中の前記ロボット装置の第2の位置とは異なる、請求項1に記載の方法。
- 前記第1の位置と前記第2の位置とは、前記ロボット装置のスタート位置または姿勢の一方あるいは両方と関連付けられる、請求項4に記載の方法。
- 前記第1の位置と前記第2の位置とは、前記タスクが実行される対象である物体のスタート位置または姿勢の一方または両方と関連付けられる、請求項4に記載の方法。
- ロボット装置を制御する装置であって、
メモリと、
前記メモリに接続された少なくとも1つのプロセッサとを備え、前記少なくとも1つのプロセッサは、
ロボット装置をタスク環境に配置し、
タスク環境中の風景のタスク画像内の第1のピクセルグループに関連付けられた複数のタスク画像ピクセルディスクリプタを、教示環境の教示画像内の第2のピクセルグループに関連付けられた複数の教示画像ピクセルディスクリプタにマッピングすることであって、複数のタスク画像ピクセルディスクリプタの各タスク画像ピクセルディスクリプタは、第1のピクセルグループ内のピクセルに関連付けられた第1のピクセル値を含み、複数の教示画像ピクセルディスクリプタの各教示画像ピクセルディスクリプタは、第2のピクセルグループ内のピクセルに関連付けられた第2のピクセル値を含み、各タスク画像ピクセルディスクリプタに関連付けられた第1のピクセル値は、各タスク画像ピクセルディスクリプタにマッピングされた教示画像ピクセルディスクリプタに関連付けられた第2のピクセル値と同じ値を有し、
複数のタスク画像ピクセルディスクリプタのマッピングに基づいて、タスク画像と教示画像との間の相対変換であって、前記タスク画像と前記教示画像との間のX軸、Y軸、Z軸、ロール、ピッチ、またはヨーのうちの1つまたは複数の変化を示す相対変換を定義し、
前記教示画像に対応するタスクを実行するために、前記相対変換に基づいてパラメーター化された動作のセットのパラメーターを更新する、
ように構成されている、装置。 - 前記パラメーター化された動作のセットは、前記ロボット装置が前記タスクを実行するように仮想現実インターフェースを用いて訓練されている間にユーザーにより実行される動作を含む、請求項7に記載の装置。
- 前記複数のタスク画像ピクセルディスクリプタは、前記複数の教示画像ピクセルディスクリプタにインターバルを空けてマッピングされる、請求項7に記載の装置。
- 前記タスク環境内の前記ロボット装置の第1の位置は、前記教示環境内での訓練中の前記ロボット装置の第2の位置とは異なる、請求項7に記載の装置。
- 前記第1の位置と前記第2の位置とは、前記ロボット装置のスタート位置または姿勢の一方あるいは両方と関連付けられる、請求項10に記載の装置。
- 前記第1の位置と前記第2の位置とは、前記タスクが実行される対象である物体のスタート位置または姿勢の一方または両方と関連付けられる、請求項10に記載の装置。
- ロボット装置を制御するためのプログラムコードを記録した非一時的なコンピュータ可読媒体であって、
前記プログラムコードがプロセッサにより実行され、
前記ロボット装置をタスク環境に配置するプログラムコードと、
タスク環境中の風景のタスク画像内の第1のピクセルグループに関連付けられた複数のタスク画像ピクセルディスクリプタを、教示環境の教示画像内の第2のピクセルグループに関連付けられた複数の教示画像ピクセルディスクリプタにマッピングするプログラムコードであって、複数のタスク画像ピクセルディスクリプタの各タスク画像ピクセルディスクリプタは、第1のピクセルグループ内のピクセルに関連付けられた第1のピクセル値を含み、複数の教示画像ピクセルディスクリプタの各教示画像ピクセルディスクリプタは、第2のピクセルグループ内のピクセルに関連付けられた第2のピクセル値を含み、各タスク画像ピクセルディスクリプタに関連付けられた第1のピクセル値は、各タスク画像ピクセルディスクリプタにマッピングされた教示画像ピクセルディスクリプタに関連付けられた第2のピクセル値と同じ値を有する、プログラムコードと、
複数のタスク画像ピクセルディスクリプタのマッピングに基づいて、タスク画像と教示画像との間の相対変換であって、前記タスク画像と前記教示画像との間のX軸、Y軸、Z軸、ロール、ピッチ、またはヨーのうちの1つまたは複数の変化を示す相対変換を定義するプログラムコードと、
前記教示画像に対応するタスクを実行するために、前記相対変換に基づいてパラメーター化された動作のセットのパラメーターを更新するプログラムコードと、
を含む、非一時的なコンピュータ可読媒体。 - 前記パラメーター化された動作のセットは、前記ロボット装置が前記タスクを実行するように仮想現実インターフェースを用いて訓練されている間にユーザーにより実行される動作を含む、請求項13に記載の非一時的なコンピュータ可読媒体。
- 前記複数のタスク画像ピクセルディスクリプタは、前記複数の教示画像ピクセルディスクリプタにインターバルを空けてマッピングされる、請求項13に記載の非一時的なコンピュータ可読媒体。
- 前記タスク環境内の前記ロボット装置の第1の位置は、前記教示環境内での訓練中の前記ロボット装置の第2の位置とは異なる、請求項13に記載の非一時的なコンピュータ可読媒体。
- 前記第1の位置と前記第2の位置とは、前記ロボット装置のスタート位置または姿勢の一方あるいは両方と関連付けられる、請求項16に記載の非一時的なコンピュータ可読媒体。
- 前記第1の位置と前記第2の位置とは、前記タスクが実行される対象である物体のスタート位置または姿勢の一方または両方と関連付けられる、請求項16に記載の非一時的なコンピュータ可読媒体。
- 前記タスク環境と前記教示環境とは、同じ環境に関連付けられる、請求項1に記載の方法。
- 前記タスク環境と前記教示環境とは、同じ環境に関連付けられる、請求項7に記載の装置。
Applications Claiming Priority (9)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962877792P | 2019-07-23 | 2019-07-23 | |
US201962877791P | 2019-07-23 | 2019-07-23 | |
US201962877793P | 2019-07-23 | 2019-07-23 | |
US62/877,792 | 2019-07-23 | ||
US62/877,793 | 2019-07-23 | ||
US62/877,791 | 2019-07-23 | ||
US16/570,852 US11580724B2 (en) | 2019-07-23 | 2019-09-13 | Virtual teach and repeat mobile manipulation system |
US16/570,852 | 2019-09-13 | ||
PCT/US2020/043144 WO2021016394A1 (en) | 2019-07-23 | 2020-07-22 | Visual teach and repeat mobile manipulation system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022544007A JP2022544007A (ja) | 2022-10-17 |
JPWO2021016394A5 true JPWO2021016394A5 (ja) | 2023-07-31 |
Family
ID=74189690
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022503981A Pending JP2022542858A (ja) | 2019-07-23 | 2020-06-05 | ディープネットワークの訓練方法 |
JP2022503979A Pending JP2022542241A (ja) | 2019-07-23 | 2020-06-05 | ロボット装置からの視覚的出力を補強するシステム及び方法 |
JP2022503936A Pending JP2022542239A (ja) | 2019-07-23 | 2020-06-10 | 視角エンベディングに基づいた自律タスク実行 |
JP2022503980A Pending JP2022544007A (ja) | 2019-07-23 | 2020-07-22 | 移動操作システムの視覚的教示と繰り返し |
Family Applications Before (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022503981A Pending JP2022542858A (ja) | 2019-07-23 | 2020-06-05 | ディープネットワークの訓練方法 |
JP2022503979A Pending JP2022542241A (ja) | 2019-07-23 | 2020-06-05 | ロボット装置からの視覚的出力を補強するシステム及び方法 |
JP2022503936A Pending JP2022542239A (ja) | 2019-07-23 | 2020-06-10 | 視角エンベディングに基づいた自律タスク実行 |
Country Status (5)
Country | Link |
---|---|
US (6) | US11580724B2 (ja) |
EP (4) | EP4004828A4 (ja) |
JP (4) | JP2022542858A (ja) |
CN (4) | CN114127806A (ja) |
WO (4) | WO2021015868A1 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11580724B2 (en) | 2019-07-23 | 2023-02-14 | Toyota Research Institute, Inc. | Virtual teach and repeat mobile manipulation system |
US11685045B1 (en) * | 2019-09-09 | 2023-06-27 | X Development Llc | Asynchronous robotic control using most recently selected robotic action data |
US20210101280A1 (en) * | 2019-10-02 | 2021-04-08 | Baker Hughes Oilfield Operations, Llc | Telemetry harvesting and analysis from extended reality streaming |
US11328170B2 (en) * | 2020-02-19 | 2022-05-10 | Toyota Research Institute, Inc. | Unknown object identification for robotic device |
US11813748B2 (en) * | 2020-10-13 | 2023-11-14 | Google Llc | Simulating multiple robots in virtual environments |
CA3174258A1 (en) * | 2020-10-14 | 2022-04-21 | One Cup Productions Ltd. | Animal visual identification, tracking, monitoring and assessment systems and methods thereof |
US20220197277A1 (en) * | 2020-12-23 | 2022-06-23 | Qatar Foundation For Education, Science And Community Development | Telepresence control schemes for hazardous environments |
IT202100003821A1 (it) * | 2021-02-19 | 2022-08-19 | Univ Pisa | Procedimento di interazione con oggetti |
US20220355692A1 (en) * | 2021-05-05 | 2022-11-10 | Abb Schweiz Ag | Systems and Methods for Electric Vehicle Charging Using Machine Learning |
GB2616001A (en) * | 2022-02-17 | 2023-08-30 | Roke Manor Res Limited | Remote visual inspection guidance |
US20230286161A1 (en) * | 2022-03-11 | 2023-09-14 | Boston Dynamics, Inc. | Systems and Methods for Robotic Manipulation Using Extended Reality |
CN116823838B (zh) * | 2023-08-31 | 2023-11-14 | 武汉理工大学三亚科教创新园 | 高斯先验标签分配与特征解耦的海洋船舶检测方法与系统 |
Family Cites Families (74)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7082497B2 (en) * | 2001-12-28 | 2006-07-25 | Hewlett-Packard Development Company, L.P. | System and method for managing a moveable media library with library partitions |
JP3834297B2 (ja) * | 2003-05-12 | 2006-10-18 | ファナック株式会社 | 画像処理装置 |
WO2005098729A2 (en) * | 2004-03-27 | 2005-10-20 | Harvey Koselka | Autonomous personal service robot |
JP2005308993A (ja) * | 2004-04-20 | 2005-11-04 | Matsushita Electric Ind Co Ltd | 学習支援システム |
DE102005009437A1 (de) * | 2005-03-02 | 2006-09-07 | Kuka Roboter Gmbh | Verfahren und Vorrichtung zum Einblenden von AR-Objekten |
JP2007026309A (ja) * | 2005-07-20 | 2007-02-01 | Fuji Xerox Co Ltd | 画像形成装置及びその制御方法 |
US7836437B2 (en) * | 2006-02-10 | 2010-11-16 | Microsoft Corporation | Semantic annotations for virtual objects |
US8930025B2 (en) * | 2006-05-25 | 2015-01-06 | Takehiro Ishizaki | Work robot |
US8121347B2 (en) | 2006-12-12 | 2012-02-21 | Rutgers, The State University Of New Jersey | System and method for detecting and tracking features in images |
JP5037248B2 (ja) * | 2007-07-17 | 2012-09-26 | 株式会社日立製作所 | 情報収集システムおよび情報収集ロボット |
DE602008005318D1 (de) * | 2007-08-22 | 2011-04-14 | Honda Res Inst Europe Gmbh | Schätzung der ordnungsgemässen bewegung von objekten mithilfe optischer fluss-, kinematik- und tiefeninformationen |
FR2946160B1 (fr) | 2009-05-26 | 2014-05-09 | Aldebaran Robotics | Systeme et procede pour editer et commander des comportements d'un robot mobile. |
JP2013022705A (ja) | 2011-07-25 | 2013-02-04 | Sony Corp | ロボット装置及びロボット装置の制御方法、コンピューター・プログラム、並びにロボット・システム |
US9092698B2 (en) * | 2012-06-21 | 2015-07-28 | Rethink Robotics, Inc. | Vision-guided robots and methods of training them |
US9186793B1 (en) * | 2012-08-31 | 2015-11-17 | Brain Corporation | Apparatus and methods for controlling attention of a robot |
US9940553B2 (en) * | 2013-02-22 | 2018-04-10 | Microsoft Technology Licensing, Llc | Camera/object pose from predicted coordinates |
US9542626B2 (en) | 2013-09-06 | 2017-01-10 | Toyota Jidosha Kabushiki Kaisha | Augmenting layer-based object detection with deep convolutional neural networks |
US10888998B2 (en) * | 2013-10-07 | 2021-01-12 | Abb Schweiz Ag | Method and device for verifying one or more safety volumes for a movable mechanical unit |
US9259844B2 (en) * | 2014-02-12 | 2016-02-16 | General Electric Company | Vision-guided electromagnetic robotic system |
WO2015194864A1 (ko) * | 2014-06-17 | 2015-12-23 | (주)유진로봇 | 이동 로봇의 맵을 업데이트하기 위한 장치 및 그 방법 |
US10518409B2 (en) | 2014-09-02 | 2019-12-31 | Mark Oleynik | Robotic manipulation methods and systems for executing a domain-specific application in an instrumented environment with electronic minimanipulation libraries |
US9579790B2 (en) * | 2014-09-17 | 2017-02-28 | Brain Corporation | Apparatus and methods for removal of learned behaviors in robots |
US9630318B2 (en) * | 2014-10-02 | 2017-04-25 | Brain Corporation | Feature detection apparatus and methods for training of robotic navigation |
JP2016107379A (ja) * | 2014-12-08 | 2016-06-20 | ファナック株式会社 | 拡張現実対応ディスプレイを備えたロボットシステム |
WO2016103065A1 (en) * | 2014-12-23 | 2016-06-30 | Husqvarna Ab | Robotic vehicle with adjustable operating area |
CN104732518B (zh) | 2015-01-19 | 2017-09-01 | 北京工业大学 | 一种基于智能机器人地面特征的ptam改进方法 |
CN104808590B (zh) | 2015-02-14 | 2017-01-25 | 浙江大学 | 一种基于关键帧策略的移动机器人视觉伺服控制方法 |
US9643314B2 (en) * | 2015-03-04 | 2017-05-09 | The Johns Hopkins University | Robot control, training and collaboration in an immersive virtual reality environment |
US9922271B2 (en) | 2015-03-20 | 2018-03-20 | Netra, Inc. | Object detection and classification |
US9868211B2 (en) * | 2015-04-09 | 2018-01-16 | Irobot Corporation | Restricting movement of a mobile robot |
US9646655B2 (en) | 2015-08-31 | 2017-05-09 | Fuji Xerox Co., Ltd. | Systems and methods for interaction-based analysis and visualization of remote collaboration sessions |
WO2017132636A1 (en) * | 2016-01-29 | 2017-08-03 | Pointivo, Inc. | Systems and methods for extracting information about objects from scene information |
CN114040153B (zh) * | 2016-05-09 | 2024-04-12 | 格拉班谷公司 | 用于在环境内计算机视觉驱动应用的系统 |
CN114967433B (zh) * | 2016-05-20 | 2023-08-18 | 谷歌有限责任公司 | 基于捕获物体的图像的机器学习方法和装置 |
CN106023211B (zh) | 2016-05-24 | 2019-02-26 | 深圳前海勇艺达机器人有限公司 | 基于深度学习的机器人图像定位方法及系统 |
US10105847B1 (en) * | 2016-06-08 | 2018-10-23 | X Development Llc | Detecting and responding to geometric changes to robots |
US10055667B2 (en) * | 2016-08-03 | 2018-08-21 | X Development Llc | Generating a model for an object encountered by a robot |
US9964955B2 (en) | 2016-08-04 | 2018-05-08 | Canvas Technology, Inc. | System and methods of determining a geometric pose of a camera based on spatial and visual mapping |
JP2018055429A (ja) * | 2016-09-29 | 2018-04-05 | ファナック株式会社 | 物体認識装置および物体認識方法 |
US10162360B2 (en) * | 2016-12-01 | 2018-12-25 | GM Global Technology Operations LLC | Vehicle environment imaging systems and methods |
KR101850410B1 (ko) * | 2016-12-26 | 2018-04-20 | 한국생산기술연구원 | 가상 현실 기반 로봇 교시를 위한 시뮬레이션 장치 및 방법 |
JP2018122376A (ja) * | 2017-01-31 | 2018-08-09 | セイコーエプソン株式会社 | 画像処理装置、ロボット制御装置、及びロボット |
EP4292775A3 (en) * | 2017-02-25 | 2024-07-17 | Diligent Robotics, Inc. | Systems, apparatus, and methods for robotic learning and execution of skills |
CN110709790A (zh) * | 2017-03-02 | 2020-01-17 | 罗博艾特有限责任公司 | 用于控制自主移动机器人的方法 |
CN109213306B (zh) * | 2017-06-30 | 2022-02-01 | 沈阳新松机器人自动化股份有限公司 | 一种机器人远程控制平台及其设计方法 |
KR102024092B1 (ko) * | 2017-07-12 | 2019-09-23 | 엘지전자 주식회사 | 이동 로봇 시스템 및 그 제어방법 |
CA3071332A1 (en) * | 2017-07-25 | 2019-01-31 | Mbl Limited | Systems and methods for operations a robotic system and executing robotic interactions |
CN107610579A (zh) * | 2017-09-05 | 2018-01-19 | 芜湖瑞思机器人有限公司 | 基于vr系统控制的工业机器人示教系统及其示教方法 |
US10354139B1 (en) * | 2017-09-07 | 2019-07-16 | X Development Llc | Generating and utilizing spatial affordances for an object in robotics applications |
WO2019060787A1 (en) * | 2017-09-21 | 2019-03-28 | Lexset.Ai Llc | DETECTION OF AT LEAST ONE OBJECT IN AN IMAGE, OR A SEQUENCE OF IMAGES, AND DETERMINATION OF A CATEGORY AND AT LEAST ONE DESCRIPTOR FOR EACH OF THESE OBJECTS, GENERATION OF SYNTHETIC LEARNING DATA, AND FORMATION OF A NEURONAL NETWORK USING SYNTHETIC LEARNING DATA |
US10607079B2 (en) * | 2017-09-26 | 2020-03-31 | Toyota Research Institute, Inc. | Systems and methods for generating three dimensional skeleton representations |
BR112020008021A2 (pt) | 2017-10-24 | 2020-10-27 | L'ORéAL S.A. | dispositivos de computação, método para gerar uma cnn treinada para processar imagens e métodos para processar uma imagem |
WO2019089018A1 (en) * | 2017-10-31 | 2019-05-09 | Hewlett-Packard Development Company, L.P. | Mobile robots to generate reference maps for localization |
US10346721B2 (en) * | 2017-11-01 | 2019-07-09 | Salesforce.Com, Inc. | Training a neural network using augmented training datasets |
JP6972962B2 (ja) * | 2017-11-22 | 2021-11-24 | コニカミノルタ株式会社 | 物体追跡装置、物体追跡方法、および、物体追跡プログラム |
US11771283B2 (en) * | 2017-12-06 | 2023-10-03 | BISSELL , Inc. | Method and system for manual control of autonomous floor cleaner |
US10380751B1 (en) * | 2017-12-12 | 2019-08-13 | The Government Of The United States Of America, As Represented By The Secretary Of The Navy | Robot vision in autonomous underwater vehicles using the color shift in underwater imaging |
US10810427B1 (en) * | 2017-12-15 | 2020-10-20 | AI Incorporated | Methods for an autonomous robotic device to identify locations captured in an image |
US10981272B1 (en) * | 2017-12-18 | 2021-04-20 | X Development Llc | Robot grasp learning |
JP6641447B2 (ja) * | 2017-12-26 | 2020-02-05 | キヤノン株式会社 | 撮像装置及びその制御方法、プログラム、記憶媒体 |
US10913154B2 (en) * | 2018-01-02 | 2021-02-09 | General Electric Company | Systems and method for robotic learning of industrial tasks based on human demonstration |
US11097418B2 (en) * | 2018-01-04 | 2021-08-24 | X Development Llc | Grasping of an object by a robot based on grasp strategy determined using machine learning model(s) |
CN108333941A (zh) * | 2018-02-13 | 2018-07-27 | 华南理工大学 | 一种基于混合增强智能的云机器人协作学习方法 |
US11340630B2 (en) * | 2018-03-30 | 2022-05-24 | Brain Corporation | Systems and methods for robust robotic mapping |
CN108619723A (zh) * | 2018-04-18 | 2018-10-09 | 咪咕互动娱乐有限公司 | 一种应用操作的处理方法、装置以及存储介质 |
US10332261B1 (en) * | 2018-04-26 | 2019-06-25 | Capital One Services, Llc | Generating synthetic images as training dataset for a machine learning network |
US11189078B2 (en) * | 2018-06-20 | 2021-11-30 | Google Llc | Automated understanding of three dimensional (3D) scenes for augmented reality applications |
US10636114B2 (en) * | 2018-08-04 | 2020-04-28 | Beijing Jingdong Shangke Information Technology Co., Ltd. | System and method for scan-matching oriented visual slam |
US11030458B2 (en) * | 2018-09-14 | 2021-06-08 | Microsoft Technology Licensing, Llc | Generating synthetic digital assets for a virtual scene including a model of a real-world object |
US10824923B1 (en) * | 2019-01-23 | 2020-11-03 | Facebook Technologies, Llc | System and method for improving localization and object tracking |
US10870204B2 (en) * | 2019-01-25 | 2020-12-22 | Mujin, Inc. | Robotic system control method and controller |
JP7203474B2 (ja) * | 2019-02-20 | 2023-01-13 | 富士フイルム株式会社 | マンモグラフィ装置及びプログラム |
US11580724B2 (en) | 2019-07-23 | 2023-02-14 | Toyota Research Institute, Inc. | Virtual teach and repeat mobile manipulation system |
US11529737B2 (en) * | 2020-01-30 | 2022-12-20 | Raytheon Company | System and method for using virtual/augmented reality for interaction with collaborative robots in manufacturing or industrial environment |
-
2019
- 2019-09-13 US US16/570,852 patent/US11580724B2/en active Active
- 2019-09-13 US US16/570,618 patent/US11288883B2/en active Active
- 2019-09-13 US US16/570,813 patent/US11113526B2/en active Active
- 2019-09-13 US US16/570,540 patent/US11694432B2/en active Active
-
2020
- 2020-06-05 WO PCT/US2020/036428 patent/WO2021015868A1/en unknown
- 2020-06-05 CN CN202080050426.1A patent/CN114127806A/zh active Pending
- 2020-06-05 EP EP20844011.5A patent/EP4004828A4/en active Pending
- 2020-06-05 EP EP20844972.8A patent/EP4004670A4/en active Pending
- 2020-06-05 WO PCT/US2020/036450 patent/WO2021015869A1/en unknown
- 2020-06-05 CN CN202080050025.6A patent/CN114127805A/zh active Pending
- 2020-06-05 JP JP2022503981A patent/JP2022542858A/ja active Pending
- 2020-06-05 JP JP2022503979A patent/JP2022542241A/ja active Pending
- 2020-06-10 CN CN202080050040.0A patent/CN114097004A/zh active Pending
- 2020-06-10 JP JP2022503936A patent/JP2022542239A/ja active Pending
- 2020-06-10 WO PCT/US2020/037025 patent/WO2021015883A1/en unknown
- 2020-06-10 EP EP20844806.8A patent/EP4003668A4/en active Pending
- 2020-07-22 CN CN202080050023.7A patent/CN114080583B/zh active Active
- 2020-07-22 EP EP20843022.3A patent/EP4003666A4/en active Pending
- 2020-07-22 JP JP2022503980A patent/JP2022544007A/ja active Pending
- 2020-07-22 WO PCT/US2020/043144 patent/WO2021016394A1/en unknown
-
2022
- 2022-02-08 US US17/667,217 patent/US11741701B2/en active Active
-
2023
- 2023-01-18 US US18/098,625 patent/US20230154015A1/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110026987B (zh) | 一种机械臂抓取轨迹的生成方法、装置、设备及存储介质 | |
CN108161882B (zh) | 一种基于增强现实的机器人示教再现方法及装置 | |
WO2019192149A1 (zh) | 一种基于机器视觉的绘图方法及系统 | |
JPWO2021016394A5 (ja) | ||
JP2019512913A5 (ja) | ||
JP6671694B1 (ja) | 機械学習装置、機械学習システム、データ処理システム及び機械学習方法 | |
JP2010112859A (ja) | ロボットシステム、ロボット制御装置およびロボット制御方法 | |
CN108927801B (zh) | 一种机械臂末端姿态调整方法及装置 | |
JP2015071206A (ja) | 制御装置、ロボット、教示データ生成方法及びプログラム | |
CN108044625B (zh) | 一种基于多Leapmotion虚拟手势融合的机器人机械臂操控方法 | |
CN110385694A (zh) | 机器人的动作示教装置、机器人系统以及机器人控制装置 | |
CN111151463A (zh) | 一种基于3d视觉的机械臂分拣抓取系统及方法 | |
JP2021056678A5 (ja) | ||
CN110977966B (zh) | 一种基于虚拟场景训练的机器人避障方法 | |
JP2018045608A5 (ja) | ||
WO2019059343A1 (ja) | ワーク情報処理装置およびワークの認識方法 | |
KR20210012672A (ko) | 인공지능 기반 로봇 매니퓰레이터의 자동 제어 시스템 및 방법 | |
US20220377962A1 (en) | Crop row guidance systems | |
JP2014029664A (ja) | 比較画像範囲生成方法、位置姿勢検出方法、比較画像範囲生成装置、位置姿勢検出装置、ロボット、ロボットシステム、比較画像範囲生成プログラム及び位置姿勢検出プログラム | |
KR101916675B1 (ko) | 사용자 인터랙션을 위한 제스처 인식 방법 및 시스템 | |
JP2017120672A5 (ja) | 画像処理装置、画像処理システム、および画像処理方法 | |
JP6777670B2 (ja) | 画像処理を利用してロボットの教示を補正するロボットシステム | |
WO2022208963A1 (ja) | ロボット制御用のキャリブレーション装置 | |
CN111241940B (zh) | 一种机器人的远程控制方法、人体边界框确定方法及系统 | |
KR20200059111A (ko) | 뉴럴 네트워크를 이용하는 파지 방법, 파지 학습 방법 및 파지 로봇 |