JPWO2021015883A5 - - Google Patents
Download PDFInfo
- Publication number
- JPWO2021015883A5 JPWO2021015883A5 JP2022503936A JP2022503936A JPWO2021015883A5 JP WO2021015883 A5 JPWO2021015883 A5 JP WO2021015883A5 JP 2022503936 A JP2022503936 A JP 2022503936A JP 2022503936 A JP2022503936 A JP 2022503936A JP WO2021015883 A5 JPWO2021015883 A5 JP WO2021015883A5
- Authority
- JP
- Japan
- Prior art keywords
- robotic device
- pixel
- pixels
- image
- task
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Description
特許請求の範囲は上記に示された正確な構成及び構成要素に限定されないことが理解されるべきである。上に説明した方法及び装置の配置、操作、並びに詳細に対して、特許請求の範囲から逸脱せずに、様々な修正、変更及び変形がなされ得る。
本明細書に開示される発明は以下の態様を含む。
〔態様1〕
ロボット装置の現在の視覚に対応する画像を撮影することと、
前記画像の第2のピクセルのセットに一致する第1のピクセルのセットを有するキーフレーム画像を識別することと、
前記ロボット装置により前記キーフレーム画像に対応するタスクを実行することと、
を含む、ロボット装置を制御する方法。
〔態様2〕
前記ロボット装置が前記タスクを実行するように訓練されている間に前記キーフレーム画像を撮影することを更に含む、態様1に記載の方法。
〔態様3〕
前記第1のピクセルのセット及び前記第2のピクセルのセット中の各ピクセルにピクセルディスクリプタを割り当てることを更に含む、態様1に記載の方法。
〔態様4〕
前記ピクセルディスクリプタはピクセルレベル情報及び奥行情報に対応する値のセットを有する、態様3に記載の方法。
〔態様5〕
距離、姿勢、又は前記キーフレーム画像と前記画像の間の組み合わせのうちの1つの相違点を判断することと、
前記判断した相違点に基づいて前記タスクを調整することと、
を更に含む、態様1に記載の方法。
〔態様6〕
前記タスクは、物体と相互作用することと、環境中を走行することと、又はそれらの組み合わせと、のうちの少なくとも1つを有する、態様1に記載の方法。
〔態様7〕
前記第1のピクセルのセットに対応する領域はユーザーによって選択される、態様1に記載の方法。
〔態様8〕
メモリと、
少なくとも1つのプロセッサと、を備え、前記少なくとも1つのプロセッサは、
ロボット装置の現在の視覚に対応する画像を撮影し、
前記画像の第2のピクセルのセットに一致する第1のピクセルのセットを有するキーフレーム画像を識別し、
前記キーフレーム画像に対応するタスクを実行する、
ように構成されている、ロボット装置。
〔態様9〕
前記少なくとも1つのプロセッサは更に、前記ロボット装置が前記タスクを実行するように訓練されている間に前記キーフレーム画像を撮影するように構成されている、態様8に記載のロボット装置。
〔態様10〕
前記少なくとも1つのプロセッサは更に、前記第1のピクセルのセット及び前記第2のピクセルのセット中の各ピクセルにピクセルディスクリプタを割り当てるように構成されている、態様8に記載のロボット装置。
〔態様11〕
前記ピクセルディスクリプタは、ピクセルレベル情報及び奥行情報に対応する値のセットを有する、態様10に記載のロボット装置。
〔態様12〕
前記少なくとも1つのプロセッサは更に、
距離、姿勢、又は前記キーフレーム画像と前記画像の間の組み合わせのうちの1つの相違点を判断し、
前記判断した相違点に基づいて前記タスクを調整する、
ように構成されている、態様8に記載のロボット装置。
〔態様13〕
前記タスクは、物体と相互作用することと、環境中を走行することと、又はそれらの組み合わせと、のうちの少なくとも1つを有する、態様8に記載のロボット装置。
〔態様14〕
前記第1のピクセルのセットに対応する領域は、ユーザーによって選択される、態様8に記載のロボット装置。
〔態様15〕
ロボット装置を制御するためのプログラムコードを記録した非一時的なコンピュータ可読媒体であって、
前記プログラムコードは、
前記ロボット装置の現在の視覚に対応する画像を撮影するプログラムコードと、
前記画像の第2のピクセルのセットに一致する第1のピクセルのセットを有するキーフレーム画像を識別するプログラムコードと、
前記ロボット装置により前記キーフレーム画像に対応するタスクを実行するプログラムコードと、
を含む、非一時的なコンピュータ可読媒体。
〔態様16〕
前記プログラムコードは更に、前記ロボット装置が前記タスクを実行するように訓練されている間に前記キーフレーム画像を撮影するプログラムコードを含む、態様15に記載の非一時的なコンピュータ可読媒体。
〔態様17〕
前記プログラムコードは更に、前記第1のピクセルのセット及び前記第2のピクセルのセット中の各ピクセルにピクセルディスクリプタを割り当てるプログラムコードを含む、態様15に記載の非一時的なコンピュータ可読媒体。
〔態様18〕
前記ピクセルディスクリプタは、ピクセルレベル情報及び奥行情報に対応する値のセットを有する、態様17に記載の非一時的なコンピュータ可読媒体。
〔態様19〕
前記プログラムコードは更に、
距離、姿勢、又は前記キーフレーム画像と前記画像の間の組み合わせのうちの1つの相違点を判断するプログラムコードと、
前記判断した相違点に基づいて前記タスクを調整するプログラムコードと、
を含む、態様15に記載の非一時的なコンピュータ可読媒体。
〔態様20〕
前記タスクは、物体と相互作用することと、環境中を走行することと、又はそれらの組み合わせと、のうちの少なくとも1つを有する、態様15に記載の非一時的なコンピュータ可読媒体。
本明細書に開示される発明は以下の態様を含む。
〔態様1〕
ロボット装置の現在の視覚に対応する画像を撮影することと、
前記画像の第2のピクセルのセットに一致する第1のピクセルのセットを有するキーフレーム画像を識別することと、
前記ロボット装置により前記キーフレーム画像に対応するタスクを実行することと、
を含む、ロボット装置を制御する方法。
〔態様2〕
前記ロボット装置が前記タスクを実行するように訓練されている間に前記キーフレーム画像を撮影することを更に含む、態様1に記載の方法。
〔態様3〕
前記第1のピクセルのセット及び前記第2のピクセルのセット中の各ピクセルにピクセルディスクリプタを割り当てることを更に含む、態様1に記載の方法。
〔態様4〕
前記ピクセルディスクリプタはピクセルレベル情報及び奥行情報に対応する値のセットを有する、態様3に記載の方法。
〔態様5〕
距離、姿勢、又は前記キーフレーム画像と前記画像の間の組み合わせのうちの1つの相違点を判断することと、
前記判断した相違点に基づいて前記タスクを調整することと、
を更に含む、態様1に記載の方法。
〔態様6〕
前記タスクは、物体と相互作用することと、環境中を走行することと、又はそれらの組み合わせと、のうちの少なくとも1つを有する、態様1に記載の方法。
〔態様7〕
前記第1のピクセルのセットに対応する領域はユーザーによって選択される、態様1に記載の方法。
〔態様8〕
メモリと、
少なくとも1つのプロセッサと、を備え、前記少なくとも1つのプロセッサは、
ロボット装置の現在の視覚に対応する画像を撮影し、
前記画像の第2のピクセルのセットに一致する第1のピクセルのセットを有するキーフレーム画像を識別し、
前記キーフレーム画像に対応するタスクを実行する、
ように構成されている、ロボット装置。
〔態様9〕
前記少なくとも1つのプロセッサは更に、前記ロボット装置が前記タスクを実行するように訓練されている間に前記キーフレーム画像を撮影するように構成されている、態様8に記載のロボット装置。
〔態様10〕
前記少なくとも1つのプロセッサは更に、前記第1のピクセルのセット及び前記第2のピクセルのセット中の各ピクセルにピクセルディスクリプタを割り当てるように構成されている、態様8に記載のロボット装置。
〔態様11〕
前記ピクセルディスクリプタは、ピクセルレベル情報及び奥行情報に対応する値のセットを有する、態様10に記載のロボット装置。
〔態様12〕
前記少なくとも1つのプロセッサは更に、
距離、姿勢、又は前記キーフレーム画像と前記画像の間の組み合わせのうちの1つの相違点を判断し、
前記判断した相違点に基づいて前記タスクを調整する、
ように構成されている、態様8に記載のロボット装置。
〔態様13〕
前記タスクは、物体と相互作用することと、環境中を走行することと、又はそれらの組み合わせと、のうちの少なくとも1つを有する、態様8に記載のロボット装置。
〔態様14〕
前記第1のピクセルのセットに対応する領域は、ユーザーによって選択される、態様8に記載のロボット装置。
〔態様15〕
ロボット装置を制御するためのプログラムコードを記録した非一時的なコンピュータ可読媒体であって、
前記プログラムコードは、
前記ロボット装置の現在の視覚に対応する画像を撮影するプログラムコードと、
前記画像の第2のピクセルのセットに一致する第1のピクセルのセットを有するキーフレーム画像を識別するプログラムコードと、
前記ロボット装置により前記キーフレーム画像に対応するタスクを実行するプログラムコードと、
を含む、非一時的なコンピュータ可読媒体。
〔態様16〕
前記プログラムコードは更に、前記ロボット装置が前記タスクを実行するように訓練されている間に前記キーフレーム画像を撮影するプログラムコードを含む、態様15に記載の非一時的なコンピュータ可読媒体。
〔態様17〕
前記プログラムコードは更に、前記第1のピクセルのセット及び前記第2のピクセルのセット中の各ピクセルにピクセルディスクリプタを割り当てるプログラムコードを含む、態様15に記載の非一時的なコンピュータ可読媒体。
〔態様18〕
前記ピクセルディスクリプタは、ピクセルレベル情報及び奥行情報に対応する値のセットを有する、態様17に記載の非一時的なコンピュータ可読媒体。
〔態様19〕
前記プログラムコードは更に、
距離、姿勢、又は前記キーフレーム画像と前記画像の間の組み合わせのうちの1つの相違点を判断するプログラムコードと、
前記判断した相違点に基づいて前記タスクを調整するプログラムコードと、
を含む、態様15に記載の非一時的なコンピュータ可読媒体。
〔態様20〕
前記タスクは、物体と相互作用することと、環境中を走行することと、又はそれらの組み合わせと、のうちの少なくとも1つを有する、態様15に記載の非一時的なコンピュータ可読媒体。
Claims (20)
- ロボット装置の現在の視覚に対応する画像を撮影することと、
キーフレーム画像の第1のピクセルのセットの各ピクセルのRGB(赤-緑-青)値が前記画像の第2のピクセルのセットの対応するピクセルのRGB値に一致することに基づいてキーフレーム画像を識別することと、
前記キーフレーム画像の第1の物体に対する前記ロボット装置の第1の姿勢と、前記画像の第2の物体に対する前記ロボット装置の第2の姿勢との間の第1の相違点、または、前記ロボット装置の第1の物体に対する第1の距離と、前記ロボット装置の第2の物体に対する第2の距離との間の第2の相違点の一方または両方を判定することと、
前記第1の相違点または前記第2の相違点の一方または両方を判定することに基づいて、前記ロボット装置のエフェクタによって実行されるタスクであって前記キーフレーム画像に関連付けられタスクに関連する速度または位置の一方または両方を調整することと、
前記ロボット装置の前記エフェクタを介して、前記エフェクタの速度または位置の一方または両方を調整することに基づいて前記タスクを実行することと、
を含む、ロボット装置を制御する方法。 - 前記ロボット装置が前記タスクを実行するように訓練されている間に前記キーフレーム画像を撮影することを更に含む、請求項1に記載の方法。
- 前記第1のピクセルのセット及び前記第2のピクセルのセットの各ピクセルは、ピクセルディスクリプタに関連付けられる、請求項1に記載の方法。
- 各ピクセルディスクリプタは、ピクセルレベル情報及び奥行情報に対応する値のセットを有し、前記ピクセルレベル情報は前記ピクセルディスクリプタに関連付けられたピクセルのRGB値を有する、請求項3に記載の方法。
- 前記タスクは、物体と相互作用することと、環境中を走行することと、又はそれらの組み合わせと、のうちの少なくとも1つを有する、請求項1に記載の方法。
- 前記第1のピクセルのセットに対応する領域は、ユーザーによって選択される、請求項1に記載の方法。
- メモリと、
少なくとも1つのプロセッサと、を備え、前記少なくとも1つのプロセッサは、
ロボット装置の現在の視覚に対応する画像を撮影し、
キーフレーム画像の第1のピクセルのセットの各ピクセルのRGB(赤-緑-青)値が前記画像の第2のピクセルのセットの対応するピクセルのRGB値に一致することに基づいて前記キーフレーム画像を識別し、
前記キーフレーム画像の第1の物体に対する前記ロボット装置の第1の姿勢と、前記画像の第2の物体に対する前記ロボット装置の第2の姿勢との間の第1の相違点、または、前記ロボット装置の第1の物体に対する第1の距離と、前記ロボット装置の第2の物体に対する第2の距離との間の第2の相違点の一方または両方を判定し、
前記第1の相違点または前記第2の相違点の一方または両方を判定することに基づいて、前記ロボット装置のエフェクタによって実行されるタスクであってキーフレーム画像に関連付けられるタスクに関連する速度または位置の一方または両方を調整し、
前記ロボット装置の前記エフェクタを介して、前記エフェクタの速度または位置の一方または両方を調整することに基づいて前記タスクを実行する、
ように構成されている、ロボット装置。 - 前記少なくとも1つのプロセッサは更に、前記ロボット装置が前記タスクを実行するように訓練されている間に前記キーフレーム画像を撮影するように構成されている、請求項7に記載のロボット装置。
- 前記第1のピクセルのセット及び前記第2のピクセルのセットの各ピクセルは、ピクセルディスクリプタに関連付けられる、請求項7に記載のロボット装置。
- 各ピクセルディスクリプタは、ピクセルレベル情報及び奥行情報に対応する値のセットを有し、前記ピクセルレベル情報は前記ピクセルディスクリプタに関連付けられたピクセルのRGBを有する、請求項9に記載のロボット装置。
- 前記タスクは、物体と相互作用することと、環境中を走行することと、又はそれらの組み合わせと、のうちの少なくとも1つを有する、請求項7に記載のロボット装置。
- 前記第1のピクセルのセットに対応する領域は、ユーザーによって選択される、請求項7に記載のロボット装置。
- ロボット装置を制御するためのプログラムコードを記録した非一時的なコンピュータ可読媒体であって、
前記プログラムコードは、
前記ロボット装置の現在の視覚に対応する画像を撮影するプログラムコードと、
キーフレーム画像の第1のピクセルのセットの各ピクセルのRGB(赤-緑-青)値が前記画像の第2のピクセルのセットの対応するピクセルのRGB値に一致することに基づいてキーフレーム画像を識別するプログラムコードと、
前記キーフレーム画像の第1の物体に対する前記ロボット装置の第1の姿勢と、前記画像の第2の物体に対する前記ロボット装置の第2の姿勢との間の第1の相違点、または、前記ロボット装置の第1の物体に対する第1の距離と、前記ロボット装置の第2の物体に対する第2の距離との間の第2の相違点の一方または両方を判定するプログラムコードと、
前記第1の相違点または前記第2の相違点の一方または両方を判定することに基づいて、前記ロボット装置のエフェクタによって実行されるタスクであって前記キーフレーム画像に関連付けられタスクに関連する速度または位置の一方または両方を調整するプログラムコードと、
前記ロボット装置の前記エフェクタを介して、前記エフェクタの速度または位置の一方または両方を調整することに基づいて前記タスクを実行するプログラムコードと、
を含む、非一時的なコンピュータ可読媒体。 - 前記プログラムコードは更に、前記ロボット装置が前記タスクを実行するように訓練されている間に前記キーフレーム画像を撮影するプログラムコードを含む、請求項13に記載の非一時的なコンピュータ可読媒体。
- 前記第1のピクセルのセット及び前記第2のピクセルのセットの各ピクセルは、ピクセルディスクリプタに関連付けられる、請求項13に記載の非一時的なコンピュータ可読媒体。
- 各ピクセルディスクリプタは、ピクセルレベル情報及び奥行情報に対応する値のセットを有し、前記ピクセルレベル情報は前記ピクセルディスクリプタに関連付けられたピクセルのRGB値を有する、請求項15に記載の非一時的なコンピュータ可読媒体。
- 前記タスクは、物体と相互作用することと、環境中を走行することと、又はそれらの組み合わせと、のうちの少なくとも1つを有する、請求項13に記載の非一時的なコンピュータ可読媒体。
- 前記ロボット装置は、人間によるデモンストレーションに基づいて前記タスクを実行するように訓練される、請求項1に記載の方法。
- 前記ロボット装置は、人間によるデモンストレーションに基づいて前記タスクを実行するように訓練される、請求項7に記載のロボット装置。
- 前記ロボット装置は、人間によるデモンストレーションに基づいて前記タスクを実行するように訓練される、請求項13に記載の非一時的なコンピュータ可読媒体。
Applications Claiming Priority (9)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962877792P | 2019-07-23 | 2019-07-23 | |
US201962877793P | 2019-07-23 | 2019-07-23 | |
US201962877791P | 2019-07-23 | 2019-07-23 | |
US62/877,793 | 2019-07-23 | ||
US62/877,792 | 2019-07-23 | ||
US62/877,791 | 2019-07-23 | ||
US16/570,618 US11288883B2 (en) | 2019-07-23 | 2019-09-13 | Autonomous task performance based on visual embeddings |
US16/570,618 | 2019-09-13 | ||
PCT/US2020/037025 WO2021015883A1 (en) | 2019-07-23 | 2020-06-10 | Autonomous task performance based on visual embeddings |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022542239A JP2022542239A (ja) | 2022-09-30 |
JPWO2021015883A5 true JPWO2021015883A5 (ja) | 2023-06-19 |
Family
ID=74189690
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022503981A Pending JP2022542858A (ja) | 2019-07-23 | 2020-06-05 | ディープネットワークの訓練方法 |
JP2022503979A Pending JP2022542241A (ja) | 2019-07-23 | 2020-06-05 | ロボット装置からの視覚的出力を補強するシステム及び方法 |
JP2022503936A Pending JP2022542239A (ja) | 2019-07-23 | 2020-06-10 | 視角エンベディングに基づいた自律タスク実行 |
JP2022503980A Pending JP2022544007A (ja) | 2019-07-23 | 2020-07-22 | 移動操作システムの視覚的教示と繰り返し |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022503981A Pending JP2022542858A (ja) | 2019-07-23 | 2020-06-05 | ディープネットワークの訓練方法 |
JP2022503979A Pending JP2022542241A (ja) | 2019-07-23 | 2020-06-05 | ロボット装置からの視覚的出力を補強するシステム及び方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022503980A Pending JP2022544007A (ja) | 2019-07-23 | 2020-07-22 | 移動操作システムの視覚的教示と繰り返し |
Country Status (5)
Country | Link |
---|---|
US (6) | US11288883B2 (ja) |
EP (4) | EP4004828A4 (ja) |
JP (4) | JP2022542858A (ja) |
CN (4) | CN114127805A (ja) |
WO (4) | WO2021015869A1 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11288883B2 (en) | 2019-07-23 | 2022-03-29 | Toyota Research Institute, Inc. | Autonomous task performance based on visual embeddings |
US11685045B1 (en) * | 2019-09-09 | 2023-06-27 | X Development Llc | Asynchronous robotic control using most recently selected robotic action data |
US20210101280A1 (en) * | 2019-10-02 | 2021-04-08 | Baker Hughes Oilfield Operations, Llc | Telemetry harvesting and analysis from extended reality streaming |
US11328170B2 (en) * | 2020-02-19 | 2022-05-10 | Toyota Research Institute, Inc. | Unknown object identification for robotic device |
US11813748B2 (en) * | 2020-10-13 | 2023-11-14 | Google Llc | Simulating multiple robots in virtual environments |
US20220197277A1 (en) * | 2020-12-23 | 2022-06-23 | Qatar Foundation For Education, Science And Community Development | Telepresence control schemes for hazardous environments |
IT202100003821A1 (it) * | 2021-02-19 | 2022-08-19 | Univ Pisa | Procedimento di interazione con oggetti |
US20220355692A1 (en) * | 2021-05-05 | 2022-11-10 | Abb Schweiz Ag | Systems and Methods for Electric Vehicle Charging Using Machine Learning |
GB2616001A (en) * | 2022-02-17 | 2023-08-30 | Roke Manor Res Limited | Remote visual inspection guidance |
US20230286161A1 (en) * | 2022-03-11 | 2023-09-14 | Boston Dynamics, Inc. | Systems and Methods for Robotic Manipulation Using Extended Reality |
CN116823838B (zh) * | 2023-08-31 | 2023-11-14 | 武汉理工大学三亚科教创新园 | 高斯先验标签分配与特征解耦的海洋船舶检测方法与系统 |
Family Cites Families (74)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7082497B2 (en) * | 2001-12-28 | 2006-07-25 | Hewlett-Packard Development Company, L.P. | System and method for managing a moveable media library with library partitions |
JP3834297B2 (ja) * | 2003-05-12 | 2006-10-18 | ファナック株式会社 | 画像処理装置 |
WO2005098729A2 (en) * | 2004-03-27 | 2005-10-20 | Harvey Koselka | Autonomous personal service robot |
JP2005308993A (ja) * | 2004-04-20 | 2005-11-04 | Matsushita Electric Ind Co Ltd | 学習支援システム |
DE102005009437A1 (de) * | 2005-03-02 | 2006-09-07 | Kuka Roboter Gmbh | Verfahren und Vorrichtung zum Einblenden von AR-Objekten |
JP2007026309A (ja) * | 2005-07-20 | 2007-02-01 | Fuji Xerox Co Ltd | 画像形成装置及びその制御方法 |
US7836437B2 (en) * | 2006-02-10 | 2010-11-16 | Microsoft Corporation | Semantic annotations for virtual objects |
JP4320363B2 (ja) * | 2006-05-25 | 2009-08-26 | 豪洋 石崎 | 作業ロボット |
US8121347B2 (en) | 2006-12-12 | 2012-02-21 | Rutgers, The State University Of New Jersey | System and method for detecting and tracking features in images |
JP5037248B2 (ja) * | 2007-07-17 | 2012-09-26 | 株式会社日立製作所 | 情報収集システムおよび情報収集ロボット |
WO2009024349A1 (en) * | 2007-08-22 | 2009-02-26 | Honda Research Institute Europe Gmbh | Estimating objects proper motion using optical flow, kinematics and depth information |
FR2946160B1 (fr) | 2009-05-26 | 2014-05-09 | Aldebaran Robotics | Systeme et procede pour editer et commander des comportements d'un robot mobile. |
JP2013022705A (ja) | 2011-07-25 | 2013-02-04 | Sony Corp | ロボット装置及びロボット装置の制御方法、コンピューター・プログラム、並びにロボット・システム |
US8965580B2 (en) * | 2012-06-21 | 2015-02-24 | Rethink Robotics, Inc. | Training and operating industrial robots |
US9186793B1 (en) * | 2012-08-31 | 2015-11-17 | Brain Corporation | Apparatus and methods for controlling attention of a robot |
US9940553B2 (en) * | 2013-02-22 | 2018-04-10 | Microsoft Technology Licensing, Llc | Camera/object pose from predicted coordinates |
US9542626B2 (en) | 2013-09-06 | 2017-01-10 | Toyota Jidosha Kabushiki Kaisha | Augmenting layer-based object detection with deep convolutional neural networks |
WO2015051815A1 (en) * | 2013-10-07 | 2015-04-16 | Abb Technology Ltd | A method and a device for verifying one or more safety volumes for a movable mechanical unit |
US9259844B2 (en) * | 2014-02-12 | 2016-02-16 | General Electric Company | Vision-guided electromagnetic robotic system |
EP3159121A4 (en) | 2014-06-17 | 2018-05-16 | Yujin Robot Co., Ltd. | Device for updating map of mobile robot and method therefor |
US10518409B2 (en) | 2014-09-02 | 2019-12-31 | Mark Oleynik | Robotic manipulation methods and systems for executing a domain-specific application in an instrumented environment with electronic minimanipulation libraries |
US9579790B2 (en) * | 2014-09-17 | 2017-02-28 | Brain Corporation | Apparatus and methods for removal of learned behaviors in robots |
US9630318B2 (en) * | 2014-10-02 | 2017-04-25 | Brain Corporation | Feature detection apparatus and methods for training of robotic navigation |
JP2016107379A (ja) * | 2014-12-08 | 2016-06-20 | ファナック株式会社 | 拡張現実対応ディスプレイを備えたロボットシステム |
WO2016103065A1 (en) * | 2014-12-23 | 2016-06-30 | Husqvarna Ab | Robotic vehicle with adjustable operating area |
CN104732518B (zh) | 2015-01-19 | 2017-09-01 | 北京工业大学 | 一种基于智能机器人地面特征的ptam改进方法 |
CN104808590B (zh) | 2015-02-14 | 2017-01-25 | 浙江大学 | 一种基于关键帧策略的移动机器人视觉伺服控制方法 |
US9643314B2 (en) * | 2015-03-04 | 2017-05-09 | The Johns Hopkins University | Robot control, training and collaboration in an immersive virtual reality environment |
US9922271B2 (en) | 2015-03-20 | 2018-03-20 | Netra, Inc. | Object detection and classification |
US9868211B2 (en) * | 2015-04-09 | 2018-01-16 | Irobot Corporation | Restricting movement of a mobile robot |
US9646655B2 (en) | 2015-08-31 | 2017-05-09 | Fuji Xerox Co., Ltd. | Systems and methods for interaction-based analysis and visualization of remote collaboration sessions |
EP3408848A4 (en) * | 2016-01-29 | 2019-08-28 | Pointivo Inc. | SYSTEMS AND METHOD FOR EXTRACTING INFORMATION ON OBJECTS FROM SCENE INFORMATION |
JP7009389B2 (ja) * | 2016-05-09 | 2022-01-25 | グラバンゴ コーポレイション | 環境内のコンピュータビジョン駆動型アプリケーションのためのシステムおよび方法 |
CN114967433B (zh) * | 2016-05-20 | 2023-08-18 | 谷歌有限责任公司 | 基于捕获物体的图像的机器学习方法和装置 |
CN106023211B (zh) | 2016-05-24 | 2019-02-26 | 深圳前海勇艺达机器人有限公司 | 基于深度学习的机器人图像定位方法及系统 |
US10105847B1 (en) * | 2016-06-08 | 2018-10-23 | X Development Llc | Detecting and responding to geometric changes to robots |
US10055667B2 (en) * | 2016-08-03 | 2018-08-21 | X Development Llc | Generating a model for an object encountered by a robot |
US9964955B2 (en) | 2016-08-04 | 2018-05-08 | Canvas Technology, Inc. | System and methods of determining a geometric pose of a camera based on spatial and visual mapping |
JP2018055429A (ja) * | 2016-09-29 | 2018-04-05 | ファナック株式会社 | 物体認識装置および物体認識方法 |
US10162360B2 (en) * | 2016-12-01 | 2018-12-25 | GM Global Technology Operations LLC | Vehicle environment imaging systems and methods |
KR101850410B1 (ko) * | 2016-12-26 | 2018-04-20 | 한국생산기술연구원 | 가상 현실 기반 로봇 교시를 위한 시뮬레이션 장치 및 방법 |
JP2018122376A (ja) * | 2017-01-31 | 2018-08-09 | セイコーエプソン株式会社 | 画像処理装置、ロボット制御装置、及びロボット |
EP3585569B1 (en) * | 2017-02-25 | 2023-06-07 | Diligent Robotics, Inc. | Systems, apparatus, and methods for robotic learning and execution of skills |
EP3974934A1 (de) * | 2017-03-02 | 2022-03-30 | Robart GmbH | Verfahren zur steuerung eines autonomen, mobilen roboters |
CN109213306B (zh) * | 2017-06-30 | 2022-02-01 | 沈阳新松机器人自动化股份有限公司 | 一种机器人远程控制平台及其设计方法 |
KR102024092B1 (ko) * | 2017-07-12 | 2019-09-23 | 엘지전자 주식회사 | 이동 로봇 시스템 및 그 제어방법 |
US11345040B2 (en) * | 2017-07-25 | 2022-05-31 | Mbl Limited | Systems and methods for operating a robotic system and executing robotic interactions |
CN107610579A (zh) * | 2017-09-05 | 2018-01-19 | 芜湖瑞思机器人有限公司 | 基于vr系统控制的工业机器人示教系统及其示教方法 |
US10354139B1 (en) * | 2017-09-07 | 2019-07-16 | X Development Llc | Generating and utilizing spatial affordances for an object in robotics applications |
WO2019060787A1 (en) * | 2017-09-21 | 2019-03-28 | Lexset.Ai Llc | DETECTION OF AT LEAST ONE OBJECT IN AN IMAGE, OR A SEQUENCE OF IMAGES, AND DETERMINATION OF A CATEGORY AND AT LEAST ONE DESCRIPTOR FOR EACH OF THESE OBJECTS, GENERATION OF SYNTHETIC LEARNING DATA, AND FORMATION OF A NEURONAL NETWORK USING SYNTHETIC LEARNING DATA |
US10607079B2 (en) * | 2017-09-26 | 2020-03-31 | Toyota Research Institute, Inc. | Systems and methods for generating three dimensional skeleton representations |
CN111448581B (zh) | 2017-10-24 | 2023-12-05 | 巴黎欧莱雅公司 | 使用深层神经网络进行图像处理的系统和方法 |
WO2019089018A1 (en) * | 2017-10-31 | 2019-05-09 | Hewlett-Packard Development Company, L.P. | Mobile robots to generate reference maps for localization |
US10346721B2 (en) * | 2017-11-01 | 2019-07-09 | Salesforce.Com, Inc. | Training a neural network using augmented training datasets |
JP6972962B2 (ja) * | 2017-11-22 | 2021-11-24 | コニカミノルタ株式会社 | 物体追跡装置、物体追跡方法、および、物体追跡プログラム |
US11771283B2 (en) * | 2017-12-06 | 2023-10-03 | BISSELL , Inc. | Method and system for manual control of autonomous floor cleaner |
US10380751B1 (en) * | 2017-12-12 | 2019-08-13 | The Government Of The United States Of America, As Represented By The Secretary Of The Navy | Robot vision in autonomous underwater vehicles using the color shift in underwater imaging |
US10810427B1 (en) * | 2017-12-15 | 2020-10-20 | AI Incorporated | Methods for an autonomous robotic device to identify locations captured in an image |
US10981272B1 (en) * | 2017-12-18 | 2021-04-20 | X Development Llc | Robot grasp learning |
JP6641447B2 (ja) * | 2017-12-26 | 2020-02-05 | キヤノン株式会社 | 撮像装置及びその制御方法、プログラム、記憶媒体 |
US10913154B2 (en) * | 2018-01-02 | 2021-02-09 | General Electric Company | Systems and method for robotic learning of industrial tasks based on human demonstration |
US11097418B2 (en) * | 2018-01-04 | 2021-08-24 | X Development Llc | Grasping of an object by a robot based on grasp strategy determined using machine learning model(s) |
CN108333941A (zh) * | 2018-02-13 | 2018-07-27 | 华南理工大学 | 一种基于混合增强智能的云机器人协作学习方法 |
US11340630B2 (en) * | 2018-03-30 | 2022-05-24 | Brain Corporation | Systems and methods for robust robotic mapping |
CN108619723A (zh) * | 2018-04-18 | 2018-10-09 | 咪咕互动娱乐有限公司 | 一种应用操作的处理方法、装置以及存储介质 |
US10332261B1 (en) * | 2018-04-26 | 2019-06-25 | Capital One Services, Llc | Generating synthetic images as training dataset for a machine learning network |
US11189078B2 (en) * | 2018-06-20 | 2021-11-30 | Google Llc | Automated understanding of three dimensional (3D) scenes for augmented reality applications |
US10636114B2 (en) * | 2018-08-04 | 2020-04-28 | Beijing Jingdong Shangke Information Technology Co., Ltd. | System and method for scan-matching oriented visual slam |
US11030458B2 (en) * | 2018-09-14 | 2021-06-08 | Microsoft Technology Licensing, Llc | Generating synthetic digital assets for a virtual scene including a model of a real-world object |
US10824923B1 (en) * | 2019-01-23 | 2020-11-03 | Facebook Technologies, Llc | System and method for improving localization and object tracking |
US10870204B2 (en) * | 2019-01-25 | 2020-12-22 | Mujin, Inc. | Robotic system control method and controller |
JP7203474B2 (ja) * | 2019-02-20 | 2023-01-13 | 富士フイルム株式会社 | マンモグラフィ装置及びプログラム |
US11288883B2 (en) | 2019-07-23 | 2022-03-29 | Toyota Research Institute, Inc. | Autonomous task performance based on visual embeddings |
US11529737B2 (en) * | 2020-01-30 | 2022-12-20 | Raytheon Company | System and method for using virtual/augmented reality for interaction with collaborative robots in manufacturing or industrial environment |
-
2019
- 2019-09-13 US US16/570,618 patent/US11288883B2/en active Active
- 2019-09-13 US US16/570,852 patent/US11580724B2/en active Active
- 2019-09-13 US US16/570,540 patent/US11694432B2/en active Active
- 2019-09-13 US US16/570,813 patent/US11113526B2/en active Active
-
2020
- 2020-06-05 WO PCT/US2020/036450 patent/WO2021015869A1/en unknown
- 2020-06-05 EP EP20844011.5A patent/EP4004828A4/en active Pending
- 2020-06-05 CN CN202080050025.6A patent/CN114127805A/zh active Pending
- 2020-06-05 JP JP2022503981A patent/JP2022542858A/ja active Pending
- 2020-06-05 JP JP2022503979A patent/JP2022542241A/ja active Pending
- 2020-06-05 CN CN202080050426.1A patent/CN114127806A/zh active Pending
- 2020-06-05 WO PCT/US2020/036428 patent/WO2021015868A1/en unknown
- 2020-06-05 EP EP20844972.8A patent/EP4004670A4/en active Pending
- 2020-06-10 CN CN202080050040.0A patent/CN114097004A/zh active Pending
- 2020-06-10 JP JP2022503936A patent/JP2022542239A/ja active Pending
- 2020-06-10 EP EP20844806.8A patent/EP4003668A4/en active Pending
- 2020-06-10 WO PCT/US2020/037025 patent/WO2021015883A1/en unknown
- 2020-07-22 EP EP20843022.3A patent/EP4003666A4/en active Pending
- 2020-07-22 WO PCT/US2020/043144 patent/WO2021016394A1/en unknown
- 2020-07-22 CN CN202080050023.7A patent/CN114080583B/zh active Active
- 2020-07-22 JP JP2022503980A patent/JP2022544007A/ja active Pending
-
2022
- 2022-02-08 US US17/667,217 patent/US11741701B2/en active Active
-
2023
- 2023-01-18 US US18/098,625 patent/US20230154015A1/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6961797B2 (ja) | プレビュー写真をぼかすための方法および装置ならびにストレージ媒体 | |
US10430650B2 (en) | Image processing system | |
JP2019028843A (ja) | 人物の視線方向を推定するための情報処理装置及び推定方法、並びに学習装置及び学習方法 | |
US9734612B2 (en) | Region detection device, region detection method, image processing apparatus, image processing method, program, and recording medium | |
KR20150055543A (ko) | 제스처 인식 장치 및 제스처 인식 장치의 제어 방법 | |
JP2020161129A5 (ja) | ||
JPWO2021015883A5 (ja) | ||
JP2014137756A5 (ja) | ||
US9268408B2 (en) | Operating area determination method and system | |
JP7377627B2 (ja) | 物体検出装置、物体把持システム、物体検出方法及び物体検出プログラム | |
US10207409B2 (en) | Image processing method, image processing device, and robot system | |
JP2017120672A5 (ja) | 画像処理装置、画像処理システム、および画像処理方法 | |
JP2019020778A5 (ja) | ||
KR20150106824A (ko) | 제스처 인식 장치 및 제스처 인식 장치의 제어 방법 | |
JP2016178608A5 (ja) | ||
US20220012514A1 (en) | Identification information assignment apparatus, identification information assignment method, and program | |
JP2006021300A (ja) | 推定装置および把持装置 | |
JP7359577B2 (ja) | ロボット教示装置及びロボットシステム | |
JP2019211981A5 (ja) | ||
JPWO2021015869A5 (ja) | ||
JPWO2021016394A5 (ja) | ||
US20230150142A1 (en) | Device and method for training a machine learning model for generating descriptor images for images of objects | |
JP2014144516A (ja) | ロボット制御装置、ロボットシステム、ロボット、制御方法及びプログラム | |
JP2021108022A5 (ja) | ||
US11138684B2 (en) | Image processing apparatus, image processing method, and robot system |