JPWO2021015869A5 - - Google Patents
Download PDFInfo
- Publication number
- JPWO2021015869A5 JPWO2021015869A5 JP2022503981A JP2022503981A JPWO2021015869A5 JP WO2021015869 A5 JPWO2021015869 A5 JP WO2021015869A5 JP 2022503981 A JP2022503981 A JP 2022503981A JP 2022503981 A JP2022503981 A JP 2022503981A JP WO2021015869 A5 JPWO2021015869 A5 JP WO2021015869A5
- Authority
- JP
- Japan
- Prior art keywords
- images
- image
- program code
- manipulated
- pair
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Description
特許請求の範囲は上記に示された正確な構成及び構成要素に限定されないことが理解されるべきである。上に説明した方法及び装置の配置、操作、並びに詳細に対して、特許請求の範囲から逸脱せずに、様々な修正、変更及び変形がなされ得る。
本明細書に開示される発明は以下の態様を含む。
〔態様1〕
訓練環境においてロボット装置の3Dカメラを使用して撮影した画像を使用して3Dモデルを構成することと、
前記訓練環境のパラメーターを人工的に調整し、前記3Dモデルから3D画像のペアを生成することにより、ディープニューラルネットワークを使用して操作画像を形成することと、
前記3D画像のペア間に共通する物体の埋め込みディスクリプタを含む参照画像を形成するために前記3D画像のペアを処理すること、
未来の画像中の検出物体を識別して相関性を判断するためにニューラルネットワークの訓練時からの前記参照画像を使用することと、
を含む、ロボット装置のディープニューラルネットワークを訓練する方法。
〔態様2〕
前記3D画像のペアの生成は、
リンクされた要素にて3D画像をペアリングすることと、
前記3D画像のペア間でリンクされた要素を操作して異なる物体アーティキュレーションを有する風景を作成することと、
を含む、態様1に記載の方法。
〔態様3〕
パラメーターの人工的な調整は、
オリジナル3D画像と操作済3D画像との間の物体アーティキュレーションを変更することを含む、
態様1に記載の方法。
〔態様4〕
前記物体アーティキュレーションの変更は、
前記オリジナル3D画像と前記操作済3D画像との間の照明を変更することを含む、
態様3に記載の方法。
〔態様5〕
前記物体アーティキュレーションの変更は、
前記オリジナル3D画像と前記操作済3D画像との間の視角を変更することを含む、
態様3に記載の方法。
〔態様6〕
未知の環境における変形、物体アーティキュレーション、視角、照明に関わらず操作され得る未知の環境中の物体を識別することと、
識別物体を操作することと、
を更に含む、態様1に記載の方法。
〔態様7〕
未知の環境中の物体を検出することと、
画像撮影環境のパラメーターを人工的に調整することにより操作される訓練された物体に対応する埋め込みディスクリプタを含む対応する参照画像を選択することと、
前記対応する参照画像の前記埋め込みディスクリプタに基づいて検出物体を識別することと、
を含む、未知の環境における検出物体の識別に基づいたロボット装置の制御方法。
〔態様8〕
一定期間識別物体を追従することを更に含む、態様7に記載の方法。
〔態様9〕
識別物体が操作され得ることを判断することと、
前記識別物体を操作することと、
を更に含む、態様7に記載の方法。
〔態様10〕
前記対応する参照画像を風景の撮影画像に重ねることと、
前記対応する参照画像と前記撮影画像との間の点の対応関係に基づいて前記検出物体の識別を決定することと、
を更に含む、態様7に記載の方法。
〔態様11〕
ロボット装置のディープニューラルネットワークを訓練するためのプログラムコードを記録した非一時的なコンピュータ可読媒体であって、
前記プログラムコードはプロセッサにより実行され、
前記ディープニューラルネットワークを使用して操作画像を形成するために訓練環境のパラメーターを人工的に調整して3Dモデルから3D画像のペアを生成するプログラムコードと、
前記3D画像のペア間に共通する物体の埋め込みディスクリプタを含む参照画像を形成するために前記3D画像のペアを処理するプログラムコードと、
未来の画像中の検出物体を識別して相関性を判断するためにニューラルネットワークの訓練中からの前記参照画像を使用するプログラムコードと、
を含む、非一時的なコンピュータ可読媒体。
〔態様12〕
前記3D画像のペアを生成するための前記プログラムコードは、
リンクされた要素にて3D画像をペアリングするプログラムコードと、
前記ペアの3D画像間でリンクされた要素を操作して異なる物体アーティキュレーションを有する風景を作成するプログラムコードと、
を含む、態様11に記載の非一時的なコンピュータ可読媒体。
〔態様13〕
前記3D画像のペアを生成するための前記プログラムコードは、
オリジナル3D画像と操作済3D画像との間の物体アーティキュレーションを変更するプログラムコードを含む、
態様11に記載の非一時的なコンピュータ可読媒体。
〔態様14〕
物体アーティキュレーションを変更するための前記プログラムコードは、
前記オリジナル3D画像と前記操作済3D画像との間の照明を変更するプログラムコードを含む、
態様13に記載の非一時的なコンピュータ可読媒体。
〔態様15〕
前記物体アーティキュレーションを変更するための前記プログラムコードは、
前記オリジナル3D画像と前記操作済3D画像との間の視角を変更するプログラムコードを含む、
態様13に記載の非一時的なコンピュータ可読媒体。
〔態様16〕
撮影画像中の検出物体を識別するために対応する参照画像を選択するように構成された予め訓練された物体識別モジュールを備え、前記対応する参照画像は画像撮影環境の人工的に調整されたパラメーターにより操作される訓練された物体に基づいた埋め込みディスクリプタを含み、
前記検出物体のアイデンティティに基づいてロボット装置の自律動作を選択するように構成されたコントローラを備える、
未知の環境における検出物体の識別に基づいてロボット装置を制御するためのシステム。
〔態様17〕
前記予め訓練された物体識別モジュールは識別物体を一定期間に渡って追跡するように構成されている、態様16に記載のシステム。
〔態様18〕
前記コントローラは更に識別物体を操作するように構成されている、態様16に記載のシステム。
〔態様19〕
前記予め訓練された物体識別モジュールは、前記対応する参照画像を風景の撮影画像に重ね合わせ、前記対応する参照画像と前記撮影画像との間の点の対応関係に基づいて前記検出物体の識別を決定するように構成されている、態様16に記載のシステム。
〔態様20〕
前記予め訓練された物体識別モジュールは未来の画像中の前記検出物体を識別する相関性に基づいて前記対応する参照画像と撮影画像との間で共通する物体を検出するように構成されている、態様16に記載のシステム。
本明細書に開示される発明は以下の態様を含む。
〔態様1〕
訓練環境においてロボット装置の3Dカメラを使用して撮影した画像を使用して3Dモデルを構成することと、
前記訓練環境のパラメーターを人工的に調整し、前記3Dモデルから3D画像のペアを生成することにより、ディープニューラルネットワークを使用して操作画像を形成することと、
前記3D画像のペア間に共通する物体の埋め込みディスクリプタを含む参照画像を形成するために前記3D画像のペアを処理すること、
未来の画像中の検出物体を識別して相関性を判断するためにニューラルネットワークの訓練時からの前記参照画像を使用することと、
を含む、ロボット装置のディープニューラルネットワークを訓練する方法。
〔態様2〕
前記3D画像のペアの生成は、
リンクされた要素にて3D画像をペアリングすることと、
前記3D画像のペア間でリンクされた要素を操作して異なる物体アーティキュレーションを有する風景を作成することと、
を含む、態様1に記載の方法。
〔態様3〕
パラメーターの人工的な調整は、
オリジナル3D画像と操作済3D画像との間の物体アーティキュレーションを変更することを含む、
態様1に記載の方法。
〔態様4〕
前記物体アーティキュレーションの変更は、
前記オリジナル3D画像と前記操作済3D画像との間の照明を変更することを含む、
態様3に記載の方法。
〔態様5〕
前記物体アーティキュレーションの変更は、
前記オリジナル3D画像と前記操作済3D画像との間の視角を変更することを含む、
態様3に記載の方法。
〔態様6〕
未知の環境における変形、物体アーティキュレーション、視角、照明に関わらず操作され得る未知の環境中の物体を識別することと、
識別物体を操作することと、
を更に含む、態様1に記載の方法。
〔態様7〕
未知の環境中の物体を検出することと、
画像撮影環境のパラメーターを人工的に調整することにより操作される訓練された物体に対応する埋め込みディスクリプタを含む対応する参照画像を選択することと、
前記対応する参照画像の前記埋め込みディスクリプタに基づいて検出物体を識別することと、
を含む、未知の環境における検出物体の識別に基づいたロボット装置の制御方法。
〔態様8〕
一定期間識別物体を追従することを更に含む、態様7に記載の方法。
〔態様9〕
識別物体が操作され得ることを判断することと、
前記識別物体を操作することと、
を更に含む、態様7に記載の方法。
〔態様10〕
前記対応する参照画像を風景の撮影画像に重ねることと、
前記対応する参照画像と前記撮影画像との間の点の対応関係に基づいて前記検出物体の識別を決定することと、
を更に含む、態様7に記載の方法。
〔態様11〕
ロボット装置のディープニューラルネットワークを訓練するためのプログラムコードを記録した非一時的なコンピュータ可読媒体であって、
前記プログラムコードはプロセッサにより実行され、
前記ディープニューラルネットワークを使用して操作画像を形成するために訓練環境のパラメーターを人工的に調整して3Dモデルから3D画像のペアを生成するプログラムコードと、
前記3D画像のペア間に共通する物体の埋め込みディスクリプタを含む参照画像を形成するために前記3D画像のペアを処理するプログラムコードと、
未来の画像中の検出物体を識別して相関性を判断するためにニューラルネットワークの訓練中からの前記参照画像を使用するプログラムコードと、
を含む、非一時的なコンピュータ可読媒体。
〔態様12〕
前記3D画像のペアを生成するための前記プログラムコードは、
リンクされた要素にて3D画像をペアリングするプログラムコードと、
前記ペアの3D画像間でリンクされた要素を操作して異なる物体アーティキュレーションを有する風景を作成するプログラムコードと、
を含む、態様11に記載の非一時的なコンピュータ可読媒体。
〔態様13〕
前記3D画像のペアを生成するための前記プログラムコードは、
オリジナル3D画像と操作済3D画像との間の物体アーティキュレーションを変更するプログラムコードを含む、
態様11に記載の非一時的なコンピュータ可読媒体。
〔態様14〕
物体アーティキュレーションを変更するための前記プログラムコードは、
前記オリジナル3D画像と前記操作済3D画像との間の照明を変更するプログラムコードを含む、
態様13に記載の非一時的なコンピュータ可読媒体。
〔態様15〕
前記物体アーティキュレーションを変更するための前記プログラムコードは、
前記オリジナル3D画像と前記操作済3D画像との間の視角を変更するプログラムコードを含む、
態様13に記載の非一時的なコンピュータ可読媒体。
〔態様16〕
撮影画像中の検出物体を識別するために対応する参照画像を選択するように構成された予め訓練された物体識別モジュールを備え、前記対応する参照画像は画像撮影環境の人工的に調整されたパラメーターにより操作される訓練された物体に基づいた埋め込みディスクリプタを含み、
前記検出物体のアイデンティティに基づいてロボット装置の自律動作を選択するように構成されたコントローラを備える、
未知の環境における検出物体の識別に基づいてロボット装置を制御するためのシステム。
〔態様17〕
前記予め訓練された物体識別モジュールは識別物体を一定期間に渡って追跡するように構成されている、態様16に記載のシステム。
〔態様18〕
前記コントローラは更に識別物体を操作するように構成されている、態様16に記載のシステム。
〔態様19〕
前記予め訓練された物体識別モジュールは、前記対応する参照画像を風景の撮影画像に重ね合わせ、前記対応する参照画像と前記撮影画像との間の点の対応関係に基づいて前記検出物体の識別を決定するように構成されている、態様16に記載のシステム。
〔態様20〕
前記予め訓練された物体識別モジュールは未来の画像中の前記検出物体を識別する相関性に基づいて前記対応する参照画像と撮影画像との間で共通する物体を検出するように構成されている、態様16に記載のシステム。
Claims (15)
- 訓練環境においてロボット装置の3Dカメラを介して撮影した画像を使用して3Dモデルを構成することと、
前記訓練環境のパラメーターを人工的に調整し、前記3Dモデルから3D画像のペアを生成することにより、ディープニューラルネットワークを使用して操作画像を形成することと、
前記3D画像のペア間に共通する物体の埋め込みディスクリプタを含む参照画像を形成するために前記3D画像のペアを処理することと、
未来の画像中の検出物体を識別して相関性を判断するためにニューラルネットワークの訓練時からの前記参照画像を使用することと、
を含む、ロボット装置のディープニューラルネットワークを訓練する方法。 - 前記3D画像のペアの生成は、
リンクされた要素にて3D画像をペアリングすることと、
前記3D画像のペア間でリンクされた要素を操作して異なる物体アーティキュレーションを有する風景を作成することと、
を含む、請求項1に記載の方法。 - パラメーターの人工的な調整は、
オリジナル3D画像と操作済3D画像との間の物体アーティキュレーションを変更することを含む、
請求項1に記載の方法。 - 前記物体アーティキュレーションの変更は、
前記オリジナル3D画像と前記操作済3D画像との間の照明を変更することを含む、
請求項3に記載の方法。 - 前記物体アーティキュレーションの変更は、
前記オリジナル3D画像と前記操作済3D画像との間の視角を変更することを含む、
請求項3に記載の方法。 - 未知の環境における変形、物体アーティキュレーション、視角、照明に関わらず操作され得る未知の環境中の物体を識別することと、
識別物体を操作することと、
を更に含む、請求項1に記載の方法。 - 未知の環境中の物体を検出することと、
画像撮影環境のパラメーターを人工的に調整することにより操作される訓練された物体に対応する埋め込みディスクリプタを含む対応する参照画像を選択することと、
前記対応する参照画像の前記埋め込みディスクリプタに基づいて検出物体を識別することと、
を含む、未知の環境における検出物体の識別に基づいたロボット装置の制御方法。 - 一定期間識別物体を追従することを更に含む、請求項7に記載の方法。
- 識別物体が操作され得ることを判断することと、
前記識別物体を操作することと、
を更に含む、請求項7に記載の方法。 - 前記対応する参照画像を風景の撮影画像に重ねることと、
前記対応する参照画像と前記撮影画像との間の点の対応関係に基づいて前記検出物体の識別を決定することと、
を更に含む、請求項7に記載の方法。 - ロボット装置のディープニューラルネットワークを訓練するためのプログラムコードを記録した非一時的なコンピュータ可読媒体であって、
前記プログラムコードはプロセッサにより実行され、
前記ディープニューラルネットワークを使用して操作画像を形成するために訓練環境のパラメーターを人工的に調整して3Dモデルから3D画像のペアを生成するプログラムコードと、
前記3D画像のペア間に共通する物体の埋め込みディスクリプタを含む参照画像を形成するために前記3D画像のペアを処理するプログラムコードと、
未来の画像中の検出物体を識別して相関性を判断するためにニューラルネットワークの訓練中からの前記参照画像を使用するプログラムコードと、
を含む、非一時的なコンピュータ可読媒体。 - 前記3D画像のペアを生成するための前記プログラムコードは,
リンクされた要素にて3D画像をペアリングするプログラムコードと、
前記ペアの3D画像間でリンクされた要素を操作して異なる物体アーティキュレーションを有する風景を作成するプログラムコードと、
を含む、請求項11に記載の非一時的なコンピュータ可読媒体。 - 前記3D画像のペアを生成するための前記プログラムコードは,
オリジナル3D画像と操作済3D画像との間の物体アーティキュレーションを変更するプログラムコードを含む、
請求項11に記載の非一時的なコンピュータ可読媒体。 - 物体アーティキュレーションを変更するための前記プログラムコードは、
前記オリジナル3D画像と前記操作済3D画像との間の照明を変更するプログラムコードを含む、
請求項13に記載の非一時的なコンピュータ可読媒体。 - 撮影画像中の検出物体を識別するために対応する参照画像を選択するように構成された予め訓練された物体識別モジュールを備え、前記対応する参照画像は画像撮影環境の人工的に調整されたパラメーターにより操作される訓練された物体に基づいた埋め込みディスクリプタを含み、
前記検出物体のアイデンティティに基づいてロボット装置の自律動作を選択するように構成されたコントローラを備える、
未知の環境における検出物体の識別に基づいてロボット装置を制御するためのシステム。
Applications Claiming Priority (9)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962877792P | 2019-07-23 | 2019-07-23 | |
US201962877793P | 2019-07-23 | 2019-07-23 | |
US201962877791P | 2019-07-23 | 2019-07-23 | |
US62/877,793 | 2019-07-23 | ||
US62/877,792 | 2019-07-23 | ||
US62/877,791 | 2019-07-23 | ||
US16/570,813 US11113526B2 (en) | 2019-07-23 | 2019-09-13 | Training methods for deep networks |
US16/570,813 | 2019-09-13 | ||
PCT/US2020/036450 WO2021015869A1 (en) | 2019-07-23 | 2020-06-05 | Training methods for deep networks |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022542858A JP2022542858A (ja) | 2022-10-07 |
JPWO2021015869A5 true JPWO2021015869A5 (ja) | 2023-06-12 |
Family
ID=74189690
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022503981A Pending JP2022542858A (ja) | 2019-07-23 | 2020-06-05 | ディープネットワークの訓練方法 |
JP2022503979A Pending JP2022542241A (ja) | 2019-07-23 | 2020-06-05 | ロボット装置からの視覚的出力を補強するシステム及び方法 |
JP2022503936A Pending JP2022542239A (ja) | 2019-07-23 | 2020-06-10 | 視角エンベディングに基づいた自律タスク実行 |
JP2022503980A Pending JP2022544007A (ja) | 2019-07-23 | 2020-07-22 | 移動操作システムの視覚的教示と繰り返し |
Family Applications After (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022503979A Pending JP2022542241A (ja) | 2019-07-23 | 2020-06-05 | ロボット装置からの視覚的出力を補強するシステム及び方法 |
JP2022503936A Pending JP2022542239A (ja) | 2019-07-23 | 2020-06-10 | 視角エンベディングに基づいた自律タスク実行 |
JP2022503980A Pending JP2022544007A (ja) | 2019-07-23 | 2020-07-22 | 移動操作システムの視覚的教示と繰り返し |
Country Status (5)
Country | Link |
---|---|
US (6) | US11288883B2 (ja) |
EP (4) | EP4004828A4 (ja) |
JP (4) | JP2022542858A (ja) |
CN (4) | CN114127805A (ja) |
WO (4) | WO2021015869A1 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11288883B2 (en) | 2019-07-23 | 2022-03-29 | Toyota Research Institute, Inc. | Autonomous task performance based on visual embeddings |
US11685045B1 (en) * | 2019-09-09 | 2023-06-27 | X Development Llc | Asynchronous robotic control using most recently selected robotic action data |
US20210101280A1 (en) * | 2019-10-02 | 2021-04-08 | Baker Hughes Oilfield Operations, Llc | Telemetry harvesting and analysis from extended reality streaming |
US11328170B2 (en) * | 2020-02-19 | 2022-05-10 | Toyota Research Institute, Inc. | Unknown object identification for robotic device |
US11813748B2 (en) * | 2020-10-13 | 2023-11-14 | Google Llc | Simulating multiple robots in virtual environments |
US20220197277A1 (en) * | 2020-12-23 | 2022-06-23 | Qatar Foundation For Education, Science And Community Development | Telepresence control schemes for hazardous environments |
IT202100003821A1 (it) * | 2021-02-19 | 2022-08-19 | Univ Pisa | Procedimento di interazione con oggetti |
US20220355692A1 (en) * | 2021-05-05 | 2022-11-10 | Abb Schweiz Ag | Systems and Methods for Electric Vehicle Charging Using Machine Learning |
GB2616001A (en) * | 2022-02-17 | 2023-08-30 | Roke Manor Res Limited | Remote visual inspection guidance |
US20230286161A1 (en) * | 2022-03-11 | 2023-09-14 | Boston Dynamics, Inc. | Systems and Methods for Robotic Manipulation Using Extended Reality |
CN116823838B (zh) * | 2023-08-31 | 2023-11-14 | 武汉理工大学三亚科教创新园 | 高斯先验标签分配与特征解耦的海洋船舶检测方法与系统 |
Family Cites Families (74)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7082497B2 (en) * | 2001-12-28 | 2006-07-25 | Hewlett-Packard Development Company, L.P. | System and method for managing a moveable media library with library partitions |
JP3834297B2 (ja) * | 2003-05-12 | 2006-10-18 | ファナック株式会社 | 画像処理装置 |
WO2005098729A2 (en) * | 2004-03-27 | 2005-10-20 | Harvey Koselka | Autonomous personal service robot |
JP2005308993A (ja) * | 2004-04-20 | 2005-11-04 | Matsushita Electric Ind Co Ltd | 学習支援システム |
DE102005009437A1 (de) * | 2005-03-02 | 2006-09-07 | Kuka Roboter Gmbh | Verfahren und Vorrichtung zum Einblenden von AR-Objekten |
JP2007026309A (ja) * | 2005-07-20 | 2007-02-01 | Fuji Xerox Co Ltd | 画像形成装置及びその制御方法 |
US7836437B2 (en) * | 2006-02-10 | 2010-11-16 | Microsoft Corporation | Semantic annotations for virtual objects |
JP4320363B2 (ja) * | 2006-05-25 | 2009-08-26 | 豪洋 石崎 | 作業ロボット |
US8121347B2 (en) | 2006-12-12 | 2012-02-21 | Rutgers, The State University Of New Jersey | System and method for detecting and tracking features in images |
JP5037248B2 (ja) * | 2007-07-17 | 2012-09-26 | 株式会社日立製作所 | 情報収集システムおよび情報収集ロボット |
WO2009024349A1 (en) * | 2007-08-22 | 2009-02-26 | Honda Research Institute Europe Gmbh | Estimating objects proper motion using optical flow, kinematics and depth information |
FR2946160B1 (fr) | 2009-05-26 | 2014-05-09 | Aldebaran Robotics | Systeme et procede pour editer et commander des comportements d'un robot mobile. |
JP2013022705A (ja) | 2011-07-25 | 2013-02-04 | Sony Corp | ロボット装置及びロボット装置の制御方法、コンピューター・プログラム、並びにロボット・システム |
US8965580B2 (en) * | 2012-06-21 | 2015-02-24 | Rethink Robotics, Inc. | Training and operating industrial robots |
US9186793B1 (en) * | 2012-08-31 | 2015-11-17 | Brain Corporation | Apparatus and methods for controlling attention of a robot |
US9940553B2 (en) * | 2013-02-22 | 2018-04-10 | Microsoft Technology Licensing, Llc | Camera/object pose from predicted coordinates |
US9542626B2 (en) | 2013-09-06 | 2017-01-10 | Toyota Jidosha Kabushiki Kaisha | Augmenting layer-based object detection with deep convolutional neural networks |
WO2015051815A1 (en) * | 2013-10-07 | 2015-04-16 | Abb Technology Ltd | A method and a device for verifying one or more safety volumes for a movable mechanical unit |
US9259844B2 (en) * | 2014-02-12 | 2016-02-16 | General Electric Company | Vision-guided electromagnetic robotic system |
EP3159121A4 (en) | 2014-06-17 | 2018-05-16 | Yujin Robot Co., Ltd. | Device for updating map of mobile robot and method therefor |
US10518409B2 (en) | 2014-09-02 | 2019-12-31 | Mark Oleynik | Robotic manipulation methods and systems for executing a domain-specific application in an instrumented environment with electronic minimanipulation libraries |
US9579790B2 (en) * | 2014-09-17 | 2017-02-28 | Brain Corporation | Apparatus and methods for removal of learned behaviors in robots |
US9630318B2 (en) * | 2014-10-02 | 2017-04-25 | Brain Corporation | Feature detection apparatus and methods for training of robotic navigation |
JP2016107379A (ja) * | 2014-12-08 | 2016-06-20 | ファナック株式会社 | 拡張現実対応ディスプレイを備えたロボットシステム |
WO2016103065A1 (en) * | 2014-12-23 | 2016-06-30 | Husqvarna Ab | Robotic vehicle with adjustable operating area |
CN104732518B (zh) | 2015-01-19 | 2017-09-01 | 北京工业大学 | 一种基于智能机器人地面特征的ptam改进方法 |
CN104808590B (zh) | 2015-02-14 | 2017-01-25 | 浙江大学 | 一种基于关键帧策略的移动机器人视觉伺服控制方法 |
US9643314B2 (en) * | 2015-03-04 | 2017-05-09 | The Johns Hopkins University | Robot control, training and collaboration in an immersive virtual reality environment |
US9922271B2 (en) | 2015-03-20 | 2018-03-20 | Netra, Inc. | Object detection and classification |
US9868211B2 (en) * | 2015-04-09 | 2018-01-16 | Irobot Corporation | Restricting movement of a mobile robot |
US9646655B2 (en) | 2015-08-31 | 2017-05-09 | Fuji Xerox Co., Ltd. | Systems and methods for interaction-based analysis and visualization of remote collaboration sessions |
EP3408848A4 (en) * | 2016-01-29 | 2019-08-28 | Pointivo Inc. | SYSTEMS AND METHOD FOR EXTRACTING INFORMATION ON OBJECTS FROM SCENE INFORMATION |
JP7009389B2 (ja) * | 2016-05-09 | 2022-01-25 | グラバンゴ コーポレイション | 環境内のコンピュータビジョン駆動型アプリケーションのためのシステムおよび方法 |
CN114967433B (zh) * | 2016-05-20 | 2023-08-18 | 谷歌有限责任公司 | 基于捕获物体的图像的机器学习方法和装置 |
CN106023211B (zh) | 2016-05-24 | 2019-02-26 | 深圳前海勇艺达机器人有限公司 | 基于深度学习的机器人图像定位方法及系统 |
US10105847B1 (en) * | 2016-06-08 | 2018-10-23 | X Development Llc | Detecting and responding to geometric changes to robots |
US10055667B2 (en) * | 2016-08-03 | 2018-08-21 | X Development Llc | Generating a model for an object encountered by a robot |
US9964955B2 (en) | 2016-08-04 | 2018-05-08 | Canvas Technology, Inc. | System and methods of determining a geometric pose of a camera based on spatial and visual mapping |
JP2018055429A (ja) * | 2016-09-29 | 2018-04-05 | ファナック株式会社 | 物体認識装置および物体認識方法 |
US10162360B2 (en) * | 2016-12-01 | 2018-12-25 | GM Global Technology Operations LLC | Vehicle environment imaging systems and methods |
KR101850410B1 (ko) * | 2016-12-26 | 2018-04-20 | 한국생산기술연구원 | 가상 현실 기반 로봇 교시를 위한 시뮬레이션 장치 및 방법 |
JP2018122376A (ja) * | 2017-01-31 | 2018-08-09 | セイコーエプソン株式会社 | 画像処理装置、ロボット制御装置、及びロボット |
EP3585569B1 (en) * | 2017-02-25 | 2023-06-07 | Diligent Robotics, Inc. | Systems, apparatus, and methods for robotic learning and execution of skills |
EP3974934A1 (de) * | 2017-03-02 | 2022-03-30 | Robart GmbH | Verfahren zur steuerung eines autonomen, mobilen roboters |
CN109213306B (zh) * | 2017-06-30 | 2022-02-01 | 沈阳新松机器人自动化股份有限公司 | 一种机器人远程控制平台及其设计方法 |
KR102024092B1 (ko) * | 2017-07-12 | 2019-09-23 | 엘지전자 주식회사 | 이동 로봇 시스템 및 그 제어방법 |
US11345040B2 (en) * | 2017-07-25 | 2022-05-31 | Mbl Limited | Systems and methods for operating a robotic system and executing robotic interactions |
CN107610579A (zh) * | 2017-09-05 | 2018-01-19 | 芜湖瑞思机器人有限公司 | 基于vr系统控制的工业机器人示教系统及其示教方法 |
US10354139B1 (en) * | 2017-09-07 | 2019-07-16 | X Development Llc | Generating and utilizing spatial affordances for an object in robotics applications |
WO2019060787A1 (en) * | 2017-09-21 | 2019-03-28 | Lexset.Ai Llc | DETECTION OF AT LEAST ONE OBJECT IN AN IMAGE, OR A SEQUENCE OF IMAGES, AND DETERMINATION OF A CATEGORY AND AT LEAST ONE DESCRIPTOR FOR EACH OF THESE OBJECTS, GENERATION OF SYNTHETIC LEARNING DATA, AND FORMATION OF A NEURONAL NETWORK USING SYNTHETIC LEARNING DATA |
US10607079B2 (en) * | 2017-09-26 | 2020-03-31 | Toyota Research Institute, Inc. | Systems and methods for generating three dimensional skeleton representations |
CN111448581B (zh) | 2017-10-24 | 2023-12-05 | 巴黎欧莱雅公司 | 使用深层神经网络进行图像处理的系统和方法 |
WO2019089018A1 (en) * | 2017-10-31 | 2019-05-09 | Hewlett-Packard Development Company, L.P. | Mobile robots to generate reference maps for localization |
US10346721B2 (en) * | 2017-11-01 | 2019-07-09 | Salesforce.Com, Inc. | Training a neural network using augmented training datasets |
JP6972962B2 (ja) * | 2017-11-22 | 2021-11-24 | コニカミノルタ株式会社 | 物体追跡装置、物体追跡方法、および、物体追跡プログラム |
US11771283B2 (en) * | 2017-12-06 | 2023-10-03 | BISSELL , Inc. | Method and system for manual control of autonomous floor cleaner |
US10380751B1 (en) * | 2017-12-12 | 2019-08-13 | The Government Of The United States Of America, As Represented By The Secretary Of The Navy | Robot vision in autonomous underwater vehicles using the color shift in underwater imaging |
US10810427B1 (en) * | 2017-12-15 | 2020-10-20 | AI Incorporated | Methods for an autonomous robotic device to identify locations captured in an image |
US10981272B1 (en) * | 2017-12-18 | 2021-04-20 | X Development Llc | Robot grasp learning |
JP6641447B2 (ja) * | 2017-12-26 | 2020-02-05 | キヤノン株式会社 | 撮像装置及びその制御方法、プログラム、記憶媒体 |
US10913154B2 (en) * | 2018-01-02 | 2021-02-09 | General Electric Company | Systems and method for robotic learning of industrial tasks based on human demonstration |
US11097418B2 (en) * | 2018-01-04 | 2021-08-24 | X Development Llc | Grasping of an object by a robot based on grasp strategy determined using machine learning model(s) |
CN108333941A (zh) * | 2018-02-13 | 2018-07-27 | 华南理工大学 | 一种基于混合增强智能的云机器人协作学习方法 |
US11340630B2 (en) * | 2018-03-30 | 2022-05-24 | Brain Corporation | Systems and methods for robust robotic mapping |
CN108619723A (zh) * | 2018-04-18 | 2018-10-09 | 咪咕互动娱乐有限公司 | 一种应用操作的处理方法、装置以及存储介质 |
US10332261B1 (en) * | 2018-04-26 | 2019-06-25 | Capital One Services, Llc | Generating synthetic images as training dataset for a machine learning network |
US11189078B2 (en) * | 2018-06-20 | 2021-11-30 | Google Llc | Automated understanding of three dimensional (3D) scenes for augmented reality applications |
US10636114B2 (en) * | 2018-08-04 | 2020-04-28 | Beijing Jingdong Shangke Information Technology Co., Ltd. | System and method for scan-matching oriented visual slam |
US11030458B2 (en) * | 2018-09-14 | 2021-06-08 | Microsoft Technology Licensing, Llc | Generating synthetic digital assets for a virtual scene including a model of a real-world object |
US10824923B1 (en) * | 2019-01-23 | 2020-11-03 | Facebook Technologies, Llc | System and method for improving localization and object tracking |
US10870204B2 (en) * | 2019-01-25 | 2020-12-22 | Mujin, Inc. | Robotic system control method and controller |
JP7203474B2 (ja) * | 2019-02-20 | 2023-01-13 | 富士フイルム株式会社 | マンモグラフィ装置及びプログラム |
US11288883B2 (en) | 2019-07-23 | 2022-03-29 | Toyota Research Institute, Inc. | Autonomous task performance based on visual embeddings |
US11529737B2 (en) * | 2020-01-30 | 2022-12-20 | Raytheon Company | System and method for using virtual/augmented reality for interaction with collaborative robots in manufacturing or industrial environment |
-
2019
- 2019-09-13 US US16/570,618 patent/US11288883B2/en active Active
- 2019-09-13 US US16/570,852 patent/US11580724B2/en active Active
- 2019-09-13 US US16/570,540 patent/US11694432B2/en active Active
- 2019-09-13 US US16/570,813 patent/US11113526B2/en active Active
-
2020
- 2020-06-05 WO PCT/US2020/036450 patent/WO2021015869A1/en unknown
- 2020-06-05 EP EP20844011.5A patent/EP4004828A4/en active Pending
- 2020-06-05 CN CN202080050025.6A patent/CN114127805A/zh active Pending
- 2020-06-05 JP JP2022503981A patent/JP2022542858A/ja active Pending
- 2020-06-05 JP JP2022503979A patent/JP2022542241A/ja active Pending
- 2020-06-05 CN CN202080050426.1A patent/CN114127806A/zh active Pending
- 2020-06-05 WO PCT/US2020/036428 patent/WO2021015868A1/en unknown
- 2020-06-05 EP EP20844972.8A patent/EP4004670A4/en active Pending
- 2020-06-10 CN CN202080050040.0A patent/CN114097004A/zh active Pending
- 2020-06-10 JP JP2022503936A patent/JP2022542239A/ja active Pending
- 2020-06-10 EP EP20844806.8A patent/EP4003668A4/en active Pending
- 2020-06-10 WO PCT/US2020/037025 patent/WO2021015883A1/en unknown
- 2020-07-22 EP EP20843022.3A patent/EP4003666A4/en active Pending
- 2020-07-22 WO PCT/US2020/043144 patent/WO2021016394A1/en unknown
- 2020-07-22 CN CN202080050023.7A patent/CN114080583B/zh active Active
- 2020-07-22 JP JP2022503980A patent/JP2022544007A/ja active Pending
-
2022
- 2022-02-08 US US17/667,217 patent/US11741701B2/en active Active
-
2023
- 2023-01-18 US US18/098,625 patent/US20230154015A1/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10162308B2 (en) | Methods and systems for photorealistic human holographic augmented reality communication with interactive control in real-time | |
CN105979134B (zh) | 图像处理装置、图像处理方法和图像处理系统 | |
US10430650B2 (en) | Image processing system | |
RU2013123021A (ru) | Способ фильтрации изображений целевого объекта в роботехнической системе | |
JP2015520470A5 (ja) | ||
JPWO2021015869A5 (ja) | ||
JP2018116599A5 (ja) | ||
JP2013522754A (ja) | 複数の虹彩テンプレートを用いた虹彩認識装置及び方法 | |
JP5001930B2 (ja) | 動作認識装置及び方法 | |
TWI509466B (zh) | 物件辨識方法與裝置 | |
JP6540330B2 (ja) | 追跡システム、追跡方法および追跡プログラム | |
CN106462738B (zh) | 用于构建个人的面部的模型的方法、用于使用这样的模型分析姿态的方法和设备 | |
US9268408B2 (en) | Operating area determination method and system | |
US10796456B2 (en) | Photorealistic human holographic augmented reality communication with interactive control in real-time using a cluster of servers | |
WO2015154359A1 (zh) | 拍摄的实现方法及装置 | |
TWI684918B (zh) | 臉部辨識系統以及加強臉部辨識方法 | |
JP2004133567A (ja) | 移動体およびその位置検出装置 | |
KR101715781B1 (ko) | 물체 인식 시스템 및 그 물체 인식 방법 | |
JP2009266501A (ja) | 照明システム | |
TWI683575B (zh) | 一種注視識別及互動方法與裝置 | |
JPWO2021015883A5 (ja) | ||
JP2018201146A (ja) | 画像補正装置、画像補正方法、注目点認識装置、注目点認識方法及び異常検知システム | |
CN102625045A (zh) | 电子照相机 | |
JP2021026599A (ja) | 画像処理システム | |
WO2012105228A2 (en) | Imaging apparatus and imaging condition setting method and program |