JP7213934B2 - ロボットアクションへの修正に基づく局所的特徴モデルの更新 - Google Patents
ロボットアクションへの修正に基づく局所的特徴モデルの更新 Download PDFInfo
- Publication number
- JP7213934B2 JP7213934B2 JP2021168984A JP2021168984A JP7213934B2 JP 7213934 B2 JP7213934 B2 JP 7213934B2 JP 2021168984 A JP2021168984 A JP 2021168984A JP 2021168984 A JP2021168984 A JP 2021168984A JP 7213934 B2 JP7213934 B2 JP 7213934B2
- Authority
- JP
- Japan
- Prior art keywords
- feature
- sensor data
- robot
- model
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000004048 modification Effects 0.000 title description 111
- 238000012986 modification Methods 0.000 title description 111
- 230000009471 action Effects 0.000 title description 105
- 238000003062 neural network model Methods 0.000 claims description 160
- 230000000007 visual effect Effects 0.000 claims description 84
- 238000000034 method Methods 0.000 claims description 63
- 230000004044 response Effects 0.000 claims description 43
- 238000012549 training Methods 0.000 description 47
- 238000013145 classification model Methods 0.000 description 32
- 238000012937 correction Methods 0.000 description 20
- 230000033001 locomotion Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 8
- 238000003058 natural language processing Methods 0.000 description 8
- 239000000463 material Substances 0.000 description 6
- 239000012636 effector Substances 0.000 description 5
- 230000003993 interaction Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 241000282412 Homo Species 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/008—Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/1605—Simulation of manipulator lay-out, design, modelling of manipulator
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1671—Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/40—Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
- G06F18/41—Interactive pattern learning with a human teacher
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/10—Interfaces, programming languages or software development kits, e.g. for simulating neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/778—Active pattern-learning, e.g. online learning of image or video features
- G06V10/7784—Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
- G06V10/7788—Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors the supervisor being a human, e.g. interactive learning with a human teacher
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/02—Arm motion controller
- Y10S901/03—Teaching system
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Robotics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Databases & Information Systems (AREA)
- Automation & Control Theory (AREA)
- Mechanical Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Fuzzy Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
Description
代替分類埋め込みに基づいて、およびセンサデータの埋め込みに基づいて、調整された代替分類埋め込みを判定することと、を含む。例えば、調整された代替分類埋め込みを判定することは、代替分類埋め込みとセンサデータの埋め込みとの平均に基づくことができる。いくつかの追加または代替の実装形態では、本方法は、センサデータと代替分類とを保存することと、局所的に保存された分類モデルを更新することに続いて、ニューラルネットワークモデルの新しいバージョンと分類モデルの新しいバージョンとを受信することと、センサデータをニューラルネットワークモデルの新しいバージョンへの入力として適用することと、その適用に基づいてニューラルネットワークモデルの新しいバージョンの上で、センサデータの新しい埋め込みを生成することと、分類モデルの新しいバージョンにおいて、代替分類の新しい代替分類埋め込みを識別することと、分類モデルの新しいバージョンにおいて、センサデータの新しい埋め込みに基づいて、代替分類の新しい代替分類埋め込みを調整することと、をさらに含むことができる。いくつかの実装形態では、代替分類に基づいて局所的に保存された分類モデルを更新することは、局所的に保存された分類モデルが、代替分類に対するいずれかの代替分類埋め込みを欠くと判定することと、それに応じて、局所的に保存された分類モデルに代替分類埋め込みを保存することであって、代替分類埋め込みは、センサデータの埋め込みに基づいている、保存することと、を含む。いくつかの実装形態では、局所的に保存された分類モデルを更新することは、ニューラルネットワークモデルへの入力として、オブジェクトを捕捉し、ロボットのセンサによって生成される追加のセンサデータを適用することと、その適用に基づいてニューラルネットワークモデルの上で、追加のセンサデータのさらなる埋め込みを生成することと、さらなる埋め込みおよび代替分類に基づいて局所的に保存された分類モデルを更新することと、をさらに含む。
Claims (17)
- ロボットの1つ以上のプロセッサによって実装される方法であって、前記方法は、
過去のセンサデータ特徴インスタンスを前記ロボットの1つ以上のコンピュータ可読媒体に局所的に保存することを含み、前記過去のセンサデータ特徴インスタンスは、
前記ロボットの環境内でオブジェクトを捕捉し、前記ロボットの少なくとも1つのセンサによって生成されるセンサデータと、
前記オブジェクトの特徴とを含み、前記特徴は、ユーザインターフェース入力に基づいて判定され、前記特徴は、前記ユーザインターフェース入力が前記オブジェクトを捕捉する前記センサデータに関連して受信されることに基づいて前記オブジェクトの特徴として保存され、
前記方法は、前記センサデータ特徴インスタンスを保存することに続いて、
前記ロボットの1つ以上のネットワークインターフェースを介して
前記ロボットの1つ以上のコンピュータ可読媒体に局所的に保存された古いニューラルネットワークモデルと置き換わるための新しいニューラルネットワークモデルと、
前記ロボットの前記コンピュータ可読媒体の1つ以上に局所的に保存された古い特徴モデルと置き換わるための新しい特徴モデルと
を受信することを含み、
前記方法は、前記新しいニューラルネットワークモデル及び前記新しい特徴モデルを受信することに応じて、
前記センサデータ特徴インスタンスに基づいて前記新しい特徴モデルを局所的に適合させることと、
適合された前記新しい特徴モデル及び前記新しいニューラルネットワークモデルを、前記ロボットを制御するために、かつ、前記古いニューラルネットワークモデル及び前記古い特徴モデルの代わりに局所的に使用することとを含む、方法。 - 前記センサデータ特徴インスタンスに基づいて前記新しい特徴モデルを局所的に適合させることは、
前記新しいニューラルネットワークモデルへの入力として、前記センサデータを適用することと、
前記適用に基づいて前記新しいニューラルネットワークモデルの上で、前記センサデータの埋め込みを生成することと、
前記センサデータの前記埋め込みに基づいて、前記新しい特徴モデルにおける前記特徴の新しい特徴埋め込みを判定することと、を含む、請求項1に記載の方法。 - 前記センサデータの前記埋め込みに基づいて、前記新しい特徴モデルにおける前記特徴の前記新しい特徴埋め込みを判定することは、
前記新しい特徴モデルにおいて、前記特徴の現在の特徴埋め込みを識別することと、
前記センサデータの前記埋め込み及び前記現在の特徴埋め込みに基づいて前記新しい特徴埋め込みを判定することと、を含む、請求項2に記載の方法。 - 前記センサデータの前記埋め込み及び前記現在の特徴埋め込みに基づいて前記新しい特徴埋め込みを判定することは、
前記センサデータの前記埋め込みと前記現在の特徴埋め込みとの平均に基づいて、前記新しい特徴埋め込みを判定することを含む、請求項3に記載の方法。 - 前記新しいニューラルネットワークモデル及び前記新しい特徴モデルを受信する前に、前記センサデータ特徴インスタンスに基づいて、前記古い特徴モデルを局所的に適合させることをさらに含む、請求項2に記載の方法。
- 前記新しいニューラルネットワークモデル及び前記新しい特徴モデルを受信する前に、前記センサデータ特徴インスタンスに基づいて、前記古い特徴モデルを局所的に適合させることをさらに含む、請求項1に記載の方法。
- 前記センサデータ特徴インスタンスに基づいて、前記古い特徴モデルを局所的に適合させることは、
前記古いニューラルネットワークモデルへの入力として、前記センサデータを適用することと、
前記適用に基づいて前記古いニューラルネットワークモデルの上で、前記センサデータの古い埋め込みを生成することと、
前記センサデータの前記古い埋め込みに基づいて、前記古い特徴モデルにおける前記特徴の古い特徴埋め込みを判定することと、を含む、請求項5に記載の方法。 - 前記センサデータは視覚センサデータであり、前記少なくとも1つのセンサは視覚センサである、請求項1に記載の方法。
- 1つ以上のネットワークインターフェースと、
1つ以上のマイクロフォンと、
視覚センサと、
メモリ保存命令と、
前記メモリに保全された前記命令を実行する1つ以上のプロセッサと、
を備えるロボットであって、前記プロセッサの1つ以上に、
前記ロボットの前記1つ以上のネットワークインターフェースを介して、新しいニューラルネットワークモデル及び新しい特徴モデルを受信することと、
前記新しいニューラルネットワークモデル及び前記新しい特徴モデルを受信することに応じて、
局所的に保存された視覚センサデータ特徴インスタンスに基づいて前記新しい特徴モデルを局所的に適合させることと、
前記ロボットを制御するために適合された前記新しい特徴モデル及び前記新しいニューラルネットワークモデルを局所的に使用することとを行わせ、
前記視覚センサデータ特徴インスタンスは、前記新しいニューラルネットワークモデル及び前記新しい特徴モデルを受信する前に局所的に保存され、前記視覚センサデータ特徴インスタンスは、
前記ロボットの環境内でオブジェクトを捕捉し、前記視覚センサによって生成される視覚センサデータと、
前記オブジェクトの特徴とを含み、前記特徴は、前記1つ以上のマイクロフォンを介してユーザインターフェース入力に基づいて判定され、前記特徴は、前記ユーザインターフェース入力が前記オブジェクトを捕捉する前記視覚センサデータに関連して受信されることに基づいて前記オブジェクトの特徴として保存される、ロボット。 - 前記視覚センサデータ特徴インスタンスに基づいて、前記新しい特徴モデルを局所的に適合させることにおいて、前記プロセッサの1つ以上は、
前記新しいニューラルネットワークモデルへの入力として、前記視覚センサデータを適用し、
前記適用に基づいて前記新しいニューラルネットワークモデルの上で、前記視覚センサデータの埋め込みを生成し、
前記視覚センサデータの前記埋め込みに基づいて、前記新しい特徴モデルにおける前記特徴の新しい特徴埋め込みを判定する、請求項9に記載のロボット。 - 前記センサデータの前記埋め込みに基づいて、前記新しい特徴モデルにおける前記特徴の前記新しい特徴埋め込みを判定することにおいて、前記プロセッサの1つ以上は、
前記新しい特徴モデルにおいて、前記特徴の現在の特徴埋め込みを識別し、
前記視覚センサデータの前記埋め込み及び前記現在の特徴埋め込みに基づいて前記新しい特徴埋め込みを判定する、請求項10に記載のロボット。 - 前記視覚センサデータの前記埋め込み及び前記現在の特徴埋め込みに基づいて前記新しい特徴埋め込みを判定することにおいて、前記プロセッサの1つ以上は、前記視覚センサデータの前記埋め込みと前記現在の特徴埋め込みとの平均に基づいて、前記新しい特徴埋め込みを判定する、請求項11に記載のロボット。
- 前記命令を実行することにおいて、前記プロセッサの1つ以上は、前記新しいニューラルネットワークモデル及び前記新しい特徴モデルを受信する前に、前記視覚センサデータ特徴インスタンスに基づいて、古い特徴モデルを局所的に適合させ、前記新しい特徴モデルは、前記古い特徴モデルと置き換わる、請求項10に記載のロボット。
- 前記命令を実行することにおいて、前記プロセッサの1つ以上は、前記新しいニューラルネットワークモデル及び前記新しい特徴モデルを受信する前に、前記視覚センサデータ特徴インスタンスに基づいて、古い特徴モデルを局所的に適合させ、前記新しい特徴モデルは、前記古い特徴モデルと置き換わる、請求項9に記載のロボット。
- 前記視覚センサデータ特徴インスタンスに基づいて前記古い特徴モデルを局所的に適合させることにおいて、前記プロセッサの1つ以上は、
前記古いニューラルネットワークモデルへの入力として、前記視覚センサデータを適用し、
前記適用に基づいて前記古いニューラルネットワークモデルの上で、前記視覚センサデータの古い埋め込みを生成し、
前記視覚センサデータの前記古い埋め込みに基づいて、前記古い特徴モデルにおける前記特徴の古い特徴埋め込みを判定する、請求項14に記載のロボット。 - 前記特徴は分類である、請求項14に記載のロボット。
- 前記特徴は境界エリアである、請求項14に記載のロボット。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/640,936 | 2017-07-03 | ||
US15/640,936 US11106967B2 (en) | 2017-07-03 | 2017-07-03 | Update of local features model based on correction to robot action |
JP2019571746A JP6963041B2 (ja) | 2017-07-03 | 2018-07-02 | ロボットアクションへの修正に基づく局所的特徴モデルの更新 |
PCT/US2018/040644 WO2019010137A1 (en) | 2017-07-03 | 2018-07-02 | UPDATING A MODEL OF LOCAL CHARACTERISTICS BASED ON A CORRECTION OF ROBOT ACTION |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019571746A Division JP6963041B2 (ja) | 2017-07-03 | 2018-07-02 | ロボットアクションへの修正に基づく局所的特徴モデルの更新 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022019721A JP2022019721A (ja) | 2022-01-27 |
JP7213934B2 true JP7213934B2 (ja) | 2023-01-27 |
Family
ID=62976371
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019571746A Active JP6963041B2 (ja) | 2017-07-03 | 2018-07-02 | ロボットアクションへの修正に基づく局所的特徴モデルの更新 |
JP2021168984A Active JP7213934B2 (ja) | 2017-07-03 | 2021-10-14 | ロボットアクションへの修正に基づく局所的特徴モデルの更新 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019571746A Active JP6963041B2 (ja) | 2017-07-03 | 2018-07-02 | ロボットアクションへの修正に基づく局所的特徴モデルの更新 |
Country Status (5)
Country | Link |
---|---|
US (3) | US11106967B2 (ja) |
EP (1) | EP3625730A1 (ja) |
JP (2) | JP6963041B2 (ja) |
KR (2) | KR102517457B1 (ja) |
WO (1) | WO2019010137A1 (ja) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10562181B2 (en) | 2017-07-03 | 2020-02-18 | X Development Llc | Determining and utilizing corrections to robot actions |
US11106967B2 (en) | 2017-07-03 | 2021-08-31 | X Development Llc | Update of local features model based on correction to robot action |
JP6676030B2 (ja) * | 2017-11-20 | 2020-04-08 | 株式会社安川電機 | 把持システム、学習装置、把持方法、及び、モデルの製造方法 |
WO2019107455A1 (ja) * | 2017-11-28 | 2019-06-06 | 川崎重工業株式会社 | 技能伝承機械装置 |
US10682774B2 (en) | 2017-12-12 | 2020-06-16 | X Development Llc | Sensorized robotic gripping device |
US10792809B2 (en) * | 2017-12-12 | 2020-10-06 | X Development Llc | Robot grip detection using non-contact sensors |
US10981272B1 (en) * | 2017-12-18 | 2021-04-20 | X Development Llc | Robot grasp learning |
US10754318B2 (en) * | 2017-12-21 | 2020-08-25 | X Development Llc | Robot interaction with objects based on semantic information associated with embedding spaces |
WO2019133743A1 (en) * | 2017-12-27 | 2019-07-04 | Drive.Ai Inc | Method for accessing supplemental perception data from other vehicles |
US11475291B2 (en) * | 2017-12-27 | 2022-10-18 | X Development Llc | Sharing learned information among robots |
US11097418B2 (en) | 2018-01-04 | 2021-08-24 | X Development Llc | Grasping of an object by a robot based on grasp strategy determined using machine learning model(s) |
JP7106997B2 (ja) * | 2018-06-04 | 2022-07-27 | 日本電信電話株式会社 | データ分析システムおよびデータ分析方法 |
US11636123B2 (en) * | 2018-10-05 | 2023-04-25 | Accenture Global Solutions Limited | Density-based computation for information discovery in knowledge graphs |
JP7135750B2 (ja) * | 2018-11-12 | 2022-09-13 | 富士通株式会社 | 学習プログラム、学習方法、学習装置、検知プログラム、検知方法及び検知装置 |
JP7047726B2 (ja) * | 2018-11-27 | 2022-04-05 | トヨタ自動車株式会社 | 把持ロボットおよび把持ロボットの制御プログラム |
KR20190104488A (ko) * | 2019-08-21 | 2019-09-10 | 엘지전자 주식회사 | 인공 지능을 이용하여, 오브젝트의 이동을 관리하는 인공 지능 로봇 및 그의 동작 방법 |
JP7021158B2 (ja) * | 2019-09-04 | 2022-02-16 | 株式会社東芝 | ロボットシステムおよび駆動方法 |
CN115038554A (zh) * | 2019-11-22 | 2022-09-09 | 西门子股份公司 | 基于传感器的用于自主机器的复杂场景的构建 |
US20230004797A1 (en) | 2020-03-10 | 2023-01-05 | Sri International | Physics-guided deep multimodal embeddings for task-specific data exploitation |
WO2023075351A1 (ko) * | 2021-10-25 | 2023-05-04 | (주)바질컴퍼니 | 산업용 로봇의 인공지능 학습 방법 |
WO2023212260A1 (en) * | 2022-04-28 | 2023-11-02 | Theai, Inc. | Agent-based training of artificial intelligence character models |
JP2024077442A (ja) | 2022-11-28 | 2024-06-07 | 富士通株式会社 | 対象検出プログラム、装置、及び機械学習モデル生成方法 |
CN116330310B (zh) * | 2023-02-14 | 2023-11-07 | 河南泽远网络科技有限公司 | 一种低延时机器人交互方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016166881A1 (ja) | 2015-04-17 | 2016-10-20 | Cocoro Sb株式会社 | 処理システム及びプログラム |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3211186B2 (ja) | 1997-12-15 | 2001-09-25 | オムロン株式会社 | ロボット、ロボットシステム、ロボットの学習方法、ロボットシステムの学習方法および記録媒体 |
JP2001322079A (ja) | 2000-05-15 | 2001-11-20 | Sony Corp | 脚式移動ロボット及びその動作教示方法 |
WO2011080882A1 (ja) | 2009-12-28 | 2011-07-07 | パナソニック株式会社 | 動作空間提示装置、動作空間提示方法およびプログラム |
FR2962048A1 (fr) * | 2010-07-02 | 2012-01-06 | Aldebaran Robotics S A | Robot humanoide joueur, methode et systeme d'utilisation dudit robot |
US20120130541A1 (en) | 2010-09-07 | 2012-05-24 | Szalek Leszek A | Method and apparatus for robot teaching |
US8781629B2 (en) * | 2010-09-22 | 2014-07-15 | Toyota Motor Engineering & Manufacturing North America, Inc. | Human-robot interface apparatuses and methods of controlling robots |
US9015092B2 (en) | 2012-06-04 | 2015-04-21 | Brain Corporation | Dynamically reconfigurable stochastic learning apparatus and methods |
US8996167B2 (en) | 2012-06-21 | 2015-03-31 | Rethink Robotics, Inc. | User interfaces for robot training |
JP2014106597A (ja) * | 2012-11-26 | 2014-06-09 | Toyota Motor Corp | 自律移動体、物体情報取得装置、および物体情報取得方法 |
EP2967322A4 (en) * | 2013-03-11 | 2017-02-08 | Magic Leap, Inc. | System and method for augmented and virtual reality |
US9764468B2 (en) | 2013-03-15 | 2017-09-19 | Brain Corporation | Adaptive predictor apparatus and methods |
US9792546B2 (en) | 2013-06-14 | 2017-10-17 | Brain Corporation | Hierarchical robotic controller apparatus and methods |
WO2015013283A2 (en) | 2013-07-22 | 2015-01-29 | Texas State University | Autonomous performance optimization in robotic assembly process |
CN106462655B (zh) * | 2013-11-13 | 2019-04-05 | 皇家飞利浦有限公司 | 临床诊断支持网络、系统及方法 |
US9358685B2 (en) | 2014-02-03 | 2016-06-07 | Brain Corporation | Apparatus and methods for control of robot actions based on corrective user inputs |
US10043112B2 (en) * | 2014-03-07 | 2018-08-07 | Qualcomm Incorporated | Photo management |
US9346168B2 (en) | 2014-05-20 | 2016-05-24 | International Business Machines Corporation | Information technology asset type identification using a mobile vision-enabled robot |
US10824958B2 (en) * | 2014-08-26 | 2020-11-03 | Google Llc | Localized learning from a global model |
US9630318B2 (en) | 2014-10-02 | 2017-04-25 | Brain Corporation | Feature detection apparatus and methods for training of robotic navigation |
JP2016101612A (ja) | 2014-11-27 | 2016-06-02 | トヨタ自動車株式会社 | 物品搬送用ロボット |
US9785866B2 (en) * | 2015-01-22 | 2017-10-10 | Microsoft Technology Licensing, Llc | Optimizing multi-class multimedia data classification using negative data |
JP6249247B2 (ja) | 2016-02-29 | 2017-12-20 | ソニー株式会社 | 制御装置、制御方法、およびプログラム |
CN108885715B (zh) | 2016-03-03 | 2020-06-26 | 谷歌有限责任公司 | 用于机器人抓取的深度机器学习方法和装置 |
WO2018017612A1 (en) | 2016-07-18 | 2018-01-25 | Lael Odhner | Training robotic manipulators |
US11379695B2 (en) * | 2016-10-24 | 2022-07-05 | International Business Machines Corporation | Edge-based adaptive machine learning for object recognition |
US10360531B1 (en) | 2016-12-19 | 2019-07-23 | Amazon Technologies, Inc. | Robot implemented item manipulation |
US11106967B2 (en) | 2017-07-03 | 2021-08-31 | X Development Llc | Update of local features model based on correction to robot action |
-
2017
- 2017-07-03 US US15/640,936 patent/US11106967B2/en active Active
-
2018
- 2018-07-02 KR KR1020227041549A patent/KR102517457B1/ko active IP Right Grant
- 2018-07-02 EP EP18743369.3A patent/EP3625730A1/en active Pending
- 2018-07-02 KR KR1020197038773A patent/KR102472592B1/ko active IP Right Grant
- 2018-07-02 WO PCT/US2018/040644 patent/WO2019010137A1/en unknown
- 2018-07-02 JP JP2019571746A patent/JP6963041B2/ja active Active
-
2021
- 2021-08-30 US US17/460,861 patent/US11640517B2/en active Active
- 2021-10-14 JP JP2021168984A patent/JP7213934B2/ja active Active
-
2023
- 2023-04-27 US US18/140,366 patent/US20230281422A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016166881A1 (ja) | 2015-04-17 | 2016-10-20 | Cocoro Sb株式会社 | 処理システム及びプログラム |
Non-Patent Citations (1)
Title |
---|
Jetley, S., et al.,Prototypical Priors: From Improving Classification to Zero-Shot Learning [online],arXiv.org,v2,2018年04月25日,https://arxiv.org/pdf/1512.01192.pdf,[検索日 2021.04.28] |
Also Published As
Publication number | Publication date |
---|---|
KR20200014368A (ko) | 2020-02-10 |
JP6963041B2 (ja) | 2021-11-05 |
KR102472592B1 (ko) | 2022-12-01 |
EP3625730A1 (en) | 2020-03-25 |
US20190005374A1 (en) | 2019-01-03 |
US20230281422A1 (en) | 2023-09-07 |
JP2020526819A (ja) | 2020-08-31 |
JP2022019721A (ja) | 2022-01-27 |
WO2019010137A1 (en) | 2019-01-10 |
KR20220164082A (ko) | 2022-12-12 |
US20210390371A1 (en) | 2021-12-16 |
US11106967B2 (en) | 2021-08-31 |
KR102517457B1 (ko) | 2023-04-03 |
US11640517B2 (en) | 2023-05-02 |
KR20230050470A (ko) | 2023-04-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7213934B2 (ja) | ロボットアクションへの修正に基づく局所的特徴モデルの更新 | |
JP7128377B2 (ja) | ロボットアクションへの修正の判定および利用 | |
JP7512491B2 (ja) | リモートクライアントデバイスからの入力に基づく効率的なロボットの制御 | |
US20210162590A1 (en) | Deep machine learning methods and apparatus for robotic grasping | |
KR102720866B1 (ko) | 로봇 행동 보정에 기초한 로컬 피쳐 모델의 업데이트 | |
US20240367313A1 (en) | Determining and utilizing corrections to robot actions |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211108 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211108 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221125 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221129 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20221223 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230117 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7213934 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |