KR20200014368A - 로봇 행동 보정에 기초한 로컬 피쳐 모델의 업데이트 - Google Patents
로봇 행동 보정에 기초한 로컬 피쳐 모델의 업데이트 Download PDFInfo
- Publication number
- KR20200014368A KR20200014368A KR1020197038773A KR20197038773A KR20200014368A KR 20200014368 A KR20200014368 A KR 20200014368A KR 1020197038773 A KR1020197038773 A KR 1020197038773A KR 20197038773 A KR20197038773 A KR 20197038773A KR 20200014368 A KR20200014368 A KR 20200014368A
- Authority
- KR
- South Korea
- Prior art keywords
- feature
- embedding
- classification
- model
- robot
- Prior art date
Links
- 238000012937 correction Methods 0.000 title claims abstract description 134
- 238000003062 neural network model Methods 0.000 claims abstract description 158
- 238000000034 method Methods 0.000 claims abstract description 75
- 230000009471 action Effects 0.000 claims abstract description 64
- 230000004044 response Effects 0.000 claims abstract description 57
- 230000000007 visual effect Effects 0.000 claims description 67
- 238000013145 classification model Methods 0.000 claims description 49
- 238000012549 training Methods 0.000 claims description 49
- 238000013507 mapping Methods 0.000 claims description 3
- 230000006399 behavior Effects 0.000 description 45
- 238000004891 communication Methods 0.000 description 9
- 238000003058 natural language processing Methods 0.000 description 8
- 239000000463 material Substances 0.000 description 6
- 230000015654 memory Effects 0.000 description 6
- 230000003993 interaction Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 210000004556 brain Anatomy 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- ORQBXQOJMQIAOY-UHFFFAOYSA-N nobelium Chemical compound [No] ORQBXQOJMQIAOY-UHFFFAOYSA-N 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/008—Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/1605—Simulation of manipulator lay-out, design, modelling of manipulator
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1671—Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/40—Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
- G06F18/41—Interactive pattern learning with a human teacher
-
- G06K9/6254—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/778—Active pattern-learning, e.g. online learning of image or video features
- G06V10/7784—Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
- G06V10/7788—Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors the supervisor being a human, e.g. interactive learning with a human teacher
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/02—Arm motion controller
- Y10S901/03—Teaching system
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Robotics (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Fuzzy Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Human Computer Interaction (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
- Audiology, Speech & Language Pathology (AREA)
Abstract
Description
도 2a, 도 2b, 도 2c, 및 도 2d는 로봇 행동에 보정을 제공하는 예들을 나타낸다.
도 3은 본 명세서에 개시된 구현들에 따른 한 예시적인 방법을 나타내는 플로차트이다.
도 4는 본 명세서에 개시된 구현들에 따른 또 다른 예시적인 방법을 나타내는 플로차트이다.
도 5는 본 명세서에 개시된 구현들에 따른 또 다른 예시적인 방법을 나타내는 플로차트이다.
도 6은 본 명세서에 개시된 구현들에 따른 또 다른 예시적인 방법을 나타내는 플로차트이다.
도 7은 로봇의 예시적인 아키텍쳐를 개략적으로 도시한다.
도 8은 컴퓨터 시스템의 예시적인 아키텍쳐를 개략적으로 도시한다.
Claims (22)
- 로봇의 하나 이상의 프로세서에 의해 구현되는 방법으로서,
상기 로봇의 환경 내의 물체에 대한 분류를 결정하는 단계 ―상기 분류를 결정하는 단계는,
상기 로봇의 하나 이상의 컴퓨터 판독가능한 매체 상에 로컬 저장된 신경망 모델에 대한 입력으로서, 상기 물체를 포착하고 상기 로봇의 적어도 하나의 센서에 의해 생성되는 센서 데이터를 적용하는 단계,
상기 적용에 기초하여 상기 신경망 모델을 통해, 상기 센서 데이터의 임베딩을 생성하는 단계,
상기 로봇의 하나 이상의 컴퓨터 판독가능한 매체 상에 로컬 저장된 분류 모델에 상기 센서 데이터의 임베딩을 적용하는 단계, 및
상기 임베딩을 상기 분류 모델에 적용하는 것에 기초하여 상기 분류를 결정하는 단계
를 포함함―;
상기 물체를 향한, 상기 로봇에 의한 행동의 수행 동안에, 사용자 인터페이스 입력을 수신하는 단계;
상기 사용자 인터페이스 입력이 상기 물체의 분류가 부정확함을 나타낸다고 결정하는 단계; 및
상기 사용자 인터페이스 입력이 상기 물체의 분류가 부정확함을 나타낸다고 결정하는 단계에 응답하여 :
상기 로컬 저장된 분류 모델을 업데이트하는 단계
를 포함하고, 상기 로컬 저장된 분류 모델을 업데이트하는 단계는 상기 신경망 모델의 재훈련없이 발생하는, 방법. - 제1항에 있어서, 상기 사용자 인터페이스 입력이 상기 물체의 분류가 부정확함을 나타낸다고 결정하는 단계는,
상기 사용자 인터페이스 입력이 상기 결정된 분류와 상충되는 상기 물체의 대안적인 분류를 나타낸다고 결정하는 단계를 포함하는, 방법. - 제2항에 있어서, 상기 로컬 저장된 분류 모델을 업데이트하는 단계는, 상기 대안적인 분류에 기초하여 상기 로컬 저장된 분류 모델을 업데이트하는 단계를 포함하는, 방법.
- 제3항에 있어서, 상기 대안적인 분류에 기초하여 상기 로컬 저장된 분류 모델을 업데이트하는 단계는,
상기 로컬 저장된 분류 모델에서 상기 대안적인 분류에 맵핑되는 현재의 대안적인 분류 임베딩을 식별하는 단계; 및
상기 대안적인 분류 임베딩에 기초하여 및 상기 센서 데이터의 임베딩에 기초하여 조정된 대안적인 분류 임베딩을 결정하는 단계
를 포함하는, 방법. - 제4항에 있어서, 상기 대안적인 분류 임베딩에 기초하여 및 상기 센서 데이터의 임베딩에 기초하여 조정된 대안적인 분류 임베딩을 결정하는 단계는,
상기 대안적인 분류 임베딩과 상기 센서 데이터의 임베딩의 평균에 기초하여 상기 조정된 대안적인 분류 임베딩을 결정하는 단계를 포함하는, 방법. - 제4항에 있어서,
상기 센서 데이터 및 상기 대안적인 분류를 저장하는 단계;
상기 로컬 저장된 분류 모델을 업데이트하는 단계 후 :
상기 신경망 모델의 새로운 버전 및 상기 분류 모델의 새로운 버전을 수신하는 단계;
상기 센서 데이터를 상기 신경망 모델의 상기 새로운 버전에 대한 입력으로서 적용하는 단계;
상기 적용에 기초하여, 상기 신경망 모델의 상기 새로운 버전을 통해, 상기 센서 데이터의 새로운 임베딩을 생성하는 단계;
상기 분류 모델의 상기 새로운 버전에서, 상기 대안적인 분류의 새로운 대안적인 분류 임베딩을 식별하는 단계;
상기 분류 모델의 상기 새로운 버전에서, 상기 센서 데이터의 상기 새로운 임베딩에 기초하여 상기 대안적인 분류의 상기 새로운 대안적인 분류 임베딩을 조정하는 단계
를 더 포함하는 방법. - 제3항에 있어서, 상기 대안적인 분류에 기초하여 상기 로컬 저장된 분류 모델을 업데이트하는 단계는,
상기 로컬 저장된 분류 모델이 상기 대안적인 분류에 대한 임의의 대안적인 분류 임베딩이 결여되어 있다고 결정하는 단계; 및
응답으로, 대안적인 분류 임베딩 ―상기 대안적인 분류 임베딩은 상기 센서 데이터의 상기 임베딩에 기초함― 을 상기 로컬 저장된 분류 모델에 저장하는 단계
를 포함하는, 방법. - 제3항에 있어서, 상기 로컬 저장된 분류 모델을 업데이트하는 단계는,
상기 신경망 모델에 대한 입력으로서, 상기 물체를 포착하고 상기 로봇의 상기 센서에 의해 생성되는 추가 센서 데이터를 적용하는 단계;
상기 적용에 기초하여 상기 신경망 모델을 통해, 상기 추가 센서 데이터의 추가 임베딩을 생성하는 단계; 및
상기 추가 임베딩 및 상기 대안적인 분류에 기초하여 상기 로컬 저장된 분류 모델을 업데이트하는 단계
를 더 포함하는, 방법. - 제1항에 있어서, 상기 임베딩을 상기 분류 모델에 적용하는 것에 기초하여 상기 분류를 결정하는 단계는 :
상기 임베딩이 대안적인 분류들에 맵핑된 대안적인 분류 임베딩들보다 상기 분류에 맵핑된 분류 임베딩과 더 유사하다는 결정에 기초하여 상기 분류를 결정하는 단계
를 포함하는, 방법. - 제9항에 있어서, 상기 로컬 저장된 분류 모델을 업데이트하는 단계는 :
상기 분류 임베딩을 상기 임베딩과 덜 유사하게 수정하는 것에 기초하여 상기 분류에 대한 조정된 분류 임베딩을 결정하는 단계를 포함하는, 방법. - 로봇의 하나 이상의 프로세서에 의해 구현되는 방법으로서,
상기 로봇의 하나 이상의 컴퓨터 판독가능한 매체 상에 로컬 저장된 신경망 모델에 대한 입력으로서, 물체를 포착하고 상기 로봇의 적어도 하나의 센서에 의해 생성되는 센서 데이터를 적용하는 단계;
상기 적용에 기초하여 상기 신경망 모델을 통해, 상기 센서 데이터의 임베딩을 생성하는 단계;
상기 로봇의 상기 하나 이상의 컴퓨터 판독가능한 매체 상에 로컬 저장된 피쳐 모델에 상기 임베딩을 적용하는 것에 기초하여 상기 센서 데이터의 피쳐를 결정 ―상기 피쳐 모델은 상기 피쳐를 상기 피쳐의 피쳐 임베딩에 맵핑하고 추가 피쳐들을 대응하는 추가 피쳐 임베딩들에 맵핑함― 하는 단계 ―상기 피쳐를 결정하는 단계는
상기 피쳐에 맵핑된 상기 피쳐 임베딩에 대한 상기 센서 데이터의 상기 임베딩의 유사성에 기초하여 상기 피쳐를 결정하는 단계를 포함함―;
상기 결정된 피쳐에 기초하여, 상기 물체를 향한 로봇 행동을 수행하는 단계;
상기 물체를 향한 상기 로봇 행동의 수행에 응답하여 사용자 인터페이스 입력을 수신하는 단계;
상기 사용자 인터페이스 입력이 상기 추가 피쳐들 중의 특정한 추가 피쳐를 나타낸다고 결정하는 단계;
상기 사용자 인터페이스 입력이 상기 특정한 추가 피쳐를 나타낸다고 결정하는 것에 응답하여 :
상기 피쳐 모델에서, 상기 센서 데이터의 상기 임베딩에 기초하여 상기 특정한 추가 피쳐의 추가 피쳐 임베딩을 조정하는 단계
를 포함하는 방법. - 제11항에 있어서, 상기 피쳐는 제1 분류이고 상기 특정한 추가 피쳐는 제2 분류인, 방법.
- 제11항에 있어서, 상기 피쳐는 제1 경계 영역이고, 상기 추가 피쳐는 제2 경계 영역인, 방법.
- 제13항에 있어서, 상기 제1 경계 영역은 복수의 제1 픽셀에 의해 정의되고, 상기 제2 경계 영역은 복수의 제2 픽셀에 의해 정의되는, 방법.
- 제13항에 있어서, 상기 사용자 인터페이스 입력은, 사용자가 클라이언트 컴퓨팅 디바이스를 통해 상기 제2 경계 영역을 표시하는 것에 기초하여 상기 클라이언트 컴퓨팅 디바이스에서 생성되고, 상기 제2 경계 영역은 상기 센서 데이터에 기초하는 이미지의 디스플레이 동안에 상기 클라이언트 디바이스를 통해 표시되는, 방법.
- 제15항에 있어서, 상기 로봇 행동이 부정확하다는 것을 나타내는 초기 사용자 인터페이스 입력에 응답하여 상기 이미지를 상기 클라이언트 디바이스에 제공하는 단계를 더 포함하는 방법.
- 로봇의 하나 이상의 프로세서에 의해 구현되는 방법으로서,
상기 로봇의 하나 이상의 컴퓨터 판독가능한 매체 상에 로컬 저장된 신경망 모델에 대한 입력으로서, 상기 물체를 포착하고 상기 로봇의 적어도 하나의 센서에 의해 생성되는 센서 데이터를 적용하는 단계,
상기 적용에 기초하여 상기 신경망 모델을 통해, 상기 센서 데이터의 임베딩을 생성하는 단계;
상기 로봇의 상기 하나 이상의 컴퓨터 판독가능한 매체 상에 로컬 저장된 피쳐 모델에 상기 임베딩을 적용하는 것에 기초하여 상기 센서 데이터의 피쳐를 결정 ―상기 피쳐 모델은 상기 피쳐를 상기 피쳐의 피쳐 임베딩에 맵핑하고 추가 피쳐들을 대응하는 추가 피쳐 임베딩들에 맵핑함― 하는 단계 ―상기 피쳐를 결정하는 단계는,
상기 피쳐에 맵핑된 상기 피쳐 임베딩이 상기 추가 피쳐 임베딩들 중 임의의 것보다 상기 센서 데이터의 상기 임베딩과 더 유사하다는 것에 기초하여 상기 피쳐를 결정하는 단계를 포함함―;
상기 결정된 피쳐에 기초하여 로봇 행동을 수행하는 단계;
상기 로봇 행동의 수행에 응답하여 사용자 인터페이스 입력을 수신하는 단계;
상기 로봇 행동이 부정확함을 상기 사용자 인터페이스 입력이 나타낸다고 결정하는 단계;
상기 로봇 행동이 부정확함을 상기 사용자 인터페이스 입력이 나타낸다고 결정하는 것에 응답하여 :
상기 센서 데이터의 임베딩에 기초하여 상기 로컬 저장된 피쳐 모델을 업데이트하는 단계,
상기 센서 데이터를 포함하는 보정 인스턴스를 생성하는 단계, 및
네트워크 인터페이스를 통해 상기 보정 인스턴스를 하나 이상의 원격 컴퓨팅 디바이스에 전송하는 단계
를 포함하고, 상기 하나 이상의 원격 컴퓨팅 디바이스는 상기 보정 인스턴스를 이용하여 상기 신경망 모델의 개정된 버전을 생성하기 위한 적어도 하나의 훈련 예를 생성하는, 방법. - 제17항에 있어서,
상기 신경망 모델이
상기 훈련 예, 및
추가 로봇들로부터의 추가 보정 인스턴스들로부터의 추가 훈련 예들
에 기초하여 훈련된 이후에, 상기 네트워크 인터페이스를 통해, 상기 신경망 모델의 개정된 버전을 수신하는 단계를 더 포함하는, 방법. - 제17항에 있어서, 상기 결정된 피쳐가 부정확함을 상기 사용자 인터페이스 입력이 나타낸다고 결정하는 단계는,
상기 사용자 인터페이스 입력이 상기 결정된 피쳐와 상충되는 상기 추가 피쳐들 중의 추가 피쳐를 나타낸다고 결정하는 단계를 포함하는, 방법. - 제19항에 있어서, 상기 센서 데이터의 상기 임베딩에 기초하여 상기 로컬 저장된 피쳐 모델을 업데이트하는 단계는,
상기 센서 데이터의 상기 임베딩에 기초하여 추가 피쳐 임베딩을 조정하는 단계를 포함하고, 상기 추가 피쳐 임베딩은 상기 추가 피쳐 임베딩들 중 하나이고 상기 로컬 저장된 피쳐 모델에서 상기 추가 피쳐에 맵핑되는, 방법. - 제20항에 있어서, 상기 보정 인스턴스는 상기 추가 피쳐의 표시를 포함하는, 방법.
- 제18항에 있어서, 상기 시각 센서 데이터의 상기 임베딩에 기초하여 상기 로컬 저장된 피쳐 모델을 업데이트하는 단계는,
상기 추가 피쳐가 상기 로컬 저장된 피쳐 모델에서 상기 추가 피쳐 임베딩들 중 어느 것에도 맵핑되지 않는다고 결정하는 단계; 및
응답으로, 상기 추가 피쳐에 대한 특정한 피쳐 임베딩 ―상기 특정한 피쳐 임베딩은 상기 시각 센서 데이터의 상기 임베딩에 기초함― 을 상기 로컬 저장된 피쳐 모델에 저장하는 단계
를 포함하는 방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020227041549A KR102517457B1 (ko) | 2017-07-03 | 2018-07-02 | 로봇 행동 보정에 기초한 로컬 피쳐 모델의 업데이트 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/640,936 US11106967B2 (en) | 2017-07-03 | 2017-07-03 | Update of local features model based on correction to robot action |
US15/640,936 | 2017-07-03 | ||
PCT/US2018/040644 WO2019010137A1 (en) | 2017-07-03 | 2018-07-02 | UPDATING A MODEL OF LOCAL CHARACTERISTICS BASED ON A CORRECTION OF ROBOT ACTION |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020227041549A Division KR102517457B1 (ko) | 2017-07-03 | 2018-07-02 | 로봇 행동 보정에 기초한 로컬 피쳐 모델의 업데이트 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200014368A true KR20200014368A (ko) | 2020-02-10 |
KR102472592B1 KR102472592B1 (ko) | 2022-12-01 |
Family
ID=62976371
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020197038773A KR102472592B1 (ko) | 2017-07-03 | 2018-07-02 | 로봇 행동 보정에 기초한 로컬 피쳐 모델의 업데이트 |
KR1020237010900A KR102720866B1 (ko) | 2017-07-03 | 2018-07-02 | 로봇 행동 보정에 기초한 로컬 피쳐 모델의 업데이트 |
KR1020227041549A KR102517457B1 (ko) | 2017-07-03 | 2018-07-02 | 로봇 행동 보정에 기초한 로컬 피쳐 모델의 업데이트 |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020237010900A KR102720866B1 (ko) | 2017-07-03 | 2018-07-02 | 로봇 행동 보정에 기초한 로컬 피쳐 모델의 업데이트 |
KR1020227041549A KR102517457B1 (ko) | 2017-07-03 | 2018-07-02 | 로봇 행동 보정에 기초한 로컬 피쳐 모델의 업데이트 |
Country Status (5)
Country | Link |
---|---|
US (3) | US11106967B2 (ko) |
EP (1) | EP3625730A1 (ko) |
JP (2) | JP6963041B2 (ko) |
KR (3) | KR102472592B1 (ko) |
WO (1) | WO2019010137A1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023075351A1 (ko) * | 2021-10-25 | 2023-05-04 | (주)바질컴퍼니 | 산업용 로봇의 인공지능 학습 방법 |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10562181B2 (en) | 2017-07-03 | 2020-02-18 | X Development Llc | Determining and utilizing corrections to robot actions |
US11106967B2 (en) | 2017-07-03 | 2021-08-31 | X Development Llc | Update of local features model based on correction to robot action |
JP6676030B2 (ja) * | 2017-11-20 | 2020-04-08 | 株式会社安川電機 | 把持システム、学習装置、把持方法、及び、モデルの製造方法 |
EP3718707A4 (en) * | 2017-11-28 | 2021-08-25 | Kawasaki Jukogyo Kabushiki Kaisha | SKILLS TRANSFER MACHINE |
US10682774B2 (en) | 2017-12-12 | 2020-06-16 | X Development Llc | Sensorized robotic gripping device |
US10792809B2 (en) * | 2017-12-12 | 2020-10-06 | X Development Llc | Robot grip detection using non-contact sensors |
US10981272B1 (en) * | 2017-12-18 | 2021-04-20 | X Development Llc | Robot grasp learning |
US10754318B2 (en) * | 2017-12-21 | 2020-08-25 | X Development Llc | Robot interaction with objects based on semantic information associated with embedding spaces |
DE112018006665T5 (de) * | 2017-12-27 | 2020-10-01 | Direct Current Capital LLC | Verfahren zum zugreifen auf ergänzende wahrnehmungsdaten von anderen fahrzeugen |
US11475291B2 (en) * | 2017-12-27 | 2022-10-18 | X Development Llc | Sharing learned information among robots |
US11097418B2 (en) | 2018-01-04 | 2021-08-24 | X Development Llc | Grasping of an object by a robot based on grasp strategy determined using machine learning model(s) |
JP7106997B2 (ja) * | 2018-06-04 | 2022-07-27 | 日本電信電話株式会社 | データ分析システムおよびデータ分析方法 |
US11636123B2 (en) * | 2018-10-05 | 2023-04-25 | Accenture Global Solutions Limited | Density-based computation for information discovery in knowledge graphs |
JP7135750B2 (ja) * | 2018-11-12 | 2022-09-13 | 富士通株式会社 | 学習プログラム、学習方法、学習装置、検知プログラム、検知方法及び検知装置 |
JP7047726B2 (ja) * | 2018-11-27 | 2022-04-05 | トヨタ自動車株式会社 | 把持ロボットおよび把持ロボットの制御プログラム |
KR20190104488A (ko) * | 2019-08-21 | 2019-09-10 | 엘지전자 주식회사 | 인공 지능을 이용하여, 오브젝트의 이동을 관리하는 인공 지능 로봇 및 그의 동작 방법 |
JP7021158B2 (ja) * | 2019-09-04 | 2022-02-16 | 株式会社東芝 | ロボットシステムおよび駆動方法 |
WO2021101561A1 (en) * | 2019-11-22 | 2021-05-27 | Siemens Aktiengesellschaft | Sensor-based construction of complex scenes for autonomous machines |
WO2021183256A1 (en) | 2020-03-10 | 2021-09-16 | Sri International | Physics-guided deep multimodal embeddings for task-specific data exploitation |
WO2023212260A1 (en) * | 2022-04-28 | 2023-11-02 | Theai, Inc. | Agent-based training of artificial intelligence character models |
JP2024077442A (ja) | 2022-11-28 | 2024-06-07 | 富士通株式会社 | 対象検出プログラム、装置、及び機械学習モデル生成方法 |
CN116330310B (zh) * | 2023-02-14 | 2023-11-07 | 河南泽远网络科技有限公司 | 一种低延时机器人交互方法 |
CN118832572A (zh) * | 2024-06-18 | 2024-10-25 | 同济大学 | 一种机器人视觉语言导航的动作自适应方法和系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160063393A1 (en) * | 2014-08-26 | 2016-03-03 | Google Inc. | Localized learning from a global model |
US20160217349A1 (en) * | 2015-01-22 | 2016-07-28 | Microsoft Technology Licensing, Llc. | Optimizing multi-class multimedia data classification using negative data |
US20180114334A1 (en) * | 2016-10-24 | 2018-04-26 | International Business Machines Corporation | Edge-based adaptive machine learning for object recognition |
Family Cites Families (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3211186B2 (ja) | 1997-12-15 | 2001-09-25 | オムロン株式会社 | ロボット、ロボットシステム、ロボットの学習方法、ロボットシステムの学習方法および記録媒体 |
JP2001322079A (ja) | 2000-05-15 | 2001-11-20 | Sony Corp | 脚式移動ロボット及びその動作教示方法 |
JP4456560B2 (ja) | 2005-12-12 | 2010-04-28 | 本田技研工業株式会社 | 脚式移動ロボット制御装置および脚式移動ロボット、並びに、脚式移動ロボット制御方法 |
US8180486B2 (en) | 2006-10-02 | 2012-05-15 | Honda Motor Co., Ltd. | Mobile robot and controller for same |
US8532989B2 (en) | 2009-09-03 | 2013-09-10 | Honda Motor Co., Ltd. | Command recognition device, command recognition method, and command recognition robot |
JP4850984B2 (ja) | 2009-12-28 | 2012-01-11 | パナソニック株式会社 | 動作空間提示装置、動作空間提示方法およびプログラム |
JP5526942B2 (ja) | 2010-03-31 | 2014-06-18 | ソニー株式会社 | ロボット装置、ロボット装置の制御方法およびプログラム |
FR2962048A1 (fr) * | 2010-07-02 | 2012-01-06 | Aldebaran Robotics S A | Robot humanoide joueur, methode et systeme d'utilisation dudit robot |
US20120059514A1 (en) | 2010-09-02 | 2012-03-08 | Electronics And Telecommunications Research Institute | Robot system and method for controlling the same |
US20120130541A1 (en) | 2010-09-07 | 2012-05-24 | Szalek Leszek A | Method and apparatus for robot teaching |
US8781629B2 (en) * | 2010-09-22 | 2014-07-15 | Toyota Motor Engineering & Manufacturing North America, Inc. | Human-robot interface apparatuses and methods of controlling robots |
US9015092B2 (en) | 2012-06-04 | 2015-04-21 | Brain Corporation | Dynamically reconfigurable stochastic learning apparatus and methods |
US8996167B2 (en) | 2012-06-21 | 2015-03-31 | Rethink Robotics, Inc. | User interfaces for robot training |
JP2014106597A (ja) * | 2012-11-26 | 2014-06-09 | Toyota Motor Corp | 自律移動体、物体情報取得装置、および物体情報取得方法 |
KR20230044041A (ko) * | 2013-03-11 | 2023-03-31 | 매직 립, 인코포레이티드 | 증강 및 가상 현실을 위한 시스템 및 방법 |
US9764468B2 (en) | 2013-03-15 | 2017-09-19 | Brain Corporation | Adaptive predictor apparatus and methods |
US9792546B2 (en) | 2013-06-14 | 2017-10-17 | Brain Corporation | Hierarchical robotic controller apparatus and methods |
WO2015013283A2 (en) | 2013-07-22 | 2015-01-29 | Texas State University | Autonomous performance optimization in robotic assembly process |
EP3069286A1 (en) * | 2013-11-13 | 2016-09-21 | Koninklijke Philips N.V. | Hierarchical self-learning system for computerized clinical diagnostic support |
KR101594014B1 (ko) * | 2013-11-22 | 2016-02-15 | 숭실대학교산학협력단 | 멀티 컴포넌트 로봇의 의사결정 전이를 위한 방법 및 그 장치 |
US9358685B2 (en) | 2014-02-03 | 2016-06-07 | Brain Corporation | Apparatus and methods for control of robot actions based on corrective user inputs |
US10043112B2 (en) * | 2014-03-07 | 2018-08-07 | Qualcomm Incorporated | Photo management |
US9346168B2 (en) | 2014-05-20 | 2016-05-24 | International Business Machines Corporation | Information technology asset type identification using a mobile vision-enabled robot |
KR102332729B1 (ko) * | 2014-07-28 | 2021-11-30 | 삼성전자주식회사 | 발음 유사도를 기반으로 한 음성 인식 방법 및 장치, 음성 인식 엔진 생성 방법 및 장치 |
US9630318B2 (en) | 2014-10-02 | 2017-04-25 | Brain Corporation | Feature detection apparatus and methods for training of robotic navigation |
JP2016101612A (ja) | 2014-11-27 | 2016-06-02 | トヨタ自動車株式会社 | 物品搬送用ロボット |
CN107924487A (zh) | 2015-04-17 | 2018-04-17 | 情感爱思比株式会社 | 处理系统以及程序 |
US10909329B2 (en) * | 2015-05-21 | 2021-02-02 | Baidu Usa Llc | Multilingual image question answering |
US10402750B2 (en) * | 2015-12-30 | 2019-09-03 | Facebook, Inc. | Identifying entities using a deep-learning model |
JP6249247B2 (ja) | 2016-02-29 | 2017-12-20 | ソニー株式会社 | 制御装置、制御方法、およびプログラム |
JP6586243B2 (ja) | 2016-03-03 | 2019-10-02 | グーグル エルエルシー | ロボットの把持のための深層機械学習方法および装置 |
CN109997108A (zh) | 2016-07-18 | 2019-07-09 | L·奥德纳 | 训练机器人操作臂 |
US10360531B1 (en) | 2016-12-19 | 2019-07-23 | Amazon Technologies, Inc. | Robot implemented item manipulation |
KR102488338B1 (ko) * | 2017-03-09 | 2023-01-13 | 삼성전자주식회사 | 언어 모델을 압축하기 위한 전자 장치, 추천 워드를 제공하기 위한 전자 장치 및 그 동작 방법들 |
US11106967B2 (en) | 2017-07-03 | 2021-08-31 | X Development Llc | Update of local features model based on correction to robot action |
US10562181B2 (en) | 2017-07-03 | 2020-02-18 | X Development Llc | Determining and utilizing corrections to robot actions |
-
2017
- 2017-07-03 US US15/640,936 patent/US11106967B2/en active Active
-
2018
- 2018-07-02 KR KR1020197038773A patent/KR102472592B1/ko active IP Right Grant
- 2018-07-02 KR KR1020237010900A patent/KR102720866B1/ko active IP Right Grant
- 2018-07-02 KR KR1020227041549A patent/KR102517457B1/ko active IP Right Grant
- 2018-07-02 JP JP2019571746A patent/JP6963041B2/ja active Active
- 2018-07-02 WO PCT/US2018/040644 patent/WO2019010137A1/en unknown
- 2018-07-02 EP EP18743369.3A patent/EP3625730A1/en active Pending
-
2021
- 2021-08-30 US US17/460,861 patent/US11640517B2/en active Active
- 2021-10-14 JP JP2021168984A patent/JP7213934B2/ja active Active
-
2023
- 2023-04-27 US US18/140,366 patent/US12159210B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160063393A1 (en) * | 2014-08-26 | 2016-03-03 | Google Inc. | Localized learning from a global model |
US20160217349A1 (en) * | 2015-01-22 | 2016-07-28 | Microsoft Technology Licensing, Llc. | Optimizing multi-class multimedia data classification using negative data |
US20180114334A1 (en) * | 2016-10-24 | 2018-04-26 | International Business Machines Corporation | Edge-based adaptive machine learning for object recognition |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023075351A1 (ko) * | 2021-10-25 | 2023-05-04 | (주)바질컴퍼니 | 산업용 로봇의 인공지능 학습 방법 |
Also Published As
Publication number | Publication date |
---|---|
JP2022019721A (ja) | 2022-01-27 |
EP3625730A1 (en) | 2020-03-25 |
KR102517457B1 (ko) | 2023-04-03 |
US12159210B2 (en) | 2024-12-03 |
US20230281422A1 (en) | 2023-09-07 |
KR20220164082A (ko) | 2022-12-12 |
KR20230050470A (ko) | 2023-04-14 |
US20210390371A1 (en) | 2021-12-16 |
US11106967B2 (en) | 2021-08-31 |
WO2019010137A1 (en) | 2019-01-10 |
US11640517B2 (en) | 2023-05-02 |
JP2020526819A (ja) | 2020-08-31 |
KR102720866B1 (ko) | 2024-10-24 |
JP6963041B2 (ja) | 2021-11-05 |
US20190005374A1 (en) | 2019-01-03 |
KR102472592B1 (ko) | 2022-12-01 |
JP7213934B2 (ja) | 2023-01-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102472592B1 (ko) | 로봇 행동 보정에 기초한 로컬 피쳐 모델의 업데이트 | |
KR102365465B1 (ko) | 로봇 행동들에 대한 보정들의 결정 및 이용 | |
US11724398B2 (en) | Efficient robot control based on inputs from remote client devices | |
US20250018561A1 (en) | Generating a model for an object encountered by a robot | |
US20250061302A1 (en) | Update of local features model based on correction to robot action | |
CN116887956B (zh) | 真实机器人的模拟驱动机器人控制 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
PA0105 | International application |
Patent event date: 20191230 Patent event code: PA01051R01D Comment text: International Patent Application |
|
PA0201 | Request for examination | ||
PG1501 | Laying open of application | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20220217 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20220825 |
|
PA0104 | Divisional application for international application |
Comment text: Divisional Application for International Patent Patent event code: PA01041R01D Patent event date: 20221125 |
|
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20221125 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20221128 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration |