KR101086671B1 - 인간과 상호작용하는 로봇을 가상학습공간에서 학습시키는 방법, 기록매체, 및 그 방법으로 학습된 로봇 - Google Patents
인간과 상호작용하는 로봇을 가상학습공간에서 학습시키는 방법, 기록매체, 및 그 방법으로 학습된 로봇 Download PDFInfo
- Publication number
- KR101086671B1 KR101086671B1 KR1020110063785A KR20110063785A KR101086671B1 KR 101086671 B1 KR101086671 B1 KR 101086671B1 KR 1020110063785 A KR1020110063785 A KR 1020110063785A KR 20110063785 A KR20110063785 A KR 20110063785A KR 101086671 B1 KR101086671 B1 KR 101086671B1
- Authority
- KR
- South Korea
- Prior art keywords
- robot
- agent
- human
- learning
- motion
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/006—Controls for manipulators by means of a wireless system for controlling one or several manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Manipulator (AREA)
Abstract
Description
도 2는 로봇에이전트가 상호작용동작을 학습하는 방법을 도시한 흐름도이다.
도 3은 휴먼에이전트의 동작을 로봇에이전트가 학습하는 방법을 도시한 흐름도이다.
도 4는 로봇에이전트가 일련의 동작을 학습하는 방법을 도시한 흐름도이다.
도 5는 가상학습공간의 학습을 통해 생성한 인간과 상호작용하는 로봇 동작데이터를 로봇에 입력하는 방법을 도시한 흐름도이다.
도 6은 동작데이터를 로봇에 입력하는 방법을 도시한 흐름도이다.
도 7은 가상학습공간의 학습을 통해 인간과 상호작용하는 캐릭터를 학습시키는 방법을 도시한 흐름도이다.
도 8a 내지 도 8c는 가상학습공간의 학습을 통해 인간과 상호작용하는 로봇을 학습시키는 방법을 이용하여 로봇을 학습하는 것을 예시한 도면이다.
830 : 인간
850 : 휴먼에이전트(Human Agent)
851 : 휴먼에이전트 동작데이터베이스
870 : 로봇에이전트(Robot Agent)
871 : 로봇에이전트 동작데이터베이스
890 : 로봇
Claims (16)
- 인간과 상호작용하는 로봇을 학습시키는 방법에 있어서,
상기 로봇이 동작하는 실제 공간의 특징을 반영하는 가상학습공간상에, 상기 인간에 대응하는 휴먼에이전트(Human Agent)와 상기 로봇에 대응하는 로봇에이전트(Robot Agent)를 생성하는 단계;
상기 가상학습공간상에서 상기 휴먼에이전트가 사용자로부터 상기 인간의 동작을 입력받고, 상기 입력받은 동작을 모방함으로써 상기 인간의 동작을 학습하는 단계; 및
상기 학습된 동작에 기초하여 상기 가상학습공간상에서, 상기 휴먼에이전트와 상기 로봇에이전트간의 상호학습을 통해, 상기 로봇에이전트가 상기 인간과의 상호작용동작을 학습함으로써 상기 로봇의 동작데이터를 생성하는 단계를 포함하는 방법. - 제 1 항에 있어서,
상기 로봇에이전트가 상기 상호작용동작을 학습하는 단계는,
상기 로봇에이전트가 상기 휴먼에이전트의 동작을 모방하여 반복적으로 학습하는 단계; 및
상기 휴먼에이전트와 상기 로봇에이전트간의 상호학습을 통해, 상기 로봇에이전트가 학습한 동작 중 하나의 동작 또는 둘 이상을 조합한 일련의 동작을 학습하는 단계를 포함하는 방법. - 제 2 항에 있어서,
상기 휴먼에이전트의 동작을 상기 로봇에이전트가 학습하는 단계는,
상기 휴먼에이전트의 동작을 입력받아 제 1 동작 제어값을 수집하면서, 마지막으로 양자화한 제2 동작 제어값과 비교하여 두 값의 차이가 임계치 이상이면 상기 제1 동작 제어값을 양자화하여 양자화된 동작을 생성하는 단계;
목표개수의 양자화된 동작이 시간순으로 배열되어 전체 행동이 구성되면, 상기 전체 행동 중 시간 축 상에서 연속하는 양자화된 동작들로 구성할 수 있는 모든 부분 행동들을 추출하는 단계; 및
상기 부분 행동들 중 복수의 대표 행동을 추출하고, 상기 대표 행동을 기준으로 상기 부분 행동들을 분류하는 단계를 포함하는 방법. - 제 3 항에 있어서,
상기 양자화된 동작을 생성하는 단계는,
상기 마지막으로 양자화한 제2 동작 제어값과 비교하기 위해, 상기 제1 동작 제어값과 상기 제2 동작 제어값의 유클리드(Euclid) 거리를 계산하여 유클리드 거리가 상기 임계치 이상인지 판단하는 단계를 포함하는 것을 특징으로 하는 방법. - 제 2 항에 있어서,
상기 로봇에이전트가 일련의 동작을 학습하는 단계는,
상기 휴먼에이전트가 각 상태에서 발현 확률이 가장 높은 동작을 수행하는 단계; 및
상기 휴먼에이전트의 동작에 따라 상기 로봇에이전트가 수행한 동작에 해당하는 보상값을 누적하는 단계를 반복하여 상기 보상값을 최대화하는 동작을 상기 인간과의 상호작용 동작으로 학습하는 것을 특징으로 하는 방법. - 제 5 항에 있어서,
상기 로봇에이전트는,
상기 휴먼에이전트의 현재 동작과 연결되는 과거의 일련의 동작을 고려하여 상기 보상값을 최대화하는 동작을 학습하는 것을 특징으로 하는 방법. - 인간과 상호작용하는 로봇을 학습시키는 방법에 있어서,
상기 로봇이 동작하는 실제 공간의 특징을 반영하는 가상학습공간상에, 상기 인간에 대응하는 휴먼에이전트(Human Agent)와 상기 로봇에 대응하는 로봇에이전트(Robot Agent)를 생성하는 단계;
상기 가상학습공간상에서 상기 휴먼에이전트가 사용자로부터 상기 인간의 동작을 입력받고, 상기 입력받은 동작을 모방함으로써 상기 인간의 동작을 학습하는 단계;
상기 학습된 동작에 기초하여 상기 가상학습공간상에서, 상기 휴먼에이전트와 상기 로봇에이전트간의 상호학습을 통해, 상기 로봇에이전트가 상기 인간과의 상호작용동작을 학습함으로써 상기 로봇의 동작데이터를 생성하는 단계; 및
상기 동작데이터를 상기 로봇에 입력하는 단계를 포함하는 방법. - 제 7 항에 있어서,
상기 동작데이터를 상기 로봇에 입력하는 단계는,
상기 입력된 동작데이터에 기초하여 상기 로봇이 상기 인간과 상호작용할 때, 상기 로봇의 동작을 측정하는 단계;
상기 로봇의 실제 동작에 대한 측정값과 상기 가상학습공간상의 동작데이터값을 비교하여 오차를 산출하는 단계; 및
상기 산출한 오차를 보정하는 단계를 포함하는 방법. - 인간과 상호작용하는 캐릭터를 학습시키는 방법에 있어서,
상기 캐릭터가 동작하는 가상공간의 특징을 반영하는 가상학습공간상에, 상기 인간에 대응하는 휴먼에이전트(Human Agent)와 상기 캐릭터에 대응하는 캐릭터에이전트(Character Agent)를 생성하는 단계;
상기 가상학습공간상에서 상기 휴먼에이전트가 사용자로부터 상기 인간의 동작을 입력받고, 상기 입력받은 동작을 모방함으로써 상기 인간의 동작을 학습하는 단계;
상기 학습된 동작에 기초하여 상기 가상학습공간상에서, 상기 휴먼에이전트와 상기 캐릭터에이전트간의 상호학습을 통해, 상기 캐릭터에이전트가 상기 인간과의 상호작용동작을 학습함으로써 상기 캐릭터의 동작데이터를 생성하는 단계;
상기 생성된 동작데이터를 상기 캐릭터가 동작하는 가상공간에 대응하는 포맷으로 변환하는 단계; 및
상기 캐릭터가 동작하는 가상공간에 대응하는 포맷으로 변환한 동작데이터를 상기 캐릭터에 입력하는 단계를 포함하는 방법. - 제 1 항 내지 제 9 항 중 어느 한 항의 방법을 컴퓨터 시스템에서 실행하기 위한 프로그램이 기록된 컴퓨터 시스템이 판독할 수 있는 기록매체.
- 인간과 상호작용하는 로봇에 있어서,
상기 로봇은 가상학습공간의 학습 과정을 통해 학습되고,
상기 학습 과정은,
상기 로봇이 동작하는 실제 공간의 특징을 반영하는 상기 가상학습공간상에, 상기 인간에 대응하는 휴먼에이전트(Human Agent)와 상기 로봇에 대응하는 로봇에이전트(Robot Agent)를 생성하고,
상기 가상학습공간상에서 상기 휴먼에이전트가 사용자로부터 상기 인간의 동작을 입력받고, 상기 입력받은 동작을 모방함으로써 상기 인간의 동작을 학습하며,
상기 학습된 동작에 기초하여 상기 가상학습공간상에서, 상기 휴먼에이전트와 상기 로봇에이전트간의 상호학습을 통해, 상기 로봇에이전트가 상기 인간과의 상호작용동작을 학습함으로써 상기 로봇의 동작데이터를 생성하는 것을 특징으로 하는 로봇. - 제 11 항에 있어서,
상기 로봇에이전트가 상기 상호작용동작을 학습하는 것은,
상기 로봇에이전트가 상기 휴먼에이전트의 동작을 모방하여 반복적으로 학습하고,
상기 휴먼에이전트와 상기 로봇에이전트간의 상호학습을 통해, 상기 로봇에이전트가 학습한 동작 중 하나의 동작 또는 둘 이상을 조합한 일련의 동작을 학습하는 것을 특징으로 하는 로봇. - 제 12 항에 있어서,
상기 휴먼에이전트의 동작을 상기 로봇에이전트가 학습하는 것은,
상기 휴먼에이전트의 동작을 입력받아 제 1 동작 제어값을 수집하면서, 마지막으로 양자화한 제2 동작 제어값과 비교하여 두 값의 차이가 임계치 이상이면 상기 제1 동작 제어값을 양자화하여 양자화된 동작을 생성하고,
목표개수의 양자화된 동작이 시간순으로 배열되어 전체 행동이 구성되면, 상기 전체 행동 중 시간 축 상에서 연속하는 양자화된 동작들로 구성할 수 있는 모든 부분 행동들을 추출하며,
상기 부분 행동들 중 복수의 대표 행동을 추출하고, 상기 대표 행동을 기준으로 상기 부분 행동들을 분류하는 것을 특징으로 하는 로봇. - 제 13 항에 있어서,
상기 양자화된 동작을 생성하는 것은,
상기 마지막으로 양자화한 제2 동작 제어값과 비교하기 위해, 상기 제1 동작 제어값과 상기 제2 동작 제어값의 유클리드(Euclid) 거리를 계산하여 유클리드 거리가 상기 임계치 이상인지 판단하는 것을 특징으로 하는 로봇. - 제 12 항에 있어서,
상기 로봇에이전트가 일련의 동작을 학습하는 것은,
상기 휴먼에이전트가 각 상태에서 발현 확률이 가장 높은 동작을 수행하고,
상기 휴먼에이전트의 동작에 따라 상기 로봇에이전트가 수행한 동작에 해당하는 보상값을 누적하는 단계를 반복하여 상기 보상값을 최대화하는 동작을 상기 인간과의 상호작용 동작으로 학습하는 것을 특징으로 하는 로봇. - 제 15 항에 있어서,
상기 로봇에이전트는,
상기 휴먼에이전트의 현재 동작과 연결되는 과거의 일련의 동작을 고려하여 상기 보상값을 최대화하는 동작을 학습하는 것을 특징으로 하는 로봇.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110063785A KR101086671B1 (ko) | 2011-06-29 | 2011-06-29 | 인간과 상호작용하는 로봇을 가상학습공간에서 학습시키는 방법, 기록매체, 및 그 방법으로 학습된 로봇 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110063785A KR101086671B1 (ko) | 2011-06-29 | 2011-06-29 | 인간과 상호작용하는 로봇을 가상학습공간에서 학습시키는 방법, 기록매체, 및 그 방법으로 학습된 로봇 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101086671B1 true KR101086671B1 (ko) | 2011-11-25 |
Family
ID=45398169
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110063785A KR101086671B1 (ko) | 2011-06-29 | 2011-06-29 | 인간과 상호작용하는 로봇을 가상학습공간에서 학습시키는 방법, 기록매체, 및 그 방법으로 학습된 로봇 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101086671B1 (ko) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110405777A (zh) * | 2018-04-28 | 2019-11-05 | 深圳果力智能科技有限公司 | 一种机器人的交互控制方法 |
KR20200087338A (ko) * | 2018-12-31 | 2020-07-21 | 한국과학기술연구원 | 행동 인식 학습용 동적 데이터베이스 구축 장치 및 방법 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6697707B2 (en) | 2001-04-06 | 2004-02-24 | Vanderbilt University | Architecture for robot intelligence |
US20100057255A1 (en) | 2008-09-01 | 2010-03-04 | Korea Institute Of Science And Technology | Method for controlling motion of a robot based upon evolutionary computation and imitation learning |
-
2011
- 2011-06-29 KR KR1020110063785A patent/KR101086671B1/ko active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6697707B2 (en) | 2001-04-06 | 2004-02-24 | Vanderbilt University | Architecture for robot intelligence |
US20100057255A1 (en) | 2008-09-01 | 2010-03-04 | Korea Institute Of Science And Technology | Method for controlling motion of a robot based upon evolutionary computation and imitation learning |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110405777A (zh) * | 2018-04-28 | 2019-11-05 | 深圳果力智能科技有限公司 | 一种机器人的交互控制方法 |
CN110405777B (zh) * | 2018-04-28 | 2023-03-31 | 深圳果力智能科技有限公司 | 一种机器人的交互控制方法 |
KR20200087338A (ko) * | 2018-12-31 | 2020-07-21 | 한국과학기술연구원 | 행동 인식 학습용 동적 데이터베이스 구축 장치 및 방법 |
KR102241287B1 (ko) | 2018-12-31 | 2021-04-16 | 한국과학기술연구원 | 행동 인식 학습용 동적 데이터베이스 구축 장치 및 방법 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Muratore et al. | Robot learning from randomized simulations: A review | |
JP2020091922A (ja) | 畳み込みニューラルネットワークにおける構造学習 | |
CN110462644A (zh) | 用于系统的自动化和控制的认知工程技术的系统和方法 | |
Govindarajan et al. | Dynamic learning path prediction—A learning analytics solution | |
EP2788924A2 (en) | Particle methods for nonlinear control | |
Schillaci et al. | Intrinsic motivation and episodic memories for robot exploration of high-dimensional sensory spaces | |
KR102293791B1 (ko) | 반도체 소자의 시뮬레이션을 위한 전자 장치, 방법, 및 컴퓨터 판독가능 매체 | |
Pöppel et al. | Satisficing models of bayesian theory of mind for explaining behavior of differently uncertain agents: Socially interactive agents track | |
US20210065027A1 (en) | Determination device, determination method, and recording medium with determination program recorded therein | |
Hu et al. | Heterogeneous crowd simulation using parametric reinforcement learning | |
KR101086671B1 (ko) | 인간과 상호작용하는 로봇을 가상학습공간에서 학습시키는 방법, 기록매체, 및 그 방법으로 학습된 로봇 | |
KR20210054349A (ko) | 환자의 상지 동작에 의해 도출되는 특징값을 이용한 임상평가척도 예측 방법 | |
JP7283774B2 (ja) | 人間の知能を人工知能に移植するための精密行動プロファイリングのための電子装置およびその動作方法、並びにコンピュータプログラム | |
Zhu et al. | Model identification via physics engines for improved policy search | |
US20220305647A1 (en) | Future prediction, using stochastic adversarial based sampling, for robotic control and/or other purpose(s) | |
Ren et al. | InsActor: Instruction-driven Physics-based Characters | |
Lin et al. | A recurrent neural fuzzy controller based on self‐organizing improved particle swarm optimization for a magnetic levitation system | |
US20220164659A1 (en) | Deep Learning Error Minimizing System for Real-Time Generation of Big Data Analysis Models for Mobile App Users and Controlling Method for the Same | |
Javed et al. | Random neural network learning heuristics | |
EP4035079A1 (en) | Upside-down reinforcement learning | |
Galashov et al. | Importance weighted policy learning and adaptation | |
Bisagno et al. | Virtual crowds: An LSTM-based framework for crowd simulation | |
KR101193073B1 (ko) | 모방 학습 기반의 캐릭터 행동 생성 장치, 그 방법 및 기록매체 | |
CN110832511B (zh) | 具有数据相关可用性的分布式设备上学习的系统和方法 | |
KR102502441B1 (ko) | 소수의 데이터를 이용하여 트레이닝되지 않은 상황에 적응하는 모바일 센싱장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
A302 | Request for accelerated examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20141117 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20151027 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20161102 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20171103 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20181031 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20191105 Year of fee payment: 9 |