KR20100113382A - 행동유발성 확률모델의 학습방법 및 이를 이용한 로봇의 행동 선택 방법 - Google Patents
행동유발성 확률모델의 학습방법 및 이를 이용한 로봇의 행동 선택 방법 Download PDFInfo
- Publication number
- KR20100113382A KR20100113382A KR1020090031934A KR20090031934A KR20100113382A KR 20100113382 A KR20100113382 A KR 20100113382A KR 1020090031934 A KR1020090031934 A KR 1020090031934A KR 20090031934 A KR20090031934 A KR 20090031934A KR 20100113382 A KR20100113382 A KR 20100113382A
- Authority
- KR
- South Korea
- Prior art keywords
- behavior
- robot
- behavioral
- skill
- learning
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B23/00—Testing or monitoring of control systems or parts thereof
- G05B23/02—Electric testing or monitoring
- G05B23/0205—Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
- G05B23/0218—Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults
- G05B23/0224—Process history based detection method, e.g. whereby history implies the availability of large amounts of data
- G05B23/024—Quantitative history assessment, e.g. mathematical relationships between available data; Functions therefor; Principal component analysis [PCA]; Partial least square [PLS]; Statistical classifiers, e.g. Bayesian networks, linear regression or correlation analysis; Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computational Mathematics (AREA)
- Algebra (AREA)
- Automation & Control Theory (AREA)
- Evolutionary Computation (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Feedback Control In General (AREA)
- Manipulator (AREA)
Abstract
Description
Claims (7)
- 행동유발성(affordance) 확률모델의 학습방법에 있어서,로봇의 임무 수행에 필요한 행동유발성을 학습하기 위해, 상기 행동유발성별로 베이지안 네트워크를 이용하여 로봇과 환경 사이의 연관성에 관한 구조를 구성하는 단계;상기 로봇으로부터 상기 행동유발성 각각의 학습데이터를 수집하는 단계; 및상기 학습데이터를 이용하여 상기 베이지안 네트워크에 기반한 상기 행동유발성에 관한 확률모델을 개별적으로 학습하는 단계를 포함하는 것을 특징으로 하는 행동유발성 확률모델의 학습방법.
- 제1항에 있어서,상기 로봇과 환경 사이의 연관성에 관한 구조를 구성하는 단계는 상기 베이지안 네트워크의 구조를 형성하는 인지, 행동, 및 결과에 관련된 주요 변수들을 선택하는 단계를 포함하며,상기 학습데이터를 수집하는 단계는 선택된 상기 주요 변수들의 값을 수집하는 단계를 포함하며,상기 확률모델을 개별적으로 학습하는 단계는 상기 변수들의 값을 이용하여 상기 확률모델을 학습하는 단계를 포함하는 것을 특징으로 하는 행동유발성 확률모 델의 학습방법.
- 행동 유발성 확률 모델을 이용한 로봇의 행동 선택 방법에 있어서,상기 로봇으로부터 상기 행동유발성 각각의 학습데이터를 수집하는 단계;상기 학습데이터를 이용하여 상기 베이지안 네트워크에 기반한 상기 행동유발성에 관한 확률모델을 개별적으로 학습하는 단계; 및상기 행동유발성들 간의 순차적인 연결을 위한 소프트 행동-동기 스위치를 상기 행동유발성들 각각에 연결하여 스킬들을 형성하는 단계를 포함하는 것을 특징으로 하는 행동 유발성 확률 모델을 이용한 로봇의 행동 선택 방법.
- 제3항에 있어서, 상기 로봇의 행동 선택 방법은,임무 수행에 필요한 스킬을 선택하는 단계; 및상기 스킬 각각의 상기 소프트 행동-동기 스위치를 순차적으로 연결하여 소프트 행동-동기 네트워크를 형성하는 단계를 더 포함하는 것을 특징으로 하는 행동 유발성 확률 모델을 이용한 로봇의 행동 선택 방법.
- 제4항에 있어서, 상기 로봇의 행동 선택 방법은,아래 식들을 이용하여 현재 인지된 정보와 상기 행동유발성을 가지고, 상기 스킬의 행동을 평가하기 위한 2-튜플값을 산출하는 단계; 및(여기서, 여기서, zi는 인지에 연관된 변수들을 나타내고, A, ai는 행동에 연관된 변수들을 나타내며, ei는 결과에 연관된 변수를 나타내고, σ는 학습 데이터의 집합을 나타내며, π는 사전 지식(Preliminary Knowledge)을 의미하며, vi는 ith 스킬의 jth 행동을 사용한 확률적 분포에 의한 최대값이고, ai *는 ith 스킬에서 값을 최대화하기 위한 jth 행동임, Ti는 2-튜플 값을 의미함)아래식을 이용하여 상기 2-튜플값에 기초하여 스킬을 선택하는 단계를 더 포함하는 것을 특징으로 하는 행동 유발성 확률 모델을 이용한 로봇의 행동 선택 방법:
- 제3항 내지 제6항 중 어느 하나의 항에 있어서, 상기 로봇의 행동 선택 방법은,상기 베이지안 네트워크의 구조를 형성하는 인지, 행동, 및 결과에 관련된 주요 변수들을 선택하는 단계를 더 포함하는 것을 특징으로 하는 행동 유발성 확률 모델을 이용한 로봇의 행동 선택 방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090031934A KR101109568B1 (ko) | 2009-04-13 | 2009-04-13 | 행동유발성 확률모델을 이용한 로봇의 행동 선택 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090031934A KR101109568B1 (ko) | 2009-04-13 | 2009-04-13 | 행동유발성 확률모델을 이용한 로봇의 행동 선택 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20100113382A true KR20100113382A (ko) | 2010-10-21 |
KR101109568B1 KR101109568B1 (ko) | 2012-01-31 |
Family
ID=43132979
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090031934A KR101109568B1 (ko) | 2009-04-13 | 2009-04-13 | 행동유발성 확률모델을 이용한 로봇의 행동 선택 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101109568B1 (ko) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9508152B2 (en) | 2012-01-11 | 2016-11-29 | Samsung Electronics Co., Ltd. | Object learning and recognition method and system |
CN107631238A (zh) * | 2017-09-22 | 2018-01-26 | 武汉科技大学 | 一种仿萤火虫同步发光群体机器人及其同步发光方法 |
US9984099B2 (en) | 2012-08-30 | 2018-05-29 | Research & Business Foundation Sungkyunkwan University | System and method using affordance feature repository |
KR20200065900A (ko) * | 2018-11-30 | 2020-06-09 | 아주대학교산학협력단 | 자가 적응 시스템의 목표를 달성하기 위한 방법 및 장치 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20060072597A (ko) * | 2004-12-23 | 2006-06-28 | 한국전자통신연구원 | 가변 우선순위 기반의 로봇 행동선택 구조 및 그 방법 |
-
2009
- 2009-04-13 KR KR1020090031934A patent/KR101109568B1/ko active IP Right Grant
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9508152B2 (en) | 2012-01-11 | 2016-11-29 | Samsung Electronics Co., Ltd. | Object learning and recognition method and system |
US10163215B2 (en) | 2012-01-11 | 2018-12-25 | Samsung Electronics Co., Ltd. | Object learning and recognition method and system |
US10867405B2 (en) | 2012-01-11 | 2020-12-15 | Samsung Electronics Co., Ltd. | Object learning and recognition method and system |
US9984099B2 (en) | 2012-08-30 | 2018-05-29 | Research & Business Foundation Sungkyunkwan University | System and method using affordance feature repository |
CN107631238A (zh) * | 2017-09-22 | 2018-01-26 | 武汉科技大学 | 一种仿萤火虫同步发光群体机器人及其同步发光方法 |
CN107631238B (zh) * | 2017-09-22 | 2019-06-25 | 武汉科技大学 | 一种仿萤火虫同步发光群体机器人及其同步发光方法 |
KR20200065900A (ko) * | 2018-11-30 | 2020-06-09 | 아주대학교산학협력단 | 자가 적응 시스템의 목표를 달성하기 위한 방법 및 장치 |
Also Published As
Publication number | Publication date |
---|---|
KR101109568B1 (ko) | 2012-01-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Lison | A hybrid approach to dialogue management based on probabilistic rules | |
Chitnis et al. | Guided search for task and motion plans using learned heuristics | |
Talamadupula et al. | Coordination in human-robot teams using mental modeling and plan recognition | |
Van Otterlo | A survey of reinforcement learning in relational domains | |
KR101109568B1 (ko) | 행동유발성 확률모델을 이용한 로봇의 행동 선택 방법 | |
Akbari et al. | Knowledge-oriented task and motion planning for multiple mobile robots | |
Iocchi et al. | A practical framework for robust decision-theoretic planning and execution for service robots | |
Yalciner et al. | Hybrid conditional planning using answer set programming | |
Cuayáhuitl et al. | Spatially-aware dialogue control using hierarchical reinforcement learning | |
Sridharan et al. | A refinement-based architecture for knowledge representation and reasoning in robotics | |
Ahmed et al. | Deep reinforcement learning for multi-agent interaction | |
Claßen | Planning and verification in the agent language Golog | |
Wu et al. | Vision-language navigation: a survey and taxonomy | |
Zhang et al. | Performance guaranteed human-robot collaboration with POMDP supervisory control | |
Baldassarre | Planning with neural networks and reinforcement learning | |
Čertický | Real-time action model learning with online algorithm 3 sg | |
Davoodabadi Farahani et al. | Acquiring reusable skills in intrinsically motivated reinforcement learning | |
Tenorio-González et al. | Automatic discovery of concepts and actions | |
Wu et al. | Point-based online value iteration algorithm in large POMDP | |
Hawes et al. | Architecture and representations | |
WO2020117358A2 (en) | Systems and methods for operating robots using object-oriented partially observable markov decision processes | |
Efthymiadis et al. | A comparison of plan-based and abstract mdp reward shaping | |
Salles De Freitas et al. | QoS metrics-in-the-loop for better robot navigation | |
Demir et al. | Generating effective initiation sets for subgoal-driven options | |
Gao et al. | A Survey of Markov Model in Reinforcement Learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20150507 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20151214 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20170102 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20180102 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20190102 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20200102 Year of fee payment: 9 |