KR20110026212A - 로봇 및 그 제어방법 - Google Patents

로봇 및 그 제어방법 Download PDF

Info

Publication number
KR20110026212A
KR20110026212A KR1020090084012A KR20090084012A KR20110026212A KR 20110026212 A KR20110026212 A KR 20110026212A KR 1020090084012 A KR1020090084012 A KR 1020090084012A KR 20090084012 A KR20090084012 A KR 20090084012A KR 20110026212 A KR20110026212 A KR 20110026212A
Authority
KR
South Korea
Prior art keywords
information
robot
situation
work
inferred
Prior art date
Application number
KR1020090084012A
Other languages
English (en)
Inventor
하태신
한우섭
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020090084012A priority Critical patent/KR20110026212A/ko
Priority to US12/875,750 priority patent/US20110060459A1/en
Publication of KR20110026212A publication Critical patent/KR20110026212A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/33Director till display
    • G05B2219/33056Reinforcement learning, agent acts, receives reward, emotion, action selective

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Fuzzy Systems (AREA)
  • Manufacturing & Machinery (AREA)
  • Manipulator (AREA)

Abstract

미가공 정보(raw information)와 특정 정보(specific information)를 분리하여 로봇의 작업 동작을 결정하는 로봇 및 그 제어방법이 개시된다. 로봇은 미가공 정보(raw information)와 특정 정보(specific information)를 분리하는 정보분리부와, 분리된 정보로 상황, 사용자의 의도, 작업 내용 및 작업을 위한 상세 정보를 추론하여 로봇의 작업 동작을 결정하는 동작결정부와, 결정된 작업 동작에 따라 로봇을 동작시키는 행동 실행부;를 포함하므로 체계적인 시나리오를 구현하여 작업 동작을 결정할 수 있다.

Description

로봇 및 그 제어방법{ROBOT AND CONTROL METHOD THEREOF}
사용자 명령에 의해 입력되는 정보와 센서에 의해 입력되는 정보를 이용하여 작업 동작을 결정하는 로봇 및 그 제어방법에 관한 것이다.
CMU에서 개발된 박물관 안내로봇인 미네르바의 제어구조는 상위레벨 제어 및 학습을 담당하는 층, 휴먼 인터페이스 층, 네이게이션 층, 하드웨어 인터페이스 층 등 총 4개의 층으로 구성되어 있다. 이 방법은 혼합 접근 방식을 따른 것으로, 사람과의 인터페이스와 네비게이션에 관련된 모듈을 모아 개별적인 제어층으로 설계한 것이 다른 구조들과 다르다. 미네르바의 구조는 계획, 지능, 행위 등을 담당하는 4개의 층으로 나눔으로써 각 층이 담당하는 기능을 확장할 수 있고 팀별 독립성을 지원할 수 있다
독일의 프라운호퍼 생산공학 및 자동화 연구소에서 제작된 케어오봇은 하이브리드 제어구조와 실시간 틀 구조를 가진다. 하이브리드 제어구조는 다양한 응용동작을 제어할 수 있으며 이상상황에 대처할 수 있다. 또한, 실시간 틀 구조는 운영체제에 추상적 개념을 사용하여 다른 기종에 이식 가능성이 크고, 특히 POSIX API를 지원하는 운영체제를 모두 사용할 수 있으므로, VxWorks와 같은 실시간 운영 체제를 활용할 수 있다는 특징이 있다.
스웨덴의 왕립기술원에서는 이동 서비스 로봇의 재사용성과 유연성을 위한 BERRA(Behavior-based Robot Research Architecture)를 제안하였다. BERRA는 딜리버릿 층, 작업 실행 층, 리엑티브 층의 3개의 층으로 구성된다. BERRA는 계획과 서비스 기능을 담당하는 계층을 분리함으로서, 다양한 조합의 계획을 생성하는 것이 가능하다.
KIST에서 제안하여 서비스 로봇인 PSR(Personal Service Robot)에 적용한 트라이퍼들 스키매틱 컨트롤 아키텍쳐(Tripodal schematic control architecture)는 전통적인 3 계층 아키텍쳐를 따르고 있어, 계획과 서비스 기능을 분리하여 다양한 조합의 서비스를 제공하는 것이 가능하다. 그리고 팀별 구현에 대한 독립성을 제공하기 때문에 대규모의 로봇 프로젝트를 지원하는데 유리하다.
사용자 명령에 의해 입력되는 정보와 센서에 의해 입력되는 정보로부터 주변 상황에 맞는 작업 내용을 결정하는 로봇 및 그 제어방법을 제공한다.
상황, 사용자의 의도, 작업 내용 및 작업을 위한 상세 정보를 추론하여 작업 동작을 결정하는 로봇 및 그 제어방법을 제공한다.
본 발명의 일측면에 의한 로봇은 미가공 정보(raw information)와 특정 정보(specific information)를 분리하는 정보분리부;와 상기 분리된 정보로 상황, 사용자의 의도, 작업 내용 및 작업을 위한 상세정보를 추론하여 로봇의 작업 동작을 결정하는 동작결정부;를 포함하는 것이 바람직하다.
상기 동작결정부는 상기 미가공 정보(raw information)를 전송받아 상기 로봇이 인식할 수 있는 데이터로 변환하는 제1인식부를 포함하는 것이 바람직하다.
상기 동작결정부는 상기 특정 정보(specific information)를 전송받아 상기 로봇이 인식할 수 있는 데이터로 변환하는 제2인식부를 포함하는 것이 바람직하다.
상기 동작결정부는 상기 미가공 정보(raw information)와 상기 상황이 추론되는 시점의 이전 시전의 상황, 사용자의 의도, 작업 내용 및 작업을 위한 상세정보로 상기 상황을 1차 추론하는 상황추론부를 포함하는 것이 바람직하다.
상기 상황추론부는 상기 1차 추론된 상황 정보와 상기 특정 정보(specific information)를 비교하여 상기 상황을 2차 추론하는 것이 바람직하다.
상기 동작결정부는 상기 미가공 정보(raw information)와 추론된 상황에 대한 정보로 사용자의 의도를 1차 추론하는 의도추론부를 포함하는 것이 바람직하다.
상기 의도추론부는 상기 1차 추론된 사용자의 의도에 대한 정보와 상기 특정 정보(specific information)를 비교하여 상기 사용자의 의도를 2차 추론하는 것이 바람직하다.
상기 동작결정부는 상기 미가공 정보(raw information)와 상기 추론된 의도에 대한 정보로 상기 작업 내용을 1차 추론하는 작업추론부를 포함하는 것이 바람직하다.
상기 작업추론부는 상기 1차 추론된 작업 내용에 대한 정보와 상기 특정 정보(specific information)를 비교하여 상기 작업 내용을 2차 추론하는 것이 바람직하다.
상기 동작결정부는 상기 미가공 정보(raw information)와 상기 추론된 작업내용에 대한 정보로 상기 작업을 위한 상세정보를 1차 추론하는 상세정보추론부를 포함하는 것이 바람직하다.
상기 상세정보추론부는 상기 추론된 상세정보와 상기 특정 정보(specific information)를 비교하여 상기 작업을 위한 상세정보를 2차 추론하는 것이 바람직하다.
상기 결정된 로봇의 작업 동작에 따라 상기 로봇을 동작시키는 행동 실행부;를 더 포함하는 것이 바람직하다.
그리고, 본 발명의 일측면에 의한 로봇의 제어방법은 미가공 정보(raw information)와 특정 정보(specific information)를 분리하고, 상기 분리된 정보로 상황, 사용자의 의도, 작업 내용 및 작업을 위한 상세정보를 추론하여 로봇의 작업 동작을 결정하는 것이 바람직하다.
상기 로봇의 작업 동작을 결정하는 것은, 상기 미가공 정보(raw information)와 상기 상황이 추론되는 시점의 이전 시점의 상황, 사용자의 의도, 작업 내용 및 작업을 위한 상세정보로 상기 상황을 추론하여 상기 로봇의 작업 동작을 결정하는 것이 바람직하다.
상기 추론된 상황에 대한 정보와 상기 특정 정보(specific information)를 비교하여 상기 상황을 재추론하는 것이 바람직하다.
상기 로봇의 작업 동작을 결정하는 것은, 상기 추론된 상황에 대한 정보와 상기 미가공 정보(raw information)로 상기 사용자의 의도를 추론하여 상기 로봇의 작업 동작을 결정하는 것이 바람직하다.
상기 추론된 사용자의 의도에 대한 정보와 상기 특정 정보(specific information)를 비교하여 상기 사용자의 의도를 재추론하는 것이 바람직하다.
상기 로봇의 작업 동작을 결정하는 것은, 상기 추론된 사용자의 의도에 대한 정보와 상기 미가공 정보(raw information)로 상기 작업 내용을 추론하여 상기 로봇의 작업 동작을 결정하는 것이 바람직하다.
상기 추론된 작업 내용에 대한 정보와 상기 특정 정보(specific information)를 비교하여 상기 작업 내용을 재추론하는 것이 바람직하다.
상기 로봇의 작업 동작을 결정하는 것은, 상기 추론된 작업 내용에 대한 정 보와 상기 미가공 정보(raw information)로 상기 작업을 위한 상세정보를 추론하여 상기 로봇의 작업 동작을 결정하는 것이 바람직하다.
상기 추론된 작업을 위한 상세정보와 상기 특정 정보(specific information)를 비교하여 상기 작업을 위한 상세정보를 재추론하는 것이 바람직하다.
미가공 정보(raw information)와 특정 정보(specific information)를 분리하여 상황, 사용자의 의도, 작업 내용 및 작업을 위한 상세 정보를 추론하므로 추론 엔진의 복잡성을 낮추고 추론 작업을 분리할 수 있다.
또한, 상황, 사용자의 의도, 작업 내용 및 작업을 위한 상세 정보로 정리된 체계적인 시나리오를 구현하여 로봇의 작업 동작을 결정할 수 있다.
이하에서는 첨부도면을 참조하여 본 발명에 대해 상세히 설명한다.
도 1은 본 발명의 일실시예에 의한 로봇의 행동 결정 모델과 사용자의 관계를 도시한 블록도이다.
도 1에 도시한 바와 같이, 로봇(1)의 행동 결정 모델은 미가공 정보(raw information)와 특정 정보(specific information)를 분리하는 정보분리부(10)와, 분리된 정보를 로봇(1)이 인식할 수 있는 데이터로 변환하는 인식부(20)와, 분리하여 인식된 정보를 융합하여 로봇(1)의 작업 동작을 결정하는 동작결정부(30)와, 결정된 작업 동작에 따라 로봇(1)을 동작시키는 행동실행부(40)를 포함할 수 있다.
정보분리부(10)는 센서 등(active sensing unit)에 의해 입력되는 미가공 정보(raw information)와 유저인터페이스 등(passive sensing unit)에 의해 입력되는 특정 정보(specific information)를 분리한다. 센서 등에 의해 입력되는 정보는 목적이 불분명하고 사용자(100)가 표현하고자 하는 목적이나 의도를 분명하게 반영하지 않는 반면에 유저인터페이스 등에 의해 입력되는 정보는 목적이 분명하며 사용자(100)의 의도가 그대로 반영되어 있다.
인식부(20)는 센서 등(active sensing unit)에 의해 입력되는 미가공 정보(raw information)를 전송받아 로봇(1)이 인식할 수 있는 데이터로 변환하고, 유저인터페이스 등(passive sensing unit)에 의해 입력되는 특정 정보(specific information)를 전송받아 로봇(1)이 인식할 수 있는 데이터로 변환할 수 있다.
동작결정부(30)는 각각 다른 카테고리(상황, 사용자의 의도, 작업 내용, 작업을 위한 상세정보)에 추론 결과를 출력하는 복수개의 추론부(32,34,36,38)를 포함할 수 있으며, 추론된 상황, 사용자의 의도, 작업 내용 및 작업을 위한 상세정보에 따라 로봇(1)이 수행해야 하는 작업 동작을 결정한다.
행동실행부(40)는 동작결정부(30)에 의해 결정된 작업 동작에 따라 로봇(1)을 동작시켜 사용자(100)에게 서비스를 제공한다.
한편, 사용자(100)는 로봇(1)에게 요구사항(requirement)을 전달하고 요구사항(requirement)에 따른 서비스를 제공받는다.
도 2는 본 발명의 일실시예에 의한 로봇의 행동 결정 모델을 구체화시켜 도시한 블록도이다.
도 2에 도시한 바와 같이, 로봇(1)은 외부로부터 입력된 정보를 그 입력 방법에 따라 분리하는 정보분리부(10)와, 분리된 정보를 전송받아 로봇(1)이 인식 가능한 데이터로 변환하는 제1,2인식부(20',20")와, 분리 및 변환된 정보를 융합하여 작업 동작을 결정하는 동작결정부(30)와, 결정된 작업 동작에 따라 로봇(1)을 동작시키는 행동실행부(40)를 포함한다.
정보분리부(10)는 센서 등(active sensing unit)에 의해 입력되는 미가공 정보(raw information)와 유저인터페이스 등(passive sensing unit)에 의해 입력되는 특정 정보(specific information)를 분리한다.
제1인식부(20')는 센서 등(active sensing unit)에 의해 입력되는 미가공 정보(raw information)를 전송받아 로봇(1)이 인식할 수 있는 데이터로 변환하고, 제2인식부(20")는 유저인터페이스 등(passive sensing unit)에 의해 입력되는 특정 정보(specific information)를 전송받아 로봇(1)이 인식할 수 있는 데이터로 변환한다. 제1인식부(20')는 미가공 정보(raw information)를 데이터 변환하여 후술할 상황추론부(32), 의도추론부(34), 작업추론부(36) 및 상세정보추론부(38)에 모두 전송하며, 제2인식부(20'')는 특정 정보(specific information)를 데이터 변환하여 복수 개의 추론부(32,34,36,38) 중 특정 정보에 관련된 추론부(32,34,36,38)에만 전송한다. 예를 들어, 기온/습도에 관한 정보인 미가공 정보(raw information)는 상황추론부(32), 의도추론부(34), 작업추론부(36) 및 상세정보추론부(38)에 모두 전송되며, 유저인터페이스 등(passive sensing unit)에 의해 입력되는 "물을 마시려고 한다(의도정보)"라는 특정 정보(specific information)는 의도추론부(34)에만 전송되어 의도 추론 시 사용된다.
동작결정부(30)는 사용자(100) 및 사용자(100)의 주변 환경의 변화에 관한 상황정보를 추론하는 상황추론부(32)와, 사용자(100)의 의도를 추론하는 의도추론부(34)와, 로봇(1)이 수행해야 하는 작업 내용을 추론하는 작업추론부(36)와, 작업을 위한 상세정보를 추론하는 상세정보추론부(38)를 포함할 수 있다. 모든 추론부(32,34,36,38)는 기본적으로 제1인식부(20')로부터 전송되는 정보를 바탕으로 추론을 수행하고, 그 추론된 결과와 제2인식부(20'')로부터 전송된 정보를 비교하여 실제 추론결과를 정하게 된다.
상황추론부(32)는 인식부(20)에서 전송되는 정보와 상황이 추론되는 시점(t)의 이전 시점(t-Δx)의 상황, 사용자(100)의 의도 및 작업을 위한 상세 정보를 이용하여 현재 상황(t시점의 상황)을 추론한다.
의도추론부(34)는 추론된 상황 정보를 기반으로 제1인식부(20')에서 전송된 정보로부터 사용자(100)의 의도를 추론한다. 사용자(100)의 의도는 "물을 마시려고 한다/잠을 자려고 한다/ 외출을 하려고 한다/ 식사를 하려고 한다" 등 다양한 예가 있다.
작업추론부(36)는 의도 추론 결과를 기반으로 제1인식부(20')로부터 전송된 정보로 작업 내용을 추론한다.
상세정보추론부(38)는 작업 내용 추론 결과를 기반으로 제1인식부(20')로부터 전송된 정보로 작업을 위한 상세정보를 추론한다. 상세정보는 사용자(100)의 위치, 주방용품의 변동사항, 냉장고 문의 개방여부 또는 냉장고에 수납된 식품의 변 동여부 등에 대한 정보일 수 있다. 여기서, 작업을 위한 상세정보란 로봇(1)이 작업을 수행하기 위해 필요한 정보를 의미하는 것이다. 예를 들면, 물건 A를 임의의 장소로 옮기는 작업을 수행하기 위해서는 물건 A가 위치하는 장소에 대한 정보가 필요하며, 이러한 정보가 작업을 위한 상세정보이다.
행동실행부(40)는 동작결정부(30)에 의해 결정된 로봇(1)의 작업 동작에 따라 로봇(1)을 동작시켜 사용자(100)에게 서비스를 제공한다.
로봇(1)의 행동 결정 모델의 동작을 실시예를 통해 알아보기로 한다.
예를 들면, 로봇(1)의 초기 상태에서 사용자(100)가 "목이 마르다(상황정보)"라는 정보를 유저인터페이스를 통해 로봇(1)에 입력하면(로봇에 최초 정보 입력),
첫째로, 상황추론부(32)는 제1인식부(20')를 통해 전송되는 정보 예를 들어, 날씨/시간/온도/습도 등의 센서에 의해 입력되는 정보를 기반으로 사용자(100)가 "운동 중"이라는 상황을 1차 추론할 수 있으며, 1차 추론된 "운동 중"이라는 상황과 제2인식부(20'')를 통해 입력된 "목이 마르다"라는 정보로부터 지금 상황이 "운동 중"이라는 것을 재차 추론할 수 있다. 다만, 제2인식부(20'')를 통해 입력된 "목이 마르다"라는 정보로부터 사용자(100)가 "식사 중"이라는 상황으로 추론이 변경될 수 있음은 물론이다. 즉, 확률분포에 따라 "목이 마르다"라는 이벤트에 대하여 "식사 중"이라는 상태가 추론되어 1차 추론된 "운동 중"이라는 상황이 "식사 중"이라는 상황으로 변경되어 추론될 수 있다.
여기서, "상황 추론"은 일반적으로 이벤트 또는 데이터를 통해 포착되는 일 련의 관찰 결과로부터 환경 또는 사용자(100)의 상태를 추리하거나 추론하는 프로세스를 의미하며, 임의의 이벤트에 대해 추론되는 상황은 확률적일 수 있으며, 데이터 및 이벤트의 고려에 기초한 관심의 상태들에 대한 확률 분포의 계산일 수 있다.
둘째로, 의도추론부(34)는 추론된 상황 즉, "사용자(100)가 운동 중"라는 상황과 제1인식부(20')를 통해 전송되는 정보를 통해 사용자(100)가 "물을 마시려고 한다"라는 사용자(100)의 의도를 추론할 수 있다.
셋째로, 작업추론부(36)는 추론된 의도 즉, "물을 마시려고 한다"라는 의도와 제1인식부(20')를 통해 전송되는 정보를 통해 사용자(100)에게 "물을 가져온다"라는 작업내용을 추론할 수 있다.
넷째로, 상세정보추론부(38)는 추론된 작업내용 즉, "물을 가져온다"라는 작업내용과 제1인식부(20')를 통해 전송되는 정보를 통해 작업을 위한 상세정보 "사용자(100)의 위치, 냉장고의 위치, 냉장고 문의 개방여부"등을 추론할 수 있다.
다섯째로, 로봇(1)은 "사용자(100)가 운동 중인 상황"이고 "물을 마시려는 의도"를 가지고 있으며, "물을 가져온다"라는 작업 내용과 "사용자(100)의 위치, 냉장고의 위치, 냉장고 문의 개방여부"등의 상세정보에 기초하여 사용자(100)에게 물을 가져오는 동작을 수행한다.
그리고, 상술한 로봇(1)의 동작 후에 사용자(100)가 "그릇 가져와(작업내용정보)"라는 정보를 유저인터페이스를 통해 입력하면,
첫째로, 상황추론부(32)는 제1인식부(20')를 통해 입력되는 날씨/시간/온도/ 습도 등의 센서에 의해 입력되는 정보와 상황이 추론되는 시점(t)의 이전 시점(t-Δx)의 상황, 사용자(100)의 의도, 작업 내용 및 작업을 위한 상세정보로부터 현재 상황을 추론한다. 구체적으로, 상황이 추론되는 시점의 이전 시점(t-Δx)의 상황은 "사용자(100)가 운동중"이고, 사용자(100)의 의도는 "물을 마시려고 한다"이며, 작업 내용은 "물을 가져온다"이며, 작업을 위한 상세정보는 "사용자(100)의 위치, 냉장고의 위치, 냉장고 문의 개방여부"등에 관한 정보이다. 따라서, 제1인식부(20')를 통해 입력되는 날씨/시간/온도/습도 등의 정보와 상황이 추론되는 시점의 이전 시점(t-Δx)의 상황, 사용자(100)의 의도, 작업 내용 및 작업을 위한 상세정보로부터 현재 상황은 "사용자(100)가 운동 중인 상황"으로 추론된다.
둘째로, 의도추론부(34)는 추론된 상황 즉, "사용자(100)가 운동 중"이라는 상황과 제1인식부(20')를 통해 입력되는 날씨/시간/온도/습도 등의 센서에 의해 입력되는 정보로부터 "물을 마시려고 한다"라고 사용자(100)의 의도를 추론하게 된다.
셋째로, 작업추론부(36)는 추론된 의도 즉, "물을 마시려고 한다"라는 의도와 제1인식부(20')를 통해 입력되는 날씨/시간/온도/습도 등의 센서에 의해 입력되는 정보로부터 "물을 가져온다"라고 작업 내용을 1차 추론하게 되고, 제2인식부(20'')로부터 입력된 작업 내용인 "그릇 가져와"라는 정보와 1차 추론 정보인 "물을 가져온다"를 비교하여 작업내용은 "그릇 가져와"라는 것으로 실제 추론 결과를 결정하게 된다. 이 때, 로봇(1)의 행동 결정 모델 설계 시 제2인식부(20'')를 통해 입력되는 정보가 우위가 될 수 있도록 웨이트를 설정할 수 있다. 다만, 1차 추론 정보와 제2인식부(20'')를 통해 입력되는 정보를 비교하여 우위를 정할 때 랜덤하게 선택할 수 있도록 정하는 것도 가능하다.
넷째로, 상세정보추론부(38)는 추론된 작업 내용인 "그릇 가져와"라는 작업내용과 제1인식부(20')를 통해 전송되는 정보를 통해 작업을 위한 상세정보 "사용자(100)의 위치, 주방의 위치, 그릇의 위치"등을 추론할 수 있다.
다섯째로, 로봇(1)은 "사용자(100)가 운동중인 상황"이고 "물을 마시려는 의도"를 가지고 있으며, "그릇을 가져온다"라는 작업 내용과 "사용자(100)의 위치, 주방의 위치, 그릇의 위치"등의 상세정보에 기초하여 사용자(100)에게 그릇을 가져오는 동작을 수행한다.
한편, 상술한 예에서 설명한 바와 같이, 제1인식부(20')는 미가공 정보(raw information)를 데이터 변환하여 상황추론부(32), 의도추론부(34), 작업추론부(36) 및 상세정보추론부(38)에 모두 전송하며, 제2인식부(20'')는 특정 정보(specific information)를 데이터 변환하여 복수 개의 추론부(32,34,36,38) 중 해당 추론부(32,34,36,38)에만 전송한다.
도 3은 본 발명의 일실시예에 의한 로봇의 행동 결정 모델의 시나리오를 도시한 도면이다.
도 3에 도시한 바와 같이, 로봇(1)의 행동 결정 모델의 시나리오는 1개의 상황에 복수 개(L개)의 사용자(100)의 의도가 존재하며, 1개의 사용자(100)의 의도에는 복수 개(M개)의 작업 내용이 존재하며, 1개의 작업 내용에는 복수 개(N개)의 상세 정보가 존재하게 된다.
이에 따라, 4개의 시나리오 베이스(상황+의도+작업내용+상세정보)를 노드로 하는 시나리오 트리를 형성할 수 있으며 세부 시나리오들을 종합하여 다양한 시나리오를 만들어 낼 수 있다.
도 4는 본 발명의 일실시예에 의한 로봇의 행동 결정 모델의 제어흐름도이다.
도 4에 도시한 바와 같이, 로봇(1)은 센서 등(active sensing unit)에 의한 미가공 정보(raw information) 또는 유저인터페이스 등(passive sensing unit)에 의한 특정 정보(specific information)가 입력되는지 확인한다.(S10)
다음으로, 정보분리부(10)는 미가공 정보(raw information) 또는 특정 정보(specific information)가 입력된 것으로 확인되면, 미가공 정보(raw information)와 특정 정보(specific information)를 분리한다.(S20)
한편, 네트워크를 통해 정보가 입력될 수 있으며, 네트워크를 통해 입력되는 정보 중 사용자(100)에 의해 입력되는 정보는 특정 정보(specific information)로 분리하고, 데이터베이스에 저장되어 있는 정보는 미가공 정보(raw information)로 분리할 수 있다. 즉, 로봇(1)에 정보를 입력하는 방법은 복수 개 존재하며, 복수 개의 방법으로 입력된 정보는 2가지의 정보 즉, 미가공 정보(raw information) 또는 특정 정보(specific information)로 분리가 가능하다.
다음으로, 제1인식부(20')는 센서 등(active sensing unit)에 의해 입력되는 미가공 정보(raw information)를 전송받아 로봇(1)이 인식할 수 있는 데이터로 변환하고, 제2인식부(20'')는 유저인터페이스 등(passive sensing unit)에 의해 입력 되는 특정 정보(specific information)를 전송받아 로봇(1)이 인식할 수 있는 데이터로 변환한다.(S30)
다음으로, 상황추론부(32)는 제1인식부(20')에서 전송하는 미가공 정보(raw information)와 상황이 추론되는 시점(t)의 이전 시점(t-Δx)의 상황, 사용자(100)의 의도, 작업 내용 및 작업을 위한 상세정보로 현재 상황을 1차 추론하며, 1차 추론된 상황과 제2인식부(20'')에서 전송된 특정 정보(specific information)를 비교하여 실제 추론 결과를 결정한다(2차 추론). 제2인식부(20'')는 특정 정보(specific information)를 데이터 변환하여 복수 개의 추론부(32,34,36,38) 중 해당 추론부(32,34,36,38)에만 전송한다. 예를 들어, 특정 정보(specific information)가 "물을 가져와"라는 정보라면 작업 내용에 관한 정보이므로 작업추론부(36)에만 특정 정보(specific information)가 전송된다. 한편, "물을 가져와"라는 정보가 작업내용에 관한 정보라는 것은 로봇(1)의 데이터베이스(미도시)에 미리 저장되어 있다. 따라서, "물을 가져와"라는 특정 정보(specific information)가 의도에 관한 정보라고 데이터베이스에 저장되어 있다면 그 특정 정보는 의도추론부(34)에 전송된다.(S40)
다음으로, 의도추론부(34)는 추론된 상황 정보를 기반으로 제1인식부(20')에서 전송된 정보로부터 사용자(100)의 의도를 1차 추론하고, 1차 추론된 의도와 제2인식부(20'')에서 전송된 특정 정보(specific information)를 비교하여 실제 추론 결과를 결정한다.(S50)
다음으로, 작업추론부(36)는 추론된 의도와 제1인식부(20')를 통해 전송되는 정보를 통해 작업내용을 추론하고, 1차 추론된 작업내용과 제2인식부(20'')에서 전송된 특정 정보(specific information)를 비교하여 실제 추론 결과를 결정한다.(S60)
다음으로, 상세정보추론부(38)는 추론된 작업내용과 제1인식부(20')를 통해 전송되는 정보를 통해 작업을 위한 상세정보를 추론하고, 1차 추론된 상세정보와 제2인식부(20'')에서 전송된 특정 정보(specific information)를 비교하여 실제 추론 결과를 결정한다.(S70)
한편, 1차 추론된 상황/의도/작업내용/상세정보 등과 특정 정보(specific information)를 비교하여 실제 추론 결과를 결정하는 것은 확률적일 수 있으며, 데이터 및 이벤트의 고려에 기초한 확률 분포의 계산일 수 있다. 또한, 1차 추론된 상황/의도/작업내용/상세정보와 특정 정보(specific information) 중 어느 하나의 정보에 웨이트를 높게 설정하여 실제 추론되는 상황/의도/작업내용/상세정보를 결정할 수도 있다. 그리고, 1차 추론된 상황/의도/작업내용/상세정보 등과 특정 정보를 비교하여 실제 추론 결과를 결정하는 것은 제2인식부(20'')를 통하여 해당 추론부(32,34,36,38)에 특정 정보가 전송된 경우에 수행되는 동작이며, 해당 추론부(32,34,36,38)에 특정 정보가 전송되지 않으면 1차 추론된 상황/의도/작업내용/상세정보가 추론 시점의 상황/의도/작업내용/상세정보로 결정된다.
다음으로, 행동실행부(40)는 추론된 로봇(1)의 작업내용과 작업을 위한 상세정보에 따라 로봇(1)을 동작시켜 사용자(100)에게 서비스를 제공한다. 로봇(1)은 추론된 상황과 사용자(100)의 의도에 맞추어 작업을 수행하게 된다.(S80)
도 1은 본 발명의 일실시예에 의한 로봇의 행동 결정 모델과 사용자의 관계를 도시한 블록도
도 2는 본 발명의 일실시예에 의한 로봇의 행동 결정 모델을 구체화시켜 도시한 블록도
도 3은 본 발명의 일실시예에 의한 로봇의 행동 결정 모델의 시나리오를 도시한 도면
도 4는 본 발명의 일실시예에 의한 로봇의 행동 결정 모델의 제어흐름도
*도면의 주요부분에 대한 부호 설명*
10 : 정보분리부 20', 20" : 제1인식부, 제2인식부
32 : 상황추론부 34 : 의도추론부
36 : 작업추론부 38 : 상세정보추론부
40 : 행동실행부

Claims (21)

  1. 미가공 정보(raw information)와 특정 정보(specific information)를 분리하는 정보분리부;
    상기 분리된 정보로 상황, 사용자의 의도, 작업 내용 및 작업을 위한 상세정보를 추론하여 로봇의 작업 동작을 결정하는 동작결정부;를 포함하는 로봇.
  2. 제 1 항에 있어서,
    상기 동작결정부는 상기 미가공 정보(raw information)를 전송받아 상기 로봇이 인식할 수 있는 데이터로 변환하는 제1인식부를 포함하는 로봇.
  3. 제 1 항에 있어서,
    상기 동작결정부는 상기 특정 정보(specific information)를 전송받아 상기 로봇이 인식할 수 있는 데이터로 변환하는 제2인식부를 포함하는 로봇.
  4. 제 1 항에 있어서,
    상기 동작결정부는 상기 미가공 정보(raw information)와 상기 상황이 추론되는 시점의 이전 시전의 상황, 사용자의 의도, 작업 내용 및 작업을 위한 상세정보로 상기 상황을 1차 추론하는 상황추론부를 포함하는 로봇.
  5. 제 4 항에 있어서,
    상기 상황추론부는 상기 1차 추론된 상황 정보와 상기 특정 정보(specific information)를 비교하여 상기 상황을 2차 추론하는 로봇.
  6. 제 1 항에 있어서,
    상기 동작결정부는 상기 미가공 정보(raw information)와 추론된 상황에 대한 정보로 사용자의 의도를 1차 추론하는 의도추론부를 포함하는 로봇.
  7. 제 6 항에 있어서,
    상기 의도추론부는 상기 1차 추론된 사용자의 의도에 대한 정보와 상기 특정 정보(specific information)를 비교하여 상기 사용자의 의도를 2차 추론하는 로봇.
  8. 제 1 항에 있어서,
    상기 동작결정부는 상기 미가공 정보(raw information)와 상기 추론된 의도에 대한 정보로 상기 작업 내용을 1차 추론하는 작업추론부를 포함하는 로봇.
  9. 제 8 항에 있어서,
    상기 작업추론부는 상기 1차 추론된 작업 내용에 대한 정보와 상기 특정 정보(specific information)를 비교하여 상기 작업 내용을 2차 추론하는 로봇.
  10. 제 1 항에 있어서,
    상기 동작결정부는 상기 미가공 정보(raw information)와 상기 추론된 작업내용에 대한 정보로 상기 작업을 위한 상세정보를 1차 추론하는 상세정보추론부를 포함하는 로봇.
  11. 제 10 항에 있어서,
    상기 상세정보추론부는 상기 추론된 상세정보와 상기 특정 정보(specific information)를 비교하여 상기 작업을 위한 상세정보를 2차 추론하는 로봇.
  12. 제 1 항에 있어서,
    상기 결정된 로봇의 작업 동작에 따라 상기 로봇을 동작시키는 행동 실행부;를 더 포함하는 로봇.
  13. 미가공 정보(raw information)와 특정 정보(specific information)를 분리하고,
    상기 분리된 정보로 상황, 사용자의 의도, 작업 내용 및 작업을 위한 상세정보를 추론하여 로봇의 작업 동작을 결정하는 로봇의 제어방법.
  14. 제 13 항에 있어서,
    상기 로봇의 작업 동작을 결정하는 것은,
    상기 미가공 정보(raw information)와 상기 상황이 추론되는 시점의 이전 시점의 상황, 사용자의 의도, 작업 내용 및 작업을 위한 상세정보로 상기 상황을 추론하여 상기 로봇의 작업 동작을 결정하는 것인 로봇의 제어방법.
  15. 제 14 항에 있어서,
    상기 추론된 상황에 대한 정보와 상기 특정 정보(specific information)를 비교하여 상기 상황을 재추론하는 로봇의 제어방법.
  16. 제 13 항에 있어서,
    상기 로봇의 작업 동작을 결정하는 것은,
    상기 추론된 상황에 대한 정보와 상기 미가공 정보(raw information)로 상기 사용자의 의도를 추론하여 상기 로봇의 작업 동작을 결정하는 것인 로봇의 제어방법.
  17. 제 16 항에 있어서,
    상기 추론된 사용자의 의도에 대한 정보와 상기 특정 정보(specific information)를 비교하여 상기 사용자의 의도를 재추론하는 로봇의 제어방법.
  18. 제 13 항에 있어서,
    상기 로봇의 작업 동작을 결정하는 것은,
    상기 추론된 사용자의 의도에 대한 정보와 상기 미가공 정보(raw information)로 상기 작업 내용을 추론하여 상기 로봇의 작업 동작을 결정하는 것인 로봇의 제어방법.
  19. 제 18 항에 있어서,
    상기 추론된 작업 내용에 대한 정보와 상기 특정 정보(specific information)를 비교하여 상기 작업 내용을 재추론하는 로봇의 제어방법.
  20. 제 13 항에 있어서,
    상기 로봇의 작업 동작을 결정하는 것은,
    상기 추론된 작업 내용에 대한 정보와 상기 미가공 정보(raw information)로 상기 작업을 위한 상세정보를 추론하여 상기 로봇의 작업 동작을 결정하는 것인 로봇의 제어방법.
  21. 제 20 항에 있어서,
    상기 추론된 작업을 위한 상세정보와 상기 특정 정보(specific information)를 비교하여 상기 작업을 위한 상세정보를 재추론하는 로봇의 제어방법.
KR1020090084012A 2009-09-07 2009-09-07 로봇 및 그 제어방법 KR20110026212A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020090084012A KR20110026212A (ko) 2009-09-07 2009-09-07 로봇 및 그 제어방법
US12/875,750 US20110060459A1 (en) 2009-09-07 2010-09-03 Robot and method of controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090084012A KR20110026212A (ko) 2009-09-07 2009-09-07 로봇 및 그 제어방법

Publications (1)

Publication Number Publication Date
KR20110026212A true KR20110026212A (ko) 2011-03-15

Family

ID=43648354

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090084012A KR20110026212A (ko) 2009-09-07 2009-09-07 로봇 및 그 제어방법

Country Status (2)

Country Link
US (1) US20110060459A1 (ko)
KR (1) KR20110026212A (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130083099A (ko) * 2012-01-12 2013-07-22 삼성전자주식회사 로봇 및 이상 상황 판단과 대응방법
WO2014017773A1 (ko) * 2012-07-23 2014-01-30 (주) 퓨처로봇 로봇 제어 시나리오 생성 방법 및 장치
WO2018131789A1 (ko) * 2017-01-12 2018-07-19 주식회사 하이 합성 센서와 상황인식기를 이용하여 생활 소음을 비롯한 각종 센서데이터를 분석하여 일상 활동 정보를 인식하고 공유하는 홈 소셜 로봇 시스템
KR20190079256A (ko) * 2017-12-27 2019-07-05 (주) 퓨처로봇 서비스 로봇의 제어 시나리오 생성 방법 및 그 장치
KR102109886B1 (ko) * 2018-11-09 2020-05-12 서울시립대학교 산학협력단 로봇 시스템 및 이의 서비스 제공 방법
KR20200133705A (ko) * 2020-11-20 2020-11-30 한국과학기술연구원 인간-로봇 상호작용을 위한 인터랙션 시스템 및 방법

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8032477B1 (en) * 1991-12-23 2011-10-04 Linda Irene Hoffberg Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
JP2002006784A (ja) * 2000-06-20 2002-01-11 Mitsubishi Electric Corp 浮遊型ロボット
WO2003086714A2 (en) * 2002-04-05 2003-10-23 The Trustees Of Columbia University In The City Of New York Robotic scrub nurse
US20080048979A1 (en) * 2003-07-09 2008-02-28 Xolan Enterprises Inc. Optical Method and Device for use in Communication
US20050154265A1 (en) * 2004-01-12 2005-07-14 Miro Xavier A. Intelligent nurse robot
WO2005087337A1 (en) * 2004-03-12 2005-09-22 Koninklijke Philips Electronics N.V. Electronic device and method of enabling to animate an object
ATE522330T1 (de) * 2005-09-30 2011-09-15 Irobot Corp Robotersystem mit kabelloser kommunikation mittels tcp/ip übertragung
US7797079B2 (en) * 2005-12-09 2010-09-14 Electronics And Telecommunications Research Institute Apparatus for controlling robot and method thereof
US20090138415A1 (en) * 2007-11-02 2009-05-28 James Justin Lancaster Automated research systems and methods for researching systems

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130083099A (ko) * 2012-01-12 2013-07-22 삼성전자주식회사 로봇 및 이상 상황 판단과 대응방법
WO2014017773A1 (ko) * 2012-07-23 2014-01-30 (주) 퓨처로봇 로봇 제어 시나리오 생성 방법 및 장치
CN104487208A (zh) * 2012-07-23 2015-04-01 (株)未来机器人 机器人控制脚本生成方法及装置
US9636822B2 (en) 2012-07-23 2017-05-02 Future Robot Co., Ltd. Method and device for generating robot control scenario
WO2018131789A1 (ko) * 2017-01-12 2018-07-19 주식회사 하이 합성 센서와 상황인식기를 이용하여 생활 소음을 비롯한 각종 센서데이터를 분석하여 일상 활동 정보를 인식하고 공유하는 홈 소셜 로봇 시스템
KR20190079256A (ko) * 2017-12-27 2019-07-05 (주) 퓨처로봇 서비스 로봇의 제어 시나리오 생성 방법 및 그 장치
KR102109886B1 (ko) * 2018-11-09 2020-05-12 서울시립대학교 산학협력단 로봇 시스템 및 이의 서비스 제공 방법
KR20200133705A (ko) * 2020-11-20 2020-11-30 한국과학기술연구원 인간-로봇 상호작용을 위한 인터랙션 시스템 및 방법

Also Published As

Publication number Publication date
US20110060459A1 (en) 2011-03-10

Similar Documents

Publication Publication Date Title
JP4989532B2 (ja) 移動サービスロボットの中央情報処理システム、移動サービスロボットの情報処理方法及び移動サービスロボットの情報処理方法を記録したコンピュータで読み取り可能な記録媒体
KR20110026212A (ko) 로봇 및 그 제어방법
Geisberger et al. Living in a networked world: Integrated research agenda Cyber-Physical Systems (agendaCPS)
Cook et al. A multi-agent approach to controlling a smart environment
Zielonka et al. Smart homes: How much will they support us? A research on recent trends and advances
Habib et al. Industry 4.0: Sustainability and design principles
CN106378780A (zh) 一种机器人系统、控制机器人的方法和服务器
López et al. Bellbot-a hotel assistant system using mobile robots
CN110083166A (zh) 针对多机器人的协同调度方法、装置、设备及介质
US20060282498A1 (en) Sensor network system, method for data processing of a sensor network system
Simoens et al. Internet of robotic things: Context-aware and personalized interventions of assistive social robots (short paper)
Saunders et al. A user friendly robot architecture for re-ablement and co-learning in a sensorised home
Ramos et al. Smart offices and intelligent decision rooms
Zhaohui et al. Development of an intelligent interaction service robot using ROS
Ellenberg et al. An environment for context-aware applications in smart homes
Heinroth et al. Human-computer interaction in next generation ambient intelligent environments
Turek et al. On human-centric and robot-centric perspective of a building model
Haupert et al. IRAR: Smart intention recognition and action recommendation for cyber-physical industry environments
Loza-Matovelle et al. Task planning system with priority for AAL environments
Sjöö et al. The explorer system
JP2016029561A (ja) エージェント、プログラム
KR100854675B1 (ko) 지능형 로봇을 위한 컴포넌트 기반 시퀀싱 층 소프트웨어구조
Zhu et al. Issues in adaptive collaboration
Gou et al. A knowledge fusion pattern and its evolution processes in a decision support system
Ongenae et al. User-friendly and scalable platform for the design of intelligent IoT services: a smart office use case

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application