KR100854675B1 - 지능형 로봇을 위한 컴포넌트 기반 시퀀싱 층 소프트웨어구조 - Google Patents

지능형 로봇을 위한 컴포넌트 기반 시퀀싱 층 소프트웨어구조 Download PDF

Info

Publication number
KR100854675B1
KR100854675B1 KR1020070010890A KR20070010890A KR100854675B1 KR 100854675 B1 KR100854675 B1 KR 100854675B1 KR 1020070010890 A KR1020070010890 A KR 1020070010890A KR 20070010890 A KR20070010890 A KR 20070010890A KR 100854675 B1 KR100854675 B1 KR 100854675B1
Authority
KR
South Korea
Prior art keywords
robot
user
component
module
unit
Prior art date
Application number
KR1020070010890A
Other languages
English (en)
Other versions
KR20080072325A (ko
Inventor
최문택
김문상
이재호
박수용
김민성
김순태
Original Assignee
한국과학기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술연구원 filed Critical 한국과학기술연구원
Priority to KR1020070010890A priority Critical patent/KR100854675B1/ko
Publication of KR20080072325A publication Critical patent/KR20080072325A/ko
Application granted granted Critical
Publication of KR100854675B1 publication Critical patent/KR100854675B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Abstract

본 발명은 지능형 로봇을 위한 컴포넌트 기반 소프트웨어 구조에 있어서, 작업 계획을 실제로 수행하는 제어 로직과 비교적 시간이 많이 소요되는 알고리즘 서비스가 위치하는 시퀀싱 층의 구조에 관한 것으로, 외부 환경 및 입력 정보를 인식하는 인식 모듈; 사용자의 발화문으로부터 일정 규칙을 기반으로 하여 사용자의 의도를 파악하는 추론 모듈; 로봇의 움직임을 제어하는 동작 모듈; 및 로봇이 사용자에게 제공하는 특정 서비스를 수행하는 콘텐츠 모듈을 포함하는 것을 특징으로 한다.
지능형 로봇, 컴포넌트 기반, 소프트웨어 구조

Description

지능형 로봇을 위한 컴포넌트 기반 시퀀싱 층 소프트웨어 구조 {Component-Based Sequencing Layer software Architecture for Intelligent Service Robots}
도 1은 지능형 로봇이 제공하는 서비스를 추상화한 액티비티 다이어그램,
도 2는 지능형 로봇이 제공하는 음료수 심부름 서비스 과정을 나타낸 액티비티 다이어그램,
도 3은 지능형 로봇이 제공하는 TV 프로그램 추천 서비스 과정을 나타낸 액티비티 다이어그램,
도 4는 지능형 로봇이 제공하는 음료수 심부름 서비스의 상위 수준 시퀀스 다이어그램,
도 5는 지능형 로봇이 제공하는 TV 프로그램 추천 서비스의 상위 수준 시퀀스 다이어그램,
도 6은 상위 수준의 시퀀스 다이어그램에서 식별된 각 컴포넌트를 나타낸 도면,
도 7은 지능형 로봇이 제공하는 음료수 심부름 서비스의 하위 수준 시퀀스 다이어그램,
도 8은 지능형 로봇이 제공하는 TV 프로그램 추천 서비스의 하위 수준 시퀀 스 다이어그램이다.
본 발명은 지능형 로봇을 위한 컴포넌트 기반 소프트웨어 구조에 관한 것으로, 특히, 딜리버릿 층(Deliberate Layer), 시퀀싱 층(Sequencing Layer) 및 리액티브 층(Reactive Layer)으로 구성되는 3 계층 아키텍처를 기반으로 한 소프트웨어 구조에 있어서, 작업 계획을 실제로 수행하는 제어 로직과 비교적 시간이 많이 소요되는 알고리즘 서비스가 위치하는 시퀀싱 층의 구조에 관한 것이다. 지능형 로봇의 소프트웨어 구조에 관해서는 후술하는 다양한 종래 기술이 있다.
CMU에서 개발된 박물관 안내로봇인 미네르바(MINERVA)의 제어구조는 상위레벨 제어 및 학습을 담당하는 층, 휴먼 인터페이스 층, 네비게이션 층, 하드웨어 인터페이스 층 등 총 4개의 층으로 구성되어 있다. 이 방법은 혼합 접근 방식을 따르는 것으로, 사람과의 인터페이스와 네비게이션에 관련된 모듈을 모아 개별적인 제어층으로 설계한 것이 다른 구조들과 다르다. 미네르바의 구조는 계획, 지능, 행위 등을 담당하는 4개의 층으로 나눔으로써 각 층이 담당하는 기능을 확장할 수 있고 팀별 독립성을 지원할 수 있다는 장점을 가진다. 그러나 객체 지향 개발방법론 혹은 서비스 지향 개발방법론이 아닌 함수 기반으로 모듈을 구현하였기 때문에 서비스를 독립적인 모듈로 관리, 유지하기 힘들다는 단점이 있다. 또한 개발 전 공정을 명세하는 표준 산출물이 제공되지 않아 전체 개발 과정을 추적하기 힘들어 새로운 서비스를 추가하거나 기존의 서비스가 변경되었을 때 기존의 서비스 모듈에 미치는 영향을 파악하기 힘들다.
독일의 프라운호퍼 생산공학 및 자동화 연구소(Fraunhofer Institute for Manufacturing Engineering and Automation)에서 제작된 케어오봇(Care-O-bot)은 하이브리드 제어구조와 실시간 틀 구조를 가진다. 하이브리드 제어구조는 다양한 응용동작을 제어할 수 있으며 이상상황에 대처할 수 있다. 또한, 실시간 틀 구조는 운영체제에 추상적 개념을 사용하여 다른 기종에 이식 가능성이 크고, 특히 POSIX API를 지원하는 운영체제를 모두 사용할 수 있으므로, VxWorks와 같은 실시간 운영체제를 활용할 수 있다는 특징이 있다. 하지만, 케어오봇 아키텍처는 지능, 계획, 행위 등을 담당하는 계층을 명시적으로 분리하고 있지 않아, 확장성 및 독립성을 지원하는데 한계가 있다. 그리고 로봇의 서비스는 재사용이 가능한 컴포넌트 혹은 서비스 단위가 아닌 테스크 단위로 구현되어 있어서, 소프트웨어의 유지/관리 및 확장에 한계가 있다. 또한, 표준 산출물이 제공되지 않기 때문에 개발 전 과정을 추적하기 힘들다.
스웨덴의 왕립기술원(Royal Institute of Technology)에서는 이동 서비스 로봇의 재사용성과 유연성을 위한 BERRA(Behavior-based Robot Research Architecture)를 제안하였다. BERRA는 딜리버릿 층(deliberate layer), 작업 실행 층(task execution layer), 리액티브 층(reactive layer)의 3개의 층으로 구성된다. BERRA는 계획과 서비스 기능을 담당하는 계층을 분리함으로써, 다양한 조합의 계획을 생성하는 것이 가능하다는 장점을 가진다. 그러나 시스템이 객체지향 개발방법론에 따라 개발되었기 때문에, 로봇과 같은 큰 시스템에서 독립적인 서비스 단위로 재사용하는데 한계가 있다.
KIST에서 제안하여 서비스 로봇인 PSR(Personal Service Robot)에 적용한 트라이퍼들 스키매틱 컨트롤 아키텍처(Tripodal schematic control architecture)는 전통적인 3 계층 아키텍처를 따르고 있어, 계획과 서비스 기능을 분리하여 다양한 조합의 서비스를 제공하는 것이 가능하다. 그리고 팀별 구현에 대한 독립성을 제공하기 때문에 대규모의 로봇 프로젝트를 지원하는데 유리하다. 또한, UML기반의 표준 산출물을 제공하므로 개발 전 공정에 대해 추적이 가능하여 요구사항 추가 혹은 변경에 대해 영향관계를 미리 파악할 수 있다. 그러나 컴포넌트 혹은 서비스와 같이 재사용 가능한 모듈로 개발되지 않아 서비스의 관리 및 확장에 한계가 있다.
본 발명은 상기와 같은 문제점을 해결하기 위하여 제안된 것으로, 컴포넌트 기반으로 시퀀싱 층을 설계하여 서비스의 관리 및 확장을 용이하게 하고, 표준 소프트웨어 모델링 기법을 사용하여 엔지니어 간의 지식 공유를 도울 수 있는, 지능형 로봇을 위한 컴포넌트 기반 시퀀싱 층 소프트웨어 구조를 제공하는 것이 목적이다.
상기 목적을 달성하기 위한 본 발명은, 지능형 로봇을 위한 컴포넌트 기반 소프트웨어 구조에서, 작업 계획을 실제로 수행하는 제어 로직과 비교적 시간이 많이 소요되는 알고리즘 서비스가 위치하는 시퀀싱 층의 구조에 있어서, 외부 환경 및 입력 정보를 인식하는 인식 모듈; 사용자의 발화문으로부터 일정 규칙을 기반으로 하여 사용자의 의도를 파악하는 추론 모듈; 로봇의 움직임을 제어하는 동작 모듈; 및 로봇이 사용자에게 제공하는 특정 서비스를 수행하는 콘텐츠 모듈을 포함하는 것을 특징으로 한다.
이하, 본 발명의 지능형 로봇을 위한 컴포넌트 기반 시퀀싱 층 소프트웨어 구조의 도출 과정 및 그 구조를 첨부된 도면을 참조하여 설명한다.
본 발명의 지능형 로봇을 위한 컴포넌트 기반 시퀀싱 층 소프트웨어 구조를 도출하기 위해서는 요구사항 정의, 로봇 프로세스 모델링, 상위 수준의 시퀀스 모델링, 컴포넌트 식별 및 하위 수준의 시퀀스 모델링의 과정을 거친다.
상기 요구사항 정의 단계는 로봇 사용자의 요구사항을 나타낸 시나리오를 기술하는 것이다. 우선, 지능형 로봇, 본 발명의 실시예에서는 지능 로봇 플랫폼 중 하나인 티롯(T-Rot),의 주요 기능들을 정의하고, 이러한 기능들을 통해 구현할 수 있는 로봇 시나리오를 기술한다.
상기 티롯은 신체적, 정신적 능력이 떨어지는 노인들에게 독립된 생활을 가능하게 해주는 가정용 도우미 로봇의 개발과 이를 위해서 개발하고 있는 로봇 기술들을 통합, 검증해 볼 수 있는 연구용 플랫폼을 제공하기 위해서 본 지능로봇사업단에서 개발한 것이다.
상기 티롯의 주요 기능으로는 상황 인지, 물체인식, 얼굴인식, 자세인식, 조작, 주행 등이 있으며, 이러한 티롯의 기능들을 통합하여 다음과 같은 시나리오를 기술할 수 있다.
[시나리오 1 - 호출 인식]
노인은 소파에 앉아있고, 티롯이 다른 방향을 바라보고 서 있다.
노인이 "티롯, 여기봐!"하고 부른다.
티롯이 호출 명령을 인식하고, 방향을 검지한다.
티롯이 모바일 베이스를 움직여서 노인 방향으로 선다.
티롯이 "주인님, 부르셨습니까?"하고 발화한다.
[시나리오 2 - 음료수 심부름]
[노인이 "목이 마르구나."라고 발화하면]
티롯이 노인의 질문을 인식한다.
티롯이 "그러면 음료수를 가져다 드릴까요?"라고 발화한다.
노인이 "음료수는 뭐가 있지?"라고 묻는다.
티롯이 노인의 질문을 인식한다.
[노인이 "마실 것 좀 가져다오."라고 발화하면]
티롯이 노인의 질문을 인식한다.
티롯이 "평소 즐겨 드시던 솔의 눈을 가져다 드릴까요?"라고 묻는다. (사용 자의 평소 선호도를 기억해서 제안)
노인이 "그래, 솔의 눈을 갖다 줘"라고 발화한다.
로봇이 "솔의 눈을 가져다 드리겠습니다."라고 발화한다.
[음료수 가져오기]
티롯이 주방 선반 앞으로 이동한다.
티롯이 선반 위의 솔의 눈을 인식해서 잡는다.
티롯이 노인에게 이동한다.
티롯이 노인에게 "솔의 눈을 가져왔습니다."라고 발화한다.
티롯이 솔의 눈을 잡아서 노인 앞 테이블 위에 올려놓는다.
[시나리오 3 - TV 프로그램 추천]
(상황 : 저녁 9시 20분, 일정이 비어 한가한 시간에 사용자가 TV를 시청하려고 함.)
노인 : 재미있는 TV 프로그램을 추천해줄래?
로봇 : 네. 지금 '불멸의 이순신'이 방송 중입니다. '불멸의 이순신'을 보시겠습니까?
노인 : 그래. '불멸의 이순신'을 보자.
로봇 : 네. '불멸의 이순신'을 시청하시겠습니다.
[시나리오 4 - TV 프로그램 대화]
노인 : 앞 부분은 무슨 내용이었지?
로봇 : 네. 명랑해전이 시작되고 조선군이 전세를 유리하게 몰아가며 도망치는 일본군을 쫓아 공격하던 중 이순신이 일본군의 총에 맞아 부상을 당한 내용입니다.
노인 : 지난 회는 줄거리가 어떻게 되지?
로봇 : 네. 명랑해전의 출격을 막는 선조와 일본군을 끝까지 소탕하려는 이순신의 갈등이 심해지지만, 결국 이순신이 출격을 결정하는 내용이었습니다.
노인 : 남자배우 이름은 뭐지?
로봇 : 네. 남자배우 이름은 '김명민' 입니다.
[시나리오 5 - 다른 TV 프로그램 추천]
(상황 : 저녁 9시 55분, 사용자와 로봇이 '불멸의 이순신'을 함께 보고 있음.)
로봇 : 오늘 10시부터 다큐멘터리 '생로병사의 비밀'이 방송될 예정입니다.
노인 : '생로병사의 비밀'은 어떤 내용이지?
로봇 : 네. 오늘은 당뇨와의 전쟁 제3편으로 실제 당뇨환자들의 경험을 바탕으로 당뇨를 이길 수 있는 구체적인 식이요법과 운동요법 등을 소개합니다.
노인 : 그래, '생로병사의 비밀'을 보자꾸나.
로봇 : 네. 채널을 변경하겠습니다.
이하, 상기 컴포넌트 도출 과정을 상기 시나리오 2 및 시나리오 3의 경우를 예를 들어 설명하겠다.
다음으로 로봇 프로세스 모델링 단계이다. 상기 요구사항 정의 단계에서는, 로봇의 내부를 고려하지 않고 사용자와 상호작용하는 로봇의 서비스를 글로써 표현하는 반면, 로봇 프로세스 모델링 단계에서는 위의 시나리오를 기반으로 로봇이 어떻게 사용자와 상호작용을 하고 사용자에게 서비스를 제공하는지를 도식화한다.
상기 로봇 프로세스 모델링의 최상위 단계인 로봇 프로세스 모델링 레벨 0에서는 로봇이 제공하는 서비스를 추상화하여 설명한다. 도 1은 상기 지능형 로봇이 제공하는 서비스를 추상화한 액티비티 다이어그램으로, 상기 5개의 시나리오를 기반으로 한 것이다.
로봇 프로세스 모델링 레벨 1에서는 상기 지능형 로봇이 제공하는 각 서비스별로 좀 더 자세하게 도식화한다. 도 2는 지능형 로봇이 제공하는 음료수 심부름 서비스 과정을 나타낸 액티비티 다이어그램으로, 상기 시나리오 2를 모델링한 것이다. 그리고, 도 3은 지능형 로봇이 제공하는 TV 프로그램 추천 서비스 과정을 나타낸 액티비티 다이어그램으로, 상기 시나리오 3을 모델링한 것이다.
상기 상위 수준의 시퀀스 모델링 단계에서는, 상기 지능형 로봇 시스템 내부의 컴포넌트들과 사용자 사이의 상호작용을 상위수준에서 시퀀스 다이어그램으로 표현한다. 도 4는 지능형 로봇이 제공하는 음료수 심부름 서비스의 상위 수준 시퀀스 다이어그램으로, 상기 도 2의 액티비티 다이어그램을 기반으로 시퀀스 모델링한 것이다. 그리고, 도 5는 지능형 로봇이 제공하는 TV 프로그램 추천 서비스의 상위 수준 시퀀스 다이어그램으로, 상기 도 3의 액티비티 다이어그램을 기반으로 시퀀스 모델링한 것이다.
다음으로, 상기 컴포넌트 식별 단계에서는, 상기 상위 수준의 시퀀스 다이어그램으로부터 상기 지능형 로봇 작업의 최소 행위 단위인 컴포넌트를 도출한다. 도 6은 상위 수준의 시퀀스 다이어그램에서 식별된 각 컴포넌트를 나타낸 도면이다.
본 발명의 지능형 로봇을 위한 컴포넌트 기반 시퀀싱 층 소프트웨어는 크게 인식 모듈, 추론 모듈, 동작 모듈 및 콘텐츠 모듈로 구성된다.
상기 인식 모듈은 외부 환경 및 입력 정보를 인식하기 위한 것으로, 3차원 물체 인식부(Recognition), 음성 인식부(ActiveAudioPlanner), 동작 인식부 (GestureRecognition) 및 멀티모달 인식 통합부(MMIIntegrator)를 포함할 수 있다.
상기 3차원 물체 인식부는 스테레오 카메라로부터 얻은 2차원 이미지와 깊이 이미지를 이용하여 공간상의 3차원 라인을 추출한 후, 연속적인 영상으로부터 얻은 라인들을 이용하여 데이터베이스에 저장되어 있는 물체를 인식한다. 그리고 상기 음성 인식부는 사용자의 발화문을 인식하며, 상기 동작 인식부는 사용자의 동작을 인식하여 상위층인 딜리버릿 층으로 사용자가 어떤 동작을 했는지 알려준다. 또한, 상기 멀티모달 인식 통합부는 멀티모달의 입력 중 음성 인식 결과와 터치 스크린 인식 결과를 통합하여 그 결과를 딜리버릿 층으로 보낸다.
상기 추론 모듈은 사용자의 발화문으로부터 일정 규칙을 기반으로 하여 사용자의 의도를 파악하기 위한 것으로, 사용자의 의도를 파악함에 있어 사용자 발화문의 모호성을 해결하기 위해 사용자와 상호작용을 수행하는 인지 상호 작용부 (CognitiveInteraction)를 포함한다.
상기 동작 모듈은 로봇의 움직임을 제어하기 위한 것으로, 머리 동작 제어부(HeadFacialMovement), 팔 동작 제어부(ManiSupervisor), 주행 제어부 (Automove), 음성 발화 제어부(VoiceExpression)를 포함할 수 있다.
상기 머리 동작 제어부는 지시된 감정의 표현, 목 움직임, 노래 및 발성되는 음성의 립 싱크를 위하여 눈꺼풀, 눈썹, 안구, 입술 등 머리의 움직임을 제어한다. 그리고 상기 팔 동작 제어부는 로봇 팔 및 핸드 작동 입력값들을 조정해서 실제 제어부로 전달하고 작업의 수행 결과를 피드백한다. 상기 주행 제어부는 로봇이 주행하기 위해 필요한 세부 컴포넌트들 간의 상호작용을 관리하여 이에 대하여 오류가 발생하였거나 수행이 실패한 경우를 처리한다. 또한, 상기 음성 발화부는 로봇의 발화를 제어한다.
상기 콘텐츠 모듈은 로봇이 사용자에게 제공하는 특정 서비스를 수행하기 위한 것으로, 로봇의 목적에 따라 선택적으로 포함될 수 있으며, TV 프로그램 서비스부(TVProgramService), TV 프로그램 상영부(TVProgramPlayer) 및 메뉴 디스플레이부(MenuDisplay)를 포함할 수 있다.
상기 TV 프로그램 서비스부는 TV 프로그램을 추천하고 프로그램 정보를 제공하며, TV 프로그램 상영부는 TV 프로그램 상영 및 채널 변경을 제어하고, 상기 메뉴 디스플레이부는 사용자에게 주문받을 정보를 메뉴 형식으로 보여준다.
마지막으로, 하위 수준의 시퀀싱 모델링 단계에서는, 상기 지능형 로봇 시스템 내부의 컴포넌트들과 사용자 사이의 상호작용을 하위수준에서 시퀀스 다이어그램으로 표현하며, 상기 시퀀스 다이어그램에는 컴포넌트들의 오퍼레이션과 변수 정 보가 포함된다. 도 7은 지능형 로봇이 제공하는 음료수 심부름 서비스의 하위 수준 시퀀스 다이어그램으로, 상기 도 4의 시퀀스 다이어그램을 하위 수준으로 표현한 것이다. 그리고, 도 8은 지능형 로봇이 제공하는 TV 프로그램 추천 서비스의 하위 수준 시퀀스 다이어그램으로, 상기 도 5의 시퀀스 다이어그램을 하위 수준으로 표현한 것이다.
상기와 같은 구성의 본 발명은, 로봇의 행위를 담당하는 시퀀싱 층을 지능과 계획을 담당하는 딜리버릿 층과 분리함으로써, 지능 체계에서 목표 작업을 수행하기 위한 다양한 서비스의 조합을 만들어 내는 것이 가능하게 하게 할 수 있다.
또한, 각각의 로봇 애플리케이션을 컴포넌트별로 구조화하여 이를 독립적으로 개발함으로써, 대규모 시스템 개발에서 프로젝트의 복잡성과 위험을 감소시킬 수 있다.
또한, UML 기반 아키텍처 모델링을 통해 소프트웨어 개발 과정에서 시각적인 산출물을 제공하여 개발자와 고객 간 또는 개발자들 간의 의사소통을 원활하게 할 수 있다.

Claims (6)

  1. 지능형 로봇을 위한 컴포넌트 기반 시스템에 있어서,
    외부 환경 및 입력 정보를 인식하는 인식 모듈;
    사용자의 발화문으로부터 일정 규칙을 기반으로 하여 사용자의 의도를 파악하는 추론 모듈; 및
    로봇의 움직임을 제어하는 동작 모듈을 포함하는 것을 특징으로 하는 지능형 로봇을 위한 컴포넌트 기반 시퀀싱 층 시스템.
  2. 제 1항에 있어서,
    상기 인식 모듈은,
    공간상의 3차원의 라인을 추출하여 데이터베이스에 저장되어 있는 물체를 인식하는 3차원 물체 인식부;
    사용자의 발화문을 인식하는 음성 인식부;
    사용자의 동작을 인식하여 상위층으로 사용자의 동작을 알려주는 동작 인식부; 및
    멀티모달의 입력 중 음성 인식 결과와 터치 스트린 인식 결과를 통합하여 그 결과를 상위층으로 보내는 멀티모달 인식 통합부를 포함하는 것을 특징으로 하는 지능형 로봇을 위한 컴포넌트 기반 시퀀싱 층 시스템.
  3. 제 1항에 있어서,
    상기 추론 모듈은,
    사용자의 발화문의 모호성을 해결하기 위해 사용자와 상호작용을 수행하는 인지 상호 작용부를 포함하는 것을 특징으로 하는 지능형 로봇을 위한 컴포넌트 기반 시퀀싱 층 시스템.
  4. 제 1항에 있어서,
    상기 동작 모듈은,
    로봇의 머리의 움직임을 제어하는 머리 동작 제어부;
    로봇의 팔의 움직임을 제어하는 팔 동작 제어부;
    로봇의 주행을 위해 필요한 세부 컴포넌트들 간의 상호작용 관리 및 예외 상황을 처리하는 주행 제어부; 및
    로봇의 발화를 제어하는 음성 발화 제어부를 포함하는 것을 특징으로 하는 지능형 로봇을 위한 컴포넌트 기반 시퀀싱 층 시스템.
  5. 제 1항에 있어서,
    로봇이 사용자에게 제공하는 특정 서비스를 수행하는 콘텐츠 모듈을 더 포함하는 것을 특징으로 하는 지능형 로봇을 위한 컴포넌트 기반 시퀀싱 층 시스템.
  6. 제 5항에 있어서,
    상기 콘텐츠 모듈은,
    TV 프로그램을 추천하고 프로그램 정보를 제공하는 TV 프로그램 서비스부;
    TV 프로그램 상영 및 채널 변경을 제어하는 TV 프로그램 상영부; 및
    사용자에게 주문받을 정보를 메뉴 형식으로 보여주는 메뉴 디스플레이부를 포함하는 것을 특징으로 하는 지능형 로봇을 위한 컴포넌트 기반 시퀀싱 층 시스템.
KR1020070010890A 2007-02-02 2007-02-02 지능형 로봇을 위한 컴포넌트 기반 시퀀싱 층 소프트웨어구조 KR100854675B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070010890A KR100854675B1 (ko) 2007-02-02 2007-02-02 지능형 로봇을 위한 컴포넌트 기반 시퀀싱 층 소프트웨어구조

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070010890A KR100854675B1 (ko) 2007-02-02 2007-02-02 지능형 로봇을 위한 컴포넌트 기반 시퀀싱 층 소프트웨어구조

Publications (2)

Publication Number Publication Date
KR20080072325A KR20080072325A (ko) 2008-08-06
KR100854675B1 true KR100854675B1 (ko) 2008-08-27

Family

ID=39882680

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070010890A KR100854675B1 (ko) 2007-02-02 2007-02-02 지능형 로봇을 위한 컴포넌트 기반 시퀀싱 층 소프트웨어구조

Country Status (1)

Country Link
KR (1) KR100854675B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10289076B2 (en) 2016-11-15 2019-05-14 Roborus Co., Ltd. Concierge robot system, concierge service method, and concierge robot

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109807900A (zh) * 2019-03-19 2019-05-28 西北工业大学 一种工业机器人组件化控制系统的软件架构

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070093940A1 (en) 2005-09-29 2007-04-26 Victor Ng-Thow-Hing Extensible task engine framework for humanoid robots
KR20070071473A (ko) * 2005-12-30 2007-07-04 한국생산기술연구원 모듈 기반 퍼스널 로봇의 폴트 톨러런트 지원을 위한네트워크 연결 유지 관리 시스템과 네트워크 연결 유지관리 방법 및 이를 기록한 기록매체

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070093940A1 (en) 2005-09-29 2007-04-26 Victor Ng-Thow-Hing Extensible task engine framework for humanoid robots
KR20070071473A (ko) * 2005-12-30 2007-07-04 한국생산기술연구원 모듈 기반 퍼스널 로봇의 폴트 톨러런트 지원을 위한네트워크 연결 유지 관리 시스템과 네트워크 연결 유지관리 방법 및 이를 기록한 기록매체

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10289076B2 (en) 2016-11-15 2019-05-14 Roborus Co., Ltd. Concierge robot system, concierge service method, and concierge robot

Also Published As

Publication number Publication date
KR20080072325A (ko) 2008-08-06

Similar Documents

Publication Publication Date Title
Hoffman et al. Collaboration in human-robot teams
Weiss et al. Cobots in industry 4.0: A roadmap for future practice studies on human–robot collaboration
Green et al. Human-robot collaboration: A literature review and augmented reality approach in design
KR102106193B1 (ko) 로봇의 대화를 관리하기 위한 방법 및 시스템
Dumas et al. Multimodal interfaces: A survey of principles, models and frameworks
Franklin et al. All gadget and no representation makes jack a dull environment
Sharma et al. Speech-gesture driven multimodal interfaces for crisis management
Mehlmann et al. Exploring a model of gaze for grounding in multimodal HRI
Schneiders et al. Non-dyadic interaction: A literature review of 15 years of human-robot interaction conference publications
Jayawardena et al. Socially assistive robot healthbot: Design, implementation, and field trials
CN106794581A (zh) 用于灵活的人机协作的系统和方法
CN107633381A (zh) 多用户和多设备协作
van Diggelen et al. Team design patterns
Romero-Garcés et al. Testing a fully autonomous robotic salesman in real scenarios
Scheutz et al. Systematic integration of cognitive and robotic architectures
Kleinehagenbrock et al. Supporting advanced interaction capabilities on a mobile robot with a flexible control system
Wang et al. Large language models for multi-modal human-robot interaction
Michaud et al. Spartacus attending the 2005 AAAI conference
Carbo Agent-based ubiquitous computing
KR100854675B1 (ko) 지능형 로봇을 위한 컴포넌트 기반 시퀀싱 층 소프트웨어구조
Steck et al. SmartTCL: An execution language for conditional reactive task execution in a three layer architecture for service robots
Ferrari et al. Bidirectional communication control for human-robot collaboration
CN116520997B (zh) 一种混合现实的增强显示与交互系统
Michaud et al. Modularity and integration in the design of a socially interactive robot
Brick et al. Speech and action: Integration of action and language for mobile robots

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120808

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20130731

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20140721

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20160804

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20170728

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20180801

Year of fee payment: 11