KR101553521B1 - 지능형 로봇 및 그 제어방법 - Google Patents

지능형 로봇 및 그 제어방법 Download PDF

Info

Publication number
KR101553521B1
KR101553521B1 KR1020080125755A KR20080125755A KR101553521B1 KR 101553521 B1 KR101553521 B1 KR 101553521B1 KR 1020080125755 A KR1020080125755 A KR 1020080125755A KR 20080125755 A KR20080125755 A KR 20080125755A KR 101553521 B1 KR101553521 B1 KR 101553521B1
Authority
KR
South Korea
Prior art keywords
task
robot
conversation
agent
user interface
Prior art date
Application number
KR1020080125755A
Other languages
English (en)
Other versions
KR20100067274A (ko
Inventor
이강희
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to KR1020080125755A priority Critical patent/KR101553521B1/ko
Priority to US12/591,609 priority patent/US8392341B2/en
Publication of KR20100067274A publication Critical patent/KR20100067274A/ko
Application granted granted Critical
Publication of KR101553521B1 publication Critical patent/KR101553521B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1661Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36118Adapt interactive dialog, help to experience, short cut menu
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40104Reactive planner, user is integral component of planner, interactive

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Mechanical Engineering (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Robotics (AREA)
  • Manipulator (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 대화시스템과 작업계획시스템을 포함하는 판단시스템을 구비함으로서 다차원적인 인식, 사고 및 행동을 수행할 수 있는 로봇 및 그 제어방법에 관한 것이다.
이를 위해 본 발명의 일실시예에 의한 로봇은 지능형 로봇의 대화 진행을 관장하는 대화관리자를 포함하는 대화시스템;과 상기 지능형 로봇이 상기 대화에 따라 수행해야 할 작업의 목표, 계획 및 행동을 관리하며 리더 에이전트, 액션 에이전트 및 상호작용 에이전트를 포함하는 작업계획시스템;을 포함하는 판단시스템을 구비하므로 관심(concern)의 분리를 지원하고, 이를 통해 개발의 편의를 고려할 수 있다.
또한, 본 발명의 일실시예에 의한 로봇의 판단시스템은 작업의 우선순위, 사용자의 인터페이스 및 로봇 본연의 임무 등 수많은 경우의 수를 고려한 메커니즘을 구비하고 있으므로 다차원적인 인식, 사고 및 행동을 수행할 수 있다.

Description

지능형 로봇 및 그 제어방법{INTELLIGENT ROBOT AND CONTROL METHOD THEREOF}
본 발명은 지능형 로봇 및 그 제어방법에 관한 것으로서, 보다 상세하게는 대화시스템과 작업계획시스템을 포함하는 판단시스템을 구비하는 지능형 로봇 및 그 제어방법에 관한 것이다.
오늘날 일반적인 로봇의 대화시스템은 휴머노이드 서비스 로봇 뿐만 아니라 가전이나 휴대폰 등 인공지능 에이전트들이 존재하며 어디든지 임베딩 될 수 있는 시스템에 주로 쓰이고 있으며, 로봇의 작업계획시스템은 사람과의 상호작용이나 대화가 필요없는 산업용 로봇 등에 널리 쓰이고 있다.
한편, 상술한 로봇의 대화시스템 및 작업계획시스템은 각각 복잡한 구성요소들을 가지고 있으며, 독립적으로도 훌륭한 모달리티를 지니고 있고, 인공지능적으로 작동이 가능하기 때문에 가정이나 사무실에서 사용자와 대화를 하면서 서비스를 제공하는데 필요한 판단시스템의 설계에 관한 연구는 주먹구구식으로 이루어지고 있다.
실제적으로 독립적인 시스템인 로봇의 대화시스템과 작업계획시스템을 결합 하여 판단시스템을 제작하다 보면 대화시스템이 주가 되어 작업계획시스템을 제어할 수도 있고, 반대로 작업계획시스템이 주가 되어 대화시스템을 제어할 수도 있다. 즉, 일을 하다가 대화를 할 수도 있고, 대화를 하다가 다른 일을 수행할 수도 있고, 대화를 하던 도중에 다른 센서입력을 받을 수도 있고, 대화없이 임의의 스케쥴된 일을 수행해야 할 경우도 있으므로 판단시스템 설계 시 수많은 경우의 수를 고려하여 설계를 하여야 한다. 예를 들면, 하나의 두뇌의 일부분이 대화도 담당하고, 두뇌의 다른 부분이 주로 인간의 행동을 계획 및 실행하면 조화롭게 되지만 판단 시스템의 경우 작업의 우선순위, 사용자의 즉각적인 입력, 로봇 본연의 임무 등을 소홀히 하지 않으면서 수많은 경우의 수를 고려하는 좋은 메카니즘을 구현하지 못하면 시스템 자체가 매우 복잡해지거나 조악해지기 쉽고, 좋은 성능을 기대하기 어렵게 된다.
본 발명의 일측면에 의하면 로봇의 작업계획시스템과 대화시스템 중 어느 하나의 시스템의 기능도 축소하지 않으면서 결합된 판단시스템의 설계 메카니즘을 제시하고자 한다.
또한, 본 발명의 다른 측면에 의하면 1차원적인 입출력의 개수가 다차원적인 인식, 사고, 행동의 종류별 입출력의 개수로 증가될 수 있는 다차원의 FSM(Finite State Machine)으로 설계된 작업계획시스템을 제시하고자 한다.
이를 위한 본 발명의 일실시예에 의한 지능형 로봇은 지능형 로봇의 대화 진행을 관장하는 대화관리자를 포함하는 대화시스템;과 상기 지능형 로봇이 상기 대화에 따라 수행해야 할 작업의 목표, 계획 및 행동을 관리하며 리더 에이전트, 액션 에이전트 및 상호작용 에이전트를 포함하는 작업계획시스템;을 포함하는 것이 바람직하다.
상기 리더 에이전트는 상위 수준의 목표를 유지하면서 다른 에이전트를 통합 및 조정하는 것이 바람직하다.
상기 액션 에이전트는 하드웨어와 관련된 센싱 및 구동을 제어하는 것이 바람직하다.
상기 상호작용 에이전트는 상기 대화관리자 상태를 모니터링하여 상기 작업계획시스템의 작업의 목표, 계획 및 행동에 반영하는 것이 바람직하다.
상기 판단시스템은 상황인식시스템을 더 포함하며, 상기 상황인식시스템은 대화상황이나 작업수행상황 또는 센서입력상황을 종합하여 필요한 정보를 상기 대화시스템 또는 작업계획시스템에 전송하는 것이 바람직하다.
상기 판단시스템은 데이타베이스를 더 포함하며, 상기 데이타베이스는 상기 지능형 로봇에 발생하는 정보를 저장하는 것이 바람직하다.
상기 대화시스템과 상기 작업계획시스템은 동종 또는 이종의 통신프로토콜을 통해 결합되는 것이 바람직하다.
상기 대화관리자는 화자의 대화 입력에 대한 의미 이해 및 종합적 상황 판단을 하여 대답을 생성하는 것이 바람직하다.
그리고, 본 발명의 일실시예에 의한 지능형 로봇의 제어방법은 지능형 로봇의 대화 진행을 관장하는 대화관리자를 포함하는 대화시스템과 상기 지능형 로봇이 상기 대화에 따라 수행해야 할 작업의 목표, 계획 및 행동을 관리하며 리더 에이전트, 액션 에이전트 및 상호작용 에이전트를 포함하는 작업계획시스템;을 포함하는 지능형 로봇의 제어방법에 있어서, 상기 상호작용 에이전트를 부동상태(idle state)로 천이시키는 단계;와 상기 대화관리자가 사용자 인터페이스를 감지하는 단계;와 상기 사용자 인터페이스가 감지되면 상기 로봇은 사용자인터페이스주목(user interface attending)을 수행하는 단계;와 상기 사용자인터페이스주목(user interface attending)이 수행되면 상기 대화관리자는 상기 사용자와 컬앤컴(call and come)대화를 수행하는 단계;를 포함하는 것이 바람직하다.
상기 컬앤컴(call and come)대화를 수행하면 상기 상호작용 에이전트를 동작상태(busy state)로 천이시키는 단계;를 더 포함하는 것이 바람직하다.
상기 상호작용 에이전트를 동작상태로 천이시키기 전에 사용자 인터페이스가 추가로 발생하는지 감지하는 단계;를 더 포함하는 것이 바람직하다.
상기 사용자 인터페이스가 추가로 발생하면 사용자인터페이스동작중단대화(user interface busy interrupt dialog)를 수행하는 단계;를 더 포함하는 것이 바람직하다.
상기 상호작용 에이전트가 동작상태(busy state)로 천이되면 사용자 인터페이스가 추가로 발생하는지 감지하는 단계;를 더 포함하는 것이 바람직하다.
상기 사용자 인터페이스가 추가로 발생한 것으로 확인되면 업무동작중주목(task busy attending)을 수행하는 단계;를 더 포함하는 것이 바람직하다.
상기 업무동작중주목(task busy attending)이 수행되면 업무동작중단대화(task busy interrupt dialog)를 수행하는 단계;를 더 포함하는 것이 바람직하다.
상기 상호작용 에이전트가 동작상태(busy state)로 천이되면 업무상주목(task attending)을 수행하는 단계;를 더 포함하는 것이 바람직하다.
상기 업무상주목(task attending)이 수행되면 업무특정대화(task-specific-dialog)를 수행하는 단계;를 더 포함하는 것이 바람직하다.
한편, 상술한 본 발명의 일실시예에 의한 지능형 로봇의 판단시스템은 3가지의 멀티 에이전트 시스템을 가짐으로서 관심(concern)의 분리를 지원하고, 이를 통해 개발의 편의를 용이하게 한다.
이하에서는 첨부도면을 참조하여 본 발명에 대해 상세히 설명한다.
도 1은 본 발명의 일실시예에 의한 지능형 로봇의 판단시스템의 개략적인 구성도이다.
도 1에 도시한 바와 같이, 본 발명의 일실시예에 의한 판단시스템(1)은 도메인(domain)에 독립적인 대화가 가능한 대화시스템(10)과, 복수개의 에이전트를 구비하여 관심의 분리가 가능하며 개발의 편의성을 용이하게 하는 작업계획시스템(20)과, 지능형 로봇에 관련된 배경정보나 과거정보 등을 저장하고 있는 데이터베이스(30)와, 로봇의 주변 상황이나 센서입력상황 등을 인식하는 상황인식부(40)를 포함할 수 있다.
대화시스템(10)은 컴포넌트(component) 간에 메시지-패싱(message-passing) 통신방식을 사용하여 통신할 수 있는 아키텍쳐이며, 음성 인식(speech recognition), 음성 이해(spoken language understanding), 발화(language generation)등의 기능을 할 수 있으며, 그 기능 수행과정에 대해서는 구체적으로 후술한다.
인식서버(1)는 외부의 음성을 인식하는 서버로서 사용자와 상호작용 시 입력부분이 된다. 또한, 문장 인식 즉, 텍스트의 인식도 가능하며 인식된 음성 또는 텍스트에 관한 정보를 파싱부(2)에 전송한다.
파싱부(parsing,2)는 인식된 음성 또는 텍스트의 각각의 단어를 구분해준다. 예를 들어, "bring me the cup"이라는 음성 또는 텍스트가 입력되면 "bring", "me", "the cup"로 단어를 구분함으로서, 동작과 관련된 명령어 "bring"과 대상과 관련된 "me"와 타켓인 "cup"를 분리하여 의미적 요소를 추출하고, 그 의미를 이해하게 된다.
대화관리자(dialog manager,3)는 대화 테이블을 형성함으로서 대화 진행을 종합적으로 관장하며, 화자에 의해 들어온 입력에 대한 의미 이해 및 종합적인 상황 판단을 하여 텍스트 대답까지 생성하게 된다.
언어발생부(language generation,4)는 대화관리자(3)에서 발생한 텍스트의 단어들을 조합하여 문장을 생성한다. 이 때, 사용자의 설정에 따라 한국어 또는 영어 등의 언어종류 선택이 가능하다.
음성합성부(synthesis theta,5)는 언어발생부(4)에서 발생한 텍스트 즉, 문장을 음성으로 합성하게 되며, 텍스트 입출력부(6)는 상술한 구성 없이 바로 허브(7)를 통해 대화관리자(3)로 텍스트를 전송할 때 사용된다.
한편, 허브(7)는 상술한 모든 구성간에 통신을 가능하게 해주는 중앙서버를 의미한다.
한편, 상술한 대화시스템은 올림푸스 시스템(Olympus System)으로서 CMU LTI의 Carbonell 및 Rudnicky 교수에 의해 개발되어 사용되는 기술로서 공지기술이다.
한편, 작업계획시스템(20)은 복수개의 에이전트 즉, 상호작용 에이전트(interaction agent, 13), 리더 에이전트(leader agent, 16), 액션 에이전트(action agent, 19)를 도입하여 작업 수행 및 실행을 행하는 메커니즘으로서 그 구체적인 동작에 대해 살펴본다.
상호작용 에이전트(13)는 대화시스템(10)의 대화관리자(3)의 상태를 계속 모니터링하여 반영하게 되며, 대화관리자(3)로부터 인터럽트를 받기도 한다. 또한, 대화관리자(3)로부터 전송된 정보(information)와 목표(goal)을 해석하고. 리더 에이전트(16)가 상위 수준의 목표에 해당하는 행동을 개시시킬 수 있도록 한다.
리더 에이전트(16)는 상호작용 에이전트(13)에서 해석된 상위 수준의 목표(high-level-goal)을 유지하면서 다른 에이전트들을 통합 및 조정한다.
액션 에이전트(19)는 로봇의 하드웨어와 관련된 센싱(sensing)과 구동(actuation)에 관련된 업무(task)들을 담당한다.
한편, 본 발명의 일실시예에 의한 작업계획시스템(20)은 상술한 것과 같이 멀티 에이전트 시스템(multi agent system)으로 구성되므로 관심(concern)의 분리를 지원하고, 이를 통해 개발의 편의를 용이하게 할 수 있다. 예를 들어, 하나의 에이전트를 테스트 목적의 간단한 기본 기능(harness)을 지닌 에이전트 또는 프로그램 등으로 대체함으로서 단독으로 테스트를 가능하게 할 수도 있다.
한편, 데이터베이스(30)는 로봇이 동작하는데 필요한 프로그램 데이터 및 미리 정해지는 다양한 설정값들을 저장하며, 웹으로부터 필요한 정보를 제공받는 웹부(23)와, 짧은 기간 동안 정보를 저장할 수 있는 STM(Short Term Memory,26)과, 긴 시간 동안 정보를 저장할 수 있는 LTM(Long Term Memory,29)을 포함할 수 있다.
한편, 상황인식부(40)는 매우 복잡한 대화 상황이나 작업수행 상황 또는 센서입력상황 등을 종합하여 가장 적합한 상황을 인식하고, 그 정보를 대화시스 템(10)과 작업계획시스템(20)에 전송한다. 예를 들어, "bring me the cup"라는 명령을 사용자가 로봇에 음성 또는 텍스트로 입력했을 때, 상황인식부(40)는 사용자의 명령과 외부 상황 즉, 계절 등을 인식하여 여름에는 찬물을 가져오고, 겨울에는 뜨거운 물을 가져오는 등 가장 적합한 상황에 따른 행동 정보를 전송하게 된다.
한편, 각 에이전트간에 통신방법에 대해 간단히 설명한다.
첫째로, 작업계획시스템(20)과 대화관리자(3)간에는 동종 또는 이종의 통신프로토콜을 통해 결합될 수 있다. 이 때, 이종 프로토콜로 결합될 경우에는 미들웨어를 두어 서로간의 통신이 원활하게 할 수 있다. 또한, 작업계획시스템(20)과 대화관리자(3)는 서로간에 비동기적으로 메시지를 보내며 반응을 하게 된다. 예를 들면, 작업계획시스템(20)은 업무 수행 중 대화관리자(3)가 대화를 개시하도록 통신할 수 있으며, 대화관리자(3)는 작업계획시스템(20)이 사용자와 상호작용을 하며 업무 수행을 할 때 인터럽트할 수 있다.
둘째로, 대화관리자(3)로부터 상호작용 에이전트(13)간의 통신을 알아보면, 대화관리자(3)에서 발생하는 이벤트들은 상호작용 에이전트(13)로 지속적으로 전달되어야 한다. 이 때, 대화관리자(3)를 통한 주목 요청 뿐만 아니라 상술한 여러 가지 사용자인터페이스 등에 의한 주목 요청(attending request)에 대해서도 동일한 방식으로 다루어져야 한다. 예를 들어, 로봇이 자신의 이름을 부르는 주목 요청이나 접촉 혹은 손뼉을 치는 등의 주목 요청에 대해서도 동일하게 반응해야 한다. 또한, 대화가 끝나면 대화종료신호도 전송이 되어야 한다.
셋째로, 대화관리자(3)로부터 작업계획시스템(20)으로의 통신을 알아보면, 대화 중에 사용자에 의해 요구되는 목표(goals)는 리더 에이전트(16)에 전송이 된다. 또한, 목표(goal)는 다른 모달리티를 통해 제시되더라도 동일한 방법으로 전송이 되어야 한다.
넷째로, 상호작용 에이전트(13)로부터 대화관리자(3)로의 통신을 알아보면, 대화관리자(3)는 시스템의 전체의 상태에 대해 알지 못한다. 따라서, 상호작용 에이전트(13)가 FSM(Finite State Machine)의 새로운 상태(state)로 진입할 때 대화관리자(3)에게 새로운 상태와 관련된 모든 정보를 전달해야 한다.
다섯번째로, 작업계획시스템(20)으로부터 대화관리자(3)로의 통신을 알아보면, 작업계획시스템(20)은 대화와 관련있는 로봇의 일시적 상태를 모두 전송해야 한다. 예를 들어, 즉시 실행을 필요로 하는 임의의 업무가 리더 에이전트(16)의 큐(queue)에 있는지 여부, 대화 도중에 배터리가 방전되어 충전 스테이션으로 돌아오기 위해 대화를 중단해야 하는 상태에 있는지 여부 등에 관한 정보를 전송해야 한다.
도 2a는 본 발명의 일실시예에 의한 로봇과 사용자의 초기 인터페이스에 관한 동작을 설명하기 위한 흐름도이다.
도 2a에 도시한 바와 같이, 본 발명의 일실시예에 의한 로봇에 전원이 인가되면 초기화를 수행한다. 즉, 상술한 로봇의 시스템을 리셋하여 초기화를 시킨다.(s10) 이 때, 로봇의 상호작용 에이전트(13)는 부동상태(idle state)로 천이되어 사용자의 명령을 대기한다.(s20) 또한, 부동상태에서 임의의 사용자 인터페이스 요소(User Interface Component)등은 로봇의 주목(attending)요청을 낼 수 있으며, 사용자 인터페이스 요소들은 복수개가 존재할 수 있다. 예를 들면, 특정 주목을 의미하는 단어(예를 들면, "이리 와", "컴온", "주목", "로봇"등)나 손뼉 소리, 접촉, 무선 조종(remote control), 호출 버튼(call button) 등이 사용자 인터페이스 요소가 될 수 있다.
한편, 사용자 인터페이스 요소가 있는 것으로 확인되면 사용자인터페이스주목(user interface attending)을 하게 된다. 여기서 로봇이 사용자에게 주목(attending)을 하는 것은 적절한 거리에서 그 사람과 마주 대면하는 것과 같은 사회적 규범이라고 할 수 있다. 또한, 주목은 주목에 대한 사용자의 요구에 즉시 자극되기 시작한다. 이는 로봇 주도의 업무(task)의 시작을 방지해주며, 동시에 다수의 사용자들이 로봇의 주목을 요구할 때 결정이 우유부단한 상황을 예방해준다. 만약, 사용자 인터페이스 요소에 의한 주목이 실패하면 상호작용 에이전트(13)는 부동 상태로 돌아간다.(s40)
도 2b는 본 발명의 일실시예에 의한 로봇과 사용자의 초기 대화에 관한 동작을 설명하기 위한 흐름도이다.
도 2a에서 설명한 것과 같이, 본 발명의 일실시예에 의한 로봇은 초기화를 수행 후 부동상태(idle state)로 천이되며, 상술한 것처럼 "로봇"과 같은 사용자의 음성 호출 등의 사용자 인터페이스 요소에 의해 로봇의 주목 요청이 입력되면 사용자 주목(user interface attending)을 수행함으로서 대화 준비를 완료하게 된다.(s10,s20,s40)
또한, 로봇은 사용자에게 주목함으로서 대화 준비가 완료되면 사용자와 컬 앤컴(call and come) 대화를 수행한다. 예를 들면, 사용자가 로봇에게 "이리와"라고 명령을 하고 로봇이 "예, 주인님"이라 대답을 한 후, 사용자가 "나한테 컵을 가져와"라고 하면 로봇이 "예, 주인님"이라고 대답하는 방식으로 대화를 수행하게 되는 것이다. 이 때, 대화관리자(3)는 컬앤컴 대화가 끝난 후 또는 대화 도중 작업계획시스템(20)에 목표(goal)를 제시할 수도 있으며, 제시된 목표는 리더 에이전트(16)의 큐(queue)에 저장된다. 대화가 종료되면 로봇은 사용자의 명령에 의해 큐(queue)에 저장된 업무를 수행하며, 대화관리자(3)가 대화의 완료를 나타내는 신호를 보내면 로봇은 다시 부동상태(idle state)로 천이한다.(s50)
도 2c는 본 발명의 일실시예에 의한 로봇이 업무 수행 중 사용자와 대화하는 동작을 설명하기 위한 흐름도이다.
도 2a 및 도 2b에 설명한 것처럼, 사용자 인터페이스 요소가 있는 것으로 확인되면 사용자인터페이스주목을 한 후 컬앤컴 대화를 수행한 후 상호작용 에이전트(13)는 부동상태(idle state)에서 동작상태(busy state)로 천이된다. 여기서 동작상태(busy state)는 로봇의 주목을 받는 임의의 비대화 상태를 표현한다. 또한, 동작상태는 상호작용 에이전트(13)가 부동상태(idle state)일 경우 리더 에이전트(16)에 의해서만 천이 될 수 있다.(s10,s20,s60)
그리고, 동작상태에서 사용자와 업무에 대해 상호작용을 하기 위해 업무상 주목(task attending)을 하게 된다. 또한, 로봇의 업무상 주목으로 대화준비가 되면, 사용자가 지시한 작업의 수행과정에서 필요한 업무특정대화(Task-Specific-dialog)를 할 수 있다.(s70,s80)
예를 들어, 컬앤컴(call and come)대화에서 전달된 업무가 "컵을 나에게 가져와"였다면 업무특정대화(Task-Specific-dialog)에서는 "여기 가져왔습니다", "더 시킬일 없습니까?"등의 대화를 관장하게 된다.
즉, 로봇이 수행해야 할 하나의 목표(goal)는 사람과 상호작용을 필요로 하므로 리더 에이전트(16)는 물품의 전달, 도움 요청, 발음을 명확히 해달라는 요청 등 어떤 특정한 업무를 위한 대화 즉, 업무특정대화(Task-Specific-dialog)를 시작할 수 있다. 그리고, 상호작용 에이전트(13)는 업무가 완료되면 동작상태에서 부동상태로 천이하게 된다.
도 2d는 본 발명의 일실시예에 의한 로봇의 사용자와 대화동작을 설명하기 위한 제어흐름도이다.
또한, 도 2d는 도 2a 내지 도 2c를 합성한 흐름도로서, 도 2a 내지 도 2c와같은 블록에 대해서는 동일한 부호를 병기한다.
본 발명의 일실시예에 의한 로봇에 전원이 인가되면 초기화(initialization)를 수행한다. 즉, 상술한 로봇의 시스템을 리셋하여 초기화를 시킨다.(s10)
다음으로, 로봇의 리더 에이전트(16)는 상호작용 에이전트(13)를 부동상태(idle state)로 천이시킴으로서 사용자의 명령을 대기한다.(s20)
다음으로, 대화관리자(3)는 부동상태에서 임의의 사용자 인터페이스 요소(User Interface Component)가 발생하여 로봇의 주목(attending)요청이 있는지 확인한다. 즉, 사용자 인터페이스 요소 즉, 특정 주목을 요구하는 단어(예를 들면, "이리 와", "컴온", "주목", "로봇"등)나 손뼉 소리, 접촉, 무선 조종(remote control), 호출 버튼(call button)의 누름 등이 발생한 것으로 확인되면 그 정보를 상호작용 에이전트(13)에 전달한다. 한편, 대화 관리자(3)에서 발생하는 이벤트들은 상호작용 에이전트(13)에 지속적으로 전달된다.(s30)
다음으로, 사용자 인터페이스 요소가 있는 것으로 확인되면 사용자인터페이스주목(user interface attending)을 하게 된다. 여기서 로봇이 사용자에게 주목(attending)을 하는 것은 적절한 거리에서 그 사람과 마주 대면하는 것과 같은 사회적 규범이라고 할 수 있다. 또한, 주목은 주목에 대한 사용자의 요구에 즉시 자극되기 시작한다. 이는 로봇 주도의 업무(task)의 시작을 방지해주며, 동시에 다수의 사용자들이 로봇의 주목을 요구할 때 결정이 우유부단한 상황을 예방해준다.(s40)
다음으로, 로봇은 사용자에게 주목함으로서 대화 준비가 완료되면 사용자와 컬앤컴(call and come) 대화를 수행한다. 예를 들면, 사용자가 로봇에게 "이리와"라고 명령을 하고 로봇이 "예, 주인님"이라 대답을 한 후, 사용자가 "나한테 컵을 가져와"라고 하면 로봇이 "예, 주인님"이라고 대답하는 방식으로 대화를 수행하게 되는 것이다.(s50)
다음으로, 상호작용 에이전트(13)는 부동상태(idle state)로 천이된다.(s60)
다음으로, 상호작용 에이전트(13)는 부동상태(idle state)에서 동작상태(busy state)로 천이된다. 여기서 동작상태(busy state)는 로봇의 주목을 받는 임의의 비대화 상태를 표현한다. 또한, 동작상태는 상호작용 에이전트(13)가 부동상태(idle state)일 경우 리더 에이전트(16)에 의해서만 천이 될 수 있다.(s70)
다음으로, 동작상태에서 사용자와 업무에 대해 상호작용을 하기 위해 업무상 주목(task attending)을 하게 된다.(s80)
다음으로, 로봇의 업무상 주목으로 대화준비가 되면, 사용자가 지시한 작업의 수행과정에서 필요한 업무특정대화(Task-Specific-dialog)를 할 수 있다.
예를 들어, 컬앤컴(call and come)대화에서 전달된 업무가 "컵을 나에게 가져와"였다면 업무특정대화(Task-Specific-dialog)에서는 "여기 가져왔습니다", "더 시킬일 없습니까?"등의 대화를 관장하게 된다. 또다른 예로 컬앤컴 대화에서 전달된 업무가 "우리 딸 영이에게 점심을 줘"였다면 업무 특정대화에서는 "영이님 점심 가지고 왔습니다", "영이님 점심 드실 시간입니다", "영이님 점심 다 드시면 제가 치워드리겠습니다" 등의 대화를 관장하게 된다.(s90)
도 3a는 본 발명의 일실시예에 의한 로봇이 업무 수행중 다른 사용자에 의해 주목 요청이 들어올 경우의 로봇의 동작을 설명하기 위한 흐름도이다.
도 2d에 설명한 것처럼, 사용자 인터페이스 요소(user interface component)가 있는 것으로 확인되면 로봇은 사용자인터페이스주목(user interface attending)으로 대화준비를 완료한 후 컬앤컴(call and come)대화를 수행하고, 상호작용 에이전트(13)는 동작 상태(busy state)로 천이되며 다시 부동상태(idle state)로 돌아올 때 큐(queue)에 저장되어 있는 업무를 수행해야 한다. 이 때, 어떤 다른 사용자가 로봇의 주목을 요청한다면 다른 사용자와의 대화는 본래의 주목 요청에 의한 대화 즉, 컬앤컴대화(call and come dialog)와 달라야만 한다. 따라서, 로봇은 업무 수행 중 다른 사용자의 주목 요청이 있는 경우 업무동작중주목(task busy attending)을 한다. 여기서 업무동작중주목(task busy attending)이란 또다른 유저인터페이스와 상호작용을 준비하기 위한 동작이다. 한편, 업무동작중주목(task busy attending)에 의해 로봇이 사용자와 대화 준비가 끝나면 업무동작중단대화(task busy interrupt dialog)를 수행한다. 업무동작중단대화(task busy interrupt dialog)에서는 이전 사용자가 입력한 명령을 수행하고 있는 것을 감안하여 대화하는 것으로서, "죄송합니다. 다른 명령을 수행하고 있습니다."등의 대화를 할 수 있다. 한편, 로봇에 미리 저장된 우선순위에 따라 현재 사용자의 명령을 우선적으로 수행하게 할 수 있다.(s10,s20,s70,s72,s73)
도 3b는 본 발명의 일실시예에 의한 로봇에게 명령 전달 후 업무 수행 개시전에 다른 사용자에 의해 주목 요청이 들어올 경우의 로봇의 동작을 설명하기 위한 흐름도이다.
도 3b에 도시한 바와 같이, 임의의 인터럽트는 로봇의 리더 에이전트(16)가 업무를 수행하기 전에 발생할 수 있다. 즉, 사용자에 의해 주목 요청을 받은 후 대화의 진행 도중 또는 대화가 끝난 후 업무 수행 개시 전에 임의의 사용자에 의해 주목 요청이 발생하는 경우이다. 이러한 경우 사용자인터페이스동작중단대화(User Interface Busy Interrupt Dialog)를 수행함으로서 먼저 대화를 요청한 선사용자와의 관계를 고려하여 대화를 수행할 수 있다.(s10,s20,s52,s53)
도 3c는 본 발명의 일실시예에 의한 로봇의 사용자와 대화동작을 설명하기 위한 제어흐름도이다.
또한, 도 3c는 도 3a 및 도 3b를 합성한 흐름도로서, 도 3a 및 도 3b와 같은 블록에 대해서는 동일한 부호를 병기한다.
본 발명의 일실시예에 의한 로봇은 전원이 인가되면 초기화(initialization)를 수행한다. 즉, 상술한 로봇의 시스템을 리셋하여 초기화를 시킨다.(s10)
다음으로, 로봇의 리더 에이전트(16)는 상호작용 에이전트(13)를 부동상태(idle state)로 천이시킴으로서 사용자의 명령을 대기한다.(s20)
다음으로, 대화관리자(3)는 부동상태에서 임의의 사용자 인터페이스 요소(User Interface Component)가 발생하여 로봇의 주목(attending)요청이 있는지 확인한다. 즉, 사용자 인터페이스 요소 즉, 특정 주목을 요구하는 단어(예를 들면, "이리 와", "컴온", "주목", "로봇"등)나 손뼉 소리, 접촉, 무선 조종(remote control), 호출 버튼(call button)의 누름 등이 발생한 것으로 확인되면 그 정보를 상호작용 에이전트(13)에 전달한다.(s30)
다음으로, 사용자 인터페이스 요소가 있는 것으로 확인되면 사용자인터페이스주목(user interface attending)을 하게 된다. 여기서 로봇이 사용자에게 주목(attending)을 하는 것은 적절한 거리에서 그 사람과 마주 대면하는 것과 같은 사회적 규범이라고 할 수 있다. 또한, 주목은 주목에 대한 사용자의 요구에 즉시 자극되기 시작한다. 이는 로봇 주도의 업무(task)의 시작을 방지해주며, 동시에 다수의 사용자들이 로봇의 주목을 요구할 때 결정이 우유부단한 상황을 예방해준다.(s40)
다음으로, 로봇은 사용자에게 주목함으로서 대화 준비가 완료되면 사용자와 컬앤컴(call and come) 대화를 수행한다. 예를 들면, 사용자가 로봇에게 "이리와" 라고 명령을 하고 로봇이 "예, 주인님"이라 대답을 한 후, 사용자가 "나한테 컵을 가져와"라고 하면 로봇이 "예, 주인님"이라고 대답하는 방식으로 대화를 수행하게 되는 것이다.(s50)
다음으로, 어느 사용자와 대화의 진행 도중 또는 대화가 끝난 후 업무 수행 개시 전에 임의의 사용자에 의해 주목 요청이 발생하는지 여부 즉, 사용자 인터페이스가 추가로 발생하는지 확인한다.(s51)
다음으로, 사용자 인터페이스가 추가로 발생한 것으로 확인되면 사용자인터페이스주목(user interface attending)을 하고, 사용자인터페이스동작중단대화(User Interface Busy Interrupt Dialog)를 수행함으로서 먼저 대화를 요청한 선사용자와의 관계를 고려하여 대화를 수행할 수 있다. 예를 들면, "다른 사용자가 먼저 대화를 시도하고 있습니다."등의 대화를 할 수 있다.(s52,s53)
다음으로, 상호작용 에이전트(13)은 부동상태로 다시 천이된다.(s60)
다음으로, 상호작용 에이전트(13)는 부동상태(idle state)에서 동작상태(busy state)로 천이된다. 여기서 동작상태(busy state)는 로봇의 주목을 받는 임의의 비대화 상태를 표현한다. 또한, 동작상태는 상호작용 에이전트(13)가 부동상태(idle state)일 경우 리더 에이전트(16)에 의해서만 천이 될 수 있다.(s70)
다음으로, 로봇은 업무 수행 중 다른 사용자의 주목 요청 즉, 사용자 인터페이스가 있는지 확인하며, 주목 요청이 있는 경우 업무동작중주목(task busy attending)을 한다. 여기서 업무동작중주목(task busy attending)이란 또다른 유저인터페이스와 상호작용을 준비하기 위한 동작이다.(s71,s72)
다음으로, 업무동작중주목(task busy attending)에 의해 로봇이 사용자와 대화 준비가 끝나면 업무동작중단대화(task busy interrupt dialog)를 수행한다. 업무동작중단대화(task busy interrupt dialog)는 이전 사용자가 입력한 명령을 수행하고 있는 것을 감안하여 대화하는 것으로서, "죄송합니다. 다른 명령을 수행하고 있습니다."등의 대화를 할 수 있다.(s73)
한편, s71단계에서 임의의 사용자 인터페이스가 발생하지 않는 것으로 확인되면 동작상태에서 사용자와 업무에 대해 상호작용을 하기 위한 대화를 하기 위해 업무상 주목(task attending)을 하게 된다.(s80)
다음으로, 로봇의 업무상 주목으로 대화준비가 되면, 사용자가 지시한 작업의 수행과정에서 필요한 업무특정대화(Task-Specific-dialog)를 하게되면 지시받은 업무를 수행함으로서 행동을 종료하게 된다.(s90)
한편, 로봇이 대화 또는 업무 수행 중 다른 인터럽트가 들어오면 리더 에이전트(16)는 상호작용 에이전트(13)의 상태를 확인하고, 확인된 상태 정보를 대화관리자(3)에 전송함으로서 로봇이 컬앤컴 대화를 수행할 것인지, 사용자인터페이스동작중단대화를 수행할 것인지, 업무동작중단대화를 수행할 것인지, 업무특정대화를 수행할 것인지 결정할 수 있다.
도 1은 본 발명의 일실시예에 의한 지능형 로봇의 판단시스템의 개략적인 구성도
도 2a는 본 발명의 일실시예에 의한 로봇과 사용자의 초기 인터페이스에 관한 동작을 설명하기 위한 흐름도
도 2b는 본 발명의 일실시예에 의한 로봇과 사용자의 초기 대화에 관한 동작을 설명하기 위한 흐름도
도 2c는 본 발명의 일실시예에 의한 로봇이 업무 수행 중 사용자와 대화하는 동작을 설명하기 위한 흐름도
도 2d는 본 발명의 일실시예에 의한 로봇의 사용자와 대화동작을 설명하기 위한 제어흐름도
도 3a는 본 발명의 일실시예에 의한 로봇이 업무 수행중 다른 사용자에 의해 주목 요청이 들어올 경우의 로봇의 동작을 설명하기 위한 흐름도
도 3b는 본 발명의 일실시예에 의한 로봇에게 명령 전달 후 업무 수행 개시전에 다른 사용자에 의해 주목 요청이 들어올 경우의 로봇의 동작을 설명하기 위한 흐름도
도 3c는 본 발명의 일실시예에 의한 로봇의 사용자와 대화동작을 설명하기 위한 제어흐름도
*도면의 주요부분에 대한 부호 설명*
10 : 대화시스템 20 : 작업계획시스템
13 : 상호작용에이전트 16 : 리더에이전트
19 : 액션 에이전트

Claims (17)

  1. 삭제
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. 삭제
  8. 삭제
  9. 지능형 로봇의 대화 진행을 관장하는 대화관리자를 포함하는 대화시스템과 상기 지능형 로봇이 상기 대화에 따라 수행해야 할 작업의 목표, 계획 및 행동을 관리하며 리더 에이전트, 액션 에이전트 및 상호작용 에이전트를 포함하는 작업계 획시스템;을 포함하는 지능형 로봇의 제어방법에 있어서,
    상기 상호작용 에이전트를 부동상태(idle state)로 천이시키는 단계;
    상기 대화관리자가 사용자 인터페이스를 감지하는 단계;
    상기 사용자 인터페이스가 감지되면 상기 로봇은 사용자인터페이스주목(user interface attending)을 수행하는 단계;
    상기 사용자인터페이스주목(user interface attending)이 수행되면 상기 대화관리자는 상기 사용자와 컬앤컴(call and come)대화를 수행하는 단계;를 포함하는 지능형 로봇의 제어방법.
  10. 제 9 항에 있어서,
    상기 컬앤컴(call and come)대화를 수행하면 상기 상호작용 에이전트를 동작상태(busy state)로 천이시키는 단계;를 더 포함하는 지능형 로봇의 제어방법.
  11. 제 10 항에 있어서,
    상기 상호작용 에이전트를 동작상태로 천이시키기 전에 사용자 인터페이스가 추가로 발생하는지 감지하는 단계;를 더 포함하는 지능형 로봇의 제어방법.
  12. 제 11 항에 있어서,
    상기 사용자 인터페이스가 추가로 발생하면 사용자인터페이스동작중단대화(user interface busy interrupt dialog)를 수행하는 단계;를 더 포함하는 지능 형 로봇의 제어방법.
  13. 제 10 항에 있어서,
    상기 상호작용 에이전트가 동작상태(busy state)로 천이되면 사용자 인터페이스가 추가로 발생하는지 감지하는 단계;를 더 포함하는 지능형 로봇의 제어방법.
  14. 제 13 항에 있어서,
    상기 사용자 인터페이스가 추가로 발생한 것으로 확인되면 업무동작중주목(task busy attending)을 수행하는 단계;를 더 포함하는 지능형 로봇의 제어방법.
  15. 제 14 항에 있어서,
    상기 업무동작중주목(task busy attending)이 수행되면 업무동작중단대화(task busy interrupt dialog)를 수행하는 단계;를 더 포함하는 지능형 로봇의 제어방법.
  16. 제 10 항에 있어서,
    상기 상호작용 에이전트가 동작상태(busy state)로 천이되면 업무상주목(task attending)을 수행하는 단계;를 더 포함하는 지능형 로봇의 제어방법.
  17. 제 16 항에 있어서,
    상기 업무상주목(task attending)이 수행되면 업무특정대화(task specific dialog)를 수행하는 단계;를 더 포함하는 지능형 로봇의 제어방법.
KR1020080125755A 2008-12-11 2008-12-11 지능형 로봇 및 그 제어방법 KR101553521B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020080125755A KR101553521B1 (ko) 2008-12-11 2008-12-11 지능형 로봇 및 그 제어방법
US12/591,609 US8392341B2 (en) 2008-12-11 2009-11-24 Intelligent robot and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080125755A KR101553521B1 (ko) 2008-12-11 2008-12-11 지능형 로봇 및 그 제어방법

Publications (2)

Publication Number Publication Date
KR20100067274A KR20100067274A (ko) 2010-06-21
KR101553521B1 true KR101553521B1 (ko) 2015-09-16

Family

ID=42241725

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080125755A KR101553521B1 (ko) 2008-12-11 2008-12-11 지능형 로봇 및 그 제어방법

Country Status (2)

Country Link
US (1) US8392341B2 (ko)
KR (1) KR101553521B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200134060A (ko) 2019-05-21 2020-12-01 한국로봇융합연구원 서술형 행동수행 단계 기반 로봇계획 자동생성시스템 및 자동생성방법

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8818556B2 (en) * 2011-01-13 2014-08-26 Microsoft Corporation Multi-state model for robot and user interaction
US9323250B2 (en) 2011-01-28 2016-04-26 Intouch Technologies, Inc. Time-dependent navigation of telepresence robots
US8688453B1 (en) * 2011-02-28 2014-04-01 Nuance Communications, Inc. Intent mining via analysis of utterances
US9098611B2 (en) 2012-11-26 2015-08-04 Intouch Technologies, Inc. Enhanced video interaction for a user interface of a telepresence network
KR101991034B1 (ko) * 2011-05-31 2019-06-19 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 로봇 수술 기구 엔드 이펙터의 능동 제어
EP3705242A1 (en) 2011-10-21 2020-09-09 Intuitive Surgical Operations, Inc. Grip force control for robotic surgical instrument end effector
EP2852475A4 (en) * 2012-05-22 2016-01-20 Intouch Technologies Inc SOCIAL BEHAVIOR OF A MEDICAL TELEPRESCENT ROBOT
US9361021B2 (en) 2012-05-22 2016-06-07 Irobot Corporation Graphical user interfaces including touchpad driving interfaces for telemedicine devices
KR101390204B1 (ko) * 2012-12-20 2014-04-29 (주)라스테크 다중 에이전트 기반 지능형 이동 로봇 협력 제어 시스템 및 방법
KR101457947B1 (ko) * 2013-06-27 2014-11-07 한국과학기술원 사용자 중심의 모듈화를 통한 로봇 시스템, 로봇 시스템 개발 및 제어 방법
ES2746754T3 (es) * 2014-04-17 2020-03-06 Softbank Robotics Europe Robot humanoide con ruedas omnidireccionales basado en un controlador de posición y velocidad lineal predictivo
US20180009118A1 (en) * 2015-02-17 2018-01-11 Nec Corporation Robot control device, robot, robot control method, and program recording medium
JP6726388B2 (ja) * 2016-03-16 2020-07-22 富士ゼロックス株式会社 ロボット制御システム
CN105892994B (zh) * 2016-04-05 2018-04-24 东南大学 一种移动机器人任务规划与执行异常情况处理方法及装置
CN107820607B (zh) * 2017-08-23 2021-05-07 达闼机器人有限公司 监控机器人的方法、装置、服务器及终端设备
JP7279706B2 (ja) * 2018-03-28 2023-05-23 ソニーグループ株式会社 情報処理装置、情報処理システム、情報処理方法及び情報処理プログラム
KR20200024511A (ko) 2018-08-28 2020-03-09 삼성전자주식회사 대화 에이전트의 동작 방법 및 그 장치
JP7225642B2 (ja) * 2018-09-27 2023-02-21 富士通株式会社 コミュニケーションロボット、制御方法及び制御プログラム
CN113050614B (zh) * 2019-12-26 2022-07-26 炬星科技(深圳)有限公司 机器人自主管理执行能力的方法、设备及存储介质
CN111968286B (zh) * 2020-03-31 2024-05-17 北京来也网络科技有限公司 结合rpa和ai的前台访客分流方法、装置、设备及存储介质
CN115213889B (zh) * 2021-08-18 2023-01-13 达闼机器人股份有限公司 机器人控制方法、装置、存储介质及机器人

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7328196B2 (en) * 2003-12-31 2008-02-05 Vanderbilt University Architecture for multiple interacting robot intelligences
JP4629560B2 (ja) * 2004-12-01 2011-02-09 本田技研工業株式会社 対話型情報システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
서울시립대학교 대학원 공학석사 학위논문, 2008.2.*

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200134060A (ko) 2019-05-21 2020-12-01 한국로봇융합연구원 서술형 행동수행 단계 기반 로봇계획 자동생성시스템 및 자동생성방법

Also Published As

Publication number Publication date
US20100153317A1 (en) 2010-06-17
KR20100067274A (ko) 2010-06-21
US8392341B2 (en) 2013-03-05

Similar Documents

Publication Publication Date Title
KR101553521B1 (ko) 지능형 로봇 및 그 제어방법
CN106558310B (zh) 虚拟现实语音控制方法及装置
CN111046150B (zh) 人机交互处理系统及其方法、存储介质、电子设备
JP7274043B2 (ja) 音声会話処理方法及び装置
KR100753780B1 (ko) 음성 입력 디바이스
JP6115941B2 (ja) 対話シナリオにユーザ操作を反映させる対話プログラム、サーバ及び方法
US20130080178A1 (en) User interface method and device
CN105912128A (zh) 面向智能机器人的多模态交互数据处理方法及装置
JP6619488B2 (ja) 人工知能機器における連続会話機能
JP2019092153A (ja) 自然言語に基づく複合機制御システム及び方法
CN109144458B (zh) 用于执行与语音输入相对应的操作的电子设备
CN106601244A (zh) 车辆诊断客户端的语音控制方法和系统
CN103713812B (zh) 网络化的智能交互系统
Niklfeld et al. Architecture for adaptive multimodal dialog systems based on voiceXML.
JP2019175453A (ja) ユーザ音声入力の処理を含むシステム及びその動作方法並びに電子装置
CN113783771A (zh) 一种基于微信的ai虚拟人交互方法和系统
CN111792465B (zh) 一种电梯控制系统及方法
KR20150088532A (ko) 통화 중 서비스 제공 장치 및 이를 이용하는 방법
JP6748510B2 (ja) 情報提供システム、情報提供方法、および情報提供プログラム
CN107545896A (zh) 设备的控制方法、装置及系统、文件的发送方法和装置
KR100725719B1 (ko) 음성과 태스크 오브젝트 기반의 대화시스템
CN108055655A (zh) 一种语音设备加好友的方法、装置、设备及存储介质
US20060101345A1 (en) Distributed service creation environment for intelligent endpoints
CN112542171A (zh) 使用语音识别功能执行动作的电子装置及其方法
CN110224903A (zh) 使用im等通讯账号对设备进行管理和使用的方法、系统、电子装置及存储介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180820

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190814

Year of fee payment: 5