KR101964300B1 - Apparatus and method for implementing motion of robot using knowledge model - Google Patents

Apparatus and method for implementing motion of robot using knowledge model Download PDF

Info

Publication number
KR101964300B1
KR101964300B1 KR1020170151322A KR20170151322A KR101964300B1 KR 101964300 B1 KR101964300 B1 KR 101964300B1 KR 1020170151322 A KR1020170151322 A KR 1020170151322A KR 20170151322 A KR20170151322 A KR 20170151322A KR 101964300 B1 KR101964300 B1 KR 101964300B1
Authority
KR
South Korea
Prior art keywords
morpheme
gesture
gesture type
pattern
knowledge model
Prior art date
Application number
KR1020170151322A
Other languages
Korean (ko)
Other versions
KR20170128194A (en
Inventor
김창환
채유정
박성기
최종석
김동환
임윤섭
Original Assignee
한국과학기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술연구원 filed Critical 한국과학기술연구원
Priority to KR1020170151322A priority Critical patent/KR101964300B1/en
Publication of KR20170128194A publication Critical patent/KR20170128194A/en
Application granted granted Critical
Publication of KR101964300B1 publication Critical patent/KR101964300B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/001Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/0015Face robots, animated artificial faces for imitating human expressions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1661Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)

Abstract

실시예들은 발화문장을 하나 이상의 형태소를 포함하는 형태소 패턴들로 구분하여 하나 이상의 형태소 패턴을 생성하는 형태소 패턴 생성부, 지식모델을 기초로, 구분된 각 형태소 패턴에 대응하는 제스처 타입을 각 형태소 패턴에 적용하는 제스처 타입 적용부 및 적용된 제스처 타입에 따라 로봇을 동작시키는 동작명령을 생성하는 동작명령 생성부를 포함하는 지식모델을 이용한 로봇의 동작 구현 장치 및 이를 이용한 모델링 및 동작 방법에 관련된다.Embodiments include a morpheme pattern generation unit for generating one or more morpheme patterns by dividing an utterance sentence into morpheme patterns including at least one morpheme, a gesture type corresponding to each morpheme pattern classified based on the knowledge model, And an operation command generation unit for generating an operation command for operating the robot in accordance with the applied gesture type, and relates to an apparatus and method for modeling and operating the robot using the knowledge model.

Description

지식모델을 이용한 로봇의 동작 구현 장치 및 방법{APPARATUS AND METHOD FOR IMPLEMENTING MOTION OF ROBOT USING KNOWLEDGE MODEL}[0001] APPARATUS AND METHOD FOR IMPLEMENTING MOTION OF ROBOT USING KNOWLEDGE MODEL [0002]

본 발명은 로봇의 동작 구현 장치 및 그 방법에 관한 것이다. 더욱 구체적으로 본 발명은 형태소 패턴과 지식모델을 적용한 로봇의 사회적 행동표현에 대한 동작 구현장치 및 방법에 관련된다.BACKGROUND OF THE INVENTION 1. Field of the Invention [ More specifically, the present invention relates to an apparatus and method for implementing an action on a social behavior expression of a robot to which a morphological pattern and a knowledge model are applied.

바쁜 현대인을 위해 사용자의 일정관리와 필요한 정보를 검색해주는 개인 비서 로봇, 노약자를 보살펴 주는 도우미 로봇, 사용자를 대신하여 심부름 또는 청소 업무를 대신하여 수행하는 홈 에이전트 로봇 등 다양한 로봇 시스템이 개발되고 있다. 이러한 서비스 로봇 시스템에서 고려되어야 할 부분 중 하나가 사람과 로봇간의 상호작용으로, 최근에는 사람과 로봇간의 친밀감과 유대감을 극대화 시키기 위한 연구에 많은 관심이 기울여지고 있다. 이와 관련하여, 특히 사람과 로봇이 서로 소통하며, 의미를 전달하고 이해하는 모습을 표현하기 위한 제스처 생성 기술은 주요한 연구분야라고 할 수 있다. Various robot systems are being developed for busy modern man such as personal secretary robot that searches the user 's schedule and necessary information, helper robot that takes care of the elderly, home agent robot which performs on behalf of the user on behalf of errands or cleaning work. One of the parts to be considered in this service robot system is the interaction between human and robot. Recently, much attention has been paid to research for maximizing intimacy and bond between human and robot. In this regard, especially, gesture generation technology for expressing how human beings and robots communicate with each other and communicate and understand meaning can be considered as a major research field.

제스처 생성 기술에서의 이슈는 효율적으로 제스처 정보를 저장하는 기술, 다양한 제스처를 생성하는 기술, 발화문장을 자동으로 분석하여 알맞은 제스처를 생성하는 기술 등이 있지만, 이 세 가지의 기술 적용하여 로봇이 사람과 대화하는 과정에서 자연스러운 제스처를 생성하는 기존의 연구는 많지 않고, 발화 문장과 앞뒤 문맥을 고려하여 자동으로 로봇의 제스처를 생성하는 것은 쉽지 않은 문제이다. 종래에는 인식된 사용자의 감정변화를 기반으로 로봇의 감정을 생성하고 이에 연결되는 표정과 행동을 저장돼 있는 동작을 조합하여 제스처를 생성하는 방법을 제안하였다. 그러나 이러한 연구는 반복적으로 동일한 제스처가 생성될 수 있고, 유한개의 제스처 생성으로 한계가 있기 때문에 사용자의 집중력과 흥미를 저하시킬 수 있다. 또한 단순 규칙 기반의 형태소 패턴을 이용하여 제스처의 타입을 생성 하고, 키워드에 연결되는 기본 제스처에 수동으로 입력된 감정 정보를 기반으로 변형을 가하는 기존의 방법이 제안되었다. 그러나 이러한 연구는 인간과의 대화 과정 중에 발화문장의 내용과 함께 충분한 의미와 느낌을 전달하기 위한 방법론이 충분히 반영되지 않았고, 규칙을 어떻게 정의하였는지에 대한 방법 설명이 명확하지 않음으로 실제 구현에 적용될 가능성이 낮다. 또한 형태소 패턴이 규칙으로 정의 되어 있지 않은 경우, 제스처 타입 생성이 불가능하며, 키워드에 연결되는 제스처 정보를 모두 갖고 있어야 함으로 메모리 효율성이 좋지 않다. 또한 수동으로 문장의 분위기를 지정해 주지 않으면 다양한 제스처를 생성할 수 없는 문제가 있다. The issue in gesture generation technology is to efficiently store gesture information, to create various gestures, and to automatically analyze gesture sentences to generate appropriate gestures. By applying these three techniques, It is not easy to generate a gesture of a robot automatically in consideration of a spoken sentence and a context. Conventionally, a method of creating a gesture by generating emotions of a robot based on a change in emotion of a recognized user and combining facial expressions and actions stored therein is proposed. However, such a study can repeatedly generate the same gesture, and there is a limit to generating a finite number of gestures, which may degrade the user's concentration and interest. In addition, a conventional method of generating a type of gesture using a simple rule-based morphological pattern and applying a deformation based on manually input emotion information to a basic gesture connected to the keyword has been proposed. However, this study does not fully reflect the methodology for conveying meaning and feelings together with the contents of spoken sentences during the conversation with human beings, and it is not clear how the rules are defined, low. In addition, if the morpheme pattern is not defined as a rule, it is impossible to create a gesture type, and the gesture information associated with the keyword must be stored in all, which results in poor memory efficiency. Also, there is a problem that various gestures can not be generated unless the atmosphere of the sentence is manually specified.

한국특허출원 제10-2013-0029395호Korean Patent Application No. 10-2013-0029395

Synchronized gesture and speech production for humanoid robots (The 2010 IEEE/RSJ International Conference on Intelligent Robots and Systems October 18-22, 2010, Taipei, Taiwan) Synchronized gesture and speech production for humanoid robots (2010 IEEE / RSJ International Conference on Intelligent Robots and Systems October 18-22, 2010, Taipei, Taiwan)

위와 같은 문제점 해결하기 위해서, 키워드와 제스처를 일대일로 연결하여 동작을 생성하는 기존의 방식이 아니라 문장의 형태소 특성을 이용하여 제스처의 타입과 키워드를 이해하고, 문맥에 어울리는 제스처를 생성 할 수 있는 지식 모델 및 이를 이용한 장치 및 방법이 요구된다. In order to solve the above problems, it is necessary to understand not only the existing method of creating a motion by connecting the keyword and the gesture in a one-to-one manner but also the gesture type and keyword by using the morphological characteristics of the sentence, Model and apparatus and method using the same are required.

본 발명의 일 실시예에 따른 지식모델을 이용한 로봇의 동작 구현 장치는 발화문장을 하나 이상의 형태소를 포함하는 형태소 패턴들로 구분하여 하나 이상의 형태소 패턴을 생성하는 형태소 패턴 생성부, 지식모델을 기초로, 구분된 각 형태소 패턴에 대응하는 제스처 타입을 각 형태소 패턴에 적용하는 제스처 타입 적용부 및 적용된 제스처 타입에 따라 로봇을 동작시키는 동작명령을 생성하는 동작명령 생성부를 포함할 수 있다.An apparatus for realizing an operation of a robot using a knowledge model according to an embodiment of the present invention includes a morpheme pattern generating unit for generating one or more morpheme patterns by dividing an utterance sentence into morpheme patterns including at least one morpheme, A gesture type application unit for applying a gesture type corresponding to each of the divided morpheme patterns to each morpheme pattern, and an operation command generation unit for generating an operation command for operating the robot according to the applied gesture type.

또한 일 실시예에 따른 지식모델을 이용한 로봇의 동작 구현 장치에 있어서, 상기 발화문장은 사용자에의해 입력된 문장 또는 외부로 입력된 질문 문장에대한 응답 문장을 포함할 수 있다.In addition, in the apparatus for implementing an operation of a robot using the knowledge model according to an embodiment, the utterance sentence may include a sentence input by a user or a response sentence to a question sentence input to the outside.

또한 일 실시예에 따른 지식모델을 이용한 로봇의 동작 구현 장치에 있어서, 상기 형태소 패턴 생성부는, 상기 지식모델을 기초로 하나 이상의 형태소 패턴을 생성할 수 있다.Also, in the apparatus for implementing an operation of a robot using a knowledge model according to an embodiment, the morphological pattern generator may generate one or more morphological patterns based on the knowledge model.

또한 일 실시예에 따른 지식모델을 이용한 로봇의 동작 구현 장치에 있어서, 상기 제스처 타입은, 대상의 형태와 크기를 묘사하는 것, 대상의 위치와 상태를 묘사하는 것, 지시 동작을 묘사하는 것, 리듬적 요소를 묘사하는 것, 스피치와 함께 생성되지 않더라도 의미를 갖는 것, 제스처를 수행하지 않는 것 중 적어도 하나를 포함할 수 있다. In addition, the gesture type of the robot using the knowledge model according to an exemplary embodiment may include at least one of a description of the shape and size of the object, a description of the position and state of the object, Describing a rhythmic element, having meaning without being generated with speech, and not performing a gesture can be included.

또한 일 실시예에 따른 지식모델을 이용한 로봇의 동작 구현 장치에 있어서, 상기 제스처 타입 적용부는, 외부로 입력된 질문 문장에 기반하여, 발화문장 중 일 부분의 형태소 패턴에 대하여만 제스처 타입을 적용할 수 있다.Further, in the apparatus for implementing an operation of a robot using a knowledge model according to an embodiment, the gesture type application unit may apply a gesture type only to a part of a morpheme pattern of an utterance sentence based on a query sent to the outside .

또한 일 실시예에 따른 지식모델을 이용한 로봇의 동작 구현 장치에 있어서,In an apparatus for implementing a robot using a knowledge model according to an embodiment,

상기 지식모델은, 사용자가 형태소 패턴을 생성하고, 제스처 타입을 적용한 하나 이상의 샘플 문장에 대한 데이터를 기초로 생성될 수 있다.The knowledge model may be generated based on data for one or more sample sentences in which a user generates a morphological pattern and applies a gesture type.

또한 일 실시예에 따른 지식모델을 이용한 로봇의 동작 구현 장치에 있어서, 상기 제스처 타입은, 대응되는 하나 이상의 키워드를 갖는 하나 이상의 단위 동작을 포함하고, 상기 동작명령 생성부는, 발화문장의 형태소 패턴에 포함되는 키워드를 기초로 해당되는 제스처 타입에서 단위 동작을 결정하고, 결정된 단위 동작을 기초로 상기 동작명령을 생성할 수 있다.The gesture type may include at least one unit operation having one or more corresponding keywords, and the operation command generation unit may generate a morpheme pattern of the utterance sentence using the knowledge model according to one embodiment. The unit operation may be determined in the corresponding gesture type based on the included keyword, and the operation command may be generated based on the determined unit operation.

또한 일 실시예에 따른 지식모델을 이용한 로봇의 동작 구현 장치에 있어서,In an apparatus for implementing a robot using a knowledge model according to an embodiment,

상기 동작명령 생성부는, 발화문장의 형태소 패턴에 포함되는 키워드에 대응되는 키워드가, 해당 형태소 패턴의 제스처 타입에 존재하지 않는 경우, 임의로 또는 소정의 단위 동작을 결정하고, 결정된 제스처를 기초로 동작명령을 생성할 수 있다.Wherein the action command generation unit arbitrarily or predetermined unit action is determined when the keyword corresponding to the keyword included in the morpheme pattern of the utterance sentence does not exist in the gesture type of the morpheme pattern, and based on the determined gesture, Can be generated.

또한 일 실시예에 따른 지식모델을 이용한 로봇의 동작 구현 장치에 있어서, 센서로부터 입력받은 센싱정보를 기초로 감정정보를 생성하는 감정정보 생성부를 더 포함하되, 상기 동작명령 생성부는, 상기 감정정보를 기초로 동작명령을 변형시킬 수 있다.The apparatus further includes an emotion information generation unit that generates emotion information based on the sensing information received from the sensor, wherein the operation command generation unit generates the emotion information using the knowledge model, The motion command can be modified on the basis of the motion command.

또한 일 실시예에 따른 지식모델을 이용한 로봇의 동작 구현 장치에 있어서,In an apparatus for implementing a robot using a knowledge model according to an embodiment,

상기 동작명령 생성부는, 상기 감정정보를 기초로, 동작의 크기, 동작을 실시하는 속도 동작이 구현되는 위치 중 적어도 하나를 변형시킬 수 있다.The operation command generation unit may modify at least one of a size of an operation and a position where a speed operation for performing an operation is implemented based on the emotion information.

본 발명의 일 실시예에 따른 지식모델을 이용한 로봇의 동작 구현 방법은 발화문장을 하나 이상의 형태소를 포함하는 형태소 패턴들로 구분하여 하나 이상의 형태소 패턴을 생성하는 단계, 지식모델을 기초로, 구분된 각 형태소 패턴에 대응하는 제스처 타입을 각 형태소 패턴에 적용하는 단계 및 적용된 제스처 타입에 따라 로봇을 동작시키는 동작명령을 생성하는 단계를 포함할 수 있다.A method of operating a robot using a knowledge model according to an embodiment of the present invention includes generating at least one morpheme pattern by dividing an utterance sentence into morpheme patterns including at least one morpheme, Applying a gesture type corresponding to each morpheme pattern to each morpheme pattern, and generating an action command to operate the robot according to the applied gesture type.

또한 일 실시예에 따른 지식모델을 이용한 로봇의 동작 구현 방법에 있어서, 상기 발화문장은 사용자에의해 입력된 문장 또는 외부로 입력된 질문 문장에대한 응답 문장을 포함할 수 있다.Also, in the method of implementing a robot operation using a knowledge model according to an embodiment, the utterance sentence may include a sentence input by a user or a response sentence to a question sentence input to the outside.

또한 일 실시예에 따른 지식모델을 이용한 로봇의 동작 구현 방법에 있어서, 상기 형태소 패턴을 생성하는 단계는, 상기 지식모델을 기초로 하나 이상의 형태소 패턴을 생성할 수 있다.Also, in the method of operating a robot using a knowledge model according to an embodiment, the step of generating the morpheme pattern may generate one or more morpheme patterns based on the knowledge model.

또한 일 실시예에 따른 지식모델을 이용한 로봇의 동작 구현 방법에 있어서, 상기 제스처 타입은, 대상의 형태와 크기를 묘사하는 것, 대상의 위치와 상태를 묘사하는 것, 지시 동작을 묘사하는 것, 리듬적 요소를 묘사하는 것, 상징적 의미를 갖는 것, 제스처를 수행하지 않는 것 중 적어도 하나를 포함할 수 있다. The gesture type may be one or more of describing the shape and size of the object, describing the position and the state of the object, describing the operation of the instruction, May include at least one of depicting a rhythmic element, having a symbolic meaning, or not performing a gesture.

또한 일 실시예에 따른 지식모델을 이용한 로봇의 동작 구현 방법에 있어서, 상기 제스처 타입을 적용하는 단계는, 외부로 입력된 질문 문장에 기반하여, 발화문장 중 일 부분의 형태소 패턴에 대하여만 제스처 타입을 적용할 수 있다.Further, in the method of implementing a robot operation using a knowledge model according to an exemplary embodiment, the step of applying the gesture type may include: applying a gesture type only to a part of morpheme patterns of the utterance sentence, Can be applied.

또한 일 실시예에 따른 지식모델을 이용한 로봇의 동작 구현 방법에 있어서, 상기 지식모델은, 사용자가 형태소 패턴을 생성하고, 제스처 타입을 적용한 하나 이상의 샘플 문장에 대한 데이터를 기초로 생성될 수 있다.In another embodiment, the knowledge model may be generated based on data on one or more sample sentences in which a user generates a morphological pattern and applies a gesture type.

또한 일 실시예에 따른 지식모델을 이용한 로봇의 동작 구현 방법에 있어서, 상기 제스처 타입은, 대응되는 하나 이상의 키워드를 갖는 하나 이상의 단위 동작을 포함하고, 상기 동작명령을 생성하는 단계는, 발화문장의 형태소 패턴에 포함되는 키워드를 기초로 해당되는 제스처 타입에서 단위 동작을 결정하고, 결정된 단위 동작을 기초로 상기 동작명령을 생성할 수 있다.According to another embodiment of the present invention, there is provided a method of operating a robot using a knowledge model, wherein the gesture type includes at least one unit operation having a corresponding one or more keywords, The unit operation may be determined in the corresponding gesture type based on the keyword included in the morpheme pattern, and the operation command may be generated based on the determined unit operation.

또한 일 실시예에 따른 지식모델을 이용한 로봇의 동작 구현 방법에 있어서, 상기 동작명령을 생성하는 단계는, 발화문장의 형태소 패턴에 포함되는 키워드에 대응되는 키워드가 해당 형태소 패턴의 제스처 타입에 존재하지 않는 경우, 임의로 또는 소정의 단위 동작을 결정하고, 결정된 제스처를 기초로 동작명령을 생성할 수 있다.According to another aspect of the present invention, there is provided a method of operating a robot using a knowledge model, the method comprising the steps of: generating a motion command, , It is possible to arbitrarily or to determine a predetermined unit operation and to generate an action command based on the determined gesture.

또한 일 실시예에 따른 지식모델을 이용한 로봇의 동작 구현 방법에 있어서, 센서로부터 입력받은 센싱정보를 기초로 감정정보를 생성하는 단계를 더 포함하되, 상기 동작명령을 생성하는 단계는, 상기 감정정보를 기초로 동작명령을 변형시킬 수 있다.According to another aspect of the present invention, there is provided a method of operating a robot using a knowledge model, the method including generating emotion information based on sensed information input from a sensor, The operation command can be modified based on the operation command.

또한 일 실시예에 따른 지식모델을 이용한 로봇의 동작 구현 방법에 있어서, 상기 동작명령을 생성하는 단계는, 상기 감정정보를 기초로, 동작의 크기, 동작을 실시하는 속도, 동작이 구현되는 위치 중 적어도 하나를 변형시킬 수 있다.According to another aspect of the present invention, there is provided a method of operating a robot using a knowledge model, the method comprising: generating an action command based on the emotion information; At least one can be modified.

본 발명의 일 실시예에 따르면, 다양한 형태의 대화-행동을 생성함으로써 사용자와의 흥미와 유대감을 오래 지속하고자 하며, 키워드 정보가 없을 경우 임의의 제스처를 생성하는 기존의 기술과는 달리, 형태소에 기반한 제스처 타입을 이용함으로 발화문장에 어울리는 대화-행동을 생성하여 대화의 흐림이 자연스럽게 지속될 수 있도록 한다.According to an embodiment of the present invention, various types of dialogue-actions are generated to maintain long-term interest and bond with the user. Unlike the existing technique of generating an arbitrary gesture when there is no keyword information, By using the gesture type based on the dialogue-action that fits the spoken sentence will be created to allow the blur of the conversation to continue naturally.

또한 본 발명은 발화문장에 어울리는 제스처 타입과 로봇의 감정을 반영한 다양한 형태의 대화-행동을 생성하는 장치로, 사람에게 서비스를 제공하는 로봇 시스템에 적용할 수 있다. 제안 기술은 키워드 정보가 없을 경우 임의의 제스처를 생성하는 기존의 기술과는 달리, 형태소에 기반한 제스처 타입을 이용함으로 발화문장에 어울리는 대화-행동을 생성할 수 있는 장점을 갖는다. 즉, 대화의 흐름에 맞는 다양한 형태의 제스처를 연속적으로 생성할 수 있음으로 사용자에게 자연스러운 느낌과 친밀감을 줄 수 있다. 또한 동일한 형태를 갖는 제스처를 중복하여 저장하지 않고 따로 관리하는 방식을 포함함으로써 메모리 효율성을 극대화 할 수 있다.In addition, the present invention can be applied to a robot system that provides a service to a person, and is a device for generating various types of conversation-actions reflecting the gesture type matching the spoken sentence and the feelings of the robot. Unlike existing techniques that generate arbitrary gestures in the absence of keyword information, the proposed technique has the advantage of generating dialogue-actions that match the spoken sentence by using the gesture type based on the morpheme. That is, various types of gestures corresponding to the flow of conversation can be continuously generated, thereby giving the user a natural feeling and intimacy. In addition, it is possible to maximize the memory efficiency by including a method of separately managing the gestures having the same form without storing them in duplicate.

도 1은 본 발명의 일 실시예에 따른 지식모델을 이용한 로봇의 동작 구현 장치의 블록도이다.
도 2는 일 실시예에 따른 형태소 패턴 생성부의 동작을 설명하기 위한 도이다.
도 3은 본 발명의 일 실시예에서 이용되는 지식모델(M)의 동작을 설명하기 위한 도이다.
도 4는 발화문장에 적용되는 제스처 타입을 설명하기 위한 도이다.
도 5는 데이터베이스(400)에 저장되는 제스처 타입과 단위동작의 관계를 설명하기 위한 도이다.
도 6은 감정정보를 기초로 동작명령이 변형되는 예시를 나타낸다.
도 7은 본 발명의 일 실시예에 따른 지식모델을 이용한 로봇의 동작 구현 방법의 순서도이다.
1 is a block diagram of an apparatus for implementing an operation of a robot using a knowledge model according to an embodiment of the present invention.
2 is a view for explaining the operation of the morphological pattern generating unit according to an embodiment.
3 is a view for explaining the operation of the knowledge model M used in an embodiment of the present invention.
4 is a diagram for explaining a gesture type applied to a spoken sentence.
5 is a diagram for explaining the relationship between the gesture type stored in the database 400 and the unit operation.
6 shows an example in which an operation command is modified based on emotion information.
7 is a flowchart of a method of implementing an operation of a robot using a knowledge model according to an embodiment of the present invention.

본 명세서에 기술된 실시예는 전적으로 하드웨어이거나, 부분적으로 하드웨어이고 부분적으로 소프트웨어이거나, 또는 전적으로 소프트웨어인 측면을 가질 수 있다. 본 명세서에서 "부(unit)", "모듈(module)", "장치" 또는 "시스템" 등은 하드웨어, 하드웨어와 소프트웨어의 조합, 또는 소프트웨어 등 컴퓨터 관련 엔티티(entity)를 지칭한다. 예를 들어, 본 명세서에서 부, 모듈, 장치 또는 시스템 등은 실행중인 프로세스, 프로세서, 객체(object), 실행 파일(executable), 실행 스레드(thread of execution), 프로그램(program), 및/또는 컴퓨터(computer)일 수 있으나, 이에 제한되는 것은 아니다. 예를 들어, 컴퓨터에서 실행중인 애플리케이션(application) 및 컴퓨터의 양쪽이 모두 본 명세서의 부, 모듈, 장치 또는 시스템 등에 해당할 수 있다. Embodiments described herein may be wholly hardware, partially hardware, partially software, or entirely software. A "unit," "module," "device," or "system" or the like in this specification refers to a computer-related entity such as a hardware, a combination of hardware and software, or software. A processor, an object, an executable, a thread of execution, a program, and / or a computer, for example, a computer, but is not limited to, a computer. For example, both an application running on a computer and a computer may correspond to a part, module, device or system of the present specification.

실시예들이 도면에 제시된 순서도를 참조로 하여 설명되었다. 간단히 설명하기 위하여 상기 방법은 일련의 블록들로 도시되고 설명되었으나, 본 발명은 상기 블록들의 순서에 한정되지 않고, 몇몇 블록들은 다른 블록들과 본 명세서에서 도시되고 기술된 것과 상이한 순서로 또는 동시에 일어날 수도 있으며, 동일한 또는 유사한 결과를 달성하는 다양한 다른 분기, 흐름 경로, 및 블록의 순서들이 구현될 수 있다. 또한, 본 명세서에서 기술되는 방법의 구현을 위하여 도시된 모든 블록들이 요구되지 않을 수도 있다. 나아가, 본 발명의 일 실시예에 따른 방법은 일련의 과정들을 수행하기 위한 컴퓨터 프로그램의 형태로 구현될 수도 있으며, 상기 컴퓨터 프로그램은 컴퓨터로 판독 가능한 기록 매체에 기록될 수도 있다.Embodiments have been described with reference to the flowcharts shown in the drawings. While the above method has been shown and described as a series of blocks for purposes of simplicity, it is to be understood that the invention is not limited to the order of the blocks, and that some blocks may be present in different orders and in different orders from that shown and described herein And various other branches, flow paths, and sequences of blocks that achieve the same or similar results may be implemented. Also, not all illustrated blocks may be required for implementation of the methods described herein. Furthermore, the method according to an embodiment of the present invention may be implemented in the form of a computer program for performing a series of processes, and the computer program may be recorded on a computer-readable recording medium.

이하에서, 도면을 참조하여 본 발명의 실시예들에 대하여 상세히 살펴본다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

도 1은 본 발명의 일 실시예에 따른 지식모델을 이용한 로봇의 동작 구현 장치의 블록도이다. 도 1을 참조하면 지식모델을 이용한 로봇의 동작 구현 장치(1000)는 형태소 패턴 생성부(100), 제스처 타입 적용부(200) 및 동작명령 생성부(300)를 포함한다.1 is a block diagram of an apparatus for implementing an operation of a robot using a knowledge model according to an embodiment of the present invention. Referring to FIG. 1, an apparatus 1000 for implementing an operation of a robot using a knowledge model includes a morphological pattern generator 100, a gesture type application unit 200, and an operation command generator 300.

형태소 패턴 생성부(100)는 발화문장을 하나 이상의 형태소를 포함하는 형태소 패턴들로 구분하여 하나 이상의 형태소 패턴을 생성할 수 있다. 즉 발화문장이 하나 이상의 형태소 패턴으로 나눠질 수 있다. 여기서 발화문장은 사용자에의해 입력된 문장 또는 외부로 입력된 질문 문장에대한 응답 문장일 수 있으나 이에 제한되는 것은 아니다. 예컨대 사용자가 타이핑 또는 음성 입력한 '내가 여기에 있습니다'라는 문장 또는 외부에서 입력된 질문인 '당신은 어디에 있습니까'에 대하여 생성된 응답인 '내가 여기에 있습니다'라는 문장이 발화문장일 수 있다. 발화문장은 로봇이 음성출력하는 모든 문장을 포함할 수 있다. 이를 위해 본 장치는 마이크를 더 포함할 수 있다.The morpheme pattern generation unit 100 may generate one or more morpheme patterns by dividing the utterance sentence into morpheme patterns including one or more morpheme. That is, the utterance sentence can be divided into one or more morpheme patterns. Here, the utterance sentence may be a sentence input by a user or a response sentence to an externally inputted question sentence, but is not limited thereto. For example, the sentence 'I am here', which is a response generated for a user inputting a typed or spoken phrase 'I am here' or an externally inputted question 'Where are you?' May be a spoken sentence. The utterance sentence can include all the sentences that the robot outputs. To this end, the device may further comprise a microphone.

도 2는 일 실시예에 따른 형태소 패턴 생성부의 동작을 설명하기 위한 도이다. 도 2를 참조하면 예시적인 하나의 발화문장(10)이 나타난다. 형태소 패턴 생성부(100)는 발화문장(10)을 형태소 단위(1,2,3,4,5,6,7)로 나눈 후, 하나 이상의 형태소를 포함하는 형태소 패턴들(11,12,13,14)을 생성할 수 있다. 일 예에서 형태소 패턴 생성부(100)는 사용자 입력에 의해 형태소 패턴을 생성할 수 있다. 또 다른 실시예에서 형태소 패턴 생성부(100)는 지식모델을 기초로 형태소 패턴을 생성할 수 있다.2 is a view for explaining the operation of the morphological pattern generating unit according to an embodiment. Referring to FIG. 2, an exemplary spoken sentence 10 appears. The morpheme pattern generator 100 divides the utterance sentence 10 into morpheme units (1,2,3,4,5,6,7), and then generates morpheme patterns 11,12,13 , ≪ / RTI > 14). In one example, the morpheme pattern generation unit 100 may generate a morpheme pattern by user input. In another embodiment, the morpheme pattern generation unit 100 may generate morpheme patterns based on the knowledge model.

도 3은 본 발명의 일 실시예에서 이용되는 지식모델(M)의 동작을 설명하기 위한 도이다. 지식모델(M)은 입력된 문장을 분석하여 하나 이상의 형태소 패턴들로 구분함으로써 형태소 패턴들을 생성할 수 있다. 형태소 패턴을 구분하는 알고리즘을 생성하기 위해서, 미리 사용자는 입력문장을 형태소 패턴별로 구분하고 그 결과를 지식모델에 입력할 수 있다. 이렇게 입력된 입력문장과 형태소 패턴들을 기초로 지식모델(M)은 입력된 문장을 형태소 패턴 단위로 구분하는 알고리즘을 형성할 수 있다. 따라서 지식모델(M)에 사용자가 입력한 형태소 패턴들이 많을수록 지식모델이 생성하는 형태소 패턴들의 정확도는 향상될 수 있다. 즉 지식모델은 사용에 따라 그 기능이 점차 향상될 수 있다.3 is a view for explaining the operation of the knowledge model M used in an embodiment of the present invention. The knowledge model M can generate morpheme patterns by analyzing the input sentence and dividing it into one or more morpheme patterns. To create an algorithm that distinguishes morpheme patterns, the user can preliminarily sort the input sentences by morpheme patterns and input the results into the knowledge model. Based on the inputted input sentence and the morpheme patterns, the knowledge model M can form an algorithm that divides input sentences into morpheme pattern units. Therefore, the more morpheme patterns the user inputs to the knowledge model M, the more accurate the morpheme patterns generated by the knowledge model can be. That is, the knowledge model can be gradually improved in function depending on use.

제스처 타입 적용부(200)는 지식모델을 기초로, 구분된 각 형태소 패턴에 대응하는 제스처 타입을 각 형태소 패턴에 적용할 수 있다. 제스처 타입 적용부(200)는 각각의 형태소 패턴들의 형태소를 기반으로 발화문장에서 생성 가능한 제스처 타입을 추론하고 적용할 수 있다. The gesture type application unit 200 may apply a gesture type corresponding to each of the divided morpheme patterns to each morpheme pattern based on the knowledge model. The gesture type application unit 200 can deduce and apply gesture types that can be generated in the utterance sentence based on the morpheme of each morpheme pattern.

제스처 타입은, 대상의 형태와 크기를 묘사하는 것, 대상의 위치와 상태를 묘사하는 것, 지시 동작을 묘사하는 것, 리듬적 요소를 묘사하는 것, 상징적 의미를 묘사하는 것(예컨대 스피치와 함께 생성되지 않더라도 의미를 갖는 것), 제스처를 수행하지 않는 것 중 적어도 하나를 포함할 수 있으나 이에 제한되는 것은 아니다.The gesture type can be described by describing the shape and size of the object, depicting the location and state of the object, describing the dictation action, depicting the rhythmic element, depicting the symbolic meaning But does not perform the gesture), and does not perform the gesture. However, the present invention is not limited thereto.

예컨대 제스처 타입은 아래 표 1에 표시된 바와 같이 6가지로 구분될 수 있다. 아래 표에서 제스처 타입은 2006년에 McNeil이 정의한 Iconic, Metaphoric, Deictic, Beat 타입의 제스처와 1995년에 Kendon이 정의한 Emblem 타입의 제스처를 기반으로 정의한 제스처 타입을 보여준다. For example, the gesture type can be divided into six types as shown in Table 1 below. In the table below, the gesture type shows a gesture type defined based on the Iconic, Metaphoric, Deictic, and Beat type gestures defined by McNeil in 2006 and the Emblem type gesture defined by Kendon in 1995.

제스처 타입Gesture type 정의Justice IconicIconic 대상의 형태와 크기를 묘사한 것Describes the shape and size of the object MetaphoricMetaphoric 대상의 위치와 상태를 묘사한 것A description of the location and state of the object DeicticDeictic 지시 동작 표현 것Indicating behavior BeatBeat 리듬적 요소 반영한 것Rhythmic factor EmblemEmblem 상징적 의미를 묘사한 것(스피치와 함께 생성되지 않더라도 의미를 갖는 것)Describe symbolic meaning (meaning that it is not created with speech) NothingNothing 제스처로 표현하지 않을 것Not to be expressed as a gesture

도 4는 발화문장에 적용되는 제스처 타입을 설명하기 위한 도이다. 발화문장(10)은 형태소 패턴 생성부(100)에의해 하나 이상의 형태소 패턴(11,12,13,14)으로 구분된다. 그리고 제스처 타입 적용부(200)는 각 형태소 패턴(11,12,13,14)에 대하여 대응하는 제스처 타입을 적용한다. 도 4를 참조하면 형태소 패턴(11)은 제스처 타입(D)가 적용되었다. 도 4에서 표시된 알파벳 대문자는 위 표1에서 설명되는 제스처 타입의 첫번째 알파벳을 나타낸다. 즉, 도 4에 있어서 형태소 패턴(11)의 제스처 타입은 Deictic(D)로 적용되었다. 4 is a diagram for explaining a gesture type applied to a spoken sentence. The utterance sentence 10 is divided into one or more morpheme patterns 11, 12, 13, and 14 by the morpheme pattern generation unit 100. Then, the gesture type application unit 200 applies a corresponding gesture type to each morph pattern 11, 12, 13, and 14. Referring to Fig. 4, the morphological pattern 11 is applied to the gesture type (D). The uppercase alphabet shown in FIG. 4 represents the first alphabet of the gesture type described in Table 1 above. That is, in FIG. 4, the gesture type of the morpheme pattern 11 is applied as Deictic (D).

표 2과 표3은 제스처 타입 적용부(200)에 입력된 값에 대한 출력 값을 예시로 나타낸 것 이다. Tables 2 and 3 show exemplary output values of the values input to the gesture type application unit 200. [

내용Contents 입력input 방 안에In the room 향기가Fragrance 가득하다full in here 출력Print IconicIconic NothingNothing MetaphoricMetaphoric

내용Contents 입력input 저기에Over there 큰 상자가Big box 하나one 있어요I have it 출력Print DeicticDeictic IconicIconic EmblemEmblem MetaphoricMetaphoric

또한 제스처 타입 적용부(200)는 문맥과 제스처 재생 시간을 고려하여 의미전달에 중요한 제스처 타입을 선택하여 적용할 수 있다. 예컨대 제스처 타입 적용부(200)는 발화 문장에 대한 제스처를 생성할 때, 대상과 대상에 대한 이미지를 떠올린다는 이론에 기반할 수 있다. In addition, the gesture type application unit 200 may select and apply a gesture type that is important for meaning transfer considering the context and the gesture playback time. For example, the gesture type application unit 200 may be based on the theory that when creating a gesture for an utterance sentence, it recalls an image of the object and the object.

아래 표 4와 표 5는 각 문맥에 따라 선택되는 제스처 타입이 달라지는 것을 나타낸 예시 문장이다. 또한 표 6은 발화문장의 단어의 순서가 바뀐 경우에도 유연하게 이를 반영하여 강조해야 할 제스처를 적용하는 경우를 나타낸다.Tables 4 and 5 below are exemplary sentences showing that the selected gesture type is different for each context. Table 6 also shows a case in which a gesture to be emphasized is applied in a flexible manner even when the order of words in a spoken sentence is changed.

질문Question 상자가 어디에 있지Where is the box? 입력input 저기에Over there 큰 상자가Big box 하나one 있어요I have it 출력Print DeicticDeictic -- EmblemEmblem --

질문Question 큰 물건 담을 것이 필요한데?You need to pack a big thing? 입력input 저기에Over there 큰 상자가Big box 하나one 있어요I have it 출력Print -- IconicIconic EmblemEmblem --

질문Question 큰 물건 담을 것이 필요한데?You need to pack a big thing? 입력input 큰 상자가Big box 저기에Over there 하나one 있어요I have it 출력Print IconicIconic -- EmblemEmblem --

이와 같이 발화문자에 대하여 적용되는 제스처 타입도 도 3을 참조로 설명된 지식모델(M)에 의해 구현될 수 있다. 위 설명한 바와 마찬가지로 지식모델(M)은 사용자에의해 형태소 패턴마다 적용된 제스처 타입들에 대한 정보들을 축적하여 제스처 타입을 적용하는 알고리즘이 생성되고 진화될 수 있다. 이러한 지식 모델은 교사학습모델로 지칭될 수도 있다.The gesture type applied to the utterance characters as described above can also be implemented by the knowledge model M described with reference to Fig. As described above, the knowledge model M can generate and evolve an algorithm that accumulates information on gesture types applied to each morphological pattern by a user and applies a gesture type. This knowledge model may also be referred to as a teacher learning model.

또한 표 5 및 표 6에서와 같이 제스처 타입 적용부(200)는 외부로 입력된 질문 문장에 기반하여, 발화문장 중 일 부분의 형태소 패턴에 대하여만 제스처 타입을 적용할 수도 있다. 발화문장을 구성하는 모든 형태소 패턴에 대하여 제스처 타입을 적용하고 동작을 실행할 경우 동작이 원활하게 수행되지 않을 수 있으며, 한편으로는, 목적하는 동작만 수행되는 것이 의사 전달에 유리할 수 있기 때문이다.Also, as shown in Tables 5 and 6, the gesture type application unit 200 may apply the gesture type only to a part of the morpheme patterns of the utterance sentence based on the externally inputted question sentence. This is because, when a gesture type is applied to all the morpheme patterns constituting the utterance sentence and the operation is performed, the operation may not be performed smoothly, and on the other hand, it is advantageous to communicate only that the desired operation is performed.

또한 일 실시예에서 지식모델을 이용한 로봇의 동작 구현 장치(1000)는 데이터베이스(400)를 더 포함할 수 있다. 데이터베이스(400)는 지식모델(M)의 실행에 필요한 알고리즘 정보 및 기타 다양한 데이터 정보를 저장하고 있을 수 있다. 또한 이러한 데이터베이스(400)는 원격지에 위치되어 있을 수도 있다.Also, in one embodiment, the apparatus 1000 for implementing operations of a robot using a knowledge model may further include a database 400. [ The database 400 may store algorithm information and various other data information required for execution of the knowledge model M. [ Such a database 400 may also be located remotely.

도 5는 데이터베이스(400)에 저장되는 제스처 타입과 단위동작의 관계를 설명하기 위한 도이다. 도 5를 참조하면 데이터베이스의 일부분(410)에는 제스처 타입과 단위동작 정보가 저장될 수 있다. 하나의 제스처 타입에는 하나 이상의 단위 동작이 포함될 수 있다. 각 단위 동작은 예컨대 네모를 그리는 동작, 세모를 그리는 동작, 먼 곳을 가리키는 동작에 대한 것일 수 있다. 또한 각 단위 동작은 하나 이상의 키워드에 매칭되어 데이터베이스(400)에 저장될 수 있다.5 is a diagram for explaining the relationship between the gesture type stored in the database 400 and the unit operation. Referring to FIG. 5, a gesture type and unit operation information may be stored in a portion 410 of a database. One gesture type may include one or more unit actions. Each unit operation may be, for example, a motion for drawing a square, an action for drawing a triangle, or an operation for pointing a far point. Each unit operation may also be matched to one or more keywords and stored in the database 400.

예컨대 단위 동작(I2)는 네모를 그리는 것이고, 매칭된 키워드는, 네모에 관련된 'tv', '상자', '모니터' 등일 수 있다. 이에 따라서 각각의 키워드 별로 단위 동작이 매칭되지 않고 여러 개의 키워드가 하나의 단위동작으로 연결되어 데이터 양의 부담을 줄일 수 있다. For example, the unitary action I 2 is to draw a square, and the matched keyword may be 'tv', 'box', 'monitor' etc. related to the square. Accordingly, the unit operation is not matched for each keyword, and a plurality of keywords are connected to one unit operation, thereby reducing the burden of data amount.

동작명령 생성부(300)는 적용된 제스처 타입에 따라 로봇을 동작시키는 동작명령을 생성할 수 있다. 동작명령 생성부(300)는 로봇의 팔, 다리, 목, 허리, 손, 발 등을 움직이기 위한 동작 명령을 생성할 수 있다. 구동부(500)는 동작 명령에 기반하여 로봇의 신체 부위를 동작 시킬 수 있다. 구동부(500)는 모터, 엔코더 등을 포함하도록 구성될 수 있다.The operation command generation unit 300 may generate an operation command for operating the robot according to the applied gesture type. The motion command generation unit 300 may generate an operation command for moving an arm, a leg, a neck, a waist, a hand, a foot, and the like of the robot. The driving unit 500 can operate a body part of the robot based on an operation command. The driving unit 500 may be configured to include a motor, an encoder, and the like.

도 5에서 설명된 바와 같이 상기 제스처 타입은, 대응되는 하나 이상의 키워드를 갖는 하나 이상의 단위 동작을 포함할 수 있다. 이 경우 동작명령 생성부(300)는, 발화문장의 형태소 패턴에 포함되는 키워드를 기초로 해당되는 제스처 타입에서 단위 동작을 결정하고, 결정된 단위 동작을 기초로 상기 동작명령을 생성할 수 있다. 예컨대 동작명령 생성부(300)는 발화문장의 형태소 패턴에 '상자'라는 키워드가 존재한다면, 키워드'상자'가 매칭된 단위 동작을 결정할 수 있다. '제스처 타입-단위동작-키워드'간의 연관관계 및 단어 데이터는 데이터베이스(400)에 저장될 수 있다. As described in FIG. 5, the gesture type may include one or more unit actions having a corresponding one or more keywords. In this case, the action command generating unit 300 can determine the unit action in the corresponding gesture type based on the keyword included in the morpheme pattern of the utterance sentence, and generate the action command based on the determined unit action. For example, if the keyword 'box' exists in the morpheme pattern of the utterance sentence, the action command generating unit 300 can determine the matched unit operation of the keyword 'box'. The association between the 'gesture type-unit operation-keyword' and the word data can be stored in the database 400.

즉 하나의 형태소 패턴에 하나의 제스처 타입이 적용될 수 있고, 제스처 타입은 대응되는 복수개의 단위동작을 가지고 있다. 그리고 각 단위동작은 대응되는 복수개의 키워드를 가지고 있다. 따라서 동작명령 생성부(300)는 형태소 패턴에 포함되는 키워드가 대응되는 단위동작을 선택함으로써 동작명령을 생성할 수 있다.That is, one gesture type can be applied to one morph pattern, and the gesture type has a corresponding plurality of unit motions. Each unit operation has a plurality of corresponding keywords. Therefore, the operation command generation unit 300 can generate an operation command by selecting the unit operation corresponding to the keyword included in the morpheme pattern.

예컨대, 제스처 타입 I에 단위동작 I1, I2, I3..등이 연관되어 있고, 각 단위 동작 I1에는 하나 이상의 키워드(예컨대, tv, 모니터, 상자)가 연관되어 데이터베이스(400)에 저장되어 있을 수 있다. For example, the gesture type I may be associated with a unitary action I1, I2, I3, etc., and each unit action I1 may have one or more keywords (e.g., tv, monitor, have.

또한 다른 일 실시예에서 형태소 패턴에 포함되는 키워드에 대응되는 키워드가, 해당 제스처 타입 연관된 동작 명령에 포함되어 있지 않을 수 있다. 이 경우 동작명령 생성부(300)는 임의로 또는 소정의 단위 동작을 결정하고, 결정된 제스처를 기초로 동작명령을 생성할 수 있다. In another embodiment, the keyword corresponding to the keyword included in the morpheme pattern may not be included in the action command associated with the gesture type. In this case, the operation command generation unit 300 may arbitrarily or determine a predetermined unit operation, and generate an operation command based on the determined gesture.

예컨대 '상자'라는 키워드를 포함하는 형태소 패턴이 제스처 타입이 I인 것으로 적용되었으나, '상자'라는 키워드가 매칭되는 단위 동작이 존재하지 않을 수 있다. 이 경우 동작명령 생성부(300)는 해당 형태소 패턴에 적용된 제스처 타입에서 임의로 단위 동작을 결정할 수 있다. 또 다른 예에서 동작명령 생성부(300)는 매칭되는 단위 동작이 없는 경우 해당 제스처 타입의 기본 단위 동작을 설정하고, 설정된 기본 단위 동작에 대한 동작명령을 생성할 수 있다. For example, a morphological pattern including a keyword 'box' is applied to a gesture type I, but a unit operation in which a keyword 'box' is matched may not exist. In this case, the operation command generation unit 300 can arbitrarily determine the unit operation in the gesture type applied to the morpheme pattern. In another example, the operation command generation unit 300 may set a basic unit operation of the gesture type and generate an operation command for the set basic unit operation when there is no matched unit operation.

위 예에서 '상자'라는 키워드가 포함된 형태소 패턴의 제스처 타입이 M인 경우, 네모 또는 동그라미 형태를 만지는 동작을 제스처 타입 M에 대한 기본 단위 동작으로 설정될 수도 있다.In the above example, when the gesture type of the morphological pattern including the keyword " box " is M, the operation of touching the square or circle shape may be set as a basic unit operation for the gesture type M.

또한 일 실시예에서 지식모델을 이용한 로봇의 동작 구현 장치(1000)는 센서로부터 입력받은 센싱정보를 기초로 감정정보를 생성하는 감정정보 생성부를 더 포함할 수 있다. 센서(600)는 로봇의 일 부분에 설치되어 외부로부터 온도, 소리, 촉감, 온도, 터치 등의 감각적인 신호를 센싱할 수 있다. 예컨대 로봇의 머리에 터치 센서가 부착되어 있고, 사용자가 로봇의 머리를 쓰다듬는 경우, 감정정보 생성부(700)는 만족감 이라는 감정정보를 생성할 수 있다.In addition, the apparatus 1000 for implementing the robot using the knowledge model may further include an emotion information generating unit for generating emotion information based on the sensing information input from the sensor. The sensor 600 is installed in a part of the robot and can sense a sensory signal such as temperature, sound, touch, temperature, touch from the outside. For example, when the touch sensor is attached to the head of the robot and the user strokes the head of the robot, the emotion information generating unit 700 can generate emotion information of satisfaction.

일 실시예에서 동작명령 생성부(300)는, 감정정보를 기초로 동작명령을 변형시킬 수 있다. 도 6은 감정정보를 기초로 동작명령이 변형되는 예시를 나타낸다. 도 6을 참조하면 감정정보가 입력되기 전에 동작명령은 로봇이 두 손을 이용하여 네모(71)를 그리는 동작을 하는 것이었다. 그러나 센서에의해 획득한 센싱정보를 기초로 감정정보 생성부(700)가 주눅듬 이라는 감정정보를 생성한 경우, 동작명령 생성부(72)는 도 6의 네모(72)와 같이 동작의 크기를 축소시킬 수 있다. 위 설명에서는 동작의 크기를 예시로 들었으나, 다른 실시예에서 변형되는 동작의 종류는 동작의 크기, 동작이 구현되는 위치, 속도 등을 포함할 수 있으나 이에 본 발명이 제한되는 것은 아니다.In one embodiment, the operation command generation unit 300 may modify the operation command based on the emotion information. 6 shows an example in which an operation command is modified based on emotion information. Referring to FIG. 6, before the emotion information is inputted, the motion command is that the robot draws a square 71 using two hands. However, when the emotion information generating unit 700 generates emotion information such as a feeling of humming based on the sensing information acquired by the sensor, the motion command generating unit 72 generates the motion information Can be reduced. Although the size of the operation is exemplified in the above description, the type of operation modified in other embodiments may include the size of the operation, the position where the operation is implemented, the speed, and the like, but the present invention is not limited thereto.

또한 동작명령 생성부(300)는 발화 문장에 대하여 전체적으로 자연스러운 동작을 생성하기 위해 아래 표 7과 같이 대화 행동을 구성하는 요소와 개념을 구별할 수 있다. In addition, the operation command generation unit 300 can distinguish concepts and elements constituting the conversation behavior as shown in Table 7 below in order to generate an entirely natural operation for the utterance sentence.

요소Element 내용Contents 시작 제스처Start gesture -발화문장의 처음부터 메인 자세 대기 제스처까지의
의미를 갖지 않는 동작생성
-메인 제스처가 생성되기 전까지 자연스러운 동작 생성
- from the beginning of the firing sentence to the main posture standby gesture
Creating Meaningless Actions
- Create a natural gesture until the main gesture is created
메인 자세 대기 제스처Main Attitude Waiting Gesture -메인 제스처 표현을 위한 시작 지점까지 필요한 대기 동작 생성- Create the required standby action to the starting point for the main gesture presentation 메인 제스처Main gesture -선택된 타입의 키워드 표현함
-발화문장의 주된 의미를 갖는 동작
- Keyword expression of selected type
- Actions with the main meaning of spoken sentences
메인 자세 마무리 제스처Main Posture Gesture -메인 제스처와 마무리 제스처 사이의 동작생성- Create motion between the main gesture and the finish gesture 마무리 제스처Finishing gesture -초기 자세로 돌아가는 동작- Behavior returning to initial position

이를 위해 동작명령 생성부(300)는 발화문장을 기초로, 제스처 재생 시간을 할당하고, 제스처 타입과 키워드로부터 해당되는 단위 동작 명령을 로딩할 수 있다. 그리고 할당된 시간에 맞게 단위 동작들의 속도를 조정할 수 있다.To this end, the operation command generation unit 300 may allocate the gesture reproduction time based on the utterance sentence, and may load the corresponding unit operation command from the gesture type and the keyword. And the speed of the unit operations can be adjusted according to the assigned time.

상술한 로봇은 인간과 유사하게 팔다리를 가진 휴머노이드 로봇일 수 있으나 이에 본 발명이 제한되는 것은 아니고, 해당 로봇도 본 발명의 지식 모델링 및 동작 장치에 포함될 수 있다.The above-described robot may be a humanoid robot having a limb similar to a human being, but the present invention is not limited thereto, and the robot may be included in the knowledge modeling and operation apparatus of the present invention.

도 7은 본 발명의 일 실시예에 따른 지식모델을 이용한 로봇의 동작 구현 방법의 순서도이다. 지식모델을 이용한 로봇의 동작 구현 방법은 상술한 지식모델을 이용한 로봇의 동작 구현 장치의 구성요소들에 의해 구현될 수 있다.7 is a flowchart of a method of implementing an operation of a robot using a knowledge model according to an embodiment of the present invention. The method for implementing the robot using the knowledge model can be implemented by the elements of the apparatus for implementing the robot using the knowledge model described above.

도 7을 참조하면 지식모델을 이용한 로봇의 동작 구현 방법은 발화문장을 하나 이상의 형태소를 포함하는 형태소 패턴들로 구분하여 하나 이상의 형태소 패턴을 생성하는 단계(S100), 지식모델을 기초로, 구분된 각 형태소 패턴에 대응하는 제스처 타입을 각 형태소 패턴에 적용하는 단계(S200) 및 적용된 제스처 타입에 따라 로봇을 동작시키는 동작명령을 생성하는 단계(S300)를 포함한다. 여기서 발화문장은 사용자에의해 입력된 문장 또는 외부로 입력된 질문 문장에대한 응답 문장을 포함할 수 있다.Referring to FIG. 7, a method of operating a robot using a knowledge model includes generating one or more morpheme patterns by dividing an utterance sentence into morpheme patterns including one or more morpheme (S100) A step S200 of applying a gesture type corresponding to each morpheme pattern to each morpheme pattern and a step S300 of generating an action command for operating the robot according to the applied gesture type. Here, the utterance sentence may include a sentence input by a user or a response sentence to an externally inputted question sentence.

또한 형태소 패턴을 생성하는 단계(S100)는, 상기 지식모델을 기초로 하나 이상의 형태소 패턴을 생성할 수 있다. 또한 제스처 타입은, 대상의 형태와 크기를 묘사하는 것, 대상의 위치와 상태를 묘사하는 것, 지시 동작을 묘사하는 것, 리듬적 요소를 묘사하는 것, 스피치와 함께 생성되지 않더라도 의미를 갖는 것, 제스처를 수행하지 않는 것 중 적어도 하나를 포함할 수 있으나 이에 본 발명이 제한되지 않는다.In addition, the step of generating morpheme patterns (S100) may generate one or more morpheme patterns based on the knowledge model. Gesture types can also be used to describe the shape and size of an object, to describe the position and state of an object, to describe an instructional action, to describe a rhythmic element, , Or not performing a gesture, but the present invention is not limited thereto.

제스처 타입을 적용하는 단계(S200)는, 외부로 입력된 질문 문장에 기반하여, 발화문장 중 일 부분의 형태소 패턴에 대하여만 제스처 타입을 적용할 수 있다. 지식모델은, 사용자가 형태소 패턴을 생성하고, 제스처 타입을 적용한 하나 이상의 샘플 문장에 대한 데이터를 기초로 생성될 수 있고, 상기 제스처 타입은, 대응되는 하나 이상의 키워드를 갖는 하나 이상의 단위 동작을 포함할 수 있다. In the step S200 of applying the gesture type, the gesture type can be applied only to a part of the morpheme pattern of the utterance sentence based on the externally inputted question sentence. The knowledge model may be generated based on data for one or more sample sentences in which the user generates a morphological pattern and applies a gesture type and the gesture type includes one or more unit actions having corresponding one or more keywords .

일 실시예에서 동작명령을 생성하는 단계(S300)는, 발화문장의 형태소 패턴에 포함되는 키워드를 기초로 해당되는 제스처 타입에서 단위 동작을 결정하고, 결정된 단위 동작을 기초로 상기 동작명령을 생성할 수 있다.In operation S300, an operation command is generated by determining a unit operation in the corresponding gesture type based on the keyword included in the morpheme pattern of the utterance sentence, and generating the operation command based on the determined unit operation .

또 다른 일 실시예에서 동작명령을 생성하는 단계(S300)는, 발화문장의 형태소 패턴에 포함되는 키워드에 대응되는 키워드가 해당 형태소 패턴의 제스처 타입에 존재하지 않는 경우, 임의로 또는 소정의 단위 동작을 결정하고, 결정된 제스처를 기초로 동작명령을 생성할 수 있다.In yet another embodiment, the step of generating an operation command (S300) includes the steps of, if the keyword corresponding to the keyword included in the morpheme pattern of the utterance sentence does not exist in the gesture type of the morpheme pattern, And generate an action command based on the determined gesture.

일 실시예에 따른 지식모델을 이용한 로봇의 동작 구현 방법은 센서로부터 입력받은 센싱정보를 기초로 감정정보를 생성하는 단계를 더 포함할 수 있다. 이 경우 동작명령을 생성하는 단계(S300)는, 상기 감정정보를 기초로 동작명령을 변형시킬 수 있다. The method for implementing the robot using the knowledge model according to an embodiment may further include generating emotion information based on the sensing information input from the sensor. In this case, the step of generating an action command (S300) may modify the action command based on the emotion information.

또한 동작명령을 생성하는 단계(S300)는, 감정정보를 기초로, 동작의 크기, 동작을 실시하는 속도, 동작이 구현되는 위치 중 적어도 하나를 변형시킬 수도 있다.The step of generating an operation command (S300) may also modify at least one of the size of the operation, the speed at which the operation is performed, and the position where the operation is implemented based on the emotion information.

이상에서 살펴본 본 발명은 도면에 도시된 실시예들을 참고로 하여 설명하였으나 이는 예시적인 것에 불과하며 당해 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 실시예의 변형이 가능하다는 점을 이해할 것이다. 그러나, 이와 같은 변형은 본 발명의 기술적 보호범위 내에 있다고 보아야 한다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해서 정해져야 할 것이다.While the invention has been shown and described with reference to certain embodiments thereof, it will be understood by those skilled in the art that various changes and modifications may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. However, it should be understood that such modifications are within the technical scope of the present invention. Accordingly, the true scope of the present invention should be determined by the technical idea of the appended claims.

1 ~ 7 : 형태소 단위
10 : 발화문장
11 ~ 14 : 형태소 패턴
100 : 형태소 패턴 생성부
200 : 제스처 타입 적용부
300 : 동작명령 생성부
400 : 데이터베이스
500 : 구동부
600 : 센서
700 : 감정정보 생성부
1000 : 모델링 및 동작 장치
M : 지식모델
1 to 7: morpheme unit
10: spoken sentence
11 ~ 14: Morphological pattern
100: morpheme pattern generator
200: Gesture type application part
300: Operation command generation unit
400: Database
500:
600: Sensor
700: Emotion information generating unit
1000: Modeling and operation device
M: Knowledge model

Claims (20)

발화문장을 둘 이상의 형태소를 포함하는 형태소 패턴들로 구분하여 하나 이상의 형태소 패턴을 생성하는 형태소 패턴 생성부;
지식모델을 기초로, 구분된 각 형태소 패턴의 문맥 또는 제스처 재생 시간을 고려하여 각 형태소 패턴에 대응되는 제스처 타입을 추론하는 제스처 타입 적용부; 및
추론된 제스처 타입에 따라 로봇을 동작시키는 동작명령을 생성하는 동작명령 생성부를 포함하되,
상기 지식모델은 교사학습모델로서, 사용자로부터 미리 입력된 문장을 형태소 패턴 단위로 구분하는 알고리즘을 형성하며, 사용자로부터 입력된 형태소 패턴들이 많을수록 지식모델이 생성하는 형태소 패턴들의 정확도가 향상되며, 상기 알고리즘을 반복적으로 수행하면 상기 형태소 패턴마다 적용된 제스처 타입들에 대한 정보들이 축적됨으로써 상기 지식모델의 기능이 점차 향상되고,
상기 제스처 타입 적용부는, 외부로 입력된 질문 문장에 기반하여, 발화문장 중 일 부분의 형태소 패턴에 대하여만 제스처 타입을 적용하고, 나머지 형태소 패턴에 대해서는 제스처 타입의 적용을 생략함으로써, 로봇의 동작 수행을 원활하게 하고 사용자에 대한 의사 전달성을 향상시키고,
상기 동작명령 생성부는, 발화문장의 형태소 패턴에 대한 제스처 타입에 존재하지 않는 경우, 각 형태소 패턴의 발화문장 내 문맥 또는 제스처 재생 시간을 고려하여 추론된 제스처를 기초로 동작명령을 생성하는 것을 특징으로 하는 지식모델을 이용한 로봇의 동작 구현 장치.
A morpheme pattern generation unit for generating one or more morpheme patterns by dividing the utterance sentence into morpheme patterns including two or more morpheme;
A gesture type applying unit for inferring a gesture type corresponding to each morpheme pattern in consideration of a context of each morpheme pattern or a gesture reproduction time based on a knowledge model; And
And an operation command generator for generating an operation command for operating the robot according to the inferred gesture type,
The knowledge model is a teacher learning model that forms an algorithm for classifying sentences pre-inputted from a user into morpheme pattern units. The more morpheme patterns input from a user, the more accurate the morphological patterns generated by the knowledge model, The functions of the knowledge model are gradually improved by accumulating information on the gesture types applied to the morpheme patterns,
The gesture type application unit applies the gesture type only to a part of the morpheme patterns of the utterance sentence based on the externally inputted question sentence and omits the application of the gesture type to the remaining morpheme patterns, Thereby improving the user's attainment of the doctor,
Wherein the operation command generation unit generates an operation command based on the inferred gesture in consideration of the context in the utterance sentence of each morpheme pattern or the gesture playback time when the gesture type does not exist in the morpheme pattern of the utterance sentence A device for realizing the motion of a robot using a knowledge model.
제1항에 있어서,
상기 발화문장은 사용자에 의해 입력된 문장 또는 외부로 입력된 질문 문장에 대한 응답 문장을 포함하는 것을 특징으로 하는 지식모델을 이용한 로봇의 동작 구현 장치.
The method according to claim 1,
Wherein the spoken sentence includes a sentence input by a user or a response sentence to a question sentence input to the outside.
제1항에 있어서,
상기 형태소 패턴 생성부는,
상기 지식모델을 기초로 하나 이상의 형태소 패턴을 생성하는 것을 특징으로 하는 지식모델을 이용한 로봇의 동작 구현 장치.
The method according to claim 1,
Wherein the morpheme pattern generator comprises:
And generates at least one morpheme pattern based on the knowledge model.
제1항에 있어서,
상기 제스처 타입은,
대상의 형태와 크기를 묘사하는 것, 대상의 위치와 상태를 묘사하는 것, 지시 동작을 묘사하는 것, 리듬적 요소를 묘사하는 것, 상징적 의미를 갖는 것, 제스처를 수행하지 않는 것 중 적어도 하나를 포함하는 것을 특징으로 하는 지식모델을 이용한 로봇의 동작 구현 장치.
The method according to claim 1,
The gesture type includes:
At least one of depicting the shape and size of an object, describing the location and state of an object, describing an instructional action, describing a rhythmic element, having a symbolic meaning, or not performing a gesture Wherein the robot includes a robot and a robot.
삭제delete 제1항에 있어서,
상기 지식모델은,
사용자가 형태소 패턴을 생성하고, 제스처 타입을 적용한 하나 이상의 샘플 문장에 대한 데이터를 기초로 생성되는 것을 특징으로 하는 지식모델을 이용한 로봇의 동작 구현 장치.
The method according to claim 1,
The knowledge model,
Wherein the user generates a morphological pattern and is generated based on data on one or more sample sentences to which the gesture type is applied.
제1항에 있어서,
상기 제스처 타입은, 대응되는 하나 이상의 키워드를 갖는 하나 이상의 단위 동작을 포함하고,
상기 동작명령 생성부는,
발화문장의 형태소 패턴에 포함되는 키워드를 기초로 해당되는 제스처 타입에서 단위 동작을 결정하고, 결정된 단위 동작을 기초로 상기 동작명령을 생성하는 것을 특징으로 하는 지식모델을 이용한 로봇의 동작 구현 장치.
The method according to claim 1,
Wherein the gesture type comprises one or more unit actions having a corresponding one or more keywords,
Wherein the operation command generation unit comprises:
Determining a unit operation in the corresponding gesture type based on a keyword included in a morpheme pattern of the utterance sentence, and generating the operation command based on the determined unit operation.
삭제delete 제1항에 있어서,
사용자의 동작에 따른 감각적인 신호를 센싱하는 센서; 및
상기 사용자의 동작에 따른 신호를 기초로 감정정보를 생성하는 감정정보 생성부를 더 포함하되,
상기 동작명령 생성부는, 상기 감정정보를 기초로 동작명령을 변형시키는 것을 특징으로 하는 지식모델을 이용한 로봇의 동작 구현 장치.
The method according to claim 1,
A sensor for sensing a sensory signal according to a user's motion; And
And an emotion information generation unit for generating emotion information based on a signal according to an operation of the user,
Wherein the motion command generation unit modifies the motion command based on the emotion information.
제9항에 있어서,
상기 동작명령 생성부는,
상기 감정정보를 기초로, 동작의 크기, 동작을 실시하는 속도, 동작이 구현되는 위치 중 적어도 하나를 변형시키는 것을 특징으로 하는 지식모델을 이용한 로봇의 동작 구현 장치.
10. The method of claim 9,
Wherein the operation command generation unit comprises:
Wherein at least one of a magnitude of an operation, a speed at which an operation is performed, and a position at which an operation is implemented is modified based on the emotion information.
발화문장을 둘 이상의 형태소를 포함하는 형태소 패턴들로 구분하여 하나 이상의 형태소 패턴을 생성하는 단계;
지식모델을 기초로, 구분된 각 형태소 패턴의 문맥 또는 제스처 재생 시간을 고려하여 각 형태소 패턴에 대응되는 제스처 타입을 추론하는 단계; 및
추론된 제스처 타입에 따라 로봇을 동작시키는 동작명령을 생성하는 단계를 포함하되,
상기 지식모델은 교사학습모델로서, 사용자로부터 미리 입력된 문장을 형태소 패턴 단위로 구분하는 알고리즘을 형성하며, 사용자로부터 입력된 형태소 패턴들이 많을수록 지식모델이 생성하는 형태소 패턴들의 정확도가 향상되며, 상기 알고리즘을 반복적으로 수행하면 상기 형태소 패턴마다 적용된 제스처 타입들에 대한 정보들이 축적됨으로써 상기 지식모델의 기능이 점차 향상되고,
상기 제스처 타입을 적용하는 단계는, 외부로 입력된 질문 문장에 기반하여, 발화문장 중 일 부분의 형태소 패턴에 대하여만 제스처 타입을 적용하고, 나머지 형태소 패턴에 대해서는 제스처 타입의 적용을 생략함으로써, 로봇의 동작 수행을 원활하게 하고 사용자에 대한 의사 전달성을 향상시키고,
상기 동작명령을 생성하는 단계는, 발화문장의 형태소 패턴에 대한 제스처 타입이 존재하지 않는 경우, 각 형태소 패턴의 발화문장 내 문맥 또는 제스처 재생 시간을 고려하여 추론된 제스처를 기초로 동작명령을 생성하는 것을 특징으로 하는 지식모델을 이용한 로봇의 동작 구현 방법.
Dividing the utterance sentence into morpheme patterns including two or more morphemes to generate at least one morpheme pattern;
Inferring a gesture type corresponding to each morpheme pattern in consideration of a context of each morpheme pattern or a gesture reproduction time based on a knowledge model; And
Generating an action command to operate the robot according to the inferred gesture type,
The knowledge model is a teacher learning model that forms an algorithm for classifying sentences pre-inputted from a user into morpheme pattern units. The more morpheme patterns input from a user, the more accurate the morphological patterns generated by the knowledge model, The functions of the knowledge model are gradually improved by accumulating information on the gesture types applied to the morpheme patterns,
The step of applying the gesture type may include applying a gesture type only to a part of a morpheme pattern of the utterance sentence based on an externally input question sentence and omitting application of a gesture type to the remaining morpheme patterns, To facilitate the operation of the user,
Generating the action command based on the inferred gesture in consideration of the context in the utterance sentence of each morpheme pattern or the gesture playback time when the gesture type for the morpheme pattern of the utterance sentence does not exist Wherein the method comprises the steps of:
제11항에 있어서,
상기 발화문장은 사용자에 의해 입력된 문장 또는 외부로 입력된 질문 문장에 대한 응답 문장을 포함하는 것을 특징으로 하는 지식모델을 이용한 로봇의 동작 구현 방법.
12. The method of claim 11,
Wherein the spoken sentence includes a sentence input by a user or a response sentence to a question sentence input to the outside.
제11항에 있어서,
상기 형태소 패턴을 생성하는 단계는,
상기 지식모델을 기초로 하나 이상의 형태소 패턴을 생성하는 것을 특징으로 하는 지식모델을 이용한 로봇의 동작 구현 방법.
12. The method of claim 11,
Wherein the generating the morpheme pattern comprises:
And generating at least one morpheme pattern based on the knowledge model.
제11항에 있어서,
상기 제스처 타입은,
대상의 형태와 크기를 묘사하는 것, 대상의 위치와 상태를 묘사하는 것, 지시 동작을 묘사하는 것, 리듬적 요소를 묘사하는 것, 상징적 의미를 갖는 것, 제스처를 수행하지 않는 것 중 적어도 하나를 포함하는 것을 특징으로 하는 지식모델을 이용한 로봇의 동작 구현 방법.
12. The method of claim 11,
The gesture type includes:
At least one of depicting the shape and size of an object, describing the location and state of an object, describing an instructional action, describing a rhythmic element, having a symbolic meaning, or not performing a gesture Wherein the step of generating the knowledge model comprises the steps of:
삭제delete 제11항에 있어서,
상기 지식모델은,
사용자가 형태소 패턴을 생성하고, 제스처 타입을 적용한 하나 이상의 샘플 문장에 대한 데이터를 기초로 생성되는 것을 특징으로 하는 지식모델을 이용한 로봇의 동작 구현 방법.
12. The method of claim 11,
The knowledge model,
Wherein a user generates a morphological pattern and is generated based on data on one or more sample sentences to which a gesture type is applied.
제11항에 있어서,
상기 제스처 타입은, 대응되는 하나 이상의 키워드를 갖는 하나 이상의 단위 동작을 포함하고,
상기 동작명령을 생성하는 단계는,
발화문장의 형태소 패턴에 포함되는 키워드를 기초로 해당되는 제스처 타입에서 단위 동작을 결정하고, 결정된 단위 동작을 기초로 상기 동작명령을 생성하는 것을 특징으로 하는 지식모델을 이용한 로봇의 동작 구현 방법.
12. The method of claim 11,
Wherein the gesture type comprises one or more unit actions having a corresponding one or more keywords,
Wherein generating the action command comprises:
Determining a unit operation in a corresponding gesture type based on a keyword included in a morpheme pattern of a spoken sentence, and generating the operation command based on the determined unit operation.
삭제delete 제11항에 있어서,
사용자의 동작에 따른 감각적인 신호를 센싱하는 단계; 및
상기 사용자의 동작에 따른 신호를 기초로 감정정보를 생성하는 단계를 더 포함하되,
상기 동작명령을 생성하는 단계는, 상기 감정정보를 기초로 동작명령을 변형시키는 것을 특징으로 하는 지식모델을 이용한 로봇의 동작 구현 방법.
12. The method of claim 11,
Sensing a sensory signal according to an operation of a user; And
Further comprising generating emotion information based on a signal according to an operation of the user,
Wherein the step of generating the action command modifies the action command based on the emotion information.
제19항에 있어서,
상기 동작명령을 생성하는 단계는,
상기 감정정보를 기초로, 동작의 크기, 동작을 실시하는 속도, 동작이 구현되는 위치 중 적어도 하나를 변형시키는 것을 특징으로 하는 지식모델을 이용한 로봇의 동작 구현 방법.
20. The method of claim 19,
Wherein generating the action command comprises:
Wherein at least one of a magnitude of an operation, a speed at which an operation is performed, and a position at which an operation is implemented is modified based on the emotion information.
KR1020170151322A 2017-11-14 2017-11-14 Apparatus and method for implementing motion of robot using knowledge model KR101964300B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170151322A KR101964300B1 (en) 2017-11-14 2017-11-14 Apparatus and method for implementing motion of robot using knowledge model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170151322A KR101964300B1 (en) 2017-11-14 2017-11-14 Apparatus and method for implementing motion of robot using knowledge model

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020150158682A Division KR20170055687A (en) 2015-11-12 2015-11-12 Apparatus and method for implementing motion of robot using knowledge model

Publications (2)

Publication Number Publication Date
KR20170128194A KR20170128194A (en) 2017-11-22
KR101964300B1 true KR101964300B1 (en) 2019-04-01

Family

ID=60809668

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170151322A KR101964300B1 (en) 2017-11-14 2017-11-14 Apparatus and method for implementing motion of robot using knowledge model

Country Status (1)

Country Link
KR (1) KR101964300B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210078172A (en) 2019-12-18 2021-06-28 한국과학기술연구원 Morpheme based robot gesture generating apparatus and method

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102259969B1 (en) 2017-09-29 2021-06-02 주식회사 엘지에너지솔루션 Battery module
KR102414107B1 (en) * 2020-08-26 2022-06-28 서울대학교산학협력단 A system and method for human-friendly and task-oriented dialogue

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004017269A (en) * 2002-06-20 2004-01-22 P To Pa:Kk Robot controlling equipment, robot control process, and program
JP5402648B2 (en) * 2010-01-05 2014-01-29 日本電気株式会社 Speech synthesis apparatus, robot apparatus, speech synthesis method, and program
JP2014504959A (en) * 2011-01-26 2014-02-27 本田技研工業株式会社 Synchronizing humanoid robot gestures and voice

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9842068B2 (en) 2010-04-14 2017-12-12 Qualcomm Incorporated Methods of bus arbitration for low power memory access

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004017269A (en) * 2002-06-20 2004-01-22 P To Pa:Kk Robot controlling equipment, robot control process, and program
JP5402648B2 (en) * 2010-01-05 2014-01-29 日本電気株式会社 Speech synthesis apparatus, robot apparatus, speech synthesis method, and program
JP2014504959A (en) * 2011-01-26 2014-02-27 本田技研工業株式会社 Synchronizing humanoid robot gestures and voice

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210078172A (en) 2019-12-18 2021-06-28 한국과학기술연구원 Morpheme based robot gesture generating apparatus and method
KR102301042B1 (en) * 2019-12-18 2021-09-14 한국과학기술연구원 Morpheme based robot gesture generating apparatus and method

Also Published As

Publication number Publication date
KR20170128194A (en) 2017-11-22

Similar Documents

Publication Publication Date Title
Oviatt Multimodal interfaces
Oviatt et al. Designing the user interface for multimodal speech and pen-based gesture applications: State-of-the-art systems and future research directions
Bhattacharya et al. Text2gestures: A transformer-based network for generating emotive body gestures for virtual agents
Wheatland et al. State of the art in hand and finger modeling and animation
KR101964300B1 (en) Apparatus and method for implementing motion of robot using knowledge model
JPH06138815A (en) Finger language/word conversion system
Kaushik et al. Natural user interfaces: Trend in virtual interaction
Kopp et al. Imitation games with an artificial agent: From mimicking to understanding shape-related iconic gestures
Thórisson Layered modular action control for communicative humanoids
Baig et al. Qualitative analysis of a multimodal interface system using speech/gesture
JP2015069231A (en) Character generation device and program
Kopp et al. The fabric of socially interactive agents: Multimodal interaction architectures
John et al. Audio and video-based emotion recognition using multimodal transformers
Quek The catchment feature model: A device for multimodal fusion and a bridge between signal and sense
KR20170055687A (en) Apparatus and method for implementing motion of robot using knowledge model
Nam et al. Modeling and recognition of hand gesture using colored Petri nets
Mlakar et al. TTS-driven synthetic behaviour-generation model for artificial bodies
Takano et al. Construction of a space of motion labels from their mapping to full-body motion symbols
US20170011309A1 (en) System and method for layered, vector cluster pattern with trim
Oltmans et al. Naturally conveyed explanations of device behavior
Shree et al. A Virtual Assistor for Impaired People by using Gestures and Voice
KR20180048039A (en) Apparatus and method for implementing gesture with speech suitable for utterance sentence
US11062177B2 (en) Method and system for creating aesthetic design at scale
Johnson et al. Implementing Physical Capabilities for an Existing Chatbot by Using a Repurposed Animatronic to Synchronize Motor Positioning with Speech
Giachos et al. A contemporary survey on intelligent human-robot interfaces focused on natural language processing

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant