KR100895296B1 - Robot emotion representation - Google Patents

Robot emotion representation Download PDF

Info

Publication number
KR100895296B1
KR100895296B1 KR1020070027792A KR20070027792A KR100895296B1 KR 100895296 B1 KR100895296 B1 KR 100895296B1 KR 1020070027792 A KR1020070027792 A KR 1020070027792A KR 20070027792 A KR20070027792 A KR 20070027792A KR 100895296 B1 KR100895296 B1 KR 100895296B1
Authority
KR
South Korea
Prior art keywords
emotion
unit
expression
action
robot
Prior art date
Application number
KR1020070027792A
Other languages
Korean (ko)
Other versions
KR20080046074A (en
Inventor
박천수
류정우
손주찬
조영조
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to US11/930,659 priority Critical patent/US20080119959A1/en
Publication of KR20080046074A publication Critical patent/KR20080046074A/en
Application granted granted Critical
Publication of KR100895296B1 publication Critical patent/KR100895296B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 이종의 감성 로봇 플랫폼에 적용 가능한 로봇의 감성 표현 방법 및 장치를 제공하기 위한 것이다. 본 발명에 따른 로봇의 감성 표현 방법은 (a) 내부 또는 외부 센서를 통해 정보를 수집하는 단계; (b) 상기 수집된 정보로 감성을 생성하고 행동을 결정하는 단계; (c) 상기 생성된 감성에 따라 감성 표현, 감성 밀도 및 행위 유닛을 결정하는 단계; (d) 상기 감성 표현, 감성 밀도 및 행위 유닛에 의해 감성 표현 명령을 생성하는 단계; (e) 상기 생성된 감성 표현 명령을 해석하는 단계; 및 (f) 로봇의 현재 상태 정보와 상기 생성된 명령에 기초하여 로봇을 제어하는 단계를 포함하는 것을 특징으로 한다.

Figure R1020070027792

감성 로봇, 감성 표현, 행위 표현, 감성 표현 명령서, 행위 유닛, 복합 감성

The present invention is to provide a method and apparatus for expressing the emotion of a robot applicable to heterogeneous emotional robot platform. Emotional expression method of a robot according to the present invention comprises the steps of (a) collecting information through an internal or external sensor; (b) generating emotions and determining actions with the collected information; (c) determining an emotional expression, an emotional density, and an action unit according to the generated emotion; (d) generating an emotional expression command by the emotional expression, the emotional density and the action unit; (e) interpreting the generated emotional expression command; And (f) controlling the robot based on the current state information of the robot and the generated command.

Figure R1020070027792

Emotional Robot, Emotional Expression, Behavioral Expression, Emotional Order, Action Unit, Complex Emotion

Description

로봇의 감성표현{Robot emotion representation}Robot emotion representation

도 1은 본 발명에 따른 로봇 감성 표현 생성 및 처리 시스템 구조를 블럭도로 나타내는 도면이다. 1 is a block diagram showing the structure of the robot emotional expression generation and processing system according to the present invention.

도 2는 도 1의 시스템 구조에서 감성 표현 관리부에 관한 상세 블럭도이다. FIG. 2 is a detailed block diagram of an emotional expression managing unit in the system structure of FIG. 1.

도 3은 도 1의 시스템 구조에서 감성 표현 처리부에 관한 상세 블럭도이다. 3 is a detailed block diagram of an emotional expression processing unit in the system structure of FIG. 1.

도 4는 본 발명에 따른 감성 표현 명령서 구성의 일실시예를 나타낸다. Figure 4 shows an embodiment of the configuration of the emotional expression command according to the present invention.

도 5는 본 발명에 따른 감성 표현 명령서 구성의 일실시예를 나타낸다. 5 shows an embodiment of the composition of the emotional expression command according to the present invention.

도 6은 본 발명에 따른 감성 표현 명령서 구성의 일실시예를 나타낸다. Figure 6 shows an embodiment of the composition of the emotional expression command according to the present invention.

도 7a는 본 발명에 따라 도 1의 감성 표현 관리부에서 생성하는 감성 표현 명령에 의한 명령서의 일실시예이다. FIG. 7A is an embodiment of a command form by an emotional expression command generated by the emotional expression management unit of FIG. 1 according to the present invention.

도 7b는 본 발명에 따라 도 1의 감성 표현 관리부에서 생성하는 감성 표현 명령에 의한 명령서의 일실시예로서 참조자를 사용한 일실시예이다. FIG. 7B illustrates an embodiment using a referrer as an embodiment of a command by an emotion expression command generated by the emotion expression management unit of FIG. 1 according to the present invention.

도 8은 본 발명에 따른 로봇의 감성 표현을 위한 방법을 흐름도로 나타낸 것이다. 8 is a flowchart illustrating a method for emotional expression of a robot according to the present invention.

본 발명은 다양한 로봇 감성 표현 플랫폼에서 생성된 감성에 대해 감성 및 행위 표현 모델을 제공하는 로봇 감성 표현 방법 및 장치에 관련된다. 본 발명을 통하여 다양한 감성을 수용할 수 있는 표현 모델이 제공되고 이로 인하여 좀더 풍부한 감성 표현이 가능하다. The present invention relates to a robot emotion expression method and apparatus for providing an emotion and behavior expression model for emotions generated in various robot emotion expression platforms. Through the present invention is provided an expression model that can accommodate a variety of emotions, thereby allowing a richer expression of emotions.

로봇이 감성을 표현하는 여러 가지 연구가 진행되어 오고 있는 가운데 특히 중점적으로 연구되고 있는 분야는 외부 자극에 대한 조합을 통하여 인간에 가까운 감성을 생성할 수 있는 방법과 생성된 감성을 표현하기 위한 행동 선택 및 장치 제어에 관한 것이다. 감성을 표현할 수 있는 제어 장치 중에서도 주로 얼굴 표정에 많은 부분의 연구가 이루어지고 있으며, 몸체, 팔, 다리, 눈 등의 복합적인 행위를 통한 감성 표현 장치에 대한 연구도 점점 더 많이 진행되고 있다. There are various researches on robots' emotions, and the areas of particular focus are on how to generate emotions close to humans through the combination of external stimuli and action choices to express the generated emotions. And device control. Among the control devices that can express emotions, a lot of research is mainly conducted on facial expressions, and more and more studies on emotion expression devices through complex actions such as body, arms, legs, and eyes are being conducted.

하지만 현재 외부 자극 및 내적 상태 등의 정보를 이용하여 로봇에서 표현되고 있는 감성 표현 방식은 서로 다른 플랫폼에서는 서로 다른 표현 방식으로 기술되고 있으며, 더욱이 표현 모델 자체가 없어서 플랫폼 마다 그 때 그 때 플랫폼에 맞게 감성 표현 시스템을 일일이 구성하고 있는 것이 실정이다. However, the emotional expressions expressed in robots using information such as external stimulus and internal state are described in different expressions on different platforms. Moreover, since there is no expression model itself, each platform can be adapted to the platform at that time. It is a fact that the emotional expression system is composed one by one.

이렇듯 통일된 로봇의 감성 표현 모델의 부재로 인해 생성된 감성이 동일하더라도 플랫폼이 다른 경우에서는 얼굴, 몸체, 팔, 다리 등의 표현 장치를 이용하여 표현할 수 없게 되었다. 다시 말하면, 호환성을 제공하지 못함으로 인해 생성된 감성에 대한 재사용이 불가능하며, 로봇 플랫폼에 맞게 재작성하거나 새로운 표현 방법을 사용해야 하는 문제점이 발생하였다. As such, even if the generated emotions are the same due to the absence of the unified robot's emotional expression model, it is impossible to express them using expression devices such as face, body, arms, and legs when the platforms are different. In other words, due to the inability to provide compatibility, it is impossible to reuse the generated emotions, and the problem of rewriting or using a new expression method for the robot platform has occurred.

따라서 이러한 문제점을 해결하기 위해 생성된 감성 및 행위에 대한 표현 모델을 제공하고 이를 해석할 수 있는 인터페이스를 제공하여 다른 종류의 로봇 플랫폼에서도 감성 표현이 가능하도록 하는 것이 필요하다. Therefore, in order to solve this problem, it is necessary to provide an expression model for the generated emotions and behaviors and to provide an interface for interpreting the emotions so that the emotional expression can be expressed in other types of robot platforms.

이에 본 발명이 이루고자 하는 기술적 과제는 다른 종류의 다양한 로봇 플랫폼에 적용 가능한 감성 표현 모델을 제공한다. 또한, 감성행위 표현 구조에 맞게 생성된 감성 표현 명령을 로봇의 부위별 제어부에 전달하고, 이를 수신 및 해석하여 행위 유닛과 일치하는 액추에이터를 구동함으로써 감성에 대한 다양한 행위 표현을 가능하도록 하는 로봇의 감성 표현 장치를 제공하는 데 있다. Accordingly, the present invention provides an emotional expression model applicable to various kinds of robot platforms. In addition, the robot's emotions can be sent to the controller for each part of the robot, and the robot's emotions can be expressed by driving the actuators that correspond to the action units. It is to provide a presentation device.

본 발명이 이루고자 하는 또 다른 기술적 과제는 정보를 수집하여 감성을 생성하고 행동을 결정하며 이에 따라 감성 표현, 감성 밀도 및 행위 유닛을 결정하고 감성 표현 명령을 생성, 해석하여 로봇의 현재 상태 정보와 상기 생성된 명령에 기초하여 로봇을 제어하는 방법을 제공하는 데 있다. Another technical problem to be solved by the present invention is to collect information to generate emotions and determine behavior, and accordingly to determine emotion expression, emotion density and behavior unit, and to generate and interpret emotion expression commands, to present the current state information of the robot and the above. It is to provide a method for controlling the robot based on the generated command.

본 발명은 상기한 기술적 과제를 달성하기 위하여, (a) 내부 및/또는 외부 자극을 감성 정보로서 수신하는 감성 정보 수신부; (b) 상기 감성 정보 수신부에서 입력받은 정보를 이용하여 로봇의 현재 상태를 판단하고 감성을 생성하는 감성 생성부; (c) 상기 생성된 감성에 대응되는 행동을 결정하기 위한 행동 결정부; (d) 상기 생성된 감성, 상기 로봇의 현재 상태 및 상기 결정된 행동을 이용하여 상기 생성된 감성을 로봇의 행위로써 표현하기 위한 감성 표현 명령을 생성하는 감성 표현 관리부; (e) 상기 생성된 감성 표현 명령을 수신하고 분석하는 감성 표현 처리 부; 및 (f) 상기 감성 표현 처리부의 결과에 따라 개별 행위 유닛에 행위를 실행하게 하는 로봇 제어부를 포함하는 것을 특징으로 하는 로봇의 감성 표현 장치를 제공한다. The present invention to achieve the above technical problem, (a) an emotional information receiving unit for receiving the internal and / or external stimulus as emotional information; (b) an emotion generating unit for determining the current state of the robot using the information received from the emotion information receiving unit and generating an emotion; (c) an action determination unit for determining an action corresponding to the generated emotion; (d) an emotion expression management unit that generates an emotion expression command for expressing the generated emotion as an action of the robot using the generated emotion, the current state of the robot, and the determined behavior; (e) an emotional expression processing unit for receiving and analyzing the generated emotional expression command; And (f) a robot control unit for causing an individual action unit to execute an action according to a result of the emotion expression processing unit.

바람직하게는, 전술한 (d)의 감성 표현 관리부는 (d1) 상기 감성 생성부로부터 생성된 감성에 대한 모델을 생성하는 감성 표현 생성부; (d2) 상기 행동 결정부에서 결정된 행동을 구성하는 기본 행위 유닛과 행위 유닛의 상태 정보에 대한 모델을 생성하는 감성 행위 표현 생성부; (d3) 상기 생성된 감성과 상기 결정된 행동에 대한 모델을 감성 표현 명령으로 생성하는 감성 표현 명령 생성부; 및 (d4) 상기 생성된 감성 표현 명령을 감성 표현 처리부에 송신하는 감성 표현 명령 송신부를 포함하는 것을 특징으로 한다. Preferably, the emotion expression management unit (d) described above (d1) an emotion expression generation unit for generating a model for the emotion generated from the emotion generation unit; (d2) an emotional behavior expression generator for generating a model of the basic behavior unit and the state information of the behavior unit constituting the behavior determined by the behavior determination unit; (d3) an emotion expression command generation unit for generating a model for the generated emotion and the determined behavior as an emotion expression command; And (d4) an emotion expression command transmitter for transmitting the generated emotion expression command to the emotion expression processor.

바람직하게는, 전술한 (d) 감성 표현 관리부는 (d5) 상기 감성 표현 처리부에서 제어할 행위 유닛과 일치하지 않거나 제어할 행위 유닛이 존재하지 않을 경우, 상기 감성 표현 처리부에서 전송되는 행위 유닛 불일치 메시지를 수신하는 감성 행위 수신부; 및 (d6) 상기 행동 결정부에서 결정된 행동에 대한 행위 유닛이 존재하지 않을 경우 필요한 대체 유닛 정보에 대한 모델을 생성하는 대체 유닛 생성부;를 더 포함하고, 상기 감성 표현 명령은 대체 유닛 상태 정보 모델을 더 포함하는 것을 특징으로 한다. Preferably, (d) the emotional expression management unit described above (d5) the behavior unit mismatch message transmitted from the emotional expression processing unit when the behavior unit to be controlled by the emotional expression processing unit does not match or there is no action unit to control. Emotion behavior receiving unit for receiving; And (d6) a replacement unit generation unit that generates a model for the replacement unit information required when there is no action unit for the action determined by the action determination unit, wherein the emotion expression instruction includes the replacement unit state information model. It characterized in that it further comprises.

바람직하게는 상기 감성 표현 처리부는 상기 감성 표현 관리부에서 생성된 상기 감성 표현 명령을 수신하는 감성 표현 명령 수신부; 상기 수신된 감성 표현 명령을 해석하는 명령 해석부; 상기 명령 해석부에서 해석된 감성 표현 명령에 해 당 행위 유닛이 없을 때 대체 행위 유닛 생성을 위해 감성 표현 관리부에 행위 유닛 불일치 메시지를 송신하는 행위 유닛 메시지 송신부; 및 상기 명령 해석부에서 해석된 명령에 의거하여 상기 로봇 제어부에 제어 명령을 송신하는 제어 명령 송신부를 포함하는 것을 특징으로 한다. Preferably, the emotion expression processing unit includes an emotion expression command receiving unit for receiving the emotion expression command generated by the emotion expression management unit; A command interpreter that interprets the received emotional expression command; An action unit message transmitter for transmitting an action unit disagreement message to the emotion expression management unit to generate a substitute action unit when there is no action unit corresponding to the emotion expression command interpreted by the command interpreter; And a control command transmitter for transmitting a control command to the robot controller based on the command interpreted by the command analyzer.

또한 본 발명의 목적상 감성 표현 명령 장치는, 감성 표현 처리부에서 로봇 제어를 하기 위해 제어가 필요한 부분을 분석하여 해당 행위 유닛에 적합한지를 판단하기 위한 모델을 제공하는 메타 정보 표현부; 및 감성에 대한 모델 및 행동에 대한 행위 표현 모델을 제공하는 감성 표현부를 포함하는 것을 특징으로 한다.In addition, for the purpose of the present invention, the emotional expression command apparatus, Meta-expression expression unit for providing a model for determining whether the control is suitable for the action unit by analyzing the part that needs to control in the emotional expression processing unit; And an emotional expression unit that provides a model for emotion and a behavior expression model for behavior.

바람직하게는 상기 로봇의 감성 표현 명령 장치에 있어서 감성 표현 모델의 메타 정보는, 생성된 감성에 대해 감성 타입이 주감성(main emotion)인지 혹은 복합감성(composite emotion)인지를 판별하는 감성 타입(emotion type) 기술부; 상기 결정된 행동이 기본 행위 타입(basic action type)인지 혹은 대체 행위 타입(sub action type)인지를 결정하기 위한 행위 타입 기술부; 및 상기 생성된 감성에 대한 행동 유닛을 결정하는 행동 유닛 결정부를 포함하는 것을 특징으로 한다. Preferably, the meta information of the emotion expression model in the emotion expression command apparatus of the robot is an emotion type for determining whether the emotion type is the main emotion or the composite emotion with respect to the generated emotion. type) technology; An action type description unit for determining whether the determined action is a basic action type or a sub action type; And an action unit determination unit that determines an action unit for the generated emotion.

바람직하게는 상기 감성 표현 명령 장치의 감성 표현부는 상기 감성 생성부에서 생성된 감성의 개수가 한 개인 경우 이를 대표 감성으로 정의하고 기술하는 주 감성 표현부; 상기 감성 생성부에서 하나 이상의 감성이 생성되었을 경우 이러한 하나 이상의 복합 감성을 표현하기 위한 모델을 제공하는 복합 감성 표현부; 상기 감성 생성부에서 생성된 감성의 밀도를 수치적으로 기술하는 감성 정도 표현부; 및 상기 행동 결정부에서 결정된 행동을 표현하기 위해 필요한 수단인 행위 유닛에 대한 표현 모델을 제공하는 감성 행위 표현부를 포함하는 것을 특징으로 한다.Preferably, the emotion expression unit of the emotion expression command apparatus, if the number of emotions generated by the emotion generation unit has a main emotion expression unit for defining and describing this as a representative emotion; A complex emotion expression unit that provides a model for expressing one or more complex emotions when one or more emotions are generated in the emotion generation unit; An emotion degree expression unit for numerically describing the density of emotion generated by the emotion generation unit; And an emotional behavior expression unit for providing an expression model for the behavior unit which is a means necessary for expressing the behavior determined by the behavior determination unit.

바람직하게는 상기 감성 행위 표현부는 로봇 유닛의 현재 상태 정보를 기술하기 위한 행위 유닛 상태 정보 표현부; 상기 행동 결정부에서 생성된 행동을 기준으로 생성된 행위 유닛 정보를 표현하는 기본 행위 유닛 표현부; 및 상기 행동 결정부에서 생성된 행동을 기준으로 생성된 행위 유닛이 감성 로봇 플랫폼에 존재하지 않을 때 대체수단으로 사용 가능한 유닛 정보를 표현하는 대체 행위 유닛 표현부를 포함하는 것을 특징으로 한다. Preferably, the emotional behavior representation unit comprises: behavior unit state information representation unit for describing current state information of the robot unit; A basic behavior unit expression unit for expressing behavior unit information generated based on the behavior generated by the behavior determination unit; And an alternative behavior unit expression unit expressing unit information usable as an alternative means when the behavior unit generated based on the behavior generated by the behavior determination unit does not exist in the emotional robot platform.

더욱 바람직하게는 상기 로봇의 감성 표현 명령 장치에서, 감성 표현 모델의 감성 표현부에서 감성 행위 표현부가 독립되고 상기 감성 표현부의 주 감성 표현부와 복합 감성 표현부에 고유한 식별자를 부여하여 해당 식별자에 매핑되는 참조자로 상기 감성 행위 표현부를 기술하는 것을 특징으로 한다. More preferably, in the emotion expression command apparatus of the robot, the emotion behavior expression unit is independent from the emotion expression unit of the emotion expression model, and a unique identifier is assigned to the main emotion expression unit and the complex emotion expression unit in the emotion expression unit to the corresponding identifier. The emotional behavior expression unit is described as a mapped reference.

또한 본 발명의 목적상 로봇의 감성 표현 방법은 내부 또는 외부 센서를 통해 정보를 수집하는 단계; 상기 수집된 정보로 감성을 생성하고 행동을 결정하는 단계; 상기 생성된 감성에 따라 감성 표현, 감성 밀도 및 행위 유닛을 결정하는 단계; 상기 감성 표현, 감성 밀도 및 행위 유닛에 의해 감성 표현 명령을 생성하는 단계; 상기 생성된 감성 표현 명령을 해석하는 단계; 및 로봇의 현재 상태 정보와 상기 생성된 명령에 기초하여 로봇을 제어하는 단계를 포함하는 것을 특징으로 한다.In addition, for the purpose of the present invention, a method for expressing emotion of a robot comprises: collecting information through an internal or external sensor; Generating emotions and determining behavior using the collected information; Determining an emotion expression, an emotion density, and an action unit according to the generated emotion; Generating an emotional expression command by the emotional expression, the emotional density and the action unit; Interpreting the generated emotional expression command; And controlling the robot based on the current state information of the robot and the generated command.

바람직하게는 상기 감성을 생성하고 행동을 결정하는 단계는 감성을 주 감성과 복합 감성으로 구분하여 생성하는 것을 특징으로 한다.Preferably, the step of generating the emotion and determining the action is characterized in that to generate the emotion divided into the main emotion and the complex emotion.

더욱 바람직하게는 상기 감성 표현 명령을 해석하는 단계에서, 생성된 감성에 대한 행위 유닛 존재 여부를 판단하여 해당 행위 유닛이 존재하지 않을 경우 상기 감성 표현 명령 생성 단계에서 대체 유닛을 포함하여 감성 표현 명령을 다시 작성하는 것을 특징으로 한다. More preferably, in the step of interpreting the emotion expression command, it is determined whether there is an action unit for the generated emotion, and if the action unit does not exist, the emotion expression command is included in the emotion expression command generation step. It is characterized by rewriting.

이하, 첨부한 도면을 참조하면서 본 발명에 따른 로봇 감성표현 모델, 방법 및 장치에 대해 좀더 자세히 기술하기로 한다. 본 발명을 설명함에 있어서 관련된 공지기술 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략될 것이다. 그리고, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 클라이언트나 운용자, 사용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. Hereinafter, the robot emotion expression model, method and apparatus according to the present invention will be described in detail with reference to the accompanying drawings. In the following description of the present invention, detailed descriptions of related well-known technologies or configurations will be omitted if it is determined that the detailed description of the present invention may unnecessarily obscure the subject matter of the present invention. In addition, terms to be described below are terms defined in consideration of functions in the present invention, which may vary according to a client's or operator's intention or custom. Therefore, the definition should be made based on the contents throughout the specification.

도 1은 본 발명에 따른 로봇 감성 표현 생성 및 처리 시스템 구조를 블럭도로 나타낸 도면이다. 1 is a block diagram showing the structure of the robot emotional expression generation and processing system according to the present invention.

본 시스템에서 감성 정보 수신부(100)는 내부 및/또는 외부 자극을 센서로 탐지하거나 시스템에 기 부착된 촬상장치를 통해 외부 자극을 모니터링한다. 센서가 압력 센서인 경우 사용자가 설정한 일정한 임계점 이상의 압력이 로봇 시스템에 가해진 경우, 즉, 충격 등이 가해진 경우 그 충격의 정도가 압력 센서를 통해 수치화 되어 감성 생성부(110)로 넘겨져 '고통' 및/또는 '놀람'과 같은 감성을 생성할 수 있을 것이다.In the system, the emotion information receiver 100 detects an internal and / or external stimulus with a sensor or monitors the external stimulus through an imaging device attached to the system. When the sensor is a pressure sensor, when a pressure equal to or greater than a certain threshold set by the user is applied to the robot system, that is, when an impact is applied, the degree of the shock is digitized by the pressure sensor and passed to the emotion generating unit 110 to 'pain'. And / or emotions such as 'surprise'.

또 다른 실시예에서, 만일 센서가 온도 센서일 경우 외부 온도가 어느 일정 값을 넘어서는 경우 역시 마찬가지로 온도 센서를 통해 외부 온도가 수치화되어 감성 생성부(110)로 넘겨져 온도 변화로 인한 적절한 감성이 생성될 것이다. In another embodiment, if the sensor is a temperature sensor, if the external temperature exceeds a certain value, the external temperature is also digitized through the temperature sensor and passed to the emotion generating unit 110 to generate appropriate emotion due to the temperature change. will be.

또 다른 실시예에서, 만일 센서가 광감지 센서인 경우 급작스런 빛의 밝기 변화는 로봇의 눈 부위를 찡그리게 하는 모습으로 나타내게 할 수 있을 것이다. In another embodiment, if the sensor is a light sensing sensor, the sudden change in brightness of the light may cause the robot's eye to frown.

또 다른 실시예에서, 촬상장치를 통해 외부 장면을 모니터링 하는 경우 화상의 점진적인 변화가 아닌 급작스런 변화가 생기는 경우 역시 '놀람' 등의 감성이 생성될 수 있을 것이다. In another embodiment, when monitoring an external scene through the image pickup device, if a sudden change occurs instead of a gradual change of an image, emotions such as 'surprise' may also be generated.

당업자는 외부 자극을 수용하는 수용 장치가 도 1에서 예시된 센서와 모니터링 장치(촬상장치) 외에 다양한 장치가 사용될 수 있다는 것을 이해할 수 있을 것이다. Those skilled in the art will appreciate that a variety of devices may be used in addition to the sensor and monitoring device (imaging device) illustrated in FIG.

감성 정보 수신부(100)에서 외부 자극을 수용하는 상기 센서 등을 통해 감성 정보가 수신되면 도 1의 감성 생성부(110)는 위의 감성 정보를 이용하여 감성을 생성하게 된다. 생성되는 감성은 '슬픔,' '기쁨,' '두려움,' '혐오,' '화남,' 놀람,' 및 '부끄러움' 등이 될 것이다. 또한 감성 생성부(110)는 로봇의 현재 상태를 판단하는 기능도 가지고 있다. 이러한 현재 상태 판단은 실제 감성을 표현하는 상황에서 중요한 역할을 한다. 예를 들어 현재 로봇이 눈을 반쯤 뜨고 있는 상태에서 '놀람'의 감성을 표현할 때, 만일 현재 상태를 판단하지 못하면 자칫 로봇의 눈을 제어하는 액추에이터에 과부하가 걸릴 수 있을 것이다. 이러한 과부하 방지를 위해 현재 상태를 파악하면 액추에이터가 동작해야 할 동작 범위를 결정할 수 있게 된다. When emotion information is received through the sensor or the like that receives an external stimulus from the emotion information receiver 100, the emotion generator 110 of FIG. 1 generates an emotion using the above emotion information. The emotions generated will be 'sorrow,' 'joy,' 'fear,' 'disgust,' anger, 'surprise,' and 'shame'. In addition, the emotion generating unit 110 also has a function of determining the current state of the robot. This current state judgment plays an important role in the situation expressing the actual emotion. For example, when the robot expresses the emotion of 'surprise' with its eyes open halfway, it may overload the actuator that controls the robot's eyes if the current state cannot be judged. To avoid this overload, knowing the current state allows you to determine the range of motion in which the actuator should operate.

감성 생성부(110)에서 감성이 생성되면, 이어서 행동 결정부(120)에서는 상기 생성된 감성에 적합한 행동을 결정하게 된다. 예를 들어 감성 생성부(110)에서 생성된 감성이 '놀람'일 경우, 행동 결정부(120)에서는 차후에 액추에이터를 구동해 눈을 가장 크게 뜨도록 하고 입은 동그랗게 벌리게 하는 행동 결정을 하게 될 것이다. When emotion is generated in the emotion generator 110, the action determiner 120 then determines an action suitable for the generated emotion. For example, if the emotion generated by the emotion generating unit 110 is 'surprise', the behavior determination unit 120 will drive the actuator in the future to make the action to open the eyes widest and open the mouth round.

다음으로 감성 표현 관리부(130)에서는 상기 감성 생성부(110)에서 생성된 감성, 로봇의 현재 상태 및 상기 행동 결정부(120)에서 생성되고 결정된 행동을 이용하여 상기 감성을 로봇의 행위로써 표현하기 위한 감성 표현 명령을 생성하게 된다. 감성 표현 명령에 대한 상세한 설명은 후술하기로 한다. Next, the emotion expression management unit 130 expresses the emotion as the behavior of the robot by using the emotion generated by the emotion generating unit 110, the current state of the robot, and the action generated and determined by the action determination unit 120. Emotional expression command is generated. Detailed description of the emotional expression command will be described later.

일단 감성 표현 관리부(130)에서 감성 표현 명령이 생성되면 감성 표현 처리부(140)에서는 생성된 감성 표현 명령을 상세히 분석하게 된다. 즉, 생성된 감성에 대하여 어떻게 로봇에서 표현할 지에 대해 감성 표현 명령에 따라 어떠한 처리를 하여야 할지를 결정하고 이러한 결정은 로봇 제어부(150)에 전달하게 된다. Once an emotional expression command is generated in the emotional expression management unit 130, the emotional expression processing unit 140 analyzes the generated emotional expression command in detail. That is, it determines what processing should be performed according to the emotion expression command on how to express the generated emotion in the robot, and this determination is transmitted to the robot controller 150.

로봇 제어부(150)는 눈 액추에이터, 손 액추에이터, 귀 액추에이터 등을 상기 처리에 근거하여 생성된 감성을 표현하기에 알맞도록 제어하게 된다. The robot controller 150 controls the eye actuator, the hand actuator, the ear actuator, etc. to be suitable for expressing the emotion generated based on the above process.

이제 도 2를 참조하여 상기 감성 표현 관리부(130)를 좀더 상세하게 살펴보도록 한다. 도 2에서는 도 1의 시스템 구조에서 감성 표현 관리부에 관한 상세 블럭도를 보여준다. Now, the emotional expression manager 130 will be described in more detail with reference to FIG. 2. FIG. 2 shows a detailed block diagram of an emotional expression managing unit in the system structure of FIG. 1.

앞서 기술한 바대로 감성 표현 관리부(130)는 감성 생성부(110)에서 생성된 감성과 행동 결정부(120)에서 결정된 행동을 각각 내부의 감성 표현 생성부(210)와 감성 행위 표현 생성부(220)에서 수신하게 된다. As described above, the emotional expression management unit 130 uses the emotion generated by the emotional generator 110 and the behavior determined by the behavior determiner 120 to determine the internal emotional expression generator 210 and the emotional behavior expression generator. 220).

감성 표현 생성부(210)에서는 생성된 감성, 즉, '슬픔,' '기쁨,' '두려움,' '혐오,' '화남,' '놀람' 및 '부끄러움' 등에 대한 모델을 생성하게 된다. 감성 행위 표현 생성부(220)에서는 상기 행동 결정부에서 결정된 행동을 구성하는 기본 행위 유닛과 행위 유닛의 상태 정보에 대한 모델을 생성하게 된다. 생성되는 모델은 여러가지 다른 형태를 취할 수 있으나 후술하기로 한다. 이렇게 생성된 모델은 감성 표현 명령 생성부로 보내지게 된다. Emotional expression generator 210 generates a model for the generated emotion, that is, 'sorrow,' 'joy,' 'fear,' 'disgust,' anger, 'surprise' and 'shame'. The emotional behavior expression generation unit 220 generates a model for the basic behavior unit and the state information of the behavior unit constituting the behavior determined by the behavior determination unit. The generated model may take many different forms, but will be described later. The generated model is sent to the emotion expression command generation unit.

감성 행위 수신부(250)는 감성 표현 처리부(140)에서 제어할 행위 유닛과 일치하지 않거나 제어할 행위 유닛이 존재하지 않을 경우 전송하는 행위 유닛 부존재(不存在) 메시지를 수신하게 된다. 감성 행위 수신부(250)는 상기 행위 유닛 부존재 메시지를 수신하는 경우 대체 유닛 생성부(260)에 신호를 보내어 대체 유닛 모델을 생성할 것을 지시하고, 대체 유닛 생성부(260)에서 생성된 대체 유닛 모델은 감성 표현 명령 생성부(230)에 보내지게 된다. The emotional behavior receiving unit 250 receives a behavior unit absence message that is transmitted when the emotional expression processing unit 140 does not match the behavior unit to be controlled or there is no behavior unit to be controlled. When the emotional behavior receiving unit 250 receives the behavior unit absence message, the emotional unit receiving unit 250 sends a signal to the substitute unit generation unit 260 to instruct to generate a substitute unit model, and the substitute unit model generated by the substitute unit generation unit 260 is generated. Is sent to the emotion expression command generation unit 230.

감성 표현 명령 생성부(230)는 감성 표현 생성부(210), 감성 행위 표현 생성부(220) 및 대체 유닛 생성부(260)에서 생성된 각각의 모델들을 상기한 데로 모두 감성 표현 명령 생성부(230)에 모이게 하여 하나의 감성 표현 명령을 생성한다. 이렇게 생성된 감성 표현 명령은 감성 표현 송신부(240)를 통해 감성 표현 처리부(140)로 전달된다. The emotional expression command generation unit 230 includes all of the models generated by the emotional expression generation unit 210, the emotional behavior expression generation unit 220, and the replacement unit generation unit 260, as described above. 230) to generate a sentiment expression command. The generated emotion expression command is transmitted to the emotion expression processor 140 through the emotion expression transmitter 240.

도 3은 도 1의 시스템 구조에서 감성 표현 처리부에 관한 상세 블럭도를 제공한다. 감성 표현 처리부(140)는 로봇의 특정 부위의 액추에이터를 제어 가능하 다. 또한 간단한 처리 능력을 가지고 있는 프로세서를 내장하고 있는 제어부의 일부로서 감성 표현 관리부와의 데이터 송/수신 인터페이스를 제공하고, 해당 명령서를 해석 및 분석하여 도 4 내지 도 6의 감성 표현 명령서(410; 510; 610)에 기술된 감성 및 행위 표현 정보를 통해 로봇 부위별 제어부에서 행위 유닛을 제어하는 명령을 로봇 제어부(150)에 전송하게 된다. FIG. 3 provides a detailed block diagram of an emotional expression processing unit in the system structure of FIG. 1. Emotional expression processing unit 140 is capable of controlling the actuator of a specific portion of the robot. In addition, as a part of a control unit having a processor having a simple processing capability, it provides a data transmission / reception interface with the emotional expression management unit, and interprets and analyzes the instruction to express the emotional expression instructions 410 of FIGS. 4 to 6. 610 transmits a command for controlling the behavior unit to the robot controller 150 through the emotion and behavior expression information described in 610.

감성 표현 처리부(140)는 전술한 감성 표현 관리부에서 생성한 감성 표현 명령을 수신하는 감성 표현 명령 수신부(310)를 포함한다. The emotional expression processing unit 140 includes an emotional expression command receiving unit 310 that receives the emotional expression command generated by the aforementioned emotional expression management unit.

감성 표현 명령 수신부(310)는 수신된 감성 표현 명령을 해석하기 위해 감성 표현 명령을 명령 해석부(320)로 보낸다. 명령 해석부는 수신된 감성 표현 명령을 해석하여 로봇의 각 부위를 어떻게 제어할 것인지를 결정하여 각 부위를 구동시키는 액추에이터에 줄 명령을 생성하여 제어 명령 송신부(330)로 보내게 된다. The emotion expression command receiver 310 sends an emotion expression command to the command interpreter 320 to interpret the received emotion expression command. The command interpreter interprets the received emotional expression command to determine how to control each part of the robot to generate a line command to the actuator for driving each part and sends it to the control command transmitter 330.

제어 명령 송신부(330)는 명령 해석부(320)에서 생성된 로봇의 각 부위별 액추에이터를 구동하는 제어 명령을 로봇 제어부(150)로 전송하게 된다. 또한 제어 명령 송신부(330)는 감성 표현 명령을 처리하는 중에 로봇 부위별 제어부에서 해당 행위 유닛이 존재하지 않으면 이에 대해 행위 유닛 부존재 메시지(ACK)를 감성 표현 관리부(130)에 전송하는 역할을 하는 인터페이스를 제공한다. The control command transmitter 330 transmits a control command for driving the actuator for each part of the robot generated by the command interpreter 320 to the robot controller 150. In addition, the control command transmitter 330 transmits an action unit absence message (ACK) to the emotion expression management unit 130 when a corresponding action unit does not exist in the control unit for each robot part while processing the emotion expression command. To provide.

로봇 제어부(150)는 상세히 도시되지는 않았으나 제어 명령을 수신하여 생성된 감성을 표현하기에 적절하도록 로봇의 각 구동 액추에이터를 구동시킨다. Although not shown in detail, the robot controller 150 drives each driving actuator of the robot so as to be suitable for expressing the emotion generated by receiving the control command.

때때로 명령 해석부(320)는 감성 표현 명령을 해석한 결과 생성된 감성을 적절히 표현할 행위 유닛이 없다는 것을 발견하게 된다. 이 때 명령 해석부(320)는 해당 행위를 하지 않는 것이 아니라 이러한 표현할 행위 유닛이 없다는 행위 유닛 부존재 메시지를 다시금 감성 표현 관리부에 통지하기 위하여 행위 유닛 메시지 송신부(340)를 통해 행위 유닛 부존재 메시지를 감성 표현 관리부(130)의 감성 행위 수신부(250)에 전송하게 된다. Sometimes the command interpreter 320 finds that there is no action unit to properly express the emotion generated as a result of interpreting the emotion expression command. At this time, the command interpreting unit 320 does not perform the corresponding action, but instead of the action unit absence message indicating that there is no action unit to express, the emotion unit management message is sent to the emotion unit management message through the action unit message transmission unit 340. It is transmitted to the emotional behavior receiving unit 250 of the expression management unit 130.

이하에서는 감성 표현 처리부(130)의 감성 표현 생성부(210), 감성 행위 표현 생성부(220) 및 대체 유닛 생성부(260)에서 생성된 모델을 취합하여 생성되는 감성 표현 명령에 대해 상세히 알아보기로 한다. Hereinafter, the emotional expression command generated by combining models generated by the emotional expression generator 210, the emotional behavior expression generator 220, and the substitute unit generator 260 of the emotional expression processor 130 will be described in detail. Shall be.

도 4 내지 도 6은 본 발명에 따른 감성 표현 명령서 구성의 일실시예를 보여준다. 도 4 내지 도 6에 따른 감성 표현 명령은 크게 메타정보 표현부(420; 520; 620), 감성 표현부(430; 530; 630) 및 감성행위 표현부(434; 540; 635, 639)로 구별된다. 4 to 6 show one embodiment of the composition of the emotional expression command according to the present invention. The emotion expression command according to FIGS. 4 to 6 is largely divided into the meta information expression unit 420; 520; 620, the emotion expression unit 430; 530; 630, and the emotion behavior expression unit 434; 540; 635, 639. do.

메타정보 표현부(420; 520; 620)는 감성 표현 처리부(140)에서 선택할 행위 유닛 정보에 대한 메타정보를 기술한다. 즉, 감성표현부(430; 530; 630)에서 표현하는 감성에 대한 타입이 주감성(main emotion)인지 또는 복합 감성(composite emotion)인지 여부를 판별하는 감성 타입을 기술한다. 그리고 감성에 대한 행동을 결정하기 위한 행위 형태(action type)를 기술한다. 즉, 행동 결정부에서 생성된 행동에 대한 기본적인 행위들을 기술하는 기본 행위 표현 형태(basic action type)와 대체 유닛으로 표현되는 대체 행위 표현 형태(sub action type)를 기술한다. 또한 기본적인 행위 표현 수단으로서의 대표적인 행위 유닛을 기술한다. The meta information expression unit 420 (520; 620) describes meta information about the behavior unit information to be selected by the emotion expression processing unit 140. That is, an emotion type for determining whether the type of emotion expressed by the emotion expression units 430; 530; 630 is a main emotion or a composite emotion is described. It also describes action types for determining behaviors for emotion. That is, a basic action type describing basic actions on actions generated by the action determination unit and a sub action type represented by alternative units are described. It also describes representative behavior units as basic behavior presentation means.

또한 메타정보 표현부(420; 520; 620)는 감성 표현 처리부(140)에서 로봇 제 어를 하기 위해 필요한 부분만을 분석하여 해당 행위 유닛에 적합한지를 판단하기 위한 모델을 제공한다. In addition, the meta-information expression unit 420 (520; 620) provides a model for determining whether the emotional expression processing unit 140 is suitable for the action unit by analyzing only the portion necessary for controlling the robot.

감성 표현부(430; 530; 630)는 감성 생성부(110)에서 생성된 감성 및 행동 결정부(120)에서 생성된 행동에 대한 행위 표현 모델을 제공한다. 감성 표현부(430; 530; 630)는 주 감성 표현부(431; 531; 631), 감성 정도 표현부(432; 533, 537; 633, 637), 복합 감성 표현부(433; 535; 636) 및 감성 행위 표현부(434; 540; 635, 639)로 구성된다. The emotion expression unit 430 (530; 630) provides a behavior expression model for the emotion generated by the emotion generation unit 110 and the emotion determination unit 120. The emotion expression units 430; 530; 630 include the main emotion expression units 431; 531; 631, the emotion degree expression units 432; 533, 537; 633, 637, and the composite emotion expression units 433; 535; 636. And emotional behavior expression units 434; 540; 635, 639.

주 감성 표현부(431; 531; 631)는 감성 생성부(110)에서 생성된 감성의 개수가 한 개일 경우 이를 대표 감성으로 정의하고 기술한다. 감성 정도 표현부(432; 533, 537; 633, 637)는 생성된 감성의 밀도를 수치적으로 기술한다. 예를 들면, 감성의 개수가 하나 밖에 없는 경우에는 주 감성이 전체 수치 "100"을 모두 차지하지만, 복합 감성이 발생하는 경우는 적절한 배분을 통해 가장 큰 감성 밀도를 가지는 감성이 주 감성으로 분배되고 나머지 복합 감성들이 나머지 감성 밀도 수치를 나누어 가질 것이다. The main emotion expression unit 431; 531; 631 defines and describes as the representative emotion when the number of emotions generated by the emotion generator 110 is one. The emotion degree expression unit 432; 533, 537; 633, 637 numerically describes the generated emotion density. For example, if there is only one number of emotions, the main emotion occupies the total number "100", but if complex emotions occur, the emotion having the largest emotional density is distributed to the main emotion through proper distribution. The remaining composite emotions will share the remaining emotion density values.

복합 감성 표현부(433; 535; 636)는 감성 생성부(110)에서 하나 이상의 감성이 생성되었을 경우, 이를 모두 표현하기 위한 모델을 제공한다. 즉, 복합적인 감성이 생성되는 경우, 예를 들면 '놀람'과 '기쁨'이 동시에 발생하는 경우가 있을 것이다. 위와 같이 좀더 다양한 감성을 동시에 표현할 수 있는 모델이 제공됨으로써 여러 개의 감성을 좀더 용이하게 표현할 수 있게 되었다. 또한 감성 로봇 플랫폼에서 지원 가능한 여러 가지 행위 표현 수단을 이용하여 서로 다르게 표현될 수 있게 된다. The complex emotion expression unit 433; 535; 636 provides a model for expressing all of one or more emotions when the emotion generation unit 110 generates one or more emotions. That is, when a complex emotion is generated, for example, 'surprise' and 'joy' may occur at the same time. By providing a model that can express more diverse emotions at the same time as above, it is easier to express multiple emotions. In addition, it can be expressed differently by using a variety of action expression means that can be supported in the emotional robot platform.

감성 행위 표현부(434; 540; 635, 639)는 감성을 표현하기 위해 필요한 수단인 행위 유닛에 대한 표현 모델을 제공한다. The emotional behavior expression unit 434 (540; 635, 639) provides an expression model for the behavior unit, which is a means necessary for expressing emotion.

기본 행위 유닛 표현부(437; 541)에서는 로봇 플랫폼에서 생성된 감성에 대해 행하는 기본 동작을 기술하게 된다. The basic behavior unit expression units 437 and 541 describe basic operations performed on the emotions generated by the robot platform.

행위 유닛 상태 정보 표현부(438; 543)는 행위 유닛에 대한 현재의 상태 정보를 기술하기 위한 표현 모델로써, 행위 유닛의 현재 상태 정보를 파악함으로써 감성에 대한 행위 표현을 정확하게 할 수 있고, 오류를 최대한 줄일 수 있을 것이다. 이는 유닛의 상태 정보를 알지 못한 상태에서 제어 명령이 수행되는 경우 발생할 수 있는 과부하를 미연에 방지할 수 있게 하는 효과도 거둘 수 있다. The action unit state information expression units 438 and 543 are an expression model for describing current state information of the action unit. The action unit state information expression units 438 and 543 can accurately express the action of the emotion by grasping the current state information of the action unit. You will be able to reduce it as much as possible. This can also have the effect of preventing the overload that may occur when a control command is executed without knowing the state information of the unit.

대체 행위 유닛 표현부(439; 545)는 행동 결정부(120)에서 생성된 행동을 기준으로 생성된 행위 유닛이 감성 로봇 플랫폼에 존재하지 않을 때 대체 수단으로서의 사용 가능한 유닛 정보를 기술하는 표현 모델을 제공한다. 다시 말하면, 서로 다른 로봇 플램폼을 가지는 경우 행위 유닛이 일치하지 않는 경우가 다반사일 것이다. 이러한 경우 상기한 대체 행위 유닛 표현부가 존재하지 않으면 생성된 감성에 대해 이종의 플랫폼에서 적절한 행위 표현이 제공될 수 없을 것이다. 이러한 측면에서 대체 행위 유닛 표현부(439; 545)는 이종의 플랫폼 간에 행위 표현의 유연성을 높여 준다. The alternative behavior unit expression units 439 and 545 may generate an expression model that describes available unit information as an alternative means when the action unit generated based on the action generated by the action determination unit 120 does not exist in the emotional robot platform. to provide. In other words, the behavior units may not match if they have different robotic platforms. In this case, if the above alternative action unit expression part does not exist, an appropriate action expression may not be provided on a heterogeneous platform for the generated emotion. In this respect, alternative behavior unit representations 439 and 545 increase the flexibility of behavior representation between heterogeneous platforms.

도 6에서는 상기한 기본 행위 유닛 표현부, 행위 유닛 상태 정보 표현부 및 대체 행위 유닛 표현부가 표시되어 있지 않지만 상기한 세 개의 표현부는 감성 행 위 표현부(635, 639)에 내포되어 있는 형태로 기술될 수 있다. In FIG. 6, the above-described basic action unit expression unit, the action unit state information expression unit, and the alternate action unit expression unit are not displayed, but the above three expression units are described in the form included in the emotion behavior expression units 635 and 639. Can be.

도 4 내지 도 6의 감성 표현 명령서의 특징, 즉, 본 발명에 따라 제공되는 각기 다른 감성 표현 모델을 이하에서 기술하도록 한다. The characteristics of the emotional expression instruction manual of FIGS. 4 to 6, that is, different emotional expression models provided according to the present invention will be described below.

도 4와 도 6의 감성 표현 명령서(410; 610)에서 감성 행위 표현부(434; 635, 639)가 감성 표현부(430; 630)에 통합된 형태로 구성되는데 반해 도 5의 감성 표현 명령서(510)에서는 감성 표현부(530)와 감성 행위 표현부(540)가 완전히 분리되어 독립적으로 표현될 수 있는 구조를 가진다. In the emotional expression command 410 (610) of FIG. 4 and FIG. 6, the emotional behavior expression unit (434; 635, 639) is integrated into the emotional expression unit (430; 630). In 510, the emotion expression unit 530 and the emotion behavior expression unit 540 are completely separated and have a structure that can be independently expressed.

즉, 도 5에서의 감성 표현 명령서(510)는 감성 표현부와 감성 행위 표현부를 연결하기 위하여 각각의 주 감성 및 복합 감성에 대한 고유 식별자 ID를 부여하여 해당 ID에 맵핑되는 ID 참조자(ID Reference)를 정의하여 감성 행위 표현부(540)를 기술하는 구조이다. That is, the emotion expression command 510 in FIG. 5 assigns a unique identifier ID for each main emotion and a complex emotion to connect the emotion expression unit and the emotion behavior expression unit, and maps the ID to the corresponding ID. ) To describe the emotional behavior expression unit 540.

이에 반해 도 4와 도 6에서는 전술한 바와 같이 감성 행위 표현부(434; 635, 639)가 감성 표현부(430; 630)에 내포시키는 방법으로 각 주 감성(431; 631) 및 복합 감성 표현부(433; 636) 내에 감성 행위 표현부를 배치하는 구조이다. 다시말하면, 하나의 감성에 대하여 감성 행위 표현부(434; 635, 639)를 내포하여 표현하는 구조이다. In contrast, in FIG. 4 and FIG. 6, as described above, each of the main emotions 431 and 631 and the complex emotion expression unit are included in the emotion expression unit 434; 635 and 639 in the emotion expression unit 430 and 630. 433 and 636, the emotional behavior expression unit is arranged. In other words, the emotional behavior expression unit 434 (635, 639) is expressed to include a single emotion.

도 4에서 감성 표현부(430)에서 정의한 감성 정도 표현부(432)는 주 감성 표현부(431)와 복합 감성 표현부(433)의 감성 개수 만큼 고유한 식별자를 생성하여 구별한다. In FIG. 4, the emotion degree expression unit 432 defined by the emotion expression unit 430 generates and distinguishes identifiers as unique as the number of emotions of the main emotion expression unit 431 and the composite emotion expression unit 433.

이러한 감성 행위 표현 명령서는 도 1에서 이미 보인 바와 같이 감성 표현 처리부(140)에서 분석되어 감성 표현 처리부(140)에서 로봇 제어부(150)로 제어 명령을 전달하게 된다. As shown in FIG. 1, the emotional behavior expression command is analyzed by the emotional expression processing unit 140 to transmit a control command from the emotional expression processing unit 140 to the robot controller 150.

도 7a는 본 발명에 따라 도 1의 감성 표현 관리부에서 생성하는 감성 표현 명령에 의한 명령서의 일실시예이다. 도 7a는 XML syntax 기반의 감성 표현 명령서를 나타내고 있다. 또한 이 감성 표현 명령서는 도 6에 나타난 감성 표현 명령서 모델을 기반으로 하여 작성되었다.FIG. 7A is an embodiment of a command form by an emotional expression command generated by the emotional expression management unit of FIG. 1 according to the present invention. 7A illustrates an emotional expression command document based on XML syntax. In addition, this emotional expression command was written based on the emotional expression command model shown in FIG. 6.

일단, 감성 표현 명령서(700)는 메타 감성 표현부(710)를 포함한다. 현재의 일실시예에 의한 메타 정보를 분석하면, 감성은 "복합(composite)" 감성이 생성되었고, 행위 타입(action type)은 "기본(basic)"이며 구동하여야 할 유닛 부위는 "눈(eye)"임을 알 수 있다. First, the emotion expression command 700 includes a meta emotion expression unit 710. Analyzing the meta information according to the present embodiment, the emotion is created with a "composite" emotion, the action type is "basic" and the unit part to be driven is "eye". ) ".

감성 표현부(720)에 해당하는 부분은 <Type> </Type>에 의해 크게 주 감성 표현부와 두 개의 복합 감성 표현부로 나누어지고 있음을 알 수 있다. 주 감성부에서는 주 감성이 "놀람"으로 설정되었고, 그 감성 밀도는 "70"이고 첫번째 복합 감성부에서 표현하는 감성은 "기쁨" 및 감성 밀도 "20," 두번째 복합 감성부에서 표현하는 감성은 "슬픔" 및 감성 밀도 "10"을 갖는다. It can be seen that the part corresponding to the emotional expression unit 720 is largely divided into a main emotional expression unit and two complex emotional expression units by <Type> </ Type>. In the main emotion section, the main emotion is set to "surprise", and the sensitivity density is "70" and the emotion expressed in the first composite emotion section is "joy" and the emotion density "20," the emotion expressed in the second composite emotion section is "Sorrow" and emotional density "10".

감성 행위 표현부(722, 724)에 해당하는 부분은 <Behavior> </Behavior>로 구분되고 있다. 또한 기본 행위 유닛 정보와 행위 유닛 상태 정보 표현 및 대체 유닛 정보 표현이 각각의 감성 행위 표현부(722, 724)에서 어떤 행위를 취할 지를 기술하게 된다. Parts corresponding to the emotional behavior expression units 722 and 724 are divided into <Behavior> </ Behavior>. In addition, the basic behavior unit information, the behavior unit state information representation, and the replacement unit information representation describe what actions the respective emotional behavior expression units 722 and 724 take.

도 7b는 본 발명에 따라 도 1의 감성 표현 관리부에서 생성하는 감성 표현 명령에 의한 명령서의 일실시예로서 참조자를 사용한 일실시예이다. FIG. 7B illustrates an embodiment using a referrer as an embodiment of a command by an emotion expression command generated by the emotion expression management unit of FIG. 1 according to the present invention.

좀더 상세하게는 도 5에서 제시된 감성 표현 명령서(510) 모델을 기반으로 작성된 일실시예이다. In more detail, it is an embodiment written based on the emotional expression command book 510 model shown in FIG. 5.

일단, 감성 표현 명령서(750)는 메타 감성 표현부(760)를 포함한다. 현재의 일실시예에 의한 메타 정보를 분석하면, 감성은 "주(main)" 감성이 생성되었고, 행위 타입(action type)은 "기본(basic)"이며 구동하여야 할 유닛 부위는 "눈(eye)"임을 알 수 있다. First, the emotion expression order 750 includes a meta emotion expression unit 760. Analyzing the meta information according to the present embodiment, the emotion is generated with the "main" emotion, the action type is "basic" and the unit part to be driven is "eye". ) ".

감성 표현부(770)에 해당하는 부분은 <Type> </Type>에 의해 크게 주 감성 표현부와 두 개의 복합 감성 표현부로 나누어지고 있음을 알 수 있다. 주 감성부에서는 주 감성이 "놀람"으로 설정되었고, 그 감성 레벨은 "70"이고 첫번째 복합 감성부에서 표현하는 감성은 "기쁨" 및 감성 레벌 "20," 두번째 복합 감성부에서 표현하는 감성은 "슬픔" 및 감성 레벌 "10"을 갖는다. 이 명령서에서는 앞선 도 7a의 "intensity(밀도)"를 "level(레벨)"이라는 표시자가 대체하고 있으나, 실시예에 따라 적절한 표시자를 사용하여 명령서를 표시할 수 있을 것이다. It can be seen that the part corresponding to the emotional expression unit 770 is largely divided into a main emotional expression unit and two complex emotional expression units by <Type> </ Type>. In the main emotional unit, the main emotion is set to "surprise", the emotion level is "70" and the emotion expressed in the first composite emotion unit is "joy" and the emotion level "20," the emotion expressed in the second composite emotion unit is "Sorrow" and emotional level "10". In this instruction sheet, the "intensity" of FIG. 7A is replaced by the "level" indicator. However, according to an embodiment, the instruction manual may be displayed using an appropriate indicator.

앞선 도 7a와 다른 점은 감성이 설정되는 것과 함께 각각의 감성에 대해 id가 다르게 부여된다. 즉, 주 감성에 대해서 id = id1, 첫번째 복합 감성에 대해서 id = id2, 두번째 복합감성에 대해서 id = id3가 부여된다. In contrast to FIG. 7A, the emotion is set and the id is given differently for each emotion. That is, id = id1 for the main emotion, id = id2 for the first compound emotion, and id = id3 for the second compound emotion.

이렇게 참조할 수 있는 id를 부여하는 이유는 도 7b의 명령서 모델이 감성 표현부(770)와 감성 행위 표현부(780)가 구별되어 있기 때문이다. 감성 행위 표현부(780)에서 행위를 표현하기 위해 어떤 감성을 표현할 것인지의 판단은 결국 <Behavior idref = "id1">과 같이 표현된 참조에 의해 이루어진다. idref = "id1" 임을 통해 표현해야 될 감성이 "놀람"임을 인식하고 다른 복합 감성과 구별할 수 있게 된다. The reason for assigning the id that can be referred to in this way is that the emotional expression unit 770 and the emotional behavior expression unit 780 are distinguished from the instruction manual model of FIG. 7B. In the emotional behavior expression unit 780, the determination of what emotion is expressed to express the behavior is finally made by a reference expressed as <Behavior idref = "id1">. Through idref = "id1", the emotion to be expressed is "surprise" and can be distinguished from other complex emotions.

도 8은 본 발명에 따른 로봇의 감성 표현을 위한 방법을 흐름도로 나타낸 것이다. 8 is a flowchart illustrating a method for emotional expression of a robot according to the present invention.

우선 S801 단계에서는 내부 또는 외부 센서 정보를 수집하고 특징 정보를 생성하게 된다. 그 다음 단계(S803)에서는 상기의 정보를 토대로 감성을 생성하게 된다. 이 때 생성된 감성이 1개이면 S809 단계에서 감성 표현 명령의 주 감성 표현부에 기본 감성을 추가하게 되고 그렇지 않고 생성된 감성이 2개 이상이 되면 S807과 같이 복합 감성 표현부에 감성을 추가하게 된다. First, in step S801, internal or external sensor information is collected and feature information is generated. In the next step S803, the emotion is generated based on the above information. In this case, if the generated emotion is one, the basic emotion is added to the main emotional expression part of the emotion expression command in step S809. Otherwise, if two or more generated emotions are added, the emotion is added to the complex emotion expression part as in S807. do.

위와 같이 주 감성 표현부와 복합 감성 표현부에 감성이 추가되면 각각의 감성들에 대한 감성 밀도 레벨 값을 추가(S811)하게 된다. 이 때 주 감성이라는 하나의 감성 만이 생성되면 감성 밀도 전체 값이 이 주 감성에 할당되는데 반해, 복합 감성이 생성되면 적절히 감성 밀도 값이 분배된다. When emotions are added to the main emotion expression unit and the composite emotion expression unit as described above, the emotion density level values for the respective emotions are added (S811). At this time, if only one emotion, the main emotion, is generated, the total value of the emotion density is assigned to the main emotion, whereas when the composite emotion is generated, the emotion density value is appropriately distributed.

S813 단계에서 기본 행위 유닛을 결정하여 감성 표현 명령에 추가하게 된다. 또한 행위 유닛의 현재 상태를 파악하여 이를 역시 감성 표현 명령에 추가(S815)하게 된다. In operation S813, the basic behavior unit is determined and added to the emotional expression command. In addition, it grasps the current state of the action unit and adds it to the emotion expression command (S815).

감성 표현 명령은 S817 단계에서 생성이 완료되고 감성 표현 명령을 처리하는 곳으로 전송이 이루어지고 S819 단계에서 해석이 이루어진다. 이 때 S821 단계에서 감성 표현 명령의 메타 정보가 분석되어 일치하는 행위 유닛이 있는지가 판단 된다. 메타 정보에 포함된 정보가 행위 유닛과 일치하면 상기 감성 표현 명령에 따라 감성 행위를 실행(S823)한다. 만일 일치하는 행위 유닛이 존재하지 않으면 일치하는 행위 유닛이 존재하지 않는다는 메시지(ACK)를 생성한다. 여러 번 반복하여 송신된 ACK 메시지의 개수를 저장하고 전체 행위 유닛 개수와 비교하여 만일 그 수가 일치하는 순간(S827)이 되면 적절한 행위 유닛이 없는 것으로 판단되어 대체 행위 유닛이 추가될 것이다(S829). The emotion expression command is generated in step S817 and is transmitted to the place where the emotion expression command is processed, and interpretation is performed in step S819. At this time, meta information of the emotion expression command is analyzed in step S821 to determine whether there is a matching behavior unit. If the information included in the meta information matches the behavior unit, the emotional behavior is executed according to the emotional expression command (S823). If there is no matching action unit, it generates a message (ACK) that no matching action unit exists. The number of ACK messages transmitted several times is stored and compared with the total number of action units. If the number is the same (S827), it is determined that there is no appropriate action unit and a replacement action unit is added (S829).

이러한 방법에 의해 행위 유닛의 개수에 상관없이 대체 행위 유닛을 선택하는 것이 가능할 것이다. In this way it will be possible to select an alternate action unit regardless of the number of action units.

이상과 같이 본 발명은 양호한 실시예에 근거하여 설명하였지만, 이러한 실시예는 이 발명을 제한하려는 것이 아니라 예시하려는 것이므로, 본 발명이 속하는 기술분야의 숙련자라면 이 발명의 기술사상을 벗어남이 없이 위 실시예에 대한 다양한 변화나 변경 또는 조절이 가능할 것이다. 그러므로, 이 발명의 보호 범위는 첨부된 청구범위에 의해서만 한정될 것이며, 변화예나 변경예 또는 조절예를 모두 포함하는 것으로 해석되어야 할 것이다. As described above, the present invention has been described based on the preferred embodiments, but these embodiments are intended to illustrate the present invention, not to limit the present invention, so that those skilled in the art to which the present invention pertains can practice the above without departing from the technical spirit of the present invention. Various changes, modifications or adjustments to the example will be possible. Therefore, the protection scope of this invention will be limited only by the appended claims, and should be construed as including all changes, modifications or adjustments.

본 발명을 통해 여러가지 다양한 로봇 플랫폼에서 서로 다른 방법을 통하여 생성된 감성 및 행위를 표현할 수 있는 감성 표현 방법 및 장치를 제공하였다. 이를 통해 좀더 다양한 감성 표현이 가능하고 이종 로봇 플랫폼 간에 호환성을 제공하는 것이 가능하게 되었다. The present invention provides a method and apparatus for expressing emotions capable of expressing emotions and actions generated through different methods on various robot platforms. This enables more diverse expressions of emotions and provides compatibility between heterogeneous robotic platforms.

이상 본 발명의 바람직한 실시예에 대해 상세히 기술하였지만, 본 발명이 속 하는 기술분야에 있어서 통상의 지식을 가진 사람이라면, 첨부된 청구 범위에 정의된 본 발명의 사상 및 범위를 벗어나지 않으면서 본 발명의 다양한 변형 또는 변경을 가할 수 있을 것이다. 따라서 본 발명의 차후의 실시예들의 변경은 본 발명의 기술 범위를 벗어날 수 없을 것이다. Although preferred embodiments of the present invention have been described in detail above, those of ordinary skill in the art to which the present invention pertains should understand the present invention without departing from the spirit and scope of the present invention as defined in the appended claims. Various modifications or changes may be made. Accordingly, modifications to subsequent embodiments of the present invention will not depart from the technical scope of the present invention.

Claims (12)

삭제delete 삭제delete 로봇의 감성 표현 장치로서,As the emotion expression device of the robot, 내부 또는 외부 자극을 감성 정보로서 수신하는 감성 정보 수신부;Emotion information receiver for receiving an internal or external stimulus as emotion information; 상기 감성 정보 수신부에서 입력받은 정보를 이용하여 로봇의 현재 상태를 판단하고 상기 판단에 따라 감성을 생성하는 감성 생성부;Emotion generating unit for determining the current state of the robot by using the information received from the emotion information receiving unit and generates the emotion according to the determination; 상기 생성된 감성에 대응되는 행동을 결정하기 위한 행동 결정부;An action determination unit for determining an action corresponding to the generated emotion; 상기 생성된 감성, 상기 로봇의 현재 상태 및 상기 결정된 행동을 이용하여 상기 생성된 감성을 로봇의 행위로써 표현하기 위한 감성 표현 명령을 생성하는 감성 표현 관리부;An emotion expression management unit generating an emotion expression command for expressing the generated emotion as an action of the robot using the generated emotion, the current state of the robot, and the determined behavior; 상기 생성된 감성 표현 명령을 수신하고 분석하는 감성 표현 처리부; 및An emotion expression processor configured to receive and analyze the generated emotion expression command; And 상기 감성 표현 처리부의 결과에 따라 개별 행위 유닛에 행위를 실행하게 하는 로봇 제어부를 포함하되, Including a robot control unit for performing an action to the individual action unit according to the result of the emotional expression processing unit, 상기 감성 표현 명령은,The emotion expression command, 상기 로봇의 감성 표현을 위한 감성 타입(emotion type), 행위 타입(action type) 및 상기 생성된 감성에 대한 행동 유닛을 기술하는 메타 정보를 포함하는 메타정보 표현부; 및A meta-information expression unit including meta information describing an emotion type, an action type, and an action unit for the generated emotion for expressing the emotion of the robot; And 상기 메타 정보에 기초하여 상기 로봇의 감성에 대한 모델 및 로봇의 행동에 대해 대체 행위를 포함하는 행위 표현 모델을 제공하는 감성 표현부를 포함하고,An emotion expression unit for providing a model for emotion of the robot and an action expression model including an alternative action for the behavior of the robot based on the meta information; 상기 감성 표현 관리부는 상기 감성 생성부로부터 생성된 감성에 대한 모델을 생성하는 감성 표현 생성부; 상기 행동 결정부에서 결정된 행동을 구성하는 기본 행위 유닛과 행위 유닛의 상태 정보에 대한 모델을 생성하는 감성 행위 표현 생성부; 상기 생성된 감성과 상기 결정된 행동에 대한 모델을 감성 표현 명령으로 생성하는 감성 표현 명령 생성부; 및 상기 생성된 감성 표현 명령을 상기 감성 표현 처리부에 송신하는 감성 표현 명령 송신부를 포함하고, The emotional expression management unit includes an emotional expression generating unit for generating a model for the emotion generated from the emotional generating unit; An emotional behavior expression generation unit generating a model of the basic behavior unit and the state information of the behavior unit constituting the behavior determined by the behavior determination unit; An emotion expression command generation unit configured to generate a model for the generated emotion and the determined behavior as an emotion expression command; And an emotion expression command transmitter to transmit the generated emotion expression command to the emotion expression processor. 상기 감성 표현 관리부는 상기 감성 표현 처리부에서 제어할 행위 유닛과 일치하지 않거나 제어할 행위 유닛이 존재하지 않을 경우 상기 감성 표현 처리부에서 전송되는 행위 유닛 부존재 메시지를 수신하는 감성 행위 수신부; 및 상기 행동 결정부에서 결정된 행동에 대한 행위 유닛이 존재하지 않을 경우 필요한 대체 유닛 정보에 대한 모델을 생성하는 대체 유닛 생성부를 더 포함하고, 상기 감성 표현 명령은 상기 생성된 대체 유닛 정보에 대한 모델을 더 포함하는 것을 특징으로 하는 로봇의 감성 표현 장치. The emotional expression management unit may include an emotional behavior receiving unit configured to receive an action unit absence message transmitted from the emotional expression processing unit when the behavior unit to be controlled by the emotional expression processing unit does not match or there is no activity unit to be controlled; And a substitute unit generation unit configured to generate a model for the necessary substitute unit information when there is no action unit for the action determined by the action determiner, wherein the emotion expression command generates a model for the generated substitute unit information. Emotional expression device of a robot, characterized in that it further comprises. 삭제delete 삭제delete 로봇의 감성 표현 장치로서,As the emotion expression device of the robot, 내부 또는 외부 자극을 감성 정보로서 수신하는 감성 정보 수신부;Emotion information receiver for receiving an internal or external stimulus as emotion information; 상기 감성 정보 수신부에서 입력받은 정보를 이용하여 로봇의 현재 상태를 판단하고 상기 판단에 따라 감성을 생성하는 감성 생성부;Emotion generating unit for determining the current state of the robot by using the information received from the emotion information receiving unit and generates the emotion according to the determination; 상기 생성된 감성에 대응되는 행동을 결정하기 위한 행동 결정부;An action determination unit for determining an action corresponding to the generated emotion; 상기 생성된 감성, 상기 로봇의 현재 상태 및 상기 결정된 행동을 이용하여 상기 생성된 감성을 로봇의 행위로써 표현하기 위한 감성 표현 명령을 생성하는 감성 표현 관리부;An emotion expression management unit generating an emotion expression command for expressing the generated emotion as an action of the robot using the generated emotion, the current state of the robot, and the determined behavior; 상기 생성된 감성 표현 명령을 수신하고 분석하는 감성 표현 처리부; 및An emotion expression processor configured to receive and analyze the generated emotion expression command; And 상기 감성 표현 처리부의 결과에 따라 개별 행위 유닛에 행위를 실행하게 하는 로봇 제어부를 포함하되, Including a robot control unit for performing an action to the individual action unit according to the result of the emotional expression processing unit, 상기 감성 표현 명령은,The emotion expression command, 상기 로봇의 감성 표현을 위한 감성 타입(emotion type), 행위 타입(action type) 및 상기 생성된 감성에 대한 행동 유닛을 기술하는 메타 정보를 포함하는 메타정보 표현부; 및A meta-information expression unit including meta information describing an emotion type, an action type, and an action unit for the generated emotion for expressing the emotion of the robot; And 상기 메타 정보에 기초하여 상기 로봇의 감성에 대한 모델 및 로봇의 행동에 대해 대체 행위를 포함하는 행위 표현 모델을 제공하는 감성 표현부를 포함하고,An emotion expression unit for providing a model for emotion of the robot and an action expression model including an alternative action for the behavior of the robot based on the meta information; 상기 감성 표현 명령의 메타정보 표현부는 The meta information expression unit of the emotion expression command 상기 생성된 감성에 대해 감성 타입이 주감성(main emotion)인지 혹은 복합감성(composite emotion)인지를 판별하는 감성 타입 기술부(emotion type);An emotion type description unit for determining whether an emotion type is a main emotion or a composite emotion with respect to the generated emotion; 상기 결정된 행동이 기본 행위 타입(basic action type)인지 혹은 대체 행위 타입(sub action type)인지를 결정하기 위한 행위 타입 기술부; 및An action type description unit for determining whether the determined action is a basic action type or a sub action type; And 상기 생성된 감성에 대한 행동 유닛을 결정하는 행동 유닛 결정부를 포함하는 것을 특징으로 하는 로봇의 감성 표현 장치.Emotional expression apparatus of the robot comprising a behavior unit determination unit for determining a behavior unit for the generated emotion. 로봇의 감성 표현 장치로서,As the emotion expression device of the robot, 내부 또는 외부 자극을 감성 정보로서 수신하는 감성 정보 수신부;Emotion information receiver for receiving an internal or external stimulus as emotion information; 상기 감성 정보 수신부에서 입력받은 정보를 이용하여 로봇의 현재 상태를 판단하고 상기 판단에 따라 감성을 생성하는 감성 생성부;Emotion generating unit for determining the current state of the robot by using the information received from the emotion information receiving unit and generates the emotion according to the determination; 상기 생성된 감성에 대응되는 행동을 결정하기 위한 행동 결정부;An action determination unit for determining an action corresponding to the generated emotion; 상기 생성된 감성, 상기 로봇의 현재 상태 및 상기 결정된 행동을 이용하여 상기 생성된 감성을 로봇의 행위로써 표현하기 위한 감성 표현 명령을 생성하는 감성 표현 관리부;An emotion expression management unit generating an emotion expression command for expressing the generated emotion as an action of the robot using the generated emotion, the current state of the robot, and the determined behavior; 상기 생성된 감성 표현 명령을 수신하고 분석하는 감성 표현 처리부; 및An emotion expression processor configured to receive and analyze the generated emotion expression command; And 상기 감성 표현 처리부의 결과에 따라 개별 행위 유닛에 행위를 실행하게 하는 로봇 제어부를 포함하되, Including a robot control unit for performing an action to the individual action unit according to the result of the emotional expression processing unit, 상기 감성 표현 명령은,The emotion expression command, 상기 로봇의 감성 표현을 위한 감성 타입(emotion type), 행위 타입(action type) 및 상기 생성된 감성에 대한 행동 유닛을 기술하는 메타 정보를 포함하는 메타정보 표현부; 및A meta-information expression unit including meta information describing an emotion type, an action type, and an action unit for the generated emotion for expressing the emotion of the robot; And 상기 메타 정보에 기초하여 상기 로봇의 감성에 대한 모델 및 로봇의 행동에 대해 대체 행위를 포함하는 행위 표현 모델을 제공하는 감성 표현부를 포함하되, Based on the meta information includes an emotional expression unit for providing a model for the emotion of the robot and a behavior expression model including a substitute action for the behavior of the robot, 상기 감성 표현 명령의 감성 표현부는 The emotional expression unit of the emotional expression command 상기 감성 생성부에서 생성된 감성의 개수가 한 개인 경우 이를 대표 감성으로 정의하고 기술하는 주 감성 표현부; A main emotion expression unit that defines and describes the number of emotions generated by the emotion generator as one representative emotion; 상기 감성 생성부에서 하나 이상의 감성이 생성되었을 경우 이러한 하나 이상의 복합 감성을 표현하기 위한 모델을 제공하는 복합 감성 표현부; A complex emotion expression unit that provides a model for expressing one or more complex emotions when one or more emotions are generated in the emotion generation unit; 상기 감성 생성부에서 생성된 감성의 밀도를 수치적으로 기술하는 감성 정도 표현부; 및An emotion degree expression unit for numerically describing the density of emotion generated by the emotion generation unit; And 상기 행동 결정부에서 결정된 행동을 표현하기 위해 필요한 수단인 행위 유닛에 대한 표현 모델을 제공하는 감성 행위 표현부를 포함하는 것을 특징으로 하는 로봇의 감성 표현 장치. And an emotional behavior expression unit for providing an expression model for the behavior unit which is a means necessary for expressing the behavior determined by the behavior determination unit. 제7항에 있어서, 상기 감성 행위 표현부는 The method of claim 7, wherein the emotional behavior expression unit 로봇의 개별 유닛의 현재 상태 정보를 기술하기 위한 행위 유닛 상태 정보 표현부; An action unit state information expression unit for describing current state information of individual units of the robot; 상기 행동 결정부에서 결정된 행동을 기준으로 생성된 행위 유닛 정보를 표현하는 기본 행위 유닛 표현부; 및A basic behavior unit representation unit for representing behavior unit information generated based on the behavior determined by the behavior determination unit; And 상기 행동 결정부에서 결정된 행동을 표현할 행위 유닛이 감성 로봇 플랫폼에 존재하지 않을 때 대체수단으로 사용 가능한 유닛 정보를 표현하는 대체 행위 유닛 표현부를 포함하는 것을 특징으로 하는 로봇의 감성 표현 장치.And an alternative behavior unit expression unit for expressing unit information usable as an alternative means when the behavior unit to express the action determined by the behavior determination unit does not exist in the emotional robot platform. 제7항에 있어서, 상기 감성 표현 명령의 감성 표현부에서 감성 행위 표현부가 독립되고 상기 감성 표현부의 주 감성 표현부와 복합 감성 표현부에 고유한 식별자를 부여하여 해당 식별자에 매핑되는 참조자로 상기 감성 행위 표현부를 기술하는 것을 특징으로 하는 로봇의 감성 표현 장치. The emotion expression unit of the emotion expression command of the emotion behavior expression unit is independent, the emotion expression unit to give a unique identifier to the main emotion expression unit and the composite emotion expression unit, the emotion as a reference mapped to the emotion An emotional expression apparatus of a robot, characterized by describing an action expression unit. 삭제delete 삭제delete 로봇의 감성 표현 방법에 있어서,In the emotion expression method of the robot, 내부 또는 외부 센서를 통해 정보를 수집하는 단계;Collecting information through an internal or external sensor; 상기 수집된 정보로 감성을 생성하고 행동을 결정하는 단계;Generating emotions and determining behavior using the collected information; 상기 생성된 감성에 따라 감성 표현, 감성 밀도 및 행위 유닛을 결정하는 단계;Determining an emotion expression, an emotion density, and an action unit according to the generated emotion; 상기 감성 표현, 감성 밀도 및 행위 유닛에 의해 감성 표현 명령을 생성하는 단계; Generating an emotional expression command by the emotional expression, the emotional density and the action unit; 상기 생성된 감성 표현 명령을 해석하는 단계; 및Interpreting the generated emotional expression command; And 로봇의 현재 상태 정보와 상기 생성된 명령에 기초하여 로봇을 제어하는 단계를 포함하되, Controlling the robot based on the current state information of the robot and the generated command; 상기 감성 표현 명령은,The emotion expression command, 상기 로봇의 감성 표현을 위한 감성 타입, 행위 타입 및 상기 생성된 감성에 대한 행동 유닛을 기술하는 메타 정보를 포함하고, 및Includes meta information describing an emotion type for the emotional expression of the robot, an action type and an action unit for the generated emotion, and 상기 메타 정보에 기초하여 상기 로봇의 감성에 대한 모델 및 상기 로봇의 행동에 대해 대체 행위를 포함하는 행위 표현 모델을 포함하되,Based on the meta information includes a model for the emotion of the robot and a behavior expression model including a substitute action for the behavior of the robot, 상기 감성 표현 명령을 해석하는 단계에서, 생성된 감성에 대한 행위 유닛 존재 여부를 판단하여 해당 행위 유닛이 존재하지 않을 경우 상기 감성 표현 명령 생성 단계에서 대체 유닛을 포함하여 감성 표현 명령을 다시 작성하는 것을 특징으로 하는 로봇의 감성 표현 방법. In the step of interpreting the emotion expression command, it is determined whether there is an action unit for the generated emotion, and if the action unit does not exist, in the emotion expression command generation step, rewriting the emotion expression command including the replacement unit A method of expressing emotion of a robot.
KR1020070027792A 2006-11-21 2007-03-21 Robot emotion representation KR100895296B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US11/930,659 US20080119959A1 (en) 2006-11-21 2007-10-31 Expression of emotions in robot

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020060115460 2006-11-21
KR20060115460 2006-11-21

Publications (2)

Publication Number Publication Date
KR20080046074A KR20080046074A (en) 2008-05-26
KR100895296B1 true KR100895296B1 (en) 2009-05-07

Family

ID=39663226

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070027792A KR100895296B1 (en) 2006-11-21 2007-03-21 Robot emotion representation

Country Status (1)

Country Link
KR (1) KR100895296B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100893758B1 (en) * 2007-10-16 2009-04-20 한국전자통신연구원 System for expressing emotion of robots and method thereof
KR101965372B1 (en) * 2017-06-12 2019-04-03 주식회사 아카인텔리전스 Method for determining emotion of a computer

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060021946A (en) * 2004-09-06 2006-03-09 한국과학기술원 Apparatus and method of emotional expression for a robot
KR20060026297A (en) * 2004-09-20 2006-03-23 한국과학기술원 Emotion synthesis and management for personal robot

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060021946A (en) * 2004-09-06 2006-03-09 한국과학기술원 Apparatus and method of emotional expression for a robot
KR20060026297A (en) * 2004-09-20 2006-03-23 한국과학기술원 Emotion synthesis and management for personal robot

Also Published As

Publication number Publication date
KR20080046074A (en) 2008-05-26

Similar Documents

Publication Publication Date Title
US20080119959A1 (en) Expression of emotions in robot
US20100145514A1 (en) Apparatus and method for controlling multi-robot linked in virtual space
CN106794581A (en) For the system and method for flexible man-machine collaboration
EP2933066A1 (en) Activity monitoring of a robot
US11856098B2 (en) Mobility surrogates
US11675360B2 (en) Information processing apparatus, information processing method, and program
KR20110124837A (en) Service scenario editor of intelligent robot, method thereof, intelligent robot device and service method of intelligent robot
KR100895296B1 (en) Robot emotion representation
JP2018149669A (en) Learning device and learning method
CN107273069A (en) Print system
CN111836596A (en) Surgical robotic system including synchronous and asynchronous networks and method of using same
CN106182007A (en) A kind of card for intelligent robot pauses processing method and processing device
KR100893758B1 (en) System for expressing emotion of robots and method thereof
WO2020183543A1 (en) Work assist system, work assist server, work status determining device, device for workers, and apparatuses to be worked on
US20180319014A1 (en) Robot orchestration architecture
KR20090093652A (en) Method of control robot behavior using robot scripts and its robot
JP7439826B2 (en) Information processing device, information processing method, and program
Holthaus et al. Communicative robot signals: presenting a new typology for human-robot interaction
CN108375964A (en) A kind of dialog mode device management method and device
KR20200122834A (en) Method and apparatus for controlling the movement of real object using an intelligent agent learned in a virtual environment
CN106541412B (en) Switching method, intelligent robot and the device of intelligent robot status mechanism
WO2017183524A1 (en) Response data collection system, customer response system and program
CN115657535A (en) Control system and method for automatic driving and operation execution of agricultural machine
JP7414735B2 (en) Method for controlling multiple robot effectors
JP2022087019A (en) Method and cloud server for controlling robot providing service in connection with service application

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
J201 Request for trial against refusal decision
B701 Decision to grant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120330

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20130325

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160330

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20170327

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20180406

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20190325

Year of fee payment: 11