KR100895296B1 - Robot emotion representation - Google Patents
Robot emotion representation Download PDFInfo
- Publication number
- KR100895296B1 KR100895296B1 KR1020070027792A KR20070027792A KR100895296B1 KR 100895296 B1 KR100895296 B1 KR 100895296B1 KR 1020070027792 A KR1020070027792 A KR 1020070027792A KR 20070027792 A KR20070027792 A KR 20070027792A KR 100895296 B1 KR100895296 B1 KR 100895296B1
- Authority
- KR
- South Korea
- Prior art keywords
- emotion
- unit
- expression
- action
- robot
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Manipulator (AREA)
Abstract
본 발명은 이종의 감성 로봇 플랫폼에 적용 가능한 로봇의 감성 표현 방법 및 장치를 제공하기 위한 것이다. 본 발명에 따른 로봇의 감성 표현 방법은 (a) 내부 또는 외부 센서를 통해 정보를 수집하는 단계; (b) 상기 수집된 정보로 감성을 생성하고 행동을 결정하는 단계; (c) 상기 생성된 감성에 따라 감성 표현, 감성 밀도 및 행위 유닛을 결정하는 단계; (d) 상기 감성 표현, 감성 밀도 및 행위 유닛에 의해 감성 표현 명령을 생성하는 단계; (e) 상기 생성된 감성 표현 명령을 해석하는 단계; 및 (f) 로봇의 현재 상태 정보와 상기 생성된 명령에 기초하여 로봇을 제어하는 단계를 포함하는 것을 특징으로 한다.
감성 로봇, 감성 표현, 행위 표현, 감성 표현 명령서, 행위 유닛, 복합 감성
The present invention is to provide a method and apparatus for expressing the emotion of a robot applicable to heterogeneous emotional robot platform. Emotional expression method of a robot according to the present invention comprises the steps of (a) collecting information through an internal or external sensor; (b) generating emotions and determining actions with the collected information; (c) determining an emotional expression, an emotional density, and an action unit according to the generated emotion; (d) generating an emotional expression command by the emotional expression, the emotional density and the action unit; (e) interpreting the generated emotional expression command; And (f) controlling the robot based on the current state information of the robot and the generated command.
Emotional Robot, Emotional Expression, Behavioral Expression, Emotional Order, Action Unit, Complex Emotion
Description
도 1은 본 발명에 따른 로봇 감성 표현 생성 및 처리 시스템 구조를 블럭도로 나타내는 도면이다. 1 is a block diagram showing the structure of the robot emotional expression generation and processing system according to the present invention.
도 2는 도 1의 시스템 구조에서 감성 표현 관리부에 관한 상세 블럭도이다. FIG. 2 is a detailed block diagram of an emotional expression managing unit in the system structure of FIG. 1.
도 3은 도 1의 시스템 구조에서 감성 표현 처리부에 관한 상세 블럭도이다. 3 is a detailed block diagram of an emotional expression processing unit in the system structure of FIG. 1.
도 4는 본 발명에 따른 감성 표현 명령서 구성의 일실시예를 나타낸다. Figure 4 shows an embodiment of the configuration of the emotional expression command according to the present invention.
도 5는 본 발명에 따른 감성 표현 명령서 구성의 일실시예를 나타낸다. 5 shows an embodiment of the composition of the emotional expression command according to the present invention.
도 6은 본 발명에 따른 감성 표현 명령서 구성의 일실시예를 나타낸다. Figure 6 shows an embodiment of the composition of the emotional expression command according to the present invention.
도 7a는 본 발명에 따라 도 1의 감성 표현 관리부에서 생성하는 감성 표현 명령에 의한 명령서의 일실시예이다. FIG. 7A is an embodiment of a command form by an emotional expression command generated by the emotional expression management unit of FIG. 1 according to the present invention.
도 7b는 본 발명에 따라 도 1의 감성 표현 관리부에서 생성하는 감성 표현 명령에 의한 명령서의 일실시예로서 참조자를 사용한 일실시예이다. FIG. 7B illustrates an embodiment using a referrer as an embodiment of a command by an emotion expression command generated by the emotion expression management unit of FIG. 1 according to the present invention.
도 8은 본 발명에 따른 로봇의 감성 표현을 위한 방법을 흐름도로 나타낸 것이다. 8 is a flowchart illustrating a method for emotional expression of a robot according to the present invention.
본 발명은 다양한 로봇 감성 표현 플랫폼에서 생성된 감성에 대해 감성 및 행위 표현 모델을 제공하는 로봇 감성 표현 방법 및 장치에 관련된다. 본 발명을 통하여 다양한 감성을 수용할 수 있는 표현 모델이 제공되고 이로 인하여 좀더 풍부한 감성 표현이 가능하다. The present invention relates to a robot emotion expression method and apparatus for providing an emotion and behavior expression model for emotions generated in various robot emotion expression platforms. Through the present invention is provided an expression model that can accommodate a variety of emotions, thereby allowing a richer expression of emotions.
로봇이 감성을 표현하는 여러 가지 연구가 진행되어 오고 있는 가운데 특히 중점적으로 연구되고 있는 분야는 외부 자극에 대한 조합을 통하여 인간에 가까운 감성을 생성할 수 있는 방법과 생성된 감성을 표현하기 위한 행동 선택 및 장치 제어에 관한 것이다. 감성을 표현할 수 있는 제어 장치 중에서도 주로 얼굴 표정에 많은 부분의 연구가 이루어지고 있으며, 몸체, 팔, 다리, 눈 등의 복합적인 행위를 통한 감성 표현 장치에 대한 연구도 점점 더 많이 진행되고 있다. There are various researches on robots' emotions, and the areas of particular focus are on how to generate emotions close to humans through the combination of external stimuli and action choices to express the generated emotions. And device control. Among the control devices that can express emotions, a lot of research is mainly conducted on facial expressions, and more and more studies on emotion expression devices through complex actions such as body, arms, legs, and eyes are being conducted.
하지만 현재 외부 자극 및 내적 상태 등의 정보를 이용하여 로봇에서 표현되고 있는 감성 표현 방식은 서로 다른 플랫폼에서는 서로 다른 표현 방식으로 기술되고 있으며, 더욱이 표현 모델 자체가 없어서 플랫폼 마다 그 때 그 때 플랫폼에 맞게 감성 표현 시스템을 일일이 구성하고 있는 것이 실정이다. However, the emotional expressions expressed in robots using information such as external stimulus and internal state are described in different expressions on different platforms. Moreover, since there is no expression model itself, each platform can be adapted to the platform at that time. It is a fact that the emotional expression system is composed one by one.
이렇듯 통일된 로봇의 감성 표현 모델의 부재로 인해 생성된 감성이 동일하더라도 플랫폼이 다른 경우에서는 얼굴, 몸체, 팔, 다리 등의 표현 장치를 이용하여 표현할 수 없게 되었다. 다시 말하면, 호환성을 제공하지 못함으로 인해 생성된 감성에 대한 재사용이 불가능하며, 로봇 플랫폼에 맞게 재작성하거나 새로운 표현 방법을 사용해야 하는 문제점이 발생하였다. As such, even if the generated emotions are the same due to the absence of the unified robot's emotional expression model, it is impossible to express them using expression devices such as face, body, arms, and legs when the platforms are different. In other words, due to the inability to provide compatibility, it is impossible to reuse the generated emotions, and the problem of rewriting or using a new expression method for the robot platform has occurred.
따라서 이러한 문제점을 해결하기 위해 생성된 감성 및 행위에 대한 표현 모델을 제공하고 이를 해석할 수 있는 인터페이스를 제공하여 다른 종류의 로봇 플랫폼에서도 감성 표현이 가능하도록 하는 것이 필요하다. Therefore, in order to solve this problem, it is necessary to provide an expression model for the generated emotions and behaviors and to provide an interface for interpreting the emotions so that the emotional expression can be expressed in other types of robot platforms.
이에 본 발명이 이루고자 하는 기술적 과제는 다른 종류의 다양한 로봇 플랫폼에 적용 가능한 감성 표현 모델을 제공한다. 또한, 감성행위 표현 구조에 맞게 생성된 감성 표현 명령을 로봇의 부위별 제어부에 전달하고, 이를 수신 및 해석하여 행위 유닛과 일치하는 액추에이터를 구동함으로써 감성에 대한 다양한 행위 표현을 가능하도록 하는 로봇의 감성 표현 장치를 제공하는 데 있다. Accordingly, the present invention provides an emotional expression model applicable to various kinds of robot platforms. In addition, the robot's emotions can be sent to the controller for each part of the robot, and the robot's emotions can be expressed by driving the actuators that correspond to the action units. It is to provide a presentation device.
본 발명이 이루고자 하는 또 다른 기술적 과제는 정보를 수집하여 감성을 생성하고 행동을 결정하며 이에 따라 감성 표현, 감성 밀도 및 행위 유닛을 결정하고 감성 표현 명령을 생성, 해석하여 로봇의 현재 상태 정보와 상기 생성된 명령에 기초하여 로봇을 제어하는 방법을 제공하는 데 있다. Another technical problem to be solved by the present invention is to collect information to generate emotions and determine behavior, and accordingly to determine emotion expression, emotion density and behavior unit, and to generate and interpret emotion expression commands, to present the current state information of the robot and the above. It is to provide a method for controlling the robot based on the generated command.
본 발명은 상기한 기술적 과제를 달성하기 위하여, (a) 내부 및/또는 외부 자극을 감성 정보로서 수신하는 감성 정보 수신부; (b) 상기 감성 정보 수신부에서 입력받은 정보를 이용하여 로봇의 현재 상태를 판단하고 감성을 생성하는 감성 생성부; (c) 상기 생성된 감성에 대응되는 행동을 결정하기 위한 행동 결정부; (d) 상기 생성된 감성, 상기 로봇의 현재 상태 및 상기 결정된 행동을 이용하여 상기 생성된 감성을 로봇의 행위로써 표현하기 위한 감성 표현 명령을 생성하는 감성 표현 관리부; (e) 상기 생성된 감성 표현 명령을 수신하고 분석하는 감성 표현 처리 부; 및 (f) 상기 감성 표현 처리부의 결과에 따라 개별 행위 유닛에 행위를 실행하게 하는 로봇 제어부를 포함하는 것을 특징으로 하는 로봇의 감성 표현 장치를 제공한다. The present invention to achieve the above technical problem, (a) an emotional information receiving unit for receiving the internal and / or external stimulus as emotional information; (b) an emotion generating unit for determining the current state of the robot using the information received from the emotion information receiving unit and generating an emotion; (c) an action determination unit for determining an action corresponding to the generated emotion; (d) an emotion expression management unit that generates an emotion expression command for expressing the generated emotion as an action of the robot using the generated emotion, the current state of the robot, and the determined behavior; (e) an emotional expression processing unit for receiving and analyzing the generated emotional expression command; And (f) a robot control unit for causing an individual action unit to execute an action according to a result of the emotion expression processing unit.
바람직하게는, 전술한 (d)의 감성 표현 관리부는 (d1) 상기 감성 생성부로부터 생성된 감성에 대한 모델을 생성하는 감성 표현 생성부; (d2) 상기 행동 결정부에서 결정된 행동을 구성하는 기본 행위 유닛과 행위 유닛의 상태 정보에 대한 모델을 생성하는 감성 행위 표현 생성부; (d3) 상기 생성된 감성과 상기 결정된 행동에 대한 모델을 감성 표현 명령으로 생성하는 감성 표현 명령 생성부; 및 (d4) 상기 생성된 감성 표현 명령을 감성 표현 처리부에 송신하는 감성 표현 명령 송신부를 포함하는 것을 특징으로 한다. Preferably, the emotion expression management unit (d) described above (d1) an emotion expression generation unit for generating a model for the emotion generated from the emotion generation unit; (d2) an emotional behavior expression generator for generating a model of the basic behavior unit and the state information of the behavior unit constituting the behavior determined by the behavior determination unit; (d3) an emotion expression command generation unit for generating a model for the generated emotion and the determined behavior as an emotion expression command; And (d4) an emotion expression command transmitter for transmitting the generated emotion expression command to the emotion expression processor.
바람직하게는, 전술한 (d) 감성 표현 관리부는 (d5) 상기 감성 표현 처리부에서 제어할 행위 유닛과 일치하지 않거나 제어할 행위 유닛이 존재하지 않을 경우, 상기 감성 표현 처리부에서 전송되는 행위 유닛 불일치 메시지를 수신하는 감성 행위 수신부; 및 (d6) 상기 행동 결정부에서 결정된 행동에 대한 행위 유닛이 존재하지 않을 경우 필요한 대체 유닛 정보에 대한 모델을 생성하는 대체 유닛 생성부;를 더 포함하고, 상기 감성 표현 명령은 대체 유닛 상태 정보 모델을 더 포함하는 것을 특징으로 한다. Preferably, (d) the emotional expression management unit described above (d5) the behavior unit mismatch message transmitted from the emotional expression processing unit when the behavior unit to be controlled by the emotional expression processing unit does not match or there is no action unit to control. Emotion behavior receiving unit for receiving; And (d6) a replacement unit generation unit that generates a model for the replacement unit information required when there is no action unit for the action determined by the action determination unit, wherein the emotion expression instruction includes the replacement unit state information model. It characterized in that it further comprises.
바람직하게는 상기 감성 표현 처리부는 상기 감성 표현 관리부에서 생성된 상기 감성 표현 명령을 수신하는 감성 표현 명령 수신부; 상기 수신된 감성 표현 명령을 해석하는 명령 해석부; 상기 명령 해석부에서 해석된 감성 표현 명령에 해 당 행위 유닛이 없을 때 대체 행위 유닛 생성을 위해 감성 표현 관리부에 행위 유닛 불일치 메시지를 송신하는 행위 유닛 메시지 송신부; 및 상기 명령 해석부에서 해석된 명령에 의거하여 상기 로봇 제어부에 제어 명령을 송신하는 제어 명령 송신부를 포함하는 것을 특징으로 한다. Preferably, the emotion expression processing unit includes an emotion expression command receiving unit for receiving the emotion expression command generated by the emotion expression management unit; A command interpreter that interprets the received emotional expression command; An action unit message transmitter for transmitting an action unit disagreement message to the emotion expression management unit to generate a substitute action unit when there is no action unit corresponding to the emotion expression command interpreted by the command interpreter; And a control command transmitter for transmitting a control command to the robot controller based on the command interpreted by the command analyzer.
또한 본 발명의 목적상 감성 표현 명령 장치는, 감성 표현 처리부에서 로봇 제어를 하기 위해 제어가 필요한 부분을 분석하여 해당 행위 유닛에 적합한지를 판단하기 위한 모델을 제공하는 메타 정보 표현부; 및 감성에 대한 모델 및 행동에 대한 행위 표현 모델을 제공하는 감성 표현부를 포함하는 것을 특징으로 한다.In addition, for the purpose of the present invention, the emotional expression command apparatus, Meta-expression expression unit for providing a model for determining whether the control is suitable for the action unit by analyzing the part that needs to control in the emotional expression processing unit; And an emotional expression unit that provides a model for emotion and a behavior expression model for behavior.
바람직하게는 상기 로봇의 감성 표현 명령 장치에 있어서 감성 표현 모델의 메타 정보는, 생성된 감성에 대해 감성 타입이 주감성(main emotion)인지 혹은 복합감성(composite emotion)인지를 판별하는 감성 타입(emotion type) 기술부; 상기 결정된 행동이 기본 행위 타입(basic action type)인지 혹은 대체 행위 타입(sub action type)인지를 결정하기 위한 행위 타입 기술부; 및 상기 생성된 감성에 대한 행동 유닛을 결정하는 행동 유닛 결정부를 포함하는 것을 특징으로 한다. Preferably, the meta information of the emotion expression model in the emotion expression command apparatus of the robot is an emotion type for determining whether the emotion type is the main emotion or the composite emotion with respect to the generated emotion. type) technology; An action type description unit for determining whether the determined action is a basic action type or a sub action type; And an action unit determination unit that determines an action unit for the generated emotion.
바람직하게는 상기 감성 표현 명령 장치의 감성 표현부는 상기 감성 생성부에서 생성된 감성의 개수가 한 개인 경우 이를 대표 감성으로 정의하고 기술하는 주 감성 표현부; 상기 감성 생성부에서 하나 이상의 감성이 생성되었을 경우 이러한 하나 이상의 복합 감성을 표현하기 위한 모델을 제공하는 복합 감성 표현부; 상기 감성 생성부에서 생성된 감성의 밀도를 수치적으로 기술하는 감성 정도 표현부; 및 상기 행동 결정부에서 결정된 행동을 표현하기 위해 필요한 수단인 행위 유닛에 대한 표현 모델을 제공하는 감성 행위 표현부를 포함하는 것을 특징으로 한다.Preferably, the emotion expression unit of the emotion expression command apparatus, if the number of emotions generated by the emotion generation unit has a main emotion expression unit for defining and describing this as a representative emotion; A complex emotion expression unit that provides a model for expressing one or more complex emotions when one or more emotions are generated in the emotion generation unit; An emotion degree expression unit for numerically describing the density of emotion generated by the emotion generation unit; And an emotional behavior expression unit for providing an expression model for the behavior unit which is a means necessary for expressing the behavior determined by the behavior determination unit.
바람직하게는 상기 감성 행위 표현부는 로봇 유닛의 현재 상태 정보를 기술하기 위한 행위 유닛 상태 정보 표현부; 상기 행동 결정부에서 생성된 행동을 기준으로 생성된 행위 유닛 정보를 표현하는 기본 행위 유닛 표현부; 및 상기 행동 결정부에서 생성된 행동을 기준으로 생성된 행위 유닛이 감성 로봇 플랫폼에 존재하지 않을 때 대체수단으로 사용 가능한 유닛 정보를 표현하는 대체 행위 유닛 표현부를 포함하는 것을 특징으로 한다. Preferably, the emotional behavior representation unit comprises: behavior unit state information representation unit for describing current state information of the robot unit; A basic behavior unit expression unit for expressing behavior unit information generated based on the behavior generated by the behavior determination unit; And an alternative behavior unit expression unit expressing unit information usable as an alternative means when the behavior unit generated based on the behavior generated by the behavior determination unit does not exist in the emotional robot platform.
더욱 바람직하게는 상기 로봇의 감성 표현 명령 장치에서, 감성 표현 모델의 감성 표현부에서 감성 행위 표현부가 독립되고 상기 감성 표현부의 주 감성 표현부와 복합 감성 표현부에 고유한 식별자를 부여하여 해당 식별자에 매핑되는 참조자로 상기 감성 행위 표현부를 기술하는 것을 특징으로 한다. More preferably, in the emotion expression command apparatus of the robot, the emotion behavior expression unit is independent from the emotion expression unit of the emotion expression model, and a unique identifier is assigned to the main emotion expression unit and the complex emotion expression unit in the emotion expression unit to the corresponding identifier. The emotional behavior expression unit is described as a mapped reference.
또한 본 발명의 목적상 로봇의 감성 표현 방법은 내부 또는 외부 센서를 통해 정보를 수집하는 단계; 상기 수집된 정보로 감성을 생성하고 행동을 결정하는 단계; 상기 생성된 감성에 따라 감성 표현, 감성 밀도 및 행위 유닛을 결정하는 단계; 상기 감성 표현, 감성 밀도 및 행위 유닛에 의해 감성 표현 명령을 생성하는 단계; 상기 생성된 감성 표현 명령을 해석하는 단계; 및 로봇의 현재 상태 정보와 상기 생성된 명령에 기초하여 로봇을 제어하는 단계를 포함하는 것을 특징으로 한다.In addition, for the purpose of the present invention, a method for expressing emotion of a robot comprises: collecting information through an internal or external sensor; Generating emotions and determining behavior using the collected information; Determining an emotion expression, an emotion density, and an action unit according to the generated emotion; Generating an emotional expression command by the emotional expression, the emotional density and the action unit; Interpreting the generated emotional expression command; And controlling the robot based on the current state information of the robot and the generated command.
바람직하게는 상기 감성을 생성하고 행동을 결정하는 단계는 감성을 주 감성과 복합 감성으로 구분하여 생성하는 것을 특징으로 한다.Preferably, the step of generating the emotion and determining the action is characterized in that to generate the emotion divided into the main emotion and the complex emotion.
더욱 바람직하게는 상기 감성 표현 명령을 해석하는 단계에서, 생성된 감성에 대한 행위 유닛 존재 여부를 판단하여 해당 행위 유닛이 존재하지 않을 경우 상기 감성 표현 명령 생성 단계에서 대체 유닛을 포함하여 감성 표현 명령을 다시 작성하는 것을 특징으로 한다. More preferably, in the step of interpreting the emotion expression command, it is determined whether there is an action unit for the generated emotion, and if the action unit does not exist, the emotion expression command is included in the emotion expression command generation step. It is characterized by rewriting.
이하, 첨부한 도면을 참조하면서 본 발명에 따른 로봇 감성표현 모델, 방법 및 장치에 대해 좀더 자세히 기술하기로 한다. 본 발명을 설명함에 있어서 관련된 공지기술 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략될 것이다. 그리고, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 클라이언트나 운용자, 사용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. Hereinafter, the robot emotion expression model, method and apparatus according to the present invention will be described in detail with reference to the accompanying drawings. In the following description of the present invention, detailed descriptions of related well-known technologies or configurations will be omitted if it is determined that the detailed description of the present invention may unnecessarily obscure the subject matter of the present invention. In addition, terms to be described below are terms defined in consideration of functions in the present invention, which may vary according to a client's or operator's intention or custom. Therefore, the definition should be made based on the contents throughout the specification.
도 1은 본 발명에 따른 로봇 감성 표현 생성 및 처리 시스템 구조를 블럭도로 나타낸 도면이다. 1 is a block diagram showing the structure of the robot emotional expression generation and processing system according to the present invention.
본 시스템에서 감성 정보 수신부(100)는 내부 및/또는 외부 자극을 센서로 탐지하거나 시스템에 기 부착된 촬상장치를 통해 외부 자극을 모니터링한다. 센서가 압력 센서인 경우 사용자가 설정한 일정한 임계점 이상의 압력이 로봇 시스템에 가해진 경우, 즉, 충격 등이 가해진 경우 그 충격의 정도가 압력 센서를 통해 수치화 되어 감성 생성부(110)로 넘겨져 '고통' 및/또는 '놀람'과 같은 감성을 생성할 수 있을 것이다.In the system, the
또 다른 실시예에서, 만일 센서가 온도 센서일 경우 외부 온도가 어느 일정 값을 넘어서는 경우 역시 마찬가지로 온도 센서를 통해 외부 온도가 수치화되어 감성 생성부(110)로 넘겨져 온도 변화로 인한 적절한 감성이 생성될 것이다. In another embodiment, if the sensor is a temperature sensor, if the external temperature exceeds a certain value, the external temperature is also digitized through the temperature sensor and passed to the
또 다른 실시예에서, 만일 센서가 광감지 센서인 경우 급작스런 빛의 밝기 변화는 로봇의 눈 부위를 찡그리게 하는 모습으로 나타내게 할 수 있을 것이다. In another embodiment, if the sensor is a light sensing sensor, the sudden change in brightness of the light may cause the robot's eye to frown.
또 다른 실시예에서, 촬상장치를 통해 외부 장면을 모니터링 하는 경우 화상의 점진적인 변화가 아닌 급작스런 변화가 생기는 경우 역시 '놀람' 등의 감성이 생성될 수 있을 것이다. In another embodiment, when monitoring an external scene through the image pickup device, if a sudden change occurs instead of a gradual change of an image, emotions such as 'surprise' may also be generated.
당업자는 외부 자극을 수용하는 수용 장치가 도 1에서 예시된 센서와 모니터링 장치(촬상장치) 외에 다양한 장치가 사용될 수 있다는 것을 이해할 수 있을 것이다. Those skilled in the art will appreciate that a variety of devices may be used in addition to the sensor and monitoring device (imaging device) illustrated in FIG.
감성 정보 수신부(100)에서 외부 자극을 수용하는 상기 센서 등을 통해 감성 정보가 수신되면 도 1의 감성 생성부(110)는 위의 감성 정보를 이용하여 감성을 생성하게 된다. 생성되는 감성은 '슬픔,' '기쁨,' '두려움,' '혐오,' '화남,' 놀람,' 및 '부끄러움' 등이 될 것이다. 또한 감성 생성부(110)는 로봇의 현재 상태를 판단하는 기능도 가지고 있다. 이러한 현재 상태 판단은 실제 감성을 표현하는 상황에서 중요한 역할을 한다. 예를 들어 현재 로봇이 눈을 반쯤 뜨고 있는 상태에서 '놀람'의 감성을 표현할 때, 만일 현재 상태를 판단하지 못하면 자칫 로봇의 눈을 제어하는 액추에이터에 과부하가 걸릴 수 있을 것이다. 이러한 과부하 방지를 위해 현재 상태를 파악하면 액추에이터가 동작해야 할 동작 범위를 결정할 수 있게 된다. When emotion information is received through the sensor or the like that receives an external stimulus from the
감성 생성부(110)에서 감성이 생성되면, 이어서 행동 결정부(120)에서는 상기 생성된 감성에 적합한 행동을 결정하게 된다. 예를 들어 감성 생성부(110)에서 생성된 감성이 '놀람'일 경우, 행동 결정부(120)에서는 차후에 액추에이터를 구동해 눈을 가장 크게 뜨도록 하고 입은 동그랗게 벌리게 하는 행동 결정을 하게 될 것이다. When emotion is generated in the
다음으로 감성 표현 관리부(130)에서는 상기 감성 생성부(110)에서 생성된 감성, 로봇의 현재 상태 및 상기 행동 결정부(120)에서 생성되고 결정된 행동을 이용하여 상기 감성을 로봇의 행위로써 표현하기 위한 감성 표현 명령을 생성하게 된다. 감성 표현 명령에 대한 상세한 설명은 후술하기로 한다. Next, the emotion
일단 감성 표현 관리부(130)에서 감성 표현 명령이 생성되면 감성 표현 처리부(140)에서는 생성된 감성 표현 명령을 상세히 분석하게 된다. 즉, 생성된 감성에 대하여 어떻게 로봇에서 표현할 지에 대해 감성 표현 명령에 따라 어떠한 처리를 하여야 할지를 결정하고 이러한 결정은 로봇 제어부(150)에 전달하게 된다. Once an emotional expression command is generated in the emotional
로봇 제어부(150)는 눈 액추에이터, 손 액추에이터, 귀 액추에이터 등을 상기 처리에 근거하여 생성된 감성을 표현하기에 알맞도록 제어하게 된다. The
이제 도 2를 참조하여 상기 감성 표현 관리부(130)를 좀더 상세하게 살펴보도록 한다. 도 2에서는 도 1의 시스템 구조에서 감성 표현 관리부에 관한 상세 블럭도를 보여준다. Now, the
앞서 기술한 바대로 감성 표현 관리부(130)는 감성 생성부(110)에서 생성된 감성과 행동 결정부(120)에서 결정된 행동을 각각 내부의 감성 표현 생성부(210)와 감성 행위 표현 생성부(220)에서 수신하게 된다. As described above, the emotional
감성 표현 생성부(210)에서는 생성된 감성, 즉, '슬픔,' '기쁨,' '두려움,' '혐오,' '화남,' '놀람' 및 '부끄러움' 등에 대한 모델을 생성하게 된다. 감성 행위 표현 생성부(220)에서는 상기 행동 결정부에서 결정된 행동을 구성하는 기본 행위 유닛과 행위 유닛의 상태 정보에 대한 모델을 생성하게 된다. 생성되는 모델은 여러가지 다른 형태를 취할 수 있으나 후술하기로 한다. 이렇게 생성된 모델은 감성 표현 명령 생성부로 보내지게 된다.
감성 행위 수신부(250)는 감성 표현 처리부(140)에서 제어할 행위 유닛과 일치하지 않거나 제어할 행위 유닛이 존재하지 않을 경우 전송하는 행위 유닛 부존재(不存在) 메시지를 수신하게 된다. 감성 행위 수신부(250)는 상기 행위 유닛 부존재 메시지를 수신하는 경우 대체 유닛 생성부(260)에 신호를 보내어 대체 유닛 모델을 생성할 것을 지시하고, 대체 유닛 생성부(260)에서 생성된 대체 유닛 모델은 감성 표현 명령 생성부(230)에 보내지게 된다. The emotional
감성 표현 명령 생성부(230)는 감성 표현 생성부(210), 감성 행위 표현 생성부(220) 및 대체 유닛 생성부(260)에서 생성된 각각의 모델들을 상기한 데로 모두 감성 표현 명령 생성부(230)에 모이게 하여 하나의 감성 표현 명령을 생성한다. 이렇게 생성된 감성 표현 명령은 감성 표현 송신부(240)를 통해 감성 표현 처리부(140)로 전달된다. The emotional expression
도 3은 도 1의 시스템 구조에서 감성 표현 처리부에 관한 상세 블럭도를 제공한다. 감성 표현 처리부(140)는 로봇의 특정 부위의 액추에이터를 제어 가능하 다. 또한 간단한 처리 능력을 가지고 있는 프로세서를 내장하고 있는 제어부의 일부로서 감성 표현 관리부와의 데이터 송/수신 인터페이스를 제공하고, 해당 명령서를 해석 및 분석하여 도 4 내지 도 6의 감성 표현 명령서(410; 510; 610)에 기술된 감성 및 행위 표현 정보를 통해 로봇 부위별 제어부에서 행위 유닛을 제어하는 명령을 로봇 제어부(150)에 전송하게 된다. FIG. 3 provides a detailed block diagram of an emotional expression processing unit in the system structure of FIG. 1. Emotional
감성 표현 처리부(140)는 전술한 감성 표현 관리부에서 생성한 감성 표현 명령을 수신하는 감성 표현 명령 수신부(310)를 포함한다. The emotional
감성 표현 명령 수신부(310)는 수신된 감성 표현 명령을 해석하기 위해 감성 표현 명령을 명령 해석부(320)로 보낸다. 명령 해석부는 수신된 감성 표현 명령을 해석하여 로봇의 각 부위를 어떻게 제어할 것인지를 결정하여 각 부위를 구동시키는 액추에이터에 줄 명령을 생성하여 제어 명령 송신부(330)로 보내게 된다. The emotion
제어 명령 송신부(330)는 명령 해석부(320)에서 생성된 로봇의 각 부위별 액추에이터를 구동하는 제어 명령을 로봇 제어부(150)로 전송하게 된다. 또한 제어 명령 송신부(330)는 감성 표현 명령을 처리하는 중에 로봇 부위별 제어부에서 해당 행위 유닛이 존재하지 않으면 이에 대해 행위 유닛 부존재 메시지(ACK)를 감성 표현 관리부(130)에 전송하는 역할을 하는 인터페이스를 제공한다. The
로봇 제어부(150)는 상세히 도시되지는 않았으나 제어 명령을 수신하여 생성된 감성을 표현하기에 적절하도록 로봇의 각 구동 액추에이터를 구동시킨다. Although not shown in detail, the
때때로 명령 해석부(320)는 감성 표현 명령을 해석한 결과 생성된 감성을 적절히 표현할 행위 유닛이 없다는 것을 발견하게 된다. 이 때 명령 해석부(320)는 해당 행위를 하지 않는 것이 아니라 이러한 표현할 행위 유닛이 없다는 행위 유닛 부존재 메시지를 다시금 감성 표현 관리부에 통지하기 위하여 행위 유닛 메시지 송신부(340)를 통해 행위 유닛 부존재 메시지를 감성 표현 관리부(130)의 감성 행위 수신부(250)에 전송하게 된다. Sometimes the
이하에서는 감성 표현 처리부(130)의 감성 표현 생성부(210), 감성 행위 표현 생성부(220) 및 대체 유닛 생성부(260)에서 생성된 모델을 취합하여 생성되는 감성 표현 명령에 대해 상세히 알아보기로 한다. Hereinafter, the emotional expression command generated by combining models generated by the
도 4 내지 도 6은 본 발명에 따른 감성 표현 명령서 구성의 일실시예를 보여준다. 도 4 내지 도 6에 따른 감성 표현 명령은 크게 메타정보 표현부(420; 520; 620), 감성 표현부(430; 530; 630) 및 감성행위 표현부(434; 540; 635, 639)로 구별된다. 4 to 6 show one embodiment of the composition of the emotional expression command according to the present invention. The emotion expression command according to FIGS. 4 to 6 is largely divided into the meta
메타정보 표현부(420; 520; 620)는 감성 표현 처리부(140)에서 선택할 행위 유닛 정보에 대한 메타정보를 기술한다. 즉, 감성표현부(430; 530; 630)에서 표현하는 감성에 대한 타입이 주감성(main emotion)인지 또는 복합 감성(composite emotion)인지 여부를 판별하는 감성 타입을 기술한다. 그리고 감성에 대한 행동을 결정하기 위한 행위 형태(action type)를 기술한다. 즉, 행동 결정부에서 생성된 행동에 대한 기본적인 행위들을 기술하는 기본 행위 표현 형태(basic action type)와 대체 유닛으로 표현되는 대체 행위 표현 형태(sub action type)를 기술한다. 또한 기본적인 행위 표현 수단으로서의 대표적인 행위 유닛을 기술한다. The meta information expression unit 420 (520; 620) describes meta information about the behavior unit information to be selected by the emotion
또한 메타정보 표현부(420; 520; 620)는 감성 표현 처리부(140)에서 로봇 제 어를 하기 위해 필요한 부분만을 분석하여 해당 행위 유닛에 적합한지를 판단하기 위한 모델을 제공한다. In addition, the meta-information expression unit 420 (520; 620) provides a model for determining whether the emotional
감성 표현부(430; 530; 630)는 감성 생성부(110)에서 생성된 감성 및 행동 결정부(120)에서 생성된 행동에 대한 행위 표현 모델을 제공한다. 감성 표현부(430; 530; 630)는 주 감성 표현부(431; 531; 631), 감성 정도 표현부(432; 533, 537; 633, 637), 복합 감성 표현부(433; 535; 636) 및 감성 행위 표현부(434; 540; 635, 639)로 구성된다. The emotion expression unit 430 (530; 630) provides a behavior expression model for the emotion generated by the
주 감성 표현부(431; 531; 631)는 감성 생성부(110)에서 생성된 감성의 개수가 한 개일 경우 이를 대표 감성으로 정의하고 기술한다. 감성 정도 표현부(432; 533, 537; 633, 637)는 생성된 감성의 밀도를 수치적으로 기술한다. 예를 들면, 감성의 개수가 하나 밖에 없는 경우에는 주 감성이 전체 수치 "100"을 모두 차지하지만, 복합 감성이 발생하는 경우는 적절한 배분을 통해 가장 큰 감성 밀도를 가지는 감성이 주 감성으로 분배되고 나머지 복합 감성들이 나머지 감성 밀도 수치를 나누어 가질 것이다. The main
복합 감성 표현부(433; 535; 636)는 감성 생성부(110)에서 하나 이상의 감성이 생성되었을 경우, 이를 모두 표현하기 위한 모델을 제공한다. 즉, 복합적인 감성이 생성되는 경우, 예를 들면 '놀람'과 '기쁨'이 동시에 발생하는 경우가 있을 것이다. 위와 같이 좀더 다양한 감성을 동시에 표현할 수 있는 모델이 제공됨으로써 여러 개의 감성을 좀더 용이하게 표현할 수 있게 되었다. 또한 감성 로봇 플랫폼에서 지원 가능한 여러 가지 행위 표현 수단을 이용하여 서로 다르게 표현될 수 있게 된다. The complex
감성 행위 표현부(434; 540; 635, 639)는 감성을 표현하기 위해 필요한 수단인 행위 유닛에 대한 표현 모델을 제공한다. The emotional behavior expression unit 434 (540; 635, 639) provides an expression model for the behavior unit, which is a means necessary for expressing emotion.
기본 행위 유닛 표현부(437; 541)에서는 로봇 플랫폼에서 생성된 감성에 대해 행하는 기본 동작을 기술하게 된다. The basic behavior
행위 유닛 상태 정보 표현부(438; 543)는 행위 유닛에 대한 현재의 상태 정보를 기술하기 위한 표현 모델로써, 행위 유닛의 현재 상태 정보를 파악함으로써 감성에 대한 행위 표현을 정확하게 할 수 있고, 오류를 최대한 줄일 수 있을 것이다. 이는 유닛의 상태 정보를 알지 못한 상태에서 제어 명령이 수행되는 경우 발생할 수 있는 과부하를 미연에 방지할 수 있게 하는 효과도 거둘 수 있다. The action unit state
대체 행위 유닛 표현부(439; 545)는 행동 결정부(120)에서 생성된 행동을 기준으로 생성된 행위 유닛이 감성 로봇 플랫폼에 존재하지 않을 때 대체 수단으로서의 사용 가능한 유닛 정보를 기술하는 표현 모델을 제공한다. 다시 말하면, 서로 다른 로봇 플램폼을 가지는 경우 행위 유닛이 일치하지 않는 경우가 다반사일 것이다. 이러한 경우 상기한 대체 행위 유닛 표현부가 존재하지 않으면 생성된 감성에 대해 이종의 플랫폼에서 적절한 행위 표현이 제공될 수 없을 것이다. 이러한 측면에서 대체 행위 유닛 표현부(439; 545)는 이종의 플랫폼 간에 행위 표현의 유연성을 높여 준다. The alternative behavior
도 6에서는 상기한 기본 행위 유닛 표현부, 행위 유닛 상태 정보 표현부 및 대체 행위 유닛 표현부가 표시되어 있지 않지만 상기한 세 개의 표현부는 감성 행 위 표현부(635, 639)에 내포되어 있는 형태로 기술될 수 있다. In FIG. 6, the above-described basic action unit expression unit, the action unit state information expression unit, and the alternate action unit expression unit are not displayed, but the above three expression units are described in the form included in the emotion
도 4 내지 도 6의 감성 표현 명령서의 특징, 즉, 본 발명에 따라 제공되는 각기 다른 감성 표현 모델을 이하에서 기술하도록 한다. The characteristics of the emotional expression instruction manual of FIGS. 4 to 6, that is, different emotional expression models provided according to the present invention will be described below.
도 4와 도 6의 감성 표현 명령서(410; 610)에서 감성 행위 표현부(434; 635, 639)가 감성 표현부(430; 630)에 통합된 형태로 구성되는데 반해 도 5의 감성 표현 명령서(510)에서는 감성 표현부(530)와 감성 행위 표현부(540)가 완전히 분리되어 독립적으로 표현될 수 있는 구조를 가진다. In the emotional expression command 410 (610) of FIG. 4 and FIG. 6, the emotional behavior expression unit (434; 635, 639) is integrated into the emotional expression unit (430; 630). In 510, the emotion expression unit 530 and the emotion behavior expression unit 540 are completely separated and have a structure that can be independently expressed.
즉, 도 5에서의 감성 표현 명령서(510)는 감성 표현부와 감성 행위 표현부를 연결하기 위하여 각각의 주 감성 및 복합 감성에 대한 고유 식별자 ID를 부여하여 해당 ID에 맵핑되는 ID 참조자(ID Reference)를 정의하여 감성 행위 표현부(540)를 기술하는 구조이다. That is, the emotion expression command 510 in FIG. 5 assigns a unique identifier ID for each main emotion and a complex emotion to connect the emotion expression unit and the emotion behavior expression unit, and maps the ID to the corresponding ID. ) To describe the emotional behavior expression unit 540.
이에 반해 도 4와 도 6에서는 전술한 바와 같이 감성 행위 표현부(434; 635, 639)가 감성 표현부(430; 630)에 내포시키는 방법으로 각 주 감성(431; 631) 및 복합 감성 표현부(433; 636) 내에 감성 행위 표현부를 배치하는 구조이다. 다시말하면, 하나의 감성에 대하여 감성 행위 표현부(434; 635, 639)를 내포하여 표현하는 구조이다. In contrast, in FIG. 4 and FIG. 6, as described above, each of the
도 4에서 감성 표현부(430)에서 정의한 감성 정도 표현부(432)는 주 감성 표현부(431)와 복합 감성 표현부(433)의 감성 개수 만큼 고유한 식별자를 생성하여 구별한다. In FIG. 4, the emotion
이러한 감성 행위 표현 명령서는 도 1에서 이미 보인 바와 같이 감성 표현 처리부(140)에서 분석되어 감성 표현 처리부(140)에서 로봇 제어부(150)로 제어 명령을 전달하게 된다. As shown in FIG. 1, the emotional behavior expression command is analyzed by the emotional
도 7a는 본 발명에 따라 도 1의 감성 표현 관리부에서 생성하는 감성 표현 명령에 의한 명령서의 일실시예이다. 도 7a는 XML syntax 기반의 감성 표현 명령서를 나타내고 있다. 또한 이 감성 표현 명령서는 도 6에 나타난 감성 표현 명령서 모델을 기반으로 하여 작성되었다.FIG. 7A is an embodiment of a command form by an emotional expression command generated by the emotional expression management unit of FIG. 1 according to the present invention. 7A illustrates an emotional expression command document based on XML syntax. In addition, this emotional expression command was written based on the emotional expression command model shown in FIG. 6.
일단, 감성 표현 명령서(700)는 메타 감성 표현부(710)를 포함한다. 현재의 일실시예에 의한 메타 정보를 분석하면, 감성은 "복합(composite)" 감성이 생성되었고, 행위 타입(action type)은 "기본(basic)"이며 구동하여야 할 유닛 부위는 "눈(eye)"임을 알 수 있다. First, the
감성 표현부(720)에 해당하는 부분은 <Type> </Type>에 의해 크게 주 감성 표현부와 두 개의 복합 감성 표현부로 나누어지고 있음을 알 수 있다. 주 감성부에서는 주 감성이 "놀람"으로 설정되었고, 그 감성 밀도는 "70"이고 첫번째 복합 감성부에서 표현하는 감성은 "기쁨" 및 감성 밀도 "20," 두번째 복합 감성부에서 표현하는 감성은 "슬픔" 및 감성 밀도 "10"을 갖는다. It can be seen that the part corresponding to the
감성 행위 표현부(722, 724)에 해당하는 부분은 <Behavior> </Behavior>로 구분되고 있다. 또한 기본 행위 유닛 정보와 행위 유닛 상태 정보 표현 및 대체 유닛 정보 표현이 각각의 감성 행위 표현부(722, 724)에서 어떤 행위를 취할 지를 기술하게 된다. Parts corresponding to the emotional
도 7b는 본 발명에 따라 도 1의 감성 표현 관리부에서 생성하는 감성 표현 명령에 의한 명령서의 일실시예로서 참조자를 사용한 일실시예이다. FIG. 7B illustrates an embodiment using a referrer as an embodiment of a command by an emotion expression command generated by the emotion expression management unit of FIG. 1 according to the present invention.
좀더 상세하게는 도 5에서 제시된 감성 표현 명령서(510) 모델을 기반으로 작성된 일실시예이다. In more detail, it is an embodiment written based on the emotional expression command book 510 model shown in FIG. 5.
일단, 감성 표현 명령서(750)는 메타 감성 표현부(760)를 포함한다. 현재의 일실시예에 의한 메타 정보를 분석하면, 감성은 "주(main)" 감성이 생성되었고, 행위 타입(action type)은 "기본(basic)"이며 구동하여야 할 유닛 부위는 "눈(eye)"임을 알 수 있다. First, the
감성 표현부(770)에 해당하는 부분은 <Type> </Type>에 의해 크게 주 감성 표현부와 두 개의 복합 감성 표현부로 나누어지고 있음을 알 수 있다. 주 감성부에서는 주 감성이 "놀람"으로 설정되었고, 그 감성 레벨은 "70"이고 첫번째 복합 감성부에서 표현하는 감성은 "기쁨" 및 감성 레벌 "20," 두번째 복합 감성부에서 표현하는 감성은 "슬픔" 및 감성 레벌 "10"을 갖는다. 이 명령서에서는 앞선 도 7a의 "intensity(밀도)"를 "level(레벨)"이라는 표시자가 대체하고 있으나, 실시예에 따라 적절한 표시자를 사용하여 명령서를 표시할 수 있을 것이다. It can be seen that the part corresponding to the
앞선 도 7a와 다른 점은 감성이 설정되는 것과 함께 각각의 감성에 대해 id가 다르게 부여된다. 즉, 주 감성에 대해서 id = id1, 첫번째 복합 감성에 대해서 id = id2, 두번째 복합감성에 대해서 id = id3가 부여된다. In contrast to FIG. 7A, the emotion is set and the id is given differently for each emotion. That is, id = id1 for the main emotion, id = id2 for the first compound emotion, and id = id3 for the second compound emotion.
이렇게 참조할 수 있는 id를 부여하는 이유는 도 7b의 명령서 모델이 감성 표현부(770)와 감성 행위 표현부(780)가 구별되어 있기 때문이다. 감성 행위 표현부(780)에서 행위를 표현하기 위해 어떤 감성을 표현할 것인지의 판단은 결국 <Behavior idref = "id1">과 같이 표현된 참조에 의해 이루어진다. idref = "id1" 임을 통해 표현해야 될 감성이 "놀람"임을 인식하고 다른 복합 감성과 구별할 수 있게 된다. The reason for assigning the id that can be referred to in this way is that the
도 8은 본 발명에 따른 로봇의 감성 표현을 위한 방법을 흐름도로 나타낸 것이다. 8 is a flowchart illustrating a method for emotional expression of a robot according to the present invention.
우선 S801 단계에서는 내부 또는 외부 센서 정보를 수집하고 특징 정보를 생성하게 된다. 그 다음 단계(S803)에서는 상기의 정보를 토대로 감성을 생성하게 된다. 이 때 생성된 감성이 1개이면 S809 단계에서 감성 표현 명령의 주 감성 표현부에 기본 감성을 추가하게 되고 그렇지 않고 생성된 감성이 2개 이상이 되면 S807과 같이 복합 감성 표현부에 감성을 추가하게 된다. First, in step S801, internal or external sensor information is collected and feature information is generated. In the next step S803, the emotion is generated based on the above information. In this case, if the generated emotion is one, the basic emotion is added to the main emotional expression part of the emotion expression command in step S809. Otherwise, if two or more generated emotions are added, the emotion is added to the complex emotion expression part as in S807. do.
위와 같이 주 감성 표현부와 복합 감성 표현부에 감성이 추가되면 각각의 감성들에 대한 감성 밀도 레벨 값을 추가(S811)하게 된다. 이 때 주 감성이라는 하나의 감성 만이 생성되면 감성 밀도 전체 값이 이 주 감성에 할당되는데 반해, 복합 감성이 생성되면 적절히 감성 밀도 값이 분배된다. When emotions are added to the main emotion expression unit and the composite emotion expression unit as described above, the emotion density level values for the respective emotions are added (S811). At this time, if only one emotion, the main emotion, is generated, the total value of the emotion density is assigned to the main emotion, whereas when the composite emotion is generated, the emotion density value is appropriately distributed.
S813 단계에서 기본 행위 유닛을 결정하여 감성 표현 명령에 추가하게 된다. 또한 행위 유닛의 현재 상태를 파악하여 이를 역시 감성 표현 명령에 추가(S815)하게 된다. In operation S813, the basic behavior unit is determined and added to the emotional expression command. In addition, it grasps the current state of the action unit and adds it to the emotion expression command (S815).
감성 표현 명령은 S817 단계에서 생성이 완료되고 감성 표현 명령을 처리하는 곳으로 전송이 이루어지고 S819 단계에서 해석이 이루어진다. 이 때 S821 단계에서 감성 표현 명령의 메타 정보가 분석되어 일치하는 행위 유닛이 있는지가 판단 된다. 메타 정보에 포함된 정보가 행위 유닛과 일치하면 상기 감성 표현 명령에 따라 감성 행위를 실행(S823)한다. 만일 일치하는 행위 유닛이 존재하지 않으면 일치하는 행위 유닛이 존재하지 않는다는 메시지(ACK)를 생성한다. 여러 번 반복하여 송신된 ACK 메시지의 개수를 저장하고 전체 행위 유닛 개수와 비교하여 만일 그 수가 일치하는 순간(S827)이 되면 적절한 행위 유닛이 없는 것으로 판단되어 대체 행위 유닛이 추가될 것이다(S829). The emotion expression command is generated in step S817 and is transmitted to the place where the emotion expression command is processed, and interpretation is performed in step S819. At this time, meta information of the emotion expression command is analyzed in step S821 to determine whether there is a matching behavior unit. If the information included in the meta information matches the behavior unit, the emotional behavior is executed according to the emotional expression command (S823). If there is no matching action unit, it generates a message (ACK) that no matching action unit exists. The number of ACK messages transmitted several times is stored and compared with the total number of action units. If the number is the same (S827), it is determined that there is no appropriate action unit and a replacement action unit is added (S829).
이러한 방법에 의해 행위 유닛의 개수에 상관없이 대체 행위 유닛을 선택하는 것이 가능할 것이다. In this way it will be possible to select an alternate action unit regardless of the number of action units.
이상과 같이 본 발명은 양호한 실시예에 근거하여 설명하였지만, 이러한 실시예는 이 발명을 제한하려는 것이 아니라 예시하려는 것이므로, 본 발명이 속하는 기술분야의 숙련자라면 이 발명의 기술사상을 벗어남이 없이 위 실시예에 대한 다양한 변화나 변경 또는 조절이 가능할 것이다. 그러므로, 이 발명의 보호 범위는 첨부된 청구범위에 의해서만 한정될 것이며, 변화예나 변경예 또는 조절예를 모두 포함하는 것으로 해석되어야 할 것이다. As described above, the present invention has been described based on the preferred embodiments, but these embodiments are intended to illustrate the present invention, not to limit the present invention, so that those skilled in the art to which the present invention pertains can practice the above without departing from the technical spirit of the present invention. Various changes, modifications or adjustments to the example will be possible. Therefore, the protection scope of this invention will be limited only by the appended claims, and should be construed as including all changes, modifications or adjustments.
본 발명을 통해 여러가지 다양한 로봇 플랫폼에서 서로 다른 방법을 통하여 생성된 감성 및 행위를 표현할 수 있는 감성 표현 방법 및 장치를 제공하였다. 이를 통해 좀더 다양한 감성 표현이 가능하고 이종 로봇 플랫폼 간에 호환성을 제공하는 것이 가능하게 되었다. The present invention provides a method and apparatus for expressing emotions capable of expressing emotions and actions generated through different methods on various robot platforms. This enables more diverse expressions of emotions and provides compatibility between heterogeneous robotic platforms.
이상 본 발명의 바람직한 실시예에 대해 상세히 기술하였지만, 본 발명이 속 하는 기술분야에 있어서 통상의 지식을 가진 사람이라면, 첨부된 청구 범위에 정의된 본 발명의 사상 및 범위를 벗어나지 않으면서 본 발명의 다양한 변형 또는 변경을 가할 수 있을 것이다. 따라서 본 발명의 차후의 실시예들의 변경은 본 발명의 기술 범위를 벗어날 수 없을 것이다. Although preferred embodiments of the present invention have been described in detail above, those of ordinary skill in the art to which the present invention pertains should understand the present invention without departing from the spirit and scope of the present invention as defined in the appended claims. Various modifications or changes may be made. Accordingly, modifications to subsequent embodiments of the present invention will not depart from the technical scope of the present invention.
Claims (12)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US11/930,659 US20080119959A1 (en) | 2006-11-21 | 2007-10-31 | Expression of emotions in robot |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060115460 | 2006-11-21 | ||
KR20060115460 | 2006-11-21 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20080046074A KR20080046074A (en) | 2008-05-26 |
KR100895296B1 true KR100895296B1 (en) | 2009-05-07 |
Family
ID=39663226
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020070027792A KR100895296B1 (en) | 2006-11-21 | 2007-03-21 | Robot emotion representation |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100895296B1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100893758B1 (en) * | 2007-10-16 | 2009-04-20 | 한국전자통신연구원 | System for expressing emotion of robots and method thereof |
KR101965372B1 (en) * | 2017-06-12 | 2019-04-03 | 주식회사 아카인텔리전스 | Method for determining emotion of a computer |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20060021946A (en) * | 2004-09-06 | 2006-03-09 | 한국과학기술원 | Apparatus and method of emotional expression for a robot |
KR20060026297A (en) * | 2004-09-20 | 2006-03-23 | 한국과학기술원 | Emotion synthesis and management for personal robot |
-
2007
- 2007-03-21 KR KR1020070027792A patent/KR100895296B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20060021946A (en) * | 2004-09-06 | 2006-03-09 | 한국과학기술원 | Apparatus and method of emotional expression for a robot |
KR20060026297A (en) * | 2004-09-20 | 2006-03-23 | 한국과학기술원 | Emotion synthesis and management for personal robot |
Also Published As
Publication number | Publication date |
---|---|
KR20080046074A (en) | 2008-05-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20080119959A1 (en) | Expression of emotions in robot | |
US20100145514A1 (en) | Apparatus and method for controlling multi-robot linked in virtual space | |
CN106794581A (en) | For the system and method for flexible man-machine collaboration | |
EP2933066A1 (en) | Activity monitoring of a robot | |
US11856098B2 (en) | Mobility surrogates | |
US11675360B2 (en) | Information processing apparatus, information processing method, and program | |
KR20110124837A (en) | Service scenario editor of intelligent robot, method thereof, intelligent robot device and service method of intelligent robot | |
KR100895296B1 (en) | Robot emotion representation | |
JP2018149669A (en) | Learning device and learning method | |
CN107273069A (en) | Print system | |
CN111836596A (en) | Surgical robotic system including synchronous and asynchronous networks and method of using same | |
CN106182007A (en) | A kind of card for intelligent robot pauses processing method and processing device | |
KR100893758B1 (en) | System for expressing emotion of robots and method thereof | |
WO2020183543A1 (en) | Work assist system, work assist server, work status determining device, device for workers, and apparatuses to be worked on | |
US20180319014A1 (en) | Robot orchestration architecture | |
KR20090093652A (en) | Method of control robot behavior using robot scripts and its robot | |
JP7439826B2 (en) | Information processing device, information processing method, and program | |
Holthaus et al. | Communicative robot signals: presenting a new typology for human-robot interaction | |
CN108375964A (en) | A kind of dialog mode device management method and device | |
KR20200122834A (en) | Method and apparatus for controlling the movement of real object using an intelligent agent learned in a virtual environment | |
CN106541412B (en) | Switching method, intelligent robot and the device of intelligent robot status mechanism | |
WO2017183524A1 (en) | Response data collection system, customer response system and program | |
CN115657535A (en) | Control system and method for automatic driving and operation execution of agricultural machine | |
JP7414735B2 (en) | Method for controlling multiple robot effectors | |
JP2022087019A (en) | Method and cloud server for controlling robot providing service in connection with service application |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
J201 | Request for trial against refusal decision | ||
B701 | Decision to grant | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20120330 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20130325 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20160330 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20170327 Year of fee payment: 9 |
|
FPAY | Annual fee payment |
Payment date: 20180406 Year of fee payment: 10 |
|
FPAY | Annual fee payment |
Payment date: 20190325 Year of fee payment: 11 |