KR100639068B1 - apparatus and method of emotional expression for a robot - Google Patents

apparatus and method of emotional expression for a robot Download PDF

Info

Publication number
KR100639068B1
KR100639068B1 KR1020040070673A KR20040070673A KR100639068B1 KR 100639068 B1 KR100639068 B1 KR 100639068B1 KR 1020040070673 A KR1020040070673 A KR 1020040070673A KR 20040070673 A KR20040070673 A KR 20040070673A KR 100639068 B1 KR100639068 B1 KR 100639068B1
Authority
KR
South Korea
Prior art keywords
robot
emotion
expression
emotional
facial
Prior art date
Application number
KR1020040070673A
Other languages
Korean (ko)
Other versions
KR20060021946A (en
Inventor
양현승
한태우
노동현
서용호
정일웅
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020040070673A priority Critical patent/KR100639068B1/en
Publication of KR20060021946A publication Critical patent/KR20060021946A/en
Application granted granted Critical
Publication of KR100639068B1 publication Critical patent/KR100639068B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/001Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/0015Face robots, animated artificial faces for imitating human expressions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0006Exoskeletons, i.e. resembling a human figure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls

Abstract

본 발명은 퍼스널 로봇과 사람의 상호작용을 위해 로봇의 감정을 얼굴과 몸체로 표현하도록 하는 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and a method for expressing the emotions of a robot with a face and a body for human interaction with a personal robot.

본 발명에 따른 로봇의 감정표현장치는, 로봇이 표현해야 할 감정이 입력되는 수단과, 상기 로봇이 표현해야 할 감정의 표현행위를 선택하는 감정표현행위관리부와, 상기 감정표현행위관리부의 제어를 받아 상기 로봇이 표현해야 할 감정에 해당하는 얼굴표정의 그래픽을 생성하는 얼굴표정생성기와, 상기 얼굴표정 그래픽을 상기 로봇에 장착된 LCD화면에 표시하는 LCD구동부와, 상기 감정표현행위관리부의 제어를 받아 상기 로봇이 표현해야 할 감정에 해당하는 동작을 생성하는 동작생성기와, 상기 동작을 상기 로봇의 몸체 및/또는 팔에 적용하는 로봇구동수단을 포함한다.The emotion expression apparatus of the robot according to the present invention includes a means for inputting emotions to be expressed by the robot, an emotion expression behavior management unit for selecting an expression of emotions to be expressed by the robot, and a control of the emotion expression behavior management unit. A facial expression generator for generating a facial expression graphic corresponding to an emotion to be expressed by the robot, an LCD driver for displaying the facial expression graphic on an LCD screen mounted on the robot, and control of the emotion expression behavior managing unit. And a motion generator for generating a motion corresponding to the emotion to be expressed by the robot, and a robot driving means for applying the motion to the body and / or arm of the robot.

로봇, 감정, 그래픽, LCD, 동작파라미터, 얼굴표정, 가상근육, 심장Robot, emotion, graphics, LCD, motion parameters, facial expressions, virtual muscle, heart

Description

로봇의 감정표현장치 및 방법 {apparatus and method of emotional expression for a robot}Apparatus and method of emotional expression for a robot}

도 1은 본 발명의 한 실시예에 따른 로봇의 감정표현장치를 도시한 구성 블록도,1 is a block diagram showing an emotion expression apparatus of a robot according to an embodiment of the present invention;

도 2는 로봇의 얼굴 또는 가슴에 장착된 LCD화면의 예시도,Figure 2 is an illustration of the LCD screen mounted on the face or chest of the robot,

도 3은 얼굴표정생성기의 얼굴표정생성방법을 도시한 동작 흐름도,3 is an operation flowchart illustrating a facial expression generating method of the facial expression generator;

도 4는 감정공간(emotional space)에서 만족도와 각성도에 따라 LCD화면에 표시되는 얼굴표정 애니메이션을 도시한 도면,4 is a diagram illustrating facial expression animation displayed on an LCD screen according to satisfaction and arousal degree in an emotional space;

도 5는 본 발명의 감성동작파라미터를 적용하여 동작으로 감정을 표현하는 퍼스널 로봇을 도시한 도면,5 is a diagram illustrating a personal robot expressing emotions in motion by applying the emotional motion parameters of the present invention;

도 6은 감정표현관리기의 감정표현행위 선택방법을 도시한 동작 흐름도이다.6 is a flowchart illustrating a method of selecting an emotion expression behavior of the emotion expression manager.

<도면의 주요 부분에 대한 부호의 간단한 설명>     <Brief description of symbols for the main parts of the drawings>

110; 감정입력수단 120; 거리입력수단110; Emotion input means 120; Distance input means

130; 사용자선호도입력기 140; 감정표현부130; A user preference input 140; Emote

141; 감정표현관리기 142; 얼굴표정생성기141; Emotion expression manager 142; Facial expression generator

143; 동작생성기 150; LCD구동부143; Motion generator 150; LCD driver

160; 몸체구동부 170; 팔구동부160; Body driving unit 170; Arm

본 발명은 로봇의 감정을 표현하는 장치 및 방법에 관한 것으로서, 보다 상세하게는 퍼스널 로봇과 사람의 상호작용을 위해 로봇의 감정을 얼굴과 몸체로 표현하도록 하는 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for expressing emotions of a robot, and more particularly, to an apparatus and method for expressing emotions of a robot in a face and a body for a human interaction with a personal robot.

대부분의 심리상태나 감정표현은 얼굴 표정을 통해서 이루어진다. 이에 따라 현재까지 개발된 로봇의 감정표현에 대한 대부분의 연구들은, 로봇의 심리상태나 감정표현을 사람의 얼굴을 본 따서 만든 기계적 얼굴로 표현하고자 하였다. 대표적인 예로서, 기계적으로 얼굴의 근육을 묘사한 미국 MIT의 kismet와, 실리콘을 사용하여 사람의 피부와 비슷하게 만든 일본 도쿄기술대학의 Roterta와 Saya가 있다. 그러나, 지금까지 개발된 로봇의 기계적 얼굴은 사람과 비슷한 자연스러운 표정을 생성할 수 없으며, 생성된 표정이 사람들에게 거부감을 주기도 하는 등의 문제점이 있다. 게다가 이러한 기술들을 가정용 퍼스널 로봇에 적용하기에는 안정성과 신뢰성이 떨어지고, 가격도 고가인 문제점이 있다. 아울러, 로봇의 감정을 동작으로 표현하고자 하는 기술은 현재까지는 연구된 바가 없다.Most psychological states or emotions are expressed through facial expressions. Accordingly, most of the researches on emotional expression of robots developed to date have attempted to express the psychological state or emotional expression of robots with mechanical faces that are modeled after human faces. Examples include MIT kismet, which mechanically depicts the muscles of the face, and Roterta and Saya, from the Tokyo University of Technology, Japan, using silicone to resemble human skin. However, the mechanical face of the robot developed so far cannot produce a natural facial expression similar to a human, and there is a problem that the generated facial expression also gives people a sense of rejection. In addition, there is a problem that these technologies are not stable and reliable and expensive to apply to home personal robots. In addition, the technology to express the emotion of the robot in motion has not been studied until now.

상기한 종래기술의 문제점을 해결하기 위하여 안출된 본 발명의 목적은, 로봇의 얼굴을 LCD모니터로 구성하고, 로봇의 감정을 이 LCD모니터에 표시되는 얼굴표정을 통해 표현하는 장치 및 방법을 제공하기 위한 것이다. 또한, 본 발명의 다 른 목적은, 로봇의 감정을 로봇의 몸체 또는 양팔의 동작을 통해 표현하는 장치 및 방법을 제공하기 위한 것이다.SUMMARY OF THE INVENTION An object of the present invention devised to solve the problems of the prior art is to provide an apparatus and method for configuring a robot's face as an LCD monitor and expressing the emotion of the robot through facial expressions displayed on the LCD monitor. It is for. In addition, another object of the present invention is to provide an apparatus and method for expressing the emotion of the robot through the operation of the body or both arms of the robot.

상기한 목적을 달성하기 위한 본 발명에 따른 로봇의 감정표현장치는, 로봇이 표현해야 할 감정이 입력되는 수단과, 상기 로봇이 표현해야 할 감정에 해당하는 얼굴표정의 그래픽을 생성하는 얼굴표정생성기와, 상기 얼굴표정 그래픽을 상기 로봇에 장착된 LCD화면에 표시하는 LCD구동부를 포함하는 것을 특징으로 한다.The emotion expression apparatus of the robot according to the present invention for achieving the above object, the facial expression generator for generating a graphic of the facial expression corresponding to the emotion to be expressed by the robot and the means to be expressed by the robot And an LCD driver for displaying the facial expression graphic on the LCD screen mounted on the robot.

또한, 본 발명에 따른 로봇의 감정표현장치는, 로봇이 표현해야 할 감정이 입력되는 수단과, 상기 로봇이 표현해야 할 감정에 해당하는 동작을 생성하는 동작생성기와, 상기 동작을 상기 로봇의 몸체 및/또는 팔에 적용하는 로봇구동수단을 포함한 것을 특징으로 한다.In addition, the emotion expression apparatus of the robot according to the present invention, a means for inputting the emotion to be expressed by the robot, a motion generator for generating a motion corresponding to the emotion to be expressed by the robot, and the motion to the body of the robot And / or robot driving means applied to the arm.

또한, 본 발명에 따른 로봇의 감정표현장치는, 로봇이 표현해야 할 감정이 입력되는 수단과, 상기 로봇이 표현해야 할 감정의 표현행위를 선택하는 감정표현행위관리부와, 상기 감정표현행위관리부의 제어를 받아 상기 로봇이 표현해야 할 감정에 해당하는 얼굴표정의 그래픽을 생성하는 얼굴표정생성기와, 상기 얼굴표정 그래픽을 상기 로봇에 장착된 LCD화면에 표시하는 LCD구동부와, 상기 감정표현행위관리부의 제어를 받아 상기 로봇이 표현해야 할 감정에 해당하는 동작을 생성하는 동작생성기와, 상기 동작을 상기 로봇의 몸체 및/또는 팔에 적용하는 로봇구동수단을 포함한 것을 특징으로 한다.In addition, the emotion expression apparatus of the robot according to the present invention, the emotion expression behavior management unit for selecting the means to input the emotion to be expressed by the robot, the emotion expression to be expressed by the robot, and the emotion expression behavior management unit A facial expression generator for generating a facial expression graphic corresponding to the emotion to be expressed by the robot under control, an LCD driver for displaying the facial expression graphic on an LCD screen mounted on the robot, and the emotion expression behavior managing unit And a motion generator for generating a motion corresponding to the emotion to be expressed by the robot under control, and a robot driving means for applying the motion to the body and / or arm of the robot.

또한, 본 발명에 따른 로봇의 감정표현방법은, 로봇이 표현해야 할 감정이 입력되는 단계와, 상기 로봇이 표현해야 할 감정에 해당하는 얼굴표정의 그래픽을 생성하는 얼굴표정생성단계와, 상기 얼굴표정 그래픽을 상기 로봇에 장착된 LCD화면에 표시하는 LCD구동단계를 포함하는 것을 특징으로 한다.In addition, the emotion expression method of the robot according to the present invention, a step of inputting the emotion to be expressed by the robot, a facial expression generation step of generating a graphic of the facial expression corresponding to the emotion to be expressed by the robot, and the face And an LCD driving step of displaying an expression graphic on the LCD screen mounted on the robot.

또한, 본 발명에 따른 로봇의 감정표현방법은, 로봇이 표현해야 할 감정이 입력되는 단계와, 상기 로봇이 표현해야 할 감정에 해당하는 동작을 생성하는 동작생성단계와, 상기 동작을 상기 로봇의 몸체 및/또는 팔에 적용하는 로봇구동단계를 포함한 것을 특징으로 한다.In addition, the emotion expression method of the robot according to the present invention, a step of inputting the emotion to be expressed by the robot, an operation generation step of generating a motion corresponding to the emotion to be expressed by the robot, and the operation of the robot Characterized in that it comprises a robot driving step applied to the body and / or arm.

또한, 본 발명에 따른 로봇의 감정표현방법은, 로봇이 표현해야 할 감정이 입력되는 단계와, 상기 로봇이 표현해야 할 감정의 표현행위를 선택하는 감정표현행위선택단계와, 상기 감정표현행위선택단계에서 그래픽 표현행위가 선택되면 상기 로봇이 표현해야 할 감정에 해당하는 얼굴표정의 그래픽을 생성하는 얼굴표정생성단계와, 상기 얼굴표정의 그래픽을 상기 로봇에 장착된 LCD화면에 표시하는 LCD구동단계와, 상기 감정표현행위선택단계에서 동작 표현행위가 선택되면 상기 로봇이 표현해야 할 감정에 해당하는 동작을 생성하는 동작생성단계와, 상기 동작을 상기 로봇의 몸체 및/또는 팔에 적용하는 로봇구동단계를 포함한 것을 특징으로 한다.In addition, the emotion expression method of the robot according to the present invention, the emotion input to express the robot, the emotion expression behavior selection step of selecting the expression of the emotion to be expressed by the robot, and the emotion expression behavior selection When the graphic expression behavior is selected in the step, the facial expression generation step of generating a graphic of the facial expression corresponding to the emotion to be expressed by the robot, and the LCD driving step of displaying the graphic of the facial expression on the LCD screen mounted on the robot And a motion generation step of generating a motion corresponding to the emotion to be expressed by the robot when the motion expression behavior is selected in the emotion expression behavior selection step, and a robot driving to apply the motion to the body and / or arm of the robot. Characterized in that it comprises a step.

이하, 첨부된 도면을 참조하며 본 발명의 한 실시예에 따른 로봇의 감정표현장치 및 방법을 설명하면 다음과 같다.Hereinafter, the emotion expression apparatus and method of a robot according to an embodiment of the present invention will be described with reference to the accompanying drawings.

도 1은 본 발명의 한 실시예에 따른 로봇의 감정표현장치를 도시한 구성 블록도이다. 본 발명에 따른 로봇의 감정표현장치는 감정입력수단(110)과 거리입력수단(120)과, 사용자선호도입력기(130), 감정표현부(140)와, LCD구동부(150)와, 몸 체구동부(160)와, 팔구동부(170)를 포함한다.1 is a block diagram showing an emotion expression apparatus of a robot according to an embodiment of the present invention. The emotion expression apparatus of the robot according to the present invention includes an emotion input unit 110, a distance input unit 120, a user preference input unit 130, an emotion expression unit 140, an LCD driver 150, and a body driver. 160 and an arm drive unit 170.

감정입력수단(110)은 로봇이 자체적으로 스스로의 감정을 입력할 수도 있고, 외부에 의해 입력될 수도 있다. 거리입력수단(120)은 사용자와의 거리를 감지하여 감정표현부(140)에게 제공한다. 또한, 사용자선호도입력기(130)는 로봇이 표현한 감정표현방법에 대한 사용자의 선호도를 입력받아 감정표현부(140)에게 제공한다.The emotion input unit 110 may enter its own emotion by the robot itself, or may be input by the outside. The distance input unit 120 detects the distance to the user and provides the emotion expression unit 140. In addition, the user preference input unit 130 receives the user's preference for the emotion expression method represented by the robot and provides it to the emotion expression unit 140.

감정표현부(140)는 감정에 따른 표현방식을 선택하는 감정표현관리기(141)와, 감정표현관리기(141)의 제어를 받아 로봇의 감정을 그래픽을 통해 표현하기 위한 얼굴표정생성기(142)와, 감정표현관리기(141)의 제어를 받아 로봇의 감정을 동작을 통해 표현하기 위한 동작생성기(143)를 포함한다.The emotion expression unit 140 includes an emotion expression manager 141 for selecting an expression method according to the emotion, a facial expression generator 142 for expressing the emotion of the robot through the graphic under the control of the emotion expression manager 141, and Under the control of the emotion expression manager 141, the motion generator 143 for expressing the emotion of the robot through the operation.

얼굴표정생성기(142)는 도 2에 도시된 바와 같이 로봇의 얼굴 또는 가슴에 장착된 LCD화면(181)으로 그래픽을 통한 감정표현을 위해 얼굴 3차원 모델을 만든다. 이 얼굴 3차원 모델은 두 눈과 입, 심장, 3차원 공간, 보이지 않는 얼굴형상, 가상의 얼굴근육으로 이루어지며, 이 얼굴표정생성기(142)는 얼굴 3차원 모델에서 가상의 얼굴근육을 조절하여 얼굴 표정을 생성한다.As shown in FIG. 2, the facial expression generator 142 uses the LCD screen 181 mounted on the face or chest of the robot to create a three-dimensional face model for expressing emotions through graphics. This facial three-dimensional model is composed of two eyes and mouth, heart, three-dimensional space, invisible face shape, virtual facial muscles, the facial expression generator 142 controls the virtual facial muscles in the facial three-dimensional model Generate facial expressions.

동작생성기(143)는 동작을 조절하기 위한 8개의 파라미터를 설정하고, 각 파라미터를 조절하여 로봇의 동작을 제어한다. 감정표현관리기(141)는 감정에 따른 적절한 감정표현행위를 선택하는데, 각 행위의 확률적 모델에 따라서 적절한 표현행위를 선택하는데, 이 확률적 모델은 사용자의 선호도에 따라 조절한다.The motion generator 143 sets eight parameters for adjusting the motion, and controls the motion of the robot by adjusting each parameter. The emotion expression manager 141 selects an appropriate emotional expression behavior according to the emotion, and selects an appropriate expression behavior according to the probabilistic model of each behavior, which is adjusted according to the user's preference.

얼굴표정생성기(142)에서 설정된 얼굴표정은 LCD구동부(150)에게 전달되며, 이 LCD구동부(150)는 LCD화면(181)에 감정에 따른 얼굴표정을 표시한다. 동작생성 기(143)에서 생성된 로봇 몸체의 동작은 몸체 구동부(160)에게 전달되어 몸체가 움직이며, 동작생성기(143)에서 생성된 로봇 팔의 동작은 팔 구동부(170)에게 전달되어 팔이 움직인다.The facial expression set in the facial expression generator 142 is transferred to the LCD driver 150, and the LCD driver 150 displays the facial expression according to the emotion on the LCD screen 181. The motion of the robot body generated by the motion generator 143 is transmitted to the body drive unit 160 to move the body, the motion of the robot arm generated from the motion generator 143 is transmitted to the arm drive unit 170 to the arm Move.

도 3은 얼굴표정생성기(142)의 얼굴표정생성방법을 도시한 동작 흐름도이다.3 is an operation flowchart illustrating a facial expression generating method of the facial expression generator 142.

퍼스널 로봇이 인간과 함께 생활하면서 자신의 의도나 감정 상태를 자연스럽게 표출할 수 있는 확실한 방법으로 얼굴표정이 있다. 하지만, 아직까지는 얼굴표정을 생성하기 위하여 하드웨어로 구현된 얼굴형상에 감정에 따른 표정을 표현하기는 매우 곤란하다.Facial expression is a sure way for personal robots to express their intentions and emotions naturally while living with humans. However, it is still very difficult to express facial expressions according to emotions on the face shape implemented by hardware in order to generate facial expressions.

본 발명에서는 퍼스널 로봇의 얼굴 또는 가슴에 LCD 화면(181)을 장착하고, 이 LCD 화면에 얼굴표정을 그래픽으로 표현한다. 이와 같이 LCD 화면에 얼굴표정을 그래픽으로 표현하면 로봇의 감정을 자연스럽게 전달할 수 있으며, 안전하고 고장 등으로부터 자유로운 잇점이 있다.In the present invention, the LCD screen 181 is mounted on the face or chest of the personal robot, and the facial expression is graphically represented on the LCD screen. In this way, expressing the facial expressions graphically on the LCD screen can naturally convey the emotions of the robot, and has the advantages of being safe and free from failure.

얼굴표정생성기(142)는 두 눈과 입, 심장, 3차원 공간, 가상의 근육으로 구성된 얼굴 3차원 모델을 생성한다. 두 눈과 입은 웃고, 울고, 화를 내고, 놀라는 감정상태를 그 강도에 따라 나타내고, 심장은 두 눈과 입으로 표시되는 감정의 강도를 보완하여, 감정의 전달이 좀 더 효과적으로 이루어지도록 한다.The facial expression generator 142 generates a facial three-dimensional model composed of two eyes, a mouth, a heart, three-dimensional space, and virtual muscle. The eyes and mouth show the emotional state of laughter, crying, anger, and amazement according to their intensity, and the heart compensates for the intensity of the emotions represented by both eyes and mouth, making the transfer of emotion more effective.

얼굴표정과 관련된 애니메이션은 주로 가상의 근육에 의해 이루어진다. Ekman이 정의한 6개의 표정과 그에 따른 얼굴 각 부분의 움직임을 바탕으로 근육의 움직임을 조절한다. 예를 들어, 기쁠 때에는 뺨 주위에 있는 근육이 입의 가장자리를 잡아 당겨서 입의 가장자리가 위로 올라가게 된다. 실제 얼굴에 있는 근육들 은 대부분 뼈와 피부 사이 또는 피부와 피부 사이에 개재되어 있다. 이런 얼굴 근육을 안면근이라고 하는데, 이 안면근은 20여종의 작은 피근(cutaneous muscle)으로 이루어진다. 안면근이 얼굴 피부와 피부 밑의 섬유조직을 이동시켜서 얼굴의 특유한 표정을 생성한다. 본 발명에서는 가상의 콘 형태의 근육을 사용하여 눈과 입의 움직임을 생성한다. 이러한 얼굴표정을 생성하기 위해서 만족도(content)와 각성도(arousal) 파라미터가 필요하다.Animations related to facial expressions are mainly performed by virtual muscles. The muscles are controlled based on six expressions defined by Ekman and the movement of each part of the face. For example, when you're happy, the muscles around your cheeks pull the edges of your mouth so that the edges of your mouth go up. Most muscles in the face are interposed between bone and skin or between skin and skin. These facial muscles are called facial muscles, which are made up of 20 small cutaneous muscles. The facial muscles move the facial skin and the fibrous tissue beneath the skin, creating a unique facial expression. In the present invention, the movement of the eyes and the mouth is generated using the virtual cone-shaped muscle. In order to generate such facial expressions, content and arousal parameters are required.

만족도(content/discontent)값은 기쁨과 슬픔의 감정을 결정하는 파라미터이고, 각성도(arousal/relaxation)값은 공포, 분노, 혐오 등의 감정을 결정하는 파라미터이다.The content / discontent value is a parameter that determines feelings of joy and sadness, and the arousal / relaxation value is a parameter that determines feelings such as fear, anger, and disgust.

본 발명의 얼굴표정생성기는 만족도와 각성도에 따른 얼굴표정을 생성하기 위한 가상근육의 수축/이완 파라미터 정보와, 이 만족도와 각성도를 감정과 강도에 매치시키는 테이블을 저장한다(S31).The facial expression generator of the present invention stores information on contraction / relaxation parameters of the virtual muscle for generating facial expressions according to satisfaction and arousal, and a table matching the satisfaction and arousal with emotion and intensity (S31).

감정표현관리기로부터 표현할 감정이 입력되면(S32), 감정 및 강도를 만족도와 각성도로 변환한다(S33). 그리고, 그 만족도와 각성도를 내부감성함수에 적용하여 가상근육을 수축/이완 파라미터로 변환한다(S34). 다음, 가상근육의 수축/이완 파라미터와 보통상태 파라미터를 보간하여 얼굴표정을 애니메이션한다(S35).When an emotion to be expressed is input from the emotion expression manager (S32), the emotion and intensity are converted into satisfaction and arousal (S33). Then, the satisfaction and the arousal degree are applied to the internal sensitivity function to convert the virtual muscle into a contraction / relaxation parameter (S34). Next, the facial expression is animated by interpolating the contraction / relaxation parameters and the normal state parameters of the virtual muscle (S35).

도 4는 감정공간(emotional space)에서 만족도와 각성도에 따라 LCD화면에 표시되는 얼굴표정 애니메이션을 도시한 도면으로서, 만족도와 각성도가 모두 0이면 보통 상태를 표시한다. 각성도가 0인 상태에서 만족도가 플러스(+)이면 기쁨 상태를, 만족도가 마이너스(-)이면 슬픔 상태를 표시한다. 만족도가 마이너스(-) 인 상태에서 각성도의 크고 작음에 따라 분노 또는 공포 상태를 표시한다.FIG. 4 is a diagram illustrating a facial expression animation displayed on an LCD screen according to satisfaction and arousal degree in an emotional space, and when both satisfaction and arousal are 0, a normal state is displayed. In the state where the arousal degree is 0, the satisfaction state is positive (+), and the satisfaction state is negative (-). The state of anger or fear is indicated as the degree of arousal is large and small while the satisfaction is negative.

인간은 얼굴표정 이외에도 다른 사람이나 물체의 움직임을 통해 감정적인 단서를 얻는 경향이 있다. 또한, 인간은 그러한 감정적인 단서를 얻게 되면, 의식적이든지 무의식적이든지 대상의 내부 심리상태나 자신에 대한 태도를 예측한다. 또한 인간은 동물이나 기계나 사물 같은 것에 인격을 부여하려는 경향이 있다. 예컨대, 시추라는 애완견은 성격이 활발하고 익살맞으며 애교가 많다고 하고, 큰 움직임을 보이는 건설장비는 웅장하며 남자답다고 한다. 또한, 가을에 하늘거리는 코스모스는 내성적이며 부끄러움을 많이 타는 여성과 같다고 한다. 결과적으로 인간과 가깝게 생활하는 퍼스널 로봇의 움직임은 인간에게 감성적으로 강한 영향을 준다.In addition to facial expressions, humans tend to gain emotional clues through the movement of other people or objects. Also, when humans get such emotional clues, they predict their internal psychological state or attitude toward themselves, whether consciously or unconsciously. Humans also tend to personalize things like animals, machines, and things. For example, Shih Tzu's dog is said to be active, humorous, and lovable, and the construction equipment that shows great movement is grand and manly. In addition, the squishy cosmos in autumn is said to be like a woman who is shy and shy. As a result, the movement of personal robots living close to humans has a strong emotional impact on humans.

본 발명의 동작생성기(143)는 퍼스널 로봇의 감정상태를 몸체 또는 팔의 움직으로 표현하는데, 이를 위해, 표 1과 같은 퍼스널 로봇의 감성동작파라미터를 설정한다.The motion generator 143 of the present invention expresses the emotional state of the personal robot by the movement of the body or the arm. For this purpose, the emotional motion parameters of the personal robot are set as shown in Table 1 below.

Figure 112004040155643-pat00001
Figure 112004040155643-pat00001

여기서, 팔의 높이는 어깨를 기준으로 중간, 위, 아래로 구분될 수 있다.Here, the height of the arm may be divided into the middle, up and down on the basis of the shoulder.

동작생성기(143)가 감정표현을 위한 동작을 생성할 때, 감성의 강도(강한 슬픔/약한 슬픔)와 자연스러운 동작표현을 위해 파라미터값이 조절될 수 있다.When the motion generator 143 generates a motion for expressing emotion, parameter values may be adjusted for strength of emotion (strong sadness / weak sadness) and natural motion expression.

도 5는 본 발명의 감성동작파라미터를 적용하여 동작으로 감정을 표현하는 퍼스널 로봇을 도시한 도면이다.FIG. 5 is a diagram illustrating a personal robot expressing emotions in motion by applying the emotional motion parameters of the present invention.

도 6은 감정표현관리기(141)의 감정표현행위 선택방법을 도시한 동작 흐름도이다.6 is a flowchart illustrating a method of selecting an emotion expression behavior of the emotion expression manager 141.

임의의 감정을 표현하는 방법이 여러가지 인 경우, 감정표현관리기(141)는 해당 감정을 표현하는 각 행위의 발생확률을 계산하고, 그 발생확률에 따라 해당 감정의 표현행위를 선택한다. 감정표현관리기(141)는 사용자선호도입력기(130)로부터 임의의 감정표현행위에 대한 사용자 선호도를 감지하여, 사용자가 좋아하는 감정표현행위의 발생확률은 증가시키고 사용자가 싫어하는 감정표현행위의 발생확률은 감소시킨다. 사용자선호도입력기(130)는 사용자의 표정을 인식하여 사용자의 반응을 감지하거나, 사용자로부터 직접 입력받는다.When there are various ways to express a certain emotion, the emotion expression manager 141 calculates a probability of occurrence of each action expressing the emotion, and selects the expression behavior of the emotion according to the probability of occurrence. The emotion expression manager 141 detects a user's preference for any emotion expression behavior from the user preference inputter 130, thereby increasing the probability of occurrence of the emotion expression behavior that the user likes and the probability of occurrence of the emotion expression behavior that the user dislikes. Decrease. The user preference input unit 130 detects the user's response by recognizing the facial expression of the user, or receives the input directly from the user.

이를 위해 감정표현관리기(141)는 강화학습을 사용한다.To this end, the emotion expression manager 141 uses reinforcement learning.

감정표현관리기(141)는 각 감정에 대해 모든 감정표현행위의 발생확률을 아래의 수학식 1을 이용하여 계산한다(S61).The emotion expression manager 141 calculates a probability of occurrence of all emotion expression behaviors for each emotion by using Equation 1 below (S61).

Figure 112004040155643-pat00002
Figure 112004040155643-pat00002

여기서, s는 임의의 감정이고, a는 감정 s의 임의의 감정표현행위이며, P(s,a)는 감정 s에 대해 감정표현행위 a가 수행될 발생확률이다. 또한, As는 감정 s에 대한 감정표현행위의 집합이고, t는 초기에는 매우 큰 값을 가지지만 시간이 경과될수록 작아져서 1로 수렴하는 변수이다. Quality(s,a)는 감정 s의 감정표현행위 a에 대한 사용자 선호도이다.Where s is any emotion, a is any emotional expression of emotion s, and P (s, a) is the probability of occurrence of emotional expression a for emotion s. In addition, A s is a set of emotional expression behaviors for emotion s, and t is a variable that initially has a very large value but decreases with time and converges to one. Quality (s, a) is the user's preference for emotional expression behavior a of emotion s.

표현할 감정이 입력되면(S62), 해당 감정의 발생확률에 따라 표현할 감정표현행위를 선택하고(S63), 선택된 감정표현행위를 실행하기 위하여 얼굴표정생성기 또는 동작생성기를 제어한다(S64).When the emotion to be expressed is input (S62), the emotion expression behavior to be expressed is selected according to the probability of occurrence of the emotion (S63), and the facial expression generator or the motion generator is controlled to execute the selected emotion expression behavior (S64).

해당 감정이 표현된 후, 사용자의 반응이 긍정이면(S65) 해당 감정표현행위에 대한 사용자 선호도를 증가시키고(S66), 사용자의 반응이 부정이면(S65) 해당 감정표현행위에 대한 사용자 선호도를 감소시킨다(S67).After the emotion is expressed, if the user's response is positive (S65), increase the user's preference for the emotional expression behavior (S66), and if the user's response is negative (S65), decrease the user's preference for the emotional expression behavior. (S67).

그리고, 단계 S66 내지 단계 S67에서 조절된 해당 감정표현행위에 대한 사용자 선호도를 수학식 1에 적용하여 감정표현행위의 발생확률을 재계산한다(S68).Then, the user's preference for the corresponding emotional expression behavior adjusted in steps S66 to S67 is applied to Equation 1 to recalculate the probability of occurrence of the emotional expression behavior (S68).

수학식 1을 통해 학습 초기에는 임의의 감정 s에 대한 모든 감정표현행위들은 사용자의 반응(선호도)에 큰 영향을 받지 않고 모두 유사한 확률을 가지지만, 사용자와의 상호작용이 지속될수록 긍정적인 반응을 유도하는 감정표현행위의 발생확률이 높아짐을 알 수 있다.Equation 1 shows that in the early stages of learning, all emotion-expressing behaviors for any emotion s have similar probabilities without being significantly influenced by the user's response (preference), but the more positive the interaction with the user is, the more positive the reaction is. It can be seen that the probability of inducing emotional expression behavior increases.

이상에서 본 발명에 대한 기술 사상을 첨부 도면과 함께 서술하였지만, 이는 본 발명의 가장 양호한 일 실시예를 예시적으로 설명한 것이지 본 발명을 한정하는 것은 아니다. 또한, 이 기술 분야의 통상의 지식을 가진 자이면 누구나 본 발명의 기술 사상의 범주를 이탈하지 않는 범위 내에서 다양한 변형 및 모방이 가능함은 명백한 사실이다.Although the technical spirit of the present invention has been described above with reference to the accompanying drawings, it is intended to exemplarily describe the best embodiment of the present invention, but not to limit the present invention. In addition, it is obvious that any person skilled in the art may make various modifications and imitations without departing from the scope of the technical idea of the present invention.

이상과 같이 본 발명에 따르면 퍼스널 로봇이 감정상태를 그래픽 또는 동작으로 표현할 수 있고, 사용자가 선호에 따른 감정표현행위를 선택할 수 있기 때문에, 인간과 더욱 친화적인 퍼스널 로봇을 구현할 수 있는 잇점이 있다. 이로 인해 퍼스널 로봇의 고부가가치화와 퍼스널 로봇 시장의 성장 촉진에 기여할 수 있는 잇점이 있다.
As described above, according to the present invention, since the personal robot can express the emotional state by graphic or motion, and the user can select the emotional expression behavior according to the preference, there is an advantage that the personal robot can be more friendly to humans. This has the advantage of contributing to the high value-adding of personal robots and the growth of the personal robot market.

Claims (16)

로봇이 표현해야 할 감정이 입력되는 수단과;Means for inputting emotions to be expressed by the robot; 상기 로봇이 표현해야 할 감정에 해당하는 감정표현행위들 중 사용자의 반응을 고려한 확률적 모델에 따라 하나의 감정표현행위를 선택하는 감정표현행위관리부와;An emotion expression behavior management unit that selects one emotion expression behavior according to a probabilistic model in consideration of a user's reaction among emotion expression behaviors corresponding to emotions to be expressed by the robot; 두 눈과 입과 가상얼굴근육을 포함한 3차원 얼굴모델을 생성하고, 상기 감정표현행위관리부의 제어를 받아 상기 가상얼굴근육의 움직임을 이용하여 상기 감정표현행위관리부에서 선택된 감정표현행위에 해당하는 얼굴표정 그래픽을 생성하는 얼굴표정생성기와;A three-dimensional face model including two eyes, a mouth, and a virtual facial muscle is generated, and a face corresponding to an emotional expression behavior selected by the emotional expression behavior manager is controlled using the movement of the virtual facial muscle under the control of the emotional expression behavior manager. A facial expression generator for generating facial expression graphics; 상기 얼굴표정 그래픽을 상기 로봇에 장착된 LCD화면에 표시하는 LCD구동부를 포함하는 것을 특징으로 하는 로봇의 감정표현장치.And an LCD driver for displaying the face expression graphic on the LCD screen mounted on the robot. 로봇이 표현해야 할 감정이 입력되는 수단과;Means for inputting emotions to be expressed by the robot; 상기 로봇이 표현해야 할 감정에 해당하는 감정표현행위들 중 사용자의 반응을 고려한 확률적 모델에 따라 하나의 감정표현행위를 선택하는 감정표현행위관리부와;An emotion expression behavior management unit that selects one emotion expression behavior according to a probabilistic model in consideration of a user's reaction among emotion expression behaviors corresponding to emotions to be expressed by the robot; 상기 로봇이 표현해야 할 감정에 따른 몸체 및/또는 팔 동작에 대한 감성동작파라미터를 정의하고, 상기 감정표현행위관리부의 제어를 받아 상기 감성동작파라미터를 이용하여 상기 감정표현행위관리부에서 선택된 감정표현행위에 해당하는 몸체 및/또는 팔 동작을 생성하는 동작생성기와;Define an emotional motion parameter for body and / or arm motion according to the emotion to be expressed by the robot, and under the control of the emotion expressing action manager, use the emotional motion parameter to express the emotion expressive action selected by the emotion expressing action manager. A motion generator for generating a body and / or arm motion corresponding to the motion generator; 상기 동작을 상기 로봇의 몸체 및/또는 팔에 적용하는 로봇구동수단을 포함한 것을 특징으로 하는 로봇의 감정표현장치.Emotional expression apparatus of the robot comprising a robot driving means for applying the operation to the body and / or arm of the robot. 로봇이 표현해야 할 감정이 입력되는 수단과;Means for inputting emotions to be expressed by the robot; 상기 로봇이 표현해야 할 감정에 해당하는 감정표현행위들 중 사용자의 반응을 고려한 확률적 모델에 따라 하나의 감정표현행위를 선택하는 감정표현행위관리부와;An emotion expression behavior management unit that selects one emotion expression behavior according to a probabilistic model in consideration of a user's reaction among emotion expression behaviors corresponding to emotions to be expressed by the robot; 두 눈과 입과 가상얼굴근육을 포함한 3차원 얼굴모델을 생성하고, 상기 감정표현행위관리부의 제어를 받아 상기 가상얼굴근육의 움직임을 이용하여 상기 감정표현행위관리부에서 선택된 감정표현행위에 해당하는 얼굴표정 그래픽을 생성하는 얼굴표정생성기와;A three-dimensional face model including two eyes, a mouth, and a virtual facial muscle is generated, and a face corresponding to an emotional expression behavior selected by the emotional expression behavior manager is controlled using the movement of the virtual facial muscle under the control of the emotional expression behavior manager. A facial expression generator for generating facial expression graphics; 상기 얼굴표정 그래픽을 상기 로봇에 장착된 LCD화면에 표시하는 LCD구동부와;An LCD driver for displaying the facial expression graphic on an LCD screen mounted on the robot; 상기 로봇이 표현해야 할 감정에 따른 몸체 및/또는 팔 동작에 대한 감성동작파라미터를 정의하고, 상기 감정표현행위관리부의 제어를 받아 상기 감성동작파라미터를 이용하여 상기 감정표현행위관리부에서 선택된 감정표현행위에 해당하는 몸체 및/또는 팔 동작을 생성하는 동작생성기와;Define an emotional motion parameter for body and / or arm motion according to the emotion to be expressed by the robot, and under the control of the emotion expressing action manager, use the emotional motion parameter to express the emotion expressive action selected by the emotion expressing action manager. A motion generator for generating a body and / or arm motion corresponding to the motion generator; 상기 동작을 상기 로봇의 몸체 및/또는 팔에 적용하는 로봇구동수단을 포함한 것을 특징으로 하는 로봇의 감정표현장치.Emotional expression apparatus of the robot comprising a robot driving means for applying the operation to the body and / or arm of the robot. 제 1 항 또는 제 3 항에 있어서, 상기 얼굴표정생성기는,According to claim 1 or 3, wherein the facial expression generator, 만족도와 각성도에 따른 얼굴표정을 생성하기 위한 상기 가상얼굴근육의 수축/이완 파라미터 정보와, 상기 만족도와 각성도를 감정과 강도에 매치시키는 테이블을 저장하고,Information about contraction / relaxation parameters of the virtual facial muscles for generating facial expressions according to satisfaction and arousal, and a table matching the satisfaction and arousal with emotion and intensity, 상기 로봇이 표현해야 할 감정 및 상기 감정의 강도를 만족도와 각성도 값으로 변환하고, 상기 변환된 만족도와 각성도 값에 따른 상기 가상얼굴근육의 수축/이완 파라미터를 생성하여, 상기 감정에 따른 얼굴표정을 애니메이션하는 것을 특징으로 하는 로봇의 감정표현장치.The emotion and intensity of the emotion to be expressed by the robot are converted into satisfaction and arousal values, and the contraction / relaxation parameters of the virtual facial muscles are generated according to the converted satisfaction and arousal values to generate a face according to the emotion. Emotional expression device of the robot, characterized in that the animation. 제 4 항에 있어서, 상기 얼굴표정생성기는,The method of claim 4, wherein the facial expression generator, 보통 얼굴표정 상태의 가상얼굴근육 파라미터에 상기 가상얼굴근육의 수축/이완 파라미터를 보간하여 상기 감정에 따른 얼굴표정을 애니메이션하는 것을 특징으로 하는 로봇의 감정표현장치.An emotion expression apparatus for a robot characterized by animate facial expression according to the emotion by interpolating a contraction / relaxation parameter of the virtual facial muscle to a virtual facial muscle parameter in a normal facial expression state. 삭제delete 제 2 항 또는 제 3 항에 있어서, 상기 감성동작파라미터는 로봇 몸체의 평균속도, 로봇 몸체의 속도변화, 로봇 몸체의 이동방향, 로봇 팔의 높이, 로봇 팔의 평균속도, 로봇 팔의 속도변화, 로봇 팔의 관절형태, 로봇 양팔의 대칭성을 포함한 것을 특징으로 하는 로봇의 감정표현장치.According to claim 2 or 3, wherein the emotional motion parameter is the average speed of the robot body, the speed change of the robot body, the movement direction of the robot body, the height of the robot arm, the average speed of the robot arm, the speed change of the robot arm, Emotional expression device of the robot, characterized in that the joint shape of the robot arm, the symmetry of both arms. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서, 상기 감정표현행위관리부는,According to any one of claims 1 to 3, The emotion expression behavior management unit, 상기 로봇이 표현하는 감정의 표현행위별로 아래의 수식을 이용하여 발생확률을 계산하고, 상기 발생확률을 기반으로 상기 감정표현행위를 선택하는 것을 특징으로 하는 로봇의 감정표현장치.The emotion expression apparatus of the robot, characterized in that for calculating the probability of occurrence by the following formula for each expression of the emotion expressed by the robot, and selecting the emotion expression behavior based on the probability of occurrence. <수식><Formula>
Figure 112006045840214-pat00009
Figure 112006045840214-pat00009
여기서, s는 임의의 감정이고, a는 감정 s의 임의의 감정표현행위이고, P(s,a)는 감정 s에 대해 감정표현행위 a가 수행될 발생확률이고, As는 감정 s에 대한 감정표현행위의 집합이고, t는 초기에는 매우 큰 값을 가지지만 시간이 경과될수록 작아져서 1로 수렴하는 변수이고, Quality(s,a)는 감정 s의 감정표현행위 a에 대한 사용자 선호도이다.Where s is any emotion, a is any emotional expression of emotion s, P (s, a) is the probability of occurrence of emotional expression a for emotion s , and A s is for emotion s It is a set of emotional expression behaviors, t is initially a very large value, but becomes smaller as time passes and converges to 1, and Quality (s, a) is user preference for emotional expression behavior a of emotional s.
로봇이 표현해야 할 감정이 입력되는 단계와;Inputting emotions to be expressed by the robot; 상기 로봇이 표현해야 할 감정에 해당하는 감정표현행위들 중 사용자의 반응을 고려한 확률적 모델에 따라 하나의 감정표현행위를 선택하는 감정표현행위관리단계와;An emotion expression behavior management step of selecting one emotion expression behavior according to a probabilistic model in consideration of a user's reaction among emotion expression behaviors corresponding to emotions to be expressed by the robot; 두 눈과 입과 가상얼굴근육을 포함한 3차원 얼굴모델을 생성하고, 상기 가상얼굴근육의 움직임을 이용하여 상기 감정표현행위관리단계에서 선택된 감정표현행위에 해당하는 얼굴표정 그래픽을 생성하는 얼굴표정생성단계와;Facial expression generation that generates a three-dimensional face model including eyes, mouth and virtual facial muscles, and a facial expression graphic corresponding to the emotional expression behavior selected in the emotional expression behavior management step using the movement of the virtual facial muscles. Steps; 상기 얼굴표정 그래픽을 상기 로봇에 장착된 LCD화면에 표시하는 LCD구동단계를 포함하는 것을 특징으로 하는 로봇의 감정표현방법.And an LCD driving step of displaying the face expression graphic on the LCD screen mounted on the robot. 로봇이 표현해야 할 감정이 입력되는 단계와;Inputting emotions to be expressed by the robot; 상기 로봇이 표현해야 할 감정에 해당하는 감정표현행위들 중 사용자의 반응을 고려한 확률적 모델에 따라 하나의 감정표현행위를 선택하는 감정표현행위관리단계와;An emotion expression behavior management step of selecting one emotion expression behavior according to a probabilistic model in consideration of a user's reaction among emotion expression behaviors corresponding to emotions to be expressed by the robot; 상기 로봇이 표현해야 할 감정에 따른 몸체 및/또는 팔 동작에 대한 감성동작파라미터를 정의하고, 상기 감성동작파라미터를 이용하여 상기 감정표현행위관리단계에서 선택된 감정표현행위에 해당하는 몸체 및/또는 팔 동작을 생성하는 동작생성단계와;Defining emotional motion parameters for body and / or arm motion according to the emotion to be expressed by the robot, and using the emotional motion parameters, the body and / or arm corresponding to the emotional expression behavior selected in the emotional expression behavior management step. A motion generation step of generating a motion; 상기 동작을 상기 로봇의 몸체 및/또는 팔에 적용하는 로봇구동단계를 포함한 것을 특징으로 하는 로봇의 감정표현방법.Emotional expression method of the robot comprising a robot driving step for applying the motion to the body and / or arm of the robot. 로봇이 표현해야 할 감정이 입력되는 단계와;Inputting emotions to be expressed by the robot; 상기 로봇이 표현해야 할 감정에 해당하는 감정표현행위들 중 사용자의 반응을 고려한 확률적 모델에 따라 하나의 감정표현행위를 선택하는 감정표현행위관리단계와;An emotion expression behavior management step of selecting one emotion expression behavior according to a probabilistic model in consideration of a user's reaction among emotion expression behaviors corresponding to emotions to be expressed by the robot; 두 눈과 입과 가상얼굴근육을 포함한 3차원 얼굴모델을 생성하고, 상기 가상얼굴근육의 움직임을 이용하여 상기 감정표현행위관리단계에서 선택된 감정표현행위에 해당하는 얼굴표정 그래픽을 생성하는 얼굴표정생성단계와;Facial expression generation that generates a three-dimensional face model including eyes, mouth and virtual facial muscles, and a facial expression graphic corresponding to the emotional expression behavior selected in the emotional expression behavior management step using the movement of the virtual facial muscles. Steps; 상기 얼굴표정생성단계에서 생성된 얼굴표정 그래픽을 상기 로봇에 장착된 LCD화면에 표시하는 LCD구동단계와;An LCD driving step of displaying the facial expression graphics generated in the facial expression generating step on an LCD screen mounted on the robot; 상기 로봇이 표현해야 할 감정에 따른 몸체 및/또는 팔 동작에 대한 감성동작파라미터를 정의하고, 상기 감성동작파라미터를 이용하여 상기 감정표현행위관리단계에서 선택된 감정표현행위에 해당하는 몸체 및/또는 팔 동작을 생성하는 동작생성단계와;Defining emotional motion parameters for body and / or arm motion according to the emotion to be expressed by the robot, and using the emotional motion parameters, the body and / or arm corresponding to the emotional expression behavior selected in the emotional expression behavior management step. A motion generation step of generating a motion; 상기 동작을 상기 로봇의 몸체 및/또는 팔에 적용하는 로봇구동단계를 포함한 것을 특징으로 하는 로봇의 감정표현방법.Emotional expression method of the robot comprising a robot driving step for applying the motion to the body and / or arm of the robot. 제 9 항 또는 제 11 항에 있어서, 상기 얼굴표정생성단계는,The method of claim 9 or 11, wherein the facial expression generating step, 만족도와 각성도에 따른 얼굴표정을 생성하기 위한 상기 가상얼굴근육의 수축/이완 파라미터 정보와, 상기 만족도와 각성도를 감정과 강도에 매치시키는 테이블을 저장하고,Information about contraction / relaxation parameters of the virtual facial muscles for generating facial expressions according to satisfaction and arousal, and a table matching the satisfaction and arousal with emotion and intensity, 상기 로봇이 표현해야 할 감정 및 상기 감정의 강도를 만족도와 각성도 값으로 변환하고, 상기 변환된 만족도와 각성도 값에 따른 상기 가상얼굴근육의 수축/이완 파라미터를 생성하여, 상기 감정에 따른 얼굴표정을 애니메이션하는 것을 특징으로 하는 로봇의 감정표현방법.The emotion and intensity of the emotion to be expressed by the robot are converted into satisfaction and arousal values, and the contraction / relaxation parameters of the virtual facial muscles are generated according to the converted satisfaction and arousal values to generate a face according to the emotion. Emotional expression method of the robot, characterized in that the animation. 제 12 항에 있어서, 상기 얼굴표정생성단계는,The method of claim 12, wherein the facial expression generating step, 보통 얼굴표정 상태의 가상얼굴근육 파라미터에 상기 가상얼굴근육의 수축/이완 파라미터를 보간하여 상기 감정에 따른 얼굴표정을 애니메이션하는 것을 특징으로 하는 로봇의 감정표현방법.And a facial expression according to the emotion, by interpolating a contraction / relaxation parameter of the virtual facial muscle to a virtual facial muscle parameter in a normal facial expression state. 삭제delete 제 10 항 또는 제 11 항에 있어서, 상기 감성동작파라미터는 로봇 몸체의 평균속도, 로봇 몸체의 속도변화, 로봇 몸체의 이동방향, 로봇 팔의 높이, 로봇 팔의 평균속도, 로봇 팔의 속도변화, 로봇 팔의 관절형태, 로봇 양팔의 대칭성을 포함한 것을 특징으로 하는 로봇의 감정표현방법.According to claim 10 or 11, wherein the emotional motion parameter is the average speed of the robot body, the speed change of the robot body, the moving direction of the robot body, the height of the robot arm, the average speed of the robot arm, the speed change of the robot arm, Emotional expression method of the robot, characterized in that the joint form of the robot arm, the symmetry of both arms of the robot. 제 9 항 내지 제 11 항 중 어느 한 항에 있어서, 상기 감정표현행위관리단계는,The method of any one of claims 9 to 11, wherein the emotion expression behavior management step, 상기 로봇이 표현하는 감정의 표현행위별로 아래의 수식을 이용하여 발생확률을 계산하고, 상기 발생확률을 기반으로 상기 감정표현행위를 선택하는 것을 특징으로 하는 로봇의 감정표현방법.The emotion expression method of the robot, characterized by calculating the probability of occurrence using the following formula for each expression of the emotion expressed by the robot, and selecting the emotion expression behavior based on the probability of occurrence. <수식><Formula>
Figure 112006045840214-pat00010
Figure 112006045840214-pat00010
여기서, s는 임의의 감정이고, a는 감정 s의 임의의 감정표현행위이고, P(s,a)는 감정 s에 대해 감정표현행위 a가 수행될 발생확률이고, As는 감정 s에 대한 감정표현행위의 집합이고, t는 초기에는 매우 큰 값을 가지지만 시간이 경과될수록 작아져서 1로 수렴하는 변수이고, Quality(s,a)는 감정 s의 감정표현행위 a에 대한 사용자 선호도이다.Where s is any emotion, a is any emotional expression of emotion s, P (s, a) is the probability of occurrence of emotional expression a for emotion s , and A s is for emotion s It is a set of emotional expression behaviors, t is initially a very large value, but becomes smaller as time passes and converges to 1, and Quality (s, a) is user preference for emotional expression behavior a of emotional s.
KR1020040070673A 2004-09-06 2004-09-06 apparatus and method of emotional expression for a robot KR100639068B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020040070673A KR100639068B1 (en) 2004-09-06 2004-09-06 apparatus and method of emotional expression for a robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020040070673A KR100639068B1 (en) 2004-09-06 2004-09-06 apparatus and method of emotional expression for a robot

Publications (2)

Publication Number Publication Date
KR20060021946A KR20060021946A (en) 2006-03-09
KR100639068B1 true KR100639068B1 (en) 2006-10-30

Family

ID=37128599

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040070673A KR100639068B1 (en) 2004-09-06 2004-09-06 apparatus and method of emotional expression for a robot

Country Status (1)

Country Link
KR (1) KR100639068B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018230882A1 (en) * 2017-06-12 2018-12-20 주식회사 아카인텔리전스 Method for determining emotion of computer
KR20190115504A (en) * 2018-03-15 2019-10-14 연세대학교 산학협력단 Apparatus and method controlling emotional expresion robot
US11691291B2 (en) 2020-08-21 2023-07-04 Electronics And Telecommunications Research Institute Apparatus and method for generating robot interaction behavior

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2281668B1 (en) * 2005-09-30 2013-04-17 iRobot Corporation Companion robot for personal interaction
KR100779088B1 (en) * 2005-12-09 2007-11-27 한국전자통신연구원 Apparatus for controlling robot and method thereof
US7797079B2 (en) 2005-12-09 2010-09-14 Electronics And Telecommunications Research Institute Apparatus for controlling robot and method thereof
KR100834572B1 (en) 2006-09-29 2008-06-02 한국전자통신연구원 Robot actuator apparatus which respond to external stimulus and method for controlling the robot actuator apparatus
KR100895296B1 (en) * 2006-11-21 2009-05-07 한국전자통신연구원 Robot emotion representation
KR100853424B1 (en) * 2006-12-20 2008-08-21 한국생산기술연구원 Motion and facial expression composing device and method in human type robot
KR100813668B1 (en) * 2006-12-20 2008-03-14 한국생산기술연구원 Emotional expression equipment and method in android robot
KR100880613B1 (en) * 2007-08-10 2009-01-30 주식회사 쿼터뷰 System and method for supporting emotional expression of intelligent robot and intelligent robot system using the same
KR100897537B1 (en) * 2007-08-23 2009-05-15 전수연 Toy robot
KR101016805B1 (en) * 2009-01-09 2011-02-25 고려대학교 산학협력단 System for configuring Human-Robot Interaction
KR101169674B1 (en) * 2010-03-11 2012-08-06 한국과학기술연구원 Telepresence robot, telepresence system comprising the same and method for controlling the same
KR102501411B1 (en) * 2022-05-02 2023-02-21 (주)이브이알스튜디오 Control method of electronic apparatus for generating symmetrical expression while maintaining asymmetrical face shape

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018230882A1 (en) * 2017-06-12 2018-12-20 주식회사 아카인텔리전스 Method for determining emotion of computer
KR20190115504A (en) * 2018-03-15 2019-10-14 연세대학교 산학협력단 Apparatus and method controlling emotional expresion robot
KR102083229B1 (en) * 2018-03-15 2020-03-02 연세대학교 산학협력단 Apparatus and method controlling emotional expresion robot
US11691291B2 (en) 2020-08-21 2023-07-04 Electronics And Telecommunications Research Institute Apparatus and method for generating robot interaction behavior

Also Published As

Publication number Publication date
KR20060021946A (en) 2006-03-09

Similar Documents

Publication Publication Date Title
KR100639068B1 (en) apparatus and method of emotional expression for a robot
JP4547126B2 (en) Apparatus and method for emotion synthesis based on human nervous system
Badler et al. Representing and parameterizing agent behaviors
Srinivasan What is haptics
KR101002619B1 (en) Face robot for giving expression
US20130158707A1 (en) Methods of robot behavior generation and robots utilizing the same
Cole et al. Gesture following deafferentation: A phenomenologically informed experimental study
JP2007527556A (en) Behavior translator for objects
Takacs Special education and rehabilitation: teaching and healing with interactive graphics
Hanson et al. Realistic humanlike robots for treatment of ASD, social training, and research; shown to appeal to youths with ASD, cause physiological arousal, and increase human-to-human social engagement
Pan et al. Realistic and interactive robot gaze
Samani et al. Probability of love between robots and humans
Hara et al. Use of face robot for human-computer communication
JPH10143351A (en) Interface unit
Fukuda et al. Facial expression of robot face for human-robot mutual communication
Strohmeier et al. Body-based user interfaces
Fukuda et al. Human-robot mutual communication system
Oh et al. Automatic emotional expression of a face robot by using a reactive behavior decision model
JP2022031617A (en) Advice system and advice method
Nejat et al. The design of an interactive socially assistive robot for patient care
Koike et al. Sprout: Designing Expressivity for Robots Using Fiber-Embedded Actuator
Burns et al. A lasting impact: Using secondorder dynamics to customize the continuous emotional expression of a social robot
Saldien et al. On the design of an emotional interface for the huggable robot probo
Thompson et al. Emotibot: An Interactive Tool for Multi-Sensory Affect Communication
Santos et al. Facial expression communication for healthcare androids

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20110704

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20120824

Year of fee payment: 8

LAPS Lapse due to unpaid annual fee