KR100639068B1 - apparatus and method of emotional expression for a robot - Google Patents
apparatus and method of emotional expression for a robot Download PDFInfo
- Publication number
- KR100639068B1 KR100639068B1 KR1020040070673A KR20040070673A KR100639068B1 KR 100639068 B1 KR100639068 B1 KR 100639068B1 KR 1020040070673 A KR1020040070673 A KR 1020040070673A KR 20040070673 A KR20040070673 A KR 20040070673A KR 100639068 B1 KR100639068 B1 KR 100639068B1
- Authority
- KR
- South Korea
- Prior art keywords
- robot
- emotion
- expression
- emotional
- facial
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
- B25J11/001—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
- B25J11/0015—Face robots, animated artificial faces for imitating human expressions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0006—Exoskeletons, i.e. resembling a human figure
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
Abstract
본 발명은 퍼스널 로봇과 사람의 상호작용을 위해 로봇의 감정을 얼굴과 몸체로 표현하도록 하는 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and a method for expressing the emotions of a robot with a face and a body for human interaction with a personal robot.
본 발명에 따른 로봇의 감정표현장치는, 로봇이 표현해야 할 감정이 입력되는 수단과, 상기 로봇이 표현해야 할 감정의 표현행위를 선택하는 감정표현행위관리부와, 상기 감정표현행위관리부의 제어를 받아 상기 로봇이 표현해야 할 감정에 해당하는 얼굴표정의 그래픽을 생성하는 얼굴표정생성기와, 상기 얼굴표정 그래픽을 상기 로봇에 장착된 LCD화면에 표시하는 LCD구동부와, 상기 감정표현행위관리부의 제어를 받아 상기 로봇이 표현해야 할 감정에 해당하는 동작을 생성하는 동작생성기와, 상기 동작을 상기 로봇의 몸체 및/또는 팔에 적용하는 로봇구동수단을 포함한다.The emotion expression apparatus of the robot according to the present invention includes a means for inputting emotions to be expressed by the robot, an emotion expression behavior management unit for selecting an expression of emotions to be expressed by the robot, and a control of the emotion expression behavior management unit. A facial expression generator for generating a facial expression graphic corresponding to an emotion to be expressed by the robot, an LCD driver for displaying the facial expression graphic on an LCD screen mounted on the robot, and control of the emotion expression behavior managing unit. And a motion generator for generating a motion corresponding to the emotion to be expressed by the robot, and a robot driving means for applying the motion to the body and / or arm of the robot.
로봇, 감정, 그래픽, LCD, 동작파라미터, 얼굴표정, 가상근육, 심장Robot, emotion, graphics, LCD, motion parameters, facial expressions, virtual muscle, heart
Description
도 1은 본 발명의 한 실시예에 따른 로봇의 감정표현장치를 도시한 구성 블록도,1 is a block diagram showing an emotion expression apparatus of a robot according to an embodiment of the present invention;
도 2는 로봇의 얼굴 또는 가슴에 장착된 LCD화면의 예시도,Figure 2 is an illustration of the LCD screen mounted on the face or chest of the robot,
도 3은 얼굴표정생성기의 얼굴표정생성방법을 도시한 동작 흐름도,3 is an operation flowchart illustrating a facial expression generating method of the facial expression generator;
도 4는 감정공간(emotional space)에서 만족도와 각성도에 따라 LCD화면에 표시되는 얼굴표정 애니메이션을 도시한 도면,4 is a diagram illustrating facial expression animation displayed on an LCD screen according to satisfaction and arousal degree in an emotional space;
도 5는 본 발명의 감성동작파라미터를 적용하여 동작으로 감정을 표현하는 퍼스널 로봇을 도시한 도면,5 is a diagram illustrating a personal robot expressing emotions in motion by applying the emotional motion parameters of the present invention;
도 6은 감정표현관리기의 감정표현행위 선택방법을 도시한 동작 흐름도이다.6 is a flowchart illustrating a method of selecting an emotion expression behavior of the emotion expression manager.
<도면의 주요 부분에 대한 부호의 간단한 설명> <Brief description of symbols for the main parts of the drawings>
110; 감정입력수단 120; 거리입력수단110; Emotion input means 120; Distance input means
130; 사용자선호도입력기 140; 감정표현부130; A
141; 감정표현관리기 142; 얼굴표정생성기141;
143; 동작생성기 150; LCD구동부143;
160; 몸체구동부 170; 팔구동부160;
본 발명은 로봇의 감정을 표현하는 장치 및 방법에 관한 것으로서, 보다 상세하게는 퍼스널 로봇과 사람의 상호작용을 위해 로봇의 감정을 얼굴과 몸체로 표현하도록 하는 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for expressing emotions of a robot, and more particularly, to an apparatus and method for expressing emotions of a robot in a face and a body for a human interaction with a personal robot.
대부분의 심리상태나 감정표현은 얼굴 표정을 통해서 이루어진다. 이에 따라 현재까지 개발된 로봇의 감정표현에 대한 대부분의 연구들은, 로봇의 심리상태나 감정표현을 사람의 얼굴을 본 따서 만든 기계적 얼굴로 표현하고자 하였다. 대표적인 예로서, 기계적으로 얼굴의 근육을 묘사한 미국 MIT의 kismet와, 실리콘을 사용하여 사람의 피부와 비슷하게 만든 일본 도쿄기술대학의 Roterta와 Saya가 있다. 그러나, 지금까지 개발된 로봇의 기계적 얼굴은 사람과 비슷한 자연스러운 표정을 생성할 수 없으며, 생성된 표정이 사람들에게 거부감을 주기도 하는 등의 문제점이 있다. 게다가 이러한 기술들을 가정용 퍼스널 로봇에 적용하기에는 안정성과 신뢰성이 떨어지고, 가격도 고가인 문제점이 있다. 아울러, 로봇의 감정을 동작으로 표현하고자 하는 기술은 현재까지는 연구된 바가 없다.Most psychological states or emotions are expressed through facial expressions. Accordingly, most of the researches on emotional expression of robots developed to date have attempted to express the psychological state or emotional expression of robots with mechanical faces that are modeled after human faces. Examples include MIT kismet, which mechanically depicts the muscles of the face, and Roterta and Saya, from the Tokyo University of Technology, Japan, using silicone to resemble human skin. However, the mechanical face of the robot developed so far cannot produce a natural facial expression similar to a human, and there is a problem that the generated facial expression also gives people a sense of rejection. In addition, there is a problem that these technologies are not stable and reliable and expensive to apply to home personal robots. In addition, the technology to express the emotion of the robot in motion has not been studied until now.
상기한 종래기술의 문제점을 해결하기 위하여 안출된 본 발명의 목적은, 로봇의 얼굴을 LCD모니터로 구성하고, 로봇의 감정을 이 LCD모니터에 표시되는 얼굴표정을 통해 표현하는 장치 및 방법을 제공하기 위한 것이다. 또한, 본 발명의 다 른 목적은, 로봇의 감정을 로봇의 몸체 또는 양팔의 동작을 통해 표현하는 장치 및 방법을 제공하기 위한 것이다.SUMMARY OF THE INVENTION An object of the present invention devised to solve the problems of the prior art is to provide an apparatus and method for configuring a robot's face as an LCD monitor and expressing the emotion of the robot through facial expressions displayed on the LCD monitor. It is for. In addition, another object of the present invention is to provide an apparatus and method for expressing the emotion of the robot through the operation of the body or both arms of the robot.
상기한 목적을 달성하기 위한 본 발명에 따른 로봇의 감정표현장치는, 로봇이 표현해야 할 감정이 입력되는 수단과, 상기 로봇이 표현해야 할 감정에 해당하는 얼굴표정의 그래픽을 생성하는 얼굴표정생성기와, 상기 얼굴표정 그래픽을 상기 로봇에 장착된 LCD화면에 표시하는 LCD구동부를 포함하는 것을 특징으로 한다.The emotion expression apparatus of the robot according to the present invention for achieving the above object, the facial expression generator for generating a graphic of the facial expression corresponding to the emotion to be expressed by the robot and the means to be expressed by the robot And an LCD driver for displaying the facial expression graphic on the LCD screen mounted on the robot.
또한, 본 발명에 따른 로봇의 감정표현장치는, 로봇이 표현해야 할 감정이 입력되는 수단과, 상기 로봇이 표현해야 할 감정에 해당하는 동작을 생성하는 동작생성기와, 상기 동작을 상기 로봇의 몸체 및/또는 팔에 적용하는 로봇구동수단을 포함한 것을 특징으로 한다.In addition, the emotion expression apparatus of the robot according to the present invention, a means for inputting the emotion to be expressed by the robot, a motion generator for generating a motion corresponding to the emotion to be expressed by the robot, and the motion to the body of the robot And / or robot driving means applied to the arm.
또한, 본 발명에 따른 로봇의 감정표현장치는, 로봇이 표현해야 할 감정이 입력되는 수단과, 상기 로봇이 표현해야 할 감정의 표현행위를 선택하는 감정표현행위관리부와, 상기 감정표현행위관리부의 제어를 받아 상기 로봇이 표현해야 할 감정에 해당하는 얼굴표정의 그래픽을 생성하는 얼굴표정생성기와, 상기 얼굴표정 그래픽을 상기 로봇에 장착된 LCD화면에 표시하는 LCD구동부와, 상기 감정표현행위관리부의 제어를 받아 상기 로봇이 표현해야 할 감정에 해당하는 동작을 생성하는 동작생성기와, 상기 동작을 상기 로봇의 몸체 및/또는 팔에 적용하는 로봇구동수단을 포함한 것을 특징으로 한다.In addition, the emotion expression apparatus of the robot according to the present invention, the emotion expression behavior management unit for selecting the means to input the emotion to be expressed by the robot, the emotion expression to be expressed by the robot, and the emotion expression behavior management unit A facial expression generator for generating a facial expression graphic corresponding to the emotion to be expressed by the robot under control, an LCD driver for displaying the facial expression graphic on an LCD screen mounted on the robot, and the emotion expression behavior managing unit And a motion generator for generating a motion corresponding to the emotion to be expressed by the robot under control, and a robot driving means for applying the motion to the body and / or arm of the robot.
또한, 본 발명에 따른 로봇의 감정표현방법은, 로봇이 표현해야 할 감정이 입력되는 단계와, 상기 로봇이 표현해야 할 감정에 해당하는 얼굴표정의 그래픽을 생성하는 얼굴표정생성단계와, 상기 얼굴표정 그래픽을 상기 로봇에 장착된 LCD화면에 표시하는 LCD구동단계를 포함하는 것을 특징으로 한다.In addition, the emotion expression method of the robot according to the present invention, a step of inputting the emotion to be expressed by the robot, a facial expression generation step of generating a graphic of the facial expression corresponding to the emotion to be expressed by the robot, and the face And an LCD driving step of displaying an expression graphic on the LCD screen mounted on the robot.
또한, 본 발명에 따른 로봇의 감정표현방법은, 로봇이 표현해야 할 감정이 입력되는 단계와, 상기 로봇이 표현해야 할 감정에 해당하는 동작을 생성하는 동작생성단계와, 상기 동작을 상기 로봇의 몸체 및/또는 팔에 적용하는 로봇구동단계를 포함한 것을 특징으로 한다.In addition, the emotion expression method of the robot according to the present invention, a step of inputting the emotion to be expressed by the robot, an operation generation step of generating a motion corresponding to the emotion to be expressed by the robot, and the operation of the robot Characterized in that it comprises a robot driving step applied to the body and / or arm.
또한, 본 발명에 따른 로봇의 감정표현방법은, 로봇이 표현해야 할 감정이 입력되는 단계와, 상기 로봇이 표현해야 할 감정의 표현행위를 선택하는 감정표현행위선택단계와, 상기 감정표현행위선택단계에서 그래픽 표현행위가 선택되면 상기 로봇이 표현해야 할 감정에 해당하는 얼굴표정의 그래픽을 생성하는 얼굴표정생성단계와, 상기 얼굴표정의 그래픽을 상기 로봇에 장착된 LCD화면에 표시하는 LCD구동단계와, 상기 감정표현행위선택단계에서 동작 표현행위가 선택되면 상기 로봇이 표현해야 할 감정에 해당하는 동작을 생성하는 동작생성단계와, 상기 동작을 상기 로봇의 몸체 및/또는 팔에 적용하는 로봇구동단계를 포함한 것을 특징으로 한다.In addition, the emotion expression method of the robot according to the present invention, the emotion input to express the robot, the emotion expression behavior selection step of selecting the expression of the emotion to be expressed by the robot, and the emotion expression behavior selection When the graphic expression behavior is selected in the step, the facial expression generation step of generating a graphic of the facial expression corresponding to the emotion to be expressed by the robot, and the LCD driving step of displaying the graphic of the facial expression on the LCD screen mounted on the robot And a motion generation step of generating a motion corresponding to the emotion to be expressed by the robot when the motion expression behavior is selected in the emotion expression behavior selection step, and a robot driving to apply the motion to the body and / or arm of the robot. Characterized in that it comprises a step.
이하, 첨부된 도면을 참조하며 본 발명의 한 실시예에 따른 로봇의 감정표현장치 및 방법을 설명하면 다음과 같다.Hereinafter, the emotion expression apparatus and method of a robot according to an embodiment of the present invention will be described with reference to the accompanying drawings.
도 1은 본 발명의 한 실시예에 따른 로봇의 감정표현장치를 도시한 구성 블록도이다. 본 발명에 따른 로봇의 감정표현장치는 감정입력수단(110)과 거리입력수단(120)과, 사용자선호도입력기(130), 감정표현부(140)와, LCD구동부(150)와, 몸 체구동부(160)와, 팔구동부(170)를 포함한다.1 is a block diagram showing an emotion expression apparatus of a robot according to an embodiment of the present invention. The emotion expression apparatus of the robot according to the present invention includes an
감정입력수단(110)은 로봇이 자체적으로 스스로의 감정을 입력할 수도 있고, 외부에 의해 입력될 수도 있다. 거리입력수단(120)은 사용자와의 거리를 감지하여 감정표현부(140)에게 제공한다. 또한, 사용자선호도입력기(130)는 로봇이 표현한 감정표현방법에 대한 사용자의 선호도를 입력받아 감정표현부(140)에게 제공한다.The
감정표현부(140)는 감정에 따른 표현방식을 선택하는 감정표현관리기(141)와, 감정표현관리기(141)의 제어를 받아 로봇의 감정을 그래픽을 통해 표현하기 위한 얼굴표정생성기(142)와, 감정표현관리기(141)의 제어를 받아 로봇의 감정을 동작을 통해 표현하기 위한 동작생성기(143)를 포함한다.The
얼굴표정생성기(142)는 도 2에 도시된 바와 같이 로봇의 얼굴 또는 가슴에 장착된 LCD화면(181)으로 그래픽을 통한 감정표현을 위해 얼굴 3차원 모델을 만든다. 이 얼굴 3차원 모델은 두 눈과 입, 심장, 3차원 공간, 보이지 않는 얼굴형상, 가상의 얼굴근육으로 이루어지며, 이 얼굴표정생성기(142)는 얼굴 3차원 모델에서 가상의 얼굴근육을 조절하여 얼굴 표정을 생성한다.As shown in FIG. 2, the
동작생성기(143)는 동작을 조절하기 위한 8개의 파라미터를 설정하고, 각 파라미터를 조절하여 로봇의 동작을 제어한다. 감정표현관리기(141)는 감정에 따른 적절한 감정표현행위를 선택하는데, 각 행위의 확률적 모델에 따라서 적절한 표현행위를 선택하는데, 이 확률적 모델은 사용자의 선호도에 따라 조절한다.The
얼굴표정생성기(142)에서 설정된 얼굴표정은 LCD구동부(150)에게 전달되며, 이 LCD구동부(150)는 LCD화면(181)에 감정에 따른 얼굴표정을 표시한다. 동작생성 기(143)에서 생성된 로봇 몸체의 동작은 몸체 구동부(160)에게 전달되어 몸체가 움직이며, 동작생성기(143)에서 생성된 로봇 팔의 동작은 팔 구동부(170)에게 전달되어 팔이 움직인다.The facial expression set in the
도 3은 얼굴표정생성기(142)의 얼굴표정생성방법을 도시한 동작 흐름도이다.3 is an operation flowchart illustrating a facial expression generating method of the
퍼스널 로봇이 인간과 함께 생활하면서 자신의 의도나 감정 상태를 자연스럽게 표출할 수 있는 확실한 방법으로 얼굴표정이 있다. 하지만, 아직까지는 얼굴표정을 생성하기 위하여 하드웨어로 구현된 얼굴형상에 감정에 따른 표정을 표현하기는 매우 곤란하다.Facial expression is a sure way for personal robots to express their intentions and emotions naturally while living with humans. However, it is still very difficult to express facial expressions according to emotions on the face shape implemented by hardware in order to generate facial expressions.
본 발명에서는 퍼스널 로봇의 얼굴 또는 가슴에 LCD 화면(181)을 장착하고, 이 LCD 화면에 얼굴표정을 그래픽으로 표현한다. 이와 같이 LCD 화면에 얼굴표정을 그래픽으로 표현하면 로봇의 감정을 자연스럽게 전달할 수 있으며, 안전하고 고장 등으로부터 자유로운 잇점이 있다.In the present invention, the
얼굴표정생성기(142)는 두 눈과 입, 심장, 3차원 공간, 가상의 근육으로 구성된 얼굴 3차원 모델을 생성한다. 두 눈과 입은 웃고, 울고, 화를 내고, 놀라는 감정상태를 그 강도에 따라 나타내고, 심장은 두 눈과 입으로 표시되는 감정의 강도를 보완하여, 감정의 전달이 좀 더 효과적으로 이루어지도록 한다.The
얼굴표정과 관련된 애니메이션은 주로 가상의 근육에 의해 이루어진다. Ekman이 정의한 6개의 표정과 그에 따른 얼굴 각 부분의 움직임을 바탕으로 근육의 움직임을 조절한다. 예를 들어, 기쁠 때에는 뺨 주위에 있는 근육이 입의 가장자리를 잡아 당겨서 입의 가장자리가 위로 올라가게 된다. 실제 얼굴에 있는 근육들 은 대부분 뼈와 피부 사이 또는 피부와 피부 사이에 개재되어 있다. 이런 얼굴 근육을 안면근이라고 하는데, 이 안면근은 20여종의 작은 피근(cutaneous muscle)으로 이루어진다. 안면근이 얼굴 피부와 피부 밑의 섬유조직을 이동시켜서 얼굴의 특유한 표정을 생성한다. 본 발명에서는 가상의 콘 형태의 근육을 사용하여 눈과 입의 움직임을 생성한다. 이러한 얼굴표정을 생성하기 위해서 만족도(content)와 각성도(arousal) 파라미터가 필요하다.Animations related to facial expressions are mainly performed by virtual muscles. The muscles are controlled based on six expressions defined by Ekman and the movement of each part of the face. For example, when you're happy, the muscles around your cheeks pull the edges of your mouth so that the edges of your mouth go up. Most muscles in the face are interposed between bone and skin or between skin and skin. These facial muscles are called facial muscles, which are made up of 20 small cutaneous muscles. The facial muscles move the facial skin and the fibrous tissue beneath the skin, creating a unique facial expression. In the present invention, the movement of the eyes and the mouth is generated using the virtual cone-shaped muscle. In order to generate such facial expressions, content and arousal parameters are required.
만족도(content/discontent)값은 기쁨과 슬픔의 감정을 결정하는 파라미터이고, 각성도(arousal/relaxation)값은 공포, 분노, 혐오 등의 감정을 결정하는 파라미터이다.The content / discontent value is a parameter that determines feelings of joy and sadness, and the arousal / relaxation value is a parameter that determines feelings such as fear, anger, and disgust.
본 발명의 얼굴표정생성기는 만족도와 각성도에 따른 얼굴표정을 생성하기 위한 가상근육의 수축/이완 파라미터 정보와, 이 만족도와 각성도를 감정과 강도에 매치시키는 테이블을 저장한다(S31).The facial expression generator of the present invention stores information on contraction / relaxation parameters of the virtual muscle for generating facial expressions according to satisfaction and arousal, and a table matching the satisfaction and arousal with emotion and intensity (S31).
감정표현관리기로부터 표현할 감정이 입력되면(S32), 감정 및 강도를 만족도와 각성도로 변환한다(S33). 그리고, 그 만족도와 각성도를 내부감성함수에 적용하여 가상근육을 수축/이완 파라미터로 변환한다(S34). 다음, 가상근육의 수축/이완 파라미터와 보통상태 파라미터를 보간하여 얼굴표정을 애니메이션한다(S35).When an emotion to be expressed is input from the emotion expression manager (S32), the emotion and intensity are converted into satisfaction and arousal (S33). Then, the satisfaction and the arousal degree are applied to the internal sensitivity function to convert the virtual muscle into a contraction / relaxation parameter (S34). Next, the facial expression is animated by interpolating the contraction / relaxation parameters and the normal state parameters of the virtual muscle (S35).
도 4는 감정공간(emotional space)에서 만족도와 각성도에 따라 LCD화면에 표시되는 얼굴표정 애니메이션을 도시한 도면으로서, 만족도와 각성도가 모두 0이면 보통 상태를 표시한다. 각성도가 0인 상태에서 만족도가 플러스(+)이면 기쁨 상태를, 만족도가 마이너스(-)이면 슬픔 상태를 표시한다. 만족도가 마이너스(-) 인 상태에서 각성도의 크고 작음에 따라 분노 또는 공포 상태를 표시한다.FIG. 4 is a diagram illustrating a facial expression animation displayed on an LCD screen according to satisfaction and arousal degree in an emotional space, and when both satisfaction and arousal are 0, a normal state is displayed. In the state where the arousal degree is 0, the satisfaction state is positive (+), and the satisfaction state is negative (-). The state of anger or fear is indicated as the degree of arousal is large and small while the satisfaction is negative.
인간은 얼굴표정 이외에도 다른 사람이나 물체의 움직임을 통해 감정적인 단서를 얻는 경향이 있다. 또한, 인간은 그러한 감정적인 단서를 얻게 되면, 의식적이든지 무의식적이든지 대상의 내부 심리상태나 자신에 대한 태도를 예측한다. 또한 인간은 동물이나 기계나 사물 같은 것에 인격을 부여하려는 경향이 있다. 예컨대, 시추라는 애완견은 성격이 활발하고 익살맞으며 애교가 많다고 하고, 큰 움직임을 보이는 건설장비는 웅장하며 남자답다고 한다. 또한, 가을에 하늘거리는 코스모스는 내성적이며 부끄러움을 많이 타는 여성과 같다고 한다. 결과적으로 인간과 가깝게 생활하는 퍼스널 로봇의 움직임은 인간에게 감성적으로 강한 영향을 준다.In addition to facial expressions, humans tend to gain emotional clues through the movement of other people or objects. Also, when humans get such emotional clues, they predict their internal psychological state or attitude toward themselves, whether consciously or unconsciously. Humans also tend to personalize things like animals, machines, and things. For example, Shih Tzu's dog is said to be active, humorous, and lovable, and the construction equipment that shows great movement is grand and manly. In addition, the squishy cosmos in autumn is said to be like a woman who is shy and shy. As a result, the movement of personal robots living close to humans has a strong emotional impact on humans.
본 발명의 동작생성기(143)는 퍼스널 로봇의 감정상태를 몸체 또는 팔의 움직으로 표현하는데, 이를 위해, 표 1과 같은 퍼스널 로봇의 감성동작파라미터를 설정한다.The
여기서, 팔의 높이는 어깨를 기준으로 중간, 위, 아래로 구분될 수 있다.Here, the height of the arm may be divided into the middle, up and down on the basis of the shoulder.
동작생성기(143)가 감정표현을 위한 동작을 생성할 때, 감성의 강도(강한 슬픔/약한 슬픔)와 자연스러운 동작표현을 위해 파라미터값이 조절될 수 있다.When the
도 5는 본 발명의 감성동작파라미터를 적용하여 동작으로 감정을 표현하는 퍼스널 로봇을 도시한 도면이다.FIG. 5 is a diagram illustrating a personal robot expressing emotions in motion by applying the emotional motion parameters of the present invention.
도 6은 감정표현관리기(141)의 감정표현행위 선택방법을 도시한 동작 흐름도이다.6 is a flowchart illustrating a method of selecting an emotion expression behavior of the
임의의 감정을 표현하는 방법이 여러가지 인 경우, 감정표현관리기(141)는 해당 감정을 표현하는 각 행위의 발생확률을 계산하고, 그 발생확률에 따라 해당 감정의 표현행위를 선택한다. 감정표현관리기(141)는 사용자선호도입력기(130)로부터 임의의 감정표현행위에 대한 사용자 선호도를 감지하여, 사용자가 좋아하는 감정표현행위의 발생확률은 증가시키고 사용자가 싫어하는 감정표현행위의 발생확률은 감소시킨다. 사용자선호도입력기(130)는 사용자의 표정을 인식하여 사용자의 반응을 감지하거나, 사용자로부터 직접 입력받는다.When there are various ways to express a certain emotion, the
이를 위해 감정표현관리기(141)는 강화학습을 사용한다.To this end, the
감정표현관리기(141)는 각 감정에 대해 모든 감정표현행위의 발생확률을 아래의 수학식 1을 이용하여 계산한다(S61).The
여기서, s는 임의의 감정이고, a는 감정 s의 임의의 감정표현행위이며, P(s,a)는 감정 s에 대해 감정표현행위 a가 수행될 발생확률이다. 또한, As는 감정 s에 대한 감정표현행위의 집합이고, t는 초기에는 매우 큰 값을 가지지만 시간이 경과될수록 작아져서 1로 수렴하는 변수이다. Quality(s,a)는 감정 s의 감정표현행위 a에 대한 사용자 선호도이다.Where s is any emotion, a is any emotional expression of emotion s, and P (s, a) is the probability of occurrence of emotional expression a for emotion s. In addition, A s is a set of emotional expression behaviors for emotion s, and t is a variable that initially has a very large value but decreases with time and converges to one. Quality (s, a) is the user's preference for emotional expression behavior a of emotion s.
표현할 감정이 입력되면(S62), 해당 감정의 발생확률에 따라 표현할 감정표현행위를 선택하고(S63), 선택된 감정표현행위를 실행하기 위하여 얼굴표정생성기 또는 동작생성기를 제어한다(S64).When the emotion to be expressed is input (S62), the emotion expression behavior to be expressed is selected according to the probability of occurrence of the emotion (S63), and the facial expression generator or the motion generator is controlled to execute the selected emotion expression behavior (S64).
해당 감정이 표현된 후, 사용자의 반응이 긍정이면(S65) 해당 감정표현행위에 대한 사용자 선호도를 증가시키고(S66), 사용자의 반응이 부정이면(S65) 해당 감정표현행위에 대한 사용자 선호도를 감소시킨다(S67).After the emotion is expressed, if the user's response is positive (S65), increase the user's preference for the emotional expression behavior (S66), and if the user's response is negative (S65), decrease the user's preference for the emotional expression behavior. (S67).
그리고, 단계 S66 내지 단계 S67에서 조절된 해당 감정표현행위에 대한 사용자 선호도를 수학식 1에 적용하여 감정표현행위의 발생확률을 재계산한다(S68).Then, the user's preference for the corresponding emotional expression behavior adjusted in steps S66 to S67 is applied to Equation 1 to recalculate the probability of occurrence of the emotional expression behavior (S68).
수학식 1을 통해 학습 초기에는 임의의 감정 s에 대한 모든 감정표현행위들은 사용자의 반응(선호도)에 큰 영향을 받지 않고 모두 유사한 확률을 가지지만, 사용자와의 상호작용이 지속될수록 긍정적인 반응을 유도하는 감정표현행위의 발생확률이 높아짐을 알 수 있다.Equation 1 shows that in the early stages of learning, all emotion-expressing behaviors for any emotion s have similar probabilities without being significantly influenced by the user's response (preference), but the more positive the interaction with the user is, the more positive the reaction is. It can be seen that the probability of inducing emotional expression behavior increases.
이상에서 본 발명에 대한 기술 사상을 첨부 도면과 함께 서술하였지만, 이는 본 발명의 가장 양호한 일 실시예를 예시적으로 설명한 것이지 본 발명을 한정하는 것은 아니다. 또한, 이 기술 분야의 통상의 지식을 가진 자이면 누구나 본 발명의 기술 사상의 범주를 이탈하지 않는 범위 내에서 다양한 변형 및 모방이 가능함은 명백한 사실이다.Although the technical spirit of the present invention has been described above with reference to the accompanying drawings, it is intended to exemplarily describe the best embodiment of the present invention, but not to limit the present invention. In addition, it is obvious that any person skilled in the art may make various modifications and imitations without departing from the scope of the technical idea of the present invention.
이상과 같이 본 발명에 따르면 퍼스널 로봇이 감정상태를 그래픽 또는 동작으로 표현할 수 있고, 사용자가 선호에 따른 감정표현행위를 선택할 수 있기 때문에, 인간과 더욱 친화적인 퍼스널 로봇을 구현할 수 있는 잇점이 있다. 이로 인해 퍼스널 로봇의 고부가가치화와 퍼스널 로봇 시장의 성장 촉진에 기여할 수 있는 잇점이 있다.
As described above, according to the present invention, since the personal robot can express the emotional state by graphic or motion, and the user can select the emotional expression behavior according to the preference, there is an advantage that the personal robot can be more friendly to humans. This has the advantage of contributing to the high value-adding of personal robots and the growth of the personal robot market.
Claims (16)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020040070673A KR100639068B1 (en) | 2004-09-06 | 2004-09-06 | apparatus and method of emotional expression for a robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020040070673A KR100639068B1 (en) | 2004-09-06 | 2004-09-06 | apparatus and method of emotional expression for a robot |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20060021946A KR20060021946A (en) | 2006-03-09 |
KR100639068B1 true KR100639068B1 (en) | 2006-10-30 |
Family
ID=37128599
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020040070673A KR100639068B1 (en) | 2004-09-06 | 2004-09-06 | apparatus and method of emotional expression for a robot |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100639068B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018230882A1 (en) * | 2017-06-12 | 2018-12-20 | 주식회사 아카인텔리전스 | Method for determining emotion of computer |
KR20190115504A (en) * | 2018-03-15 | 2019-10-14 | 연세대학교 산학협력단 | Apparatus and method controlling emotional expresion robot |
US11691291B2 (en) | 2020-08-21 | 2023-07-04 | Electronics And Telecommunications Research Institute | Apparatus and method for generating robot interaction behavior |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2281668B1 (en) * | 2005-09-30 | 2013-04-17 | iRobot Corporation | Companion robot for personal interaction |
KR100779088B1 (en) * | 2005-12-09 | 2007-11-27 | 한국전자통신연구원 | Apparatus for controlling robot and method thereof |
US7797079B2 (en) | 2005-12-09 | 2010-09-14 | Electronics And Telecommunications Research Institute | Apparatus for controlling robot and method thereof |
KR100834572B1 (en) | 2006-09-29 | 2008-06-02 | 한국전자통신연구원 | Robot actuator apparatus which respond to external stimulus and method for controlling the robot actuator apparatus |
KR100895296B1 (en) * | 2006-11-21 | 2009-05-07 | 한국전자통신연구원 | Robot emotion representation |
KR100853424B1 (en) * | 2006-12-20 | 2008-08-21 | 한국생산기술연구원 | Motion and facial expression composing device and method in human type robot |
KR100813668B1 (en) * | 2006-12-20 | 2008-03-14 | 한국생산기술연구원 | Emotional expression equipment and method in android robot |
KR100880613B1 (en) * | 2007-08-10 | 2009-01-30 | 주식회사 쿼터뷰 | System and method for supporting emotional expression of intelligent robot and intelligent robot system using the same |
KR100897537B1 (en) * | 2007-08-23 | 2009-05-15 | 전수연 | Toy robot |
KR101016805B1 (en) * | 2009-01-09 | 2011-02-25 | 고려대학교 산학협력단 | System for configuring Human-Robot Interaction |
KR101169674B1 (en) * | 2010-03-11 | 2012-08-06 | 한국과학기술연구원 | Telepresence robot, telepresence system comprising the same and method for controlling the same |
KR102501411B1 (en) * | 2022-05-02 | 2023-02-21 | (주)이브이알스튜디오 | Control method of electronic apparatus for generating symmetrical expression while maintaining asymmetrical face shape |
-
2004
- 2004-09-06 KR KR1020040070673A patent/KR100639068B1/en not_active IP Right Cessation
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018230882A1 (en) * | 2017-06-12 | 2018-12-20 | 주식회사 아카인텔리전스 | Method for determining emotion of computer |
KR20190115504A (en) * | 2018-03-15 | 2019-10-14 | 연세대학교 산학협력단 | Apparatus and method controlling emotional expresion robot |
KR102083229B1 (en) * | 2018-03-15 | 2020-03-02 | 연세대학교 산학협력단 | Apparatus and method controlling emotional expresion robot |
US11691291B2 (en) | 2020-08-21 | 2023-07-04 | Electronics And Telecommunications Research Institute | Apparatus and method for generating robot interaction behavior |
Also Published As
Publication number | Publication date |
---|---|
KR20060021946A (en) | 2006-03-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100639068B1 (en) | apparatus and method of emotional expression for a robot | |
JP4547126B2 (en) | Apparatus and method for emotion synthesis based on human nervous system | |
Badler et al. | Representing and parameterizing agent behaviors | |
Srinivasan | What is haptics | |
KR101002619B1 (en) | Face robot for giving expression | |
US20130158707A1 (en) | Methods of robot behavior generation and robots utilizing the same | |
Cole et al. | Gesture following deafferentation: A phenomenologically informed experimental study | |
JP2007527556A (en) | Behavior translator for objects | |
Takacs | Special education and rehabilitation: teaching and healing with interactive graphics | |
Hanson et al. | Realistic humanlike robots for treatment of ASD, social training, and research; shown to appeal to youths with ASD, cause physiological arousal, and increase human-to-human social engagement | |
Pan et al. | Realistic and interactive robot gaze | |
Samani et al. | Probability of love between robots and humans | |
Hara et al. | Use of face robot for human-computer communication | |
JPH10143351A (en) | Interface unit | |
Fukuda et al. | Facial expression of robot face for human-robot mutual communication | |
Strohmeier et al. | Body-based user interfaces | |
Fukuda et al. | Human-robot mutual communication system | |
Oh et al. | Automatic emotional expression of a face robot by using a reactive behavior decision model | |
JP2022031617A (en) | Advice system and advice method | |
Nejat et al. | The design of an interactive socially assistive robot for patient care | |
Koike et al. | Sprout: Designing Expressivity for Robots Using Fiber-Embedded Actuator | |
Burns et al. | A lasting impact: Using secondorder dynamics to customize the continuous emotional expression of a social robot | |
Saldien et al. | On the design of an emotional interface for the huggable robot probo | |
Thompson et al. | Emotibot: An Interactive Tool for Multi-Sensory Affect Communication | |
Santos et al. | Facial expression communication for healthcare androids |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20110704 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20120824 Year of fee payment: 8 |
|
LAPS | Lapse due to unpaid annual fee |