KR101399601B1 - Emotion expresion robot using user data - Google Patents

Emotion expresion robot using user data Download PDF

Info

Publication number
KR101399601B1
KR101399601B1 KR1020110110409A KR20110110409A KR101399601B1 KR 101399601 B1 KR101399601 B1 KR 101399601B1 KR 1020110110409 A KR1020110110409 A KR 1020110110409A KR 20110110409 A KR20110110409 A KR 20110110409A KR 101399601 B1 KR101399601 B1 KR 101399601B1
Authority
KR
South Korea
Prior art keywords
mode
emotion
rhythm
emotional
unit
Prior art date
Application number
KR1020110110409A
Other languages
Korean (ko)
Other versions
KR20130046070A (en
Inventor
허헌
Original Assignee
허헌
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 허헌 filed Critical 허헌
Priority to KR1020110110409A priority Critical patent/KR101399601B1/en
Publication of KR20130046070A publication Critical patent/KR20130046070A/en
Application granted granted Critical
Publication of KR101399601B1 publication Critical patent/KR101399601B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/001Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/0015Face robots, animated artificial faces for imitating human expressions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/026Acoustical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D3/00Control of position or direction
    • G05D3/12Control of position or direction using feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Toys (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 사용자 데이터를 이용한 감정 표현 로봇에 관한 것으로, 더욱 상세하게는 사용자의 바이오리듬, 토정비결, 별자리 운세 등과 같은 데이터를 이용하여 로봇의 감정 표현 패턴을 변화시키는 사용자 데이터를 이용한 감정 표현 로봇에 관한 것으로, 이러한 본 발명의 실시예에 따른 사용자 데이터를 이용한 감정 표현 로봇은 사용자의 데이터를 기초로 사용자의 바이오리듬, 토정비결, 별자리 운세 중 적어도 어느 하나를 산출하여 사용자의 감정레벨을 결정하고 초기감정을 설정한 다음 그 초기감정에 해당하는 감정패턴을 선택한 후 얼굴 표정으로 생성하여 작동되는 것을 특징으로 한다. The present invention relates to an emotion expression robot using user data, and more particularly to an emotion expression robot using user data for changing emotion expression patterns of a robot using data such as a user's biorhythm, The emotion expression robot using the user data according to the embodiment of the present invention calculates at least one of the biorhythm of the user, the dead reckoning and the horoscope of the user based on the user's data to determine the emotion level of the user, And then selects an emotion pattern corresponding to the initial emotion and generates a facial expression.

Description

사용자 데이터를 이용한 감정 표현 로봇{EMOTION EXPRESION ROBOT USING USER DATA}EMOTION EXPRESSION ROBOT USING USER DATA "

본 발명은 사용자 데이터를 이용한 감정 표현 로봇에 관한 것으로, 더욱 상세하게는 사용자의 바이오리듬, 토정비결, 별자리 운세 등과 같은 데이터를 이용하여 로봇의 감정 표현 패턴을 변화시키는 사용자 데이터를 이용한 감정 표현 로봇에 관한 것이다. The present invention relates to an emotion expression robot using user data, and more particularly to an emotion expression robot using user data for changing emotion expression patterns of a robot using data such as a user's biorhythm, will be.

근래 개, 고양이 등을 흉내 내는 애완 로봇이 개발되고 있으나, 이러한 애완 로봇은 사용자의 바이오리듬, 토정비결, 별자리 운세 등과 같은 데이터를 전혀 반영하지 못하고 있어서 사용자가 애완 로봇에 보다 강한 애착을 가지기 어려운 점이 있다. Recently, pets robots that imitate dogs and cats have been developed. However, such pets robots do not reflect data such as user's biorhythm, tombstones, horoscope, etc., and thus it is difficult for a user to have a strong attachment to a pet robot .

즉, 근래에 개발되고 있는 애완 로봇은 애완 로봇의 운영에 있어서 미리 프로그램된 대로 움직이는 단조로움을 피하기 어려운 문제가 있었다. In other words, there has been a problem that the pet robot, which has been developed in recent years, has difficulty in monotonously moving as it is programmed in advance in the operation of the pet robot.

예를 들어, 바이오리듬 기능이란 사람의 컨디션이 일정 기간을 주기로 반복되는 점을 이용한 것이다. 사람의 신체 주기는 23일을 주기로 반복되며, 감성 주기는 28일 주기로 반복되고, 지성 주기는 33일 주기로 사인(Sine) 곡선을 그리면서 반복된다. 사람의 바이오리듬 시작 시점 즉, 탄생 시점이 이 주기의 시작 시점이 되는 것이다. 이 시점부터 지금 현재 시각까지 각각의 사인 곡선을 그리며 반복되는 것이다. For example, the biorhythm function uses a point where the condition of a person is repeated at regular intervals. The human body cycle is repeated with a cycle of 23 days, the emotion cycle is repeated with a 28-day cycle, and the intelligence cycle is repeated with a 33-day cycle with a Sine curve. The starting point of a person's biorhythm, that is, the time of birth, is the starting point of this cycle. From this point to the present time, it repeats each sine curve drawing.

따라서, 이러한 신체 리듬, 감성 리듬, 지성 리듬에 관한 바이오리듬과 같은 사용자의 데이터를 반영하여 감정을 변화될 수 있는 감정 표현 로봇에 대한 관심이 증대되고 있다. Accordingly, interest in emotional expression robots that can be changed by reflecting user's data such as bodily rhythm, emotional rhythm, and biorhythm related to intellectual rhythm is increasing.

본 발명의 일 측면은 사용자의 바이오리듬, 토정비결, 별자리 운세 등과 같은 데이터를 이용하여 로봇의 감정 표현 패턴을 변화시키는 사용자 데이터를 이용한 감정 표현 로봇을 제공하는 것에 있다. One aspect of the present invention is to provide an emotional expression robot using user data that changes a emotional expression pattern of a robot using data such as a user's biorhythm, satiety, horoscope, and the like.

본 발명의 다른 측면은 사용자의 관심도에 따라서 얼굴 표정이 변화되어 사용자가 로봇에 보다 강한 애착을 가질 수 있도록 하는 사용자 데이터를 이용한 감정 표현 로봇을 제공하는 것에 있다. Another aspect of the present invention is to provide an emotional expression robot using user data that allows a user to have stronger affection for the robot by changing the facial expression according to the user's interest.

본 발명의 또 다른 측면은 눈꺼풀과 눈알의 위치를 조합하여 얼굴 표정으로 생성하도록 하는 사용자 데이터를 이용한 감정 표현 로봇을 제공하는 것에 있다. Another aspect of the present invention is to provide an emotion expression robot using user data which is generated by combining face positions of eyelids and eyeballs with facial expressions.

본 발명의 실시예에 따른 사용자 데이터를 이용한 감정 표현 로봇은 사용자의 데이터를 기초로 사용자의 바이오리듬, 토정비결, 별자리 운세 중 적어도 어느 하나를 산출하여 사용자의 감정레벨을 결정하고 초기감정을 설정한 다음 그 초기감정에 해당하는 감정패턴을 선택한 후 얼굴 표정으로 생성하여 작동되는 것을 특징으로 한다. The emotional robot using the user data according to the embodiment of the present invention calculates at least one of the biorhythm of the user, the saturating unit and the horoscope of the user on the basis of the user's data, determines the emotion level of the user, And an emotion pattern corresponding to the initial emotion is selected and then generated as a facial expression.

또한, 사용자 데이터를 입력하는 생년월일 입력부를 포함하는 것을 특징으로 한다. And a date of birth input unit for inputting user data.

또한, 감정 표현 로봇은 각종 데이터를 저장하는 데이터 베이스부;와, 상기 생년월일 입력부를 통하여 입력된 생년월일을 기초하여 상기 데이터 베이스부로부터 사용자의 신체리듬, 감정리듬, 지성리듬에 대한 현재의 바이오리듬감정레벨을 조합하여 산출하는 바이오리듬 산출부;와, 상기 조합되어 산출된 바이오리듬 감정레벨 가운데 어느 하나의 바이오리듬감정레벨을 결정하는 감정레벨 결정부;와, 상기 결정된 바이오리듬 감정레벨에 기초하여 상기 데이터 베이스부로부터 사용자의 신체리듬 감정레벨, 감성리듬 감정레벨, 지성리듬 감정레벨에 각각 대응되는 초기감정을 설정하는 초기감정 설정부;와, 상기 초기감정 설정부에서 결정된 초기감정에 기초하여 상기 데이터 베이스부로부터 일정 패턴의 감정표현을 선택하는 감정패턴 선택부;와, 상기 감정패턴 선택부에서 선택된 감정표현을 실행하기 위한 얼굴 표정 생성부;를 포함하는 것을 특징으로 한다. The bodily rhythm, the emotional rhythm, and the biorhythm rhythm of the user are inputted from the database unit based on the date of birth inputted through the date of birth input unit, A biorhythm calculating unit for calculating a biorhythm emotion level based on the biorhythm emotion level and a biorhythm emotion calculating unit for calculating a biorhythm emotion level based on the determined biorhythm emotion level; An initial emotion setting unit for setting an initial emotion corresponding to a user's body rhythm emotion level, emotional rhythm emotion level, and intellectual rhythm emotion level from a database unit, An emotion pattern selection unit for selecting an emotion expression of a predetermined pattern from the base unit; It characterized in that it comprises a; facial expression generation unit for performing the emotional expression is selected from the emotion pattern selector.

또한, 바이오리듬 산출부는 상기 신체리듬, 감성리듬, 지성리듬에서 각각 최상위 감정레벨인 '고조', 상위 감정레벨인 '상승', 하위 감정레벨인 '저하', 최하위 감정레벨인 '위험'을 조합하여 감정레벨을 산출하는 것을 특징으로 한다. In addition, the biorhythm calculating unit calculates the biorhythm calculating unit in the body rhythm, emotional rhythm, and intellectual rhythm by combining the highest emotional level, the higher emotional level, the lower emotional level, and the lowest emotional level, And calculates an emotion level.

또한, 감정레벨 결정부는, 상기 바이오리듬 산출부에서 조합된 감정레벨 가운데 신체리듬, 감성리듬, 지성리듬이 모두 상이할 때는 '고조' 또는 '위험'의 감정레벨을 결정하고, 상기 바이오리듬 감정레벨이 각각 '고조'와 '위험'이면 '위험'의 감정레벨을 결정하고, 상기 바이오리듬 감정레벨이 서로 동일하면 신체리듬, 감성리듬, 지성리듬의 순서로 감정레벨을 결정하는 것을 특징으로 한다. The emotion level determining unit may determine an emotion level of 'high' or 'danger' when the body rhythm, emotional rhythm, and intellectual rhythm are all different among the emotion levels combined in the biorhythm calculating unit, The emotional level is determined in the order of body rhythm, emotional rhythm, and intellectual rhythm when the biorhythm feeling levels are equal to each other.

또한, 초기감정 설정부는 상기 감정레벨 결정부에서 결정된 감정레벨에 대응되는 초기감정을 설정하되, 상기 신체리듬 감정레벨의 '신체리듬 고조'는 'EXCITED 모드'로 설정되고, '신체리듬 상승'은 '보통 모드'로 설정되고, '신체리듬 저하'는 '걱정 모드'로 설정되고, '신체리듬 위험'은 '아픔 모드'로 설정되고, 상기 감성리듬 감정레벨의 '감성리듬 고조'는 '행복 모드'로 설정되고, '감성리듬 상승'은 '멍함 모드'로 설정되고, '감성리듬 저하'는 '슬픔 모드'로 설정되고, '감성리듬 위험'은 '불안 모드'로 설정되고, 상기 지성리듬 감정레벨의 '지성리듬 고조'는 'PROUD 모드'로 설정되고, '지성리듬 상승'은 '호기심 모드'로 설정되고, '지성리듬 저하'는 '화남 모드'로 설정되고, '지성리듬 위험'은 'STRESS 모드'로 설정되는 것을 특징으로 한다. In addition, the initial emotion setting unit sets an initial emotion corresponding to the emotion level determined in the emotion level determining unit, the 'body rhythm height' of the body rhythm emotion level is set to 'EXCITED mode', and the ' The body rhythm risk is set to the pain mode and the emotional rhythm emotional level is set to the normal mode, The emotional rhythm danger is set to the anxiety mode and the intelligent rhythm danger is set to the anxiety state, The 'intellectual rhythm increase' of the rhythm feeling level is set to 'PROUD mode', the 'intellectual rhythm increase' is set to 'curiosity mode', the 'intellectual rhythm decrease' is set to ' 'Is set to' STRESS mode '.

또한, 감정패턴 선택부는 상기 초기감정 설정부에서 설정된 초기감정을 기초로 하여 상기 신체리듬 감정레벨을 순차적으로 선택하는 신체리듬 선택부와, 상기 감성리듬 감정레벨을 순차적으로 선택하는 감성리듬 선택부와, 상기 지성리듬 감정레벨을 순차적으로 선택하는 지성리듬 선택부 중 어느 하나를 선택하고, 상기 신체리듬 선택부는 'EXCITED 모드', '보통 모드', '걱정 모드', '아픔 모드', '졸림 모드', '취침 모드'의 순으로 감정표현을 선택하고, 상기 감성리듬 선택부는 '행복 모드', '멍함 모드', '슬픔 모드', '불안 모드', '피곤 모드', '취침 모드'의 순으로 감정표현을 선택하고, 상기 지성리듬 선택부는 'PROUD 모드', '호기심 모드', '화남 모드', 'STRESS 모드', 'LAZY 모드', '취침 모드'의 순으로 감정표현을 선택하는 것을 특징으로 한다. Also, the emotion pattern selection unit may include a body rhythm selection unit for sequentially selecting the body rhythm emotion level based on the initial emotion set in the initial emotion setting unit, an emotion rhythm selection unit for sequentially selecting the emotion rhythm emotion level And an intelligent rhythm selection unit sequentially selecting the intelligent rhythm emotion level, and the body rhythm selection unit selects one of the 'EXCITED mode', 'normal mode', 'worry mode', ' , 'Sleep mode', and the emotional rhythm selection unit selects 'emotional expression' in the order of 'happy mode', 'blur mode', 'sadness mode', 'anxiety mode', 'tired mode' The intelligent rhythm selection unit selects the emotional expression in the order of 'PROUD mode', 'curiosity mode', 'angry mode', 'STRESS mode', 'LAZY mode', and 'sleep mode' .

또한, 감정 표현 로봇는 상기 감정레벨 결정부에 결정된 감정레벨을 표시하는 디스플레이부;와, 상기 감정패턴 선택부에서 선택된 감정을 상위감정 또는 하위감정으로 이동시키는 각종 터치센서부;와, 상기 사용자가 근거리에 있는 지를 감지하는 적외선 센서부;와, 사용자가 임계치 이상의 소리를 내는 횟수를 감지하는 소리 센서부;와, 사용자의 컴퓨터 사용시간을 점검하는 컴퓨터 사용시간 체크부;와, 상기 감정 표현 로봇이 짖는 소리를 mute로 한 횟수를 감지하는 소리 줄임 체크부; 상기 감정 표현 로봇의 수면시간을 점검하는 수면시간 체크부;를 포함하는 것을 특징으로 한다. The display unit displays the determined emotion level in the emotion level determination unit. The various types of touch sensors include a touch sensor unit for moving the emotion selected by the emotion pattern selection unit to an upper emotion or a lower emotion, A computer usage time check unit for checking the user's computer use time, and a computer usage time checking unit for checking whether the user expresses a bark A sound reduction check section for detecting the number of times the sound is muted; And a sleep time check unit for checking the sleep time of the emotional expression robot.

또한, 각종 터치센서부는 상기 감성리듬 선택부에서 형성된 감정을 상위감정으로 이동시키는 코 터치센서;와, 상기 신체리듬 선택부에서 형성된 감정을 상위감정으로 이동시키는 귀 터치센서;와, 상기 지성리듬 선택부에서 형성된 감정을 상위감정으로 이동시키는 머리 터치센서;와, 상기 감성리듬 선택부, 신체리듬 선택부, 지성리듬 선택부에서 형성된 감정을 선택적으로 하위감정으로 이동시키는 꼬리 터치센서;를 포함하는 것을 특징으로 하는 사용자 데이터를 이용한 감정 표현 로봇. In addition, the various touch sensor units include a nose touch sensor that moves the emotion formed by the emotional rhythm selection unit to an upper emotion, an ear touch sensor that moves emotion formed by the body rhythm selection unit to an upper emotion, And a tail touch sensor for selectively moving the emotion formed by the emotional rhythm selection unit, the body rhythm selection unit, and the intellectual rhythm selection unit to a lower emotion, Emotion expression robot using user data.

또한, 감정 표현 로봇은 사용자의 컴퓨터 사용시간을 점검하는 컴퓨터 사용시간 체크부;와, 상기 감정 표현 로봇의 수면시간을 점검하는 수면시간 체크부;를 더 포함하는 것을 특징으로 한다. In addition, the emotional expression robot may further include a computer usage time check unit for checking the user's computer usage time, and a sleep time check unit for checking the sleep time of the emotional expression robot.

또한, 적외선 센서부에서 감지된 사용자의 이용 시간에 따라서 '행복 모드'와 '불안 모드' 사이 및 'EXCITED 모드'와 '아픔 모드' 사이에서 선택된 감정표현을 일정시간 증가시키고 상반 감정을 일정시간 감소시키는 것을 특징으로 한다. In addition, the emotion expression selected between the 'happy mode' and the 'anxiety mode' and between the 'EXCITED mode' and the 'pain mode' is increased for a predetermined time according to the user's use time detected by the infrared sensor unit, .

또한, 소리 센서부에서 감지된 사용자의 소리 횟수에 따라서 '호기심 모드'와 '화남 모드' 사이 및 '멍함 모드'와 '슬픔 모드' 사이에서 선택된 감정표현을 일정시간 증가시키고 상반 감정을 일정시간 감소시키는 것을 특징으로 한다. Also, depending on the number of sounds of the user sensed by the sound sensor unit, the emotional expression selected between the curiosity mode and the angry mode and between the ambiguous mode and the sorrow mode is increased for a certain period of time and the upper- .

또한, 컴퓨터 사용시간 체크부에서 점검된 사용자의 컴퓨터 사용시간 횟수에 따라서 '보통 모드'와 '걱정 모드' 사이에서 선택된 감정표현을 일정시간 증가시키고 상반 감정을 일정시간 감소시키는 것을 특징으로 한다. In addition, according to the number of times of computer use by the user checked in the computer usage time checking unit, the selected emotional expression between the 'normal mode' and the 'worried mode' is increased for a certain period of time and the opposite emotion is decreased for a certain period of time.

또한, 소리 줄임 체크부에서 체크된 사용자의 소리 줄임 횟수에 따라서 'PROUD 모드'와 'STRESS 모드' 사이에서 선택된 감정표현을 일정시간 증가시키고 상반 감정을 일정시간 감소시키는 것을 특징으로 한다. In addition, according to the number of times of the user's loudness reduction checked in the loudness check section, the selected emotion expression between the 'PROUD mode' and the 'STRESS mode' is increased for a certain period of time and the upper emotions are reduced for a certain period of time.

또한, 수면시간 체크부에서 체크된 의해 상기 감정 표현 로봇의 수면시간에 따라서 'PROUD 모드'와 'LAZY 모드' 및 '행복 모드'와 '피곤 모드' 및 'EXCITED 모드'와 '졸림 모드' 사이에서 선택된 감정표현을 일정시간 증가시키고 상반 감정을 일정시간 감소시키는 것을 특징으로 한다. In addition, it is also possible to use the 'PROUD mode' and the 'LAZY mode', the 'happy mode' and the 'tired mode' and the 'EXCITED mode' and the 'sleepy mode', depending on the sleep time of the emotional expression robot, The selected emotional expression is increased for a predetermined time and the upper emotional feeling is decreased for a predetermined time.

또한, 얼굴 표정 생성부는 눈꺼풀과 눈알의 위치를 조합하여 얼굴 표정으로 생성하도록 하는 것을 특징으로 한다. In addition, the facial expression generation unit is characterized in that the facial expression is generated by combining the positions of the eyelids and the eyeballs.

본 발명의 실시예에 따른 바이오리듬을 이용한 감정 표현 로봇은 생년월일을 입력하는 생년월일 입력부와, 각종 데이터를 저장하는 데이터 베이스부와, 상기 생년월일 입력부를 통하여 입력된 생년월일을 기초하여 상기 데이터 베이스부로부터 사용자의 신체리듬, 감정리듬, 지성리듬에 대한 현재의 바이오리듬 감정레벨을 조합하여 산출하는 바이오리듬 산출부와, 상기 조합되어 산출된 바이오리듬 감정레벨 가운데 어느 하나의 바이오리듬 감정레벨을 결정하는 감정레벨 결정부와, 상기 결정된 바이오리듬 감정레벨에 기초하여 상기 데이터 베이스부로부터 사용자의 신체리듬 감정레벨, 감성리듬 감정레벨, 지성리듬 감정레벨에 각각 대응되는 초기감정을 설정하는 초기감정 설정부와, 상기 초기감정 설정부에서 결정된 초기감정에 기초하여 상기 데이터 베이스부로부터 일정 패턴의 감정표현을 선택하는 감정패턴 선택부와, 상기 감정패턴 선택부에서 선택된 감정표현을 실행하기 위하여 눈알과 눈꺼풀을 조합하여 얼굴 표정 생성부를 포함하는 것을 특징으로 한다. The emotion expression robot using the biorhythm according to an embodiment of the present invention may include a date of birth input unit for inputting a date of birth, a database unit for storing various data, a user interface unit for inputting data from the database unit, A biorhythm calculating unit for calculating a biorhythm feeling level of the body rhythm, an emotional rhythm, and an intellectual rhythm of the biorhythm according to the current biorhythm feeling level of the biorhythm feeling level, An initial emotion setting unit that sets an initial emotion corresponding to a user's body rhythm emotion level, emotional rhythm emotion level, and emotional rhythm emotion level from the database unit based on the determined biorhythm emotion level, Based on the initial emotion determined in the initial emotion setting section, It characterized in that it comprises a combination of the eyeball and eyelids facial expression creation unit to execute the emotion pattern selection unit for selecting an emotional expression of a certain pattern, the emotional expression selected by the pattern selector emotion from the database unit.

또한, 초기감정 설정부는 'EXCITED 모드', '보통 모드', '걱정 모드', '아픔 모드', '행복 모드', '멍함 모드', '슬픔 모드', '불안 모드', 'PROUD 모드', '호기심 모드', '화남 모드', 'STRESS 모드'에 대응되는 감정표현을 초기감정을 선택하는 것을 특징으로 한다. In addition, the initial emotion setting unit may set the initial emotion setting unit to 'EXCITED mode', 'normal mode', 'worry mode', 'pain mode', 'happy mode', 'ambiguous mode', 'sorrow mode', 'anxiety mode' , 'Curiosity mode', 'angry mode', and 'STRESS mode'.

또한, 감정패턴 선택부는 'EXCITED 모드', '보통 모드', '걱정 모드', '아픔 모드', '졸림 모드'의 순서로 감정표현을 선택하는 제1패턴과, '행복 모드', '멍함 모드', '슬픔 모드', '불안 모드', '피곤 모드'의 순서로 감정표현을 선택하는 제2패턴과, 'PROUD 모드', '호기심 모드', '화남 모드', 'STRESS 모드', 'LAZY 모드'의 순서로 감정표현을 선택하는 제3패턴을 포함하는 것을 특징으로 한다. In addition, the emotion pattern selection unit may include a first pattern for selecting emotional expressions in the order of EXCITED mode, normal mode, worry mode, pain mode, and sleepiness mode, A second pattern for selecting emotional expressions in the order of 'mode', 'grief mode', 'anxiety mode' and 'tired mode', and a second pattern for selecting emotional expressions in order of 'PROUD mode', 'curiosity mode' And a third pattern for selecting an emotional expression in the order of " LAZY mode ".

또한, 얼굴 표정 생성부는 눈꺼풀 열림 비율, 눈꺼풀이 위치하는 방향, 눈꺼풀의 구동속도, 눈꺼풀의 구동 인터벌을 통하여 상기 'EXCITED 모드', '보통 모드', '걱정 모드', '아픔 모드', '졸림 모드', '행복 모드', '멍함 모드', '슬픔 모드', '불안 모드', '피곤 모드', 'PROUD 모드', '호기심 모드', '화남 모드', 'STRESS 모드', 'LAZY 모드'에 대응되는 감정표현을 실행하는 것을 특징으로 한다. In addition, the facial expression generating unit may generate the facial expressions by using the EXCITED mode, the 'normal mode', the 'worry mode', the 'pain mode', the 'sleepiness mode', and the 'sleepiness mode' through the eyelid opening ratio, the direction in which the eyelid is positioned, Mode, "" happiness mode, "" blur mode, "" sadness mode, "" anxiety mode, "" tired mode, "" PROUD mode, "" curiosity mode, Quot; mode " is performed.

따라서, 본 발명의 실시예에 따른 사용자 데이터를 이용한 감정 표현 로봇은 사용자의 바이오리듬, 토정비결, 별자리 운세 등과 같은 데이터를 이용하여 로봇의 감정 표현 패턴을 변화시켜 사용자와의 상호작용이 가능하도록 한다. Accordingly, the emotional expression robot using the user data according to the embodiment of the present invention can change the emotional expression pattern of the robot by using data such as biorhythm of the user, saturating unit, constellation fortune telling, etc. to enable interaction with the user.

또한, 본 발명의 실시예에 따른 사용자 데이터를 이용한 감정 표현 로봇은 사용자의 관심도에 따라서 얼굴 표정이 변화되어 사용자가 로봇에 보다 강한 애착을 가질 수 있도록 하는 효과가 있다. Also, the emotional expression robot using the user data according to the embodiment of the present invention has an effect that the facial expression is changed according to the degree of interest of the user, so that the user can have stronger attachment to the robot.

도 1은 본 발명의 실시예에 따른 사용자 데이터를 이용한 감정 표현 로봇의 구성을 개략적으로 나타낸 도면이다.
도 2는 도 1에 도시된 바이오리듬 산출부를 나타낸 도면이다.
도 3은 도 1에 도시된 감정레벨 결정부를 나타낸 도면이다.
도 4는 도 1에 도시된 초기감정 설정부를 나타낸 도면이다.
도 5는 도 1에 도시된 감정패턴 선택부를 나타낸 도면이다.
도 6은 본 발명의 실시예에 따른 사용자 데이터를 이용한 감정 표현 로봇의 외관을 나타낸 도면이다.
FIG. 1 is a view schematically showing a configuration of a robot for expressing emotion using user data according to an embodiment of the present invention.
FIG. 2 is a diagram showing the biorhythm calculating unit shown in FIG. 1. FIG.
FIG. 3 is a view showing the emotion level determining unit shown in FIG. 1. FIG.
4 is a view showing the initial emotion setting unit shown in FIG.
FIG. 5 is a diagram illustrating the emotion pattern selector shown in FIG. 1. Referring to FIG.
6 is a view showing the appearance of the emotion expression robot using user data according to the embodiment of the present invention.

이하, 첨부된 도면들을 참조하면서 본 발명의 바람직한 실시예를 상세히 설명하기로 한다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

먼저, 본 발명의 실시예에 따른 사용자 데이터를 이용한 감정 표현 로봇은 사용자의 바이오리듬, 토정비결, 별자리 운세 등과 같은 데이터를 이용하여 감정 표현을 변화시킬 수 있는데, 이하 사용자의 바이오리듬에 관하여 설명하는 것은 사용자의 토정비결, 별자리 운세와 같은 다른 사용자 데이터에 대하여도 적용될 수 있음은 물론이다. First, the emotional expression robot using user data according to the embodiment of the present invention can change the emotional expression using data such as biorhythm of the user, astrological sign, constellation fortune telling, etc. Hereinafter, description of the biorhythm of the user It is also applicable to other user data such as a user's astrological sign, a horoscope, and the like.

도 1은 본 발명의 실시예에 따른 사용자 데이터를 이용한 감정 표현 로봇의 구성을 개략적으로 나타낸 도면이며, 도 2는 도 1에 도시된 바이오리듬 산출부를 나타낸 도면이며, 도 3은 도 1에 도시된 감정레벨 결정부를 나타낸 도면이며, 도 4는 도 1에 도시된 초기감정 설정부를 나타낸 도면이며, 도 5는 도 1에 도시된 감정패턴 선택부를 나타낸 도면이며, 도 6은 본 발명의 실시예에 따른 사용자 데이터를 이용한 감정 표현 로봇의 외관을 나타낸 도면이다. FIG. 1 is a view schematically showing a configuration of a robot for expressing emotion using user data according to an embodiment of the present invention. FIG. 2 is a diagram showing a biorhythm calculating unit shown in FIG. 1, FIG. 4 is a diagram showing an initial emotion setting unit shown in FIG. 1, FIG. 5 is a view showing the emotion pattern selecting unit shown in FIG. 1, and FIG. Fig. 5 is a diagram showing an appearance of an emotion expression robot using user data.

도 1 내지 도 6에 도시된 바와 같이, 본 발명의 실시예에 따른 사용자 데이터를 이용한 감정 표현 로봇(10)은 생년월일 입력부(100)를 통하여 입력된 생년월일을 기초로 신체리듬, 감성리듬, 지성리듬에 관한 바이오리듬을 산출하여 감정레벨을 결정하고 초기감정을 설정한 다음 감정의 표현행위를 선택한 후 얼굴 표정으로 생성하는 것을 특징으로 한다. 1 to 6, the emotion expression robot 10 using user data according to an embodiment of the present invention may be configured to display a body rhythm, an emotional rhythm, an intellectual rhythm, and an intellectual rhythm based on the date of birth inputted through the date of birth input unit 100. [ A biorhythm related to the biorhythm is calculated, an emotion level is determined, an initial emotion is set, and then an emotional expression act is selected and then the emotion is generated as a facial expression.

사용자는 생년월일 입력부(100)를 통하여 자신의 생년월일을 입력한다. 생년월일 입력부(100)는 컴퓨터 등의 입력장치(미도시)에 구비될 수 있다. The user inputs his or her date of birth through the date of birth input unit 100. [ The date of birth input unit 100 may be provided in an input device (not shown) such as a computer.

바이오리듬을 이용한 감정 표현 로봇(10)은 데이터 베이스부(200), 바이오리듬 산출부(300), 감정레벨 결정부(400), 초기감정 설정부(500), 감정패턴 선택부(600), 얼굴표정 생성부(700)를 포함하여 구성된다. The emotion expression robot 10 using the biorhythm includes a database unit 200, a biorhythm calculation unit 300, an emotion level determination unit 400, an initial emotion setting unit 500, an emotion pattern selection unit 600, And a facial expression generating unit 700.

데이터 베이스부(200)는 각종 데이터를 저장하고 관리하는데, 이러한 데이터 베이스부(200)는 생년월일 입력부(100)를 통해 입력된 사용자의 생년월일을 저장하고 관리하는 사용자정보 데이터 베이스부(미도시)와, 바이오리듬 정보 데이터 베이스부(미도시)를 포함할 수 있다. The database unit 200 stores and manages various data. The database unit 200 includes a user information database unit (not shown) for storing and managing the user's date of birth entered through the date of birth input unit 100, , And a biorhythm information database unit (not shown).

바이오리듬 산출부(300)는 사용자가 입력한 생년월일 값을 바이오리듬정보 데이터 베이스에 저장된 바이오리듬 정보와 비교하여 현재의 바이오리듬을 산출한다. The biorhythm calculating unit 300 compares the date of birth entered by the user with the biorhythm information stored in the biorhythm information database to calculate the current biorhythm.

이러한 바이오리듬은 신체리듬, 감성리듬, 지성리듬 각 감정리듬 별로 각각 4단계 레벨 중 어느 하나의 감정레벨의 조합으로 산출된다. This biorhythm is calculated as a combination of any one of the four levels of the body rhythm, the emotional rhythm, and the intellectual rhythm, respectively.

각 감정리듬별로 최상위 감정레벨을 '고조', 상위 감정레벨을 '상승', 하위 감정레벨(410,420,430)을 '저하', 최하위 감정레벨을 '위험'으로 한다. For each emotion rhythm, the highest emotion level is raised, the upper emotion level is raised, the lower emotion levels are lowered (410, 420, 430), and the lowest emotion level is considered as dangerous.

따라서, 신체리듬은 최상위 신체 감정레벨인 '신체리듬 고조'와, 상위 신체 감정레벨인 '신체리듬 상승'과, 하위 신체 감정레벨인 '신체리듬 저하'와, 최하위 신체 감정레벨인 '신체리듬 위험' 중 어느 하나로 산출된다. 그리고, 감성리듬은 최상위 감성 감정레벨인 '감성리듬 고조'와, 상위 감성 감정레벨인 '감성리듬 상승'과, 하위 감성 감정레벨인 '감성리듬 저하'와, 최하위 감성 감정레벨인 '감성리듬 위험' 중 어느 하나로 산출된다. 그리고, 지성리듬은 최상위 지성 감정레벨인 '지성리듬 고조', 상위 지성 감정레벨인 '지성리듬 상승', 하위 지성 감정레벨인 '지성리듬 저하', 최하위 지성 감정레벨인 '지성리듬 위험' 중 어느 하나로 산출된다. Therefore, the body rhythm is composed of the body rhythm height, the upper body emotion level, the body rhythm rise, the lower body emotion level, the lower body rhythm level, and the lower body emotion level, '. The emotional rhythm is composed of the emotional rhythm height, which is the highest emotional emotional level, the emotional rhythm rise, which is the upper emotional emotional level, the lower emotional rhythm, which is the lower emotional emotional level, '. In addition, the intellectual rhythm is classified into two types, namely, "intelligent rhythm elevation" which is the highest intelligent emotion level, "elevation of intelligent rhythm" which is the upper intelligence emotion level, "intelligent rhythm degradation" which is the lower intelligence emotion level, and "intelligent rhythm danger" .

그러므로, 도 2에 도시된 바와 같이, 이러한 바이오리듬 감정레벨은 {'신체고조','감성고조','지성고조'}, {'신체고조','감성고조','지성상승'},{'신체고조','감성고조','지성저하'},...,{'신체위험','감성위험','지성위험'}까지 64개의 바이오리듬 감정레벨 중 어느 하나로 조합되어 산출되게 된다. Therefore, as shown in FIG. 2, such a biorhythm feeling level can be classified into four levels, i.e., 'body height increase', 'emotional height increase', 'intelligent height increase', 'body height increase', 'emotional increase' It is calculated by combining with 64 biorhythm feeling levels ranging from 'body height increase', 'emotional upset', 'intellect decrease', ..., {'body risk', 'emotional risk' .

감정레벨 결정부(400)는 바이오리듬 산출부(300)에서 조합되어 산출된 바이오리듬 감정레벨의 조합에 근거하여 현재의 신체리듬, 감성리듬, 지성리듬 중 어느 하나의 감정레벨(410,420,430)을 결정하게 된다. The emotion level determination unit 400 determines one of the emotion levels 410, 420, and 430 of the current body rhythm, emotional rhythm, and intellectual rhythm based on the combination of the biorhythm feeling levels calculated in combination by the biorhythm calculating unit 300 .

신체리듬, 감성리듬, 지성리듬이 모두 상이할 때는 최상위 감정레벨(411,421,431) 또는 최하위 감정레벨(414,424,434)로 결정한다. When the body rhythm, emotional rhythm, and intellectual rhythm are all different, the highest emotion level (411, 421, 431) or the lowest emotion level (414, 424, 434) is determined.

예를 들면, 신체리듬, 감성리듬, 지성리듬이 각각 '고조', '저하', '위험'이면 위험을 선택한다. 또한, 신체리듬, 감성리듬, 지성리듬이 각각 '고조', '저하', '상승'이면 최상위 감정레벨(411,421,431)인 '고조'를 선택한다. 또한, 신체리듬, 감성리듬, 지성리듬이 각각 '상승', '저하', '위험'이면 최하위 감정레벨(414,424,434)인 '위험'을 선택한다. 또한, 신체리듬, 감성리듬, 지성리듬이 각각 '고조', '상승', '저하'이면 최상위 감정레벨(411,421,431)인 '고조'를 선택한다. For example, if the body rhythm, emotional rhythm, and intellectual rhythm are 'high', 'low', or 'dangerous' Also, if the body rhythm, emotional rhythm, and intellectual rhythm are 'high', 'low', or 'rise', select 'high', which is the highest emotion level (411,421,431). In addition, if the body rhythm, emotional rhythm, and intellectual rhythm are 'rise', 'fall', or 'danger', respectively, 'risk' is selected as the lowest emotional level (414,424,434). Also, if the body rhythm, emotional rhythm, and intellectual rhythm are 'high', 'rise', or 'low', respectively, the highest emotion level (411,421,431) is selected.

그리고, 신체리듬, 감성리듬, 지성리듬이 최상위 감정레벨(411,421,431)인 '고조'와 최하위 감정레벨(414,424,434)인 '위험'이 조합되어 있으면, 이 경우 최하위 감정레벨(414,424,434)인 '위험'을 선택한다. If the body rhythm, emotional rhythm, and intellectual rhythm are combined with the highest level (411, 421, 431) and the lowest level (414, 424, 434), which is the lowest level of emotion, Select.

그리고, 동일한 감정레벨(410~430)이 두 개 이상일 경우는 감정레벨(410~430) 중에서 신체리듬, 감성리듬, 지성리듬의 순서로 감정레벨(410~430)로 결정하게 된다. When two or more emotion levels 410 to 430 are the same, the emotion levels 410 to 430 are determined as the emotion levels 410 to 430 in the order of body rhythm, emotional rhythm, and intellectual rhythm.

예를 들면, 바이오리듬 산출부(300)에서 조합되어 산출된 감정레벨(410~430)이 {'신체리듬 상승', '감성리듬 저하', '지성리듬 저하'}이면 '감성리듬 저하(423)'를 선택하게 된다. 또한, 바이오리듬 산출부(300)에서 조합되어 산출된 감정레벨이 {'신체리듬 저하', '감성리듬 저하', '지성리듬 저하'}이면 '신체리듬 저하(413)'를 선택한다. 또한, 바이오리듬 산출부(300)에서 조합되어 산출된 감정레벨이 {'신체리듬 고조', '감성리듬 저하', '지성리듬 저하'}이면 '감성리듬 저하(423)'를 선택한다. For example, if the emotion levels 410 to 430 calculated in combination by the biorhythm calculation unit 300 are {'body rhythm increase', 'emotional rhythm decrease', or 'intellectual rhythm decrease'}, ) '. If the emotion level calculated in the biorhythm calculating unit 300 is {'body rhythm lowering', 'emotional rhythm lowering', or 'intellectual rhythm lowering'}, 'body rhythm lowering 413' is selected. If the emotion level calculated in the biorhythm calculating unit 300 is {'body rhythm height increase', 'emotional rhythm decrease', or 'oyster rhythm decrease'}, 'emotional rhythm decrease 423' is selected.

따라서, 감정레벨 결정부(400)는 '신체리듬 고조(411)', '신체리듬 상승(412)', '신체리듬 저하(413)', '신체리듬 위험(414)', '감성리듬 고조(421)', '감성리듬 상승(422)', '감성리듬 저하(423)', '감성리듬 위험(424)', '지성리듬 고조(431)', '지성리듬 상승(432)', '지성리듬 저하(433)', '지성리듬 위험(434)'의 12개의 감정레벨(410~430) 중 어느 하나의 감정레벨(410~430)로 결정하게 된다. Accordingly, the emotion level determining unit 400 may determine the emotion level of the body, such as 'body rhythm increase 411', 'body rhythm rise 412', 'body rhythm decrease 413', 'body rhythm risk 414' (421), 'emotional rhythm rise (422)', 'emotional rhythm depression (423)', 'emotional rhythm risk (424)', 'intellectual rhythm enhancement (431) The emotion levels 410 to 430 of the 12 emotion levels 410 to 430 are determined as the 'emotional rhythm deterioration 433' and the 'intellectual rhythm risk 434'.

초기감정 설정부(500)는 감정레벨 결정부(400)에 의해 결정된 바이오리듬 감정레벨(410~430)에 기초하여 데이터 베이스부(200)로부터 대응하는 초기감정을 설정한다. The initial emotion setter 500 sets the corresponding initial emotion from the database 200 based on the biorhythm emotion levels 410 to 430 determined by the emotion level determiner 400. [

초기감정은 신체리듬 감정레벨(410)에 관한 신체리듬 감정모드(510)와, 감성리듬 감정레벨(420)에 관한 감성리듬 감정모드(520)와, 지성리듬 감정레벨(430)에 관한 지성리듬 감정모드(530)로 이루어진다. The initial emotion includes a body rhythm emotion mode 510 relating to the body rhythm emotion level 410, an emotion rhythm emotion mode 520 relating to the emotion rhythm emotion level 420, And an emotion mode 530.

신체리듬 감정모드(510)는 'EXCITED 모드(511)', '보통 모드(512)', '걱정 모드(513)', '아픔 모드(514)'로 이루어지고, 감성리듬 감정모드(520)는 '행복 모드(521)', '멍함 모드(522)', '슬픔 모드(523)', '불안 모드(524)'로 이루어지고, 지성리듬 감정모드(530)에 관한 'PROUD 모드(531)', '호기심 모드(532)', '화남 모드(533)', 'STRESS 모드(534)'로 이루어진다. The body rhythm emotion mode 510 includes an EXCITED mode 511, a normal mode 512, a worry mode 513, and a pain mode 514, and the sensory rhythm emotion mode 520, 'PROUD mode 531' related to the intellectual rhythm emotion mode 530 is made up of 'happy mode 521', 'blur mode 522', 'sadness mode 523' and 'anxiety mode 524' ), 'Curiosity mode 532', 'angry mode 533', and 'STRESS mode 534'.

신체리듬 감정레벨(410)에서 '신체리듬 고조(411)'는 'EXCITED 모드(511)'에 해당되는 초기감정을 설정하고, '신체리듬 상승(412)'은 '보통 모드(512)'에 해당되는 초기감정을 설정하고, '신체리듬 저하(413)'는 '걱정 모드(513)'에 해당되는 초기감정을 설정하고, '신체리듬 위험(414)'은 '아픔 모드(514)'에 해당되는 초기감정을 설정한다. In the body rhythm emotion level 410, the 'body rhythm enhancement 411' sets the initial emotion corresponding to the 'EXCITED mode 511' and the 'body rhythm rise 412' The body rhythm reduction 413 sets the initial emotion corresponding to the worry mode 513 and the body rhythm risk 414 sets the initial emotion corresponding to the pain mode 514 Set the appropriate initial emotion.

감성리듬 감정레벨(420)에서 '감성리듬 고조(421)'는 '행복 모드(521)'에 해당되는 초기감정을 설정하고, '감성리듬 상승(422)'은 '멍함 모드(522)'에 해당되는 초기감정을 설정하고, '감성리듬 저하(423)'는 '슬픔 모드(523)'에 해당되는 초기감정을 설정하고, '감성리듬 위험(424)'은 '불안 모드'에 해당되는 초기감정을 설정한다. In the emotion rhythm emotion level 420, the 'emotional rhythm enhancement 421' sets the initial emotion corresponding to the 'happy mode 521' and the 'emotional rhythm rise 422' The emotion rhythm drop 423 sets the initial emotion corresponding to the sadness mode 523 and the emotion rhythm danger 424 sets the initial emotion corresponding to the anxiety mode Set your emotions.

지성리듬 감정레벨(430)에서 '지성리듬 고조(431)'는 'PROUD 모드(531)'에 해당되는 초기감정을 설정하고, '지성리듬 상승(432)'은 '호기심 모드(532)'에 해당되는 초기감정을 설정하고, '지성리듬 저하(433)'는 '화남 모드(533)'에 해당되는 초기감정을 설정하고, '지성리듬 위험(434)'은 'STRESS 모드(534)'에 해당되는 초기감정을 설정한다. In the oily rhythm emotion level 430, the 'intelligent rhythm enhancement 431' sets the initial emotion corresponding to the 'PROUD mode 531', the 'intelligent rhythm rise 432' is set in the 'curiosity mode 532' The intelligent rhythm descent 433 sets the initial emotion corresponding to the anger mode 533 and the intelligent rhythm danger 434 sets the initial emotion corresponding to the STRESS mode 534 Set the appropriate initial emotion.

따라서, 초기감정 설정부(500)는 'EXCITED 모드(511)', '보통 모드(512)', '걱정 모드(513)', '아픔 모드(514)', '행복 모드(521)', '멍함 모드(522)', '슬픔 모드(523)', '불안 모드(524)', 'PROUD 모드(531)', '호기심 모드(532)', '화남 모드(533)', 'STRESS 모드(534)'에 해당하는 12개 초기감정 중 어느 하나의 초기감정을 설정하게 된다. Accordingly, the initial emotion setting unit 500 may set the initial emotion setting unit 500 to 'EXCITED mode 511', 'normal mode 512', 'worry mode 513', 'pain mode 514', 'happy mode 521' , 'PROUD mode 531', 'curiosity mode 532', 'angry mode 533', 'STRESS' 523 ',' anxiety mode 524 ' Mode 534 'of the initial emotion.

감정패턴 선택부(600)는 초기감정 설정부(500)에서 설정된 초기감정에서부터 소정의 감정패턴을 선택한다. The emotion pattern selection unit 600 selects a predetermined emotion pattern from the initial emotion set in the initial emotion setting unit 500.

이러한 감정패턴 선택부(600)는 신체리듬 감정레벨(410)을 순차적으로 형성하는 신체리듬 선택부(610), 감성리듬 감정레벨(420)을 순차적으로 형성하는 감성리듬 선택부(620), 지성리듬 감정레벨(430)을 순차적으로 형성하는 지성리듬 선택부(630)를 포함한다. The emotion pattern selection unit 600 includes a body rhythm selection unit 610 for sequentially forming a body rhythm feeling level 410, an emotional rhythm selection unit 620 for sequentially forming an emotional rhythm emotion level 420, And an intellectual rhythm selection unit 630 that sequentially forms the rhythm feeling level 430. [

신체리듬 선택부(610)는 'EXCITED 모드(511)', '보통 모드(512)', '걱정 모드(513)', '아픔 모드(514)', '졸림 모드(515)', '취침 모드(540)'의 순으로 감정 표현 행위를 선택한다. The body rhythm selection unit 610 may be configured to select one of the following modes: EXCITED mode 511, normal mode 512, worry mode 513, pain mode 514, sleepiness mode 515, Mode 540 '.

예를 들어, 초기감정 설정부(500)에서 결정된 초기감정이 'EXCITED 모드(511)'이면, 'EXCITED 모드(511)'에 해당하는 감정 표현을 일정시간(예를 들어, 30분) 실행하도록 선택하고, '보통 모드(512)', '걱정 모드(513)', '아픔 모드(514)', '졸림 모드(515)'에 해당하는 감정 표현을 각각 일정시간(예를 들어 30분) 실행하도록 선택하고, '취침 모드(540)'에 들어가도록 선택한다. For example, if the initial emotion determined by the initial emotion setting unit 500 is 'EXCITED mode 511', the emotion expression corresponding to 'EXCITED mode 511' is executed for a predetermined time (for example, 30 minutes) And emotional expressions corresponding to the 'normal mode 512', the 'worry mode 513', the 'pain mode 514' and the 'sleepiness mode 515' are set to a predetermined time (for example, 30 minutes) , And selects to enter 'sleep mode 540'.

마찬가지로, 초기감정 설정부(500)에서 설정된 초기감정이 '걱정 모드(513)'이면 '걱정 모드(513)'에 해당하는 감정 표현을 일정시간(예를 들어 30분) 실행하도록 선택하고, '아픔 모드(514)', '졸림 모드(515)'에 해당하는 감정 표현을 각각 일정시간(예를 들어 30분) 실행하도록 선택하고, '취침 모드(540)'에 들어가도록 선택한다. Likewise, if the initial emotion set in the initial emotion setting unit 500 is the 'worry mode 513', the emotion expression corresponding to the 'worry mode 513' is selected to be executed for a predetermined time (for example, 30 minutes) (For example, 30 minutes) and selects the sleep mode 540 to enter the emotional expression corresponding to the sleep mode 514 and the sleeping mode 515, respectively.

감성리듬 선택부(620)는 '행복 모드(521)', '멍함 모드(522)', '슬픔 모드(523)', '불안 모드(524)', '피곤 모드(525)', '취침 모드(540)'의 순으로 감정 표현 행위를 선택한다. The emotional rhythm selection unit 620 selects the emotional rhythm selection unit 620 and the emotional rhythm selection unit 620. The emotional rhythm selection unit 620 selects the emotional rhythm selection unit 620 based on the sensory rhythm selection unit 620, Mode 540 '.

예를 들어, 초기감정 설정부(500)에서 설정된 초기감정이 '행복 모드(521)'이면, '행복 모드(521)'에 해당하는 감정 표현을 일정시간(예를 들어 30분) 실행하도록 선택하고, '멍함 모드(522)', '슬픔 모드(523)', '불안 모드(524)', '피곤 모드(525)'에 해당하는 감정 표현을 각각 일정시간(예를 들어 30분) 실행하도록 선택하고, '취침 모드(540)'에 들어가도록 선택한다. For example, if the initial emotion set in the initial emotion setting unit 500 is 'happy mode 521', the emotion expression corresponding to 'happiness mode 521' is selected to be executed for a predetermined time (for example, 30 minutes) And emotional expressions corresponding to 'blind mode 522', 'sadness mode 523', 'anxiety mode 524' and 'tired mode 525' are executed for a predetermined time (for example, 30 minutes) , And selects to enter the sleep mode (540).

지성리듬 선택부(630)는 'PROUD 모드(531)', '호기심 모드(532)', '화남 모드(533)', 'STRESS 모드(534)', 'LAZY 모드(535)', '취침 모드(540)'의 순으로 감정 표현 행위를 선택한다. The intelligent rhythm selection unit 630 may include a PROUD mode 531, a curiosity mode 532, a FAX mode 533, a STRESS mode 534, a LAZY mode 535, Mode 540 '.

예를 들어, 초기감정 설정부(500)에서 설정된 초기감정이 'PROUD 모드(531)'이면, 'PROUD 모드(531)'에 해당하는 감정 표현을 일정시간(예를 들어 30분) 실행하도록 선택하고, '호기심 모드(532)', '화남 모드(533)', 'STRESS 모드(534)', 'LAZY 모드(535)'에 해당하는 감정 표현을 일정시간(예를 들어 30분) 실행하도록 선택하고, '취침 모드(540)'에 들어가도록 선택한다. For example, if the initial emotion set in the initial emotion setting unit 500 is 'PROUD mode 531', the emotion expression corresponding to 'PROUD mode 531' is selected to be executed for a predetermined time (for example, 30 minutes) And executes the emotion expression corresponding to the curiosity mode 532, the affectionate mode 533, the STRESS mode 534, and the LAZY mode 535 for a predetermined time (for example, 30 minutes) , And selects to enter the sleep mode (540).

이렇게 감정패턴 선택부(600)에서 선택된 감정 표현을 얼굴표정 생성부(700)에서 실행된다. 얼굴표정 생성부(700)는 초기감정 설정부(500)와 감정패턴 선택부(600)에서 형성된 각 감정 표현를 실행하기 위하여 표 1과 같이 눈꺼풀과 눈알의 위치를 조합하여 얼굴 표정으로 생성한다. The emotion expression selected by the emotion pattern selection unit 600 is executed in the facial expression generation unit 700. [ The facial expression generating unit 700 combines the positions of eyelids and eyeballs as shown in Table 1 in order to execute each emotion expression formed in the initial emotion setting unit 500 and the emotion pattern selecting unit 600 to generate facial expression.

Figure 112011084322140-pat00001
Figure 112011084322140-pat00001

표 1에 기재된 눈꺼풀 열림 비율은 눈알에서 눈꺼풀이 열려 있는 비율을 나타내고, 화살표는 눈꺼풀이 위치하는 방향을 나타내고, 눈꺼풀 구동속도는 한번 깜빡이는 시각을 나타내고, 구동 인터벌은 한번 깜빡인 후 다시 깜빡일 때 까지의 시간을 나타낸다. The eyelid opening ratio shown in Table 1 indicates the rate at which the eyelid is opened in the eyeball, the arrow indicates the direction in which the eyelid is positioned, the eyelid drive speed indicates the time at which the eyelid is blinking once, and the drive interval is once blinked and then blinks again Lt; / RTI >

눈알의 위치는 눈알이 중앙에서 화살표 방향으로 위치하고 있음을 나타내고, 눈알위치의 우측 첫번째 및 두번째 열은 각각 눈꺼풀과 조합된 좌측 눈알 및 우측 눈알을 각각 나타낸다. 그리고, 세번째 열은 눈알이 좌우로 이동하고 있음을 나타낸다. The position of the eyeball indicates that the eyeball is located in the direction of the arrow from the center, and the first and second rows on the right side of the eyeball position respectively indicate the left eyeball and the right eyeball combined with the eyelid. And the third column shows that the eyeball is moving to the left and right.

'행복 모드(521)'에서는 눈꺼풀 열림 비율이 80%이며, 눈꺼풀은 정중앙 상부에 위치하며, 눈꺼풀 구동속도는 1초, 구동 인터벌은 10초, 눈알 위치는 정중앙 상부방향에 위치하게 된다. In the 'happy mode (521)', the eyelid opening rate is 80%, the eyelid is located in the upper part of the middle, the eyelid driving speed is 1 second, the driving interval is 10 seconds and the eyeball position is located in the upper part of the center.

'불안 모드(524)'에서는 눈꺼풀 열림 비율이 80%이며, 눈꺼풀은 왼쪽 45도 상부방향에 위치하며, 눈꺼풀 구동속도는 0.5초, 구동 인터벌은 10초, 눈알 위치는 정중앙 좌측에 위치하고, 눈알이 좌우로 이동하게 된다. In the 'anxiety mode (524)', the eyelid opening ratio is 80%, the eyelid is located 45 degrees upward to the left, the eyelid driving speed is 0.5 second, the driving interval is 10 seconds, the eyeball position is on the left side in the center, Left and right.

'슬픔 모드(523)'에서는 눈꺼풀 열림 비율이 50%이며, 눈꺼풀은 정중앙 왼쪽 45도 상부방향에 위치하며, 눈꺼풀 구동속도는 2초, 구동 인터벌은 25초, 눈알 위치는 정중앙 왼쪽 45도 하부방향에 위치하고, 눈알이 좌우로 이동하게 된다. In the 'sadness mode (523)', the eyelid opening rate is 50%, the eyelid is located 45 degrees to the left in the middle, the eyelid driving speed is 2 seconds, the driving interval is 25 seconds, And the eyeball moves to the left and right.

'보통 모드(512)'에서는 눈꺼풀 열림 비율이 50%이며, 눈꺼풀은 정중앙 상부에 위치하며, 눈꺼풀 구동속도는 1초, 구동 인터벌은 20초, 눈알 위치는 정중앙에 위치하게 된다. In the 'normal mode (512)', the eyelid opening rate is 50%, the eyelid is located in the upper part of the middle, the eyelid driving speed is 1 second, the driving interval is 20 seconds and the eyeball position is in the center.

'아픔 모드(514)'에서는 눈꺼풀 열림 비율이 30%이며, 눈꺼풀은 왼쪽 45도 상부방향에 위치하며, 눈꺼풀 구동속도는 2초, 구동 인터벌은 8초, 눈알 위치는 정중앙 하부방향에 위치하게 된다. In the 'pain mode (514)', the eyelid opening rate is 30%, the eyelid is located 45 degrees upward to the left, the eyelid driving speed is 2 seconds, the driving interval is 8 seconds, and the eyeball position is located in the lower center .

'화남 모드(533)'에서는 눈꺼풀 열림 비율이 70%이며, 눈꺼풀은 오른쪽 45도 상부방향에 위치하며, 눈꺼풀 구동속도는 1초, 구동 인터벌은 8초, 눈알 위치는 정중앙 하부방향에 위치하게 된다. In 'Angular Mode (533)', the eyelid opening rate is 70%, the eyelid is located 45 degrees upward in the right direction, the eyelid driving speed is 1 second, the driving interval is 8 seconds, and the eyeball position is in the lower center .

'피곤 모드(525)'에서는 눈꺼풀 열림 비율이 30%이며, 눈꺼풀은 정중앙 상부방향에 위치하며, 눈꺼풀 구동속도는 3초, 구동 인터벌은 40초, 눈알 위치는 정중앙 하부방향에 위치하게 된다. In the 'tired mode (525)', the eyelid opening rate is 30%, the eyelid is located in the upper direction of the middle, the eyelid driving speed is 3 seconds, the driving interval is 40 seconds, and the eyeball position is in the lower center.

'졸림 모드(515)'에서는 눈꺼풀 열림 비율이 30%이며, 눈꺼풀은 정중앙 상부방향에 위치하며, 눈꺼풀 구동속도는 4초, 구동 인터벌은 50초, 눈알 위치는 왼쪽 45도 하부방향에 위치하게 된다. In the 'sleeping mode (515)', the eyelid opening rate is 30%, the eyelid is located in the upper direction of the middle, the eyelid driving speed is 4 seconds, the driving interval is 50 seconds, .

'걱정 모드(513)'에서는 눈꺼풀 열림 비율이 50%이며, 눈꺼풀은 왼쪽 45도 상부방향에 위치하며, 눈꺼풀 구동속도는 2초, 구동 인터벌은 15초, 눈알 위치는 정중앙 하부방향에 위치하게 된다. In the 'worry mode 513', the eyelid opening ratio is 50%, the eyelid is located 45 degrees upward in the left direction, the eyelid driving speed is 2 seconds, the driving interval is 15 seconds, and the eyeball position is located in the lower center .

'LAZY 모드(535)'에서는 눈꺼풀 열림 비율이 30%이며, 눈꺼풀은 정중앙에 위치하며, 눈꺼풀 구동속도는 2초, 구동 인터벌은 40초, 눈알 위치는 정중앙 하부방향에 위치하게 된다. In the 'LAZY mode (535)', the eyelid opening rate is 30%, the eyelid is located in the middle, the eyelid driving speed is 2 seconds, the driving interval is 40 seconds, and the eyeball position is located in the center of the lower part.

'호기심 모드(532)'에서는 눈꺼풀 열림 비율이 505 또는 80%이며, 눈꺼풀은 정중앙에 위치하며, 눈꺼풀 구동속도는 2초, 구동 인터벌은 40초, 눈알 위치는 정중앙 하부방향에 위치하게 된다. In the 'curiosity mode (532)', the eyelid opening rate is 505 or 80%, the eyelid is in the middle, the eyelid driving speed is 2 seconds, the driving interval is 40 seconds, and the eyeball position is located in the center of the lower part.

'멍함 모드(522)'에서는 눈꺼풀 열림 비율이 50%이며, 눈꺼풀은 정중앙에 위치하며, 눈꺼풀 구동속도는 2초, 구동 인터벌은 60초, 눈알 위치는 정중앙 하부방향에 위치하게 된다. In the 'blur mode 522', the eyelid opening rate is 50%, the eyelid is located in the center, the eyelid driving speed is 2 seconds, the driving interval is 60 seconds, and the eyeball position is located in the center of the lower part.

'STRESS 모드(534)'에서는 눈꺼풀 열림 비율이 20%이며, 눈꺼풀은 정중앙에 위치하며, 눈꺼풀 구동속도는 0.5초, 구동 인터벌은 8초, 눈알 위치는 정중앙에 위치하고, 눈알이 좌우로 이동하게 된다. In the 'STRESS mode (534)', the eyelid opening ratio is 20%, the eyelid is located in the middle, the eyelid driving speed is 0.5 second, the driving interval is 8 seconds, the eyeball position is in the center and the eyeball is moved to the left and right .

'EXCITED 모드(511)'에서는 눈꺼풀 열림 비율이 80%이며, 눈꺼풀은 정중앙 상부에 위치하며, 눈꺼풀 구동속도는 1초, 구동 인터벌은 10초, 눈알 위치는 정중앙 하부방향에 위치하게 된다. In the EXCITED mode (511), the eyelid opening rate is 80%, the eyelid is located in the upper part of the middle, the eyelid driving speed is 1 second, the driving interval is 10 seconds, and the eyeball position is located in the center of the lower part.

'PROUD 모드(531)'에서는 눈꺼풀 열림 비율이 80%이며, 눈꺼풀은 정중앙 상부방향에 위치하며, 눈꺼풀 구동속도는 1초, 구동 인터벌은 20초, 눈알 위치는 정중앙 상부방향에 위치하게 된다. In the 'PROUD mode (531)', the eyelid opening rate is 80%, the eyelid is located in the upper direction of the center, the eyelid driving speed is 1 second, the driving interval is 20 seconds, and the eyeball position is located in the upper part of the center.

이와 같은 구성을 갖는 본 발명의 실시예에 따른 감정 표현 로봇의 동작을 개략적으로 살펴본다. The operation of the emotion expression robot according to the embodiment of the present invention having such a configuration will be schematically described.

먼저, 사용자가 생년월일 입력부(100)를 통하여 사용자의 생년월일에 대한 정보를 입력하면, 바이오리듬 산출부(300)에 의해 조합되어 산출된 바이오리듬 감정레벨(410~430)에 근거하여 감정레벨 결정부(400)에서 어느 하나의 감정레벨(410~430)을 결정하게 된다. First, when the user inputs information on the date of birth of the user through the date of birth input unit 100, based on the biorhythm feeling levels 410 to 430 calculated by the biorhythm calculation unit 300, (410 to 430) are determined by the emotion level determining unit (400).

이렇게 결정된 바이오리듬 감정레벨(410~430)을 바탕으로 초기감정 설정부(500)에서는 결정된 바이오리듬 감정레벨(410~430)에 따른 초기감정을 설정한다. Based on the determined biorhythm feeling levels 410 to 430, the initial feeling setter 500 sets an initial feeling according to the biorhythm feeling levels 410 to 430 determined.

이후, 초기감정이 결정되면 신체리듬 선택부(610), 감성리듬 선택부(620), 지성리듬 선택부(630) 중 어느 하나의 감정리듬 패턴을 따라서 감정 표현 행위를 실행하도록 선택하게 된다. Thereafter, when the initial emotion is determined, the emotional rhythm selecting unit 620, the intellectual rhythm selecting unit 630, and the body rhythm selecting unit 610, the emotional rhythm selecting unit 630,

그리고, 얼굴표정 생성부(700)에서 각 감정패턴 선택부(600)에서 형성된 각 감정 표현행위를 실행하기 위하여 눈꺼풀과 눈알의 위치를 조합하여 얼굴 표정으로 생성한다. The facial expression generating unit 700 combines the positions of the eyelids and the eyeballs to generate facial expressions in order to execute the emotional expressing actions formed in the emotion pattern selecting unit 600. [

따라서, 사용자의 신체리듬, 감성리듬, 지성리듬에 관한 바이오리듬에 따라서 표현되는 감정 표현 로봇(10)의 감정을 얼굴 표정으로 변화시켜 감정 표현 로봇(10)과 사용자 사이의 상호작용이 가능하도록 한다. Therefore, the emotion of the emotional expression robot 10 expressed in accordance with the biorhythm of the user's body rhythm, emotional rhythm, and intellectual rhythm is changed to the facial expression so that the interaction between the emotional expression robot 10 and the user is enabled .

또한, 감정 표현 로봇(10)은 디스플레이부(11), 각종 터치센서부(12), 적외선 센서부(13), 소리 센서부(14), 소리 줄임 체크부(15), 수면시간 체크부(16)를 더 포함한다. The emotional expression robot 10 includes a display unit 11, various touch sensor units 12, an infrared sensor unit 13, a sound sensor unit 14, a loudness check unit 15, a sleep time check unit 16).

디스플레이부(11)는 입력된 생년월일을 기초하여 산출된 현재의 바이오리듬을 표시된다. 특히, 디스플레이부(11)는 감정레벨 결정부(400)에서 결정된 감정레벨(410~430) 예를 들면 '신체리듬 고조(411)', '지성리듬 저하(433)' 등과 같은 감정레벨을 표시할 수 있다. 이러한 디스플레이부(11)는 감정 표현 로봇(10)의 하부에 배치되는 스탠드(STAND)에 구비될 수 있다. The display unit 11 displays the current biorhythm calculated based on the entered date of birth. In particular, the display unit 11 displays emotion levels such as 'body rhythm enhancement 411', 'intellectual rhythm degradation 433', etc., determined at the emotion level determination unit 400 can do. The display unit 11 may be provided on a stand disposed below the emotional expression robot 10. [

각종 터치센서부(12)는 코 터치센서부(12A), 귀 터치센서부(12B), 머리 터치센서부(12C), 꼬리 터치센서부(12D)를 포함한다. The various touch sensor units 12 include a nose touch sensor unit 12A, an ear touch sensor unit 12B, a head touch sensor unit 12C and a tail touch sensor unit 12D.

코 터치센서부(12A)는 감정 표현 로봇(10)의 코 부분에 구비되어 감성리듬을 상위감정으로 이동시키도록 한다. 예를 들어, '행복 모드(521)', '멍함 모드(522)', '슬픔 모드(523)', '불안 모드(524)', '피곤 모드(525)'로 순서로 표현되는 감성리듬 중 '멍함 모드(522)'를 실행하는 시간에 코 터치센서부(12A)를 만지면 상위감정인 '행복 모드(521)'로 실행되는 감정 표현이 이동된다. The nose touch sensor unit 12A is provided in the nose portion of the emotional expression robot 10 to move the emotional rhythm to the higher emotion. For example, the emotional rhythm expressed in order of 'happiness mode 521', 'blur mode 522', 'sadness mode 523', 'anxiety mode 524', and 'tired mode 525' Touching the nose touch sensor unit 12A at the time of executing the 'blur mode 522', the emotion expression executed in the 'happy mode 521', which is the upper emotion, is moved.

귀 터치센서부(12B)는 감정 표현 로봇(10)의 귀 부분에 구비되어 신체리듬을 상위감정으로 이동시키도록 한다. 예를 들어, 'EXCITED 모드(511)', '보통 모드(512)', '걱정 모드(513)', '아픔 모드(514)', '졸림 모드(515)'의 순서로 표현되는 신체리듬 중 '보통 모드(512)'를 실행하는 시간에 귀 터치센서부(12B)를 만지면 상위감정인 'EXCITED 모드(511)'로 감정 표현이 이동된다. The ear sensor unit 12B is provided at the ear portion of the emotional expression robot 10 to move the body rhythm to the higher emotion. For example, the body rhythm expressed in the order of 'EXCITED mode 511', 'normal mode 512', 'worry mode 513', 'pain mode 514', and 'sleepiness mode 515' The emotional expression is shifted to the upper emotion 'EXCITED mode 511' by touching the ear sensor unit 12B at the time of executing the 'normal mode 512'.

머리 터치센서부(12C)는 감정 표현 로봇(10)의 머리 부분에 구비되어 지성리듬을 상위감정으로 이동시키도록 한다. 예를 들어, 'PROUD 모드(531)', '호기심 모드(532)', '화남 모드(533)', 'STRESS 모드(534)', 'LAZY 모드(535)'의 순서로 표현되는 지성리듬 중 '호기심 모드(532)'를 실행하는 시간에 머리 터치센서부(12C)를 만지면 상위 감정인 'PROUD 모드(531)'로 감정 표현이 이동된다. The head touch sensor unit 12C is provided at the head of the emotional robot 10 to move the ominous rhythm to the higher emotion. For example, the oyster rhythm expressed in the order of 'PROUD mode 531', 'curiosity mode 532', 'angry mode 533', 'STRESS mode 534', and 'LAZY mode 535' Touching the head touch sensor unit 12C at the time of executing the 'curiosity mode 532', the emotion expression is shifted to the 'PROUD mode 531' which is the upper emotion.

꼬리 터치센서부(12D)는 감정 표현 로봇(10)의 꼬리 부분에 구비되어 감정리듬을 하위 감정으로 이동시키거나 해당 감정을 이동시키지 않도록 한다. The tail touch sensor unit 12D is provided at the tail portion of the emotional expression robot 10 so as to move the emotion rhythm to a lower emotion or not to move the emotion.

'행복 모드(521)', 'PROUD 모드(531)', 'EXCITED 모드(511)', '보통 모드(512)', '멍함 모드(522)', '호기심 모드(532)', '슬픔 모드(523)'를 실행하는 시간에 꼬리 터치센서부(12D)를 만지면, 해당 감정에 아무런 변화가 없게 된다. 하지만, '졸림 모드(515)', '피곤 모드(525)', '걱정 모드(513)', 'STRESS 모드(534)', '아픔 모드(514)'를 표현하는 시간에 꼬리 터치센서부(12D)를 만지면, '화남 모드(533)'로 변경된다. , 'Curious mode 522', 'curiosity mode 532', 'sadness mode 521', 'PROUD mode 531', 'EXCITED mode 511' When touching the tail touch sensor unit 12D at the time of executing the mode 523 ', there is no change in the emotion. However, at the time of expressing 'sleeping mode 515', 'tired mode 525', 'worry mode 513', 'STRESS mode 534', and 'pain mode 514' (533) 'by touching the touch panel 12D.

적외선 센서부(13)는 사용자의 바이오리듬을 산출하여 사용자에게 감정 표현을 할지를 결정한다. The infrared sensor unit 13 calculates the biorhythm of the user and determines whether to express the emotion to the user.

소리 센서부(14)는 사용자가 임계치 이상의 소리를 내는 횟수를 감지한다. The sound sensor unit 14 detects the number of times the user makes a sound over the threshold value.

소리 줄임 체크부(15)는 짖는 소리를 내던 감정 표현 로봇(10)을 소리 줄임으로 하여 아무런 소리를 내지 않도록 하는 횟수를 감지한다. The sound reduction check unit 15 detects the number of times that the emotional expression robot 10 that makes a barking sound is made to be louder so as not to make any sound.

그리고, 본 발명의 실시예에 따른 바이오리듬을 이용한 감정 표현 로봇(10)은 사용자의 컴퓨터 사용시간을 점검하는 컴퓨터 사용시간 체크부(미도시)와, 감정 표현 로봇(10)의 수면시간을 점검하는 수면시간 체크부(16)를 더 포함할 수 있다. In addition, the emotional expression robot 10 using the biorhythm according to the embodiment of the present invention includes a computer usage time check unit (not shown) for checking the user's computer usage time, a sleep time checker And a sleep time check unit 16 for checking the sleep time.

한편, 본 발명의 실시예에 따른 바이오리듬을 이용한 감정 표현 로봇(10)은 초기감정 설정부(500)와 감정패턴 선택부(600)에서 설정 및 선택된 감정표현행위가 적외선 센서부(13), 소리 센서부(14), 컴퓨터 사용시간 체크부(미도시), 소리 줄임 체크부(15), 수면시간 체크부(16)에 의해 영향을 받게 된다.
Meanwhile, the emotion expression robot 10 using the biorhythm according to the embodiment of the present invention may be configured such that the emotion expression actions set and selected by the initial emotion setting unit 500 and the emotion pattern selection unit 600 are performed by the infrared sensor unit 13, The sound sensor unit 14, the computer use time check unit (not shown), the sound reduction check unit 15, and the sleep time check unit 16.

1. 적외선 센서부{사용자가 감정 표현 로봇 근거리에 있는 시간을 감지}1. Infrared sensor part {Detect time when the user is near the emotion expression robot}

사용자가 감정 표현 로봇(10) 근거리에 있는 시간에 따라서 '행복 모드(521)'와 '불안 모드(524)' 및 'EXCITED 모드(511)'와 '아픔 모드(514)' 사이에서 해당 감정선택을 일정시각(예를 들어 1분씩) 증가시키고, 상반 감정선택을 상대적으로 일정시각 감소시켜 감정 표현 로봇(10)의 미리 정해진 감정패턴 선택을 변경시킨다. 즉, 전체 하루 가동시간에서 각 감정별 기준시간에서 증감한 비율을 계산하여 감정 표현 로봇(10)의 얼굴 표정 생성 시각을 변경시킨다.The user selects the corresponding emotion selection mode between the 'happiness mode 521' and the 'anxiety mode 524' and between the 'EXCITED mode 511' and the 'pain mode 514' according to the time in the vicinity of the emotional expression robot 10 (For example, one minute) and changes the selection of the predetermined emotion pattern of the emotional expression robot 10 by decreasing the upper half emotion selection by a relatively predetermined time. That is, the facial expression generation time of the emotional expression robot 10 is changed by calculating the rate of increase / decrease in the reference time for each emotion in the whole day's running time.

여기서, 성격이 밝고 명랑함을 나타내는 '행복 모드(521)'와, 성격이 어둡고 우울함을 나타내는 '불안 모드(524)'는 서로 상반된 감정이다. 그리고, 건강함을 나타내는 'EXCITED 모드(511)'와, 아픔을 나타내는 '아픔 모드(514)'는 서로 상반된 감정이다. Here, 'happy mode (521)', which shows a bright character and cheerfulness, and 'anxiety mode (524)', which shows darkness and depression are conflicting feelings. The 'EXCITED mode (511)' indicating health and the 'pain mode (514)' indicating pain are contradictory emotions.

① 적외선 센서부(13) 감지 시간이 2시간 이상일 경우는 'EXCITED 모드(511)'의 선택시간이 1분이 증가 되고, '아픔 모드(514)'의 선택시간이 1분이 감소된다. (1) When the detection time of the infrared sensor unit 13 is 2 hours or more, the selection time of the 'EXCITED mode 511' is increased by 1 minute and the selection time of the 'pain mode 514' is decreased by 1 minute.

② 적외선 센서부(13) 감지 시간이 1~2시간 일 경우는 '행복 모드(521)'의 선택시간이 1분이 증가 되고, '불안 모드(524)'의 선택시간이 1분이 감소된다. (2) When the detection time of the infrared sensor unit 13 is 1 to 2 hours, the selection time of the 'happy mode 521' is increased by one minute and the selection time of the 'anxiety mode 524' is decreased by one minute.

③ 적외선 센서부(13) 감지 시간이 30분~1시간 이하 경우는 '불안 모드(524)'의 선택시간이 1분이 증가 되고, '행복 모드(521)'의 선택시간이 1분이 감소된다. (3) When the detection time of the infrared sensor unit 13 is 30 minutes to 1 hour or less, the selection time of the 'anxiety mode 524' is increased by 1 minute and the selection time of the 'happy mode 521' is decreased by 1 minute.

④ 적외선 센서부(13) 감지 시간이 30분 이하 경우는 '아픔 모드(514)'의 선택시간이 1분이 증가 되고, 'EXCITED 모드(511)'의 선택시간이 1분이 감소된다. (4) When the detection time of the infrared sensor unit 13 is 30 minutes or less, the selection time of the 'pain mode 514' is increased by 1 minute and the selection time of the 'EXCITED mode 511' is decreased by 1 minute.

따라서, 사용자가 감정 표현 로봇(10) 근거리에 있는 시간에 따라서 '행복 모드'(10~50분)-> '멍함 모드'(30분)-> '슬픔 모드'(30분)-> '불안 모드'(50~10분)-> '피곤 모드'(30분)-> '취침 모드(540)'로 선택 시간이 변경되어 얼굴 표정으로 생성되거나, Accordingly, when the user selects 'happy mode' (10 to 50 minutes) -> 'blur mode' (30 minutes) -> 'sadness mode' (30 minutes) (50 minutes) -> 'Tired mode' (30 minutes) -> 'Sleep mode (540)

또는, 'EXCITED 모드'(10~50분)-> '보통 모드'(30분)-> '걱정 모드'(30분)-> '아픔 모드'(10~50분)-> '졸림 모드'(30분)-> '취침 모드(540)'로 선택 시간이 변경되어 얼굴 표정으로 생성되는 시간이 변경될 수 있다.
Or, 'EXCITED mode' (10 to 50 minutes) ->'Normalmode' (30 minutes) ->'Worrymode' (30 minutes) (30 minutes) ->'sleep mode (540)', and the time generated by the facial expression may be changed.

2. 소리 센서부{큰소리가 난 횟수} 2. Sound sensor part {number of times of loud speaking}

소리 센서부(14)에서 사용자의 큰 소리를 감지되는 횟수에 따라서 '호기심 모드(532)'와 '화남 모드(533)' 및 '멍함 모드(522)'와 '슬픔 모드(523)' 사이에서 해당 감정선택을 일정시각(예를 들어 1분씩) 증가시키고, 상반 감정선택을 상대적으로 일정시각 감소시켜 감정 표현 로봇의 미리 정해진 감정패턴 선택을 변경시킨다. Between the curious mode 532, the angry mode 533, the obscenity mode 522 and the sorrow mode 523 according to the number of times that the loud sound of the user is detected by the sound sensor unit 14 The emotional selection is changed at a predetermined time (for example, one minute), and the predetermined emotional pattern selection of the emotional expression robot is changed by reducing the upper half emotional selection by a relatively predetermined time.

여기서, 차분한 상태에서 화를 참는 '호기심 모드(532)'와, 화를 내는 '화남 모드(533)'는 서로 상반된 감정이다. 그리고, 긍정적인 감정을 나타내는 '보통 모드(512)'와, 부정적인 감정을 나타내는 '걱정 모드(513)'는 서로 상반된 감정이다. 그리고, 산만한 감정을 나타내는 '멍함 모드(522)'와, 예민한 감정을 나타내는 '슬픔 모드(523)'는 서로 상반된 감정이다. Here, the 'curiosity mode (532)' and the 'angry mode (533)', which tolerate anger in a calm state, are contradictory emotions. The 'normal mode (512)' indicating a positive emotion and the 'worry mode (513)' indicating a negative emotion are mutually contradictory emotions. The 'blur mode 522' expressing distracted emotions and the 'sorrow mode 523' expressing emotional emotions are mutually contradictory emotions.

① 총 시간에서 큰소리가 난 횟수가 4회 이상일 때는 '화남 모드(533)'의 실행시간이 1분씩 증가되고, '호기심 모드(532)'의 실행시간이 1분씩 감소된다. (1) When the number of loudspeakings is more than four times in the total time, the execution time of the 'angry mode (533)' is increased by one minute and the execution time of the 'curiosity mode (532)' is decreased by one minute.

② 총 시간에서 큰소리가 난 횟수가 3회일 때는 '슬픔 모드(523)'의 실행시간이 1분씩 증가되고, '멍함 모드(522)'의 실행시간이 1분씩 감소된다. (2) When the number of loudspeakings in the total time is three, the execution time of the 'sorrow mode 523' is increased by one minute and the execution time of the 'blurry mode 522' is decreased by one minute.

③ 총 시간에서 큰소리가 난 횟수가 2회일 때는 '멍함 모드(522)'의 실행시간이 1분씩 증가되고, '슬픔 모드(523)'의 실행시간이 1분씩 감소된다. (3) When the number of loud noises in the total time is two, the execution time of the 'blur mode 522' is increased by one minute and the execution time of the 'sorrow mode 523' is decreased by one minute.

④ 총 시간에서 큰 소리가 난 횟수가 1회 이하일 때는 '호기심 모드(532)'의 실행시간이 1분씩 증가되고, '화남 모드(533)'의 실행시간이 1분씩 감소된다. (4) When the number of loud noises in the total time is one or less, the execution time of the curiosity mode (532) is increased by one minute and the execution time of the affection mode (533) is decreased by one minute.

따라서, 소리 센서부(14)에서 사용자의 큰 소리를 감지되는 횟수에 따라서 '행복 모드'(30분)-> '멍함 모드'(10~50분)-> '슬픔 모드'(50~10분)-> '불안 모드'(30분)-> '피곤 모드'(30분)-> '취침 모드'로 선택 시간이 변경되어 얼굴 표정으로 생성되거나, Accordingly, the 'happy mode' (30 minutes) -> the 'blind mode' (10-50 minutes) -> the 'sorrow mode' (50 to 10 minutes) according to the number of times the user's loud sound is detected by the sound sensor unit ) -> 'Anxiety mode' (30 minutes) -> 'Tired mode' (30 minutes) -> 'Sleep mode'

또한, 'PROUD 모드'(30분)-> '호기심 모드'(10~50분)-> '화남 모드'(50~10분)-> 'STRESS' 모드(30분)-> 'LAZY 모드'(30분)-> '취침 모드'로 선택 시간이 변경되어 얼굴 표정으로 생성될 수 있다.
In addition, 'PROUD mode' (30 minutes) ->'Curiositymode' (10 ~ 50 minutes) -> (30 minutes) ->'Sleepmode', the selected time can be changed to create a facial expression.

3. 컴퓨터 사용시간 체크부{컴퓨터 과다사용시간 경고횟수}3. Computer Usage Time Checking {Computer Excessive Usage Time Warning Count}

컴퓨터 사용시간 체크부(미도시)에서 사용자가 컴퓨터를 과다하게 사용하여 경고한 횟수에 따라서 '보통 모드(512)'와 '걱정 모드(513)' 사이에서 해당 감정선택을 일정시각(예를 들어 1분씩) 증가시키고, 상반 감정선택을 상대적으로 일정시각 감소시켜 감정 표현 로봇(10)의 미리 정해진 감정패턴 선택을 변경시킨다. In the computer use time checking unit (not shown), depending on the number of times the user has been warned using the computer excessively, the emotion selection may be made between a 'normal mode 512' and a 'worry mode 513' 1 minute), and changes the selection of the predetermined emotion pattern of the emotional expression robot 10 by decreasing the upper half emotion selection by a relatively predetermined time.

여기서, 긍정적인 감정을 나타내는 '보통 모드(512)'와, 부정적인 감정을 나타내는 '걱정 모드(513)'는 서로 상반된 감정이다. Here, the 'normal mode (512)' indicating a positive emotion and the 'worry mode (513)' indicating a negative emotion are mutually contradictory emotions.

① 하루에 경고받은 횟수가 0.5회 이하이면 '보통 모드(512)'의 실행시간이 1분씩 증가되고, '걱정 모드(513)'의 실행시간이 1분씩 감소된다. (1) The execution time of the 'normal mode (512)' is increased by one minute and the execution time of the 'worry mode 513' is decreased by one minute when the number of times of warnings per day is 0.5 or less.

② 하루에 경고받은 횟수가 0.5회 이상이면 '걱정 모드(513)'의 실행시간이 1분씩 증가되고, '보통 모드(512)' 실행시간이 1분씩 감소된다. (2) When the number of times of warnings per day is 0.5 or more, the execution time of the worry mode 513 is increased by one minute and the execution time of the normal mode 512 is decreased by one minute.

따라서, 사용자가 컴퓨터 과다사용시간 경고횟수에 따라서 'EXCITED 모드'(30분)-> '보통 모드'(10~50분)-> '걱정 모드'(50~10분)-> '아픔 모드'(30분)-> '졸림 모드'(30분)-> '취침 모드'로 선택 시간이 변경되어 얼굴 표정으로 생성될 수 있다.
Therefore, depending on the number of times the user has been using the computer overtime, the 'EXCITED mode' (30 minutes) -> the 'normal mode' (10 to 50 minutes) -> the 'worry mode' (50 to 10 minutes) (30 minutes) ->'sleepinessmode' (30 minutes) ->'sleepmode'.

4. 소리 줄임 체크부{짖는 소리를 mute로 변경한 횟수} 4. Reduce the number of times the barking sound is changed to mute.

소리 줄임 체크부(15)에서 사용자가 감정 표현 로봇(10)의 짖는 소리를 mute로 변경한 횟수에 따라서 'PROUD 모드(531)'와 'STRESS 모드(534)' 사이에서 해당 감정선택을 일정시각(예를 들어 1분씩) 증가시키고, 상반 감정선택을 상대적으로 일정시각 감소시켜 감정 표현 로봇(10)의 미리 정해진 감정패턴 선택을 변경시킨다. In the sound reduction check unit 15, the emotion selection is performed between the 'PROUD mode 531' and the 'STRESS mode 534' according to the number of times the user changes the barking sound of the emotional expression robot 10 to mute, (For example, one minute), and changes the selection of the predetermined emotion pattern of the emotional expression robot 10 by decreasing the upper half emotion selection at a relatively constant time.

여기서, 적극적인 감정을 나타내는 'PROUD 모드(531)'와, 소극적인 감정을 나타내는 'STRESS 모드(534)'는 서로 상반된 감정이다. Here, the 'PROUD mode 531' representing positive emotion and the 'STRESS mode 534' representing passive emotion are mutually contradictory emotions.

① 짖는 소리를 mute로 한 횟수가 하루에 0.5회 이상이면 'PROUD 모드(531)'의 실행시간이 1분씩 증가되고, 'STRESS 모드(534)'의 실행시간이 1분씩 감소된다. If the number of times the barking sound is muted is 0.5 or more times per day, the execution time of the 'PROUD mode (531)' is increased by one minute and the execution time of the 'STRESS mode (534)' is decreased by one minute.

② 짖는 소리를 mute로 한 횟수가 하루에 0.5회 이하 'STRESS 모드(534)'의 실행시간이 1분씩 증가되고, 'PROUD 모드(531)'의 실행시간이 1분씩 감소된다. (2) The execution time of 'STRESS mode (534)' is increased by 1 minute and the execution time of 'PROUD mode (531)' is decreased by 1 minute.

따라서, 소리 줄임 체크부(15)에서 사용자의 감정 표현 로봇의 짖는 소리를 mute로 변경한 횟수에 따라서 'PROUD 모드'(10~50분)-> '호기심 모드'(30분)-> '화남 모드'(30분)-> 'STRESS' 모드(50~10분)-> 'LAZY 모드'(30분)-> '취침 모드'로 선택 시간이 변경되어 얼굴 표정으로 생성될 수 있다.
Accordingly, the 'PROUD mode' (10 to 50 minutes) -> the 'curiosity mode' (30 minutes) -> the 'PROUD mode' The selected time can be changed to 'Sleep mode' (30 minutes) ->'STRESS' mode (50 ~ 10 minutes) ->'LAZYmode' (30 minutes) ->'Sleepmode'

5. 수면시간 체크부{수면시간의 빠르거나 늦음}5. Sleep time check part {early or late sleep time}

수면시간 체크부(16)에서 감정 표현 로봇의 기상수면시간의 빠름과 늦음에 따라서 'PROUD 모드(531)'와 'LAZY 모드(535)' 및 '행복 모드(521)'와 '피곤 모드(525)' 및 'EXCITED 모드(511)'와 '졸림 모드(515)' 사이에서 해당 감정선택을 일정시각(예를 들어 1분씩) 증가시키고, 상반 감정선택을 상대적으로 일정시각 감소시켜 감정 표현 로봇(10)의 미리 정해진 감정패턴 선택을 변경시킨다. The sleep time check unit 16 determines whether the sleep time of the emotional expression robot is faster or slower than the sleep time of the emotional expression robot in the case of the 'PROUD mode 531', the 'LAZY mode 535', the 'happy mode 521' (For example, one minute) between the 'EXCITED mode 511' and the 'sleepiness mode 515', and the upper-left emotion selection is reduced at a relatively fixed time, 10). ≪ / RTI >

여기서, 부지런함을 나타내는 'PROUD 모드(531)'와 게으름을 나타내는 'LAZY 모드(535)'는 서로 상반된 감정이다. 그리고, 명랑하고 활동적임을 나타내는 '행복 모드(521)'와, 피곤한 상태를 나타내는 '피곤 모드(525)'는 서로 상반된 감정이다. 그리고, 건강함을 나타내는 'EXCITED 모드(511)'와, 졸림을 나타내는 '졸림 모드(515)'는 서로 상반된 감정이다. Here, the 'PROUD mode (531)' indicating diligence and the 'LAZY mode (535)' indicating laziness are mutually contradictory emotions. The 'happiness mode (521)' indicating the cheerful and active and the 'tired mode (525)' indicating the tired state are mutually contradictory emotions. The 'EXCITED mode (511)' indicating health and the 'sleepiness mode (515)' indicating sleepiness are mutually contradictory emotions.

① 총 수면시간이 1시간 이상 길 때는 'LAZY 모드(535)'의 실행시간이 1분씩 증가되고, 'PROUD 모드(531)'의 실행시간이 1분씩 감소된다. (1) When the total sleep time is longer than one hour, the execution time of 'LAZY mode (535)' is increased by one minute and the execution time of 'PROUD mode (531)' is decreased by one minute.

② 총 수면시간이 2시간 이상 부족 시에는 '피곤 모드(525)'의 실행시간이 1분씩 증가되고, '행복 모드(521)'의 실행시간이 1분씩 감소된다. (2) When the total sleep time is less than 2 hours, the execution time of 'tired mode 525' is increased by 1 minute and the execution time of 'happy mode 521' is decreased by 1 minute.

③ 총 수면시간이 1-2시간 부족 시에는 '졸림 모드(515)'의 실행시간이 1분씩 증가되고, 'EXCITED 모드(511)'의 실행시간이 1분씩 감소된다. (3) When the total sleep time is shortened by one to two hours, the execution time of the sleeping mode 515 is increased by one minute, and the execution time of the EXCITED mode 511 is decreased by one minute.

따라서, 'PROUD 모드'(30~10분)-> '호기심 모드'(30분)-> '화남 모드'(30분)-> 'STRESS' 모드(30분)-> 'LAZY 모드'(30~50분)-> '취침 모드'로 선택 시간이 변경되어 얼굴 표정으로 생성되거나, Therefore, 'PROUD MODE' (30 ~ 10 minutes) -> 'Curiosity Mode' (30 minutes) -> 'FAX mode' (30 minutes) -> 'STRESS' ~ 50 minutes) -> 'Sleep mode', the time is changed to create a facial expression,

또한, '행복 모드'(30~10분)-> '멍함 모드'(30분)-> '슬픔 모드'(30분)-> '불안 모드'(30분)-> '피곤 모드'(30~50분)-> '취침 모드'로 선택 시간이 변경되어 얼굴 표정으로 생성되거나, In addition, 'Happy Mode' (30 ~ 10 minutes) → 'Dull Mode' (30 minutes) → 'Sadness Mode' (30 minutes) → 'Anxiety Mode' (30 minutes) ~ 50 minutes) -> 'Sleep mode', the time is changed to create a facial expression,

또한, 'EXCITED 모드'(30~10분)-> '보통 모드'(30분)-> '걱정 모드'(30분)-> '아픔 모드'(30분)-> '졸림 모드'(30~50분)-> '취침 모드'로 선택 시간이 변경되어 얼굴 표정으로 생성될 수 있다. In addition, 'EXCITED mode' (30 to 10 minutes) -> 'Normal mode' (30 minutes) -> 'Worry mode' (30 minutes) ~ 50 minutes) -> 'Sleep mode', the selected time can be changed and created as a facial expression.

따라서, 본 발명의 실시예에 따른 바이오리듬을 이용한 감정 표현 로봇(10)은 사용자의 트리트먼트 또는 관심도에 따라서 얼굴 표정을 생성하는 시간이 변화되어 사용자가 감정 표현 로봇(10)에 보다 강한 애착 또는 상호작용을 할 수 있도록 한다.
Accordingly, the emotional expression robot 10 using the biorhythm according to the embodiment of the present invention may be configured such that the time for generating the facial expression is changed according to the user's treatment or the degree of interest, Allow interaction.

다음, 본 발명의 실시예에 따른 감정 표현 로봇의 동작에 대하여 살펴본다. Next, the operation of the emotion expression robot according to the embodiment of the present invention will be described.

제1단계 - 생년월일 입력Step 1 - Enter your date of birth

먼저 사용자가 생년월일 입력부(100)를 통하여 생년월일을 입력한다. 여기서, 감정 표현 로봇의 기상시간/ 수면시간을 입력할 수 있다.
First, the user inputs his / her date of birth through the date of birth input section 100. Here, the waking time / sleeping time of the emotional expression robot can be inputted.

제2단계 - 적외선 센서부의 동작Second Step - Operation of Infrared Sensor Unit

기본적으로 감정 표현 로봇(10)의 모든 동작, 감정표현은 사용자가 감정 표현 로봇의 근거리 내에 있어서 적외선 센서부(13)에서 감지될 경우 실행된다. Basically, all the actions and emotional expressions of the emotional expression robot 10 are executed when the user is detected by the infrared sensor unit 13 within a short distance of the emotional expression robot.

만일, 사용자가 감정 표현 로봇(10)의 적외선 센서부(13)가 실행되는 근거리에 있지 않으면 감정 표현 로봇(10)은 계속 '취침 모드(540)'에 있게 된다. If the user is not in the vicinity of the infrared sensor unit 13 of the emotion expression robot 10, the emotion expression robot 10 continues to be in the 'sleep mode 540'.

다만, 이 경우는 사용자가 근거리에 있을 경우는 적외선 센서부(13)에 의해 일정 시간 이상(예를 들면, 5분 이상) 감지되어야 감정 표현 로봇(10)이 일정 시간 후(예를 들어, 5분 후)에 동작하게 되고, 적외선 센서부(13)에 의해 감지되는 시간이 5분 이내일 경우는 동작을 하지 않고 계속 '취침 모드(540)'에 있게 된다.
However, in this case, if the user is in a short distance, the emotional expression robot 10 must be detected by the infrared sensor unit 13 for a certain time or more (for example, five minutes or more) When the time detected by the infrared sensor unit 13 is within 5 minutes, the operation is not performed and the 'sleep mode 540' is continuously operated.

제3단계 - 바이오리듬에 따른 초기감정 설정 및 감정패턴 선택Step 3 - Initial emotion setting and emotional pattern selection according to biorhythm

기상시간에 맞추어 감정 표현 로봇(10)이 기상을 하고 바로 사용자의 바이오리듬에 따른 초기감정을 얼굴 표정으로 생성한다. 사용자의 자세한 바이오리듬은 컴퓨터의 모니터를 통해서 확인할 수 있다. The emotion expression robot 10 wakes up in accordance with the waking time and immediately generates an initial feeling according to the biorhythm of the user as a facial expression. The user's detailed biorhythm can be checked on the computer's monitor.

바이오리듬에 따른 초기감정을 얼굴 표정으로 생성하는 것은 30분간 하지만 만일 사용자가 처음부터 감정 표현 로봇(10)의 근거리에 없으면 바이오리듬에 따른 초기감정을 얼굴 표정으로 생성하는 것은 15분간 하고 바로 '취침 모드(540)'로 들어간다. It is 30 minutes to generate the initial emotion according to the biorhythm by facial expression. However, if the user does not exist near the emotion expression robot 10 from the beginning, it is 15 minutes to generate the initial emotion according to the biorhythm by facial expression. Mode 540 '.

'취침 모드(540)'인 상태에서 사용자가 5분 이상 적외선 센서부(13)에 감지되는 근거리에 있으면 5분 후에 감정 표현 로봇은 바이오리듬에 따른 초기감정을 얼굴 표정으로 남은 15분간 계속 표현한다. If the user is in the close range to be detected by the infrared sensor unit 13 for 5 minutes or more in the state of 'sleep mode 540', the emotion expression robot continuously displays the initial emotion according to the biorhythm for 15 minutes .

사용자가 기상시간부터 계속 근거리에 있었다면 바이오리듬에 따른 초기감정을 30분간 얼굴 표정으로 생성하고 그 이후는 감정패턴 선택에 의해 하위감정으로 이동하여 30분씩 감정표현을 하고 마지막에는 '취침 모드(540)'로 들어간다. If the user was in the close distance from the wake-up time, the initial emotion according to the biorhythm is generated as a facial expression for 30 minutes, and then the emotion pattern is selected by the emotional pattern selection to express emotion for 30 minutes. '.

예를 들어, 초기감정이 '행복 모드(521)'이면, '행복 모드'(30분)-> '멍함 모드'(30분)-> '슬픔 모드'(30분)-> '불안 모드'(30분)-> '피곤 모드'(30분)-> '취침 모드'의 순서로 얼굴 표정을 변화시키며, For example, if the initial emotion is 'happy mode (521)', 'happy mode' (30 minutes) -> 'blur mode' (30 minutes) (30 minutes) -> 'Tired mode' (30 minutes) -> 'Sleep mode'

초기감정이 'PROUD 모드(531)'이면, 'PROUD 모드'(30분)-> '호기심 모드'(30분)-> '화남 모드'(30분)-> 'STRESS' 모드(30분)-> 'LAZY 모드'(30분)-> '취침 모드'의 순서로 얼굴 표정을 변화시키며, If the initial feeling is 'PROUD mode (531)', 'PROUD mode' (30 minutes) -> 'Curiosity mode' (30 minutes) -> 'LAZY mode' (30 minutes) -> 'Sleep mode'

초기감정이 'EXCITED 모드(511)'이면, 'EXCITED 모드'(30분)-> '보통 모드'(30분)-> '걱정 모드'(30분)-> '아픔 모드'(30분)-> '졸림 모드'(30분)-> '취침 모드'의 순서로 얼굴 표정을 변화시킨다. (30 minutes) -> 'Normal mode' (30 minutes) -> 'Worry mode' (30 minutes) -> 'Pain mode' (30 minutes) if the initial emotion is' EXCITED mode (511) -> 'Sleepiness mode' (30 minutes) -> 'Sleep mode'.

즉, 이 경우에는 사용자가 감정 표현 로봇(10)의 기상시간부터 최종 '취침 모드(540)'로 될 때까지 계속 근거리에 있으면서 전혀 트리트먼트를 하지 않으면 상술한 얼굴 표정을 차례대로 생성한 다음 '취침 모드(540)'로 들어가게 된다.
That is, in this case, if the user is in close proximity to the robot until he or she goes to the last 'sleep mode 540' from the rising time of the emotional expression robot 10 and does not perform any treatment, Sleep mode 540 '.

제4단계 - 사용자가 적외선 센서부에 감지되지 않는 경우Step 4 - When the user is not detected by the infrared sensor unit

감정 표현 로봇(10)이 동작을 하고 있는 사이에 사용자가 근거리가 아닌 상태로 15분 이상을 유지할 경우는 감정 표현 로봇(10)은 15분 후 자동으로 '취침 모드(540)'로 들어가고 사용자가 15분 이내에 다시 근거리를 유지할 경우는 계속 선택된 감정표현 행위를 실행하기 위하여 얼굴 표정을 생성한다. If the user keeps 15 minutes or longer while the emotion expression robot 10 is operating, the emotional expression robot 10 automatically enters the 'sleep mode 540' after 15 minutes and the user If you keep close to 15 minutes, you will create a facial expression to perform the selected emotional expression act.

예를 들어, 사용자가 근거리에 없는 상태에서 감정 표현 로봇(10)이 기상한 후 바이오리듬을 선택된 감정표현으로 10분간 얼굴 표정을 생성한 후 사용자가 다시 근거리로 돌아와서 5분 동안 있다가 다시 근거리를 벗어난 후 사용자가 20분 이후에 근거리에 돌아왔을 때는 감정 표현 로봇(10)은 바이오리듬을 30분간 선택된 감정표현으로 얼굴 표정을 생성한 후 바로 '취침 모드(540)'로 들어간 상태이며 사용자가 5분 이상 계속 근거리를 유지하면 바이오리듬의 해당 감정의 다음 감정인 하위 감정을 표현한다.
For example, after the emotion expression robot 10 wakes up in a state where the user is not in the vicinity, the biorhythm is generated with the selected emotional expression for 10 minutes, and then the user returns to the nearer location for 5 minutes, When the user returns to the close range after 20 minutes, the emotional expression robot 10 enters the 'sleep mode 540' immediately after generating the facial expression with the emotional expression selected for 30 minutes in the biorhythm, Minute, the lower emotion, which is the next emotion of the corresponding emotion of the biorhythm, is expressed.

제5단계 - 감정 표현 로봇이 취침 상태에서 기상하는 경우Step 5 - Emotional Expression When the robot wakes up from sleep

감정 표현 로봇이 '취침 모드(540)'에서 다시 깨어나서 동작하는 경우는 3가지이다.There are three cases in which the emotion expression robot wakes up again in the sleep mode 540 and operates.

① 사용자가 근거리에 5분 이상 있는 것이 감지될 때 ① When the user detects that there is more than 5 minutes at close range

② 머리 터치센서부(12C), 귀 터치센서부(12B), 코 터치센서부(12A), 꼬리 터치센서부(12D)를 터치했을 때 (2) When the head touch sensor unit 12C, the ear touch sensor unit 12B, the nose touch sensor unit 12A, and the tail touch sensor unit 12D are touched

③ 큰 소리가 났을 때
③ When there is a loud noise

제6단계 Step 6

'취침 모드(540)'에서 다시 감정 표현 로봇이 기상하여 감정표현을 하는 것은 취침한 시간에 따라서 바이오리듬이 변화하고 그것에 따라서 감정레벨이 변화한다.In the 'sleep mode 540', the emotional expression robot wakes up and emotionally expresses the biorhythm according to the sleeping time, and the emotional level changes accordingly.

① 신체리듬, 감성리듬, 지성리듬에 대한 바이오리듬이 '고조', '상승'인 경우는 수면 시간에 따른 변화없이 수면 후 깨어나면 다시 그 바이오리듬에 해당하는 감정표현을 한다. ① When the biorhythm of body rhythm, emotional rhythm, and intellectual rhythm is 'high' or 'rise', when the patient wakes up after sleeping without change according to the sleeping time, the biorhythm is expressed again.

즉, 감정레벨 결정부(400)에서 결정된 바이오리듬 감정레벨이 최상위 레벨인 '고조'나 상위 레벨인 '상승'이면 수면 시간에 영향을 받지 않고 그에 따른 초기감정을 설정하고 감정패턴을 선택한 다음 얼굴 표정으로 생성하게 된다. That is, if the biorhythm emotion level determined by the emotion level determination unit 400 is 'high', which is the highest level or 'rise', which is a high level, the initial emotion is set without being affected by the sleep time, Facial expressions.

② 바이오리듬이 '저하', '위험'일 경우는 표 2와 같이 변화한다. ② If the biorhythm is 'deteriorated' or 'dangerous', change as shown in Table 2.




바이오리듬

Biorhythm

수면시간

Sleep time

위험

danger

저하

Lowering
30분 이내
30분~1시간
1시간 이상
Within 30 minutes
30 minutes ~ 1 hour
More than 1 hour
위험 -> 위험
위험 -> 저하
위험 -> 상승
Risk -> Risk
Risk -> Degradation
Risk -> Rise
저하 -> 저하
저하 -> 상승
저하 -> 상승
Degradation -> Degradation
Declining -> Rising
Declining -> Rising

즉, 감정레벨 결정부(400)에서 결정된 바이오리듬 감정레벨이 최하위 레벨인 '위험'나 하위 레벨인 '저하'이면 수면 시간에 영향을 받아서 그에 따른 초기감정을 변경 설정하여 감정패턴을 변경 선택한 다음 얼굴 표정으로 생성하게 된다. That is, if the biorhythm emotion level determined by the emotion level determination unit 400 is 'danger', which is the lowest level, or 'low', which is a lower level, the emotion pattern is changed by setting and changing the initial emotion depending on the sleep time It is generated by facial expression.

즉, 감정레벨 결정부(400)에서 결정된 바이오리듬 감정레벨이 '위험'이고 감정 표현 로봇이 '취침 모드(540)'에서 30분~1시간 사이에 깨어난 경우라면 바이오리듬 감정레벨을 '저하'로 변경 설정하여 그에 따라 감정패턴을 변경 선택하고, 변경 선택된 감정패턴에 맞추어 얼굴 표정으로 생성하게 된다. That is, if the biorhythm emotion level determined by the emotion level determination unit 400 is 'dangerous' and the emotional expression robot has awakened from 30 minutes to 1 hour in the 'sleep mode 540', the biorhythm emotion level is decreased ', The emotion pattern is changed and selected in accordance with the selected emotion pattern, and the facial expression is generated in accordance with the changed emotion pattern.

또한, 감정레벨 결정부(400)에서 결정된 바이오리듬 감정레벨이 '위험'이고 감정 표현 로봇이 '취침 모드(540)'에서 1시간 이상 후에 깨어난 경우라면 바이오리듬 감정레벨을 '상승'으로 변경 설정하여 그에 따라 감정패턴을 변경 선택하고, 변경 선택된 감정패턴에 맞추어 얼굴 표정으로 생성하게 된다. Also, if the biorhythm emotion level determined by the emotion level determination unit 400 is' dangerous' and the emotional expression robot wakes up after one hour or more in the 'sleep mode 540', the biorhythm emotion level is changed to ' And changes the emotion pattern according to the selected emotion pattern, and generates the facial expression in accordance with the changed emotion pattern.

또한, 감정레벨 결정부(400)에서 결정된 바이오리듬 감정레벨이 '저하'이고 감정 표현 로봇이 '취침 모드(450)'에서 30분 이상 후에 깨어난 경우라면 바이오리듬 감정레벨을 '상승'으로 변경 설정하여 그에 따라 감정패턴을 변경 선택하고, 변경 선택된 감정패턴에 맞추어 얼굴 표정으로 생성하게 된다. Further, if the biorhythm emotion level determined by the emotion level determination unit 400 is' low 'and the emotional expression robot wakes up after 30 minutes or more in the' sleep mode 450 ', the biorhythm feeling level is changed to' And changes the emotion pattern according to the selected emotion pattern, and generates the facial expression in accordance with the changed emotion pattern.

결국, 본 발명의 실시예에 따른 바이오리듬을 이용한 감정 표현 로봇(10)은 기상 시간에 의해 감정 표현 로봇(10)이 기상을 한 후 30분 동안 그날의 바이오리듬을 감정으로 표현한다. As a result, the emotional expression robot 10 using the biorhythm according to the embodiment of the present invention emotionally expresses the biorhythm of the day for 30 minutes after the emotional expression robot 10 awakes by the wake-up time.

그리고, 사용자가 감정 표현 로봇(10)이 근거리에 있으면서 특별한 트리트먼트를 하지 않으면 선택된 감정패턴 순서에 의해 각 30분씩 표현을 하고 최종에는 '취침 모드(540)'로 한다. If the user does not perform any special treatment while the emotional robot 10 is close to the robot, the user expresses each 30 minutes by the selected emotional pattern order and finally sets the sleep mode 540 to 'sleep mode 540'.

다음, 사용자가 감정 표현 로봇(10)이 근거리에 있는 시간, 큰소리가 난 횟수, 컴퓨터 과다사용 경고 횟수, 짖는 소리를 mute로 한 횟수, 수면시간의 빠르거나 늦음에 따른 결과를 일일 집계하여 다음날 각 감정별 선택하는 시간의 변화를 줌으로써 결과적으로 성격, 건강, 생활 습관을 알게 되고 사용자가 감정 표현 로봇에 얼마나 관심을 갖고 트리트먼트를 했는지를 알 수 있다. Next, the user compares the results of the time at which the emotional expression robot 10 is in close proximity, the number of loud noises, the number of computer overuse warnings, the number of times the bark sound is muted, and the result of early or late sleep time, By changing the time of choice according to the emotion, the personality, health, and lifestyle of the person can be understood as a result, and the user is able to know how much attention he / she has made to the emotional robot.

따라서, 본 발명의 실시예에 따른 바이오리듬을 이용한 감정 표현 로봇(10)은 1개월, 3개월 지나면 15가지 감정 중에서 특별히 일부 감정은 얼굴로 1시간 동안 생성을 하고 어떤 감정은 10분 동안만 얼굴 표정으로 생성을 하기 때문에 감정 표현 로봇(10)의 상태를 얼굴 표정 상태를 보고 사용자가 쉽게 파악을 할 수 있게 된다. Therefore, in the emotional expression robot 10 using the biorhythm according to the embodiment of the present invention, if one month or three months have elapsed, 15 of the emotions will be generated for one hour, and some emotions will be generated for 10 minutes So that the user can easily grasp the state of the emotional expression robot 10 by viewing the facial expression state.

결국, 사용자의 관심도에 따라서 얼굴 표정이 변화되어 사용자가 감정 표현 로봇(10)에 보다 강한 애착을 가질 수 있도록 한다. As a result, the facial expression changes according to the degree of interest of the user, so that the user can have a stronger attachment to the emotional expression robot 10.

상술한 바와 같이, 본 발명의 실시예에 따른 바이오리듬을 이용한 감정 표현 로봇은 생년월일을 기초로 신체리듬, 감성리듬, 지성리듬에 관한 바이오리듬을 산출하여 다양한 감정표현행위를 얼굴 표정으로 생성하는 것을 기본적인 기술적 사상으로 하고 있음을 알 수 있다. 따라서, 본 발명의 기본적인 기술적 사상의 범주 내에서 당업계의 통상의 지식을 가진 자에게 있어서는 다른 많은 변형이 가능함은 물론이다. As described above, the emotional expression robot using the biorhythm according to the embodiment of the present invention calculates the biorhythm related to the body rhythm, the emotional rhythm, and the intellectual rhythm based on the date of birth to generate various emotional expression behaviors as facial expression It is understood that it is a basic technical idea. Therefore, many modifications may be made by those skilled in the art without departing from the scope and spirit of the present invention.

10...사용자 데이터를 이용한 감정 표현 로봇 100...생년월일 입력부
200...데이터 베이스부 300...바이오리듬 산출부
400...감정레벨 결정부 500...초기감정 설정부
600...감정패턴 선택부 700...얼굴표정 생성부
10 ... emotional expression robot using user data 100 ... birth date input unit
200 ... database part 300 ... biorhythm calculating part
400 ... emotion level determining unit 500 ... initial emotion setting unit
600 ... emotion pattern selection unit 700 ... facial expression generation unit

Claims (20)

사용자의 데이터를 기초로 사용자의 바이오리듬, 토정비결, 별자리 운세 중 적어도 어느 하나를 산출하여 사용자의 감정레벨을 결정하고 초기감정을 설정한 다음 그 초기감정에 해당하는 감정패턴을 선택한 후 얼굴 표정으로 생성하여 작동되는 사용자 데이터를 이용한 감정 표현 로봇으로서,
상기 사용자 데이터를 입력하는 생년월일 입력부와;
각종 데이터를 저장하는 데이터 베이스부;와,
상기 생년월일 입력부를 통하여 입력된 생년월일을 기초하여 상기 데이터 베이스부로부터 사용자의 신체리듬, 감정리듬, 지성리듬에 대한 현재의 바이오리듬감정레벨을 조합하여 산출하는 바이오리듬 산출부;와,
상기 조합되어 산출된 바이오리듬 감정레벨 가운데 어느 하나의 바이오리듬감정레벨을 결정하는 감정레벨 결정부;와,
상기 결정된 바이오리듬 감정레벨에 기초하여 상기 데이터 베이스부로부터 사용자의 신체리듬 감정레벨, 감성리듬 감정레벨, 지성리듬 감정레벨에 각각 대응되는 초기감정을 설정하는 초기감정 설정부;와,
사용자의 컴퓨터 사용시간을 점검하는 컴퓨터 사용시간 체크부;와,
상기 감정 표현 로봇의 수면시간을 점검하는 수면시간 체크부;와,
상기 초기감정 설정부에서 결정된 초기감정에 기초하여 상기 데이터 베이스부로부터 일정 패턴의 감정표현을 선택하는 감정패턴 선택부;와,
상기 감정패턴 선택부에서 선택된 감정표현을 실행하기 위한 얼굴 표정 생성부;를 포함하고,
상기 컴퓨터 사용시간 체크부에서 점검된 컴퓨터 과다사용시간 경고횟수 및 상기 수면시간 체크부에서 점검된 감정 표현 로봇의 기상수면시간 중 적어도 하나에 기초하여 상기 얼굴 표정 생성부에서 생성된 얼굴 표정의 생성 시간을 변화시키는 것을 특징으로 하는 사용자 데이터를 이용한 감정 표현 로봇.
Based on the user's data, calculates at least one of the biorhythm of the user, the settling time and the horoscope, determines the level of the user's emotion, sets the initial emotion, selects the emotion pattern corresponding to the initial emotion, A robot for expressing emotion using user data operated by the robot,
A date of birth input unit for inputting the user data;
A database unit for storing various data;
A biorhythm calculating unit for calculating a current biorhythm feeling level of a user's body rhythm, an emotional rhythm, and an intellectual rhythm from the database unit based on the date of birth inputted through the date of birth input unit;
A biorhythm emotion level determining unit that determines a biorhythm emotion level among the combined biorhythm emotion levels,
An initial emotion setting unit for setting an initial emotion corresponding to a user's body rhythm emotion level, emotional rhythm emotion level, and emotional rhythm emotion level from the database unit based on the determined biorhythm emotion level;
A computer use time checking unit for checking the user's computer use time,
A sleep time check unit for checking a sleep time of the emotional expression robot;
An emotion pattern selection unit for selecting an emotion expression of a predetermined pattern from the database unit based on the initial emotion determined by the initial emotion setting unit;
And a facial expression generating unit for executing the emotional expression selected by the emotion pattern selecting unit,
A computer readable program code for causing the computer to generate a facial expression generating time generated by the facial expression generating unit based on at least one of the number of computer overtime warning times checked in the computer use time checking unit and the weather- Wherein the emotional expression robot changes the user's emotional state.
삭제delete 삭제delete 제1항에 있어서,
상기 바이오리듬 산출부는 상기 신체리듬, 감성리듬, 지성리듬에서 각각 최상위 감정레벨인 '고조', 상위 감정레벨인 '상승', 하위 감정레벨인 '저하', 최하위 감정레벨인 '위험'을 조합하여 감정레벨을 산출하는 것을 특징으로 하는 사용자 데이터를 이용한 감정 표현 로봇.
The method according to claim 1,
The biorhythm calculating unit may combine the bodily rhythm, emotional rhythm, and intellectual rhythm with the highest emotion level, the higher emotion level, the lower emotion level, and the lowest emotion level, And calculating an emotion level using the user data.
제4항에 있어서,
상기 감정레벨 결정부는,
상기 바이오리듬 산출부에서 조합된 감정레벨 가운데 신체리듬, 감성리듬, 지성리듬이 모두 상이할 때는 '고조' 또는 '위험'의 감정레벨을 결정하고,
상기 바이오리듬 감정레벨이 각각 '고조'와 '위험'이면 '위험'의 감정레벨을 결정하고,
상기 바이오리듬 감정레벨이 서로 동일하면 신체리듬, 감성리듬, 지성리듬의 순서로 감정레벨을 결정하는 것을 특징으로 하는 사용자 데이터를 이용한 감정 표현 로봇.
5. The method of claim 4,
Wherein the emotion level determining unit determines,
When the bodily rhythm, emotional rhythm, and intellectual rhythm are different from each other in the bodily rhythm calculating part, the emotion level of 'high' or 'danger' is determined,
Determines the emotion level of 'danger' if the biorhythm emotion level is 'high' and 'danger' respectively,
Wherein the emotional level is determined in the order of body rhythm, emotional rhythm, and intellectual rhythm when the biorhythm emotion levels are equal to each other.
제4항에 있어서,
상기 초기감정 설정부는 상기 감정레벨 결정부에서 결정된 감정레벨에 대응되는 초기감정을 설정하되,
상기 신체리듬 감정레벨의 '신체리듬 고조'는 'EXCITED 모드'로 설정되고, '신체리듬 상승'은 '보통 모드'로 설정되고, '신체리듬 저하'는 '걱정 모드'로 설정되고, '신체리듬 위험'은 '아픔 모드'로 설정되고,
상기 감성리듬 감정레벨의 '감성리듬 고조'는 '행복 모드'로 설정되고, '감성리듬 상승'은 '멍함 모드'로 설정되고, '감성리듬 저하'는 '슬픔 모드'로 설정되고, '감성리듬 위험'은 '불안 모드'로 설정되고,
상기 지성리듬 감정레벨의 '지성리듬 고조'는 'PROUD 모드'로 설정되고, '지성리듬 상승'은 '호기심 모드'로 설정되고, '지성리듬 저하'는 '화남 모드'로 설정되고, '지성리듬 위험'은 'STRESS 모드'로 설정되는 것을 특징으로 하는 사용자 데이터를 이용한 감정 표현 로봇.
5. The method of claim 4,
Wherein the initial emotion setting unit sets an initial emotion corresponding to the emotion level determined in the emotion level determining unit,
The body rhythm feeling level of the body rhythm feeling level is set to the EXCITED mode, the body rhythm raising is set to the normal mode, the body rhythm degradation is set to the worry mode, Rhythm danger 'is set to' pain mode '
The emotional rhythm emotional level of the emotional rhythm emotional level is set to the 'happy mode', the emotional rhythm ascendant is set to the 'emptiness mode', the 'emotional rhythm degradation' is set to the 'sadness mode' Rhythm danger 'is set to' anxiety mode '
The 'intelligent rhythm enhancement' of the intelligent rhythm feeling level is set to 'PROUD mode', the 'intelligent rhythm increase' is set to 'curiosity mode', the 'intellectual rhythm degradation' is set to ' Rhythm danger 'is set to' STRESS mode '.
제5항에 있어서,
상기 감정패턴 선택부는 상기 초기감정 설정부에서 설정된 초기감정을 기초로 하여 상기 신체리듬 감정레벨을 순차적으로 선택하는 신체리듬 선택부와, 상기 감성리듬 감정레벨을 순차적으로 선택하는 감성리듬 선택부와, 상기 지성리듬 감정레벨을 순차적으로 선택하는 지성리듬 선택부 중 어느 하나를 선택하고,
상기 신체리듬 선택부는 'EXCITED 모드', '보통 모드', '걱정 모드', '아픔 모드', '졸림 모드', '취침 모드'의 순으로 감정표현을 선택하고,
상기 감성리듬 선택부는 '행복 모드', '멍함 모드', '슬픔 모드', '불안 모드', '피곤 모드', '취침 모드'의 순으로 감정표현을 선택하고,
상기 지성리듬 선택부는 'PROUD 모드', '호기심 모드', '화남 모드', 'STRESS 모드', 'LAZY 모드', '취침 모드'의 순으로 감정표현을 선택하는 것을 특징으로 하는 사용자 데이터를 이용한 감정 표현 로봇.
6. The method of claim 5,
The emotion pattern selection unit may include a body rhythm selection unit for sequentially selecting the body rhythm emotion level based on the initial emotion set in the initial emotion setting unit, an emotion rhythm selection unit for sequentially selecting the emotion rhythm emotion level, Selecting one of the intelligent rhythm selection units for sequentially selecting the intelligent rhythm emotion level,
The body rhythm selection unit selects emotional expressions in the order of EXCITED mode, normal mode, worry mode, pain mode, sleepiness mode, and sleep mode,
The emotional rhythm selection part selects emotional expressions in the order of 'happy mode', 'blind mode', 'grief mode', 'anxiety mode', 'tired mode', and 'sleep mode'
Wherein the intelligent rhythm selection unit selects emotional expressions in order of 'PROUD mode', 'curiosity mode', 'angry mode', 'STRESS mode', 'LAZY mode', and 'sleep mode' Emotional expression robot.
제7항에 있어서,
상기 감정 표현 로봇는 상기 감정레벨 결정부에 결정된 감정레벨을 표시하는 디스플레이부;와,
상기 감정패턴 선택부에서 선택된 감정을 상위감정 또는 하위감정으로 이동시키는 각종 터치센서부;와,
상기 사용자가 근거리에 있는 지를 감지하는 적외선 센서부;와,
사용자가 임계치 이상의 소리를 내는 횟수를 감지하는 소리 센서부;와,
상기 감정 표현 로봇이 짖는 소리를 mute로 한 횟수를 감지하는 소리 줄임 체크부;를
포함하는 것을 특징으로 하는 사용자 데이터를 이용한 감정 표현 로봇.
8. The method of claim 7,
The emotion expression robot may include a display unit for displaying the emotion level determined by the emotion level determination unit,
A touch sensor unit for moving the emotion selected by the emotion pattern selection unit to upper emotion or lower emotion;
An infrared sensor unit for sensing whether the user is in a short distance;
A sound sensor unit for sensing the number of times the user makes a sound over a threshold value,
And a sound reduction check unit for detecting the number of mute sounds of the barking sound of the emotional expression robot
Wherein the emotional expression robot comprises:
제8항에 있어서,
상기 각종 터치센서부는 상기 감성리듬 선택부에서 형성된 감정을 상위감정으로 이동시키는 코 터치센서;와,
상기 신체리듬 선택부에서 형성된 감정을 상위감정으로 이동시키는 귀 터치센서;와,
상기 지성리듬 선택부에서 형성된 감정을 상위감정으로 이동시키는 머리 터치센서;와,
상기 감성리듬 선택부, 신체리듬 선택부, 지성리듬 선택부에서 형성된 감정을 선택적으로 하위감정으로 이동시키는 꼬리 터치센서;를 포함하는 것을 특징으로 하는 사용자 데이터를 이용한 감정 표현 로봇.
9. The method of claim 8,
The touch sensor unit may include a nose touch sensor for moving the emotion generated by the emotional rhythm selection unit to an upper emotion,
An ear-touch sensor for moving the emotion formed by the body rhythm selection unit to an upper emotion;
A head touch sensor for moving the emotion generated by the intellectual rhythm selector to an upper emotion,
And a tail touch sensor for selectively moving the emotion generated by the emotional rhythm selection unit, the body rhythm selection unit, and the intellectual rhythm selection unit to a lower emotion.
삭제delete 제8항에 있어서,
상기 적외선 센서부에서 감지된 사용자의 이용 시간에 따라서 '행복 모드'와 '불안 모드' 사이 및 'EXCITED 모드'와 '아픔 모드' 사이에서 선택된 감정표현을 일정시간 증가시키고 상반 감정을 일정시간 감소시키는 것을 특징으로 하는 사용자 데이터를 이용한 감정 표현 로봇.
9. The method of claim 8,
The emotion expression selected between the 'happy mode' and the 'anxiety mode' and between the 'EXCITED mode' and the 'pain mode' is increased for a certain time according to the user's use time detected by the infrared sensor unit and the upper- Wherein the emotional expression robot comprises:
제8항에 있어서,
상기 소리 센서부에서 감지된 사용자의 소리 횟수에 따라서 '호기심 모드'와 '화남 모드' 사이 및 '멍함 모드'와 '슬픔 모드' 사이에서 선택된 감정표현을 일정시간 증가시키고 상반 감정을 일정시간 감소시키는 사용자 데이터를 이용한 감정 표현 로봇.
9. The method of claim 8,
The emotion expression selected between the curiosity mode and the angry mode and between the blur mode and the sorrow mode is increased for a certain period of time and the upper-part emotion is decreased for a predetermined time according to the number of sounds of the user sensed by the sound sensor unit Emotion expression robot using user data.
제8항에 있어서,
상기 컴퓨터 사용시간 체크부에서 점검된 사용자의 컴퓨터 사용시간 횟수에 따라서 '보통 모드'와 '걱정 모드' 사이에서 선택된 감정표현을 일정시간 증가시키고 상반 감정을 일정시간 감소시키는 사용자 데이터를 이용한 감정 표현 로봇.
9. The method of claim 8,
An emotional expression robot using user data for increasing the selected emotional expression between the 'normal mode' and the 'worried mode' for a predetermined time according to the number of times of computer use by the user, .
제8항에 있어서,
상기 소리 줄임 체크부에서 체크된 사용자의 소리 줄임 횟수에 따라서 'PROUD 모드'와 'STRESS 모드' 사이에서 선택된 감정표현을 일정시간 증가시키고 상반 감정을 일정시간 감소시키는 사용자 데이터를 이용한 감정 표현 로봇.
9. The method of claim 8,
The emotion expression robot using user data for increasing the selected emotion expression between the 'PROUD mode' and the 'STRESS mode' for a predetermined time according to the number of times of the user's loudness reduction checked in the loudness checker and reducing the upper emotional feeling for a predetermined time.
제8항에 있어서,
상기 수면시간 체크부에서 체크된 의해 상기 감정 표현 로봇의 수면시간에 따라서 'PROUD 모드'와 'LAZY 모드' 및 '행복 모드'와 '피곤 모드' 및 'EXCITED 모드'와 '졸림 모드' 사이에서 선택된 감정표현을 일정시간 증가시키고 상반 감정을 일정시간 감소시키는 사용자 데이터를 이용한 감정 표현 로봇.
9. The method of claim 8,
And the sleep mode is selected between the 'PROUD mode' and the 'LAZY mode', the 'happy mode' and the 'tired mode' and the 'EXCITED mode' and the 'sleepiness mode' according to the sleep time of the emotional expression robot Emotion expression robot using user data to increase emotional expression for a certain period of time and decrease the sympathetic emotion for a certain period of time.
제1항에 있어서,
상기 얼굴 표정 생성부는 눈꺼풀과 눈알의 위치를 조합하여 얼굴 표정으로 생성하도록 하는 사용자 데이터를 이용한 감정 표현 로봇.
The method according to claim 1,
Wherein the facial expression generating unit combines the positions of eyelids and eyeballs to generate facial expressions.
생년월일을 입력하는 생년월일 입력부와,
각종 데이터를 저장하는 데이터 베이스부와,
상기 생년월일 입력부를 통하여 입력된 생년월일을 기초하여 상기 데이터 베이스부로부터 사용자의 신체리듬, 감정리듬, 지성리듬에 대한 현재의 바이오리듬 감정레벨을 조합하여 산출하는 바이오리듬 산출부와,
상기 조합되어 산출된 바이오리듬 감정레벨 가운데 어느 하나의 바이오리듬 감정레벨을 결정하는 감정레벨 결정부와,
상기 결정된 바이오리듬 감정레벨에 기초하여 상기 데이터 베이스부로부터 사용자의 신체리듬 감정레벨, 감성리듬 감정레벨, 지성리듬 감정레벨에 각각 대응되는 초기감정을 설정하는 초기감정 설정부와,
상기 감정 표현 로봇의 수면시간을 점검하는 수면시간 체크부와,
상기 초기감정 설정부에서 결정된 초기감정에 기초하여 상기 데이터 베이스부로부터 일정 패턴의 감정표현을 선택하는 감정패턴 선택부와,
상기 감정패턴 선택부에서 선택된 감정표현을 실행하기 위하여 눈알과 눈꺼풀을 조합하여 얼굴 표정 생성부를 포함하고,
상기 수면시간 체크부에서 점검된 감정 표현 로봇의 기상수면시간에 기초하여 상기 얼굴 표정 생성부에서 생성된 얼굴 표정의 생성 시간을 변화시키는 것을 특징으로 하는 바이오리듬을 이용한 감정 표현 로봇.
A date of birth input unit for inputting a date of birth,
A database unit for storing various data,
A biorhythm calculating unit for calculating a current biorhythm feeling level of the user's body rhythm, emotional rhythm, and intellectual rhythm from the database unit based on the date of birth inputted through the date of birth input unit;
An emotion level determination unit for determining a biorhythm emotion level among the combined biorhythm emotion levels,
An initial emotion setting unit for setting an initial emotion corresponding to a user's body rhythm emotion level, emotional rhythm emotion level, and emotional rhythm emotion level from the database unit based on the determined biorhythm emotion level,
A sleep time check unit for checking a sleep time of the emotional expression robot;
An emotion pattern selection unit for selecting an emotion expression of a predetermined pattern from the database unit based on the initial emotion determined by the initial emotion setting unit;
And a facial expression generating unit for combining eyeballs and eyelids to perform the emotion expression selected by the emotion pattern selecting unit,
Wherein the generating time of the facial expression generated by the facial expression generating unit is changed based on the wake up time of the emotional expression robot checked by the sleep time checking unit.
제17항에 있어서,
상기 초기감정 설정부는 'EXCITED 모드', '보통 모드', '걱정 모드', '아픔 모드', '행복 모드', '멍함 모드', '슬픔 모드', '불안 모드', 'PROUD 모드', '호기심 모드', '화남 모드', 'STRESS 모드'에 대응되는 감정표현을 초기감정을 선택하는 것을 특징으로 하는 바이오리듬을 이용한 감정 표현 로봇.
18. The method of claim 17,
The initial emotion setting unit may be configured to set the initial emotion setting unit such that the initial emotion setting unit is configured to set the initial emotion setting unit such that the initial emotion setting unit sets the initial emotion setting unit such as' EXCITED mode, '' normal mode, '' worry mode, '' pain mode, '' happy mode, '' The emotion expression corresponding to the 'curiosity mode', the 'angry mode', and the 'STRESS mode' is selected as the emotion expression robot using the biorhythm.
제17항에 있어서,
상기 감정패턴 선택부는 'EXCITED 모드', '보통 모드', '걱정 모드', '아픔 모드', '졸림 모드'의 순서로 감정표현을 선택하는 제1패턴과,
'행복 모드', '멍함 모드', '슬픔 모드', '불안 모드', '피곤 모드'의 순서로 감정표현을 선택하는 제2패턴과,
'PROUD 모드', '호기심 모드', '화남 모드', 'STRESS 모드', 'LAZY 모드'의 순서로 감정표현을 선택하는 제3패턴을 포함하는 것을 특징으로 하는 바이오리듬을 이용한 감정 표현 로봇.
18. The method of claim 17,
The emotion pattern selection unit may include a first pattern for selecting emotional expressions in the order of EXCITED mode, normal mode, worry mode, pain mode, and sleepiness mode,
A second pattern for selecting emotional expressions in order of 'happiness mode', 'blindness mode', 'sadness mode', 'anxiety mode', and 'tired mode'
And a third pattern for selecting an emotional expression in order of 'PROUD mode', 'curiosity mode', 'angry mode', 'STRESS mode', and 'LAZY mode'.
제18항 또는 제19항에 있어서,
상기 얼굴 표정 생성부는 눈꺼풀 열림 비율, 눈꺼풀이 위치하는 방향, 눈꺼풀의 구동속도, 눈꺼풀의 구동 인터벌을 통하여 상기 'EXCITED 모드', '보통 모드', '걱정 모드', '아픔 모드', '졸림 모드', '행복 모드', '멍함 모드', '슬픔 모드', '불안 모드', '피곤 모드', 'PROUD 모드', '호기심 모드', '화남 모드', 'STRESS 모드', 'LAZY 모드'에 대응되는 감정표현을 실행하는 것을 특징으로 하는 바이오리듬을 이용한 감정 표현 로봇.
20. The method according to claim 18 or 19,
The facial expression generating unit may generate the facial expression by using the EXCITED mode, the 'normal mode', the 'worry mode', the 'sore mode', the 'sleepiness mode', and the 'sleep mode' through the eyelid opening ratio, the direction in which the eyelid is positioned, , 'Curious Mode', 'Angry Mode', 'STRESS Mode', 'LAZY Mode', and 'LAZY Mode'≪ / RTI > wherein the emotional expression corresponding to < RTI ID = 0.0 > a < / RTI >
KR1020110110409A 2011-10-27 2011-10-27 Emotion expresion robot using user data KR101399601B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110110409A KR101399601B1 (en) 2011-10-27 2011-10-27 Emotion expresion robot using user data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110110409A KR101399601B1 (en) 2011-10-27 2011-10-27 Emotion expresion robot using user data

Publications (2)

Publication Number Publication Date
KR20130046070A KR20130046070A (en) 2013-05-07
KR101399601B1 true KR101399601B1 (en) 2014-05-27

Family

ID=48657856

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110110409A KR101399601B1 (en) 2011-10-27 2011-10-27 Emotion expresion robot using user data

Country Status (1)

Country Link
KR (1) KR101399601B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160026163A (en) 2014-08-29 2016-03-09 건국대학교 산학협력단 Emotion analysis device using data packets

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6436030B2 (en) * 2015-09-17 2018-12-12 トヨタ自動車株式会社 Life log recording system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002307354A (en) * 2000-11-07 2002-10-23 Sega Toys:Kk Electronic toy
KR100813668B1 (en) * 2006-12-20 2008-03-14 한국생산기술연구원 Emotional expression equipment and method in android robot

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002307354A (en) * 2000-11-07 2002-10-23 Sega Toys:Kk Electronic toy
KR100813668B1 (en) * 2006-12-20 2008-03-14 한국생산기술연구원 Emotional expression equipment and method in android robot

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160026163A (en) 2014-08-29 2016-03-09 건국대학교 산학협력단 Emotion analysis device using data packets

Also Published As

Publication number Publication date
KR20130046070A (en) 2013-05-07

Similar Documents

Publication Publication Date Title
JP6883075B2 (en) Viewing the user interface associated with physical activity
CN107791893B (en) Vehicle seat
EP1893079B1 (en) Fluctuating blood glucose notification threshold profiles and methods of use
US6567785B2 (en) Electronic behavior modification reminder system and method
US20190163270A1 (en) Methods and systems for fitness-monitoring device displaying biometric sensor data-based interactive applications
WO2017199662A1 (en) Autonomous action robot and computer program
US8358215B2 (en) Attention assistance and monitoring
EP2551784A1 (en) Method of controlling the display of a dataset
Fairclough et al. Construction of the biocybernetic loop: a case study
US20150254992A1 (en) Memory-enhancing and habit-training methods and devices
JP7364016B2 (en) Robot, control method and program
WO2019132772A1 (en) Method and system for monitoring emotions
KR20200087337A (en) Healthcare robot and controlling metohd thereof
KR101399601B1 (en) Emotion expresion robot using user data
JP2020154459A (en) System, method and program of predicting satisfaction level for life in future
Peng et al. A visuo-haptic attention training game with dynamic adjustment of difficulty
JP2022082547A (en) Work appropriateness determination system
JP2023099625A (en) Equipment control device, equipment control method, and program
JP2023115370A (en) Robot, control method and program
JP2015131008A (en) Sleep evaluation apparatus
JP6365003B2 (en) Action evaluation device, action evaluation method, program
JP7415615B2 (en) Program and evaluation equipment
JP2021003216A (en) Information processing system, and information processing method
JP7287411B2 (en) Equipment control device, equipment control method and program
US20240260893A1 (en) System and method for analyzing sleeping behavior

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant