KR101399601B1 - Emotion expresion robot using user data - Google Patents
Emotion expresion robot using user data Download PDFInfo
- Publication number
- KR101399601B1 KR101399601B1 KR1020110110409A KR20110110409A KR101399601B1 KR 101399601 B1 KR101399601 B1 KR 101399601B1 KR 1020110110409 A KR1020110110409 A KR 1020110110409A KR 20110110409 A KR20110110409 A KR 20110110409A KR 101399601 B1 KR101399601 B1 KR 101399601B1
- Authority
- KR
- South Korea
- Prior art keywords
- mode
- emotion
- rhythm
- emotional
- unit
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
- B25J11/001—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
- B25J11/0015—Face robots, animated artificial faces for imitating human expressions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/026—Acoustical sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D3/00—Control of position or direction
- G05D3/12—Control of position or direction using feedback
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Automation & Control Theory (AREA)
- General Physics & Mathematics (AREA)
- Toys (AREA)
- Manipulator (AREA)
Abstract
본 발명은 사용자 데이터를 이용한 감정 표현 로봇에 관한 것으로, 더욱 상세하게는 사용자의 바이오리듬, 토정비결, 별자리 운세 등과 같은 데이터를 이용하여 로봇의 감정 표현 패턴을 변화시키는 사용자 데이터를 이용한 감정 표현 로봇에 관한 것으로, 이러한 본 발명의 실시예에 따른 사용자 데이터를 이용한 감정 표현 로봇은 사용자의 데이터를 기초로 사용자의 바이오리듬, 토정비결, 별자리 운세 중 적어도 어느 하나를 산출하여 사용자의 감정레벨을 결정하고 초기감정을 설정한 다음 그 초기감정에 해당하는 감정패턴을 선택한 후 얼굴 표정으로 생성하여 작동되는 것을 특징으로 한다. The present invention relates to an emotion expression robot using user data, and more particularly to an emotion expression robot using user data for changing emotion expression patterns of a robot using data such as a user's biorhythm, The emotion expression robot using the user data according to the embodiment of the present invention calculates at least one of the biorhythm of the user, the dead reckoning and the horoscope of the user based on the user's data to determine the emotion level of the user, And then selects an emotion pattern corresponding to the initial emotion and generates a facial expression.
Description
본 발명은 사용자 데이터를 이용한 감정 표현 로봇에 관한 것으로, 더욱 상세하게는 사용자의 바이오리듬, 토정비결, 별자리 운세 등과 같은 데이터를 이용하여 로봇의 감정 표현 패턴을 변화시키는 사용자 데이터를 이용한 감정 표현 로봇에 관한 것이다. The present invention relates to an emotion expression robot using user data, and more particularly to an emotion expression robot using user data for changing emotion expression patterns of a robot using data such as a user's biorhythm, will be.
근래 개, 고양이 등을 흉내 내는 애완 로봇이 개발되고 있으나, 이러한 애완 로봇은 사용자의 바이오리듬, 토정비결, 별자리 운세 등과 같은 데이터를 전혀 반영하지 못하고 있어서 사용자가 애완 로봇에 보다 강한 애착을 가지기 어려운 점이 있다. Recently, pets robots that imitate dogs and cats have been developed. However, such pets robots do not reflect data such as user's biorhythm, tombstones, horoscope, etc., and thus it is difficult for a user to have a strong attachment to a pet robot .
즉, 근래에 개발되고 있는 애완 로봇은 애완 로봇의 운영에 있어서 미리 프로그램된 대로 움직이는 단조로움을 피하기 어려운 문제가 있었다. In other words, there has been a problem that the pet robot, which has been developed in recent years, has difficulty in monotonously moving as it is programmed in advance in the operation of the pet robot.
예를 들어, 바이오리듬 기능이란 사람의 컨디션이 일정 기간을 주기로 반복되는 점을 이용한 것이다. 사람의 신체 주기는 23일을 주기로 반복되며, 감성 주기는 28일 주기로 반복되고, 지성 주기는 33일 주기로 사인(Sine) 곡선을 그리면서 반복된다. 사람의 바이오리듬 시작 시점 즉, 탄생 시점이 이 주기의 시작 시점이 되는 것이다. 이 시점부터 지금 현재 시각까지 각각의 사인 곡선을 그리며 반복되는 것이다. For example, the biorhythm function uses a point where the condition of a person is repeated at regular intervals. The human body cycle is repeated with a cycle of 23 days, the emotion cycle is repeated with a 28-day cycle, and the intelligence cycle is repeated with a 33-day cycle with a Sine curve. The starting point of a person's biorhythm, that is, the time of birth, is the starting point of this cycle. From this point to the present time, it repeats each sine curve drawing.
따라서, 이러한 신체 리듬, 감성 리듬, 지성 리듬에 관한 바이오리듬과 같은 사용자의 데이터를 반영하여 감정을 변화될 수 있는 감정 표현 로봇에 대한 관심이 증대되고 있다. Accordingly, interest in emotional expression robots that can be changed by reflecting user's data such as bodily rhythm, emotional rhythm, and biorhythm related to intellectual rhythm is increasing.
본 발명의 일 측면은 사용자의 바이오리듬, 토정비결, 별자리 운세 등과 같은 데이터를 이용하여 로봇의 감정 표현 패턴을 변화시키는 사용자 데이터를 이용한 감정 표현 로봇을 제공하는 것에 있다. One aspect of the present invention is to provide an emotional expression robot using user data that changes a emotional expression pattern of a robot using data such as a user's biorhythm, satiety, horoscope, and the like.
본 발명의 다른 측면은 사용자의 관심도에 따라서 얼굴 표정이 변화되어 사용자가 로봇에 보다 강한 애착을 가질 수 있도록 하는 사용자 데이터를 이용한 감정 표현 로봇을 제공하는 것에 있다. Another aspect of the present invention is to provide an emotional expression robot using user data that allows a user to have stronger affection for the robot by changing the facial expression according to the user's interest.
본 발명의 또 다른 측면은 눈꺼풀과 눈알의 위치를 조합하여 얼굴 표정으로 생성하도록 하는 사용자 데이터를 이용한 감정 표현 로봇을 제공하는 것에 있다. Another aspect of the present invention is to provide an emotion expression robot using user data which is generated by combining face positions of eyelids and eyeballs with facial expressions.
본 발명의 실시예에 따른 사용자 데이터를 이용한 감정 표현 로봇은 사용자의 데이터를 기초로 사용자의 바이오리듬, 토정비결, 별자리 운세 중 적어도 어느 하나를 산출하여 사용자의 감정레벨을 결정하고 초기감정을 설정한 다음 그 초기감정에 해당하는 감정패턴을 선택한 후 얼굴 표정으로 생성하여 작동되는 것을 특징으로 한다. The emotional robot using the user data according to the embodiment of the present invention calculates at least one of the biorhythm of the user, the saturating unit and the horoscope of the user on the basis of the user's data, determines the emotion level of the user, And an emotion pattern corresponding to the initial emotion is selected and then generated as a facial expression.
또한, 사용자 데이터를 입력하는 생년월일 입력부를 포함하는 것을 특징으로 한다. And a date of birth input unit for inputting user data.
또한, 감정 표현 로봇은 각종 데이터를 저장하는 데이터 베이스부;와, 상기 생년월일 입력부를 통하여 입력된 생년월일을 기초하여 상기 데이터 베이스부로부터 사용자의 신체리듬, 감정리듬, 지성리듬에 대한 현재의 바이오리듬감정레벨을 조합하여 산출하는 바이오리듬 산출부;와, 상기 조합되어 산출된 바이오리듬 감정레벨 가운데 어느 하나의 바이오리듬감정레벨을 결정하는 감정레벨 결정부;와, 상기 결정된 바이오리듬 감정레벨에 기초하여 상기 데이터 베이스부로부터 사용자의 신체리듬 감정레벨, 감성리듬 감정레벨, 지성리듬 감정레벨에 각각 대응되는 초기감정을 설정하는 초기감정 설정부;와, 상기 초기감정 설정부에서 결정된 초기감정에 기초하여 상기 데이터 베이스부로부터 일정 패턴의 감정표현을 선택하는 감정패턴 선택부;와, 상기 감정패턴 선택부에서 선택된 감정표현을 실행하기 위한 얼굴 표정 생성부;를 포함하는 것을 특징으로 한다. The bodily rhythm, the emotional rhythm, and the biorhythm rhythm of the user are inputted from the database unit based on the date of birth inputted through the date of birth input unit, A biorhythm calculating unit for calculating a biorhythm emotion level based on the biorhythm emotion level and a biorhythm emotion calculating unit for calculating a biorhythm emotion level based on the determined biorhythm emotion level; An initial emotion setting unit for setting an initial emotion corresponding to a user's body rhythm emotion level, emotional rhythm emotion level, and intellectual rhythm emotion level from a database unit, An emotion pattern selection unit for selecting an emotion expression of a predetermined pattern from the base unit; It characterized in that it comprises a; facial expression generation unit for performing the emotional expression is selected from the emotion pattern selector.
또한, 바이오리듬 산출부는 상기 신체리듬, 감성리듬, 지성리듬에서 각각 최상위 감정레벨인 '고조', 상위 감정레벨인 '상승', 하위 감정레벨인 '저하', 최하위 감정레벨인 '위험'을 조합하여 감정레벨을 산출하는 것을 특징으로 한다. In addition, the biorhythm calculating unit calculates the biorhythm calculating unit in the body rhythm, emotional rhythm, and intellectual rhythm by combining the highest emotional level, the higher emotional level, the lower emotional level, and the lowest emotional level, And calculates an emotion level.
또한, 감정레벨 결정부는, 상기 바이오리듬 산출부에서 조합된 감정레벨 가운데 신체리듬, 감성리듬, 지성리듬이 모두 상이할 때는 '고조' 또는 '위험'의 감정레벨을 결정하고, 상기 바이오리듬 감정레벨이 각각 '고조'와 '위험'이면 '위험'의 감정레벨을 결정하고, 상기 바이오리듬 감정레벨이 서로 동일하면 신체리듬, 감성리듬, 지성리듬의 순서로 감정레벨을 결정하는 것을 특징으로 한다. The emotion level determining unit may determine an emotion level of 'high' or 'danger' when the body rhythm, emotional rhythm, and intellectual rhythm are all different among the emotion levels combined in the biorhythm calculating unit, The emotional level is determined in the order of body rhythm, emotional rhythm, and intellectual rhythm when the biorhythm feeling levels are equal to each other.
또한, 초기감정 설정부는 상기 감정레벨 결정부에서 결정된 감정레벨에 대응되는 초기감정을 설정하되, 상기 신체리듬 감정레벨의 '신체리듬 고조'는 'EXCITED 모드'로 설정되고, '신체리듬 상승'은 '보통 모드'로 설정되고, '신체리듬 저하'는 '걱정 모드'로 설정되고, '신체리듬 위험'은 '아픔 모드'로 설정되고, 상기 감성리듬 감정레벨의 '감성리듬 고조'는 '행복 모드'로 설정되고, '감성리듬 상승'은 '멍함 모드'로 설정되고, '감성리듬 저하'는 '슬픔 모드'로 설정되고, '감성리듬 위험'은 '불안 모드'로 설정되고, 상기 지성리듬 감정레벨의 '지성리듬 고조'는 'PROUD 모드'로 설정되고, '지성리듬 상승'은 '호기심 모드'로 설정되고, '지성리듬 저하'는 '화남 모드'로 설정되고, '지성리듬 위험'은 'STRESS 모드'로 설정되는 것을 특징으로 한다. In addition, the initial emotion setting unit sets an initial emotion corresponding to the emotion level determined in the emotion level determining unit, the 'body rhythm height' of the body rhythm emotion level is set to 'EXCITED mode', and the ' The body rhythm risk is set to the pain mode and the emotional rhythm emotional level is set to the normal mode, The emotional rhythm danger is set to the anxiety mode and the intelligent rhythm danger is set to the anxiety state, The 'intellectual rhythm increase' of the rhythm feeling level is set to 'PROUD mode', the 'intellectual rhythm increase' is set to 'curiosity mode', the 'intellectual rhythm decrease' is set to ' 'Is set to' STRESS mode '.
또한, 감정패턴 선택부는 상기 초기감정 설정부에서 설정된 초기감정을 기초로 하여 상기 신체리듬 감정레벨을 순차적으로 선택하는 신체리듬 선택부와, 상기 감성리듬 감정레벨을 순차적으로 선택하는 감성리듬 선택부와, 상기 지성리듬 감정레벨을 순차적으로 선택하는 지성리듬 선택부 중 어느 하나를 선택하고, 상기 신체리듬 선택부는 'EXCITED 모드', '보통 모드', '걱정 모드', '아픔 모드', '졸림 모드', '취침 모드'의 순으로 감정표현을 선택하고, 상기 감성리듬 선택부는 '행복 모드', '멍함 모드', '슬픔 모드', '불안 모드', '피곤 모드', '취침 모드'의 순으로 감정표현을 선택하고, 상기 지성리듬 선택부는 'PROUD 모드', '호기심 모드', '화남 모드', 'STRESS 모드', 'LAZY 모드', '취침 모드'의 순으로 감정표현을 선택하는 것을 특징으로 한다. Also, the emotion pattern selection unit may include a body rhythm selection unit for sequentially selecting the body rhythm emotion level based on the initial emotion set in the initial emotion setting unit, an emotion rhythm selection unit for sequentially selecting the emotion rhythm emotion level And an intelligent rhythm selection unit sequentially selecting the intelligent rhythm emotion level, and the body rhythm selection unit selects one of the 'EXCITED mode', 'normal mode', 'worry mode', ' , 'Sleep mode', and the emotional rhythm selection unit selects 'emotional expression' in the order of 'happy mode', 'blur mode', 'sadness mode', 'anxiety mode', 'tired mode' The intelligent rhythm selection unit selects the emotional expression in the order of 'PROUD mode', 'curiosity mode', 'angry mode', 'STRESS mode', 'LAZY mode', and 'sleep mode' .
또한, 감정 표현 로봇는 상기 감정레벨 결정부에 결정된 감정레벨을 표시하는 디스플레이부;와, 상기 감정패턴 선택부에서 선택된 감정을 상위감정 또는 하위감정으로 이동시키는 각종 터치센서부;와, 상기 사용자가 근거리에 있는 지를 감지하는 적외선 센서부;와, 사용자가 임계치 이상의 소리를 내는 횟수를 감지하는 소리 센서부;와, 사용자의 컴퓨터 사용시간을 점검하는 컴퓨터 사용시간 체크부;와, 상기 감정 표현 로봇이 짖는 소리를 mute로 한 횟수를 감지하는 소리 줄임 체크부; 상기 감정 표현 로봇의 수면시간을 점검하는 수면시간 체크부;를 포함하는 것을 특징으로 한다. The display unit displays the determined emotion level in the emotion level determination unit. The various types of touch sensors include a touch sensor unit for moving the emotion selected by the emotion pattern selection unit to an upper emotion or a lower emotion, A computer usage time check unit for checking the user's computer use time, and a computer usage time checking unit for checking whether the user expresses a bark A sound reduction check section for detecting the number of times the sound is muted; And a sleep time check unit for checking the sleep time of the emotional expression robot.
또한, 각종 터치센서부는 상기 감성리듬 선택부에서 형성된 감정을 상위감정으로 이동시키는 코 터치센서;와, 상기 신체리듬 선택부에서 형성된 감정을 상위감정으로 이동시키는 귀 터치센서;와, 상기 지성리듬 선택부에서 형성된 감정을 상위감정으로 이동시키는 머리 터치센서;와, 상기 감성리듬 선택부, 신체리듬 선택부, 지성리듬 선택부에서 형성된 감정을 선택적으로 하위감정으로 이동시키는 꼬리 터치센서;를 포함하는 것을 특징으로 하는 사용자 데이터를 이용한 감정 표현 로봇. In addition, the various touch sensor units include a nose touch sensor that moves the emotion formed by the emotional rhythm selection unit to an upper emotion, an ear touch sensor that moves emotion formed by the body rhythm selection unit to an upper emotion, And a tail touch sensor for selectively moving the emotion formed by the emotional rhythm selection unit, the body rhythm selection unit, and the intellectual rhythm selection unit to a lower emotion, Emotion expression robot using user data.
또한, 감정 표현 로봇은 사용자의 컴퓨터 사용시간을 점검하는 컴퓨터 사용시간 체크부;와, 상기 감정 표현 로봇의 수면시간을 점검하는 수면시간 체크부;를 더 포함하는 것을 특징으로 한다. In addition, the emotional expression robot may further include a computer usage time check unit for checking the user's computer usage time, and a sleep time check unit for checking the sleep time of the emotional expression robot.
또한, 적외선 센서부에서 감지된 사용자의 이용 시간에 따라서 '행복 모드'와 '불안 모드' 사이 및 'EXCITED 모드'와 '아픔 모드' 사이에서 선택된 감정표현을 일정시간 증가시키고 상반 감정을 일정시간 감소시키는 것을 특징으로 한다. In addition, the emotion expression selected between the 'happy mode' and the 'anxiety mode' and between the 'EXCITED mode' and the 'pain mode' is increased for a predetermined time according to the user's use time detected by the infrared sensor unit, .
또한, 소리 센서부에서 감지된 사용자의 소리 횟수에 따라서 '호기심 모드'와 '화남 모드' 사이 및 '멍함 모드'와 '슬픔 모드' 사이에서 선택된 감정표현을 일정시간 증가시키고 상반 감정을 일정시간 감소시키는 것을 특징으로 한다. Also, depending on the number of sounds of the user sensed by the sound sensor unit, the emotional expression selected between the curiosity mode and the angry mode and between the ambiguous mode and the sorrow mode is increased for a certain period of time and the upper- .
또한, 컴퓨터 사용시간 체크부에서 점검된 사용자의 컴퓨터 사용시간 횟수에 따라서 '보통 모드'와 '걱정 모드' 사이에서 선택된 감정표현을 일정시간 증가시키고 상반 감정을 일정시간 감소시키는 것을 특징으로 한다. In addition, according to the number of times of computer use by the user checked in the computer usage time checking unit, the selected emotional expression between the 'normal mode' and the 'worried mode' is increased for a certain period of time and the opposite emotion is decreased for a certain period of time.
또한, 소리 줄임 체크부에서 체크된 사용자의 소리 줄임 횟수에 따라서 'PROUD 모드'와 'STRESS 모드' 사이에서 선택된 감정표현을 일정시간 증가시키고 상반 감정을 일정시간 감소시키는 것을 특징으로 한다. In addition, according to the number of times of the user's loudness reduction checked in the loudness check section, the selected emotion expression between the 'PROUD mode' and the 'STRESS mode' is increased for a certain period of time and the upper emotions are reduced for a certain period of time.
또한, 수면시간 체크부에서 체크된 의해 상기 감정 표현 로봇의 수면시간에 따라서 'PROUD 모드'와 'LAZY 모드' 및 '행복 모드'와 '피곤 모드' 및 'EXCITED 모드'와 '졸림 모드' 사이에서 선택된 감정표현을 일정시간 증가시키고 상반 감정을 일정시간 감소시키는 것을 특징으로 한다. In addition, it is also possible to use the 'PROUD mode' and the 'LAZY mode', the 'happy mode' and the 'tired mode' and the 'EXCITED mode' and the 'sleepy mode', depending on the sleep time of the emotional expression robot, The selected emotional expression is increased for a predetermined time and the upper emotional feeling is decreased for a predetermined time.
또한, 얼굴 표정 생성부는 눈꺼풀과 눈알의 위치를 조합하여 얼굴 표정으로 생성하도록 하는 것을 특징으로 한다. In addition, the facial expression generation unit is characterized in that the facial expression is generated by combining the positions of the eyelids and the eyeballs.
본 발명의 실시예에 따른 바이오리듬을 이용한 감정 표현 로봇은 생년월일을 입력하는 생년월일 입력부와, 각종 데이터를 저장하는 데이터 베이스부와, 상기 생년월일 입력부를 통하여 입력된 생년월일을 기초하여 상기 데이터 베이스부로부터 사용자의 신체리듬, 감정리듬, 지성리듬에 대한 현재의 바이오리듬 감정레벨을 조합하여 산출하는 바이오리듬 산출부와, 상기 조합되어 산출된 바이오리듬 감정레벨 가운데 어느 하나의 바이오리듬 감정레벨을 결정하는 감정레벨 결정부와, 상기 결정된 바이오리듬 감정레벨에 기초하여 상기 데이터 베이스부로부터 사용자의 신체리듬 감정레벨, 감성리듬 감정레벨, 지성리듬 감정레벨에 각각 대응되는 초기감정을 설정하는 초기감정 설정부와, 상기 초기감정 설정부에서 결정된 초기감정에 기초하여 상기 데이터 베이스부로부터 일정 패턴의 감정표현을 선택하는 감정패턴 선택부와, 상기 감정패턴 선택부에서 선택된 감정표현을 실행하기 위하여 눈알과 눈꺼풀을 조합하여 얼굴 표정 생성부를 포함하는 것을 특징으로 한다. The emotion expression robot using the biorhythm according to an embodiment of the present invention may include a date of birth input unit for inputting a date of birth, a database unit for storing various data, a user interface unit for inputting data from the database unit, A biorhythm calculating unit for calculating a biorhythm feeling level of the body rhythm, an emotional rhythm, and an intellectual rhythm of the biorhythm according to the current biorhythm feeling level of the biorhythm feeling level, An initial emotion setting unit that sets an initial emotion corresponding to a user's body rhythm emotion level, emotional rhythm emotion level, and emotional rhythm emotion level from the database unit based on the determined biorhythm emotion level, Based on the initial emotion determined in the initial emotion setting section, It characterized in that it comprises a combination of the eyeball and eyelids facial expression creation unit to execute the emotion pattern selection unit for selecting an emotional expression of a certain pattern, the emotional expression selected by the pattern selector emotion from the database unit.
또한, 초기감정 설정부는 'EXCITED 모드', '보통 모드', '걱정 모드', '아픔 모드', '행복 모드', '멍함 모드', '슬픔 모드', '불안 모드', 'PROUD 모드', '호기심 모드', '화남 모드', 'STRESS 모드'에 대응되는 감정표현을 초기감정을 선택하는 것을 특징으로 한다. In addition, the initial emotion setting unit may set the initial emotion setting unit to 'EXCITED mode', 'normal mode', 'worry mode', 'pain mode', 'happy mode', 'ambiguous mode', 'sorrow mode', 'anxiety mode' , 'Curiosity mode', 'angry mode', and 'STRESS mode'.
또한, 감정패턴 선택부는 'EXCITED 모드', '보통 모드', '걱정 모드', '아픔 모드', '졸림 모드'의 순서로 감정표현을 선택하는 제1패턴과, '행복 모드', '멍함 모드', '슬픔 모드', '불안 모드', '피곤 모드'의 순서로 감정표현을 선택하는 제2패턴과, 'PROUD 모드', '호기심 모드', '화남 모드', 'STRESS 모드', 'LAZY 모드'의 순서로 감정표현을 선택하는 제3패턴을 포함하는 것을 특징으로 한다. In addition, the emotion pattern selection unit may include a first pattern for selecting emotional expressions in the order of EXCITED mode, normal mode, worry mode, pain mode, and sleepiness mode, A second pattern for selecting emotional expressions in the order of 'mode', 'grief mode', 'anxiety mode' and 'tired mode', and a second pattern for selecting emotional expressions in order of 'PROUD mode', 'curiosity mode' And a third pattern for selecting an emotional expression in the order of " LAZY mode ".
또한, 얼굴 표정 생성부는 눈꺼풀 열림 비율, 눈꺼풀이 위치하는 방향, 눈꺼풀의 구동속도, 눈꺼풀의 구동 인터벌을 통하여 상기 'EXCITED 모드', '보통 모드', '걱정 모드', '아픔 모드', '졸림 모드', '행복 모드', '멍함 모드', '슬픔 모드', '불안 모드', '피곤 모드', 'PROUD 모드', '호기심 모드', '화남 모드', 'STRESS 모드', 'LAZY 모드'에 대응되는 감정표현을 실행하는 것을 특징으로 한다. In addition, the facial expression generating unit may generate the facial expressions by using the EXCITED mode, the 'normal mode', the 'worry mode', the 'pain mode', the 'sleepiness mode', and the 'sleepiness mode' through the eyelid opening ratio, the direction in which the eyelid is positioned, Mode, "" happiness mode, "" blur mode, "" sadness mode, "" anxiety mode, "" tired mode, "" PROUD mode, "" curiosity mode, Quot; mode " is performed.
따라서, 본 발명의 실시예에 따른 사용자 데이터를 이용한 감정 표현 로봇은 사용자의 바이오리듬, 토정비결, 별자리 운세 등과 같은 데이터를 이용하여 로봇의 감정 표현 패턴을 변화시켜 사용자와의 상호작용이 가능하도록 한다. Accordingly, the emotional expression robot using the user data according to the embodiment of the present invention can change the emotional expression pattern of the robot by using data such as biorhythm of the user, saturating unit, constellation fortune telling, etc. to enable interaction with the user.
또한, 본 발명의 실시예에 따른 사용자 데이터를 이용한 감정 표현 로봇은 사용자의 관심도에 따라서 얼굴 표정이 변화되어 사용자가 로봇에 보다 강한 애착을 가질 수 있도록 하는 효과가 있다. Also, the emotional expression robot using the user data according to the embodiment of the present invention has an effect that the facial expression is changed according to the degree of interest of the user, so that the user can have stronger attachment to the robot.
도 1은 본 발명의 실시예에 따른 사용자 데이터를 이용한 감정 표현 로봇의 구성을 개략적으로 나타낸 도면이다.
도 2는 도 1에 도시된 바이오리듬 산출부를 나타낸 도면이다.
도 3은 도 1에 도시된 감정레벨 결정부를 나타낸 도면이다.
도 4는 도 1에 도시된 초기감정 설정부를 나타낸 도면이다.
도 5는 도 1에 도시된 감정패턴 선택부를 나타낸 도면이다.
도 6은 본 발명의 실시예에 따른 사용자 데이터를 이용한 감정 표현 로봇의 외관을 나타낸 도면이다. FIG. 1 is a view schematically showing a configuration of a robot for expressing emotion using user data according to an embodiment of the present invention.
FIG. 2 is a diagram showing the biorhythm calculating unit shown in FIG. 1. FIG.
FIG. 3 is a view showing the emotion level determining unit shown in FIG. 1. FIG.
4 is a view showing the initial emotion setting unit shown in FIG.
FIG. 5 is a diagram illustrating the emotion pattern selector shown in FIG. 1. Referring to FIG.
6 is a view showing the appearance of the emotion expression robot using user data according to the embodiment of the present invention.
이하, 첨부된 도면들을 참조하면서 본 발명의 바람직한 실시예를 상세히 설명하기로 한다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
먼저, 본 발명의 실시예에 따른 사용자 데이터를 이용한 감정 표현 로봇은 사용자의 바이오리듬, 토정비결, 별자리 운세 등과 같은 데이터를 이용하여 감정 표현을 변화시킬 수 있는데, 이하 사용자의 바이오리듬에 관하여 설명하는 것은 사용자의 토정비결, 별자리 운세와 같은 다른 사용자 데이터에 대하여도 적용될 수 있음은 물론이다. First, the emotional expression robot using user data according to the embodiment of the present invention can change the emotional expression using data such as biorhythm of the user, astrological sign, constellation fortune telling, etc. Hereinafter, description of the biorhythm of the user It is also applicable to other user data such as a user's astrological sign, a horoscope, and the like.
도 1은 본 발명의 실시예에 따른 사용자 데이터를 이용한 감정 표현 로봇의 구성을 개략적으로 나타낸 도면이며, 도 2는 도 1에 도시된 바이오리듬 산출부를 나타낸 도면이며, 도 3은 도 1에 도시된 감정레벨 결정부를 나타낸 도면이며, 도 4는 도 1에 도시된 초기감정 설정부를 나타낸 도면이며, 도 5는 도 1에 도시된 감정패턴 선택부를 나타낸 도면이며, 도 6은 본 발명의 실시예에 따른 사용자 데이터를 이용한 감정 표현 로봇의 외관을 나타낸 도면이다. FIG. 1 is a view schematically showing a configuration of a robot for expressing emotion using user data according to an embodiment of the present invention. FIG. 2 is a diagram showing a biorhythm calculating unit shown in FIG. 1, FIG. 4 is a diagram showing an initial emotion setting unit shown in FIG. 1, FIG. 5 is a view showing the emotion pattern selecting unit shown in FIG. 1, and FIG. Fig. 5 is a diagram showing an appearance of an emotion expression robot using user data.
도 1 내지 도 6에 도시된 바와 같이, 본 발명의 실시예에 따른 사용자 데이터를 이용한 감정 표현 로봇(10)은 생년월일 입력부(100)를 통하여 입력된 생년월일을 기초로 신체리듬, 감성리듬, 지성리듬에 관한 바이오리듬을 산출하여 감정레벨을 결정하고 초기감정을 설정한 다음 감정의 표현행위를 선택한 후 얼굴 표정으로 생성하는 것을 특징으로 한다. 1 to 6, the
사용자는 생년월일 입력부(100)를 통하여 자신의 생년월일을 입력한다. 생년월일 입력부(100)는 컴퓨터 등의 입력장치(미도시)에 구비될 수 있다. The user inputs his or her date of birth through the date of
바이오리듬을 이용한 감정 표현 로봇(10)은 데이터 베이스부(200), 바이오리듬 산출부(300), 감정레벨 결정부(400), 초기감정 설정부(500), 감정패턴 선택부(600), 얼굴표정 생성부(700)를 포함하여 구성된다. The
데이터 베이스부(200)는 각종 데이터를 저장하고 관리하는데, 이러한 데이터 베이스부(200)는 생년월일 입력부(100)를 통해 입력된 사용자의 생년월일을 저장하고 관리하는 사용자정보 데이터 베이스부(미도시)와, 바이오리듬 정보 데이터 베이스부(미도시)를 포함할 수 있다. The
바이오리듬 산출부(300)는 사용자가 입력한 생년월일 값을 바이오리듬정보 데이터 베이스에 저장된 바이오리듬 정보와 비교하여 현재의 바이오리듬을 산출한다. The
이러한 바이오리듬은 신체리듬, 감성리듬, 지성리듬 각 감정리듬 별로 각각 4단계 레벨 중 어느 하나의 감정레벨의 조합으로 산출된다. This biorhythm is calculated as a combination of any one of the four levels of the body rhythm, the emotional rhythm, and the intellectual rhythm, respectively.
각 감정리듬별로 최상위 감정레벨을 '고조', 상위 감정레벨을 '상승', 하위 감정레벨(410,420,430)을 '저하', 최하위 감정레벨을 '위험'으로 한다. For each emotion rhythm, the highest emotion level is raised, the upper emotion level is raised, the lower emotion levels are lowered (410, 420, 430), and the lowest emotion level is considered as dangerous.
따라서, 신체리듬은 최상위 신체 감정레벨인 '신체리듬 고조'와, 상위 신체 감정레벨인 '신체리듬 상승'과, 하위 신체 감정레벨인 '신체리듬 저하'와, 최하위 신체 감정레벨인 '신체리듬 위험' 중 어느 하나로 산출된다. 그리고, 감성리듬은 최상위 감성 감정레벨인 '감성리듬 고조'와, 상위 감성 감정레벨인 '감성리듬 상승'과, 하위 감성 감정레벨인 '감성리듬 저하'와, 최하위 감성 감정레벨인 '감성리듬 위험' 중 어느 하나로 산출된다. 그리고, 지성리듬은 최상위 지성 감정레벨인 '지성리듬 고조', 상위 지성 감정레벨인 '지성리듬 상승', 하위 지성 감정레벨인 '지성리듬 저하', 최하위 지성 감정레벨인 '지성리듬 위험' 중 어느 하나로 산출된다. Therefore, the body rhythm is composed of the body rhythm height, the upper body emotion level, the body rhythm rise, the lower body emotion level, the lower body rhythm level, and the lower body emotion level, '. The emotional rhythm is composed of the emotional rhythm height, which is the highest emotional emotional level, the emotional rhythm rise, which is the upper emotional emotional level, the lower emotional rhythm, which is the lower emotional emotional level, '. In addition, the intellectual rhythm is classified into two types, namely, "intelligent rhythm elevation" which is the highest intelligent emotion level, "elevation of intelligent rhythm" which is the upper intelligence emotion level, "intelligent rhythm degradation" which is the lower intelligence emotion level, and "intelligent rhythm danger" .
그러므로, 도 2에 도시된 바와 같이, 이러한 바이오리듬 감정레벨은 {'신체고조','감성고조','지성고조'}, {'신체고조','감성고조','지성상승'},{'신체고조','감성고조','지성저하'},...,{'신체위험','감성위험','지성위험'}까지 64개의 바이오리듬 감정레벨 중 어느 하나로 조합되어 산출되게 된다. Therefore, as shown in FIG. 2, such a biorhythm feeling level can be classified into four levels, i.e., 'body height increase', 'emotional height increase', 'intelligent height increase', 'body height increase', 'emotional increase' It is calculated by combining with 64 biorhythm feeling levels ranging from 'body height increase', 'emotional upset', 'intellect decrease', ..., {'body risk', 'emotional risk' .
감정레벨 결정부(400)는 바이오리듬 산출부(300)에서 조합되어 산출된 바이오리듬 감정레벨의 조합에 근거하여 현재의 신체리듬, 감성리듬, 지성리듬 중 어느 하나의 감정레벨(410,420,430)을 결정하게 된다. The emotion
신체리듬, 감성리듬, 지성리듬이 모두 상이할 때는 최상위 감정레벨(411,421,431) 또는 최하위 감정레벨(414,424,434)로 결정한다. When the body rhythm, emotional rhythm, and intellectual rhythm are all different, the highest emotion level (411, 421, 431) or the lowest emotion level (414, 424, 434) is determined.
예를 들면, 신체리듬, 감성리듬, 지성리듬이 각각 '고조', '저하', '위험'이면 위험을 선택한다. 또한, 신체리듬, 감성리듬, 지성리듬이 각각 '고조', '저하', '상승'이면 최상위 감정레벨(411,421,431)인 '고조'를 선택한다. 또한, 신체리듬, 감성리듬, 지성리듬이 각각 '상승', '저하', '위험'이면 최하위 감정레벨(414,424,434)인 '위험'을 선택한다. 또한, 신체리듬, 감성리듬, 지성리듬이 각각 '고조', '상승', '저하'이면 최상위 감정레벨(411,421,431)인 '고조'를 선택한다. For example, if the body rhythm, emotional rhythm, and intellectual rhythm are 'high', 'low', or 'dangerous' Also, if the body rhythm, emotional rhythm, and intellectual rhythm are 'high', 'low', or 'rise', select 'high', which is the highest emotion level (411,421,431). In addition, if the body rhythm, emotional rhythm, and intellectual rhythm are 'rise', 'fall', or 'danger', respectively, 'risk' is selected as the lowest emotional level (414,424,434). Also, if the body rhythm, emotional rhythm, and intellectual rhythm are 'high', 'rise', or 'low', respectively, the highest emotion level (411,421,431) is selected.
그리고, 신체리듬, 감성리듬, 지성리듬이 최상위 감정레벨(411,421,431)인 '고조'와 최하위 감정레벨(414,424,434)인 '위험'이 조합되어 있으면, 이 경우 최하위 감정레벨(414,424,434)인 '위험'을 선택한다. If the body rhythm, emotional rhythm, and intellectual rhythm are combined with the highest level (411, 421, 431) and the lowest level (414, 424, 434), which is the lowest level of emotion, Select.
그리고, 동일한 감정레벨(410~430)이 두 개 이상일 경우는 감정레벨(410~430) 중에서 신체리듬, 감성리듬, 지성리듬의 순서로 감정레벨(410~430)로 결정하게 된다. When two or
예를 들면, 바이오리듬 산출부(300)에서 조합되어 산출된 감정레벨(410~430)이 {'신체리듬 상승', '감성리듬 저하', '지성리듬 저하'}이면 '감성리듬 저하(423)'를 선택하게 된다. 또한, 바이오리듬 산출부(300)에서 조합되어 산출된 감정레벨이 {'신체리듬 저하', '감성리듬 저하', '지성리듬 저하'}이면 '신체리듬 저하(413)'를 선택한다. 또한, 바이오리듬 산출부(300)에서 조합되어 산출된 감정레벨이 {'신체리듬 고조', '감성리듬 저하', '지성리듬 저하'}이면 '감성리듬 저하(423)'를 선택한다. For example, if the
따라서, 감정레벨 결정부(400)는 '신체리듬 고조(411)', '신체리듬 상승(412)', '신체리듬 저하(413)', '신체리듬 위험(414)', '감성리듬 고조(421)', '감성리듬 상승(422)', '감성리듬 저하(423)', '감성리듬 위험(424)', '지성리듬 고조(431)', '지성리듬 상승(432)', '지성리듬 저하(433)', '지성리듬 위험(434)'의 12개의 감정레벨(410~430) 중 어느 하나의 감정레벨(410~430)로 결정하게 된다. Accordingly, the emotion
초기감정 설정부(500)는 감정레벨 결정부(400)에 의해 결정된 바이오리듬 감정레벨(410~430)에 기초하여 데이터 베이스부(200)로부터 대응하는 초기감정을 설정한다. The
초기감정은 신체리듬 감정레벨(410)에 관한 신체리듬 감정모드(510)와, 감성리듬 감정레벨(420)에 관한 감성리듬 감정모드(520)와, 지성리듬 감정레벨(430)에 관한 지성리듬 감정모드(530)로 이루어진다. The initial emotion includes a body
신체리듬 감정모드(510)는 'EXCITED 모드(511)', '보통 모드(512)', '걱정 모드(513)', '아픔 모드(514)'로 이루어지고, 감성리듬 감정모드(520)는 '행복 모드(521)', '멍함 모드(522)', '슬픔 모드(523)', '불안 모드(524)'로 이루어지고, 지성리듬 감정모드(530)에 관한 'PROUD 모드(531)', '호기심 모드(532)', '화남 모드(533)', 'STRESS 모드(534)'로 이루어진다. The body
신체리듬 감정레벨(410)에서 '신체리듬 고조(411)'는 'EXCITED 모드(511)'에 해당되는 초기감정을 설정하고, '신체리듬 상승(412)'은 '보통 모드(512)'에 해당되는 초기감정을 설정하고, '신체리듬 저하(413)'는 '걱정 모드(513)'에 해당되는 초기감정을 설정하고, '신체리듬 위험(414)'은 '아픔 모드(514)'에 해당되는 초기감정을 설정한다. In the body
감성리듬 감정레벨(420)에서 '감성리듬 고조(421)'는 '행복 모드(521)'에 해당되는 초기감정을 설정하고, '감성리듬 상승(422)'은 '멍함 모드(522)'에 해당되는 초기감정을 설정하고, '감성리듬 저하(423)'는 '슬픔 모드(523)'에 해당되는 초기감정을 설정하고, '감성리듬 위험(424)'은 '불안 모드'에 해당되는 초기감정을 설정한다. In the emotion
지성리듬 감정레벨(430)에서 '지성리듬 고조(431)'는 'PROUD 모드(531)'에 해당되는 초기감정을 설정하고, '지성리듬 상승(432)'은 '호기심 모드(532)'에 해당되는 초기감정을 설정하고, '지성리듬 저하(433)'는 '화남 모드(533)'에 해당되는 초기감정을 설정하고, '지성리듬 위험(434)'은 'STRESS 모드(534)'에 해당되는 초기감정을 설정한다. In the oily
따라서, 초기감정 설정부(500)는 'EXCITED 모드(511)', '보통 모드(512)', '걱정 모드(513)', '아픔 모드(514)', '행복 모드(521)', '멍함 모드(522)', '슬픔 모드(523)', '불안 모드(524)', 'PROUD 모드(531)', '호기심 모드(532)', '화남 모드(533)', 'STRESS 모드(534)'에 해당하는 12개 초기감정 중 어느 하나의 초기감정을 설정하게 된다. Accordingly, the initial
감정패턴 선택부(600)는 초기감정 설정부(500)에서 설정된 초기감정에서부터 소정의 감정패턴을 선택한다. The emotion
이러한 감정패턴 선택부(600)는 신체리듬 감정레벨(410)을 순차적으로 형성하는 신체리듬 선택부(610), 감성리듬 감정레벨(420)을 순차적으로 형성하는 감성리듬 선택부(620), 지성리듬 감정레벨(430)을 순차적으로 형성하는 지성리듬 선택부(630)를 포함한다. The emotion
신체리듬 선택부(610)는 'EXCITED 모드(511)', '보통 모드(512)', '걱정 모드(513)', '아픔 모드(514)', '졸림 모드(515)', '취침 모드(540)'의 순으로 감정 표현 행위를 선택한다. The body
예를 들어, 초기감정 설정부(500)에서 결정된 초기감정이 'EXCITED 모드(511)'이면, 'EXCITED 모드(511)'에 해당하는 감정 표현을 일정시간(예를 들어, 30분) 실행하도록 선택하고, '보통 모드(512)', '걱정 모드(513)', '아픔 모드(514)', '졸림 모드(515)'에 해당하는 감정 표현을 각각 일정시간(예를 들어 30분) 실행하도록 선택하고, '취침 모드(540)'에 들어가도록 선택한다. For example, if the initial emotion determined by the initial
마찬가지로, 초기감정 설정부(500)에서 설정된 초기감정이 '걱정 모드(513)'이면 '걱정 모드(513)'에 해당하는 감정 표현을 일정시간(예를 들어 30분) 실행하도록 선택하고, '아픔 모드(514)', '졸림 모드(515)'에 해당하는 감정 표현을 각각 일정시간(예를 들어 30분) 실행하도록 선택하고, '취침 모드(540)'에 들어가도록 선택한다. Likewise, if the initial emotion set in the initial
감성리듬 선택부(620)는 '행복 모드(521)', '멍함 모드(522)', '슬픔 모드(523)', '불안 모드(524)', '피곤 모드(525)', '취침 모드(540)'의 순으로 감정 표현 행위를 선택한다. The emotional
예를 들어, 초기감정 설정부(500)에서 설정된 초기감정이 '행복 모드(521)'이면, '행복 모드(521)'에 해당하는 감정 표현을 일정시간(예를 들어 30분) 실행하도록 선택하고, '멍함 모드(522)', '슬픔 모드(523)', '불안 모드(524)', '피곤 모드(525)'에 해당하는 감정 표현을 각각 일정시간(예를 들어 30분) 실행하도록 선택하고, '취침 모드(540)'에 들어가도록 선택한다. For example, if the initial emotion set in the initial
지성리듬 선택부(630)는 'PROUD 모드(531)', '호기심 모드(532)', '화남 모드(533)', 'STRESS 모드(534)', 'LAZY 모드(535)', '취침 모드(540)'의 순으로 감정 표현 행위를 선택한다. The intelligent
예를 들어, 초기감정 설정부(500)에서 설정된 초기감정이 'PROUD 모드(531)'이면, 'PROUD 모드(531)'에 해당하는 감정 표현을 일정시간(예를 들어 30분) 실행하도록 선택하고, '호기심 모드(532)', '화남 모드(533)', 'STRESS 모드(534)', 'LAZY 모드(535)'에 해당하는 감정 표현을 일정시간(예를 들어 30분) 실행하도록 선택하고, '취침 모드(540)'에 들어가도록 선택한다. For example, if the initial emotion set in the initial
이렇게 감정패턴 선택부(600)에서 선택된 감정 표현을 얼굴표정 생성부(700)에서 실행된다. 얼굴표정 생성부(700)는 초기감정 설정부(500)와 감정패턴 선택부(600)에서 형성된 각 감정 표현를 실행하기 위하여 표 1과 같이 눈꺼풀과 눈알의 위치를 조합하여 얼굴 표정으로 생성한다. The emotion expression selected by the emotion
표 1에 기재된 눈꺼풀 열림 비율은 눈알에서 눈꺼풀이 열려 있는 비율을 나타내고, 화살표는 눈꺼풀이 위치하는 방향을 나타내고, 눈꺼풀 구동속도는 한번 깜빡이는 시각을 나타내고, 구동 인터벌은 한번 깜빡인 후 다시 깜빡일 때 까지의 시간을 나타낸다. The eyelid opening ratio shown in Table 1 indicates the rate at which the eyelid is opened in the eyeball, the arrow indicates the direction in which the eyelid is positioned, the eyelid drive speed indicates the time at which the eyelid is blinking once, and the drive interval is once blinked and then blinks again Lt; / RTI >
눈알의 위치는 눈알이 중앙에서 화살표 방향으로 위치하고 있음을 나타내고, 눈알위치의 우측 첫번째 및 두번째 열은 각각 눈꺼풀과 조합된 좌측 눈알 및 우측 눈알을 각각 나타낸다. 그리고, 세번째 열은 눈알이 좌우로 이동하고 있음을 나타낸다. The position of the eyeball indicates that the eyeball is located in the direction of the arrow from the center, and the first and second rows on the right side of the eyeball position respectively indicate the left eyeball and the right eyeball combined with the eyelid. And the third column shows that the eyeball is moving to the left and right.
'행복 모드(521)'에서는 눈꺼풀 열림 비율이 80%이며, 눈꺼풀은 정중앙 상부에 위치하며, 눈꺼풀 구동속도는 1초, 구동 인터벌은 10초, 눈알 위치는 정중앙 상부방향에 위치하게 된다. In the 'happy mode (521)', the eyelid opening rate is 80%, the eyelid is located in the upper part of the middle, the eyelid driving speed is 1 second, the driving interval is 10 seconds and the eyeball position is located in the upper part of the center.
'불안 모드(524)'에서는 눈꺼풀 열림 비율이 80%이며, 눈꺼풀은 왼쪽 45도 상부방향에 위치하며, 눈꺼풀 구동속도는 0.5초, 구동 인터벌은 10초, 눈알 위치는 정중앙 좌측에 위치하고, 눈알이 좌우로 이동하게 된다. In the 'anxiety mode (524)', the eyelid opening ratio is 80%, the eyelid is located 45 degrees upward to the left, the eyelid driving speed is 0.5 second, the driving interval is 10 seconds, the eyeball position is on the left side in the center, Left and right.
'슬픔 모드(523)'에서는 눈꺼풀 열림 비율이 50%이며, 눈꺼풀은 정중앙 왼쪽 45도 상부방향에 위치하며, 눈꺼풀 구동속도는 2초, 구동 인터벌은 25초, 눈알 위치는 정중앙 왼쪽 45도 하부방향에 위치하고, 눈알이 좌우로 이동하게 된다. In the 'sadness mode (523)', the eyelid opening rate is 50%, the eyelid is located 45 degrees to the left in the middle, the eyelid driving speed is 2 seconds, the driving interval is 25 seconds, And the eyeball moves to the left and right.
'보통 모드(512)'에서는 눈꺼풀 열림 비율이 50%이며, 눈꺼풀은 정중앙 상부에 위치하며, 눈꺼풀 구동속도는 1초, 구동 인터벌은 20초, 눈알 위치는 정중앙에 위치하게 된다. In the 'normal mode (512)', the eyelid opening rate is 50%, the eyelid is located in the upper part of the middle, the eyelid driving speed is 1 second, the driving interval is 20 seconds and the eyeball position is in the center.
'아픔 모드(514)'에서는 눈꺼풀 열림 비율이 30%이며, 눈꺼풀은 왼쪽 45도 상부방향에 위치하며, 눈꺼풀 구동속도는 2초, 구동 인터벌은 8초, 눈알 위치는 정중앙 하부방향에 위치하게 된다. In the 'pain mode (514)', the eyelid opening rate is 30%, the eyelid is located 45 degrees upward to the left, the eyelid driving speed is 2 seconds, the driving interval is 8 seconds, and the eyeball position is located in the lower center .
'화남 모드(533)'에서는 눈꺼풀 열림 비율이 70%이며, 눈꺼풀은 오른쪽 45도 상부방향에 위치하며, 눈꺼풀 구동속도는 1초, 구동 인터벌은 8초, 눈알 위치는 정중앙 하부방향에 위치하게 된다. In 'Angular Mode (533)', the eyelid opening rate is 70%, the eyelid is located 45 degrees upward in the right direction, the eyelid driving speed is 1 second, the driving interval is 8 seconds, and the eyeball position is in the lower center .
'피곤 모드(525)'에서는 눈꺼풀 열림 비율이 30%이며, 눈꺼풀은 정중앙 상부방향에 위치하며, 눈꺼풀 구동속도는 3초, 구동 인터벌은 40초, 눈알 위치는 정중앙 하부방향에 위치하게 된다. In the 'tired mode (525)', the eyelid opening rate is 30%, the eyelid is located in the upper direction of the middle, the eyelid driving speed is 3 seconds, the driving interval is 40 seconds, and the eyeball position is in the lower center.
'졸림 모드(515)'에서는 눈꺼풀 열림 비율이 30%이며, 눈꺼풀은 정중앙 상부방향에 위치하며, 눈꺼풀 구동속도는 4초, 구동 인터벌은 50초, 눈알 위치는 왼쪽 45도 하부방향에 위치하게 된다. In the 'sleeping mode (515)', the eyelid opening rate is 30%, the eyelid is located in the upper direction of the middle, the eyelid driving speed is 4 seconds, the driving interval is 50 seconds, .
'걱정 모드(513)'에서는 눈꺼풀 열림 비율이 50%이며, 눈꺼풀은 왼쪽 45도 상부방향에 위치하며, 눈꺼풀 구동속도는 2초, 구동 인터벌은 15초, 눈알 위치는 정중앙 하부방향에 위치하게 된다. In the 'worry mode 513', the eyelid opening ratio is 50%, the eyelid is located 45 degrees upward in the left direction, the eyelid driving speed is 2 seconds, the driving interval is 15 seconds, and the eyeball position is located in the lower center .
'LAZY 모드(535)'에서는 눈꺼풀 열림 비율이 30%이며, 눈꺼풀은 정중앙에 위치하며, 눈꺼풀 구동속도는 2초, 구동 인터벌은 40초, 눈알 위치는 정중앙 하부방향에 위치하게 된다. In the 'LAZY mode (535)', the eyelid opening rate is 30%, the eyelid is located in the middle, the eyelid driving speed is 2 seconds, the driving interval is 40 seconds, and the eyeball position is located in the center of the lower part.
'호기심 모드(532)'에서는 눈꺼풀 열림 비율이 505 또는 80%이며, 눈꺼풀은 정중앙에 위치하며, 눈꺼풀 구동속도는 2초, 구동 인터벌은 40초, 눈알 위치는 정중앙 하부방향에 위치하게 된다. In the 'curiosity mode (532)', the eyelid opening rate is 505 or 80%, the eyelid is in the middle, the eyelid driving speed is 2 seconds, the driving interval is 40 seconds, and the eyeball position is located in the center of the lower part.
'멍함 모드(522)'에서는 눈꺼풀 열림 비율이 50%이며, 눈꺼풀은 정중앙에 위치하며, 눈꺼풀 구동속도는 2초, 구동 인터벌은 60초, 눈알 위치는 정중앙 하부방향에 위치하게 된다. In the 'blur mode 522', the eyelid opening rate is 50%, the eyelid is located in the center, the eyelid driving speed is 2 seconds, the driving interval is 60 seconds, and the eyeball position is located in the center of the lower part.
'STRESS 모드(534)'에서는 눈꺼풀 열림 비율이 20%이며, 눈꺼풀은 정중앙에 위치하며, 눈꺼풀 구동속도는 0.5초, 구동 인터벌은 8초, 눈알 위치는 정중앙에 위치하고, 눈알이 좌우로 이동하게 된다. In the 'STRESS mode (534)', the eyelid opening ratio is 20%, the eyelid is located in the middle, the eyelid driving speed is 0.5 second, the driving interval is 8 seconds, the eyeball position is in the center and the eyeball is moved to the left and right .
'EXCITED 모드(511)'에서는 눈꺼풀 열림 비율이 80%이며, 눈꺼풀은 정중앙 상부에 위치하며, 눈꺼풀 구동속도는 1초, 구동 인터벌은 10초, 눈알 위치는 정중앙 하부방향에 위치하게 된다. In the EXCITED mode (511), the eyelid opening rate is 80%, the eyelid is located in the upper part of the middle, the eyelid driving speed is 1 second, the driving interval is 10 seconds, and the eyeball position is located in the center of the lower part.
'PROUD 모드(531)'에서는 눈꺼풀 열림 비율이 80%이며, 눈꺼풀은 정중앙 상부방향에 위치하며, 눈꺼풀 구동속도는 1초, 구동 인터벌은 20초, 눈알 위치는 정중앙 상부방향에 위치하게 된다. In the 'PROUD mode (531)', the eyelid opening rate is 80%, the eyelid is located in the upper direction of the center, the eyelid driving speed is 1 second, the driving interval is 20 seconds, and the eyeball position is located in the upper part of the center.
이와 같은 구성을 갖는 본 발명의 실시예에 따른 감정 표현 로봇의 동작을 개략적으로 살펴본다. The operation of the emotion expression robot according to the embodiment of the present invention having such a configuration will be schematically described.
먼저, 사용자가 생년월일 입력부(100)를 통하여 사용자의 생년월일에 대한 정보를 입력하면, 바이오리듬 산출부(300)에 의해 조합되어 산출된 바이오리듬 감정레벨(410~430)에 근거하여 감정레벨 결정부(400)에서 어느 하나의 감정레벨(410~430)을 결정하게 된다. First, when the user inputs information on the date of birth of the user through the date of
이렇게 결정된 바이오리듬 감정레벨(410~430)을 바탕으로 초기감정 설정부(500)에서는 결정된 바이오리듬 감정레벨(410~430)에 따른 초기감정을 설정한다. Based on the determined
이후, 초기감정이 결정되면 신체리듬 선택부(610), 감성리듬 선택부(620), 지성리듬 선택부(630) 중 어느 하나의 감정리듬 패턴을 따라서 감정 표현 행위를 실행하도록 선택하게 된다. Thereafter, when the initial emotion is determined, the emotional
그리고, 얼굴표정 생성부(700)에서 각 감정패턴 선택부(600)에서 형성된 각 감정 표현행위를 실행하기 위하여 눈꺼풀과 눈알의 위치를 조합하여 얼굴 표정으로 생성한다. The facial
따라서, 사용자의 신체리듬, 감성리듬, 지성리듬에 관한 바이오리듬에 따라서 표현되는 감정 표현 로봇(10)의 감정을 얼굴 표정으로 변화시켜 감정 표현 로봇(10)과 사용자 사이의 상호작용이 가능하도록 한다. Therefore, the emotion of the
또한, 감정 표현 로봇(10)은 디스플레이부(11), 각종 터치센서부(12), 적외선 센서부(13), 소리 센서부(14), 소리 줄임 체크부(15), 수면시간 체크부(16)를 더 포함한다. The
디스플레이부(11)는 입력된 생년월일을 기초하여 산출된 현재의 바이오리듬을 표시된다. 특히, 디스플레이부(11)는 감정레벨 결정부(400)에서 결정된 감정레벨(410~430) 예를 들면 '신체리듬 고조(411)', '지성리듬 저하(433)' 등과 같은 감정레벨을 표시할 수 있다. 이러한 디스플레이부(11)는 감정 표현 로봇(10)의 하부에 배치되는 스탠드(STAND)에 구비될 수 있다. The
각종 터치센서부(12)는 코 터치센서부(12A), 귀 터치센서부(12B), 머리 터치센서부(12C), 꼬리 터치센서부(12D)를 포함한다. The various touch sensor units 12 include a nose
코 터치센서부(12A)는 감정 표현 로봇(10)의 코 부분에 구비되어 감성리듬을 상위감정으로 이동시키도록 한다. 예를 들어, '행복 모드(521)', '멍함 모드(522)', '슬픔 모드(523)', '불안 모드(524)', '피곤 모드(525)'로 순서로 표현되는 감성리듬 중 '멍함 모드(522)'를 실행하는 시간에 코 터치센서부(12A)를 만지면 상위감정인 '행복 모드(521)'로 실행되는 감정 표현이 이동된다. The nose
귀 터치센서부(12B)는 감정 표현 로봇(10)의 귀 부분에 구비되어 신체리듬을 상위감정으로 이동시키도록 한다. 예를 들어, 'EXCITED 모드(511)', '보통 모드(512)', '걱정 모드(513)', '아픔 모드(514)', '졸림 모드(515)'의 순서로 표현되는 신체리듬 중 '보통 모드(512)'를 실행하는 시간에 귀 터치센서부(12B)를 만지면 상위감정인 'EXCITED 모드(511)'로 감정 표현이 이동된다. The
머리 터치센서부(12C)는 감정 표현 로봇(10)의 머리 부분에 구비되어 지성리듬을 상위감정으로 이동시키도록 한다. 예를 들어, 'PROUD 모드(531)', '호기심 모드(532)', '화남 모드(533)', 'STRESS 모드(534)', 'LAZY 모드(535)'의 순서로 표현되는 지성리듬 중 '호기심 모드(532)'를 실행하는 시간에 머리 터치센서부(12C)를 만지면 상위 감정인 'PROUD 모드(531)'로 감정 표현이 이동된다. The head
꼬리 터치센서부(12D)는 감정 표현 로봇(10)의 꼬리 부분에 구비되어 감정리듬을 하위 감정으로 이동시키거나 해당 감정을 이동시키지 않도록 한다. The tail
'행복 모드(521)', 'PROUD 모드(531)', 'EXCITED 모드(511)', '보통 모드(512)', '멍함 모드(522)', '호기심 모드(532)', '슬픔 모드(523)'를 실행하는 시간에 꼬리 터치센서부(12D)를 만지면, 해당 감정에 아무런 변화가 없게 된다. 하지만, '졸림 모드(515)', '피곤 모드(525)', '걱정 모드(513)', 'STRESS 모드(534)', '아픔 모드(514)'를 표현하는 시간에 꼬리 터치센서부(12D)를 만지면, '화남 모드(533)'로 변경된다. , 'Curious mode 522', 'curiosity mode 532', 'sadness mode 521', 'PROUD mode 531', 'EXCITED mode 511' When touching the tail
적외선 센서부(13)는 사용자의 바이오리듬을 산출하여 사용자에게 감정 표현을 할지를 결정한다. The
소리 센서부(14)는 사용자가 임계치 이상의 소리를 내는 횟수를 감지한다. The
소리 줄임 체크부(15)는 짖는 소리를 내던 감정 표현 로봇(10)을 소리 줄임으로 하여 아무런 소리를 내지 않도록 하는 횟수를 감지한다. The sound
그리고, 본 발명의 실시예에 따른 바이오리듬을 이용한 감정 표현 로봇(10)은 사용자의 컴퓨터 사용시간을 점검하는 컴퓨터 사용시간 체크부(미도시)와, 감정 표현 로봇(10)의 수면시간을 점검하는 수면시간 체크부(16)를 더 포함할 수 있다. In addition, the
한편, 본 발명의 실시예에 따른 바이오리듬을 이용한 감정 표현 로봇(10)은 초기감정 설정부(500)와 감정패턴 선택부(600)에서 설정 및 선택된 감정표현행위가 적외선 센서부(13), 소리 센서부(14), 컴퓨터 사용시간 체크부(미도시), 소리 줄임 체크부(15), 수면시간 체크부(16)에 의해 영향을 받게 된다.
Meanwhile, the
1. 적외선 센서부{사용자가 감정 표현 로봇 근거리에 있는 시간을 감지}1. Infrared sensor part {Detect time when the user is near the emotion expression robot}
사용자가 감정 표현 로봇(10) 근거리에 있는 시간에 따라서 '행복 모드(521)'와 '불안 모드(524)' 및 'EXCITED 모드(511)'와 '아픔 모드(514)' 사이에서 해당 감정선택을 일정시각(예를 들어 1분씩) 증가시키고, 상반 감정선택을 상대적으로 일정시각 감소시켜 감정 표현 로봇(10)의 미리 정해진 감정패턴 선택을 변경시킨다. 즉, 전체 하루 가동시간에서 각 감정별 기준시간에서 증감한 비율을 계산하여 감정 표현 로봇(10)의 얼굴 표정 생성 시각을 변경시킨다.The user selects the corresponding emotion selection mode between the 'happiness mode 521' and the 'anxiety mode 524' and between the 'EXCITED mode 511' and the 'pain mode 514' according to the time in the vicinity of the emotional expression robot 10 (For example, one minute) and changes the selection of the predetermined emotion pattern of the
여기서, 성격이 밝고 명랑함을 나타내는 '행복 모드(521)'와, 성격이 어둡고 우울함을 나타내는 '불안 모드(524)'는 서로 상반된 감정이다. 그리고, 건강함을 나타내는 'EXCITED 모드(511)'와, 아픔을 나타내는 '아픔 모드(514)'는 서로 상반된 감정이다. Here, 'happy mode (521)', which shows a bright character and cheerfulness, and 'anxiety mode (524)', which shows darkness and depression are conflicting feelings. The 'EXCITED mode (511)' indicating health and the 'pain mode (514)' indicating pain are contradictory emotions.
① 적외선 센서부(13) 감지 시간이 2시간 이상일 경우는 'EXCITED 모드(511)'의 선택시간이 1분이 증가 되고, '아픔 모드(514)'의 선택시간이 1분이 감소된다. (1) When the detection time of the
② 적외선 센서부(13) 감지 시간이 1~2시간 일 경우는 '행복 모드(521)'의 선택시간이 1분이 증가 되고, '불안 모드(524)'의 선택시간이 1분이 감소된다. (2) When the detection time of the
③ 적외선 센서부(13) 감지 시간이 30분~1시간 이하 경우는 '불안 모드(524)'의 선택시간이 1분이 증가 되고, '행복 모드(521)'의 선택시간이 1분이 감소된다. (3) When the detection time of the
④ 적외선 센서부(13) 감지 시간이 30분 이하 경우는 '아픔 모드(514)'의 선택시간이 1분이 증가 되고, 'EXCITED 모드(511)'의 선택시간이 1분이 감소된다. (4) When the detection time of the
따라서, 사용자가 감정 표현 로봇(10) 근거리에 있는 시간에 따라서 '행복 모드'(10~50분)-> '멍함 모드'(30분)-> '슬픔 모드'(30분)-> '불안 모드'(50~10분)-> '피곤 모드'(30분)-> '취침 모드(540)'로 선택 시간이 변경되어 얼굴 표정으로 생성되거나, Accordingly, when the user selects 'happy mode' (10 to 50 minutes) -> 'blur mode' (30 minutes) -> 'sadness mode' (30 minutes) (50 minutes) -> 'Tired mode' (30 minutes) -> 'Sleep mode (540)
또는, 'EXCITED 모드'(10~50분)-> '보통 모드'(30분)-> '걱정 모드'(30분)-> '아픔 모드'(10~50분)-> '졸림 모드'(30분)-> '취침 모드(540)'로 선택 시간이 변경되어 얼굴 표정으로 생성되는 시간이 변경될 수 있다.
Or, 'EXCITED mode' (10 to 50 minutes) ->'Normalmode' (30 minutes) ->'Worrymode' (30 minutes) (30 minutes) ->'sleep mode (540)', and the time generated by the facial expression may be changed.
2. 소리 센서부{큰소리가 난 횟수} 2. Sound sensor part {number of times of loud speaking}
소리 센서부(14)에서 사용자의 큰 소리를 감지되는 횟수에 따라서 '호기심 모드(532)'와 '화남 모드(533)' 및 '멍함 모드(522)'와 '슬픔 모드(523)' 사이에서 해당 감정선택을 일정시각(예를 들어 1분씩) 증가시키고, 상반 감정선택을 상대적으로 일정시각 감소시켜 감정 표현 로봇의 미리 정해진 감정패턴 선택을 변경시킨다. Between the curious mode 532, the angry mode 533, the obscenity mode 522 and the sorrow mode 523 according to the number of times that the loud sound of the user is detected by the
여기서, 차분한 상태에서 화를 참는 '호기심 모드(532)'와, 화를 내는 '화남 모드(533)'는 서로 상반된 감정이다. 그리고, 긍정적인 감정을 나타내는 '보통 모드(512)'와, 부정적인 감정을 나타내는 '걱정 모드(513)'는 서로 상반된 감정이다. 그리고, 산만한 감정을 나타내는 '멍함 모드(522)'와, 예민한 감정을 나타내는 '슬픔 모드(523)'는 서로 상반된 감정이다. Here, the 'curiosity mode (532)' and the 'angry mode (533)', which tolerate anger in a calm state, are contradictory emotions. The 'normal mode (512)' indicating a positive emotion and the 'worry mode (513)' indicating a negative emotion are mutually contradictory emotions. The 'blur mode 522' expressing distracted emotions and the 'sorrow mode 523' expressing emotional emotions are mutually contradictory emotions.
① 총 시간에서 큰소리가 난 횟수가 4회 이상일 때는 '화남 모드(533)'의 실행시간이 1분씩 증가되고, '호기심 모드(532)'의 실행시간이 1분씩 감소된다. (1) When the number of loudspeakings is more than four times in the total time, the execution time of the 'angry mode (533)' is increased by one minute and the execution time of the 'curiosity mode (532)' is decreased by one minute.
② 총 시간에서 큰소리가 난 횟수가 3회일 때는 '슬픔 모드(523)'의 실행시간이 1분씩 증가되고, '멍함 모드(522)'의 실행시간이 1분씩 감소된다. (2) When the number of loudspeakings in the total time is three, the execution time of the 'sorrow mode 523' is increased by one minute and the execution time of the 'blurry mode 522' is decreased by one minute.
③ 총 시간에서 큰소리가 난 횟수가 2회일 때는 '멍함 모드(522)'의 실행시간이 1분씩 증가되고, '슬픔 모드(523)'의 실행시간이 1분씩 감소된다. (3) When the number of loud noises in the total time is two, the execution time of the 'blur mode 522' is increased by one minute and the execution time of the 'sorrow mode 523' is decreased by one minute.
④ 총 시간에서 큰 소리가 난 횟수가 1회 이하일 때는 '호기심 모드(532)'의 실행시간이 1분씩 증가되고, '화남 모드(533)'의 실행시간이 1분씩 감소된다. (4) When the number of loud noises in the total time is one or less, the execution time of the curiosity mode (532) is increased by one minute and the execution time of the affection mode (533) is decreased by one minute.
따라서, 소리 센서부(14)에서 사용자의 큰 소리를 감지되는 횟수에 따라서 '행복 모드'(30분)-> '멍함 모드'(10~50분)-> '슬픔 모드'(50~10분)-> '불안 모드'(30분)-> '피곤 모드'(30분)-> '취침 모드'로 선택 시간이 변경되어 얼굴 표정으로 생성되거나, Accordingly, the 'happy mode' (30 minutes) -> the 'blind mode' (10-50 minutes) -> the 'sorrow mode' (50 to 10 minutes) according to the number of times the user's loud sound is detected by the sound sensor unit ) -> 'Anxiety mode' (30 minutes) -> 'Tired mode' (30 minutes) -> 'Sleep mode'
또한, 'PROUD 모드'(30분)-> '호기심 모드'(10~50분)-> '화남 모드'(50~10분)-> 'STRESS' 모드(30분)-> 'LAZY 모드'(30분)-> '취침 모드'로 선택 시간이 변경되어 얼굴 표정으로 생성될 수 있다.
In addition, 'PROUD mode' (30 minutes) ->'Curiositymode' (10 ~ 50 minutes) -> (30 minutes) ->'Sleepmode', the selected time can be changed to create a facial expression.
3. 컴퓨터 사용시간 체크부{컴퓨터 과다사용시간 경고횟수}3. Computer Usage Time Checking {Computer Excessive Usage Time Warning Count}
컴퓨터 사용시간 체크부(미도시)에서 사용자가 컴퓨터를 과다하게 사용하여 경고한 횟수에 따라서 '보통 모드(512)'와 '걱정 모드(513)' 사이에서 해당 감정선택을 일정시각(예를 들어 1분씩) 증가시키고, 상반 감정선택을 상대적으로 일정시각 감소시켜 감정 표현 로봇(10)의 미리 정해진 감정패턴 선택을 변경시킨다. In the computer use time checking unit (not shown), depending on the number of times the user has been warned using the computer excessively, the emotion selection may be made between a 'normal mode 512' and a 'worry mode 513' 1 minute), and changes the selection of the predetermined emotion pattern of the
여기서, 긍정적인 감정을 나타내는 '보통 모드(512)'와, 부정적인 감정을 나타내는 '걱정 모드(513)'는 서로 상반된 감정이다. Here, the 'normal mode (512)' indicating a positive emotion and the 'worry mode (513)' indicating a negative emotion are mutually contradictory emotions.
① 하루에 경고받은 횟수가 0.5회 이하이면 '보통 모드(512)'의 실행시간이 1분씩 증가되고, '걱정 모드(513)'의 실행시간이 1분씩 감소된다. (1) The execution time of the 'normal mode (512)' is increased by one minute and the execution time of the 'worry mode 513' is decreased by one minute when the number of times of warnings per day is 0.5 or less.
② 하루에 경고받은 횟수가 0.5회 이상이면 '걱정 모드(513)'의 실행시간이 1분씩 증가되고, '보통 모드(512)' 실행시간이 1분씩 감소된다. (2) When the number of times of warnings per day is 0.5 or more, the execution time of the worry mode 513 is increased by one minute and the execution time of the normal mode 512 is decreased by one minute.
따라서, 사용자가 컴퓨터 과다사용시간 경고횟수에 따라서 'EXCITED 모드'(30분)-> '보통 모드'(10~50분)-> '걱정 모드'(50~10분)-> '아픔 모드'(30분)-> '졸림 모드'(30분)-> '취침 모드'로 선택 시간이 변경되어 얼굴 표정으로 생성될 수 있다.
Therefore, depending on the number of times the user has been using the computer overtime, the 'EXCITED mode' (30 minutes) -> the 'normal mode' (10 to 50 minutes) -> the 'worry mode' (50 to 10 minutes) (30 minutes) ->'sleepinessmode' (30 minutes) ->'sleepmode'.
4. 소리 줄임 체크부{짖는 소리를 mute로 변경한 횟수} 4. Reduce the number of times the barking sound is changed to mute.
소리 줄임 체크부(15)에서 사용자가 감정 표현 로봇(10)의 짖는 소리를 mute로 변경한 횟수에 따라서 'PROUD 모드(531)'와 'STRESS 모드(534)' 사이에서 해당 감정선택을 일정시각(예를 들어 1분씩) 증가시키고, 상반 감정선택을 상대적으로 일정시각 감소시켜 감정 표현 로봇(10)의 미리 정해진 감정패턴 선택을 변경시킨다. In the sound
여기서, 적극적인 감정을 나타내는 'PROUD 모드(531)'와, 소극적인 감정을 나타내는 'STRESS 모드(534)'는 서로 상반된 감정이다. Here, the 'PROUD mode 531' representing positive emotion and the 'STRESS mode 534' representing passive emotion are mutually contradictory emotions.
① 짖는 소리를 mute로 한 횟수가 하루에 0.5회 이상이면 'PROUD 모드(531)'의 실행시간이 1분씩 증가되고, 'STRESS 모드(534)'의 실행시간이 1분씩 감소된다. If the number of times the barking sound is muted is 0.5 or more times per day, the execution time of the 'PROUD mode (531)' is increased by one minute and the execution time of the 'STRESS mode (534)' is decreased by one minute.
② 짖는 소리를 mute로 한 횟수가 하루에 0.5회 이하 'STRESS 모드(534)'의 실행시간이 1분씩 증가되고, 'PROUD 모드(531)'의 실행시간이 1분씩 감소된다. (2) The execution time of 'STRESS mode (534)' is increased by 1 minute and the execution time of 'PROUD mode (531)' is decreased by 1 minute.
따라서, 소리 줄임 체크부(15)에서 사용자의 감정 표현 로봇의 짖는 소리를 mute로 변경한 횟수에 따라서 'PROUD 모드'(10~50분)-> '호기심 모드'(30분)-> '화남 모드'(30분)-> 'STRESS' 모드(50~10분)-> 'LAZY 모드'(30분)-> '취침 모드'로 선택 시간이 변경되어 얼굴 표정으로 생성될 수 있다.
Accordingly, the 'PROUD mode' (10 to 50 minutes) -> the 'curiosity mode' (30 minutes) -> the 'PROUD mode' The selected time can be changed to 'Sleep mode' (30 minutes) ->'STRESS' mode (50 ~ 10 minutes) ->'LAZYmode' (30 minutes) ->'Sleepmode'
5. 수면시간 체크부{수면시간의 빠르거나 늦음}5. Sleep time check part {early or late sleep time}
수면시간 체크부(16)에서 감정 표현 로봇의 기상수면시간의 빠름과 늦음에 따라서 'PROUD 모드(531)'와 'LAZY 모드(535)' 및 '행복 모드(521)'와 '피곤 모드(525)' 및 'EXCITED 모드(511)'와 '졸림 모드(515)' 사이에서 해당 감정선택을 일정시각(예를 들어 1분씩) 증가시키고, 상반 감정선택을 상대적으로 일정시각 감소시켜 감정 표현 로봇(10)의 미리 정해진 감정패턴 선택을 변경시킨다. The sleep
여기서, 부지런함을 나타내는 'PROUD 모드(531)'와 게으름을 나타내는 'LAZY 모드(535)'는 서로 상반된 감정이다. 그리고, 명랑하고 활동적임을 나타내는 '행복 모드(521)'와, 피곤한 상태를 나타내는 '피곤 모드(525)'는 서로 상반된 감정이다. 그리고, 건강함을 나타내는 'EXCITED 모드(511)'와, 졸림을 나타내는 '졸림 모드(515)'는 서로 상반된 감정이다. Here, the 'PROUD mode (531)' indicating diligence and the 'LAZY mode (535)' indicating laziness are mutually contradictory emotions. The 'happiness mode (521)' indicating the cheerful and active and the 'tired mode (525)' indicating the tired state are mutually contradictory emotions. The 'EXCITED mode (511)' indicating health and the 'sleepiness mode (515)' indicating sleepiness are mutually contradictory emotions.
① 총 수면시간이 1시간 이상 길 때는 'LAZY 모드(535)'의 실행시간이 1분씩 증가되고, 'PROUD 모드(531)'의 실행시간이 1분씩 감소된다. (1) When the total sleep time is longer than one hour, the execution time of 'LAZY mode (535)' is increased by one minute and the execution time of 'PROUD mode (531)' is decreased by one minute.
② 총 수면시간이 2시간 이상 부족 시에는 '피곤 모드(525)'의 실행시간이 1분씩 증가되고, '행복 모드(521)'의 실행시간이 1분씩 감소된다. (2) When the total sleep time is less than 2 hours, the execution time of 'tired mode 525' is increased by 1 minute and the execution time of 'happy mode 521' is decreased by 1 minute.
③ 총 수면시간이 1-2시간 부족 시에는 '졸림 모드(515)'의 실행시간이 1분씩 증가되고, 'EXCITED 모드(511)'의 실행시간이 1분씩 감소된다. (3) When the total sleep time is shortened by one to two hours, the execution time of the sleeping mode 515 is increased by one minute, and the execution time of the EXCITED mode 511 is decreased by one minute.
따라서, 'PROUD 모드'(30~10분)-> '호기심 모드'(30분)-> '화남 모드'(30분)-> 'STRESS' 모드(30분)-> 'LAZY 모드'(30~50분)-> '취침 모드'로 선택 시간이 변경되어 얼굴 표정으로 생성되거나, Therefore, 'PROUD MODE' (30 ~ 10 minutes) -> 'Curiosity Mode' (30 minutes) -> 'FAX mode' (30 minutes) -> 'STRESS' ~ 50 minutes) -> 'Sleep mode', the time is changed to create a facial expression,
또한, '행복 모드'(30~10분)-> '멍함 모드'(30분)-> '슬픔 모드'(30분)-> '불안 모드'(30분)-> '피곤 모드'(30~50분)-> '취침 모드'로 선택 시간이 변경되어 얼굴 표정으로 생성되거나, In addition, 'Happy Mode' (30 ~ 10 minutes) → 'Dull Mode' (30 minutes) → 'Sadness Mode' (30 minutes) → 'Anxiety Mode' (30 minutes) ~ 50 minutes) -> 'Sleep mode', the time is changed to create a facial expression,
또한, 'EXCITED 모드'(30~10분)-> '보통 모드'(30분)-> '걱정 모드'(30분)-> '아픔 모드'(30분)-> '졸림 모드'(30~50분)-> '취침 모드'로 선택 시간이 변경되어 얼굴 표정으로 생성될 수 있다. In addition, 'EXCITED mode' (30 to 10 minutes) -> 'Normal mode' (30 minutes) -> 'Worry mode' (30 minutes) ~ 50 minutes) -> 'Sleep mode', the selected time can be changed and created as a facial expression.
따라서, 본 발명의 실시예에 따른 바이오리듬을 이용한 감정 표현 로봇(10)은 사용자의 트리트먼트 또는 관심도에 따라서 얼굴 표정을 생성하는 시간이 변화되어 사용자가 감정 표현 로봇(10)에 보다 강한 애착 또는 상호작용을 할 수 있도록 한다.
Accordingly, the
다음, 본 발명의 실시예에 따른 감정 표현 로봇의 동작에 대하여 살펴본다. Next, the operation of the emotion expression robot according to the embodiment of the present invention will be described.
제1단계 - 생년월일 입력Step 1 - Enter your date of birth
먼저 사용자가 생년월일 입력부(100)를 통하여 생년월일을 입력한다. 여기서, 감정 표현 로봇의 기상시간/ 수면시간을 입력할 수 있다.
First, the user inputs his / her date of birth through the date of
제2단계 - 적외선 센서부의 동작Second Step - Operation of Infrared Sensor Unit
기본적으로 감정 표현 로봇(10)의 모든 동작, 감정표현은 사용자가 감정 표현 로봇의 근거리 내에 있어서 적외선 센서부(13)에서 감지될 경우 실행된다. Basically, all the actions and emotional expressions of the
만일, 사용자가 감정 표현 로봇(10)의 적외선 센서부(13)가 실행되는 근거리에 있지 않으면 감정 표현 로봇(10)은 계속 '취침 모드(540)'에 있게 된다. If the user is not in the vicinity of the
다만, 이 경우는 사용자가 근거리에 있을 경우는 적외선 센서부(13)에 의해 일정 시간 이상(예를 들면, 5분 이상) 감지되어야 감정 표현 로봇(10)이 일정 시간 후(예를 들어, 5분 후)에 동작하게 되고, 적외선 센서부(13)에 의해 감지되는 시간이 5분 이내일 경우는 동작을 하지 않고 계속 '취침 모드(540)'에 있게 된다.
However, in this case, if the user is in a short distance, the
제3단계 - 바이오리듬에 따른 초기감정 설정 및 감정패턴 선택Step 3 - Initial emotion setting and emotional pattern selection according to biorhythm
기상시간에 맞추어 감정 표현 로봇(10)이 기상을 하고 바로 사용자의 바이오리듬에 따른 초기감정을 얼굴 표정으로 생성한다. 사용자의 자세한 바이오리듬은 컴퓨터의 모니터를 통해서 확인할 수 있다. The
바이오리듬에 따른 초기감정을 얼굴 표정으로 생성하는 것은 30분간 하지만 만일 사용자가 처음부터 감정 표현 로봇(10)의 근거리에 없으면 바이오리듬에 따른 초기감정을 얼굴 표정으로 생성하는 것은 15분간 하고 바로 '취침 모드(540)'로 들어간다. It is 30 minutes to generate the initial emotion according to the biorhythm by facial expression. However, if the user does not exist near the
'취침 모드(540)'인 상태에서 사용자가 5분 이상 적외선 센서부(13)에 감지되는 근거리에 있으면 5분 후에 감정 표현 로봇은 바이오리듬에 따른 초기감정을 얼굴 표정으로 남은 15분간 계속 표현한다. If the user is in the close range to be detected by the
사용자가 기상시간부터 계속 근거리에 있었다면 바이오리듬에 따른 초기감정을 30분간 얼굴 표정으로 생성하고 그 이후는 감정패턴 선택에 의해 하위감정으로 이동하여 30분씩 감정표현을 하고 마지막에는 '취침 모드(540)'로 들어간다. If the user was in the close distance from the wake-up time, the initial emotion according to the biorhythm is generated as a facial expression for 30 minutes, and then the emotion pattern is selected by the emotional pattern selection to express emotion for 30 minutes. '.
예를 들어, 초기감정이 '행복 모드(521)'이면, '행복 모드'(30분)-> '멍함 모드'(30분)-> '슬픔 모드'(30분)-> '불안 모드'(30분)-> '피곤 모드'(30분)-> '취침 모드'의 순서로 얼굴 표정을 변화시키며, For example, if the initial emotion is 'happy mode (521)', 'happy mode' (30 minutes) -> 'blur mode' (30 minutes) (30 minutes) -> 'Tired mode' (30 minutes) -> 'Sleep mode'
초기감정이 'PROUD 모드(531)'이면, 'PROUD 모드'(30분)-> '호기심 모드'(30분)-> '화남 모드'(30분)-> 'STRESS' 모드(30분)-> 'LAZY 모드'(30분)-> '취침 모드'의 순서로 얼굴 표정을 변화시키며, If the initial feeling is 'PROUD mode (531)', 'PROUD mode' (30 minutes) -> 'Curiosity mode' (30 minutes) -> 'LAZY mode' (30 minutes) -> 'Sleep mode'
초기감정이 'EXCITED 모드(511)'이면, 'EXCITED 모드'(30분)-> '보통 모드'(30분)-> '걱정 모드'(30분)-> '아픔 모드'(30분)-> '졸림 모드'(30분)-> '취침 모드'의 순서로 얼굴 표정을 변화시킨다. (30 minutes) -> 'Normal mode' (30 minutes) -> 'Worry mode' (30 minutes) -> 'Pain mode' (30 minutes) if the initial emotion is' EXCITED mode (511) -> 'Sleepiness mode' (30 minutes) -> 'Sleep mode'.
즉, 이 경우에는 사용자가 감정 표현 로봇(10)의 기상시간부터 최종 '취침 모드(540)'로 될 때까지 계속 근거리에 있으면서 전혀 트리트먼트를 하지 않으면 상술한 얼굴 표정을 차례대로 생성한 다음 '취침 모드(540)'로 들어가게 된다.
That is, in this case, if the user is in close proximity to the robot until he or she goes to the last 'sleep mode 540' from the rising time of the
제4단계 - 사용자가 적외선 센서부에 감지되지 않는 경우Step 4 - When the user is not detected by the infrared sensor unit
감정 표현 로봇(10)이 동작을 하고 있는 사이에 사용자가 근거리가 아닌 상태로 15분 이상을 유지할 경우는 감정 표현 로봇(10)은 15분 후 자동으로 '취침 모드(540)'로 들어가고 사용자가 15분 이내에 다시 근거리를 유지할 경우는 계속 선택된 감정표현 행위를 실행하기 위하여 얼굴 표정을 생성한다. If the user keeps 15 minutes or longer while the
예를 들어, 사용자가 근거리에 없는 상태에서 감정 표현 로봇(10)이 기상한 후 바이오리듬을 선택된 감정표현으로 10분간 얼굴 표정을 생성한 후 사용자가 다시 근거리로 돌아와서 5분 동안 있다가 다시 근거리를 벗어난 후 사용자가 20분 이후에 근거리에 돌아왔을 때는 감정 표현 로봇(10)은 바이오리듬을 30분간 선택된 감정표현으로 얼굴 표정을 생성한 후 바로 '취침 모드(540)'로 들어간 상태이며 사용자가 5분 이상 계속 근거리를 유지하면 바이오리듬의 해당 감정의 다음 감정인 하위 감정을 표현한다.
For example, after the
제5단계 - 감정 표현 로봇이 취침 상태에서 기상하는 경우Step 5 - Emotional Expression When the robot wakes up from sleep
감정 표현 로봇이 '취침 모드(540)'에서 다시 깨어나서 동작하는 경우는 3가지이다.There are three cases in which the emotion expression robot wakes up again in the sleep mode 540 and operates.
① 사용자가 근거리에 5분 이상 있는 것이 감지될 때 ① When the user detects that there is more than 5 minutes at close range
② 머리 터치센서부(12C), 귀 터치센서부(12B), 코 터치센서부(12A), 꼬리 터치센서부(12D)를 터치했을 때 (2) When the head
③ 큰 소리가 났을 때
③ When there is a loud noise
제6단계 Step 6
'취침 모드(540)'에서 다시 감정 표현 로봇이 기상하여 감정표현을 하는 것은 취침한 시간에 따라서 바이오리듬이 변화하고 그것에 따라서 감정레벨이 변화한다.In the 'sleep mode 540', the emotional expression robot wakes up and emotionally expresses the biorhythm according to the sleeping time, and the emotional level changes accordingly.
① 신체리듬, 감성리듬, 지성리듬에 대한 바이오리듬이 '고조', '상승'인 경우는 수면 시간에 따른 변화없이 수면 후 깨어나면 다시 그 바이오리듬에 해당하는 감정표현을 한다. ① When the biorhythm of body rhythm, emotional rhythm, and intellectual rhythm is 'high' or 'rise', when the patient wakes up after sleeping without change according to the sleeping time, the biorhythm is expressed again.
즉, 감정레벨 결정부(400)에서 결정된 바이오리듬 감정레벨이 최상위 레벨인 '고조'나 상위 레벨인 '상승'이면 수면 시간에 영향을 받지 않고 그에 따른 초기감정을 설정하고 감정패턴을 선택한 다음 얼굴 표정으로 생성하게 된다. That is, if the biorhythm emotion level determined by the emotion
② 바이오리듬이 '저하', '위험'일 경우는 표 2와 같이 변화한다. ② If the biorhythm is 'deteriorated' or 'dangerous', change as shown in Table 2.
바이오리듬
Biorhythm
수면시간
Sleep time
위험
danger
저하
Lowering
30분~1시간
1시간 이상Within 30 minutes
30 minutes ~ 1 hour
More than 1 hour
위험 -> 저하
위험 -> 상승Risk -> Risk
Risk -> Degradation
Risk -> Rise
저하 -> 상승
저하 -> 상승Degradation -> Degradation
Declining -> Rising
Declining -> Rising
즉, 감정레벨 결정부(400)에서 결정된 바이오리듬 감정레벨이 최하위 레벨인 '위험'나 하위 레벨인 '저하'이면 수면 시간에 영향을 받아서 그에 따른 초기감정을 변경 설정하여 감정패턴을 변경 선택한 다음 얼굴 표정으로 생성하게 된다. That is, if the biorhythm emotion level determined by the emotion
즉, 감정레벨 결정부(400)에서 결정된 바이오리듬 감정레벨이 '위험'이고 감정 표현 로봇이 '취침 모드(540)'에서 30분~1시간 사이에 깨어난 경우라면 바이오리듬 감정레벨을 '저하'로 변경 설정하여 그에 따라 감정패턴을 변경 선택하고, 변경 선택된 감정패턴에 맞추어 얼굴 표정으로 생성하게 된다. That is, if the biorhythm emotion level determined by the emotion
또한, 감정레벨 결정부(400)에서 결정된 바이오리듬 감정레벨이 '위험'이고 감정 표현 로봇이 '취침 모드(540)'에서 1시간 이상 후에 깨어난 경우라면 바이오리듬 감정레벨을 '상승'으로 변경 설정하여 그에 따라 감정패턴을 변경 선택하고, 변경 선택된 감정패턴에 맞추어 얼굴 표정으로 생성하게 된다. Also, if the biorhythm emotion level determined by the emotion
또한, 감정레벨 결정부(400)에서 결정된 바이오리듬 감정레벨이 '저하'이고 감정 표현 로봇이 '취침 모드(450)'에서 30분 이상 후에 깨어난 경우라면 바이오리듬 감정레벨을 '상승'으로 변경 설정하여 그에 따라 감정패턴을 변경 선택하고, 변경 선택된 감정패턴에 맞추어 얼굴 표정으로 생성하게 된다. Further, if the biorhythm emotion level determined by the emotion
결국, 본 발명의 실시예에 따른 바이오리듬을 이용한 감정 표현 로봇(10)은 기상 시간에 의해 감정 표현 로봇(10)이 기상을 한 후 30분 동안 그날의 바이오리듬을 감정으로 표현한다. As a result, the
그리고, 사용자가 감정 표현 로봇(10)이 근거리에 있으면서 특별한 트리트먼트를 하지 않으면 선택된 감정패턴 순서에 의해 각 30분씩 표현을 하고 최종에는 '취침 모드(540)'로 한다. If the user does not perform any special treatment while the
다음, 사용자가 감정 표현 로봇(10)이 근거리에 있는 시간, 큰소리가 난 횟수, 컴퓨터 과다사용 경고 횟수, 짖는 소리를 mute로 한 횟수, 수면시간의 빠르거나 늦음에 따른 결과를 일일 집계하여 다음날 각 감정별 선택하는 시간의 변화를 줌으로써 결과적으로 성격, 건강, 생활 습관을 알게 되고 사용자가 감정 표현 로봇에 얼마나 관심을 갖고 트리트먼트를 했는지를 알 수 있다. Next, the user compares the results of the time at which the
따라서, 본 발명의 실시예에 따른 바이오리듬을 이용한 감정 표현 로봇(10)은 1개월, 3개월 지나면 15가지 감정 중에서 특별히 일부 감정은 얼굴로 1시간 동안 생성을 하고 어떤 감정은 10분 동안만 얼굴 표정으로 생성을 하기 때문에 감정 표현 로봇(10)의 상태를 얼굴 표정 상태를 보고 사용자가 쉽게 파악을 할 수 있게 된다. Therefore, in the
결국, 사용자의 관심도에 따라서 얼굴 표정이 변화되어 사용자가 감정 표현 로봇(10)에 보다 강한 애착을 가질 수 있도록 한다. As a result, the facial expression changes according to the degree of interest of the user, so that the user can have a stronger attachment to the
상술한 바와 같이, 본 발명의 실시예에 따른 바이오리듬을 이용한 감정 표현 로봇은 생년월일을 기초로 신체리듬, 감성리듬, 지성리듬에 관한 바이오리듬을 산출하여 다양한 감정표현행위를 얼굴 표정으로 생성하는 것을 기본적인 기술적 사상으로 하고 있음을 알 수 있다. 따라서, 본 발명의 기본적인 기술적 사상의 범주 내에서 당업계의 통상의 지식을 가진 자에게 있어서는 다른 많은 변형이 가능함은 물론이다. As described above, the emotional expression robot using the biorhythm according to the embodiment of the present invention calculates the biorhythm related to the body rhythm, the emotional rhythm, and the intellectual rhythm based on the date of birth to generate various emotional expression behaviors as facial expression It is understood that it is a basic technical idea. Therefore, many modifications may be made by those skilled in the art without departing from the scope and spirit of the present invention.
10...사용자 데이터를 이용한 감정 표현 로봇 100...생년월일 입력부
200...데이터 베이스부 300...바이오리듬 산출부
400...감정레벨 결정부 500...초기감정 설정부
600...감정패턴 선택부 700...얼굴표정 생성부10 ... emotional expression robot using
200 ...
400 ... emotion
600 ... emotion
Claims (20)
상기 사용자 데이터를 입력하는 생년월일 입력부와;
각종 데이터를 저장하는 데이터 베이스부;와,
상기 생년월일 입력부를 통하여 입력된 생년월일을 기초하여 상기 데이터 베이스부로부터 사용자의 신체리듬, 감정리듬, 지성리듬에 대한 현재의 바이오리듬감정레벨을 조합하여 산출하는 바이오리듬 산출부;와,
상기 조합되어 산출된 바이오리듬 감정레벨 가운데 어느 하나의 바이오리듬감정레벨을 결정하는 감정레벨 결정부;와,
상기 결정된 바이오리듬 감정레벨에 기초하여 상기 데이터 베이스부로부터 사용자의 신체리듬 감정레벨, 감성리듬 감정레벨, 지성리듬 감정레벨에 각각 대응되는 초기감정을 설정하는 초기감정 설정부;와,
사용자의 컴퓨터 사용시간을 점검하는 컴퓨터 사용시간 체크부;와,
상기 감정 표현 로봇의 수면시간을 점검하는 수면시간 체크부;와,
상기 초기감정 설정부에서 결정된 초기감정에 기초하여 상기 데이터 베이스부로부터 일정 패턴의 감정표현을 선택하는 감정패턴 선택부;와,
상기 감정패턴 선택부에서 선택된 감정표현을 실행하기 위한 얼굴 표정 생성부;를 포함하고,
상기 컴퓨터 사용시간 체크부에서 점검된 컴퓨터 과다사용시간 경고횟수 및 상기 수면시간 체크부에서 점검된 감정 표현 로봇의 기상수면시간 중 적어도 하나에 기초하여 상기 얼굴 표정 생성부에서 생성된 얼굴 표정의 생성 시간을 변화시키는 것을 특징으로 하는 사용자 데이터를 이용한 감정 표현 로봇.Based on the user's data, calculates at least one of the biorhythm of the user, the settling time and the horoscope, determines the level of the user's emotion, sets the initial emotion, selects the emotion pattern corresponding to the initial emotion, A robot for expressing emotion using user data operated by the robot,
A date of birth input unit for inputting the user data;
A database unit for storing various data;
A biorhythm calculating unit for calculating a current biorhythm feeling level of a user's body rhythm, an emotional rhythm, and an intellectual rhythm from the database unit based on the date of birth inputted through the date of birth input unit;
A biorhythm emotion level determining unit that determines a biorhythm emotion level among the combined biorhythm emotion levels,
An initial emotion setting unit for setting an initial emotion corresponding to a user's body rhythm emotion level, emotional rhythm emotion level, and emotional rhythm emotion level from the database unit based on the determined biorhythm emotion level;
A computer use time checking unit for checking the user's computer use time,
A sleep time check unit for checking a sleep time of the emotional expression robot;
An emotion pattern selection unit for selecting an emotion expression of a predetermined pattern from the database unit based on the initial emotion determined by the initial emotion setting unit;
And a facial expression generating unit for executing the emotional expression selected by the emotion pattern selecting unit,
A computer readable program code for causing the computer to generate a facial expression generating time generated by the facial expression generating unit based on at least one of the number of computer overtime warning times checked in the computer use time checking unit and the weather- Wherein the emotional expression robot changes the user's emotional state.
상기 바이오리듬 산출부는 상기 신체리듬, 감성리듬, 지성리듬에서 각각 최상위 감정레벨인 '고조', 상위 감정레벨인 '상승', 하위 감정레벨인 '저하', 최하위 감정레벨인 '위험'을 조합하여 감정레벨을 산출하는 것을 특징으로 하는 사용자 데이터를 이용한 감정 표현 로봇. The method according to claim 1,
The biorhythm calculating unit may combine the bodily rhythm, emotional rhythm, and intellectual rhythm with the highest emotion level, the higher emotion level, the lower emotion level, and the lowest emotion level, And calculating an emotion level using the user data.
상기 감정레벨 결정부는,
상기 바이오리듬 산출부에서 조합된 감정레벨 가운데 신체리듬, 감성리듬, 지성리듬이 모두 상이할 때는 '고조' 또는 '위험'의 감정레벨을 결정하고,
상기 바이오리듬 감정레벨이 각각 '고조'와 '위험'이면 '위험'의 감정레벨을 결정하고,
상기 바이오리듬 감정레벨이 서로 동일하면 신체리듬, 감성리듬, 지성리듬의 순서로 감정레벨을 결정하는 것을 특징으로 하는 사용자 데이터를 이용한 감정 표현 로봇. 5. The method of claim 4,
Wherein the emotion level determining unit determines,
When the bodily rhythm, emotional rhythm, and intellectual rhythm are different from each other in the bodily rhythm calculating part, the emotion level of 'high' or 'danger' is determined,
Determines the emotion level of 'danger' if the biorhythm emotion level is 'high' and 'danger' respectively,
Wherein the emotional level is determined in the order of body rhythm, emotional rhythm, and intellectual rhythm when the biorhythm emotion levels are equal to each other.
상기 초기감정 설정부는 상기 감정레벨 결정부에서 결정된 감정레벨에 대응되는 초기감정을 설정하되,
상기 신체리듬 감정레벨의 '신체리듬 고조'는 'EXCITED 모드'로 설정되고, '신체리듬 상승'은 '보통 모드'로 설정되고, '신체리듬 저하'는 '걱정 모드'로 설정되고, '신체리듬 위험'은 '아픔 모드'로 설정되고,
상기 감성리듬 감정레벨의 '감성리듬 고조'는 '행복 모드'로 설정되고, '감성리듬 상승'은 '멍함 모드'로 설정되고, '감성리듬 저하'는 '슬픔 모드'로 설정되고, '감성리듬 위험'은 '불안 모드'로 설정되고,
상기 지성리듬 감정레벨의 '지성리듬 고조'는 'PROUD 모드'로 설정되고, '지성리듬 상승'은 '호기심 모드'로 설정되고, '지성리듬 저하'는 '화남 모드'로 설정되고, '지성리듬 위험'은 'STRESS 모드'로 설정되는 것을 특징으로 하는 사용자 데이터를 이용한 감정 표현 로봇. 5. The method of claim 4,
Wherein the initial emotion setting unit sets an initial emotion corresponding to the emotion level determined in the emotion level determining unit,
The body rhythm feeling level of the body rhythm feeling level is set to the EXCITED mode, the body rhythm raising is set to the normal mode, the body rhythm degradation is set to the worry mode, Rhythm danger 'is set to' pain mode '
The emotional rhythm emotional level of the emotional rhythm emotional level is set to the 'happy mode', the emotional rhythm ascendant is set to the 'emptiness mode', the 'emotional rhythm degradation' is set to the 'sadness mode' Rhythm danger 'is set to' anxiety mode '
The 'intelligent rhythm enhancement' of the intelligent rhythm feeling level is set to 'PROUD mode', the 'intelligent rhythm increase' is set to 'curiosity mode', the 'intellectual rhythm degradation' is set to ' Rhythm danger 'is set to' STRESS mode '.
상기 감정패턴 선택부는 상기 초기감정 설정부에서 설정된 초기감정을 기초로 하여 상기 신체리듬 감정레벨을 순차적으로 선택하는 신체리듬 선택부와, 상기 감성리듬 감정레벨을 순차적으로 선택하는 감성리듬 선택부와, 상기 지성리듬 감정레벨을 순차적으로 선택하는 지성리듬 선택부 중 어느 하나를 선택하고,
상기 신체리듬 선택부는 'EXCITED 모드', '보통 모드', '걱정 모드', '아픔 모드', '졸림 모드', '취침 모드'의 순으로 감정표현을 선택하고,
상기 감성리듬 선택부는 '행복 모드', '멍함 모드', '슬픔 모드', '불안 모드', '피곤 모드', '취침 모드'의 순으로 감정표현을 선택하고,
상기 지성리듬 선택부는 'PROUD 모드', '호기심 모드', '화남 모드', 'STRESS 모드', 'LAZY 모드', '취침 모드'의 순으로 감정표현을 선택하는 것을 특징으로 하는 사용자 데이터를 이용한 감정 표현 로봇. 6. The method of claim 5,
The emotion pattern selection unit may include a body rhythm selection unit for sequentially selecting the body rhythm emotion level based on the initial emotion set in the initial emotion setting unit, an emotion rhythm selection unit for sequentially selecting the emotion rhythm emotion level, Selecting one of the intelligent rhythm selection units for sequentially selecting the intelligent rhythm emotion level,
The body rhythm selection unit selects emotional expressions in the order of EXCITED mode, normal mode, worry mode, pain mode, sleepiness mode, and sleep mode,
The emotional rhythm selection part selects emotional expressions in the order of 'happy mode', 'blind mode', 'grief mode', 'anxiety mode', 'tired mode', and 'sleep mode'
Wherein the intelligent rhythm selection unit selects emotional expressions in order of 'PROUD mode', 'curiosity mode', 'angry mode', 'STRESS mode', 'LAZY mode', and 'sleep mode' Emotional expression robot.
상기 감정 표현 로봇는 상기 감정레벨 결정부에 결정된 감정레벨을 표시하는 디스플레이부;와,
상기 감정패턴 선택부에서 선택된 감정을 상위감정 또는 하위감정으로 이동시키는 각종 터치센서부;와,
상기 사용자가 근거리에 있는 지를 감지하는 적외선 센서부;와,
사용자가 임계치 이상의 소리를 내는 횟수를 감지하는 소리 센서부;와,
상기 감정 표현 로봇이 짖는 소리를 mute로 한 횟수를 감지하는 소리 줄임 체크부;를
포함하는 것을 특징으로 하는 사용자 데이터를 이용한 감정 표현 로봇. 8. The method of claim 7,
The emotion expression robot may include a display unit for displaying the emotion level determined by the emotion level determination unit,
A touch sensor unit for moving the emotion selected by the emotion pattern selection unit to upper emotion or lower emotion;
An infrared sensor unit for sensing whether the user is in a short distance;
A sound sensor unit for sensing the number of times the user makes a sound over a threshold value,
And a sound reduction check unit for detecting the number of mute sounds of the barking sound of the emotional expression robot
Wherein the emotional expression robot comprises:
상기 각종 터치센서부는 상기 감성리듬 선택부에서 형성된 감정을 상위감정으로 이동시키는 코 터치센서;와,
상기 신체리듬 선택부에서 형성된 감정을 상위감정으로 이동시키는 귀 터치센서;와,
상기 지성리듬 선택부에서 형성된 감정을 상위감정으로 이동시키는 머리 터치센서;와,
상기 감성리듬 선택부, 신체리듬 선택부, 지성리듬 선택부에서 형성된 감정을 선택적으로 하위감정으로 이동시키는 꼬리 터치센서;를 포함하는 것을 특징으로 하는 사용자 데이터를 이용한 감정 표현 로봇. 9. The method of claim 8,
The touch sensor unit may include a nose touch sensor for moving the emotion generated by the emotional rhythm selection unit to an upper emotion,
An ear-touch sensor for moving the emotion formed by the body rhythm selection unit to an upper emotion;
A head touch sensor for moving the emotion generated by the intellectual rhythm selector to an upper emotion,
And a tail touch sensor for selectively moving the emotion generated by the emotional rhythm selection unit, the body rhythm selection unit, and the intellectual rhythm selection unit to a lower emotion.
상기 적외선 센서부에서 감지된 사용자의 이용 시간에 따라서 '행복 모드'와 '불안 모드' 사이 및 'EXCITED 모드'와 '아픔 모드' 사이에서 선택된 감정표현을 일정시간 증가시키고 상반 감정을 일정시간 감소시키는 것을 특징으로 하는 사용자 데이터를 이용한 감정 표현 로봇. 9. The method of claim 8,
The emotion expression selected between the 'happy mode' and the 'anxiety mode' and between the 'EXCITED mode' and the 'pain mode' is increased for a certain time according to the user's use time detected by the infrared sensor unit and the upper- Wherein the emotional expression robot comprises:
상기 소리 센서부에서 감지된 사용자의 소리 횟수에 따라서 '호기심 모드'와 '화남 모드' 사이 및 '멍함 모드'와 '슬픔 모드' 사이에서 선택된 감정표현을 일정시간 증가시키고 상반 감정을 일정시간 감소시키는 사용자 데이터를 이용한 감정 표현 로봇. 9. The method of claim 8,
The emotion expression selected between the curiosity mode and the angry mode and between the blur mode and the sorrow mode is increased for a certain period of time and the upper-part emotion is decreased for a predetermined time according to the number of sounds of the user sensed by the sound sensor unit Emotion expression robot using user data.
상기 컴퓨터 사용시간 체크부에서 점검된 사용자의 컴퓨터 사용시간 횟수에 따라서 '보통 모드'와 '걱정 모드' 사이에서 선택된 감정표현을 일정시간 증가시키고 상반 감정을 일정시간 감소시키는 사용자 데이터를 이용한 감정 표현 로봇. 9. The method of claim 8,
An emotional expression robot using user data for increasing the selected emotional expression between the 'normal mode' and the 'worried mode' for a predetermined time according to the number of times of computer use by the user, .
상기 소리 줄임 체크부에서 체크된 사용자의 소리 줄임 횟수에 따라서 'PROUD 모드'와 'STRESS 모드' 사이에서 선택된 감정표현을 일정시간 증가시키고 상반 감정을 일정시간 감소시키는 사용자 데이터를 이용한 감정 표현 로봇. 9. The method of claim 8,
The emotion expression robot using user data for increasing the selected emotion expression between the 'PROUD mode' and the 'STRESS mode' for a predetermined time according to the number of times of the user's loudness reduction checked in the loudness checker and reducing the upper emotional feeling for a predetermined time.
상기 수면시간 체크부에서 체크된 의해 상기 감정 표현 로봇의 수면시간에 따라서 'PROUD 모드'와 'LAZY 모드' 및 '행복 모드'와 '피곤 모드' 및 'EXCITED 모드'와 '졸림 모드' 사이에서 선택된 감정표현을 일정시간 증가시키고 상반 감정을 일정시간 감소시키는 사용자 데이터를 이용한 감정 표현 로봇. 9. The method of claim 8,
And the sleep mode is selected between the 'PROUD mode' and the 'LAZY mode', the 'happy mode' and the 'tired mode' and the 'EXCITED mode' and the 'sleepiness mode' according to the sleep time of the emotional expression robot Emotion expression robot using user data to increase emotional expression for a certain period of time and decrease the sympathetic emotion for a certain period of time.
상기 얼굴 표정 생성부는 눈꺼풀과 눈알의 위치를 조합하여 얼굴 표정으로 생성하도록 하는 사용자 데이터를 이용한 감정 표현 로봇. The method according to claim 1,
Wherein the facial expression generating unit combines the positions of eyelids and eyeballs to generate facial expressions.
각종 데이터를 저장하는 데이터 베이스부와,
상기 생년월일 입력부를 통하여 입력된 생년월일을 기초하여 상기 데이터 베이스부로부터 사용자의 신체리듬, 감정리듬, 지성리듬에 대한 현재의 바이오리듬 감정레벨을 조합하여 산출하는 바이오리듬 산출부와,
상기 조합되어 산출된 바이오리듬 감정레벨 가운데 어느 하나의 바이오리듬 감정레벨을 결정하는 감정레벨 결정부와,
상기 결정된 바이오리듬 감정레벨에 기초하여 상기 데이터 베이스부로부터 사용자의 신체리듬 감정레벨, 감성리듬 감정레벨, 지성리듬 감정레벨에 각각 대응되는 초기감정을 설정하는 초기감정 설정부와,
상기 감정 표현 로봇의 수면시간을 점검하는 수면시간 체크부와,
상기 초기감정 설정부에서 결정된 초기감정에 기초하여 상기 데이터 베이스부로부터 일정 패턴의 감정표현을 선택하는 감정패턴 선택부와,
상기 감정패턴 선택부에서 선택된 감정표현을 실행하기 위하여 눈알과 눈꺼풀을 조합하여 얼굴 표정 생성부를 포함하고,
상기 수면시간 체크부에서 점검된 감정 표현 로봇의 기상수면시간에 기초하여 상기 얼굴 표정 생성부에서 생성된 얼굴 표정의 생성 시간을 변화시키는 것을 특징으로 하는 바이오리듬을 이용한 감정 표현 로봇. A date of birth input unit for inputting a date of birth,
A database unit for storing various data,
A biorhythm calculating unit for calculating a current biorhythm feeling level of the user's body rhythm, emotional rhythm, and intellectual rhythm from the database unit based on the date of birth inputted through the date of birth input unit;
An emotion level determination unit for determining a biorhythm emotion level among the combined biorhythm emotion levels,
An initial emotion setting unit for setting an initial emotion corresponding to a user's body rhythm emotion level, emotional rhythm emotion level, and emotional rhythm emotion level from the database unit based on the determined biorhythm emotion level,
A sleep time check unit for checking a sleep time of the emotional expression robot;
An emotion pattern selection unit for selecting an emotion expression of a predetermined pattern from the database unit based on the initial emotion determined by the initial emotion setting unit;
And a facial expression generating unit for combining eyeballs and eyelids to perform the emotion expression selected by the emotion pattern selecting unit,
Wherein the generating time of the facial expression generated by the facial expression generating unit is changed based on the wake up time of the emotional expression robot checked by the sleep time checking unit.
상기 초기감정 설정부는 'EXCITED 모드', '보통 모드', '걱정 모드', '아픔 모드', '행복 모드', '멍함 모드', '슬픔 모드', '불안 모드', 'PROUD 모드', '호기심 모드', '화남 모드', 'STRESS 모드'에 대응되는 감정표현을 초기감정을 선택하는 것을 특징으로 하는 바이오리듬을 이용한 감정 표현 로봇. 18. The method of claim 17,
The initial emotion setting unit may be configured to set the initial emotion setting unit such that the initial emotion setting unit is configured to set the initial emotion setting unit such that the initial emotion setting unit sets the initial emotion setting unit such as' EXCITED mode, '' normal mode, '' worry mode, '' pain mode, '' happy mode, '' The emotion expression corresponding to the 'curiosity mode', the 'angry mode', and the 'STRESS mode' is selected as the emotion expression robot using the biorhythm.
상기 감정패턴 선택부는 'EXCITED 모드', '보통 모드', '걱정 모드', '아픔 모드', '졸림 모드'의 순서로 감정표현을 선택하는 제1패턴과,
'행복 모드', '멍함 모드', '슬픔 모드', '불안 모드', '피곤 모드'의 순서로 감정표현을 선택하는 제2패턴과,
'PROUD 모드', '호기심 모드', '화남 모드', 'STRESS 모드', 'LAZY 모드'의 순서로 감정표현을 선택하는 제3패턴을 포함하는 것을 특징으로 하는 바이오리듬을 이용한 감정 표현 로봇. 18. The method of claim 17,
The emotion pattern selection unit may include a first pattern for selecting emotional expressions in the order of EXCITED mode, normal mode, worry mode, pain mode, and sleepiness mode,
A second pattern for selecting emotional expressions in order of 'happiness mode', 'blindness mode', 'sadness mode', 'anxiety mode', and 'tired mode'
And a third pattern for selecting an emotional expression in order of 'PROUD mode', 'curiosity mode', 'angry mode', 'STRESS mode', and 'LAZY mode'.
상기 얼굴 표정 생성부는 눈꺼풀 열림 비율, 눈꺼풀이 위치하는 방향, 눈꺼풀의 구동속도, 눈꺼풀의 구동 인터벌을 통하여 상기 'EXCITED 모드', '보통 모드', '걱정 모드', '아픔 모드', '졸림 모드', '행복 모드', '멍함 모드', '슬픔 모드', '불안 모드', '피곤 모드', 'PROUD 모드', '호기심 모드', '화남 모드', 'STRESS 모드', 'LAZY 모드'에 대응되는 감정표현을 실행하는 것을 특징으로 하는 바이오리듬을 이용한 감정 표현 로봇. 20. The method according to claim 18 or 19,
The facial expression generating unit may generate the facial expression by using the EXCITED mode, the 'normal mode', the 'worry mode', the 'sore mode', the 'sleepiness mode', and the 'sleep mode' through the eyelid opening ratio, the direction in which the eyelid is positioned, , 'Curious Mode', 'Angry Mode', 'STRESS Mode', 'LAZY Mode', and 'LAZY Mode'≪ / RTI > wherein the emotional expression corresponding to < RTI ID = 0.0 > a < / RTI >
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110110409A KR101399601B1 (en) | 2011-10-27 | 2011-10-27 | Emotion expresion robot using user data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110110409A KR101399601B1 (en) | 2011-10-27 | 2011-10-27 | Emotion expresion robot using user data |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20130046070A KR20130046070A (en) | 2013-05-07 |
KR101399601B1 true KR101399601B1 (en) | 2014-05-27 |
Family
ID=48657856
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110110409A KR101399601B1 (en) | 2011-10-27 | 2011-10-27 | Emotion expresion robot using user data |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101399601B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160026163A (en) | 2014-08-29 | 2016-03-09 | 건국대학교 산학협력단 | Emotion analysis device using data packets |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6436030B2 (en) * | 2015-09-17 | 2018-12-12 | トヨタ自動車株式会社 | Life log recording system |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002307354A (en) * | 2000-11-07 | 2002-10-23 | Sega Toys:Kk | Electronic toy |
KR100813668B1 (en) * | 2006-12-20 | 2008-03-14 | 한국생산기술연구원 | Emotional expression equipment and method in android robot |
-
2011
- 2011-10-27 KR KR1020110110409A patent/KR101399601B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002307354A (en) * | 2000-11-07 | 2002-10-23 | Sega Toys:Kk | Electronic toy |
KR100813668B1 (en) * | 2006-12-20 | 2008-03-14 | 한국생산기술연구원 | Emotional expression equipment and method in android robot |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160026163A (en) | 2014-08-29 | 2016-03-09 | 건국대학교 산학협력단 | Emotion analysis device using data packets |
Also Published As
Publication number | Publication date |
---|---|
KR20130046070A (en) | 2013-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6883075B2 (en) | Viewing the user interface associated with physical activity | |
CN107791893B (en) | Vehicle seat | |
EP1893079B1 (en) | Fluctuating blood glucose notification threshold profiles and methods of use | |
US6567785B2 (en) | Electronic behavior modification reminder system and method | |
US20190163270A1 (en) | Methods and systems for fitness-monitoring device displaying biometric sensor data-based interactive applications | |
WO2017199662A1 (en) | Autonomous action robot and computer program | |
US8358215B2 (en) | Attention assistance and monitoring | |
EP2551784A1 (en) | Method of controlling the display of a dataset | |
Fairclough et al. | Construction of the biocybernetic loop: a case study | |
US20150254992A1 (en) | Memory-enhancing and habit-training methods and devices | |
JP7364016B2 (en) | Robot, control method and program | |
WO2019132772A1 (en) | Method and system for monitoring emotions | |
KR20200087337A (en) | Healthcare robot and controlling metohd thereof | |
KR101399601B1 (en) | Emotion expresion robot using user data | |
JP2020154459A (en) | System, method and program of predicting satisfaction level for life in future | |
Peng et al. | A visuo-haptic attention training game with dynamic adjustment of difficulty | |
JP2022082547A (en) | Work appropriateness determination system | |
JP2023099625A (en) | Equipment control device, equipment control method, and program | |
JP2023115370A (en) | Robot, control method and program | |
JP2015131008A (en) | Sleep evaluation apparatus | |
JP6365003B2 (en) | Action evaluation device, action evaluation method, program | |
JP7415615B2 (en) | Program and evaluation equipment | |
JP2021003216A (en) | Information processing system, and information processing method | |
JP7287411B2 (en) | Equipment control device, equipment control method and program | |
US20240260893A1 (en) | System and method for analyzing sleeping behavior |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |