KR20190023749A - Apparatus and method for emotion recognition of user - Google Patents
Apparatus and method for emotion recognition of user Download PDFInfo
- Publication number
- KR20190023749A KR20190023749A KR1020170109972A KR20170109972A KR20190023749A KR 20190023749 A KR20190023749 A KR 20190023749A KR 1020170109972 A KR1020170109972 A KR 1020170109972A KR 20170109972 A KR20170109972 A KR 20170109972A KR 20190023749 A KR20190023749 A KR 20190023749A
- Authority
- KR
- South Korea
- Prior art keywords
- user
- input
- learning
- value
- unit
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 230000008909 emotion recognition Effects 0.000 title claims description 40
- 230000006870 function Effects 0.000 claims abstract description 68
- 230000003044 adaptive effect Effects 0.000 claims abstract description 50
- 230000008451 emotion Effects 0.000 claims abstract description 49
- 230000002996 emotional effect Effects 0.000 claims abstract description 34
- 230000008569 process Effects 0.000 claims abstract description 17
- 230000008921 facial expression Effects 0.000 claims abstract description 13
- 210000004709 eyebrow Anatomy 0.000 claims description 30
- 210000003128 head Anatomy 0.000 claims description 26
- 210000001061 forehead Anatomy 0.000 claims description 11
- 230000001746 atrial effect Effects 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 11
- 230000014509 gene expression Effects 0.000 description 5
- 230000002452 interceptive effect Effects 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 241000282414 Homo sapiens Species 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G06K9/627—
-
- G06K9/00221—
-
- G06K9/00885—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/043—Architecture, e.g. interconnection topology based on fuzzy logic, fuzzy membership or fuzzy inference, e.g. adaptive neuro-fuzzy inference systems [ANFIS]
-
- G06N3/0436—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Acoustics & Sound (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Signal Processing (AREA)
- Child & Adolescent Psychology (AREA)
- Psychiatry (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Hospice & Palliative Care (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Analysis (AREA)
- Fuzzy Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Mathematics (AREA)
- Automation & Control Theory (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Manipulator (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 사용자 감성 인식 장치 및 방법에 관한 발명으로서, 더욱 상세하게는 사용자의 감정 상태를 판단하기 위한 다양한 입력 정보를 역전파 학습을 통해 적응형 뉴로 퍼지 추론부의 각 입력 소속함수의 중심 및 폭과 입력 및 출력의 룰 베이스를 조정하여 사용자의 감정 상태를 정확하게 판단하는 사용자 감성 인식 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for recognizing user's emotions, and more particularly, to an apparatus and method for recognizing user's emotions, And more particularly, to a user emotion recognition apparatus and method for accurately determining a user's emotion state by adjusting a rule base of input and output.
최근 들어, 삶 속에서 사용자의 편의를 도모하기 위해 사용자가 의도하는 해당 작업을 돕는 로봇 분야에 대한 개발이 활발하게 이루어지고 있다. 2. Description of the Related Art In recent years, in order to facilitate user's convenience in life, development of a robot field for supporting a user's intended work has been actively performed.
특히, 사용자와 로봇 간에 상호작용을 통해 로봇이 지능적으로 판단하고 그 결과에 따른 동작을 수행할 수 있는 지능형 로봇 분야에 관심이 모아지고 있다.In particular, there is a growing interest in the field of intelligent robots that enables a robot to intelligently determine the interaction between a user and a robot and to perform an operation according to the result.
현재 개발되고 있는 지능형 로봇은 단순한 외적 센서 정보를 이용하여 미리 정의된 조건에 따라 해당 감성을 생성하거나 해당하는 행동을 표현하는 등의 인간과 보다 유사한 감성을 생성 및 표현하는 분야로 개발되고 있다.Currently developed intelligent robots are being developed to generate and express emotions that are more similar to humans, such as generating sensations according to predefined conditions or expressing corresponding behaviors using simple external sensor information.
또한, 지능형 로봇은 카메라를 통해 촬영한 영상을 통해 인간의 감성 상태를 파악하여 감성 생성에 반영함으로써, 인간과의 상호 작용이 가능한 형태의 연구가 활발히 이루어지고 있다.In addition, intelligent robots are actively studying forms that can interact with humans by reflecting emotional states of human beings through images captured through cameras and reflecting them on emotional generation.
이와 같이, 카메라를 통해 촬영한 영상의 인식 정보를 이용하여 인간의 감성을 파악하거나, 마이크를 이용한 음성 인식을 통해 음성의 강도, 템포, 및 억양 등을 파악하여 감성을 파악하는 것은 그 정확도 측면에서 한계가 있다. As described above, it is difficult to grasp the emotion of the human being by using the recognition information of the image photographed by the camera, or to grasp the intensity, tempo, and intonation of the voice through the voice recognition using the microphone, There is a limit.
이러한 문제점을 해결하기 위하여, 본 발명은 사용자의 감정 상태를 판단하기 위한 다양한 입력 정보를 역전파 학습을 통해 적응형 뉴로 퍼지 추론부의 각 입력 소속함수의 중심 및 폭과 입력 및 출력의 룰 베이스를 조정하여 사용자의 감정 상태를 정확하게 판단하는 사용자 감성 인식 장치 및 방법을 제공하는 것을 목적으로 한다.In order to solve such a problem, the present invention adjusts the center and width of each input membership function of the adaptive neuro fuzzy reasoning unit and the rule base of input and output through various kinds of input information for judging the emotional state of the user, And to provide a user emotion recognition apparatus and method that accurately determine the emotion state of a user.
상기한 목적을 달성하기 위하여 본 발명은 사용자의 얼굴 표정을 기반으로 분석한 사용자의 감정 상태 정보를 적응형 뉴로 퍼지 추론부의 입력에 대한 소속함수로 제공하는 퍼지 논리 분류부; 사용자의 음성 및 영상을 미리 설정된 감정 상태 프로그램으로 분석한 사용자의 감정 상태 정보를 적응형 뉴로 퍼지 추론부의 입력에 대한 소속함수로 제공하는 감정 상태 분석부; 및 상기 퍼지 논리 분류부와 감정 상태 분석부에서 제공되는 입력 정보에 대한 출력을 계산하고, 상기 계산된 값과 목표 출력의 오차가 감소되도록 매개변수를 조정하여 평균 제곱근 에러(Root Mean Square: RMS) 값이 미리 설정된 기준값 이하가 되도록 학습과정을 수행하며, 상기 학습결과를 이용하여 사용자의 감정 상태를 인식하는 적응형 뉴로 퍼지 추론부를 포함한다.According to an aspect of the present invention, there is provided a fuzzy logic classification unit comprising: a fuzzy logic classifier for providing emotion state information of a user based on facial expressions of a user as a membership function for input of an adaptive neuro fuzzy reasoning unit; An emotion state analyzing unit for providing emotion state information of a user who has analyzed a user's voice and an image with a preset emotion state program as a belonging function to the input of the adaptive neuro fuzzy reasoning unit; And calculating an output of the input information provided by the fuzzy logic classification unit and the emotion state analyzing unit and adjusting a parameter to reduce an error between the calculated value and a target output to obtain a root mean square error (RMS) The learning process is performed so that the value of the learning result is less than a predetermined reference value and the emotion state of the user is recognized using the learning result.
또한, 본 발명에 따른 상기 사용자 감성 인식 장치는 사용자의 심방 박동수, 사용자의 접촉 및 터치 시간, 사용자의 동작 속도 중 적어도 하나 이상을 검출하여 사용자의 감정 상태에 대한 소속함수로 상기 적응형 뉴로 퍼지 추론부로 출력하는 센서부를 더 포함하는 것을 특징으로 한다.In addition, the user's emotional recognition apparatus according to the present invention detects at least one of a user's atrial pulse rate, a user's touching and touching time, and a user's operation speed and outputs the adaptive neuro fuzzy inference function as a membership function for the user's emotional state. And a sensor unit for outputting a signal.
또한, 본 발명에 따른 상기 퍼지 논리 분류부의 얼굴 표정은 눈썹의 위치, 입의 모양, 머리의 위치 및 방향, 눈의 위치 및 방향을 포함하는 것을 특징으로 한다.In addition, the facial expression of the fuzzy logic classification unit according to the present invention is characterized by including a position of an eyebrow, a shape of a mouth, a position and a direction of a head, and a position and direction of an eye.
또한, 본 발명에 따른 상기 퍼지 논리 분류부는 얼굴 표정을 미리 설정된 입력과 출력의 룰 베이스에 따라 퍼지화(Fuzzification)하여 감정 상태를 추출하는 것을 특징으로 한다.The fuzzy logic classification unit according to the present invention is characterized by extracting an emotional state by fuzzification according to a rule base of a preset input and output facial expressions.
또한, 본 발명에 따른 상기 퍼지 논리 분류부는 퍼지화를 통해 추론된 감정 상태를 비퍼지화(Defuzzification)하여 일반적인 수치 값으로 출력하는 것을 특징으로 한다.Further, the fuzzy logic classifier according to the present invention is characterized in that the emotion state deduced through fuzzy logic is defuzzified and output as a general numerical value.
또한, 본 발명에 따른 상기 퍼지 논리 분류부는 사용자의 감정 상태를 화남(Ang), 공포(Fer), 슬픔(Sad), 보통(Nor), 부끄러움(Sha), 놀라움(Sup), 기쁨(Joy)으로 구분하는 것을 특징으로 한다.Further, the fuzzy logic classification unit according to the present invention may be configured to classify the user's emotional state into Ang, Fear, Sad, Nor, Sha, Sup, Joy, As shown in FIG.
또한, 본 발명에 따른 상기 적응형 뉴로 퍼지 추론부는 각 입력 소속함수의 중심과 폭을 조정하여 입력과 출력의 룰 베이스를 재조정하는 학습과정을 수행하는 것을 특징으로 한다.Further, the adaptive neuro fuzzy inference unit according to the present invention performs a learning process of rearranging the input and output rule bases by adjusting the center and width of each input belonging function.
또한, 본 발명에 따른 상기 적응형 뉴로 퍼지 추론부는 학습이 종료되면, 전건부 소속함수의 중심과 폭의 값, 후건부의 가중치 값을 저장하고, 재시작 또는 재학습의 수행하는 과정에 초기화 데이터로 사용하는 것을 특징으로 한다.In addition, the adaptive neurofuzzy inference unit according to the present invention stores the center value, the width value, and the weight value of the forehead part of the forehead part belonging function at the end of the learning, and uses the initialization data in the process of performing the restart or re- .
또한, 본 발명에 따른 상기 적응형 뉴로 퍼지 추론부는 역전파 학습과정을 수행하는 것을 특징으로 한다.Further, the adaptive neurofuzzy reasoning unit according to the present invention performs a backpropagation learning process.
또한, 본 발명은 a) 퍼지 논리 분류부와 감정 상태 분석부가 입출력 데이터 쌍을 정의하여 준비하는 단계; b) 적응형 뉴로 퍼지 추론부가 소속함수를 초기화하고, 상기 a) 단계에서 정의한 입출력 데이터를 입력받아 평균 제곱근 오차(RMSE) 값을 검출하는 단계; c) 상기 적응형 뉴로 퍼지 추론부가 역전파 학습 알고리즘을 이용하여 학습을 수행하는 단계; d) 학습이 종료되면, 상기 적응형 뉴로 퍼지 추론부가 전건부 소속함수의 중심 및 폭과 후건부 소속함수의 선형 계수값을 조정하고, 상기 평균 제곱근 오차 값이 미리 설정된 기준값 이하인지 여부를 판단하는 단계; 및 e) 상기 판단결과, 평균 제곱근 오차 값이 기준값 이하면, 상기 조정된 전건부 소속함수의 중심 및 폭과 후건부 소속함수의 선형 계수값을 데이터 베이스에 저장하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method of analyzing an input / output data, comprising the steps of: (a) defining a fuzzy logic classification unit and an emotion state analysis unit by defining input / output data pairs; b) initializing an adaptive neurofuzzy inference membership function and detecting an average root mean square error (RMSE) value by receiving the input / output data defined in the step a); c) performing the learning using the adaptive neurofuzzy reasoning part backpropagation learning algorithm; d) Upon completion of the learning, the adaptive neurofuzzy reasoning unit adjusts the center and width of the forehead part belonging function and the linear coefficient value of the backward part belonging function, and determines whether or not the mean square root error value is less than a preset reference value step; And e) storing the center and the width of the adjusted forehead part belonging function and the linear coefficient values of the backward part belonging function in the database if the mean square error value is less than the reference value as a result of the determination.
또한, 본 발명에 따른 상기 d) 단계의 학습 종료는 발생되는 평균 제곱근 오차 값이 미리 설정된 수렴 조건값 이하면 종료되는 것을 특징으로 한다.The end of learning in step d) according to the present invention is completed when the generated mean square error value is less than a preset convergence condition value.
또한, 본 발명에 따른 상기 e) 단계는 상기 평균 제곱근 오차 값이 기준값 이상이면, 학습률을 조정하여 상기 c) 및 d) 단계를 재수행하는 것을 특징으로 한다.In the step e) of the present invention, if the mean square error value is equal to or greater than a reference value, the step c) and the step d) are performed again by adjusting the learning rate.
또한, 본 발명에 따른 상기 e) 단계에서 저장된 전건부 소속함수의 중심 및 폭과 후건부 소속함수의 선형 계수값은 상기 적응형 뉴로 퍼지 추론부가 재시작 또는 재학습을 수행할 경우 소속함수의 초기화 데이터로 사용되는 것을 특징으로 한다.In addition, the center and the width of the forehead part belonging function stored in step (e) according to the present invention and the linear coefficient value of the backward part belonging function may be set such that, when the adaptive neurofuzzy reasoning part restarts or re- Is used.
또한, 본 발명에 따른 상기 e) 단계는 학습이 완료된 다음 감성인식 서비스 과정에서 입력되는 입출력 데이터를 실시간으로 저장되고, 상기 저장된 입출력 데이터는 감성인식 서비스의 휴지기에 추가 학습을 수행하는 단계를 더 포함하는 것을 특징으로 한다.Further, the step (e) according to the present invention may further include the step of storing input / output data inputted in the emotion recognition service process after learning is completed in real time, and the stored input / output data may be further learned in a pauser of the emotion recognition service .
본 발명은 사용자의 감정 상태를 판단하기 위한 다양한 입력 정보를 역전파 학습을 통해 적응형 뉴로 퍼지 추론부의 각 입력 소속함수의 중심 및 폭과 입력 및 출력의 룰 베이스를 조정하여 사용자의 감정 상태를 정확하게 판단할 수 있는 장점이 있다.The present invention adjusts the center and the width of each input membership function of the adaptive neuro fuzzy reasoning unit and the rule base of input and output through various kinds of input information for determining the emotional state of the user through back propagation learning, There is an advantage to be able to judge.
도 1은 본 발명에 따른 사용자 감성 인식 장치를 나타낸 블록도.
도 2는 도 1에 따른 사용자 감성 인식 장치의 퍼지 논리 분류부를 나타낸 블록도.
도 3은 본 발명에 따른 사용자 감성 인식 장치에 입력되는 눈썹 상태 입력 퍼지 변수의 소속함수를 나타낸 예시도.
도 4는 본 발명에 따른 사용자 감성 인식 장치의 출력 퍼지 변수의 소속함수를 나타낸 예시도.
도 5는 본 발명에 따른 사용자 감성 인식 장치의 눈썹 상태에 대한 퍼지 룰 베이스를 정의하는 화면을 나타낸 예시도.
도 6은 도 5에 따른 눈썹 상태에 대한 퍼지 룰 베이스의 3차원 공간을 나타낸 예시도.
도 7은 도 5에 따른 눈썹 상태에 대한 비퍼지화 결과의 일 예를 나타낸 예시도.
도 8은 본 발명에 따른 사용자 감성 인식 장치의 입 상태에 대한 퍼지 룰 베이스를 정의하는 화면을 나타낸 예시도.
도 9는 본 발명에 따른 사용자 감성 인식 장치의 머리 상태에 대한 퍼지 룰 베이스를 정의하는 화면을 나타낸 예시도.
도 10은 본 발명에 따른 사용자 감성 인식 장치의 눈 상태에 대한 퍼지 룰 베이스를 정의하는 화면을 나타낸 예시도.
도 11은 본 발명에 따른 사용자 감성 인식 장치의 적응형 뉴로 퍼지 추론부의 입력으로 사용되는 퍼지 논리 분류부의 소속함수를 나타낸 예시도.
도 12는 본 발명에 따른 사용자 감성 인식 장치의 적응형 뉴로 퍼지 추론부의 입력으로 사용되는 음성인식 결과의 소속함수를 나타낸 예시도.
도 13은 본 발명에 따른 사용자 감성 인식 장치의 적응형 뉴로 퍼지 추론부의 입력으로 사용되는 영상인식 결과의 소속함수를 나타낸 예시도.
도 14는 본 발명에 따른 사용자 감성 인식 장치의 적응형 뉴로 퍼지 추론부의 입력으로 사용되는 심장 박동수의 소속함수를 나타낸 예시도.
도 15는 본 발명에 따른 사용자 감성 인식 장치의 동작과정을 나타낸 흐름도.1 is a block diagram showing a user emotion recognition apparatus according to the present invention.
FIG. 2 is a block diagram showing a fuzzy logic classification unit of the user emotion recognition apparatus according to FIG. 1. FIG.
3 is a view showing an example of a membership function of an eyebrow state input fuzzy variable inputted to the user's emotional recognition apparatus according to the present invention.
FIG. 4 illustrates an example of a membership function of an output fuzzy variable of the user emotion recognition apparatus according to the present invention. FIG.
5 is a view illustrating a screen for defining a fuzzy rule base for an eyebrow state of a user's emotional recognition apparatus according to the present invention.
FIG. 6 is an exemplary view showing a three-dimensional space of the fuzzy rule base with respect to the eyebrow state according to FIG. 5;
FIG. 7 is an exemplary view showing an example of a result of non-fuzzification of the eyebrow state according to FIG. 5;
8 is a diagram illustrating a screen for defining a fuzzy rule base with respect to a mouth state of the user emotion recognition apparatus according to the present invention.
FIG. 9 is a diagram illustrating a screen for defining a fuzzy rule base for a head state of a user emotion recognition apparatus according to the present invention; FIG.
10 is a diagram illustrating a screen for defining a fuzzy rule base for an eye state of a user emotion recognition apparatus according to the present invention;
11 is a view showing an example of a membership function of a fuzzy logic classification unit used as an input of the adaptive neuro fuzzy reasoning unit of the user emotion recognition apparatus according to the present invention.
FIG. 12 is an exemplary view showing a membership function of a speech recognition result used as an input of the adaptive neuro fuzzy reasoning unit of the user emotion recognition apparatus according to the present invention; FIG.
FIG. 13 illustrates an example of a membership function of an image recognition result used as an input of the adaptive neuro fuzzy inference unit of the user emotion recognition apparatus according to the present invention. FIG.
FIG. 14 is an exemplary view showing a membership function of the heart rate used as an input of the adaptive neuro fuzzy reasoning unit of the user emotion recognition apparatus according to the present invention. FIG.
15 is a flowchart illustrating an operation process of the user emotion recognition apparatus according to the present invention.
이하, 첨부된 도면을 참조하여 본 발명에 따른 사용자 감성 인식 장치 및 방법의 바람직한 실시예를 상세하게 설명한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to the preferred embodiments of the present invention, examples of which are illustrated in the accompanying drawings.
도 1은 본 발명에 따른 사용자 감성 인식 장치를 나타낸 블록도이고, 도 2는 도 1에 따른 사용자 감성 인식 장치의 퍼지 논리 분류부를 나타낸 블록도이다.FIG. 1 is a block diagram showing a user emotion recognition apparatus according to the present invention, and FIG. 2 is a block diagram showing a fuzzy logic classification unit of the user emotion recognition apparatus according to FIG.
도 1 및 도 2에 나타낸 바와 같이, 본 발명에 따른 사용자 감성 인식 장치는 퍼지 논리 분류부(100)와, 감정 상태 분석부(200)와, 적응형 뉴로 퍼지 추론부(300)와, 센서부(400)와, 데이터 베이스(500)와, 재학습부(700)를 포함하여 구성된다.1 and 2, the user emotion recognition apparatus according to the present invention includes a fuzzy
상기 퍼지 논리 분류부(100)는 사용자의 얼굴 표정을 기반으로 분석한 사용자의 감정 상태 정보를 적응형 뉴로 퍼지 추론부(300)의 입력에 대한 소속함수로 제공하는 구성으로서, 카메라(미도시) 등의 영상 입력 수단, 3차원 이미지 센서 등으로부터 검출한 사용자의 눈썹 위치, 입의 모양 및 위치, 머리의 위치 및 방향, 눈의 위치 및 방향을 포함한 얼굴 표정을 이용하여 사용자의 감정상태를 분석하기 위한 정보로 제공될 수 있도록 한다.The
또한, 상기 퍼지 논리 분류부(100)는 얼굴 표정을 미리 설정된 입력과 출력의 룰 베이스에 따라 퍼지화(Fuzzification)하여 사용자의 감정 상태가 추출될 수 있도록 한다.In addition, the
또한, 상기 퍼지 논리 분류부(100)는 퍼지화를 통해 추론된 감정 상태를 비퍼지화(Defuzzification)하여 일반적인 수치 값으로 출력함으로써, 서로 다른 입력 데이터들의 공간을 동일한 공간에서 처리할 수 있도록 한다.In addition, the
또한, 상기 퍼지 논리 분류부(100)는 눈썹 위치, 입의 모양 및 위치, 머리의 위치 및 방향, 눈의 위치 및 방향 등의 정보를 이용하여 사용자의 감정 상태를 화남(Ang), 공포(Fer), 슬픔(Sad), 보통(Nor), 부끄러움(Sha), 놀라움(Sup), 기쁨(Joy)으로 구분한다.In addition, the
상기한 감정 상태는 7가지 이외에 미묘한 감정 상태를 구분할 수 있도록 퍼지 규칙과 소속함수를 추가하여 더욱 구체적인 감정으로 구분할 수도 있다.The above-mentioned emotion states may be classified into more specific emotions by adding fuzzy rules and membership functions so as to distinguish subtle emotion states in addition to the seven emotion states.
상기 퍼지 논리 분류부(100)를 더욱 상세하게 설명하면, 3차원 이미지 센서 등을 이용하여 사용자의 얼굴을 추출하고, 깊이(Depth) 정보를 이용하여 사용자의 눈썹 상태(Expression Brow), 입 상태(Expression Mouth), 머리 상태(Expression Head), 눈 상태(Expression Eye)에 해당되는 정보를 정량적으로 획득하고, 상기 획득한 사용자 얼굴표정에 기반하여 감정의 상태를 결정하고, 그 결과는 다음의 수학식 1과 같은 연산을 수행하여 적응형 뉴로 퍼지 추론부(300)의 입력으로 제공하며, 눈썹 상태 분류부(110)와, 입 상태 분류부(120)와, 머리 상태 분류부(130)와, 눈 상태 분류부(140)를 포함하여 구성된다.The fuzzy logic classifier 100 extracts a face of a user using a three-dimensional image sensor or the like, extracts a user's eyebrow state (Expression Brow), a mouth state Expression Mouth, Expression Head, Expression Eye, and determines the state of emotion based on the obtained user facial expression, and the result is calculated by the following
여기서, Y는 퍼지 추론 엔진의 출력벡터이고, W는 가중치 벡터이며, B는 눈썹 상태, M은 입 상태, H는 머리 상태, E는 눈 상태이다.Where Y is the output vector of the fuzzy inference engine, W is the weight vector, B is the eyebrow condition, M is the mouth condition, H is the head condition, and E is the eye condition.
상기 눈썹 상태 분류부(110)는 얼굴 표정 중에서 눈썹의 상태를 이용하여 감정 상태를 추출할 수 있도록 동작한다.The eyebrow
도 3은 사용자 감성 인식 장치에 입력되는 눈썹 상태 입력 퍼지 변수의 소속함수를 나타낸 예시도로서, 도 3(a)는 왼쪽 눈썹이 올라간 상태에 따른 소속함수이고, 도 3(b)는 오른쪽 눈썹이 올라간 상태에 따른 소속함수이며, 도 3(c)는 왼쪽 눈썹이 내려간 상태에 따른 소속함수이고, 도 3(d)는 오른쪽 눈썹이 내려간 상태에 따른 소속함수이다.3 (a) and 3 (b) illustrate membership functions of the eyebrow state input fuzzy variables input to the user's emotional recognition apparatus. FIG. 3 (a) FIG. 3 (c) is a membership function according to a state where the left eyebrow is descending, and FIG. 3 (d) is a membership function according to a state where the right eyebrow is descending.
사용자는 상기 눈썹 상태 분류부(110)를 통해 상기 도 3(a) 내지 도 3(d)의 소속함수를 3가지 종류로 구분하여 정의될 수 있도록 하며, S(Small), M(Medium), L(Large) 표기를 사용하여 정의한다.3 (a) to 3 (d) can be defined by dividing the belonging function into three types through the eyebrow
사용자 얼굴 표정 정보는 다음의 표 1과 같이 정의한다.The user facial expression information is defined as shown in Table 1 below.
눈썹 상태
(EXP_BROW)
Eyebrow condition
(EXP_BROW)
입 상태
(EXT_MOUTH)
Mouth condition
(EXT_MOUTH)
머리 상태
(EXP_HEAD)
Head condition
(EXP_HEAD)
눈 상태
(EXP_EYE)
Eye condition
(EXP_EYE)
도 4는 눈썹 상태 출력의 소속함수를 나타낸 예시도로서, 퍼지화를 통해 추론된 감정 상태를 화남(Ang), 공포(Fer), 슬픔(Sad), 보통(Nor), 부끄러움(Sha), 놀라움(Sup), 기쁨(Joy)의 7가지로 정의하여, 각각의 감정 상태가 출력될 수 있도록 한다.FIG. 4 shows an example of the belonging function of the eyebrow state output. The emotion states deduced through the fuzzy processing are shown as Ang, F, Sad, Nor, Sha, (Sup), and joy (Joy), so that each emotion state can be output.
도 5는 사용자 감성 인식 장치의 눈썹 상태에 대한 퍼지 룰 베이스를 정의하는 화면을 나타낸 예시도로서, 룰 베이스 설정 화면(600)에서, 사용자가 눈썹의 상태를 정의하기 위한 입력 조건 정의(610)를 선택하여, 눈썹의 상태에 따른 다수의 조건문(620)을 설정하고, 이러한 입력 조건 정의(610)는 도 6과 같이 눈썹 상태에 대한 퍼지 룰 베이스에 의해 설정된 조건문을 3차원 공간으로 나타낼 수도 있다.5 is a diagram illustrating a screen for defining a fuzzy rule base for the eyebrow state of the user's emotional recognition apparatus. In the rule
도 7은 슬픈 감정 상태에서 눈썹 상태에 대한 비퍼지화 결과를 나타낸 예시도로서, 퍼지화를 통해 추론된 감정 상태를 각각의 감정 상태에 따라 비퍼지화(Defuzzification)하여 일반적인 수치 값(630)으로 출력될 수 있도록 한다.FIG. 7 illustrates an example of a result of non-fuzzification of eyebrows in a sad emotional state. The emotion state deduced through fuzzification is defuzzified according to each emotional state to obtain a general numerical value 630 Output.
도 8은 사용자 감성 인식 장치의 눈썹 상태에 대한 퍼지 룰 베이스를 정의하는 화면을 나타낸 예시도로서, 상기 입 상태 분류부(120)를 통해 눈썹 상태의 설정과 같이, 입 상태에 따른 소속함수를 3가지 종류로 구분하여 정의될 수 있도록 하며, S(Small), M(Medium), L(Large) 표기를 사용하여 정의하고, 퍼지화를 통해 추론된 감정 상태를 화남(Ang), 공포(Fer), 슬픔(Sad), 보통(Nor), 부끄러움(Sha), 놀라움(Sup), 기쁨(Joy)의 7가지로 정의하여, 각각의 감정 상태가 출력 소속함수를 통해 제공될 수 있도록 입력 조건 정의를 통한 조건문을 설정한다.8 is a diagram illustrating an example of a screen for defining a fuzzy rule base for the eyebrow state of the user's emotional recognition apparatus. Referring to FIG. 8, We define them by using S (Small), M (Medium), and L (Large) notation. The emotion states deduced from fuzzy are defined as Ang, , The definition of input condition is defined so that each emotional state can be provided through the output membership function by defining seven kinds of sadness (Sad), normal (Nor), shame (Sha), surprise (Sup), and joy Set conditional statements through.
도 9는 사용자 감성 인식 장치의 머리 상태에 대한 퍼지 룰 베이스를 정의하는 화면을 나타낸 예시도로서, 상기 머리 상태 분류부(130)를 통해 머리 상태에 따른 소속함수를 3가지 종류로 구분하여 정의하며, S(Small), M(Medium), L(Large) 표기를 사용하여 정의하고, 퍼지화를 통해 추론된 감정 상태를 화남(Ang), 공포(Fer), 슬픔(Sad), 보통(Nor), 부끄러움(Sha), 놀라움(Sup), 기쁨(Joy)의 7가지로 정의하여, 각각의 감정 상태가 출력 소속함수를 통해 제공될 수 있도록 입력 조건 정의를 통한 조건문을 설정한다.9 is a diagram illustrating a screen for defining a fuzzy rule base for the head state of the user's emotional recognition apparatus. The head
도 10은 사용자 감성 인식 장치의 눈 상태에 대한 퍼지 룰 베이스를 정의하는 화면을 나타낸 예시도로서, 상기 눈 상태 분류부(140)를 통해 눈 상태에 따른 소속함수를 3가지 종류로 구분하여 정의하며, S(Small), M(Medium), L(Large) 표기를 사용하여 정의하고, 퍼지화를 통해 추론된 감정 상태를 화남(Ang), 공포(Fer), 슬픔(Sad), 보통(Nor), 부끄러움(Sha), 놀라움(Sup), 기쁨(Joy)의 7가지로 정의하여, 각각의 감정 상태가 출력 소속함수를 통해 제공될 수 있도록 입력 조건 정의를 통한 조건문을 설정한다.10 is a diagram illustrating a screen for defining a fuzzy rule base with respect to an eye state of the user's emotional recognition apparatus. The fuzzy rule base according to the eye state is classified into three types and defined through the eye
상기 감정 상태 분석부(200)는 사용자의 음성 및 영상을 미리 설정된 감정 상태 프로그램으로 분석한 사용자의 감정 상태 정보를 적응형 뉴로 퍼지 추론부(300)의 입력에 대한 소속함수로 제공하는 구성으로서, 예를 들면, 사용자의 대화 목소리가 인터페이스 장치(예를 들면, 대화형 로봇)에 설치된 마이크에 인가되면, 디지털 음성 스트리밍 데이터로 가공되어 상기 인터페이스 장치 또는 원격지의 서버(예를 들면, 인공지능 클라이언 서버)에 전달되고, 상기 인터페이스 장치 또는 서버에 설치된 감정 상태 분석 프로그램에서 상기 전달된 음성 정보를 바탕으로 음성을 이용한 대화자의 감정 상태를 분석한 결과를 수신하여 적응형 뉴로 퍼지 추론부(300)의 소속함수로 제공되도록 한다.The emotion
또한, 상기 감정 상태 분석부(200)는 사용자의 얼굴이 인터페이스 장치에 설치된 카메라에 촬영되면, 상기 사용자 얼굴을 디지털 영상 스트리밍 데이터로 가공되어 상기 인터페이스 장치 또는 원격지의 서버에 전달되고, 상기 인터페이스 장치 또는 서버에 설치된 감정 상태 분석 프로그램에서 상기 전달된 영상 정보를 바탕으로 영상을 이용한 대화자의 감정 상태를 분석한 결과를 수신하여 적응형 뉴로 퍼지 추론부(300)의 소속함수로 제공되도록 한다.When the user's face is photographed by a camera installed in the interface device, the user's face is processed into digital image streaming data and transmitted to the server of the interface device or the remote site, The emotion state analysis program installed in the server receives the result of analyzing the emotional state of the talker using the image based on the delivered image information and provides the result as a belonging function of the adaptive neuro
상기 적응형 뉴로 퍼지 추론부(300)는 상기 퍼지 논리 분류부(100)와 감정 상태 분석부(200)에서 제공되는 도 11 내지 도 13과 같은 입력 소속함수 정보에 대하여 퍼지 규칙(Fuzzy Rule)과, 추론 과정(The process of fuzzy reasoning)을 신경망(Neural network) 구조로 이루어진 추론 모델을 이용하여 출력을 계산하고, 상기 계산된 값과 목표 출력의 오차가 감소되도록 매개변수를 조정하여 평균 제곱근 에러(Root Mean Square: RMS) 값이 미리 설정된 기준값 이하가 되도록 학습과정을 수행하며, 상기 학습결과를 이용하여 사용자의 감정 상태를 인식한다.The adaptive
상기 추론 모델은 전건부(premise part)와, 후건부(consequence part)로 구분되고, 상기 전건부는 입력 변수를 전체 집합 상으로 설정하기 위한 층과, 전건부의 각 입력 변수에 소속함수(membership funcrion)를 할당하여 입력이 주어졌을 때, 그 소속정도를 출력하며, 상기 후건부는 실제 제어량 발생을 위한 최종 추론값을 계산한다.The reasoning model is divided into a premise part and a consequence part. The predicate part includes a layer for setting input variables as a whole set, a membership function for each input variable of the predicate part, And outputs the degree of belonging when the input is given, and the latter calculates the final inference value for generating the actual control amount.
또한, 상기 적응형 뉴로 퍼지 추론부(300)는 역전파 학습 프로그램을 통해 학습과정을 수행하는데, 입력 데이터에 대한 실제 출력을 전방향 단계를 통해 계산하고, 목표 출력과의 오차를 최소화하도록 역방향 단계를 통해 조정 매개변수, 즉 전건부 소속함수의 위치 및 폭과 후건부 선형식의 계수 등을 조정한다.The adaptive neuro
즉 상기 적응형 뉴로 퍼지 추론부(300)는 각 입력 소속함수의 중심과 폭을 조정하여 입력과 출력의 룰 베이스를 재조정하는 학습과정을 수행하고, 학습이 종료되면, 전건부 소속함수의 중심과 폭의 값, 후건부의 가중치 값을 저장하고, 재시작 또는 재학습을 수행하는 과정에 초기화 데이터로 사용되도록 한다.That is, the adaptive
한편, 본 발명에 따른 상기 사용자 감성 인식 장치는 사용자의 심방 박동수, 사용자의 접촉 및 터치 시간, 사용자의 동작 속도 중 적어도 하나 이상을 검출하여 사용자의 감정 상태에 대한 소속함수로 상기 적응형 뉴로 퍼지 추론부(300)로 출력하는 센서부(400)를 더 포함하여 구성된다.Meanwhile, the user's emotional recognition apparatus according to the present invention detects at least one of a user's atrial heart rate, a user's touch and touch time, and an operation speed of a user, and detects the adaptive neuro fuzzy inference function as a membership function for a user's emotional state. And a sensor unit (400) for outputting the signal to the controller (300).
상기 센서부(400)는 사용자의 심장 박동수, 접촉 여부 등을 감지할 수 있는 센서로서, 사용자의 심장 박동을 측정할 수 있는 센서가 인터페이스 장치 또는 대화형 로봇에 설치되어 사용자의 심장 박동이 측정되면, 상기 사용자의 심장 박동수를 측정하여 소속함수로 정의하여 도 14와 같이, 적응형 뉴로 퍼지 추론부(300)의 입력 소속함수로 제공될 수 있도록 한다.The
또한, 상기 센서부(400)는 사용자의 접촉 여부를 감지할 수 있는 센서로서, 사용자의 접촉 여부를 감지할 수 있는 센서가 인터페이스 장치 또는 대화형 로봇의 예를 들면, 머리, 어깨, 가슴 등에 설치되어 사용자의 접촉 여부를 감지하면, 터치 여부와 터치 시간을 이용하여 입력 데이터로서, 소속함수를 정의하여 적응형 뉴로 퍼지 추론부(300)의 입력 소속함수로 제공될 수 있다.The
또한, 2개 이상의 센서가 사용될 경우 센서 터치 시간의 평균값을 계산하여 사용할 수 있도록 한다.Also, when two or more sensors are used, the average value of sensor touch time is calculated and used.
상기 데이터 베이스(500)는 사용자의 감성 정보를 저장하는 구성으로서, 학습이 완료된 시스템의 전건부 소속함수 정보(예를 들면, 소속함수의 중심과 폭의 값)와 후건부 출력 함수의 가중치(계수) 값 등을 저장한다.The
상기 재학습부(700)는 관리자에 의해 설정된 학습 조건이나, 미리 설정된 자동 재학습 조건이나, 사용자의 서비스 불만족도가 증가하여 관리자가 사용을 중지하고 임의로 재학습을 실행하는 경우 적응형 뉴로 퍼지 추론부(300)로 재학습의 진행을 요청한다.If the
다음은 본 발명에 따른 사용자 감성 인식장치의 동작과정을 설명한다.The operation of the user emotion recognition apparatus according to the present invention will now be described.
사용자가 퍼지 논리 분류부(100)와 감정 상태 분석부(200)의 입출력 데이터 쌍을 정의하여 준비(S100)하고, 적응형 뉴로 퍼지 추론부(300)는 소속함수를 초기화(S110)한다.The user defines and prepares input / output data pairs of the fuzzy
상기 S110 단계를 수행한 다음, 상기 적응형 뉴로 퍼지 추론부(300)는 상기 S100 단계에서 정의한 입출력 데이터 쌍을 입력(S120)받아 평균 제곱근 오차(RMSE) 값을 검출(S130)한다.After performing step S110, the adaptive
상기 적응형 뉴로 퍼지 추론부(300)는 상기 S130 단계에서 계산된 값과 목표 출력의 오차가 감소되도록 매개변수를 조정하여 평균 제곱근 에러(Root Mean Square: RMS) 값이 미리 설정된 기준값 이하가 되도록 역전파 학습 알고리즘을 이용하여 수행(S140)한다.The adaptive neuro
상기 S140 단계의 역전파 학습 알고리즘에 의한 학습과정을 통해 적응형 뉴로 퍼지 추론부(300)는 전방향 단계를 통해 입력 데이터에 대한 실제 출력을 계산하고, 목표 출력과의 오차를 최소화하도록 역방향 단계를 통해 전건부 소속함수의 중심 위치 및 폭을 조정(S150)하고, 후건부 소속함수의 선형 계수값을 조정(S160)하며, 평균 제곱근 오차 값이 미리 설정된 기준값 이하인지 여부를 판단(S170)한다.Through the learning process by the back propagation learning algorithm in step S140, the adaptive neuro
상기 S170 단계의 판단결과, 상기 S170 단계의 평균 제곱근 오차 값이 기준값 이하면, 상기 S150 단계 및 S160 단계에서 조정된 전건부 소속함수의 중심 위치와 폭의 값, 후건부의 가중치 값을 저장(S180)하고, 재시작 또는 재학습을 수행하는 과정에 초기화 데이터로 사용(S190)될 수 있도록 하며, 상기 S170 단계의 평균 제곱근 오차 값이 기준값 이상이면, 미리 설정된 학습률을 조정(S200)하여 상기 S130 단계 내지 S160 단계가 재수행되도록 한다.If it is determined in step S170 that the average square root error value in step S170 is less than the reference value, the central position, width value, and weight value of the forehead part of the forehead part belonging function adjusted in steps S150 and S160 are stored If the average square root error value in step S170 is equal to or greater than the reference value, the preset learning rate is adjusted (S200), and the steps S130 to S160 Allow the step to be run again.
상기 S180 단계를 수행한 다음, 학습이 완료된 감성인식 장치는 오프라인에 설치된 로봇 등의 감성인식 서비스 시스템에 설치되어 실시간으로 동작하며, 감성인식 서비스 과정에서 발생되는 입출력 데이터는 실시간으로 데이터 베이스 또는 로컬의 임의의 저장위치에 저장한다.After the step S180, the learned emotion recognition device is installed in the emotion recognition service system such as a robot installed offline, operates in real time, and the input / output data generated in the emotion recognition service process is stored in the database or local And stores it in an arbitrary storage location.
또한, 상기 저장된 입출력 데이터는 감성인식 서비스의 휴지기에 자동으로 재학습을 수행한다.In addition, the stored input / output data is automatically re-learned in a rest period of the emotion recognition service.
상기 재학습 조건은 관리자에 의해 설정 가능하고, 로봇이 자동으로 재학습을 수행하였지만, 사용자의 서비스 불만족도 증가시 관리자가 사용을 중지하고 임의로 재학습을 수행할 수 있다.The re-learning condition can be set by the administrator, and the robot automatically performs the re-learning, but when the service dissatisfaction of the user also increases, the administrator can stop using the service and arbitrarily re-learn.
따라서 사용자의 감정 상태를 판단하기 위한 다양한 입력 정보를 역전파 학습을 통해 각 입력 소속함수의 중심 및 폭과 입력 및 출력의 룰 베이스를 조정하여 사용자의 감정 상태를 정확하게 판단할 수 있게 된다.Accordingly, it is possible to accurately determine the emotional state of the user by adjusting the center and width of each input membership function and the rule base of input and output through various kinds of input information for judging the user's emotional state through back propagation learning.
상기와 같이, 본 발명의 바람직한 실시 예를 참조하여 설명하였지만 해당 기술 분야의 숙련된 당업자라면 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it will be understood by those skilled in the art that various changes and modifications may be made without departing from the spirit and scope of the invention as defined in the appended claims. It can be understood that
또한, 본 발명의 실시예를 설명하는 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있으며, 상술된 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있으므로, 이러한 용어들에 대한 해석은 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In the course of the description of the embodiments of the present invention, the thicknesses of the lines and the sizes of the components shown in the drawings may be exaggerated for clarity and convenience of explanation, , Which may vary depending on the intentions or customs of the user, the operator, and the interpretation of such terms should be based on the contents throughout this specification.
100 : 퍼지 논리 분류부
110 : 눈썹 상태 분류부
120 : 입 상태 분류부
130 : 머리 상태 분류부
140 : 눈 상태 분류부
200 : 감정 상태 분석부
300 : 적응형 뉴로 퍼지 추론부
400 : 센서부
500 : 데이터 베이스
600 : 룰 베이스 설정 화면
610 : 입력 조건 정의
620 : 조건문
700 : 재학습부100: fuzzy logic classification unit
110: eyebrow condition classification unit
120: mouth condition classification unit
130: head state classification section
140: eye state classification unit
200: emotional state analysis unit
300: adaptive neuro fuzzy inference unit
400:
500: database
600: Rule Base Setup Screen
610: Define input conditions
620: Conditional statement
700: re-learning department
Claims (14)
사용자의 음성 및 영상을 미리 설정된 감정 상태 프로그램으로 분석한 사용자의 감정 상태 정보를 적응형 뉴로 퍼지 추론부(300)의 입력에 대한 소속함수로 제공하는 감정 상태 분석부(200); 및
상기 퍼지 논리 분류부(100)와 감정 상태 분석부(200)에서 제공되는 입력 정보에 대한 출력을 계산하고, 상기 계산된 값과 목표 출력의 오차가 감소되도록 매개변수를 조정하여 평균 제곱근 에러(Root Mean Square: RMS) 값이 미리 설정된 기준값 이하가 되도록 학습과정을 수행하며, 상기 학습결과를 이용하여 사용자의 감정 상태를 인식하는 적응형 뉴로 퍼지 추론부(300)를 포함하는 사용자 감성 인식 장치.A fuzzy logic classification unit (100) for providing emotion state information of a user analyzed based on a facial expression of a user as a membership function for an input of an adaptive neuro fuzzy reasoning unit (300);
An emotion state analyzer 200 for providing emotion state information of a user analyzing a user's voice and an image with a preset emotion state program as a membership function for an input of the adaptive neurofuzzy inference unit 300; And
Calculates outputs of the input information provided by the fuzzy logic classifier (100) and the emotion state analyzer (200), adjusts the parameters so that the error between the calculated values and the target output is reduced, And an adaptive neurofuzzy inference unit (300) that performs a learning process so that a mean square (RMS) value is less than or equal to a preset reference value, and recognizes a user's emotional state using the learning result.
상기 사용자 감성 인식 장치는 사용자의 심방 박동수, 사용자의 접촉 및 터치 시간, 사용자의 동작 속도 중 적어도 하나 이상을 검출하여 사용자의 감정 상태에 대한 소속함수로 상기 적응형 뉴로 퍼지 추론부(300)로 출력하는 센서부(400)를 더 포함하는 것을 특징으로 하는 사용자 감성 인식 장치.The method according to claim 1,
The user's emotional recognition apparatus detects at least one of a user's atrial heartbeat, a user's touch and touch time, and a user's operation speed and outputs it to the adaptive neuro fuzzy reasoning unit 300 as a membership function for the user's emotional state And a sensor unit (400) for recognizing the user's senses.
상기 퍼지 논리 분류부(100)의 얼굴 표정은 눈썹의 위치, 입의 모양, 머리의 위치 및 방향, 눈의 위치 및 방향을 포함하는 것을 특징으로 하는 사용자 감성 인식 장치.The method according to claim 1,
Wherein the facial expression of the fuzzy logic classifier (100) includes a position of an eyebrow, a shape of a mouth, a position and a direction of a head, and a position and direction of an eye.
상기 퍼지 논리 분류부(100)는 얼굴 표정을 미리 설정된 입력과 출력의 룰 베이스에 따라 퍼지화(Fuzzification)하여 감정 상태를 추출하는 것을 특징으로 하는 사용자 감성 인식 장치.The method of claim 3,
Wherein the fuzzy logic classifier (100) extracts an emotional state by fuzzifying the facial expression according to a rule base of a preset input and output.
상기 퍼지 논리 분류부(100)는 퍼지화를 통해 추론된 감정 상태를 비퍼지화(Defuzzification)하여 일반적인 수치 값으로 출력하는 것을 특징으로 하는 사용자 감성 인식 장치.5. The method of claim 4,
Wherein the fuzzy logic classifier (100) performs defuzzification of the inferred emotion state through fuzzy logic, and outputs the result as a general numerical value.
상기 퍼지 논리 분류부(100)는 사용자의 감정 상태를 화남(Ang), 공포(Fer), 슬픔(Sad), 보통(Nor), 부끄러움(Sha), 놀라움(Sup), 기쁨(Joy)으로 구분하는 것을 특징으로 하는 사용자 감성 인식 장치.The method according to claim 1,
The fuzzy logic classification unit 100 classifies the user's emotional state into Ang, Fear, Sad, Nor, Sha, Sup, and Joy Wherein the user emotion recognition apparatus comprises:
상기 적응형 뉴로 퍼지 추론부(300)는 각 입력 소속함수의 중심과 폭을 조정하여 입력과 출력의 룰 베이스를 재조정하는 학습과정을 수행하는 것을 특징으로 하는 사용자 감성 인식 장치.The method according to claim 1,
Wherein the adaptive neurofuzzy inference unit (300) performs a learning process of rearranging input and output rule bases by adjusting the center and width of each input membership function.
상기 적응형 뉴로 퍼지 추론부(300)는 학습이 종료되면, 전건부 소속함수의 중심과 폭의 값, 후건부의 가중치 값을 저장하고, 재시작 또는 재학습을 수행하는 과정에 초기화 데이터로 사용하는 것을 특징으로 하는 사용자 감성 인식 장치.8. The method of claim 7,
The adaptive neurofuzzy inference unit 300 stores the center value, the width value, and the weight value of the forehead portion belonging to the forehead function when the learning ends, and uses the initial value as the initialization data in the process of restarting or re-learning And a user emotion recognition device.
상기 적응형 뉴로 퍼지 추론부(300)는 역전파 학습과정을 수행하는 것을 특징으로 하는 사용자 감성 인식 장치.8. The method of claim 7,
Wherein the adaptive neurofuzzy inference unit (300) performs a backpropagation learning process.
b) 적응형 뉴로 퍼지 추론부(300)가 소속함수를 초기화하고, 상기 a) 단계에서 정의한 입출력 데이터를 입력받아 평균 제곱근 오차(RMSE) 값을 검출하는 단계;
c) 상기 적응형 뉴로 퍼지 추론부(300)가 역전파 학습 알고리즘을 이용하여 학습을 수행하는 단계;
d) 학습이 종료되면, 상기 적응형 뉴로 퍼지 추론부(300)가 전건부 소속함수의 중심 및 폭과 후건부 소속함수의 선형 계수값을 조정하고, 상기 평균 제곱근 오차 값이 미리 설정된 기준값 이하인지 여부를 판단하는 단계; 및
e) 상기 판단결과, 평균 제곱근 오차 값이 기준값 이하면, 상기 조정된 전건부 소속함수의 중심 및 폭과 후건부 소속함수의 선형 계수값을 데이터 베이스(500)에 저장하는 단계를 포함하는 사용자 감성 인식 방법.a) defining and preparing input / output data pairs by the fuzzy logic classifier (100) and the emotion state analyzer (200);
b) initializing the belonging function by the adaptive neurofuzzy inference unit 300, receiving input and output data defined in the step a), and detecting a mean square root mean square error (RMSE) value;
c) the adaptive neurofuzzy inference unit 300 performs learning using a backpropagation learning algorithm;
d) When the learning ends, the adaptive neurofuzzy inference unit 300 adjusts the center and width of the forehead part belonging function and the linear coefficient value of the backward part belonging function, and if the mean square root error value is less than a preset reference value ; And
e) if the average root-mean-square error value is less than the reference value, storing the center value and the width of the adjusted forehead-portion belonging function and the linear coefficient value of the rear-part belonging function in the database 500 Recognition method.
상기 d) 단계의 학습 종료는 발생되는 평균 제곱근 오차 값이 미리 설정된 수렴 조건값 이하면 종료되는 것을 특징으로 하는 사용자 감성 인식 방법.11. The method of claim 10,
Wherein the ending of the learning in the step d) is ended when the generated mean square error value is less than a preset convergence condition value.
상기 e) 단계는 상기 평균 제곱근 오차 값이 기준값 이상이면, 학습률을 조정하여 상기 c) 및 d) 단계를 재수행하는 것을 특징으로 하는 사용자 감성 인식 방법.11. The method of claim 10,
Wherein if the average square root error value is equal to or greater than a reference value, the learning rate is adjusted to re-execute the steps c) and d).
상기 e) 단계에서 저장된 전건부 소속함수의 중심 및 폭과 후건부 소속함수의 선형 계수값은 상기 적응형 뉴로 퍼지 추론부(300)가 재시작 또는 재학습을 수행할 경우 소속함수의 초기화 데이터로 사용되는 것을 특징으로 하는 사용자 감성 인식 방법.11. The method of claim 10,
The center and the width of the forehead part belonging function stored in step e) and the linear coefficient values of the backward part belonging function are used as initialization data of the belonging function when the adaptive neurofuzzy inferring part 300 performs restart or re-learning Wherein the user emotion recognition method comprises the steps of:
상기 e) 단계는 학습이 완료된 다음 감성인식 서비스 과정에서 입력되는 입출력 데이터를 실시간으로 저장되고, 상기 저장된 입출력 데이터는 감성인식 서비스의 휴지기에 추가 학습을 수행하는 단계를 더 포함하는 것을 특징으로 하는 사용자 감성 인식 방법.11. The method of claim 10,
Wherein the step (e) further comprises the step of storing input / output data inputted in the emotion recognition service process after learning is completed in real time, and the stored input / output data further learning is performed in a pauser of the emotion recognition service Emotion recognition method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170109972A KR102044786B1 (en) | 2017-08-30 | 2017-08-30 | Apparatus and method for emotion recognition of user |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170109972A KR102044786B1 (en) | 2017-08-30 | 2017-08-30 | Apparatus and method for emotion recognition of user |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190023749A true KR20190023749A (en) | 2019-03-08 |
KR102044786B1 KR102044786B1 (en) | 2019-11-14 |
Family
ID=65800851
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170109972A KR102044786B1 (en) | 2017-08-30 | 2017-08-30 | Apparatus and method for emotion recognition of user |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102044786B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220005945A (en) * | 2020-07-07 | 2022-01-14 | 주식회사 유엑스팩토리 | Method, system and non-transitory computer-readable recording medium for generating a data set on facial expressions |
KR102374233B1 (en) * | 2021-02-03 | 2022-03-16 | 주식회사 루츠바이오 | Smart diffuser |
KR20220069677A (en) * | 2020-11-20 | 2022-05-27 | 오로라월드 주식회사 | Method And Apparatus for Classifying Emotion Based on Multi-Modal |
CN117784630A (en) * | 2023-12-28 | 2024-03-29 | 广东启现智能家具有限公司 | Intelligent home control method and system based on emotion recognition |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09231079A (en) * | 1996-02-28 | 1997-09-05 | Hitachi Ltd | Fuzzy inference system and fuzzy rule organization system |
KR100850352B1 (en) | 2006-09-26 | 2008-08-04 | 한국전자통신연구원 | Emotion Expression Apparatus for Intelligence Robot for expressing emotion using status information and Method thereof |
KR20090055426A (en) * | 2007-11-28 | 2009-06-02 | 중앙대학교 산학협력단 | Emotion recognition mothod and system based on feature fusion |
KR20120092846A (en) * | 2011-02-14 | 2012-08-22 | 충남대학교산학협력단 | System and method for multi-modality emotion recognition and recording medium thereof |
-
2017
- 2017-08-30 KR KR1020170109972A patent/KR102044786B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09231079A (en) * | 1996-02-28 | 1997-09-05 | Hitachi Ltd | Fuzzy inference system and fuzzy rule organization system |
KR100850352B1 (en) | 2006-09-26 | 2008-08-04 | 한국전자통신연구원 | Emotion Expression Apparatus for Intelligence Robot for expressing emotion using status information and Method thereof |
KR20090055426A (en) * | 2007-11-28 | 2009-06-02 | 중앙대학교 산학협력단 | Emotion recognition mothod and system based on feature fusion |
KR20120092846A (en) * | 2011-02-14 | 2012-08-22 | 충남대학교산학협력단 | System and method for multi-modality emotion recognition and recording medium thereof |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220005945A (en) * | 2020-07-07 | 2022-01-14 | 주식회사 유엑스팩토리 | Method, system and non-transitory computer-readable recording medium for generating a data set on facial expressions |
KR20220069677A (en) * | 2020-11-20 | 2022-05-27 | 오로라월드 주식회사 | Method And Apparatus for Classifying Emotion Based on Multi-Modal |
WO2022108057A1 (en) * | 2020-11-20 | 2022-05-27 | 오로라월드 주식회사 | Multi-modal apparatus and method for classifying emotions |
KR102374233B1 (en) * | 2021-02-03 | 2022-03-16 | 주식회사 루츠바이오 | Smart diffuser |
CN117784630A (en) * | 2023-12-28 | 2024-03-29 | 广东启现智能家具有限公司 | Intelligent home control method and system based on emotion recognition |
Also Published As
Publication number | Publication date |
---|---|
KR102044786B1 (en) | 2019-11-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106457563B (en) | Humanoid robot and method for executing dialogue between humanoid robot and user | |
KR102044786B1 (en) | Apparatus and method for emotion recognition of user | |
KR102448382B1 (en) | Electronic device for providing image related with text and operation method thereof | |
US10796226B2 (en) | Laser processing apparatus and machine learning device | |
KR101697476B1 (en) | Method for recognizing continuous emotion for robot by analyzing facial expressions, recording medium and device for performing the method | |
Cruz et al. | Multi-modal integration of dynamic audiovisual patterns for an interactive reinforcement learning scenario | |
Feng et al. | Learn2smile: Learning non-verbal interaction through observation | |
WO2002099545A1 (en) | Man-machine interface unit control method, robot apparatus, and its action control method | |
KR101970297B1 (en) | Robot system for generating and representing emotion and method thereof | |
JP2005199403A (en) | Emotion recognition device and method, emotion recognition method of robot device, learning method of robot device and robot device | |
Saxena et al. | Hand gesture recognition using an android device | |
CN109643153A (en) | Equipment for influencing the virtual objects of augmented reality | |
KR20210070029A (en) | Device, method, and program for enhancing output content through iterative generation | |
KR102229056B1 (en) | Apparatus and method for generating recognition model of facial expression and computer recordable medium storing computer program thereof | |
Costantini et al. | Multi-agent system engineering for emphatic human-robot interaction | |
Botzheim et al. | Gestural and facial communication with smart phone based robot partner using emotional model | |
Nishimura et al. | Design support system for emotional expression of robot partners using interactive evolutionary computation | |
US11691291B2 (en) | Apparatus and method for generating robot interaction behavior | |
Siqueira et al. | Disambiguating affective stimulus associations for robot perception and dialogue | |
US12011828B2 (en) | Method for controlling a plurality of robot effectors | |
Lee et al. | Multi-cue contingency detection | |
Somashekarappa et al. | Neural network implementation of gaze-target prediction for human-robot interaction | |
Vineetha et al. | Face expression detection using Microsoft Kinect with the help of artificial neural network | |
Harit et al. | Facial emotions recognition using gabor transform and facial animation parameters with neural networks | |
CN114998700B (en) | Immersion degree calculation method and system for multi-feature fusion in man-machine interaction scene |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |