KR20190023749A - Apparatus and method for emotion recognition of user - Google Patents

Apparatus and method for emotion recognition of user Download PDF

Info

Publication number
KR20190023749A
KR20190023749A KR1020170109972A KR20170109972A KR20190023749A KR 20190023749 A KR20190023749 A KR 20190023749A KR 1020170109972 A KR1020170109972 A KR 1020170109972A KR 20170109972 A KR20170109972 A KR 20170109972A KR 20190023749 A KR20190023749 A KR 20190023749A
Authority
KR
South Korea
Prior art keywords
user
input
learning
value
unit
Prior art date
Application number
KR1020170109972A
Other languages
Korean (ko)
Other versions
KR102044786B1 (en
Inventor
서재용
Original Assignee
(주)휴머노이드시스템
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)휴머노이드시스템 filed Critical (주)휴머노이드시스템
Priority to KR1020170109972A priority Critical patent/KR102044786B1/en
Publication of KR20190023749A publication Critical patent/KR20190023749A/en
Application granted granted Critical
Publication of KR102044786B1 publication Critical patent/KR102044786B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06K9/627
    • G06K9/00221
    • G06K9/00885
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/043Architecture, e.g. interconnection topology based on fuzzy logic, fuzzy membership or fuzzy inference, e.g. adaptive neuro-fuzzy inference systems [ANFIS]
    • G06N3/0436
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Acoustics & Sound (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Signal Processing (AREA)
  • Child & Adolescent Psychology (AREA)
  • Psychiatry (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Hospice & Palliative Care (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Fuzzy Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Manipulator (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

The present invention is to provide an apparatus and a method for recognizing a user emotion, which can accurately determines a user emotional state by adjusting the center and width of each input membership function of an adaptive neuro-fuzzy inference unit and a rule base of the input and output through backpropagation learning of a variety of input information for determining the user emotional state. The apparatus of the present invention comprises: a fuzzy logic classifying unit for providing user emotional state information analyzed based on a facial expression of a user as a membership function for input of an adaptive neuro-fuzzy inference unit; an emotional state analyzing unit for providing the user emotional state information obtained by analyzing a voice and an image of the user with a predetermined emotional state program as the membership function for input of the adaptive neuro-fuzzy inference unit; and an adaptive neuro-fuzzy inference unit for calculating an output for input information provided by the fuzzy logic classifying unit and the emotional state analyzing unit, performing a learning process to allow a root mean square (RMS) error value to be a preset reference value or less by adjusting a parameter to reduce an error of a calculation value and a target output, and recognizing a user emotional state using a learning result. Therefore, according to the present invention, a user emotional state can be accurately determined by adjusting the center and width of each input membership function and a rule base of the input and output through backpropagation learning of a variety of input information for determining the user emotional state.

Description

사용자 감성 인식 장치 및 방법{APPARATUS AND METHOD FOR EMOTION RECOGNITION OF USER}[0001] APPARATUS AND METHOD FOR EMOTION RECOGNITION OF USER [0002]

본 발명은 사용자 감성 인식 장치 및 방법에 관한 발명으로서, 더욱 상세하게는 사용자의 감정 상태를 판단하기 위한 다양한 입력 정보를 역전파 학습을 통해 적응형 뉴로 퍼지 추론부의 각 입력 소속함수의 중심 및 폭과 입력 및 출력의 룰 베이스를 조정하여 사용자의 감정 상태를 정확하게 판단하는 사용자 감성 인식 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for recognizing user's emotions, and more particularly, to an apparatus and method for recognizing user's emotions, And more particularly, to a user emotion recognition apparatus and method for accurately determining a user's emotion state by adjusting a rule base of input and output.

최근 들어, 삶 속에서 사용자의 편의를 도모하기 위해 사용자가 의도하는 해당 작업을 돕는 로봇 분야에 대한 개발이 활발하게 이루어지고 있다. 2. Description of the Related Art In recent years, in order to facilitate user's convenience in life, development of a robot field for supporting a user's intended work has been actively performed.

특히, 사용자와 로봇 간에 상호작용을 통해 로봇이 지능적으로 판단하고 그 결과에 따른 동작을 수행할 수 있는 지능형 로봇 분야에 관심이 모아지고 있다.In particular, there is a growing interest in the field of intelligent robots that enables a robot to intelligently determine the interaction between a user and a robot and to perform an operation according to the result.

현재 개발되고 있는 지능형 로봇은 단순한 외적 센서 정보를 이용하여 미리 정의된 조건에 따라 해당 감성을 생성하거나 해당하는 행동을 표현하는 등의 인간과 보다 유사한 감성을 생성 및 표현하는 분야로 개발되고 있다.Currently developed intelligent robots are being developed to generate and express emotions that are more similar to humans, such as generating sensations according to predefined conditions or expressing corresponding behaviors using simple external sensor information.

또한, 지능형 로봇은 카메라를 통해 촬영한 영상을 통해 인간의 감성 상태를 파악하여 감성 생성에 반영함으로써, 인간과의 상호 작용이 가능한 형태의 연구가 활발히 이루어지고 있다.In addition, intelligent robots are actively studying forms that can interact with humans by reflecting emotional states of human beings through images captured through cameras and reflecting them on emotional generation.

이와 같이, 카메라를 통해 촬영한 영상의 인식 정보를 이용하여 인간의 감성을 파악하거나, 마이크를 이용한 음성 인식을 통해 음성의 강도, 템포, 및 억양 등을 파악하여 감성을 파악하는 것은 그 정확도 측면에서 한계가 있다. As described above, it is difficult to grasp the emotion of the human being by using the recognition information of the image photographed by the camera, or to grasp the intensity, tempo, and intonation of the voice through the voice recognition using the microphone, There is a limit.

한국 등록특허공보 등록번호 제10-0850352호(발명의 명칭: 상태 정보를 이용하여 감성을 표현하기 위한 지능형 로봇의 감성 표현 장치 및 방법)Korean Patent Registration No. 10-0850352 (entitled " Apparatus and method for emotion expression of intelligent robot for expressing emotion using state information "

이러한 문제점을 해결하기 위하여, 본 발명은 사용자의 감정 상태를 판단하기 위한 다양한 입력 정보를 역전파 학습을 통해 적응형 뉴로 퍼지 추론부의 각 입력 소속함수의 중심 및 폭과 입력 및 출력의 룰 베이스를 조정하여 사용자의 감정 상태를 정확하게 판단하는 사용자 감성 인식 장치 및 방법을 제공하는 것을 목적으로 한다.In order to solve such a problem, the present invention adjusts the center and width of each input membership function of the adaptive neuro fuzzy reasoning unit and the rule base of input and output through various kinds of input information for judging the emotional state of the user, And to provide a user emotion recognition apparatus and method that accurately determine the emotion state of a user.

상기한 목적을 달성하기 위하여 본 발명은 사용자의 얼굴 표정을 기반으로 분석한 사용자의 감정 상태 정보를 적응형 뉴로 퍼지 추론부의 입력에 대한 소속함수로 제공하는 퍼지 논리 분류부; 사용자의 음성 및 영상을 미리 설정된 감정 상태 프로그램으로 분석한 사용자의 감정 상태 정보를 적응형 뉴로 퍼지 추론부의 입력에 대한 소속함수로 제공하는 감정 상태 분석부; 및 상기 퍼지 논리 분류부와 감정 상태 분석부에서 제공되는 입력 정보에 대한 출력을 계산하고, 상기 계산된 값과 목표 출력의 오차가 감소되도록 매개변수를 조정하여 평균 제곱근 에러(Root Mean Square: RMS) 값이 미리 설정된 기준값 이하가 되도록 학습과정을 수행하며, 상기 학습결과를 이용하여 사용자의 감정 상태를 인식하는 적응형 뉴로 퍼지 추론부를 포함한다.According to an aspect of the present invention, there is provided a fuzzy logic classification unit comprising: a fuzzy logic classifier for providing emotion state information of a user based on facial expressions of a user as a membership function for input of an adaptive neuro fuzzy reasoning unit; An emotion state analyzing unit for providing emotion state information of a user who has analyzed a user's voice and an image with a preset emotion state program as a belonging function to the input of the adaptive neuro fuzzy reasoning unit; And calculating an output of the input information provided by the fuzzy logic classification unit and the emotion state analyzing unit and adjusting a parameter to reduce an error between the calculated value and a target output to obtain a root mean square error (RMS) The learning process is performed so that the value of the learning result is less than a predetermined reference value and the emotion state of the user is recognized using the learning result.

또한, 본 발명에 따른 상기 사용자 감성 인식 장치는 사용자의 심방 박동수, 사용자의 접촉 및 터치 시간, 사용자의 동작 속도 중 적어도 하나 이상을 검출하여 사용자의 감정 상태에 대한 소속함수로 상기 적응형 뉴로 퍼지 추론부로 출력하는 센서부를 더 포함하는 것을 특징으로 한다.In addition, the user's emotional recognition apparatus according to the present invention detects at least one of a user's atrial pulse rate, a user's touching and touching time, and a user's operation speed and outputs the adaptive neuro fuzzy inference function as a membership function for the user's emotional state. And a sensor unit for outputting a signal.

또한, 본 발명에 따른 상기 퍼지 논리 분류부의 얼굴 표정은 눈썹의 위치, 입의 모양, 머리의 위치 및 방향, 눈의 위치 및 방향을 포함하는 것을 특징으로 한다.In addition, the facial expression of the fuzzy logic classification unit according to the present invention is characterized by including a position of an eyebrow, a shape of a mouth, a position and a direction of a head, and a position and direction of an eye.

또한, 본 발명에 따른 상기 퍼지 논리 분류부는 얼굴 표정을 미리 설정된 입력과 출력의 룰 베이스에 따라 퍼지화(Fuzzification)하여 감정 상태를 추출하는 것을 특징으로 한다.The fuzzy logic classification unit according to the present invention is characterized by extracting an emotional state by fuzzification according to a rule base of a preset input and output facial expressions.

또한, 본 발명에 따른 상기 퍼지 논리 분류부는 퍼지화를 통해 추론된 감정 상태를 비퍼지화(Defuzzification)하여 일반적인 수치 값으로 출력하는 것을 특징으로 한다.Further, the fuzzy logic classifier according to the present invention is characterized in that the emotion state deduced through fuzzy logic is defuzzified and output as a general numerical value.

또한, 본 발명에 따른 상기 퍼지 논리 분류부는 사용자의 감정 상태를 화남(Ang), 공포(Fer), 슬픔(Sad), 보통(Nor), 부끄러움(Sha), 놀라움(Sup), 기쁨(Joy)으로 구분하는 것을 특징으로 한다.Further, the fuzzy logic classification unit according to the present invention may be configured to classify the user's emotional state into Ang, Fear, Sad, Nor, Sha, Sup, Joy, As shown in FIG.

또한, 본 발명에 따른 상기 적응형 뉴로 퍼지 추론부는 각 입력 소속함수의 중심과 폭을 조정하여 입력과 출력의 룰 베이스를 재조정하는 학습과정을 수행하는 것을 특징으로 한다.Further, the adaptive neuro fuzzy inference unit according to the present invention performs a learning process of rearranging the input and output rule bases by adjusting the center and width of each input belonging function.

또한, 본 발명에 따른 상기 적응형 뉴로 퍼지 추론부는 학습이 종료되면, 전건부 소속함수의 중심과 폭의 값, 후건부의 가중치 값을 저장하고, 재시작 또는 재학습의 수행하는 과정에 초기화 데이터로 사용하는 것을 특징으로 한다.In addition, the adaptive neurofuzzy inference unit according to the present invention stores the center value, the width value, and the weight value of the forehead part of the forehead part belonging function at the end of the learning, and uses the initialization data in the process of performing the restart or re- .

또한, 본 발명에 따른 상기 적응형 뉴로 퍼지 추론부는 역전파 학습과정을 수행하는 것을 특징으로 한다.Further, the adaptive neurofuzzy reasoning unit according to the present invention performs a backpropagation learning process.

또한, 본 발명은 a) 퍼지 논리 분류부와 감정 상태 분석부가 입출력 데이터 쌍을 정의하여 준비하는 단계; b) 적응형 뉴로 퍼지 추론부가 소속함수를 초기화하고, 상기 a) 단계에서 정의한 입출력 데이터를 입력받아 평균 제곱근 오차(RMSE) 값을 검출하는 단계; c) 상기 적응형 뉴로 퍼지 추론부가 역전파 학습 알고리즘을 이용하여 학습을 수행하는 단계; d) 학습이 종료되면, 상기 적응형 뉴로 퍼지 추론부가 전건부 소속함수의 중심 및 폭과 후건부 소속함수의 선형 계수값을 조정하고, 상기 평균 제곱근 오차 값이 미리 설정된 기준값 이하인지 여부를 판단하는 단계; 및 e) 상기 판단결과, 평균 제곱근 오차 값이 기준값 이하면, 상기 조정된 전건부 소속함수의 중심 및 폭과 후건부 소속함수의 선형 계수값을 데이터 베이스에 저장하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method of analyzing an input / output data, comprising the steps of: (a) defining a fuzzy logic classification unit and an emotion state analysis unit by defining input / output data pairs; b) initializing an adaptive neurofuzzy inference membership function and detecting an average root mean square error (RMSE) value by receiving the input / output data defined in the step a); c) performing the learning using the adaptive neurofuzzy reasoning part backpropagation learning algorithm; d) Upon completion of the learning, the adaptive neurofuzzy reasoning unit adjusts the center and width of the forehead part belonging function and the linear coefficient value of the backward part belonging function, and determines whether or not the mean square root error value is less than a preset reference value step; And e) storing the center and the width of the adjusted forehead part belonging function and the linear coefficient values of the backward part belonging function in the database if the mean square error value is less than the reference value as a result of the determination.

또한, 본 발명에 따른 상기 d) 단계의 학습 종료는 발생되는 평균 제곱근 오차 값이 미리 설정된 수렴 조건값 이하면 종료되는 것을 특징으로 한다.The end of learning in step d) according to the present invention is completed when the generated mean square error value is less than a preset convergence condition value.

또한, 본 발명에 따른 상기 e) 단계는 상기 평균 제곱근 오차 값이 기준값 이상이면, 학습률을 조정하여 상기 c) 및 d) 단계를 재수행하는 것을 특징으로 한다.In the step e) of the present invention, if the mean square error value is equal to or greater than a reference value, the step c) and the step d) are performed again by adjusting the learning rate.

또한, 본 발명에 따른 상기 e) 단계에서 저장된 전건부 소속함수의 중심 및 폭과 후건부 소속함수의 선형 계수값은 상기 적응형 뉴로 퍼지 추론부가 재시작 또는 재학습을 수행할 경우 소속함수의 초기화 데이터로 사용되는 것을 특징으로 한다.In addition, the center and the width of the forehead part belonging function stored in step (e) according to the present invention and the linear coefficient value of the backward part belonging function may be set such that, when the adaptive neurofuzzy reasoning part restarts or re- Is used.

또한, 본 발명에 따른 상기 e) 단계는 학습이 완료된 다음 감성인식 서비스 과정에서 입력되는 입출력 데이터를 실시간으로 저장되고, 상기 저장된 입출력 데이터는 감성인식 서비스의 휴지기에 추가 학습을 수행하는 단계를 더 포함하는 것을 특징으로 한다.Further, the step (e) according to the present invention may further include the step of storing input / output data inputted in the emotion recognition service process after learning is completed in real time, and the stored input / output data may be further learned in a pauser of the emotion recognition service .

본 발명은 사용자의 감정 상태를 판단하기 위한 다양한 입력 정보를 역전파 학습을 통해 적응형 뉴로 퍼지 추론부의 각 입력 소속함수의 중심 및 폭과 입력 및 출력의 룰 베이스를 조정하여 사용자의 감정 상태를 정확하게 판단할 수 있는 장점이 있다.The present invention adjusts the center and the width of each input membership function of the adaptive neuro fuzzy reasoning unit and the rule base of input and output through various kinds of input information for determining the emotional state of the user through back propagation learning, There is an advantage to be able to judge.

도 1은 본 발명에 따른 사용자 감성 인식 장치를 나타낸 블록도.
도 2는 도 1에 따른 사용자 감성 인식 장치의 퍼지 논리 분류부를 나타낸 블록도.
도 3은 본 발명에 따른 사용자 감성 인식 장치에 입력되는 눈썹 상태 입력 퍼지 변수의 소속함수를 나타낸 예시도.
도 4는 본 발명에 따른 사용자 감성 인식 장치의 출력 퍼지 변수의 소속함수를 나타낸 예시도.
도 5는 본 발명에 따른 사용자 감성 인식 장치의 눈썹 상태에 대한 퍼지 룰 베이스를 정의하는 화면을 나타낸 예시도.
도 6은 도 5에 따른 눈썹 상태에 대한 퍼지 룰 베이스의 3차원 공간을 나타낸 예시도.
도 7은 도 5에 따른 눈썹 상태에 대한 비퍼지화 결과의 일 예를 나타낸 예시도.
도 8은 본 발명에 따른 사용자 감성 인식 장치의 입 상태에 대한 퍼지 룰 베이스를 정의하는 화면을 나타낸 예시도.
도 9는 본 발명에 따른 사용자 감성 인식 장치의 머리 상태에 대한 퍼지 룰 베이스를 정의하는 화면을 나타낸 예시도.
도 10은 본 발명에 따른 사용자 감성 인식 장치의 눈 상태에 대한 퍼지 룰 베이스를 정의하는 화면을 나타낸 예시도.
도 11은 본 발명에 따른 사용자 감성 인식 장치의 적응형 뉴로 퍼지 추론부의 입력으로 사용되는 퍼지 논리 분류부의 소속함수를 나타낸 예시도.
도 12는 본 발명에 따른 사용자 감성 인식 장치의 적응형 뉴로 퍼지 추론부의 입력으로 사용되는 음성인식 결과의 소속함수를 나타낸 예시도.
도 13은 본 발명에 따른 사용자 감성 인식 장치의 적응형 뉴로 퍼지 추론부의 입력으로 사용되는 영상인식 결과의 소속함수를 나타낸 예시도.
도 14는 본 발명에 따른 사용자 감성 인식 장치의 적응형 뉴로 퍼지 추론부의 입력으로 사용되는 심장 박동수의 소속함수를 나타낸 예시도.
도 15는 본 발명에 따른 사용자 감성 인식 장치의 동작과정을 나타낸 흐름도.
1 is a block diagram showing a user emotion recognition apparatus according to the present invention.
FIG. 2 is a block diagram showing a fuzzy logic classification unit of the user emotion recognition apparatus according to FIG. 1. FIG.
3 is a view showing an example of a membership function of an eyebrow state input fuzzy variable inputted to the user's emotional recognition apparatus according to the present invention.
FIG. 4 illustrates an example of a membership function of an output fuzzy variable of the user emotion recognition apparatus according to the present invention. FIG.
5 is a view illustrating a screen for defining a fuzzy rule base for an eyebrow state of a user's emotional recognition apparatus according to the present invention.
FIG. 6 is an exemplary view showing a three-dimensional space of the fuzzy rule base with respect to the eyebrow state according to FIG. 5;
FIG. 7 is an exemplary view showing an example of a result of non-fuzzification of the eyebrow state according to FIG. 5;
8 is a diagram illustrating a screen for defining a fuzzy rule base with respect to a mouth state of the user emotion recognition apparatus according to the present invention.
FIG. 9 is a diagram illustrating a screen for defining a fuzzy rule base for a head state of a user emotion recognition apparatus according to the present invention; FIG.
10 is a diagram illustrating a screen for defining a fuzzy rule base for an eye state of a user emotion recognition apparatus according to the present invention;
11 is a view showing an example of a membership function of a fuzzy logic classification unit used as an input of the adaptive neuro fuzzy reasoning unit of the user emotion recognition apparatus according to the present invention.
FIG. 12 is an exemplary view showing a membership function of a speech recognition result used as an input of the adaptive neuro fuzzy reasoning unit of the user emotion recognition apparatus according to the present invention; FIG.
FIG. 13 illustrates an example of a membership function of an image recognition result used as an input of the adaptive neuro fuzzy inference unit of the user emotion recognition apparatus according to the present invention. FIG.
FIG. 14 is an exemplary view showing a membership function of the heart rate used as an input of the adaptive neuro fuzzy reasoning unit of the user emotion recognition apparatus according to the present invention. FIG.
15 is a flowchart illustrating an operation process of the user emotion recognition apparatus according to the present invention.

이하, 첨부된 도면을 참조하여 본 발명에 따른 사용자 감성 인식 장치 및 방법의 바람직한 실시예를 상세하게 설명한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to the preferred embodiments of the present invention, examples of which are illustrated in the accompanying drawings.

도 1은 본 발명에 따른 사용자 감성 인식 장치를 나타낸 블록도이고, 도 2는 도 1에 따른 사용자 감성 인식 장치의 퍼지 논리 분류부를 나타낸 블록도이다.FIG. 1 is a block diagram showing a user emotion recognition apparatus according to the present invention, and FIG. 2 is a block diagram showing a fuzzy logic classification unit of the user emotion recognition apparatus according to FIG.

도 1 및 도 2에 나타낸 바와 같이, 본 발명에 따른 사용자 감성 인식 장치는 퍼지 논리 분류부(100)와, 감정 상태 분석부(200)와, 적응형 뉴로 퍼지 추론부(300)와, 센서부(400)와, 데이터 베이스(500)와, 재학습부(700)를 포함하여 구성된다.1 and 2, the user emotion recognition apparatus according to the present invention includes a fuzzy logic classification unit 100, an emotion state analysis unit 200, an adaptive neurofuzzy reasoning unit 300, (400), a database (500), and a re-learning unit (700).

상기 퍼지 논리 분류부(100)는 사용자의 얼굴 표정을 기반으로 분석한 사용자의 감정 상태 정보를 적응형 뉴로 퍼지 추론부(300)의 입력에 대한 소속함수로 제공하는 구성으로서, 카메라(미도시) 등의 영상 입력 수단, 3차원 이미지 센서 등으로부터 검출한 사용자의 눈썹 위치, 입의 모양 및 위치, 머리의 위치 및 방향, 눈의 위치 및 방향을 포함한 얼굴 표정을 이용하여 사용자의 감정상태를 분석하기 위한 정보로 제공될 수 있도록 한다.The fuzzy logic classifier 100 provides the user's emotion state information analyzed based on the user's facial expression as a membership function for the input of the adaptive neurofuzzy inference unit 300, The user's emotional state using the facial expression including the user's eyebrow position, mouth shape and position, head position and direction, and eye position and direction detected from the three-dimensional image sensor, etc. So that the information can be provided.

또한, 상기 퍼지 논리 분류부(100)는 얼굴 표정을 미리 설정된 입력과 출력의 룰 베이스에 따라 퍼지화(Fuzzification)하여 사용자의 감정 상태가 추출될 수 있도록 한다.In addition, the fuzzy logic classifier 100 fuzzifies the facial expression according to a preset rule base of input and output so that the emotional state of the user can be extracted.

또한, 상기 퍼지 논리 분류부(100)는 퍼지화를 통해 추론된 감정 상태를 비퍼지화(Defuzzification)하여 일반적인 수치 값으로 출력함으로써, 서로 다른 입력 데이터들의 공간을 동일한 공간에서 처리할 수 있도록 한다.In addition, the fuzzy logic classifier 100 performs defuzzification of the inferred emotion state through fuzzification, and outputs it as a general numerical value, so that different input data spaces can be processed in the same space.

또한, 상기 퍼지 논리 분류부(100)는 눈썹 위치, 입의 모양 및 위치, 머리의 위치 및 방향, 눈의 위치 및 방향 등의 정보를 이용하여 사용자의 감정 상태를 화남(Ang), 공포(Fer), 슬픔(Sad), 보통(Nor), 부끄러움(Sha), 놀라움(Sup), 기쁨(Joy)으로 구분한다.In addition, the fuzzy logic classifier 100 may classify the user's emotional state into Ang, fear (Fer) using the information of eyebrow position, mouth shape and position, head position and direction, ), Sad, Nor, Sha, Sur, and Joy.

상기한 감정 상태는 7가지 이외에 미묘한 감정 상태를 구분할 수 있도록 퍼지 규칙과 소속함수를 추가하여 더욱 구체적인 감정으로 구분할 수도 있다.The above-mentioned emotion states may be classified into more specific emotions by adding fuzzy rules and membership functions so as to distinguish subtle emotion states in addition to the seven emotion states.

상기 퍼지 논리 분류부(100)를 더욱 상세하게 설명하면, 3차원 이미지 센서 등을 이용하여 사용자의 얼굴을 추출하고, 깊이(Depth) 정보를 이용하여 사용자의 눈썹 상태(Expression Brow), 입 상태(Expression Mouth), 머리 상태(Expression Head), 눈 상태(Expression Eye)에 해당되는 정보를 정량적으로 획득하고, 상기 획득한 사용자 얼굴표정에 기반하여 감정의 상태를 결정하고, 그 결과는 다음의 수학식 1과 같은 연산을 수행하여 적응형 뉴로 퍼지 추론부(300)의 입력으로 제공하며, 눈썹 상태 분류부(110)와, 입 상태 분류부(120)와, 머리 상태 분류부(130)와, 눈 상태 분류부(140)를 포함하여 구성된다.The fuzzy logic classifier 100 extracts a face of a user using a three-dimensional image sensor or the like, extracts a user's eyebrow state (Expression Brow), a mouth state Expression Mouth, Expression Head, Expression Eye, and determines the state of emotion based on the obtained user facial expression, and the result is calculated by the following equation 1 to provide an input to the adaptive neuro fuzzy reasoning unit 300. The eyebrow state classifying unit 110, the mouth state classifying unit 120, the head state classifying unit 130, And a state classifying unit 140.

Figure pat00001
Figure pat00001

여기서, Y는 퍼지 추론 엔진의 출력벡터이고, W는 가중치 벡터이며, B는 눈썹 상태, M은 입 상태, H는 머리 상태, E는 눈 상태이다.Where Y is the output vector of the fuzzy inference engine, W is the weight vector, B is the eyebrow condition, M is the mouth condition, H is the head condition, and E is the eye condition.

상기 눈썹 상태 분류부(110)는 얼굴 표정 중에서 눈썹의 상태를 이용하여 감정 상태를 추출할 수 있도록 동작한다.The eyebrow condition classifying unit 110 operates to extract the emotion state using the state of the eyebrows in the facial expression.

도 3은 사용자 감성 인식 장치에 입력되는 눈썹 상태 입력 퍼지 변수의 소속함수를 나타낸 예시도로서, 도 3(a)는 왼쪽 눈썹이 올라간 상태에 따른 소속함수이고, 도 3(b)는 오른쪽 눈썹이 올라간 상태에 따른 소속함수이며, 도 3(c)는 왼쪽 눈썹이 내려간 상태에 따른 소속함수이고, 도 3(d)는 오른쪽 눈썹이 내려간 상태에 따른 소속함수이다.3 (a) and 3 (b) illustrate membership functions of the eyebrow state input fuzzy variables input to the user's emotional recognition apparatus. FIG. 3 (a) FIG. 3 (c) is a membership function according to a state where the left eyebrow is descending, and FIG. 3 (d) is a membership function according to a state where the right eyebrow is descending.

사용자는 상기 눈썹 상태 분류부(110)를 통해 상기 도 3(a) 내지 도 3(d)의 소속함수를 3가지 종류로 구분하여 정의될 수 있도록 하며, S(Small), M(Medium), L(Large) 표기를 사용하여 정의한다.3 (a) to 3 (d) can be defined by dividing the belonging function into three types through the eyebrow state classifying unit 110, and S (Small), M (Medium) L (Large) notation.

사용자 얼굴 표정 정보는 다음의 표 1과 같이 정의한다.The user facial expression information is defined as shown in Table 1 below.

얼굴부위Face area 변수명 정의Variable name definition 의미meaning
눈썹 상태
(EXP_BROW)

Eyebrow condition
(EXP_BROW)
BRL(Brow Raiser Left)BRL (Brow Raiser Left) 왼쪽 눈썹이 올라간 상태Left Eyebrow Up
BRR(Brow Raiser Right)BRR (Brow Raiser Right) 오른쪽 눈썹이 올라간 상태Right eyebrow up BLL(Brow Lowerer Left)BLL (Brow Lowerer Left) 왼쪽 눈썹이 내려간 상태Left Eyebrow Down BLR(Brow Lowerer Right)BLR (Brow Lowerer Right) 오른쪽 눈썹이 내려간 상태Right eyebrows down
입 상태
(EXT_MOUTH)

Mouth condition
(EXT_MOUTH)
MTS(Mouth Smile)Mouth (Smooth) 얼굴의 웃는 정도Smile of face
MTK(Mouth Kiss)MTK (Mouth Kiss) 키스 동작Kiss action MTO(Mouth Open)MTO (Mouth Open) 입을 연 상태Open state TGO(Tongue Out)TGO (Tongue Out) 혀를 내민 상태State of tongue

머리 상태
(EXP_HEAD)



Head condition
(EXP_HEAD)

HTL(Head Turn Left)HTL (Head Turn Left) 머리가 왼쪽 방향으로 향한 상태Head left direction
HTR(Head Turn Right)HTR (Head Turn Right) 머리가 오른쪽 방향으로 향한 상태Head in right-handed orientation HUP(Head Up)HUP (Head Up) 머리가 위 방향으로 향한 상태The head is facing upward HDN(Head Down)HDN (Head Down) 머리가 아래 방향으로 향한 상태Head downward HIL(Head tIlt Left)HIL (Head tilt Left) 머리가 왼쪽으로 기운 상태Head tilted left HIR(Head tIlt Right)HIR (Head tlt Right) 머리가 오른쪽으로 기운 상태Head tilted to the right

눈 상태
(EXP_EYE)



Eye condition
(EXP_EYE)

ECL(Eye Close Left)ECL (Eye Close Left) 왼쪽 눈을 감은 상태Left eye closed
ECR(Eye Close Right)Eye Close Right (ECR) 오른쪽 눈을 감을 상태Right eye closed ETL(Eye Turn Left)Eye Turn Left (ETL) 양쪽 눈동자가 왼쪽으로 이동한 상태Both eyes moved to the left ETR(Eye Turn Right)Eye Turn Right (ETR) 양쪽 눈동자가 오른쪽으로 이동한 상태Both eyes moved to the right EUP(Eye UP)EUP (Eye UP) 양쪽 눈동자가 위로 이동한 상태Both pupils moved up EDN(Eye Down)EDN (Eye Down) 양쪽 눈동자가 아래로 이동한 상태Both eyes moved down

도 4는 눈썹 상태 출력의 소속함수를 나타낸 예시도로서, 퍼지화를 통해 추론된 감정 상태를 화남(Ang), 공포(Fer), 슬픔(Sad), 보통(Nor), 부끄러움(Sha), 놀라움(Sup), 기쁨(Joy)의 7가지로 정의하여, 각각의 감정 상태가 출력될 수 있도록 한다.FIG. 4 shows an example of the belonging function of the eyebrow state output. The emotion states deduced through the fuzzy processing are shown as Ang, F, Sad, Nor, Sha, (Sup), and joy (Joy), so that each emotion state can be output.

도 5는 사용자 감성 인식 장치의 눈썹 상태에 대한 퍼지 룰 베이스를 정의하는 화면을 나타낸 예시도로서, 룰 베이스 설정 화면(600)에서, 사용자가 눈썹의 상태를 정의하기 위한 입력 조건 정의(610)를 선택하여, 눈썹의 상태에 따른 다수의 조건문(620)을 설정하고, 이러한 입력 조건 정의(610)는 도 6과 같이 눈썹 상태에 대한 퍼지 룰 베이스에 의해 설정된 조건문을 3차원 공간으로 나타낼 수도 있다.5 is a diagram illustrating a screen for defining a fuzzy rule base for the eyebrow state of the user's emotional recognition apparatus. In the rule base setting screen 600, a user defines an input condition definition 610 for defining the state of eyebrows A plurality of conditional statements 620 corresponding to the state of the eyebrows are set and the input condition definition 610 may represent the conditional statements set by the fuzzy rule base for the eyebrow condition as a three dimensional space as shown in FIG.

도 7은 슬픈 감정 상태에서 눈썹 상태에 대한 비퍼지화 결과를 나타낸 예시도로서, 퍼지화를 통해 추론된 감정 상태를 각각의 감정 상태에 따라 비퍼지화(Defuzzification)하여 일반적인 수치 값(630)으로 출력될 수 있도록 한다.FIG. 7 illustrates an example of a result of non-fuzzification of eyebrows in a sad emotional state. The emotion state deduced through fuzzification is defuzzified according to each emotional state to obtain a general numerical value 630 Output.

도 8은 사용자 감성 인식 장치의 눈썹 상태에 대한 퍼지 룰 베이스를 정의하는 화면을 나타낸 예시도로서, 상기 입 상태 분류부(120)를 통해 눈썹 상태의 설정과 같이, 입 상태에 따른 소속함수를 3가지 종류로 구분하여 정의될 수 있도록 하며, S(Small), M(Medium), L(Large) 표기를 사용하여 정의하고, 퍼지화를 통해 추론된 감정 상태를 화남(Ang), 공포(Fer), 슬픔(Sad), 보통(Nor), 부끄러움(Sha), 놀라움(Sup), 기쁨(Joy)의 7가지로 정의하여, 각각의 감정 상태가 출력 소속함수를 통해 제공될 수 있도록 입력 조건 정의를 통한 조건문을 설정한다.8 is a diagram illustrating an example of a screen for defining a fuzzy rule base for the eyebrow state of the user's emotional recognition apparatus. Referring to FIG. 8, We define them by using S (Small), M (Medium), and L (Large) notation. The emotion states deduced from fuzzy are defined as Ang, , The definition of input condition is defined so that each emotional state can be provided through the output membership function by defining seven kinds of sadness (Sad), normal (Nor), shame (Sha), surprise (Sup), and joy Set conditional statements through.

도 9는 사용자 감성 인식 장치의 머리 상태에 대한 퍼지 룰 베이스를 정의하는 화면을 나타낸 예시도로서, 상기 머리 상태 분류부(130)를 통해 머리 상태에 따른 소속함수를 3가지 종류로 구분하여 정의하며, S(Small), M(Medium), L(Large) 표기를 사용하여 정의하고, 퍼지화를 통해 추론된 감정 상태를 화남(Ang), 공포(Fer), 슬픔(Sad), 보통(Nor), 부끄러움(Sha), 놀라움(Sup), 기쁨(Joy)의 7가지로 정의하여, 각각의 감정 상태가 출력 소속함수를 통해 제공될 수 있도록 입력 조건 정의를 통한 조건문을 설정한다.9 is a diagram illustrating a screen for defining a fuzzy rule base for the head state of the user's emotional recognition apparatus. The head position classification unit 130 divides and defines membership functions according to the head state into three types , S (Small), M (Medium), and L (Large) notation, and the emotion states deduced through fuzzing are defined as Ang, Fear, Sad, , Shame (Sha), surprise (Sup), and joy (Joy), and conditional statements are defined through input condition definition so that each emotion state can be provided through the output membership function.

도 10은 사용자 감성 인식 장치의 눈 상태에 대한 퍼지 룰 베이스를 정의하는 화면을 나타낸 예시도로서, 상기 눈 상태 분류부(140)를 통해 눈 상태에 따른 소속함수를 3가지 종류로 구분하여 정의하며, S(Small), M(Medium), L(Large) 표기를 사용하여 정의하고, 퍼지화를 통해 추론된 감정 상태를 화남(Ang), 공포(Fer), 슬픔(Sad), 보통(Nor), 부끄러움(Sha), 놀라움(Sup), 기쁨(Joy)의 7가지로 정의하여, 각각의 감정 상태가 출력 소속함수를 통해 제공될 수 있도록 입력 조건 정의를 통한 조건문을 설정한다.10 is a diagram illustrating a screen for defining a fuzzy rule base with respect to an eye state of the user's emotional recognition apparatus. The fuzzy rule base according to the eye state is classified into three types and defined through the eye state classifying unit 140 , S (Small), M (Medium), and L (Large) notation, and the emotion states deduced through fuzzing are defined as Ang, Fear, Sad, , Shame (Sha), surprise (Sup), and joy (Joy), and conditional statements are defined through input condition definition so that each emotion state can be provided through the output membership function.

상기 감정 상태 분석부(200)는 사용자의 음성 및 영상을 미리 설정된 감정 상태 프로그램으로 분석한 사용자의 감정 상태 정보를 적응형 뉴로 퍼지 추론부(300)의 입력에 대한 소속함수로 제공하는 구성으로서, 예를 들면, 사용자의 대화 목소리가 인터페이스 장치(예를 들면, 대화형 로봇)에 설치된 마이크에 인가되면, 디지털 음성 스트리밍 데이터로 가공되어 상기 인터페이스 장치 또는 원격지의 서버(예를 들면, 인공지능 클라이언 서버)에 전달되고, 상기 인터페이스 장치 또는 서버에 설치된 감정 상태 분석 프로그램에서 상기 전달된 음성 정보를 바탕으로 음성을 이용한 대화자의 감정 상태를 분석한 결과를 수신하여 적응형 뉴로 퍼지 추론부(300)의 소속함수로 제공되도록 한다.The emotion state analyzing unit 200 provides emotion state information of a user who has analyzed a user's voice and image as a preset emotion state program as a membership function for the input of the adaptive neurofuzzy inference unit 300, For example, when a user's conversation voice is applied to a microphone installed in an interface device (e.g., an interactive robot), it is processed into digital voice streaming data and transmitted to the interface device or a remote server (e.g., And receives the result of analyzing the emotional state of the talker using the voice based on the delivered voice information in the emotional state analysis program installed in the interface device or the server and transmits the analyzed result to the belonging of the adaptive neurofuzzy reasoning unit 300 Function.

또한, 상기 감정 상태 분석부(200)는 사용자의 얼굴이 인터페이스 장치에 설치된 카메라에 촬영되면, 상기 사용자 얼굴을 디지털 영상 스트리밍 데이터로 가공되어 상기 인터페이스 장치 또는 원격지의 서버에 전달되고, 상기 인터페이스 장치 또는 서버에 설치된 감정 상태 분석 프로그램에서 상기 전달된 영상 정보를 바탕으로 영상을 이용한 대화자의 감정 상태를 분석한 결과를 수신하여 적응형 뉴로 퍼지 추론부(300)의 소속함수로 제공되도록 한다.When the user's face is photographed by a camera installed in the interface device, the user's face is processed into digital image streaming data and transmitted to the server of the interface device or the remote site, The emotion state analysis program installed in the server receives the result of analyzing the emotional state of the talker using the image based on the delivered image information and provides the result as a belonging function of the adaptive neuro fuzzy reasoning unit 300. [

상기 적응형 뉴로 퍼지 추론부(300)는 상기 퍼지 논리 분류부(100)와 감정 상태 분석부(200)에서 제공되는 도 11 내지 도 13과 같은 입력 소속함수 정보에 대하여 퍼지 규칙(Fuzzy Rule)과, 추론 과정(The process of fuzzy reasoning)을 신경망(Neural network) 구조로 이루어진 추론 모델을 이용하여 출력을 계산하고, 상기 계산된 값과 목표 출력의 오차가 감소되도록 매개변수를 조정하여 평균 제곱근 에러(Root Mean Square: RMS) 값이 미리 설정된 기준값 이하가 되도록 학습과정을 수행하며, 상기 학습결과를 이용하여 사용자의 감정 상태를 인식한다.The adaptive neurofuzzy inference unit 300 may include a fuzzy rule for the input membership function information as shown in FIGS. 11 to 13 provided in the fuzzy logic classification unit 100 and the emotion state analysis unit 200, The output is calculated using a reasoning model composed of a neural network structure and a parameter is adjusted so that the error between the calculated value and the target output is reduced to obtain a mean square root error Root Mean Square (RMS) value is less than a preset reference value, and recognizes the emotion state of the user using the learning result.

상기 추론 모델은 전건부(premise part)와, 후건부(consequence part)로 구분되고, 상기 전건부는 입력 변수를 전체 집합 상으로 설정하기 위한 층과, 전건부의 각 입력 변수에 소속함수(membership funcrion)를 할당하여 입력이 주어졌을 때, 그 소속정도를 출력하며, 상기 후건부는 실제 제어량 발생을 위한 최종 추론값을 계산한다.The reasoning model is divided into a premise part and a consequence part. The predicate part includes a layer for setting input variables as a whole set, a membership function for each input variable of the predicate part, And outputs the degree of belonging when the input is given, and the latter calculates the final inference value for generating the actual control amount.

또한, 상기 적응형 뉴로 퍼지 추론부(300)는 역전파 학습 프로그램을 통해 학습과정을 수행하는데, 입력 데이터에 대한 실제 출력을 전방향 단계를 통해 계산하고, 목표 출력과의 오차를 최소화하도록 역방향 단계를 통해 조정 매개변수, 즉 전건부 소속함수의 위치 및 폭과 후건부 선형식의 계수 등을 조정한다.The adaptive neuro fuzzy inference unit 300 performs a learning process through a back propagation learning program. The adaptive neuro fuzzy inference unit 300 calculates an actual output of the input data through a forward step, and performs an inverse step Adjusts the adjustment parameters, ie the position and width of the total key belonging function and the coefficients of the post-key line type.

즉 상기 적응형 뉴로 퍼지 추론부(300)는 각 입력 소속함수의 중심과 폭을 조정하여 입력과 출력의 룰 베이스를 재조정하는 학습과정을 수행하고, 학습이 종료되면, 전건부 소속함수의 중심과 폭의 값, 후건부의 가중치 값을 저장하고, 재시작 또는 재학습을 수행하는 과정에 초기화 데이터로 사용되도록 한다.That is, the adaptive neurofuzzy inference unit 300 performs a learning process of rearranging the input and output rule bases by adjusting the center and width of each input membership function, and when learning ends, The width value, and the weight value of the background portion, and is used as the initialization data in the process of restarting or re-learning.

한편, 본 발명에 따른 상기 사용자 감성 인식 장치는 사용자의 심방 박동수, 사용자의 접촉 및 터치 시간, 사용자의 동작 속도 중 적어도 하나 이상을 검출하여 사용자의 감정 상태에 대한 소속함수로 상기 적응형 뉴로 퍼지 추론부(300)로 출력하는 센서부(400)를 더 포함하여 구성된다.Meanwhile, the user's emotional recognition apparatus according to the present invention detects at least one of a user's atrial heart rate, a user's touch and touch time, and an operation speed of a user, and detects the adaptive neuro fuzzy inference function as a membership function for a user's emotional state. And a sensor unit (400) for outputting the signal to the controller (300).

상기 센서부(400)는 사용자의 심장 박동수, 접촉 여부 등을 감지할 수 있는 센서로서, 사용자의 심장 박동을 측정할 수 있는 센서가 인터페이스 장치 또는 대화형 로봇에 설치되어 사용자의 심장 박동이 측정되면, 상기 사용자의 심장 박동수를 측정하여 소속함수로 정의하여 도 14와 같이, 적응형 뉴로 퍼지 추론부(300)의 입력 소속함수로 제공될 수 있도록 한다.The sensor unit 400 is a sensor capable of detecting a user's heart rate, contact, etc., and a sensor capable of measuring a heartbeat of a user is installed in an interface device or an interactive robot to measure a user's heartbeat , The heart rate of the user is measured and defined as a membership function so as to be provided as an input membership function of the adaptive neuro fuzzy reasoning unit 300 as shown in FIG.

또한, 상기 센서부(400)는 사용자의 접촉 여부를 감지할 수 있는 센서로서, 사용자의 접촉 여부를 감지할 수 있는 센서가 인터페이스 장치 또는 대화형 로봇의 예를 들면, 머리, 어깨, 가슴 등에 설치되어 사용자의 접촉 여부를 감지하면, 터치 여부와 터치 시간을 이용하여 입력 데이터로서, 소속함수를 정의하여 적응형 뉴로 퍼지 추론부(300)의 입력 소속함수로 제공될 수 있다.The sensor unit 400 is a sensor capable of detecting whether or not a user touches the robot. A sensor capable of detecting whether or not a user touches the robot is installed in an interface device or an interactive robot, such as a head, a shoulder, If the user touches the touch panel, it can be provided as an input membership function of the adaptive neurofuzzy inference unit 300 by defining a membership function as input data using touch or touch time.

또한, 2개 이상의 센서가 사용될 경우 센서 터치 시간의 평균값을 계산하여 사용할 수 있도록 한다.Also, when two or more sensors are used, the average value of sensor touch time is calculated and used.

상기 데이터 베이스(500)는 사용자의 감성 정보를 저장하는 구성으로서, 학습이 완료된 시스템의 전건부 소속함수 정보(예를 들면, 소속함수의 중심과 폭의 값)와 후건부 출력 함수의 가중치(계수) 값 등을 저장한다.The database 500 stores the emotion information of the user. The database 500 stores information about the subject's belonging function (for example, the center and width of the belonging function) and the weight ) Values and the like.

상기 재학습부(700)는 관리자에 의해 설정된 학습 조건이나, 미리 설정된 자동 재학습 조건이나, 사용자의 서비스 불만족도가 증가하여 관리자가 사용을 중지하고 임의로 재학습을 실행하는 경우 적응형 뉴로 퍼지 추론부(300)로 재학습의 진행을 요청한다.If the re-learning unit 700 stops the use of the user and the re-learning is performed arbitrarily by increasing the learning condition set by the administrator, the preset automatic re-learning condition, or the user's unsatisfactory service level, the adaptive neuro- And requests the unit 300 to proceed with the re-learning.

다음은 본 발명에 따른 사용자 감성 인식장치의 동작과정을 설명한다.The operation of the user emotion recognition apparatus according to the present invention will now be described.

사용자가 퍼지 논리 분류부(100)와 감정 상태 분석부(200)의 입출력 데이터 쌍을 정의하여 준비(S100)하고, 적응형 뉴로 퍼지 추론부(300)는 소속함수를 초기화(S110)한다.The user defines and prepares input / output data pairs of the fuzzy logic classification unit 100 and the emotion state analysis unit 200 (S100), and the adaptive neurofuzzy reasoning unit 300 initializes the belonging function (S110).

상기 S110 단계를 수행한 다음, 상기 적응형 뉴로 퍼지 추론부(300)는 상기 S100 단계에서 정의한 입출력 데이터 쌍을 입력(S120)받아 평균 제곱근 오차(RMSE) 값을 검출(S130)한다.After performing step S110, the adaptive neurofuzzy inference unit 300 receives an input / output data pair defined in step S100 (S120) and detects an average square root error (RMSE) value in step S130.

상기 적응형 뉴로 퍼지 추론부(300)는 상기 S130 단계에서 계산된 값과 목표 출력의 오차가 감소되도록 매개변수를 조정하여 평균 제곱근 에러(Root Mean Square: RMS) 값이 미리 설정된 기준값 이하가 되도록 역전파 학습 알고리즘을 이용하여 수행(S140)한다.The adaptive neuro fuzzy reasoning unit 300 adjusts the parameter to reduce the error between the value calculated in step S130 and the target output so that the root mean square error (RMS) (S140) using a propagation learning algorithm.

상기 S140 단계의 역전파 학습 알고리즘에 의한 학습과정을 통해 적응형 뉴로 퍼지 추론부(300)는 전방향 단계를 통해 입력 데이터에 대한 실제 출력을 계산하고, 목표 출력과의 오차를 최소화하도록 역방향 단계를 통해 전건부 소속함수의 중심 위치 및 폭을 조정(S150)하고, 후건부 소속함수의 선형 계수값을 조정(S160)하며, 평균 제곱근 오차 값이 미리 설정된 기준값 이하인지 여부를 판단(S170)한다.Through the learning process by the back propagation learning algorithm in step S140, the adaptive neuro fuzzy inference unit 300 calculates the actual output of the input data through the forward step and performs an inverse step to minimize the error with respect to the target output (S150), and adjusts the linear coefficient value of the backward key belonging function (S160), and determines whether the average square root error value is equal to or less than a preset reference value (S170).

상기 S170 단계의 판단결과, 상기 S170 단계의 평균 제곱근 오차 값이 기준값 이하면, 상기 S150 단계 및 S160 단계에서 조정된 전건부 소속함수의 중심 위치와 폭의 값, 후건부의 가중치 값을 저장(S180)하고, 재시작 또는 재학습을 수행하는 과정에 초기화 데이터로 사용(S190)될 수 있도록 하며, 상기 S170 단계의 평균 제곱근 오차 값이 기준값 이상이면, 미리 설정된 학습률을 조정(S200)하여 상기 S130 단계 내지 S160 단계가 재수행되도록 한다.If it is determined in step S170 that the average square root error value in step S170 is less than the reference value, the central position, width value, and weight value of the forehead part of the forehead part belonging function adjusted in steps S150 and S160 are stored If the average square root error value in step S170 is equal to or greater than the reference value, the preset learning rate is adjusted (S200), and the steps S130 to S160 Allow the step to be run again.

상기 S180 단계를 수행한 다음, 학습이 완료된 감성인식 장치는 오프라인에 설치된 로봇 등의 감성인식 서비스 시스템에 설치되어 실시간으로 동작하며, 감성인식 서비스 과정에서 발생되는 입출력 데이터는 실시간으로 데이터 베이스 또는 로컬의 임의의 저장위치에 저장한다.After the step S180, the learned emotion recognition device is installed in the emotion recognition service system such as a robot installed offline, operates in real time, and the input / output data generated in the emotion recognition service process is stored in the database or local And stores it in an arbitrary storage location.

또한, 상기 저장된 입출력 데이터는 감성인식 서비스의 휴지기에 자동으로 재학습을 수행한다.In addition, the stored input / output data is automatically re-learned in a rest period of the emotion recognition service.

상기 재학습 조건은 관리자에 의해 설정 가능하고, 로봇이 자동으로 재학습을 수행하였지만, 사용자의 서비스 불만족도 증가시 관리자가 사용을 중지하고 임의로 재학습을 수행할 수 있다.The re-learning condition can be set by the administrator, and the robot automatically performs the re-learning, but when the service dissatisfaction of the user also increases, the administrator can stop using the service and arbitrarily re-learn.

따라서 사용자의 감정 상태를 판단하기 위한 다양한 입력 정보를 역전파 학습을 통해 각 입력 소속함수의 중심 및 폭과 입력 및 출력의 룰 베이스를 조정하여 사용자의 감정 상태를 정확하게 판단할 수 있게 된다.Accordingly, it is possible to accurately determine the emotional state of the user by adjusting the center and width of each input membership function and the rule base of input and output through various kinds of input information for judging the user's emotional state through back propagation learning.

상기와 같이, 본 발명의 바람직한 실시 예를 참조하여 설명하였지만 해당 기술 분야의 숙련된 당업자라면 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it will be understood by those skilled in the art that various changes and modifications may be made without departing from the spirit and scope of the invention as defined in the appended claims. It can be understood that

또한, 본 발명의 실시예를 설명하는 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있으며, 상술된 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있으므로, 이러한 용어들에 대한 해석은 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In the course of the description of the embodiments of the present invention, the thicknesses of the lines and the sizes of the components shown in the drawings may be exaggerated for clarity and convenience of explanation, , Which may vary depending on the intentions or customs of the user, the operator, and the interpretation of such terms should be based on the contents throughout this specification.

100 : 퍼지 논리 분류부
110 : 눈썹 상태 분류부
120 : 입 상태 분류부
130 : 머리 상태 분류부
140 : 눈 상태 분류부
200 : 감정 상태 분석부
300 : 적응형 뉴로 퍼지 추론부
400 : 센서부
500 : 데이터 베이스
600 : 룰 베이스 설정 화면
610 : 입력 조건 정의
620 : 조건문
700 : 재학습부
100: fuzzy logic classification unit
110: eyebrow condition classification unit
120: mouth condition classification unit
130: head state classification section
140: eye state classification unit
200: emotional state analysis unit
300: adaptive neuro fuzzy inference unit
400:
500: database
600: Rule Base Setup Screen
610: Define input conditions
620: Conditional statement
700: re-learning department

Claims (14)

사용자의 얼굴 표정을 기반으로 분석한 사용자의 감정 상태 정보를 적응형 뉴로 퍼지 추론부(300)의 입력에 대한 소속함수로 제공하는 퍼지 논리 분류부(100);
사용자의 음성 및 영상을 미리 설정된 감정 상태 프로그램으로 분석한 사용자의 감정 상태 정보를 적응형 뉴로 퍼지 추론부(300)의 입력에 대한 소속함수로 제공하는 감정 상태 분석부(200); 및
상기 퍼지 논리 분류부(100)와 감정 상태 분석부(200)에서 제공되는 입력 정보에 대한 출력을 계산하고, 상기 계산된 값과 목표 출력의 오차가 감소되도록 매개변수를 조정하여 평균 제곱근 에러(Root Mean Square: RMS) 값이 미리 설정된 기준값 이하가 되도록 학습과정을 수행하며, 상기 학습결과를 이용하여 사용자의 감정 상태를 인식하는 적응형 뉴로 퍼지 추론부(300)를 포함하는 사용자 감성 인식 장치.
A fuzzy logic classification unit (100) for providing emotion state information of a user analyzed based on a facial expression of a user as a membership function for an input of an adaptive neuro fuzzy reasoning unit (300);
An emotion state analyzer 200 for providing emotion state information of a user analyzing a user's voice and an image with a preset emotion state program as a membership function for an input of the adaptive neurofuzzy inference unit 300; And
Calculates outputs of the input information provided by the fuzzy logic classifier (100) and the emotion state analyzer (200), adjusts the parameters so that the error between the calculated values and the target output is reduced, And an adaptive neurofuzzy inference unit (300) that performs a learning process so that a mean square (RMS) value is less than or equal to a preset reference value, and recognizes a user's emotional state using the learning result.
제 1 항에 있어서,
상기 사용자 감성 인식 장치는 사용자의 심방 박동수, 사용자의 접촉 및 터치 시간, 사용자의 동작 속도 중 적어도 하나 이상을 검출하여 사용자의 감정 상태에 대한 소속함수로 상기 적응형 뉴로 퍼지 추론부(300)로 출력하는 센서부(400)를 더 포함하는 것을 특징으로 하는 사용자 감성 인식 장치.
The method according to claim 1,
The user's emotional recognition apparatus detects at least one of a user's atrial heartbeat, a user's touch and touch time, and a user's operation speed and outputs it to the adaptive neuro fuzzy reasoning unit 300 as a membership function for the user's emotional state And a sensor unit (400) for recognizing the user's senses.
제 1 항에 있어서,
상기 퍼지 논리 분류부(100)의 얼굴 표정은 눈썹의 위치, 입의 모양, 머리의 위치 및 방향, 눈의 위치 및 방향을 포함하는 것을 특징으로 하는 사용자 감성 인식 장치.
The method according to claim 1,
Wherein the facial expression of the fuzzy logic classifier (100) includes a position of an eyebrow, a shape of a mouth, a position and a direction of a head, and a position and direction of an eye.
제 3 항에 있어서,
상기 퍼지 논리 분류부(100)는 얼굴 표정을 미리 설정된 입력과 출력의 룰 베이스에 따라 퍼지화(Fuzzification)하여 감정 상태를 추출하는 것을 특징으로 하는 사용자 감성 인식 장치.
The method of claim 3,
Wherein the fuzzy logic classifier (100) extracts an emotional state by fuzzifying the facial expression according to a rule base of a preset input and output.
제 4 항에 있어서,
상기 퍼지 논리 분류부(100)는 퍼지화를 통해 추론된 감정 상태를 비퍼지화(Defuzzification)하여 일반적인 수치 값으로 출력하는 것을 특징으로 하는 사용자 감성 인식 장치.
5. The method of claim 4,
Wherein the fuzzy logic classifier (100) performs defuzzification of the inferred emotion state through fuzzy logic, and outputs the result as a general numerical value.
제 1 항에 있어서,
상기 퍼지 논리 분류부(100)는 사용자의 감정 상태를 화남(Ang), 공포(Fer), 슬픔(Sad), 보통(Nor), 부끄러움(Sha), 놀라움(Sup), 기쁨(Joy)으로 구분하는 것을 특징으로 하는 사용자 감성 인식 장치.
The method according to claim 1,
The fuzzy logic classification unit 100 classifies the user's emotional state into Ang, Fear, Sad, Nor, Sha, Sup, and Joy Wherein the user emotion recognition apparatus comprises:
제 1 항에 있어서,
상기 적응형 뉴로 퍼지 추론부(300)는 각 입력 소속함수의 중심과 폭을 조정하여 입력과 출력의 룰 베이스를 재조정하는 학습과정을 수행하는 것을 특징으로 하는 사용자 감성 인식 장치.
The method according to claim 1,
Wherein the adaptive neurofuzzy inference unit (300) performs a learning process of rearranging input and output rule bases by adjusting the center and width of each input membership function.
제 7 항에 있어서,
상기 적응형 뉴로 퍼지 추론부(300)는 학습이 종료되면, 전건부 소속함수의 중심과 폭의 값, 후건부의 가중치 값을 저장하고, 재시작 또는 재학습을 수행하는 과정에 초기화 데이터로 사용하는 것을 특징으로 하는 사용자 감성 인식 장치.
8. The method of claim 7,
The adaptive neurofuzzy inference unit 300 stores the center value, the width value, and the weight value of the forehead portion belonging to the forehead function when the learning ends, and uses the initial value as the initialization data in the process of restarting or re-learning And a user emotion recognition device.
제 7 항에 있어서,
상기 적응형 뉴로 퍼지 추론부(300)는 역전파 학습과정을 수행하는 것을 특징으로 하는 사용자 감성 인식 장치.
8. The method of claim 7,
Wherein the adaptive neurofuzzy inference unit (300) performs a backpropagation learning process.
a) 퍼지 논리 분류부(100)와 감정 상태 분석부(200)가 입출력 데이터 쌍을 정의하여 준비하는 단계;
b) 적응형 뉴로 퍼지 추론부(300)가 소속함수를 초기화하고, 상기 a) 단계에서 정의한 입출력 데이터를 입력받아 평균 제곱근 오차(RMSE) 값을 검출하는 단계;
c) 상기 적응형 뉴로 퍼지 추론부(300)가 역전파 학습 알고리즘을 이용하여 학습을 수행하는 단계;
d) 학습이 종료되면, 상기 적응형 뉴로 퍼지 추론부(300)가 전건부 소속함수의 중심 및 폭과 후건부 소속함수의 선형 계수값을 조정하고, 상기 평균 제곱근 오차 값이 미리 설정된 기준값 이하인지 여부를 판단하는 단계; 및
e) 상기 판단결과, 평균 제곱근 오차 값이 기준값 이하면, 상기 조정된 전건부 소속함수의 중심 및 폭과 후건부 소속함수의 선형 계수값을 데이터 베이스(500)에 저장하는 단계를 포함하는 사용자 감성 인식 방법.
a) defining and preparing input / output data pairs by the fuzzy logic classifier (100) and the emotion state analyzer (200);
b) initializing the belonging function by the adaptive neurofuzzy inference unit 300, receiving input and output data defined in the step a), and detecting a mean square root mean square error (RMSE) value;
c) the adaptive neurofuzzy inference unit 300 performs learning using a backpropagation learning algorithm;
d) When the learning ends, the adaptive neurofuzzy inference unit 300 adjusts the center and width of the forehead part belonging function and the linear coefficient value of the backward part belonging function, and if the mean square root error value is less than a preset reference value ; And
e) if the average root-mean-square error value is less than the reference value, storing the center value and the width of the adjusted forehead-portion belonging function and the linear coefficient value of the rear-part belonging function in the database 500 Recognition method.
제 10 항에 있어서,
상기 d) 단계의 학습 종료는 발생되는 평균 제곱근 오차 값이 미리 설정된 수렴 조건값 이하면 종료되는 것을 특징으로 하는 사용자 감성 인식 방법.
11. The method of claim 10,
Wherein the ending of the learning in the step d) is ended when the generated mean square error value is less than a preset convergence condition value.
제 10 항에 있어서,
상기 e) 단계는 상기 평균 제곱근 오차 값이 기준값 이상이면, 학습률을 조정하여 상기 c) 및 d) 단계를 재수행하는 것을 특징으로 하는 사용자 감성 인식 방법.
11. The method of claim 10,
Wherein if the average square root error value is equal to or greater than a reference value, the learning rate is adjusted to re-execute the steps c) and d).
제 10 항에 있어서,
상기 e) 단계에서 저장된 전건부 소속함수의 중심 및 폭과 후건부 소속함수의 선형 계수값은 상기 적응형 뉴로 퍼지 추론부(300)가 재시작 또는 재학습을 수행할 경우 소속함수의 초기화 데이터로 사용되는 것을 특징으로 하는 사용자 감성 인식 방법.
11. The method of claim 10,
The center and the width of the forehead part belonging function stored in step e) and the linear coefficient values of the backward part belonging function are used as initialization data of the belonging function when the adaptive neurofuzzy inferring part 300 performs restart or re-learning Wherein the user emotion recognition method comprises the steps of:
제 10 항에 있어서,
상기 e) 단계는 학습이 완료된 다음 감성인식 서비스 과정에서 입력되는 입출력 데이터를 실시간으로 저장되고, 상기 저장된 입출력 데이터는 감성인식 서비스의 휴지기에 추가 학습을 수행하는 단계를 더 포함하는 것을 특징으로 하는 사용자 감성 인식 방법.
11. The method of claim 10,
Wherein the step (e) further comprises the step of storing input / output data inputted in the emotion recognition service process after learning is completed in real time, and the stored input / output data further learning is performed in a pauser of the emotion recognition service Emotion recognition method.
KR1020170109972A 2017-08-30 2017-08-30 Apparatus and method for emotion recognition of user KR102044786B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170109972A KR102044786B1 (en) 2017-08-30 2017-08-30 Apparatus and method for emotion recognition of user

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170109972A KR102044786B1 (en) 2017-08-30 2017-08-30 Apparatus and method for emotion recognition of user

Publications (2)

Publication Number Publication Date
KR20190023749A true KR20190023749A (en) 2019-03-08
KR102044786B1 KR102044786B1 (en) 2019-11-14

Family

ID=65800851

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170109972A KR102044786B1 (en) 2017-08-30 2017-08-30 Apparatus and method for emotion recognition of user

Country Status (1)

Country Link
KR (1) KR102044786B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220005945A (en) * 2020-07-07 2022-01-14 주식회사 유엑스팩토리 Method, system and non-transitory computer-readable recording medium for generating a data set on facial expressions
KR102374233B1 (en) * 2021-02-03 2022-03-16 주식회사 루츠바이오 Smart diffuser
KR20220069677A (en) * 2020-11-20 2022-05-27 오로라월드 주식회사 Method And Apparatus for Classifying Emotion Based on Multi-Modal
CN117784630A (en) * 2023-12-28 2024-03-29 广东启现智能家具有限公司 Intelligent home control method and system based on emotion recognition

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09231079A (en) * 1996-02-28 1997-09-05 Hitachi Ltd Fuzzy inference system and fuzzy rule organization system
KR100850352B1 (en) 2006-09-26 2008-08-04 한국전자통신연구원 Emotion Expression Apparatus for Intelligence Robot for expressing emotion using status information and Method thereof
KR20090055426A (en) * 2007-11-28 2009-06-02 중앙대학교 산학협력단 Emotion recognition mothod and system based on feature fusion
KR20120092846A (en) * 2011-02-14 2012-08-22 충남대학교산학협력단 System and method for multi-modality emotion recognition and recording medium thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09231079A (en) * 1996-02-28 1997-09-05 Hitachi Ltd Fuzzy inference system and fuzzy rule organization system
KR100850352B1 (en) 2006-09-26 2008-08-04 한국전자통신연구원 Emotion Expression Apparatus for Intelligence Robot for expressing emotion using status information and Method thereof
KR20090055426A (en) * 2007-11-28 2009-06-02 중앙대학교 산학협력단 Emotion recognition mothod and system based on feature fusion
KR20120092846A (en) * 2011-02-14 2012-08-22 충남대학교산학협력단 System and method for multi-modality emotion recognition and recording medium thereof

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220005945A (en) * 2020-07-07 2022-01-14 주식회사 유엑스팩토리 Method, system and non-transitory computer-readable recording medium for generating a data set on facial expressions
KR20220069677A (en) * 2020-11-20 2022-05-27 오로라월드 주식회사 Method And Apparatus for Classifying Emotion Based on Multi-Modal
WO2022108057A1 (en) * 2020-11-20 2022-05-27 오로라월드 주식회사 Multi-modal apparatus and method for classifying emotions
KR102374233B1 (en) * 2021-02-03 2022-03-16 주식회사 루츠바이오 Smart diffuser
CN117784630A (en) * 2023-12-28 2024-03-29 广东启现智能家具有限公司 Intelligent home control method and system based on emotion recognition

Also Published As

Publication number Publication date
KR102044786B1 (en) 2019-11-14

Similar Documents

Publication Publication Date Title
CN106457563B (en) Humanoid robot and method for executing dialogue between humanoid robot and user
KR102044786B1 (en) Apparatus and method for emotion recognition of user
KR102448382B1 (en) Electronic device for providing image related with text and operation method thereof
US10796226B2 (en) Laser processing apparatus and machine learning device
KR101697476B1 (en) Method for recognizing continuous emotion for robot by analyzing facial expressions, recording medium and device for performing the method
Cruz et al. Multi-modal integration of dynamic audiovisual patterns for an interactive reinforcement learning scenario
Feng et al. Learn2smile: Learning non-verbal interaction through observation
WO2002099545A1 (en) Man-machine interface unit control method, robot apparatus, and its action control method
KR101970297B1 (en) Robot system for generating and representing emotion and method thereof
JP2005199403A (en) Emotion recognition device and method, emotion recognition method of robot device, learning method of robot device and robot device
Saxena et al. Hand gesture recognition using an android device
CN109643153A (en) Equipment for influencing the virtual objects of augmented reality
KR20210070029A (en) Device, method, and program for enhancing output content through iterative generation
KR102229056B1 (en) Apparatus and method for generating recognition model of facial expression and computer recordable medium storing computer program thereof
Costantini et al. Multi-agent system engineering for emphatic human-robot interaction
Botzheim et al. Gestural and facial communication with smart phone based robot partner using emotional model
Nishimura et al. Design support system for emotional expression of robot partners using interactive evolutionary computation
US11691291B2 (en) Apparatus and method for generating robot interaction behavior
Siqueira et al. Disambiguating affective stimulus associations for robot perception and dialogue
US12011828B2 (en) Method for controlling a plurality of robot effectors
Lee et al. Multi-cue contingency detection
Somashekarappa et al. Neural network implementation of gaze-target prediction for human-robot interaction
Vineetha et al. Face expression detection using Microsoft Kinect with the help of artificial neural network
Harit et al. Facial emotions recognition using gabor transform and facial animation parameters with neural networks
CN114998700B (en) Immersion degree calculation method and system for multi-feature fusion in man-machine interaction scene

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right