KR20190123371A - Emotion recognition method and artificial intelligence learning method based on facial image - Google Patents

Emotion recognition method and artificial intelligence learning method based on facial image Download PDF

Info

Publication number
KR20190123371A
KR20190123371A KR1020180042238A KR20180042238A KR20190123371A KR 20190123371 A KR20190123371 A KR 20190123371A KR 1020180042238 A KR1020180042238 A KR 1020180042238A KR 20180042238 A KR20180042238 A KR 20180042238A KR 20190123371 A KR20190123371 A KR 20190123371A
Authority
KR
South Korea
Prior art keywords
learning
data
facial
facial image
learning model
Prior art date
Application number
KR1020180042238A
Other languages
Korean (ko)
Inventor
정정화
민경육
Original Assignee
(주)트라이스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)트라이스 filed Critical (주)트라이스
Priority to KR1020180042238A priority Critical patent/KR20190123371A/en
Publication of KR20190123371A publication Critical patent/KR20190123371A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06K9/00302
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to an emotion recognition method based on a facial image and an artificial intelligence learning method thereof. According to one embodiment of the present invention, the emotion recognition method based on a facial image comprises the steps of: acquiring and recognizing a plurality of facial images within a predetermined time; analyzing and tracking the facial expression of the facial image; making the analyzed and tracked facial image into data; and determining a final emotion state of the facial image, which is made into data. Therefore, according to one embodiment of the present invention, image data including a facial expression is acquired, thereby recognizing the emotion by analyzing the acquired image data.

Description

안면이미지를 기반한 감정 인식 방법 및 인공지능 학습 방법{Emotion recognition method and artificial intelligence learning method based on facial image}Emotion recognition method and artificial intelligence learning method based on facial image}

본 발명은 안면이미지를 기반한 감정 인식 방법 및 인공지능 학습 방법에 관한 것이다. 더욱 상세하게는 얼굴 표정이 포함된 이미지 데이터를 취득하고, 취득한 이미지 데이터를 분석하여 감정을 인식하기 위한 안면이미지를 기반한 감정 인식 방법 및 인공지능 학습 방법에 관한 것이다.The present invention relates to an emotion recognition method and an artificial intelligence learning method based on facial images. More particularly, the present invention relates to an emotion recognition method and an artificial intelligence learning method based on facial images for acquiring image data including a facial expression and analyzing the acquired image data.

멀티모달 인터페이스는 인간과 기계의 통신을 위해 음성, 키보드, 펜 등을 이용해 인터페이스하는 방법을 의미한다. 이러한 멀티모달 인터페이스를 통한 멀티 모달 정보가 입력된 경우 이러한 각각의 모달리티에서 입력된 정보를 각각 융합하여 분석하는 방법이 사용된다.Multi-modal interface means a method of interface using voice, keyboard, pen, etc. for communication between human and machine. When multi-modal information through the multi-modal interface is input, a method of fusion and analysis of the input information in each of these modalities is used.

그러나 이러한 멀티 모달리티에서 입력된 정보의 특징을 추출하고 분류하기 위해서는 다양한 학습 알고리즘이 사용될 수 있다. 따라서 어떤 학습 알고리즘을 사용하느냐에 따라 이를 분석하여 인식하는 에러율이 다양하게 나타난다.However, various learning algorithms can be used to extract and classify the features of the input information in such multi-modalities. Therefore, depending on which learning algorithm is used, the error rate recognized by analyzing it appears variously.

한편, 얼굴 표정 인식률이 높은 시각 모달리티 반응을 이용한 종래기술은 객체의 얼굴표정을 인식 시 밝기에 대한 제약이 있었다. 또한, 인위적인 감정상태의 객체반응 데이터를 사용함으로써 자연스러운 감정을 유발하여 객체반응을 측정하는 발명에 비해 감정인식이 실제로 잘 이루어지지 않는 문제가 있었다. 그리고 멀티 모달리티를 활용하여 특징을 추출한 후 이러한 특징을 융합할 수 없는 문제점이 있었다.On the other hand, the prior art using a visual modality response with a high facial expression recognition rate has a limitation on the brightness when recognizing the facial expression of the object. In addition, there is a problem that the emotion recognition is not actually performed well compared to the invention that causes the natural emotion by measuring the object response by using the object response data of the artificial emotional state. And after extracting features using multi-modality, there was a problem that these features cannot be fused.

따라서 본 발명이 속하는 기술 분야에서는 멀티 모달리티 중 하나인 객체의 얼굴표정 변화를 감지하여 객체가 표현하는 다양한 감정을 인식할 수 있는 발명의 개발을 요하고 있으며, 이러한 문제점을 해결하기 위해 (특허문헌 1)을 통해 보완하고 있는바, 이를 참조하여 구체적으로 설명하면 다음과 같다.Therefore, in the technical field to which the present invention belongs, it is required to develop an invention that can detect various emotions expressed by an object by detecting a change in facial expression of an object, which is one of multi-modalities, and to solve such a problem (Patent Document 1). It is supplemented through), which will be described in detail with reference to the following.

(특허문헌 1)은 얼굴표정을 이용한 감정인식 장치, 감정인식 방법 및 그 기록매체에 관한 것으로, 이에 따르면, 제시된 자극에 대응하여 반응하는 객체의 객체정보를 입력받아 객체의 얼굴을 인식하는 얼굴인식수단과, 인식된 객체의 얼굴을 이용하여 객체의 얼굴요소를 추출하는 얼굴요소추출수단 및 추출된 객체의 얼굴요소를 바탕으로 자극에 상응하여 변하는 객체의 얼굴표정 변화를 인식함으로써 객체가 표현하는 감정을 인식하는 감정인식수단을 포함한다.(Patent Document 1) relates to an emotion recognition device using an expression of the face, an emotion recognition method and a recording medium thereof, and accordingly, face recognition for receiving the object information of the object in response to the presented stimulus to recognize the face of the object The emotions expressed by the object by recognizing the facial expression change of the object that changes in response to the stimulus based on the means and the face element extraction means for extracting the face elements of the object using the recognized face of the object and the extracted face elements of the object. Emotion recognition means for recognizing.

그러나, 전술한 (특허문헌 1)은 얼굴표정 및 감정을 인식하는 오차범위가 크거나 또는 다른표정이나 감정으로 인식하는 문제점이 있다.However, the aforementioned (Patent Document 1) has a problem in that the error range for recognizing facial expressions and emotions is large or recognized with other expressions or emotions.

대한민국 공개특허공보 제10-2013-0015958호Republic of Korea Patent Application Publication No. 10-2013-0015958

본 발명의 목적은 얼굴 표정이 포함된 이미지 데이터를 취득하고, 취득한 이미지 데이터를 분석하여 감정을 인식하기 위한 안면이미지를 기반한 감정 인식 방법 및 인공지능 학습 방법을 제공하는 데 있다.It is an object of the present invention to provide an emotion recognition method and an artificial intelligence learning method based on facial images for acquiring image data including a facial expression and analyzing the acquired image data.

상기 과제를 해결하기 위하여,In order to solve the above problems,

본 발명의 일실시 예에 따른 안면이미지를 기반한 감정 인식 방법 및 인공지능 학습 방법은 Emotion recognition method and artificial intelligence learning method based on facial image according to an embodiment of the present invention

a. 기설정된 시간내로 다수의 안면이미지를 취득 및 인식하는 단계;a. Acquiring and recognizing a plurality of facial images within a preset time;

b. 안면이미지의 표정을 분석 및 추적하는 단계;b. Analyzing and tracking the facial expression of the facial image;

c. 상기 분석 및 추적된 안면이미지를 데이터화 하는 단계; 및c. Data of the analyzed and tracked facial images; And

d. 상기 데이터화된 안면이미지의 최종감정상태를 판단하는 단계;d. Determining a final emotion state of the data facial image;

를 포함할 수 있다.It may include.

또한, 본 발명의 일실시 예에 따른 안면이미지를 기반한 감정 인식 방법에 있어서, 상기 a 단계는 안면이미지를 1차 취득하고, 상기 1차 안면이미지를 취득한 시간으로부터 기설정된 시간 이내로 안면이미지를 재취득할 수 있다.In addition, in the emotion recognition method based on the facial image according to an embodiment of the present invention, in step a, the facial image is first acquired, and the facial image is reacquired within a preset time from the time of acquiring the first facial image. can do.

또한, 본 발명의 일실시 예에 따른 안면이미지를 기반한 감정 인식 방법에 있어서, 상기 b 단계는 다수의 안면이미지의 표정을 각각 분석하고, 분석된 표정을 상호 매칭시켜 표정의 변화를 추적하여 안면이미지의 감정을 최초판단할 수 있다.In addition, in the emotion recognition method based on the facial image according to an embodiment of the present invention, the step b is to analyze the facial expressions of the plurality of facial images, respectively, and match the analyzed facial expressions to track the change in facial expressions facial image You can judge the feelings of the first time.

또한, 본 발명의 일실시 예에 따른 안면이미지를 기반한 감정 인식 방법에 있어서, 상기 최초판단된 감정은 7가지의 감정 및 각각의 감정에 대한 높음, 보통, 낮음으로 세분화된 21가지의 감정 중 어느 하나인 것을 포함할 수 있다.In addition, in the emotion recognition method based on the facial image according to an embodiment of the present invention, the first judged emotion is any one of seven emotions and 21 emotions divided into high, normal, low for each emotion It may include one.

또한, 본 발명의 일실시 예에 따른 안면이미지를 기반한 감정 인식 방법에 있어서, 서로 다른 안면이미지를 분석하여 눈 및 입의 변화값이 일정이상이면 높음, 일정수준이면 보통, 일정이하면 낮음으로 판단할 수 있다.In addition, in the emotion recognition method based on the facial image according to an embodiment of the present invention, by analyzing the different facial images, if the change value of the eye and mouth is above a certain level, it is determined that the high, if a certain level, if the constant is low can do.

또한, 본 발명의 일실시 예에 따른 안면이미지를 기반한 감정 인식 방법에 있어서, 상기 7가지의 감정은 분노, 혐오, 두려움, 행복, 슬픔, 놀람, 무표정을 포함할 수 있다.In addition, in the emotion recognition method based on the facial image according to an embodiment of the present invention, the seven emotions may include anger, aversion, fear, happiness, sadness, surprise, expressionless.

또한, 본 발명의 일실시 예에 따른 안면이미지를 기반한 감정 인식 방법에 있어서, 상기 c 단계는 상기 추적 및 분석된 안면이미지를 표정의 변화 및 감정상태를 지수화 한 이후, 이를 데이터화할 수 있다.In addition, in the emotion recognition method based on the facial image according to an embodiment of the present invention, the step c may be data after indexing the facial expression change and the emotional state of the tracked and analyzed facial image.

또한, 본 발명의 일실시 예에 따른 안면이미지를 기반한 감정 인식 방법에 있어서, 상기 d 단계는 상기 데이터화된 안면이미지 및 사전에 저장된 데이터를 비교판단하여 최종감정상태를 도출할 수 있다.In addition, in the emotion recognition method based on the facial image according to an embodiment of the present invention, the step d may compare the data of the facialized image and the previously stored data to derive the final emotional state.

본 발명의 일실시 예에 따른 최종감정상태를 도출한 안면이미지를 기반으로 한 인공지능 학습 방법에 있어서, In the artificial intelligence learning method based on the facial image derived the final emotional state according to an embodiment of the present invention,

a. 사전학습모델을 생성하고, 이를 1차학습하는 단계;a. Generating a pre-learning model and primary learning it;

b. 상기 사전학습모델을 기반으로 2차학습시켜 초기학습모델을 생성하는 단계;b. Generating an initial learning model by performing secondary learning based on the pre-learning model;

c. 상기 a 및 b 단계에서 학습한 데이터 중에서 각 라벨의 신뢰도를 기준으로 데이터를 선별하여 이를 판단하는 단계;c. Selecting data from the data learned in steps a and b based on the reliability of each label and determining the same;

d. 상기 초기학습모델에 3차학습하는 단계;d. Tertiary learning on the initial learning model;

e. 상기 1차 내지 3차학습을 통해 생성된 학습모델을 검토하여 기설정된 방향으로 수렴하는지의 여부를 판단하는 단계; 및e. Determining whether to converge in a predetermined direction by examining a learning model generated through the first to third learning; And

f. 최종학습모델을 생성하는 단계;f. Generating a final learning model;

를 포함할 수 있다.It may include.

또한, 본 발명의 일실시 예에 따른 안면이미지를 기반한 감정 인식 방법에 있어서, 상기 사전학습모델은 데이터의 벡터를 추출하는 기능을 포함할 수 있다.Further, in the emotion recognition method based on the facial image according to an embodiment of the present invention, the pre-learning model may include a function of extracting a vector of data.

또한, 본 발명의 일실시 예에 따른 안면이미지를 기반한 감정 인식 방법에 있어서, 상기 a 및 b 단계는 반복적으로 수행하여 학습모델의 성능 및 신뢰도를 향상시키는 단계를 더 포함할 수 있다.In addition, in the emotion recognition method based on the facial image according to an embodiment of the present invention, the steps a and b may be further performed to improve the performance and reliability of the learning model.

또한, 본 발명의 일실시 예에 따른 안면이미지를 기반한 감정 인식 방법에 있어서, 상기 a 및 b 단계를 실시하여 학습된 학습모델이 상기 사전학습모델보다 성능 또는 신뢰도가 낮은 경우, 학습한 데이터를 삭제하고 1차학습 및 2차학습을 재학습할 수 있다.In addition, in the emotion recognition method based on the facial image according to an embodiment of the present invention, if the learning model trained by performing steps a and b has a lower performance or reliability than the pre-learning model, the learned data is deleted. And relearn primary and secondary learning.

상기 c 단계는 모든 학습 데이터 중 일부의 라벨만 선별하여 판단하는 안면이미지를 기반한 인공지능 학습 방법.Step c is an artificial intelligence learning method based on the face image to determine by determining only some of the labels of all the training data.

또한, 본 발명의 일실시 예에 따른 안면이미지를 기반한 감정 인식 방법에 있어서, 상기 각 라벨의 신뢰도가 0.9이상이면, 성능 및 신뢰도가 높은 학습모델로 판단할 수 있다.In addition, in the emotion recognition method based on the facial image according to an embodiment of the present invention, if the reliability of each label is 0.9 or more, it can be determined as a learning model having high performance and reliability.

또한, 본 발명의 일실시 예에 따른 안면이미지를 기반한 감정 인식 방법에 있어서, 상기 d 단계는 상기 초기학습모델에 능동학습(Lctive Learing)을 실시하여 모델의 성능을 향상시킬 수 있다.In addition, in the emotion recognition method based on the facial image according to an embodiment of the present invention, the d step may improve the performance of the model by performing active learning (Lctive Learing) to the initial learning model.

또한, 본 발명의 일실시 예에 따른 안면이미지를 기반한 감정 인식 방법에 있어서, 상기 e 단계는 상기 1 내지 3차학습단계가 완료될 때마다 최종 데이터를 기록하여 이 데이터가 기설정된 방향으로 수렴하면 학습데이터의 환경을 변경하는 1차수렴단계; 및In addition, in the emotion recognition method based on the facial image according to an embodiment of the present invention, the step e is to record the final data every time the first to third learning step is completed and the data converges in a predetermined direction A first convergence step of changing the environment of the learning data; And

상기 1차수렴단계의 최종 데이터를 기록하여 이 데이터가 기설정된 방향으로 수렴하면 최종학습모델로 저장하는 2차수렴단계;A second convergence step of recording the final data of the first convergence step and storing the final data in the final learning model when the data converge in a predetermined direction;

를 더 포함할 수 있다.It may further include.

또한, 본 발명의 일실시 예에 따른 안면이미지를 기반한 감정 인식 방법에 있어서, 상기 1차수렴단계 및 2차수렴단계에서 최종데이터가 발산하게되면, 해당 데이터를 삭제하고 사전학습모델을 재생성시키는 것을 포함할 수 있다.In addition, in the emotion recognition method based on the facial image according to an embodiment of the present invention, if the final data is divergent in the first and second convergence step, deleting the data and regenerating the pre-learning model It may include.

이러한 해결 수단은 첨부된 도면에 의거한 다음의 발명의 상세한 설명으로부터 더욱 명백해질 것이다.Such solutions will become more apparent from the following detailed description of the invention based on the accompanying drawings.

이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이고 사전적인 의미로 해석되어서는 아니 되며, 발명자가 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합되는 의미와 개념으로 해석되어야만 한다.Prior to this, the terms or words used in this specification and claims should not be interpreted in a conventional and dictionary sense, and the inventors may properly define the concepts of terms in order to best explain their invention in the best way possible. On the basis of the principle that it can be interpreted as meaning and concept corresponding to the technical idea of the present invention.

본 발명의 일실시 예에 따르면, 얼굴 표정이 포함된 이미지 데이터를 취득하고, 취득한 이미지 데이터를 분석하여 감정을 인식할 수 있다.According to an embodiment of the present invention, the emotion may be recognized by acquiring image data including a facial expression and analyzing the acquired image data.

도 1은 본 발명의 일실시 예에 따른 안면이미지를 기반한 감정 인식 방법의 전체순서도.
도 2는 본 발명의 일실시 예에 따른 안면이미지를 기반한 감정 인식 방법의 얼굴표정의 감정을 세분화한 사용예시도.
도 3은 본 발명의 일실시 예에 따른 안면이미지를 기반한 인공지능 학습 방법의 전체순서도.
1 is an overall flowchart of a emotion recognition method based on a facial image according to an embodiment of the present invention.
Figure 2 is an exemplary use of the facial expressions of the facial expressions of the emotion recognition method based on the facial image according to an embodiment of the present invention.
3 is an overall flowchart of an artificial intelligence learning method based on facial images according to an embodiment of the present invention.

본 발명의 특이한 관점, 특정한 기술적 특징들은 첨부된 도면들과 연관되는 이하의 구체적인 내용과 일실시 예로부터 더욱 명백해 질 것이다. 본 명세서에서 각 도면의 구성요소들에 참조 부호를 부가함에 있어, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명의 일실시 예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Specific aspects and specific technical features of the present invention will become more apparent from the following detailed description and embodiments related to the accompanying drawings. In the present specification, in adding reference numerals to the components of each drawing, it should be noted that the same reference numerals are used to refer to the same components, even if displayed on different drawings. In addition, in describing an embodiment of the present invention, when it is determined that a detailed description of a related known configuration or function may obscure the gist of the present invention, the detailed description thereof will be omitted.

또한, 본 발명의 구성요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성요소 사이에 또 다른 구성요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.In addition, in describing the components of the present invention, terms such as first, second, A, B, (a), and (b) may be used. These terms are only to distinguish the components from other components, and the nature, order, order, etc. of the components are not limited by the terms. If a component is described as being "connected", "coupled" or "connected" to another component, that component may be directly connected or connected to that other component, but there may be another configuration between each component. It is to be understood that the elements may be "connected", "coupled" or "connected".

이하, 본 발명의 일실시 예를 첨부된 도면에 의거하여 상세히 설명하면 다음과 같다.Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1에 도시된 바와 같이, 본 발명의 일실시 예에 따른 안면이미지를 기반한 감정 인식 방법은 기설정된 시간내로 다수의 안면이미지를 취득 및 이를 인식하는 단계(S110)와, 안면이미지의 표정을 분석 및 추적하는 단계(S120)와, 분석 및 추적된 안면이미지를 데이터화 하는 단계(S130)와, 데이터화된 안면이미지의 최종감정상태를 판단하는 단계(S140)를 포함한다.As shown in FIG. 1, an emotion recognition method based on a face image according to an embodiment of the present disclosure may include acquiring and recognizing a plurality of face images within a predetermined time (S110) and analyzing facial expressions of the face image. And tracking (S120), data analyzing and tracking the facial image (S130), and determining a final emotional state of the dataized facial image (S140).

먼저, 안면이미지를 기반한 감정 인식 방법은 촬영기기 예컨대 카메라로 안면을 촬영하여 안면이미지를 다수 취득할 수 있다(S110).First, the emotion recognition method based on the face image may acquire a plurality of face images by photographing the face with a photographing device such as a camera (S110).

구체적으로, S110는 촬영기기를 통해 안면이미지를 1차 취득하고, 1차 취득한 시점을 기준으로 기설정된 시간 이내로 안면이미지를 2차 취득하며, 총 2개의 안면이미지를 취득할 수 있다.In detail, S110 may first acquire a facial image through a photographing device, acquire a second facial image within a preset time based on the first acquisition time, and acquire a total of two facial images.

여기서, 기설정된 시간은 쵤영기기를 통해 사전에 설정된 시간이며, 1차로 취득한 1차 안면이미지로부터 수초후에 2차적으로 취득한 2차 안면이미지를 취득할 수 있다.Here, the predetermined time is a time set in advance through the photographing device, it is possible to acquire a second facial image acquired secondly after a few seconds from the first facial image obtained first.

즉, 1차 안면이미지 및 2차 안면이미지의 취득 시간은 임의의 시간의 간격을 두고 취득한다.That is, the acquisition time of the primary face image and the secondary face image is acquired at an arbitrary time interval.

이러한 방법으로 취득한 1차 안면이미지 및 2차 안면이미지는 상호 매칭하여 안면이미지에 표시된 얼굴 표정을 분석한다(S120).The primary facial image and the secondary facial image acquired in this way are matched with each other to analyze the facial expressions displayed on the facial image (S120).

구체적으로, 1차 안면이미지의 얼굴 표정 및 2차 안면이미지의 얼굴 표정을 각각 분석하고, 분석된 표정을 상호 매칭시켜 표정의 변화를 추적하며, 추적된 변화값을 기반으로 안면이미지의 감정을 최초판단한다.Specifically, the facial expressions of the first facial image and the facial expressions of the second facial image are analyzed respectively, the analyzed facial expressions are matched to each other to track the change of expression, and the emotion of the facial image based on the tracked change value for the first time. To judge.

도 1,2에 도시된 바와 같이, 본 발명에서 판단하는 감정은 분노, 혐오, 두려움, 행복, 슬픔, 놀람, 무표정 총 7가지의 감정을 판단하며, 각각의 감정에 대한 세분화를 실시하여 하나의 감정에 높음, 보통, 낮음으로 판별함으로써 총 21가지의 감정을 판단할 수 있다.As shown in Figures 1 and 2, the emotions judged in the present invention judges a total of seven emotions, such as anger, disgust, fear, happiness, sadness, surprise, and expressionless, and by subdividing each emotion into one, A total of 21 emotions can be judged by judging emotions as high, normal or low.

구체적으로, 1차 안면이미지의 얼굴 표정 및 2차 안면이미지의 얼굴 표정의 변화값 예컨대 각각의 감정에 따라 변화량이 서로 다른 눈꼬리 및 입꼬리의 변화값을 비교 분석하여, 각각의 감정에 대한 높음, 보통, 낮음으로 판단할 수 있다.Specifically, the change value of the facial expression of the first facial image and the facial expression of the second facial image, for example, by comparing and analyzing the change values of the tails and the tails of the eyes with different amounts of change according to each emotion, high, normal for each emotion It can be judged as low.

여기서, 안면이미지의 표정 변화량은 1차 안면이미지 및 2차 안면이미지의 눈꼬리와 입꼬리를 각각 감지하고, 1차 안면이미지의 눈꼬리와 입꼬리 및 2차 안면이미지의 눈꼬치와 입꼬리를 각각 매칭시켜 변화값을 산출하며, 변화값이 일정이상이면 높음, 일정수준이면 보통, 일정이하면 낮음으로 판단한다.Here, the facial expression variation of the facial image detects the eye and mouth tails of the first and second facial images, respectively, and matches the eye and mouth tails of the primary and second facial images, respectively. If the change is more than a certain level, it is high.

즉, 본 발명에서는 적어도 2장의 안면이미지를 통해 최대 21가지의 감정을 판단 할 수 있다.That is, in the present invention, up to 21 emotions can be determined through at least two facial images.

안면이미지를 통해 표정을 분석 및 추적하여 최초감정을 판단한 이후에 안면이미지를 데이터화할 수 있다(S130).After analyzing the facial expression through the facial image and determining the initial emotion, the facial image may be data (S130).

구체적으로, 다수의 안면이미지를 통해 판단한 최초감정상태 및 안면이미지의 얼굴 표정의 변화값 예컨대 눈꼬리 및 입꼬리의 변화지수와, 최초감정상태를 지수화한 이후, 이를 데이터화하여 최종감정상태를 용이하게 판별할 수 있도록 한다.Specifically, the initial emotional state determined by a plurality of facial images and the change index of facial expressions of the facial image, for example, the index of eye and mouth changes, and after the initial emotional state is indexed, the final emotional state can be easily determined by data. To help.

최초감정상태 및 얼굴 표정의 변화값을 지수화한 데이터 및 사전에 저장된 데이터를 상호 비교판단하여 촬영된 안면이미지의 최종감정상태를 판단할 수 있다(S140).The final emotional state of the photographed facial image may be determined by comparing the initial emotion state and the facial expression change value and the previously stored data.

여기서, 사전에 저장된 데이터는 외부에서 제공된 데이터를 저장매체 예컨대 서버에 저장된 것으로, 최초감정상태 및 얼굴 표정의 변화값을 지수화한 데이터화 상호 매칭시켜 이 매칭이 어느 감정에 수렴한지 판단하는 기준이 될 수 있다.Here, the pre-stored data is stored in a storage medium such as a server, the data provided from the outside, it can be a criterion for determining which emotion converged by matching the initial emotion state and the change value of the facial expression to the exponential data. have.

또한, 외부에서 저장된 데이터는 BU3DFE 데이터베이스를 포함할 수 있다.In addition, the externally stored data may include a BU3DFE database.

도 3에 도시된 바와 같이, 최종감정상태를 도출한 안면이미지를 기반으로 한 인공지능 학습 방법은 사전학습모델을 생성하고 이를 1차학습하는 단계(S210)와, 사전학습모델을 기반으로 2차학습시켜 초기학습모델을 생성하는 단계(S220)와, 1차학습단계 및 2차 학습단계를 실시한 데이터 중에서 각 라벨의 신뢰도를 기준으로 데이터를 선별하여 이를 판단하는 단계(S230)와, 초기학습모델에 3차학습하는 단계(S240)와, 1차 내지 3차학습을 통해 생성된 학습모델을 검토하여 기설정된 방향으로 수렴하는지의 여부를 판단하는 단계(S250) 및 최종학습모델을 생성하는 단계(S260)를 포함한다.As shown in FIG. 3, the artificial intelligence learning method based on the facial image from which the final emotional state is derived may include generating a pre-learning model and first-learning it (S210) and a second-order based on the pre-learning model. Generating an initial learning model by learning (S220), Selecting the data based on the reliability of each label from the data subjected to the first learning step and the second learning step (S230) and the initial learning model Tertiary learning in step (S240), reviewing the learning model generated through the first to third learning to determine whether to converge in a predetermined direction (S250) and generating a final learning model ( S260).

사전학습모델은 외부에서 제공받아 저장매체 예컨대 서버에 저장된 데이터를 기반으로 생성된 모델이며, 본 발명에서의 외부에서 제공받은 데이터는 안면이미지를 통해 감정을 판별할 수 있는 데이터 즉, 공개된 BU3DFE 데이터베이스에서 제공받은 데이터이나, 이에 한정하는 것은 아니다.The pre-learning model is a model generated based on data stored in a storage medium, for example, a server, which is provided from the outside, and the data provided externally in the present invention is data that can determine emotion through a face image, that is, a published BU3DFE database. Data provided by, but not limited to.

또한, 사전학습모델은 데이터의 벡터를 추출하는 기능을 탑재되도록 생성됨으로써 최종감정상태를 도출한 안면이미지의 데이터 및 자동학습(Self Learning)을 반복적으로 수행하여 도출된 데이터의 백터를 추출할 수 있도록 구성된다.In addition, the pre-learning model is generated to be equipped with a function of extracting a vector of data, so that it is possible to extract the data of the derived data by repeatedly performing the data of the face image and the self-learning which derive the final emotional state. It is composed.

이러한 사전학습모델 및 최종감정상태를 도출한 안면이미지를 기반으로 1차학습을 실시한다(S210).Based on the pre-learning model and the facial image from which the final emotional state is derived, primary learning is performed (S210).

1차 학습은 공개된 BU3DFE 데이터베이스 및 사전에 저장된 안면이미지들을 기반으로 자동학습을 실시하는 것으로, 주어진 데이터를 기반으로 학습을 실시하는 수동형 학습(또는 자동학습(Self Learning))형태로 이루어질 수 있다.Primary learning is to perform automatic learning based on the published BU3DFE database and previously stored facial images, and may be in the form of passive learning (or self learning) that performs learning based on given data.

또한, 1차 학습이 완료된 사전학습모델을 기반으로 2차학습을 실시하여 초기학습모델을 생성할 수 있다(S220).In addition, the second learning may be performed based on the pre-learning model in which the first learning is completed, thereby generating an initial learning model (S220).

2차학습은 1차 학습이 완료된 사전학습모델을 기반으로 자동학습(Self Learning) 및 능동학습(Active Learning)을 주기적으로 반복실행함으로써 초기학습모델의 성능 및 신뢰도를 향상시키는 효과가 있다.Secondary learning has the effect of improving the performance and reliability of the initial learning model by periodically repeating the self-learning and active learning based on the pre-learning model where the primary learning is completed.

여기서, 1차학습 및 2차학습을 반복적으로 수행함으로써 학습모델의 성능 및 데이터의 신뢰도를 향상시킨다.Here, the performance of the learning model and the reliability of the data are improved by repeatedly performing the first and second learning.

예컨대, 학습하기 전의 학습모델이 1차학습 및 2차학습을 반복적으로 수행한 학습모델보다 성능이 감소하거나 또는 신뢰도가 하락된 경우에는 1차학습 및 2차학습을 실시한 학습 데이터를 삭제하고 1차학습 및 2차학습을 재시작하여 학습모델의 성능 및 데이터의 신뢰도를 재향상시킨다(S225).For example, if the learning model before learning decreases in performance or decreases in reliability than the learning model repeatedly performing the first and second learning, the learning data for the first and second learning are deleted and the first learning is performed. Restarting the learning and secondary learning to improve the performance of the learning model and the reliability of the data (S225).

1차 및 2차학습을 실시한 초기학습모델은 학습한 데이터 중에서 일부의 데이터를 선별한다(S230).The initial learning model that performs the primary and secondary learning selects some data from the learned data (S230).

구체적으로, 1차 및 2차학습을 실시하여 신뢰도 및 성능을 향상시킨 초기학습모델 중 1차 및 2차학습을 실시하면서 예측한 각 라벨의 신뢰도를 기준으로 데이터를 별도로 선별하여 신뢰도가 높은 데이터인지의 여부를 판단한다.Specifically, among the initial learning models that improve reliability and performance by performing primary and secondary learning, data are selected by selecting the data separately based on the reliability of each label predicted while performing primary and secondary learning. Determine whether or not.

여기서, 각 라벨의 신뢰도 기준은 신뢰도가 낮은 순으로 선별하거나 또는 신뢰도가 높은 순으로 선별할 수 있으며, 이 중 어느하나를 선택하여 선별될 수 있다.Here, the reliability criteria of each label may be selected in order of low reliability or in order of high reliability, and may be selected by selecting any one of them.

선별된 데이터는 신뢰도가 0.9 이상 예컨대 90%이상이면, 초기학습모델의 성능 및 신뢰도가 높은 학습모델로 판단하여 3차 학습을 실시할 수 있으며, 선별된 데이터의 신뢰도가 0.9 미만 예컨대 90%미만이며, 초기학습모델의 성능 및 신뢰도가 낮은 학습모델로 판단하여 학습모델의 성능을 재검사를 실시한다(S235).If the selected data has a reliability of 0.9 or more, for example, 90% or more, it can be judged as a learning model having high performance and reliability of the initial learning model, and then perform tertiary learning, and the reliability of the selected data is less than 0.9, for example, less than 90%. In operation S235, the performance of the learning model is rechecked by determining that the learning model has low performance and low reliability.

신뢰도가 0.9 이상 예컨대 90%이상으로 판단한 초기학습모델은 3차학습을 실시하여 학습모델의 성능 및 신뢰도를 향상시킬 수 있다.The initial learning model judged to have a reliability of 0.9 or more, for example, 90% or more, can perform the third learning to improve the performance and reliability of the learning model.

구체적으로, 신뢰도가 90%이상으로 판단한 초기학습모델에 사전에 저장된 데이터 또는 최종감정상태를 도출한 안면이미지를 기반으로 능동학습(active learning)을 실시함으로써 학습모델의 성능을 향상시킬 수 있다.Specifically, the performance of the learning model may be improved by performing active learning based on data stored in advance in the initial learning model, which is determined to have a reliability of 90% or more, or a face image from which the final emotional state is derived.

즉, 초기학습모델에 능동학습을 추가로 진행함으로써 신뢰도를 90%이상에서 95%이상으로 향상시킬 수 있으며, 최대 99%의 신뢰도로 향상시킬 수 있다.In other words, by adding active learning to the initial learning model, the reliability can be improved from more than 90% to more than 95%, and up to 99% reliability.

능동학습을 실시하여 학습이 완료된 학습모델은 사전학습모델부터 학습을 해온 단계를 각각 점검하여 학습한 학습모델의 정확도를 판단하는 1차수렴단계 및 2차 수렴단계를 더 포함한다.The learning model that has completed learning by performing active learning further includes a first convergence step and a second convergence step of determining the accuracy of the learned learning model by checking each step of learning from the pre-learning model.

구체적으로, 1차수렴단계는 상기한 1차학습단계, 2차학습단계 및 3차학습단계의 학습완료한 데이터 예컨대 학습완료된 최종 데이터를 선별하여 이 데이터가 사전에 설정된 방향으로 수렴(convergence)하면 학습데이터의 환경을 변경한다.Specifically, in the first convergence step, when the completed data of the first learning step, the second learning step, and the third learning step, for example, the final completed data are selected and the data converges in a predetermined direction, Change the environment of the training data.

예를 들어, 1차수렴단계는 1차학습단계를 완료한 이후, 학습완료한 데이터가 사전에 설정된 방향으로 수렴이 이루어지면, 2차학습단계에서 학습할 데이터를 재선정하거나, 또는 외부에서 새로운 데이터를 수집하여 2차학습을 실시하여 다양한 데이터를 학습함으로써 학습모델의 성능 및 신뢰도를 향상시킬 수 있다.For example, in the first convergence step, after completing the first learning step, if the completed data is converged in a preset direction, the second learning step may reselect data to be learned or may be newly selected from the outside. By collecting data and performing secondary learning to learn various data, the performance and reliability of the learning model can be improved.

1차수렴단계를 실시한 이후, 1차수렴단계를 실시완료한 최종 데이터가 사전에 설정된 방향으로 수렴하면(2차수렴단계) 최종학습모델로 지정하고 이 모델을 저장한다(S250).After performing the first convergence step, when the final data that has completed the first convergence step converges in a predetermined direction (second convergence step), the final learning model is designated and stored (S250).

여기서, 1차수렴단계 및 2차수렴단계를 실시하면서 학습완료된 최종 데이터가 사전에 설정된 방향에서 발산(divergence)이 이루어지면, 학습한 데이터를 일괄삭제하고, 사전학습모델을 재생성시켜 1차학습을 실시한다(S210).In this case, when the final data obtained during the first convergence step and the second convergence step are diverged in a predetermined direction, the learned data is collectively deleted and the pre-learning model is regenerated to perform the first learning. It performs (S210).

즉, 외부에서 제공받은 데이터 또는 최종감정상태를 도출한 데이터를 기반으로 1차 내지 3차학습단계를 실시하고, 각 학습단계마다 수렴단계를 실시하여 학습이 올바른 방향으로 실시하는지 또는 학습모델의 성능 및 신뢰도를 향상시킴으로써 안면이미지의 감정상태를 정확하게 판별할 수 있다.In other words, whether the learning is conducted in the right direction by performing the first to third learning steps based on the data provided from the outside or data derived from the final emotional state, and the convergence step for each learning step, or the performance of the learning model. And it is possible to accurately determine the emotional state of the facial image by improving the reliability.

이상 본 발명을 일실시 예를 통하여 상세히 설명하였으나, 이는 본 발명을 구체적으로 설명하기 위한 것으로, 본 발명에 따른 안면이미지를 기반한 감정 인식 방법 및 인공지능 학습 방법은 이에 한정되지 않는다. 그리고 이상에서 기재된 "포함하다", "구성하다", 또는 "가지다", 등의 용어는 특별히 반대되는 기재가 없는 한 해당 구성요소가 내재될 수 있음을 의미하는 것이므로, 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것으로 해석되어야 하며, 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다.Although the present invention has been described in detail through an embodiment, this is for describing the present invention in detail, and the emotion recognition method and the AI learning method based on the facial image according to the present invention are not limited thereto. The terms "comprise", "comprise", or "have" described above mean that a corresponding component may be included unless specifically stated to the contrary, and therefore, excludes other components. Rather, it should be construed that it may further include other components, all terms including technical or scientific terms are to be generally understood by one of ordinary skill in the art unless otherwise defined Has the same meaning as

또한, 이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형 가능하다. 따라서, 본 발명에 개시된 일실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 일실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.In addition, the above description is merely illustrative of the technical idea of the present invention, and those skilled in the art may make various modifications and variations without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention but to describe the present invention, and the scope of the technical idea of the present invention is not limited by the one embodiment. The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the equivalent scope should be interpreted as being included in the scope of the present invention.

Claims (17)

a. 기설정된 시간내로 다수의 안면이미지를 취득 및 인식하는 단계;
b. 안면이미지의 표정을 분석 및 추적하는 단계;
c. 상기 분석 및 추적된 안면이미지를 데이터화 하는 단계; 및
d. 상기 데이터화된 안면이미지의 최종감정상태를 판단하는 단계;
를 포함하는 안면이미지를 기반한 감정 인식 방법.
a. Acquiring and recognizing a plurality of facial images within a preset time;
b. Analyzing and tracking the facial expression of the facial image;
c. Data of the analyzed and tracked facial images; And
d. Determining a final emotion state of the data facial image;
Emotion recognition method based on facial image comprising a.
청구항 1에 있어서,
상기 a 단계는 안면이미지를 1차 취득하고, 상기 1차 안면이미지를 취득한 시간으로부터 기설정된 시간 이내로 안면이미지를 재취득하는 안면이미지를 기반한 감정 인식 방법.
The method according to claim 1,
In the step a, the facial image is first acquired, and the facial image-based emotion recognition method reacquires the facial image within a preset time from the time of acquiring the first facial image.
청구항 1에 있어서,
상기 b 단계는 다수의 안면이미지의 표정을 각각 분석하고, 분석된 표정을 상호 매칭시켜 표정의 변화를 추적하여 안면이미지의 감정을 최초판단하는 안면이미지를 기반한 감정 인식 방법.
The method according to claim 1,
Step b is a facial image based emotion recognition method for analyzing the facial expressions of a plurality of facial images, respectively, matching the analyzed facial expressions to track the change of facial expressions to determine the emotion of the facial image based on the facial image.
청구항 3에 있어서,
상기 최초판단된 감정은 7가지의 감정 및 각각의 감정에 대한 높음, 보통, 낮음으로 세분화된 21가지의 감정 중 어느 하나인 것을 포함하는 안면이미지를 기반한 감정 인식 방법.
The method according to claim 3,
The first judged emotion is a emotion image recognition method based on the facial image, including one of seven emotions and 21 emotions divided into high, normal, low for each emotion.
청구항 4에 있어서,
서로 다른 안면이미지를 분석하여 눈 및 입의 변화값이 일정이상이면 높음, 일정수준이면 보통, 일정이하면 낮음으로 판단하는 안면이미지를 기반한 감정 인식 방법.
The method according to claim 4,
A facial recognition method based on facial images that analyzes different facial images and judges that the change in eye and mouth is higher than a certain level, high if a certain level is normal, and lower if a certain level is lower.
청구항 4에 있어서,
상기 7가지의 감정은 분노, 혐오, 두려움, 행복, 슬픔, 놀람, 무표정을 포함하는 안면이미지를 기반한 감정 인식 방법.
The method according to claim 4,
The seven emotions are an emotion recognition method based on facial image including anger, disgust, fear, happiness, sadness, surprise, expressionless.
청구항 1에 있어서,
상기 c 단계는 상기 추적 및 분석된 안면이미지를 표정의 변화 및 감정상태를 지수화 한 이후, 이를 데이터화하는 안면이미지를 기반한 감정 인식 방법.
The method according to claim 1,
In the step c, the facial image based on the facial image is indexed after the change in facial expression and the emotional state of the tracked and analyzed facial data.
청구항 1에 있어서,
상기 d 단계는 상기 데이터화된 안면이미지 및 사전에 저장된 데이터를 비교판단하여 최종감정상태를 도출하는 안면이미지를 기반한 감정 인식 방법.
The method according to claim 1,
Step d is a emotion recognition method based on the facial image to derive a final feeling state by comparing the judged data and facial data stored in advance.
최종감정상태를 도출한 안면이미지를 기반으로 한 인공지능 학습 방법에 있어서,
a. 사전학습모델을 생성하고, 이를 1차학습하는 단계;
b. 상기 사전학습모델을 기반으로 2차학습시켜 초기학습모델을 생성하는 단계;
c. 상기 a 및 b 단계에서 학습한 데이터 중에서 각 라벨의 신뢰도를 기준으로 데이터를 선별하여 이를 판단하는 단계;
d. 상기 초기학습모델에 3차학습하는 단계;
e. 상기 1차 내지 3차학습을 통해 생성된 학습모델을 검토하여 기설정된 방향으로 수렴하는지의 여부를 판단하는 단계; 및
f. 최종학습모델을 생성하는 단계;
를 포함하는 안면이미지를 기반한 인공지능 학습 방법.
In the artificial intelligence learning method based on the facial image from which the final emotional state is derived,
a. Generating a pre-learning model and primary learning it;
b. Generating an initial learning model by performing secondary learning based on the pre-learning model;
c. Selecting data from the data learned in steps a and b based on the reliability of each label and determining the same;
d. Tertiary learning on the initial learning model;
e. Determining whether to converge in a predetermined direction by examining a learning model generated through the first to third learning; And
f. Generating a final learning model;
Artificial intelligence learning method based on facial image comprising a.
청구항 9에 있어서,
상기 사전학습모델은 데이터의 벡터를 추출하는 기능을 포함하는 안면이미지를 기반한 인공지능 학습 방법.
The method according to claim 9,
The pre-learning model is an artificial intelligence learning method based on facial image including a function of extracting a vector of data.
청구항 9에 있어서,
상기 a 및 b 단계는 반복적으로 수행하여 학습모델의 성능 및 신뢰도를 향상시키는 단계를 더 포함하는 안면이미지를 기반한 인공지능 학습 방법.
The method according to claim 9,
The a and b steps are repeatedly performed to improve the performance and reliability of the learning model further comprises a facial image-based artificial intelligence learning method.
청구항 9에 있어서,
상기 a 및 b 단계를 실시하여 학습된 학습모델이 상기 사전학습모델보다 성능 또는 신뢰도가 낮은 경우, 학습한 데이터를 삭제하고 1차학습 및 2차학습을 재학습하는 안면이미지를 기반한 인공지능 학습 방법.
The method according to claim 9,
When the learning model trained by performing steps a and b has lower performance or reliability than the pre-learning model, the artificial intelligence learning method based on face images that deletes the learned data and relearns the first and second learnings .
청구항 9에 있어서,
상기 c 단계는 모든 학습 데이터 중 일부의 라벨만 선별하여 판단하는 안면이미지를 기반한 인공지능 학습 방법.
The method according to claim 9,
Step c is an artificial intelligence learning method based on the face image to determine by determining only some of the labels of all the training data.
청구항 9에 있어서,
상기 각 라벨의 신뢰도가 0.9이상이면, 성능 및 신뢰도가 높은 학습모델로 판단하는 안면이미지를 기반한 인공지능 학습 방법.
The method according to claim 9,
When the reliability of each label is 0.9 or more, the artificial intelligence learning method based on facial image determined as a learning model having high performance and reliability.
청구항 9에 있어서,
상기 d 단계는 상기 초기학습모델에 능동학습(Lctive Learing)을 실시하여 모델의 성능을 향상시키는 안면이미지를 기반한 인공지능 학습 방법.
The method according to claim 9,
Step d is an artificial intelligence learning method based on the face image to improve the performance of the model by performing active learning (Lctive Learing) to the initial learning model.
청구항 9에 있어서,
상기 e 단계는 상기 1 내지 3차학습단계가 완료될 때마다 최종 데이터를 기록하여 이 데이터가 기설정된 방향으로 수렴하면 학습데이터의 환경을 변경하는 1차수렴단계; 및
상기 1차수렴단계의 최종 데이터를 기록하여 이 데이터가 기설정된 방향으로 수렴하면 최종학습모델로 저장하는 2차수렴단계;
를 더 포함하는 안면이미지를 기반한 인공지능 학습 방법.
The method according to claim 9,
Step e is a first convergence step of recording the final data each time the first to third learning step is completed and changes the environment of the learning data when the data converge in a predetermined direction; And
A second convergence step of recording the final data of the first convergence step and storing the final data in the final learning model when the data converge in a predetermined direction;
Artificial intelligence learning method based on facial image further comprising.
청구항 16에 있어서,
상기 1차수렴단계 및 2차수렴단계에서 최종데이터가 발산하게되면, 해당 데이터를 삭제하고 사전학습모델을 재생성시키는 것을 포함하는 안면이미지를 기반한 인공지능 학습 방법.
The method according to claim 16,
When the final data is divergent in the first convergence step and the second convergence step, artificial intelligence learning method based on facial image comprising deleting the data and regenerating the pre-learning model.
KR1020180042238A 2018-04-11 2018-04-11 Emotion recognition method and artificial intelligence learning method based on facial image KR20190123371A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180042238A KR20190123371A (en) 2018-04-11 2018-04-11 Emotion recognition method and artificial intelligence learning method based on facial image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180042238A KR20190123371A (en) 2018-04-11 2018-04-11 Emotion recognition method and artificial intelligence learning method based on facial image

Publications (1)

Publication Number Publication Date
KR20190123371A true KR20190123371A (en) 2019-11-01

Family

ID=68535607

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180042238A KR20190123371A (en) 2018-04-11 2018-04-11 Emotion recognition method and artificial intelligence learning method based on facial image

Country Status (1)

Country Link
KR (1) KR20190123371A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111274447A (en) * 2020-01-13 2020-06-12 深圳壹账通智能科技有限公司 Target expression generation method, device, medium and electronic equipment based on video
KR102293234B1 (en) 2020-09-24 2021-08-25 월드버텍 주식회사 Mutimedia education system using Artificial Intelligence and Method for supporting learning
KR20210128358A (en) 2020-04-16 2021-10-26 주식회사 에이비에이치 Apparatus and method for recognizing emotion based on artificial intelligence
KR20220043631A (en) * 2020-09-29 2022-04-05 고려대학교 산학협력단 Face image test device and operation method thereof
KR20230081082A (en) 2021-11-30 2023-06-07 연세대학교 원주산학협력단 Method for measuring depression using facial muscle motion
CN117542106A (en) * 2024-01-10 2024-02-09 成都同步新创科技股份有限公司 Static face detection and data elimination method, device and storage medium
KR20240065429A (en) 2022-10-28 2024-05-14 주식회사 에이비에이치 Method for providing visual alarm at sensing data outlier by daq itself

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130015958A (en) 2011-08-05 2013-02-14 충남대학교산학협력단 Emotion recognition apparatus using facial expression, emotion recognition method using the same, and recording medium thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130015958A (en) 2011-08-05 2013-02-14 충남대학교산학협력단 Emotion recognition apparatus using facial expression, emotion recognition method using the same, and recording medium thereof

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111274447A (en) * 2020-01-13 2020-06-12 深圳壹账通智能科技有限公司 Target expression generation method, device, medium and electronic equipment based on video
KR20210128358A (en) 2020-04-16 2021-10-26 주식회사 에이비에이치 Apparatus and method for recognizing emotion based on artificial intelligence
KR102293234B1 (en) 2020-09-24 2021-08-25 월드버텍 주식회사 Mutimedia education system using Artificial Intelligence and Method for supporting learning
KR20220043631A (en) * 2020-09-29 2022-04-05 고려대학교 산학협력단 Face image test device and operation method thereof
KR20230081082A (en) 2021-11-30 2023-06-07 연세대학교 원주산학협력단 Method for measuring depression using facial muscle motion
KR20240065429A (en) 2022-10-28 2024-05-14 주식회사 에이비에이치 Method for providing visual alarm at sensing data outlier by daq itself
CN117542106A (en) * 2024-01-10 2024-02-09 成都同步新创科技股份有限公司 Static face detection and data elimination method, device and storage medium
CN117542106B (en) * 2024-01-10 2024-04-05 成都同步新创科技股份有限公司 Static face detection and data elimination method, device and storage medium

Similar Documents

Publication Publication Date Title
KR20190123371A (en) Emotion recognition method and artificial intelligence learning method based on facial image
CN111758116B (en) Face image recognition system, recognizer generation device, recognition device, and face image recognition system
US10402632B2 (en) Pose-aligned networks for deep attribute modeling
KR20230021043A (en) Method and apparatus for recognizing object, and method and apparatus for learning recognizer
Boehnen et al. A fast multi-modal approach to facial feature detection
Wang et al. Towards realistic predictors
CN109359196B (en) Text multi-modal representation method and device
CN112613349B (en) Time sequence action detection method and device based on deep hybrid convolutional neural network
JP7107598B2 (en) Authentication face image candidate determination device, authentication face image candidate determination method, program, and recording medium
KR20210051473A (en) Apparatus and method for recognizing video contents
CN116259075A (en) Pedestrian attribute identification method based on prompt fine tuning pre-training large model
CN115862120B (en) Face action unit identification method and equipment capable of decoupling separable variation from encoder
CN111428666A (en) Intelligent family accompanying robot system and method based on rapid face detection
Tautkutė et al. Classifying and visualizing emotions with emotional DAN
Booysens et al. Ear biometrics using deep learning: A survey
Zhang et al. Facial component-landmark detection with weakly-supervised lr-cnn
Babbar et al. Cross-age face recognition using deep residual networks
CN111242114A (en) Character recognition method and device
CN116416664A (en) Depression recognition system, medium and equipment combined with facial dynamic behavior
KR101567686B1 (en) authentication method and authentication device using the same
CN114022698A (en) Multi-tag behavior identification method and device based on binary tree structure
CN113642446A (en) Detection method and device based on face dynamic emotion recognition
CN114792436A (en) Face depth image quality evaluation method and system, electronic device and storage medium
KR102204743B1 (en) Apparatus and method for identifying emotion by gaze movement analysis
Hsu et al. Facial expression recognition using Hough forest

Legal Events

Date Code Title Description
N231 Notification of change of applicant