KR102110393B1 - Emotion recognition method and computer program for excuting the method, emotion recognizer generation method and computer program for excuting the method - Google Patents

Emotion recognition method and computer program for excuting the method, emotion recognizer generation method and computer program for excuting the method Download PDF

Info

Publication number
KR102110393B1
KR102110393B1 KR1020190100422A KR20190100422A KR102110393B1 KR 102110393 B1 KR102110393 B1 KR 102110393B1 KR 1020190100422 A KR1020190100422 A KR 1020190100422A KR 20190100422 A KR20190100422 A KR 20190100422A KR 102110393 B1 KR102110393 B1 KR 102110393B1
Authority
KR
South Korea
Prior art keywords
type
feature vector
content
emotion
information
Prior art date
Application number
KR1020190100422A
Other languages
Korean (ko)
Other versions
KR20190100124A (en
Inventor
오성식
이현호
박외진
Original Assignee
(주)아크릴
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)아크릴 filed Critical (주)아크릴
Priority to KR1020190100422A priority Critical patent/KR102110393B1/en
Publication of KR20190100124A publication Critical patent/KR20190100124A/en
Application granted granted Critical
Publication of KR102110393B1 publication Critical patent/KR102110393B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • G06K9/481
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/469Contour-based spatial representations, e.g. vector-coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Abstract

본 발명의 일 실시예는 적어도 하나 이상의 유형의 개체를 포함하는 인식 대상 콘텐츠에 대한 제1 사용자의 감정을 인식하는 방법으로, 개체의 유형 별로 상기 적어도 하나 이상의 유형의 개체를 수집하는 단계; 상기 수집 결과에 기초하여 개체의 유형 별 제1 특징 벡터를 생성하는 단계; 상기 제1 사용자의 일반적인 인적 사항 및 상기 제1 사용자의 콘텐츠 감상 정보에 기초하여 개인정보에 대한 제1 특징 벡터를 생성하는 단계; 상기 유형 별 제1 특징 벡터 및 상기 개인정보에 대한 제1 특징 벡터를 기 설정된 방식으로 병합하여 제2 특징 벡터를 생성하는 단계; 및 복수의 학습 데이터에 기초하여 학습된 감정 인식기를 이용하여, 상기 제2 특징 벡터에 대응되는 감정 벡터를 결정하는 단계;를 포함할 수 있다.According to an embodiment of the present invention, there is provided a method of recognizing a first user's emotion for a content to be recognized that includes at least one type of object, collecting the at least one type of object for each type of object; Generating a first feature vector for each type of object based on the collection result; Generating a first feature vector for personal information based on the general personal information of the first user and the content viewing information of the first user; Generating a second feature vector by merging the first feature vector for each type and the first feature vector for the personal information in a preset manner; And determining an emotion vector corresponding to the second feature vector by using an emotion recognizer learned based on a plurality of training data.

Figure R1020190100422
Figure R1020190100422

Description

감정 인식 방법 및 프로그램과, 감정 인식기 생성 방법 및 프로그램{EMOTION RECOGNITION METHOD AND COMPUTER PROGRAM FOR EXCUTING THE METHOD, EMOTION RECOGNIZER GENERATION METHOD AND COMPUTER PROGRAM FOR EXCUTING THE METHOD}Emotion Recognition Method and Program, and Emotion Recognizer Generation Method and Program

본 발명의 실시예들은 감정 인식 방법 및 프로그램과 감정 인식기 생성 방법 및 프로그램에 관한 것이다.Embodiments of the present invention relate to a method and a program for recognizing emotions and a method and a program for generating emotion recognizers.

정보통신 기술의 비약적인 발전으로 인해 이동통신 단말, 개인용 컴퓨터 등과 같은 다양한 종류의 단말들은 다양한 기능을 수행할 수 있도록 구현되고 있다.Due to the rapid development of information and communication technology, various types of terminals, such as mobile communication terminals and personal computers, are implemented to perform various functions.

특히 이러한 단말들은 단순히 정보를 수신하여 표시하는 종래의 기능에서 발전하여, 수신 받은 정보로부터 2차 정보를 생성하는 등의 다양한 기능들을 이용할 수 있도록 구현되고 있다.In particular, these terminals have been developed to use various functions such as generating secondary information from the received information by developing from the conventional function of simply receiving and displaying the information.

최근에는 이러한 단말을 통하여 정보를 제공하는 정보 제공자들이 정보 수신자의 감정상태를 파악하여 광고, 마케팅 등에 사용하고자 하는 경우가 증가하였다.Recently, information providers who provide information through these terminals have increased the number of users who want to use the advertisements, marketing, etc. by grasping the emotional state of the information recipient.

종래기술에 따르면, 콘텐츠 내에 복수의 유형의 개체가 포함되어 있는 경우 어떤 한 유형의 개체만을 기준으로 해당 콘텐츠에 대한 사용자의 감정을 추론하거나, 각각의 유형의 개체에 대한 감정을 개별적으로 추론한 뒤, 이를 통계적으로 처리하여 해당 콘텐츠에 대한 사용자의 감정을 추론하였다.According to the related art, when a plurality of types of objects are included in the content, the user's feelings for the corresponding content are inferred based on only one type of object, or the emotions for each type of object are individually inferred. , This was statistically processed to infer the user's feelings about the content.

이러한 방식은 각각의 유형의 개체가 모두 동일한 주제에 관한 것임에도 불구하고, 각 유형의 개체에 대한 개별적인 감정 인식 결과에 기초하여 해당 콘텐츠 전체에 대한 감정을 추론하므로 콘텐츠 흐름이나 맥락에 대한 이해가 결핍된 결과를 도출하는 문제점이 있었다.In this way, even though each type of object is all about the same subject, it lacks understanding of the content flow or context because it infers feelings for the entire content based on the results of individual emotion recognition for each type of object. There was a problem leading to the result.

특히 이러한 방식은 결국 각 유형의 개체에 대한 개별적인 감정 인식 결과를 통계모델에 기반하여 처리함으로써, 일부 유형의 개체로부터 다소 상이한 감정 인식 결과가 도출되었음에도 불구하고 이러한 인식 결과를 무시하여 보다 세밀한 감정 인식이 불가능한 문제점이 있었다.In particular, this method processes individual emotion recognition results for each type of individual based on a statistical model, so even though somewhat different emotion recognition results are derived from some types of individuals, more detailed emotion recognition is ignored by ignoring these recognition results. There was an impossible problem.

본 발명은 상술한 문제점을 해결하기 위한 것으로, 동일한 콘텐츠 내에 포함된 개체들을 개체의 유형별로 수집하고 수집된 각 유형의 개체의 특징정보를 보다 낮은 레벨에서 통합할 수 있는 감정 인식 방법 및 프로그램과, 감정 인식기 생성 방법 및 프로그램을 제공하고자 한다.The present invention is to solve the above-mentioned problems, and emotion recognition methods and programs that collect objects included in the same content for each type of object and integrate feature information of each type of collected objects at a lower level, It is intended to provide a method and program for generating an emotion recognizer.

또한 본 발명은 보다 낮은 레벨에서 통합된 각 유형의 개체의 특징정보에 기초하여 콘텐츠에 대한 감정 인식을 수행함으로써 콘텐츠의 흐름이나 맥락에 대한 이해가 부가된 감정인식 결과를 도출할 수 있는 감정 인식 방법 및 프로그램과, 감정 인식기 생성 방법 및 프로그램을 제공하고자 한다.In addition, the present invention performs emotion recognition on content based on feature information of each type of entity integrated at a lower level, and thus an emotion recognition method capable of deriving an emotion recognition result with an understanding of content flow or context. And a program and a method and program for generating an emotion recognizer.

나아가 보다 정확도가 향상된 감정 인식 방법 및 프로그램과, 감정 인식기 생성 방법 및 프로그램을 제공하고자 한다.Furthermore, it is intended to provide an emotion recognition method and program with improved accuracy and an emotion recognizer generation method and program.

본 발명의 일 실시예에 따른 적어도 하나 이상의 유형의 개체를 포함하는 인식 대상 콘텐츠에 대한 제1 사용자의 감정을 인식하는 방법은, 개체의 유형 별로 상기 적어도 하나 이상의 유형의 개체를 수집하는 단계; 상기 수집 결과에 기초하여 개체의 유형 별 제1 특징 벡터를 생성하는 단계; 상기 제1 사용자의 일반적인 인적 사항 및 상기 제1 사용자의 콘텐츠 감상 정보에 기초하여 개인정보에 대한 제1 특징 벡터를 생성하는 단계; 상기 유형 별 제1 특징 벡터 및 상기 개인정보에 대한 제1 특징 벡터를 기 설정된 방식으로 병합하여 제2 특징 벡터를 생성하는 단계; 및 복수의 학습 데이터에 기초하여 학습된 감정 인식기를 이용하여, 상기 제2 특징 벡터에 대응되는 감정 벡터를 결정하는 단계;를 포함할 수 있다. 이때 상기 감정 인식기는 감상자의 개인정보 및 적어도 하나 이상의 유형의 개체를 포함하는 복수의 테스트 콘텐츠 및 상기 복수의 테스트 콘텐츠에 대한 복수의 제2 사용자의 감정 벡터의 상관관계를 학습한 데이터 셋트일 수 있다.According to an embodiment of the present invention, a method of recognizing a first user's emotion for a content to be recognized including at least one type of object includes: collecting the at least one type of object for each type of object; Generating a first feature vector for each type of object based on the collection result; Generating a first feature vector for personal information based on the general personal information of the first user and the content viewing information of the first user; Generating a second feature vector by merging the first feature vector for each type and the first feature vector for the personal information in a preset manner; And determining an emotion vector corresponding to the second feature vector by using an emotion recognizer learned based on a plurality of training data. In this case, the emotion recognizer may be a data set that learns a correlation between a plurality of test contents including a personal information of a viewer and at least one or more types of objects, and a plurality of second user emotion vectors for the plurality of test contents. .

상기 인식 대상 콘텐츠에 복수의 제1 유형의 개체가 포함된 경우, 상기 개체를 수집하는 단계는 상기 복수의 제1 유형의 개체를 모두 수집하고, 상기 개체의 유형 별 제1 특징 벡터를 생성하는 단계는 상기 인식 대상 콘텐츠 내에 포함된 모든 제1 유형의 개체의 특징을 반영한 제1 특징 벡터를 생성할 수 있다.When a plurality of first types of objects are included in the content to be recognized, collecting the objects may include collecting all of the plurality of first types of objects and generating a first feature vector for each type of the objects. Can generate a first feature vector reflecting the features of all the first types of objects included in the content to be recognized.

상기 기 설정된 방식은 병합 대상이 되는 하나 이상의 제1 벡터를 직렬적으로 병합하는 방식일 수 있다.The preset method may be a method of serially merging one or more first vectors to be merged.

상기 인적 사항은 상기 제1 사용자의 성별, 나이, 연령, 학력, 주거지역 및 직업 중 적어도 하나를 포함하고, 상기 콘텐츠 감상 정보는 상기 제1 사용자가 상기 인식 대상 콘텐츠를 언제 감상하였는지, 어디서 감상하였는지, 얼마 동안 감상하였는지 및 어떤 경로를 통하여 감상하였는지 중 적어도 하나를 포함할 수 있다.The personal information includes at least one of the first user's gender, age, age, education, residential area, and occupation, and the content viewing information includes when and where the first user viewed the recognized target content. , It may include at least one of how long you have enjoyed and through which route.

상기 개체의 유형 별 제1 특징 벡터를 생성하는 단계는 수집된 하나 이상의 비디오 유형의 개체에 대해서, 상기 비디오 유형의 개체를 이미지 유형의 개체 및 오디오 유형의 개체로 분리하는 단계; 상기 비디오 유형의 개체로부터 분리된 이미지 유형의 개체와 상기 인식 대상 콘텐츠 내의 적어도 하나의 이미지 유형의 개체에 기초하여 이미지 유형의 개체에 대한 제1 특징 벡터를 생성하는 단계; 및 상기 비디오 유형의 개체로부터 분리된 오디오 유형의 개체와 상기 인식 대상 콘텐츠 내의 적어도 하나의 오디오 유형의 개체에 기초하여 오디오 유형의 개체에 대한 제1 특징 벡터를 생성하는 단계;를 포함할 수 있다.Generating a first feature vector for each type of object may include separating objects of the video type into objects of an image type and objects of an audio type, for the collected one or more video type objects; Generating a first feature vector for an object of the image type based on the object of the image type separated from the object of the video type and the object of at least one image type in the content to be recognized; And generating a first feature vector for an object of the audio type based on the object of the audio type separated from the object of the video type and the object of at least one audio type in the content to be recognized.

본 발명의 일 실시예에 따른 인식 대상 콘텐츠에 포함된 멀티모달(Multimodal) 정보에 기초하여 상기 인식 대상 콘텐츠에 대한 제1 사용자의 감정을 인식하는 방법은, 적어도 하나 이상의 유형의 개체를 포함하는 인식 대상 콘텐츠(Contents)를 수신하는 단계; 상기 인식 대상 콘텐츠에 포함된 개체의 유형 별로 제1 특징 벡터를 생성하는 단계; 상기 유형 별 제1 특징 벡터에 기초하여, 상기 인식 대상 콘텐츠의 특징 벡터인 제2 특징 벡터를 생성하는 단계; 및 상기 제2 특징 벡터 및 감정 인식기에 기초하여 상기 제1 사용자의 상기 인식 대상 콘텐츠에 대한 감정을 결정하는 단계;를 포함할 수 있다. 이 때 상기 감정 인식기는 적어도 하나 이상의 유형의 개체를 포함하는 복수의 테스트 콘텐츠 및 상기 복수의 테스트 콘텐츠에 대한 복수의 제2 사용자의 감정의 상관관계를 표현한 데이터 셋트일 수 있다.A method of recognizing a first user's emotion with respect to the recognition target content based on multimodal information included in the recognition target content according to an embodiment of the present invention includes recognition including at least one type of object Receiving target content; Generating a first feature vector for each type of object included in the content to be recognized; Generating a second feature vector, which is a feature vector of the content to be recognized, based on the first feature vector for each type; And determining emotions of the first user's content to be recognized based on the second feature vector and the emotion recognizer. In this case, the emotion recognizer may be a data set expressing a correlation between a plurality of test contents including at least one type of object and a plurality of second users' emotions on the plurality of test contents.

상기 인식 대상 콘텐츠는 텍스트(Text) 유형의 개체, 이미지(Image) 유형의 개체 및 오디오(Audio) 유형의 개체 중 적어도 하나의 유형의 개체를 적어도 하나 이상 포함할 수 있다.The recognition target content may include at least one object of at least one type of an object of a text type, an object of an image type, and an object of an audio type.

상기 제1 특징 벡터를 생성하는 단계는 상기 텍스트 유형의 개체에 대한 제1 특징 벡터, 상기 이미지 유형의 개체에 대한 제1 특징 벡터 및 상기 오디오 유형에 대한 제1 특징 벡터 중 적어도 하나를 생성할 수 있다.The generating of the first feature vector may generate at least one of a first feature vector for the text type object, a first feature vector for the image type object, and a first feature vector for the audio type. have.

상기 제2 특징 벡터를 생성하는 단계는 상기 텍스트 유형의 개체에 대한 제1 차원의 제1 특징 벡터, 상기 이미지 유형의 개체에 대한 제2 차원의 제1 특징 벡터 및 상기 오디오 유형에 대한 제3 차원의 제1 특징 벡터 중 적어도 하나 이상을 병합하여 제4 차원의 상기 제2 특징 벡터를 생성할 수 있다. 이 때 상기 제4 차원은 상기 제1 차원, 상기 제2 차원 및 상기 제3 차원 중 적어도 어느 하나 이상의 합에 기초하여 결정될 수 있다.Generating the second feature vector comprises: a first feature vector in a first dimension for the object of the text type, a first feature vector in a second dimension for the object of the image type, and a third dimension for the audio type. At least one of the first feature vectors may be merged to generate the second feature vector in a fourth dimension. In this case, the fourth dimension may be determined based on a sum of at least one of the first dimension, the second dimension, and the third dimension.

상기 감정 인식기는 상기 복수의 테스트 콘텐츠에 대한 복수의 제2 사용자의 감정의 상관관계를 표현함에 있어서 상기 복수의 제2 사용자의 개인정보를 더 고려한 데이터 셋트일 수 있다. 이 때 상기 콘텐츠를 수신하는 단계는 상기 제1 사용자의 개인정보를 더 수신하고 상기 제1 특징 벡터를 생성하는 단계는 상기 제1 사용자의 개인정보에 대한 제1 특징 벡터를 더 생성하고, 상기 제2 특징 벡터를 생성하는 단계는 상기 개인정보에 대한 제1 특징 벡터를 더 고려하여 상기 제2 특징 벡터를 생성할 수 있다.The emotion recognizer may be a data set that further considers personal information of the plurality of second users in expressing correlations of emotions of the plurality of second users with respect to the plurality of test contents. In this case, the step of receiving the content further receives the first user's personal information and the step of generating the first feature vector further generates a first feature vector for the first user's personal information, and the In the step of generating a feature vector, the second feature vector may be generated by further considering the first feature vector for the personal information.

본 발명의 일 실시예에 따른 테스트 콘텐츠에 포함된 멀티모달(Multimodal) 정보에 기초하여 사용자의 감정을 인식하는 감정 인식기를 생성하는 방법은, 적어도 하나 이상의 유형의 개체를 포함하고, 사용자의 감정 정보가 표지(labeled)된 하나 이상의 테스트 콘텐츠를 획득하는 단계; 각각의 테스트 콘텐츠에 대해서, 상기 테스트 콘텐츠에 포함된 개체의 유형 별로 제1 특징 벡터를 생성하는 단계; 각각의 테스트 콘텐츠에 대해서, 상기 유형 별 제1 특징 벡터에 기초하여, 테스트 콘텐츠의 특징 벡터인 제2 특징 벡터를 생성하는 단계; 및 상기 제2 특징 벡터 및 상기 감정 정보에 기초하여 상기 감정 인식기를 트레이닝(Training)하는 단계;를 포함할 수 있다. A method of generating an emotion recognizer that recognizes a user's emotion based on multimodal information included in test content according to an embodiment of the present invention includes at least one type of object, and the user's emotion information Obtaining one or more labeled test contents; Generating, for each test content, a first feature vector for each type of object included in the test content; Generating, for each test content, a second feature vector that is a feature vector of the test content, based on the first feature vector for each type; And training the emotion recognizer based on the second feature vector and the emotion information.

상기 감정 인식기는 적어도 하나 이상의 유형의 개체를 포함하는 복수의 테스트 콘텐츠 및 상기 복수의 테스트 콘텐츠에 대한 복수의 사용자의 감정의 상관관계를 표현한 데이터 셋트일 수 있다.The emotion recognizer may be a data set expressing a correlation between a plurality of test contents including at least one type of object and a plurality of user emotions on the plurality of test contents.

상기 테스트 콘텐츠 각각은 텍스트(Text) 유형의 개체, 이미지(Image) 유형의 개체 및 오디오(Audio) 유형의 개체 중 적어도 하나의 유형의 개체를 적어도 하나 이상 포함할 수 있다.Each of the test contents may include at least one object of at least one type of an object of a text type, an object of an image type, and an object of an audio type.

상기 제1 특징 벡터를 생성하는 단계는 상기 텍스트 유형의 개체에 대한 제1 특징 벡터, 상기 이미지 유형의 개체에 대한 제1 특징 벡터 및 상기 오디오 유형에 대한 제1 특징 벡터 중 적어도 하나를 생성할 수 있다.The generating of the first feature vector may generate at least one of a first feature vector for the text type object, a first feature vector for the image type object, and a first feature vector for the audio type. have.

상기 제2 특징 벡터를 생성하는 단계는 상기 텍스트 유형의 개체에 대한 제1 차원의 제1 특징 벡터, 상기 이미지 유형의 개체에 대한 제2 차원의 제1 특징 벡터 및 상기 오디오 유형에 대한 제3 차원의 제1 특징 벡터 중 적어도 하나 이상을 병합하여 제4 차원의 상기 제2 특징 벡터를 생성할 수 있다. 이 때 상기 제4 차원은 상기 제1 차원, 상기 제2 차원 및 상기 제3 차원 중 적어도 어느 하나 이상의 합에 기초하여 결정될 수 있다.Generating the second feature vector comprises: a first feature vector in a first dimension for the object of the text type, a first feature vector in a second dimension for the object of the image type, and a third dimension for the audio type. At least one of the first feature vectors may be merged to generate the second feature vector in a fourth dimension. In this case, the fourth dimension may be determined based on a sum of at least one of the first dimension, the second dimension, and the third dimension.

상기 감정 인식기는 상기 복수의 테스트 콘텐츠에 대한 복수의 사용자의 감정의 상관관계를 표현함에 있어서 상기 복수의 사용자의 개인정보를 더 고려한 데이터 셋트일 수 있다. 이 때 상기 테스트 콘텐츠를 획득하는 단계는 사용자의 개인정보가 더 표지된 하나 이상의 테스트 콘텐츠를 획득하고, 상기 제1 특징 벡터를 생성하는 단계는 상기 사용자의 개인정보에 대한 제1 특징 벡터를 더 생성하고, 상기 제2 특징 벡터를 생성하는 단계는 상기 개인정보에 대한 제1 특징 벡터를 더 고려하여 상기 제2 특징 벡터를 생성할 수 있다.The emotion recognizer may be a data set that further considers the personal information of the plurality of users in expressing correlations of emotions of the plurality of users with respect to the plurality of test contents. At this time, the step of acquiring the test content acquires one or more test contents in which the user's personal information is further labeled, and the step of generating the first feature vector further generates a first feature vector for the user's personal information. And, in the step of generating the second feature vector, the second feature vector may be generated by further considering the first feature vector for the personal information.

상기 감정 정보는 제3 특징 벡터를 포함하고, 상기 트레이닝 하는 단계는 상기 제2 특징 벡터와 상기 제3 특징 벡터가 대응되도록 상기 감정 인식기의 상기 데이터 셋트를 업데이트(Update)할 수 있다.The emotion information includes a third feature vector, and the training step may update the data set of the emotion recognizer so that the second feature vector and the third feature vector correspond.

전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.Other aspects, features, and advantages other than those described above will become apparent from the following drawings, claims, and detailed description of the invention.

본 발명의 실시예들에 따르면 동일한 콘텐츠 내에 포함된 개체들을 개체의 유형별로 수집하고 수집된 각 유형의 개체의 특징정보를 보다 낮은 레벨에서 통합할 수 있는 감정 인식 방법 및 프로그램과, 감정 인식기 생성 방법 및 프로그램을 구현할 수 있다.According to embodiments of the present invention, the emotion recognition method and program and the emotion recognizer generation method capable of collecting objects included in the same content for each type of object and integrating characteristic information of each type of collected object at a lower level And programs.

또한 본 발명은 보다 낮은 레벨에서 통합된 각 유형의 개체의 특징정보에 기초하여 콘텐츠에 대한 감정 인식을 수행함으로써 콘텐츠의 흐름이나 맥락에 대한 이해가 부가된 감정인식 결과를 도출할 수 있는 감정 인식 방법 및 프로그램과, 감정 인식기 생성 방법 및 프로그램을 구현할 수 있다.In addition, the present invention performs emotion recognition on content based on feature information of each type of entity integrated at a lower level, and thus an emotion recognition method capable of deriving an emotion recognition result with an understanding of content flow or context. And a program and a method and program for generating an emotion recognizer.

나아가 보다 정확도가 향상된 감정 인식 방법 및 프로그램과, 감정 인식기 생성 방법 및 프로그램을 구현할 수 있다.Furthermore, it is possible to implement emotion recognition methods and programs with improved accuracy and emotion recognizer generation methods and programs.

도 1은 본 발명의 일 실시예에 따른 감정 인식 시스템을 개략적으로 도시한다.
도 2는 본 발명의 일 실시예에 따른 감정 인식 장치의 구성을 개략적으로 도시한다.
도 3은 본 발명의 일 실시예에 따른 감정 인식 장치가 감정 인식기를 생성하는 방법을 설명하기 위한 도면이다.
도 4 내지 도 5d는 본 발명의 일 실시예에 따른 감정 인식 장치의 감정 인식기 생성 방법을 설명하기 위한 흐름도이다.
도 6은 본 발명의 일 실시예에 따른 감정 인식 장치가 감정 인식기를 이용하여 인식 대상 콘텐츠의 감정을 인식하는 방법을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른 감정 인식 장치에 의해 수행되는 감정 인식 방법을 설명하기 위한 흐름도이다.
도 8은 본 발명의 일 실시예에 따른 감정 인식 장치가 제2 특징 벡터를 생성하는 방법의 예시이다.
1 schematically illustrates an emotion recognition system according to an embodiment of the present invention.
2 schematically shows a configuration of an emotion recognition device according to an embodiment of the present invention.
3 is a diagram for explaining a method of generating an emotion recognizer by an emotion recognition apparatus according to an embodiment of the present invention.
4 to 5D are flowcharts illustrating a method for generating an emotion recognizer in an emotion recognition apparatus according to an embodiment of the present invention.
6 is a view for explaining a method for recognizing the emotion of the content to be recognized by the emotion recognition apparatus using the emotion recognizer according to an embodiment of the present invention.
7 is a flowchart illustrating an emotion recognition method performed by an emotion recognition apparatus according to an embodiment of the present invention.
8 is an example of a method for generating a second feature vector by the emotion recognition apparatus according to an embodiment of the present invention.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다. The present invention can be applied to various transformations and may have various embodiments, and specific embodiments will be illustrated in the drawings and described in detail in the detailed description. Effects and features of the present invention and methods for achieving them will be clarified with reference to embodiments described below in detail with reference to the drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various forms.

이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, and the same or corresponding components will be denoted by the same reference numerals, and redundant description thereof will be omitted. .

이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. 이하의 실시예에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 이하의 실시예에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다. 도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 형태는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다. In the following examples, terms such as first and second are not used in a limited sense, but for the purpose of distinguishing one component from other components. In the following embodiments, the singular expression includes the plural expression unless the context clearly indicates otherwise. In the examples below, terms such as include or have are meant to mean the presence of features or components described in the specification, and do not preclude the possibility of adding one or more other features or components in advance. In the drawings, the size of components may be exaggerated or reduced for convenience of description. For example, since the size and shape of each component shown in the drawings are arbitrarily shown for convenience of description, the present invention is not necessarily limited to what is illustrated.

도 1은 본 발명의 일 실시예에 따른 감정 인식 시스템을 개략적으로 도시한다.1 schematically illustrates an emotion recognition system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 감정 인식 시스템은 서버(100), 사용자 단말(200), 외부장치(300) 및 이들을 연결하는 통신망(400)을 포함할 수 있다. Referring to FIG. 1, an emotion recognition system according to an embodiment of the present invention may include a server 100, a user terminal 200, an external device 300, and a communication network 400 connecting them.

본 발명의 일 실시예에 따른 감정 인식 시스템은 서버(100)가 사용자 단말(200) 및/또는 외부장치(300)로부터 인식 대상 콘텐츠를 수신하고, 수신된 콘텐츠에 대한 감정을 결정할 수 있다. 또한 감정 인식 시스템은 서버(100)가 사용자 단말(200) 및/또는 외부장치(300)로부터 감정 정보가 표지된 하나 이상의 테스트 콘텐츠를 획득하고, 이에 기초하여 감정 인식기를 트레이닝 시킬 수 있다. 보다 상세한 설명은 후술한다.In the emotion recognition system according to an embodiment of the present invention, the server 100 may receive the content to be recognized from the user terminal 200 and / or the external device 300, and determine emotion for the received content. In addition, the emotion recognition system may obtain one or more test contents marked with emotion information from the user terminal 200 and / or the external device 300, and train the emotion recognizer based on the emotion recognition system. A more detailed description will be given later.

본 발명에서 인식 대상 콘텐츠 및 테스트 콘텐츠와 같은 '콘텐츠(Contents)'는 전자적으로 송수신 될 수 있는 정보로써, 다양한 유형의 개체를 포함할 수 있다. 콘텐츠는 텍스트(Text) 유형의 개체, 이미지(Image)유형의 개체 및 오디오(Audio) 유형의 개체 중 적어도 하나의 유형의 개체를 적어도 하나 이상 포함할 수 있다. 물론 콘텐츠는 비디오(Video) 유형의 개체도 포함할 수 있다.In the present invention, 'Contents', such as content to be recognized and test content, are information that can be transmitted and received electronically, and may include various types of objects. The content may include at least one object of at least one type of an object of the text type, an object of the image type, and an object of the audio type. Of course, the content may also include video type objects.

가령 '웹 문서'와 같은 콘텐츠는 정보를 전달하기 위한 텍스트 유형의 개체 및 정보의 이해를 돕기 위한 이미지 유형의 개체를 포함할 수 있다. 이 때 텍스트 유형의 개체 및 이미지 유형의 개체 각각은 단수일 수도 있고, 복수일 수도 있다.For example, content such as a 'web document' may include text-type objects for conveying information and image-type objects for understanding information. At this time, each of the text type object and the image type object may be singular or plural.

본 발명에서 텍스트(Text) 유형의 개체, 이미지(Image)유형의 개체, 오디오(Audio) 유형의 개체 및 비디오(Video) 유형의 개체와 같은 '개체'는 콘텐츠를 구성하는 정보의 소단위 일 수 있다.In the present invention, an 'object' such as an object of a text type, an object of an image type, an object of an audio type, and an object of a video type may be a small unit of information constituting content. .

가령 텍스트 유형의 개체의 경우 콘텐츠에 포함된 한 단락의 문단을 의미할 수 있다. 또한 이미지 유형의 개체의 경우 콘텐츠에 포함된 한 장의 이미지를 의미할 수 있다. 오디오 유형의 개체 및 비디오 유형의 개체의 경우 한 개의 오디오(비디오) 클립(Clip), 오디오(비디오) 트랙(Track) 등을 의미할 수 있다.For example, in the case of a text type object, it may mean a paragraph of a paragraph included in the content. Also, in the case of an image type object, it may mean a single image included in content. For the audio type object and the video type object, it may mean one audio (video) clip, an audio (video) track, and the like.

본 발명에서 사용자 단말(200)은 전술한 콘텐츠를 서버(100)와 송수신 할 수 있는 다양한 장치를 의미할 수 있다. 이 때 단말은 퍼스널 컴퓨터(202)일 수도 있고 또는 휴대용 단말(201)일 수도 있다. 도 1에서는 휴대용 단말(201)이 스마트폰(smart phone)으로 도시되었지만, 본 발명의 사상은 이에 제한되지 않는다.In the present invention, the user terminal 200 may refer to various devices capable of transmitting and receiving the aforementioned content with the server 100. At this time, the terminal may be a personal computer 202 or a portable terminal 201. 1, the portable terminal 201 is illustrated as a smart phone, but the spirit of the present invention is not limited thereto.

한편 사용자 단말(200)은 콘텐츠를 표시하기 위한 표시수단, 이러한 콘텐츠에 대한 사용자의 입력을 획득하기 위한 입력수단을 구비할 수 있다. 이 때 입력수단 및 표시수단은 다양하게 구성될 수 있다. 가령 입력수단은 키보드, 마우스, 트랙볼, 마이크, 버튼, 터치패널 등을 포함할 수 있으나 이에 한정되지 않는다. Meanwhile, the user terminal 200 may include display means for displaying content, and input means for obtaining a user's input to the content. At this time, the input means and the display means may be configured in various ways. For example, the input means may include, but is not limited to, a keyboard, mouse, trackball, microphone, button, touch panel, and the like.

본 발명에서 외부장치(300)는 서버(100) 및 사용자 단말(200)과 통신망(400)을 통하여 데이터를 송수신 하는 다양한 장치를 의미할 수 있다.In the present invention, the external device 300 may refer to various devices that transmit and receive data through the server 100 and the user terminal 200 and the communication network 400.

본 발명의 일 실시예에 따르면, 외부장치(300)는 서버(100)에 구비되는 감정 인식기를 트레이닝 하기 위한 테스트 콘텐츠를 제공하는 장치일 수 있다. 이 때 외부장치(300)는 단수일 수도 있고, 복수일 수도 있다. 가령 외부장치(300)는 서버(100)의 웹 크롤링(Web Crawling)에 대응하여 콘텐츠를 제공하는 복수의 서버일 수 있다.According to an embodiment of the present invention, the external device 300 may be a device that provides test content for training an emotion recognizer provided in the server 100. At this time, the external device 300 may be singular or plural. For example, the external device 300 may be a plurality of servers that provide content in response to web crawling of the server 100.

한편 본 발명의 다른 실시예에 따르면, 외부장치(300)는 외부장치(300) 자신이 사용자 단말(200)에 제공한 콘텐츠에 대한 식별정보를 서버(100)에 전송하고, 서버(100)로부터 해당 콘텐츠에 대한 감정 인식 결과를 수신하는 장치일 수도 있다. 가령 외부장치(300)는 자신이 제공하고 있는 콘텐츠에 대한 사용자의 감정을 알고자 하는 서비스 제공 업체의 서버일 수 있다. On the other hand, according to another embodiment of the present invention, the external device 300 transmits the identification information for the content provided by the external device 300 itself to the user terminal 200 to the server 100, and from the server 100 It may be a device that receives the result of emotion recognition for the content. For example, the external device 300 may be a server of a service provider who wants to know a user's feelings about content provided by the user.

다만 전술한 두 가지 경우는 모두 예시적인 것으로, 본 발명의 사상이 이에 한정되는 것은 아니다.However, the above-mentioned two cases are both exemplary, and the spirit of the present invention is not limited thereto.

본 발명에서 통신망(400)은 서버(100), 사용자 단말(200) 및 외부장치(300)를 연결하는 역할을 수행한다. 예를 들어, 통신망(400)은 사용자 단말(200)이 서버(100)에 접속한 후 패킷 데이터를 송수신할 수 있도록 접속 경로를 제공한다. 통신망(400)은 예컨대 LANs(Local Area Networks), WANs(Wide Area Networks), MANs(Metropolitan Area Networks), ISDNs(Integrated Service Digital Networks) 등의 유선 네트워크나, 무선 LANs, CDMA, 블루투스, 위성 통신 등의 무선 네트워크를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.In the present invention, the communication network 400 serves to connect the server 100, the user terminal 200, and the external device 300. For example, the communication network 400 provides an access path so that the user terminal 200 can transmit and receive packet data after accessing the server 100. The communication network 400 includes, for example, wired networks such as Local Area Networks (LANs), Wide Area Networks (WANs), Metropolitan Area Networks (MANs), and Integrated Service Digital Networks (ISDNs), wireless LANs, CDMA, Bluetooth, satellite communication, etc. It may cover a wireless network, but the scope of the present invention is not limited thereto.

본 발명에서 서버(100)는 사용자 단말(200) 및/또는 외부장치(300)로부터 인식 대상 콘텐츠를 수신하고, 수신된 콘텐츠에 대한 감정을 결정할 수 있다. 또한 서버(100)는 사용자 단말(200) 및/또는 외부장치(300)로부터 감정 정보가 표지된 하나 이상의 테스트 콘텐츠를 획득하고, 이에 기초하여 감정 인식기를 트레이닝 시킬 수 있다. 이를 위하여 서버(100)는 본 발명의 일 실시예에 따른 감정 인식 장치를 포함할 수 있다.In the present invention, the server 100 may receive the content to be recognized from the user terminal 200 and / or the external device 300, and determine emotion on the received content. In addition, the server 100 may acquire one or more test contents marked with emotion information from the user terminal 200 and / or the external device 300, and train the emotion recognizer based on this. To this end, the server 100 may include an emotion recognition device according to an embodiment of the present invention.

도 2는 본 발명의 일 실시예에 따른 감정 인식 장치(110)의 구성을 개략적으로 도시한다.2 schematically shows the configuration of the emotion recognition device 110 according to an embodiment of the present invention.

도 2를 참조하면, 본 실시예에 따른 감정 인식 장치(110)는 통신부(111), 제어부(112) 및 메모리(113)를 포함할 수 있다. 또한 도면에는 도시되지 않았으나, 본 실시예에 따른 감정 인식 장치(110)는 입/출력부, 프로그램 저장부 등을 더 포함할 수 있다. Referring to FIG. 2, the emotion recognition device 110 according to the present embodiment may include a communication unit 111, a control unit 112, and a memory 113. In addition, although not shown in the drawings, the emotion recognition device 110 according to the present embodiment may further include an input / output unit, a program storage unit, and the like.

통신부(111)는 감정 인식 장치(110)가 사용자 단말(200) 및/또는 외부장치(300)와 같은 다른 네트워크 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있다. The communication unit 111 includes hardware required for the emotion recognition device 110 to transmit / receive signals such as control signals or data signals through wired / wireless connections with other network devices such as the user terminal 200 and / or the external device 300, and It may be a device that includes software.

제어부(112)는 프로세서(processor)와 같이 데이터를 처리할 수 있는 모든 종류의 장치를 포함할 수 있다. 여기서, '프로세서(processor)'는, 예를 들어 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 이와 같이 하드웨어에 내장된 데이터 처리 장치의 일 예로써, 마이크로프로세서(Microprocessor), 중앙처리장치(Central Processing Unit: CPU), 프로세서 코어(Processor Core), 멀티프로세서(Multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array) 등의 처리 장치를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.The controller 112 may include all types of devices capable of processing data, such as a processor. Here, a 'processor' may mean a data processing device embedded in hardware having physically structured circuits, for example, to perform functions represented by codes or instructions included in a program. As an example of such a data processing device embedded in hardware, a microprocessor, a central processing unit (CPU), a processor core, a multiprocessor, and an application-specific integrated (ASIC) Circuit), FPGA (Field Programmable Gate Array), and the like, but the scope of the present invention is not limited thereto.

메모리(113)는 감정 인식 장치(110)가 처리하는 데이터를 일시적 또는 영구적으로 저장하는 기능을 수행한다. 메모리는 자기 저장 매체(Magnetic Storage Media) 또는 플래시 저장 매체(Flash Storage Media)를 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다. The memory 113 performs a function of temporarily or permanently storing data processed by the emotion recognition device 110. The memory may include magnetic storage media or flash storage media, but the scope of the present invention is not limited thereto.

이하에서는 감정 인식 장치(110)가 서버(100)에 구비되는 것을 전제로 설명하지만, 역할배분에 따라 감정 인식 장치(110)는 서버(100)와 별도로 구비될 수도 있다.Hereinafter, it is assumed that the emotion recognition device 110 is provided in the server 100, but the emotion recognition device 110 may be separately provided from the server 100 according to role allocation.

한편 전술한 바와 같이 서버(100), 즉 감정 인식 장치(110)는 사용자 단말(200) 및/또는 외부장치(300)로부터 인식 대상 콘텐츠를 수신하고, 수신된 콘텐츠에 대한 감정을 결정할 수 있다. 또한 감정 인식 장치(110)는 사용자 단말(200) 및/또는 외부장치(300)로부터 감정 정보가 표지된 하나 이상의 테스트 콘텐츠를 획득하고, 이에 기초하여 감정 인식기를 생성할 수 있다. On the other hand, as described above, the server 100, that is, the emotion recognition device 110 may receive the content to be recognized from the user terminal 200 and / or the external device 300, and determine emotion on the received content. In addition, the emotion recognition device 110 may acquire one or more test contents marked with emotion information from the user terminal 200 and / or the external device 300, and generate an emotion recognizer based on the test content.

이하에서는 감정 인식 장치(110)가 하나 이상의 테스트 콘텐츠로부터 감정 인식기를 생성하는 방법에 대해 먼저 설명하고, 생성된 감정 인식기에 기초하여 수신된 콘텐츠에 대한 감정을 결정하는 방법을 나중에 설명한다.Hereinafter, a method of generating the emotion recognizer from the one or more test contents by the emotion recognition apparatus 110 will be described first, and a method of determining emotion for the received content based on the generated emotion recognizer will be described later.

< 감정 인식 장치(110)의 감정 인식기 생성 방법 ><Emotion recognition device generating method of the emotion recognition device 110>

본 발명에서 '감정 인식기'는 복수의 테스트 콘텐츠 및 이와 같은 복수의 테스트 콘텐츠에 대한 복수의 사용자의 감정의 상관관계를 표현한 데이터 셋트일 수 있다. In the present invention, the 'emotional recognizer' may be a data set expressing a correlation between a plurality of test contents and a plurality of users' emotions on the plurality of test contents.

본 발명의 일 실시예에 따르면 전술한 감정 인식기는 머신 러닝(Machine Learning) 기법으로 생성된 복수의 테스트 콘텐츠와 해당 콘텐츠에 대한 감정의 상관관계, 즉 양자의 매핑 정보일 수 있다. 이에 따라 감정 인식기는 복수의 테스트 콘텐츠 및/또는 개체를 분류하기 위해 Logistic regression, Decision tree, Nearest-neighbor classifier, Kernel discriminate analysis, Neural network, Support Vector Machine, Random forest, Boosted tree 등의 알고리즘 및/또는 방식(기법)을 사용할 수 있다.According to an embodiment of the present invention, the above-described emotion recognizer may be a correlation between a plurality of test contents generated by a machine learning technique and emotions on the corresponding contents, that is, mapping information of both. Accordingly, the emotion recognizer uses algorithms and / or algorithms such as Logistic regression, Decision tree, Nearest-neighbor classifier, Kernel discriminate analysis, Neural network, Support Vector Machine, Random forest, Boosted tree to classify multiple test contents and / or objects. Method (technique) can be used.

감정 인식기는 어떤 콘텐츠에 대한 사용자의 감정을 예측하기 위해 Linear regression, Regression tree, Kernel regression, Support vector regression, Deep Learning 등의 알고리즘 및/또는 방식(기법)을 사용할 수 있다.The emotion recognizer may use algorithms and / or methods (techniques) such as linear regression, regression tree, kernel regression, support vector regression, and deep learning to predict a user's emotion for a certain content.

또한 감정 인식기는 후술하는 벡터의 연산을 위해 Principal component analysis, Non-negative matrix factorization, Independent component analysis, Manifold learning, SVD 등의 알고리즘 및/또는 방식(기법)을 사용할 수 있다.In addition, the emotion recognizer may use algorithms and / or methods (techniques) such as Principal component analysis, Non-negative matrix factorization, Independent component analysis, Manifold learning, SVD, etc. for the calculation of vectors described later.

감정 인식기는 복수의 테스트 콘텐츠 및/또는 개체의 그룹화를 위해 k-means, Hierarchical clustering, mean-shift, self-organizing maps(SOMs) 등의 알고리즘 및/또는 방식(기법)을 사용할 수 있다. The emotion recognizer may use algorithms and / or methods (techniques) such as k-means, hierarchical clustering, mean-shift, and self-organizing maps (SOMs) for grouping a plurality of test contents and / or objects.

감정 인식기는 데이터 비교를 위해 Bipartite cross-matching, n-point correlation two-sample testing, minimum spanning tree 등의 알고리즘 및/또는 방식(기법)을 사용할 수 있다. The emotion recognizer may use algorithms and / or methods (techniques) such as bipartite cross-matching, n-point correlation two-sample testing, and minimum spanning tree for data comparison.

다만 전술한 알고리즘 및/또는 방식(기법)은 예시적인 것으로 본 발명의 사상이 이에 한정되는 것은 아니다.However, the above-described algorithms and / or methods (techniques) are exemplary and the spirit of the present invention is not limited thereto.

한편 감정 인식기는 전술한 바와 같이 데이터 셋트(Data set)일 수 있다. 가령 감정 인식기는 행렬(Matrix)과 같이 복수개의 숫자로 구성된 데이터 셋트일 수 있다. 다만 이는 예시적인 것으로 본 발명의 사상이 이에 한정되는 것은 아니다.Meanwhile, the emotion recognizer may be a data set as described above. For example, the emotion recognizer may be a data set composed of a plurality of numbers, such as a matrix. However, this is exemplary and the spirit of the present invention is not limited thereto.

도 3은 본 발명의 일 실시예에 따른 감정 인식 장치(110)가 감정 인식기를 생성하는 방법을 설명하기 위한 도면이다. 3 is a diagram for explaining a method of generating an emotion recognizer by the emotion recognition apparatus 110 according to an embodiment of the present invention.

도 3을 참조하면, 본 발명의 일 실시예에 따른 감정 인식 장치(110)의 제어부(112)는 인식기의 생성을 위해 적어도 하나 이상의 유형의 개체를 포함하고, 사용자의 감정 정보가 표지(labeled)된 하나 이상의 테스트 콘텐츠(310)를 획득할 수 있다. 이 때 제어부(112)는 테스트 콘텐츠(310)를 전술한 바와 같이 웹 크롤링을 통하여 외부장치(300)로부터 획득할 수도 있고, 감정 인식 장치(110)의 메모리(113)로부터 획득할 수도 있다. 바꾸어 말하면 제어부(112)는 테스트 콘텐츠(310)를 감정 인식 장치(110)의 외부 및/또는 감정 인식 장치(110)의 내부로부터 획득할 수 있다. 다만 이는 예시적인 것으로 본 발명의 사상이 이에 한정되는 것은 아니다.Referring to FIG. 3, the control unit 112 of the emotion recognition device 110 according to an embodiment of the present invention includes at least one or more types of objects for generating a recognizer, and the user's emotion information is labeled One or more test contents 310 may be acquired. At this time, the control unit 112 may acquire the test content 310 from the external device 300 through web crawling as described above, or from the memory 113 of the emotion recognition device 110. In other words, the control unit 112 may acquire the test content 310 from the outside of the emotion recognition device 110 and / or the inside of the emotion recognition device 110. However, this is exemplary and the spirit of the present invention is not limited thereto.

본 발명에서 '콘텐츠에 감정 정보가 표지된'것은, 해당 콘텐츠에 대한 사용자의 감정이 해당 콘텐츠의 부가정보로써 부가된 것을 의미할 수 있다. 바꾸어 말하면, 감정 정보가 표지된 것은 해당 콘텐츠의 내용과는 별개로, 해당 콘텐츠에 대한 감상자의 감정 정보가 더 추가된 것을 의미할 수 있다. 이 때 테스트 콘텐츠에는 '기쁨', '슬픔'과 같은 감정 그 자체에 관한 정보가 벡터의 형태로 표지되어 있을 수 있다. 또한 테스트 콘텐츠에는 "내용이 진짜 재미있어요."와 같이 감정을 추론할 수 있는 정보가 표지되어 있을 수도 있다. 후자의 경우 제어부(112)는 표지된 정보를 분석하여 이로부터 감정 그 자체에 관한 정보를 벡터의 형태로 추론할 수 있다.In the present invention, 'the emotion information is marked on the content' may mean that the user's emotion for the content is added as additional information of the content. In other words, the fact that the emotion information is labeled may mean that the emotion information of the viewer for the content is further added separately from the content of the content. At this time, the test content may include information about emotion itself, such as 'joy' and 'sadness', in the form of a vector. Also, the test content may be labeled with information to infer emotions, such as "The content is really fun." In the latter case, the controller 112 may analyze the labeled information and infer information about the emotion itself in the form of a vector.

한편 테스트 콘텐츠에는 전술한 감정 정보와 더불어, 해당 감정을 느낀 사용자의 개인정보가 더 부가되어 있을 수 있다. 이 때 개인정보는 성별, 나이, 연령, 학력, 주거지역 및 직업 등과 같은 일반적인 인적 사항과 해당 콘텐츠를 언제 감상하였는지, 어디서 감상하였는지, 얼마 동안 감상하였는지 또는 어떤 경로를 통하여 감상하였는지와 같은 콘텐츠 관련 사항을 포함할 수 있다. 다만 이는 예시적인 것으로 본 발명의 사상이 이에 한정되는 것은 아니다.Meanwhile, in addition to the above-described emotion information, personal information of a user who has felt the emotion may be added to the test content. At this time, personal information includes general personal matters such as gender, age, age, educational background, residential area and occupation, and content-related matters such as when the content was viewed, where it was viewed, how long it was viewed, or through which channel. It may include. However, this is exemplary and the spirit of the present invention is not limited thereto.

본 발명의 일 실시예에 따른 제어부(112)는 전술한 과정에 의해 획득한 각각의 테스트 콘텐츠에 대해서, 테스트 콘텐츠에 포함된 개체의 유형 별로 제1 특징 벡터를 생성할 수 있다. 이 때 '유형 별로 제1 특징 벡터를 생성'하는 것은, 어느 하나의 테스트 콘텐츠 내에서 동일한 유형의 개체를 모두 수집하고, 이에 기초하여 제1 특징 벡터를 생성하는 것을 의미할 수 있다. The control unit 112 according to an embodiment of the present invention may generate a first feature vector for each type of object included in the test content, for each test content obtained through the above-described process. In this case, 'creating a first feature vector for each type' may mean collecting all objects of the same type in any one test content and generating a first feature vector based on the same.

가령 테스트 콘텐츠(311)가 텍스트 유형의 개체(321), 이미지 유형의 개체(322) 및 오디오 유형의 개체(323)를 포함한다고 가정해 보자. 이러한 경우 제어부(112)는 텍스트 유형의 개체(321)로부터 제1 특징 벡터(331)를, 이미지 유형의 개체(322)로부터 제1 특징 벡터(332)를, 오디오 유형의 개체(323)로부터 제1 특징 벡터(333)를 생성할 수 있다.For example, suppose that the test content 311 includes an object 321 of a text type, an object 322 of an image type, and an object 323 of an audio type. In this case, the control unit 112 removes the first feature vector 331 from the text type object 321, the first feature vector 332 from the image type object 322, and the audio type object 323. One feature vector 333 can be generated.

제어부(112)가 텍스트 유형의 개체(321)로부터 제1 특징 벡터(331)를 생성하는 과정을 보다 상세히 살펴보면, 먼저 제어부(112)는 콘텐츠(311) 내의 전부 또는 일부의 텍스트 유형의 개체(321)를 수집할 수 있다. 이어서 제어부(112)는 구문 분석을 통하여 텍스트 유형의 개체(321)의 특징을 추출할 수 있다. 가령 제어부(112)는 구문 분석을 통하여 텍스트 유형의 개체(321) 내의 감정과 관련되는 키워드(Keyword)를 특징으로 추출할 수 있다. 이어서 제어부(112)는 추출된 키워드에 기초하여 제1 특징 벡터(331)를 생성할 수 있다. 이 때 제어부(112)는 소정의 단위(가령 단락)별로 텍스트 유형의 개체(321)의 키워드를 추출하고, 이에 기초하여 제1 특징 벡터(331)를 생성할 수도 있고, 테스트 콘텐츠(311) 내의 텍스트 유형의 개체(321) 전체로부터 키워드를 추출하고, 이에 기초하여 제1 특징 벡터(331)를 생성할 수도 있다.Looking at the process of generating the first feature vector 331 from the text-type object 321 by the control unit 112 in more detail, first, the control unit 112 may include all or some text-type objects 321 in the content 311. ). Subsequently, the controller 112 may extract characteristics of the text-type object 321 through parsing. For example, the controller 112 may extract a keyword related to emotion in the text-type object 321 through parsing. Subsequently, the control unit 112 may generate the first feature vector 331 based on the extracted keyword. At this time, the control unit 112 may extract keywords of the object 321 of a text type for each predetermined unit (eg, a paragraph), and generate the first feature vector 331 based on the keyword, or within the test content 311. The keyword may be extracted from the entire text-type object 321, and the first feature vector 331 may be generated based on the keyword.

제어부(112)가 이미지 유형의 개체(322)로부터 제1 특징 벡터(332)를 생성하는 과정을 보다 상세히 살펴보면, 먼저 제어부(112)는 테스트 콘텐츠(311) 내의 전부 또는 일부의 이미지 유형의 개체(322)를 수집할 수 있다. 이어서 제어부(112)는 이미지 분석을 통하여 이미지 유형의 개체(322)의 특징을 추출할 수 있다. 가령 제어부(112)는 특징점 추출 기법 및/또는 객체 인식 기법을 통하여 이미지 유형의 개체(322) 내의 감정과 관련되는 특징을 추출할 수 있다. 이어서 제어부(112)는 추출된 특징에 기초하여 제1 특징 벡터(332)를 생성할 수 있다. 이 때 제어부(112)는 이미지 별로 특징을 추출하고, 이에 기초하여 제1 특징 벡터(332)를 생성할 수도 있고, 모든 이미지로부터 특징을 추출하고, 이에 기초하여 제1 특징 벡터(332)를 생성할 수도 있다.Looking at the process of generating the first feature vector 332 from the object 322 of the image type by the control unit 112 in more detail, first, the control unit 112 may control all or part of the image type object in the test content 311 ( 322). Subsequently, the control unit 112 may extract characteristics of the object 322 of the image type through image analysis. For example, the control unit 112 may extract a feature related to emotion in the object 322 of the image type through a feature point extraction technique and / or an object recognition technique. Subsequently, the control unit 112 may generate the first feature vector 332 based on the extracted feature. At this time, the controller 112 may extract features for each image, and generate a first feature vector 332 based on the features, or extract features from all images and generate a first feature vector 332 based on the features. You may.

제어부(112)가 오디오 유형의 개체(323)로부터 제1 특징 벡터(333)를 생성하는 과정을 보다 상세히 살펴보면, 먼저 제어부(112)는 콘텐츠(311) 내의 전부 또는 일부의 오디오 유형의 개체(323)를 수집할 수 있다. 이어서 제어부(112)는 오디오 분석을 통하여 오디오 유형의 개체(323)의 특징을 추출할 수 있다. 가령 제어부(112)는 특징음 추출 기법 및/또는 음성 인식 기법을 통하여 오디오 유형의 개체(323) 내의 감정과 관련되는 특징을 추출할 수 있다. 이어서 제어부(112)는 추출된 특징에 기초하여 제1 특징 벡터(333)를 생성할 수 있다.If the control unit 112 looks at the process of generating the first feature vector 333 from the audio-type object 323 in more detail, first, the control unit 112 controls all or part of the audio-type object 323 in the content 311. ). Subsequently, the control unit 112 may extract characteristics of the object 323 of the audio type through audio analysis. For example, the controller 112 may extract a feature related to emotion in the object 323 of the audio type through a feature sound extraction technique and / or a voice recognition technique. Subsequently, the control unit 112 may generate the first feature vector 333 based on the extracted feature.

각 유형의 개체로부터 생성된 제1 특징 벡터(331 내지 333)는 그 차원이 모두 상이할 수 있다. 가령 텍스트 유형의 개체(321)로부터 생성된 제1 특징 벡터(331)는 제1 차원이고, 이미지 유형의 개체(322)로부터 생성된 제1 특징 벡터(332)는 제2 차원이고, 오디오 유형의 개체(323)로부터 생성된 제1 특징 벡터(333)는 제3 차원일 수 있다. 물론 각 제1 특징 벡터(331 내지 333)중 적어도 일부는 차원이 동일할 수도 있다. 다만 이는 예시적인 것으로 본 발명의 사상이 이에 한정되는 것은 아니다.The first feature vectors 331 to 333 generated from each type of entity may all have different dimensions. For example, the first feature vector 331 generated from the text-type object 321 is the first dimension, the first feature vector 332 generated from the image-type object 322 is the second dimension, and the audio type is The first feature vector 333 generated from the object 323 may be a third dimension. Of course, at least some of each of the first feature vectors 331 to 333 may have the same dimension. However, this is exemplary and the spirit of the present invention is not limited thereto.

한편 본 발명의 일 실시예에 따른 제어부(112)는 테스트 콘텐츠(311)에 비디오 유형의 개체(미도시)가 포함된 경우, 비디오 유형의 개체를 이미지 유형의 개체 및 오디오 유형의 개체로 분리하고, 분리된 각각의 개체에 대한 제1 특징 벡터 생성 방법에 따라 제1 특징 벡터를 생성할 수 있다. 바꾸어 말하면 제어부(112)는 비디오 유형의 개체로부터 분리된 이미지 유형의 개체에 대해, 이미지 유형의 개체에 대한 제1 특징 벡터 생성 방식에 따라 제1 특징 벡터를 생성하고, 비디오 유형의 개체로부터 분리된 오디오 유형의 개체에 대해, 오디오 유형의 개체에 대한 제1 특징 벡터 생성 방식에 따라 제1 특징 벡터를 생성할 수 있다. 다만 이와 같은 비디오 유형의 개체는 두 개 이상의 이종 유형의 개체가 결합된 것의 예시로, 본 발명의 사상이 이에 한정되는 것은 아니다. Meanwhile, when the test content 311 includes an object (not shown) of the video type, the control unit 112 according to an embodiment of the present invention separates an object of the video type into an object of the image type and an object of the audio type. , A first feature vector may be generated according to a method of generating a first feature vector for each separated entity. In other words, the controller 112 generates a first feature vector according to a first feature vector generation method for an image type object, for an image type object separated from the video type object, and is separated from the video type object. For an audio type object, a first feature vector may be generated according to a first feature vector generation method for an audio type object. However, this type of video object is an example of combining two or more different types of objects, and the spirit of the present invention is not limited thereto.

본 발명의 일 실시예에 따른 제어부(112)는 테스트 콘텐츠(311)에 개인정보(313)가 더 표지된 경우, 개인정보에 대한 제1 특징 벡터(334)를 더 생성할 수 있다. 이 때 제어부(112)는 전술한 바와 같이 성별, 나이, 연령, 학력, 주거지역 및 직업 등과 같은 일반적인 인적 사항과 해당 콘텐츠를 언제 감상하였는지, 어디서 감상하였는지 또는 어떤 경로를 통하여 감상하였는지와 같은 콘텐츠 관련 사항을 모두 고려하여 제1 특징 벡터(334)를 생성할 수 있다. If the personal information 313 is further displayed on the test content 311, the controller 112 according to an embodiment of the present invention may further generate a first feature vector 334 for personal information. At this time, the controller 112, as described above, related to general personal matters such as gender, age, age, educational background, residential area, and occupation, and content such as when, where, or through which route the content was viewed. The first feature vector 334 may be generated in consideration of all matters.

본 발명의 일 실시예에 따른 제어부(112)는 생성된 개체의 유형 별 제1 특징 벡터(331 내지 333)에 기초하여 테스트 콘텐츠의 특징 벡터인 제2 특징 벡터(341)를 생성할 수 있다. 이 때 제2 특징 벡터(341)는 테스트 콘텐츠(311) 내에 포함되는 모든 개체의 특성을 고려한 벡터로 써의 의미를 가질 수 있다.The controller 112 according to an embodiment of the present invention may generate a second feature vector 341 that is a feature vector of test content based on the first feature vectors 331 to 333 for each type of the generated object. In this case, the second feature vector 341 may have a meaning as a vector considering characteristics of all objects included in the test content 311.

종래기술에 따르면, 콘텐츠 내에 복수의 유형의 개체가 포함되어 있는 경우 텍스트 유형의 개체만을 기준으로 해당 콘텐츠에 대한 사용자의 감정을 추론하거나, 각각의 유형의 개체에 대한 감정을 개별적으로 추론한 뒤, 이를 통계적으로 처리하여 해당 콘텐츠에 대한 사용자의 감정을 추론하였다.According to the prior art, when a plurality of types of objects are included in the content, the user's feelings for the corresponding content are inferred on the basis of only text-type objects, or after the emotions for each type of object are individually inferred, This was statistically processed to infer the user's feelings about the content.

이러한 방식은 각각의 유형의 개체가 모두 동일한 주제에 관한 것임에도 불구하고, 각 유형의 개체에 대한 개별적인 감정 인식 결과에 기초하여 해당 콘텐츠 전체에 대한 감정을 추론하므로 콘텐츠 흐름이나 맥락에 대한 이해가 결핍된 결과를 도출하는 문제점이 있었다.In this way, even though each type of object is all about the same subject, it lacks understanding of the content flow or context because it infers feelings for the entire content based on the results of individual emotion recognition for each type of object. There was a problem leading to the result.

특히 이러한 방식은 결국 각 유형의 개체에 대한 개별적인 감정 인식 결과를 통계모델에 기반하여 처리함으로써, 일부 유형의 개체로부터 다소 상이한 감정 인식 결과가 도출되었음에도 불구하고 이러한 인식 결과를 무시하여 보다 세밀한 감정 인식이 불가능한 문제점이 있었다.In particular, this method processes individual emotion recognition results for each type of individual based on a statistical model, so even though somewhat different emotion recognition results are derived from some types of individuals, more detailed emotion recognition is ignored by ignoring these recognition results. There was an impossible problem.

본원 발명은 각 유형의 개체의 특징정보를 보다 낮은 레벨에서 통합하고, 이에 기초하여 콘텐츠에 대한 감정 인식을 수행함으로써 콘텐츠의 흐름이나 맥락에 대한 이해가 부가된 감정인식 결과를 도출할 수 있고, 보다 세밀한 감정 인식 결과를 도출할 수 있다.The present invention can derive the emotion recognition result by adding the understanding of the flow or context of the content by integrating the feature information of each type of individual at a lower level and performing emotion recognition on the content based on this. Can produce detailed emotion recognition results.

한편 본 발명의 일 실시예에 따른 제어부(112)는 텍스트 유형의 개체(321)로부터 생성된 제1 특징 벡터(331), 이미지 유형의 개체(322)로부터 생성된 제1 특징 벡터(332), 오디오 유형의 개체(323)로부터 생성된 제1 특징 벡터(333) 및 개인개인정보로부터 생성된 제1 특징 벡터(334)를 병합하여 제2 특징 벡터(341)를 생성할 수 있다. 이 때 제어부(112)는 다양한 방식에 따라 제1 특징 벡터(331 내지 334)로부터 제2 특징 벡터(341)를 생성할 수 있다.Meanwhile, the control unit 112 according to an embodiment of the present invention includes a first feature vector 331 generated from an object 321 of a text type, a first feature vector 332 generated from an object 322 of an image type, The second feature vector 341 may be generated by merging the first feature vector 333 generated from the audio-type entity 323 and the first feature vector 334 generated from personal information. At this time, the control unit 112 may generate the second feature vector 341 from the first feature vectors 331 to 334 according to various methods.

가령 제어부(112)는 도 8에 도시된 방식과 유사한 방식으로, 각각의 제1 특징 벡터(331 내지 334)를 직렬적으로 병합하여 제2 특징 벡터(341)를 생성할 수 있다. 이 때 제2 특징 벡터(341)의 차원의 수는 각각의 제1 특징 벡터(331 내지 334)의 차원 수의 합에 기초하여 결정될 수 있다.For example, the controller 112 may generate a second feature vector 341 by merging each of the first feature vectors 331 to 334 in series in a manner similar to the method illustrated in FIG. 8. At this time, the number of dimensions of the second feature vector 341 may be determined based on the sum of the number of dimensions of each of the first feature vectors 331 to 334.

한편 제어부(112)는 전술한 방식과 달리, 제1 특징 벡터(331 내지 334)들의 차원 변환 연산 및/또는 벡터 연산에 의해 고정된 자리수의 제2 특징 벡터(341)를 생성할 수도 있다. On the other hand, unlike the above-described method, the control unit 112 may generate a second feature vector 341 having a fixed number of digits by dimensional transformation operations and / or vector operations of the first feature vectors 331 to 334.

다만 이는 예시적인 것으로 본 발명의 사상이 이에 한정되는 것은 아니며, 복수의 제1 특징 벡터에 기초하여 하나의 제2 특징 벡터를 생성하는 연산이면 제한 없이 사용될 수 있다.However, this is exemplary and the spirit of the present invention is not limited thereto, and any operation that generates one second feature vector based on a plurality of first feature vectors may be used without limitation.

본 발명의 일 실시예에 따른 제어부(112)는 테스트 콘텐츠에 일부 유형의 개체가 포함되어 있지 않은 경우, 포함되어 있지 않은 유형의 개체의 제1 특징 벡터는 기 설정된 방법에 따라 생성할 수 있다. The control unit 112 according to an embodiment of the present invention may generate a first feature vector of an object of a type that is not included according to a preset method when some types of objects are not included in the test content.

가령, 제어부(112)는 테스트 콘텐츠에 텍스트 유형의 개체(321)가 포함되어 있지 않은 경우, 포함되어 있지 않은 유형의 개체에 대한 제1 특징 벡터(331)를 영백터(Zero Vector)로 생성할 수 있다. For example, when the test content does not include the object 321 of the text type, the control unit 112 may generate the first feature vector 331 for the object of the type that is not included as a zero vector. Can be.

바꾸어 말하면 제어부(112)는 제2 특징 벡터를 생성할 때 특정 유형의 개체가 테스트 콘텐츠에 포함되어 있지 않은 경우, 해당 유형의 개체에 대한 제1 특징 벡터를 기 설정된 벡터로 대체할 수 있다. 이 때 기 설정된 벡터는 전술한 바와 같이 '0'으로 채워진 벡터일 수 있다. 다만 이는 예시적인 것으로 본 발명의 사상이 이에 한정되는 것은 아니다.In other words, when the second feature vector is generated, when the specific type of object is not included in the test content, the control unit 112 may replace the first feature vector for the object of the corresponding type with a preset vector. At this time, the preset vector may be a vector filled with '0' as described above. However, this is exemplary and the spirit of the present invention is not limited thereto.

본 발명의 일 실시예에 따른 제어부(112)는 생성된 제2 특징 벡터(341) 및 테스트 콘텐츠(311)에 부가된 감정 정보(312)에 기초하여 감정 인식기(351)를 트레이닝(Training)시킬 수 있다. 이 때 감정 정보(312)는 감정에 대한 정보를 벡터의 형태로 포함할 수 있다. 따라서 이하에서는 전술한 감정 정보(312)가 제3 특징 벡터를 포함하는 것을 전제로 설명한다.The controller 112 according to an embodiment of the present invention trains the emotion recognizer 351 based on the generated second feature vector 341 and the emotion information 312 added to the test content 311. Can be. At this time, the emotion information 312 may include information about emotion in the form of a vector. Therefore, hereinafter, it is assumed that the above-described emotion information 312 includes a third feature vector.

전술한 바와 같이 감정 인식기(351)는 머신 러닝(Machine Learning) 기법으로 생성된 복수의 테스트 콘텐츠(310)와 해당 콘텐츠에 대한 감정의 상관관계, 즉 양자의 매핑 정보일 수 있다. As described above, the emotion recognizer 351 may be correlation information between a plurality of test contents 310 generated by a machine learning technique and corresponding contents, that is, mapping information of both.

따라서 본 발명의 일 실시예에 따른 제어부(112)는 전술한 과정에 의해 생성된 제2 특징 벡터(341)와 감정 정보(312)를 포함하는 제3 특징 벡터를 서로 대응(매핑)시킬 수 있도록 감정 인식기(351)의 데이터 셋트를 업데이트(Update)하는 방식으로 인식기(351)를 트레이닝(Training)시킬 수 있다. Therefore, the control unit 112 according to an embodiment of the present invention can correspond (map) the second feature vector 341 generated by the above-described process and the third feature vector including emotion information 312 to each other. The recognizer 351 may be trained by updating the data set of the emotion recognizer 351.

가령 감정 인식기(351)의 데이터 셋트가 복수개의 계수(Weight)로 구성되는 경우, 제어부(112)는 각 테스트 콘텐츠의 제2 특징 벡터(341) 및 제3 특징 벡터에 기초하여 감정 인식기(351)를 구성하는 계수들을 조절할 수 있다. 이 때 제어부(112)는 복수의 테스트 콘텐츠로부터 제2 특징 벡터(341) 및 제3 특징 벡터를 생성 및/또는 획득하고 이에 기초하여 계수를 업데이트 함으로써 보다 정확도가 향상된 감정 인식 결과를 제공하는 감정 인식기(351)를 획득할 수 있다.For example, when the data set of the emotion recognizer 351 is composed of a plurality of coefficients (Weight), the control unit 112 determines the emotion recognizer 351 based on the second feature vector 341 and the third feature vector of each test content. Coefficients constituting can be adjusted. At this time, the control unit 112 generates and / or acquires the second feature vector 341 and the third feature vector from the plurality of test contents and updates the coefficients based thereon, thereby providing an emotion recognizer with improved accuracy. (351) can be obtained.

이로써 본원 발명은 각 유형의 개체의 특징정보를 보다 낮은 레벨에서 통합하고, 이에 기초하여 콘텐츠에 대한 감정 인식을 수행함으로써 콘텐츠의 흐름이나 맥락에 대한 이해가 부가된 감정인식 결과를 도출할 수 있고, 보다 세밀한 감정 인식 결과를 도출할 수 있는 감정 인식기(351)를 생성할 수 있다.Accordingly, the present invention can derive the emotion recognition result by adding the understanding of the flow or context of the content by integrating the feature information of each type of entity at a lower level and performing emotion recognition on the content based on this, An emotion recognizer 351 capable of deriving a more detailed emotion recognition result may be generated.

도 4 내지 도 5d는 본 발명의 일 실시예에 따른 감정 인식 장치(110)의 감정 인식기 생성 방법을 설명하기 위한 흐름도이다. 이하에서는 도 4 및 도 5d을 함께 참조하여 본 발명의 일 실시예를 설명한다.4 to 5D are flowcharts illustrating a method for generating an emotion recognizer of the emotion recognition apparatus 110 according to an embodiment of the present invention. Hereinafter, an embodiment of the present invention will be described with reference to FIGS. 4 and 5D together.

도 3을 참조하면, 본 발명의 일 실시예에 따른 감정 인식 장치(110)의 제어부(112)는 인식기의 생성을 위해 적어도 하나 이상의 유형의 개체를 포함하고, 사용자의 감정 정보가 표지(labeled)된 하나 이상의 테스트 콘텐츠(310)를 획득할 수 있다.(S41) 이 때 제어부(112)는 테스트 콘텐츠(310)를 전술한 바와 같이 웹 크롤링을 통하여 외부장치(300)로부터 획득할 수도 있고, 감정 인식 장치(110)의 메모리(113)로부터 획득할 수도 있다. 바꾸어 말하면 제어부(112)는 테스트 콘텐츠(310)를 감정 인식 장치(110)의 외부 및/또는 감정 인식 장치(110)의 내부로부터 획득할 수 있다. 다만 이는 예시적인 것으로 본 발명의 사상이 이에 한정되는 것은 아니다.Referring to FIG. 3, the control unit 112 of the emotion recognition device 110 according to an embodiment of the present invention includes at least one or more types of objects for generating a recognizer, and the user's emotion information is labeled One or more test contents 310 may be acquired. (S41) At this time, the control unit 112 may acquire the test contents 310 from the external device 300 through web crawling as described above. It can also be obtained from the memory 113 of the recognition device 110. In other words, the control unit 112 may acquire the test content 310 from the outside of the emotion recognition device 110 and / or the inside of the emotion recognition device 110. However, this is exemplary and the spirit of the present invention is not limited thereto.

한편 테스트 콘텐츠에는 전술한 감정 정보와 더불어, 해당 감정을 느낀 사용자의 개인정보가 더 부가되어 있을 수 있다. 이 때 개인정보는 성별, 나이, 연령, 학력, 주거지역 및 직업 등과 같은 일반적인 인적 사항과 해당 콘텐츠를 언제 감상하였는지, 어디서 감상하였는지, 얼마 동안 감상하였는지 또는 어떤 경로를 통하여 감상하였는지와 같은 콘텐츠 관련 사항을 포함할 수 있다. 다만 이는 예시적인 것으로 본 발명의 사상이 이에 한정되는 것은 아니다.Meanwhile, in addition to the above-described emotion information, personal information of a user who has felt the emotion may be added to the test content. At this time, personal information includes general personal matters such as gender, age, age, educational background, residential area and occupation, and content-related matters such as when the content was viewed, where it was viewed, how long it was viewed, or through which channel It may include. However, this is exemplary and the spirit of the present invention is not limited thereto.

본 발명의 일 실시예에 따른 제어부(112)는 전술한 과정에 의해 획득한 각각의 테스트 콘텐츠에 대해서, 테스트 콘텐츠에 포함된 개체의 유형 별로 제1 특징 벡터를 생성할 수 있다.(S42) 이 때 '유형 별로 제1 특징 벡터를 생성'하는 것은, 어느 하나의 테스트 콘텐츠 내에서 동일한 유형의 개체를 모두 수집하고, 이에 기초하여 제1 특징 벡터를 생성하는 것을 의미할 수 있다. The control unit 112 according to an embodiment of the present invention may generate a first feature vector for each type of object included in the test content, for each test content obtained by the above-described process. (S42) In this case, 'creating a first feature vector for each type' may mean collecting all objects of the same type in any one test content and generating a first feature vector based on the same.

가령 테스트 콘텐츠(311)가 텍스트 유형의 개체(321), 이미지 유형의 개체(322) 및 오디오 유형의 개체(323)를 포함한다고 가정해 보자. 이러한 경우 제어부(112)는 텍스트 유형의 개체(321)로부터 제1 특징 벡터(331)를, 이미지 유형의 개체(322)로부터 제1 특징 벡터(332)를, 오디오 유형의 개체(323)로부터 제1 특징 벡터(333)를 생성할 수 있다.For example, suppose that the test content 311 includes an object 321 of a text type, an object 322 of an image type, and an object 323 of an audio type. In this case, the control unit 112 removes the first feature vector 331 from the text type object 321, the first feature vector 332 from the image type object 322, and the audio type object 323. One feature vector 333 can be generated.

도 5a를 참조하여, 제어부(112)가 텍스트 유형의 개체(321)로부터 제1 특징 벡터(331)를 생성하는 과정을 보다 상세히 살펴보면, 먼저 제어부(112)는 콘텐츠(311) 내의 전부 또는 일부의 텍스트 유형의 개체(321)를 수집할 수 있다.(S421a) 이어서 제어부(112)는 구문 분석을 통하여 텍스트 유형의 개체(321)의 특징을 추출할 수 있다.(S422a) 가령 제어부(112)는 구문 분석을 통하여 텍스트 유형의 개체(321) 내의 감정과 관련되는 키워드(Keyword)를 특징으로 추출할 수 있다. 이어서 제어부(112)는 추출된 키워드에 기초하여 제1 특징 벡터(331)를 생성할 수 있다.(S423a) 이 때 제어부(112)는 소정의 단위(가령 단락)별로 텍스트 유형의 개체(321)의 키워드를 추출하고, 이에 기초하여 제1 특징 벡터(331)를 생성할 수도 있고, 테스트 콘텐츠(311) 내의 텍스트 유형의 개체(321) 전체로부터 키워드를 추출하고, 이에 기초하여 제1 특징 벡터(331)를 생성할 수도 있다.Referring to FIG. 5A, when the control unit 112 generates the first feature vector 331 from the text-type object 321 in more detail, first, the control unit 112 may control all or part of the content 311. The text-type object 321 may be collected. (S421a) Subsequently, the control unit 112 may extract characteristics of the text-type object 321 through parsing. (S422a) For example, the control unit 112 may Through parsing, keywords related to emotions in the object 321 of the text type may be extracted as features. Subsequently, the control unit 112 may generate the first feature vector 331 based on the extracted keyword. (S423a) At this time, the control unit 112 may be a text type object 321 for each predetermined unit (for example, a paragraph). The keyword of, and the first feature vector 331 may be generated based on this, and the keyword may be extracted from the entire text-type object 321 in the test content 311, and based on the first feature vector ( 331).

도 5b를 참조하여 제어부(112)가 이미지 유형의 개체(322)로부터 제1 특징 벡터(332)를 생성하는 과정을 보다 상세히 살펴보면, 먼저 제어부(112)는 테스트 콘텐츠(311) 내의 전부 또는 일부의 이미지 유형의 개체(322)를 수집할 수 있다. (S421b) 이어서 제어부(112)는 이미지 분석을 통하여 이미지 유형의 개체(322)의 특징을 추출할 수 있다.(S422b) 가령 제어부(112)는 특징점 추출 기법 및/또는 객체 인식 기법을 통하여 이미지 유형의 개체(322) 내의 감정과 관련되는 특징을 추출할 수 있다. 이어서 제어부(112)는 추출된 특징에 기초하여 제1 특징 벡터(332)를 생성할 수 있다.(S423b) 이 때 제어부(112)는 이미지 별로 특징을 추출하고, 이에 기초하여 제1 특징 벡터(332)를 생성할 수도 있고, 모든 이미지로부터 특징을 추출하고, 이에 기초하여 제1 특징 벡터(332)를 생성할 수도 있다.Referring to FIG. 5B, when the control unit 112 generates the first feature vector 332 from the image-type object 322 in more detail, first, the control unit 112 may control all or part of the test content 311. Objects 322 of the image type may be collected. (S421b) Subsequently, the control unit 112 may extract the characteristics of the object 322 of the image type through image analysis. (S422b) For example, the control unit 112 may extract the image type through the feature point extraction technique and / or the object recognition technique. Features related to the emotion in the object 322 of can be extracted. Subsequently, the controller 112 may generate a first feature vector 332 based on the extracted features. (S423b) At this time, the controller 112 extracts features for each image, and based on this, the first feature vector ( 332) may be generated, features may be extracted from all images, and a first feature vector 332 may be generated based on the features.

도 5c를 참조하여 제어부(112)가 오디오 유형의 개체(323)로부터 제1 특징 벡터(333)를 생성하는 과정을 보다 상세히 살펴보면, 먼저 제어부(112)는 콘텐츠(311) 내의 전부 또는 일부의 오디오 유형의 개체(323)를 수집할 수 있다.(S421c) 이어서 제어부(112)는 오디오 분석을 통하여 오디오 유형의 개체(323)의 특징을 추출할 수 있다.(S422c) 가령 제어부(112)는 특징음 추출 기법 및/또는 음성 인식 기법을 통하여 오디오 유형의 개체(323) 내의 감정과 관련되는 특징을 추출할 수 있다. 이어서 제어부(112)는 추출된 특징에 기초하여 제1 특징 벡터(333)를 생성할 수 있다.(S423c)Referring to FIG. 5C, the process of generating the first feature vector 333 from the audio object 323 by the control unit 112 will be described in more detail. First, the control unit 112 may control all or part of the audio in the content 311. The object 323 of the type may be collected. (S421c) Then, the control unit 112 may extract characteristics of the object 323 of the audio type through audio analysis (S422c). Features related to emotion in the object 323 of the audio type may be extracted through a sound extraction technique and / or a speech recognition technique. Subsequently, the control unit 112 may generate the first feature vector 333 based on the extracted feature. (S423c)

각 유형의 개체로부터 생성된 제1 특징 벡터(331 내지 333)는 그 차원이 모두 상이할 수 있다. 가령 텍스트 유형의 개체(321)로부터 생성된 제1 특징 벡터(331)는 제1 차원이고, 이미지 유형의 개체(322)로부터 생성된 제1 특징 벡터(332)는 제2 차원이고, 오디오 유형의 개체(323)로부터 생성된 제1 특징 벡터(333)는 제3 차원일 수 있다. 물론 각 제1 특징 벡터(331 내지 333)중 적어도 일부는 차원이 동일할 수도 있다. 다만 이는 예시적인 것으로 본 발명의 사상이 이에 한정되는 것은 아니다.The first feature vectors 331 to 333 generated from each type of entity may all have different dimensions. For example, the first feature vector 331 generated from the text-type object 321 is the first dimension, the first feature vector 332 generated from the image-type object 322 is the second dimension, and the audio type is The first feature vector 333 generated from the object 323 may be a third dimension. Of course, at least some of each of the first feature vectors 331 to 333 may have the same dimension. However, this is exemplary and the spirit of the present invention is not limited thereto.

한편 테스트 콘텐츠(311)에 비디오 유형의 개체(미도시)가 포함된 경우, 본 발명의 일 실시예에 따른 제어부(112)는 비디오 유형의 개체를 수집하고(S421d), 수집된 비디오 유형의 개체를 이미지 유형의 개체 및 오디오 유형의 개체로 분리하고(422d), 분리된 각각의 개체에 대한 제1 특징 벡터 생성 방법에 따라 제1 특징 벡터를 생성할 수 있다.(423d) 바꾸어 말하면 제어부(112)는 비디오 유형의 개체로부터 분리된 이미지 유형의 개체에 대해, 이미지 유형의 개체에 대한 제1 특징 벡터 생성 방식에 따라 제1 특징 벡터를 생성하고, 비디오 유형의 개체로부터 분리된 오디오 유형의 개체에 대해, 오디오 유형의 개체에 대한 제1 특징 벡터 생성 방식에 따라 제1 특징 벡터를 생성할 수 있다. 다만 이와 같은 비디오 유형의 개체는 두 개 이상의 이종 유형의 개체가 결합된 것의 예시로, 본 발명의 사상이 이에 한정되는 것은 아니다. Meanwhile, when an object (not shown) of a video type is included in the test content 311, the control unit 112 according to an embodiment of the present invention collects an object of the video type (S421d) and collects the object of the video type. Is separated into an image type object and an audio type object (422d), and a first feature vector may be generated according to a first feature vector generation method for each separated object. (423d) In other words, the control unit 112 ) Generates a first feature vector according to a first feature vector generation method for an image type object, and an audio type object separated from the video type object, for an image type object separated from the video type object. With respect to this, the first feature vector may be generated according to the first feature vector generating method for the audio type object. However, this type of video object is an example of combining two or more different types of objects, and the spirit of the present invention is not limited thereto.

본 발명의 일 실시예에 따른 제어부(112)는 테스트 콘텐츠(311)에 개인정보(313)가 더 표지된 경우, 개인정보에 대한 제1 특징 벡터(334)를 더 생성할 수 있다. 이 때 제어부(112)는 전술한 바와 같이 성별, 나이, 연령, 학력, 주거지역 및 직업 등과 같은 일반적인 인적 사항과 해당 콘텐츠를 언제 감상하였는지, 어디서 감상하였는지 또는 어떤 경로를 통하여 감상하였는지와 같은 콘텐츠 관련 사항을 모두 고려하여 제1 특징 벡터(334)를 생성할 수 있다. If the personal information 313 is further displayed on the test content 311, the controller 112 according to an embodiment of the present invention may further generate a first feature vector 334 for personal information. At this time, the controller 112, as described above, related to general personal matters such as gender, age, age, educational background, residential area, and occupation, and content such as when, where, or through which route the content was viewed. The first feature vector 334 may be generated in consideration of all matters.

본 발명의 일 실시예에 따른 제어부(112)는 생성된 개체의 유형 별 제1 특징 벡터에 기초하여 테스트 콘텐츠의 특징 벡터인 제2 특징 벡터를 생성할 수 있다.(S43) 이 때 제2 특징 벡터는 테스트 콘텐츠 내에 포함되는 모든 개체의 특성을 고려한 벡터로 써의 의미를 가질 수 있다.The controller 112 according to an embodiment of the present invention may generate a second feature vector that is a feature vector of the test content based on the first feature vector for each type of the generated object. (S43) The vector may have a meaning as a vector considering characteristics of all objects included in the test content.

종래기술에 따르면, 콘텐츠 내에 복수의 유형의 개체가 포함되어 있는 경우 텍스트 유형의 개체만을 기준으로 해당 콘텐츠에 대한 사용자의 감정을 추론하거나, 각각의 유형의 개체에 대한 감정을 개별적으로 추론한 뒤, 이를 통계적으로 처리하여 해당 콘텐츠에 대한 사용자의 감정을 추론하였다.According to the prior art, when a plurality of types of objects are included in the content, the user's feelings for the corresponding content are inferred on the basis of only text-type objects, or after the emotions for each type of object are individually inferred, This was statistically processed to infer the user's feelings about the content.

이러한 방식은 각각의 유형의 개체가 모두 동일한 주제에 관한 것임에도 불구하고, 각 유형의 개체에 대한 개별적인 감정 인식 결과에 기초하여 해당 콘텐츠 전체에 대한 감정을 추론하므로 콘텐츠 흐름이나 맥락에 대한 이해가 결핍된 결과를 도출하는 문제점이 있었다.In this way, even though each type of object is all about the same subject, it lacks understanding of the content flow or context because it infers feelings for the entire content based on the results of individual emotion recognition for each type of object. There was a problem leading to the result.

특히 이러한 방식은 결국 각 유형의 개체에 대한 개별적인 감정 인식 결과를 통계모델에 기반하여 처리함으로써, 일부 유형의 개체로부터 다소 상이한 감정 인식 결과가 도출되었음에도 불구하고 이러한 인식 결과를 무시하여 보다 세밀한 감정 인식이 불가능한 문제점이 있었다.Particularly, this method processes individual emotion recognition results for each type of individual based on a statistical model, so even though somewhat different emotion recognition results are derived from some types of individuals, more detailed emotion recognition is possible by ignoring these recognition results. There was an impossible problem.

본원 발명은 각 유형의 개체의 특징정보를 보다 낮은 레벨에서 통합하고, 이에 기초하여 콘텐츠에 대한 감정 인식을 수행함으로써 콘텐츠의 흐름이나 맥락에 대한 이해가 부가된 감정인식 결과를 도출할 수 있고, 보다 세밀한 감정 인식 결과를 도출할 수 있다.The present invention can derive the emotion recognition result by adding the understanding of the flow or context of the content by integrating the feature information of each type of individual at a lower level and performing emotion recognition on the content based on this. Can produce detailed emotion recognition results.

한편 본 발명의 일 실시예에 따른 제어부(112)는 텍스트 유형의 개체(321)로부터 생성된 제1 특징 벡터(331), 이미지 유형의 개체(322)로부터 생성된 제1 특징 벡터(332), 오디오 유형의 개체(323)로부터 생성된 제1 특징 벡터(333) 및 개인개인정보로부터 생성된 제1 특징 벡터(334)를 병합하여 제2 특징 벡터(341)를 생성할 수 있다. 이 때 제어부(112)는 다양한 방식에 따라 제1 특징 벡터(331 내지 334)로부터 제2 특징 벡터(341)를 생성할 수 있다.Meanwhile, the control unit 112 according to an embodiment of the present invention includes a first feature vector 331 generated from an object 321 of a text type, a first feature vector 332 generated from an object 322 of an image type, The second feature vector 341 may be generated by merging the first feature vector 333 generated from the audio-type entity 323 and the first feature vector 334 generated from personal information. At this time, the control unit 112 may generate the second feature vector 341 from the first feature vectors 331 to 334 according to various methods.

가령 제어부(112)는 도 8에 도시된 방식과 유사한 방식으로, 각각의 제1 특징 벡터(331 내지 334)를 직렬적으로 병합하여 제2 특징 벡터(341)를 생성할 수 있다. 이 때 제2 특징 벡터(341)의 차원의 수는 각각의 제1 특징 벡터(331 내지 334)의 차원 수의 합에 기초하여 결정될 수 있다.For example, the controller 112 may generate a second feature vector 341 by merging each of the first feature vectors 331 to 334 in series in a manner similar to the method illustrated in FIG. 8. At this time, the number of dimensions of the second feature vector 341 may be determined based on the sum of the number of dimensions of each of the first feature vectors 331 to 334.

한편 제어부(112)는 전술한 방식과 달리, 제1 특징 벡터(331 내지 334)들의 차원 변환 연산 및/또는 벡터 연산에 의해 고정된 자리수의 제2 특징 벡터(341)를 생성할 수도 있다. On the other hand, unlike the above-described method, the control unit 112 may generate a second feature vector 341 having a fixed number of digits by dimensional transformation operations and / or vector operations of the first feature vectors 331 to 334.

다만 이는 예시적인 것으로 본 발명의 사상이 이에 한정되는 것은 아니며, 복수의 제1 특징 벡터에 기초하여 하나의 제2 특징 벡터를 생성하는 연산이면 제한 없이 사용될 수 있다.However, this is exemplary and the spirit of the present invention is not limited thereto, and any operation that generates one second feature vector based on a plurality of first feature vectors may be used without limitation.

본 발명의 일 실시예에 따른 제어부(112)는 생성된 제2 특징 벡터(341) 및 테스트 콘텐츠(311)에 부가된 감정 정보(312)에 기초하여 감정 인식기(351)를 트레이닝(Training)시킬 수 있다.(S44) 이 때 감정 정보(312)는 감정에 대한 정보를 벡터의 형태로 포함할 수 있다. 따라서 이하에서는 전술한 감정 정보(312)가 제3 특징 벡터를 포함하는 것을 전제로 설명한다.The controller 112 according to an embodiment of the present invention trains the emotion recognizer 351 based on the generated second feature vector 341 and the emotion information 312 added to the test content 311. (S44) At this time, the emotion information 312 may include information about the emotion in the form of a vector. Therefore, hereinafter, it is assumed that the above-described emotion information 312 includes a third feature vector.

전술한 바와 같이 감정 인식기(351)는 머신 러닝(Machine Learning) 기법으로 생성된 복수의 테스트 콘텐츠(310)와 해당 콘텐츠에 대한 감정의 상관관계, 즉 양자의 매핑 정보일 수 있다. As described above, the emotion recognizer 351 may be correlation information between a plurality of test contents 310 generated by a machine learning technique and corresponding contents, that is, mapping information of both.

따라서 본 발명의 일 실시예에 따른 제어부(112)는 전술한 과정에 의해 생성된 제2 특징 벡터(341)와 감정 정보(312)를 포함하는 제3 특징 벡터를 서로 대응(매핑)시킬 수 있도록 감정 인식기(351)의 데이터 셋트를 업데이트(Update)하는 방식으로 인식기(351)를 트레이닝(Training)시킬 수 있다. Therefore, the control unit 112 according to an embodiment of the present invention can correspond (map) the second feature vector 341 generated by the above-described process and the third feature vector including emotion information 312 to each other. The recognizer 351 may be trained by updating the data set of the emotion recognizer 351.

가령 감정 인식기(351)의 데이터 셋트가 복수개의 계수(Weight)로 구성되는 경우, 제어부(112)는 각 테스트 콘텐츠의 제2 특징 벡터(341) 및 제3 특징 벡터에 기초하여 감정 인식기(351)를 구성하는 계수들을 조절할 수 있다. 이 때 제어부(112)는 복수의 테스트 콘텐츠로부터 제2 특징 벡터(341) 및 제3 특징 벡터를 생성 및/또는 획득하고 이에 기초하여 계수를 업데이트 함으로써 보다 정확도가 향상된 감정 인식 결과를 제공하는 감정 인식기(351)를 획득할 수 있다.For example, when the data set of the emotion recognizer 351 is composed of a plurality of coefficients (Weight), the control unit 112 determines the emotion recognizer 351 based on the second feature vector 341 and the third feature vector of each test content. Coefficients constituting can be adjusted. At this time, the control unit 112 generates and / or acquires the second feature vector 341 and the third feature vector from the plurality of test contents and updates the coefficients based thereon, thereby providing an emotion recognizer with improved accuracy. (351) can be obtained.

이로써 본원 발명은 각 유형의 개체의 특징정보를 보다 낮은 레벨에서 통합하고, 이에 기초하여 콘텐츠에 대한 감정 인식을 수행함으로써 콘텐츠의 흐름이나 맥락에 대한 이해가 부가된 감정인식 결과를 도출할 수 있고, 보다 세밀한 감정 인식 결과를 도출할 수 있는 감정 인식기(351)를 생성할 수 있다.Accordingly, the present invention can derive the emotion recognition result by adding the understanding of the flow or context of the content by integrating the feature information of each type of entity at a lower level and performing emotion recognition on the content based on this, An emotion recognizer 351 capable of deriving a more detailed emotion recognition result may be generated.

< 감정 인식 장치(110)를 이용한 감정 인식 방법 ><Emotion recognition method using emotion recognition device 110>

이상에서는 도 3 내지 도 5d를 통하여 감정 인식 장치(110), 특히 감정 인식기를 생성하는 방법을 설명하였다. 이하에서는 도 6 내지 도 8을 통하여 전술한 과정에 의하여 생성된 감정 인식 장치(110)가 인식 대상 콘텐츠에 대한 감정을 인식하는 방법을 설명한다. 따라서 이하에서는 전술한 과정에 의해서 감정 인식기가 감정 인식 장치(110)에 의해 생성되어 있음을 전제로 설명한다. In the above, the method of generating the emotion recognition apparatus 110, particularly the emotion recognizer, has been described with reference to FIGS. 3 to 5D. Hereinafter, a method of recognizing the emotion for the content to be recognized by the emotion recognition apparatus 110 generated by the above-described process through FIGS. 6 to 8 will be described. Therefore, hereinafter, it will be described on the assumption that the emotion recognizer is generated by the emotion recognition device 110 by the above-described process.

도 6은 본 발명의 일 실시예에 따른 감정 인식 장치(110)가 감정 인식기를 이용하여 인식 대상 콘텐츠의 감정을 인식하는 방법을 설명하기 위한 도면이다.6 is a view for explaining a method of recognizing the emotion of the content to be recognized by the emotion recognition device 110 according to an embodiment of the present invention using an emotion recognizer.

도 6을 참조하면, 본 발명의 일 실시예에 따른 감정 인식 장치(110)의 제어부(112)는 적어도 하나 이상의 유형의 개체를 포함하는 인식 대상 콘텐츠(611)를 수신할 수 있다.Referring to FIG. 6, the control unit 112 of the emotion recognition device 110 according to an embodiment of the present invention may receive the content to be recognized 611 including at least one type of object.

이 때 제어부(112)는 사용자 단말(200)로부터 인식 대상 콘텐츠(611)그 자체를 수신할 수 있다. 가령 제어부(112)는 사용자 단말(200)로부터 도 6에 도시된 바와 같이 텍스트 유형의 개체(621), 이미지 유형의 개체(622) 및 오디오 유형의 개체(623)를 포함하는 콘텐츠(611)를 수신할 수 있다.At this time, the control unit 112 may receive the content to be recognized 611 itself from the user terminal 200. For example, the control unit 112 receives the content 611 including the text type object 621, the image type object 622, and the audio type object 623 from the user terminal 200, as shown in FIG. I can receive it.

또한 제어부(112)는 사용자 단말(200)로부터 인식 대상 콘텐츠(611)의 식별정보만을 수신할 수도 있다. 가령 제어부(112)는 사용자 단말(200)로부터 인식 대상 콘텐츠(611)의 URL을 수신할 수 있다. 이러한 경우 제어부(112)는 사용자 단말(200)로부터 수신한 식별정보에 기초하여 콘텐츠의 제공자(미도시)로부터 해당 콘텐츠(611)를 획득할 수 있다.Also, the control unit 112 may receive only identification information of the content 611 to be recognized from the user terminal 200. For example, the control unit 112 may receive the URL of the content to be recognized 611 from the user terminal 200. In this case, the control unit 112 may obtain the corresponding content 611 from the content provider (not shown) based on the identification information received from the user terminal 200.

본 발명의 다른 실시예에 따르면, 제어부(112)는 외부장치(300)로부터 인식 대상 콘텐츠(611) 그 자체 및/또는 인식 대상 콘텐츠(611)의 식별정보를 수신할 수도 있다. 이 때 외부장치(300)는 자신이 사용자 단말(200)에 제공한 콘텐츠에 대한 식별정보를 서버(100)에 전송하고, 서버(100)로부터 해당 콘텐츠에 대한 감정 인식 결과를 수신하는 장치일 수 있다. 가령 외부장치(300)는 자신이 제공하고 있는 콘텐츠에 대한 사용자의 감정을 알고자 하는 서비스 제공 업체의 서버일 수 있다.According to another embodiment of the present invention, the control unit 112 may receive the identification information of the recognition target content 611 itself and / or the recognition target content 611 from the external device 300. At this time, the external device 300 may be a device that transmits identification information about the content provided to the user terminal 200 to the server 100 and receives an emotion recognition result for the content from the server 100 have. For example, the external device 300 may be a server of a service provider who wants to know a user's feelings about content provided by the user.

한편 인식 대상 콘텐츠(611)에는 해당 콘텐츠(611)를 감상하는 제1 사용자의 개인정보(612)가 부가정보로써 부가되어 있을 수 있다. 이 때 개인정보(612)는 전술한 바와 같이 성별, 나이, 연령, 학력, 주거지역 및 직업 등과 같은 일반적인 인적 사항과 해당 콘텐츠를 언제 감상하였는지, 어디서 감상하였는지 또는 어떤 경로를 통하여 감상하였는지와 같은 콘텐츠 관련 사항을 포함할 수 있다. 다만 이는 예시적인 것으로 본 발명의 사상이 이에 한정되는 것은 아니다.Meanwhile, the personal information 612 of the first user who views the corresponding content 611 may be added to the recognition target content 611 as additional information. At this time, the personal information 612 includes general personal matters such as gender, age, age, educational background, residential area, and occupation, as described above, and content such as when the content was viewed, where it was viewed, or through what channel. It may include related matters. However, this is exemplary and the spirit of the present invention is not limited thereto.

본 발명의 일 실시예에 따른 제어부(112)는 전술한 과정에 의해 획득한 인식 대상 콘텐츠에 포함된 개체의 유형 별로 제1 특징 벡터(631 내지 634)를 생성할 수 있다. 이 때 '유형 별로 제1 특징 벡터를 생성'하는 것은, 인식 대상 콘텐츠 내에서 동일한 유형의 개체를 모두 수집하고, 이에 기초하여 제1 특징 벡터를 생성하는 것을 의미할 수 있다.The controller 112 according to an embodiment of the present invention may generate the first feature vectors 631 to 634 for each type of object included in the content to be recognized obtained by the above-described process. In this case, 'creating the first feature vector for each type' may mean collecting all objects of the same type in the content to be recognized and generating the first feature vector based on the same.

가령 인식 대상 콘텐츠(611)가 텍스트 유형의 개체(621), 이미지 유형의 개체(622) 및 오디오 유형의 개체(623)를 포함한다고 가정해 보자. 이러한 경우 제어부(112)는 텍스트 유형의 개체(621)로부터 제1 특징 벡터(631)를, 이미지 유형의 개체(622)로부터 제1 특징 벡터(632)를, 오디오 유형의 개체(623)로부터 제1 특징 벡터(633)를 생성할 수 있다. 물론 본 발명의 일 실시예에 따른 제어부(112)는 인식 대상 콘텐츠(611)에 개인정보(612)가 더 표지된 경우, 개인정보에 대한 제1 특징 벡터(634)를 더 생성할 수 있다. For example, suppose that the content to be recognized 611 includes an object 621 of a text type, an object 622 of an image type, and an object 623 of an audio type. In this case, the control unit 112 removes the first feature vector 631 from the text type object 621, the first feature vector 632 from the image type object 622, and the audio type object 623. One feature vector 633 can be generated. Of course, when the personal information 612 is further displayed on the content 611 to be recognized, the control unit 112 according to an embodiment of the present invention may further generate a first feature vector 634 for personal information.

본 발명의 일 실시예에 따른 제어부(112)는 인식 대상 콘텐츠(611)에 비디오 유형의 개체가 포함된 경우, 비디오 유형의 개체를 이미지 유형의 개체 및 오디오 유형의 개체로 분리하고, 분리된 각각의 개체에 대한 제1 특징 벡터 생성 방법에 따라 제1 특징 벡터를 생성할 수 있다. The control unit 112 according to an embodiment of the present invention, when the recognition target content 611 includes an object of the video type, separates the object of the video type into an object of the image type and an object of the audio type, each separated A first feature vector may be generated according to a method of generating a first feature vector for an individual of.

이와 같이 제어부(112)가 각각의 개체 및/또는 개인정보로부터 제1 특징 벡터(631 내지 634)를 생성하는 것은 도 3 내지 도 5d를 통하여 설명하였으므로, 이에 대한 상세한 설명은 생략한다.As described above, since the control unit 112 generates the first feature vectors 631 to 634 from each individual and / or personal information, detailed descriptions thereof will be omitted.

본 발명의 일 실시예에 따른 제어부(112)는 생성된 개체의 유형 별 제1 특징 벡터(631 내지 634)에 기초하여 인식 대상 콘텐츠(611)의 특징 벡터인 제2 특징 벡터(641)를 생성할 수 있다. 이 때 제2 특징 벡터(641)는 인식 대상 콘텐츠(611) 내에 포함되는 모든 개체의 특성을 고려한 벡터로써의 의미를 가질 수 있다.The controller 112 according to an embodiment of the present invention generates a second feature vector 641 that is a feature vector of the content to be recognized 611 based on the first feature vectors 631 to 634 for each type of the generated object. can do. At this time, the second feature vector 641 may have a meaning as a vector considering characteristics of all objects included in the content to be recognized 611.

종래기술에 따르면, 콘텐츠 내에 복수의 유형의 개체가 포함되어 있는 경우 텍스트 유형의 개체만을 기준으로 해당 콘텐츠에 대한 사용자의 감정을 추론하거나, 각각의 유형의 개체에 대한 감정을 개별적으로 추론한 뒤, 이를 통계적으로 처리하여 해당 콘텐츠에 대한 사용자의 감정을 추론하였다.According to the prior art, when a plurality of types of objects are included in the content, the user's feelings for the corresponding content are inferred on the basis of only text-type objects, or after the emotions for each type of object are individually inferred, This was statistically processed to infer the user's feelings about the content.

이러한 방식은 각각의 유형의 개체가 모두 동일한 주제에 관한 것임에도 불구하고, 각 유형의 개체에 대한 개별적인 감정 인식 결과에 기초하여 해당 콘텐츠 전체에 대한 감정을 추론하므로 콘텐츠 흐름이나 맥락에 대한 이해가 결핍된 결과를 도출하는 문제점이 있었다.In this way, even though each type of object is all about the same subject, it lacks understanding of the content flow or context because it infers feelings for the entire content based on the results of individual emotion recognition for each type of object. There was a problem leading to the result.

특히 이러한 방식은 결국 각 유형의 개체에 대한 개별적인 감정 인식 결과를 통계모델에 기반하여 처리함으로써, 일부 유형의 개체로부터 다소 상이한 감정 인식 결과가 도출되었음에도 불구하고 이러한 인식 결과를 무시하여 보다 세밀한 감정 인식이 불가능한 문제점이 있었다.Particularly, this method processes individual emotion recognition results for each type of individual based on a statistical model, so even though somewhat different emotion recognition results are derived from some types of individuals, more detailed emotion recognition is possible by ignoring these recognition results. There was an impossible problem.

본원 발명은 각 유형의 개체의 특징정보를 보다 낮은 레벨에서 통합하고, 이에 기초하여 콘텐츠에 대한 감정 인식을 수행함으로써 콘텐츠의 흐름이나 맥락에 대한 이해가 부가된 감정인식 결과를 도출할 수 있고, 보다 세밀한 감정 인식 결과를 도출할 수 있다.The present invention can derive the emotion recognition result by adding the understanding of the flow or context of the content by integrating the feature information of each type of individual at a lower level and performing emotion recognition on the content based on this. Can produce detailed emotion recognition results.

한편 본 발명의 일 실시예에 따른 제어부(112)는 텍스트 유형의 개체(621)로부터 생성된 제1 특징 벡터(631), 이미지 유형의 개체(622)로부터 생성된 제1 특징 벡터(632), 오디오 유형의 개체(623)로부터 생성된 제1 특징 벡터(633) 및 개인개인정보(612)로부터 생성된 제1 특징 벡터(634)를 병합하여 제2 특징 벡터(641)를 생성할 수 있다. 이 때 제어부(112)는 다양한 방식에 따라 제2 특징 벡터(641)를 생성할 수 있다.Meanwhile, the control unit 112 according to an embodiment of the present invention includes a first feature vector 631 generated from an object 621 of a text type, a first feature vector 632 generated from an object 622 of an image type, The second feature vector 641 may be generated by merging the first feature vector 633 generated from the audio-type entity 623 and the first feature vector 634 generated from the personal information 612. At this time, the control unit 112 may generate the second feature vector 641 according to various methods.

가령 제어부(112)는 도 8에 도시된 바와 같이, 각각의 제1 특징 벡터(631 내지 634)를 직렬적으로 병합하여 제2 특징 벡터(641)를 생성할 수 있다. 이 때 제2 특징 벡터(641)의 차원의 수는 각각의 제1 특징 벡터(631 내지 634)의 차원 수의 합에 기초하여 결정될 수 있다.For example, as illustrated in FIG. 8, the controller 112 may generate the second feature vector 641 by merging each of the first feature vectors 631 to 634 in series. At this time, the number of dimensions of the second feature vector 641 may be determined based on the sum of the number of dimensions of each of the first feature vectors 631 to 634.

한편 제어부(112)는 전술한 방식과 달리, 제1 특징 벡터(631 내지 634)들의 차원 변환 연산 및/또는 벡터 연산에 의해 고정된 자리수의 제2 특징 벡터(641)를 생성할 수도 있다. 다만 이는 예시적인 것으로 본 발명의 사상이 이에 한정되는 것은 아니며, 복수의 제1 특징 벡터에 기초하여 하나의 제2 특징 벡터를 생성하는 연산이면 제한 없이 사용될 수 있다.On the other hand, unlike the above-described method, the control unit 112 may generate the second feature vector 641 of a fixed number of digits by the dimensional transformation operation and / or the vector operation of the first feature vectors 631 to 634. However, this is exemplary and the spirit of the present invention is not limited thereto, and any operation that generates one second feature vector based on a plurality of first feature vectors may be used without limitation.

본 발명의 일 실시예에 따른 제어부(112)는 생성된 제2 특징 벡터(641) 및 감정 인식기(351)에 기초하여 제1 사용자의 인식 대상 콘텐츠(611)에 대한 감정을 결정할 수 있다.The controller 112 according to an embodiment of the present invention may determine the emotion of the first user's recognition target content 611 based on the generated second feature vector 641 and the emotion recognizer 351.

전술한 바와 같이 감정 인식기(351)는 머신 러닝(Machine Learning) 기법으로 생성된 복수의 테스트 콘텐츠와 해당 콘텐츠에 대한 감정의 상관관계, 즉 양자의 매핑 정보일 수 있다. As described above, the emotion recognizer 351 may be a correlation between a plurality of test contents generated by a machine learning technique and emotions on the corresponding contents, that is, mapping information of both.

따라서 이러한 감정 인식기(351)를 참조하면, 본 발명의 일 실시예에 따른 제어부(112)는 생성된 제2 특징 벡터(641)와 매핑되는 감정 정보(651)를 확인할 수 있다. Accordingly, referring to the emotion recognizer 351, the controller 112 according to an embodiment of the present invention may check emotion information 651 mapped to the generated second feature vector 641.

이 때 감정 정보(651)는 감정에 대한 정보를 벡터의 형태로 포함할 수 있다. 가령 감정 정보(651)가 [0.1, 0.2, 0.99, 0.4..]와 같은 벡터이고, 첫 번째 값이 '기쁨'과 관련된 값이고, 두 번째가 '슬픔'과 관련된 값이고, 세 번째가 '지루함'과 관련된 값이라고 가정해 보자. 이러한 경우 제어부(112)는 인식 대상 콘텐츠에 대한 사용자의 감정을 '지루함'으로 결정할 수 있다.At this time, the emotion information 651 may include information about emotion in the form of a vector. For example, the emotion information 651 is a vector such as [0.1, 0.2, 0.99, 0.4 ..], the first value is a value related to 'joy', the second is a value related to 'sadness', and the third is' Let's say it's a value related to boredom. In this case, the control unit 112 may determine the user's emotion for the content to be recognized as 'boredom'.

이로써 본원 발명은 인식 대상 콘텐츠로부터 콘텐츠의 흐름이나 맥락에 대한 이해가 부가된 감정인식 결과를 도출할 수 있고, 보다 세밀한 감정 인식 결과를 도출할 수 있다.Accordingly, the present invention can derive an emotion recognition result to which an understanding of the flow or context of the content is added from the content to be recognized, and to derive a more detailed emotion recognition result.

도 7은 본 발명의 일 실시예에 따른 감정 인식 장치(110)에 의해 수행되는 감정 인식 방법을 설명하기 위한 흐름도이다.7 is a flowchart illustrating an emotion recognition method performed by the emotion recognition device 110 according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 감정 인식 장치(110)의 제어부(112)는 적어도 하나 이상의 유형의 개체를 포함하는 인식 대상 콘텐츠(611)를 사용자 단말(200)로부터 수신할 수 있다.(S71) 이 때 제어부(112)는 사용자 단말(200)로부터 인식 대상 콘텐츠(611)그 자체를 수신할 수 있다. 가령 제어부(112)는 사용자 단말(200)로부터 도 6에 도시된 바와 같이 텍스트 유형의 개체(621), 이미지 유형의 개체(622) 및 오디오 유형의 개체(623)를 포함하는 콘텐츠(611)를 수신할 수 있다.The control unit 112 of the emotion recognition device 110 according to an embodiment of the present invention may receive the recognition target content 611 including at least one type of object from the user terminal 200 (S71). At this time, the control unit 112 may receive the content to be recognized 611 itself from the user terminal 200. For example, the control unit 112 receives the content 611 including the text type object 621, the image type object 622, and the audio type object 623 from the user terminal 200, as shown in FIG. I can receive it.

또한 제어부(112)는 사용자 단말(200)로부터 인식 대상 콘텐츠(611)의 식별정보만을 수신할 수도 있다. 가령 제어부(112)는 사용자 단말(200)로부터 인식 대상 콘텐츠(611)의 URL을 수신할 수 있다. 이러한 경우 제어부(112)는 사용자 단말(200)로부터 수신한 식별정보에 기초하여 콘텐츠의 제공자(미도시)로부터 해당 콘텐츠(611)를 획득할 수 있다.Also, the control unit 112 may receive only identification information of the content 611 to be recognized from the user terminal 200. For example, the control unit 112 may receive the URL of the content to be recognized 611 from the user terminal 200. In this case, the control unit 112 may obtain the corresponding content 611 from the content provider (not shown) based on the identification information received from the user terminal 200.

본 발명의 다른 실시예에 따르면 제어부(112)는 도 7에 도시된 바와 달리, 외부장치(300)로부터 인식 대상 콘텐츠(611) 그 자체 및/또는 인식 대상 콘텐츠(611)의 식별정보를 수신할 수도 있다. 이 때 외부장치(300)는 자신이 사용자 단말(200)에 제공한 콘텐츠에 대한 식별정보를 서버(100)에 전송하고, 서버(100)로부터 해당 콘텐츠에 대한 감정 인식 결과를 수신하는 장치일 수 있다. 가령 외부장치(300)는 자신이 제공하고 있는 콘텐츠에 대한 사용자의 감정을 알고자 하는 서비스 제공 업체의 서버일 수 있다.According to another embodiment of the present invention, the control unit 112 may receive identification information of the recognition target content 611 itself and / or the recognition target content 611 from the external device 300, as illustrated in FIG. 7. It might be. At this time, the external device 300 may be a device that transmits identification information about the content provided to the user terminal 200 to the server 100 and receives an emotion recognition result for the content from the server 100 have. For example, the external device 300 may be a server of a service provider who wants to know a user's feelings about content provided by the user.

한편 인식 대상 콘텐츠(611)에는 해당 콘텐츠(611)를 감상하는 제1 사용자의 개인정보(612)가 부가정보로써 부가되어 있을 수 있다. 이 때 개인정보(612)는 전술한 바와 같이 성별, 나이, 연령, 학력, 주거지역 및 직업 등과 같은 일반적인 인적 사항과 해당 콘텐츠를 언제 감상하였는지, 어디서 감상하였는지 또는 어떤 경로를 통하여 감상하였는지와 같은 콘텐츠 관련 사항을 포함할 수 있다. 다만 이는 예시적인 것으로 본 발명의 사상이 이에 한정되는 것은 아니다.Meanwhile, the personal information 612 of the first user who views the corresponding content 611 may be added to the recognition target content 611 as additional information. At this time, the personal information 612 includes general personal matters such as gender, age, age, educational background, residential area, and occupation, as described above, and content such as when the content was viewed, where it was viewed, or through what channel. It may include related matters. However, this is exemplary and the spirit of the present invention is not limited thereto.

본 발명의 일 실시예에 따른 제어부(112)는 전술한 과정에 의해 획득한 인식 대상 콘텐츠에 포함된 개체의 유형 별로 제1 특징 벡터(631 내지 634)를 생성할 수 있다.(S72) 이 때 '유형 별로 제1 특징 벡터를 생성'하는 것은, 인식 대상 콘텐츠 내에서 동일한 유형의 개체를 모두 수집하고, 이에 기초하여 제1 특징 벡터를 생성하는 것을 의미할 수 있다.The controller 112 according to an embodiment of the present invention may generate the first feature vectors 631 to 634 for each type of object included in the content to be recognized obtained by the above-described process. (S72) 'Creating a first feature vector for each type' may mean collecting all objects of the same type in the content to be recognized and generating a first feature vector based on the same.

가령 인식 대상 콘텐츠(611)가 텍스트 유형의 개체(621), 이미지 유형의 개체(622) 및 오디오 유형의 개체(623)를 포함한다고 가정해 보자. 이러한 경우 제어부(112)는 텍스트 유형의 개체(621)로부터 제1 특징 벡터(631)를, 이미지 유형의 개체(622)로부터 제1 특징 벡터(632)를, 오디오 유형의 개체(623)로부터 제1 특징 벡터(633)를 생성할 수 있다. 물론 본 발명의 일 실시예에 따른 제어부(112)는 인식 대상 콘텐츠(611)에 개인정보(612)가 더 표지된 경우, 개인정보에 대한 제1 특징 벡터(634)를 더 생성할 수 있다. For example, suppose that the content to be recognized 611 includes an object 621 of a text type, an object 622 of an image type, and an object 623 of an audio type. In this case, the control unit 112 removes the first feature vector 631 from the text type object 621, the first feature vector 632 from the image type object 622, and the audio type object 623. One feature vector 633 can be generated. Of course, when the personal information 612 is further displayed on the content 611 to be recognized, the control unit 112 according to an embodiment of the present invention may further generate a first feature vector 634 for personal information.

본 발명의 일 실시예에 따른 제어부(112)는 인식 대상 콘텐츠(611)에 비디오 유형의 개체가 포함된 경우, 비디오 유형의 개체를 이미지 유형의 개체 및 오디오 유형의 개체로 분리하고, 분리된 각각의 개체에 대한 제1 특징 벡터 생성 방법에 따라 제1 특징 벡터를 생성할 수 있다. The control unit 112 according to an embodiment of the present invention, when the recognition target content 611 includes an object of the video type, separates the object of the video type into an object of the image type and an object of the audio type, each separated A first feature vector may be generated according to a method of generating a first feature vector for an individual of.

이와 같이 제어부(112)가 각각의 개체 및/또는 개인정보로부터 제1 특징 벡터(631 내지 634)를 생성하는 것은 도 3 내지 도 5d를 통하여 설명하였으므로, 이에 대한 상세한 설명은 생략한다.As described above, since the control unit 112 generates the first feature vectors 631 to 634 from each individual and / or personal information, detailed descriptions thereof will be omitted.

본 발명의 일 실시예에 따른 제어부(112)는 생성된 개체의 유형 별 제1 특징 벡터(631 내지 634)에 기초하여 인식 대상 콘텐츠(611)의 특징 벡터인 제2 특징 벡터(641)를 생성할 수 있다.(S73) 이 때 제2 특징 벡터(641)는 인식 대상 콘텐츠(611) 내에 포함되는 모든 개체의 특성을 고려한 벡터로써의 의미를 가질 수 있다.The controller 112 according to an embodiment of the present invention generates a second feature vector 641 that is a feature vector of the content to be recognized 611 based on the first feature vectors 631 to 634 for each type of the generated object. (S73) In this case, the second feature vector 641 may have a meaning as a vector considering characteristics of all objects included in the content to be recognized 611.

한편 본 발명의 일 실시예에 따른 제어부(112)는 텍스트 유형의 개체(621)로부터 생성된 제1 특징 벡터(631), 이미지 유형의 개체(622)로부터 생성된 제1 특징 벡터(632), 오디오 유형의 개체(623)로부터 생성된 제1 특징 벡터(633) 및 개인개인정보(612)로부터 생성된 제1 특징 벡터(634)를 병합하여 제2 특징 벡터(641)를 생성할 수 있다. 이 때 제어부(112)는 다양한 방식에 따라 제2 특징 벡터(641)를 생성할 수 있다.Meanwhile, the control unit 112 according to an embodiment of the present invention includes a first feature vector 631 generated from an object 621 of a text type, a first feature vector 632 generated from an object 622 of an image type, The second feature vector 641 may be generated by merging the first feature vector 633 generated from the audio-type entity 623 and the first feature vector 634 generated from the personal information 612. At this time, the control unit 112 may generate the second feature vector 641 according to various methods.

본 발명의 일 실시예에 따른 제어부(112)는 생성된 제2 특징 벡터(641) 및 감정 인식기(351)에 기초하여 제1 사용자의 인식 대상 콘텐츠(611)에 대한 감정을 결정할 수 있다.(S74)The control unit 112 according to an embodiment of the present invention may determine the emotion of the first user's recognition target content 611 based on the generated second feature vector 641 and the emotion recognizer 351. S74)

전술한 바와 같이 감정 인식기(351)는 머신 러닝(Machine Learning) 기법으로 생성된 복수의 테스트 콘텐츠와 해당 콘텐츠에 대한 감정의 상관관계, 즉 양자의 매핑 정보일 수 있다. As described above, the emotion recognizer 351 may be a correlation between a plurality of test contents generated by a machine learning technique and emotions on the corresponding contents, that is, mapping information of both.

따라서 이러한 감정 인식기(351)를 참조하면, 본 발명의 일 실시예에 따른 제어부(112)는 생성된 제2 특징 벡터(641)와 매핑되는 감정 정보(651)를 확인할 수 있다. 이 때 감정 정보(651)는 감정에 대한 정보를 벡터의 형태로 포함할 수 있다. 가령 감정 정보(651)가 [0.1, 0.2, 0.99, 0.4..]와 같은 벡터이고, 첫 번째 값이 '기쁨'과 관련된 값이고, 두 번째가 '슬픔'과 관련된 값이고, 세 번째가 '지루함'과 관련된 값이라고 가정해 보자. 이러한 경우 제어부(112)는 인식 대상 콘텐츠에 대한 사용자의 감정을 '지루함'으로 결정할 수 있다.Accordingly, referring to the emotion recognizer 351, the controller 112 according to an embodiment of the present invention may check emotion information 651 mapped to the generated second feature vector 641. At this time, the emotion information 651 may include information about emotion in the form of a vector. For example, the emotion information 651 is a vector such as [0.1, 0.2, 0.99, 0.4 ..], the first value is a value related to 'joy', the second is a value related to 'sadness', and the third is' Let's say it's a value related to boredom. In this case, the control unit 112 may determine the user's emotion for the content to be recognized as 'boredom'.

이로써 본원 발명은 인식 대상 콘텐츠로부터 콘텐츠의 흐름이나 맥락에 대한 이해가 부가된 감정인식 결과를 도출할 수 있고, 보다 세밀한 감정 인식 결과를 도출할 수 있다.Accordingly, the present invention can derive an emotion recognition result to which an understanding of the flow or context of the content is added from the content to be recognized, and to derive a more detailed emotion recognition result.

이상 설명된 본 발명에 따른 실시예는 컴퓨터 상에서 다양한 구성요소를 통하여 실행될 수 있는 컴퓨터 프로그램의 형태로 구현될 수 있으며, 이와 같은 컴퓨터 프로그램은 컴퓨터로 판독 가능한 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 저장하는 것일 수 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. The embodiment according to the present invention described above may be implemented in the form of a computer program that can be executed through various components on a computer, and such a computer program can be recorded on a computer-readable medium. At this time, the medium may be to store a program executable by a computer. Examples of the medium include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floptical disks, And program instructions including ROM, RAM, flash memory, and the like.

한편, 상기 컴퓨터 프로그램은 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 프로그램의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함될 수 있다.Meanwhile, the computer program may be specially designed and configured for the present invention or may be known and available to those skilled in the computer software field. Examples of computer programs may include not only machine language codes produced by a compiler, but also high-level language codes executable by a computer using an interpreter or the like.

본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, "필수적인", "중요하게" 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.The specific implementations described in the present invention are exemplary embodiments, and do not limit the scope of the present invention in any way. For brevity of the specification, descriptions of conventional electronic configurations, control systems, software, and other functional aspects of the systems may be omitted. In addition, the connection or connection members of the lines between the components shown in the drawings are illustrative examples of functional connections and / or physical or circuit connections. In the actual device, alternative or additional various functional connections, physical It can be represented as a connection, or circuit connections. In addition, unless specifically mentioned, such as "essential", "important", etc., it may not be a necessary component for the application of the present invention.

따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention is not limited to the above-described embodiment, and should not be determined, and the scope of the spirit of the present invention, as well as the claims to be described later, as well as all ranges that are equivalent to or equivalently changed from the claims. Would belong to

100: 서버
110: 감정 인식 장치
111: 통신부
112: 제어부
113: 메모리
200: 사용자 단말
300: 외부장치
400: 통신망
100: server
110: emotion recognition device
111: Communication Department
112: control unit
113: memory
200: user terminal
300: external device
400: network

Claims (5)

적어도 하나 이상의 유형의 개체를 포함하는 인식 대상 콘텐츠에 대한 제1 사용자의 감정을 인식하는 방법에 있어서,
사용자의 개인정보, 적어도 하나 이상의 유형의 개체 및 감정 정보를 포함하는 복수의 테스트 콘텐츠를 이용하여, 상기 개인정보, 상기 적어도 하나 이상의 유형의 개체 및 상기 감정 정보 간의 상관관계를 학습 하도록 감정 인식기를 학습시키는 단계;
상기 인식 대상 콘텐츠 내의 상기 적어도 하나 이상의 유형의 개체를 유형 별로 수집하는 단계;
상기 수집 결과에 기초하여 개체의 유형 별 제1 특징 벡터를 생성하는 단계;
상기 제1 사용자의 일반적인 인적 사항 및 상기 제1 사용자의 콘텐츠 감상 정보에 기초하여 개인정보에 대한 제1 특징 벡터를 생성하는 단계;
상기 유형 별 제1 특징 벡터 및 상기 개인정보에 대한 제1 특징 벡터를 기 설정된 방식으로 병합하여 제2 특징 벡터를 생성하는 단계; 및
상기 학습된 감정 인식기를 이용하여, 상기 제2 특징 벡터에 대응되는 감정 벡터를 결정하는 단계;를 포함하는, 멀티모달 정보에 기초한 감정 인식 방법.
A method for recognizing a first user's emotion for a content to be recognized that includes at least one type of object,
Learning a emotion recognizer to learn a correlation between the personal information, the at least one type of object, and the emotion information by using a plurality of test contents including user's personal information, at least one type of object, and emotion information Letting;
Collecting the at least one type of object in the content to be recognized for each type;
Generating a first feature vector for each type of object based on the collection result;
Generating a first feature vector for personal information based on the general personal information of the first user and the content viewing information of the first user;
Generating a second feature vector by merging the first feature vector for each type and the first feature vector for the personal information in a preset manner; And
And determining an emotion vector corresponding to the second feature vector using the learned emotion recognizer.
청구항 1에 있어서
상기 인식 대상 콘텐츠에 복수의 제1 유형의 개체가 포함된 경우,
상기 개체를 수집하는 단계는
상기 복수의 제1 유형의 개체를 모두 수집하고,
상기 개체의 유형 별 제1 특징 벡터를 생성하는 단계는
상기 인식 대상 콘텐츠 내에 포함된 모든 제1 유형의 개체의 특징을 반영한 제1 특징 벡터를 생성하는, 멀티모달 정보에 기초한 감정 인식 방법.
The method according to claim 1
When a plurality of first types of objects are included in the content to be recognized,
Collecting the object is
Collecting all of the plurality of first type of objects,
The step of generating a first feature vector for each type of the object is
A method of recognizing emotion based on multi-modal information, generating a first feature vector reflecting features of all first types of objects included in the content to be recognized.
청구항 1에 있어서
상기 테스트 콘텐츠는
웹 크롤링을 통하여 외부장치로부터 획득되는 콘텐츠인, 멀티모달 정보에 기초한 감정 인식 방법.
The method according to claim 1
The test content is
Emotion recognition method based on multi-modal information, content obtained from external devices through web crawling.
청구항 1에 있어서
상기 인적 사항은
상기 제1 사용자의 성별, 나이, 연령, 학력, 주거지역 및 직업 중 적어도 하나를 포함하고,
상기 콘텐츠 감상 정보는
상기 제1 사용자가 상기 인식 대상 콘텐츠를 언제 감상하였는지, 어디서 감상하였는지, 얼마 동안 감상하였는지 및 어떤 경로를 통하여 감상하였는지 중 적어도 하나를 포함하는, 멀티모달 정보에 기초한 감정 인식 방법.
The method according to claim 1
The personal information above
It includes at least one of the first user's gender, age, age, educational background, residential area and occupation,
The content viewing information
A method for recognizing emotion based on multi-modal information, wherein the first user includes at least one of when the content to be recognized was viewed, where it was viewed, how long it was viewed, and through what route.
청구항 1에 있어서
상기 개체의 유형 별 제1 특징 벡터를 생성하는 단계는
수집된 하나 이상의 비디오 유형의 개체에 대해서,
상기 비디오 유형의 개체를 이미지 유형의 개체 및 오디오 유형의 개체로 분리하는 단계;
상기 비디오 유형의 개체로부터 분리된 이미지 유형의 개체와 상기 인식 대상 콘텐츠 내의 적어도 하나의 이미지 유형의 개체에 기초하여 이미지 유형의 개체에 대한 제1 특징 벡터를 생성하는 단계; 및
상기 비디오 유형의 개체로부터 분리된 오디오 유형의 개체와 상기 인식 대상 콘텐츠 내의 적어도 하나의 오디오 유형의 개체에 기초하여 오디오 유형의 개체에 대한 제1 특징 벡터를 생성하는 단계;를 포함하는, 멀티모달 정보에 기초한 감정 인식 방법.
The method according to claim 1
The step of generating a first feature vector for each type of the object is
For objects of one or more video types collected,
Separating the video type object into an image type object and an audio type object;
Generating a first feature vector for an object of the image type based on the object of the image type separated from the object of the video type and the object of at least one image type in the content to be recognized; And
The method comprising: generating a first feature vector for an audio type object based on an audio type object separated from the video type object and at least one audio type object in the content to be recognized; Emotion recognition method based on.
KR1020190100422A 2019-08-16 2019-08-16 Emotion recognition method and computer program for excuting the method, emotion recognizer generation method and computer program for excuting the method KR102110393B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190100422A KR102110393B1 (en) 2019-08-16 2019-08-16 Emotion recognition method and computer program for excuting the method, emotion recognizer generation method and computer program for excuting the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190100422A KR102110393B1 (en) 2019-08-16 2019-08-16 Emotion recognition method and computer program for excuting the method, emotion recognizer generation method and computer program for excuting the method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020170038502A Division KR20180109227A (en) 2017-03-27 2017-03-27 Emotion recognition method and computer program for excuting the method, emotion recognizer generation method and computer program for excuting the method

Publications (2)

Publication Number Publication Date
KR20190100124A KR20190100124A (en) 2019-08-28
KR102110393B1 true KR102110393B1 (en) 2020-05-14

Family

ID=67775313

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190100422A KR102110393B1 (en) 2019-08-16 2019-08-16 Emotion recognition method and computer program for excuting the method, emotion recognizer generation method and computer program for excuting the method

Country Status (1)

Country Link
KR (1) KR102110393B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220107772A (en) 2021-01-26 2022-08-02 주식회사 플랫팜 Character emotion recognition and tagging appratus, character emotion recognition and tagging method, and character emotion recognition and tagging system including the character emotion recognition and tagging apparatus

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111723783B (en) * 2020-07-29 2023-12-08 腾讯科技(深圳)有限公司 Content identification method and related device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101271528A (en) 2008-04-11 2008-09-24 北京中星微电子有限公司 Method and device for outputting image

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007041988A (en) * 2005-08-05 2007-02-15 Sony Corp Information processing device, method and program
CN105615902A (en) * 2014-11-06 2016-06-01 北京三星通信技术研究有限公司 Emotion monitoring method and device
KR20160116586A (en) * 2015-03-30 2016-10-10 한국전자통신연구원 Method and apparatus for emotion recognition

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101271528A (en) 2008-04-11 2008-09-24 北京中星微电子有限公司 Method and device for outputting image

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220107772A (en) 2021-01-26 2022-08-02 주식회사 플랫팜 Character emotion recognition and tagging appratus, character emotion recognition and tagging method, and character emotion recognition and tagging system including the character emotion recognition and tagging apparatus

Also Published As

Publication number Publication date
KR20190100124A (en) 2019-08-28

Similar Documents

Publication Publication Date Title
WO2020232861A1 (en) Named entity recognition method, electronic device and storage medium
CN110168530B (en) Electronic device and method of operating the same
CN110737783B (en) Method and device for recommending multimedia content and computing equipment
US20170109615A1 (en) Systems and Methods for Automatically Classifying Businesses from Images
US10198635B2 (en) Systems and methods for associating an image with a business venue by using visually-relevant and business-aware semantics
US20170161393A1 (en) Terminal, server and event suggesting methods thereof
KR20180109227A (en) Emotion recognition method and computer program for excuting the method, emotion recognizer generation method and computer program for excuting the method
CN110851641B (en) Cross-modal retrieval method and device and readable storage medium
CN111626362B (en) Image processing method, device, computer equipment and storage medium
CN106462626A (en) Modeling interestingness with deep neural networks
CN113011186B (en) Named entity recognition method, named entity recognition device, named entity recognition equipment and computer readable storage medium
CN110521213B (en) Story image making method and system
CN109271542A (en) Cover determines method, apparatus, equipment and readable storage medium storing program for executing
CN112100438A (en) Label extraction method and device and computer readable storage medium
US11966829B2 (en) Convolutional artificial neural network based recognition system in which registration, search, and reproduction of image and video are divided between and performed by mobile device and server
WO2020103899A1 (en) Method for generating inforgraphic information and method for generating image database
Akputu et al. Emotion recognition using multiple kernel learning toward E-learning applications
KR102110393B1 (en) Emotion recognition method and computer program for excuting the method, emotion recognizer generation method and computer program for excuting the method
CN112131345B (en) Text quality recognition method, device, equipment and storage medium
CN111783903A (en) Text processing method, text model processing method and device and computer equipment
CN112015928A (en) Information extraction method and device of multimedia resource, electronic equipment and storage medium
CN113515669A (en) Data processing method based on artificial intelligence and related equipment
CN114661951A (en) Video processing method and device, computer equipment and storage medium
KR101752474B1 (en) Apparatus, method and computer program for providing service to share knowledge
Pandey et al. An Improved Sign Language Translation approach using KNN in Deep Learning Environment

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right