KR102110393B1 - Emotion recognition method and computer program for excuting the method, emotion recognizer generation method and computer program for excuting the method - Google Patents
Emotion recognition method and computer program for excuting the method, emotion recognizer generation method and computer program for excuting the method Download PDFInfo
- Publication number
- KR102110393B1 KR102110393B1 KR1020190100422A KR20190100422A KR102110393B1 KR 102110393 B1 KR102110393 B1 KR 102110393B1 KR 1020190100422 A KR1020190100422 A KR 1020190100422A KR 20190100422 A KR20190100422 A KR 20190100422A KR 102110393 B1 KR102110393 B1 KR 102110393B1
- Authority
- KR
- South Korea
- Prior art keywords
- type
- feature vector
- content
- emotion
- information
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- G06K9/481—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/469—Contour-based spatial representations, e.g. vector-coding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Abstract
본 발명의 일 실시예는 적어도 하나 이상의 유형의 개체를 포함하는 인식 대상 콘텐츠에 대한 제1 사용자의 감정을 인식하는 방법으로, 개체의 유형 별로 상기 적어도 하나 이상의 유형의 개체를 수집하는 단계; 상기 수집 결과에 기초하여 개체의 유형 별 제1 특징 벡터를 생성하는 단계; 상기 제1 사용자의 일반적인 인적 사항 및 상기 제1 사용자의 콘텐츠 감상 정보에 기초하여 개인정보에 대한 제1 특징 벡터를 생성하는 단계; 상기 유형 별 제1 특징 벡터 및 상기 개인정보에 대한 제1 특징 벡터를 기 설정된 방식으로 병합하여 제2 특징 벡터를 생성하는 단계; 및 복수의 학습 데이터에 기초하여 학습된 감정 인식기를 이용하여, 상기 제2 특징 벡터에 대응되는 감정 벡터를 결정하는 단계;를 포함할 수 있다.According to an embodiment of the present invention, there is provided a method of recognizing a first user's emotion for a content to be recognized that includes at least one type of object, collecting the at least one type of object for each type of object; Generating a first feature vector for each type of object based on the collection result; Generating a first feature vector for personal information based on the general personal information of the first user and the content viewing information of the first user; Generating a second feature vector by merging the first feature vector for each type and the first feature vector for the personal information in a preset manner; And determining an emotion vector corresponding to the second feature vector by using an emotion recognizer learned based on a plurality of training data.
Description
본 발명의 실시예들은 감정 인식 방법 및 프로그램과 감정 인식기 생성 방법 및 프로그램에 관한 것이다.Embodiments of the present invention relate to a method and a program for recognizing emotions and a method and a program for generating emotion recognizers.
정보통신 기술의 비약적인 발전으로 인해 이동통신 단말, 개인용 컴퓨터 등과 같은 다양한 종류의 단말들은 다양한 기능을 수행할 수 있도록 구현되고 있다.Due to the rapid development of information and communication technology, various types of terminals, such as mobile communication terminals and personal computers, are implemented to perform various functions.
특히 이러한 단말들은 단순히 정보를 수신하여 표시하는 종래의 기능에서 발전하여, 수신 받은 정보로부터 2차 정보를 생성하는 등의 다양한 기능들을 이용할 수 있도록 구현되고 있다.In particular, these terminals have been developed to use various functions such as generating secondary information from the received information by developing from the conventional function of simply receiving and displaying the information.
최근에는 이러한 단말을 통하여 정보를 제공하는 정보 제공자들이 정보 수신자의 감정상태를 파악하여 광고, 마케팅 등에 사용하고자 하는 경우가 증가하였다.Recently, information providers who provide information through these terminals have increased the number of users who want to use the advertisements, marketing, etc. by grasping the emotional state of the information recipient.
종래기술에 따르면, 콘텐츠 내에 복수의 유형의 개체가 포함되어 있는 경우 어떤 한 유형의 개체만을 기준으로 해당 콘텐츠에 대한 사용자의 감정을 추론하거나, 각각의 유형의 개체에 대한 감정을 개별적으로 추론한 뒤, 이를 통계적으로 처리하여 해당 콘텐츠에 대한 사용자의 감정을 추론하였다.According to the related art, when a plurality of types of objects are included in the content, the user's feelings for the corresponding content are inferred based on only one type of object, or the emotions for each type of object are individually inferred. , This was statistically processed to infer the user's feelings about the content.
이러한 방식은 각각의 유형의 개체가 모두 동일한 주제에 관한 것임에도 불구하고, 각 유형의 개체에 대한 개별적인 감정 인식 결과에 기초하여 해당 콘텐츠 전체에 대한 감정을 추론하므로 콘텐츠 흐름이나 맥락에 대한 이해가 결핍된 결과를 도출하는 문제점이 있었다.In this way, even though each type of object is all about the same subject, it lacks understanding of the content flow or context because it infers feelings for the entire content based on the results of individual emotion recognition for each type of object. There was a problem leading to the result.
특히 이러한 방식은 결국 각 유형의 개체에 대한 개별적인 감정 인식 결과를 통계모델에 기반하여 처리함으로써, 일부 유형의 개체로부터 다소 상이한 감정 인식 결과가 도출되었음에도 불구하고 이러한 인식 결과를 무시하여 보다 세밀한 감정 인식이 불가능한 문제점이 있었다.In particular, this method processes individual emotion recognition results for each type of individual based on a statistical model, so even though somewhat different emotion recognition results are derived from some types of individuals, more detailed emotion recognition is ignored by ignoring these recognition results. There was an impossible problem.
본 발명은 상술한 문제점을 해결하기 위한 것으로, 동일한 콘텐츠 내에 포함된 개체들을 개체의 유형별로 수집하고 수집된 각 유형의 개체의 특징정보를 보다 낮은 레벨에서 통합할 수 있는 감정 인식 방법 및 프로그램과, 감정 인식기 생성 방법 및 프로그램을 제공하고자 한다.The present invention is to solve the above-mentioned problems, and emotion recognition methods and programs that collect objects included in the same content for each type of object and integrate feature information of each type of collected objects at a lower level, It is intended to provide a method and program for generating an emotion recognizer.
또한 본 발명은 보다 낮은 레벨에서 통합된 각 유형의 개체의 특징정보에 기초하여 콘텐츠에 대한 감정 인식을 수행함으로써 콘텐츠의 흐름이나 맥락에 대한 이해가 부가된 감정인식 결과를 도출할 수 있는 감정 인식 방법 및 프로그램과, 감정 인식기 생성 방법 및 프로그램을 제공하고자 한다.In addition, the present invention performs emotion recognition on content based on feature information of each type of entity integrated at a lower level, and thus an emotion recognition method capable of deriving an emotion recognition result with an understanding of content flow or context. And a program and a method and program for generating an emotion recognizer.
나아가 보다 정확도가 향상된 감정 인식 방법 및 프로그램과, 감정 인식기 생성 방법 및 프로그램을 제공하고자 한다.Furthermore, it is intended to provide an emotion recognition method and program with improved accuracy and an emotion recognizer generation method and program.
본 발명의 일 실시예에 따른 적어도 하나 이상의 유형의 개체를 포함하는 인식 대상 콘텐츠에 대한 제1 사용자의 감정을 인식하는 방법은, 개체의 유형 별로 상기 적어도 하나 이상의 유형의 개체를 수집하는 단계; 상기 수집 결과에 기초하여 개체의 유형 별 제1 특징 벡터를 생성하는 단계; 상기 제1 사용자의 일반적인 인적 사항 및 상기 제1 사용자의 콘텐츠 감상 정보에 기초하여 개인정보에 대한 제1 특징 벡터를 생성하는 단계; 상기 유형 별 제1 특징 벡터 및 상기 개인정보에 대한 제1 특징 벡터를 기 설정된 방식으로 병합하여 제2 특징 벡터를 생성하는 단계; 및 복수의 학습 데이터에 기초하여 학습된 감정 인식기를 이용하여, 상기 제2 특징 벡터에 대응되는 감정 벡터를 결정하는 단계;를 포함할 수 있다. 이때 상기 감정 인식기는 감상자의 개인정보 및 적어도 하나 이상의 유형의 개체를 포함하는 복수의 테스트 콘텐츠 및 상기 복수의 테스트 콘텐츠에 대한 복수의 제2 사용자의 감정 벡터의 상관관계를 학습한 데이터 셋트일 수 있다.According to an embodiment of the present invention, a method of recognizing a first user's emotion for a content to be recognized including at least one type of object includes: collecting the at least one type of object for each type of object; Generating a first feature vector for each type of object based on the collection result; Generating a first feature vector for personal information based on the general personal information of the first user and the content viewing information of the first user; Generating a second feature vector by merging the first feature vector for each type and the first feature vector for the personal information in a preset manner; And determining an emotion vector corresponding to the second feature vector by using an emotion recognizer learned based on a plurality of training data. In this case, the emotion recognizer may be a data set that learns a correlation between a plurality of test contents including a personal information of a viewer and at least one or more types of objects, and a plurality of second user emotion vectors for the plurality of test contents. .
상기 인식 대상 콘텐츠에 복수의 제1 유형의 개체가 포함된 경우, 상기 개체를 수집하는 단계는 상기 복수의 제1 유형의 개체를 모두 수집하고, 상기 개체의 유형 별 제1 특징 벡터를 생성하는 단계는 상기 인식 대상 콘텐츠 내에 포함된 모든 제1 유형의 개체의 특징을 반영한 제1 특징 벡터를 생성할 수 있다.When a plurality of first types of objects are included in the content to be recognized, collecting the objects may include collecting all of the plurality of first types of objects and generating a first feature vector for each type of the objects. Can generate a first feature vector reflecting the features of all the first types of objects included in the content to be recognized.
상기 기 설정된 방식은 병합 대상이 되는 하나 이상의 제1 벡터를 직렬적으로 병합하는 방식일 수 있다.The preset method may be a method of serially merging one or more first vectors to be merged.
상기 인적 사항은 상기 제1 사용자의 성별, 나이, 연령, 학력, 주거지역 및 직업 중 적어도 하나를 포함하고, 상기 콘텐츠 감상 정보는 상기 제1 사용자가 상기 인식 대상 콘텐츠를 언제 감상하였는지, 어디서 감상하였는지, 얼마 동안 감상하였는지 및 어떤 경로를 통하여 감상하였는지 중 적어도 하나를 포함할 수 있다.The personal information includes at least one of the first user's gender, age, age, education, residential area, and occupation, and the content viewing information includes when and where the first user viewed the recognized target content. , It may include at least one of how long you have enjoyed and through which route.
상기 개체의 유형 별 제1 특징 벡터를 생성하는 단계는 수집된 하나 이상의 비디오 유형의 개체에 대해서, 상기 비디오 유형의 개체를 이미지 유형의 개체 및 오디오 유형의 개체로 분리하는 단계; 상기 비디오 유형의 개체로부터 분리된 이미지 유형의 개체와 상기 인식 대상 콘텐츠 내의 적어도 하나의 이미지 유형의 개체에 기초하여 이미지 유형의 개체에 대한 제1 특징 벡터를 생성하는 단계; 및 상기 비디오 유형의 개체로부터 분리된 오디오 유형의 개체와 상기 인식 대상 콘텐츠 내의 적어도 하나의 오디오 유형의 개체에 기초하여 오디오 유형의 개체에 대한 제1 특징 벡터를 생성하는 단계;를 포함할 수 있다.Generating a first feature vector for each type of object may include separating objects of the video type into objects of an image type and objects of an audio type, for the collected one or more video type objects; Generating a first feature vector for an object of the image type based on the object of the image type separated from the object of the video type and the object of at least one image type in the content to be recognized; And generating a first feature vector for an object of the audio type based on the object of the audio type separated from the object of the video type and the object of at least one audio type in the content to be recognized.
본 발명의 일 실시예에 따른 인식 대상 콘텐츠에 포함된 멀티모달(Multimodal) 정보에 기초하여 상기 인식 대상 콘텐츠에 대한 제1 사용자의 감정을 인식하는 방법은, 적어도 하나 이상의 유형의 개체를 포함하는 인식 대상 콘텐츠(Contents)를 수신하는 단계; 상기 인식 대상 콘텐츠에 포함된 개체의 유형 별로 제1 특징 벡터를 생성하는 단계; 상기 유형 별 제1 특징 벡터에 기초하여, 상기 인식 대상 콘텐츠의 특징 벡터인 제2 특징 벡터를 생성하는 단계; 및 상기 제2 특징 벡터 및 감정 인식기에 기초하여 상기 제1 사용자의 상기 인식 대상 콘텐츠에 대한 감정을 결정하는 단계;를 포함할 수 있다. 이 때 상기 감정 인식기는 적어도 하나 이상의 유형의 개체를 포함하는 복수의 테스트 콘텐츠 및 상기 복수의 테스트 콘텐츠에 대한 복수의 제2 사용자의 감정의 상관관계를 표현한 데이터 셋트일 수 있다.A method of recognizing a first user's emotion with respect to the recognition target content based on multimodal information included in the recognition target content according to an embodiment of the present invention includes recognition including at least one type of object Receiving target content; Generating a first feature vector for each type of object included in the content to be recognized; Generating a second feature vector, which is a feature vector of the content to be recognized, based on the first feature vector for each type; And determining emotions of the first user's content to be recognized based on the second feature vector and the emotion recognizer. In this case, the emotion recognizer may be a data set expressing a correlation between a plurality of test contents including at least one type of object and a plurality of second users' emotions on the plurality of test contents.
상기 인식 대상 콘텐츠는 텍스트(Text) 유형의 개체, 이미지(Image) 유형의 개체 및 오디오(Audio) 유형의 개체 중 적어도 하나의 유형의 개체를 적어도 하나 이상 포함할 수 있다.The recognition target content may include at least one object of at least one type of an object of a text type, an object of an image type, and an object of an audio type.
상기 제1 특징 벡터를 생성하는 단계는 상기 텍스트 유형의 개체에 대한 제1 특징 벡터, 상기 이미지 유형의 개체에 대한 제1 특징 벡터 및 상기 오디오 유형에 대한 제1 특징 벡터 중 적어도 하나를 생성할 수 있다.The generating of the first feature vector may generate at least one of a first feature vector for the text type object, a first feature vector for the image type object, and a first feature vector for the audio type. have.
상기 제2 특징 벡터를 생성하는 단계는 상기 텍스트 유형의 개체에 대한 제1 차원의 제1 특징 벡터, 상기 이미지 유형의 개체에 대한 제2 차원의 제1 특징 벡터 및 상기 오디오 유형에 대한 제3 차원의 제1 특징 벡터 중 적어도 하나 이상을 병합하여 제4 차원의 상기 제2 특징 벡터를 생성할 수 있다. 이 때 상기 제4 차원은 상기 제1 차원, 상기 제2 차원 및 상기 제3 차원 중 적어도 어느 하나 이상의 합에 기초하여 결정될 수 있다.Generating the second feature vector comprises: a first feature vector in a first dimension for the object of the text type, a first feature vector in a second dimension for the object of the image type, and a third dimension for the audio type. At least one of the first feature vectors may be merged to generate the second feature vector in a fourth dimension. In this case, the fourth dimension may be determined based on a sum of at least one of the first dimension, the second dimension, and the third dimension.
상기 감정 인식기는 상기 복수의 테스트 콘텐츠에 대한 복수의 제2 사용자의 감정의 상관관계를 표현함에 있어서 상기 복수의 제2 사용자의 개인정보를 더 고려한 데이터 셋트일 수 있다. 이 때 상기 콘텐츠를 수신하는 단계는 상기 제1 사용자의 개인정보를 더 수신하고 상기 제1 특징 벡터를 생성하는 단계는 상기 제1 사용자의 개인정보에 대한 제1 특징 벡터를 더 생성하고, 상기 제2 특징 벡터를 생성하는 단계는 상기 개인정보에 대한 제1 특징 벡터를 더 고려하여 상기 제2 특징 벡터를 생성할 수 있다.The emotion recognizer may be a data set that further considers personal information of the plurality of second users in expressing correlations of emotions of the plurality of second users with respect to the plurality of test contents. In this case, the step of receiving the content further receives the first user's personal information and the step of generating the first feature vector further generates a first feature vector for the first user's personal information, and the In the step of generating a feature vector, the second feature vector may be generated by further considering the first feature vector for the personal information.
본 발명의 일 실시예에 따른 테스트 콘텐츠에 포함된 멀티모달(Multimodal) 정보에 기초하여 사용자의 감정을 인식하는 감정 인식기를 생성하는 방법은, 적어도 하나 이상의 유형의 개체를 포함하고, 사용자의 감정 정보가 표지(labeled)된 하나 이상의 테스트 콘텐츠를 획득하는 단계; 각각의 테스트 콘텐츠에 대해서, 상기 테스트 콘텐츠에 포함된 개체의 유형 별로 제1 특징 벡터를 생성하는 단계; 각각의 테스트 콘텐츠에 대해서, 상기 유형 별 제1 특징 벡터에 기초하여, 테스트 콘텐츠의 특징 벡터인 제2 특징 벡터를 생성하는 단계; 및 상기 제2 특징 벡터 및 상기 감정 정보에 기초하여 상기 감정 인식기를 트레이닝(Training)하는 단계;를 포함할 수 있다. A method of generating an emotion recognizer that recognizes a user's emotion based on multimodal information included in test content according to an embodiment of the present invention includes at least one type of object, and the user's emotion information Obtaining one or more labeled test contents; Generating, for each test content, a first feature vector for each type of object included in the test content; Generating, for each test content, a second feature vector that is a feature vector of the test content, based on the first feature vector for each type; And training the emotion recognizer based on the second feature vector and the emotion information.
상기 감정 인식기는 적어도 하나 이상의 유형의 개체를 포함하는 복수의 테스트 콘텐츠 및 상기 복수의 테스트 콘텐츠에 대한 복수의 사용자의 감정의 상관관계를 표현한 데이터 셋트일 수 있다.The emotion recognizer may be a data set expressing a correlation between a plurality of test contents including at least one type of object and a plurality of user emotions on the plurality of test contents.
상기 테스트 콘텐츠 각각은 텍스트(Text) 유형의 개체, 이미지(Image) 유형의 개체 및 오디오(Audio) 유형의 개체 중 적어도 하나의 유형의 개체를 적어도 하나 이상 포함할 수 있다.Each of the test contents may include at least one object of at least one type of an object of a text type, an object of an image type, and an object of an audio type.
상기 제1 특징 벡터를 생성하는 단계는 상기 텍스트 유형의 개체에 대한 제1 특징 벡터, 상기 이미지 유형의 개체에 대한 제1 특징 벡터 및 상기 오디오 유형에 대한 제1 특징 벡터 중 적어도 하나를 생성할 수 있다.The generating of the first feature vector may generate at least one of a first feature vector for the text type object, a first feature vector for the image type object, and a first feature vector for the audio type. have.
상기 제2 특징 벡터를 생성하는 단계는 상기 텍스트 유형의 개체에 대한 제1 차원의 제1 특징 벡터, 상기 이미지 유형의 개체에 대한 제2 차원의 제1 특징 벡터 및 상기 오디오 유형에 대한 제3 차원의 제1 특징 벡터 중 적어도 하나 이상을 병합하여 제4 차원의 상기 제2 특징 벡터를 생성할 수 있다. 이 때 상기 제4 차원은 상기 제1 차원, 상기 제2 차원 및 상기 제3 차원 중 적어도 어느 하나 이상의 합에 기초하여 결정될 수 있다.Generating the second feature vector comprises: a first feature vector in a first dimension for the object of the text type, a first feature vector in a second dimension for the object of the image type, and a third dimension for the audio type. At least one of the first feature vectors may be merged to generate the second feature vector in a fourth dimension. In this case, the fourth dimension may be determined based on a sum of at least one of the first dimension, the second dimension, and the third dimension.
상기 감정 인식기는 상기 복수의 테스트 콘텐츠에 대한 복수의 사용자의 감정의 상관관계를 표현함에 있어서 상기 복수의 사용자의 개인정보를 더 고려한 데이터 셋트일 수 있다. 이 때 상기 테스트 콘텐츠를 획득하는 단계는 사용자의 개인정보가 더 표지된 하나 이상의 테스트 콘텐츠를 획득하고, 상기 제1 특징 벡터를 생성하는 단계는 상기 사용자의 개인정보에 대한 제1 특징 벡터를 더 생성하고, 상기 제2 특징 벡터를 생성하는 단계는 상기 개인정보에 대한 제1 특징 벡터를 더 고려하여 상기 제2 특징 벡터를 생성할 수 있다.The emotion recognizer may be a data set that further considers the personal information of the plurality of users in expressing correlations of emotions of the plurality of users with respect to the plurality of test contents. At this time, the step of acquiring the test content acquires one or more test contents in which the user's personal information is further labeled, and the step of generating the first feature vector further generates a first feature vector for the user's personal information. And, in the step of generating the second feature vector, the second feature vector may be generated by further considering the first feature vector for the personal information.
상기 감정 정보는 제3 특징 벡터를 포함하고, 상기 트레이닝 하는 단계는 상기 제2 특징 벡터와 상기 제3 특징 벡터가 대응되도록 상기 감정 인식기의 상기 데이터 셋트를 업데이트(Update)할 수 있다.The emotion information includes a third feature vector, and the training step may update the data set of the emotion recognizer so that the second feature vector and the third feature vector correspond.
전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.Other aspects, features, and advantages other than those described above will become apparent from the following drawings, claims, and detailed description of the invention.
본 발명의 실시예들에 따르면 동일한 콘텐츠 내에 포함된 개체들을 개체의 유형별로 수집하고 수집된 각 유형의 개체의 특징정보를 보다 낮은 레벨에서 통합할 수 있는 감정 인식 방법 및 프로그램과, 감정 인식기 생성 방법 및 프로그램을 구현할 수 있다.According to embodiments of the present invention, the emotion recognition method and program and the emotion recognizer generation method capable of collecting objects included in the same content for each type of object and integrating characteristic information of each type of collected object at a lower level And programs.
또한 본 발명은 보다 낮은 레벨에서 통합된 각 유형의 개체의 특징정보에 기초하여 콘텐츠에 대한 감정 인식을 수행함으로써 콘텐츠의 흐름이나 맥락에 대한 이해가 부가된 감정인식 결과를 도출할 수 있는 감정 인식 방법 및 프로그램과, 감정 인식기 생성 방법 및 프로그램을 구현할 수 있다.In addition, the present invention performs emotion recognition on content based on feature information of each type of entity integrated at a lower level, and thus an emotion recognition method capable of deriving an emotion recognition result with an understanding of content flow or context. And a program and a method and program for generating an emotion recognizer.
나아가 보다 정확도가 향상된 감정 인식 방법 및 프로그램과, 감정 인식기 생성 방법 및 프로그램을 구현할 수 있다.Furthermore, it is possible to implement emotion recognition methods and programs with improved accuracy and emotion recognizer generation methods and programs.
도 1은 본 발명의 일 실시예에 따른 감정 인식 시스템을 개략적으로 도시한다.
도 2는 본 발명의 일 실시예에 따른 감정 인식 장치의 구성을 개략적으로 도시한다.
도 3은 본 발명의 일 실시예에 따른 감정 인식 장치가 감정 인식기를 생성하는 방법을 설명하기 위한 도면이다.
도 4 내지 도 5d는 본 발명의 일 실시예에 따른 감정 인식 장치의 감정 인식기 생성 방법을 설명하기 위한 흐름도이다.
도 6은 본 발명의 일 실시예에 따른 감정 인식 장치가 감정 인식기를 이용하여 인식 대상 콘텐츠의 감정을 인식하는 방법을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른 감정 인식 장치에 의해 수행되는 감정 인식 방법을 설명하기 위한 흐름도이다.
도 8은 본 발명의 일 실시예에 따른 감정 인식 장치가 제2 특징 벡터를 생성하는 방법의 예시이다.1 schematically illustrates an emotion recognition system according to an embodiment of the present invention.
2 schematically shows a configuration of an emotion recognition device according to an embodiment of the present invention.
3 is a diagram for explaining a method of generating an emotion recognizer by an emotion recognition apparatus according to an embodiment of the present invention.
4 to 5D are flowcharts illustrating a method for generating an emotion recognizer in an emotion recognition apparatus according to an embodiment of the present invention.
6 is a view for explaining a method for recognizing the emotion of the content to be recognized by the emotion recognition apparatus using the emotion recognizer according to an embodiment of the present invention.
7 is a flowchart illustrating an emotion recognition method performed by an emotion recognition apparatus according to an embodiment of the present invention.
8 is an example of a method for generating a second feature vector by the emotion recognition apparatus according to an embodiment of the present invention.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다. The present invention can be applied to various transformations and may have various embodiments, and specific embodiments will be illustrated in the drawings and described in detail in the detailed description. Effects and features of the present invention and methods for achieving them will be clarified with reference to embodiments described below in detail with reference to the drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various forms.
이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, and the same or corresponding components will be denoted by the same reference numerals, and redundant description thereof will be omitted. .
이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. 이하의 실시예에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 이하의 실시예에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다. 도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 형태는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다. In the following examples, terms such as first and second are not used in a limited sense, but for the purpose of distinguishing one component from other components. In the following embodiments, the singular expression includes the plural expression unless the context clearly indicates otherwise. In the examples below, terms such as include or have are meant to mean the presence of features or components described in the specification, and do not preclude the possibility of adding one or more other features or components in advance. In the drawings, the size of components may be exaggerated or reduced for convenience of description. For example, since the size and shape of each component shown in the drawings are arbitrarily shown for convenience of description, the present invention is not necessarily limited to what is illustrated.
도 1은 본 발명의 일 실시예에 따른 감정 인식 시스템을 개략적으로 도시한다.1 schematically illustrates an emotion recognition system according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일 실시예에 따른 감정 인식 시스템은 서버(100), 사용자 단말(200), 외부장치(300) 및 이들을 연결하는 통신망(400)을 포함할 수 있다. Referring to FIG. 1, an emotion recognition system according to an embodiment of the present invention may include a
본 발명의 일 실시예에 따른 감정 인식 시스템은 서버(100)가 사용자 단말(200) 및/또는 외부장치(300)로부터 인식 대상 콘텐츠를 수신하고, 수신된 콘텐츠에 대한 감정을 결정할 수 있다. 또한 감정 인식 시스템은 서버(100)가 사용자 단말(200) 및/또는 외부장치(300)로부터 감정 정보가 표지된 하나 이상의 테스트 콘텐츠를 획득하고, 이에 기초하여 감정 인식기를 트레이닝 시킬 수 있다. 보다 상세한 설명은 후술한다.In the emotion recognition system according to an embodiment of the present invention, the
본 발명에서 인식 대상 콘텐츠 및 테스트 콘텐츠와 같은 '콘텐츠(Contents)'는 전자적으로 송수신 될 수 있는 정보로써, 다양한 유형의 개체를 포함할 수 있다. 콘텐츠는 텍스트(Text) 유형의 개체, 이미지(Image)유형의 개체 및 오디오(Audio) 유형의 개체 중 적어도 하나의 유형의 개체를 적어도 하나 이상 포함할 수 있다. 물론 콘텐츠는 비디오(Video) 유형의 개체도 포함할 수 있다.In the present invention, 'Contents', such as content to be recognized and test content, are information that can be transmitted and received electronically, and may include various types of objects. The content may include at least one object of at least one type of an object of the text type, an object of the image type, and an object of the audio type. Of course, the content may also include video type objects.
가령 '웹 문서'와 같은 콘텐츠는 정보를 전달하기 위한 텍스트 유형의 개체 및 정보의 이해를 돕기 위한 이미지 유형의 개체를 포함할 수 있다. 이 때 텍스트 유형의 개체 및 이미지 유형의 개체 각각은 단수일 수도 있고, 복수일 수도 있다.For example, content such as a 'web document' may include text-type objects for conveying information and image-type objects for understanding information. At this time, each of the text type object and the image type object may be singular or plural.
본 발명에서 텍스트(Text) 유형의 개체, 이미지(Image)유형의 개체, 오디오(Audio) 유형의 개체 및 비디오(Video) 유형의 개체와 같은 '개체'는 콘텐츠를 구성하는 정보의 소단위 일 수 있다.In the present invention, an 'object' such as an object of a text type, an object of an image type, an object of an audio type, and an object of a video type may be a small unit of information constituting content. .
가령 텍스트 유형의 개체의 경우 콘텐츠에 포함된 한 단락의 문단을 의미할 수 있다. 또한 이미지 유형의 개체의 경우 콘텐츠에 포함된 한 장의 이미지를 의미할 수 있다. 오디오 유형의 개체 및 비디오 유형의 개체의 경우 한 개의 오디오(비디오) 클립(Clip), 오디오(비디오) 트랙(Track) 등을 의미할 수 있다.For example, in the case of a text type object, it may mean a paragraph of a paragraph included in the content. Also, in the case of an image type object, it may mean a single image included in content. For the audio type object and the video type object, it may mean one audio (video) clip, an audio (video) track, and the like.
본 발명에서 사용자 단말(200)은 전술한 콘텐츠를 서버(100)와 송수신 할 수 있는 다양한 장치를 의미할 수 있다. 이 때 단말은 퍼스널 컴퓨터(202)일 수도 있고 또는 휴대용 단말(201)일 수도 있다. 도 1에서는 휴대용 단말(201)이 스마트폰(smart phone)으로 도시되었지만, 본 발명의 사상은 이에 제한되지 않는다.In the present invention, the
한편 사용자 단말(200)은 콘텐츠를 표시하기 위한 표시수단, 이러한 콘텐츠에 대한 사용자의 입력을 획득하기 위한 입력수단을 구비할 수 있다. 이 때 입력수단 및 표시수단은 다양하게 구성될 수 있다. 가령 입력수단은 키보드, 마우스, 트랙볼, 마이크, 버튼, 터치패널 등을 포함할 수 있으나 이에 한정되지 않는다. Meanwhile, the
본 발명에서 외부장치(300)는 서버(100) 및 사용자 단말(200)과 통신망(400)을 통하여 데이터를 송수신 하는 다양한 장치를 의미할 수 있다.In the present invention, the
본 발명의 일 실시예에 따르면, 외부장치(300)는 서버(100)에 구비되는 감정 인식기를 트레이닝 하기 위한 테스트 콘텐츠를 제공하는 장치일 수 있다. 이 때 외부장치(300)는 단수일 수도 있고, 복수일 수도 있다. 가령 외부장치(300)는 서버(100)의 웹 크롤링(Web Crawling)에 대응하여 콘텐츠를 제공하는 복수의 서버일 수 있다.According to an embodiment of the present invention, the
한편 본 발명의 다른 실시예에 따르면, 외부장치(300)는 외부장치(300) 자신이 사용자 단말(200)에 제공한 콘텐츠에 대한 식별정보를 서버(100)에 전송하고, 서버(100)로부터 해당 콘텐츠에 대한 감정 인식 결과를 수신하는 장치일 수도 있다. 가령 외부장치(300)는 자신이 제공하고 있는 콘텐츠에 대한 사용자의 감정을 알고자 하는 서비스 제공 업체의 서버일 수 있다. On the other hand, according to another embodiment of the present invention, the
다만 전술한 두 가지 경우는 모두 예시적인 것으로, 본 발명의 사상이 이에 한정되는 것은 아니다.However, the above-mentioned two cases are both exemplary, and the spirit of the present invention is not limited thereto.
본 발명에서 통신망(400)은 서버(100), 사용자 단말(200) 및 외부장치(300)를 연결하는 역할을 수행한다. 예를 들어, 통신망(400)은 사용자 단말(200)이 서버(100)에 접속한 후 패킷 데이터를 송수신할 수 있도록 접속 경로를 제공한다. 통신망(400)은 예컨대 LANs(Local Area Networks), WANs(Wide Area Networks), MANs(Metropolitan Area Networks), ISDNs(Integrated Service Digital Networks) 등의 유선 네트워크나, 무선 LANs, CDMA, 블루투스, 위성 통신 등의 무선 네트워크를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.In the present invention, the
본 발명에서 서버(100)는 사용자 단말(200) 및/또는 외부장치(300)로부터 인식 대상 콘텐츠를 수신하고, 수신된 콘텐츠에 대한 감정을 결정할 수 있다. 또한 서버(100)는 사용자 단말(200) 및/또는 외부장치(300)로부터 감정 정보가 표지된 하나 이상의 테스트 콘텐츠를 획득하고, 이에 기초하여 감정 인식기를 트레이닝 시킬 수 있다. 이를 위하여 서버(100)는 본 발명의 일 실시예에 따른 감정 인식 장치를 포함할 수 있다.In the present invention, the
도 2는 본 발명의 일 실시예에 따른 감정 인식 장치(110)의 구성을 개략적으로 도시한다.2 schematically shows the configuration of the
도 2를 참조하면, 본 실시예에 따른 감정 인식 장치(110)는 통신부(111), 제어부(112) 및 메모리(113)를 포함할 수 있다. 또한 도면에는 도시되지 않았으나, 본 실시예에 따른 감정 인식 장치(110)는 입/출력부, 프로그램 저장부 등을 더 포함할 수 있다. Referring to FIG. 2, the
통신부(111)는 감정 인식 장치(110)가 사용자 단말(200) 및/또는 외부장치(300)와 같은 다른 네트워크 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있다. The
제어부(112)는 프로세서(processor)와 같이 데이터를 처리할 수 있는 모든 종류의 장치를 포함할 수 있다. 여기서, '프로세서(processor)'는, 예를 들어 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 이와 같이 하드웨어에 내장된 데이터 처리 장치의 일 예로써, 마이크로프로세서(Microprocessor), 중앙처리장치(Central Processing Unit: CPU), 프로세서 코어(Processor Core), 멀티프로세서(Multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array) 등의 처리 장치를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.The
메모리(113)는 감정 인식 장치(110)가 처리하는 데이터를 일시적 또는 영구적으로 저장하는 기능을 수행한다. 메모리는 자기 저장 매체(Magnetic Storage Media) 또는 플래시 저장 매체(Flash Storage Media)를 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다. The
이하에서는 감정 인식 장치(110)가 서버(100)에 구비되는 것을 전제로 설명하지만, 역할배분에 따라 감정 인식 장치(110)는 서버(100)와 별도로 구비될 수도 있다.Hereinafter, it is assumed that the
한편 전술한 바와 같이 서버(100), 즉 감정 인식 장치(110)는 사용자 단말(200) 및/또는 외부장치(300)로부터 인식 대상 콘텐츠를 수신하고, 수신된 콘텐츠에 대한 감정을 결정할 수 있다. 또한 감정 인식 장치(110)는 사용자 단말(200) 및/또는 외부장치(300)로부터 감정 정보가 표지된 하나 이상의 테스트 콘텐츠를 획득하고, 이에 기초하여 감정 인식기를 생성할 수 있다. On the other hand, as described above, the
이하에서는 감정 인식 장치(110)가 하나 이상의 테스트 콘텐츠로부터 감정 인식기를 생성하는 방법에 대해 먼저 설명하고, 생성된 감정 인식기에 기초하여 수신된 콘텐츠에 대한 감정을 결정하는 방법을 나중에 설명한다.Hereinafter, a method of generating the emotion recognizer from the one or more test contents by the
< 감정 인식 장치(110)의 감정 인식기 생성 방법 ><Emotion recognition device generating method of the
본 발명에서 '감정 인식기'는 복수의 테스트 콘텐츠 및 이와 같은 복수의 테스트 콘텐츠에 대한 복수의 사용자의 감정의 상관관계를 표현한 데이터 셋트일 수 있다. In the present invention, the 'emotional recognizer' may be a data set expressing a correlation between a plurality of test contents and a plurality of users' emotions on the plurality of test contents.
본 발명의 일 실시예에 따르면 전술한 감정 인식기는 머신 러닝(Machine Learning) 기법으로 생성된 복수의 테스트 콘텐츠와 해당 콘텐츠에 대한 감정의 상관관계, 즉 양자의 매핑 정보일 수 있다. 이에 따라 감정 인식기는 복수의 테스트 콘텐츠 및/또는 개체를 분류하기 위해 Logistic regression, Decision tree, Nearest-neighbor classifier, Kernel discriminate analysis, Neural network, Support Vector Machine, Random forest, Boosted tree 등의 알고리즘 및/또는 방식(기법)을 사용할 수 있다.According to an embodiment of the present invention, the above-described emotion recognizer may be a correlation between a plurality of test contents generated by a machine learning technique and emotions on the corresponding contents, that is, mapping information of both. Accordingly, the emotion recognizer uses algorithms and / or algorithms such as Logistic regression, Decision tree, Nearest-neighbor classifier, Kernel discriminate analysis, Neural network, Support Vector Machine, Random forest, Boosted tree to classify multiple test contents and / or objects. Method (technique) can be used.
감정 인식기는 어떤 콘텐츠에 대한 사용자의 감정을 예측하기 위해 Linear regression, Regression tree, Kernel regression, Support vector regression, Deep Learning 등의 알고리즘 및/또는 방식(기법)을 사용할 수 있다.The emotion recognizer may use algorithms and / or methods (techniques) such as linear regression, regression tree, kernel regression, support vector regression, and deep learning to predict a user's emotion for a certain content.
또한 감정 인식기는 후술하는 벡터의 연산을 위해 Principal component analysis, Non-negative matrix factorization, Independent component analysis, Manifold learning, SVD 등의 알고리즘 및/또는 방식(기법)을 사용할 수 있다.In addition, the emotion recognizer may use algorithms and / or methods (techniques) such as Principal component analysis, Non-negative matrix factorization, Independent component analysis, Manifold learning, SVD, etc. for the calculation of vectors described later.
감정 인식기는 복수의 테스트 콘텐츠 및/또는 개체의 그룹화를 위해 k-means, Hierarchical clustering, mean-shift, self-organizing maps(SOMs) 등의 알고리즘 및/또는 방식(기법)을 사용할 수 있다. The emotion recognizer may use algorithms and / or methods (techniques) such as k-means, hierarchical clustering, mean-shift, and self-organizing maps (SOMs) for grouping a plurality of test contents and / or objects.
감정 인식기는 데이터 비교를 위해 Bipartite cross-matching, n-point correlation two-sample testing, minimum spanning tree 등의 알고리즘 및/또는 방식(기법)을 사용할 수 있다. The emotion recognizer may use algorithms and / or methods (techniques) such as bipartite cross-matching, n-point correlation two-sample testing, and minimum spanning tree for data comparison.
다만 전술한 알고리즘 및/또는 방식(기법)은 예시적인 것으로 본 발명의 사상이 이에 한정되는 것은 아니다.However, the above-described algorithms and / or methods (techniques) are exemplary and the spirit of the present invention is not limited thereto.
한편 감정 인식기는 전술한 바와 같이 데이터 셋트(Data set)일 수 있다. 가령 감정 인식기는 행렬(Matrix)과 같이 복수개의 숫자로 구성된 데이터 셋트일 수 있다. 다만 이는 예시적인 것으로 본 발명의 사상이 이에 한정되는 것은 아니다.Meanwhile, the emotion recognizer may be a data set as described above. For example, the emotion recognizer may be a data set composed of a plurality of numbers, such as a matrix. However, this is exemplary and the spirit of the present invention is not limited thereto.
도 3은 본 발명의 일 실시예에 따른 감정 인식 장치(110)가 감정 인식기를 생성하는 방법을 설명하기 위한 도면이다. 3 is a diagram for explaining a method of generating an emotion recognizer by the
도 3을 참조하면, 본 발명의 일 실시예에 따른 감정 인식 장치(110)의 제어부(112)는 인식기의 생성을 위해 적어도 하나 이상의 유형의 개체를 포함하고, 사용자의 감정 정보가 표지(labeled)된 하나 이상의 테스트 콘텐츠(310)를 획득할 수 있다. 이 때 제어부(112)는 테스트 콘텐츠(310)를 전술한 바와 같이 웹 크롤링을 통하여 외부장치(300)로부터 획득할 수도 있고, 감정 인식 장치(110)의 메모리(113)로부터 획득할 수도 있다. 바꾸어 말하면 제어부(112)는 테스트 콘텐츠(310)를 감정 인식 장치(110)의 외부 및/또는 감정 인식 장치(110)의 내부로부터 획득할 수 있다. 다만 이는 예시적인 것으로 본 발명의 사상이 이에 한정되는 것은 아니다.Referring to FIG. 3, the
본 발명에서 '콘텐츠에 감정 정보가 표지된'것은, 해당 콘텐츠에 대한 사용자의 감정이 해당 콘텐츠의 부가정보로써 부가된 것을 의미할 수 있다. 바꾸어 말하면, 감정 정보가 표지된 것은 해당 콘텐츠의 내용과는 별개로, 해당 콘텐츠에 대한 감상자의 감정 정보가 더 추가된 것을 의미할 수 있다. 이 때 테스트 콘텐츠에는 '기쁨', '슬픔'과 같은 감정 그 자체에 관한 정보가 벡터의 형태로 표지되어 있을 수 있다. 또한 테스트 콘텐츠에는 "내용이 진짜 재미있어요."와 같이 감정을 추론할 수 있는 정보가 표지되어 있을 수도 있다. 후자의 경우 제어부(112)는 표지된 정보를 분석하여 이로부터 감정 그 자체에 관한 정보를 벡터의 형태로 추론할 수 있다.In the present invention, 'the emotion information is marked on the content' may mean that the user's emotion for the content is added as additional information of the content. In other words, the fact that the emotion information is labeled may mean that the emotion information of the viewer for the content is further added separately from the content of the content. At this time, the test content may include information about emotion itself, such as 'joy' and 'sadness', in the form of a vector. Also, the test content may be labeled with information to infer emotions, such as "The content is really fun." In the latter case, the
한편 테스트 콘텐츠에는 전술한 감정 정보와 더불어, 해당 감정을 느낀 사용자의 개인정보가 더 부가되어 있을 수 있다. 이 때 개인정보는 성별, 나이, 연령, 학력, 주거지역 및 직업 등과 같은 일반적인 인적 사항과 해당 콘텐츠를 언제 감상하였는지, 어디서 감상하였는지, 얼마 동안 감상하였는지 또는 어떤 경로를 통하여 감상하였는지와 같은 콘텐츠 관련 사항을 포함할 수 있다. 다만 이는 예시적인 것으로 본 발명의 사상이 이에 한정되는 것은 아니다.Meanwhile, in addition to the above-described emotion information, personal information of a user who has felt the emotion may be added to the test content. At this time, personal information includes general personal matters such as gender, age, age, educational background, residential area and occupation, and content-related matters such as when the content was viewed, where it was viewed, how long it was viewed, or through which channel. It may include. However, this is exemplary and the spirit of the present invention is not limited thereto.
본 발명의 일 실시예에 따른 제어부(112)는 전술한 과정에 의해 획득한 각각의 테스트 콘텐츠에 대해서, 테스트 콘텐츠에 포함된 개체의 유형 별로 제1 특징 벡터를 생성할 수 있다. 이 때 '유형 별로 제1 특징 벡터를 생성'하는 것은, 어느 하나의 테스트 콘텐츠 내에서 동일한 유형의 개체를 모두 수집하고, 이에 기초하여 제1 특징 벡터를 생성하는 것을 의미할 수 있다. The
가령 테스트 콘텐츠(311)가 텍스트 유형의 개체(321), 이미지 유형의 개체(322) 및 오디오 유형의 개체(323)를 포함한다고 가정해 보자. 이러한 경우 제어부(112)는 텍스트 유형의 개체(321)로부터 제1 특징 벡터(331)를, 이미지 유형의 개체(322)로부터 제1 특징 벡터(332)를, 오디오 유형의 개체(323)로부터 제1 특징 벡터(333)를 생성할 수 있다.For example, suppose that the
제어부(112)가 텍스트 유형의 개체(321)로부터 제1 특징 벡터(331)를 생성하는 과정을 보다 상세히 살펴보면, 먼저 제어부(112)는 콘텐츠(311) 내의 전부 또는 일부의 텍스트 유형의 개체(321)를 수집할 수 있다. 이어서 제어부(112)는 구문 분석을 통하여 텍스트 유형의 개체(321)의 특징을 추출할 수 있다. 가령 제어부(112)는 구문 분석을 통하여 텍스트 유형의 개체(321) 내의 감정과 관련되는 키워드(Keyword)를 특징으로 추출할 수 있다. 이어서 제어부(112)는 추출된 키워드에 기초하여 제1 특징 벡터(331)를 생성할 수 있다. 이 때 제어부(112)는 소정의 단위(가령 단락)별로 텍스트 유형의 개체(321)의 키워드를 추출하고, 이에 기초하여 제1 특징 벡터(331)를 생성할 수도 있고, 테스트 콘텐츠(311) 내의 텍스트 유형의 개체(321) 전체로부터 키워드를 추출하고, 이에 기초하여 제1 특징 벡터(331)를 생성할 수도 있다.Looking at the process of generating the
제어부(112)가 이미지 유형의 개체(322)로부터 제1 특징 벡터(332)를 생성하는 과정을 보다 상세히 살펴보면, 먼저 제어부(112)는 테스트 콘텐츠(311) 내의 전부 또는 일부의 이미지 유형의 개체(322)를 수집할 수 있다. 이어서 제어부(112)는 이미지 분석을 통하여 이미지 유형의 개체(322)의 특징을 추출할 수 있다. 가령 제어부(112)는 특징점 추출 기법 및/또는 객체 인식 기법을 통하여 이미지 유형의 개체(322) 내의 감정과 관련되는 특징을 추출할 수 있다. 이어서 제어부(112)는 추출된 특징에 기초하여 제1 특징 벡터(332)를 생성할 수 있다. 이 때 제어부(112)는 이미지 별로 특징을 추출하고, 이에 기초하여 제1 특징 벡터(332)를 생성할 수도 있고, 모든 이미지로부터 특징을 추출하고, 이에 기초하여 제1 특징 벡터(332)를 생성할 수도 있다.Looking at the process of generating the
제어부(112)가 오디오 유형의 개체(323)로부터 제1 특징 벡터(333)를 생성하는 과정을 보다 상세히 살펴보면, 먼저 제어부(112)는 콘텐츠(311) 내의 전부 또는 일부의 오디오 유형의 개체(323)를 수집할 수 있다. 이어서 제어부(112)는 오디오 분석을 통하여 오디오 유형의 개체(323)의 특징을 추출할 수 있다. 가령 제어부(112)는 특징음 추출 기법 및/또는 음성 인식 기법을 통하여 오디오 유형의 개체(323) 내의 감정과 관련되는 특징을 추출할 수 있다. 이어서 제어부(112)는 추출된 특징에 기초하여 제1 특징 벡터(333)를 생성할 수 있다.If the
각 유형의 개체로부터 생성된 제1 특징 벡터(331 내지 333)는 그 차원이 모두 상이할 수 있다. 가령 텍스트 유형의 개체(321)로부터 생성된 제1 특징 벡터(331)는 제1 차원이고, 이미지 유형의 개체(322)로부터 생성된 제1 특징 벡터(332)는 제2 차원이고, 오디오 유형의 개체(323)로부터 생성된 제1 특징 벡터(333)는 제3 차원일 수 있다. 물론 각 제1 특징 벡터(331 내지 333)중 적어도 일부는 차원이 동일할 수도 있다. 다만 이는 예시적인 것으로 본 발명의 사상이 이에 한정되는 것은 아니다.The
한편 본 발명의 일 실시예에 따른 제어부(112)는 테스트 콘텐츠(311)에 비디오 유형의 개체(미도시)가 포함된 경우, 비디오 유형의 개체를 이미지 유형의 개체 및 오디오 유형의 개체로 분리하고, 분리된 각각의 개체에 대한 제1 특징 벡터 생성 방법에 따라 제1 특징 벡터를 생성할 수 있다. 바꾸어 말하면 제어부(112)는 비디오 유형의 개체로부터 분리된 이미지 유형의 개체에 대해, 이미지 유형의 개체에 대한 제1 특징 벡터 생성 방식에 따라 제1 특징 벡터를 생성하고, 비디오 유형의 개체로부터 분리된 오디오 유형의 개체에 대해, 오디오 유형의 개체에 대한 제1 특징 벡터 생성 방식에 따라 제1 특징 벡터를 생성할 수 있다. 다만 이와 같은 비디오 유형의 개체는 두 개 이상의 이종 유형의 개체가 결합된 것의 예시로, 본 발명의 사상이 이에 한정되는 것은 아니다. Meanwhile, when the
본 발명의 일 실시예에 따른 제어부(112)는 테스트 콘텐츠(311)에 개인정보(313)가 더 표지된 경우, 개인정보에 대한 제1 특징 벡터(334)를 더 생성할 수 있다. 이 때 제어부(112)는 전술한 바와 같이 성별, 나이, 연령, 학력, 주거지역 및 직업 등과 같은 일반적인 인적 사항과 해당 콘텐츠를 언제 감상하였는지, 어디서 감상하였는지 또는 어떤 경로를 통하여 감상하였는지와 같은 콘텐츠 관련 사항을 모두 고려하여 제1 특징 벡터(334)를 생성할 수 있다. If the
본 발명의 일 실시예에 따른 제어부(112)는 생성된 개체의 유형 별 제1 특징 벡터(331 내지 333)에 기초하여 테스트 콘텐츠의 특징 벡터인 제2 특징 벡터(341)를 생성할 수 있다. 이 때 제2 특징 벡터(341)는 테스트 콘텐츠(311) 내에 포함되는 모든 개체의 특성을 고려한 벡터로 써의 의미를 가질 수 있다.The
종래기술에 따르면, 콘텐츠 내에 복수의 유형의 개체가 포함되어 있는 경우 텍스트 유형의 개체만을 기준으로 해당 콘텐츠에 대한 사용자의 감정을 추론하거나, 각각의 유형의 개체에 대한 감정을 개별적으로 추론한 뒤, 이를 통계적으로 처리하여 해당 콘텐츠에 대한 사용자의 감정을 추론하였다.According to the prior art, when a plurality of types of objects are included in the content, the user's feelings for the corresponding content are inferred on the basis of only text-type objects, or after the emotions for each type of object are individually inferred, This was statistically processed to infer the user's feelings about the content.
이러한 방식은 각각의 유형의 개체가 모두 동일한 주제에 관한 것임에도 불구하고, 각 유형의 개체에 대한 개별적인 감정 인식 결과에 기초하여 해당 콘텐츠 전체에 대한 감정을 추론하므로 콘텐츠 흐름이나 맥락에 대한 이해가 결핍된 결과를 도출하는 문제점이 있었다.In this way, even though each type of object is all about the same subject, it lacks understanding of the content flow or context because it infers feelings for the entire content based on the results of individual emotion recognition for each type of object. There was a problem leading to the result.
특히 이러한 방식은 결국 각 유형의 개체에 대한 개별적인 감정 인식 결과를 통계모델에 기반하여 처리함으로써, 일부 유형의 개체로부터 다소 상이한 감정 인식 결과가 도출되었음에도 불구하고 이러한 인식 결과를 무시하여 보다 세밀한 감정 인식이 불가능한 문제점이 있었다.In particular, this method processes individual emotion recognition results for each type of individual based on a statistical model, so even though somewhat different emotion recognition results are derived from some types of individuals, more detailed emotion recognition is ignored by ignoring these recognition results. There was an impossible problem.
본원 발명은 각 유형의 개체의 특징정보를 보다 낮은 레벨에서 통합하고, 이에 기초하여 콘텐츠에 대한 감정 인식을 수행함으로써 콘텐츠의 흐름이나 맥락에 대한 이해가 부가된 감정인식 결과를 도출할 수 있고, 보다 세밀한 감정 인식 결과를 도출할 수 있다.The present invention can derive the emotion recognition result by adding the understanding of the flow or context of the content by integrating the feature information of each type of individual at a lower level and performing emotion recognition on the content based on this. Can produce detailed emotion recognition results.
한편 본 발명의 일 실시예에 따른 제어부(112)는 텍스트 유형의 개체(321)로부터 생성된 제1 특징 벡터(331), 이미지 유형의 개체(322)로부터 생성된 제1 특징 벡터(332), 오디오 유형의 개체(323)로부터 생성된 제1 특징 벡터(333) 및 개인개인정보로부터 생성된 제1 특징 벡터(334)를 병합하여 제2 특징 벡터(341)를 생성할 수 있다. 이 때 제어부(112)는 다양한 방식에 따라 제1 특징 벡터(331 내지 334)로부터 제2 특징 벡터(341)를 생성할 수 있다.Meanwhile, the
가령 제어부(112)는 도 8에 도시된 방식과 유사한 방식으로, 각각의 제1 특징 벡터(331 내지 334)를 직렬적으로 병합하여 제2 특징 벡터(341)를 생성할 수 있다. 이 때 제2 특징 벡터(341)의 차원의 수는 각각의 제1 특징 벡터(331 내지 334)의 차원 수의 합에 기초하여 결정될 수 있다.For example, the
한편 제어부(112)는 전술한 방식과 달리, 제1 특징 벡터(331 내지 334)들의 차원 변환 연산 및/또는 벡터 연산에 의해 고정된 자리수의 제2 특징 벡터(341)를 생성할 수도 있다. On the other hand, unlike the above-described method, the
다만 이는 예시적인 것으로 본 발명의 사상이 이에 한정되는 것은 아니며, 복수의 제1 특징 벡터에 기초하여 하나의 제2 특징 벡터를 생성하는 연산이면 제한 없이 사용될 수 있다.However, this is exemplary and the spirit of the present invention is not limited thereto, and any operation that generates one second feature vector based on a plurality of first feature vectors may be used without limitation.
본 발명의 일 실시예에 따른 제어부(112)는 테스트 콘텐츠에 일부 유형의 개체가 포함되어 있지 않은 경우, 포함되어 있지 않은 유형의 개체의 제1 특징 벡터는 기 설정된 방법에 따라 생성할 수 있다. The
가령, 제어부(112)는 테스트 콘텐츠에 텍스트 유형의 개체(321)가 포함되어 있지 않은 경우, 포함되어 있지 않은 유형의 개체에 대한 제1 특징 벡터(331)를 영백터(Zero Vector)로 생성할 수 있다. For example, when the test content does not include the
바꾸어 말하면 제어부(112)는 제2 특징 벡터를 생성할 때 특정 유형의 개체가 테스트 콘텐츠에 포함되어 있지 않은 경우, 해당 유형의 개체에 대한 제1 특징 벡터를 기 설정된 벡터로 대체할 수 있다. 이 때 기 설정된 벡터는 전술한 바와 같이 '0'으로 채워진 벡터일 수 있다. 다만 이는 예시적인 것으로 본 발명의 사상이 이에 한정되는 것은 아니다.In other words, when the second feature vector is generated, when the specific type of object is not included in the test content, the
본 발명의 일 실시예에 따른 제어부(112)는 생성된 제2 특징 벡터(341) 및 테스트 콘텐츠(311)에 부가된 감정 정보(312)에 기초하여 감정 인식기(351)를 트레이닝(Training)시킬 수 있다. 이 때 감정 정보(312)는 감정에 대한 정보를 벡터의 형태로 포함할 수 있다. 따라서 이하에서는 전술한 감정 정보(312)가 제3 특징 벡터를 포함하는 것을 전제로 설명한다.The
전술한 바와 같이 감정 인식기(351)는 머신 러닝(Machine Learning) 기법으로 생성된 복수의 테스트 콘텐츠(310)와 해당 콘텐츠에 대한 감정의 상관관계, 즉 양자의 매핑 정보일 수 있다. As described above, the
따라서 본 발명의 일 실시예에 따른 제어부(112)는 전술한 과정에 의해 생성된 제2 특징 벡터(341)와 감정 정보(312)를 포함하는 제3 특징 벡터를 서로 대응(매핑)시킬 수 있도록 감정 인식기(351)의 데이터 셋트를 업데이트(Update)하는 방식으로 인식기(351)를 트레이닝(Training)시킬 수 있다. Therefore, the
가령 감정 인식기(351)의 데이터 셋트가 복수개의 계수(Weight)로 구성되는 경우, 제어부(112)는 각 테스트 콘텐츠의 제2 특징 벡터(341) 및 제3 특징 벡터에 기초하여 감정 인식기(351)를 구성하는 계수들을 조절할 수 있다. 이 때 제어부(112)는 복수의 테스트 콘텐츠로부터 제2 특징 벡터(341) 및 제3 특징 벡터를 생성 및/또는 획득하고 이에 기초하여 계수를 업데이트 함으로써 보다 정확도가 향상된 감정 인식 결과를 제공하는 감정 인식기(351)를 획득할 수 있다.For example, when the data set of the
이로써 본원 발명은 각 유형의 개체의 특징정보를 보다 낮은 레벨에서 통합하고, 이에 기초하여 콘텐츠에 대한 감정 인식을 수행함으로써 콘텐츠의 흐름이나 맥락에 대한 이해가 부가된 감정인식 결과를 도출할 수 있고, 보다 세밀한 감정 인식 결과를 도출할 수 있는 감정 인식기(351)를 생성할 수 있다.Accordingly, the present invention can derive the emotion recognition result by adding the understanding of the flow or context of the content by integrating the feature information of each type of entity at a lower level and performing emotion recognition on the content based on this, An
도 4 내지 도 5d는 본 발명의 일 실시예에 따른 감정 인식 장치(110)의 감정 인식기 생성 방법을 설명하기 위한 흐름도이다. 이하에서는 도 4 및 도 5d을 함께 참조하여 본 발명의 일 실시예를 설명한다.4 to 5D are flowcharts illustrating a method for generating an emotion recognizer of the
도 3을 참조하면, 본 발명의 일 실시예에 따른 감정 인식 장치(110)의 제어부(112)는 인식기의 생성을 위해 적어도 하나 이상의 유형의 개체를 포함하고, 사용자의 감정 정보가 표지(labeled)된 하나 이상의 테스트 콘텐츠(310)를 획득할 수 있다.(S41) 이 때 제어부(112)는 테스트 콘텐츠(310)를 전술한 바와 같이 웹 크롤링을 통하여 외부장치(300)로부터 획득할 수도 있고, 감정 인식 장치(110)의 메모리(113)로부터 획득할 수도 있다. 바꾸어 말하면 제어부(112)는 테스트 콘텐츠(310)를 감정 인식 장치(110)의 외부 및/또는 감정 인식 장치(110)의 내부로부터 획득할 수 있다. 다만 이는 예시적인 것으로 본 발명의 사상이 이에 한정되는 것은 아니다.Referring to FIG. 3, the
한편 테스트 콘텐츠에는 전술한 감정 정보와 더불어, 해당 감정을 느낀 사용자의 개인정보가 더 부가되어 있을 수 있다. 이 때 개인정보는 성별, 나이, 연령, 학력, 주거지역 및 직업 등과 같은 일반적인 인적 사항과 해당 콘텐츠를 언제 감상하였는지, 어디서 감상하였는지, 얼마 동안 감상하였는지 또는 어떤 경로를 통하여 감상하였는지와 같은 콘텐츠 관련 사항을 포함할 수 있다. 다만 이는 예시적인 것으로 본 발명의 사상이 이에 한정되는 것은 아니다.Meanwhile, in addition to the above-described emotion information, personal information of a user who has felt the emotion may be added to the test content. At this time, personal information includes general personal matters such as gender, age, age, educational background, residential area and occupation, and content-related matters such as when the content was viewed, where it was viewed, how long it was viewed, or through which channel It may include. However, this is exemplary and the spirit of the present invention is not limited thereto.
본 발명의 일 실시예에 따른 제어부(112)는 전술한 과정에 의해 획득한 각각의 테스트 콘텐츠에 대해서, 테스트 콘텐츠에 포함된 개체의 유형 별로 제1 특징 벡터를 생성할 수 있다.(S42) 이 때 '유형 별로 제1 특징 벡터를 생성'하는 것은, 어느 하나의 테스트 콘텐츠 내에서 동일한 유형의 개체를 모두 수집하고, 이에 기초하여 제1 특징 벡터를 생성하는 것을 의미할 수 있다. The
가령 테스트 콘텐츠(311)가 텍스트 유형의 개체(321), 이미지 유형의 개체(322) 및 오디오 유형의 개체(323)를 포함한다고 가정해 보자. 이러한 경우 제어부(112)는 텍스트 유형의 개체(321)로부터 제1 특징 벡터(331)를, 이미지 유형의 개체(322)로부터 제1 특징 벡터(332)를, 오디오 유형의 개체(323)로부터 제1 특징 벡터(333)를 생성할 수 있다.For example, suppose that the
도 5a를 참조하여, 제어부(112)가 텍스트 유형의 개체(321)로부터 제1 특징 벡터(331)를 생성하는 과정을 보다 상세히 살펴보면, 먼저 제어부(112)는 콘텐츠(311) 내의 전부 또는 일부의 텍스트 유형의 개체(321)를 수집할 수 있다.(S421a) 이어서 제어부(112)는 구문 분석을 통하여 텍스트 유형의 개체(321)의 특징을 추출할 수 있다.(S422a) 가령 제어부(112)는 구문 분석을 통하여 텍스트 유형의 개체(321) 내의 감정과 관련되는 키워드(Keyword)를 특징으로 추출할 수 있다. 이어서 제어부(112)는 추출된 키워드에 기초하여 제1 특징 벡터(331)를 생성할 수 있다.(S423a) 이 때 제어부(112)는 소정의 단위(가령 단락)별로 텍스트 유형의 개체(321)의 키워드를 추출하고, 이에 기초하여 제1 특징 벡터(331)를 생성할 수도 있고, 테스트 콘텐츠(311) 내의 텍스트 유형의 개체(321) 전체로부터 키워드를 추출하고, 이에 기초하여 제1 특징 벡터(331)를 생성할 수도 있다.Referring to FIG. 5A, when the
도 5b를 참조하여 제어부(112)가 이미지 유형의 개체(322)로부터 제1 특징 벡터(332)를 생성하는 과정을 보다 상세히 살펴보면, 먼저 제어부(112)는 테스트 콘텐츠(311) 내의 전부 또는 일부의 이미지 유형의 개체(322)를 수집할 수 있다. (S421b) 이어서 제어부(112)는 이미지 분석을 통하여 이미지 유형의 개체(322)의 특징을 추출할 수 있다.(S422b) 가령 제어부(112)는 특징점 추출 기법 및/또는 객체 인식 기법을 통하여 이미지 유형의 개체(322) 내의 감정과 관련되는 특징을 추출할 수 있다. 이어서 제어부(112)는 추출된 특징에 기초하여 제1 특징 벡터(332)를 생성할 수 있다.(S423b) 이 때 제어부(112)는 이미지 별로 특징을 추출하고, 이에 기초하여 제1 특징 벡터(332)를 생성할 수도 있고, 모든 이미지로부터 특징을 추출하고, 이에 기초하여 제1 특징 벡터(332)를 생성할 수도 있다.Referring to FIG. 5B, when the
도 5c를 참조하여 제어부(112)가 오디오 유형의 개체(323)로부터 제1 특징 벡터(333)를 생성하는 과정을 보다 상세히 살펴보면, 먼저 제어부(112)는 콘텐츠(311) 내의 전부 또는 일부의 오디오 유형의 개체(323)를 수집할 수 있다.(S421c) 이어서 제어부(112)는 오디오 분석을 통하여 오디오 유형의 개체(323)의 특징을 추출할 수 있다.(S422c) 가령 제어부(112)는 특징음 추출 기법 및/또는 음성 인식 기법을 통하여 오디오 유형의 개체(323) 내의 감정과 관련되는 특징을 추출할 수 있다. 이어서 제어부(112)는 추출된 특징에 기초하여 제1 특징 벡터(333)를 생성할 수 있다.(S423c)Referring to FIG. 5C, the process of generating the
각 유형의 개체로부터 생성된 제1 특징 벡터(331 내지 333)는 그 차원이 모두 상이할 수 있다. 가령 텍스트 유형의 개체(321)로부터 생성된 제1 특징 벡터(331)는 제1 차원이고, 이미지 유형의 개체(322)로부터 생성된 제1 특징 벡터(332)는 제2 차원이고, 오디오 유형의 개체(323)로부터 생성된 제1 특징 벡터(333)는 제3 차원일 수 있다. 물론 각 제1 특징 벡터(331 내지 333)중 적어도 일부는 차원이 동일할 수도 있다. 다만 이는 예시적인 것으로 본 발명의 사상이 이에 한정되는 것은 아니다.The
한편 테스트 콘텐츠(311)에 비디오 유형의 개체(미도시)가 포함된 경우, 본 발명의 일 실시예에 따른 제어부(112)는 비디오 유형의 개체를 수집하고(S421d), 수집된 비디오 유형의 개체를 이미지 유형의 개체 및 오디오 유형의 개체로 분리하고(422d), 분리된 각각의 개체에 대한 제1 특징 벡터 생성 방법에 따라 제1 특징 벡터를 생성할 수 있다.(423d) 바꾸어 말하면 제어부(112)는 비디오 유형의 개체로부터 분리된 이미지 유형의 개체에 대해, 이미지 유형의 개체에 대한 제1 특징 벡터 생성 방식에 따라 제1 특징 벡터를 생성하고, 비디오 유형의 개체로부터 분리된 오디오 유형의 개체에 대해, 오디오 유형의 개체에 대한 제1 특징 벡터 생성 방식에 따라 제1 특징 벡터를 생성할 수 있다. 다만 이와 같은 비디오 유형의 개체는 두 개 이상의 이종 유형의 개체가 결합된 것의 예시로, 본 발명의 사상이 이에 한정되는 것은 아니다. Meanwhile, when an object (not shown) of a video type is included in the
본 발명의 일 실시예에 따른 제어부(112)는 테스트 콘텐츠(311)에 개인정보(313)가 더 표지된 경우, 개인정보에 대한 제1 특징 벡터(334)를 더 생성할 수 있다. 이 때 제어부(112)는 전술한 바와 같이 성별, 나이, 연령, 학력, 주거지역 및 직업 등과 같은 일반적인 인적 사항과 해당 콘텐츠를 언제 감상하였는지, 어디서 감상하였는지 또는 어떤 경로를 통하여 감상하였는지와 같은 콘텐츠 관련 사항을 모두 고려하여 제1 특징 벡터(334)를 생성할 수 있다. If the
본 발명의 일 실시예에 따른 제어부(112)는 생성된 개체의 유형 별 제1 특징 벡터에 기초하여 테스트 콘텐츠의 특징 벡터인 제2 특징 벡터를 생성할 수 있다.(S43) 이 때 제2 특징 벡터는 테스트 콘텐츠 내에 포함되는 모든 개체의 특성을 고려한 벡터로 써의 의미를 가질 수 있다.The
종래기술에 따르면, 콘텐츠 내에 복수의 유형의 개체가 포함되어 있는 경우 텍스트 유형의 개체만을 기준으로 해당 콘텐츠에 대한 사용자의 감정을 추론하거나, 각각의 유형의 개체에 대한 감정을 개별적으로 추론한 뒤, 이를 통계적으로 처리하여 해당 콘텐츠에 대한 사용자의 감정을 추론하였다.According to the prior art, when a plurality of types of objects are included in the content, the user's feelings for the corresponding content are inferred on the basis of only text-type objects, or after the emotions for each type of object are individually inferred, This was statistically processed to infer the user's feelings about the content.
이러한 방식은 각각의 유형의 개체가 모두 동일한 주제에 관한 것임에도 불구하고, 각 유형의 개체에 대한 개별적인 감정 인식 결과에 기초하여 해당 콘텐츠 전체에 대한 감정을 추론하므로 콘텐츠 흐름이나 맥락에 대한 이해가 결핍된 결과를 도출하는 문제점이 있었다.In this way, even though each type of object is all about the same subject, it lacks understanding of the content flow or context because it infers feelings for the entire content based on the results of individual emotion recognition for each type of object. There was a problem leading to the result.
특히 이러한 방식은 결국 각 유형의 개체에 대한 개별적인 감정 인식 결과를 통계모델에 기반하여 처리함으로써, 일부 유형의 개체로부터 다소 상이한 감정 인식 결과가 도출되었음에도 불구하고 이러한 인식 결과를 무시하여 보다 세밀한 감정 인식이 불가능한 문제점이 있었다.Particularly, this method processes individual emotion recognition results for each type of individual based on a statistical model, so even though somewhat different emotion recognition results are derived from some types of individuals, more detailed emotion recognition is possible by ignoring these recognition results. There was an impossible problem.
본원 발명은 각 유형의 개체의 특징정보를 보다 낮은 레벨에서 통합하고, 이에 기초하여 콘텐츠에 대한 감정 인식을 수행함으로써 콘텐츠의 흐름이나 맥락에 대한 이해가 부가된 감정인식 결과를 도출할 수 있고, 보다 세밀한 감정 인식 결과를 도출할 수 있다.The present invention can derive the emotion recognition result by adding the understanding of the flow or context of the content by integrating the feature information of each type of individual at a lower level and performing emotion recognition on the content based on this. Can produce detailed emotion recognition results.
한편 본 발명의 일 실시예에 따른 제어부(112)는 텍스트 유형의 개체(321)로부터 생성된 제1 특징 벡터(331), 이미지 유형의 개체(322)로부터 생성된 제1 특징 벡터(332), 오디오 유형의 개체(323)로부터 생성된 제1 특징 벡터(333) 및 개인개인정보로부터 생성된 제1 특징 벡터(334)를 병합하여 제2 특징 벡터(341)를 생성할 수 있다. 이 때 제어부(112)는 다양한 방식에 따라 제1 특징 벡터(331 내지 334)로부터 제2 특징 벡터(341)를 생성할 수 있다.Meanwhile, the
가령 제어부(112)는 도 8에 도시된 방식과 유사한 방식으로, 각각의 제1 특징 벡터(331 내지 334)를 직렬적으로 병합하여 제2 특징 벡터(341)를 생성할 수 있다. 이 때 제2 특징 벡터(341)의 차원의 수는 각각의 제1 특징 벡터(331 내지 334)의 차원 수의 합에 기초하여 결정될 수 있다.For example, the
한편 제어부(112)는 전술한 방식과 달리, 제1 특징 벡터(331 내지 334)들의 차원 변환 연산 및/또는 벡터 연산에 의해 고정된 자리수의 제2 특징 벡터(341)를 생성할 수도 있다. On the other hand, unlike the above-described method, the
다만 이는 예시적인 것으로 본 발명의 사상이 이에 한정되는 것은 아니며, 복수의 제1 특징 벡터에 기초하여 하나의 제2 특징 벡터를 생성하는 연산이면 제한 없이 사용될 수 있다.However, this is exemplary and the spirit of the present invention is not limited thereto, and any operation that generates one second feature vector based on a plurality of first feature vectors may be used without limitation.
본 발명의 일 실시예에 따른 제어부(112)는 생성된 제2 특징 벡터(341) 및 테스트 콘텐츠(311)에 부가된 감정 정보(312)에 기초하여 감정 인식기(351)를 트레이닝(Training)시킬 수 있다.(S44) 이 때 감정 정보(312)는 감정에 대한 정보를 벡터의 형태로 포함할 수 있다. 따라서 이하에서는 전술한 감정 정보(312)가 제3 특징 벡터를 포함하는 것을 전제로 설명한다.The
전술한 바와 같이 감정 인식기(351)는 머신 러닝(Machine Learning) 기법으로 생성된 복수의 테스트 콘텐츠(310)와 해당 콘텐츠에 대한 감정의 상관관계, 즉 양자의 매핑 정보일 수 있다. As described above, the
따라서 본 발명의 일 실시예에 따른 제어부(112)는 전술한 과정에 의해 생성된 제2 특징 벡터(341)와 감정 정보(312)를 포함하는 제3 특징 벡터를 서로 대응(매핑)시킬 수 있도록 감정 인식기(351)의 데이터 셋트를 업데이트(Update)하는 방식으로 인식기(351)를 트레이닝(Training)시킬 수 있다. Therefore, the
가령 감정 인식기(351)의 데이터 셋트가 복수개의 계수(Weight)로 구성되는 경우, 제어부(112)는 각 테스트 콘텐츠의 제2 특징 벡터(341) 및 제3 특징 벡터에 기초하여 감정 인식기(351)를 구성하는 계수들을 조절할 수 있다. 이 때 제어부(112)는 복수의 테스트 콘텐츠로부터 제2 특징 벡터(341) 및 제3 특징 벡터를 생성 및/또는 획득하고 이에 기초하여 계수를 업데이트 함으로써 보다 정확도가 향상된 감정 인식 결과를 제공하는 감정 인식기(351)를 획득할 수 있다.For example, when the data set of the
이로써 본원 발명은 각 유형의 개체의 특징정보를 보다 낮은 레벨에서 통합하고, 이에 기초하여 콘텐츠에 대한 감정 인식을 수행함으로써 콘텐츠의 흐름이나 맥락에 대한 이해가 부가된 감정인식 결과를 도출할 수 있고, 보다 세밀한 감정 인식 결과를 도출할 수 있는 감정 인식기(351)를 생성할 수 있다.Accordingly, the present invention can derive the emotion recognition result by adding the understanding of the flow or context of the content by integrating the feature information of each type of entity at a lower level and performing emotion recognition on the content based on this, An
< 감정 인식 장치(110)를 이용한 감정 인식 방법 ><Emotion recognition method using
이상에서는 도 3 내지 도 5d를 통하여 감정 인식 장치(110), 특히 감정 인식기를 생성하는 방법을 설명하였다. 이하에서는 도 6 내지 도 8을 통하여 전술한 과정에 의하여 생성된 감정 인식 장치(110)가 인식 대상 콘텐츠에 대한 감정을 인식하는 방법을 설명한다. 따라서 이하에서는 전술한 과정에 의해서 감정 인식기가 감정 인식 장치(110)에 의해 생성되어 있음을 전제로 설명한다. In the above, the method of generating the
도 6은 본 발명의 일 실시예에 따른 감정 인식 장치(110)가 감정 인식기를 이용하여 인식 대상 콘텐츠의 감정을 인식하는 방법을 설명하기 위한 도면이다.6 is a view for explaining a method of recognizing the emotion of the content to be recognized by the
도 6을 참조하면, 본 발명의 일 실시예에 따른 감정 인식 장치(110)의 제어부(112)는 적어도 하나 이상의 유형의 개체를 포함하는 인식 대상 콘텐츠(611)를 수신할 수 있다.Referring to FIG. 6, the
이 때 제어부(112)는 사용자 단말(200)로부터 인식 대상 콘텐츠(611)그 자체를 수신할 수 있다. 가령 제어부(112)는 사용자 단말(200)로부터 도 6에 도시된 바와 같이 텍스트 유형의 개체(621), 이미지 유형의 개체(622) 및 오디오 유형의 개체(623)를 포함하는 콘텐츠(611)를 수신할 수 있다.At this time, the
또한 제어부(112)는 사용자 단말(200)로부터 인식 대상 콘텐츠(611)의 식별정보만을 수신할 수도 있다. 가령 제어부(112)는 사용자 단말(200)로부터 인식 대상 콘텐츠(611)의 URL을 수신할 수 있다. 이러한 경우 제어부(112)는 사용자 단말(200)로부터 수신한 식별정보에 기초하여 콘텐츠의 제공자(미도시)로부터 해당 콘텐츠(611)를 획득할 수 있다.Also, the
본 발명의 다른 실시예에 따르면, 제어부(112)는 외부장치(300)로부터 인식 대상 콘텐츠(611) 그 자체 및/또는 인식 대상 콘텐츠(611)의 식별정보를 수신할 수도 있다. 이 때 외부장치(300)는 자신이 사용자 단말(200)에 제공한 콘텐츠에 대한 식별정보를 서버(100)에 전송하고, 서버(100)로부터 해당 콘텐츠에 대한 감정 인식 결과를 수신하는 장치일 수 있다. 가령 외부장치(300)는 자신이 제공하고 있는 콘텐츠에 대한 사용자의 감정을 알고자 하는 서비스 제공 업체의 서버일 수 있다.According to another embodiment of the present invention, the
한편 인식 대상 콘텐츠(611)에는 해당 콘텐츠(611)를 감상하는 제1 사용자의 개인정보(612)가 부가정보로써 부가되어 있을 수 있다. 이 때 개인정보(612)는 전술한 바와 같이 성별, 나이, 연령, 학력, 주거지역 및 직업 등과 같은 일반적인 인적 사항과 해당 콘텐츠를 언제 감상하였는지, 어디서 감상하였는지 또는 어떤 경로를 통하여 감상하였는지와 같은 콘텐츠 관련 사항을 포함할 수 있다. 다만 이는 예시적인 것으로 본 발명의 사상이 이에 한정되는 것은 아니다.Meanwhile, the
본 발명의 일 실시예에 따른 제어부(112)는 전술한 과정에 의해 획득한 인식 대상 콘텐츠에 포함된 개체의 유형 별로 제1 특징 벡터(631 내지 634)를 생성할 수 있다. 이 때 '유형 별로 제1 특징 벡터를 생성'하는 것은, 인식 대상 콘텐츠 내에서 동일한 유형의 개체를 모두 수집하고, 이에 기초하여 제1 특징 벡터를 생성하는 것을 의미할 수 있다.The
가령 인식 대상 콘텐츠(611)가 텍스트 유형의 개체(621), 이미지 유형의 개체(622) 및 오디오 유형의 개체(623)를 포함한다고 가정해 보자. 이러한 경우 제어부(112)는 텍스트 유형의 개체(621)로부터 제1 특징 벡터(631)를, 이미지 유형의 개체(622)로부터 제1 특징 벡터(632)를, 오디오 유형의 개체(623)로부터 제1 특징 벡터(633)를 생성할 수 있다. 물론 본 발명의 일 실시예에 따른 제어부(112)는 인식 대상 콘텐츠(611)에 개인정보(612)가 더 표지된 경우, 개인정보에 대한 제1 특징 벡터(634)를 더 생성할 수 있다. For example, suppose that the content to be recognized 611 includes an
본 발명의 일 실시예에 따른 제어부(112)는 인식 대상 콘텐츠(611)에 비디오 유형의 개체가 포함된 경우, 비디오 유형의 개체를 이미지 유형의 개체 및 오디오 유형의 개체로 분리하고, 분리된 각각의 개체에 대한 제1 특징 벡터 생성 방법에 따라 제1 특징 벡터를 생성할 수 있다. The
이와 같이 제어부(112)가 각각의 개체 및/또는 개인정보로부터 제1 특징 벡터(631 내지 634)를 생성하는 것은 도 3 내지 도 5d를 통하여 설명하였으므로, 이에 대한 상세한 설명은 생략한다.As described above, since the
본 발명의 일 실시예에 따른 제어부(112)는 생성된 개체의 유형 별 제1 특징 벡터(631 내지 634)에 기초하여 인식 대상 콘텐츠(611)의 특징 벡터인 제2 특징 벡터(641)를 생성할 수 있다. 이 때 제2 특징 벡터(641)는 인식 대상 콘텐츠(611) 내에 포함되는 모든 개체의 특성을 고려한 벡터로써의 의미를 가질 수 있다.The
종래기술에 따르면, 콘텐츠 내에 복수의 유형의 개체가 포함되어 있는 경우 텍스트 유형의 개체만을 기준으로 해당 콘텐츠에 대한 사용자의 감정을 추론하거나, 각각의 유형의 개체에 대한 감정을 개별적으로 추론한 뒤, 이를 통계적으로 처리하여 해당 콘텐츠에 대한 사용자의 감정을 추론하였다.According to the prior art, when a plurality of types of objects are included in the content, the user's feelings for the corresponding content are inferred on the basis of only text-type objects, or after the emotions for each type of object are individually inferred, This was statistically processed to infer the user's feelings about the content.
이러한 방식은 각각의 유형의 개체가 모두 동일한 주제에 관한 것임에도 불구하고, 각 유형의 개체에 대한 개별적인 감정 인식 결과에 기초하여 해당 콘텐츠 전체에 대한 감정을 추론하므로 콘텐츠 흐름이나 맥락에 대한 이해가 결핍된 결과를 도출하는 문제점이 있었다.In this way, even though each type of object is all about the same subject, it lacks understanding of the content flow or context because it infers feelings for the entire content based on the results of individual emotion recognition for each type of object. There was a problem leading to the result.
특히 이러한 방식은 결국 각 유형의 개체에 대한 개별적인 감정 인식 결과를 통계모델에 기반하여 처리함으로써, 일부 유형의 개체로부터 다소 상이한 감정 인식 결과가 도출되었음에도 불구하고 이러한 인식 결과를 무시하여 보다 세밀한 감정 인식이 불가능한 문제점이 있었다.Particularly, this method processes individual emotion recognition results for each type of individual based on a statistical model, so even though somewhat different emotion recognition results are derived from some types of individuals, more detailed emotion recognition is possible by ignoring these recognition results. There was an impossible problem.
본원 발명은 각 유형의 개체의 특징정보를 보다 낮은 레벨에서 통합하고, 이에 기초하여 콘텐츠에 대한 감정 인식을 수행함으로써 콘텐츠의 흐름이나 맥락에 대한 이해가 부가된 감정인식 결과를 도출할 수 있고, 보다 세밀한 감정 인식 결과를 도출할 수 있다.The present invention can derive the emotion recognition result by adding the understanding of the flow or context of the content by integrating the feature information of each type of individual at a lower level and performing emotion recognition on the content based on this. Can produce detailed emotion recognition results.
한편 본 발명의 일 실시예에 따른 제어부(112)는 텍스트 유형의 개체(621)로부터 생성된 제1 특징 벡터(631), 이미지 유형의 개체(622)로부터 생성된 제1 특징 벡터(632), 오디오 유형의 개체(623)로부터 생성된 제1 특징 벡터(633) 및 개인개인정보(612)로부터 생성된 제1 특징 벡터(634)를 병합하여 제2 특징 벡터(641)를 생성할 수 있다. 이 때 제어부(112)는 다양한 방식에 따라 제2 특징 벡터(641)를 생성할 수 있다.Meanwhile, the
가령 제어부(112)는 도 8에 도시된 바와 같이, 각각의 제1 특징 벡터(631 내지 634)를 직렬적으로 병합하여 제2 특징 벡터(641)를 생성할 수 있다. 이 때 제2 특징 벡터(641)의 차원의 수는 각각의 제1 특징 벡터(631 내지 634)의 차원 수의 합에 기초하여 결정될 수 있다.For example, as illustrated in FIG. 8, the
한편 제어부(112)는 전술한 방식과 달리, 제1 특징 벡터(631 내지 634)들의 차원 변환 연산 및/또는 벡터 연산에 의해 고정된 자리수의 제2 특징 벡터(641)를 생성할 수도 있다. 다만 이는 예시적인 것으로 본 발명의 사상이 이에 한정되는 것은 아니며, 복수의 제1 특징 벡터에 기초하여 하나의 제2 특징 벡터를 생성하는 연산이면 제한 없이 사용될 수 있다.On the other hand, unlike the above-described method, the
본 발명의 일 실시예에 따른 제어부(112)는 생성된 제2 특징 벡터(641) 및 감정 인식기(351)에 기초하여 제1 사용자의 인식 대상 콘텐츠(611)에 대한 감정을 결정할 수 있다.The
전술한 바와 같이 감정 인식기(351)는 머신 러닝(Machine Learning) 기법으로 생성된 복수의 테스트 콘텐츠와 해당 콘텐츠에 대한 감정의 상관관계, 즉 양자의 매핑 정보일 수 있다. As described above, the
따라서 이러한 감정 인식기(351)를 참조하면, 본 발명의 일 실시예에 따른 제어부(112)는 생성된 제2 특징 벡터(641)와 매핑되는 감정 정보(651)를 확인할 수 있다. Accordingly, referring to the
이 때 감정 정보(651)는 감정에 대한 정보를 벡터의 형태로 포함할 수 있다. 가령 감정 정보(651)가 [0.1, 0.2, 0.99, 0.4..]와 같은 벡터이고, 첫 번째 값이 '기쁨'과 관련된 값이고, 두 번째가 '슬픔'과 관련된 값이고, 세 번째가 '지루함'과 관련된 값이라고 가정해 보자. 이러한 경우 제어부(112)는 인식 대상 콘텐츠에 대한 사용자의 감정을 '지루함'으로 결정할 수 있다.At this time, the
이로써 본원 발명은 인식 대상 콘텐츠로부터 콘텐츠의 흐름이나 맥락에 대한 이해가 부가된 감정인식 결과를 도출할 수 있고, 보다 세밀한 감정 인식 결과를 도출할 수 있다.Accordingly, the present invention can derive an emotion recognition result to which an understanding of the flow or context of the content is added from the content to be recognized, and to derive a more detailed emotion recognition result.
도 7은 본 발명의 일 실시예에 따른 감정 인식 장치(110)에 의해 수행되는 감정 인식 방법을 설명하기 위한 흐름도이다.7 is a flowchart illustrating an emotion recognition method performed by the
본 발명의 일 실시예에 따른 감정 인식 장치(110)의 제어부(112)는 적어도 하나 이상의 유형의 개체를 포함하는 인식 대상 콘텐츠(611)를 사용자 단말(200)로부터 수신할 수 있다.(S71) 이 때 제어부(112)는 사용자 단말(200)로부터 인식 대상 콘텐츠(611)그 자체를 수신할 수 있다. 가령 제어부(112)는 사용자 단말(200)로부터 도 6에 도시된 바와 같이 텍스트 유형의 개체(621), 이미지 유형의 개체(622) 및 오디오 유형의 개체(623)를 포함하는 콘텐츠(611)를 수신할 수 있다.The
또한 제어부(112)는 사용자 단말(200)로부터 인식 대상 콘텐츠(611)의 식별정보만을 수신할 수도 있다. 가령 제어부(112)는 사용자 단말(200)로부터 인식 대상 콘텐츠(611)의 URL을 수신할 수 있다. 이러한 경우 제어부(112)는 사용자 단말(200)로부터 수신한 식별정보에 기초하여 콘텐츠의 제공자(미도시)로부터 해당 콘텐츠(611)를 획득할 수 있다.Also, the
본 발명의 다른 실시예에 따르면 제어부(112)는 도 7에 도시된 바와 달리, 외부장치(300)로부터 인식 대상 콘텐츠(611) 그 자체 및/또는 인식 대상 콘텐츠(611)의 식별정보를 수신할 수도 있다. 이 때 외부장치(300)는 자신이 사용자 단말(200)에 제공한 콘텐츠에 대한 식별정보를 서버(100)에 전송하고, 서버(100)로부터 해당 콘텐츠에 대한 감정 인식 결과를 수신하는 장치일 수 있다. 가령 외부장치(300)는 자신이 제공하고 있는 콘텐츠에 대한 사용자의 감정을 알고자 하는 서비스 제공 업체의 서버일 수 있다.According to another embodiment of the present invention, the
한편 인식 대상 콘텐츠(611)에는 해당 콘텐츠(611)를 감상하는 제1 사용자의 개인정보(612)가 부가정보로써 부가되어 있을 수 있다. 이 때 개인정보(612)는 전술한 바와 같이 성별, 나이, 연령, 학력, 주거지역 및 직업 등과 같은 일반적인 인적 사항과 해당 콘텐츠를 언제 감상하였는지, 어디서 감상하였는지 또는 어떤 경로를 통하여 감상하였는지와 같은 콘텐츠 관련 사항을 포함할 수 있다. 다만 이는 예시적인 것으로 본 발명의 사상이 이에 한정되는 것은 아니다.Meanwhile, the
본 발명의 일 실시예에 따른 제어부(112)는 전술한 과정에 의해 획득한 인식 대상 콘텐츠에 포함된 개체의 유형 별로 제1 특징 벡터(631 내지 634)를 생성할 수 있다.(S72) 이 때 '유형 별로 제1 특징 벡터를 생성'하는 것은, 인식 대상 콘텐츠 내에서 동일한 유형의 개체를 모두 수집하고, 이에 기초하여 제1 특징 벡터를 생성하는 것을 의미할 수 있다.The
가령 인식 대상 콘텐츠(611)가 텍스트 유형의 개체(621), 이미지 유형의 개체(622) 및 오디오 유형의 개체(623)를 포함한다고 가정해 보자. 이러한 경우 제어부(112)는 텍스트 유형의 개체(621)로부터 제1 특징 벡터(631)를, 이미지 유형의 개체(622)로부터 제1 특징 벡터(632)를, 오디오 유형의 개체(623)로부터 제1 특징 벡터(633)를 생성할 수 있다. 물론 본 발명의 일 실시예에 따른 제어부(112)는 인식 대상 콘텐츠(611)에 개인정보(612)가 더 표지된 경우, 개인정보에 대한 제1 특징 벡터(634)를 더 생성할 수 있다. For example, suppose that the content to be recognized 611 includes an
본 발명의 일 실시예에 따른 제어부(112)는 인식 대상 콘텐츠(611)에 비디오 유형의 개체가 포함된 경우, 비디오 유형의 개체를 이미지 유형의 개체 및 오디오 유형의 개체로 분리하고, 분리된 각각의 개체에 대한 제1 특징 벡터 생성 방법에 따라 제1 특징 벡터를 생성할 수 있다. The
이와 같이 제어부(112)가 각각의 개체 및/또는 개인정보로부터 제1 특징 벡터(631 내지 634)를 생성하는 것은 도 3 내지 도 5d를 통하여 설명하였으므로, 이에 대한 상세한 설명은 생략한다.As described above, since the
본 발명의 일 실시예에 따른 제어부(112)는 생성된 개체의 유형 별 제1 특징 벡터(631 내지 634)에 기초하여 인식 대상 콘텐츠(611)의 특징 벡터인 제2 특징 벡터(641)를 생성할 수 있다.(S73) 이 때 제2 특징 벡터(641)는 인식 대상 콘텐츠(611) 내에 포함되는 모든 개체의 특성을 고려한 벡터로써의 의미를 가질 수 있다.The
한편 본 발명의 일 실시예에 따른 제어부(112)는 텍스트 유형의 개체(621)로부터 생성된 제1 특징 벡터(631), 이미지 유형의 개체(622)로부터 생성된 제1 특징 벡터(632), 오디오 유형의 개체(623)로부터 생성된 제1 특징 벡터(633) 및 개인개인정보(612)로부터 생성된 제1 특징 벡터(634)를 병합하여 제2 특징 벡터(641)를 생성할 수 있다. 이 때 제어부(112)는 다양한 방식에 따라 제2 특징 벡터(641)를 생성할 수 있다.Meanwhile, the
본 발명의 일 실시예에 따른 제어부(112)는 생성된 제2 특징 벡터(641) 및 감정 인식기(351)에 기초하여 제1 사용자의 인식 대상 콘텐츠(611)에 대한 감정을 결정할 수 있다.(S74)The
전술한 바와 같이 감정 인식기(351)는 머신 러닝(Machine Learning) 기법으로 생성된 복수의 테스트 콘텐츠와 해당 콘텐츠에 대한 감정의 상관관계, 즉 양자의 매핑 정보일 수 있다. As described above, the
따라서 이러한 감정 인식기(351)를 참조하면, 본 발명의 일 실시예에 따른 제어부(112)는 생성된 제2 특징 벡터(641)와 매핑되는 감정 정보(651)를 확인할 수 있다. 이 때 감정 정보(651)는 감정에 대한 정보를 벡터의 형태로 포함할 수 있다. 가령 감정 정보(651)가 [0.1, 0.2, 0.99, 0.4..]와 같은 벡터이고, 첫 번째 값이 '기쁨'과 관련된 값이고, 두 번째가 '슬픔'과 관련된 값이고, 세 번째가 '지루함'과 관련된 값이라고 가정해 보자. 이러한 경우 제어부(112)는 인식 대상 콘텐츠에 대한 사용자의 감정을 '지루함'으로 결정할 수 있다.Accordingly, referring to the
이로써 본원 발명은 인식 대상 콘텐츠로부터 콘텐츠의 흐름이나 맥락에 대한 이해가 부가된 감정인식 결과를 도출할 수 있고, 보다 세밀한 감정 인식 결과를 도출할 수 있다.Accordingly, the present invention can derive an emotion recognition result to which an understanding of the flow or context of the content is added from the content to be recognized, and to derive a more detailed emotion recognition result.
이상 설명된 본 발명에 따른 실시예는 컴퓨터 상에서 다양한 구성요소를 통하여 실행될 수 있는 컴퓨터 프로그램의 형태로 구현될 수 있으며, 이와 같은 컴퓨터 프로그램은 컴퓨터로 판독 가능한 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 저장하는 것일 수 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. The embodiment according to the present invention described above may be implemented in the form of a computer program that can be executed through various components on a computer, and such a computer program can be recorded on a computer-readable medium. At this time, the medium may be to store a program executable by a computer. Examples of the medium include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floptical disks, And program instructions including ROM, RAM, flash memory, and the like.
한편, 상기 컴퓨터 프로그램은 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 프로그램의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함될 수 있다.Meanwhile, the computer program may be specially designed and configured for the present invention or may be known and available to those skilled in the computer software field. Examples of computer programs may include not only machine language codes produced by a compiler, but also high-level language codes executable by a computer using an interpreter or the like.
본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, "필수적인", "중요하게" 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.The specific implementations described in the present invention are exemplary embodiments, and do not limit the scope of the present invention in any way. For brevity of the specification, descriptions of conventional electronic configurations, control systems, software, and other functional aspects of the systems may be omitted. In addition, the connection or connection members of the lines between the components shown in the drawings are illustrative examples of functional connections and / or physical or circuit connections. In the actual device, alternative or additional various functional connections, physical It can be represented as a connection, or circuit connections. In addition, unless specifically mentioned, such as "essential", "important", etc., it may not be a necessary component for the application of the present invention.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention is not limited to the above-described embodiment, and should not be determined, and the scope of the spirit of the present invention, as well as the claims to be described later, as well as all ranges that are equivalent to or equivalently changed from the claims. Would belong to
100: 서버
110: 감정 인식 장치
111: 통신부
112: 제어부
113: 메모리
200: 사용자 단말
300: 외부장치
400: 통신망100: server
110: emotion recognition device
111: Communication Department
112: control unit
113: memory
200: user terminal
300: external device
400: network
Claims (5)
사용자의 개인정보, 적어도 하나 이상의 유형의 개체 및 감정 정보를 포함하는 복수의 테스트 콘텐츠를 이용하여, 상기 개인정보, 상기 적어도 하나 이상의 유형의 개체 및 상기 감정 정보 간의 상관관계를 학습 하도록 감정 인식기를 학습시키는 단계;
상기 인식 대상 콘텐츠 내의 상기 적어도 하나 이상의 유형의 개체를 유형 별로 수집하는 단계;
상기 수집 결과에 기초하여 개체의 유형 별 제1 특징 벡터를 생성하는 단계;
상기 제1 사용자의 일반적인 인적 사항 및 상기 제1 사용자의 콘텐츠 감상 정보에 기초하여 개인정보에 대한 제1 특징 벡터를 생성하는 단계;
상기 유형 별 제1 특징 벡터 및 상기 개인정보에 대한 제1 특징 벡터를 기 설정된 방식으로 병합하여 제2 특징 벡터를 생성하는 단계; 및
상기 학습된 감정 인식기를 이용하여, 상기 제2 특징 벡터에 대응되는 감정 벡터를 결정하는 단계;를 포함하는, 멀티모달 정보에 기초한 감정 인식 방법.A method for recognizing a first user's emotion for a content to be recognized that includes at least one type of object,
Learning a emotion recognizer to learn a correlation between the personal information, the at least one type of object, and the emotion information by using a plurality of test contents including user's personal information, at least one type of object, and emotion information Letting;
Collecting the at least one type of object in the content to be recognized for each type;
Generating a first feature vector for each type of object based on the collection result;
Generating a first feature vector for personal information based on the general personal information of the first user and the content viewing information of the first user;
Generating a second feature vector by merging the first feature vector for each type and the first feature vector for the personal information in a preset manner; And
And determining an emotion vector corresponding to the second feature vector using the learned emotion recognizer.
상기 인식 대상 콘텐츠에 복수의 제1 유형의 개체가 포함된 경우,
상기 개체를 수집하는 단계는
상기 복수의 제1 유형의 개체를 모두 수집하고,
상기 개체의 유형 별 제1 특징 벡터를 생성하는 단계는
상기 인식 대상 콘텐츠 내에 포함된 모든 제1 유형의 개체의 특징을 반영한 제1 특징 벡터를 생성하는, 멀티모달 정보에 기초한 감정 인식 방법.The method according to claim 1
When a plurality of first types of objects are included in the content to be recognized,
Collecting the object is
Collecting all of the plurality of first type of objects,
The step of generating a first feature vector for each type of the object is
A method of recognizing emotion based on multi-modal information, generating a first feature vector reflecting features of all first types of objects included in the content to be recognized.
상기 테스트 콘텐츠는
웹 크롤링을 통하여 외부장치로부터 획득되는 콘텐츠인, 멀티모달 정보에 기초한 감정 인식 방법.The method according to claim 1
The test content is
Emotion recognition method based on multi-modal information, content obtained from external devices through web crawling.
상기 인적 사항은
상기 제1 사용자의 성별, 나이, 연령, 학력, 주거지역 및 직업 중 적어도 하나를 포함하고,
상기 콘텐츠 감상 정보는
상기 제1 사용자가 상기 인식 대상 콘텐츠를 언제 감상하였는지, 어디서 감상하였는지, 얼마 동안 감상하였는지 및 어떤 경로를 통하여 감상하였는지 중 적어도 하나를 포함하는, 멀티모달 정보에 기초한 감정 인식 방법.The method according to claim 1
The personal information above
It includes at least one of the first user's gender, age, age, educational background, residential area and occupation,
The content viewing information
A method for recognizing emotion based on multi-modal information, wherein the first user includes at least one of when the content to be recognized was viewed, where it was viewed, how long it was viewed, and through what route.
상기 개체의 유형 별 제1 특징 벡터를 생성하는 단계는
수집된 하나 이상의 비디오 유형의 개체에 대해서,
상기 비디오 유형의 개체를 이미지 유형의 개체 및 오디오 유형의 개체로 분리하는 단계;
상기 비디오 유형의 개체로부터 분리된 이미지 유형의 개체와 상기 인식 대상 콘텐츠 내의 적어도 하나의 이미지 유형의 개체에 기초하여 이미지 유형의 개체에 대한 제1 특징 벡터를 생성하는 단계; 및
상기 비디오 유형의 개체로부터 분리된 오디오 유형의 개체와 상기 인식 대상 콘텐츠 내의 적어도 하나의 오디오 유형의 개체에 기초하여 오디오 유형의 개체에 대한 제1 특징 벡터를 생성하는 단계;를 포함하는, 멀티모달 정보에 기초한 감정 인식 방법.The method according to claim 1
The step of generating a first feature vector for each type of the object is
For objects of one or more video types collected,
Separating the video type object into an image type object and an audio type object;
Generating a first feature vector for an object of the image type based on the object of the image type separated from the object of the video type and the object of at least one image type in the content to be recognized; And
The method comprising: generating a first feature vector for an audio type object based on an audio type object separated from the video type object and at least one audio type object in the content to be recognized; Emotion recognition method based on.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190100422A KR102110393B1 (en) | 2019-08-16 | 2019-08-16 | Emotion recognition method and computer program for excuting the method, emotion recognizer generation method and computer program for excuting the method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190100422A KR102110393B1 (en) | 2019-08-16 | 2019-08-16 | Emotion recognition method and computer program for excuting the method, emotion recognizer generation method and computer program for excuting the method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170038502A Division KR20180109227A (en) | 2017-03-27 | 2017-03-27 | Emotion recognition method and computer program for excuting the method, emotion recognizer generation method and computer program for excuting the method |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190100124A KR20190100124A (en) | 2019-08-28 |
KR102110393B1 true KR102110393B1 (en) | 2020-05-14 |
Family
ID=67775313
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190100422A KR102110393B1 (en) | 2019-08-16 | 2019-08-16 | Emotion recognition method and computer program for excuting the method, emotion recognizer generation method and computer program for excuting the method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102110393B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220107772A (en) | 2021-01-26 | 2022-08-02 | 주식회사 플랫팜 | Character emotion recognition and tagging appratus, character emotion recognition and tagging method, and character emotion recognition and tagging system including the character emotion recognition and tagging apparatus |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111723783B (en) * | 2020-07-29 | 2023-12-08 | 腾讯科技(深圳)有限公司 | Content identification method and related device |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101271528A (en) | 2008-04-11 | 2008-09-24 | 北京中星微电子有限公司 | Method and device for outputting image |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007041988A (en) * | 2005-08-05 | 2007-02-15 | Sony Corp | Information processing device, method and program |
CN105615902A (en) * | 2014-11-06 | 2016-06-01 | 北京三星通信技术研究有限公司 | Emotion monitoring method and device |
KR20160116586A (en) * | 2015-03-30 | 2016-10-10 | 한국전자통신연구원 | Method and apparatus for emotion recognition |
-
2019
- 2019-08-16 KR KR1020190100422A patent/KR102110393B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101271528A (en) | 2008-04-11 | 2008-09-24 | 北京中星微电子有限公司 | Method and device for outputting image |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220107772A (en) | 2021-01-26 | 2022-08-02 | 주식회사 플랫팜 | Character emotion recognition and tagging appratus, character emotion recognition and tagging method, and character emotion recognition and tagging system including the character emotion recognition and tagging apparatus |
Also Published As
Publication number | Publication date |
---|---|
KR20190100124A (en) | 2019-08-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020232861A1 (en) | Named entity recognition method, electronic device and storage medium | |
CN110168530B (en) | Electronic device and method of operating the same | |
CN110737783B (en) | Method and device for recommending multimedia content and computing equipment | |
US20170109615A1 (en) | Systems and Methods for Automatically Classifying Businesses from Images | |
US10198635B2 (en) | Systems and methods for associating an image with a business venue by using visually-relevant and business-aware semantics | |
US20170161393A1 (en) | Terminal, server and event suggesting methods thereof | |
KR20180109227A (en) | Emotion recognition method and computer program for excuting the method, emotion recognizer generation method and computer program for excuting the method | |
CN110851641B (en) | Cross-modal retrieval method and device and readable storage medium | |
CN111626362B (en) | Image processing method, device, computer equipment and storage medium | |
CN106462626A (en) | Modeling interestingness with deep neural networks | |
CN113011186B (en) | Named entity recognition method, named entity recognition device, named entity recognition equipment and computer readable storage medium | |
CN110521213B (en) | Story image making method and system | |
CN109271542A (en) | Cover determines method, apparatus, equipment and readable storage medium storing program for executing | |
CN112100438A (en) | Label extraction method and device and computer readable storage medium | |
US11966829B2 (en) | Convolutional artificial neural network based recognition system in which registration, search, and reproduction of image and video are divided between and performed by mobile device and server | |
WO2020103899A1 (en) | Method for generating inforgraphic information and method for generating image database | |
Akputu et al. | Emotion recognition using multiple kernel learning toward E-learning applications | |
KR102110393B1 (en) | Emotion recognition method and computer program for excuting the method, emotion recognizer generation method and computer program for excuting the method | |
CN112131345B (en) | Text quality recognition method, device, equipment and storage medium | |
CN111783903A (en) | Text processing method, text model processing method and device and computer equipment | |
CN112015928A (en) | Information extraction method and device of multimedia resource, electronic equipment and storage medium | |
CN113515669A (en) | Data processing method based on artificial intelligence and related equipment | |
CN114661951A (en) | Video processing method and device, computer equipment and storage medium | |
KR101752474B1 (en) | Apparatus, method and computer program for providing service to share knowledge | |
Pandey et al. | An Improved Sign Language Translation approach using KNN in Deep Learning Environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |