KR20220053358A - Method and apparatus for analyzing sentiment related to object - Google Patents

Method and apparatus for analyzing sentiment related to object Download PDF

Info

Publication number
KR20220053358A
KR20220053358A KR1020200137741A KR20200137741A KR20220053358A KR 20220053358 A KR20220053358 A KR 20220053358A KR 1020200137741 A KR1020200137741 A KR 1020200137741A KR 20200137741 A KR20200137741 A KR 20200137741A KR 20220053358 A KR20220053358 A KR 20220053358A
Authority
KR
South Korea
Prior art keywords
emotion
frame
person
video
change
Prior art date
Application number
KR1020200137741A
Other languages
Korean (ko)
Other versions
KR102496010B1 (en
Inventor
김윤희
이소정
손규진
Original Assignee
숙명여자대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 숙명여자대학교산학협력단 filed Critical 숙명여자대학교산학협력단
Priority to KR1020200137741A priority Critical patent/KR102496010B1/en
Publication of KR20220053358A publication Critical patent/KR20220053358A/en
Application granted granted Critical
Publication of KR102496010B1 publication Critical patent/KR102496010B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • G06K9/6255
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content

Abstract

The present invention relates to a device for analyzing a sentiment related to an object, which includes: a video collecting unit collecting a reaction video of a person viewing a target video when information on the target video is received; a frame extracting unit extracting each frame included in the collected reaction video and the target video; a sentiment analysis unit identifying a frame that is included in the target video and induces a change in the person's sentiment based on the expression of the person in each frame extracted from the collected reaction video; an object analysis unit determining an object that induces a change in the person's sentiment among the frames in the target video and quantifying the degree of change in the sentiment of the person of the determined object based on the degree of change in the sentiment; and an information providing unit storing the determined object and the degree of change in the sentiment of the person corresponding to the determined object and outputting the stored content.

Description

감정 객체 분석 방법 및 장치{METHOD AND APPARATUS FOR ANALYZING SENTIMENT RELATED TO OBJECT}Method and apparatus for analyzing emotional objects

본 발명은 감정 객체 분석 방법 및 장치에 관한 것으로, 구체적으로는 대상 동영상에 등장하는 객체에 대한 시청자의 감정을 분석하는 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for analyzing an emotional object, and more particularly, to a method and apparatus for analyzing a viewer's emotion for an object appearing in a target video.

스마트폰 보급의 확대되고, 무선 통신의 속도가 향상됨에 따라 동영상 컨텐츠에 대한 소비가 점차 증가하고 있다. 이와 함께 동영상 컨텐츠를 시청한 시청자들이 자신의 감정을 댓글과 같은 텍스트 형태 대신 동영상 형태로 표현하는 비중 역시 증가하고 있다. 여기서 시청자들이 자신의 감정을 표현하기 위해, 자신들이 동영상 컨텐츠를 시청하는 모습을 촬영하여 제작한 영상은 반응 동영상으로 지칭된다. As the spread of smart phones increases and the speed of wireless communication improves, the consumption of video content is gradually increasing. At the same time, the proportion of viewers who watched video content expressing their emotions in the form of a video instead of in the form of a text such as a comment is also increasing. Here, in order for viewers to express their emotions, an image produced by filming their viewing of video content is referred to as a reaction video.

한편 대상 동영상을 시청한 시청자들의 감정 변화를 파악할 수 있다면, 시청자들로부터 특정 감정을 이끌어낼 수 있는 동영상 컨텐츠를 제작하는 것이 더 용이해질 수 있다. 따라서 반응 동영상 속 인물들의 감정을 빠르고 효과적으로 분석하고, 대상 동영상 내에서 시청자들이 감정적으로 반응하는 객체를 파악하여 특정 객체와 이를 시청하는 시청자의 감정과의 관계를 분석하는 기술에 관한 연구가 진행되고 있다.On the other hand, if it is possible to understand the emotional change of viewers who have watched the target video, it may be easier to produce video content that can elicit a specific emotion from the viewers. Therefore, research is underway on a technology to quickly and effectively analyze the emotions of the people in the reaction video, identify the object to which viewers respond emotionally in the target video, and analyze the relationship between the specific object and the viewer's emotion. .

본 발명은 대상 동영상에 등장하는 특정 객체에 대한 시청자의 감정을 분석하는 방법 및 장치를 제공함으로써 대상 동영상에 포함된 특정 객체와 반응 동영상 내 인물의 감정과의 관계를 분석한 결과를 도출하고자 한다.An object of the present invention is to derive a result of analyzing a relationship between a specific object included in a target video and the emotion of a person in a reaction video by providing a method and apparatus for analyzing a viewer's emotions for a specific object appearing in a target video.

또한, 특정 객체와 반응 동영상 내 인물의 감정과의 관계에 기초하여 감정별 객체 사전을 구축하고자 한다. In addition, based on the relationship between a specific object and the emotion of a person in the reaction video, we want to build an object dictionary for each emotion.

본 발명의 감정 객체 분석 장치는 대상 동영상에 관한 정보가 수신되면, 대상 동영상을 시청하는 인물이 촬영된 반응 동영상을 수집하는 영상 수집부, 수집된 반응 동영상 및 대상 동영상에 포함된 각 프레임을 추출하는 프레임 추출부, 상기 수집된 반응 동영상으로부터 추출된 각 프레임에 포함된 인물의 표정에 기초하여 상기 대상 동영상에 포함된 프레임 중에서 상기 인물의 감정 변화를 유도하는 프레임을 식별하는 감정 분석부; 및 상기 감정 변화 정도에 기초하여 상기 대상 동영상에 포함된 프레임 중에서 상기 인물의 감정 변화를 유도하는 객체를 판별하고, 판별된 객체의 상기 인물의 감정 변화 정도를 정량화하는 객체 분석부; 상기 판별된 객체 및 상기 판별된 객체와 대응하는 상기 인물의 감정 변화 정도를 저장하고 상기 저장된 내용을 출력하는 정보 제공부를 포함한다.The emotional object analysis apparatus of the present invention is configured to extract, when information on a target video is received, an image collection unit that collects a reaction video shot by a person watching the target video, and each frame included in the collected reaction video and the target video a frame extraction unit, an emotion analysis unit for identifying a frame that induces a change in emotion of the person from among the frames included in the target video based on the facial expression of the person included in each frame extracted from the collected reaction video; and an object analyzer configured to determine an object inducing a change in emotion of the person from among the frames included in the target video based on the degree of change in emotion, and quantify the degree of change in emotion of the person in the determined object; and an information providing unit for storing the determined object and the degree of emotional change of the person corresponding to the determined object and outputting the stored content.

일 실시예에 따르면, 정보 제공부는 미리 설정된 감정 항목에 대한 감정 변화 정도가 큰 순서대로 객체를 정렬하여 감정별 객체 사전을 생성하여 저장할 수 있다.According to an embodiment, the information providing unit may generate and store an object dictionary for each emotion by arranging the objects in an order of increasing the degree of emotion change for a preset emotion item.

일 실시예에 따르면, 감정 객체 분석 장치는 영상 수집부로부터 수집된 반응 동영상을 수신한 후, 수집된 반응 동영상 내에 포함된 인물이 반응을 보이는 구간만 추출하여 프레임 추출부에 전달하는, 전처리부를 더 포함할 수 있다.According to an embodiment, after receiving the reaction video collected from the image collecting unit, the emotional object analysis apparatus further includes a pre-processing unit, which extracts only a section in which a person included in the collected reaction video shows a reaction and delivers it to the frame extraction unit. may include

일 실시예에 따르면, 감정 객체 분석 장치는 대상 동영상으로부터 추출된 프레임들에 대하여, 각 프레임에 등장하는 객체에 기초하여 추출된 프레임들 간의 유사도를 판단하고, 판단 결과에 따라 유사한 프레임들을 동일 구간으로 병합하여 프레임 식별부에 전달하는 구간 분리부를 더 포함할 수 있다.According to an embodiment, the emotional object analysis apparatus determines the similarity between the extracted frames based on the object appearing in each frame with respect to the frames extracted from the target video, and divides the similar frames into the same section according to the determination result. It may further include a section divider for merging and transferring the to the frame identification unit.

일 실시예에 따르면, 감정 분석부는 감정을 복수의 감정 항목으로 나눈 후, 각 프레임의 상기 인물의 표정에 따라 상기 복수의 감정 항목의 확률값을 도출하고, 각 프레임을 포함한 상기 반응 동영상 내 복수의 프레임의 각 감정 항목별 평균 변화량을 계산한 후, 상기 각 감정 항목별 평균 변화량보다 큰 값을 갖는 프레임을 유의미한 프레임으로 분류하여 유의미한 프레임을 상기 객체 분석부에 전달하는 것일 수 있다.According to an embodiment, the emotion analysis unit divides the emotion into a plurality of emotion items, derives probability values of the plurality of emotion items according to the expression of the person in each frame, and a plurality of frames in the reaction video including each frame After calculating the average change amount for each emotion item of , the frame having a value greater than the average change amount for each emotion item is classified as a meaningful frame and the meaningful frame is transmitted to the object analysis unit.

일 실시예에 따르면, 객체 분석부는, 식별된 각각의 객체가 등장하는 제1 프레임의 앞뒤 프레임에 대응하는 반응 동영상의 인물의 감정 항목별 평균 변화율값을 계산한 후, 상기 각 감정 항목별 평균 변화량과 상기 제1 프레임의 상기 복수의 감정 항목의 확률값에 기초하여 상기 객체에 대한 상기 인물의 감정을 분석하는 것 일 수 있다.According to an embodiment, the object analysis unit calculates an average change rate value for each emotion item of a person in a reaction video corresponding to the frames before and after the first frame in which each identified object appears, and then the average change amount for each emotion item and analyzing the emotion of the person with respect to the object based on probability values of the plurality of emotion items of the first frame.

일 실시예에 따르면, 객체 분석부는 상기 제1 프레임이 다중 객체를 포함하는 경우, 각각의 객체에 대하여 상기 제1 프레임의 앞뒤 프레임의 객체 등장유무에 기초하여 감정값에 미치는 객체의 순위를 설정하는 것 일 수 있다.According to an embodiment, when the first frame includes multiple objects, the object analysis unit sets the ranking of the objects on the emotion value based on the presence or absence of objects in the frames before and after the first frame for each object. can be one

일 실시예에 따르면, 객체 분석부는 다중 객체의 순위 설정시, 상기 앞뒤 프레임에 해당 객체가 등장하지 않는 객체의 순위를 최우선으로 하고, 앞뒤 프레임중 어느 하나에만 해당 객체가 등장하는 객체의 순위를 차순위로 하는 것 일 수 있다.According to an embodiment, when setting the rank of multiple objects, the object analysis unit gives the highest priority to the rank of the object in which the corresponding object does not appear in the front and rear frames, and ranks the objects in which the corresponding object appears in only one of the front and rear frames. can be done with

본 발명의 다른 실시예에 따른 장치에 의한 감정 객체 분석 방법은, 대상 동영상에 관한 정보가 수신되면, 상기 대상 동영상을 시청하는 인물이 촬영된 반응 동영상을 수집하는 단계; 상기 수집된 반응 동영상 및 상기 대상 동영상에 포함된 각 프레임을 추출하는 단계; 상기 수집된 반응 동영상으로부터 추출된 각 프레임에 포함된 인물의 표정에 기초하여 상기 대상 동영상에 포함된 프레임 중에서 상기 인물의 감정 변화를 유도하는 프레임을 식별하는 단계; 상기 감정 변화 정도에 기초하여 상기 대상 동영상에 포함된 프레임 중에서 상기 인물의 감정 변화를 유도하는 객체를 판별하고, 판별된 객체의 상기 인물의 감정 변화 정도를 정량화하는 단계; 및 상기 판별된 객체 및 상기 판별된 객체와 대응하는 상기 인물의 감정 변화 정도를 저장하고 상기 저장된 내용을 출력하는 단계를 포함할 수 있다. A method for analyzing an emotional object by an apparatus according to another embodiment of the present invention includes: when information on a target video is received, collecting a reaction video captured by a person watching the target video; extracting each frame included in the collected reaction video and the target video; identifying a frame that induces a change in emotion of the person from among the frames included in the target video based on the facial expression of the person included in each frame extracted from the collected reaction video; determining an object inducing a change in emotion of the person from among frames included in the target video based on the degree of change in emotion, and quantifying the degree of change in emotion of the person in the determined object; and storing the determined object and the degree of emotional change of the person corresponding to the determined object, and outputting the stored content.

일 실시예에 따르면, 감정 객체 분석 방법은 미리 설정된 감정 항목에 대한 감정 변화 정도가 큰 순서대로 객체를 정렬하여 감정별 객체 사전을 생성하여 저장하는 단계를 더 포함할 수 있다. According to an embodiment, the method for analyzing emotion objects may further include arranging objects in an order of increasing degree of emotion change for a preset emotion item to generate and store an object dictionary for each emotion.

일 실시예에 따르면, 상기 각 프레임을 추출하는 단계는, 상기 수집된 반응 동영상을 수신한 후, 상기 수집된 반응 동영상 내에 포함된 상기 인물이 반응을 보이는 구간만 추출하는 단계일 수 있다. According to an embodiment, the step of extracting each frame may be a step of extracting only a section in which the person included in the collected reaction video shows a reaction after receiving the collected reaction video.

일 실시예에 따르면, 각 프레임을 추출하는 단계는, 상기 대상 동영상으로부터 추출된 프레임들에 대하여, 각 프레임에 등장하는 객체에 기초하여 추출된 프레임들 간의 유사도를 판단하고, 상기 판단 결과에 따라 유사한 프레임들을 병합하는 단계를 포함하는 것일 수 있다. According to an embodiment, the extracting of each frame may include determining a similarity between the extracted frames based on an object appearing in each frame with respect to the frames extracted from the target video, and according to the determination result, similar It may include merging frames.

일 실시예에 따르면, 인물의 감정 변화를 유도하는 프레임을 식별하는 단계는, 감정을 복수의 감정 항목으로 나눈 후, 상기 제1 프레임의 상기 인물의 표정에 따라 상기 복수의 감정 항목의 확률값을 도출하는 단계; 상기 제1 프레임을 포함한 상기 반응 동영상 내 복수의 프레임의 각 감정 항목별 평균 변화량을 계산하는 단계; 및 상기 각 감정 항목별 평균 변화량보다 큰 값을 갖는 프레임을 유의미한 프레임으로 분류하는 단계를 포함하는 것일 수 있다. According to an embodiment, the step of identifying a frame inducing a change in emotion of a person may include dividing the emotion into a plurality of emotion items, and then deriving a probability value of the plurality of emotion items according to the expression of the person in the first frame to do; calculating an average change amount for each emotion item of a plurality of frames in the reaction video including the first frame; and classifying a frame having a value greater than the average change amount for each emotion item as a meaningful frame.

일 실시예에 따르면, 판별된 객체의 상기 인물의 감정 변화 정도를 정량화하는 단계는, 식별된 각각의 객체가 등장하는 제1 프레임의 앞뒤 프레임에 대응하는 반응 동영상의 인물의 감정 항목별 평균 변화율값을 계산한 후, 상기 각 감정 항목별 평균 변화량과 상기 제1 프레임의 상기 복수의 감정 항목의 확률값에 기초하여 상기 객체에 대한 상기 인물의 감정을 분석하는 것일 수 있다. According to an embodiment, the step of quantifying the degree of emotional change of the person of the determined object may include an average change rate value for each emotion item of a person in a reaction video corresponding to the front and rear frames of the first frame in which each identified object appears. After calculating , the emotion of the person with respect to the object may be analyzed based on the average change amount for each emotion item and the probability values of the plurality of emotion items of the first frame.

일 실시예에 따르면, 판별된 객체의 상기 인물의 감정 변화 정도를 정량화하는 단계는, 상기 제1 프레임이 다중 객체를 포함하는 경우, 각각의 객체에 대하여 상기 제1 프레임의 앞뒤 프레임의 객체 등장유무에 기초하여 감정값에 미치는 객체의 순위를 설정하는 단계를 포함하는 것일 수 있다. According to an embodiment, quantifying the degree of emotional change of the person of the determined object may include, when the first frame includes multiple objects, the presence or absence of objects in frames before and after the first frame for each object It may include the step of setting the ranking of the object on the emotion value based on the.

일 실시예에 따르면, 객체의 순위를 설정하는 단계는, 상기 앞뒤 프레임에 해당 객체가 등장하지 않는 객체의 순위를 최우선으로 하고, 앞뒤 프레임중 어느 하나에만 해당 객체가 등장하는 객체의 순위를 차순위로 하는 것일 수 있다. According to one embodiment, in the step of setting the rank of the object, the priority of the object in which the corresponding object does not appear in the front and rear frames is given priority, and the ranking of the object in which the corresponding object appears only in one of the front and rear frames is the next priority. may be doing

본 발명은 컴퓨터 프로그램이 프로세서에 의해 실행될 때, 상술된 방법이 수행되는 컴퓨터 프로그램을 저장한 컴퓨터-판독가능 저장 매체를 제공한다.The present invention provides a computer-readable storage medium storing a computer program in which the above-described method is performed when the computer program is executed by a processor.

본 발명에 개시된 일 실시예에 따르면, 광고 및 홍보 관련 분야에서 컨텐츠를 시청한 시청자들이 느끼는 감정에 관하여 일일이 조사를 수행하지 않아도, 본 발명에 의해 도출되는 감정 객체 분석 결과에 따라 대상 동영상 내의 각 객체와 시청자의 감정 간의 관계를 파악할 수 있는 효과가 있다.According to an embodiment disclosed in the present invention, each object in the target video according to the analysis result of the emotional object derived by the present invention without conducting individual research on the emotions felt by viewers who have watched the content in the fields related to advertisement and publicity It has the effect of understanding the relationship between and the viewer's emotions.

뿐만 아니라, 본 발명에 개시된 다른 실시예에 따르면, 컨텐츠 제작자들이 시청자들로 하여금 원하는 감정을 이끌어내고 싶을 때, 본 발명에 의해 도출되는 감정 객체 분석 결과에 기초하여 컨텐츠를 제작할 수 있다. 이러한 경우, 컨텐츠 제작자들이 원하는 시청자들의 반응을 더 쉽게 이끌어낼 수 있는 컨텐츠 제작이 가능하다.In addition, according to another embodiment disclosed in the present invention, when content creators want to elicit a desired emotion from viewers, they can produce content based on the emotional object analysis result derived by the present invention. In this case, it is possible for content creators to produce content that can more easily elicit a desired audience response.

도 1은 대상 동영상 및 반응 동영상을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 대상 동영상에 포함된 객체에 대한 반응 동영상 내 인물의 감정을 분석하는 감정 객체 분석 장치의 블록도이다.
도 3은 본 발명의 다른 실시예에 따른 대상 동영상에 포함된 객체에 대한 반응 동영상 내 인물의 감정을 분석하는 감정 객체 분석 장치의 블록도이다.
도 4는 본 발명의 일 실시예에 따른 구간 분리부의 동작을 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 감정 분석부가 각 감정 항목의 확률값을 도출하는 방법을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른 감정 분석부에 의해 분석되는 대상 동영상의 감정값의 시계열 그래프이다.
도 7은 본 발명의 일 실시예에 따른 객체의 감정 영향력 분석 알고리즘의 수도코드의 일 예를 나타내는 도면이다.
도 8 내지 도 10은 본 발명의 일 실시예에 따른 감정 객체 분석 장치의 실험 결과를 설명하기 위한 도면이다.
도 11은 본 발명의 일 실시예에 따른 감정 객체 분석 방법을 설명하기 위한 흐름도이다.
1 is a diagram for explaining a target video and a reaction video.
2 is a block diagram of an apparatus for analyzing an emotion object for analyzing the emotion of a person in a reaction video to an object included in the target video according to an embodiment of the present invention.
3 is a block diagram of an emotion object analysis apparatus for analyzing a person's emotion in a reaction video to an object included in a target video according to another embodiment of the present invention.
4 is a view for explaining the operation of the section dividing unit according to an embodiment of the present invention.
5 is a diagram for explaining a method of deriving a probability value of each emotion item by an emotion analysis unit according to an embodiment of the present invention.
6 is a time series graph of emotion values of a target video analyzed by an emotion analysis unit according to an embodiment of the present invention.
7 is a diagram illustrating an example of a capital code of an algorithm for analyzing the emotional influence of an object according to an embodiment of the present invention.
8 to 10 are diagrams for explaining experimental results of the apparatus for analyzing an emotional object according to an embodiment of the present invention.
11 is a flowchart illustrating a method for analyzing an emotion object according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.Since the present invention can have various changes and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and it should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention. In describing each figure, like reference numerals have been used for like elements.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, and B may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component. and/or includes a combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When an element is referred to as being “connected” or “connected” to another element, it is understood that it may be directly connected or connected to the other element, but other elements may exist in between. it should be On the other hand, when it is said that a certain element is "directly connected" or "directly connected" to another element, it should be understood that the other element does not exist in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세하게 설명한다.Unless defined otherwise, all terms used herein, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 대상 동영상 및 반응 동영상을 설명하기 위한 도면이다.1 is a diagram for explaining a target video and a reaction video.

대상 동영상은 시청자가 시청하는 동영상을 의미하고, 반응 동영상은 대상 동영상을 시청하는 시청자의 모습을 촬영한 동영상을 의미한다. 종래의 시청자들은 대상 동영상에 대한 자신의 감정을 댓글과 같은 텍스트 형태로 표현하였으나, 최근 대상 동영상에 대한 자신의 감정을 동영상 형태로 표현하는 시청자들이 증가하고 있다.The target video means a video viewed by the viewer, and the reaction video means a video captured by the viewer watching the target video. Conventional viewers express their emotions toward the target video in the form of text, such as comments, but recently, the number of viewers expressing their emotions toward the target video in the form of a video is increasing.

본 발명의 설명에 앞서, 본 명세서에서 지칭하는 감정 객체는 해당 객체에 대하여 특정 감정을 유발하는 객체를 의미한다. Prior to the description of the present invention, the emotional object referred to herein means an object that induces a specific emotion with respect to the corresponding object.

도 1은 대상 동영상(120)과 대상 동영상(120)을 시청하는 시청자(115)의 모습이 촬영된 반응 동영상(110)의 일 예를 나타낸 도면이다. 도 1을 참고하면, 대상 동영상(120)이 여가수(125)의 뮤직 비디오인 경우 대상 동영상(120)을 시청하는 시청자(115)는 자신의 즐거운 감정을 반응 동영상(110)을 통해 표현할 수 있다. 이때 대상 동영상(120)에 등장하는 여가수(125)는 대상 동영상에 포함된 하나의 객체로 볼 수 있다. 1 is a diagram illustrating an example of a reaction video 110 in which a target video 120 and a viewer 115 watching the target video 120 are captured. Referring to FIG. 1 , when the target video 120 is a music video of the female singer 125 , the viewer 115 watching the target video 120 may express their pleasant emotions through the reaction video 110 . In this case, the singer 125 appearing in the target video 120 can be viewed as one object included in the target video.

본 발명의 일 실시예에 따른 대상 동영상을 시청하는 반응 동영상 내 인물의 감정에 기초하여 감정 객체 분석 방법 및 장치는 대상 동영상에 대한 반응 동영상을 수집한 후, 반응 동영상 내 인물의 감정 변화량을 측정하여, 측정 결과에 따라 대상 동영상에 포함된 복수의 객체 중에서, 시청자로부터 특정 감정을 유도하는 특정 객체를 판별하여, 각 객체에 대한 각 감정 항목 간의 관계를 분석할 수 있다. 또한, 각 객체에 대한 감정 항목 간의 관계에 기초하여 정의된 감정별 객체 사전을 구축할 수 있다. On the basis of the emotion of the person in the reaction video watching the target video according to an embodiment of the present invention, the method and apparatus for analyzing an emotion object collects the reaction video for the target video, and then measures the change in the emotion of the person in the reaction video , from among a plurality of objects included in the target video according to the measurement result, a specific object that induces a specific emotion from the viewer may be determined, and the relationship between each emotion item for each object may be analyzed. In addition, it is possible to build an object dictionary for each emotion defined based on the relationship between emotion items for each object.

도 2는 본 발명의 일 실시예에 따른 대상 동영상에 포함된 객체에 대한 반응 동영상 내 인물의 감정을 분석하는 감정 객체 분석 장치의 블록도이다.2 is a block diagram of an apparatus for analyzing an emotion object for analyzing the emotion of a person in a reaction video to an object included in the target video according to an embodiment of the present invention.

일 실시예에 따른 감정 객체 분석 장치(200)는 영상 수집부(210), 프레임 추출부(220), 감정 분석부(230), 객체 분석부(240) 및 정보 제공부(250)를 포함할 수 있다. 감정 객체 분석 장치(200)에 포함된 구성요소는 설명의 편의를 위해 기능으로 구분되어 있으나, 일부 구성요소를 병합하여 하나의 구성요소로 할 수 있으며, 감정 객체 분석 장치(200)가 이외 다른 구성요소를 더 포함할 수 있음은 당해 기술분야의 통상의 기술자에게 자명하다.The emotional object analyzing apparatus 200 according to an embodiment may include an image collecting unit 210 , a frame extracting unit 220 , an emotion analyzing unit 230 , an object analyzing unit 240 , and an information providing unit 250 . can Components included in the emotional object analysis apparatus 200 are divided into functions for convenience of explanation, but some components may be merged into one component, and the emotional object analysis apparatus 200 may have other components. It is apparent to those skilled in the art that it may further include elements.

영상 수집부(210)는 대상 동영상에 관한 정보가 수신되면, 대상 동영상을 시청하는 인물이 촬영된 반응 동영상을 수집할 수 있다. 이때 영상 수집부(210)는 대상 동영상에 대한 하나 이상의 반응 동영상을 수집할 수 있다. 또한, 영상 수집부(210)가 수신하는 대상 동영상에 관한 정보는 대상 동영상 자체이거나 대상 동영상의 위치를 나타내는 URL(Uniform Resource Locator)일 수 있다.When information on the target video is received, the image collection unit 210 may collect a reaction video in which a person watching the target video is captured. In this case, the image collection unit 210 may collect one or more reaction videos for the target video. Also, the information about the target video received by the image collection unit 210 may be the target video itself or a Uniform Resource Locator (URL) indicating the location of the target video.

프레임 추출부(220)는 대상 동영상 및 반응 동영상 중 적어도 하나를 소정의 시간 간격으로 분리하여 프레임을 추출할 수 있다. 예를 들어, 프레임 추출부(220)는 대상 동영상 및 반응 동영상에 대하여 각각 0.1초 간격으로 jpg 형식의 프레임을 추출할 수 있다. The frame extraction unit 220 may extract a frame by separating at least one of a target video and a reaction video at a predetermined time interval. For example, the frame extractor 220 may extract a jpg format frame from each of the target video and the reaction video at 0.1 second intervals.

감정 분석부(230)는 수집된 반응 동영상으로부터 추출된 각 프레임에 포함된 인물의 표정에 기초하여 상기 인물의 감정을 분석하여 감정 변화 정도를 분석한다. The emotion analyzer 230 analyzes the emotion of the person based on the expression of the person included in each frame extracted from the collected reaction video and analyzes the degree of emotional change.

일 실시예에서, 감정 분석부(230)는 표정 분석 모듈(232)과 감정 변화량 측정 모듈(234)을 포함할 수 있다. In an embodiment, the emotion analysis unit 230 may include an expression analysis module 232 and an emotion variation measurement module 234 .

표정 분석 모듈(232)은 수집된 반응 동영상으로부터 추출된 제1 프레임에 포함된 인물의 표정에 기초하여 인물의 감정을 분석할 수 있다. The expression analysis module 232 may analyze the emotion of the person based on the expression of the person included in the first frame extracted from the collected reaction video.

일 실시예에 따른 표정 분석 모듈(232)은 감정을 복수의 감정 항목으로 나눈 후, 제1 프레임 내 인물의 표정에 따라, 복수의 감정 항목의 확률값을 도출한다. The expression analysis module 232 according to an embodiment divides the emotion into a plurality of emotion items, and then derives probability values of the plurality of emotion items according to the expression of the person in the first frame.

감정 변화량 측정 모듈(234)은 도출된 감정의 확률값에 기초하여 시계열 그래프를 생성하고 감정 변화량을 측정한다. 각 감정별로 평균 변화량을 도출하여, 이보다 큰 변화량을 가진 구간(또는 프레임) 유의미하다고 판단하여 선별한다. 선별된 구간(또는 프레임)의 모든 프레임 이미지를 객체 분석부(240)에 전달한다.The emotion change amount measurement module 234 generates a time series graph based on the derived probability value of emotion and measures the emotion change amount. The average amount of change for each emotion is derived, and a section (or frame) with a greater amount of change is determined to be significant and selected. All frame images of the selected section (or frame) are transmitted to the object analysis unit 240 .

객체 분석부(240)는 상기 감정 변화 정도에 기초하여 상기 대상 동영상에 포함된 프레임 중에서 상기 인물의 감정 변화를 유도하는 객체를 판별하고, 판별된 객체의 상기 인물의 감정 변화 정도를 정량화한다. The object analysis unit 240 determines an object that induces a change in emotion of the person from among the frames included in the target video based on the degree of change in emotion, and quantifies the degree of change in emotion of the person in the determined object.

객체 분석부(240)는 객체 판별 모듈(242) 및 객체 감정값 추출 모듈(244)을 포함할 수 있다. The object analyzer 240 may include an object determination module 242 and an object emotion value extraction module 244 .

일 실시예에 따른 객체 판별 모듈(242)은 감정 변화량 측정 모듈(234)에서 선별된 유의미한 프레임에 포함된 객체를 추출한다. 객체 판별 모듈(242)은 딥러닝 알고리즘에 기초하여 동작이 수행될 수 있다.The object determination module 242 according to an embodiment extracts an object included in the meaningful frame selected by the emotion variation measurement module 234 . The object determination module 242 may perform an operation based on a deep learning algorithm.

일 실시예에 따른 객체 감정값 추출 모듈(244)은 객체가 감정에 미치는 영향력을 분석하여 판별된 객체의 상기 인물의 감정 변화 정도를 정량화한다. The object emotion value extraction module 244 according to an embodiment quantifies the degree of change in emotion of the person of the determined object by analyzing the influence of the object on emotion.

정보 제공부(250)는 객체 분석부(240)에서 판별된 객체 및 상기 판별된 객체와 대응하는 상기 인물의 감정 변화 정도를 저장하고 상기 저장된 내용을 출력한다. The information providing unit 250 stores the object determined by the object analysis unit 240 and the degree of emotional change of the person corresponding to the determined object, and outputs the stored content.

일 실시예에 따른 정보 제공부(250)는 미리 설정된 감정 항목에 대한 감정 변화 정도가 큰 순서대로 객체를 정렬하여 감정별 객체 사전을 생성하여 저장한다. The information providing unit 250 according to an exemplary embodiment creates and stores an object dictionary for each emotion by arranging objects in the order of the greatest degree of emotion change for a preset emotion item.

감정별 객체 사전은 대상 동영상을 분류한 카테고리, 감정항목별 객체명, 각 객체의 감정 변화율, 객체의 순위 등을 포함한다. 객체의 순위에 대하여는 도 9를 참조하여 후술하기로 한다. The object dictionary for each emotion includes a category into which a target video is classified, an object name for each emotion item, an emotion change rate of each object, an object rank, and the like. The ranking of objects will be described later with reference to FIG. 9 .

도 3은 본 발명의 다른 실시예에 따른 대상 동영상에 포함된 객체에 대한 반응 동영상 내 인물의 감정을 분석하는 감정 객체 분석 장치를 설명하기 위한 도면이다.3 is a view for explaining an emotion object analysis apparatus for analyzing the emotion of a person in a reaction video to an object included in the target video according to another embodiment of the present invention.

본 발명의 다른 실시예에 따른 감정 객체 분석 장치(300)는 영상 수집부(310), 전처리부(315), 프레임 추출부(320), 구간 분리부(325), 감정 분석부(330), 객체 분석부(340) 및 정보 제공부(270)를 포함할 수 있다. 감정 객체 분석 장치(300)에 포함된 구성요소는 설명의 편의를 위해 기능으로 구분되어 있으나, 일부 구성요소를 병합하여 하나의 구성요소로 할 수 있으며, 감정 객체 분석 장치(200)가 이외 다른 구성요소를 더 포함할 수 있음은 당해 기술분야의 통상의 기술자에게 자명하다.The emotional object analysis apparatus 300 according to another embodiment of the present invention includes an image collecting unit 310 , a preprocessing unit 315 , a frame extracting unit 320 , a section dividing unit 325 , an emotion analyzing unit 330 , It may include an object analysis unit 340 and an information providing unit 270 . Components included in the emotional object analysis apparatus 300 are divided into functions for convenience of explanation, but some components may be merged into one component, and the emotional object analysis apparatus 200 may have other components. It is apparent to those skilled in the art that it may further include elements.

도 3을 참고하면 감정 객체 분석 장치(300)의 영상 수집부(310)는 분석하고자 하는 대상 동영상에 관한 정보가 수신되면 대상 동영상과 그에 대응하는 반응 동영상을 수집할 수 있다. Referring to FIG. 3 , when information on a target video to be analyzed is received, the image collection unit 310 of the emotional object analysis apparatus 300 may collect a target video and a corresponding reaction video.

이때, 수집된 반응 동영상은 전처리부(315)에 전달될 수 있으며, 전처리부(315)는 반응 동영상 내 인물이 대상 동영상에 대해서 반응하는 모습이 포함된 반응 동영상의 일 부분을 추출하여 프레임 추출부(320)에 전달할 수 있다. 이에 따라 감정 객체 분석 장치(300)는 대상 동영상에 반응하는 인물이 포함된 반응 동영상의 일 부분에 대해서만 감정 분석을 수행할 수 있기 때문에, 소비자원량을 감소시킬 수 있는 효과가 있다.At this time, the collected reaction video may be transmitted to the pre-processing unit 315, and the pre-processing unit 315 extracts a portion of the reaction video including a figure in which a person in the reaction video reacts to the target video to extract a frame It can be passed to (320). Accordingly, since the emotional object analysis apparatus 300 can perform emotion analysis on only a part of the reaction video including the person responding to the target video, there is an effect that can reduce the consumption amount.

프레임 추출부(320)는 대상 동영상 및 반응 동영상 중 적어도 하나를 소정의 시간 간격으로 분리하여 프레임을 추출할 수 있다. 예를 들어, 프레임 추출부(320)는 대상 동영상 및 반응 동영상에 대하여 각각 0.1초 간격으로 jpg 형식의 프레임을 추출할 수 있다. The frame extraction unit 320 may extract a frame by separating at least one of a target video and a reaction video at a predetermined time interval. For example, the frame extraction unit 320 may extract a jpg format frame from each of the target video and the reaction video at 0.1 second intervals.

이후 구간 분리부(325)는 프레임 추출부(320)로부터 대상 동영상의 각 프레임을 수신하고 대상 동영상에 포함된 프레임들 간의 유사도에 기초하여, 유사한 프레임들을 동일 구간으로 병합하여 감정 분석부(330)에 전달할 수 있다. 구간 분리부(325)를 통해 대상 동영상의 유사한 프레임들이 동일 구간으로 병합되는 경우, 대상 동영상에서 분석에 필요한 프레임의 수는 감소하기 때문에, 소비 자원량을 감소시킬 수 있는 효과가 있다.Thereafter, the section separator 325 receives each frame of the target video from the frame extractor 320 and merges the similar frames into the same section based on the degree of similarity between frames included in the target video to perform the emotion analysis unit 330 . can be forwarded to When similar frames of the target video are merged into the same section through the section separator 325 , the number of frames required for analysis in the target video is reduced, thereby reducing the amount of resources consumed.

한편 대상 동영상의 프레임들 간의 유사도를 판단하는 기준은 아래에서 자세하게 설명한다.Meanwhile, a criterion for determining the similarity between frames of a target video will be described in detail below.

도 4는 본 발명의 일 실시예에 따른 구간 분리부의 동작을 설명하기 위한 도면이다. 4 is a view for explaining the operation of the section dividing unit according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 구간 분리부(도 3의 325)는 OpenCV의 SIFT 알고리즘에 기초하여 수행될 수 있으나, 구간 분리부(도 3의 325)에 활용될 수 있는 알고리즘이 이에 제한되지 않음은 당해 기술분야의 통상의 기술자에게 자명하다.The section dividing unit (325 in FIG. 3) according to an embodiment of the present invention may be performed based on the SIFT algorithm of OpenCV, but the algorithm that can be used in the section dividing unit (325 in FIG. 3) is not limited thereto. is apparent to those skilled in the art.

만약 구간 분리부(도 3의 325)가 OpenCV의 SIFT 알고리즘에 기초하는 경우, 프레임 추출부(도 3의 320)에 의해 추출된 대상 동영상의 전후(前後) 프레임에 포함된 객체들이 동일한 배경에서 크기만 변하거나 회전된 정도라면, 해당 전후 프레임은 유사한 프레임으로 판단되어 동일 구간으로 병합될 수 있다. If the section dividing unit (325 in FIG. 3) is based on the SIFT algorithm of OpenCV, objects included in the front and rear frames of the target video extracted by the frame extracting unit (320 in FIG. 3) are the same size in the background. only changed or rotated, the corresponding front and rear frames are determined to be similar frames and may be merged into the same section.

도 4를 참고하면, 대상 동영상에 포함된 전(前) 프레임의 객체(410)와 후(後) 프레임의 객체(420)가 동일한 배경 상에서 변화가 거의 없으므로 구간 분리부(325)에 의해 도 4의 전후 프레임은 동일 구간으로 병합되어 감정 분석부(도 3의 340)에 전달될 수 있다. Referring to FIG. 4 , since the object 410 of the previous frame and the object 420 of the next frame included in the target video hardly change on the same background, the Frames before and after are merged into the same section and transmitted to the emotion analyzer ( 340 of FIG. 3 ).

다시 도 3을 참고하면, 감정 분석부(330)는 반응 동영상에 등장하는 인물의 표정을 8가지 감정 항목으로 나누어 각 프레임 내 인물의 각 감정 항목의 확률값을 도출할 수 있다. 한편, 인물의 표정을 복수의 감정 항목으로 나누어 각 감정 항목의 확률값을 도출하는 방법은 이하에서 자세하게 설명한다.Referring back to FIG. 3 , the emotion analysis unit 330 may derive a probability value of each emotion item of the person in each frame by dividing the expression of the person appearing in the reaction video into eight emotion items. Meanwhile, a method of deriving a probability value of each emotion item by dividing the expression of a person into a plurality of emotion items will be described in detail below.

도 5는 본 발명의 일 실시예에 따른 감정 분석부가 각 감정 항목의 확률값을 도출하는 방법을 설명하기 위한 도면이다. 5 is a diagram for explaining a method of deriving a probability value of each emotion item by an emotion analysis unit according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 감정 분석부(도 3의 330)는 반응 동영상 속 인물의 감정을 분석하기 위해 Microsoft Azure의 Face API를 활용할 수 있으나, 감정 분석부(도 3의 330)가 활용할 수 있는 알고리즘이 이에 제한되지 않음은 당해 기술분야의 통상의 기술자에게 자명하다.The emotion analysis unit (330 in FIG. 3) according to an embodiment of the present invention may utilize the Face API of Microsoft Azure to analyze the emotion of a person in the reaction video, but the emotion analysis unit (330 in FIG. 3) may use it It will be apparent to those skilled in the art that the available algorithm is not limited thereto.

예를 들어, Face API 알고리즘을 이용하여 도 5의 (a)의 프레임에 포함된 인물의 감정 항목의 확률값을 도출하면 도 5의 (b)와 같은 결과를 얻을 수 있다. 도 5의 (b)를 참고하면, Face API 알고리즘을 통해 도출되는 감정 항목은 분노(anger), 즐거움(happniess), 슬픔(sadness), 혐오감(disgust), 경멸(contempt), 공포(fear), 놀람(surprise), 자제된 감정(neutral)을 포함할 수 있으며, 각 감정 항목의 확률 값은 0과 1사이의 정수 값으로 표현될 수 있다. 그러나, 상술된 감정 항목의 수와 감정 항목의 구체적인 내용은 이에 제한되지 않는다.For example, if the probability value of the emotion item of the person included in the frame of FIG. 5(a) is derived using the Face API algorithm, the same result as that of FIG. 5(b) can be obtained. Referring to Figure 5 (b), the emotion items derived through the Face API algorithm are anger, pleasure, sadness, disgust, contempt, fear, It may include surprise and neutral emotion, and the probability value of each emotion item may be expressed as an integer value between 0 and 1. However, the number of the above-described emotion items and specific content of the emotion items are not limited thereto.

본 발명의 일 실시예에 따른 감정 객체 분석 장치(도 3의 300)은 프레임 추출부(도 3의 320)에 의해 추출된 반응 동영상의 각 프레임을 순서대로 Face API 알고리즘에 입력함으로써, 각 프레임에 포함된 인물에 관하여 8가지 감정의 확률값을 획득할 수 있다. 이후 구간 분리부(도 3의 325)로부터 수신된 대상 동영상의 분리된 구간을 기준으로 구간별 평균 감정 확률값을 계산할 수 있다.The emotional object analysis apparatus (300 in FIG. 3) according to an embodiment of the present invention sequentially inputs each frame of the reaction video extracted by the frame extraction unit (320 in FIG. 3) to the Face API algorithm, so that each frame Probability values of 8 emotions can be obtained with respect to the included person. Thereafter, an average emotion probability value for each section may be calculated based on the separated sections of the target video received from the section separator ( 325 of FIG. 3 ).

다시 도 3을 참고하면, 감정 분석부(330)는 반응 동영상의 각 프레임에 포함된 인물의 각 감정 항목의 확률값에 기초하여 시계열 그래프를 생성하고 감정 변화량을 측정할 수 있다. Referring back to FIG. 3 , the emotion analysis unit 330 may generate a time series graph based on the probability value of each emotion item of a person included in each frame of the reaction video and measure the change in emotion.

또한 반응 동영상의 복수의 프레임에 대하여 각 감정 항목별 평균 변화량을 도출하여, 각 프레임에 대한 감정 항목의 확률값이 평균 변화량보다 큰 변화량을 가지는 경우, 이에 대응하는 대상 동영상의 프레임을 감정 변화를 유도하는 프레임으로 식별한다. In addition, by deriving the average amount of change for each emotion item with respect to a plurality of frames of the reaction video, when the probability value of the emotion item for each frame has a larger amount of change than the average amount of change, the corresponding frame of the target video induces emotional change identified by frame.

이후 감정 객체 분석 장치(300)는 감정 변화를 유도하는 것으로 식별된 대상 동영상의 프레임을 객체 분석부(340)에 전송한다. Thereafter, the emotional object analyzing apparatus 300 transmits the frame of the target video identified as inducing the emotional change to the object analyzing unit 340 .

도 6은 본 발명의 일 실시예에 따른 감정 분석부에 의해 분석되는 대상 동영상의 감정값의 시계열 그래프이다. 도 6의 그래프에서 x축은 영상의 구간을 나타내고, y축은 감정 정도(감정 정량화 값)을 나타낸다. 6 is a time series graph of emotion values of a target video analyzed by an emotion analysis unit according to an embodiment of the present invention. In the graph of FIG. 6 , the x-axis represents an image section, and the y-axis represents the degree of emotion (quantified emotion value).

한편, 도 6에 도시된 그래프의 각 감정 항목에 대응하는 색상은 표 1과 같다.Meanwhile, the color corresponding to each emotion item of the graph shown in FIG. 6 is shown in Table 1.

감정emotion 색상colour 감정emotion 색상colour angeranger 파란색blue happinesshappiness 보라색purple contemptcontempt 초록색green neutralneutral 연두색light green disgustdisgust 빨간색Red sadnesssadness 검은색Black color fearfear 하늘색Sky blue surprisesurprise 주황색Orange

도 6의 (a)에서는 neutral 감정을 제외하고, happy 감정이 우세한 것을 볼 수 있다. 또한, 도 6의 (a)에서 초반에는 happy 감정이 큰 반면, 시간이 흐를수록 happy의 값이 감소하고, anger와 surprise의 감정이 크게 증가하였다가 다시 happy의 값이 커지는 감정의 흐름을 관측할 수 있다. 도 6의 (b)에서는 전체적으로 모든 감정의 값이 크게 요동치는 것을 관찰 할 수 있다. 또한 도 6의 (b)에서는 sadness의 값이 전체적으로 많이 분포되어있음을 보아 대상 동영상이 대체적으로 암울한 분위기임을 살필 수 있다. In (a) of FIG. 6 , it can be seen that the happy emotion is dominant except for the neutral emotion. In addition, in Fig. 6(a), while happy emotions are large at the beginning, as time goes by, the values of happy decrease, the emotions of anger and surprise greatly increase, and then it is possible to observe the flow of emotions in which the values of happy increase again. can In (b) of FIG. 6 , it can be observed that the values of all emotions largely fluctuate. In addition, in (b) of FIG. 6 , it can be seen that the target video has a generally gloomy atmosphere, as the value of sadness is widely distributed throughout.

다시 도 3을 참고하면, 객체 분석부(340)는 유의미한 프레임에 등장하는 객체를 추출한다. 이때, 일 실시예에 따른 객체 분석부(340)는 대상 동영상의 해당 프레임에서 객체를 검출하기 위해 YOLO 알고리즘을 적용할 수 있으나, 객체 검출을 위해 활용될 수 있는 알고리즘은 이에 제한되지 않는다.Referring again to FIG. 3 , the object analysis unit 340 extracts an object appearing in a meaningful frame. In this case, the object analyzer 340 according to an embodiment may apply the YOLO algorithm to detect an object in a corresponding frame of the target video, but an algorithm that can be used for object detection is not limited thereto.

또한, 일 실시예에 따른 객체 분석부(340)는 객체가 감정에 미치는 영향력을 분석하여 판별된 객체의 상기 인물의 감정 변화 정도를 정량화한다. In addition, the object analysis unit 340 according to an embodiment analyzes the influence of the object on the emotion and quantifies the degree of change in the person's emotion of the determined object.

객체 분석부(340)는 유의미한 구간에 등장하는 객체가 감정에 미치는 영향력을 분석하기 위해서는 앞뒤 구간(또는 프레임)에 대응하는 반응 동영상의 인물(시청자)의 감정의 변화율을 분석하여야 한다. The object analysis unit 340 must analyze the rate of change of emotion of a person (viewer) of the reaction video corresponding to the front and rear sections (or frames) in order to analyze the influence of the object appearing in the meaningful section on emotion.

도 7은 본 발명의 일 실시예에 따른 객체의 감정 영향력 분석 알고리즘의 수도코드의 일 예를 나타내는 도면이다. 7 is a diagram illustrating an example of a capital code of an algorithm for analyzing the emotional influence of an object according to an embodiment of the present invention.

도 7을 참조하면 알 수 있는 바와 같이, 감정 영향력 분석 알고리즘은 앞뒤 구간의 객체 등장유무에 기초하여 객체의 감정값을 분석한다. 보다 구체적으로 감정 영향력 분석 알고리즘은 앞뒤 구간의 객체 개수와 비교하여 앞뒤에 존재, 앞이나 뒤 중 하나만 존재, 둘 다 존재하지 않음의 3가지로 분류한 후, 분류된 구간에서의 감정값을 추출한다. As can be seen with reference to FIG. 7 , the emotion influence analysis algorithm analyzes the emotion value of the object based on the presence or absence of the object in the front and rear sections. More specifically, the emotion influence analysis algorithm compares the number of objects in the front and rear sections, classifies them into three categories: presence of front and rear, only one of the front or back, and neither exists, and then extracts the emotion value in the classified section. .

먼저, 입력 데이터는 유의미한 구간의 번호와 모든 구간에 대한 문자열 정보이다. 모든 구간에 대해서 구간별 객체의 1차원 배열들의 집합으로 2차원 배열을 구성하여 객체 배열을 만든다. 그 후, 모든 유의미한 구간에 대해서 객체가 존재한다면 앞 뒤 구간을 살핀다. 해당 구간에서 검출된 객체에 대해서 3가지로 분류하는데 앞뒤 모든 구간에서 등장하였을 경우 "AllSection", 앞뒤 중 하나의 구간에서만 등장하였을 경우 "FrontOrRearSection", 앞뒤 어느 구간에도 등장하지 않았을 경우 "NotAnySection"으로 분류한다. 해당 구간의 객체 가"AllSection"으로 분류 될 경우, 해당 구간의 유의미한 감정 변화율이 검출된 객체로 인한 것이라고 판단하여 객체를 제거한다. 해당 구간의 객체가 "FrontOrRearSection"으로 분류될 경우, 앞뒤 구간 중 해당 객체가 등장하지 않은 구간과의 감정 변화율 값을 계산하여 객체의 감정값 추출기에 적용한다. 해당 구간의 객체가 "NotAnySection"으로 분류될 경우, 앞뒤 구간 모두의 감정 변화율값을 계산하여 이를 평균 내어 객체의 감정값 추출기에 적용한다. 또한, 객체가 1개 이상인 다중 객체의 경우 분류된 카테고리에 따라서 "NotAnySection", "FrontOrRearSection", "AllSection" 순으로 높은 값을 적용하여 순위를 매긴다.First, the input data is a number of meaningful sections and character string information for all sections. For all sections, the object array is created by composing a two-dimensional array with a set of one-dimensional arrays of objects for each section. After that, if the object exists for all significant sections, the front and back sections are checked. Objects detected in the relevant section are classified into three categories: “AllSection” when they appear in all sections before and after, “FrontOrRearSection” when they appear in only one section before and after, and “NotAnySection” when they do not appear in either section before or after. do. If the object in the corresponding section is classified as “AllSection”, it is determined that the meaningful rate of change of emotion in the corresponding section is due to the detected object, and the object is removed. When the object in the corresponding section is classified as “FrontOrRearSection”, the emotion change rate value with the section in which the object does not appear among the front and rear sections is calculated and applied to the emotion value extractor of the object. When the object in the corresponding section is classified as “NotAnySection”, the emotion change rate values of both the front and rear sections are calculated, averaged, and applied to the emotion value extractor of the object. In addition, in the case of multiple objects with one or more objects, the highest values are applied in the order of "NotAnySection", "FrontOrRearSection", and "AllSection" according to the classified category to rank.

다시 도 3으로 되돌아와서, 정보 제공부(350)는 객체 분석부(340)에서 판별된 객체 및 상기 판별된 객체와 대응하는 상기 인물의 감정 변화 정도를 저장하고, 필요에 따라 상기 저장된 내용을 출력한다. 3, the information providing unit 350 stores the object determined by the object analysis unit 340 and the degree of emotional change of the person corresponding to the determined object, and outputs the stored content as necessary. do.

또한, 일 실시예에 따른 정보 제공부(350)는 미리 설정된 감정 항목에 대한 감정 변화 정도가 큰 순서대로 객체를 정렬하여 감정별 객체 사전을 생성하여 저장하고, 필요에 따라 상기 저장된 내용을 출력한다. In addition, the information providing unit 350 according to an embodiment sorts the objects in the order of the greatest degree of emotional change for a preset emotion item, creates and stores an object dictionary for each emotion, and outputs the stored content as necessary. .

한편, 상술된 예시와 같이 분석된 결과를 테이블 형태로 저장하면, 컨텐츠 내의 각 객체에 대응하는 감정 항목별 추천도를 목록화하여 사용자에게 제공할 수 있다.On the other hand, if the analyzed result is stored in the form of a table as in the above-described example, it is possible to list and provide recommendations for each emotion item corresponding to each object in the content to the user.

도 8 내지 도 10은 본 발명의 일 실시예에 따른 감정 객체 분석 장치의 실험 결과를 설명하기 위한 도면이다.8 to 10 are diagrams for explaining experimental results of the apparatus for analyzing an emotional object according to an embodiment of the present invention.

도 8 내지 도 10의 결과를 도출하기 위해, 객체 분석부를 포함하는 딥러닝 서버 1대를 활용하였다. 해당 서버의 사양은 Intel Xeon E5-2630V3, 옥타 코어, 캐시는 20MB이며 속도는 2.4GHz이다. 실험을 위해 사용된 소프트웨어는 Python 3.5이고, 객체 분석부의 딥러닝 학습을 위해 YOLO v2, CUDA 8.0, cuDNN v5.1을 사용하고 구간 분리부 구현을 위한 소프트웨어로는 OpenCV 3.2버전을 사용하였다.In order to derive the results of FIGS. 8 to 10 , one deep learning server including an object analysis unit was used. The specifications of the server are Intel Xeon E5-2630V3, octa-core, 20MB of cache, and the speed is 2.4GHz. The software used for the experiment was Python 3.5, YOLO v2, CUDA 8.0, and cuDNN v5.1 were used for deep learning of the object analysis part, and OpenCV version 3.2 was used as the software for implementing the section division part.

실험에서 대상 동영상은 ‘아이유 - 팔레트'뮤직 비디오(이하 '제1 대상 동영상'), ‘태연 - something new' 뮤직 비디오(이하 '제2 대상 동영상'), ‘방탄소년단 - 쩔어' 뮤직 비디오(이하 '제3 대상 동영상'), ‘빌리 아일리시 - Bury a friend' 뮤직 비디오(이하 '제4 대상 동영상') 및‘marshmello - happier' 뮤직 비디오(이하 '제5 대상 동영상')이다.In the experiment, the target videos were 'IU - Palette' music video (hereinafter, 'first target video'), 'Taeyeon - something new' music video (hereinafter 'second target video'), and 'BTS - Dope' music video (hereinafter referred to as 'second target video'). '3rd target video'), 'Billie Eilish - Bury a friend' music video (hereinafter 'fourth target video'), and 'marshmello - happier' music video (hereinafter 'fifth target video').

도 8은 5개의 대상 동영상에 대하여, 각각 10개의 반응 동영상의 인물이 각 대상 동영상 시간 순서에 따라 나타내는 8가지 감정 항목별 평균 변화량을 계산하고, SIFT 알고리즘으로 나누어진 구간별로 다시 평균을 내서 표시한 구간별 시계열 감정값 그래프이다. 프레임의 유사도에 따라 일부 프레임들이 동일 구간으로 병합되었기 때문에, 대상 동영상에 따른 유의미한 구간의 개수를 표 2에 나타낸 바와 같이, 제1 대상 동영상은 57개의 구간, 제2 대상 동영상은 13개의 구간, 제3 대상 동영상은 29개의 구간, 제4 대상 동영상은 91개의 구간, 제5 대상 동영상은 90개의 구간으로 나누어진다. 8 shows the average change for each of the 8 emotion items that the person in each of the 10 reaction videos shows according to the time sequence of each target video for 5 target videos, and averaged again for each section divided by the SIFT algorithm. This is a graph of time-series sentiment values for each section. Since some frames were merged into the same section according to the similarity of the frames, as Table 2 shows the number of meaningful sections according to the target video, the first target video has 57 sections, the second target video has 13 sections, and the second target video has 13 sections. The 3 target video is divided into 29 sections, the fourth target video is divided into 91 sections, and the fifth target video is divided into 90 sections.

ContentContent 유의미한 구간significant interval 한국 가수Korean singer IU - palette(제1 동영상)IU - palette (1st video) 5757 Taeyeon - something new(제2 동영상)Taeyeon - something new (2nd video) 1313 BTS - dope(제3 동영상)BTS - dope (3rd video) 2929 외국 가수foreign singer Bilie Eilish - Bury a friend(제4 동영상)Bilie Eilish - Bury a friend (4th video) 9191 marshmello - happier(제5 동영상)marshmello - happy (5th video) 9090

도 8의 (a)는 '아이유 - 팔레트' 뮤직비디오의 유의미한 구간 막대그래프이다. 제1 동영상은 표 2에 도시한 바와 같이, 57개의 유의미한 구간을 갖는다. 57개의 유의미한 구간에서 전체적으로 happiness와 sadness 값이 큰 것을 볼 수 있다. 특히 프레임 1300 이후로 happiness 값이 급격히 커지는 것을 볼 수 있는데 이 구간은 해당 가수의 face 부분이 대부분을 차지하기 때문인 것으로 보인다.Fig. 8 (a) is a bar graph of a significant section of the 'IU - Palette' music video. As shown in Table 2, the first video has 57 significant sections. It can be seen that happiness and sadness values are large overall in 57 significant sections. In particular, it can be seen that the happiness value increases rapidly after frame 1300, and this section seems to be because the face part of the singer occupies most of it.

도 8의 (b)는 '태연 - something new'뮤직비디오의 유의미한 구간 막대그래프이다. 태연 - something new' 뮤직비디오는 표 2에 도시한 바와 같이, 57개의 유의미한 구간을 갖는다. 57개의 유의미한 구간에서 happiness, sadness, surprise가 전체적으로 큰 부분을 차지한다. 해당 콘텐츠의 유의미한 구간은 총 5개로 다른 콘텐츠에 비해 적은 유의미한 구간을 가진 것으로 보아 전체적으로 감정변화가 급격하지 않은 잔잔한 분위기로 추정된다. 유의미한 구간들 중 특히 첫번째 구간인 136~151 구간의 surprise가 가장 큰 값을 보이는데 해당 구간에 총이 등장하기 때문에 시청자의 감정이 surprise를 보이는 것으로 추정된다.8(b) is a histogram of a significant section of the music video 'Taeyeon - something new'. As shown in Table 2, the music video for Taeyeon - something new' has 57 meaningful sections. In 57 meaningful sections, happiness, sadness, and surprise occupy a large part overall. There are a total of 5 meaningful sections of the content, and it is estimated that there are fewer meaningful sections compared to other content. Among the significant sections, especially, surprise in section 136~151, the first section, shows the largest value.

도 8의 (c)는 ‘방탄소년단 - 쩔어' 뮤직비디오의 유의미한 구간 막대그래프이다. 제3 동영상은 표 2에 도시한 바와 같이, 29개의 유의미한 구간을 갖는다. 29개의 유의미한 구간에서 전체적으로 happiness, sadness, surprise 감정이 큰 것을 알 수 있다. 제3 동영상은 다른 대상 동영상과 달리 가수의 얼굴이 대부분을 차지하므로, 제3 동영상을 시청하는 반응 동영상 내의 인물(시청자)의 감정의 변화는 시청자의 가수 선호도에 따른 것으로 추정된다.Fig. 8 (c) is a bar graph of meaningful sections of the music video for 'BTS - Dope'. As shown in Table 2, the third video has 29 significant sections. It can be seen that overall happiness, sadness, and surprise emotions were large in 29 meaningful sections. Since the face of the singer occupies most of the third video unlike other target videos, it is estimated that the change in emotion of a person (viewer) in the reaction video viewing the third video depends on the viewer's preference for singers.

도 8의 (d)는 빌리 아일리시 - Bury a friend'뮤직비디오의 유의미한 구간 막대그래프이다. 제4 동영상은 표 2에 도시된 바와 같이, 91개의 유의미한 구간을 갖는다. 제4 동영상은 유의미한 구간의 수가 많은 것을 보아 시청자의 감정 변화가 큰 것을 알 수 있다. 또한, 제4 동영상은 다른 대상 콘텐츠에 비해 시청자의 감정값 또한 다양하게 등장함을 알 수 있다.FIG. 8(d) is a histogram of significant sections of Billie Eilish - Bury a friend' music video. As shown in Table 2, the fourth video has 91 significant sections. It can be seen that the fourth video has a large number of meaningful sections, indicating a large change in the viewer's emotions. In addition, it can be seen that in the fourth video, the viewer's emotional value also appears in a variety of ways compared to other target content.

도 8의 (e)는 'marshmello - happier'뮤직비디오의 유의미한 구간 막대그래프이다. 제4 동영상은 표 2에 도시된 바와 같이, 91개의 유의미한 구간을 갖는다. 도 8의 (e)는 이 그래프 또한 유의미한 구간의 수가 많은 것을 보아 시청자의 감정 변화가 큰 것을 알 수 있다. 전체적으로는 happiness, sadness, surprise의 감정이 큰 것을 알 수 있다. 특히 초반 부분의 happiness 값이 큰 값을 보이는데 이는 해당 구간이 생일 파티 장면이기 때문이라고 추정할 수 있다.8(e) is a histogram of a significant section of the music video 'marshmello - happier'. As shown in Table 2, the fourth video has 91 significant sections. In FIG. 8(e), it can be seen that this graph also has a large number of meaningful sections, indicating a large change in the viewer's emotions. Overall, it can be seen that the emotions of happiness, sadness, and surprise are large. In particular, the happiness value in the early part shows a large value, which can be inferred because the corresponding section is a birthday party scene.

도 9는 본 발명의 제1 대상 동영상 및 제4 대상 동영상의 유의미한 구간 중 제1 구간의 대표 이미지를 나타낸 도면이고, 도 10은 본 발명의 제1 동영상 및 제4 동영상의 제1 구간의 연속적인 앞 뒤 구간의 감정값 막대 그래프이다. 9 is a view showing a representative image of a first section among significant sections of a first target video and a fourth target video of the present invention, and FIG. 10 is a continuous view of the first section of the first video and fourth video of the present invention. This is a bar graph of emotion values in the front and back sections.

도 9의 (a)는 본 발명의 제1 대상 동영상의 유의미한 구간 중 하나인 835~841의 대표 이미지를 나타낸 도면이고, 도 9의 (b)는 본 발명의 제4 대상 동영상의 유의미한 구간 중 하나인 177~196 의 대표 이미지를 나타낸 도면이다. Figure 9 (a) is a view showing representative images of 835 ~ 841, which is one of the significant sections of the first target video of the present invention, Figure 9 (b) is one of the significant sections of the fourth target video of the present invention It is a drawing showing representative images of people 177~196.

도 10의 (a)는 도 9의 (a)의 제1 구간의 연속적인 앞 뒤 구간의 감정값 막대그래프이고, 도 10의 (b)는 도 9의 (b)의 제1 구간의 연속적인 앞 뒤 구간의 감정값 막대그래프이다. Figure 10 (a) is a bar graph of the emotion value of the continuous front and rear sections of the first section of Fig. 9 (a), Fig. 10 (b) is a continuous section of the first section of Fig. 9 (b) This is a bar graph of emotion values in the front and back sections.

도 9의 (a)와 도 10의 (a)를 참조하면, 제1 대상 동영상 제1 구간의 감정 변화율을 계산하면, natural을 제외한 모든 감정에서 음수가 나온다. 따라서 제1 대상 동영상 제1 구간은 유의미한 구간으로 선정되었음에도 불구하고 유의미한 감정을 가진 객체가 존재하지 않는다고 판단된다.Referring to FIGS. 9A and 10A , when the emotion change rate of the first section of the first target video is calculated, negative numbers are obtained from all emotions except natural. Therefore, although the first section of the first target video is selected as a meaningful section, it is determined that there is no object having a meaningful emotion.

이를 통해, 대상 동영상에 유의미한 구간으로 선정된 경우에도 유의미한 감정을 가진 객체가 존재하지 않을 수도 있음을 알 수 있다. Through this, it can be seen that even when a meaningful section is selected in the target video, an object having a meaningful emotion may not exist.

도 9의 (b)와 도 10의 (b)를 참조하면, 제4 대상 동영상 제1 구간은 총 4개의 객체가 등장하는 다중 객체 구간이다. flower, balloon, cone_hat의 경우 앞뒤 어느 구간에서도 등장하지 않기 때문에 1/4의 순위를 갖고, ribbon의 경우 앞 프레임에서도 등장하므로 4/4의 순위를 갖는다. 또한 앞의 구간과 비교하였을 때 happiness의 감정값이 15.494(%)만큼 증가하였는데, 이는 새로 등장한 flower, balloon, cone_hat의 객체의 감정값 변화율이라고 예측할 수 있다.Referring to FIGS. 9B and 10B , the first section of the fourth target video is a multi-object section in which a total of four objects appear. In the case of flower, balloon, and cone_hat, it has a rank of 1/4 because it does not appear in any section before and after, and in the case of ribbon, it has a rank of 4/4 because it appears in the front frame. Also, compared with the previous section, the happiness emotion value increased by 15.494 (%), which can be predicted as the change rate of the emotion value of the newly appeared objects of flower, balloon, and cone_hat.

이를 통해 대상 동영상의 유의미한 제1 구간에 다중 객체가 포함되는 경우, 유의미한 제1 구간에 연속하는 앞 뒤 구간에서의 각 객체의 유무에 따라 우선 순위를 갖는다. 이 때 앞뒤 구간과 비교하여 새로 등장한 객체가 최우선 순위를 갖고, 앞뒤 구간과 비교하여 앞뒤 중 어느 하나에만 등장하는 객체는 차순위를 갖는다. Through this, when multiple objects are included in the first meaningful section of the target video, priority is given according to the presence or absence of each object in the front and rear sections continuous to the first meaningful section. At this time, compared with the front and rear sections, the newly appeared object has the highest priority, and compared with the front and rear sections, the object appearing only in one of the front and rear sections has the second priority.

도 11은 본 발명의 일 실시예에 따른 감정 객체 분석 방법을 설명하기 위한 흐름도이다.11 is a flowchart illustrating a method for analyzing an emotion object according to an embodiment of the present invention.

단계 810에서, 감정 객체 분석 장치의 영상 수집부는 대상 동영상에 관한 정보가 수신되면, 대상 동영상을 시청하는 인물이 촬영된 반응 동영상을 수집할 수 있다.In operation 810, when information on the target video is received, the image collection unit of the emotional object analysis apparatus may collect a reaction video in which a person watching the target video is captured.

단계 820에서, 감정 객체 분석 장치의 프레임 추출부는 수집된 반응 동영상 및 대상 동영상에 포함된 각 프레임을 추출할 수 있다. In operation 820, the frame extraction unit of the emotional object analysis apparatus may extract each frame included in the collected reaction video and the target video.

여기서 단계 820는 수집된 반응 동영상을 수신한 후, 수집된 반응 동영상 및 상기 대상 동영상에 포함된 각 프레임을 추출한다. Here, in step 820, after receiving the collected reaction video, each frame included in the collected reaction video and the target video is extracted.

또한, 단계 820은 수집된 반응 동영상 내에 포함된 인물이 반응하는 구간만 추출하는 단계를 포함할 수 있다. Also, step 820 may include extracting only a section in which a person included in the collected reaction video reacts.

또한, 단계 820은 대상 동영상에서 추출된 프레임들에 대하여, 각 프레임에 등장하는 객체에 기초하여 추출된 프레임들 간의 유사도를 판단하고, 판단 결과에 따라 유사한 프레임들을 병합하는 단계를 포함할 수 있다.In addition, operation 820 may include determining a degree of similarity between the extracted frames based on an object appearing in each frame with respect to the frames extracted from the target video, and merging similar frames according to the determination result.

단계 830에서, 수집된 반응 동영상으로부터 추출된 각 프레임에 포함된 인물의 표정에 기초하여 상기 대상 동영상에 포함된 프레임 중에서 상기 인물의 감정 변화를 유도하는 프레임을 식별할 수 있다. In operation 830, a frame that induces a change in emotion of the person may be identified from among the frames included in the target video based on the facial expression of the person included in each frame extracted from the collected reaction video.

일 실시예에서, 단계 830에서, 감정 객체 분석 장치의 감정 분석부는 수집된 반응 동영상으로부터 추출된 각 프레임에 포함된 인물의 표정에 기초하여 인물의 감정을 분석할 수 있다. 또한, 단계 830은 감정을 복수의 감정 항목으로 나눈 후, 각 프레임 내 인물의 표정에 따라 복수의 감정 항목의 확률값을 도출하는 단계, 각 프레임을 포함한 반응 동영상 내 복수의 프레임의 각 감정 항목별 평균 변화량을 계산하는 단계, 각 감정 항목별 평균 변화량과 각 프레임의 상기 복수의 감정 항목의 확률값에 기초하여 인물의 감정을 분석하는 단계, 및 분석 결과에 기초하여 대상 동영상에 포함된 프레임 중에서 인물의 감정 변화를 유도하는 프레임을 식별하는 단계를 포함할 수 있다. 여기서 인물의 감정 분석 결과는, 각 프레임의 복수의 감정 항목의 확률값 중에서 각 감정 항목별 평균 변화량보다 큰 값을 갖는 감정 항목이 있는 경우, 인물의 감정은 감정 항목인 것으로 판단하는 것일 수 있다.In one embodiment, in operation 830, the emotion analyzer of the emotional object analysis apparatus may analyze the emotion of the person based on the expression of the person included in each frame extracted from the collected reaction video. In addition, in step 830, after dividing the emotion into a plurality of emotion items, deriving the probability values of the plurality of emotion items according to the expression of the person in each frame, the average for each emotion item of the plurality of frames in the reaction video including each frame Calculating the change amount, analyzing the emotion of the person based on the average change amount for each emotion item and the probability value of the plurality of emotion items in each frame, and the emotion of the person among the frames included in the target video based on the analysis result It may include identifying the frame that induces the change. Here, as the result of analyzing the person's emotion, when there is an emotion item having a value greater than the average change amount for each emotion item among the probability values of a plurality of emotion items in each frame, it may be determined that the emotion of the person is an emotion item.

단계 840에서, 감정 객체 분석 장치의 객체 추출부는 식별된 객체와 대응하는 상기 인물의 감정 변화 정도를 저장하고, 상기 저장된 내용을 출력할 수 있다.In operation 840, the object extraction unit of the emotional object analysis apparatus may store the degree of change in emotion of the person corresponding to the identified object, and output the stored content.

단계 850에서, 감정 객체 분석 장치의 정보 제공부는 식별된 객체와 대응하는 상기 인물의 감정 변화 정도를 저장하고, 상기 저장된 내용을 출력할 수 있다. 또한, 단계 580에서, 상기 정보 제공부는 미리 설정된 감정 항목에 대한 감정 변화 정도가 큰 순서대로 객체를 정렬하여 감정별 객체 사전을 생성하여 저장할 수 있다. In operation 850, the information providing unit of the emotional object analysis apparatus may store the degree of change in emotion of the person corresponding to the identified object, and output the stored content. Also, in step 580, the information providing unit may generate and store an object dictionary for each emotion by arranging the objects in the order of increasing the degree of emotion change for the preset emotion item.

감정별 객체 사전은, 컨텐츠 내의 각 객체에 대응하는 감정 항목별 추천도를 목록화한 테이블 형태로 제공될 수 있다. The emotion-specific object dictionary may be provided in the form of a table listing recommendations for each emotion item corresponding to each object in the content.

본 발명의 일 실시예에 따른 제1 대상 동영상 내지 제5 대상 동영상에 등장하는 객체에 대해서 감정 영향력을 분석한 감정별 객체 사전의 일부는 표 3과 같이 나타낸다. Table 3 shows a part of the object dictionary for each emotion in which the emotional influence of objects appearing in the first to fifth target videos according to an embodiment of the present invention is analyzed.

감정emotion 객체object 감정 변화율(%)Emotion change rate (%) 순위
(Rank)
ranking
(Rank)
한국가수Korean singer contemptcontempt neon_signneon_sign 2.302.30 1/11/1 disgustdisgust magnetic_tapemagnetic_tape 2.732.73 1/11/1 neon_signneon_sign 1.791.79 1/11/1 happinesshappiness umbrellaumbrella 19.3019.30 1/31/3 cameracamera 19.3019.30 1/31/3 orangeorange 14.6714.67 1/11/1 sadnesssadness neon_signneon_sign 14.7414.74 1/11/1 liplip 3.803.80 1/21/2 lipsticklipstick 3.803.80 1/21/2 surprisesurprise gungun 7.867.86 1/11/1 phonephone 1.311.31 1/11/1 외국 가수foreign singer angeranger handhand 0.790.79 1/11/1 shoesshoes 0.450.45 1/11/1 contemptcontempt shoesshoes 0.810.81 1/11/1 fearfear bedbed 0.740.74 1/31/3 happinesshappiness picturepicture 11.6511.65 1/31/3 cakecake 11.3011.30 1/31/3 cone_hatcone_hat 9.999.99 1/31/3 sadnesssadness syringesyringe 2.92.9 1/11/1 soccer_ballsoccer_ball 1.961.96 1/21/2 bedbed 1.871.87 1/31/3 surprisesurprise soccer_ballsoccer_ball 5.695.69 1/21/2 bedbed 5.225.22 1/31/3 dogdog 4.184.18 1/11/1

일 실시예에 따른 감정별 객체 사전은 한국가수와 외국가수라는 2개의 카테고리에 대해서 7가지 감정값에 대하여 감정 변화율값이 높은 순서대로 객체를 정렬하여 생성하였다 The object dictionary for each emotion according to an embodiment was created by arranging objects in the order of the highest emotion change rate for 7 emotion values for two categories, a Korean singer and a foreign singer.

유의미한 제1 구간에 등장하는 객체를 추출하여 유의미한 제1 구간 앞 뒤의 객체의 등장여부에 따라 순위(rank)를 도출한다. 객체의 감정이 동일한 객체가 여러 구간에서 등장하는 경우, 감정 변화율의 평균을 구한다. Objects appearing in the first significant section are extracted, and a rank is derived according to whether objects appear before or after the first section meaningful. When an object with the same emotion of the object appears in several sections, the average of the emotion change rate is obtained.

표 3에서 알 수 있는 바와 같이, 감정 변화율의 평균이 가장 큰 happiness 감정의 경우 한국 가수 카테고리의 umbrella, camera, orange 객체의 감정에 대해서 각각 19.30%, 19.3%, 14.67%, 외국 가수 카테고리의 picture, cake, cone_hat 객체의 감정에 대해서 각각 11.65%, 11.30%, 9.99%의 감정 변화율을 보인다. 감정 변화율의 평균이 두 번째로 큰 sadness의 경우는 한국 가수 카테고리의 neon_sign, lip, lipstick 객체의 감정에 대해서 각각 14.74%, 3.80, 3.80%, 외국 가수 카테고리의 syringe, soccer_ball, bed 객체의 감정에 대해서 각각 2.9%, 1.96%, 1.87%의 감정 변화율을 보인다.As can be seen from Table 3, in the case of the happiness emotion with the largest average rate of change of emotion, 19.30%, 19.3%, and 14.67% of the emotions of the umbrella, camera, and orange objects of the Korean singer category, the picture of the foreign singer category, and the picture of the foreign singer category, respectively. For the emotions of cake and cone_hat objects, 11.65%, 11.30%, and 9.99% of emotion change rates are shown, respectively. In the case of sadness, with the second largest average change in emotion rate, 14.74%, 3.80, and 3.80% for the Korean singer category’s neon_sign, lip, and lipstick object, respectively, and the foreign singer category’s syringe, soccer_ball, and bed object’s emotions. They show emotional change rates of 2.9%, 1.96%, and 1.87%, respectively.

이와 같이, 한국의 대상 동영상의 반응도가 높게 나타났고 외국의 대상 동영상은 이에 비해 상대적으로 반응도가 낮게 나타났다. 즉, 객체를 활용한 콘텐츠 제작 시에 한국 대상 동영상의 객체 감정 사전을 이용하는 것이 효과가 더 클 것으로 기대된다. As such, Korean target videos showed high reactivity and foreign target videos showed relatively low reactivity. In other words, it is expected that the use of the object emotion dictionary of Korean videos will be more effective when producing content using objects.

예를 들어, 표 1에 도시한 바와 같은, 감정별 객체 사전을 참고하면, 한국인을 대상으로 하는 영상을 제작하는 경우, 행복에 대한 감정을 영상에서 표현하고자 하는 경우, 우산, 카메라, 오렌지 등을 영상에 추가하는 것을 추천할 수 있다. For example, referring to the object dictionary for each emotion, as shown in Table 1, when producing an image for Koreans, when expressing emotions about happiness in an image, use an umbrella, a camera, an orange, etc. It can be recommended to add to the video.

다른 예를 들어, 외국인을 대상으로 하는 영상을 제작하는 경우, 행복에 대한 감정을 영상에서 표현하고자 하는 경우, 그림, 케이크, 모자 등을 영상에 추가하는 것을 추천할 수 있다. For another example, if you are making a video for foreigners, if you want to express your feelings about happiness in the video, it may be recommended to add pictures, cakes, hats, etc. to the video.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 사람이라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 실행된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and various modifications and variations may be made by those of ordinary skill in the art to which the present invention pertains without departing from the essential characteristics of the present invention. Accordingly, the embodiments implemented in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. The protection scope of the present invention should be construed by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.

Claims (17)

하나 이상의 객체를 포함하는 대상 동영상에 관한 정보가 수신되면, 상기 대상 동영상을 시청하는 인물이 촬영된 반응 동영상을 수집하는 영상 수집부;
수집된 반응 동영상 및 상기 대상 동영상에 포함된 각 프레임을 추출하는 프레임 추출부;
상기 수집된 반응 동영상으로부터 추출된 각 프레임에 포함된 인물의 표정에 기초하여 상기 대상 동영상에 포함된 프레임 중에서 상기 인물의 감정 변화를 유도하는 프레임을 식별하는 감정 분석부; 및
상기 감정 변화 정도에 기초하여 상기 대상 동영상에 포함된 프레임 중에서 상기 인물의 감정 변화를 유도하는 객체를 판별하고, 판별된 객체의 상기 인물의 감정 변화 정도를 정량화하는 객체 분석부;
상기 판별된 객체 및 상기 판별된 객체와 대응하는 상기 인물의 감정 변화 정도를 저장하고 상기 저장된 내용을 출력하는 정보 제공부
를 포함하는 감정 객체 분석 장치.
an image collecting unit for collecting a reaction video in which a person viewing the target video is captured when information on a target video including one or more objects is received;
a frame extraction unit for extracting each frame included in the collected reaction video and the target video;
an emotion analysis unit for identifying a frame that induces a change in emotion of the person from among the frames included in the target video based on the facial expression of the person included in each frame extracted from the collected reaction video; and
an object analysis unit for determining an object inducing a change in emotion of the person from among the frames included in the target video based on the degree of change in emotion, and quantifying the degree of change in emotion of the person in the determined object;
Information providing unit for storing the determined object and the degree of emotional change of the person corresponding to the determined object and outputting the stored content
Emotion object analysis device comprising a.
제1항에 있어서,
상기 정보 제공부는 미리 설정된 감정 항목에 대한 감정 변화 정도가 큰 순서대로 객체를 정렬하여 감정별 객체 사전을 생성하여 저장하는 것을 특징으로 하는, 감정 객체 분석 장치.
According to claim 1,
The apparatus for analyzing an emotion object, characterized in that the information providing unit generates and stores an object dictionary for each emotion by arranging the objects in the order of the greatest degree of emotion change for a preset emotion item.
제1항에 있어서,
상기 영상 수집부로부터 수집된 반응 동영상을 수신한 후, 상기 수집된 반응 동영상 내에 포함된 상기 인물이 반응을 보이는 구간만 추출하여 상기 프레임 추출부에 전달하는, 전처리부를 더 포함하는 것을 특징으로 하는, 감정 객체 분석 장치.
According to claim 1,
After receiving the reaction video collected from the image collecting unit, extracting only the section in which the person included in the collected reaction video shows a reaction and delivering it to the frame extraction unit, characterized in that it further comprises a pre-processing unit, Emotional object analysis device.
제1항에 있어서,
상기 대상 동영상으로부터 추출된 프레임들에 대하여, 각 프레임에 등장하는 객체에 기초하여 추출된 프레임들 간의 유사도를 판단하고, 상기 판단 결과에 따라 유사한 프레임들을 동일 구간으로 병합하여 상기 감정 분석부에 전달하는, 구간 분리부를 더 포함하는 것을 특징으로 하는, 감정 객체 분석 장치.
According to claim 1,
With respect to the frames extracted from the target video, the degree of similarity between the extracted frames is determined based on the object appearing in each frame, and the similar frames are merged into the same section according to the determination result and delivered to the emotion analysis unit , An emotional object analysis device, characterized in that it further comprises a section separation unit.
제1항에 있어서,
상기 감정 분석부는
감정을 복수의 감정 항목으로 나눈 후, 각 프레임의 상기 인물의 표정에 따라 상기 복수의 감정 항목의 확률값을 도출하고, 각 프레임을 포함한 상기 반응 동영상 내 복수의 프레임의 각 감정 항목별 평균 변화량을 계산한 후, 상기 각 감정 항목별 평균 변화량보다 큰 값을 갖는 프레임을 유의미한 프레임으로 분류하여 유의미한 프레임을 상기 객체 분석부에 전달하는 것을 특징으로 하는, 감정 객체 분석 장치.
According to claim 1,
The emotion analysis unit
After dividing the emotion into a plurality of emotion items, the probability value of the plurality of emotion items is derived according to the expression of the person in each frame, and the average amount of change for each emotion item of the plurality of frames in the reaction video including each frame is calculated Then, the emotion object analysis apparatus, characterized in that the frame having a value greater than the average change amount for each emotion item is classified as a meaningful frame and the meaningful frame is transmitted to the object analysis unit.
제1항에 있어서,
상기 객체 분석부는,
식별된 각각의 객체가 등장하는 제1 프레임의 앞뒤 프레임에 대응하는 반응 동영상의 인물의 감정 항목별 평균 변화율값을 계산한 후, 상기 각 감정 항목별 평균 변화량과 상기 제1 프레임의 복수의 감정 항목의 확률값에 기초하여 상기 객체에 대한 상기 인물의 감정을 분석하는 것을 특징으로 하는, 감정 객체 분석 장치.
According to claim 1,
The object analysis unit,
After calculating the average change rate value for each emotion item of the person in the reaction video corresponding to the front and rear frames of the first frame in which each identified object appears, the average change amount for each emotion item and the plurality of emotion items in the first frame An emotion object analysis apparatus, characterized in that the emotion of the person for the object is analyzed based on the probability value of .
제6항에 있어서,
상기 객체 분석부는 상기 제1 프레임이 다중 객체를 포함하는 경우, 각각의 객체에 대하여 상기 제1 프레임의 앞뒤 프레임의 객체 등장유무에 기초하여 감정값에 미치는 객체의 순위를 설정하는 것을 특징으로 하는, 감정 객체 분석 장치.
7. The method of claim 6,
The object analysis unit is characterized in that when the first frame includes multiple objects, for each object, the ranking of the objects affecting the emotion value is set based on the presence or absence of objects in the frames before and after the first frame, Emotional object analysis device.
제7항에 있어서,
상기 객체 분석부는 다중 객체의 순위 설정시, 상기 앞뒤 프레임에 해당 객체가 등장하지 않는 객체의 순위를 최우선으로 하고, 앞뒤 프레임중 어느 하나에만 해당 객체가 등장하는 객체의 순위를 차순위로 하는 것을 특징으로 하는, 감정 객체 분석 장치.
8. The method of claim 7,
The object analysis unit gives the highest priority to the priority of the object in which the corresponding object does not appear in the front and rear frames when setting the ranking of multiple objects, and the ranking of the object in which the corresponding object appears only in one of the front and rear frames is the next priority, characterized in that which is an emotional object analysis device.
장치에 의한 감정 객체 분석 방법으로서,
대상 동영상에 관한 정보가 수신되면, 상기 대상 동영상을 시청하는 인물이 촬영된 반응 동영상을 수집하는 단계;
상기 수집된 반응 동영상 및 상기 대상 동영상에 포함된 각 프레임을 추출하는 단계;
상기 수집된 반응 동영상으로부터 추출된 각 프레임에 포함된 인물의 표정에 기초하여 상기 대상 동영상에 포함된 프레임 중에서 상기 인물의 감정 변화를 유도하는 프레임을 식별하는 단계;
상기 감정 변화 정도에 기초하여 상기 대상 동영상에 포함된 프레임 중에서 상기 인물의 감정 변화를 유도하는 객체를 판별하고, 판별된 객체의 상기 인물의 감정 변화 정도를 정량화하는 단계; 및
상기 판별된 객체 및 상기 판별된 객체와 대응하는 상기 인물의 감정 변화 정도를 저장하고 상기 저장된 내용을 출력하는 단계
를 포함하는, 감정 객체 분석 방법.
A method for analyzing an emotion object by a device, comprising:
collecting a reaction video captured by a person watching the target video when information on the target video is received;
extracting each frame included in the collected reaction video and the target video;
identifying a frame that induces a change in emotion of the person from among the frames included in the target video based on the facial expression of the person included in each frame extracted from the collected reaction video;
determining an object inducing a change in emotion of the person from among the frames included in the target video based on the degree of change in emotion, and quantifying the degree of change in emotion of the person in the determined object; and
Storing the determined object and the degree of emotional change of the person corresponding to the determined object, and outputting the stored contents
Including, an emotional object analysis method.
제9항에 있어서,
미리 설정된 감정 항목에 대한 감정 변화 정도가 큰 순서대로 객체를 정렬하여 감정별 객체 사전을 생성하여 저장하는 단계
를 포함하는, 감정 객체 분석 방법.
10. The method of claim 9,
Creating and storing an object dictionary for each emotion by arranging the objects in the order of the greatest degree of emotion change for the preset emotion item
Including, an emotional object analysis method.
제9항에 있어서,
상기 각 프레임을 추출하는 단계는,
상기 수집된 반응 동영상을 수신한 후, 상기 수집된 반응 동영상 내에 포함된 상기 인물이 반응을 보이는 구간만 추출하는 단계인 것을 특징으로 하는, 감정 객체 분석 방법.
10. The method of claim 9,
The step of extracting each frame is
After receiving the collected reaction video, the emotional object analysis method, characterized in that the step of extracting only a section in which the person included in the collected reaction video shows a reaction.
제9항에 있어서,
상기 각 프레임을 추출하는 단계는,
상기 대상 동영상으로부터 추출된 프레임들에 대하여, 각 프레임에 등장하는 객체에 기초하여 추출된 프레임들 간의 유사도를 판단하고, 상기 판단 결과에 따라 유사한 프레임들을 병합하는 단계를 포함하는 것을 특징으로 하는, 감정 객체 분석 방법.
10. The method of claim 9,
The step of extracting each frame is
With respect to the frames extracted from the target video, determining the degree of similarity between the extracted frames based on an object appearing in each frame, and merging similar frames according to the determination result. object analysis method.
제9항에 있어서,
상기 인물의 감정 변화를 유도하는 프레임을 식별하는 단계는,
감정을 복수의 감정 항목으로 나눈 후, 제1 프레임의 상기 인물의 표정에 따라 상기 복수의 감정 항목의 확률값을 도출하는 단계;
상기 제1 프레임을 포함한 상기 반응 동영상 내 복수의 프레임의 각 감정 항목별 평균 변화량을 계산하는 단계; 및
상기 각 감정 항목별 평균 변화량보다 큰 값을 갖는 프레임을 유의미한 프레임으로 분류하는 단계를 포함하는 것을 특징으로 하는, 감정 객체 분석 방법.
10. The method of claim 9,
The step of identifying the frame that induces the emotional change of the person,
after dividing the emotion into a plurality of emotion items, deriving probability values of the plurality of emotion items according to the expression of the person in a first frame;
calculating an average change amount for each emotion item of a plurality of frames in the reaction video including the first frame; and
and classifying a frame having a value greater than the average change amount for each emotion item as a meaningful frame.
제13항에 있어서,
상기 판별된 객체의 상기 인물의 감정 변화 정도를 정량화하는 단계는,
식별된 각각의 객체가 등장하는 제1 프레임의 앞뒤 프레임에 대응하는 반응 동영상의 인물의 감정 항목별 평균 변화율값을 계산한 후, 상기 각 감정 항목별 평균 변화량과 상기 제1 프레임의 상기 복수의 감정 항목의 확률값에 기초하여 상기 객체에 대한 상기 인물의 감정을 분석하는 것을 특징으로 하는, 감정 객체 분석 방법.
14. The method of claim 13,
The step of quantifying the degree of emotional change of the person of the determined object is,
After calculating the average change rate value for each emotion item of the person in the reaction video corresponding to the front and rear frames of the first frame in which each identified object appears, the average change amount for each emotion item and the plurality of emotions of the first frame An emotion object analysis method, characterized in that the emotion of the person for the object is analyzed based on the probability value of the item.
제14항에 있어서,
상기 판별된 객체의 상기 인물의 감정 변화 정도를 정량화하는 단계는,
상기 제1 프레임이 다중 객체를 포함하는 경우, 각각의 객체에 대하여 상기 제1 프레임의 앞뒤 프레임의 객체 등장유무에 기초하여 감정값에 미치는 객체의 순위를 설정하는 단계를 포함하는 것을 특징으로 하는, 감정 객체 분석 방법.
15. The method of claim 14,
The step of quantifying the degree of emotional change of the person of the determined object is,
When the first frame includes multiple objects, it characterized in that it comprises the step of setting the rank of the object on the emotion value based on the presence or absence of the object in the frame before and after the first frame for each object, Method of analyzing emotional objects.
제15항에 있어서,
상기 객체의 순위를 설정하는 단계는,
상기 앞뒤 프레임에 해당 객체가 등장하지 않는 객체의 순위를 최우선으로 하고, 앞뒤 프레임중 어느 하나에만 해당 객체가 등장하는 객체의 순위를 차순위로 하는 것을 특징으로 하는, 감정 객체 분석 방법.
16. The method of claim 15,
The step of setting the rank of the object is,
An emotion object analysis method, characterized in that the priority of the object in which the corresponding object does not appear in the front and rear frames is given the highest priority, and the ranking of the object in which the corresponding object appears only in one of the front and rear frames is the second priority.
컴퓨터 프로그램이 프로세서에 의해 실행될 때, 제9항 내지 제16항 중 어느 한 항에 따른 방법이 수행되는 컴퓨터 프로그램을 저장한 컴퓨터-판독가능 저장 매체.


17. A computer-readable storage medium storing a computer program in which the method according to any one of claims 9 to 16 is performed when the computer program is executed by a processor.


KR1020200137741A 2020-10-22 2020-10-22 Method and apparatus for analyzing sentiment related to object KR102496010B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200137741A KR102496010B1 (en) 2020-10-22 2020-10-22 Method and apparatus for analyzing sentiment related to object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200137741A KR102496010B1 (en) 2020-10-22 2020-10-22 Method and apparatus for analyzing sentiment related to object

Publications (2)

Publication Number Publication Date
KR20220053358A true KR20220053358A (en) 2022-04-29
KR102496010B1 KR102496010B1 (en) 2023-02-06

Family

ID=81428843

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200137741A KR102496010B1 (en) 2020-10-22 2020-10-22 Method and apparatus for analyzing sentiment related to object

Country Status (1)

Country Link
KR (1) KR102496010B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102512468B1 (en) * 2022-11-09 2023-03-22 주식회사 제로투원파트너스 Apparatus and method for analyzing viewers' responses to video content

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014511620A (en) * 2011-02-27 2014-05-15 アフェクティヴァ,インコーポレイテッド Emotion based video recommendation
KR20140117394A (en) * 2012-01-10 2014-10-07 마이크로소프트 코포레이션 Consumption of content with reactions of an individual
KR20200063777A (en) * 2018-11-28 2020-06-05 삼성전자주식회사 Display apparatus and controlling method thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014511620A (en) * 2011-02-27 2014-05-15 アフェクティヴァ,インコーポレイテッド Emotion based video recommendation
KR20140117394A (en) * 2012-01-10 2014-10-07 마이크로소프트 코포레이션 Consumption of content with reactions of an individual
KR20200063777A (en) * 2018-11-28 2020-06-05 삼성전자주식회사 Display apparatus and controlling method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102512468B1 (en) * 2022-11-09 2023-03-22 주식회사 제로투원파트너스 Apparatus and method for analyzing viewers' responses to video content

Also Published As

Publication number Publication date
KR102496010B1 (en) 2023-02-06

Similar Documents

Publication Publication Date Title
US11113587B2 (en) System and method for appearance search
Fan et al. Facial expression recognition with deeply-supervised attention network
Dhall et al. Emotion recognition in the wild challenge 2013
Nguyen et al. Interactive access to large image collections using similarity-based visualization
US9271035B2 (en) Detecting key roles and their relationships from video
TW201907736A (en) Method and device for generating video summary
JP2017168057A (en) Device, system, and method for sorting images
CN111241340A (en) Video tag determination method, device, terminal and storage medium
CN112270297A (en) Method and computer system for displaying recognition result
Moghaddam et al. Predicting movie popularity and ratings with visual features
CN112200844A (en) Method, device, electronic equipment and medium for generating image
Mohseni et al. Recognizing induced emotions with only one feature: a novel color histogram-based system
KR102496010B1 (en) Method and apparatus for analyzing sentiment related to object
CN108833964A (en) A kind of real-time successive frame Information Embedding identifying system
EP2345978A1 (en) Detection of flash illuminated scenes in video clips and related ranking of video clips
AU2019303730B2 (en) Hash-based appearance search
Miniakhmetova et al. An approach to personalized video summarization based on user preferences analysis
Shambharkar et al. Genre classification of movie trailers using 3d convolutional neural networks
Çakar et al. Creating cover photos (thumbnail) for movies and tv series with convolutional neural network
JP2003330941A (en) Similar image sorting apparatus
CN112163476B (en) Electronic competition condition data acquisition method based on image recognition
KR20210104352A (en) Method and apparatus for analyzing setiment related to target video
CN112188116A (en) Video synthesis method, client and system based on object
ÇAKAR et al. Thumbnail Selection with Convolutional Neural Network Based on Emotion Detection
CN106548118A (en) The recognition and retrieval method and system of cinema projection content

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant