KR102285998B1 - Method and apparatus for evaluating empathy for image contents - Google Patents

Method and apparatus for evaluating empathy for image contents Download PDF

Info

Publication number
KR102285998B1
KR102285998B1 KR1020200028657A KR20200028657A KR102285998B1 KR 102285998 B1 KR102285998 B1 KR 102285998B1 KR 1020200028657 A KR1020200028657 A KR 1020200028657A KR 20200028657 A KR20200028657 A KR 20200028657A KR 102285998 B1 KR102285998 B1 KR 102285998B1
Authority
KR
South Korea
Prior art keywords
viewer
empathy
image
facial
character
Prior art date
Application number
KR1020200028657A
Other languages
Korean (ko)
Other versions
KR102285998B9 (en
Inventor
황민철
조아영
이현우
Original Assignee
(주)감성과학연구센터
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)감성과학연구센터 filed Critical (주)감성과학연구센터
Priority to KR1020200028657A priority Critical patent/KR102285998B1/en
Application granted granted Critical
Publication of KR102285998B1 publication Critical patent/KR102285998B1/en
Publication of KR102285998B9 publication Critical patent/KR102285998B9/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • G06K9/00268
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4532Management of client data or end-user data involving end-user characteristics, e.g. viewer profile, preferences

Abstract

The present invention provides a method and an apparatus for determining whether a viewer sympathizes with image content by a noncontact method. The determining method comprises: a step of showing image content including a character to a viewer through a display device; a step of photographing a face image of the viewer by a camera, and acquiring a face image of the character by using a capturing device; a step of extracting face micromotion data of the character and the viewer from the two face images through an image analyzer; a step of evaluating the similarity of the face micromotion data of the character and the viewer by a micromotion data analyzer; and a step of using a sympathy determining device to compare the similarity with an arbitrarily-set reference value to detect face micromotion synchronization of the viewer with the character to determine whether the viewer sympathizes with the image content.

Description

영상 콘텐츠에 대한 공감도 평가 방법 및 장치{Method and apparatus for evaluating empathy for image contents}Method and apparatus for evaluating empathy for image contents

본 개시는 영상 콘텐츠에 대한 공감도 평가 방법 및 장치에 관한 것으로 미세움직임을 기반으로 영상 콘텐츠에 대한 시청자의 공감도를 평가하는 방법 및 장치에 관한 것이다.The present disclosure relates to a method and apparatus for evaluating empathy for video content, and to a method and apparatus for evaluating a viewer's empathy for video content based on micro-motion.

상업적 미디어 환경에서, 영상 콘텐츠에 대한 영상 콘텐츠 소비자, 즉 시청자의 관심과 참여를 유도하는 경쟁이 매우 치열 하다.In the commercial media environment, competition to induce interest and participation of video content consumers, ie, viewers, for video content is very fierce.

콘텐츠에 반응하는 시청자의 공감은 콘텐츠에 대한 몰입도를 높이고 전달하려는 내재적 메시지에 대한 이해도를 높인다. 따라서 시청자로부터 영상 콘텐츠에 대한 공감을 얻는 것이 매주 중요하다. The empathy of viewers who responds to the content increases their immersion in the content and increases their understanding of the intrinsic message they are trying to convey. Therefore, it is important to gain sympathy for video content from viewers every week.

영상 콘텐츠에 대한 시청자의 공감도가 높을수록 내포된 메시지에 깊이 감동될 수 있고, 이를 통해 영상 콘텐트 소비자의 자세를 긍정화한다. The higher the viewer's sympathy for the video content, the more deeply moved by the embedded message, the more positive the attitude of the video content consumer.

상업적 영상 광고 콘텐츠의 경우, 시청자의 관심과 공감도 상승을 통해 영상 콘텐츠를 통해 전달되는 브랜드 및 제품에 대한 깊은 이해와 공감을 통해 제품 구매 의욕을 증대할 수 있다.In the case of commercial video advertisement content, it is possible to increase the will to purchase the product through a deep understanding and empathy for the brand and product delivered through the video content by increasing viewers' interest and empathy.

영상 광고 콘텐츠에 대한 소비자의 높은 공감 수준은 광고 제품의 이해 및 이의 가치에 대한 통찰력을 깊게 한다. 이는 미디어 제품, 브랜드, 또는 콘텐츠를 개선하기 위한 평가 가이드로 사용될 수 있다.Consumers' high level of empathy for video advertising content deepens their understanding of advertising products and their value. It can be used as a rating guide to improve a media product, brand, or content.

콘텐츠에 대한 공감도를 측정하기 위한 기존의 방법에는 주관적 방법과 객관적 방법이 있다. Existing methods for measuring empathy for content include a subjective method and an objective method.

주관적인 방법은 주로 영상 콘텐츠에 노출된 시청자에 대한 주관적 설문에 의존한다. 그러나 이러한 주관적 설문에 의한 공감 평가는 부정확하고 재현성이 낮다. 그리고 객관적이고 정량적인 데이터를 사용한 측정 방법으로는 물리적 장치에 의해 시청자로부터 획득한 생리적 정보를 이용한다. 그러나, 이러한 객관적인 방법은 생리적 정보를 획득하기 위한 물리적 장치에 의존하기 때문에 피험자인 시청자의 심리적 부담을 안겨 준다. The subjective method mainly relies on subjective questionnaires about viewers exposed to video content. However, the evaluation of empathy by such a subjective questionnaire is inaccurate and has low reproducibility. And as a measurement method using objective and quantitative data, physiological information obtained from a viewer by a physical device is used. However, since this objective method relies on a physical device for acquiring physiological information, it imposes a psychological burden on the viewer as the subject.

Park, S., Choi, S. J., Mun, S., Whang, M. (2019). Measurement of emotional contagion using synchronization of heart rhythm pattern between two persons: Application to sales managers and sales force synchronization. Physiology and behavior, 200, 148-158. Park, S., Choi, S. J., Mun, S., Whang, M. (2019). Measurement of emotional contagion using synchronization of heart rhythm pattern between two persons: Application to sales managers and sales force synchronization. Physiology and behavior, 200, 148-158. 이동원, 박상인, 문성철, 황민철. (2019). 심장 반응 동기화를 이용한 공감 인식 방법. 감성과학, 22(1), 45-54. Lee Dong-won, Park Sang-in, Moon Seong-cheol, Hwang Min-cheol. (2019). A method for empathic recognition using cardiac response synchronization. Emotional Science, 22(1), 45-54. Balakrishnan, G., Durand, F., Guttag, J. (2013). Detecting pulse from head motions in video. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (pp. 3430-3437). Balakrishnan, G., Durand, F., Guttag, J. (2013). Detecting pulse from head motions in video. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (pp. 3430-3437).

본 개시는 비접촉 방법에 의해 영상 콘텐츠에 대한 공감도를 평가하는 방법및 이를 적용하는 장치를 제시한다.The present disclosure provides a method for evaluating empathy for video content by a non-contact method and an apparatus for applying the same.

본 개시는 안면 미동 유사도 분석을 이용하여 영상 콘텐츠에 대한 공감도를 평가하는 방법 및 이를 적용하는 장치를 제시한다.The present disclosure provides a method for evaluating empathy for video content using facial micro-movement similarity analysis and an apparatus for applying the same.

본 개시에 따른 하나 또는 그 이상의 실시 예에 따르면According to one or more embodiments according to the present disclosure

등장 인물이 포함된 영상 콘텐츠를 디스플레이 장치를 통해 시청자에게 제시하는 단계;presenting the video content including the characters to the viewer through a display device;

카메라를 이용하여 상기 영상 콘텐츠를 시청하는 상기 시청자의 안면 영상을 획득하는 단계;obtaining a facial image of the viewer viewing the video content using a camera;

영상 분석기를 통해 상기 영상 컨텐츠와 안면 영상으로부터 등장 인물과 시청자의 안면 미동 정보를 추출하는 단계;extracting facial micro-movement information of characters and viewers from the image content and facial images through an image analyzer;

미동 정보 분석기를 상기 등장 인물과 시청자의 얼굴 미동 정보의 유사도를 평가하는 단계; 그리고evaluating the degree of similarity between the facial micro-movement information of the person and the viewer by a micro-movement information analyzer; And

감성 판단기를 이용해 상기 유사도를 임의 설정된 기준치에 비교하여 등장 인물에 대한 시청자의 안면 미동 동기화를 검출하여 상기 영상 콘텐츠에 대한 상기 시청자의 공감 여부를 판단하는 단계;를 포함하는 안면 미동 유사도 분석을 이용한 공감 판단 방법이 제시된다.Comparing the degree of similarity to an arbitrarily set reference value using an emotion determiner, detecting the synchronization of the viewer's facial fine movements with respect to the character to determine whether the viewer sympathizes with the video content; empathy using facial micro-movement similarity analysis, including A judgment method is presented.

본 개시의 다른 실시 예에 따르면, 상기 안면 미동 데이터:는 상기 안면 영상에서 추출되는 특징부의 움직임으로부터 추출될 수 있다.According to another embodiment of the present disclosure, the facial micro-movement data: may be extracted from a movement of a feature extracted from the facial image.

본 개시의 다른 실시 예에 따르면, 상기 특징부의 움직임은 안면 영상의 전후 프레임간 특징부의 좌표 움직임으로부터 추출될 수 있다.According to another embodiment of the present disclosure, the movement of the feature may be extracted from the coordinate movement of the feature between front and rear frames of the facial image.

본 개시의 다른 실시 예에 따르면, 상기 안면 미동 데이터는 상기 특징부의 좌표 움직임 중, 종방향(y축)의 움직임으로부터 추출될 수 있다.According to another embodiment of the present disclosure, the facial micro-movement data may be extracted from a movement in the longitudinal direction (y-axis) among coordinate movements of the feature.

본 개시의 다른 실시 예에 따르면, 상기 안면 미동 데이터는 심장박동에 대응하는 특정 주파수 범위의 필터링에 의해 선택될 수 있다.According to another embodiment of the present disclosure, the facial micro-movement data may be selected by filtering in a specific frequency range corresponding to a heartbeat.

본 개시의 다른 실시 예에 따르면, 상기 안면 미동 데이터는 주파수 분석에 의해 0.5~5Hz 의 대역통과필터에 처리될 수 있다.According to another embodiment of the present disclosure, the facial micro-movement data may be processed by a band-pass filter of 0.5 to 5 Hz by frequency analysis.

본 개시의 다른 실시 예에 따르면, 상기 유사도는 상기 등장인물과 시청자의 안면 미동 데이터의 주기성(periodicity)으로부터 얻어질 수 있다.According to another embodiment of the present disclosure, the similarity may be obtained from periodicity of facial micro-movement data of the character and the viewer.

본 개시에 따른 하나 또는 그 이상의 실시 예에 따르면,According to one or more embodiments according to the present disclosure,

영상 콘텐츠를 제시하는 디스플레이 장치;a display device for presenting image content;

등장 인물이 포함된 영상 콘텐츠를 표시하는 디스플레이 장치;a display device for displaying image content including characters;

상기 영상 콘텐츠를 시청하는 상기 시청자의 안면 영상을 획득하는 카메라;a camera for acquiring a facial image of the viewer viewing the video content;

상기 영상 컨텐츠와 안면 영상으로부터 등장 인물과 시청자의 안면 미동 정보를 추출하는 영상 분석기;an image analyzer for extracting facial micro-movement information of characters and viewers from the image content and facial images;

상기 등장 인물과 시청자의 얼굴 미동 정보의 유사도를 평가하는 미동 정보 분석기; 그리고a fine motion information analyzer for evaluating the degree of similarity between the facial fine motion information of the person and the viewer; And

상기 유사도를 임의 설정된 기준치에 비교하여 등장 인물에 대한 시청자의 안면 미동 동기화를 검출하여 상기 영상 콘텐츠에 대한 상기 시청자의 공감 여부를 판단하는 공감 판단기;를 포함하는 공감 판단 장치가 제시된다.An empathy determination device comprising a; empathy determination device for determining whether the viewer sympathizes with the video content by detecting the synchronization of the viewer's facial fine movement with respect to the character by comparing the similarity to an arbitrarily set reference value.

본 개시에 따른 다른 실시 예에 따르면, 상기 공감 판단 장치는 영상 표시, 영상 분석, 미동 정보의 분석 및 감성 판단이 가능한 컴퓨터 기반 공감 판단 시스템을 포함할 수 있다. According to another embodiment of the present disclosure, the empathy determination apparatus may include a computer-based empathy determination system capable of image display, image analysis, analysis of fine movement information, and emotion determination.

본 개시의 다른 실시 예에 따르면, 상기 영상 분석기는 상기 안면 영상에서 추출되는 특징부의 움직임으로부터 안면 미동 데이터는 추출될 수 있다.According to another embodiment of the present disclosure, the image analyzer may extract facial micro-movement data from a movement of a feature extracted from the facial image.

본 개시의 다른 실시 예에 따르면, 상기 영상 분석기는 상기 특징부의 움직임을 안면 영상의 전후 프레임간 특징부의 좌표 움직임으로부터 추출될 수 있다.According to another embodiment of the present disclosure, the image analyzer may extract the movement of the feature from the coordinate movement of the feature between front and rear frames of the facial image.

본 개시의 다른 실시 예에 따르면, 상기 영상 분석기는 상기 특징부의 좌표 움직임 중, 종방향 (y축)의 움직임으로부터 추출할 수 있다.According to another embodiment of the present disclosure, the image analyzer may extract from the movement in the longitudinal direction (y-axis) among the coordinate movement of the feature.

본 개시의 다른 실시 예에 따르면, 상기 영상 분석기:는 안면 미동 데이터에 대한 주파수 분석에 의해 0.75~2.5Hz 범위의 안면 미동 데이터를 선택할 수 있다.According to another embodiment of the present disclosure, the image analyzer: may select the facial fine movement data in the range of 0.75 to 2.5 Hz by frequency analysis of the facial fine movement data.

본 개시의 다른 실시 예에 따르면, 상기 감성 판단기는 상기 유사도를 상기 등장인물과 시청자의 안면 미동 데이터의 주기성(periodicity)으로부터 추출할 수 있다.According to another embodiment of the present disclosure, the emotion determiner may extract the similarity from periodicity of facial micro-movement data of the character and the viewer.

본 개시에 따른 콘텐츠 공감 분석은 콘텐츠에 등장하는 인물과 콘텐츠를 시청하는 시청자 사이의 공감 정도를 카메라 영상 기반 분석법을 이용해 판단한다.Content empathy analysis according to the present disclosure determines the degree of empathy between a person appearing in the content and a viewer who views the content using a camera image-based analysis method.

이러한 방법은 영상 콘텐츠 내 인물의 얼굴 영역에서 추출된 얼굴 미동 정보와 카메라로 영상을 시청하는 사용자의 얼굴 영역을 촬영하여 추출된 얼굴 미동 정보 사이의 동기화를 측정하여 공감 여부를 판단한다. 본 개시에 따른 실시 예에서 정의하는 얼굴 미동은 심장 박동에 의한 주기적인 진동이 사람의 경동맥을 따라 얼굴에도 주기적인 미세한 움직임을 발생시키며 이러한 얼굴에 나타나는 미세한 움직임을 일컫는다. 본 개시에서 제안하는 방법은 생체 신호 측정을 위한 별도의 센서 부착 없이 카메라 기반의 비접촉식 공감 판단이 가능하기 때문에 실용적이다.In this method, sympathy is determined by measuring the synchronization between the facial fine movement information extracted from the facial region of a person in the video content and the facial fine movement information extracted by photographing the facial region of the user watching the image with a camera. Facial micro-movement defined in the embodiment according to the present disclosure refers to a minute movement of the face, in which periodic vibrations caused by heartbeat generate periodic minute movements in the face along the carotid artery of a person. The method proposed in the present disclosure is practical because camera-based non-contact empathy determination is possible without attaching a separate sensor for measuring biosignals.

도1은 도2는 본 개시의 한 실시 예에 따른 공감 평가 장치의 전체 구조를 예시한다.
도2는 본 개시의 한 실시 예에 따른 공감 평가 장치를 기능적 구성 요소를 보이는 블록 다이어그램이다.
도3은 본 개시의 한 실시 예에 따른 공감 평가 방법의 개략적 흐름도이다.
도4는 본 개시의 한 실시 예를 따라 미동 데이터를 추출하는 과정에 대해 구체적 흐름도이다.
도5은 본 개시의 한 실시 예에 따라 안면 영상 획득으로부터 움직임 데이터 추출까지의 구체적 흐름을 보여준다.
도6은 본 개시의 한 실시 예에 따른 신호 추론(Signal Extination) 및 공감 수준 평가(Classification Empathy Level )분 추출에 대한 흐름도이다. 그리고
도7은 본 개시의 한 실시 예에 따라 3단계에 걸치는 공감 수준 평가의 과정을 논리적으로 보인다.
1 illustrates an overall structure of an empathy evaluation apparatus according to an embodiment of the present disclosure.
2 is a block diagram showing functional components of an empathy evaluation apparatus according to an embodiment of the present disclosure.
3 is a schematic flowchart of a method for evaluating empathy according to an embodiment of the present disclosure.
4 is a detailed flowchart of a process of extracting fine movement data according to an embodiment of the present disclosure.
5 shows a detailed flow from facial image acquisition to motion data extraction according to an embodiment of the present disclosure.
6 is a flowchart for signal inference and classification empathy level extraction according to an embodiment of the present disclosure. And
7 logically shows the process of evaluating the empathy level over three steps according to an embodiment of the present disclosure.

이하 첨부된 도면을 참조하면서 본 개시에 따른 콘텐츠 공감 평가 방법 및 그 장치에 대해 설명한다.Hereinafter, a content empathy evaluation method and apparatus according to the present disclosure will be described with reference to the accompanying drawings.

도1은 본 개시의 한 실시 예에 따른 공감 평가 장치를 개략적으로 도시한다. 상기 공감 평가 장치는 피험자 또는 시청자(20)에게 특정 영상 콘텐츠를 보여 주면서 시청자(20)의 안면 영상을 획득하여 상기 영상 콘텐츠에 대해 상기 안면 영상이 동기하는 지를 평가한다.1 schematically illustrates an empathy evaluation apparatus according to an embodiment of the present disclosure. The empathy evaluation device acquires a facial image of the viewer 20 while showing a specific video content to a subject or viewer 20 and evaluates whether the facial image is synchronized with the video content.

구체적으로 상기 공감 평가 장치를 설명하면, 키보드(14), 마우스(15), 모니터(12) 등 입출력 장치 및 이들이 연결되는 본체(11)를 포함하는 컴퓨터 시스템(1)을 기반하는 하드웨어의 구조를 가진다.Specifically, when describing the empathy evaluation device, the hardware structure based on the computer system 1 including the input/output devices such as the keyboard 14, the mouse 15, the monitor 12, and the main body 11 to which they are connected have

상기 하드웨어는 본 개시의 다른 실시 예에 따라 전용화된 시스템에 의해 구현될 수 있다. 이러한 공감 평가 장치는 특정한 하드웨어 시스템에 의해 그 기술적 범위가 제한되지 않는다. The hardware may be implemented by a dedicated system according to another embodiment of the present disclosure. The technical scope of this empathy evaluation device is not limited by a specific hardware system.

보다 구체적으로서, 본 개시에 따른 공감 평가 방법을 수행하는 본 개시에 따른 공감 평가 장치 또는 시스템은 피험자(20)의 안면을 촬영하는 동영상 카메라(13), 예를 들어 소위 웹 캠 또는 웹 카메라를 포함할 수 있다. 또한, 이러한 시스템은 소프트웨어 형태로 제공되는 분석 알고리즘을 통해서 영상 콘텐츠와 이를 시청하는 피험자로부터 획득된 얼굴 영상을 처리하고 이를 이용하여 상기 영상 콘텐츠에 대한 시청자(20)의 공감 여부를 평가한다.More specifically, the empathy evaluation apparatus or system according to the present disclosure for performing the empathy evaluation method according to the present disclosure includes a moving picture camera 13 for photographing the subject 20's face, for example, a so-called web cam or web camera. can do. In addition, such a system processes image content and a face image obtained from a subject viewing the image content through an analysis algorithm provided in the form of software, and evaluates whether the viewer 20 sympathizes with the image content using this.

도2는 상기 공감 평가 장치를 기능적 구성 요소를 보이는 블록 다이어그램이다.2 is a block diagram showing functional components of the empathy evaluation device.

도2에 도시된 바와 같이 디스플레이 장치(12)와 카메라(13)는 시청자(20)를 향하고 있다. 디스플레이 장치(12)는 영상 콘텐츠(114)를 시청자(20)에게 시각적으로 제시하는 장치이다. 카메라(13)는 영상 콘텐츠(114)를 시청하는 시청자(20)의 안면을 촬영하여 영상 콘텐츠(114)에 반응하는 표정을 영상 자료화한다.As shown in FIG. 2 , the display device 12 and the camera 13 face the viewer 20 . The display device 12 is a device that visually presents the image content 114 to the viewer 20 . The camera 13 captures the face of the viewer 20 watching the video content 114 and converts the facial expression reacting to the video content 114 into video data.

상기 카메라(13)와 디스플레이 장치(12)가 연결되는 컴퓨터 기반 공감 평가 시스템(1)은 영상 콘텐츠(114)를 재생하는 영상 재생기(115)와 영상 재생기(115)로부터 디스플레이 장치(12)로 전송되는 영상을 프레임 단위로 캡쳐하는 영상 캡쳐기(116)를 포함한다. 영상 캡쳐기(116)에서 캡쳐된 콘텐츠 영상은 카메라(13)에 의해 촬영된 시청자(20)의 안면 영상과 비교되기 위한 영상 데이터이다.The computer-based empathy evaluation system 1, in which the camera 13 and the display device 12 are connected, transmits the image player 115 that reproduces the image content 114 and the image player 115 to the display device 12 It includes an image capturer 116 that captures the image to be used in units of frames. The content image captured by the image capturer 116 is image data for comparison with the facial image of the viewer 20 captured by the camera 13 .

영상 콘텐츠(114)에는 상기 시청자(20)가 감성적으로 반응할 수 있는 등장 인물(character)이 포함되고, 이 등장 인물의 안면 미동이 추출된다.The video content 114 includes a character to which the viewer 20 can emotionally respond, and facial movements of the character are extracted.

영상 분석기(111)는 상기 캡쳐 영상인 등장 인물의 안면 영상과 시청자의 안면 영상을 분석하여 양자의 미동 데이터를 추출한다. 미동 데이터는 심장 데이터에 관계된 미동 성분을 가진다.The image analyzer 111 analyzes the facial image of the person and the facial image of the viewer, which are the captured images, and extracts fine movement data of both. The fine motion data has a fine motion component related to the heart data.

미동 분석기(112)는 상기 미동 데이터를 분석하여 등장 인물에 의해 표출되는 감성에 시청자(20)가 감성적으로 공감하는 지를 분석한다. The fine motion analyzer 112 analyzes the fine motion data to analyze whether the viewer 20 emotionally sympathizes with the emotion expressed by the character.

공감 평가기(113)는 상기 미동 분석(112)로부터의 결과를 이용해 상기 영상 콘텐츠 또는 등장 인물에 의해 표출되는 감성에 공감하는지를 판단한다.The empathy evaluator 113 determines whether the user empathizes with the emotion expressed by the video content or the character by using the result from the micro-movement analysis 112 .

위에서, 상기 영상 분석기, 미동 분석기 및 공감 평가기는 소프트웨어 형태로 제공되는 분석 알고리즘에 의해 제공될 수 있다.Above, the image analyzer, the fine movement analyzer, and the empathy evaluator may be provided by an analysis algorithm provided in the form of software.

도3은 본 개시의 한 실시 예에 따른 공감 평가 방법의 개략적 흐름도이다.3 is a schematic flowchart of a method for evaluating empathy according to an embodiment of the present disclosure.

S1: Facial Video AcquisitionS1: Facial Video Acquisition

S1 단계는 안면 영상을 획득하는 단계이다. 안면 영상의 획득에는 전술한 바와 같이 카메라에 의한 시청자 안면의 촬영 및 영상 콘텐츠의 연속적 캡쳐가 포함된다. 이 단계에서 예를 들어 30fps의 두 안면 영상을 획득한다.Step S1 is a step of acquiring a facial image. Acquisition of the facial image includes shooting of the viewer's face by a camera and continuous capture of image content, as described above. At this stage, for example, two facial images at 30 fps are acquired.

S2: Signal ExtractionS2: Signal Extraction

S2 단계는 두 얼굴 영상으로부터 심장 반응에 의한 성분이 포함된 얼굴 미동 신호를 추출하기 위한 과정이다.Step S2 is a process for extracting facial micro-movement signals including components due to cardiac response from two face images.

S3: Principal Component AnalysisS3: Principal Component Analysis

S3 과정은 전과정에서 추출된 얼굴 미동 신호로부터 동일한 성분을 가진 하나의 얼굴 미동 신호를 추출하기 위한 과정으로, 주성분 분석을 통해 다수의 성분(component)를 추출한다.Step S3 is a process for extracting a single facial fine motion signal having the same component from the facial fine motion signal extracted in the entire process, and a plurality of components are extracted through principal component analysis.

S4: Similarity CalculationS4: Similarity Calculation

S4 단계에서는 추출된 두 얼굴 미동 신호에 대해 유사도를 계산하기 위한 과정으로, 각 버퍼 (윈도우) 마다 유클리디안 거리 (Euclidian Distance)를 구한 뒤 평균 값을 계산한다. Step S4 is a process for calculating the similarity of the two extracted facial fine movement signals. After finding the Euclidian distance for each buffer (window), the average value is calculated.

S5: Classification Empathy LevelsS5: Classification Empathy Levels

S5 단계는, 위 단계에서 계산된 유사도 거리 값을 주관적 공감 점수에 따라 공감 수준을 분류한다. 구체적으로 공감 평가 점수가 평균 - 표준편차 값보다 작은 경우에는 두 유사도 거리 값을 공감 수준이 낮은 그룹으로 분류하고, 그리고 공감 평가 점수가 평균 + 표준편차 값보다 큰 경우에는 두 유사도 거리 값을 공감 수준이 높은 그룹으로 분류한다.In step S5, the empathy level is classified according to the subjective empathy score based on the similarity distance value calculated in the above step. Specifically, if the empathy evaluation score is less than the mean - standard deviation value, the two similarity distance values are classified into a group with a low empathy level, and if the empathy evaluation score is greater than the mean + standard deviation value, the two similarity distance values are divided into the empathy level. classified into this high group.

도4는 위의 과정에서 미동 데이터를 추출하는 과정에 대해 구체적 흐름도이며, 도5은 안면 영상 획득으로부터 움직임 데이터 추출까지의 구체적 흐름을 보여준다.4 is a detailed flowchart for the process of extracting fine motion data in the above process, and FIG. 5 shows a specific flow from facial image acquisition to motion data extraction.

S21: Face DetectionS21: Face Detection

S21 단계는 촬영 및 캡쳐된 영상에서 얼굴 영역을 검출한다. 예를 들어, 얼굴 영상(Facial Video)으로부터 사람의 얼굴 부위마다 나타나는 명암의 특징을 이용하는 Viola-Jones 알고리즘을 이용해 얼굴을 검출(Face Detection)할 수 있다.In step S21, a face region is detected from the photographed and captured image. For example, a face may be detected using the Viola-Jones algorithm that uses the contrast feature that appears for each part of a person's face from a facial video.

S22: Area SelectionS22: Area Selection

S22 단계에서는 미동 데이터를 추출하기 위한 특정 영역을 선택하는 과정으로 예를 들어 검출된 얼굴 영역으로부터 얼굴 표정에 의한 노이즈가 가장 적게 나타나는 이마(forehead)와 코(nose) 영역을 선택한다. In step S22, as a process of selecting a specific region for extracting fine movement data, for example, a forehead and a nose region in which noise due to facial expression appears the least from a detected face region is selected.

S23: Feature ExtractionS23: Feature Extraction

S23 단계에서는 선택된 영역으로부터 다른 포인트와 대비해 추적하기 위한 다수의 특징점을 추출한다. 이러한 특징점 추출에는 Good-Feature-To-Track (GFTT) 알고리즘, FLD (Facial Landmark Detection) 알고리즘이 적용될 수 있다. 본 실시 예에서는, GFTT 알고리즘을 적용하여 80개의 특징점을 추출한다. In step S23, a plurality of feature points for tracking are extracted from the selected area in comparison with other points. A Good-Feature-To-Track (GFTT) algorithm and a Facial Landmark Detection (FLD) algorithm may be applied to extracting these feature points. In this embodiment, 80 feature points are extracted by applying the GFTT algorithm.

S24: Feature TrackingS24: Feature Tracking

S24단계에서는 S23 단계에서 추출된 각 특징점의 움직임 데이터를 구한다. 이러한 특징 추적에는 KLT (Kanade-Lucas-Tomasi) 추적 알고리즘, TM (Transformation Matrix) 기반 추적 알고리즘 등이 적용될 수 있다. 본 실시 예에서는, 연속된 프레임에 대해서 KLT 알고리즘을 이용해 각 특징점 마다 이전 프레임 대비 현재 프레임에서 y좌표 값이 움직인 값을 추적하여 얼굴 미동 신호를 추출한다. 이러한 안면 미동 신호의 추출에는 슬라이딩 윈도우 기법이 이용될 수 있으며, 이때의 윈도우 사이즈는 30s, 인터벌 사이즈는 1s로 설정할 수 있다.In step S24, motion data of each feature point extracted in step S23 is obtained. A Kanade-Lucas-Tomasi (KLT) tracking algorithm, a TM (Transformation Matrix)-based tracking algorithm, or the like may be applied to such feature tracking. In this embodiment, a facial fine movement signal is extracted by tracking the value of the movement of the y-coordinate value in the current frame compared to the previous frame for each feature point using the KLT algorithm for successive frames. A sliding window technique may be used to extract the facial fine movement signal, and the window size may be set to 30s and the interval size to 1s.

S25: Datal ExtractionS25: Datal Extraction

신호 추출(Data Extraction) 단계에서 특징 추출(Feature Extraction) 단계에서 추출된 특징점의 개 수만큼의 얼굴 미동 신호(데이터)가 상기 슬라이딩 윈도우 기법의 결과로 얻어진다.In the data extraction step, facial fine movement signals (data) as many as the number of feature points extracted in the feature extraction step are obtained as a result of the sliding window technique.

도6은 신호 추론(Signal Extination) 및 공감 수준 평가(Classification Empathy Level )분 추출에 대한 흐름도이며, 도7은 3단계에 걸치는 공감 수준 평가의 과정을 논리적으로 보인다.6 is a flowchart for signal inference and classification empathy level extraction, and FIG. 7 logically shows the process of empathy level evaluation spanning three steps.

신호 추론(Signal Estimation) 단계는 추출된 얼굴 미동 신호 또는 데이터로부터 심장 반응에 의한 성분만을 추출하기 위한 과정이다.The Signal Estimation step is a process for extracting only a component due to a cardiac response from the extracted facial micro-motion signal or data.

S31: Band Pass FilterS31: Band Pass Filter

S31 단계는 각 얼굴 미동 신호에서 심박 대역에 해당하는 주파수 성분을 추출한다. 이를 위하여 예를 들어, Butterworth Bandapss Filter (5 order, 0.75-2.5Hz)를 이용해 심박 대역에 해당하는 주파수 대역만을 추출한다. In step S31, a frequency component corresponding to a heartbeat band is extracted from each facial fine movement signal. For this, only the frequency band corresponding to the heartbeat band is extracted using, for example, Butterworth Bandapss Filter (5 order, 0.75-2.5Hz).

S32: Principal Component AnalysisS32: Principal Component Analysis

S32 단계는 각 특징점에서 추출된 얼굴 미동 신호로부터 동일한 성분을 가진 하나의 얼굴 미동 신호를 추출하기 위한 과정으로, 차원 축소 방법이 적용된다. 상기 차원축소 방법에는 주성분 분석 (Principle Component Analysis, PCA), 독립 성분 분석 (Independent Component Analysis, ICA), 서포트 벡터 분해 (Support Vector Decomposition, SVD) 등이 적용될 수 있다. 본 실시 예에서는, 주성분 분석을 통해 5개의 성분(Component)을 추출한다. 각 성분에 대해 생체 신호는 주기성을 띈다는 특징을 이용해 가장 높은 주기성을 보이는 성분을 최종 얼굴 미동 신호로 추출한다. 주기성(Periodicity)은 다음과 같이 계산된다. Step S32 is a process for extracting one facial fine motion signal having the same component from the facial fine motion signal extracted from each feature point, and a dimensionality reduction method is applied. Principle component analysis (PCA), independent component analysis (ICA), support vector decomposition (SVD), etc. may be applied to the dimension reduction method. In this embodiment, five components are extracted through principal component analysis. Using the feature that biosignals have periodicity for each component, the component showing the highest periodicity is extracted as the final facial fine movement signal. Periodicity is calculated as follows.

Figure 112020024350460-pat00001
Figure 112020024350460-pat00001

여기에서, s는 시계열 신호, FFT는 시계열 신호를 주파수 대역으로 변환하기 위한 푸리에 분석 방법, PS는 시계열 신호 s에 대한 주파수 대역의 파워 스펙트럼이다.Here, s is a time series signal, FFT is a Fourier analysis method for converting a time series signal into a frequency band, and PS is a power spectrum of a frequency band for the time series signal s.

Figure 112020024350460-pat00002
Figure 112020024350460-pat00002

여기에서 Max Power는 전체 파워 스펙트럼에서 가장 큰 파워 값where Max Power is the largest power value across the entire power spectrum

Figure 112020024350460-pat00003
Figure 112020024350460-pat00003

여기에서 Total Power 는 전체 파워 스펙트럼의 합이다.where Total Power is the sum of the entire power spectrum.

최종적으로 시계열 신호 s 에 대한 주기성(Periodicity)는 다음과 같이 계산된다.Finally, the periodicity of the time series signal s is calculated as follows.

Figure 112020024350460-pat00004
Figure 112020024350460-pat00004

영상 콘텐츠에 대한 시청자의 공감도는 아래와 같이 3 단계의 과정을 통해서판단된다.The viewer's sympathy for video content is judged through a three-step process as follows.

S41: Similarity CalculationS41: Similarity Calculation

S41 단계는 추출된 두 얼굴 미동 신호(content 1, user 1)에 대해 유사도(Similarity)를 계산하기 위한 과정으로, 각 버퍼 (윈도우, W0~Wn) 마다 유클리디안 거리 (Euclidian Distance, EUCd)를 구한 뒤 평균 값(Average)을 계산한다. Step S41 is a process for calculating the similarity for the two extracted facial fine movement signals (content 1, user 1). Each buffer (window, W 0 ~ W n ) is the Euclidean distance (EUC). d ) and then calculate the average value (Average).

S42: Classification Empathy LevelsS42: Classification Empathy Levels

S42 단계는 위 단계에서 계산된 유사도 거리 값을 주관적 공감 점수에 따라 공감 수준을 분류한다. In step S42, the level of empathy is classified according to the subjective empathy score based on the similarity distance value calculated in the above step.

S43: Determine EmpathyS43: Determine Empathy

공감 점수(score)가 결정되었을 때, 평가된 공감 점수(score)가 공감 점수 평균(m) - 표준편차(d) 값보다 작은 경우에는 두 유사도 거리 값을 공감 수준이 낮은 그룹(low level)으로 분류하고, 그리고 공감 평가 점수가 평균(m) + 표준편차(d) 값보다 큰 경우에는 두 유사도 거리 값(EUCd)을 공감 수준이 높은 그룹(high level)으로 분류한다.When the empathy score is determined, if the evaluated empathy score is less than the empathy score mean (m) - standard deviation (d) value, the two similarity distance values are set to the low level of empathy. If the empathy evaluation score is greater than the mean (m) + standard deviation (d) value, the two similarity distance values (EUCd) are classified as a high level of empathy.

본 개시의 실시 예에 따른 콘텐츠 공감 평가의 검증하기 위하여 통계적 분석(Statistical Analysis)에 의한 정규성 검정(Normality Test)을 진행하였다. 이 단계는 공감 점수에 따라 공감의 두 수준으로 분류된 두 얼굴 미동의 유사도 거리 값들이 공감 수준이 높은 그룹은 유사도 거리 값이 작고, 공감 수준이 낮은 그룹은 유사도 거리 값이 큰지 통계적으로 검증하는 단계이다. 이 단계에서 공감 수준이 높은 그룹이 유사도 거리 값이 작다는 것은 공감이 높은 그룹일수록 두 얼굴 미동 사이의 유사도가 높음을 의미한다. 통계적 검증의 구체적인 방법은 유사도 거리 데이터들의 정규성 검정을 통해 정규성을 만족하는 경우 (데이터들이 평균 값을 기준으로 종 형태의 모양, 즉 정규분포를 띄는 경우) 2 수준 간 모수 검정 방법인 Independent T-test 통계 검정 방법을 사용하여 차이를 검증하고, 정규성을 만족하지 못하는 경우 비모수 검정 방법인 Mann-Whitney U-test 통계 검정 방법을 사용한다.In order to verify the content empathy evaluation according to an embodiment of the present disclosure, a normality test by statistical analysis was performed. In this step, statistically verifying that the similarity distance values of two facial fine movements classified into two levels of empathy according to the empathy score have a small similarity distance value in a group with a high empathy level and a large similarity distance value in a group with a low empathy level. am. At this stage, a group with a high level of empathy has a small similarity distance value, meaning that the group with a high level of empathy has a high degree of similarity between the two facial movements. The specific method of statistical verification is the Independent T-test, a two-level interlevel parameter test method, when normality is satisfied through the normality test of similarity distance data (when the data have a bell-shaped shape, that is, a normal distribution based on the mean value). A statistical test method is used to verify the difference, and if normality is not satisfied, the non-parametric Mann-Whitney U-test statistical test method is used.

위와 같은 본 개시에 따른 평가 방법을 검증하기 위한 실험을 수행하였다.An experiment was performed to verify the evaluation method according to the present disclosure as described above.

위 방법에서 사용되는 로데이터(raw data)는 미동 추출을 위한 얼굴 정면 영상과 공감 수준 분류를 위한 공감 설문 데이터가 있다. 이 데이터들은 실험을 통해 취득될 수 있으며 본 특허에서 사용된 실험 방법은 아래와 같다.The raw data used in the above method includes a face front image for extracting fine movements and empathy questionnaire data for classifying empathy levels. These data can be obtained through experiments, and the experimental method used in this patent is as follows.

피실험자는 실험에 참여한 60명 중에서 데이터가 누락된 1명을 제외하고 총 59명이었으며, 남자 27명, 여자 31명이었다. 피험자들은 건강에 이상이 없고 안경을 착용하지 않는 대학생 또는 대학원생들로 실험에 자발적으로 참여한 사람들이었다. Among the 60 subjects who participated in the experiment, a total of 59 subjects were excluded, and there were 27 males and 31 females. The subjects were college students or graduate students who had no health problems and did not wear glasses, who voluntarily participated in the experiment.

실험의 연구가설은 다음과 같다. 사용자의 콘텐츠 공감도에 따라 얼굴 미동 유사도에 차이가 있을 것이며, 이에 따라 독립변수는 사용자의 콘텐츠에 대한 공감 정도이고, 종속변수는 얼굴 미동이다. The research hypothesis of the experiment is as follows. There will be differences in the similarity of facial fine movements according to the user's content sympathy. Accordingly, the independent variable is the user's empathy for the content, and the dependent variable is the facial fine movement.

실험절차는 4분짜리 감성 유발 영상을 시청하고 3분간 휴식을 취하면서 해당 영상에 대한 주관적 공감도를 평가하는 설문을 진행하였다. 4개의 영상에 대해 위의 과정을 반복하였으며, 자극 영상의 순서는 랜덤하게 제시하였다.As for the experimental procedure, a questionnaire was conducted to evaluate subjective empathy for the video while watching a 4-minute emotional-evoking video and taking a 3-minute break. The above process was repeated for 4 images, and the order of stimulation images was presented at random.

실험에서 사용된 콘텐츠는 총 4개의 감성 유발 비디오로 불쾌-각성 감성을 유발하는 영상, 쾌-각성 감성을 유발하는 영상, 쾌-이완 감성을 유발하는 영상, 불쾌-이완을 유발하는 영상으로 구성되었다. 시청자에게 특정한 감성을 유발하는 영상 콘텐츠가 실제로 그 감성을 유발하는지 검증하기 위해 227명을 대상으로 4개의 감성 자극에 대해 각각 5점 리커트 척도로 각성도와 긍정도를 평가하였고 각성도와 긍정도의 평균 점수를 계산한 결과 각각의 감성을 유발하는 것으로 분명하게 검증되었다.The content used in the experiment consisted of a total of four emotion-inducing videos: an image that induces unpleasant-arousal emotions, an image that induces pleasant-arousal emotions, an image that induces pleasant-relax emotions, and an image that induces discomfort-relaxation. . In order to verify whether the video content that induces a specific emotion in the viewer actually induces the emotion, arousal and positivity were evaluated on a 5-point Likert scale for each of the four emotional stimuli for 227 people, and the average of arousal and positive As a result of calculating the score, it was clearly verified that each emotion was induced.

본 개시에서 특정한 실시 예에 관련하여 도시하고 설명 하였지만, 이하의 특허청구범위에 의해 제공되는 본 발명의 정신이나 분야를 벗어나지 않는 한도 내에서 본 발명이 다양하게 개량 및 변화될 수 있다는 것을 당 업계에서 통상의 지식을 가진 자는 용이하게 알 수 있음을 밝혀 두고자 한다.Although shown and described in relation to specific embodiments in the present disclosure, it is understood in the art that the present invention can be variously improved and changed without departing from the spirit or field of the present invention provided by the following claims. It is intended to be clear that those with ordinary knowledge can easily know.

Claims (14)

등장 인물(character)이 포함된 영상 콘텐츠를 디스플레이 장치를 통해 시청자에게 시현하는 단계;
상기 시청자의 안면 영상을 카메라에 의해 촬영하고, 상기 등장 인물의 안면 영상을 영상 캡쳐기를 이용해 획득하는 단계;
영상 분석기를 통해 상기 등장 인물과 시청자의 안면 영상으로부터 등장 인물과 시청자의 안면의 특징점을 각각 추적하고, 상기 특징점의 움직임 데이터를 추출하는 단계;
미동 정보 분석기에 의해 상기 특징점 움직임 데이터로부터 주파수 분석에 의한 0.75~2.5Hz의 심장 대역 신호를 추출하고, 그리고 상기 등장 인물과 시청자의 특징점 움직임 데이터 각각의 유사도를 유클리디안 거리에 의해 평가하는 단계; 그리고
공감 평가기를 이용해 상기 유사도를 임의 설정된 기준치에 비교하여 등장 인물에 대한 시청자의 공감 여부를 판단하는 단계;를 포함하는 콘텐츠에 대한 공감 평가 방법.
displaying video content including a character to a viewer through a display device;
photographing the viewer's face image with a camera, and acquiring the face image of the character using an image capturer;
tracing the facial features of the characters and the viewers from the facial images of the characters and the viewers through an image analyzer, respectively, and extracting motion data of the features;
extracting a heart band signal of 0.75 to 2.5 Hz by frequency analysis from the key point motion data by a fine motion information analyzer, and evaluating the similarity between the key point motion data of the person and the viewer by the Euclidean distance; And
Comparing the degree of similarity to an arbitrarily set reference value using an empathy evaluator to determine whether the viewer sympathizes with the character;
삭제delete 제1항에 있어서,
상기 특징점 움직임 데이터는 안면 영상의 전후 프레임간 상기 특징점의 좌표 움직임으로부터 추출되는, 콘텐츠에 대한 공감 평가 방법.
According to claim 1,
The key point movement data is extracted from the coordinate movement of the key point between the front and rear frames of the facial image, the empathy evaluation method for content.
제3항에 있어서,
상기 특징점 움직임 데이터는 상기 특징점의 좌표 움직임 중, 종방향(y축)의 움직임으로부터 추출하는, 콘텐츠에 대한 공감 평가 방법.
4. The method of claim 3,
The key point movement data is extracted from the movement in the longitudinal direction (y-axis) among the coordinate movements of the key point, the empathy evaluation method for content.
삭제delete 삭제delete 제1항, 제3항 또는 제4항 중의 어느 한 항에 있어서
상기 유사도는 상기 등장인물과 시청자의 특징점 움직임 데이터의 주기성(periodicity)으로부터 얻어지는, 콘텐츠에 대한 공감 평가 방법
5. The method of any one of claims 1, 3 or 4
The similarity is obtained from the periodicity of the characteristic point movement data of the character and the viewer, a method for evaluating empathy for content
등장 인물이 포함된 영상 콘텐츠를 표시하는 디스플레이 장치;
상기 영상 콘텐츠를 시청하는 시청자의 안면 영상을 획득하는 카메라;
영상 분석기를 통해 상기 등장 인물과 시청자의 안면 영상으로부터 안면의 특징점을 추적하고, 상기 특징점의 움직임 데이터를 추출하는 영상 분석기;
상기 등장 인물과 시청자의 특징점 움직임 데이터의 유사도를 평가하는 것으로, 상기 특징점 움직임 데이터로부터 주파수 분석에 의한 0.75~2.5Hz의 심장 대역 신호를 추출하고, 그리고 상기 등장 인물과 시청자의 특징점 움직임 데이터 각각의 유사도를 유클리디안 거리에 의해 평가하는 미동 정보 분석기; 그리고
상기 유사도를 임의 설정된 기준치에 비교하여 등장 인물에 대한 시청자의 안면 특징부 움직임 데이터의 동기화를 검출하여 상기 영상 콘텐츠에 대한 상기 시청자의 공감 여부를 판단하는 공감 판단기;를 포함하는 공감 판단 장치.
a display device for displaying image content including characters;
a camera for acquiring a facial image of a viewer viewing the video content;
an image analyzer for tracking feature points of the face from the facial images of the characters and viewers through an image analyzer, and extracting motion data of the feature points;
By evaluating the similarity between the character and the viewer's feature point motion data, a heart band signal of 0.75 to 2.5 Hz by frequency analysis is extracted from the feature point motion data, and the degree of similarity between the character and the viewer's feature point motion data a fine-motion information analyzer that evaluates to by Euclidean distance; And
Empathy determination apparatus comprising a; empathy determiner for determining whether the viewer sympathizes with the video content by detecting the synchronization of the movement data of the viewer's facial features with respect to the character by comparing the degree of similarity to an arbitrarily set reference value.
삭제delete 제8항에 있어서,
상기 영상 분석기는 상기 등장 인물과 시청자의 안면 영상에서 추출되는 특징부의 움직임은 안면 영상의 전후 프레임간 특징부의 좌표 움직임으로부터 추출되는, 공감 판단 장치.
9. The method of claim 8,
In the image analyzer, the movement of the feature extracted from the facial image of the person and the viewer is extracted from the coordinate movement of the feature between the front and rear frames of the facial image.
제10항에 있어서,
상기 영상 분석기는 상기 특징부의 좌표 움직임 중, 종방향(y축)의 움직임으로부터 추출하는, 공감 판단 장치.
11. The method of claim 10,
The image analyzer extracts from the movement in the longitudinal direction (y-axis) of the coordinate movement of the feature, empathy determination device.
삭제delete 삭제delete 제8항, 10항 또는 11항 중의 어느 한 항에 있어서,
상기 공감 판단기는 상기 유사도를 상기 등장인물과 시청자의 안면 미동 데이터의 주기성 (periodicity)으로부터 추출하는, 공감 판단 장치.
12. The method of any one of claims 8, 10 or 11,
The empathy determiner extracts the similarity from the periodicity of facial micro-movement data of the character and the viewer, the empathy determination device.
KR1020200028657A 2020-03-06 2020-03-06 Method and apparatus for evaluating empathy for image contents KR102285998B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200028657A KR102285998B1 (en) 2020-03-06 2020-03-06 Method and apparatus for evaluating empathy for image contents

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200028657A KR102285998B1 (en) 2020-03-06 2020-03-06 Method and apparatus for evaluating empathy for image contents

Publications (2)

Publication Number Publication Date
KR102285998B1 true KR102285998B1 (en) 2021-08-05
KR102285998B9 KR102285998B9 (en) 2023-02-21

Family

ID=77316703

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200028657A KR102285998B1 (en) 2020-03-06 2020-03-06 Method and apparatus for evaluating empathy for image contents

Country Status (1)

Country Link
KR (1) KR102285998B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150086770A (en) * 2014-01-20 2015-07-29 한국전자통신연구원 Emotion Recognition Method and System in Image
KR101795723B1 (en) * 2017-02-08 2017-12-01 상명대학교산학협력단 Recognition of basic emotion in facial expression using implicit synchronization of facial micro-movements
KR20180074156A (en) * 2016-12-23 2018-07-03 (주)감성과학연구센터 Reasoning Method and System of Empathic Emotion Based on Video Analysis
KR101940673B1 (en) * 2017-09-14 2019-01-21 상명대학교 산학협력단 Evaluation Method of Empathy based on micro-movement and system adopting the method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150086770A (en) * 2014-01-20 2015-07-29 한국전자통신연구원 Emotion Recognition Method and System in Image
KR20180074156A (en) * 2016-12-23 2018-07-03 (주)감성과학연구센터 Reasoning Method and System of Empathic Emotion Based on Video Analysis
KR101795723B1 (en) * 2017-02-08 2017-12-01 상명대학교산학협력단 Recognition of basic emotion in facial expression using implicit synchronization of facial micro-movements
KR101940673B1 (en) * 2017-09-14 2019-01-21 상명대학교 산학협력단 Evaluation Method of Empathy based on micro-movement and system adopting the method

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Balakrishnan, G., Durand, F., Guttag, J. (2013). Detecting pulse from head motions in video. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (pp. 3430-3437).
Park, S., Choi, S. J., Mun, S., Whang, M. (2019). Measurement of emotional contagion using synchronization of heart rhythm pattern between two persons: Application to sales managers and sales force synchronization. Physiology and behavior, 200, 148-158.
이동원, 박상인, 문성철, 황민철. (2019). 심장 반응 동기화를 이용한 공감 인식 방법. 감성과학, 22(1), 45-54.

Also Published As

Publication number Publication date
KR102285998B9 (en) 2023-02-21

Similar Documents

Publication Publication Date Title
KR101752872B1 (en) Method and System for social relationship based on Micro movement of body
Sharma et al. Modeling stress using thermal facial patterns: A spatio-temporal approach
Irani et al. Thermal super-pixels for bimodal stress recognition
Aigrain et al. Person-specific behavioural features for automatic stress detection
US20180242898A1 (en) Viewing state detection device, viewing state detection system and viewing state detection method
JP2017093760A (en) Device and method for measuring periodic variation interlocking with heart beat
Kaufmann et al. Distortions in the brain? ERP effects of caricaturing familiar and unfamiliar faces
Speth et al. Deception detection and remote physiological monitoring: A dataset and baseline experimental results
WO2014145204A1 (en) Mental state analysis using heart rate collection based video imagery
Dosso et al. Eulerian magnification of multi-modal RGB-D video for heart rate estimation
Khoirunnisaa et al. Channel selection of EEG-based cybersickness recognition during playing video game using correlation feature selection (CFS)
KR102285998B1 (en) Method and apparatus for evaluating empathy for image contents
KR102081752B1 (en) Video evaluation system and viedo evaluation method
KR101795723B1 (en) Recognition of basic emotion in facial expression using implicit synchronization of facial micro-movements
Khan et al. Facial expression recognition using entropy and brightness features
Mustafa et al. Heart rate estimation from facial videos for depression analysis
JP2015039487A (en) Visual line analysis system and method using physiological index
KR101911891B1 (en) Reasoning Method and System of Empathic Emotion Based on Video Analysis
KR101807201B1 (en) Reasoning Method and System of Empathic Emotion Based on Video Analysis
KR101736403B1 (en) Recognition of basic emotion in facial expression using implicit synchronization of facial micro-movements
KR102595838B1 (en) Method and system for evaluation of advertising effect based on similarity of micro movement
Rawat et al. Real-Time Heartbeat Sensing with Face Video using a Webcam and OpenCV
Wang et al. Micro-expression recognition based on EEG signals
KR101971602B1 (en) Reasoning Method and System of Empathic Emotion Based on Video Analysis
KR101788851B1 (en) Recognition of basic emotion in facial expression using implicit synchronization of facial micro-movements

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Re-publication after modification of scope of protection [patent]