KR20130137999A - Method and system for measuring viewership of audience - Google Patents

Method and system for measuring viewership of audience Download PDF

Info

Publication number
KR20130137999A
KR20130137999A KR1020120061760A KR20120061760A KR20130137999A KR 20130137999 A KR20130137999 A KR 20130137999A KR 1020120061760 A KR1020120061760 A KR 1020120061760A KR 20120061760 A KR20120061760 A KR 20120061760A KR 20130137999 A KR20130137999 A KR 20130137999A
Authority
KR
South Korea
Prior art keywords
viewer
face
information
generating
model
Prior art date
Application number
KR1020120061760A
Other languages
Korean (ko)
Inventor
홍승권
Original Assignee
주식회사 코어셀
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 코어셀 filed Critical 주식회사 코어셀
Priority to KR1020120061760A priority Critical patent/KR20130137999A/en
Publication of KR20130137999A publication Critical patent/KR20130137999A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

The present invention relates to a method for measuring viewer ratings of viewers and a system thereof. A method for generating a set of viewer face tracking information capable of measuring the viewer ratings of display devices corresponding to a set of viewer information comprises a step for detecting a facial area of a viewer from images extracted from a video inputted through a video input means positioned in one position of a display device; a step for detecting a facial feature from the detected facial area; a step for estimating an optimal conversion matrix which generates a 3D viewer facial model corresponding to the facial feature by converting a model feature of a 3D standard facial model; and a step for generating the viewer facial tracking information by estimating the viewer information based on the optimal conversion matrix. [Reference numerals] (100) Video input means;(200) Face detection module;(300) 3D modeling;(400) 3D face tracking;(500) Track eyes, eyebrows, and lips;(600) 3D data output

Description

시청자의 시청률을 측정하는 방법과 그 시스템 {Method and system for measuring viewership of audience}How to measure viewership and its system {Method and system for measuring viewership of audience}

본 발명은 시청자의 시청률을 측정하는 방법과 그 시스템에 관한 것으로서, 더욱 상세하게는 영상입력수단을 통해 입력되는 영상에서 추출된 이미지로부터 시청자 얼굴내의 얼굴 특징점을 검출하고, 이러한 얼굴 특징점을 검출하고, 이러한 얼굴특징점 및 최적변환행렬을 이용하여 성별, 연령별, 시청자의 응시방향 및 응시거리 등 시청률에 대한 정보를 생성하는 시청자의 시청률을 측정하는 방법과 그 시스템에 관한 것이다.The present invention relates to a method and system for measuring viewer ratings, and more particularly, to detect facial feature points in a viewer's face from an image extracted from an image input through an image input means, and to detect such facial feature points. The present invention relates to a method and a system for measuring viewer ratings that generate information on viewer ratings such as gender, age, viewer's gaze direction, and gaze distance using facial feature points and optimal transformation matrix.

일반적으로, 피플미터(People Meter)는 시청률을 측정하는 전용 단말로서, 각 패널 세대에 설치되어 시청 시점의 시청률에 대한 데이터를 수집, 기억, 전송하는 장치를 의미한다. In general, a people meter is a dedicated terminal for measuring viewer ratings, and refers to a device installed in each panel generation to collect, store, and transmit data on viewer ratings at the time of viewing.

이러한 피플미터 단말은 기계적인 장치를 이용해 채널별 On/Off를 기계적으로 조사하면서 리모컨을 이용하여 각 세대 구성원의 시청여부를 개인별로 입력하게 하여 시청률을 구하는데 사용되는 장치이다.The people meter terminal is a device used to obtain viewer ratings by individually inputting the viewing of each household member by using a remote controller while mechanically examining on / off for each channel using a mechanical device.

상술한 바와 같은 피플 미터는 디스플레이외에 TV 좌우와 전화선에 연결이 되어서 시청률을 저장하고 판단하여 전송해주는 장치와 핸드셋으로 구성되어 패널가정에서 TV를 시청할 때 누르는 장치로 구성되어서 시청률에 관한 각종 정보를 측정할 수 있게 하여준다.The people meter as described above is composed of a device which is connected to the left and right of the TV and a telephone line and stores and judges and transmits the ratings in addition to the display, and a handset. It allows you to.

피플 미터 단말을 피플미터에서 자동으로 시청률을 기록하기 때문에 기억에 의존하거나 설문에 의존하던 방식에 비해 상대적으로 정확한 조사가 가능하고, 신속하게 지속적으로 측정이 가능하다.The People Meter automatically records viewer ratings on the People Meter, allowing for more accurate surveys and faster, more consistent measurements than those that rely on memory or questionnaires.

측정된 데이터로 광고주는 신제품과 판촉제품의 판매경향과 시간대, 매출부진 상품, 유사품이나 경쟁제품과의 판매경향 등과 같은 정보를 세부적으로 파악할 수 있어 판매가격과 판매량과의 상관관계, 주요공략 대상, 광고계획 등의 마케팅 전략을 효과적으로 수립할 수 있다. Based on the measured data, advertisers can get detailed information such as sales trends and time periods of new products and promotional products, sluggish sales, sales trends of similar products or competitors, and so on. Marketing strategies such as advertising plans can be effectively established.

그러나, 종래의 피플미터 단말은 절대적으로 패널가족의 협조가 필요하다. 핸드셋을 정확하게 누를 것인가와 누르는 것이 지겹워 질수도 있고, 특히 어린이의 경우 장난을 칠수도 있어 시청률에 잘못된 정보가 영향을 줄 수 있다. 그리고 현재의 피플 미터만 가지고는 정확하게 CM을 시청하고 있는가 여부를 알아 낼 수 없다. However, the conventional people meter terminal absolutely requires the cooperation of the panel family. Pressing the handset correctly and pressing it can be tedious, especially for children, which can be mischievous, which can affect audience ratings. And with just the current people meter, you can't tell whether you're watching CM correctly.

즉, 종래의 피플미터 단말은 특정 시청자의 나이별 선호도에 대한 정보, 특정 제품의 성별 선호도에 대한 정보 등과 같이 시청객의 인적정보가 바탕이 되는 정보를 생성을 위해 활용할 수 없었으며, 시청된 화면을 기준으로 하는 각종 정보 이외에 시청자를 기준으로 하여 인적정보가 바탕이 되는 정보의 생성하여 다양한 통계정보를 생성하기 위한 시청률을 측정하기 위한 단말 관련기술이 요구된다. That is, the conventional people meter terminal could not utilize for generating information based on the personal information of the viewer, such as information on the age-specific preferences of specific viewers, gender preference of specific products, and the like. In addition to the various types of information as a reference, a terminal related technology for measuring viewer ratings for generating various statistical information by generating information based on human information based on a viewer is required.

상기 종래 기술에 따른 문제점을 해결하기 위한 본 발명의 목적은, TV 시청자 측의 일 위치에 구비된 영상입력수단을 통해 입력되는 영상에서 추출한 이미지로부터 시청자 얼굴 내의 얼굴특징점을 검출하고, 이러한 얼굴특징점을 이용하여 시청자의 성별과 나이와 같은 인적정보를 생성함에 따라 시청자 성별, 연령별 시청정보 등과 같이 시청자의 인적정보가 바탕이 되는 각종 통계를 생성할 수 있도록 하기 위한 시청자의 시청률을 측정하는 방법과 그 시스템을 제공함에 있다.An object of the present invention for solving the problems according to the prior art is to detect the facial features in the viewer's face from the image extracted from the image input through the image input means provided at one position on the TV viewer side, and the facial features As the system generates personal information such as gender and age of the viewer, a method and system for measuring viewer ratings for generating various statistics based on the viewer's personal information such as gender and age-specific viewing information In providing.

상기와 같은 목적을 달성하기 위한 본 발명의 일실시예는, 시청자의 응시방향 및 응시거리 중 적어도 하나의 정보에 대응하여 시청률을 측정하기 위한 시청자 얼굴 추적정보 생성방법으로서, (a) 상기 디스플레이 장치 측의 일 위치에 구비된 영상입력수단을 통해 입력되는 영상에서 추출한 이미지로부터 상기 시청자의 얼굴영역을 검출하는 단계; (b) 상기 검출된 얼굴영역에서 얼굴특징점을 검출하는 단계; (c) 3차원 표준 얼굴모델의 모델특징점을 변환하여 상기 얼굴특징점에 대응하는 3차원 시청자 얼굴모델을 생성하는 최적변환행렬을 추정하는 단계; 및 (d) 상기 최적변환행렬에 근거하여 상기 시청자의 응시방향 및 응시거리 중 적어도 하나를 추정하여 시청자 얼굴 추적정보를 생성하는 단계;를 포함하여 구성된다. One embodiment of the present invention for achieving the above object, a viewer face tracking information generation method for measuring the viewer ratings corresponding to at least one information of the viewer's gaze direction and gaze distance, (a) the display device Detecting a face region of the viewer from an image extracted from an image input through an image input means provided at one side of the side; (b) detecting a facial feature point in the detected face region; (c) estimating an optimal transformation matrix for generating a 3D viewer face model corresponding to the face feature by converting the model feature points of the 3D standard face model; And (d) estimating at least one of the gaze direction and gaze distance of the viewer based on the optimal transformation matrix to generate viewer face tracking information.

본 발명의 또 다른 측면에 따른 일실시예는, 시청자의 응시방향 및 응시거리 중 적어도 하나의 정보에 대응하여 시청률을 측정하기 위한 시청자 얼굴 추적정보 생성방법으로서, 상기 디스플레이 장치 측의 일 위치에 구비된 영상입력수단을 통해 입력되는 영상에서 추출한 이미지로부터 상기 시청자의 얼굴영역을 검출하는 얼굴영역 검출단계; 상기 검출된 얼굴영역에 근거하여 상기 시청자의 응시방향 및 응시거리 중 적어도 하나의 정보를 추정하여 응시정보를 생성하는 응시정보 생성단계; 및 상기 검출된 얼굴영역에 근거하여 상기 시청자의 성별 및 나이 중 적어도 하나의 정보를 추정하여 시청자정보를 생성하는 시청자정보 생성단계;를 포함하여 구성된다. According to another embodiment of the present invention, a viewer face tracking information generation method for measuring an audience rating in response to at least one piece of information of a viewer's gaze direction and gaze distance, provided at a position on the display device side A face region detection step of detecting a face region of the viewer from an image extracted from an image input through the input image input means; A gaze information generation step of generating gaze information by estimating at least one information of gaze direction and gaze distance of the viewer based on the detected face region; And generating viewer information by estimating at least one piece of information of the gender and the age of the viewer based on the detected face region.

본 발명의 다른 측면에 따르면, 상기 시청자 얼굴 추적정보 생성방법의 각 단계를 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체가 제공된다. According to another aspect of the present invention, there is provided a computer-readable recording medium recording a program for executing each step of the viewer face tracking information generation method.

본 발명의 또 다른 측면에 따르면, 상기 시청자 얼굴 추적정보 생성방법을 이용하여 시청률을 측정하는디스플레이 장치가 제공된다. According to another aspect of the invention, there is provided a display device for measuring the viewer rating using the viewer face tracking information generation method.

본 발명의 또 다른 측면에 따른 일실시예는, 시청자의 응시방향 및 응시거리 중 적어도 하나의 정보에 대응하여 디스플레이 장치의 시청률을 측정하기 위한 시청자 얼굴 추적정보 생성장치로서, 상기 디스플레이 장치 측의 일 위치에 구비된 영상입력수단을 통해 입력되는 영상에서 추출한 이미지로부터 상기 시청자의 얼굴영역을 검출하는 얼굴영역 검출모듈; 상기 검출된 얼굴영역에서 얼굴특징점을 검출하는 얼굴특징점 검출모듈; 3차원 표준 얼굴모델의 모델특징점을 변환하여 상기 얼굴특징점에 대응하는 3차원 시청자 얼굴모델을 생성하는 최적변환행렬을 추정하는 행렬 추정모듈; 및 상기 추정된 최적변환행렬에 근거하여 상기 시청자의 응시방향 및 응시거리 중 적어도 하나를 추정하여 시청자 얼굴 추적정보를 생성하는 추적정보 생성모듈;을 포함하여 구성된다. In accordance with another aspect of the present invention, there is provided a viewer face tracking information generation device for measuring an audience rating of a display device in response to at least one piece of information of a viewer's gaze direction and gaze distance. A face region detection module for detecting a face region of the viewer from an image extracted from an image input through an image input means provided at a position; A facial feature point detection module for detecting a facial feature point in the detected face area; A matrix estimation module for transforming a model feature point of a 3D standard face model to estimate an optimal transformation matrix for generating a 3D viewer face model corresponding to the face feature point; And a tracking information generation module for estimating at least one of a gaze direction and a gaze distance of the viewer based on the estimated optimal transformation matrix to generate viewer face tracking information.

본 발명의 또 다른 측면에 따른 일실시예는, 시청자의 응시방향 및 응시거리 중 적어도 하나의 정보에 대응하여 디스플레이 장치의 입체감을 제어하기 위한 시청자 얼굴 추적정보 생성장치로서, 상기 디스플레이 장치 측의 일 위치에 구비된 영상입력수단을 통해 입력되는 영상에서 추출한 이미지로부터 상기 시청자의 얼굴영역을 검출하는 수단; 상기 검출된 얼굴영역에 근거하여 상기 시청자의 응시방향 및 응시거리 중 적어도 하나의 정보를 추정하여 응시정보를 생성하는 수단; 및 상기 검출된 얼굴영역에 근거하여 상기 시청자의 성별 및 나이 중 적어도 하나의 정보를 추정하여 시청자정보를 생성하는 수단;을 포함하여 구성된다. In accordance with another aspect of the present invention, there is provided a viewer face tracking information generation device for controlling a stereoscopic feeling of a display device in response to at least one of a gaze direction and a gaze distance of a viewer, Means for detecting a face region of the viewer from an image extracted from an image input through an image input means provided at a position; Means for generating gaze information by estimating at least one of gaze direction and gaze distance of the viewer based on the detected face region; And means for estimating at least one of gender and age of the viewer based on the detected face region to generate viewer information.

상술한 바와 같은 본 발명은, 3차원 표준 얼굴모델의 모델특징점을 변환하여 얼굴영역의 얼굴특징점에 대응하는 3차원 시청자 얼굴모델을 생성하는 최적변환행렬을 이용하여 시청자의 응시방향 및 응시거리를 추정하므로, 추적속도가 빨라 실시간 추적에 적합하고, 얼굴영역의 일부 일그러짐에도 정확한 얼굴영역을 추적할 수 있다는 이점이 있다. As described above, the present invention estimates the gaze direction and gaze distance of a viewer by using an optimal transformation matrix for converting the model feature points of the 3D standard face model to generate a 3D viewer face model corresponding to the face feature points of the face region. Therefore, the fast tracking speed is suitable for real-time tracking, and there is an advantage in that the accurate face area can be tracked even with some distortion of the face area.

또한, 검출된 얼굴영역이 유효한지 여부를 판정하고, 유효하다고 판정된 얼굴영역에 대해서 얼굴특징점을 검출하므로, 얼굴특징점의 검출 신뢰도가 높아 얼굴영역의 추적성능이 높아진다는 이점이 있다. In addition, since it is determined whether the detected face area is valid and face feature points are detected for the face area determined to be valid, there is an advantage that the detection reliability of the face feature point is high and the tracking performance of the face area is increased.

또한, 비정면 얼굴영역을 검출하기 위해 비대칭성의 하 라이크 피쳐(harr-like feature)를 이용하므로, 비정면 얼굴에 대한 얼굴영역의 검출 신뢰도가 높아 얼굴영역의 추적성능이 높아진다는 이점이 있다. In addition, since an asymmetric similar feature (harr-like feature) is used to detect the non-frontal face region, the detection reliability of the face region with respect to the non-frontal face is high, thereby increasing the tracking performance of the face region.

또한, 기본적으로 시청자의 응시방향 및 응시거리를 추정하여 응시방향정보 및 응시거리정보를 생성하고, 부가적으로 시청자의 성별 또는 나이 중 적어도 어느 하나를 추정하여 시청자정보를 생성하며, 상기 응시방향정보 및 응시거리정보뿐만 아니라 상기 시청자정보를 부가적으로 활용하여 시청률을 측정할 수 있도록 하므로, 더욱 정확한 시청률을 측정할 수 있는 이점이 있다. In addition, basically, the gaze direction and gaze distance of the viewer are estimated to generate gaze direction information and gaze distance information, and additionally, at least one of the gender or age of the viewer is estimated to generate viewer information. And not only gaze distance information, but also by additionally utilizing the viewer information to measure the viewer rating, there is an advantage that can be measured more accurate viewer rating.

또한, 시청자의 눈감김 여부를 추정하여, 디스플레이 장치를 시청하는 시청자의 눈이 감겨 있다고 추정된 경우에 디스플레이 장치의 화면출력을 OFF시키거나 재생을 중지시키기 위한 정보로 활용할 수 있다는 이점이 있다. In addition, by estimating whether or not the viewer's eyes are closed, when the viewer's eyes viewing the display device are estimated to be closed, the screen output of the display device may be used as information for turning off or stopping playback.

또한, 하나의 영상입력수단(예를 들어, 카메라)만으로 시청자의 응시방향, 응시거리의 정확한 추적이 가능하다는 이점이 있다. In addition, there is an advantage that it is possible to accurately track the gaze direction, gaze distance of the viewer with only one image input means (for example, a camera).

도 1 본 발명의 일실시예에 따른 시청자 의 시청률을 측정하기 위한 얼굴 추적정보 생성장치의 개략적인 구성을 도시한 구성도
도 2 같은 눈썹, 눈, 코, 입의 각 위치에 대한 정의가 가능한 28개의 얼굴특징점을 나타낸 사진
도 3 331개의 점과 630개의 삼각형으로 구성된 3D 메쉬 형태의 모형
도 4 얼굴을 검출하여 3D 얼굴 모델을 만드는 과정을 도시한 순서도
도 5 Adaboost 알고리즘을 사용한 얼굴 검출 전체 구조를 나타낸 구조도
도 6 3D 얼굴 추적과정을 도시한 순서도.
도 7 12개의 특징점을 사용하여 4개의 특징 벡터를 추출
도 8 시청률 측정을 위한 시청자 얼굴 추적정보 생성과 관련된 측정환경을 도시한 평면도
도 9 얼굴인식을 통해 생성된 3D 얼굴 모델 추적 결과 화면
도 10 얼굴인지를 통한 시청자 휴먼 인지 구현 화면
1 is a block diagram showing a schematic configuration of an apparatus for generating face tracking information for measuring viewer ratings according to an embodiment of the present invention;
Figure 2 is a photo showing the 28 facial features that can be defined for each position of the eyebrow, eye, nose, mouth
3 Model of 3D mesh form consisting of 331 points and 630 triangles
4 is a flowchart illustrating a process of creating a 3D face model by detecting a face
5 is a structural diagram showing the overall structure of face detection using the Adaboost algorithm
6 is a flowchart illustrating a 3D face tracking process.
Fig. 7 Extracting 4 feature vectors using 12 feature points
8 is a plan view illustrating a measurement environment related to generation of viewer face tracking information for viewer rating measurement
9 3D face model tracking result screen generated through face recognition
10 A viewer human recognition implementation screen through face recognition

본 발명은 그 기술적 사상 또는 주요한 특징으로부터 벗어남이 없이 다른 여러가지 형태로 실시될 수 있다. 따라서, 본 발명의 실시예들은 모든 점에서 단순한 예시에 지나지 않으며 한정적으로 해석되어서는 안된다.The present invention can be embodied in many other forms without departing from the spirit or main features thereof. Accordingly, the embodiments of the present invention are to be considered in all respects as merely illustrative and not restrictive.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. And / or < / RTI > includes any combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be. On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구비하다", "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present application, the terms "comprises", "having", "having", and the like are intended to specify the presence of stated features, integers, steps, operations, components, Steps, operations, elements, components, or combinations of elements, numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted as either ideal or overly formal in the sense of the present application Do not.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 대응하는 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like or corresponding elements are denoted by the same reference numerals, and a duplicate description thereof will be omitted. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 1는 본 발명의 일실시예에 따른 시청자 의 시청률을 측정하기 위한 얼굴 추적정보 생성장치의 개략적인 구성을 도시한 구성도이다. 1 is a block diagram illustrating a schematic configuration of an apparatus for generating face tracking information for measuring viewer ratings according to an embodiment of the present invention.

시청자의 응시방향 및 응시거리 중 적어도 하나의 정보에 대응하여 시청률을 측정하기 위한 시청자 얼굴 추적정보 생성장치가 개시된다. Disclosed is a viewer face tracking information generation apparatus for measuring an audience rating in response to at least one piece of information of a viewer's gaze direction and gaze distance.

시청자 얼굴 추적정보 생성장치는 중앙처리유닛, 시스템 DB, 시스템 메모리, 인터페이스 등의 컴퓨팅 요소를 구비하고, TV와 같은 디스플레이 장치에 제어 신호 송수신이 가능하도록 연결된 통상의 컴퓨터 시스템이 될 수 있으며, 이러한 통상의 컴퓨터 시스템에 시청자 얼굴 추적정보 생성 프로그램의 설치 및 구동에 의해 시청자 얼굴 추적정보 생성장치로서 기능되는 것으로 볼 수 있다. The viewer face tracking information generating device may be a conventional computer system having a computing element such as a central processing unit, a system DB, a system memory, an interface, and the like, connected to a display device such as a TV so as to transmit and receive control signals. It can be regarded as functioning as a viewer's face tracking information generating device by installing and driving the viewer's face tracking information generating program in the computer system of the present invention.

다른 관점에서, 본 실시예의 시청자 얼굴 추적정보 생성장치는, TV와 같은 디스플레이 장치에 임베디드 장치 형태로 구성될 수도 있다. In another aspect, the viewer face tracking information generating device of the present embodiment may be configured in the form of an embedded device in a display device such as a TV.

이러한 컴퓨터 시스템의 통상적 구성에 대한 설명은 생략하며, 이하에서는 본 발명의 실시예의 설명에 필요한 기능 관점의 구성을 중심으로 설명한다. A description of the general configuration of such a computer system is omitted, and the following description will focus on the configuration of functional aspects required for the description of the embodiments of the present invention.

시청자 얼굴 추적정보 생성장치는 얼굴영역 검출모듈(200)을 구비한다. The viewer face tracking information generation device includes a face area detection module 200.

상기 얼굴영역 검출모듈(200)은, 상기 디스플레이 장치 측의 일 위치에 구비된 영상입력수단(100), 예를 들어, 카메라를 통해 입력되는 영상에서 이미지를 캡쳐하여 추출한 이미지로부터 상기 시청자의 얼굴영역을 검출한다. 이때, 검출 보기각도는 -90 ~ +90 범위의 모든 얼굴들이 될 수 있다. The face region detection module 200 may include a face region of the viewer from an image captured by an image input means 100 provided at one position of the display apparatus, for example, an image input through a camera. Is detected. In this case, the detection viewing angle may be all faces in the range of -90 to +90.

상기 영상입력수단(100)은, 예를 들어, TV의 정중앙부 상단 또는 하단 측에 설치되어, 실시간으로 TV화면 전방에 위치한 시청자의 얼굴을 동영상으로 촬영할 수 있는 카메라, 더욱 바람직하게는, 이미지센서가 부착된 디지털 카메라가 될 수 있다. The image input means 100 is, for example, installed at the top or bottom side of the central portion of the TV, a camera that can capture the viewer's face in front of the TV screen in real time, more preferably, an image sensor Can be a digital camera attached.

본 실시예의 영상입력수단(100)은 하나만 구비되어도 후술하는 시청자 얼굴 추적정보를 생성할 수 있다. Even if only one image input means 100 is provided, the viewer face tracking information described later may be generated.

도 1에서 볼 수 있듯이 먼저 영상입력수단(100)으로부터 입력되는 영상 스트림에서 얼굴 특징점(200)을 검출한다. 검출된 얼굴 영역의 특징점 들을 추출하여 얼굴에 대한 3D 모델(300)을 생성한다. 생성된 3D 얼굴 모델을 기반으로 카메라 스트림으로부터 3D 얼굴 위치(400)를 추적한다. 얼굴 전체에 대한 추적 진행과 더불어 눈, 눈썹 및 입술(500)에 대한 세부적인 영역에 대한 3D 위치도 추적한다. 추적된 3D 얼굴 데이터를 화면에 디스플레이하거나 메타데이터 형식으로 저장(600)한다.As shown in FIG. 1, the facial feature point 200 is first detected from an image stream input from the image input means 100. The 3D model 300 of the face is generated by extracting feature points of the detected face region. The 3D face position 400 is tracked from the camera stream based on the generated 3D face model. In addition to tracking progress for the entire face, it also tracks the 3D position of the detailed areas for the eyes, eyebrows, and lips 500. The tracked 3D face data is displayed on the screen or stored in metadata format (600).

상기 얼굴특징점 검출모듈(200)은, 유효하다고 판단된 얼굴영역들에 대하여 얼굴 특징점 검출을 진행하며, 얼굴 보기 회전각도를 포함한, 예를 들어, 도 2와 같은 눈썹, 눈, 코, 입의 각 위치에 대한 정의가 가능한 28개의 얼굴특징점을 검출할 수 있다. The facial feature point detection module 200 performs facial feature point detection on face areas determined to be valid, and includes, for example, an angle of eyebrows, eyes, nose, and mouth as shown in FIG. 2. It is possible to detect 28 facial feature points that can be defined for location.

본 실시 예에서, 바람직하게는 기본 얼굴특징점인 눈4개, 코2개, 입2개의 총 8개의 특징점을 얼굴특징점으로서 검출할 수 있다. In the present embodiment, preferably, a total of eight feature points of four eyes, two noses, and two mouths, which are basic facial feature points, may be detected as facial feature points.

여기서, 상기 3차원 표준 얼굴모델은, 도 3에 도시된 바와 같이, 331개의 점과 630개의 삼각형으로 구성된 3D 메쉬 형태의 모형이 될 수 있다. Here, the 3D standard face model may be a 3D mesh model composed of 331 points and 630 triangles, as shown in FIG. 3.

도 4는 얼굴을 검출하여 3D 얼굴 모델을 만드는 과정을 도시한 순서도이다. 일반적으로 3D 얼굴 모델을 만드는 과정은 2개의 카메라를 이용하여 위상차를 이용한 깊이 정보를 계산하는 과정을 통하여 생성하게 되는데, 본 특허에서는 단일 카메라 입력을 통해 얻어진 얼굴 영역을 정면 얼굴 모델을 이용한 3D 변환행렬을 구성하여 3D 얼굴 모델에 매핑하여 3D 좌표를 얻어내는 방법을 사용하고 있다.4 is a flowchart illustrating a process of creating a 3D face model by detecting a face. In general, a process of creating a 3D face model is generated by calculating depth information using a phase difference using two cameras. In the present patent, a face region obtained through a single camera input is a 3D transformation matrix using a front face model. We construct a 3D face model and map it to a 3D face model to obtain 3D coordinates.

도 5는 Adaboost 알고리즘을 사용한 얼굴 검출 전체 구조를 나타낸 구조도이다. 입력 스트림(S310)이 들어오면 이 스트림의 이미지에서 피부색과 타원 얼굴 모델로부터 얼굴 후보 영역(S320)을 구하게 된다. 얼굴 후보 영역에서 24x24 크기의 부분 이미지를 추출(S330)해내고 학습을 통해서 얻어진 약분류기(S340)를 직접이미지에 대입해서 얼굴임을 판단한다. 본 특허에서는 28개씩의 특징점의 값을 사용하여 계산한 후 그 값이 얼굴임을 판단하는 임계값을 넘게 되면 입력 이미지를 얼굴(S360)이라고 판단하게 된다. 다양한 얼굴의 크기에 대응하기 위해서 스트림 이미지 피라미드 과정을 거쳐 앞의 과정을 되풀이하면서 얼굴을 검출한다.5 is a structural diagram showing the overall structure of face detection using the Adaboost algorithm. When the input stream S310 comes in, the face candidate region S320 is obtained from the skin color and the elliptical face model in the image of the stream. A partial image having a size of 24x24 is extracted from the face candidate region (S330), and the medicine classifier S340 obtained through learning is substituted into the image to determine the face. In the present patent, the input image is determined to be a face S360 when the value of the feature points is calculated using 28 feature points and the value exceeds a threshold for determining that the face is a face. In order to cope with various face sizes, a face is detected while repeating the previous process through a stream image pyramid process.

검출된 얼굴 영역을 도 3과 같은 미리 만들어진 표준 3D 얼굴 모델(Wire Frame Model)의 정면 얼굴과 정합하여 특징점(눈, 코, 입등)별 Adaboost에 의한 위치를 확정한다. 그리고, 표준 3D 모델과의 정합률에 의한 유효성 검사를 한 후 다시 입 모델을 이용한 입술 영역의 특징점을 검출하고, 눈썹 모델을 이용한 눈썹 특징점을 추출한다. 그리고, 오차를 줄이기 위하여 NelderMead에 의한 비선형 최량화기를 이용한 최량 정합을 하여 3D 얼굴 맵을 구성한다.The detected face region is matched with the front face of the pre-made standard 3D face model (Wire Frame Model) as shown in FIG. 3 to determine the position by adaboost for each feature point (eye, nose, mouth, etc.). After the validation test based on the matching rate with the standard 3D model, the feature point of the lip region using the mouth model is detected again, and the feature of the eyebrow using the eyebrow model is extracted. In order to reduce the error, a 3D face map is constructed by best matching using a nonlinear optimiser by NelderMead.

특징점 검출을 위해 영상의 휘도치 분포를 다단계로 임계화하는 방법을 사용한다. 임의의 대상 영상들로부터 획득된 확률통계적 분석에 의해 다단계 임계화된 구간을 수직수평으로 투영하여 얼굴부위에 해당하는 휘도치 분포의 경계값을 결정한다. 이 결정된 임계값에 따라 얼굴이외의 성분으로부터 얼굴을 분할하고, 분할된 얼굴부위를 바탕으로 안면 요소 특징점들(눈, 코, 입 등)을 추출한다.In order to detect a feature point, a method of thresholding the distribution of luminance values of an image is used. The threshold value of the luminance value distribution corresponding to the face is determined by projecting the multi-level thresholded section vertically by probabilistic statistical analysis obtained from arbitrary target images. The face is divided from components other than the face according to the determined threshold value, and facial feature points (eye, nose, mouth, etc.) are extracted based on the divided face parts.

생성된 3D 얼굴 모델은 8개(양눈끝에 4개 코에 2개, 입양끝에 2개)의 기본적인 포인트를 포함하게 된다. 눈썹과 입술의 특징점까지 포함하는 경우는 28개의 포인트를 포함한 3D 모델로 구성하게 된다.The generated 3D face model will contain eight basic points: two at the ends of the eyes, two at the nose and two at the end of adoption. If the eyebrows and lips are included, the 3D model including 28 points is included.

도 6은 3D 얼굴 추적과정을 도시한 순서도이다.6 is a flowchart illustrating a 3D face tracking process.

도시된 바와 같이 본 실시 예에 의한 생성된 3D 얼굴 모델(210)은 얼굴 움직임에 대한 추적을 위하여 현재 위치를 기준으로 상하 좌우로 움직일 수 있다는 가설(240)을 세우게 되고, 이러한 가설을 기반으로 머리 자세 평가자를 통해 위치를 설정하게 된다. 그리고, 새로 입력되는 스트림 영상에 의해 백그라운드 모델이 갱신(250)되게 되고, 이력에 있는 모델(260)의 정보에 의해 새로운 특징점의 위치를 계산(270)하여 3D 얼굴 모델의 추적을 하게 된다.As shown, the generated 3D face model 210 according to the present embodiment establishes a hypothesis 240 that can move up, down, left, and right based on the current position to track the face movement, and based on the hypothesis, The position evaluator sets the position. The background model is updated 250 by the newly input stream image, and the location of the new feature point is calculated 270 based on the information of the model 260 in the history to track the 3D face model.

눈썹 추적의 경우 Eyebrow PCA Shape Model을 생성한 후 Eyebrow Correspondences를 계산한 후 Eyebrow PCA Minimizer를 이용하여 최량화를 진행한다. 눈썹과는 달리 입술의 추적은 입술의 움직임, 입의 벌어진 정도, 턱의 움직임, 입술의 돌출, 뺨의 움직임등과 같은 복합적인 움직임으로 이루어진다. 그러므로 이들의 복합적인 움직임을 고려하여야 하지만 입술의 돌출과 뺨의 움직임 등은 2차원적인 접근방법으로는 어렵다. 따라서 여기에서는 입력된 동영상에 정합된 3차원모델로부터 3차원 특징 벡터를 얻을 수 있다.For eyebrow tracking, after generating Eyebrow PCA Shape Model, calculate Eyebrow Correspondences and optimize using Eyebrow PCA Minimizer. Unlike eyebrows, lip tracking consists of complex movements such as lip movements, mouth opening, jaw movements, lip protrusions and cheek movements. Therefore, these complex movements should be considered, but the protrusion of the lips and the movement of the cheeks are difficult with a two-dimensional approach. Therefore, the 3D feature vector can be obtained from the 3D model matched with the input video.

도 7은 12개의 특징점을 사용하여 4개의 특징 벡터를 추출한다. 4개의 특징벡터는 다음과 같다.
7 extracts four feature vectors using twelve feature points. The four feature vectors are as follows.

- 윗입술 움직임 벡터(UP) : UL = P2 - P0Upper lip movement vector (UP): UL = P2-P0

- 아래 입술 움직임 벡터(Down) : DL = P3 - P0Lower lip movement vector (Down): DL = P3-P0

- 입의 벌어진 정도 : ML = P5 - P6Mouth openness: ML = P5-P6

- 턱의 상하 움직임 : JM = P7 P10-Up and down movement of jaw: JM = P7 P10

이와 같은 움직임 벡터를 정량적으로 취급하기 위해서는 개인차를 흡수할 수 있는 기본량이 필요하다. 여기에서는 입의 종횡폭을 이용하여 기준량으로 정한다. 움직임 벡터의 프레임당 이동 변위는 특징점의 이동량을 기준량으로 정규화하여 입술을 추적한다.In order to deal with such a motion vector quantitatively, a basic amount capable of absorbing individual differences is required. In this case, the width and width of the mouth are used as the standard quantities. The per-frame movement displacement of the motion vector tracks the lips by normalizing the movement amount of the feature point to a reference amount.

도 8은 시청률 측정을 위한 시청자 얼굴 추적정보 생성과 관련된 측정환경을 도시한 평면도이다.8 is a plan view illustrating a measurement environment related to generation of viewer face tracking information for viewer rating measurement.

추정된 시청자의 눈감김정보를 3디스플레이 장치 화면 출력 ON/OFF를 제어하기 위한 정보로서 화면전원 제어수단으로 출력한다. The estimated viewer eye information is output to the screen power control means as information for controlling ON / OFF of the 3 display apparatus screen output ON / OFF.

즉, 시청자의 눈감김 상태가 지속된다고 추정된 경우에, 상기 화면전원 제어수단은 상기 디스플레이 장치 화면으로 출력되는 영상을 OFF시켜서 더 이상의 영상 출력이 이뤄지지 않도록 할 수 있다. That is, when it is estimated that the viewer's eye-closing state continues, the screen power control means may turn off the image output to the display device screen so that no further image output is performed.

도 9는 얼굴인식을 통해 생성된 3D 얼굴 모델 추적 결과 화면이다. 9 is a 3D face model tracking result screen generated through face recognition.

시청자의 얼굴을 3D로 인식하여 원 얼굴에 3D 와이어 프레임으로 오버레이 하여 제대로 인지되었는지 확인하기 위한 휴먼인지 테스트 결과 화면이다.It is a human recognition test result screen to check whether a viewer's face is recognized as 3D and overlayed it with a 3D wire frame on the original face.

도 10은 얼굴인지를 통한 시청자 휴먼 인지 구현 화면이다.10 is a viewer human recognition implementation screen through face recognition.

도 10의 오른쪽은 표준 3D 얼굴 모델이며, 왼쪽은 인식된 얼굴에 3D 얼굴 모델 정보를 오버레이 한 화면이다.The right side of FIG. 10 is a standard 3D face model, and the left side is a screen in which 3D face model information is overlaid on the recognized face.

본 발명의 실시예 들은 다양한 컴퓨터로 구현되는 동작을 수행하기 위한 프로그램 명령을 포함하는 컴퓨터 판독가능 기록매체를 포함한다. 상기 컴퓨터 판독 가능 기록매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 기록매체는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크와 같은 자기-광 매체, 및 롬, 램, 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 상기 기록매체는 프로그램 명령, 데이터 구조 등을 지정하는 신호를 전송하는 반송파를 포함하는 광 또는 금속선, 도파관 등의 전송 매체일 수도 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.Embodiments of the present invention include a computer readable recording medium including program instructions for performing various computer-implemented operations. The computer-readable recording medium may include a program command, a data file, a data structure, and the like, alone or in combination. The recording medium may be one specially designed and configured for the present invention, or may be known and available to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical recording media such as CD-ROMs, DVDs, magnetic-optical media such as floppy disks, and ROM, RAM, flash memory, and the like. Hardware devices specifically configured to store and execute the same program instructions are included. The recording medium may be a transmission medium such as an optical or metal wire, a waveguide, or the like including a carrier wave for transmitting a signal specifying a program command, a data structure, or the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like.

본 발명은 첨부된 도면을 참조하여 바람직한 실시예를 중심으로 기술되었지만 당업자라면 이러한 기재로부터 본 발명의 범주를 벗어남이 없이 많은 다양하고 자명한 변형이 가능하다는 것은 명백하다. 따라서 본 발명의 범주는 이러한 많은 변형예들을 포함하도록 기술된 특허청구범위에 의해서 해석돼야 한다.Although the present invention has been described with reference to the preferred embodiments thereof with reference to the accompanying drawings, it will be apparent to those skilled in the art that many other obvious modifications can be made therein without departing from the scope of the invention. Accordingly, the scope of the present invention should be interpreted by the appended claims to cover many such variations.

100: 영상입력수단
200: 얼굴특징점검출
300: 3D 얼굴 모델링
400: 3D 얼굴 추적
500: 눈썹 및 입술 추적
600: 시청률데이터 출력
100: video input means
200: facial feature detection
300: 3D face modeling
400: 3D Face Tracking
500: eyebrow and lip tracking
600: viewership data output

Claims (3)

시청자의 성별 연령별 응시방향 및 응시거리 중 적어도 하나의 정보에 대응하여 디스플레이 장치의 시청률을 측정하기 위한 시청자 얼굴 추적정보 생성방법으로서,
(a) 상기 디스플레이 장치 측의 일 위치에 구비된 영상입력수단을 통해 입력되는 영상에서 추출한 이미지로부터 상기 시청자의 얼굴영역을 검출하는 단계;
(b) 상기 검출된 얼굴영역에서 얼굴특징점을 검출하는 단계;
(c) 3차원 표준 얼굴모델의 모델특징점을 변환하여 상기 얼굴특징점에 대응하는 3차원 시청자 얼굴모델을 생성하는 최적변환행렬을 추정하는 단계; 및
(d) 상기 최적변환행렬에 근거하여 상기 시청자의 성별 나이별 응시방향 및 응시거리 중 적어도 하나를 추정하여 시청자 얼굴 추적정보를 생성하는 단계;를 포함하여 구성된 것을 특징으로 하는 시청자 얼굴 추적정보 생성방법.
A method for generating viewer face tracking information for measuring an audience rating of a display device in response to at least one of gazing direction and gaze distance for each gender age of a viewer,
(a) detecting a face region of the viewer from an image extracted from an image input through an image input means provided at one position of the display apparatus;
(b) detecting a facial feature point in the detected face region;
(c) estimating an optimal transformation matrix for generating a 3D viewer face model corresponding to the face feature by converting the model feature points of the 3D standard face model; And
(d) generating viewer face tracking information by estimating at least one of the gaze direction and gaze distance for each gender of the viewer based on the optimal transformation matrix; and generating a viewer face tracking information. .
제1항에 있어서,
상기 (d) 단계 이후에,
(g) 상기 검출된 얼굴영역을 이용하여 상기 시청자의 눈감김을 추정하는 눈감김추정단계;를 더 포함하여 구성된 것을 특징으로 하는 시청자 얼굴 추적정보 생성방법.
The method of claim 1,
After the step (d)
and (g) estimating eyelids of the viewer using the detected face region.
시청자의 성별 연령별 응시방향 및 응시거리 중 적어도 하나의 정보에 대응하여 디스플레이 장치의 시청률을 측정하기 위한 시청자 얼굴 추적정보 생성방법으로서,
상기 디스플레이 장치 측의 일 위치에 구비된 영상입력수단을 통해 입력되는 영상에서 추출한 이미지로부터 상기 시청자의 얼굴영역을 검출하는 얼굴영역 검출단계;
상기 검출된 얼굴영역에 근거하여 상기 시청자의 응시방향 및 응시거리 중 적어도 하나의 정보를 추정하여 응시정보를 생성하는 응시정보 생성단계; 및
상기 검출된 얼굴영역에 근거하여 상기 시청자의 성별 및 나이 중 적어도 하나의 정보를 추정하여 시청자정보를 생성하는 시청자정보 생성단계;를 포함하여 구성된 것을 특징으로 하는 시청자 얼굴 추적정보 생성방법.
A method for generating viewer face tracking information for measuring an audience rating of a display device in response to at least one of gazing direction and gaze distance for each gender age of a viewer,
A face region detecting step of detecting a face region of the viewer from an image extracted from an image input through an image input means provided at one position of the display apparatus;
A gaze information generation step of generating gaze information by estimating at least one information of gaze direction and gaze distance of the viewer based on the detected face region; And
And generating viewer information by estimating at least one piece of information of a gender and an age of the viewer based on the detected face region.
KR1020120061760A 2012-06-08 2012-06-08 Method and system for measuring viewership of audience KR20130137999A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120061760A KR20130137999A (en) 2012-06-08 2012-06-08 Method and system for measuring viewership of audience

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120061760A KR20130137999A (en) 2012-06-08 2012-06-08 Method and system for measuring viewership of audience

Publications (1)

Publication Number Publication Date
KR20130137999A true KR20130137999A (en) 2013-12-18

Family

ID=49983983

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120061760A KR20130137999A (en) 2012-06-08 2012-06-08 Method and system for measuring viewership of audience

Country Status (1)

Country Link
KR (1) KR20130137999A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9799140B2 (en) 2014-11-25 2017-10-24 Samsung Electronics Co., Ltd. Method and apparatus for generating personalized 3D face model

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9799140B2 (en) 2014-11-25 2017-10-24 Samsung Electronics Co., Ltd. Method and apparatus for generating personalized 3D face model
US9928647B2 (en) 2014-11-25 2018-03-27 Samsung Electronics Co., Ltd. Method and apparatus for generating personalized 3D face model

Similar Documents

Publication Publication Date Title
US9443144B2 (en) Methods and systems for measuring group behavior
US20200167554A1 (en) Gesture Recognition Method, Apparatus, And Device
US8401248B1 (en) Method and system for measuring emotional and attentional response to dynamic digital media content
US8462996B2 (en) Method and system for measuring human response to visual stimulus based on changes in facial expression
US8667519B2 (en) Automatic passive and anonymous feedback system
Shreve et al. Macro-and micro-expression spotting in long videos using spatio-temporal strain
JP6191278B2 (en) Information processing apparatus, content billing system, and program
Shaikh et al. Lip reading using optical flow and support vector machines
CN105809144A (en) Gesture recognition system and method adopting action segmentation
JP5225870B2 (en) Emotion analyzer
CN104112209A (en) Audience statistical method of display terminal, and audience statistical system of display terminal
US9361705B2 (en) Methods and systems for measuring group behavior
CN113887547B (en) Key point detection method and device and electronic equipment
CN113920167A (en) Image processing method, device, storage medium and computer system
WO2008132741A2 (en) Apparatus and method for tracking human objects and determining attention metrics
Kang et al. Using depth and skin color for hand gesture classification
JP6447681B2 (en) Information processing apparatus, information processing method, and program
CN108521594B (en) Free viewpoint video playing method based on motion sensing camera gesture recognition
JP2016111612A (en) Content display device
KR20130137999A (en) Method and system for measuring viewership of audience
Funes Mora et al. Eyediap database: Data description and gaze tracking evaluation benchmarks
WO2020084842A1 (en) Program, information processing device, quantification method, and information processing system
Parisi et al. HandSOM-Neural clustering of hand motion for gesture recognition in real time
JP2009289210A (en) Device and method for recognizing important object and program thereof
JP2009098901A (en) Method, device and program for detecting facial expression

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E601 Decision to refuse application