KR101591402B1 - 관객반응 분석 시스템 및 방법 - Google Patents

관객반응 분석 시스템 및 방법 Download PDF

Info

Publication number
KR101591402B1
KR101591402B1 KR1020140064989A KR20140064989A KR101591402B1 KR 101591402 B1 KR101591402 B1 KR 101591402B1 KR 1020140064989 A KR1020140064989 A KR 1020140064989A KR 20140064989 A KR20140064989 A KR 20140064989A KR 101591402 B1 KR101591402 B1 KR 101591402B1
Authority
KR
South Korea
Prior art keywords
response
motion
acoustic
calculating
audience
Prior art date
Application number
KR1020140064989A
Other languages
English (en)
Other versions
KR20150137320A (ko
Inventor
최이권
김유화
이승권
양근화
Original Assignee
모젼스랩(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 모젼스랩(주) filed Critical 모젼스랩(주)
Priority to KR1020140064989A priority Critical patent/KR101591402B1/ko
Priority to PCT/KR2014/012516 priority patent/WO2015182841A1/ko
Publication of KR20150137320A publication Critical patent/KR20150137320A/ko
Application granted granted Critical
Publication of KR101591402B1 publication Critical patent/KR101591402B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 영상 컨텐츠 또는 공연의 관람자들의 집중도 및 반응을 분석하여 분석하기 위한 관객반응 분석 시스템 및 방법에 관한 것으로, 본 발명은 컨텐츠 관람 관객의 영상을 연속적으로 취득하는 영상수집부와; 컨텐츠 관람 공간의 음향을 연속적으로 취득하는 음향수집부와; 상기 영상수집부에서 취득된 영상데이터와 상기 음향수집부에서 취득한 음향데이터로부터 관객반응도를 산출하는 연산부; 그리고 상기 연산부에서 산출된 관객반응도를 시계열적으로 누적하여 저장하는 저장부를 포함하여 구성되고: 상기 연산부는, 연속 취득된 상기 영상데이터들의 비교로부터 움직임 반응도를 산출하는 움직임 반응도 산출부와; 연속 취득된 상기 영상데이터들로부터 관객의 몸체와 머리를 구분하여 추출하고, 상기 몸체에 대한 머리부분의 방향 변화로부터 시선 반응도를 산출하는 시선반응도 산출부; 그리고 연속 취득된 상기 음향데이터들의 비교로부터 음향 반응도를 산출하는 음향 반응도 산출부를 포함하여 구성된다. 이와 같은 본 발명에 의하면, 관객의 반응을 분석함에 있어, 관객의 움직임, 관객 시선의 변화 및 음향(음성)의 변화를 기준으로 관객 반응도를 산출하므로, 정확성 높은 관객 반응 분석 시스템 및 방법을 제공할 수 있는 장점이 있다.

Description

관객반응 분석 시스템 및 방법 { ANALYSIS SYSTEM AND METHOD FOR RESPONSE OF AUDIENCE }
본 발명은 영상 컨텐츠 또는 공연의 관람자들의 집중도 및 반응을 분석하여 분석하기 위한 관객반응 분석 시스템 및 방법에 관한 것으로, 지식경제부의 산업융합원천기술개발사업 '놀이형 인터액션 Smart Big board 개발' 과제 (수행기간 2012.06.01~2015.05.31)'를 수행함에 있어 산출된 결과물에 대한 발명이다.
최근 영상 컨텐츠 및 공연 컨텐츠(이하 '컨텐츠'로 통칭한다) 제작자들에게는 제작되어 상영(공연)된 컨텐츠에 대한 관객의 반응을 파악하는 것이 매우 중요한 요소로 평가받고 있다. 이와 같은 관객의 반응은 해당 컨텐츠에 대한 홍보전략 수립, 수익 창출 방향 설정 및 향후 컨텐츠 제작에 있어 참고자료 등으로 활용된다.
이와 같이, 컨텐츠에 대한 관객반응의 파악을 위해 종래에는 관람 이후, 설문을 통해 관객의 만족도, 몰입도, 흥미도 등을 사후적으로 조사하여 판단하여 왔다.
그러나, 이와 같은 설문을 통한 방법은, 관객의 객관적인 반응을 파악하는데 한계가 있고, 관람시간이 경과됨에 따라 기억속의 반응이 외곡되어 정확한 반응을 파악할 수 없으며, 전체 컨테츠 중 부분별 반응을 구분하여 파악하는데 어려움이 있었다.
이와 같은 문제점을 해결하기 위하여, 대한민국 등록특허 제10-1337833호에서는 도 1에 도시된 바와 같이, 컨텐츠 관람시에 실시간으로 관객의 모습을 촬영하여, 촬영된 영상으로부터 안면부를 추출하고, 상기 안면부의 차영상에 대한 밝기 히스토그램을 추출하여, 밝기 변화량에 기초하여 안면부 움직임을 산출하며, 상기 안면부 움직임량을 통해 관객의 몰입도를 산출한다.
전술한 바와 같은 종래 기술은 관객에 대한 촬영 영상을 통해, 관객의 반응을 산출한다는 획기적인 관객반응 분석 방식 변화에 대한 이론적 방향을 제시하기는 하였으나, 이를 실제 적용함에는 다음과 같은 문제점이 있었다.
즉, 종래기술에서는 관객의 움직임 산출을 촬상된 이미지의 픽셀 밝기 변화를 기준으로 산출하므로, 어두운 상영공간 내에서 관객의 움직임에 의한 픽셀의 밝기 변화뿐만 아니라, 화면(공연의 경우 조명) 변화에 따른 밝기 변화로 인한 픽셀의 밝기 변화도 관객의 움직임으로 인식되어 정확한 관객반응을 도출할 수 없는 문제점이 있었다.
또한, 종래 기술에서는 촬상된 영상 중 관객의 얼굴부위만을 추출하여, 움직임을 파악하므로, 각 개별적인 관객별 반응을 파악하는데는 장점이 있으나, 전체적인 관객의 반응을 파악하는데는 적합하지 않은 문제점이 있었다. 구체적으로는 관객의 반응 및 몰입도는 얼굴의 움직임 뿐만 아니라 손과 발 등 몸 전체의 움직임으로 표출될 수 있는데, 종래기술에서는 관객의 특정 부위만을 선택하여 관객 반응을 도출하여 정확성이 떨어지는 문제점이 있었다.
그리고 종래기술에서는 관객의 움직임만을 가지고, 관객의 반응을 도출하나, 실제 관객의 반응은 움직임 뿐만 아니라, 시선의 변화 및 음성의 표출(웃음, 비명, 탄성 등)로도 표현되는바, 이와 같은 다양한 종류의 관객 반응을 종합적으로 포함하여 관객반응을 도출할 수 없는 문제점이 있었다.
(001) 대한민국 등록특허 제10-1337833호 (002) 대한민국 공개특허 제10-2014-0042504호 (003) 대한민국 공개특허 제10-2014-0042505호
본 발명은 상기와 같은 종래의 문제점을 해결하기 위하여 안출된 것으로, 본 발명은 관객의 반응을 분석함에 있어, 관객의 움직임, 관객 시선의 변화 및 음향(음성)의 변화를 종합적으로 반영하여, 정확성있는 관객 반응 분석 시스템 및 방법을 제공하고자 하는 것이다.
상기한 바와 같은 목적을 달성하기 위한 본 발명의 특징에 따르면, 본 발명은 컨텐츠 관람 관객의 영상을 연속적으로 취득하는 영상수집부와; 컨텐츠 관람 공간의 음향을 연속적으로 취득하는 음향수집부와; 상기 영상수집부에서 취득된 영상데이터와 상기 음향수집부에서 취득한 음향데이터로부터 관객반응도를 산출하는 연산부; 그리고 상기 연산부에서 산출된 관객반응도를 시계열적으로 누적하여 저장하는 저장부를 포함하여 구성되고: 상기 연산부는, 연속 취득된 상기 영상데이터들의 비교로부터 움직임 반응도를 산출하는 움직임 반응도 산출부와; 연속 취득된 상기 영상데이터들로부터 관객의 몸체와 머리를 구분하여 추출하고, 상기 몸체에 대한 머리부분의 방향 변화로부터 시선 반응도를 산출하는 시선반응도 산출부; 그리고 연속 취득된 상기 음향데이터들의 비교로부터 음향 반응도를 산출하는 음향 반응도 산출부를 포함하여 구성되어, 상기 움직임 반응도, 상기 시선 반응도 및 상기 음향 반응도로부터 관객 반응도를 산출한다.
이때, 상기 움직임 반응도(
Figure 112014050970505-pat00001
)는, 수식
Figure 112014050970505-pat00002
으로부터 산출되고: 여기서
Figure 112014050970505-pat00003
은 프레임별 움직임 반응도 이고,
Figure 112014050970505-pat00004
은 촬상된 영상데이터의 비교로부터 산출되는 움직임 변화량이며,
Figure 112014050970505-pat00005
은 움직임 임계치이고,
Figure 112014050970505-pat00006
는 보정값일 수도 있다.
그리고 상기 시선 반응도(
Figure 112014050970505-pat00007
)는, 수식
Figure 112014050970505-pat00008
으로부터 산출되고: 여기서
Figure 112014050970505-pat00009
는 프레임별 시선 반응도 이고,
Figure 112014050970505-pat00010
은 촬상된 영상데이터로부터 관객의 몸체와 머리의 방향변화에 따른 시선 변화량이며,
Figure 112014050970505-pat00011
은 시선 임계치이고,
Figure 112014050970505-pat00012
는 보정값일 수도 있다.
또한, 사이 음향 반응도(
Figure 112014050970505-pat00013
)는,
Figure 112014050970505-pat00014
으로부터 산출되고: 여기서
Figure 112014050970505-pat00015
는 프레임별 음향 반응도 이고,
Figure 112014050970505-pat00016
는 수집된 음향데이터의 비교로부터 산출되는 음향 변화량이며,
Figure 112014050970505-pat00017
은 음향 임계치이고,
Figure 112014050970505-pat00018
는 보정값일 수도 있다.
그리고 상기 음향 변화량
Figure 112014050970505-pat00019
는, 컨텐츠 음향을 제거한 음향데이터로부터 산출될 수도 있다.
또한, 상기 연산부는, 각 씬(scene)에 포함된 프레임들에 대한 움직임반응도, 시선반응도 및 음향반응도의 평균값을 산출하여, 각 씬별 움직임반응도, 시선반응도 및 음향반응도를 산출할 수도 있다.
그리고 상기 연산부는, 컨텐츠 전체에 대하여,
Figure 112014050970505-pat00020
로부터 움직임반응도를 산출하고;
Figure 112014050970505-pat00021
로부터 시선반응도를 산출하며;
Figure 112014050970505-pat00022
로부터 음향반응도를 산출하고: 여기서,
Figure 112014050970505-pat00023
은 컨텐츠 전체에 대한 움직임 반응도 이고,
Figure 112014050970505-pat00024
는 컨텐츠 전체에 대한 시선 반응도 이며,
Figure 112014050970505-pat00025
는 컨텐츠 전체에 대한 음향반응도이고,
Figure 112014050970505-pat00026
는 각 씬별 가중치를 나타내며, 각 씬별
Figure 112014050970505-pat00027
은 움직임 변화량이고,
Figure 112014050970505-pat00028
은 움직임 임계치이며,
Figure 112014050970505-pat00029
는 시선 변화량이고,
Figure 112014050970505-pat00030
는 시선 임계치이며,
Figure 112014050970505-pat00031
는 음향변화량이고,
Figure 112014050970505-pat00032
는 음향 임계치이며,
Figure 112014050970505-pat00033
는 보정값일 수도 있다.
한편, 본 발명은 콘텐츠를 관람하는 관객의 반응을 분석하는 방법에 있어서, (A) 영상수집부와 음향수집부를 통해 콘텐츠 관람중 관람공간의 영상데이터와 음향데이터를 수집하는 단계와; (B) 상기 영상데이터로부터 움직임 반응도를 산출하는 단계와; (C) 상기 영상데이터로부터 시선 반응도를 산출하는 단계와; (D) 상기 음향데이터로부터 음향 반응도를 산출하는 단계; 그리고 (E) 상기 움직임 반응도, 시선 반응도 및 음향 반응도를 합하여 프레임별 관객 반응도(FEI)를 산출하는 단계를 포함하여 수행되는 관객반응 분석 방법을 포함한다.
이때, 상기 (B) 단계는, (B1) 상기 영상데이터의 움직임 변화량을 산출하는 단계와; (B2) 상기 움직임 변화량을 통해 프레임별 움직임 반응도를 산출하는 단계를 포함하여 수행되고: 상기 움직임 반응도(
Figure 112014050970505-pat00034
)는, 수식
Figure 112014050970505-pat00035
으로부터 산출되고: 여기서
Figure 112014050970505-pat00036
은 프레임별 움직임 반응도 이고,
Figure 112014050970505-pat00037
은 촬상된 영상데이터의 비교로부터 산출되는 움직임 변화량이며,
Figure 112014050970505-pat00038
은 움직임 임계치이고,
Figure 112014050970505-pat00039
는 보정값일 수도 있다.
그리고 상기 (C) 단계는, (C1) 시선 변화량을 산출하는 단계와; (C2) 상기 시선 변화량으로부터 프레임별 시선 반응도를 산출하는 단계를 포함하여 수행되고: 상기 시선 반응도(
Figure 112014050970505-pat00040
)는, 수식
Figure 112014050970505-pat00041
으로부터 산출되고: 여기서
Figure 112014050970505-pat00042
는 프레임별 시선 반응도 이고,
Figure 112014050970505-pat00043
은 촬상된 영상데이터로부터 관객의 몸체와 머리의 방향변화에 따른 시선 변화량이며,
Figure 112014050970505-pat00044
은 시선 임계치이고,
Figure 112014050970505-pat00045
는 보정값일 수도 있다.
또한, 상기 시선변화량(
Figure 112014050970505-pat00046
)은, 관객의 시선방향을 좌/우/정면 및 상/하 방향의 6방향으로 구분하여, 구분된 방향 사이의 변화 회수를 기준으로 산출될 수도 있다.
그리고 상기 (D) 단계는, (D1) 수집된 음향데이터에서 컨텐츠 상영에 포함된 음원을 필터링하여 제거하는 단계와; (D2) 음향데이터의 변화량을 산출하는 단계; 그리고 (D3) 상기 음향테이터의 변화량으로부터 음향 반응도를 산출하는 단계를 포함하여 수행되고: 사이 음향 반응도(
Figure 112014050970505-pat00047
)는,
Figure 112014050970505-pat00048
으로부터 산출되고: 여기서
Figure 112014050970505-pat00049
는 프레임별 음향 반응도 이고,
Figure 112014050970505-pat00050
는 수집된 음향데이터의 비교로부터 산출되는 음향 변화량이며,
Figure 112014050970505-pat00051
은 음향 임계치이고,
Figure 112014050970505-pat00052
는 보정값일 수도 있다.
또한, 본 발명은 (F) 상기 프레임별 관객반응도(FEI)를 각 씬 단위로 평균치를 산출하여 씬별 관객반응도(SEI)를 산출하는 단계를 더 포함하여 수행될 수도 있다.
그리고 본 발명은 (G) 상기 (F)단계에서 산출된 씬별 관객반응도(SEI)를 통해, 컨텐츠 전체에 대한 관객반응도(PEI)를 산출하는 단계를 더 포함하여 수행되고: 상기 PEI는, 컨텐츠 전체에 대하여, 수학식
Figure 112014050970505-pat00053
로부터 움직임반응도를 산출하고; 수학식
Figure 112014050970505-pat00054
로부터 시선반응도를 산출하며; 수학식
Figure 112014050970505-pat00055
로부터 음향반응도를 산출하여, 상기 컨텐츠 전체에 대한 움직임 반응, 시선 반응도 및 음향반응도의 합을 통해 산출되고: 여기서,
Figure 112014050970505-pat00056
은 컨텐츠 전체에 대한 움직임 반응도 이고,
Figure 112014050970505-pat00057
는 컨텐츠 전체에 대한 시선 반응도 이며,
Figure 112014050970505-pat00058
는 컨텐츠 전체에 대한 음향반응도이고,
Figure 112014050970505-pat00059
는 각 씬별 가중치를 나타내며, 각 씬별
Figure 112014050970505-pat00060
은 움직임 변화량이고,
Figure 112014050970505-pat00061
은 움직임 임계치이며,
Figure 112014050970505-pat00062
는 시선 변화량이고,
Figure 112014050970505-pat00063
는 시선 임계치이며,
Figure 112014050970505-pat00064
는 음향변화량이고,
Figure 112014050970505-pat00065
는 음향 임계치이며,
Figure 112014050970505-pat00066
는 보정값일 수도 있다.
위에서 살핀 바와 같은 본 발명에 의한 관객반응 분석 시스템 및 방법에서는 다음과 같은 효과를 기대할 수 있다.
즉, 본 발명에서는 관객의 반응을 분석함에 있어, 관객의 움직임, 관객 시선의 변화 및 음향(음성)의 변화를 기준으로 관객 반응도를 산출하므로, 정확성 높은 관객 반응 분석 시스템 및 방법을 제공할 수 있는 장점이 있다.
그리고 본 발명에서는 관객 반응의 변화도를 누적 산출하여, 프레임(frame) 단위, 씬(scene) 단위 및 전체 컨텐츠 단위의 관객 반응을 산출할 수 있는 관객반응 분석 시스템 및 방법을 제공할 수 있는 장점이 있다.
또한 본 발명에 의한 관객 반응 분석은 관객 반응도를 그래프화하여 이용자에게 제공함에 따라 정적 몰입 상태와 동적 몰입 상태를 구분할 수 있도록 하여 보다 정확한 관객반응을 파악할 수 있도록 하는 장점이 있다.
도 1은 종래 기술에 의한 관객 반응 분석 방법을 도시한 블록도.
도 2는 본 발명에 의한 관객반응 분석 시스템의 구체적인 실시예의 구성을 도시한 블록도.
도 3은 본 발명에 의한 관객반응 분석에 적용된 수식을 도시한 그래프.
도 4는 본 발명에 의한 관객반응 분석 방법의 구체적인 실시예를 도시한 흐름도.
도 5는 본 발명에 의한 관객반응 분석 예를 도시한 예시도.
도 6은 본 발명에 의한 관객반응 분석의 다른 예를 도시한 예시도.
도 7은 본 발명에 의한 관객반응 분석의 또 다른 예를 도시한 예시도.
이하에서는 첨부된 도면을 참조하여 본 발명의 구체적인 실시예에 의한 관객반응 분석 시스템 및 방법을 살펴보기로 한다.
설명에 앞서 먼저, 본 발명의 효과, 특징 및 이를 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예에서 명확해진다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 발명의 실시 예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이며, 후술되는 용어들은 본 발명의 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들(실행 엔진)에 의해 수행될 수도 있으며, 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다.
이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다.
그리고, 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성하여 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명되는 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.
또한, 각 블록 또는 각 단계는 특정된 논리적 기능들을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있으며, 몇 가지 대체 실시 예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능하다.
즉, 도시된 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하며, 또한 그 블록들 또는 단계들이 필요에 따라 해당하는 기능의 역순으로 수행되는 것도 가능하다.
도 2는 본 발명에 의한 관객반응 분석 시스템의 구체적인 실시예의 구성을 도시한 블록도이이고, 도 3은 본 발명에 의한 관객반응 분석에 적용된 수식을 도시한 그래프이다.
도 2에 도시된 바와 같이 본 발명에 의한 관객반응 분석 시스템은 영상수집부(100), 음향수집부(200), 연산부(300) 및 저장부(400)를 포함하여 구성된다.
상기 영상수집부(100)는 영상데이터를 수집하는 부분으로, 상기 영상데이터라 함은 콘텐츠(영상/공연)를 감상하는 관객에 대한 영상데이터를 의미하는 것으로, 상기 영상수집부(100)는 객석을 촬영하는 카메라 모듈일 수 있다.
또한, 상기 음향수집부(200)는 콘텐츠 상영 또는 공연 공간의 음향을 수집하는 부분으로, 상기 영상수집부(100)에 병행되어 설치된 마이크 모듈일 수도 있고, 바람직하게는 상영(공연)공간 전체에 고른 분포의 음향을 수집할 수 있도록 분산되어 설치되는 다수개의 마이크 모듈일 수도 있다.
한편, 상기 연산부(300)는 상기 영상수집부(100) 및 음향수집부(200)로부터 수집된 영상데이터와 음향데이터로부터 관객 반응도를 산출하는 부분으로, 상기 관객반응도를 산출하기 위하여, 움직임반응도를 산출하는 움직임반응도 산출부(310), 시선반응도를 산출하는 시선반응도 산출부(320) 및 음향반응도를 산출하는 음향반응도 산출부(330)를 포함하여 구성된다.
상기 움직임반응도 산출부(310)는, 상기 영상데이터들의 비교하여 움직임 변화량을 산출하고, 상기 움직임 변화량으로부터 움직임반응도를 산출한다.
구체적으로, 상기 움직임 반응도는 아래 수학식 1로부터 산출되는데, 여기서
Figure 112014050970505-pat00067
은 프레임별 움직임 반응도 이고,
Figure 112014050970505-pat00068
은 촬상된 영상데이터의 비교로부터 산출되는 움직임 변화량이며,
Figure 112014050970505-pat00069
은 움직임 임계치이고,
Figure 112014050970505-pat00070
는 보정값이다.
Figure 112014050970505-pat00071
그리고 상기 움직임 변화량은, 이전 프레임에서 촬상된 이미지와 현재 촬상된 프레임의 이미지를 비교하여 이미지의 변화정도를 산출하는 것으로, 픽셀 밝기의 변화에 의존하지 않고, 촬상 이미지 상의 물체의 변화 정도를 판별하여 산출한다.
촬상 이미지를 비교하여 물체의 변화(움직임)정도를 판별하는 기술은 이미 상용화되어 감시카메라 등의 분야에서 널리 적용되고 있는 기술로, 본 명세서에서 상세히 기술하지는 않도록 한다.
또한, 상기 움직임 변화량의 수치적 표현은 통일화된 기준이 적용되는한 다양한 방법에 의해 표현될 수 있는데, 예를 들어 전체 이미지 크기중 변화 발생정도를 %형식으로 표시될 수도 있고, 전체 이미지에 포함된 객체(관객) 중 움직임이 감지된 객체의 개수에 의해서도 표시될 수 있다.
그리고 상기 임계치(
Figure 112014050970505-pat00072
)는 통상 관객의 몰입도가 가장 낮은 상태에서의 움직임 변화량 값을 설정한 값이다.
한편, 상기 시선반응도 산출부(320)는 연속 취득된 상기 영상데이터들로부터 관객의 몸체와 머리를 구분하여 추출하고, 상기 몸체에 대한 머리부분의 방향 변화로부터 시선 반응도를 산출한다.
구체적으로, 상기 시선반응도는 아래 수학식 2로부터 산출되고, 여기서
Figure 112014050970505-pat00073
는 프레임별 시선 반응도 이고,
Figure 112014050970505-pat00074
은 촬상된 영상데이터로부터 관객의 몸체와 머리의 방향변화에 따른 시선 변화량이며,
Figure 112014050970505-pat00075
은 시선 임계치이고,
Figure 112014050970505-pat00076
는 보정값이다.
Figure 112014050970505-pat00077
한편, 상기 시선 변화량은 관객의 머리 방향의 변화를 정량적으로 산출하여 적용할 수도 있으나, 데이터 처리의 효율과 측정 데이터의 신뢰성을 고려할때, 시선방향을 특정 개수의 영역으로 구분하고, 구획된 영역 사이의 이동회수를 기준으로 산출하는 것이 바람직하다.
그리고 상기 시선 임계치 역시, 통상의 관객이 몰입도가 가장 낮은 경우 시선 방향의 변화정도를 나타내는 설정값이다.
한편, 상기 음향반응도 산출부(330)는 연속 취득된 상기 음향데이터들의 비교로부터 음향 반응도를 산출하는 것으로, 상기 음향 반응도는 아래 수학식 3으로부터 산출되고, 여기서,
Figure 112014050970505-pat00078
는 프레임별 음향 반응도 이고,
Figure 112014050970505-pat00079
는 수집된 음향데이터의 비교로부터 산출되는 음향 변화량이며,
Figure 112014050970505-pat00080
은 음향 임계치이고,
Figure 112014050970505-pat00081
는 보정값이다.
Figure 112014050970505-pat00082
이때, 상기 음향 변화량은 각 프래임 대응 시각의 음향의 변화량을 나타내는 것으로 상기 음향 수집부에서 수집된 음향의 그대로 비교하여 산출하는 경우, 컨텐츠 상에 포함된 효과음 등에 의해 영향을 받게된다.
따라서 정확한 관객들에 의한 음향 변화만을 반영하기 위하여 컨텐츠 상영(공연)에 의한 음향을 제거한 음향데이터를 기준으로 산출되는 것이 바람직하다.
이때, 특정 음원이 포함된 음향 데이터에서, 특정 음원을 제거하는 기술은 음원 파일에서 반주와 노래등을 분리하는 기술분야에서 이미 상용화 되어 적용되고 있는 기술로 이에 대하여는 본 명세서에서 상세한 설명은 생략하도록 한다.
그리고 상기 임계치는 전술한 바와 같다.
한편, 각 반응도 산출에 있어, 상기 보정값
Figure 112014050970505-pat00083
는 동일한 변수로 표시하였으나, 각 반응도의 특성에 따라 운영자에 의해 다른 값으로 각각 설정되는 값이다.
본 발명의 각 반응도 산출에 있어, 공통적으로 적용되는 수식 Y=(Q-C)^2+Cth 가 의미하는 바를 살펴보면, 해당 방정식을 그래프로 도시화 하면 도 3에 도시된 바와 같다.
이를 살펴보면, Q-C 값의 절대값이 커질 수록 반응도는 높은 것으로 산출되며 Q-C 값이 음의 값으로 커지는 경우 정적 몰입상태(진지하게 컨텐츠에 집중하는 경우)를 나타내며, Q-C 값이 양의 값으로 커지는 경우 동적 몰입상태(유쾌하거나 무서움등이 커져 콘텐츠에 대한 리액션이 증가하는 경우)를 나타내게 된다.
한편, 상기 연산부는, 전술한 바와 같이 산출된 상기 움직임 반응도, 상기 시선 반응도 및 상기 음향 반응도로부터 관객반응도를 산출한다.
상기 관객반응도는 기본적으로 상기 움직임 반응도, 상기 시선 반응도 및 상기 음향 반응도의 합으로부터 산출되고, 필요에 따라 보정값을 가감하여 산출될 수 있다.
한편, 상기 관객반응도는 프레임단위(PEI), 씬(scene)단위(SEI) 및 콘텐츠 전체(FEI) 별로 각각 산출될 수 있다.
이때, 상기 프레임 단위의 관객반응도(PEI)는 전술한 프레임 단위의 움직임 반응도, 시선 반응도 및 음향 반응도의 합으로부터 산출되고, 씬단위의 관객반응도(SEI)는 각 씬을 구성하는 프레임들의 관객반응도의 평균값으로 부터 산출된다.
그리고 상기 전체 콘테츠 단위의 관객반응도(PEI)는 씬단위로 산출된 관객반응도에 의해 산출되는데, 구체적으로는 아래 수학식 4, 수학식 5 및 수학식 6에 의해 각각 전체 콘텐츠에 대한 움직임 반응도, 시선 반응도 및 음향 반응도를 산출하여 이들의 합으로부터 산출될 수 있다. 물론, 필요에 따라 이 경우에도 각 반응도에 대한 가중치를 부여하여 산출할 수 있다.
Figure 112014050970505-pat00084
Figure 112014050970505-pat00085
Figure 112014050970505-pat00086
이때 위 수학식 4 내지 5에 있어,
Figure 112014050970505-pat00087
은 컨텐츠 전체에 대한 움직임 반응도 이고,
Figure 112014050970505-pat00088
는 컨텐츠 전체에 대한 시선 반응도 이며,
Figure 112014050970505-pat00089
는 컨텐츠 전체에 대한 음향반응도이고,
Figure 112014050970505-pat00090
는 각 씬별 가중치를 나타내며, 각 씬별
Figure 112014050970505-pat00091
은 움직임 변화량이고,
Figure 112014050970505-pat00092
은 움직임 임계치이며,
Figure 112014050970505-pat00093
는 시선 변화량이고,
Figure 112014050970505-pat00094
는 시선 임계치이며,
Figure 112014050970505-pat00095
는 음향변화량이고,
Figure 112014050970505-pat00096
는 음향 임계치이며,
Figure 112014050970505-pat00097
는 보정값이다.
그리고 상기 저장부는 상기 연산부에서 산출한 프레임별, 씬별 전체 콘텐츠별 움직임 반응도, 시선 반응도 및 음향 반응도와 이들로 부터 산출된 관객반응도를 누적하여 저장한다.
상기 저장된 데이터로부터 상기 컨텐츠에 대한 관객반응의 다양한 분석결과를 도출할 수 있다.
이하에서는 상기한 바와 같은 본 발명에 의한 관객반응 분석 방법을 첨부된 도면을 참고하여 상세하게 설명한다.
도 4는 본 발명에 의한 관객반응 분석 방법의 구체적인 실시예를 도시한 흐름도이고, 도 5는 본 발명에 의한 관객반응 분석 예를 도시한 예시도이며, 도 6은 본 발명에 의한 관객반응 분석의 다른 예를 도시한 예시도이고, 도 7은 본 발명에 의한 관객반응 분석의 또 다른 예를 도시한 예시도이다.
먼저 도 4에 도시된 바와 같이, 본 발명에 의한 관객반응 분석 방법은 콘텐츠의 관람의 시작과 함께, 영상수집부와 음향수집부가 영상데이터 및 음향데이터를 수집하는 것으로부터 시작된다(S100).
이와 같이 수집된 영상데이터 및 음향데이터는 프레임 단위로 각각 움직임 반응도, 시선 반응도 및 음향 반응도를 산출하는데 이용된다.
이들 움직임 반응도, 시선 반응도 및 음향 반응도는 각각 개별적인 프로세스에 의해 동시에 산출될 수도 있고, 순차적으로 산출될 수도 있으며, 필요에 따라 컨텐츠 상영(공연)과 동시에 수행될 수도 있다.
먼저, 움직임 반응도 산출을 위해 상기 연산부는 상기 영상데이터의 움직임 변화량을 산출한다(S210).
그리고 다음으로 상기 움직임 변화량을 통해 프레임별 움직임 반응도를 산출한다(S212).
이때, 상기 움직임 반응도는, 수학식 3에 의해 산출됨은 전술한 바와 같다.
그리고 시선 반응도 산출을 위해 상기 연산부는, 시선 변화량을 산출한다(S220). 이때 상기 시선 변화량은 관객의 시선방향을 특정 개수의 영역으로 구분하여 해당 영역 사이의 변화 정도를 기준으로 측정되는 것이 바람직하고, 본 발명에서는 시선방향을 좌/우/정면 및 상/하 방향의 6방향으로 구분하여, 구분된 방향 사이의 변화 회수를 기준으로 산출되는 실시예를 적용하였다.
다음으로 상기 시선 변화량으로부터 프레임별 시선 반응도를 산출한다(S222). 이때, 상기 시선 반응도는 수학식 4로부터 산출됨은 전술한 바와 같다.
한편, 음향 반응도 산출을 위해 상기 연산부는 수집된 음향데이터에서 컨텐츠 상영에 포함된 음원을 필터링하여 제거한다(S230). 이때, 상기 컨텐츠 음원을 제거하는 것은 관객에 의해 발생되는 음향만을 기초로 음향 반응도를 산출하기 위한 것임은 전술한 바와 같다.
다음으로 필터링된 음향데이터의 변화량을 산출한다(S232).
그리고 수학식 5를 이용하여 음향 반응도를 산출한다(S234).
전술한 바와 같이, 각 프레임 단위의 움직임 반응도, 시선 반응도 및 음향 반응도가 산출되면 이들 상기 움직임 반응도, 시선 반응도 및 음향 반응도의 합을 통해 프레임별 관객 반응도(FEI)를 산출한다(S300).
다음으로, 상기 연산부는 상기 제100단계 내지 제300단계를 씬 단위의 영역에 대하여 수행하여, 상기 프레임별 관객반응도(FEI)를 각 씬 단위로 구분하고 평균치를 산출하여 씬별 관객반응도(SEI)를 산출한다(S400, S500).
그리고 상기 씬단위의 관객반응도(SEI)를 콘텐츠 전체에 대하여 수행한 이후, 수학식 6을 통해 콘텐츠 전체에 대한 관객반응도(PEI)를 산출한다(S600, S700).
이와 같은 본 발명에 의해 프레임별, 씬별, 콘텐츠 전체에 대한 관객 반응도가 산출된 일예가 도 5에 도시되어 있다. 이에 도시된 바와 같이, 분석 화면상에 관객의 움직임 정도를 그래프화 하여 출력할 수 있고, 이와 함께 산출된 프레임별, 씬별, 콘텐츠 전체의 관객 반응도를 출력할 수 있다.
한편, 도 6에는 저장부에 누적되어 저장된 데이터로부터 다양한 조건(기간, 날짜 등)을 입력받고, 해당 조건에 따라 산출된 데이터의 통계자료를 출력하는 예가 도시되어 있다.
또한, 도 7에는 각 씬별 관객 반응도와 콘텐츠 전체에 대한 반응도가 그래프화하여 출력된 예가 도시되어 있다.
본 발명의 권리는 위에서 설명된 실시예에 한정되지 않고 청구범위에 기재된 바에 의해 정의되며, 본 발명의 분야에서 통상의 지식을 가진 자가 청구범위에 기재된 권리범위 내에서 다양한 변형과 개작을 할 수 있다는 것은 자명하다.
본 발명은 영상 컨텐츠 또는 공연의 관람자들의 집중도 및 반응을 분석하여 분석하기 위한 관객반응 분석 시스템 및 방법에 관한 것으로, 본 발명에 의하면, 관객의 반응을 분석함에 있어, 관객의 움직임, 관객 시선의 변화 및 음향(음성)의 변화를 기준으로 관객 반응도를 산출하므로, 정확성 높은 관객 반응 분석 시스템 및 방법을 제공할 수 있는 장점이 있다.
100 : 영상수집부 200 : 음향수집부
300 : 연산부 310 : 움직임 반응도 산출부
320 : 시선 반응도 산출부 330 : 음향 반응도 산출부
400 : 저장부

Claims (14)

  1. 컨텐츠 관람 관객의 영상을 연속적으로 취득하는 영상수집부와;
    컨텐츠 관람 공간의 음향을 연속적으로 취득하는 음향수집부와;
    상기 영상수집부에서 취득된 영상데이터와 상기 음향수집부에서 취득한 음향데이터로부터 관객반응도를 산출하는 연산부; 그리고
    상기 연산부에서 산출된 관객반응도를 시계열적으로 누적하여 저장하는 저장부를 포함하여 구성되고:
    상기 연산부는,
    연속 취득된 상기 영상데이터들의 비교로부터 움직임 반응도를 산출하는 움직임 반응도 산출부와;
    연속 취득된 상기 영상데이터들로부터 관객의 몸체와 머리를 구분하여 추출하고, 상기 몸체에 대한 머리부분의 방향 변화로부터 시선 반응도를 산출하는 시선반응도 산출부; 그리고
    연속 취득된 상기 음향데이터들의 비교로부터 음향 반응도를 산출하는 음향 반응도 산출부를 포함하여 구성되어, 상기 움직임 반응도, 상기 시선 반응도 및 상기 음향 반응도로부터 관객 반응도를 산출하고:
    상기 움직임 반응도(
    Figure 112015050444119-pat00098
    )는, 수식
    Figure 112015050444119-pat00099
    으로부터 산출되고:
    여기서
    Figure 112015050444119-pat00100
    은 프레임별 움직임 반응도 이고,
    Figure 112015050444119-pat00101
    은 촬상된 영상데이터의 비교로부터 산출되는 움직임 변화량이며,
    Figure 112015050444119-pat00102
    은 움직임 임계치이고,
    Figure 112015050444119-pat00103
    는 보정값임을 특징으로 하는 관객반응 분석 시스템.
  2. 삭제
  3. 제 1 항에 있어서,
    상기 시선 반응도(
    Figure 112015050444119-pat00104
    )는, 수식
    Figure 112015050444119-pat00105
    으로부터 산출되고:
    여기서
    Figure 112015050444119-pat00106
    는 프레임별 시선 반응도 이고,
    Figure 112015050444119-pat00107
    은 촬상된 영상데이터로부터 관객의 몸체와 머리의 방향변화에 따른 시선 변화량이며,
    Figure 112015050444119-pat00108
    은 시선 임계치이고,
    Figure 112015050444119-pat00109
    는 보정값임을 특징으로 하는 관객반응 분석 시스템.
  4. 제 3 항에 있어서,
    사이 음향 반응도(
    Figure 112014050970505-pat00110
    )는,
    Figure 112014050970505-pat00111
    으로부터 산출되고:
    여기서
    Figure 112014050970505-pat00112
    는 프레임별 음향 반응도 이고,
    Figure 112014050970505-pat00113
    는 수집된 음향데이터의 비교로부터 산출되는 음향 변화량이며,
    Figure 112014050970505-pat00114
    은 음향 임계치이고,
    Figure 112014050970505-pat00115
    는 보정값임을 특징으로 하는 관객반응 분석 시스템.
  5. 제 4 항에 있어서,
    상기 음향 변화량
    Figure 112014050970505-pat00116
    는,
    컨텐츠 음향을 제거한 음향데이터로부터 산출됨을 특징으로 하는 관객반응 분석 시스템.
  6. 제 5 항에 있어서,
    상기 연산부는,
    각 씬(scene)에 포함된 프레임들에 대한 움직임반응도, 시선반응도 및 음향반응도의 평균값을 산출하여, 각 씬별 움직임반응도, 시선반응도 및 음향반응도를 산출함을 특징으로 하는 관객반응 분석 시스템.
  7. 제 6 항에 있어서,
    상기 연산부는, 컨텐츠 전체에 대하여,
    Figure 112014050970505-pat00117
    로부터 움직임반응도를 산출하고;
    Figure 112014050970505-pat00118
    로부터 시선반응도를 산출하며;
    Figure 112014050970505-pat00119
    로부터 음향반응도를 산출하고:
    여기서,
    Figure 112014050970505-pat00120
    은 컨텐츠 전체에 대한 움직임 반응도 이고,
    Figure 112014050970505-pat00121
    는 컨텐츠 전체에 대한 시선 반응도 이며,
    Figure 112014050970505-pat00122
    는 컨텐츠 전체에 대한 음향반응도이고,
    Figure 112014050970505-pat00123
    는 각 씬별 가중치를 나타내며, 각 씬별
    Figure 112014050970505-pat00124
    은 움직임 변화량이고,
    Figure 112014050970505-pat00125
    은 움직임 임계치이며,
    Figure 112014050970505-pat00126
    는 시선 변화량이고,
    Figure 112014050970505-pat00127
    는 시선 임계치이며,
    Figure 112014050970505-pat00128
    는 음향변화량이고,
    Figure 112014050970505-pat00129
    는 음향 임계치이며,
    Figure 112014050970505-pat00130
    는 보정값임을 특징으로 하는 관객반응 분석 시스템.
  8. 콘텐츠를 관람하는 관객의 반응을 분석하는 방법에 있어서,
    (A) 영상수집부와 음향수집부를 통해 콘텐츠 관람중 관람공간의 영상데이터와 음향데이터를 수집하는 단계와;
    (B) 상기 영상데이터로부터 움직임 반응도를 산출하는 단계와;
    (C) 상기 영상데이터로부터 시선 반응도를 산출하는 단계와;
    (D) 상기 음향데이터로부터 음향 반응도를 산출하는 단계; 그리고
    (E) 상기 움직임 반응도, 시선 반응도 및 음향 반응도를 합하여 프레임별 관객 반응도(FEI)를 산출하는 단계를 포함하여 수행되고:
    상기 (B) 단계는,
    (B1) 상기 영상데이터의 움직임 변화량을 산출하는 단계와;
    (B2) 상기 움직임 변화량을 통해 프레임별 움직임 반응도를 산출하는 단계를 포함하여 수행되고:
    상기 움직임 반응도(
    Figure 112015050444119-pat00131
    )는, 수식
    Figure 112015050444119-pat00132
    으로부터 산출되고:
    여기서
    Figure 112015050444119-pat00133
    은 프레임별 움직임 반응도 이고,
    Figure 112015050444119-pat00134
    은 촬상된 영상데이터의 비교로부터 산출되는 움직임 변화량이며,
    Figure 112015050444119-pat00135
    은 움직임 임계치이고,
    Figure 112015050444119-pat00136
    는 보정값임을 특징으로 하는 관객반응 분석 방법.
  9. 삭제
  10. 제 8 항에 있어서,
    상기 (C) 단계는,
    (C1) 시선 변화량을 산출하는 단계와;
    (C2) 상기 시선 변화량으로부터 프레임별 시선 반응도를 산출하는 단계를 포함하여 수행되고:
    상기 시선 반응도(
    Figure 112014050970505-pat00137
    )는, 수식
    Figure 112014050970505-pat00138
    으로부터 산출되고:
    여기서
    Figure 112014050970505-pat00139
    는 프레임별 시선 반응도 이고,
    Figure 112014050970505-pat00140
    은 촬상된 영상데이터로부터 관객의 몸체와 머리의 방향변화에 따른 시선 변화량이며,
    Figure 112014050970505-pat00141
    은 시선 임계치이고,
    Figure 112014050970505-pat00142
    는 보정값임을 특징으로 하는 관객반응 분석 방법.
  11. 제 10 항에 있어서,
    상기 시선변화량(
    Figure 112014050970505-pat00143
    )은,
    관객의 시선방향을 좌/우/정면 및 상/하 방향의 6방향으로 구분하여, 구분된 방향 사이의 변화 회수를 기준으로 산출됨을 특징으로 하는 관객반응 분석 방법.
  12. 제 8 항에 있어서,
    상기 (D) 단계는,
    (D1) 수집된 음향데이터에서 컨텐츠 상영에 포함된 음원을 필터링하여 제거하는 단계와;
    (D2) 음향데이터의 변화량을 산출하는 단계; 그리고
    (D3) 상기 음향테이터의 변화량으로부터 음향 반응도를 산출하는 단계를 포함하여 수행되고:
    사이 음향 반응도(
    Figure 112014050970505-pat00144
    )는,
    Figure 112014050970505-pat00145
    으로부터 산출되고:
    여기서
    Figure 112014050970505-pat00146
    는 프레임별 음향 반응도 이고,
    Figure 112014050970505-pat00147
    는 수집된 음향데이터의 비교로부터 산출되는 음향 변화량이며,
    Figure 112014050970505-pat00148
    은 음향 임계치이고,
    Figure 112014050970505-pat00149
    는 보정값임을 특징으로 하는 관객반응 분석 방법.
  13. 제 8 항, 제 10 항, 제 11 항 또는 제 12 항 중 어느 한 항에 있어서,
    (F) 상기 프레임별 관객반응도(FEI)를 각 씬 단위로 평균치를 산출하여 씬별 관객반응도(SEI)를 산출하는 단계를 더 포함하여 수행됨을 특징으로 하는 관객반응 분석 방법.
  14. 제 13 항에 있어서,
    (G) 상기 (F)단계에서 산출된 씬별 관객반응도(SEI)를 통해, 컨텐츠 전체에 대한 관객반응도(PEI)를 산출하는 단계를 더 포함하여 수행되고:
    상기 PEI는,
    컨텐츠 전체에 대하여,
    수학식
    Figure 112014050970505-pat00150
    로부터 움직임반응도를 산출하고;
    수학식
    Figure 112014050970505-pat00151
    로부터 시선반응도를 산출하며;
    수학식
    Figure 112014050970505-pat00152
    로부터 음향반응도를 산출하여, 상기 컨텐츠 전체에 대한 움직임 반응, 시선 반응도 및 음향반응도의 합을 통해 산출되고:
    여기서,
    Figure 112014050970505-pat00153
    은 컨텐츠 전체에 대한 움직임 반응도 이고,
    Figure 112014050970505-pat00154
    는 컨텐츠 전체에 대한 시선 반응도 이며,
    Figure 112014050970505-pat00155
    는 컨텐츠 전체에 대한 음향반응도이고,
    Figure 112014050970505-pat00156
    는 각 씬별 가중치를 나타내며, 각 씬별
    Figure 112014050970505-pat00157
    은 움직임 변화량이고,
    Figure 112014050970505-pat00158
    은 움직임 임계치이며,
    Figure 112014050970505-pat00159
    는 시선 변화량이고,
    Figure 112014050970505-pat00160
    는 시선 임계치이며,
    Figure 112014050970505-pat00161
    는 음향변화량이고,
    Figure 112014050970505-pat00162
    는 음향 임계치이며,
    Figure 112014050970505-pat00163
    는 보정값임을 특징으로 하는 관객반응 분석 방법.
KR1020140064989A 2014-05-29 2014-05-29 관객반응 분석 시스템 및 방법 KR101591402B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020140064989A KR101591402B1 (ko) 2014-05-29 2014-05-29 관객반응 분석 시스템 및 방법
PCT/KR2014/012516 WO2015182841A1 (ko) 2014-05-29 2014-12-18 관객반응 분석 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140064989A KR101591402B1 (ko) 2014-05-29 2014-05-29 관객반응 분석 시스템 및 방법

Publications (2)

Publication Number Publication Date
KR20150137320A KR20150137320A (ko) 2015-12-09
KR101591402B1 true KR101591402B1 (ko) 2016-02-03

Family

ID=54699143

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140064989A KR101591402B1 (ko) 2014-05-29 2014-05-29 관객반응 분석 시스템 및 방법

Country Status (2)

Country Link
KR (1) KR101591402B1 (ko)
WO (1) WO2015182841A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101668387B1 (ko) 2016-05-16 2016-10-21 정문영 극장 관람객의 행태를 분석하는 관람 행태 분석 장치 및 관람 행태 분석 방법
KR102179426B1 (ko) * 2019-06-27 2020-11-16 김재신 세계예능올림픽경연대회 중계방송 운영 시스템
KR102184396B1 (ko) * 2019-10-14 2020-11-30 김재신 세계예능올림픽경연대회 중계방송 운영 시스템 및 그 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009187441A (ja) 2008-02-08 2009-08-20 Toyohashi Univ Of Technology 視線の軌跡情報に基づいた動画像推薦システム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090121016A (ko) * 2008-05-21 2009-11-25 박영민 시청자 반응 측정 방법 및 시스템
JP2010026871A (ja) * 2008-07-22 2010-02-04 Nikon Corp 情報処理装置及び情報処理システム
JP5609160B2 (ja) * 2010-02-26 2014-10-22 ソニー株式会社 情報処理システム、コンテンツ合成装置および方法、並びに記録媒体
JP2013016903A (ja) * 2011-06-30 2013-01-24 Toshiba Corp 情報処理装置及び情報処理方法
KR101403244B1 (ko) 2012-09-28 2014-06-02 경희대학교 산학협력단 컨텐츠에 대한 관객 그룹의 몰입도 판단 방법
KR101403143B1 (ko) 2012-09-28 2014-06-03 경희대학교 산학협력단 컨텐츠에 대한 관객 그룹의 반응 판단 방법
KR101337833B1 (ko) 2012-09-28 2013-12-06 경희대학교 산학협력단 컨텐츠에 대한 관객 반응의 판단 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009187441A (ja) 2008-02-08 2009-08-20 Toyohashi Univ Of Technology 視線の軌跡情報に基づいた動画像推薦システム

Also Published As

Publication number Publication date
WO2015182841A1 (ko) 2015-12-03
KR20150137320A (ko) 2015-12-09

Similar Documents

Publication Publication Date Title
Ma et al. Perceptual evaluation of single image dehazing algorithms
JP5871862B2 (ja) 3d深度情報に基づいたイメージぼかし
JP2016146547A5 (ko)
US20190236779A1 (en) Diagnostic imaging assistance apparatus and system, and diagnostic imaging assistance method
US20130021578A1 (en) Learning-based visual attention prediction system and method thereof
US10600189B1 (en) Optical flow techniques for event cameras
RU2012143140A (ru) Система для анализа при лечении кожи с использованием данных спектральных изображений для генерации трехмерной модели rgb
CN104076481B (zh) 自动聚焦方法及其设备
CN107767358B (zh) 一种图像中物体模糊度确定方法和装置
JP2011130204A (ja) 映像情報処理方法及びその装置
KR101591402B1 (ko) 관객반응 분석 시스템 및 방법
US20200394418A1 (en) Image processing method, an image processing apparatus, and a surveillance system
CN112492297B (zh) 一种对视频的处理方法以及相关设备
CN113691721B (zh) 一种缩时摄影视频的合成方法、装置、计算机设备和介质
CN110826522A (zh) 人体异常行为监控方法、系统、存储介质及监控设备
CN103096117B (zh) 视频噪声检测方法及装置
KR101220223B1 (ko) 스테레오스코픽 영상 시스템에서의 시각적 불편감 측정 장치 및 방법, 시각적 불편감 측정 방법을 실행하기 위한 프로그램이 기록된 기록매체
CN110874572B (zh) 一种信息检测方法及装置、存储介质
CN111931679A (zh) 动作识别方法、装置、设备及存储介质
CN112084851A (zh) 手卫生效果检测方法、装置、设备及介质
CN111448589B (zh) 用于检测患者的身体移动的设备、系统和方法
US10904429B2 (en) Image sensor
CN110322470A (zh) 行动识别装置、行动识别方法以及记录介质
JP2019159593A5 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2014164525A (ja) 物体数推定方法、物体数推定装置、及び物体数推定プログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee