KR20130099418A - 사용자의 반응에 기반한 동적 콘텐츠 재생 제어 방법 및 장치 - Google Patents

사용자의 반응에 기반한 동적 콘텐츠 재생 제어 방법 및 장치 Download PDF

Info

Publication number
KR20130099418A
KR20130099418A KR1020120020910A KR20120020910A KR20130099418A KR 20130099418 A KR20130099418 A KR 20130099418A KR 1020120020910 A KR1020120020910 A KR 1020120020910A KR 20120020910 A KR20120020910 A KR 20120020910A KR 20130099418 A KR20130099418 A KR 20130099418A
Authority
KR
South Korea
Prior art keywords
video
user
edited
categories
playback
Prior art date
Application number
KR1020120020910A
Other languages
English (en)
Other versions
KR101360471B1 (ko
Inventor
박효진
최준균
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020120020910A priority Critical patent/KR101360471B1/ko
Publication of KR20130099418A publication Critical patent/KR20130099418A/ko
Application granted granted Critical
Publication of KR101360471B1 publication Critical patent/KR101360471B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Tourism & Hospitality (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

사용자의 반응에 기반한 동적 콘텐츠 재생 제어 방법 및 장치가 제공된다. 전자 장치는 센서가 감지한 정보에 기반하여 재생 중인 콘텐츠에 대한 사용자의 반응을 추정한다. 전자 장치는 추정된 반응에 따라 동영상의 재생을 제어한다. 전자 장치는 동영상 중 재생되고 있는 부분과 관련된 부분의 재생 시간을 증가 또는 감소시킬 수 있다. 동영상은 서로 상이한 재생 시간을 갖는 복수 개의 편집 본들을 포함할 수 있다.

Description

사용자의 반응에 기반한 동적 콘텐츠 재생 제어 방법 및 장치{METHOD AND APPARATUS FOR CONTROLLING PLAYBACK OF CONTENT BASED ON USER REACTION}
동영상 콘텐츠의 재생을 제어하기 위한 방법 및 장치에 관한 것으로, 보다 상세히는 사용자의 반응에 기반하여 콘텐츠의 재생을 동적으로 제어하는 방법 및 장치가 개시된다.
일반적으로, 동영상 콘텐츠는 제작자의 의도에 의해 촬영된 후, 편집이 완성된 상태에서 배포된다. 특히, 영화 또는 텔레비전(TeleVision; TV) 프로그램은 제한된 편성 시간에 맞춰서 편집된다. 즉, 일반적인 동영상 콘텐츠는 레디-메이드(ready-made) 콘텐츠이다.
동영상 콘텐츠를 시청하는 시청자마다 동영상 콘텐츠의 장면 및 내용에 대한 기호는 서로 상이하다. 레디-메이드 콘텐츠는 편집에 의해 결정된 내용만을 제공하기 때문에 서로 상이한 기호를 갖는 다양한 시청자들의 만족도를 극대화시키기 어렵다.
근래에 개발된 센싱(sensing) 장비들은 실시간으로 사용자의 얼굴(또는, 표정), 동작 또는 음성 등을 인식할 수 있으며, 상기의 인식에 기반하여 증강현실 또는 상호작용 서비스를 사용자에게 제공할 수 있다.
한국공개특허 제10-2012-0012627호(공개일 2012년 02월 12일) 및 제10-2011-0136004(공개일 2011년 12월 21)에는 사용자의 얼굴을 인식하고, 인식된 사용자에 맞춰 증강현실 또는 상호작용 서비스를 제공하는 방법이 개시되어 있다.
일 실시예는 동영상을 시청하는 사용자의 반응에 따라 동영상의 재생을 제어하는 장치 및 방법을 제공할 수 있다.
일 실시예는 서로 상이한 분량을 갖는 복수 개의 편집 본들을 포함하는 동영상을 생성하는 장치 및 방법을 제공할 수 있다.
일 측에 따르면, 전자 장치가 사용자에게 동영상을 제공하는 방법에 있어서, 상기 사용자가 상기 동영상을 시청할 수 있도록 상기 동영상을 재생하는 단계, 상기 사용자의 동작에 기인하여 발생한 물리적 현상을 식별하는 단계, 상기 물리적 현상에 기반하여 상기 사용자의 상기 동영상에 대한 반응을 추정하는 단계 및 상기 추정된 반응에 기반하여 상기 동영상의 재생을 제어하는 단계를 포함하는 동영상 제공 방법이 제공된다.
상기 물리적 현상은 상기 사용자의 신체 상의 변화, 상기 사용자의 시청 환경 상의 변화 및 상기 사용자의 동작에 의해 발생한 물리적인 변화 중 하나 이상일 수 있다.
상기 감지하는 단계는, 상기 전자 장치 주위의 물리적 상태를 감지함으로써 제1 물리적 상태에 대한 정보를 생성하는 단계, 상기 제1 물리적 상태에 대한 정보가 감지된 후 상기 전자 장치 주위의 물리적 상태를 감지함으로써 제2 물리적 상태에 대한 정보를 생성하는 단계 및 상기 제1 물리적 상태에 대한 정보 및 상기 제2 물리적 상태에 대한 정보 간의 차이에 기반하여 상기 물리적 현상을 식별하는 단계를 포함할 수 있다.
상기 제어는 상기 재생의 속도의 조절일 수 있다.
상기 추정된 반응은 상기 사용자가 상기 동영상을 시청하는지 여부 및 상기 사용자가 상기 동영상의 시청에 집중하는지 여부 중 하나 이상을 포함할 수 있다.
상기 제어는 상기 추정된 반응이 상기 사용자가 상기 동영상을 시청하지 않는 것을 나타낼 때 상기 동영상의 재생을 중단시키는 제어 및 상기 추정된 반응이 상기 사용자가 상기 동영상을 시청하는 것을 나타낼 때 상기 동영상의 재생을 재개하는 제어일 수 있다.
상기 제어는 추정된 반응이 상기 사용자가 상기 동영상의 시청에 집중한다는 것을 나타낼 때, 상기 동영상 중 상기 사용자가 집중한 부분에 관련된 부분의 재생 시간을 증가시키는 제어 및 상기 추정된 반응이 상기 사용자가 상기 동영상의 시청에 집중하지 않는다는 것을 나타낼 때, 상기 동영상 중 상기 사용자가 집중하지 않은 부분에 관련된 부분의 재생 시간을 감소시키는 제어일 수 있다.
상기 동영상은 복수 개의 카테고리들로 분류될 수 있다.
상기 동영상은 하나 이상의 편집 본들을 포함할 수 있다.
상기 재생 시간을 증가시키는 제어 및 상기 재생 시간을 감소시키는 제어는 하나 이상의 편집 본들 중 재생할 편집 본을 선택함으로써 수행될 수 있다.
상기 선택은 상기 복수 개의 카테고리들 중 상기 집중한 부분 또는 상기 집중하지 않은 부분이 속하는 카테고리에 대해 적용될 수 있다.
상기 복수 개의 카테고리들 및 상기 하나 이상의 촬영 본들에 대한 정보는 상기 동영상의 전자 프로그램 가이드(Electronic Program Guide; EPG)를 통해 제공될 수 있다.
다른 일 측에 따르면, 전자 장치를 통해 사용자에게 동영상을 제공하는 프로그램이 기록되어 있는 기록 매체에 있어서, 상기 사용자가 상기 동영상을 시청할 수 있도록 상기 동영상을 재생하는 재생 코드, 상기 사용자의 동작에 기인하여 발생한 물리적 현상을 식별하는 식별 코드, 상기 물리적 현상에 기반하여 상기 사용자의 상기 동영상에 대한 반응을 추정하는 추정 코드 및 상기 추정된 반응에 기반하여 상기 동영상의 재생을 제어하는 제어 코드를 포함하는 프로그램이 기록된, 컴퓨터에서 판독 가능한 기록 매체가 제공될 수 있다.
또 다른 일 측에 따르면, 사용자에게 동영상을 제공하는 전자 장치에 있어서, 상기 사용자가 상기 동영상을 시청할 수 있도록 상기 동영상을 재생하고, 상기 사용자의 동작에 기인하여 발생한 물리적 현상을 식별하고, 상기 물리적 현상에 기반하여 상기 사용자의 상기 동영상에 대한 반응을 추정하고, 상기 추정된 반응에 기반하여 상기 동영상의 재생을 제어하는 처리부 및 상기 동영상을 출력하는 출력부를 포함하는, 전자 장치가 제공될 수 있다.
또 다른 일 측에 따르면, 전자 장치가 촬영에 의해 생성된 동영상의 촬영 본을 편집함으로써 상기 동영상에 대한 시청자의 반응에 따라 재생되는 내용이 변경될 수 있는 상기 동영상의 편집 본을 생성하는 방법에 있어서, 상기 동영상의 촬영 본의 내용에 기반하여 상기 내용에 따라 각각 구분되는 복수 개의 카테고리들을 결정하는 단계, 상기 복수 개의 카테고리 각각에 대해 복수 개의 편집 본들 각각에서의 재생 시간을 결정하는 단계, 상기 촬영 본의 내용 중 일부를 선택함으로써 상기 복수 개의 카테고리 각각에 대해 상기 복수 개의 편집 본들 각각의 내용을 결정하는 단계 및 상기 복수 개의 카테고리들의 상기 복수 개의 편집 본들의 내용들을 결합함으로써 상기 시청자의 반응에 따라 상기 복수 개의 카테고리들 각각에 대해 상기 복수 개의 편집 본들 중 하나의 편집 본이 재생될 수 있는 상기 동영상의 편집 본을 생성하는 단계를 포함하는, 동영상의 편집 본 생성 방법이 제공된다.
상기 복수 개의 편집 본들은 기본 편집 본, 최소 편집 본 및 최대 편집 본을 포함할 수 있다.
상기 최대 편집 본의 재생 시간은 상기 기본 편집 본의 재생 시간 이상일 수 있다.
상기 기본 편집 본의 재생 시간은 상기 최소 편집 본의 재생 시간 이상일 수 있다.
상기 기본 편집 본의 내용은 상기 동영상이 편집 본의 재생이 상기 시청자의 반응에 따라 제어되지 않을 때 기본적으로 재생되는 내용일 수 있다.
상기 복수 개의 카테고리들은 각각 상기 동영상 내에서 특정한 출연자가 메인으로 출연하는 장면을 나타낼 수 있다.
또 다른 일 측에 따르면, 촬영에 의해 생성된 동영상의 촬영 본을 편집함으로써 상기 동영상에 대한 시청자의 반응에 따라 재생되는 내용이 변경될 수 있는 상기 동영상의 편집 본을 생성하는 전자 장치에 있어서, 상기 동영상의 촬영 본의 내용에 기반하여 상기 내용에 따라 각각 구분되는 복수 개의 카테고리들을 결정하고, 상기 복수 개의 카테고리 각각에 대해 복수 개의 편집 본들 각각에서의 재생 시간을 결정하고, 상기 촬영 본의 내용 중 일부를 선택함으로써 상기 복수 개의 카테고리 각각에 대해 상기 복수 개의 편집 본들 각각의 내용을 결정하고, 상기 복수 개의 카테고리들의 상기 복수 개의 편집 본들의 내용들을 결합함으로써 상기 시청자의 반응에 따라 상기 복수 개의 카테고리들 각각에 대해 상기 복수 개의 편집 본들 중 하나의 편집 본이 재생될 수 있는 상기 동영상의 편집 본을 생성하는 처리부; 및 상기 동영상의 촬영 본 및 상기 동영상의 편집 본을 저장하는 저장부를 포함하는, 전자 장치가 제공된다.
동영상을 시청하는 사용자의 반응에 따라 동영상의 재생을 제어하는 장치 및 방법이 제공된다.
서로 상이한 분량을 갖는 복수 개의 편집 본들을 포함하는 동영상을 생성하는 장치 및 방법이 제공된다.
도 1은 일 실시예에 따른 전자 장치의 구조도이다.
도 2는 일 실시예에 따른 사용자의 반응에 기반하여 동영상의 재생을 제어하는 방법의 흐름도이다.
도 3은 일 실시예에 따른 센싱부의 구조도이다.
도 4는 일 예에 따른 물리적 현상, 추정된 반응 및 동영상의 제어 간의 관계를 나타낸다.
도 5는 일 예에 따른 물리적 현상을 식별하는 방법을 설명하는 흐름도이다.
도 6은 일 예에 따른 동영상의 구성을 설명한다.
도 7은 일 예에 따른 동영상을 생성하는 전자 장치의 구조도이다.
도 8은 일 예에 따른 동영상을 생성하는 방법의 흐름도이다.
도 9는 일 예에 따른 편집 프로그램의 로그인 GUI를 나타낸다.
도 10은 일 예에 따른 동영상의 정보를 불러오는 GUI를 나타낸다.
도 11은 일 예에 따른 편집 가이드라인을 입력하는 GUI를 나타낸다.
도 12는 일 예에 따른 편집 가이드 시간을 입력하는 GUI를 나타낸다.
도 13은 일 예에 따른 입력된 편집 가이드 시간을 출력하는 GUI를 나타낸다.
도 14는 일 예에 따른 특정한 PD가 편집할 카테고리들의 편집 가이드 시간을 출력하는 GUI를 나타낸다.
도 15는 일 예에 따른 특정한 PD가 편집 담당으로 지정된 내용이 편집된 결과를 출력하는 GUI를 나타낸다.
도 16은 일 실시예에 따른 동영상을 제공하는 서버의 구조도이다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
도 1은 일 실시예에 따른 전자 장치의 구조도이다.
전자 장치(100)는 동영상을 재생할 수 있는 영상 처리 장치일 수 있다. 전자 장치(100)는 사용자에게 동영상을 제공할 수 있다. 여기서, 동영상의 제공은, 사용자가 동영상을 시청할 수 있도록 동영상을 표시하거나, 동영상을 표시하기 위한 정보를 출력하는 것을 의미할 수 있다.
전자 장치(100)는 센싱부(110), 입력부(120), 처리부(130), 네트워킹부(140), 저장부(150) 및 출력부(160)를 포함할 수 있다.
센싱부(110)는 물리적 현상 또는 물리적 상태을 감지할 수 있다. 즉, 센싱부(110)에 의해 생성되는 정보는 특정한 물리적 현상 또는 물리적 상태를 나타낼 수 있다. 물리적 현상은 전자 장치(100)의 주위에서 발생한 물리적 현상일 수 있다. 물리적 상태는 전자 상태(100)의 주위의 물리적 상태일 수 있다. 여기서, 전자 장치(100)의 주위는, 1) 전자 장치(100)의 위치를 중심으로 갖는, 2) 센싱부(110)가 물리적 현상을 감지할 수 있는 범위를 의미할 수 있다.
센싱부(110)는 물리적 현상 또는 물리적 상태를 감지함으로써 물리적 현상 또는 물리적 상태를 나타내는 감지 정보를 생성할 수 있다. 즉, 하기에서, 물리적 현상 또는 물리적 상태를 나타내는 정보는 센싱부(110)의 센싱(sensing)에 의해 생성된 정보를 의미할 수 있다.
물리적 현상 또는 물리적 상태는 사용자의 동작에 기인하여 발생할 수 있다. 사용자의 동작은 사용자가 전자 장치(100)에 의해 제공되는 동영상을 시청하면서 취한 동작일 수 있다. 사용자는 동영상을 시청하면서 상기의 동영상에 대해 어떤 반응을 나타낼 수 있다. 말하자면, 사용자의 동작은 사용자의 동영상에 대한 반응을 나타낼 수 있다. 사용자의 반응 또는 사용자의 동작은 전자 장치(100)의 주위의 물리적 상태를 변화시킬 수 있으며, 물리적 현상을 발생시킬 수 있다.
입력부(120)는 전자 장치(100)를 제어하기 위한 사용자의 입력을 수신할 수 있다. 여기서, 사용자는 전자 장치(100)가 재생하는 동영상의 시청자일 수 있다.
입력부(120)는 전자 장치(100)에 부착된 버튼(button), 터치 스크린(touch screen)일 수 있고, 키보드(keyboard), 마우스(mouse) 및 리모콘(remocon) 등과 같은 장치일 수 있고, 블루투스(bluetooth) 동글(dongle) 및 적외선(InfraRed; IR) 수신기(receiver) 등과 같은 수신 장치일 수 있다.
처리부(130)는 사용자가 동영상을 시청할 수 있도록 동영상을 재생할 수 있다.
처리부(130)는 물리적 현상을 식별할 수 있다. 여기서, 물리적 현상은 사용자의 동작에 기인하여 발생할 수 있다. 물리적 현상은 센싱부(110)에 의해 감지된 정보를 의미할 수 있다. 상기의 정보는 전자 장치(100)의 주위에서 발생한 물리적 현상에 대한 정보일 수 있다.
물리적 현상은 서로 상이한 시점에서 센싱부(110)에 의해 감지된 물리적 상태들 간의 차이를 의미할 수 있다. 따라서, 물리적 현상은 물리적 변화를 포함할 수 있다. 제어부(130)는 서로 상이한 시점에서 센싱부(110)에 의해 감지된 물리적 상태들 간의 차이에 기반하여 물리적 현상을 식별할 수 있다.
처리부(130)는 물리적 현상에 기반하여 사용자의 동영상에 대한 반응을 추정할 수 있다. 즉, 처리부(130)는 사용자의 동작에 기인하여 발생한 물리적 현상을 분석함으로써 사용자의 동영상에 대한 반응을 추정할 수 있다.
처리부(130)는 추정된 반응에 기반하여 동영상의 재생을 제어할 수 있다. 또한, 처리부(130)는 동영상의 재생에 관련된 제어를 수행할 수 있다. 예컨대, 처리부(130)는 동영상의 자막의 출력을 제어할 수 있다. 제어부(130)는 동영상에 적용되는 필터(filter)를 제어할 수 있으며, 동영상의 소리를 제어할 수 있다. 제어부(130)는 밝기(brightness) 및 대비(contrast) 등과 같은 동영상의 속성을 제어할 수 있다.
처리부(130)는 적어도 하나의 프로세서(processor) 또는 프로세서 내의 적어도 하나의 코어(core)일 수 있다.
네트워킹부(140)는 콘텐츠 서버로부터 동영상을 수신할 수 있다. 네트워킹부(140)는 전자 프로그램 가이드(Electronic Program Guide; EPG) 서버로부터 동영상의 EPG 정보를 수신할 수 있다. 네트워킹부(140)는 수신된 동영상 및 EPG 정보를 처리부(130)에게 제공할 수 있다.
네트워킹부(140)는 네트워트(network) 인터페이스(interface) 카드(card), 네트워크 인터페이스 칩(chip) 및 네트워킹 인테페이스 포트(port) 등와 같은 하드웨어(hardware) 모듈(module)일 수 있고, 네트워크 디바이스(device) 드라이버(driver) 또는 네트워킹 프로그램과 같은 소프트웨어(software) 모듈일 수 있다.
저장부(150)는 동영상 및 전자 장치(100)의 설정에 관련된 정보를 저장할 수 있다.
저장부(150)는 하드 디스크 드라이브(Hard Disk Drive; HDD), 솔리드 스테이트 드라이브(Solid State Drive; SSD), 램(Random Access Memory; RAM) 및 플래시(flash) 등과 같은 정보 저장을 위한 하드웨어 모듈일 수 있고, 데이터베이스(Database), 파일(file) 시스템 및 테이블(table) 등과 같은 정보 저장을 위한 소프트웨어 모듈일 수 있다.
출력부(160)는 처리부(130)에 의해 재생되는 동영상을 출력할 수 있다.
출력부(160)는 동영상을 표시하는 디스플레이(display)일 수 있다. 출력부(160)는 모니터(monitor), 액정(Liquid Crystal Display; LCD), 발광 다이오드(Light Emitting Diode; LED) 및 유기 발광 다이오드(Organic Light Emitting Diode; OLED) 등일 수 있다. 출력부(160)는 동영상을 표시하기 위한 정보를 디스플레이(display)에게 제공할 수 있다. 출력부(160)는 에이치디엠아이(High Definition Multimedia Interface) 포트(port), 디스플레이(display) 포트, 디지털 비쥬얼 인터페이스(Digital Visual Interface; DVI) 포트 등 동영상을 표시하기 위한 정보를 출력하는 포트일 수 있다. 출력부(160)는 비디오 카드 등의 동영상을 표시하기 위한 정보를 출력하는 하드웨어 모듈일 수 있다.
전술된 "물리적 상태"는 센싱부(110)에 의해 수집된 정보 또는 센싱부(110)의 센서에 의해 수집된 정보를 의미할 수 있다. 또한, "물리적 현상"은 센싱부(110)에 의해 수집된 정보의 변화 또는 센싱부(110)의 센서에 의해 수집된 정보 또는 상기의 정보의 변화를 의미할 수 있다.
도 2는 일 실시예에 따른 사용자의 반응에 기반하여 동영상의 재생을 제어하는 방법의 흐름도이다.
단계(210)에서, 처리부(130)는 재생할 동영상을 결정할 수 있다.
단계(210)는 단계(211) 및 단계(212) 중 하나 이상을 포함할 수 있다.
단계(211)에서, 네트워킹부(140)는 동영상 서버로부터 동영상을 수신할 수 있다. 예컨대 동영상이 방송 프로그램인 경우, 네트워킹부(140)는 동영상 서버 또는 EPG 서버로부터 동영상의 EPG 정보를 수신할 수 있다. EPG 정보는 동영상을 사용자의 동영상에 대한 반응에 기반하여 동영상의 재생을 제어하기 위한 정보를 포함할 수 있다.
단계(212)에서, 저장부(150)는 저장된 동영상을 제공할 수 있다.
단계(220)에서, 처리부(130)는 사용자가 동영상을 시청할 수 있도록 동영상을 재생할 수 있다.
단계(220)에서, 처리부(130)는 재생되는 동영상이 사용자의 동영상에 대한 반응에 기반하여 제어될 수 있는 동영상인지 여부를 출력부(160)를 통해 출력할 수 있다. 또한, 처리부(130)는 입력부(120)를 통해 동영상에 대한 반응에 기반하여 동영상의 재생을 제어할 것인지 여부에 대한 사용자의 입력을 수신할 수 있다.
단계(230)에서, 처리부(130)는 사용자의 동작에 기인하여 발생한 물리적 현상을 식별할 수 있다. 처리부(130)는 센싱센싱부(110)가 감지한 물리적 상태에 기반하여 물리적 현상을 식별할 수 있다. 물리적 현상의 식별은, 센싱부(110)가 저장 장치(100) 주위의 물리적 상태를 감지함으로써 감지 정보를 생성하는 것을 의미할 수 있다.
단계(230)는 단계들(231 내지 233)을 포함할 수 있다.
단계(231)에서, 센싱부(110)는 전자 장치(100) 주위의 물리적 상태를 감지함으로써 제1 물리적 상태에 대한 정보를 생성할 수 있다. 제1 물리적 상태에 대한 정보는 제1 시각에서의 물리적 상태를 나타내는 정보일 수 있다.
단계(232)에서, 센싱부(110)는, 제1 물리적 상태에 대한 정보를 감지한 후, 전자 장치(100) 주위의 물리적 상태를 감지함으로써 제2 물리적 상태에 대한 정보를 생성할 수 있다. 제2 물리적 상태에 대한 정보는 제2 시각에서의 물리적 상태를 나타내는 정보일 수 있다. 제2 시각은 제1 시각의 이후의 시각일 수 있다.
단계(233)에서, 처리부(130)는 제1 물리적 상태에 대한 정보 및 제2 물리적 상태에 대한 정보 간의 차이에 기반하여 물리적 현상을 식별할 수 있다. 처리부(130)는 제1 물리적 상태에 대한 정보 및 제2 물리적 상태를 비교함으로써 물리적 현상을 식별할 수 있다. 즉, 물리적 현상은 제1 물리적 상태 및 제2 물리적 상태 간의 물리적 변화일 수 있다.
처리부(130)는 제1 물리적 상태에 대한 정보, 제2 물리적 상태에 대한 정보 또는 물리적 변화에 대한 정보를 저장부(150) 내에 저장할 수 있다.
단계(240)에서, 처리부(130)는 물리적 현상에 기반하여 사용자의 동영상에 대한 반응을 추정할 수 있다. 처리부(130)는 사용자의 동영상에 대한 반응을 추정함에 있어서 사용자 선호도(preference)를 참조할 수 있다. 예컨대, 사용자 선호도는 사용자의 동영상의 반응에 기반하여 동영상의 재생을 제어하지 않을 것을 나타낼 수 있다. 저장부(150)는 설정된 사용자 선호도 또는 사용자 선호도의 프리셋(preset)을 처리부(130)에게 제공할 수 있다. 사용자 선호도의 프리셋은 사용자 선호도가 설정되지 않았을 때 디폴트(default)로 사용되는 값을 의미할 수 있다.
단계(250)에서, 처리부(130)는 추정된 반응에 기반하여 동영상의 재생을 제어할 수 있다.
도 3은 일 실시예에 따른 센싱부의 구조도이다.
센싱부(110)는 적어도 하나의 센서(sensor)(310)를 포함할 수 있다. 예컨대, 적어도 하나의 센서(310)는 각각 카메라(camera)(311), 마이크로폰(microphone)(312), 근접 센서(313), 조도 센서(314), 중력 센서(315), 전역 위치 시스템(Global Position System; GPS) 센서(316), 자이로스코프(gyroscope)(317) 및 적외선 센서(318) 중 하나의 센서일 수 있다.
센싱부(110)는 상기의 적어도 하나의 센서를 제어하는 센서 제어부(320)를 포함할 수 있다.
하기에서, 각 센서가 감지할 수 있는 물리적 상태 및 상기의 물리적 상태에 기반하여 식별되는 물리적 현상을 설명한다.
1) 카메라
카메라(311)는 영상을 촬영할 수 있다. 물리적 상태는 카메라(311)에 의해 촬영된 카메라 전방의 영상일 수 있다. 물리적 현상은 서로 상이한 시각에서 촬영된 영상들에서 나타나는 영상의 변화일 수 있다.
일반적으로, 사용자는 카메라(311)의 전방에 위치한다. 따라서, 영상 또는 영상의 일부는 사용자의 얼굴을 나타낼 수 있다. 처리부(130)는 촬영된 영상 내에서 사용자의 얼굴을 인식할 수 있다. 물리적 상태는 인식된 사용자의 얼굴일 수 있다. 물리적 현상은 사용자의 얼굴의 변화 또는 사용자의 표정의 변화일 수 있다.
2) 마이크로폰
마이크로폰(312)은 소리를 인식할 수 있다. 물리적 상태는 마이크로폰(312)에 의해 인식된 소리 또는 소리의 크기일 수 있다. 물리적 현상은 서로 상이한 시각에서 인식된 소리들에서 나타나는 소리의 변화 또는 소리의 크기의 변화일 수 있다.
일반적으로, 사용자는 마이크로폰(312)의 주위에 있다. 따라서, 감지된 소리는 사용자의 음성 또는 사용자의 박수를 나타낼 수 있다. 처리부(130)는 감지된 소리 내에서 사용자의 음성 또는 사용자의 박수를 인식할 수 있다. 물리적 상태는 인식된 사용자의 음성, 사용자의 음성이 인식되었는지 여부 또는 사용자의 박수일 수 있다. 물리적 현상은 서로 상이한 시각에시 인식된 사용자의 음성들에서 나타나는 사용자의 음성의 변화, 사용자의 음성이 인식되었는지 여부의 변화 또는 사용자의 음성의 크기의 변화일 수 있다. 물리적 현상은 사용자가 박수를 치는지 여부의 변화 또는 사용자의 박수의 크기의 변화일 수 있다. 상기의 설명에서, "박수"는 "웃음 소리"로 대체될 수 있다.
3) 근접 센서
근접 센서(313)는 근접 센서(313)에 근접한 객체(object)를 감지할 수 있다. 근접이란 객체가 근접 센서(313)가 감지할 수 있는 일정한 범위 내에 존재하는 상태를 의미할 수 있다. 물리적 상태는 1) 근접 센서(313)에 근접한 객체가 있는지 여부 또는 2) 객체 및 근접 센서(313)간의 거리일 수 있다. 물리적 현상은 1) 근접 센서(313)에 근접한 객체가 있는지 여부의 변화 또는 2) 객체 및 근접 센서(313) 간의 거리의 변화일 수 있다.
4) 조도 센서
조도 센서(314)는 조도 센서(314)로 비추어지는 빛의 밝기(즉, 조도)를 감지할 수 있다. 물리적 상태는 인식된 빛의 밝기일 수 있다. 물리적 현상은 서로 상이한 시각에서 인식된 빛의 밝기들에서 나타나는 빛의 밝기의 변화일 수 있다.
5) 중력 센서
중력 센서(315)는 중력이 중력 센서(315)에게 가해지는 방향을 감지할 수 있다. 물리적 상태는 중력이 가해지는 방향일 수 있다. 물리적 현상은 중력이 가해지는 방향의 변화일 수 있다.
6) GPS 센서
GPS 센서(316)는 GPS 센서(316)의 위치를 감지할 수 있다. 물리적 상태는 GPS 센서(316)의 위치일 수 있다. 물리적 현상은 GPS 센서(316)의 위치의 변화일 수 있다.
사용자는 GPS 센서(316)를 가지고 있을 수 있다. 또는, GPS 센서(316)는 사용자에게 부착될 수 있다. 따라서, GPS 센서가 감지하는 위치는 사용자의 위치일 수 있다. 물리적 상태는 사용자의 위치일 수 있다. 물리적 현상은 사용자의 위치의 변화일 수 있다.
7) 자이로스코프
자이로스코프(317)는 자이로크코프 센서(317)의 3차원 운동을 감지할 수 있다. 여기서, 3차원 운동은 이동, 이동 방향, 이동 속도 및 이동 가속도를 포함할 수 있다. 물리적 상태는 자이로스코프(317)의 3차원 운동일 수 있다. 물리적 현상은 자이로스코프(317)의 3차원 운동의 변화일 수 있다.
시청자는 자이로스코프(317) 또는 자이로스코프(317)를 구비하는 장치를 조작할 수 있다. 자이로스코프(317)의 3차원 운동은 상기의 조작에 의해 발생할 수 있다. 따라서, 물리적 상태는 사용자의 움직임 또는 사용자의 제스처(gesture)일 수 있다. 물리적 현상은 사용자의 움직임의 변화 또는 사용자의 제스처의 변화일 수 있다.
8) 적외선 센서
적외선 센서(318)는 발광부 및 수광부를 포함할 수 있다. 발광부는 적외선을 출력할 수 있고, 수광부는 출력된 적외선을 수신할 수 있다. 발광부 및 수광부 사이에 물체가 존재하면 적외선은 물체에 의해 차단되고, 수광부는 적외선을 수신할 수 없다.
물리적 상태는 수광부가 적외선을 수신하는지 여부일 수 있다. 물리적 현상은 수광부가 적외선을 수신하는지 여부의 변화일 수 있다.
물리적 현상은 물리적 현상이 나타내는 물리적 상태의 증가 및 물리적 상태의 감소를 나타낼 수 있다. 예컨대, "소리의 크기의 변화"는 소리의 크기의 증가 및 소리의 크기의 감소를 나타낼 수 있다. 또한, 물리적 현상은 물리적 현상이 나타내는 물리적 상태의 유무를 나타낼 수 있다. 예컨대, "사용자의 음성이 인식되었는지 여부의 변화"는 사용자의 음성이 인식되었다는 것과 사용자의 음성이 인식되지 않았다는 것을 의미할 수 있다.
전술된 물리적 현상은 3 개의 카테고리(category)로 분류될 수 있다. 물리적 현상은 사용자의 신체 상의 변화, 사용자의 시청 환경 상의 변화 및 사용자의 동작에 의해 발생한 물리적인 변화 중 하나 이상을 포함할 수 있다.
사용자의 신체 상의 변화로서, 1) 사용자의 얼굴의 변화, 2) 사용자의 표정의 변화 등이 해당될 수 있다.
사용자의 시청 환경 상의 변화로서, 1) 근접 센서에 근접한 객체가 있는지 여부의 변화, 2) 객체 및 근접 센서 간의 거리의 변화, 빛의 밝기의 변화 및 3) 적외선 센서의 수광부가 적외선을 수신하는지 여부의 변화 등이 해당될 수 있다.
사용자의 동작에 의해 발생한 물리적인 현상으로서, 1) 영상의 변화, 2) 소리의 변화, 3) 소리의 크기의 변화, 4) 사용자의 음성의 변화, 5) 사용자의 음성이 인식되었는지 여부의 변화, 6) 사용자의 음성의 크기의 변화, 7) 중력이 가해지는 방향의 변화, 8) GPS 센서의 위치의 변화, 9) 사용자의 위치의 변화, 10) 3차원 운동의 변화, 11) 사용자의 움직임의 변화 및 12) 사용자의 제스처의 변화 등이 해당될 수 있다.
도 4는 일 예에 따른 물리적 현상, 추정된 반응 및 동영상의 제어 간의 관계를 나타낸다.
도 4에서, 처리부(130)가 식별한 물리적 현상, 처리부(130)가 물리적 현상에 기반하여 추정한 사용자의 동영상에 대한 반응 및 추정된 반응에 따라 처리부(130)가 수행하는 동영상의 재생에 대한 제어의 관계의 일 예가 설명되었다.
도 4에서 도시된 관계는 예시적인 것이다. 도 4에서 도시된 임의의 물리적 현상 항목은 임의의 추정된 반응 항목과 연결될 수 있으며, 임의의 추정된 반응 항목은 임의의 재생 제어 항목과 연결될 수 있다.
도 4에서 도시된 것과 같이, 추정된 반응은 사용자가 동영상을 시청하는지 여부, 사용자가 동영상의 시청에 집중하는지 여부, 동영상의 시청하는 시청자의 변화(증가 또는 감소), 시청 환경의 밝기의 변화(증가 또는 감소) 및 사용자의 위치의 변화 등을 포함할 수 있다.
하기에서, 물리적 현상 및 추정된 반응과의 연관 관계의 일 예를 설명한다.
처리부(130)는 촬영된 영상의 변화를 식별함으로써 사용자가 동영상을 시청하지 않는다는 반응 또는 사용자가 동영상을 시청한다는 반응을 추정할 수 있다. 예컨대, 처리부(130)가 영상 내에서 사용자가 사라지는 것을 식별한 경우, 처리부(130)는 사용자가 동영상을 시청하지 않는다는 반응을 추정할 수 있다. 처리부(130)가 영상 내에서 사용자가 나타나는 것을 식별한 경우, 처리부(130)는 사용자가 동영상을 시청한다는 반응을 추정할 수 있다. 또한, 처리부(130)는 영상의 변화를 식별하면 영상의 변화의 구체적인 내용에 따라, 사용자가 동영상의 시청에 집중한다는 반응, 사용자가 동영상의 시청에 집중하지 않는다는 반응, 동영상을 시청하는 시청자가 증가하였다는 반응 및 동영상을 시청하는 사용자가 감소하였다는 반응 등을 추정할 수 있다.
처리부(130)는 물리적 현상으로서, 사용자의 얼굴의 변화 또는 사용자의 표정의 변화를 식별하면, 상기의 얼굴의 변화 또는 표정의 변화의 구체적인 내용에 따라 사용자가 동영상의 시청에 집중한다는 반응 또는 사용자가 동영상의 시청에 집중하지 않는다는 반응을 추정할 수 있다.
처리부(130)는 물리적 현상으로서, 소리의 변화 또는 사용자의 음성의 변화를 식별하면 상기의 변화들 각각의 구체적인 내용에 따라 사용자가 동영상의 시청에 집중한다는 반응 또는 사용자가 동영상의 시청에 집중하지 않는다는 반응을 추정할 수 있다.
처리부(130)는 소리의 크기의 감소, 사용자의 음성의 크기의 감소 또는 사용자의 박수의 크기의 증가와 같은 물리적 현상을 식별하면 사용자가 동영상의 시청에 집중한다는 반응을 추정할 수 있으며, 소리의 크기의 증가, 사용자의 음성의 크기의 증가 또는 사용자의 박수의 크기의 감소와 같은 물리적 현상을 식별하면 사용자가 동영상의 시청에 집중하지 않는다는 반응을 추정할 수 있다.
처리부(130)는 음성이 인식되지 않는다는 것 또는 사용자가 박수를 친다는 것이 식별되면, 사용자가 동영상의 시청에 집중한다는 반응을 추정할 수 있다. 처리부(130)는 사용자의 음성이 인식된다는 것 또는 사용자가 박수를 치지 않는다는 것이 식별되면, 사용자가 동영상의 시청에 집중한다는 반응을 추정할 수 있다.
처리부(130)는 물리적 현상이 근접 센서(315)에 근접한 객체가 있는 것을 나타내거나 객체 및 근접 센서(315) 간의 거리가 더 가까워졌다는 것을 나타낼 때, 사용자가 동영상을 시청한다는 반응 또는 동영상을 시청하는 시청자가 증가하였다는 반응을 추정할 수 있다. 또한, 처리부(130)는 물리적 현상이 근접 센서(315)에 근접한 객체가 없는 것을 나타내거나 객체 및 근접 센서(315) 간의 거리가 더 멀어졌다는 것을 나타낼 때 또는 사용자가 동영상을 시청하지 않는다는 반응 또는 동영상을 시청하는 시청자가 감소하였다는 반응을 추정할 수 있다.
처리부(130)는 빛의 밝기의 증가와 같은 물리적 현상을 식별하면 시청 환경의 밝기가 증가하였다는 반응을 추정할 수 있으며, 빛의 밝기의 감소와 같은 물리적 현상을 식별하면 시청 환경의 밝기가 감소하였다는 반응을 추정할 수 있다.
처리부(130)는 중력이 가해지는 방향의 변화, GPS 센서(316)의 위치의 변화 및 사용자의 위치의 변화 같은 물리적 현상을 식별하면 사용자의 위치가 변화하였다는 반응을 추정할 수 있다.
처리부(130)는 자이로스코프(317)의 3차원 운동의 변화, 사용자의 움직임의 변화 또는 사용자의 제스처의 변화와 같은 물리적 현상을 식별하면 상기의 변화들 각각의 구체적인 내용에 따라 사용자가 동영상의 시청에 집중한다는 반응 또는 사용자가 동영상의 시청에 집중하지 않는다는 반응을 추정할 수 있다.
처리부(130)는 적외선 센서(318)의 수광부가 적외선을 수신한다는 물리적 현상을 식별하면, 사용자가 동영상을 시청하지 않는다는 반응을 추정할 수 있고, 수광부가 적외선을 수신하지 않는다는 물리적 현상을 식별하면, 사용자가 동영상을 시청한다는 반응을 추정할 수 있다.
하기에서, 물리적 추정된 반응 및 동영상의 제어 간의 연관 관계의 일 예를 설명한다.
하기에서 설명될 동영상의 제어는 제어부(130)에 의해 수행될 수 있다.
동영상의 제어는, 1) 동영상의 재생의 중단 또는 재개, 2) 동영상의 재생의 속도를 조절(증가 또는 감소), 2) 동영상 중 특정한 부분의 재생 시간의 조절(증가 또는 감소) 및 3) 동영상의 밝기의 조절(증가 또는 감소) 등을 포함할 수 있다.
즉, 제어부(130)는 센싱부(110)가 감지한 정보를 이용함으로써 전자 장치(100)의 재생 속도 조절, 화면 밝기 조절, 화면 대비 조절 및 음량 조절 등을 통해 시청자의 만족도를 향상시킬 수 있다. 음량 조절에 있어서, 제어부(130)는 전체 볼륨(volume)의 조절 외에도, 배경 음악(BackGround Music; BGM)의 음량 조절, 효과음(effect)의 음량 조절, 대사의 음량 조절 및 나레이션(narration)의 음량 조절 등 소리 요소들 각각의 개별적인 볼륨을 조절할 수 있다.
단계(250)에서의 동영상의 제어는, 추정된 반응이 사용자가 동영상을 시청하지 않는 것을 나타낼 때 동영상의 재생을 중단시키는 것일 수 있다. 즉, 제어부(130)는 추정된 반응이 사용자가 동영상을 시청하지 않는다는 것을 나타낼때, 동영상의 재생을 중단하는 제어를 수행할 수 있다. 또한, 동영상의 제어는 추정된 반응이 사용자가 동영상을 시청하는 것을 나타낼 때 동영상의 재생을 재개하는 것일 수 있다. 즉, 제어부(130)는 사용자가 동영상을 시청한다는 반응이 추정될 때, 동영상의 재생을 재개하는 제어를 수행할 수 있다.
제어부(130)는 추정된 반응이 사용자가 동영상의 시청에 집중한다는 것을 나타내거나, 동영상을 시청하는 시청자가 증가하였다는 것을 나타낼 때, 동영상의 재생 속도를 감소시키는 제어를 수행하거나 재생되는 동영상 중 사용자가 집중한 부분에 관련된 부분의 재생 시간을 증가시키는 제어를 수행할 수 있다. 제어부(130)는 추정된 반응이 사용자가 동영상의 시청에 집중하지 않는다는 것을 나타내거나, 동영상을 시청하는 시청자가 감소하였다는 것을 나타낼 때, 동영상의 재생 속도를 증가시키는 제어를 수행하거나 재생되는 동영상 중 사용자가 집중하지 않은 부분에 관련된 부분의 재생 시간을 감소시키는 제어를 수행할 수 있다.
제어부(130)는 추정된 반응이 시청 환경의 밝기가 증가하였다는 것을 나타낼 때, 동영상의 밝기를 증가시키는 제어를 수행할 수 있다. 제어부(130)는 추정된 반응이 추정된 반응이 시청 환경의 밝기가 감소하였다는 것을 나타낼 때, 동영상의 밝기를 감소시키는 제어를 수행할 수 있다.
제어부(130)는 추정된 반응이 사용자의 위치가 변화하였다는 것을 나타낼 때, 동영상의 재생을 중단시키는 제어를 수행할 수 있고, 중단 외에도 사용자의 위치의 변화에 대응하는 제어를 수행할 수 있다.
도 5는 일 예에 따른 물리적 현상을 식별하는 방법을 설명하는 흐름도이다.
전술된 제1 물리적 상태에 대한 정보, 제2 물리적 상태에 대한 정보 및 물리적 현상에 대한 정보는, 외부의 서버에 의해 분석될 수 있다. 이하, 제1 물리적 상태에 대한 정보, 제2 물리적 상태에 대한 정보 및 물리적 현상에 대한 정보 중 하나 이상의 정보를 분석 요청 정보로 명명한다.
도 2를 참조하여 전술된 단계(230) 또는 단계(233)는 하기의 단계들(510 내지 530)을 포함할 수 있다.
단계(510)에서, 처리부(130)는 네트워킹부(140)를 통해 분석 요청 정보를 외부 서버(500)로 전송할 수 있다. 여기서, 분석 요청 정보의 전송을 위해 외부 서버(500)가 제공하는 서비스 API가 사용될 수 있다.
단계(520)에서, 분석 서버(500)는 분석 요청 정보를 분석함으로써 사용자의 반응을 추정하기 위해 사용되는 반응 추정 정보를 생성할 수 있다.
예컨대, 분석 요청 정보가 시청자가 촬영된 영상일 때, 분석 서버(500)는 시청자가 촬영된 영상을 분석함으로써 시청자가 영상에 집중한다는 것을 나타내는 정보 또는 시청자가 영상에 집중하지 않는다는 것을 나타내는 정보를 반응 추정 정보로서 생성할 수 있다. 분석 서버(500)는 시청자가 촬영된 영상 내에서 시청자의 얼굴 또는 표정을 추출할 수 있으며, 추출된 얼굴 또는 표정이 시청자가 영상에 집중한다는 것을 나타낸다고 판정할 수 있다.
또한, 분석 요청 정보가 촬영된 영상일 때, 분석 서버(500)는 촬영된 영상 내에 시청자가 있는지 여부를 판정함으로써, 사용자가 동영상을 시청한다는 것을 나타내는 정보 또는 사용자가 동영상을 시청하지 않는다는 것을 나타내는 정보를 반응 추정 정보로서 생성할 수 있다.
또한, 분석 요청 정보가 촬영된 영상일 때, 분석 서버(500)는 촬영된 영상 내의 시청자들의 수를 나타내는 정보를 반응 추정 정보로서 생성할 수 있다. 처리부(130)는 촬영된 영상 내의 시청자들의 수를 나타내는 정보를 사용하여 동영상을 시청하는 시청자의 수가 증가 또는 감소하였는지를 추정할 수 있다.
예컨대, 분석 요청 정보가 서로 상이한 시점들에서의 빛의 밝기일 때, 분석 서버(500)는 양 밝기들을 비교함으로써 시청 환경의 밝기가 증가하였음을 나타내는 정보 또는 시청 환경의 밝기가 감소하였음을 나타내는 정보를 반응 추정 정보로서 생성할 수 있다.
단계(530)에서, 분석 서버(500)는 생성된 반응 추정 정보를 네트워킹부(140)를 통해 처리부(130)로 전송할 수 있다. 여기서, 분석 요청 정보를 전송하기 위해 사용된 서비스 API의 리턴(return) 값을 반환하는 방식이 반응 추정 정보를 전송하기 위해 사용될 수 있다.
상술된 외부 서버(500)가 반응 추정 정보를 생성하는 기능 또는 원리는 처리부(130) 또한 사용할 수 있다.
도 1 내지 도 5를 참조하여 설명된 본 발명의 실시예에서, 처리부(130)는 사용자의 반응에 기반하여 동영상의 재생 속도 등을 제어한다. 동영상이 단일한 내용만을 가지고 있는 경우, 사용자의 반응에 기반하여 단일한 내용의 재생 속도가 변할 수 있다.
동영상이 복수 개의 내용들을 가지고 있는 경우, 사용자의 반응에 기반하여 복수 개의 내용들 중 어떤 내용이 재생될 지가 변할 수 있다. 예컨대, 처리부(130)는 동영상의 내용 상의 전체적인 스토리(story) 라인(line)은 크게 변화를 주지 않은 채, 사용자가 집중하는 것으로 추정되는 씬(scene)에는 부가적인 내용(예컨대, 프레임(frame) 들을 추가할 수 있으며, 사용자가 집중하지 않는 것으로 추정되는 씬에서는 일부 내용을 건너뛰기(skip)할 수 있다.
동영상의 제작 또는 편집 단계를 통해, 동영상은 하나 이상의 편집 본들을 포함할 수 있다. 하나 이상의 편집 본들 중 기본 편집 본 이외의 편집 본들은 추가적인 내용을 제공할 수 있다. 처리부(130)는 사용자의 반응에 따라 하나 이상의 편집 본들 중 특정한 편집 본을 선택하여 재생함으로써 특정한 씬에 프레임이 추가 또는 건너뛰기 되는 효과를 가할 수 있다. 이러한 효과에 의해 사용자의 만족이 극대화될 수 있다.
동영상이 복수 개의 내용들을 갖기 위해, 동영상은 복수 개의 카테고리들로 분류될 수 있다. 여기서, 복수 개의 카테고리들은 동영상 내의 특정한 씬(scene) 또는 출연자(character)를 기준으로 결정될 수 있다. 예컨대, 복수 개의 카테고리들은 각각 동영상 내에서 특정한 출연자가 메인(main)으로 출연하는 장면을 나타낼 수 있다. 복수 개의 카테고리들은 각각 동영상 내의 내용적으로 구분되는 일부를 나타낼 수 있다. 여기서, 내용적으로 구분되는 일부란, 동영상의 내용 중 특정한 에피소드(episode) 또는 코너(corner)를 나타낼 수 있다.
제어부(130)는 하나 이상의 편집 본들 중 재생할 편집 본을 선택함으로써 동영상의 재생 시간을 증가시키는 제어 및 동영상이 재생 시간을 감소시키는 제어를 수행할 수 있다. 제어부(130)는 편집 본의 선택을 복수 개의 카테고리 중 사용자 집중한 부분 또는 집중하지 않은 부분이 속하는 카테고리에 대해 적용할 수 있다.
제어부(130)가 전술된 제어를 수행하기 위해, 복수 개의 카테고리들 및 하나 이상의 촬영 본들에 대한 정보가 제어부(130)에게 제공될 필요가 있다. 예컨대, 복수 개의 카테고리들 및 하나 이상의 촬영 본들에 대한 정보는 단계(210)에서, 동영상 서버 또는 방송 서버로부터 동영상의 전자 프로그램 가이드(Electronic Program Guide; EPG)를 통해 제공될 수 있다.
도 6은 일 예에 따른 동영상의 구성을 설명한다.
동영상의 촬영 본은 동영상의 편집 본을 생성하기 위한 소스(source)를 의미한다. 동영상의 촬영 본은 촬영에 의해 생성된 동영상일 수 있다. 촬영 본을 편집함으로써 동영상의 편집 본이 생성될 수 있다. 상기의 편집 본은 동영상에 대한 시청자의 반응에 따라 재생되는 내용이 변경될 수 있다. 도 1 내지 도 5를 참조하여 설명된 동영상은 동영상의 편집 본을 의미할 수 있다.
동영상은 복수 개의 카테고리들로 분류될 수 있다. 도 6에서, 동영상은 동영상 내에서 특정한 출연자가 메인으로 출연하는 장면에 따라 4 개의 카테고리들로 분류되었다.
시청자의 반응에 따라 재생되는 내용을 변경하기 위해, 동영상은 하나 이상의 편집 본들을 포함할 수 있다. 하나 이상의 편집 본들은 서로 상이한 분량을 갖는다. 즉, 하나 이상의 편집 본들은 동일한 콘텐츠에 대한 것이나, 추가적인 프레임을 포함하거나 부가적인 프레임을 제외함으로써 서로 상이한 재생 시간을 가질 수 있다. 도 6에서, 동영상의 복수 개의 편집 본들은 기본 편집 본, 최소 편집 본 및 최대 편집 본을 포함한다.
기본 편집 본의 내용은 동영상의 편집 본의 재생이 시청자의 반응에 따라 제어되지 않을 때 기본적으로 재생되는 내용일 수 있다. 따라서, 기본 편집 본은 편집 편성 본으로 명명될 수 있다.
도 6에서, 촬영 본 및 복수 개의 편집 본들 각각의 재생 시간이, 카테고리 별로 도시되었다.
최대 편집 본의 재생 시간은 기본 편집 본의 재생 시간 이상일 수 있다. 기본 편집 본의 재생 시간은 최소 편집 본의 재생 시간 이상일 수 있다. 복수 개의 편집 본들 각각은 촬영 본에 기반하여 생성된다. 따라서, 촬영 본의 재생 시간은 이러한 재생 시간의 제약은 카테고리 별로 적용될 수 있다. 즉, 최대 편집 본의 복수 개의 카테고리들 각각의 재생 시간은 기본 편집 본의 대응하는 카테고리의 재생 시간 이상일 수 있다. 기본 편집 본의 복수 개의 카테고리들 각각의 재생 시간은 최소 편집 본의 대응하는 카테고리의 재생 시간 이상일 수 있다.
시청자가 특정한 출연자를 선호할 때, 상기의 선호를 나타내는 것으로 인식되는 사용자의 동작에 의해 선호하는 출연자의 최대 편집 본이 재생될 수 있다. 처리부(130)는, 예컨대 동영상이 방송 프로그램인 경우, 가용한 전체 재생 시간에 맞춰 동영상의 다른 부분의 재생을 조절할 수 있다. 예컨대, 처리부(130)는 사용자의 반응에 기반하여 동영상의 재생 속도를 조정함에 따라 예상된 전체 재생 시간에 비해 실제로 동영상이 재생된 시간이 더 짧게된 경우, 여분의 시간을 광고로 대체할 수 있다. 또한, 처리부(130)는 사용자의 반응에 기반하여 동영상의 재생 속도를 조정함에 따라 예상된 전체 재생 시간에 비해 실제로 동영상이 재생된 시간이 더 길게된 경우, 다음에 재생될 동영상을 자동으로 녹화할 수 있고, 현재 재생되는 동영상의 재생이 완료된 이후에 녹화된 동영상을 제공할 수 있다. 여기서, 재생된 동영상 및 다음에 재생될 동영상은 각각 방송 프로그램일 수 있다.
처리부(130)는 전술된 조절은 동영상의 재생에 맞춰 실시간으로 수행할 수 있다.
동영상의 복수 개의 카테고리들 및 하나 이상의 촬영 본들은 각각 별개의 트랙(track)으로서 저장될 수 있고, 하나의 비디오(video) 및 오디오(audio) 파일로서 저장될 수 있다.
동영상의 구조에 대한 정보는, 예컨대 동영상이 방송 프로그램인 경우, 동영상의 EPG 정보와 함께 제공될 수 있다.
하기에서, 동영상의 편집 본을 생성하는 방법 및 장치가 설명된다.
도 7은 일 예에 따른 동영상을 생성하는 전자 장치의 구조도이다.
전자 장치(700)는 촬영에 의해 생성된 동영상의 촬영 본을 편집함으로써 동영상에 대한 시청자의 반응에 따라 재생되는 내용이 변경될 수 있는 동영상의 편집 본을 생성할 수 있다.
전자 장치(700)는 처리부(710) 및 저장부(720)를 포함할 수 있다.
처리부(710) 및 저장부(720)의 구체적인 기능에 대해 도 8을 참조하여 하기에서 상세히 설명된다.
도 8은 일 예에 따른 동영상을 생성하는 방법의 흐름도이다.
단계(810)에서, 처리부(710)는 동영상의 촬영 본의 내용에 기반하여 내용에 따라 각각 구분되는 복수 개의 카테고리들을 결정할 수 있다.
단계(820)에서, 처리부(710)는 복수 개의 카테고리 각각에 대해 복수 개의 편집 본들 각각에서의 재생 시간을 결정할 수 있다.
단계(830)에서, 처리부(710)는 촬영 본의 내용 중 일부를 선택함으로써 복수 개의 카테고리 각각에 대해 복수 개의 편집 본들 각각의 내용을 결정할 수 있다.
단계(840)에서, 처리부(710)는 복수 개의 카테고리들의 복수 개의 편집 본들의 내용들을 결합함으로써 시청자의 반응에 따라 복수 개의 카테고리들 각각에 대해 복수 개의 편집 본들 중 하나의 편집 본이 재생될 수 있는 동영상의 편집 본을 생성할 수 있다.
단계(850)에서, 처리부(710)는 저장부(720) 내에 동영상의 편집 본을 저장할 수 있다.
하기에서 동영상의 편집 본을 생성하기 위한 장치 또는 프로그램의 그래픽 사용자 인터페이스(Graphic User Interface; GUI) 및 GUI에 관련된 기능이 설명된다. 동영상의 편집 본을 생성하기 위한 장치 또는 프로그램은 최소한의 편집을 통해 동적 재생 서비스를 제공할 수 있는 환경을 제공할 수 있다. 예컨대, 하나 이상의 편집 본들 각각에 대해 서로 상이한 프로듀서(Producer; PD)에게 편집 권한이 부여될 수 있다.
도 9는 일 예에 따른 편집 프로그램의 로그인 GUI를 나타낸다.
편집 프로그램에 로그인 할 수 있는 편집자는 메인 PD 및 서브 PD를 포함할 수 있다. 메인 PD는 편집 프로그램의 서비스들 중 특정한 서비스를 사용할 수 있다. 서버 PD는 편집 프로그램의 서비스들 중 제한된 서비스를 사용할 수 있다. 메인 PD만이 사용할 수 있는 서비스로의 분기를 나타내는 메뉴(910)는 사용자로서 메인 PD가 선택되었을 때에만 선택 가능하도록 노출될 수 있다.
예컨대, 메인 PD는 복수 개의 카테고리들 각각의 최대 편집 본의 편집 시간 및 담당 PD 만을 편집 프로그램 상에 등록할 수 있다. 담당 PD로 등록된 서브 PD는 자신에게 할당된 카테고리 및 편집 본을 등록된 최대 편집 본의 편집 시간에 맞추어 편집할 수 있고, 편집된 내용을 최대 편집 본으로서 편집 프로그램 상에 등록할 수 있다. 메인 PD는 최대 편집 본으로서 1차적으로 편집된 내용을 바탕으로 기본 편집 본을 편집할 수 있고, 편집된 내용을 기본 편집 본으로서 편집 프로그램 상에 등록할 수 있다. 이후, 메인 PD는 기본 편집 본을 기본으로서 사용하여 최소 편집 본을 편집할 수 있고, 편집된 내용을 최소 편집 본으로서 편집 프로그램 상에 등록할 수 있다.
또한, 메인 PD는 복수 개의 카테고리들 각각의 하나 이상의 편집 본들 각각의 편성 정보(예컨대, 편성 시간)을 편집 프로그램 상에 등록할 수 있고, 복수 개의 카테고리들 각각의 하나 이상의 편집 본들 각각에 대한 담당 PD를 지정할 수 있다. 서브 PD는 자신이 담당 PD로서 지정된 편집 본을 편집할 수 있다.
도 10은 일 예에 따른 동영상의 정보를 불러오는 GUI를 나타낸다.
편집 프로그램(또는, 처리부(710))는 동영상을 제공하는 사업자의 콘텐츠 관리 시스템(content management system)으로부터 동영상에 대한 정보를 수신할 수 있다.
동영상에 대한 정보는, 1) 동영상이 시리즈 물의 일부일 경우의 동영상의 회차, 2) 동영상의 방송 날짜 및 시간 및 3) 동영상의 정규 편성 배정 시간을 포함할 수 있다. 여기서, 동영상의 정규 편성 배정 시간은 동영상이 방송 프로그램일 경우의 동영상의 방송 시간을 의미할 수 있다. 정규 편성 배정 시간은 동영상의 기본 편집 본의 시간으로 간주될 수 있다.
도 11은 일 예에 따른 편집 가이드라인을 입력하는 GUI를 나타낸다.
편집 가이드라인이란 다수의 편집자들이 편집 본을 생성하기 위해 공유하는 정보를 의미할 수 있다.
특정한 편집자는 편집 가이드라인의 제목 및 편집 가이드라인의 상세 설명을 입력할 수 있다. 다른 편집자들은 편집 가이드라인의 제목 및 편집 가이드라인의 상세 설명을 참조하여 편집 본을 생성할 수 있다.
도 12는 일 예에 따른 편집 가이드 시간을 입력하는 GUI를 나타낸다.
편집자는 카테고리 별로 편집 가이드 시간을 입력할 수 있다. 편집 가이드 시간은 특정한 카테고리의 편집 본의 실제 시간이 아닌 가이드 시간일 수 있다. 가이드 시간이 편집 본의 시간과 정확하게 일치할 필요는 없다. 따라서, 일정한 단위(예컨대, 30초)로 입력될 수 있다.
도 12에서, 카테고리는 출연자 및 씬 별로 분류된다. 가이드 시간은 기본 편집 본에 대한 시간, 최소 편집 본에 대한 시간 및 최대 편집 본에 대한 시간을 포함할 수 있다.
도 12에서, 카테고리 별로 입력된 편집 가이드 시간을 나타내는 테이블(1210), 카테고리 별로 편집 가이드 시간을 입력하기 위한 인터페이스(1220) 및 카테고리 별로 편집을 담당할 PD를 지정하는 인터페이스(1230)가 도시되었다.
특정한 카테고리의 편집 가이드 시간이 입력되면, 상기의 카테고리에 대한 정보가 테이블(1210)에 추가된다. 여기서, 편집 가이드 시간 중 일부 시간(예컨대, 최대 편집 본의 가이드 시간)은 필수적으로 입력되어야 하는 항목일 수 있으며, 편집 가이드 시간 중 나머지 가이드 시간(예컨대, 기본 편집 본의 가이드 시간 및 최소 편집 본의 가이드 시간)은 선택적으로 입력될 수 있는 항목일 수 있다.
도 13은 일 예에 따른 입력된 편집 가이드 시간을 출력하는 GUI를 나타낸다.
도 13은 도 12의 테이블(1210)에 대응할 수 있다. 도 13의 GUI를 통해 편집자는 모든 카테고리들에 대한 편집 가이드 시간을 확인할 수 있다.
도 14는 일 예에 따른 특정한 PD가 편집할 카테고리들의 편집 가이드 시간을 출력하는 GUI를 나타낸다.
동영상을 편집할 수 있는 편집자들 중, 특정한 편집자는 동영상의 카테고리들 중 일부 카테고리를 편집할 수 있다.
각 편집자가 편집 프로그램에 로그인하면, 편집자는 도 14의 GUI를 통해 자신이 편집할 수 있는 편집 가이드 시간을 확인할 수 있다. 도 14에서, 편집자들 중 서브 PD(또는, 제2 PD)가 편집할 수 있는 카테고리들의 편집 가이드 시간의 테이블이 표시되었다. 도 14에서, 편집 가이드 시간 중 최대 편집 본의 가이드 시간만이 등록되었고, 기본 편집 본의 가이드 시간 및 최소 편집 본의 가이드 시간은 입력되지 않았다.
도 15는 일 예에 따른 특정한 PD가 편집 담당으로 지정된 내용이 편집된 결과를 출력하는 GUI를 나타낸다.
도 14의 GUI를 통해, 서브 PD는 자신이 편집 담당으로 지정된 카테고리의 내용을 선택하여 편집할 수 있다. 서브 PD는 카테고리의 내용의 편집이 완료 및 등록된 경우, 편집 상태를 통해 상기의 완료 및 등록을 표시할 수 있다.
편집자는 자신을 나타내는 카테고리의 "편집" 또는 "시간" 버튼을 클릭함으로써 버튼에 대응하는 카테고리의 내용을 편집할 수 있다.
도 16은 일 실시예에 따른 동영상을 제공하는 서버의 구조도이다.
서버(1600)는 콘텐츠를 전자 장치(100) 및 전자 장치(700)에게 제공할 수 있다. 여기서, 콘텐츠는 전자 장치(100)가 재생하는 동영상일 수 있으며, 전자 장치(700)의 동영상의 촬영 본 또는 편집 본 중 하나 이상일 수 있다. 하기의 콘텐츠는 도 1 내지 도 15에서 설명된 동영상에 대응할 수 있으며, 동영상은 콘텐츠의 일 예가 될 수 있다.
서버(1600)는 전자 장치(700)에 의해 생성된 동영상의 촬영 본 또는 편집 본 중 하나 이상을 저장할 수 있다.
제어부(1610)는 스크리밍(streaming) 서비스를 통해 전자 장치(100) 및 전자 장치(700)에게 콘텐츠를 제공할 수 있다. 예컨대, 제어부(1610)는 네트워킹부(1620)를 통해 콘텐츠를 전자 장치(100)로 전송할 수 있다.
전자 장치(100)의 처리부(130)는 동영상의 재생의 제어에 기반하여 적응적인 스트리밍을 제어부(1610)에게 요청할 수 있다.
예컨대, 처리부(130)가 동영상의 재생 속도를 증가시킬 때, 처리부(130)는 네트워킹부(140)를 통해 제어부(1610)에게 스트리밍으로 전송되는 콘텐츠(즉, 재생되는 동영상)의 전송 속도(예컨대, 비트레이트(bitrate)를 증가시킬 것을 요청할 수 있다. 상기의 요청에 의해, 제어부(1610)는 콘텐츠의 전송 속도를 증가시킬 수 있다. 또한, 처리부(130)가 동영상의 재생 속도를 감소시킬 때, 처리부(130)는 네트워킹부(140)를 통해 제어부(1610)에게 스트리밍으로 전송되는 콘텐츠의 전송 속도를 감소시킬 것을 요청할 수 있다.
예컨대, 처리부(130)는 네트워킹부(140)를 통해 동영상의 복수 개의 편집 본들 중 특정한 편집 본을 전송해줄 것을 제어부(1610)에게 요청할 수 있다. 제어부(1610)는 네트워킹부(1620)를 통해 요청된 편집 본을 전송할 수 있으며, 처리부(130)에 의해 요청된 재생 속도 또는 정보에 대응하는 편집 본을 전송할 수 있다.
서버(1600)는 하나 이상의 저장부들을 포함할 수 있다. 하나 이상의 저장부들은 레디-메이드 콘텐츠(Ready-Made Content; RMC) 저장부(1630), 추가 콘텐츠 저장부(1640) 및 EPG 정보 저장부(1650)를 포함할 수 있다.
RMC 저장부(1630)는 동영상의 촬영 본 또는 기본 편집 본과 같은 레디-메이드 콘텐츠를 저장할 수 있다.
추가 콘텐츠 저장부(1640)는 동영상의 최대 촬영 본 또는 최소 촬영 본과 같은 추가적인 콘텐츠를 저장할 수 있다.
EPG 정보 저장부(1650)는 콘텐츠의 EPG 정보를 저장할 수 있다.
제어부(1610)은 하나 이상의 저장부들로부터 동영상의 하나 이상의 편집 본들, 동영상의 촬영본 및 동영상의 EPG 정보 등을 네트워킹부(1620)를 통해 전자 장치(100) 또는 전자 장치(700)에게 제공할 수 있다.
실시예들은 다양한 컴퓨터로 구현되는 동작을 수행하기 위한 프로그램 명령을 포함하는 컴퓨터 판독 가능 매체를 포함한다. 특히, 본 실시예에서는 사용자가 동영상을 시청할 수 있도록 동영상을 재생하는 재생 코드와, 사용자의 동작에 기인하여 발생한 물리적 현상을 식별하는 식별 코드와, 식별된 물리적 현상에 기반하여 사용자의 동영상에 대한 반응을 추정하는 추정 코드와, 추정된 반응에 기반하여 상기 동영상의 재생을 제어하는 제어 코드를 포함하는 사용자에게 동영상을 제공하는 프로그램이 기록되는 컴퓨터 판독 가능 매체를 포함할 수 있다. 본 실시예에 따른 프로그램은 PC 기반의 프로그램 또는 모바일 단말 전용 어플리케이션(예를 들어, 스마트폰 어플리케이션, 피쳐폰 VM(virtual machine) 등의 형태) 등으로 구성될 수 있다. 이는, 사용자 단말 및/또는 전자책 서비스 시스템의 메모리에 저장되어 사용자 단말 및/또는 전자책 서비스 시스템에서 구동되는 적어도 하나의 프로세서에 의해 실행되도록 구성될 수 있다.
상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 또한, 상술한 파일 시스템은 컴퓨터 판독이 가능한 기록 매체에 기록될 수 있다.
이상과 같이 실시예를 통해 설명된 기술적 내용은 다양한 수정 및 변형이 가능하다. 그러므로, 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
100: 전자 장치
110: 센싱부
120: 입력부
130: 처리부
140: 송수신부
150: 저장부
160: 출력부

Claims (15)

  1. 전자 장치가 사용자에게 동영상을 제공하는 방법에 있어서,
    상기 사용자가 상기 동영상을 시청할 수 있도록 상기 동영상을 재생하는 단계;
    상기 사용자의 동작에 기인하여 발생한 물리적 현상을 식별하는 단계;
    상기 물리적 현상에 기반하여 상기 사용자의 상기 동영상에 대한 반응을 추정하는 단계; 및
    상기 추정된 반응에 기반하여 상기 동영상의 재생을 제어하는 단계
    를 포함하는 동영상 제공 방법.
  2. 제1항에 있어서,
    상기 물리적 현상은 상기 사용자의 신체 상의 변화, 상기 사용자의 시청 환경 상의 변화 및 상기 사용자의 동작에 의해 발생한 물리적인 변화 중 하나 이상인, 동영상 제공 방법.
  3. 제1항에 있어서,
    상기 감지하는 단계는,
    상기 전자 장치 주위의 물리적 상태를 감지함으로써 제1 물리적 상태에 대한 정보를 생성하는 단계;
    상기 제1 물리적 상태에 대한 정보가 감지된 후 상기 전자 장치 주위의 물리적 상태를 감지함으로써 제2 물리적 상태에 대한 정보를 생성하는 단계; 및
    상기 제1 물리적 상태에 대한 정보 및 상기 제2 물리적 상태에 대한 정보 간의 차이에 기반하여 상기 물리적 현상을 식별하는 단계
    를 포함하는, 동영상 제공 방법.
  4. 제1항에 있어서,
    상기 제어는 상기 재생의 속도의 조절인, 동영상 제공 방법.
  5. 제1항에 있어서,
    상기 추정된 반응은 상기 사용자가 상기 동영상을 시청하는지 여부 및 상기 사용자가 상기 동영상의 시청에 집중하는지 여부 중 하나 이상을 포함하는, 동영상 제공 방법.
  6. 제5항에 있어서,
    상기 제어는 상기 추정된 반응이 상기 사용자가 상기 동영상을 시청하지 않는 것을 나타낼 때 상기 동영상의 재생을 중단시키는 제어 및 상기 추정된 반응이 상기 사용자가 상기 동영상을 시청하는 것을 나타낼 때 상기 동영상의 재생을 재개하는 제어인, 동영상 제공 방법.
  7. 제5항에 있어서,
    상기 제어는 추정된 반응이 상기 사용자가 상기 동영상의 시청에 집중한다는 것을 나타낼 때, 상기 동영상 중 상기 사용자가 집중한 부분에 관련된 부분의 재생 시간을 증가시키는 제어 및 상기 추정된 반응이 상기 사용자가 상기 동영상의 시청에 집중하지 않는다는 것을 나타낼 때, 상기 동영상 중 상기 사용자가 집중하지 않은 부분에 관련된 부분의 재생 시간을 감소시키는 제어인, 동영상 제공 방법.
  8. 제7항에 있어서,
    상기 동영상은 복수 개의 카테고리들로 분류되고,
    상기 동영상은 하나 이상의 편집 본들을 포함하고,
    상기 재생 시간을 증가시키는 제어 및 상기 재생 시간을 감소시키는 제어는 하나 이상의 편집 본들 중 재생할 편집 본을 선택함으로써 수행되고, 상기 선택은 상기 복수 개의 카테고리들 중 상기 집중한 부분 또는 상기 집중하지 않은 부분이 속하는 카테고리에 대해 적용되는, 동영상 제공 방법.
  9. 제8항에 있어서,
    상기 복수 개의 카테고리들 및 상기 하나 이상의 촬영 본들에 대한 정보는 상기 동영상의 전자 프로그램 가이드(Electronic Program Guide; EPG)를 통해 제공되는, 동영상 제공 방법.
  10. 전자 장치를 통해 사용자에게 동영상을 제공하는 프로그램이 기록되어 있는 기록 매체에 있어서,
    상기 사용자가 상기 동영상을 시청할 수 있도록 상기 동영상을 재생하는 재생 코드;
    상기 사용자의 동작에 기인하여 발생한 물리적 현상을 식별하는 식별 코드;
    상기 물리적 현상에 기반하여 상기 사용자의 상기 동영상에 대한 반응을 추정하는 추정 코드; 및
    상기 추정된 반응에 기반하여 상기 동영상의 재생을 제어하는 제어 코드
    를 포함하는 프로그램이 기록된, 컴퓨터에서 판독 가능한 기록 매체.
  11. 사용자에게 동영상을 제공하는 전자 장치에 있어서,
    상기 사용자가 상기 동영상을 시청할 수 있도록 상기 동영상을 재생하고, 상기 사용자의 동작에 기인하여 발생한 물리적 현상을 식별하고, 상기 물리적 현상에 기반하여 상기 사용자의 상기 동영상에 대한 반응을 추정하고, 상기 추정된 반응에 기반하여 상기 동영상의 재생을 제어하는 처리부; 및
    상기 동영상을 출력하는 출력부
    를 포함하는, 전자 장치.
  12. 전자 장치가 촬영에 의해 생성된 동영상의 촬영 본을 편집함으로써 상기 동영상에 대한 시청자의 반응에 따라 재생되는 내용이 변경될 수 있는 상기 동영상의 편집 본을 생성하는 방법에 있어서,
    상기 동영상의 촬영 본의 내용에 기반하여 상기 내용에 따라 각각 구분되는 복수 개의 카테고리들을 결정하는 단계;
    상기 복수 개의 카테고리 각각에 대해 복수 개의 편집 본들 각각에서의 재생 시간을 결정하는 단계;
    상기 촬영 본의 내용 중 일부를 선택함으로써 상기 복수 개의 카테고리 각각에 대해 상기 복수 개의 편집 본들 각각의 내용을 결정하는 단계; 및
    상기 복수 개의 카테고리들의 상기 복수 개의 편집 본들의 내용들을 결합함으로써 상기 시청자의 반응에 따라 상기 복수 개의 카테고리들 각각에 대해 상기 복수 개의 편집 본들 중 하나의 편집 본이 재생될 수 있는 상기 동영상의 편집 본을 생성하는 단계
    를 포함하는, 동영상의 편집 본 생성 방법.
  13. 제12항에 있어서,
    상기 복수 개의 편집 본들은 기본 편집 본, 최소 편집 본 및 최대 편집 본을 포함하고,
    상기 최대 편집 본의 재생 시간은 상기 기본 편집 본의 재생 시간 이상이며, 상기 기본 편집 본의 재생 시간은 상기 최소 편집 본의 재생 시간 이상이고,
    상기 기본 편집 본의 내용은 상기 동영상이 편집 본의 재생이 상기 시청자의 반응에 따라 제어되지 않을 때 기본적으로 재생되는 내용인, 동영상의 편집 본 생성 방법.
  14. 제12항에 있어서,
    상기 복수 개의 카테고리들은 각각 상기 동영상 내에서 특정한 출연자가 메인으로 출연하는 장면을 나타내는, 동영상의 편집 본 생성 방법.
  15. 촬영에 의해 생성된 동영상의 촬영 본을 편집함으로써 상기 동영상에 대한 시청자의 반응에 따라 재생되는 내용이 변경될 수 있는 상기 동영상의 편집 본을 생성하는 전자 장치에 있어서,
    상기 동영상의 촬영 본의 내용에 기반하여 상기 내용에 따라 각각 구분되는 복수 개의 카테고리들을 결정하고, 상기 복수 개의 카테고리 각각에 대해 복수 개의 편집 본들 각각에서의 재생 시간을 결정하고, 상기 촬영 본의 내용 중 일부를 선택함으로써 상기 복수 개의 카테고리 각각에 대해 상기 복수 개의 편집 본들 각각의 내용을 결정하고, 상기 복수 개의 카테고리들의 상기 복수 개의 편집 본들의 내용들을 결합함으로써 상기 시청자의 반응에 따라 상기 복수 개의 카테고리들 각각에 대해 상기 복수 개의 편집 본들 중 하나의 편집 본이 재생될 수 있는 상기 동영상의 편집 본을 생성하는 처리부; 및
    상기 동영상의 촬영 본 및 상기 동영상의 편집 본을 저장하는 저장부
    를 포함하는, 전자 장치.
KR1020120020910A 2012-02-29 2012-02-29 사용자의 반응에 기반한 동적 콘텐츠 재생 제어 방법 및 장치 KR101360471B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120020910A KR101360471B1 (ko) 2012-02-29 2012-02-29 사용자의 반응에 기반한 동적 콘텐츠 재생 제어 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120020910A KR101360471B1 (ko) 2012-02-29 2012-02-29 사용자의 반응에 기반한 동적 콘텐츠 재생 제어 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20130099418A true KR20130099418A (ko) 2013-09-06
KR101360471B1 KR101360471B1 (ko) 2014-02-11

Family

ID=49450737

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120020910A KR101360471B1 (ko) 2012-02-29 2012-02-29 사용자의 반응에 기반한 동적 콘텐츠 재생 제어 방법 및 장치

Country Status (1)

Country Link
KR (1) KR101360471B1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101484190B1 (ko) * 2014-04-01 2015-01-20 한국과학기술원 신체 반응에 의한 동영상 콘텐츠 감상 지원 시스템 및 방법과 그 방법을 구현하기 위한 컴퓨터 프로그램이 기록된 기록매체
WO2015050562A1 (en) * 2013-10-04 2015-04-09 Intel Corporation Technology for dynamically adjusting video playback speed
KR20210081220A (ko) * 2019-12-23 2021-07-01 구글 엘엘씨 미디어 소비에 기초하여 컴퓨팅 디바이스 사용자에 의해 수행된 물리적 활동 식별
KR102282407B1 (ko) * 2020-01-23 2021-07-28 (주)퓨처쉐이퍼스 홀로그램 광고 제공 방법 및 시스템
CN113532464A (zh) * 2015-10-08 2021-10-22 松下电器(美国)知识产权公司 控制方法、个人认证装置和记录介质

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101853402B1 (ko) * 2016-08-12 2018-05-02 (주)코텍 오엘이디 표시 장치의 휘도 제어 장치와 방법
KR102289464B1 (ko) * 2019-12-06 2021-08-12 이화여자대학교 산학협력단 주의 집중을 위한 동영상 편집 장치 및 방법

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090121016A (ko) * 2008-05-21 2009-11-25 박영민 시청자 반응 측정 방법 및 시스템
KR101123370B1 (ko) * 2010-05-14 2012-03-23 주식회사 코리아퍼스텍 휴대단말용 객체기반 콘텐츠 제공방법 및 장치

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015050562A1 (en) * 2013-10-04 2015-04-09 Intel Corporation Technology for dynamically adjusting video playback speed
KR101484190B1 (ko) * 2014-04-01 2015-01-20 한국과학기술원 신체 반응에 의한 동영상 콘텐츠 감상 지원 시스템 및 방법과 그 방법을 구현하기 위한 컴퓨터 프로그램이 기록된 기록매체
CN113532464A (zh) * 2015-10-08 2021-10-22 松下电器(美国)知识产权公司 控制方法、个人认证装置和记录介质
KR20210081220A (ko) * 2019-12-23 2021-07-01 구글 엘엘씨 미디어 소비에 기초하여 컴퓨팅 디바이스 사용자에 의해 수행된 물리적 활동 식별
US11620543B2 (en) 2019-12-23 2023-04-04 Google Llc Identifying physical activities performed by a user of a computing device based on media consumption
US12008485B2 (en) 2019-12-23 2024-06-11 Google Llc Identifying physical activities performed by a user of a computing device based on media consumption
KR102282407B1 (ko) * 2020-01-23 2021-07-28 (주)퓨처쉐이퍼스 홀로그램 광고 제공 방법 및 시스템

Also Published As

Publication number Publication date
KR101360471B1 (ko) 2014-02-11

Similar Documents

Publication Publication Date Title
KR101360471B1 (ko) 사용자의 반응에 기반한 동적 콘텐츠 재생 제어 방법 및 장치
TWI558186B (zh) 基於環境感測之視訊選擇
RU2440606C2 (ru) Способ и устройство автоматического генерирования сводки множества изображений
US9015788B2 (en) Generation and provision of media metadata
US8151179B1 (en) Method and system for providing linked video and slides from a presentation
US10770113B2 (en) Methods and system for customizing immersive media content
US9430115B1 (en) Storyline presentation of content
US9558784B1 (en) Intelligent video navigation techniques
AU2013273781B2 (en) Method and apparatus for recording video image in a portable terminal having dual camera
US9332313B2 (en) Personalized augmented A/V stream creation
US9564177B1 (en) Intelligent video navigation techniques
CA2923807A1 (en) Generating alerts based upon detector outputs
KR101608396B1 (ko) 이질적 컨텐트 소스들의 링크
KR20130062883A (ko) 미디어와 함께 코멘트를 프리젠테이션하기 위한 시스템 및 방법
US10848831B2 (en) Methods, systems, and media for providing media guidance
US10622017B1 (en) Apparatus, a system, and a method of dynamically generating video data
US10453263B2 (en) Methods and systems for displaying augmented reality content associated with a media content instance
KR20080047845A (ko) 동적 영상물의 프레임 정보를 생성하는 방법 및 이를이용한 장치
US20160073029A1 (en) Method and system for creating a video
KR20180020899A (ko) 동영상을 처리하는 컴퓨팅 장치, 방법 및 컴퓨터 프로그램
CN112954390B (zh) 视频处理方法、装置、存储介质及设备
KR20160044981A (ko) 동영상 처리 장치 및 방법
US11941048B2 (en) Tagging an image with audio-related metadata
KR101328270B1 (ko) 스마트 tv의 비디오 어노테이션 및 증강 방법 및 그 시스템
JP6602423B6 (ja) コンテンツ提供サーバ、コンテンツ提供端末及びコンテンツ提供方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170125

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180129

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190201

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20200129

Year of fee payment: 7