KR101360471B1 - Method and apparatus for controlling playback of content based on user reaction - Google Patents

Method and apparatus for controlling playback of content based on user reaction Download PDF

Info

Publication number
KR101360471B1
KR101360471B1 KR1020120020910A KR20120020910A KR101360471B1 KR 101360471 B1 KR101360471 B1 KR 101360471B1 KR 1020120020910 A KR1020120020910 A KR 1020120020910A KR 20120020910 A KR20120020910 A KR 20120020910A KR 101360471 B1 KR101360471 B1 KR 101360471B1
Authority
KR
South Korea
Prior art keywords
video
user
edited
playback
response
Prior art date
Application number
KR1020120020910A
Other languages
Korean (ko)
Other versions
KR20130099418A (en
Inventor
박효진
최준균
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020120020910A priority Critical patent/KR101360471B1/en
Publication of KR20130099418A publication Critical patent/KR20130099418A/en
Application granted granted Critical
Publication of KR101360471B1 publication Critical patent/KR101360471B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Tourism & Hospitality (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

사용자의 반응에 기반한 동적 콘텐츠 재생 제어 방법 및 장치가 제공된다. 전자 장치는 센서가 감지한 정보에 기반하여 재생 중인 콘텐츠에 대한 사용자의 반응을 추정한다. 전자 장치는 추정된 반응에 따라 동영상의 재생을 제어한다. 전자 장치는 동영상 중 재생되고 있는 부분과 관련된 부분의 재생 시간을 증가 또는 감소시킬 수 있다. 동영상은 서로 상이한 재생 시간을 갖는 복수 개의 편집 본들을 포함할 수 있다.Provided are a method and an apparatus for controlling dynamic content playback based on a user's response. The electronic device estimates the user's response to the content being played based on the information detected by the sensor. The electronic device controls the playback of the video according to the estimated response. The electronic device may increase or decrease the play time of the portion related to the portion of the video being played. The video may include a plurality of edited copies having different playback times.

Description

사용자의 반응에 기반한 동적 콘텐츠 재생 제어 방법 및 장치{METHOD AND APPARATUS FOR CONTROLLING PLAYBACK OF CONTENT BASED ON USER REACTION}METHOD AND APPARATUS FOR CONTROLLING PLAYBACK OF CONTENT BASED ON USER REACTION}

동영상 콘텐츠의 재생을 제어하기 위한 방법 및 장치에 관한 것으로, 보다 상세히는 사용자의 반응에 기반하여 콘텐츠의 재생을 동적으로 제어하는 방법 및 장치가 개시된다.A method and apparatus for controlling playback of video content are disclosed, and more particularly, a method and apparatus for dynamically controlling playback of content based on a user's reaction are disclosed.

일반적으로, 동영상 콘텐츠는 제작자의 의도에 의해 촬영된 후, 편집이 완성된 상태에서 배포된다. 특히, 영화 또는 텔레비전(TeleVision; TV) 프로그램은 제한된 편성 시간에 맞춰서 편집된다. 즉, 일반적인 동영상 콘텐츠는 레디-메이드(ready-made) 콘텐츠이다.In general, moving image content is photographed by a producer's intention and then distributed in a state where editing is completed. In particular, a film or television (TeleVision (TV) program) is edited for a limited programming time. That is, general video content is ready-made content.

동영상 콘텐츠를 시청하는 시청자마다 동영상 콘텐츠의 장면 및 내용에 대한 기호는 서로 상이하다. 레디-메이드 콘텐츠는 편집에 의해 결정된 내용만을 제공하기 때문에 서로 상이한 기호를 갖는 다양한 시청자들의 만족도를 극대화시키기 어렵다.The viewers who watch the video content have different preferences for scenes and contents of the video content. Because ready-made content provides only content determined by editing, it is difficult to maximize satisfaction of various viewers having different preferences.

근래에 개발된 센싱(sensing) 장비들은 실시간으로 사용자의 얼굴(또는, 표정), 동작 또는 음성 등을 인식할 수 있으며, 상기의 인식에 기반하여 증강현실 또는 상호작용 서비스를 사용자에게 제공할 수 있다.Recently developed sensing devices can recognize a user's face (or facial expression), motion or voice in real time, and can provide augmented reality or interactive services to the user based on the recognition. .

한국공개특허 제10-2012-0012627호(공개일 2012년 02월 12일) 및 제10-2011-0136004(공개일 2011년 12월 21)에는 사용자의 얼굴을 인식하고, 인식된 사용자에 맞춰 증강현실 또는 상호작용 서비스를 제공하는 방법이 개시되어 있다.Korean Patent Publication Nos. 10-2012-0012627 (published February 12, 2012) and 10-2011-0136004 (published December 21, 2011) recognize a user's face and enhance the user's face. A method of providing real or interactive services is disclosed.

일 실시예는 동영상을 시청하는 사용자의 반응에 따라 동영상의 재생을 제어하는 장치 및 방법을 제공할 수 있다.An embodiment may provide an apparatus and a method for controlling playback of a video according to a reaction of a user who views the video.

일 실시예는 서로 상이한 분량을 갖는 복수 개의 편집 본들을 포함하는 동영상을 생성하는 장치 및 방법을 제공할 수 있다.An embodiment may provide an apparatus and a method for generating a video including a plurality of edited copies having different amounts.

일 측에 따르면, 전자 장치가 사용자에게 동영상을 제공하는 방법에 있어서, 상기 사용자가 상기 동영상을 시청할 수 있도록 상기 동영상을 재생하는 단계, 상기 사용자의 동작에 기인하여 발생한 물리적 현상을 식별하는 단계, 상기 물리적 현상에 기반하여 상기 사용자의 상기 동영상에 대한 반응을 추정하는 단계 및 상기 추정된 반응에 기반하여 상기 동영상의 재생을 제어하는 단계를 포함하는 동영상 제공 방법이 제공된다.According to one side, the electronic device provides a video to a user, the method comprising: playing the video so that the user can watch the video, identifying a physical phenomenon caused by the user's operation, the There is provided a video providing method comprising estimating a response of the user to the video based on a physical phenomenon and controlling the playback of the video based on the estimated response.

상기 물리적 현상은 상기 사용자의 신체 상의 변화, 상기 사용자의 시청 환경 상의 변화 및 상기 사용자의 동작에 의해 발생한 물리적인 변화 중 하나 이상일 수 있다.The physical phenomenon may be one or more of a change in the body of the user, a change in the viewing environment of the user, and a physical change caused by the user's motion.

상기 감지하는 단계는, 상기 전자 장치 주위의 물리적 상태를 감지함으로써 제1 물리적 상태에 대한 정보를 생성하는 단계, 상기 제1 물리적 상태에 대한 정보가 감지된 후 상기 전자 장치 주위의 물리적 상태를 감지함으로써 제2 물리적 상태에 대한 정보를 생성하는 단계 및 상기 제1 물리적 상태에 대한 정보 및 상기 제2 물리적 상태에 대한 정보 간의 차이에 기반하여 상기 물리적 현상을 식별하는 단계를 포함할 수 있다.The detecting may include generating information about a first physical state by sensing a physical state around the electronic device, and after sensing information about the first physical state by sensing the physical state around the electronic device. Generating information about a second physical state and identifying the physical phenomenon based on a difference between the information about the first physical state and the information about the second physical state.

상기 제어는 상기 재생의 속도의 조절일 수 있다.The control may be an adjustment of the speed of the regeneration.

상기 추정된 반응은 상기 사용자가 상기 동영상을 시청하는지 여부 및 상기 사용자가 상기 동영상의 시청에 집중하는지 여부 중 하나 이상을 포함할 수 있다.The estimated response may include one or more of whether the user watches the video and whether the user focuses on viewing the video.

상기 제어는 상기 추정된 반응이 상기 사용자가 상기 동영상을 시청하지 않는 것을 나타낼 때 상기 동영상의 재생을 중단시키는 제어 및 상기 추정된 반응이 상기 사용자가 상기 동영상을 시청하는 것을 나타낼 때 상기 동영상의 재생을 재개하는 제어일 수 있다.The control controls playback of the video when the estimated response indicates that the user is not watching the video and playback of the video when the estimated response indicates that the user is watching the video. It may be control to resume.

상기 제어는 추정된 반응이 상기 사용자가 상기 동영상의 시청에 집중한다는 것을 나타낼 때, 상기 동영상 중 상기 사용자가 집중한 부분에 관련된 부분의 재생 시간을 증가시키는 제어 및 상기 추정된 반응이 상기 사용자가 상기 동영상의 시청에 집중하지 않는다는 것을 나타낼 때, 상기 동영상 중 상기 사용자가 집중하지 않은 부분에 관련된 부분의 재생 시간을 감소시키는 제어일 수 있다.The control is such that when the estimated response indicates that the user concentrates on the viewing of the video, the control to increase the playing time of the portion of the video related to the portion of the user's concentration and the estimated response is determined by the user. When indicating that the user does not concentrate on viewing of the video, the control may reduce a play time of a portion related to the portion of the video not focused by the user.

상기 동영상은 복수 개의 카테고리들로 분류될 수 있다.The video may be classified into a plurality of categories.

상기 동영상은 하나 이상의 편집 본들을 포함할 수 있다.The video may include one or more edits.

상기 재생 시간을 증가시키는 제어 및 상기 재생 시간을 감소시키는 제어는 하나 이상의 편집 본들 중 재생할 편집 본을 선택함으로써 수행될 수 있다.Control to increase the reproduction time and control to decrease the reproduction time may be performed by selecting an edited copy to be reproduced from one or more edited copies.

상기 선택은 상기 복수 개의 카테고리들 중 상기 집중한 부분 또는 상기 집중하지 않은 부분이 속하는 카테고리에 대해 적용될 수 있다.The selection may be applied to a category to which the concentrated portion or the non-focused portion belongs among the plurality of categories.

상기 복수 개의 카테고리들 및 상기 하나 이상의 촬영 본들에 대한 정보는 상기 동영상의 전자 프로그램 가이드(Electronic Program Guide; EPG)를 통해 제공될 수 있다.Information about the plurality of categories and the one or more shots may be provided through an electronic program guide (EPG) of the video.

다른 일 측에 따르면, 전자 장치를 통해 사용자에게 동영상을 제공하는 프로그램이 기록되어 있는 기록 매체에 있어서, 상기 사용자가 상기 동영상을 시청할 수 있도록 상기 동영상을 재생하는 재생 코드, 상기 사용자의 동작에 기인하여 발생한 물리적 현상을 식별하는 식별 코드, 상기 물리적 현상에 기반하여 상기 사용자의 상기 동영상에 대한 반응을 추정하는 추정 코드 및 상기 추정된 반응에 기반하여 상기 동영상의 재생을 제어하는 제어 코드를 포함하는 프로그램이 기록된, 컴퓨터에서 판독 가능한 기록 매체가 제공될 수 있다.According to another aspect, a recording medium in which a program for providing a video to a user through an electronic device is recorded, wherein the playback code reproduces the video so that the user can watch the video, A program including an identification code for identifying a physical phenomenon that has occurred, an estimation code for estimating a response of the user to the video based on the physical phenomenon, and a control code for controlling playback of the video based on the estimated response; A computer-readable recording medium that has been recorded can be provided.

또 다른 일 측에 따르면, 사용자에게 동영상을 제공하는 전자 장치에 있어서, 상기 사용자가 상기 동영상을 시청할 수 있도록 상기 동영상을 재생하고, 상기 사용자의 동작에 기인하여 발생한 물리적 현상을 식별하고, 상기 물리적 현상에 기반하여 상기 사용자의 상기 동영상에 대한 반응을 추정하고, 상기 추정된 반응에 기반하여 상기 동영상의 재생을 제어하는 처리부 및 상기 동영상을 출력하는 출력부를 포함하는, 전자 장치가 제공될 수 있다.According to another aspect of the present invention, in an electronic device for providing a video to a user, the video is reproduced so that the user can watch the video, the physical phenomenon generated due to the user's operation is identified, and the physical phenomenon The electronic device may include a processor configured to estimate a response of the user to the video based on the control unit, and control a playback of the video based on the estimated response, and an output unit to output the video.

또 다른 일 측에 따르면, 전자 장치가 촬영에 의해 생성된 동영상의 촬영 본을 편집함으로써 상기 동영상에 대한 시청자의 반응에 따라 재생되는 내용이 변경될 수 있는 상기 동영상의 편집 본을 생성하는 방법에 있어서, 상기 동영상의 촬영 본의 내용에 기반하여 상기 내용에 따라 각각 구분되는 복수 개의 카테고리들을 결정하는 단계, 상기 복수 개의 카테고리 각각에 대해 복수 개의 편집 본들 각각에서의 재생 시간을 결정하는 단계, 상기 촬영 본의 내용 중 일부를 선택함으로써 상기 복수 개의 카테고리 각각에 대해 상기 복수 개의 편집 본들 각각의 내용을 결정하는 단계 및 상기 복수 개의 카테고리들의 상기 복수 개의 편집 본들의 내용들을 결합함으로써 상기 시청자의 반응에 따라 상기 복수 개의 카테고리들 각각에 대해 상기 복수 개의 편집 본들 중 하나의 편집 본이 재생될 수 있는 상기 동영상의 편집 본을 생성하는 단계를 포함하는, 동영상의 편집 본 생성 방법이 제공된다.According to another aspect of the present invention, there is provided a method for generating an edited copy of a video in which an electronic device may change a content played according to a viewer's reaction to the video by editing a photographed copy of a video generated by photographing. Determining a plurality of categories, each of which is divided according to the contents based on the contents of the photographed text of the video, determining a reproduction time in each of the plurality of edited texts for each of the plurality of categories, the photographed text Determining the content of each of the plurality of edits for each of the plurality of categories by selecting some of the contents of the plurality of contents and combining the contents of the plurality of edits of the plurality of categories according to the viewer's response The plurality of edits for each of the four categories A method of generating an edited copy of a video is provided, the method including generating an edited copy of the video on which an edited copy of one of the bones can be played.

상기 복수 개의 편집 본들은 기본 편집 본, 최소 편집 본 및 최대 편집 본을 포함할 수 있다.The plurality of edited texts may include a basic edited text, a minimum edited text, and a maximum edited text.

상기 최대 편집 본의 재생 시간은 상기 기본 편집 본의 재생 시간 이상일 수 있다.The reproduction time of the maximum edited copy may be greater than or equal to the reproduction time of the basic edited copy.

상기 기본 편집 본의 재생 시간은 상기 최소 편집 본의 재생 시간 이상일 수 있다.The reproduction time of the basic edited copy may be equal to or greater than the reproduction time of the minimum edited copy.

상기 기본 편집 본의 내용은 상기 동영상이 편집 본의 재생이 상기 시청자의 반응에 따라 제어되지 않을 때 기본적으로 재생되는 내용일 수 있다.The basic edited content may be content that is basically played when the video is not controlled according to the response of the viewer.

상기 복수 개의 카테고리들은 각각 상기 동영상 내에서 특정한 출연자가 메인으로 출연하는 장면을 나타낼 수 있다.Each of the plurality of categories may represent a scene in which a specific performer appears in the main video.

또 다른 일 측에 따르면, 촬영에 의해 생성된 동영상의 촬영 본을 편집함으로써 상기 동영상에 대한 시청자의 반응에 따라 재생되는 내용이 변경될 수 있는 상기 동영상의 편집 본을 생성하는 전자 장치에 있어서, 상기 동영상의 촬영 본의 내용에 기반하여 상기 내용에 따라 각각 구분되는 복수 개의 카테고리들을 결정하고, 상기 복수 개의 카테고리 각각에 대해 복수 개의 편집 본들 각각에서의 재생 시간을 결정하고, 상기 촬영 본의 내용 중 일부를 선택함으로써 상기 복수 개의 카테고리 각각에 대해 상기 복수 개의 편집 본들 각각의 내용을 결정하고, 상기 복수 개의 카테고리들의 상기 복수 개의 편집 본들의 내용들을 결합함으로써 상기 시청자의 반응에 따라 상기 복수 개의 카테고리들 각각에 대해 상기 복수 개의 편집 본들 중 하나의 편집 본이 재생될 수 있는 상기 동영상의 편집 본을 생성하는 처리부; 및 상기 동영상의 촬영 본 및 상기 동영상의 편집 본을 저장하는 저장부를 포함하는, 전자 장치가 제공된다.According to another aspect of the present invention, an electronic device for generating an edited copy of a video in which content played back according to a viewer's reaction to the video may be changed by editing a photographed copy of a video generated by photographing. Determine a plurality of categories, each of which is divided according to the contents based on the contents of the photographed text of the video, determine a reproduction time in each of the plurality of edited texts for each of the plurality of categories, and a part of the contents of the photographed text Determine the content of each of the plurality of edited texts for each of the plurality of categories, and combine the contents of the plurality of edited texts of the plurality of categories to each of the plurality of categories according to the viewer's response. For one of the plurality of edited editions A processing unit which generates an edited copy of the video that can be played back; And a storage unit which stores a photographed copy of the video and an edited copy of the video.

동영상을 시청하는 사용자의 반응에 따라 동영상의 재생을 제어하는 장치 및 방법이 제공된다.An apparatus and method for controlling playback of a video in response to a user's response to the video is provided.

서로 상이한 분량을 갖는 복수 개의 편집 본들을 포함하는 동영상을 생성하는 장치 및 방법이 제공된다.An apparatus and method are provided for generating a moving picture including a plurality of edited copies having different amounts.

도 1은 일 실시예에 따른 전자 장치의 구조도이다.
도 2는 일 실시예에 따른 사용자의 반응에 기반하여 동영상의 재생을 제어하는 방법의 흐름도이다.
도 3은 일 실시예에 따른 센싱부의 구조도이다.
도 4는 일 예에 따른 물리적 현상, 추정된 반응 및 동영상의 제어 간의 관계를 나타낸다.
도 5는 일 예에 따른 물리적 현상을 식별하는 방법을 설명하는 흐름도이다.
도 6은 일 예에 따른 동영상의 구성을 설명한다.
도 7은 일 예에 따른 동영상을 생성하는 전자 장치의 구조도이다.
도 8은 일 예에 따른 동영상을 생성하는 방법의 흐름도이다.
도 9는 일 예에 따른 편집 프로그램의 로그인 GUI를 나타낸다.
도 10은 일 예에 따른 동영상의 정보를 불러오는 GUI를 나타낸다.
도 11은 일 예에 따른 편집 가이드라인을 입력하는 GUI를 나타낸다.
도 12는 일 예에 따른 편집 가이드 시간을 입력하는 GUI를 나타낸다.
도 13은 일 예에 따른 입력된 편집 가이드 시간을 출력하는 GUI를 나타낸다.
도 14는 일 예에 따른 특정한 PD가 편집할 카테고리들의 편집 가이드 시간을 출력하는 GUI를 나타낸다.
도 15는 일 예에 따른 특정한 PD가 편집 담당으로 지정된 내용이 편집된 결과를 출력하는 GUI를 나타낸다.
도 16은 일 실시예에 따른 동영상을 제공하는 서버의 구조도이다.
1 is a structural diagram of an electronic device according to an embodiment.
2 is a flowchart of a method of controlling playback of a video based on a response of a user, according to an exemplary embodiment.
3 is a structural diagram of a sensing unit according to an exemplary embodiment.
4 illustrates a relationship between a physical phenomenon, an estimated response, and control of a video according to an example.
5 is a flowchart illustrating a method of identifying a physical phenomenon according to an example.
6 illustrates a configuration of a video according to an example.
7 is a structural diagram of an electronic device that generates a video, according to an embodiment.
8 is a flowchart of a method of generating a video, according to an example.
9 illustrates a login GUI of an editing program according to an example.
10 illustrates a GUI for loading information of a video, according to an embodiment.
11 illustrates a GUI for inputting an editing guideline according to an example.
12 illustrates a GUI for inputting an editing guide time according to an example.
13 illustrates a GUI for outputting an input editing guide time according to an example.
14 illustrates a GUI for outputting an editing guide time of categories to be edited by a specific PD according to an example.
15 illustrates a GUI for outputting a result of editing of a content designated by a specific PD to be in charge of editing according to an embodiment.
16 is a structural diagram of a server providing a video, according to an exemplary embodiment.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
In the following, embodiments will be described in detail with reference to the accompanying drawings. Like reference symbols in the drawings denote like elements.

도 1은 일 실시예에 따른 전자 장치의 구조도이다.1 is a structural diagram of an electronic device according to an embodiment.

전자 장치(100)는 동영상을 재생할 수 있는 영상 처리 장치일 수 있다. 전자 장치(100)는 사용자에게 동영상을 제공할 수 있다. 여기서, 동영상의 제공은, 사용자가 동영상을 시청할 수 있도록 동영상을 표시하거나, 동영상을 표시하기 위한 정보를 출력하는 것을 의미할 수 있다.The electronic device 100 may be an image processing device capable of playing a video. The electronic device 100 may provide a video to the user. Here, the provision of the video may mean displaying the video or outputting information for displaying the video so that the user can watch the video.

전자 장치(100)는 센싱부(110), 입력부(120), 처리부(130), 네트워킹부(140), 저장부(150) 및 출력부(160)를 포함할 수 있다.The electronic device 100 may include a sensing unit 110, an input unit 120, a processing unit 130, a networking unit 140, a storage unit 150, and an output unit 160.

센싱부(110)는 물리적 현상 또는 물리적 상태을 감지할 수 있다. 즉, 센싱부(110)에 의해 생성되는 정보는 특정한 물리적 현상 또는 물리적 상태를 나타낼 수 있다. 물리적 현상은 전자 장치(100)의 주위에서 발생한 물리적 현상일 수 있다. 물리적 상태는 전자 상태(100)의 주위의 물리적 상태일 수 있다. 여기서, 전자 장치(100)의 주위는, 1) 전자 장치(100)의 위치를 중심으로 갖는, 2) 센싱부(110)가 물리적 현상을 감지할 수 있는 범위를 의미할 수 있다.The sensing unit 110 may detect a physical phenomenon or a physical state. That is, the information generated by the sensing unit 110 may represent a specific physical phenomenon or physical state. The physical phenomenon may be a physical phenomenon occurring around the electronic device 100. The physical state may be a physical state around the electronic state 100. Here, the periphery of the electronic device 100 may refer to a range in which 1) the sensing unit 110 having a location of the electronic device 100 can detect a physical phenomenon.

센싱부(110)는 물리적 현상 또는 물리적 상태를 감지함으로써 물리적 현상 또는 물리적 상태를 나타내는 감지 정보를 생성할 수 있다. 즉, 하기에서, 물리적 현상 또는 물리적 상태를 나타내는 정보는 센싱부(110)의 센싱(sensing)에 의해 생성된 정보를 의미할 수 있다.The sensing unit 110 may generate sensing information indicating a physical phenomenon or a physical state by detecting a physical phenomenon or a physical state. That is, in the following description, information representing a physical phenomenon or a physical state may mean information generated by sensing of the sensing unit 110.

물리적 현상 또는 물리적 상태는 사용자의 동작에 기인하여 발생할 수 있다. 사용자의 동작은 사용자가 전자 장치(100)에 의해 제공되는 동영상을 시청하면서 취한 동작일 수 있다. 사용자는 동영상을 시청하면서 상기의 동영상에 대해 어떤 반응을 나타낼 수 있다. 말하자면, 사용자의 동작은 사용자의 동영상에 대한 반응을 나타낼 수 있다. 사용자의 반응 또는 사용자의 동작은 전자 장치(100)의 주위의 물리적 상태를 변화시킬 수 있으며, 물리적 현상을 발생시킬 수 있다.Physical phenomenon or physical state may occur due to the user's operation. The operation of the user may be an operation that the user takes while watching a video provided by the electronic device 100. The user may react to the video while watching the video. In other words, the user's motion may represent the user's response to the video. The user's reaction or user's action may change the physical state around the electronic device 100 and may cause a physical phenomenon.

입력부(120)는 전자 장치(100)를 제어하기 위한 사용자의 입력을 수신할 수 있다. 여기서, 사용자는 전자 장치(100)가 재생하는 동영상의 시청자일 수 있다.The input unit 120 may receive a user input for controlling the electronic device 100. Here, the user may be a viewer of a video played by the electronic device 100.

입력부(120)는 전자 장치(100)에 부착된 버튼(button), 터치 스크린(touch screen)일 수 있고, 키보드(keyboard), 마우스(mouse) 및 리모콘(remocon) 등과 같은 장치일 수 있고, 블루투스(bluetooth) 동글(dongle) 및 적외선(InfraRed; IR) 수신기(receiver) 등과 같은 수신 장치일 수 있다.The input unit 120 may be a button attached to the electronic device 100, a touch screen, a device such as a keyboard, a mouse, a remote controller, or the like. It may be a receiving device such as a Bluetooth dongle and an InfraRed (IR) receiver.

처리부(130)는 사용자가 동영상을 시청할 수 있도록 동영상을 재생할 수 있다.The processor 130 may play the video so that the user can watch the video.

처리부(130)는 물리적 현상을 식별할 수 있다. 여기서, 물리적 현상은 사용자의 동작에 기인하여 발생할 수 있다. 물리적 현상은 센싱부(110)에 의해 감지된 정보를 의미할 수 있다. 상기의 정보는 전자 장치(100)의 주위에서 발생한 물리적 현상에 대한 정보일 수 있다.The processor 130 may identify a physical phenomenon. Here, the physical phenomenon may occur due to the user's motion. The physical phenomenon may refer to information detected by the sensing unit 110. The above information may be information about a physical phenomenon occurring around the electronic device 100.

물리적 현상은 서로 상이한 시점에서 센싱부(110)에 의해 감지된 물리적 상태들 간의 차이를 의미할 수 있다. 따라서, 물리적 현상은 물리적 변화를 포함할 수 있다. 제어부(130)는 서로 상이한 시점에서 센싱부(110)에 의해 감지된 물리적 상태들 간의 차이에 기반하여 물리적 현상을 식별할 수 있다. The physical phenomenon may mean a difference between physical states sensed by the sensing unit 110 at different points in time. Thus, physical phenomena may include physical changes. The controller 130 may identify the physical phenomenon based on the difference between the physical states sensed by the sensing unit 110 at different times.

처리부(130)는 물리적 현상에 기반하여 사용자의 동영상에 대한 반응을 추정할 수 있다. 즉, 처리부(130)는 사용자의 동작에 기인하여 발생한 물리적 현상을 분석함으로써 사용자의 동영상에 대한 반응을 추정할 수 있다.The processor 130 may estimate the user's response to the video based on the physical phenomenon. That is, the processor 130 may estimate the user's response to the video by analyzing the physical phenomenon caused by the user's motion.

처리부(130)는 추정된 반응에 기반하여 동영상의 재생을 제어할 수 있다. 또한, 처리부(130)는 동영상의 재생에 관련된 제어를 수행할 수 있다. 예컨대, 처리부(130)는 동영상의 자막의 출력을 제어할 수 있다. 제어부(130)는 동영상에 적용되는 필터(filter)를 제어할 수 있으며, 동영상의 소리를 제어할 수 있다. 제어부(130)는 밝기(brightness) 및 대비(contrast) 등과 같은 동영상의 속성을 제어할 수 있다.The processor 130 may control the playback of the video based on the estimated response. In addition, the processor 130 may perform control related to playing the video. For example, the processor 130 may control the output of the caption of the video. The controller 130 may control a filter applied to the video and may control the sound of the video. The controller 130 may control properties of a video such as brightness and contrast.

처리부(130)는 적어도 하나의 프로세서(processor) 또는 프로세서 내의 적어도 하나의 코어(core)일 수 있다.The processor 130 may be at least one processor or at least one core in the processor.

네트워킹부(140)는 콘텐츠 서버로부터 동영상을 수신할 수 있다. 네트워킹부(140)는 전자 프로그램 가이드(Electronic Program Guide; EPG) 서버로부터 동영상의 EPG 정보를 수신할 수 있다. 네트워킹부(140)는 수신된 동영상 및 EPG 정보를 처리부(130)에게 제공할 수 있다.The networking unit 140 may receive a video from a content server. The networking unit 140 may receive EPG information of a video from an electronic program guide (EPG) server. The networking unit 140 may provide the processor 130 with the received video and EPG information.

네트워킹부(140)는 네트워트(network) 인터페이스(interface) 카드(card), 네트워크 인터페이스 칩(chip) 및 네트워킹 인테페이스 포트(port) 등와 같은 하드웨어(hardware) 모듈(module)일 수 있고, 네트워크 디바이스(device) 드라이버(driver) 또는 네트워킹 프로그램과 같은 소프트웨어(software) 모듈일 수 있다.The networking unit 140 may be a hardware module such as a network interface card, a network interface chip, a networking interface port, or the like, and may be a network device. May be a software module such as a driver or a networking program.

저장부(150)는 동영상 및 전자 장치(100)의 설정에 관련된 정보를 저장할 수 있다.The storage unit 150 may store video and information related to setting of the electronic device 100.

저장부(150)는 하드 디스크 드라이브(Hard Disk Drive; HDD), 솔리드 스테이트 드라이브(Solid State Drive; SSD), 램(Random Access Memory; RAM) 및 플래시(flash) 등과 같은 정보 저장을 위한 하드웨어 모듈일 수 있고, 데이터베이스(Database), 파일(file) 시스템 및 테이블(table) 등과 같은 정보 저장을 위한 소프트웨어 모듈일 수 있다.The storage unit 150 may be a hardware module for storing information such as a hard disk drive (HDD), a solid state drive (SSD), a random access memory (RAM), and a flash. It may be a software module for storing information such as a database, a file system and a table.

출력부(160)는 처리부(130)에 의해 재생되는 동영상을 출력할 수 있다.The output unit 160 may output a video reproduced by the processor 130.

출력부(160)는 동영상을 표시하는 디스플레이(display)일 수 있다. 출력부(160)는 모니터(monitor), 액정(Liquid Crystal Display; LCD), 발광 다이오드(Light Emitting Diode; LED) 및 유기 발광 다이오드(Organic Light Emitting Diode; OLED) 등일 수 있다. 출력부(160)는 동영상을 표시하기 위한 정보를 디스플레이(display)에게 제공할 수 있다. 출력부(160)는 에이치디엠아이(High Definition Multimedia Interface) 포트(port), 디스플레이(display) 포트, 디지털 비쥬얼 인터페이스(Digital Visual Interface; DVI) 포트 등 동영상을 표시하기 위한 정보를 출력하는 포트일 수 있다. 출력부(160)는 비디오 카드 등의 동영상을 표시하기 위한 정보를 출력하는 하드웨어 모듈일 수 있다.The output unit 160 may be a display displaying a video. The output unit 160 may be a monitor, a liquid crystal display (LCD), a light emitting diode (LED), an organic light emitting diode (OLED), or the like. The output unit 160 may provide the display with information for displaying a video. The output unit 160 may be a port for outputting information for displaying a video such as a high definition multimedia interface port, a display port, a digital visual interface (DVI) port, and the like. have. The output unit 160 may be a hardware module that outputs information for displaying a video such as a video card.

전술된 "물리적 상태"는 센싱부(110)에 의해 수집된 정보 또는 센싱부(110)의 센서에 의해 수집된 정보를 의미할 수 있다. 또한, "물리적 현상"은 센싱부(110)에 의해 수집된 정보의 변화 또는 센싱부(110)의 센서에 의해 수집된 정보 또는 상기의 정보의 변화를 의미할 수 있다.
The above-described "physical state" may refer to information collected by the sensing unit 110 or information collected by a sensor of the sensing unit 110. In addition, the "physical phenomenon" may mean a change of information collected by the sensing unit 110 or a change of information collected by the sensor of the sensing unit 110 or the above information.

도 2는 일 실시예에 따른 사용자의 반응에 기반하여 동영상의 재생을 제어하는 방법의 흐름도이다.2 is a flowchart of a method of controlling playback of a video based on a response of a user, according to an exemplary embodiment.

단계(210)에서, 처리부(130)는 재생할 동영상을 결정할 수 있다.In operation 210, the processor 130 may determine a video to play.

단계(210)는 단계(211) 및 단계(212) 중 하나 이상을 포함할 수 있다.Step 210 may include one or more of steps 211 and 212.

단계(211)에서, 네트워킹부(140)는 동영상 서버로부터 동영상을 수신할 수 있다. 예컨대 동영상이 방송 프로그램인 경우, 네트워킹부(140)는 동영상 서버 또는 EPG 서버로부터 동영상의 EPG 정보를 수신할 수 있다. EPG 정보는 동영상을 사용자의 동영상에 대한 반응에 기반하여 동영상의 재생을 제어하기 위한 정보를 포함할 수 있다.In operation 211, the networking unit 140 may receive a video from a video server. For example, when the video is a broadcast program, the networking unit 140 may receive EPG information of the video from the video server or the EPG server. The EPG information may include information for controlling the playback of the video based on the user's response to the video.

단계(212)에서, 저장부(150)는 저장된 동영상을 제공할 수 있다.In operation 212, the storage 150 may provide a stored video.

단계(220)에서, 처리부(130)는 사용자가 동영상을 시청할 수 있도록 동영상을 재생할 수 있다.In operation 220, the processor 130 may play the video so that the user can watch the video.

단계(220)에서, 처리부(130)는 재생되는 동영상이 사용자의 동영상에 대한 반응에 기반하여 제어될 수 있는 동영상인지 여부를 출력부(160)를 통해 출력할 수 있다. 또한, 처리부(130)는 입력부(120)를 통해 동영상에 대한 반응에 기반하여 동영상의 재생을 제어할 것인지 여부에 대한 사용자의 입력을 수신할 수 있다.In operation 220, the processor 130 may output through the output unit 160 whether the video being played is a video that can be controlled based on the user's response to the video. In addition, the processor 130 may receive a user input about whether to control the playback of the video based on the response to the video through the input unit 120.

단계(230)에서, 처리부(130)는 사용자의 동작에 기인하여 발생한 물리적 현상을 식별할 수 있다. 처리부(130)는 센싱부(110)가 감지한 물리적 상태에 기반하여 물리적 현상을 식별할 수 있다. 물리적 현상의 식별은, 센싱부(110)가 전자 장치(100) 주위의 물리적 상태를 감지함으로써 감지 정보를 생성하는 것을 의미할 수 있다.In operation 230, the processor 130 may identify a physical phenomenon caused by a user's motion. The processor 130 may identify a physical phenomenon based on the physical state detected by the sensing unit 110. The identification of the physical phenomenon may mean that the sensing unit 110 generates the sensing information by sensing a physical state around the electronic device 100.

단계(230)는 단계들(231 내지 233)을 포함할 수 있다.Step 230 may include steps 231 through 233.

단계(231)에서, 센싱부(110)는 전자 장치(100) 주위의 물리적 상태를 감지함으로써 제1 물리적 상태에 대한 정보를 생성할 수 있다. 제1 물리적 상태에 대한 정보는 제1 시각에서의 물리적 상태를 나타내는 정보일 수 있다.In operation 231, the sensing unit 110 may generate information about the first physical state by detecting a physical state around the electronic device 100. The information about the first physical state may be information indicating the physical state at the first time.

단계(232)에서, 센싱부(110)는, 제1 물리적 상태에 대한 정보를 감지한 후, 전자 장치(100) 주위의 물리적 상태를 감지함으로써 제2 물리적 상태에 대한 정보를 생성할 수 있다. 제2 물리적 상태에 대한 정보는 제2 시각에서의 물리적 상태를 나타내는 정보일 수 있다. 제2 시각은 제1 시각의 이후의 시각일 수 있다.In operation 232, the sensing unit 110 may detect information about the first physical state and then generate information about the second physical state by detecting a physical state around the electronic device 100. The information about the second physical state may be information indicating the physical state at the second time. The second time may be a time after the first time.

단계(233)에서, 처리부(130)는 제1 물리적 상태에 대한 정보 및 제2 물리적 상태에 대한 정보 간의 차이에 기반하여 물리적 현상을 식별할 수 있다. 처리부(130)는 제1 물리적 상태에 대한 정보 및 제2 물리적 상태를 비교함으로써 물리적 현상을 식별할 수 있다. 즉, 물리적 현상은 제1 물리적 상태 및 제2 물리적 상태 간의 물리적 변화일 수 있다.In operation 233, the processor 130 may identify a physical phenomenon based on a difference between the information about the first physical state and the information about the second physical state. The processor 130 may identify the physical phenomenon by comparing the information about the first physical state and the second physical state. In other words, the physical phenomenon may be a physical change between the first physical state and the second physical state.

처리부(130)는 제1 물리적 상태에 대한 정보, 제2 물리적 상태에 대한 정보 또는 물리적 변화에 대한 정보를 저장부(150) 내에 저장할 수 있다.The processor 130 may store the information about the first physical state, the information about the second physical state, or the information about the physical change in the storage 150.

단계(240)에서, 처리부(130)는 물리적 현상에 기반하여 사용자의 동영상에 대한 반응을 추정할 수 있다. 처리부(130)는 사용자의 동영상에 대한 반응을 추정함에 있어서 사용자 선호도(preference)를 참조할 수 있다. 예컨대, 사용자 선호도는 사용자의 동영상의 반응에 기반하여 동영상의 재생을 제어하지 않을 것을 나타낼 수 있다. 저장부(150)는 설정된 사용자 선호도 또는 사용자 선호도의 프리셋(preset)을 처리부(130)에게 제공할 수 있다. 사용자 선호도의 프리셋은 사용자 선호도가 설정되지 않았을 때 디폴트(default)로 사용되는 값을 의미할 수 있다.In operation 240, the processor 130 may estimate a user's response to the video based on the physical phenomenon. The processor 130 may refer to a user preference in estimating a user's response to the video. For example, the user preference may indicate that the playback of the video is not controlled based on the response of the video of the user. The storage unit 150 may provide the processor 130 with a preset user preference or a preset of the user preference. The preset of the user preference may mean a value used as a default when the user preference is not set.

단계(250)에서, 처리부(130)는 추정된 반응에 기반하여 동영상의 재생을 제어할 수 있다.
In operation 250, the processor 130 may control playback of the video based on the estimated response.

도 3은 일 실시예에 따른 센싱부의 구조도이다.3 is a structural diagram of a sensing unit according to an exemplary embodiment.

센싱부(110)는 적어도 하나의 센서(sensor)(310)를 포함할 수 있다. 예컨대, 적어도 하나의 센서(310)는 각각 카메라(camera)(311), 마이크로폰(microphone)(312), 근접 센서(313), 조도 센서(314), 중력 센서(315), 전역 위치 시스템(Global Position System; GPS) 센서(316), 자이로스코프(gyroscope)(317) 및 적외선 센서(318) 중 하나의 센서일 수 있다.The sensing unit 110 may include at least one sensor 310. For example, the at least one sensor 310 may be a camera 311, a microphone 312, a proximity sensor 313, an illuminance sensor 314, a gravity sensor 315, a global positioning system (Global). Position sensor (GPS) sensor 316, gyroscope 317, and infrared sensor 318.

센싱부(110)는 상기의 적어도 하나의 센서를 제어하는 센서 제어부(320)를 포함할 수 있다.
The sensing unit 110 may include a sensor controller 320 to control the at least one sensor.

하기에서, 각 센서가 감지할 수 있는 물리적 상태 및 상기의 물리적 상태에 기반하여 식별되는 물리적 현상을 설명한다.In the following, the physical state that each sensor can sense and the physical phenomenon identified based on the physical state will be described.

1) 카메라1) camera

카메라(311)는 영상을 촬영할 수 있다. 물리적 상태는 카메라(311)에 의해 촬영된 카메라 전방의 영상일 수 있다. 물리적 현상은 서로 상이한 시각에서 촬영된 영상들에서 나타나는 영상의 변화일 수 있다.The camera 311 may capture an image. The physical state may be an image in front of the camera photographed by the camera 311. The physical phenomenon may be a change of an image appearing in images photographed at different times.

일반적으로, 사용자는 카메라(311)의 전방에 위치한다. 따라서, 영상 또는 영상의 일부는 사용자의 얼굴을 나타낼 수 있다. 처리부(130)는 촬영된 영상 내에서 사용자의 얼굴을 인식할 수 있다. 물리적 상태는 인식된 사용자의 얼굴일 수 있다. 물리적 현상은 사용자의 얼굴의 변화 또는 사용자의 표정의 변화일 수 있다.In general, the user is located in front of the camera 311. Thus, the image or part of the image may represent a face of the user. The processor 130 may recognize the face of the user in the captured image. The physical state may be a recognized user's face. The physical phenomenon may be a change in the face of the user or a change in the facial expression of the user.

2) 마이크로폰2) microphone

마이크로폰(312)은 소리를 인식할 수 있다. 물리적 상태는 마이크로폰(312)에 의해 인식된 소리 또는 소리의 크기일 수 있다. 물리적 현상은 서로 상이한 시각에서 인식된 소리들에서 나타나는 소리의 변화 또는 소리의 크기의 변화일 수 있다.The microphone 312 may recognize a sound. The physical state may be the sound or loudness perceived by the microphone 312. The physical phenomenon may be a change in the sound or a change in the size of the sound that appears in sounds recognized at different times.

일반적으로, 사용자는 마이크로폰(312)의 주위에 있다. 따라서, 감지된 소리는 사용자의 음성 또는 사용자의 박수를 나타낼 수 있다. 처리부(130)는 감지된 소리 내에서 사용자의 음성 또는 사용자의 박수를 인식할 수 있다. 물리적 상태는 인식된 사용자의 음성, 사용자의 음성이 인식되었는지 여부 또는 사용자의 박수일 수 있다. 물리적 현상은 서로 상이한 시각에시 인식된 사용자의 음성들에서 나타나는 사용자의 음성의 변화, 사용자의 음성이 인식되었는지 여부의 변화 또는 사용자의 음성의 크기의 변화일 수 있다. 물리적 현상은 사용자가 박수를 치는지 여부의 변화 또는 사용자의 박수의 크기의 변화일 수 있다. 상기의 설명에서, "박수"는 "웃음 소리"로 대체될 수 있다.In general, the user is around microphone 312. Thus, the sensed sound may indicate the user's voice or the user's applause. The processor 130 may recognize the user's voice or the user's applause within the detected sound. The physical state may be a recognized user's voice, whether the user's voice has been recognized or the user's applause. The physical phenomenon may be a change in the user's voice, a change in whether the user's voice is recognized, or a change in the user's voice in the voices of the user recognized at different times. The physical phenomenon may be a change in whether the user claps or a change in the size of the user's clap. In the above description, "applause" may be replaced with "laugh sound".

3) 근접 센서3) proximity sensor

근접 센서(313)는 근접 센서(313)에 근접한 객체(object)를 감지할 수 있다. 근접이란 객체가 근접 센서(313)가 감지할 수 있는 일정한 범위 내에 존재하는 상태를 의미할 수 있다. 물리적 상태는 1) 근접 센서(313)에 근접한 객체가 있는지 여부 또는 2) 객체 및 근접 센서(313)간의 거리일 수 있다. 물리적 현상은 1) 근접 센서(313)에 근접한 객체가 있는지 여부의 변화 또는 2) 객체 및 근접 센서(313) 간의 거리의 변화일 수 있다.The proximity sensor 313 may detect an object in proximity to the proximity sensor 313. Proximity may refer to a state in which an object exists within a certain range that the proximity sensor 313 can detect. The physical state may be 1) whether there is an object in proximity to the proximity sensor 313 or 2) the distance between the object and the proximity sensor 313. The physical phenomenon may be 1) a change in whether there is an object in proximity to the proximity sensor 313 or 2) a change in distance between the object and the proximity sensor 313.

4) 조도 센서4) Ambient light sensor

조도 센서(314)는 조도 센서(314)로 비추어지는 빛의 밝기(즉, 조도)를 감지할 수 있다. 물리적 상태는 인식된 빛의 밝기일 수 있다. 물리적 현상은 서로 상이한 시각에서 인식된 빛의 밝기들에서 나타나는 빛의 밝기의 변화일 수 있다.The illuminance sensor 314 may sense the brightness (ie, illuminance) of the light emitted by the illuminance sensor 314. The physical state may be the brightness of the perceived light. The physical phenomenon may be a change in the brightness of light that appears in the brightnesses of light perceived at different times.

5) 중력 센서5) gravity sensor

중력 센서(315)는 중력이 중력 센서(315)에게 가해지는 방향을 감지할 수 있다. 물리적 상태는 중력이 가해지는 방향일 수 있다. 물리적 현상은 중력이 가해지는 방향의 변화일 수 있다.The gravity sensor 315 may detect a direction in which gravity is applied to the gravity sensor 315. The physical state may be the direction in which gravity is applied. The physical phenomenon may be a change in the direction in which gravity is applied.

6) GPS 센서6) GPS sensor

GPS 센서(316)는 GPS 센서(316)의 위치를 감지할 수 있다. 물리적 상태는 GPS 센서(316)의 위치일 수 있다. 물리적 현상은 GPS 센서(316)의 위치의 변화일 수 있다.The GPS sensor 316 may detect the position of the GPS sensor 316. The physical state may be the location of the GPS sensor 316. The physical phenomenon may be a change in the position of the GPS sensor 316.

사용자는 GPS 센서(316)를 가지고 있을 수 있다. 또는, GPS 센서(316)는 사용자에게 부착될 수 있다. 따라서, GPS 센서가 감지하는 위치는 사용자의 위치일 수 있다. 물리적 상태는 사용자의 위치일 수 있다. 물리적 현상은 사용자의 위치의 변화일 수 있다.The user may have a GPS sensor 316. Alternatively, the GPS sensor 316 may be attached to the user. Thus, the position detected by the GPS sensor may be the position of the user. The physical state may be the location of the user. The physical phenomenon may be a change in the location of the user.

7) 자이로스코프7) Gyroscope

자이로스코프(317)는 자이로크코프 센서(317)의 3차원 운동을 감지할 수 있다. 여기서, 3차원 운동은 이동, 이동 방향, 이동 속도 및 이동 가속도를 포함할 수 있다. 물리적 상태는 자이로스코프(317)의 3차원 운동일 수 있다. 물리적 현상은 자이로스코프(317)의 3차원 운동의 변화일 수 있다.The gyroscope 317 may detect the three-dimensional motion of the gyroscope sensor 317. Here, the 3D motion may include a movement, a moving direction, a moving speed, and a moving acceleration. The physical state may be a three-dimensional movement of the gyroscope 317. The physical phenomenon may be a change in the three-dimensional motion of the gyroscope 317.

시청자는 자이로스코프(317) 또는 자이로스코프(317)를 구비하는 장치를 조작할 수 있다. 자이로스코프(317)의 3차원 운동은 상기의 조작에 의해 발생할 수 있다. 따라서, 물리적 상태는 사용자의 움직임 또는 사용자의 제스처(gesture)일 수 있다. 물리적 현상은 사용자의 움직임의 변화 또는 사용자의 제스처의 변화일 수 있다.The viewer can operate a gyroscope 317 or a device having a gyroscope 317. The three-dimensional motion of the gyroscope 317 may occur by the above manipulation. Thus, the physical state may be a user's movement or a user's gesture. The physical phenomenon may be a change in the user's movement or a change in the user's gesture.

8) 적외선 센서8) infrared sensor

적외선 센서(318)는 발광부 및 수광부를 포함할 수 있다. 발광부는 적외선을 출력할 수 있고, 수광부는 출력된 적외선을 수신할 수 있다. 발광부 및 수광부 사이에 물체가 존재하면 적외선은 물체에 의해 차단되고, 수광부는 적외선을 수신할 수 없다.The infrared sensor 318 may include a light emitting unit and a light receiving unit. The light emitting unit may output infrared rays, and the light receiving unit may receive the output infrared rays. If an object exists between the light emitting unit and the light receiving unit, infrared light is blocked by the object, and the light receiving unit cannot receive the infrared light.

물리적 상태는 수광부가 적외선을 수신하는지 여부일 수 있다. 물리적 현상은 수광부가 적외선을 수신하는지 여부의 변화일 수 있다.The physical state may be whether the light receiver receives infrared rays. The physical phenomenon may be a change in whether the light receiver receives infrared rays.

물리적 현상은 물리적 현상이 나타내는 물리적 상태의 증가 및 물리적 상태의 감소를 나타낼 수 있다. 예컨대, "소리의 크기의 변화"는 소리의 크기의 증가 및 소리의 크기의 감소를 나타낼 수 있다. 또한, 물리적 현상은 물리적 현상이 나타내는 물리적 상태의 유무를 나타낼 수 있다. 예컨대, "사용자의 음성이 인식되었는지 여부의 변화"는 사용자의 음성이 인식되었다는 것과 사용자의 음성이 인식되지 않았다는 것을 의미할 수 있다.
Physical phenomena may represent an increase in the physical state represented by the physical phenomenon and a decrease in the physical state. For example, "change in loudness" may indicate an increase in loudness and a decrease in loudness. In addition, the physical phenomenon may indicate the presence or absence of a physical state represented by the physical phenomenon. For example, “change of whether or not the user's voice has been recognized” may mean that the user's voice has been recognized and that the user's voice has not been recognized.

전술된 물리적 현상은 3 개의 카테고리(category)로 분류될 수 있다. 물리적 현상은 사용자의 신체 상의 변화, 사용자의 시청 환경 상의 변화 및 사용자의 동작에 의해 발생한 물리적인 변화 중 하나 이상을 포함할 수 있다.The above-mentioned physical phenomena can be classified into three categories. The physical phenomenon may include one or more of a change in the user's body, a change in the viewing environment of the user, and a physical change caused by the user's motion.

사용자의 신체 상의 변화로서, 1) 사용자의 얼굴의 변화, 2) 사용자의 표정의 변화 등이 해당될 수 있다.As a change in the user's body, it may correspond to 1) a change in the face of the user, 2) a change in the facial expression of the user, and the like.

사용자의 시청 환경 상의 변화로서, 1) 근접 센서에 근접한 객체가 있는지 여부의 변화, 2) 객체 및 근접 센서 간의 거리의 변화, 빛의 밝기의 변화 및 3) 적외선 센서의 수광부가 적외선을 수신하는지 여부의 변화 등이 해당될 수 있다.As a change in the viewing environment of a user, 1) whether there is an object in proximity to a proximity sensor, 2) a change in distance between an object and a proximity sensor, a change in brightness of light, and 3) whether the light receiving unit of the infrared sensor receives infrared rays. The change may correspond to.

사용자의 동작에 의해 발생한 물리적인 현상으로서, 1) 영상의 변화, 2) 소리의 변화, 3) 소리의 크기의 변화, 4) 사용자의 음성의 변화, 5) 사용자의 음성이 인식되었는지 여부의 변화, 6) 사용자의 음성의 크기의 변화, 7) 중력이 가해지는 방향의 변화, 8) GPS 센서의 위치의 변화, 9) 사용자의 위치의 변화, 10) 3차원 운동의 변화, 11) 사용자의 움직임의 변화 및 12) 사용자의 제스처의 변화 등이 해당될 수 있다.
Physical phenomena caused by the user's motion, including 1) changes in image, 2) changes in sound, 3) changes in sound volume, 4) changes in user's voice, and 5) changes in whether the user's voice is recognized. , 6) change in the size of the user's voice, 7) change in the direction in which gravity is applied, 8) change in the position of the GPS sensor, 9) change in the user's position, 10) change in the three-dimensional motion, 11) A change in movement and 12) a change in a user's gesture may correspond.

도 4는 일 예에 따른 물리적 현상, 추정된 반응 및 동영상의 제어 간의 관계를 나타낸다.4 illustrates a relationship between a physical phenomenon, an estimated response, and control of a video according to an example.

도 4에서, 처리부(130)가 식별한 물리적 현상, 처리부(130)가 물리적 현상에 기반하여 추정한 사용자의 동영상에 대한 반응 및 추정된 반응에 따라 처리부(130)가 수행하는 동영상의 재생에 대한 제어의 관계의 일 예가 설명되었다.In FIG. 4, the physical phenomenon identified by the processor 130, the response of the user's video estimated by the processor 130 based on the physical phenomenon, and the playback of the video performed by the processor 130 according to the estimated response are described. An example of the relationship of control has been described.

도 4에서 도시된 관계는 예시적인 것이다. 도 4에서 도시된 임의의 물리적 현상 항목은 임의의 추정된 반응 항목과 연결될 수 있으며, 임의의 추정된 반응 항목은 임의의 재생 제어 항목과 연결될 수 있다.The relationship shown in FIG. 4 is exemplary. Any physical phenomenon item shown in FIG. 4 may be associated with any estimated response item, and any estimated response item may be associated with any reproduction control item.

도 4에서 도시된 것과 같이, 추정된 반응은 사용자가 동영상을 시청하는지 여부, 사용자가 동영상의 시청에 집중하는지 여부, 동영상의 시청하는 시청자의 변화(증가 또는 감소), 시청 환경의 밝기의 변화(증가 또는 감소) 및 사용자의 위치의 변화 등을 포함할 수 있다.
As shown in FIG. 4, the estimated response is whether the user is watching the video, whether the user is focused on watching the video, the change (increase or decrease) of the viewing viewer of the video, the change in brightness of the viewing environment ( Increase or decrease) and a change in the location of the user.

하기에서, 물리적 현상 및 추정된 반응과의 연관 관계의 일 예를 설명한다.In the following, an example of the association between the physical phenomenon and the estimated reaction is described.

처리부(130)는 촬영된 영상의 변화를 식별함으로써 사용자가 동영상을 시청하지 않는다는 반응 또는 사용자가 동영상을 시청한다는 반응을 추정할 수 있다. 예컨대, 처리부(130)가 영상 내에서 사용자가 사라지는 것을 식별한 경우, 처리부(130)는 사용자가 동영상을 시청하지 않는다는 반응을 추정할 수 있다. 처리부(130)가 영상 내에서 사용자가 나타나는 것을 식별한 경우, 처리부(130)는 사용자가 동영상을 시청한다는 반응을 추정할 수 있다. 또한, 처리부(130)는 영상의 변화를 식별하면 영상의 변화의 구체적인 내용에 따라, 사용자가 동영상의 시청에 집중한다는 반응, 사용자가 동영상의 시청에 집중하지 않는다는 반응, 동영상을 시청하는 시청자가 증가하였다는 반응 및 동영상을 시청하는 사용자가 감소하였다는 반응 등을 추정할 수 있다.The processor 130 may estimate the response that the user does not watch the video or the response that the user watches the video by identifying the change of the captured image. For example, when the processor 130 identifies that the user disappears in the image, the processor 130 may estimate a response that the user does not watch the video. When the processor 130 identifies that the user appears in the image, the processor 130 may estimate a response that the user views the video. In addition, when the processor 130 identifies the change in the image, the response that the user concentrates on watching the video, the response that the user does not pay attention to the video, and the number of viewers who watch the video increases according to the specific content of the change in the image. Response, and a decrease in the number of users who watch the video can be estimated.

처리부(130)는 물리적 현상으로서, 사용자의 얼굴의 변화 또는 사용자의 표정의 변화를 식별하면, 상기의 얼굴의 변화 또는 표정의 변화의 구체적인 내용에 따라 사용자가 동영상의 시청에 집중한다는 반응 또는 사용자가 동영상의 시청에 집중하지 않는다는 반응을 추정할 수 있다.When the processor 130 identifies a change in the user's face or a change in the user's facial expression as a physical phenomenon, the response that the user concentrates on the viewing of the video or the user according to the specific content of the change in the face or the facial expression is changed. You can assume that you don't focus on watching the video.

처리부(130)는 물리적 현상으로서, 소리의 변화 또는 사용자의 음성의 변화를 식별하면 상기의 변화들 각각의 구체적인 내용에 따라 사용자가 동영상의 시청에 집중한다는 반응 또는 사용자가 동영상의 시청에 집중하지 않는다는 반응을 추정할 수 있다.When the processor 130 identifies a change in sound or a change in the voice of the user as a physical phenomenon, the response that the user concentrates on the viewing of the video or the user does not focus on the viewing of the video according to the specific contents of each of the above changes. The response can be estimated.

처리부(130)는 소리의 크기의 감소, 사용자의 음성의 크기의 감소 또는 사용자의 박수의 크기의 증가와 같은 물리적 현상을 식별하면 사용자가 동영상의 시청에 집중한다는 반응을 추정할 수 있으며, 소리의 크기의 증가, 사용자의 음성의 크기의 증가 또는 사용자의 박수의 크기의 감소와 같은 물리적 현상을 식별하면 사용자가 동영상의 시청에 집중하지 않는다는 반응을 추정할 수 있다.When the processor 130 identifies a physical phenomenon such as a decrease in the volume of the sound, a decrease in the volume of the user's voice, or an increase in the size of the user's applause, the processor 130 may estimate the response that the user concentrates on the viewing of the video. Identifying physical phenomena such as an increase in size, an increase in the size of the user's voice, or a decrease in the size of the user's applause can estimate the response that the user is not focused on viewing the video.

처리부(130)는 음성이 인식되지 않는다는 것 또는 사용자가 박수를 친다는 것이 식별되면, 사용자가 동영상의 시청에 집중한다는 반응을 추정할 수 있다. 처리부(130)는 사용자의 음성이 인식된다는 것 또는 사용자가 박수를 치지 않는다는 것이 식별되면, 사용자가 동영상의 시청에 집중한다는 반응을 추정할 수 있다.If it is identified that the voice is not recognized or that the user claps, the processor 130 may estimate a response that the user concentrates on watching the video. When it is identified that the user's voice is recognized or that the user does not clap, the processor 130 may estimate a response that the user concentrates on watching the video.

처리부(130)는 물리적 현상이 근접 센서(315)에 근접한 객체가 있는 것을 나타내거나 객체 및 근접 센서(315) 간의 거리가 더 가까워졌다는 것을 나타낼 때, 사용자가 동영상을 시청한다는 반응 또는 동영상을 시청하는 시청자가 증가하였다는 반응을 추정할 수 있다. 또한, 처리부(130)는 물리적 현상이 근접 센서(315)에 근접한 객체가 없는 것을 나타내거나 객체 및 근접 센서(315) 간의 거리가 더 멀어졌다는 것을 나타낼 때 또는 사용자가 동영상을 시청하지 않는다는 반응 또는 동영상을 시청하는 시청자가 감소하였다는 반응을 추정할 수 있다.When the physical phenomenon indicates that there is an object that is close to the proximity sensor 315 or that the distance between the object and the proximity sensor 315 is closer, the processor 130 may view a response or watch that the user watches the video. It can be estimated that the viewer has increased. In addition, the processor 130 may indicate that there is no object close to the proximity sensor 315 or that the distance between the object and the proximity sensor 315 is greater or that the user does not watch the video. It can be estimated that the viewer watching the video has decreased.

처리부(130)는 빛의 밝기의 증가와 같은 물리적 현상을 식별하면 시청 환경의 밝기가 증가하였다는 반응을 추정할 수 있으며, 빛의 밝기의 감소와 같은 물리적 현상을 식별하면 시청 환경의 밝기가 감소하였다는 반응을 추정할 수 있다.When the processor 130 identifies a physical phenomenon such as an increase in the brightness of the light, the processor 130 may estimate a response that the brightness of the viewing environment is increased. When the processor 130 identifies a physical phenomenon such as a decrease in the brightness of the light, the brightness of the viewing environment is reduced. The response can be estimated.

처리부(130)는 중력이 가해지는 방향의 변화, GPS 센서(316)의 위치의 변화 및 사용자의 위치의 변화 같은 물리적 현상을 식별하면 사용자의 위치가 변화하였다는 반응을 추정할 수 있다.When the processor 130 identifies physical phenomena such as a change in the direction in which gravity is applied, a change in the position of the GPS sensor 316, and a change in the position of the user, the processor 130 may estimate a response that the position of the user has changed.

처리부(130)는 자이로스코프(317)의 3차원 운동의 변화, 사용자의 움직임의 변화 또는 사용자의 제스처의 변화와 같은 물리적 현상을 식별하면 상기의 변화들 각각의 구체적인 내용에 따라 사용자가 동영상의 시청에 집중한다는 반응 또는 사용자가 동영상의 시청에 집중하지 않는다는 반응을 추정할 수 있다.When the processor 130 identifies a physical phenomenon such as a change in the three-dimensional motion of the gyroscope 317, a change in the movement of the user, or a change in the gesture of the user, the processor 130 may view the video according to the specific contents of each of the above changes. May be inferred that the user is not focused on watching the video.

처리부(130)는 적외선 센서(318)의 수광부가 적외선을 수신한다는 물리적 현상을 식별하면, 사용자가 동영상을 시청하지 않는다는 반응을 추정할 수 있고, 수광부가 적외선을 수신하지 않는다는 물리적 현상을 식별하면, 사용자가 동영상을 시청한다는 반응을 추정할 수 있다.
When the processor 130 identifies the physical phenomenon that the light receiver of the infrared sensor 318 receives infrared rays, the processor 130 may estimate a reaction that the user does not watch the video. It can be estimated that the user is watching the video.

하기에서, 물리적 추정된 반응 및 동영상의 제어 간의 연관 관계의 일 예를 설명한다.In the following, an example of the association between the physical estimated response and the control of the moving picture is described.

하기에서 설명될 동영상의 제어는 제어부(130)에 의해 수행될 수 있다.Control of the video to be described below may be performed by the controller 130.

동영상의 제어는, 1) 동영상의 재생의 중단 또는 재개, 2) 동영상의 재생의 속도를 조절(증가 또는 감소), 2) 동영상 중 특정한 부분의 재생 시간의 조절(증가 또는 감소) 및 3) 동영상의 밝기의 조절(증가 또는 감소) 등을 포함할 수 있다.The control of the video includes: 1) stopping or resuming playback of the video, 2) adjusting (increasing or decreasing) the playback speed of the video, 2) adjusting (increasing or decreasing) the playing time of a specific portion of the video, and 3) May include adjusting (increasing or decreasing) the brightness of the light.

즉, 제어부(130)는 센싱부(110)가 감지한 정보를 이용함으로써 전자 장치(100)의 재생 속도 조절, 화면 밝기 조절, 화면 대비 조절 및 음량 조절 등을 통해 시청자의 만족도를 향상시킬 수 있다. 음량 조절에 있어서, 제어부(130)는 전체 볼륨(volume)의 조절 외에도, 배경 음악(BackGround Music; BGM)의 음량 조절, 효과음(effect)의 음량 조절, 대사의 음량 조절 및 나레이션(narration)의 음량 조절 등 소리 요소들 각각의 개별적인 볼륨을 조절할 수 있다.That is, the controller 130 may improve the viewer's satisfaction by adjusting the playback speed, screen brightness, screen contrast, and volume of the electronic device 100 by using the information detected by the sensing unit 110. . In the volume control, in addition to adjusting the overall volume, the controller 130 adjusts the volume of the background music (BackGround Music; BGM), adjusts the volume of the effect, adjusts the volume of the dialogue, and adjusts the volume of the narration. You can adjust the volume of each of the sound elements individually.

단계(250)에서의 동영상의 제어는, 추정된 반응이 사용자가 동영상을 시청하지 않는 것을 나타낼 때 동영상의 재생을 중단시키는 것일 수 있다. 즉, 제어부(130)는 추정된 반응이 사용자가 동영상을 시청하지 않는다는 것을 나타낼때, 동영상의 재생을 중단하는 제어를 수행할 수 있다. 또한, 동영상의 제어는 추정된 반응이 사용자가 동영상을 시청하는 것을 나타낼 때 동영상의 재생을 재개하는 것일 수 있다. 즉, 제어부(130)는 사용자가 동영상을 시청한다는 반응이 추정될 때, 동영상의 재생을 재개하는 제어를 수행할 수 있다.The control of the video at step 250 may be to stop playback of the video when the estimated response indicates that the user is not watching the video. That is, when the estimated response indicates that the user does not watch the video, the controller 130 may perform a control to stop playback of the video. The control of the video may also be to resume playback of the video when the estimated response indicates that the user is watching the video. That is, the controller 130 may perform control to resume playback of the video when it is estimated that the user views the video.

제어부(130)는 추정된 반응이 사용자가 동영상의 시청에 집중한다는 것을 나타내거나, 동영상을 시청하는 시청자가 증가하였다는 것을 나타낼 때, 동영상의 재생 속도를 감소시키는 제어를 수행하거나 재생되는 동영상 중 사용자가 집중한 부분에 관련된 부분의 재생 시간을 증가시키는 제어를 수행할 수 있다. 제어부(130)는 추정된 반응이 사용자가 동영상의 시청에 집중하지 않는다는 것을 나타내거나, 동영상을 시청하는 시청자가 감소하였다는 것을 나타낼 때, 동영상의 재생 속도를 증가시키는 제어를 수행하거나 재생되는 동영상 중 사용자가 집중하지 않은 부분에 관련된 부분의 재생 시간을 감소시키는 제어를 수행할 수 있다.When the estimated response indicates that the user concentrates on watching the video or that the viewer watching the video has increased, the controller 130 performs a control to reduce the playback speed of the video or the user among the videos being played. Control to increase the reproduction time of the part related to the focused portion can be performed. When the estimated response indicates that the user does not concentrate on watching the video or indicates that the viewer watching the video has decreased, the controller 130 performs a control to increase the playback speed of the video, Control to reduce the reproduction time of the portion related to the portion not concentrated by the user can be performed.

제어부(130)는 추정된 반응이 시청 환경의 밝기가 증가하였다는 것을 나타낼 때, 동영상의 밝기를 증가시키는 제어를 수행할 수 있다. 제어부(130)는 추정된 반응이 추정된 반응이 시청 환경의 밝기가 감소하였다는 것을 나타낼 때, 동영상의 밝기를 감소시키는 제어를 수행할 수 있다.The controller 130 may perform a control to increase the brightness of the video when the estimated response indicates that the brightness of the viewing environment is increased. The controller 130 may perform a control to decrease the brightness of the video when the estimated response indicates that the brightness of the viewing environment is reduced.

제어부(130)는 추정된 반응이 사용자의 위치가 변화하였다는 것을 나타낼 때, 동영상의 재생을 중단시키는 제어를 수행할 수 있고, 중단 외에도 사용자의 위치의 변화에 대응하는 제어를 수행할 수 있다.
When the estimated response indicates that the user's position has changed, the controller 130 may perform a control for stopping the playback of the video and may perform a control corresponding to the change of the user's position in addition to the interruption.

도 5는 일 예에 따른 물리적 현상을 식별하는 방법을 설명하는 흐름도이다.5 is a flowchart illustrating a method of identifying a physical phenomenon according to an example.

전술된 제1 물리적 상태에 대한 정보, 제2 물리적 상태에 대한 정보 및 물리적 현상에 대한 정보는, 외부의 서버에 의해 분석될 수 있다. 이하, 제1 물리적 상태에 대한 정보, 제2 물리적 상태에 대한 정보 및 물리적 현상에 대한 정보 중 하나 이상의 정보를 분석 요청 정보로 명명한다.The above-described information about the first physical state, the information about the second physical state, and the information about the physical phenomenon may be analyzed by an external server. Hereinafter, one or more pieces of information on the first physical state, the information on the second physical state, and the information on the physical phenomenon are referred to as analysis request information.

도 2를 참조하여 전술된 단계(230) 또는 단계(233)는 하기의 단계들(510 내지 530)을 포함할 수 있다.Step 230 or step 233 described above with reference to FIG. 2 may include the following steps 510 to 530.

단계(510)에서, 처리부(130)는 네트워킹부(140)를 통해 분석 요청 정보를 외부 서버(500)로 전송할 수 있다. 여기서, 분석 요청 정보의 전송을 위해 외부 서버(500)가 제공하는 서비스 API가 사용될 수 있다.In operation 510, the processor 130 may transmit the analysis request information to the external server 500 through the networking unit 140. Here, a service API provided by the external server 500 may be used to transmit the analysis request information.

단계(520)에서, 분석 서버(500)는 분석 요청 정보를 분석함으로써 사용자의 반응을 추정하기 위해 사용되는 반응 추정 정보를 생성할 수 있다.In operation 520, the analysis server 500 may generate response estimation information used to estimate a user's response by analyzing the analysis request information.

예컨대, 분석 요청 정보가 시청자가 촬영된 영상일 때, 분석 서버(500)는 시청자가 촬영된 영상을 분석함으로써 시청자가 영상에 집중한다는 것을 나타내는 정보 또는 시청자가 영상에 집중하지 않는다는 것을 나타내는 정보를 반응 추정 정보로서 생성할 수 있다. 분석 서버(500)는 시청자가 촬영된 영상 내에서 시청자의 얼굴 또는 표정을 추출할 수 있으며, 추출된 얼굴 또는 표정이 시청자가 영상에 집중한다는 것을 나타낸다고 판정할 수 있다.For example, when the analysis request information is an image captured by the viewer, the analysis server 500 responds to the information indicating that the viewer concentrates on the image by analyzing the captured image or information indicating that the viewer does not focus on the image. It can generate as estimation information. The analysis server 500 may extract the viewer's face or expression in the captured image, and may determine that the extracted face or expression indicates that the viewer concentrates on the image.

또한, 분석 요청 정보가 촬영된 영상일 때, 분석 서버(500)는 촬영된 영상 내에 시청자가 있는지 여부를 판정함으로써, 사용자가 동영상을 시청한다는 것을 나타내는 정보 또는 사용자가 동영상을 시청하지 않는다는 것을 나타내는 정보를 반응 추정 정보로서 생성할 수 있다.In addition, when the analysis request information is a captured image, the analysis server 500 determines whether there is a viewer in the captured image, thereby indicating that the user is watching the video or information indicating that the user is not watching the video. Can be generated as the response estimation information.

또한, 분석 요청 정보가 촬영된 영상일 때, 분석 서버(500)는 촬영된 영상 내의 시청자들의 수를 나타내는 정보를 반응 추정 정보로서 생성할 수 있다. 처리부(130)는 촬영된 영상 내의 시청자들의 수를 나타내는 정보를 사용하여 동영상을 시청하는 시청자의 수가 증가 또는 감소하였는지를 추정할 수 있다.In addition, when the analysis request information is a captured image, the analysis server 500 may generate information indicating the number of viewers in the captured image as response estimation information. The processor 130 may estimate whether the number of viewers watching the video is increased or decreased by using information representing the number of viewers in the captured image.

예컨대, 분석 요청 정보가 서로 상이한 시점들에서의 빛의 밝기일 때, 분석 서버(500)는 양 밝기들을 비교함으로써 시청 환경의 밝기가 증가하였음을 나타내는 정보 또는 시청 환경의 밝기가 감소하였음을 나타내는 정보를 반응 추정 정보로서 생성할 수 있다.For example, when the analysis request information is the brightness of the light at different points in time, the analysis server 500 compares both brightnesses to indicate that the brightness of the viewing environment is increased or that the brightness of the viewing environment is decreased. Can be generated as the response estimation information.

단계(530)에서, 분석 서버(500)는 생성된 반응 추정 정보를 네트워킹부(140)를 통해 처리부(130)로 전송할 수 있다. 여기서, 분석 요청 정보를 전송하기 위해 사용된 서비스 API의 리턴(return) 값을 반환하는 방식이 반응 추정 정보를 전송하기 위해 사용될 수 있다. In operation 530, the analysis server 500 may transmit the generated response estimation information to the processor 130 through the networking unit 140. Here, a method of returning a return value of the service API used to transmit the analysis request information may be used to transmit the response estimation information.

상술된 외부 서버(500)가 반응 추정 정보를 생성하는 기능 또는 원리는 처리부(130) 또한 사용할 수 있다.
The function or principle of generating the response estimation information by the external server 500 described above may also be used by the processor 130.

도 1 내지 도 5를 참조하여 설명된 본 발명의 실시예에서, 처리부(130)는 사용자의 반응에 기반하여 동영상의 재생 속도 등을 제어한다. 동영상이 단일한 내용만을 가지고 있는 경우, 사용자의 반응에 기반하여 단일한 내용의 재생 속도가 변할 수 있다.In the embodiment of the present invention described with reference to FIGS. 1 to 5, the processor 130 controls a playback speed of a video or the like based on the user's response. If the video has only a single content, the playback speed of the single content may change based on the user's response.

동영상이 복수 개의 내용들을 가지고 있는 경우, 사용자의 반응에 기반하여 복수 개의 내용들 중 어떤 내용이 재생될 지가 변할 수 있다. 예컨대, 처리부(130)는 동영상의 내용 상의 전체적인 스토리(story) 라인(line)은 크게 변화를 주지 않은 채, 사용자가 집중하는 것으로 추정되는 씬(scene)에는 부가적인 내용(예컨대, 프레임(frame) 들을 추가할 수 있으며, 사용자가 집중하지 않는 것으로 추정되는 씬에서는 일부 내용을 건너뛰기(skip)할 수 있다.When the video has a plurality of contents, which of the plurality of contents may be played based on the user's response may change. For example, the processor 130 may add additional content (eg, a frame) to a scene estimated to be concentrated by the user without significantly changing the overall story line on the content of the video. Can be added, and some content can be skipped in a scene where the user is assumed not to concentrate.

동영상의 제작 또는 편집 단계를 통해, 동영상은 하나 이상의 편집 본들을 포함할 수 있다. 하나 이상의 편집 본들 중 기본 편집 본 이외의 편집 본들은 추가적인 내용을 제공할 수 있다. 처리부(130)는 사용자의 반응에 따라 하나 이상의 편집 본들 중 특정한 편집 본을 선택하여 재생함으로써 특정한 씬에 프레임이 추가 또는 건너뛰기 되는 효과를 가할 수 있다. 이러한 효과에 의해 사용자의 만족이 극대화될 수 있다.Through the production or editing of the video, the video may include one or more edited copies. Of the one or more edited editions other than the basic edited edition may provide additional content. The processor 130 may add or skip a frame to a specific scene by selecting and playing a particular edited copy among the one or more edited copies according to the user's response. By this effect, user satisfaction can be maximized.

동영상이 복수 개의 내용들을 갖기 위해, 동영상은 복수 개의 카테고리들로 분류될 수 있다. 여기서, 복수 개의 카테고리들은 동영상 내의 특정한 씬(scene) 또는 출연자(character)를 기준으로 결정될 수 있다. 예컨대, 복수 개의 카테고리들은 각각 동영상 내에서 특정한 출연자가 메인(main)으로 출연하는 장면을 나타낼 수 있다. 복수 개의 카테고리들은 각각 동영상 내의 내용적으로 구분되는 일부를 나타낼 수 있다. 여기서, 내용적으로 구분되는 일부란, 동영상의 내용 중 특정한 에피소드(episode) 또는 코너(corner)를 나타낼 수 있다.In order for a video to have a plurality of contents, the video may be classified into a plurality of categories. Here, the plurality of categories may be determined based on a specific scene or performer in the video. For example, the plurality of categories may each represent a scene in which a specific performer appears as a main in the video. Each of the plurality of categories may represent a part that is divided into contents in the video. Here, a part divided into contents may indicate a specific episode or a corner of the contents of the video.

제어부(130)는 하나 이상의 편집 본들 중 재생할 편집 본을 선택함으로써 동영상의 재생 시간을 증가시키는 제어 및 동영상이 재생 시간을 감소시키는 제어를 수행할 수 있다. 제어부(130)는 편집 본의 선택을 복수 개의 카테고리 중 사용자 집중한 부분 또는 집중하지 않은 부분이 속하는 카테고리에 대해 적용할 수 있다.The controller 130 may control to increase the playback time of the video and control to reduce the playback time by selecting an edited copy to be played among one or more edited copies. The controller 130 may apply the selection of the edited text to a category to which the user focused portion or the non-focused portion belongs among the plurality of categories.

제어부(130)가 전술된 제어를 수행하기 위해, 복수 개의 카테고리들 및 하나 이상의 촬영 본들에 대한 정보가 제어부(130)에게 제공될 필요가 있다. 예컨대, 복수 개의 카테고리들 및 하나 이상의 촬영 본들에 대한 정보는 단계(210)에서, 동영상 서버 또는 방송 서버로부터 동영상의 전자 프로그램 가이드(Electronic Program Guide; EPG)를 통해 제공될 수 있다.
In order for the controller 130 to perform the above-described control, information about a plurality of categories and one or more photographic copies need to be provided to the controller 130. For example, information about a plurality of categories and one or more shots may be provided in step 210 through an electronic program guide (EPG) of a video from a video server or a broadcast server.

도 6은 일 예에 따른 동영상의 구성을 설명한다.6 illustrates a configuration of a video according to an example.

동영상의 촬영 본은 동영상의 편집 본을 생성하기 위한 소스(source)를 의미한다. 동영상의 촬영 본은 촬영에 의해 생성된 동영상일 수 있다. 촬영 본을 편집함으로써 동영상의 편집 본이 생성될 수 있다. 상기의 편집 본은 동영상에 대한 시청자의 반응에 따라 재생되는 내용이 변경될 수 있다. 도 1 내지 도 5를 참조하여 설명된 동영상은 동영상의 편집 본을 의미할 수 있다.The photographed copy of the video refers to a source for generating an edited copy of the video. The shot of the video may be a video generated by shooting. An edited copy of the video can be generated by editing the shot copy. The edited content may be changed according to the viewer's reaction to the video. The video described with reference to FIGS. 1 to 5 may mean an edited copy of the video.

동영상은 복수 개의 카테고리들로 분류될 수 있다. 도 6에서, 동영상은 동영상 내에서 특정한 출연자가 메인으로 출연하는 장면에 따라 4 개의 카테고리들로 분류되었다.The video may be classified into a plurality of categories. In FIG. 6, a video is classified into four categories according to a scene in which a specific performer appears in the main video.

시청자의 반응에 따라 재생되는 내용을 변경하기 위해, 동영상은 하나 이상의 편집 본들을 포함할 수 있다. 하나 이상의 편집 본들은 서로 상이한 분량을 갖는다. 즉, 하나 이상의 편집 본들은 동일한 콘텐츠에 대한 것이나, 추가적인 프레임을 포함하거나 부가적인 프레임을 제외함으로써 서로 상이한 재생 시간을 가질 수 있다. 도 6에서, 동영상의 복수 개의 편집 본들은 기본 편집 본, 최소 편집 본 및 최대 편집 본을 포함한다.In order to change the content played in response to the viewer's response, the video may include one or more edits. One or more compilations have different amounts from each other. That is, one or more edits are for the same content but may have different playback times from each other by including additional frames or excluding additional frames. In FIG. 6, a plurality of edited versions of a video include a basic edited version, a minimum edited version, and a maximum edited version.

기본 편집 본의 내용은 동영상의 편집 본의 재생이 시청자의 반응에 따라 제어되지 않을 때 기본적으로 재생되는 내용일 수 있다. 따라서, 기본 편집 본은 편집 편성 본으로 명명될 수 있다.The content of the basic edited copy may be basically played when the playback of the edited copy of the video is not controlled according to the response of the viewer. Thus, the basic edited copy may be called an edited copy.

도 6에서, 촬영 본 및 복수 개의 편집 본들 각각의 재생 시간이, 카테고리 별로 도시되었다.In FIG. 6, reproduction times of the photographed bones and the plurality of edited bones are shown for each category.

최대 편집 본의 재생 시간은 기본 편집 본의 재생 시간 이상일 수 있다. 기본 편집 본의 재생 시간은 최소 편집 본의 재생 시간 이상일 수 있다. 복수 개의 편집 본들 각각은 촬영 본에 기반하여 생성된다. 따라서, 촬영 본의 재생 시간은 이러한 재생 시간의 제약은 카테고리 별로 적용될 수 있다. 즉, 최대 편집 본의 복수 개의 카테고리들 각각의 재생 시간은 기본 편집 본의 대응하는 카테고리의 재생 시간 이상일 수 있다. 기본 편집 본의 복수 개의 카테고리들 각각의 재생 시간은 최소 편집 본의 대응하는 카테고리의 재생 시간 이상일 수 있다.The playback time of the maximum edited copy may be greater than or equal to the playback time of the basic edited copy. The playback time of the basic edited copy may be more than the playback time of the minimum edited copy. Each of the plurality of edited bones is generated based on the shot bones. Therefore, the reproduction time of the photographed image may be applied to each category by the restriction of the reproduction time. That is, the reproduction time of each of the plurality of categories of the maximum edited copy may be equal to or greater than the reproduction time of the corresponding category of the basic edited copy. The play time of each of the plurality of categories of the basic edited copy may be equal to or greater than the play time of the corresponding category of the minimum edited copy.

시청자가 특정한 출연자를 선호할 때, 상기의 선호를 나타내는 것으로 인식되는 사용자의 동작에 의해 선호하는 출연자의 최대 편집 본이 재생될 수 있다. 처리부(130)는, 예컨대 동영상이 방송 프로그램인 경우, 가용한 전체 재생 시간에 맞춰 동영상의 다른 부분의 재생을 조절할 수 있다. 예컨대, 처리부(130)는 사용자의 반응에 기반하여 동영상의 재생 속도를 조정함에 따라 예상된 전체 재생 시간에 비해 실제로 동영상이 재생된 시간이 더 짧게된 경우, 여분의 시간을 광고로 대체할 수 있다. 또한, 처리부(130)는 사용자의 반응에 기반하여 동영상의 재생 속도를 조정함에 따라 예상된 전체 재생 시간에 비해 실제로 동영상이 재생된 시간이 더 길게된 경우, 다음에 재생될 동영상을 자동으로 녹화할 수 있고, 현재 재생되는 동영상의 재생이 완료된 이후에 녹화된 동영상을 제공할 수 있다. 여기서, 재생된 동영상 및 다음에 재생될 동영상은 각각 방송 프로그램일 수 있다.When the viewer prefers a particular performer, the maximum edited copy of the preferred performer may be played back by the user's action perceived to indicate the preference. For example, when the video is a broadcast program, the processor 130 may adjust playback of another portion of the video according to the available total playback time. For example, as the processor 130 adjusts the playback speed of the video based on the user's response, the processor 130 may replace the extra time with an advertisement if the actual time of playing the video is shorter than the expected total playback time. . In addition, the processor 130 adjusts the playback speed of the video based on the user's response, and automatically records the next video to be played next when the video is played longer than the expected total playback time. It is possible to provide a recorded video after the playback of the video currently being played is completed. Here, the played video and the next video to be played may each be a broadcast program.

처리부(130)는 전술된 조절은 동영상의 재생에 맞춰 실시간으로 수행할 수 있다.The processor 130 may perform the above-described adjustment in real time in accordance with the playback of the video.

동영상의 복수 개의 카테고리들 및 하나 이상의 촬영 본들은 각각 별개의 트랙(track)으로서 저장될 수 있고, 하나의 비디오(video) 및 오디오(audio) 파일로서 저장될 수 있다.The plurality of categories and one or more shots of the video may each be stored as separate tracks and may be stored as one video and audio file.

동영상의 구조에 대한 정보는, 예컨대 동영상이 방송 프로그램인 경우, 동영상의 EPG 정보와 함께 제공될 수 있다.
The information about the structure of the video may be provided together with the EPG information of the video, for example, when the video is a broadcast program.

하기에서, 동영상의 편집 본을 생성하는 방법 및 장치가 설명된다.In the following, a method and apparatus for generating an edited copy of a moving picture are described.

도 7은 일 예에 따른 동영상을 생성하는 전자 장치의 구조도이다.7 is a structural diagram of an electronic device that generates a video, according to an embodiment.

전자 장치(700)는 촬영에 의해 생성된 동영상의 촬영 본을 편집함으로써 동영상에 대한 시청자의 반응에 따라 재생되는 내용이 변경될 수 있는 동영상의 편집 본을 생성할 수 있다.The electronic device 700 may generate an edited copy of the video in which content played back may be changed according to the viewer's reaction to the video by editing the photographed copy of the video generated by photographing.

전자 장치(700)는 처리부(710) 및 저장부(720)를 포함할 수 있다.The electronic device 700 may include a processor 710 and a storage 720.

처리부(710) 및 저장부(720)의 구체적인 기능에 대해 도 8을 참조하여 하기에서 상세히 설명된다.
Specific functions of the processing unit 710 and the storage unit 720 will be described in detail below with reference to FIG. 8.

도 8은 일 예에 따른 동영상을 생성하는 방법의 흐름도이다.8 is a flowchart of a method of generating a video, according to an example.

단계(810)에서, 처리부(710)는 동영상의 촬영 본의 내용에 기반하여 내용에 따라 각각 구분되는 복수 개의 카테고리들을 결정할 수 있다.In operation 810, the processor 710 may determine a plurality of categories, each of which is divided according to the contents, based on the contents of the captured image of the video.

단계(820)에서, 처리부(710)는 복수 개의 카테고리 각각에 대해 복수 개의 편집 본들 각각에서의 재생 시간을 결정할 수 있다.In operation 820, the processor 710 may determine a reproduction time of each of the plurality of edited copies for each of the plurality of categories.

단계(830)에서, 처리부(710)는 촬영 본의 내용 중 일부를 선택함으로써 복수 개의 카테고리 각각에 대해 복수 개의 편집 본들 각각의 내용을 결정할 수 있다.In operation 830, the processor 710 may determine the contents of each of the plurality of edited bones for each of the plurality of categories by selecting some of the contents of the photographed bones.

단계(840)에서, 처리부(710)는 복수 개의 카테고리들의 복수 개의 편집 본들의 내용들을 결합함으로써 시청자의 반응에 따라 복수 개의 카테고리들 각각에 대해 복수 개의 편집 본들 중 하나의 편집 본이 재생될 수 있는 동영상의 편집 본을 생성할 수 있다.In operation 840, the processor 710 may combine the contents of the plurality of edited versions of the plurality of categories so that one edited version of the plurality of edited versions may be reproduced for each of the plurality of categories according to a viewer's response. You can create an edited copy of the video.

단계(850)에서, 처리부(710)는 저장부(720) 내에 동영상의 편집 본을 저장할 수 있다.
In operation 850, the processor 710 may store an edited copy of the video in the storage 720.

하기에서 동영상의 편집 본을 생성하기 위한 장치 또는 프로그램의 그래픽 사용자 인터페이스(Graphic User Interface; GUI) 및 GUI에 관련된 기능이 설명된다. 동영상의 편집 본을 생성하기 위한 장치 또는 프로그램은 최소한의 편집을 통해 동적 재생 서비스를 제공할 수 있는 환경을 제공할 수 있다. 예컨대, 하나 이상의 편집 본들 각각에 대해 서로 상이한 프로듀서(Producer; PD)에게 편집 권한이 부여될 수 있다.
In the following, a Graphic User Interface (GUI) of a device or a program for generating an edited copy of a video and a function related to the GUI will be described. An apparatus or a program for generating an edited copy of a video may provide an environment capable of providing a dynamic playback service with minimal editing. For example, editing rights may be granted to a different producer (PD) for each of the one or more edited copies.

도 9는 일 예에 따른 편집 프로그램의 로그인 GUI를 나타낸다.9 illustrates a login GUI of an editing program according to an example.

편집 프로그램에 로그인 할 수 있는 편집자는 메인 PD 및 서브 PD를 포함할 수 있다. 메인 PD는 편집 프로그램의 서비스들 중 특정한 서비스를 사용할 수 있다. 서버 PD는 편집 프로그램의 서비스들 중 제한된 서비스를 사용할 수 있다. 메인 PD만이 사용할 수 있는 서비스로의 분기를 나타내는 메뉴(910)는 사용자로서 메인 PD가 선택되었을 때에만 선택 가능하도록 노출될 수 있다.Editors who can log in to the editing program may include a main PD and a sub PD. The main PD may use a specific service among the services of the editing program. The server PD may use a limited service among the services of the editing program. A menu 910 indicating a branch to a service available only to the main PD may be exposed to be selectable only when the main PD is selected as a user.

예컨대, 메인 PD는 복수 개의 카테고리들 각각의 최대 편집 본의 편집 시간 및 담당 PD 만을 편집 프로그램 상에 등록할 수 있다. 담당 PD로 등록된 서브 PD는 자신에게 할당된 카테고리 및 편집 본을 등록된 최대 편집 본의 편집 시간에 맞추어 편집할 수 있고, 편집된 내용을 최대 편집 본으로서 편집 프로그램 상에 등록할 수 있다. 메인 PD는 최대 편집 본으로서 1차적으로 편집된 내용을 바탕으로 기본 편집 본을 편집할 수 있고, 편집된 내용을 기본 편집 본으로서 편집 프로그램 상에 등록할 수 있다. 이후, 메인 PD는 기본 편집 본을 기본으로서 사용하여 최소 편집 본을 편집할 수 있고, 편집된 내용을 최소 편집 본으로서 편집 프로그램 상에 등록할 수 있다.For example, the main PD may register only the editing time and the responsible PD of the maximum edited copy of each of the plurality of categories on the editing program. The sub-PD registered as the responsible PD can edit the category and edited text assigned to it according to the editing time of the registered maximum edited copy, and can register the edited content as the maximum edited copy on the edit program. The main PD may edit the basic edit based on the first edited content as the maximum edited copy, and register the edited content on the edit program as the basic edited copy. Thereafter, the main PD may edit the minimum edited copy using the basic edited copy as a basis, and register the edited content on the edit program as the minimum edited copy.

또한, 메인 PD는 복수 개의 카테고리들 각각의 하나 이상의 편집 본들 각각의 편성 정보(예컨대, 편성 시간)을 편집 프로그램 상에 등록할 수 있고, 복수 개의 카테고리들 각각의 하나 이상의 편집 본들 각각에 대한 담당 PD를 지정할 수 있다. 서브 PD는 자신이 담당 PD로서 지정된 편집 본을 편집할 수 있다.
In addition, the main PD may register the organization information (eg, organization time) of each of the one or more edited copies of each of the plurality of categories on the editing program, and is responsible for each of the one or more edited copies of each of the plurality of categories. Can be specified. The sub PD can edit the edited copy which he designated as the in charge PD.

도 10은 일 예에 따른 동영상의 정보를 불러오는 GUI를 나타낸다.10 illustrates a GUI for loading information of a video, according to an embodiment.

편집 프로그램(또는, 처리부(710))는 동영상을 제공하는 사업자의 콘텐츠 관리 시스템(content management system)으로부터 동영상에 대한 정보를 수신할 수 있다.The editing program (or the processing unit 710) may receive information about the video from a content management system of a provider that provides the video.

동영상에 대한 정보는, 1) 동영상이 시리즈 물의 일부일 경우의 동영상의 회차, 2) 동영상의 방송 날짜 및 시간 및 3) 동영상의 정규 편성 배정 시간을 포함할 수 있다. 여기서, 동영상의 정규 편성 배정 시간은 동영상이 방송 프로그램일 경우의 동영상의 방송 시간을 의미할 수 있다. 정규 편성 배정 시간은 동영상의 기본 편집 본의 시간으로 간주될 수 있다.
The information on the video may include 1) the turn of the video when the video is part of a series, 2) the broadcast date and time of the video, and 3) the regular scheduling time of the video. Here, the regular programming allocation time of the video may mean a broadcast time of the video when the video is a broadcast program. The regular programming assignment time may be regarded as the time of the basic editorial of the video.

도 11은 일 예에 따른 편집 가이드라인을 입력하는 GUI를 나타낸다.11 illustrates a GUI for inputting an editing guideline according to an example.

편집 가이드라인이란 다수의 편집자들이 편집 본을 생성하기 위해 공유하는 정보를 의미할 수 있다.Editing guidelines may refer to information shared by a number of editors to create an edited copy.

특정한 편집자는 편집 가이드라인의 제목 및 편집 가이드라인의 상세 설명을 입력할 수 있다. 다른 편집자들은 편집 가이드라인의 제목 및 편집 가이드라인의 상세 설명을 참조하여 편집 본을 생성할 수 있다.
A particular editor may enter a title of the editing guidelines and a detailed description of the editing guidelines. Other editors may create a compilation by referring to the title of the editing guidelines and the detailed description of the editing guidelines.

도 12는 일 예에 따른 편집 가이드 시간을 입력하는 GUI를 나타낸다.12 illustrates a GUI for inputting an editing guide time according to an example.

편집자는 카테고리 별로 편집 가이드 시간을 입력할 수 있다. 편집 가이드 시간은 특정한 카테고리의 편집 본의 실제 시간이 아닌 가이드 시간일 수 있다. 가이드 시간이 편집 본의 시간과 정확하게 일치할 필요는 없다. 따라서, 일정한 단위(예컨대, 30초)로 입력될 수 있다.The editor can enter the editing guide time for each category. The editing guide time may be a guide time that is not the actual time of a compilation of a particular category. The guide time does not have to exactly match the time of the compilation. Therefore, it may be input in a predetermined unit (eg, 30 seconds).

도 12에서, 카테고리는 출연자 및 씬 별로 분류된다. 가이드 시간은 기본 편집 본에 대한 시간, 최소 편집 본에 대한 시간 및 최대 편집 본에 대한 시간을 포함할 수 있다.In FIG. 12, categories are categorized by performer and scene. The guide time may include a time for the basic edited version, a time for the minimum edited version, and a time for the maximum edited copy.

도 12에서, 카테고리 별로 입력된 편집 가이드 시간을 나타내는 테이블(1210), 카테고리 별로 편집 가이드 시간을 입력하기 위한 인터페이스(1220) 및 카테고리 별로 편집을 담당할 PD를 지정하는 인터페이스(1230)가 도시되었다.In FIG. 12, a table 1210 indicating an editing guide time input for each category, an interface 1220 for inputting an editing guide time for each category, and an interface 1230 for designating a PD for editing for each category are shown.

특정한 카테고리의 편집 가이드 시간이 입력되면, 상기의 카테고리에 대한 정보가 테이블(1210)에 추가된다. 여기서, 편집 가이드 시간 중 일부 시간(예컨대, 최대 편집 본의 가이드 시간)은 필수적으로 입력되어야 하는 항목일 수 있으며, 편집 가이드 시간 중 나머지 가이드 시간(예컨대, 기본 편집 본의 가이드 시간 및 최소 편집 본의 가이드 시간)은 선택적으로 입력될 수 있는 항목일 수 있다.
When the editing guide time of a specific category is input, the information about the category is added to the table 1210. Here, some of the editing guide time (eg, the maximum edited guide time) may be an essential item, and the remaining guide time (eg, the basic edited guide time and the minimum edited time of the editing guide time) may be required. Guide time) may be an item that may be selectively input.

도 13은 일 예에 따른 입력된 편집 가이드 시간을 출력하는 GUI를 나타낸다.13 illustrates a GUI for outputting an input editing guide time according to an example.

도 13은 도 12의 테이블(1210)에 대응할 수 있다. 도 13의 GUI를 통해 편집자는 모든 카테고리들에 대한 편집 가이드 시간을 확인할 수 있다.
FIG. 13 may correspond to the table 1210 of FIG. 12. The GUI of FIG. 13 allows the editor to see the editing guide times for all categories.

도 14는 일 예에 따른 특정한 PD가 편집할 카테고리들의 편집 가이드 시간을 출력하는 GUI를 나타낸다.14 illustrates a GUI for outputting an editing guide time of categories to be edited by a specific PD according to an example.

동영상을 편집할 수 있는 편집자들 중, 특정한 편집자는 동영상의 카테고리들 중 일부 카테고리를 편집할 수 있다.Among editors who can edit a video, a particular editor can edit some of the categories of video.

각 편집자가 편집 프로그램에 로그인하면, 편집자는 도 14의 GUI를 통해 자신이 편집할 수 있는 편집 가이드 시간을 확인할 수 있다. 도 14에서, 편집자들 중 서브 PD(또는, 제2 PD)가 편집할 수 있는 카테고리들의 편집 가이드 시간의 테이블이 표시되었다. 도 14에서, 편집 가이드 시간 중 최대 편집 본의 가이드 시간만이 등록되었고, 기본 편집 본의 가이드 시간 및 최소 편집 본의 가이드 시간은 입력되지 않았다.
When each editor logs in to the editing program, the editor can check the editing guide time that he or she can edit through the GUI of FIG. In FIG. 14, a table of editing guide times of categories among the editors that the sub PD (or the second PD) can edit is displayed. In Fig. 14, only the guide time of the maximum edited bone among the edit guide time is registered, and the guide time of the basic edited bone and the guide time of the minimum edited bone are not input.

도 15는 일 예에 따른 특정한 PD가 편집 담당으로 지정된 내용이 편집된 결과를 출력하는 GUI를 나타낸다.15 illustrates a GUI for outputting a result of editing of a content designated by a specific PD to be in charge of editing according to an embodiment.

도 14의 GUI를 통해, 서브 PD는 자신이 편집 담당으로 지정된 카테고리의 내용을 선택하여 편집할 수 있다. 서브 PD는 카테고리의 내용의 편집이 완료 및 등록된 경우, 편집 상태를 통해 상기의 완료 및 등록을 표시할 수 있다.Through the GUI of FIG. 14, the sub PD can select and edit the contents of the category designated as the editor in charge. The sub PD may indicate completion and registration through the editing state when editing of the contents of the category is completed and registered.

편집자는 자신을 나타내는 카테고리의 "편집" 또는 "시간" 버튼을 클릭함으로써 버튼에 대응하는 카테고리의 내용을 편집할 수 있다.
The editor can edit the contents of the category corresponding to the button by clicking the "Edit" or "Time" button of the category representing him.

도 16은 일 실시예에 따른 동영상을 제공하는 서버의 구조도이다.16 is a structural diagram of a server providing a video, according to an exemplary embodiment.

서버(1600)는 콘텐츠를 전자 장치(100) 및 전자 장치(700)에게 제공할 수 있다. 여기서, 콘텐츠는 전자 장치(100)가 재생하는 동영상일 수 있으며, 전자 장치(700)의 동영상의 촬영 본 또는 편집 본 중 하나 이상일 수 있다. 하기의 콘텐츠는 도 1 내지 도 15에서 설명된 동영상에 대응할 수 있으며, 동영상은 콘텐츠의 일 예가 될 수 있다. The server 1600 may provide content to the electronic device 100 and the electronic device 700. Here, the content may be a moving picture played by the electronic device 100 and may be at least one of a photographed copy or an edited copy of the video of the electronic device 700. The following content may correspond to the video described with reference to FIGS. 1 to 15, and the video may be an example of the content.

서버(1600)는 전자 장치(700)에 의해 생성된 동영상의 촬영 본 또는 편집 본 중 하나 이상을 저장할 수 있다.The server 1600 may store at least one of a photographed copy or an edited copy of a video generated by the electronic device 700.

제어부(1610)는 스크리밍(streaming) 서비스를 통해 전자 장치(100) 및 전자 장치(700)에게 콘텐츠를 제공할 수 있다. 예컨대, 제어부(1610)는 네트워킹부(1620)를 통해 콘텐츠를 전자 장치(100)로 전송할 수 있다.The controller 1610 may provide content to the electronic device 100 and the electronic device 700 through a streaming service. For example, the controller 1610 may transmit content to the electronic device 100 through the networking unit 1620.

전자 장치(100)의 처리부(130)는 동영상의 재생의 제어에 기반하여 적응적인 스트리밍을 제어부(1610)에게 요청할 수 있다.The processor 130 of the electronic device 100 may request the controller 1610 for adaptive streaming based on the control of the playback of the video.

예컨대, 처리부(130)가 동영상의 재생 속도를 증가시킬 때, 처리부(130)는 네트워킹부(140)를 통해 제어부(1610)에게 스트리밍으로 전송되는 콘텐츠(즉, 재생되는 동영상)의 전송 속도(예컨대, 비트레이트(bitrate)를 증가시킬 것을 요청할 수 있다. 상기의 요청에 의해, 제어부(1610)는 콘텐츠의 전송 속도를 증가시킬 수 있다. 또한, 처리부(130)가 동영상의 재생 속도를 감소시킬 때, 처리부(130)는 네트워킹부(140)를 통해 제어부(1610)에게 스트리밍으로 전송되는 콘텐츠의 전송 속도를 감소시킬 것을 요청할 수 있다.For example, when the processor 130 increases the playback speed of the video, the processor 130 may transmit the content (that is, the video being played) to the controller 1610 through the networking unit 140 in streaming (eg, the video being played). In response to the request, the controller 1610 may increase the transmission speed of the content, and when the processor 130 decreases the playback speed of the video. The processor 130 may request the controller 1610 to reduce the transmission speed of the content transmitted through streaming through the networking unit 140.

예컨대, 처리부(130)는 네트워킹부(140)를 통해 동영상의 복수 개의 편집 본들 중 특정한 편집 본을 전송해줄 것을 제어부(1610)에게 요청할 수 있다. 제어부(1610)는 네트워킹부(1620)를 통해 요청된 편집 본을 전송할 수 있으며, 처리부(130)에 의해 요청된 재생 속도 또는 정보에 대응하는 편집 본을 전송할 수 있다.For example, the processor 130 may request the controller 1610 to transmit a specific edited copy among a plurality of edited copies of the video through the networking unit 140. The controller 1610 may transmit the edited copy requested through the networking unit 1620, and may transmit the edited copy corresponding to the playback speed or information requested by the processor 130.

서버(1600)는 하나 이상의 저장부들을 포함할 수 있다. 하나 이상의 저장부들은 레디-메이드 콘텐츠(Ready-Made Content; RMC) 저장부(1630), 추가 콘텐츠 저장부(1640) 및 EPG 정보 저장부(1650)를 포함할 수 있다.The server 1600 may include one or more storage units. One or more storage units may include a Ready-Made Content (RMC) storage unit 1630, an additional content storage unit 1640, and an EPG information storage unit 1650.

RMC 저장부(1630)는 동영상의 촬영 본 또는 기본 편집 본과 같은 레디-메이드 콘텐츠를 저장할 수 있다.The RMC storage unit 1630 may store ready-made content such as a photographed copy or a basic edited copy of the video.

추가 콘텐츠 저장부(1640)는 동영상의 최대 촬영 본 또는 최소 촬영 본과 같은 추가적인 콘텐츠를 저장할 수 있다.The additional content storage unit 1640 may store additional content such as a maximum shot or minimum shot of the video.

EPG 정보 저장부(1650)는 콘텐츠의 EPG 정보를 저장할 수 있다.The EPG information storage unit 1650 may store EPG information of the content.

제어부(1610)은 하나 이상의 저장부들로부터 동영상의 하나 이상의 편집 본들, 동영상의 촬영본 및 동영상의 EPG 정보 등을 네트워킹부(1620)를 통해 전자 장치(100) 또는 전자 장치(700)에게 제공할 수 있다.
The controller 1610 may provide the electronic device 100 or the electronic device 700 with one or more edited copies of the video, a photographed copy of the video, and EPG information of the video from the one or more storage units through the networking unit 1620. have.

실시예들은 다양한 컴퓨터로 구현되는 동작을 수행하기 위한 프로그램 명령을 포함하는 컴퓨터 판독 가능 매체를 포함한다. 특히, 본 실시예에서는 사용자가 동영상을 시청할 수 있도록 동영상을 재생하는 재생 코드와, 사용자의 동작에 기인하여 발생한 물리적 현상을 식별하는 식별 코드와, 식별된 물리적 현상에 기반하여 사용자의 동영상에 대한 반응을 추정하는 추정 코드와, 추정된 반응에 기반하여 상기 동영상의 재생을 제어하는 제어 코드를 포함하는 사용자에게 동영상을 제공하는 프로그램이 기록되는 컴퓨터 판독 가능 매체를 포함할 수 있다. 본 실시예에 따른 프로그램은 PC 기반의 프로그램 또는 모바일 단말 전용 어플리케이션(예를 들어, 스마트폰 어플리케이션, 피쳐폰 VM(virtual machine) 등의 형태) 등으로 구성될 수 있다. 이는, 사용자 단말 및/또는 전자책 서비스 시스템의 메모리에 저장되어 사용자 단말 및/또는 전자책 서비스 시스템에서 구동되는 적어도 하나의 프로세서에 의해 실행되도록 구성될 수 있다.Embodiments include a computer readable medium having program instructions for performing various computer implemented operations. In particular, in the present embodiment, the playback code for playing the video so that the user can watch the video, the identification code for identifying a physical phenomenon caused by the user's motion, and the user's response to the video based on the identified physical phenomenon And a computer readable medium on which a program for providing a video to a user is recorded, the estimation code estimating a and a control code for controlling reproduction of the video based on the estimated response. The program according to the present embodiment may be composed of a PC-based program or a mobile terminal exclusive application (for example, a form of a smart phone application, a feature phone VM (virtual machine), etc.). This may be configured to be executed by the user terminal and / or at least one processor stored in the memory of the electronic book service system and / or running in the user terminal and / or the electronic book service system.

상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 또한, 상술한 파일 시스템은 컴퓨터 판독이 가능한 기록 매체에 기록될 수 있다.The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Furthermore, the above-described file system can be recorded on a computer-readable recording medium.

이상과 같이 실시예를 통해 설명된 기술적 내용은 다양한 수정 및 변형이 가능하다. 그러므로, 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.As described above, the technical details described in the embodiments can be variously modified and modified. Therefore, the scope of the invention should not be limited to the described embodiments, but should be determined by the equivalents of the appended claims, as well as the appended claims.

100: 전자 장치
110: 센싱부
120: 입력부
130: 처리부
140: 송수신부
150: 저장부
160: 출력부
100: electronic device
110: sensing unit
120: Input unit
130:
140: Transmitting /
150:
160: Output section

Claims (15)

전자 장치가 사용자에게 동영상을 제공하는 방법에 있어서,
상기 사용자가 상기 동영상을 시청할 수 있도록 상기 동영상을 재생하는 단계;
상기 사용자의 동작에 기인하여 발생한 물리적 현상을 식별하는 단계;
상기 물리적 현상에 기반하여 상기 사용자의 상기 동영상에 대한 반응을 추정하는 단계; 및
상기 추정된 반응에 기반하여 상기 동영상의 재생을 제어하는 단계
를 포함하고,
상기 제어는 상기 재생의 중단 또는 재개, 상기 재생의 속도의 조절, 상기 동영상 중 일부의 재생 시간의 조절 및 상기 동영상의 밝기의 조절 중 하나 이상을 포함하는 동영상 제공 방법.
In a method for providing a video to a user in an electronic device,
Playing the video so that the user can watch the video;
Identifying a physical phenomenon resulting from the user's motion;
Estimating a response of the user to the video based on the physical phenomenon; And
Controlling playback of the video based on the estimated response
Lt; / RTI >
And the control comprises one or more of stopping or resuming the playback, adjusting the speed of the playback, adjusting the playback time of the portion of the video, and adjusting the brightness of the video.
제1항에 있어서,
상기 물리적 현상은 상기 사용자의 시청 환경 상의 변화이고,
상기 시청 환경 상의 변화는 객체 및 근접 센서 간의 거리의 변화 및 빛의 밝기의 변화 중 하나 이상을 포함하는, 동영상 제공 방법.
The method of claim 1,
The physical phenomenon is a change in the viewing environment of the user,
And wherein the change in the viewing environment comprises one or more of a change in distance between an object and a proximity sensor and a change in brightness of light.
제1항에 있어서,
상기 사용자의 동작에 기인하여 발생한 물리적 현상을 식별하는 단계는,
상기 전자 장치 주위의 물리적 상태를 감지함으로써 제1 물리적 상태에 대한 정보를 생성하는 단계;
상기 제1 물리적 상태에 대한 정보가 감지된 후 상기 전자 장치 주위의 물리적 상태를 감지함으로써 제2 물리적 상태에 대한 정보를 생성하는 단계; 및
상기 제1 물리적 상태에 대한 정보 및 상기 제2 물리적 상태에 대한 정보 간의 차이에 기반하여 상기 물리적 현상을 식별하는 단계
를 포함하고,
상기 제1 물리적 상태 및 상기 제2 물리적 상태는 근접 센서, 조도 센서, 중력 센서, GPS 센서 및 자이로스코프 중 적어도 하나의 센서에 의해 감지되는, 동영상 제공 방법.
The method of claim 1,
Identifying a physical phenomenon caused by the user's motion,
Generating information about a first physical state by sensing a physical state around the electronic device;
Generating information about a second physical state by detecting a physical state around the electronic device after the information about the first physical state is detected; And
Identifying the physical phenomenon based on a difference between the information about the first physical state and the information about the second physical state
Lt; / RTI >
And the first physical state and the second physical state are sensed by at least one of a proximity sensor, an illuminance sensor, a gravity sensor, a GPS sensor, and a gyroscope.
제1항에 있어서,
상기 제어는 상기 추정된 반응에 기반하여 상기 동영상의 전체 볼륨 및 상기 동영상의 소리 요소들의 각각의 개별적인 볼륨을 조절하는 것을 포함하고,
상기 소리 요소들은 배경 음악, 효과음, 대사 및 나레이션 중 하나 이상을 포함하는, 동영상 제공 방법.
The method of claim 1,
The control includes adjusting the overall volume of the video and the individual volume of each of the sound elements of the video based on the estimated response,
Wherein the sound elements comprise one or more of background music, sound effects, dialogue and narration.
제1항에 있어서,
상기 추정된 반응은 상기 사용자가 상기 동영상을 시청하는지 여부 및 상기 사용자가 상기 동영상의 시청에 집중하는지 여부 중 하나 이상을 포함하고,
상기 동영상 중 상기 사용자가 집중하는 것으로 추정된 부분에는 부가적인 내용이 추가되고, 상기 사용자가 집중하지 않는 것으로 추정된 부분에는 일부 내용이 건너뛰기(skip)되는, 동영상 제공 방법.
The method of claim 1,
The estimated response includes one or more of whether the user watches the video and whether the user focuses on viewing the video,
The additional content is added to the portion of the video estimated to be concentrated by the user, and the partial content is skipped to the portion estimated to be not concentrated by the user.
제5항에 있어서,
상기 제어는 상기 추정된 반응이 상기 사용자가 상기 동영상을 시청하지 않는 것을 나타낼 때 상기 동영상의 재생을 중단시키는 것 및 상기 추정된 반응이 상기 사용자가 상기 동영상을 시청하는 것을 나타낼 때 상기 동영상의 재생을 재개하는 것을 포함하는, 동영상 제공 방법.
6. The method of claim 5,
The control stops playback of the video when the estimated response indicates that the user is not watching the video and playback of the video when the estimated response indicates that the user is watching the video. A video providing method comprising resuming.
제5항에 있어서,
상기 제어는 추정된 반응이 상기 사용자가 상기 동영상의 시청에 집중한다는 것을 나타낼 때, 상기 동영상 중 상기 사용자가 집중한 부분에 관련된 부분의 재생 시간을 증가시키는 것 및 상기 추정된 반응이 상기 사용자가 상기 동영상의 시청에 집중하지 않는다는 것을 나타낼 때, 상기 동영상 중 상기 사용자가 집중하지 않은 부분에 관련된 부분의 재생 시간을 감소시키는 것을 포함하는, 동영상 제공 방법.
6. The method of claim 5,
The control indicates that when the estimated response indicates that the user concentrates on the viewing of the video, increasing the playing time of the portion of the video related to the focused portion of the user and the estimated response is determined by the user. Reducing the playback time of a portion of the video that is related to the portion of the video that is not concentrated by the user when indicating that the user is not focused on viewing the video.
제7항에 있어서,
상기 동영상은 복수 개의 카테고리들로 분류되고,
상기 동영상은 하나 이상의 편집 본들을 포함하고,
상기 재생 시간을 증가시키는 것 및 상기 재생 시간을 감소시키는 것은 각각 하나 이상의 편집 본들 중 재생할 편집 본을 선택함으로써 수행되고, 상기 선택은 상기 복수 개의 카테고리들 중 상기 집중한 부분 또는 상기 집중하지 않은 부분이 속하는 카테고리에 대해 적용되는, 동영상 제공 방법.
The method of claim 7, wherein
The video is classified into a plurality of categories,
The video includes one or more edited texts,
Increasing the reproduction time and decreasing the reproduction time are each performed by selecting an edited copy to be reproduced from one or more edited copies, wherein the selection is performed by the concentrated portion or the non-concentrated portion of the plurality of categories. The method of providing a video applied to a category to which it belongs.
제7항에 있어서,
상기 복수 개의 카테고리들 및 상기 하나 이상의 촬영 본들에 대한 정보는 상기 동영상의 전자 프로그램 가이드(Electronic Program Guide; EPG)를 통해 제공되는, 동영상 제공 방법.
The method of claim 7, wherein
The information on the plurality of categories and the one or more shots is provided through an electronic program guide (EPG) of the video.
전자 장치를 통해 사용자에게 동영상을 제공하는 프로그램이 기록되어 있는 기록 매체에 있어서,
상기 사용자가 상기 동영상을 시청할 수 있도록 상기 동영상을 재생하는 재생 코드;
상기 사용자의 동작에 기인하여 발생한 물리적 현상을 식별하는 식별 코드;
상기 물리적 현상에 기반하여 상기 사용자의 상기 동영상에 대한 반응을 추정하는 추정 코드; 및
상기 추정된 반응에 기반하여 상기 동영상의 재생을 제어하는 제어 코드
를 포함하고,
상기 제어는 상기 재생의 중단 또는 재개, 상기 재생의 속도의 조절, 상기 동영상 중 일부의 재생 시간의 조절 및 상기 동영상의 밝기의 조절 중 하나 이상을 포함하는 프로그램이 기록된, 컴퓨터에서 판독 가능한 기록 매체.
A recording medium in which a program for providing a moving picture to a user through an electronic device is recorded.
A playback code for playing the video so that the user can watch the video;
An identification code for identifying a physical phenomenon resulting from the user's operation;
An estimation code for estimating a response of the user to the video based on the physical phenomenon; And
A control code for controlling playback of the video based on the estimated response
Lt; / RTI >
The control may be a computer readable recording medium having recorded thereon a program including one or more of interrupting or resuming the playback, adjusting the speed of the playback, adjusting the playback time of the portion of the video and adjusting the brightness of the video. .
사용자에게 동영상을 제공하는 전자 장치에 있어서,
상기 사용자가 상기 동영상을 시청할 수 있도록 상기 동영상을 재생하고, 상기 사용자의 동작에 기인하여 발생한 물리적 현상을 식별하고, 상기 물리적 현상에 기반하여 상기 사용자의 상기 동영상에 대한 반응을 추정하고, 상기 추정된 반응에 기반하여 상기 동영상의 재생을 제어하는 처리부; 및
상기 동영상을 출력하는 출력부
를 포함하고,
상기 제어는 상기 재생의 중단 또는 재개, 상기 재생의 속도의 조절, 상기 동영상 중 일부의 재생 시간의 조절 및 상기 동영상의 밝기의 조절 중 하나 이상을 포함하는, 전자 장치.
An electronic device for providing a video to a user,
Play the video so that the user can watch the video, identify a physical phenomenon caused by the user's motion, estimate the user's response to the video based on the physical phenomenon, and estimate the A processor configured to control playback of the video based on a response; And
Output unit for outputting the video
Lt; / RTI >
And the control comprises one or more of stopping or resuming the playback, adjusting the speed of the playback, adjusting the playback time of the portion of the video and adjusting the brightness of the video.
제11항에 있어서,
상기 동영상은 복수 개의 편집 본들 중 상기 반응에 따라서 선택되는 하나의 편집 본이고,
상기 복수 개의 편집 본들은 각각 촬영에 의해 생성된 상기 동영상의 촬영 본을 편집함으로써 생성되는, 전자 장치.
12. The method of claim 11,
The video is one edited copy selected according to the response among a plurality of edited texts,
And the plurality of edited copies are each generated by editing a photographed copy of the video generated by photographing.
제12항에 있어서,
상기 복수 개의 편집 본들은 기본 편집 본, 최소 편집 본 및 최대 편집 본을 포함하고,
상기 최대 편집 본의 재생 시간은 상기 기본 편집 본의 재생 시간 이상이며, 상기 기본 편집 본의 재생 시간은 상기 최소 편집 본의 재생 시간 이상이고,
상기 기본 편집 본의 내용은 상기 재생이 상기 반응에 따라 제어되지 않을 때 기본적으로 재생되는 내용인, 전자 장치.
The method of claim 12,
The plurality of edited versions include a basic edited version, a minimum edited version, and a maximum edited version,
The reproduction time of the maximum edited copy is at least a reproduction time of the basic edited copy, and the reproduction time of the basic edited copy is at least a reproduction time of the minimum edited copy,
The contents of the basic edited copy are contents which are basically reproduced when the reproduction is not controlled according to the response.
제12항에 있어서,
상기 복수 개의 편집 본들은 복수 개의 카테고리들에 각각 대응하고,
상기 복수 개의 카테고리들은 각각 상기 동영상 내에서 특정한 출연자가 메인으로 출연하는 장면을 나타내는, 전자 장치.
The method of claim 12,
The plurality of compilations correspond to a plurality of categories, respectively,
The plurality of categories each represent a scene in which a specific performer appears in the main video.
삭제delete
KR1020120020910A 2012-02-29 2012-02-29 Method and apparatus for controlling playback of content based on user reaction KR101360471B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120020910A KR101360471B1 (en) 2012-02-29 2012-02-29 Method and apparatus for controlling playback of content based on user reaction

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120020910A KR101360471B1 (en) 2012-02-29 2012-02-29 Method and apparatus for controlling playback of content based on user reaction

Publications (2)

Publication Number Publication Date
KR20130099418A KR20130099418A (en) 2013-09-06
KR101360471B1 true KR101360471B1 (en) 2014-02-11

Family

ID=49450737

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120020910A KR101360471B1 (en) 2012-02-29 2012-02-29 Method and apparatus for controlling playback of content based on user reaction

Country Status (1)

Country Link
KR (1) KR101360471B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018030760A1 (en) * 2016-08-12 2018-02-15 (주)코텍 Apparatus and method for controlling luminance of oled display device
KR20210071429A (en) * 2019-12-06 2021-06-16 이화여자대학교 산학협력단 Video editing apparatus and method for attention

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015050562A1 (en) * 2013-10-04 2015-04-09 Intel Corporation Technology for dynamically adjusting video playback speed
KR101484190B1 (en) * 2014-04-01 2015-01-20 한국과학기술원 System and method for supporting appreciation of moving picture contents with human reaction and computer readable storage medium storing program executing the same
CN106562792B (en) * 2015-10-08 2021-08-06 松下电器(美国)知识产权公司 Control method of information presentation device and information presentation device
US11620543B2 (en) 2019-12-23 2023-04-04 Google Llc Identifying physical activities performed by a user of a computing device based on media consumption
KR102282407B1 (en) * 2020-01-23 2021-07-28 (주)퓨처쉐이퍼스 Method and system for providing hologram advertisement
KR102678303B1 (en) * 2023-11-27 2024-06-25 주식회사엠제이에스파트너스 Method, device, and system for providing video content planning and automatic editing solutions based on viewer response data analysis

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090121016A (en) * 2008-05-21 2009-11-25 박영민 Viewer response measurement method and system
KR20110125917A (en) * 2010-05-14 2011-11-22 주식회사 코리아퍼스텍 Service method and apparatus for object-based contents for portable device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090121016A (en) * 2008-05-21 2009-11-25 박영민 Viewer response measurement method and system
KR20110125917A (en) * 2010-05-14 2011-11-22 주식회사 코리아퍼스텍 Service method and apparatus for object-based contents for portable device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018030760A1 (en) * 2016-08-12 2018-02-15 (주)코텍 Apparatus and method for controlling luminance of oled display device
KR20210071429A (en) * 2019-12-06 2021-06-16 이화여자대학교 산학협력단 Video editing apparatus and method for attention
KR102289464B1 (en) * 2019-12-06 2021-08-12 이화여자대학교 산학협력단 Video editing apparatus and method for attention

Also Published As

Publication number Publication date
KR20130099418A (en) 2013-09-06

Similar Documents

Publication Publication Date Title
KR101360471B1 (en) Method and apparatus for controlling playback of content based on user reaction
RU2440606C2 (en) Method and apparatus for automatic generation of summary of plurality of images
CA2923807C (en) Generating alerts based upon detector outputs
TWI558186B (en) Video selection based on environmental sensing
US9558784B1 (en) Intelligent video navigation techniques
US9430115B1 (en) Storyline presentation of content
US10770113B2 (en) Methods and system for customizing immersive media content
US9332313B2 (en) Personalized augmented A/V stream creation
US20140250487A1 (en) Generation and provision of media metadata
KR101317204B1 (en) Method for generating frame information on moving image and apparatus thereof
AU2013273781B2 (en) Method and apparatus for recording video image in a portable terminal having dual camera
US20050008343A1 (en) Producing video and audio-photos from a static digital image
US9564177B1 (en) Intelligent video navigation techniques
KR101608396B1 (en) Linking disparate content sources
KR20130062883A (en) System and method for presenting comments with media
US11277668B2 (en) Methods, systems, and media for providing media guidance
US10453263B2 (en) Methods and systems for displaying augmented reality content associated with a media content instance
CN112954390B (en) Video processing method, device, storage medium and equipment
JP2008141746A (en) System and method for playing moving images
KR20190000882A (en) Computing device, method, computer program for processing video
US10622017B1 (en) Apparatus, a system, and a method of dynamically generating video data
KR20160044981A (en) Video processing apparatus and method of operations thereof
US20160073029A1 (en) Method and system for creating a video
JP2013536969A (en) Method and apparatus for providing community-based metadata
US11941048B2 (en) Tagging an image with audio-related metadata

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170125

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180129

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190201

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20200129

Year of fee payment: 7