KR101360471B1 - Method and apparatus for controlling playback of content based on user reaction - Google Patents
Method and apparatus for controlling playback of content based on user reaction Download PDFInfo
- Publication number
- KR101360471B1 KR101360471B1 KR1020120020910A KR20120020910A KR101360471B1 KR 101360471 B1 KR101360471 B1 KR 101360471B1 KR 1020120020910 A KR1020120020910 A KR 1020120020910A KR 20120020910 A KR20120020910 A KR 20120020910A KR 101360471 B1 KR101360471 B1 KR 101360471B1
- Authority
- KR
- South Korea
- Prior art keywords
- video
- user
- edited
- playback
- response
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 230000004044 response Effects 0.000 claims abstract description 101
- 230000008859 change Effects 0.000 claims description 73
- 230000033001 locomotion Effects 0.000 claims description 24
- 239000012141 concentrate Substances 0.000 claims description 14
- 230000005484 gravity Effects 0.000 claims description 10
- 230000003247 decreasing effect Effects 0.000 claims description 8
- 230000000694 effects Effects 0.000 claims description 3
- 230000007423 decrease Effects 0.000 abstract description 13
- 230000006855 networking Effects 0.000 description 17
- 210000000988 bone and bone Anatomy 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 230000008921 facial expression Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/4402—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Tourism & Hospitality (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
사용자의 반응에 기반한 동적 콘텐츠 재생 제어 방법 및 장치가 제공된다. 전자 장치는 센서가 감지한 정보에 기반하여 재생 중인 콘텐츠에 대한 사용자의 반응을 추정한다. 전자 장치는 추정된 반응에 따라 동영상의 재생을 제어한다. 전자 장치는 동영상 중 재생되고 있는 부분과 관련된 부분의 재생 시간을 증가 또는 감소시킬 수 있다. 동영상은 서로 상이한 재생 시간을 갖는 복수 개의 편집 본들을 포함할 수 있다.Provided are a method and an apparatus for controlling dynamic content playback based on a user's response. The electronic device estimates the user's response to the content being played based on the information detected by the sensor. The electronic device controls the playback of the video according to the estimated response. The electronic device may increase or decrease the play time of the portion related to the portion of the video being played. The video may include a plurality of edited copies having different playback times.
Description
동영상 콘텐츠의 재생을 제어하기 위한 방법 및 장치에 관한 것으로, 보다 상세히는 사용자의 반응에 기반하여 콘텐츠의 재생을 동적으로 제어하는 방법 및 장치가 개시된다.A method and apparatus for controlling playback of video content are disclosed, and more particularly, a method and apparatus for dynamically controlling playback of content based on a user's reaction are disclosed.
일반적으로, 동영상 콘텐츠는 제작자의 의도에 의해 촬영된 후, 편집이 완성된 상태에서 배포된다. 특히, 영화 또는 텔레비전(TeleVision; TV) 프로그램은 제한된 편성 시간에 맞춰서 편집된다. 즉, 일반적인 동영상 콘텐츠는 레디-메이드(ready-made) 콘텐츠이다.In general, moving image content is photographed by a producer's intention and then distributed in a state where editing is completed. In particular, a film or television (TeleVision (TV) program) is edited for a limited programming time. That is, general video content is ready-made content.
동영상 콘텐츠를 시청하는 시청자마다 동영상 콘텐츠의 장면 및 내용에 대한 기호는 서로 상이하다. 레디-메이드 콘텐츠는 편집에 의해 결정된 내용만을 제공하기 때문에 서로 상이한 기호를 갖는 다양한 시청자들의 만족도를 극대화시키기 어렵다.The viewers who watch the video content have different preferences for scenes and contents of the video content. Because ready-made content provides only content determined by editing, it is difficult to maximize satisfaction of various viewers having different preferences.
근래에 개발된 센싱(sensing) 장비들은 실시간으로 사용자의 얼굴(또는, 표정), 동작 또는 음성 등을 인식할 수 있으며, 상기의 인식에 기반하여 증강현실 또는 상호작용 서비스를 사용자에게 제공할 수 있다.Recently developed sensing devices can recognize a user's face (or facial expression), motion or voice in real time, and can provide augmented reality or interactive services to the user based on the recognition. .
한국공개특허 제10-2012-0012627호(공개일 2012년 02월 12일) 및 제10-2011-0136004(공개일 2011년 12월 21)에는 사용자의 얼굴을 인식하고, 인식된 사용자에 맞춰 증강현실 또는 상호작용 서비스를 제공하는 방법이 개시되어 있다.Korean Patent Publication Nos. 10-2012-0012627 (published February 12, 2012) and 10-2011-0136004 (published December 21, 2011) recognize a user's face and enhance the user's face. A method of providing real or interactive services is disclosed.
일 실시예는 동영상을 시청하는 사용자의 반응에 따라 동영상의 재생을 제어하는 장치 및 방법을 제공할 수 있다.An embodiment may provide an apparatus and a method for controlling playback of a video according to a reaction of a user who views the video.
일 실시예는 서로 상이한 분량을 갖는 복수 개의 편집 본들을 포함하는 동영상을 생성하는 장치 및 방법을 제공할 수 있다.An embodiment may provide an apparatus and a method for generating a video including a plurality of edited copies having different amounts.
일 측에 따르면, 전자 장치가 사용자에게 동영상을 제공하는 방법에 있어서, 상기 사용자가 상기 동영상을 시청할 수 있도록 상기 동영상을 재생하는 단계, 상기 사용자의 동작에 기인하여 발생한 물리적 현상을 식별하는 단계, 상기 물리적 현상에 기반하여 상기 사용자의 상기 동영상에 대한 반응을 추정하는 단계 및 상기 추정된 반응에 기반하여 상기 동영상의 재생을 제어하는 단계를 포함하는 동영상 제공 방법이 제공된다.According to one side, the electronic device provides a video to a user, the method comprising: playing the video so that the user can watch the video, identifying a physical phenomenon caused by the user's operation, the There is provided a video providing method comprising estimating a response of the user to the video based on a physical phenomenon and controlling the playback of the video based on the estimated response.
상기 물리적 현상은 상기 사용자의 신체 상의 변화, 상기 사용자의 시청 환경 상의 변화 및 상기 사용자의 동작에 의해 발생한 물리적인 변화 중 하나 이상일 수 있다.The physical phenomenon may be one or more of a change in the body of the user, a change in the viewing environment of the user, and a physical change caused by the user's motion.
상기 감지하는 단계는, 상기 전자 장치 주위의 물리적 상태를 감지함으로써 제1 물리적 상태에 대한 정보를 생성하는 단계, 상기 제1 물리적 상태에 대한 정보가 감지된 후 상기 전자 장치 주위의 물리적 상태를 감지함으로써 제2 물리적 상태에 대한 정보를 생성하는 단계 및 상기 제1 물리적 상태에 대한 정보 및 상기 제2 물리적 상태에 대한 정보 간의 차이에 기반하여 상기 물리적 현상을 식별하는 단계를 포함할 수 있다.The detecting may include generating information about a first physical state by sensing a physical state around the electronic device, and after sensing information about the first physical state by sensing the physical state around the electronic device. Generating information about a second physical state and identifying the physical phenomenon based on a difference between the information about the first physical state and the information about the second physical state.
상기 제어는 상기 재생의 속도의 조절일 수 있다.The control may be an adjustment of the speed of the regeneration.
상기 추정된 반응은 상기 사용자가 상기 동영상을 시청하는지 여부 및 상기 사용자가 상기 동영상의 시청에 집중하는지 여부 중 하나 이상을 포함할 수 있다.The estimated response may include one or more of whether the user watches the video and whether the user focuses on viewing the video.
상기 제어는 상기 추정된 반응이 상기 사용자가 상기 동영상을 시청하지 않는 것을 나타낼 때 상기 동영상의 재생을 중단시키는 제어 및 상기 추정된 반응이 상기 사용자가 상기 동영상을 시청하는 것을 나타낼 때 상기 동영상의 재생을 재개하는 제어일 수 있다.The control controls playback of the video when the estimated response indicates that the user is not watching the video and playback of the video when the estimated response indicates that the user is watching the video. It may be control to resume.
상기 제어는 추정된 반응이 상기 사용자가 상기 동영상의 시청에 집중한다는 것을 나타낼 때, 상기 동영상 중 상기 사용자가 집중한 부분에 관련된 부분의 재생 시간을 증가시키는 제어 및 상기 추정된 반응이 상기 사용자가 상기 동영상의 시청에 집중하지 않는다는 것을 나타낼 때, 상기 동영상 중 상기 사용자가 집중하지 않은 부분에 관련된 부분의 재생 시간을 감소시키는 제어일 수 있다.The control is such that when the estimated response indicates that the user concentrates on the viewing of the video, the control to increase the playing time of the portion of the video related to the portion of the user's concentration and the estimated response is determined by the user. When indicating that the user does not concentrate on viewing of the video, the control may reduce a play time of a portion related to the portion of the video not focused by the user.
상기 동영상은 복수 개의 카테고리들로 분류될 수 있다.The video may be classified into a plurality of categories.
상기 동영상은 하나 이상의 편집 본들을 포함할 수 있다.The video may include one or more edits.
상기 재생 시간을 증가시키는 제어 및 상기 재생 시간을 감소시키는 제어는 하나 이상의 편집 본들 중 재생할 편집 본을 선택함으로써 수행될 수 있다.Control to increase the reproduction time and control to decrease the reproduction time may be performed by selecting an edited copy to be reproduced from one or more edited copies.
상기 선택은 상기 복수 개의 카테고리들 중 상기 집중한 부분 또는 상기 집중하지 않은 부분이 속하는 카테고리에 대해 적용될 수 있다.The selection may be applied to a category to which the concentrated portion or the non-focused portion belongs among the plurality of categories.
상기 복수 개의 카테고리들 및 상기 하나 이상의 촬영 본들에 대한 정보는 상기 동영상의 전자 프로그램 가이드(Electronic Program Guide; EPG)를 통해 제공될 수 있다.Information about the plurality of categories and the one or more shots may be provided through an electronic program guide (EPG) of the video.
다른 일 측에 따르면, 전자 장치를 통해 사용자에게 동영상을 제공하는 프로그램이 기록되어 있는 기록 매체에 있어서, 상기 사용자가 상기 동영상을 시청할 수 있도록 상기 동영상을 재생하는 재생 코드, 상기 사용자의 동작에 기인하여 발생한 물리적 현상을 식별하는 식별 코드, 상기 물리적 현상에 기반하여 상기 사용자의 상기 동영상에 대한 반응을 추정하는 추정 코드 및 상기 추정된 반응에 기반하여 상기 동영상의 재생을 제어하는 제어 코드를 포함하는 프로그램이 기록된, 컴퓨터에서 판독 가능한 기록 매체가 제공될 수 있다.According to another aspect, a recording medium in which a program for providing a video to a user through an electronic device is recorded, wherein the playback code reproduces the video so that the user can watch the video, A program including an identification code for identifying a physical phenomenon that has occurred, an estimation code for estimating a response of the user to the video based on the physical phenomenon, and a control code for controlling playback of the video based on the estimated response; A computer-readable recording medium that has been recorded can be provided.
또 다른 일 측에 따르면, 사용자에게 동영상을 제공하는 전자 장치에 있어서, 상기 사용자가 상기 동영상을 시청할 수 있도록 상기 동영상을 재생하고, 상기 사용자의 동작에 기인하여 발생한 물리적 현상을 식별하고, 상기 물리적 현상에 기반하여 상기 사용자의 상기 동영상에 대한 반응을 추정하고, 상기 추정된 반응에 기반하여 상기 동영상의 재생을 제어하는 처리부 및 상기 동영상을 출력하는 출력부를 포함하는, 전자 장치가 제공될 수 있다.According to another aspect of the present invention, in an electronic device for providing a video to a user, the video is reproduced so that the user can watch the video, the physical phenomenon generated due to the user's operation is identified, and the physical phenomenon The electronic device may include a processor configured to estimate a response of the user to the video based on the control unit, and control a playback of the video based on the estimated response, and an output unit to output the video.
또 다른 일 측에 따르면, 전자 장치가 촬영에 의해 생성된 동영상의 촬영 본을 편집함으로써 상기 동영상에 대한 시청자의 반응에 따라 재생되는 내용이 변경될 수 있는 상기 동영상의 편집 본을 생성하는 방법에 있어서, 상기 동영상의 촬영 본의 내용에 기반하여 상기 내용에 따라 각각 구분되는 복수 개의 카테고리들을 결정하는 단계, 상기 복수 개의 카테고리 각각에 대해 복수 개의 편집 본들 각각에서의 재생 시간을 결정하는 단계, 상기 촬영 본의 내용 중 일부를 선택함으로써 상기 복수 개의 카테고리 각각에 대해 상기 복수 개의 편집 본들 각각의 내용을 결정하는 단계 및 상기 복수 개의 카테고리들의 상기 복수 개의 편집 본들의 내용들을 결합함으로써 상기 시청자의 반응에 따라 상기 복수 개의 카테고리들 각각에 대해 상기 복수 개의 편집 본들 중 하나의 편집 본이 재생될 수 있는 상기 동영상의 편집 본을 생성하는 단계를 포함하는, 동영상의 편집 본 생성 방법이 제공된다.According to another aspect of the present invention, there is provided a method for generating an edited copy of a video in which an electronic device may change a content played according to a viewer's reaction to the video by editing a photographed copy of a video generated by photographing. Determining a plurality of categories, each of which is divided according to the contents based on the contents of the photographed text of the video, determining a reproduction time in each of the plurality of edited texts for each of the plurality of categories, the photographed text Determining the content of each of the plurality of edits for each of the plurality of categories by selecting some of the contents of the plurality of contents and combining the contents of the plurality of edits of the plurality of categories according to the viewer's response The plurality of edits for each of the four categories A method of generating an edited copy of a video is provided, the method including generating an edited copy of the video on which an edited copy of one of the bones can be played.
상기 복수 개의 편집 본들은 기본 편집 본, 최소 편집 본 및 최대 편집 본을 포함할 수 있다.The plurality of edited texts may include a basic edited text, a minimum edited text, and a maximum edited text.
상기 최대 편집 본의 재생 시간은 상기 기본 편집 본의 재생 시간 이상일 수 있다.The reproduction time of the maximum edited copy may be greater than or equal to the reproduction time of the basic edited copy.
상기 기본 편집 본의 재생 시간은 상기 최소 편집 본의 재생 시간 이상일 수 있다.The reproduction time of the basic edited copy may be equal to or greater than the reproduction time of the minimum edited copy.
상기 기본 편집 본의 내용은 상기 동영상이 편집 본의 재생이 상기 시청자의 반응에 따라 제어되지 않을 때 기본적으로 재생되는 내용일 수 있다.The basic edited content may be content that is basically played when the video is not controlled according to the response of the viewer.
상기 복수 개의 카테고리들은 각각 상기 동영상 내에서 특정한 출연자가 메인으로 출연하는 장면을 나타낼 수 있다.Each of the plurality of categories may represent a scene in which a specific performer appears in the main video.
또 다른 일 측에 따르면, 촬영에 의해 생성된 동영상의 촬영 본을 편집함으로써 상기 동영상에 대한 시청자의 반응에 따라 재생되는 내용이 변경될 수 있는 상기 동영상의 편집 본을 생성하는 전자 장치에 있어서, 상기 동영상의 촬영 본의 내용에 기반하여 상기 내용에 따라 각각 구분되는 복수 개의 카테고리들을 결정하고, 상기 복수 개의 카테고리 각각에 대해 복수 개의 편집 본들 각각에서의 재생 시간을 결정하고, 상기 촬영 본의 내용 중 일부를 선택함으로써 상기 복수 개의 카테고리 각각에 대해 상기 복수 개의 편집 본들 각각의 내용을 결정하고, 상기 복수 개의 카테고리들의 상기 복수 개의 편집 본들의 내용들을 결합함으로써 상기 시청자의 반응에 따라 상기 복수 개의 카테고리들 각각에 대해 상기 복수 개의 편집 본들 중 하나의 편집 본이 재생될 수 있는 상기 동영상의 편집 본을 생성하는 처리부; 및 상기 동영상의 촬영 본 및 상기 동영상의 편집 본을 저장하는 저장부를 포함하는, 전자 장치가 제공된다.According to another aspect of the present invention, an electronic device for generating an edited copy of a video in which content played back according to a viewer's reaction to the video may be changed by editing a photographed copy of a video generated by photographing. Determine a plurality of categories, each of which is divided according to the contents based on the contents of the photographed text of the video, determine a reproduction time in each of the plurality of edited texts for each of the plurality of categories, and a part of the contents of the photographed text Determine the content of each of the plurality of edited texts for each of the plurality of categories, and combine the contents of the plurality of edited texts of the plurality of categories to each of the plurality of categories according to the viewer's response. For one of the plurality of edited editions A processing unit which generates an edited copy of the video that can be played back; And a storage unit which stores a photographed copy of the video and an edited copy of the video.
동영상을 시청하는 사용자의 반응에 따라 동영상의 재생을 제어하는 장치 및 방법이 제공된다.An apparatus and method for controlling playback of a video in response to a user's response to the video is provided.
서로 상이한 분량을 갖는 복수 개의 편집 본들을 포함하는 동영상을 생성하는 장치 및 방법이 제공된다.An apparatus and method are provided for generating a moving picture including a plurality of edited copies having different amounts.
도 1은 일 실시예에 따른 전자 장치의 구조도이다.
도 2는 일 실시예에 따른 사용자의 반응에 기반하여 동영상의 재생을 제어하는 방법의 흐름도이다.
도 3은 일 실시예에 따른 센싱부의 구조도이다.
도 4는 일 예에 따른 물리적 현상, 추정된 반응 및 동영상의 제어 간의 관계를 나타낸다.
도 5는 일 예에 따른 물리적 현상을 식별하는 방법을 설명하는 흐름도이다.
도 6은 일 예에 따른 동영상의 구성을 설명한다.
도 7은 일 예에 따른 동영상을 생성하는 전자 장치의 구조도이다.
도 8은 일 예에 따른 동영상을 생성하는 방법의 흐름도이다.
도 9는 일 예에 따른 편집 프로그램의 로그인 GUI를 나타낸다.
도 10은 일 예에 따른 동영상의 정보를 불러오는 GUI를 나타낸다.
도 11은 일 예에 따른 편집 가이드라인을 입력하는 GUI를 나타낸다.
도 12는 일 예에 따른 편집 가이드 시간을 입력하는 GUI를 나타낸다.
도 13은 일 예에 따른 입력된 편집 가이드 시간을 출력하는 GUI를 나타낸다.
도 14는 일 예에 따른 특정한 PD가 편집할 카테고리들의 편집 가이드 시간을 출력하는 GUI를 나타낸다.
도 15는 일 예에 따른 특정한 PD가 편집 담당으로 지정된 내용이 편집된 결과를 출력하는 GUI를 나타낸다.
도 16은 일 실시예에 따른 동영상을 제공하는 서버의 구조도이다.1 is a structural diagram of an electronic device according to an embodiment.
2 is a flowchart of a method of controlling playback of a video based on a response of a user, according to an exemplary embodiment.
3 is a structural diagram of a sensing unit according to an exemplary embodiment.
4 illustrates a relationship between a physical phenomenon, an estimated response, and control of a video according to an example.
5 is a flowchart illustrating a method of identifying a physical phenomenon according to an example.
6 illustrates a configuration of a video according to an example.
7 is a structural diagram of an electronic device that generates a video, according to an embodiment.
8 is a flowchart of a method of generating a video, according to an example.
9 illustrates a login GUI of an editing program according to an example.
10 illustrates a GUI for loading information of a video, according to an embodiment.
11 illustrates a GUI for inputting an editing guideline according to an example.
12 illustrates a GUI for inputting an editing guide time according to an example.
13 illustrates a GUI for outputting an input editing guide time according to an example.
14 illustrates a GUI for outputting an editing guide time of categories to be edited by a specific PD according to an example.
15 illustrates a GUI for outputting a result of editing of a content designated by a specific PD to be in charge of editing according to an embodiment.
16 is a structural diagram of a server providing a video, according to an exemplary embodiment.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
In the following, embodiments will be described in detail with reference to the accompanying drawings. Like reference symbols in the drawings denote like elements.
도 1은 일 실시예에 따른 전자 장치의 구조도이다.1 is a structural diagram of an electronic device according to an embodiment.
전자 장치(100)는 동영상을 재생할 수 있는 영상 처리 장치일 수 있다. 전자 장치(100)는 사용자에게 동영상을 제공할 수 있다. 여기서, 동영상의 제공은, 사용자가 동영상을 시청할 수 있도록 동영상을 표시하거나, 동영상을 표시하기 위한 정보를 출력하는 것을 의미할 수 있다.The
전자 장치(100)는 센싱부(110), 입력부(120), 처리부(130), 네트워킹부(140), 저장부(150) 및 출력부(160)를 포함할 수 있다.The
센싱부(110)는 물리적 현상 또는 물리적 상태을 감지할 수 있다. 즉, 센싱부(110)에 의해 생성되는 정보는 특정한 물리적 현상 또는 물리적 상태를 나타낼 수 있다. 물리적 현상은 전자 장치(100)의 주위에서 발생한 물리적 현상일 수 있다. 물리적 상태는 전자 상태(100)의 주위의 물리적 상태일 수 있다. 여기서, 전자 장치(100)의 주위는, 1) 전자 장치(100)의 위치를 중심으로 갖는, 2) 센싱부(110)가 물리적 현상을 감지할 수 있는 범위를 의미할 수 있다.The
센싱부(110)는 물리적 현상 또는 물리적 상태를 감지함으로써 물리적 현상 또는 물리적 상태를 나타내는 감지 정보를 생성할 수 있다. 즉, 하기에서, 물리적 현상 또는 물리적 상태를 나타내는 정보는 센싱부(110)의 센싱(sensing)에 의해 생성된 정보를 의미할 수 있다.The
물리적 현상 또는 물리적 상태는 사용자의 동작에 기인하여 발생할 수 있다. 사용자의 동작은 사용자가 전자 장치(100)에 의해 제공되는 동영상을 시청하면서 취한 동작일 수 있다. 사용자는 동영상을 시청하면서 상기의 동영상에 대해 어떤 반응을 나타낼 수 있다. 말하자면, 사용자의 동작은 사용자의 동영상에 대한 반응을 나타낼 수 있다. 사용자의 반응 또는 사용자의 동작은 전자 장치(100)의 주위의 물리적 상태를 변화시킬 수 있으며, 물리적 현상을 발생시킬 수 있다.Physical phenomenon or physical state may occur due to the user's operation. The operation of the user may be an operation that the user takes while watching a video provided by the
입력부(120)는 전자 장치(100)를 제어하기 위한 사용자의 입력을 수신할 수 있다. 여기서, 사용자는 전자 장치(100)가 재생하는 동영상의 시청자일 수 있다.The
입력부(120)는 전자 장치(100)에 부착된 버튼(button), 터치 스크린(touch screen)일 수 있고, 키보드(keyboard), 마우스(mouse) 및 리모콘(remocon) 등과 같은 장치일 수 있고, 블루투스(bluetooth) 동글(dongle) 및 적외선(InfraRed; IR) 수신기(receiver) 등과 같은 수신 장치일 수 있다.The
처리부(130)는 사용자가 동영상을 시청할 수 있도록 동영상을 재생할 수 있다.The processor 130 may play the video so that the user can watch the video.
처리부(130)는 물리적 현상을 식별할 수 있다. 여기서, 물리적 현상은 사용자의 동작에 기인하여 발생할 수 있다. 물리적 현상은 센싱부(110)에 의해 감지된 정보를 의미할 수 있다. 상기의 정보는 전자 장치(100)의 주위에서 발생한 물리적 현상에 대한 정보일 수 있다.The processor 130 may identify a physical phenomenon. Here, the physical phenomenon may occur due to the user's motion. The physical phenomenon may refer to information detected by the
물리적 현상은 서로 상이한 시점에서 센싱부(110)에 의해 감지된 물리적 상태들 간의 차이를 의미할 수 있다. 따라서, 물리적 현상은 물리적 변화를 포함할 수 있다. 제어부(130)는 서로 상이한 시점에서 센싱부(110)에 의해 감지된 물리적 상태들 간의 차이에 기반하여 물리적 현상을 식별할 수 있다. The physical phenomenon may mean a difference between physical states sensed by the
처리부(130)는 물리적 현상에 기반하여 사용자의 동영상에 대한 반응을 추정할 수 있다. 즉, 처리부(130)는 사용자의 동작에 기인하여 발생한 물리적 현상을 분석함으로써 사용자의 동영상에 대한 반응을 추정할 수 있다.The processor 130 may estimate the user's response to the video based on the physical phenomenon. That is, the processor 130 may estimate the user's response to the video by analyzing the physical phenomenon caused by the user's motion.
처리부(130)는 추정된 반응에 기반하여 동영상의 재생을 제어할 수 있다. 또한, 처리부(130)는 동영상의 재생에 관련된 제어를 수행할 수 있다. 예컨대, 처리부(130)는 동영상의 자막의 출력을 제어할 수 있다. 제어부(130)는 동영상에 적용되는 필터(filter)를 제어할 수 있으며, 동영상의 소리를 제어할 수 있다. 제어부(130)는 밝기(brightness) 및 대비(contrast) 등과 같은 동영상의 속성을 제어할 수 있다.The processor 130 may control the playback of the video based on the estimated response. In addition, the processor 130 may perform control related to playing the video. For example, the processor 130 may control the output of the caption of the video. The controller 130 may control a filter applied to the video and may control the sound of the video. The controller 130 may control properties of a video such as brightness and contrast.
처리부(130)는 적어도 하나의 프로세서(processor) 또는 프로세서 내의 적어도 하나의 코어(core)일 수 있다.The processor 130 may be at least one processor or at least one core in the processor.
네트워킹부(140)는 콘텐츠 서버로부터 동영상을 수신할 수 있다. 네트워킹부(140)는 전자 프로그램 가이드(Electronic Program Guide; EPG) 서버로부터 동영상의 EPG 정보를 수신할 수 있다. 네트워킹부(140)는 수신된 동영상 및 EPG 정보를 처리부(130)에게 제공할 수 있다.The
네트워킹부(140)는 네트워트(network) 인터페이스(interface) 카드(card), 네트워크 인터페이스 칩(chip) 및 네트워킹 인테페이스 포트(port) 등와 같은 하드웨어(hardware) 모듈(module)일 수 있고, 네트워크 디바이스(device) 드라이버(driver) 또는 네트워킹 프로그램과 같은 소프트웨어(software) 모듈일 수 있다.The
저장부(150)는 동영상 및 전자 장치(100)의 설정에 관련된 정보를 저장할 수 있다.The
저장부(150)는 하드 디스크 드라이브(Hard Disk Drive; HDD), 솔리드 스테이트 드라이브(Solid State Drive; SSD), 램(Random Access Memory; RAM) 및 플래시(flash) 등과 같은 정보 저장을 위한 하드웨어 모듈일 수 있고, 데이터베이스(Database), 파일(file) 시스템 및 테이블(table) 등과 같은 정보 저장을 위한 소프트웨어 모듈일 수 있다.The
출력부(160)는 처리부(130)에 의해 재생되는 동영상을 출력할 수 있다.The
출력부(160)는 동영상을 표시하는 디스플레이(display)일 수 있다. 출력부(160)는 모니터(monitor), 액정(Liquid Crystal Display; LCD), 발광 다이오드(Light Emitting Diode; LED) 및 유기 발광 다이오드(Organic Light Emitting Diode; OLED) 등일 수 있다. 출력부(160)는 동영상을 표시하기 위한 정보를 디스플레이(display)에게 제공할 수 있다. 출력부(160)는 에이치디엠아이(High Definition Multimedia Interface) 포트(port), 디스플레이(display) 포트, 디지털 비쥬얼 인터페이스(Digital Visual Interface; DVI) 포트 등 동영상을 표시하기 위한 정보를 출력하는 포트일 수 있다. 출력부(160)는 비디오 카드 등의 동영상을 표시하기 위한 정보를 출력하는 하드웨어 모듈일 수 있다.The
전술된 "물리적 상태"는 센싱부(110)에 의해 수집된 정보 또는 센싱부(110)의 센서에 의해 수집된 정보를 의미할 수 있다. 또한, "물리적 현상"은 센싱부(110)에 의해 수집된 정보의 변화 또는 센싱부(110)의 센서에 의해 수집된 정보 또는 상기의 정보의 변화를 의미할 수 있다.
The above-described "physical state" may refer to information collected by the
도 2는 일 실시예에 따른 사용자의 반응에 기반하여 동영상의 재생을 제어하는 방법의 흐름도이다.2 is a flowchart of a method of controlling playback of a video based on a response of a user, according to an exemplary embodiment.
단계(210)에서, 처리부(130)는 재생할 동영상을 결정할 수 있다.In
단계(210)는 단계(211) 및 단계(212) 중 하나 이상을 포함할 수 있다.Step 210 may include one or more of
단계(211)에서, 네트워킹부(140)는 동영상 서버로부터 동영상을 수신할 수 있다. 예컨대 동영상이 방송 프로그램인 경우, 네트워킹부(140)는 동영상 서버 또는 EPG 서버로부터 동영상의 EPG 정보를 수신할 수 있다. EPG 정보는 동영상을 사용자의 동영상에 대한 반응에 기반하여 동영상의 재생을 제어하기 위한 정보를 포함할 수 있다.In
단계(212)에서, 저장부(150)는 저장된 동영상을 제공할 수 있다.In
단계(220)에서, 처리부(130)는 사용자가 동영상을 시청할 수 있도록 동영상을 재생할 수 있다.In
단계(220)에서, 처리부(130)는 재생되는 동영상이 사용자의 동영상에 대한 반응에 기반하여 제어될 수 있는 동영상인지 여부를 출력부(160)를 통해 출력할 수 있다. 또한, 처리부(130)는 입력부(120)를 통해 동영상에 대한 반응에 기반하여 동영상의 재생을 제어할 것인지 여부에 대한 사용자의 입력을 수신할 수 있다.In
단계(230)에서, 처리부(130)는 사용자의 동작에 기인하여 발생한 물리적 현상을 식별할 수 있다. 처리부(130)는 센싱부(110)가 감지한 물리적 상태에 기반하여 물리적 현상을 식별할 수 있다. 물리적 현상의 식별은, 센싱부(110)가 전자 장치(100) 주위의 물리적 상태를 감지함으로써 감지 정보를 생성하는 것을 의미할 수 있다.In
단계(230)는 단계들(231 내지 233)을 포함할 수 있다.Step 230 may include
단계(231)에서, 센싱부(110)는 전자 장치(100) 주위의 물리적 상태를 감지함으로써 제1 물리적 상태에 대한 정보를 생성할 수 있다. 제1 물리적 상태에 대한 정보는 제1 시각에서의 물리적 상태를 나타내는 정보일 수 있다.In
단계(232)에서, 센싱부(110)는, 제1 물리적 상태에 대한 정보를 감지한 후, 전자 장치(100) 주위의 물리적 상태를 감지함으로써 제2 물리적 상태에 대한 정보를 생성할 수 있다. 제2 물리적 상태에 대한 정보는 제2 시각에서의 물리적 상태를 나타내는 정보일 수 있다. 제2 시각은 제1 시각의 이후의 시각일 수 있다.In
단계(233)에서, 처리부(130)는 제1 물리적 상태에 대한 정보 및 제2 물리적 상태에 대한 정보 간의 차이에 기반하여 물리적 현상을 식별할 수 있다. 처리부(130)는 제1 물리적 상태에 대한 정보 및 제2 물리적 상태를 비교함으로써 물리적 현상을 식별할 수 있다. 즉, 물리적 현상은 제1 물리적 상태 및 제2 물리적 상태 간의 물리적 변화일 수 있다.In operation 233, the processor 130 may identify a physical phenomenon based on a difference between the information about the first physical state and the information about the second physical state. The processor 130 may identify the physical phenomenon by comparing the information about the first physical state and the second physical state. In other words, the physical phenomenon may be a physical change between the first physical state and the second physical state.
처리부(130)는 제1 물리적 상태에 대한 정보, 제2 물리적 상태에 대한 정보 또는 물리적 변화에 대한 정보를 저장부(150) 내에 저장할 수 있다.The processor 130 may store the information about the first physical state, the information about the second physical state, or the information about the physical change in the
단계(240)에서, 처리부(130)는 물리적 현상에 기반하여 사용자의 동영상에 대한 반응을 추정할 수 있다. 처리부(130)는 사용자의 동영상에 대한 반응을 추정함에 있어서 사용자 선호도(preference)를 참조할 수 있다. 예컨대, 사용자 선호도는 사용자의 동영상의 반응에 기반하여 동영상의 재생을 제어하지 않을 것을 나타낼 수 있다. 저장부(150)는 설정된 사용자 선호도 또는 사용자 선호도의 프리셋(preset)을 처리부(130)에게 제공할 수 있다. 사용자 선호도의 프리셋은 사용자 선호도가 설정되지 않았을 때 디폴트(default)로 사용되는 값을 의미할 수 있다.In
단계(250)에서, 처리부(130)는 추정된 반응에 기반하여 동영상의 재생을 제어할 수 있다.
In
도 3은 일 실시예에 따른 센싱부의 구조도이다.3 is a structural diagram of a sensing unit according to an exemplary embodiment.
센싱부(110)는 적어도 하나의 센서(sensor)(310)를 포함할 수 있다. 예컨대, 적어도 하나의 센서(310)는 각각 카메라(camera)(311), 마이크로폰(microphone)(312), 근접 센서(313), 조도 센서(314), 중력 센서(315), 전역 위치 시스템(Global Position System; GPS) 센서(316), 자이로스코프(gyroscope)(317) 및 적외선 센서(318) 중 하나의 센서일 수 있다.The
센싱부(110)는 상기의 적어도 하나의 센서를 제어하는 센서 제어부(320)를 포함할 수 있다.
The
하기에서, 각 센서가 감지할 수 있는 물리적 상태 및 상기의 물리적 상태에 기반하여 식별되는 물리적 현상을 설명한다.In the following, the physical state that each sensor can sense and the physical phenomenon identified based on the physical state will be described.
1) 카메라1) camera
카메라(311)는 영상을 촬영할 수 있다. 물리적 상태는 카메라(311)에 의해 촬영된 카메라 전방의 영상일 수 있다. 물리적 현상은 서로 상이한 시각에서 촬영된 영상들에서 나타나는 영상의 변화일 수 있다.The
일반적으로, 사용자는 카메라(311)의 전방에 위치한다. 따라서, 영상 또는 영상의 일부는 사용자의 얼굴을 나타낼 수 있다. 처리부(130)는 촬영된 영상 내에서 사용자의 얼굴을 인식할 수 있다. 물리적 상태는 인식된 사용자의 얼굴일 수 있다. 물리적 현상은 사용자의 얼굴의 변화 또는 사용자의 표정의 변화일 수 있다.In general, the user is located in front of the
2) 마이크로폰2) microphone
마이크로폰(312)은 소리를 인식할 수 있다. 물리적 상태는 마이크로폰(312)에 의해 인식된 소리 또는 소리의 크기일 수 있다. 물리적 현상은 서로 상이한 시각에서 인식된 소리들에서 나타나는 소리의 변화 또는 소리의 크기의 변화일 수 있다.The
일반적으로, 사용자는 마이크로폰(312)의 주위에 있다. 따라서, 감지된 소리는 사용자의 음성 또는 사용자의 박수를 나타낼 수 있다. 처리부(130)는 감지된 소리 내에서 사용자의 음성 또는 사용자의 박수를 인식할 수 있다. 물리적 상태는 인식된 사용자의 음성, 사용자의 음성이 인식되었는지 여부 또는 사용자의 박수일 수 있다. 물리적 현상은 서로 상이한 시각에시 인식된 사용자의 음성들에서 나타나는 사용자의 음성의 변화, 사용자의 음성이 인식되었는지 여부의 변화 또는 사용자의 음성의 크기의 변화일 수 있다. 물리적 현상은 사용자가 박수를 치는지 여부의 변화 또는 사용자의 박수의 크기의 변화일 수 있다. 상기의 설명에서, "박수"는 "웃음 소리"로 대체될 수 있다.In general, the user is around
3) 근접 센서3) proximity sensor
근접 센서(313)는 근접 센서(313)에 근접한 객체(object)를 감지할 수 있다. 근접이란 객체가 근접 센서(313)가 감지할 수 있는 일정한 범위 내에 존재하는 상태를 의미할 수 있다. 물리적 상태는 1) 근접 센서(313)에 근접한 객체가 있는지 여부 또는 2) 객체 및 근접 센서(313)간의 거리일 수 있다. 물리적 현상은 1) 근접 센서(313)에 근접한 객체가 있는지 여부의 변화 또는 2) 객체 및 근접 센서(313) 간의 거리의 변화일 수 있다.The
4) 조도 센서4) Ambient light sensor
조도 센서(314)는 조도 센서(314)로 비추어지는 빛의 밝기(즉, 조도)를 감지할 수 있다. 물리적 상태는 인식된 빛의 밝기일 수 있다. 물리적 현상은 서로 상이한 시각에서 인식된 빛의 밝기들에서 나타나는 빛의 밝기의 변화일 수 있다.The
5) 중력 센서5) gravity sensor
중력 센서(315)는 중력이 중력 센서(315)에게 가해지는 방향을 감지할 수 있다. 물리적 상태는 중력이 가해지는 방향일 수 있다. 물리적 현상은 중력이 가해지는 방향의 변화일 수 있다.The
6) GPS 센서6) GPS sensor
GPS 센서(316)는 GPS 센서(316)의 위치를 감지할 수 있다. 물리적 상태는 GPS 센서(316)의 위치일 수 있다. 물리적 현상은 GPS 센서(316)의 위치의 변화일 수 있다.The
사용자는 GPS 센서(316)를 가지고 있을 수 있다. 또는, GPS 센서(316)는 사용자에게 부착될 수 있다. 따라서, GPS 센서가 감지하는 위치는 사용자의 위치일 수 있다. 물리적 상태는 사용자의 위치일 수 있다. 물리적 현상은 사용자의 위치의 변화일 수 있다.The user may have a
7) 자이로스코프7) Gyroscope
자이로스코프(317)는 자이로크코프 센서(317)의 3차원 운동을 감지할 수 있다. 여기서, 3차원 운동은 이동, 이동 방향, 이동 속도 및 이동 가속도를 포함할 수 있다. 물리적 상태는 자이로스코프(317)의 3차원 운동일 수 있다. 물리적 현상은 자이로스코프(317)의 3차원 운동의 변화일 수 있다.The
시청자는 자이로스코프(317) 또는 자이로스코프(317)를 구비하는 장치를 조작할 수 있다. 자이로스코프(317)의 3차원 운동은 상기의 조작에 의해 발생할 수 있다. 따라서, 물리적 상태는 사용자의 움직임 또는 사용자의 제스처(gesture)일 수 있다. 물리적 현상은 사용자의 움직임의 변화 또는 사용자의 제스처의 변화일 수 있다.The viewer can operate a
8) 적외선 센서8) infrared sensor
적외선 센서(318)는 발광부 및 수광부를 포함할 수 있다. 발광부는 적외선을 출력할 수 있고, 수광부는 출력된 적외선을 수신할 수 있다. 발광부 및 수광부 사이에 물체가 존재하면 적외선은 물체에 의해 차단되고, 수광부는 적외선을 수신할 수 없다.The
물리적 상태는 수광부가 적외선을 수신하는지 여부일 수 있다. 물리적 현상은 수광부가 적외선을 수신하는지 여부의 변화일 수 있다.The physical state may be whether the light receiver receives infrared rays. The physical phenomenon may be a change in whether the light receiver receives infrared rays.
물리적 현상은 물리적 현상이 나타내는 물리적 상태의 증가 및 물리적 상태의 감소를 나타낼 수 있다. 예컨대, "소리의 크기의 변화"는 소리의 크기의 증가 및 소리의 크기의 감소를 나타낼 수 있다. 또한, 물리적 현상은 물리적 현상이 나타내는 물리적 상태의 유무를 나타낼 수 있다. 예컨대, "사용자의 음성이 인식되었는지 여부의 변화"는 사용자의 음성이 인식되었다는 것과 사용자의 음성이 인식되지 않았다는 것을 의미할 수 있다.
Physical phenomena may represent an increase in the physical state represented by the physical phenomenon and a decrease in the physical state. For example, "change in loudness" may indicate an increase in loudness and a decrease in loudness. In addition, the physical phenomenon may indicate the presence or absence of a physical state represented by the physical phenomenon. For example, “change of whether or not the user's voice has been recognized” may mean that the user's voice has been recognized and that the user's voice has not been recognized.
전술된 물리적 현상은 3 개의 카테고리(category)로 분류될 수 있다. 물리적 현상은 사용자의 신체 상의 변화, 사용자의 시청 환경 상의 변화 및 사용자의 동작에 의해 발생한 물리적인 변화 중 하나 이상을 포함할 수 있다.The above-mentioned physical phenomena can be classified into three categories. The physical phenomenon may include one or more of a change in the user's body, a change in the viewing environment of the user, and a physical change caused by the user's motion.
사용자의 신체 상의 변화로서, 1) 사용자의 얼굴의 변화, 2) 사용자의 표정의 변화 등이 해당될 수 있다.As a change in the user's body, it may correspond to 1) a change in the face of the user, 2) a change in the facial expression of the user, and the like.
사용자의 시청 환경 상의 변화로서, 1) 근접 센서에 근접한 객체가 있는지 여부의 변화, 2) 객체 및 근접 센서 간의 거리의 변화, 빛의 밝기의 변화 및 3) 적외선 센서의 수광부가 적외선을 수신하는지 여부의 변화 등이 해당될 수 있다.As a change in the viewing environment of a user, 1) whether there is an object in proximity to a proximity sensor, 2) a change in distance between an object and a proximity sensor, a change in brightness of light, and 3) whether the light receiving unit of the infrared sensor receives infrared rays. The change may correspond to.
사용자의 동작에 의해 발생한 물리적인 현상으로서, 1) 영상의 변화, 2) 소리의 변화, 3) 소리의 크기의 변화, 4) 사용자의 음성의 변화, 5) 사용자의 음성이 인식되었는지 여부의 변화, 6) 사용자의 음성의 크기의 변화, 7) 중력이 가해지는 방향의 변화, 8) GPS 센서의 위치의 변화, 9) 사용자의 위치의 변화, 10) 3차원 운동의 변화, 11) 사용자의 움직임의 변화 및 12) 사용자의 제스처의 변화 등이 해당될 수 있다.
Physical phenomena caused by the user's motion, including 1) changes in image, 2) changes in sound, 3) changes in sound volume, 4) changes in user's voice, and 5) changes in whether the user's voice is recognized. , 6) change in the size of the user's voice, 7) change in the direction in which gravity is applied, 8) change in the position of the GPS sensor, 9) change in the user's position, 10) change in the three-dimensional motion, 11) A change in movement and 12) a change in a user's gesture may correspond.
도 4는 일 예에 따른 물리적 현상, 추정된 반응 및 동영상의 제어 간의 관계를 나타낸다.4 illustrates a relationship between a physical phenomenon, an estimated response, and control of a video according to an example.
도 4에서, 처리부(130)가 식별한 물리적 현상, 처리부(130)가 물리적 현상에 기반하여 추정한 사용자의 동영상에 대한 반응 및 추정된 반응에 따라 처리부(130)가 수행하는 동영상의 재생에 대한 제어의 관계의 일 예가 설명되었다.In FIG. 4, the physical phenomenon identified by the processor 130, the response of the user's video estimated by the processor 130 based on the physical phenomenon, and the playback of the video performed by the processor 130 according to the estimated response are described. An example of the relationship of control has been described.
도 4에서 도시된 관계는 예시적인 것이다. 도 4에서 도시된 임의의 물리적 현상 항목은 임의의 추정된 반응 항목과 연결될 수 있으며, 임의의 추정된 반응 항목은 임의의 재생 제어 항목과 연결될 수 있다.The relationship shown in FIG. 4 is exemplary. Any physical phenomenon item shown in FIG. 4 may be associated with any estimated response item, and any estimated response item may be associated with any reproduction control item.
도 4에서 도시된 것과 같이, 추정된 반응은 사용자가 동영상을 시청하는지 여부, 사용자가 동영상의 시청에 집중하는지 여부, 동영상의 시청하는 시청자의 변화(증가 또는 감소), 시청 환경의 밝기의 변화(증가 또는 감소) 및 사용자의 위치의 변화 등을 포함할 수 있다.
As shown in FIG. 4, the estimated response is whether the user is watching the video, whether the user is focused on watching the video, the change (increase or decrease) of the viewing viewer of the video, the change in brightness of the viewing environment ( Increase or decrease) and a change in the location of the user.
하기에서, 물리적 현상 및 추정된 반응과의 연관 관계의 일 예를 설명한다.In the following, an example of the association between the physical phenomenon and the estimated reaction is described.
처리부(130)는 촬영된 영상의 변화를 식별함으로써 사용자가 동영상을 시청하지 않는다는 반응 또는 사용자가 동영상을 시청한다는 반응을 추정할 수 있다. 예컨대, 처리부(130)가 영상 내에서 사용자가 사라지는 것을 식별한 경우, 처리부(130)는 사용자가 동영상을 시청하지 않는다는 반응을 추정할 수 있다. 처리부(130)가 영상 내에서 사용자가 나타나는 것을 식별한 경우, 처리부(130)는 사용자가 동영상을 시청한다는 반응을 추정할 수 있다. 또한, 처리부(130)는 영상의 변화를 식별하면 영상의 변화의 구체적인 내용에 따라, 사용자가 동영상의 시청에 집중한다는 반응, 사용자가 동영상의 시청에 집중하지 않는다는 반응, 동영상을 시청하는 시청자가 증가하였다는 반응 및 동영상을 시청하는 사용자가 감소하였다는 반응 등을 추정할 수 있다.The processor 130 may estimate the response that the user does not watch the video or the response that the user watches the video by identifying the change of the captured image. For example, when the processor 130 identifies that the user disappears in the image, the processor 130 may estimate a response that the user does not watch the video. When the processor 130 identifies that the user appears in the image, the processor 130 may estimate a response that the user views the video. In addition, when the processor 130 identifies the change in the image, the response that the user concentrates on watching the video, the response that the user does not pay attention to the video, and the number of viewers who watch the video increases according to the specific content of the change in the image. Response, and a decrease in the number of users who watch the video can be estimated.
처리부(130)는 물리적 현상으로서, 사용자의 얼굴의 변화 또는 사용자의 표정의 변화를 식별하면, 상기의 얼굴의 변화 또는 표정의 변화의 구체적인 내용에 따라 사용자가 동영상의 시청에 집중한다는 반응 또는 사용자가 동영상의 시청에 집중하지 않는다는 반응을 추정할 수 있다.When the processor 130 identifies a change in the user's face or a change in the user's facial expression as a physical phenomenon, the response that the user concentrates on the viewing of the video or the user according to the specific content of the change in the face or the facial expression is changed. You can assume that you don't focus on watching the video.
처리부(130)는 물리적 현상으로서, 소리의 변화 또는 사용자의 음성의 변화를 식별하면 상기의 변화들 각각의 구체적인 내용에 따라 사용자가 동영상의 시청에 집중한다는 반응 또는 사용자가 동영상의 시청에 집중하지 않는다는 반응을 추정할 수 있다.When the processor 130 identifies a change in sound or a change in the voice of the user as a physical phenomenon, the response that the user concentrates on the viewing of the video or the user does not focus on the viewing of the video according to the specific contents of each of the above changes. The response can be estimated.
처리부(130)는 소리의 크기의 감소, 사용자의 음성의 크기의 감소 또는 사용자의 박수의 크기의 증가와 같은 물리적 현상을 식별하면 사용자가 동영상의 시청에 집중한다는 반응을 추정할 수 있으며, 소리의 크기의 증가, 사용자의 음성의 크기의 증가 또는 사용자의 박수의 크기의 감소와 같은 물리적 현상을 식별하면 사용자가 동영상의 시청에 집중하지 않는다는 반응을 추정할 수 있다.When the processor 130 identifies a physical phenomenon such as a decrease in the volume of the sound, a decrease in the volume of the user's voice, or an increase in the size of the user's applause, the processor 130 may estimate the response that the user concentrates on the viewing of the video. Identifying physical phenomena such as an increase in size, an increase in the size of the user's voice, or a decrease in the size of the user's applause can estimate the response that the user is not focused on viewing the video.
처리부(130)는 음성이 인식되지 않는다는 것 또는 사용자가 박수를 친다는 것이 식별되면, 사용자가 동영상의 시청에 집중한다는 반응을 추정할 수 있다. 처리부(130)는 사용자의 음성이 인식된다는 것 또는 사용자가 박수를 치지 않는다는 것이 식별되면, 사용자가 동영상의 시청에 집중한다는 반응을 추정할 수 있다.If it is identified that the voice is not recognized or that the user claps, the processor 130 may estimate a response that the user concentrates on watching the video. When it is identified that the user's voice is recognized or that the user does not clap, the processor 130 may estimate a response that the user concentrates on watching the video.
처리부(130)는 물리적 현상이 근접 센서(315)에 근접한 객체가 있는 것을 나타내거나 객체 및 근접 센서(315) 간의 거리가 더 가까워졌다는 것을 나타낼 때, 사용자가 동영상을 시청한다는 반응 또는 동영상을 시청하는 시청자가 증가하였다는 반응을 추정할 수 있다. 또한, 처리부(130)는 물리적 현상이 근접 센서(315)에 근접한 객체가 없는 것을 나타내거나 객체 및 근접 센서(315) 간의 거리가 더 멀어졌다는 것을 나타낼 때 또는 사용자가 동영상을 시청하지 않는다는 반응 또는 동영상을 시청하는 시청자가 감소하였다는 반응을 추정할 수 있다.When the physical phenomenon indicates that there is an object that is close to the
처리부(130)는 빛의 밝기의 증가와 같은 물리적 현상을 식별하면 시청 환경의 밝기가 증가하였다는 반응을 추정할 수 있으며, 빛의 밝기의 감소와 같은 물리적 현상을 식별하면 시청 환경의 밝기가 감소하였다는 반응을 추정할 수 있다.When the processor 130 identifies a physical phenomenon such as an increase in the brightness of the light, the processor 130 may estimate a response that the brightness of the viewing environment is increased. When the processor 130 identifies a physical phenomenon such as a decrease in the brightness of the light, the brightness of the viewing environment is reduced. The response can be estimated.
처리부(130)는 중력이 가해지는 방향의 변화, GPS 센서(316)의 위치의 변화 및 사용자의 위치의 변화 같은 물리적 현상을 식별하면 사용자의 위치가 변화하였다는 반응을 추정할 수 있다.When the processor 130 identifies physical phenomena such as a change in the direction in which gravity is applied, a change in the position of the
처리부(130)는 자이로스코프(317)의 3차원 운동의 변화, 사용자의 움직임의 변화 또는 사용자의 제스처의 변화와 같은 물리적 현상을 식별하면 상기의 변화들 각각의 구체적인 내용에 따라 사용자가 동영상의 시청에 집중한다는 반응 또는 사용자가 동영상의 시청에 집중하지 않는다는 반응을 추정할 수 있다.When the processor 130 identifies a physical phenomenon such as a change in the three-dimensional motion of the
처리부(130)는 적외선 센서(318)의 수광부가 적외선을 수신한다는 물리적 현상을 식별하면, 사용자가 동영상을 시청하지 않는다는 반응을 추정할 수 있고, 수광부가 적외선을 수신하지 않는다는 물리적 현상을 식별하면, 사용자가 동영상을 시청한다는 반응을 추정할 수 있다.
When the processor 130 identifies the physical phenomenon that the light receiver of the
하기에서, 물리적 추정된 반응 및 동영상의 제어 간의 연관 관계의 일 예를 설명한다.In the following, an example of the association between the physical estimated response and the control of the moving picture is described.
하기에서 설명될 동영상의 제어는 제어부(130)에 의해 수행될 수 있다.Control of the video to be described below may be performed by the controller 130.
동영상의 제어는, 1) 동영상의 재생의 중단 또는 재개, 2) 동영상의 재생의 속도를 조절(증가 또는 감소), 2) 동영상 중 특정한 부분의 재생 시간의 조절(증가 또는 감소) 및 3) 동영상의 밝기의 조절(증가 또는 감소) 등을 포함할 수 있다.The control of the video includes: 1) stopping or resuming playback of the video, 2) adjusting (increasing or decreasing) the playback speed of the video, 2) adjusting (increasing or decreasing) the playing time of a specific portion of the video, and 3) May include adjusting (increasing or decreasing) the brightness of the light.
즉, 제어부(130)는 센싱부(110)가 감지한 정보를 이용함으로써 전자 장치(100)의 재생 속도 조절, 화면 밝기 조절, 화면 대비 조절 및 음량 조절 등을 통해 시청자의 만족도를 향상시킬 수 있다. 음량 조절에 있어서, 제어부(130)는 전체 볼륨(volume)의 조절 외에도, 배경 음악(BackGround Music; BGM)의 음량 조절, 효과음(effect)의 음량 조절, 대사의 음량 조절 및 나레이션(narration)의 음량 조절 등 소리 요소들 각각의 개별적인 볼륨을 조절할 수 있다.That is, the controller 130 may improve the viewer's satisfaction by adjusting the playback speed, screen brightness, screen contrast, and volume of the
단계(250)에서의 동영상의 제어는, 추정된 반응이 사용자가 동영상을 시청하지 않는 것을 나타낼 때 동영상의 재생을 중단시키는 것일 수 있다. 즉, 제어부(130)는 추정된 반응이 사용자가 동영상을 시청하지 않는다는 것을 나타낼때, 동영상의 재생을 중단하는 제어를 수행할 수 있다. 또한, 동영상의 제어는 추정된 반응이 사용자가 동영상을 시청하는 것을 나타낼 때 동영상의 재생을 재개하는 것일 수 있다. 즉, 제어부(130)는 사용자가 동영상을 시청한다는 반응이 추정될 때, 동영상의 재생을 재개하는 제어를 수행할 수 있다.The control of the video at
제어부(130)는 추정된 반응이 사용자가 동영상의 시청에 집중한다는 것을 나타내거나, 동영상을 시청하는 시청자가 증가하였다는 것을 나타낼 때, 동영상의 재생 속도를 감소시키는 제어를 수행하거나 재생되는 동영상 중 사용자가 집중한 부분에 관련된 부분의 재생 시간을 증가시키는 제어를 수행할 수 있다. 제어부(130)는 추정된 반응이 사용자가 동영상의 시청에 집중하지 않는다는 것을 나타내거나, 동영상을 시청하는 시청자가 감소하였다는 것을 나타낼 때, 동영상의 재생 속도를 증가시키는 제어를 수행하거나 재생되는 동영상 중 사용자가 집중하지 않은 부분에 관련된 부분의 재생 시간을 감소시키는 제어를 수행할 수 있다.When the estimated response indicates that the user concentrates on watching the video or that the viewer watching the video has increased, the controller 130 performs a control to reduce the playback speed of the video or the user among the videos being played. Control to increase the reproduction time of the part related to the focused portion can be performed. When the estimated response indicates that the user does not concentrate on watching the video or indicates that the viewer watching the video has decreased, the controller 130 performs a control to increase the playback speed of the video, Control to reduce the reproduction time of the portion related to the portion not concentrated by the user can be performed.
제어부(130)는 추정된 반응이 시청 환경의 밝기가 증가하였다는 것을 나타낼 때, 동영상의 밝기를 증가시키는 제어를 수행할 수 있다. 제어부(130)는 추정된 반응이 추정된 반응이 시청 환경의 밝기가 감소하였다는 것을 나타낼 때, 동영상의 밝기를 감소시키는 제어를 수행할 수 있다.The controller 130 may perform a control to increase the brightness of the video when the estimated response indicates that the brightness of the viewing environment is increased. The controller 130 may perform a control to decrease the brightness of the video when the estimated response indicates that the brightness of the viewing environment is reduced.
제어부(130)는 추정된 반응이 사용자의 위치가 변화하였다는 것을 나타낼 때, 동영상의 재생을 중단시키는 제어를 수행할 수 있고, 중단 외에도 사용자의 위치의 변화에 대응하는 제어를 수행할 수 있다.
When the estimated response indicates that the user's position has changed, the controller 130 may perform a control for stopping the playback of the video and may perform a control corresponding to the change of the user's position in addition to the interruption.
도 5는 일 예에 따른 물리적 현상을 식별하는 방법을 설명하는 흐름도이다.5 is a flowchart illustrating a method of identifying a physical phenomenon according to an example.
전술된 제1 물리적 상태에 대한 정보, 제2 물리적 상태에 대한 정보 및 물리적 현상에 대한 정보는, 외부의 서버에 의해 분석될 수 있다. 이하, 제1 물리적 상태에 대한 정보, 제2 물리적 상태에 대한 정보 및 물리적 현상에 대한 정보 중 하나 이상의 정보를 분석 요청 정보로 명명한다.The above-described information about the first physical state, the information about the second physical state, and the information about the physical phenomenon may be analyzed by an external server. Hereinafter, one or more pieces of information on the first physical state, the information on the second physical state, and the information on the physical phenomenon are referred to as analysis request information.
도 2를 참조하여 전술된 단계(230) 또는 단계(233)는 하기의 단계들(510 내지 530)을 포함할 수 있다.Step 230 or step 233 described above with reference to FIG. 2 may include the following steps 510 to 530.
단계(510)에서, 처리부(130)는 네트워킹부(140)를 통해 분석 요청 정보를 외부 서버(500)로 전송할 수 있다. 여기서, 분석 요청 정보의 전송을 위해 외부 서버(500)가 제공하는 서비스 API가 사용될 수 있다.In operation 510, the processor 130 may transmit the analysis request information to the
단계(520)에서, 분석 서버(500)는 분석 요청 정보를 분석함으로써 사용자의 반응을 추정하기 위해 사용되는 반응 추정 정보를 생성할 수 있다.In
예컨대, 분석 요청 정보가 시청자가 촬영된 영상일 때, 분석 서버(500)는 시청자가 촬영된 영상을 분석함으로써 시청자가 영상에 집중한다는 것을 나타내는 정보 또는 시청자가 영상에 집중하지 않는다는 것을 나타내는 정보를 반응 추정 정보로서 생성할 수 있다. 분석 서버(500)는 시청자가 촬영된 영상 내에서 시청자의 얼굴 또는 표정을 추출할 수 있으며, 추출된 얼굴 또는 표정이 시청자가 영상에 집중한다는 것을 나타낸다고 판정할 수 있다.For example, when the analysis request information is an image captured by the viewer, the
또한, 분석 요청 정보가 촬영된 영상일 때, 분석 서버(500)는 촬영된 영상 내에 시청자가 있는지 여부를 판정함으로써, 사용자가 동영상을 시청한다는 것을 나타내는 정보 또는 사용자가 동영상을 시청하지 않는다는 것을 나타내는 정보를 반응 추정 정보로서 생성할 수 있다.In addition, when the analysis request information is a captured image, the
또한, 분석 요청 정보가 촬영된 영상일 때, 분석 서버(500)는 촬영된 영상 내의 시청자들의 수를 나타내는 정보를 반응 추정 정보로서 생성할 수 있다. 처리부(130)는 촬영된 영상 내의 시청자들의 수를 나타내는 정보를 사용하여 동영상을 시청하는 시청자의 수가 증가 또는 감소하였는지를 추정할 수 있다.In addition, when the analysis request information is a captured image, the
예컨대, 분석 요청 정보가 서로 상이한 시점들에서의 빛의 밝기일 때, 분석 서버(500)는 양 밝기들을 비교함으로써 시청 환경의 밝기가 증가하였음을 나타내는 정보 또는 시청 환경의 밝기가 감소하였음을 나타내는 정보를 반응 추정 정보로서 생성할 수 있다.For example, when the analysis request information is the brightness of the light at different points in time, the
단계(530)에서, 분석 서버(500)는 생성된 반응 추정 정보를 네트워킹부(140)를 통해 처리부(130)로 전송할 수 있다. 여기서, 분석 요청 정보를 전송하기 위해 사용된 서비스 API의 리턴(return) 값을 반환하는 방식이 반응 추정 정보를 전송하기 위해 사용될 수 있다. In operation 530, the
상술된 외부 서버(500)가 반응 추정 정보를 생성하는 기능 또는 원리는 처리부(130) 또한 사용할 수 있다.
The function or principle of generating the response estimation information by the
도 1 내지 도 5를 참조하여 설명된 본 발명의 실시예에서, 처리부(130)는 사용자의 반응에 기반하여 동영상의 재생 속도 등을 제어한다. 동영상이 단일한 내용만을 가지고 있는 경우, 사용자의 반응에 기반하여 단일한 내용의 재생 속도가 변할 수 있다.In the embodiment of the present invention described with reference to FIGS. 1 to 5, the processor 130 controls a playback speed of a video or the like based on the user's response. If the video has only a single content, the playback speed of the single content may change based on the user's response.
동영상이 복수 개의 내용들을 가지고 있는 경우, 사용자의 반응에 기반하여 복수 개의 내용들 중 어떤 내용이 재생될 지가 변할 수 있다. 예컨대, 처리부(130)는 동영상의 내용 상의 전체적인 스토리(story) 라인(line)은 크게 변화를 주지 않은 채, 사용자가 집중하는 것으로 추정되는 씬(scene)에는 부가적인 내용(예컨대, 프레임(frame) 들을 추가할 수 있으며, 사용자가 집중하지 않는 것으로 추정되는 씬에서는 일부 내용을 건너뛰기(skip)할 수 있다.When the video has a plurality of contents, which of the plurality of contents may be played based on the user's response may change. For example, the processor 130 may add additional content (eg, a frame) to a scene estimated to be concentrated by the user without significantly changing the overall story line on the content of the video. Can be added, and some content can be skipped in a scene where the user is assumed not to concentrate.
동영상의 제작 또는 편집 단계를 통해, 동영상은 하나 이상의 편집 본들을 포함할 수 있다. 하나 이상의 편집 본들 중 기본 편집 본 이외의 편집 본들은 추가적인 내용을 제공할 수 있다. 처리부(130)는 사용자의 반응에 따라 하나 이상의 편집 본들 중 특정한 편집 본을 선택하여 재생함으로써 특정한 씬에 프레임이 추가 또는 건너뛰기 되는 효과를 가할 수 있다. 이러한 효과에 의해 사용자의 만족이 극대화될 수 있다.Through the production or editing of the video, the video may include one or more edited copies. Of the one or more edited editions other than the basic edited edition may provide additional content. The processor 130 may add or skip a frame to a specific scene by selecting and playing a particular edited copy among the one or more edited copies according to the user's response. By this effect, user satisfaction can be maximized.
동영상이 복수 개의 내용들을 갖기 위해, 동영상은 복수 개의 카테고리들로 분류될 수 있다. 여기서, 복수 개의 카테고리들은 동영상 내의 특정한 씬(scene) 또는 출연자(character)를 기준으로 결정될 수 있다. 예컨대, 복수 개의 카테고리들은 각각 동영상 내에서 특정한 출연자가 메인(main)으로 출연하는 장면을 나타낼 수 있다. 복수 개의 카테고리들은 각각 동영상 내의 내용적으로 구분되는 일부를 나타낼 수 있다. 여기서, 내용적으로 구분되는 일부란, 동영상의 내용 중 특정한 에피소드(episode) 또는 코너(corner)를 나타낼 수 있다.In order for a video to have a plurality of contents, the video may be classified into a plurality of categories. Here, the plurality of categories may be determined based on a specific scene or performer in the video. For example, the plurality of categories may each represent a scene in which a specific performer appears as a main in the video. Each of the plurality of categories may represent a part that is divided into contents in the video. Here, a part divided into contents may indicate a specific episode or a corner of the contents of the video.
제어부(130)는 하나 이상의 편집 본들 중 재생할 편집 본을 선택함으로써 동영상의 재생 시간을 증가시키는 제어 및 동영상이 재생 시간을 감소시키는 제어를 수행할 수 있다. 제어부(130)는 편집 본의 선택을 복수 개의 카테고리 중 사용자 집중한 부분 또는 집중하지 않은 부분이 속하는 카테고리에 대해 적용할 수 있다.The controller 130 may control to increase the playback time of the video and control to reduce the playback time by selecting an edited copy to be played among one or more edited copies. The controller 130 may apply the selection of the edited text to a category to which the user focused portion or the non-focused portion belongs among the plurality of categories.
제어부(130)가 전술된 제어를 수행하기 위해, 복수 개의 카테고리들 및 하나 이상의 촬영 본들에 대한 정보가 제어부(130)에게 제공될 필요가 있다. 예컨대, 복수 개의 카테고리들 및 하나 이상의 촬영 본들에 대한 정보는 단계(210)에서, 동영상 서버 또는 방송 서버로부터 동영상의 전자 프로그램 가이드(Electronic Program Guide; EPG)를 통해 제공될 수 있다.
In order for the controller 130 to perform the above-described control, information about a plurality of categories and one or more photographic copies need to be provided to the controller 130. For example, information about a plurality of categories and one or more shots may be provided in
도 6은 일 예에 따른 동영상의 구성을 설명한다.6 illustrates a configuration of a video according to an example.
동영상의 촬영 본은 동영상의 편집 본을 생성하기 위한 소스(source)를 의미한다. 동영상의 촬영 본은 촬영에 의해 생성된 동영상일 수 있다. 촬영 본을 편집함으로써 동영상의 편집 본이 생성될 수 있다. 상기의 편집 본은 동영상에 대한 시청자의 반응에 따라 재생되는 내용이 변경될 수 있다. 도 1 내지 도 5를 참조하여 설명된 동영상은 동영상의 편집 본을 의미할 수 있다.The photographed copy of the video refers to a source for generating an edited copy of the video. The shot of the video may be a video generated by shooting. An edited copy of the video can be generated by editing the shot copy. The edited content may be changed according to the viewer's reaction to the video. The video described with reference to FIGS. 1 to 5 may mean an edited copy of the video.
동영상은 복수 개의 카테고리들로 분류될 수 있다. 도 6에서, 동영상은 동영상 내에서 특정한 출연자가 메인으로 출연하는 장면에 따라 4 개의 카테고리들로 분류되었다.The video may be classified into a plurality of categories. In FIG. 6, a video is classified into four categories according to a scene in which a specific performer appears in the main video.
시청자의 반응에 따라 재생되는 내용을 변경하기 위해, 동영상은 하나 이상의 편집 본들을 포함할 수 있다. 하나 이상의 편집 본들은 서로 상이한 분량을 갖는다. 즉, 하나 이상의 편집 본들은 동일한 콘텐츠에 대한 것이나, 추가적인 프레임을 포함하거나 부가적인 프레임을 제외함으로써 서로 상이한 재생 시간을 가질 수 있다. 도 6에서, 동영상의 복수 개의 편집 본들은 기본 편집 본, 최소 편집 본 및 최대 편집 본을 포함한다.In order to change the content played in response to the viewer's response, the video may include one or more edits. One or more compilations have different amounts from each other. That is, one or more edits are for the same content but may have different playback times from each other by including additional frames or excluding additional frames. In FIG. 6, a plurality of edited versions of a video include a basic edited version, a minimum edited version, and a maximum edited version.
기본 편집 본의 내용은 동영상의 편집 본의 재생이 시청자의 반응에 따라 제어되지 않을 때 기본적으로 재생되는 내용일 수 있다. 따라서, 기본 편집 본은 편집 편성 본으로 명명될 수 있다.The content of the basic edited copy may be basically played when the playback of the edited copy of the video is not controlled according to the response of the viewer. Thus, the basic edited copy may be called an edited copy.
도 6에서, 촬영 본 및 복수 개의 편집 본들 각각의 재생 시간이, 카테고리 별로 도시되었다.In FIG. 6, reproduction times of the photographed bones and the plurality of edited bones are shown for each category.
최대 편집 본의 재생 시간은 기본 편집 본의 재생 시간 이상일 수 있다. 기본 편집 본의 재생 시간은 최소 편집 본의 재생 시간 이상일 수 있다. 복수 개의 편집 본들 각각은 촬영 본에 기반하여 생성된다. 따라서, 촬영 본의 재생 시간은 이러한 재생 시간의 제약은 카테고리 별로 적용될 수 있다. 즉, 최대 편집 본의 복수 개의 카테고리들 각각의 재생 시간은 기본 편집 본의 대응하는 카테고리의 재생 시간 이상일 수 있다. 기본 편집 본의 복수 개의 카테고리들 각각의 재생 시간은 최소 편집 본의 대응하는 카테고리의 재생 시간 이상일 수 있다.The playback time of the maximum edited copy may be greater than or equal to the playback time of the basic edited copy. The playback time of the basic edited copy may be more than the playback time of the minimum edited copy. Each of the plurality of edited bones is generated based on the shot bones. Therefore, the reproduction time of the photographed image may be applied to each category by the restriction of the reproduction time. That is, the reproduction time of each of the plurality of categories of the maximum edited copy may be equal to or greater than the reproduction time of the corresponding category of the basic edited copy. The play time of each of the plurality of categories of the basic edited copy may be equal to or greater than the play time of the corresponding category of the minimum edited copy.
시청자가 특정한 출연자를 선호할 때, 상기의 선호를 나타내는 것으로 인식되는 사용자의 동작에 의해 선호하는 출연자의 최대 편집 본이 재생될 수 있다. 처리부(130)는, 예컨대 동영상이 방송 프로그램인 경우, 가용한 전체 재생 시간에 맞춰 동영상의 다른 부분의 재생을 조절할 수 있다. 예컨대, 처리부(130)는 사용자의 반응에 기반하여 동영상의 재생 속도를 조정함에 따라 예상된 전체 재생 시간에 비해 실제로 동영상이 재생된 시간이 더 짧게된 경우, 여분의 시간을 광고로 대체할 수 있다. 또한, 처리부(130)는 사용자의 반응에 기반하여 동영상의 재생 속도를 조정함에 따라 예상된 전체 재생 시간에 비해 실제로 동영상이 재생된 시간이 더 길게된 경우, 다음에 재생될 동영상을 자동으로 녹화할 수 있고, 현재 재생되는 동영상의 재생이 완료된 이후에 녹화된 동영상을 제공할 수 있다. 여기서, 재생된 동영상 및 다음에 재생될 동영상은 각각 방송 프로그램일 수 있다.When the viewer prefers a particular performer, the maximum edited copy of the preferred performer may be played back by the user's action perceived to indicate the preference. For example, when the video is a broadcast program, the processor 130 may adjust playback of another portion of the video according to the available total playback time. For example, as the processor 130 adjusts the playback speed of the video based on the user's response, the processor 130 may replace the extra time with an advertisement if the actual time of playing the video is shorter than the expected total playback time. . In addition, the processor 130 adjusts the playback speed of the video based on the user's response, and automatically records the next video to be played next when the video is played longer than the expected total playback time. It is possible to provide a recorded video after the playback of the video currently being played is completed. Here, the played video and the next video to be played may each be a broadcast program.
처리부(130)는 전술된 조절은 동영상의 재생에 맞춰 실시간으로 수행할 수 있다.The processor 130 may perform the above-described adjustment in real time in accordance with the playback of the video.
동영상의 복수 개의 카테고리들 및 하나 이상의 촬영 본들은 각각 별개의 트랙(track)으로서 저장될 수 있고, 하나의 비디오(video) 및 오디오(audio) 파일로서 저장될 수 있다.The plurality of categories and one or more shots of the video may each be stored as separate tracks and may be stored as one video and audio file.
동영상의 구조에 대한 정보는, 예컨대 동영상이 방송 프로그램인 경우, 동영상의 EPG 정보와 함께 제공될 수 있다.
The information about the structure of the video may be provided together with the EPG information of the video, for example, when the video is a broadcast program.
하기에서, 동영상의 편집 본을 생성하는 방법 및 장치가 설명된다.In the following, a method and apparatus for generating an edited copy of a moving picture are described.
도 7은 일 예에 따른 동영상을 생성하는 전자 장치의 구조도이다.7 is a structural diagram of an electronic device that generates a video, according to an embodiment.
전자 장치(700)는 촬영에 의해 생성된 동영상의 촬영 본을 편집함으로써 동영상에 대한 시청자의 반응에 따라 재생되는 내용이 변경될 수 있는 동영상의 편집 본을 생성할 수 있다.The
전자 장치(700)는 처리부(710) 및 저장부(720)를 포함할 수 있다.The
처리부(710) 및 저장부(720)의 구체적인 기능에 대해 도 8을 참조하여 하기에서 상세히 설명된다.
Specific functions of the
도 8은 일 예에 따른 동영상을 생성하는 방법의 흐름도이다.8 is a flowchart of a method of generating a video, according to an example.
단계(810)에서, 처리부(710)는 동영상의 촬영 본의 내용에 기반하여 내용에 따라 각각 구분되는 복수 개의 카테고리들을 결정할 수 있다.In
단계(820)에서, 처리부(710)는 복수 개의 카테고리 각각에 대해 복수 개의 편집 본들 각각에서의 재생 시간을 결정할 수 있다.In
단계(830)에서, 처리부(710)는 촬영 본의 내용 중 일부를 선택함으로써 복수 개의 카테고리 각각에 대해 복수 개의 편집 본들 각각의 내용을 결정할 수 있다.In
단계(840)에서, 처리부(710)는 복수 개의 카테고리들의 복수 개의 편집 본들의 내용들을 결합함으로써 시청자의 반응에 따라 복수 개의 카테고리들 각각에 대해 복수 개의 편집 본들 중 하나의 편집 본이 재생될 수 있는 동영상의 편집 본을 생성할 수 있다.In
단계(850)에서, 처리부(710)는 저장부(720) 내에 동영상의 편집 본을 저장할 수 있다.
In
하기에서 동영상의 편집 본을 생성하기 위한 장치 또는 프로그램의 그래픽 사용자 인터페이스(Graphic User Interface; GUI) 및 GUI에 관련된 기능이 설명된다. 동영상의 편집 본을 생성하기 위한 장치 또는 프로그램은 최소한의 편집을 통해 동적 재생 서비스를 제공할 수 있는 환경을 제공할 수 있다. 예컨대, 하나 이상의 편집 본들 각각에 대해 서로 상이한 프로듀서(Producer; PD)에게 편집 권한이 부여될 수 있다.
In the following, a Graphic User Interface (GUI) of a device or a program for generating an edited copy of a video and a function related to the GUI will be described. An apparatus or a program for generating an edited copy of a video may provide an environment capable of providing a dynamic playback service with minimal editing. For example, editing rights may be granted to a different producer (PD) for each of the one or more edited copies.
도 9는 일 예에 따른 편집 프로그램의 로그인 GUI를 나타낸다.9 illustrates a login GUI of an editing program according to an example.
편집 프로그램에 로그인 할 수 있는 편집자는 메인 PD 및 서브 PD를 포함할 수 있다. 메인 PD는 편집 프로그램의 서비스들 중 특정한 서비스를 사용할 수 있다. 서버 PD는 편집 프로그램의 서비스들 중 제한된 서비스를 사용할 수 있다. 메인 PD만이 사용할 수 있는 서비스로의 분기를 나타내는 메뉴(910)는 사용자로서 메인 PD가 선택되었을 때에만 선택 가능하도록 노출될 수 있다.Editors who can log in to the editing program may include a main PD and a sub PD. The main PD may use a specific service among the services of the editing program. The server PD may use a limited service among the services of the editing program. A
예컨대, 메인 PD는 복수 개의 카테고리들 각각의 최대 편집 본의 편집 시간 및 담당 PD 만을 편집 프로그램 상에 등록할 수 있다. 담당 PD로 등록된 서브 PD는 자신에게 할당된 카테고리 및 편집 본을 등록된 최대 편집 본의 편집 시간에 맞추어 편집할 수 있고, 편집된 내용을 최대 편집 본으로서 편집 프로그램 상에 등록할 수 있다. 메인 PD는 최대 편집 본으로서 1차적으로 편집된 내용을 바탕으로 기본 편집 본을 편집할 수 있고, 편집된 내용을 기본 편집 본으로서 편집 프로그램 상에 등록할 수 있다. 이후, 메인 PD는 기본 편집 본을 기본으로서 사용하여 최소 편집 본을 편집할 수 있고, 편집된 내용을 최소 편집 본으로서 편집 프로그램 상에 등록할 수 있다.For example, the main PD may register only the editing time and the responsible PD of the maximum edited copy of each of the plurality of categories on the editing program. The sub-PD registered as the responsible PD can edit the category and edited text assigned to it according to the editing time of the registered maximum edited copy, and can register the edited content as the maximum edited copy on the edit program. The main PD may edit the basic edit based on the first edited content as the maximum edited copy, and register the edited content on the edit program as the basic edited copy. Thereafter, the main PD may edit the minimum edited copy using the basic edited copy as a basis, and register the edited content on the edit program as the minimum edited copy.
또한, 메인 PD는 복수 개의 카테고리들 각각의 하나 이상의 편집 본들 각각의 편성 정보(예컨대, 편성 시간)을 편집 프로그램 상에 등록할 수 있고, 복수 개의 카테고리들 각각의 하나 이상의 편집 본들 각각에 대한 담당 PD를 지정할 수 있다. 서브 PD는 자신이 담당 PD로서 지정된 편집 본을 편집할 수 있다.
In addition, the main PD may register the organization information (eg, organization time) of each of the one or more edited copies of each of the plurality of categories on the editing program, and is responsible for each of the one or more edited copies of each of the plurality of categories. Can be specified. The sub PD can edit the edited copy which he designated as the in charge PD.
도 10은 일 예에 따른 동영상의 정보를 불러오는 GUI를 나타낸다.10 illustrates a GUI for loading information of a video, according to an embodiment.
편집 프로그램(또는, 처리부(710))는 동영상을 제공하는 사업자의 콘텐츠 관리 시스템(content management system)으로부터 동영상에 대한 정보를 수신할 수 있다.The editing program (or the processing unit 710) may receive information about the video from a content management system of a provider that provides the video.
동영상에 대한 정보는, 1) 동영상이 시리즈 물의 일부일 경우의 동영상의 회차, 2) 동영상의 방송 날짜 및 시간 및 3) 동영상의 정규 편성 배정 시간을 포함할 수 있다. 여기서, 동영상의 정규 편성 배정 시간은 동영상이 방송 프로그램일 경우의 동영상의 방송 시간을 의미할 수 있다. 정규 편성 배정 시간은 동영상의 기본 편집 본의 시간으로 간주될 수 있다.
The information on the video may include 1) the turn of the video when the video is part of a series, 2) the broadcast date and time of the video, and 3) the regular scheduling time of the video. Here, the regular programming allocation time of the video may mean a broadcast time of the video when the video is a broadcast program. The regular programming assignment time may be regarded as the time of the basic editorial of the video.
도 11은 일 예에 따른 편집 가이드라인을 입력하는 GUI를 나타낸다.11 illustrates a GUI for inputting an editing guideline according to an example.
편집 가이드라인이란 다수의 편집자들이 편집 본을 생성하기 위해 공유하는 정보를 의미할 수 있다.Editing guidelines may refer to information shared by a number of editors to create an edited copy.
특정한 편집자는 편집 가이드라인의 제목 및 편집 가이드라인의 상세 설명을 입력할 수 있다. 다른 편집자들은 편집 가이드라인의 제목 및 편집 가이드라인의 상세 설명을 참조하여 편집 본을 생성할 수 있다.
A particular editor may enter a title of the editing guidelines and a detailed description of the editing guidelines. Other editors may create a compilation by referring to the title of the editing guidelines and the detailed description of the editing guidelines.
도 12는 일 예에 따른 편집 가이드 시간을 입력하는 GUI를 나타낸다.12 illustrates a GUI for inputting an editing guide time according to an example.
편집자는 카테고리 별로 편집 가이드 시간을 입력할 수 있다. 편집 가이드 시간은 특정한 카테고리의 편집 본의 실제 시간이 아닌 가이드 시간일 수 있다. 가이드 시간이 편집 본의 시간과 정확하게 일치할 필요는 없다. 따라서, 일정한 단위(예컨대, 30초)로 입력될 수 있다.The editor can enter the editing guide time for each category. The editing guide time may be a guide time that is not the actual time of a compilation of a particular category. The guide time does not have to exactly match the time of the compilation. Therefore, it may be input in a predetermined unit (eg, 30 seconds).
도 12에서, 카테고리는 출연자 및 씬 별로 분류된다. 가이드 시간은 기본 편집 본에 대한 시간, 최소 편집 본에 대한 시간 및 최대 편집 본에 대한 시간을 포함할 수 있다.In FIG. 12, categories are categorized by performer and scene. The guide time may include a time for the basic edited version, a time for the minimum edited version, and a time for the maximum edited copy.
도 12에서, 카테고리 별로 입력된 편집 가이드 시간을 나타내는 테이블(1210), 카테고리 별로 편집 가이드 시간을 입력하기 위한 인터페이스(1220) 및 카테고리 별로 편집을 담당할 PD를 지정하는 인터페이스(1230)가 도시되었다.In FIG. 12, a table 1210 indicating an editing guide time input for each category, an
특정한 카테고리의 편집 가이드 시간이 입력되면, 상기의 카테고리에 대한 정보가 테이블(1210)에 추가된다. 여기서, 편집 가이드 시간 중 일부 시간(예컨대, 최대 편집 본의 가이드 시간)은 필수적으로 입력되어야 하는 항목일 수 있으며, 편집 가이드 시간 중 나머지 가이드 시간(예컨대, 기본 편집 본의 가이드 시간 및 최소 편집 본의 가이드 시간)은 선택적으로 입력될 수 있는 항목일 수 있다.
When the editing guide time of a specific category is input, the information about the category is added to the table 1210. Here, some of the editing guide time (eg, the maximum edited guide time) may be an essential item, and the remaining guide time (eg, the basic edited guide time and the minimum edited time of the editing guide time) may be required. Guide time) may be an item that may be selectively input.
도 13은 일 예에 따른 입력된 편집 가이드 시간을 출력하는 GUI를 나타낸다.13 illustrates a GUI for outputting an input editing guide time according to an example.
도 13은 도 12의 테이블(1210)에 대응할 수 있다. 도 13의 GUI를 통해 편집자는 모든 카테고리들에 대한 편집 가이드 시간을 확인할 수 있다.
FIG. 13 may correspond to the table 1210 of FIG. 12. The GUI of FIG. 13 allows the editor to see the editing guide times for all categories.
도 14는 일 예에 따른 특정한 PD가 편집할 카테고리들의 편집 가이드 시간을 출력하는 GUI를 나타낸다.14 illustrates a GUI for outputting an editing guide time of categories to be edited by a specific PD according to an example.
동영상을 편집할 수 있는 편집자들 중, 특정한 편집자는 동영상의 카테고리들 중 일부 카테고리를 편집할 수 있다.Among editors who can edit a video, a particular editor can edit some of the categories of video.
각 편집자가 편집 프로그램에 로그인하면, 편집자는 도 14의 GUI를 통해 자신이 편집할 수 있는 편집 가이드 시간을 확인할 수 있다. 도 14에서, 편집자들 중 서브 PD(또는, 제2 PD)가 편집할 수 있는 카테고리들의 편집 가이드 시간의 테이블이 표시되었다. 도 14에서, 편집 가이드 시간 중 최대 편집 본의 가이드 시간만이 등록되었고, 기본 편집 본의 가이드 시간 및 최소 편집 본의 가이드 시간은 입력되지 않았다.
When each editor logs in to the editing program, the editor can check the editing guide time that he or she can edit through the GUI of FIG. In FIG. 14, a table of editing guide times of categories among the editors that the sub PD (or the second PD) can edit is displayed. In Fig. 14, only the guide time of the maximum edited bone among the edit guide time is registered, and the guide time of the basic edited bone and the guide time of the minimum edited bone are not input.
도 15는 일 예에 따른 특정한 PD가 편집 담당으로 지정된 내용이 편집된 결과를 출력하는 GUI를 나타낸다.15 illustrates a GUI for outputting a result of editing of a content designated by a specific PD to be in charge of editing according to an embodiment.
도 14의 GUI를 통해, 서브 PD는 자신이 편집 담당으로 지정된 카테고리의 내용을 선택하여 편집할 수 있다. 서브 PD는 카테고리의 내용의 편집이 완료 및 등록된 경우, 편집 상태를 통해 상기의 완료 및 등록을 표시할 수 있다.Through the GUI of FIG. 14, the sub PD can select and edit the contents of the category designated as the editor in charge. The sub PD may indicate completion and registration through the editing state when editing of the contents of the category is completed and registered.
편집자는 자신을 나타내는 카테고리의 "편집" 또는 "시간" 버튼을 클릭함으로써 버튼에 대응하는 카테고리의 내용을 편집할 수 있다.
The editor can edit the contents of the category corresponding to the button by clicking the "Edit" or "Time" button of the category representing him.
도 16은 일 실시예에 따른 동영상을 제공하는 서버의 구조도이다.16 is a structural diagram of a server providing a video, according to an exemplary embodiment.
서버(1600)는 콘텐츠를 전자 장치(100) 및 전자 장치(700)에게 제공할 수 있다. 여기서, 콘텐츠는 전자 장치(100)가 재생하는 동영상일 수 있으며, 전자 장치(700)의 동영상의 촬영 본 또는 편집 본 중 하나 이상일 수 있다. 하기의 콘텐츠는 도 1 내지 도 15에서 설명된 동영상에 대응할 수 있으며, 동영상은 콘텐츠의 일 예가 될 수 있다. The
서버(1600)는 전자 장치(700)에 의해 생성된 동영상의 촬영 본 또는 편집 본 중 하나 이상을 저장할 수 있다.The
제어부(1610)는 스크리밍(streaming) 서비스를 통해 전자 장치(100) 및 전자 장치(700)에게 콘텐츠를 제공할 수 있다. 예컨대, 제어부(1610)는 네트워킹부(1620)를 통해 콘텐츠를 전자 장치(100)로 전송할 수 있다.The
전자 장치(100)의 처리부(130)는 동영상의 재생의 제어에 기반하여 적응적인 스트리밍을 제어부(1610)에게 요청할 수 있다.The processor 130 of the
예컨대, 처리부(130)가 동영상의 재생 속도를 증가시킬 때, 처리부(130)는 네트워킹부(140)를 통해 제어부(1610)에게 스트리밍으로 전송되는 콘텐츠(즉, 재생되는 동영상)의 전송 속도(예컨대, 비트레이트(bitrate)를 증가시킬 것을 요청할 수 있다. 상기의 요청에 의해, 제어부(1610)는 콘텐츠의 전송 속도를 증가시킬 수 있다. 또한, 처리부(130)가 동영상의 재생 속도를 감소시킬 때, 처리부(130)는 네트워킹부(140)를 통해 제어부(1610)에게 스트리밍으로 전송되는 콘텐츠의 전송 속도를 감소시킬 것을 요청할 수 있다.For example, when the processor 130 increases the playback speed of the video, the processor 130 may transmit the content (that is, the video being played) to the
예컨대, 처리부(130)는 네트워킹부(140)를 통해 동영상의 복수 개의 편집 본들 중 특정한 편집 본을 전송해줄 것을 제어부(1610)에게 요청할 수 있다. 제어부(1610)는 네트워킹부(1620)를 통해 요청된 편집 본을 전송할 수 있으며, 처리부(130)에 의해 요청된 재생 속도 또는 정보에 대응하는 편집 본을 전송할 수 있다.For example, the processor 130 may request the
서버(1600)는 하나 이상의 저장부들을 포함할 수 있다. 하나 이상의 저장부들은 레디-메이드 콘텐츠(Ready-Made Content; RMC) 저장부(1630), 추가 콘텐츠 저장부(1640) 및 EPG 정보 저장부(1650)를 포함할 수 있다.The
RMC 저장부(1630)는 동영상의 촬영 본 또는 기본 편집 본과 같은 레디-메이드 콘텐츠를 저장할 수 있다.The
추가 콘텐츠 저장부(1640)는 동영상의 최대 촬영 본 또는 최소 촬영 본과 같은 추가적인 콘텐츠를 저장할 수 있다.The additional
EPG 정보 저장부(1650)는 콘텐츠의 EPG 정보를 저장할 수 있다.The EPG
제어부(1610)은 하나 이상의 저장부들로부터 동영상의 하나 이상의 편집 본들, 동영상의 촬영본 및 동영상의 EPG 정보 등을 네트워킹부(1620)를 통해 전자 장치(100) 또는 전자 장치(700)에게 제공할 수 있다.
The
실시예들은 다양한 컴퓨터로 구현되는 동작을 수행하기 위한 프로그램 명령을 포함하는 컴퓨터 판독 가능 매체를 포함한다. 특히, 본 실시예에서는 사용자가 동영상을 시청할 수 있도록 동영상을 재생하는 재생 코드와, 사용자의 동작에 기인하여 발생한 물리적 현상을 식별하는 식별 코드와, 식별된 물리적 현상에 기반하여 사용자의 동영상에 대한 반응을 추정하는 추정 코드와, 추정된 반응에 기반하여 상기 동영상의 재생을 제어하는 제어 코드를 포함하는 사용자에게 동영상을 제공하는 프로그램이 기록되는 컴퓨터 판독 가능 매체를 포함할 수 있다. 본 실시예에 따른 프로그램은 PC 기반의 프로그램 또는 모바일 단말 전용 어플리케이션(예를 들어, 스마트폰 어플리케이션, 피쳐폰 VM(virtual machine) 등의 형태) 등으로 구성될 수 있다. 이는, 사용자 단말 및/또는 전자책 서비스 시스템의 메모리에 저장되어 사용자 단말 및/또는 전자책 서비스 시스템에서 구동되는 적어도 하나의 프로세서에 의해 실행되도록 구성될 수 있다.Embodiments include a computer readable medium having program instructions for performing various computer implemented operations. In particular, in the present embodiment, the playback code for playing the video so that the user can watch the video, the identification code for identifying a physical phenomenon caused by the user's motion, and the user's response to the video based on the identified physical phenomenon And a computer readable medium on which a program for providing a video to a user is recorded, the estimation code estimating a and a control code for controlling reproduction of the video based on the estimated response. The program according to the present embodiment may be composed of a PC-based program or a mobile terminal exclusive application (for example, a form of a smart phone application, a feature phone VM (virtual machine), etc.). This may be configured to be executed by the user terminal and / or at least one processor stored in the memory of the electronic book service system and / or running in the user terminal and / or the electronic book service system.
상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 또한, 상술한 파일 시스템은 컴퓨터 판독이 가능한 기록 매체에 기록될 수 있다.The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Furthermore, the above-described file system can be recorded on a computer-readable recording medium.
이상과 같이 실시예를 통해 설명된 기술적 내용은 다양한 수정 및 변형이 가능하다. 그러므로, 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.As described above, the technical details described in the embodiments can be variously modified and modified. Therefore, the scope of the invention should not be limited to the described embodiments, but should be determined by the equivalents of the appended claims, as well as the appended claims.
100: 전자 장치
110: 센싱부
120: 입력부
130: 처리부
140: 송수신부
150: 저장부
160: 출력부100: electronic device
110: sensing unit
120: Input unit
130:
140: Transmitting /
150:
160: Output section
Claims (15)
상기 사용자가 상기 동영상을 시청할 수 있도록 상기 동영상을 재생하는 단계;
상기 사용자의 동작에 기인하여 발생한 물리적 현상을 식별하는 단계;
상기 물리적 현상에 기반하여 상기 사용자의 상기 동영상에 대한 반응을 추정하는 단계; 및
상기 추정된 반응에 기반하여 상기 동영상의 재생을 제어하는 단계
를 포함하고,
상기 제어는 상기 재생의 중단 또는 재개, 상기 재생의 속도의 조절, 상기 동영상 중 일부의 재생 시간의 조절 및 상기 동영상의 밝기의 조절 중 하나 이상을 포함하는 동영상 제공 방법.In a method for providing a video to a user in an electronic device,
Playing the video so that the user can watch the video;
Identifying a physical phenomenon resulting from the user's motion;
Estimating a response of the user to the video based on the physical phenomenon; And
Controlling playback of the video based on the estimated response
Lt; / RTI >
And the control comprises one or more of stopping or resuming the playback, adjusting the speed of the playback, adjusting the playback time of the portion of the video, and adjusting the brightness of the video.
상기 물리적 현상은 상기 사용자의 시청 환경 상의 변화이고,
상기 시청 환경 상의 변화는 객체 및 근접 센서 간의 거리의 변화 및 빛의 밝기의 변화 중 하나 이상을 포함하는, 동영상 제공 방법.The method of claim 1,
The physical phenomenon is a change in the viewing environment of the user,
And wherein the change in the viewing environment comprises one or more of a change in distance between an object and a proximity sensor and a change in brightness of light.
상기 사용자의 동작에 기인하여 발생한 물리적 현상을 식별하는 단계는,
상기 전자 장치 주위의 물리적 상태를 감지함으로써 제1 물리적 상태에 대한 정보를 생성하는 단계;
상기 제1 물리적 상태에 대한 정보가 감지된 후 상기 전자 장치 주위의 물리적 상태를 감지함으로써 제2 물리적 상태에 대한 정보를 생성하는 단계; 및
상기 제1 물리적 상태에 대한 정보 및 상기 제2 물리적 상태에 대한 정보 간의 차이에 기반하여 상기 물리적 현상을 식별하는 단계
를 포함하고,
상기 제1 물리적 상태 및 상기 제2 물리적 상태는 근접 센서, 조도 센서, 중력 센서, GPS 센서 및 자이로스코프 중 적어도 하나의 센서에 의해 감지되는, 동영상 제공 방법.The method of claim 1,
Identifying a physical phenomenon caused by the user's motion,
Generating information about a first physical state by sensing a physical state around the electronic device;
Generating information about a second physical state by detecting a physical state around the electronic device after the information about the first physical state is detected; And
Identifying the physical phenomenon based on a difference between the information about the first physical state and the information about the second physical state
Lt; / RTI >
And the first physical state and the second physical state are sensed by at least one of a proximity sensor, an illuminance sensor, a gravity sensor, a GPS sensor, and a gyroscope.
상기 제어는 상기 추정된 반응에 기반하여 상기 동영상의 전체 볼륨 및 상기 동영상의 소리 요소들의 각각의 개별적인 볼륨을 조절하는 것을 포함하고,
상기 소리 요소들은 배경 음악, 효과음, 대사 및 나레이션 중 하나 이상을 포함하는, 동영상 제공 방법.The method of claim 1,
The control includes adjusting the overall volume of the video and the individual volume of each of the sound elements of the video based on the estimated response,
Wherein the sound elements comprise one or more of background music, sound effects, dialogue and narration.
상기 추정된 반응은 상기 사용자가 상기 동영상을 시청하는지 여부 및 상기 사용자가 상기 동영상의 시청에 집중하는지 여부 중 하나 이상을 포함하고,
상기 동영상 중 상기 사용자가 집중하는 것으로 추정된 부분에는 부가적인 내용이 추가되고, 상기 사용자가 집중하지 않는 것으로 추정된 부분에는 일부 내용이 건너뛰기(skip)되는, 동영상 제공 방법.The method of claim 1,
The estimated response includes one or more of whether the user watches the video and whether the user focuses on viewing the video,
The additional content is added to the portion of the video estimated to be concentrated by the user, and the partial content is skipped to the portion estimated to be not concentrated by the user.
상기 제어는 상기 추정된 반응이 상기 사용자가 상기 동영상을 시청하지 않는 것을 나타낼 때 상기 동영상의 재생을 중단시키는 것 및 상기 추정된 반응이 상기 사용자가 상기 동영상을 시청하는 것을 나타낼 때 상기 동영상의 재생을 재개하는 것을 포함하는, 동영상 제공 방법.6. The method of claim 5,
The control stops playback of the video when the estimated response indicates that the user is not watching the video and playback of the video when the estimated response indicates that the user is watching the video. A video providing method comprising resuming.
상기 제어는 추정된 반응이 상기 사용자가 상기 동영상의 시청에 집중한다는 것을 나타낼 때, 상기 동영상 중 상기 사용자가 집중한 부분에 관련된 부분의 재생 시간을 증가시키는 것 및 상기 추정된 반응이 상기 사용자가 상기 동영상의 시청에 집중하지 않는다는 것을 나타낼 때, 상기 동영상 중 상기 사용자가 집중하지 않은 부분에 관련된 부분의 재생 시간을 감소시키는 것을 포함하는, 동영상 제공 방법.6. The method of claim 5,
The control indicates that when the estimated response indicates that the user concentrates on the viewing of the video, increasing the playing time of the portion of the video related to the focused portion of the user and the estimated response is determined by the user. Reducing the playback time of a portion of the video that is related to the portion of the video that is not concentrated by the user when indicating that the user is not focused on viewing the video.
상기 동영상은 복수 개의 카테고리들로 분류되고,
상기 동영상은 하나 이상의 편집 본들을 포함하고,
상기 재생 시간을 증가시키는 것 및 상기 재생 시간을 감소시키는 것은 각각 하나 이상의 편집 본들 중 재생할 편집 본을 선택함으로써 수행되고, 상기 선택은 상기 복수 개의 카테고리들 중 상기 집중한 부분 또는 상기 집중하지 않은 부분이 속하는 카테고리에 대해 적용되는, 동영상 제공 방법.The method of claim 7, wherein
The video is classified into a plurality of categories,
The video includes one or more edited texts,
Increasing the reproduction time and decreasing the reproduction time are each performed by selecting an edited copy to be reproduced from one or more edited copies, wherein the selection is performed by the concentrated portion or the non-concentrated portion of the plurality of categories. The method of providing a video applied to a category to which it belongs.
상기 복수 개의 카테고리들 및 상기 하나 이상의 촬영 본들에 대한 정보는 상기 동영상의 전자 프로그램 가이드(Electronic Program Guide; EPG)를 통해 제공되는, 동영상 제공 방법.The method of claim 7, wherein
The information on the plurality of categories and the one or more shots is provided through an electronic program guide (EPG) of the video.
상기 사용자가 상기 동영상을 시청할 수 있도록 상기 동영상을 재생하는 재생 코드;
상기 사용자의 동작에 기인하여 발생한 물리적 현상을 식별하는 식별 코드;
상기 물리적 현상에 기반하여 상기 사용자의 상기 동영상에 대한 반응을 추정하는 추정 코드; 및
상기 추정된 반응에 기반하여 상기 동영상의 재생을 제어하는 제어 코드
를 포함하고,
상기 제어는 상기 재생의 중단 또는 재개, 상기 재생의 속도의 조절, 상기 동영상 중 일부의 재생 시간의 조절 및 상기 동영상의 밝기의 조절 중 하나 이상을 포함하는 프로그램이 기록된, 컴퓨터에서 판독 가능한 기록 매체.A recording medium in which a program for providing a moving picture to a user through an electronic device is recorded.
A playback code for playing the video so that the user can watch the video;
An identification code for identifying a physical phenomenon resulting from the user's operation;
An estimation code for estimating a response of the user to the video based on the physical phenomenon; And
A control code for controlling playback of the video based on the estimated response
Lt; / RTI >
The control may be a computer readable recording medium having recorded thereon a program including one or more of interrupting or resuming the playback, adjusting the speed of the playback, adjusting the playback time of the portion of the video and adjusting the brightness of the video. .
상기 사용자가 상기 동영상을 시청할 수 있도록 상기 동영상을 재생하고, 상기 사용자의 동작에 기인하여 발생한 물리적 현상을 식별하고, 상기 물리적 현상에 기반하여 상기 사용자의 상기 동영상에 대한 반응을 추정하고, 상기 추정된 반응에 기반하여 상기 동영상의 재생을 제어하는 처리부; 및
상기 동영상을 출력하는 출력부
를 포함하고,
상기 제어는 상기 재생의 중단 또는 재개, 상기 재생의 속도의 조절, 상기 동영상 중 일부의 재생 시간의 조절 및 상기 동영상의 밝기의 조절 중 하나 이상을 포함하는, 전자 장치.An electronic device for providing a video to a user,
Play the video so that the user can watch the video, identify a physical phenomenon caused by the user's motion, estimate the user's response to the video based on the physical phenomenon, and estimate the A processor configured to control playback of the video based on a response; And
Output unit for outputting the video
Lt; / RTI >
And the control comprises one or more of stopping or resuming the playback, adjusting the speed of the playback, adjusting the playback time of the portion of the video and adjusting the brightness of the video.
상기 동영상은 복수 개의 편집 본들 중 상기 반응에 따라서 선택되는 하나의 편집 본이고,
상기 복수 개의 편집 본들은 각각 촬영에 의해 생성된 상기 동영상의 촬영 본을 편집함으로써 생성되는, 전자 장치.12. The method of claim 11,
The video is one edited copy selected according to the response among a plurality of edited texts,
And the plurality of edited copies are each generated by editing a photographed copy of the video generated by photographing.
상기 복수 개의 편집 본들은 기본 편집 본, 최소 편집 본 및 최대 편집 본을 포함하고,
상기 최대 편집 본의 재생 시간은 상기 기본 편집 본의 재생 시간 이상이며, 상기 기본 편집 본의 재생 시간은 상기 최소 편집 본의 재생 시간 이상이고,
상기 기본 편집 본의 내용은 상기 재생이 상기 반응에 따라 제어되지 않을 때 기본적으로 재생되는 내용인, 전자 장치.The method of claim 12,
The plurality of edited versions include a basic edited version, a minimum edited version, and a maximum edited version,
The reproduction time of the maximum edited copy is at least a reproduction time of the basic edited copy, and the reproduction time of the basic edited copy is at least a reproduction time of the minimum edited copy,
The contents of the basic edited copy are contents which are basically reproduced when the reproduction is not controlled according to the response.
상기 복수 개의 편집 본들은 복수 개의 카테고리들에 각각 대응하고,
상기 복수 개의 카테고리들은 각각 상기 동영상 내에서 특정한 출연자가 메인으로 출연하는 장면을 나타내는, 전자 장치.The method of claim 12,
The plurality of compilations correspond to a plurality of categories, respectively,
The plurality of categories each represent a scene in which a specific performer appears in the main video.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120020910A KR101360471B1 (en) | 2012-02-29 | 2012-02-29 | Method and apparatus for controlling playback of content based on user reaction |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120020910A KR101360471B1 (en) | 2012-02-29 | 2012-02-29 | Method and apparatus for controlling playback of content based on user reaction |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20130099418A KR20130099418A (en) | 2013-09-06 |
KR101360471B1 true KR101360471B1 (en) | 2014-02-11 |
Family
ID=49450737
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120020910A KR101360471B1 (en) | 2012-02-29 | 2012-02-29 | Method and apparatus for controlling playback of content based on user reaction |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101360471B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018030760A1 (en) * | 2016-08-12 | 2018-02-15 | (주)코텍 | Apparatus and method for controlling luminance of oled display device |
KR20210071429A (en) * | 2019-12-06 | 2021-06-16 | 이화여자대학교 산학협력단 | Video editing apparatus and method for attention |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015050562A1 (en) * | 2013-10-04 | 2015-04-09 | Intel Corporation | Technology for dynamically adjusting video playback speed |
KR101484190B1 (en) * | 2014-04-01 | 2015-01-20 | 한국과학기술원 | System and method for supporting appreciation of moving picture contents with human reaction and computer readable storage medium storing program executing the same |
CN106562792B (en) * | 2015-10-08 | 2021-08-06 | 松下电器(美国)知识产权公司 | Control method of information presentation device and information presentation device |
US11620543B2 (en) | 2019-12-23 | 2023-04-04 | Google Llc | Identifying physical activities performed by a user of a computing device based on media consumption |
KR102282407B1 (en) * | 2020-01-23 | 2021-07-28 | (주)퓨처쉐이퍼스 | Method and system for providing hologram advertisement |
KR102678303B1 (en) * | 2023-11-27 | 2024-06-25 | 주식회사엠제이에스파트너스 | Method, device, and system for providing video content planning and automatic editing solutions based on viewer response data analysis |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090121016A (en) * | 2008-05-21 | 2009-11-25 | 박영민 | Viewer response measurement method and system |
KR20110125917A (en) * | 2010-05-14 | 2011-11-22 | 주식회사 코리아퍼스텍 | Service method and apparatus for object-based contents for portable device |
-
2012
- 2012-02-29 KR KR1020120020910A patent/KR101360471B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090121016A (en) * | 2008-05-21 | 2009-11-25 | 박영민 | Viewer response measurement method and system |
KR20110125917A (en) * | 2010-05-14 | 2011-11-22 | 주식회사 코리아퍼스텍 | Service method and apparatus for object-based contents for portable device |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018030760A1 (en) * | 2016-08-12 | 2018-02-15 | (주)코텍 | Apparatus and method for controlling luminance of oled display device |
KR20210071429A (en) * | 2019-12-06 | 2021-06-16 | 이화여자대학교 산학협력단 | Video editing apparatus and method for attention |
KR102289464B1 (en) * | 2019-12-06 | 2021-08-12 | 이화여자대학교 산학협력단 | Video editing apparatus and method for attention |
Also Published As
Publication number | Publication date |
---|---|
KR20130099418A (en) | 2013-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101360471B1 (en) | Method and apparatus for controlling playback of content based on user reaction | |
RU2440606C2 (en) | Method and apparatus for automatic generation of summary of plurality of images | |
CA2923807C (en) | Generating alerts based upon detector outputs | |
TWI558186B (en) | Video selection based on environmental sensing | |
US9558784B1 (en) | Intelligent video navigation techniques | |
US9430115B1 (en) | Storyline presentation of content | |
US10770113B2 (en) | Methods and system for customizing immersive media content | |
US9332313B2 (en) | Personalized augmented A/V stream creation | |
US20140250487A1 (en) | Generation and provision of media metadata | |
KR101317204B1 (en) | Method for generating frame information on moving image and apparatus thereof | |
AU2013273781B2 (en) | Method and apparatus for recording video image in a portable terminal having dual camera | |
US20050008343A1 (en) | Producing video and audio-photos from a static digital image | |
US9564177B1 (en) | Intelligent video navigation techniques | |
KR101608396B1 (en) | Linking disparate content sources | |
KR20130062883A (en) | System and method for presenting comments with media | |
US11277668B2 (en) | Methods, systems, and media for providing media guidance | |
US10453263B2 (en) | Methods and systems for displaying augmented reality content associated with a media content instance | |
CN112954390B (en) | Video processing method, device, storage medium and equipment | |
JP2008141746A (en) | System and method for playing moving images | |
KR20190000882A (en) | Computing device, method, computer program for processing video | |
US10622017B1 (en) | Apparatus, a system, and a method of dynamically generating video data | |
KR20160044981A (en) | Video processing apparatus and method of operations thereof | |
US20160073029A1 (en) | Method and system for creating a video | |
JP2013536969A (en) | Method and apparatus for providing community-based metadata | |
US11941048B2 (en) | Tagging an image with audio-related metadata |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20170125 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20180129 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20190201 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20200129 Year of fee payment: 7 |