KR20180053221A - Display device and method for control thereof - Google Patents
Display device and method for control thereof Download PDFInfo
- Publication number
- KR20180053221A KR20180053221A KR1020170132226A KR20170132226A KR20180053221A KR 20180053221 A KR20180053221 A KR 20180053221A KR 1020170132226 A KR1020170132226 A KR 1020170132226A KR 20170132226 A KR20170132226 A KR 20170132226A KR 20180053221 A KR20180053221 A KR 20180053221A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- frame
- additional information
- information
- reproduced
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/238—Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
- H04N21/2387—Stream processing in response to a playback request from an end-user, e.g. for trick-play
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/236—Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
- H04N21/23614—Multiplexing of additional data and video streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
- H04N5/93—Regeneration of the television signal or of selected parts thereof
- H04N5/9305—Regeneration of the television signal or of selected parts thereof involving the mixing of the reproduced video signal with a non-recorded signal, e.g. a text signal
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
Description
본 개시는 영상 처리 장치 및 그의 제어 방법에 관한 것으로, 보다 상세하게는 복수의 영상을 연속해서 재생하는 경우, 필요한 영상을 원하는 위치부터 재생하는 장치 및 방법에 관한 발명이다.BACKGROUND OF THE
고성능 카메라의 보편화 및 소형화로 이동성이 확장되면서, 개인 영상의 촬영이 증가하고 있다. 또한, 스마트폰 기술 및 무선 인터넷망의 발달로 인해, 스마트폰 사용자들은 언제 어디서나 영상을 시청할 수 있게 되었다. 이러한 기술의 발달로, 사용자는 보다 쉽게 영상에 접근할 수 있고, 다양한 영상을 시청하게 되었다. As mobility is expanded with the generalization and miniaturization of high-performance cameras, shooting of personal images is increasing. Also, due to the development of smartphone technology and wireless internet network, smartphone users can watch video anytime and anywhere. With the development of this technology, the user can easily access the image and watch various images.
그러나, 사용자가 복수의 영상을 시청하는 경우 각각의 영상을 처음부터 시청하여야 하는 불편함이 존재한다. 예를 들어, 축구 경기를 즐겨보는 사용자가 특정 선수의 골 장면만을 시청하고자 하는 경우, 시청자는 특정 선수의 골 장면만이 편집된 영상을 시청하는 경우가 아니라면, 복수의 영상을 재생하고, 특정 선수가 골을 넣는 장면을 찾아 시청하여야 하는 번거로움이 존재하였다.However, when a user views a plurality of images, there is an inconvenience that each image must be viewed from the beginning. For example, when a user who enjoys a soccer game wants to view only a goal scene of a specific athlete, the viewer can reproduce a plurality of images if the only scene of the particular athlete does not view the edited image, There was a need to find and watch the scene of scoring goals.
본 개시는 상술한 문제점을 해결하기 위한 것으로, 영상을 구성하는 프레임에 부가 정보를 삽입하여 시청자가 제1 영상에서 제2 영상을 시청하는 경우, 시청자가 원하는 부분부터 제2 영상을 제공하는 것에 목적이 있다.Disclosure of Invention Technical Problem The present invention has been made to solve the above-mentioned problems, and it is an object of the present invention to provide a method and apparatus for providing a second image from a desired portion when a viewer views a second image on a first image by inserting additional information into a frame constituting the image .
상기 목적을 달성하기 위한 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법은, 복수의 프레임 중 적어도 하나의 프레임에 대한 부가 정보를 포함하는 제1 영상 및 제2 영상을 획득하는 단계, 상기 제1 영상에 포함된 복수의 프레임 중, 재생되는 제1 프레임에 대응되는 제1 부가 정보를 획득하는 단계, 상기 제1 영상의 상기 제1 프레임이 재생되는 동안 상기 제2 영상을 재생하기 위한 기 설정된 사용자 명령이 입력되면, 상기 제1 부가 정보에 대응하는 상기 제2 영상의 제2 프레임을 결정하는 단계 및 상기 제2프레임부터 상기 제2 영상을 재생하는 단계; 를 포함한다.According to an aspect of the present invention, there is provided a method of controlling an electronic device, the method comprising: obtaining a first image and a second image including additional information on at least one frame among a plurality of frames; The method comprising the steps of: acquiring first additional information corresponding to a first frame to be reproduced out of a plurality of frames included in one image, acquiring first additional information corresponding to a preset first additional information for reproducing the second image while the first frame of the first image is being reproduced Determining a second frame of the second image corresponding to the first additional information when a user command is input, and reproducing the second image from the second frame; .
이때, 상기 1 프레임은, 상기 사용자 명령이 입력된 시점(time)에 재생중인 프레임이고, 상기 사용자 명령은, 상기 제2 영상을 재생시키는 명령인 것을 특징으로 할 수 있다.In this case, the one frame is a frame being reproduced at a time when the user command is input, and the user command is an instruction to reproduce the second image.
이때, 상기 제1 영상에 복수의 오브젝트에 대응되는 복수의 디스플레이 아이템을 표시하는 단계를 더 포함하고, 상기 사용자 명령은, 상기 복수의 디스플레이 아이템 중 하나를 선택하는 명령인 것을 특징으로 하고, 상기 제1 프레임에 대한 상기 제1 부가 정보는, 상기 선택된 디스플레이 아이템에 대응되는 부가 정보인 것을 특징으로 할 수 있다.The method may further include displaying a plurality of display items corresponding to a plurality of objects on the first image, wherein the user command is an instruction to select one of the plurality of display items, And the first additional information for one frame is additional information corresponding to the selected display item.
이때, 상기 제1 프레임은, 상기 사용자 명령이 입력된 디스플레이 아이템에 대응되는 오브젝트에 대한 부가 정보를 포함하는 프레임인 것을 특징으로 할 수 있다.In this case, the first frame is a frame including additional information on an object corresponding to the display item to which the user command is input.
이때, 상기 재생하는 단계는, 상기 사용자 명령이 입력된 시점부터 상기 제1 프레임까지 상기 제1 영상이 재생된 후, 상기 제2 프레임부터 상기 제2 영상을 재생하는 것을 특징으로 할 수 있다.In this case, the reproducing step may reproduce the second image from the second frame after the first image is reproduced from the time when the user command is input to the first frame.
이때, 상기 제1 부가 정보를 획득하는 단계는, 상기 제1 프레임에 삽입된 복수의 부가 정보 중, 특정 부가 정보만을 필터링하는 단계를 더 포함할 수 있다.In this case, the obtaining of the first additional information may further include filtering only specific additional information among a plurality of additional information inserted in the first frame.
이때, 상기 제2 프레임을 결정하는 단계는, 상기 제1 부가 정보에 대응되는 제2 부가 정보를 결정하는 단계및 상기 제2 부가 정보에 대응하는 상기 제2 영상의 상기 제2 프레임을 결정하는 단계를 포함할 수 있다.The determining of the second frame may include determining second additional information corresponding to the first additional information, and determining the second frame of the second image corresponding to the second additional information . ≪ / RTI >
이때, 상기 부가 정보는 GPS 정보, 방위 정보, 시간 정보, 이미지 분석을 통한 대상 정보, 키워드 정보, 음성 키워드 정보 및 해시태그 정보 중 적어도 하나를 포함하는 것을 특징으로 할 수 있다.Here, the additional information may include at least one of GPS information, azimuth information, time information, object information through image analysis, keyword information, voice keyword information, and hash tag information.
이때, 상기 제1 영상 및 제2 영상의 재생이 종료된 경우, 상기 재생된 제1 영상 및 제2 영상을 합성하여 저장하는 단계; 를 더 포함할 수 있다.Synthesizing and storing the reproduced first and second images when the reproduction of the first and second images is completed; As shown in FIG.
이때, 상기 제1영상 및 상기 제2 영상이 파노라마 영상인 경우, 상기 제1프레임의 시야 방향과 상기 제2 프레임의 시야 방향(화각, view point)이 동일한 것을 특징으로 할 수 있다.In this case, when the first image and the second image are panoramic images, the view direction of the first frame and the view direction of the second frame are the same.
한편, 본 개시의 일 실시 예에 따른 전자 장치에 있어서, 복수의 프레임 중 적어도 하나의 프레임에 대한 부가 정보를 포함하는 제1 영상 및 제2 영상을 재생하는 디스플레이 및 상기 제1 영상에 포함된 복수의 프레임 중, 재생되는 제1 프레임에 대응되는 제1 부가 정보를 획득하고, 상기 제1 영상의 상기 제1 프레임이 재생되는 동안 상기 제2 영상을 재생하기 위한 기 설정된 사용자 명령이 입력되면, 상기 제1 부가 정보에 대응하는 상기 제2 영상의 제2 프레임을 결정하여 상기 제2 프레임부터 상기 제2 영상을 재생하도록 상기 디스플레이를 제어하는 프로세서를 포함한다.On the other hand, in an electronic device according to an embodiment of the present disclosure, a display for reproducing a first image and a second image including additional information on at least one frame among a plurality of frames, and a display When a predetermined user command for playing back the second video is input while the first frame of the first video is being reproduced, the first additional information corresponding to the first frame to be reproduced, And a processor for controlling the display to determine a second frame of the second image corresponding to the first additional information and reproduce the second image from the second frame.
이때, 상기 제1 프레임은, 상기 사용자 명령이 입력된 시점(time)에 재생중인 프레임이고, 상기 사용자 명령은, 상기 제2 영상을 재생시키는 명령인 것을 특징으로 할 수 있다.Here, the first frame may be a frame being reproduced at a time when the user command is input, and the user command may be an instruction to reproduce the second image.
이때, 상기 디스플레이는, 상기 제1 영상에 복수의 오브젝트에 대응되는 복수의 디스플레이 아이템을 표시하고, 상기 사용자 명령은, 상기 복수의 디스플레이 아이템 중 하나를 선택하는 명령인 것을 특징으로 하고, 상기 제1 프레임에 대한 상기 제1 부가 정보는, 상기 선택된 디스플레이 아이템에 대응되는 부가 정보인 것을 특징으로 할 수 있다.In this case, the display may display a plurality of display items corresponding to a plurality of objects in the first image, and the user command is an instruction to select one of the plurality of display items, And the first additional information for the frame is additional information corresponding to the selected display item.
이때, 상기 제1 프레임은, 상기 사용자 명령이 입력된 디스플레이 아이템에 대응되는 오브젝트에 대한 부가 정보를 포함하는 프레임인 것을 특징으로 할 수 있다.In this case, the first frame is a frame including additional information on an object corresponding to the display item to which the user command is input.
이때, 상기 디스플레이는, 상기 사용자 명령이 입력된 시점부터 상기 제1 프레임까지 상기 제1 영상이 재생하고, 상기 제2 프레임부터 상기 제2 영상을 재생하는 것을 특징으로 할 수 있다.In this case, the display may reproduce the first image from the time when the user command is input to the first frame, and reproduce the second image from the second frame.
이때, 상기 프로세서는, 상기 제1 프레임에 삽입된 복수의 부가 정보 중, 특정 부가 정보만을 필터링하는 것을 특징으로 할 수 있다.In this case, the processor may filter only specific additional information among a plurality of additional information inserted in the first frame.
이때, 상기 프로세서는, 상기 제1 부가 정보에 매칭되는 제2 부가 정보를 결정하고, 상기 제2 부가 정보에 대응되는 상기 제2 영상의 상기 제2 프레임을 결정하는 것을 특징으로 할 수 있다.At this time, the processor may determine second additional information matching the first additional information, and determine the second frame of the second image corresponding to the second additional information.
이때, 상기 부가 정보는 GPS 정보, 방위 정보, 시간 정보, 이미지 분석을 통한 대상 정보, 키워드 정보, 음성 키워드 정보 및 해시태그 정보 중 적어도 하나를 포함하는 것을 특징으로 할 수 있다.Here, the additional information may include at least one of GPS information, azimuth information, time information, object information through image analysis, keyword information, voice keyword information, and hash tag information.
이때, 상기 프로세서는, 상기 제1 영상 및 제2 영상의 재생이 종료된 경우, 상기 재생된 제1 영상 및 제2 영상을 합성하는 것을 특징으로 할 수 있다.In this case, when the reproduction of the first image and the second image is completed, the processor combines the reproduced first image and the second image.
이때, 상기 디스플레이는, 상기 제1영상 및 상기 제2 영상이 파노라마 영상인 경우, 상기 제1프레임의 시야 방향과 상기 제2 프레임의 시야 방향이 동일하게 디스플레이 할 수 있다.In this case, when the first image and the second image are panoramic images, the display may display the same view direction of the first frame and the view direction of the second frame.
상술한 바와 같이, 본 개시의 실시 예에 따라, 제1 영상이 재생되던 중 제2 영상을 재생하기 위한 사용자 명령이 입력되는 경우, 전자 장치는 제2 영상의 특정 부분부터 재생하여 시청자가 원하는 위치로 영상을 이동시키는 불편함을 감소시킬 수 있다.As described above, according to the embodiment of the present disclosure, when a user command for reproducing a second video is input while the first video is being reproduced, the electronic apparatus reproduces from a specific portion of the second video, It is possible to reduce the inconvenience of moving the image to the image.
도 1a 및 1b는 본 개시의 일 실시 예에 따른 전자 장치의 구성을 도시한 블록도이다.
도 2a 및 2b는 본 개시의 일 실시 예에 따른 부가 정보를 포함하는 영상을 설명하기 위한 도면이다.
도 3은 본 개시의 일 실시 예에 따른, 제1 영상 및 제2 영상을 재생하는 과정을 도시한 도면이다.
도 4a 및 4b는 본 개시의 일 실시 예에 따른, 영상 재생 방법을 설명한 도면이다.
도 5a 내지 5d는 본 개시의 일 실시 예에 따른, 영상 재생을 이용하여 지도 서비스를 제공하는 방법에 대해 설명한 도면이다.
도 6a 및 6b는 본 개시의 일 실시 예에 따른 제1 영상 및 제2 영상을 재생하는 또다른 방법을 설명하기 위해 도시한 도면이다.
도 7a 및 7b는 본 개시의 일 실시 예에 따른 파노라마 영상의 경우의 실시 예를 설명한 도면이다.
도 8a 내지 8c는 본 개시의 일 실시 예에 따른, 온라인 서비스와 결합된 영상 재생 방법을 설명하기 위한 도면이다.
도 9는 본 개시의 일 실시 예에 따른 영상 재생 시스템을 도시한 도면이다.
도 10a 내지 도 10c는 본 개시의 일 실시예에 따른 영상 재생 시스템을 도시한 도면이다.
도 11은 본 개시의 일 실시 예에 따른, 전자 장치가 영상을 재생하는 방법을 설명한 흐름도이다.1A and 1B are block diagrams showing the configuration of an electronic device according to one embodiment of the present disclosure.
2A and 2B are views for explaining an image including additional information according to an embodiment of the present disclosure.
FIG. 3 is a diagram illustrating a process of reproducing a first image and a second image according to an embodiment of the present disclosure.
FIGS. 4A and 4B are views for explaining an image reproducing method according to an embodiment of the present disclosure. FIG.
5A to 5D are diagrams illustrating a method of providing a map service using image playback, according to an embodiment of the present disclosure.
FIGS. 6A and 6B are diagrams for explaining another method of reproducing a first image and a second image according to an embodiment of the present disclosure.
7A and 7B are views for explaining an embodiment of a panoramic image according to an embodiment of the present disclosure.
8A to 8C are views for explaining an image playback method combined with an online service according to an embodiment of the present disclosure.
9 is a diagram illustrating an image reproduction system according to an embodiment of the present disclosure.
10A to 10C are views showing an image reproduction system according to an embodiment of the present disclosure.
11 is a flow chart illustrating a method by which an electronic device reproduces an image, according to one embodiment of the present disclosure.
이하에서는 본 개시의 바람직한 실시 예가 첨부된 도면을 참조하여 상세히 설명한다. 본 개시를 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단된 경우 그 상세한 설명은 생략한다. 그리고 후술되는 용어들은 본 개시에서의 기능을 고려하여 정의된 용어 들로서 이는 사용자, 운용자 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.Hereinafter, preferred embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In the following description of the present invention, detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present disclosure rather unclear. And the terms used below are terms defined in consideration of the functions in this disclosure, which may vary depending on the user, operator or custom. Therefore, the definition should be based on the contents throughout this specification.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되지는 않는다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 항목들의 조합 또는 복수의 관련된 항목들 중의 어느 하나의 항목을 포함한다.Terms including ordinals such as first, second, etc. may be used to describe various elements, but the elements are not limited by terms. Terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. The term " and / or " includes any combination of a plurality of related items or any of a plurality of related items.
본 명세서에서 사용한 용어는 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 제한 및/또는 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 숫자, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 삽입 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing the embodiments only and is not intended to limit and / or to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as "comprising" or "having" mean that a feature, a number, an operation, an element, a component, or a combination thereof described in the specification is to be present and that one or more other features, Elements, parts, or combinations thereof without departing from the spirit and scope of the invention.
실시 예에 있어서 '모듈' 혹은 '부'는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어 또는 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 '모듈' 혹은 복수의 '부'는 특정한 하드웨어로 구현될 필요가 있는 '모듈' 혹은 '부'를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서로 구현될 수 있다.In the embodiment, 'module' or 'sub' performs at least one function or operation, and may be implemented in hardware or software, or in a combination of hardware or software. In addition, a plurality of 'modules' or a plurality of 'parts' may be integrated into at least one module except for 'module' or 'module' which needs to be implemented by specific hardware, and may be implemented by at least one processor.
한편 본 개시에서는 특별한 사정이 없는 한 제1 영상, 제2 영상, 제1 프레임, 제2 프레임, 제1 부가 정보, 제2 부가 정보는 다음과 같은 의미로 사용된다. 구체적으로, 제1 영상은 처음으로 재생되는 영상을 의미하고, 제2 영상은 제1 영상 뒤에 재생되는 영상을 의미한다. 제1 프레임은 제1 영상이 재생되는 마지막 프레임을 의미하고 제2 프레임은 제2 영상이 재생되는 첫번째 프레임을 의미한다. 또한 제1 부가 정보는 제1 프레임에 삽입된 정보를 의미하고 제2 부가 정보는 제2 프레임에 삽입된 정보를 의미한다.In the present disclosure, the first video, the second video, the first frame, the second frame, the first additional information, and the second additional information are used as follows unless otherwise specified. Specifically, the first image means an image to be reproduced first, and the second image means an image to be reproduced after the first image. The first frame means the last frame in which the first image is reproduced and the second frame means the first frame in which the second image is reproduced. The first additional information means information inserted in the first frame and the second additional information means information inserted in the second frame.
이하에서는 첨부된 도면을 이용하여 본 개시에 대해 구체적으로 설명한다. 도 1a은 본 개시의 일 실시 예에 따른 전자 장치(100)의 구성을 설명하기 위한 개략적인 블록도이다. 이때, 전자 장치(100)는 스마트폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 영상 전화기, 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), 워크스테이션(workstation), PDA(personal digital assistant), PMP(portable multimedia player)등 영상을 재생할 수 있는 전자 장치를 포함할 수 있다. 또 다른 실시 예로, 전자 장치(100)는 도 10 에 도시된 바와 같이, 촬상 장치(200)와 외부 서버(300)를 포함하는 시스템으로 구현될 수 있다.Hereinafter, the present disclosure will be described in detail with reference to the accompanying drawings. FIG. 1A is a schematic block diagram for illustrating a configuration of an
도 1a에 도시된 전자 장치(100)는 디스플레이(110) 및 프로세서(120)를 포함한다. The
디스플레이(110)는, 복수의 프레임 중 적어도 하나의 프레임에 대한 부가 정보를 포함하는 제1 영상 및 제2 영상 중 적어도 하나를 재생할 수 있다. 이때, 디스플레이(110)가 재생하는 제1 영상 및 제2 영상은 복수의 프레임으로 구성되며, 복수의 프레임 중 적어도 일부는, 프레임에 대응하는 부가 정보가 삽입되어 있다.The
이때, 사용자 명령이 입력된 경우, 디스플레이(110)는 제 2영상을 제2프레임부터 재생할 수 있다.At this time, if a user command is input, the
제1 영상이 재생되는 동안, 기 설정된 사용자 명령이 입력되면, 프로세서(120)는 기 설정된 사용자 명령에 대응되는 제1 프레임에 대한 제1 부가 정보를 결정하고, 제1 부가 정보에 대응하는 제2 영상의 제2 프레임을 결정하여 제2프레임부터 제2 영상을 재생하도록 디스플레이(110)를 제어할 수 있다. When a predetermined user command is input while the first image is being reproduced, the
구체적으로, 프로세서(120)는 제1 영상을 제1 프레임까지 재생한 후, 제2 영상의 제2 프레임부터 제2 영상을 재생하도록 디스플레이(110)를 제어할 수 있다.Specifically, the
도 1b는 본 개시의 일 실시 예에 따른 전자 장치(100)의 구성을 상세히 도시한 블록도이다.1B is a block diagram illustrating in detail the configuration of an
구체적으로, 전자 장치(100)는 디스플레이(110), 프로세서(120) 외에 통신부(130), 촬상부(140), 입력부(150), 감지부(160) 및 메모리(170)를 더 포함할 수 있다. 그러나 이러한 구성에 한정되는 것은 아니며, 새로운 구성요소가 추가되거나 생략될 수 있음은 물론이다.The
디스플레이(110)는 전자 장치(100)에서 제공되는 각종 가이드, 영상 컨텐츠, 정보, UI 등을 표시할 수 있다. 디스플레이(110)는 액정 표시 장치(Liquid Crystal Display, LCD), 유기 전기 발광 다이오드(Organic Light Emitting Display, OLED) 또는 플라즈마 표시 패널(Plasma Display Panel, PDP) 등으로 구현되어, 전자 장치(100)를 통해 제공 가능한 다양한 화면을 표시할 수 있다.The
특히 디스플레이(110)는 전자 장치(100)에서 제공되는 각종 가이드, 영상 컨텐츠, 정보, UI 등을 표시할 수 있다. 디스플레이(110)는 액정 표시 장치(Liquid Crystal Display, LCD), 유기 전기 발광 다이오드(Organic Light Emitting Display, OLED) 또는 플라즈마 표시 패널(Plasma Display Panel, PDP) 등으로 구현되어, 전자 장치(100)를 통해 제공 가능한 다양한 화면을 표시할 수 있다.In particular, the
구체적으로, 디스플레이(110)는 제1 영상 및 제2 영상을 재생할 수 있다. Specifically, the
통신부(130)는 와이파이 칩(131), 블루투스 칩(132), 무선 통신 칩(133), NFC칩(134)중 적어도 하나를 포함할 수 있다. 특히, 와이파이 칩(131), 블루투스 칩(132) 각각은 와이파이 방식, 블루투스 방식으로 통신을 수행할 수 있다. 와이파이 칩(131)이나 블루투스 칩(132)을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. 무선 통신 칩(133)은 IEEE, Zigbee, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution) 등과 같은 다양한 통신 규격에 따라 통신을 수행하는 칩을 의미한다. NFC 칩(134)은 135kHz, 13.56MHz, 433MHz, 860~960MHz, 2.45GHz 등과 같은 다양한 RF-ID 주파수 대역들 중에서 13.56MHz 대역을 사용하는 NFC(Near Field Communication) 방식으로 동작하는 칩을 의미한다.The
통신부(130)는 외부 서버 또는 외부 전자 장치와 통신을 수행할 수 있다. 예를 들어, 동영상 스트리밍 방식을 통해 영상을 재생하는 경우, 전자 장치(100)는 외부 서버로부터 영상 데이터를 수신할 수 있다. 또한, 프로세서(120)는 사용자 명령을 외부 서버로 송신하도록 통신부(130)는 제어할 수 있다.The
입력부(140)는 사용자의 명령을 입력 받을 수 있다. 구체적으로, 입력부(140)는 제1 영상을 재생하기 위한 사용자 명령 또는 제1 영상이 재생되는 중, 제2 영상을 재생하기 위한 사용자 명령을 프로세서(120)로 출력할 수 있다.The
촬상부(150)는 영상을 촬영할 수 있다. 구체적으로, 전자 장치(100)가 촬상부(150)을 포함하는 경우, 촬상부(150)는 영상 촬영을 할 수 있다. 촬상부(150)에 의해 촬영된 영상은 디스플레이(110)에 재생될 수도 있으며, 외부 서버(300)로 전송되어 다른 전자 장치로 전송될 수도 있음은 물론이다.The
또한, 촬상부(150)는 일반 동영상을 촬영할 수 있을 뿐만 아니라 파노라마 영상을 촬영할 수 있다. 이때, 파노라마 영상이란, 360도 또는 기 설정된 각도 이상(예를 들어 180도)의 시야를 확보할 수 있는 영상을 의미할 수 있다.In addition, the
한편, 촬상부(150)는 전자 장치(100) 내에 구비될 수 있으나, 이는 일 실시 예에 불과할 뿐, 전자 장치(100)와 유/무선 형태로 연결될 수 있다.Meanwhile, the
감지부(160)는 다양한 데이터를 감지할 수 있다. 또한, 감지부(160)에서 감지한 데이터는 부가 정보를 생성하는데 사용될 수 있다. 구체적으로, 감지부는 자이로 센서, GPS 센서, 가속도 센서 등을 포함할 수 있다. 그러나 상술한 센서에 한정되는 것은 아니며, 다양한 부가 정보를 생성하기 위한 여러가지 센서를 포함할 수 있음은 물론이다.The
촬상부(150)에 의해 영상이 촬영되는 경우, 감지부(160)는 촬영중인 영상 프레임 삽입하기 위한 GPS 좌표, 방위 등의 데이터를 감지할 수 있다. 이때, 데이터는 대응되는 영상 프레임에 부가 정보로서 삽입될 수 있다.When the image is captured by the
메모리(170)는 전자 장치(100)를 구동시키기 위한 O/S(Operating System)가 저장될 수 있다. 또한, 메모리(170)는 본 개시의 다양한 실시 예들에 따라 전자 장치(100)가 동작하기 위한 각종 소프트웨어 프로그램이나 어플리케이션이 저장될 수도 있다. 메모리(170)는 프로그램 또는 어플리케이션의 실행 중에 입력되거나 설정 또는 생성되는 각종 데이터 등과 같은 다양한 정보가 저장될 수 있다. The
또한, 메모리(170)는 본 개시의 다양한 실시 예들에 따라 전자 장치(100)가 동작하기 위한 각종 소프트웨어 모듈을 포함할 수 있으며, 프로세서(120)는 메모리(170)에 저장된 각종 소프트웨어 모듈을 실행하여 본 개시의 다양한 실시 예들에 따른 전자 장치(100)의 동작을 수행할 수 있다.The
또한, 메모리(170)는 촬상부(150)에 의해 촬영된 영상 및 감지부(160)에 의해 감지된 데이터를 저장할 수 있다. 특히, 메모리(170)는 제1 영상 및 제2 영상을 저장할 수 있다. 이를 위해, 메모리(170)는 플래시 메모리(Flash Memory) 등과 같은 반도체 메모리나 하드디스크(Hard Disk) 등과 같은 자기 저장 매체 등을 포함할 수 있다.The
프로세서(120)는 전자 장치(100)의 동작을 전반적으로 제어할 수 있다.The
프로세서(120)는 도 1b에 도시된 바와 같이, RAM(121), ROM(122), 메인 CPU(124), 제1 내지 n 인터페이스(125-1 ~ 125-n), 버스(126)를 포함한다. 이때, RAM(121), ROM(122), 메인 CPU(124), 제1 내지 n 인터페이스(125-1 ~ 125-n) 등은 버스(126)를 통해 서로 연결될 수 있다. The
ROM(122)에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴 온 명령이 입력되어 전원이 공급되면, 메인 CPU(124)는 ROM(122)에 저장된 명령어에 따라 메모리(170)에 저장된 O/S를 RAM(121)에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, 메인 CPU(124)는 메모리(170)에 저장된 각종 어플리케이션 프로그램을 RAM(121)에 복사하고, RAM(121)에 복사된 어플리케이션 프로그램을 실행시켜 각종 동작을 수행한다. The
메인 CPU(124)는 메모리(170)에 액세스하여, 메모리(170)에 저장된 O/S를 이용하여 부팅을 수행한다. 그리고 메인 CPU(124)는 메모리(170)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행한다. The
제1 내지 n 인터페이스(125-1 내지 125-n)는 상술한 각종 구성요소들과 연결된다. 인터페이스들 중 하나는 네트워크를 통해 외부 장치와 연결되는 네트워크 인터페이스가 될 수도 있다.The first to n-th interfaces 125-1 to 125-n are connected to the various components described above. One of the interfaces may be a network interface connected to an external device via a network.
구체적으로, 제1 영상이 재생되는 동안, 기 설정된 사용자 명령이 입력되면, 프로세서(120)는, 기 설정된 사용자 명령에 대응되는 제1 프레임에 대한 제1 부가 정보를 결정하고, 제1 부가 정보에 대응하는 제2 영상의 제2 프레임을 결정하여 제2프레임부터 제2 영상을 재생하도록 디스플레이(110)를 제어할 수 있다. 이때, 제1 영상 및 제2 영상은 동일한 오브젝트 또는 이벤트를 포함하는 관련된 영상들일 수 있다. 즉, 제1 영상 및 제2 영상을 동일한 오브젝트 또는 이벤트에 대한 정보를 포함하는 부가 정보를 포함할 수 있다.Specifically, when a predetermined user command is input while the first image is being reproduced, the
이때, 프로세서(120)는 제1 부가 정보에 대응되는 제2 부가 정보를 결정하고, 제2 부가 정보에 대응되는 제2 영상의 상기 제2 프레임을 결정할 수 있다.At this time, the
이때, 제1 프레임은, 사용자 명령이 입력된 시점(time)에 재생중인 프레임이고, 사용자 명령은 제2 영상을 재생시키는 명령일 수 있다. 구체적으로, 제1 영상이 재생되는 도중, 제2 영상을 재생시키기 위한 사용자 명령이 입력된 경우, 프로세서(120)는 제1 영상을 제1 프레임까지 재생한 후, 제2 영상의 제2 프레임부터 재생하도록 디스플레이(110)를 제어할 수 있다. 이때, 제1 프레임 및 제2 프레임이 포함하는 부가 정보는, 서로 동일하거나 연관된 부가 정보일 수 있다.Here, the first frame may be a frame being reproduced at a time when a user command is input, and the user command may be a command to reproduce the second image. Specifically, when a user command for reproducing a second image is inputted while the first image is being reproduced, the
이때, 부가 정보는, GPS 정보, 방위 정보, 시간 정보, 이미지 분석을 통한 대상 정보, 키워드 정보, 음성 키워드 정보 및 해시태그 정보 중 적어도 하나를 포함할 수 있다. 그러나 상술한 예에 한정되는 것은 아니고, 프레임과 관련된 다양한 종류의 부가 정보가 존재할 수 있음은 물론이다. At this time, the additional information may include at least one of GPS information, azimuth information, time information, object information through image analysis, keyword information, voice keyword information, and hash tag information. However, it is needless to say that the present invention is not limited to the above-described example, and various kinds of additional information related to the frame may exist.
예를 들어, 이러한 부가 정보는, 감지부(160)에 의해 감지된 데이터일 수 있다. 그러나 감지부(160)에 의해 감지되지 않은 데이터도 부가 정보로 활용할 수 있다. 즉, 프로세서(120)는 기존에 수집된 데이터들을 활용해 새로운 정보의 생성 및 수집이 가능하다. 예를 들어, 프로세서(120)는 감지부(160)에 감지된 위치와 시간 데이터를 바탕으로 웹상의 정보를 크롤링하여 감지된 위치와 시간에 대응하는 사건 이벤트를 새로운 부가 정보로 생성할 수 있다. 예를 들어, 프로세서(120)는 2016년 9월 12일 19시 44분에 경주에서 촬영된 영상 프레임에 대하여 "지진"이라는 부가 정보를 생성할 수 있다.For example, the additional information may be data sensed by the
또 다른 실시 예로, 제1 영상에 복수의 오브젝트에 대응되는 복수의 디스플레이 아이템이 디스플레이 되는 경우, 사용자 명령은 복수의 디스플레이 아이템 중 하나를 선택하는 명령일 수 있다. 이때 제1 프레임에 대한 제1 부가 정보는, 선택된 디스플레이 아이템에 대응되는 부가 정보일 수 있다. 구체적으로, 제1 영상에 존재하는 복수의 디스플레이 아이템 중 하나를 선택하는 사용자 명령이 입력된 경우, 프로세서(120)는 선택된 디스플레이 아이템에 대응되는 부가 정보를 결정할 수 있다. 이때, 선택된 디스플레이 아이템에 대응되는 부가 정보는, 디스플레이 아이템에 대응되는 오브젝트에 대한 부가 정보일 수 있다. In another embodiment, when a plurality of display items corresponding to a plurality of objects are displayed on the first image, the user command may be a command to select one of the plurality of display items. Here, the first additional information for the first frame may be additional information corresponding to the selected display item. Specifically, when a user command for selecting one of the plurality of display items existing in the first image is inputted, the
사용자 명령이 입력된 경우, 프로세서(120)는 제1 영상을 제1 프레임까지 재생한 후, 제2 영상을 제2 프레임부터 재생하도록 디스플레이(110)를 제어할 수 있다.When a user command is input, the
한편, 제1 프레임 및 제2 프레임에 삽입된 부가 정보는 복수의 부가 정보일 수 있다. 이때, 프로세서(120)는 각각의 프레임에 삽입된 부가 정보 중, 특정 부가 정보만을 필터링할 수 있다. On the other hand, the additional information inserted in the first frame and the second frame may be a plurality of additional information. At this time, the
또한, 제1영상 및 제2 영상의 재생이 종료된 경우, 프로세서(120)는 재생된 상기 제1 영상 및 제2 영상을 합성할 수 잇다. 구체적으로, 프로세서(120)는, 사용자 명령에 의해 제1 영상의 제1 프레임까지의 영상과, 제2 영상의 제2 프레임부터 제2 영상이 종료된 프레임까지의 영상을 합성하여 저장할 수 있다. 이때, 합성된 영상은 메모리(170)에 저장될 수 있다. In addition, when the reproduction of the first image and the second image is completed, the
또한, 제1 영상 및 제2 영상이 파노라마 영상인 경우, 프로세서(120)는 제1상기 프레임의 시야 방향과 제2 프레임의 시야 방향을 동일하게 디스플레이 하도록 디스플레이(110)를 제어할 수 있다. 구체적으로, 제2영상의 제2 프레임의 시야 방향은 제1 영상의 제1 프레임의 시야 방향과 동일할 수 있다.In addition, when the first image and the second image are panoramic images, the
도 2a 내지 도 3은 본 개시의 일 실시 예에 따른, 시간에 흐름에 따라 구성된 영상 데이터를 도시한 도면이다. 즉, 도 2a 내지 도 3에 도시된 영상 데이터는 왼쪽 끝 부분이 영상의 시작 시점을 나타내고, 오른쪽 끝 부분이 영상의 종료 시점을 나타낸다. Figs. 2A to 3 are diagrams showing image data configured according to time according to an embodiment of the present disclosure. Fig. In other words, the left end portion of the image data shown in FIGS. 2A to 3 indicates the start point of the image, and the right end portion indicates the end point of the image.
도 2a 및 2b는 본 개시의 일 실시 예에 따른 부가 정보를 포함하는 영상을 설명하기 위한 도면이다.2A and 2B are views for explaining an image including additional information according to an embodiment of the present disclosure.
도 2a에 도시된 바와 같이, 영상 데이터(210)는 복수의 부가 정보(220-1 내지 220-N)를 포함할 수 있다. 구체적으로, 도 2b에 도시된 바와 같이, 복수의 부가 정보(220-1 내지 220-N)는 영상 데이터(210)는 분할된 영상 데이터(210-1 내지 210-N)로 이루어 질 수 있다. 각각의 부가 정보(220-1 내지 220-N)는 각각의 영상 데이터(210-1 내지 210-N)에 삽입될 수 있다. 예를 들어 제1 영상 데이터(210-1)에는 제1 부가 정보(220-1)가 삽입되고, 제2 영상 데이터(210-2)에는 제2 부가 정보(220-2)가 삽입될 수 있다.As shown in FIG. 2A, the
한편, 본 개시에서는 각각의 영상 데이터(210-1 내지 210-N)는 하나의 프레임인 경우를 예로 하여 설명하였다. 그러나 각각의 영상 데이터(210-1 내지 210-N)는 하나의 프레임으로 이루어진 경우가 아닐 수도 있으며, 복수의 프레임이 하나의 영상 데이터를 구성할 수 있음은 물론이다.On the other hand, in the present disclosure, the case where each of the image data 210-1 to 210-N is one frame has been described as an example. However, it is needless to say that the respective image data 210-1 to 210-N may not be composed of one frame, and a plurality of frames may constitute one image data.
또한, 본 개시에서는 하나의 영상 데이터에 하나의 부가 정보가 삽입되는 경우를 예로 하여 설명하였으나, 하나의 영상 데이터에 복수의 삽입 데이터가 포함될 수 있음은 물론이다. Also, in the present disclosure, one additional information is inserted into one image data. However, it is needless to say that a plurality of embedded data may be included in one image data.
즉, 본 개시의 실시 예에서 프레임에 삽입된 부가 정보는, 하나의 프레임에 삽입된 하나의 부가 정보일 수 있고, 복수의 프레임으로 구성된 하나의 영상 데이터에 삽입된 하나의 부가 정보일 수도 있으며, 하나의 프레임에 삽입된 복수의 부가 정보일 수도 있고, 복수의 프레임으로 구성된 하나의 영상 데이터에 삽입된 복수의 삽입 데이터일 수도 있음은 물론이다.That is, in the embodiment of the present disclosure, the additional information inserted in the frame may be one additional information inserted in one frame, or may be one additional information inserted in one video data composed of a plurality of frames, It may be a plurality of pieces of additional information inserted in one frame or a plurality of pieces of embedded data inserted into one piece of video data composed of a plurality of frames.
이하, 본 개시에서는 각각의 영상 데이터가 각각의 프레임인 경우로 한정하여 설명한다. 다만, 상술한 바와 같이 영상 프레임은 복수의 영상 프레임을 포함하는 영상 데이터를 의미할 수도 있음은 물론이다.Hereinafter, the present disclosure will be limited to the case where each video data is a respective frame. However, it goes without saying that the image frame may mean image data including a plurality of image frames as described above.
도 3은 본 개시의 일 실시 예에 따른, 제1 영상 및 제2 영상을 재생하는 과정을 도시한 도면이다.FIG. 3 is a diagram illustrating a process of reproducing a first image and a second image according to an embodiment of the present disclosure.
구체적으로, 제1 영상(310)은 복수의 프레임(311 내지 313)을 포함할 수 있고, 제2 영상(320) 또한 복수의 프레임(321 내지324)를 포함할 수 있다. 제 1영상(310)이 재생되는 경우, 전자 장치(100)는 부가 정보가 삽입된 영상 데이터를 재생한다. 이때, 기 설정된 사용자 명령이 입력되면, 프로세서(120)는 기 설정된 사용자 명령에 대응하는 제1 프레임(313)에 대한 제1 부가 정보를 결정할 수 있다. 이때, 기 설정된 사용자 명령은 제2영상을 실행하는 명령일 수 있다. 또한 기 설정된 사용자 명령은 제1 영상에 디스플레이된 디스플레이 아이템을 선택하는 명령일 수도 있으나, 이에 한정되는 것은 아니다. 이때 디스플레이 아이템은 제2 영상에 관한 썸네일 이미지일 수도 있으며, 제1 영상에 포함된 오브젝트들(예를 들어, 영상에 포함된 건물, 사람 등) 일 수도 있으나, 이에 한정되는 것은 아니다.In particular, the
기 설정된 사용자 명령이 입력된 경우, 전자 장치(100)는 제1 영상을 제1 프레임(313)까지 재생한 후, 제2 영상을 제2 프레임(323)부터 재생할 수 있다. When a preset user command is input, the
이때, 제2 프레임은 제1 부가 정보에 대응되는 프레임일 수 있다. 구체적으로, 제1 영상이 재생되는 도중 사용자 명령이 입력된 경우, 프로세서(120)는 사용자 명령에 대응되는 제1 프레임을 결정할 수 있다. 프로세서(120)는 제1 프레임에 포함된 제1 부가 정보에 대응되는 제2 부가 정보를 결정 할 수 있다. 이때, 제2 부가 정보는 제2 영상을 구성하는 복수의 프레임이 포함하는 부가 정보들 중 하나일 수 있다. 제2 부가 정보가 결정된 경우, 프로세서(120)는 제2 부가 정보를 포함하는 제2 프레임을 결정할 수 있다.At this time, the second frame may be a frame corresponding to the first additional information. In particular, when a user command is input during the reproduction of the first image, the
이때 제2 부가 정보를 포함하는 제2 영상의 프레임이 복수개인 경우, 다양한 방법에 의해 제2 프레임을 결정할 수 있다. 예를 들어 제2 부가 정보를 포함하는 복수의 프레임들 중 가장 빠른 프레임이 제2 프레임이 될 수 있다. 가장 빠른 프레임이란 제2 영상이 재생되는 경우 가장 먼저 재생되는 프레임을 의미한다. 다만, 상술한 방법에 한정되는 것은 아니며 다양한 방법에 의해 제2 부가 정보를 포함하는 제2 프레임을 결정할 수 있음은 물론이다.At this time, when there are a plurality of frames of the second image including the second additional information, the second frame can be determined by various methods. For example, the fastest frame among the plurality of frames including the second additional information may be the second frame. The fastest frame is the frame that is reproduced first when the second image is reproduced. However, the present invention is not limited to the above-described method, and it is needless to say that the second frame including the second additional information can be determined by various methods.
예를 들어 제2 부가 정보가 복수개의 부가 정보를 포함하는 경우, 제2 프레임은 복수의 부가 정보 중 가장 많은 부가 정보를 가지는 프레임을 제2 프레임으로 결정할 수도 있다.For example, when the second additional information includes a plurality of additional information, the second frame may determine a frame having the largest additional information among the plurality of additional information as the second frame.
또는, 제2 부가 정보를 가지는 프레임이 복수개인 경우, 해당 프레임과 인접한 프레임들을 이용하여 제2 프레임을 결정할 수도 있다. 예를 들어, 전자 장치(100)는 제1 부가 정보를 포함하는 제1 프레임의 이전 및 이후 프레임(이하 1-1 프레임 및 1-2 프레임)이 포함하는 부가정보(이하 1-1 부가 정보 및 1-2 부가정보)를 결정할 수 있다. 이때, 제2 부가 정보를 포함하는 제2 영상의 복수의 프레임들 중, 각각의 프레임의 인접 프레임이 포함하는 부가 정보가 1-1 부가 정보 및 1-2 부가 정보에 대응되는 경우, 전자 장치(100)는 해당 프레임을 제2 프레임으로 결정할 수 있다.Alternatively, when there are a plurality of frames having the second additional information, the second frame may be determined using the frames adjacent to the frame. For example, the
다만, 제2 부가 정보를 포함하는 제2 영상의 프레임이 복수개인 경우 제2 프레임을 결정하는 방법은 상수란 실시예에 한정되지 않으며 다양한 방법에 의해 결정될 수 있음은 물론이다.However, when there are a plurality of frames of the second image including the second additional information, the method of determining the second frame is not limited to the embodiment, and may be determined by various methods.
이하 제2 프레임을 결정하는 다양한 실시예들에 대하여 설명한다. 구체적으로, 제1 부가 정보와 제2 부가 정보는 서로 연관된 부가 정보일 수 있다. 예를 들어, 제1 부가 정보 및 제2 부가 정보는 동일하거나 유사한 GPS좌표 또는 방위, 촬영시간, 해시태그 등을 가질 수 있다. 그러나 상술한 예에 한정되는 것은 아니며, 영상과 관련된 다양한 부가 정보를 가질 수 있음은 물론이다.Hereinafter, various embodiments for determining the second frame will be described. Specifically, the first additional information and the second additional information may be additional information associated with each other. For example, the first additional information and the second additional information may have the same or similar GPS coordinates or orientation, a shooting time, a hash tag, and the like. However, it is needless to say that the present invention is not limited to the above-described example, and may have various additional information related to the image.
상술한 바와 같이, 부가 정보는 다양한 형태의 부가 정보일 수 있으며, 제1 부가 정보 및 제2 부가 정보는 서로 연관성을 가질 수 있다. 이하 제1 부가 정보 및 제2 부가 정보의 종류에 따른 제1 프레임 및 제2 프레임에 대하여 설명한다.As described above, the additional information may be various types of additional information, and the first additional information and the second additional information may be related to each other. Hereinafter, the first frame and the second frame according to the types of the first additional information and the second additional information will be described.
일 실시 예로 부가 정보가 GPS 좌표에 관한 부가 정보인 경우, 제1 부가 정보 및 제2 부가 정보는 동일한 GPS 좌표를 가지는 부가 정보일 수 있다. 그러나 반드시 동일한 GPS 좌표일 필요는 없으며, 제1 부가 정보 및 제2 부가 정보는 기 설정된 범위 내의 GPS 좌표일 수도 있다.In one embodiment, when the additional information is additional information relating to GPS coordinates, the first additional information and the second additional information may be additional information having the same GPS coordinates. However, it is not necessarily the same GPS coordinates, and the first additional information and the second additional information may be GPS coordinates within a predetermined range.
예를 들어 제1 부가 정보가 63빌딩의 GPS 좌표를 포함하는 경우, 제2 부가 정보도 63빌딩 GPS 좌표를 가질 수 있다. 이러한 경우, 제1 프레임 및 제2 프레임은 모두 63빌딩을 포함하는 프레임일 수 있다.For example, if the first additional information includes the GPS coordinates of the 63 building, the second additional information may also have 63 building GPS coordinates. In this case, the first frame and the second frame may all be frames including 63 buildings.
또 다른 실시 예로, 부가 정보가 방위 정보를 포함하는 경우 제1 프레임 및 제2 프레임은 동일한 방향을 나타내는 프레임일 수 있다. 이에 대한 구체적인 실시 예는 도 7에서 후술한다.In another embodiment, when the additional information includes azimuth information, the first frame and the second frame may be frames indicating the same direction. A specific embodiment of this will be described later in Fig.
또 다른 실시 예로, 부가 정보가 영상 촬영 시간에 관한 정보일 경우, 제1 프레임 및 제2 프레임은 동일한 시간에 촬영된 영상일 수 있다. 이때, 동일한 시간이란 동일 년도, 동일 월, 동일 주, 동일 날짜, 동일 시간 등 다양한 범위를 가질 수 있다. 예를 들어, 제1 프레임 및 제2 프레임은2017년도에 촬영한 영상일 수 있다. 또 다른 예로, 제1 프레임 및 제2 프레임은 동일 계절에 관한 영상일 수 있다. 또 다른 예로, 제1 프레임 및 제2 프레임은 동일 요일에 관한 영상일 수 있다. 즉, 부가 정보가 시간에 대한 부가 정보일 경우, 부가 정보는 다양한 분류 방법(계절, 월, 요일 등)에 따라 다양한 부가 정보가 생성될 수 있다.In another embodiment, when the additional information is information on the imaging time, the first frame and the second frame may be images taken at the same time. At this time, the same time may have various ranges such as same year, same month, same week, same date, same time. For example, the first frame and the second frame may be images taken in 2017. As another example, the first frame and the second frame may be images relating to the same season. As another example, the first frame and the second frame may be images relating to the same day of the week. That is, when the additional information is additional information with respect to time, the additional information may be generated according to various classification methods (season, month, day of week, etc.).
또 다른 실시 예로, 부가 정보는 웹 크롤링 키워드를 포함하는 정보일 수 있다. 구체적으로, 프로세서(120)는 상술한 다양한 부가 정보를 결합하여 웹 크롤링 정보를 생성하고, 생성된 정보를 영상 프레임에 삽입할 수 있다. 예를 들어, 상술한 바와 같이, 프로세서(120)는 2016년 9월 12일 19시 44분(시간 정보)에 경주(위치 정보)에서 촬영된 영상 프레임에 대하여 "지진"이라는 부가 정보를 생성할 수 있다. 이러한 경우, 제1 프레임 및 제2 프레임은 2016년 9월 12일 경주에서 발생한 지진을 촬영된 영상일 수 있다. 또는 제1 프레임 및 제2 프레임은 지진에 관련된 영상일 수 있다.In yet another embodiment, the additional information may be information including a web crawl keyword. Specifically, the
또 다른 실시 예로, 부가 정보는 영상 프레임에 존재하는 이미지를 분석한 정보일 수 있다. 예를 들어 영상 프레임에 유명 배우가 존재하는 경우, 전자 장치(100)는 영상 프레임을 분석하여 유명 배우에 대한 부가 정보를 생성할 수 있다. 이러한 경우, 제1 프레임 및 제2 프레임은 유명 배우를 포함하는 프레임일 수 있다. In another embodiment, the additional information may be information obtained by analyzing an image existing in an image frame. For example, if a famous actor exists in an image frame, the
또 다른 실시 예로, 부가 정보는, 사용자가 생성한 텍스트 키워드 또는 음성 키워드 일 수 있다. 예를 들어, 제1 부가 정보 및 제2 부가 정보는 "축구 골 영상"이라는 키워드 일 수 있다. 이러한 경우, 제1 프레임 및 제2 프레임은 축구경기 중 골이 들어가는 장면에 관한 프레임일 수 있다. In another embodiment, the additional information may be a text keyword or a voice keyword generated by the user. For example, the first additional information and the second additional information may be a keyword "soccer goal image ". In such a case, the first frame and the second frame may be frames relating to a scene in which a goal enters during a soccer game.
그러나 본 개시에 따른 부가 정보는 상술한 부가 정보에 한정되는 것은 아니고 다양한 부가 정보가 더 포함될 수 있음은 물론이다. However, it goes without saying that the additional information according to the present disclosure is not limited to the above-described additional information, but may also include various additional information.
또한, 부가 정보는 영상이 촬영됨과 동시에 영상에 존재하는 프레임에 삽입될 수도 있으며, 영상 촬영이 종료된 후 추가될 수도 있다. 예를 들어, 좌표 정보, 방위 정보, 시간 정보 등은 영상이 촬영되는 동시에 측정 센서에 의해 삽입될 수 있다. 또한, 키워드 음성 키워드 등은 영상 촬영이 종료된 후 사후적으로 삽입될 수도 있다.Further, the additional information may be inserted into a frame existing in the image at the same time as the image is captured, or may be added after the image capturing is completed. For example, the coordinate information, azimuth information, time information, and the like can be inserted by the measurement sensor while the image is captured. In addition, the keyword-spoken keyword or the like may be inserted after the end of the image capturing.
또한 상술한 실시 예에서는 하나의 부가 정보를 이용하여 제1 프레임 및 제2 프레임을 결정하는 방법에 대해 설명하였으나, 두개 이상의 부가 정보를 이용하여 제1 프레임 및 제2 프레임을 결정할 수도 있음은 물론이다.Although the method of determining the first frame and the second frame using one additional information has been described in the above embodiments, it is needless to say that the first frame and the second frame may be determined using two or more additional information .
한편, 하나의 영상 프레임에 부가 정보가 복수개 포함되어 있는 경우, 필터링을 통해 원하는 부가 정보만을 선택할 수도 있다. 구체적으로, 제1 프레임에 GPS 좌표, 방위, 시간, 키워드 등의 부가 정보가 모두 포함되어 있는 경우, 전자 장치(100)는 GPS 좌표 정보 및 방위 정보만을 이용하여 제2 프레임을 결정할 수 있다.On the other hand, when a plurality of additional information is included in one video frame, only desired additional information can be selected through filtering. Specifically, when the first frame includes all additional information such as GPS coordinates, azimuth, time, and keywords, the
도 4a 내지 도 8c는 본 개시의 일 실시 예에 따른 다양한 영상 재생 과정을 도시한 도면이다.FIGS. 4A to 8C are diagrams illustrating various image reproduction processes according to an embodiment of the present disclosure.
도 4a 및 4b는 본 개시의 일 실시 예에 따른, 영상 재생 방법을 설명한 도면이다.FIGS. 4A and 4B are views for explaining an image reproducing method according to an embodiment of the present disclosure. FIG.
도 4a는 본 개시의 일 실시 예에 따른 제1 영상 및 제2 영상을 시청하는 방법을 도시한 도면이다. 4A is a diagram illustrating a method of viewing a first image and a second image according to an embodiment of the present disclosure.
복수의 프레임(410,420)을 포함하는 제1 영상을 시청하던 도중, 제2 프레임(430)을 포함하는 제2 영상을 시청하기 위한 사용자 명령이 입력된 경우, 전자 장치(100)는 제1 영상을 제1 프레임까지 재생한 후 제2 영상을 제2 프레임부터 재생할 수 있다. When a user command for viewing a second image including the
도 4a에 도시된 바와 같이, 제1영상은 축구 컨텐츠에 관한 영상일 수 있다. 이때, 제1 영상은 해당 축구 경기의 전체 영상 또는 하이라이트 영상일 수 있다. As shown in FIG. 4A, the first image may be an image related to the soccer content. At this time, the first image may be a full image or a highlight image of the corresponding football game.
사용자가 영상을 시청하는 도중 특정 선수가 골을 넣은 경우, 사용자는 특정 선수가 골을 넣은 제2 영상을 검색하기 위한 사용자 명령을 입력할 수 있다. 구체적으로, 사용자가 제1 영상(420)을 시청하던 중, 제1 사용자 명령을 입력할 경우, 디스플레이(110)는 제1 영상의 제1 프레임에 삽입된 제1 부가 정보에 대응하는 제2 프레임을 포함하는 제2 영상에 대한 UI(430,431)를 디스플레이 할 수 있다. 이때, 제2 영상에 대한 UI(430,431)은 해당 프레임에 대한 썸네일 이미지일 수 있으나 이에 한정되는 것은 아니다.If a particular player scores a goal while the user views the video, the user may enter a user command to search for a second video that a particular player has scored a goal. Specifically, when the user inputs a first user command while viewing the
이때, 제1 사용자 명령은 디스플레이의 임의의 위치를 터치하는 터치 인터렉션 또는 화면을 클릭하는 입력일 수 있으나 이에 한정되는 것은 아니며, 제2 영상을 디스플레이하기위한 아이콘(미도시)를 터치 또는 클릭할 수도 있음은 물론이다.At this time, the first user command may be a touch interaction for touching an arbitrary position of the display or an input for clicking the screen, but the present invention is not limited thereto, and an icon (not shown) for displaying the second image may be touched or clicked Of course.
또 다른 실시 예로, 사용자 명령이 입력되지 않은 경우에도 디스플레이(110)는 제2 영상에 대한 UI(431,432)를 디스플레이 할 수 있다. 예를 들어, 제1 영상의 종료 시점에서 기 설정된 시간 전(예를 들어 제1 영상의 95%가 재생되는 시점)부터 제1 영상이 종료되기 전까지, 디스플레이(110)는 제2 영상에 대한 UI를 디스플레이 할 수 있다. 다만, 상술한 실시 예에 한정되는 것은 아니고, 다양한 방법에 의해 제2 영상에 대한 UI를 디스플레이 할 수 있음은 물론이다.In another embodiment, the
한편, 상술한 바와 같이, 제1 프레임(420)에 삽입된 제1 부가 정보 및 제2 프레임(430)에 삽입된 제2 부가 정보는 서로 연관성 있는 부가 정보일 수 있다. 예를 들어, 제1 부가 정보 및 제2 부가 정보는 동일한 해시태그(예를 들어, #OOO 골, #OOO 골장면 등)로 이루어 질 수 있다. 다만, 부가 정보는 동일한 해시 태그에 한정되는 것은 아니며, 다양한 부가 정보가 사용될 수 있다. Meanwhile, as described above, the first additional information inserted in the
사용자는 디스플레이된 제 2영상에 관한 UI중 하나를 선택하는 사용자 명령을 통해 제2 영상을 재생할 수 있다. 예를 들어, 사용자가 제 1영상에 디스플레이된 UI(430, 431) 중 하나의 UI(430)을 터치하거나 클릭하는 사용자 명령을 입력한 경우, 디스플레이(110)는 선택된 UI(430)에 대응하는 제2 영상을 제2 프레임부터 재생할 수 있다.The user can reproduce the second image through a user command for selecting one of the UIs related to the displayed second image. For example, when the user inputs a user command to touch or click on one of the
도 4b는 본 개시의 또 다른 실시 예에 따른 제1 영상 및 제2 영상을 재생하는 방법을 설명한 도면이다. 구체적으로, 제1 영상 및 제2 영상은 관광 명소를 촬영한 영상일 수 있다. 4B is a view for explaining a method of reproducing a first image and a second image according to another embodiment of the present disclosure. Specifically, the first image and the second image may be images photographed at tourist spots.
상술한 바와 같이, 제1 영상(420)을 시청하던 중, 제1 사용자 명령이 입력된 경우, 전자 장치(100)는 제1 영상의 제1 프레임에 삽입된 제1 부가 정보에 대응하는 제2 프레임을 포함하는 제2 영상에 대한 UI(430,431)를 디스플레이 할 수 있다. 이때, 제2 영상에 대한 UI(430,431)은 해당 프레임에 대한 썸네일 이미지일 수 있으나 이에 한정되는 것은 아니다.As described above, when the first user command is input while the
이때, 제1 사용자 명령은 디스플레이의 임의의 위치 또는 제2 영상을 디스플레이하기 위한 아이콘(미도시)를 터치하는 터치 인터렉션 또는 화면을 클릭하는 입력일 수 있으나 이에 한정되는 것은 아니다.At this time, the first user command may be a touch interaction that touches an arbitrary position of the display or an icon (not shown) for displaying the second image, or an input that clicks the screen, but is not limited thereto.
한편, 제1 프레임(420)에 삽입된 제1 부가 정보 및 제2 프레임(430)에 삽입된 제2 부가 정보는 서로 연관된 부가 정보일 수 있다. The first additional information inserted in the
구체적으로, 부가 정보는, GPS 좌표 정보, 방위 정보, 촬영 시간 정보, 영상 속 오브젝트들에 대한 정보 등에 관한 부가 정보일 수 있다. 이때, 영상 속 오브젝트들은, 영상에 존재하는 건물, 사람 또는 특정 물건일 수 있다. 영상 속 오브젝트는 영상 분석을 통해 결정할 수 있으나, 이에 한정되는 것은 아니다.Specifically, the additional information may be additional information about GPS coordinate information, azimuth information, photographing time information, information on in-video objects, and the like. At this time, the objects in the image may be a building, a person, or a specific object existing in the image. The object in the video image can be determined through image analysis, but is not limited thereto.
다만, 이러한 상술한 부가 정보에 한정되는 것은 아니고, 제1 부가 정보 및 제2 부가 정보는 동일한 해시태그(예를 들어, #선운사, #선운사 여름 등)로 이루어 질 수도 있다. However, the present invention is not limited to the above-described additional information, and the first additional information and the second additional information may be composed of the same hashtag (e.g., #suununsha, #suunwon summer, etc.).
이때, 전자 장치(100)는 제1 영상에 존재하는 다양한 부가 정보 중, 하나 이상의 부가 정보를 선택할 수 있다. At this time, the
예를 들어, 사용자가 GPS 좌표 및 촬영시간 정보에 대한 부가 정보를 선택하여, 선택된 부가 정보에 대응하는 제2 영상을 시청할 수 있다. 이 경우, 제2 영상의 제2 프레임(430)은 제1 영상과 동일하거나 유사한 GPS 좌표 및 동일하거나 유사한 시간에 촬영된 영상일 수 있다. 구체적으로, 제2 영상의 제2 프레임(430)은 제1 영상의 제1 프레임(420)과 동일 위치 및 동일 시간대에 촬영된 영상이므로, 제1 영상의 제1 프레임(420)과 제2 영상의 제2 프레임(430)은 유사한 명도 및 채도를 가질 수 있다. 따라서 사용자는 영상이 전환되는 경우에도 자연스럽게 영상을 시청할 수 있다. For example, the user can select the additional information for the GPS coordinates and the shooting time information, and watch the second video corresponding to the selected additional information. In this case, the
또 다른 실시 예로, 사용자가 GPS 좌표, 영상 속 오브젝트에 관한 부가 정보를 선택한 경우, 제2 영상의 제2 프레임(430)은 제1 영상의 제1 프레임(420)에서 선택된 오브젝트에 관한 프레임일 수 있다. 예를 들어 영상 속 오브젝트가 건물인 경우, 제2 영상의 제2 프레임(420)은 건물 내부에 대한 프레임일 수 있다. In another embodiment, if the user selects GPS coordinates, additional information about the in-video object, the second frame of the
도 5a 내지 도 7b는 본 개시의 일 실시 예에 따른 제1 영상 및 제2 영상이 파노라마 영상인 경우의 다양한 실시 예를 도시한 도면이다.FIGS. 5A and 7B are diagrams illustrating various embodiments in which a first image and a second image according to an embodiment of the present disclosure are panorama images.
도 5a 내지 5d는 본 개시의 일 실시 예에 따른, 영상 재생을 이용하여 지도 서비스를 제공하는 방법에 대해 설명한 도면이다.5A to 5D are diagrams illustrating a method of providing a map service using image playback, according to an embodiment of the present disclosure.
구체적으로, 전자 장치(100)는 본 개시에 따른 영상 재생 방법을 이용하여 지도 서비스를 제공할 수 있다. 예를 들어, 전자 장치(100)는 사용자가 탐색하고자 하는 구간에 대한 제1 영상이 존재하는 경우, 해당 구간 영상에 대한 지도 서비스를 제공할 수 있다. Specifically, the
도 5a에 도시된 바와 같이, 전자 장치(100)는 제공받고자 하는 구간에 대한 제1 영상을 촬영할 수 있다. 이때, 촬영된 영상은 일반 영상 또는 파노라마 영상일 수 있다. 이때, 촬영되는 영상은 촬영과 동시에 부가 정보가 삽입될 수 있다. 예를 들어, 촬영되는 영상프레임에는 감지부(160)에 의해 감지된 GPS 좌표(511 내지 514) 또는 시간 정보가 삽입될 수 있다. 다만, 이미 전자 장치(100)에 의해 촬영된 제1 영상이 존재 하거나, 외부 서버로부터 제1 영상을 수신할 수 있는 경우에는 영상 촬영 과정은 생략될 수 있다. As shown in FIG. 5A, the
촬영된 제1 영상이 재생되는 경우, 도 5b에 도시된 바와 같이, 디스플레이(110)는 미니맵 UI 또는, 이동 경로를 나타내는 UI를 디스플레이 할 수 있다. 이때, 이동 경로를 나타내는 UI는 영상의 진행방향에 따라 디스플레이 될 수 있다.When the photographed first image is reproduced, as shown in FIG. 5B, the
도 5c에 도시된 바와 같이, 영상 재생 중 제1 프레임에서 제1 영상이 정지한 경우, 전자 장치(100)는 제1 프레임에 삽입된 제1 부가 정보에 대응하는 영상에 대한 UI(531 내지 533)를 디스플레이 할 수 있다. 이때, 제1 부가 정보는 GPS 좌표 정보일 수 있으며, 제1 부가 정보에 대응하는 UI(531 내지 533)는 제1 부가 정보에 포함된 GPS 좌표에서 기 설정된 거리 내에 있는 놀이 기구에 대한 GPS 좌표 정보에 대한 제2 부가 정보를 포함하는 영상에 관한 UI일 수 있다. 5C, when the first image is stopped in the first frame during the image playback, the
제1 UI(531)은 해당 영상이 위치한 곳에서 왼쪽에 위치한 놀이기구를 찾아갈 수 있는 영상에 관한 UI 이고, 제2 UI(532)은 해당 영상이 위치한 곳에서 정면에 위치한 놀이기구를 찾아갈 수 있는 영상에 관한 UI 이고, 제3 UI(533)은 해당 영상이 위치한 곳에서 오른쪽에 위치한 놀이기구를 찾아갈 수 있는 영상에 관한 UI 일 수 있다. The
제3 UI를 선택하는 사용자 명령이 입력된 경우, 전자 장치(100)는 제3 UI에 대응하는 제2 영상을 재생할 수 있다. 이때, 제2 영상은 제2 프레임부터 재생될 수 있다. 구체적으로, 제2 프레임에는 제2 부가 정보가 삽입되어 있을 수 있다. 이때 제2 부가 정보는 GPS 좌표 정보를 포함할 수 있으며, 제2 부가 정보에 포함된 GPS 좌표 정보는 제1 부가 정보에 포함된 GPS 좌표 정보와 동일할 수 있다. 따라서, 제1 프레임과 제2 프레임은 동일한 위치의 영상일 수 있다.When the user command for selecting the third UI is input, the
도 5d에 도시된 바와 같이, 전자 장치(100)는 제2 영상을 제3 UI(533)에 대응하는 놀이기구가 나타날 때까지 재생할 수 있다. As shown in FIG. 5D, the
도 6a 및 6b는 본 개시의 일 실시 예에 따른 제1 영상 및 제2 영상을 재생하는 또다른 방법을 설명하기 위해 도시한 도면이다.FIGS. 6A and 6B are diagrams for explaining another method of reproducing a first image and a second image according to an embodiment of the present disclosure.
구체적으로, 도 6a는 현재 재생중인 제1 영상의 제1 프레임(610)일 수 있다. 전자 장치(100)가 제1 영상을 재생하는 도중, 제1 오브젝트(611)을 선택하는 사용자 명령이 입력된 경우, 전자 장치(100)는 도 6b에 도시된 바와 같이 제 2 영상의 제2프레임(620)부터 재생을 시작할 수 있다.Specifically, FIG. 6A may be the
구체적으로, 제1 영상이 제1프레임까지 재생되기 전에, 전자 장치(100)가 제1 오브젝트(611)을 선택하는 사용자 명령을 입력 받은 경우, 전자 장치(100)는 제1 오브젝트에 대응되는 제1 부가 정보를 결정할 수 있다. 그 후 전자 장치(100)는 결정된 제1 부가 정보에 대응하는 제1 프레임을 결정하고, 제1 프레임까지 제1 영상을 재생할 수 있다. Specifically, before the first image is reproduced up to the first frame, when the
구체적으로, 제1 부가 정보는 제1 오브젝트에 대한 정보일 수 있다. 예를 들어, 전자 장치(100)의 프로세서(120)는 영상 분석을 통해 제1 오브젝트가 에펠탑이라고 판단할 수 있다. 이때, 제1 부가 정보는 에펠탑에 대한 정보를 포함할 수 있다.Specifically, the first additional information may be information on the first object. For example, the
제1 영상의 제1 프레임까지 영상이 재생된 경우, 전자 장치(100)는 제2 영상을 제2 프레임까지 재생할 수 있다. When the image is reproduced up to the first frame of the first image, the
한편, 제2 영상의 제2 프레임은 제2 부가 정보를 포함할 수 있다. 제2 부가 정보는 제1 오브젝트에 대응되는 부가 정보일 수 있다. 즉, 제2 부가 정보는 에펠탑에 대한 정보를 포함할 수 있다. 이때, 제2 부가 정보는 추가적인 정보를 더 포함할 수 있다. 예를 들어, 제2 부가 정보는 에펠탑에 대한 정보 및 "영상 프레임의 중앙에 위치한 에펠탑"에 대한 정보를 포함할 수 있다.On the other hand, the second frame of the second image may include the second additional information. And the second additional information may be additional information corresponding to the first object. That is, the second additional information may include information on the Eiffel Tower. At this time, the second additional information may further include additional information. For example, the second additional information may include information about the Eiffel Tower and information about "the Eiffel Tower at the center of the video frame ".
도 6b에 도시된 바와 같이, 제2 프레임(620)에서 제2 오브젝트(621)는 제2 프레임(620)의 중앙에 위치할 수 있다. 즉, 전자 장치(100)는 제1 영상에서 선택된 오브젝트(611)에 대응하는 제2 오브젝트(612)를 제2 영상의 중앙에 위치 시킬 수 있다.As shown in FIG. 6B, the
도 6a 및 도 6b에서는, 제1 영상 및 제2 영상이 일반 영상인 경우에 대하여 설명하였으나, 제1 영상 및 제2 영상이 파노라마 영상인 경우에도 동일한 기술적 사상이 적용될 수 있다.6A and 6B, the first image and the second image are general images. However, even when the first image and the second image are panorama images, the same technical idea can be applied.
구체적으로, 도 6a에 도시된 바와 같이 제1 파노라마 영상이 제1 오브젝트(611)를 오른쪽에 위치시킨 상태에서 제1 오브젝트(611)를 선택하는 사용자 입력을 받은 경우, 전자 장치(100)는 도 6b에 도시된 바와 같이 제2 오브젝트(612)를 중앙에 위치시킨 상태에서 제2 영상을 재생할 수 있다. 6A, when the first panorama image is received with a user input for selecting the
즉, 도 6a에 도시되지 않았으나, 제1 오브젝트(611)가 제1 프레임의 임의의 영역에 위치하더라도 제2 영상의 제2 프레임(620)은 도 6b와 같이 제2 오브젝트(621)가 중앙에 위치한 상태일 수 있다.6A, even if the
도 7a 및 7b는 본 개시의 일 실시 예에 따른 파노라마 영상의 경우의 실시 예를 설명한 도면이다.7A and 7B are views for explaining an embodiment of a panoramic image according to an embodiment of the present disclosure.
구체적으로, 도 7a는 제1 방향(711) 및 제2 방향(712)를 포함하는 제1 도시한 도면이다. 제1 영상이 파노라마 영상인 경우, 전자 장치(100)는 사용자 명령에 대응하여 재생중인 영상의 시야(view point) 방향을 변경할 수 있다.Specifically, FIG. 7A is a first diagram showing a
도 7a에 도시된 바와 같이, 제1 영상은 제1 방향(711)을 시야 방향으로 하여 영상이 재생될 수 있다. 이때, 제2 방향(712)으로 진행하는 제2영상을 디스플레이 하기 위한 사용자 명령이 입력된 경우, 전자 장치(100)는 제2 방향(712)를 시야 방향으로 하는 제 2 영상(미도시)을 제2 프레임부터 재생할 수 있다. 이때, 제1 부가 정보 및 제2 부가 정보는 GPS 좌표 정보를 포함할 수 있다. 따라서 제2 영상의 제2 프레임은 제1 영상의 제1 프레임과 동일한 위치를 촬영한 프레임일 수 있다.As shown in FIG. 7A, the first image can be reproduced with the
다만, 상술한 실시 예의 경우, 제1 프레임의 시야 방향은 제1 시야 방향(711)이고, 제2 프레임의 시야 방향은 제2 시야 방향(712)일 수 있다. However, in the case of the above-described embodiment, the viewing direction of the first frame may be the
이러한 경우, 사용자는 재생되는 영상이 제1 영상에서 제2 영상으로 변경되는 경우, 영상의 시야 방향이 급격하게 변화하여 영상 시청에 불편함을 느낄 수 있다. In this case, when the user reproduces the video image from the first image to the second image, the direction of the image changes suddenly and the user may feel inconvenience in viewing the image.
따라서 제1 영상 및 제2 영상이 파노라마 영상인 경우, 제1 부가 정보 및 제2 부가 정보는 방위에 대한 정보를 더 포함할 수 있다. Accordingly, when the first image and the second image are panorama images, the first additional information and the second additional information may further include information on the orientation.
예를 들어 제 1영상의 제1 프레임은 도 7b에 도시된 바와 같이, 제2 시야 방향(721)을 시야 방향으로 하는 프레임일 수 있다. 즉, 제1 영상은 도 7a에 도시된 프레임을 재생하고, 도 7b에 도시된 프레임과 같이 제2 시야 방향(721)로 회전한 후, 제2 영상(미도시)을 재생할 수 있다. For example, the first frame of the first image may be a frame whose
그러나, 상술한 실시 예에 한정되는 것은 아니고, 제1 프레임은 도 7a에 도시된 프레임일 수 있다. 이러한 경우, 제2 프레임은 도 7b에 도시된 프레임일 수 있다. 즉, 제 1 프레임은 제1 시야 방향(711)을 가지고 제2 프레임 또한 제1 시야 방향(721)을 가질 수 있다. 이 경우, 제2 영상은 제1 시야 방향(721)부터 시작하여 제2 시야 방향(722)로 영상을 회전할 수 있다.However, the present invention is not limited to the above-described embodiment, and the first frame may be the frame shown in Fig. 7A. In this case, the second frame may be the frame shown in Fig. 7B. That is, the first frame may have a
도 8a 내지 8c는 본 개시의 일 실시 예에 따른, 온라인 서비스와 결합된 영상 재생 방법을 설명하기 위한 도면이다.8A to 8C are views for explaining an image playback method combined with an online service according to an embodiment of the present disclosure.
구체적으로, 본 개시에 따른 영상 재생 방법은 다양한 온라인 서비스와 결합하여 이루어 질 수 있다. 예를 들어, 제1 영상 및 제2 영상은 관광 명소를 소개하는 온라인 서비스, 근처 숙박업소를 제공하는 온라인 서비스, 소셜 네트워크 서비스(SNS)등과 결합할 수 있다. 이때, 제1 영상 및 제2 영상은 특정 어플리케이션에서 실행되는 영상일 수 있다. 예를 들어, 제1 영상 및 제2 영상은 지도 서비스 및 주변 정보를 제공하는 어플리케이션에서 재생되는 영상일 수 있다.In particular, the video playback method according to the present disclosure can be combined with various online services. For example, the first image and the second image may be combined with an online service for introducing tourist attractions, an online service for providing nearby accommodation, and a social network service (SNS). At this time, the first image and the second image may be images executed in a specific application. For example, the first image and the second image may be images reproduced in an application providing the map service and the surrounding information.
도 8a에 도시된 바와 같이, 제1 영상은 다양한 기능을 수행하기 위한 UI를 포함할 수 있다. 도 8a에 도시된 바와 같이, 제1 영상에는 현재 영상/위치 주변의 관심 명소 표시 여부를 선택할 수 있는 제1 UI(810), 현재 영상의 정보를 표시하는 제2 UI(820), 다른 온라인 서비스와 연계되어 제1 영상과 관련된 정보를 디스플레이 하는 제3 UI(831,832,833), 영상 진행표시줄을 나타내는 제4 UI(840), 영상에 대한 전반적인 동작을 제어할 수 있는 제5 UI(850), 현재 재생되는 제1 영상 및 관련 영상의 위치를 표시할 수 있는 제6 UI(860)등이 디스플레이될 수 있다.As shown in FIG. 8A, the first image may include a UI for performing various functions. As shown in FIG. 8A, the first UI includes a
그러나 상술한 다양한 UI가 모두 디스플레이 되는 것은 아니고, 필요에 따라 부가 생략되거나 추가될 수 있다. 예를 들어, 제1 영상과 관련된 주변 정보가 존재하지 않는 경우, 제3 UI(831 내지 833)은 디스플레이 되지 않을 수 있다. 또한 재생되는 제1 영상이 파노라마 영상이 아닌 경우, 제5 UI(850)이 생략될 수 있다.However, not all of the various UIs described above are displayed, and may be omitted or added as needed. For example, if there is no peripheral information associated with the first image, the
한편, 도 8b에 도시된 바와 같이, 제1 영상이 재생되는 중, 제1 영상에서 선택 가능한 제2 영상이 존재하는 경우, 제6 UI(860)의 하단부에 영상이 존재함을 알리는 알림UI(861)이 디스플레이 될 수 있다. 8B, if there is a second image that can be selected from the first image while the first image is being reproduced, a notification UI (FIG. 8B) indicating that the image exists at the lower end of the
알림 UI(861)를 선택하는 사용자 명령이 입력된 경우, 도 8c에 도시된 바와 같이, 전자 장치는 재생 가능한 영상에 대한 정보를 디스플레이 하는 제7 UI(870)을 디스플레이 할 수 있다.When a user command for selecting the
이때, 제 7 UI(870)에는 다양한 정보가 포함될 수 있다. 예를 들어, 제7 UI(870)는 재생 가능한 다른 영상의 개수 정보, 해당 영상과 관련이 있는 다른 온라인 서비스에 대한 정보 등에 관한 정보를 포함할 수 있다.At this time, the
제7 UI(870)에 포함된 MOVE UI가 선택된 경우, 전자 장치(100)는 제2 영상을 제2 프레임부터 재생할 수 있다.When the MOVE UI included in the
이때, 재생되는 제1 영상 및 제2 영상은 상술한 다양한 실시 예들에 의해 재생된다. 구체적으로, 도 8에서 설명한 동작들에 의해 제1 영상이 재생되는 도중, 제2 영상을 재생시키는 사용자 명령이 입력된 경우, 전자 장치(100)는 제1 영상을 제1 프레임까지 재생하고, 제2 영상을 제2 프레임부터 재생할 수 있다. 또한, 제1 프레임에 포함된 제1 부가 정보와 제2 프레임에 포함된 제2 부가 정보가 서로 연관되어 있음은 물론이다.At this time, the reproduced first and second images are reproduced by the above-described various embodiments. Specifically, when a user command to reproduce a second image is input while the first image is being reproduced by the operations described in FIG. 8, the
도 9는 본 개시의 일 실시 예에 따른 영상 재생 시스템을 도시한 도면이다.9 is a diagram illustrating an image reproduction system according to an embodiment of the present disclosure.
구체적으로, 영상 재생 시스템은 전자 장치(100), 촬상 장치(200) 및 외부 서버(300)로 구성될 수 있다. Specifically, the image reproducing system may be constituted by the
촬상 장치(200)는 전자 장치(100)가 재생할 다양한 영상을 촬영하여 외부 서버(300)로 전송할 수 있다. 이때, 촬상 장치(200)에는 다양한 부가 정보를 감지하기 위한 복수의 센서가 구비될 수 있다. The
외부 서버(300)는 전자 장치(100)가 제1 영상을 요청하는 경우, 요청된 제1 영상을 전자 장치(100)로 전송할 수 있다. 특히 외부 서버(300)가 전자 장치(100)에 스트리밍 방식으로 제1 영상을 전송하는 경우, 재생되는 영상의 부가 정보를 분석하여 전자 장치(100)에 추천 영상을 제공할 수 있다. 전자 장치(100)는 외부 서버(200)로부터 전송 받은 추천 영상 중 하나를 제2 영상으로 선택할 수 있다. 이때, 외부 서버(300)는 선택된 제2 영상의 제2 프레임부터 전자 장치(100)로 전송할 수 있다.The
다만, 상술한 바와 같이, 전자 장치(100)는 촬상 장치(200) 및 외부 서버(300)를 포함할 수 있음은 물론이다. 즉, 전자 장치(100)는 영상을 촬영하여 메모리(170)에 저장하고, 저장된 제1 영상 및 제2 영상을 재생할 수 있음은 물론이다.Of course, as described above, the
한편, 상술한 다양한 실시 예에서는 영상이 재생되는 경우에 대하여 설명하였으나, 이에 한정되는 것은 아니다. 예를 들어, 전자 장치(100)는 제1 영상이 재생되는 도중, 사용자 명령이 입력되는 경우, 제1 부가 정보에 대응되는 제2 사진이 디스플레이될 수도 있다. 또는, 전자 장치(100)가 제1 부가 정보가 삽입된 제1 사진을 디스플레이하는 도중, 제2 영상을 재생하기 위한 기 설정된 사용자 명령이 입력된 경우, 전자 장치(100)는 제1 부가 정보에 대응되는 제2 프레임부터 제2 영상을 재생할 수 있다.In the above-described various embodiments, the case where an image is reproduced has been described, but the present invention is not limited thereto. For example, when the user command is input, the
도 10a 내지 도 10c는 본 개시의 일 실시예에 따른 영상 재생 시스템을 도시한 도면이다.10A to 10C are views showing an image reproduction system according to an embodiment of the present disclosure.
도 10a에 도시된 바와 같이, 영상 재생 시스템은 전자 장치(100), 촬상 장치(200), 제1 서버(310) 및 제2 서버(320)을 포함할 수 있다. 즉, 도 9에 도시된 외부 서버(300)는 제1 서버(310) 및 제2 서버(320)을 포함할 수 있다. 10A, the image reproduction system may include an
이때, 제1 서버(310)는 동영상 제공 서버일 수 있다. 특히, 제1 서버(310)는 다양한 컨텐츠 제공자 또는 온라인 동영상 플랫폼에 의해 운영되는 서버일 수 있다. 제1 서버(310)는 스트리밍 방식에 의한 동영상 서비스를 제공할 수 있다. 동영상 서버(310)는 전자 장치(100)로부터 동영상에 대한 요청이 있는 경우, 전자 장치(100)로 동영상을 제공할 수 있다. 이때, 동영상 제공 방법은 상술한 바와 같이 스트리밍 방식에 의할 수 있으나, 이에 한정되는 것은 아니다. 즉, 전자 장치(100)는 제1 서버(310)로부터 동영상 데이터를 다운로드 받을 수도 있음은 물론이다.At this time, the
제2 서버(320)는 제1 서버(310)에 의해 제공되는 동영상에 대한 부가 정보를 저장할 수 있다. 구체적으로, 제2 서버(320)는 제1 서버(310)에서 제공되는 동영상에 대한 부가 정보 및 부가 정보에 대응되는 파라미터를 매칭하여 저장할 수 있다. 즉, 제1 서버(310)에 저장된 동영상이 다수의 부가정보를 포함할 경우, 동영상의 용량이 커지는 문제점이 발생할 수 있다. 따라서, 이러한 문제점을 해결하기 위해 제1 서버(310)는 동영상을 저장하고, 제2 서버(320)는 동영상에 대한 부가 정보를 저장할 수 있다. 이때, 제2 서버(320)는 동영상에 대한 부가 정보와 이에 대응되는 파라미터를 매칭하여 저장할 수 있다. 부가 정보에 대응되는 파라미터는 제1 서버(310)에 저장된 동영상의 특정 위치를 찾기 위한 파라미터일 수 있다. 예를 들어 파라미터는 재생해야 할 동영상 파일에 대한 인덱스 정보 및 해당 동영상 파일 중 재생 되어야 하는 부분의 시작 시간 및 종료 시간에 대한 인덱스 정보를 포함할 수 있다.The
또한, 전자 장치(100)로부터 사용자 명령을 수신한 경우, 제2 서버(320)는 수신한 사용자 명령을 바탕으로 부가 정보를 획득할 수 있다. 제2 서버(320)는 획득한 부가 정보를 바탕으로, 부가 정보에 대응되는 파라미터를 획득하고 획득한 파라미터를 전자 장치(100)로 전송하고, 전자 장치(100)는 수신한 파라미터응 제1 서버로 전송할 수 있다. 다만, 이에 한정되는 것은 아니며, 제2 서버(320)는 획득한 파라미터를 제1 서버(310)로 바로 전송할 수 있음은 물론이다.In addition, when a user command is received from the
한편, 사용자는 제1 서버(310) 및 제2 서버(320)를 이용하여 다양한 형태의 동영상을 시청할 수 있다. 구체적으로, 전자 장치(100)를 통해 사용자 명령이 입력되면, 전자 장치(100)는 사용자 명령을 제2 서버(320)로 전송할 수 있다.이때, 입력된 사용자 명령은 다양한 제1 서버(310)에 저장된 동영상 중 특정 장면 또는 특정 내용에 대한 명령일 수 있다.Meanwhile, the user can view various types of moving pictures using the
제2 서버(320)가 전자 장치(100)로부터 사용자 명령을 수신한 경우, 사용자 명령에 대응되는 동영상 및 부가 정보를 검색할 수 있다. 제2 서버(320)는 검색된 동영상 및 부가 정보에 대응되는 파라미터를 전자 장치(100)로 전송하고, 전자 장치(100)는 수신한 파라미터를 제1 서버(310)로 전송할 수 있다.When the
제1 서버(310)는 수신한 파라미터 정보를 이용하여 파라미터 정보에 대응되는 동영상을 재생할 수 있다. 이때, 제1 서버(310)이 스트리밍 동영상 서비스를 제공하는 서버인 경우, 제1 서버(310)는 파라미터 정보에 대응되는 동영상의 특정 부분을 순서대로 스트리밍하여 사용자에게 제공할 수 있다.The
한편, 제1 서버(310) 또는 제2 서버(320)는 전자 장치(100)로 제공된 영상에 대한 파라미터 정보를 저장하여 관리할 수 있다. 즉, 과거 입력된 사용자 명령에 대응되는 부가 정보와 동일 또는 유사한 부가 정보를 포함하는 새로운 사용자 명령이 입력된 경우, 제1 서버(310) 또는 제2 서버(320)는 부가 정보 및 파라미터를 획득하는 과정 없이 저장된 파라미터 정보를 전자 장치(100)로 제공할 수 있다. Meanwhile, the
즉, 제1 서버(310)는 저장된 복수개의 원본 동영상을 편집하고 저장하여 새로운 동영상을 생성할 필요 없이, 파라미터 정보만을 이용하여 재생산된 영상을 전자 장치(100)로 제공할 수 있다. 다만, 이에 한정되는 것은 아니고, 제1 서버(310)는 사용자 명령에 따라 재생산된 영상을 저장할 수도 있음은 물론이다.That is, the
도 10b는 본 개시의 일 실시예에 따른 동영상 재생 과정을 설명하기 위한 예시도이다.FIG. 10B is an exemplary diagram for explaining a moving picture playback process according to an embodiment of the present disclosure.
예를 들어, 사용자는 제1 서버(310)에 저장된 동영상 중 특정 장면 또는 특정 내용을 시청하고자 하는 경우, 전자 장치(100)를 통해 "OOO 골 하이라이트"와 같은 검색어를 입력할 수 있다. For example, the user can input a search term such as "OOO Goal Highlight" through the
전자 장치(100)는 "OOO 골 하이라이트"를 제2 서버(320)로 전송할 수 있다. 이때, 제2 서버(320)는 "OOO 골 하이라이트"와 관련된 부가 정보를 획득할 수 있다. 예를 들어, "OOO 골 하이라이트"에 대응되는 부가 정보는 OOO, 골 장면, 하이라이트 등일 수 있다.The
제2 서버(320)는 획득한 부가 정보에 대응되는 파라미터를 획득할 수 있다. 제2 서버(320)에서 획득된 파라미터가 전자 장치(100)로 전송되고, 전자 장치(100)가 수신한 파라미터를 제1 서버(310)로 전송하면, 제1 서버(310)는 수신한 파라미터에 대응되는 영상을 전자 장치(100)로 제공할 수 있다.The
즉, 도 10b에 도시된 바와 같이, 전자 장치(100)는 원하는 영상에 대한 검색어를 입력하는 사용자 명령을 통해 제1 영상(1010)의 특정 부분(OOO 골 하이라이트 부분) 및 제2 영상(1020)의 특정부분을 연속해서 시청할 수 있다.10B, the
한편, 상술한 바와 같이, "OOO 골 하이라이트"와 같은 검색어가 재차 입력되거나, 다른 전자 장치에서 입력되는 경우, 제1 서버(310) 및 제2 서버(320)는 부가 정보를 획득하고 파라미터를 획득하는 과정 없이, 과거 저장된 파라미터 정보를 이용하여 도 10b에 도시된 영상을 전자 장치(100)로 제공할 수 있다.On the other hand, as described above, when a search word such as "OOO goal highlight" is inputted again or input from another electronic device, the
도 10c는 본 개시의 또다른 실시예에 따른 영상 재생 방법을 설명하기 위한 예시도이다. 도 10c에 도시된 바와 같이, 제1 서버(310)는 영상에 자막 또는 스티커 UI를 부가하여 전자 장치(100)에게 제공할 수 있다. FIG. 10C is an exemplary view for explaining an image reproducing method according to another embodiment of the present disclosure; FIG. As shown in FIG. 10C, the
예를 들어, 전자 장치(100)가 제1 서버(310)에서 제공되는 영상에 자막 또는 스티커 UI를 부가하기 위한 사용자 명령을 입력 받은 경우, 제2 서버(320)는 해당 사용자 명령에 대응되는 부가 정보 및 부가 정보에 대응되는 파라미터를 획득할 수 있다. 제1 서버(310)는 수신한 파라미터에 대응되는 자막 또는 스티커 UI(1030)를 영상에 오버레이하여 표시할 수 있다.For example, when the
한편, 상술한 실시예에서는 제1 서버(310) 및 제2 서버(320)이 독립된 서버인 경우에 대하여 설명하였으나, 제1 서버(310) 및 제2 서버(320)가 하나의 서버로 구성될 수 있음은 물론이다.Although the
도 11은 본 개시의 일 실시 예에 따른, 전자 장치가 영상을 재생하는 방법을 설명한 흐름도이다. 11 is a flow chart illustrating a method by which an electronic device reproduces an image, according to one embodiment of the present disclosure.
먼저, 전자 장치(100)는 복수의 프레임 중 적어도 하나의 프레임에 대한 부가 정보를 포함하는 제1 영상 및 제2 영상을 획득할 수 있다(S1110). 이때, 획득된 영상은 전자 장치(100)에 저장된 영상일 수 있으며, 외부 서버(300)로부터 수신한 영상일 수도 있다.First, the
전자 장치(100)가 제1 영상을 재생하는 동안, 제2 영상을 재생하기 위한 기 설정된 사용자 명령이 입력된 경우(S1120), 전자 장치(100)는 기 설정된 사용자 명령에 대응되는 제1 프레임에 대한 제1 부가 정보를 획득할 수 있다(S1130).If the preset user command for playing the second video is input while the
전자 장치(100)는 획득된 제1 부가 정보에 대응하는 제2 영상의 제2 프레임을 획득할 수 있다(S1140). 구체적으로, 전자 장치(100) 제1 부가 정보에 대응하는 제2 부가 정보를 획득하고, 제2 부가 정보에 대응하는 제2 프레임을 획득할 수 있다.The
전자 장치(100)는 제1 영상의 제1 프레임까지 제1 영상을 재생한 후, 제2 영상의 제2 프레임부터 영상을 재생할 수 있다(S1150).The
한편, 상술한 바와 같은 전자 장치(100)의 제어 방법은 적어도 하나의 실행 프로그램으로 구현될 수 있으며, 이러한 실행 프로그램은 비일시적 컴퓨터 판독 가능 매체에 저장될 수 있다.On the other hand, the control method of the
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로, 상술한 프로그램들은 RAM(Random Access Memory), 플레시메모리, ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electronically Erasable and Programmable ROM), 레지스터, 하드디스크, 리무버블 디스크, 메모리 카드, USB 메모리, CD-ROM 등과 같이, 단말기에서 판독 가능한 다양한 유형의 기록 매체에 저장되어 있을 수 있다.A non-transitory readable medium is a medium that stores data for a short period of time, such as a register, cache, memory, etc., but semi-permanently stores data and is readable by the apparatus. Specifically, the above-described programs may be stored in a computer-readable recording medium such as a RAM (Random Access Memory), a flash memory, a ROM (Read Only Memory), an EPROM (Erasable Programmable ROM), an EEPROM (Electronically Erasable and Programmable ROM) Card, a USB memory, a CD-ROM, or the like.
이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형 실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해 되어져서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is clearly understood that the same is by way of illustration and example only and is not to be construed as limiting the scope of the invention as defined by the appended claims. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention.
100: 전자 장치
110: 디스플레이
120: 프로세서
130: 통신부
140: 촬상부
150: 입력부
160: 감지부
170: 메모리100: electronic device 110: display
120: processor 130:
140: image pickup unit 150: input unit
160: sensing unit 170: memory
Claims (20)
복수의 프레임 중 적어도 하나의 프레임에 대한 부가 정보를 포함하는 제1 영상 및 제2 영상을 획득하는 단계;
상기 제1 영상에 포함된 복수의 프레임 중, 재생되는 제1 프레임에 대응되는 제1 부가 정보를 획득하는 단계;
상기 제1 영상의 상기 제1 프레임이 재생되는 동안 상기 제2 영상을 재생하기 위한 기 설정된 사용자 명령이 입력되면, 상기 제1 부가 정보에 대응하는 상기 제2 영상의 제2 프레임을 결정하는 단계; 및
상기 제2프레임부터 상기 제2 영상을 재생하는 단계; 를 포함하는 제어 방법.
A method of controlling an electronic device,
Obtaining a first image and a second image including additional information on at least one frame among a plurality of frames;
Obtaining first additional information corresponding to a first frame to be reproduced among a plurality of frames included in the first image;
Determining a second frame of the second image corresponding to the first additional information when a predetermined user command for playing the second image is input while the first frame of the first image is being reproduced; And
Reproducing the second image from the second frame; ≪ / RTI >
상기 제1 프레임은, 상기 사용자 명령이 입력된 시점(time)에 재생중인 프레임이고,
상기 사용자 명령은, 상기 제2 영상을 재생시키는 명령인 것을 특징으로 하는 제어 방법.
The method according to claim 1,
Wherein the first frame is a frame being reproduced at a time when the user command is input,
Wherein the user command is an instruction to reproduce the second image.
상기 제1 영상에 복수의 오브젝트에 대응되는 복수의 디스플레이 아이템을 표시하는 단계; 를 더 포함하고,
상기 사용자 명령은, 상기 복수의 디스플레이 아이템 중 하나를 선택하는 명령인 것을 특징으로 하고,
상기 제1 프레임에 대한 상기 제1 부가 정보는, 상기 선택된 디스플레이 아이템에 대응되는 부가 정보인 것을 특징으로 하는 제어 방법.
The method according to claim 1,
Displaying a plurality of display items corresponding to a plurality of objects on the first image; Further comprising:
Wherein the user command is an instruction to select one of the plurality of display items,
Wherein the first additional information for the first frame is additional information corresponding to the selected display item.
상기 제1 프레임은,
상기 사용자 명령이 입력된 디스플레이 아이템에 대응되는 오브젝트에 대한 부가 정보를 포함하는 프레임인 것을 특징으로 하는 제어방법.
The method of claim 3,
Wherein the first frame comprises:
Wherein the user command is a frame including additional information on an object corresponding to the input display item.
상기 재생하는 단계는,
상기 사용자 명령이 입력된 시점부터 상기 제1 프레임까지 상기 제1 영상이 재생된 후, 상기 제2 프레임부터 상기 제2 영상을 재생하는 것을 특징으로 하는 제어 방법.
4,
The method of claim 1,
Wherein the second image is reproduced from the second frame after the first image is reproduced from the time when the user command is input to the first frame.
상기 제1 부가 정보를 획득는 단계는,
상기 제1 프레임에 삽입된 복수의 부가 정보 중, 특정 부가 정보만을 필터링하는 단계; 를 더 포함하는 제어 방법.
The method according to claim 1,
Wherein the acquiring of the first additional information comprises:
Filtering only specific additional information among a plurality of additional information inserted in the first frame; ≪ / RTI >
상기 제2 프레임을 결정하는 단계는,
상기 제1 부가 정보에 대응되는 제2 부가 정보를 결정하는 단계; 및
상기 제2 부가 정보에 대응하는 상기 제2 영상의 상기 제2 프레임을 결정하는 단계; 를 포함하는 제어 방법.
The method according to claim 1,
Wherein determining the second frame comprises:
Determining second additional information corresponding to the first additional information; And
Determining the second frame of the second image corresponding to the second additional information; ≪ / RTI >
상기 부가 정보는 GPS 정보, 방위 정보, 시간 정보, 이미지 분석을 통한 대상 정보, 키워드 정보, 음성 키워드 정보 및 해시태그 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 제어 방법.
The method according to claim 1,
Wherein the additional information includes at least one of GPS information, azimuth information, time information, object information through image analysis, keyword information, voice keyword information, and hash tag information.
상기 제1 영상 및 제2 영상의 재생이 종료된 경우,
상기 재생된 제1 영상 및 제2 영상을 합성하여 저장하는 단계; 를 더 포함하는 제어 방법.
The method according to claim 1,
When the reproduction of the first video and the second video is finished,
Synthesizing and storing the reproduced first and second images; ≪ / RTI >
상기 제1 영상 및 상기 제2 영상이 파노라마 영상인 경우, 상기 제1프레임의 시야 방향과 상기 제2 프레임의 시야 방향(화각, view point)이 동일한 것을 특징으로 하는 제어 방법.
The method according to claim 1,
Wherein when the first image and the second image are panoramic images, the view direction of the first frame and the view direction of the second frame are the same.
복수의 프레임 중 적어도 하나의 프레임에 대한 부가 정보를 포함하는 제1 영상 및 제2 영상을 재생하는 디스플레이; 및
상기 제1 영상에 포함된 복수의 프레임 중, 재생되는 제1 프레임에 대응되는 제1 부가 정보를 획득하고, 상기 제1 영상의 상기 제1 프레임이 재생되는 동안 상기 제2 영상을 재생하기 위한 기 설정된 사용자 명령이 입력되면, 상기 제1 부가 정보에 대응하는 상기 제2 영상의 제2 프레임을 결정하여 상기 제2 프레임부터 상기 제2 영상을 재생하도록 상기 디스플레이를 제어하는 프로세서; 를 포함하는 전자 장치.
In an electronic device,
A display for reproducing a first image and a second image including additional information on at least one frame among the plurality of frames; And
A first additional information corresponding to a first frame to be reproduced, of a plurality of frames included in the first image, and for reproducing the second image while the first frame of the first image is reproduced A processor for determining the second frame of the second video corresponding to the first additional information and controlling the display to reproduce the second video from the second frame when the set user command is input; ≪ / RTI >
상기 제1 프레임은, 상기 사용자 명령이 입력된 시점(time)에 재생중인 프레임이고,
상기 사용자 명령은, 상기 제2 영상을 재생시키는 명령인 것을 특징으로 하는 전자 장치.
12. The method of claim 11,
Wherein the first frame is a frame being reproduced at a time when the user command is input,
Wherein the user command is an instruction to reproduce the second video.
상기 디스플레이는,
상기 제1 영상에 복수의 오브젝트에 대응되는 복수의 디스플레이 아이템을 표시하고,
상기 사용자 명령은, 상기 복수의 디스플레이 아이템 중 하나를 선택하는 명령인 것을 특징으로 하고, 상기 제1 프레임에 대한 상기 제1 부가 정보는, 상기 선택된 디스플레이 아이템에 대응되는 부가 정보인 것을 특징으로 하는 전자 장치.
12. The method of claim 11,
Wherein the display comprises:
Displaying a plurality of display items corresponding to a plurality of objects on the first image,
Characterized in that the user command is a command for selecting one of the plurality of display items, and the first additional information for the first frame is additional information corresponding to the selected display item Device.
상기 제1 프레임은,
상기 사용자 명령이 입력된 디스플레이 아이템에 대응되는 오브젝트에 대한 부가 정보를 포함하는 프레임인 것을 특징으로 하는 전자 장치
14. The method of claim 13,
Wherein the first frame comprises:
Wherein the user command is a frame including additional information on an object corresponding to the input display item
상기 디스플레이는,
상기 사용자 명령이 입력된 시점부터 상기 제1 프레임까지 상기 제1 영상이 재생하고, 상기 제2 프레임부터 상기 제2 영상을 재생하는 것을 특징으로 하는 전자 장치.
14. The method of claim 14,
Wherein the display comprises:
Wherein the first image is reproduced from the time when the user command is input to the first frame, and the second image is reproduced from the second frame.
상기 프로세서는,
상기 제1 프레임에 삽입된 복수의 부가 정보 중, 특정 부가 정보만을 필터링하는 것을 특징으로 하는 전자 장치.
12. The method of claim 11,
The processor comprising:
Wherein only the specific additional information is filtered out of the plurality of additional information inserted in the first frame.
상기 프로세서는,
상기 제1 부가 정보에 대응되는 제2 부가 정보를 결정하고, 상기 제2 부가 정보에 대응되는 상기 제2 영상의 상기 제2 프레임을 결정하는 것을 특징으로 하는 전자 장치.
12. The method of claim 11,
The processor comprising:
Determines second additional information corresponding to the first additional information, and determines the second frame of the second video corresponding to the second additional information.
상기 부가 정보는 GPS 정보, 방위 정보, 시간 정보, 이미지 분석을 통한 대상 정보, 키워드 정보, 음성 키워드 정보 및 해시태그 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 전자 장치.
12. The method of claim 11,
Wherein the additional information includes at least one of GPS information, azimuth information, time information, object information through image analysis, keyword information, voice keyword information, and hash tag information.
상기 프로세서는,
상기 제1 영상 및 제2 영상의 재생이 종료된 경우, 상기 재생된 제1 영상 및 제2 영상을 합성하는 것을 특징으로 하는 전자 장치.
12. The method of claim 11,
The processor comprising:
And when the reproduction of the first image and the second image is completed, synthesizes the reproduced first image and the second image.
상기 디스플레이는,
상기 제1영상 및 상기 제2 영상이 파노라마 영상인 경우, 상기 제1프레임의 시야 방향과 상기 제2 프레임의 시야 방향이 동일하게 디스플레이 하는 전자 장치.
12. The method of claim 11,
Wherein the display comprises:
Wherein when the first image and the second image are panoramic images, the viewing direction of the first frame and the viewing direction of the second frame are the same.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/KR2017/012570 WO2018088785A1 (en) | 2016-11-11 | 2017-11-08 | Electronic apparatus and control method therefor |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662420639P | 2016-11-11 | 2016-11-11 | |
US62/420,639 | 2016-11-11 | ||
KR1020170029510A KR20180053208A (en) | 2016-11-11 | 2017-03-08 | Display device and method for control thereof |
KR1020170029510 | 2017-03-08 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180053221A true KR20180053221A (en) | 2018-05-21 |
KR102372181B1 KR102372181B1 (en) | 2022-03-08 |
Family
ID=80812172
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170132226A KR102372181B1 (en) | 2016-11-11 | 2017-10-12 | Display device and method for control thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102372181B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020153772A1 (en) * | 2019-01-22 | 2020-07-30 | Samsung Electronics Co., Ltd. | Electronic device and method of providing content therefor |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100002759A (en) * | 2008-06-30 | 2010-01-07 | 주식회사 케이티 | Method and system for providing service to recommend vod using information of objects in a moving picture |
US20100082585A1 (en) * | 2008-09-23 | 2010-04-01 | Disney Enterprises, Inc. | System and method for visual search in a video media player |
US20120290933A1 (en) * | 2011-05-09 | 2012-11-15 | Google Inc. | Contextual Video Browsing |
KR20160102679A (en) * | 2015-02-23 | 2016-08-31 | 주식회사 엘지유플러스 | Movie managing server, movie playing apparatus, and method for providing charater information using thereof |
-
2017
- 2017-10-12 KR KR1020170132226A patent/KR102372181B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100002759A (en) * | 2008-06-30 | 2010-01-07 | 주식회사 케이티 | Method and system for providing service to recommend vod using information of objects in a moving picture |
US20100082585A1 (en) * | 2008-09-23 | 2010-04-01 | Disney Enterprises, Inc. | System and method for visual search in a video media player |
US20120290933A1 (en) * | 2011-05-09 | 2012-11-15 | Google Inc. | Contextual Video Browsing |
KR20160102679A (en) * | 2015-02-23 | 2016-08-31 | 주식회사 엘지유플러스 | Movie managing server, movie playing apparatus, and method for providing charater information using thereof |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020153772A1 (en) * | 2019-01-22 | 2020-07-30 | Samsung Electronics Co., Ltd. | Electronic device and method of providing content therefor |
KR20200091188A (en) * | 2019-01-22 | 2020-07-30 | 삼성전자주식회사 | Electronic device and method for providing content thereof |
US11343577B2 (en) | 2019-01-22 | 2022-05-24 | Samsung Electronics Co., Ltd. | Electronic device and method of providing content therefor |
Also Published As
Publication number | Publication date |
---|---|
KR102372181B1 (en) | 2022-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11496814B2 (en) | Method, system and computer program product for obtaining and displaying supplemental data about a displayed movie, show, event or video game | |
US20220132036A1 (en) | Display Control Apparatus, Display Control Method, And Program | |
KR102071579B1 (en) | Method for providing services using screen mirroring and apparatus thereof | |
RU2597232C1 (en) | Method for providing a video in real time and device for its implementation, as well as a server and a terminal device | |
US8913171B2 (en) | Methods and systems for dynamically presenting enhanced content during a presentation of a media content instance | |
ES2914124T3 (en) | Media targeting | |
WO2014178219A1 (en) | Information processing device and information processing method | |
US11836764B2 (en) | Media collection navigation with opt-out interstitial | |
US20120081529A1 (en) | Method of generating and reproducing moving image data by using augmented reality and photographing apparatus using the same | |
US11277668B2 (en) | Methods, systems, and media for providing media guidance | |
CN107005741A (en) | Immersion scales interactive television | |
CN109891904B (en) | Image display method and electronic device thereof | |
KR102501713B1 (en) | Method for displaying an image and an electronic device thereof | |
JP2018169735A (en) | Video retrieval program and video retrieval method and video information processing equipment | |
JP6617547B2 (en) | Image management system, image management method, and program | |
KR102372181B1 (en) | Display device and method for control thereof | |
WO2023029237A1 (en) | Video preview method and terminal | |
KR20180053208A (en) | Display device and method for control thereof | |
CN114780180A (en) | Object data display method and device, electronic equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |