KR20180053221A - Display device and method for control thereof - Google Patents

Display device and method for control thereof Download PDF

Info

Publication number
KR20180053221A
KR20180053221A KR1020170132226A KR20170132226A KR20180053221A KR 20180053221 A KR20180053221 A KR 20180053221A KR 1020170132226 A KR1020170132226 A KR 1020170132226A KR 20170132226 A KR20170132226 A KR 20170132226A KR 20180053221 A KR20180053221 A KR 20180053221A
Authority
KR
South Korea
Prior art keywords
image
frame
additional information
information
reproduced
Prior art date
Application number
KR1020170132226A
Other languages
Korean (ko)
Other versions
KR102372181B1 (en
Inventor
나문성
김상래
김지해
김창원
문종보
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020170029510A external-priority patent/KR20180053208A/en
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to PCT/KR2017/012570 priority Critical patent/WO2018088785A1/en
Publication of KR20180053221A publication Critical patent/KR20180053221A/en
Application granted granted Critical
Publication of KR102372181B1 publication Critical patent/KR102372181B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2387Stream processing in response to a playback request from an end-user, e.g. for trick-play
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof
    • H04N5/9305Regeneration of the television signal or of selected parts thereof involving the mixing of the reproduced video signal with a non-recorded signal, e.g. a text signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

An electronic device for reproducing an image and a control method thereof are disclosed. The control method of the electronic device according to the present disclosure includes a step of acquiring a first image and a second image including additional information on at least one frame among a plurality of frames, a step of obtaining first additional information corresponding to a first frame to be reproduced among the plurality of frames included in the first image, a step of determining the second frame of the second image corresponding to the first additional information when a predetermined user command for playing the second image is input while the first frame of the first image is being reproduced, and a step of reproducing the second image from the second frame. When a viewer views the second image from the first image, a part of the second image which the viewer wants can be provided.

Description

전자 장치 및 그의 제어 방법{DISPLAY DEVICE AND METHOD FOR CONTROL THEREOF}[0001] DESCRIPTION [0002] DISPLAY DEVICE AND METHOD FOR CONTROL THEREOF [

본 개시는 영상 처리 장치 및 그의 제어 방법에 관한 것으로, 보다 상세하게는 복수의 영상을 연속해서 재생하는 경우, 필요한 영상을 원하는 위치부터 재생하는 장치 및 방법에 관한 발명이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and a control method thereof, and more particularly to an apparatus and method for reproducing a necessary image from a desired position when a plurality of images are continuously reproduced.

고성능 카메라의 보편화 및 소형화로 이동성이 확장되면서, 개인 영상의 촬영이 증가하고 있다. 또한, 스마트폰 기술 및 무선 인터넷망의 발달로 인해, 스마트폰 사용자들은 언제 어디서나 영상을 시청할 수 있게 되었다. 이러한 기술의 발달로, 사용자는 보다 쉽게 영상에 접근할 수 있고, 다양한 영상을 시청하게 되었다. As mobility is expanded with the generalization and miniaturization of high-performance cameras, shooting of personal images is increasing. Also, due to the development of smartphone technology and wireless internet network, smartphone users can watch video anytime and anywhere. With the development of this technology, the user can easily access the image and watch various images.

그러나, 사용자가 복수의 영상을 시청하는 경우 각각의 영상을 처음부터 시청하여야 하는 불편함이 존재한다. 예를 들어, 축구 경기를 즐겨보는 사용자가 특정 선수의 골 장면만을 시청하고자 하는 경우, 시청자는 특정 선수의 골 장면만이 편집된 영상을 시청하는 경우가 아니라면, 복수의 영상을 재생하고, 특정 선수가 골을 넣는 장면을 찾아 시청하여야 하는 번거로움이 존재하였다.However, when a user views a plurality of images, there is an inconvenience that each image must be viewed from the beginning. For example, when a user who enjoys a soccer game wants to view only a goal scene of a specific athlete, the viewer can reproduce a plurality of images if the only scene of the particular athlete does not view the edited image, There was a need to find and watch the scene of scoring goals.

 본 개시는 상술한 문제점을 해결하기 위한 것으로, 영상을 구성하는 프레임에 부가 정보를 삽입하여 시청자가 제1 영상에서 제2 영상을 시청하는 경우, 시청자가 원하는 부분부터 제2 영상을 제공하는 것에 목적이 있다.Disclosure of Invention Technical Problem The present invention has been made to solve the above-mentioned problems, and it is an object of the present invention to provide a method and apparatus for providing a second image from a desired portion when a viewer views a second image on a first image by inserting additional information into a frame constituting the image .

상기 목적을 달성하기 위한 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법은, 복수의 프레임 중 적어도 하나의 프레임에 대한 부가 정보를 포함하는 제1 영상 및 제2 영상을 획득하는 단계, 상기 제1 영상에 포함된 복수의 프레임 중, 재생되는 제1 프레임에 대응되는 제1 부가 정보를 획득하는 단계, 상기 제1 영상의 상기 제1 프레임이 재생되는 동안 상기 제2 영상을 재생하기 위한 기 설정된 사용자 명령이 입력되면, 상기 제1 부가 정보에 대응하는 상기 제2 영상의 제2 프레임을 결정하는 단계 및 상기 제2프레임부터 상기 제2 영상을 재생하는 단계; 를 포함한다.According to an aspect of the present invention, there is provided a method of controlling an electronic device, the method comprising: obtaining a first image and a second image including additional information on at least one frame among a plurality of frames; The method comprising the steps of: acquiring first additional information corresponding to a first frame to be reproduced out of a plurality of frames included in one image, acquiring first additional information corresponding to a preset first additional information for reproducing the second image while the first frame of the first image is being reproduced Determining a second frame of the second image corresponding to the first additional information when a user command is input, and reproducing the second image from the second frame; .

이때, 상기 1 프레임은, 상기 사용자 명령이 입력된 시점(time)에 재생중인 프레임이고, 상기 사용자 명령은, 상기 제2 영상을 재생시키는 명령인 것을 특징으로 할 수 있다.In this case, the one frame is a frame being reproduced at a time when the user command is input, and the user command is an instruction to reproduce the second image.

이때, 상기 제1 영상에 복수의 오브젝트에 대응되는 복수의 디스플레이 아이템을 표시하는 단계를 더 포함하고, 상기 사용자 명령은, 상기 복수의 디스플레이 아이템 중 하나를 선택하는 명령인 것을 특징으로 하고, 상기 제1 프레임에 대한 상기 제1 부가 정보는, 상기 선택된 디스플레이 아이템에 대응되는 부가 정보인 것을 특징으로 할 수 있다.The method may further include displaying a plurality of display items corresponding to a plurality of objects on the first image, wherein the user command is an instruction to select one of the plurality of display items, And the first additional information for one frame is additional information corresponding to the selected display item.

이때, 상기 제1 프레임은, 상기 사용자 명령이 입력된 디스플레이 아이템에 대응되는 오브젝트에 대한 부가 정보를 포함하는 프레임인 것을 특징으로 할 수 있다.In this case, the first frame is a frame including additional information on an object corresponding to the display item to which the user command is input.

이때, 상기 재생하는 단계는, 상기 사용자 명령이 입력된 시점부터 상기 제1 프레임까지 상기 제1 영상이 재생된 후, 상기 제2 프레임부터 상기 제2 영상을 재생하는 것을 특징으로 할 수 있다.In this case, the reproducing step may reproduce the second image from the second frame after the first image is reproduced from the time when the user command is input to the first frame.

이때, 상기 제1 부가 정보를 획득하는 단계는, 상기 제1 프레임에 삽입된 복수의 부가 정보 중, 특정 부가 정보만을 필터링하는 단계를 더 포함할 수 있다.In this case, the obtaining of the first additional information may further include filtering only specific additional information among a plurality of additional information inserted in the first frame.

이때, 상기 제2 프레임을 결정하는 단계는, 상기 제1 부가 정보에 대응되는 제2 부가 정보를 결정하는 단계및 상기 제2 부가 정보에 대응하는 상기 제2 영상의 상기 제2 프레임을 결정하는 단계를 포함할 수 있다.The determining of the second frame may include determining second additional information corresponding to the first additional information, and determining the second frame of the second image corresponding to the second additional information . ≪ / RTI >

이때, 상기 부가 정보는 GPS 정보, 방위 정보, 시간 정보, 이미지 분석을 통한 대상 정보, 키워드 정보, 음성 키워드 정보 및 해시태그 정보 중 적어도 하나를 포함하는 것을 특징으로 할 수 있다.Here, the additional information may include at least one of GPS information, azimuth information, time information, object information through image analysis, keyword information, voice keyword information, and hash tag information.

이때, 상기 제1 영상 및 제2 영상의 재생이 종료된 경우, 상기 재생된 제1 영상 및 제2 영상을 합성하여 저장하는 단계; 를 더 포함할 수 있다.Synthesizing and storing the reproduced first and second images when the reproduction of the first and second images is completed; As shown in FIG.

이때, 상기 제1영상 및 상기 제2 영상이 파노라마 영상인 경우, 상기 제1프레임의 시야 방향과 상기 제2 프레임의 시야 방향(화각, view point)이 동일한 것을 특징으로 할 수 있다.In this case, when the first image and the second image are panoramic images, the view direction of the first frame and the view direction of the second frame are the same.

한편, 본 개시의 일 실시 예에 따른 전자 장치에 있어서, 복수의 프레임 중 적어도 하나의 프레임에 대한 부가 정보를 포함하는 제1 영상 및 제2 영상을 재생하는 디스플레이 및 상기 제1 영상에 포함된 복수의 프레임 중, 재생되는 제1 프레임에 대응되는 제1 부가 정보를 획득하고, 상기 제1 영상의 상기 제1 프레임이 재생되는 동안 상기 제2 영상을 재생하기 위한 기 설정된 사용자 명령이 입력되면, 상기 제1 부가 정보에 대응하는 상기 제2 영상의 제2 프레임을 결정하여 상기 제2 프레임부터 상기 제2 영상을 재생하도록 상기 디스플레이를 제어하는 프로세서를 포함한다.On the other hand, in an electronic device according to an embodiment of the present disclosure, a display for reproducing a first image and a second image including additional information on at least one frame among a plurality of frames, and a display When a predetermined user command for playing back the second video is input while the first frame of the first video is being reproduced, the first additional information corresponding to the first frame to be reproduced, And a processor for controlling the display to determine a second frame of the second image corresponding to the first additional information and reproduce the second image from the second frame.

이때, 상기 제1 프레임은, 상기 사용자 명령이 입력된 시점(time)에 재생중인 프레임이고, 상기 사용자 명령은, 상기 제2 영상을 재생시키는 명령인 것을 특징으로 할 수 있다.Here, the first frame may be a frame being reproduced at a time when the user command is input, and the user command may be an instruction to reproduce the second image.

이때, 상기 디스플레이는, 상기 제1 영상에 복수의 오브젝트에 대응되는 복수의 디스플레이 아이템을 표시하고, 상기 사용자 명령은, 상기 복수의 디스플레이 아이템 중 하나를 선택하는 명령인 것을 특징으로 하고, 상기 제1 프레임에 대한 상기 제1 부가 정보는, 상기 선택된 디스플레이 아이템에 대응되는 부가 정보인 것을 특징으로 할 수 있다.In this case, the display may display a plurality of display items corresponding to a plurality of objects in the first image, and the user command is an instruction to select one of the plurality of display items, And the first additional information for the frame is additional information corresponding to the selected display item.

이때, 상기 제1 프레임은, 상기 사용자 명령이 입력된 디스플레이 아이템에 대응되는 오브젝트에 대한 부가 정보를 포함하는 프레임인 것을 특징으로 할 수 있다.In this case, the first frame is a frame including additional information on an object corresponding to the display item to which the user command is input.

이때, 상기 디스플레이는, 상기 사용자 명령이 입력된 시점부터 상기 제1 프레임까지 상기 제1 영상이 재생하고, 상기 제2 프레임부터 상기 제2 영상을 재생하는 것을 특징으로 할 수 있다.In this case, the display may reproduce the first image from the time when the user command is input to the first frame, and reproduce the second image from the second frame.

이때, 상기 프로세서는, 상기 제1 프레임에 삽입된 복수의 부가 정보 중, 특정 부가 정보만을 필터링하는 것을 특징으로 할 수 있다.In this case, the processor may filter only specific additional information among a plurality of additional information inserted in the first frame.

이때, 상기 프로세서는, 상기 제1 부가 정보에 매칭되는 제2 부가 정보를 결정하고, 상기 제2 부가 정보에 대응되는 상기 제2 영상의 상기 제2 프레임을 결정하는 것을 특징으로 할 수 있다.At this time, the processor may determine second additional information matching the first additional information, and determine the second frame of the second image corresponding to the second additional information.

 이때, 상기 부가 정보는 GPS 정보, 방위 정보, 시간 정보, 이미지 분석을 통한 대상 정보, 키워드 정보, 음성 키워드 정보 및 해시태그 정보 중 적어도 하나를 포함하는 것을 특징으로 할 수 있다.Here, the additional information may include at least one of GPS information, azimuth information, time information, object information through image analysis, keyword information, voice keyword information, and hash tag information.

이때, 상기 프로세서는, 상기 제1 영상 및 제2 영상의 재생이 종료된 경우, 상기 재생된 제1 영상 및 제2 영상을 합성하는 것을 특징으로 할 수 있다.In this case, when the reproduction of the first image and the second image is completed, the processor combines the reproduced first image and the second image.

 이때, 상기 디스플레이는, 상기 제1영상 및 상기 제2 영상이 파노라마 영상인 경우, 상기 제1프레임의 시야 방향과 상기 제2 프레임의 시야 방향이 동일하게 디스플레이 할 수 있다.In this case, when the first image and the second image are panoramic images, the display may display the same view direction of the first frame and the view direction of the second frame.

상술한 바와 같이, 본 개시의 실시 예에 따라, 제1 영상이 재생되던 중 제2 영상을 재생하기 위한 사용자 명령이 입력되는 경우, 전자 장치는 제2 영상의 특정 부분부터 재생하여 시청자가 원하는 위치로 영상을 이동시키는 불편함을 감소시킬 수 있다.As described above, according to the embodiment of the present disclosure, when a user command for reproducing a second video is input while the first video is being reproduced, the electronic apparatus reproduces from a specific portion of the second video, It is possible to reduce the inconvenience of moving the image to the image.

도 1a 및 1b는 본 개시의 일 실시 예에 따른 전자 장치의 구성을 도시한 블록도이다.
도 2a 및 2b는 본 개시의 일 실시 예에 따른 부가 정보를 포함하는 영상을 설명하기 위한 도면이다.
도 3은 본 개시의 일 실시 예에 따른, 제1 영상 및 제2 영상을 재생하는 과정을 도시한 도면이다.
도 4a 및 4b는 본 개시의 일 실시 예에 따른, 영상 재생 방법을 설명한 도면이다.
도 5a 내지 5d는 본 개시의 일 실시 예에 따른, 영상 재생을 이용하여 지도 서비스를 제공하는 방법에 대해 설명한 도면이다.
도 6a 및 6b는 본 개시의 일 실시 예에 따른 제1 영상 및 제2 영상을 재생하는 또다른 방법을 설명하기 위해 도시한 도면이다.
도 7a 및 7b는 본 개시의 일 실시 예에 따른 파노라마 영상의 경우의 실시 예를 설명한 도면이다.
도 8a 내지 8c는 본 개시의 일 실시 예에 따른, 온라인 서비스와 결합된 영상 재생 방법을 설명하기 위한 도면이다.
도 9는 본 개시의 일 실시 예에 따른 영상 재생 시스템을 도시한 도면이다.
도 10a 내지 도 10c는 본 개시의 일 실시예에 따른 영상 재생 시스템을 도시한 도면이다.
도 11은 본 개시의 일 실시 예에 따른, 전자 장치가 영상을 재생하는 방법을 설명한 흐름도이다.
1A and 1B are block diagrams showing the configuration of an electronic device according to one embodiment of the present disclosure.
2A and 2B are views for explaining an image including additional information according to an embodiment of the present disclosure.
FIG. 3 is a diagram illustrating a process of reproducing a first image and a second image according to an embodiment of the present disclosure.
FIGS. 4A and 4B are views for explaining an image reproducing method according to an embodiment of the present disclosure. FIG.
5A to 5D are diagrams illustrating a method of providing a map service using image playback, according to an embodiment of the present disclosure.
FIGS. 6A and 6B are diagrams for explaining another method of reproducing a first image and a second image according to an embodiment of the present disclosure.
7A and 7B are views for explaining an embodiment of a panoramic image according to an embodiment of the present disclosure.
8A to 8C are views for explaining an image playback method combined with an online service according to an embodiment of the present disclosure.
9 is a diagram illustrating an image reproduction system according to an embodiment of the present disclosure.
10A to 10C are views showing an image reproduction system according to an embodiment of the present disclosure.
11 is a flow chart illustrating a method by which an electronic device reproduces an image, according to one embodiment of the present disclosure.

이하에서는 본 개시의 바람직한 실시 예가 첨부된 도면을 참조하여 상세히 설명한다. 본 개시를 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단된 경우 그 상세한 설명은 생략한다. 그리고 후술되는 용어들은 본 개시에서의 기능을 고려하여 정의된 용어 들로서 이는 사용자, 운용자 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.Hereinafter, preferred embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In the following description of the present invention, detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present disclosure rather unclear. And the terms used below are terms defined in consideration of the functions in this disclosure, which may vary depending on the user, operator or custom. Therefore, the definition should be based on the contents throughout this specification.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되지는 않는다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 항목들의 조합 또는 복수의 관련된 항목들 중의 어느 하나의 항목을 포함한다.Terms including ordinals such as first, second, etc. may be used to describe various elements, but the elements are not limited by terms. Terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. The term " and / or " includes any combination of a plurality of related items or any of a plurality of related items.

본 명세서에서 사용한 용어는 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 제한 및/또는 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 숫자, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 삽입 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing the embodiments only and is not intended to limit and / or to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as "comprising" or "having" mean that a feature, a number, an operation, an element, a component, or a combination thereof described in the specification is to be present and that one or more other features, Elements, parts, or combinations thereof without departing from the spirit and scope of the invention.

실시 예에 있어서 '모듈' 혹은 '부'는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어 또는 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 '모듈' 혹은 복수의 '부'는 특정한 하드웨어로 구현될 필요가 있는 '모듈' 혹은 '부'를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서로 구현될 수 있다.In the embodiment, 'module' or 'sub' performs at least one function or operation, and may be implemented in hardware or software, or in a combination of hardware or software. In addition, a plurality of 'modules' or a plurality of 'parts' may be integrated into at least one module except for 'module' or 'module' which needs to be implemented by specific hardware, and may be implemented by at least one processor.

한편 본 개시에서는 특별한 사정이 없는 한 제1 영상, 제2 영상, 제1 프레임, 제2 프레임, 제1 부가 정보, 제2 부가 정보는 다음과 같은 의미로 사용된다. 구체적으로, 제1 영상은 처음으로 재생되는 영상을 의미하고, 제2 영상은 제1 영상 뒤에 재생되는 영상을 의미한다. 제1 프레임은 제1 영상이 재생되는 마지막 프레임을 의미하고 제2 프레임은 제2 영상이 재생되는 첫번째 프레임을 의미한다. 또한 제1 부가 정보는 제1 프레임에 삽입된 정보를 의미하고 제2 부가 정보는 제2 프레임에 삽입된 정보를 의미한다.In the present disclosure, the first video, the second video, the first frame, the second frame, the first additional information, and the second additional information are used as follows unless otherwise specified. Specifically, the first image means an image to be reproduced first, and the second image means an image to be reproduced after the first image. The first frame means the last frame in which the first image is reproduced and the second frame means the first frame in which the second image is reproduced. The first additional information means information inserted in the first frame and the second additional information means information inserted in the second frame.

이하에서는 첨부된 도면을 이용하여 본 개시에 대해 구체적으로 설명한다. 도 1a은 본 개시의 일 실시 예에 따른 전자 장치(100)의 구성을 설명하기 위한 개략적인 블록도이다. 이때, 전자 장치(100)는 스마트폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 영상 전화기, 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), 워크스테이션(workstation), PDA(personal digital assistant), PMP(portable multimedia player)등 영상을 재생할 수 있는 전자 장치를 포함할 수 있다. 또 다른 실시 예로, 전자 장치(100)는 도 10 에 도시된 바와 같이, 촬상 장치(200)와 외부 서버(300)를 포함하는 시스템으로 구현될 수 있다.Hereinafter, the present disclosure will be described in detail with reference to the accompanying drawings. FIG. 1A is a schematic block diagram for illustrating a configuration of an electronic device 100 according to an embodiment of the present disclosure. At this time, the electronic device 100 may be a smartphone, a tablet personal computer, a mobile phone, a video phone, a desktop personal computer, a laptop personal computer, a personal computer, a netbook computer, a workstation, a personal digital assistant (PDA), and a portable multimedia player (PMP). In another embodiment, the electronic device 100 may be implemented as a system including the imaging device 200 and the external server 300, as shown in FIG.

도 1a에 도시된 전자 장치(100)는 디스플레이(110) 및 프로세서(120)를 포함한다. The electronic device 100 shown in FIG. 1A includes a display 110 and a processor 120.

디스플레이(110)는, 복수의 프레임 중 적어도 하나의 프레임에 대한 부가 정보를 포함하는 제1 영상 및 제2 영상 중 적어도 하나를 재생할 수 있다. 이때, 디스플레이(110)가 재생하는 제1 영상 및 제2 영상은 복수의 프레임으로 구성되며, 복수의 프레임 중 적어도 일부는, 프레임에 대응하는 부가 정보가 삽입되어 있다.The display 110 may reproduce at least one of a first image and a second image including additional information on at least one frame among the plurality of frames. At this time, the first image and the second image reproduced by the display 110 are composed of a plurality of frames, and at least some of the plurality of frames are inserted with additional information corresponding to the frames.

이때, 사용자 명령이 입력된 경우, 디스플레이(110)는 제 2영상을 제2프레임부터 재생할 수 있다.At this time, if a user command is input, the display 110 can reproduce the second image from the second frame.

제1 영상이 재생되는 동안, 기 설정된 사용자 명령이 입력되면, 프로세서(120)는 기 설정된 사용자 명령에 대응되는 제1 프레임에 대한 제1 부가 정보를 결정하고, 제1 부가 정보에 대응하는 제2 영상의 제2 프레임을 결정하여 제2프레임부터 제2 영상을 재생하도록 디스플레이(110)를 제어할 수 있다. When a predetermined user command is input while the first image is being reproduced, the processor 120 determines first additional information for a first frame corresponding to a predetermined user command, and determines a second additional information corresponding to the first additional information, And may control the display 110 to determine the second frame of the image and reproduce the second image from the second frame.

구체적으로, 프로세서(120)는 제1 영상을 제1 프레임까지 재생한 후, 제2 영상의 제2 프레임부터 제2 영상을 재생하도록 디스플레이(110)를 제어할 수 있다.Specifically, the processor 120 may control the display 110 to reproduce the first image up to the first frame, and then reproduce the second image from the second frame of the second image.

도 1b는 본 개시의 일 실시 예에 따른 전자 장치(100)의 구성을 상세히 도시한 블록도이다.1B is a block diagram illustrating in detail the configuration of an electronic device 100 according to one embodiment of the present disclosure.

구체적으로, 전자 장치(100)는 디스플레이(110), 프로세서(120) 외에 통신부(130), 촬상부(140), 입력부(150), 감지부(160) 및 메모리(170)를 더 포함할 수 있다. 그러나 이러한 구성에 한정되는 것은 아니며, 새로운 구성요소가 추가되거나 생략될 수 있음은 물론이다.The electronic device 100 may further include a communication unit 130, an imaging unit 140, an input unit 150, a sensing unit 160, and a memory 170 in addition to the display 110 and the processor 120 have. However, it is needless to say that the present invention is not limited to such a configuration, and new components may be added or omitted.

디스플레이(110)는 전자 장치(100)에서 제공되는 각종 가이드, 영상 컨텐츠, 정보, UI 등을 표시할 수 있다. 디스플레이(110)는 액정 표시 장치(Liquid Crystal Display, LCD), 유기 전기 발광 다이오드(Organic Light Emitting Display, OLED) 또는 플라즈마 표시 패널(Plasma Display Panel, PDP) 등으로 구현되어, 전자 장치(100)를 통해 제공 가능한 다양한 화면을 표시할 수 있다.The display 110 may display various guides, image contents, information, UI, and the like provided in the electronic device 100. The display 110 is implemented by a liquid crystal display (LCD), an organic light emitting diode (OLED) or a plasma display panel (PDP) It is possible to display various screens that can be provided.

특히 디스플레이(110)는 전자 장치(100)에서 제공되는 각종 가이드, 영상 컨텐츠, 정보, UI 등을 표시할 수 있다. 디스플레이(110)는 액정 표시 장치(Liquid Crystal Display, LCD), 유기 전기 발광 다이오드(Organic Light Emitting Display, OLED) 또는 플라즈마 표시 패널(Plasma Display Panel, PDP) 등으로 구현되어, 전자 장치(100)를 통해 제공 가능한 다양한 화면을 표시할 수 있다.In particular, the display 110 may display various guides, image contents, information, UI, and the like provided in the electronic device 100. The display 110 is implemented by a liquid crystal display (LCD), an organic light emitting diode (OLED) or a plasma display panel (PDP) It is possible to display various screens that can be provided.

구체적으로, 디스플레이(110)는 제1 영상 및 제2 영상을 재생할 수 있다. Specifically, the display 110 can reproduce the first image and the second image.

통신부(130)는 와이파이 칩(131), 블루투스 칩(132), 무선 통신 칩(133), NFC칩(134)중 적어도 하나를 포함할 수 있다. 특히, 와이파이 칩(131), 블루투스 칩(132) 각각은 와이파이 방식, 블루투스 방식으로 통신을 수행할 수 있다. 와이파이 칩(131)이나 블루투스 칩(132)을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. 무선 통신 칩(133)은 IEEE, Zigbee, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution) 등과 같은 다양한 통신 규격에 따라 통신을 수행하는 칩을 의미한다. NFC 칩(134)은 135kHz, 13.56MHz, 433MHz, 860~960MHz, 2.45GHz 등과 같은 다양한 RF-ID 주파수 대역들 중에서 13.56MHz 대역을 사용하는 NFC(Near Field Communication) 방식으로 동작하는 칩을 의미한다.The communication unit 130 may include at least one of a Wi-Fi chip 131, a Bluetooth chip 132, a wireless communication chip 133, and an NFC chip 134. In particular, each of the Wi-Fi chip 131 and the Bluetooth chip 132 can perform communication using a Wi-Fi system or a Bluetooth system. When the WiFi chip 131 or the Bluetooth chip 132 is used, various connection information such as an SSID and a session key may be transmitted and received first, and communication information may be used to transmit and receive various information. The wireless communication chip 133 refers to a chip that performs communication according to various communication standards such as IEEE, Zigbee, 3G (3rd Generation), 3GPP (Third Generation Partnership Project), LTE (Long Term Evolution) The NFC chip 134 means a chip operating in an NFC (Near Field Communication) system using a band of 13.56 MHz among various RF-ID frequency bands such as 135 kHz, 13.56 MHz, 433 MHz, 860 to 960 MHz and 2.45 GHz.

통신부(130)는 외부 서버 또는 외부 전자 장치와 통신을 수행할 수 있다. 예를 들어, 동영상 스트리밍 방식을 통해 영상을 재생하는 경우, 전자 장치(100)는 외부 서버로부터 영상 데이터를 수신할 수 있다. 또한, 프로세서(120)는 사용자 명령을 외부 서버로 송신하도록 통신부(130)는 제어할 수 있다.The communication unit 130 can perform communication with an external server or an external electronic device. For example, when playing an image through a video streaming method, the electronic device 100 can receive image data from an external server. In addition, the processor 120 may control the communication unit 130 to transmit a user command to an external server.

입력부(140)는 사용자의 명령을 입력 받을 수 있다. 구체적으로, 입력부(140)는 제1 영상을 재생하기 위한 사용자 명령 또는 제1 영상이 재생되는 중, 제2 영상을 재생하기 위한 사용자 명령을 프로세서(120)로 출력할 수 있다.The input unit 140 may receive a user command. Specifically, the input unit 140 may output a user command to reproduce the first image or a user command to reproduce the second image while the first image is being reproduced.

촬상부(150)는 영상을 촬영할 수 있다. 구체적으로, 전자 장치(100)가 촬상부(150)을 포함하는 경우, 촬상부(150)는 영상 촬영을 할 수 있다. 촬상부(150)에 의해 촬영된 영상은 디스플레이(110)에 재생될 수도 있으며, 외부 서버(300)로 전송되어 다른 전자 장치로 전송될 수도 있음은 물론이다.The image pickup section 150 can take an image. Specifically, when the electronic device 100 includes the imaging unit 150, the imaging unit 150 can perform imaging. The image photographed by the image pickup unit 150 may be reproduced on the display 110 or may be transmitted to the external server 300 and transmitted to another electronic device.

또한, 촬상부(150)는 일반 동영상을 촬영할 수 있을 뿐만 아니라 파노라마 영상을 촬영할 수 있다. 이때, 파노라마 영상이란, 360도 또는 기 설정된 각도 이상(예를 들어 180도)의 시야를 확보할 수 있는 영상을 의미할 수 있다.In addition, the imaging unit 150 can photograph a general moving image as well as a panorama image. At this time, the panoramic image may mean an image which can ensure a field of view of 360 degrees or more than a predetermined angle (for example, 180 degrees).

한편, 촬상부(150)는 전자 장치(100) 내에 구비될 수 있으나, 이는 일 실시 예에 불과할 뿐, 전자 장치(100)와 유/무선 형태로 연결될 수 있다.Meanwhile, the image sensing unit 150 may be provided in the electronic device 100, but it may be connected to the electronic device 100 in a wired / wireless manner only by way of example.

감지부(160)는 다양한 데이터를 감지할 수 있다. 또한, 감지부(160)에서 감지한 데이터는 부가 정보를 생성하는데 사용될 수 있다. 구체적으로, 감지부는 자이로 센서, GPS 센서, 가속도 센서 등을 포함할 수 있다. 그러나 상술한 센서에 한정되는 것은 아니며, 다양한 부가 정보를 생성하기 위한 여러가지 센서를 포함할 수 있음은 물론이다.The sensing unit 160 may sense various data. Further, the data sensed by the sensing unit 160 may be used to generate additional information. Specifically, the sensing unit may include a gyro sensor, a GPS sensor, an acceleration sensor, and the like. However, it is needless to say that the present invention is not limited to the above-described sensors and may include various sensors for generating various additional information.

촬상부(150)에 의해 영상이 촬영되는 경우, 감지부(160)는 촬영중인 영상 프레임 삽입하기 위한 GPS 좌표, 방위 등의 데이터를 감지할 수 있다. 이때, 데이터는 대응되는 영상 프레임에 부가 정보로서 삽입될 수 있다.When the image is captured by the image pickup unit 150, the sensing unit 160 may sense data such as GPS coordinates and orientation for inserting the image frame being shot. At this time, the data may be inserted as additional information in the corresponding image frame.

메모리(170)는 전자 장치(100)를 구동시키기 위한 O/S(Operating System)가 저장될 수 있다. 또한, 메모리(170)는 본 개시의 다양한 실시 예들에 따라 전자 장치(100)가 동작하기 위한 각종 소프트웨어 프로그램이나 어플리케이션이 저장될 수도 있다. 메모리(170)는 프로그램 또는 어플리케이션의 실행 중에 입력되거나 설정 또는 생성되는 각종 데이터 등과 같은 다양한 정보가 저장될 수 있다. The memory 170 may store an O / S (Operating System) for driving the electronic device 100. The memory 170 may also store various software programs or applications for operating the electronic device 100 in accordance with various embodiments of the present disclosure. The memory 170 may store various information such as various data inputted or set or generated during execution of a program or an application.

또한, 메모리(170)는 본 개시의 다양한 실시 예들에 따라 전자 장치(100)가 동작하기 위한 각종 소프트웨어 모듈을 포함할 수 있으며, 프로세서(120)는 메모리(170)에 저장된 각종 소프트웨어 모듈을 실행하여 본 개시의 다양한 실시 예들에 따른 전자 장치(100)의 동작을 수행할 수 있다.The memory 170 may also include various software modules for operating the electronic device 100 in accordance with various embodiments of the present disclosure and the processor 120 may execute various software modules stored in the memory 170 To perform operations of the electronic device 100 in accordance with various embodiments of the present disclosure.

또한, 메모리(170)는 촬상부(150)에 의해 촬영된 영상 및 감지부(160)에 의해 감지된 데이터를 저장할 수 있다. 특히, 메모리(170)는 제1 영상 및 제2 영상을 저장할 수 있다. 이를 위해, 메모리(170)는 플래시 메모리(Flash Memory) 등과 같은 반도체 메모리나 하드디스크(Hard Disk) 등과 같은 자기 저장 매체 등을 포함할 수 있다.The memory 170 may store the image captured by the image capturing unit 150 and the data sensed by the sensing unit 160. In particular, the memory 170 may store the first image and the second image. To this end, the memory 170 may include a semiconductor memory such as a flash memory or the like, a magnetic storage medium such as a hard disk, or the like.

프로세서(120)는 전자 장치(100)의 동작을 전반적으로 제어할 수 있다.The processor 120 may control overall operation of the electronic device 100.

프로세서(120)는 도 1b에 도시된 바와 같이, RAM(121), ROM(122), 메인 CPU(124), 제1 내지 n 인터페이스(125-1 ~ 125-n), 버스(126)를 포함한다. 이때, RAM(121), ROM(122), 메인 CPU(124), 제1 내지 n 인터페이스(125-1 ~ 125-n) 등은 버스(126)를 통해 서로 연결될 수 있다. The processor 120 includes a RAM 121, a ROM 122, a main CPU 124, first through n interfaces 125-1 through 125-n, and a bus 126, as shown in FIG. do. At this time, the RAM 121, the ROM 122, the main CPU 124, the first to n interfaces 125-1 to 125-n, etc. may be connected to each other via the bus 126.

ROM(122)에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴 온 명령이 입력되어 전원이 공급되면, 메인 CPU(124)는 ROM(122)에 저장된 명령어에 따라 메모리(170)에 저장된 O/S를 RAM(121)에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, 메인 CPU(124)는 메모리(170)에 저장된 각종 어플리케이션 프로그램을 RAM(121)에 복사하고, RAM(121)에 복사된 어플리케이션 프로그램을 실행시켜 각종 동작을 수행한다. The ROM 122 stores a command set for booting the system and the like. When the turn-on command is input and power is supplied, the main CPU 124 copies the O / S stored in the memory 170 to the RAM 121 according to the instruction stored in the ROM 122, executes O / S Boot the system. When the booting is completed, the main CPU 124 copies various application programs stored in the memory 170 to the RAM 121, executes the application program copied to the RAM 121, and performs various operations.

메인 CPU(124)는 메모리(170)에 액세스하여, 메모리(170)에 저장된 O/S를 이용하여 부팅을 수행한다. 그리고 메인 CPU(124)는 메모리(170)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행한다. The main CPU 124 accesses the memory 170 and performs booting using the O / S stored in the memory 170. [ The main CPU 124 performs various operations using various programs, contents, and data stored in the memory 170.

제1 내지 n 인터페이스(125-1 내지 125-n)는 상술한 각종 구성요소들과 연결된다. 인터페이스들 중 하나는 네트워크를 통해 외부 장치와 연결되는 네트워크 인터페이스가 될 수도 있다.The first to n-th interfaces 125-1 to 125-n are connected to the various components described above. One of the interfaces may be a network interface connected to an external device via a network.

 구체적으로, 제1 영상이 재생되는 동안, 기 설정된 사용자 명령이 입력되면, 프로세서(120)는, 기 설정된 사용자 명령에 대응되는 제1 프레임에 대한 제1 부가 정보를 결정하고, 제1 부가 정보에 대응하는 제2 영상의 제2 프레임을 결정하여 제2프레임부터 제2 영상을 재생하도록 디스플레이(110)를 제어할 수 있다.  이때, 제1 영상 및 제2 영상은 동일한 오브젝트 또는 이벤트를 포함하는 관련된 영상들일 수 있다. 즉, 제1 영상 및 제2 영상을 동일한 오브젝트 또는 이벤트에 대한 정보를 포함하는 부가 정보를 포함할 수 있다.Specifically, when a predetermined user command is input while the first image is being reproduced, the processor 120 determines first additional information for a first frame corresponding to a predetermined user command, And may control the display 110 to determine the second frame of the corresponding second image to reproduce the second image from the second frame. At this time, the first image and the second image may be related images including the same object or event. That is, the first image and the second image may include additional information including information about the same object or event.

이때, 프로세서(120)는 제1 부가 정보에 대응되는 제2 부가 정보를 결정하고, 제2 부가 정보에 대응되는 제2 영상의 상기 제2 프레임을 결정할 수 있다.At this time, the processor 120 may determine second additional information corresponding to the first additional information, and determine the second frame of the second video corresponding to the second additional information.

이때, 제1 프레임은, 사용자 명령이 입력된 시점(time)에 재생중인 프레임이고, 사용자 명령은 제2 영상을 재생시키는 명령일 수 있다. 구체적으로, 제1 영상이 재생되는 도중, 제2 영상을 재생시키기 위한 사용자 명령이 입력된 경우, 프로세서(120)는 제1 영상을 제1 프레임까지 재생한 후, 제2 영상의 제2 프레임부터 재생하도록 디스플레이(110)를 제어할 수 있다. 이때, 제1 프레임 및 제2 프레임이 포함하는 부가 정보는, 서로 동일하거나 연관된 부가 정보일 수 있다.Here, the first frame may be a frame being reproduced at a time when a user command is input, and the user command may be a command to reproduce the second image. Specifically, when a user command for reproducing a second image is inputted while the first image is being reproduced, the processor 120 reproduces the first image up to the first frame, And to control the display 110 to reproduce. At this time, the additional information included in the first frame and the second frame may be the same or related additional information.

이때, 부가 정보는, GPS 정보, 방위 정보, 시간 정보, 이미지 분석을 통한 대상 정보, 키워드 정보, 음성 키워드 정보 및 해시태그 정보 중 적어도 하나를 포함할 수 있다. 그러나 상술한 예에 한정되는 것은 아니고, 프레임과 관련된 다양한 종류의 부가 정보가 존재할 수 있음은 물론이다. At this time, the additional information may include at least one of GPS information, azimuth information, time information, object information through image analysis, keyword information, voice keyword information, and hash tag information. However, it is needless to say that the present invention is not limited to the above-described example, and various kinds of additional information related to the frame may exist.

예를 들어, 이러한 부가 정보는, 감지부(160)에 의해 감지된 데이터일 수 있다. 그러나 감지부(160)에 의해 감지되지 않은 데이터도 부가 정보로 활용할 수 있다. 즉, 프로세서(120)는 기존에 수집된 데이터들을 활용해 새로운 정보의 생성 및 수집이 가능하다. 예를 들어, 프로세서(120)는 감지부(160)에 감지된 위치와 시간 데이터를 바탕으로 웹상의 정보를 크롤링하여 감지된 위치와 시간에 대응하는 사건 이벤트를 새로운 부가 정보로 생성할 수 있다. 예를 들어, 프로세서(120)는 2016년 9월 12일 19시 44분에 경주에서 촬영된 영상 프레임에 대하여 "지진"이라는 부가 정보를 생성할 수 있다.For example, the additional information may be data sensed by the sensing unit 160. [ However, data not detected by the sensing unit 160 can be utilized as additional information. That is, the processor 120 can generate and collect new information by utilizing the data collected in the past. For example, the processor 120 may crawl information on the web based on the position and time data sensed by the sensing unit 160, and generate an event event corresponding to the sensed position and time as new additional information. For example, the processor 120 may generate additional information called "earthquakes " for video frames photographed at 19:44 on September 12, 2016.

또 다른 실시 예로, 제1 영상에 복수의 오브젝트에 대응되는 복수의 디스플레이 아이템이 디스플레이 되는 경우, 사용자 명령은 복수의 디스플레이 아이템 중 하나를 선택하는 명령일 수 있다. 이때 제1 프레임에 대한 제1 부가 정보는, 선택된 디스플레이 아이템에 대응되는 부가 정보일 수 있다. 구체적으로, 제1 영상에 존재하는 복수의 디스플레이 아이템 중 하나를 선택하는 사용자 명령이 입력된 경우, 프로세서(120)는 선택된 디스플레이 아이템에 대응되는 부가 정보를 결정할 수 있다. 이때, 선택된 디스플레이 아이템에 대응되는 부가 정보는, 디스플레이 아이템에 대응되는 오브젝트에 대한 부가 정보일 수 있다. In another embodiment, when a plurality of display items corresponding to a plurality of objects are displayed on the first image, the user command may be a command to select one of the plurality of display items. Here, the first additional information for the first frame may be additional information corresponding to the selected display item. Specifically, when a user command for selecting one of the plurality of display items existing in the first image is inputted, the processor 120 can determine the additional information corresponding to the selected display item. At this time, the additional information corresponding to the selected display item may be additional information about the object corresponding to the display item.

사용자 명령이 입력된 경우, 프로세서(120)는 제1 영상을 제1 프레임까지 재생한 후, 제2 영상을 제2 프레임부터 재생하도록 디스플레이(110)를 제어할 수 있다.When a user command is input, the processor 120 may control the display 110 to reproduce the first image up to the first frame and then reproduce the second image from the second frame.

한편, 제1 프레임 및 제2 프레임에 삽입된 부가 정보는 복수의 부가 정보일 수 있다. 이때, 프로세서(120)는 각각의 프레임에 삽입된 부가 정보 중, 특정 부가 정보만을 필터링할 수 있다. On the other hand, the additional information inserted in the first frame and the second frame may be a plurality of additional information. At this time, the processor 120 may filter only the specific additional information among the additional information embedded in each frame.

또한, 제1영상 및 제2 영상의 재생이 종료된 경우, 프로세서(120)는 재생된 상기 제1 영상 및 제2 영상을 합성할 수 잇다. 구체적으로, 프로세서(120)는, 사용자 명령에 의해 제1 영상의 제1 프레임까지의 영상과, 제2 영상의 제2 프레임부터 제2 영상이 종료된 프레임까지의 영상을 합성하여 저장할 수 있다. 이때, 합성된 영상은 메모리(170)에 저장될 수 있다. In addition, when the reproduction of the first image and the second image is completed, the processor 120 may synthesize the reproduced first image and the second image. Specifically, the processor 120 may combine and store an image up to the first frame of the first image and a frame from the second frame to the second image of the second image by a user command. At this time, the synthesized image may be stored in the memory 170.

또한, 제1 영상 및 제2 영상이 파노라마 영상인 경우, 프로세서(120)는 제1상기 프레임의 시야 방향과 제2 프레임의 시야 방향을 동일하게 디스플레이 하도록 디스플레이(110)를 제어할 수 있다. 구체적으로, 제2영상의 제2 프레임의 시야 방향은 제1 영상의 제1 프레임의 시야 방향과 동일할 수 있다.In addition, when the first image and the second image are panoramic images, the processor 120 may control the display 110 to display the view direction of the first frame and the view direction of the second frame equally. In particular, the field of view of the second frame of the second image may be the same as the field of view of the first frame of the first image.

 

도 2a 내지 도 3은 본 개시의 일 실시 예에 따른, 시간에 흐름에 따라 구성된 영상 데이터를 도시한 도면이다. 즉, 도 2a 내지 도 3에 도시된 영상 데이터는 왼쪽 끝 부분이 영상의 시작 시점을 나타내고, 오른쪽 끝 부분이 영상의 종료 시점을 나타낸다. Figs. 2A to 3 are diagrams showing image data configured according to time according to an embodiment of the present disclosure. Fig. In other words, the left end portion of the image data shown in FIGS. 2A to 3 indicates the start point of the image, and the right end portion indicates the end point of the image.

도 2a 및 2b는 본 개시의 일 실시 예에 따른 부가 정보를 포함하는 영상을 설명하기 위한 도면이다.2A and 2B are views for explaining an image including additional information according to an embodiment of the present disclosure.

도 2a에 도시된 바와 같이, 영상 데이터(210)는 복수의 부가 정보(220-1 내지 220-N)를 포함할 수 있다. 구체적으로, 도 2b에 도시된 바와 같이, 복수의 부가 정보(220-1 내지 220-N)는 영상 데이터(210)는 분할된 영상 데이터(210-1 내지 210-N)로 이루어 질 수 있다. 각각의 부가 정보(220-1 내지 220-N)는 각각의 영상 데이터(210-1 내지 210-N)에 삽입될 수 있다. 예를 들어 제1 영상 데이터(210-1)에는 제1 부가 정보(220-1)가 삽입되고, 제2 영상 데이터(210-2)에는 제2 부가 정보(220-2)가 삽입될 수 있다.As shown in FIG. 2A, the image data 210 may include a plurality of additional information 220-1 to 220-N. Specifically, as shown in FIG. 2B, the plurality of pieces of additional information 220-1 to 220-N may include the image data 210 and the divided image data 210-1 to 210-N. Each of the additional information 220-1 to 220-N may be inserted into each of the image data 210-1 to 210-N. For example, the first additional information 220-1 may be inserted into the first image data 210-1 and the second additional information 220-2 may be inserted into the second image data 210-2 .

한편, 본 개시에서는 각각의 영상 데이터(210-1 내지 210-N)는 하나의 프레임인 경우를 예로 하여 설명하였다. 그러나 각각의 영상 데이터(210-1 내지 210-N)는 하나의 프레임으로 이루어진 경우가 아닐 수도 있으며, 복수의 프레임이 하나의 영상 데이터를 구성할 수 있음은 물론이다.On the other hand, in the present disclosure, the case where each of the image data 210-1 to 210-N is one frame has been described as an example. However, it is needless to say that the respective image data 210-1 to 210-N may not be composed of one frame, and a plurality of frames may constitute one image data.

또한, 본 개시에서는 하나의 영상 데이터에 하나의 부가 정보가 삽입되는 경우를 예로 하여 설명하였으나, 하나의 영상 데이터에 복수의 삽입 데이터가 포함될 수 있음은 물론이다. Also, in the present disclosure, one additional information is inserted into one image data. However, it is needless to say that a plurality of embedded data may be included in one image data.

즉, 본 개시의 실시 예에서 프레임에 삽입된 부가 정보는, 하나의 프레임에 삽입된 하나의 부가 정보일 수 있고, 복수의 프레임으로 구성된 하나의 영상 데이터에 삽입된 하나의 부가 정보일 수도 있으며, 하나의 프레임에 삽입된 복수의 부가 정보일 수도 있고, 복수의 프레임으로 구성된 하나의 영상 데이터에 삽입된 복수의 삽입 데이터일 수도 있음은 물론이다.That is, in the embodiment of the present disclosure, the additional information inserted in the frame may be one additional information inserted in one frame, or may be one additional information inserted in one video data composed of a plurality of frames, It may be a plurality of pieces of additional information inserted in one frame or a plurality of pieces of embedded data inserted into one piece of video data composed of a plurality of frames.

이하, 본 개시에서는 각각의 영상 데이터가 각각의 프레임인 경우로 한정하여 설명한다. 다만, 상술한 바와 같이 영상 프레임은 복수의 영상 프레임을 포함하는 영상 데이터를 의미할 수도 있음은 물론이다.Hereinafter, the present disclosure will be limited to the case where each video data is a respective frame. However, it goes without saying that the image frame may mean image data including a plurality of image frames as described above.

도 3은 본 개시의 일 실시 예에 따른, 제1 영상 및 제2 영상을 재생하는 과정을 도시한 도면이다.FIG. 3 is a diagram illustrating a process of reproducing a first image and a second image according to an embodiment of the present disclosure.

구체적으로, 제1 영상(310)은 복수의 프레임(311 내지 313)을 포함할 수 있고, 제2 영상(320) 또한 복수의 프레임(321 내지324)를 포함할 수 있다. 제 1영상(310)이 재생되는 경우, 전자 장치(100)는 부가 정보가 삽입된 영상 데이터를 재생한다. 이때, 기 설정된 사용자 명령이 입력되면, 프로세서(120)는 기 설정된 사용자 명령에 대응하는 제1 프레임(313)에 대한 제1 부가 정보를 결정할 수 있다. 이때, 기 설정된 사용자 명령은 제2영상을 실행하는 명령일 수 있다. 또한 기 설정된 사용자 명령은 제1 영상에 디스플레이된 디스플레이 아이템을 선택하는 명령일 수도 있으나, 이에 한정되는 것은 아니다. 이때 디스플레이 아이템은 제2 영상에 관한 썸네일 이미지일 수도 있으며, 제1 영상에 포함된 오브젝트들(예를 들어, 영상에 포함된 건물, 사람 등) 일 수도 있으나, 이에 한정되는 것은 아니다.In particular, the first image 310 may include a plurality of frames 311 to 313, and the second image 320 may include a plurality of frames 321 to 324. When the first image 310 is reproduced, the electronic device 100 reproduces the image data in which the additional information is embedded. At this time, if the preset user command is input, the processor 120 may determine the first additional information for the first frame 313 corresponding to the preset user command. At this time, the preset user command may be a command to execute the second image. Also, the predetermined user command may be a command for selecting a display item displayed on the first image, but is not limited thereto. In this case, the display item may be a thumbnail image related to the second image, or may be objects included in the first image (e.g., building, person, etc. included in the image), but is not limited thereto.

기 설정된 사용자 명령이 입력된 경우, 전자 장치(100)는 제1 영상을 제1 프레임(313)까지 재생한 후, 제2 영상을 제2 프레임(323)부터 재생할 수 있다. When a preset user command is input, the electronic device 100 can reproduce the first image up to the first frame 313, and then reproduce the second image from the second frame 323. [

이때, 제2 프레임은 제1 부가 정보에 대응되는 프레임일 수 있다. 구체적으로, 제1 영상이 재생되는 도중 사용자 명령이 입력된 경우, 프로세서(120)는 사용자 명령에 대응되는 제1 프레임을 결정할 수 있다. 프로세서(120)는 제1 프레임에 포함된 제1 부가 정보에 대응되는 제2 부가 정보를 결정 할 수 있다. 이때, 제2 부가 정보는 제2 영상을 구성하는 복수의 프레임이 포함하는 부가 정보들 중 하나일 수 있다. 제2 부가 정보가 결정된 경우, 프로세서(120)는 제2 부가 정보를 포함하는 제2 프레임을 결정할 수 있다.At this time, the second frame may be a frame corresponding to the first additional information. In particular, when a user command is input during the reproduction of the first image, the processor 120 may determine a first frame corresponding to the user command. The processor 120 may determine second additional information corresponding to the first additional information included in the first frame. At this time, the second additional information may be one of additional information included in a plurality of frames constituting the second image. When the second additional information is determined, the processor 120 may determine a second frame including the second additional information.

이때 제2 부가 정보를 포함하는 제2 영상의 프레임이 복수개인 경우, 다양한 방법에 의해 제2 프레임을 결정할 수 있다. 예를 들어 제2 부가 정보를 포함하는 복수의 프레임들 중 가장 빠른 프레임이 제2 프레임이 될 수 있다. 가장 빠른 프레임이란 제2 영상이 재생되는 경우 가장 먼저 재생되는 프레임을 의미한다. 다만, 상술한 방법에 한정되는 것은 아니며 다양한 방법에 의해 제2 부가 정보를 포함하는 제2 프레임을 결정할 수 있음은 물론이다.At this time, when there are a plurality of frames of the second image including the second additional information, the second frame can be determined by various methods. For example, the fastest frame among the plurality of frames including the second additional information may be the second frame. The fastest frame is the frame that is reproduced first when the second image is reproduced. However, the present invention is not limited to the above-described method, and it is needless to say that the second frame including the second additional information can be determined by various methods.

예를 들어 제2 부가 정보가 복수개의 부가 정보를 포함하는 경우, 제2 프레임은 복수의 부가 정보 중 가장 많은 부가 정보를 가지는 프레임을 제2 프레임으로 결정할 수도 있다.For example, when the second additional information includes a plurality of additional information, the second frame may determine a frame having the largest additional information among the plurality of additional information as the second frame.

또는, 제2 부가 정보를 가지는 프레임이 복수개인 경우, 해당 프레임과 인접한 프레임들을 이용하여 제2 프레임을 결정할 수도 있다. 예를 들어, 전자 장치(100)는 제1 부가 정보를 포함하는 제1 프레임의 이전 및 이후 프레임(이하 1-1 프레임 및 1-2 프레임)이 포함하는 부가정보(이하 1-1 부가 정보 및 1-2 부가정보)를 결정할 수 있다. 이때, 제2 부가 정보를 포함하는 제2 영상의 복수의 프레임들 중, 각각의 프레임의 인접 프레임이 포함하는 부가 정보가 1-1 부가 정보 및 1-2 부가 정보에 대응되는 경우, 전자 장치(100)는 해당 프레임을 제2 프레임으로 결정할 수 있다.Alternatively, when there are a plurality of frames having the second additional information, the second frame may be determined using the frames adjacent to the frame. For example, the electronic device 100 may include additional information (hereinafter referred to as " 1-1 additional information " hereinafter) included in the previous and subsequent frames of the first frame including the first additional information 1-2 additional information) can be determined. If the additional information included in the adjacent frame of each frame among the plurality of frames of the second image including the second additional information corresponds to the 1-1 additional information and the 1-2 additional information, 100) can determine the frame as the second frame.

다만, 제2 부가 정보를 포함하는 제2 영상의 프레임이 복수개인 경우 제2 프레임을 결정하는 방법은 상수란 실시예에 한정되지 않으며 다양한 방법에 의해 결정될 수 있음은 물론이다.However, when there are a plurality of frames of the second image including the second additional information, the method of determining the second frame is not limited to the embodiment, and may be determined by various methods.

이하 제2 프레임을 결정하는 다양한 실시예들에 대하여 설명한다. 구체적으로, 제1 부가 정보와 제2 부가 정보는 서로 연관된 부가 정보일 수 있다. 예를 들어, 제1 부가 정보 및 제2 부가 정보는 동일하거나 유사한 GPS좌표 또는 방위, 촬영시간, 해시태그 등을 가질 수 있다. 그러나 상술한 예에 한정되는 것은 아니며, 영상과 관련된 다양한 부가 정보를 가질 수 있음은 물론이다.Hereinafter, various embodiments for determining the second frame will be described. Specifically, the first additional information and the second additional information may be additional information associated with each other. For example, the first additional information and the second additional information may have the same or similar GPS coordinates or orientation, a shooting time, a hash tag, and the like. However, it is needless to say that the present invention is not limited to the above-described example, and may have various additional information related to the image.

상술한 바와 같이, 부가 정보는 다양한 형태의 부가 정보일 수 있으며, 제1 부가 정보 및 제2 부가 정보는 서로 연관성을 가질 수 있다. 이하 제1 부가 정보 및 제2 부가 정보의 종류에 따른 제1 프레임 및 제2 프레임에 대하여 설명한다.As described above, the additional information may be various types of additional information, and the first additional information and the second additional information may be related to each other. Hereinafter, the first frame and the second frame according to the types of the first additional information and the second additional information will be described.

일 실시 예로 부가 정보가 GPS 좌표에 관한 부가 정보인 경우, 제1 부가 정보 및 제2 부가 정보는 동일한 GPS 좌표를 가지는 부가 정보일 수 있다. 그러나 반드시 동일한 GPS 좌표일 필요는 없으며, 제1 부가 정보 및 제2 부가 정보는 기 설정된 범위 내의 GPS 좌표일 수도 있다.In one embodiment, when the additional information is additional information relating to GPS coordinates, the first additional information and the second additional information may be additional information having the same GPS coordinates. However, it is not necessarily the same GPS coordinates, and the first additional information and the second additional information may be GPS coordinates within a predetermined range.

예를 들어 제1 부가 정보가 63빌딩의 GPS 좌표를 포함하는 경우, 제2 부가 정보도 63빌딩 GPS 좌표를 가질 수 있다. 이러한 경우, 제1 프레임 및 제2 프레임은 모두 63빌딩을 포함하는 프레임일 수 있다.For example, if the first additional information includes the GPS coordinates of the 63 building, the second additional information may also have 63 building GPS coordinates. In this case, the first frame and the second frame may all be frames including 63 buildings.

또 다른 실시 예로, 부가 정보가 방위 정보를 포함하는 경우 제1 프레임 및 제2 프레임은 동일한 방향을 나타내는 프레임일 수 있다. 이에 대한 구체적인 실시 예는 도 7에서 후술한다.In another embodiment, when the additional information includes azimuth information, the first frame and the second frame may be frames indicating the same direction. A specific embodiment of this will be described later in Fig.

또 다른 실시 예로, 부가 정보가 영상 촬영 시간에 관한 정보일 경우, 제1 프레임 및 제2 프레임은 동일한 시간에 촬영된 영상일 수 있다. 이때, 동일한 시간이란 동일 년도, 동일 월, 동일 주, 동일 날짜, 동일 시간 등 다양한 범위를 가질 수 있다. 예를 들어, 제1 프레임 및 제2 프레임은2017년도에 촬영한 영상일 수 있다. 또 다른 예로, 제1 프레임 및 제2 프레임은 동일 계절에 관한 영상일 수 있다. 또 다른 예로, 제1 프레임 및 제2 프레임은 동일 요일에 관한 영상일 수 있다. 즉, 부가 정보가 시간에 대한 부가 정보일 경우, 부가 정보는 다양한 분류 방법(계절, 월, 요일 등)에 따라 다양한 부가 정보가 생성될 수 있다.In another embodiment, when the additional information is information on the imaging time, the first frame and the second frame may be images taken at the same time. At this time, the same time may have various ranges such as same year, same month, same week, same date, same time. For example, the first frame and the second frame may be images taken in 2017. As another example, the first frame and the second frame may be images relating to the same season. As another example, the first frame and the second frame may be images relating to the same day of the week. That is, when the additional information is additional information with respect to time, the additional information may be generated according to various classification methods (season, month, day of week, etc.).

또 다른 실시 예로, 부가 정보는 웹 크롤링 키워드를 포함하는 정보일 수 있다. 구체적으로, 프로세서(120)는 상술한 다양한 부가 정보를 결합하여 웹 크롤링 정보를 생성하고, 생성된 정보를 영상 프레임에 삽입할 수 있다. 예를 들어, 상술한 바와 같이, 프로세서(120)는 2016년 9월 12일 19시 44분(시간 정보)에 경주(위치 정보)에서 촬영된 영상 프레임에 대하여 "지진"이라는 부가 정보를 생성할 수 있다. 이러한 경우, 제1 프레임 및 제2 프레임은 2016년 9월 12일 경주에서 발생한 지진을 촬영된 영상일 수 있다. 또는 제1 프레임 및 제2 프레임은 지진에 관련된 영상일 수 있다.In yet another embodiment, the additional information may be information including a web crawl keyword. Specifically, the processor 120 may combine the various additional information described above to generate web crawling information, and insert the generated information into an image frame. For example, as described above, the processor 120 generates additional information called "earthquake" for the image frame photographed at the race (position information) at 19:44 (time information) on September 12, 2016 . In such a case, the first frame and the second frame may be the images of the earthquake that occurred in the race on September 12, 2016. Or the first frame and the second frame may be images related to an earthquake.

또 다른 실시 예로, 부가 정보는 영상 프레임에 존재하는 이미지를 분석한 정보일 수 있다. 예를 들어 영상 프레임에 유명 배우가 존재하는 경우, 전자 장치(100)는 영상 프레임을 분석하여 유명 배우에 대한 부가 정보를 생성할 수 있다. 이러한 경우, 제1 프레임 및 제2 프레임은 유명 배우를 포함하는 프레임일 수 있다. In another embodiment, the additional information may be information obtained by analyzing an image existing in an image frame. For example, if a famous actor exists in an image frame, the electronic device 100 may analyze the image frame to generate additional information about a famous actor. In such a case, the first frame and the second frame may be frames including famous actors.

또 다른 실시 예로, 부가 정보는, 사용자가 생성한 텍스트 키워드 또는 음성 키워드 일 수 있다. 예를 들어, 제1 부가 정보 및 제2 부가 정보는 "축구 골 영상"이라는 키워드 일 수 있다. 이러한 경우, 제1 프레임 및 제2 프레임은 축구경기 중 골이 들어가는 장면에 관한 프레임일 수 있다. In another embodiment, the additional information may be a text keyword or a voice keyword generated by the user. For example, the first additional information and the second additional information may be a keyword "soccer goal image ". In such a case, the first frame and the second frame may be frames relating to a scene in which a goal enters during a soccer game.

그러나 본 개시에 따른 부가 정보는 상술한 부가 정보에 한정되는 것은 아니고 다양한 부가 정보가 더 포함될 수 있음은 물론이다. However, it goes without saying that the additional information according to the present disclosure is not limited to the above-described additional information, but may also include various additional information.

또한, 부가 정보는 영상이 촬영됨과 동시에 영상에 존재하는 프레임에 삽입될 수도 있으며, 영상 촬영이 종료된 후 추가될 수도 있다. 예를 들어, 좌표 정보, 방위 정보, 시간 정보 등은 영상이 촬영되는 동시에 측정 센서에 의해 삽입될 수 있다. 또한, 키워드 음성 키워드 등은 영상 촬영이 종료된 후 사후적으로 삽입될 수도 있다.Further, the additional information may be inserted into a frame existing in the image at the same time as the image is captured, or may be added after the image capturing is completed. For example, the coordinate information, azimuth information, time information, and the like can be inserted by the measurement sensor while the image is captured. In addition, the keyword-spoken keyword or the like may be inserted after the end of the image capturing.

또한 상술한 실시 예에서는 하나의 부가 정보를 이용하여 제1 프레임 및 제2 프레임을 결정하는 방법에 대해 설명하였으나, 두개 이상의 부가 정보를 이용하여 제1 프레임 및 제2 프레임을 결정할 수도 있음은 물론이다.Although the method of determining the first frame and the second frame using one additional information has been described in the above embodiments, it is needless to say that the first frame and the second frame may be determined using two or more additional information .

한편, 하나의 영상 프레임에 부가 정보가 복수개 포함되어 있는 경우, 필터링을 통해 원하는 부가 정보만을 선택할 수도 있다. 구체적으로, 제1 프레임에 GPS 좌표, 방위, 시간, 키워드 등의 부가 정보가 모두 포함되어 있는 경우, 전자 장치(100)는 GPS 좌표 정보 및 방위 정보만을 이용하여 제2 프레임을 결정할 수 있다.On the other hand, when a plurality of additional information is included in one video frame, only desired additional information can be selected through filtering. Specifically, when the first frame includes all additional information such as GPS coordinates, azimuth, time, and keywords, the electronic device 100 can determine the second frame using only GPS coordinate information and azimuth information.

 도 4a 내지 도 8c는 본 개시의 일 실시 예에 따른 다양한 영상 재생 과정을 도시한 도면이다.FIGS. 4A to 8C are diagrams illustrating various image reproduction processes according to an embodiment of the present disclosure.

도 4a 및 4b는 본 개시의 일 실시 예에 따른, 영상 재생 방법을 설명한 도면이다.FIGS. 4A and 4B are views for explaining an image reproducing method according to an embodiment of the present disclosure. FIG.

도 4a는 본 개시의 일 실시 예에 따른 제1 영상 및 제2 영상을 시청하는 방법을 도시한 도면이다. 4A is a diagram illustrating a method of viewing a first image and a second image according to an embodiment of the present disclosure.

복수의 프레임(410,420)을 포함하는 제1 영상을 시청하던 도중, 제2 프레임(430)을 포함하는 제2 영상을 시청하기 위한 사용자 명령이 입력된 경우, 전자 장치(100)는 제1 영상을 제1 프레임까지 재생한 후 제2 영상을 제2 프레임부터 재생할 수 있다. When a user command for viewing a second image including the second frame 430 is inputted while viewing a first image including a plurality of frames 410 and 420, the electronic device 100 displays the first image It is possible to reproduce up to the first frame and then reproduce the second image from the second frame.

도 4a에 도시된 바와 같이, 제1영상은 축구 컨텐츠에 관한 영상일 수 있다. 이때, 제1 영상은 해당 축구 경기의 전체 영상 또는 하이라이트 영상일 수 있다. As shown in FIG. 4A, the first image may be an image related to the soccer content. At this time, the first image may be a full image or a highlight image of the corresponding football game.

사용자가 영상을 시청하는 도중 특정 선수가 골을 넣은 경우, 사용자는 특정 선수가 골을 넣은 제2 영상을 검색하기 위한 사용자 명령을 입력할 수 있다. 구체적으로, 사용자가 제1 영상(420)을 시청하던 중, 제1 사용자 명령을 입력할 경우, 디스플레이(110)는 제1 영상의 제1 프레임에 삽입된 제1 부가 정보에 대응하는 제2 프레임을 포함하는 제2 영상에 대한 UI(430,431)를 디스플레이 할 수 있다. 이때, 제2 영상에 대한 UI(430,431)은 해당 프레임에 대한 썸네일 이미지일 수 있으나 이에 한정되는 것은 아니다.If a particular player scores a goal while the user views the video, the user may enter a user command to search for a second video that a particular player has scored a goal. Specifically, when the user inputs a first user command while viewing the first image 420, the display 110 displays the second frame corresponding to the first additional information inserted in the first frame of the first image, The UIs 430 and 431 for the second image including the second image. In this case, the UIs 430 and 431 for the second image may be thumbnail images for the corresponding frame, but the present invention is not limited thereto.

이때, 제1 사용자 명령은 디스플레이의 임의의 위치를 터치하는 터치 인터렉션 또는 화면을 클릭하는 입력일 수 있으나 이에 한정되는 것은 아니며, 제2 영상을 디스플레이하기위한 아이콘(미도시)를 터치 또는 클릭할 수도 있음은 물론이다.At this time, the first user command may be a touch interaction for touching an arbitrary position of the display or an input for clicking the screen, but the present invention is not limited thereto, and an icon (not shown) for displaying the second image may be touched or clicked Of course.

또 다른 실시 예로, 사용자 명령이 입력되지 않은 경우에도 디스플레이(110)는 제2 영상에 대한 UI(431,432)를 디스플레이 할 수 있다. 예를 들어, 제1 영상의 종료 시점에서 기 설정된 시간 전(예를 들어 제1 영상의 95%가 재생되는 시점)부터 제1 영상이 종료되기 전까지, 디스플레이(110)는 제2 영상에 대한 UI를 디스플레이 할 수 있다. 다만, 상술한 실시 예에 한정되는 것은 아니고, 다양한 방법에 의해 제2 영상에 대한 UI를 디스플레이 할 수 있음은 물론이다.In another embodiment, the display 110 may display the UIs 431 and 432 for the second image even when no user command is input. For example, from the end of the first image until a predetermined time (for example, 95% of the first image is reproduced) to the end of the first image, the display 110 displays the UI Can be displayed. However, it is needless to say that the UI of the second image can be displayed by various methods without being limited to the above-described embodiments.

한편, 상술한 바와 같이, 제1 프레임(420)에 삽입된 제1 부가 정보 및 제2 프레임(430)에 삽입된 제2 부가 정보는 서로 연관성 있는 부가 정보일 수 있다. 예를 들어, 제1 부가 정보 및 제2 부가 정보는 동일한 해시태그(예를 들어, #OOO 골, #OOO 골장면 등)로 이루어 질 수 있다. 다만, 부가 정보는 동일한 해시 태그에 한정되는 것은 아니며, 다양한 부가 정보가 사용될 수 있다. Meanwhile, as described above, the first additional information inserted in the first frame 420 and the second additional information inserted in the second frame 430 may be related additional information. For example, the first additional information and the second additional information may be composed of the same hashtag (e.g., #OOO goal, #OOO goal scene, etc.). However, the additional information is not limited to the same hash tag, and various additional information can be used.

사용자는 디스플레이된 제 2영상에 관한 UI중 하나를 선택하는 사용자 명령을 통해 제2 영상을 재생할 수 있다. 예를 들어, 사용자가 제 1영상에 디스플레이된 UI(430, 431) 중 하나의 UI(430)을 터치하거나 클릭하는 사용자 명령을 입력한 경우, 디스플레이(110)는 선택된 UI(430)에 대응하는 제2 영상을 제2 프레임부터 재생할 수 있다.The user can reproduce the second image through a user command for selecting one of the UIs related to the displayed second image. For example, when the user inputs a user command to touch or click on one of the UIs 430 and 431 displayed on the first image, the display 110 displays the UI 430 corresponding to the selected UI 430 The second video can be played back from the second frame.

도 4b는 본 개시의 또 다른 실시 예에 따른 제1 영상 및 제2 영상을 재생하는 방법을 설명한 도면이다. 구체적으로, 제1 영상 및 제2 영상은 관광 명소를 촬영한 영상일 수 있다. 4B is a view for explaining a method of reproducing a first image and a second image according to another embodiment of the present disclosure. Specifically, the first image and the second image may be images photographed at tourist spots.

상술한 바와 같이, 제1 영상(420)을 시청하던 중, 제1 사용자 명령이 입력된 경우, 전자 장치(100)는 제1 영상의 제1 프레임에 삽입된 제1 부가 정보에 대응하는 제2 프레임을 포함하는 제2 영상에 대한 UI(430,431)를 디스플레이 할 수 있다. 이때, 제2 영상에 대한 UI(430,431)은 해당 프레임에 대한 썸네일 이미지일 수 있으나 이에 한정되는 것은 아니다.As described above, when the first user command is input while the first image 420 is being watched, the electronic device 100 displays the second image corresponding to the second additional information inserted in the first frame of the first image, And UIs 430 and 431 for the second image including the frame. In this case, the UIs 430 and 431 for the second image may be thumbnail images for the corresponding frame, but the present invention is not limited thereto.

이때, 제1 사용자 명령은 디스플레이의 임의의 위치 또는 제2 영상을 디스플레이하기 위한 아이콘(미도시)를 터치하는 터치 인터렉션 또는 화면을 클릭하는 입력일 수 있으나 이에 한정되는 것은 아니다.At this time, the first user command may be a touch interaction that touches an arbitrary position of the display or an icon (not shown) for displaying the second image, or an input that clicks the screen, but is not limited thereto.

한편, 제1 프레임(420)에 삽입된 제1 부가 정보 및 제2 프레임(430)에 삽입된 제2 부가 정보는 서로 연관된 부가 정보일 수 있다. The first additional information inserted in the first frame 420 and the second additional information inserted in the second frame 430 may be related to each other.

구체적으로, 부가 정보는, GPS 좌표 정보, 방위 정보, 촬영 시간 정보, 영상 속 오브젝트들에 대한 정보 등에 관한 부가 정보일 수 있다. 이때, 영상 속 오브젝트들은, 영상에 존재하는 건물, 사람 또는 특정 물건일 수 있다. 영상 속 오브젝트는 영상 분석을 통해 결정할 수 있으나, 이에 한정되는 것은 아니다.Specifically, the additional information may be additional information about GPS coordinate information, azimuth information, photographing time information, information on in-video objects, and the like. At this time, the objects in the image may be a building, a person, or a specific object existing in the image. The object in the video image can be determined through image analysis, but is not limited thereto.

다만, 이러한 상술한 부가 정보에 한정되는 것은 아니고, 제1 부가 정보 및 제2 부가 정보는 동일한 해시태그(예를 들어, #선운사, #선운사 여름 등)로 이루어 질 수도 있다. However, the present invention is not limited to the above-described additional information, and the first additional information and the second additional information may be composed of the same hashtag (e.g., #suununsha, #suunwon summer, etc.).

이때, 전자 장치(100)는 제1 영상에 존재하는 다양한 부가 정보 중, 하나 이상의 부가 정보를 선택할 수 있다. At this time, the electronic device 100 can select one or more additional information among various additional information existing in the first image.

예를 들어, 사용자가 GPS 좌표 및 촬영시간 정보에 대한 부가 정보를 선택하여, 선택된 부가 정보에 대응하는 제2 영상을 시청할 수 있다. 이 경우, 제2 영상의 제2 프레임(430)은 제1 영상과 동일하거나 유사한 GPS 좌표 및 동일하거나 유사한 시간에 촬영된 영상일 수 있다. 구체적으로, 제2 영상의 제2 프레임(430)은 제1 영상의 제1 프레임(420)과 동일 위치 및 동일 시간대에 촬영된 영상이므로, 제1 영상의 제1 프레임(420)과 제2 영상의 제2 프레임(430)은 유사한 명도 및 채도를 가질 수 있다. 따라서 사용자는 영상이 전환되는 경우에도 자연스럽게 영상을 시청할 수 있다. For example, the user can select the additional information for the GPS coordinates and the shooting time information, and watch the second video corresponding to the selected additional information. In this case, the second frame 430 of the second image may be an image captured at the same or similar GPS coordinate and the same or similar time as the first image. The second frame 430 of the second image is an image photographed at the same position and at the same time as the first frame 420 of the first image so that the first frame 420 and the second image 420 of the first image, The second frame 430 may have similar brightness and saturation. Therefore, the user can watch the image naturally even when the image is switched.

또 다른 실시 예로, 사용자가 GPS 좌표, 영상 속 오브젝트에 관한 부가 정보를 선택한 경우, 제2 영상의 제2 프레임(430)은 제1 영상의 제1 프레임(420)에서 선택된 오브젝트에 관한 프레임일 수 있다. 예를 들어 영상 속 오브젝트가 건물인 경우, 제2 영상의 제2 프레임(420)은 건물 내부에 대한 프레임일 수 있다. In another embodiment, if the user selects GPS coordinates, additional information about the in-video object, the second frame of the second image 430 may be the frame number of the object selected in the first frame 420 of the first image have. For example, if the video object is a building, the second frame 420 of the second image may be a frame for the interior of the building.

도 5a 내지 도 7b는 본 개시의 일 실시 예에 따른 제1 영상 및 제2 영상이 파노라마 영상인 경우의 다양한 실시 예를 도시한 도면이다.FIGS. 5A and 7B are diagrams illustrating various embodiments in which a first image and a second image according to an embodiment of the present disclosure are panorama images.

도 5a 내지 5d는 본 개시의 일 실시 예에 따른, 영상 재생을 이용하여 지도 서비스를 제공하는 방법에 대해 설명한 도면이다.5A to 5D are diagrams illustrating a method of providing a map service using image playback, according to an embodiment of the present disclosure.

구체적으로, 전자 장치(100)는 본 개시에 따른 영상 재생 방법을 이용하여 지도 서비스를 제공할 수 있다. 예를 들어, 전자 장치(100)는 사용자가 탐색하고자 하는 구간에 대한 제1 영상이 존재하는 경우, 해당 구간 영상에 대한 지도 서비스를 제공할 수 있다. Specifically, the electronic device 100 can provide a map service using the image reproduction method according to the present disclosure. For example, the electronic device 100 may provide a map service for a corresponding segment image when a first image of a segment to be searched by the user exists.

도 5a에 도시된 바와 같이, 전자 장치(100)는 제공받고자 하는 구간에 대한 제1 영상을 촬영할 수 있다. 이때, 촬영된 영상은 일반 영상 또는 파노라마 영상일 수 있다. 이때, 촬영되는 영상은 촬영과 동시에 부가 정보가 삽입될 수 있다. 예를 들어, 촬영되는 영상프레임에는 감지부(160)에 의해 감지된 GPS 좌표(511 내지 514) 또는 시간 정보가 삽입될 수 있다. 다만, 이미 전자 장치(100)에 의해 촬영된 제1 영상이 존재 하거나, 외부 서버로부터 제1 영상을 수신할 수 있는 경우에는 영상 촬영 과정은 생략될 수 있다. As shown in FIG. 5A, the electronic device 100 can take a first image of a section to be provided. At this time, the photographed image may be a general image or a panorama image. At this time, the additional information may be inserted at the same time as the image is photographed. For example, GPS coordinates (511 to 514) or time information detected by the sensing unit 160 may be inserted into an image frame to be photographed. However, if there is a first image already captured by the electronic device 100 or if the first image can be received from an external server, the image capturing process may be omitted.

촬영된 제1 영상이 재생되는 경우, 도 5b에 도시된 바와 같이, 디스플레이(110)는 미니맵 UI 또는, 이동 경로를 나타내는 UI를 디스플레이 할 수 있다. 이때, 이동 경로를 나타내는 UI는 영상의 진행방향에 따라 디스플레이 될 수 있다.When the photographed first image is reproduced, as shown in FIG. 5B, the display 110 may display a minim map UI or a UI indicating a movement route. At this time, the UI indicating the movement path can be displayed according to the traveling direction of the image.

도 5c에 도시된 바와 같이, 영상 재생 중 제1 프레임에서 제1 영상이 정지한 경우, 전자 장치(100)는 제1 프레임에 삽입된 제1 부가 정보에 대응하는 영상에 대한 UI(531 내지 533)를 디스플레이 할 수 있다. 이때, 제1 부가 정보는 GPS 좌표 정보일 수 있으며, 제1 부가 정보에 대응하는 UI(531 내지 533)는 제1 부가 정보에 포함된 GPS 좌표에서 기 설정된 거리 내에 있는 놀이 기구에 대한 GPS 좌표 정보에 대한 제2 부가 정보를 포함하는 영상에 관한 UI일 수 있다.  5C, when the first image is stopped in the first frame during the image playback, the electronic device 100 displays UIs 531 to 533 for the image corresponding to the first additional information embedded in the first frame Can be displayed. In this case, the first additional information may be GPS coordinate information, and the UIs 531 to 533 corresponding to the first additional information may include GPS coordinate information for the rides within a predetermined distance from the GPS coordinates included in the first additional information Lt; RTI ID = 0.0 > UI < / RTI >

제1 UI(531)은 해당 영상이 위치한 곳에서 왼쪽에 위치한 놀이기구를 찾아갈 수 있는 영상에 관한 UI 이고, 제2 UI(532)은 해당 영상이 위치한 곳에서 정면에 위치한 놀이기구를 찾아갈 수 있는 영상에 관한 UI 이고, 제3 UI(533)은 해당 영상이 위치한 곳에서 오른쪽에 위치한 놀이기구를 찾아갈 수 있는 영상에 관한 UI 일 수 있다. The first UI 531 is a UI related to a video that can locate a playground located on the left side where the corresponding video is located, and the second UI 532 searches for a playground located in front of where the corresponding video is located And the third UI 533 may be a UI related to an image that can search for a playground located on the right side where the corresponding image is located.

제3 UI를 선택하는 사용자 명령이 입력된 경우, 전자 장치(100)는 제3 UI에 대응하는 제2 영상을 재생할 수 있다. 이때, 제2 영상은 제2 프레임부터 재생될 수 있다. 구체적으로, 제2 프레임에는 제2 부가 정보가 삽입되어 있을 수 있다.  이때 제2 부가 정보는 GPS 좌표 정보를 포함할 수 있으며, 제2 부가 정보에 포함된 GPS 좌표 정보는 제1 부가 정보에 포함된 GPS 좌표 정보와 동일할 수 있다. 따라서, 제1 프레임과 제2 프레임은 동일한 위치의 영상일 수 있다.When the user command for selecting the third UI is input, the electronic device 100 can reproduce the second image corresponding to the third UI. At this time, the second image can be reproduced from the second frame. Specifically, the second additional information may be embedded in the second frame. Here, the second additional information may include GPS coordinate information, and the GPS coordinate information included in the second additional information may be the same as the GPS coordinate information included in the first additional information. Therefore, the first frame and the second frame may be images at the same position.

도 5d에 도시된 바와 같이, 전자 장치(100)는 제2 영상을 제3 UI(533)에 대응하는 놀이기구가 나타날 때까지 재생할 수 있다. As shown in FIG. 5D, the electronic device 100 may play the second image until a playground corresponding to the third UI 533 appears.

도 6a 및 6b는 본 개시의 일 실시 예에 따른 제1 영상 및 제2 영상을 재생하는 또다른 방법을 설명하기 위해 도시한 도면이다.FIGS. 6A and 6B are diagrams for explaining another method of reproducing a first image and a second image according to an embodiment of the present disclosure.

구체적으로, 도 6a는 현재 재생중인 제1 영상의 제1 프레임(610)일 수 있다. 전자 장치(100)가 제1 영상을 재생하는 도중, 제1 오브젝트(611)을 선택하는 사용자 명령이 입력된 경우, 전자 장치(100)는 도 6b에 도시된 바와 같이 제 2 영상의 제2프레임(620)부터 재생을 시작할 수 있다.Specifically, FIG. 6A may be the first frame 610 of the first image currently being played back. When the user command for selecting the first object 611 is input while the electronic device 100 is playing back the first image, the electronic device 100 displays the second frame of the second image, (620).

구체적으로, 제1 영상이 제1프레임까지 재생되기 전에, 전자 장치(100)가 제1 오브젝트(611)을 선택하는 사용자 명령을 입력 받은 경우, 전자 장치(100)는 제1 오브젝트에 대응되는 제1 부가 정보를 결정할 수 있다. 그 후 전자 장치(100)는 결정된 제1 부가 정보에 대응하는 제1 프레임을 결정하고, 제1 프레임까지 제1 영상을 재생할 수 있다. Specifically, before the first image is reproduced up to the first frame, when the electronic device 100 receives a user command for selecting the first object 611, the electronic device 100 displays the first object 611 corresponding to the first object 1 additional information can be determined. Then, the electronic device 100 can determine the first frame corresponding to the determined first additional information, and reproduce the first image up to the first frame.

구체적으로, 제1 부가 정보는 제1 오브젝트에 대한 정보일 수 있다. 예를 들어, 전자 장치(100)의 프로세서(120)는 영상 분석을 통해 제1 오브젝트가 에펠탑이라고 판단할 수 있다. 이때, 제1 부가 정보는 에펠탑에 대한 정보를 포함할 수 있다.Specifically, the first additional information may be information on the first object. For example, the processor 120 of the electronic device 100 may determine that the first object is the Eiffel Tower through image analysis. At this time, the first additional information may include information on the Eiffel Tower.

제1 영상의 제1 프레임까지 영상이 재생된 경우, 전자 장치(100)는 제2 영상을 제2 프레임까지 재생할 수 있다. When the image is reproduced up to the first frame of the first image, the electronic device 100 can reproduce the second image up to the second frame.

한편, 제2 영상의 제2 프레임은 제2 부가 정보를 포함할 수 있다. 제2 부가 정보는 제1 오브젝트에 대응되는 부가 정보일 수 있다. 즉, 제2 부가 정보는 에펠탑에 대한 정보를 포함할 수 있다. 이때, 제2 부가 정보는 추가적인 정보를 더 포함할 수 있다. 예를 들어, 제2 부가 정보는 에펠탑에 대한 정보 및 "영상 프레임의 중앙에 위치한 에펠탑"에 대한 정보를 포함할 수 있다.On the other hand, the second frame of the second image may include the second additional information. And the second additional information may be additional information corresponding to the first object. That is, the second additional information may include information on the Eiffel Tower. At this time, the second additional information may further include additional information. For example, the second additional information may include information about the Eiffel Tower and information about "the Eiffel Tower at the center of the video frame ".

도 6b에 도시된 바와 같이, 제2 프레임(620)에서 제2 오브젝트(621)는 제2 프레임(620)의 중앙에 위치할 수 있다. 즉, 전자 장치(100)는 제1 영상에서 선택된 오브젝트(611)에 대응하는 제2 오브젝트(612)를 제2 영상의 중앙에 위치 시킬 수 있다.As shown in FIG. 6B, the second object 621 in the second frame 620 may be located in the center of the second frame 620. That is, the electronic device 100 can position the second object 612 corresponding to the selected object 611 in the first image at the center of the second image.

도 6a 및 도 6b에서는, 제1 영상 및 제2 영상이 일반 영상인 경우에 대하여 설명하였으나, 제1 영상 및 제2 영상이 파노라마 영상인 경우에도 동일한 기술적 사상이 적용될 수 있다.6A and 6B, the first image and the second image are general images. However, even when the first image and the second image are panorama images, the same technical idea can be applied.

구체적으로, 도 6a에 도시된 바와 같이 제1 파노라마 영상이 제1 오브젝트(611)를 오른쪽에 위치시킨 상태에서 제1 오브젝트(611)를 선택하는 사용자 입력을 받은 경우, 전자 장치(100)는 도 6b에 도시된 바와 같이 제2 오브젝트(612)를 중앙에 위치시킨 상태에서 제2 영상을 재생할 수 있다. 6A, when the first panorama image is received with a user input for selecting the first object 611 in a state where the first object 611 is positioned on the right side, The second image can be reproduced while the second object 612 is positioned at the center as shown in FIG. 6B.

즉, 도 6a에 도시되지 않았으나, 제1 오브젝트(611)가 제1 프레임의 임의의 영역에 위치하더라도 제2 영상의 제2 프레임(620)은 도 6b와 같이 제2 오브젝트(621)가 중앙에 위치한 상태일 수 있다.6A, even if the first object 611 is located in an arbitrary region of the first frame, the second frame 620 of the second image may have the second object 621 at the center thereof as shown in FIG. 6B Lt; / RTI >

도 7a 및 7b는 본 개시의 일 실시 예에 따른 파노라마 영상의 경우의 실시 예를 설명한 도면이다.7A and 7B are views for explaining an embodiment of a panoramic image according to an embodiment of the present disclosure.

구체적으로, 도 7a는 제1 방향(711) 및 제2 방향(712)를 포함하는 제1 도시한 도면이다. 제1 영상이 파노라마 영상인 경우, 전자 장치(100)는 사용자 명령에 대응하여 재생중인 영상의 시야(view point) 방향을 변경할 수 있다.Specifically, FIG. 7A is a first diagram showing a first direction 711 and a second direction 712. When the first image is a panorama image, the electronic device 100 may change the view point direction of the image being reproduced in response to a user command.

도 7a에 도시된 바와 같이, 제1 영상은 제1 방향(711)을 시야 방향으로 하여 영상이 재생될 수 있다. 이때, 제2 방향(712)으로 진행하는 제2영상을 디스플레이 하기 위한 사용자 명령이 입력된 경우, 전자 장치(100)는 제2 방향(712)를 시야 방향으로 하는 제 2 영상(미도시)을 제2 프레임부터 재생할 수 있다. 이때, 제1 부가 정보 및 제2 부가 정보는 GPS 좌표 정보를 포함할 수 있다. 따라서 제2 영상의 제2 프레임은 제1 영상의 제1 프레임과 동일한 위치를 촬영한 프레임일 수 있다.As shown in FIG. 7A, the first image can be reproduced with the first direction 711 as the viewing direction. In this case, when a user command for displaying a second image progressing in the second direction 712 is input, the electronic device 100 displays a second image (not shown) having the second direction 712 as the viewing direction It can be reproduced from the second frame. At this time, the first additional information and the second additional information may include GPS coordinate information. Accordingly, the second frame of the second image may be a frame photographed at the same position as the first frame of the first image.

다만, 상술한 실시 예의 경우, 제1 프레임의 시야 방향은 제1 시야 방향(711)이고, 제2 프레임의 시야 방향은 제2 시야 방향(712)일 수 있다. However, in the case of the above-described embodiment, the viewing direction of the first frame may be the first viewing direction 711, and the viewing direction of the second frame may be the second viewing direction 712. [

 이러한 경우, 사용자는 재생되는 영상이 제1 영상에서 제2 영상으로 변경되는 경우, 영상의 시야 방향이 급격하게 변화하여 영상 시청에 불편함을 느낄 수 있다. In this case, when the user reproduces the video image from the first image to the second image, the direction of the image changes suddenly and the user may feel inconvenience in viewing the image.

따라서 제1 영상 및 제2 영상이 파노라마 영상인 경우, 제1 부가 정보 및 제2 부가 정보는 방위에 대한 정보를 더 포함할 수 있다. Accordingly, when the first image and the second image are panorama images, the first additional information and the second additional information may further include information on the orientation.

예를 들어 제 1영상의 제1 프레임은 도 7b에 도시된 바와 같이, 제2 시야 방향(721)을 시야 방향으로 하는 프레임일 수 있다. 즉, 제1 영상은 도 7a에 도시된 프레임을 재생하고, 도 7b에 도시된 프레임과 같이 제2 시야 방향(721)로 회전한 후, 제2 영상(미도시)을 재생할 수 있다. For example, the first frame of the first image may be a frame whose second viewing direction 721 is the viewing direction, as shown in Fig. 7B. In other words, the first image can reproduce the frame shown in FIG. 7A, and the second image (not shown) can be reproduced after rotating in the second viewing direction 721 like the frame shown in FIG. 7B.

그러나, 상술한 실시 예에 한정되는 것은 아니고, 제1 프레임은 도 7a에 도시된 프레임일 수 있다. 이러한 경우, 제2 프레임은 도 7b에 도시된 프레임일 수 있다. 즉, 제 1 프레임은 제1 시야 방향(711)을 가지고 제2 프레임 또한 제1 시야 방향(721)을 가질 수 있다. 이 경우, 제2 영상은 제1 시야 방향(721)부터 시작하여 제2 시야 방향(722)로 영상을 회전할 수 있다.However, the present invention is not limited to the above-described embodiment, and the first frame may be the frame shown in Fig. 7A. In this case, the second frame may be the frame shown in Fig. 7B. That is, the first frame may have a first viewing direction 711 and the second frame may have a first viewing direction 721 as well. In this case, the second image may be rotated from the first viewing direction 721 to the second viewing direction 722.

도 8a 내지 8c는 본 개시의 일 실시 예에 따른, 온라인 서비스와 결합된 영상 재생 방법을 설명하기 위한 도면이다.8A to 8C are views for explaining an image playback method combined with an online service according to an embodiment of the present disclosure.

구체적으로, 본 개시에 따른 영상 재생 방법은 다양한 온라인 서비스와 결합하여 이루어 질 수 있다. 예를 들어, 제1 영상 및 제2 영상은 관광 명소를 소개하는 온라인 서비스, 근처 숙박업소를 제공하는 온라인 서비스, 소셜 네트워크 서비스(SNS)등과 결합할 수 있다. 이때, 제1 영상 및 제2 영상은 특정 어플리케이션에서 실행되는 영상일 수 있다. 예를 들어, 제1 영상 및 제2 영상은 지도 서비스 및 주변 정보를 제공하는 어플리케이션에서 재생되는 영상일 수 있다.In particular, the video playback method according to the present disclosure can be combined with various online services. For example, the first image and the second image may be combined with an online service for introducing tourist attractions, an online service for providing nearby accommodation, and a social network service (SNS). At this time, the first image and the second image may be images executed in a specific application. For example, the first image and the second image may be images reproduced in an application providing the map service and the surrounding information.

도 8a에 도시된 바와 같이, 제1 영상은 다양한 기능을 수행하기 위한 UI를 포함할 수 있다. 도 8a에 도시된 바와 같이, 제1 영상에는 현재 영상/위치 주변의 관심 명소 표시 여부를 선택할 수 있는 제1 UI(810), 현재 영상의 정보를 표시하는 제2 UI(820), 다른 온라인 서비스와 연계되어 제1 영상과 관련된 정보를 디스플레이 하는 제3 UI(831,832,833), 영상 진행표시줄을 나타내는 제4 UI(840), 영상에 대한 전반적인 동작을 제어할 수 있는 제5 UI(850), 현재 재생되는 제1 영상 및 관련 영상의 위치를 표시할 수 있는 제6 UI(860)등이 디스플레이될 수 있다.As shown in FIG. 8A, the first image may include a UI for performing various functions. As shown in FIG. 8A, the first UI includes a first UI 810 for selecting whether to display an interest spot around the current image / position, a second UI 820 for displaying information of the current image, A fourth UI 840 for displaying a video progress bar, a fifth UI 850 for controlling an overall operation of the video, a third UI 830 for displaying information related to the first video, A sixth UI 860 that can display a first image to be reproduced and a position of a related image, and the like can be displayed.

그러나 상술한 다양한 UI가 모두 디스플레이 되는 것은 아니고, 필요에 따라 부가 생략되거나 추가될 수 있다. 예를 들어, 제1 영상과 관련된 주변 정보가 존재하지 않는 경우, 제3 UI(831 내지 833)은 디스플레이 되지 않을 수 있다. 또한 재생되는 제1 영상이 파노라마 영상이 아닌 경우, 제5 UI(850)이 생략될 수 있다.However, not all of the various UIs described above are displayed, and may be omitted or added as needed. For example, if there is no peripheral information associated with the first image, the third UIs 831 through 833 may not be displayed. Also, if the first image to be reproduced is not a panorama image, the fifth UI 850 may be omitted.

한편, 도 8b에 도시된 바와 같이, 제1 영상이 재생되는 중, 제1 영상에서 선택 가능한 제2 영상이 존재하는 경우, 제6 UI(860)의 하단부에 영상이 존재함을 알리는 알림UI(861)이 디스플레이 될 수 있다. 8B, if there is a second image that can be selected from the first image while the first image is being reproduced, a notification UI (FIG. 8B) indicating that the image exists at the lower end of the sixth UI 860 861 may be displayed.

알림 UI(861)를 선택하는 사용자 명령이 입력된 경우, 도 8c에 도시된 바와 같이, 전자 장치는 재생 가능한 영상에 대한 정보를 디스플레이 하는 제7 UI(870)을 디스플레이 할 수 있다.When a user command for selecting the notification UI 861 is input, as shown in FIG. 8C, the electronic device can display a seventh UI 870 that displays information on the reproducible image.

이때, 제 7 UI(870)에는 다양한 정보가 포함될 수 있다. 예를 들어, 제7 UI(870)는 재생 가능한 다른 영상의 개수 정보, 해당 영상과 관련이 있는 다른 온라인 서비스에 대한 정보 등에 관한 정보를 포함할 수 있다.At this time, the seventh UI 870 may include various information. For example, the seventh UI 870 may include information on the number of reproducible images, information on other online services related to the image, and the like.

제7 UI(870)에 포함된 MOVE UI가 선택된 경우, 전자 장치(100)는 제2 영상을 제2 프레임부터 재생할 수 있다.When the MOVE UI included in the seventh UI 870 is selected, the electronic device 100 can reproduce the second image from the second frame.

이때, 재생되는 제1 영상 및 제2 영상은 상술한 다양한 실시 예들에 의해 재생된다. 구체적으로, 도 8에서 설명한 동작들에 의해 제1 영상이 재생되는 도중, 제2 영상을 재생시키는 사용자 명령이 입력된 경우, 전자 장치(100)는 제1 영상을 제1 프레임까지 재생하고, 제2 영상을 제2 프레임부터 재생할 수 있다. 또한, 제1 프레임에 포함된 제1 부가 정보와 제2 프레임에 포함된 제2 부가 정보가 서로 연관되어 있음은 물론이다.At this time, the reproduced first and second images are reproduced by the above-described various embodiments. Specifically, when a user command to reproduce a second image is input while the first image is being reproduced by the operations described in FIG. 8, the electronic device 100 reproduces the first image up to the first frame, 2 images can be reproduced from the second frame. It goes without saying that the first additional information included in the first frame and the second additional information included in the second frame are related to each other.

도 9는 본 개시의 일 실시 예에 따른 영상 재생 시스템을 도시한 도면이다.9 is a diagram illustrating an image reproduction system according to an embodiment of the present disclosure.

구체적으로, 영상 재생 시스템은 전자 장치(100), 촬상 장치(200) 및 외부 서버(300)로 구성될 수 있다. Specifically, the image reproducing system may be constituted by the electronic apparatus 100, the image capturing apparatus 200, and the external server 300. [

촬상 장치(200)는 전자 장치(100)가 재생할 다양한 영상을 촬영하여 외부 서버(300)로 전송할 수 있다. 이때, 촬상 장치(200)에는 다양한 부가 정보를 감지하기 위한 복수의 센서가 구비될 수 있다. The image capturing apparatus 200 can capture various images to be reproduced by the electronic apparatus 100 and transmit them to the external server 300. [ At this time, the image sensing apparatus 200 may be provided with a plurality of sensors for sensing various additional information.

외부 서버(300)는 전자 장치(100)가 제1 영상을 요청하는 경우, 요청된 제1 영상을 전자 장치(100)로 전송할 수 있다. 특히 외부 서버(300)가 전자 장치(100)에 스트리밍 방식으로 제1 영상을 전송하는 경우, 재생되는 영상의 부가 정보를 분석하여 전자 장치(100)에 추천 영상을 제공할 수 있다. 전자 장치(100)는 외부 서버(200)로부터 전송 받은 추천 영상 중 하나를 제2 영상으로 선택할 수 있다. 이때, 외부 서버(300)는 선택된 제2 영상의 제2 프레임부터 전자 장치(100)로 전송할 수 있다.The external server 300 may transmit the requested first image to the electronic device 100 when the electronic device 100 requests the first image. In particular, when the external server 300 transmits the first image to the electronic device 100 in a streaming manner, it may analyze the additional information of the reproduced image and provide the electronic device 100 with a recommended image. The electronic device 100 can select one of the recommended images transmitted from the external server 200 as the second image. At this time, the external server 300 can transmit the second frame of the selected second image to the electronic device 100.

다만, 상술한 바와 같이, 전자 장치(100)는 촬상 장치(200) 및 외부 서버(300)를 포함할 수 있음은 물론이다. 즉, 전자 장치(100)는 영상을 촬영하여 메모리(170)에 저장하고, 저장된 제1 영상 및 제2 영상을 재생할 수 있음은 물론이다.Of course, as described above, the electronic device 100 may include the image capturing apparatus 200 and the external server 300. That is, it is needless to say that the electronic device 100 can capture an image, store it in the memory 170, and reproduce the stored first and second images.

한편, 상술한 다양한 실시 예에서는 영상이 재생되는 경우에 대하여 설명하였으나, 이에 한정되는 것은 아니다. 예를 들어, 전자 장치(100)는 제1 영상이 재생되는 도중, 사용자 명령이 입력되는 경우, 제1 부가 정보에 대응되는 제2 사진이 디스플레이될 수도 있다. 또는, 전자 장치(100)가 제1 부가 정보가 삽입된 제1 사진을 디스플레이하는 도중, 제2 영상을 재생하기 위한 기 설정된 사용자 명령이 입력된 경우, 전자 장치(100)는 제1 부가 정보에 대응되는 제2 프레임부터 제2 영상을 재생할 수 있다.In the above-described various embodiments, the case where an image is reproduced has been described, but the present invention is not limited thereto. For example, when the user command is input, the electronic device 100 may display a second picture corresponding to the first additional information while the first picture is being reproduced. Alternatively, when the electronic device 100 displays a first picture in which the first additional information is inserted, when the predetermined user command for playing the second picture is input, the electronic device 100 displays the first additional information It is possible to reproduce the second video from the corresponding second frame.

도 10a 내지 도 10c는 본 개시의 일 실시예에 따른 영상 재생 시스템을 도시한 도면이다.10A to 10C are views showing an image reproduction system according to an embodiment of the present disclosure.

도 10a에 도시된 바와 같이, 영상 재생 시스템은 전자 장치(100), 촬상 장치(200), 제1 서버(310) 및 제2 서버(320)을 포함할 수 있다. 즉, 도 9에 도시된 외부 서버(300)는 제1 서버(310) 및 제2 서버(320)을 포함할 수 있다. 10A, the image reproduction system may include an electronic device 100, an image capture device 200, a first server 310, and a second server 320. [ That is, the external server 300 shown in FIG. 9 may include a first server 310 and a second server 320.

이때, 제1 서버(310)는 동영상 제공 서버일 수 있다. 특히, 제1 서버(310)는 다양한 컨텐츠 제공자 또는 온라인 동영상 플랫폼에 의해 운영되는 서버일 수 있다. 제1 서버(310)는 스트리밍 방식에 의한 동영상 서비스를 제공할 수 있다. 동영상 서버(310)는 전자 장치(100)로부터 동영상에 대한 요청이 있는 경우, 전자 장치(100)로 동영상을 제공할 수 있다. 이때, 동영상 제공 방법은 상술한 바와 같이 스트리밍 방식에 의할 수 있으나, 이에 한정되는 것은 아니다. 즉, 전자 장치(100)는 제1 서버(310)로부터 동영상 데이터를 다운로드 받을 수도 있음은 물론이다.At this time, the first server 310 may be a video providing server. In particular, the first server 310 may be a server operated by various content providers or an online video platform. The first server 310 may provide a streaming video service. The moving picture server 310 may provide the moving picture to the electronic device 100 when there is a request for the moving picture from the electronic device 100. [ At this time, the moving picture providing method may be a streaming method as described above, but the present invention is not limited thereto. That is, the electronic device 100 may download the moving image data from the first server 310.

제2 서버(320)는 제1 서버(310)에 의해 제공되는 동영상에 대한 부가 정보를 저장할 수 있다. 구체적으로, 제2 서버(320)는 제1 서버(310)에서 제공되는 동영상에 대한 부가 정보 및 부가 정보에 대응되는 파라미터를 매칭하여 저장할 수 있다. 즉, 제1 서버(310)에 저장된 동영상이 다수의 부가정보를 포함할 경우, 동영상의 용량이 커지는 문제점이 발생할 수 있다. 따라서, 이러한 문제점을 해결하기 위해 제1 서버(310)는 동영상을 저장하고, 제2 서버(320)는 동영상에 대한 부가 정보를 저장할 수 있다. 이때, 제2 서버(320)는 동영상에 대한 부가 정보와 이에 대응되는 파라미터를 매칭하여 저장할 수 있다. 부가 정보에 대응되는 파라미터는 제1 서버(310)에 저장된 동영상의 특정 위치를 찾기 위한 파라미터일 수 있다. 예를 들어 파라미터는 재생해야 할 동영상 파일에 대한 인덱스 정보 및 해당 동영상 파일 중 재생 되어야 하는 부분의 시작 시간 및 종료 시간에 대한 인덱스 정보를 포함할 수 있다.The second server 320 may store additional information about the moving image provided by the first server 310. [ Specifically, the second server 320 may match and store the parameters corresponding to the additional information and the additional information provided by the first server 310. FIG. That is, when the moving image stored in the first server 310 includes a plurality of additional information, the capacity of the moving image may increase. Accordingly, in order to solve such a problem, the first server 310 may store the moving image, and the second server 320 may store the additional information about the moving image. At this time, the second server 320 may store the additional information about the moving image and the corresponding parameter. The parameter corresponding to the additional information may be a parameter for searching for a specific position of the moving image stored in the first server 310. For example, the parameter may include index information on a video file to be played back and index information on a start time and an end time of a portion of the video file to be played back.

또한, 전자 장치(100)로부터 사용자 명령을 수신한 경우, 제2 서버(320)는 수신한 사용자 명령을 바탕으로 부가 정보를 획득할 수 있다. 제2 서버(320)는 획득한 부가 정보를 바탕으로, 부가 정보에 대응되는 파라미터를 획득하고 획득한 파라미터를 전자 장치(100)로 전송하고, 전자 장치(100)는 수신한 파라미터응 제1 서버로 전송할 수 있다. 다만, 이에 한정되는 것은 아니며, 제2 서버(320)는 획득한 파라미터를 제1 서버(310)로 바로 전송할 수 있음은 물론이다.In addition, when a user command is received from the electronic device 100, the second server 320 may acquire additional information based on the received user command. Based on the acquired additional information, the second server 320 acquires the parameter corresponding to the additional information and transmits the acquired parameter to the electronic device 100, and the electronic device 100 transmits the received parameter to the first server Lt; / RTI > Needless to say, the second server 320 can directly transmit the acquired parameters to the first server 310.

한편, 사용자는 제1 서버(310) 및 제2 서버(320)를 이용하여 다양한 형태의 동영상을 시청할 수 있다. 구체적으로, 전자 장치(100)를 통해 사용자 명령이 입력되면, 전자 장치(100)는 사용자 명령을 제2 서버(320)로 전송할 수 있다.이때, 입력된 사용자 명령은 다양한 제1 서버(310)에 저장된 동영상 중 특정 장면 또는 특정 내용에 대한 명령일 수 있다.Meanwhile, the user can view various types of moving pictures using the first server 310 and the second server 320. [ Specifically, when a user command is input through the electronic device 100, the electronic device 100 can transmit a user command to the second server 320. At this time, the inputted user command is transmitted to the various first servers 310, And may be a command for a specific scene or a specific content among the moving images stored in the memory.

제2 서버(320)가 전자 장치(100)로부터 사용자 명령을 수신한 경우, 사용자 명령에 대응되는 동영상 및 부가 정보를 검색할 수 있다. 제2 서버(320)는 검색된 동영상 및 부가 정보에 대응되는 파라미터를 전자 장치(100)로 전송하고, 전자 장치(100)는 수신한 파라미터를 제1 서버(310)로 전송할 수 있다.When the second server 320 receives a user command from the electronic device 100, it can retrieve the moving image and the additional information corresponding to the user command. The second server 320 may transmit the parameter corresponding to the retrieved moving image and the additional information to the electronic device 100 and the electronic device 100 may transmit the received parameter to the first server 310. [

제1 서버(310)는 수신한 파라미터 정보를 이용하여 파라미터 정보에 대응되는 동영상을 재생할 수 있다. 이때, 제1 서버(310)이 스트리밍 동영상 서비스를 제공하는 서버인 경우, 제1 서버(310)는 파라미터 정보에 대응되는 동영상의 특정 부분을 순서대로 스트리밍하여 사용자에게 제공할 수 있다.The first server 310 can reproduce the moving picture corresponding to the parameter information using the received parameter information. In this case, when the first server 310 is a server providing a streaming video service, the first server 310 may stream specific portions of the video corresponding to the parameter information to the user in order.

한편, 제1 서버(310) 또는 제2 서버(320)는 전자 장치(100)로 제공된 영상에 대한 파라미터 정보를 저장하여 관리할 수 있다. 즉, 과거 입력된 사용자 명령에 대응되는 부가 정보와 동일 또는 유사한 부가 정보를 포함하는 새로운 사용자 명령이 입력된 경우, 제1 서버(310) 또는 제2 서버(320)는 부가 정보 및 파라미터를 획득하는 과정 없이 저장된 파라미터 정보를 전자 장치(100)로 제공할 수 있다. Meanwhile, the first server 310 or the second server 320 may store and manage parameter information on an image provided to the electronic device 100. [ That is, when a new user command including the same or similar additional information as the additional information corresponding to the previously input user command is input, the first server 310 or the second server 320 acquires additional information and parameters It is possible to provide stored parameter information to the electronic device 100 without any processing.

즉, 제1 서버(310)는 저장된 복수개의 원본 동영상을 편집하고 저장하여 새로운 동영상을 생성할 필요 없이, 파라미터 정보만을 이용하여 재생산된 영상을 전자 장치(100)로 제공할 수 있다. 다만, 이에 한정되는 것은 아니고, 제1 서버(310)는 사용자 명령에 따라 재생산된 영상을 저장할 수도 있음은 물론이다.That is, the first server 310 can provide the reproduced image to the electronic device 100 using only the parameter information, without having to edit and store the stored plurality of original videos to generate a new moving image. However, the present invention is not limited to this, and it goes without saying that the first server 310 may store the reproduced image according to a user command.

도 10b는 본 개시의 일 실시예에 따른 동영상 재생 과정을 설명하기 위한 예시도이다.FIG. 10B is an exemplary diagram for explaining a moving picture playback process according to an embodiment of the present disclosure.

예를 들어, 사용자는 제1 서버(310)에 저장된 동영상 중 특정 장면 또는 특정 내용을 시청하고자 하는 경우, 전자 장치(100)를 통해 "OOO 골 하이라이트"와 같은 검색어를 입력할 수 있다. For example, the user can input a search term such as "OOO Goal Highlight" through the electronic device 100 when the user wishes to view a specific scene or specific content among the videos stored in the first server 310. [

전자 장치(100)는 "OOO 골 하이라이트"를 제2 서버(320)로 전송할 수 있다. 이때, 제2 서버(320)는 "OOO 골 하이라이트"와 관련된 부가 정보를 획득할 수 있다. 예를 들어, "OOO 골 하이라이트"에 대응되는 부가 정보는 OOO, 골 장면, 하이라이트 등일 수 있다.The electronic device 100 may transmit "OOO Goal Highlight" to the second server 320. [ At this time, the second server 320 may obtain additional information related to "OOO goal highlight ". For example, the additional information corresponding to "OOO goal highlight" may be OOO, a goal scene, a highlight, and the like.

제2 서버(320)는 획득한 부가 정보에 대응되는 파라미터를 획득할 수 있다. 제2 서버(320)에서 획득된 파라미터가 전자 장치(100)로 전송되고, 전자 장치(100)가 수신한 파라미터를 제1 서버(310)로 전송하면, 제1 서버(310)는 수신한 파라미터에 대응되는 영상을 전자 장치(100)로 제공할 수 있다.The second server 320 may obtain the parameter corresponding to the acquired additional information. The parameter obtained by the second server 320 is transmitted to the electronic device 100 and the parameter received by the electronic device 100 is transmitted to the first server 310. The first server 310 then transmits the received parameter Can be provided to the electronic device 100.

즉, 도 10b에 도시된 바와 같이, 전자 장치(100)는 원하는 영상에 대한 검색어를 입력하는 사용자 명령을 통해 제1 영상(1010)의 특정 부분(OOO 골 하이라이트 부분) 및 제2 영상(1020)의 특정부분을 연속해서 시청할 수 있다.10B, the electronic device 100 displays a specific portion (OOO goal highlight portion) and a second image 1020 of the first image 1010 through a user command for inputting a search word for a desired image, Can be continuously viewed.

한편, 상술한 바와 같이, "OOO 골 하이라이트"와 같은 검색어가 재차 입력되거나, 다른 전자 장치에서 입력되는 경우, 제1 서버(310) 및 제2 서버(320)는 부가 정보를 획득하고 파라미터를 획득하는 과정 없이, 과거 저장된 파라미터 정보를 이용하여 도 10b에 도시된 영상을 전자 장치(100)로 제공할 수 있다.On the other hand, as described above, when a search word such as "OOO goal highlight" is inputted again or input from another electronic device, the first server 310 and the second server 320 acquire the additional information and acquire the parameter The image shown in FIG. 10B can be provided to the electronic device 100 using the past stored parameter information.

도 10c는 본 개시의 또다른 실시예에 따른 영상 재생 방법을 설명하기 위한 예시도이다. 도 10c에 도시된 바와 같이, 제1 서버(310)는 영상에 자막 또는 스티커 UI를 부가하여 전자 장치(100)에게 제공할 수 있다. FIG. 10C is an exemplary view for explaining an image reproducing method according to another embodiment of the present disclosure; FIG. As shown in FIG. 10C, the first server 310 may add a caption or a sticky UI to an image and provide it to the electronic device 100.

예를 들어, 전자 장치(100)가 제1 서버(310)에서 제공되는 영상에 자막 또는 스티커 UI를 부가하기 위한 사용자 명령을 입력 받은 경우, 제2 서버(320)는 해당 사용자 명령에 대응되는 부가 정보 및 부가 정보에 대응되는 파라미터를 획득할 수 있다. 제1 서버(310)는 수신한 파라미터에 대응되는 자막 또는 스티커 UI(1030)를 영상에 오버레이하여 표시할 수 있다.For example, when the electronic device 100 receives a user command for adding a caption or a sticky UI to an image provided by the first server 310, The parameter corresponding to the information and the additional information can be obtained. The first server 310 can overlay the caption or sticker UI 1030 corresponding to the received parameter on the image.

한편, 상술한 실시예에서는 제1 서버(310) 및 제2 서버(320)이 독립된 서버인 경우에 대하여 설명하였으나, 제1 서버(310) 및 제2 서버(320)가 하나의 서버로 구성될 수 있음은 물론이다.Although the first server 310 and the second server 320 are independent servers in the above-described embodiment, the first server 310 and the second server 320 may be configured as one server Of course.

도 11은 본 개시의 일 실시 예에 따른, 전자 장치가 영상을 재생하는 방법을 설명한 흐름도이다. 11 is a flow chart illustrating a method by which an electronic device reproduces an image, according to one embodiment of the present disclosure.

먼저, 전자 장치(100)는 복수의 프레임 중 적어도 하나의 프레임에 대한 부가 정보를 포함하는 제1 영상 및 제2 영상을 획득할 수 있다(S1110). 이때, 획득된 영상은 전자 장치(100)에 저장된 영상일 수 있으며, 외부 서버(300)로부터 수신한 영상일 수도 있다.First, the electronic device 100 may acquire a first image and a second image including additional information on at least one frame among a plurality of frames (S1110). At this time, the acquired image may be an image stored in the electronic device 100 or an image received from the external server 300. [

전자 장치(100)가 제1 영상을 재생하는 동안, 제2 영상을 재생하기 위한 기 설정된 사용자 명령이 입력된 경우(S1120), 전자 장치(100)는 기 설정된 사용자 명령에 대응되는 제1 프레임에 대한 제1 부가 정보를 획득할 수 있다(S1130).If the preset user command for playing the second video is input while the electronic device 100 plays back the first video (S1120), the electronic device 100 displays the first frame corresponding to the preset user command (Step S1130).

전자 장치(100)는 획득된 제1 부가 정보에 대응하는 제2 영상의 제2 프레임을 획득할 수 있다(S1140). 구체적으로, 전자 장치(100) 제1 부가 정보에 대응하는 제2 부가 정보를 획득하고, 제2 부가 정보에 대응하는 제2 프레임을 획득할 수 있다.The electronic device 100 may acquire the second frame of the second image corresponding to the acquired first additional information (S1140). Specifically, the second additional information corresponding to the first additional information of the electronic device 100 may be acquired, and the second frame corresponding to the second additional information may be acquired.

전자 장치(100)는 제1 영상의 제1 프레임까지 제1 영상을 재생한 후, 제2 영상의 제2 프레임부터 영상을 재생할 수 있다(S1150).The electronic device 100 may reproduce the first image up to the first frame of the first image, and then reproduce the image from the second frame of the second image (S1150).

한편, 상술한 바와 같은 전자 장치(100)의 제어 방법은 적어도 하나의 실행 프로그램으로 구현될 수 있으며, 이러한 실행 프로그램은 비일시적 컴퓨터 판독 가능 매체에 저장될 수 있다.On the other hand, the control method of the electronic device 100 as described above may be implemented as at least one executable program, which executable program may be stored in a non-transitory computer readable medium.

비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로, 상술한 프로그램들은 RAM(Random Access Memory), 플레시메모리, ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electronically Erasable and Programmable ROM), 레지스터, 하드디스크, 리무버블 디스크, 메모리 카드, USB 메모리, CD-ROM 등과 같이, 단말기에서 판독 가능한 다양한 유형의 기록 매체에 저장되어 있을 수 있다.A non-transitory readable medium is a medium that stores data for a short period of time, such as a register, cache, memory, etc., but semi-permanently stores data and is readable by the apparatus. Specifically, the above-described programs may be stored in a computer-readable recording medium such as a RAM (Random Access Memory), a flash memory, a ROM (Read Only Memory), an EPROM (Erasable Programmable ROM), an EEPROM (Electronically Erasable and Programmable ROM) Card, a USB memory, a CD-ROM, or the like.

이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형 실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해 되어져서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is clearly understood that the same is by way of illustration and example only and is not to be construed as limiting the scope of the invention as defined by the appended claims. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention.

100: 전자 장치 110: 디스플레이
120: 프로세서 130: 통신부
140: 촬상부 150: 입력부
160: 감지부  170: 메모리
100: electronic device 110: display
120: processor 130:
140: image pickup unit 150: input unit
160: sensing unit 170: memory

Claims (20)

전자 장치의 제어 방법에 있어서,
복수의 프레임 중 적어도 하나의 프레임에 대한 부가 정보를 포함하는 제1 영상 및 제2 영상을 획득하는 단계;
상기 제1 영상에 포함된 복수의 프레임 중, 재생되는 제1 프레임에 대응되는 제1 부가 정보를 획득하는 단계;
상기 제1 영상의 상기 제1 프레임이 재생되는 동안 상기 제2 영상을 재생하기 위한 기 설정된 사용자 명령이 입력되면, 상기 제1 부가 정보에 대응하는 상기 제2 영상의 제2 프레임을 결정하는 단계; 및
상기 제2프레임부터 상기 제2 영상을 재생하는 단계; 를 포함하는 제어 방법.
A method of controlling an electronic device,
Obtaining a first image and a second image including additional information on at least one frame among a plurality of frames;
Obtaining first additional information corresponding to a first frame to be reproduced among a plurality of frames included in the first image;
Determining a second frame of the second image corresponding to the first additional information when a predetermined user command for playing the second image is input while the first frame of the first image is being reproduced; And
Reproducing the second image from the second frame; ≪ / RTI >
제1항에 있어서,
상기 제1 프레임은, 상기 사용자 명령이 입력된 시점(time)에 재생중인 프레임이고,
상기 사용자 명령은, 상기 제2 영상을 재생시키는 명령인 것을 특징으로 하는 제어 방법.
The method according to claim 1,
Wherein the first frame is a frame being reproduced at a time when the user command is input,
Wherein the user command is an instruction to reproduce the second image.
제1항에 있어서,
상기 제1 영상에 복수의 오브젝트에 대응되는 복수의 디스플레이 아이템을 표시하는 단계; 를 더 포함하고,
상기 사용자 명령은, 상기 복수의 디스플레이 아이템 중 하나를 선택하는 명령인 것을 특징으로 하고,
상기 제1 프레임에 대한 상기 제1 부가 정보는, 상기 선택된 디스플레이 아이템에 대응되는 부가 정보인 것을 특징으로 하는 제어 방법.
The method according to claim 1,
Displaying a plurality of display items corresponding to a plurality of objects on the first image; Further comprising:
Wherein the user command is an instruction to select one of the plurality of display items,
Wherein the first additional information for the first frame is additional information corresponding to the selected display item.
제3항에 있어서,
상기 제1 프레임은,
상기 사용자 명령이 입력된 디스플레이 아이템에 대응되는 오브젝트에 대한 부가 정보를 포함하는 프레임인 것을 특징으로 하는 제어방법.
The method of claim 3,
Wherein the first frame comprises:
Wherein the user command is a frame including additional information on an object corresponding to the input display item.
4항에 있어서,
상기 재생하는 단계는,
상기 사용자 명령이 입력된 시점부터 상기 제1 프레임까지 상기 제1 영상이 재생된 후, 상기 제2 프레임부터 상기 제2 영상을 재생하는 것을 특징으로 하는 제어 방법.
4,
The method of claim 1,
Wherein the second image is reproduced from the second frame after the first image is reproduced from the time when the user command is input to the first frame.
제1항에 있어서,
상기 제1 부가 정보를 획득는 단계는,
상기 제1 프레임에 삽입된 복수의 부가 정보 중, 특정 부가 정보만을 필터링하는 단계; 를 더 포함하는 제어 방법.
 
The method according to claim 1,
Wherein the acquiring of the first additional information comprises:
Filtering only specific additional information among a plurality of additional information inserted in the first frame; ≪ / RTI >
제1항에 있어서,
상기 제2 프레임을 결정하는 단계는,
상기 제1 부가 정보에 대응되는 제2 부가 정보를 결정하는 단계; 및
상기 제2 부가 정보에 대응하는 상기 제2 영상의 상기 제2 프레임을 결정하는 단계; 를 포함하는 제어 방법.
 
The method according to claim 1,
Wherein determining the second frame comprises:
Determining second additional information corresponding to the first additional information; And
Determining the second frame of the second image corresponding to the second additional information; ≪ / RTI >
제1항에 있어서,
상기 부가 정보는 GPS 정보, 방위 정보, 시간 정보, 이미지 분석을 통한 대상 정보, 키워드 정보, 음성 키워드 정보 및 해시태그 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 제어 방법.
The method according to claim 1,
Wherein the additional information includes at least one of GPS information, azimuth information, time information, object information through image analysis, keyword information, voice keyword information, and hash tag information.
제1항에 있어서,
상기 제1 영상 및 제2 영상의 재생이 종료된 경우,
상기 재생된 제1 영상 및 제2 영상을 합성하여 저장하는 단계; 를 더 포함하는 제어 방법.
The method according to claim 1,
When the reproduction of the first video and the second video is finished,
Synthesizing and storing the reproduced first and second images; ≪ / RTI >
제1항에 있어서,
상기 제1 영상 및 상기 제2 영상이 파노라마 영상인 경우, 상기 제1프레임의 시야 방향과 상기 제2 프레임의 시야 방향(화각, view point)이 동일한 것을 특징으로 하는 제어 방법.
The method according to claim 1,
Wherein when the first image and the second image are panoramic images, the view direction of the first frame and the view direction of the second frame are the same.
전자 장치에 있어서,
복수의 프레임 중 적어도 하나의 프레임에 대한 부가 정보를 포함하는 제1 영상 및 제2 영상을 재생하는 디스플레이; 및
상기 제1 영상에 포함된 복수의 프레임 중, 재생되는 제1 프레임에 대응되는 제1 부가 정보를 획득하고, 상기 제1 영상의 상기 제1 프레임이 재생되는 동안 상기 제2 영상을 재생하기 위한 기 설정된 사용자 명령이 입력되면, 상기 제1 부가 정보에 대응하는 상기 제2 영상의 제2 프레임을 결정하여 상기 제2 프레임부터 상기 제2 영상을 재생하도록 상기 디스플레이를 제어하는 프로세서; 를 포함하는 전자 장치.
In an electronic device,
A display for reproducing a first image and a second image including additional information on at least one frame among the plurality of frames; And
A first additional information corresponding to a first frame to be reproduced, of a plurality of frames included in the first image, and for reproducing the second image while the first frame of the first image is reproduced A processor for determining the second frame of the second video corresponding to the first additional information and controlling the display to reproduce the second video from the second frame when the set user command is input; ≪ / RTI >
제11항에 있어서,
상기 제1 프레임은, 상기 사용자 명령이 입력된 시점(time)에 재생중인 프레임이고,
상기 사용자 명령은, 상기 제2 영상을 재생시키는 명령인 것을 특징으로 하는 전자 장치.
12. The method of claim 11,
Wherein the first frame is a frame being reproduced at a time when the user command is input,
Wherein the user command is an instruction to reproduce the second video.
제11항에 있어서,
상기 디스플레이는,
상기 제1 영상에 복수의 오브젝트에 대응되는 복수의 디스플레이 아이템을 표시하고,
상기 사용자 명령은, 상기 복수의 디스플레이 아이템 중 하나를 선택하는 명령인 것을 특징으로 하고, 상기 제1 프레임에 대한 상기 제1 부가 정보는, 상기 선택된 디스플레이 아이템에 대응되는 부가 정보인 것을 특징으로 하는 전자 장치.
12. The method of claim 11,
Wherein the display comprises:
Displaying a plurality of display items corresponding to a plurality of objects on the first image,
Characterized in that the user command is a command for selecting one of the plurality of display items, and the first additional information for the first frame is additional information corresponding to the selected display item Device.
제13항에 있어서,
상기 제1 프레임은,
상기 사용자 명령이 입력된 디스플레이 아이템에 대응되는 오브젝트에 대한 부가 정보를 포함하는 프레임인 것을 특징으로 하는 전자 장치
14. The method of claim 13,
Wherein the first frame comprises:
Wherein the user command is a frame including additional information on an object corresponding to the input display item
14항에 있어서,
상기 디스플레이는,
상기 사용자 명령이 입력된 시점부터 상기 제1 프레임까지 상기 제1 영상이 재생하고, 상기 제2 프레임부터 상기 제2 영상을 재생하는 것을 특징으로 하는 전자 장치.
14. The method of claim 14,
Wherein the display comprises:
Wherein the first image is reproduced from the time when the user command is input to the first frame, and the second image is reproduced from the second frame.
제11항에 있어서,
상기 프로세서는,
상기 제1 프레임에 삽입된 복수의 부가 정보 중, 특정 부가 정보만을 필터링하는 것을 특징으로 하는 전자 장치.
 
12. The method of claim 11,
The processor comprising:
Wherein only the specific additional information is filtered out of the plurality of additional information inserted in the first frame.
제11항에 있어서,
상기 프로세서는,
상기 제1 부가 정보에 대응되는 제2 부가 정보를 결정하고, 상기 제2 부가 정보에 대응되는 상기 제2 영상의 상기 제2 프레임을 결정하는 것을 특징으로 하는 전자 장치.
 
12. The method of claim 11,
The processor comprising:
Determines second additional information corresponding to the first additional information, and determines the second frame of the second video corresponding to the second additional information.
제11항에 있어서,
상기 부가 정보는 GPS 정보, 방위 정보, 시간 정보, 이미지 분석을 통한 대상 정보, 키워드 정보, 음성 키워드 정보 및 해시태그 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 전자 장치.
12. The method of claim 11,
Wherein the additional information includes at least one of GPS information, azimuth information, time information, object information through image analysis, keyword information, voice keyword information, and hash tag information.
제11항에 있어서,
상기 프로세서는,
상기 제1 영상 및 제2 영상의 재생이 종료된 경우, 상기 재생된 제1 영상 및 제2 영상을 합성하는 것을 특징으로 하는 전자 장치.
 
12. The method of claim 11,
The processor comprising:
And when the reproduction of the first image and the second image is completed, synthesizes the reproduced first image and the second image.
제11항에 있어서,
상기 디스플레이는,
상기 제1영상 및 상기 제2 영상이 파노라마 영상인 경우, 상기 제1프레임의 시야 방향과 상기 제2 프레임의 시야 방향이 동일하게 디스플레이 하는 전자 장치.

12. The method of claim 11,
Wherein the display comprises:
Wherein when the first image and the second image are panoramic images, the viewing direction of the first frame and the viewing direction of the second frame are the same.

KR1020170132226A 2016-11-11 2017-10-12 Display device and method for control thereof KR102372181B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2017/012570 WO2018088785A1 (en) 2016-11-11 2017-11-08 Electronic apparatus and control method therefor

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201662420639P 2016-11-11 2016-11-11
US62/420,639 2016-11-11
KR1020170029510A KR20180053208A (en) 2016-11-11 2017-03-08 Display device and method for control thereof
KR1020170029510 2017-03-08

Publications (2)

Publication Number Publication Date
KR20180053221A true KR20180053221A (en) 2018-05-21
KR102372181B1 KR102372181B1 (en) 2022-03-08

Family

ID=80812172

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170132226A KR102372181B1 (en) 2016-11-11 2017-10-12 Display device and method for control thereof

Country Status (1)

Country Link
KR (1) KR102372181B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020153772A1 (en) * 2019-01-22 2020-07-30 Samsung Electronics Co., Ltd. Electronic device and method of providing content therefor

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100002759A (en) * 2008-06-30 2010-01-07 주식회사 케이티 Method and system for providing service to recommend vod using information of objects in a moving picture
US20100082585A1 (en) * 2008-09-23 2010-04-01 Disney Enterprises, Inc. System and method for visual search in a video media player
US20120290933A1 (en) * 2011-05-09 2012-11-15 Google Inc. Contextual Video Browsing
KR20160102679A (en) * 2015-02-23 2016-08-31 주식회사 엘지유플러스 Movie managing server, movie playing apparatus, and method for providing charater information using thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100002759A (en) * 2008-06-30 2010-01-07 주식회사 케이티 Method and system for providing service to recommend vod using information of objects in a moving picture
US20100082585A1 (en) * 2008-09-23 2010-04-01 Disney Enterprises, Inc. System and method for visual search in a video media player
US20120290933A1 (en) * 2011-05-09 2012-11-15 Google Inc. Contextual Video Browsing
KR20160102679A (en) * 2015-02-23 2016-08-31 주식회사 엘지유플러스 Movie managing server, movie playing apparatus, and method for providing charater information using thereof

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020153772A1 (en) * 2019-01-22 2020-07-30 Samsung Electronics Co., Ltd. Electronic device and method of providing content therefor
KR20200091188A (en) * 2019-01-22 2020-07-30 삼성전자주식회사 Electronic device and method for providing content thereof
US11343577B2 (en) 2019-01-22 2022-05-24 Samsung Electronics Co., Ltd. Electronic device and method of providing content therefor

Also Published As

Publication number Publication date
KR102372181B1 (en) 2022-03-08

Similar Documents

Publication Publication Date Title
US11496814B2 (en) Method, system and computer program product for obtaining and displaying supplemental data about a displayed movie, show, event or video game
US20220132036A1 (en) Display Control Apparatus, Display Control Method, And Program
KR102071579B1 (en) Method for providing services using screen mirroring and apparatus thereof
RU2597232C1 (en) Method for providing a video in real time and device for its implementation, as well as a server and a terminal device
US8913171B2 (en) Methods and systems for dynamically presenting enhanced content during a presentation of a media content instance
ES2914124T3 (en) Media targeting
WO2014178219A1 (en) Information processing device and information processing method
US11836764B2 (en) Media collection navigation with opt-out interstitial
US20120081529A1 (en) Method of generating and reproducing moving image data by using augmented reality and photographing apparatus using the same
US11277668B2 (en) Methods, systems, and media for providing media guidance
CN107005741A (en) Immersion scales interactive television
CN109891904B (en) Image display method and electronic device thereof
KR102501713B1 (en) Method for displaying an image and an electronic device thereof
JP2018169735A (en) Video retrieval program and video retrieval method and video information processing equipment
JP6617547B2 (en) Image management system, image management method, and program
KR102372181B1 (en) Display device and method for control thereof
WO2023029237A1 (en) Video preview method and terminal
KR20180053208A (en) Display device and method for control thereof
CN114780180A (en) Object data display method and device, electronic equipment and storage medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant