KR102372181B1 - 전자 장치 및 그의 제어 방법 - Google Patents

전자 장치 및 그의 제어 방법 Download PDF

Info

Publication number
KR102372181B1
KR102372181B1 KR1020170132226A KR20170132226A KR102372181B1 KR 102372181 B1 KR102372181 B1 KR 102372181B1 KR 1020170132226 A KR1020170132226 A KR 1020170132226A KR 20170132226 A KR20170132226 A KR 20170132226A KR 102372181 B1 KR102372181 B1 KR 102372181B1
Authority
KR
South Korea
Prior art keywords
image
frame
additional information
information
user command
Prior art date
Application number
KR1020170132226A
Other languages
English (en)
Other versions
KR20180053221A (ko
Inventor
나문성
김상래
김지해
김창원
문종보
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020170029510A external-priority patent/KR20180053208A/ko
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to PCT/KR2017/012570 priority Critical patent/WO2018088785A1/ko
Publication of KR20180053221A publication Critical patent/KR20180053221A/ko
Application granted granted Critical
Publication of KR102372181B1 publication Critical patent/KR102372181B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2387Stream processing in response to a playback request from an end-user, e.g. for trick-play
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof
    • H04N5/9305Regeneration of the television signal or of selected parts thereof involving the mixing of the reproduced video signal with a non-recorded signal, e.g. a text signal

Abstract

영상을 재생하기 위한 전자 장치 및 그의 제어 방법이 개시된다. 본 개시에 따른 전자 장치의 제어 방법은, 복수의 프레임 중 적어도 하나의 프레임에 대한 부가 정보를 포함하는 제1 영상 및 제2 영상을 획득하는 단계, 상기 제1 영상에 포함된 복수의 프레임 중, 재생되는 제1 프레임에 대응되는 제1 부가 정보를 획득하는 단계, 상기 제1 영상의 상기 제1 프레임이 재생되는 동안 상기 제2 영상을 재생하기 위한 기 설정된 사용자 명령이 입력되면, 상기 제1 부가 정보에 대응하는 상기 제2 영상의 제2 프레임을 결정하는 단계 및 상기 제2프레임부터 상기 제2 영상을 재생하는 단계를 포함한다.

Description

전자 장치 및 그의 제어 방법{DISPLAY DEVICE AND METHOD FOR CONTROL THEREOF}
본 개시는 영상 처리 장치 및 그의 제어 방법에 관한 것으로, 보다 상세하게는 복수의 영상을 연속해서 재생하는 경우, 필요한 영상을 원하는 위치부터 재생하는 장치 및 방법에 관한 발명이다.
고성능 카메라의 보편화 및 소형화로 이동성이 확장되면서, 개인 영상의 촬영이 증가하고 있다. 또한, 스마트폰 기술 및 무선 인터넷망의 발달로 인해, 스마트폰 사용자들은 언제 어디서나 영상을 시청할 수 있게 되었다. 이러한 기술의 발달로, 사용자는 보다 쉽게 영상에 접근할 수 있고, 다양한 영상을 시청하게 되었다.
그러나, 사용자가 복수의 영상을 시청하는 경우 각각의 영상을 처음부터 시청하여야 하는 불편함이 존재한다. 예를 들어, 축구 경기를 즐겨보는 사용자가 특정 선수의 골 장면만을 시청하고자 하는 경우, 시청자는 특정 선수의 골 장면만이 편집된 영상을 시청하는 경우가 아니라면, 복수의 영상을 재생하고, 특정 선수가 골을 넣는 장면을 찾아 시청하여야 하는 번거로움이 존재하였다.
 본 개시는 상술한 문제점을 해결하기 위한 것으로, 영상을 구성하는 프레임에 부가 정보를 삽입하여 시청자가 제1 영상에서 제2 영상을 시청하는 경우, 시청자가 원하는 부분부터 제2 영상을 제공하는 것에 목적이 있다.
상기 목적을 달성하기 위한 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법은, 복수의 프레임 중 적어도 하나의 프레임에 대한 부가 정보를 포함하는 제1 영상 및 제2 영상을 획득하는 단계, 상기 제1 영상에 포함된 복수의 프레임 중, 재생되는 제1 프레임에 대응되는 제1 부가 정보를 획득하는 단계, 상기 제1 영상의 상기 제1 프레임이 재생되는 동안 상기 제2 영상을 재생하기 위한 기 설정된 사용자 명령이 입력되면, 상기 제1 부가 정보에 대응하는 상기 제2 영상의 제2 프레임을 결정하는 단계 및 상기 제2프레임부터 상기 제2 영상을 재생하는 단계; 를 포함한다.
이때, 상기 1 프레임은, 상기 사용자 명령이 입력된 시점(time)에 재생중인 프레임이고, 상기 사용자 명령은, 상기 제2 영상을 재생시키는 명령인 것을 특징으로 할 수 있다.
이때, 상기 제1 영상에 복수의 오브젝트에 대응되는 복수의 디스플레이 아이템을 표시하는 단계를 더 포함하고, 상기 사용자 명령은, 상기 복수의 디스플레이 아이템 중 하나를 선택하는 명령인 것을 특징으로 하고, 상기 제1 프레임에 대한 상기 제1 부가 정보는, 상기 선택된 디스플레이 아이템에 대응되는 부가 정보인 것을 특징으로 할 수 있다.
이때, 상기 제1 프레임은, 상기 사용자 명령이 입력된 디스플레이 아이템에 대응되는 오브젝트에 대한 부가 정보를 포함하는 프레임인 것을 특징으로 할 수 있다.
이때, 상기 재생하는 단계는, 상기 사용자 명령이 입력된 시점부터 상기 제1 프레임까지 상기 제1 영상이 재생된 후, 상기 제2 프레임부터 상기 제2 영상을 재생하는 것을 특징으로 할 수 있다.
이때, 상기 제1 부가 정보를 획득하는 단계는, 상기 제1 프레임에 삽입된 복수의 부가 정보 중, 특정 부가 정보만을 필터링하는 단계를 더 포함할 수 있다.
이때, 상기 제2 프레임을 결정하는 단계는, 상기 제1 부가 정보에 대응되는 제2 부가 정보를 결정하는 단계및 상기 제2 부가 정보에 대응하는 상기 제2 영상의 상기 제2 프레임을 결정하는 단계를 포함할 수 있다.
이때, 상기 부가 정보는 GPS 정보, 방위 정보, 시간 정보, 이미지 분석을 통한 대상 정보, 키워드 정보, 음성 키워드 정보 및 해시태그 정보 중 적어도 하나를 포함하는 것을 특징으로 할 수 있다.
이때, 상기 제1 영상 및 제2 영상의 재생이 종료된 경우, 상기 재생된 제1 영상 및 제2 영상을 합성하여 저장하는 단계; 를 더 포함할 수 있다.
이때, 상기 제1영상 및 상기 제2 영상이 파노라마 영상인 경우, 상기 제1프레임의 시야 방향과 상기 제2 프레임의 시야 방향(화각, view point)이 동일한 것을 특징으로 할 수 있다.
한편, 본 개시의 일 실시 예에 따른 전자 장치에 있어서, 복수의 프레임 중 적어도 하나의 프레임에 대한 부가 정보를 포함하는 제1 영상 및 제2 영상을 재생하는 디스플레이 및 상기 제1 영상에 포함된 복수의 프레임 중, 재생되는 제1 프레임에 대응되는 제1 부가 정보를 획득하고, 상기 제1 영상의 상기 제1 프레임이 재생되는 동안 상기 제2 영상을 재생하기 위한 기 설정된 사용자 명령이 입력되면, 상기 제1 부가 정보에 대응하는 상기 제2 영상의 제2 프레임을 결정하여 상기 제2 프레임부터 상기 제2 영상을 재생하도록 상기 디스플레이를 제어하는 프로세서를 포함한다.
이때, 상기 제1 프레임은, 상기 사용자 명령이 입력된 시점(time)에 재생중인 프레임이고, 상기 사용자 명령은, 상기 제2 영상을 재생시키는 명령인 것을 특징으로 할 수 있다.
이때, 상기 디스플레이는, 상기 제1 영상에 복수의 오브젝트에 대응되는 복수의 디스플레이 아이템을 표시하고, 상기 사용자 명령은, 상기 복수의 디스플레이 아이템 중 하나를 선택하는 명령인 것을 특징으로 하고, 상기 제1 프레임에 대한 상기 제1 부가 정보는, 상기 선택된 디스플레이 아이템에 대응되는 부가 정보인 것을 특징으로 할 수 있다.
이때, 상기 제1 프레임은, 상기 사용자 명령이 입력된 디스플레이 아이템에 대응되는 오브젝트에 대한 부가 정보를 포함하는 프레임인 것을 특징으로 할 수 있다.
이때, 상기 디스플레이는, 상기 사용자 명령이 입력된 시점부터 상기 제1 프레임까지 상기 제1 영상이 재생하고, 상기 제2 프레임부터 상기 제2 영상을 재생하는 것을 특징으로 할 수 있다.
이때, 상기 프로세서는, 상기 제1 프레임에 삽입된 복수의 부가 정보 중, 특정 부가 정보만을 필터링하는 것을 특징으로 할 수 있다.
이때, 상기 프로세서는, 상기 제1 부가 정보에 매칭되는 제2 부가 정보를 결정하고, 상기 제2 부가 정보에 대응되는 상기 제2 영상의 상기 제2 프레임을 결정하는 것을 특징으로 할 수 있다.
 이때, 상기 부가 정보는 GPS 정보, 방위 정보, 시간 정보, 이미지 분석을 통한 대상 정보, 키워드 정보, 음성 키워드 정보 및 해시태그 정보 중 적어도 하나를 포함하는 것을 특징으로 할 수 있다.
이때, 상기 프로세서는, 상기 제1 영상 및 제2 영상의 재생이 종료된 경우, 상기 재생된 제1 영상 및 제2 영상을 합성하는 것을 특징으로 할 수 있다.
 이때, 상기 디스플레이는, 상기 제1영상 및 상기 제2 영상이 파노라마 영상인 경우, 상기 제1프레임의 시야 방향과 상기 제2 프레임의 시야 방향이 동일하게 디스플레이 할 수 있다.
상술한 바와 같이, 본 개시의 실시 예에 따라, 제1 영상이 재생되던 중 제2 영상을 재생하기 위한 사용자 명령이 입력되는 경우, 전자 장치는 제2 영상의 특정 부분부터 재생하여 시청자가 원하는 위치로 영상을 이동시키는 불편함을 감소시킬 수 있다.
도 1a 및 1b는 본 개시의 일 실시 예에 따른 전자 장치의 구성을 도시한 블록도이다.
도 2a 및 2b는 본 개시의 일 실시 예에 따른 부가 정보를 포함하는 영상을 설명하기 위한 도면이다.
도 3은 본 개시의 일 실시 예에 따른, 제1 영상 및 제2 영상을 재생하는 과정을 도시한 도면이다.
도 4a 및 4b는 본 개시의 일 실시 예에 따른, 영상 재생 방법을 설명한 도면이다.
도 5a 내지 5d는 본 개시의 일 실시 예에 따른, 영상 재생을 이용하여 지도 서비스를 제공하는 방법에 대해 설명한 도면이다.
도 6a 및 6b는 본 개시의 일 실시 예에 따른 제1 영상 및 제2 영상을 재생하는 또다른 방법을 설명하기 위해 도시한 도면이다.
도 7a 및 7b는 본 개시의 일 실시 예에 따른 파노라마 영상의 경우의 실시 예를 설명한 도면이다.
도 8a 내지 8c는 본 개시의 일 실시 예에 따른, 온라인 서비스와 결합된 영상 재생 방법을 설명하기 위한 도면이다.
도 9는 본 개시의 일 실시 예에 따른 영상 재생 시스템을 도시한 도면이다.
도 10a 내지 도 10c는 본 개시의 일 실시예에 따른 영상 재생 시스템을 도시한 도면이다.
도 11은 본 개시의 일 실시 예에 따른, 전자 장치가 영상을 재생하는 방법을 설명한 흐름도이다.
이하에서는 본 개시의 바람직한 실시 예가 첨부된 도면을 참조하여 상세히 설명한다. 본 개시를 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단된 경우 그 상세한 설명은 생략한다. 그리고 후술되는 용어들은 본 개시에서의 기능을 고려하여 정의된 용어 들로서 이는 사용자, 운용자 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되지는 않는다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 항목들의 조합 또는 복수의 관련된 항목들 중의 어느 하나의 항목을 포함한다.
본 명세서에서 사용한 용어는 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 제한 및/또는 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 숫자, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 삽입 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
실시 예에 있어서 '모듈' 혹은 '부'는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어 또는 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 '모듈' 혹은 복수의 '부'는 특정한 하드웨어로 구현될 필요가 있는 '모듈' 혹은 '부'를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서로 구현될 수 있다.
한편 본 개시에서는 특별한 사정이 없는 한 제1 영상, 제2 영상, 제1 프레임, 제2 프레임, 제1 부가 정보, 제2 부가 정보는 다음과 같은 의미로 사용된다. 구체적으로, 제1 영상은 처음으로 재생되는 영상을 의미하고, 제2 영상은 제1 영상 뒤에 재생되는 영상을 의미한다. 제1 프레임은 제1 영상이 재생되는 마지막 프레임을 의미하고 제2 프레임은 제2 영상이 재생되는 첫번째 프레임을 의미한다. 또한 제1 부가 정보는 제1 프레임에 삽입된 정보를 의미하고 제2 부가 정보는 제2 프레임에 삽입된 정보를 의미한다.
이하에서는 첨부된 도면을 이용하여 본 개시에 대해 구체적으로 설명한다. 도 1a은 본 개시의 일 실시 예에 따른 전자 장치(100)의 구성을 설명하기 위한 개략적인 블록도이다. 이때, 전자 장치(100)는 스마트폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 영상 전화기, 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), 워크스테이션(workstation), PDA(personal digital assistant), PMP(portable multimedia player)등 영상을 재생할 수 있는 전자 장치를 포함할 수 있다. 또 다른 실시 예로, 전자 장치(100)는 도 10 에 도시된 바와 같이, 촬상 장치(200)와 외부 서버(300)를 포함하는 시스템으로 구현될 수 있다.
도 1a에 도시된 전자 장치(100)는 디스플레이(110) 및 프로세서(120)를 포함한다.
디스플레이(110)는, 복수의 프레임 중 적어도 하나의 프레임에 대한 부가 정보를 포함하는 제1 영상 및 제2 영상 중 적어도 하나를 재생할 수 있다. 이때, 디스플레이(110)가 재생하는 제1 영상 및 제2 영상은 복수의 프레임으로 구성되며, 복수의 프레임 중 적어도 일부는, 프레임에 대응하는 부가 정보가 삽입되어 있다.
이때, 사용자 명령이 입력된 경우, 디스플레이(110)는 제 2영상을 제2프레임부터 재생할 수 있다.
제1 영상이 재생되는 동안, 기 설정된 사용자 명령이 입력되면, 프로세서(120)는 기 설정된 사용자 명령에 대응되는 제1 프레임에 대한 제1 부가 정보를 결정하고, 제1 부가 정보에 대응하는 제2 영상의 제2 프레임을 결정하여 제2프레임부터 제2 영상을 재생하도록 디스플레이(110)를 제어할 수 있다.
구체적으로, 프로세서(120)는 제1 영상을 제1 프레임까지 재생한 후, 제2 영상의 제2 프레임부터 제2 영상을 재생하도록 디스플레이(110)를 제어할 수 있다.
도 1b는 본 개시의 일 실시 예에 따른 전자 장치(100)의 구성을 상세히 도시한 블록도이다.
구체적으로, 전자 장치(100)는 디스플레이(110), 프로세서(120) 외에 통신부(130), 촬상부(140), 입력부(150), 감지부(160) 및 메모리(170)를 더 포함할 수 있다. 그러나 이러한 구성에 한정되는 것은 아니며, 새로운 구성요소가 추가되거나 생략될 수 있음은 물론이다.
디스플레이(110)는 전자 장치(100)에서 제공되는 각종 가이드, 영상 컨텐츠, 정보, UI 등을 표시할 수 있다. 디스플레이(110)는 액정 표시 장치(Liquid Crystal Display, LCD), 유기 전기 발광 다이오드(Organic Light Emitting Display, OLED) 또는 플라즈마 표시 패널(Plasma Display Panel, PDP) 등으로 구현되어, 전자 장치(100)를 통해 제공 가능한 다양한 화면을 표시할 수 있다.
특히 디스플레이(110)는 전자 장치(100)에서 제공되는 각종 가이드, 영상 컨텐츠, 정보, UI 등을 표시할 수 있다. 디스플레이(110)는 액정 표시 장치(Liquid Crystal Display, LCD), 유기 전기 발광 다이오드(Organic Light Emitting Display, OLED) 또는 플라즈마 표시 패널(Plasma Display Panel, PDP) 등으로 구현되어, 전자 장치(100)를 통해 제공 가능한 다양한 화면을 표시할 수 있다.
구체적으로, 디스플레이(110)는 제1 영상 및 제2 영상을 재생할 수 있다.
통신부(130)는 와이파이 칩(131), 블루투스 칩(132), 무선 통신 칩(133), NFC칩(134)중 적어도 하나를 포함할 수 있다. 특히, 와이파이 칩(131), 블루투스 칩(132) 각각은 와이파이 방식, 블루투스 방식으로 통신을 수행할 수 있다. 와이파이 칩(131)이나 블루투스 칩(132)을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. 무선 통신 칩(133)은 IEEE, Zigbee, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution) 등과 같은 다양한 통신 규격에 따라 통신을 수행하는 칩을 의미한다. NFC 칩(134)은 135kHz, 13.56MHz, 433MHz, 860~960MHz, 2.45GHz 등과 같은 다양한 RF-ID 주파수 대역들 중에서 13.56MHz 대역을 사용하는 NFC(Near Field Communication) 방식으로 동작하는 칩을 의미한다.
통신부(130)는 외부 서버 또는 외부 전자 장치와 통신을 수행할 수 있다. 예를 들어, 동영상 스트리밍 방식을 통해 영상을 재생하는 경우, 전자 장치(100)는 외부 서버로부터 영상 데이터를 수신할 수 있다. 또한, 프로세서(120)는 사용자 명령을 외부 서버로 송신하도록 통신부(130)는 제어할 수 있다.
입력부(140)는 사용자의 명령을 입력 받을 수 있다. 구체적으로, 입력부(140)는 제1 영상을 재생하기 위한 사용자 명령 또는 제1 영상이 재생되는 중, 제2 영상을 재생하기 위한 사용자 명령을 프로세서(120)로 출력할 수 있다.
촬상부(150)는 영상을 촬영할 수 있다. 구체적으로, 전자 장치(100)가 촬상부(150)을 포함하는 경우, 촬상부(150)는 영상 촬영을 할 수 있다. 촬상부(150)에 의해 촬영된 영상은 디스플레이(110)에 재생될 수도 있으며, 외부 서버(300)로 전송되어 다른 전자 장치로 전송될 수도 있음은 물론이다.
또한, 촬상부(150)는 일반 동영상을 촬영할 수 있을 뿐만 아니라 파노라마 영상을 촬영할 수 있다. 이때, 파노라마 영상이란, 360도 또는 기 설정된 각도 이상(예를 들어 180도)의 시야를 확보할 수 있는 영상을 의미할 수 있다.
한편, 촬상부(150)는 전자 장치(100) 내에 구비될 수 있으나, 이는 일 실시 예에 불과할 뿐, 전자 장치(100)와 유/무선 형태로 연결될 수 있다.
감지부(160)는 다양한 데이터를 감지할 수 있다. 또한, 감지부(160)에서 감지한 데이터는 부가 정보를 생성하는데 사용될 수 있다. 구체적으로, 감지부는 자이로 센서, GPS 센서, 가속도 센서 등을 포함할 수 있다. 그러나 상술한 센서에 한정되는 것은 아니며, 다양한 부가 정보를 생성하기 위한 여러가지 센서를 포함할 수 있음은 물론이다.
촬상부(150)에 의해 영상이 촬영되는 경우, 감지부(160)는 촬영중인 영상 프레임 삽입하기 위한 GPS 좌표, 방위 등의 데이터를 감지할 수 있다. 이때, 데이터는 대응되는 영상 프레임에 부가 정보로서 삽입될 수 있다.
메모리(170)는 전자 장치(100)를 구동시키기 위한 O/S(Operating System)가 저장될 수 있다. 또한, 메모리(170)는 본 개시의 다양한 실시 예들에 따라 전자 장치(100)가 동작하기 위한 각종 소프트웨어 프로그램이나 어플리케이션이 저장될 수도 있다. 메모리(170)는 프로그램 또는 어플리케이션의 실행 중에 입력되거나 설정 또는 생성되는 각종 데이터 등과 같은 다양한 정보가 저장될 수 있다.
또한, 메모리(170)는 본 개시의 다양한 실시 예들에 따라 전자 장치(100)가 동작하기 위한 각종 소프트웨어 모듈을 포함할 수 있으며, 프로세서(120)는 메모리(170)에 저장된 각종 소프트웨어 모듈을 실행하여 본 개시의 다양한 실시 예들에 따른 전자 장치(100)의 동작을 수행할 수 있다.
또한, 메모리(170)는 촬상부(150)에 의해 촬영된 영상 및 감지부(160)에 의해 감지된 데이터를 저장할 수 있다. 특히, 메모리(170)는 제1 영상 및 제2 영상을 저장할 수 있다. 이를 위해, 메모리(170)는 플래시 메모리(Flash Memory) 등과 같은 반도체 메모리나 하드디스크(Hard Disk) 등과 같은 자기 저장 매체 등을 포함할 수 있다.
프로세서(120)는 전자 장치(100)의 동작을 전반적으로 제어할 수 있다.
프로세서(120)는 도 1b에 도시된 바와 같이, RAM(121), ROM(122), 메인 CPU(124), 제1 내지 n 인터페이스(125-1 ~ 125-n), 버스(126)를 포함한다. 이때, RAM(121), ROM(122), 메인 CPU(124), 제1 내지 n 인터페이스(125-1 ~ 125-n) 등은 버스(126)를 통해 서로 연결될 수 있다.
ROM(122)에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴 온 명령이 입력되어 전원이 공급되면, 메인 CPU(124)는 ROM(122)에 저장된 명령어에 따라 메모리(170)에 저장된 O/S를 RAM(121)에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, 메인 CPU(124)는 메모리(170)에 저장된 각종 어플리케이션 프로그램을 RAM(121)에 복사하고, RAM(121)에 복사된 어플리케이션 프로그램을 실행시켜 각종 동작을 수행한다.
메인 CPU(124)는 메모리(170)에 액세스하여, 메모리(170)에 저장된 O/S를 이용하여 부팅을 수행한다. 그리고 메인 CPU(124)는 메모리(170)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행한다.
제1 내지 n 인터페이스(125-1 내지 125-n)는 상술한 각종 구성요소들과 연결된다. 인터페이스들 중 하나는 네트워크를 통해 외부 장치와 연결되는 네트워크 인터페이스가 될 수도 있다.
 구체적으로, 제1 영상이 재생되는 동안, 기 설정된 사용자 명령이 입력되면, 프로세서(120)는, 기 설정된 사용자 명령에 대응되는 제1 프레임에 대한 제1 부가 정보를 결정하고, 제1 부가 정보에 대응하는 제2 영상의 제2 프레임을 결정하여 제2프레임부터 제2 영상을 재생하도록 디스플레이(110)를 제어할 수 있다.  이때, 제1 영상 및 제2 영상은 동일한 오브젝트 또는 이벤트를 포함하는 관련된 영상들일 수 있다. 즉, 제1 영상 및 제2 영상을 동일한 오브젝트 또는 이벤트에 대한 정보를 포함하는 부가 정보를 포함할 수 있다.
이때, 프로세서(120)는 제1 부가 정보에 대응되는 제2 부가 정보를 결정하고, 제2 부가 정보에 대응되는 제2 영상의 상기 제2 프레임을 결정할 수 있다.
이때, 제1 프레임은, 사용자 명령이 입력된 시점(time)에 재생중인 프레임이고, 사용자 명령은 제2 영상을 재생시키는 명령일 수 있다. 구체적으로, 제1 영상이 재생되는 도중, 제2 영상을 재생시키기 위한 사용자 명령이 입력된 경우, 프로세서(120)는 제1 영상을 제1 프레임까지 재생한 후, 제2 영상의 제2 프레임부터 재생하도록 디스플레이(110)를 제어할 수 있다. 이때, 제1 프레임 및 제2 프레임이 포함하는 부가 정보는, 서로 동일하거나 연관된 부가 정보일 수 있다.
이때, 부가 정보는, GPS 정보, 방위 정보, 시간 정보, 이미지 분석을 통한 대상 정보, 키워드 정보, 음성 키워드 정보 및 해시태그 정보 중 적어도 하나를 포함할 수 있다. 그러나 상술한 예에 한정되는 것은 아니고, 프레임과 관련된 다양한 종류의 부가 정보가 존재할 수 있음은 물론이다.
예를 들어, 이러한 부가 정보는, 감지부(160)에 의해 감지된 데이터일 수 있다. 그러나 감지부(160)에 의해 감지되지 않은 데이터도 부가 정보로 활용할 수 있다. 즉, 프로세서(120)는 기존에 수집된 데이터들을 활용해 새로운 정보의 생성 및 수집이 가능하다. 예를 들어, 프로세서(120)는 감지부(160)에 감지된 위치와 시간 데이터를 바탕으로 웹상의 정보를 크롤링하여 감지된 위치와 시간에 대응하는 사건 이벤트를 새로운 부가 정보로 생성할 수 있다. 예를 들어, 프로세서(120)는 2016년 9월 12일 19시 44분에 경주에서 촬영된 영상 프레임에 대하여 "지진"이라는 부가 정보를 생성할 수 있다.
또 다른 실시 예로, 제1 영상에 복수의 오브젝트에 대응되는 복수의 디스플레이 아이템이 디스플레이 되는 경우, 사용자 명령은 복수의 디스플레이 아이템 중 하나를 선택하는 명령일 수 있다. 이때 제1 프레임에 대한 제1 부가 정보는, 선택된 디스플레이 아이템에 대응되는 부가 정보일 수 있다. 구체적으로, 제1 영상에 존재하는 복수의 디스플레이 아이템 중 하나를 선택하는 사용자 명령이 입력된 경우, 프로세서(120)는 선택된 디스플레이 아이템에 대응되는 부가 정보를 결정할 수 있다. 이때, 선택된 디스플레이 아이템에 대응되는 부가 정보는, 디스플레이 아이템에 대응되는 오브젝트에 대한 부가 정보일 수 있다.
사용자 명령이 입력된 경우, 프로세서(120)는 제1 영상을 제1 프레임까지 재생한 후, 제2 영상을 제2 프레임부터 재생하도록 디스플레이(110)를 제어할 수 있다.
한편, 제1 프레임 및 제2 프레임에 삽입된 부가 정보는 복수의 부가 정보일 수 있다. 이때, 프로세서(120)는 각각의 프레임에 삽입된 부가 정보 중, 특정 부가 정보만을 필터링할 수 있다.
또한, 제1영상 및 제2 영상의 재생이 종료된 경우, 프로세서(120)는 재생된 상기 제1 영상 및 제2 영상을 합성할 수 잇다. 구체적으로, 프로세서(120)는, 사용자 명령에 의해 제1 영상의 제1 프레임까지의 영상과, 제2 영상의 제2 프레임부터 제2 영상이 종료된 프레임까지의 영상을 합성하여 저장할 수 있다. 이때, 합성된 영상은 메모리(170)에 저장될 수 있다.
또한, 제1 영상 및 제2 영상이 파노라마 영상인 경우, 프로세서(120)는 제1상기 프레임의 시야 방향과 제2 프레임의 시야 방향을 동일하게 디스플레이 하도록 디스플레이(110)를 제어할 수 있다. 구체적으로, 제2영상의 제2 프레임의 시야 방향은 제1 영상의 제1 프레임의 시야 방향과 동일할 수 있다.
 
도 2a 내지 도 3은 본 개시의 일 실시 예에 따른, 시간에 흐름에 따라 구성된 영상 데이터를 도시한 도면이다. 즉, 도 2a 내지 도 3에 도시된 영상 데이터는 왼쪽 끝 부분이 영상의 시작 시점을 나타내고, 오른쪽 끝 부분이 영상의 종료 시점을 나타낸다.
도 2a 및 2b는 본 개시의 일 실시 예에 따른 부가 정보를 포함하는 영상을 설명하기 위한 도면이다.
도 2a에 도시된 바와 같이, 영상 데이터(210)는 복수의 부가 정보(220-1 내지 220-N)를 포함할 수 있다. 구체적으로, 도 2b에 도시된 바와 같이, 복수의 부가 정보(220-1 내지 220-N)는 영상 데이터(210)는 분할된 영상 데이터(210-1 내지 210-N)로 이루어 질 수 있다. 각각의 부가 정보(220-1 내지 220-N)는 각각의 영상 데이터(210-1 내지 210-N)에 삽입될 수 있다. 예를 들어 제1 영상 데이터(210-1)에는 제1 부가 정보(220-1)가 삽입되고, 제2 영상 데이터(210-2)에는 제2 부가 정보(220-2)가 삽입될 수 있다.
한편, 본 개시에서는 각각의 영상 데이터(210-1 내지 210-N)는 하나의 프레임인 경우를 예로 하여 설명하였다. 그러나 각각의 영상 데이터(210-1 내지 210-N)는 하나의 프레임으로 이루어진 경우가 아닐 수도 있으며, 복수의 프레임이 하나의 영상 데이터를 구성할 수 있음은 물론이다.
또한, 본 개시에서는 하나의 영상 데이터에 하나의 부가 정보가 삽입되는 경우를 예로 하여 설명하였으나, 하나의 영상 데이터에 복수의 삽입 데이터가 포함될 수 있음은 물론이다.
즉, 본 개시의 실시 예에서 프레임에 삽입된 부가 정보는, 하나의 프레임에 삽입된 하나의 부가 정보일 수 있고, 복수의 프레임으로 구성된 하나의 영상 데이터에 삽입된 하나의 부가 정보일 수도 있으며, 하나의 프레임에 삽입된 복수의 부가 정보일 수도 있고, 복수의 프레임으로 구성된 하나의 영상 데이터에 삽입된 복수의 삽입 데이터일 수도 있음은 물론이다.
이하, 본 개시에서는 각각의 영상 데이터가 각각의 프레임인 경우로 한정하여 설명한다. 다만, 상술한 바와 같이 영상 프레임은 복수의 영상 프레임을 포함하는 영상 데이터를 의미할 수도 있음은 물론이다.
도 3은 본 개시의 일 실시 예에 따른, 제1 영상 및 제2 영상을 재생하는 과정을 도시한 도면이다.
구체적으로, 제1 영상(310)은 복수의 프레임(311 내지 313)을 포함할 수 있고, 제2 영상(320) 또한 복수의 프레임(321 내지324)를 포함할 수 있다. 제 1영상(310)이 재생되는 경우, 전자 장치(100)는 부가 정보가 삽입된 영상 데이터를 재생한다. 이때, 기 설정된 사용자 명령이 입력되면, 프로세서(120)는 기 설정된 사용자 명령에 대응하는 제1 프레임(313)에 대한 제1 부가 정보를 결정할 수 있다. 이때, 기 설정된 사용자 명령은 제2영상을 실행하는 명령일 수 있다. 또한 기 설정된 사용자 명령은 제1 영상에 디스플레이된 디스플레이 아이템을 선택하는 명령일 수도 있으나, 이에 한정되는 것은 아니다. 이때 디스플레이 아이템은 제2 영상에 관한 썸네일 이미지일 수도 있으며, 제1 영상에 포함된 오브젝트들(예를 들어, 영상에 포함된 건물, 사람 등) 일 수도 있으나, 이에 한정되는 것은 아니다.
기 설정된 사용자 명령이 입력된 경우, 전자 장치(100)는 제1 영상을 제1 프레임(313)까지 재생한 후, 제2 영상을 제2 프레임(323)부터 재생할 수 있다.
이때, 제2 프레임은 제1 부가 정보에 대응되는 프레임일 수 있다. 구체적으로, 제1 영상이 재생되는 도중 사용자 명령이 입력된 경우, 프로세서(120)는 사용자 명령에 대응되는 제1 프레임을 결정할 수 있다. 프로세서(120)는 제1 프레임에 포함된 제1 부가 정보에 대응되는 제2 부가 정보를 결정 할 수 있다. 이때, 제2 부가 정보는 제2 영상을 구성하는 복수의 프레임이 포함하는 부가 정보들 중 하나일 수 있다. 제2 부가 정보가 결정된 경우, 프로세서(120)는 제2 부가 정보를 포함하는 제2 프레임을 결정할 수 있다.
이때 제2 부가 정보를 포함하는 제2 영상의 프레임이 복수개인 경우, 다양한 방법에 의해 제2 프레임을 결정할 수 있다. 예를 들어 제2 부가 정보를 포함하는 복수의 프레임들 중 가장 빠른 프레임이 제2 프레임이 될 수 있다. 가장 빠른 프레임이란 제2 영상이 재생되는 경우 가장 먼저 재생되는 프레임을 의미한다. 다만, 상술한 방법에 한정되는 것은 아니며 다양한 방법에 의해 제2 부가 정보를 포함하는 제2 프레임을 결정할 수 있음은 물론이다.
예를 들어 제2 부가 정보가 복수개의 부가 정보를 포함하는 경우, 제2 프레임은 복수의 부가 정보 중 가장 많은 부가 정보를 가지는 프레임을 제2 프레임으로 결정할 수도 있다.
또는, 제2 부가 정보를 가지는 프레임이 복수개인 경우, 해당 프레임과 인접한 프레임들을 이용하여 제2 프레임을 결정할 수도 있다. 예를 들어, 전자 장치(100)는 제1 부가 정보를 포함하는 제1 프레임의 이전 및 이후 프레임(이하 1-1 프레임 및 1-2 프레임)이 포함하는 부가정보(이하 1-1 부가 정보 및 1-2 부가정보)를 결정할 수 있다. 이때, 제2 부가 정보를 포함하는 제2 영상의 복수의 프레임들 중, 각각의 프레임의 인접 프레임이 포함하는 부가 정보가 1-1 부가 정보 및 1-2 부가 정보에 대응되는 경우, 전자 장치(100)는 해당 프레임을 제2 프레임으로 결정할 수 있다.
다만, 제2 부가 정보를 포함하는 제2 영상의 프레임이 복수개인 경우 제2 프레임을 결정하는 방법은 상수란 실시예에 한정되지 않으며 다양한 방법에 의해 결정될 수 있음은 물론이다.
이하 제2 프레임을 결정하는 다양한 실시예들에 대하여 설명한다. 구체적으로, 제1 부가 정보와 제2 부가 정보는 서로 연관된 부가 정보일 수 있다. 예를 들어, 제1 부가 정보 및 제2 부가 정보는 동일하거나 유사한 GPS좌표 또는 방위, 촬영시간, 해시태그 등을 가질 수 있다. 그러나 상술한 예에 한정되는 것은 아니며, 영상과 관련된 다양한 부가 정보를 가질 수 있음은 물론이다.
상술한 바와 같이, 부가 정보는 다양한 형태의 부가 정보일 수 있으며, 제1 부가 정보 및 제2 부가 정보는 서로 연관성을 가질 수 있다. 이하 제1 부가 정보 및 제2 부가 정보의 종류에 따른 제1 프레임 및 제2 프레임에 대하여 설명한다.
일 실시 예로 부가 정보가 GPS 좌표에 관한 부가 정보인 경우, 제1 부가 정보 및 제2 부가 정보는 동일한 GPS 좌표를 가지는 부가 정보일 수 있다. 그러나 반드시 동일한 GPS 좌표일 필요는 없으며, 제1 부가 정보 및 제2 부가 정보는 기 설정된 범위 내의 GPS 좌표일 수도 있다.
예를 들어 제1 부가 정보가 63빌딩의 GPS 좌표를 포함하는 경우, 제2 부가 정보도 63빌딩 GPS 좌표를 가질 수 있다. 이러한 경우, 제1 프레임 및 제2 프레임은 모두 63빌딩을 포함하는 프레임일 수 있다.
또 다른 실시 예로, 부가 정보가 방위 정보를 포함하는 경우 제1 프레임 및 제2 프레임은 동일한 방향을 나타내는 프레임일 수 있다. 이에 대한 구체적인 실시 예는 도 7에서 후술한다.
또 다른 실시 예로, 부가 정보가 영상 촬영 시간에 관한 정보일 경우, 제1 프레임 및 제2 프레임은 동일한 시간에 촬영된 영상일 수 있다. 이때, 동일한 시간이란 동일 년도, 동일 월, 동일 주, 동일 날짜, 동일 시간 등 다양한 범위를 가질 수 있다. 예를 들어, 제1 프레임 및 제2 프레임은2017년도에 촬영한 영상일 수 있다. 또 다른 예로, 제1 프레임 및 제2 프레임은 동일 계절에 관한 영상일 수 있다. 또 다른 예로, 제1 프레임 및 제2 프레임은 동일 요일에 관한 영상일 수 있다. 즉, 부가 정보가 시간에 대한 부가 정보일 경우, 부가 정보는 다양한 분류 방법(계절, 월, 요일 등)에 따라 다양한 부가 정보가 생성될 수 있다.
또 다른 실시 예로, 부가 정보는 웹 크롤링 키워드를 포함하는 정보일 수 있다. 구체적으로, 프로세서(120)는 상술한 다양한 부가 정보를 결합하여 웹 크롤링 정보를 생성하고, 생성된 정보를 영상 프레임에 삽입할 수 있다. 예를 들어, 상술한 바와 같이, 프로세서(120)는 2016년 9월 12일 19시 44분(시간 정보)에 경주(위치 정보)에서 촬영된 영상 프레임에 대하여 "지진"이라는 부가 정보를 생성할 수 있다. 이러한 경우, 제1 프레임 및 제2 프레임은 2016년 9월 12일 경주에서 발생한 지진을 촬영된 영상일 수 있다. 또는 제1 프레임 및 제2 프레임은 지진에 관련된 영상일 수 있다.
또 다른 실시 예로, 부가 정보는 영상 프레임에 존재하는 이미지를 분석한 정보일 수 있다. 예를 들어 영상 프레임에 유명 배우가 존재하는 경우, 전자 장치(100)는 영상 프레임을 분석하여 유명 배우에 대한 부가 정보를 생성할 수 있다. 이러한 경우, 제1 프레임 및 제2 프레임은 유명 배우를 포함하는 프레임일 수 있다.
또 다른 실시 예로, 부가 정보는, 사용자가 생성한 텍스트 키워드 또는 음성 키워드 일 수 있다. 예를 들어, 제1 부가 정보 및 제2 부가 정보는 "축구 골 영상"이라는 키워드 일 수 있다. 이러한 경우, 제1 프레임 및 제2 프레임은 축구경기 중 골이 들어가는 장면에 관한 프레임일 수 있다.
그러나 본 개시에 따른 부가 정보는 상술한 부가 정보에 한정되는 것은 아니고 다양한 부가 정보가 더 포함될 수 있음은 물론이다.
또한, 부가 정보는 영상이 촬영됨과 동시에 영상에 존재하는 프레임에 삽입될 수도 있으며, 영상 촬영이 종료된 후 추가될 수도 있다. 예를 들어, 좌표 정보, 방위 정보, 시간 정보 등은 영상이 촬영되는 동시에 측정 센서에 의해 삽입될 수 있다. 또한, 키워드 음성 키워드 등은 영상 촬영이 종료된 후 사후적으로 삽입될 수도 있다.
또한 상술한 실시 예에서는 하나의 부가 정보를 이용하여 제1 프레임 및 제2 프레임을 결정하는 방법에 대해 설명하였으나, 두개 이상의 부가 정보를 이용하여 제1 프레임 및 제2 프레임을 결정할 수도 있음은 물론이다.
한편, 하나의 영상 프레임에 부가 정보가 복수개 포함되어 있는 경우, 필터링을 통해 원하는 부가 정보만을 선택할 수도 있다. 구체적으로, 제1 프레임에 GPS 좌표, 방위, 시간, 키워드 등의 부가 정보가 모두 포함되어 있는 경우, 전자 장치(100)는 GPS 좌표 정보 및 방위 정보만을 이용하여 제2 프레임을 결정할 수 있다.
 도 4a 내지 도 8c는 본 개시의 일 실시 예에 따른 다양한 영상 재생 과정을 도시한 도면이다.
도 4a 및 4b는 본 개시의 일 실시 예에 따른, 영상 재생 방법을 설명한 도면이다.
도 4a는 본 개시의 일 실시 예에 따른 제1 영상 및 제2 영상을 시청하는 방법을 도시한 도면이다.
복수의 프레임(410,420)을 포함하는 제1 영상을 시청하던 도중, 제2 프레임(430)을 포함하는 제2 영상을 시청하기 위한 사용자 명령이 입력된 경우, 전자 장치(100)는 제1 영상을 제1 프레임까지 재생한 후 제2 영상을 제2 프레임부터 재생할 수 있다.
도 4a에 도시된 바와 같이, 제1영상은 축구 컨텐츠에 관한 영상일 수 있다. 이때, 제1 영상은 해당 축구 경기의 전체 영상 또는 하이라이트 영상일 수 있다.
사용자가 영상을 시청하는 도중 특정 선수가 골을 넣은 경우, 사용자는 특정 선수가 골을 넣은 제2 영상을 검색하기 위한 사용자 명령을 입력할 수 있다. 구체적으로, 사용자가 제1 영상(420)을 시청하던 중, 제1 사용자 명령을 입력할 경우, 디스플레이(110)는 제1 영상의 제1 프레임에 삽입된 제1 부가 정보에 대응하는 제2 프레임을 포함하는 제2 영상에 대한 UI(430,431)를 디스플레이 할 수 있다. 이때, 제2 영상에 대한 UI(430,431)은 해당 프레임에 대한 썸네일 이미지일 수 있으나 이에 한정되는 것은 아니다.
이때, 제1 사용자 명령은 디스플레이의 임의의 위치를 터치하는 터치 인터렉션 또는 화면을 클릭하는 입력일 수 있으나 이에 한정되는 것은 아니며, 제2 영상을 디스플레이하기위한 아이콘(미도시)를 터치 또는 클릭할 수도 있음은 물론이다.
또 다른 실시 예로, 사용자 명령이 입력되지 않은 경우에도 디스플레이(110)는 제2 영상에 대한 UI(431,432)를 디스플레이 할 수 있다. 예를 들어, 제1 영상의 종료 시점에서 기 설정된 시간 전(예를 들어 제1 영상의 95%가 재생되는 시점)부터 제1 영상이 종료되기 전까지, 디스플레이(110)는 제2 영상에 대한 UI를 디스플레이 할 수 있다. 다만, 상술한 실시 예에 한정되는 것은 아니고, 다양한 방법에 의해 제2 영상에 대한 UI를 디스플레이 할 수 있음은 물론이다.
한편, 상술한 바와 같이, 제1 프레임(420)에 삽입된 제1 부가 정보 및 제2 프레임(430)에 삽입된 제2 부가 정보는 서로 연관성 있는 부가 정보일 수 있다. 예를 들어, 제1 부가 정보 및 제2 부가 정보는 동일한 해시태그(예를 들어, #OOO 골, #OOO 골장면 등)로 이루어 질 수 있다. 다만, 부가 정보는 동일한 해시 태그에 한정되는 것은 아니며, 다양한 부가 정보가 사용될 수 있다.
사용자는 디스플레이된 제 2영상에 관한 UI중 하나를 선택하는 사용자 명령을 통해 제2 영상을 재생할 수 있다. 예를 들어, 사용자가 제 1영상에 디스플레이된 UI(430, 431) 중 하나의 UI(430)을 터치하거나 클릭하는 사용자 명령을 입력한 경우, 디스플레이(110)는 선택된 UI(430)에 대응하는 제2 영상을 제2 프레임부터 재생할 수 있다.
도 4b는 본 개시의 또 다른 실시 예에 따른 제1 영상 및 제2 영상을 재생하는 방법을 설명한 도면이다. 구체적으로, 제1 영상 및 제2 영상은 관광 명소를 촬영한 영상일 수 있다.
상술한 바와 같이, 제1 영상(420)을 시청하던 중, 제1 사용자 명령이 입력된 경우, 전자 장치(100)는 제1 영상의 제1 프레임에 삽입된 제1 부가 정보에 대응하는 제2 프레임을 포함하는 제2 영상에 대한 UI(430,431)를 디스플레이 할 수 있다. 이때, 제2 영상에 대한 UI(430,431)은 해당 프레임에 대한 썸네일 이미지일 수 있으나 이에 한정되는 것은 아니다.
이때, 제1 사용자 명령은 디스플레이의 임의의 위치 또는 제2 영상을 디스플레이하기 위한 아이콘(미도시)를 터치하는 터치 인터렉션 또는 화면을 클릭하는 입력일 수 있으나 이에 한정되는 것은 아니다.
한편, 제1 프레임(420)에 삽입된 제1 부가 정보 및 제2 프레임(430)에 삽입된 제2 부가 정보는 서로 연관된 부가 정보일 수 있다.
구체적으로, 부가 정보는, GPS 좌표 정보, 방위 정보, 촬영 시간 정보, 영상 속 오브젝트들에 대한 정보 등에 관한 부가 정보일 수 있다. 이때, 영상 속 오브젝트들은, 영상에 존재하는 건물, 사람 또는 특정 물건일 수 있다. 영상 속 오브젝트는 영상 분석을 통해 결정할 수 있으나, 이에 한정되는 것은 아니다.
다만, 이러한 상술한 부가 정보에 한정되는 것은 아니고, 제1 부가 정보 및 제2 부가 정보는 동일한 해시태그(예를 들어, #선운사, #선운사 여름 등)로 이루어 질 수도 있다.
이때, 전자 장치(100)는 제1 영상에 존재하는 다양한 부가 정보 중, 하나 이상의 부가 정보를 선택할 수 있다.
예를 들어, 사용자가 GPS 좌표 및 촬영시간 정보에 대한 부가 정보를 선택하여, 선택된 부가 정보에 대응하는 제2 영상을 시청할 수 있다. 이 경우, 제2 영상의 제2 프레임(430)은 제1 영상과 동일하거나 유사한 GPS 좌표 및 동일하거나 유사한 시간에 촬영된 영상일 수 있다. 구체적으로, 제2 영상의 제2 프레임(430)은 제1 영상의 제1 프레임(420)과 동일 위치 및 동일 시간대에 촬영된 영상이므로, 제1 영상의 제1 프레임(420)과 제2 영상의 제2 프레임(430)은 유사한 명도 및 채도를 가질 수 있다. 따라서 사용자는 영상이 전환되는 경우에도 자연스럽게 영상을 시청할 수 있다.
또 다른 실시 예로, 사용자가 GPS 좌표, 영상 속 오브젝트에 관한 부가 정보를 선택한 경우, 제2 영상의 제2 프레임(430)은 제1 영상의 제1 프레임(420)에서 선택된 오브젝트에 관한 프레임일 수 있다. 예를 들어 영상 속 오브젝트가 건물인 경우, 제2 영상의 제2 프레임(420)은 건물 내부에 대한 프레임일 수 있다.
도 5a 내지 도 7b는 본 개시의 일 실시 예에 따른 제1 영상 및 제2 영상이 파노라마 영상인 경우의 다양한 실시 예를 도시한 도면이다.
도 5a 내지 5d는 본 개시의 일 실시 예에 따른, 영상 재생을 이용하여 지도 서비스를 제공하는 방법에 대해 설명한 도면이다.
구체적으로, 전자 장치(100)는 본 개시에 따른 영상 재생 방법을 이용하여 지도 서비스를 제공할 수 있다. 예를 들어, 전자 장치(100)는 사용자가 탐색하고자 하는 구간에 대한 제1 영상이 존재하는 경우, 해당 구간 영상에 대한 지도 서비스를 제공할 수 있다.
도 5a에 도시된 바와 같이, 전자 장치(100)는 제공받고자 하는 구간에 대한 제1 영상을 촬영할 수 있다. 이때, 촬영된 영상은 일반 영상 또는 파노라마 영상일 수 있다. 이때, 촬영되는 영상은 촬영과 동시에 부가 정보가 삽입될 수 있다. 예를 들어, 촬영되는 영상프레임에는 감지부(160)에 의해 감지된 GPS 좌표(511 내지 514) 또는 시간 정보가 삽입될 수 있다. 다만, 이미 전자 장치(100)에 의해 촬영된 제1 영상이 존재 하거나, 외부 서버로부터 제1 영상을 수신할 수 있는 경우에는 영상 촬영 과정은 생략될 수 있다.
촬영된 제1 영상이 재생되는 경우, 도 5b에 도시된 바와 같이, 디스플레이(110)는 미니맵 UI 또는, 이동 경로를 나타내는 UI를 디스플레이 할 수 있다. 이때, 이동 경로를 나타내는 UI는 영상의 진행방향에 따라 디스플레이 될 수 있다.
도 5c에 도시된 바와 같이, 영상 재생 중 제1 프레임에서 제1 영상이 정지한 경우, 전자 장치(100)는 제1 프레임에 삽입된 제1 부가 정보에 대응하는 영상에 대한 UI(531 내지 533)를 디스플레이 할 수 있다. 이때, 제1 부가 정보는 GPS 좌표 정보일 수 있으며, 제1 부가 정보에 대응하는 UI(531 내지 533)는 제1 부가 정보에 포함된 GPS 좌표에서 기 설정된 거리 내에 있는 놀이 기구에 대한 GPS 좌표 정보에 대한 제2 부가 정보를 포함하는 영상에 관한 UI일 수 있다. 
제1 UI(531)은 해당 영상이 위치한 곳에서 왼쪽에 위치한 놀이기구를 찾아갈 수 있는 영상에 관한 UI 이고, 제2 UI(532)은 해당 영상이 위치한 곳에서 정면에 위치한 놀이기구를 찾아갈 수 있는 영상에 관한 UI 이고, 제3 UI(533)은 해당 영상이 위치한 곳에서 오른쪽에 위치한 놀이기구를 찾아갈 수 있는 영상에 관한 UI 일 수 있다.
제3 UI를 선택하는 사용자 명령이 입력된 경우, 전자 장치(100)는 제3 UI에 대응하는 제2 영상을 재생할 수 있다. 이때, 제2 영상은 제2 프레임부터 재생될 수 있다. 구체적으로, 제2 프레임에는 제2 부가 정보가 삽입되어 있을 수 있다.  이때 제2 부가 정보는 GPS 좌표 정보를 포함할 수 있으며, 제2 부가 정보에 포함된 GPS 좌표 정보는 제1 부가 정보에 포함된 GPS 좌표 정보와 동일할 수 있다. 따라서, 제1 프레임과 제2 프레임은 동일한 위치의 영상일 수 있다.
도 5d에 도시된 바와 같이, 전자 장치(100)는 제2 영상을 제3 UI(533)에 대응하는 놀이기구가 나타날 때까지 재생할 수 있다.
도 6a 및 6b는 본 개시의 일 실시 예에 따른 제1 영상 및 제2 영상을 재생하는 또다른 방법을 설명하기 위해 도시한 도면이다.
구체적으로, 도 6a는 현재 재생중인 제1 영상의 제1 프레임(610)일 수 있다. 전자 장치(100)가 제1 영상을 재생하는 도중, 제1 오브젝트(611)을 선택하는 사용자 명령이 입력된 경우, 전자 장치(100)는 도 6b에 도시된 바와 같이 제 2 영상의 제2프레임(620)부터 재생을 시작할 수 있다.
구체적으로, 제1 영상이 제1프레임까지 재생되기 전에, 전자 장치(100)가 제1 오브젝트(611)을 선택하는 사용자 명령을 입력 받은 경우, 전자 장치(100)는 제1 오브젝트에 대응되는 제1 부가 정보를 결정할 수 있다. 그 후 전자 장치(100)는 결정된 제1 부가 정보에 대응하는 제1 프레임을 결정하고, 제1 프레임까지 제1 영상을 재생할 수 있다.
구체적으로, 제1 부가 정보는 제1 오브젝트에 대한 정보일 수 있다. 예를 들어, 전자 장치(100)의 프로세서(120)는 영상 분석을 통해 제1 오브젝트가 에펠탑이라고 판단할 수 있다. 이때, 제1 부가 정보는 에펠탑에 대한 정보를 포함할 수 있다.
제1 영상의 제1 프레임까지 영상이 재생된 경우, 전자 장치(100)는 제2 영상을 제2 프레임까지 재생할 수 있다.
한편, 제2 영상의 제2 프레임은 제2 부가 정보를 포함할 수 있다. 제2 부가 정보는 제1 오브젝트에 대응되는 부가 정보일 수 있다. 즉, 제2 부가 정보는 에펠탑에 대한 정보를 포함할 수 있다. 이때, 제2 부가 정보는 추가적인 정보를 더 포함할 수 있다. 예를 들어, 제2 부가 정보는 에펠탑에 대한 정보 및 "영상 프레임의 중앙에 위치한 에펠탑"에 대한 정보를 포함할 수 있다.
도 6b에 도시된 바와 같이, 제2 프레임(620)에서 제2 오브젝트(621)는 제2 프레임(620)의 중앙에 위치할 수 있다. 즉, 전자 장치(100)는 제1 영상에서 선택된 오브젝트(611)에 대응하는 제2 오브젝트(612)를 제2 영상의 중앙에 위치 시킬 수 있다.
도 6a 및 도 6b에서는, 제1 영상 및 제2 영상이 일반 영상인 경우에 대하여 설명하였으나, 제1 영상 및 제2 영상이 파노라마 영상인 경우에도 동일한 기술적 사상이 적용될 수 있다.
구체적으로, 도 6a에 도시된 바와 같이 제1 파노라마 영상이 제1 오브젝트(611)를 오른쪽에 위치시킨 상태에서 제1 오브젝트(611)를 선택하는 사용자 입력을 받은 경우, 전자 장치(100)는 도 6b에 도시된 바와 같이 제2 오브젝트(612)를 중앙에 위치시킨 상태에서 제2 영상을 재생할 수 있다.
즉, 도 6a에 도시되지 않았으나, 제1 오브젝트(611)가 제1 프레임의 임의의 영역에 위치하더라도 제2 영상의 제2 프레임(620)은 도 6b와 같이 제2 오브젝트(621)가 중앙에 위치한 상태일 수 있다.
도 7a 및 7b는 본 개시의 일 실시 예에 따른 파노라마 영상의 경우의 실시 예를 설명한 도면이다.
구체적으로, 도 7a는 제1 방향(711) 및 제2 방향(712)를 포함하는 제1 도시한 도면이다. 제1 영상이 파노라마 영상인 경우, 전자 장치(100)는 사용자 명령에 대응하여 재생중인 영상의 시야(view point) 방향을 변경할 수 있다.
도 7a에 도시된 바와 같이, 제1 영상은 제1 방향(711)을 시야 방향으로 하여 영상이 재생될 수 있다. 이때, 제2 방향(712)으로 진행하는 제2영상을 디스플레이 하기 위한 사용자 명령이 입력된 경우, 전자 장치(100)는 제2 방향(712)를 시야 방향으로 하는 제 2 영상(미도시)을 제2 프레임부터 재생할 수 있다. 이때, 제1 부가 정보 및 제2 부가 정보는 GPS 좌표 정보를 포함할 수 있다. 따라서 제2 영상의 제2 프레임은 제1 영상의 제1 프레임과 동일한 위치를 촬영한 프레임일 수 있다.
다만, 상술한 실시 예의 경우, 제1 프레임의 시야 방향은 제1 시야 방향(711)이고, 제2 프레임의 시야 방향은 제2 시야 방향(712)일 수 있다.
 이러한 경우, 사용자는 재생되는 영상이 제1 영상에서 제2 영상으로 변경되는 경우, 영상의 시야 방향이 급격하게 변화하여 영상 시청에 불편함을 느낄 수 있다.
따라서 제1 영상 및 제2 영상이 파노라마 영상인 경우, 제1 부가 정보 및 제2 부가 정보는 방위에 대한 정보를 더 포함할 수 있다.
예를 들어 제 1영상의 제1 프레임은 도 7b에 도시된 바와 같이, 제2 시야 방향(721)을 시야 방향으로 하는 프레임일 수 있다. 즉, 제1 영상은 도 7a에 도시된 프레임을 재생하고, 도 7b에 도시된 프레임과 같이 제2 시야 방향(721)로 회전한 후, 제2 영상(미도시)을 재생할 수 있다.
그러나, 상술한 실시 예에 한정되는 것은 아니고, 제1 프레임은 도 7a에 도시된 프레임일 수 있다. 이러한 경우, 제2 프레임은 도 7b에 도시된 프레임일 수 있다. 즉, 제 1 프레임은 제1 시야 방향(711)을 가지고 제2 프레임 또한 제1 시야 방향(721)을 가질 수 있다. 이 경우, 제2 영상은 제1 시야 방향(721)부터 시작하여 제2 시야 방향(722)로 영상을 회전할 수 있다.
도 8a 내지 8c는 본 개시의 일 실시 예에 따른, 온라인 서비스와 결합된 영상 재생 방법을 설명하기 위한 도면이다.
구체적으로, 본 개시에 따른 영상 재생 방법은 다양한 온라인 서비스와 결합하여 이루어 질 수 있다. 예를 들어, 제1 영상 및 제2 영상은 관광 명소를 소개하는 온라인 서비스, 근처 숙박업소를 제공하는 온라인 서비스, 소셜 네트워크 서비스(SNS)등과 결합할 수 있다. 이때, 제1 영상 및 제2 영상은 특정 어플리케이션에서 실행되는 영상일 수 있다. 예를 들어, 제1 영상 및 제2 영상은 지도 서비스 및 주변 정보를 제공하는 어플리케이션에서 재생되는 영상일 수 있다.
도 8a에 도시된 바와 같이, 제1 영상은 다양한 기능을 수행하기 위한 UI를 포함할 수 있다. 도 8a에 도시된 바와 같이, 제1 영상에는 현재 영상/위치 주변의 관심 명소 표시 여부를 선택할 수 있는 제1 UI(810), 현재 영상의 정보를 표시하는 제2 UI(820), 다른 온라인 서비스와 연계되어 제1 영상과 관련된 정보를 디스플레이 하는 제3 UI(831,832,833), 영상 진행표시줄을 나타내는 제4 UI(840), 영상에 대한 전반적인 동작을 제어할 수 있는 제5 UI(850), 현재 재생되는 제1 영상 및 관련 영상의 위치를 표시할 수 있는 제6 UI(860)등이 디스플레이될 수 있다.
그러나 상술한 다양한 UI가 모두 디스플레이 되는 것은 아니고, 필요에 따라 부가 생략되거나 추가될 수 있다. 예를 들어, 제1 영상과 관련된 주변 정보가 존재하지 않는 경우, 제3 UI(831 내지 833)은 디스플레이 되지 않을 수 있다. 또한 재생되는 제1 영상이 파노라마 영상이 아닌 경우, 제5 UI(850)이 생략될 수 있다.
한편, 도 8b에 도시된 바와 같이, 제1 영상이 재생되는 중, 제1 영상에서 선택 가능한 제2 영상이 존재하는 경우, 제6 UI(860)의 하단부에 영상이 존재함을 알리는 알림UI(861)이 디스플레이 될 수 있다.
알림 UI(861)를 선택하는 사용자 명령이 입력된 경우, 도 8c에 도시된 바와 같이, 전자 장치는 재생 가능한 영상에 대한 정보를 디스플레이 하는 제7 UI(870)을 디스플레이 할 수 있다.
이때, 제 7 UI(870)에는 다양한 정보가 포함될 수 있다. 예를 들어, 제7 UI(870)는 재생 가능한 다른 영상의 개수 정보, 해당 영상과 관련이 있는 다른 온라인 서비스에 대한 정보 등에 관한 정보를 포함할 수 있다.
제7 UI(870)에 포함된 MOVE UI가 선택된 경우, 전자 장치(100)는 제2 영상을 제2 프레임부터 재생할 수 있다.
이때, 재생되는 제1 영상 및 제2 영상은 상술한 다양한 실시 예들에 의해 재생된다. 구체적으로, 도 8에서 설명한 동작들에 의해 제1 영상이 재생되는 도중, 제2 영상을 재생시키는 사용자 명령이 입력된 경우, 전자 장치(100)는 제1 영상을 제1 프레임까지 재생하고, 제2 영상을 제2 프레임부터 재생할 수 있다. 또한, 제1 프레임에 포함된 제1 부가 정보와 제2 프레임에 포함된 제2 부가 정보가 서로 연관되어 있음은 물론이다.
도 9는 본 개시의 일 실시 예에 따른 영상 재생 시스템을 도시한 도면이다.
구체적으로, 영상 재생 시스템은 전자 장치(100), 촬상 장치(200) 및 외부 서버(300)로 구성될 수 있다.
촬상 장치(200)는 전자 장치(100)가 재생할 다양한 영상을 촬영하여 외부 서버(300)로 전송할 수 있다. 이때, 촬상 장치(200)에는 다양한 부가 정보를 감지하기 위한 복수의 센서가 구비될 수 있다.
외부 서버(300)는 전자 장치(100)가 제1 영상을 요청하는 경우, 요청된 제1 영상을 전자 장치(100)로 전송할 수 있다. 특히 외부 서버(300)가 전자 장치(100)에 스트리밍 방식으로 제1 영상을 전송하는 경우, 재생되는 영상의 부가 정보를 분석하여 전자 장치(100)에 추천 영상을 제공할 수 있다. 전자 장치(100)는 외부 서버(200)로부터 전송 받은 추천 영상 중 하나를 제2 영상으로 선택할 수 있다. 이때, 외부 서버(300)는 선택된 제2 영상의 제2 프레임부터 전자 장치(100)로 전송할 수 있다.
다만, 상술한 바와 같이, 전자 장치(100)는 촬상 장치(200) 및 외부 서버(300)를 포함할 수 있음은 물론이다. 즉, 전자 장치(100)는 영상을 촬영하여 메모리(170)에 저장하고, 저장된 제1 영상 및 제2 영상을 재생할 수 있음은 물론이다.
한편, 상술한 다양한 실시 예에서는 영상이 재생되는 경우에 대하여 설명하였으나, 이에 한정되는 것은 아니다. 예를 들어, 전자 장치(100)는 제1 영상이 재생되는 도중, 사용자 명령이 입력되는 경우, 제1 부가 정보에 대응되는 제2 사진이 디스플레이될 수도 있다. 또는, 전자 장치(100)가 제1 부가 정보가 삽입된 제1 사진을 디스플레이하는 도중, 제2 영상을 재생하기 위한 기 설정된 사용자 명령이 입력된 경우, 전자 장치(100)는 제1 부가 정보에 대응되는 제2 프레임부터 제2 영상을 재생할 수 있다.
도 10a 내지 도 10c는 본 개시의 일 실시예에 따른 영상 재생 시스템을 도시한 도면이다.
도 10a에 도시된 바와 같이, 영상 재생 시스템은 전자 장치(100), 촬상 장치(200), 제1 서버(310) 및 제2 서버(320)을 포함할 수 있다. 즉, 도 9에 도시된 외부 서버(300)는 제1 서버(310) 및 제2 서버(320)을 포함할 수 있다.
이때, 제1 서버(310)는 동영상 제공 서버일 수 있다. 특히, 제1 서버(310)는 다양한 컨텐츠 제공자 또는 온라인 동영상 플랫폼에 의해 운영되는 서버일 수 있다. 제1 서버(310)는 스트리밍 방식에 의한 동영상 서비스를 제공할 수 있다. 동영상 서버(310)는 전자 장치(100)로부터 동영상에 대한 요청이 있는 경우, 전자 장치(100)로 동영상을 제공할 수 있다. 이때, 동영상 제공 방법은 상술한 바와 같이 스트리밍 방식에 의할 수 있으나, 이에 한정되는 것은 아니다. 즉, 전자 장치(100)는 제1 서버(310)로부터 동영상 데이터를 다운로드 받을 수도 있음은 물론이다.
제2 서버(320)는 제1 서버(310)에 의해 제공되는 동영상에 대한 부가 정보를 저장할 수 있다. 구체적으로, 제2 서버(320)는 제1 서버(310)에서 제공되는 동영상에 대한 부가 정보 및 부가 정보에 대응되는 파라미터를 매칭하여 저장할 수 있다. 즉, 제1 서버(310)에 저장된 동영상이 다수의 부가정보를 포함할 경우, 동영상의 용량이 커지는 문제점이 발생할 수 있다. 따라서, 이러한 문제점을 해결하기 위해 제1 서버(310)는 동영상을 저장하고, 제2 서버(320)는 동영상에 대한 부가 정보를 저장할 수 있다. 이때, 제2 서버(320)는 동영상에 대한 부가 정보와 이에 대응되는 파라미터를 매칭하여 저장할 수 있다. 부가 정보에 대응되는 파라미터는 제1 서버(310)에 저장된 동영상의 특정 위치를 찾기 위한 파라미터일 수 있다. 예를 들어 파라미터는 재생해야 할 동영상 파일에 대한 인덱스 정보 및 해당 동영상 파일 중 재생 되어야 하는 부분의 시작 시간 및 종료 시간에 대한 인덱스 정보를 포함할 수 있다.
또한, 전자 장치(100)로부터 사용자 명령을 수신한 경우, 제2 서버(320)는 수신한 사용자 명령을 바탕으로 부가 정보를 획득할 수 있다. 제2 서버(320)는 획득한 부가 정보를 바탕으로, 부가 정보에 대응되는 파라미터를 획득하고 획득한 파라미터를 전자 장치(100)로 전송하고, 전자 장치(100)는 수신한 파라미터응 제1 서버로 전송할 수 있다. 다만, 이에 한정되는 것은 아니며, 제2 서버(320)는 획득한 파라미터를 제1 서버(310)로 바로 전송할 수 있음은 물론이다.
한편, 사용자는 제1 서버(310) 및 제2 서버(320)를 이용하여 다양한 형태의 동영상을 시청할 수 있다. 구체적으로, 전자 장치(100)를 통해 사용자 명령이 입력되면, 전자 장치(100)는 사용자 명령을 제2 서버(320)로 전송할 수 있다.이때, 입력된 사용자 명령은 다양한 제1 서버(310)에 저장된 동영상 중 특정 장면 또는 특정 내용에 대한 명령일 수 있다.
제2 서버(320)가 전자 장치(100)로부터 사용자 명령을 수신한 경우, 사용자 명령에 대응되는 동영상 및 부가 정보를 검색할 수 있다. 제2 서버(320)는 검색된 동영상 및 부가 정보에 대응되는 파라미터를 전자 장치(100)로 전송하고, 전자 장치(100)는 수신한 파라미터를 제1 서버(310)로 전송할 수 있다.
제1 서버(310)는 수신한 파라미터 정보를 이용하여 파라미터 정보에 대응되는 동영상을 재생할 수 있다. 이때, 제1 서버(310)이 스트리밍 동영상 서비스를 제공하는 서버인 경우, 제1 서버(310)는 파라미터 정보에 대응되는 동영상의 특정 부분을 순서대로 스트리밍하여 사용자에게 제공할 수 있다.
한편, 제1 서버(310) 또는 제2 서버(320)는 전자 장치(100)로 제공된 영상에 대한 파라미터 정보를 저장하여 관리할 수 있다. 즉, 과거 입력된 사용자 명령에 대응되는 부가 정보와 동일 또는 유사한 부가 정보를 포함하는 새로운 사용자 명령이 입력된 경우, 제1 서버(310) 또는 제2 서버(320)는 부가 정보 및 파라미터를 획득하는 과정 없이 저장된 파라미터 정보를 전자 장치(100)로 제공할 수 있다.
즉, 제1 서버(310)는 저장된 복수개의 원본 동영상을 편집하고 저장하여 새로운 동영상을 생성할 필요 없이, 파라미터 정보만을 이용하여 재생산된 영상을 전자 장치(100)로 제공할 수 있다. 다만, 이에 한정되는 것은 아니고, 제1 서버(310)는 사용자 명령에 따라 재생산된 영상을 저장할 수도 있음은 물론이다.
도 10b는 본 개시의 일 실시예에 따른 동영상 재생 과정을 설명하기 위한 예시도이다.
예를 들어, 사용자는 제1 서버(310)에 저장된 동영상 중 특정 장면 또는 특정 내용을 시청하고자 하는 경우, 전자 장치(100)를 통해 "OOO 골 하이라이트"와 같은 검색어를 입력할 수 있다.
전자 장치(100)는 "OOO 골 하이라이트"를 제2 서버(320)로 전송할 수 있다. 이때, 제2 서버(320)는 "OOO 골 하이라이트"와 관련된 부가 정보를 획득할 수 있다. 예를 들어, "OOO 골 하이라이트"에 대응되는 부가 정보는 OOO, 골 장면, 하이라이트 등일 수 있다.
제2 서버(320)는 획득한 부가 정보에 대응되는 파라미터를 획득할 수 있다. 제2 서버(320)에서 획득된 파라미터가 전자 장치(100)로 전송되고, 전자 장치(100)가 수신한 파라미터를 제1 서버(310)로 전송하면, 제1 서버(310)는 수신한 파라미터에 대응되는 영상을 전자 장치(100)로 제공할 수 있다.
즉, 도 10b에 도시된 바와 같이, 전자 장치(100)는 원하는 영상에 대한 검색어를 입력하는 사용자 명령을 통해 제1 영상(1010)의 특정 부분(OOO 골 하이라이트 부분) 및 제2 영상(1020)의 특정부분을 연속해서 시청할 수 있다.
한편, 상술한 바와 같이, "OOO 골 하이라이트"와 같은 검색어가 재차 입력되거나, 다른 전자 장치에서 입력되는 경우, 제1 서버(310) 및 제2 서버(320)는 부가 정보를 획득하고 파라미터를 획득하는 과정 없이, 과거 저장된 파라미터 정보를 이용하여 도 10b에 도시된 영상을 전자 장치(100)로 제공할 수 있다.
도 10c는 본 개시의 또다른 실시예에 따른 영상 재생 방법을 설명하기 위한 예시도이다. 도 10c에 도시된 바와 같이, 제1 서버(310)는 영상에 자막 또는 스티커 UI를 부가하여 전자 장치(100)에게 제공할 수 있다.
예를 들어, 전자 장치(100)가 제1 서버(310)에서 제공되는 영상에 자막 또는 스티커 UI를 부가하기 위한 사용자 명령을 입력 받은 경우, 제2 서버(320)는 해당 사용자 명령에 대응되는 부가 정보 및 부가 정보에 대응되는 파라미터를 획득할 수 있다. 제1 서버(310)는 수신한 파라미터에 대응되는 자막 또는 스티커 UI(1030)를 영상에 오버레이하여 표시할 수 있다.
한편, 상술한 실시예에서는 제1 서버(310) 및 제2 서버(320)이 독립된 서버인 경우에 대하여 설명하였으나, 제1 서버(310) 및 제2 서버(320)가 하나의 서버로 구성될 수 있음은 물론이다.
도 11은 본 개시의 일 실시 예에 따른, 전자 장치가 영상을 재생하는 방법을 설명한 흐름도이다.
먼저, 전자 장치(100)는 복수의 프레임 중 적어도 하나의 프레임에 대한 부가 정보를 포함하는 제1 영상 및 제2 영상을 획득할 수 있다(S1110). 이때, 획득된 영상은 전자 장치(100)에 저장된 영상일 수 있으며, 외부 서버(300)로부터 수신한 영상일 수도 있다.
전자 장치(100)가 제1 영상을 재생하는 동안, 제2 영상을 재생하기 위한 기 설정된 사용자 명령이 입력된 경우(S1120), 전자 장치(100)는 기 설정된 사용자 명령에 대응되는 제1 프레임에 대한 제1 부가 정보를 획득할 수 있다(S1130).
전자 장치(100)는 획득된 제1 부가 정보에 대응하는 제2 영상의 제2 프레임을 획득할 수 있다(S1140). 구체적으로, 전자 장치(100) 제1 부가 정보에 대응하는 제2 부가 정보를 획득하고, 제2 부가 정보에 대응하는 제2 프레임을 획득할 수 있다.
전자 장치(100)는 제1 영상의 제1 프레임까지 제1 영상을 재생한 후, 제2 영상의 제2 프레임부터 영상을 재생할 수 있다(S1150).
한편, 상술한 바와 같은 전자 장치(100)의 제어 방법은 적어도 하나의 실행 프로그램으로 구현될 수 있으며, 이러한 실행 프로그램은 비일시적 컴퓨터 판독 가능 매체에 저장될 수 있다.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로, 상술한 프로그램들은 RAM(Random Access Memory), 플레시메모리, ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electronically Erasable and Programmable ROM), 레지스터, 하드디스크, 리무버블 디스크, 메모리 카드, USB 메모리, CD-ROM 등과 같이, 단말기에서 판독 가능한 다양한 유형의 기록 매체에 저장되어 있을 수 있다.
이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형 실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해 되어져서는 안될 것이다.
100: 전자 장치 110: 디스플레이
120: 프로세서 130: 통신부
140: 촬상부 150: 입력부
160: 감지부  170: 메모리

Claims (20)

  1. 전자 장치의 제어 방법에 있어서,
    복수의 프레임 중 적어도 하나의 프레임에 대한 부가 정보를 포함하는 제1 영상 및 제2 영상을 획득하는 단계;
    상기 제1 영상을 재생하는 동안, 상기 제2 영상을 재생하기 위한 기 설정된 사용자 명령이 입력되면, 상기 제1 영상에 포함된 복수의 프레임 중, 상기 사용자 명령에 대응되는 제1 프레임을 결정하는 단계;
    상기 제1 프레임과 관련된 제1 부가 정보를 획득하는 단계;
    상기 제1 부가 정보를 바탕으로, 상기 제2 영상의 제2 프레임을 결정하는 단계; 및
    상기 제2프레임부터 상기 제2 영상을 재생하는 단계;를 포함하는 제어 방법.
  2. 제1항에 있어서,
    상기 제1 프레임은, 상기 사용자 명령이 입력된 시점(time)에 재생중인 프레임이고,
    상기 사용자 명령은, 상기 제2 영상을 재생시키는 명령인 것을 특징으로 하는 제어 방법.
  3. 제1항에 있어서,
    상기 제1 영상에 복수의 오브젝트에 대응되는 복수의 디스플레이 아이템을 표시하는 단계; 를 더 포함하고,
    상기 사용자 명령은, 상기 복수의 디스플레이 아이템 중 하나를 선택하는 명령인 것을 특징으로 하고,
    상기 제1 프레임에 대한 상기 제1 부가 정보는, 상기 선택된 디스플레이 아이템에 대응되는 부가 정보인 것을 특징으로 하는 제어 방법.
  4. 제3항에 있어서,
    상기 제1 프레임은,
    상기 사용자 명령이 입력된 디스플레이 아이템에 대응되는 오브젝트에 대한 부가 정보를 포함하는 프레임인 것을 특징으로 하는 제어방법.
  5. 4항에 있어서,
    상기 재생하는 단계는,
    상기 사용자 명령이 입력된 시점부터 상기 제1 프레임까지 상기 제1 영상이 재생된 후, 상기 제2 프레임부터 상기 제2 영상을 재생하는 것을 특징으로 하는 제어 방법.
  6. 제1항에 있어서,
    상기 제1 부가 정보를 획득는 단계는,
    상기 제1 프레임에 삽입된 복수의 부가 정보 중, 특정 부가 정보만을 필터링하는 단계; 를 더 포함하는 제어 방법.
     
  7. 제1항에 있어서,
    상기 제2 프레임을 결정하는 단계는,
    상기 제1 부가 정보에 대응되는 제2 부가 정보를 결정하는 단계; 및
    상기 제2 부가 정보에 대응하는 상기 제2 영상의 상기 제2 프레임을 결정하는 단계; 를 포함하는 제어 방법.
     
  8. 제1항에 있어서,
    상기 부가 정보는 GPS 정보, 방위 정보, 시간 정보, 이미지 분석을 통한 대상 정보, 키워드 정보, 음성 키워드 정보 및 해시태그 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 제어 방법.
  9. 제1항에 있어서,
    상기 제1 영상 및 제2 영상의 재생이 종료된 경우,
    상기 재생된 제1 영상 및 제2 영상을 합성하여 저장하는 단계; 를 더 포함하는 제어 방법.
  10. 제1항에 있어서,
    상기 제1 영상 및 상기 제2 영상이 파노라마 영상인 경우, 상기 제1프레임의 시야 방향과 상기 제2 프레임의 시야 방향(화각, view point)이 동일한 것을 특징으로 하는 제어 방법.
  11. 전자 장치에 있어서,
    복수의 프레임 중 적어도 하나의 프레임에 대한 부가 정보를 포함하는 제1 영상 및 제2 영상을 재생하는 디스플레이; 및
    상기 제1 영상을 재생하는 동안, 상기 제2 영상을 재생하기 위한 기 설정된 사용자 명령이 입력되면, 상기 제1 영상에 포함된 복수의 프레임 중, 상기 사용자 명령에 대응되는 제1 프레임을 결정하고,
    상기 제1 프레임과 관련된 제1 부가 정보를 획득하고,
    상기 제1 부가 정보를 바탕으로, 상기 제2 영상의 제2 프레임을 결정하고, , 상기 제2프레임부터 상기 제2 영상을 재생하는 프로세서;를 포함하는 전자 장치.
  12. 제11항에 있어서,
    상기 제1 프레임은, 상기 사용자 명령이 입력된 시점(time)에 재생중인 프레임이고,
    상기 사용자 명령은, 상기 제2 영상을 재생시키는 명령인 것을 특징으로 하는 전자 장치.
  13. 제11항에 있어서,
    상기 디스플레이는,
    상기 제1 영상에 복수의 오브젝트에 대응되는 복수의 디스플레이 아이템을 표시하고,
    상기 사용자 명령은, 상기 복수의 디스플레이 아이템 중 하나를 선택하는 명령인 것을 특징으로 하고, 상기 제1 프레임에 대한 상기 제1 부가 정보는, 상기 선택된 디스플레이 아이템에 대응되는 부가 정보인 것을 특징으로 하는 전자 장치.
  14. 제13항에 있어서,
    상기 제1 프레임은,
    상기 사용자 명령이 입력된 디스플레이 아이템에 대응되는 오브젝트에 대한 부가 정보를 포함하는 프레임인 것을 특징으로 하는 전자 장치
  15. 14항에 있어서,
    상기 디스플레이는,
    상기 사용자 명령이 입력된 시점부터 상기 제1 프레임까지 상기 제1 영상이 재생하고, 상기 제2 프레임부터 상기 제2 영상을 재생하는 것을 특징으로 하는 전자 장치.
  16. 제11항에 있어서,
    상기 프로세서는,
    상기 제1 프레임에 삽입된 복수의 부가 정보 중, 특정 부가 정보만을 필터링하는 것을 특징으로 하는 전자 장치.
     
  17. 제11항에 있어서,
    상기 프로세서는,
    상기 제1 부가 정보에 대응되는 제2 부가 정보를 결정하고, 상기 제2 부가 정보에 대응되는 상기 제2 영상의 상기 제2 프레임을 결정하는 것을 특징으로 하는 전자 장치.
     
  18. 제11항에 있어서,
    상기 부가 정보는 GPS 정보, 방위 정보, 시간 정보, 이미지 분석을 통한 대상 정보, 키워드 정보, 음성 키워드 정보 및 해시태그 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 전자 장치.
  19. 제11항에 있어서,
    상기 프로세서는,
    상기 제1 영상 및 제2 영상의 재생이 종료된 경우, 상기 재생된 제1 영상 및 제2 영상을 합성하는 것을 특징으로 하는 전자 장치.
     
  20. 제11항에 있어서,
    상기 디스플레이는,
    상기 제1영상 및 상기 제2 영상이 파노라마 영상인 경우, 상기 제1프레임의 시야 방향과 상기 제2 프레임의 시야 방향이 동일하게 디스플레이 하는 전자 장치.

KR1020170132226A 2016-11-11 2017-10-12 전자 장치 및 그의 제어 방법 KR102372181B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2017/012570 WO2018088785A1 (ko) 2016-11-11 2017-11-08 전자 장치 및 그의 제어 방법

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201662420639P 2016-11-11 2016-11-11
US62/420,639 2016-11-11
KR1020170029510 2017-03-08
KR1020170029510A KR20180053208A (ko) 2016-11-11 2017-03-08 전자 장치 및 그의 제어 방법

Publications (2)

Publication Number Publication Date
KR20180053221A KR20180053221A (ko) 2018-05-21
KR102372181B1 true KR102372181B1 (ko) 2022-03-08

Family

ID=80812172

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170132226A KR102372181B1 (ko) 2016-11-11 2017-10-12 전자 장치 및 그의 제어 방법

Country Status (1)

Country Link
KR (1) KR102372181B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102569032B1 (ko) * 2019-01-22 2023-08-23 삼성전자주식회사 전자 장치 및 그의 컨텐트 제공 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100082585A1 (en) 2008-09-23 2010-04-01 Disney Enterprises, Inc. System and method for visual search in a video media player
US20120290933A1 (en) 2011-05-09 2012-11-15 Google Inc. Contextual Video Browsing

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100002759A (ko) * 2008-06-30 2010-01-07 주식회사 케이티 동영상 객체정보를 활용한 vod 추천서비스 제공방법 및시스템
KR101679199B1 (ko) * 2015-02-23 2016-11-24 주식회사 엘지유플러스 동영상 관리 서버 및 동영상 재생 장치, 이들을 이용한 등장 인물 정보 제공 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100082585A1 (en) 2008-09-23 2010-04-01 Disney Enterprises, Inc. System and method for visual search in a video media player
US20120290933A1 (en) 2011-05-09 2012-11-15 Google Inc. Contextual Video Browsing

Also Published As

Publication number Publication date
KR20180053221A (ko) 2018-05-21

Similar Documents

Publication Publication Date Title
KR102071579B1 (ko) 화면 미러링을 이용한 서비스 제공 방법 및 그 장치
US9628744B2 (en) Display apparatus and control method thereof
US8913171B2 (en) Methods and systems for dynamically presenting enhanced content during a presentation of a media content instance
US10537798B2 (en) Server apparatus, dynamic-image delivery system, and control method and computer readable storage medium used therein
US20170330598A1 (en) Method and system for creating and using video tag
ES2914124T3 (es) Focalización multimedia
CN111357296B (zh) 影像分发装置、影像分发系统、影像分发方法及存储介质
US20120081529A1 (en) Method of generating and reproducing moving image data by using augmented reality and photographing apparatus using the same
US8943020B2 (en) Techniques for intelligent media show across multiple devices
US11223853B2 (en) Image display method and electronic device therefor
JP6046874B1 (ja) 情報処理装置、情報処理方法、プログラム
US20230100461A1 (en) Content discovery refresh
US20160012851A1 (en) Image processing device, image processing method, and program
KR20150023406A (ko) 캡쳐된 지리적 메타데이터의 향상 방법
WO2019047472A1 (zh) 弹幕的显示
US20150193911A1 (en) Display control device, display control system, and display control method
KR102501713B1 (ko) 영상 표시 방법 및 그 전자장치
WO2019119643A1 (zh) 移动直播的互动终端、方法及计算机可读存储介质
US20140324953A1 (en) Terminal device and content displaying method thereof, server and controlling method thereof
JP6617547B2 (ja) 画像管理システム、画像管理方法、プログラム
KR20170012109A (ko) 동화상 재생 프로그램, 장치, 및 방법
KR102372181B1 (ko) 전자 장치 및 그의 제어 방법
CN112288877A (zh) 视频播放方法、装置、电子设备及存储介质
GB2513865A (en) A method for interacting with an augmented reality scene
US20220350650A1 (en) Integrating overlaid digital content into displayed data via processing circuitry using a computing memory and an operating system memory

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant