KR20140011264A - 영상 제공 시스템 및 방법 - Google Patents

영상 제공 시스템 및 방법 Download PDF

Info

Publication number
KR20140011264A
KR20140011264A KR1020130081194A KR20130081194A KR20140011264A KR 20140011264 A KR20140011264 A KR 20140011264A KR 1020130081194 A KR1020130081194 A KR 1020130081194A KR 20130081194 A KR20130081194 A KR 20130081194A KR 20140011264 A KR20140011264 A KR 20140011264A
Authority
KR
South Korea
Prior art keywords
video
external device
image
resolution
region
Prior art date
Application number
KR1020130081194A
Other languages
English (en)
Other versions
KR102091137B1 (ko
Inventor
김도형
김용태
전윤우
정연건
전혜영
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to BR112015001112A priority Critical patent/BR112015001112A2/pt
Priority to RU2015105185A priority patent/RU2653305C2/ru
Priority to PCT/KR2013/006257 priority patent/WO2014014238A1/en
Priority to US13/944,279 priority patent/US9204090B2/en
Priority to JP2013148383A priority patent/JP6271892B2/ja
Priority to CN201310299684.5A priority patent/CN103546716A/zh
Priority to EP13176900.2A priority patent/EP2688295B1/en
Priority to TW102125571A priority patent/TWI584641B/zh
Publication of KR20140011264A publication Critical patent/KR20140011264A/ko
Priority to US14/936,188 priority patent/US9654728B2/en
Priority to US15/484,502 priority patent/US10075673B2/en
Application granted granted Critical
Publication of KR102091137B1 publication Critical patent/KR102091137B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/39Control of the bit-mapped memory
    • G09G5/391Resolution modifying circuits, e.g. variable screen formats
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working

Abstract

영상 제공 시스템 및 방법이 제공된다. 영상 제공 방법은, 원본 해상도를 가진 제 1 동영상을 제 1 해상도로 외부 기기로 전송하는 단계; 상기 외부 기기에서 상기 제 1 해상도로 표시되는 상기 제 1 동영상의 관심 영역에 관한 영역 정보를 상기 외부 기기로부터 수신하는 단계; 상기 영역 정보에 기초하여, 상기 원본 해상도의 상기 제 1 동영상에서 상기 관심 영역에 대응되는 영역을 결정하는 단계; 상기 원본 해상도의 제 1 동영상의 일부를 제 2 동영상으로 변환하는 단계; 및 상기 제 2 동영상을 상기 제 1 해상도로 상기 외부 기기로 전송하는 단계를 포함한다.

Description

영상 제공 시스템 및 방법{SYSTEM AND METHOD FOR RPOVIDING IMAGE}
본 발명은 디바이스에서 촬영되는 영상의 일부에 대응되는 객체를 포함하는 영상을 다른 디바이스에게 제공하는 영상 제공 시스템 및 방법에 관한 것이다.
최근 들어, 멀티미디어 기능을 구비한 디바이스 간에 영상을 송수신하는 기술이 활성화되고 있다, 특히, 이동 통신 인프라의 구축이 이루어지고, 스마트폰, 휴대폰, PDA(Personal Digital Assistance) 등이 보편화됨에 따라 기존의 음성 통화 기능을 벗어난 다양한 서비스들이 제공되고 있다.
또한, 디바이스를 이용한 화상 통화는 원거리에서 양측의 사용자가 상대방 사용자를 직접 대면하면서 통화할 수 있기 때문에 그 사용이 급격히 확대되고 있다.
일반적으로, 송신 측의 디바이스는 화상 통화를 위하여 사용자의 영상을 취득하고 소정의 동영상 비디오 인코딩 포맷에 따라 취득된 영상을 인코딩한 후 다른 디바이스에게 송출한다.
또한, 수신 측의 디바이스는 이동 통신망으로부터 인코딩된 비디오 데이터를 수신하고 이를 디코딩한 후 수신 측의 디바이스에 내장된 디스플레이 장치, 예컨대 LCD(Liquid Crystal Display)를 사용하여 디스플레이한다. 따라서, 수신 측의 사용자는 송신 측의 디바이스에 의하여 촬영된 영상을 실시간으로 보면서 통화를 수행할 수 있게 된다.
그런데, 디바이스들에 포함된 디스플레이 장치의 해상도가 각각 상이하며, 디바이스 간에 전송되는 데이터들의 스트리밍 해상도가 통신 방법에 따라 상이하므로, 송신 측의 디바이스에서 촬영된 동영상의 일부를 효과적으로 수신 측의 디바이스에게 제공할 수 있는 기술이 요구되고 있다. 게다가, 영상 통화 시에, 송신 측의 디바이스에 의해 촬영된 영상의 일부분을 효과적으로 선택하고 확대하여 사용자에게 제공할 수 있는 기술이 요구되고 있다.
본 발명의 일 실시예는 디바이스가 촬영되고 있는 영상에 포함된 객체를 추적하고, 추적된 객체를 포함하는 일부 영상을 다른 디바이스에게 제공할 수 있도록 하는 영상 제공 시스템 및 방법을 제공한다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제 1 측면은, 촬영되고 있는 영상에 기초하여 제 1 동영상을 외부 기기로 전송하는 단계; 상기 외부 기기로부터 상기 제 1 동영상의 일부 영역에 관한 영역 정보를 수신하는 단계; 상기 촬영되고 있는 영상으로부터 상기 영역 정보와 관련된 객체를 식별하여 추적하는 단계; 및 상기 촬영되고 있는 영상에 기초하여, 상기 추적된 객체를 포함하는 제 2 동영상을 상기 외부 기기에게 제공하는 단계;를 포함하는, 영상 제공 방법을 제공할 수 있다.
또한, 상기 영역 정보는, 상기 외부 기기에 의해 선택된 일부 영역에 관한 정보이며, 상기 외부 기기에 의해 생성될 수 있다.
또한, 상기 외부 기기의 화면이 터치되면, 상기 터치된 부분을 포함하는 객체를 포함하는 영역이 상기 일부 영역으로 선택될 수 있다.
또한, 상기 외부 기기의 화면이 터치되면, 상기 터치된 부분으로부터 기 설정된 범위의 영역이 상기 일부 영역으로 선택될 수 있다.
또한, 상기 외부 기기의 화면이 터치되면, 상기 터치된 지점에 대한 좌표 정보를 상기 외부 기기로부터 수신하는 단계;를 포함하며, 상기 객체를 식별하여 추척하는 단계는, 상기 수신된 좌표 정보에 기초하여, 상기 촬영되고 있는 영상으로부터, 상기 터치된 지점에 대응되는 객체를 식별하고 추적할 수 있다.
또한, 상기 외부 기기의 화면이 터치되면, 상기 일부 영역을 선택하기 위한 사용자 인터페이스가 상기 외부 기기의 화면에 디스플레이될 수 있다.
또한, 상기 제 1 동영상 및 상기 제 2 동영상은 상기 외부기기와의 영상 통화를 위한 동영상이며, 상기 촬영되고 있는 영상의 해상도는 상기 영상 통화의 스트리밍 해상도보다 큰 것일 수 있다.
또한, 상기 외부 기기와의 통신 방법의 종류에 따라, 상기 일부 영역의 범위가 결정될 수 있다.
또한, 상기 외부기기와의 통신 방법의 종류에 따라, 상기 제 1 동영상 및 상기 제 2 동영상 중 적어도 하나의 해상도가 결정될 수 있다.
또한, 상기 방법은, 상기 외부기기와의 통신 방법이 변경됨에 따라, 상기 제 1 동영상 및 상기 제 2 동영상 중 적어도 하나의 해상도를 변경하는 단계;를 더 포함할 수 있다.
또한, 상기 방법은, 상기 외부기기와의 통신 방법이 변경됨에 따라, 상기 제 2 동영상에 대응되는 영역을 변경하는 단계; 및 상기 변경된 영역에 대한 동영상을 상기 외부 기기에게 제공하는 단계;를 더 포함할 수 있다.
또한, 상기 방법은, 상기 촬영되고 있는 영상으로부터 상기 객체가 사라지면, 상기 제 2 동영상에 대응되는 영역을 변경하는 단계; 및 상기 변경된 영역에 대한 동영상을 상기 외부 기기에게 제공하는 단계;를 더 포함할 수 있다.
또한, 상기 방법은, 상기 사라진 객체가 상기 촬영되고 있는 영상에 나타나면, 상기 촬영되고 있는 영상의 전체 영역 중에서 상기 나타난 객체를 포함하는 일부 영역의 동영상을 상기 외부기기에게 제공하는 단계;를 더 포함할 수 있다.
또한, 본 발명의 제 2 측면은, 외부 기기로부터 제 1 동영상을 수신하는 단계; 상기 수신된 제 1 동영상의 일부 영역에 관한 영역 정보를 상기 외부 기기에게 제공하는 단계; 및 상기 제공된 일부 영역과 관련된 객체를 포함하는 제 2 동영상을 상기 외부 기기로부터 수신하는 단계;를 포함하며, 상기 제 1 동영상 및 상기 제 2 동영상은, 상기 외부 기기에서 촬영되고 있는 동영상에 기초하여 상기 외부 기기로부터 제공되며, 상기 객체는 상기 촬영되고 있는 동영상으로부터 상기 외부 기기에 의해 식별되고 추적된 것인, 영상 수신 방법을 제공할 수 있다.
또한, 상기 방법은, 사용자 입력에 기초하여 상기 일부 영역을 선택하는 단계; 및 상기 선택된 일부 영역에 관한 상기 영역 정보를 생성하는 단계;를 더 포함할 수 있다.
또한, 상기 일부 영역을 선택하는 단계는 상기 외부 기기의 화면이 터치되면, 상기 터치된 부분을 포함하는 객체를 포함하는 영역을 상기 일부 영역으로 선택할 수 있다.
또한, 상기 일부 영역을 선택하는 단계는 상기 외부 기기의 화면이 터치되면, 상기 터치된 부분으로부터 기 설정된 범위의 영역을 상기 일부 영역으로 선택할 수 있다.
또한, 상기 영역 정보를 제공하는 단계는 상기 외부 기기의 화면이 터치되면, 상기 터치된 지점에 대한 좌표 정보를 상기 외부 기기에게 제공하며, 상기 제공된 좌표 정보는, 상기 외부 기기가, 상기 촬영되고 있는 영상으로부터, 상기 터치된 지점에 대응되는 객체를 식별하고 추적하는데 이용될 수 있다.
또한, 상기 방법은, 상기 외부 기기의 화면이 터치되면, 상기 일부 영역을 선택하기 위한 사용자 인터페이스를 디스플레이하는 단계;를 더 포함할 수 있다.
또한, 상기 제 1 동영상 및 상기 제 2 동영상은 상기 외부기기와의 영상 통화를 위한 동영상이며, 상기 촬영되고 있는 영상의 해상도는 상기 영상 통화의 스트리밍 해상도보다 큰 것일 수 있다.
또한, 상기 외부 기기와의 통신 방법의 종류에 따라, 상기 일부 영역의 범위가 결정될 수 있다.
또한, 상기 외부기기와의 통신 방법의 종류에 따라, 상기 외부 기기에서 상기 제 1 동영상 및 상기 제 2 동영상 중 적어도 하나의 해상도가 결정될 수 있다.
또한, 상기 외부기기와의 통신 방법이 변경됨에 따라, 상기 외부 기기에 의해 상기 제 1 동영상 및 상기 제 2 동영상 중 적어도 하나의 해상도가 변경될 수 있다.
또한, 상기 외부기기와의 통신 방법이 변경됨에 따라, 상기 일부 영역이 변경될 수 있다.
또한, 상기 촬영되고 있는 영상으로부터 상기 객체가 사라지면, 상기 제 2 동영상에 대응되는 영역이 변경되며, 상기 방법은, 상기 변경된 영역에 대한 동영상을 상기 외부 기기로부터 수신하는 단계;를 더 포함할 수 있다.
또한, 상기 방법은, 상기 사라진 객체가 상기 촬영되고 있는 영상에 나타나면, 상기 나타난 객체를 포함하는 동영상을 상기 외부기기로부터 수신하는 단계;를 더 포함할 수 있다.
또한, 본 발명의 제 3 측면은, 적어도 하나의 프로그램이 저장되는 메모리; 및 상기 적어도 하나의 프로그램을 실행함으로써 외부 기기에게 동영상을 제공하는 프로세서를 포함하고, 상기 적어도 하나의 프로그램은, 촬영되고 있는 영상에 기초하여 제 1 동영상을 외부 기기로 전송하는 단계; 상기 외부 기기로부터 상기 제 1 동영상의 일부 영역에 관한 영역 정보를 수신하는 단계; 상기 촬영되고 있는 영상으로부터 상기 영역 정보와 관련된 객체를 식별하여 추적하는 단계; 및 상기 촬영되고 있는 영상에 기초하여, 상기 추적된 객체를 포함하는 제 2 동영상을 상기 외부 기기에게 제공하는 단계;를 실행하는 명령어들을 포함하는 것을 특징으로 하는, 디바이스를 제공할 수 있다.
또한, 상기 영역 정보는, 상기 외부 기기에 의해 선택된 일부 영역에 관한 정보이며, 상기 외부 기기에 의해 생성될 수 있다.
또한, 상기 외부 기기의 화면이 터치되면, 상기 터치된 부분을 포함하는 객체를 포함하는 영역이 상기 일부 영역으로 선택될 수 있다.
또한, 상기 외부 기기의 화면이 터치되면, 상기 터치된 부분으로부터 기 설정된 범위의 영역이 상기 일부 영역으로 선택될 수 있다.
또한, 상기 디바이스는, 상기 외부 기기의 화면이 터치되면, 상기 터치된 지점에 대한 좌표 정보를 상기 외부 기기로부터 수신하는 단계;를 실행하는 명령어들을 더 포함하며, 상기 객체를 식별하여 추척하는 단계는, 상기 수신된 좌표 정보에 기초하여, 상기 촬영되고 있는 영상으로부터, 상기 터치된 지점에 대응되는 객체를 식별하고 추적할 수 있다.
또한, 상기 외부 기기의 화면이 터치되면, 상기 일부 영역을 선택하기 위한 사용자 인터페이스가 상기 외부 기기의 화면에 디스플레이될 수 있다.
또한, 상기 제 1 동영상 및 상기 제 2 동영상은 상기 외부기기와의 영상 통화를 위한 동영상이며, 상기 촬영되고 있는 영상의 해상도는 상기 영상 통화의 스트리밍 해상도보다 큰 것일 수 있다.
또한, 상기 외부 기기와의 통신 방법의 종류에 따라, 상기 일부 영역의 범위가 결정될 수 있다.
또한, 상기 외부기기와의 통신 방법의 종류에 따라, 상기 제 1 동영상 및 상기 제 2 동영상 중 적어도 하나의 해상도가 결정될 수 있다.
또한, 상기 디바이스는, 상기 외부기기와의 통신 방법이 변경됨에 따라, 상기 제 1 동영상 및 상기 제 2 동영상 중 적어도 하나의 해상도를 변경하는 단계;를 실행하는 명령어들을 더 포함할 수 있다.
또한, 상기 디바이스는, 상기 외부기기와의 통신 방법이 변경됨에 따라, 상기 제 2 동영상에 대응되는 영역을 변경하는 단계; 및 상기 변경된 영역에 대한 동영상을 상기 외부 기기에게 제공하는 단계;를 실행하는 명령어들을 더 포함할 수 있다.
또한, 상기 디바이스는, 상기 촬영되고 있는 영상으로부터 상기 객체가 사라지면, 상기 제 2 동영상에 대응되는 영역을 변경하는 단계; 및 상기 변경된 영역에 대한 동영상을 상기 외부 기기에게 제공하는 단계;를 실행하는 명령어들을 더 포함할 수 있다.
또한, 상기 디바이스는, 상기 사라진 객체가 상기 촬영되고 있는 영상에 나타나면, 상기 촬영되고 있는 영상의 전체 영역 중에서 상기 나타난 객체를 포함하는 일부 영역의 동영상을 상기 외부기기에게 제공하는 단계;를 실행하는 명령어들을 더 포함할 수 있다.
또한, 본 발명의 제 4 측면은, 적어도 하나의 프로그램이 저장되는 메모리; 및 상기 적어도 하나의 프로그램을 실행함으로써 외부 기기로부터 동영상을 수신하도록 하는 프로세서를 포함하고, 상기 적어도 하나의 프로그램은, 상기 외부 기기로부터 제 1 동영상을 수신하는 단계; 상기 수신된 제 1 동영상의 일부 영역에 관한 영역 정보를 상기 외부 기기에게 제공하는 단계; 및 상기 제공된 일부 영역과 관련된 객체를 포함하는 제 2 동영상을 상기 외부 기기로부터 수신하는 단계;를 실행하는 명령어들을 포함하며, 상기 제 1 동영상 및 상기 제 2 동영상은, 상기 외부 기기에서 촬영되고 있는 동영상에 기초하여 상기 외부 기기로부터 제공되며, 상기 객체는 상기 촬영되고 있는 동영상으로부터 상기 외부 기기에 의해 식별되고 추적된 것인, 디바이스를 제공할 수 있다.
또한, 상기 디바이스는, 사용자 입력에 기초하여 상기 일부 영역을 선택하는 단계; 및 상기 선택된 일부 영역에 관한 상기 영역 정보를 생성하는 단계;를 실행하는 명령어들을 더 포함할 수 있다.
또한, 상기 일부 영역을 선택하는 단계는 상기 외부 기기의 화면이 터치되면, 상기 터치된 부분을 포함하는 객체를 포함하는 영역을 상기 일부 영역으로 선택할 수 있다.
또한, 상기 일부 영역을 선택하는 단계는 상기 외부 기기의 화면이 터치되면, 상기 터치된 부분으로부터 기 설정된 범위의 영역을 상기 일부 영역으로 선택할 수 있다.
또한, 상기 영역 정보를 제공하는 단계는 상기 외부 기기의 화면이 터치되면, 상기 터치된 지점에 대한 좌표 정보를 상기 외부 기기에게 제공하며, 상기 제공된 좌표 정보는, 상기 외부 기기가, 상기 촬영되고 있는 영상으로부터, 상기 터치된 지점에 대응되는 객체를 식별하고 추적하는데 이용될 수 있다.
또한, 상기 디바이스는, 상기 외부 기기의 화면이 터치되면, 상기 일부 영역을 선택하기 위한 사용자 인터페이스를 디스플레이하는 단계;를 실행하는 명령어들을 더 포함할 수 있다.
또한, 상기 제 1 동영상 및 상기 제 2 동영상은 상기 외부기기와의 영상 통화를 위한 동영상이며, 상기 촬영되고 있는 영상의 해상도는 상기 영상 통화의 스트리밍 해상도보다 큰 것일 수 있다.
또한, 상기 외부 기기와의 통신 방법의 종류에 따라, 상기 일부 영역의 범위가 결정될 수 있다.
또한, 상기 외부기기와의 통신 방법의 종류에 따라, 상기 외부 기기에서 상기 제 1 동영상 및 상기 제 2 동영상 중 적어도 하나의 해상도가 결정될 수 있다.
또한, 상기 외부기기와의 통신 방법이 변경됨에 따라, 상기 외부 기기에 의해 상기 제 1 동영상 및 상기 제 2 동영상 중 적어도 하나의 해상도가 변경될 수 있다.
또한, 상기 외부기기와의 통신 방법이 변경됨에 따라, 상기 일부 영역이 변경될 수 있다.
또한, 상기 촬영되고 있는 영상으로부터 상기 객체가 사라지면, 상기 제 2 동영상에 대응되는 영역이 변경되며, 상기 디바이스는, 상기 변경된 영역에 대한 동영상을 상기 외부 기기로부터 수신하는 단계;를 실행하는 명령어들을 더 포함할 수 있다.
또한, 상기 디바이스는 상기 사라진 객체가 상기 촬영되고 있는 영상에 나타나면, 상기 나타난 객체를 포함하는 동영상을 상기 외부기기로부터 수신하는 단계;를 실행하는 명령어들을 더 포함할 수 있다.
도 1은 본 발명의 일 실시예에 따른 영상 제공 시스템의 전체 개요도이다.
도 2는 본 발명의 일 실시예에 따른 제 1 디바이스(100)에서 촬영된 영상의 일부에 대응되는 객체를 포함하는 영상이 제 2 디바이스(200)에서 표시되는 일례를 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 제 1 디바이스(100)가 촬영 중인 동영상의 일부 영역에 대응되는 객체를 포함하는 동영상을 제 2 디바이스(200)에게 제공하는 방법의 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 제 2 디바이스(200)가 관심 영역에 관한 영역 정보를 생성하는 방법의 흐름도이다.
도 5는 본 발명의 일 실시예에 따른 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법이 변경되는 경우에 제 1 디바이스(100)가 선택된 관심 영역을 변경하고 변경된 영역에 대한 동영상을 제 2 디바이스(200)에게 제공하는 방법의 흐름도이다.
도 6은 본 발명의 일 실시예에 따른 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법이 변경되는 경우에 제 1 디바이스(100)가 변경된 해상도의 동영상을 제 2 디바이스(200)에게 제공하는 방법의 흐름도이다.
도 7은 본 발명의 다른 실시예에 따른 제 1 디바이스(100)가 촬영 중인 동영상의 일부 영역에 대응되는 객체를 포함하는 동영상을 제 2 디바이스(200)에게 제공하는 방법의 흐름도이다.
도 8은 본 발명의 일 실시예에 따른 사용자의 터치 지점을 포함하는 객체가 포함되도록 제 2 디바이스(200)가 제 1 동영상의 일부 영역을 관심 영역으로 결정하는 일례를 도시한 도면이다.
도 9는 본 발명의 일 실시예에 따른 제 2 디바이스(200)가 사용자의 터치 지점으로부터 기 설정된 범위의 일부 영역을 관심 영역으로 결정하는 일례를 도시한 도면이다.
도 10은 본 발명의 일 실시예에 따른 일부 영역을 결정하기 위한 사용자 인터페이스를 이용하여, 제 2 디바이스(200)가 제 1 동영상의 일부 영역을 관심 영역으로 결정하는 일례를 도시한 도면이다.
도 11은 본 발명의 일 실시예에 따른 제 1 디바이스(100)와 제 2 디바이스(200)간의 통신 방법에 변경되는 경우에, 제 2 디바이스(200)가 제 1 디바이스(100)로부터 해상도가 변경된 동영상을 제공받는 일례를 도시한 도면이다.
도 12는 본 발명의 일 실시예에 따른 제 1 디바이스(100)와 제 2 디바이스(200)간의 통신 방법에 변경되는 경우에, 제 2 디바이스(200)가 제 1 디바이스(100)로부터 화질이 변경된 동영상을 제공받는 일례를 도시한 도면이다.
도 13은 본 발명의 일 실시예에 따른 제 1 디바이스(100)와 제 2 디바이스(200)간의 통신 방법에 변경되는 경우에, 제 2 디바이스(200)가 제 1 디바이스(100)로부터 변경된 일부 영역에 대한 동영상을 제공받는 일례를 도시한 도면이다.
도 14는 본 발명의 일 실시예에 따른 제 1 디바이스(100)의 블록도이다.
도 15는 본 발명의 일 실시예에 따른 제 2 디바이스(200)의 블록도이다.
도 16은 본 발명의 다른 실시에에 따른 디바이스의 블록도이다.
도 17은 본 발명의 일 실시예에 따른 제 2 디바이스(200)에 표시된 제 1 동영상의 화면의 일부 영역을 확대하는 일례를 도시한 도면이다.
도 18은 본 발명의 일 실시예에 따른 제 2 디바이스(200)에 표시된 동영상의 화면이 단계적으로 확대되는 일례를 도시한 도면이다.
도 19는 본 발명의 일 실시예에 따른 제 2 디바이스(200)에서 제 1 동영상의 일부 영역이 확대된 미리 보기 영상이 표시된 이후에, 제 1 디바이스(100)로부터 제공된 제 2 동영상이 표시되는 일례를 도시한 도면이다.
도 20은 본 발명의 일 실시예에 따른 RTP(Real-time Transfer Protocol) 패킷 헤더의 일례를 도시한 도면이다.
도 21은 본 발명의 일 실시예에 따른 제 1 디바이스(100)가 제 4 영상을 생성하는 방법의 흐름도이다.
도 22은 본 발명의 일 실시예에 따른, 제 1 디바이스(100)와 영상 통화를 하고 있는 제 2 디바이스(200)가, 제 1 동영상의 일부 영역에 대하여 확대된 제 2 동영상을 수신하는 방법의 흐름도이다.
도 23은 본 발명의 일 실시예에 따른, 제 1 디바이스(100)와 영상 통화를 하고 있는 제 2 디바이스(200)가, 제 1 동영상의 일부 영역을 확대하여 표시하는 방법의 흐름도이다.
도 24는 본 발명의 일 실시예에 따른, 제 1 동영상에서 선택된 일부 영역에 대한 확대 영상이, 제 1 동영상과 함께, 제 2 디바이스(200)의 화면에 표시되는 일례를 도시한 도면이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 영상 제공 시스템의 전체 개요도이다.
도 1은 참조하면, 제 1 디바이스(100) 및 제 2 디바이스(200)는 서로 영상 통화를 수행할 수 있으며, 제 1 디바이스(100)는 촬영 중인 동영상을 제 2 디바이스(200)에게 제공할 수 있다. 또한, 제 2 디바이스(200)도 촬영 중인 동영상을 제 1 디바이스(100)에게 제공할 수 있다.
이하에서는 설명의 편의상 본 발명의 일 실시예에 따른 영상 제공 시스템에서 제 1 디바이스(100)가 제 2 디바이스(200)에게 동영상을 제공하는 경우에 대하여 설명하기로 한다. 또한, 이하에서는 제 1 디바이스(100)가 제 2 디바이스(200)에게 제공하는 콘텐트가 제 1 디바이스(100)에서 촬영되는 동영상인 것으로 설명하였지만, 이에 제한되지 않으며, 제 1 디바이스(100)는 제 2 디바이스(200)에게, 예를 들어, 비디오 영상, 사진 이미지, 캡쳐 이미지, 애플리케이션 실행 이미지 등의 콘텐트를 제공할 수도 있다.
제 1 디바이스(100)는 제 1 디바이스(100)에 의해 촬영된 동영상에 기초하여, 제 1 동영상을 제 2 디바이스(200)에게 제공할 수 있으며, 제 1 동영상에 포함된 객체에 대한 영역 정보를 제 2 디바이스(200)로부터 수신할 수 있다. 또한, 제 1 디바이스(100)는 수신된 영역 정보에 기초하여, 제 1 동영상에 포함된 소정의 객체를 추적하고 추적된 객체를 포함하는 일부 영역만을 포함하는 제 2 동영상을 제 2 디바이스(200)에게 제공할 수 있다.
또한, 제 1 디바이스(100)는 촬영되고 있는 동영상의 해상도가, 제 1 디바이스(100)와 제 2 디바이스(200)간에 전송되는 동영상의 스트리밍 해상도보다 큰 경우에, 촬영되고 있는 동영상의 일부 영역에 대한 제 2 동영상을 제 2 디바이스(200)에게 제공할 수 있다.
제 1 디바이스(100) 및 제 2 디바이스(200)는, 다른 디바이스에게 동영상, 이미지 등을 전송할 수 있는 장치로서, 예를 들어, 스마트폰, 휴대폰, PDA(personal digital assistant), 랩톱, 미디어 플레이어, GPS(global positioning system) 장치, 랩톱, 및 기타 모바일 또는 비모바일 컴퓨팅 장치일 수 있으나, 이에 제한되지 않는다
또한, 3개 이상의 디바이스가 함께 영상 통화를 수행할 수도 있다. 예를 들어, 제 1 디바이스(100), 제 2 디바이스(200) 및 제 3 디바이스(미도시)가 함께 영상 통화를 수행할 수 있다. 이 경우, 제 1 디바이스(100)가 제 1 동영상을 제 2 디바이스(200) 및 제 3 디바이스(미도시)에게 제공할 수 있다. 또한, 제 2 디바이스(200)가 제 1 동영상의 일부 영역을 선택하면, 제 1 디바이스(100)는 제 2 디바이스(200) 및 제 3 디바이스(미도시)에게 선택된 일부 영역에 관련된 동영상을 제공할 수 있다. 만약, 제 2 디바이스(200) 및 제 3 디바이스(미도시)가 제 1 동영상의 일부 영역을 각각 선택하면, 제 1 디바이스(100)는 제 2 디바이스(200)에 의해 선택된 영역에 관련된 동영상을 제 2 디바이스(200)에게 제공하고, 제 3 디바이스(미도시)에 의해 선택된 영역에 관련된 동영상을 제 3 디바이스(미도시)에게 제공할 수 있다.
한편, 제 1 디바이스(100)는 제 1 디바이스(100)에서 실행된 애플리케이션의 실행 화면에 대응되는 제 3 영상을 제 2 디바이스(200)에게 제공할 수 있다. 이 경우, 제 2 디바이스(200)는 수신된 제 3 영상의 일부분을 선택하고, 제 1 디바이스(100)로부터 선택된 부분에 대한 제 4 영상을 수신할 수 있다.
도 2는 본 발명의 일 실시예에 따른 제 1 디바이스(100)에서 촬영된 영상의 일부에 대응되는 객체를 포함하는 영상이 제 2 디바이스(200)에서 표시되는 일례를 도시한 도면이다. 또한, 도 2(a)는 본 발명의 일 실시예에 따른 제 1 동영상의 일례를 도시한 도면이며, 도 2(b)는 본 발명의 일 실시예에 따른 제 2 동영상을 도시한 도면이다.
제 1 디바이스(100)는 촬영되고 있는 동영상에 기초하여 제 1 동영상을 제 2 디바이스(200)에게 제공할 수 있으며, 제 1 동영상에 포함된 객체(22)를 확인할 수 있다. 또한, 제 1 디바이스(100)는 확인된 객체(22)를 포함하는 일부 영역만을 포함하는 제 2 동영상을 제 2 디바이스(200)에게 제공할 수 있다.
제 1 디바이스(100)가 촬영 중인 동영상으로부터 소정의 일부 영역(20)에 포함된 객체(22)를 확인할 수 있으나, 이에 제한되지 않는다. 제 1 디바이스(100)는 제 2 디바이스(200)에게 제공하는 제 1 동영상으로부터 객체(22)를 확인할 수도 있다.
도 3은 본 발명의 일 실시예에 따른 제 1 디바이스(100)가 촬영 중인 동영상의 일부 영역에 대응되는 객체를 포함하는 동영상을 제 2 디바이스(200)에게 제공하는 방법의 흐름도이다.
단계 S300에서 제 1 디바이스(100)는 제 2 디바이스(200)에게 제 1 동영상을 제공한다. 제 1 디바이스(100)는 촬영되고 있는 동영상에 기초하여, 제 1 동영상을 제 2 디바이스(200)에게 제공할 수 있다. 제 1 디바이스(100)는 촬영되고 있는 동영상을 별도의 가공없이 제 1 동영상으로 하여 제 2 디바이스(200)에게 제공할 수 있다. 또한, 제 1 디바이스(100)는 촬영되고 있는 동영상을 가공하고, 가공된 동영상을 제 1 동영상으로 하여 제 2 디바이스(200)에게 제공할 수도 있다. 이 경우, 제 1 디바이스(100)는 촬영되고 있는 동영상의 해상도를 변경하거나, 촬영되고 있는 동영상의 포맷을 변환할 수 있다. 예를 들어, 촬영되고 있는 동영상의 해상도가 제 1 디바이스(100)와 제 2 디바이스(200)간의 스트리밍 해상도보가 큰 경우에, 제 1 디바이스(100)는 촬영되고 있는 동영상의 해상도를 스트리밍 해상도와 동일하도록 변환하고, 변환된 해상도의 제 1 동영상을 제 2 디바이스(200)에게 제공할 수 있다. 또한, 제 1 동영상은 복수의 제 1 프레임을 가질 수 있다.
또한, 단계 S300에서 제 1 디바이스(100)는 원본 해상도를 갖는 제 1 동영상을 제 1 해상도로 제 2 디바이스(200)에게 전송할 수 있다. 이 경우, 제 1 디바이스(100)는 제 2 디바이스(200)에 포함된 디스플레이의 해상도에 관한 정보를 미리 획득하여 저장할 수 있으며, 제 2 디바이스(200)에 포함된 디스플레이의 해상도에 기초하여 제 1 해상도를 결정할 수 있다.
한편, 제 1 디바이스(100)는 제 1 디바이스(100)에서 실행된 애플리케이션의 실행 화면에 대응되는 제 3 영상을 제 2 디바이스(200)에게 제공할 수도 있다. 제 1 디바이스(100)는 제 3 영상을 제 3 해상도로 제 2 디바이스(200)에게 제공할 수 있다.
단계 S310에서 제 2 디바이스(200)는 수신된 제 1 동영상을 디스플레이한다. 제 2 디바이스(200)는 수신된 제 1 동영상을 제 2 디바이스(200)의 화면에 디스플레이할 수 있다. 제 2 디바이스(200)는 제 1 해상도의 제 1 동영상을 화면에 디스플레이할 수 있다.
한편, 제 2 디바이스(200)가 제 1 디바이스(100)에서 실행된 애플리케이션의 실행 화면에 대응되는 제 3 영상을 수신한 경우에는, 제 2 디바이스(200)는 수신된 제 3 영상을 디스플레이할 수 있다. 제 2 디바이스(200)는 제 3 영상을 제 3 해상도로 디스플레이할 수 있다.
단계 S320에서 제 2 디바이스(200)는 제 1 동영상에 포함된 객체에 관한 영역 정보를 생성한다. 제 2 디바이스(200)는 사용자 입력에 기초하여 제 1 동영상의 일부 영역을 관심 영역으로 선택하고, 선택된 관심 영역에 관한 영역 정보를 생성할 수 있다. 또한, 제 2 디바이스(200)는 사용자 입력에 기초하여 제 1 동영상에 포함된 소정의 객체를 선택하고, 선택된 객체에 관한 영역 정보를 생성할 수도 있다.
제 2 디바이스(200)는 제 1 동영상에 대한 사용자의 터치 입력을 수신하고, 터치 입력된 지점의 위치에 기초하여 관심 영역을 선택할 수 있다. 구체적으로, 사용자가 제 1 동영상에서 소정의 지점을 터치하면, 제 2 디바이스(200)는 터치된 지점을 포함하는 객체를 식별하고, 식별된 객체를 포함하는 영역을 선택할 수 있다. 예를 들어, 제 1 동영상에서 얼굴 부분이 터치된 경우에, 제 2 디바이스(200)는 터치된 지점을 포함하는 객체인 얼굴을 식별할 수 있다. 또한, 제 2 디바이스(200)는 식별된 얼굴을 포함하는 영역을 관심 영역으로 선택할 수 있다.
또한, 사용자가 제 1 동영상에서 소정의 지점을 터치하면, 제 2 디바이스(200)는 터치된 지점으로부터 기 설정된 범위의 영역을 관심 영역으로 선택할 수 있다. 예를 들어, 제 2 디바이스(200)는 터치된 지점을 중심으로 하는 소정의 크기의 사각형의 영역을 관심 영역으로 선택할 수 있다.
또한, 제 2 디바이스(200)는 사용자가 제 1 동영상의 일부 영역을 관심 영역으로 선택하도록 하기 위한 사용자 인터페이스를 화면에 표시할 수 있다. 예를 들어, 제 2 디바이스(200)는 제 1 동영상의 일부분에 사각형을 표시하고, 사용자가 사각형의 테두리를 터치&드래그하여 사각형의 크기를 변경할 수 있도록 사용자 인터페이스를 제공할 수 있다.
또한, 상기에서는 제 2 디바이스(200)가 사용자 입력에 기초하여 제 1 동영상의 일부 영역을 관심 영역으로 선택하는 것으로 설명하였지만, 이에 제한되지 않는다. 제 2 디바이스(200)는 별도의 사용자 입력없이 제 1 동영상에 포함된 얼굴을 인식하고, 얼굴을 포함하는 소정의 영역을 관심 영역으로 선택할 수 있다.
또한, 제 1 동영상에서 선택되는 관심 영역의 크기는, 제 1 디바이스(100)와 제 2 디바이스(200) 간에 전송되는 데이터의 스트리밍 해상도의 크기에 기초하여 결정될 수 있다. 제 1 디바이스(100)와 제 2 디바이스(200) 간에 전송되는 데이터의 스트리밍 해상도의 크기에 기초하여, 제 1 동영상에서 선택되는 관심 영역의 크기의 상한 값이 결정될 수 있다.
또한, 제 2 디바이스(200)는 선택된 관심 영역에 대한 좌표 정보를 생성할 수 있다. 제 2 디바이스(200)는 제 1 동영상의 전체 영역 중에서 선택된 관심 영역의 위치를 나타내는 좌표 값을 생성할 수 있다. 또한, 제 2 디바이스(200)는 제 1 동영상의 전체 영역 중에서 터치 입력된 지점의 위치를 나타내는 좌표 값을 생성할 수도 있다.
또한, 제 2 디바이스(200)는 제 1 동영상에 포함된 복수의 제 1 프레임 별로 관심 영역에 관한 영역 정보를 생성할 수 있다.
한편, 제 1 디바이스(100)에서 실행된 애플리케이션의 실행 화면에 대응되는 제 3 영상을 제 2 디바이스(200)에게 제공한 경우에는, 제 2 디바이스(200)는 제 3 영상의 일부분을 선택하고, 선택된 영역에 대한 영역 정보를 생성할 수 있다.
단계 S330에서 제 2 디바이스(200)는 생성된 영역 정보를 제 1 디바이스(100)에게 제공한다. 제 2 디바이스(200)는 선택된 관심 영역에 대한 좌표 값을 제 1 디바이스(100)에게 제공할 수 있다. 또한, 제 2 디바이스(200)는 사용자에 의해 터치 입력된 지점의 좌표 값을 제 1 디바이스(100)에게 제공할 수도 있다.
단계 S340에서 제 1 디바이스(100)는 영역 정보에 관련된 객체를 식별한다. 단계 S340에서 제 1 디바이스(100)는 수신된 영역 정보에 기초하여 제 1 동영상으로부터 객체를 식별할 수 있다. 예를 들어, 수신된 영역 정보에 대응되는 제 1 동영상의 영역에 포함된 객체가 얼굴인 경우에, 제 1 디바이스(100)는 제 1 동영상으로부터 얼굴을 식별할 수 있다. 또한, 제 1 동영상에 포함된 복수의 제 1 프레임 별로, 수신된 영역 정보에 관련된 객체를 식별할 수 있다.
또한, 제 1 디바이스(100)는 수신된 영역 정보에 기초하여, 촬영되고 있는 동영상으로부터 객체를 식별할 수도 있다. 수신된 영역 정보는 제 1 동영상의 일부 영역에 대한 영역 정보이기 때문에, 제 1 디바이스(100)는 수신된 영역 정보에 대응되는 제 1 동영상의 영역에 매칭되는 영역을 촬영 중인 동영상으로부터 확인할 수 있다. 또한, 매칭된 영역에 포함된 객체를 촬영 중인 동영상으로부터 식별할 수 있다.
또한, 제 1 디바이스(100)는 제 1 동영상으로부터 식별된 객체를 이용하여 촬영 중인 동영상에 포함된 객체를 식별할 수도 있다. 제 1 디바이스(100)는 제 1 동영상으로부터 식별된 객체의 이미지와 유사한 객체를 촬영 중인 동영상으로부터 식별할 수 있다. 객체들이 상호 유사한지 여부는 다양한 방식으로 결정될 수 있다. 예를 들어, 디바이스(100)는 객체의 크기, 색채 및 형태 중 적어도 하나를 비교함으로써, 객체들이 서로 유사한지를 결정할 수 있다. 다른 예에서, 디바이스(100)는 객체들의 일부분을 상호 비교함으로써, 객체들이 서로 유사한지를 결정할 수도 있다.
만약, 제 1 디바이스(100)가 제 1 디바이스(100)에서 실행된 애플리케이션의 실행 화면에 대응되는 제 3 영상의 일부분에 대한 영역 정보를 제 2 디바이스(200)로부터 수신한 경우에는, 제 1 디바이스(100)는 수신된 영역 정보에 기초하여 제 3 영상으로부터 객체를 식별할 수 있다.
단계 S350 에서 제 1 디바이스(100)는 식별된 객체를 추적한다. 제 1 디바이스(100)는 제 1 동영상으로부터 식별된 객체를 추적할 수 있다. 또한, 제 1 디바이스(100)는 제 1 디바이스(100)에 의해 촬영된 동영상으로부터 식별된 객체를 추적할 수도 있다. 제 1 디바이스(100)에 의해 촬영된 동영상은 제 1 디바이스(100)에 의해 촬영되고 있는 동영상을 포함한다. 식별된 객체는 동영상 내에서 이동하거나 회전할 수 있으며, 제 1 디바이스(100)는 객체의 형상 및 색상에 기초하여 동영상 내의 객체를 추적할 수 있다. 식별된 객체를 추적한다는 것인, 동영상 내에서 객체가 움직이는 경우에 움직이는 객체의 위치 및 객체를 포함하는 영역을 확인하는 것을 의미하나, 이에 제한되지 않는다.
또한, 단계 S350에서 제 1 디바이스(100)는 제 1 동영상의 복수의 제 1 프레임 중에서, 식별된 객체를 포함하는 프레임을 선별할 수 있다. 또한, 제 1 디바이스(100)는 제 1 동영상의 복수의 제 1 프레임 중에서, 식별된 객체를 포함하는 일부 영역을 구별할 수 있다.
만약, 제 1 디바이스(100)가 제 1 디바이스(100)에서 실행된 애플리케이션의 실행 화면에 대응되는 제 3 영상의 일부분에 대한 영역 정보를 제 2 디바이스(200)로부터 수신한 경우에는, 제 1 디바이스(100)는 제 3 영상으로부터 객체를 추적할 수 있다.
단계 S360에서 제 1 디바이스(100)는 제 2 디바이스(200)에게 식별된 객체를 포함하는 일부 영역만을 포함하는 제 2 동영상을 제공한다. 제 1 디바이스(100)는 촬영된 동영상으로부터 식별된 객체를 포함하는 영역을 잘라내고, 잘라낸 동영상을 제 2 동영상으로 하여 제 2 디바이스(200)에게 제공할 수 있다.
구체적으로, 제 1 디바이스(100)는 수신된 영역 정보에 기초하여 원본 해상도의 제 1 동영상의 화면에서 관심 영역에 대응되는 영역을 결정할 수 있다. 또한, 제 1 디바이스(100)는 결정된 영역만을 포함하도록 제 1 동영상을 제 2 동영상으로 변환할 수 있다. 또한, 제 1 디바이스(100)는 제 2 동영상을 제 1 해상도로 제 2 디바이스(200)에게 제공할 수 있다. 예를 들어, 원본 해상도가 1000 x 1000이고, 제 1 해상도가 100 x 100인 경우에, 제 1 디바이스(100)는 결정된 영역에 대응되는 제 1 동영상의 일부분을 제 2 동영상으로 변환하고, 제 2 동영상을 100 x 100의 해상도로 제 2 디바이스(200)에게 전송할 수 있다.
또한, 제 1 디바이스(100)는 제 1 동영상의 복수의 제 1 프레임 중에서, 식별된 객체를 포함하는 일부 영역을 구별하고, 복수의 제 1 프레임의 일부 영역만을 포함하는 복수 개의 제 2 프레임을 갖는 제 2 동영상을 외부 기기에게 제공할 수 있다.
만약, 제 1 디바이스(100)가 제 1 동영상의 복수의 제 1 프레임 중에서, 식별된 객체를 포함하는 프레임을 선별한 경우에는, 선별된 프레임의 일부 영역만을 포함하는 복수 개의 제 2 프레임을 갖는 제 2 동영상을 외부 기기에게 제공할 수 있다. 이 경우, 일부 영역은 관심 영역일 수 있다. 또한, 제 1 디바이스(100)는 선별된 프레임 별로 관심 영역에 대응되는 영역을 잘라냄으로써 제 2 프레임을 생성할 수 있다.
또한, 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법에 따라, 제 1 디바이스(100)는 제 2 동영상에 대응되는 영역의 크기를 결정할 수 있다.
또한, 제 2 동영상은, 단계 S350에서 선별된 프레임의 일부 영역만을 포함하는 복수 개의 제2 프레임을 가질 수 있으나, 이에 제한되지 않는다. 또한, 제 2 동영상은, 단계 S350에서 구별된 일부 영역만을 포함하는 복수 개의 제 2 프레임을 가질 수 있으나, 이에 제한되지 않는다.
또한, 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법에 따라, 제 1 디바이스(100)는 제 2 동영상의 화질 또는 해상도를 결정할 수도 있다. 예를 들어, 식별된 객체를 포함하는 영역의 해상도가, 제 1 디바이스(100)와 제 2 디바이스(200) 간에 전송되는 데이터의 스트리밍 해상도보다 작은 경우에는, 식별된 객체를 포함하는 영역의 해상도 또는 화질을 증가시킬 수 있다. 또한, 예를 들어, 식별된 객체를 포함하는 영역의 해상도가, 제 1 디바이스(100)와 제 2 디바이스(200) 간에 전송되는 데이터의 스트리밍 해상도보다 큰 경우에는, 식별된 객체를 포함하는 영역의 해상도 또는 화질을 감소시킬 수 있다.
제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법은, 예를 들어, 3G (third generation)통신, 4G (fourth generation) 통신, Wifi (wireless fidelity) 통신을 포함할 수 있으나, 이에 제한되지 않는다.
또한, 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법이 변경됨에 따라, 제 1 디바이스(100)는 제 2 동영상에 대응되는 영역의 크기 또는 제 2 동영상의 화질을 변경할 수 있다. 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법은 제 1 디바이스(100) 및 제 2 디바이스(200) 중 적어도 하나가 핸드오버를 수행함에 따라 변경될 수 있다.
또한, 촬영된 동영상에서 식별된 객체가 사라지는 경우(즉 식별된 객체가 촬영되지 않는 경우), 제 1 디바이스(100)는 제 2 동영상에 대응되는 영역을 변경할 수 있다. 예를 들어, 촬영된 동영상에서 식별된 객체가 사라지면, 제 1 디바이스(100)는 촬영된 동영상의 전체 영역을 제 2 디바이스(200)에게 제공할 수 있다. 또한, 이 경우, 제 1 디바이스(100)는, 별도의 사용자 입력에 기초하여, 촬영된 동영상의 전체 영역을 제 2 디바이스(200)에게 제공할 수도 있다.
또한, 사라진 객체가 상기 촬영된 영상에 다시 나타나면(즉, 사라진 객체가 다시 촬영되면), 촬영된 영상의 전체 영역 중에서, 나타난 객체를 포함하는 일부 영역의 동영상을 제 2 디바이스(200)에게 제공할 수 있다.
한편, 제 1 디바이스(100)가 제 1 디바이스(100)에서 실행된 애플리케이션의 실행 화면에 대응되는 제 3 영상의 일부분에 대한 영역 정보를 제 2 디바이스(200)로부터 수신한 경우에는, 제 1 디바이스(100)는 식별된 객체를 포함하는 일부 영역만을 포함하는 제 4 영상을 제 2 디바이스(200)에게 제공할 수 있다. 이 경우, 제 1 디바이스(100)는 제 4 영상을 제 3 해상도로 제 2 디바이스(200)에게 제공할 수 있다.
또한, 제 1 디바이스(100)가 제 1 디바이스(100)에서 실행된 애플리케이션의 실행 화면에 대응되는 제 3 영상의 일부분에 대한 영역 정보를 제 2 디바이스(200)로부터 수신한 경우에, 제 3 영상에 포함된 객체를 식별하거나 추적하지 않을 수 있다. 이 경우, 제 1 디바이스(100)는 수신된 영역 정보에 기초하여 제 3 영상의 일부를 잘라내고, 잘라낸 부분을 제 4 영상을 변환하여 제 2 디바이스(200)에게 제공할 수 있다.
단계 S370에서 제 2 디바이스(200)는 수신된 제 2 동영상을 디스플레이한다. 제 2 디바이스(200)의 사용자는 선택된 일부 영역에 포함된 객체에 대한 보다 자세한 동영상을 확인할 수 있게 된다. 또한, 제 2 디바이스(200)는 수신된 제 2 동영상의 정지 화면을 디스플레이할 수도 있다.
한편, 제 2 디바이스(200)는 제 2 디바이스(200)의 화면에 제 1 동영상 및 제 2 동영상을 함께 디스플레이할 수 있다. 이 경우, 단계 S360에서 제 2 디바이스(200)는 제 2 동영상뿐만 아니라 제 1 동영상을 함께 수신할 수 있다. 또한, 제 2 디바이스(200)는 제 1 동영상 상에 제 2 동영상을 오버랩하여 표시할 수 있다. 제 2 디바이스(200)는 제 1 동영상에서 제 1 디바이스(100)의 사용자가 표시되지 않은 부분에 제 2 동영상을 오버랩할 수 있다. 또한, 제 2 디바이스(200)는 제 1 동영상이 표시되는 영역의 크기 및 제 2 동영상이 표시되는 영역의 크기를 조절할 수 있다. 그러나, 이에 제한되지 않으며, 제 2 디바이스(200)는 제 1 동영상 및 제 2 동영상을 오버랩하지 않고 제 2 디바이스(200)의 화면에 디스플레이할 수도 있다.
한편, 상기에서는, 제 2 디바이스(200)가 제 1 디바이스(100)로부터 제 2 동영상을 수신하고, 제 1 동영상 및 제 2 동영상을 함께 디스플레이할 수 있는 것으로 설명하였지만, 이에 제한되지 않는다. 제 2 디바이스(200)가 제 1 동영상의 일부 영역을 선택하고, 선택된 일부 영역에 대한 확대 영상을 제 1 동영상으로부터 추출하고, 추출된 확대 영상을 제 1 동영상과 함께 제 2 디바이스(200)의 화면에 디스플레이할 수도 있다.
도 4는 본 발명의 일 실시예에 따른 제 2 디바이스(200)가 관심 영역에 관한 영역 정보를 생성하는 방법의 흐름도이다.
단계 S322에서 제 2 디바이스(200)는 제 1 동영상의 일부 영역을 선택하기 위한 사용자 입력을 수신한다. 제 2 디바이스(200)는 제 1 동영상의 일부 영역을 선택하기 위한 사용자의 터치 입력을 수신할 수 있다. 예를 들어, 제 2 디바이스(200)는 제 1 동영상의 소정의 지점을 터치하는 사용자 입력을 수신하거나, 제 1 동영상의 소정의 지점을 터치&드래그하는 사용자 입력을 수신할 수 있다.
또한, 제 2 디바이스(200)는 화면 상에 표시된 소정의 사용자 인터페이스를 통한 사용자의 터치 입력을 수신할 수도 있다. 예를 들어, 제 2 디바이스(200)는 제 1 동영상의 일부분에 사각형을 표시하고, 사용자가 사각형의 테두리를 터치&드래그하여 사각형의 크기를 변경할 수 있도록 사용자 인터페이스를 제공할 수 있다. 또한, 제 2 디바이스(200)는 제공된 사용자 인터페이스를 통한 사용자의 터치 입력을 수신할 수 있다.
단계 S324에서 제 2 디바이스(200)는 제 1 디바이스(100)와의 통신 방법을 확인한다. 제 2 디바이스(200)는 제 1 디바이스(100)와의 통신 방법의 종류 및 대역폭(bandwidth)을 확인할 수 있다. 또한, 제 2 디바이스(200)는 제 1 디바이스(100) 및 제 2 디바이스(200) 간에 전송되는 데이터의 스트리밍 해상도를 확인할 수 있다. 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법은, 예를 들어, 3G (third generation)통신, 4G (fourth generation) 통신, Wifi (wireless fidelrity) 통신을 포함할 수 있으나, 이에 제한되지 않는다.
단계 S326에서 제 2 디바이스(200)는 수신된 사용자 입력 및 확인된 통신 방법에 기초하여 제 1 동영상의 일부 영역을 관심 영역으로 선택한다. 제 2 디바이스(200)는 제 1 동영상에서 터치 입력된 지점의 위치에 기초하여 일부 영역을 선택할 수 있다. 구체적으로, 사용자가 제 1 동영상에서 소정의 지점을 터치하면, 제 2 디바이스(200)는 터치된 지점을 포함하는 객체를 식별하고, 식별된 객체를 포함하는 영역을 선택할 수 있다. 예를 들어, 제 1 동영상에서 얼굴 부분이 터치된 경우에, 제 2 디바이스(200)는 터치된 지점을 포함하는 객체인 얼굴을 식별할 수 있다. 또한, 제 2 디바이스(200)는 식별된 얼굴을 포함하는 영역을 관심 영역으로 선택할 수 있다.
또한, 사용자가 제 1 동영상에서 소정의 지점을 터치하면, 제 2 디바이스(200)는 터치된 지점으로부터 기 설정된 범위의 영역을 관심 영역으로 선택할 수 있다. 예를 들어, 제 2 디바이스(200)는 터치된 지점을 중심으로 하는 소정의 크기의 사각형의 영역을 관심 영역으로 선택할 수 있다.
또한, 제 2 디바이스(200)는 사용자 인터페이스를 통한 사용자의 터치 입력에 따라, 선택된 관심 영역을 변경할 수도 있다.
또한, 제 1 동영상에서 선택되는 관심 영역의 크기는, 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법에 따라, 결정될 수 있다. 예를 들어, 제 1 동영상에서 선택되는 관심 영역의 크기는, 통신 방법의 종류 및 대역폭(bandwidth) 중 적어도 하나에 기초하여 결정될 수 있다. 또한, 예를 들어, 제 1 동영상에서 선택되는 관심 영역의 크기는, 제 1 디바이스(100)와 제 2 디바이스(200) 간에 전송되는 데이터의 스트리밍 해상도의 크기에 기초하여 결정될 수 있다. 또한, 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법에 따라 제 1 동영상에서 선택되는 관심 영역의 크기의 상한 값이 결정될 수 있다.
도 4에서는 제 2 디바이스(200)가 사용자 입력에 기초하여 제 1 동영상의 일부 영역을 선택하는 것으로 설명하였지만, 이에 제한되지 않는다. 제 2 디바이스(200)는 별도의 사용자 입력없이 제 1 동영상에 포함된 얼굴을 인식하고, 얼굴을 포함하는 소정의 영역을 관심 영역으로 선택할 수 있다. 또한, 이 경우, 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법에 따라, 선택되는 관심 영역의 크기가 결정될 수 있다.
도 5는 본 발명의 일 실시예에 따른 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법이 변경되는 경우에 제 1 디바이스(100)가 선택된 관심 영역을 변경하고 변경된 영역에 대한 동영상을 제 2 디바이스(200)에게 제공하는 방법의 흐름도이다.
단계 S500에서 제 1 디바이스(100)는 제 2 디바이스와의 통신 방법이 변경되었는지를 판단한다. 구체적으로, 제 1 디바이스(100)는 제 2 디바이스(200)와의 통신 방법의 종류 및 대역폭(bandwidth)이 변경되었는지를 확인할 수 있다. 또한, 제 2 디바이스(200)는 제 1 디바이스(100) 및 제 2 디바이스(200) 간에 전송되는 데이터의 스트리밍 해상도가 변경되었는지를 확인할 수 있다.
제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법은, 예를 들어, 3G (third generation)통신, 4G (fourth generation) 통신, Wifi (wireless fidelrity) 통신을 포함할 수 있으나, 이에 제한되지 않는다. 또한, 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법은 제 1 디바이스(100) 및 제 2 디바이스(200) 중 적어도 하나가 핸드오버를 수행함에 따라 변경될 수 있다.
단계 S500에서의 판단 결과, 통신 방법이 변경된 경우에, 단계 S510에서 제 1 디바이스(100)는 제 2 디바이스(200)에게 전송되고 있는 제 2 동영상에 대응되는 영역을 변경한다. 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법이 변경됨에 따라, 제 1 디바이스(100)는 제 2 동영상에 대응되는 영역의 크기를 변경할 수 있다.
예를 들어, 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법의 종류가 3G 통신에서 WIFI 통신으로 변경된 경우에, 제 2 동영상에 대응되는 영역보다 큰 영역을 선택할 수 있다. 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법의 종류가 3G 통신일 때 제 1 디바이스(100)가 얼굴 부분의 영역을 전송한 경우에, 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법의 종류가 WIFI 통신으로 변경되었다면, 제 1 디바이스(100)는 얼굴 이외의 배경 부분을 더 포함하도록 일부 영역을 선택할 수 있다. 또한, 예를 들어, 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법의 종류가 4G 통신에서 WIFI 통신으로 변경된 경우에, 제 2 동영상에 대응되는 영역보다 작은 영역을 선택할 수 있다.
또한, 예를 들어, 제 1 디바이스(100)와 제 2 디바이스(200) 간에 전송되는 데이터의 스트리밍 해상도가 변경된 경우에, 제 2 동영상에 대응되는 영역의 크기를 변경할 수 있다.
통신 방법의 종류 및 대역폭(bandwidth) 중 적어도 하나에 대응되는, 영역의 크기 값은 미리 설정되어 제 1 디바이스(100)에 저장될 수 있다. 또한, 제 1 디바이스(100) 및 제 2 디바이스(200) 간에 전송되는 데이터의 스트리밍 해상도에 대응되는, 영역의 크기 값은 미리 설정되어 제 1 디바이스(100)에 저장될 수 있다.
단계 S520에서 제 1 디바이스(100)는 변경된 영역에 대한 동영상을 제 2 디바이스(200)에게 제공한다. 예를 들어, 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법의 종류가 3G 통신에서 WIFI 통신으로 변경된 경우에, 제 1 디바이스(100)는 제 2 동영상에 대응되는 영역보다 더 큰 영역에 대한 동영상을 제 2 디바이스(200)에게 제공할 수 있다. 또한, 예를 들어, 제 1 디바이스(100)와 제 2 디바이스(200) 간에 전송되는 데이터의 스트리밍 해상도의 크기가 작아진 경우에, 제 1 디바이스(100)는 제 2 동영상에 대응되는 영역보다 작은 영역에 대한 동영상을 제 2 디바이스(200)에게 제공할 수 있다.
도 6은 본 발명의 일 실시예에 따른 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법이 변경되는 경우에 제 1 디바이스(100)가 변경된 화질의 동영상을 제 2 디바이스(200)에게 제공하는 방법의 흐름도이다.
단계 S600에서 제 1 디바이스(100)는 제 2 디바이스와의 통신 방법이 변경되었는지를 판단한다. 구체적으로, 제 1 디바이스(100)는 제 2 디바이스(200)와의 통신 방법의 종류 및 대역폭(bandwidth)이 변경되었는지를 확인할 수 있다. 또한, 제 2 디바이스(200)는 제 1 디바이스(100) 및 제 2 디바이스(200) 간에 전송되는 데이터의 스트리밍 해상도가 변경되었는지를 확인할 수 있다.
단계 S600에서의 판단 결과, 통신 방법이 변경된 경우에, 단계 S610에서 제 1 디바이스(100)는 제 2 디바이스(200)에게 전송 중인 제 2 동영상의 화질을 변경한다. 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법이 변경됨에 따라, 제 1 디바이스(100)는 제 2 동영상의 화질을 고화질 또는 저화질로 변경할 수 있다.
예를 들어, 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법의 종류가 3G 통신에서 WIFI 통신으로 변경된 경우에, 제 2 동영상의 화질을 3G 통신에서의 화질보다 고화질로 변경할 수 있다. 또한, 예를 들어, 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법의 종류가 4G 통신에서 WIFI 통신으로 변경된 경우에, 제 2 동영상의 화질을 4G 통신 에서의 화질보다 저화질로 변경할 수 있다.
또한, 예를 들어, 제 1 디바이스(100)와 제 2 디바이스(200) 간에 전송되는 데이터의 스트리밍 해상도가 변경된 경우에, 제 2 동영상의 화질을 변경할 수도 있다.
통신 방법의 종류 및 대역폭(bandwidth) 중 적어도 하나에 대응되는 화질 값은 미리 설정되어 제 1 디바이스(100)에 저장될 수 있다. 또한, 제 1 디바이스(100) 및 제 2 디바이스(200) 간에 전송되는 데이터의 스트리밍 해상도에 대응되는 화질은 미리 설정되어 제 1 디바이스(100)에 저장될 수 있다.
단계 S620에서 제 1 디바이스(100)는 변경된 화질의 동영상을 제 2 디바이스(200)에게 제공한다. 제 1 디바이스(100)는 변경된 화질에 적합한 화질의 동영상을 제 2 디바이스(200)에게 제공할 수 있다.
도 7은 본 발명의 다른 실시예에 따른 제 1 디바이스(100)가 촬영 중인 동영상의 일부 영역에 대응되는 객체를 포함하는 동영상을 제 2 디바이스(200)에게 제공하는 방법의 흐름도이다. 도 7에서는 제 1 디바이스(100)가 제 2 디바이스(200)로부터 제 1 동영상의 소정의 지점에 대한 좌표 정보를 수신하고, 수신된 좌표 정보를 이용하여 일부 영역을 관심 영역으로 선택할 수 있다.
단계 S700에서 제 1 디바이스(100)는 제 2 디바이스(200)에게 제 1 동영상을 제공한다. 제 1 디바이스(100)는 촬영된 동영상에 기초하여, 제 1 동영상을 제 2 디바이스(200)에게 제공할 수 있다. 제 1 디바이스(100)는 촬영된 동영상을 별도의 가공없이 제 1 동영상으로 하여 제 2 디바이스(200)에게 제공할 수 있다. 또한, 제 1 디바이스(100)는 촬영된 동영상을 가공하고, 가공된 동영상을 제 1 동영상으로 하여 제 2 디바이스(200)에게 제공할 수도 있다. 이 경우, 제 1 디바이스(100)는 촬영된 동영상의 해상도를 변경하거나, 소정의 형식으로 변환할 수 있다. 예를 들어, 촬영된 동영상의 해상도가 제 1 디바이스(100)와 제 2 디바이스(200)간의 스트리밍 해상도보가 큰 경우에, 제 1 디바이스(100)는 촬영된 동영상의 해상도를 스트리밍 해상도와 동일하도록 변환하고, 변환된 해상도의 제 1 동영상을 제 2 디바이스(200)에게 제공할 수 있다.
또한, 단계 S700에서 제 1 디바이스(100)는 원본 해상도를 갖는 제 1 동영상을 제 1 해상도로 외부 기기에게 전송할 수 있다. 이 경우, 제 1 디바이스(100)는 제 2 디바이스(200)에 포함된 디스플레이의 해상도에 관한 정보를 미리 획득하여 저장할 수 있으며, 제 2 디바이스(200)에 포함된 디스플레이의 해상도에 기초하여 제 1 해상도를 결정할 수 있다.
단계 S710에서 제 2 디바이스(200)는 수신된 제 1 동영상을 디스플레이한다. 제 2 디바이스(200)는 수신된 제 1 동영상을 제 2 디바이스(200)의 화면에 디스플레이할 수 있다. 제 2 디바이스(200)는 제 1 해상도의 제 1 동영상을 화면에 디스플레이할 수 있다.
단계 S720에서 제 2 디바이스(200)는 화면에 표시된 제 1 동영상에 대한 사용자의 터치 입력을 수신한다. 제 2 디바이스(200)는 화면에 표시된 제 1 동영상의 한 지점을 선택하는 사용자의 터치 입력을 수신할 수 있다. 또한, 제 2 디바이스(200)는 터치된 지점에 대한 좌표 정보를 생성할 수 있다.
단계 S730에서 제 2 디바이스(200)는 제 1 디바이스(100)에게 터치된 지점에 대한 좌표 정보를 제공한다.
단계 S740에서 제 1 디바이스(100)는 수신된 좌표 정보에 기초하여, 제 2 디바이스(200)에게 제공할 제 1 동영상의 일부 영역을 관심 영역으로 결정한다. 제 1 디바이스(100)는 터치 입력된 지점의 위치에 기초하여 일부 영역을 선택할 수 있다. 구체적으로, 제 1 디바이스(100)는 터치된 지점을 포함하는 객체를 식별하고, 식별된 객체를 포함하는 영역을 선택할 수 있다. 예를 들어, 제 1 동영상에서 얼굴 부분이 터치된 경우에, 제 1 디바이스(100)는 터치된 지점을 포함하는 객체인 얼굴을 식별할 수 있다. 또한, 제 1 디바이스(100)는 식별된 얼굴을 포함하는 영역을 관심 영역으로 선택할 수 있다.
또한, 제 1 디바이스(100)는 터치된 지점으로부터 기 설정된 범위의 영역을 관심 영역으로 선택할 수 있다. 예를 들어, 제 1 디바이스(100)는 터치된 지점을 중심으로 하는 소정의 크기의 사각형의 영역을 관심 영역으로 선택할 수 있다.
단계 S750에서 제 1 디바이스(100)는 결정된 일부 영역에 포함된 객체를 식별한다. 예를 들어, 제 1 디바이스(100)는 터치된 지점으로부터 기 설정된 범위의 영역을 관심 영역으로 선택한 경우에, 제 1 디바이스(100)는 선택된 영역에 포함된 객체를 제 1 동영상으로부터 식별할 수 있다.
또한, 제 1 디바이스(100)는 결정된 관심 영역에 기초하여, 촬영된 동영상으로부터 객체를 식별할 수도 있다. 결정된 관심 영역은 제 1 동영상의 일부 영역이기 때문에, 제 1 디바이스(100)는 결정된 제 1 동영상의 관심 영역에 매칭되는 영역을 촬영 중인 동영상으로부터 확인할 수 있다. 또한, 매칭된 영역에 포함된 객체를 촬영 중인 동영상으로부터 식별할 수 있다.
또한, 제 1 디바이스(100)는 제 1 동영상으로부터 식별된 객체를 이용하여 촬영 중인 동영상에 포함된 객체를 식별할 수도 있다. 제 1 디바이스(100)는 제 1 동영상으로부터 식별된 객체의 이미지와 기설정된 수치 이상으로 유사한 객체를 촬영 중인 동영상으로부터 식별할 수 있다.
단계 S760에서 제 1 디바이스(100)는 식별된 객체를 추적한다. 제 1 디바이스(100)는 제 1 동영상으로부터 식별된 객체를 추적할 수 있다. 또한, 제 1 디바이스는 촬영된 동영상으로부터 식별된 객체를 추적할 수도 있다.
단계 S770에서 제 1 디바이스(100)는 제 2 디바이스(200)에게 추적된 객체를 포함하는 제 2 동영상을 제공한다. 제 1 디바이스(100)는 촬영된 동영상으로부터 식별된 객체를 포함하는 영역을 잘라내고, 잘라낸 동영상을 제 2 동영상으로 하여 제 2 디바이스(200)에게 제공할 수 있다.
구체적으로, 제 1 디바이스(100)는 수신된 영역 정보에 기초하여 원본 해상도의 제 1 동영상의 화면에서 관심 영역에 대응되는 영역을 결정할 수 있다. 또한, 제 1 디바이스(100)는 결정된 영역만을 포함하도록 제 1 동영상을 제 2 동영상으로 변환할 수 있다. 또한, 제 1 디바이스(100)는 제 2 동영상을 제 1 해상도로 제 2 디바이스(200)에게 제공할 수 있다. 예를 들어, 원본 해상도가 1000 x 1000이고, 제 1 해상도가 100 x 100인 경우에, 제 1 디바이스(100)는 결정된 영역에 대응되는 제 1 동영상의 일부분을 제 2 동영상으로 변환하고, 제 2 동영상을 100 x 100의 해상도로 제 2 디바이스(200)에게 전송할 수 있다.
또한, 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법에 따라, 제 1 디바이스(100)는 제 2 동영상에 대응되는 영역의 크기를 결정할 수 있다. 또한, 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법에 따라, 제 1 디바이스(100)는 제 2 동영상의 화질을 결정할 수도 있다. 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법은, 예를 들어, 3G (third generation)통신, 4G (fourth generation) 통신, Wifi (wireless fidelrity) 통신을 포함할 수 있으나, 이에 제한되지 않는다.
또한, 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법이 변경됨에 따라, 제 1 디바이스(100)는 제 2 동영상에 대응되는 영역의 크기 또는 제 2 동영상의 화질을 변경할 수 있다. 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법은 제 1 디바이스(100) 및 제 2 디바이스(200) 중 적어도 하나가 핸드오버를 수행함에 따라 변경될 수 있다.
단계 S780에서 제 2 디바이스(200)는 수신된 제 2 동영상을 디스플레이한다. 제 2 디바이스(200)의 사용자는 선택된 일부 영역에 포함된 객체에 대한 보다 자세한 동영상을 확인할 수 있게 된다.
한편, 제 2 디바이스(200)는 제 2 디바이스(200)의 화면에 제 1 동영상 및 제 2 동영상을 함께 디스플레이할 수 있다. 이 경우, 단계 S770에서 제 2 디바이스(200)는 제 2 동영상뿐만 아니라 제 1 동영상을 함께 수신할 수 있다. 또한, 제 2 디바이스(200)는 제 1 동영상 상에 제 2 동영상을 오버랩하여 표시할 수 있다. 제 2 디바이스(200)는 제 1 동영상에서 제 1 디바이스(100)의 사용자가 표시되지 않은 부분에 제 2 동영상을 오버랩할 수 있다. 또한, 제 2 디바이스(200)는 제 1 동영상이 표시되는 영역의 크기 및 제 2 동영상이 표시되는 영역의 크기를 조절할 수 있다. 그러나, 이에 제한되지 않으며, 제 2 디바이스(200)는 제 1 동영상 및 제 2 동영상을 오버랩하지 않고 제 2 디바이스(200)의 화면에 디스플레이할 수도 있다.
도 8은 본 발명의 일 실시예에 따른 사용자의 터치 지점을 포함하는 객체가 포함되도록 제 2 디바이스(200)가 제 1 동영상의 일부 영역을 관심 영역으로 결정하는 일례를 도시한 도면이다.
도 8을 참조하면, 사용자가 제 2 디바이스(200)의 화면에 표시된 제 1 동영상에서 소정의 지점(80)을 터치하는 경우에, 제 2 디바이스(200)는 터치된 지점(80)을 포함하는 얼굴(82)을 포함하는 영역(84)를 제 1 동영상의 일부 영역으로 결정할 수 있다.
구체적으로, 사용자가 제 2 디바이스(200)의 화면에 표시된 제 1 동영상에서 소정의 지점(80)을 터치하는 경우에, 제 2 디바이스(200)는 터치된 지점(80)을 포함하는 얼굴(82)을 식별할 수 있다. 또한, 제 2 디바이스(200)는 식별된 얼굴(82)을 포함하는 영역(84)를 선택할 수 있다. 이 경우, 영역(84)의 크기는, 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법에 기초하여 결정될 수 있다.
또한, 예를 들어, 사용자가 제 2 디바이스(200)의 화면에 표시된 소정의 메뉴를 터치하면, 제 2 디바이스(200)의 화면에 소정의 박스가 표시되고, 사용자는 표시된 박스를 이동시키거나 박스의 크기를 조절하여 관심 영역을 선택할 수도 있다. 이 경우, 박스를 이동시키거나 박스의 크기를 조절하기 위한 별도의 사용자 인터페이스가 제 2 디바이스(200)의 화면에 표시될 수도 있다.
도 9는 본 발명의 일 실시예에 따른 제 2 디바이스(200)가 사용자의 터치 지점으로부터 기 설정된 범위의 일부 영역을 관심 영역으로 결정하는 일례를 도시한 도면이다.
도 9를 참조하면, 사용자가 제 2 디바이스(200)의 화면에 표시된 제 1 동영상에서 소정의 지점(90)을 터치하는 경우에, 터치된 지점(90)을 중심으로 하는 소정의 크기의 사각형의 영역(92)을 제 1 동영상의 일부 영역으로 결정할 수 있다. 이 경우, 영역(92)의 크기는, 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법에 기초하여 결정될 수 있다.
한편, 제 2 디바이스(200)는 사용자의 언핀칭(unpinching) 입력에 기초하여 관심 영역을 결정할 수도 있다. 사용자가 제 2 디바이스(200)의 화면에 표시된 제 2 동영상의 소정 부분을 언핀칭을 통하여 확대하고 터치된 손가락을 소정 시간 이상 홀드하면, 제 2 디바이스(200)는 사용자의 언핀칭 입력에 의해 확대된 영역을 관심 영역으로 결정할 수 있다. 또한, 제 2 디바이스(200)는 결정된 관심 영역에 대응되는 제 2 동영상을 제 1 디바이스(100)에게 요청할 수 있다.
도 10은 본 발명의 일 실시예에 따른 일부 영역을 결정하기 위한 사용자 인터페이스를 이용하여, 제 2 디바이스(200)가 제 1 동영상의 일부 영역을 관심 영역으로 결정하는 일례를 도시한 도면이다.
도 10을 참조하면, 제 2 디바이스(200)는 제 1 동영상의 일부 영역을 선택하기 위한 가이드 라인(10)을 화면에 표시할 수 있다. 또한, 사용자가 가이드 라인(10)의 일부를 터치하고 드래그하면, 제 2 디바이스(200)는 가이드 라인(10)의 크기를 변경할 수 있다. 또한, 제 2 디바이스(200)는 변경된 가이드 라인(10)에 포함된 영역을 제 1 동영상의 관심 영역으로 결정할 수 있다. 이 경우, 가이드 라인(10)에 포함된 영역의 크기의 상한 값은, 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법에 기초하여 결정될 수 있다.
도 11은 본 발명의 일 실시예에 따른 제 1 디바이스(100)와 제 2 디바이스(200)간의 통신 방법에 변경되는 경우에, 제 2 디바이스(200)가 제 1 디바이스(100)로부터 해상도가 변경된 동영상을 제공받는 일례를 도시한 도면이다. 도 11(a)는 통신 방법이 변경되기 전에 제 2 디바이스(200)에 디스플레이된 동영상의 일례를 도시한 도면이며, 도 11(b)는 통신 방법이 변경된 이후에 제 2 디바이스(200)에 디스플레이된 동영상의 일례를 도시한 도면이다.
제 1 디바이스(100)와 제 2 디바이스(200)와의 통신 방법이 변경되어, 제 1 디바이스(100)와 제 2 디바이스(200) 간에 전송되는 데이터의 스트리밍 해상도가 작아질 수 있다. 이 경우, 제 2 디바이스(200)는 통신 방법이 변경되기 전의 동영상보다 낮은 해상도의 동영상을 제 1 디바이스(100)로부터 수신할 수 있다. 또한, 제 2 디바이스(200)는 통신 방법이 변경된 이후에 수신되는 동영상을 통신 방법이 변경되기 전의 동영상보다 작은 크기로 디스플레이할 수 있다.
도 12는 본 발명의 일 실시예에 따른 제 1 디바이스(100)와 제 2 디바이스(200)간의 통신 방법에 변경되는 경우에, 제 2 디바이스(200)가 제 1 디바이스(100)로부터 화질이 변경된 동영상을 제공받는 일례를 도시한 도면이다. 도 12(a)는 통신 방법이 변경되기 전에 제 2 디바이스(200)에 디스플레이된 동영상의 일례를 도시한 도면이며, 도 12(b)는 통신 방법이 변경된 이후에 제 2 디바이스(200)에 디스플레이된 동영상의 일례를 도시한 도면이다.
제 1 디바이스(100)와 제 2 디바이스(200)와의 통신 방법이 변경되어, 제 1 디바이스(100)와 제 2 디바이스(200) 간에 전송되는 데이터의 스트리밍 해상도가 작아질 수 있다. 이 경우, 제 2 디바이스(200)는 통신 방법이 변경되기 전의 동영상보다 낮은 화질의 동영상을 제 1 디바이스(100)로부터 수신할 수 있다. 또한, 제 2 디바이스(200)는 통신 방법이 변경된 이후에 수신되는 동영상을 통신 방법이 변경되기 전의 동영상과 동일한 크기로 디스플레이할 수 있다.
도 13은 본 발명의 일 실시예에 따른 제 1 디바이스(100)와 제 2 디바이스(200)간의 통신 방법에 변경되는 경우에, 제 2 디바이스(200)가 제 1 디바이스(100)로부터 변경된 일부 영역에 대한 동영상을 제공받는 일례를 도시한 도면이다. 도 13(a)는 통신 방법이 변경되기 전에 제 2 디바이스(200)에 디스플레이된 동영상의 일례를 도시한 도면이며, 도 13(b)는 통신 방법이 변경된 이후에 제 2 디바이스(200)에 디스플레이된 동영상의 일례를 도시한 도면이다.
제 1 디바이스(100)와 제 2 디바이스(200)와의 통신 방법이 변경되어, 제 1 디바이스(100)와 제 2 디바이스(200) 간에 전송되는 데이터의 스트리밍 해상도가 커질 수 있다. 이 경우, 제 2 디바이스(200)는 통신 방법이 변경되기 전의 동영상보다 넓은 영역에 대한 동영상을 제 1 디바이스(100)로부터 수신할 수 있다.
도 14는 본 발명의 일 실시예에 따른 제 1 디바이스(100)의 블록도이다.
도 14에 도시된 바와 같이, 본 발명의 일 실시예에 따른 제 1 디바이스(100)는 영상 획득부(110), 영상 제공부(120), 객체 식별부(130), 객체 추적부(140), 네트워크 확인부(150), 프레임 버퍼(190), DB(160), 송수신부(170) 및 제어부(180)를 포함한다.
영상 획득부(110)는 제 2 디바이스(200)에게 제공할 영상을 획득한다. 영상 획득부(110)는 제 1 디바이스(100)에 포함된 촬영 장치 또는 이미지 센서를 통하여 촬영된 동영상을 획득할 수 있으나, 이에 제한되지 않는다. 영상 획득부(110)는 사진, 캡쳐 이미지 등의 콘텐트를 획득할 수도 있다.
제 1 디바이스(100)에서 실행된 애플리케이션의 실행 화면에 대응되는 제 3 영상을 제 2 디바이스(200)에게 제공하는 경우에는, 영상 획득부(110)는 프레임 버퍼(190)로부터 애플리케이션의 실행 화면에 대응되는 제 3 영상을 획득할 수 있다. 그러나, 이에 제한되지 않으며, 영상 획득부(110)는 후술할 프레임 버퍼(190)로부터 애플리케이션의 실행 화면에 대응되는 영상을 추출하고, 추출된 영상을 가공하여 제 3 영상을 생성할 수도 있다.
영상 제공부(120)는 제 2 디바이스(200)에게 획득된 영상을 제공한다. 영상 제공부(120)는 획득된 영상을 가공하여 제 2 디바이스(200)에게 제공할 수 있으나 이에 제한되지 않는다. 영상 제공부(120)는 획득된 영상을 별도의 가공없이 제 2 디바이스(200)에게 제공할 수도 있다.
또한, 영상 제공부(120)는 제 1 디바이스(100)에 의해 촬영된 동영상에 기초하여 제 1 동영상 및 제 2 동영상을 제 2 디바이스(200)에게 제공할 수 있다. 영상 제공부(120)는 촬영된 동영상을 별도의 가공없이 제 1 동영상으로 하여 제 2 디바이스(200)에게 제공할 수 있다. 또한, 영상 제공부(120)는 촬영된 동영상을 가공하고, 가공된 동영상을 제 1 동영상으로 하여 제 2 디바이스(200)에게 제공할 수도 있다. 이 경우, 영상 제공부(120)는 촬영된 동영상의 해상도 또는 화질을 변경하거나, 동영상의 포맷을 변환할 수 있다.
또한, 영상 제공부(120)는 원본 해상도를 갖는 제 1 동영상을 제 1 해상도로 제 2 디바이스(200)에게 전송할 수 있다. 이 경우, 제 1 디바이스(100)는 제 2 디바이스(200)에 포함된 디스플레이의 해상도에 관한 정보를 미리 획득하여 저장할 수 있으며, 제 2 디바이스(200)에 포함된 디스플레이의 해상도에 기초하여 제 1 해상도를 결정할 수 있다.
또한, 영상 제공부(120)는 후술할 객체 추적부(140)에 의해 추적된 객체를 포함하는 제 2 동영상을 제 2 디바이스(200)에게 제공할 수 있다. 제 2 동영상은 추적된 객체를 포함하는 일부 영역만을 포함할 수 있다. 또한, 영상 제공부(120)는 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법이 변경되는 경우에, 제 2 동영상의 해상도 또는 화질을 변경하고 변경된 동영상을 제 2 디바이스(200)에게 제공할 수 있다. 또한, 영상 제공부(120)는 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법이 변경되는 경우에, 제 2 동영상에 대응되는 일부 영역의 크기를 변경하고 변경된 일부 영역에 대한 동영상을 제 2 디바이스(200)에게 제공할 수 있다.
한편, 영상 제공부(120)는 제 1 디바이스(100)에서 실행된 애플리케이션의 실행 화면에 대응되는 제 3 영상을 제 2 디바이스(200)에게 제공할 수 있다. 또한, 제 2 디바이스(200)가 제 1 디바이스(100)로부터 수신된 제 3 영상의 일부분을 선택하고, 선택된 부분에 대한 영상을 요청하면, 제 1 디바이스(100)는 선택된 부분에 대응되는 제 4 영상을 제 2 디바이스(200)에게 제공할 수 있다. 이 경우, 제 4 영상은 제 3 영상에서 선택된 부분을 잘라냄으로써 생성된 영상일 수 있다.
객체 식별부(130)는 획득된 영상으로부터 객체를 식별한다. 객체 식별부(130)는 제 2 디바이스(200)로부터 제 1 동영상의 일부 영역에 관한 영역 정보를 수신하고, 촬영된 동영상 또는 제 1 동영상으로부터 객체를 식별할 수 있다.
객체 추적부(140)는 획득된 영상으로부터 객체를 추적한다. 객체 추적부(140)는 식별된 객체를 제 1 동영상 또는 촬영된 동영상에서 추적할 수 있다.
네트워크 확인부(150)는 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법을 확인한다. 네트워크 확인부(150)는 제 1 디바이스(100)와의 제 2 디바이스(200) 간의 통신 방법의 종류 및 대역폭(bandwidth)을 확인할 수 있다. 또한, 네트워크 확인부(150)는 제 1 디바이스(100) 및 제 2 디바이스(200) 간에 전송되는 데이터의 스트리밍 해상도를 확인할 수 있다.
프레임 버퍼(190)는 제 1 디바이스(100)에서 실행된 애플리케이션의 실행 화면에 대응되는 이미지를 저장한다.
DB(160)는 제 1 디바이스(100)가 제 2 디바이스(200)에게 소정의 일부 영역에 대한 영상을 제공하는데 필요한 각종의 정보를 저장한다.
송수신부(170)는 제 1 디바이스(100)가 제 2 디바이스(200)에게 소정의 일부 영역에 대한 영상을 제공하는데 필요한 각종의 정보를 제 2 디바이스(200)와 송수신한다.
제어부(180)는 제 1 디바이스(100)가 제 2 디바이스(200)에게 소정의 일부 영역에 대한 영상을 제공하도록, 영상 획득부(110), 영상 제공부(120), 객체 식별부(130), 객체 추적부(140), 네트워크 확인부(150), 프레임 버퍼(190), DB(160), 및 송수신부(170)를 제어한다.
도 15는 본 발명의 일 실시예에 따른 제 2 디바이스(200)의 블록도이다.
도 15에 도시된 바와 같이, 본 발명의 일 실시예에 따른 제 2 디바이스(200)는 영상 수신부(210), 사용자 입력부(220), 네트워크 확인부(230), 영역 정보 생성부(240), 영역 정보 제공부(250), 디스플레이부(260), DB(270), 송수신부(280) 및 제어부(290)를 포함한다.
영상 수신부(210)는 제 1 디바이스(100)로부터 영상을 수신한다. 영상 수신부(210)는 제 1 디바이스(100)로부터 제 1 동영상 및 제 2 동영상을 수신할 수 있다. 또한, 통신 방법이 변경되는 경우에, 영상 수신부(210)는 제 1 디바이스(100)로부터 해상도 또는 화질이 변경된 동영상을 수신할 수 있으나 이에 제한되지 않는다.
한편, 제 1 디바이스(100)에서 실행된 애플리케이션의 실행 화면에 대응되는 제 3 영상을 제공한 경우에, 영상 수신부(210)는 제 1 디바이스(100)로부터 제 3 영상을 수신할 수 있다.
사용자 입력부(220)는 제 1 동영상의 일부 영역을 선택하기 위한 사용자 입력을 수신한다. 예를 들어, 사용자 입력부(220)는 제 1 동영상의 소정의 지점을 터치하는 사용자 입력을 수신하거나, 제 1 동영상의 소정의 지점을 터치&드래그하는 사용자 입력을 수신할 수 있다. 또한, 사용자 입력부(220)는 화면상에 표시된 소정의 사용자 인터페이스를 통한 사용자의 터치 입력을 수신할 수도 있다. 한편, 제 1 디바이스(100)에서 실행된 애플리케이션의 실행 화면에 대응되는 제 3 영상을 제공한 경우에, 사용자 입력부(220)는 제 3 영상의 일부 영역을 선택하기 위한 사용자 입력을 수신한다.
네트워크 확인부(230)는 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법을 확인한다. 네트워크 확인부(230)는 제 1 디바이스(100)와의 제 2 디바이스(200) 간의 통신 방법의 종류 및 대역폭(bandwidth)을 확인할 수 있다. 또한, 네트워크 확인부(230)는 제 1 디바이스(100) 및 제 2 디바이스(200) 간에 전송되는 데이터의 스트리밍 해상도를 확인할 수 있다.
영역 정보 생성부(240)는 사용자 입력 및 확인된 통신 방법에 기초하여 제 1 동영상의 일부 영역을 선택한다. 영역 정보 생성부(240)는 제 1 동영상에 포함된 객체에 관련된 영역 정보를 생성할 수 있다. 영역 정보 생성부(240)는 제 1 동영상에서 터치 입력된 지점의 위치에 기초하여 일부 영역을 선택할 수 있다. 구체적으로, 사용자가 제 1 동영상에서 소정의 지점을 터치하면, 영역 정보 생성부(240)는 터치된 지점을 포함하는 객체를 식별하고, 식별된 객체를 포함하는 영역을 선택할 수 있다.
또한, 사용자가 제 1 동영상에서 소정의 지점을 터치하면, 영역 정보 생성부(240)는 터치된 지점으로부터 기 설정된 범위의 영역을 일부 영역으로 선택할 수 있다. 또한, 영역 정보 생성부(240)는 사용자 인터페이스를 통한 사용자의 터치 입력에 따라, 선택된 일부 영역을 변경할 수도 있다. 또한, 제 1 동영상에서 선택되는 일부 영역의 크기는, 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법에 따라, 결정될 수 있다.
영역 정보 제공부(250)는 생성된 영역 정보를 제 1 디바이스(100)에게 제공한다.
영역 정보 제공부(250)는 선택된 일부 영역에 대한 좌표 값을 제 1 디바이스(100)에게 제공할 수 있다. 또한, 영역 정보 제공부(250)는 사용자에 의해 터치 입력된 지점의 좌표 값을 제 1 디바이스(100)에게 제공할 수도 있다.
디스플레이부(260)는 제 1 디바이스(100)로부터 수신되는 영상을 화면에 표시한다. 디스플레이부(260)는 제 1 디바이스(100)로부터 수신되는 동영상을 화면에 표시할 수 있다.
DB(270)는 제 2 디바이스(200)가 제 1 디바이스(100)로부터 수신되는 제 1 동영상의 일부 영역에 대한 동영상을 수신할 수 있도록, 각종의 정보를 저장한다.
송수신부(280)는 제 2 디바이스(200)가 제 1 디바이스(100)로부터 수신되는 제 1 동영상의 일부 영역에 대한 동영상을 수신할 수 있도록, 각종의 정보를 제 1 디바이스(100)와 송수신한다.
제어부(290)는 제 2 디바이스(200)가 제 1 디바이스(100)로부터 수신되는 제 1 동영상의 일부 영역에 대한 동영상을 수신할 수 있도록, 영상 수신부(210), 사용자 입력부(220), 네트워크 확인부(230), 영역 정보 생성부(240), 영역 정보 제공부(250), 디스플레이부(260), DB(270), 및 송수신부(280)를 제어한다.
도 16은 본 발명의 다른 실시예에 따른 디바이스의 블록도이다. 도16에 도시된 디바이스는 본 발명의 일 실시예에 따른 제 1 디바이스(100) 또는 제 2 디바이스(200)일 수 있다.
이동 통신부(1001)는 3G/4G와 같은 셀룰러 네트워크를 통해 기지국과의 호 설정, 데이터 통신 등을 수행한다. 서브 통신부(1002)는 블루투스나 NFC 등 근거리 통신을 위한 기능을 수행한다. 방송부(1003)는 DMB 방송 신호를 수신한다.
카메라부(1004)는 사진이나 동영상을 촬영하기 위한 렌즈 및 광학 소자들을 포함한다.
센서부(1005)는 디바이스의 움직임을 감지하는 중력 센서, 빛의 밝기를 감지하는 조도 센서, 사람의 근접도를 감지하는 근접 센서, 사람의 움직임을 감지하는 모션 센서 등을 포함할 수 있다.
GPS 수신부(1006)는 인공 위성으로부터 GPS 신호를 수신한다. 이러한 GPS 신호를 이용하여 다양한 서비스가 사용자에게 제공될 수 있다.
입출력부(1010)은 외부 기기나 사람과의 인터페이스를 제공하며, 버튼(1011), 마이크(1012), 스피커(1013), 진동 모터(1014), 커넥터(1015), 키패드(1016)을 포함한다.
터치 스크린(1018)은 사용자의 터치 입력을 수신한다. 여기서의 터치 입력은 드래그 제스처에 의한 것일 수도 있으며, 탭 제스처에 의한 것일 수도 있다. 터치 스크린 컨트롤러(1017)는 터치 스크린(1018)을 통해 입력된 터치 입력을 제어부(1050)에 전달한다. 전원 공급부(1019)는 디바이스에 필요한 전력을 공급하기 위해 배터리 또는 외부 전원 소스와 연결된다.
제어부(1050)는 메모리(1060)에 저장된 프로그램들을 실행함으로써 본 발명에 따라 디바이스에 표시된 콘텐트의 일부 영역을 표시하고 변경한다.
메모리(1060)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 이동 통신 모듈(1061), Wi-Fi 모듈(1062), 블루투스 모듈(1063), DMB 모듈(1062), 카메라 모듈(1065), 센서 모듈(1066), GPS 모듈(1067), 동영상 재생 모듈(1068), 오디오 재생 모듈(1069), 전원 모듈(1070), 터치 스크린 모듈(1071), UI 모듈(1072), 어플리케이션 모듈(1073) 등으로 분류될 수 있다. 각 모듈들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있을 것이다.
이하에서는 어플리케이션 모듈(1073)에 대하여 보다 상세히 설명하기로 한다.
먼저 도 16의 디바이스가 제 1 디바이스(100)이 경우에, 어플리케이션 모듈(1073)은 디바이스에 포함된 모듈들을 이용하여, 촬영되는 동영상에 기초하여 제 1 동영상을 제 2 디바이스(200)에게 제공하고, 제 2 디바이스(200)로부터 제 1 동영상의 일부 영역에 대한 영역 정보를 수신할 수 있다. 또한, 어플리케이션 모듈(1073)은 디바이스에 포함된 모듈들을 이용하여, 일부 영역에 대응되는 객체를 식별하고 추적할 수 있으며, 추적된 객체를 포함하는 제 2 동영상을 제 2 디바이스(200)에게 제공할 수 있다. 또한, 어플리케이션 모듈(1073)은 디바이스에 포함된 모듈들을 이용하여, 제 2 디바이스(200)와의 통신 방법을 확인할 수 있으며, 통신 방법이 변경된 경우에 제 2 동영상에 비하여 해상도 또는 화질이 변경된 동영상을 제 2 디바이스(200)에게 제공할 수 있다.
또한, 도 16의 디바이스가 제 2 디바이스(200)이 경우에, 어플리케이션 모듈(1073)은 디바이스에 포함된 모듈들을 이용하여, 제 1 디바이스(100)로부터 제 1 동영상을 수신하고 제 1 동영상의 일부 영역을 선택할 수 있다. 이 경우, 일부 영역의 크기는 제 1 디바이스(100)와 제 2 디바이스(200)와의 통신 방법에 기초하여 결정될 수 있다. 또한, 어플리케이션 모듈(1073)은 디바이스에 포함된 모듈들을 이용하여, 선택된 일부 영역에 대한 영역 정보를 생성하여 제 1 디바이스(100)에게 제공할 수 있다. 또한, 어플리케이션 모듈(1073)은 디바이스에 포함된 모듈들을 이용하여, 제 2 디바이스(200)로부터 수신된 제 2 동영상을 디스플레이할 수 있다.
도 17은 본 발명의 일 실시예에 따른 제 2 디바이스(200)에 표시된 제 1 동영상의 화면의 일부 영역을 확대하는 일례를 도시한 도면이다.
도 17에 도시된 바와 같이, 본 발명의 일 실시예에 따른 제 2 디바이스(200)는 사용자의 터치 및 드래그 입력에 기초하여 제 1 동영상의 일부 영역을 확대할 수 있다. 이 경우, 제 2 디바이스(200)는 제 1 동영상의 원본 해상도에 기초하여 제 1 동영상의 확대 정도를 결정할 수 있다. 구체적으로, 도 17(a)에서와 같이, 사용자가 제 1 동영상의 화면을 멀티 터치하고 드래그하면, 도 17(b)에서와 같이 제 1 동영상의 일부분이 확대될 수 있다. 또한, 제 2 디바이스(200)는 제 1 동영상의 원본 해상도 및 제 2 디바이스(200)의 화면 사이즈를 고려하여, 제 1 동영상이 확대될 수 있는 정도를 결정할 수 있다. 따라서, 도 17(c)에서와 같이, 사용자가 터치를 계속하여 드래그하더라도, 제 1 동영상은 도 17(b)에서 확대된 정도 이상으로 확대되지 않을 수 있다.
또한, 제 2 디바이스(200)는 제 1 동영상의 확대 정도를 결정하기 위하여 제 1 디바이스(100)로부터 제 1 동영상의 원본 해상도에 관한 정보를 미리 수신하여 저장할 수 있으나, 이에 제한되지 않는다.
도 18은 본 발명의 일 실시예에 따른 제 2 디바이스(200)에 표시된 동영상의 화면이 단계적으로 확대되는 일례를 도시한 도면이다.
도 18(a)에 도시된 바와 같이, 동영상의 일부 영역이 선택되고 선택된 영역이 1차적으로 확대될 수 있고, 이후에 확대된 동영상의 일부 영역이 선택됨으로써 선택된 영역이 2차적으로 확대될 수 있다.
도 19는 본 발명의 일 실시예에 따른 제 2 디바이스(200)에서 제 1 동영상의 일부 영역이 확대된 미리 보기 영상이 표시된 이후에, 제 1 디바이스(100)로부터 제공된 제 2 동영상이 표시되는 일례를 도시한 도면이다. 제 1 디바이스(100) 및 제 2 디바이스(200)는 서로 영상 통화를 할 수 있다.
도 19(a)에 도시된 바와 같이, 사용자는 제 2 디바이스(200)에 표시된 제 1 동영상의 화면의 일부분(10)을 관심 영역으로 선택할 수 있다. 제 2 디바이스(200)는 제 1 해상도를 갖는 제 1 동영상을 제 1 디바이스(100)로부터 수신하고, 수신된 제 1 동영상을 제 2 디바이스(200)의 화면에 표시할 수 있다.
이후, 도 19(b)에 도시된 바와 같이, 제 2 디바이스(200)에는 선택된 관심 영역을 확대한 미리 보기 영상이 디스플레이될 수 있고, 제 1 디바이스(100)에는 제 1 동영상의 일부를 확대하여 제공할지를 결정하기 위한 메뉴(12)가 디스플레이될 수 있다. 또한, 제 1 디바이스(100)에는 제 2 디바이스(200)에서 제 1 동영상의 어느 부분이 확대되었는지가 소정의 영역(14)에 표시될 수 있다.
또한, 사용자가 메뉴(12)에서 ‘허용’을 선택하면, 도 19(c)에서와 같이, 제 1 디바이스(100)는 선택된 관심 영역에 대한 제 2 동영상을 제 2 디바이스(200)에게 제공하고, 제 2 디바이스(200)는 수신된 제 2 동영상을 디스플레이 할 수 있다. 이 경우, 제 1 디바이스(100)는 선택된 관심 영역에 대한 제 2 동영상을 제 1 해상도로 제 2 디바이스(200)에게 제공할 수 있다.
한편, 제 1 디바이스(100)는 제 2 동영상을 제 2 디바이스(200)에게 제공할 때, 제 2 동영상이 선택된 관심 영역에 대한 확대 영상임을 알리기 위한 알림 정보(notification information)를 제 2 동영상에 삽입할 수 있다. 구체적으로, 제 1 디바이스(100)는 제 1 동영상 및 제 2 동영상을 제 2 디바이스(200)에게 스트리밍할 수 있으며, 제 1 동영상의 전송을 중단하고 제 2 동영상을 전송할 때 제 2 동영상 내에 알림 정보를 삽입할 수 있다. 예를 들어, 제 1 디바이스(100)가 제 1 동영상의 전송을 중단하고 제 2 동영상을 전송할 때, 제 1 디바이스(100)는 스트리밍 레벨(streaming level)에서 소정의 패킷 내에 소정의 파라미터 값을 삽입함으로써, 제 2 동영상이 제공됨을 제 2 디바이스(200)에게 알릴 수 있다. 또한, 알림 정보는, 도 20에 도시된 RTP(Real-time Transfer Protocol) 패킷 헤더에 삽입될 수 있다.
도 20은 본 발명의 일 실시예에 따른 RTP(Real-time Transfer Protocol) 패킷 헤더의 일례를 도시한 도면이다.
제 1 디바이스(100)로부터 제 2 디바이스(200)에게 제공되는 제 2 동영상의 각 프레임은 복수의 RTP 패킷을 포함할 수 있다. 또한, 제 1 디바이스(100)는 제 2 동영상의 각 프레임에 대응되는 복수의 RTP 패킷 중 소정의 패킷에 알림 정보를 삽입할 수 있다. 예를 들어, 제 1 디바이스(100)는 제 2 동영상의 각 프레임에 대응되는 복수의 RTP 패킷의 헤더에 포함된 RTP Marker 필드(90)의 비트 값이 ‘1’인 RTP 패킷에 알림 정보를 삽입할 수 있다.
또한, 제 1 디바이스(100)는 제 2 동영상의 프레임들 중에서 소정의 프레임에 알림 정보를 삽입할 수 있다. 예를 들어, 제 1 디바이스(100)는 제 2 동영상의 최초 프레임부터 기 설정된 개수의 프레임에 대하여 알림 정보를 삽입할 수 있다. 그러나, 이에 제한되지 않는다.
또한, 제 1 디바이스(100)는 알림 정보를 RTP 패킷 헤더의 Header extension 필드(92)에 삽입할 수 있다. 알림 정보는 소정의 비트 값을 가질 수 있다. 또함, 알림 정보는 소정의 영역 정보를 포함할 수 있다. 영역 정보는, 제 1 디바이스(100)가 제 1 동영상의 어느 부분을 잘라내어 제 2 동영상을 생성하였는지를 나타내는 정보일 수 있다. 예를 들어, 영역 정보는, 제 1 동영상 또는 원본 동영상의 전체 화면 중에서 제 2 동영상의 화면에 대응되는 부분의 위치를 나타내는 값일 수 있다. 또한, 영역 정보는 소정의 좌표 값을 가질 수 있다.
도 21은 본 발명의 일 실시예에 따른 제 1 디바이스(100)가 제 4 영상을 생성하는 방법의 흐름도이다. 제 1 디바이스(100)는 제 1 디바이스(100)에서 실행된 애플리케이션의 실행 화면에 대응되는 제 3 영상을 제 2 디바이스(200)에게 제공할 수 있으며, 제 2 디바이스(200)로부터 제 3 영상의 일부분에 관한 영역 정보를 수신하여 제 4 영상을 생성할 수 있으며, 생성된 제 4 영상을 제 2 디바이스(200)에게 제공할 수 있다.
단계 S2100에서 제 1 디바이스(100)는 제 1 디바이스(100)내의 프레임 버퍼로부터 제 3 영상을 획득한다. 프레임 버퍼는 제 1 디바이스(100)에서 실행되고 있는 애플리케이션의 실행 화면에 대응되는 제 3 영상을 저장할 수 있다.
단계 S2200에서 제 1 디바이스(100)는 제 2 디바이스(200)로부터 수신된 영역 정보에 기초하여, 제 3 영상의 일부를 잘라낼 수 있다. 또한, 제 1 디바이스(100)는 잘라낸 제 3 영상의 일부를 인코딩하고(단계 S2300), 패킷타이징(paketizng)할 수 있다(s2400).
도 22은 본 발명의 일 실시예에 따른, 제 1 디바이스(100)와 영상 통화를 하고 있는 제 2 디바이스(200)가, 제 1 동영상의 일부 영역에 대하여 확대된 제 2 동영상을 수신하는 방법의 흐름도이다.
단계 S2205에서 제 1 디바이스(100) 및 제 2 디바이스(200)는 영상 통화를 위하여 연결된다.
단계 S2210에서 제 1 디바이스(100)는 제 1 동영상을 제 2 디바이스(200)에게 제공한다. 제 1 디바이스(100)는 제 1 디바이스(100)의 사용자를 촬영하고, 영상 통화를 위한 제 1 동영상을 생성할 수 있다. 또한, 제 1 디바이스(100)는 생성된 제 1 동영상을 제 2 디바이스(200)에게 전송할 수 있다.
단계 S2220에서 제 2 디바이스(200)는 제 1 디바이스(100)로부터 수신된 제 1 동영상을 제 2 디바이스(200)의 화면에 디스플레이한다.
단계 S2230에서 제 2 디바이스(200)는 제 1 동영상 중에서 확대하고자 하는 일부 영역을 선택한다. 제 2 디바이스(200)는 제 1 동영상에서, 예를 들어, 제 1 디바이스(100)의 사용자의 입 부분을 선택하거나, 제 1 디바이스(100)의 사용자가 들고 있는 책의 표지 부분을 선택할 수 있다. 이 경우, 제 2 디바이스(200)는 사용자의 터치 입력에 기초하여 일부 영역을 선택할 수 있으나, 이에 제한되지 않는다. 영상 통화 시에 확대될 일부 영역이 미리 설정될 수 있으며, 제 2 디바이스(200)는 제 1 디바이스(100)의 사용자의 영상 중에서 미리 설정된 일부 영역을 선택할 수 있다.
예를 들어, 제 2 디바이스(200)는 제 1 디바이스(100)의 사용자의 얼굴 영상 중에서 사용자의 입 부분을 트래킹함으로써, 사용자의 입 부분을 일부 영역으로 선택할 수 있다. 구체적으로, 제 2 디바이스(200)는 제 1 디바이스(100)의 사용자의 영상으로부터 얼굴 인식 정보를 검출하고, 검출된 얼굴 인식 정보에 기초하여 제 1 디바이스(100)의 사용자의 얼굴 중 입 부분을 트래킹하고 선택할 수 있다. 얼굴 인식 정보를 검출하는 방법은, 특징 기반 방법, 외형 기반 방법 및 하이브리드 방법을 포함할 수 있다. 특징 기반 방법(Feature-based method)은, 얼굴의 기하학적 정보를 이용하거나 얼굴 특징 성분들(예컨대, 눈, 코, 입, 턱 등)을 이용하여 그 크기와 모양, 상호 연관성 혹은 이러한 요소들의 혼합된 형태의 정보를 이용해서 얼굴을 인식하는 방법이다. 특징 기반 방법은, 예를 들어, 순수 기하학적 방법(Pure geometry method), 동적 연결 구조(Dynamic Link Architecture) 기반의 방법, 은닉 마르코프 모델(Hidden Markov model) 기반의 방법을 포함할 수 있다. 또한, 외형 기반 방법은, 학습 영상 집합에 의해 학습된 모델을 이용하여 얼굴을 인식하는 방법이다. 외형 기반 방법은, 예를 들어, 주성분 분석에 의해 생성되는 고유 얼굴을 이용하는 방법, 선형 판별식 해석을 이용하는 방법, 신경망을 이용하는 방법, 서포트 벡터 머신을 이용하는 방법을 포함할 수 있다. 또한, 하이브리드 방법은, 특징 기반 방법 및 외형 기반 방법을 혼용하는 방법이다. 하이브리드 방법은, 예를 들어, 선형 특징 분석(Linear Feature Analysis) 기반의 방법, 형태 정규화(Shape-Normalized) 기반의 방법, 및 컴포넌트 기반의 방법을 포함할 수 있다. 그러나, 본 발명의 일 실시예에 따른 얼굴 인식 정보 검출 방법은 상기한 세가지 방법에 한정되지 않으며, 얼굴 인식 정보 검출을 위하여 다양한 방법이 이용될 수 있다.
단계 S2240에서 제 2 디바이스(200)는 선택된 일부 영역의 좌표 정보를 제 1 디바이스(100)에게 전송한다.
단계 S2250에서 제 1 디바이스(100)는 제 1 동영상 중에서 제 2 디바이스(200)에 의해 선택된 일부 영역을 표시한다. 제 1 디바이스(100)는 제 1 동영상 중에서 제 2 디바이스에 의해 선택된 부분을, 예를 들어, 점선으로 표시할 수 있다. 또한, 제 1 디바이스(100)는 제 1 동영상 중에서 제 2 디바이스에 의해 선택된 부분만을 제 1 디바이스(100)의 화면에 디스플레이할 수도 있다.
단계 S2260에서 제 1 디바이스(100)는 선택된 일부 영역에 대한 제 2 동영상을 제 2 디바이스(200)에게 제공할 것을 결정한다. 제 1 디바이스(100)는 별도의 UI를 디스플레이하고, UI를 통한 사용자 입력에 기초하여, 제 2 디바이스(200)에 의해 선택된 일부 영역에 대한 제 2 동영상을 제 2 디바이스(200)에게 제공할 것을 결정할 수 있다.
단계 S2270에서 제 1 디바이스(100)는 선택된 일부 영역에 대응되는 부분을 촬영한다. 제 1 디바이스(100)는, 예를 들어, 제 1 디바이스(100)의 사용자의 입 부분을 촬영하거나, 제 1 디바이스(100)의 사용자가 들고 있는 책의 표지 부분을 촬영할 수 있다.
단계 S2280에서 제 1 디바이스(100)는 제 2 동영상을 제 2 디바이스(200)에게 제공한다. 제 1 디바이스(100)는 선택된 일부 영역에 대응되는 부분을 촬영함으로써, 제 2 동영상을 생성할 수 있으며, 생성된 제 2 동영상을 제 2 디바이스(200)에게 제공할 수 있다.
단계 S2290에서 제 2 디바이스(200)는 제 2 동영상을 디스플레이한다.
한편, 제 2 디바이스(200)는 제 2 디바이스(200)의 화면에 제 1 동영상 및 제 2 동영상을 함께 디스플레이할 수 있다. 이 경우, 단계 S2280에서 제 2 디바이스(200)는 제 2 동영상뿐만 아니라 제 1 동영상을 함께 수신할 수 있다. 또한, 제 2 디바이스(200)는 제 1 동영상 상에 제 2 동영상을 오버랩하여 표시할 수 있다. 제 2 디바이스(200)는 제 1 동영상에서 제 1 디바이스(100)의 사용자가 표시되지 않은 부분에 제 2 동영상을 오버랩할 수 있다. 또한, 제 2 디바이스(200)는 제 1 동영상이 표시되는 영역의 크기 및 제 2 동영상이 표시되는 영역의 크기를 조절할 수 있다. 그러나, 이에 제한되지 않으며, 제 2 디바이스(200)는 제 1 동영상 및 제 2 동영상을 오버랩하지 않고 제 2 디바이스(200)의 화면에 디스플레이할 수도 있다.
도 23은 본 발명의 일 실시예에 따른, 제 1 디바이스(100)와 영상 통화를 하고 있는 제 2 디바이스(200)가, 제 1 동영상의 일부 영역을 확대하여 표시하는 방법의 흐름도이다.
단계 S2305에서 제 1 디바이스(100) 및 제 2 디바이스(200)는 영상 통화를 위하여 연결된다.
단계 S2310에서 제 1 디바이스(100)는 제 1 동영상을 제 2 디바이스(200)에게 제공한다. 제 1 디바이스(100)는 제 1 디바이스(100)의 사용자를 촬영하고, 영상 통화를 위한 제 1 동영상을 생성할 수 있다. 또한, 제 1 디바이스(100)는 생성된 제 1 동영상을 제 2 디바이스(200)에게 전송할 수 있다.
단계 S2320에서 제 2 디바이스(200)는 제 1 디바이스(100)로부터 수신된 제 1 동영상을 제 2 디바이스(200)의 화면에 디스플레이한다.
단계 S2330에서 제 2 디바이스(200)는 제 1 동영상 중에서 확대하고자 하는 일부 영역을 선택한다. 제 2 디바이스(200)는 제 1 동영상에서, 예를 들어, 제 1 디바이스(100)의 사용자의 입 부분을 선택하거나, 제 1 디바이스(100)의 사용자가 들고 있는 책의 표지 부분을 선택할 수 있다.
이 경우, 제 2 디바이스(200)는 사용자의 터치 입력에 기초하여 일부 영역을 선택할 수 있으나, 이에 제한되지 않는다. 영상 통화 시에 확대될 일부 영역이 미리 설정될 수 있으며, 제 2 디바이스(200)는 제 1 디바이스(100)의 사용자의 영상 중에서 미리 설정된 일부 영역을 선택할 수 있다. 예를 들어, 제 2 디바이스(200)는 제 1 디바이스(100)의 사용자의 얼굴 영상 중에서 사용자의 입 부분을 트래킹함으로써, 사용자의 입 부분을 일부 영역으로 선택할 수 있다.
단계 S2340에서 제 2 디바이스(200)는 제 1 동영상 중에서, 단계 S2330에서 선택된 일부 영역만을 제 2 디바이스(200)의 화면에 디스플레이한다. 제 2 디바이스(200)는 제 1 동영상 중에서 선택된 일부 영역을 영상 프로세싱을 통하여 확대할 수 있으며, 확대된 영상을 제 2 디바이스(200)의 화면에 디스플레이할 수 있다. 예를 들어, 제 1 동영상의 해상도가 200 x 200이고, 선택된 일부 영역의 해상도가 50 x 50 인 경우에, 제 1 디바이스(100)는 선택된 일부 영역의 해상도를 200 x 200으로 확대할 수 있다.
한편, 제 2 디바이스(200)는, 확대된 영상을 제 1 동영상 상에 오버랩할 수 있다. 제 2 디바이스(200)는 제 1 동영상에서 제 1 디바이스(100)의 사용자가 표시되지 않은 부분에, 확대된 영상을 오버랩할 수 있다. 또한, 제 2 디바이스(200)는 제 1 동영상이 표시되는 영역의 크기 및 확대된 영상이 표시되는 영역의 크기를 조절할 수 있다. 그러나, 이에 제한되지 않으며, 제 2 디바이스(200)는 확대된 영상 및 제 2 동영상을 오버랩하지 않고 제 2 디바이스(200)의 화면에 디스플레이할 수도 있다.
도 24는 본 발명의 일 실시예에 따른, 제 1 동영상에서 선택된 일부 영역에 대한 확대 영상이, 제 1 동영상과 함께, 제 2 디바이스(200)의 화면에 표시되는 일례를 도시한 도면이다.
도 24(a)를 참조하면, 제 2 디바이스(200)의 화면에 표시된, 제 1 디바이스(100)의 사용자의 얼굴에서 입 부분(40)이 선택될 수 있다. 입 부분(40)은 제 2 디바이스(200)의 사용자에 의해 선택될 수 있다. 그러나, 이에 제한되지 않으며, 미리 설정된 기준에 따라, 제 2 디바이스(200)가 제 1 동영상에서 입 부분(40)을 트래킹하고, 입 부분(40)을 선택할 수도 있다.
또한, 도 24(b)를 참조하면, 선택된 입 부분에 대한 확대 영상(44)이 제 1 동영상(42) 상에 오버랩될 수 있다. 이 경우, 제 2 디바이스(200)는 제 1 동영상에서 제 1 디바이스(100)의 사용자가 표시되지 않은 부분을 결정할 수 있으며, 사용자가 표시되지 않은 부분에 제 2 동영상을 오버랩할 수 있다
또한, 도 24(c)를 참조하면, 선택된 입 부분에 대한 확대 영상(44)이 제 1 동영상(42) 상에 오버랩되지 않고, 선택된 입 부분에 대한 확대 영상(44) 및 제 1 동영상(42)이 별도의 창에 각각 표시될 수도 있다.
본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (49)

  1. 원본 해상도를 가진 제 1 동영상을 제 1 해상도로 외부 기기로 전송하는 단계;
    상기 외부 기기에서 상기 제 1 해상도로 표시되는 상기 제 1 동영상의 관심 영역에 관한 영역 정보를 상기 외부 기기로부터 수신하는 단계;
    상기 영역 정보에 기초하여, 상기 원본 해상도의 상기 제 1 동영상에서 상기 관심 영역에 대응되는 영역을 결정하는 단계;
    상기 원본 해상도의 제 1 동영상의 일부를 제 2 동영상으로 변환하는 단계; 및
    상기 제 2 동영상을 상기 제 1 해상도로 상기 외부 기기로 전송하는 단계;
    를 포함하며,
    상기 결정된 영역은 상기 원본 해상도의 제1 동영상보다 작으며, 상기 제 1 동영상의 일부는 상기 결정된 영역에 대응되는 것인, 영상 제공 방법.
  2. 제 1 항에 있어서,
    상기 관심 영역은, 상기 제 1 동영상에 포함된 객체를 포함하며, 상기 영역 정보는 상기 외부 기기에 의해 생성되는 것인, 영상 제공 방법.
  3. 제 2 항에 있어서,
    상기 외부 기기의 화면이 터치되면, 상기 화면에서 터치된 부분을 포함하는 상기 객체가 포함되도록 상기 관심 영역이 선택되는 것인, 영상 제공 방법.
  4. 제 2 항에 있어서,
    상기 외부 기기의 화면이 터치되면, 상기 스크린에서 터치된 부분으로부터 기 설정된 범위를 포함하는 상기 관심 영역이 선택되는 것인, 영상 제공 방법.
  5. 제 1 항에 있어서,
    상기 영역 정보를 수신하는 단계는,
    상기 외부 기기의 화면이 터치되면, 상기 터치된 지점에 대한 좌표 정보를 상기 외부 기기로부터 수신하는 것인, 영상 제공 방법.
  6. 제 1 항에 있어서,
    상기 외부 기기의 화면이 터치되면, 상기 관심 영역을 선택하기 위한 사용자 인터페이스가 상기 외부 기기의 화면에 디스플레이되는 것인, 영상 제공 방법.
  7. 제 1 항에 있어서,
    상기 제 1 동영상 및 상기 제 2 동영상은 상기 외부 기기와의 영상 통화를 위한 동영상이며,
    상기 제 1 동영상을 상기 외부 기기로 전송하는 단계는, 촬영된 동영상에 기초하여 상기 제 1 동영상을 상기 외부 기기로 전송하며,
    상기 촬영된 동영상의 해상도는 상기 영상 통화의 스트리밍 해상도보다 큰 것인, 영상 제공 방법.
  8. 제 1 항에 있어서,
    상기 외부 기기와의 통신 방법의 종류에 따라, 상기 관심 영역의 범위가 결정되는 것인, 영상 제공 방법.
  9. 제 1 항에 있어서,
    상기 외부기기와의 통신 방법의 종류에 따라, 상기 제 1 해상도가 결정되는 것인, 영상 제공 방법.
  10. 제 1 항에 있어서,
    상기 외부기기와의 통신 방법이 변경됨에 따라, 상기 제 1 해상도를 변경하는 단계;
    를 더 포함하는 것인, 영상 제공 방법.
  11. 제 1 항에 있어서,
    상기 외부기기와의 통신 방법이 변경됨에 따라, 상기 결정된 영역의 크기를 변경하는 단계;
    를 더 포함하는 것인, 영상 제공 방법.
  12. 제 1 항에 있어서,
    상기 제 1 동영상을 상기 외부 기기로 전송하는 단계는, 촬영된 동영상에 기초하여 상기 제 1 동영상 및 상기 제 2 동영상을 상기 외부 기기로 전송하며,
    상기 촬영된 동영상에서 상기 관심 영역에 포함된 객체가 사라지면, 상기 결정된 영역을 변경하는 단계;;
    를 더 포함하는 영상 제공 방법.
  13. 제 12 항에 있어서,
    상기 사라진 객체가 상기 촬영된 동영상에 나타나면, 상기 촬영된 동영상의 전체 영역 중에서 상기 나타난 객체를 포함하는 일부 영역만을 포함하는 상기 제 2 동영상을 상기 외부기기에게 제공하는 단계;
    를 더 포함하는 영상 제공 방법.
  14. 제 1 항에 있어서,
    상기 제 2 동영상이 전송됨을 알리는 알림 정보(notification information)가 상기 제 2 동영상에 삽입된 것인, 영상 제공 방법.
  15. 제 14 항에 있어서,
    상기 알림 정보는, 상기 제 2 동영상의 기 설정된 프레임에 대응되는 패킷의 헤더에 삽입된 것인, 영상 제공 방법.
  16. 제 15 항에 있어서,
    상기 패킷은 RTP(Real-time Transfer Protocol) 패킷이며, 상기 RTP 패킷의 헤더의 RTP Marker 필드 값이 ‘1’인 것인, 영상 제공 방법.
  17. 제 15 항에 있어서,
    상기 패킷은 RTP(Real-time Transfer Protocol) 패킷이며, 상기 알림 정보는, 상기 RTP 패킷의 헤더의 Header extension 필드에 삽입되는 것인, 영상 제공 방법.
  18. 제 14 항에 있어서,
    상기 알림 정보는, 상기 제 2 동영상이 상기 제 1 동영상의 어느 부분에 대응되는지를 나타내는 영역 정보를 포함하는 것인, 영상 제공 방법.
  19. 제 1 항에 있어서,
    상기 관심 영역은 상기 제 1 동영상의 화면에서 사용자 입력에 기초하여 지정된 영역인 것인, 영상 제공 방법.
  20. 외부 기기로부터 제 1 동영상을 수신하는 단계;
    상기 수신된 제 1 동영상에 포함된 객체에 관한 영역 정보를 상기 외부 기기에게 제공하는 단계; 및
    상기 제 1 동영상의 상기 객체를 포함하는 일부 영역만을 포함하는 제 2 동영상을 상기 외부 기기로부터 수신하는 단계;
    를 포함하며,
    상기 제 2 동영상의 해상도는, 상기 제 1 동영상의 상기 일부 영역의 해상도보다 높으며,
    상기 객체를 포함하는 일부 영역은, 상기 제공된 영역 정보에 기초하여 상기 외부 기기에 의해 결정되는 것인, 디바이스의 영상 수신 방법.
  21. 제 20 항에 있어서,
    사용자 입력에 기초하여 상기 제 1 동영상에서 상기 객체에 관한 관심 영역을 선택하는 단계; 및
    상기 선택된 관심 영역에 관한 상기 영역 정보를 생성하는 단계;
    를 더 포함하는 것인, 영상 수신 방법.
  22. 제 21 항에 있어서,
    상기 관심 영역을 선택하는 단계는 상기 제 1 동영상의 화면이 터치되면, 상기 터치된 부분을 포함하는 객체를 포함하도록 상기 관심 영역을 선택하는 것인, 영상 수신 방법.
  23. 제 21 항에 있어서,
    상기 관심 영역을 선택하는 단계는 상기 제 1 동영상의 화면이 터치되면, 상기 터치된 부분으로부터 기 설정된 범위의 상기 관심 영역을 선택하는 것인, 영상 수신 방법.
  24. 제 20 항에 있어서,
    상기 영역 정보를 제공하는 단계는 상기 제 1 동영상의 화면이 터치되면, 상기 터치된 지점에 대한 좌표 정보를 상기 외부 기기에게 제공하는 것인, 영상 수신 방법.
  25. 제 20 항에 있어서,
    상기 제 1 동영상의 화면이 터치되면, 상기 영역을 선택하기 위한 사용자 인터페이스를 디스플레이하는 단계;
    를 더 포함하는 것인, 영상 수신 방법.
  26. 제 20 항에 있어서,
    상기 제 1 동영상 및 상기 제 2 동영상은 상기 외부기기와의 영상 통화를 위한 동영상이며,
    상기 제 1 동영상 및 상기 제 2 동영상은, 상기 외부 기기에 의해 촬영된 영상에 기초하여 상기 외부 기기로부터 제공되며,
    상기 촬영된 영상의 해상도는 상기 영상 통화의 스트리밍 해상도보다 큰 것인, 영상 수신 방법.
  27. 제 20 항에 있어서,
    상기 외부 기기와의 통신 방법의 종류에 따라, 상기 관심 영역의 범위가 상기 디바이스에 의해 결정되는 것인, 영상 수신 방법.
  28. 제 20 항에 있어서,
    상기 외부기기와의 통신 방법의 종류에 따라, 상기 외부 기기에 의해, 상기 제 1 동영상 및 상기 제 2 동영상 중 적어도 하나의 해상도가 결정되는 것인, 영상 수신 방법.
  29. 제 20 항에 있어서,
    상기 외부기기와의 통신 방법이 변경됨에 따라, 상기 외부 기기에 의해 상기 제 1 동영상 및 상기 제 2 동영상 중 적어도 하나의 해상도가 변경되는 것인, 영상 수신 방법.
  30. 제 20 항에 있어서,
    상기 외부기기와의 통신 방법이 변경됨에 따라, 상기 외부 기기에 의해 상기 일부 영역이 변경되는 것인, 영상 수신 방법.
  31. 제 20 항에 있어서
    상기 제 1 동영상 및 상기 제 2 동영상은, 상기 외부 기기에 의해 촬영된 영상에 기초하여 상기 외부 기기로부터 제공되며,
    상기 촬영된 영상에서 상기 객체가 사라지면, 상기 제 1 동영상의 상기 일부 영역이 변경되며,
    상기 변경된 일부 영역만을 포함하는 상기 제 2 동영상을 상기 외부 기기로부터 수신하는 단계;
    를 더 포함하는 영상 수신 방법.
  32. 제 31 항에 있어서,
    상기 사라진 객체가 상기 촬영된 영상에 나타나면, 상기 나타난 객체를 포함하는 일부 영역만을 포함하는 상기 제 2 동영상을 상기 외부기기로부터 수신하는 단계;
    를 더 포함하는 영상 수신 방법.
  33. 적어도 하나의 프로그램이 저장되는 메모리; 및
    상기 적어도 하나의 프로그램을 실행함으로써 외부 기기에게 동영상을 제공하는 프로세서를 포함하고,
    상기 적어도 하나의 프로그램은,
    제 1 동영상을 외부 기기로 전송하는 단계;
    상기 외부 기기로부터 상기 제 1동영상에 포함된 객체에 관련된 영역 정보를 수신하는 단계; 및
    상기 영역 정보에 기초하여 식별된 상기 객체를 포함하는 일부 영역만을 포함하는 제 2 동영상을 상기 외부 기기로 제공하는 단계;
    를 실행하는 명령어들을 포함하며,
    상기 제 2 동영상의 해상도는, 상기 제 1 동영상에서 상기 일부 영역의 해상도보다 높은 것인, 디바이스.
  34. 제 33 항에 있어서,
    상기 영역 정보는, 상기 외부 기기에 의해 선택된 관심 영역에 관한 정보이며, 상기 외부 기기에 의해 생성되는 것인, 디바이스.
  35. 제 34 항에 있어서,
    상기 제 1 동영상을 디스플레이하는 상기 외부 기기의 화면이 터치되면, 상기 터치된 부분을 포함하는 상기 객체를 포함하는 상기 관심 영역이 선택되는 것인, 디바이스.
  36. 제 35 항에 있어서,
    상기 제 1 동영상을 디스플레이하는 상기 외부 기기의 화면이 터치되면, 상기 터치된 부분으로부터 기 설정된 범위의 상기 관심 영역이 선택되는 것인, 디바이스.
  37. 제 33 항에 있어서,
    상기 영역 정보를 수신하는 단계는, 상기 외부 기기의 화면이 터치되면, 상기 터치된 지점에 대한 좌표 정보를 상기 외부 기기로부터 수신하는 것인, 디바이스.
  38. 제 33 항에 있어서,
    상기 외부 기기의 화면이 터치되면, 상기 관심 영역을 선택하기 위한 사용자 인터페이스가 상기 외부 기기의 화면에 디스플레이되는 것인, 디바이스.
  39. 제 33 항에 있어서,
    상기 제 1 동영상 및 상기 제 2 동영상은 상기 외부기기와의 영상 통화를 위한 동영상이며,
    상기 제 1 동영상을 외부 기기로 전송하는 단계는, 촬영된 동영상에 기초하여 제 1 동영상을 상기 외부 기기로 전송하며,
    상기 촬영된 영상의 해상도는 상기 영상 통화의 스트리밍 해상도보다 큰 것인, 디바이스.
  40. 제 33 항에 있어서,
    상기 외부 기기와의 통신 방법의 종류에 따라, 상기 관심 영역의 범위가 결정되는 것인, 디바이스.
  41. 제 33 항에 있어서,
    상기 외부기기와의 통신 방법의 종류에 따라, 상기 제 1 동영상 및 상기 제 2 동영상 중 적어도 하나의 해상도가 결정되는 것인, 디바이스.
  42. 제 33 항에 있어서,
    상기 외부기기와의 통신 방법이 변경됨에 따라, 상기 제 1 동영상 및 상기 제 2 동영상 중 적어도 하나의 해상도를 변경하는 단계;
    를 실행하는 명령어들을 더 포함하는 것인, 디바이스.
  43. 제 33 항에 있어서,
    상기 외부기기와의 통신 방법이 변경됨에 따라, 상기 일부 영역을 변경하는 단계; 및
    상기 변경된 일부 영역에 대한 제 2 동영상을 상기 외부 기기에게 제공하는 단계;
    를 실행하는 명령어들을 더 포함하는 것인, 디바이스.
  44. 제 33 항에 있어서
    상기 제 1 동영상을 외부 기기로 전송하는 단계는, 촬영된 동영상에 기초하여 상기 제 1 동영상 및 상기 제 2 동영상을 상기 외부 기기로 전송하며,
    상기 촬영된 영상으로부터 상기 객체가 사라지면, 상기 제 2 동영상에 대응되는 상기 일부 영역을 변경하는 단계; 및
    상기 변경된 일부 영역에 대한 제 2 동영상을 상기 외부 기기에게 제공하는 단계;
    를 실행하는 명령어들을 더 포함하는 것인, 디바이스.
  45. 제 44 항에 있어서,
    상기 사라진 객체가 상기 촬영된 영상에 나타나면, 상기 촬영된 영상의 전체 영역 중에서 상기 나타난 객체를 포함하는 일부 영역만을 포함하는 동영상을 상기 외부기기에게 제공하는 단계;
    를 실행하는 명령어들을 더 포함하는 것인, 디바이스.
  46. 적어도 하나의 프로그램이 저장되는 메모리; 및
    상기 적어도 하나의 프로그램을 실행함으로써 외부 기기로부터 동영상을 수신하도록 하는 프로세서를 포함하고,
    상기 적어도 하나의 프로그램은,
    상기 외부 기기로부터 제 1 동영상을 수신하는 단계;
    상기 수신된 제 1 동영상에 포함된 객체에 관한 영역 정보를 상기 외부 기기에게 제공하는 단계; 및
    상기 제 1 동영상의 상기 객체를 포함하는 일부 영역만을 포함하는 제 2 동영상을 상기 외부 기기로부터 수신하는 단계;
    를 실행하는 명령어들을 포함하며,
    상기 제 2 동영상의 해상도는, 상기 제 1 동영상의 상기 일부 영역의 해상도보다 높으며,
    상기 객체를 포함하는 일부 영역은, 상기 제공된 영역 정보에 기초하여 상기 외부 기기에 의해 결정되는 것인, 디바이스.
  47. 복수개의 제1 프레임을 갖는 제 1 동영상을 외부 기기로 전송하는 단계;
    상기 외부 기기로부터 상기 제 1 동영상에 포함된 객체에 관련된 영역 정보를 수신하는 단계;
    상기 영역 정보에 기초하여, 상기 복수개의 제 1 프레임 중에서 상기 객체를 포함하는 제 1 프레임을 선별하는 단계; 및
    상기 객체를 포함하는, 상기 선별된 제 1 프레임의 일부 영역만을 포함하는 복수개의 제2 프레임을 갖는 제2 동영상을 상기 외부 기기로 전송하는 단계를 포함하는 것을 특징으로 하는 영상 제공 방법.
  48. 복수개의 제1 프레임을 갖는 제 1 동영상을 외부 기기로 전송하는 단계;
    상기 외부 기기로부터 상기 제 1 동영상에 포함된 객체에 관련된 영역 정보를 수신하는 단계;
    상기 영역 정보에 기초하여, 상기 복수개의 제 1 프레임에서 상기 객체를 포함하는 일부 영역을 구별하는 단계; 및
    상기 구별된 제 1 프레임의 일부 영역만을 포함하는 복수개의 제2 프레임을 갖는 제2 동영상을 상기 외부 기기로 전송하는 단계를 포함하는 것을 특징으로 하는 영상 제공 방법.
  49. 애플리케이션의 실행 화면에 대응되는 제 1 영상을 제 1 해상도로 외부 기기로 전송하는 단계;
    상기 외부 기기에서 상기 제 1 해상도로 표시되는 상기 제 1 영상의 화면의 관심 영역에 관한 영역 정보를 상기 외부 기기로부터 수신하는 단계;
    상기 영역 정보에 기초하여, 상기 제 1 영상의 화면에서 상기 관심 영역에 대응되는, 상기 제 1 동영상의 화면보다 작은 영역을 결정하는 단계;
    상기 결정된 영역을 기초로 상기 제 1 영상을 제 2 영상으로 변환하는 단계; 및
    상기 제 2 영상을 상기 제 1 해상도로 상기 외부 기기로 전송하는 단계;
    를 포함하는 것을 특징으로 하는, 영상 제공 방법.
KR1020130081194A 2012-07-17 2013-07-10 영상 제공 시스템 및 방법 KR102091137B1 (ko)

Priority Applications (10)

Application Number Priority Date Filing Date Title
RU2015105185A RU2653305C2 (ru) 2012-07-17 2013-07-12 Система и способ предоставления изображения
PCT/KR2013/006257 WO2014014238A1 (en) 2012-07-17 2013-07-12 System and method for providing image
BR112015001112A BR112015001112A2 (pt) 2012-07-17 2013-07-12 método de fornecer imagem, método de receber imagem, utilizando um dispositivo, e método de fornecer imagem
JP2013148383A JP6271892B2 (ja) 2012-07-17 2013-07-17 映像提供システム及びその方法
US13/944,279 US9204090B2 (en) 2012-07-17 2013-07-17 System and method for providing image
CN201310299684.5A CN103546716A (zh) 2012-07-17 2013-07-17 提供图像的系统及方法
EP13176900.2A EP2688295B1 (en) 2012-07-17 2013-07-17 System and method for providing image
TW102125571A TWI584641B (zh) 2012-07-17 2013-07-17 提供影像的裝置與方法及非暫態電腦可讀取記錄媒體
US14/936,188 US9654728B2 (en) 2012-07-17 2015-11-09 System and method for providing image
US15/484,502 US10075673B2 (en) 2012-07-17 2017-04-11 System and method for providing image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020120077919 2012-07-17
KR20120077919 2012-07-17

Publications (2)

Publication Number Publication Date
KR20140011264A true KR20140011264A (ko) 2014-01-28
KR102091137B1 KR102091137B1 (ko) 2020-03-20

Family

ID=50143597

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130081194A KR102091137B1 (ko) 2012-07-17 2013-07-10 영상 제공 시스템 및 방법

Country Status (5)

Country Link
JP (1) JP6271892B2 (ko)
KR (1) KR102091137B1 (ko)
BR (1) BR112015001112A2 (ko)
RU (1) RU2653305C2 (ko)
TW (1) TWI584641B (ko)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160024606A (ko) * 2014-08-26 2016-03-07 삼성전자주식회사 프리뷰 영상 제공 방법 및 장치
KR20180037715A (ko) * 2016-10-05 2018-04-13 엘지전자 주식회사 무선 디바이스 및 무선 시스템
WO2019045128A1 (ko) * 2017-08-29 2019-03-07 라인 가부시키가이샤 영상통화의 영상 품질 향상
KR102067191B1 (ko) * 2019-06-28 2020-02-11 배경 상세영상 생성장치
WO2022260275A1 (ko) * 2021-06-07 2022-12-15 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
KR20230091285A (ko) * 2021-12-16 2023-06-23 주식회사 랩241 동영상의 복수의 선택 영역 확대 시스템 및 방법
US11817036B2 (en) 2021-06-07 2023-11-14 Samsung Electronics Co., Ltd. Display apparatus and control method thereof

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9858470B2 (en) 2014-07-18 2018-01-02 Htc Corporation Method for performing a face tracking function and an electric device having the same
US20160094849A1 (en) * 2014-09-27 2016-03-31 Intel Corporation THERMAL THROTTLING OF WiDi VIDEO STREAM RESOLUTION
JP2017028587A (ja) 2015-07-24 2017-02-02 ソニー株式会社 情報処理装置及び情報処理方法
EP3461138B1 (en) 2016-06-08 2021-09-22 Huawei Technologies Co., Ltd. Processing method and terminal
CN112640253A (zh) * 2018-08-31 2021-04-09 韦斯特尔电子工业和贸易有限责任公司 电子设备和操作方法
RU2696009C1 (ru) * 2018-10-22 2019-07-30 Акционерное общество "Калужский научно-исследовательский институт телемеханических устройств" Способ позиционирования подвижного объекта на основе видеоизображений
KR102222871B1 (ko) * 2019-02-22 2021-03-04 삼성전자주식회사 디스플레이 장치 및 이의 영상 표시 방법
KR20220149803A (ko) * 2021-04-23 2022-11-08 삼성전자주식회사 정보를 공유하기 위한 전자 장치 및 그 동작 방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060114987A1 (en) * 1998-12-21 2006-06-01 Roman Kendyl A Handheld video transmission and display
US20060215753A1 (en) * 2005-03-09 2006-09-28 Yen-Chi Lee Region-of-interest processing for video telephony
US20070229680A1 (en) * 2006-03-30 2007-10-04 Jai Pulnix, Inc. Resolution proportional digital zoom
JP2010520693A (ja) * 2007-03-05 2010-06-10 スネル リミテッド 画像データの関心領域を考慮した映像伝送方法および装置
KR20100084601A (ko) * 2008-06-25 2010-07-27 엔조스탄카토 다기능 텔레커뮤니케이션 장치
JP2010259540A (ja) * 2009-04-30 2010-11-18 Canon Inc 画像処理装置及び画像処理方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6178204B1 (en) * 1998-03-30 2001-01-23 Intel Corporation Adaptive control of video encoder's bit allocation based on user-selected region-of-interest indication feedback from video decoder
JP2002369164A (ja) * 2001-06-06 2002-12-20 Nikon Corp 電子画像装置および電子画像システム
SE526226C2 (sv) * 2003-12-19 2005-08-02 Ericsson Telefon Ab L M Bildbehandling
JP3115546U (ja) * 2005-08-05 2005-11-10 東芝テリー株式会社 表示装置
TWI275308B (en) * 2005-08-15 2007-03-01 Compal Electronics Inc Method and apparatus for adjusting output images
KR101464572B1 (ko) * 2008-03-20 2014-11-24 인스티튜트 퓌어 룬트퐁크테크닉 게엠베하 작은 스크린 크기들에 대해 비디오 이미지들을 적응시키는 방법
JP2009239480A (ja) * 2008-03-26 2009-10-15 Toshiba Corp 映像受信クライアント、映像配信サーバ、受信アルゴリズム切替制御方法及びプログラム
JP2010027000A (ja) * 2008-07-24 2010-02-04 Sony Corp 画像検出装置および画像検出方法
JP5089658B2 (ja) * 2009-07-16 2012-12-05 株式会社Gnzo 送信装置及び送信方法
US9185335B2 (en) * 2009-12-28 2015-11-10 Thomson Licensing Method and device for reception of video contents and services broadcast with prior transmission of data
EP2576315B1 (fr) * 2010-05-19 2018-09-26 Siemens S.A.S. Securisation d'une transmission video a distance destinee au controle a distance d'un vehicule
TW201225654A (en) * 2010-12-13 2012-06-16 Sonix Technology Co Ltd Image accessing apparatus and image data transmission method thereof

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060114987A1 (en) * 1998-12-21 2006-06-01 Roman Kendyl A Handheld video transmission and display
US20060215753A1 (en) * 2005-03-09 2006-09-28 Yen-Chi Lee Region-of-interest processing for video telephony
US20070229680A1 (en) * 2006-03-30 2007-10-04 Jai Pulnix, Inc. Resolution proportional digital zoom
JP2010520693A (ja) * 2007-03-05 2010-06-10 スネル リミテッド 画像データの関心領域を考慮した映像伝送方法および装置
KR20100084601A (ko) * 2008-06-25 2010-07-27 엔조스탄카토 다기능 텔레커뮤니케이션 장치
JP2010259540A (ja) * 2009-04-30 2010-11-18 Canon Inc 画像処理装置及び画像処理方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160024606A (ko) * 2014-08-26 2016-03-07 삼성전자주식회사 프리뷰 영상 제공 방법 및 장치
KR20180037715A (ko) * 2016-10-05 2018-04-13 엘지전자 주식회사 무선 디바이스 및 무선 시스템
WO2019045128A1 (ko) * 2017-08-29 2019-03-07 라인 가부시키가이샤 영상통화의 영상 품질 향상
US11223662B2 (en) 2017-08-29 2022-01-11 Line Corporation Method, system, and non-transitory computer readable record medium for enhancing video quality of video call
KR102067191B1 (ko) * 2019-06-28 2020-02-11 배경 상세영상 생성장치
WO2022260275A1 (ko) * 2021-06-07 2022-12-15 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
US11817036B2 (en) 2021-06-07 2023-11-14 Samsung Electronics Co., Ltd. Display apparatus and control method thereof
KR20230091285A (ko) * 2021-12-16 2023-06-23 주식회사 랩241 동영상의 복수의 선택 영역 확대 시스템 및 방법

Also Published As

Publication number Publication date
JP6271892B2 (ja) 2018-01-31
RU2653305C2 (ru) 2018-05-07
KR102091137B1 (ko) 2020-03-20
BR112015001112A2 (pt) 2017-06-27
RU2015105185A (ru) 2016-09-10
TW201410004A (zh) 2014-03-01
JP2014023158A (ja) 2014-02-03
TWI584641B (zh) 2017-05-21

Similar Documents

Publication Publication Date Title
EP2688295B1 (en) System and method for providing image
KR102091137B1 (ko) 영상 제공 시스템 및 방법
US10701273B1 (en) User terminal apparatus and control method thereof
US9319632B2 (en) Display apparatus and method for video calling thereof
EP3335416B1 (en) Digital photographing apparatus and method of operating the same
US10019782B2 (en) Method and apparatus for displaying content
US9807300B2 (en) Display apparatus for generating a background image and control method thereof
US9742995B2 (en) Receiver-controlled panoramic view video share
WO2021052008A1 (zh) 一种投屏方法及系统
CN110996117B (zh) 视频转码方法、装置、电子设备和存储介质
US9740294B2 (en) Display apparatus and method for controlling display apparatus thereof
KR20150019766A (ko) 영상 통화 방법 및 이를 지원하는 전자 장치
KR20170041098A (ko) 이동 단말기 및 그의 동작 방법
KR20150025268A (ko) 전자 기기 및 전자 기기의 제어 방법
US11756302B1 (en) Managing presentation of subject-based segmented video feed on a receiving device
KR101964461B1 (ko) 이동 단말기 및 이동 단말기의 제어 방법
US11284003B2 (en) User terminal apparatus and control method thereof
WO2022267696A1 (zh) 内容识别方法、装置、电子设备以及存储介质
US20230388447A1 (en) Subject-based smart segmentation of video feed on a transmitting device
KR20180040465A (ko) 이동 단말기 및 그의 동작 방법
CN111488898A (zh) 对抗数据获取方法、装置、设备及存储介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right