KR102091137B1 - System and method for rpoviding image - Google Patents

System and method for rpoviding image Download PDF

Info

Publication number
KR102091137B1
KR102091137B1 KR1020130081194A KR20130081194A KR102091137B1 KR 102091137 B1 KR102091137 B1 KR 102091137B1 KR 1020130081194 A KR1020130081194 A KR 1020130081194A KR 20130081194 A KR20130081194 A KR 20130081194A KR 102091137 B1 KR102091137 B1 KR 102091137B1
Authority
KR
South Korea
Prior art keywords
video
external device
region
resolution
area
Prior art date
Application number
KR1020130081194A
Other languages
Korean (ko)
Other versions
KR20140011264A (en
Inventor
김도형
김용태
전윤우
정연건
전혜영
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to PCT/KR2013/006257 priority Critical patent/WO2014014238A1/en
Priority to RU2015105185A priority patent/RU2653305C2/en
Priority to BR112015001112A priority patent/BR112015001112A2/en
Priority to EP13176900.2A priority patent/EP2688295B1/en
Priority to US13/944,279 priority patent/US9204090B2/en
Priority to TW102125571A priority patent/TWI584641B/en
Priority to CN201310299684.5A priority patent/CN103546716A/en
Priority to JP2013148383A priority patent/JP6271892B2/en
Publication of KR20140011264A publication Critical patent/KR20140011264A/en
Priority to US14/936,188 priority patent/US9654728B2/en
Priority to US15/484,502 priority patent/US10075673B2/en
Application granted granted Critical
Publication of KR102091137B1 publication Critical patent/KR102091137B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/39Control of the bit-mapped memory
    • G09G5/391Resolution modifying circuits, e.g. variable screen formats
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Hardware Design (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Television Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

영상 제공 시스템 및 방법이 제공된다. 영상 제공 방법은, 원본 해상도를 가진 제 1 동영상을 제 1 해상도로 외부 기기로 전송하는 단계; 상기 외부 기기에서 상기 제 1 해상도로 표시되는 상기 제 1 동영상의 관심 영역에 관한 영역 정보를 상기 외부 기기로부터 수신하는 단계; 상기 영역 정보에 기초하여, 상기 원본 해상도의 상기 제 1 동영상에서 상기 관심 영역에 대응되는 영역을 결정하는 단계; 상기 원본 해상도의 제 1 동영상의 일부를 제 2 동영상으로 변환하는 단계; 및 상기 제 2 동영상을 상기 제 1 해상도로 상기 외부 기기로 전송하는 단계를 포함한다.An image providing system and method is provided. The image providing method includes: transmitting a first video having an original resolution to an external device at a first resolution; Receiving, from the external device, area information on a region of interest of the first video displayed at the first resolution in the external device; Determining an area corresponding to the region of interest in the first video of the original resolution based on the region information; Converting a part of the first video of the original resolution into a second video; And transmitting the second video to the external device at the first resolution.

Description

영상 제공 시스템 및 방법{SYSTEM AND METHOD FOR RPOVIDING IMAGE}Video providing system and method {SYSTEM AND METHOD FOR RPOVIDING IMAGE}

본 발명은 디바이스에서 촬영되는 영상의 일부에 대응되는 객체를 포함하는 영상을 다른 디바이스에게 제공하는 영상 제공 시스템 및 방법에 관한 것이다.The present invention relates to an image providing system and method for providing an image including an object corresponding to a part of an image photographed on a device to another device.

최근 들어, 멀티미디어 기능을 구비한 디바이스 간에 영상을 송수신하는 기술이 활성화되고 있다, 특히, 이동 통신 인프라의 구축이 이루어지고, 스마트폰, 휴대폰, PDA(Personal Digital Assistance) 등이 보편화됨에 따라 기존의 음성 통화 기능을 벗어난 다양한 서비스들이 제공되고 있다.In recent years, technologies for transmitting and receiving images between devices having multimedia functions have been activated, in particular, as mobile communication infrastructures have been built, and smartphones, mobile phones, PDAs (Personal Digital Assistance), etc. have become popular. Various services have been provided outside the calling function.

또한, 디바이스를 이용한 화상 통화는 원거리에서 양측의 사용자가 상대방 사용자를 직접 대면하면서 통화할 수 있기 때문에 그 사용이 급격히 확대되고 있다.In addition, the video call using the device has been rapidly expanded because users on both sides can talk while facing each other directly.

일반적으로, 송신 측의 디바이스는 화상 통화를 위하여 사용자의 영상을 취득하고 소정의 동영상 비디오 인코딩 포맷에 따라 취득된 영상을 인코딩한 후 다른 디바이스에게 송출한다.In general, the transmitting device acquires a user's video for a video call, encodes the acquired video according to a predetermined video and video encoding format, and transmits the video to another device.

또한, 수신 측의 디바이스는 이동 통신망으로부터 인코딩된 비디오 데이터를 수신하고 이를 디코딩한 후 수신 측의 디바이스에 내장된 디스플레이 장치, 예컨대 LCD(Liquid Crystal Display)를 사용하여 디스플레이한다. 따라서, 수신 측의 사용자는 송신 측의 디바이스에 의하여 촬영된 영상을 실시간으로 보면서 통화를 수행할 수 있게 된다.In addition, the receiving device receives the encoded video data from the mobile communication network, decodes it, and displays it using a display device built in the receiving device, such as a liquid crystal display (LCD). Therefore, the user of the receiving side can perform a call while viewing the image photographed by the device of the transmitting side in real time.

그런데, 디바이스들에 포함된 디스플레이 장치의 해상도가 각각 상이하며, 디바이스 간에 전송되는 데이터들의 스트리밍 해상도가 통신 방법에 따라 상이하므로, 송신 측의 디바이스에서 촬영된 동영상의 일부를 효과적으로 수신 측의 디바이스에게 제공할 수 있는 기술이 요구되고 있다. 게다가, 영상 통화 시에, 송신 측의 디바이스에 의해 촬영된 영상의 일부분을 효과적으로 선택하고 확대하여 사용자에게 제공할 수 있는 기술이 요구되고 있다.However, since the resolution of the display apparatus included in the devices is different, and the streaming resolution of data transmitted between devices is different according to a communication method, a part of a video captured by a transmitting device is effectively provided to a receiving device There is a need for a technology that can do it. In addition, there is a demand for a technique capable of effectively selecting and enlarging a portion of an image photographed by a transmitting device during a video call and providing it to a user.

본 발명의 일 실시예는 디바이스가 촬영되고 있는 영상에 포함된 객체를 추적하고, 추적된 객체를 포함하는 일부 영상을 다른 디바이스에게 제공할 수 있도록 하는 영상 제공 시스템 및 방법을 제공한다.One embodiment of the present invention provides an image providing system and method for tracking an object included in an image in which the device is being photographed, and providing some images including the tracked object to other devices.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제 1 측면은, 촬영되고 있는 영상에 기초하여 제 1 동영상을 외부 기기로 전송하는 단계; 상기 외부 기기로부터 상기 제 1 동영상의 일부 영역에 관한 영역 정보를 수신하는 단계; 상기 촬영되고 있는 영상으로부터 상기 영역 정보와 관련된 객체를 식별하여 추적하는 단계; 및 상기 촬영되고 있는 영상에 기초하여, 상기 추적된 객체를 포함하는 제 2 동영상을 상기 외부 기기에게 제공하는 단계;를 포함하는, 영상 제공 방법을 제공할 수 있다.As a technical means for achieving the above-described technical problem, a first aspect of the present invention includes: transmitting a first video to an external device based on an image being photographed; Receiving area information on a partial area of the first video from the external device; Identifying and tracking an object related to the area information from the captured image; And providing a second video including the tracked object to the external device based on the captured image.

또한, 상기 영역 정보는, 상기 외부 기기에 의해 선택된 일부 영역에 관한 정보이며, 상기 외부 기기에 의해 생성될 수 있다.Further, the area information is information on a partial area selected by the external device, and may be generated by the external device.

또한, 상기 외부 기기의 화면이 터치되면, 상기 터치된 부분을 포함하는 객체를 포함하는 영역이 상기 일부 영역으로 선택될 수 있다.In addition, when the screen of the external device is touched, an area including an object including the touched part may be selected as the partial area.

또한, 상기 외부 기기의 화면이 터치되면, 상기 터치된 부분으로부터 기 설정된 범위의 영역이 상기 일부 영역으로 선택될 수 있다.In addition, when a screen of the external device is touched, an area in a preset range from the touched portion may be selected as the partial area.

또한, 상기 외부 기기의 화면이 터치되면, 상기 터치된 지점에 대한 좌표 정보를 상기 외부 기기로부터 수신하는 단계;를 포함하며, 상기 객체를 식별하여 추척하는 단계는, 상기 수신된 좌표 정보에 기초하여, 상기 촬영되고 있는 영상으로부터, 상기 터치된 지점에 대응되는 객체를 식별하고 추적할 수 있다.In addition, when the screen of the external device is touched, receiving coordinate information for the touched point from the external device; including, identifying and tracking the object is based on the received coordinate information , It is possible to identify and track an object corresponding to the touched point from the captured image.

또한, 상기 외부 기기의 화면이 터치되면, 상기 일부 영역을 선택하기 위한 사용자 인터페이스가 상기 외부 기기의 화면에 디스플레이될 수 있다.In addition, when the screen of the external device is touched, a user interface for selecting the partial area may be displayed on the screen of the external device.

또한, 상기 제 1 동영상 및 상기 제 2 동영상은 상기 외부기기와의 영상 통화를 위한 동영상이며, 상기 촬영되고 있는 영상의 해상도는 상기 영상 통화의 스트리밍 해상도보다 큰 것일 수 있다.In addition, the first video and the second video are videos for a video call with the external device, and the resolution of the video being captured may be greater than the streaming resolution of the video call.

또한, 상기 외부 기기와의 통신 방법의 종류에 따라, 상기 일부 영역의 범위가 결정될 수 있다.Also, a range of the partial region may be determined according to the type of communication method with the external device.

또한, 상기 외부기기와의 통신 방법의 종류에 따라, 상기 제 1 동영상 및 상기 제 2 동영상 중 적어도 하나의 해상도가 결정될 수 있다.Also, at least one resolution of the first video and the second video may be determined according to the type of communication method with the external device.

또한, 상기 방법은, 상기 외부기기와의 통신 방법이 변경됨에 따라, 상기 제 1 동영상 및 상기 제 2 동영상 중 적어도 하나의 해상도를 변경하는 단계;를 더 포함할 수 있다.The method may further include changing a resolution of at least one of the first video and the second video as a communication method with the external device changes.

또한, 상기 방법은, 상기 외부기기와의 통신 방법이 변경됨에 따라, 상기 제 2 동영상에 대응되는 영역을 변경하는 단계; 및 상기 변경된 영역에 대한 동영상을 상기 외부 기기에게 제공하는 단계;를 더 포함할 수 있다.In addition, the method, as the communication method with the external device is changed, changing the area corresponding to the second video; And providing a video of the changed area to the external device.

또한, 상기 방법은, 상기 촬영되고 있는 영상으로부터 상기 객체가 사라지면, 상기 제 2 동영상에 대응되는 영역을 변경하는 단계; 및 상기 변경된 영역에 대한 동영상을 상기 외부 기기에게 제공하는 단계;를 더 포함할 수 있다.In addition, the method, if the object disappears from the image being captured, changing the area corresponding to the second video; And providing a video of the changed area to the external device.

또한, 상기 방법은, 상기 사라진 객체가 상기 촬영되고 있는 영상에 나타나면, 상기 촬영되고 있는 영상의 전체 영역 중에서 상기 나타난 객체를 포함하는 일부 영역의 동영상을 상기 외부기기에게 제공하는 단계;를 더 포함할 수 있다.In addition, the method, when the disappeared object appears on the image being photographed, providing a video of a partial area including the object to the external device among the entire area of the image being captured; You can.

또한, 본 발명의 제 2 측면은, 외부 기기로부터 제 1 동영상을 수신하는 단계; 상기 수신된 제 1 동영상의 일부 영역에 관한 영역 정보를 상기 외부 기기에게 제공하는 단계; 및 상기 제공된 일부 영역과 관련된 객체를 포함하는 제 2 동영상을 상기 외부 기기로부터 수신하는 단계;를 포함하며, 상기 제 1 동영상 및 상기 제 2 동영상은, 상기 외부 기기에서 촬영되고 있는 동영상에 기초하여 상기 외부 기기로부터 제공되며, 상기 객체는 상기 촬영되고 있는 동영상으로부터 상기 외부 기기에 의해 식별되고 추적된 것인, 영상 수신 방법을 제공할 수 있다.In addition, the second aspect of the present invention, receiving a first video from an external device; Providing area information on a partial area of the received first video to the external device; And receiving a second video including the object related to the provided partial area from the external device, wherein the first video and the second video are based on the video being recorded on the external device. It is provided from an external device, and the object is identified and tracked by the external device from the video being captured.

또한, 상기 방법은, 사용자 입력에 기초하여 상기 일부 영역을 선택하는 단계; 및 상기 선택된 일부 영역에 관한 상기 영역 정보를 생성하는 단계;를 더 포함할 수 있다.In addition, the method may include selecting the partial region based on user input; And generating the area information on the selected partial area.

또한, 상기 일부 영역을 선택하는 단계는 상기 외부 기기의 화면이 터치되면, 상기 터치된 부분을 포함하는 객체를 포함하는 영역을 상기 일부 영역으로 선택할 수 있다.Also, in the selecting of the partial area, when the screen of the external device is touched, the area including the object including the touched part may be selected as the partial area.

또한, 상기 일부 영역을 선택하는 단계는 상기 외부 기기의 화면이 터치되면, 상기 터치된 부분으로부터 기 설정된 범위의 영역을 상기 일부 영역으로 선택할 수 있다.In addition, when the screen of the external device is touched, the selecting of the partial region may select a region of a preset range from the touched portion as the partial region.

또한, 상기 영역 정보를 제공하는 단계는 상기 외부 기기의 화면이 터치되면, 상기 터치된 지점에 대한 좌표 정보를 상기 외부 기기에게 제공하며, 상기 제공된 좌표 정보는, 상기 외부 기기가, 상기 촬영되고 있는 영상으로부터, 상기 터치된 지점에 대응되는 객체를 식별하고 추적하는데 이용될 수 있다.In addition, in the step of providing the area information, when the screen of the external device is touched, the coordinate information for the touched point is provided to the external device, and the provided coordinate information includes the external device being photographed. From the image, it can be used to identify and track the object corresponding to the touched point.

또한, 상기 방법은, 상기 외부 기기의 화면이 터치되면, 상기 일부 영역을 선택하기 위한 사용자 인터페이스를 디스플레이하는 단계;를 더 포함할 수 있다.The method may further include displaying a user interface for selecting the partial area when the screen of the external device is touched.

또한, 상기 제 1 동영상 및 상기 제 2 동영상은 상기 외부기기와의 영상 통화를 위한 동영상이며, 상기 촬영되고 있는 영상의 해상도는 상기 영상 통화의 스트리밍 해상도보다 큰 것일 수 있다.In addition, the first video and the second video are videos for a video call with the external device, and the resolution of the video being captured may be greater than the streaming resolution of the video call.

또한, 상기 외부 기기와의 통신 방법의 종류에 따라, 상기 일부 영역의 범위가 결정될 수 있다.Also, a range of the partial region may be determined according to the type of communication method with the external device.

또한, 상기 외부기기와의 통신 방법의 종류에 따라, 상기 외부 기기에서 상기 제 1 동영상 및 상기 제 2 동영상 중 적어도 하나의 해상도가 결정될 수 있다.Also, according to the type of communication method with the external device, at least one resolution of the first video and the second video may be determined in the external device.

또한, 상기 외부기기와의 통신 방법이 변경됨에 따라, 상기 외부 기기에 의해 상기 제 1 동영상 및 상기 제 2 동영상 중 적어도 하나의 해상도가 변경될 수 있다.In addition, as the communication method with the external device changes, at least one resolution of the first video and the second video may be changed by the external device.

또한, 상기 외부기기와의 통신 방법이 변경됨에 따라, 상기 일부 영역이 변경될 수 있다.Also, as the communication method with the external device is changed, the partial area may be changed.

또한, 상기 촬영되고 있는 영상으로부터 상기 객체가 사라지면, 상기 제 2 동영상에 대응되는 영역이 변경되며, 상기 방법은, 상기 변경된 영역에 대한 동영상을 상기 외부 기기로부터 수신하는 단계;를 더 포함할 수 있다.In addition, when the object disappears from the image being photographed, an area corresponding to the second video is changed, and the method may further include receiving a video of the changed area from the external device. .

또한, 상기 방법은, 상기 사라진 객체가 상기 촬영되고 있는 영상에 나타나면, 상기 나타난 객체를 포함하는 동영상을 상기 외부기기로부터 수신하는 단계;를 더 포함할 수 있다.The method may further include receiving, when the disappeared object appears in the image being captured, a video including the displayed object from the external device.

또한, 본 발명의 제 3 측면은, 적어도 하나의 프로그램이 저장되는 메모리; 및 상기 적어도 하나의 프로그램을 실행함으로써 외부 기기에게 동영상을 제공하는 프로세서를 포함하고, 상기 적어도 하나의 프로그램은, 촬영되고 있는 영상에 기초하여 제 1 동영상을 외부 기기로 전송하는 단계; 상기 외부 기기로부터 상기 제 1 동영상의 일부 영역에 관한 영역 정보를 수신하는 단계; 상기 촬영되고 있는 영상으로부터 상기 영역 정보와 관련된 객체를 식별하여 추적하는 단계; 및 상기 촬영되고 있는 영상에 기초하여, 상기 추적된 객체를 포함하는 제 2 동영상을 상기 외부 기기에게 제공하는 단계;를 실행하는 명령어들을 포함하는 것을 특징으로 하는, 디바이스를 제공할 수 있다.In addition, a third aspect of the present invention, a memory in which at least one program is stored; And a processor that provides a video to an external device by executing the at least one program, wherein the at least one program comprises: transmitting a first video to an external device based on the image being captured; Receiving area information on a partial area of the first video from the external device; Identifying and tracking an object related to the area information from the captured image; And providing a second video including the tracked object to the external device, based on the image being captured.

또한, 상기 영역 정보는, 상기 외부 기기에 의해 선택된 일부 영역에 관한 정보이며, 상기 외부 기기에 의해 생성될 수 있다.Further, the area information is information on a partial area selected by the external device, and may be generated by the external device.

또한, 상기 외부 기기의 화면이 터치되면, 상기 터치된 부분을 포함하는 객체를 포함하는 영역이 상기 일부 영역으로 선택될 수 있다.In addition, when the screen of the external device is touched, an area including an object including the touched part may be selected as the partial area.

또한, 상기 외부 기기의 화면이 터치되면, 상기 터치된 부분으로부터 기 설정된 범위의 영역이 상기 일부 영역으로 선택될 수 있다.In addition, when a screen of the external device is touched, an area in a preset range from the touched portion may be selected as the partial area.

또한, 상기 디바이스는, 상기 외부 기기의 화면이 터치되면, 상기 터치된 지점에 대한 좌표 정보를 상기 외부 기기로부터 수신하는 단계;를 실행하는 명령어들을 더 포함하며, 상기 객체를 식별하여 추척하는 단계는, 상기 수신된 좌표 정보에 기초하여, 상기 촬영되고 있는 영상으로부터, 상기 터치된 지점에 대응되는 객체를 식별하고 추적할 수 있다.In addition, when the screen of the external device is touched, the device further includes instructions for executing; receiving coordinate information for the touched point from the external device, and identifying and tracking the object, , Based on the received coordinate information, an object corresponding to the touched point can be identified and tracked from the image being captured.

또한, 상기 외부 기기의 화면이 터치되면, 상기 일부 영역을 선택하기 위한 사용자 인터페이스가 상기 외부 기기의 화면에 디스플레이될 수 있다.In addition, when the screen of the external device is touched, a user interface for selecting the partial area may be displayed on the screen of the external device.

또한, 상기 제 1 동영상 및 상기 제 2 동영상은 상기 외부기기와의 영상 통화를 위한 동영상이며, 상기 촬영되고 있는 영상의 해상도는 상기 영상 통화의 스트리밍 해상도보다 큰 것일 수 있다.In addition, the first video and the second video are videos for a video call with the external device, and the resolution of the video being captured may be greater than the streaming resolution of the video call.

또한, 상기 외부 기기와의 통신 방법의 종류에 따라, 상기 일부 영역의 범위가 결정될 수 있다.Also, a range of the partial region may be determined according to the type of communication method with the external device.

또한, 상기 외부기기와의 통신 방법의 종류에 따라, 상기 제 1 동영상 및 상기 제 2 동영상 중 적어도 하나의 해상도가 결정될 수 있다.Also, at least one resolution of the first video and the second video may be determined according to the type of communication method with the external device.

또한, 상기 디바이스는, 상기 외부기기와의 통신 방법이 변경됨에 따라, 상기 제 1 동영상 및 상기 제 2 동영상 중 적어도 하나의 해상도를 변경하는 단계;를 실행하는 명령어들을 더 포함할 수 있다.In addition, the device may further include instructions for executing; changing a resolution of at least one of the first video and the second video according to a change in a communication method with the external device.

또한, 상기 디바이스는, 상기 외부기기와의 통신 방법이 변경됨에 따라, 상기 제 2 동영상에 대응되는 영역을 변경하는 단계; 및 상기 변경된 영역에 대한 동영상을 상기 외부 기기에게 제공하는 단계;를 실행하는 명령어들을 더 포함할 수 있다.In addition, the device, as the communication method with the external device is changed, changing the area corresponding to the second video; And providing a video of the changed area to the external device.

또한, 상기 디바이스는, 상기 촬영되고 있는 영상으로부터 상기 객체가 사라지면, 상기 제 2 동영상에 대응되는 영역을 변경하는 단계; 및 상기 변경된 영역에 대한 동영상을 상기 외부 기기에게 제공하는 단계;를 실행하는 명령어들을 더 포함할 수 있다.In addition, the device, if the object disappears from the image being captured, changing the area corresponding to the second video; And providing a video of the changed area to the external device.

또한, 상기 디바이스는, 상기 사라진 객체가 상기 촬영되고 있는 영상에 나타나면, 상기 촬영되고 있는 영상의 전체 영역 중에서 상기 나타난 객체를 포함하는 일부 영역의 동영상을 상기 외부기기에게 제공하는 단계;를 실행하는 명령어들을 더 포함할 수 있다.In addition, the device, when the disappeared object appears in the image being photographed, providing a video of a portion of the entire area of the image being captured, including the object, to the external device. It may further include.

또한, 본 발명의 제 4 측면은, 적어도 하나의 프로그램이 저장되는 메모리; 및 상기 적어도 하나의 프로그램을 실행함으로써 외부 기기로부터 동영상을 수신하도록 하는 프로세서를 포함하고, 상기 적어도 하나의 프로그램은, 상기 외부 기기로부터 제 1 동영상을 수신하는 단계; 상기 수신된 제 1 동영상의 일부 영역에 관한 영역 정보를 상기 외부 기기에게 제공하는 단계; 및 상기 제공된 일부 영역과 관련된 객체를 포함하는 제 2 동영상을 상기 외부 기기로부터 수신하는 단계;를 실행하는 명령어들을 포함하며, 상기 제 1 동영상 및 상기 제 2 동영상은, 상기 외부 기기에서 촬영되고 있는 동영상에 기초하여 상기 외부 기기로부터 제공되며, 상기 객체는 상기 촬영되고 있는 동영상으로부터 상기 외부 기기에 의해 식별되고 추적된 것인, 디바이스를 제공할 수 있다.In addition, a fourth aspect of the present invention, a memory in which at least one program is stored; And a processor configured to receive a video from an external device by executing the at least one program, wherein the at least one program comprises: receiving a first video from the external device; Providing area information on a partial area of the received first video to the external device; And receiving, from the external device, a second video including an object related to the provided partial region, wherein the first video and the second video are videos being recorded on the external device. Based on the provided from the external device, the object can be provided that the device, which is identified and tracked by the external device from the video being captured.

또한, 상기 디바이스는, 사용자 입력에 기초하여 상기 일부 영역을 선택하는 단계; 및 상기 선택된 일부 영역에 관한 상기 영역 정보를 생성하는 단계;를 실행하는 명령어들을 더 포함할 수 있다.Also, the device may include selecting the partial area based on a user input; And generating the region information on the selected partial region.

또한, 상기 일부 영역을 선택하는 단계는 상기 외부 기기의 화면이 터치되면, 상기 터치된 부분을 포함하는 객체를 포함하는 영역을 상기 일부 영역으로 선택할 수 있다.Also, in the selecting of the partial area, when the screen of the external device is touched, the area including the object including the touched part may be selected as the partial area.

또한, 상기 일부 영역을 선택하는 단계는 상기 외부 기기의 화면이 터치되면, 상기 터치된 부분으로부터 기 설정된 범위의 영역을 상기 일부 영역으로 선택할 수 있다.In addition, when the screen of the external device is touched, the selecting of the partial region may select a region of a preset range from the touched portion as the partial region.

또한, 상기 영역 정보를 제공하는 단계는 상기 외부 기기의 화면이 터치되면, 상기 터치된 지점에 대한 좌표 정보를 상기 외부 기기에게 제공하며, 상기 제공된 좌표 정보는, 상기 외부 기기가, 상기 촬영되고 있는 영상으로부터, 상기 터치된 지점에 대응되는 객체를 식별하고 추적하는데 이용될 수 있다.In addition, in the step of providing the area information, when the screen of the external device is touched, the coordinate information for the touched point is provided to the external device, and the provided coordinate information includes the external device being photographed. From the image, it can be used to identify and track the object corresponding to the touched point.

또한, 상기 디바이스는, 상기 외부 기기의 화면이 터치되면, 상기 일부 영역을 선택하기 위한 사용자 인터페이스를 디스플레이하는 단계;를 실행하는 명령어들을 더 포함할 수 있다.Further, the device may further include instructions to execute; when a screen of the external device is touched, displaying a user interface for selecting the partial area.

또한, 상기 제 1 동영상 및 상기 제 2 동영상은 상기 외부기기와의 영상 통화를 위한 동영상이며, 상기 촬영되고 있는 영상의 해상도는 상기 영상 통화의 스트리밍 해상도보다 큰 것일 수 있다.In addition, the first video and the second video are videos for a video call with the external device, and the resolution of the video being captured may be greater than the streaming resolution of the video call.

또한, 상기 외부 기기와의 통신 방법의 종류에 따라, 상기 일부 영역의 범위가 결정될 수 있다.Also, a range of the partial region may be determined according to the type of communication method with the external device.

또한, 상기 외부기기와의 통신 방법의 종류에 따라, 상기 외부 기기에서 상기 제 1 동영상 및 상기 제 2 동영상 중 적어도 하나의 해상도가 결정될 수 있다.Also, according to the type of communication method with the external device, at least one resolution of the first video and the second video may be determined in the external device.

또한, 상기 외부기기와의 통신 방법이 변경됨에 따라, 상기 외부 기기에 의해 상기 제 1 동영상 및 상기 제 2 동영상 중 적어도 하나의 해상도가 변경될 수 있다.In addition, as the communication method with the external device changes, at least one resolution of the first video and the second video may be changed by the external device.

또한, 상기 외부기기와의 통신 방법이 변경됨에 따라, 상기 일부 영역이 변경될 수 있다.Also, as the communication method with the external device is changed, the partial area may be changed.

또한, 상기 촬영되고 있는 영상으로부터 상기 객체가 사라지면, 상기 제 2 동영상에 대응되는 영역이 변경되며, 상기 디바이스는, 상기 변경된 영역에 대한 동영상을 상기 외부 기기로부터 수신하는 단계;를 실행하는 명령어들을 더 포함할 수 있다.In addition, when the object disappears from the image being captured, an area corresponding to the second video is changed, and the device receives the video about the changed area from the external device. It can contain.

또한, 상기 디바이스는 상기 사라진 객체가 상기 촬영되고 있는 영상에 나타나면, 상기 나타난 객체를 포함하는 동영상을 상기 외부기기로부터 수신하는 단계;를 실행하는 명령어들을 더 포함할 수 있다.In addition, the device may further include instructions for executing; when the disappeared object appears on the image being photographed, receiving a video including the displayed object from the external device.

도 1은 본 발명의 일 실시예에 따른 영상 제공 시스템의 전체 개요도이다.
도 2는 본 발명의 일 실시예에 따른 제 1 디바이스(100)에서 촬영된 영상의 일부에 대응되는 객체를 포함하는 영상이 제 2 디바이스(200)에서 표시되는 일례를 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 제 1 디바이스(100)가 촬영 중인 동영상의 일부 영역에 대응되는 객체를 포함하는 동영상을 제 2 디바이스(200)에게 제공하는 방법의 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 제 2 디바이스(200)가 관심 영역에 관한 영역 정보를 생성하는 방법의 흐름도이다.
도 5는 본 발명의 일 실시예에 따른 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법이 변경되는 경우에 제 1 디바이스(100)가 선택된 관심 영역을 변경하고 변경된 영역에 대한 동영상을 제 2 디바이스(200)에게 제공하는 방법의 흐름도이다.
도 6은 본 발명의 일 실시예에 따른 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법이 변경되는 경우에 제 1 디바이스(100)가 변경된 해상도의 동영상을 제 2 디바이스(200)에게 제공하는 방법의 흐름도이다.
도 7은 본 발명의 다른 실시예에 따른 제 1 디바이스(100)가 촬영 중인 동영상의 일부 영역에 대응되는 객체를 포함하는 동영상을 제 2 디바이스(200)에게 제공하는 방법의 흐름도이다.
도 8은 본 발명의 일 실시예에 따른 사용자의 터치 지점을 포함하는 객체가 포함되도록 제 2 디바이스(200)가 제 1 동영상의 일부 영역을 관심 영역으로 결정하는 일례를 도시한 도면이다.
도 9는 본 발명의 일 실시예에 따른 제 2 디바이스(200)가 사용자의 터치 지점으로부터 기 설정된 범위의 일부 영역을 관심 영역으로 결정하는 일례를 도시한 도면이다.
도 10은 본 발명의 일 실시예에 따른 일부 영역을 결정하기 위한 사용자 인터페이스를 이용하여, 제 2 디바이스(200)가 제 1 동영상의 일부 영역을 관심 영역으로 결정하는 일례를 도시한 도면이다.
도 11은 본 발명의 일 실시예에 따른 제 1 디바이스(100)와 제 2 디바이스(200)간의 통신 방법에 변경되는 경우에, 제 2 디바이스(200)가 제 1 디바이스(100)로부터 해상도가 변경된 동영상을 제공받는 일례를 도시한 도면이다.
도 12는 본 발명의 일 실시예에 따른 제 1 디바이스(100)와 제 2 디바이스(200)간의 통신 방법에 변경되는 경우에, 제 2 디바이스(200)가 제 1 디바이스(100)로부터 화질이 변경된 동영상을 제공받는 일례를 도시한 도면이다.
도 13은 본 발명의 일 실시예에 따른 제 1 디바이스(100)와 제 2 디바이스(200)간의 통신 방법에 변경되는 경우에, 제 2 디바이스(200)가 제 1 디바이스(100)로부터 변경된 일부 영역에 대한 동영상을 제공받는 일례를 도시한 도면이다.
도 14는 본 발명의 일 실시예에 따른 제 1 디바이스(100)의 블록도이다.
도 15는 본 발명의 일 실시예에 따른 제 2 디바이스(200)의 블록도이다.
도 16은 본 발명의 다른 실시에에 따른 디바이스의 블록도이다.
도 17은 본 발명의 일 실시예에 따른 제 2 디바이스(200)에 표시된 제 1 동영상의 화면의 일부 영역을 확대하는 일례를 도시한 도면이다.
도 18은 본 발명의 일 실시예에 따른 제 2 디바이스(200)에 표시된 동영상의 화면이 단계적으로 확대되는 일례를 도시한 도면이다.
도 19는 본 발명의 일 실시예에 따른 제 2 디바이스(200)에서 제 1 동영상의 일부 영역이 확대된 미리 보기 영상이 표시된 이후에, 제 1 디바이스(100)로부터 제공된 제 2 동영상이 표시되는 일례를 도시한 도면이다.
도 20은 본 발명의 일 실시예에 따른 RTP(Real-time Transfer Protocol) 패킷 헤더의 일례를 도시한 도면이다.
도 21은 본 발명의 일 실시예에 따른 제 1 디바이스(100)가 제 4 영상을 생성하는 방법의 흐름도이다.
도 22은 본 발명의 일 실시예에 따른, 제 1 디바이스(100)와 영상 통화를 하고 있는 제 2 디바이스(200)가, 제 1 동영상의 일부 영역에 대하여 확대된 제 2 동영상을 수신하는 방법의 흐름도이다.
도 23은 본 발명의 일 실시예에 따른, 제 1 디바이스(100)와 영상 통화를 하고 있는 제 2 디바이스(200)가, 제 1 동영상의 일부 영역을 확대하여 표시하는 방법의 흐름도이다.
도 24는 본 발명의 일 실시예에 따른, 제 1 동영상에서 선택된 일부 영역에 대한 확대 영상이, 제 1 동영상과 함께, 제 2 디바이스(200)의 화면에 표시되는 일례를 도시한 도면이다.
1 is an overall schematic diagram of an image providing system according to an embodiment of the present invention.
2 is a diagram illustrating an example in which an image including an object corresponding to a part of an image captured by the first device 100 according to an embodiment of the present invention is displayed on the second device 200.
3 is a flowchart of a method of providing a video including an object corresponding to a partial region of a video being photographed by the first device 100 to the second device 200 according to an embodiment of the present invention.
4 is a flowchart of a method in which the second device 200 according to an embodiment of the present invention generates area information regarding a region of interest.
FIG. 5 shows a video of the changed region of interest and the first device 100 changing the selected region of interest when the communication method between the first device 100 and the second device 200 is changed according to an embodiment of the present invention. Is a flowchart of a method for providing the second device 200.
6 is a first device 100 according to an embodiment of the present invention when the communication method between the second device 200 is changed, the first device 100 changes the video of the resolution of the second device 200 Is a flowchart of how to provide it.
7 is a flowchart of a method of providing a video including an object corresponding to a partial region of a video being photographed by the first device 100 to the second device 200 according to another embodiment of the present invention.
FIG. 8 is a diagram illustrating an example in which the second device 200 determines a partial region of the first video as a region of interest so that an object including a user's touch point is included according to an embodiment of the present invention.
9 is a diagram illustrating an example in which the second device 200 according to an embodiment of the present invention determines a partial region of a preset range as a region of interest from a user's touch point.
FIG. 10 is a diagram illustrating an example in which the second device 200 determines a partial region of the first video as a region of interest by using a user interface for determining a partial region according to an embodiment of the present invention.
FIG. 11 illustrates a case in which the resolution of the second device 200 is changed from the first device 100 when the communication method between the first device 100 and the second device 200 is changed according to an embodiment of the present invention. A diagram showing an example of receiving a video.
FIG. 12 shows that when the communication method between the first device 100 and the second device 200 is changed according to an embodiment of the present invention, the second device 200 changes the image quality from the first device 100. A diagram showing an example of receiving a video.
FIG. 13 shows a partial area in which the second device 200 is changed from the first device 100 when the communication method between the first device 100 and the second device 200 is changed according to an embodiment of the present invention. It is a diagram showing an example of receiving a video for.
14 is a block diagram of a first device 100 according to an embodiment of the present invention.
15 is a block diagram of a second device 200 according to an embodiment of the present invention.
16 is a block diagram of a device according to another embodiment of the present invention.
17 is a diagram illustrating an example of enlarging a partial area of a screen of a first video displayed on the second device 200 according to an embodiment of the present invention.
18 is a diagram illustrating an example in which a screen of a video displayed on the second device 200 according to an embodiment of the present invention is enlarged step by step.
19 is an example in which a second video provided from the first device 100 is displayed after a preview image in which a partial area of the first video is enlarged is displayed on the second device 200 according to an embodiment of the present invention. It is a diagram showing.
20 is a diagram illustrating an example of a Real-time Transfer Protocol (RTP) packet header according to an embodiment of the present invention.
21 is a flowchart of a method for a first device 100 to generate a fourth image according to an embodiment of the present invention.
22 is a diagram of a method for a second device 200 having a video call with the first device 100 to receive a second expanded video with respect to a partial region of the first video according to an embodiment of the present invention. It is a flow chart.
23 is a flowchart of a method in which a second device 200 making a video call with the first device 100 enlarges and displays a partial area of the first video according to an embodiment of the present invention.
24 is a diagram illustrating an example in which an enlarged image of a partial region selected from a first video is displayed on a screen of the second device 200 together with the first video according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art to which the present invention pertains can easily practice. However, the present invention can be implemented in many different forms and is not limited to the embodiments described herein. In addition, in order to clearly describe the present invention in the drawings, parts irrelevant to the description are omitted, and like reference numerals are assigned to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is "connected" to another part, this includes not only "directly connected" but also "electrically connected" with another element in between. . Also, when a part “includes” a certain component, this means that other components may be further included rather than excluding other components, unless otherwise specified.

이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 영상 제공 시스템의 전체 개요도이다.1 is an overall schematic diagram of an image providing system according to an embodiment of the present invention.

도 1은 참조하면, 제 1 디바이스(100) 및 제 2 디바이스(200)는 서로 영상 통화를 수행할 수 있으며, 제 1 디바이스(100)는 촬영 중인 동영상을 제 2 디바이스(200)에게 제공할 수 있다. 또한, 제 2 디바이스(200)도 촬영 중인 동영상을 제 1 디바이스(100)에게 제공할 수 있다.Referring to FIG. 1, the first device 100 and the second device 200 can make a video call with each other, and the first device 100 can provide the video being captured to the second device 200. have. In addition, the second device 200 may also provide the first device 100 with the video being captured.

이하에서는 설명의 편의상 본 발명의 일 실시예에 따른 영상 제공 시스템에서 제 1 디바이스(100)가 제 2 디바이스(200)에게 동영상을 제공하는 경우에 대하여 설명하기로 한다. 또한, 이하에서는 제 1 디바이스(100)가 제 2 디바이스(200)에게 제공하는 콘텐트가 제 1 디바이스(100)에서 촬영되는 동영상인 것으로 설명하였지만, 이에 제한되지 않으며, 제 1 디바이스(100)는 제 2 디바이스(200)에게, 예를 들어, 비디오 영상, 사진 이미지, 캡쳐 이미지, 애플리케이션 실행 이미지 등의 콘텐트를 제공할 수도 있다.Hereinafter, for convenience of description, a case in which the first device 100 provides a video to the second device 200 in the image providing system according to an embodiment of the present invention will be described. In addition, hereinafter, the content provided by the first device 100 to the second device 200 is described as being a video filmed by the first device 100, but is not limited thereto, and the first device 100 is For example, content such as a video image, a photographic image, a captured image, and an application execution image may be provided to the 2 devices 200.

제 1 디바이스(100)는 제 1 디바이스(100)에 의해 촬영된 동영상에 기초하여, 제 1 동영상을 제 2 디바이스(200)에게 제공할 수 있으며, 제 1 동영상에 포함된 객체에 대한 영역 정보를 제 2 디바이스(200)로부터 수신할 수 있다. 또한, 제 1 디바이스(100)는 수신된 영역 정보에 기초하여, 제 1 동영상에 포함된 소정의 객체를 추적하고 추적된 객체를 포함하는 일부 영역만을 포함하는 제 2 동영상을 제 2 디바이스(200)에게 제공할 수 있다.The first device 100 may provide the first video to the second device 200 based on the video captured by the first device 100, and provide area information about an object included in the first video. It can be received from the second device 200. In addition, the first device 100 tracks a predetermined object included in the first video based on the received area information, and the second device 200 includes a second video including only a partial area including the tracked object. Can provide.

또한, 제 1 디바이스(100)는 촬영되고 있는 동영상의 해상도가, 제 1 디바이스(100)와 제 2 디바이스(200)간에 전송되는 동영상의 스트리밍 해상도보다 큰 경우에, 촬영되고 있는 동영상의 일부 영역에 대한 제 2 동영상을 제 2 디바이스(200)에게 제공할 수 있다.In addition, when the resolution of the video being photographed is greater than the streaming resolution of the video transmitted between the first device 100 and the second device 200, the first device 100 may be displayed in a partial area of the video being photographed. A second video for the second device 200 may be provided.

제 1 디바이스(100) 및 제 2 디바이스(200)는, 다른 디바이스에게 동영상, 이미지 등을 전송할 수 있는 장치로서, 예를 들어, 스마트폰, 휴대폰, PDA(personal digital assistant), 랩톱, 미디어 플레이어, GPS(global positioning system) 장치, 랩톱, 및 기타 모바일 또는 비모바일 컴퓨팅 장치일 수 있으나, 이에 제한되지 않는다The first device 100 and the second device 200 are devices that can transmit videos, images, and the like to other devices, for example, a smart phone, a mobile phone, a personal digital assistant (PDA), a laptop, a media player, Global positioning system (GPS) devices, laptops, and other mobile or non-mobile computing devices, but are not limited thereto.

또한, 3개 이상의 디바이스가 함께 영상 통화를 수행할 수도 있다. 예를 들어, 제 1 디바이스(100), 제 2 디바이스(200) 및 제 3 디바이스(미도시)가 함께 영상 통화를 수행할 수 있다. 이 경우, 제 1 디바이스(100)가 제 1 동영상을 제 2 디바이스(200) 및 제 3 디바이스(미도시)에게 제공할 수 있다. 또한, 제 2 디바이스(200)가 제 1 동영상의 일부 영역을 선택하면, 제 1 디바이스(100)는 제 2 디바이스(200) 및 제 3 디바이스(미도시)에게 선택된 일부 영역에 관련된 동영상을 제공할 수 있다. 만약, 제 2 디바이스(200) 및 제 3 디바이스(미도시)가 제 1 동영상의 일부 영역을 각각 선택하면, 제 1 디바이스(100)는 제 2 디바이스(200)에 의해 선택된 영역에 관련된 동영상을 제 2 디바이스(200)에게 제공하고, 제 3 디바이스(미도시)에 의해 선택된 영역에 관련된 동영상을 제 3 디바이스(미도시)에게 제공할 수 있다.Also, three or more devices may make a video call together. For example, the first device 100, the second device 200, and the third device (not shown) may make a video call together. In this case, the first device 100 may provide the first video to the second device 200 and the third device (not shown). In addition, when the second device 200 selects some areas of the first video, the first device 100 may provide the second device 200 and the third device (not shown) related to the selected area. You can. If the second device 200 and the third device (not shown) respectively select some areas of the first video, the first device 100 removes the video related to the area selected by the second device 200. Provided to the 2 device 200, a video related to the area selected by the third device (not shown) may be provided to the third device (not shown).

한편, 제 1 디바이스(100)는 제 1 디바이스(100)에서 실행된 애플리케이션의 실행 화면에 대응되는 제 3 영상을 제 2 디바이스(200)에게 제공할 수 있다. 이 경우, 제 2 디바이스(200)는 수신된 제 3 영상의 일부분을 선택하고, 제 1 디바이스(100)로부터 선택된 부분에 대한 제 4 영상을 수신할 수 있다.
Meanwhile, the first device 100 may provide the second device 200 with a third image corresponding to an execution screen of an application executed in the first device 100. In this case, the second device 200 may select a portion of the received third image, and receive a fourth image for the selected portion from the first device 100.

도 2는 본 발명의 일 실시예에 따른 제 1 디바이스(100)에서 촬영된 영상의 일부에 대응되는 객체를 포함하는 영상이 제 2 디바이스(200)에서 표시되는 일례를 도시한 도면이다. 또한, 도 2(a)는 본 발명의 일 실시예에 따른 제 1 동영상의 일례를 도시한 도면이며, 도 2(b)는 본 발명의 일 실시예에 따른 제 2 동영상을 도시한 도면이다.2 is a diagram illustrating an example in which an image including an object corresponding to a part of an image captured by the first device 100 according to an embodiment of the present invention is displayed on the second device 200. 2 (a) is a diagram showing an example of a first video according to an embodiment of the present invention, and FIG. 2 (b) is a diagram showing a second video according to an embodiment of the present invention.

제 1 디바이스(100)는 촬영되고 있는 동영상에 기초하여 제 1 동영상을 제 2 디바이스(200)에게 제공할 수 있으며, 제 1 동영상에 포함된 객체(22)를 확인할 수 있다. 또한, 제 1 디바이스(100)는 확인된 객체(22)를 포함하는 일부 영역만을 포함하는 제 2 동영상을 제 2 디바이스(200)에게 제공할 수 있다. The first device 100 may provide the first video to the second device 200 based on the video being photographed, and may identify the object 22 included in the first video. Also, the first device 100 may provide the second device 200 with a second video including only a partial area including the identified object 22.

제 1 디바이스(100)가 촬영 중인 동영상으로부터 소정의 일부 영역(20)에 포함된 객체(22)를 확인할 수 있으나, 이에 제한되지 않는다. 제 1 디바이스(100)는 제 2 디바이스(200)에게 제공하는 제 1 동영상으로부터 객체(22)를 확인할 수도 있다.
The first device 100 may check the object 22 included in the predetermined partial area 20 from the video being photographed, but is not limited thereto. The first device 100 may check the object 22 from the first video provided to the second device 200.

도 3은 본 발명의 일 실시예에 따른 제 1 디바이스(100)가 촬영 중인 동영상의 일부 영역에 대응되는 객체를 포함하는 동영상을 제 2 디바이스(200)에게 제공하는 방법의 흐름도이다.3 is a flowchart of a method of providing a video including an object corresponding to a partial region of a video being photographed by the first device 100 to the second device 200 according to an embodiment of the present invention.

단계 S300에서 제 1 디바이스(100)는 제 2 디바이스(200)에게 제 1 동영상을 제공한다. 제 1 디바이스(100)는 촬영되고 있는 동영상에 기초하여, 제 1 동영상을 제 2 디바이스(200)에게 제공할 수 있다. 제 1 디바이스(100)는 촬영되고 있는 동영상을 별도의 가공없이 제 1 동영상으로 하여 제 2 디바이스(200)에게 제공할 수 있다. 또한, 제 1 디바이스(100)는 촬영되고 있는 동영상을 가공하고, 가공된 동영상을 제 1 동영상으로 하여 제 2 디바이스(200)에게 제공할 수도 있다. 이 경우, 제 1 디바이스(100)는 촬영되고 있는 동영상의 해상도를 변경하거나, 촬영되고 있는 동영상의 포맷을 변환할 수 있다. 예를 들어, 촬영되고 있는 동영상의 해상도가 제 1 디바이스(100)와 제 2 디바이스(200)간의 스트리밍 해상도보가 큰 경우에, 제 1 디바이스(100)는 촬영되고 있는 동영상의 해상도를 스트리밍 해상도와 동일하도록 변환하고, 변환된 해상도의 제 1 동영상을 제 2 디바이스(200)에게 제공할 수 있다. 또한, 제 1 동영상은 복수의 제 1 프레임을 가질 수 있다.In step S300, the first device 100 provides the first video to the second device 200. The first device 100 may provide the first video to the second device 200 based on the video being photographed. The first device 100 may provide the second device 200 as a first video without processing the video being photographed. Also, the first device 100 may process the video being photographed and provide the processed video as the first video to the second device 200. In this case, the first device 100 may change the resolution of the video being photographed or convert the format of the video being photographed. For example, when the resolution of the video being shot is greater than the streaming resolution between the first device 100 and the second device 200, the first device 100 sets the resolution of the video being captured to be equal to the streaming resolution. The first video of the converted resolution may be provided to the second device 200. In addition, the first video may have a plurality of first frames.

또한, 단계 S300에서 제 1 디바이스(100)는 원본 해상도를 갖는 제 1 동영상을 제 1 해상도로 제 2 디바이스(200)에게 전송할 수 있다. 이 경우, 제 1 디바이스(100)는 제 2 디바이스(200)에 포함된 디스플레이의 해상도에 관한 정보를 미리 획득하여 저장할 수 있으며, 제 2 디바이스(200)에 포함된 디스플레이의 해상도에 기초하여 제 1 해상도를 결정할 수 있다.In addition, in step S300, the first device 100 may transmit the first video having the original resolution to the second device 200 in the first resolution. In this case, the first device 100 may obtain and store information regarding the resolution of the display included in the second device 200 in advance, and may store the information based on the resolution of the display included in the second device 200. Resolution can be determined.

한편, 제 1 디바이스(100)는 제 1 디바이스(100)에서 실행된 애플리케이션의 실행 화면에 대응되는 제 3 영상을 제 2 디바이스(200)에게 제공할 수도 있다. 제 1 디바이스(100)는 제 3 영상을 제 3 해상도로 제 2 디바이스(200)에게 제공할 수 있다.Meanwhile, the first device 100 may provide the second device 200 with a third image corresponding to an execution screen of an application executed in the first device 100. The first device 100 may provide a third image to the second device 200 in a third resolution.

단계 S310에서 제 2 디바이스(200)는 수신된 제 1 동영상을 디스플레이한다. 제 2 디바이스(200)는 수신된 제 1 동영상을 제 2 디바이스(200)의 화면에 디스플레이할 수 있다. 제 2 디바이스(200)는 제 1 해상도의 제 1 동영상을 화면에 디스플레이할 수 있다.In step S310, the second device 200 displays the received first video. The second device 200 may display the received first video on the screen of the second device 200. The second device 200 may display the first video of the first resolution on the screen.

한편, 제 2 디바이스(200)가 제 1 디바이스(100)에서 실행된 애플리케이션의 실행 화면에 대응되는 제 3 영상을 수신한 경우에는, 제 2 디바이스(200)는 수신된 제 3 영상을 디스플레이할 수 있다. 제 2 디바이스(200)는 제 3 영상을 제 3 해상도로 디스플레이할 수 있다.Meanwhile, when the second device 200 receives the third image corresponding to the execution screen of the application executed in the first device 100, the second device 200 may display the received third image. have. The second device 200 may display the third image at the third resolution.

단계 S320에서 제 2 디바이스(200)는 제 1 동영상에 포함된 객체에 관한 영역 정보를 생성한다. 제 2 디바이스(200)는 사용자 입력에 기초하여 제 1 동영상의 일부 영역을 관심 영역으로 선택하고, 선택된 관심 영역에 관한 영역 정보를 생성할 수 있다. 또한, 제 2 디바이스(200)는 사용자 입력에 기초하여 제 1 동영상에 포함된 소정의 객체를 선택하고, 선택된 객체에 관한 영역 정보를 생성할 수도 있다.In step S320, the second device 200 generates area information about the object included in the first video. The second device 200 may select a region of the first video as the region of interest based on the user input and generate region information regarding the selected region of interest. Also, the second device 200 may select a predetermined object included in the first video based on the user input and generate area information on the selected object.

제 2 디바이스(200)는 제 1 동영상에 대한 사용자의 터치 입력을 수신하고, 터치 입력된 지점의 위치에 기초하여 관심 영역을 선택할 수 있다. 구체적으로, 사용자가 제 1 동영상에서 소정의 지점을 터치하면, 제 2 디바이스(200)는 터치된 지점을 포함하는 객체를 식별하고, 식별된 객체를 포함하는 영역을 선택할 수 있다. 예를 들어, 제 1 동영상에서 얼굴 부분이 터치된 경우에, 제 2 디바이스(200)는 터치된 지점을 포함하는 객체인 얼굴을 식별할 수 있다. 또한, 제 2 디바이스(200)는 식별된 얼굴을 포함하는 영역을 관심 영역으로 선택할 수 있다.The second device 200 may receive a user's touch input for the first video and select a region of interest based on the location of the touch input point. Specifically, when the user touches a predetermined point in the first video, the second device 200 may identify an object including the touched point and select an area including the identified object. For example, when the face portion is touched in the first video, the second device 200 may identify a face that is an object including the touched point. Also, the second device 200 may select an area including the identified face as an area of interest.

또한, 사용자가 제 1 동영상에서 소정의 지점을 터치하면, 제 2 디바이스(200)는 터치된 지점으로부터 기 설정된 범위의 영역을 관심 영역으로 선택할 수 있다. 예를 들어, 제 2 디바이스(200)는 터치된 지점을 중심으로 하는 소정의 크기의 사각형의 영역을 관심 영역으로 선택할 수 있다.In addition, when the user touches a predetermined point in the first video, the second device 200 may select an area of a preset range from the touched point as the region of interest. For example, the second device 200 may select a rectangular area of a predetermined size centered on the touched point as the region of interest.

또한, 제 2 디바이스(200)는 사용자가 제 1 동영상의 일부 영역을 관심 영역으로 선택하도록 하기 위한 사용자 인터페이스를 화면에 표시할 수 있다. 예를 들어, 제 2 디바이스(200)는 제 1 동영상의 일부분에 사각형을 표시하고, 사용자가 사각형의 테두리를 터치&드래그하여 사각형의 크기를 변경할 수 있도록 사용자 인터페이스를 제공할 수 있다.Also, the second device 200 may display a user interface on the screen for the user to select a region of the first video as a region of interest. For example, the second device 200 may display a rectangle on a portion of the first video, and provide a user interface so that the user can change the size of the rectangle by touching and dragging the border of the rectangle.

또한, 상기에서는 제 2 디바이스(200)가 사용자 입력에 기초하여 제 1 동영상의 일부 영역을 관심 영역으로 선택하는 것으로 설명하였지만, 이에 제한되지 않는다. 제 2 디바이스(200)는 별도의 사용자 입력없이 제 1 동영상에 포함된 얼굴을 인식하고, 얼굴을 포함하는 소정의 영역을 관심 영역으로 선택할 수 있다.In addition, although the second device 200 has been described as selecting a region of interest as a region of interest based on a user input, it is not limited thereto. The second device 200 may recognize a face included in the first video without a separate user input and select a predetermined area including the face as a region of interest.

또한, 제 1 동영상에서 선택되는 관심 영역의 크기는, 제 1 디바이스(100)와 제 2 디바이스(200) 간에 전송되는 데이터의 스트리밍 해상도의 크기에 기초하여 결정될 수 있다. 제 1 디바이스(100)와 제 2 디바이스(200) 간에 전송되는 데이터의 스트리밍 해상도의 크기에 기초하여, 제 1 동영상에서 선택되는 관심 영역의 크기의 상한 값이 결정될 수 있다.Also, the size of the region of interest selected from the first video may be determined based on the size of streaming resolution of data transmitted between the first device 100 and the second device 200. Based on the size of the streaming resolution of data transmitted between the first device 100 and the second device 200, an upper limit value of the size of the region of interest selected in the first video may be determined.

또한, 제 2 디바이스(200)는 선택된 관심 영역에 대한 좌표 정보를 생성할 수 있다. 제 2 디바이스(200)는 제 1 동영상의 전체 영역 중에서 선택된 관심 영역의 위치를 나타내는 좌표 값을 생성할 수 있다. 또한, 제 2 디바이스(200)는 제 1 동영상의 전체 영역 중에서 터치 입력된 지점의 위치를 나타내는 좌표 값을 생성할 수도 있다.Also, the second device 200 may generate coordinate information for the selected region of interest. The second device 200 may generate a coordinate value indicating the location of a region of interest selected from all regions of the first video. Also, the second device 200 may generate a coordinate value indicating the location of the touch input point in the entire area of the first video.

또한, 제 2 디바이스(200)는 제 1 동영상에 포함된 복수의 제 1 프레임 별로 관심 영역에 관한 영역 정보를 생성할 수 있다.Also, the second device 200 may generate area information regarding a region of interest for a plurality of first frames included in the first video.

한편, 제 1 디바이스(100)에서 실행된 애플리케이션의 실행 화면에 대응되는 제 3 영상을 제 2 디바이스(200)에게 제공한 경우에는, 제 2 디바이스(200)는 제 3 영상의 일부분을 선택하고, 선택된 영역에 대한 영역 정보를 생성할 수 있다.On the other hand, when the third device corresponding to the execution screen of the application executed in the first device 100 is provided to the second device 200, the second device 200 selects a part of the third image, Area information for the selected area may be generated.

단계 S330에서 제 2 디바이스(200)는 생성된 영역 정보를 제 1 디바이스(100)에게 제공한다. 제 2 디바이스(200)는 선택된 관심 영역에 대한 좌표 값을 제 1 디바이스(100)에게 제공할 수 있다. 또한, 제 2 디바이스(200)는 사용자에 의해 터치 입력된 지점의 좌표 값을 제 1 디바이스(100)에게 제공할 수도 있다.In step S330, the second device 200 provides the generated area information to the first device 100. The second device 200 may provide coordinate values for the selected region of interest to the first device 100. Also, the second device 200 may provide the first device 100 with the coordinate value of the point touched by the user.

단계 S340에서 제 1 디바이스(100)는 영역 정보에 관련된 객체를 식별한다. 단계 S340에서 제 1 디바이스(100)는 수신된 영역 정보에 기초하여 제 1 동영상으로부터 객체를 식별할 수 있다. 예를 들어, 수신된 영역 정보에 대응되는 제 1 동영상의 영역에 포함된 객체가 얼굴인 경우에, 제 1 디바이스(100)는 제 1 동영상으로부터 얼굴을 식별할 수 있다. 또한, 제 1 동영상에 포함된 복수의 제 1 프레임 별로, 수신된 영역 정보에 관련된 객체를 식별할 수 있다.In step S340, the first device 100 identifies an object related to area information. In step S340, the first device 100 may identify the object from the first video based on the received region information. For example, when an object included in an area of the first video corresponding to the received area information is a face, the first device 100 may identify the face from the first video. In addition, for each of the first frames included in the first video, an object related to the received region information may be identified.

또한, 제 1 디바이스(100)는 수신된 영역 정보에 기초하여, 촬영되고 있는 동영상으로부터 객체를 식별할 수도 있다. 수신된 영역 정보는 제 1 동영상의 일부 영역에 대한 영역 정보이기 때문에, 제 1 디바이스(100)는 수신된 영역 정보에 대응되는 제 1 동영상의 영역에 매칭되는 영역을 촬영 중인 동영상으로부터 확인할 수 있다. 또한, 매칭된 영역에 포함된 객체를 촬영 중인 동영상으로부터 식별할 수 있다.Also, the first device 100 may identify an object from a video that is being photographed based on the received region information. Since the received area information is area information for a partial area of the first video, the first device 100 may check an area matching the area of the first video corresponding to the received area information from the video being captured. In addition, an object included in the matched area can be identified from a video being photographed.

또한, 제 1 디바이스(100)는 제 1 동영상으로부터 식별된 객체를 이용하여 촬영 중인 동영상에 포함된 객체를 식별할 수도 있다. 제 1 디바이스(100)는 제 1 동영상으로부터 식별된 객체의 이미지와 유사한 객체를 촬영 중인 동영상으로부터 식별할 수 있다. 객체들이 상호 유사한지 여부는 다양한 방식으로 결정될 수 있다. 예를 들어, 디바이스(100)는 객체의 크기, 색채 및 형태 중 적어도 하나를 비교함으로써, 객체들이 서로 유사한지를 결정할 수 있다. 다른 예에서, 디바이스(100)는 객체들의 일부분을 상호 비교함으로써, 객체들이 서로 유사한지를 결정할 수도 있다.Also, the first device 100 may identify an object included in a video being photographed using an object identified from the first video. The first device 100 may identify an object similar to the image of the object identified from the first video from the video being photographed. Whether objects are similar to each other can be determined in various ways. For example, the device 100 may determine whether the objects are similar to each other by comparing at least one of the size, color, and shape of the object. In another example, the device 100 may determine whether the objects are similar to each other by comparing a portion of the objects with each other.

만약, 제 1 디바이스(100)가 제 1 디바이스(100)에서 실행된 애플리케이션의 실행 화면에 대응되는 제 3 영상의 일부분에 대한 영역 정보를 제 2 디바이스(200)로부터 수신한 경우에는, 제 1 디바이스(100)는 수신된 영역 정보에 기초하여 제 3 영상으로부터 객체를 식별할 수 있다.If, when the first device 100 receives the area information for a portion of the third image corresponding to the execution screen of the application executed in the first device 100 from the second device 200, the first device The 100 may identify an object from the third image based on the received area information.

단계 S350 에서 제 1 디바이스(100)는 식별된 객체를 추적한다. 제 1 디바이스(100)는 제 1 동영상으로부터 식별된 객체를 추적할 수 있다. 또한, 제 1 디바이스(100)는 제 1 디바이스(100)에 의해 촬영된 동영상으로부터 식별된 객체를 추적할 수도 있다. 제 1 디바이스(100)에 의해 촬영된 동영상은 제 1 디바이스(100)에 의해 촬영되고 있는 동영상을 포함한다. 식별된 객체는 동영상 내에서 이동하거나 회전할 수 있으며, 제 1 디바이스(100)는 객체의 형상 및 색상에 기초하여 동영상 내의 객체를 추적할 수 있다. 식별된 객체를 추적한다는 것인, 동영상 내에서 객체가 움직이는 경우에 움직이는 객체의 위치 및 객체를 포함하는 영역을 확인하는 것을 의미하나, 이에 제한되지 않는다.In step S350, the first device 100 tracks the identified object. The first device 100 may track the object identified from the first video. Also, the first device 100 may track the object identified from the video captured by the first device 100. The video captured by the first device 100 includes the video being photographed by the first device 100. The identified object may move or rotate within the video, and the first device 100 may track the object in the video based on the shape and color of the object. Tracking the identified object means to identify the location of the moving object and the area including the object when the object is moving in the video, but is not limited thereto.

또한, 단계 S350에서 제 1 디바이스(100)는 제 1 동영상의 복수의 제 1 프레임 중에서, 식별된 객체를 포함하는 프레임을 선별할 수 있다. 또한, 제 1 디바이스(100)는 제 1 동영상의 복수의 제 1 프레임 중에서, 식별된 객체를 포함하는 일부 영역을 구별할 수 있다.In addition, in step S350, the first device 100 may select a frame including the identified object from among the plurality of first frames of the first video. Also, the first device 100 may distinguish a partial region including the identified object from among the plurality of first frames of the first video.

만약, 제 1 디바이스(100)가 제 1 디바이스(100)에서 실행된 애플리케이션의 실행 화면에 대응되는 제 3 영상의 일부분에 대한 영역 정보를 제 2 디바이스(200)로부터 수신한 경우에는, 제 1 디바이스(100)는 제 3 영상으로부터 객체를 추적할 수 있다.If, when the first device 100 receives the area information for a portion of the third image corresponding to the execution screen of the application executed in the first device 100 from the second device 200, the first device The 100 may track an object from the third image.

단계 S360에서 제 1 디바이스(100)는 제 2 디바이스(200)에게 식별된 객체를 포함하는 일부 영역만을 포함하는 제 2 동영상을 제공한다. 제 1 디바이스(100)는 촬영된 동영상으로부터 식별된 객체를 포함하는 영역을 잘라내고, 잘라낸 동영상을 제 2 동영상으로 하여 제 2 디바이스(200)에게 제공할 수 있다. In step S360, the first device 100 provides the second device 200 with a second video including only a partial area including the identified object. The first device 100 may cut an area including the identified object from the captured video, and provide the cut video as the second video to the second device 200.

구체적으로, 제 1 디바이스(100)는 수신된 영역 정보에 기초하여 원본 해상도의 제 1 동영상의 화면에서 관심 영역에 대응되는 영역을 결정할 수 있다. 또한, 제 1 디바이스(100)는 결정된 영역만을 포함하도록 제 1 동영상을 제 2 동영상으로 변환할 수 있다. 또한, 제 1 디바이스(100)는 제 2 동영상을 제 1 해상도로 제 2 디바이스(200)에게 제공할 수 있다. 예를 들어, 원본 해상도가 1000 x 1000이고, 제 1 해상도가 100 x 100인 경우에, 제 1 디바이스(100)는 결정된 영역에 대응되는 제 1 동영상의 일부분을 제 2 동영상으로 변환하고, 제 2 동영상을 100 x 100의 해상도로 제 2 디바이스(200)에게 전송할 수 있다.Specifically, the first device 100 may determine an area corresponding to the region of interest on the screen of the first video of the original resolution based on the received region information. Also, the first device 100 may convert the first video to the second video to include only the determined area. Also, the first device 100 may provide the second video to the second device 200 at the first resolution. For example, when the original resolution is 1000 x 1000 and the first resolution is 100 x 100, the first device 100 converts a portion of the first video corresponding to the determined region into a second video, and the second The video may be transmitted to the second device 200 at a resolution of 100 x 100.

또한, 제 1 디바이스(100)는 제 1 동영상의 복수의 제 1 프레임 중에서, 식별된 객체를 포함하는 일부 영역을 구별하고, 복수의 제 1 프레임의 일부 영역만을 포함하는 복수 개의 제 2 프레임을 갖는 제 2 동영상을 외부 기기에게 제공할 수 있다.Further, the first device 100 distinguishes some regions including the identified object among the plurality of first frames of the first video, and has a plurality of second frames including only a partial region of the plurality of first frames The second video may be provided to an external device.

만약, 제 1 디바이스(100)가 제 1 동영상의 복수의 제 1 프레임 중에서, 식별된 객체를 포함하는 프레임을 선별한 경우에는, 선별된 프레임의 일부 영역만을 포함하는 복수 개의 제 2 프레임을 갖는 제 2 동영상을 외부 기기에게 제공할 수 있다. 이 경우, 일부 영역은 관심 영역일 수 있다. 또한, 제 1 디바이스(100)는 선별된 프레임 별로 관심 영역에 대응되는 영역을 잘라냄으로써 제 2 프레임을 생성할 수 있다.If the first device 100 selects a frame including the identified object from among the plurality of first frames of the first video, the first device 100 may include a plurality of second frames including only a partial region of the selected frame. 2 Video can be provided to external devices. In this case, some regions may be regions of interest. Also, the first device 100 may generate a second frame by cutting an area corresponding to the region of interest for each selected frame.

또한, 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법에 따라, 제 1 디바이스(100)는 제 2 동영상에 대응되는 영역의 크기를 결정할 수 있다. Also, according to a communication method between the first device 100 and the second device 200, the first device 100 may determine the size of an area corresponding to the second video.

또한, 제 2 동영상은, 단계 S350에서 선별된 프레임의 일부 영역만을 포함하는 복수 개의 제2 프레임을 가질 수 있으나, 이에 제한되지 않는다. 또한, 제 2 동영상은, 단계 S350에서 구별된 일부 영역만을 포함하는 복수 개의 제 2 프레임을 가질 수 있으나, 이에 제한되지 않는다.Also, the second video may have a plurality of second frames including only a partial region of the frame selected in step S350, but is not limited thereto. In addition, the second video may have a plurality of second frames including only a partial region distinguished in step S350, but is not limited thereto.

또한, 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법에 따라, 제 1 디바이스(100)는 제 2 동영상의 화질 또는 해상도를 결정할 수도 있다. 예를 들어, 식별된 객체를 포함하는 영역의 해상도가, 제 1 디바이스(100)와 제 2 디바이스(200) 간에 전송되는 데이터의 스트리밍 해상도보다 작은 경우에는, 식별된 객체를 포함하는 영역의 해상도 또는 화질을 증가시킬 수 있다. 또한, 예를 들어, 식별된 객체를 포함하는 영역의 해상도가, 제 1 디바이스(100)와 제 2 디바이스(200) 간에 전송되는 데이터의 스트리밍 해상도보다 큰 경우에는, 식별된 객체를 포함하는 영역의 해상도 또는 화질을 감소시킬 수 있다.Also, according to a communication method between the first device 100 and the second device 200, the first device 100 may determine the image quality or resolution of the second video. For example, when the resolution of the area including the identified object is smaller than the streaming resolution of data transmitted between the first device 100 and the second device 200, the resolution of the area including the identified object or You can increase the image quality. Further, for example, when the resolution of the area including the identified object is greater than the streaming resolution of data transmitted between the first device 100 and the second device 200, the area of the area including the identified object Resolution or image quality can be reduced.

제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법은, 예를 들어, 3G (third generation)통신, 4G (fourth generation) 통신, Wifi (wireless fidelity) 통신을 포함할 수 있으나, 이에 제한되지 않는다.The communication method between the first device 100 and the second device 200 may include, for example, 3G (third generation) communication, 4G (fourth generation) communication, and Wifi (wireless fidelity) communication. Does not work.

또한, 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법이 변경됨에 따라, 제 1 디바이스(100)는 제 2 동영상에 대응되는 영역의 크기 또는 제 2 동영상의 화질을 변경할 수 있다. 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법은 제 1 디바이스(100) 및 제 2 디바이스(200) 중 적어도 하나가 핸드오버를 수행함에 따라 변경될 수 있다.Also, as the communication method between the first device 100 and the second device 200 changes, the first device 100 may change the size of an area corresponding to the second video or the quality of the second video. The communication method between the first device 100 and the second device 200 may be changed as at least one of the first device 100 and the second device 200 performs handover.

또한, 촬영된 동영상에서 식별된 객체가 사라지는 경우(즉 식별된 객체가 촬영되지 않는 경우), 제 1 디바이스(100)는 제 2 동영상에 대응되는 영역을 변경할 수 있다. 예를 들어, 촬영된 동영상에서 식별된 객체가 사라지면, 제 1 디바이스(100)는 촬영된 동영상의 전체 영역을 제 2 디바이스(200)에게 제공할 수 있다. 또한, 이 경우, 제 1 디바이스(100)는, 별도의 사용자 입력에 기초하여, 촬영된 동영상의 전체 영역을 제 2 디바이스(200)에게 제공할 수도 있다.In addition, when the identified object disappears (ie, the identified object is not captured) in the captured video, the first device 100 may change the area corresponding to the second video. For example, when the object identified in the captured video disappears, the first device 100 may provide the entire area of the captured video to the second device 200. In addition, in this case, the first device 100 may provide the entire area of the captured video to the second device 200 based on a separate user input.

또한, 사라진 객체가 상기 촬영된 영상에 다시 나타나면(즉, 사라진 객체가 다시 촬영되면), 촬영된 영상의 전체 영역 중에서, 나타난 객체를 포함하는 일부 영역의 동영상을 제 2 디바이스(200)에게 제공할 수 있다.In addition, when the disappeared object appears again on the photographed image (ie, when the disappeared object is photographed again), a video of a portion of the entire region of the photographed image including the displayed object is provided to the second device 200. You can.

한편, 제 1 디바이스(100)가 제 1 디바이스(100)에서 실행된 애플리케이션의 실행 화면에 대응되는 제 3 영상의 일부분에 대한 영역 정보를 제 2 디바이스(200)로부터 수신한 경우에는, 제 1 디바이스(100)는 식별된 객체를 포함하는 일부 영역만을 포함하는 제 4 영상을 제 2 디바이스(200)에게 제공할 수 있다. 이 경우, 제 1 디바이스(100)는 제 4 영상을 제 3 해상도로 제 2 디바이스(200)에게 제공할 수 있다.On the other hand, when the first device 100 receives the area information for a portion of the third image corresponding to the execution screen of the application executed in the first device 100 from the second device 200, the first device The 100 may provide the second device 200 with a fourth image including only a partial area including the identified object. In this case, the first device 100 may provide the fourth image with the third resolution to the second device 200.

또한, 제 1 디바이스(100)가 제 1 디바이스(100)에서 실행된 애플리케이션의 실행 화면에 대응되는 제 3 영상의 일부분에 대한 영역 정보를 제 2 디바이스(200)로부터 수신한 경우에, 제 3 영상에 포함된 객체를 식별하거나 추적하지 않을 수 있다. 이 경우, 제 1 디바이스(100)는 수신된 영역 정보에 기초하여 제 3 영상의 일부를 잘라내고, 잘라낸 부분을 제 4 영상을 변환하여 제 2 디바이스(200)에게 제공할 수 있다.In addition, when the first device 100 receives the area information for a portion of the third image corresponding to the execution screen of the application executed in the first device 100 from the second device 200, the third image Objects included in may not be identified or tracked. In this case, the first device 100 may cut a portion of the third image based on the received region information, convert the cut portion to the fourth image, and provide the second device 200.

단계 S370에서 제 2 디바이스(200)는 수신된 제 2 동영상을 디스플레이한다. 제 2 디바이스(200)의 사용자는 선택된 일부 영역에 포함된 객체에 대한 보다 자세한 동영상을 확인할 수 있게 된다. 또한, 제 2 디바이스(200)는 수신된 제 2 동영상의 정지 화면을 디스플레이할 수도 있다.In step S370, the second device 200 displays the received second video. The user of the second device 200 can check a more detailed video of the object included in the selected partial area. Also, the second device 200 may display a still image of the received second video.

한편, 제 2 디바이스(200)는 제 2 디바이스(200)의 화면에 제 1 동영상 및 제 2 동영상을 함께 디스플레이할 수 있다. 이 경우, 단계 S360에서 제 2 디바이스(200)는 제 2 동영상뿐만 아니라 제 1 동영상을 함께 수신할 수 있다. 또한, 제 2 디바이스(200)는 제 1 동영상 상에 제 2 동영상을 오버랩하여 표시할 수 있다. 제 2 디바이스(200)는 제 1 동영상에서 제 1 디바이스(100)의 사용자가 표시되지 않은 부분에 제 2 동영상을 오버랩할 수 있다. 또한, 제 2 디바이스(200)는 제 1 동영상이 표시되는 영역의 크기 및 제 2 동영상이 표시되는 영역의 크기를 조절할 수 있다. 그러나, 이에 제한되지 않으며, 제 2 디바이스(200)는 제 1 동영상 및 제 2 동영상을 오버랩하지 않고 제 2 디바이스(200)의 화면에 디스플레이할 수도 있다.Meanwhile, the second device 200 may display the first video and the second video together on the screen of the second device 200. In this case, in step S360, the second device 200 may receive the first video as well as the second video. Also, the second device 200 may overlap and display the second video on the first video. The second device 200 may overlap the second video in a portion where the user of the first device 100 is not displayed in the first video. Also, the second device 200 may adjust the size of the area where the first video is displayed and the size of the area where the second video is displayed. However, the present invention is not limited thereto, and the second device 200 may display the first video and the second video on the screen of the second device 200 without overlapping.

한편, 상기에서는, 제 2 디바이스(200)가 제 1 디바이스(100)로부터 제 2 동영상을 수신하고, 제 1 동영상 및 제 2 동영상을 함께 디스플레이할 수 있는 것으로 설명하였지만, 이에 제한되지 않는다. 제 2 디바이스(200)가 제 1 동영상의 일부 영역을 선택하고, 선택된 일부 영역에 대한 확대 영상을 제 1 동영상으로부터 추출하고, 추출된 확대 영상을 제 1 동영상과 함께 제 2 디바이스(200)의 화면에 디스플레이할 수도 있다.
On the other hand, in the above, it has been described that the second device 200 can receive the second video from the first device 100 and display the first video and the second video together, but is not limited thereto. The second device 200 selects a partial region of the first video, extracts an enlarged image of the selected partial region from the first video, and extracts the enlarged image together with the first video, and the screen of the second device 200 You can also display on.

도 4는 본 발명의 일 실시예에 따른 제 2 디바이스(200)가 관심 영역에 관한 영역 정보를 생성하는 방법의 흐름도이다.4 is a flowchart of a method in which the second device 200 according to an embodiment of the present invention generates area information regarding a region of interest.

단계 S322에서 제 2 디바이스(200)는 제 1 동영상의 일부 영역을 선택하기 위한 사용자 입력을 수신한다. 제 2 디바이스(200)는 제 1 동영상의 일부 영역을 선택하기 위한 사용자의 터치 입력을 수신할 수 있다. 예를 들어, 제 2 디바이스(200)는 제 1 동영상의 소정의 지점을 터치하는 사용자 입력을 수신하거나, 제 1 동영상의 소정의 지점을 터치&드래그하는 사용자 입력을 수신할 수 있다.In step S322, the second device 200 receives a user input for selecting a partial area of the first video. The second device 200 may receive a user's touch input for selecting a partial area of the first video. For example, the second device 200 may receive a user input touching a predetermined point of the first video or a user input touching and dragging a predetermined point of the first video.

또한, 제 2 디바이스(200)는 화면 상에 표시된 소정의 사용자 인터페이스를 통한 사용자의 터치 입력을 수신할 수도 있다. 예를 들어, 제 2 디바이스(200)는 제 1 동영상의 일부분에 사각형을 표시하고, 사용자가 사각형의 테두리를 터치&드래그하여 사각형의 크기를 변경할 수 있도록 사용자 인터페이스를 제공할 수 있다. 또한, 제 2 디바이스(200)는 제공된 사용자 인터페이스를 통한 사용자의 터치 입력을 수신할 수 있다.Also, the second device 200 may receive a user's touch input through a predetermined user interface displayed on the screen. For example, the second device 200 may display a rectangle on a portion of the first video, and provide a user interface so that the user can change the size of the rectangle by touching and dragging the border of the rectangle. Also, the second device 200 may receive a user's touch input through a provided user interface.

단계 S324에서 제 2 디바이스(200)는 제 1 디바이스(100)와의 통신 방법을 확인한다. 제 2 디바이스(200)는 제 1 디바이스(100)와의 통신 방법의 종류 및 대역폭(bandwidth)을 확인할 수 있다. 또한, 제 2 디바이스(200)는 제 1 디바이스(100) 및 제 2 디바이스(200) 간에 전송되는 데이터의 스트리밍 해상도를 확인할 수 있다. 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법은, 예를 들어, 3G (third generation)통신, 4G (fourth generation) 통신, Wifi (wireless fidelrity) 통신을 포함할 수 있으나, 이에 제한되지 않는다.In step S324, the second device 200 confirms a communication method with the first device 100. The second device 200 may check the type and bandwidth of the communication method with the first device 100. Also, the second device 200 may check streaming resolution of data transmitted between the first device 100 and the second device 200. The communication method between the first device 100 and the second device 200 may include, for example, 3G (third generation) communication, 4G (fourth generation) communication, and Wifi (wireless fidelrity) communication, but is not limited thereto. Does not work.

단계 S326에서 제 2 디바이스(200)는 수신된 사용자 입력 및 확인된 통신 방법에 기초하여 제 1 동영상의 일부 영역을 관심 영역으로 선택한다. 제 2 디바이스(200)는 제 1 동영상에서 터치 입력된 지점의 위치에 기초하여 일부 영역을 선택할 수 있다. 구체적으로, 사용자가 제 1 동영상에서 소정의 지점을 터치하면, 제 2 디바이스(200)는 터치된 지점을 포함하는 객체를 식별하고, 식별된 객체를 포함하는 영역을 선택할 수 있다. 예를 들어, 제 1 동영상에서 얼굴 부분이 터치된 경우에, 제 2 디바이스(200)는 터치된 지점을 포함하는 객체인 얼굴을 식별할 수 있다. 또한, 제 2 디바이스(200)는 식별된 얼굴을 포함하는 영역을 관심 영역으로 선택할 수 있다.In step S326, the second device 200 selects a partial region of the first video as the region of interest based on the received user input and the identified communication method. The second device 200 may select a partial area based on the location of the touch input point in the first video. Specifically, when the user touches a predetermined point in the first video, the second device 200 may identify an object including the touched point and select an area including the identified object. For example, when the face portion is touched in the first video, the second device 200 may identify a face that is an object including the touched point. Also, the second device 200 may select an area including the identified face as an area of interest.

또한, 사용자가 제 1 동영상에서 소정의 지점을 터치하면, 제 2 디바이스(200)는 터치된 지점으로부터 기 설정된 범위의 영역을 관심 영역으로 선택할 수 있다. 예를 들어, 제 2 디바이스(200)는 터치된 지점을 중심으로 하는 소정의 크기의 사각형의 영역을 관심 영역으로 선택할 수 있다.In addition, when the user touches a predetermined point in the first video, the second device 200 may select an area of a preset range from the touched point as the region of interest. For example, the second device 200 may select a rectangular area of a predetermined size centered on the touched point as the region of interest.

또한, 제 2 디바이스(200)는 사용자 인터페이스를 통한 사용자의 터치 입력에 따라, 선택된 관심 영역을 변경할 수도 있다.Also, the second device 200 may change the selected region of interest according to a user's touch input through the user interface.

또한, 제 1 동영상에서 선택되는 관심 영역의 크기는, 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법에 따라, 결정될 수 있다. 예를 들어, 제 1 동영상에서 선택되는 관심 영역의 크기는, 통신 방법의 종류 및 대역폭(bandwidth) 중 적어도 하나에 기초하여 결정될 수 있다. 또한, 예를 들어, 제 1 동영상에서 선택되는 관심 영역의 크기는, 제 1 디바이스(100)와 제 2 디바이스(200) 간에 전송되는 데이터의 스트리밍 해상도의 크기에 기초하여 결정될 수 있다. 또한, 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법에 따라 제 1 동영상에서 선택되는 관심 영역의 크기의 상한 값이 결정될 수 있다.In addition, the size of the region of interest selected from the first video may be determined according to a communication method between the first device 100 and the second device 200. For example, the size of the region of interest selected from the first video may be determined based on at least one of a type of communication method and a bandwidth. Further, for example, the size of the region of interest selected from the first video may be determined based on the size of streaming resolution of data transmitted between the first device 100 and the second device 200. Also, according to a communication method between the first device 100 and the second device 200, an upper limit value of the size of the region of interest selected from the first video may be determined.

도 4에서는 제 2 디바이스(200)가 사용자 입력에 기초하여 제 1 동영상의 일부 영역을 선택하는 것으로 설명하였지만, 이에 제한되지 않는다. 제 2 디바이스(200)는 별도의 사용자 입력없이 제 1 동영상에 포함된 얼굴을 인식하고, 얼굴을 포함하는 소정의 영역을 관심 영역으로 선택할 수 있다. 또한, 이 경우, 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법에 따라, 선택되는 관심 영역의 크기가 결정될 수 있다.
In FIG. 4, the second device 200 is described as selecting a partial region of the first video based on the user input, but is not limited thereto. The second device 200 may recognize a face included in the first video without a separate user input and select a predetermined area including the face as a region of interest. Also, in this case, according to a communication method between the first device 100 and the second device 200, the size of the selected region of interest may be determined.

도 5는 본 발명의 일 실시예에 따른 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법이 변경되는 경우에 제 1 디바이스(100)가 선택된 관심 영역을 변경하고 변경된 영역에 대한 동영상을 제 2 디바이스(200)에게 제공하는 방법의 흐름도이다.FIG. 5 shows a video of the changed region of interest and the first device 100 changing the selected region of interest when the communication method between the first device 100 and the second device 200 is changed according to an embodiment of the present invention. Is a flowchart of a method for providing the second device 200.

단계 S500에서 제 1 디바이스(100)는 제 2 디바이스와의 통신 방법이 변경되었는지를 판단한다. 구체적으로, 제 1 디바이스(100)는 제 2 디바이스(200)와의 통신 방법의 종류 및 대역폭(bandwidth)이 변경되었는지를 확인할 수 있다. 또한, 제 2 디바이스(200)는 제 1 디바이스(100) 및 제 2 디바이스(200) 간에 전송되는 데이터의 스트리밍 해상도가 변경되었는지를 확인할 수 있다.In step S500, the first device 100 determines whether a communication method with the second device has been changed. Specifically, the first device 100 may check whether the type and bandwidth of the communication method with the second device 200 has been changed. Also, the second device 200 may check whether the streaming resolution of data transmitted between the first device 100 and the second device 200 is changed.

제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법은, 예를 들어, 3G (third generation)통신, 4G (fourth generation) 통신, Wifi (wireless fidelrity) 통신을 포함할 수 있으나, 이에 제한되지 않는다. 또한, 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법은 제 1 디바이스(100) 및 제 2 디바이스(200) 중 적어도 하나가 핸드오버를 수행함에 따라 변경될 수 있다.The communication method between the first device 100 and the second device 200 may include, for example, 3G (third generation) communication, 4G (fourth generation) communication, and Wifi (wireless fidelrity) communication, but is not limited thereto. Does not work. Also, a communication method between the first device 100 and the second device 200 may be changed as at least one of the first device 100 and the second device 200 performs handover.

단계 S500에서의 판단 결과, 통신 방법이 변경된 경우에, 단계 S510에서 제 1 디바이스(100)는 제 2 디바이스(200)에게 전송되고 있는 제 2 동영상에 대응되는 영역을 변경한다. 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법이 변경됨에 따라, 제 1 디바이스(100)는 제 2 동영상에 대응되는 영역의 크기를 변경할 수 있다.As a result of the determination in step S500, when the communication method is changed, in step S510, the first device 100 changes the area corresponding to the second video being transmitted to the second device 200. As the communication method between the first device 100 and the second device 200 changes, the first device 100 may change the size of the area corresponding to the second video.

예를 들어, 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법의 종류가 3G 통신에서 WIFI 통신으로 변경된 경우에, 제 2 동영상에 대응되는 영역보다 큰 영역을 선택할 수 있다. 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법의 종류가 3G 통신일 때 제 1 디바이스(100)가 얼굴 부분의 영역을 전송한 경우에, 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법의 종류가 WIFI 통신으로 변경되었다면, 제 1 디바이스(100)는 얼굴 이외의 배경 부분을 더 포함하도록 일부 영역을 선택할 수 있다. 또한, 예를 들어, 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법의 종류가 4G 통신에서 WIFI 통신으로 변경된 경우에, 제 2 동영상에 대응되는 영역보다 작은 영역을 선택할 수 있다.For example, when the type of communication method between the first device 100 and the second device 200 is changed from 3G communication to WIFI communication, an area larger than the area corresponding to the second video may be selected. When the first device 100 transmits an area of the face part when the type of communication method between the first device 100 and the second device 200 is 3G communication, the first device 100 and the second device If the type of the communication method between 200 is changed to WIFI communication, the first device 100 may select some areas to further include a background portion other than the face. Also, for example, when the type of the communication method between the first device 100 and the second device 200 is changed from 4G communication to WIFI communication, an area smaller than the area corresponding to the second video may be selected.

또한, 예를 들어, 제 1 디바이스(100)와 제 2 디바이스(200) 간에 전송되는 데이터의 스트리밍 해상도가 변경된 경우에, 제 2 동영상에 대응되는 영역의 크기를 변경할 수 있다.Also, for example, when a streaming resolution of data transmitted between the first device 100 and the second device 200 is changed, the size of the area corresponding to the second video may be changed.

통신 방법의 종류 및 대역폭(bandwidth) 중 적어도 하나에 대응되는, 영역의 크기 값은 미리 설정되어 제 1 디바이스(100)에 저장될 수 있다. 또한, 제 1 디바이스(100) 및 제 2 디바이스(200) 간에 전송되는 데이터의 스트리밍 해상도에 대응되는, 영역의 크기 값은 미리 설정되어 제 1 디바이스(100)에 저장될 수 있다.The size value of the region, which corresponds to at least one of the type of communication method and the bandwidth, may be preset and stored in the first device 100. In addition, the size value of the region, which corresponds to the streaming resolution of data transmitted between the first device 100 and the second device 200, may be preset and stored in the first device 100.

단계 S520에서 제 1 디바이스(100)는 변경된 영역에 대한 동영상을 제 2 디바이스(200)에게 제공한다. 예를 들어, 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법의 종류가 3G 통신에서 WIFI 통신으로 변경된 경우에, 제 1 디바이스(100)는 제 2 동영상에 대응되는 영역보다 더 큰 영역에 대한 동영상을 제 2 디바이스(200)에게 제공할 수 있다. 또한, 예를 들어, 제 1 디바이스(100)와 제 2 디바이스(200) 간에 전송되는 데이터의 스트리밍 해상도의 크기가 작아진 경우에, 제 1 디바이스(100)는 제 2 동영상에 대응되는 영역보다 작은 영역에 대한 동영상을 제 2 디바이스(200)에게 제공할 수 있다.
In step S520, the first device 100 provides a video for the changed area to the second device 200. For example, when the type of communication method between the first device 100 and the second device 200 is changed from 3G communication to WIFI communication, the first device 100 is larger than an area corresponding to the second video. The video about the area may be provided to the second device 200. Also, for example, when the size of the streaming resolution of data transmitted between the first device 100 and the second device 200 is reduced, the first device 100 is smaller than an area corresponding to the second video. The video about the area may be provided to the second device 200.

도 6은 본 발명의 일 실시예에 따른 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법이 변경되는 경우에 제 1 디바이스(100)가 변경된 화질의 동영상을 제 2 디바이스(200)에게 제공하는 방법의 흐름도이다.6 is a first device 100 according to an embodiment of the present invention, when the communication method between the second device 200 is changed, the first device 100 changes the video of the changed image quality to the second device 200 Is a flowchart of how to provide it.

단계 S600에서 제 1 디바이스(100)는 제 2 디바이스와의 통신 방법이 변경되었는지를 판단한다. 구체적으로, 제 1 디바이스(100)는 제 2 디바이스(200)와의 통신 방법의 종류 및 대역폭(bandwidth)이 변경되었는지를 확인할 수 있다. 또한, 제 2 디바이스(200)는 제 1 디바이스(100) 및 제 2 디바이스(200) 간에 전송되는 데이터의 스트리밍 해상도가 변경되었는지를 확인할 수 있다.In step S600, the first device 100 determines whether a communication method with the second device has been changed. Specifically, the first device 100 may check whether the type and bandwidth of the communication method with the second device 200 has been changed. Also, the second device 200 may check whether the streaming resolution of data transmitted between the first device 100 and the second device 200 is changed.

단계 S600에서의 판단 결과, 통신 방법이 변경된 경우에, 단계 S610에서 제 1 디바이스(100)는 제 2 디바이스(200)에게 전송 중인 제 2 동영상의 화질을 변경한다. 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법이 변경됨에 따라, 제 1 디바이스(100)는 제 2 동영상의 화질을 고화질 또는 저화질로 변경할 수 있다.As a result of the determination in step S600, when the communication method is changed, in step S610, the first device 100 changes the image quality of the second video being transmitted to the second device 200. As the communication method between the first device 100 and the second device 200 changes, the first device 100 may change the quality of the second video to high or low quality.

예를 들어, 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법의 종류가 3G 통신에서 WIFI 통신으로 변경된 경우에, 제 2 동영상의 화질을 3G 통신에서의 화질보다 고화질로 변경할 수 있다. 또한, 예를 들어, 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법의 종류가 4G 통신에서 WIFI 통신으로 변경된 경우에, 제 2 동영상의 화질을 4G 통신 에서의 화질보다 저화질로 변경할 수 있다.For example, when the type of communication method between the first device 100 and the second device 200 is changed from 3G communication to WIFI communication, the quality of the second video may be changed to a higher quality than that of 3G communication. . Also, for example, when the type of the communication method between the first device 100 and the second device 200 is changed from 4G communication to WIFI communication, the quality of the second video is changed to a lower quality than that of 4G communication. You can.

또한, 예를 들어, 제 1 디바이스(100)와 제 2 디바이스(200) 간에 전송되는 데이터의 스트리밍 해상도가 변경된 경우에, 제 2 동영상의 화질을 변경할 수도 있다.Also, for example, when the streaming resolution of data transmitted between the first device 100 and the second device 200 is changed, the quality of the second video may be changed.

통신 방법의 종류 및 대역폭(bandwidth) 중 적어도 하나에 대응되는 화질 값은 미리 설정되어 제 1 디바이스(100)에 저장될 수 있다. 또한, 제 1 디바이스(100) 및 제 2 디바이스(200) 간에 전송되는 데이터의 스트리밍 해상도에 대응되는 화질은 미리 설정되어 제 1 디바이스(100)에 저장될 수 있다.An image quality value corresponding to at least one of a type of communication method and a bandwidth may be preset and stored in the first device 100. Also, an image quality corresponding to a streaming resolution of data transmitted between the first device 100 and the second device 200 may be preset and stored in the first device 100.

단계 S620에서 제 1 디바이스(100)는 변경된 화질의 동영상을 제 2 디바이스(200)에게 제공한다. 제 1 디바이스(100)는 변경된 화질에 적합한 화질의 동영상을 제 2 디바이스(200)에게 제공할 수 있다.
In step S620, the first device 100 provides the video of the changed image quality to the second device 200. The first device 100 may provide a video of a quality suitable for the changed image quality to the second device 200.

도 7은 본 발명의 다른 실시예에 따른 제 1 디바이스(100)가 촬영 중인 동영상의 일부 영역에 대응되는 객체를 포함하는 동영상을 제 2 디바이스(200)에게 제공하는 방법의 흐름도이다. 도 7에서는 제 1 디바이스(100)가 제 2 디바이스(200)로부터 제 1 동영상의 소정의 지점에 대한 좌표 정보를 수신하고, 수신된 좌표 정보를 이용하여 일부 영역을 관심 영역으로 선택할 수 있다.7 is a flowchart of a method of providing a video including an object corresponding to a partial region of a video being photographed by the first device 100 to the second device 200 according to another embodiment of the present invention. In FIG. 7, the first device 100 may receive coordinate information for a predetermined point of the first video from the second device 200 and select some regions as regions of interest using the received coordinate information.

단계 S700에서 제 1 디바이스(100)는 제 2 디바이스(200)에게 제 1 동영상을 제공한다. 제 1 디바이스(100)는 촬영된 동영상에 기초하여, 제 1 동영상을 제 2 디바이스(200)에게 제공할 수 있다. 제 1 디바이스(100)는 촬영된 동영상을 별도의 가공없이 제 1 동영상으로 하여 제 2 디바이스(200)에게 제공할 수 있다. 또한, 제 1 디바이스(100)는 촬영된 동영상을 가공하고, 가공된 동영상을 제 1 동영상으로 하여 제 2 디바이스(200)에게 제공할 수도 있다. 이 경우, 제 1 디바이스(100)는 촬영된 동영상의 해상도를 변경하거나, 소정의 형식으로 변환할 수 있다. 예를 들어, 촬영된 동영상의 해상도가 제 1 디바이스(100)와 제 2 디바이스(200)간의 스트리밍 해상도보가 큰 경우에, 제 1 디바이스(100)는 촬영된 동영상의 해상도를 스트리밍 해상도와 동일하도록 변환하고, 변환된 해상도의 제 1 동영상을 제 2 디바이스(200)에게 제공할 수 있다.In step S700, the first device 100 provides the first video to the second device 200. The first device 100 may provide the first video to the second device 200 based on the captured video. The first device 100 may provide the captured video as the first video without any additional processing to the second device 200. Also, the first device 100 may process the captured video and provide the processed video as the first video to the second device 200. In this case, the first device 100 may change the resolution of the captured video or convert it into a predetermined format. For example, when the resolution of the captured video is greater than the streaming resolution between the first device 100 and the second device 200, the first device 100 converts the resolution of the captured video to be the same as the streaming resolution. Then, the first video of the converted resolution may be provided to the second device 200.

또한, 단계 S700에서 제 1 디바이스(100)는 원본 해상도를 갖는 제 1 동영상을 제 1 해상도로 외부 기기에게 전송할 수 있다. 이 경우, 제 1 디바이스(100)는 제 2 디바이스(200)에 포함된 디스플레이의 해상도에 관한 정보를 미리 획득하여 저장할 수 있으며, 제 2 디바이스(200)에 포함된 디스플레이의 해상도에 기초하여 제 1 해상도를 결정할 수 있다.Also, in step S700, the first device 100 may transmit the first video having the original resolution to the external device in the first resolution. In this case, the first device 100 may obtain and store information regarding the resolution of the display included in the second device 200 in advance, and may store the information based on the resolution of the display included in the second device 200. Resolution can be determined.

단계 S710에서 제 2 디바이스(200)는 수신된 제 1 동영상을 디스플레이한다. 제 2 디바이스(200)는 수신된 제 1 동영상을 제 2 디바이스(200)의 화면에 디스플레이할 수 있다. 제 2 디바이스(200)는 제 1 해상도의 제 1 동영상을 화면에 디스플레이할 수 있다.In step S710, the second device 200 displays the received first video. The second device 200 may display the received first video on the screen of the second device 200. The second device 200 may display the first video of the first resolution on the screen.

단계 S720에서 제 2 디바이스(200)는 화면에 표시된 제 1 동영상에 대한 사용자의 터치 입력을 수신한다. 제 2 디바이스(200)는 화면에 표시된 제 1 동영상의 한 지점을 선택하는 사용자의 터치 입력을 수신할 수 있다. 또한, 제 2 디바이스(200)는 터치된 지점에 대한 좌표 정보를 생성할 수 있다.In step S720, the second device 200 receives a user's touch input for the first video displayed on the screen. The second device 200 may receive a user's touch input selecting a point of the first video displayed on the screen. Also, the second device 200 may generate coordinate information about the touched point.

단계 S730에서 제 2 디바이스(200)는 제 1 디바이스(100)에게 터치된 지점에 대한 좌표 정보를 제공한다.In step S730, the second device 200 provides coordinate information for the touched point to the first device 100.

단계 S740에서 제 1 디바이스(100)는 수신된 좌표 정보에 기초하여, 제 2 디바이스(200)에게 제공할 제 1 동영상의 일부 영역을 관심 영역으로 결정한다. 제 1 디바이스(100)는 터치 입력된 지점의 위치에 기초하여 일부 영역을 선택할 수 있다. 구체적으로, 제 1 디바이스(100)는 터치된 지점을 포함하는 객체를 식별하고, 식별된 객체를 포함하는 영역을 선택할 수 있다. 예를 들어, 제 1 동영상에서 얼굴 부분이 터치된 경우에, 제 1 디바이스(100)는 터치된 지점을 포함하는 객체인 얼굴을 식별할 수 있다. 또한, 제 1 디바이스(100)는 식별된 얼굴을 포함하는 영역을 관심 영역으로 선택할 수 있다.In operation S740, the first device 100 determines a partial region of the first video to be provided to the second device 200 as the region of interest based on the received coordinate information. The first device 100 may select some regions based on the location of the touch input point. Specifically, the first device 100 may identify an object including the touched point and select an area including the identified object. For example, when the face portion is touched in the first video, the first device 100 may identify a face that is an object including the touched point. Also, the first device 100 may select an area including the identified face as an area of interest.

또한, 제 1 디바이스(100)는 터치된 지점으로부터 기 설정된 범위의 영역을 관심 영역으로 선택할 수 있다. 예를 들어, 제 1 디바이스(100)는 터치된 지점을 중심으로 하는 소정의 크기의 사각형의 영역을 관심 영역으로 선택할 수 있다.Also, the first device 100 may select an area of a preset range from the touched point as the region of interest. For example, the first device 100 may select a rectangular area of a predetermined size centered on the touched point as the region of interest.

단계 S750에서 제 1 디바이스(100)는 결정된 일부 영역에 포함된 객체를 식별한다. 예를 들어, 제 1 디바이스(100)는 터치된 지점으로부터 기 설정된 범위의 영역을 관심 영역으로 선택한 경우에, 제 1 디바이스(100)는 선택된 영역에 포함된 객체를 제 1 동영상으로부터 식별할 수 있다. In step S750, the first device 100 identifies the object included in the determined partial area. For example, when the first device 100 selects an area of a predetermined range from a touched point as an area of interest, the first device 100 may identify an object included in the selected area from the first video. .

또한, 제 1 디바이스(100)는 결정된 관심 영역에 기초하여, 촬영된 동영상으로부터 객체를 식별할 수도 있다. 결정된 관심 영역은 제 1 동영상의 일부 영역이기 때문에, 제 1 디바이스(100)는 결정된 제 1 동영상의 관심 영역에 매칭되는 영역을 촬영 중인 동영상으로부터 확인할 수 있다. 또한, 매칭된 영역에 포함된 객체를 촬영 중인 동영상으로부터 식별할 수 있다. Also, the first device 100 may identify an object from the captured video based on the determined region of interest. Since the determined region of interest is a partial region of the first video, the first device 100 may check an area matching the determined region of interest of the first video from the video being photographed. In addition, an object included in the matched area can be identified from a video being photographed.

또한, 제 1 디바이스(100)는 제 1 동영상으로부터 식별된 객체를 이용하여 촬영 중인 동영상에 포함된 객체를 식별할 수도 있다. 제 1 디바이스(100)는 제 1 동영상으로부터 식별된 객체의 이미지와 기설정된 수치 이상으로 유사한 객체를 촬영 중인 동영상으로부터 식별할 수 있다.Also, the first device 100 may identify an object included in a video being photographed using an object identified from the first video. The first device 100 may identify an object similar to an image of the object identified from the first video or more than a preset value from the video being photographed.

단계 S760에서 제 1 디바이스(100)는 식별된 객체를 추적한다. 제 1 디바이스(100)는 제 1 동영상으로부터 식별된 객체를 추적할 수 있다. 또한, 제 1 디바이스는 촬영된 동영상으로부터 식별된 객체를 추적할 수도 있다.In step S760, the first device 100 tracks the identified object. The first device 100 may track the object identified from the first video. Also, the first device may track the object identified from the captured video.

단계 S770에서 제 1 디바이스(100)는 제 2 디바이스(200)에게 추적된 객체를 포함하는 제 2 동영상을 제공한다. 제 1 디바이스(100)는 촬영된 동영상으로부터 식별된 객체를 포함하는 영역을 잘라내고, 잘라낸 동영상을 제 2 동영상으로 하여 제 2 디바이스(200)에게 제공할 수 있다.In step S770, the first device 100 provides a second video including the tracked object to the second device 200. The first device 100 may cut an area including the identified object from the captured video, and provide the cut video as the second video to the second device 200.

구체적으로, 제 1 디바이스(100)는 수신된 영역 정보에 기초하여 원본 해상도의 제 1 동영상의 화면에서 관심 영역에 대응되는 영역을 결정할 수 있다. 또한, 제 1 디바이스(100)는 결정된 영역만을 포함하도록 제 1 동영상을 제 2 동영상으로 변환할 수 있다. 또한, 제 1 디바이스(100)는 제 2 동영상을 제 1 해상도로 제 2 디바이스(200)에게 제공할 수 있다. 예를 들어, 원본 해상도가 1000 x 1000이고, 제 1 해상도가 100 x 100인 경우에, 제 1 디바이스(100)는 결정된 영역에 대응되는 제 1 동영상의 일부분을 제 2 동영상으로 변환하고, 제 2 동영상을 100 x 100의 해상도로 제 2 디바이스(200)에게 전송할 수 있다.Specifically, the first device 100 may determine an area corresponding to the region of interest on the screen of the first video of the original resolution based on the received region information. Also, the first device 100 may convert the first video to the second video to include only the determined area. Also, the first device 100 may provide the second video to the second device 200 at the first resolution. For example, when the original resolution is 1000 x 1000 and the first resolution is 100 x 100, the first device 100 converts a portion of the first video corresponding to the determined region into a second video, and the second The video may be transmitted to the second device 200 at a resolution of 100 x 100.

또한, 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법에 따라, 제 1 디바이스(100)는 제 2 동영상에 대응되는 영역의 크기를 결정할 수 있다. 또한, 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법에 따라, 제 1 디바이스(100)는 제 2 동영상의 화질을 결정할 수도 있다. 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법은, 예를 들어, 3G (third generation)통신, 4G (fourth generation) 통신, Wifi (wireless fidelrity) 통신을 포함할 수 있으나, 이에 제한되지 않는다.Also, according to a communication method between the first device 100 and the second device 200, the first device 100 may determine the size of an area corresponding to the second video. Also, according to a communication method between the first device 100 and the second device 200, the first device 100 may determine the quality of the second video. The communication method between the first device 100 and the second device 200 may include, for example, 3G (third generation) communication, 4G (fourth generation) communication, and Wifi (wireless fidelrity) communication, but is not limited thereto. Does not work.

또한, 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법이 변경됨에 따라, 제 1 디바이스(100)는 제 2 동영상에 대응되는 영역의 크기 또는 제 2 동영상의 화질을 변경할 수 있다. 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법은 제 1 디바이스(100) 및 제 2 디바이스(200) 중 적어도 하나가 핸드오버를 수행함에 따라 변경될 수 있다.Also, as the communication method between the first device 100 and the second device 200 changes, the first device 100 may change the size of an area corresponding to the second video or the quality of the second video. The communication method between the first device 100 and the second device 200 may be changed as at least one of the first device 100 and the second device 200 performs handover.

단계 S780에서 제 2 디바이스(200)는 수신된 제 2 동영상을 디스플레이한다. 제 2 디바이스(200)의 사용자는 선택된 일부 영역에 포함된 객체에 대한 보다 자세한 동영상을 확인할 수 있게 된다.In step S780, the second device 200 displays the received second video. The user of the second device 200 can check a more detailed video of the object included in the selected partial area.

한편, 제 2 디바이스(200)는 제 2 디바이스(200)의 화면에 제 1 동영상 및 제 2 동영상을 함께 디스플레이할 수 있다. 이 경우, 단계 S770에서 제 2 디바이스(200)는 제 2 동영상뿐만 아니라 제 1 동영상을 함께 수신할 수 있다. 또한, 제 2 디바이스(200)는 제 1 동영상 상에 제 2 동영상을 오버랩하여 표시할 수 있다. 제 2 디바이스(200)는 제 1 동영상에서 제 1 디바이스(100)의 사용자가 표시되지 않은 부분에 제 2 동영상을 오버랩할 수 있다. 또한, 제 2 디바이스(200)는 제 1 동영상이 표시되는 영역의 크기 및 제 2 동영상이 표시되는 영역의 크기를 조절할 수 있다. 그러나, 이에 제한되지 않으며, 제 2 디바이스(200)는 제 1 동영상 및 제 2 동영상을 오버랩하지 않고 제 2 디바이스(200)의 화면에 디스플레이할 수도 있다.
Meanwhile, the second device 200 may display the first video and the second video together on the screen of the second device 200. In this case, in step S770, the second device 200 may receive the first video as well as the second video. Also, the second device 200 may overlap and display the second video on the first video. The second device 200 may overlap the second video in a portion where the user of the first device 100 is not displayed in the first video. Also, the second device 200 may adjust the size of the area where the first video is displayed and the size of the area where the second video is displayed. However, the present invention is not limited thereto, and the second device 200 may display the first video and the second video on the screen of the second device 200 without overlapping.

도 8은 본 발명의 일 실시예에 따른 사용자의 터치 지점을 포함하는 객체가 포함되도록 제 2 디바이스(200)가 제 1 동영상의 일부 영역을 관심 영역으로 결정하는 일례를 도시한 도면이다.FIG. 8 is a diagram illustrating an example in which the second device 200 determines a partial region of the first video as a region of interest so that an object including a user's touch point is included according to an embodiment of the present invention.

도 8을 참조하면, 사용자가 제 2 디바이스(200)의 화면에 표시된 제 1 동영상에서 소정의 지점(80)을 터치하는 경우에, 제 2 디바이스(200)는 터치된 지점(80)을 포함하는 얼굴(82)을 포함하는 영역(84)를 제 1 동영상의 일부 영역으로 결정할 수 있다.Referring to FIG. 8, when a user touches a predetermined point 80 in the first video displayed on the screen of the second device 200, the second device 200 includes the touched point 80 The region 84 including the face 82 may be determined as a partial region of the first video.

구체적으로, 사용자가 제 2 디바이스(200)의 화면에 표시된 제 1 동영상에서 소정의 지점(80)을 터치하는 경우에, 제 2 디바이스(200)는 터치된 지점(80)을 포함하는 얼굴(82)을 식별할 수 있다. 또한, 제 2 디바이스(200)는 식별된 얼굴(82)을 포함하는 영역(84)를 선택할 수 있다. 이 경우, 영역(84)의 크기는, 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법에 기초하여 결정될 수 있다.Specifically, when the user touches a predetermined point 80 in the first video displayed on the screen of the second device 200, the second device 200 faces the face 82 including the touched point 80 ) Can be identified. Also, the second device 200 may select an area 84 including the identified face 82. In this case, the size of the region 84 may be determined based on a communication method between the first device 100 and the second device 200.

또한, 예를 들어, 사용자가 제 2 디바이스(200)의 화면에 표시된 소정의 메뉴를 터치하면, 제 2 디바이스(200)의 화면에 소정의 박스가 표시되고, 사용자는 표시된 박스를 이동시키거나 박스의 크기를 조절하여 관심 영역을 선택할 수도 있다. 이 경우, 박스를 이동시키거나 박스의 크기를 조절하기 위한 별도의 사용자 인터페이스가 제 2 디바이스(200)의 화면에 표시될 수도 있다.
Further, for example, when the user touches a predetermined menu displayed on the screen of the second device 200, a predetermined box is displayed on the screen of the second device 200, and the user moves the displayed box or the box The region of interest may be selected by adjusting the size of. In this case, a separate user interface for moving the box or adjusting the size of the box may be displayed on the screen of the second device 200.

도 9는 본 발명의 일 실시예에 따른 제 2 디바이스(200)가 사용자의 터치 지점으로부터 기 설정된 범위의 일부 영역을 관심 영역으로 결정하는 일례를 도시한 도면이다.9 is a diagram illustrating an example in which the second device 200 according to an embodiment of the present invention determines a partial region of a preset range as a region of interest from a user's touch point.

도 9를 참조하면, 사용자가 제 2 디바이스(200)의 화면에 표시된 제 1 동영상에서 소정의 지점(90)을 터치하는 경우에, 터치된 지점(90)을 중심으로 하는 소정의 크기의 사각형의 영역(92)을 제 1 동영상의 일부 영역으로 결정할 수 있다. 이 경우, 영역(92)의 크기는, 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법에 기초하여 결정될 수 있다.Referring to FIG. 9, when a user touches a predetermined point 90 in a first video displayed on the screen of the second device 200, a rectangle of a predetermined size centered on the touched point 90 The region 92 may be determined as a partial region of the first video. In this case, the size of the region 92 may be determined based on a communication method between the first device 100 and the second device 200.

한편, 제 2 디바이스(200)는 사용자의 언핀칭(unpinching) 입력에 기초하여 관심 영역을 결정할 수도 있다. 사용자가 제 2 디바이스(200)의 화면에 표시된 제 2 동영상의 소정 부분을 언핀칭을 통하여 확대하고 터치된 손가락을 소정 시간 이상 홀드하면, 제 2 디바이스(200)는 사용자의 언핀칭 입력에 의해 확대된 영역을 관심 영역으로 결정할 수 있다. 또한, 제 2 디바이스(200)는 결정된 관심 영역에 대응되는 제 2 동영상을 제 1 디바이스(100)에게 요청할 수 있다.
Meanwhile, the second device 200 may determine the region of interest based on the user's unpinching input. When the user enlarges a predetermined portion of the second video displayed on the screen of the second device 200 through unpinching and holds the touched finger for a predetermined time or more, the second device 200 enlarges by the user's unpinching input. The selected area can be determined as an area of interest. Further, the second device 200 may request the second device corresponding to the determined region of interest from the first device 100.

도 10은 본 발명의 일 실시예에 따른 일부 영역을 결정하기 위한 사용자 인터페이스를 이용하여, 제 2 디바이스(200)가 제 1 동영상의 일부 영역을 관심 영역으로 결정하는 일례를 도시한 도면이다.FIG. 10 is a diagram illustrating an example in which the second device 200 determines a partial region of the first video as a region of interest by using a user interface for determining a partial region according to an embodiment of the present invention.

도 10을 참조하면, 제 2 디바이스(200)는 제 1 동영상의 일부 영역을 선택하기 위한 가이드 라인(10)을 화면에 표시할 수 있다. 또한, 사용자가 가이드 라인(10)의 일부를 터치하고 드래그하면, 제 2 디바이스(200)는 가이드 라인(10)의 크기를 변경할 수 있다. 또한, 제 2 디바이스(200)는 변경된 가이드 라인(10)에 포함된 영역을 제 1 동영상의 관심 영역으로 결정할 수 있다. 이 경우, 가이드 라인(10)에 포함된 영역의 크기의 상한 값은, 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법에 기초하여 결정될 수 있다.
Referring to FIG. 10, the second device 200 may display a guide line 10 for selecting a partial region of the first video on the screen. In addition, when the user touches and drags a part of the guide line 10, the second device 200 may change the size of the guide line 10. Also, the second device 200 may determine an area included in the changed guideline 10 as an area of interest of the first video. In this case, an upper limit value of the size of the area included in the guide line 10 may be determined based on a communication method between the first device 100 and the second device 200.

도 11은 본 발명의 일 실시예에 따른 제 1 디바이스(100)와 제 2 디바이스(200)간의 통신 방법에 변경되는 경우에, 제 2 디바이스(200)가 제 1 디바이스(100)로부터 해상도가 변경된 동영상을 제공받는 일례를 도시한 도면이다. 도 11(a)는 통신 방법이 변경되기 전에 제 2 디바이스(200)에 디스플레이된 동영상의 일례를 도시한 도면이며, 도 11(b)는 통신 방법이 변경된 이후에 제 2 디바이스(200)에 디스플레이된 동영상의 일례를 도시한 도면이다.FIG. 11 illustrates a case in which the resolution of the second device 200 is changed from the first device 100 when the communication method between the first device 100 and the second device 200 is changed according to an embodiment of the present invention. A diagram showing an example of receiving a video. 11 (a) is a diagram illustrating an example of a video displayed on the second device 200 before the communication method is changed, and FIG. 11 (b) is displayed on the second device 200 after the communication method is changed. A diagram showing an example of an old video.

제 1 디바이스(100)와 제 2 디바이스(200)와의 통신 방법이 변경되어, 제 1 디바이스(100)와 제 2 디바이스(200) 간에 전송되는 데이터의 스트리밍 해상도가 작아질 수 있다. 이 경우, 제 2 디바이스(200)는 통신 방법이 변경되기 전의 동영상보다 낮은 해상도의 동영상을 제 1 디바이스(100)로부터 수신할 수 있다. 또한, 제 2 디바이스(200)는 통신 방법이 변경된 이후에 수신되는 동영상을 통신 방법이 변경되기 전의 동영상보다 작은 크기로 디스플레이할 수 있다.
The communication method between the first device 100 and the second device 200 is changed, and the streaming resolution of data transmitted between the first device 100 and the second device 200 may be reduced. In this case, the second device 200 may receive a video having a lower resolution than the video before the communication method is changed from the first device 100. Also, the second device 200 may display a video received after the communication method is changed to a smaller size than the video before the communication method is changed.

도 12는 본 발명의 일 실시예에 따른 제 1 디바이스(100)와 제 2 디바이스(200)간의 통신 방법에 변경되는 경우에, 제 2 디바이스(200)가 제 1 디바이스(100)로부터 화질이 변경된 동영상을 제공받는 일례를 도시한 도면이다. 도 12(a)는 통신 방법이 변경되기 전에 제 2 디바이스(200)에 디스플레이된 동영상의 일례를 도시한 도면이며, 도 12(b)는 통신 방법이 변경된 이후에 제 2 디바이스(200)에 디스플레이된 동영상의 일례를 도시한 도면이다.FIG. 12 shows that when the communication method between the first device 100 and the second device 200 is changed according to an embodiment of the present invention, the second device 200 changes the image quality from the first device 100. A diagram showing an example of receiving a video. 12 (a) is a diagram showing an example of a video displayed on the second device 200 before the communication method is changed, and FIG. 12 (b) is displayed on the second device 200 after the communication method is changed. A diagram showing an example of an old video.

제 1 디바이스(100)와 제 2 디바이스(200)와의 통신 방법이 변경되어, 제 1 디바이스(100)와 제 2 디바이스(200) 간에 전송되는 데이터의 스트리밍 해상도가 작아질 수 있다. 이 경우, 제 2 디바이스(200)는 통신 방법이 변경되기 전의 동영상보다 낮은 화질의 동영상을 제 1 디바이스(100)로부터 수신할 수 있다. 또한, 제 2 디바이스(200)는 통신 방법이 변경된 이후에 수신되는 동영상을 통신 방법이 변경되기 전의 동영상과 동일한 크기로 디스플레이할 수 있다.
The communication method between the first device 100 and the second device 200 is changed, and the streaming resolution of data transmitted between the first device 100 and the second device 200 may be reduced. In this case, the second device 200 may receive a video of a lower quality than the video before the communication method is changed from the first device 100. Also, the second device 200 may display a video received after the communication method is changed in the same size as the video before the communication method is changed.

도 13은 본 발명의 일 실시예에 따른 제 1 디바이스(100)와 제 2 디바이스(200)간의 통신 방법에 변경되는 경우에, 제 2 디바이스(200)가 제 1 디바이스(100)로부터 변경된 일부 영역에 대한 동영상을 제공받는 일례를 도시한 도면이다. 도 13(a)는 통신 방법이 변경되기 전에 제 2 디바이스(200)에 디스플레이된 동영상의 일례를 도시한 도면이며, 도 13(b)는 통신 방법이 변경된 이후에 제 2 디바이스(200)에 디스플레이된 동영상의 일례를 도시한 도면이다.FIG. 13 shows a partial area in which the second device 200 is changed from the first device 100 when the communication method between the first device 100 and the second device 200 is changed according to an embodiment of the present invention. It is a diagram showing an example of receiving a video for. 13 (a) is a diagram showing an example of a video displayed on the second device 200 before the communication method is changed, and FIG. 13 (b) is displayed on the second device 200 after the communication method is changed. A diagram showing an example of an old video.

제 1 디바이스(100)와 제 2 디바이스(200)와의 통신 방법이 변경되어, 제 1 디바이스(100)와 제 2 디바이스(200) 간에 전송되는 데이터의 스트리밍 해상도가 커질 수 있다. 이 경우, 제 2 디바이스(200)는 통신 방법이 변경되기 전의 동영상보다 넓은 영역에 대한 동영상을 제 1 디바이스(100)로부터 수신할 수 있다.
The communication method between the first device 100 and the second device 200 is changed, and the streaming resolution of data transmitted between the first device 100 and the second device 200 may be increased. In this case, the second device 200 may receive a video on a wider area than the video before the communication method is changed from the first device 100.

도 14는 본 발명의 일 실시예에 따른 제 1 디바이스(100)의 블록도이다.14 is a block diagram of a first device 100 according to an embodiment of the present invention.

도 14에 도시된 바와 같이, 본 발명의 일 실시예에 따른 제 1 디바이스(100)는 영상 획득부(110), 영상 제공부(120), 객체 식별부(130), 객체 추적부(140), 네트워크 확인부(150), 프레임 버퍼(190), DB(160), 송수신부(170) 및 제어부(180)를 포함한다.As shown in FIG. 14, the first device 100 according to an embodiment of the present invention includes an image acquisition unit 110, an image providing unit 120, an object identification unit 130, and an object tracking unit 140 , A network confirmation unit 150, a frame buffer 190, a DB 160, a transmission / reception unit 170, and a control unit 180.

영상 획득부(110)는 제 2 디바이스(200)에게 제공할 영상을 획득한다. 영상 획득부(110)는 제 1 디바이스(100)에 포함된 촬영 장치 또는 이미지 센서를 통하여 촬영된 동영상을 획득할 수 있으나, 이에 제한되지 않는다. 영상 획득부(110)는 사진, 캡쳐 이미지 등의 콘텐트를 획득할 수도 있다.The image acquisition unit 110 acquires an image to be provided to the second device 200. The image acquisition unit 110 may acquire a video captured through a photographing apparatus or an image sensor included in the first device 100, but is not limited thereto. The image acquisition unit 110 may acquire content such as a photo and a captured image.

제 1 디바이스(100)에서 실행된 애플리케이션의 실행 화면에 대응되는 제 3 영상을 제 2 디바이스(200)에게 제공하는 경우에는, 영상 획득부(110)는 프레임 버퍼(190)로부터 애플리케이션의 실행 화면에 대응되는 제 3 영상을 획득할 수 있다. 그러나, 이에 제한되지 않으며, 영상 획득부(110)는 후술할 프레임 버퍼(190)로부터 애플리케이션의 실행 화면에 대응되는 영상을 추출하고, 추출된 영상을 가공하여 제 3 영상을 생성할 수도 있다.When a third image corresponding to the execution screen of the application executed in the first device 100 is provided to the second device 200, the image acquisition unit 110 displays the application execution screen from the frame buffer 190. A corresponding third image can be obtained. However, the present invention is not limited thereto, and the image acquisition unit 110 may extract an image corresponding to the execution screen of the application from the frame buffer 190 to be described later, and process the extracted image to generate a third image.

영상 제공부(120)는 제 2 디바이스(200)에게 획득된 영상을 제공한다. 영상 제공부(120)는 획득된 영상을 가공하여 제 2 디바이스(200)에게 제공할 수 있으나 이에 제한되지 않는다. 영상 제공부(120)는 획득된 영상을 별도의 가공없이 제 2 디바이스(200)에게 제공할 수도 있다.The image providing unit 120 provides the acquired image to the second device 200. The image providing unit 120 may process the acquired image and provide it to the second device 200, but is not limited thereto. The image providing unit 120 may provide the obtained image to the second device 200 without additional processing.

또한, 영상 제공부(120)는 제 1 디바이스(100)에 의해 촬영된 동영상에 기초하여 제 1 동영상 및 제 2 동영상을 제 2 디바이스(200)에게 제공할 수 있다. 영상 제공부(120)는 촬영된 동영상을 별도의 가공없이 제 1 동영상으로 하여 제 2 디바이스(200)에게 제공할 수 있다. 또한, 영상 제공부(120)는 촬영된 동영상을 가공하고, 가공된 동영상을 제 1 동영상으로 하여 제 2 디바이스(200)에게 제공할 수도 있다. 이 경우, 영상 제공부(120)는 촬영된 동영상의 해상도 또는 화질을 변경하거나, 동영상의 포맷을 변환할 수 있다.Also, the image providing unit 120 may provide the first video and the second video to the second device 200 based on the video captured by the first device 100. The image providing unit 120 may provide the captured video as the first video without any additional processing to the second device 200. Also, the image providing unit 120 may process the captured video and provide the processed video as the first video to the second device 200. In this case, the image providing unit 120 may change the resolution or image quality of the captured video or convert the video format.

또한, 영상 제공부(120)는 원본 해상도를 갖는 제 1 동영상을 제 1 해상도로 제 2 디바이스(200)에게 전송할 수 있다. 이 경우, 제 1 디바이스(100)는 제 2 디바이스(200)에 포함된 디스플레이의 해상도에 관한 정보를 미리 획득하여 저장할 수 있으며, 제 2 디바이스(200)에 포함된 디스플레이의 해상도에 기초하여 제 1 해상도를 결정할 수 있다.Also, the image providing unit 120 may transmit the first video having the original resolution to the second device 200 at the first resolution. In this case, the first device 100 may obtain and store information regarding the resolution of the display included in the second device 200 in advance, and may store the information based on the resolution of the display included in the second device 200. Resolution can be determined.

또한, 영상 제공부(120)는 후술할 객체 추적부(140)에 의해 추적된 객체를 포함하는 제 2 동영상을 제 2 디바이스(200)에게 제공할 수 있다. 제 2 동영상은 추적된 객체를 포함하는 일부 영역만을 포함할 수 있다. 또한, 영상 제공부(120)는 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법이 변경되는 경우에, 제 2 동영상의 해상도 또는 화질을 변경하고 변경된 동영상을 제 2 디바이스(200)에게 제공할 수 있다. 또한, 영상 제공부(120)는 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법이 변경되는 경우에, 제 2 동영상에 대응되는 일부 영역의 크기를 변경하고 변경된 일부 영역에 대한 동영상을 제 2 디바이스(200)에게 제공할 수 있다.Also, the image providing unit 120 may provide the second device 200 with a second video including the object tracked by the object tracking unit 140 to be described later. The second video may include only some areas including the tracked object. In addition, when the communication method between the first device 100 and the second device 200 is changed, the image providing unit 120 changes the resolution or image quality of the second video and changes the video to the second device 200. Can provide. In addition, when the communication method between the first device 100 and the second device 200 is changed, the image providing unit 120 changes the size of some areas corresponding to the second video and videos for the changed some areas Can be provided to the second device 200.

한편, 영상 제공부(120)는 제 1 디바이스(100)에서 실행된 애플리케이션의 실행 화면에 대응되는 제 3 영상을 제 2 디바이스(200)에게 제공할 수 있다. 또한, 제 2 디바이스(200)가 제 1 디바이스(100)로부터 수신된 제 3 영상의 일부분을 선택하고, 선택된 부분에 대한 영상을 요청하면, 제 1 디바이스(100)는 선택된 부분에 대응되는 제 4 영상을 제 2 디바이스(200)에게 제공할 수 있다. 이 경우, 제 4 영상은 제 3 영상에서 선택된 부분을 잘라냄으로써 생성된 영상일 수 있다.Meanwhile, the image providing unit 120 may provide the second device 200 with a third image corresponding to the execution screen of the application executed in the first device 100. In addition, when the second device 200 selects a portion of the third image received from the first device 100 and requests an image for the selected portion, the first device 100 is a fourth corresponding to the selected portion An image may be provided to the second device 200. In this case, the fourth image may be an image generated by cutting a portion selected from the third image.

객체 식별부(130)는 획득된 영상으로부터 객체를 식별한다. 객체 식별부(130)는 제 2 디바이스(200)로부터 제 1 동영상의 일부 영역에 관한 영역 정보를 수신하고, 촬영된 동영상 또는 제 1 동영상으로부터 객체를 식별할 수 있다.The object identification unit 130 identifies an object from the acquired image. The object identification unit 130 may receive area information on a partial region of the first video from the second device 200 and identify an object from the captured video or the first video.

객체 추적부(140)는 획득된 영상으로부터 객체를 추적한다. 객체 추적부(140)는 식별된 객체를 제 1 동영상 또는 촬영된 동영상에서 추적할 수 있다.The object tracking unit 140 tracks an object from the acquired image. The object tracking unit 140 may track the identified object in the first video or the captured video.

네트워크 확인부(150)는 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법을 확인한다. 네트워크 확인부(150)는 제 1 디바이스(100)와의 제 2 디바이스(200) 간의 통신 방법의 종류 및 대역폭(bandwidth)을 확인할 수 있다. 또한, 네트워크 확인부(150)는 제 1 디바이스(100) 및 제 2 디바이스(200) 간에 전송되는 데이터의 스트리밍 해상도를 확인할 수 있다. The network confirmation unit 150 checks a communication method between the first device 100 and the second device 200. The network confirmation unit 150 may check the type and bandwidth of a communication method between the first device 100 and the second device 200. In addition, the network confirmation unit 150 may check streaming resolution of data transmitted between the first device 100 and the second device 200.

프레임 버퍼(190)는 제 1 디바이스(100)에서 실행된 애플리케이션의 실행 화면에 대응되는 이미지를 저장한다.The frame buffer 190 stores an image corresponding to an execution screen of an application executed in the first device 100.

DB(160)는 제 1 디바이스(100)가 제 2 디바이스(200)에게 소정의 일부 영역에 대한 영상을 제공하는데 필요한 각종의 정보를 저장한다.The DB 160 stores various information necessary for the first device 100 to provide an image of a predetermined partial region to the second device 200.

송수신부(170)는 제 1 디바이스(100)가 제 2 디바이스(200)에게 소정의 일부 영역에 대한 영상을 제공하는데 필요한 각종의 정보를 제 2 디바이스(200)와 송수신한다.The transmitting and receiving unit 170 transmits and receives various information necessary for the first device 100 to provide an image of a predetermined partial region to the second device 200 with the second device 200.

제어부(180)는 제 1 디바이스(100)가 제 2 디바이스(200)에게 소정의 일부 영역에 대한 영상을 제공하도록, 영상 획득부(110), 영상 제공부(120), 객체 식별부(130), 객체 추적부(140), 네트워크 확인부(150), 프레임 버퍼(190), DB(160), 및 송수신부(170)를 제어한다.
The control unit 180, the image acquisition unit 110, the image providing unit 120, the object identification unit 130, so that the first device 100 provides the second device 200 with an image for a predetermined partial region , The object tracking unit 140, the network confirmation unit 150, the frame buffer 190, the DB 160, and controls the transmission and reception unit 170.

도 15는 본 발명의 일 실시예에 따른 제 2 디바이스(200)의 블록도이다.15 is a block diagram of a second device 200 according to an embodiment of the present invention.

도 15에 도시된 바와 같이, 본 발명의 일 실시예에 따른 제 2 디바이스(200)는 영상 수신부(210), 사용자 입력부(220), 네트워크 확인부(230), 영역 정보 생성부(240), 영역 정보 제공부(250), 디스플레이부(260), DB(270), 송수신부(280) 및 제어부(290)를 포함한다.15, the second device 200 according to an embodiment of the present invention includes an image receiving unit 210, a user input unit 220, a network confirmation unit 230, an area information generation unit 240, It includes an area information providing unit 250, a display unit 260, a DB 270, a transmitting and receiving unit 280 and a control unit 290.

영상 수신부(210)는 제 1 디바이스(100)로부터 영상을 수신한다. 영상 수신부(210)는 제 1 디바이스(100)로부터 제 1 동영상 및 제 2 동영상을 수신할 수 있다. 또한, 통신 방법이 변경되는 경우에, 영상 수신부(210)는 제 1 디바이스(100)로부터 해상도 또는 화질이 변경된 동영상을 수신할 수 있으나 이에 제한되지 않는다.The image receiving unit 210 receives an image from the first device 100. The image receiving unit 210 may receive the first video and the second video from the first device 100. In addition, when the communication method is changed, the image receiving unit 210 may receive a video with a changed resolution or image quality from the first device 100, but is not limited thereto.

한편, 제 1 디바이스(100)에서 실행된 애플리케이션의 실행 화면에 대응되는 제 3 영상을 제공한 경우에, 영상 수신부(210)는 제 1 디바이스(100)로부터 제 3 영상을 수신할 수 있다.Meanwhile, when a third image corresponding to an execution screen of an application executed by the first device 100 is provided, the image receiving unit 210 may receive a third image from the first device 100.

사용자 입력부(220)는 제 1 동영상의 일부 영역을 선택하기 위한 사용자 입력을 수신한다. 예를 들어, 사용자 입력부(220)는 제 1 동영상의 소정의 지점을 터치하는 사용자 입력을 수신하거나, 제 1 동영상의 소정의 지점을 터치&드래그하는 사용자 입력을 수신할 수 있다. 또한, 사용자 입력부(220)는 화면상에 표시된 소정의 사용자 인터페이스를 통한 사용자의 터치 입력을 수신할 수도 있다. 한편, 제 1 디바이스(100)에서 실행된 애플리케이션의 실행 화면에 대응되는 제 3 영상을 제공한 경우에, 사용자 입력부(220)는 제 3 영상의 일부 영역을 선택하기 위한 사용자 입력을 수신한다.The user input unit 220 receives a user input for selecting a partial region of the first video. For example, the user input unit 220 may receive a user input that touches a predetermined point of the first video or a user input that touches and drags a predetermined point of the first video. Also, the user input unit 220 may receive a user's touch input through a predetermined user interface displayed on the screen. Meanwhile, when a third image corresponding to an execution screen of an application executed by the first device 100 is provided, the user input unit 220 receives a user input for selecting a partial region of the third image.

네트워크 확인부(230)는 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법을 확인한다. 네트워크 확인부(230)는 제 1 디바이스(100)와의 제 2 디바이스(200) 간의 통신 방법의 종류 및 대역폭(bandwidth)을 확인할 수 있다. 또한, 네트워크 확인부(230)는 제 1 디바이스(100) 및 제 2 디바이스(200) 간에 전송되는 데이터의 스트리밍 해상도를 확인할 수 있다.The network confirmation unit 230 checks a communication method between the first device 100 and the second device 200. The network checker 230 may check the type and bandwidth of a communication method between the first device 100 and the second device 200. In addition, the network confirmation unit 230 may check streaming resolution of data transmitted between the first device 100 and the second device 200.

영역 정보 생성부(240)는 사용자 입력 및 확인된 통신 방법에 기초하여 제 1 동영상의 일부 영역을 선택한다. 영역 정보 생성부(240)는 제 1 동영상에 포함된 객체에 관련된 영역 정보를 생성할 수 있다. 영역 정보 생성부(240)는 제 1 동영상에서 터치 입력된 지점의 위치에 기초하여 일부 영역을 선택할 수 있다. 구체적으로, 사용자가 제 1 동영상에서 소정의 지점을 터치하면, 영역 정보 생성부(240)는 터치된 지점을 포함하는 객체를 식별하고, 식별된 객체를 포함하는 영역을 선택할 수 있다. The region information generating unit 240 selects a partial region of the first video based on the user input and the identified communication method. The region information generation unit 240 may generate region information related to an object included in the first video. The region information generating unit 240 may select some regions based on the location of the touch input point in the first video. Specifically, when the user touches a predetermined point in the first video, the area information generating unit 240 may identify an object including the touched point and select an area including the identified object.

또한, 사용자가 제 1 동영상에서 소정의 지점을 터치하면, 영역 정보 생성부(240)는 터치된 지점으로부터 기 설정된 범위의 영역을 일부 영역으로 선택할 수 있다. 또한, 영역 정보 생성부(240)는 사용자 인터페이스를 통한 사용자의 터치 입력에 따라, 선택된 일부 영역을 변경할 수도 있다. 또한, 제 1 동영상에서 선택되는 일부 영역의 크기는, 제 1 디바이스(100)와 제 2 디바이스(200) 간의 통신 방법에 따라, 결정될 수 있다. In addition, when a user touches a predetermined point in the first video, the region information generating unit 240 may select a region of a preset range from the touched point as a partial region. Also, the area information generating unit 240 may change some selected areas according to a user's touch input through a user interface. In addition, the size of some areas selected from the first video may be determined according to a communication method between the first device 100 and the second device 200.

영역 정보 제공부(250)는 생성된 영역 정보를 제 1 디바이스(100)에게 제공한다.The area information providing unit 250 provides the generated area information to the first device 100.

영역 정보 제공부(250)는 선택된 일부 영역에 대한 좌표 값을 제 1 디바이스(100)에게 제공할 수 있다. 또한, 영역 정보 제공부(250)는 사용자에 의해 터치 입력된 지점의 좌표 값을 제 1 디바이스(100)에게 제공할 수도 있다.The area information providing unit 250 may provide coordinate values for selected partial areas to the first device 100. Also, the area information providing unit 250 may provide the first device 100 with the coordinate value of the point touched by the user.

디스플레이부(260)는 제 1 디바이스(100)로부터 수신되는 영상을 화면에 표시한다. 디스플레이부(260)는 제 1 디바이스(100)로부터 수신되는 동영상을 화면에 표시할 수 있다.The display unit 260 displays an image received from the first device 100 on the screen. The display unit 260 may display a video received from the first device 100 on the screen.

DB(270)는 제 2 디바이스(200)가 제 1 디바이스(100)로부터 수신되는 제 1 동영상의 일부 영역에 대한 동영상을 수신할 수 있도록, 각종의 정보를 저장한다.The DB 270 stores various types of information so that the second device 200 can receive a video for a partial region of the first video received from the first device 100.

송수신부(280)는 제 2 디바이스(200)가 제 1 디바이스(100)로부터 수신되는 제 1 동영상의 일부 영역에 대한 동영상을 수신할 수 있도록, 각종의 정보를 제 1 디바이스(100)와 송수신한다.The transmitter / receiver 280 transmits and receives various information to and from the first device 100 so that the second device 200 can receive a video on a partial region of the first video received from the first device 100. .

제어부(290)는 제 2 디바이스(200)가 제 1 디바이스(100)로부터 수신되는 제 1 동영상의 일부 영역에 대한 동영상을 수신할 수 있도록, 영상 수신부(210), 사용자 입력부(220), 네트워크 확인부(230), 영역 정보 생성부(240), 영역 정보 제공부(250), 디스플레이부(260), DB(270), 및 송수신부(280)를 제어한다.
The control unit 290 checks the video receiving unit 210, the user input unit 220, and the network so that the second device 200 can receive a video for a partial region of the first video received from the first device 100. The control unit 230, the area information generating unit 240, the area information providing unit 250, the display unit 260, the DB 270, and the transceiver 280 are controlled.

도 16은 본 발명의 다른 실시예에 따른 디바이스의 블록도이다. 도16에 도시된 디바이스는 본 발명의 일 실시예에 따른 제 1 디바이스(100) 또는 제 2 디바이스(200)일 수 있다.16 is a block diagram of a device according to another embodiment of the present invention. The device illustrated in FIG. 16 may be the first device 100 or the second device 200 according to an embodiment of the present invention.

이동 통신부(1001)는 3G/4G와 같은 셀룰러 네트워크를 통해 기지국과의 호 설정, 데이터 통신 등을 수행한다. 서브 통신부(1002)는 블루투스나 NFC 등 근거리 통신을 위한 기능을 수행한다. 방송부(1003)는 DMB 방송 신호를 수신한다.The mobile communication unit 1001 performs call establishment and data communication with a base station through a cellular network such as 3G / 4G. The sub communication unit 1002 performs a function for short-range communication such as Bluetooth or NFC. The broadcast unit 1003 receives a DMB broadcast signal.

카메라부(1004)는 사진이나 동영상을 촬영하기 위한 렌즈 및 광학 소자들을 포함한다. The camera unit 1004 includes lenses and optical elements for taking pictures or videos.

센서부(1005)는 디바이스의 움직임을 감지하는 중력 센서, 빛의 밝기를 감지하는 조도 센서, 사람의 근접도를 감지하는 근접 센서, 사람의 움직임을 감지하는 모션 센서 등을 포함할 수 있다.The sensor unit 1005 may include a gravity sensor that senses the movement of the device, an illuminance sensor that senses the brightness of the light, a proximity sensor that senses the proximity of the person, and a motion sensor that senses the movement of the person.

GPS 수신부(1006)는 인공 위성으로부터 GPS 신호를 수신한다. 이러한 GPS 신호를 이용하여 다양한 서비스가 사용자에게 제공될 수 있다.The GPS receiver 1006 receives a GPS signal from an artificial satellite. Various services may be provided to the user using the GPS signal.

입출력부(1010)은 외부 기기나 사람과의 인터페이스를 제공하며, 버튼(1011), 마이크(1012), 스피커(1013), 진동 모터(1014), 커넥터(1015), 키패드(1016)을 포함한다. The input / output unit 1010 provides an interface with an external device or person, and includes a button 1011, a microphone 1012, a speaker 1013, a vibration motor 1014, a connector 1015, and a keypad 1016. .

터치 스크린(1018)은 사용자의 터치 입력을 수신한다. 여기서의 터치 입력은 드래그 제스처에 의한 것일 수도 있으며, 탭 제스처에 의한 것일 수도 있다. 터치 스크린 컨트롤러(1017)는 터치 스크린(1018)을 통해 입력된 터치 입력을 제어부(1050)에 전달한다. 전원 공급부(1019)는 디바이스에 필요한 전력을 공급하기 위해 배터리 또는 외부 전원 소스와 연결된다.The touch screen 1018 receives a user's touch input. Here, the touch input may be a drag gesture or a tap gesture. The touch screen controller 1017 transmits the touch input input through the touch screen 1018 to the control unit 1050. The power supply 1019 is connected to a battery or an external power source to supply power required for the device.

제어부(1050)는 메모리(1060)에 저장된 프로그램들을 실행함으로써 본 발명에 따라 디바이스에 표시된 콘텐트의 일부 영역을 표시하고 변경한다.The controller 1050 displays and changes some areas of the content displayed on the device according to the present invention by executing programs stored in the memory 1060.

메모리(1060)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 이동 통신 모듈(1061), Wi-Fi 모듈(1062), 블루투스 모듈(1063), DMB 모듈(1062), 카메라 모듈(1065), 센서 모듈(1066), GPS 모듈(1067), 동영상 재생 모듈(1068), 오디오 재생 모듈(1069), 전원 모듈(1070), 터치 스크린 모듈(1071), UI 모듈(1072), 어플리케이션 모듈(1073) 등으로 분류될 수 있다. 각 모듈들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있을 것이다.The programs stored in the memory 1060 can be classified into a plurality of modules according to their functions. The mobile communication module 1061, the Wi-Fi module 1062, the Bluetooth module 1063, the DMB module 1062, the camera Module 1065, sensor module 1066, GPS module 1067, video playback module 1068, audio playback module 1069, power module 1070, touch screen module 1071, UI module 1072, It may be classified as an application module 1073. The function of each module will be intuitively deduced by those skilled in the art from the name.

이하에서는 어플리케이션 모듈(1073)에 대하여 보다 상세히 설명하기로 한다. Hereinafter, the application module 1073 will be described in more detail.

먼저 도 16의 디바이스가 제 1 디바이스(100)이 경우에, 어플리케이션 모듈(1073)은 디바이스에 포함된 모듈들을 이용하여, 촬영되는 동영상에 기초하여 제 1 동영상을 제 2 디바이스(200)에게 제공하고, 제 2 디바이스(200)로부터 제 1 동영상의 일부 영역에 대한 영역 정보를 수신할 수 있다. 또한, 어플리케이션 모듈(1073)은 디바이스에 포함된 모듈들을 이용하여, 일부 영역에 대응되는 객체를 식별하고 추적할 수 있으며, 추적된 객체를 포함하는 제 2 동영상을 제 2 디바이스(200)에게 제공할 수 있다. 또한, 어플리케이션 모듈(1073)은 디바이스에 포함된 모듈들을 이용하여, 제 2 디바이스(200)와의 통신 방법을 확인할 수 있으며, 통신 방법이 변경된 경우에 제 2 동영상에 비하여 해상도 또는 화질이 변경된 동영상을 제 2 디바이스(200)에게 제공할 수 있다.First, when the device of FIG. 16 is the first device 100, the application module 1073 provides the first video to the second device 200 based on the video being photographed using the modules included in the device , Area information on a partial area of the first video may be received from the second device 200. In addition, the application module 1073 may identify and track an object corresponding to a partial area by using the modules included in the device, and provide a second video 200 including the tracked object to the second device 200 You can. In addition, the application module 1073 may check a communication method with the second device 200 by using modules included in the device, and when the communication method is changed, remove a video with a changed resolution or quality compared to the second video. 2 can be provided to the device 200.

또한, 도 16의 디바이스가 제 2 디바이스(200)이 경우에, 어플리케이션 모듈(1073)은 디바이스에 포함된 모듈들을 이용하여, 제 1 디바이스(100)로부터 제 1 동영상을 수신하고 제 1 동영상의 일부 영역을 선택할 수 있다. 이 경우, 일부 영역의 크기는 제 1 디바이스(100)와 제 2 디바이스(200)와의 통신 방법에 기초하여 결정될 수 있다. 또한, 어플리케이션 모듈(1073)은 디바이스에 포함된 모듈들을 이용하여, 선택된 일부 영역에 대한 영역 정보를 생성하여 제 1 디바이스(100)에게 제공할 수 있다. 또한, 어플리케이션 모듈(1073)은 디바이스에 포함된 모듈들을 이용하여, 제 2 디바이스(200)로부터 수신된 제 2 동영상을 디스플레이할 수 있다.
In addition, when the device of FIG. 16 is the second device 200, the application module 1073 receives the first video from the first device 100 using the modules included in the device, and part of the first video You can select an area. In this case, the size of some regions may be determined based on a communication method between the first device 100 and the second device 200. In addition, the application module 1073 may generate area information on a selected partial area using the modules included in the device and provide it to the first device 100. Also, the application module 1073 may display the second video received from the second device 200 using the modules included in the device.

도 17은 본 발명의 일 실시예에 따른 제 2 디바이스(200)에 표시된 제 1 동영상의 화면의 일부 영역을 확대하는 일례를 도시한 도면이다.17 is a diagram illustrating an example of enlarging a partial area of a screen of a first video displayed on the second device 200 according to an embodiment of the present invention.

도 17에 도시된 바와 같이, 본 발명의 일 실시예에 따른 제 2 디바이스(200)는 사용자의 터치 및 드래그 입력에 기초하여 제 1 동영상의 일부 영역을 확대할 수 있다. 이 경우, 제 2 디바이스(200)는 제 1 동영상의 원본 해상도에 기초하여 제 1 동영상의 확대 정도를 결정할 수 있다. 구체적으로, 도 17(a)에서와 같이, 사용자가 제 1 동영상의 화면을 멀티 터치하고 드래그하면, 도 17(b)에서와 같이 제 1 동영상의 일부분이 확대될 수 있다. 또한, 제 2 디바이스(200)는 제 1 동영상의 원본 해상도 및 제 2 디바이스(200)의 화면 사이즈를 고려하여, 제 1 동영상이 확대될 수 있는 정도를 결정할 수 있다. 따라서, 도 17(c)에서와 같이, 사용자가 터치를 계속하여 드래그하더라도, 제 1 동영상은 도 17(b)에서 확대된 정도 이상으로 확대되지 않을 수 있다.As illustrated in FIG. 17, the second device 200 according to an embodiment of the present invention may enlarge a partial area of the first video based on the user's touch and drag input. In this case, the second device 200 may determine the degree of enlargement of the first video based on the original resolution of the first video. Specifically, as shown in FIG. 17 (a), when the user multi-touches and drags the screen of the first video, a portion of the first video may be enlarged as in FIG. 17 (b). Also, the second device 200 may determine the degree to which the first video can be enlarged by considering the original resolution of the first video and the screen size of the second device 200. Therefore, as in FIG. 17 (c), even if the user continuously drags the touch, the first video may not be enlarged beyond the magnification of FIG. 17 (b).

또한, 제 2 디바이스(200)는 제 1 동영상의 확대 정도를 결정하기 위하여 제 1 디바이스(100)로부터 제 1 동영상의 원본 해상도에 관한 정보를 미리 수신하여 저장할 수 있으나, 이에 제한되지 않는다.
In addition, the second device 200 may receive and store information on the original resolution of the first video from the first device 100 in advance to determine the enlargement level of the first video, but is not limited thereto.

도 18은 본 발명의 일 실시예에 따른 제 2 디바이스(200)에 표시된 동영상의 화면이 단계적으로 확대되는 일례를 도시한 도면이다.18 is a diagram illustrating an example in which a screen of a video displayed on the second device 200 according to an embodiment of the present invention is expanded in stages.

도 18(a)에 도시된 바와 같이, 동영상의 일부 영역이 선택되고 선택된 영역이 1차적으로 확대될 수 있고, 이후에 확대된 동영상의 일부 영역이 선택됨으로써 선택된 영역이 2차적으로 확대될 수 있다.
As shown in FIG. 18 (a), a partial region of a video may be selected and the selected region may be primarily enlarged, and then a selected region may be secondaryly enlarged by selecting a portion of the enlarged movie. .

도 19는 본 발명의 일 실시예에 따른 제 2 디바이스(200)에서 제 1 동영상의 일부 영역이 확대된 미리 보기 영상이 표시된 이후에, 제 1 디바이스(100)로부터 제공된 제 2 동영상이 표시되는 일례를 도시한 도면이다. 제 1 디바이스(100) 및 제 2 디바이스(200)는 서로 영상 통화를 할 수 있다. 19 is an example in which a second video provided from the first device 100 is displayed after a preview image in which a partial area of the first video is enlarged is displayed on the second device 200 according to an embodiment of the present invention. It is a diagram showing. The first device 100 and the second device 200 may make a video call with each other.

도 19(a)에 도시된 바와 같이, 사용자는 제 2 디바이스(200)에 표시된 제 1 동영상의 화면의 일부분(10)을 관심 영역으로 선택할 수 있다. 제 2 디바이스(200)는 제 1 해상도를 갖는 제 1 동영상을 제 1 디바이스(100)로부터 수신하고, 수신된 제 1 동영상을 제 2 디바이스(200)의 화면에 표시할 수 있다.19 (a), the user may select a portion 10 of the screen of the first video displayed on the second device 200 as the region of interest. The second device 200 may receive the first video having the first resolution from the first device 100 and display the received first video on the screen of the second device 200.

이후, 도 19(b)에 도시된 바와 같이, 제 2 디바이스(200)에는 선택된 관심 영역을 확대한 미리 보기 영상이 디스플레이될 수 있고, 제 1 디바이스(100)에는 제 1 동영상의 일부를 확대하여 제공할지를 결정하기 위한 메뉴(12)가 디스플레이될 수 있다. 또한, 제 1 디바이스(100)에는 제 2 디바이스(200)에서 제 1 동영상의 어느 부분이 확대되었는지가 소정의 영역(14)에 표시될 수 있다.Thereafter, as shown in FIG. 19 (b), a preview image in which the selected region of interest is enlarged may be displayed on the second device 200, and a portion of the first video may be enlarged on the first device 100. A menu 12 for deciding whether to provide can be displayed. In addition, the first device 100 may display which part of the first video is enlarged in the second device 200 in the predetermined area 14.

또한, 사용자가 메뉴(12)에서 ‘허용’을 선택하면, 도 19(c)에서와 같이, 제 1 디바이스(100)는 선택된 관심 영역에 대한 제 2 동영상을 제 2 디바이스(200)에게 제공하고, 제 2 디바이스(200)는 수신된 제 2 동영상을 디스플레이 할 수 있다. 이 경우, 제 1 디바이스(100)는 선택된 관심 영역에 대한 제 2 동영상을 제 1 해상도로 제 2 디바이스(200)에게 제공할 수 있다.In addition, when the user selects 'allow' in the menu 12, as shown in FIG. 19 (c), the first device 100 provides a second video for the selected region of interest to the second device 200 , The second device 200 may display the received second video. In this case, the first device 100 may provide the second video 200 for the selected region of interest to the second device 200 at the first resolution.

한편, 제 1 디바이스(100)는 제 2 동영상을 제 2 디바이스(200)에게 제공할 때, 제 2 동영상이 선택된 관심 영역에 대한 확대 영상임을 알리기 위한 알림 정보(notification information)를 제 2 동영상에 삽입할 수 있다. 구체적으로, 제 1 디바이스(100)는 제 1 동영상 및 제 2 동영상을 제 2 디바이스(200)에게 스트리밍할 수 있으며, 제 1 동영상의 전송을 중단하고 제 2 동영상을 전송할 때 제 2 동영상 내에 알림 정보를 삽입할 수 있다. 예를 들어, 제 1 디바이스(100)가 제 1 동영상의 전송을 중단하고 제 2 동영상을 전송할 때, 제 1 디바이스(100)는 스트리밍 레벨(streaming level)에서 소정의 패킷 내에 소정의 파라미터 값을 삽입함으로써, 제 2 동영상이 제공됨을 제 2 디바이스(200)에게 알릴 수 있다. 또한, 알림 정보는, 도 20에 도시된 RTP(Real-time Transfer Protocol) 패킷 헤더에 삽입될 수 있다.
Meanwhile, when the first device 100 provides the second video to the second device 200, notification information for notifying that the second video is an enlarged image of the selected region of interest is inserted into the second video. can do. Specifically, the first device 100 may stream the first video and the second video to the second device 200, and when the transmission of the first video is stopped and the second video is transmitted, notification information within the second video Can be inserted. For example, when the first device 100 stops transmitting the first video and transmits the second video, the first device 100 inserts a predetermined parameter value in a predetermined packet at a streaming level By doing so, it is possible to inform the second device 200 that the second video is provided. In addition, the notification information may be inserted into a Real-time Transfer Protocol (RTP) packet header shown in FIG. 20.

도 20은 본 발명의 일 실시예에 따른 RTP(Real-time Transfer Protocol) 패킷 헤더의 일례를 도시한 도면이다.20 is a diagram illustrating an example of a Real-time Transfer Protocol (RTP) packet header according to an embodiment of the present invention.

제 1 디바이스(100)로부터 제 2 디바이스(200)에게 제공되는 제 2 동영상의 각 프레임은 복수의 RTP 패킷을 포함할 수 있다. 또한, 제 1 디바이스(100)는 제 2 동영상의 각 프레임에 대응되는 복수의 RTP 패킷 중 소정의 패킷에 알림 정보를 삽입할 수 있다. 예를 들어, 제 1 디바이스(100)는 제 2 동영상의 각 프레임에 대응되는 복수의 RTP 패킷의 헤더에 포함된 RTP Marker 필드(90)의 비트 값이 ‘1’인 RTP 패킷에 알림 정보를 삽입할 수 있다.Each frame of the second video provided from the first device 100 to the second device 200 may include a plurality of RTP packets. Also, the first device 100 may insert notification information into a predetermined packet among a plurality of RTP packets corresponding to each frame of the second video. For example, the first device 100 inserts notification information into an RTP packet having a bit value of '1' in the RTP Marker field 90 included in the header of a plurality of RTP packets corresponding to each frame of the second video. can do.

또한, 제 1 디바이스(100)는 제 2 동영상의 프레임들 중에서 소정의 프레임에 알림 정보를 삽입할 수 있다. 예를 들어, 제 1 디바이스(100)는 제 2 동영상의 최초 프레임부터 기 설정된 개수의 프레임에 대하여 알림 정보를 삽입할 수 있다. 그러나, 이에 제한되지 않는다.Also, the first device 100 may insert notification information in a predetermined frame among frames of the second video. For example, the first device 100 may insert notification information for a preset number of frames from the first frame of the second video. However, it is not limited thereto.

또한, 제 1 디바이스(100)는 알림 정보를 RTP 패킷 헤더의 Header extension 필드(92)에 삽입할 수 있다. 알림 정보는 소정의 비트 값을 가질 수 있다. 또함, 알림 정보는 소정의 영역 정보를 포함할 수 있다. 영역 정보는, 제 1 디바이스(100)가 제 1 동영상의 어느 부분을 잘라내어 제 2 동영상을 생성하였는지를 나타내는 정보일 수 있다. 예를 들어, 영역 정보는, 제 1 동영상 또는 원본 동영상의 전체 화면 중에서 제 2 동영상의 화면에 대응되는 부분의 위치를 나타내는 값일 수 있다. 또한, 영역 정보는 소정의 좌표 값을 가질 수 있다.
Also, the first device 100 may insert the notification information into the Header extension field 92 of the RTP packet header. The notification information may have a predetermined bit value. In addition, the notification information may include predetermined area information. The area information may be information indicating which part of the first video clip is cut by the first device 100 to generate the second video clip. For example, the area information may be a value indicating the position of a portion corresponding to the screen of the second video from the entire screen of the first video or the original video. Also, the area information may have a predetermined coordinate value.

도 21은 본 발명의 일 실시예에 따른 제 1 디바이스(100)가 제 4 영상을 생성하는 방법의 흐름도이다. 제 1 디바이스(100)는 제 1 디바이스(100)에서 실행된 애플리케이션의 실행 화면에 대응되는 제 3 영상을 제 2 디바이스(200)에게 제공할 수 있으며, 제 2 디바이스(200)로부터 제 3 영상의 일부분에 관한 영역 정보를 수신하여 제 4 영상을 생성할 수 있으며, 생성된 제 4 영상을 제 2 디바이스(200)에게 제공할 수 있다.21 is a flowchart of a method for a first device 100 to generate a fourth image according to an embodiment of the present invention. The first device 100 may provide a third image corresponding to an execution screen of an application executed in the first device 100 to the second device 200, and the third image from the second device 200. A fourth image may be generated by receiving region information regarding a part, and the generated fourth image may be provided to the second device 200.

단계 S2100에서 제 1 디바이스(100)는 제 1 디바이스(100)내의 프레임 버퍼로부터 제 3 영상을 획득한다. 프레임 버퍼는 제 1 디바이스(100)에서 실행되고 있는 애플리케이션의 실행 화면에 대응되는 제 3 영상을 저장할 수 있다.In step S2100, the first device 100 acquires a third image from the frame buffer in the first device 100. The frame buffer may store a third image corresponding to an execution screen of an application being executed on the first device 100.

단계 S2200에서 제 1 디바이스(100)는 제 2 디바이스(200)로부터 수신된 영역 정보에 기초하여, 제 3 영상의 일부를 잘라낼 수 있다. 또한, 제 1 디바이스(100)는 잘라낸 제 3 영상의 일부를 인코딩하고(단계 S2300), 패킷타이징(paketizng)할 수 있다(s2400).
In operation S2200, the first device 100 may cut a part of the third image based on the area information received from the second device 200. Also, the first device 100 may encode a part of the cut third image (step S2300) and packetize (s2400).

도 22은 본 발명의 일 실시예에 따른, 제 1 디바이스(100)와 영상 통화를 하고 있는 제 2 디바이스(200)가, 제 1 동영상의 일부 영역에 대하여 확대된 제 2 동영상을 수신하는 방법의 흐름도이다.22 is a diagram of a method for a second device 200 having a video call with the first device 100 to receive a second expanded video with respect to a partial region of the first video according to an embodiment of the present invention. It is a flow chart.

단계 S2205에서 제 1 디바이스(100) 및 제 2 디바이스(200)는 영상 통화를 위하여 연결된다.In step S2205, the first device 100 and the second device 200 are connected for a video call.

단계 S2210에서 제 1 디바이스(100)는 제 1 동영상을 제 2 디바이스(200)에게 제공한다. 제 1 디바이스(100)는 제 1 디바이스(100)의 사용자를 촬영하고, 영상 통화를 위한 제 1 동영상을 생성할 수 있다. 또한, 제 1 디바이스(100)는 생성된 제 1 동영상을 제 2 디바이스(200)에게 전송할 수 있다.In step S2210, the first device 100 provides the first video to the second device 200. The first device 100 may photograph a user of the first device 100 and generate a first video for a video call. Also, the first device 100 may transmit the generated first video to the second device 200.

단계 S2220에서 제 2 디바이스(200)는 제 1 디바이스(100)로부터 수신된 제 1 동영상을 제 2 디바이스(200)의 화면에 디스플레이한다.In step S2220, the second device 200 displays the first video received from the first device 100 on the screen of the second device 200.

단계 S2230에서 제 2 디바이스(200)는 제 1 동영상 중에서 확대하고자 하는 일부 영역을 선택한다. 제 2 디바이스(200)는 제 1 동영상에서, 예를 들어, 제 1 디바이스(100)의 사용자의 입 부분을 선택하거나, 제 1 디바이스(100)의 사용자가 들고 있는 책의 표지 부분을 선택할 수 있다. 이 경우, 제 2 디바이스(200)는 사용자의 터치 입력에 기초하여 일부 영역을 선택할 수 있으나, 이에 제한되지 않는다. 영상 통화 시에 확대될 일부 영역이 미리 설정될 수 있으며, 제 2 디바이스(200)는 제 1 디바이스(100)의 사용자의 영상 중에서 미리 설정된 일부 영역을 선택할 수 있다. In step S2230, the second device 200 selects some areas to be enlarged from the first video. The second device 200 may select, for example, a user's mouth portion of the first device 100 or a cover portion of a book held by the user of the first device 100 in the first video. . In this case, the second device 200 may select some areas based on the user's touch input, but is not limited thereto. Some areas to be enlarged during a video call may be preset, and the second device 200 may select some preset areas from the user's video of the first device 100.

예를 들어, 제 2 디바이스(200)는 제 1 디바이스(100)의 사용자의 얼굴 영상 중에서 사용자의 입 부분을 트래킹함으로써, 사용자의 입 부분을 일부 영역으로 선택할 수 있다. 구체적으로, 제 2 디바이스(200)는 제 1 디바이스(100)의 사용자의 영상으로부터 얼굴 인식 정보를 검출하고, 검출된 얼굴 인식 정보에 기초하여 제 1 디바이스(100)의 사용자의 얼굴 중 입 부분을 트래킹하고 선택할 수 있다. 얼굴 인식 정보를 검출하는 방법은, 특징 기반 방법, 외형 기반 방법 및 하이브리드 방법을 포함할 수 있다. 특징 기반 방법(Feature-based method)은, 얼굴의 기하학적 정보를 이용하거나 얼굴 특징 성분들(예컨대, 눈, 코, 입, 턱 등)을 이용하여 그 크기와 모양, 상호 연관성 혹은 이러한 요소들의 혼합된 형태의 정보를 이용해서 얼굴을 인식하는 방법이다. 특징 기반 방법은, 예를 들어, 순수 기하학적 방법(Pure geometry method), 동적 연결 구조(Dynamic Link Architecture) 기반의 방법, 은닉 마르코프 모델(Hidden Markov model) 기반의 방법을 포함할 수 있다. 또한, 외형 기반 방법은, 학습 영상 집합에 의해 학습된 모델을 이용하여 얼굴을 인식하는 방법이다. 외형 기반 방법은, 예를 들어, 주성분 분석에 의해 생성되는 고유 얼굴을 이용하는 방법, 선형 판별식 해석을 이용하는 방법, 신경망을 이용하는 방법, 서포트 벡터 머신을 이용하는 방법을 포함할 수 있다. 또한, 하이브리드 방법은, 특징 기반 방법 및 외형 기반 방법을 혼용하는 방법이다. 하이브리드 방법은, 예를 들어, 선형 특징 분석(Linear Feature Analysis) 기반의 방법, 형태 정규화(Shape-Normalized) 기반의 방법, 및 컴포넌트 기반의 방법을 포함할 수 있다. 그러나, 본 발명의 일 실시예에 따른 얼굴 인식 정보 검출 방법은 상기한 세가지 방법에 한정되지 않으며, 얼굴 인식 정보 검출을 위하여 다양한 방법이 이용될 수 있다.For example, the second device 200 may select the user's mouth as a partial area by tracking the user's mouth from among the face images of the user of the first device 100. Specifically, the second device 200 detects face recognition information from the image of the user of the first device 100, and based on the detected face recognition information, the second device 200 detects the mouth portion of the user's face of the first device 100. You can track and choose. The method of detecting face recognition information may include a feature-based method, an appearance-based method, and a hybrid method. The feature-based method uses the geometric information of the face or uses facial feature components (e.g., eyes, nose, mouth, chin, etc.) in size and shape, correlation, or a mixture of these elements. It is a method of recognizing a face using form information. The feature-based method may include, for example, a pure geometry method, a dynamic link architecture-based method, and a hidden markov model-based method. Also, the appearance-based method is a method of recognizing a face using a model trained by a set of training images. The appearance-based method may include, for example, a method using an intrinsic face generated by principal component analysis, a method using a linear discriminant analysis, a method using a neural network, and a method using a support vector machine. In addition, the hybrid method is a method of mixing a feature-based method and an appearance-based method. The hybrid method may include, for example, a linear feature analysis based method, a shape-normalized based method, and a component based method. However, the method for detecting face recognition information according to an embodiment of the present invention is not limited to the above three methods, and various methods may be used for detecting face recognition information.

단계 S2240에서 제 2 디바이스(200)는 선택된 일부 영역의 좌표 정보를 제 1 디바이스(100)에게 전송한다.In step S2240, the second device 200 transmits coordinate information of the selected partial area to the first device 100.

단계 S2250에서 제 1 디바이스(100)는 제 1 동영상 중에서 제 2 디바이스(200)에 의해 선택된 일부 영역을 표시한다. 제 1 디바이스(100)는 제 1 동영상 중에서 제 2 디바이스에 의해 선택된 부분을, 예를 들어, 점선으로 표시할 수 있다. 또한, 제 1 디바이스(100)는 제 1 동영상 중에서 제 2 디바이스에 의해 선택된 부분만을 제 1 디바이스(100)의 화면에 디스플레이할 수도 있다.In step S2250, the first device 100 displays a partial area selected by the second device 200 among the first video. The first device 100 may display a portion selected by the second device among the first videos, for example, with a dotted line. Also, the first device 100 may display only the portion selected by the second device among the first videos on the screen of the first device 100.

단계 S2260에서 제 1 디바이스(100)는 선택된 일부 영역에 대한 제 2 동영상을 제 2 디바이스(200)에게 제공할 것을 결정한다. 제 1 디바이스(100)는 별도의 UI를 디스플레이하고, UI를 통한 사용자 입력에 기초하여, 제 2 디바이스(200)에 의해 선택된 일부 영역에 대한 제 2 동영상을 제 2 디바이스(200)에게 제공할 것을 결정할 수 있다.In step S2260, the first device 100 determines to provide the second video 200 for the selected partial region to the second device 200. The first device 100 displays a separate UI and, based on a user input through the UI, provides the second device 200 with a second video for a partial region selected by the second device 200 Can decide.

단계 S2270에서 제 1 디바이스(100)는 선택된 일부 영역에 대응되는 부분을 촬영한다. 제 1 디바이스(100)는, 예를 들어, 제 1 디바이스(100)의 사용자의 입 부분을 촬영하거나, 제 1 디바이스(100)의 사용자가 들고 있는 책의 표지 부분을 촬영할 수 있다.In step S2270, the first device 100 photographs a portion corresponding to the selected partial region. The first device 100 may photograph, for example, a mouth portion of a user of the first device 100 or a cover portion of a book held by a user of the first device 100.

단계 S2280에서 제 1 디바이스(100)는 제 2 동영상을 제 2 디바이스(200)에게 제공한다. 제 1 디바이스(100)는 선택된 일부 영역에 대응되는 부분을 촬영함으로써, 제 2 동영상을 생성할 수 있으며, 생성된 제 2 동영상을 제 2 디바이스(200)에게 제공할 수 있다.In step S2280, the first device 100 provides the second video to the second device 200. The first device 100 may generate a second video by photographing a portion corresponding to the selected partial area, and provide the generated second video to the second device 200.

단계 S2290에서 제 2 디바이스(200)는 제 2 동영상을 디스플레이한다.In step S2290, the second device 200 displays the second video.

한편, 제 2 디바이스(200)는 제 2 디바이스(200)의 화면에 제 1 동영상 및 제 2 동영상을 함께 디스플레이할 수 있다. 이 경우, 단계 S2280에서 제 2 디바이스(200)는 제 2 동영상뿐만 아니라 제 1 동영상을 함께 수신할 수 있다. 또한, 제 2 디바이스(200)는 제 1 동영상 상에 제 2 동영상을 오버랩하여 표시할 수 있다. 제 2 디바이스(200)는 제 1 동영상에서 제 1 디바이스(100)의 사용자가 표시되지 않은 부분에 제 2 동영상을 오버랩할 수 있다. 또한, 제 2 디바이스(200)는 제 1 동영상이 표시되는 영역의 크기 및 제 2 동영상이 표시되는 영역의 크기를 조절할 수 있다. 그러나, 이에 제한되지 않으며, 제 2 디바이스(200)는 제 1 동영상 및 제 2 동영상을 오버랩하지 않고 제 2 디바이스(200)의 화면에 디스플레이할 수도 있다.
Meanwhile, the second device 200 may display the first video and the second video together on the screen of the second device 200. In this case, in step S2280, the second device 200 may receive the first video as well as the second video. Also, the second device 200 may overlap and display the second video on the first video. The second device 200 may overlap the second video in a portion where the user of the first device 100 is not displayed in the first video. Also, the second device 200 may adjust the size of the area where the first video is displayed and the size of the area where the second video is displayed. However, the present invention is not limited thereto, and the second device 200 may display the first video and the second video on the screen of the second device 200 without overlapping.

도 23은 본 발명의 일 실시예에 따른, 제 1 디바이스(100)와 영상 통화를 하고 있는 제 2 디바이스(200)가, 제 1 동영상의 일부 영역을 확대하여 표시하는 방법의 흐름도이다.23 is a flowchart of a method in which a second device 200 making a video call with the first device 100 enlarges and displays a partial area of the first video according to an embodiment of the present invention.

단계 S2305에서 제 1 디바이스(100) 및 제 2 디바이스(200)는 영상 통화를 위하여 연결된다.In step S2305, the first device 100 and the second device 200 are connected for a video call.

단계 S2310에서 제 1 디바이스(100)는 제 1 동영상을 제 2 디바이스(200)에게 제공한다. 제 1 디바이스(100)는 제 1 디바이스(100)의 사용자를 촬영하고, 영상 통화를 위한 제 1 동영상을 생성할 수 있다. 또한, 제 1 디바이스(100)는 생성된 제 1 동영상을 제 2 디바이스(200)에게 전송할 수 있다.In step S2310, the first device 100 provides the first video to the second device 200. The first device 100 may photograph a user of the first device 100 and generate a first video for a video call. Also, the first device 100 may transmit the generated first video to the second device 200.

단계 S2320에서 제 2 디바이스(200)는 제 1 디바이스(100)로부터 수신된 제 1 동영상을 제 2 디바이스(200)의 화면에 디스플레이한다.In step S2320, the second device 200 displays the first video received from the first device 100 on the screen of the second device 200.

단계 S2330에서 제 2 디바이스(200)는 제 1 동영상 중에서 확대하고자 하는 일부 영역을 선택한다. 제 2 디바이스(200)는 제 1 동영상에서, 예를 들어, 제 1 디바이스(100)의 사용자의 입 부분을 선택하거나, 제 1 디바이스(100)의 사용자가 들고 있는 책의 표지 부분을 선택할 수 있다. In step S2330, the second device 200 selects some areas to be enlarged from the first video. The second device 200 may select, for example, a user's mouth portion of the first device 100 or a cover portion of a book held by the user of the first device 100 in the first video. .

이 경우, 제 2 디바이스(200)는 사용자의 터치 입력에 기초하여 일부 영역을 선택할 수 있으나, 이에 제한되지 않는다. 영상 통화 시에 확대될 일부 영역이 미리 설정될 수 있으며, 제 2 디바이스(200)는 제 1 디바이스(100)의 사용자의 영상 중에서 미리 설정된 일부 영역을 선택할 수 있다. 예를 들어, 제 2 디바이스(200)는 제 1 디바이스(100)의 사용자의 얼굴 영상 중에서 사용자의 입 부분을 트래킹함으로써, 사용자의 입 부분을 일부 영역으로 선택할 수 있다.In this case, the second device 200 may select some areas based on the user's touch input, but is not limited thereto. Some areas to be enlarged during a video call may be preset, and the second device 200 may select some preset areas from the video of the user of the first device 100. For example, the second device 200 may select the user's mouth part as a partial area by tracking the user's mouth part among the face images of the user of the first device 100.

단계 S2340에서 제 2 디바이스(200)는 제 1 동영상 중에서, 단계 S2330에서 선택된 일부 영역만을 제 2 디바이스(200)의 화면에 디스플레이한다. 제 2 디바이스(200)는 제 1 동영상 중에서 선택된 일부 영역을 영상 프로세싱을 통하여 확대할 수 있으며, 확대된 영상을 제 2 디바이스(200)의 화면에 디스플레이할 수 있다. 예를 들어, 제 1 동영상의 해상도가 200 x 200이고, 선택된 일부 영역의 해상도가 50 x 50 인 경우에, 제 1 디바이스(100)는 선택된 일부 영역의 해상도를 200 x 200으로 확대할 수 있다.In step S2340, the second device 200 displays only a partial area selected in step S2330 among the first videos on the screen of the second device 200. The second device 200 may enlarge a portion selected from the first video through image processing, and display the enlarged image on the screen of the second device 200. For example, when the resolution of the first video is 200 x 200 and the resolution of some selected areas is 50 x 50, the first device 100 may enlarge the resolution of the selected some areas to 200 x 200.

한편, 제 2 디바이스(200)는, 확대된 영상을 제 1 동영상 상에 오버랩할 수 있다. 제 2 디바이스(200)는 제 1 동영상에서 제 1 디바이스(100)의 사용자가 표시되지 않은 부분에, 확대된 영상을 오버랩할 수 있다. 또한, 제 2 디바이스(200)는 제 1 동영상이 표시되는 영역의 크기 및 확대된 영상이 표시되는 영역의 크기를 조절할 수 있다. 그러나, 이에 제한되지 않으며, 제 2 디바이스(200)는 확대된 영상 및 제 2 동영상을 오버랩하지 않고 제 2 디바이스(200)의 화면에 디스플레이할 수도 있다.
Meanwhile, the second device 200 may overlap the enlarged image on the first video. The second device 200 may overlap the enlarged image in a portion where the user of the first device 100 is not displayed in the first video. Also, the second device 200 may adjust the size of the area where the first video is displayed and the size of the area where the enlarged image is displayed. However, the present invention is not limited thereto, and the second device 200 may display the enlarged image and the second video on the screen of the second device 200 without overlapping.

도 24는 본 발명의 일 실시예에 따른, 제 1 동영상에서 선택된 일부 영역에 대한 확대 영상이, 제 1 동영상과 함께, 제 2 디바이스(200)의 화면에 표시되는 일례를 도시한 도면이다.24 is a diagram illustrating an example in which an enlarged image of a partial region selected from a first video is displayed on a screen of the second device 200 together with the first video according to an embodiment of the present invention.

도 24(a)를 참조하면, 제 2 디바이스(200)의 화면에 표시된, 제 1 디바이스(100)의 사용자의 얼굴에서 입 부분(40)이 선택될 수 있다. 입 부분(40)은 제 2 디바이스(200)의 사용자에 의해 선택될 수 있다. 그러나, 이에 제한되지 않으며, 미리 설정된 기준에 따라, 제 2 디바이스(200)가 제 1 동영상에서 입 부분(40)을 트래킹하고, 입 부분(40)을 선택할 수도 있다.Referring to FIG. 24 (a), the mouth portion 40 may be selected from the user's face of the first device 100 displayed on the screen of the second device 200. The mouth portion 40 may be selected by the user of the second device 200. However, the present invention is not limited thereto, and according to a preset criterion, the second device 200 may track the mouth portion 40 in the first video and select the mouth portion 40.

또한, 도 24(b)를 참조하면, 선택된 입 부분에 대한 확대 영상(44)이 제 1 동영상(42) 상에 오버랩될 수 있다. 이 경우, 제 2 디바이스(200)는 제 1 동영상에서 제 1 디바이스(100)의 사용자가 표시되지 않은 부분을 결정할 수 있으며, 사용자가 표시되지 않은 부분에 제 2 동영상을 오버랩할 수 있다In addition, referring to FIG. 24 (b), an enlarged image 44 for the selected mouth portion may overlap on the first video 42. In this case, the second device 200 may determine a portion in which the user of the first device 100 is not displayed in the first video, and may overlap the second movie in the portion in which the user is not displayed.

또한, 도 24(c)를 참조하면, 선택된 입 부분에 대한 확대 영상(44)이 제 1 동영상(42) 상에 오버랩되지 않고, 선택된 입 부분에 대한 확대 영상(44) 및 제 1 동영상(42)이 별도의 창에 각각 표시될 수도 있다.
In addition, referring to FIG. 24 (c), the enlarged image 44 for the selected mouth portion does not overlap on the first video 42, and the enlarged image 44 and the first video 42 for the selected mouth portion ) May be displayed in separate windows.

본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다. One embodiment of the invention may also be implemented in the form of a recording medium comprising instructions executable by a computer, such as program modules, being executed by a computer. Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. In addition, computer readable media may include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically include computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transport mechanism, and includes any information delivery media.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. The above description of the present invention is for illustration only, and a person having ordinary knowledge in the technical field to which the present invention pertains can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
The scope of the present invention is indicated by the following claims rather than the above detailed description, and it should be interpreted that all changes or modified forms derived from the meaning and scope of the claims and equivalent concepts thereof are included in the scope of the present invention. do.

Claims (49)

원본 해상도를 가진 제 1 동영상을 제 1 해상도로 외부 기기로 전송하는 단계;
상기 외부 기기에서 상기 제 1 해상도로 표시되는 상기 제 1 동영상의 관심 영역에 관한 영역 정보를 상기 외부 기기로부터 수신하는 단계;
상기 영역 정보에 기초하여, 상기 원본 해상도의 상기 제 1 동영상에서 상기 관심 영역에 대응되는 영역을 결정하는 단계;
상기 원본 해상도의 제 1 동영상의 일부를 제 2 동영상으로 변환하는 단계; 및
상기 제 2 동영상을 상기 제 1 해상도로 상기 외부 기기로 전송하는 단계;
를 포함하며,
상기 결정된 영역은 상기 원본 해상도의 제1 동영상보다 작으며, 상기 제 1 동영상의 일부는 상기 결정된 영역에 대응되며,
상기 관심 영역은, 상기 제 1 동영상에 포함된 객체를 포함하며, 상기 영역 정보는 상기 외부 기기에 의해 생성되고, 상기 외부 기기의 화면이 터치되면, 상기 화면에서 터치된 부분을 포함하는 상기 객체가 포함되도록 상기 관심 영역이 선택되며, 상기 외부 기기의 화면이 터치되면, 상기 화면에서 터치된 부분으로부터 기 설정된 범위를 포함하는 상기 관심 영역이 선택되는 것인, 영상 제공 방법.
Transmitting the first video having the original resolution to the external device at the first resolution;
Receiving, from the external device, area information on a region of interest of the first video displayed at the first resolution in the external device;
Determining an area corresponding to the region of interest in the first video of the original resolution based on the region information;
Converting a part of the first video of the original resolution into a second video; And
Transmitting the second video to the external device at the first resolution;
It includes,
The determined area is smaller than the first video of the original resolution, and a part of the first video corresponds to the determined area,
The region of interest includes an object included in the first video, and the region information is generated by the external device, and when the screen of the external device is touched, the object including the touched part on the screen The region of interest is selected to be included, and when the screen of the external device is touched, the region of interest including a preset range is selected from a portion touched on the screen, the image providing method.
삭제delete 삭제delete 삭제delete 삭제delete 제 1 항에 있어서,
상기 외부 기기의 화면이 터치되면, 상기 관심 영역을 선택하기 위한 사용자 인터페이스가 상기 외부 기기의 화면에 디스플레이되는 것인, 영상 제공 방법.
According to claim 1,
When the screen of the external device is touched, a user interface for selecting the region of interest is displayed on the screen of the external device.
제 1 항에 있어서,
상기 제 1 동영상 및 상기 제 2 동영상은 상기 외부 기기와의 영상 통화를 위한 동영상이며,
상기 제 1 동영상을 상기 외부 기기로 전송하는 단계는, 촬영된 동영상에 기초하여 상기 제 1 동영상을 상기 외부 기기로 전송하며,
상기 촬영된 동영상의 해상도는 상기 영상 통화의 스트리밍 해상도보다 큰 것인, 영상 제공 방법.
According to claim 1,
The first video and the second video are videos for a video call with the external device,
In the step of transmitting the first video to the external device, the first video is transmitted to the external device based on the captured video,
The resolution of the captured video is greater than the streaming resolution of the video call, video providing method.
삭제delete 제 1 항에 있어서,
상기 외부기기와의 통신 방법의 종류에 따라, 상기 제 1 해상도가 결정되는 것인, 영상 제공 방법.
According to claim 1,
The first resolution is determined according to the type of communication method with the external device, the image providing method.
삭제delete 삭제delete 제 1 항에 있어서,
상기 제 1 동영상을 상기 외부 기기로 전송하는 단계는, 촬영된 동영상에 기초하여 상기 제 1 동영상 및 상기 제 2 동영상을 상기 외부 기기로 전송하며,
상기 촬영된 동영상에서 상기 관심 영역에 포함된 객체가 사라지면, 상기 결정된 영역을 변경하는 단계;;
를 더 포함하는 영상 제공 방법.
According to claim 1,
The transmitting of the first video to the external device may include transmitting the first video and the second video to the external device based on the captured video,
If an object included in the region of interest disappears from the captured video, changing the determined region;
Video providing method further comprising.
제 12 항에 있어서,
상기 사라진 객체가 상기 촬영된 동영상에 나타나면, 상기 촬영된 동영상의 전체 영역 중에서 상기 나타난 객체를 포함하는 일부 영역만을 포함하는 상기 제 2 동영상을 상기 외부기기에게 제공하는 단계;
를 더 포함하는 영상 제공 방법.
The method of claim 12,
When the disappeared object appears in the captured video, providing the second video to the external device including only a partial area including the displayed object among all areas of the captured video;
Video providing method further comprising.
제 1 항에 있어서,
상기 제 2 동영상이 전송됨을 알리는 알림 정보(notification information)가 상기 제 2 동영상에 삽입된 것인, 영상 제공 방법.
According to claim 1,
A method of providing an image, wherein notification information indicating that the second video is transmitted is inserted into the second video.
삭제delete 삭제delete 삭제delete 제 14 항에 있어서,
상기 알림 정보는, 상기 제 2 동영상이 상기 제 1 동영상의 어느 부분에 대응되는지를 나타내는 영역 정보를 포함하는 것인, 영상 제공 방법.
The method of claim 14,
The notification information includes region information indicating which part of the first video corresponds to the second video.
삭제delete 외부 기기로부터 제 1 동영상을 수신하는 단계;
사용자 입력에 기초하여 상기 제 1 동영상에 포함된 객체에 관한 관심 영역을 선택하는 단계;
상기 선택된 관심 영역에 관한 영역 정보를 생성하는 단계;
상기 수신된 제 1 동영상에 포함된 상기 객체에 관한 상기 영역 정보를 상기 외부 기기에게 제공하는 단계; 및
상기 제 1 동영상의 상기 객체를 포함하는 일부 영역만을 포함하는 제 2 동영상을 상기 외부 기기로부터 수신하는 단계;
를 포함하며,
상기 제 2 동영상의 해상도는, 상기 제 1 동영상의 상기 일부 영역의 해상도보다 높으며,
상기 객체를 포함하는 일부 영역은, 상기 제공된 영역 정보에 기초하여 상기 외부 기기에 의해 결정되며,
상기 관심 영역을 선택하는 단계는 상기 제 1 동영상의 화면이 터치되면, 상기 터치된 부분을 포함하는 객체를 포함하도록 상기 관심 영역을 선택하며,
상기 영역 정보를 제공하는 단계는 상기 제 1 동영상의 화면이 터치되면, 상기 터치된 지점에 대한 좌표 정보를 상기 외부 기기에게 제공하는 것인, 디바이스의 영상 수신 방법.
Receiving a first video from an external device;
Selecting a region of interest related to an object included in the first video based on a user input;
Generating region information on the selected region of interest;
Providing the area information on the object included in the received first video to the external device; And
Receiving a second video including only a partial area including the object of the first video from the external device;
It includes,
The resolution of the second video is higher than that of the partial region of the first video,
Some areas including the object are determined by the external device based on the provided area information,
In the step of selecting the region of interest, when the screen of the first video is touched, the region of interest is selected to include an object including the touched portion,
The step of providing the area information is to provide coordinate information for the touched point to the external device when the screen of the first video is touched.
삭제delete 삭제delete 삭제delete 삭제delete 제 20 항에 있어서,
상기 제 1 동영상의 화면이 터치되면, 상기 영역을 선택하기 위한 사용자 인터페이스를 디스플레이하는 단계;
를 더 포함하는 것인, 영상 수신 방법.
The method of claim 20,
When the screen of the first video is touched, displaying a user interface for selecting the area;
It further comprises, a video receiving method.
제 20 항에 있어서,
상기 제 1 동영상 및 상기 제 2 동영상은 상기 외부기기와의 영상 통화를 위한 동영상이며,
상기 제 1 동영상 및 상기 제 2 동영상은, 상기 외부 기기에 의해 촬영된 영상에 기초하여 상기 외부 기기로부터 제공되며,
상기 촬영된 영상의 해상도는 상기 영상 통화의 스트리밍 해상도보다 큰 것인, 영상 수신 방법.
The method of claim 20,
The first video and the second video are videos for video call with the external device,
The first video and the second video are provided from the external device based on an image captured by the external device,
The resolution of the captured video is greater than the streaming resolution of the video call, video receiving method.
삭제delete 제 20 항에 있어서,
상기 외부기기와의 통신 방법의 종류에 따라, 상기 외부 기기에 의해, 상기 제 1 동영상 및 상기 제 2 동영상 중 적어도 하나의 해상도가 결정되는 것인, 영상 수신 방법.
The method of claim 20,
According to the type of communication method with the external device, the external device, the resolution of at least one of the first video and the second video is determined, the video receiving method.
삭제delete 삭제delete 제 20 항에 있어서
상기 제 1 동영상 및 상기 제 2 동영상은, 상기 외부 기기에 의해 촬영된 영상에 기초하여 상기 외부 기기로부터 제공되며,
상기 촬영된 영상에서 상기 객체가 사라지면, 상기 제 1 동영상의 상기 일부 영역이 변경되며,
상기 변경된 일부 영역만을 포함하는 상기 제 2 동영상을 상기 외부 기기로부터 수신하는 단계;
를 더 포함하는 영상 수신 방법.
The method of claim 20
The first video and the second video are provided from the external device based on an image captured by the external device,
When the object disappears from the captured image, the partial region of the first video is changed,
Receiving the second video including only the changed partial area from the external device;
Video receiving method further comprising.
제 31 항에 있어서,
상기 사라진 객체가 상기 촬영된 영상에 나타나면, 상기 나타난 객체를 포함하는 일부 영역만을 포함하는 상기 제 2 동영상을 상기 외부기기로부터 수신하는 단계;
를 더 포함하는 영상 수신 방법.
The method of claim 31,
When the disappeared object appears on the captured image, receiving the second video including only a partial region including the displayed object from the external device;
Video receiving method further comprising.
적어도 하나의 프로그램이 저장되는 메모리; 및
상기 적어도 하나의 프로그램을 실행함으로써 외부 기기에게 동영상을 제공하는 프로세서를 포함하고,
상기 적어도 하나의 프로그램은,
제 1 동영상을 외부 기기로 전송하는 단계;
상기 외부 기기로부터 상기 제 1동영상에 포함된 객체에 관련된 영역 정보를 수신하는 단계; 및
상기 영역 정보에 기초하여 식별된 상기 객체를 포함하는 일부 영역만을 포함하는 제 2 동영상을 상기 외부 기기로 제공하는 단계;
를 실행하는 명령어들을 포함하며,
상기 제 2 동영상의 해상도는, 상기 제 1 동영상에서 상기 일부 영역의 해상도보다 높으며,
상기 영역 정보는, 상기 외부 기기에 의해 선택된 관심 영역에 관한 정보이며, 상기 외부 기기에 의해 생성되며,
상기 제 1 동영상을 디스플레이하는 상기 외부 기기의 화면이 터치되면, 상기 터치된 부분을 포함하는 상기 객체를 포함하는 상기 관심 영역이 선택되며,
상기 제 1 동영상을 디스플레이하는 상기 외부 기기의 화면이 터치되면, 상기 터치된 부분으로부터 기 설정된 범위의 상기 관심 영역이 선택되는 것인, 디바이스.
A memory in which at least one program is stored; And
And a processor that provides a video to an external device by executing the at least one program.
The at least one program,
Transmitting the first video to an external device;
Receiving area information related to an object included in the first video from the external device; And
Providing a second moving picture including only a partial area including the object identified based on the area information to the external device;
It contains the commands to execute,
The resolution of the second video is higher than that of the partial region in the first video,
The area information is information on a region of interest selected by the external device, and is generated by the external device,
When the screen of the external device displaying the first video is touched, the region of interest including the object including the touched portion is selected,
When the screen of the external device displaying the first video is touched, the region of interest in a preset range is selected from the touched part.
삭제delete 삭제delete 삭제delete 삭제delete 제 33 항에 있어서,
상기 외부 기기의 화면이 터치되면, 상기 관심 영역을 선택하기 위한 사용자 인터페이스가 상기 외부 기기의 화면에 디스플레이되는 것인, 디바이스.
The method of claim 33,
When the screen of the external device is touched, a user interface for selecting the region of interest is displayed on the screen of the external device.
제 33 항에 있어서,
상기 제 1 동영상 및 상기 제 2 동영상은 상기 외부기기와의 영상 통화를 위한 동영상이며,
상기 제 1 동영상을 외부 기기로 전송하는 단계는, 촬영된 동영상에 기초하여 제 1 동영상을 상기 외부 기기로 전송하며,
상기 촬영된 영상의 해상도는 상기 영상 통화의 스트리밍 해상도보다 큰 것인, 디바이스.
The method of claim 33,
The first video and the second video are videos for video calls with the external device,
In the step of transmitting the first video to the external device, the first video is transmitted to the external device based on the captured video,
The resolution of the captured video is greater than the streaming resolution of the video call.
삭제delete 제 33 항에 있어서,
상기 외부기기와의 통신 방법의 종류에 따라, 상기 제 1 동영상 및 상기 제 2 동영상 중 적어도 하나의 해상도가 결정되는 것인, 디바이스.
The method of claim 33,
A device in which at least one resolution of the first video and the second video is determined according to the type of communication method with the external device.
삭제delete 삭제delete 제 33 항에 있어서
상기 제 1 동영상을 외부 기기로 전송하는 단계는, 촬영된 동영상에 기초하여 상기 제 1 동영상 및 상기 제 2 동영상을 상기 외부 기기로 전송하며,
상기 촬영된 영상으로부터 상기 객체가 사라지면, 상기 제 2 동영상에 대응되는 상기 일부 영역을 변경하는 단계; 및
상기 변경된 일부 영역에 대한 제 2 동영상을 상기 외부 기기에게 제공하는 단계;
를 실행하는 명령어들을 더 포함하는 것인, 디바이스.
The method of claim 33
In the step of transmitting the first video to an external device, the first video and the second video are transmitted to the external device based on the captured video,
If the object disappears from the captured image, changing the partial area corresponding to the second video; And
Providing a second video of the changed partial region to the external device;
The device further comprising instructions for executing the device.
제 44 항에 있어서,
상기 사라진 객체가 상기 촬영된 영상에 나타나면, 상기 촬영된 영상의 전체 영역 중에서 상기 나타난 객체를 포함하는 일부 영역만을 포함하는 동영상을 상기 외부기기에게 제공하는 단계;
를 실행하는 명령어들을 더 포함하는 것인, 디바이스.
The method of claim 44,
When the disappeared object appears on the photographed image, providing a video including the partial region including the displayed object to the external device among all regions of the photographed image;
The device further comprising instructions for executing the device.
삭제delete 삭제delete 삭제delete 삭제delete
KR1020130081194A 2012-07-17 2013-07-10 System and method for rpoviding image KR102091137B1 (en)

Priority Applications (10)

Application Number Priority Date Filing Date Title
RU2015105185A RU2653305C2 (en) 2012-07-17 2013-07-12 System and method of providing image
BR112015001112A BR112015001112A2 (en) 2012-07-17 2013-07-12 method of providing image, method of receiving image using a device, and method of providing image
PCT/KR2013/006257 WO2014014238A1 (en) 2012-07-17 2013-07-12 System and method for providing image
US13/944,279 US9204090B2 (en) 2012-07-17 2013-07-17 System and method for providing image
EP13176900.2A EP2688295B1 (en) 2012-07-17 2013-07-17 System and method for providing image
TW102125571A TWI584641B (en) 2012-07-17 2013-07-17 Device and method for providing image and non-transitory computer-readable recording medium
CN201310299684.5A CN103546716A (en) 2012-07-17 2013-07-17 System and method for providing image
JP2013148383A JP6271892B2 (en) 2012-07-17 2013-07-17 Video providing system and method
US14/936,188 US9654728B2 (en) 2012-07-17 2015-11-09 System and method for providing image
US15/484,502 US10075673B2 (en) 2012-07-17 2017-04-11 System and method for providing image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20120077919 2012-07-17
KR1020120077919 2012-07-17

Publications (2)

Publication Number Publication Date
KR20140011264A KR20140011264A (en) 2014-01-28
KR102091137B1 true KR102091137B1 (en) 2020-03-20

Family

ID=50143597

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130081194A KR102091137B1 (en) 2012-07-17 2013-07-10 System and method for rpoviding image

Country Status (5)

Country Link
JP (1) JP6271892B2 (en)
KR (1) KR102091137B1 (en)
BR (1) BR112015001112A2 (en)
RU (1) RU2653305C2 (en)
TW (1) TWI584641B (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022225354A1 (en) * 2021-04-23 2022-10-27 삼성전자 주식회사 Electronic device for sharing information and operation method thereof

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9858470B2 (en) 2014-07-18 2018-01-02 Htc Corporation Method for performing a face tracking function and an electric device having the same
KR102121532B1 (en) * 2014-08-26 2020-06-10 삼성전자주식회사 Apparatus and method for providing preview image
US20160094849A1 (en) * 2014-09-27 2016-03-31 Intel Corporation THERMAL THROTTLING OF WiDi VIDEO STREAM RESOLUTION
JP2017028587A (en) 2015-07-24 2017-02-02 ソニー株式会社 Information processing device and information processing method
WO2017210908A1 (en) * 2016-06-08 2017-12-14 华为技术有限公司 Processing method and terminal
KR102623181B1 (en) * 2016-10-05 2024-01-11 엘지전자 주식회사 Wireless device and wireless system
CN111034184B (en) * 2017-08-29 2022-09-02 连株式会社 Video call method for improving video quality and computer-readable recording medium
JP2022503615A (en) * 2018-08-31 2022-01-12 ベステル エレクトロニク サナイー ベ ティカレト エー.エス. Electronic device and operation method
RU2696009C1 (en) * 2018-10-22 2019-07-30 Акционерное общество "Калужский научно-исследовательский институт телемеханических устройств" Method of movable object positioning based on video images
KR102222871B1 (en) * 2019-02-22 2021-03-04 삼성전자주식회사 Display apparatus and Method of displaying image thereof
KR102067191B1 (en) * 2019-06-28 2020-02-11 배경 Apparatus for generating detailed image
EP4250282A1 (en) 2021-06-07 2023-09-27 Samsung Electronics Co., Ltd. Display device and control method thereof
KR20220165131A (en) * 2021-06-07 2022-12-14 삼성전자주식회사 Display apparatus and control method thereof
KR102571349B1 (en) * 2021-12-16 2023-08-29 주식회사 랩241 System and method for magnifing selection area of video

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060114987A1 (en) 1998-12-21 2006-06-01 Roman Kendyl A Handheld video transmission and display
US20060215753A1 (en) 2005-03-09 2006-09-28 Yen-Chi Lee Region-of-interest processing for video telephony
US20070229680A1 (en) 2006-03-30 2007-10-04 Jai Pulnix, Inc. Resolution proportional digital zoom
JP2010520693A (en) * 2007-03-05 2010-06-10 スネル リミテッド Video transmission method and apparatus considering region of interest of image data
JP2010259540A (en) * 2009-04-30 2010-11-18 Canon Inc Image processor, and image processing method

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6178204B1 (en) * 1998-03-30 2001-01-23 Intel Corporation Adaptive control of video encoder's bit allocation based on user-selected region-of-interest indication feedback from video decoder
JP2002369164A (en) * 2001-06-06 2002-12-20 Nikon Corp Electronic imaging device and electronic imaging system
SE526226C2 (en) * 2003-12-19 2005-08-02 Ericsson Telefon Ab L M Image Processing
JP3115546U (en) * 2005-08-05 2005-11-10 東芝テリー株式会社 Display device
TWI275308B (en) * 2005-08-15 2007-03-01 Compal Electronics Inc Method and apparatus for adjusting output images
PT2269371T (en) * 2008-03-20 2018-05-08 Inst Rundfunktechnik Gmbh A method of adapting video images to small screen sizes
JP2009239480A (en) * 2008-03-26 2009-10-15 Toshiba Corp Video reception client, video distribution server, reception algorithm switching control method and program
EP2316220A1 (en) * 2008-06-25 2011-05-04 Enzo Stancato Multifunction apparatus for telecommunications
JP2010027000A (en) * 2008-07-24 2010-02-04 Sony Corp Image detection device and image detection method
JP5089658B2 (en) * 2009-07-16 2012-12-05 株式会社Gnzo Transmitting apparatus and transmitting method
US9185335B2 (en) * 2009-12-28 2015-11-10 Thomson Licensing Method and device for reception of video contents and services broadcast with prior transmission of data
CA2799615C (en) * 2010-05-19 2017-08-22 Siemens S.A.S. Securing remote video transmission for the remote control of a vehicle
TW201225654A (en) * 2010-12-13 2012-06-16 Sonix Technology Co Ltd Image accessing apparatus and image data transmission method thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060114987A1 (en) 1998-12-21 2006-06-01 Roman Kendyl A Handheld video transmission and display
US20060215753A1 (en) 2005-03-09 2006-09-28 Yen-Chi Lee Region-of-interest processing for video telephony
US20070229680A1 (en) 2006-03-30 2007-10-04 Jai Pulnix, Inc. Resolution proportional digital zoom
JP2010520693A (en) * 2007-03-05 2010-06-10 スネル リミテッド Video transmission method and apparatus considering region of interest of image data
JP2010259540A (en) * 2009-04-30 2010-11-18 Canon Inc Image processor, and image processing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022225354A1 (en) * 2021-04-23 2022-10-27 삼성전자 주식회사 Electronic device for sharing information and operation method thereof

Also Published As

Publication number Publication date
TWI584641B (en) 2017-05-21
RU2015105185A (en) 2016-09-10
TW201410004A (en) 2014-03-01
JP6271892B2 (en) 2018-01-31
RU2653305C2 (en) 2018-05-07
KR20140011264A (en) 2014-01-28
BR112015001112A2 (en) 2017-06-27
JP2014023158A (en) 2014-02-03

Similar Documents

Publication Publication Date Title
KR102091137B1 (en) System and method for rpoviding image
EP2688295B1 (en) System and method for providing image
KR102384054B1 (en) Mobile terminal and method for controlling the same
JP5358733B2 (en) System and method for changing touch screen functionality
US20220321797A1 (en) Photographing method in long-focus scenario and terminal
US9742995B2 (en) Receiver-controlled panoramic view video share
KR20180092621A (en) Terminal and method for controlling the same
EP2326136A2 (en) Method and apparatus for remote controlling bluetooth device
KR20150133056A (en) Mobile terminal and control method for the mobile terminal
KR20190008610A (en) Mobile terminal and Control Method for the Same
CN112398855B (en) Method and device for transferring application contents across devices and electronic device
KR20100118458A (en) Method for processing image and mobile terminal having camera thereof
JP2012239150A (en) Handheld electronic device, double image acquisition method applied to the device, and computer program product loaded to the device
KR20170025177A (en) Mobile terminal and method for controlling the same
JP2011504339A (en) System and method for generating photos with variable image quality
KR20150131815A (en) Mobile terminal and controlling method thereof
KR20150131837A (en) Mobile terminal and control method for the mobile terminal
US20210127020A1 (en) Method and device for processing image
WO2013125122A1 (en) Stereoscopic display control device, imaging device provided with same, and stereoscopic display control method
KR20180031239A (en) Mobile terminal and method for controlling the same
KR20160012009A (en) Mobile terminal and method for controlling the same
CN109389547A (en) Image display method and apparatus
KR20180027191A (en) Terminal and method for controlling the same
KR20180057403A (en) Mobile terminal
KR20180032025A (en) Terminal and method for controlling the same

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right