JP2014023158A - 映像提供システム及びその方法 - Google Patents

映像提供システム及びその方法 Download PDF

Info

Publication number
JP2014023158A
JP2014023158A JP2013148383A JP2013148383A JP2014023158A JP 2014023158 A JP2014023158 A JP 2014023158A JP 2013148383 A JP2013148383 A JP 2013148383A JP 2013148383 A JP2013148383 A JP 2013148383A JP 2014023158 A JP2014023158 A JP 2014023158A
Authority
JP
Japan
Prior art keywords
moving image
video
external device
region
resolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013148383A
Other languages
English (en)
Other versions
JP6271892B2 (ja
Inventor
Yodai Kin
容台 金
Hae-Young Jun
惠暎 全
Youn-Gun Jung
淵建 鄭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2014023158A publication Critical patent/JP2014023158A/ja
Application granted granted Critical
Publication of JP6271892B2 publication Critical patent/JP6271892B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/39Control of the bit-mapped memory
    • G09G5/391Resolution modifying circuits, e.g. variable screen formats
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Hardware Design (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Television Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】映像提供システム及びその方法を提供する。
【解決手段】映像提供システム及びその方法が提供され、該映像提供方法は、原本解像度を有した第1動画を第1解像度で、外部機器に伝送する段階と、外部機器で、第1解像度で表示される第1動画の関心領域に係わる領域情報を、外部機器から受信する段階と、領域情報に基づいて、原本解像度の第1動画で、関心領域に対応する領域を決定する段階と、原本解像度の第1動画の一部を第2動画に変換する段階と、第2動画を第1解像度で、外部機器に伝送する段階と、を含む。
【選択図】図1

Description

本発明は、デバイスで撮影される映像の一部に対応する客体を含む映像を、他のデバイスに提供する映像提供システム及びその方法に関する。
最近、マルチメディア機能を具備したデバイス間で映像を送受信する技術が活性化されている。特に、移動通信インフラの構築がなされ、スマートフォン、携帯電話、PDA(personal digital assistance)などが普遍化されることにより、既存の音声通話機能を脱した多様なサービスが提供されている。
また、デバイスを利用した画像通話は、遠距離で、双方のユーザが相手方ユーザと直接対面しながら通話することができるので、その使用が急激に拡散している。
一般的に、送信側のデバイスは、画像通話のために、ユーザの映像を取得し、所定の動画ビデオエンコーディング・フォーマットによって取得された映像をエンコーディングした後、他のデバイスに送出する。
また、受信側のデバイスは、移動通信網から、エンコーディングされたビデオデータを受信し、これをデコーディングした後、受信側のデバイスに内蔵されたディスプレイ装置、例えば、LCD(liquid crystal display)を使用してディスプレイする。従って、受信側のユーザは、送信側のデバイスによって撮影された映像を、リアルタイムで見ながら通話を行うことができる。
ところで、デバイスに含まれたディスプレイ装置の解像度がそれぞれ異なり、デバイス間で伝送されるデータのストリーミング解像度が、通信方法によって異なるので、送信側のデバイスで撮影された動画の一部を、効果的に受信側のデバイスに提供することができる技術が要求されている。さらに、映像通話時に、送信側のデバイスによって撮影された映像の一部分を効果的に選択して拡大し、ユーザに提供することができる技術が要求されている。
韓国特許第10−1077029号公報
本発明の一実施形態は、デバイスが撮影されている映像に含まれた客体を追跡し、追跡された客体を含む一部映像を、他のデバイスに提供させる映像提供システム及びその方法を提供するものである。
前述の技術的課題を達成するための技術的手段として、本発明の第1側面は、撮影されている映像に基づいて、第1動画を外部機器に伝送する段階と、前記外部機器から、前記第1動画の一部領域に係わる領域情報を受信する段階と、前記撮影されている映像から、前記領域情報と係わる客体を識別して追跡する段階と、前記撮影されている映像に基づいて、前記追跡された客体を含む第2動画を、前記外部機器に提供する段階と、を含む映像提供方法を提供することができる。
また、前記領域情報は、前記外部機器によって選択された一部領域に係わる情報であり、前記外部機器によって生成される。
また、前記外部機器の画面がタッチされれば、前記タッチされた部分を含む客体を含む領域が、前記一部領域として選択される。
また、前記外部機器の画面がタッチされれば、前記タッチされた部分から、既設定の範囲の領域が、前記一部領域として選択される。
また、前記外部機器の画面がタッチされれば、前記タッチされた地点に係わる座標情報を、前記外部機器から受信する段階を含み、前記客体を識別して追跡する段階は、前記受信された座標情報に基づいて、前記撮影されている映像から、前記タッチされた地点に対応する客体を識別して追跡することができる。
また、前記外部機器の画面がタッチされれば、前記一部領域を選択するためのユーザ・インターフェースが、前記外部機器の画面にディスプレイされる。
また、前記第1動画及び前記第2動画は、前記外部機器との映像通話のための動画であり、前記撮影されている映像の解像度は、前記映像通話のストリーミング解像度より高くてもよい。
また、前記外部機器との通信方法の種類によって、前記一部領域の範囲が決定されもする。
また、前記外部機器との通信方法の種類によって、前記第1動画及び前記第2動画のうち少なくとも1つの解像度が決定されもする。
また、前記方法は、前記外部機器との通信方法が変更されることにより、前記第1動画及び前記第2動画のうち少なくとも1つの解像度を変更する段階をさらに含んでもよい。
また、前記方法は、前記外部機器との通信方法が変更されることにより、前記第2動画に対応する領域を変更する段階と、前記変更された領域に係わる動画を、前記外部機器に提供する段階と、をさらに含んでもよい。
また、前記方法は、前記撮影されている映像から、前記客体が消えれば、前記第2動画に対応する領域を変更する段階と、前記変更された領域に係わる動画を、前記外部機器に提供する段階と、をさらに含んでもよい。
また、前記方法は、前記消えた客体が、前記撮影されている映像に現れれば、前記撮影されている映像の全体領域のうち、前記現れた客体を含む一部領域の動画を、前記外部機器に提供する段階をさらに含んでもよい。
また、本発明の第2側面は、外部機器から第1動画を受信する段階と、前記受信された第1動画の一部領域に係わる領域情報を、前記外部機器に提供する段階と、前記提供された一部領域と係わる客体を含む第2動画を、前記外部機器から受信する段階と、を含み、前記第1動画及び前記第2動画は、前記外部機器で撮影されている動画に基づいて、前記外部機器から提供され、前記客体は、前記撮影されている動画から、前記外部機器によって識別されて追跡されたものである、映像受信方法を提供することができる。
また、前記方法は、ユーザ入力に基づいて、前記一部領域を選択する段階と、前記選択された一部領域に係わる前記領域情報を生成する段階と、をさらに含んでもよい。
また、前記一部領域を選択する段階は、前記外部機器の画面がタッチされれば、前記タッチされた部分を含む客体を含む領域を、前記一部領域として選択することができる。
また、前記一部領域を選択する段階は、前記外部機器の画面がタッチされれば、前記タッチされた部分から、既設定の範囲の領域を、前記一部領域として選択することができる。
また、前記領域情報を提供する段階は、前記外部機器の画面がタッチされれば、前記タッチされた地点に係わる座標情報を、前記外部機器に提供し、前記提供された座標情報は、前記外部機器が、前記撮影されている映像から、前記タッチされた地点に対応する客体を識別して追跡するのに利用されもする。
また、前記方法は、前記外部機器の画面がタッチされれば、前記一部領域を選択するためのユーザ・インターフェースをディスプレイする段階をさらに含んでもよい。
また、前記第1動画及び前記第2動画は、前記外部機器との映像通話のための動画であり、前記撮影されている映像の解像度は、前記映像通話のストリーミング解像度より高くてもよい。
また、前記外部機器との通信方法の種類によって、前記一部領域の範囲が決定されもする。
また、前記外部機器との通信方法の種類によって、前記外部機器で、前記第1動画及び前記第2動画のうち少なくとも1つの解像度が決定されもする。
また、前記外部機器との通信方法が変更されることにより、前記外部機器によって、前記第1動画及び前記第2動画のうち少なくとも1つの解像度が変更されもする。
また、前記外部機器との通信方法が変更されることにより、前記一部領域が変更されもする。
また、前記撮影されている映像から、前記客体が消えれば、前記第2動画に対応する領域が変更され、前記方法は、前記変更された領域に係わる動画を、前記外部機器から受信する段階をさらに含んでもよい。
また、前記方法は、前記消えた客体が、前記撮影されている映像に現れれば、前記現れた客体を含む動画を、前記外部機器から受信する段階をさらに含んでもよい。
また、本発明の第3側面は、少なくとも1つのプログラムが保存されるメモリと、前記少なくとも1つのプログラムを実行することにより、外部機器に動画を提供するプロセッサと、を含み、前記少なくとも1つのプログラムは、撮影されている映像に基づいて、第1動画を外部機器に伝送する段階と、前記外部機器から、前記第1動画の一部領域に係わる領域情報を受信する段階と、前記撮影されている映像から、前記領域情報と係わる客体を識別して追跡する段階と、前記撮影されている映像に基づいて、前記追跡された客体を含む第2動画を、前記外部機器に提供する段階と、を実行する命令語を含むことを特徴とするデバイスを提供することができる。
また、前記領域情報は、前記外部機器によって選択された一部領域に係わる情報であり、前記外部機器によって生成される。
また、前記外部機器の画面がタッチされれば、前記タッチされた部分を含む客体を含む領域が、前記一部領域として選択される。
また、前記外部機器の画面がタッチされれば、前記タッチされた部分から、既設定の範囲の領域が、前記一部領域として選択される。
また、前記デバイスは、前記外部機器の画面がタッチされれば、前記タッチされた地点に係わる座標情報を、前記外部機器から受信する段階を実行する命令語をさらに含み、前記客体を識別して追跡する段階は、前記受信された座標情報に基づいて、前記撮影されている映像から、前記タッチされた地点に対応する客体を識別して追跡することができる。
また、前記外部機器の画面がタッチされれば、前記一部領域を選択するためのユーザ・インターフェースが、前記外部機器の画面にディスプレイされる。
また、前記第1動画及び前記第2動画は、前記外部機器との映像通話のための動画であり、前記撮影されている映像の解像度は、前記映像通話のストリーミング解像度より高くてもよい。
また、前記外部機器との通信方法の種類によって、前記一部領域の範囲が決定されもする。
また、前記外部機器との通信方法の種類によって、前記第1動画及び前記第2動画のうち少なくとも1つの解像度が決定されもする。
また、前記デバイスは、前記外部機器との通信方法が変更されることにより、前記第1動画及び前記第2動画のうち少なくとも1つの解像度を変更する段階を実行する命令語をさらに含んでもよい。
また、前記デバイスは、前記外部機器との通信方法が変更されることにより、前記第2動画に対応する領域を変更する段階と、前記変更された領域に係わる動画を、前記外部機器に提供する段階と、を実行する命令語をさらに含んでもよい。
また、前記デバイスは、前記撮影されている映像から、前記客体が消えれば、前記第2動画に対応する領域を変更する段階と、前記変更された領域に係わる動画を、前記外部機器に提供する段階と、を実行する命令語をさらに含んでもよい。
また、前記デバイスは、前記消えた客体が、前記撮影されている映像に現れれば、前記撮影されている映像の全体領域のうち、前記現れた客体を含む一部領域の動画を、前記外部機器に提供する段階を実行する命令語をさらに含んでもよい。
また、本発明の第4側面は、少なくとも1つのプログラムが保存されるメモリと、前記少なくとも1つのプログラムを実行することにより、外部機器から動画を受信させるプロセッサと、を含み、前記少なくとも1つのプログラムは、前記外部機器から第1動画を受信する段階と、前記受信された第1動画の一部領域に係わる領域情報を、前記外部機器に提供する段階と、前記提供された一部領域と係わる客体を含む第2動画を、前記外部機器から受信する段階と、を実行する命令語を含み、前記第1動画及び前記第2動画は、前記外部機器で撮影されている動画に基づいて、前記外部機器から提供され、前記客体は、前記撮影されている動画から、前記外部機器によって識別されて追跡されたものである、デバイスを提供することができる。
また、前記デバイスは、ユーザ入力に基づいて、前記一部領域を選択する段階と、前記選択された一部領域に係わる前記領域情報を生成する段階と、を実行する命令語をさらに含んでもよい。
また、前記一部領域を選択する段階は、前記外部機器の画面がタッチされれば、前記タッチされた部分を含む客体を含む領域を、前記一部領域として選択することができる。
また、前記一部領域を選択する段階は、前記外部機器の画面がタッチされれば、前記タッチされた部分から、既設定の範囲の領域を、前記一部領域として選択することができる。
また、前記領域情報を提供する段階は、前記外部機器の画面がタッチされれば、前記タッチされた地点に係わる座標情報を、前記外部機器に提供し、前記提供された座標情報は、前記外部機器が、前記撮影されている映像から、前記タッチされた地点に対応する客体を識別して追跡するのに利用されもする。
また、前記デバイスは、前記外部機器の画面がタッチされれば、前記一部領域を選択するためのユーザ・インターフェースをディスプレイする段階を実行する命令語をさらに含んでもよい。
また、前記第1動画及び前記第2動画は、前記外部機器との映像通話のための動画であり、前記撮影されている映像の解像度は、前記映像通話のストリーミング解像度より高くてもよい。
また、前記外部機器との通信方法の種類によって、前記一部領域の範囲が決定されもする。
また、前記外部機器との通信方法の種類によって、前記外部機器で、前記第1動画及び前記第2動画のうち少なくとも1つの解像度が決定されもする。
また、前記外部機器との通信方法が変更されることにより、前記外部機器によって、前記第1動画及び前記第2動画のうち少なくとも1つの解像度が変更されもする。
また、前記外部機器との通信方法が変更されることにより、前記一部領域が変更されもする。
また、前記撮影されている映像から、前記客体が消えれば、前記第2動画に対応する領域が変更され、前記デバイスは、前記変更された領域に係わる動画を、前記外部機器から受信する段階を実行する命令語をさらに含んでもよい。
また、前記デバイスは、前記消えた客体が、前記撮影されている映像に現れれば、前記現れた客体を含む動画を、前記外部機器から受信する段階を実行する命令語をさらに含んでもよい。
本発明の一実施形態による映像提供システムの全体概要図である。 本発明の一実施形態による、第1デバイスで撮影された映像の一部に対応する客体を含む映像が、第2デバイスで表示される一例を図示した図面である。 本発明の一実施形態による、第1デバイスで撮影された映像の一部に対応する客体を含む映像が、第2デバイスで表示される一例を図示した図面である。 本発明の一実施形態による、第1デバイスが、撮影中である動画の一部領域に対応する客体を含む動画を、第2デバイスに提供する方法のフローチャートである。 本発明の一実施形態による、第2デバイスが、関心領域に係わる領域情報を生成する方法のフローチャートである。 本発明の一実施形態による、第1デバイスと第2デバイスとの通信方法が変更される場合、第1デバイスが、選択された関心領域を変更し、変更された領域に係わる動画を、第2デバイスに提供する方法のフローチャートである。 本発明の一実施形態による、第1デバイスと第2デバイスとの通信方法が変更される場合、第1デバイスが、変更された解像度の動画を、第2デバイスに提供する方法のフローチャートである。 本発明の他の実施形態による、第1デバイスが、撮影中である動画の一部領域に対応する客体を含む動画を、第2デバイスに提供する方法のフローチャートである。 本発明の一実施形態による、ユーザのタッチ地点を含む客体が含まれるように、第2デバイスが、第1動画の一部領域を、関心領域として決定する一例を図示した図面である。 本発明の一実施形態による、ユーザのタッチ地点を含む客体が含まれるように、第2デバイスが、第1動画の一部領域を、関心領域として決定する一例を図示した図面である。 本発明の一実施形態による、第2デバイスが、ユーザのタッチ地点から既設定の範囲の一部領域を、関心領域として決定する一例を図示した図面である。 本発明の一実施形態による、第2デバイスが、ユーザのタッチ地点から既設定の範囲の一部領域を、関心領域として決定する一例を図示した図面である。 本発明の一実施形態による、一部領域を決定するためのユーザ・インターフェースを利用して、第2デバイスが、第1動画の一部領域を、関心領域として決定する一例を図示した図面である。 本発明の一実施形態による、一部領域を決定するためのユーザ・インターフェースを利用して、第2デバイスが、第1動画の一部領域を、関心領域として決定する一例を図示した図面である。 本発明の一実施形態による、第1デバイスと第2デバイスとの通信方法で変更される場合、第2デバイスが第1デバイスから、解像度が変更された動画を提供される一例を図示した図面である。 本発明の一実施形態による、第1デバイスと第2デバイスとの通信方法で変更される場合、第2デバイスが第1デバイスから、解像度が変更された動画を提供される一例を図示した図面である。 本発明の一実施形態による、第1デバイスと第2デバイスとの通信方法で変更される場合、第2デバイスが第1デバイスから、画質が変更された動画を提供される一例を図示した図面である。 本発明の一実施形態による、第1デバイスと第2デバイスとの通信方法で変更される場合、第2デバイスが第1デバイスから、画質が変更された動画を提供される一例を図示した図面である。 本発明の一実施形態による、第1デバイスと第2デバイスとの通信方法で変更される場合、第2デバイスが第1デバイスから、変更された一部領域に係わる動画を提供される一例を図示した図面である。 本発明の一実施形態による、第1デバイスと第2デバイスとの通信方法で変更される場合、第2デバイスが第1デバイスから、変更された一部領域に係わる動画を提供される一例を図示した図面である。 本発明の一実施形態による第1デバイスのブロック図である。 本発明の一実施形態による第2デバイスのブロック図である。 本発明の他の実施例によるデバイスのブロック図である。 本発明の一実施形態による、第2デバイスに表示された第1動画の画面の一部領域を拡大する一例を図示した図面である。 本発明の一実施形態による、第2デバイスに表示された第1動画の画面の一部領域を拡大する一例を図示した図面である。 本発明の一実施形態による、第2デバイスに表示された第1動画の画面の一部領域を拡大する一例を図示した図面である。 本発明の一実施形態による、第2デバイスに表示された動画の画面が段階的に拡大される一例を図示した図面である。 本発明の一実施形態による、第2デバイスに表示された動画の画面が段階的に拡大される一例を図示した図面である。 本発明の一実施形態による、第2デバイスに表示された動画の画面が段階的に拡大される一例を図示した図面である。 本発明の一実施形態による、第2デバイスで、第1動画の一部領域が拡大されたプレビュー映像が表示された後、第1デバイスから提供された第2動画が表示される一例を図示した図面である。 本発明の一実施形態による、第2デバイスで、第1動画の一部領域が拡大されたプレビュー映像が表示された後、第1デバイスから提供された第2動画が表示される一例を図示した図面である。 本発明の一実施形態による、第2デバイスで、第1動画の一部領域が拡大されたプレビュー映像が表示された後、第1デバイスから提供された第2動画が表示される一例を図示した図面である。 本発明の一実施形態による、RTP(real-time transfer protocol)パケット・ヘッダの一例を図示した図面である。 本発明の一実施形態による、第1デバイスが第4映像を生成する方法のフローチャートである。 本発明の一実施形態による、第1デバイスと映像通話を行っている第2デバイスが、第1動画の一部領域に係わって拡大された第2動画を受信する方法のフローチャートである。 本発明の一実施形態による、第1デバイスと映像通話を行っている第2デバイスが、第1動画の一部領域を拡大して表示する方法のフローチャートである。 本発明の一実施形態による、第1動画で選択された一部領域に係わる拡大映像が、第1動画と共に、第2デバイスの画面に表示される一例を図示した図面である。 本発明の一実施形態による、第1動画で選択された一部領域に係わる拡大映像が、第1動画と共に、第2デバイスの画面に表示される一例を図示した図面である。 本発明の一実施形態による、第1動画で選択された一部領域に係わる拡大映像が、第1動画と共に、第2デバイスの画面に表示される一例を図示した図面である。
以下、添付した図面を参照しつつ、本発明が属する技術分野で当業者が、容易に実施可能なように、本発明の実施形態について詳細に説明する。しかし、本発明は、さまざまに異なる形態に具現され、ここで説明する実施形態に限定されるものではない。そして、図面で、本発明について明確に説明するために、説明と関係のない部分は省略し、明細書全体を通じて、類似した部分については、類似した図面符号を付けた。
明細書全体で、ある部分が他の部分と「連結」されているとするとき、それは、「直接的に連結」されている場合だけではなく、その中間に、他の素子を介在させて「電気的に連結」されている場合も含む。また、ある部分がある構成要素を「含む」とするとき、それは、特別に反対になる記載がない限り、他の構成要素を除外するものではなく、他の構成要素をさらに含んでもよいということを意味する。
以下、添付された図面を参考しつつ、本発明について詳細に説明するする。
図1は、本発明の一実施形態による映像提供システムの全体概要図である。
図1は参照すれば、第1デバイス100及び第2デバイス200は、互いに映像通話を行うことができ、第1デバイス100は、撮影中である動画を、第2デバイス200に提供することができる。また、第2デバイス200も、撮影中である動画を第1デバイス100に提供することができる。
以下では、説明の便宜上、本発明の一実施形態による映像提供システムで、第1デバイス100が第2デバイス200に動画を提供する場合について説明する。また、以下では、第1デバイス100が第2デバイス200に提供するコンデンツが、第1デバイス100で撮影される動画であると説明したが、それに制限されるものではなく、第1デバイス100は、第2デバイス200に、例えば、ビデオ映像、写真イメージ、キャプチャイメージ、アプリケーション実行イメージなどのコンデンツを提供することもできる。
第1デバイス100は、第1デバイス100によって撮影された動画に基づいて、第1動画を第2デバイス200に提供することができ、第1動画に含まれた客体に係わる領域情報を、第2デバイス200から受信することができる。また、第1デバイス100は、受信された領域情報に基づいて、第1動画に含まれた所定の客体を追跡し、追跡された客体を含む一部領域のみを含む第2動画を、第2デバイス200に提供することができる。
また、第1デバイス100は、撮影されている動画の解像度が、第1デバイス100と第2デバイス200との間で伝送される動画のストリーミング解像度より高い場合、撮影されている動画の一部領域に係わる第2動画を、第2デバイス200に提供することができる。
第1デバイス100及び第2デバイス200は、他のデバイスに、動画、イメージなどを伝送することができる装置であり、例えば、スマートフォン、携帯電話、PDA(personal digital assistant)、ラップトップ、メディアプレイヤ、GPS(global positioning system)装置、及びその他モバイルまたは非モバイルのコンピュータ装置でもあるが、それらに制限されるものではない。
また、3個以上のデバイスが共に映像通話を行うこともできる。例えば、第1デバイス100、第2デバイス200及び第3デバイス(図示せず)が、共に映像通話を行うことができる。その場合、第1デバイス100が第1動画を、第2デバイス200及び第3デバイス(図示せず)に提供することができる。また、第2デバイス200が第1動画の一部領域を選択すれば、第1デバイス100は、第2デバイス200及び第3デバイス(図示せず)に、選択された一部領域に係わる動画を提供することができる。もし、第2デバイス200及び第3デバイス(図示せず)が、第1動画の一部領域をそれぞれ選択すれば、第1デバイス100は、第2デバイス200によって選択された領域に係わる動画を、第2デバイス200に提供し、第3デバイス(図示せず)によって選択された領域に係わる動画を、第3デバイス(図示せず)に提供することができる。
一方、第1デバイス100は、第1デバイス100で実行されたアプリケーションの実行画面に対応する第3映像を、第2デバイス200に提供することができる。その場合、第2デバイス200は、受信された第3映像の一部分を選択し、第1デバイス100から、選択された部分に係わる第4映像を受信することができる。
図2A及び図2Bは、本発明の一実施形態による、第1デバイス100で撮影された映像の一部に対応する客体を含む映像が、第2デバイス200で表示される一例を図示した図面である。図2Aは、本発明の一実施形態による第1動画の一例を図示した図面であり、図2Bは、本発明の一実施形態による第2動画を図示した図面である。
第1デバイス100は、撮影されている動画に基づいて、第1動画を第2デバイス200に提供することができ、第1動画に含まれた客体22を確認することができる。また、第1デバイス100は、確認された客体22を含む一部領域のみを含む第2動画を、第2デバイス200に提供することができる。
第1デバイス100が、撮影中である動画から、所定の一部領域20に含まれた客体22を確認することができるが、これに制限されるものではない。第1デバイス100は、第2デバイス200に提供する第1動画から客体22を確認することもできる。
図3は、本発明の一実施形態による、第1デバイス100が、撮影中である動画の一部領域に対応する客体を含む動画を、第2デバイス200に提供する方法のフローチャートである。
段階S300で、第1デバイス100は、第2デバイス200に、第1動画を提供する。第1デバイス100は、撮影されている動画に基づいて、第1動画を第2デバイス200に提供することができる。第1デバイス100は、撮影されている動画を別途の加工なしに第1動画にして、第2デバイス200に提供することができる。また、第1デバイス100は、撮影されている動画を加工し、加工された動画を第1動画にして、第2デバイス200に提供することもできる。その場合、第1デバイス100は、撮影されている動画の解像度を変更したり、あるいは撮影されている動画のフォーマットを変換することができる。例えば、撮影されている動画の解像度が、第1デバイス100と第2デバイス200との間のストリーミング解像度より大きい場合、第1デバイス100は、撮影されている動画の解像度をストリーミング解像度と同一になるように変換し、変換された解像度の第1動画を、第2デバイス200に提供することができる。また、第1動画は、複数の第1フレームを有することができる。
また、段階S300で、第1デバイス100は、原本解像度を有する第1動画を第1解像度で、第2デバイス200に伝送することができる。その場合、第1デバイス100は、第2デバイス200に含まれたディスプレイの解像度に係わる情報を、あらかじめ獲得して保存することができ、第2デバイス200に含まれたディスプレイの解像度に基づいて、第1解像度を決定することができる。
一方、第1デバイス100は、第1デバイス100で実行されたアプリケーションの実行画面に対応する第3映像を、第2デバイス200に提供することもできる。第1デバイス100は、第3映像を第3解像度で、第2デバイス200に提供することができる。
段階S310で、第2デバイス200は、受信された第1動画をディスプレイする。第2デバイス200は、受信された第1動画を、第2デバイス200の画面にディスプレイすることができる。第2デバイス200は、第1解像度の第1動画を、画面にディスプレイすることができる。
一方、第2デバイス200が、第1デバイス100で実行されたアプリケーションの実行画面に対応する第3映像を受信した場合には、第2デバイス200は、受信された第3映像をディスプレイすることができる。第2デバイス200は、第3映像を第3解像度でディスプレイすることができる。
段階S320で、第2デバイス200は、第1動画に含まれた客体に係わる領域情報を生成する。第2デバイス200は、ユーザ入力に基づいて、第1動画の一部領域を関心領域として選択し、選択された関心領域に係わる領域情報を生成することができる。また、第2デバイス200は、ユーザ入力に基づいて、第1動画に含まれた所定の客体を選択し、選択された客体に係わる領域情報を生成することもできる。
第2デバイス200は、第1動画に対するユーザのタッチ入力を受信し、タッチ入力された地点の位置に基づいて、関心領域を選択することができる。具体的には、ユーザが、第1動画で所定の地点をタッチすれば、第2デバイス200は、タッチされた地点を含む客体を識別し、識別された客体を含む領域を選択することができる。例えば、第1動画で、顔の部分がタッチされた場合、第2デバイス200は、タッチされた地点を含む客体である顔を識別することができる。また、第2デバイス200は、識別された顔を含む領域を関心領域として選択することができる。
また、ユーザが、第1動画で所定の地点をタッチすれば、第2デバイス200は、タッチされた地点から、既設定の範囲の領域を関心領域として選択することができる。例えば、第2デバイス200は、タッチされた地点を中心とする所定サイズの四角形の領域を、関心領域として選択することができる。
また、第2デバイス200は、ユーザをして、第1動画の一部領域を、関心領域として選択させるためのユーザ・インターフェースを画面に表示することができる。例えば、第2デバイス200は、第1動画の一部分に四角形を表示し、ユーザが四角形の枠をタッチ&ドラッグし、四角形の大きさを変更するように、ユーザ・インターフェースを提供することができる。
また、前述のところでは、第2デバイス200が、ユーザ入力に基づいて、第1動画の一部領域を、関心領域として選択すると説明したが、それに制限されるものではない。第2デバイス200は、別途のユーザ入力なしに、第1動画に含まれた顔を認識し、顔を含む所定の領域を、関心領域として選択することができる。
また、第1動画で選択される関心領域の大きさは、第1デバイス100と第2デバイス200との間で伝送されるデータのストリーミング解像度の高さに基づいて決定される。第1デバイス100と第2デバイス200との間で伝送されるデータのストリーミング解像度の高さに基づいて、第1動画で選択される関心領域の大きさの上限値が決定されもする。
また、第2デバイス200は、選択された関心領域に係わる座標情報を生成することができる。第2デバイス200は、第1動画の全体領域のうちから選択された関心領域の位置を示す座標値を生成することができる。また、第2デバイス200は、第1動画の全体領域のうちから、タッチ入力された地点の位置を示す座標値を生成することもできる。
また、第2デバイス200は、第1動画に含まれた複数の第1フレーム別に、関心領域に係わる領域情報を生成することができる。
一方、第1デバイス100で実行されたアプリケーションの実行画面に対応する第3映像を、第2デバイス200に提供した場合には、第2デバイス200は、第3映像の一部分を選択し、選択された領域に係わる領域情報を生成することができる。
段階S330で、第2デバイス200は、生成された領域情報を、第1デバイス100に提供する。第2デバイス200は、選択された関心領域に係わる座標値を、第1デバイス100に提供することができる。また、第2デバイス200は、ユーザによってタッチ入力された地点の座標値を、第1デバイス100に提供することもできる。
段階S340で、第1デバイス100は、領域情報に係わる客体を識別する。段階S340で、第1デバイス100は、受信された領域情報に基づいて、第1動画から客体を識別することができる。例えば、受信された領域情報に対応する第1動画の領域に含まれた客体が顔である場合、第1デバイス100は、第1動画から顔を識別することができる。また、第1動画に含まれた複数の第1フレーム別に、受信された領域情報に係わる客体を識別することができる。
また、第1デバイス100は、受信された領域情報に基づいて、撮影されている動画から客体を識別することもできる。受信された領域情報は、第1動画の一部領域に係わる領域情報であるので、第1デバイス100は、受信された領域情報に対応する第1動画の領域にマッチングされる領域を、撮影中である動画から確認することができる。また、マッチングされた領域に含まれた客体を、撮影中である動画から識別することができる。
また、第1デバイス100は、第1動画から識別された客体を利用して、撮影中である動画に含まれた客体を識別することもできる。第1デバイス100は、第1動画から識別された客体のイメージと類似した客体を、撮影中である動画から識別することができる。客体が相互に類似しているか否かということは、多様な方式で決定されもする。例えば、デバイス100は、客体の大きさ、色彩及び形態のうち少なくとも一つを比較することにより、客体が互いに類似しているか否かを決定することができる。他の例で、デバイス100は、客体の一部分を相互比較することにより、客体が互いに類似しているか否かを決定することもできる。
もし第1デバイス100が、第1デバイス100で実行されたアプリケーションの実行画面に対応する第3映像の一部分に係わる領域情報を、第2デバイス200から受信した場合には、第1デバイス100は、受信された領域情報に基づいて、第3映像から客体を識別することができる。
段階S350で、第1デバイス100は、識別された客体を追跡する。第1デバイス100は、第1動画から識別された客体を追跡することができる。また、第1デバイス100は、第1デバイス100によって撮影された動画から識別された客体を追跡することもできる。第1デバイス100によって撮影された動画は、第1デバイス100によって撮影されている動画を含む。識別された客体は、動画内で移動したり、あるいは回転することができ、第1デバイス100は、客体の形状及び色相に基づいて、動画内の客体を追跡することができる。識別された客体を追跡するというのは、動画内で客体が動く場合、動く客体の位置及び客体を含む領域を確認することを意味するが、それに制限されるものではない。
また、段階S350で、第1デバイス100は、第1動画の複数の第1フレームにおいて、識別された客体を含むフレームを選別することができる。また、第1デバイス100は、第1動画の複数の第1フレームにおいて、識別された客体を含む一部領域を区別することができる。
もし第1デバイス100が、第1デバイス100で実行されたアプリケーションの実行画面に対応する第3映像の一部分に係わる領域情報を、第2デバイス200から受信した場合には、第1デバイス100は、第3映像から客体を追跡することができる。
段階S360で、第1デバイス100は、第2デバイス200に、識別された客体を含む一部領域のみを含む第2動画を提供する。第1デバイス100は、撮影された動画から識別された客体を含む領域を切り取り、切り取った動画を第2動画にして、第2デバイス200に提供することができる。
具体的には、第1デバイス100は、受信された領域情報に基づいて、原本解像度の第1動画の画面で、関心領域に対応する領域を決定することができる。また、第1デバイス100は、決定された領域のみを含むように、第1動画を第2動画に変換することができる。また、第1デバイス100は、第2動画を第1解像度で、第2デバイス200に提供することができる。例えば、原本解像度が1000x1000であり、第1解像度が100x100である場合、第1デバイス100は、決定された領域に対応する第1動画の一部分を第2動画に変換し、第2動画を100x100の解像度で、第2デバイス200に伝送することができる。
また、第1デバイス100は、第1動画の複数の第1フレームにおいて、識別された客体を含む一部領域を区別し、複数の第1フレームの一部領域のみを含む複数個の第2フレームを有する第2動画を、外部機器に提供することができる。
もし第1デバイス100が、第1動画の複数の第1フレームにおいて、識別された客体を含むフレームを選別した場合には、選別されたフレームの一部領域のみを含む複数個の第2フレームを有する第2動画を、外部機器に提供することができる。その場合、一部領域は、関心領域でもある。また、第1デバイス100は、選別されたフレーム別に、関心領域に対応する領域を切り取ることにより、第2フレームを生成することができる。
また、第1デバイス100と第2デバイス200との通信方法によって、第1デバイス100は、第2動画に対応する領域の大きさを決定することができる。
また、第2動画は、段階S350で選別されたフレームの一部領域のみを含む複数個の第2フレームを有することができるが、それに制限されるものではない。また、第2動画は、段階S350で区別された一部領域のみを含む複数個の第2フレームを有することができるが、それに制限されるものではない。
また、第1デバイス100と第2デバイス200との通信方法によって、第1デバイス100は、第2動画の画質または解像度を決定することもできる。例えば、識別された客体を含む領域の解像度が、第1デバイス100と第2デバイス200との間で伝送されるデータのストリーミング解像度より低い場合には、識別された客体を含む領域の解像度または画質を上昇させることができる。また、例えば、識別された客体を含む領域の解像度が、第1デバイス100と第2デバイス200との間で伝送されるデータのストリーミング解像度より高い場合には、識別された客体を含む領域の解像度または画質を低下させることができる。
第1デバイス100と第2デバイス200との通信方法は、例えば、3G(third generation)通信、4G(fourth generation)通信、Wifi(wireless fidelity)通信を含んでもよいが、それらに制限されるものではない。
また、第1デバイス100と第2デバイス200との通信方法が変更されることにより、第1デバイス100は、第2動画に対応する領域の大きさ、または第2動画の画質を変更することができる。第1デバイス100と第2デバイス200との通信方法は、第1デバイス100及び第2デバイス200のうち少なくとも一つがハンドオーバーを行うことによって変更されもする。
また、撮影された動画で識別された客体が消える場合(すなわち、識別された客体が撮影されない場合)、第1デバイス100は、第2動画に対応する領域を変更することができる。例えば、撮影された動画で識別された客体が消えれば、第1デバイス100は、撮影された動画の全体領域を第2デバイス200に提供することができる。また、その場合、第1デバイス100は、別途のユーザ入力に基づいて、撮影された動画の全体領域を、第2デバイス200に提供することもできる。
また、消えた客体が、前記撮影された映像に再び現れれば(すなわち、消えた客体が再び撮影されれば)、撮影された映像の全体領域のうち、現れた客体を含む一部領域の動画を、第2デバイス200に提供することができる。
一方、第1デバイス100が、第1デバイス100で実行されたアプリケーションの実行画面に対応する第3映像の一部分に係わる領域情報を、第2デバイス200から受信した場合には、第1デバイス100は、識別された客体を含む一部領域のみを含む第4映像を、第2デバイス200に提供することができる。その場合、第1デバイス100は、第4映像を第3解像度で、第2デバイス200に提供することができる。
また、第1デバイス100が、第1デバイス100で実行されたアプリケーションの実行画面に対応する第3映像の一部分に係わる領域情報を、第2デバイス200から受信した場合、第3映像に含まれた客体を識別したり、あるいは追跡したりしない。その場合、第1デバイス100は、受信された領域情報に基づいて、第3映像の一部を切り取り、切り取った部分を第4映像に変換し、第2デバイス200に提供することができる。
段階S370で、第2デバイス200は、受信された第2動画をディスプレイする。第2デバイス200のユーザは、選択された一部領域に含まれた客体に係わるさらに詳細な動画を確認することができる。また、第2デバイス200は、受信された第2動画の静止画面をディスプレイすることもできる。
一方、第2デバイス200は、第2デバイス200の画面に、第1動画及び第2動画を共にディスプレイすることができる。その場合、段階S360で、第2デバイス200は、第2動画だけではなく、第1動画を共に受信することができる。また、第2デバイス200は、第1動画上に、第2動画をオーバーラップして表示することができる。第2デバイス200は、第1動画で、第1デバイス100のユーザが表示されていない部分に、第2動画をオーバーラップすることができる。また、第2デバイス200は、第1動画が表示される領域の大きさ、及び第2動画が表示される領域の大きさを調節することができる。しかし、それらに制限されるものではなく、第2デバイス200は、第1動画及び第2動画をオーバーラップせずに、第2デバイス200の画面にディスプレイすることもできる。
一方、前述のところでは、第2デバイス200が、第1デバイス100から第2動画を受信し、第1動画及び第2動画を共にディスプレイすることができると説明したが、それに制限されるものではない。第2デバイス200が、第1動画の一部領域を選択し、選択された一部領域に係わる拡大映像を、第1動画から抽出し、抽出された拡大映像を、第1動画と共に、第2デバイス200の画面にディスプレイすることもできる。
図4は、本発明の一実施形態による、第2デバイス200が、関心領域に係わる領域情報を生成する方法のフローチャートである。
段階S322で、第2デバイス200は、第1動画の一部領域を選択するためのユーザ入力を受信する。第2デバイス200は、第1動画の一部領域を選択するためのユーザのタッチ入力を受信することができる。例えば、第2デバイス200は、第1動画の所定の地点をタッチするユーザ入力を受信したり、あるいは第1動画の所定の地点をタッチ&ドラッグするユーザ入力を受信することができる。
また、第2デバイス200は、画面上に表示された所定のユーザ・インターフェースを介したユーザのタッチ入力を受信することもできる。例えば、第2デバイス200は、第1動画の一部分に四角形を表示し、ユーザが四角形の枠をタッチ&ドラッグし、四角形の大きさを変更するように、ユーザ・インターフェースを提供することができる。また、第2デバイス200は、提供されたユーザ・インターフェースを介したユーザのタッチ入力を受信することができる。
段階S324で、第2デバイス200は、第1デバイス100との通信方法を確認する。第2デバイス200は、第1デバイス100との通信方法の種類及び帯域幅(bandwidth)を確認することができる。また、第2デバイス200は、第1デバイス100及び第2デバイス200間で伝送されるデータのストリーミング解像度を確認することができる。第1デバイス100と第2デバイス200との通信方法は、例えば、3G(third generation)通信、4G(fourth generation)通信、Wifi通信を含んでもよいが、それらに制限されるものではない。
段階S326で、第2デバイス200は、受信されたユーザ入力及び確認された通信方法に基づいて、第1動画の一部領域を、関心領域として選択する。第2デバイス200は、第1動画でタッチ入力された地点の位置に基づいて、一部領域を選択することができる。具体的には、ユーザが、第1動画で所定の地点をタッチすれば、第2デバイス200は、タッチされた地点を含む客体を識別し、識別された客体を含む領域を選択することができる。例えば、第1動画で、顔の部分がタッチされた場合、第2デバイス200は、タッチされた地点を含む客体である顔を識別することができる。また、第2デバイス200は、識別された顔を含む領域を、関心領域として選択することができる。
また、ユーザが、第1動画で所定の地点をタッチすれば、第2デバイス200は、タッチされた地点から、既設定の範囲の領域を、関心領域として選択することができる。例えば、第2デバイス200は、タッチされた地点を中心とする所定サイズの四角形の領域を、関心領域として選択することができる。
また、第2デバイス200は、ユーザ・インターフェースを介したユーザのタッチ入力によって、選択された関心領域を変更することもできる。
また、第1動画で選択される関心領域の大きさは、第1デバイス100と第2デバイス200との通信方法によって決定されもする。例えば、第1動画で選択される関心領域の大きさは、通信方法の種類及び帯域幅のうち少なくとも一つに基づいて決定される。また、例えば、第1動画で選択される関心領域の大きさは、第1デバイス100と第2デバイス200との間で伝送されるデータのストリーミング解像度の高さに基づいて決定される。また、第1デバイス100と第2デバイス200との通信方法によって、第1動画で選択される関心領域の大きさの上限値が決定されもする。
図4では、第2デバイス200が、ユーザ入力に基づいて、第1動画の一部領域を選択すると説明したが、それに制限されるものではない。第2デバイス200は、別途のユーザ入力なしに、第1動画に含まれた顔を認識し、顔を含む所定の領域を、関心領域として選択することができる。また、その場合、第1デバイス100と第2デバイス200との通信方法によって、選択される関心領域の大きさが決定される。
図5は、本発明の一実施形態による、第1デバイス100と第2デバイス200との通信方法が変更される場合、第1デバイス100が選択された関心領域を変更し、変更された領域に係わる動画を、第2デバイス200に提供する方法のフローチャートである。
段階S500で、第1デバイス100は、第2デバイスとの通信方法が変更されたか否かを判断する。具体的には、第1デバイス100は、第2デバイス200との通信方法の種類及び帯域幅が変更されたか否かを確認することができる。また、第2デバイス200は、第1デバイス100及び第2デバイス200間で伝送されるデータのストリーミング解像度が変更されたか否かを確認することができる。
第1デバイス100と第2デバイス200との通信方法は、例えば、3G(third generation)通信、4G(fourth generation)通信、Wifi通信を含んでもよいが、それらに制限されるものではない。また、第1デバイス100と第2デバイス200との通信方法は、第1デバイス100及び第2デバイス200のうち少なくとも一つがハンドオーバーを行うことによって変更されもする。
段階S500での判断結果、通信方法が変更された場合、段階S510で、第1デバイス100は、第2デバイス200に伝送されている第2動画に対応する領域を変更する。第1デバイス100と第2デバイス200との通信方法が変更されることにより、第1デバイス100は、第2動画に対応する領域の大きさを変更することができる。
例えば、第1デバイス100と第2デバイス200との通信方法の種類が、3G通信からWi−Fi通信に変更された場合、第2動画に対応する領域より大きい領域を選択することができる。第1デバイス100と第2デバイス200との通信方法の種類が、3G通信であるとき、第1デバイス100が顔の部分の領域を伝送した場合、第1デバイス100と第2デバイス200との通信方法の種類がWi−Fi通信に変更されるなら、第1デバイス100は、顔以外の背景部分をさらに含むように、一部領域を選択することができる。また、例えば、第1デバイス100と第2デバイス200との通信方法の種類が、4G通信からWi−Fi通信に変更された場合、第2動画に対応する領域より小さい領域を選択することができる。
また、例えば、第1デバイス100と第2デバイス200との間で伝送されるデータのストリーミング解像度が変更された場合、第2動画に対応する領域の大きさを変更することができる。
通信方法の種類及び帯域幅のうち少なくとも一つに対応する、領域の大きさ値は、あらかじめ設定され、第1デバイス100に保存される。また、第1デバイス100及び第2デバイス200間で伝送されるデータのストリーミング解像度に対応する、領域の大きさ値は、あらかじめ設定され、第1デバイス100に保存される。
段階S520で、第1デバイス100は、変更された領域に係わる動画を、第2デバイス200に提供する。例えば、第1デバイス100と第2デバイス200との通信方法の種類が、3G通信からWi−Fi通信に変更された場合、第1デバイス100は、第2動画に対応する領域よりさらに大きい領域に係わる動画を、第2デバイス200に提供することができる。また、例えば、第1デバイス100と第2デバイス200との間で伝送されるデータのストリーミング解像度の高さが低くなった場合、第1デバイス100は、第2動画に対応する領域より小さい領域に係わる動画を、第2デバイス200に提供することができる。
図6は、本発明の一実施形態による、第1デバイス100と第2デバイス200との通信方法が変更される場合、第1デバイス100が変更された画質の動画を、第2デバイス200に提供する方法のフローチャートである。
段階S600で、第1デバイス100は、第2デバイスとの通信方法が変更されたか否かを判断する。具体的には、第1デバイス100は、第2デバイス200との通信方法の種類及び帯域幅が変更されたか否かを確認することができる。また、第2デバイス200は、第1デバイス100及び第2デバイス200間で伝送されるデータのストリーミング解像度が変更されたか否かを確認することができる。
段階S600での判断結果、通信方法が変更された場合、段階S610で、第1デバイス100は、第2デバイス200に送信中の第2動画の画質を変更する。第1デバイス100と第2デバイス200との通信方法が変更されることにより、第1デバイス100は、第2動画の画質を、高画質または低画質に変更することができる。
例えば、第1デバイス100と第2デバイス200との通信方法の種類が、3G通信からWi−Fi通信に変更された場合、第2動画の画質を、3G通信での画質より高画質に変更することができる。また、例えば、第1デバイス100と第2デバイス200との通信方法の種類が、4G通信からWi−Fi通信に変更された場合、第2動画の画質を、4G通信での画質より低画質に変更することができる。
また、例えば、第1デバイス100と第2デバイス200との間で伝送されるデータのストリーミング解像度が変更された場合、第2動画の画質を変更することもできる。
通信方法の種類及び帯域幅のうち少なくとも一つに対応する画質値は、あらかじめ設定され、第1デバイス100に保存される。また、第1デバイス100及び第2デバイス200間で伝送されるデータのストリーミング解像度に対応する画質は、あらかじめ設定され、第1デバイス100に保存される。
段階S620で、第1デバイス100は、変更された画質の動画を、第2デバイス200に提供する。第1デバイス100は、変更された画質に適する画質の動画を、第2デバイス200に提供することができる。
図7は、本発明の他の実施形態による、第1デバイス100が、撮影中である動画の一部領域に対応する客体を含む動画を、第2デバイス200に提供する方法のフローチャートである。図7では、第1デバイス100が第2デバイス200から、第1動画の所定の地点に係わる座標情報を受信し、受信された座標情報を利用して、一部領域を、関心領域として選択することができる。
段階S700で、第1デバイス100は、第2デバイス200に、第1動画を提供する。第1デバイス100は、撮影された動画に基づいて、第1動画を第2デバイス200に提供することができる。第1デバイス100は、撮影された動画を別途の加工なしに第1動画にして、第2デバイス200に提供することができる。また、第1デバイス100は、撮影された動画を加工し、加工された動画を第1動画にして、第2デバイス200に提供することもできる。その場合、第1デバイス100は、撮影された動画の解像度を変更したり、あるいは所定の形式に変換することができる。例えば、撮影された動画の解像度が、第1デバイス100と第2デバイス200との間のストリーミング解像度より大きい場合、第1デバイス100は、撮影された動画の解像度をストリーミング解像度と同一になるように変換し、変換された解像度の第1動画を、第2デバイス200に提供することができる。
また、段階S700で、第1デバイス100は、原本解像度を有する第1動画を第1解像度で、外部機器に伝送することができる。その場合、第1デバイス100は、第2デバイス200に含まれたディスプレイの解像度に係わる情報を、あらかじめ獲得して保存することができ、第2デバイス200に含まれたディスプレイの解像度に基づいて、第1解像度を決定することができる。
段階S710で、第2デバイス200は、受信された第1動画をディスプレイする。第2デバイス200は、受信された第1動画を、第2デバイス200の画面にディスプレイすることができる。第2デバイス200は、第1解像度の第1動画を、画面にディスプレイすることができる。
段階S720で、第2デバイス200は、画面に表示された第1動画に対するユーザのタッチ入力を受信する。第2デバイス200は、画面に表示された第1動画の1地点を選択するユーザのタッチ入力を、受信することができる。また、第2デバイス200は、タッチされた地点に係わる座標情報を生成することができる。
段階S730で、第2デバイス200は、第1デバイス100にタッチされた地点に係わる座標情報を提供する。
段階S740で、第1デバイス100は、受信された座標情報に基づいて、第2デバイス200に提供する第1動画の一部領域を、関心領域として決定する。第1デバイス100は、タッチ入力された地点の位置に基づいて、一部領域を選択することができる。具体的には、第1デバイス100は、タッチされた地点を含む客体を識別し、識別された客体を含む領域を選択することができる。例えば、第1動画で、顔の部分がタッチされた場合、第1デバイス100は、タッチされた地点を含む客体である顔を識別することができる。また、第1デバイス100は、識別された顔を含む領域を、関心領域として選択することができる。
また、第1デバイス100は、タッチされた地点から、既設定の範囲の領域を、関心領域として選択することができる。例えば、第1デバイス100は、タッチされた地点を中心とする所定サイズの四角形の領域を、関心領域として選択することができる。
段階S750で、第1デバイス100は、決定された一部領域に含まれた客体を識別する。例えば、第1デバイス100は、タッチされた地点から、既設定の範囲の領域を、関心領域として選択した場合、第1デバイス100は、選択された領域に含まれた客体を、第1動画から識別することができる。
また、第1デバイス100は、決定された関心領域に基づいて、撮影された動画から客体を識別することもできる。決定された関心領域は、第1動画の一部領域であるために、第1デバイス100は、決定された第1動画の関心領域にマッチングされる領域を、撮影中である動画から確認することができる。また、マッチングされた領域に含まれた客体を、撮影中である動画から識別することができる。
また、第1デバイス100は、第1動画から識別された客体を利用して、撮影中である動画に含まれた客体を識別することもできる。第1デバイス100は、第1動画から識別された客体のイメージと、既設定の数値以上に類似の客体を、撮影中である動画から識別することができる。
段階S760で、第1デバイス100は、識別された客体を追跡する。第1デバイス100は、第1動画から識別された客体を追跡することができる。また、第1デバイスは、撮影された動画から識別された客体を追跡することもできる。
段階S770で、第1デバイス100は、第2デバイス200に、追跡された客体を含む第2動画を提供する。第1デバイス100は、撮影された動画から識別された客体を含む領域を切り取り、切り取った動画を第2動画にして、第2デバイス200に提供することができる。
具体的には、第1デバイス100は、受信された領域情報に基づいて、原本解像度の第1動画の画面で、関心領域に対応する領域を決定することができる。また、第1デバイス100は、決定された領域のみを含むように、第1動画を第2動画に変換することができる。また、第1デバイス100は、第2動画を第1解像度で、第2デバイス200に提供することができる。例えば、原本解像度が1000x1000であり、第1解像度が100x100である場合、第1デバイス100は、決定された領域に対応する第1動画の一部分を第2動画に変換し、第2動画を、100x100の解像度で第2デバイス200に伝送することができる。
また、第1デバイス100と第2デバイス200との通信方法によって、第1デバイス100は、第2動画に対応する領域の大きさを決定することができる。また、第1デバイス100と第2デバイス200との通信方法によって、第1デバイス100は、第2動画の画質を決定することもできる。第1デバイス100と第2デバイス200との通信方法は、例えば、3G(third generation)通信、4G(fourth generation)通信、Wifi通信を含んでもよいが、それらに制限されるものではない。
また、第1デバイス100と第2デバイス200との通信方法が変更されることにより、第1デバイス100は、第2動画に対応する領域の大きさ、または第2動画の画質を、変更することができる。第1デバイス100と第2デバイス200との通信方法は、第1デバイス100及び第2デバイス200のうち少なくとも一つが、ハンドオーバーを行うことによって変更されもする。
段階S780で、第2デバイス200は、受信された第2動画をディスプレイする。第2デバイス200のユーザは、選択された一部領域に含まれた客体に係わるさらに詳細な動画を確認することができる。
一方、第2デバイス200は、第2デバイス200の画面に、第1動画及び第2動画を共にディスプレイすることができる。その場合、段階S770で、第2デバイス200は、第2動画だけではなく、第1動画を共に受信することができる。また、第2デバイス200は、第1動画上に、第2動画をオーバーラップして表示することができる。第2デバイス200は、第1動画で、第1デバイス100のユーザが表示されていない部分に、第2動画をオーバーラップすることができる。また、第2デバイス200は、第1動画が表示される領域の大きさ、及び第2動画が表示される領域の大きさを調節することができる。しかし、それに制限されるものではなく、第2デバイス200は、第1動画及び第2動画をオーバーラップせずに、第2デバイス200の画面にディスプレイすることもできる。
図8A及び図8Bは、本発明の一実施形態による、ユーザのタッチ地点を含む客体が含まれるように、第2デバイス200が第1動画の一部領域を、関心領域として決定する一例を図示した図面である。
図8A及び図8Bを参照すれば、ユーザが、第2デバイス200の画面に表示された第1動画で、所定の地点80をタッチする場合、第2デバイス200は、タッチされた地点80を含む顔82を含む領域84を、第1動画の一部領域として決定することができる。
具体的には、ユーザが、第2デバイス200の画面に表示された第1動画で、所定の地点80をタッチする場合、第2デバイス200は、タッチされた地点80を含む顔82を識別することができる。また、第2デバイス200は、識別された顔82を含む領域84を選択することができる。その場合、領域84の大きさは、第1デバイス100と第2デバイス200との通信方法に基づいて決定される。
また、例えば、ユーザが、第2デバイス200の画面に表示された所定のメニューをタッチすれば、第2デバイス200の画面に所定のボックスが表示され、ユーザは、表示されたボックスを移動させたり、あるいはボックスの大きさを調節して関心領域を選択することもできる。その場合、ボックスを移動させたり、あるいはボックスの大きさを調節するための別途のユーザ・インターフェースが、第2デバイス200の画面に表示されもする。
図9A及び図9Bは、本発明の一実施形態による、第2デバイス200がユーザのタッチ地点から既設定の範囲の一部領域を、関心領域として決定する一例を図示した図面である。
図9A及び図9Bを参照すれば、ユーザが、第2デバイス200の画面に表示された第1動画で、所定の地点90をタッチする場合、タッチされた地点90を中心とする所定サイズの四角形の領域92を、第1動画の一部領域として決定することができる。その場合、領域92の大きさは、第1デバイス100と第2デバイス200との通信方法に基づいて決定される。
一方、第2デバイス200は、ユーザのアンピンチング(unpinching)入力に基づいて、関心領域を決定することもできる。ユーザが、第2デバイス200の画面に表示された第2動画の所定部分を、アンピンチングを介して拡大し、タッチされた指を所定時間以上ホールドすれば、第2デバイス200は、ユーザのアンピンチング入力によって拡大された領域を、関心領域として決定することができる。また、第2デバイス200は、決定された関心領域に対応する第2動画を、第1デバイス100に要請することができる。
図10A及び図10Bは、本発明の一実施形態による、一部領域を決定するためのユーザ・インターフェースを利用して、第2デバイス200が第1動画の一部領域を、関心領域として決定する一例を図示した図面である。
図10A及び図10Bを参照すれば、第2デバイス200は、第1動画の一部領域を選択するためのガイドライン10を画面に表示することができる。また、ユーザが、ガイドライン10の一部をタッチしてドラッグすれば、第2デバイス200は、ガイドライン10の大きさを変更することができる。また、第2デバイス200は、変更されたガイドライン10に含まれた領域を、第1動画の関心領域として決定することができる。その場合、ガイドライン10に含まれた領域の大きさの上限値は、第1デバイス100と第2デバイス200との通信方法に基づいて決定される。
図11A及び図11Bは、本発明の一実施形態による、第1デバイス100と第2デバイス200との通信方法で変更される場合、第2デバイス200が第1デバイス100から、解像度が変更された動画を提供される一例を図示した図面である。図11Aは、通信方法が変更される前、第2デバイス200にディスプレイされた動画の一例を図示した図面であり、図11Bは、通信方法が変更された後、第2デバイス200にディスプレイされた動画の一例を図示した図面である。
第1デバイス100と第2デバイス200との通信方法が変更され、第1デバイス100と第2デバイス200との間で伝送されるデータのストリーミング解像度が低くなる。その場合、第2デバイス200は、通信方法が変更される前の動画より低い解像度の動画を、第1デバイス100から受信する。また、第2デバイス200は、通信方法が変更された後で受信される動画を、通信方法が変更される前の動画より小サイズにディスプレイする。
図12A及び図12Bは、本発明の一実施形態による、第1デバイス100と第2デバイス200との通信方法で変更される場合、第2デバイス200が第1デバイス100から、画質が変更された動画を提供される一例を図示した図面である。図12Aは、通信方法が変更される前、第2デバイス200にディスプレイされた動画の一例を図示した図面であり、図12Bは、通信方法が変更された後、第2デバイス200にディスプレイされた動画の一例を図示した図面である。
第1デバイス100と第2デバイス200との通信方法が変更され、第1デバイス100と第2デバイス200との間で伝送されるデータのストリーミング解像度が低くなる。その場合、第2デバイス200は、通信方法が変更される前の動画より低画質の動画を、第1デバイス100から受信する。また、第2デバイス200は、通信方法が変更された後に受信される動画を、通信方法が変更される前の動画と同一サイズにディスプレイすることができる。
図13A及び図13Bは、本発明の一実施形態による、第1デバイス100と第2デバイス200との通信方法で変更される場合、第2デバイス200が第1デバイス100から、変更された一部領域に係わる動画を提供される一例を図示した図面である。図13Aは、通信方法が変更される前、第2デバイス200にディスプレイされた動画の一例を図示した図面であり、図13Bは、通信方法が変更された後、第2デバイス200にディスプレイされた動画の一例を図示した図面である。
第1デバイス100と第2デバイス200との通信方法が変更され、第1デバイス100と第2デバイス200との間で伝送されるデータのストリーミング解像度が高くなる。その場合、第2デバイス200は、通信方法が変更される前の動画より広い領域に係わる動画を、第1デバイス100から受信することができる。
図14は、本発明の一実施形態による、第1デバイス100のブロック図である。
図14に図示されたように、本発明の一実施形態による、第1デバイス100は、映像獲得部110、映像提供部120、客体識別部130、客体追跡部140、ネットワーク確認部150、フレームバッファ190、DB(database)160、送受信部170及び制御部180を含む。
映像獲得部110は、第2デバイス200に提供する映像を獲得する。映像獲得部110は、第1デバイス100に含まれた撮影装置またはイメージセンサを介して撮影された動画を獲得することができるが、それに制限されるものではない。映像獲得部110は、写真、キャプチャ・イメージなどのコンデンツを獲得することもできる。
第1デバイス100で実行されたアプリケーションの実行画面に対応する第3映像を、第2デバイス200に提供する場合には、映像獲得部110は、フレームバッファ190から、アプリケーションの実行画面に対応する第3映像を獲得することができる。しかし、それに制限されるものではなく、映像獲得部110は、後述するフレームバッファ190から、アプリケーションの実行画面に対応する映像を抽出し、抽出された映像を加工し、第3映像を生成することもできる。
映像提供部120は、第2デバイス200に、獲得された映像を提供する。映像提供部120は、獲得された映像を加工し、第2デバイス200に提供することができるが、それに制限されるものではない。映像提供部120は、獲得された映像を、別途の加工なしに第2デバイス200に提供することもできる。
また、映像提供部120は、第1デバイス100によって撮影された動画に基づいて、第1動画及び第2動画を、第2デバイス200に提供することができる。映像提供部120は、撮影された動画を、別途の加工なしに第1動画にして、第2デバイス200に提供することができる。また、映像提供部120は、撮影された動画を加工し、加工された動画を第1動画にして、第2デバイス200に提供することもできる。その場合、映像提供部120は、撮影された動画の解像度または画質を変更したり、あるいは動画のフォーマットを変換することができる。
また、映像提供部120は、原本解像度を有する第1動画を第1解像度で、第2デバイス200に伝送することができる。その場合、第1デバイス100は、第2デバイス200に含まれたディスプレイの解像度に係わる情報を、あらかじめ獲得して保存することができ、第2デバイス200に含まれたディスプレイの解像度に基づいて、第1解像度を決定することができる。
また、映像提供部120は、後述する客体追跡部140によって追跡された客体を含む第2動画を、第2デバイス200に提供することができる。第2動画は、追跡された客体を含む一部領域のみを含んでもよい。また、映像提供部120は、第1デバイス100と第2デバイス200との通信方法が変更される場合、第2動画の解像度または画質を変更し、変更された動画を、第2デバイス200に提供することができる。また、映像提供部120は、第1デバイス100と第2デバイス200との通信方法が変更される場合、第2動画に対応する一部領域の大きさを変更し、変更された一部領域に係わる動画を、第2デバイス200に提供することができる。
一方、映像提供部120は、第1デバイス100で実行されたアプリケーションの実行画面に対応する第3映像を、第2デバイス200に提供することができる。また、第2デバイス200が、第1デバイス100から受信された第3映像の一部分を選択し、選択された部分に係わる映像を要請すれば、第1デバイス100は、選択された部分に対応する第4映像を、第2デバイス200に提供することができる。その場合、第4映像は、第3映像で選択された部分を切り取ることによって生成された映像でもある。
客体識別部130は、獲得された映像から客体を識別する。客体識別部130は、第2デバイス200から、第1動画の一部領域に係わる領域情報を受信し、撮影された動画または第1動画から、客体を識別することができる。
客体追跡部140は、獲得された映像から客体を追跡する。客体追跡部140は、識別された客体を、第1動画または撮影された動画で追跡することができる。
ネットワーク確認部150は、第1デバイス100と第2デバイス200との通信方法を確認する。ネットワーク確認部150は、第1デバイス100と第2デバイス200との通信方法の種類及び帯域幅を確認することができる。また、ネットワーク確認部150は、第1デバイス100及び第2デバイス200間で伝送されるデータのストリーミング解像度を確認することができる。
フレームバッファ190は、第1デバイス100で実行されたアプリケーションの実行画面に対応するイメージを保存する。
DB 160は、第1デバイス100が、第2デバイス200に所定の一部領域に係わる映像を提供するのに必要な各種の情報を保存する。
送受信部170は、第1デバイス100が、第2デバイス200に所定の一部領域に係わる映像を提供するのに必要な各種の情報を、第2デバイス200と送受信する。
制御部180は、第1デバイス100が、第2デバイス200に所定の一部領域に係わる映像を提供するように、映像獲得部110、映像提供部120、客体識別部130、客体追跡部140、ネットワーク確認部150、フレームバッファ190、DB 160、及び送受信部170を制御する。
図15は、本発明の一実施形態による第2デバイス200のブロック図である。
図15に図示されたように、本発明の一実施形態による、第2デバイス200は、映像受信部210、ユーザ入力部220、ネットワーク確認部230、領域情報生成部240、領域情報提供部250、ディスプレイ部260、DB(database)270、送受信部280及び制御部290を含む。
映像受信部210は、第1デバイス100から映像を受信する。映像受信部210は、第1デバイス100から、第1動画及び第2動画を受信することができる。また、通信方法が変更される場合、映像受信部210は、第1デバイス100から、解像度または画質が変更された動画を受信することができるが、それに制限されるものではない。
一方、第1デバイス100で実行されたアプリケーションの実行画面に対応する第3映像を提供した場合、映像受信部210は、第1デバイス100から、第3映像を受信することができる。
ユーザ入力部220は、第1動画の一部領域を選択するためのユーザ入力を受信する。例えば、ユーザ入力部220は、第1動画の所定地点をタッチするユーザ入力を受信したり、あるいは第1動画の所定地点をタッチ&ドラッグするユーザ入力を受信することができる。また、ユーザ入力部220は、画面上に表示された所定のユーザ・インターフェースを介したユーザのタッチ入力を受信することもできる。一方、第1デバイス100で実行されたアプリケーションの実行画面に対応する第3映像を提供した場合、ユーザ入力部220は、第3映像の一部領域を選択するためのユーザ入力を受信する。
ネットワーク確認部230は、第1デバイス100と第2デバイス200との通信方法を確認する。ネットワーク確認部230は、第1デバイス100と第2デバイス200との通信方法の種類及び帯域幅を確認することができる。また、ネットワーク確認部230は、第1デバイス100及び第2デバイス200間で伝送されるデータのストリーミング解像度を確認することができる。
領域情報生成部240は、ユーザ入力及び確認された通信方法に基づいて、第1動画の一部領域を選択する。領域情報生成部240は、第1動画に含まれた客体に係わる領域情報を生成することができる。領域情報生成部240は、第1動画でタッチ入力された地点の位置に基づいて、一部領域を選択することができる。具体的には、ユーザが、第1動画で、所定の地点をタッチすれば、領域情報生成部240は、タッチされた地点を含む客体を識別し、識別された客体を含む領域を選択することができる。
また、ユーザが、第1動画で、所定の地点をタッチすれば、領域情報生成部240は、タッチされた地点から、既設定の範囲の領域を一部領域として選択することができる。また、領域情報生成部240は、ユーザ・インターフェースを介したユーザのタッチ入力によって、選択された一部領域を変更することもできる。また、第1動画で選択される一部領域の大きさは、第1デバイス100と第2デバイス200との通信方法によって決定されもする。
領域情報提供部250は、生成された領域情報を、第1デバイス100に提供する。
領域情報提供部250は、選択された一部領域に係わる座標値を、第1デバイス100に提供することができる。また、領域情報提供部250は、ユーザによってタッチ入力された地点の座標値を、第1デバイス100に提供することもできる。
ディスプレイ部260は、第1デバイス100から受信される映像を画面に表示する。ディスプレイ部260は、第1デバイス100から受信される動画を画面に表示することができる。
DB 270は、第2デバイス200が、第1デバイス100から受信される第1動画の一部領域に係わる動画を受信することができるように、各種の情報を保存する。
送受信部280は、第2デバイス200が、第1デバイス100から受信される第1動画の一部領域に係わる動画を受信することができるように、各種の情報を、第1デバイス100と送受信する。
制御部290は、第2デバイス200が、第1デバイス100から受信される第1動画の一部領域に係わる動画を受信することができるように、映像受信部210、ユーザ入力部220、ネットワーク確認部230、領域情報生成部240、領域情報提供部250、ディスプレイ部260、DB 270、及び送受信部280を制御する。
図16は、本発明の他の実施形態によるデバイスのブロック図である。図16に図示されたデバイスは、本発明の一実施形態による、第1デバイス100または第2デバイス200でもある。
移動通信部1001は、3G/4Gのようなセルラネットワークを介して、基地局とのコール設定、データ通信などを行う。サーブ通信部1002は、ブルートゥースやNFC(near field communication)のような近距離通信のための機能を遂行する。放送部1003は、DMB(digital multimedia broadcasting)放送信号を受信する。
カメラ部1004は、写真や動画を撮影するためのレンズ及び光学素子を含む。
センサ部1005は、デバイスの動きを感知する重力センサ、光の明るさを感知する照度センサ、人の近接度を感知する近接センサ、人の動きを感知するモーションセンサなどを含んでもよい。
GPS(global positioning system)受信部1006は、人工衛星からGPS信号を受信する。このようなGPS信号を利用して、多様なサービスがユーザに提供されもする。
入出力部1010は、外部機器や人とのインターフェースを提供し、ボタン1011、マイク1012、スピーカ1013、振動モータ1014、コネクタ1015、キーパッド1016を含む。
タッチスクリーン1018は、ユーザのタッチ入力を受信する。ここでのタッチ入力は、ドラッグ・ジェスチャによるものでもあり、タップ・ジェスチャによるものでもある。タッチスクリーン・コントローラ1017は、タッチスクリーン1018を介して入力されたタッチ入力を、制御部1050に伝達する。電源供給部1019は、デバイスに必要な電力を供給するために、バッテリまたは外部電源ソースと連結される。
制御部1050は、メモリ1060に保存されたプログラムを実行することにより、本発明によって、デバイスに表示されたコンデンツの一部領域を表示して変更する。
メモリ1060に保存されたプログラムは、その機能によって複数個のモジュールに分類することができるが、移動通信モジュール1061、Wi−Fiモジュール1062、ブルートゥース・モジュール1063、DMBモジュール1062、カメラ・モジュール1065、センサ・モジュール1066、GPSモジュール1067、動画再生モジュール1068、オーディオ再生モジュール1069、電源モジュール1070、タッチスクリーン・モジュール1071、UI(user interface)モジュール1072、アプリケーション・モジュール1073などに分類されもする。各モジュールの機能は、その名称から、当業者が直観的に推論することができるであろう。
以下では、アプリケーション・モジュール1073について、詳細に説明する。
まず、図16のデバイスが、第1デバイス100である場合、アプリケーション・モジュール1073は、デバイスに含まれたモジュールを利用して、撮影される動画に基づいて、第1動画を第2デバイス200に提供し、第2デバイス200から、第1動画の一部領域に係わる領域情報を受信することができる。また、アプリケーション・モジュール1073は、デバイスに含まれたモジュールを利用して、一部領域に対応する客体を識別して追跡することができ、追跡された客体を含む第2動画を、第2デバイス200に提供することができる。また、アプリケーション・モジュール1073は、デバイスに含まれたモジュールを利用して、第2デバイス200との通信方法を確認することができ、通信方法が変更された場合、第2動画に比べて解像度または画質が変更された動画を、第2デバイス200に提供することができる。
また、図16のデバイスが、第2デバイス200である場合、アプリケーション・モジュール1073は、デバイスに含まれたモジュールを利用して、第1デバイス100から第1動画を受信し、第1動画の一部領域を選択することができる。その場合、一部領域の大きさは、第1デバイス100と第2デバイス200との通信方法に基づいて決定される。また、アプリケーション・モジュール1073は、デバイスに含まれたモジュールを利用して、選択された一部領域に係わる領域情報を生成し、第1デバイス100に提供することができる。また、アプリケーション・モジュール1073は、デバイスに含まれたモジュールを利用して、第2デバイス200から受信された第2動画をディスプレイすることができる。
図17A〜図17Cは、本発明の一実施形態による、第2デバイス200に表示された第1動画の画面の一部領域を拡大する一例を図示した図面である。
図17A〜図17Cに図示されたように、本発明の一実施形態による、第2デバイス200は、ユーザのタッチ及びドラッグ入力に基づいて、第1動画の一部領域を拡大することができる。その場合、第2デバイス200は、第1動画の原本解像度に基づいて、第1動画の拡大程度を決定することができる。具体的には、図17Aでのように、ユーザが、第1動画の画面をマルチタッチしてドラッグすれば、図17Bでのように、第1動画の一部分が拡大される。また、第2デバイス200は、第1動画の原本解像度、及び第2デバイス200の画面サイズを考慮し、第1動画が拡大される程度を決定することができる。従って、図17Cでのように、ユーザがタッチを続けてドラッグしても、第1動画は、図17Bで拡大された程度以上に拡大されない。
また、第2デバイス200は、第1動画の拡大程度を決定するために、第1デバイス100から、第1動画の原本解像度に係わる情報をあらかじめ受信して保存することができるが、それに制限されるものではない。
図18A〜図18Cは、本発明の一実施形態による、第2デバイス200に表示された動画の画面が段階的に拡大される一例を図示した図面である。
図18Aに図示されたように、動画の一部領域が選択され、選択された領域が一次的に拡大され、その後、拡大された動画の一部領域が選択されることにより、選択された領域が二次的に拡大される。
図19A〜図19Cは、本発明の一実施形態による、第2デバイス200で、第1動画の一部領域が拡大されたプレビュー映像が表示された後、第1デバイス100から提供された第2動画が表示される一例を図示した図面である。第1デバイス100及び第2デバイス200は、互いに映像通話が可能である。
図19Aに図示されたように、ユーザは、第2デバイス200に表示された第1動画の画面の一部分10を、関心領域として選択することができる。第2デバイス200は、第1解像度を有する第1動画を、第1デバイス100から受信し、受信された第1動画を、第2デバイス200の画面に表示することができる。
その後、図19Bに図示されたように、第2デバイス200には、選択された関心領域を拡大したプレビュー映像がディスプレイされ、第1デバイス100には、第1動画の一部を拡大して提供するか否かを決定するためのメニュー12がディスプレイされる。また、第1デバイス100には、第2デバイス200で、第1動画のいずれの部分が拡大されたかが所定の領域14に表示される。
また、ユーザがメニュー12から、「許容(ALLOW)」を選択すれば、図19Cでのように、第1デバイス100は、選択された関心領域に係わる第2動画を、第2デバイス200に提供し、第2デバイス200は、受信された第2動画をディスプレイすることができる。その場合、第1デバイス100は、選択された関心領域に係わる第2動画を第1解像度で、第2デバイス200に提供することができる。
一方、第1デバイス100は、第2動画を第2デバイス200に提供するとき、第2動画が、選択された関心領域に係わる拡大映像であるか否かを知らせるためのお知らせ情報(notification information)を、第2動画に挿入することができる。具体的には、第1デバイス100は、第1動画及び第2動画を、第2デバイス200にストリーミングすることができ、第1動画の送信を中断して第2動画を伝送するとき、第2動画内に、お知らせ情報を挿入することができる。例えば、第1デバイス100が、第1動画の送信を中断して第2動画を伝送するとき、第1デバイス100は、ストリーミング・レベル(streaming level)で、所定のパケット内に、所定のパラメータ値を挿入することにより、第2動画の提供を、第2デバイス200に知らせることができる。また、お知らせ情報は、図20に図示されたRTP(real-time transfer protocol)パケット・ヘッダに挿入されもする。
図20は、本発明の一実施形態による、RTP(real-time transfer protocol)パケット・ヘッダの一例を図示した図面である。
第1デバイス100から第2デバイス200に提供される第2動画の各フレームは、複数のRTPパケットを含んでもよい。また、第1デバイス100は、第2動画の各フレームに対応する複数のRTPパケットのうち、所定のパケットに、お知らせ情報を挿入することができる。例えば、第1デバイス100は、第2動画の各フレームに対応する複数のRTPパケットのヘッダに含まれたRTP Markerフィールド90のビット値が「1」であるRTPパケットに、お知らせ情報を挿入することができる。
また、第1デバイス100は、第2動画のフレームのうち、所定のフレームに、お知らせ情報を挿入することができる。例えば、第1デバイス100は、第2動画の最初のフレームから既設定の個数のフレームに対して、お知らせ情報を挿入することができる。しかし、それに制限されるものではない。
また、第1デバイス100は、お知らせ情報を、RTPパケット・ヘッダのHeader extensionフィールド92に挿入することができる。お知らせ情報は、所定のビット値を有することができる。また、お知らせ情報は、所定の領域情報を含んでもよい。領域情報は、第1デバイス100、が第1動画のいずれの部分を切り取って第2動画を生成したかを示す情報でもある。例えば、領域情報は、第1動画または原本動画の全体画面のうち、第2動画の画面に対応する部分の位置を示す値でもある。また、領域情報は、所定の座標値を有することができる。
図21は、本発明の一実施形態による、第1デバイス100が第4映像を生成する方法のフローチャートである。第1デバイス100は、第1デバイス100で実行されたアプリケーションの実行画面に対応する第3映像を、第2デバイス200に提供することができ、第2デバイス200から、第3映像の一部分に係わる領域情報を受信し、第4映像を生成することができ、生成された第4映像を、第2デバイス200に提供することができる。
段階S2100で、第1デバイス100は、第1デバイス100内のフレームバッファから第3映像を獲得する。フレームバッファは、第1デバイス100で実行されているアプリケーションの実行画面に対応する第3映像を保存することができる。
段階S2200で、第1デバイス100は、第2デバイス200から受信された領域情報に基づいて、第3映像の一部を切り取ることができる。また、第1デバイス100は、切り取った第3映像の一部をエンコーディングし(S2300)、パケッタイジング(packetizing)することができる(S2400)。
図22は、本発明の一実施形態による、第1デバイス100と映像通話を行っている第2デバイス200が、第1動画の一部領域に係わり、拡大された第2動画を受信する方法のフローチャートである。
段階S2205で、第1デバイス100及び第2デバイス200は、映像通話のために連結される。
段階S2210で、第1デバイス100は、第1動画を第2デバイス200に提供する。第1デバイス100は、第1デバイス100のユーザを撮影し、映像通話のための第1動画を生成することができる。また、第1デバイス100は、生成された第1動画を、第2デバイス200に伝送することができる。
段階S2220で、第2デバイス200は、第1デバイス100から受信された第1動画を、第2デバイス200の画面にディスプレイする。
段階S2230で、第2デバイス200は、第1動画のうち、拡大しようとする一部領域を選択する。第2デバイス200は、第1動画で、例えば、第1デバイス100のユーザの口部分を選択したり、あるいは第1デバイス100のユーザが手にしている本の表紙部分を選択することができる。その場合、第2デバイス200は、ユーザのタッチ入力に基づいて、一部領域を選択することができるが、それに制限されるものではない。映像通話時に拡大される一部領域があらかじめ設定されもし、第2デバイス200は、第1デバイス100のユーザの映像のうち、あらかじめ設定された一部領域を選択することができる。
例えば、第2デバイス200は、第1デバイス100のユーザの顔映像のうち、ユーザの口部分をトラッキングすることにより、ユーザの口部分を一部領域として選択することができる。具体的には、第2デバイス200は、第1デバイス100のユーザの映像から顔認識情報を検出し、検出された顔認識情報に基づいて、第1デバイス100のユーザの顔のうち、口部分をトラッキングして選択することができる。顔認識情報を検出する方法は、特徴基盤方法(feature-based method)、外形基盤方法及びハイブリッド方法を含んでもよい。特徴基盤方法は、顔の幾何学的情報を利用したり、あるいは顔の特徴成分(例えば、目、鼻、口、あごなど)を利用して、その大きさと形態、相互連関性、あるいはそれら要素の混合した形態の情報を利用して、顔を認識する方法である。特徴基盤方法は、例えば、純粋幾何学的方法(pure geometry method)、動的連結構造(dynamic link architecture)基盤の方法、隠匿マルコフモデル(hidden Markov model)基盤の方法を含んでもよい。また、外形基盤方法(appearance-based method)は、学習映像集合によって学習されたモデルを利用して、顔を認識する方法である。外形基盤方法は、例えば、主成分分析によって生成される固有の顔を利用する方法、線形判別式解釈を利用する方法、神経網を利用する方法、サポートベクトルマシンを利用する方法を含んでもよい。また、ハイブリッド方法は、特徴基盤方法及び外形基盤方法を混用する方法である。ハイブリッド方法は、例えば、線形特徴分析(linear feature analysis)基盤の方法、形態正規化(shape-normalized)基盤の方法、及びコンポーネント基盤の方法を含んでもよい。しかし、本発明の一実施形態による顔認識情報検出方法は、前記3種の方法に限定されるものではなく、顔認識情報検出のために、多様な方法が利用されもする。
段階S2240で、第2デバイス200は、選択された一部領域の座標情報を第1デバイス100に伝送する。
段階S2250で、第1デバイス100は、第1動画のうち、第2デバイス200によって選択された一部領域を表示する。第1デバイス100は、第1動画のうち、第2デバイスによって選択された部分を、例えば、点線で表示することができる。また、第1デバイス100は、第1動画のうち、第2デバイスによって選択された部分のみを第1デバイス100の画面にディスプレイすることもできる。
段階S2260で、第1デバイス100は、選択された一部領域に係わる第2動画を、第2デバイス200に提供することを決定する。第1デバイス100は、別途のUI(user interface)をディスプレイして、UIを介したユーザ入力に基づいて、第2デバイス200によって選択された一部領域に係わる第2動画を、第2デバイス200に提供することを決定することができる。
段階S2270で、第1デバイス100は、選択された一部領域に対応する部分を撮影する。第1デバイス100は、例えば、第1デバイス100のユーザの口部分を撮影したり、あるいは第1デバイス100のユーザが手にしている本の表紙部分を撮影することができる。
段階S2280で、第1デバイス100は、第2動画を第2デバイス200に提供する。第1デバイス100は、選択された一部領域に対応する部分を撮影することにより、第2動画を生成することができ、生成された第2動画を、第2デバイス200に提供することができる。
段階S2290で、第2デバイス200は、第2動画をディスプレイする。
一方、第2デバイス200は、第2デバイス200の画面に、第1動画及び第2動画を共にディスプレイすることができる。その場合、段階S2280で、第2デバイス200は、第2動画だけではなく、第1動画を共に受信することができる。また、第2デバイス200は、第1動画上に、第2動画をオーバーラップして表示することができる。第2デバイス200は、第1動画で、第1デバイス100のユーザが表示されていない部分に、第2動画をオーバーラップさせることができる。また、第2デバイス200は、第1動画が表示される領域の大きさ、及び第2動画が表示される領域の大きさを調節することができる。しかし、それに制限されるものではなく、第2デバイス200は、第1動画及び第2動画をオーバーラップせずに、第2デバイス200の画面にディスプレイすることもできる。
図23は、本発明の一実施形態による、第1デバイス100と映像通話を行っている第2デバイス200が、第1動画の一部領域を拡大して表示する方法のフローチャートである。
段階S2305で、第1デバイス100及び第2デバイス200は、映像通話のために連結される。
段階S2310で、第1デバイス100は、第1動画を第2デバイス200に提供する。第1デバイス100は、第1デバイス100のユーザを撮影し、映像通話のための第1動画を生成することができる。また、第1デバイス100は、生成された第1動画を、第2デバイス200に伝送することができる。
段階S2320で、第2デバイス200は、第1デバイス100から受信された第1動画を、第2デバイス200の画面にディスプレイする。
段階S2330で、第2デバイス200は、第1動画のうち、拡大しようとする一部領域を選択する。第2デバイス200は、第1動画で、例えば、第1デバイス100のユーザの口部分を選択したり、あるいは第1デバイス100のユーザが手にしている本表紙部分を選択することができる。
その場合、第2デバイス200は、ユーザのタッチ入力に基づいて、一部領域を選択することができるが、それに制限されるものではない。映像通話時に拡大される一部領域があらかじめ設定されもし、第2デバイス200は、第1デバイス100のユーザの映像のうち、あらかじめ設定された一部領域を選択することができる。例えば、第2デバイス200は、第1デバイス100のユーザの顔映像のうち、ユーザの口部分をトラッキングすることにより、ユーザの口部分を一部領域として選択することができる。
段階S2340で、第2デバイス200は、第1動画のうち、段階S2330で選択された一部領域のみを、第2デバイス200の画面にディスプレイする。第2デバイス200は、第1動画のうちから選択された一部領域を、映像プロセッシングを介して拡大することができ、拡大された映像を、第2デバイス200の画面にディスプレイすることができる。例えば、第1動画の解像度が200x200であり、選択された一部領域の解像度が50x50である場合、第1デバイス100は、選択された一部領域の解像度を、200x200に拡大することができる。
一方、第2デバイス200は、拡大された映像を、第1動画上にオーバーラップさせることができる。第2デバイス200は、第1動画で、第1デバイス100のユーザが表示されていない部分に、拡大された映像をオーバーラップさせることができる。また、第2デバイス200は、第1動画が表示される領域の大きさ、及び拡大された映像が表示される領域の大きさを調節することができる。しかし、それに制限されるものではなく、第2デバイス200は、拡大された映像及び第2動画をオーバーラップせずに、第2デバイス200の画面にディスプレイすることもできる。
図24A〜図24Cは、本発明の一実施形態による、第1動画で選択された一部領域に係わる拡大映像が、第1動画のように、第2デバイス200の画面に表示される一例を図示した図面である。
図24Aを参照すれば、第2デバイス200の画面に表示された、第1デバイス100のユーザの顔で、口部分40が選択される。口部分40は、第2デバイス200のユーザによって選択される。しかし、それに制限されるものではなく、あらかじめ設定された基準によって、第2デバイス200が、第1動画で口部分40をトラッキングし、口部分40を選択することもできる。
また、図24Bを参照すれば、選択された口部分に係わる拡大映像44が、第1動画42上にオーバーラップされもする。その場合、第2デバイス200は、第1動画で、第1デバイス100のユーザが表示されていない部分を決定することができ、ユーザが表示されていない部分に、第2動画をオーバーラップさせることができる
また、図24Cを参照すれば、選択された口部分に係わる拡大映像44が、第1動画42上にオーバーラップされないで、選択された口部分に係わる拡大映像44及び第1動画42が別途の窓にそれぞれ表示されもする。
本発明の一実施形態は、コンピュータによって実行されるプログラム・モジュールのようなコンピュータによって実行可能な命令語を含む記録媒体の形態でも具現される。コンピュータ可読媒体は、コンピュータによってアクセスされる任意の可用媒体であり、揮発性及び不揮発性媒体、分離型媒体及び非分離型媒体をいずれも含む。また、コンピュータ可読媒体は、コンピュータ記録媒体及び通信媒体をいずれも含んでもよい。コンピュータ記録媒体は、コンピュータ可読命令語、データ構造、プログラム・モジュールまたはその他データのような情報保存のための任意の方法または技術で具現された揮発性及び不揮発性、分離型及び非分離型の媒体をいずれも含む。通信媒体は、典型的には、コンピュータ可読命令語、データ構造、プログラム・モジュールまたは搬送波のような変調されたデータ信号のその他データ、またはその他伝送メカニズムを含み、任意の情報伝達媒体を含む。
前述の本発明の説明は例示のためのものであり、本発明が属する技術分野の当業者は、本発明の技術的思想や必須な特徴を変更せずに、他の具体的な形態に容易に変形が可能であるということを理解することができるであろう。従って、以上で記述した実施形態は、全ての面で例示的なものであって、限定的なものではないと理解しなければならない。
本発明の範囲は、前記詳細な説明よりは、特許請求の範囲によって示され、特許請求の範囲の意味、範囲及びその均等概念から導き出される全ての変更または変形された形態が、本発明の範囲に含まれるものであると解釈されなければならない。
本発明の映像提供システム及びその方法は、例えば、映像送受信関連の技術分野に効果的に適用可能である。
20 所定の一部領域
22 客体
100 第1デバイス
110 映像獲得部
120 映像提供部
130 客体認識部
140 客体追跡部
150,230 ネットワーク確認部
160,270 DB
170,280 送受信部
180,290 制御部
190 フレームバッファ
200 第2デバイス
210 映像受信部
220 ユーザ入力部
240 領域情報生成部
250 領域情報提供部
260 ディスプレイ部

Claims (32)

  1. 原本解像度を有した第1動画を第1解像度で、外部機器に伝送する段階と、
    前記外部機器で、前記第1解像度で表示される前記第1動画の関心領域に係わる領域情報を、前記外部機器から受信する段階と、
    前記領域情報に基づいて、前記原本解像度の前記第1動画で、前記関心領域に対応する領域を決定する段階と、
    前記原本解像度の第1動画の一部を第2動画に変換する段階と、
    前記第2動画を前記第1解像度で、前記外部機器に伝送する段階と、を含み、
    前記決定された領域は、前記原本解像度の第1動画より低く、前記第1動画の一部は、前記決定された領域に対応する映像提供方法。
  2. 前記関心領域は、前記第1動画に含まれた客体を含み、前記領域情報は、前記外部機器によって生成されることを特徴とする請求項1に記載の映像提供方法。
  3. 前記外部機器の画面がタッチされれば、前記画面でタッチされた部分を含む前記客体が含まれるように、前記関心領域が選択されることを特徴とする請求項2に記載の映像提供方法。
  4. 前記外部機器の画面がタッチされれば、前記スクリーンでタッチされた部分から既設定の範囲を含む前記関心領域が選択されることを特徴とする請求項2に記載の映像提供方法。
  5. 前記領域情報を受信する段階は、
    前記外部機器の画面がタッチされれば、前記タッチされた地点に係わる座標情報を、前記外部機器から受信することを特徴とする請求項1に記載の映像提供方法。
  6. 前記外部機器の画面がタッチされれば、前記関心領域を選択するためのユーザ・インターフェースが、前記外部機器の画面にディスプレイされることを特徴とする請求項1に記載の映像提供方法。
  7. 前記第1動画及び前記第2動画は、前記外部機器との映像通話のための動画であり、
    前記第1動画を前記外部機器に伝送する段階は、撮影された動画に基づいて、前記第1動画を前記外部機器に伝送し、
    前記撮影された動画の解像度は、前記映像通話のストリーミング解像度より高いことを特徴とする請求項1に記載の映像提供方法。
  8. 前記外部機器との通信方法の種類によって、前記関心領域の範囲が決定されることを特徴とする請求項1に記載の映像提供方法。
  9. 前記外部機器との通信方法の種類によって、前記第1解像度が決定されることを特徴とする請求項1に記載の映像提供方法。
  10. 前記外部機器との通信方法が変更されることにより、前記第1解像度を変更する段階をさらに含むことを特徴とする請求項1に記載の映像提供方法。
  11. 前記外部機器との通信方法が変更されることにより、前記決定された領域の大きさを変更する段階をさらに含むことを特徴とする請求項1に記載の映像提供方法。
  12. 前記第1動画を前記外部機器に伝送する段階は、
    撮影された動画に基づいて、前記第1動画及び前記第2動画を前記外部機器に伝送し、
    前記撮影された動画で、前記関心領域に含まれた客体が消えれば、前記決定された領域を変更する段階をさらに含むことを特徴とする請求項1に記載の映像提供方法。
  13. 前記消えた客体が、前記撮影された動画に現れれば、前記撮影された動画の全体領域のうち、前記現れた客体を含む一部領域のみを含む前記第2動画を、前記外部機器に提供する段階をさらに含むことを特徴とする請求項12に記載の映像提供方法。
  14. 前記第2動画が伝送されることを知らせるお知らせ情報が、前記第2動画に挿入されたことを特徴とする請求項1に記載の映像提供方法。
  15. 前記お知らせ情報は、前記第2動画の既設定のフレームに対応するパケットのヘッダに挿入されたことを特徴とする請求項に14記載の映像提供方法。
  16. 前記パケットはRTP(real-time transfer protocol)パケットであり、前記RTPパケットのヘッダのRTP markerフィールド値が「1」であることを特徴とする請求項15に記載の映像提供方法。
  17. 前記パケットは、RTPパケットであり、前記お知らせ情報は、前記RTPパケットのヘッダのHeader extensionフィールドに挿入されることを特徴とする請求項15に記載の映像提供方法。
  18. 前記お知らせ情報は、前記第2動画が、前記第1動画のいずれの部分に対応するかを示す領域情報を含むことを特徴とする請求項14に記載の映像提供方法。
  19. 前記関心領域は、前記第1動画の画面で、ユーザ入力に基づいて、指定された領域であることを特徴とする請求項1に記載の映像提供方法。
  20. 外部機器から第1動画を受信する段階と、
    前記受信された第1動画に含まれた客体に係わる領域情報を、前記外部機器に提供する段階と、
    前記第1動画の前記客体を含む一部領域のみを含む第2動画を、前記外部機器から受信する段階と、を含み、
    前記第2動画の解像度は、前記第1動画の前記一部領域の解像度より高く、
    前記客体を含む一部領域は、前記提供された領域情報に基づいて、前記外部機器によって決定されるデバイスの映像受信方法。
  21. ユーザ入力に基づいて、前記第1動画で、前記客体に係わる関心領域を選択する段階と、
    前記選択された関心領域に係わる前記領域情報を生成する段階と、をさらに含むことを特徴とする請求項20に記載の映像受信方法。
  22. 前記関心領域を選択する段階は、前記第1動画の画面がタッチされれば、前記タッチされた部分を含む客体を含むように、前記関心領域を選択することを特徴とする請求項21に記載の映像受信方法。
  23. 前記関心領域を選択する段階は、前記第1動画の画面がタッチされれば、前記タッチされた部分から、既設定の範囲の前記関心領域を選択することを特徴とする請求項21に記載の映像受信方法。
  24. 前記領域情報を提供する段階は、前記第1動画の画面がタッチされれば、前記タッチされた地点に係わる座標情報を、前記外部機器に提供することを特徴とする請求項20に記載の映像受信方法。
  25. 前記第1動画の画面がタッチされれば、前記領域を選択するためのユーザ・インターフェースをディスプレイする段階をさらに含むことを特徴とする請求項20に記載の映像受信方法。
  26. 前記第1動画及び前記第2動画は、前記外部機器によって撮影された映像に基づいて、前記外部機器から提供され、
    前記撮影された映像で、前記客体が消えれば、前記第1動画の前記一部領域が変更され、
    前記変更された一部領域のみを含む前記第2動画を、前記外部機器から受信する段階
    をさらに含むことを特徴とする請求項20に記載の映像受信方法。
  27. 前記消えた客体が、前記撮影された映像に現れれば、前記現れた客体を含む一部領域のみを含む前記第2動画を、前記外部機器から受信する段階をさらに含むことを特徴とする請求項26に記載の映像受信方法。
  28. 少なくとも1つのプログラムが保存されるメモリと、
    前記少なくとも1つのプログラムを実行することにより、外部機器に動画を提供するプロセッサと、を含み、
    前記少なくとも1つのプログラムは、
    第1動画を外部機器に伝送する段階と、
    前記外部機器から、前記第1動画に含まれた客体に係わる領域情報を受信する段階と、
    前記領域情報に基づいて、識別された前記客体を含む一部領域のみを含む第2動画を、前記外部機器に提供する段階と、を実行する命令語を含み、
    前記第2動画の解像度は、前記第1動画で、前記一部領域の解像度より高いデバイス。
  29. 少なくとも1つのプログラムが保存されるメモリと、
    前記少なくとも1つのプログラムを実行することにより、外部機器から動画を受信させるプロセッサと、を含み、
    前記少なくとも1つのプログラムは、
    前記外部機器から第1動画を受信する段階と、
    前記受信された第1動画に含まれた客体に係わる領域情報を、前記外部機器に提供する段階と、
    前記第1動画の前記客体を含む一部領域のみを含む第2動画を、前記外部機器から受信する段階と、を実行する命令語を含み、
    前記第2動画の解像度は、前記第1動画の前記一部領域の解像度より高く、
    前記客体を含む一部領域は、前記提供された領域情報に基づいて、前記外部機器によって決定されるデバイス。
  30. 複数個の第1フレームを有する第1動画を外部機器に伝送する段階と、
    前記外部機器から、前記第1動画に含まれた客体に係わる領域情報を受信する段階と、
    前記領域情報に基づいて、前記複数個の第1フレームのうち、前記客体を含む第1フレームを選別する段階と、
    前記客体を含む、前記選別された第1フレームの一部領域のみを含む複数個の第2フレームを有する第2動画を前記外部機器に伝送する段階と、を含むことを特徴とする映像提供方法。
  31. 複数個の第1フレームを有する第1動画を外部機器に伝送する段階と、
    前記外部機器から、前記第1動画に含まれた客体に係わる領域情報を受信する段階と、
    前記領域情報に基づいて、前記複数個の第1フレームで、前記客体を含む一部領域を区別する段階と、
    前記区別された第1フレームの一部領域のみを含む複数個の第2フレームを有する第2動画を、前記外部機器に伝送する段階と、を含むことを特徴とする映像提供方法。
  32. アプリケーションの実行画面に対応する第1映像を第1解像度で、外部機器に伝送する段階と、
    前記外部機器で、前記第1解像度で表示される前記第1映像の画面の関心領域に係わる領域情報を、前記外部機器から受信する段階と、
    前記領域情報に基づいて、前記第1映像の画面で、前記関心領域に対応する前記第1映像の画面より小さい領域を決定する段階と、
    前記決定された領域を基に、前記第1映像を第2映像に変換する段階と、
    前記第2映像を前記第1解像度で、前記外部機器に伝送する段階と、を含むことを特徴とする、映像提供方法。
JP2013148383A 2012-07-17 2013-07-17 映像提供システム及びその方法 Expired - Fee Related JP6271892B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2012-0077919 2012-07-17
KR20120077919 2012-07-17
KR10-2013-0081194 2013-07-10
KR1020130081194A KR102091137B1 (ko) 2012-07-17 2013-07-10 영상 제공 시스템 및 방법

Publications (2)

Publication Number Publication Date
JP2014023158A true JP2014023158A (ja) 2014-02-03
JP6271892B2 JP6271892B2 (ja) 2018-01-31

Family

ID=50143597

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013148383A Expired - Fee Related JP6271892B2 (ja) 2012-07-17 2013-07-17 映像提供システム及びその方法

Country Status (5)

Country Link
JP (1) JP6271892B2 (ja)
KR (1) KR102091137B1 (ja)
BR (1) BR112015001112A2 (ja)
RU (1) RU2653305C2 (ja)
TW (1) TWI584641B (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017018042A1 (ja) * 2015-07-24 2017-02-02 ソニー株式会社 情報処理装置及び情報処理方法、並びにソース機器
JP2019522848A (ja) * 2016-06-08 2019-08-15 華為技術有限公司Huawei Technologies Co.,Ltd. 処理方法及び端末
CN113475091A (zh) * 2019-02-22 2021-10-01 三星电子株式会社 显示设备及其图像显示方法
JP2022503615A (ja) * 2018-08-31 2022-01-12 ベステル エレクトロニク サナイー ベ ティカレト エー.エス. 電子装置及び作動方法

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9858470B2 (en) 2014-07-18 2018-01-02 Htc Corporation Method for performing a face tracking function and an electric device having the same
KR102121532B1 (ko) * 2014-08-26 2020-06-10 삼성전자주식회사 프리뷰 영상 제공 방법 및 장치
US20160094849A1 (en) * 2014-09-27 2016-03-31 Intel Corporation THERMAL THROTTLING OF WiDi VIDEO STREAM RESOLUTION
KR102623181B1 (ko) * 2016-10-05 2024-01-11 엘지전자 주식회사 무선 디바이스 및 무선 시스템
JP2021500764A (ja) * 2017-08-29 2021-01-07 Line株式会社 映像通話の映像品質向上
RU2696009C1 (ru) * 2018-10-22 2019-07-30 Акционерное общество "Калужский научно-исследовательский институт телемеханических устройств" Способ позиционирования подвижного объекта на основе видеоизображений
KR102067191B1 (ko) * 2019-06-28 2020-02-11 배경 상세영상 생성장치
KR20220149803A (ko) * 2021-04-23 2022-11-08 삼성전자주식회사 정보를 공유하기 위한 전자 장치 및 그 동작 방법
EP4250282A1 (en) 2021-06-07 2023-09-27 Samsung Electronics Co., Ltd. Display device and control method thereof
KR20220165131A (ko) * 2021-06-07 2022-12-14 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
KR102571349B1 (ko) * 2021-12-16 2023-08-29 주식회사 랩241 동영상의 복수의 선택 영역 확대 시스템 및 방법

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002369164A (ja) * 2001-06-06 2002-12-20 Nikon Corp 電子画像装置および電子画像システム
JP3115546U (ja) * 2005-08-05 2005-11-10 東芝テリー株式会社 表示装置
JP2007053725A (ja) * 2005-08-15 2007-03-01 Compal Electronics Inc 出力画像を調整する方法及び装置
JP2009239480A (ja) * 2008-03-26 2009-10-15 Toshiba Corp 映像受信クライアント、映像配信サーバ、受信アルゴリズム切替制御方法及びプログラム
JP2010027000A (ja) * 2008-07-24 2010-02-04 Sony Corp 画像検出装置および画像検出方法
JP2011024018A (ja) * 2009-07-16 2011-02-03 Gunzoo Inc 送信装置、受信装置、送信方法、受信方法及び伝送システム
JP2011172212A (ja) * 2009-12-28 2011-09-01 Thomson Licensing 以前の伝送データを用いた、ビデオ・コンテンツ及びサービスのブロードキャストの受信のための方法及びデバイス

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6178204B1 (en) * 1998-03-30 2001-01-23 Intel Corporation Adaptive control of video encoder's bit allocation based on user-selected region-of-interest indication feedback from video decoder
US8290034B2 (en) 1998-12-21 2012-10-16 Zin Stai Pte. In, Llc Video transmission and display including bit-wise sub-sampling video compression
SE526226C2 (sv) * 2003-12-19 2005-08-02 Ericsson Telefon Ab L M Bildbehandling
US8019175B2 (en) 2005-03-09 2011-09-13 Qualcomm Incorporated Region-of-interest processing for video telephony
US7746391B2 (en) 2006-03-30 2010-06-29 Jai Pulnix, Inc. Resolution proportional digital zoom
GB2447245B (en) * 2007-03-05 2011-12-28 Snell & Wilcox Ltd Video transmission
WO2009115101A1 (en) * 2008-03-20 2009-09-24 Institut für Rundfunktechnik GmbH A method of adapting video images to small screen sizes
WO2009157029A1 (en) * 2008-06-25 2009-12-30 Enzo Stancato Multifunction apparatus for telecommunications
JP5294967B2 (ja) * 2009-04-30 2013-09-18 キヤノン株式会社 画像処理装置及び画像処理方法
EP2576315B1 (fr) * 2010-05-19 2018-09-26 Siemens S.A.S. Securisation d'une transmission video a distance destinee au controle a distance d'un vehicule
TW201225654A (en) * 2010-12-13 2012-06-16 Sonix Technology Co Ltd Image accessing apparatus and image data transmission method thereof

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002369164A (ja) * 2001-06-06 2002-12-20 Nikon Corp 電子画像装置および電子画像システム
JP3115546U (ja) * 2005-08-05 2005-11-10 東芝テリー株式会社 表示装置
JP2007053725A (ja) * 2005-08-15 2007-03-01 Compal Electronics Inc 出力画像を調整する方法及び装置
JP2009239480A (ja) * 2008-03-26 2009-10-15 Toshiba Corp 映像受信クライアント、映像配信サーバ、受信アルゴリズム切替制御方法及びプログラム
JP2010027000A (ja) * 2008-07-24 2010-02-04 Sony Corp 画像検出装置および画像検出方法
JP2011024018A (ja) * 2009-07-16 2011-02-03 Gunzoo Inc 送信装置、受信装置、送信方法、受信方法及び伝送システム
JP2011172212A (ja) * 2009-12-28 2011-09-01 Thomson Licensing 以前の伝送データを用いた、ビデオ・コンテンツ及びサービスのブロードキャストの受信のための方法及びデバイス

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017018042A1 (ja) * 2015-07-24 2017-02-02 ソニー株式会社 情報処理装置及び情報処理方法、並びにソース機器
US10582376B2 (en) 2015-07-24 2020-03-03 Sony Corporation Information processing apparatus, information processing method, and source apparatus
JP2019522848A (ja) * 2016-06-08 2019-08-15 華為技術有限公司Huawei Technologies Co.,Ltd. 処理方法及び端末
US10838601B2 (en) 2016-06-08 2020-11-17 Huawei Technologies Co., Ltd. Processing method and terminal
JP2022503615A (ja) * 2018-08-31 2022-01-12 ベステル エレクトロニク サナイー ベ ティカレト エー.エス. 電子装置及び作動方法
CN113475091A (zh) * 2019-02-22 2021-10-01 三星电子株式会社 显示设备及其图像显示方法
CN113475091B (zh) * 2019-02-22 2023-08-25 三星电子株式会社 显示设备及其图像显示方法

Also Published As

Publication number Publication date
TWI584641B (zh) 2017-05-21
JP6271892B2 (ja) 2018-01-31
RU2653305C2 (ru) 2018-05-07
RU2015105185A (ru) 2016-09-10
KR20140011264A (ko) 2014-01-28
KR102091137B1 (ko) 2020-03-20
BR112015001112A2 (pt) 2017-06-27
TW201410004A (zh) 2014-03-01

Similar Documents

Publication Publication Date Title
JP6271892B2 (ja) 映像提供システム及びその方法
EP2688295B1 (en) System and method for providing image
US11516381B2 (en) Display device and operating method thereof with adjustments related to an image display according to bending motion of the display device
KR101800617B1 (ko) 디스플레이 장치 및 이의 화상 통화 방법
KR101988279B1 (ko) 얼굴 인식 기반 사용자 기능 운용 방법 및 이를 지원하는 단말기
US9742995B2 (en) Receiver-controlled panoramic view video share
US9807300B2 (en) Display apparatus for generating a background image and control method thereof
KR20170091913A (ko) 영상 서비스 제공 방법 및 장치
EP2326136A2 (en) Method and apparatus for remote controlling bluetooth device
CN112398855B (zh) 应用内容跨设备流转方法与装置、电子设备
KR20190013308A (ko) 이동 단말기 및 그 제어 방법
US20140038560A1 (en) System for and method of transmitting communication information
KR20150005270A (ko) 전자 장치에 의해 촬영된 이미지들을 프리뷰하는 방법 및 이를 위한 전자 장치
KR20190008610A (ko) 이동 단말기 및 그 제어 방법
KR20140104753A (ko) 신체 부위 검출을 이용한 이미지 프리뷰
US20130300934A1 (en) Display apparatus, server, and controlling method thereof
JP6096654B2 (ja) 画像の記録方法、電子機器およびコンピュータ・プログラム
US9491401B2 (en) Video call method and electronic device supporting the method
KR20170094745A (ko) 영상 인코딩 방법 및 이를 지원하는 전자 장치
JP2012079167A (ja) 情報処理装置、情報処理システムおよび情報処理方法
KR20180028701A (ko) 휴대용 카메라 및 그 제어방법
US9430859B2 (en) Image processing apparatus, image relaying apparatus, method for processing image, and method for relaying image
KR101672268B1 (ko) 전시공간 제어 시스템 및 전시공간 제어방법
KR101393147B1 (ko) 이동단말기 및 그 촬영방법
WO2022267696A1 (zh) 内容识别方法、装置、电子设备以及存储介质

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20141226

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160715

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171228

R150 Certificate of patent or registration of utility model

Ref document number: 6271892

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees