JP6751205B2 - ディスプレイ装置及びその制御方法 - Google Patents

ディスプレイ装置及びその制御方法 Download PDF

Info

Publication number
JP6751205B2
JP6751205B2 JP2019520422A JP2019520422A JP6751205B2 JP 6751205 B2 JP6751205 B2 JP 6751205B2 JP 2019520422 A JP2019520422 A JP 2019520422A JP 2019520422 A JP2019520422 A JP 2019520422A JP 6751205 B2 JP6751205 B2 JP 6751205B2
Authority
JP
Japan
Prior art keywords
server
display device
information
area
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019520422A
Other languages
English (en)
Other versions
JP2019531038A5 (ja
JP2019531038A (ja
Inventor
キム,デ−ワン
ジョン,ハン−ビョル
パク,ジョン−フン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2019531038A publication Critical patent/JP2019531038A/ja
Publication of JP2019531038A5 publication Critical patent/JP2019531038A5/ja
Application granted granted Critical
Publication of JP6751205B2 publication Critical patent/JP6751205B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234345Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements the reformatting operation being performed only on part of the stream, e.g. a region of the image or a time segment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440245Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display the reformatting operation being performed only on part of the stream, e.g. a region of the image or a time segment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video

Description

本発明は、ディスプレイ装置及びその制御方法に関し、特に、コンテンツ映像を受信するためのディスプレイ装置及びその制御方法に関する。
多方位映像(Extended Video)は、複数個のレンズで撮影した映像を、スティッチング(Stitching)方式でつなぎ合わせた映像である。多方位映像の例として、360度映像の場合、2個以上のレンズを用いて360度四方で隙間なく撮影して製作される。このように製作された360度映像は、例えばVR(Virtual Reality)装置などから映像の左、右、上、下、前、後の全面を見ることが可能である。
最近、映像技術の発展に伴ってこのような多方位映像が普遍化しつつあるが、高い画質の多方位映像をユーザに提供するには、一般映像に比べてはるかに大きい帯域幅が要求される。しかし、ユーザが使用する視聴装置のネットワーク状態は千差万別であり、高い画質の多方位映像を連続的に提供することが困難であった。
また、限定されたネットワーク帯域幅を持つ場合にも、ユーザは鮮明で生き生きとした多方位映像を視聴しようとする欲求がある。
ユーザが使用する視聴装置のネットワーク状態は千差万別であり、高い画質の多方位映像を連続的に提供することは困難である。
また、限定されたネットワーク帯域幅を持つ場合にも、ユーザは鮮明で生き生きとした多方位映像を視聴しようとする欲求がある。
したがって、本発明の目的は、多方位映像の視聴時に、ユーザに高い画質の多方位映像を連続的に提供するためのディスプレイ装置及びその制御方法を提供することである。
また、本発明の他の目的は、多方位映像の視聴時に、限定されたネットワーク状態でもユーザに鮮明で生き生きとした多方位映像を提供するためのディスプレイ装置及びその制御方法を提供することである。
一実施例によって、セグメントに分割された複数の解像度のコンテンツを提供するサーバーと通信可能な通信回路を有する通信部と、コンテンツに対して映像処理を行う映像処理部と、処理されたコンテンツの映像を表示するディスプレイ部と、サーバーからコンテンツの第1解像度のセグメントを受信し、受信したセグメントに基づいて立体映像の一領域をディスプレイ部に表示し、立体映像において表示可能性が高い領域に関連した情報をサーバーに伝送し、サーバーから、表示可能性の高い領域に対応し、第1解像度よりも高い第2解像度のセグメントを受信し、受信した第2解像度のセグメントに基づいて立体映像を表示するよう、ディスプレイ装置を制御する制御部と、を備えるディスプレイ装置が提供される。
一実施例によって、多方位映像(例えば、360度映像)の視聴時に、ユーザに高い画質の多方位映像を連続的に提供することができる。
前記情報は、前記ユーザの現在視線に関する情報、ユーザたちの時間帯別視線移動に関する情報、ユーザのジェスチャー及び音声に関する情報のうち少なくとも一つを含むことができる。
前記サーバーは、前記ディスプレイ装置から受信された情報、前記コンテンツに含まれている前記コンテンツの製作情報、及び広告情報のうち少なくとも一つに基づいて、前記立体映像において表示可能性が高い領域を決定することができる。これによって、ユーザの視線の移動を予測するための様々な情報を考慮して、画面に表示される可能性が高い多方位映像の領域を高解像度でストリーミングすることができる。
前記制御部は、前記ディスプレイ装置のネットワーク状態に関する情報を前記サーバーに伝送するようにディスプレイ装置を制御し、前記伝送されたネットワーク状態に基づいて前記サーバーから受信されるセグメントの映像の最大解像度を決定することができる。これによって、ユーザの視聴装置のネットワーク状態を考慮して、最適及び/又は向上した解像度で多方位映像をストリーミングすることができる。
前記制御部は、前記サーバーから、前記表示可能性の高い領域に対応しなく、前記第1解像度よりも低い第3解像度で処理されたセグメントを受信することができる。これによって、ユーザの視線移動によって画面に表示される可能性が高い多方位映像の一部を他の部分に比べて高い解像度で処理し、限定されたネットワーク状態でより高い品質の映像を提供することができる。
前記制御部は、前記サーバーから受信される前記表示可能性の高い領域に対応する第1セグメントと、前記表示可能性の高い領域に対応しない第2セグメントとをスティッチング方式で連結するように前記映像処理部を制御することができる。これによって、それぞれ異なる解像度で受信されるセグメントを連結して一つのフレームとして再生することができる。
前記制御部は、前記サーバーから、前記表示可能性の高い領域に対応する第1セグメントを優先的に受信し、前記表示可能性の高い領域に対応しない第2セグメントを後に受信することができる。これによって、画面に表示される可能性が高い多方位映像の一部を優先的にストリーミングし、画面に表示される可能性が小さい部分はその次にストリーミングすることにより、限定されたネットワーク状態でより高い品質の映像を提供することができる。
前記制御部は、前記サーバーに前記表示可能性の高い領域に関連した情報を周期的に伝送するようにディスプレイ装置を制御することができる。これによって、ユーザの視線の移動を予測するための最新の情報を反映して、画面に表示される可能性の高い多方位映像の一部をストリーミングすることができる。
前記制御部は、前記ユーザの現在視線が所定時間以上維持される場合、前記サーバーに前記ユーザの現在視線に関する情報を伝送するようにディスプレイ装置を制御することができる。これによって、画面に表示される可能性が高い多方位映像の一部を決定するに当たり、ユーザの現在視線が一定時間以上維持される状態を有意の情報として反映させることができる。
前記サーバーは、前記セグメントに分割されたコンテンツを複数の解像度別に処理して保存することができる。これによって、画面に表示される可能性が高い多方位映像の領域に対応し、あらかじめ保存されている高解像度のセグメントをストリーミングすることができる。
一実施例によって、セグメントに分割された複数の解像度のコンテンツを提供可能なサーバーと通信する段階と、サーバーからコンテンツの第1解像度のセグメントを受信し、受信したセグメントに基づいて立体映像の一領域を表示する段階と、立体映像において表示可能性が高い領域に関連した情報をサーバーに伝送する段階と、サーバーから、表示可能性の高い領域に対応し、第1解像度よりも高い第2解像度のセグメントを受信する段階と、受信した第2解像度のセグメントに基づいて立体映像を表示する段階とを含むディスプレイ装置の制御方法が提供される。
一実施例によって、多方位映像(例えば、360度映像)の視聴時に、ユーザに、高い画質の多方位映像を連続的に提供することができる。
前記情報は、前記ユーザの現在視線に関する情報、ユーザたちの時間帯別視線移動に関する情報、ユーザのジェスチャー及び音声に関する情報のうち少なくとも一つを含むことができる。
前記サーバーは、前記ディスプレイ装置から受信された情報、前記コンテンツに含まれている前記コンテンツの製作情報、及び広告情報のうち少なくとも一つに基づいて、前記立体映像において表示可能性が高い領域を決定することができる。これによって、ユーザの視線の移動を予測するための様々な情報を考慮して、画面に表示される可能性の高い多方位映像の領域を高解像度でストリーミングすることができる。
上記の方法は、前記ディスプレイ装置のネットワーク状態に関する情報をサーバーに伝送する段階と、前記伝送されたネットワーク状態に基づいて前記サーバーから受信されるセグメントの映像の最大解像度を決定する段階とをさらに含むことができる。これによって、ユーザの視聴装置のネットワーク状態を考慮して、最適及び向上した解像度で多方位映像をストリーミングすることができる。
上記の方法は、サーバーから、前記表示可能性の高い領域に対応しなく、前記第1解像度よりも低い第3解像度で処理されたセグメントを受信する段階をさらに含むことができる。これによって、ユーザの視線移動によって画面に表示される可能性が高い多方位映像の一部を、他の部分に比べて高い解像度で処理し、限定されたネットワーク状態でより高い品質の映像を提供することができる。
上記の方法は、サーバーから受信される前記表示可能性の高い領域に対応する第1セグメントと、前記表示可能性の高い領域に対応しない第2セグメントとをスティッチング方式で連結する段階を含むことができる。これによって、それぞれ異なる解像度で受信されるセグメントを連結して一つのフレームとして再生させることができる。
上記の方法は、サーバーから前記表示可能性の高い領域に対応する第1セグメントを優先的に受信する段階と、その次に、前記表示可能性の高い領域に対応しない第2セグメントを受信する段階とをさらに含むことができる。これによって、画面に表示される可能性が高い多方位映像の一部を優先的にストリーミングし、画面に表示される可能性が小さい部分はその次にストリーミングし、限定されたネットワーク状態でより高い品質の映像を提供することができる。
上記の方法は、前記表示可能性の高い領域に関連した情報を周期的にサーバーに伝送する段階をさらに含むことができる。これによって、ユーザの視線の移動を予測するための最新の情報を反映して、画面に表示される可能性が高い多方位映像の一部をストリーミングすることができる。
上記の方法は、ユーザの現在視線が所定時間以上維持される場合、前記ユーザの現在視線に関する情報を前記サーバーに伝送する段階を含むことができる。これによって、画面に表示される可能性が高い多方位映像の一部を決定するに当たり、ユーザの現在視線が一定時間以上維持される状態を有意の情報として反映させることができる。
上記の方法は、サーバーによって前記セグメントに分割されたコンテンツを複数の解像度別に処理して保存する段階をさらに含むことができる。これによって、画面に表示される可能性の高い多方位映像の領域に対応してあらかじめ保存されている高解像度のセグメントをストリーミングすることができる。
上記の通り、本発明によれば、多方位映像の視聴時に、ユーザに高い画質の多方位映像を連続的に提供することができる。
また、本発明によれば、多方位映像の視聴時に、限定されたネットワーク状態でもユーザに鮮明で生き生きとした多方位映像を提供することができる。
本発明の一実施例に係るディスプレイ装置の構成を示すブロック図である。 本発明の一実施例に係るユーザに提供される多方位映像の仮想インターフェースを示す例である。 本発明の一実施例に係る多方位映像の生成方法を示す例である。 本発明の一実施例に係るユーザの視線移動によって画面に表示される多方位映像の例である。 本発明の一実施例に係るディスプレイ装置がサーバーから多方位映像をストリーミングするための過程を示す例である。 本発明の一実施例に係るディスプレイ装置がサーバーから多方位映像をストリーミングするための構成を示すブロック図である。 本発明の一実施例に係るディスプレイ装置の制御方法を示すフローチャートである。
以下、添付の図面を参照して、本発明の実施例について、本発明の属する技術分野における通常の知識を有する者が容易に実施できるように詳しく説明する。本発明は様々な実施の形態が可能であり、ここで説明する実施例に限定されない。本発明を明確に説明するために、明細書全体を通じて同一又は類似の構成要素には同一の参照符号を付ける。
以下では、図1〜図6を用いて、本発明に係るディスプレイ装置10の構成及び主要実施例について説明する。図1は、本発明の一実施例に係るディスプレイ装置の構成を示すブロック図である。図1に示すように、本発明の実施例によるディスプレイ装置10は、通信部11(例えば、通信回路を有り)、映像処理部12(例えば、映像処理回路を有り)、ディスプレイ部13、ユーザ入力部14(例えば、入力回路を有り)、制御部15(例えば、処理回路を有り)、及び記憶部16を備え、例えば、限定されず、VR装置、TV、スマートフォン、タブレット、コンピュータなどによって具現することができる。本発明のディスプレイ装置10は、通信部11を介してサーバー19に接続され、接続されたサーバー19からコンテンツの映像信号を受信する。本発明のディスプレイ装置10に備えられる構成は、上に述べた一実施例によって限定されず、一部の構成が省かれたり、別の構成がさらに備えられてもよい。
本発明の一実施例によるディスプレイ装置10は、コンテンツの映像から分割された複数のセグメントの映像191,192,193,194,195,196,…のうち、ディスプレイ部13に表示される可能性が高いコンテンツの映像の表示予想領域131が含まれる少なくとも一つのセグメントの映像を受信する。
また、本発明の一実施例によるディスプレイ装置10は、コンテンツの映像から分割された複数のセグメントの映像191,192,193,194,195,196,…のうち、ディスプレイ部13に表示される可能性が高いコンテンツの映像の表示予想領域131が含まれる少なくとも一つのセグメントの映像を処理する。
サーバー19は、コンテンツ製作者によって製作されたコンテンツの映像を保存し、ディスプレイ装置10の要請に応じてコンテンツの映像を提供するコンテンツ提供装置とすることができる。ここで、コンテンツの映像は、多方位映像でよく、例えば、全方向から視聴可能な360度映像でよい。多方位映像は、2つ以上のレンズでそれぞれ撮影された2つ以上の映像をスティッチング方式でつなぎ合わせて製作する。一実施例として、多方位映像は、領域及び時間帯別にコンテンツ製作者が設定した加重値情報を含むことができ、設定された加重値情報によって、領域及び時間帯別に適用する解像度が決定され得る。
サーバー19は、複数のコンテンツの複数の映像を保存し、それぞれのコンテンツの映像から分割された複数のセグメントの映像191,192,193,194,195,196,…を複数の解像度別に保存する。例えば、サーバー19に360度映像を保存するに、360度映像を上、下、左、右、前、後などの全方向を考慮して、上左、上右、上前、上後、下左、下右、下前、下後などの領域に対応する複数のセグメントに分割して保存する。この時、サーバー19は、分割されたそれぞれのセグメントに対して、解像度が異なる複数の映像として保存する。例えば、360度映像から分割された複数のセグメントのうち、上左領域に該当するセグメントに対して、1280*720(720p)、1920*1080(1080p)、及び3840*2160(4K)の解像度で映像をそれぞれ保存し、同様に、他のセグメントに対しても複数の解像度別に映像を保存する。
通信部11は、様々な通信回路(communication circuitry)を備えることができ、複数のコンテンツの映像を保存しているサーバー19と、例えば有線又は無線通信方式で通信し、サーバー19からコンテンツの映像を受信する。また、通信部11は、ディスプレイ装置10に収集されたネットワーク状態、ユーザの現在視線、ユーザのジェスチャー及び音声に関する情報などを、サーバー19に伝送する。通信部11は、イーサネット(Ethernet(登録商標))などのような有線通信方式でサーバー19と通信したり、ワイファイ(Wi−Fi)又はブルートゥース(Bluetooth(登録商標))などのような無線通信方式で無線中継機を介してサーバー19と通信することができる。例えば、通信部11は、限定されず、ワイファイのような無線通信モジュールを含む回路基板(PCB:Printed Circuit Board)とすることができる。通信部11が通信する方式はこれに限定されず、他の通信方式を用いてサーバー19と通信してもよい。
映像処理部12は、様々な映像処理回路(video processing circuitry)を備えることができ、通信部11を介してサーバー19から受信されたコンテンツの映像信号に対して、既に設定された映像処理プロセスを行う。本発明の実施例によれば、映像処理部12は、コンテンツの映像から分割された複数のセグメントの映像191,192,193,194,195,196,…のうち、ディスプレイ部13に表示される可能性が高いコンテンツ映像の表示予想領域131が含まれる少なくとも一つのセグメントの映像が受信されると、受信された少なくとも一つのセグメントの映像に対応するフレームをスティッチング方式で結合し、一つのフレームとなるよう映像処理を行う。
映像処理部12で行う映像処理プロセスの例には、デマルチプレクシング(de−multiplexing)、デコーディング(decoding)、デインターレーシング(de−interlacing)、スケーリング(scaling)、ノイズ減少(noise reduction)、ディテールエンハンスメント(detail enhancement)などがあり、その種類は限定されない。映像処理部12は、このような様々な機能を統合したSOC(System−On−Chip)、又は各プロセスを独自で実行可能な個別構成が装着された映像処理ボードとすることができる。
ディスプレイ部13は、映像処理部12で処理された映像信号に基づいて、コンテンツの映像を表示する。本発明の実施例によれば、ディスプレイ部13は、ユーザ入力に基づいてコンテンツの映像の一部領域を表示する。具体的に、ディスプレイ部13は、コンテンツの映像から分割された複数のセグメントの映像191,192,193,194,195,196,…のうち、表示される可能性が高いコンテンツ映像の表示予想領域131が含まれる少なくとも一つのセグメントの映像を表示する。
ディスプレイ部13の具現方式は限定されず、ディスプレイ部13は、PDP(Plasma Display Panel)、LCD(Liquid Crystal Display)、OLED(Organic Light Emitting Diodes)、フレキシブルディスプレイ(flexible display)などの様々な形態とすることができる。
ユーザ入力部14は、様々な入力回路(input circuitry)を備えることができ、ディスプレイ装置10の少なくとも一つの機能を制御するためのユーザ入力を受信する。本発明の実施例によれば、ユーザ入力部14は、ディスプレイ部13にコンテンツの映像の一部領域を表示するためのユーザ入力を受信する。
ユーザ入力部14は様々な入力回路を含むことができ、例えば、赤外線方式でディスプレイ装置10と通信し、複数のボタンを有するリモートコントローラによって具現することができる。ユーザ入力部14は、キーボード、マウスなどによって具現したり、ディスプレイ装置10に設けられるタッチスクリーン又は外側に設けられる入力パネルによって具現することもできる。また、ユーザ入力部14は、瞳孔又は首の動きにしたがってユーザの視線移動を感知できる虹彩認識センサー(sensor)やジャイロセンサー(Gyro sensor)によって具現することもできる。その他にも、ユーザ入力部14は、ユーザの音声を感知できる音声認識センサーや、ユーザのジェスチャーを感知できるモーション認識センサーなどによって具現することもできる。
記憶部16は、ディスプレイ装置10で再生可能な複数のコンテンツの映像を保存する。記憶部16は、通信部11を介してサーバー19から受信されたコンテンツの映像を保存したり、ディスプレイ装置10に直接接続されるUSBメモリなどの装置から取得したコンテンツの映像を保存することができる。記憶部16は、保存されたコンテンツ映像のデータに対して読出し(read)、書込み(write)、修正(edit)、削除(delete)、更新(update)が行われるようにする。記憶部16は、ディスプレイ装置10のシステム電源の提供有無に関係なくデータを保存できるよう、フラッシュメモリ(flash−memory)、ハードディスクドライブ(hard−disc drive)のような不揮発性メモリによって具現される。
制御部15は、様々な処理回路(processing circuitry)を備えることができ、ディスプレイ装置10に含まれた全ての構成が動作を実行できるようプログラム命令の実行を制御する少なくとも一つのプロセッサ(processor)によって具現される。少なくとも一つのプロセッサは、CPU(Central Processing Unit)によって具現することができ、例えば、制御、演算、レジスターの3つの領域を有する。制御領域はプログラム命令語を解析し、解析された命令の意味によって、ディスプレイ装置10の各構成に動作を指示する。演算領域は、算術演算及び論理演算を行い、制御領域の指示にしたがってディスプレイ装置10の各構成が動作するために必要な演算を行う。レジスター領域は、CPUで命令語を実行する上で必要な情報を保存する記憶場所であり、ディスプレイ装置10の各構成に対する命令語及びデータを保存し、演算された結果を保存する。
制御部15は、コンテンツの映像から分割された複数のセグメントの映像191,192,193,194,195,196,…のうち、ディスプレイ部13に表示される可能性が高いコンテンツの映像の表示予想領域131が含まれる少なくとも一つのセグメントの映像を受信する。制御部15は、受信されたセグメントの映像を処理してディスプレイ部13に表示する。
ここで、表示予想領域は、ユーザの現在視線、ユーザたちの時間帯別視線移動情報、当該コンテンツの製作情報、広告情報、ユーザのジェスチャー及び音声に関する情報のうち少なくとも一つに基づいて決定することができる。
一実施例として、制御部15は、ユーザの現在視線方向に対応するコンテンツ映像の一部が含まれたセグメントの映像を、サーバー19からストリーミングすることができる。これによって、コンテンツ映像を視聴する際に、ユーザの現在視線が止まっている領域をより高い品質で視聴可能にする。
制御部15は、ユーザの現在視線が所定時間以上止まる(例えば、維持される)場合、ユーザの現在視線に関する情報をサーバー19に伝送し、現在視線に対応するコンテンツ映像の一部がユーザによって再度選択される場合、高い品質で処理されるようにし得る。例えば、ディスプレイ装置10は、ユーザがコンテンツ映像の再生時に選択した画角(angle of view)が所定時間維持される場合、当該画角に関する情報をサーバー19に伝送する。これによって、ユーザが選択した有意の画角に対して高品質の映像をストリーミングできるようにする。
一実施例として、制御部15は、コンテンツの映像を、以前に視聴したユーザたちの視聴ヒストリー情報のうち、時間帯別ユーザたちの視線移動情報を用いて、ディスプレイ部13に表示される可能性が高い領域に対応するセグメントの映像を、サーバー19からストリーミングすることができる。
ここで、サーバー19は、時間帯別ユーザたちの視線移動情報に基づいて、コンテンツ映像に対する時間帯別推薦画角情報を生成することができる。この時、サーバー19は、生成した時間帯別推薦画角情報を用いて、ストリーミングのための画角別コンテンツ映像の解像度を調整することができる。
これによって、コンテンツ映像を視聴するに当たり、以前に視聴したユーザたちの時間帯別視線移動情報を考慮して、現在のユーザによって表示される可能性が高いコンテンツ映像の領域をより高い品質で視聴できるようにし得る。
一実施例として、制御部15は、コンテンツ製作者によってコンテンツの映像に対して与えられた領域及び時間帯別の加重値情報に対応するセグメントの映像を、サーバー19からストリーミングすることができる。これによって、ユーザがコンテンツ映像を視聴する際に、コンテンツ製作者が意図した領域及び時間帯に対応するコンテンツ映像の領域をより高い品質で視聴できるようにし得る。
一実施例として、制御部15は、コンテンツの映像に挿入される広告コンテンツが含まれる領域及び時間帯に対応するセグメントの映像を、サーバー19からストリーミングすることができる。これによって、ユーザがコンテンツ映像を視聴する際に、コンテンツの映像に含まれた広告をより高い品質で視聴できるようにする。
一実施例として、制御部15は、ユーザの音声発話又はジェスチャーに基づいて、ディスプレイ部13に表示される可能性が高い領域に対応するセグメントの映像を、サーバー19からストリーミングすることができる。これによって、ユーザがコンテンツ映像を視聴する際に、ユーザの音声又はジェスチャーによって表示されるコンテンツ映像の領域をより高い品質で視聴できるようにし得る。
制御部15は、表示予想領域131が含まれる少なくとも一つのセグメントの映像を高い解像度で処理し、優先的に受信することができる。例えば、ユーザがコンテンツ映像を視聴時に、ユーザの現在視線が所定時間以上止まっている領域を、より高い解像度で提供することができる。
制御部15は、複数のセグメントの映像191,192,193,194,195,196,…のうち、表示予想領域131に対応する少なくとも一つの第1セグメントの映像を受信した後、表示予想領域131に対応しない少なくとも一つの第2セグメントの映像を受信することができる。例えば、コンテンツ映像を視聴時に、以前に視聴したユーザたちの時間帯別視線移動情報を考慮して、現在ユーザの視線移動によって表示される可能性が高い領域に対応するセグメントの映像を優先的に受信することによって、限定されたネットワーク状態でも高い品質の映像を提供することができる。
制御部15はサーバー19から、表示予想領域131が含まれる少なくとも一つのセグメントの映像をストリーミングすることができる。ここで、制御部15は、ディスプレイ装置10のネットワーク状態に関する情報をサーバー19に伝送し、伝送されたネットワーク状態に関する情報に基づいてサーバー19からストリーミングされる少なくとも一つのセグメントの映像の最大解像度を決定することができる。これによって、サーバー19から、ディスプレイ部13に表示される可能性が高い表示予想領域131の映像を高い品質で連続的に提供することができる。また、ディスプレイ装置10のネットワーク状態を考慮して最適及び/又は向上した解像度で映像を提供することができる。
本発明のさらに他の実施例によれば、制御部15は、コンテンツの映像から分割された複数のセグメントの映像191,192,193,194,195,196,…のうち、ディスプレイ部13に表示される可能性が高いコンテンツの映像の表示予想領域131が含まれる少なくとも一つのセグメントの映像を、高い品質で処理する。
ここで、表示予想領域131は、ユーザの現在視線、ユーザたちの時間帯別視線移動情報、当該コンテンツの製作情報、広告情報、ユーザのジェスチャー及び音声に関する情報のうち少なくとも一つに基づいて決定することができる。これによって、ユーザの視線の移動を予測するための様々な情報を考慮して、画面に表示されるコンテンツ映像の領域を予測し、より高い品質で処理することができる。
制御部15は、表示予想領域131が含まれる少なくとも一つのセグメントの映像を高い解像度で処理することができる。これによって、ユーザの視線移動によって画面に表示される可能性が高いコンテンツ映像の一部を高い画質で提供することができる。
制御部15は、複数のセグメントの映像191,192,193,194,195,196,…のうち、表示予想領域131に対応する少なくとも一つの第1セグメントの映像を第1解像度で処理し、表示予想領域131に対応しない上記少なくとも一つの第2セグメントの映像を、第1解像度よりも低い第2解像度で処理することができる。
制御部15はサーバー19から、表示予想領域131が含まれる少なくとも一つのセグメントの映像を高い解像度でストリーミングすることができる。例えば、図4に示すように、ユーザの視線移動49によって、ディスプレイ部13に表示されていた多方位映像21の第1表示予想領域481が第2表示予想領域482に移動する場合、多方位映像21から分割された複数のセグメントの映像41,42,43,44,45,46のうち、第2表示予想領域482が含まれる4個のセグメントの映像42,43,45,46を高い解像度でストリーミングする。この時、複数のセグメントの映像41,42,43,44,45,46のうち、第2表示予想領域482が含まれないセグメントの映像41,44は、4個のセグメントの映像42,43,45,46よりも低い解像度でストリーミングする。
このような実施例によれば、ユーザの視線移動によって画面に表示される可能性が高いコンテンツ映像の一部を、他の部分に比べて高い解像度でストリーミングすることにより、限定されたネットワーク状態でユーザに鮮明な画質の映像を提供することができる。
制御部15は、ディスプレイ装置10のネットワーク状態に関する情報をサーバー19に伝送し、伝送されたネットワーク状態に基づいてサーバー19からストリーミングされる少なくとも一つのセグメントの映像の最大解像度を決定することができる。これによって、ディスプレイ装置10のネットワーク状態を考慮して、ユーザに最適の解像度でコンテンツ映像を提供することができる。
上記のように、本発明の実施例によるディスプレイ装置10は、多方位映像の視聴時に、ユーザに高い画質の多方位映像を連続的に提供することができる。また、限定されたネットワーク状態でもユーザに鮮明で生き生きとした多方位映像を提供することができる。
図2は、本発明の一実施例に係る、ユーザに提供される多方位映像の仮想インターフェースを示す例である。図2に示すように、ユーザがVR装置22を介して多方位映像21を視聴する場合、VR装置22の画面には、ユーザの現在視線方向に対応して、多方位映像21の一部、すなわち第1表示予想領域の映像23が表示される。この時、多方位映像21において第1表示予想領域の映像23が含まれる領域を高い解像度でストリーミングし、ユーザに高い品質の映像を提供することができる。
一実施例として、多方位映像21を以前に視聴したユーザたちの視聴ヒストリー情報のうち、時間帯別ユーザたちの視線移動情報を参照して、VR装置22の画面に表示される可能性の高い映像として第2表示予想領域の映像24を予測することができる。この場合、多方位映像21において第2表示予想領域の映像24が含まれる領域を優先的にストリーミングすることができる。また、第2表示予想領域の映像24が含まれる領域を高い解像度でストリーミングすることができる。
他の実施例として、多方位映像21に挿入されている広告コンテンツが含まれる領域及び時間帯に関する情報を参照して、VR装置22の画面に表示される可能性の高い映像として第3表示予想領域の映像25が予測されてもよい。この場合、多方位映像21において第3表示予想領域の映像25が含まれる領域を優先的にストリーミングすることができる。また、第3表示予想領域の映像25が含まれる領域を高い解像度でストリーミングすることができる。
上記のように、本発明の実施例によれば、多方位映像21の視聴時に、ユーザの現在視線情報、以前に視聴したユーザたちの視聴ヒストリー情報及び広告情報など、ユーザの視線移動を予測するための様々な情報を考慮して、画面に表示される可能性が高い多方位映像21の一部を高い品質で提供することができる。
図3は、本発明の一実施例に係る多方位映像の生成方法を示す例である。図3に示すように、多方位映像の例として、360度映像を生成するために、まず複数台のカメラを用いて全方位に対応する複数の映像を撮影する。例えば、撮影範囲が180度である第1レンズ及び第2レンズを用いてそれぞれ撮影された第1方位映像31及び第2方位映像32を取得する。
第1方位映像31及び第2方位映像32がスティッチング方式で連結されて球形(Sphere)にマップされ、その後、個別の機器で互換可能に正弦円筒(Equirectangular)平面映像34の形態にマップされる。この時、正弦円筒平面映像34は、例えば、地球儀を平面地図(flat map)として表現する方式で生成される。
次に、ユーザがディスプレイ装置10で正弦円筒平面映像34を再生できるよう、正弦円筒平面映像34をワーピング(Warping)方式で球形にマップすることによって球形立体映像35が生成される。この時、球形立体映像35からユーザの選択した領域が抽出され(cropped)、拡大及び縮小され(zoomed in and out)、抽出された映像の画質を補正した後、画面に出力する。
上記のように、本発明の実施例によれば、複数のレンズによって撮影された全方位に対応する複数の映像を連結して360度映像のような多方位映像を生成することができる。
図4は、本発明の一実施例に係る、ユーザの視線移動によって画面に表示される多方位映像の例を示す。図4に示すように、多方位映像21は、複数のセグメントの映像41,42,43,44,45,46に分割されてサーバー19に保存される。この時、複数のセグメントの映像41,42,43,44,45,46は、異なる複数の解像度別に保存され得る。
一実施例として、複数のセグメントの映像41,42,43,44,45,46のうち、ユーザの視線が所定時間以上止まっている多方位映像21の第1表示予想領域481が含まれる第6セグメントの映像46を高い解像度でストリーミングする。
一実施例として、ユーザの視線移動49によって、ディスプレイ部13に表示された多方位映像21の第1表示予想領域481が第2表示予想領域482へ移動する場合を予測できよう。このとき、ユーザの視線移動49による第1表示予想領域481から第2表示予想領域482への移動は、以前に視聴したユーザたちの時間帯別視線移動情報、コンテンツの製作情報、広告情報、ユーザのジェスチャー及び音声に関する情報のうち少なくとも一つに基づいて予測され得る。
このように第2表示予想領域482への移動が予測される場合、複数のセグメントの映像41,42,43,44,45,46のうち、第2表示予想領域482が含まれる4個のセグメントの映像42,43,45,46を優先的に受信する。この時、第2表示予想領域482が含まれる4個のセグメントの映像42,43,45,46は高い解像度でストリーミングし、第2表示予想領域482が含まれないセグメントの映像41,44は、4個のセグメントの映像42,43,45,46よりも低い解像度でストリーミングする。
このように、ユーザの視線移動によって画面に表示される可能性が高いコンテンツ映像の一部を、他の部分に比べて高い解像度でストリーミングすることによって、限定されたネットワーク状態でユーザに鮮明な画質の映像を提供することができる。
図5は、本発明の一実施例に係る、ディスプレイ装置がサーバーから多方位映像をストリーミングするための過程を示す例である。図5に示すように、サーバー19は、コンテンツ製作者によって製作されたコンテンツの映像を、複数のセグメントに分割して保存する。この時、コンテンツの映像は、複数台のカメラを用いて全方位に対応して撮影された複数の映像をスティッチング方式で連結して生成した多方位映像(例えば、360度映像)でよい。サーバー19は、このように生成された多方位映像21を正弦円筒平面映像の形態にマップした後、複数のセグメントに分割してそれぞれ保存する。
ここで、サーバー19は、多方位映像21を複数のセグメントに分割して保存する時、それぞれのセグメントを複数の解像度別に処理して保存することができる。
図5の(1)を参照すると、ディスプレイ装置10は、ユーザの再生要請に応じて、サーバー19から、多方位映像21が分割された複数のセグメントの映像のそれぞれを受信する。この時、受信される複数のセグメントの映像は、第1解像度を有する。
図5の(2)を参照すると、ディスプレイ装置10は、受信された第1解像度の複数のセグメントの映像をスティッチング方式で連結して立体映像35を生成する。例えば、サーバー19に保存されたコンテンツの映像が360度映像である場合、ディスプレイ装置10に球形立体映像35として生成される。
図5の(3)を参照すると、ユーザの選択によって球形立体映像35の一部333を画面に表示する。この時、球形立体映像35の一部333は、受信された複数のセグメントに対応して第1解像度で表示される。
図5の(4)を参照すると、ディスプレイ装置10は、画面に表示される可能性が高い領域を決定するための情報を、サーバー19に伝送する。情報は、ユーザの現在視線、ユーザたちの時間帯別視線移動情報、ユーザのジェスチャー及び音声に関する情報のうち少なくとも一つを含む。例えば、ユーザの現在視線が所定時間以上止まる場合、ユーザの現在視線に関する情報をサーバー19に伝送し、ストリーミングする領域を決定することができる。他の例として、多方位映像21を以前に再生したユーザたちの時間帯別視線移動情報をサーバー19に伝送し、ストリーミングする領域を決定することができる。サーバー19に伝送される情報は、このような本発明の実施例に限定されず、多方位映像21の全領域のうち、ユーザが画面に表示する可能性の高い領域を決定するために必要な追加の情報をさらに含んでもよい。
図5の(5)を参照すると、ディスプレイ装置10はサーバー19から、情報に基づいて決定された表示可能性の高い領域666に対応し、第1解像度よりも高い第2解像度を持つように処理された少なくとも一つのセグメントを受信する。
図5の(6)を参照すると、ディスプレイ装置10は、球形立体映像35のうち、受信された第2解像度の少なくとも一つのセグメントに対応する領域を画面に表示する。
上記のような実施例によって、本発明のディスプレイ装置10は、360度映像を視聴する際に、ユーザの視線又は既存ユーザたちの視線移動情報などを用いて、画面に表示される可能性が高い360度映像の一部をより鮮明な画質で提供することができる。
図6は、本発明の一実施例に係るディスプレイ装置がサーバーから多方位映像をストリーミングするための構成を示すブロック図である。図6に示すように、多方位映像21は、コンテンツ製作者によって映像製作装置51で製作され、コンテンツプロバイダー側のサーバー19にアップロードされる。映像製作装置51は、例えばPC、スマートフォン、タブレットなどの装置でよく、コンテンツ映像の撮影及び編集機能を有することができる。サーバー19にアップロードされた多方位映像21は、ディスプレイ装置10からのユーザの再生要請に応じてディスプレイ装置10に提供される。
多方位映像21を製作するために、映像製作装置51は、コンテンツ製作者が複数のレンズを用いて全方位に対応して撮影(511)した複数の映像を取得する。映像製作装置51は、撮影されたそれぞれの映像のフレームをイメージの形態で抽出(512)する。映像製作装置51は、抽出されたそれぞれのイメージに対して、特定領域及び時間帯別に加重値を設定(513)する。この時、特定領域及び時間帯別の加重値は、コンテンツ製作者の製作意図によって設定され、このように設定された加重値は、サーバー19で多方位映像21のストリーミング時に複数のセグメント別解像度に反映され得る。
それぞれのイメージに対して加重値を設定した後、映像製作装置51は、それぞれのイメージをスティッチング方式で連結(514)し、連結されたイメージをフレームの形態に映像処理して多方位映像21を生成する。
上記のとおりに、映像製作装置51によって生成された多方位映像21は、コンテンツプロバイダー側に設けられたサーバー19にアップロードされる。
サーバー19は、映像製作装置51で製作された複数の多方位映像21を受信して保存する。ここで、サーバー19は、多方位映像21から、複数のセグメント及び複数の解像度別の全ての組合せに対応するそれぞれの映像52を生成し、保存する。一実施例として、サーバー19は、多方位映像21の全体領域を上左、上右、上前、上後、下左、下右、下前、下後などの領域に対応する複数のセグメントに分割し、それぞれのセグメントに対して解像度が異なる複数の映像に保存する。例えば、多方位映像21から分割された複数のセグメントのうち、上左領域に該当するセグメントに対して、1280*720(720p)、1920*1080(1080p)及び3840*2160(4K)の解像度で映像をそれぞれ保存することができる。同様に、他のセグメントに対しても複数の解像度別に映像を保存することができる。
ディスプレイ装置10は、多方位映像21を視聴するためのユーザの再生要請を受信する。ユーザの再生要請に応答して、ディスプレイ装置10は、現在のネットワーク状態531に関する情報、例えば虹彩認識センサー又はジャイロセンサーなどによって感知されたユーザの現在視線に関する情報、ユーザのジェスチャー及び音声に関する情報などを収集(532)し、収集された情報をサーバー19に伝送する。
サーバー19は、ディスプレイ装置10から伝送されたネットワーク状態531に関する情報に基づいて、多方位映像21をストリーミングするための最大解像度を決定する。
サーバー19は、ディスプレイ装置10から伝送されたユーザの現在視線に関する情報及びユーザのジェスチャー及び音声に関する情報と、以前に視聴したユーザたちの時間帯別視線移動情報、多方位映像21の製作時に設定された加重値情報、広告情報のうち少なくとも一つに基づいて、複数のセグメントのそれぞれに対する加重値を判断する。
サーバー19は、上記のように判断された複数のセグメント別加重値情報を用いて、多方位映像21の複数のセグメント別ストリーミングのための解像度を決定する。例えば、複数のセグメントのうち、上左領域に該当するセグメントの加重値が高く判断された場合、1280*720(720p)、1920*1080(1080p)及び3840*2160(4K)の解像度で保存されたそれぞれの映像のうち、最高の解像度で処理された3840*2160(4K)の映像がストリーミングされるようにする。一方、上右領域に該当するセグメントの加重値が低く判断された場合、最低の解像度で処理された1280*720(720p)の映像をストリーミングさせる。
上記のように、サーバー19は、多方位映像21の複数のセグメント別に異なる解像度で処理されたそれぞれの映像をディスプレイ装置10にストリーミングさせることによって、アダプティブストリーミング(adaptive streaming)を具現することになる。
ディスプレイ装置10は、サーバー19からアダプティブストリーミングによって受信した複数のセグメント別に異なる解像度のそれぞれの映像を、スティッチング方式で連結して一つのフレームとし、このように生成されたイメージフレームを用いて多方位映像21を再生(533)する。
ディスプレイ装置10は、多方位映像21の再生(533)時に、ユーザの視線に対応する画角情報を用いて、多方位映像21の全領域のうち、該当の画角に対応する領域を抽出(cropping)して画面に表示する。
上記のように、サーバー19から受信した複数のセグメント別映像を、スティッチング方式で連結し、連結された全体映像の中から視線に対応する一部を抽出する動作は、ディスプレイ装置10のグラフィックプロセシングユニット(GPU:Graphic Processing Unit)によって行うことができる。
ディスプレイ装置10は、多方位映像21が再生(533)される間に、ネットワーク状態、ユーザの現在視線、ユーザのジェスチャー及び音声などの情報をサーバー19に連続的に伝送する。サーバー19は、ディスプレイ装置10から連続的に提供される情報を用いて、複数のセグメント別加重値情報を調整し、調整された情報を用いて複数のセグメント別解像度を変更してアダプティブストリーミングすることができる。
図7は、本発明の一実施例に係るディスプレイ装置の制御方法を示すフローチャートである。図7に示すように、動作S61で、ディスプレイ装置10は、複数のセグメントに分割されたコンテンツの映像を保存しているサーバー19と通信する。ここで、サーバー19は、複数のセグメントに分割されたコンテンツの映像を複数の解像度別に処理して保存することができる。
動作S62で、ディスプレイ装置10は、サーバー19から第1解像度で処理された複数のセグメントの映像を受信し、立体映像35を生成する。サーバー19に保存されたコンテンツの映像が複数のカメラによって撮影されて製作された360度映像である場合、立体映像は球形に生成される。
動作S63で、ディスプレイ装置10は、立体映像35の一領域を表示する。動作S63は、立体映像35の全領域のうち、ユーザによって選択された領域を表示したり、デフォルトに設定された立体映像35の初期再生位置に対応する領域を表示する動作を含むことができる。
動作S64で、ディスプレイ装置10は、立体映像35の全領域のうち表示可能性の高い領域を決定するための情報を、サーバー19に伝送する。ここで、情報は、ユーザの現在視線、ユーザたちの時間帯別視線移動情報、ユーザのジェスチャー及び音声に関する情報のうち少なくとも一つを含むことができる。
一実施例によって、動作S64は、サーバー19に情報を周期的に伝送する動作を含むことができる。これによって、ユーザの視線の移動を予測するための最新の情報を反映して、画面に表示される可能性が高い多方位映像の一部をストリーミングすることができる。
一実施例によって、動作S64は、ディスプレイ装置10のネットワーク状態に関する情報をサーバー19に伝送する動作と、伝送されたネットワーク状態に関する情報に基づいてサーバー19から受信される少なくとも一つのセグメントの映像の最大解像度を決定する動作を含むことができる。これによって、ネットワーク状態を考慮して、最適の解像度で多方位映像をストリーミングすることができる。
動作S65で、ディスプレイ装置10はサーバー19から、情報に基づいて決定された表示可能性の高い領域に対応し、第1解像度よりも高い第2解像度を持つように処理された少なくとも一つのセグメントを受信する。ここで、サーバー19は、ディスプレイ装置10から受信した情報とコンテンツ映像に付加情報として含まれているコンテンツの製作情報及び広告情報のうち少なくとも一つに基づいて、立体映像35の全領域のうち、ディスプレイ部13に表示される可能性の高い領域を決定することができる。
一実施例によって、動作S65は、決定された表示可能性の高い領域に対応しなく、且つ第1解像度よりも低い第3解像度で処理された少なくとも一つのセグメントを、サーバー19から受信する動作を含むことができる。これによって、画面に表示される可能性が高い多方位映像の一部を、他の部分に比べて高い解像度で処理し、限定されたネットワーク状態でより高い品質の映像を提供することができる。
一実施例によって、動作S65は、サーバー19から、決定された表示可能性の高い領域に対応する少なくとも一つの第1セグメントを優先的に受信し、その次に、表示可能性の高い領域に対応しない少なくとも一つの第2セグメントを受信する動作を含むことができる。これによって、画面に表示される可能性が高い多方位映像の一部を優先的にストリーミングし、限定されたネットワーク状態でより高い品質の映像を提供することができる。
一実施例によって、動作S65は、サーバー19から受信する、決定された表示可能性が高い領域に対応する少なくとも一つの第1セグメントと、表示可能性が高い領域に対応しない少なくとも一つの第2セグメントとをスティッチング方式で連結する動作を含むことができる。これによって、異なる解像度で受信される複数のセグメントを連結して一つのフレームとして再生することができる。
動作S66で、ディスプレイ装置10は、受信した第2解像度の少なくとも一つのセグメントに対応する領域を表示する。
上記のような一実施例に係るディスプレイ装置の制御方法は、多方位映像の視聴時に、限定されたネットワーク状態でもユーザに鮮明で生き生きとした多方位映像を提供する。
上記のように、一実施例によれば、ユーザが多方位映像を視聴する際に、ユーザに高い画質の多方位映像を連続的に提供することができる。
また、一実施例によれば、ユーザが多方位映像を視聴する際に、限定されたネットワーク状態でもユーザに鮮明で生き生きとした多方位映像を提供することができる。
以上、好適な実施例を挙げて本発明に関して詳しく説明したが、本発明はそれらに限定されるものではなく、特許請求の範囲内で様々に実施可能である。

Claims (15)

  1. ディスプレイ装置であって、
    サーバーと通信可能な通信回路を有する通信部と、
    ディスプレイ部と、
    前記サーバーからコンテンツのセグメントを受信し、
    該受信されたセグメントに基づいて球形映像を生成し、
    前記球形映像の第1領域を前記ディスプレイ部に表示し、
    前記球形映像において表示可能性が高い第2領域を予測するために、前記サーバーによって使用可能な情報を前記サーバーに伝送し、
    前記サーバーから、前記第2領域に対応するセグメントと、前記球形映像において第3領域に対応するセグメントを受信し、前記第2領域に対応するセグメントは、前記第3領域に対応するセグメントよりも高い解像度を有し、
    第2領域に対応する前記受信されたセグメントと第3領域に対応する前記受信されたセグメントに基づいて前記球形映像を生成するよう、前記ディスプレイ装置を制御する制御部と、
    を備えるディスプレイ装置。
  2. 前記情報は、現在視線に関する情報、時間帯別視線移動に関する情報、ジェスチャー又は音声に関する情報のうち少なくとも一つを含む、請求項1に記載のディスプレイ装置。
  3. 前記サーバーは、前記ディスプレイ装置から受信された情報、前記コンテンツに含まれている前記コンテンツの製作情報、又は広告情報のうち少なくとも一つに基づいて、前記第2領域を識別する、請求項2に記載のディスプレイ装置。
  4. 前記制御部は、前記ディスプレイ装置のネットワーク状態に関する情報をさらに前記サーバーに伝送し、前記ネットワーク状態に基づいて前記サーバーから受信されるセグメントの映像の最大解像度を識別する、請求項1に記載のディスプレイ装置。
  5. 前記第3領域は、表示可能性の高くない領域に対応する、請求項1に記載のディスプレイ装置。
  6. 前記制御部は、前記第2領域に対応する第1セグメントと、前記第3領域に対応する第2セグメントとをスティッチング方式で連結するように映像処理部を制御する、請求項1に記載のディスプレイ装置。
  7. 前記制御部は、前記第2領域に対応する第1セグメントを受信し、次に、前記第3領域に対応する第2セグメントを受信する、請求項1に記載のディスプレイ装置。
  8. 前記制御部は、前記サーバーに前記第2領域を予測するために前記サーバーによって使用可能な情報を周期的に伝送するように前記ディスプレイ装置を制御する、請求項1に記載のディスプレイ装置。
  9. 前記制御部は、ーザの現在視線が所定時間以上維持される場合、前記現在視線に関する情報を前記サーバーに伝送するように前記ディスプレイ装置を制御する、請求項2に記載のディスプレイ装置。
  10. 前記サーバーは、前記セグメントに分割されたコンテンツを複数の解像度別に処理して保存する、請求項1に記載のディスプレイ装置。
  11. ディスプレイ装置の制御方法であって、
    サーバーからコンテンツのセグメントを受信する段階と、
    前記受信されたセグメントに基づいて球形映像を生成する段階と、
    前記球形映像の第1領域を表示する段階と、
    前記球形映像において表示可能性が高い第2領域を予測するために、前記サーバーによって使用可能な情報を前記サーバーに伝送する段階と、
    前記サーバーから、前記第2領域に対応するセグメントと、前記球形映像において第3領域に対応するセグメントを受信する段階と、
    第2領域に対応する前記受信されたセグメントと第3領域に対応する前記受信されたセグメントに基づいて前記球形映像を表示する段階と、
    を含むディスプレイ装置の制御方法。
  12. 前記情報は、現在視線に関する情報、時間帯別視線移動に関する情報、ジェスチャー又は音声に関する情報のうち少なくとも一つを含む、請求項11に記載のディスプレイ装置の制御方法。
  13. 前記サーバーは、前記ディスプレイ装置から受信された情報、前記コンテンツに含まれている前記コンテンツの製作情報、又は広告情報のうち少なくとも一つに基づいて、前記第2領域を識別する、請求項12に記載のディスプレイ装置の制御方法。
  14. 前記サーバーに前記ディスプレイ装置のネットワーク状態に関する情報を伝送する段階と、
    前記ネットワーク状態に基づいて前記サーバーから受信されるセグメントの映像の最大解像度を識別する段階とをさらに含む、請求項11に記載のディスプレイ装置の制御方法。
  15. 前記第3領域は、表示可能性の高くない領域に対応する、請求項11に記載のディスプレイ装置の制御方法。
JP2019520422A 2016-11-08 2017-10-26 ディスプレイ装置及びその制御方法 Active JP6751205B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2016-0148222 2016-11-08
KR1020160148222A KR20180051202A (ko) 2016-11-08 2016-11-08 디스플레이장치 및 그 제어방법
PCT/KR2017/011907 WO2018088730A1 (en) 2016-11-08 2017-10-26 Display apparatus and control method thereof

Publications (3)

Publication Number Publication Date
JP2019531038A JP2019531038A (ja) 2019-10-24
JP2019531038A5 JP2019531038A5 (ja) 2019-12-05
JP6751205B2 true JP6751205B2 (ja) 2020-09-02

Family

ID=62064889

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019520422A Active JP6751205B2 (ja) 2016-11-08 2017-10-26 ディスプレイ装置及びその制御方法

Country Status (6)

Country Link
US (1) US20180131920A1 (ja)
EP (1) EP3507988A4 (ja)
JP (1) JP6751205B2 (ja)
KR (1) KR20180051202A (ja)
CN (1) CN109923868A (ja)
WO (1) WO2018088730A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102495763B1 (ko) * 2018-02-23 2023-02-06 삼성전자주식회사 제1 이미지 처리 방식으로 보정된 이미지를 제2 이미지 처리 방식을 이용하여 외부 전자 장치에서 보정하기 위한 전자 장치 및 방법
KR102222871B1 (ko) * 2019-02-22 2021-03-04 삼성전자주식회사 디스플레이 장치 및 이의 영상 표시 방법
CN112073765A (zh) * 2019-06-10 2020-12-11 海信视像科技股份有限公司 一种显示设备
CN110471536A (zh) * 2019-09-17 2019-11-19 河北陆航检测认证有限公司 基于vr的消防体验方法、装置及终端设备
CN110677689A (zh) * 2019-09-29 2020-01-10 杭州当虹科技股份有限公司 一种基于用户视角的vr视频广告无缝插播方法
US20210279768A1 (en) * 2020-03-09 2021-09-09 At&T Intellectual Property I, L.P. Apparatuses and methods for enhancing a presentation of content with surrounding sensors
CN117784915A (zh) * 2022-09-20 2024-03-29 北京字跳网络技术有限公司 虚拟环境中的观影画面调整方法、装置、存储介质及设备

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6466254B1 (en) * 1997-05-08 2002-10-15 Be Here Corporation Method and apparatus for electronically distributing motion panoramic images
KR101557504B1 (ko) * 2009-04-13 2015-10-07 삼성전자주식회사 채널 적응형 비디오 전송 방법, 이를 이용한 장치 및 이를 제공하는 시스템
KR20120126897A (ko) * 2011-05-13 2012-11-21 엘지전자 주식회사 전자 장치 및 입체영상 처리 방법
US20130031589A1 (en) * 2011-07-27 2013-01-31 Xavier Casanova Multiple resolution scannable video
US9516225B2 (en) * 2011-12-02 2016-12-06 Amazon Technologies, Inc. Apparatus and method for panoramic video hosting
US9307225B2 (en) * 2012-10-25 2016-04-05 Citrix Systems, Inc. Adaptive stereoscopic 3D streaming
MX364553B (es) * 2013-05-02 2019-04-30 This Tech Inc Reporte de velocidad de bits adaptativa del lado del servidor.
US9699437B2 (en) * 2014-03-03 2017-07-04 Nextvr Inc. Methods and apparatus for streaming content
US10771736B2 (en) * 2014-06-30 2020-09-08 Microsoft Technology Licensing, Llc Compositing and transmitting contextual information during an audio or video call
US20160277772A1 (en) * 2014-09-30 2016-09-22 Telefonaktiebolaget L M Ericsson (Publ) Reduced bit rate immersive video
JP6526051B2 (ja) * 2014-12-12 2019-06-05 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
GB2536025B (en) * 2015-03-05 2021-03-03 Nokia Technologies Oy Video streaming method
EP3440495A1 (en) * 2016-04-08 2019-02-13 Google LLC Encoding image data at a head mounted display device based on pose information

Also Published As

Publication number Publication date
KR20180051202A (ko) 2018-05-16
WO2018088730A1 (en) 2018-05-17
CN109923868A (zh) 2019-06-21
EP3507988A4 (en) 2019-08-21
EP3507988A1 (en) 2019-07-10
US20180131920A1 (en) 2018-05-10
JP2019531038A (ja) 2019-10-24

Similar Documents

Publication Publication Date Title
JP6751205B2 (ja) ディスプレイ装置及びその制御方法
US10620791B2 (en) Information processing apparatus and operation reception method
WO2017086263A1 (ja) 情報処理装置および画像生成方法
US9858643B2 (en) Image generating device, image generating method, and program
US20180068489A1 (en) Server, user terminal device, and control method therefor
US11317072B2 (en) Display apparatus and server, and control methods thereof
JP6899875B2 (ja) 情報処理装置、映像表示システム、情報処理装置の制御方法、及びプログラム
US20180188802A1 (en) Operation input apparatus and operation input method
CN114730093A (zh) 在头戴式显示器(hmd)和主机计算机之间划分渲染
KR102431712B1 (ko) 전자장치, 그 제어방법 및 그 컴퓨터프로그램제품
WO2017033777A1 (ja) ヘッドマウントディスプレイシステムを制御するプログラム
TWI572203B (zh) 媒體串流系統、控制方法及非暫態電腦可讀取儲存媒體
US11303871B2 (en) Server and display apparatus, and control methods thereof
JP2017045294A (ja) ヘッドマウントディスプレイシステムを制御するプログラム
JP6359572B2 (ja) 画像送信装置、情報処理端末、画像送信方法、情報処理方法、プログラム及び情報記憶媒体
KR102204212B1 (ko) 실감형 콘텐츠 제공 장치 및 방법
KR20210059177A (ko) 전자장치 및 그 제어방법
US20180003969A1 (en) Master device, slave device, and control method therefor
US20220172440A1 (en) Extended field of view generation for split-rendering for virtual reality streaming
KR20200144702A (ko) 증강 현실 미디어 콘텐츠의 적응적 스트리밍 시스템 및 적응적 스트리밍 방법
US20210136135A1 (en) Image stabilization cues for accessible game stream viewing
JP2017045295A (ja) ヘッドマウントディスプレイシステムを制御するプログラム
CN117478931A (zh) 信息显示方法、装置、电子设备及存储介质
JP2020064534A (ja) 仮想現実空間の提供方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190415

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190415

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200714

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200813

R150 Certificate of patent or registration of utility model

Ref document number: 6751205

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150