JP7477600B2 - マルチストリーム中心窩ディスプレイトランスポート - Google Patents

マルチストリーム中心窩ディスプレイトランスポート Download PDF

Info

Publication number
JP7477600B2
JP7477600B2 JP2022515065A JP2022515065A JP7477600B2 JP 7477600 B2 JP7477600 B2 JP 7477600B2 JP 2022515065 A JP2022515065 A JP 2022515065A JP 2022515065 A JP2022515065 A JP 2022515065A JP 7477600 B2 JP7477600 B2 JP 7477600B2
Authority
JP
Japan
Prior art keywords
stream
image
regions
receiver
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022515065A
Other languages
English (en)
Other versions
JPWO2021053644A5 (ja
JP2022548534A (ja
Inventor
リグール グエンナディ
アザー フセイン サイド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATI Technologies ULC
Original Assignee
ATI Technologies ULC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATI Technologies ULC filed Critical ATI Technologies ULC
Publication of JP2022548534A publication Critical patent/JP2022548534A/ja
Publication of JPWO2021053644A5 publication Critical patent/JPWO2021053644A5/ja
Application granted granted Critical
Publication of JP7477600B2 publication Critical patent/JP7477600B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4092Image resolution transcoding, e.g. by using client-server architectures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/70Media network packetisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/764Media network packet handling at the destination 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/80Responding to QoS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/162User input
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/164Feedback from the receiver or from the transmission channel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234345Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements the reformatting operation being performed only on part of the stream, e.g. a region of the image or a time segment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234363Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the spatial resolution, e.g. for clients with a lower screen resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234381Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the temporal resolution, e.g. decreasing the frame rate by frame skipping
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2365Multiplexing of several video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4347Demultiplexing of several video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Databases & Information Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Processing (AREA)

Description

(関連技術の説明)
ディスプレイの解像度とリフレッシュレートが上がるにつれて、表示される画像に必要な伝送帯域幅が主要な制限要因になってくる。仮想現実(VR)及び拡張現実(AR)ヘッドセット又はヘッドマウントディスプレイ(HMD)の場合、これは、ケーブルの物理的な太さがユーザの移動を妨げるためにさらに大きな問題になり、より高解像度の画像を伝送するためにより多くのワイヤを追加するのが受け入れられない解決策である。ユーザに対する没入型環境を作り出すために、VR及びARビデオストリーミングアプリケーションは、典型的には、高解像度、及び、高データレートと同等である高フレームレートを有する。VR及びARディスプレイの場合、今日一般的に行われているように、完全に均一な解像度の画像を送信するのは無駄である。
本明細書に記載される方法及びメカニズムの利点は、添付の図面と併せて以下の説明を参照することによってより良く理解され得る。
システムの一実施形態のブロック図である。 送信機の一実施形態のブロック図である。 一実施形態による、フレームをレンダリングしてVR又はARディスプレイに送るためのフレームタイミングのタイミング図である。 受信機の一実施形態のブロック図である。 中心窩領域ストリームの位相タイミングを調整する方法の一実施形態を示す一般化されたフロー図である。 眼球サッケード(eye saccade)が検出されたことに応じて、レンダリングされる中間解像度画像の数を増加させる方法の一実施形態を示す一般化されたフロー図である。 一実施形態による、トランスポートされた画像及び最終画像の図である。 一実施形態による、通常のマルチストリームディスプレイトランスポートのタイミング図である。 一実施形態による、位相シフトされたマルチストリームディスプレイトランスポートのタイミング図である。
以下の説明では、本明細書において提示される方法及びメカニズムの十分な理解を提供するために、多数の具体的な詳細が記載されている。しかしながら、当業者は、これらの具体的な詳細無しに様々な実施形態が実施され得ることを認識するであろう。いくつかの場合、周知の構造、コンポーネント、信号、コンピュータプログラム命令及び技術は、本明細書に記載されるアプローチを不明瞭にすることを避けるために、詳細に示されていない。説明を簡潔及び明瞭にするために、図面に示す要素は必ずしも縮尺通りに描かれていないことを理解されたい。例えば、いくつかの要素の寸法は、他の要素に対して誇張される場合がある。
マルチストリーム中心窩ディスプレイトランスポート層を使用するための様々なシステム、装置、方法及びコンピュータ可読媒体が本明細書に開示されている。一実施形態では、仮想現実(VR)システムは、ディスプレイに結合された受信機に、ディスプレイトランスポート層を介して複数のストリームを送信する送信機を含む。各ストリームは、ディスプレイに送るための合成画像を生成するために受信機によって一緒にブレンディングされる異なる画像に対応する。画像は、少なくとも眼の視線方向に対応する中心窩領域画像と、中心窩領域画像よりも広い視野を有する低解像度画像である背景画像と、を含む。別の実施形態では、解像度が徐々に低下する複数の中心窩領域画像が存在し得る。トランスポート層を介して送信される中心窩領域ストリーム(複数可)の位相タイミングは、画像全体における中心窩領域の位置に対応するように、背景ストリームに対して調整される。これは、画像をブレンディングしてディスプレイに送られる合成画像を生成するために受信機で必要なバッファリングの量を減らすのに役立つ。
図1を参照すると、システム100の一実施形態のブロック図が示されている。一実施形態では、システム100は、送信機105と、チャネル110と、受信機115と、ヘッドマウントディスプレイ(HMD)120と、を含む。他の実施形態では、システム100は、図1に示す以外の構成要素を含むことができることに留意されたい。一実施形態では、チャネル110は、送信機105と受信機115との間の直接有線接続である。別の実施形態では、チャネル110は、送信機105と受信機115との間のネットワーク接続を表す。送信機105と受信機115との間の接続を提供するために、実施形態に応じて、任意のタイプ及び数のネットワークを使用することができる。例えば、送信機105は、特定の実施形態においてはクラウドサービスプロバイダの一部である。さらなる実施形態では、チャネル110は、送信機105と受信機115との間の無線接続を表す。
一実施形態では、送信機105は、エンコードされて受信機115に送信されるビデオシーケンスを受信する。別の実施形態では、送信機105は、エンコードされて受信機115に送信されるビデオシーケンスをレンダリングするレンダリングユニットを含む。転送されるデータの量を減らすために、中心窩画像のマルチストリームトランスポートが送信機105と受信機115との間で使用される。マルチストリームシーケンスの各ストリームは、異なる解像度で生成された異なる画像に対応する。一実施形態では、利用可能なリンク帯域幅の一部が各ストリームに静的に割り当てられてもよい。別の実施形態では、ストリームの帯域幅を動的に構成可能である。受信機115でのピクセルデータのバッファリングの量を減らすために、それらの適切なストリームにおける中心窩画像のトランスポートは、背景画像を運ぶデータストリームに対して位相シフトされる。受信機115が複数のストリームを受信すると、受信機115は、ストリームから個々の画像を抽出し、画像を一緒にブレンディングして単一のフレームを生成し、HMD120に送る。一実施形態では、受信機115は、HMD120から分離されており、受信機115は、有線又は無線接続を使用してHMD120と通信する。別の実施形態では、受信機115は、HMD120内に統合されている。
送信機105及び受信機115は、任意のタイプの通信デバイス及び/又はコンピューティングデバイスを表す。例えば、様々な実施形態では、送信機105及び/又は受信機115は、携帯電話、タブレット、コンピュータ、サーバ、HMD、別のタイプのディスプレイ、ルータ、又は、他のタイプのコンピューティングデバイス若しくは通信デバイスであってもよい。一実施形態では、システム100は、レンダリングされた仮想環境のフレームを送信機105から受信機115に無線で送信するための仮想現実(VR)アプリケーションを実行する。他の実施形態では、本明細書で説明する方法及びメカニズムを利用したシステム100によって、他のタイプのアプリケーション(例えば、拡張現実(AR)アプリケーション)が実装され得る。
一実施形態では、HMD120上に表示された各画像において、HMD120の右側125R上に表示されているシーンは、中心窩領域130Rを含み、HMD120の左側125Lに表示されているシーンは、中心窩領域130Lを含む。これらの中心窩領域130R,130Lは、HMD120の拡張された右側125R及び左側125Lの各々において円によって示される。本明細書で使用される「中心窩領域」という用語は、各眼の視線が向けられる、眼毎に表示される半フレームの部分として定義される。いくつかの場合では、「中心窩領域」は、眼が指し示している半フレーム内の位置を検出するアイトラッキングセンサに少なくとも部分的に基づいて判定される。さらに、「中心窩領域」という用語は、「焦点領域」と呼ばれることもある。
一実施形態では、各右半分又は左半分のフレームにおける中心窩領域130R,130Lの位置が、HMD120内の1つ以上のアイトラッキングセンサ140に基づいて判定される。この実施形態では、アイトラッキングデータが、フィードバックとして送信機105及びオプションでVRビデオのレンダリングソースに提供される。いくつかの場合では、アイトラッキングデータフィードバックは、VRビデオフレームレートよりも高い周波数で生成され、送信機105は、フィードバックにアクセスし、フレーム毎にエンコードされたビデオストリームを更新することが可能である。いくつかの場合では、アイトラッキングは、HMD120上では実行されず、むしろ、眼の位置及び移動を判定するさらなる処理のために、ビデオ及び他のセンサデータが送信機105に送り返される。別の実施形態では、中心窩領域130R,130Lの位置は、ユーザが見ていると予想される場所に基づいて、VRアプリケーションによって特定される。別の実施形態では、中心窩領域130R,130Lの位置は、光学システムの特性のみに基づいて又はアイトラッキングと組み合わせて判定される。中心窩領域130R,130Lのサイズは、実施形態に応じて変化してもよいことに留意されたい。また、中心窩領域130R,130Lの形状は、実施形態に応じて変化してもよく、別の実施形態では、中心窩領域130R,130Lは、楕円として定義される。他の実施形態では、他のタイプの形状が中心窩領域130R,130Lに対して利用されてもよい。
一実施形態では、チャネル110は、マルチストリームトランスポート層をサポートし、各領域に個別のストリーム及び背景画像に個別のストリームを使用して、高解像度の中心窩領域及び低解像度の背景画像を転送する。いくつかの場合では、中心窩及び背景の画像が異なるリフレッシュレートで送信される。例えば、VR又はARアプリケーションの現在のシーンが変更されていない場合にユーザが眼を高速に動かした場合、新たな復号サッケード到達点を考慮して、中心窩領域が背景画像よりも高いリフレッシュレートで送信される。一実施形態では、送信機105は、フレームの最終的な合成画像を生成するために複数の領域をどのように組み合わせるべきかを指定するマスクメタデータを、受信機115に送信する。受信機115は、受信したマスクメタデータに基づいて、中心窩領域を背景画像とブレンディングする。一実施形態では、マスクメタデータは、アルファカラーチャネルとして提供される。別の実施形態では、マスクメタデータは、分析的に決定される。一実施形態では、送信機105は、背景画像スケーリング属性を指定するメタデータを、受信機115に送信する。背景画像スケーリング属性は、中心窩領域(複数可)とブレンディングする前に、受信機115によって背景画像がどれだけスケーリングされるべきかを示す。受信機115は、この受信したスケーリング属性に基づいて、背景画像をスケーリングする。
一実施形態では、背景画像と組み合わせる前に中心窩画像データを記憶するために受信機115が必要とする画像バッファリングの量を最小化するために、中心窩画像ストリームの開始は、背景画像ストリームに対して位相シフトされ、フレーム内の中心窩領域の位置に対応する。一実施形態では、中心窩画像を備えたストリームは、背景画像に対する中心窩領域の位置、中心窩層の構成順序、及び、位相シフトに関するメタデータを含む。一実施形態では、対応するストリーム内の中心窩領域の位相シフトの調整は、サッケード運動に結び付けられ、サッケード抑制中に実行される。一実施形態では、ストリーム内の画像シフトのための眼球サッケードに関する情報は、側波帯通信インタフェース145を使用して、アイトラッキングセンサ(複数可)140から送信機105に送信される。
受信機115が複数のストリームを受信すると、受信機115は、各ストリームから画像を抽出する。次に、受信機115は、中心窩画像(複数可)を背景画像に重ね合わせて、ディスプレイ120に送られる最終画像を生成する。背景画像ストリームに対して中心窩画像ストリーム(複数可)の送信を位相シフトすることにより、中心窩画像(複数可)を背景画像と組み合わせて最終画像を生成するために受信機115で必要とされるバッファリングの量が減少する。
図2を参照すると、送信機200の一実施形態のブロック図が示されている。一実施形態では、送信機200は、少なくとも中心窩レンダリングユニット210と、眼球サッケード予測ユニット215と、エンコーダ225と、を含む。或いは、別の実施形態では、中心窩レンダリングユニット210は、送信機200内に統合されるのではなく、送信機200に結合されている。送信機200が、図を曖昧にすることを避けるために示されていない他の構成要素も含むことができることに留意されたい。中心窩レンダリングユニット210、眼球サッケード予測ユニット215及びエンコーダ225は、図2において個別のユニットとして示されているが、他の実施形態では、これらのユニットのうち任意の2つを一緒に組み合わせて単一のユニットにしてもよいし、3つのユニット全てを一緒に組み合わせて単一のユニットにしてもよいことに留意されたい。レンダリングユニット210、眼球サッケード予測ユニット215及びエンコーダ225の各々は、ハードウェア(例えば、制御ロジック、処理ユニット)及び/又はソフトウェア(例えば、処理ユニットによって実行可能なプログラム命令)の任意の適切な組み合わせを使用して実装される。
一実施形態では、中心窩レンダリングユニット210は、グラフィックス情報(例えば、生の画像データ)から、レンダリングされた画像220を生成する。一実施形態では、レンダリングされた画像220は、ビデオシーケンスの単一のビデオフレームに対応する2つ以上の画像を含む。「画像」、「フレーム」及び「ビデオフレーム」という用語は、本明細書では交換可能に使用できることに留意されたい。一実施形態では、中心窩レンダリングユニット210は、フレーム内の中心窩領域(複数可)(例えば、図1の中心窩領域130R,130L)を指定する中心窩領域情報を受信する。一実施形態では、中心窩領域情報は、HMD(例えば、HMD120)内の1つ以上のアイトラッキングセンサ(例えば、センサ140)から送信機200に提供される。中心窩レンダリングユニット210は、中心窩領域情報を使用して、レンダリングされた画像220の他の画像よりも比較的高いピクセル密度で中心窩領域画像を生成する。
一実施形態では、レンダリングされた画像220の各画像は、HMDの各アイビューに対して1つの画像を有する一対の画像を表すことに留意されたい。例えば、この実施形態では、レンダリングされた画像220の各画像は、右眼用の第1のレンダリング画像と左眼用の第2のレンダリング画像とを含む一対の画像を表す。或いは、レンダリングされた画像220の各画像は、単一の画像に組み合わされる左眼及び右眼の部分を含む。
一実施形態では、エンコーダ225は、レンダリングされた画像220から、フレーム毎に複数のエンコードされたストリーム235を生成する。次に、エンコーダ225は、複数のエンコードされたストリーム235を、再構成のために受信機に送信し、各ストリームは、フレームの一部又は全体の個別にエンコードされた画像表現を含む。一実施形態では、各ストリームは、他のストリームの他の画像の解像度とは異なる解像度の画像を含む。また、各ストリームの更新レートは、他のストリームから独立している。したがって、一実施形態では、中心窩領域ストリームは、背景画像ストリームよりも高い更新レートを有する。
一実施形態では、眼球サッケード予測ユニット215は、眼球サッケードを検出し、眼球がサッケードの終わりに到達する位置を予測する。一実施形態では、検出及び予測は、アイトラッキングデータに基づく。本明細書で使用される「サッケード」という用語は、注視点間の眼球の急速な動きとして定義される。例えば、眼球サッケード予測ユニット215は、眼球運動が閾値量よりも大きいことを示す眼球位置センサの読み取り値に基づいて、眼球サッケードを検出する。眼球サッケードが検出されると、サッケード予測ユニット215は、眼球が最終的にディスプレイの何れの位置に到達するかを予測する。一実施形態では、サッケード予測ユニット215は、眼が最終位置に到達するタイミングを予測する。位置及びタイミングの予測は、ユーザに表示される次のフレームの中心窩領域(複数可)をいつレンダリングするかを決定するために使用される。通常、サッケードの省略は、急速な眼球運動の前の短期間の、眼球運動中の、及び、眼球運動後の短期間の、一部の視覚入力の処理を妨げる。しかしながら、眼が動かなくなると、脳は、少し遅れて新たな復号視覚データの処理を再開する。したがって、ユーザがネガティブな視覚体験をすることを防ぐために、中心窩レンダリングユニット210は、眼球サッケードの予測された到達位置の直後に中心窩領域が現れるようにレンダリングする。また、中心窩レンダリングユニット200は、眼球サッケードが終了すると予測された瞬間の直後に次のフレームがユーザに表示されるように、次のフレームをレンダリングする。
一実施形態では、レンダリングユニット210は、眼の視力低下(acuity falloff)を近似するために、中心窩領域(複数可)のデータを用いて異なる解像度の複数の画像を生成する。サッケードのタイプ及びサッケード予測の確率測定に応じて、レンダリングユニット210は、フレーム毎にレンダリングされる画像の数を増やし、眼球サッケードが終了すると予測されると、到達点予測誤差の可能性を修正するためにしばらくの間画像を拡大して、それらの形状を調整する(例えば、サッケードの方向に画像を引き延ばし、サッケード到達点でより大きな画像部分をカバーする)。例えば、一実施形態では、眼球運動が無視できる期間中に、レンダリングユニット210は、受信機によって一緒にブレンディングされる、フレーム毎の2つの画像を生成する。しかしながら、眼球サッケードが検出され、到達点の不確実性が特定の閾値を超えると推定された後に、レンダリングユニット210は、フレーム毎に2つを超える画像を生成する。これは、視覚的なアーティファクトが少ない、より良い画像をユーザに提供するのに役立つ。これは、眼の到達位置の予測に僅かな誤差がある場合に、より良い画像を提供するのにも役立つ。一実施形態では、眼球サッケードが検出されることに応じて、レンダリングユニット210は、第1の解像度で中心窩領域画像、第2の解像度で第1の中間中心窩領域画像、第3の解像度で第2の中間中心窩領域画像、及び、第4の解像度で背景画像を生成する。これらの4つの画像は個別のストリームとして送信され、受信機で一緒にブレンディングされて、ディスプレイに送られる画像を生成する。この例では、解像度は、第1の解像度から第4の解像度へと、最高から最低になっている。言い換えれば、第1の解像度は第2の解像度よりも高く、第2の解像度は第3の解像度よりも高く、第3の解像度は第4の解像度よりも高い。したがって、サッケード到達点の予測が僅かにずれている場合に、ユーザの眼が、背景画像よりも解像度が高い第1中間中心窩領域の画像に到達するので、ユーザに十分な詳細を提供することができ、顕著な視覚的アーティファクトを防ぐことができる。
図3を参照すると、一実施形態による、VR又はARディスプレイにフレームをレンダリングして送るためのフレームタイミングのタイミング図300が示されている。一実施形態では、各フレーム周期の境界は、垂直同期(VSync)信号によって決定される。言い換えると、フレーム周期の開始がVSync信号と一致し、フレーム周期の終了が次のVSync信号と一致する。例えば、タイミング図300に示されている第1のフレーム周期は、VSync305とVsync310によって区切られている。第1のフレーム周期中に、元の中心窩画像ストリームが、背景画像ストリームに対して位相シフトされた状態でディスプレイトランスポートを介して受信機に送信される。中心窩画像が背景画像とブレンディングされる時点で中心窩画像ストリームが受信機に到着するように、位相シフトが実行される。受信機は、中心窩領域を背景画像とブレンディングし、VR合成器は、ブレンディングされた画像をディスプレイに送る。
本明細書で使用される「フレーム周期」という用語は、フレームレートの逆数として定義される。様々な実施形態では、フレームは、固定又は可変のフレームレートでVRディスプレイに送られ、フレームレートは、所定のVRアプリケーションに優れたユーザエクスペリエンスを提供するのに十分な高さである。本開示全体を通して、技術がVRアプリケーション又はVRディスプレイに適用可能であると言及される場合、その技術は、AR又は他のタイプの没入型アプリケーションにも適用可能であると理解すべきことに留意されたい。VRアプリケーションのフレームレートが特定の期間固定されている場合、次に表示されるフレームのVsyncのタイミングを決定することができる。
この説明のために、VRシステムは、VRアプリケーションの実行中に眼球サッケードを検出及び/又は予測する眼球サッケード検出ユニット又は眼球サッケード予測ユニット(例えば、図2の眼球サッケード予測ユニット215)を含むことが想定される。タイミング図300に示すように、眼球サッケード325が検出され、眼球サッケード325のタイミングの予測が、Vsync信号、背景画像ストリームのトランスポート、及び、元の中心窩画像ストリームのトランスポートに関連して示されている。眼球サッケード325の結果として、中心窩領域の位置が移動し、これは、ディスプレイトランスポート上で中心窩画像ストリームを送信するための最適なタイミングを変更する。一実施形態では、眼球サッケード325は、元の中心窩画像ストリーム320の全体が送信される前に検出されるので、送信機は、中心窩領域の位置が変更されたことにより、元の中心窩画像ストリーム320の送信を中止する。眼球サッケード325が終了し、眼球が動きを停止すると、ユーザは、高解像度の中心窩領域が、視線が向けられる場所にあることを期待することになる。
したがって、一実施形態では、眼球サッケード325が検出されると、眼球サッケード325が終了するときの中心窩領域の予測位置に対応するように、新たな中心窩画像がレンダリングされる。新たな中心窩画像ストリーム330は、新たな中心窩画像が背景画像といつブレンディングされるかに対応するために、背景画像ストリーム335に関して新たな位相関係で送信される。次のVsync315の前に新たな中心窩画像ストリーム330をレンダリング及び送信するのに十分な時間があれば、新たな中心窩画像ストリーム330のフェーズでのこの調整が実行される。Vsync315の前に十分な時間がない場合には、現在のフレームに対する低解像度の背景画像をユーザに表示することができ、次に、新たな中心窩画像ストリームと背景画像ストリームとの間の適切な位相関係が後続のフレームに適用される。
図4を参照すると、受信機400の一実施形態のブロック図が示されている。一実施形態では、受信機400は、HMD(例えば、図1のHMD120)内に統合されている。別の実施形態では、受信機400は、HMDとは別の構成要素であり、受信機400は、有線又は無線インタフェースを介してHMDと通信する。一実施形態では、受信機400は、少なくともストリームデマルチプレクサ410と、バッファ415A~415Nと、デコードユニット420と、ディスプレイ合成器430と、ディスプレイコントローラ440と、を含む。受信機400が、図を曖昧にすることを避けるために示されていない他の構成要素も含むことができることに留意されたい。他の実施形態では、受信機400は、他の適切な構成で構造化することができる。また、図4に示すユニットのうち2つ以上は、他の実施形態では、単一のユニットに組み合わせることができる点に留意されたい。
一実施形態では、受信機400は、VR又はARアプリケーションのフレームのために複数のエンコードされたストリームを受信する。複数のエンコードされたストリームを受信した後に、ストリームデマルチプレクサ410は、エンコードされたストリームを個々のコンポーネントストリームに分離する。一実施形態では、エンコードされたストリームに2つのストリームがあり、2つのストリームは、比較的高解像度の中心窩画像及び比較的低解像度の背景画像を含む。他の実施形態では、受信機400は、3つ以上のエンコードされたストリームを受信する。個々のコンポーネントストリームが分離され、バッファ415A~415Nに格納され、バッファ415A~415Nは、異なるコンポーネントストリームのピクセルデータを格納するための任意の数のバッファを表す。
デコードユニット420は、バッファ415A~415Nから個別の構成要素でエンコードされた画像を取得し、エンコードされた画像をデコードする。次に、デコードユニット420は、デコードされた画像425をディスプレイ合成器430に伝達する。ディスプレイ合成器430は、デコードされた画像425を一緒にブレンディングして、ディスプレイコントローラ440に提供されるブレンディングされた画像435を生成する。一実施形態では、デコードユニット420は、エンコードされたストリームからブレンドマスク422を抽出し、ブレンドマスク422をディスプレイ合成器430に伝達する。この実施形態では、ディスプレイ合成器430は、ブレンドマスク422を使用して、複数の構成要素の画像を組み合わせてブレンディングされた画像435を生成する方法を決定する。ディスプレイコントローラ440は、ブレンディングされた画像435に対して最終調整を実行して、ディスプレイに送られる最終画像445を生成する。最終画像445は、ターゲットディスプレイに送られる前に、フレームバッファ又は他の場所に格納され得ることに留意されたい。
図5を参照すると、中心窩領域ストリームの位相タイミングを調整する方法500の一実施形態が示されている。説明のために、この実施形態でのステップ、及び、図6~図7のステップを順番に示す。しかしながら、説明する方法の様々な実施形態では、説明する要素のうちの1つ以上は、同時に実行されてもよいし、図示された順序とは異なる順序で実行されてもよいし、完全に省略されてもよいことに留意されたい。他の追加の要素も必要に応じて実行される。本明細書に記載された様々なシステム又は装置の何れも、方法500を実施するように構成されている。
送信機は、フレーム内の中心窩領域の位置の指標を受信する(ブロック505)。一実施形態では、中心窩領域情報は、1つ以上のアイトラッキングセンサから側波帯チャネルを介して送信機に送信される。送信機は、フレーム内の中心窩領域の位置に対応するように、背景画像ストリームに対する中心窩領域画像ストリームの位相タイミングを調整する(ブロック510)。例えば、ディスプレイのラスター順序が上から下になり、中心窩領域がフレームの上部にある場合、中心窩領域画像がトランスポート層を介して送信される場合の位相タイミングは、中心窩領域の画像を背景画像とブレンディングする必要がある時点で、中心窩領域の画像全体を受信機が受信できるようにするポイントまで、前方に移動する。或いは、中心窩領域が画面の下部にある場合、中心窩領域画像がトランスポート層を介して送信される場合の位相タイミングは、中心窩領域画像がブレンディングに間に合うように受信機によって完全に受信されるように調整される。次に、送信機は、背景画像ストリームに対して調整された位相タイミングを使用して、中心窩領域画像ストリームを受信機に送信する(ブロック515)。ブロック515の後に、方法500は終了する。送信機が方法500を実行する結果として、受信機は、中心窩領域画像を背景画像とブレンディングする場合に使用されるバッファリングの量を減らすことができる。
図6を参照すると、眼球サッケードが検出されたことに応じて、レンダリングされる中間解像度画像の数を増やす方法600の一実施形態が示されている。レンダリングユニットは、中心窩領域に対して比較的高解像度の画像をレンダリングし、VRアプリケーションの各フレームの背景に対して比較的低解像度の画像をレンダリングする(ブロック605)。レンダリングユニットが、レンダリングされている現在のフレームに対して眼球サッケードが検出されたという指標を受信した場合(条件付きブロック610:「はい」)、レンダリングユニットは、既存の中心窩領域のレンダリングを終了し、新たな位相タイミングに基づいて利用可能な十分な時間があれば、新たな場所で新たな中心窩領域のレンダリングを開始する(ブロック615)。受信機は、中心窩ストリームが中止され、新たな中心窩ストリームがフレームの別の場所で別のフェーズで再開された場合の状況を処理する。一実施形態では、受信機は、そのような再開のために、フレーム内の複数の中心窩領域を処理することができる。
また、眼球サッケードが検出されたことに応じて、レンダリングユニットは、現在のフレームに対してレンダリングされる中解像度画像の数を増やす(ブロック620)。例えば、一実施形態では、レンダリングユニットは、高解像度の中心窩領域、中心窩領域を囲む中高解像度領域、中高解像度領域を囲む中解像度領域、及び、低解像度の背景画像をレンダリングする。他の実施形態では、レンダリングユニットは、様々な量の解像度で(2より大きい)他の数の領域をレンダリングする。別の実施形態では、不均一な解像度のレンダリング技術を使用するシステムの場合、より高い解像度の画像から複数の中心窩層を生成することができる。現在のフレームで眼球サッケードが検出されなかった場合(条件付きブロック610:「いいえ」)、現在のフレームについて、レンダリングユニットは、中心窩領域に対する第1の画像と、背景に対する第2の画像と、をレンダリングする(ブロック625)。受信機では、画像がブレンディングされた後に、ブレンディングされた画像が現在のフレームについてディスプレイに送られ(ブロック630)、方法600は、条件付きブロック610に戻る。
図7を参照すると、一実施形態による、トランスポートされた画像及び最終画像の図が示されている。低解像度の背景画像705の一例が図7の左上に示されており、高解像度の中心窩画像710の一例が図7の左下に示されている。一実施形態では、これらの2つの画像705,710は、送信機から受信機に送信され、対応する画像ストリームの位相タイミングは、画像全体内の中心窩領域の位置に基づいて調整される。次に、受信機は、画像705,710をブレンディングして、最終画像715を生成する。他の実施形態では、他の数の画像を受信機に送信して、ブレンディングし、最終画像を生成できることを理解されたい。これらの他の実施形態では、トランスポート層で送信される各高解像度画像ストリームの位相タイミングは、画像全体内の対応する領域の位置に基づいて、背景画像ストリームに対して調整される。
図8を参照すると、一実施形態による、通常のマルチストリームディスプレイトランスポートのタイミング図が示されている。トランスポート層を介して送信される画像のタイミングは、図8の上部に示されている。この例では、2つの個別の画像ストリームが送信されていると想定されているが、これは、一実施形態を示しているに過ぎないことを理解されたい。他の実施形態では、他の数の画像をレンダリングして、対応する画像ストリームを送信機から受信機に送信することができる。図示するように、背景画像805A及び中心窩画像805Bは、トランスポート層を介して同相で送信され、背景画像805A及び中心窩画像805Bは、レンダリングされ、受信機で表示されるための単一のフレームに対応する。一実施形態では、背景画像805A及び中心窩画像805Bは、トランスポート層を介して送られる際にインターリーブされる。
受信機での画像処理のタイミングは、トランスポートタイミングブロックの下に示されている。背景画像805A及び中心窩画像805Bがトランスポート層を介して同相で受信機に送信された後に、受信機は、画像をバッファ810A,810Bの各々に格納する。次に、背景画像805A及び中心窩画像805Bの両方が完全にバッファリングされた後に、背景画像805Aは、ブロック815Aによって示すようにスケーリングされる。画像内の中心窩画像805Bの位置に基づいて、中心窩画像805Bのブレンディングは、背景画像805Aのスケーリングに関して適切な時間に開始する。ブレンディングは、ブロック815Bによって表される。最終画像817は、スケーリング815A及びブレンディング815Bのステップの結果として生成される。図8に示すように、中心窩画像805Bは、(図7の)背景画像705に関して中心窩画像710について示されているように、背景画像805A内に位置していると想定される。画像全体内の中心窩画像の他の位置については、ブレンディングのブロック815Bのタイミングをその位置に一致するようにシフトすることができる。例えば、中心窩画像が背景画像の左上隅にある場合に、ブレンディングのブロック815Bが左にシフトされ、背景画像のスケーリング815A内でより早く実行されることになる。
スケーリング815Aが実行されている間、新たな背景画像820A及び新たな中心窩画像820Bが受信機に送信され、それぞれバッファ825A,825Bに格納されている。背景画像820A及び中心窩画像820Bが受信されているのと同時に背景画像805Aが中心窩画像805Bとブレンディングされているので、バッファ810A~810B及び825A~825Bの2つのペアが必要である。このタイミングパターンは、送信機から送信され、受信機によって処理される後続の画像に対して継続できる。
図9を参照すると、位相シフトされたマルチストリームディスプレイトランスポートのタイミング図の一実施形態が示されている。図9のタイミング図は、背景画像ストリーム及び中心窩画像ストリームを送信するためのより効率的なトランスポート層を示している。中心窩画像ストリームの送信は、受信機で必要とされるバッファリングの量を減らすために、背景画像ストリームに対して位相シフトされる。この位相シフトは、中心窩画像905Bが背景画像905Aよりも時間的に早く送信されることで示されている。背景画像は、ブロック915Aに示すように、受信されたときにスケーリングされ、背景画像のためのバッファの必要性が生じないようにする。中心窩画像ストリームは、受信時に受信機によってバッファ910にバッファリングされ、次いで、バッファリングされた中心窩画像は、画像全体内の中心窩領域の位置に基づいて適切な時間に背景画像とブレンディングされる。バッファリングされた中心窩画像905Bと背景画像905Aとのブレンディングは、ブロック915Bとして示されている。最終画像917は、スケーリング915A及びブレンディング915Bのステップの結果として生成される。このタイミングパターンは、中心窩領域の位置が同じままである間、後続のフレームで継続される。
眼球サッケードの間、中心窩領域の位置が急速に変化している。眼球サッケードが検出された場合にトランスポート層を介した中心窩画像ストリームの送信が既に開始されている場合、送信機は、中心窩画像ストリームの送信を中止し、背景画像ストリームに対して正しい位相位置で新たな中心窩画像ストリームを再開できる。
様々な実施形態では、ソフトウェアアプリケーションのプログラム命令を使用して、本明細書で説明する方法及び/又はメカニズムを実施する。例えば、汎用プロセッサ又は専用プロセッサによって実行可能なプログラム命令が考えられる。様々な実施形態では、そのようなプログラム命令は、高水準プログラミング言語によって表される。他の実施形態では、プログラム命令は、高水準プログラミング言語からバイナリ形式、中間形式又は他の形式にコンパイルされる。或いは、プログラム命令は、ハードウェアの動作又は設計を記述するように書き込まれる。そのようなプログラム命令は、C言語等の高水準プログラミング言語によって表される。或いは、Verilog等のハードウェア設計言語(HDL)が使用される。様々な実施形態では、プログラム命令は、様々な非一時的なコンピュータ可読記憶媒体の何れかに記憶される。記憶媒体は、プログラム実行のためにプログラム命令をコンピューティングシステムに提供するために、使用中にコンピューティングシステムによってアクセス可能である。一般的に、そのようなコンピューティングシステムは、少なくとも1つ以上のメモリと、プログラム命令を実行するように構成された1つ以上のプロセッサと、を含む。
上述した実施形態は、実施形態の非限定的な例示に過ぎないことを強調しておきたい。上記の開示が十分に理解されれば、多くの変形及び修正が当業者に明らかになる。以下の特許請求の範囲は、このような変形及び修正の全てを包含すると解釈されることが意図されている。

Claims (20)

  1. 回路を含み、フレームの複数の領域をレンダリングするように構成されたレンダリングユニットであって、前記複数の領域の各領域は、他の領域とは異なる解像度でレンダリングされる、レンダリングユニットと、
    回路を含む送信機と、を備え、
    前記送信機は、
    前記複数の領域の各領域を個別のストリーム内の個別の画像として受信機に送信することと、
    第1のストリームが送信される時間を変更することで前記第1のストリームの位相を第2のストリームに対しシフトすることによって、前記第1のストリームを送信することであって、前記位相は、前記フレーム内の中心窩領域の位置に対応する量だけシフトされ、前記第1のストリームは前記中心窩領域を含み、前記第2のストリームは背景画像を含む、ことと、
    を行うように構成されている、
    システム。
  2. 前記中心窩領域は、第1のリフレッシュレートで更新され、
    前記背景画像は、第2のリフレッシュレートで更新され、
    前記第2のリフレッシュレートは、前記第1のリフレッシュレートとは異なる、
    請求項1のシステム。
  3. 前記レンダリングユニットは、眼球サッケードが検出されたという指標を受信したことに応じて、異なる解像度でレンダリングされる領域の数を増やすように構成されている、
    請求項1のシステム。
  4. 前記レンダリングユニットは、
    前記指標を受信する前に、第1のフレームに対して2つの個別の領域をレンダリングし、
    前記指標を受信した後に、第2のフレームに対して3つ以上の個別の領域をレンダリングするように構成されている、
    請求項3のシステム。
  5. 前記レンダリングユニットは、前記指標を受信したことに応じて、前記中心窩領域のリフレッシュレートを調整するように構成されている、
    請求項3のシステム。
  6. 前記送信機は、前記複数の領域を組み合わせて合成画像を生成する方法を指定するために、ブレンドマスクを前記受信機に伝達するように構成されている、
    請求項1のシステム。
  7. 前記送信機は、前記背景画像をスケーリングする方法を指定するために、背景画像スケーリング属性を前記受信機に伝達するように構成されている、
    請求項1のシステム。
  8. 回路を含むレンダリングユニットが、フレームの複数の領域をレンダリングすることであって、前記複数の領域の各領域は、他の領域とは異なる解像度でレンダリングされる、ことと、
    回路を含む送信機が、各領域を個別のストリーム内の個別の画像として受信機に送信することと、
    第1のストリームが送信される時間を変更することで前記第1のストリームの位相を第2のストリームに対してシフトすることによって、前記第1のストリームを送信することであって、前記位相は、前記フレーム内の中心窩領域の位置に対応する量だけシフトされ、前期第1のストリームは前記中心窩領域を含み、前記第2のストリームは背景画像を含む、ことと、を含む、
    方法。
  9. 前記中心窩領域は、第1のリフレッシュレートで更新され、
    前記背景画像は、第2のリフレッシュレートで更新され、
    前記第2のリフレッシュレートは、前記第1のリフレッシュレートとは異なる、
    請求項8の方法。
  10. 眼球サッケードが検出されたという指標を受信したことに応じて、異なる解像度でレンダリングされる領域の数を増やすことをさらに含む、
    請求項8の方法。
  11. 前記指標を受信する前に、第1のフレームに対して2つの個別の領域をレンダリングすることと、
    前記指標を受信した後に、第2のフレームに対して3つ以上の個別の領域をレンダリングすることと、をさらに含む、
    請求項10の方法。
  12. 前記指標を受信したことに応じて、前記中心窩領域のリフレッシュレートを調整することをさらに含む、
    請求項10の方法。
  13. 前記複数の領域を組み合わせて合成画像を生成する方法を指定するために、ブレンドマスクを前記受信機に伝達することをさらに含む、
    請求項8の方法。
  14. 前記背景画像をスケーリングする方法を指定するために、背景画像スケーリング属性を前記受信機に伝達することをさらに含む、
    請求項8の方法。
  15. 回路を含む送信機と、
    受信機と、を備え、
    前記送信機は、
    フレームの複数の領域をレンダリングすることであって、前記複数の領域の各領域は、他の領域とは異なる解像度でレンダリングされる、ことと、
    各領域を個別のストリーム内の個別の画像として前記受信機に送信することと、
    第1のストリームが送信される時間を変更することで前記第1のストリームの位相を第2のストリームに対してシフトすることによって、前記第1のストリームを送信することであって、前記位相は、前記フレーム内の中心窩領域の位置に対応する量だけシフトされ、前期第1のストリームは前記中心窩領域を含み、前記第2のストリームは背景画像を含む、ことと、
    を行うように構成されており、
    前記受信機は、
    複数のストリームからの前記複数の領域を組み合わせて、合成画像を生成することと、
    前記合成画像をディスプレイに送ることと、
    を行うように構成されている、
    システム。
  16. 前記中心窩領域は、第1のリフレッシュレートで更新され、
    前記背景画像は、第2のリフレッシュレートで更新され、
    前記第2のリフレッシュレートは、前記第1のリフレッシュレートとは異なる、
    請求項15のシステム。
  17. 前記送信機は、眼球サッケードが検出されたという指標を受信したことに応じて、異なる解像度でレンダリングされる領域の数を増やすように構成されている、
    請求項15のシステム。
  18. 前記送信機は、
    前記指標を受信する前に、第1のフレームに対して2つの個別の領域をレンダリングし、
    前記指標を受信した後に、第2のフレームに対して3つ以上の個別の領域をレンダリングするように構成されている、
    請求項17のシステム。
  19. 前記送信機は、前記指標を受信したことに応じて、前記中心窩領域のリフレッシュレートを調整するように構成されている、
    請求項17のシステム。
  20. 前記送信機は、前記複数の領域を組み合わせて前記合成画像を生成する方法を指定するために、ブレンドマスクを前記受信機に伝達するように構成されている、
    請求項15のシステム。
JP2022515065A 2019-09-19 2020-09-21 マルチストリーム中心窩ディスプレイトランスポート Active JP7477600B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/575,804 US11307655B2 (en) 2019-09-19 2019-09-19 Multi-stream foveal display transport
US16/575,804 2019-09-19
PCT/IB2020/058783 WO2021053644A1 (en) 2019-09-19 2020-09-21 Multi-stream foveal display transport

Publications (3)

Publication Number Publication Date
JP2022548534A JP2022548534A (ja) 2022-11-21
JPWO2021053644A5 JPWO2021053644A5 (ja) 2023-07-20
JP7477600B2 true JP7477600B2 (ja) 2024-05-01

Family

ID=74880843

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022515065A Active JP7477600B2 (ja) 2019-09-19 2020-09-21 マルチストリーム中心窩ディスプレイトランスポート

Country Status (6)

Country Link
US (1) US11307655B2 (ja)
EP (1) EP4032283A4 (ja)
JP (1) JP7477600B2 (ja)
KR (1) KR20220065794A (ja)
CN (1) CN114402613A (ja)
WO (1) WO2021053644A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11353723B2 (en) * 2019-10-31 2022-06-07 Tectus Corporation Saccade detection and endpoint prediction for electronic contact lenses
FR3116351B1 (fr) * 2020-11-18 2023-06-16 Thales Sa Dispositif d'affichage tête haute porté et procédé d'affichage associé
US20220201271A1 (en) * 2020-12-23 2022-06-23 Facebook Technologies, Llc Temporal foveated rendering
CN113362450B (zh) * 2021-06-02 2023-01-03 聚好看科技股份有限公司 一种三维重建方法、装置及系统
TWI783588B (zh) * 2021-07-23 2022-11-11 瑞昱半導體股份有限公司 可應用於在顯示裝置中進行多畫面處理之縮放器積體電路
US11874958B2 (en) * 2021-09-24 2024-01-16 Apple Inc. Eye detection methods and devices
CN118215954A (zh) * 2021-11-10 2024-06-18 索尼半导体解决方案公司 显示装置、显示系统及显示驱动方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018227100A1 (en) 2017-06-09 2018-12-13 Sony Interactive Entertainment Inc. Optimized shadows and adaptive mesh skinning in a foveated rendering system
US20190043167A1 (en) 2017-12-29 2019-02-07 Intel Corporation Foveated image rendering for head-mounted display devices

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6141062A (en) * 1998-06-01 2000-10-31 Ati Technologies, Inc. Method and apparatus for combining video streams
US20050047504A1 (en) 2003-09-03 2005-03-03 Sung Chih-Ta Star Data stream encoding method and apparatus for digital video compression
US8704834B2 (en) * 2007-12-03 2014-04-22 Nvidia Corporation Synchronization of video input data streams and video output data streams
US9024964B2 (en) 2008-06-06 2015-05-05 Omnivision Technologies, Inc. System and method for dithering video data
US20110317770A1 (en) * 2010-06-24 2011-12-29 Worldplay (Barbados) Inc. Decoder for multiple independent video stream decoding
US8615140B2 (en) 2011-11-18 2013-12-24 Canon Kabushiki Kaisha Compression of image data in accordance with depth information of pixels
US9485515B2 (en) 2013-08-23 2016-11-01 Google Inc. Video coding using reference motion vectors
US9998750B2 (en) 2013-03-15 2018-06-12 Cisco Technology, Inc. Systems and methods for guided conversion of video from a first to a second compression format
US9426475B2 (en) 2013-06-25 2016-08-23 VIXS Sytems Inc. Scene change detection using sum of variance and estimated picture encoding cost
WO2015138008A1 (en) 2014-03-10 2015-09-17 Euclid Discoveries, Llc Continuous block tracking for temporal prediction in video encoding
JP2016225849A (ja) * 2015-05-29 2016-12-28 株式会社ジャパンディスプレイ 表示システム及び表示方法
US9857871B2 (en) * 2015-09-04 2018-01-02 Sony Interactive Entertainment Inc. Apparatus and method for dynamic graphics rendering based on saccade detection
US10460704B2 (en) 2016-04-01 2019-10-29 Movidius Limited Systems and methods for head-mounted display adapted to human visual mechanism
EP3440495A1 (en) 2016-04-08 2019-02-13 Google LLC Encoding image data at a head mounted display device based on pose information
US10341650B2 (en) 2016-04-15 2019-07-02 Ati Technologies Ulc Efficient streaming of virtual reality content
US10805592B2 (en) 2016-06-30 2020-10-13 Sony Interactive Entertainment Inc. Apparatus and method for gaze tracking
JP2019525248A (ja) * 2016-08-01 2019-09-05 イマジン・コーポレイション 再構成可能なディスプレイおよび再構成可能なディスプレイのための方法
CN109792562B (zh) * 2016-09-26 2021-04-13 杜比实验室特许公司 视频数据的基于内容的流分割
US10291931B2 (en) 2016-10-13 2019-05-14 Ati Technologies Ulc Determining variance of a block of an image based on a motion vector for the block
US11290699B2 (en) * 2016-12-19 2022-03-29 Dolby Laboratories Licensing Corporation View direction based multilevel low bandwidth techniques to support individual user experiences of omnidirectional video
US10490157B2 (en) 2017-01-03 2019-11-26 Screenovate Technologies Ltd. Compression of distorted images for head-mounted display
EP3370419B1 (en) 2017-03-02 2019-02-13 Axis AB A video encoder and a method in a video encoder
US20180262758A1 (en) 2017-03-08 2018-09-13 Ostendo Technologies, Inc. Compression Methods and Systems for Near-Eye Displays
US10665209B2 (en) * 2017-05-18 2020-05-26 Synaptics Incorporated Display interface with foveal compression
WO2019018365A1 (en) 2017-07-17 2019-01-24 Tobii Ab CLOTHING DEVICES FOR EYE FOLLOW-UP
US10553016B2 (en) * 2017-11-15 2020-02-04 Google Llc Phase aligned foveated rendering
US10798455B2 (en) * 2017-12-22 2020-10-06 Comcast Cable Communications, Llc Video delivery
US10904552B2 (en) 2018-02-15 2021-01-26 Intel Corporation Partitioning and coding mode selection for video encoding
US20200195944A1 (en) 2018-12-14 2020-06-18 Advanced Micro Devices, Inc. Slice size map control of foveated coding

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018227100A1 (en) 2017-06-09 2018-12-13 Sony Interactive Entertainment Inc. Optimized shadows and adaptive mesh skinning in a foveated rendering system
US20190043167A1 (en) 2017-12-29 2019-02-07 Intel Corporation Foveated image rendering for head-mounted display devices

Also Published As

Publication number Publication date
CN114402613A (zh) 2022-04-26
EP4032283A1 (en) 2022-07-27
US11307655B2 (en) 2022-04-19
EP4032283A4 (en) 2023-09-27
JP2022548534A (ja) 2022-11-21
KR20220065794A (ko) 2022-05-20
US20210089119A1 (en) 2021-03-25
WO2021053644A1 (en) 2021-03-25

Similar Documents

Publication Publication Date Title
JP7477600B2 (ja) マルチストリーム中心窩ディスプレイトランスポート
US11290699B2 (en) View direction based multilevel low bandwidth techniques to support individual user experiences of omnidirectional video
US11330262B2 (en) Local image enhancing method and apparatus
CN109891906A (zh) 视图感知360度视频流化
US11711530B2 (en) Tile shuffling for 360 degree video decoding
JP2023512937A (ja) 無線仮想拡張現実システムでのレイテンシの隠蔽
KR20220054604A (ko) 단일-스트림 포빌 디스플레이 전송
WO2021199205A1 (ja) 画像データ転送装置、画像表示システム、および画像データ転送方法
US20230011586A1 (en) Electronic device, server and methods for viewport prediction based on head and eye gaze
KR102228025B1 (ko) 고화질의 vr 컨텐츠의 스트리밍 제공 방법, 단말 및 서버
US11134236B2 (en) Image processing device and system
WO2022028684A1 (en) Improved split rendering for extended reality (xr) applications
US20240107110A1 (en) Changing video tracks in immersive videos
WO2021199128A1 (ja) 画像データ転送装置、画像生成方法およびコンピュータプログラム
WO2021193362A1 (ja) 画像処理装置および画像処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230711

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230711

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230822

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20231122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240418

R150 Certificate of patent or registration of utility model

Ref document number: 7477600

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150