JP2019533325A - 視線追跡情報に基づく画像領域内の適応パラメータ - Google Patents

視線追跡情報に基づく画像領域内の適応パラメータ Download PDF

Info

Publication number
JP2019533325A
JP2019533325A JP2019505144A JP2019505144A JP2019533325A JP 2019533325 A JP2019533325 A JP 2019533325A JP 2019505144 A JP2019505144 A JP 2019505144A JP 2019505144 A JP2019505144 A JP 2019505144A JP 2019533325 A JP2019533325 A JP 2019533325A
Authority
JP
Japan
Prior art keywords
screen
image
region
encoding
encoding parameters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019505144A
Other languages
English (en)
Other versions
JP6886510B2 (ja
Inventor
ヘンリク タール、マルティン
ヘンリク タール、マルティン
サン アグスティン ロペス、ハビエル
サン アグスティン ロペス、ハビエル
ダール、ラスムス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meta Platforms Technologies LLC
Original Assignee
Facebook Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Facebook Technologies LLC filed Critical Facebook Technologies LLC
Publication of JP2019533325A publication Critical patent/JP2019533325A/ja
Priority to JP2021082166A priority Critical patent/JP7177213B2/ja
Application granted granted Critical
Publication of JP6886510B2 publication Critical patent/JP6886510B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/39Control of the bit-mapped memory
    • G09G5/391Resolution modifying circuits, e.g. variable screen formats
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/162User input
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0693Calibration of display systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Optics & Photonics (AREA)
  • Processing Or Creating Images (AREA)

Abstract

ディスプレイシステムは、スクリーンを領域に分割し、各領域に異なる組のレンダリング/符号化パラメータを適用する。システムは、ユーザの眼の中心窩によって見られる第1の領域に第1の組のパラメータを適用する。システムはまた、眼の傍中心窩によって見られる第2の領域に第2の組のパラメータを適用し、傍中心窩の外側の眼の領域によって見られる第3の領域に第3の組のパラメータを適用し得る。第1の組のパラメータは比較的高い画像品質を生じさせ、第2の組のパラメータは中間品質を生じさせ、第3の組のパラメータはより低い品質を生じさせるように選択される。結果として、第2の領域および第3の領域は、少ないコンピューティング能力および小さい帯域幅でレンダリング、符号化、および送信することができる。

Description

本発明は、一般に視線追跡に関し、より詳細には視線追跡情報に基づく画像領域内の適応パラメータの使用に関する。
画像はレンダリングされ、符号化され、そして様々な個々のコンテキストでユーザに表示される。特に、画像が1080pや4Kなどの比較的高い解像度を有する場合、または画像がゲームアプリケーションによって生成されたビデオファイルまたはシーンなどのビデオを構成する一連のフレームの一部である場合は、多くの場合、ユーザへの表示用の画像をレンダリングし、符号化し、および送信するプロセスは、大量のコンピューティングリソースを消費する可能性がある。これは、より大きな電力消費およびより長い処理時間などの望ましくない副作用をもたらし得る。
ディスプレイシステムは、異なる組のパラメータを画像の異なる領域に適用する。システムは、ディスプレイスクリーンのスクリーンを見ているユーザの片眼または両眼の視線追跡情報を受け取る。システムは、視線追跡情報に基づいて、第1のスクリーン領域と第2のスクリーン領域とを決定する。一実施形態では、第1のスクリーン領域は、ユーザの眼の中心窩から見たスクリーン一部であり、第2のスクリーン領域は、中心窩の外側の網膜の部分から見たスクリーンの一部である。システムは、第1の組のパラメータを第1の画像領域に適用し、第2の組のパラメータをスクリーンの第2の画像領域に適用することによって、スクリーンに表示するための画像を処理する。第1の画像領域は、第1のスクリーン領域に表示される画像の一部であり、第2の画像領域は、第2の画像領域に表示される画像の一部である。第2の組のパラメータは第1の組のパラメータよりも低い画質を生じさせるが、中心窩の外側の網膜の部分は中心窩よりも感度が低いため、ユーザは低い画質を知覚する可能性は低い。その結果、より少ないコンピューティング能力とより小さい帯域幅で画像を処理することができる。
ディスプレイシステムは、ヘッドマウントディスプレイ(HMD)の一部とすることができる。HMDは、仮想現実(VR)システム、拡張現実(AR)システム、複合現実(MR)システム、またはそれらの組み合わせの一部であり得る。
本発明による実施形態は、特に、システム、記憶媒体、および方法を対象とする添付の特許請求の範囲に開示されており、1つの請求項のカテゴリー、例えばシステムで言及される任意の特徴は別の特許請求の範囲の請求項のカテゴリー、例えば、方法、記憶媒体、またはコンピュータプログラムで請求することができる。添付の特許請求の範囲に記載されている従属関係または参照は、形式的な理由からのみ選択されている。しかしながら、添付の特許請求の範囲で選択された従属関係にかかわらず、請求項およびその特徴の任意の組み合わせが、開示され、かつ請求することができるように、任意の前の請求項(特に、多数項従属)への意図的な参照から生じる任意の主題も請求することができる。特許請求することができる主題は、添付の特許請求の範囲に記載の特徴の組み合わせのみならず、特許請求の範囲における他のあらゆる特徴の組み合わせも含み、特許請求の範囲に記載の各特徴は他のあらゆる特徴または特許請求の範囲における他の特徴の組み合わせと組み合わせることができる。さらに、本明細書に記載または描写されている実施形態および特徴のいずれかは、別々の請求項において、および/または本明細書に記載もしくは描写されている任意の実施形態もしくは特徴と、または添付の請求項の特徴のいずれかとの任意の組み合わせで請求することができる。
一実施形態において、方法は、
ディスプレイデバイスのスクリーンを見ているユーザの眼の少なくとも1つの画像を含む視線追跡情報を受信するステップと、
視線追跡情報に基づいてスクリーンの領域に対応する第1のスクリーン領域を決定するステップと、第1のスクリーン領域は、ユーザの注視点を含み、注視点は、視線追跡情報が捕捉された時点でユーザが見ているスクリーン上の点を表し、
視線追跡情報に基づいて第1のスクリーン領域とは別のスクリーンの領域に対応する第2のスクリーン領域を決定するステップと、
スクリーン上に表示するための画像を符号化するステップと、符号化は、
第1の組の符号化パラメータに基づいて画像の第1の画像領域を符号化すること、第1の画像領域は、第1のスクリーン領域に表示され、
第2の組の符号化パラメータに基づいて画像の第2の画像領域を復号化することを含み、第2の画像領域は、第2のスクリーン領域に表示され、第2の組の符号化パラメータは、第1の組の符号化パラメータよりも低い品質をもたらし、
符号化された画像をスクリーンに表示されるようにディスプレイデバイスに送信するステップとを含み得る。
一実施形態において、第1のスクリーン領域は、眼の中心窩によって見られるスクリーンの領域に対応し得る。
第2のスクリーン領域は、中心窩の外側の眼の網膜の一部によって見られるスクリーンの領域に対応し得る。
第1の組の符号化パラメータは第1の画像解像度を含み得、第2の組の符号化パラメータは第2の画像解像度を含み得、第2の画像解像度は第1の画像解像度よりも低い。
第1の画像領域を符号化することは、第1の符号化画像領域を生成することを含み得、第2の画像領域を符号化することは、第2の符号化画像領域を生成することを含み得、方法はさらに、
第1の符号化画像領域および第2の符号化画像領域を含むパッキングされた画像を生成するステップを含み得る。
第1の組の符号化パラメータは第1のフレームレートを含み得、第2の組の符号化パラメータは第2のフレームレートを含み得、第2のフレームレートは第1のフレームレートよりも低くてもよい。
方法は、視線追跡情報に基づいて第1のスクリーン領域および第2のスクリーン領域とは別のスクリーンの領域に対応する第3のスクリーン領域を決定するステップをさらに含み得、
スクリーン上に表示するための画像を符号化することは、
第3の組の符号化パラメータに基づいて画像の第3の画像領域を符号化することをさらに含み、第3の画像領域は、第3のスクリーン領域に表示され、第3の組の符号化パラメータは、第1の組の符号化パラメータよりも低い品質をもたらし、第2の組の符号化パラメータよりも高い品質をもたらす。
第3のスクリーン領域は、眼の傍中心窩によって見られるスクリーンの領域に対応し得る。
ディスプレイデバイスはバーチャルリアリティヘッドセットであり得る。
本発明の一実施形態において、非一時的コンピュータ可読記憶媒体は、命令を格納し得、命令は、1つまたは複数のプロセッサによって実行されたときに、1つまたは複数のプロセッサに、
ディスプレイデバイスのスクリーンを見ているユーザの眼の少なくとも1つの画像を含む視線追跡情報を受信すること、
視線追跡情報に基づいてスクリーンの領域に対応する第1のスクリーン領域を決定すること、第1のスクリーン領域は、ユーザの注視点を含み、注視点は、視線追跡情報が捕捉された時点でユーザが見ているスクリーン上の点を表し、
視線追跡情報に基づいて第1のスクリーン領域とは別のスクリーンの領域に対応する第2のスクリーン領域を決定すること、
スクリーン上に表示するための画像を符号化すること、符号化は、
第1の組の符号化パラメータに基づいて画像の第1の画像領域を符号化すること、第1の画像領域は、第1のスクリーン領域に表示され、
第2の組の符号化パラメータに基づいて画像の第2の画像領域を復号化すること、第2の画像領域は、第2のスクリーン領域に表示され、第2の組の符号化パラメータは、第1の組の符号化パラメータよりも低い品質をもたらし、
符号化された画像をスクリーンに表示されるようにディスプレイデバイスに送信することを含む処理を実行させ得る。
第1のスクリーン領域は、眼の中心窩によって見られるスクリーンの領域に対応し得る。
第2のスクリーン領域は、中心窩の外側の眼の網膜の一部によって見られるスクリーンの領域に対応し得る。
第1の組の符号化パラメータは第1の画像解像度を含み得、第2の組の符号化パラメータは第2の画像解像度を含み得、第2の画像解像度は第1の画像解像度よりも低い。
第1の画像領域を符号化することは、第1の符号化画像領域を生成することを含み得、第2の画像領域を符号化することは、第2の符号化画像領域を生成することを含み得、
第1の符号化画像領域および第2の符号化画像領域を含むパッキングされた画像を生成することをさらに含み得る。
第1の組の符号化パラメータは第1のフレームレートを含み得、第2の組の符号化パラメータは第2のフレームレートを含み得、第2のフレームレートは第1のフレームレートよりも低くてもよい。
処理は、
視線追跡情報に基づいて第1のスクリーン領域および第2のスクリーン領域とは別のスクリーンの領域に対応する第3のスクリーン領域を決定することをさらに含み得、
スクリーン上に表示するために画像を符号化することは、
第3の組の符号化パラメータに基づいて画像の第3の画像領域を符号化することをさらに含み得、第3の組の符号化パラメータは、第1の組の符号化パラメータよりも低い品質をもたらし、第2の組の符号化パラメータよりも高い品質をもたらす。
第3のスクリーン領域は、眼の傍中心窩によって見られるスクリーンの領域に対応し得る。
ディスプレイデバイスはバーチャルリアリティヘッドセットであり得る。
一実施形態において、システムは、
1つまたは複数のプロセッサと、
命令を格納する非一時的コンピュータ可読記憶媒体であって、命令は、1つまたは複数のプロセッサによって実行されたときに、1つまたは複数のプロセッサに、
ディスプレイデバイスのスクリーンを見ているユーザの眼の少なくとも1つの画像を含む視線追跡情報を受信すること、
視線追跡情報に基づいてスクリーンの領域に対応する第1のスクリーン領域を決定すること、第1のスクリーン領域は、ユーザの注視点を含み、注視点は、視線追跡情報が捕捉された時点でユーザが見ているスクリーン上の点を表し、
視線追跡情報に基づいて第1のスクリーン領域とは別のスクリーンの領域に対応する第2のスクリーン領域を決定すること、
スクリーン上に表示するための画像を符号化すること、符号化は、
第1の組の符号化パラメータに基づいて画像の第1の画像領域を符号化すること、第1の画像領域は、第1のスクリーン領域に表示され、
第2の組の符号化パラメータに基づいて画像の第2の画像領域を復号化することを含み、第2の画像領域は、第2のスクリーン領域に表示され、第2の組の符号化パラメータは、第1の組の符号化パラメータよりも低い品質をもたらし、
符号化された画像をスクリーンに表示されるようにディスプレイデバイスに送信することを含む処理を実行させる、非一時的コンピュータ可読記憶媒体と
を備え得る。
処理は、
視線追跡情報に基づいて第1のスクリーン領域および第2のスクリーン領域とは別のスクリーンの領域に対応する第3のスクリーン領域を決定することをさらに含み得、
スクリーン上の表示するために画像を符号化することは、
第3の組の符号化パラメータに基づいて画像の第3の画像領域を符号化することをさらに含み、第3の画像領域は、第3のスクリーン領域に表示され、第3の組の符号化パラメータは第1の組の符号化パラメータよりも低い品質をもたらし、第2の組の符号化パラメータよりも高い品質をもたらす。
一実施形態によるディスプレイデバイスが動作するシステムのブロック図である。 一実施形態による、レンダリング/符号化エンジンのブロック図である。 一実施形態によるヘッドマウントディスプレイの図である。 図3Aおよび図3Bは、一実施形態によるスクリーンを注視している眼を示し、かつ中心窩領域および傍中心窩領域、ならびに中心窩円錐および傍中心窩円錐を示す図である。 一実施形態による、スクリーン上の中心窩領域、傍中心窩領域、および外側領域を示す図である。 一実施形態による、視線追跡情報に基づいて画像領域に適応パラメータを適用するためのプロセスを示すブロック図である。 図5Aは、一実施形態による、異なる組のレンダリングパラメータを用いて画像の異なる部分をレンダリングするためのプロセスを示すブロック図であり、図5Bは、一実施形態による、異なる組の符号化パラメータを用いて画像の異なる部分を符号化するためのプロセスを示すブロック図である。 一実施形態による、異なる組のパラメータを用いて画像の異なる部分をレンダリングおよび符号化するためのプロセスを示すブロック図である。 一実施形態による、異なる組の符号化パラメータを用いて画像の異なる領域を符号化し、次いで画像の符号化画像領域をパッキングされた画像にパッキングする例を示す図である。 一実施形態による、一連の画像を符号化してパッキングする一例を示す。
図面は、本開示の様々な実施形態を例示のみを目的として示している。当業者であれば、本明細書で提供される開示の原理から逸脱することなく、本明細書に例示される構造および方法の代替的な実施形態を使用し得ることを、以下の説明から容易に理解するであろう。
概要
ユーザが連続してスクリーンの異なる領域を注視するユーザおよび画像を含む多くの応用がある。例としては、ビデオゲーム、バーチャルリアリティシーン、ビデオストリーム、拡張現実感投影などが含まれる。
スクリーンを見るとき、ユーザの眼は注視点の周りのスクリーン領域においてより高い解像度に敏感である。注視点は、最も高い視力を提供し、かつ錐体細胞の濃度が最も高い網膜の領域である中心窩と整列している。中心窩を超える網膜の領域では、解像度に対する感度が低下し、中心窩から離れるにつれて視力が低下する。傍中心窩(中心窩を囲む輪状の眼の領域)では、眼は依然として解像度に敏感であるが、中心窩よりも程度は低い。傍中心窩の外側の領域では、眼は解像度の違いにそれほど敏感ではない。
スクリーンに表示されている画像がより高い解像度を有する状況では、画像全体をより高い解像度でレンダリングし、画像全体をより高い解像度で符号化し、適切な高帯域幅の手段を使用して符号化画像を送信することが一般的である。しかし、眼は中心窩および傍中心窩の外側の領域では画像解像度に比較的鈍感であるため、画像全体をより高い解像度でレンダリング、符号化、および送信するプロセスは、コンピューティング能力および帯域幅の不必要な使用をもたらす。
画像全体に対してより高い解像度を使用する代わりに、ディスプレイシステムはディスプレイデバイスのスクリーンを複数の領域に分割し、各領域に異なる組のレンダリング/符号化パラメータを適用する。例えば、ディスプレイシステムは、ユーザの眼の中心窩によって見られるスクリーンの第1の領域(以下、中心窩領域と称する)を識別し、第1の組のパラメータを第1の領域に適用する。第1の組のパラメータは比較的高い画質が生じるように選択される。例えば、第1の組のパラメータは、比較的高いフレームレートおよび解像度を指定し得る。同様に、ディスプレイシステムは、ユーザの眼の傍中心窩によって見られるスクリーンの第2の領域(以下、傍中心窩領域と称する)を識別し、第2の組のパラメータを第2の領域に適用し得る。ディスプレイシステムは、中心窩および傍中心窩の外側のユーザの眼の領域によって見られるスクリーンの第3の領域(以下、外側領域と称する)をさらに識別し、第3の組のパラメータを第3の領域に適用し得る。第2の組のパラメータは、中間画質(例えば、中間フレームレートおよび中間解像度)となるように選択され、第3の組のパラメータは、より低い画質(例えば、より低いフレームレートおよびより低い解像度)となるように選択される。その結果、より少ないコンピューティング能力およびより小さい帯域幅で第2領域および第3の領域をレンダリング、符号化、および送信することができ、それによって、画像のレンダリング、符号化、および送信に使用されるコンピューティング能力および帯域幅の全体量が減少する。
ディスプレイシステムは、視線追跡ユニットから受信した視線追跡情報に基づいて、第1の領域と第2の領域とを識別する。ディスプレイシステムは、視線追跡情報を使用して、ユーザが見ているスクリーン上の点(以下、注視点と称する)を決定する。次に、ディスプレイシステムは、注視点に基づいて中心窩領域、傍中心窩領域、および外側領域の境界を決定することができる。一実施形態では、中心窩領域は、注視点を中心とする、2.5度の視角の半径を有する円であり、傍中心窩領域は、注視点を中心とする、2.5度の視角の内半径および5度の視角の外半径を有する環である。外側領域は、傍中心窩領域の外側半径を超えるスクリーンの部分である。
スクリーン領域の境界を決定した後、ディスプレイシステムは適応的に画像をレンダリングして符号化することができる。さらに、ディスプレイシステムは、ユーザの眼がスクリーンの異なる位置間を移動するときに定期的に更新された視線追跡情報を受信することができ、ディスプレイシステムは更新された視線追跡情報に基づいて注視点およびスクリーン領域の境界を再計算することができる。従って、ユーザにとって、注視点周辺のスクリーンの領域(すなわち中心窩領域)はより高い画質を有するように見え、この領域は眼が画質に対して最も敏感な領域である。傍中心窩領域では、目立った画質劣化なしに中間のパラメータを適用することができ、外側領域では、目立った画質劣化なしに、より低いパラメータを適用することができる。
ユーザの眼がスクリーンを横切って急速に動いているときであっても、視線追跡情報は注視位置の変化に追従することができ、更新された視線追跡情報は、適応パラメータが異なる画像の中心窩および傍中心窩領域に適用されることが可能となるように十分早く伝達される。従って、ユーザがどこを見ているかにかかわらず、画像は高解像度を有するように見える。しかしながら、ディスプレイシステムは、画像の一部をより高品質のパラメータでレンダリングして符号化し、画像の残りの部分は中間品質またはより低品質のパラメータでレンダリングおよび符号化する。
視線追跡情報に基づいて適応パラメータを適用することの正味の効果は、画像データをレンダリングおよび符号化するために使用される全体のコンピューティング能力を低減し、ユーザのディスプレイデバイスによる表示のために画像データを送信するために使用される帯域幅の量を低減することである。
システム概要
図1Aは、ディスプレイシステム110が動作するシステム100のブロック図である。システム100は、VRシステム環境、ARシステム環境、MRシステム環境、またはこれらの組み合わせで動作し得る。図1Aに示すシステム100は、ディスプレイデバイス105(例えば、ヘッドマウントディスプレイ)、撮像装置135、および入力インタフェース140を含み、これらはそれぞれ、ディスプレイシステム110に接続されている。
図1Aは、1つのディスプレイデバイス105、1つの撮像装置135、および1つの入力インタフェース140を含む例示的なシステム100を示すが、他の実施形態においては、これらのコンポーネントの任意数がシステム100内に含まれてもよい。例えば、複数のディスプレイデバイス105が存在し、各ディスプレイデバイス105が関連する入力インタフェース140を有し、かつ1つまたは複数の撮像装置135によってモリタリングされ、各ディスプレイデバイス105、入力インタフェース140、及び撮像装置135は、ディスプレイシステム110と通信する。代替的な構成では、異なるコンポーネントおよび/または追加のコンポーネントが、システム100に含まれてもよい。同様に、1つまたは複数のコンポーネントの機能は、本明細書に記載されているものとは異なる方法でコンポーネント間に分散させることができる。例えば、ディスプレイシステム110の機能の一部または全部をディスプレイデバイス105内に含めることができる。
ディスプレイデバイス105は、コンピュータ加工された要素(例えば、2次元または3次元の画像、2次元または3次元の映像、サウンドなど)を有する物理的、現実的な環境の仮想ビューおよび/または拡張されたビューを含むコンテンツをユーザに提示するヘッドマウント型ディスプレイ(HMD)である。いくつかの実施形態では、オーディオは、ディスプレイデバイス105、ディスプレイシステム110、またはその両方から音声情報を受信して、音声情報に基づいて音声データを提示する外部機器(例えば、スピーカおよび/またはヘッドホン)を介して提供される。ディスプレイデバイス105のいくつかの実施形態は、図2に関連して以下にさらに説明される。ディスプレイデバイス105は、1つまたは複数の硬質本体を含み得、これは互いに剛体的にまたは非剛体的に結合され得る。硬質本体間の剛体的結合によって、結合された硬質本体が単一の硬質物体として機能することができる。これとは対照的に、硬質本体間の非剛体的結合によって、硬質本体が互いに相対的に移動することができる。ディスプレイデバイス105は、電子ディスプレイ115と、光学系ブロック118と、1つまたは複数のロケータ120と、1つまたは複数の位置センサ125と、慣性測定ユニット(IMU:Inertial Measurement Unit)130と、視線追跡ユニット160とを含む。ディスプレイデバイス105のいくつかの実施形態は、本明細書に記載されたものとは異なるコンポーネントを有する。同様に、様々なコンポーネントの機能は、様々な実施形態で本明細書に記載されたものとは異なる方法で、システム100内の他のコンポーネントの間に分散され得る。例えば、視線追跡ユニット160のいくつかの機能は、ディスプレイシステム110によって実行されてもよい。
電子ディスプレイ115(本明細書ではスクリーンとも称される)は、ディスプレイシステム110から受信したデータに従って、ユーザに対して画像を表示する。様々な実施形態では、電子ディスプレイ115は、単一の電子ディスプレイまたは複数の電子ディスプレイ(例えば、ユーザの各眼用のディスプレイ)を含み得る。電子ディスプレイ115の例としては、液晶ディスプレイ(LCD)、有機発光ダイオード(OLED)ディスプレイ、アクティブマトリクス有機発光ダイオードディスプレイ(AMOLED)、その他のディスプレイ、或いはこれらの組み合わせが含まれる。
光学系ブロック118は、電子ディスプレイ115から受信した画像光を拡大し、画像光に関連する光学的エラーを補正し、その補正された画像光が、ディスプレイデバイス105のユーザに提示される。様々な実施形態では、光学系ブロック118は、1つまたは複数の光学素子を含む。例示的な光学素子は、アパーチャレンズ、フレネルレンズ、凸レンズ、凹レンズ、フィルタ、または電子ディスプレイ115から放出された画像光に影響を与える任意の他の適切な光学素子を含む。さらに、光学系ブロック118は、異なる光学素子の組み合わせを含み得る。いくつかの実施形態において、光学系ブロック118内の1つまたは複数の光学素子は、部分反射リフレクタ又は反射防止コーティング等の1つまたは複数のコーティングを有し得る。
光学系ブロック118による画像光の拡大により、電子ディスプレイ115を物理的に小型化、軽量化し、より大型のディスプレイよりも消費電力を小さくすることができる。さらに、拡大によって、表示されるコンテンツの視野を増加させ得る。例えば、表示されるコンテンツの視野は、表示されるコンテンツがユーザの視野のほとんどすべて(例えば、対角110°)および場合によってはすべてを使用して提示されるというものである。いくつかの実施形態では、光学系ブロック118は、その有効焦点距離が電子ディスプレイ115までの間隔よりも大きいように構成され、それによって電子ディスプレイ115によって投影される画像光が拡大される。さらに、いくつかの実施形態では、光学素子を追加するか、または光学系ブロック118から光学素子を除去することによって、拡大量を調整することができる。
光学系ブロック118は、1つまたは複数の種類の光学エラーを補正するように構成され得る。光学エラーの例としては、2次元光学エラー、3次元光学エラー、またはこれらのいくつかの組み合せが含まれる。2次元エラーは2次元で発生する光学収差である。2次元エラーの種類の例としては、樽型歪曲、糸巻型歪曲、縦色収差、横色収差、又は任意の他の種類の2次元光学エラーが含まれる。3次元エラーは、3次元で発生する光学エラーである。3次元エラーの例としては、球面収差、色収差、像面歪曲、非点収差、または任意の他の種類の3次元光学エラーが含まれる。いくつかの実施形態では、表示のために電子ディスプレイ115に提供されるコンテンツは予め歪曲され、光学系ブロック118は、コンテンツに基づいて生成された電子ディスプレイ115からの画像光を受信するときに歪曲を補正する。
ロケータ120は、ディスプレイデバイス105上の特定の位置に互いに対して、かつディスプレイデバイス105上の特定の基準点に対して相対的に配置されたオブジェクトである。ロケータ120は、発光ダイオード(LED)、コーナーキューブリフレクタ、反射マーカ、ディスプレイデバイス105が動作する環境と対照的なタイプの光源、またはこれらの組み合わせであってもよい。ロケータ120がアクティブ(即ち、LEDまたは他のタイプの発光デバイス)である実施形態では、ロケータ120は、可視帯域(380nm〜570nm)、赤外(IR)帯域(750nm〜1700nm)、紫外帯域(10nm〜380nm)、電磁スペクトルの他の帯域、またはこれらの任意の組み合わせにおいて光を放出することができる。
いくつかの実施形態では、ロケータ120は、ロケータ120によって放出されるかまたは反射される光の波長に対して透過的であるか、又はロケータ120によって放出されるかまたは反射される光の波長を実質的に減衰させないように十分薄い、ディスプレイデバイス105の外面の下に配置される。さらに、いくつかの実施形態において、ディスプレイデバイス105の外面または他の部分は、光の可視波長帯域において不透過的である。したがって、ロケータ120は、IR帯域内では透過的であるが、可視帯域においては不透過的である外面の下でIR帯域の光を放出することができる。
IMU130は、1つまたは複数の位置センサ125から受信した測定信号に基づいて高速較正データを生成する電子デバイスである。位置センサ125は、ディスプレイデバイス105の動きに応答して1つまたは複数の測定信号を生成する。位置センサ125の例としては、1つまたは複数の加速度計、1つまたは複数のジャイロスコープ、1つまたは複数の磁力計、動きを検出する別の適当なタイプのセンサ、IMU130のエラー訂正に使用されるあるタイプのセンサ、またはそれらの組み合わせが含まれる。位置センサ125は、IMU130の外部に配置されてもよく、IMU130の内部に配置されてもよく、或いはこれらの組み合わせで配置されてもよい。
1つまたは複数の位置センサ125からの1つまたは複数の測定信号に基づいて、IMU130は、ディスプレイデバイス105の初期位置に対するディスプレイデバイス105の推定位置を示す高速較正データを生成する。例えば、位置センサ125は、並進運動(前方/後方、上方/下方、左側/右側)を測定する複数の加速度計と、回転運動(例えば、ピッチ、ヨー、ロール)を測定する複数のジャイロスコープと含む。いくつかの実施形態では、IMU130は、測定信号を高速サンプリングし、サンプリングされたデータからディスプレイデバイス105の推定位置を算出する。例えば、IMU130は、加速度計から受け取った測定信号を経時的に積分して、速度ベクトルを推定し、速度ベクトルを経時的に積分して、ディスプレイデバイス105上の基準点の推定位置を決定する。あるいは、IMU130は、サンプリングされた測定信号をディスプレイシステム110に供給し、ディスプレイシステム110は、高速較正データを決定する。基準点は、ディスプレイデバイス105の位置を説明するために使用され得る点である。基準点は、一般的に、空間内のある点として定義されてもよいが、実際には、基準点は、ディスプレイデバイス105内のある点(例えば、IMU130の中心)として定義されることが多い。
IMU130は、ディスプレイシステム110から1つまたは複数の較正パラメータを受信する。以下でさらに説明するように、1つまたは複数の較正パラメータは、ディスプレイデバイス105の追跡を維持するために使用される。IMU130は、受信した較正パラメータに基づいて、1つまたは複数のIMUパラメータ(例えば、サンプルレート)を調整し得る。いくつかの実施形態では、特定の較正パラメータにより、IMU130は基準点の初期位置を更新し、更新された初期位置が、基準点の次の較正位置に対応するようにする。基準点の初期位置を基準点の次の較正位置として更新することにより、決定された推定位置に関連する累積エラーを減少させるのに役立つ。累積エラーは、ドリフトエラーとも呼ばれ、基準点の推定位置を、経時的に基準点の実際の位置から「ドリフト」させる原因となる。
視線追跡ユニット160は、ユーザの眼の動きを追跡する。一般的に、追跡される眼球運動は、眼球の角回転だけでなく、眼球の並進運動、眼球の回旋の変化、または眼球の形状の変化を含むことができる。眼球の角回転は、眼球の角度方向の変化である。眼球の角度方向は、ディスプレイデバイス105内でのユーザの凝視の方向に対応しており、ここでは、眼の中心窩(網膜上のくぼみ)と眼の瞳孔の中心との間の軸である中心窩軸の方向と定義される。一般的に、ユーザの眼がある点に固定されると、ユーザの眼の中心窩軸はその点と交差する。眼はまた、瞳孔の中心を通過する軸である瞳孔軸を含み、この軸は角膜表面に垂直である。一般的に、瞳孔軸は中心窩軸と直接的に整列することはない。瞳孔軸と中心窩軸の両方は瞳孔の中心で交差するが、中心窩軸の方向は、瞳孔軸から横方向に約−1°〜8°、縦方向に±4°だけずれる。中心窩軸は、眼球後方に位置する中心窩に対して定義されるため、特定の視線追跡法を用いて中心窩軸を検出することは困難であるかまたは不可能である。従って、いくつかの実施形態において、視線追跡ユニット160は、瞳孔軸の方向を検出し、検出された瞳孔軸に基づいて中心窩軸を推定する。あるいは、視線追跡ユニット160は、中心窩の位置を直接検出することによって、または眼球の網膜の他の特徴の位置を直接的に検出することによって、中心窩軸を推定する。
眼球の並進運動は、眼の眼窩に対する眼の位置の変化である。いくつかの実施形態では、眼球の並進運動は直接的には検出されないが、検出された角度方向からのマッピングに基づいて近似される。視線追跡ユニット160の1つまたは複数のコンポーネントに対する眼球の位置の変化に対応する眼球の並進運動も検出されてもよい。視線追跡ユニット160の1つまたは複数のコンポーネントに対する眼球の並進運動は、ユーザの頭部のディスプレイデバイス105の位置がシフトしたときに発生し得る。視線追跡ユニット160は、瞳孔軸を中心とした眼球の回転である眼球回旋をも検出し得る。視線追跡ユニット160は、検出された眼球回旋を使用して、検出された瞳孔軸に基づいて中心窩軸の方向を推定し得る。視線追跡ユニット160は、また、スキュー、スケーリング線形変換、または捻り変形(例えば、ねじれ変形による)として近似され得る眼球の形状の変化を追跡し得る。視線追跡ユニット160は、瞳孔軸の角度方向、眼球の並進運動、眼球の回旋、および眼球の現在の形状の組み合わせに基づいて中心窩軸を推定し得る。
視線追跡ユニット160は、追跡された眼球運動を用いて視線追跡情報を決定する。視線追跡情報は、ユーザの眼の位置および/または向きを記述する。視線追跡ユニット160は、決定された視線追跡情報を使用して、注視方向(中心窩の中心と眼の瞳孔の中心とを横断する軸である中心窩軸の方向とも呼ばれる)、注視位置(ユーザが見ている凝視点とも呼ばれる)、注視時間(ユーザが特定の方向を見ている時間)、輻輳角(ユーザの視距離および注視方向が変化したときの2つの眼の間の角度)、ユーザの瞳孔間距離(IPD、2つの眼の瞳孔の中心間の距離として定義される)、ユーザの識別、眼の回旋状態、眼の形状、片方または両方の眼の位置に基づくいくつかの他の機能、あるいはそれらの組み合わせなどの視線追跡値をさらに推定し得る。例えば、視線追跡ユニット160は、ユーザが無限遠に焦点を合わせているとき、又は例えばユーザから遠く離れた別の物体に焦点を合わせているときに、眼の位置を推定することによってIPDを決定することができる。別の例では、視線追跡ユニット160は、ユーザの視距離および注視方向の変化を推定することによって輻輳角を決定する。視線追跡ユニット160はまた、瞳孔軸を中心とした眼球の回転を推定することによって眼球の回旋状態を決定することができる。いくつかの実施形態では、視線追跡ユニット160は、中心窩軸、瞳孔軸からの中心窩軸の向き、および眼の形状の変化を決定することができる。
視線追跡ユニット160は、1つまたは複数の照明源、1つまたは複数の撮像装置、および視線追跡コントローラを含み得る。照明源(照明器とも呼ばれる)は、ユーザの眼の一部を光で照明する。所定の照明パワーは、眼に損傷を与える閾値未満である。照明源は赤外線光源であり得る。赤外線光源の例には、レーザー(例えば、波長可変レーザー、連続発振レーザー、パルスレーザー、赤外線を放射する他の適切なレーザー)、発光ダイオード(LED)、ファイバー光源、赤外線および/または可視光を放射する他の適切な光源、あるいはそれらの組み合わせが含まれる。様々な実施形態において、照明源は可視光または近赤外光を放射し得る。いくつかの実施形態では、1つまたは複数の照明源から放射される光は構造化光パターンである。いくつかの実施形態では、眼球運動中に照明された部分からの信号と照明された部分を囲む他の信号との間の明らかな変化に起因して、照明源によって照明される眼球の一部が、検出を容易にするために選択される。例えば、照明される部分は、最大のコントラスト(例えば、ユーザの強膜または角膜表面の端部からの最強の後方反射または後方散乱を伴う位置)を有し得る。照明される部分は、例えば、強膜の端部、角膜の表面、縁部(limbus)(例えば、角膜と強膜の接合部、虹彩と強膜の接合部、虹彩と瞳孔の接合部、または眼の任意の他の適切な接合部)に位置し得る。
撮像装置は、眼の照明された部分からの反射光および/または散乱光を検出する。撮像素子は、検出した光に比例する検出信号を出力する。検出信号は、眼の照明される部分の反射率に対応し、反射率は、ユーザの眼170の照明される部分全体の明確なコントラスト変化(例えば、角膜反射のコントラスト変化)と相互に関連がある。一実施形態では、撮像装置は、眼の照明された部分の画像を捕捉するように構成されたカメラを備える。いくつかの実施形態では、検出器は、一点検出(例えば、フォトダイオード、平衡型/整合型フォトダイオード、またはアバランシェフォトダイオード、または光電子増倍管)に基づくか、または一次元検出器アレイもしくは二次元検出器アレイ(例えば、カメラ、線形フォトダイオードアレイ、CCDアレイ、またはCMOSアレイ)に基づくものとすることができる。いくつかの実施形態では、視線追跡ユニット160は、眼の1つまたは複数の照明された部分から反射された光を捕捉するための複数の検出器を含み得る。
視線追跡ユニット160は、1つまたは複数の撮像装置からの捕捉光(例えば、捕捉画像)に基づいて視線追跡情報を決定する。いくつかの実施形態では、視線追跡ユニット160は、捕捉された光情報(例えば、眼の反射、眼に投影される構造化光パターンの歪み)を所定のルックアップテーブルまたは所定の眼モデルと比較して視線追跡情報を推定し得る。所定のルックアップテーブルまたは所定の眼モデルは、捕捉された光情報と視線追跡情報との間の関係を記述する。例えば、いくつかの実施形態では、視線追跡ユニット160は、ユーザの眼の捕捉画像内で1つまたは複数の照明源からの光の反射の位置を識別し、識別された反射の形状および/または位置と所定のルックアップテーブル(または所定の眼モデル)との比較に基づいて視線追跡情報を決定する。あるいは、眼が構造化光パターンで照明されている場合、視線追跡ユニット160は、眼に投影された構造化光パターンの歪みを検出し、検出された歪みと所定のルックアップテーブル(または所定の眼モデル)との比較に基づいて視線追跡情報を推定することができる。視線追跡ユニット160は、視線追跡情報を使用して、瞳孔軸、(例えば、中心窩軸に対応する)注視角、眼球の並進運動、眼球の回旋、眼の現在の形状などの他の視線追跡値をさらに推定し得る。別の実施形態では、視線追跡情報を決定するために片方または両方の眼から反射された光を使用する代わりに、視線追跡ユニット160は、超音波またはレーダなどの他の眼の位置を決定する方法を使用してもよい。
いくつかの実施形態では、視線追跡ユニット160は、ユーザの眼のモデルを記憶し、眼の1つまたは複数の走査と共にモデルを使用して眼の現在の向きを推定する。モデルは、眼の表面の3Dモデルまたは眼の一部の3D体積であり得る。モデルは、例えば、中心窩、傍中心窩、および周中心窩を含む、眼の網膜の異なる部分に対する境界をさらに含む。眼のこれらの部分の境界は、例えば、以下に記載される較正シーケンスにより決定され得る。ユーザの両眼が走査される実施形態では、ディスプレイシステム110またはディスプレイデバイス105は各眼に対する別々のモデルを記憶し得る。
スクリーン領域を決定する前に、視線追跡ユニット160は、眼のモデルを生成または訓練するための較正シーケンスを実行し得る。一実施形態では、視線追跡ユニット160は、較正シーケンス中に1つまたは複数の送受信器を用いて眼を繰り返し走査する。例えば、ユーザは、ディスプレイデバイス105の電子ディスプレイ115に表示された特定の仮想オブジェクトまたは視覚的インジケータを注視するように指示される。ユーザが視覚的インジケータを注視している間に眼の一部が走査され、視線追跡ユニット160は、眼の既知の向きにおける眼の走査サンプルを捕捉することが可能となる。これらの走査サンプルを合成してモデルにすることができる。視線追跡ユニット160がモデルを生成した後、視線追跡ユニット160は続いてユーザの視線を追跡し得る。いくつかの実施形態において、視線追跡ユニット160は、視線追跡中にモデルを更新する。
撮像装置135は、ディスプレイシステム110から受信した較正パラメータに従って低速較正データを生成する。低速較正データは、撮像装置135によって検出可能なロケータ120の観察位置を示す1つまたは複数の画像を含む。撮像装置135は、1つまたは複数のカメラ、1つまたは複数のビデオカメラ、1つまたは複数のロケータ120を含む画像を撮像可能な任意の他の機器、またはこれらの組み合わせを含み得る。さらに、撮像装置135は、1つまたは複数のフィルタ(例えば、信号対雑音比を高めるために使用される)を含み得る。撮像装置135は、撮像装置135の視野内でロケータ120から出射された、または反射された光を検出するように構成されている。ロケータ120が受動的素子(例えば、再帰反射器)を含む実施形態では、撮像装置135は、光源を含み得、この光源は、撮像装置135内の光源に向けて光を再帰反射するロケータ120の一部または全部を照明する。低速較正データは、撮像装置135からディスプレイシステム110に伝達され、撮像装置135は、1つまたは複数の較正パラメータをディスプレイシステム110から受信して、1つまたは複数の撮像パラメータ(例えば焦点距離、焦点、フレームレート、ISO、センサ温度、シャッタ速度、開口等)を調整する。
入力インタフェース140は、ユーザが動作要求をディスプレイシステム110に送信することを可能にするためのデバイスである。動作要求は、特定の動作を実行するための要求である。例えば、動作要求は、アプリケーションを開始し、アプリケーションを終了するか、またはアプリケーション内で特定の動作を実行するためのものであり得る。入力インタフェース140は、1つまたは複数の入力デバイスを含み得る。入力デバイスの例としては、キーボード、マウス、ゲームコントローラ、または動作要求を受信して、受信した動作要求をディスプレイシステム110に伝達するための任意のその他の適切なデバイスが含まれる。入力インタフェース140によって受信された動作要求はディスプレイシステム110に伝達され、ディスプレイシステム110は、動作要求に対応する動作を実行する。いくつかの実施形態では、入力インタフェース140は、ディスプレイシステム110から受信した命令に従って、ユーザに触覚フィードバックを提供する。例えば、触覚フィードバックは、動作要求が受信されたときに提供されるか、または入力インタフェース140が、ディスプレイシステム110が動作を実行したときに入力インタフェース140に触覚フィードバックを生成させる命令をディスプレイシステム110から受信したときに提供される。
ディスプレイシステム110は、撮像装置135、ディスプレイデバイス105、および入力インタフェース140のうちの1つまたは複数から受信した情報に従って、ユーザに提示するためのコンテンツをディスプレイデバイス105に提供する。図1Aに示す例では、ディスプレイシステム110は、アプリケーションストア145、追跡モジュール150、エンジン155、および画像処理エンジン165を含む。ディスプレイシステム110のいくつかの実施形態は、図1Aに関連して説明されたものとは異なるモジュールを有する。同様に、以下にさらに説明する機能は、ディスプレイシステム110のモジュール間で、上記のものとは異なる方法で分散され得る。
アプリケーションストア145は、ディスプレイシステム110による実行のための1つまたは複数のアプリケーションを格納する。アプリケーションは、プロセッサの実行時にユーザに提示するためのコンテンツを生成する命令群である。アプリケーションによって生成されたコンテンツは、ディスプレイデバイス105または入力インタフェース140の動きを介してユーザから受信した入力に応答的なものであり得る。アプリケーションの例としては、ゲーム用アプリケーション、会議用アプリケーション、ビデオ再生用アプリケーション、またはその他の適切なアプリケーションが含まれる。
追跡モジュール150は、1つまたは複数の較正パラメータを用いてシステム100を較正し、1つまたは複数の較正パラメータを調整して、ディスプレイデバイス105の位置または入力インタフェース140の位置を決定する際のエラーを低減し得る。例えば、追跡モジュール150は、撮像装置135の焦点を調整して、ディスプレイデバイス105上の観察されたロケータのより正確な位置を得る。さらに、追跡モジュール150によって行われる較正は、IMU130から受信した情報も考慮する。さらに、ディスプレイデバイス105の追跡が失われた場合(例えば、撮像装置135がディスプレイデバイス105上の少なくとも閾値の数のロケータ120の視線を喪失した場合)、追跡モジュール150は、システム100の一部または全部を再較正する。
追跡モジュール150は、撮像装置135からの低速較正情報を用いてディスプレイデバイス105の動きを追跡する。例えば、追跡モジュール150は、低速較正情報から観察されたロケータとディスプレイデバイス105のモデルとを用いてディスプレイデバイス105の基準点の位置を決定する。追跡モジュール150はまた、高速較正情報からの位置情報を用いて、ディスプレイデバイス105の基準点の位置を決定する。さらに、いくつかの実施形態において、追跡モジュール150は、高速較正情報、低速較正情報、またはそれらの組み合わせの一部を使用して、ディスプレイデバイス105の将来の位置を予測し得る。追跡モジュール150は、ディスプレイデバイス105の推定されたまたは予測された将来の位置をエンジン155に提供する。
エンジン155は、システム100内でアプリケーションを実行し、追跡モジュール150からディスプレイデバイス105の位置情報、加速度情報、速度情報、予測される将来位置、或いはこれらの組み合わせを受信する。エンジン155は、受信した情報に基づいて、ユーザに提供するためにディスプレイデバイス105に提供するためのコンテンツを決定する。例えば、受信された情報が、ユーザが左を見たことを示している場合、エンジン155は、仮想環境内でユーザの動きをミラーリングした、ディスプレイデバイス105のためのコンテンツを生成する。さらに、エンジン155は、入力インタフェース140から受信した動作要求に応答してディスプレイシステム110上で実行されるアプリケーション中のある動作を実行し、その動作が実行されたことをユーザにフィードバックする。提供されたフィードバックは、ディスプレイデバイス105を介した視覚的または聴覚的なフィードバックか、又は入力インタフェース140を介した触覚フィードバックであり得る。
画像処理エンジン165は、(例えば、視線追跡ユニット160から)視線追跡情報を受信し、スクリーンをユーザの網膜の異なる部分で見たスクリーンの部分を表す2つ以上のスクリーン領域に分割し、各スクリーン領域に表示されるべき画像の部分に異なる組のパラメータを適用することによってスクリーン上への表示用の画像を処理する。本明細書で言及されるように、スクリーン上への表示用の画像を処理することは、画像をレンダリングすること(例えば、ゲーム内のシーンをレンダリングすること)、画像を符号化すること、または画像をレンダリングして符号化することの組み合わせを含み得る。画像処理エンジン165のコンポーネントは、図1Bを参照して以下に詳細に説明される。
図1Aに示す実施形態では、画像処理エンジン165は、VRシステム環境、ARシステム環境、MRシステム環境、またはそれらの組み合せで動作し得るシステム100内で実施される。しかしながら、本明細書に記載されているような画像処理エンジン165はまた、視線追跡コンポーネントも含む他の種類のシステムにおいても実施され得る。例えば、他の実施形態では、エンジン165は携帯電子機器(例えば、スマートフォンまたはタブレットコンピュータ)上で実施される。この実施形態では、エンジン165は、視線追跡情報(例えば、携帯電子機器の前面カメラから捕捉された画像)を受信し、携帯電子機器のスクリーンに表示される画像に適応パラメータを適用する。さらに別の実施形態では、エンジン165は、視線追跡を実行することができるコンポーネント(例えば、ラップトップディスプレイのベゼルに組み込まれるか、またはモニタの最上部に取り付けられたカメラなどのユーザと対面するカメラ)を有するラップトップコンピュータまたはデスクトップコンピュータで実施され、かつコンピュータのスクリーン上に表示される画像に適応パラメータを適用する。
図1Bは、一実施形態による画像処理エンジン165のブロック図である。図1Bに示すレンダリング/符号化エンジンは、スクリーン領域モジュール162、レンダリングモジュール164、および符号化モジュール166を含む。代替の構成では、異なるおよび/または追加のコンポーネントがレンダリング/符号化エンジンに含まれてもよい。同様に、コンポーネントのうちの1つまたは複数の機能は、本明細書で説明したものとは異なるやり方でコンポーネント間で分散させてもよい。
スクリーン領域モジュール162は、(例えば、視線追跡ユニット160から)視線追跡情報を受け取り、中心窩、傍中心窩、および傍中心窩を超える網膜の部分などのユーザの網膜の異なる部分に対応するスクリーン領域を決定する。本明細書で言及されるように、スクリーン領域は、ユーザの網膜の特定の部分で見られるスクリーンの一部である。例えば、スクリーン領域モジュール162は、中心窩で見られるスクリーンの一部に対応する第1のスクリーン領域(中心窩領域)、傍中心窩で見られるスクリーンの一部に対応する第2のスクリーン領域(傍中心窩領域)、および、傍中心窩の外側の網膜の部分によって見られるスクリーンの一部に対応する第3のスクリーン領域(外側領域)を決定し得る。
スクリーン領域モジュール162は、視線追跡ユニット160などの視線追跡コンポーネントから視線追跡情報を受け取る。一実施形態では、視線追跡情報は、視線追跡ユニット160によって決定されるようなユーザの眼の角度方向を含む。別の実施形態では、視線追跡情報は、ユーザの眼の1つまたは複数の画像などの追加のまたは異なる情報を含む。スクリーン領域モジュール162が視線追跡情報に基づいてスクリーン領域を決定する方法は、図3A〜3Cを参照して以下に詳細に説明される。
レンダリングモジュール164は、ディスプレイシステム110上で実行されているアプリケーションによって生成された情報に基づいて画像をレンダリングする。アプリケーションは、アプリケーションストア145に格納されるか、または入力インタフェース140を介して他のシステムから受信されてもよい。例えば、ディスプレイシステム110は、シーン内の様々な位置に1つまたは複数の仮想オブジェクト(プレーヤキャラクタ、ノンプレーヤキャラクタ、環境オブジェクト、および背景など)を含むシーンを生成するゲームアプリケーションを実行する。モジュール164は、画像を2つ以上の画像領域に分割し、対応する一組のレンダリングパラメータを各領域に適用することによって画像をレンダリングする。例えば、上述の例では、レンダリングモジュール164は、各画像領域内の仮想オブジェクトを対応する一組のレンダリングパラメータでレンダリングすることによってシーンの画像をレンダリングする。本明細書で言及されるように、画像は、静止画または一連のフレームのうちの1つのフレーム(例えば、ビデオまたはゲームアプリケーションのフレーム)であり得る。
符号化モジュール166は、(例えば、レンダリングモジュール164または入力インタフェース140から)画像を受け取り、送信用に画像を符号化する。モジュール166は、画像を2つ以上の画像領域に分割し、対応する一組の符号化パラメータを各領域に適用することによって画像を符号化する。一実施形態では、符号化モジュール166は、図6Aおよび図6Bを参照して説明したプロセスに従って画像を符号化する。それらが符号化された後、ディスプレイシステム110は、画像をユーザに対して表示させるべくディスプレイデバイス105に送信し得る。
本明細書で言及されるように、画像領域は、ディスプレイデバイス105のスクリーン上に表示されたときに、ユーザの網膜の特定の部分によって見られる画像の一部である。例えば、モジュール164、166は、中心窩によって見られる第1の画像領域、傍中心窩によって見られる第2の画像領域、および傍中心窩の外側の網膜の一部によって見られる第3の画像領域に異なる組のパラメータを適用する。いくつかの実施形態では、レンダリングモジュール164によってレンダリングされ、かつ/または符号化モジュール166によって符号化された画像は、スクリーン全体を網羅するように表示される(すなわち、画像は全画面モードで表示される)。これらの実施形態では、レンダリングモジュール164および符号化モジュール166を参照して説明された画像領域は、スクリーン領域モジュール162を参照して説明されたスクリーン領域と同じ形状および画像内の同じ位置を有する。他の実施形態では、画像はスクリーンの一部に(例えば、スクリーン全体を占有しないウィンドウ内に)表示される。これらの実施形態では、モジュール164、166は、画像が表示されるべきスクリーンの一部を含み、スクリーンの他の部分を除外するようにスクリーン領域を切り取ることによって画像領域の境界を決定する。
図2は、一実施形態によるヘッドマウントディスプレイ(HMD)200の図である。HMD200は、ディスプレイデバイス105の一実施形態であり、かつ前側硬質本体205とバンド210とを含む。前側硬質本体205は、電子ディスプレイ115(図2では図示せず)の電子ディスプレイ素子と、光学系ブロック118(図2では図示せず)と、IMU130と、1つまたは複数の位置センサ125と、視線追跡ユニット160と、ロケータ120とを含む。図2に示される実施形態では、位置センサ125はIMU130内に配置され、IMU130および位置センサ125はユーザには視認されない。
ロケータ120は、前側硬質本体205上の固定位置に互いに対して相対的にかつ基準点215に対して相対的に配置されている。図2の例では、基準点215は、IMU130の中心に配置されている。ロケータ120の各々は、撮像装置135によって検出可能な光を放出する。ロケータ120またはロケータ120の一部は、図2の例では、前側硬質本体205の前面220A、上面220B、下面220C、右面220D、左面220E上に配置されている。
画像領域における適応パラメータ
図3Aおよび図3Bは、一実施形態による、注視ベクトル306によって示される方向にスクリーン304を注視しているユーザの眼302を示す。最初に図3Aを参照すると、ユーザの眼302、注視ベクトル306、およびスクリーン304が示されている。図3Aは、さらに、例えば、視線追跡ユニット160によって捕捉された眼の画像に基づいてスクリーン領域モジュール162によって生成されたスクリーン上の中心窩領域308、傍中心窩領域310、および外側領域312を示す。
スクリーン領域モジュール162は、眼が見ている方向を表す注視ベクトルを決定する。いくつかの実施形態では、スクリーン領域モジュール162は、眼球中心(A)、角膜中心(C)、瞳孔(E)、および角膜中心と瞳孔中心(h)との間の距離を含む、眼に関連する複数の眼球特性に基づいて注視ベクトルを決定する。一実施形態では、視線追跡ユニット160はこれらの眼球特性の推定値を計算し、その推定値を視線追跡情報の一部としてスクリーン領域モジュール162に送信する。別の実施形態では、スクリーン領域モジュール162は、視線追跡ユニット160から眼球の角度方向を受け取り、角回転に基づいて眼モデルに回転を適用することによってこれらの眼球特性を生成する。他の実施形態では、スクリーン領域モジュール162は、視線追跡ユニット160から眼の中心窩軸を受け取り、中心窩軸の方向を注視ベクトル306として使用する。注視ベクトル306を決定した後、モジュール162は、注視ベクトル306とスクリーン304との間の交点を計算することによって注視点314を決定する。他の実施形態では、注視点314は他の手段によって計算される。
302として示されるスクリーンの領域は、眼が解像度の差に最も敏感である中心窩領域である。304として示される領域は、302に最も近い傍中心窩領域であり、傍中心窩領域では眼は解像度の差に対する感度が低い。領域302および304の外側の領域は、外側画像領域306であり、外側画像領域306では眼は解像度の差に対する感度が最も低い。
図3Aに示される実施形態では、スクリーン領域モジュール162は、注視点を中心とする所定の半径の円を描くことによって中心窩領域308を決定する。同様に、スクリーン領域モジュール162は、注視点を中心とする第2の所定の半径の第2の円を描き、中心窩領域を減算して環帯(リング形状)を生成することによって傍中心窩領域310を決定する。スクリーン領域モジュール162はさらに、中心窩領域308および傍中心窩領域310によって覆われていないスクリーンの領域として外側領域312を決定し得る。
所定の半径を有するスクリーン領域308、310、312を決定するためのこのプロセスは、処理中にスクリーン304がユーザの眼302から既知の距離を維持する実施形態(例えば、ディスプレイデバイス105が図2に示されているHMD200のようなヘッドマウントディスプレイである実施形態)において特に有利である。その理由は、例えば、所定の半径は、特定の数値の視角の度数に対応するように選択され、かつ中心窩領域308および傍中心窩領域310に関する視角の度数は、ユーザの中心窩および傍中心窩の解剖学的境界の推定値を表すように選択することができるからである。例えば、上述のように、所定の半径は、中心窩領域308が2.5度の視角の半径に対応し、傍中心窩領域310が5.0度の視角の半径に対応するように選択することができる。いくつかの実施形態では、所定の半径は、視線追跡ユニット160を参照して上述したユーザの眼モデルに基づいて選択される。
図3Bは、図3Aの眼を示し、さらに一実施形態による中心窩円錐316および傍中心窩円錐318を示す。図3Bに示す実施形態では、中心窩領域および傍中心窩領域は3D円錐によって画定される。316として描かれている円錐形状は中心窩円錐であり、318として描かれている円錐形状は傍中心窩円錐である。
図3Bに示す実施形態では、スクリーン領域モジュール162は、円錐316、318に基づいてスクリーン領域308、310を決定する。より具体的には、スクリーン領域モジュール162は、図3Aを参照して上述した方法で眼球特性に基づいて注視ベクトルを決定する。注視ベクトル306を決定した後、スクリーン領域モジュール162は、注視ベクトル306と一致する軸と、角膜中心(C)の頂点と、軸に対して所定の角度(例えば、2.5度)だけオフセットした円錐面とを有する円錐として中心窩円錐316を形成する。同様に、スクリーン領域モジュール162は、注視ベクトル306と一致する軸と、角膜中心の頂点(C)と、軸に対して異なる所定の角度(例えば、5度)だけオフセットした円錐面とを有する傍中心窩円錐318を形成する。図3Aを参照して上述した所定の半径と同様に、円錐316、318を画定する所定の角度は、典型的な人間のユーザの中心窩および傍中心窩の解剖学的境界の推定値を表すように選択することができ、かつ眼モデルに基づくものとすることができる。円錐316、318を形成した後、スクリーン領域モジュール162は、対応する円錐316、318とスクリーン304との間の交点を計算することによって中心窩領域308および傍中心窩領域310を決定する。スクリーン領域モジュール162はさらに、中心窩領域308および傍中心窩領域310によって覆われていないスクリーンの領域として外側領域312を決定し得る。
図3Cは、一実施形態によるスクリーン304上に現れる中心窩領域308、傍中心窩領域310、および外側領域312を示す。中心窩領域308および傍中心窩領域310は図3A〜図3Cに円として示されているが、他の実施形態では、これらの領域は異なる形状を有することができる。一実施形態では、中心窩領域および傍中心窩領域は、注視点314を中心とし、その一辺が図3A〜図3Cに示す円形中心窩および傍中心窩領域308、310と同じ長さの正方形である。別の実施形態では、中心窩領域および傍中心窩領域は長方形である。正方形または長方形の中心窩および傍中心窩領域を使用することは、例えば、画素が直交座標系でインデックス付けされているスクリーン上で正方形領域または長方形領域を形成することがより容易であるという理由から有利である。
いくつかの実施形態では、スクリーン領域モジュール162は、層間のより滑らかな移行を提供するために追加の領域を生成する。いくつかの実施形態では、各領域のサイズは、適応的であり、かつ眼の特性におけるノイズ、眼球特性の推定精度、注視ベクトルの方向、またはそれらの任意の組み合わせに基づいて更新され得る。いくつかの実施形態では、各スクリーン領域のサイズは、衝動性運動(saccade)(凝視点間の急速な眼球運動)が検出されたときに拡大され、一旦凝視が安定すると再び縮小される。
図4は、一実施形態による、視線追跡情報に基づいて画像領域に適応パラメータを適用するためのプロセスを示すブロック図である。ディスプレイシステム110は、視線追跡情報を受信する(402)。例えば、システム110は、ディスプレイデバイス105の視線追跡ユニット160からユーザの眼の角度方向を受け取る。システム110は、追加的または代替的に、図3Aを参照して説明したユーザの眼の画像または1つまたは複数の眼球特徴などの他の種類の視線追跡情報を受信する。
視線追跡情報を受信した(402)後、システム110は視線追跡情報に基づいて2以上のスクリーン領域を決定する(404)。例えば、システム110は、図3Aおよび図3Bを参照して説明したプロセスの一方または両方を実行して、中心窩領域、傍中心窩領域、および外側領域を決定する(404)。他の実施形態では、システム110は、異なる数の領域を決定してもよい(404)。例えば、システム110は、2つの領域(例えば、傍中心窩領域ではなく、中心窩領域および外側領域)を決定し得る。別の例として、システムは、上述のように中心窩領域、傍中心窩領域、および外側領域を決定し、追加的に、ユーザの眼の周中心窩に対応する周中心窩領域(傍中心窩を囲む網膜の一部)を決定し得る。
システム110は、画像内の異なる画像領域に異なる組のパラメータを適用することによって画像をレンダリングおよび/または符号化する(406)。画像がスクリーン全体に表示される実施形態では、画像領域はスクリーン領域と同一の広がりを持つ。画像がスクリーンの一部に表示される実施形態では、システム110は、画像が表示されるスクリーンの一部にスクリーン領域をトリミングすることによって画像領域の境界を決定する。ディスプレイシステム110は、画像をスクリーン上に表示されるようにディスプレイデバイス105に送信する(408)。
図5A〜図5Cは、異なる画像領域に異なる組のパラメータを適用することによって画像をレンダリングして符号化するためのプロセスの様々な実施形態を示す。例えば、図4を参照して説明したレンダリング/符号化ステップ406として、図5A〜図5Cに示す1つまたは複数のプロセスを実行することができる。一実施形態では、図5A〜図5Cに示す各プロセスは、画像処理エンジン165によって実行される。
最初に図5Aを参照すると、一実施形態による、異なる組のレンダリングパラメータを用いて画像の異なる部分をレンダリングするためのプロセスを示すブロック図が示されている。ディスプレイシステム110は、第1の組のレンダリングパラメータに基づいて第1の画像領域をレンダリングする(502)。ディスプレイシステム110はまた、第2の組のレンダリングパラメータに基づいて第2の画像領域をレンダリングする。例えば、第1の画像領域は、中心窩によって見られる画像の一部に対応する中心窩領域であり得、第2の画像領域は、中心窩の外側の網膜の部分によって見られる画像の一部に対応する外側領域であり得る。
本明細書で言及されるように、一組のレンダリングパラメータは、画像をレンダリングするためにディスプレイシステム110上で実行されるレンダリングプロセスの処理に影響を与える1つまたは複数の係数を指定する。レンダリングパラメータの例は、画像解像度、フレームレート、アンチエイリアシング設定、またはテクスチャ品質を含み得る。レンダリングパラメータの一部またはすべては、レンダリングプロセスがより多くのコンピューティングリソースを消費することを犠牲にしてより高い画質を達成するか、またはより少ないコンピューティングリソースでレンダリングプロセスを実行することを許容して低品質を達成するように調整され得る。一実施形態では、第2の組のレンダリングパラメータは、第1の組のレンダリングパラメータよりも低い画質をもたらす。
画像がレンダリングされた後、ディスプレイシステム110はレンダリングされた画像を符号化する(506)。図5Aに示す実施形態では、画像全体が単一の組の符号化パラメータに基づいて符号化される(506)。しかしながら、図5B〜図5Cに示す実施形態などの他の実施形態では、ディスプレイシステム110は、異なる組の符号化パラメータに基づいて異なる領域のレンダリングされた画像を符号化する(506)。
図5Aには示されていないが、ディスプレイシステム110はまた、第3の組のレンダリングパラメータに基づいて第3の画像領域をレンダリングし得る。一実施形態では、第3の画像領域は、傍中心窩によって見られる画像の一部に対応する傍中心窩領域であり得る(この場合、外側領域は、中心窩および傍中心窩の両方の外側の網膜の部分によって見られる画像の一部に対応し得る)。この実施形態では、第3の組のレンダリングパラメータは、中間レベルの画質(すなわち、第1の組のレンダリングパラメータよりも低い画質、および第2の組のレンダリングパラメータよりも高い画質)をもたらす。
より広くは、ディスプレイシステム110は、画質レベルを低下させるために提供する異なる組のレンダリングパラメータで中心窩領域、傍中心窩領域、および外側領域(上記の説明では、それぞれ第1の領域、第3の領域、および第2の領域と呼ばれる)をレンダリングすることができる。画像の質に対する眼の感度は、中心窩からの距離と共に減少するので、傍中心窩領域における中間の画像品質および外側領域におけるより低い画像品質は、多くのユーザには感知できない。しかしながら、傍中心窩および外側領域に対する低品質のレンダリングパラメータの使用により、より少ないコンピューティングリソースで画像のレンダリング処理を実行することが可能となり、それはレンダリング処理がより少ない時間で完了し、かつ/またはより少ない電力を消費することを有利に可能にする。従って、異なる組のレンダリングパラメータを用いて異なる画像領域をレンダリングするこのプロセスによって、ディスプレイシステム110が、十分に高い画像品質とコンピューティングリソースのより少ない使用との間のバランスをとるレンダリングプロセスを実行することが可能となる。
いくつかの実施形態では、レンダリングされている画像は、アプリケーション(例えば、ゲーム)によって生成されたシーンを描写し、かつシーン内の様々な位置における複数のオブジェクトを含む。一実施形態では、オブジェクトの一部が対応する領域内に現れるかどうかに基づいて、一組のレンダリングパラメータをシーン内のオブジェクトに適用することができる。例えば、ユーザがオブジェクトを見ており、そのオブジェクトの一部が中心窩領域の外側に広がっている場合、ディスプレイシステム110は、ユーザがオブジェクトのいくつかの部分における品質の変化を知覚しないように、第1の組のレンダリングパラメータでオブジェクト全体をレンダリングすることができる。
いくつかの実施形態では、シーン内の1つまたは複数のオブジェクトは、オブジェクトとユーザとの間の距離を表す深度値を有する。シーン内の各オブジェクトの深度値は、シーンを生成するアプリケーションによって決定され得る。例えば、ゲームアプリケーションによって生成されたシーン内のオブジェクトの深度値は、シーン内のゲームオブジェクトの位置とプレーヤの視点の位置との間の距離を表し得る。
これらの実施形態では、ディスプレイシステム110は、オブジェクトの深度に少なくとも部分的に基づいて、オブジェクトに適用するための一組のレンダリングパラメータを選択し得る。一実施形態では、ユーザが近距離に位置するオブジェクトを見ている場合(例えば、注視点が第1の閾値より低い深度値を有するオブジェクト上に位置している場合)、ディスプレイシステム110は、背景オブジェクトが中心窩領域または傍中心窩領域内に存在する場合であっても、背景内に位置するオブジェクト(例えば、第2の閾値より高い深度値を有するオブジェクト)に対してより低品質の組のレンダリングパラメータを適用する。
別の実施形態では、2つの注視ベクトルがユーザの2つの眼に対して別々に決定され、ディスプレイシステム110は2つの注視ベクトルの輻輳に基づいてユーザの焦点深度を決定する。この実施形態では、ディスプレイシステム110は、焦点深度とシーン内のオブジェクトの深度値との間の深度の差(以下、深度差と呼ぶ)を決定し、システム110は、それらのオブジェクトが中心窩領域または傍中心窩領域に存在する場合であっても、深度の差が閾値を超えるオブジェクトに対してより低品質の組のレンダリングパラメータを適用する。
いくつかの実施形態では、ディスプレイシステム110は、共に一連のフレームを構成する複数の画像についてレンダリングプロセスを実行する。例えば、画像は、ビデオのフレームまたはゲームアプリケーションのフレームであり得る。これらの実施形態では、ディスプレイシステム110は、異なるフレームレートで画像の異なる領域をレンダリングする。一実施形態では、ディスプレイシステム110は、1フレームごとに中心窩領域をレンダリングし、1フレームおきに外側領域をレンダリングする。いくつかの実施形態では、ディスプレイシステム110は、所与のフレームについてレンダリングされていない領域を補正するために時間的アンチエイリアシングを適用する。
別の実施形態では、ディスプレイシステム110は、シーンの内容に基づいてフレーム内の画像領域がレンダリングされる頻度を決定する。例えば、画像領域が連続フレーム間である程度静的に維持しているオブジェクトを含む場合(例えば、背景における雲)、その画像領域は、移動するオブジェクトを含む画像領域よりも低い頻度でレンダリングされ得る。
図5Bは、一実施形態による、異なる組の符号化パラメータを用いて画像の異なる部分を符号化するためのプロセスを示すブロック図である。レンダリングされた画像がディスプレイシステム110に提供される(512)。様々な実施形態において、ディスプレイシステム110の記憶媒体に記憶されたレンダリングされた画像(例えば、画像ファイルまたはビデオファイル)、または、入力インタフェース140を介してディスプレイシステム110で受信されたレンダリングされた画像(例えば、YOUTUBE(登録商標)などのストリーミングサービスからのビデオストリーム)は、ディスプレイシステム110上でレンダリングされ得る(例えば、ディスプレイシステム上で実行されるゲームアプリケーションまたは他のアプリケーションの一部として)。
レンダリングされた画像が提供された(512)後、ディスプレイシステム110は、第1の組の符号化パラメータに基づいて第1の画像領域を符号化する(514)。ディスプレイシステム110はまた、第2の組の符号化パラメータに基づいて第2の画像領域を符号化する(516)。例えば、第1の画像領域は、中心窩によって見られる画像の一部に対応する中心窩領域であり得、第2の画像領域は、中心窩の外側の網膜の部分によって見られる画像の一部に対応する外側領域であり得る。
本明細書で言及されるように、一組の符号化パラメータは、画像をレンダリングするためにディスプレイシステム110上で実行される符号化プロセスの処理に影響を与える1つまたは複数の係数を指定する。符号化パラメータの例には、画像解像度、フレームレート、および変換符号化用に使用される変換の種類などの圧縮係数、量子化レベルの数および範囲、クロマサブサンプリング、および色域圧縮が含まれ得る。上述したレンダリングパラメータと同様に、符号化パラメータの一部またはすべては、符号化プロセスがより多くのコンピューティングリソースを消費することを犠牲にしてより高い画質を達成するか、またはより少ないコンピューティングリソースで符号化プロセスを実行することを許容して低品質を達成するように調整され得る。さらに、より高品質の組の符号化パラメータはより大きなファイルサイズを有する符号化画像ファイルをもたらし、より低品質の組の符号化パラメータはより小さいファイルサイズを有する符号化画像ファイルをもたらし得る。一実施形態では、第2の組のレンダリングパラメータは、第1の組のレンダリングパラメータよりも低い画質および小さいファイルサイズをもたらす。
図5Bには示されていないが、ディスプレイシステム110はまた、第3の組の符号化パラメータに基づいて第3の画像領域を符号化し得る。一実施形態では、第3の画像領域は、傍中心窩によって見られる画像の一部に対応する傍中心窩領域であり得る(この場合、外側領域は、中心窩および傍中心窩の両方の外側の網膜の部分によって見られる画像の一部に対応し得る)。この実施形態では、第3の組のレンダリングパラメータは、中間レベルの画質(すなわち、第1の組の符号化パラメータよりも低い画質、および第2の組の符号化パラメータよりも高い画質)をもたらす。
要するに、画像を符号化するためのこのプロセスを実行するディスプレイシステム110は、中心窩領域にはより高品質の符号化パラメータを適用し、傍中心窩領域には中間品質の符号化パラメータを適用し、外側領域にはより低品質の符号化パラメータを適用することができる。上記のように、画像の質に対する眼の感度は、中心窩からの距離と共に減少する。従って、傍中心窩領域における中間品質および外側領域におけるより低い品質は、画像の全体的な画像品質に対するユーザの知覚に悪影響を与える可能性が低い。しかしながら、傍中心窩および外側領域における中間品質および低品質の符号化パラメータの使用により、より少ないコンピューティングリソースで符号化プロセスを実行することが可能となり、したがって、符号化プロセスをより短い時間で完了することができ、かつ/またはより少ない電力を消費することができる。さらに、傍中心窩および外側領域における中間品質および低品質の符号化パラメータの使用により、より小さいファイルサイズを有する符号化画像をもたらし、これは、画像をディスプレイデバイス105に送信するときに使用される帯域幅の量を有利に低減する。
図5Cは、一実施形態による、異なる組のパラメータを用いて画像の異なる部分をレンダリングおよび符号化するためのプロセスを示すブロック図である。ディスプレイシステム110は、第1の組のレンダリングパラメータに基づいて第1の画像領域をレンダリングし(522)、第2の組のレンダリングパラメータに基づいて第2の画像領域をレンダリングする(524)。画像をレンダリングした後、ディスプレイシステム110は、第1の組の符号化パラメータに基づいて第1の画像領域を符号化し(526)、第2の組の符号化パラメータに基づいて第2の画像領域を符号化する(528)。
一実施形態では、レンダリングステップ522、524に使用される画像領域は、符号化ステップ526、528に使用される画像領域と同じである。換言すれば、第1の組の符号化パラメータは、第1の組のレンダリングパラメータでレンダリングされた画像領域に適用され、第2の組の符号化パラメータは、第2の組のレンダリングパラメータでレンダリングされた画像領域に適用される。他の実施形態では、レンダリングステップ522、524に使用される画像領域は、符号化ステップ526、528に使用される画像領域とは異なる。例えば、レンダリングステップ522、524に使用される画像領域は円形であり、(図6Aおよび図6Bを参照して以下に説明される例に示されるように)符号化ステップ526、528に使用される画像領域は正方形である。
図6Aは、一実施形態による、異なる組の符号化パラメータを用いて画像の異なる領域を符号化し、次いで画像の画像領域を単一のフレームにパッキングするためのプロセスの一例を示す。ディスプレイシステム110は、中心窩領域602、傍中心窩領域604、および外側領域606に分割された画像601を符号化する。ディスプレイシステム110は、第1の組の符号化パラメータに基づいて中心窩領域602を符号化し、第2の組のレンダリングパラメータに基づいて傍中心窩領域604を符号化し、第3の組のレンダリングパラメータに基づいて外側領域を符号化する。図6Aに示される例では、3つの組の符号化パラメータは異なる解像度を指定する。特に、第1の組の符号化パラメータは第1の比較的高い解像度を指定し、第2の組の符号化パラメータはより低い解像度(例えば、第1の解像度の半分)を指定し、第3の組の符号化パラメータはさらに低い解像度(例えば、第1の解像度の4分の1)を指定する。
この符号化プロセスは、3つの符号化画像領域、すなわち符号化中心窩領域612、符号化傍中心窩領域614、および符号化外側領域616を生成する。ディスプレイシステム110は、符号化画像領域をまとめて1つのパッキングされた画像622にパッキングするパッキング処理を行い、パッキングされた画像622をディスプレイデバイス105に送信する。パッキングされた画像622を受信した後、ディスプレイデバイス105は、画像をスクリーン上に表示するために各符号化画像領域をアップスケーリングし合成することによって画像601をアンパッキングして再構成する。このようにして符号化画像領域をパッキングすることは、例えば、結果として生じるパッキングされた画像622が特定の解像度の画像よりもかなり少ない画素を含むので有利である。例えば、画像601が1920×1080画素の解像度を有する場合、パッキングされた画像622は、元の1920×1080の画像の200万画素に対して38万画素を含み、これは各画像を送信するために使用される帯域幅および時間を著しく減少させる。
図6Bは、一実施形態による一連の画像を符号化してパッキングする一例を示す。図6Bに示す例では、一連の画像は一連のフレームを構成し(例えば、ビデオまたはゲームアプリケーションにおいて)、各組の符号化パラメータは異なる周波数(即ち、異なるフレームレート)を指定する。より具体的には、中心窩領域652は、第1の周波数(例えば、120Hz)で符号化され送信され、傍中心窩領域654は、第1の周波数より低い第2の周波数(例えば、80Hz)で符号化され送信され、外側領域656は、第1および第2の周波数より低い第3の周波数(例えば、40Hz)で符号化され送信される。
各フレームについて、ディスプレイシステム110は画像領域を符号化してパッキングされたフレームにパッキングし、パッキングされたフレームは次にディスプレイデバイス105に送信される。フレームにすべての領域が含まれていない場合(例えば、フレームn+1 660B、フレームn+2 660C、およびフレームn+4 660E)、ディスプレイシステム110は、各画像領域に関して利用可能な最新のフレームを使用することによって次のフレームを生成する。いくつかの実施形態では、ミスアライメントを補正するために後処理技術が適用される。
図6Bは、フレームn 660Aからフレームn+4 660Eまでの5個のフレームのシーケンスを示す。フレームnは、中心窩領域652A、傍中心窩領域654A、および外側領域656Aを含む。フレームn+1 660Bでは、中心窩領域652Bおよび傍中心窩領域654Bは含まれているが、外側領域は含まれていないので、ディスプレイデバイス105に送信されるデータ量は減少する。フレームn+2は、新たに符号化された中心窩領域652Cを含んでいるが、傍中心窩領域および外側領域を含まないため、データ量はさらに減少する。次に、シーケンスはフレームn+3 660Dおよびフレームn+4 660Eで同じように繰り返される。そうすることで、ユーザの眼が最も敏感である画像領域(即ち、中心窩領域652)が符号化され、各連続するフレームと共に新たに送信される。ユーザの眼がそれほど敏感ではない画像領域(即ち、傍中心窩領域654)は、符号化され、3個のフレームのうちの2個のフレームごとに新たに送信される。そして、ユーザの眼の感度がさらに低い画像領域(即ち、外側領域)は、3個のフレームごとに1回符号化されて新たに送信される。これにより、伝達されるデータ量、ひいては各フレームの送信に必要な帯域幅と時間が大幅に削減される。
いくつかの実施形態において、ディスプレイシステム110は、所与のフレームについて符号化されずにディスプレイデバイス105に送信される領域をレンダリングしない。いくつかの実施形態では、ディスプレイシステム110は、シーン内のアクティビティに基づいてどの領域をレンダリングすべきかを決定する。例えば、オブジェクトが画像領域内で静止を維持している場合、その画像領域のレンダリング頻度は、動いているオブジェクトが存在するときよりも低くなり得る。
追加の構成情報
本開示の実施形態の上述の説明は、例示を目的として提示されており、これは網羅的であることを意図するか、または開示された正確な形態への開示を制限することを意図したものではない。当業者であれば、上記の開示を参照して多くの改良及び変形が可能であることを理解することができる。
この説明の一部は、開示の実施形態が情報に対する演算のアルゴリズムおよび記号表現によって記載されている。これらのアルゴリズムの説明や表現は、データ処理技術の当業者によって、作業の内容を他の当業者に効果的に伝達するために一般的に用いられている。これらの演算は、機能的、計算的、または論理的に説明されているが、コンピュータプログラムまたはこれと同等の電気回路、マイクロコードなどによって実施されることが理解される。さらに、これらの演算の配置をモジュールとして参照することは、一般性を失うことなく、時には便利であることも証明されている。説明されている演算およびそれらの関連するモジュールは、ソフトウェア、ファームウェア、ハードウェア、またはこれらの任意の組合せにより具現化され得る。
本明細書に記載されているステップ、演算又はプロセスのいずれかは、1つまたは複数のハードウェアモジュール又はソフトウェアモジュールで、単独又は他のデバイスと組み合わせて実行又は実施され得る。一実施形態では、ソフトウェアモジュールは、本明細書に記載されているステップ、演算、又はプロセスのいずれか又は全てを実行するためにコンピュータプロセッサによって実行可能なコンピュータプログラムコードを含むコンピュータ可読媒体を含むコンピュータプログラム製品を用いて実施される。
開示の実施形態は、本明細書における演算を実行するための装置にも関連し得る。この装置は、必要な目的のために特別に構成され得、かつ/またはコンピュータに格納されたコンピュータプログラムによって選択的に活性化または再構成される汎用コンピューティングデバイスを含み得る。そのようなコンピュータプログラムは、コンピュータシステムバスに結合され得る、非一時的な有形のコンピュータ可読記憶媒体、または電子命令を格納するのに好適な任意のタイプの媒体に格納され得る。さらに、本明細書中で言及される任意のコンピューティングシステムは、単一のプロセッサを含み得るか、またはコンピューティング能力を高めるために複数のプロセッサ設計を使用したアーキテクチャであり得る。
本開示の実施形態は、本明細書に記載されるコンピューティングプロセスによって生成される製品にも関連し得る。そのような製品は、コンピュータプロセスによって生成される情報を含み得、ここで、情報は、非一時的な有形のコンピュータ可読媒体上に格納され、コンピュータプログラム製品、または本明細書に記載されている他のデータの組み合せの任意の実施形態を含み得る。
最後に、本明細書で使用されている文言は、原則として読みやすさ及び教示の目的のために主に選択されており、本発明の主題を限定し、または制限するために選択されていない。したがって、本開示の範囲は、この詳細な説明によって制限されるものではなく、本明細書に基づいて出願に関して発行される任意の請求項によって限定されるものであることが意図される。従って、実施形態の開示は、以下の特許請求の範囲に記載されている本開示の範囲を限定するものではなく、例示することが意図されている。

Claims (30)

  1. 方法であって、
    ディスプレイデバイスのスクリーンを見ているユーザの眼の少なくとも1つの画像を含む視線追跡情報を受信するステップと、
    前記視線追跡情報に基づいて前記スクリーンの領域に対応する第1のスクリーン領域を決定するステップと、前記第1のスクリーン領域は、ユーザの注視点を含み、前記注視点は、前記視線追跡情報が捕捉された時点でユーザが見ている前記スクリーン上の点を表し、
    前記視線追跡情報に基づいて前記第1のスクリーン領域とは別の前記スクリーンの領域に対応する第2のスクリーン領域を決定するステップと、
    前記スクリーン上に表示するための画像を符号化するステップと、前記符号化は、
    第1の組の符号化パラメータに基づいて画像の第1の画像領域を符号化すること、前記第1の画像領域は、前記第1のスクリーン領域に表示され、
    第2の組の符号化パラメータに基づいて画像の第2の画像領域を復号化することを含み、前記第2の画像領域は、前記第2のスクリーン領域に表示され、前記第2の組の符号化パラメータは、前記第1の組の符号化パラメータよりも低い品質をもたらし、
    符号化された画像を前記スクリーンに表示されるように前記ディスプレイデバイスに送信するステップと
    を含む方法。
  2. 前記第1のスクリーン領域は、前記眼の中心窩によって見られる前記スクリーンの領域に対応する、請求項1に記載の方法。
  3. 前記第2のスクリーン領域は、中心窩の外側の前記眼の網膜の一部によって見られる前記スクリーンの領域に対応する、請求項1に記載の方法。
  4. 前記第1の組の符号化パラメータは第1の画像解像度を含み、前記第2の組の符号化パラメータは第2の画像解像度を含み、前記第2の画像解像度は前記第1の画像解像度よりも低い、請求項1に記載の方法。
  5. 前記第1の画像領域を符号化することは、第1の符号化画像領域を生成することを含み、前記第2の画像領域を符号化することは、第2の符号化画像領域を生成することを含み、方法はさらに、
    前記第1の符号化画像領域および前記第2の符号化画像領域を含むパッキングされた画像を生成するステップを含む、請求項4に記載の方法。
  6. 前記第1の組の符号化パラメータは第1のフレームレートを含み、前記第2の組の符号化パラメータは第2のフレームレートを含み、前記第2のフレームレートは前記第1のフレームレートよりも低い、請求項1に記載の方法。
  7. 前記視線追跡情報に基づいて前記第1のスクリーン領域および前記第2のスクリーン領域とは別の前記スクリーンの領域に対応する第3のスクリーン領域を決定するステップをさらに含み、
    前記スクリーン上に表示するための画像を符号化することは、
    第3の組の符号化パラメータに基づいて画像の第3の画像領域を符号化することをさらに含み、前記第3の画像領域は、前記第3のスクリーン領域に表示され、前記第3の組の符号化パラメータは、前記第1の組の符号化パラメータよりも低い品質をもたらし、前記第2の組の符号化パラメータよりも高い品質をもたらす、請求項1に記載の方法。
  8. 前記第3のスクリーン領域は、前記眼の傍中心窩によって見られる前記スクリーンの領域に対応する、請求項7に記載の方法。
  9. 前記ディスプレイデバイスはバーチャルリアリティヘッドセットである、請求項1に記載の方法。
  10. 命令を格納する非一時的コンピュータ可読記憶媒体であって、前記命令は、1つまたは複数のプロセッサによって実行されたときに、前記1つまたは複数のプロセッサに、
    ディスプレイデバイスのスクリーンを見ているユーザの眼の少なくとも1つの画像を含む視線追跡情報を受信すること、
    前記視線追跡情報に基づいて前記スクリーンの領域に対応する第1のスクリーン領域を決定すること、前記第1のスクリーン領域は、ユーザの注視点を含み、前記注視点は、前記視線追跡情報が捕捉された時点でユーザが見ている前記スクリーン上の点を表し、
    前記視線追跡情報に基づいて第1のスクリーン領域とは別の前記スクリーンの領域に対応する第2のスクリーン領域を決定すること、
    前記スクリーン上に表示するための画像を符号化すること、前記符号化は、
    第1の組の符号化パラメータに基づいて画像の第1の画像領域を符号化すること、前記第1の画像領域は、前記第1のスクリーン領域に表示され、
    第2の組の符号化パラメータに基づいて画像の第2の画像領域を復号化することを含み、前記第2の画像領域は、前記第2のスクリーン領域に表示され、前記第2の組の符号化パラメータは、第1の組の符号化パラメータよりも低い品質をもたらし、
    符号化された画像を前記スクリーンに表示されるように前記ディスプレイデバイスに送信することを含む処理を実行させる、コンピュータ可読記憶媒体。
  11. 前記第1のスクリーン領域は、前記眼の中心窩によって見られる前記スクリーンの領域に対応する、請求項10に記載のコンピュータ可読記憶媒体。
  12. 前記第2のスクリーン領域は、中心窩の外側の前記眼の網膜の一部によって見られる前記スクリーンの領域に対応する、請求項10に記載のコンピュータ可読記憶媒体。
  13. 前記第1の組の符号化パラメータは第1の画像解像度を含み、前記第2の組の符号化パラメータは第2の画像解像度を含み、前記第2の画像解像度は前記第1の画像解像度よりも低い、請求項10に記載のコンピュータ可読記憶媒体。
  14. 前記第1の画像領域を符号化することは、第1の符号化画像領域を生成することを含み、前記第2の画像領域を符号化することは、第2の符号化画像領域を生成することを含み、
    前記第1の符号化画像領域および前記第2の符号化画像領域を含むパッキングされた画像を生成することをさらに含む、請求項10に記載のコンピュータ可読記憶媒体。
  15. 前記第1の組の符号化パラメータは第1のフレームレートを含み、前記第2の組の符号化パラメータは第2のフレームレートを含み、前記第2のフレームレートは前記第1のフレームレートよりも低い、請求項10に記載のコンピュータ可読記憶媒体。
  16. 前記処理は、
    前記視線追跡情報に基づいて前記第1のスクリーン領域および前記第2のスクリーン領域とは別のスクリーンの領域に対応する第3のスクリーン領域を決定することをさらに含み、
    前記スクリーン上に表示するために画像を符号化することは、
    第3の組の符号化パラメータに基づいて画像の第3の画像領域を符号化することをさらに含み、前記第3の組の符号化パラメータは、前記第1の組の符号化パラメータよりも低い品質をもたらし、前記第2の組の符号化パラメータよりも高い品質をもたらす、請求項10に記載のコンピュータ可読記憶媒体。
  17. 前記第3のスクリーン領域は、前記眼の傍中心窩によって見られる前記スクリーンの領域に対応する、請求項16に記載のコンピュータ可読記憶媒体。
  18. 前記ディスプレイデバイスはバーチャルリアリティヘッドセットである、請求項10に記載のコンピュータ可読記憶媒体。
  19. システムであって、
    1つまたは複数のプロセッサと、
    命令を格納する非一時的コンピュータ可読記憶媒体であって、前記命令は、1つまたは複数のプロセッサによって実行されたときに、前記1つまたは複数のプロセッサに、
    ディスプレイデバイスのスクリーンを見ているユーザの眼の少なくとも1つの画像を含む視線追跡情報を受信すること、
    前記視線追跡情報に基づいて前記スクリーンの領域に対応する第1のスクリーン領域を決定すること、前記第1のスクリーン領域は、ユーザの注視点を含み、前記注視点は、前記視線追跡情報が捕捉された時点でユーザが見ている前記スクリーン上の点を表し、
    前記視線追跡情報に基づいて第1のスクリーン領域とは別の前記スクリーンの領域に対応する第2のスクリーン領域を決定すること、
    前記スクリーン上に表示するための画像を符号化すること、前記符号化は、
    第1の組の符号化パラメータに基づいて画像の第1の画像領域を符号化すること、前記第1の画像領域は、前記第1のスクリーン領域に表示され、
    第2の組の符号化パラメータに基づいて画像の第2の画像領域を復号化することを含み、前記第2の画像領域は、前記第2のスクリーン領域に表示され、前記第2の組の符号化パラメータは、第1の組の符号化パラメータよりも低い品質をもたらし、
    符号化された画像を前記スクリーンに表示されるように前記ディスプレイデバイスに送信することを含む処理を実行させる、前記非一時的コンピュータ可読記憶媒体と
    を備えるシステム。
  20. 前記処理は、
    前記視線追跡情報に基づいて前記第1のスクリーン領域および前記第2のスクリーン領域とは別のスクリーンの領域に対応する第3のスクリーン領域を決定することをさらに含み、
    前記スクリーン上の表示するために画像を符号化することは、
    第3の組の符号化パラメータに基づいて画像の第3の画像領域を符号化することをさらに含み、前記第3の画像領域は、前記第3のスクリーン領域に表示され、前記第3の組の符号化パラメータは前記第1の組の符号化パラメータよりも低い品質をもたらし、前記第2の組の符号化パラメータよりも高い品質をもたらす、請求項19に記載のシステム。
  21. 方法であって、
    ディスプレイデバイスのスクリーンを見ているユーザの眼の少なくとも1つの画像を含む視線追跡情報を受信するステップと、
    前記視線追跡情報に基づいて前記スクリーンの領域に対応する第1のスクリーン領域を決定するステップと、前記第1のスクリーン領域は、ユーザの注視点を含み、前記注視点は、前記視線追跡情報が捕捉された時点でユーザが見ている前記スクリーン上の点を表し、
    前記視線追跡情報に基づいて前記第1のスクリーン領域とは別の前記スクリーンの領域に対応する第2のスクリーン領域を決定するステップと、
    前記スクリーン上に表示するための画像を符号化するステップと、前記符号化は、
    第1の組の符号化パラメータに基づいて画像の第1の画像領域を符号化すること、前記第1の画像領域は、前記第1のスクリーン領域に表示され、
    第2の組の符号化パラメータに基づいて画像の第2の画像領域を復号化することを含み、前記第2の画像領域は、前記第2のスクリーン領域に表示され、前記第2の組の符号化パラメータは、前記第1の組の符号化パラメータよりも低い品質をもたらし、
    符号化された画像を前記スクリーンに表示されるように前記ディスプレイデバイスに送信するステップと
    を含む方法。
  22. 前記第1のスクリーン領域は、前記眼の中心窩によって見られる前記スクリーンの領域に対応する、請求項21に記載の方法。
  23. 前記第2のスクリーン領域は、中心窩の外側の前記眼の網膜の一部によって見られる前記スクリーンの領域に対応する、請求項21または22に記載の方法。
  24. 前記第1の組の符号化パラメータは第1の画像解像度を含み、前記第2の組の符号化パラメータは第2の画像解像度を含み、前記第2の画像解像度は前記第1の画像解像度よりも低い、請求項21乃至23のいずれか1項に記載の方法。
  25. 前記第1の画像領域を符号化することは、第1の符号化画像領域を生成することを含み、前記第2の画像領域を符号化することは、第2の符号化画像領域を生成することを含み、方法はさらに、
    前記第1の符号化画像領域および前記第2の符号化画像領域を含むパッキングされた画像を生成するステップを含む、請求項24に記載の方法。
  26. 前記第1の組の符号化パラメータは第1のフレームレートを含み、前記第2の組の符号化パラメータは第2のフレームレートを含み、前記第2のフレームレートは前記第1のフレームレートより低い、請求項21乃至25のいずれか1項に記載の方法。
  27. 前記視線追跡情報に基づいて前記第1のスクリーン領域および前記第2のスクリーン領域とは別の前記スクリーンの領域に対応する第3のスクリーン領域を決定するステップをさらに含み、
    前記スクリーン上に表示するための画像を符号化することは、
    第3の組の符号化パラメータに基づいて画像の第3の画像領域を符号化することを含み、前記第3の画像領域は、前記第3のスクリーン領域に表示されるべきであり、前記第3の組の符号化パラメータは前記第1の組の符号化パラメータよりも低い品質をもたらし、前記第2の組の符号化パラメータよりも高い品質をもたらし、
    前記第3のスクリーン領域は、任意選択的に前記眼の傍中心窩によって見られる前記スクリーンの領域に対応する、請求項21乃至26のいずれか1項に記載の方法。
  28. 前記ディスプレイデバイスはバーチャルリアリティヘッドセットである、請求項21乃至27のいずれか1項に記載の方法。
  29. 命令を格納する非一時的コンピュータ可読記憶媒体であって、前記命令は、1つまたは複数のプロセッサによって実行されたときに、前記1つまたは複数のプロセッサに、請求項21乃至28のいずれか1項に記載の方法のすべてのステップを含む方法を実行する処理を実行させる、コンピュータ可読記憶媒体。
  30. システムであって、
    1つまたは複数のプロセッサと、
    前記1つまたは複数のプロセッサによって実行されると、前記1つまたは複数のプロセッサに請求項21乃至28のいずれか1項に記載の方法のすべてのステップを含む方法を実行させる命令を格納する非一時的コンピュータ可読記憶媒体と
    を備えるシステム。
JP2019505144A 2016-08-01 2017-07-31 視線追跡情報に基づく画像領域内の適応パラメータ Active JP6886510B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021082166A JP7177213B2 (ja) 2016-08-01 2021-05-14 視線追跡情報に基づく画像領域内の適応パラメータ

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201662369336P 2016-08-01 2016-08-01
US62/369,336 2016-08-01
US15/662,582 US10373592B2 (en) 2016-08-01 2017-07-28 Adaptive parameters in image regions based on eye tracking information
US15/662,582 2017-07-28
PCT/US2017/044749 WO2018026730A1 (en) 2016-08-01 2017-07-31 Adaptive parameters in image regions based on eye tracking information

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021082166A Division JP7177213B2 (ja) 2016-08-01 2021-05-14 視線追跡情報に基づく画像領域内の適応パラメータ

Publications (2)

Publication Number Publication Date
JP2019533325A true JP2019533325A (ja) 2019-11-14
JP6886510B2 JP6886510B2 (ja) 2021-06-16

Family

ID=61010531

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019505144A Active JP6886510B2 (ja) 2016-08-01 2017-07-31 視線追跡情報に基づく画像領域内の適応パラメータ
JP2021082166A Active JP7177213B2 (ja) 2016-08-01 2021-05-14 視線追跡情報に基づく画像領域内の適応パラメータ

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021082166A Active JP7177213B2 (ja) 2016-08-01 2021-05-14 視線追跡情報に基づく画像領域内の適応パラメータ

Country Status (6)

Country Link
US (2) US10373592B2 (ja)
EP (2) EP3345125A4 (ja)
JP (2) JP6886510B2 (ja)
KR (2) KR102403304B1 (ja)
CN (1) CN109791605B (ja)
WO (1) WO2018026730A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021241073A1 (ja) * 2020-05-27 2021-12-02 ソニーグループ株式会社 表示装置及び表示方法

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11284109B2 (en) * 2016-01-29 2022-03-22 Cable Television Laboratories, Inc. Visual coding for sensitivities to light, color and spatial resolution in human visual system
CN108780223B (zh) * 2016-03-11 2019-12-20 脸谱科技有限责任公司 用于生成眼睛模型的角膜球跟踪
US10115205B2 (en) * 2016-03-11 2018-10-30 Facebook Technologies, Llc Eye tracking system with single point calibration
US10373592B2 (en) * 2016-08-01 2019-08-06 Facebook Technologies, Llc Adaptive parameters in image regions based on eye tracking information
KR20180025524A (ko) * 2016-08-31 2018-03-09 엘지디스플레이 주식회사 개인 몰입형 표시장치 및 이의 구동방법
US10517520B2 (en) * 2016-11-10 2019-12-31 Neurotrack Technologies, Inc. Method and system for correlating an image capturing device to a human user for analysis of cognitive performance
CN107168668A (zh) * 2017-04-28 2017-09-15 北京七鑫易维信息技术有限公司 图像数据传输方法、装置以及存储介质、处理器
TWI646466B (zh) * 2017-08-09 2019-01-01 宏碁股份有限公司 視覺範圍映射方法及相關眼球追蹤裝置與系統
US10946745B2 (en) * 2017-08-30 2021-03-16 Texas Instruments Incorporated GPU-less instrument cluster system with full asset sweep
EP3468187A1 (en) * 2017-10-03 2019-04-10 Axis AB Method and system for encoding video streams
GB2568261B (en) 2017-11-08 2022-01-26 Displaylink Uk Ltd System and method for presenting data at variable quality
US10627899B2 (en) * 2018-02-09 2020-04-21 Microsoft Technology Licensing, Llc Eye tracking system for use in a visible light display device
US10551914B2 (en) * 2018-02-09 2020-02-04 Microsoft Technology Licensing, Llc Efficient MEMs-based eye tracking system with a silicon photomultiplier sensor
US10694170B2 (en) * 2018-03-05 2020-06-23 Valve Corporation Controlling image display via real-time compression in peripheral image regions
US11194389B2 (en) 2018-06-21 2021-12-07 Qualcomm Incorporated Foveated rendering of graphics content using a rendering command and subsequently received eye position data
CN108833976B (zh) * 2018-06-27 2020-01-24 深圳看到科技有限公司 一种全景视频动态切流后的画面质量评估方法及装置
ES2938535T3 (es) * 2018-07-20 2023-04-12 Tobii Ab Representación foveada distribuida basada en la mirada del usuario
CN109242943B (zh) 2018-08-21 2023-03-21 腾讯科技(深圳)有限公司 一种图像渲染方法、装置及图像处理设备、存储介质
GB2567553B (en) * 2018-09-06 2021-04-07 Sony Interactive Entertainment Inc Foveated rendering system and method
JP7256491B2 (ja) * 2018-09-13 2023-04-12 凸版印刷株式会社 映像伝送システム、映像伝送装置、および、映像伝送プログラム
US10915776B2 (en) 2018-10-05 2021-02-09 Facebook, Inc. Modifying capture of video data by an image capture device based on identifying an object of interest within capturted video data to the image capture device
CN109377503A (zh) * 2018-10-19 2019-02-22 珠海金山网络游戏科技有限公司 图像更新方法和装置、计算设备及存储介质
US11513593B2 (en) * 2018-11-29 2022-11-29 Blink Technologies Inc. Systems and methods for anatomy-constrained gaze estimation
GB2583061B (en) * 2019-02-12 2023-03-15 Advanced Risc Mach Ltd Data processing systems
US10554940B1 (en) 2019-03-29 2020-02-04 Razmik Ghazaryan Method and apparatus for a variable-resolution screen
US11284053B2 (en) 2019-03-29 2022-03-22 Razmik Ghazaryan Head-mounted display and projection screen
US10466489B1 (en) 2019-03-29 2019-11-05 Razmik Ghazaryan Methods and apparatus for a variable-resolution screen
CN110602475B (zh) * 2019-05-29 2021-06-01 珠海全志科技股份有限公司 提高图像质量的方法及装置、vr显示设备及控制方法
US10976816B2 (en) 2019-06-25 2021-04-13 Microsoft Technology Licensing, Llc Using eye tracking to hide virtual reality scene changes in plain sight
CN110267025B (zh) * 2019-07-03 2021-04-13 京东方科技集团股份有限公司 虚拟3d显示的渲染方法、装置以及其显示方法、系统
CN110347265A (zh) * 2019-07-22 2019-10-18 北京七鑫易维科技有限公司 渲染图像的方法及装置
BR112022001434A2 (pt) * 2019-07-28 2022-06-07 Google Llc Métodos, sistemas e mídia para renderizar conteúdo de vídeo imersivo com malhas otimizadas
US11100899B2 (en) * 2019-08-13 2021-08-24 Facebook Technologies, Llc Systems and methods for foveated rendering
US11106039B2 (en) * 2019-08-26 2021-08-31 Ati Technologies Ulc Single-stream foveal display transport
ES2809648A1 (es) * 2019-09-04 2021-03-04 Alias Antonio Jose Casado Sistema y procedimiento de optimizacion del renderizado de imagenes a partir del seguimiento de las pupilas
US20220345721A1 (en) * 2019-09-30 2022-10-27 Sony Interactive Entertainment Inc. Image data transfer apparatus, image display system, and image compression method
JP2021057770A (ja) * 2019-09-30 2021-04-08 株式会社ソニー・インタラクティブエンタテインメント 画像データ転送装置および画像圧縮方法
JP7491676B2 (ja) * 2019-09-30 2024-05-28 株式会社ソニー・インタラクティブエンタテインメント 画像データ転送装置および画像圧縮方法
US20210134250A1 (en) * 2019-11-05 2021-05-06 Htc Corporation Display system
US11614797B2 (en) * 2019-11-05 2023-03-28 Micron Technology, Inc. Rendering enhancement based in part on eye tracking
TWI827874B (zh) * 2019-11-05 2024-01-01 宏達國際電子股份有限公司 顯示系統
WO2021122902A1 (en) * 2019-12-17 2021-06-24 Tobii Ab Method and system for applying adapted colour rendering on a display
CN111142827B (zh) * 2019-12-31 2021-04-13 镁佳(北京)科技有限公司 应用显示方法及装置,存储介质及电子设备
WO2021194268A1 (en) * 2020-03-27 2021-09-30 Samsung Electronics Co., Ltd. Image display apparatus and method for managing data packet loss
CN111553972B (zh) * 2020-04-27 2023-06-30 北京百度网讯科技有限公司 用于渲染增强现实数据的方法、装置、设备及存储介质
CN113810696A (zh) * 2020-06-12 2021-12-17 华为技术有限公司 一种信息传输方法、相关设备及系统
KR102384411B1 (ko) * 2020-07-29 2022-04-06 한국항공대학교산학협력단 Vr 영상 제공 시스템 및 방법
US11297332B1 (en) 2020-10-30 2022-04-05 Capital One Services, Llc Gaze-tracking-based image downscaling for multi-party video communication
CN113177434A (zh) * 2021-03-30 2021-07-27 青岛小鸟看看科技有限公司 基于单眼球追踪的虚拟现实系统注视渲染方法、系统
US11863786B2 (en) * 2021-05-21 2024-01-02 Varjo Technologies Oy Method of transporting a framebuffer
CN115933952B (zh) * 2021-08-28 2023-11-24 荣耀终端有限公司 一种触控采样率调节方法及相关装置
CN115236871A (zh) * 2022-05-17 2022-10-25 北京邮电大学 基于人眼跟踪和双向背光的桌面式光场显示系统及方法
US20240007771A1 (en) * 2022-07-01 2024-01-04 Meta Platforms Technologies, Llc Readout methods for foveated sensing

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH099253A (ja) * 1995-06-19 1997-01-10 Toshiba Corp 画像圧縮通信装置
JP2004056335A (ja) * 2002-07-18 2004-02-19 Sony Corp 情報処理装置および方法、表示装置および方法、並びにプログラム
JP2009118072A (ja) * 2007-11-05 2009-05-28 Ihi Corp 遠隔操作装置及び遠隔操作方法
JP2014508311A (ja) * 2010-12-08 2014-04-03 株式会社ソニー・コンピュータエンタテインメント 視線追跡を用いた適応的ディスプレー
US20140184475A1 (en) * 2012-12-27 2014-07-03 Andras Tantos Display update time reduction for a near-eye display
US20140219572A1 (en) * 2013-02-04 2014-08-07 Sony Mobile Communications Ab Enhanced video encoding using depth information
US20150264299A1 (en) * 2014-03-14 2015-09-17 Comcast Cable Communications, Llc Adaptive resolution in software applications based on dynamic eye tracking
JP2016527791A (ja) * 2013-08-19 2016-09-08 華為技術有限公司Huawei Technologies Co.,Ltd. 画像処理方法及び装置

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08313843A (ja) * 1995-05-16 1996-11-29 Agency Of Ind Science & Technol 視線追従方式による広視野高解像度映像提示装置
US6697506B1 (en) * 1999-03-17 2004-02-24 Siemens Corporate Research, Inc. Mark-free computer-assisted diagnosis method and system for assisting diagnosis of abnormalities in digital medical images using diagnosis based image enhancement
AU1765800A (en) 1999-12-30 2001-07-16 Swisscom Mobile Ag Image data transmission method
US20030067476A1 (en) 2001-10-04 2003-04-10 Eastman Kodak Company Method and system for displaying an image
US8020993B1 (en) * 2006-01-30 2011-09-20 Fram Evan K Viewing verification systems
JP2009009253A (ja) 2007-06-27 2009-01-15 Renesas Technology Corp プログラム実行方法、プログラム、およびプログラム実行システム
EP2309307B1 (en) * 2009-10-08 2020-12-09 Tobii Technology AB Eye tracking using a GPU
KR20110136040A (ko) * 2010-06-14 2011-12-21 주식회사 비즈모델라인 사용자 시선 기반 증강현실 기능이 구비된 단말
US8902970B1 (en) 2010-12-01 2014-12-02 Amazon Technologies, Inc. Altering streaming video encoding based on user attention
JP2012124784A (ja) 2010-12-09 2012-06-28 Canon Marketing Japan Inc 動画再生システム
US9690099B2 (en) * 2010-12-17 2017-06-27 Microsoft Technology Licensing, Llc Optimized focal area for augmented reality displays
US8885882B1 (en) 2011-07-14 2014-11-11 The Research Foundation For The State University Of New York Real time eye tracking for human computer interaction
CA2847975A1 (en) * 2011-09-07 2013-03-14 Tandemlaunch Technologies Inc. System and method for using eye gaze information to enhance interactions
KR20190097306A (ko) 2012-01-19 2019-08-20 브이아이디 스케일, 인크. 시청 조건에 대한 적응을 지원하는 비디오 전송 방법 및 시스템
KR102001950B1 (ko) * 2012-07-26 2019-07-29 엘지이노텍 주식회사 시선 추적 장치 및 이의 시선 추적 방법
US9244529B2 (en) * 2013-01-27 2016-01-26 Dmitri Model Point-of-gaze estimation robust to head rotations and/or device rotations
US9727991B2 (en) 2013-03-01 2017-08-08 Microsoft Technology Licensing, Llc Foveated image rendering
KR102318391B1 (ko) * 2013-03-15 2021-10-26 매직 립, 인코포레이티드 디스플레이 시스템 및 방법
CN105814584B (zh) * 2013-12-09 2019-03-08 Smi创新传感技术有限公司 用于操作眼睛跟踪设备的方法和用于提供主动功率管理的眼睛跟踪设备
JP6608137B2 (ja) * 2014-01-03 2019-11-20 ハーマン インターナショナル インダストリーズ インコーポレイテッド ディスプレイ上の両眼転導検出
US10423222B2 (en) 2014-09-26 2019-09-24 Digilens Inc. Holographic waveguide optical tracker
US9791924B2 (en) 2014-12-23 2017-10-17 Mediatek Inc. Eye tracking with mobile device in a head-mounted display
US10210844B2 (en) * 2015-06-29 2019-02-19 Microsoft Technology Licensing, Llc Holographic near-eye display
US10475370B2 (en) * 2016-02-17 2019-11-12 Google Llc Foveally-rendered display
US10218968B2 (en) 2016-03-05 2019-02-26 Maximilian Ralph Peter von und zu Liechtenstein Gaze-contingent display technique
US10460704B2 (en) * 2016-04-01 2019-10-29 Movidius Limited Systems and methods for head-mounted display adapted to human visual mechanism
US10373592B2 (en) * 2016-08-01 2019-08-06 Facebook Technologies, Llc Adaptive parameters in image regions based on eye tracking information

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH099253A (ja) * 1995-06-19 1997-01-10 Toshiba Corp 画像圧縮通信装置
JP2004056335A (ja) * 2002-07-18 2004-02-19 Sony Corp 情報処理装置および方法、表示装置および方法、並びにプログラム
JP2009118072A (ja) * 2007-11-05 2009-05-28 Ihi Corp 遠隔操作装置及び遠隔操作方法
JP2014508311A (ja) * 2010-12-08 2014-04-03 株式会社ソニー・コンピュータエンタテインメント 視線追跡を用いた適応的ディスプレー
US20140184475A1 (en) * 2012-12-27 2014-07-03 Andras Tantos Display update time reduction for a near-eye display
JP2016510525A (ja) * 2012-12-27 2016-04-07 マイクロソフト テクノロジー ライセンシング,エルエルシー ニアアイ・ディスプレイのディスプレイ更新時間の低減
US20140219572A1 (en) * 2013-02-04 2014-08-07 Sony Mobile Communications Ab Enhanced video encoding using depth information
JP2016527791A (ja) * 2013-08-19 2016-09-08 華為技術有限公司Huawei Technologies Co.,Ltd. 画像処理方法及び装置
US20150264299A1 (en) * 2014-03-14 2015-09-17 Comcast Cable Communications, Llc Adaptive resolution in software applications based on dynamic eye tracking

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SHEIKH, HAMID R. ET AL.: "Real-time foveation techniques for H.263 video encoding in software", 2001 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH, AND SIGNAL PROCESSING. PROCEEDINGS (CAT. NO, JPN6020035658, 7 August 2002 (2002-08-07), pages 1781 - 1784, ISSN: 0004350360 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021241073A1 (ja) * 2020-05-27 2021-12-02 ソニーグループ株式会社 表示装置及び表示方法
US11940630B2 (en) 2020-05-27 2024-03-26 Sony Group Corporation Display apparatus and display method

Also Published As

Publication number Publication date
JP2021144227A (ja) 2021-09-24
KR102543341B1 (ko) 2023-06-16
KR20190026030A (ko) 2019-03-12
JP6886510B2 (ja) 2021-06-16
CN109791605A (zh) 2019-05-21
US10984756B2 (en) 2021-04-20
EP4180920A1 (en) 2023-05-17
US20190318708A1 (en) 2019-10-17
WO2018026730A1 (en) 2018-02-08
KR20220080000A (ko) 2022-06-14
KR102403304B1 (ko) 2022-06-02
US10373592B2 (en) 2019-08-06
JP7177213B2 (ja) 2022-11-22
EP3345125A1 (en) 2018-07-11
EP3345125A4 (en) 2019-05-01
CN109791605B (zh) 2023-05-23
US20180033405A1 (en) 2018-02-01

Similar Documents

Publication Publication Date Title
JP7177213B2 (ja) 視線追跡情報に基づく画像領域内の適応パラメータ
US10504207B1 (en) Rendering composite content on a head-mounted display including a high resolution inset
US11604509B1 (en) Event camera for eye tracking
US10848745B2 (en) Head-mounted display tracking system
US11016301B1 (en) Accommodation based optical correction
US10140695B2 (en) Head-mounted compound display including a high resolution inset
US9984507B2 (en) Eye tracking for mitigating vergence and accommodation conflicts
US10154254B2 (en) Time-of-flight depth sensing for eye tracking
US10636193B1 (en) Generating graphical representation of a user's face and body using a monitoring system included on a head mounted display
US10417784B1 (en) Boundary region glint tracking
US20180173303A1 (en) Eye tracking using a light field camera on a head-mounted display
US10795436B2 (en) Determining fixation of a user's eyes from images of portions of the user's face enclosed by a head mounted display
US10495882B1 (en) Positioning cameras in a head mounted display to capture images of portions of a face of a user
US10848753B1 (en) Eye-tracking system using a scanning laser assembly
EP4318379A1 (en) Sparse color reconstruction using deep neural networks

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190517

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190813

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200820

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200923

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210420

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210514

R150 Certificate of patent or registration of utility model

Ref document number: 6886510

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250