JP7177213B2 - 視線追跡情報に基づく画像領域内の適応パラメータ - Google Patents

視線追跡情報に基づく画像領域内の適応パラメータ Download PDF

Info

Publication number
JP7177213B2
JP7177213B2 JP2021082166A JP2021082166A JP7177213B2 JP 7177213 B2 JP7177213 B2 JP 7177213B2 JP 2021082166 A JP2021082166 A JP 2021082166A JP 2021082166 A JP2021082166 A JP 2021082166A JP 7177213 B2 JP7177213 B2 JP 7177213B2
Authority
JP
Japan
Prior art keywords
screen
image
eye
region
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021082166A
Other languages
English (en)
Other versions
JP2021144227A (ja
Inventor
ヘンリク タール、マルティン
サン アグスティン ロペス、ハビエル
ダール、ラスムス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meta Platforms Technologies LLC
Original Assignee
Meta Platforms Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Meta Platforms Technologies LLC filed Critical Meta Platforms Technologies LLC
Publication of JP2021144227A publication Critical patent/JP2021144227A/ja
Application granted granted Critical
Publication of JP7177213B2 publication Critical patent/JP7177213B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/39Control of the bit-mapped memory
    • G09G5/391Resolution modifying circuits, e.g. variable screen formats
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/162User input
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0693Calibration of display systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Optics & Photonics (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、一般に視線追跡に関し、より詳細には視線追跡情報に基づく画像領域内の適
応パラメータの使用に関する。
画像はレンダリングされ、符号化され、そして様々な個々のコンテキストでユーザに表
示される。特に、画像が1080pや4Kなどの比較的高い解像度を有する場合、または
画像がゲームアプリケーションによって生成されたビデオファイルまたはシーンなどのビ
デオを構成する一連のフレームの一部である場合は、多くの場合、ユーザへの表示用の画
像をレンダリングし、符号化し、および送信するプロセスは、大量のコンピューティング
リソースを消費する可能性がある。これは、より大きな電力消費およびより長い処理時間
などの望ましくない副作用をもたらし得る。
ディスプレイシステムは、異なる組のパラメータを画像の異なる領域に適用する。シス
テムは、ディスプレイスクリーンのスクリーンを見ているユーザの片眼または両眼の視線
追跡情報を受け取る。システムは、視線追跡情報に基づいて、第1のスクリーン領域と第
2のスクリーン領域とを決定する。一実施形態では、第1のスクリーン領域は、ユーザの
眼の中心窩から見たスクリーン一部であり、第2のスクリーン領域は、中心窩の外側の網
膜の部分から見たスクリーンの一部である。システムは、第1の組のパラメータを第1の
画像領域に適用し、第2の組のパラメータをスクリーンの第2の画像領域に適用すること
によって、スクリーンに表示するための画像を処理する。第1の画像領域は、第1のスク
リーン領域に表示される画像の一部であり、第2の画像領域は、第2の画像領域に表示さ
れる画像の一部である。第2の組のパラメータは第1の組のパラメータよりも低い画質を
生じさせるが、中心窩の外側の網膜の部分は中心窩よりも感度が低いため、ユーザは低い
画質を知覚する可能性は低い。その結果、より少ないコンピューティング能力とより小さ
い帯域幅で画像を処理することができる。
ディスプレイシステムは、ヘッドマウントディスプレイ(HMD)の一部とすることが
できる。HMDは、仮想現実(VR)システム、拡張現実(AR)システム、複合現実(
MR)システム、またはそれらの組み合わせの一部であり得る。
本発明による実施形態は、特に、システム、記憶媒体、および方法を対象とする添付の
特許請求の範囲に開示されており、1つの請求項のカテゴリー、例えばシステムで言及さ
れる任意の特徴は別の特許請求の範囲の請求項のカテゴリー、例えば、方法、記憶媒体、
またはコンピュータプログラムで請求することができる。添付の特許請求の範囲に記載さ
れている従属関係または参照は、形式的な理由からのみ選択されている。しかしながら、
添付の特許請求の範囲で選択された従属関係にかかわらず、請求項およびその特徴の任意
の組み合わせが、開示され、かつ請求することができるように、任意の前の請求項(特に
、多数項従属)への意図的な参照から生じる任意の主題も請求することができる。特許請
求することができる主題は、添付の特許請求の範囲に記載の特徴の組み合わせのみならず
、特許請求の範囲における他のあらゆる特徴の組み合わせも含み、特許請求の範囲に記載
の各特徴は他のあらゆる特徴または特許請求の範囲における他の特徴の組み合わせと組み
合わせることができる。さらに、本明細書に記載または描写されている実施形態および特
徴のいずれかは、別々の請求項において、および/または本明細書に記載もしくは描写さ
れている任意の実施形態もしくは特徴と、または添付の請求項の特徴のいずれかとの任意
の組み合わせで請求することができる。
一実施形態において、方法は、
ディスプレイデバイスのスクリーンを見ているユーザの眼の少なくとも1つの画像を含む
視線追跡情報を受信するステップと、
視線追跡情報に基づいてスクリーンの領域に対応する第1のスクリーン領域を決定するス
テップと、第1のスクリーン領域は、ユーザの注視点を含み、注視点は、視線追跡情報が
捕捉された時点でユーザが見ているスクリーン上の点を表し、
視線追跡情報に基づいて第1のスクリーン領域とは別のスクリーンの領域に対応する第2
のスクリーン領域を決定するステップと、
スクリーン上に表示するための画像を符号化するステップと、符号化は、
第1の組の符号化パラメータに基づいて画像の第1の画像領域を符号化すること、第1の
画像領域は、第1のスクリーン領域に表示され、
第2の組の符号化パラメータに基づいて画像の第2の画像領域を復号化することを含み、
第2の画像領域は、第2のスクリーン領域に表示され、第2の組の符号化パラメータは、
第1の組の符号化パラメータよりも低い品質をもたらし、
符号化された画像をスクリーンに表示されるようにディスプレイデバイスに送信するステ
ップとを含み得る。
一実施形態において、第1のスクリーン領域は、眼の中心窩によって見られるスクリー
ンの領域に対応し得る。
第2のスクリーン領域は、中心窩の外側の眼の網膜の一部によって見られるスクリーン
の領域に対応し得る。
第1の組の符号化パラメータは第1の画像解像度を含み得、第2の組の符号化パラメー
タは第2の画像解像度を含み得、第2の画像解像度は第1の画像解像度よりも低い。
第1の画像領域を符号化することは、第1の符号化画像領域を生成することを含み得、
第2の画像領域を符号化することは、第2の符号化画像領域を生成することを含み得、方
法はさらに、
第1の符号化画像領域および第2の符号化画像領域を含むパッキングされた画像を生成す
るステップを含み得る。
第1の組の符号化パラメータは第1のフレームレートを含み得、第2の組の符号化パラ
メータは第2のフレームレートを含み得、第2のフレームレートは第1のフレームレート
よりも低くてもよい。
方法は、視線追跡情報に基づいて第1のスクリーン領域および第2のスクリーン領域と
は別のスクリーンの領域に対応する第3のスクリーン領域を決定するステップをさらに含
み得、
スクリーン上に表示するための画像を符号化することは、
第3の組の符号化パラメータに基づいて画像の第3の画像領域を符号化することをさらに
含み、第3の画像領域は、第3のスクリーン領域に表示され、第3の組の符号化パラメー
タは、第1の組の符号化パラメータよりも低い品質をもたらし、第2の組の符号化パラメ
ータよりも高い品質をもたらす。
第3のスクリーン領域は、眼の傍中心窩によって見られるスクリーンの領域に対応し得
る。
ディスプレイデバイスはバーチャルリアリティヘッドセットであり得る。
本発明の一実施形態において、非一時的コンピュータ可読記憶媒体は、命令を格納し得
、命令は、1つまたは複数のプロセッサによって実行されたときに、1つまたは複数のプ
ロセッサに、
ディスプレイデバイスのスクリーンを見ているユーザの眼の少なくとも1つの画像を含む
視線追跡情報を受信すること、
視線追跡情報に基づいてスクリーンの領域に対応する第1のスクリーン領域を決定するこ
と、第1のスクリーン領域は、ユーザの注視点を含み、注視点は、視線追跡情報が捕捉さ
れた時点でユーザが見ているスクリーン上の点を表し、
視線追跡情報に基づいて第1のスクリーン領域とは別のスクリーンの領域に対応する第2
のスクリーン領域を決定すること、
スクリーン上に表示するための画像を符号化すること、符号化は、
第1の組の符号化パラメータに基づいて画像の第1の画像領域を符号化すること、第1の
画像領域は、第1のスクリーン領域に表示され、
第2の組の符号化パラメータに基づいて画像の第2の画像領域を復号化すること、第2の
画像領域は、第2のスクリーン領域に表示され、第2の組の符号化パラメータは、第1の
組の符号化パラメータよりも低い品質をもたらし、
符号化された画像をスクリーンに表示されるようにディスプレイデバイスに送信すること
を含む処理を実行させ得る。
第1のスクリーン領域は、眼の中心窩によって見られるスクリーンの領域に対応し得る

第2のスクリーン領域は、中心窩の外側の眼の網膜の一部によって見られるスクリーン
の領域に対応し得る。
第1の組の符号化パラメータは第1の画像解像度を含み得、第2の組の符号化パラメー
タは第2の画像解像度を含み得、第2の画像解像度は第1の画像解像度よりも低い。
第1の画像領域を符号化することは、第1の符号化画像領域を生成することを含み得、
第2の画像領域を符号化することは、第2の符号化画像領域を生成することを含み得、
第1の符号化画像領域および第2の符号化画像領域を含むパッキングされた画像を生成す
ることをさらに含み得る。
第1の組の符号化パラメータは第1のフレームレートを含み得、第2の組の符号化パラ
メータは第2のフレームレートを含み得、第2のフレームレートは第1のフレームレート
よりも低くてもよい。
処理は、
視線追跡情報に基づいて第1のスクリーン領域および第2のスクリーン領域とは別のスク
リーンの領域に対応する第3のスクリーン領域を決定することをさらに含み得、
スクリーン上に表示するために画像を符号化することは、
第3の組の符号化パラメータに基づいて画像の第3の画像領域を符号化することをさらに
含み得、第3の組の符号化パラメータは、第1の組の符号化パラメータよりも低い品質を
もたらし、第2の組の符号化パラメータよりも高い品質をもたらす。
第3のスクリーン領域は、眼の傍中心窩によって見られるスクリーンの領域に対応し得
る。
ディスプレイデバイスはバーチャルリアリティヘッドセットであり得る。
一実施形態において、システムは、
1つまたは複数のプロセッサと、
命令を格納する非一時的コンピュータ可読記憶媒体であって、命令は、1つまたは複数の
プロセッサによって実行されたときに、1つまたは複数のプロセッサに、
ディスプレイデバイスのスクリーンを見ているユーザの眼の少なくとも1つの画像を含む
視線追跡情報を受信すること、
視線追跡情報に基づいてスクリーンの領域に対応する第1のスクリーン領域を決定するこ
と、第1のスクリーン領域は、ユーザの注視点を含み、注視点は、視線追跡情報が捕捉さ
れた時点でユーザが見ているスクリーン上の点を表し、
視線追跡情報に基づいて第1のスクリーン領域とは別のスクリーンの領域に対応する第2
のスクリーン領域を決定すること、
スクリーン上に表示するための画像を符号化すること、符号化は、
第1の組の符号化パラメータに基づいて画像の第1の画像領域を符号化すること、第1の
画像領域は、第1のスクリーン領域に表示され、
第2の組の符号化パラメータに基づいて画像の第2の画像領域を復号化することを含み、
第2の画像領域は、第2のスクリーン領域に表示され、第2の組の符号化パラメータは、
第1の組の符号化パラメータよりも低い品質をもたらし、
符号化された画像をスクリーンに表示されるようにディスプレイデバイスに送信すること
を含む処理を実行させる、非一時的コンピュータ可読記憶媒体と
を備え得る。
処理は、
視線追跡情報に基づいて第1のスクリーン領域および第2のスクリーン領域とは別のスク
リーンの領域に対応する第3のスクリーン領域を決定することをさらに含み得、
スクリーン上の表示するために画像を符号化することは、
第3の組の符号化パラメータに基づいて画像の第3の画像領域を符号化することをさらに
含み、第3の画像領域は、第3のスクリーン領域に表示され、第3の組の符号化パラメー
タは第1の組の符号化パラメータよりも低い品質をもたらし、第2の組の符号化パラメー
タよりも高い品質をもたらす。
一実施形態によるディスプレイデバイスが動作するシステムのブロック図である。 一実施形態による、レンダリング/符号化エンジンのブロック図である。 一実施形態によるヘッドマウントディスプレイの図である。 図3Aおよび図3Bは、一実施形態によるスクリーンを注視している眼を示し、かつ中心窩領域および傍中心窩領域、ならびに中心窩円錐および傍中心窩円錐を示す図である。 一実施形態による、スクリーン上の中心窩領域、傍中心窩領域、および外側領域を示す図である。 一実施形態による、視線追跡情報に基づいて画像領域に適応パラメータを適用するためのプロセスを示すブロック図である。 図5Aは、一実施形態による、異なる組のレンダリングパラメータを用いて画像の異なる部分をレンダリングするためのプロセスを示すブロック図であり、図5Bは、一実施形態による、異なる組の符号化パラメータを用いて画像の異なる部分を符号化するためのプロセスを示すブロック図である。 一実施形態による、異なる組のパラメータを用いて画像の異なる部分をレンダリングおよび符号化するためのプロセスを示すブロック図である。 一実施形態による、異なる組の符号化パラメータを用いて画像の異なる領域を符号化し、次いで画像の符号化画像領域をパッキングされた画像にパッキングする例を示す図である。 一実施形態による、一連の画像を符号化してパッキングする一例を示す。
図面は、本開示の様々な実施形態を例示のみを目的として示している。当業者であれば
、本明細書で提供される開示の原理から逸脱することなく、本明細書に例示される構造お
よび方法の代替的な実施形態を使用し得ることを、以下の説明から容易に理解するであろ
う。
概要
ユーザが連続してスクリーンの異なる領域を注視するユーザおよび画像を含む多くの応
用がある。例としては、ビデオゲーム、バーチャルリアリティシーン、ビデオストリーム
、拡張現実感投影などが含まれる。
スクリーンを見るとき、ユーザの眼は注視点の周りのスクリーン領域においてより高い
解像度に敏感である。注視点は、最も高い視力を提供し、かつ錐体細胞の濃度が最も高い
網膜の領域である中心窩と整列している。中心窩を超える網膜の領域では、解像度に対す
る感度が低下し、中心窩から離れるにつれて視力が低下する。傍中心窩(中心窩を囲む輪
状の眼の領域)では、眼は依然として解像度に敏感であるが、中心窩よりも程度は低い。
傍中心窩の外側の領域では、眼は解像度の違いにそれほど敏感ではない。
スクリーンに表示されている画像がより高い解像度を有する状況では、画像全体をより
高い解像度でレンダリングし、画像全体をより高い解像度で符号化し、適切な高帯域幅の
手段を使用して符号化画像を送信することが一般的である。しかし、眼は中心窩および傍
中心窩の外側の領域では画像解像度に比較的鈍感であるため、画像全体をより高い解像度
でレンダリング、符号化、および送信するプロセスは、コンピューティング能力および帯
域幅の不必要な使用をもたらす。
画像全体に対してより高い解像度を使用する代わりに、ディスプレイシステムはディス
プレイデバイスのスクリーンを複数の領域に分割し、各領域に異なる組のレンダリング/
符号化パラメータを適用する。例えば、ディスプレイシステムは、ユーザの眼の中心窩に
よって見られるスクリーンの第1の領域(以下、中心窩領域と称する)を識別し、第1の
組のパラメータを第1の領域に適用する。第1の組のパラメータは比較的高い画質が生じ
るように選択される。例えば、第1の組のパラメータは、比較的高いフレームレートおよ
び解像度を指定し得る。同様に、ディスプレイシステムは、ユーザの眼の傍中心窩によっ
て見られるスクリーンの第2の領域(以下、傍中心窩領域と称する)を識別し、第2の組
のパラメータを第2の領域に適用し得る。ディスプレイシステムは、中心窩および傍中心
窩の外側のユーザの眼の領域によって見られるスクリーンの第3の領域(以下、外側領域
と称する)をさらに識別し、第3の組のパラメータを第3の領域に適用し得る。第2の組
のパラメータは、中間画質(例えば、中間フレームレートおよび中間解像度)となるよう
に選択され、第3の組のパラメータは、より低い画質(例えば、より低いフレームレート
およびより低い解像度)となるように選択される。その結果、より少ないコンピューティ
ング能力およびより小さい帯域幅で第2領域および第3の領域をレンダリング、符号化、
および送信することができ、それによって、画像のレンダリング、符号化、および送信に
使用されるコンピューティング能力および帯域幅の全体量が減少する。
ディスプレイシステムは、視線追跡ユニットから受信した視線追跡情報に基づいて、第
1の領域と第2の領域とを識別する。ディスプレイシステムは、視線追跡情報を使用して
、ユーザが見ているスクリーン上の点(以下、注視点と称する)を決定する。次に、ディ
スプレイシステムは、注視点に基づいて中心窩領域、傍中心窩領域、および外側領域の境
界を決定することができる。一実施形態では、中心窩領域は、注視点を中心とする、2.
5度の視角の半径を有する円であり、傍中心窩領域は、注視点を中心とする、2.5度の
視角の内半径および5度の視角の外半径を有する環である。外側領域は、傍中心窩領域の
外側半径を超えるスクリーンの部分である。
スクリーン領域の境界を決定した後、ディスプレイシステムは適応的に画像をレンダリ
ングして符号化することができる。さらに、ディスプレイシステムは、ユーザの眼がスク
リーンの異なる位置間を移動するときに定期的に更新された視線追跡情報を受信すること
ができ、ディスプレイシステムは更新された視線追跡情報に基づいて注視点およびスクリ
ーン領域の境界を再計算することができる。従って、ユーザにとって、注視点周辺のスク
リーンの領域(すなわち中心窩領域)はより高い画質を有するように見え、この領域は眼
が画質に対して最も敏感な領域である。傍中心窩領域では、目立った画質劣化なしに中間
のパラメータを適用することができ、外側領域では、目立った画質劣化なしに、より低い
パラメータを適用することができる。
ユーザの眼がスクリーンを横切って急速に動いているときであっても、視線追跡情報は
注視位置の変化に追従することができ、更新された視線追跡情報は、適応パラメータが異
なる画像の中心窩および傍中心窩領域に適用されることが可能となるように十分早く伝達
される。従って、ユーザがどこを見ているかにかかわらず、画像は高解像度を有するよう
に見える。しかしながら、ディスプレイシステムは、画像の一部をより高品質のパラメー
タでレンダリングして符号化し、画像の残りの部分は中間品質またはより低品質のパラメ
ータでレンダリングおよび符号化する。
視線追跡情報に基づいて適応パラメータを適用することの正味の効果は、画像データを
レンダリングおよび符号化するために使用される全体のコンピューティング能力を低減し
、ユーザのディスプレイデバイスによる表示のために画像データを送信するために使用さ
れる帯域幅の量を低減することである。
システム概要
図1Aは、ディスプレイシステム110が動作するシステム100のブロック図である
。システム100は、VRシステム環境、ARシステム環境、MRシステム環境、または
これらの組み合わせで動作し得る。図1Aに示すシステム100は、ディスプレイデバイ
ス105(例えば、ヘッドマウントディスプレイ)、撮像装置135、および入力インタ
フェース140を含み、これらはそれぞれ、ディスプレイシステム110に接続されてい
る。
図1Aは、1つのディスプレイデバイス105、1つの撮像装置135、および1つの
入力インタフェース140を含む例示的なシステム100を示すが、他の実施形態におい
ては、これらのコンポーネントの任意数がシステム100内に含まれてもよい。例えば、
複数のディスプレイデバイス105が存在し、各ディスプレイデバイス105が関連する
入力インタフェース140を有し、かつ1つまたは複数の撮像装置135によってモリタ
リングされ、各ディスプレイデバイス105、入力インタフェース140、及び撮像装置
135は、ディスプレイシステム110と通信する。代替的な構成では、異なるコンポー
ネントおよび/または追加のコンポーネントが、システム100に含まれてもよい。同様
に、1つまたは複数のコンポーネントの機能は、本明細書に記載されているものとは異な
る方法でコンポーネント間に分散させることができる。例えば、ディスプレイシステム1
10の機能の一部または全部をディスプレイデバイス105内に含めることができる。
ディスプレイデバイス105は、コンピュータ加工された要素(例えば、2次元または
3次元の画像、2次元または3次元の映像、サウンドなど)を有する物理的、現実的な環
境の仮想ビューおよび/または拡張されたビューを含むコンテンツをユーザに提示するヘ
ッドマウント型ディスプレイ(HMD)である。いくつかの実施形態では、オーディオは
、ディスプレイデバイス105、ディスプレイシステム110、またはその両方から音声
情報を受信して、音声情報に基づいて音声データを提示する外部機器(例えば、スピーカ
および/またはヘッドホン)を介して提供される。ディスプレイデバイス105のいくつ
かの実施形態は、図2に関連して以下にさらに説明される。ディスプレイデバイス105
は、1つまたは複数の硬質本体を含み得、これは互いに剛体的にまたは非剛体的に結合さ
れ得る。硬質本体間の剛体的結合によって、結合された硬質本体が単一の硬質物体として
機能することができる。これとは対照的に、硬質本体間の非剛体的結合によって、硬質本
体が互いに相対的に移動することができる。ディスプレイデバイス105は、電子ディス
プレイ115と、光学系ブロック118と、1つまたは複数のロケータ120と、1つま
たは複数の位置センサ125と、慣性測定ユニット(IMU:Inertial Mea
surement Unit)130と、視線追跡ユニット160とを含む。ディスプレ
イデバイス105のいくつかの実施形態は、本明細書に記載されたものとは異なるコンポ
ーネントを有する。同様に、様々なコンポーネントの機能は、様々な実施形態で本明細書
に記載されたものとは異なる方法で、システム100内の他のコンポーネントの間に分散
され得る。例えば、視線追跡ユニット160のいくつかの機能は、ディスプレイシステム
110によって実行されてもよい。
電子ディスプレイ115(本明細書ではスクリーンとも称される)は、ディスプレイシ
ステム110から受信したデータに従って、ユーザに対して画像を表示する。様々な実施
形態では、電子ディスプレイ115は、単一の電子ディスプレイまたは複数の電子ディス
プレイ(例えば、ユーザの各眼用のディスプレイ)を含み得る。電子ディスプレイ115
の例としては、液晶ディスプレイ(LCD)、有機発光ダイオード(OLED)ディスプ
レイ、アクティブマトリクス有機発光ダイオードディスプレイ(AMOLED)、その他
のディスプレイ、或いはこれらの組み合わせが含まれる。
光学系ブロック118は、電子ディスプレイ115から受信した画像光を拡大し、画像
光に関連する光学的エラーを補正し、その補正された画像光が、ディスプレイデバイス1
05のユーザに提示される。様々な実施形態では、光学系ブロック118は、1つまたは
複数の光学素子を含む。例示的な光学素子は、アパーチャレンズ、フレネルレンズ、凸レ
ンズ、凹レンズ、フィルタ、または電子ディスプレイ115から放出された画像光に影響
を与える任意の他の適切な光学素子を含む。さらに、光学系ブロック118は、異なる光
学素子の組み合わせを含み得る。いくつかの実施形態において、光学系ブロック118内
の1つまたは複数の光学素子は、部分反射リフレクタ又は反射防止コーティング等の1つ
または複数のコーティングを有し得る。
光学系ブロック118による画像光の拡大により、電子ディスプレイ115を物理的に
小型化、軽量化し、より大型のディスプレイよりも消費電力を小さくすることができる。
さらに、拡大によって、表示されるコンテンツの視野を増加させ得る。例えば、表示され
るコンテンツの視野は、表示されるコンテンツがユーザの視野のほとんどすべて(例えば
、対角110°)および場合によってはすべてを使用して提示されるというものである。
いくつかの実施形態では、光学系ブロック118は、その有効焦点距離が電子ディスプレ
イ115までの間隔よりも大きいように構成され、それによって電子ディスプレイ115
によって投影される画像光が拡大される。さらに、いくつかの実施形態では、光学素子を
追加するか、または光学系ブロック118から光学素子を除去することによって、拡大量
を調整することができる。
光学系ブロック118は、1つまたは複数の種類の光学エラーを補正するように構成さ
れ得る。光学エラーの例としては、2次元光学エラー、3次元光学エラー、またはこれら
のいくつかの組み合せが含まれる。2次元エラーは2次元で発生する光学収差である。2
次元エラーの種類の例としては、樽型歪曲、糸巻型歪曲、縦色収差、横色収差、又は任意
の他の種類の2次元光学エラーが含まれる。3次元エラーは、3次元で発生する光学エラ
ーである。3次元エラーの例としては、球面収差、色収差、像面歪曲、非点収差、または
任意の他の種類の3次元光学エラーが含まれる。いくつかの実施形態では、表示のために
電子ディスプレイ115に提供されるコンテンツは予め歪曲され、光学系ブロック118
は、コンテンツに基づいて生成された電子ディスプレイ115からの画像光を受信すると
きに歪曲を補正する。
ロケータ120は、ディスプレイデバイス105上の特定の位置に互いに対して、かつ
ディスプレイデバイス105上の特定の基準点に対して相対的に配置されたオブジェクト
である。ロケータ120は、発光ダイオード(LED)、コーナーキューブリフレクタ、
反射マーカ、ディスプレイデバイス105が動作する環境と対照的なタイプの光源、また
はこれらの組み合わせであってもよい。ロケータ120がアクティブ(即ち、LEDまた
は他のタイプの発光デバイス)である実施形態では、ロケータ120は、可視帯域(38
0nm~570nm)、赤外(IR)帯域(750nm~1700nm)、紫外帯域(1
0nm~380nm)、電磁スペクトルの他の帯域、またはこれらの任意の組み合わせに
おいて光を放出することができる。
いくつかの実施形態では、ロケータ120は、ロケータ120によって放出されるかま
たは反射される光の波長に対して透過的であるか、又はロケータ120によって放出され
るかまたは反射される光の波長を実質的に減衰させないように十分薄い、ディスプレイデ
バイス105の外面の下に配置される。さらに、いくつかの実施形態において、ディスプ
レイデバイス105の外面または他の部分は、光の可視波長帯域において不透過的である
。したがって、ロケータ120は、IR帯域内では透過的であるが、可視帯域においては
不透過的である外面の下でIR帯域の光を放出することができる。
IMU130は、1つまたは複数の位置センサ125から受信した測定信号に基づいて
高速較正データを生成する電子デバイスである。位置センサ125は、ディスプレイデバ
イス105の動きに応答して1つまたは複数の測定信号を生成する。位置センサ125の
例としては、1つまたは複数の加速度計、1つまたは複数のジャイロスコープ、1つまた
は複数の磁力計、動きを検出する別の適当なタイプのセンサ、IMU130のエラー訂正
に使用されるあるタイプのセンサ、またはそれらの組み合わせが含まれる。位置センサ1
25は、IMU130の外部に配置されてもよく、IMU130の内部に配置されてもよ
く、或いはこれらの組み合わせで配置されてもよい。
1つまたは複数の位置センサ125からの1つまたは複数の測定信号に基づいて、IM
U130は、ディスプレイデバイス105の初期位置に対するディスプレイデバイス10
5の推定位置を示す高速較正データを生成する。例えば、位置センサ125は、並進運動
(前方/後方、上方/下方、左側/右側)を測定する複数の加速度計と、回転運動(例え
ば、ピッチ、ヨー、ロール)を測定する複数のジャイロスコープと含む。いくつかの実施
形態では、IMU130は、測定信号を高速サンプリングし、サンプリングされたデータ
からディスプレイデバイス105の推定位置を算出する。例えば、IMU130は、加速
度計から受け取った測定信号を経時的に積分して、速度ベクトルを推定し、速度ベクトル
を経時的に積分して、ディスプレイデバイス105上の基準点の推定位置を決定する。あ
るいは、IMU130は、サンプリングされた測定信号をディスプレイシステム110に
供給し、ディスプレイシステム110は、高速較正データを決定する。基準点は、ディス
プレイデバイス105の位置を説明するために使用され得る点である。基準点は、一般的
に、空間内のある点として定義されてもよいが、実際には、基準点は、ディスプレイデバ
イス105内のある点(例えば、IMU130の中心)として定義されることが多い。
IMU130は、ディスプレイシステム110から1つまたは複数の較正パラメータを
受信する。以下でさらに説明するように、1つまたは複数の較正パラメータは、ディスプ
レイデバイス105の追跡を維持するために使用される。IMU130は、受信した較正
パラメータに基づいて、1つまたは複数のIMUパラメータ(例えば、サンプルレート)
を調整し得る。いくつかの実施形態では、特定の較正パラメータにより、IMU130は
基準点の初期位置を更新し、更新された初期位置が、基準点の次の較正位置に対応するよ
うにする。基準点の初期位置を基準点の次の較正位置として更新することにより、決定さ
れた推定位置に関連する累積エラーを減少させるのに役立つ。累積エラーは、ドリフトエ
ラーとも呼ばれ、基準点の推定位置を、経時的に基準点の実際の位置から「ドリフト」さ
せる原因となる。
視線追跡ユニット160は、ユーザの眼の動きを追跡する。一般的に、追跡される眼球
運動は、眼球の角回転だけでなく、眼球の並進運動、眼球の回旋の変化、または眼球の形
状の変化を含むことができる。眼球の角回転は、眼球の角度方向の変化である。眼球の角
度方向は、ディスプレイデバイス105内でのユーザの凝視の方向に対応しており、ここ
では、眼の中心窩(網膜上のくぼみ)と眼の瞳孔の中心との間の軸である中心窩軸の方向
と定義される。一般的に、ユーザの眼がある点に固定されると、ユーザの眼の中心窩軸は
その点と交差する。眼はまた、瞳孔の中心を通過する軸である瞳孔軸を含み、この軸は角
膜表面に垂直である。一般的に、瞳孔軸は中心窩軸と直接的に整列することはない。瞳孔
軸と中心窩軸の両方は瞳孔の中心で交差するが、中心窩軸の方向は、瞳孔軸から横方向に
約-1°~8°、縦方向に±4°だけずれる。中心窩軸は、眼球後方に位置する中心窩に
対して定義されるため、特定の視線追跡法を用いて中心窩軸を検出することは困難である
かまたは不可能である。従って、いくつかの実施形態において、視線追跡ユニット160
は、瞳孔軸の方向を検出し、検出された瞳孔軸に基づいて中心窩軸を推定する。あるいは
、視線追跡ユニット160は、中心窩の位置を直接検出することによって、または眼球の
網膜の他の特徴の位置を直接的に検出することによって、中心窩軸を推定する。
眼球の並進運動は、眼の眼窩に対する眼の位置の変化である。いくつかの実施形態では
、眼球の並進運動は直接的には検出されないが、検出された角度方向からのマッピングに
基づいて近似される。視線追跡ユニット160の1つまたは複数のコンポーネントに対す
る眼球の位置の変化に対応する眼球の並進運動も検出されてもよい。視線追跡ユニット1
60の1つまたは複数のコンポーネントに対する眼球の並進運動は、ユーザの頭部のディ
スプレイデバイス105の位置がシフトしたときに発生し得る。視線追跡ユニット160
は、瞳孔軸を中心とした眼球の回転である眼球回旋をも検出し得る。視線追跡ユニット1
60は、検出された眼球回旋を使用して、検出された瞳孔軸に基づいて中心窩軸の方向を
推定し得る。視線追跡ユニット160は、また、スキュー、スケーリング線形変換、また
は捻り変形(例えば、ねじれ変形による)として近似され得る眼球の形状の変化を追跡し
得る。視線追跡ユニット160は、瞳孔軸の角度方向、眼球の並進運動、眼球の回旋、お
よび眼球の現在の形状の組み合わせに基づいて中心窩軸を推定し得る。
視線追跡ユニット160は、追跡された眼球運動を用いて視線追跡情報を決定する。視
線追跡情報は、ユーザの眼の位置および/または向きを記述する。視線追跡ユニット16
0は、決定された視線追跡情報を使用して、注視方向(中心窩の中心と眼の瞳孔の中心と
を横断する軸である中心窩軸の方向とも呼ばれる)、注視位置(ユーザが見ている凝視点
とも呼ばれる)、注視時間(ユーザが特定の方向を見ている時間)、輻輳角(ユーザの視
距離および注視方向が変化したときの2つの眼の間の角度)、ユーザの瞳孔間距離(IP
D、2つの眼の瞳孔の中心間の距離として定義される)、ユーザの識別、眼の回旋状態、
眼の形状、片方または両方の眼の位置に基づくいくつかの他の機能、あるいはそれらの組
み合わせなどの視線追跡値をさらに推定し得る。例えば、視線追跡ユニット160は、ユ
ーザが無限遠に焦点を合わせているとき、又は例えばユーザから遠く離れた別の物体に焦
点を合わせているときに、眼の位置を推定することによってIPDを決定することができ
る。別の例では、視線追跡ユニット160は、ユーザの視距離および注視方向の変化を推
定することによって輻輳角を決定する。視線追跡ユニット160はまた、瞳孔軸を中心と
した眼球の回転を推定することによって眼球の回旋状態を決定することができる。いくつ
かの実施形態では、視線追跡ユニット160は、中心窩軸、瞳孔軸からの中心窩軸の向き
、および眼の形状の変化を決定することができる。
視線追跡ユニット160は、1つまたは複数の照明源、1つまたは複数の撮像装置、お
よび視線追跡コントローラを含み得る。照明源(照明器とも呼ばれる)は、ユーザの眼の
一部を光で照明する。所定の照明パワーは、眼に損傷を与える閾値未満である。照明源は
赤外線光源であり得る。赤外線光源の例には、レーザー(例えば、波長可変レーザー、連
続発振レーザー、パルスレーザー、赤外線を放射する他の適切なレーザー)、発光ダイオ
ード(LED)、ファイバー光源、赤外線および/または可視光を放射する他の適切な光
源、あるいはそれらの組み合わせが含まれる。様々な実施形態において、照明源は可視光
または近赤外光を放射し得る。いくつかの実施形態では、1つまたは複数の照明源から放
射される光は構造化光パターンである。いくつかの実施形態では、眼球運動中に照明され
た部分からの信号と照明された部分を囲む他の信号との間の明らかな変化に起因して、照
明源によって照明される眼球の一部が、検出を容易にするために選択される。例えば、照
明される部分は、最大のコントラスト(例えば、ユーザの強膜または角膜表面の端部から
の最強の後方反射または後方散乱を伴う位置)を有し得る。照明される部分は、例えば、
強膜の端部、角膜の表面、縁部(limbus)(例えば、角膜と強膜の接合部、虹彩と
強膜の接合部、虹彩と瞳孔の接合部、または眼の任意の他の適切な接合部)に位置し得る
撮像装置は、眼の照明された部分からの反射光および/または散乱光を検出する。撮像
素子は、検出した光に比例する検出信号を出力する。検出信号は、眼の照明される部分の
反射率に対応し、反射率は、ユーザの眼170の照明される部分全体の明確なコントラス
ト変化(例えば、角膜反射のコントラスト変化)と相互に関連がある。一実施形態では、
撮像装置は、眼の照明された部分の画像を捕捉するように構成されたカメラを備える。い
くつかの実施形態では、検出器は、一点検出(例えば、フォトダイオード、平衡型/整合
型フォトダイオード、またはアバランシェフォトダイオード、または光電子増倍管)に基
づくか、または一次元検出器アレイもしくは二次元検出器アレイ(例えば、カメラ、線形
フォトダイオードアレイ、CCDアレイ、またはCMOSアレイ)に基づくものとするこ
とができる。いくつかの実施形態では、視線追跡ユニット160は、眼の1つまたは複数
の照明された部分から反射された光を捕捉するための複数の検出器を含み得る。
視線追跡ユニット160は、1つまたは複数の撮像装置からの捕捉光(例えば、捕捉画
像)に基づいて視線追跡情報を決定する。いくつかの実施形態では、視線追跡ユニット1
60は、捕捉された光情報(例えば、眼の反射、眼に投影される構造化光パターンの歪み
)を所定のルックアップテーブルまたは所定の眼モデルと比較して視線追跡情報を推定し
得る。所定のルックアップテーブルまたは所定の眼モデルは、捕捉された光情報と視線追
跡情報との間の関係を記述する。例えば、いくつかの実施形態では、視線追跡ユニット1
60は、ユーザの眼の捕捉画像内で1つまたは複数の照明源からの光の反射の位置を識別
し、識別された反射の形状および/または位置と所定のルックアップテーブル(または所
定の眼モデル)との比較に基づいて視線追跡情報を決定する。あるいは、眼が構造化光パ
ターンで照明されている場合、視線追跡ユニット160は、眼に投影された構造化光パタ
ーンの歪みを検出し、検出された歪みと所定のルックアップテーブル(または所定の眼モ
デル)との比較に基づいて視線追跡情報を推定することができる。視線追跡ユニット16
0は、視線追跡情報を使用して、瞳孔軸、(例えば、中心窩軸に対応する)注視角、眼球
の並進運動、眼球の回旋、眼の現在の形状などの他の視線追跡値をさらに推定し得る。別
の実施形態では、視線追跡情報を決定するために片方または両方の眼から反射された光を
使用する代わりに、視線追跡ユニット160は、超音波またはレーダなどの他の眼の位置
を決定する方法を使用してもよい。
いくつかの実施形態では、視線追跡ユニット160は、ユーザの眼のモデルを記憶し、
眼の1つまたは複数の走査と共にモデルを使用して眼の現在の向きを推定する。モデルは
、眼の表面の3Dモデルまたは眼の一部の3D体積であり得る。モデルは、例えば、中心
窩、傍中心窩、および周中心窩を含む、眼の網膜の異なる部分に対する境界をさらに含む
。眼のこれらの部分の境界は、例えば、以下に記載される較正シーケンスにより決定され
得る。ユーザの両眼が走査される実施形態では、ディスプレイシステム110またはディ
スプレイデバイス105は各眼に対する別々のモデルを記憶し得る。
スクリーン領域を決定する前に、視線追跡ユニット160は、眼のモデルを生成または
訓練するための較正シーケンスを実行し得る。一実施形態では、視線追跡ユニット160
は、較正シーケンス中に1つまたは複数の送受信器を用いて眼を繰り返し走査する。例え
ば、ユーザは、ディスプレイデバイス105の電子ディスプレイ115に表示された特定
の仮想オブジェクトまたは視覚的インジケータを注視するように指示される。ユーザが視
覚的インジケータを注視している間に眼の一部が走査され、視線追跡ユニット160は、
眼の既知の向きにおける眼の走査サンプルを捕捉することが可能となる。これらの走査サ
ンプルを合成してモデルにすることができる。視線追跡ユニット160がモデルを生成し
た後、視線追跡ユニット160は続いてユーザの視線を追跡し得る。いくつかの実施形態
において、視線追跡ユニット160は、視線追跡中にモデルを更新する。
撮像装置135は、ディスプレイシステム110から受信した較正パラメータに従って
低速較正データを生成する。低速較正データは、撮像装置135によって検出可能なロケ
ータ120の観察位置を示す1つまたは複数の画像を含む。撮像装置135は、1つまた
は複数のカメラ、1つまたは複数のビデオカメラ、1つまたは複数のロケータ120を含
む画像を撮像可能な任意の他の機器、またはこれらの組み合わせを含み得る。さらに、撮
像装置135は、1つまたは複数のフィルタ(例えば、信号対雑音比を高めるために使用
される)を含み得る。撮像装置135は、撮像装置135の視野内でロケータ120から
出射された、または反射された光を検出するように構成されている。ロケータ120が受
動的素子(例えば、再帰反射器)を含む実施形態では、撮像装置135は、光源を含み得
、この光源は、撮像装置135内の光源に向けて光を再帰反射するロケータ120の一部
または全部を照明する。低速較正データは、撮像装置135からディスプレイシステム1
10に伝達され、撮像装置135は、1つまたは複数の較正パラメータをディスプレイシ
ステム110から受信して、1つまたは複数の撮像パラメータ(例えば焦点距離、焦点、
フレームレート、ISO、センサ温度、シャッタ速度、開口等)を調整する。
入力インタフェース140は、ユーザが動作要求をディスプレイシステム110に送信
することを可能にするためのデバイスである。動作要求は、特定の動作を実行するための
要求である。例えば、動作要求は、アプリケーションを開始し、アプリケーションを終了
するか、またはアプリケーション内で特定の動作を実行するためのものであり得る。入力
インタフェース140は、1つまたは複数の入力デバイスを含み得る。入力デバイスの例
としては、キーボード、マウス、ゲームコントローラ、または動作要求を受信して、受信
した動作要求をディスプレイシステム110に伝達するための任意のその他の適切なデバ
イスが含まれる。入力インタフェース140によって受信された動作要求はディスプレイ
システム110に伝達され、ディスプレイシステム110は、動作要求に対応する動作を
実行する。いくつかの実施形態では、入力インタフェース140は、ディスプレイシステ
ム110から受信した命令に従って、ユーザに触覚フィードバックを提供する。例えば、
触覚フィードバックは、動作要求が受信されたときに提供されるか、または入力インタフ
ェース140が、ディスプレイシステム110が動作を実行したときに入力インタフェー
ス140に触覚フィードバックを生成させる命令をディスプレイシステム110から受信
したときに提供される。
ディスプレイシステム110は、撮像装置135、ディスプレイデバイス105、およ
び入力インタフェース140のうちの1つまたは複数から受信した情報に従って、ユーザ
に提示するためのコンテンツをディスプレイデバイス105に提供する。図1Aに示す例
では、ディスプレイシステム110は、アプリケーションストア145、追跡モジュール
150、エンジン155、および画像処理エンジン165を含む。ディスプレイシステム
110のいくつかの実施形態は、図1Aに関連して説明されたものとは異なるモジュール
を有する。同様に、以下にさらに説明する機能は、ディスプレイシステム110のモジュ
ール間で、上記のものとは異なる方法で分散され得る。
アプリケーションストア145は、ディスプレイシステム110による実行のための1
つまたは複数のアプリケーションを格納する。アプリケーションは、プロセッサの実行時
にユーザに提示するためのコンテンツを生成する命令群である。アプリケーションによっ
て生成されたコンテンツは、ディスプレイデバイス105または入力インタフェース14
0の動きを介してユーザから受信した入力に応答的なものであり得る。アプリケーション
の例としては、ゲーム用アプリケーション、会議用アプリケーション、ビデオ再生用アプ
リケーション、またはその他の適切なアプリケーションが含まれる。
追跡モジュール150は、1つまたは複数の較正パラメータを用いてシステム100を
較正し、1つまたは複数の較正パラメータを調整して、ディスプレイデバイス105の位
置または入力インタフェース140の位置を決定する際のエラーを低減し得る。例えば、
追跡モジュール150は、撮像装置135の焦点を調整して、ディスプレイデバイス10
5上の観察されたロケータのより正確な位置を得る。さらに、追跡モジュール150によ
って行われる較正は、IMU130から受信した情報も考慮する。さらに、ディスプレイ
デバイス105の追跡が失われた場合(例えば、撮像装置135がディスプレイデバイス
105上の少なくとも閾値の数のロケータ120の視線を喪失した場合)、追跡モジュー
ル150は、システム100の一部または全部を再較正する。
追跡モジュール150は、撮像装置135からの低速較正情報を用いてディスプレイデ
バイス105の動きを追跡する。例えば、追跡モジュール150は、低速較正情報から観
察されたロケータとディスプレイデバイス105のモデルとを用いてディスプレイデバイ
ス105の基準点の位置を決定する。追跡モジュール150はまた、高速較正情報からの
位置情報を用いて、ディスプレイデバイス105の基準点の位置を決定する。さらに、い
くつかの実施形態において、追跡モジュール150は、高速較正情報、低速較正情報、ま
たはそれらの組み合わせの一部を使用して、ディスプレイデバイス105の将来の位置を
予測し得る。追跡モジュール150は、ディスプレイデバイス105の推定されたまたは
予測された将来の位置をエンジン155に提供する。
エンジン155は、システム100内でアプリケーションを実行し、追跡モジュール1
50からディスプレイデバイス105の位置情報、加速度情報、速度情報、予測される将
来位置、或いはこれらの組み合わせを受信する。エンジン155は、受信した情報に基づ
いて、ユーザに提供するためにディスプレイデバイス105に提供するためのコンテンツ
を決定する。例えば、受信された情報が、ユーザが左を見たことを示している場合、エン
ジン155は、仮想環境内でユーザの動きをミラーリングした、ディスプレイデバイス1
05のためのコンテンツを生成する。さらに、エンジン155は、入力インタフェース1
40から受信した動作要求に応答してディスプレイシステム110上で実行されるアプリ
ケーション中のある動作を実行し、その動作が実行されたことをユーザにフィードバック
する。提供されたフィードバックは、ディスプレイデバイス105を介した視覚的または
聴覚的なフィードバックか、又は入力インタフェース140を介した触覚フィードバック
であり得る。
画像処理エンジン165は、(例えば、視線追跡ユニット160から)視線追跡情報を
受信し、スクリーンをユーザの網膜の異なる部分で見たスクリーンの部分を表す2つ以上
のスクリーン領域に分割し、各スクリーン領域に表示されるべき画像の部分に異なる組の
パラメータを適用することによってスクリーン上への表示用の画像を処理する。本明細書
で言及されるように、スクリーン上への表示用の画像を処理することは、画像をレンダリ
ングすること(例えば、ゲーム内のシーンをレンダリングすること)、画像を符号化する
こと、または画像をレンダリングして符号化することの組み合わせを含み得る。画像処理
エンジン165のコンポーネントは、図1Bを参照して以下に詳細に説明される。
図1Aに示す実施形態では、画像処理エンジン165は、VRシステム環境、ARシス
テム環境、MRシステム環境、またはそれらの組み合せで動作し得るシステム100内で
実施される。しかしながら、本明細書に記載されているような画像処理エンジン165は
また、視線追跡コンポーネントも含む他の種類のシステムにおいても実施され得る。例え
ば、他の実施形態では、エンジン165は携帯電子機器(例えば、スマートフォンまたは
タブレットコンピュータ)上で実施される。この実施形態では、エンジン165は、視線
追跡情報(例えば、携帯電子機器の前面カメラから捕捉された画像)を受信し、携帯電子
機器のスクリーンに表示される画像に適応パラメータを適用する。さらに別の実施形態で
は、エンジン165は、視線追跡を実行することができるコンポーネント(例えば、ラッ
プトップディスプレイのベゼルに組み込まれるか、またはモニタの最上部に取り付けられ
たカメラなどのユーザと対面するカメラ)を有するラップトップコンピュータまたはデス
クトップコンピュータで実施され、かつコンピュータのスクリーン上に表示される画像に
適応パラメータを適用する。
図1Bは、一実施形態による画像処理エンジン165のブロック図である。図1Bに示
すレンダリング/符号化エンジンは、スクリーン領域モジュール162、レンダリングモ
ジュール164、および符号化モジュール166を含む。代替の構成では、異なるおよび
/または追加のコンポーネントがレンダリング/符号化エンジンに含まれてもよい。同様
に、コンポーネントのうちの1つまたは複数の機能は、本明細書で説明したものとは異な
るやり方でコンポーネント間で分散させてもよい。
スクリーン領域モジュール162は、(例えば、視線追跡ユニット160から)視線追
跡情報を受け取り、中心窩、傍中心窩、および傍中心窩を超える網膜の部分などのユーザ
の網膜の異なる部分に対応するスクリーン領域を決定する。本明細書で言及されるように
、スクリーン領域は、ユーザの網膜の特定の部分で見られるスクリーンの一部である。例
えば、スクリーン領域モジュール162は、中心窩で見られるスクリーンの一部に対応す
る第1のスクリーン領域(中心窩領域)、傍中心窩で見られるスクリーンの一部に対応す
る第2のスクリーン領域(傍中心窩領域)、および、傍中心窩の外側の網膜の部分によっ
て見られるスクリーンの一部に対応する第3のスクリーン領域(外側領域)を決定し得る
スクリーン領域モジュール162は、視線追跡ユニット160などの視線追跡コンポー
ネントから視線追跡情報を受け取る。一実施形態では、視線追跡情報は、視線追跡ユニッ
ト160によって決定されるようなユーザの眼の角度方向を含む。別の実施形態では、視
線追跡情報は、ユーザの眼の1つまたは複数の画像などの追加のまたは異なる情報を含む
。スクリーン領域モジュール162が視線追跡情報に基づいてスクリーン領域を決定する
方法は、図3A~3Cを参照して以下に詳細に説明される。
レンダリングモジュール164は、ディスプレイシステム110上で実行されているア
プリケーションによって生成された情報に基づいて画像をレンダリングする。アプリケー
ションは、アプリケーションストア145に格納されるか、または入力インタフェース1
40を介して他のシステムから受信されてもよい。例えば、ディスプレイシステム110
は、シーン内の様々な位置に1つまたは複数の仮想オブジェクト(プレーヤキャラクタ、
ノンプレーヤキャラクタ、環境オブジェクト、および背景など)を含むシーンを生成する
ゲームアプリケーションを実行する。モジュール164は、画像を2つ以上の画像領域に
分割し、対応する一組のレンダリングパラメータを各領域に適用することによって画像を
レンダリングする。例えば、上述の例では、レンダリングモジュール164は、各画像領
域内の仮想オブジェクトを対応する一組のレンダリングパラメータでレンダリングするこ
とによってシーンの画像をレンダリングする。本明細書で言及されるように、画像は、静
止画または一連のフレームのうちの1つのフレーム(例えば、ビデオまたはゲームアプリ
ケーションのフレーム)であり得る。
符号化モジュール166は、(例えば、レンダリングモジュール164または入力イン
タフェース140から)画像を受け取り、送信用に画像を符号化する。モジュール166
は、画像を2つ以上の画像領域に分割し、対応する一組の符号化パラメータを各領域に適
用することによって画像を符号化する。一実施形態では、符号化モジュール166は、図
6Aおよび図6Bを参照して説明したプロセスに従って画像を符号化する。それらが符号
化された後、ディスプレイシステム110は、画像をユーザに対して表示させるべくディ
スプレイデバイス105に送信し得る。
本明細書で言及されるように、画像領域は、ディスプレイデバイス105のスクリーン
上に表示されたときに、ユーザの網膜の特定の部分によって見られる画像の一部である。
例えば、モジュール164、166は、中心窩によって見られる第1の画像領域、傍中心
窩によって見られる第2の画像領域、および傍中心窩の外側の網膜の一部によって見られ
る第3の画像領域に異なる組のパラメータを適用する。いくつかの実施形態では、レンダ
リングモジュール164によってレンダリングされ、かつ/または符号化モジュール16
6によって符号化された画像は、スクリーン全体を網羅するように表示される(すなわち
、画像は全画面モードで表示される)。これらの実施形態では、レンダリングモジュール
164および符号化モジュール166を参照して説明された画像領域は、スクリーン領域
モジュール162を参照して説明されたスクリーン領域と同じ形状および画像内の同じ位
置を有する。他の実施形態では、画像はスクリーンの一部に(例えば、スクリーン全体を
占有しないウィンドウ内に)表示される。これらの実施形態では、モジュール164、1
66は、画像が表示されるべきスクリーンの一部を含み、スクリーンの他の部分を除外す
るようにスクリーン領域を切り取ることによって画像領域の境界を決定する。
図2は、一実施形態によるヘッドマウントディスプレイ(HMD)200の図である。
HMD200は、ディスプレイデバイス105の一実施形態であり、かつ前側硬質本体2
05とバンド210とを含む。前側硬質本体205は、電子ディスプレイ115(図2で
は図示せず)の電子ディスプレイ素子と、光学系ブロック118(図2では図示せず)と
、IMU130と、1つまたは複数の位置センサ125と、視線追跡ユニット160と、
ロケータ120とを含む。図2に示される実施形態では、位置センサ125はIMU13
0内に配置され、IMU130および位置センサ125はユーザには視認されない。
ロケータ120は、前側硬質本体205上の固定位置に互いに対して相対的にかつ基準
点215に対して相対的に配置されている。図2の例では、基準点215は、IMU13
0の中心に配置されている。ロケータ120の各々は、撮像装置135によって検出可能
な光を放出する。ロケータ120またはロケータ120の一部は、図2の例では、前側硬
質本体205の前面220A、上面220B、下面220C、右面220D、左面220
E上に配置されている。
画像領域における適応パラメータ
図3Aおよび図3Bは、一実施形態による、注視ベクトル306によって示される方向
にスクリーン304を注視しているユーザの眼302を示す。最初に図3Aを参照すると
、ユーザの眼302、注視ベクトル306、およびスクリーン304が示されている。図
3Aは、さらに、例えば、視線追跡ユニット160によって捕捉された眼の画像に基づい
てスクリーン領域モジュール162によって生成されたスクリーン上の中心窩領域308
、傍中心窩領域310、および外側領域312を示す。
スクリーン領域モジュール162は、眼が見ている方向を表す注視ベクトルを決定する
。いくつかの実施形態では、スクリーン領域モジュール162は、眼球中心(A)、角膜
中心(C)、瞳孔(E)、および角膜中心と瞳孔中心(h)との間の距離を含む、眼に関
連する複数の眼球特性に基づいて注視ベクトルを決定する。一実施形態では、視線追跡ユ
ニット160はこれらの眼球特性の推定値を計算し、その推定値を視線追跡情報の一部と
してスクリーン領域モジュール162に送信する。別の実施形態では、スクリーン領域モ
ジュール162は、視線追跡ユニット160から眼球の角度方向を受け取り、角回転に基
づいて眼モデルに回転を適用することによってこれらの眼球特性を生成する。他の実施形
態では、スクリーン領域モジュール162は、視線追跡ユニット160から眼の中心窩軸
を受け取り、中心窩軸の方向を注視ベクトル306として使用する。注視ベクトル306
を決定した後、モジュール162は、注視ベクトル306とスクリーン304との間の交
点を計算することによって注視点314を決定する。他の実施形態では、注視点314は
他の手段によって計算される。
302として示されるスクリーンの領域は、眼が解像度の差に最も敏感である中心窩領
域である。304として示される領域は、302に最も近い傍中心窩領域であり、傍中心
窩領域では眼は解像度の差に対する感度が低い。領域302および304の外側の領域は
、外側画像領域306であり、外側画像領域306では眼は解像度の差に対する感度が最
も低い。
図3Aに示される実施形態では、スクリーン領域モジュール162は、注視点を中心と
する所定の半径の円を描くことによって中心窩領域308を決定する。同様に、スクリー
ン領域モジュール162は、注視点を中心とする第2の所定の半径の第2の円を描き、中
心窩領域を減算して環帯(リング形状)を生成することによって傍中心窩領域310を決
定する。スクリーン領域モジュール162はさらに、中心窩領域308および傍中心窩領
域310によって覆われていないスクリーンの領域として外側領域312を決定し得る。
所定の半径を有するスクリーン領域308、310、312を決定するためのこのプロ
セスは、処理中にスクリーン304がユーザの眼302から既知の距離を維持する実施形
態(例えば、ディスプレイデバイス105が図2に示されているHMD200のようなヘ
ッドマウントディスプレイである実施形態)において特に有利である。その理由は、例え
ば、所定の半径は、特定の数値の視角の度数に対応するように選択され、かつ中心窩領域
308および傍中心窩領域310に関する視角の度数は、ユーザの中心窩および傍中心窩
の解剖学的境界の推定値を表すように選択することができるからである。例えば、上述の
ように、所定の半径は、中心窩領域308が2.5度の視角の半径に対応し、傍中心窩領
域310が5.0度の視角の半径に対応するように選択することができる。いくつかの実
施形態では、所定の半径は、視線追跡ユニット160を参照して上述したユーザの眼モデ
ルに基づいて選択される。
図3Bは、図3Aの眼を示し、さらに一実施形態による中心窩円錐316および傍中心
窩円錐318を示す。図3Bに示す実施形態では、中心窩領域および傍中心窩領域は3D
円錐によって画定される。316として描かれている円錐形状は中心窩円錐であり、31
8として描かれている円錐形状は傍中心窩円錐である。
図3Bに示す実施形態では、スクリーン領域モジュール162は、円錐316、318
に基づいてスクリーン領域308、310を決定する。より具体的には、スクリーン領域
モジュール162は、図3Aを参照して上述した方法で眼球特性に基づいて注視ベクトル
を決定する。注視ベクトル306を決定した後、スクリーン領域モジュール162は、注
視ベクトル306と一致する軸と、角膜中心(C)の頂点と、軸に対して所定の角度(例
えば、2.5度)だけオフセットした円錐面とを有する円錐として中心窩円錐316を形
成する。同様に、スクリーン領域モジュール162は、注視ベクトル306と一致する軸
と、角膜中心の頂点(C)と、軸に対して異なる所定の角度(例えば、5度)だけオフセ
ットした円錐面とを有する傍中心窩円錐318を形成する。図3Aを参照して上述した所
定の半径と同様に、円錐316、318を画定する所定の角度は、典型的な人間のユーザ
の中心窩および傍中心窩の解剖学的境界の推定値を表すように選択することができ、かつ
眼モデルに基づくものとすることができる。円錐316、318を形成した後、スクリー
ン領域モジュール162は、対応する円錐316、318とスクリーン304との間の交
点を計算することによって中心窩領域308および傍中心窩領域310を決定する。スク
リーン領域モジュール162はさらに、中心窩領域308および傍中心窩領域310によ
って覆われていないスクリーンの領域として外側領域312を決定し得る。
図3Cは、一実施形態によるスクリーン304上に現れる中心窩領域308、傍中心窩
領域310、および外側領域312を示す。中心窩領域308および傍中心窩領域310
は図3A~図3Cに円として示されているが、他の実施形態では、これらの領域は異なる
形状を有することができる。一実施形態では、中心窩領域および傍中心窩領域は、注視点
314を中心とし、その一辺が図3A~図3Cに示す円形中心窩および傍中心窩領域30
8、310と同じ長さの正方形である。別の実施形態では、中心窩領域および傍中心窩領
域は長方形である。正方形または長方形の中心窩および傍中心窩領域を使用することは、
例えば、画素が直交座標系でインデックス付けされているスクリーン上で正方形領域また
は長方形領域を形成することがより容易であるという理由から有利である。
いくつかの実施形態では、スクリーン領域モジュール162は、層間のより滑らかな移
行を提供するために追加の領域を生成する。いくつかの実施形態では、各領域のサイズは
、適応的であり、かつ眼の特性におけるノイズ、眼球特性の推定精度、注視ベクトルの方
向、またはそれらの任意の組み合わせに基づいて更新され得る。いくつかの実施形態では
、各スクリーン領域のサイズは、衝動性運動(saccade)(凝視点間の急速な眼球
運動)が検出されたときに拡大され、一旦凝視が安定すると再び縮小される。
図4は、一実施形態による、視線追跡情報に基づいて画像領域に適応パラメータを適用
するためのプロセスを示すブロック図である。ディスプレイシステム110は、視線追跡
情報を受信する(402)。例えば、システム110は、ディスプレイデバイス105の
視線追跡ユニット160からユーザの眼の角度方向を受け取る。システム110は、追加
的または代替的に、図3Aを参照して説明したユーザの眼の画像または1つまたは複数の
眼球特徴などの他の種類の視線追跡情報を受信する。
視線追跡情報を受信した(402)後、システム110は視線追跡情報に基づいて2以
上のスクリーン領域を決定する(404)。例えば、システム110は、図3Aおよび図
3Bを参照して説明したプロセスの一方または両方を実行して、中心窩領域、傍中心窩領
域、および外側領域を決定する(404)。他の実施形態では、システム110は、異な
る数の領域を決定してもよい(404)。例えば、システム110は、2つの領域(例え
ば、傍中心窩領域ではなく、中心窩領域および外側領域)を決定し得る。別の例として、
システムは、上述のように中心窩領域、傍中心窩領域、および外側領域を決定し、追加的
に、ユーザの眼の周中心窩に対応する周中心窩領域(傍中心窩を囲む網膜の一部)を決定
し得る。
システム110は、画像内の異なる画像領域に異なる組のパラメータを適用することに
よって画像をレンダリングおよび/または符号化する(406)。画像がスクリーン全体
に表示される実施形態では、画像領域はスクリーン領域と同一の広がりを持つ。画像がス
クリーンの一部に表示される実施形態では、システム110は、画像が表示されるスクリ
ーンの一部にスクリーン領域をトリミングすることによって画像領域の境界を決定する。
ディスプレイシステム110は、画像をスクリーン上に表示されるようにディスプレイデ
バイス105に送信する(408)。
図5A~図5Cは、異なる画像領域に異なる組のパラメータを適用することによって画
像をレンダリングして符号化するためのプロセスの様々な実施形態を示す。例えば、図4
を参照して説明したレンダリング/符号化ステップ406として、図5A~図5Cに示す
1つまたは複数のプロセスを実行することができる。一実施形態では、図5A~図5Cに
示す各プロセスは、画像処理エンジン165によって実行される。
最初に図5Aを参照すると、一実施形態による、異なる組のレンダリングパラメータを
用いて画像の異なる部分をレンダリングするためのプロセスを示すブロック図が示されて
いる。ディスプレイシステム110は、第1の組のレンダリングパラメータに基づいて第
1の画像領域をレンダリングする(502)。ディスプレイシステム110はまた、第2
の組のレンダリングパラメータに基づいて第2の画像領域をレンダリングする。例えば、
第1の画像領域は、中心窩によって見られる画像の一部に対応する中心窩領域であり得、
第2の画像領域は、中心窩の外側の網膜の部分によって見られる画像の一部に対応する外
側領域であり得る。
本明細書で言及されるように、一組のレンダリングパラメータは、画像をレンダリング
するためにディスプレイシステム110上で実行されるレンダリングプロセスの処理に影
響を与える1つまたは複数の係数を指定する。レンダリングパラメータの例は、画像解像
度、フレームレート、アンチエイリアシング設定、またはテクスチャ品質を含み得る。レ
ンダリングパラメータの一部またはすべては、レンダリングプロセスがより多くのコンピ
ューティングリソースを消費することを犠牲にしてより高い画質を達成するか、またはよ
り少ないコンピューティングリソースでレンダリングプロセスを実行することを許容して
低品質を達成するように調整され得る。一実施形態では、第2の組のレンダリングパラメ
ータは、第1の組のレンダリングパラメータよりも低い画質をもたらす。
画像がレンダリングされた後、ディスプレイシステム110はレンダリングされた画像
を符号化する(506)。図5Aに示す実施形態では、画像全体が単一の組の符号化パラ
メータに基づいて符号化される(506)。しかしながら、図5B~図5Cに示す実施形
態などの他の実施形態では、ディスプレイシステム110は、異なる組の符号化パラメー
タに基づいて異なる領域のレンダリングされた画像を符号化する(506)。
図5Aには示されていないが、ディスプレイシステム110はまた、第3の組のレンダ
リングパラメータに基づいて第3の画像領域をレンダリングし得る。一実施形態では、第
3の画像領域は、傍中心窩によって見られる画像の一部に対応する傍中心窩領域であり得
る(この場合、外側領域は、中心窩および傍中心窩の両方の外側の網膜の部分によって見
られる画像の一部に対応し得る)。この実施形態では、第3の組のレンダリングパラメー
タは、中間レベルの画質(すなわち、第1の組のレンダリングパラメータよりも低い画質
、および第2の組のレンダリングパラメータよりも高い画質)をもたらす。
より広くは、ディスプレイシステム110は、画質レベルを低下させるために提供する
異なる組のレンダリングパラメータで中心窩領域、傍中心窩領域、および外側領域(上記
の説明では、それぞれ第1の領域、第3の領域、および第2の領域と呼ばれる)をレンダ
リングすることができる。画像の質に対する眼の感度は、中心窩からの距離と共に減少す
るので、傍中心窩領域における中間の画像品質および外側領域におけるより低い画像品質
は、多くのユーザには感知できない。しかしながら、傍中心窩および外側領域に対する低
品質のレンダリングパラメータの使用により、より少ないコンピューティングリソースで
画像のレンダリング処理を実行することが可能となり、それはレンダリング処理がより少
ない時間で完了し、かつ/またはより少ない電力を消費することを有利に可能にする。従
って、異なる組のレンダリングパラメータを用いて異なる画像領域をレンダリングするこ
のプロセスによって、ディスプレイシステム110が、十分に高い画像品質とコンピュー
ティングリソースのより少ない使用との間のバランスをとるレンダリングプロセスを実行
することが可能となる。
いくつかの実施形態では、レンダリングされている画像は、アプリケーション(例えば
、ゲーム)によって生成されたシーンを描写し、かつシーン内の様々な位置における複数
のオブジェクトを含む。一実施形態では、オブジェクトの一部が対応する領域内に現れる
かどうかに基づいて、一組のレンダリングパラメータをシーン内のオブジェクトに適用す
ることができる。例えば、ユーザがオブジェクトを見ており、そのオブジェクトの一部が
中心窩領域の外側に広がっている場合、ディスプレイシステム110は、ユーザがオブジ
ェクトのいくつかの部分における品質の変化を知覚しないように、第1の組のレンダリン
グパラメータでオブジェクト全体をレンダリングすることができる。
いくつかの実施形態では、シーン内の1つまたは複数のオブジェクトは、オブジェクト
とユーザとの間の距離を表す深度値を有する。シーン内の各オブジェクトの深度値は、シ
ーンを生成するアプリケーションによって決定され得る。例えば、ゲームアプリケーショ
ンによって生成されたシーン内のオブジェクトの深度値は、シーン内のゲームオブジェク
トの位置とプレーヤの視点の位置との間の距離を表し得る。
これらの実施形態では、ディスプレイシステム110は、オブジェクトの深度に少なく
とも部分的に基づいて、オブジェクトに適用するための一組のレンダリングパラメータを
選択し得る。一実施形態では、ユーザが近距離に位置するオブジェクトを見ている場合(
例えば、注視点が第1の閾値より低い深度値を有するオブジェクト上に位置している場合
)、ディスプレイシステム110は、背景オブジェクトが中心窩領域または傍中心窩領域
内に存在する場合であっても、背景内に位置するオブジェクト(例えば、第2の閾値より
高い深度値を有するオブジェクト)に対してより低品質の組のレンダリングパラメータを
適用する。
別の実施形態では、2つの注視ベクトルがユーザの2つの眼に対して別々に決定され、
ディスプレイシステム110は2つの注視ベクトルの輻輳に基づいてユーザの焦点深度を
決定する。この実施形態では、ディスプレイシステム110は、焦点深度とシーン内のオ
ブジェクトの深度値との間の深度の差(以下、深度差と呼ぶ)を決定し、システム110
は、それらのオブジェクトが中心窩領域または傍中心窩領域に存在する場合であっても、
深度の差が閾値を超えるオブジェクトに対してより低品質の組のレンダリングパラメータ
を適用する。
いくつかの実施形態では、ディスプレイシステム110は、共に一連のフレームを構成
する複数の画像についてレンダリングプロセスを実行する。例えば、画像は、ビデオのフ
レームまたはゲームアプリケーションのフレームであり得る。これらの実施形態では、デ
ィスプレイシステム110は、異なるフレームレートで画像の異なる領域をレンダリング
する。一実施形態では、ディスプレイシステム110は、1フレームごとに中心窩領域を
レンダリングし、1フレームおきに外側領域をレンダリングする。いくつかの実施形態で
は、ディスプレイシステム110は、所与のフレームについてレンダリングされていない
領域を補正するために時間的アンチエイリアシングを適用する。
別の実施形態では、ディスプレイシステム110は、シーンの内容に基づいてフレーム
内の画像領域がレンダリングされる頻度を決定する。例えば、画像領域が連続フレーム間
である程度静的に維持しているオブジェクトを含む場合(例えば、背景における雲)、そ
の画像領域は、移動するオブジェクトを含む画像領域よりも低い頻度でレンダリングされ
得る。
図5Bは、一実施形態による、異なる組の符号化パラメータを用いて画像の異なる部分
を符号化するためのプロセスを示すブロック図である。レンダリングされた画像がディス
プレイシステム110に提供される(512)。様々な実施形態において、ディスプレイ
システム110の記憶媒体に記憶されたレンダリングされた画像(例えば、画像ファイル
またはビデオファイル)、または、入力インタフェース140を介してディスプレイシス
テム110で受信されたレンダリングされた画像(例えば、YOUTUBE(登録商標)
などのストリーミングサービスからのビデオストリーム)は、ディスプレイシステム11
0上でレンダリングされ得る(例えば、ディスプレイシステム上で実行されるゲームアプ
リケーションまたは他のアプリケーションの一部として)。
レンダリングされた画像が提供された(512)後、ディスプレイシステム110は、
第1の組の符号化パラメータに基づいて第1の画像領域を符号化する(514)。ディス
プレイシステム110はまた、第2の組の符号化パラメータに基づいて第2の画像領域を
符号化する(516)。例えば、第1の画像領域は、中心窩によって見られる画像の一部
に対応する中心窩領域であり得、第2の画像領域は、中心窩の外側の網膜の部分によって
見られる画像の一部に対応する外側領域であり得る。
本明細書で言及されるように、一組の符号化パラメータは、画像をレンダリングするた
めにディスプレイシステム110上で実行される符号化プロセスの処理に影響を与える1
つまたは複数の係数を指定する。符号化パラメータの例には、画像解像度、フレームレー
ト、および変換符号化用に使用される変換の種類などの圧縮係数、量子化レベルの数およ
び範囲、クロマサブサンプリング、および色域圧縮が含まれ得る。上述したレンダリング
パラメータと同様に、符号化パラメータの一部またはすべては、符号化プロセスがより多
くのコンピューティングリソースを消費することを犠牲にしてより高い画質を達成するか
、またはより少ないコンピューティングリソースで符号化プロセスを実行することを許容
して低品質を達成するように調整され得る。さらに、より高品質の組の符号化パラメータ
はより大きなファイルサイズを有する符号化画像ファイルをもたらし、より低品質の組の
符号化パラメータはより小さいファイルサイズを有する符号化画像ファイルをもたらし得
る。一実施形態では、第2の組のレンダリングパラメータは、第1の組のレンダリングパ
ラメータよりも低い画質および小さいファイルサイズをもたらす。
図5Bには示されていないが、ディスプレイシステム110はまた、第3の組の符号化
パラメータに基づいて第3の画像領域を符号化し得る。一実施形態では、第3の画像領域
は、傍中心窩によって見られる画像の一部に対応する傍中心窩領域であり得る(この場合
、外側領域は、中心窩および傍中心窩の両方の外側の網膜の部分によって見られる画像の
一部に対応し得る)。この実施形態では、第3の組のレンダリングパラメータは、中間レ
ベルの画質(すなわち、第1の組の符号化パラメータよりも低い画質、および第2の組の
符号化パラメータよりも高い画質)をもたらす。
要するに、画像を符号化するためのこのプロセスを実行するディスプレイシステム11
0は、中心窩領域にはより高品質の符号化パラメータを適用し、傍中心窩領域には中間品
質の符号化パラメータを適用し、外側領域にはより低品質の符号化パラメータを適用する
ことができる。上記のように、画像の質に対する眼の感度は、中心窩からの距離と共に減
少する。従って、傍中心窩領域における中間品質および外側領域におけるより低い品質は
、画像の全体的な画像品質に対するユーザの知覚に悪影響を与える可能性が低い。しかし
ながら、傍中心窩および外側領域における中間品質および低品質の符号化パラメータの使
用により、より少ないコンピューティングリソースで符号化プロセスを実行することが可
能となり、したがって、符号化プロセスをより短い時間で完了することができ、かつ/ま
たはより少ない電力を消費することができる。さらに、傍中心窩および外側領域における
中間品質および低品質の符号化パラメータの使用により、より小さいファイルサイズを有
する符号化画像をもたらし、これは、画像をディスプレイデバイス105に送信するとき
に使用される帯域幅の量を有利に低減する。
図5Cは、一実施形態による、異なる組のパラメータを用いて画像の異なる部分をレン
ダリングおよび符号化するためのプロセスを示すブロック図である。ディスプレイシステ
ム110は、第1の組のレンダリングパラメータに基づいて第1の画像領域をレンダリン
グし(522)、第2の組のレンダリングパラメータに基づいて第2の画像領域をレンダ
リングする(524)。画像をレンダリングした後、ディスプレイシステム110は、第
1の組の符号化パラメータに基づいて第1の画像領域を符号化し(526)、第2の組の
符号化パラメータに基づいて第2の画像領域を符号化する(528)。
一実施形態では、レンダリングステップ522、524に使用される画像領域は、符号
化ステップ526、528に使用される画像領域と同じである。換言すれば、第1の組の
符号化パラメータは、第1の組のレンダリングパラメータでレンダリングされた画像領域
に適用され、第2の組の符号化パラメータは、第2の組のレンダリングパラメータでレン
ダリングされた画像領域に適用される。他の実施形態では、レンダリングステップ522
、524に使用される画像領域は、符号化ステップ526、528に使用される画像領域
とは異なる。例えば、レンダリングステップ522、524に使用される画像領域は円形
であり、(図6Aおよび図6Bを参照して以下に説明される例に示されるように)符号化
ステップ526、528に使用される画像領域は正方形である。
図6Aは、一実施形態による、異なる組の符号化パラメータを用いて画像の異なる領域
を符号化し、次いで画像の画像領域を単一のフレームにパッキングするためのプロセスの
一例を示す。ディスプレイシステム110は、中心窩領域602、傍中心窩領域604、
および外側領域606に分割された画像601を符号化する。ディスプレイシステム11
0は、第1の組の符号化パラメータに基づいて中心窩領域602を符号化し、第2の組の
レンダリングパラメータに基づいて傍中心窩領域604を符号化し、第3の組のレンダリ
ングパラメータに基づいて外側領域を符号化する。図6Aに示される例では、3つの組の
符号化パラメータは異なる解像度を指定する。特に、第1の組の符号化パラメータは第1
の比較的高い解像度を指定し、第2の組の符号化パラメータはより低い解像度(例えば、
第1の解像度の半分)を指定し、第3の組の符号化パラメータはさらに低い解像度(例え
ば、第1の解像度の4分の1)を指定する。
この符号化プロセスは、3つの符号化画像領域、すなわち符号化中心窩領域612、符
号化傍中心窩領域614、および符号化外側領域616を生成する。ディスプレイシステ
ム110は、符号化画像領域をまとめて1つのパッキングされた画像622にパッキング
するパッキング処理を行い、パッキングされた画像622をディスプレイデバイス105
に送信する。パッキングされた画像622を受信した後、ディスプレイデバイス105は
、画像をスクリーン上に表示するために各符号化画像領域をアップスケーリングし合成す
ることによって画像601をアンパッキングして再構成する。このようにして符号化画像
領域をパッキングすることは、例えば、結果として生じるパッキングされた画像622が
特定の解像度の画像よりもかなり少ない画素を含むので有利である。例えば、画像601
が1920×1080画素の解像度を有する場合、パッキングされた画像622は、元の
1920×1080の画像の200万画素に対して38万画素を含み、これは各画像を送
信するために使用される帯域幅および時間を著しく減少させる。
図6Bは、一実施形態による一連の画像を符号化してパッキングする一例を示す。図6
Bに示す例では、一連の画像は一連のフレームを構成し(例えば、ビデオまたはゲームア
プリケーションにおいて)、各組の符号化パラメータは異なる周波数(即ち、異なるフレ
ームレート)を指定する。より具体的には、中心窩領域652は、第1の周波数(例えば
、120Hz)で符号化され送信され、傍中心窩領域654は、第1の周波数より低い第
2の周波数(例えば、80Hz)で符号化され送信され、外側領域656は、第1および
第2の周波数より低い第3の周波数(例えば、40Hz)で符号化され送信される。
各フレームについて、ディスプレイシステム110は画像領域を符号化してパッキング
されたフレームにパッキングし、パッキングされたフレームは次にディスプレイデバイス
105に送信される。フレームにすべての領域が含まれていない場合(例えば、フレーム
n+1 660B、フレームn+2 660C、およびフレームn+4 660E)、デ
ィスプレイシステム110は、各画像領域に関して利用可能な最新のフレームを使用する
ことによって次のフレームを生成する。いくつかの実施形態では、ミスアライメントを補
正するために後処理技術が適用される。
図6Bは、フレームn 660Aからフレームn+4 660Eまでの5個のフレーム
のシーケンスを示す。フレームnは、中心窩領域652A、傍中心窩領域654A、およ
び外側領域656Aを含む。フレームn+1 660Bでは、中心窩領域652Bおよび
傍中心窩領域654Bは含まれているが、外側領域は含まれていないので、ディスプレイ
デバイス105に送信されるデータ量は減少する。フレームn+2は、新たに符号化され
た中心窩領域652Cを含んでいるが、傍中心窩領域および外側領域を含まないため、デ
ータ量はさらに減少する。次に、シーケンスはフレームn+3 660Dおよびフレーム
n+4 660Eで同じように繰り返される。そうすることで、ユーザの眼が最も敏感で
ある画像領域(即ち、中心窩領域652)が符号化され、各連続するフレームと共に新た
に送信される。ユーザの眼がそれほど敏感ではない画像領域(即ち、傍中心窩領域654
)は、符号化され、3個のフレームのうちの2個のフレームごとに新たに送信される。そ
して、ユーザの眼の感度がさらに低い画像領域(即ち、外側領域)は、3個のフレームご
とに1回符号化されて新たに送信される。これにより、伝達されるデータ量、ひいては各
フレームの送信に必要な帯域幅と時間が大幅に削減される。
いくつかの実施形態において、ディスプレイシステム110は、所与のフレームについ
て符号化されずにディスプレイデバイス105に送信される領域をレンダリングしない。
いくつかの実施形態では、ディスプレイシステム110は、シーン内のアクティビティに
基づいてどの領域をレンダリングすべきかを決定する。例えば、オブジェクトが画像領域
内で静止を維持している場合、その画像領域のレンダリング頻度は、動いているオブジェ
クトが存在するときよりも低くなり得る。
追加の構成情報
本開示の実施形態の上述の説明は、例示を目的として提示されており、これは網羅的で
あることを意図するか、または開示された正確な形態への開示を制限することを意図した
ものではない。当業者であれば、上記の開示を参照して多くの改良及び変形が可能である
ことを理解することができる。
この説明の一部は、開示の実施形態が情報に対する演算のアルゴリズムおよび記号表現
によって記載されている。これらのアルゴリズムの説明や表現は、データ処理技術の当業
者によって、作業の内容を他の当業者に効果的に伝達するために一般的に用いられている
。これらの演算は、機能的、計算的、または論理的に説明されているが、コンピュータプ
ログラムまたはこれと同等の電気回路、マイクロコードなどによって実施されることが理
解される。さらに、これらの演算の配置をモジュールとして参照することは、一般性を失
うことなく、時には便利であることも証明されている。説明されている演算およびそれら
の関連するモジュールは、ソフトウェア、ファームウェア、ハードウェア、またはこれら
の任意の組合せにより具現化され得る。
本明細書に記載されているステップ、演算又はプロセスのいずれかは、1つまたは複数
のハードウェアモジュール又はソフトウェアモジュールで、単独又は他のデバイスと組み
合わせて実行又は実施され得る。一実施形態では、ソフトウェアモジュールは、本明細書
に記載されているステップ、演算、又はプロセスのいずれか又は全てを実行するためにコ
ンピュータプロセッサによって実行可能なコンピュータプログラムコードを含むコンピュ
ータ可読媒体を含むコンピュータプログラム製品を用いて実施される。
開示の実施形態は、本明細書における演算を実行するための装置にも関連し得る。この
装置は、必要な目的のために特別に構成され得、かつ/またはコンピュータに格納された
コンピュータプログラムによって選択的に活性化または再構成される汎用コンピューティ
ングデバイスを含み得る。そのようなコンピュータプログラムは、コンピュータシステム
バスに結合され得る、非一時的な有形のコンピュータ可読記憶媒体、または電子命令を格
納するのに好適な任意のタイプの媒体に格納され得る。さらに、本明細書中で言及される
任意のコンピューティングシステムは、単一のプロセッサを含み得るか、またはコンピュ
ーティング能力を高めるために複数のプロセッサ設計を使用したアーキテクチャであり得
る。
本開示の実施形態は、本明細書に記載されるコンピューティングプロセスによって生成
される製品にも関連し得る。そのような製品は、コンピュータプロセスによって生成され
る情報を含み得、ここで、情報は、非一時的な有形のコンピュータ可読媒体上に格納され
、コンピュータプログラム製品、または本明細書に記載されている他のデータの組み合せ
の任意の実施形態を含み得る。
最後に、本明細書で使用されている文言は、原則として読みやすさ及び教示の目的のた
めに主に選択されており、本発明の主題を限定し、または制限するために選択されていな
い。したがって、本開示の範囲は、この詳細な説明によって制限されるものではなく、本
明細書に基づいて出願に関して発行される任意の請求項によって限定されるものであるこ
とが意図される。従って、実施形態の開示は、以下の特許請求の範囲に記載されている本
開示の範囲を限定するものではなく、例示することが意図されている。

Claims (20)

  1. 方法であって、
    ディスプレイデバイスのスクリーンについて複数のスクリーン領域を決定すること、ここで前記複数のスクリーン領域は、第2のスクリーン領域とは別個の第1のスクリーン領域を含み、前記第1のスクリーン領域は、ユーザの注視点を含み、前記第2のスクリーン領域は、前記第1のスクリーン領域を取り囲むものであり、
    前記スクリーンに表示すべき前記第1のスクリーン領域に対応する画像の一部を、第1の組の符号化パラメータにより符号化すること、ここで前記画像の一部は、オブジェクトを含むものであり、
    前記第2のスクリーン領域に対応する画像の別の一部を、第2の組の符号化パラメータにより符号化すること、ここで前記第2の組の符号化パラメータは、前記第1の組の符号化パラメータよりも低い品質をもたらすものであり、
    2つの注視ベクトル(ユーザの各目に対応する1つの注視ベクトル)の輻輳に部分的に基づいて、ユーザの視線の輻輳位置を決定すること、
    前記画像における前記オブジェクトの深度を決定すること、
    前記ユーザの視線の輻輳位置と前記オブジェクトの深度との間の差を決定すること、
    当該オブジェクトについて前記深度の差が閾値を超える場合、前記オブジェクトに対してより低品質の組のレンダリングパラメータを適応することにより、前記差に部分的に基づいて、前記第2の組の符号化パラメータにより、前記オブジェクトを符号化すること、及び
    符号化された画像を前記スクリーンに表示されるように前記ディスプレイデバイスに送信すること
    を含む、方法。
  2. 前記第1のスクリーン領域は、前記注視点を中心とする円であり、前記第2のスクリーン領域は、前記注視点を中心とする環帯である、請求項1に記載の方法。
  3. 前記第1のスクリーン領域のサイズ及び前記第2のスクリーン領域のサイズは、前記第1のスクリーン領域の半径及び前記環帯の外周の半径を含む1つ又は複数のパラメータに基づいており、前記外周は、前記第2のスクリーン領域の外縁に対応する、請求項2に記載の方法。
  4. 前記第1のスクリーン領域は、第1の円錐と前記ディスプレイデバイスのスクリーンとの交点に基づいて決定され、前記第2のスクリーン領域は、第2の円錐と前記ディスプレイデバイスのスクリーンとの交点に基づいて決定される、請求項1に記載の方法。
  5. 前記第1のスクリーン領域のサイズ及び前記第2のスクリーン領域のサイズは、
    前記第1の円錐の第1の角度、ここで前記第1の円錐の錐面は、前記第1の角度だけ軸からずれており、及び
    前記第2の円錐の第2の角度、ここで前記第2の円錐の錐面は、前記第2の角度だけ軸からずれており、
    を含む1つ又は複数のパラメータに基づいている、請求項4に記載の方法。
  6. 前記ユーザの眼球特性に基づき、前記ユーザの各目に対応する注視ベクトルを決定することをさらに含み、前記第1の円錐の軸は、前記ユーザの片方の目について決定された注視ベクトルにより規定され、前記第2の円錐の軸は、前記ユーザのもう片方の目について決定された注視ベクトルにより規定される、請求項4に記載の方法。
  7. 前記第1のスクリーン領域は、前記注視点を中心とした矩形であり、前記第2のスクリーン領域の形状は、前記注視点を中心とした外部矩形により規定され、前記第1のスクリーン領域のサイズ及び前記第2のスクリーン領域のサイズは、前記第1のスクリーン領域の長さ、及び前記第2のスクリーン領域の形状を規定する前記外部矩形の側部長さを含む1つ又は複数のパラメータに基づいている、請求項1に記載の方法。
  8. 前記第1のスクリーン領域の側部はそれぞれ、長さが同じであり、前記外部矩形の側部はそれぞれ、長さが同じである、請求項7に記載の方法。
  9. 1つ又は複数の追加スクリーン領域を決定すること、ここで前記1つ又は複数の追加スクリーン領域は、前記第1のスクリーン領域と前記第2のスクリーン領域との間でよりスムーズな移行をもたらすように構成されている、及び
    眼球特性におけるノイズ及び眼球特性の推定精度のうち少なくとも1つに基づき、前記第1のスクリーン領域、前記第2のスクリーン領域、及び前記1つ又は複数の追加スクリーン領域のサイズを更新すること、
    をさらに含む、請求項1に記載の方法。
  10. 凝視点間の急速眼球運動を検知したことに応答して、前記第1のスクリーン領域、前記第2のスクリーン領域、及び前記1つ又は複数の追加スクリーン領域のサイズをそれぞれ、増大させること、及び
    前記急速眼球運動の検知後、凝視が安定していることを検知したことに応答して、前記第1のスクリーン領域、前記第2のスクリーン領域、及び前記1つ又は複数の追加スクリーン領域のサイズをそれぞれ、減少させること
    をさらに含む、請求項9に記載の方法。
  11. 前記第1のスクリーン領域は、前記ユーザの眼の中心窩によって見られる前記スクリーンの領域に対応し、前記第2のスクリーン領域は、前記ユーザの眼の傍中心窩によって見られる前記スクリーンの領域に対応する、請求項1に記載の方法。
  12. 前記第1の組の符号化パラメータは、第1の画像解像度を含み、前記第2の組の符号化パラメータは、第2の画像解像度を含み、前記第1の画像解像度は、前記第2の画像解像度よりも高い、請求項1に記載の方法。
  13. 前記第1の組の符号化パラメータは、第1のフレームレートを含み、前記第2の組の符号化パラメータは、第2のフレームレートを含み、前記第1のフレームレートは、前記第2のフレームレートよりも高い、請求項1に記載の方法。
  14. 命令を格納する非一時的コンピュータ可読記憶媒体であって、前記命令は、1つまたは複数のプロセッサによって実行されたときに、前記1つまたは複数のプロセッサに、
    ディスプレイデバイスのスクリーンについて複数のスクリーン領域を決定すること、ここで前記複数のスクリーン領域は、第2のスクリーン領域とは別個の第1のスクリーン領域を含み、前記第1のスクリーン領域は、ユーザの注視点を含み、前記第2のスクリーン領域は、前記第1のスクリーン領域を取り囲むものであり、
    前記スクリーンに表示すべき前記第1のスクリーン領域に対応する画像の一部を、第1の組の符号化パラメータにより符号化すること、ここで前記画像の一部は、オブジェクトを含むものであり、
    前記第2のスクリーン領域に対応する画像の別の一部を、第2の組の符号化パラメータにより符号化すること、ここで前記第2の組の符号化パラメータは、前記第1の組の符号化パラメータよりも低い品質をもたらすものであり、
    2つの注視ベクトル(ユーザの各目に対応する1つの注視ベクトル)の輻輳に部分的に基づいて、ユーザの視線の輻輳位置を決定すること、
    前記画像における前記オブジェクトの深度を決定すること、
    前記ユーザの視線の輻輳位置と前記オブジェクトの深度との間の差を決定すること、
    当該オブジェクトについて前記深度の差が閾値を超える場合、前記オブジェクトに対してより低品質の組のレンダリングパラメータを適応することにより、前記差に部分的に基づいて、前記第2の組の符号化パラメータにより、前記オブジェクトを符号化すること、及び
    符号化された画像を前記スクリーンに表示されるように前記ディスプレイデバイスに送信すること
    を含む処理を実行させる、非一時的コンピュータ可読記憶媒体。
  15. 前記第1のスクリーン領域は、前記ユーザの眼の中心窩によって見られる前記スクリーンの領域に対応し、前記第2のスクリーン領域は、前記ユーザの眼の傍中心窩によって見られる前記スクリーンの領域に対応する、請求項14に記載の非一時的コンピュータ可読記憶媒体。
  16. 前記第1の組の符号化パラメータは、第1の画像解像度を含み、前記第2の組の符号化パラメータは、第2の画像解像度を含み、前記第1の画像解像度は、前記第2の画像解像度よりも高い、請求項14に記載の非一時的コンピュータ可読記憶媒体。
  17. 前記第1の組の符号化パラメータは、第1のフレームレートを含み、前記第2の組の符号化パラメータは、第2のフレームレートを含み、前記第1のフレームレートは、前記第2のフレームレートよりも高い、請求項14に記載の非一時的コンピュータ可読記憶媒体。
  18. 前記第1のスクリーン領域は、前記注視点を中心とする円であり、前記第2のスクリーン領域は、前記注視点を中心とする環帯である、請求項14に記載のコンピュータ可読記憶媒体。
  19. 前記第1のスクリーン領域は、第1の円錐と前記ディスプレイデバイスのスクリーンとの交点に基づいて決定され、前記第2のスクリーン領域は、第2の円錐と前記ディスプレイデバイスのスクリーンとの交点に基づいて決定される、請求項14に記載のコンピュータ可読記憶媒体。
  20. システムであって、
    1つまたは複数のプロセッサと、
    命令を格納する非一時的コンピュータ可読記憶媒体であって、前記命令は、1つまたは複数のプロセッサによって実行されたときに、前記1つまたは複数のプロセッサに、
    ディスプレイデバイスのスクリーンについて複数のスクリーン領域を決定すること、ここで前記複数のスクリーン領域は、第2のスクリーン領域とは別個の第1のスクリーン領域を含み、前記第1のスクリーン領域は、ユーザの注視点を含み、前記第2のスクリーン領域は、前記第1のスクリーン領域を取り囲むものであり、
    前記スクリーンに表示すべき前記第1のスクリーン領域に対応する画像の一部を、第1の組の符号化パラメータにより符号化すること、ここで前記画像の一部は、オブジェクトを含むものであり、
    前記第2のスクリーン領域に対応する画像の別の一部を、第2の組の符号化パラメータにより符号化すること、ここで前記第2の組の符号化パラメータは、前記第1の組の符号化パラメータよりも低い品質をもたらすものであり、
    2つの注視ベクトル(ユーザの各目に対応する1つの注視ベクトル)の輻輳に部分的に基づいて、ユーザの視線の輻輳位置を決定すること、
    前記画像における前記オブジェクトの深度を決定すること、
    前記ユーザの視線の輻輳位置と前記オブジェクトの深度との間の差を決定すること、
    当該オブジェクトについて前記深度の差が閾値を超える場合、前記オブジェクトに対してより低品質の組のレンダリングパラメータを適応することにより、前記差に部分的に基づいて、前記第2の組の符号化パラメータにより、前記オブジェクトを符号化すること、及び
    符号化された画像を前記スクリーンに表示されるように前記ディスプレイデバイスに送信すること
    を含む処理を実行させる、前記非一時的コンピュータ可読記憶媒体と
    を備えるシステム。
JP2021082166A 2016-08-01 2021-05-14 視線追跡情報に基づく画像領域内の適応パラメータ Active JP7177213B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201662369336P 2016-08-01 2016-08-01
US62/369,336 2016-08-01
US15/662,582 US10373592B2 (en) 2016-08-01 2017-07-28 Adaptive parameters in image regions based on eye tracking information
US15/662,582 2017-07-28
JP2019505144A JP6886510B2 (ja) 2016-08-01 2017-07-31 視線追跡情報に基づく画像領域内の適応パラメータ

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019505144A Division JP6886510B2 (ja) 2016-08-01 2017-07-31 視線追跡情報に基づく画像領域内の適応パラメータ

Publications (2)

Publication Number Publication Date
JP2021144227A JP2021144227A (ja) 2021-09-24
JP7177213B2 true JP7177213B2 (ja) 2022-11-22

Family

ID=61010531

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019505144A Active JP6886510B2 (ja) 2016-08-01 2017-07-31 視線追跡情報に基づく画像領域内の適応パラメータ
JP2021082166A Active JP7177213B2 (ja) 2016-08-01 2021-05-14 視線追跡情報に基づく画像領域内の適応パラメータ

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019505144A Active JP6886510B2 (ja) 2016-08-01 2017-07-31 視線追跡情報に基づく画像領域内の適応パラメータ

Country Status (6)

Country Link
US (2) US10373592B2 (ja)
EP (2) EP4180920A1 (ja)
JP (2) JP6886510B2 (ja)
KR (2) KR102543341B1 (ja)
CN (1) CN109791605B (ja)
WO (1) WO2018026730A1 (ja)

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11284109B2 (en) * 2016-01-29 2022-03-22 Cable Television Laboratories, Inc. Visual coding for sensitivities to light, color and spatial resolution in human visual system
US10115205B2 (en) * 2016-03-11 2018-10-30 Facebook Technologies, Llc Eye tracking system with single point calibration
CN108780223B (zh) * 2016-03-11 2019-12-20 脸谱科技有限责任公司 用于生成眼睛模型的角膜球跟踪
US10373592B2 (en) * 2016-08-01 2019-08-06 Facebook Technologies, Llc Adaptive parameters in image regions based on eye tracking information
KR20180025524A (ko) * 2016-08-31 2018-03-09 엘지디스플레이 주식회사 개인 몰입형 표시장치 및 이의 구동방법
JP2020513253A (ja) * 2016-11-10 2020-05-14 ニューロトラック テクノロジーズ,インク. 認識能力の分析のために、画像取得デバイスを人間のユーザーに関連付けるための方法およびシステム
CN107168668A (zh) * 2017-04-28 2017-09-15 北京七鑫易维信息技术有限公司 图像数据传输方法、装置以及存储介质、处理器
TWI646466B (zh) * 2017-08-09 2019-01-01 宏碁股份有限公司 視覺範圍映射方法及相關眼球追蹤裝置與系統
US10946745B2 (en) * 2017-08-30 2021-03-16 Texas Instruments Incorporated GPU-less instrument cluster system with full asset sweep
EP3468187A1 (en) * 2017-10-03 2019-04-10 Axis AB Method and system for encoding video streams
GB2568261B (en) 2017-11-08 2022-01-26 Displaylink Uk Ltd System and method for presenting data at variable quality
US10627899B2 (en) * 2018-02-09 2020-04-21 Microsoft Technology Licensing, Llc Eye tracking system for use in a visible light display device
US10551914B2 (en) * 2018-02-09 2020-02-04 Microsoft Technology Licensing, Llc Efficient MEMs-based eye tracking system with a silicon photomultiplier sensor
US10694170B2 (en) * 2018-03-05 2020-06-23 Valve Corporation Controlling image display via real-time compression in peripheral image regions
US11194389B2 (en) 2018-06-21 2021-12-07 Qualcomm Incorporated Foveated rendering of graphics content using a rendering command and subsequently received eye position data
CN108833976B (zh) * 2018-06-27 2020-01-24 深圳看到科技有限公司 一种全景视频动态切流后的画面质量评估方法及装置
WO2020141344A2 (en) * 2018-07-20 2020-07-09 Tobii Ab Distributed foveated rendering based on user gaze
CN109242943B (zh) 2018-08-21 2023-03-21 腾讯科技(深圳)有限公司 一种图像渲染方法、装置及图像处理设备、存储介质
GB2567553B (en) * 2018-09-06 2021-04-07 Sony Interactive Entertainment Inc Foveated rendering system and method
JP7256491B2 (ja) * 2018-09-13 2023-04-12 凸版印刷株式会社 映像伝送システム、映像伝送装置、および、映像伝送プログラム
US10915776B2 (en) 2018-10-05 2021-02-09 Facebook, Inc. Modifying capture of video data by an image capture device based on identifying an object of interest within capturted video data to the image capture device
CN109377503A (zh) * 2018-10-19 2019-02-22 珠海金山网络游戏科技有限公司 图像更新方法和装置、计算设备及存储介质
WO2020110121A1 (en) * 2018-11-29 2020-06-04 Blink O.G. Ltd. Systems and methods for anatomy-constrained gaze estimation
GB2583061B (en) * 2019-02-12 2023-03-15 Advanced Risc Mach Ltd Data processing systems
US10466489B1 (en) 2019-03-29 2019-11-05 Razmik Ghazaryan Methods and apparatus for a variable-resolution screen
US11284053B2 (en) 2019-03-29 2022-03-22 Razmik Ghazaryan Head-mounted display and projection screen
US10554940B1 (en) 2019-03-29 2020-02-04 Razmik Ghazaryan Method and apparatus for a variable-resolution screen
CN110602475B (zh) * 2019-05-29 2021-06-01 珠海全志科技股份有限公司 提高图像质量的方法及装置、vr显示设备及控制方法
US10976816B2 (en) 2019-06-25 2021-04-13 Microsoft Technology Licensing, Llc Using eye tracking to hide virtual reality scene changes in plain sight
CN110267025B (zh) * 2019-07-03 2021-04-13 京东方科技集团股份有限公司 虚拟3d显示的渲染方法、装置以及其显示方法、系统
CN110347265A (zh) * 2019-07-22 2019-10-18 北京七鑫易维科技有限公司 渲染图像的方法及装置
EP4005201A1 (en) * 2019-07-28 2022-06-01 Google LLC Methods, systems, and media for rendering immersive video content with foveated meshes
US11100899B2 (en) * 2019-08-13 2021-08-24 Facebook Technologies, Llc Systems and methods for foveated rendering
US11106039B2 (en) 2019-08-26 2021-08-31 Ati Technologies Ulc Single-stream foveal display transport
ES2809648A1 (es) * 2019-09-04 2021-03-04 Alias Antonio Jose Casado Sistema y procedimiento de optimizacion del renderizado de imagenes a partir del seguimiento de las pupilas
JP2021057770A (ja) * 2019-09-30 2021-04-08 株式会社ソニー・インタラクティブエンタテインメント 画像データ転送装置および画像圧縮方法
JP7491676B2 (ja) * 2019-09-30 2024-05-28 株式会社ソニー・インタラクティブエンタテインメント 画像データ転送装置および画像圧縮方法
JP7496677B2 (ja) 2019-09-30 2024-06-07 株式会社ソニー・インタラクティブエンタテインメント 画像データ転送装置、画像表示システム、および画像圧縮方法
US11614797B2 (en) * 2019-11-05 2023-03-28 Micron Technology, Inc. Rendering enhancement based in part on eye tracking
US20210134250A1 (en) * 2019-11-05 2021-05-06 Htc Corporation Display system
TWI827874B (zh) * 2019-11-05 2024-01-01 宏達國際電子股份有限公司 顯示系統
WO2021122902A1 (en) * 2019-12-17 2021-06-24 Tobii Ab Method and system for applying adapted colour rendering on a display
CN111142827B (zh) * 2019-12-31 2021-04-13 镁佳(北京)科技有限公司 应用显示方法及装置,存储介质及电子设备
US20210304705A1 (en) * 2020-03-27 2021-09-30 Samsung Electronics Co., Ltd. Image display apparatus and method for managing data packet loss
CN111553972B (zh) * 2020-04-27 2023-06-30 北京百度网讯科技有限公司 用于渲染增强现实数据的方法、装置、设备及存储介质
US11940630B2 (en) * 2020-05-27 2024-03-26 Sony Group Corporation Display apparatus and display method
CN113810696A (zh) * 2020-06-12 2021-12-17 华为技术有限公司 一种信息传输方法、相关设备及系统
KR102384411B1 (ko) * 2020-07-29 2022-04-06 한국항공대학교산학협력단 Vr 영상 제공 시스템 및 방법
US11297332B1 (en) 2020-10-30 2022-04-05 Capital One Services, Llc Gaze-tracking-based image downscaling for multi-party video communication
CN113177434A (zh) * 2021-03-30 2021-07-27 青岛小鸟看看科技有限公司 基于单眼球追踪的虚拟现实系统注视渲染方法、系统
US11863786B2 (en) * 2021-05-21 2024-01-02 Varjo Technologies Oy Method of transporting a framebuffer
CN115933952B (zh) * 2021-08-28 2023-11-24 荣耀终端有限公司 一种触控采样率调节方法及相关装置
CN115236871A (zh) * 2022-05-17 2022-10-25 北京邮电大学 基于人眼跟踪和双向背光的桌面式光场显示系统及方法
US20240007771A1 (en) * 2022-07-01 2024-01-04 Meta Platforms Technologies, Llc Readout methods for foveated sensing

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015510325A (ja) 2012-01-19 2015-04-02 ヴィド スケール インコーポレイテッド 観視条件への適応をサポートするビデオ配信のための方法およびシステム
JP2016510525A (ja) 2012-12-27 2016-04-07 マイクロソフト テクノロジー ライセンシング,エルエルシー ニアアイ・ディスプレイのディスプレイ更新時間の低減

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08313843A (ja) * 1995-05-16 1996-11-29 Agency Of Ind Science & Technol 視線追従方式による広視野高解像度映像提示装置
JP3263278B2 (ja) * 1995-06-19 2002-03-04 株式会社東芝 画像圧縮通信装置
US6697506B1 (en) * 1999-03-17 2004-02-24 Siemens Corporate Research, Inc. Mark-free computer-assisted diagnosis method and system for assisting diagnosis of abnormalities in digital medical images using diagnosis based image enhancement
WO2001050754A1 (de) 1999-12-30 2001-07-12 Swisscom Mobile Ag Verfahren für die übermittlung von bilddaten
US20030067476A1 (en) 2001-10-04 2003-04-10 Eastman Kodak Company Method and system for displaying an image
JP2004056335A (ja) * 2002-07-18 2004-02-19 Sony Corp 情報処理装置および方法、表示装置および方法、並びにプログラム
US8020993B1 (en) * 2006-01-30 2011-09-20 Fram Evan K Viewing verification systems
JP2009009253A (ja) 2007-06-27 2009-01-15 Renesas Technology Corp プログラム実行方法、プログラム、およびプログラム実行システム
JP2009118072A (ja) * 2007-11-05 2009-05-28 Ihi Corp 遠隔操作装置及び遠隔操作方法
EP2309307B1 (en) * 2009-10-08 2020-12-09 Tobii Technology AB Eye tracking using a GPU
KR20110136040A (ko) * 2010-06-14 2011-12-21 주식회사 비즈모델라인 사용자 시선 기반 증강현실 기능이 구비된 단말
US8902970B1 (en) 2010-12-01 2014-12-02 Amazon Technologies, Inc. Altering streaming video encoding based on user attention
US8493390B2 (en) 2010-12-08 2013-07-23 Sony Computer Entertainment America, Inc. Adaptive displays using gaze tracking
JP2012124784A (ja) * 2010-12-09 2012-06-28 Canon Marketing Japan Inc 動画再生システム
US9690099B2 (en) * 2010-12-17 2017-06-27 Microsoft Technology Licensing, Llc Optimized focal area for augmented reality displays
US8885882B1 (en) 2011-07-14 2014-11-11 The Research Foundation For The State University Of New York Real time eye tracking for human computer interaction
CA2847975A1 (en) * 2011-09-07 2013-03-14 Tandemlaunch Technologies Inc. System and method for using eye gaze information to enhance interactions
KR102001950B1 (ko) * 2012-07-26 2019-07-29 엘지이노텍 주식회사 시선 추적 장치 및 이의 시선 추적 방법
US9244529B2 (en) * 2013-01-27 2016-01-26 Dmitri Model Point-of-gaze estimation robust to head rotations and/or device rotations
US9064295B2 (en) * 2013-02-04 2015-06-23 Sony Corporation Enhanced video encoding using depth information
US9727991B2 (en) 2013-03-01 2017-08-08 Microsoft Technology Licensing, Llc Foveated image rendering
KR20230113418A (ko) * 2013-03-15 2023-07-28 매직 립, 인코포레이티드 디스플레이 시스템 및 방법
CN104427291B (zh) * 2013-08-19 2018-09-28 华为技术有限公司 一种图像处理方法及设备
JP6074122B1 (ja) * 2013-12-09 2017-02-01 ゼンソモトリック インストゥルメンツ ゲゼルシャフト ヒューア イノベイティブ ゼンソリック エムベーハーSENSOMOTORIC INSTRUMENTS Gesellschaft fur innovative Sensorik mbH 目追跡装置動作方法及び能動的電力管理を行う目追跡装置
JP6608137B2 (ja) * 2014-01-03 2019-11-20 ハーマン インターナショナル インダストリーズ インコーポレイテッド ディスプレイ上の両眼転導検出
US10264211B2 (en) 2014-03-14 2019-04-16 Comcast Cable Communications, Llc Adaptive resolution in software applications based on dynamic eye tracking
US10423222B2 (en) 2014-09-26 2019-09-24 Digilens Inc. Holographic waveguide optical tracker
US9791924B2 (en) 2014-12-23 2017-10-17 Mediatek Inc. Eye tracking with mobile device in a head-mounted display
US10210844B2 (en) * 2015-06-29 2019-02-19 Microsoft Technology Licensing, Llc Holographic near-eye display
US10475370B2 (en) * 2016-02-17 2019-11-12 Google Llc Foveally-rendered display
US10218968B2 (en) 2016-03-05 2019-02-26 Maximilian Ralph Peter von und zu Liechtenstein Gaze-contingent display technique
US10460704B2 (en) * 2016-04-01 2019-10-29 Movidius Limited Systems and methods for head-mounted display adapted to human visual mechanism
US10373592B2 (en) * 2016-08-01 2019-08-06 Facebook Technologies, Llc Adaptive parameters in image regions based on eye tracking information

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015510325A (ja) 2012-01-19 2015-04-02 ヴィド スケール インコーポレイテッド 観視条件への適応をサポートするビデオ配信のための方法およびシステム
JP2016510525A (ja) 2012-12-27 2016-04-07 マイクロソフト テクノロジー ライセンシング,エルエルシー ニアアイ・ディスプレイのディスプレイ更新時間の低減

Also Published As

Publication number Publication date
US20180033405A1 (en) 2018-02-01
KR20190026030A (ko) 2019-03-12
JP2021144227A (ja) 2021-09-24
KR102403304B1 (ko) 2022-06-02
WO2018026730A1 (en) 2018-02-08
US20190318708A1 (en) 2019-10-17
US10373592B2 (en) 2019-08-06
KR20220080000A (ko) 2022-06-14
EP4180920A1 (en) 2023-05-17
US10984756B2 (en) 2021-04-20
EP3345125A1 (en) 2018-07-11
EP3345125A4 (en) 2019-05-01
CN109791605A (zh) 2019-05-21
KR102543341B1 (ko) 2023-06-16
JP6886510B2 (ja) 2021-06-16
CN109791605B (zh) 2023-05-23
JP2019533325A (ja) 2019-11-14

Similar Documents

Publication Publication Date Title
JP7177213B2 (ja) 視線追跡情報に基づく画像領域内の適応パラメータ
US11016301B1 (en) Accommodation based optical correction
US10504207B1 (en) Rendering composite content on a head-mounted display including a high resolution inset
US10257507B1 (en) Time-of-flight depth sensing for eye tracking
US10140695B2 (en) Head-mounted compound display including a high resolution inset
US9984507B2 (en) Eye tracking for mitigating vergence and accommodation conflicts
CN108352075B (zh) 使用光流的眼睛跟踪
US10878594B1 (en) Boundary region glint tracking
US10120442B2 (en) Eye tracking using a light field camera on a head-mounted display
US10528128B1 (en) Head-mounted display devices with transparent display panels for eye tracking
US10109067B2 (en) Corneal sphere tracking for generating an eye model
KR20190004806A (ko) 헤드 마운트 디스플레이의 얼굴 센서를 사용한 얼굴과 안구 추적 및 얼굴 애니메이션
CN110554501B (zh) 头戴式显示器及用于确定佩戴其的用户的视线的方法
US10698218B1 (en) Display system with oscillating element
US10848753B1 (en) Eye-tracking system using a scanning laser assembly
US10495882B1 (en) Positioning cameras in a head mounted display to capture images of portions of a face of a user
EP4318379A1 (en) Sparse color reconstruction using deep neural networks

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210614

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210614

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221110

R150 Certificate of patent or registration of utility model

Ref document number: 7177213

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150