JP2021192508A - 視線追跡を用いたvr、低遅延、無線hmdビデオストリーミングのためのフォービエイテッドビデオリンク - Google Patents

視線追跡を用いたvr、低遅延、無線hmdビデオストリーミングのためのフォービエイテッドビデオリンク Download PDF

Info

Publication number
JP2021192508A
JP2021192508A JP2021119756A JP2021119756A JP2021192508A JP 2021192508 A JP2021192508 A JP 2021192508A JP 2021119756 A JP2021119756 A JP 2021119756A JP 2021119756 A JP2021119756 A JP 2021119756A JP 2021192508 A JP2021192508 A JP 2021192508A
Authority
JP
Japan
Prior art keywords
video frame
video
interest
data
regions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021119756A
Other languages
English (en)
Other versions
JP7244584B2 (ja
Inventor
リー、ファン−ジュ
Hung-Ju Lee
ワン、ジェイソン
Wang Jason
クリシュナン、ラティシュ
Krishnan Rathish
アーヤ、ディーパリ
Arya Deepali
チェン、エリック
Chen Eric
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment LLC
Original Assignee
Sony Interactive Entertainment LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment LLC filed Critical Sony Interactive Entertainment LLC
Publication of JP2021192508A publication Critical patent/JP2021192508A/ja
Application granted granted Critical
Publication of JP7244584B2 publication Critical patent/JP7244584B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/403Edge-driven scaling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Abstract

【課題】画像の関心領域の必須の詳細を保持しながら、送信帯域要件と、高解像度ビデオ処理の計算負荷を低減できる方法、システム及びコンピュータ可読媒体を提供する。【解決手段】視線追跡データを分析して、ビデオストリームの画像内の1つまたは複数の関心領域を決定するシステム400であって、関心領域内のセクションが高解像度を維持し、関心領域内でないエリアをダウンスケーリングして送信の帯域幅コストを低減するように、ビデオストリームデータを選択的にスケーリングするダウンスケーラ405を有し、高解像度エリアのサイズを低減することによる映像酔い低減も可能とする。【選択図】図4

Description

[優先権の主張]
本出願は、2016年12月29日に出願された米国仮特許出願番号第62/440,198号の優先権を主張し、参照により、その内容全体を本明細書に組み込む。
本開示の態様は、ビデオ圧縮に関する。詳細には、本開示は、ビデオ画像内の異なる符号化品質に関する。
広視野(FOV)を有するグラフィックディスプレイデバイスが開発されてきた。このようなデバイスは、ヘッドマウントディスプレイ(HMD)デバイスを含む。HMDデバイスにおいては、小型のディスプレイデバイスがユーザの頭部に着用される。そのディスプレイデバイスは、片方の目(単眼HMD)または両方の目(双眼HMD)の正面にディスプレイ光学素子を有する。HMDデバイスは典型的にセンサを含み、センサは、デバイスの向きを感知でき、ユーザの頭部が動くと、ディスプレイ光学素子が示すシーンを変えることができる。従来、広FOVディスプレイに表示されるビデオはほとんど、1つの圧縮アルゴリズムを用いて圧縮されて、画面の全ての部分が同じ解像度を有する。
しかしながら、HMDデバイスと共に行われることの多い仮想現実(VR)プログラムのビデオを表示することは、ユーザの映像酔いを防ぐために、従来のフラットスクリーンディスプレイよりも高いフレームレートを必要とする。非常に高い解像度と高いフレームレートでビデオを表示することは、帯域幅という点でとてもコストがかかる。VR用HMDは、没入型体験のために、広FOVでビデオを見せる光学システムを有する。主な注視点(中心窩領域と呼ばれることもある)の周囲の画面エリアは高解像度を必要とし、主な注視点の外側のエリアは、周辺視野によってのみ観察されるので、より低い解像度で表示されてよい。このようなビデオは、フォービエイテッドビデオとも呼ばれる。
本開示はこの文脈で生じる。
先行技術に関する短所は、フォービエイテッドビデオの符号化と送信に関する本開示の態様によって克服される。
ビデオ画像を受信することと、1つまたは複数の関心領域を表す視線追跡情報を取得することと、1つまたは複数の関心領域に対応するビデオ画像の1つまたは複数のサブセクションを低圧縮エンコーダを用いて圧縮して低圧縮ビデオデータを生成することと、ビデオ画像をダウンスケーリングし、そのビデオ画像を高圧縮エンコーダを用いて圧縮して高圧縮ビデオデータを生成することと、高圧縮ビデオデータと1つまたは複数の低圧縮ビデオデータとを送信することとを含む方法。
高圧縮ビデオデータを受信することと、視線追跡情報から取得された1つまたは複数の関心領域を表すビデオ画像の1つまたは複数の低圧縮サブセクションに対応する低圧縮ビデオデータを受信することと、高圧縮ビデオ画像を解凍することと、解凍されたビデオ画像をアップスケーリングすることと、ビデオ画像の1つまたは複数の低圧縮サブセクションを解凍することと、アップスケーリングされたビデオ画像を関心領域のビデオ画像の1つまたは複数のサブセクションと組み合わせることと、組み合わされたアップスケーリングされたビデオ画像と1つまたは複数のサブセクションとを表示することとを含む方法。
本開示の態様の文脈内の、視線追跡を示す概略図である。 本開示の態様の文脈内の、視線追跡を示す概略図である。 フォービエイテッドビデオの例を示す図である。 フォービエイテッドビデオの例を示す図である。 本開示の態様の文脈内の、ビデオフレームの1つの可能な分割を示す概略図である。 本開示の態様によるシステムを示すブロック図である。 本開示の態様によるシステム全体を示すフロー図である。 本開示の態様による、エンコーダ群側を示すフロー図である。 本開示の態様による、エンコーダ群側を示すフロー図である。 本開示の態様による、デコーダ群側を示すフロー図である。 本開示の態様による、デコーダ群側を示すフロー図である。 本開示の態様による、関心領域の例を示す画面空間の概略図である。 本開示の態様による、映像酔い低減スキームを示すフロー図である。 本発明の実施形態と共に視線及び顔の追跡を使用する例を示す概略図である。 本発明の実施形態と共に視線及び顔の追跡を使用する例を示す概略図である。 本発明の実施形態と共に視線及び顔の追跡を使用する例を示す概略図である。 本発明の実施形態と共に視線及び顔の追跡を使用する例を示す概略図である。 本発明の実施形態と共に視線及び顔の追跡を使用する例を示す概略図である。 本発明の実施形態と共に視線及び顔の追跡を使用する例を示す概略図である。 本発明の実施形態と共に視線及び顔の追跡を使用する例を示す概略図である。 本発明の実施形態と共に視線及び顔の追跡を使用する例を示す概略図である。 本開示の態様による、顔の向き特性の追跡設定を示す概略図である。 本開示の態様による、顔の向き特性の追跡設定を示す概略図である。 本開示の態様による、顔の向き特性の追跡設定を示す概略図である。 本開示の態様による、顔の向き特性の追跡設定を示す概略図である。 本開示の態様による、顔の向き追跡を利用できるポータブルデバイスを示す概略図である。
以下の詳細な記載は、説明のために多くの特定の詳細を含むが、当業者は、以下の詳細への多くの変形及び変更は発明の範囲内にあることを理解されよう。従って、以下に記載する本開示の説明のための実施態様は、特許を請求する発明の一般性を失うことなく、特許を請求する発明を限定することなく、記載される。
[導入]
視線追跡は、医学研究、自動車技術、コンピュータエンターテイメント、及び、ビデオゲームプログラム、制御入力デバイス、拡張現実眼鏡等を含む、広範な適用例で使用されてきた。視線追跡としても知られるアイトラッキングには多くの技術がある。視線追跡と選択的レンダリング圧縮の技術は、同時係属出願第2015/087,471号に記載されており、その内容は、参照により本明細書に組み込まれる。これらの技術の一部は、ユーザの視線の方向をユーザの目の瞳孔の向きから決定する。既知の視線追跡の一部は、1つまたは複数の光源から光を発して目を照らすことと、発せられた光の角膜からの反射をセンサで検出することとを伴う。典型的に、これは、赤外領域の不可視光源を用いて、照らされた眼の画像データ(例えば、画像またはビデオ)を赤外線カメラを用いて捕捉することによって達成される。次に、画像処理アルゴリズムを使用して画像データを分析して、視線方向を決定する。
一般的に、アイトラッキング画像分析は、光がどのように眼から反射されるかに特徴的な特性を利用して、画像から視線方向を決定する。例えば、画像を分析して、画像データの角膜反射に基づいて、眼の位置を識別してよく、画像をさらに分析して、画像内の瞳孔の相対的位置に基づいて視線方向を決定してよい。
瞳孔の位置に基づいて視線方向を決定する2つの一般的な視線追跡技術は、明瞳孔検出と暗瞳孔検出として知られる。明瞳孔検出は、カメラの光軸とほぼ一致した光源を用いて眼を照らし、発した光を網膜から反射させて、瞳孔を通してカメラに戻すことを伴う。瞳孔が、従来のフラッシュ撮影中に画像に生じる赤目効果と類似した識別可能な明るいスポットとして、画像の瞳孔の位置に現れる。この視線追跡方法において、瞳孔自体からの明るい反射が、瞳孔と虹彩の間のコントラストが十分でない場合、システムが瞳孔の位置を突き止めるのを助ける。
暗瞳孔検出は、カメラの光軸から実質的に離れた光源を用いて照らし、瞳孔を通るように向けられた光がカメラの光軸から離れて反射されて、画像の瞳孔の位置に識別可能なダークスポットを生じることを伴う。代替の暗瞳孔検出システムにおいては、眼に向けられた赤外光源とカメラが、角膜反射を見ることができる。このようなカメラベースのシステムは、瞳孔の位置を追跡し、反射の深度が異なることによる視差が、追加の精度を提供する。
図1Aは、本開示の文脈で使用し得る暗瞳孔視線追跡システム100の例を示す。視線追跡システムは、可視画像が提示されるディスプレイ画面101に対するユーザの眼Eの向きを追跡する。図1Aの例示のシステムではディスプレイ画面が使用されるが、ある代替実施形態は、ユーザの眼に直接、画像を投影できる画像投影システムを利用してよい。これらの実施形態においては、ユーザの眼Eが、ユーザの眼に投影される画像に対して追跡される。図1Aの例においては、眼Eは、画面101からの光を変化する虹彩Iを通して集め、レンズLが、網膜Rに画像を投影する。虹彩の開口部は瞳孔として知られる。筋肉が、脳からの神経インパルスに反応して、眼Eの回転を制御する。上眼瞼筋ULM、下眼瞼筋LLMは、それぞれ、他の神経インパルスに反応して、上眼瞼UL、下眼瞼LLを制御する。
網膜Rの感光性細胞は、電気インパルスを生成し、電気インパルスは、視神経ONを介してユーザの脳(図示せず)に送られる。脳の視覚野が、インパルスを解釈する。網膜Rの全ての部分が等しく光に対して感受性があるわけではない。詳細には、感光性細胞は、中心窩として知られるエリアに集中している。
図示の画像追跡システムは、不可視光(例えば、赤外光)を眼Eの方に向ける1つまたは複数の赤外光源102、例えば、発光ダイオード(LED)を含む。不可視光の一部は、眼の角膜Cから反射し、一部は、虹彩から反射する。反射した不可視光は、波長選択ミラー106によって適切なセンサ104(例えば、赤外線カメラ)の方に向けられる。ミラーは、画面101からの可視光を透過し、眼から反射した不可視光を反射する。
センサ104は、眼Eの画像を生成できる画像センサ、例えば、デジタルカメラであることが好ましく、眼Eの画像が、分析されて、瞳孔の相対的位置から視線方向GDを決定してよい。この画像は、ローカルプロセッサ120を用いて、または、取得された視線追跡データをリモートコンピューティングデバイス160に送信することによって生成されてよい。ローカルプロセッサ120は、例えば、シングルコア、デュアルコア、クアドコア、マルチコア、プロセッサ−コプロセッサ、セルプロセッサ等、周知のアーキテクチャに従って構成されてよい。画像追跡データは、センサ104とリモートコンピューティングデバイス160との間で有線接続(図示せず)を介して、または、アイトラッキングデバイス110に含まれた無線送受信機125とリモートコンピューティングデバイス160に含まれた第2の無線送受信機126との間で無線で送信されてよい。無線送受信機は、ローカルエリアネットワーク(LAN)またはパーソナルエリアネットワーク(PAN)を、適切なネットワークプロトコル、例えば、PANに対しては、ブルートゥース(登録商標)を介して実施するように構成されてよい。
視線追跡システム100は、例えば、それぞれ、眼Eの上及び下に配置されるように構成された上部センサ108と下部センサ109も含んでよい。センサ108及び109は、独立したコンポーネントであってよい、あるいは、ユーザの頭部に装着されたコンポーネント110の一部であってよい。コンポーネント110は、センサ104、ローカルプロセッサ120、または、下記の慣性センサ115の任意の組み合わせを含んでよいが、これらに限らない。図1Aに示す例示のシステムにおいては、センサ108及び109は、眼Eの周囲のエリアから、神経系の電気インパルス、及び/または、筋肉組織の動き及び/または振動に関するデータを収集できる。このデータは、例えば、上部センサ108及び下部センサ109によって監視される眼Eの周囲の筋肉及び/または神経の電気生理学的及び/または振動の情報を含んでよい。センサ108及び109によって収集される電気生理学的情報は、例えば、脳波検査(EEG)、筋電図検査(EMG)、または、眼Eの周囲のエリア(複数可)の神経機能の結果として収集される誘発電位情報を含んでよい。センサ108及び109は、眼Eの周囲の筋肉の筋肉振動または痙攣を検出した結果として、例えば、筋音図、または、表面筋電図の情報も収集できてよい。センサ108は、例えば、心拍数データ、心電図検査(ECG)、または、電気皮膚反応データを含む、映像酔い反応に関する情報も収集できてよい。センサ108及び109によって収集されたデータは、上記のローカルプロセッサ120及び/またはリモートコンピューティングデバイス160に画像追跡データと共に伝えられてよい。
視線追跡システム100は、ユーザの頭部も追跡できてよい。頭部追跡は、ユーザの頭部の位置、動き、向き、または、向きの変化に応答して信号を生成できる慣性センサ115によって行われてよい。このデータは、ローカルプロセッサ120に送られてよい、及び/または、リモートコンピューティングデバイス160に送信されてよい。慣性センサ115は、独立したコンポーネントであってよい、あるいは、ユーザの頭部に装着されたコンポーネント110の一部であってよい。コンポーネント110は、センサ104、ローカルプロセッサ120、または、上記センサ108及び109の任意の組み合わせを含んでよいが、これらに限らない。代替実施形態においては、頭部追跡は、コンポーネント110上の光源の追跡によって行われてよい。視線追跡システム100は、1つまたは複数のメモリユニット177(例えば、ランダムアクセスメモリ(RAM)、ダイナミックランダムアクセスメモリ(DRAM)、リードオンリメモリ(ROM)等も含んでよい。
ローカルプロセッサ120は、ネットワーク接続125から符号化されたデータを受信するように構成されてよい。ローカルプロセッサ120は、1つまたは複数のメモリユニット177に動作可能に結合されてよく、メモリユニット177に記憶された1つまたは複数のプログラムを実行するように構成されてよい。このようなプログラムを実行によって、システムは、リモートコンピューティングデバイス160からのビデオストリームを復号してよく、ディスプレイ101に表示するためのフォービエイテッドビデオを生成してよい。制限ではなく例示として、プログラムは、ブレンダ(Blender)/変換空間構成(Conversion Space Configuration)プログラム179、スケーラ(Scaler)プログラム176、及び、デコーダプログラム180を含んでよい。
リモートコンピューティングデバイス160は、本開示の態様による、視線追跡を行い、照明条件を判断するために、アイトラッキングデバイス110及びディスプレイ画面101と協調して動作するように構成されてよい。コンピューティングデバイス160は、1つまたは複数のプロセッサユニット170を含んでよく、プロセッサユニット170は、例えば、シングルコア、デュアルコア、クアドコア、マルチコア、プロセッサ−コプロセッサ、セルプロセッサ等、周知のアーキテクチャに従って構成されてよい。コンピューティングデバイス160は、1つまたは複数のメモリユニット172(例えば、ランダムアクセスメモリ(RAM)、ダイナミックランダムアクセスメモリ(DRAM)、リードオンリメモリ(ROM)等)も含んでよい。
プロセッサユニット170は、1つまたは複数のプログラムを実行してよく、プログラムの一部は、メモリ172に記憶されてよく、プロセッサ170は、例えば、データバス178を介してメモリにアクセスすることによって、メモリ172に動作可能に結合されてよい。プログラムは、視線追跡を行うように、また、システム100の照明条件を決定するように構成されてよい。制限ではなく例示として、プログラムは、実行されると、システム100に、例えば、上記のように、ユーザの視線を追跡させ得る視線追跡プログラム173と、ディスプレイデバイスが提示できる形式にビデオフレームストリームを変換する変換空間構成(Conversion space configuration)(CSC)プログラム174と、実行されると、ディスプレイに送る低解像度のビデオフレームのストリームとビデオフレームの選択された高解像度のセクションとを符号化するエンコーダプログラム175及びビデオストリームスケーラプログラム176とを含んでよい。エンコーダプログラム175は、視聴者の映像酔い反応を使用して、高解像度でディスプレイに提示される関心領域(ROI)のサイズを、例えば、ROIのサイズを低減することによって、調節して、視聴者に映像酔いが起こる可能性を減らしてよい。
制限ではなく例示として、視線追跡プログラム173は、プロセッサ実行可能命令を含んでよく、プロセッサ実行可能命令によって、システム100は、光が光源102から発せられている間に画像センサ104を用いて集められたアイトラッキングデータと、上部センサ108及び下部センサ109から集められた眼の動きデータとから、システム100の1つまたは複数の視線追跡パラメータを決定する。視線追跡プログラム173は、照明条件の変化の存在を検出するために、画像センサ104を用いて集められた画像を分析する命令も含んでよい。
図1Bに示すように、ユーザの頭部Hを示す画像181を分析して、瞳孔の相対的位置から、視線方向GDを決定してよい。例えば、画像分析は、画像における眼Eの中心から瞳孔Pの二次元のオフセットを決定してよい。中心に対する瞳孔の位置は、眼球の既知のサイズ及び形に基づいた三次元ベクトルの単純な幾何学的計算によって、画面101に対する視線方向に変換し得る。決定された視線方向GDは、眼Eが画面101に対して移動すると、眼Eの回転と加速度を示すことができる。
図1Bにも示すように、画像は、それぞれ、角膜CとレンズLからの不可視光の反射187と反射188も含んでよい。角膜とレンズは異なる深度にあるので、反射間の視差と屈折率とを用いて、視線方向GDの決定に追加の精度を提供し得る。この種のアイトラッキングシステムの例は、デュアルプルキニエトラッカ(dual Purkinje tracker)であり、ここで、角膜反射は、第1のプルキニエ像であり、レンズ反射は、第4のプルキニエ像である。ユーザが眼鏡193をかけていれば、眼鏡193からの反射190もあり得る。
現在のHMDパネルは、製造業者に応じて、90または120ヘルツ(Hz)という一定のレートでリフレッシュする。高いリフレッシュレートは、パネルの電力消費と、送信媒体がフレームの更新を送るための帯域要件を増加させる。
図3は、本開示の様々な態様をさらに説明するシステム300の例を示す。システム300は、アイトラッキングディスプレイシステム301に結合されたコンピューティングデバイス360を含んでよい。アイトラッキングディスプレイデバイス301は、本開示の態様による、視線追跡及び/またはアイトラッキングキャリブレーションを行うために、ローカルプロセッサ303、ローカルメモリ317、周知のサポート回路305、ネットワークインタフェース316、アイトラッキングデバイス302、及び、ディスプレイデバイス304を含む。ディスプレイデバイス304は、ブラウン管(CRT)、フラットパネルスクリーン、タッチスクリーン、または、文字列、数字、図示記号、もしくは、他の視覚的オブジェクトを表示する他のデバイスの形態であってよい。ローカルプロセッサ303は、例えば、シングルコア、デュアルコア、クアドコア、マルチコア、プロセッサ−コプロセッサ、セルプロセッサ等、周知のアーキテクチャに従って構成されてよい。アイトラッキングディスプレイシステム301は、1つまたは複数のメモリユニット317(例えば、ランダムアクセスメモリ(RAM)、ダイナミックランダムアクセスメモリ(DRAM)、リードオンリメモリ(ROM)等)も含んでよい。
ローカルプロセッサユニット303は、1つまたは複数のプログラムを実行してよく、プログラムの一部は、メモリ317に記憶されてよく、プロセッサ303は、例えば、データバス318を介してメモリにアクセスすることによって、メモリ317に動作可能に結合されてよい。プログラムは、アイトラッキングディスプレイシステム301のためのフォービエイテッドビデオを作成するように構成されてよい。制限ではなく例示として、プログラムは、ビデオストリーム融合プログラム及びCSC313、ビデオストリームスケーリングプログラム314、及び、デコーダプログラム315を含んでよい。制限ではなく例示として、ブレンダ/CSC313は、プロセッサ実行可能命令を含んでよく、プロセッサ実行可能命令によって、システム301は、スケーラプログラム314から受信したビデオストリームとデコーダプログラム315から受信したサブセクションストリームとを組み合わせて、ディスプレイデバイス304に表示するためのフォービエイテッドビデオを作成する。スケーラ314は、実行されると、ローカルプロセッサにデコーダ315から受信したビデオストリームをアップスケーリングさせる命令を含んでよい。デコーダプログラム315は、ローカルプロセッサによって実行されると、システムにネットワークインタフェース316から符号化されたビデオストリームデータを受信させ、復号させる命令を含んでよい。あるいは、デコーダプログラムは、例えば、メインバス318によってローカルプロセッサに通信可能に結合された個別の論理ユニット(図示せず)として実施されてよい。本開示の態様によると、アイトラッキングディスプレイデバイス301は、埋め込みシステム、携帯電話、パーソナルコンピュータ、タブレットコンピュータ、ポータブルゲームデバイス、ワークステーション、ゲームコンソール、ヘッドマウントディスプレイデバイス等であってよい。さらに、コンピューティングデバイス360は、埋め込みシステム、携帯電話、パーソナルコンピュータ、タブレットコンピュータ、ポータブルゲームデバイス、ワークステーション、ゲームコンソール等であってもよい。
アイトラッキングディスプレイデバイス301は、コンピューティングデバイス360に結合されてよく、図1A及び図1Bの光源110に類似の動的光源310を含んでよい。制限ではなく例示として、光源310は、1つまたは複数の赤外線LEDの形態の不可視光源であってよく、センサ312を用いてアイトラッキングデータを集めるために、ユーザの眼を照らすように構成されてよい。アイトラッキングデバイスのセンサ312は、光源310が発した光に感受性を持つ検出器であってよい。例えば、センサ312は、赤外線カメラ等、光源に対して感受性を持つカメラであってよく、カメラ312は、光源310が照らすエリアの画像を撮影し得るように、アイトラッキングデバイスと光源に対して配置されてよい。
コンピューティングデバイス360は、本開示の態様によると、視線追跡を行い、照明条件を決定するために、アイトラッキングディスプレイシステム301と協調して動作するように構成されてよい。コンピューティングデバイス360は、1つまたは複数のプロセッサユニット370を含んでよく、プロセッサユニット370は、例えば、シングルコア、デュアルコア、クアドコア、マルチコア、プロセッサ−コプロセッサ、セルプロセッサ等、周知のアーキテクチャに従って構成されてよい。コンピューティングデバイス360は、1つまたは複数のメモリユニット372(例えば、ランダムアクセスメモリ(RAM)、ダイナミックランダムアクセスメモリ(DRAM)、リードオンリメモリ(ROM)等)も含んでよい。
プロセッサユニット370は、1つまたは複数のプログラムを実行してよく、プログラムの一部は、メモリ372に記憶されてよく、プロセッサ370は、データバス376を介してメモリにアクセスすることによって、メモリ372に動作可能に結合されてよい。プログラムは、視線追跡を行うように、且つ、システム300の照明条件を決定するように構成されてよい。制限ではなく例示として、プログラムは、視線追跡プログラム373を含んでよく、視線追跡プログラム373の実行によって、システム300にユーザの視線を追跡させてよい。制限ではなく例示として、視線追跡プログラム373は、プロセッサ実行可能命令を含んでよく、プロセッサ実行可能命令は、システム300に、光が動的光源310から発せられている間にカメラ312が集めたアイトラッキングデータからシステム300の1つまたは複数の視線追跡パラメータを決定させる。視線追跡プログラム373は、例えば、図1Bに関して前述したように、カメラ312を用いて集めた画像を分析する命令も含んでよい。あるいは、エンコーダプログラムは、例えば、メインバス318によってローカルプロセッサに通信可能に結合された個別の論理ユニット(図示せず)として実施されてよい。
一部の実施態様においては、視線追跡プログラム373は、視線追跡情報を分析して、ユーザの視覚が、例えば、瞬きの間、ぼやけており、または、例えば、サッカード中、機能していない期間を予測してよい。このような期間の開始の予測を使用して、不必要なレンダリング計算、電力消費、及び、ネットワーク帯域幅の使用量を低減できる。このような技術の例は、2016年3月31日出願の同一出願人による米国特許出願番号第15/086,953号に記載されており、参照により、その内容全体を本明細書に組み込む。
コンピューティングデバイス360及びアイトラッキングディスプレイデバイス301は、入力/出力(I/O)回路379、306、電源(P/S)380、309、クロック(CLK)381、308、及び、キャッシュ382、307等、周知のサポート回路378、305も含んでよく、これらは、例えば、それぞれ、バス376、318を介してシステムの他のコンポーネントと通信してよい。コンピューティングデバイス360は、アイトラッキングディスプレイデバイス301に同様に構成されたネットワークインタフェース316との通信を容易にするネットワークインタフェース390を含んでよい。プロセッサユニット370、303と、ネットワークインタフェース390、316は、ローカルエリアネットワーク(LAN)またはパーソナルエリアネットワーク(PAN)と、例えば、PANに対するブルートゥース(登録商標)等、適切なネットワークプロトコルを介して実施するように構成されてよい。コンピューティングデバイス360は、ディスクドライブ、CD−ROMドライブ、テープドライブ、フラッシュメモリ等の大容量記憶装置384を任意選択で含んでよく、大容量記憶装置384は、プログラム及び/またはデータを記憶してよい。コンピューティングデバイス360は、システム300とユーザの間のインタラクションを容易にするユーザインタフェース388も含んでよい。ユーザインタフェース388は、キーボード、マウス、ライトペン、ゲームコントロールパッド、タッチインタフェース、または、他のデバイスを含んでよい。
システム300は、プロセッサユニット370が実行するプログラムとインタラクトするために、アイトラッキングディスプレイデバイス301とインタフェースするコントローラ(図示せず)も含んでよい。システム300は、ビデオゲームまたはビデオストリーム等の1つまたは複数の一般的なコンピュータアプリケーション(図示せず)も実行してよく、これらのアプリケーションは、視線追跡の態様を組み込んでよく、視線追跡は、追跡デバイス302によって感知され、ビデオフレームデータをディスプレイデバイスに提示できる形式に変換する追跡プログラム373、CSC376、スケーラ374と、ビデオストリームエンコーダ375によって処理される。
コンピューティングデバイス360は、ネットワークインタフェース390も含んでよく、ネットワークインタフェース390は、Wi−Fi、イーサネット(登録商標)ポート、または、他の通信方法の使用を可能にするように構成される。ネットワークインタフェース390は、通信ネットワークによる通信を容易にする適切なハードウェア、ソフトウェア、ファームウェア、または、これらの何らかの組み合わせを組み込んでよい。ネットワークインタフェース390は、ローカルエリアネットワークとインターネット等の広域ネットワークとを介して有線または無線通信を実施するように構成されてよい。ネットワークインタフェース390は、アイトラッキングデバイス302及びディスプレイデバイス379との無線通信を容易にする上記無線送受信機も含んでよい。コンピューティングデバイス360は、ネットワークを介して1つまたは複数のデータパケット399によってデータ及び/またはファイルの要求を送受信してよい。
[フォービエイテッドビデオ]
本開示の態様として、フォービエイテッドビデオは、ディスプレイが提示する画像の関心領域の必須の詳細を保持しながら、送信帯域要件と、高解像度ビデオ処理の計算負荷とを低減できる。フォービエイテッドビデオは、中心窩が焦点を当てている表示された画像の関心領域(ROI)にある高解像度ビデオフレームのサブセクションに低損失圧縮を行う、もしくは、圧縮を行わず、この領域の外側のビデオフレームにダウンスケーリングと高圧縮とを行うことによって、計算を低減する。フォービエイテッドビデオを利用するために、ヘッドマウントディスプレイ(HMD)等の画像ディスプレイデバイスは、視線追跡技術を使用して、ユーザが焦点を当てている画面上の場所を決定する。
フォービエイテッドビデオは、視線追跡システムによって決定される視聴者のROIの高解像度の画像を表示するように構成されてよい。図2A及び図2Bは、本開示の態様による、フォービエイテッドビデオ画像201を示す。画像201において、ROI203は、ユーザの視線の中心202(中心窩とも呼ばれる)の真正面であると視線追跡によって決定されたエリアであってよい。視線の中心から20度以内で、視聴者の視力は最も高い。従って、画像201のこの部分を高解像度で表示すると有益である。本開示の態様として、ROI203は、視聴者の視線の中心202から20度以内であると選択された画面の領域であってよい。ROIは、2つの重複する円形領域または2つの隣り合う正方形を含むが、これらに限らない任意の形状であってよい。一般的に、ROIは、互いに隣り合う2つの領域からなるが、1つの長方形の領域、または、1つの卵形の領域、または、2つの隣り合わない円形領域を含むが、これらに限らない他の形状でもよい。
本開示の態様によると、画像201に対応するビデオデータは、ROI203内の画像のセクション205が高解像度で表示され、ROI203の外側のセクション204が解像度を下げて表示されるように符号化されてよい。視聴者のROI203の外側のセクション204の解像度を下げることによって、ビデオストリームの送信中、帯域幅の使用を減らすことができ、視聴者が知覚するビデオの質を損なうことなく、ストリームを符号化しながら、待ち時間を減らすことができる。一部の実施態様においては、ROI203の縁部に、低解像度セクションと高解像度セクションとが混じって、高解像度と低解像度との間を段階的に移行する移行エリアがあってよい。
ROI203は、ビデオストリーム内のフレームからフレームに位置を変えてよい。ビデオ画像内のエリアへの視聴者の注意は、ビデオが進むにつれて変化してよい。図2Bに示す本開示の態様によると、視線追跡システムは、視聴者の左眼と右眼の主な注視点206、207の移動を検出してよく、それに応じて、システムは、新しい注視点に対応するROI210、211を注視点移動ベクトルに沿って移動させる。新しいROI210及び211内の高解像度ビデオストリームセクション208は、主な注視点の位置の変化に応答してフェッチされてよい。あるいは、ビデオストリームのある一定のエリアに注視点と関心領域とが位置している確率は、http://www.kyb.mpg.de/fileadmin/user_upload/files/publications/attachments/50_4486%5b0%5d.pdfで入手できるKienzle,Wolfe et al.による「How to find interesting locations in video:a spatiotemporal interest point detector learned from human eye movements」に記載される等、当技術分野で既知のアルゴリズムによって予測されてよく、当文献の内容は、参照により本明細書に組み込まれる。可能な注視点情報に基づいて、システムは、幾つかの高解像度エリアをフェッチしてよく、それらをディスプレイに送ってよく、ディスプレイにおいては、表示される最終画像が、視線トラッカによって決定される実際の注視点によって決定される。一般的に、素早い眼の動きは、サッカード現象をまねており、動きが、第1のROIと次のROIの間の画像セクションをぼやけさせるので、ROIの移動後の高解像度エリアの表示間の待ち時間は、あまり重要でないことに注意されたい。
本開示の別の実施形態において、視線追跡システムは、ビデオストリームの1つのセクションからビデオの他のセクションへのROIの移動の確率を予測してよい。このような予測は、視聴者の注視点の運動速度ベクトルに基づいてよい。システムは、上記のような潜在的注視点情報を使用して、ROI位置の予測をさらに精密化してもよい。
[ビデオ符号化]
ビデオ符号化に関する本開示のある態様は、以下の記載を考慮するとより良く理解されよう。制限ではなく例示として、図2Cに示すように、1つのデジタルピクチャ220(例えば、デジタルビデオフレーム)は、1つまたは複数のセクションに分割されてよい。本明細書で使用される場合、「セクション」という用語は、ピクチャ220内の1つまたは複数のルマまたはクロマサンプルのグループを指してよい。セクションは、ピクチャ内の1つのルマまたはクロマサンプルから、ピクチャ全体までの範囲を取り得る。セクションの非制限的な例は、スライス(例えば、マクロブロック行)222、マクロブロック224、サブマクロブロック226、ブロック228、及び、個々のピクセル230を含む。図2Cに示すように、各スライス222は、マクロブロック224の1つまたは複数の行、または、1つまたは複数のこのような行の一部を含む。一行のマクロブロックの数は、マクロブロックのサイズと、ピクチャ220のサイズと解像度とによって決まる。例えば、各マクロブロックが、16x16のクロマまたはルマのサンプルを含む場合、各行のマクロブロックの数は、(クロマまたはルマのサンプルで表された)ピクチャ220の幅を16で割ることによって決定されてよい。各マクロブロック224は、幾つかのサブマクロブロック226に分割されてよい。各サブマクロブロック226は、幾つかのブロック228に分割されてよく、各ブロックは、幾つかのクロマまたはルマのサンプル230を含んでよい。発明の制限ではなく例示として、一般的なビデオ符号化スキームにおいて、各マクロブロック224は、4つのサブマクロブロック226に分割されてよい。各サブマクロブロックは、4つのブロック228に分割されてよく、各ブロックは、16のクロマまたはルマのサンプル230の4x4配置を含んでよい。H.265等、幾つかのコーデックは、符号化に対して、所与のピクチャを異なるサイズの複数のセクションに分割するのを可能にする。詳細には、H.265規格は、ピクチャを分割する「タイル」の概念を導入する。タイルは、何らかの共有ヘッダ情報を用いて符号化されるピクチャの個々に復号可能な領域である。タイルは、さらに、ビデオピクチャの局所的な領域への空間的ランダムアクセスに使用できる。ピクチャの典型的なタイル構成は、各タイルにほぼ等しい数の符号化ユニット(CU)を有する長方形の領域にピクチャをセグメント化することからなる。符号化ユニットは、H.264規格におけるマクロブロック(MB)に類似している。しかしながら、CUのサイズは、エンコーダによって設定でき、マクロブロックより大きくてよい。CUのサイズは、柔軟であってよく、ピクチャの最適分割のためにビデオコンテンツに適応可能であってよい。各ピクチャは、フレームでもフィールドでもよいことに注意されたい。フレームは、完全な画像を指す。フィールドは、ある種のディスプレイデバイスへの画像の表示を容易にするための画像の一部である。一般的に、画像内のクロマまたはルマのサンプルは、行で配置される。表示を容易にするために、画像は、2つの異なるフィールドに、交互にピクセル行を配置することによって分割される場合がある。2つのフィールドのクロマまたはルマのサンプルの行は、インタレースされて完全な画像を形成できる。ブラウン管(CRT)ディスプレイ等の一部のディスプレイデバイスにとっては、2つのフィールドは、単に、素早く続けて交互に表示されてよい。ディスプレイのピクセルを照らすのに使用される蛍光体または他の発光素子の残光は、残像性と組み合わさって、2つのフィールドが連続した画像として認識される。液晶ディスプレイ等の、一定のディスプレイデバイスにとっては、表示する前に、2つのフィールドをインタレースして、1つのピクチャにすることが必要な場合がある。符号化された画像を表すストリーミングデータは、典型的に、画像がフィールドかフレームかを示す情報を含む。このような情報は、画像のヘッダに含まれてよい。
MPEG2、MPEG4、及び、H.264等の最新のビデオコーダ/デコーダ(コーデック)は、一般的に、イントラフレーム、予測フレーム、及び、双予測フレームとして知られる3つの基本タイプのうちの1つとして、ビデオフレームを符号化する。イントラフレーム、予測フレーム、双予測フレームは、それぞれ、典型的に、Iフレーム、Pフレーム、Bフレームと呼ばれる。
Iフレームは、そのフレーム自体を除いていかなるピクチャも参照せずに符号化されるピクチャである。Iフレームは、ランダムアクセスに使用され、他のPフレームまたはBフレームの復号の参照として使用される。Iフレームは、エンコーダによって生成されて(デコーダが、所与のピクチャ位置で最初から適切に復号を開始するのを可能にするための)ランダムアクセスポイントを作成してよい。画像の詳細を区別すると有効なPフレームまたはBフレームの生成を妨げる時に、Iフレームが生成されてよい。Iフレームは、完全なピクチャを含むので、典型的に、PフレームまたはBフレームより符号化により多くのビットを必要とする。シーンの変化が入力ビデオで検出される時、ビデオフレームは、Iフレームとして符号化されることが多い。
Pフレームは、復号するためには、何枚かの他のピクチャ(複数可)を前もって復号することが必要である。Pフレームは、典型的に、復号にIフレームよりも少ないビットしか必要としない。Pフレームは、復号順で前にあるIフレームに対する差に関する符号化情報を含む。Pフレームは、典型的にピクチャ群(GoP)の先行するIフレームを参照する。Pフレームは、画像データと動きベクトル変位との両方と、2つの組み合わせとを含んでよい。ある標準的なコーデック(MPEG−2等)においては、Pフレームは、復号中、参照として、前に復号されたピクチャを1つだけ使用し、そのピクチャは表示順でもPフレームに先立つことを必要とする。H.264において、Pフレームは、復号中、複数の事前に復号されたピクチャを参照として使用でき、その予測に使用したピクチャ(複数可)に対して任意の表示順関係を有してよい。
Bフレームは、復号するために、IフレームまたはPフレームのいずれかをその前に復号することが必要である。Pフレーム同様、Bフレームは、画像データ及び動きベクトル変位の両方、及び/または、その2つの組み合わせを含んでよい。Bフレームは、2つの異なる事前に復号された参照領域を用いて取得された予測を平均化することによって動き領域(例えば、マクロブロックまたはより小さいエリア等のフレームのセグメント)の予測を形成する幾つかの予測モードを含んでよい。一部のコーデック(MPEG−2等)においては、Bフレームは、他のピクチャの予測の参照として使用されることはない。結果として、詳細を損失しても、次のピクチャの予測品質に影響を与えないので、(他で使用されるよりも少ないビットを使用することによる)質の低い符号化が、このようなBピクチャに使用できる。H.264等、他のコーデックにおいては、Bフレームは、(エンコーダの裁量で)他のピクチャの復号の参照として使用されてもよく、使用されなくてもよい。一部のコーデック(MPEG−2等)は、復号中、正確に2つの事前に復号されたピクチャを参照として使用し、これらのピクチャのうちの1つは表示順でBフレームピクチャの前に来る必要があり、他の1つは、後に来る必要がある。H.264等、他のコーデックにおいては、Bフレームは、復号中、1つ、2つ、または、3つ以上の事前に復号されたピクチャを参照として使用でき、Bフレームの予測に使用されるピクチャ(複数可)に対して任意の表示順関係を有し得る。Bフレームは、典型的に、IフレームよりもPフレームよりも符号化に使用するビットが少ない。
本明細書で使用される場合、Iフレーム、Bフレーム、及び、Pフレームという用語は、例えば、ストリーミングビデオの文脈に関して上述したように、Iフレーム、Bフレーム、及び、Pフレームと類似の特性を有する任意のストリーミングデータユニットに適用してよい。
典型的に、Pフレーム及びBフレームには2つの予測モードがあり、一般的にインター予測及びイントラ予測と呼ばれる。インター予測は、符号化されているフレームと異なるフレームの選択に基づく。イントラ予測は、符号化されているフレーム内のセクションに基づく。多くのコーデックは、特定のフレームまたはフレーム内のセクションの符号化にどのモードを使用するかを最終的に判断する前に、両方のモードのビットレート使用量を比較する予測モード決定プロセスを含む。Iフレームの符号化は、モーションサーチも予測モード決定も必要としない。
デジタルビデオピクチャを符号化するために、エンコーダは、複数のデジタル画像を受信し、各画像を符号化する。デジタルピクチャの符号化は、セクションごとに進めてよい。各セクションの符号化プロセスは、任意選択で、パディング、画像圧縮、及び、動き補償を伴ってよい。本明細書で使用される場合、画像圧縮は、データ圧縮をデジタル画像に適用することを指す。画像圧縮の目的は、所与の画像のデータを圧縮データという効率的な形態で記憶、送信できるように、その画像の画像データの冗長性を低減することである。
エントロピー符号化は、コード長を信号の確率に一致させるように、コードを信号に割り当てる符号化体系である。典型的に、エントロピーエンコーダを使用して、等しい長さのコードによって表されるシンボルを確率の負の対数に比例するコードによって表されるシンボルで置き換えることによって、データを圧縮する。
CABACは、H.264/MPEG−4 AVC規格及び高効率ビデオ符号化(HEVC:High Efficiency Video Coding)規格で使用されるエントロピー符号化の形態である。CABACは、ビデオ符号化で使用されるほとんどの他のエントロピー符号化アルゴリズムより非常に良い圧縮を提供することで知られ、H.264/AVC符号化スキームにその先行技術より良い圧縮能力を提供する重要な要素の1つである。しかしながら、CABACは、復号に多量の処理を必要とし得る算術符号化を使用することに注意されたい。
コンテクスト適応可変長符号化(CAVLC:Context−adaptive variable−length coding)は、H.264/MPEG−4 AVCビデオ符号化で使用されるエントロピー符号化の形態である。H.264/MPEG−4 AVCにおいて、残差(residual)ジグザグ順の変換係数ブロックの符号化を使用する。CAVLCは、CABACの代替形態である。CAVLCは、テーブル索引方法を使用するので、データをCABACほど有効には圧縮しないが、必要とする復号処理はCABACより大幅に少ない。CABACは、より良い圧縮効率を提供する傾向がある(CAVLCより約10%多い圧縮)ので、符号化されたビットストリームの生成に、多くのビデオエンコーダはCABACを好む。
[映像酔いの低減]
本開示の態様によると、システムは、高解像度ROIのサイズの低減によって、映像酔いが視聴者に生じる可能性を低減し得る。システムは、心拍、体温、電気皮膚反応、または、心電図(ECG)を含むが、これらに限らない当技術分野で既知の手段によって、視聴者が映像酔いをしていることを検出し得る。映像酔いの検出に関するより多くの情報は、http://scitecin.isr.uc.pt/Proceedings/Papers/EPCGI/17.pdfで入手できるPatroa,Bruno et al.による「How to Deal with Motion Sickness in Virtual reality」に記載されており、参照により、その内容を本明細書に組み込む。本開示の他の実施形態において、システムは、ビデオストリームのデータレートの監視を通して映像酔いが生じる可能性を検出する。ビデオストリームのデータレートは、画面に表示されるデータ量に関連し、よって、高いデータレートは、新しく表示される情報量が多くなるので、映像酔いの可能性が高くなることを示す。
本開示の追加の態様によると、システムは、視聴者のフィードバックも映像酔いの低減に採用してよい。システムの一実施形態においては、視聴者からの触覚応答が、映像酔い低減スキームの開始に採用される。システムは、また、視聴者からの応答を収集してよく、その応答の統計的分析を使用して、ビデオストリーム内の潜在的な映像酔いのモデルを生成してよい。別の実施形態においては、システムは、ユーザが規定した映像酔い閾値を使用してよく、変数、例えば、ビデオストリームデータレート、または、ビデオ内の動きベクトルが閾値を超えると、映像酔い低減スキームが開始される。
映像酔いに関連する反応を検出すると、システムは、表示されたROIエリアを狭めて、視聴者に表示する高解像度情報の量を減らしてよい。システムは、表示されたエリアのより多くの量の高解像度セクションを低解像度ビデオストリームと融合して、高解像度セクションを小さくし、ROIの縁部の周囲の段階的に品質が低下するエリアをより大きくしてよい。
[品質の融合と周辺のディミング]
ROIから画像の残りの部分への画像解像度の急な低下は、視聴者にとって不快となる場合がある。従って、本開示の態様によると、高解像度エリアの縁部は、低解像度エリアと融合されて、両エリア間で品質低下勾配を作成してよい。このような低下勾配は、高解像度から低解像度に線形に移行してもよく、非線形に移行してもよい。例を挙げると、非線形の移行は、関心領域からの距離に対して、高解像度と低解像の間でシグモイド(「S」形状の)関数の移行であってよい。一般に、任意の滑らかで、正の、「こぶのような形」の関数の積分が、シグモイドである。シグモイド関数の例は、ロジスティック関数、汎用ロジスティック関数を含むが、これらに限らず、シグモイド関数は、通常の逆正接、双曲正接、グーデルマン関数、及び、誤差関数
Figure 2021192508
、相補誤差関数(1−erf(x))、及び、
Figure 2021192508
等の代数関数を含む。
ロジスティック関数は、
Figure 2021192508
の形を有する。
ここで、
=シグモイドの中点のxの値、
L=曲線の最大値、
k=曲線の傾き
である。
さらに、システムは、ROIの縁部の周囲で複数の解像度のビデオストリームを使用して、ディスプレイの高解像度エリアと残りとの間で、品質を滑らかに低下させてよい。
本開示の他の態様においては、ROIを囲むエリアは、節電と、映画館のような効果を生み出すためにディミングされてよい。ディミング機能は、視聴者が選択する機能であってもよく、または、ビデオストリームに埋め込まれてもよい。
[実施態様]
図4は、本開示の態様による、システム400を示す。図示のシステム400は、符号化群402と復号群401との2つのコンピューティング群からなる。符号化群402は、ネットワーク403を経由して復号群401に結合される。ネットワーク403は、例えば、無線ネットワーク、有線ローカルエリアネットワーク接続(LAN)、USB接続、シリアル接続、または、当技術分野で既知の他のデバイス接続配線であってよい。符号化群401は、色空間補正(CSC)404、ダウンスケーラ405、関心領域(ROI)Iフレームエンコーダ406、及び、スケールされた画像のAVC/HECエンコーダ407を含む。デコーダ群は、ROI Iフレームデコーダ409、AVC/HEVデコーダ410、アップスケーラ411、及び、ビデオストリームブレンダ/CSC412を含む。さらに、デコーダ群は、ディスプレイデバイスに結合される。視線追跡ユニットは、ディスプレイデバイス413に結合されてよく、符号化群402のROI Iフレームエンコーダ406に視線追跡情報414を送信するように構成される。
符号化群は、符号化されていないビデオデータストリームをスキャンアウトユニット408から受信してよい。符号化されていないビデオデータストリームは、ビデオゲームからのビデオデータ、または、本開示のシステム(図示せず)で使用するために再度符号化する前に復号しなければならない符号化されたデータストリームを含んでよい。未変更の最初のビデオストリームは、次に、CSC404に送られ、CSC404は、ビデオデータストリームを符号化に適した形式に変換する。例えば、画像の色空間は、ディスプレイにとってより一般的なRGBから、エンコーダにとってより一般的なYUV色空間に変換されてよい。CSC404は、次に、最初のビデオストリームをROI Iフレームエンコーダ406とダウンスケーラ405とに渡す。
図5Aは、エンコーダ群のROIエンコーダ側を示す。ROI Iフレームエンコーダ406は、視線トラッカから受信した視線追跡情報414を受信する。本開示の態様によると、ROI Iフレームエンコーダ406は、視線追跡情報414を使用して、最初のビデオストリーム内のROIを決定してよい。ROI Iフレームエンコーダは、ROIに配置された最初のビデオストリーム画像のサブセクションのみを符号化する。
ROIに対応する符号化されたサブセクションの形は、正方形として符号化されてよい、あるいは、形状は、円形、楕円形、長方形、または、他の規則的もしくは不規則な形状であってよい。視聴者の両方の眼に対応するROI Iフレームエンコーダによって符号化された2つのROIセクションがあってよい。視線追跡システムは、眼の存在の有無を検出してよく、ROI Iフレームエンコーダは、眼の存在が無いことを考慮して、符号化するセクションの数を調節してよい。あるいは、ROI Iフレームエンコーダは、両方の眼に対して、ROIとして1つの広いセクションを表示するようにロジックを構成してよい。
本開示の態様によると、ROIを構成する画像のセクションは、視覚半径と突然の眼の動きとの何らかの小さな変化を考慮して、視聴者の実際のROIより大きくてよい。ROIを構成する画像のセクションは、任意の適切なサイズ、例えば、幅20マクロブロック、長さ20マクロブロックであってよい。ROIセクションのサイズは、映像酔いを低減するために、ズームインアクション中、小さくされてよく、ズームアウトアクション中、大きくされてよい。前の項に記載したように、符号化されたサブセクションは、ビデオストリームの表示中にも、映像酔いを低減するためにサイズを小さくしてよい。
ROI Iフレームエンコーダ406は、待ち時間とフレームレベルの遅れを低減するために、ROIのビデオストリームの画像のサブセクションのみをイントラフレーム(Iフレーム)として符号化する。ROIをIフレームとして符号化することによって、時間のかかる一定の動作、例えば、モーションサーチ及び符号化モード決定を省略し、それによって、待ち時間を減らす。ROIは、フレームのサイズに比べて比較的小さいので、Iフレームを符号化したROIは、画像全体を含む通常のIフレームより必要とするビットが少ない。ROI Iフレームエンコーダは、当技術分野で既知の任意の低損失のエンコーダを使用してよい。この目的に合う低損失エンコーダの例は、X.264、H.264可逆エンコーダであるが、これに制限されない。ROIの外側のビデオ画像のセクションは、ROI Iフレームエンコーダによって符号化も送信もする必要が無い。ビデオ画像の低損失の符号化されたサブセクションは、今後、低圧縮セクションと呼ぶ。低圧縮セクションは、低圧縮セクションのフレームヘッダに元のビデオフレーム内の位置を書き込んでよく、それによって、デコーダは後に、フレーム内の正確な位置にROIを再構築できる。低圧縮サブセクションは、処理されると、ネットワークを通してデコーダ側に送られる。
図5Bは、エンコーダ群の高圧縮側を示す。ダウンスケーラ405は、最初のビデオフレームをCSC404から受信してよい。ダウンスケーラ405は、サイズ低減アルゴリズムをビデオフレームに適用して、ビデオストリームの送信に必要なデータレートと符号化に必要な処理能力とを低減してよい。当業者には既知なように、任意のスケーリングアルゴリズムをこのプロセスに使用してよい。適切なアルゴリズムの例は、双線形補間、三次補間、または、ランチョス(Lanczos)再サンプリングであってよいが、これらに限らない。
AVC/HEVエンコーダ407は、次に、ダウンスケーリングされたビデオフレームをダウンスケーラ405から受信してよい。ダウンスケーリングされたビデオストリームは、次に、非可逆エンコーダを用いて符号化されて、符号化時間及び帯域要件を低減する。本出願に適したエンコーダは、H.264/AVCまたはH.265/HEVCであってよいが、これらに限らない。符号化されると、今後「高圧縮ビデオフレーム」と呼ぶビデオフレームが、ネットワークを介してデコーダ側に送られる。
図6Aは、デコーダ群のIフレームデコーダ側を示す。Iフレームデコーダ409は、Iフレームエンコーダから低圧縮セクションデータをネットワークを介して受信する。低圧縮セクションデータは、次に、Iフレームデコーダ409によって復号され、復号されたセクションは、ブレンダ/CSC412に送られる。FFmpegを含むが、これに限らない既知の低損失デコーダが、本開示の出願に適する。
図6Bは、デコーダ群の高圧縮側を示す。本開示の態様によると、AVC/HEVCデコーダ410は、高圧縮ビデオをエンコーダ群からネットワークを介して受信する。高圧縮ビデオストリームは、適切なデコーダを用いて復号され、アップスケーラ411に送られる。
アップスケーラ411は、ダウンスケーリングされたビデオストリームをAVC/HEVCデコーダ410から受信する。次に、ダウンスケーリングされたビデオストリームは、エンコーダ群で適用されたアルゴリズムに一致する適切なアップスケーリングアルゴリズムを用いてアップスケーリングされる。アップスケーリングされたビデオストリームは、次に、ブレンダ/CSC412に送られる。
ブレンダ/CSC412は、ビデオストリームをアップスケーラ411から受信し、サブセクションストリームをIフレームデコーダ409から受信する。本開示の態様によると、ブレンダ/CSC412は、サブセクションストリームのフレームヘッダを読み取って、サブセクションを配置するビデオストリーム内の位置を決定してよい。あるいは、ブレンダ/CSCは、ROI Iフレームエンコーダと同期されて、視線追跡データ414を使用して、サブセクションストリーム(図示せず)を配置する位置を決定してよい。本開示の追加の態様によると、ブレンダ/CSC412は、別個の有線または無線の送信(図示せず)等、他のチャネルを介してサブセクションストリームの位置を受信してよい。
サブセクションストリームは、ブレンダ/CSC412でビデオストリームと融合されてよい。融合は、マスクをサブセクションストリームとビデオストリームとに適用することによって達成されてよい。マスクは、サブセクションストリームとビデオストリームとの画像のピクセル値に重みを設定する。マスクは、高解像度サブセクションストリームと低解像度ビデオストリームの間に線形の解像度低下勾配を規定してよい。本開示の別の態様によると、マスクは、非線形の解像度低下勾配を規定してよい。ブレンダ/CSC412は、次に、適切な位置でビデオストリームの上にサブセクションストリームを重ね合わせることと、高解像度画像と低解像度画像とがピクセル値の重みに従って融合されるように設定したピクセル値を画像に適用することによって、サブセクションストリームとビデオストリームとを組み合わせる。
画像に適用されたマスクは、表示されたROIサブセクションの形状を決定してよい。従って、表示されたROIサブセクションのサイズと形状は、ブレンダ/CSC412において様々であってよい。ROIのサイズと形状は、ロジックでは固定であっても変化してもよい。ブレンダ/CSC412は、ROIの形状をROI Iフレームエンコーダから取ってよく、さらに、ROIの縁部を精密化してよい。また、マスクを用いて、周辺のディミングを実施するようにビデオストリームのピクセル値を規定してよい。
ブレンダ/CSC412は、複数の潜在的ROIサブセクションを有するサブセクションストリームも取り上げてよく、視聴者の正確なROIを視線追跡データから決定してよい。従って、ブレンダ/CSC412は、正確なROIサブセクションを隠さずに、潜在的ROIサブセクションを隠すマスクを潜在的ROIサブセクションに適用する。
代替実施形態においては、1つのマスクが、ブレンダ/CSC412でROIサブセクションストリームに適用され、ROIサブセクションストリームは、次に、ROIサブセクションストリームに適用されるピクセルの重みに従って、ミキシングと共にビデオストリームの上に重ねられる。このミキシングスキームは、ROI Iフレームエンコーダで適用されてもよい。このような実施形態においては、マスクピクセル値は、ROI Iフレームエンコーダで、次に、ブレンダ/CSC412で適用され、ROIサブセクションストリームは、これらのマスクピクセル値に従ってビデオストリームと融合される。
本開示の追加の態様によると、ブレンダ/CSC412は、映像酔い反応に基づいて、マスクのサイズまたは形状を変えることによって、上記のように映像酔い低減スキームを実施してよい。ブレンダ/CSC412は、映像酔い低減スキームの一部として、解像度勾配も変えてよい。
図7は、本開示の態様によるマスクされたフォービエイテッドビデオを表す。フォービエイテッド表示は、視聴者中心の注視点またはROI703の周囲に1つまたは複数の高解像度サブセクション701を有してよい。システムは、高解像度の縁部702の周囲にマスクを適用して、高解像度サブセクション701と低解像度の背景700の間に解像度低下勾配を達成してよい。システムは、視線追跡データを使用して、ROIの移動ベクトル704を予測してよい。他の実施形態においては、マスクされたセクション702のエリアは、映像酔い反応に応答して、拡大されてよい。あるいは、符号化された高解像度エリア705を映像酔い反応に応じて低減してよい。
図8は、映像酔い低減スキームのブロック図を示す。映像酔い低減スキーム800は、図4のフォービエイテッド表示システムのエンコーダ側402またはデコーダ側401のいずれかで実行してよい。フォービエイテッドビデオの視聴者は、動きの閾値レベル804を設定してよく、その閾値レベルを超えると視聴者は映像酔いする。あるいは、閾値レベル804は、視聴者からの平均的な映像酔い反応によって、または、経験的に決定された映像酔いによる生理学的反応から決定されてよい。システムは、ビデオストリームまたはセンサデータ内の変数を連続的に測定して、反応が設定閾値レベルを超えたか否かを決定する(802)。監視は、図3に示すアイトラッキングディスプレイデバイス301またはコンピューティングデバイス360のいずれかで行われてよい。本開示の追加の態様によると、閾値は、視聴者によって手動でトリガされてよい。映像酔い閾値を超えたとデバイスが判断する場合、システムは、表示する高解像度エリア701を低減するようにROI Iフレームエンコーダ406またはブレンダ/CSC412のいずれかに通知してよい(801)。
[他の表示実施態様]
ヘッドマウントディスプレイ(HMD)への適用について本明細書に例を記載したが、本開示の態様は、このような実施態様に限られない。HMDの実施態様は、ユーザの眼とディスプレイ画面との相対的位置が、おおよそ固定しているので、比較的簡単な実施態様を表す。しかしながら、原理上、開示されたシステム及び方法は視線追跡と協働し得る任意の画像表示システムに適応されてよい。視線追跡システムは、ディスプレイ画面に対するユーザの頭部及び眼(複数可)の位置及び向きを、位置及び向きが固定されていない実施態様で追跡するように変更されてよい。
図9A〜図9Hは、本開示の態様と共に、顔の向きと視線方向とを使用する例を示す。図9Aに示すように、ユーザの顔920が、ユーザに関して訓練されたカメラを用いて取得された画像922Aに出現してよい。このようなカメラは、ラップトップコンピュータ、スマートフォン、及び、タブレットコンピュータ等のデバイスの共通の特徴である。画像分析ソフトウェアが、顔920の基準点を識別してよい。ソフトウェアは、例えば、顔920に対してほぼ固定している、口角924M、鼻梁924N、髪の一部924H、眉毛の上924Eにある、一定の基準点を特徴づけてよい。ソフトウェアは、また、ユーザの瞳孔926及び眼尻928を基準点として識別してよく、眼尻に対する瞳孔の位置を決定してよい。一部の実施態様においては、ユーザの眼の中心は、瞳孔926及び眼尻928の位置から推定できる。次に、眼の中心が推定できると、瞳孔の位置を、推定された中心の位置と比較できる。一部の実施態様においては、顔の対称性の特性を使用できる。
ソフトウェアは、基準点と瞳孔926との相対的位置の分析から、ユーザの顔の特性、例えば、頭部を傾ける角度及び凝視角を判断できる。例えば、ソフトウェアは、ユーザがまっすぐにカメラを見るようにして基準点924E、924H、924M、924N、928を初期化してよく、基準点と瞳孔926の位置を初期値として登録してよい。ソフトウェアは、次に、これらの初期値に対して、頭の傾き及び凝視角をゼロに初期化できる。その後、図9A、及び、図9Bの対応する上面図のように、ユーザがカメラを真っ直ぐ見る時はいつでも、基準点924E、924H、924M、924N、928と瞳孔926とは、初期値、または、初期値に近くなるはずである。
制限ではなく例示として、ユーザの頭部姿勢は、5つの基準点である、両目の眼尻928、口角924M、鼻先(図示せず)を用いて推定し得る。顔の対称軸は、両目の間の中点(例えば、両方の眼尻928間の真ん中)と、口の中点(例えば、口角924M間の真ん中)の線をつなぐことで得られてよい。顔の方向は、鼻の3Dの角度から弱透視幾何学(weak perspective geometry)で決定し得る。あるいは、同じ5つの点を使用して、平面への法線から頭部姿勢を決定でき、頭部姿勢は、平面の非対称性と鼻の位置の粗推定から取得し得る。頭部姿勢推定のさらなる詳細は、例えば、IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE.Vol.31,No.4、2009年4月、607〜626ページのErik Murphyによる「Head Pose Estimation in Computer Vision:A Survey」に記載されており、参照により、その内容を本明細書に組み込む。本発明の実施形態と共に使用できる頭部姿勢推定の他の例は、Pattern Recognition.Vol.33(2000年7月7日)1783〜1791ページのAthanasios Nikolaidisによる「Facial feature extraction and pose determination」に記載されており、参照により、その内容全体を本明細書に組み込む。本発明の実施形態と共に使用できる頭部姿勢推定の追加の例は、FG'00 Proceedings of the Fourth IEEE International Conference on Automatic Face and Gesture Recognition.2000年、499〜505ページのYoshio Matsumoto及びAlexander Zelinskyによる「An Algorithm for Real−time Stereo Vision Implementation of Head Pose and Gaze Direction Measurement」に記載され、参照により、その内容全体を本明細書に組み込む。本発明の実施形態と共に使用できる頭部姿勢推定のさらなる例は、Image and Vision Computing.Vol.20,Issue 7、2002年2月20日、499〜511ページ、Qiang Ji及びRuong Huによる「3D Face Pose Estimation from a Monocular Camera」に記載されており、参照により、その内容全体を本明細書に組み込む。
ユーザが頭部を傾けると、画像の基準点間の相対的距離が、傾斜角度に応じて変化し得る。例えば、ユーザが、垂直軸Zを中心に頭部を左右に回転させる場合、図9Cに示す画像922Cに示すように、眼尻928間の水平距離x1は減少し得る。使用している特定の頭部姿勢推定アルゴリズムに応じて、他の基準点も検出に役立ち得る、または、検出が容易である。距離の量的変化は、図1Eの対応する上面図に示すように、回転角度θΗに相関できる。回転が純粋にZ軸を中心にするものである場合、例えば、鼻梁924Nの基準点と口角924Mの基準点の間の垂直距離Y1は、大きく変わらないと予測されることに注意されたい。しかしながら、ユーザが頭部を上下に傾けるならば、この距離y1は当然変わると予測される。視線方向推定のために、眼尻928に対する瞳孔926の位置を決定する時、ソフトウェアは、頭部の回転角度θΗを考慮してよいことにさらに注意されたい。あるいは、ソフトウェアは、頭部の回転角度θΗを決定する時、眼尻928に対する瞳孔926の位置を考慮してよい。このような実施態様は、例えば、ハンドヘルドデバイスの赤外光源を用いると、瞳孔の位置が比較的容易に突き止められ、視線予測が容易になり、有利である。図9C及び図9Dに示す例においては、ユーザの凝視角θは、おおよそユーザの頭部の傾斜角度と整列している。しかしながら、ユーザの頭部の回転と、眼球の形状の三次元の性質とのために、瞳孔926の位置は、最初の画像922Aにおける位置と比較して、画像922Dにおいては、少しシフトして見える。
ある状況においては、ユーザは、カメラの方を向いていてよいが、ユーザの視線は、例えば、図9Eと、図9Fの対応する上面図とに示すように、他の方向を向いている。この例において、ユーザの頭部の傾斜角度θΗはゼロであるが、凝視角θはゼロではない。代わりに、ユーザの眼球が、図9Fに示すように反時計回りに回転している。結果として、基準点924E、924H、924M、924N、928は、図9Aのように配置されるが、瞳孔126は、画像922Eにおいて左にシフトしている。
ユーザの頭部が一方向に回転してよく、ユーザの眼球が他の方向に回転してよいことに注意されたい。例えば、図9H及び図9Iに示すように、ユーザ101は、頭部を時計回りに回転してよく、眼球を反時計回りに回転してよい。結果として、基準点924E、924H、924M、924N、928は、図9Dのようにシフトするが、瞳孔926は、図9Gに示す画像922Gにおいて、右にシフトする。視線追跡システム100は、図1A及び図1Bに示すように、ユーザの眼Eの視線方向GDを決定する時に、この構成または上記構成のいずれかを考慮してよい。
上記説明から分かるように、カメラだけを用いて、一定のユーザの顔の向き特性を追跡することが可能である。しかしながら、顔の向き特性追跡設定の多くの代替の形態も使用できる。図10A〜図10Eは、本発明の実施形態によって実施し得る他の可能なシステムの中で、5つの顔の向き特性追跡システムの例を示す。
図10Aにおいて、ユーザ1001は、カメラ1005と赤外光センサ1007の方を向いており、カメラ1005と赤外光センサ1007は、視覚的ディスプレイ1003の上部に取り付けられている。ユーザの頭部の傾斜角度を追跡するために、カメラ1005は、オブジェクトセグメンテーションを行う(すなわち、ユーザの個々の体の部分を追跡する)ように構成されてよく、次に、ユーザの頭部の傾斜角度を取得した情報から推定するように構成されてよい。カメラ1005及び赤外光センサ1007は、上記のように構成されてよいソフトウェア1013を実行しているプロセッサ1013に結合される。制限ではなく例示として、オブジェクトセグメンテーションは、動きモデルを使用して、オブジェクトの異なる可能な動きに従って標的の画像がどのように変化し得るかを記載することによって達成されてよい。本発明の実施形態は、複数のカメラを使用してよく、例えば、ある実施態様は、2つのカメラを使用してよいことに注意されたい。一つのカメラは、ユーザの位置を突き止めるための視野のズームアウトされた画像を提供でき、第2のカメラは、ユーザの顔にズームイン及びフォーカスして、より良い頭部及び視線方向推定のためにクローズアップ画像を提供できる。
ユーザの視線方向も、この設定を用いて獲得されてよい。制限ではなく例示として、赤外光は、最初、赤外光センサ1007からユーザの眼の方に向けられてよく、反射がカメラ1005によって撮影されてよい。反射赤外光から抽出した情報により、カメラ1005に結合されたプロセッサは、ユーザの眼の回転量を決定できる。ビデオベースのアイトラッカは、典型的には、角膜反射と瞳孔の中心を経時的に追跡する特徴として使用する。
従って、図10Aは、本発明の実施形態による、ユーザの頭部の傾斜角度と視線方向との両方を追跡するように構成された顔の向き特性追跡設定を示す。例示の目的で、ユーザはディスプレイ及びカメラから真っ直ぐの所にいると仮定したことに注意されたい。しかしながら、発明の実施形態は、ユーザがディスプレイ1003及び/またはカメラ1005から真っ直ぐの所にいない場合でも実施できる。例えば、ユーザ1001は、ディスプレイから右/左に+45°または−45°の所にいてよい。ユーザ1001がカメラ205の視野内にいる限り、頭部の角度θΗと凝視角θΕは推定できる。次に、正規化された角度が、ディスプレイ1003及び/またはカメラ1005に対するユーザ1001の位置(例えば、図10Aに示す体の角度θΒ)、頭部の角度θ及び凝視角θΕの関数として計算できる。制限ではなく例示として、ユーザ1001が体の角度θΒが+45°であるように位置し、且つ、頭部が−45°の角度θで回転する場合、ユーザ1001は、頭部を回転させることによって、ディスプレイ1003からの身体のずれを調整しており、これは、人がディスプレイを真っ直ぐ見ているのとほぼ等しい。詳細には、例えば、ユーザの凝視角θΕがゼロ(すなわち、ユーザの瞳孔が中心にある)場合、正規化された角度(例えば、θΒ+θΗ+θΕ)はゼロである。
図10Bは、別の顔の向き特性追跡設定を提供する。図10Bにおいて、ユーザ1001は、視覚的ディスプレイ1003の上部に取り付けられたカメラ1005の方を向いている。同時に、ユーザ1001は、一対の間隔を置いた赤外線(IR)光源1011(例えば、眼鏡1009の各レンズ上に1つのIR LED)を有する眼鏡1009(例えば、3Dシャッターメガネ)をかけている。カメラ1005は、光源1011が発する赤外光を撮影するように構成されてよく、次に、ユーザの頭部の傾斜角度を取得した情報から三角法で測るように構成されてよい。光源1011の位置は、ユーザの顔のその位置に対して大きく変わらないので、この設定は、ユーザの頭部の傾斜角度の比較的正確な推定を提供する。
眼鏡1009は、さらに、カメラ1010も含んでよく、カメラ1010は、画像をプロセッサ1013に提供でき、プロセッサ1013は、ソフトウェア1012と共に使用されて、視覚的ディスプレイ1003の位置を見つけることができる、または、視覚的ディスプレイ203のサイズを推定することができる。制限ではなく例示として、視覚的ディスプレイは、既知の垂直方向及び水平方向の画面寸法を有する既知の種類であってよい。画面に対して既知のサイズのテスト画像を表示してよい。テスト画像の画像は、カメラによって取得されてよく、分析されて、カメラ1010が取得した画像のテスト画像の向き及び寸法を決定してよい。この情報を集めることによって、システムがユーザの顔の向き特性データを正規化するのを可能にし、それによって、これらの特性の計算は、ディスプレイ1003及びユーザ1001の両方の絶対位置とは無関係になる。さらに、カメラを追加すると、システムがより正確に可視範囲を推定するのが可能になる。従って、図2Bは、本開示の態様による、ユーザの頭部の傾斜角度を決定する代替設定を示す。ある実施形態においては、例えば、上記のように、眼の中心または眼尻に対する瞳孔の相対的位置を示す眼の画像を取得することによって視線追跡を容易にするために、別個のカメラが、眼鏡1009の各レンズにユーザの眼の方に向けて取り付けられてよい。ユーザの眼に対する眼鏡1009の相対的に固定された位置は、ユーザの頭部の向きθΗの追跡に関係なく、ユーザの凝視角θΕの追跡を容易にする。
図10Cは、第3の顔の向き特性追跡設定を提供する。図10Cにおいて、ユーザ1001は、視覚的ディスプレイ1003の上部に取り付けられたカメラ1005の方を向いている。ユーザは、ユーザ1001と視覚的ディスプレイ1003のコンテンツとの間のインタラクションを容易にするように構成された1つまたは複数のカメラ1017(例えば、各側に1つ)を有するコントローラ1015も手に持っている。
カメラ1017からの画像を分析して、上記例においてのように、例えば、表示されたテスト画像を用いて、視覚的ディスプレイ1003の位置を決定してよい、または、視覚的ディスプレイ1003のサイズを推定してよい。この情報を収集することによって、システムが、ユーザの顔の向き特性データを正規化するのを可能にし、それによって、これらの特性の計算は、ディスプレイ1003及びユーザ1001の両方の絶対位置に無関係になる。さらに、カメラ1017をコントローラ1015に追加することによって、システムが可視範囲をより正確に推定するのが可能になる。
システムをディスプレイのサイズ及び位置と無関係にしながら、ユーザの頭部の傾斜角度の追跡に加えて、ユーザの視線方向を追跡するために、図10Cの設定を、図10Aの設定(図10Cには図示せず)とさらに組み合わせてよいことに注意することは重要である。ユーザの眼は、この設定で妨害されないので、ユーザ視線方向は、赤外光反射と上記捕捉プロセスを通して取得されてよい。
図10Dは、さらに別の代替の顔の向き特性追跡設定を提供する。図10Dにおいて、ユーザ1001は、視覚的ディスプレイ1003の上部に取り付けられたカメラ1005の方を向いている。ユーザ1001は、赤外光源1021(例えば、各接眼レンズ上に1つ)とマイクロフォン1023とを有するヘッドセット1019も着用しており、ヘッドセット1019は、ユーザ1001と視覚的ディスプレイ1003上のコンテンツとのインタラクションを容易にするように構成される。図10Bの設定同様、カメラ1005は、ヘッドセット1019の光源1021から発する赤外光の画像を撮影してよく、ユーザの頭部の傾斜角度は、取得した画像の分析から三角法で測定されてよい。ヘッドセット1019の位置は、ユーザの顔上のヘッドセットの位置に対して大きく変わらないので、この設定は、ユーザの頭部の傾斜角度の相対的に正確な推定を提供できる。
赤外光センサ1021を用いたユーザの頭部の傾斜角度の追跡に加えて、特定の標的に対するユーザの頭部の位置も、ヘッドセット1019の一部ではない別個のマイクロフォンアレイ1027によって追跡されてよい。マイクロフォンアレイ1027は、例えば、プロセッサ1013上で実行する適切に構成されたソフトウェア1012を用いて、ユーザの発話の大きさ及び向きの決定を容易にするように構成されてよい。このような方法の例は、例えば、同一出願人による米国特許7,783,061号、同一出願人による米国特許7,809,145号、及び、同一出願人による米国特許出願公開番号第2006/0239471号に記載されており、それら3文献全ての内容全体は、参照により本明細書に組み込まれる。
サーモグラフィ情報を用いたユーザの発話の方向追跡の詳細な説明は、Ruxin Chen及びSteven Osmanによる2010年9月23日出願の米国特許出願番号第12/889,347号「BLOW TRACKING USER INTERFACE SYSTEM AND METHOD」(代理人整理番号第SCEA10042US00−1号)に記載されており、その内容は、参照により本明細書に組み込まれる。制限ではなく例示として、ユーザの発話の向きは、発話中のユーザの声の音に対応するユーザの口の周囲の空気の振動パターンを検出する熱画像カメラを用いて決定できる。振動パターンの時間発展を分析して、ユーザの発話の一般化された方向に対応するベクトルを決定できる。
カメラ1005に対するマイクロフォンアレイ1027の位置と、マイクロフォンアレイ1027に対するユーザの発話の方向との両方を用いて、特定の標的(例えば、ディスプレイ)に対するユーザの頭部の位置を計算してよい。ユーザの頭部の傾斜角度をより正確に定めるために、頭部傾斜角度の決定に赤外線反射と方向追跡方法とを組み合わせてよい。代替実施形態は、上記図1Aに関して記載したように、慣性センサ1027をさらに含んでよい。
ヘッドセット1019は、さらに、視覚的ディスプレイ1003の画像を取得するように構成されたカメラ1025を含んでよく、画像が分析されて、ディスプレイの位置を見つけてよい、及び/または、視覚的ディスプレイ1003のサイズを推定してよい。この情報を収集することは、ユーザの顔の向き特性データを正規化することを可能にし、それによって、これらの特性の計算は、ディスプレイ1003とユーザ1001の両方の絶対位置とは無関係になる。さらに、カメラの追加は、システムが、可視範囲をより正確に推定することを可能にする。ある実施形態においては、1つまたは複数のカメラ1025は、例えば、上記のように、眼の中心または眼尻に対する瞳孔の相対的位置を示す眼の画像を取得することによって視線追跡を容易にするようにユーザの眼の方向を向くようにヘッドセット1019に取り付けられてよい。ヘッドセット1019(よって、カメラ(複数可)1025)のユーザの眼に対する相対的に固定された位置は、ユーザの頭部の向きθΗの追跡とは関係無く、ユーザの凝視角θΕの追跡を容易にする。
図10Dの設定は、ユーザの頭部の傾斜角度の追跡に加えて、ユーザの視線方向を追跡するために、図10Aの設定(図10Dには図示せず)と組み合わされてよいことに注意することは重要である。ユーザの眼は、この設定で妨害されないので、ユーザの視線方向は、上記赤外光反射と撮影プロセスを通して取得されてよい。
本発明の実施形態は、特に、セルフォン、タブレットコンピュータ、パーソナルデジタルアシスタント、ポータブルインターネットデバイス、または、ポータブルゲームデバイス等、ハンドヘルドデバイスでも実施できる。図10Eは、ハンドヘルドデバイス1030の文脈で、視線方向を決定する1つの可能な例を示す。デバイス1030は、一般的に、例えば、上記のように、適切なソフトウェアを用いてプログラムできるプロセッサ1039を含む。デバイス1030は、プロセッサ1039に結合されたディスプレイ画面1031及びカメラ1035を含んでよい。1つまたは複数のマイクロフォン1033及び制御スイッチ1037も、任意選択でプロセッサ1039に結合されてよい。マイクロフォン1033は、マイクロフォンアレイの一部であってよい。制御スイッチ1037は、特定の種類のハンドヘルドデバイスと共に通常用いられる種類のいずれかであってよい。例えば、デバイス1030がセルフォンの場合、制御スイッチ237は、このようなデバイスで通常、使用されるテンキーパッドもしくは英数字キーパッド、タッチスクリーン、または、タッチパッドを含んでよい。あるいは、デバイス1030がポータブルゲームユニットである場合、制御スイッチ1037は、デジタルもしくはアナログのジョイスティック、デジタル制御スイッチ、トリガ等を含んでよい。ある実施形態においては、ディスプレイ画面1031は、タッチスクリーンインタフェースであってよく、制御スイッチ1037の機能は、適切なソフトウェア、ハードウェア、または、ファームウェアと共に、タッチスクリーンによって実施されてよい。カメラ1035は、ユーザがディスプレイ画面1031を見ている時、ユーザ1001の方を向くように構成されてよい。プロセッサ1039は、頭部姿勢追跡及び/または視線追跡を実施するソフトウェアを用いてプログラムされてよい。プロセッサは、例えば、上記のように、頭部姿勢追跡及び/または視線追跡の情報を利用するようにさらに構成されてよい。
ディスプレイ画面1031、マイクロフォン(複数可)1033、カメラ1035、制御スイッチ1037、及び、プロセッサ1039は、ユーザの片手または両手で容易に持つことができるケースに取り付けられてよいことに注意されたい。ある実施形態においては、デバイス1030は、専用眼鏡と共に動作してよく、専用眼鏡は、図10Bに示し、前述した眼鏡1009と共通する特徴を有してよい。このような眼鏡は、無線または有線接続、例えば、ブルートゥース(登録商標)ネットワーク接続等のパーソナルエリアネットワーク接続を通してプロセッサと通信してよい。ある実施形態においては、デバイス1030は、ヘッドセットと共に使用されてよく、ヘッドセットは、図10Dに示し、前述したヘッドセット1019と共通の特徴を有し得る。このようなヘッドセットは、無線または有線接続、例えば、ブルートゥース(登録商標)ネットワーク接続等のパーソナルエリアネットワーク接続を通してプロセッサと通信してよい。デバイス1030は、無線ネットワーク接続を容易にする適切なアンテナ及び送受信装置を含んでよい。
図10A〜図10Eに記載の例は、本開示の態様による、ユーザの顔の向き特性の追跡に使用し得る多くの設定のうちの数個の例に過ぎないことに注意されたい。同様に、前述の頭部傾斜角度と視線方向とに追加して、様々な体及び他の顔の向き特性を追跡して、ディスプレイにレンダリングされる関心領域の調節を容易にしてよい。
[追加の態様]
本開示の態様は、コンピュータ実行可能命令が埋め込まれた非一時的コンピュータ可読媒体も含み、コンピュータ実行可能命令は、実行されると、例えば、図1A、図3、図4、図5A〜図5B、図6A〜図6C、及び、図8に関して上述したように、上記態様によるビデオ処理を実施する。適切なコンピュータ可読媒体の例は、RAM、ROM、ハードディスク、フラッシュドライブ、SDRAM、CD−ROM、Blu−Ray(登録商標)、磁気テープ、及び、フロッピー(登録商標)ディスクを含むが、これらに限らない。
[結論]
本開示の態様は、赤外光源を使用するアイトラッキングデバイスに関して記載したことに注意されたい。しかしながら、他の実施態様も可能なことを理解されよう。例えば、本開示の実施態様において、紫外光等、他の不可視光源も可能である。さらに例を挙げると、本開示の実施態様において、ユーザの注意をそらさないために、不可視光源の使用が望ましいが、眼を照らすために可視光源も使用されてよい。
本発明の好ましい実施形態を上記に完全に記載したが、様々な代替形態、修正形態、及び、同等の形態を使用することが可能である。よって、本発明の範囲は、上記記載を参照して決定すべきではなく、請求項と、請求項と同等の全範囲を参照して決定すべきである。本明細書に記載のいかなる特徴も、好ましい、好ましくないに関わらず、本明細書に記載の任意の他の特徴と、好ましい、好ましくないに関わらず、組み合わされてよい。以下の請求項において、不定冠詞「a」または「an」は、別段の記載の無い限り、その冠詞に続く品目の1つまたは複数の量を指す、ミーンズプラスファンクション限定が、「means for」という語句を使用して請求項に明示されていない限り、請求項は、ミーンズプラスファンクション限定を含むと解釈されるべきではない。

Claims (36)

  1. a)1つまたは複数の関心領域に対応するビデオフレームの1つまたは複数のセクションを低圧縮エンコーダを用いて圧縮して、低圧縮セクションデータを生成することであって、前記低圧縮エンコーダは、モーションサーチまたは予測モード決定をすることなく、前記1つまたは複数の関心領域に対応する前記ビデオフレームの前記1つまたは複数のセクションを符号化する、前記低圧縮セクションデータを生成することと、
    b)前記ビデオフレームをダウンスケーリングし、結果として生じるダウンスケーリングされたビデオフレームを高圧縮エンコーダを用いて圧縮して、高圧縮フレームデータを生成することであって、前記高圧縮エンコーダを用いた前記圧縮は、予測モード決定を含む、前記高圧縮フレームデータを生成することと、
    を含む、方法。
  2. a)は、前記1つまたは複数の関心領域に前記対応する前記1つまたは複数のセクションの縁部にマスクを適用して、解像度低下の勾配を生成することをさらに含む、請求項1に記載の方法。
  3. 前記マスクを適用することは、解像度低下の線形勾配を生成する、請求項2に記載の方法。
  4. 前記マスクを適用することは、解像度低下の非線形勾配を生成する、請求項2に記載の方法。
  5. 前記1つまたは複数の関心領域に対応する前記ビデオフレームの1つまたは複数のサブセクションを圧縮することは、映像酔いに関連する情報に応答して、前記1つまたは複数の関心領域のサイズを調節することを含む、請求項1に記載の方法。
  6. 前記映像酔いに関連する反応は、運動視閾値である、請求項5に記載の方法。
  7. 前記映像酔いに関連する反応は、1つまたは複数のセンサによって検出される、請求項5に記載の方法。
  8. プロセッサと、
    プロセッサ実行可能命令を含む前記プロセッサに結合されたメモリと、
    を含む、システムであって、前記プロセッサ実行可能命令は、実行されると、前記プロセッサに方法を実施させ、前記方法は、
    a)1つまたは複数の関心領域に対応するビデオフレームの1つまたは複数のセクションを低圧縮エンコーダを用いて圧縮して、低圧縮セクションデータを生成することであって、前記低圧縮エンコーダは、モーションサーチまたは予測モード決定をすることなく、前記1つまたは複数の関心領域に対応する前記ビデオフレームの前記1つまたは複数のセクションを符号化する、前記低圧縮セクションデータを生成することと、
    b)前記ビデオフレームをダウンスケーリングし、結果として生じるダウンスケーリングされたビデオフレームを高圧縮エンコーダを用いて圧縮して、高圧縮フレームデータを生成することであって、前記高圧縮エンコーダを用いた前記圧縮は、予測モード決定を含む、前記高圧縮フレームデータを生成することと、
    を含む、システム。
  9. a)は、前記1つまたは複数の関心領域に前記対応する前記1つまたは複数のセクションの縁部にマスクを適用して、解像度低下の勾配を生成することをさらに含む、請求項8に記載のシステム。
  10. 前記マスクを適用することは、解像度低下の線形勾配を生成する、請求項9に記載のシステム。
  11. 前記マスクを適用することは、解像度低下の非線形勾配を生成する、請求項9に記載のシステム。
  12. 前記1つまたは複数の関心領域に対応する前記ビデオフレームの1つまたは複数のサブセクションを圧縮することは、映像酔いに関連する情報に応答して、前記1つまたは複数の関心領域のサイズを調節することを含む、請求項8に記載のシステム。
  13. 前記映像酔いに関連する反応は、運動視閾値である、請求項12に記載のシステム。
  14. 前記映像酔いに関連する反応は、1つまたは複数のセンサによって検出される、請求項12に記載のシステム。
  15. コンピュータ実行可能命令を有する非一時的コンピュータ可読媒体であって、前記コンピュータ実行可能命令は、実行されると、コンピュータに方法を実施させ、前記方法は、
    a)1つまたは複数の関心領域に対応するビデオフレームの1つまたは複数のセクションを低圧縮エンコーダを用いて圧縮して、低圧縮セクションデータを生成することであって、前記低圧縮エンコーダは、モーションサーチまたは予測モード決定をすることなく、前記1つまたは複数の関心領域に対応する前記ビデオフレームの前記1つまたは複数のセクションを符号化する、前記低圧縮セクションデータを生成することと、
    b)前記ビデオフレームをダウンスケーリングし、結果として生じるダウンスケーリングされたビデオフレームを高圧縮エンコーダを用いて圧縮して、高圧縮フレームデータを生成することであって、前記高圧縮エンコーダを用いた前記圧縮は、予測モード決定を含む、前記高圧縮フレームデータを生成することと、
    を含む、前記非一時的コンピュータ可読媒体。
  16. a)ダウンスケーリングされたビデオフレームに対応する高圧縮フレームデータを解凍してダウンスケーリングされたビデオフレームデータを生成することであって、前記高圧縮フレームデータは予測フレームを含む、前記ダウンスケーリングされたビデオフレームデータを生成することと、
    b)前記ダウンスケーリングされたビデオフレームデータをアップスケーリングして、アップスケーリングされたビデオフレームデータを生成することと、
    c)1つまたは複数の関心領域に対応する前記ビデオフレームの1つまたは複数のセクションの低圧縮データを解凍して、関心領域データを生成することであって、前記ビデオフレームの前記1つまたは複数のセクションはイントラフレームとして符号化される、前記関心領域データを生成することと、
    d)前記アップスケーリングされたビデオフレームデータと前記関心領域データとを組み合わせて、組み合わされたフレームを生成することと、
    を含む、方法。
  17. d)は、前記組み合わされたフレームの前記1つまたは複数の関心領域に対応する前記ビデオフレームの前記1つまたは複数のセクションを配置する位置を決定することを含む、請求項16に記載の方法。
  18. 視線追跡情報を使用して、前記組み合わされたフレームの前記1つまたは複数の関心領域に対応する前記ビデオフレームの前記1つまたは複数のセクションを配置する位置を決定することをさらに含む、請求項16に記載の方法。
  19. 前記1つまたは複数の関心領域に対応する前記ビデオフレームの前記1つまたは複数のセクションにマスクを適用して、前記1つまたは複数の関心領域の縁部に、前記アップスケーリングされたビデオフレームに対応する前記組み合わされたフレームの部分と前記1つまたは複数の関心領域に対応する前記ビデオフレームの前記1つまたは複数のセクションとの間の解像度低下勾配を生成することをさらに含む、請求項16に記載の方法。
  20. 前記アップスケーリングされたビデオフレームデータに第2のマスクを適用して、前記アップスケーリングされたビデオフレームをディミングすることをさらに含む、請求項19に記載の方法。
  21. 前記マスクは、線形の低下勾配を生成する、請求項19に記載の方法。
  22. 前記マスクは、非線形の低下勾配を生成する、請求項19に記載の方法。
  23. 映像酔いに関連する反応に基づいて、前記1つまたは複数の関心領域のサイズを調節することをさらに含む、請求項16に記載の方法。
  24. 前記映像酔いに関連する反応は、電気皮膚反応である、請求項23に記載の方法。
  25. 前記映像酔いに関連する反応は、前記ビデオフレーム内の動きベクトルに関するユーザが決定した閾値である、請求項24に記載の方法。
  26. プロセッサと、
    プロセッサ実行可能命令を含む前記プロセッサに結合されたメモリと、
    を含むシステムであって、前記プロセッサ実行可能命令は、実行されると、前記プロセッサに方法を実施させ、前記方法は、
    a)ダウンスケーリングされたビデオフレームに対応する高圧縮フレームデータを解凍してダウンスケーリングされたビデオフレームデータを生成することであって、前記高圧縮フレームデータは予測フレームを含む、前記ダウンスケーリングされたビデオフレームデータを生成することと、
    b)前記ダウンスケーリングされたビデオフレームデータをアップスケーリングして、アップスケーリングされたビデオフレームデータを生成することと、
    c)1つまたは複数の関心領域に対応する前記ビデオフレームの1つまたは複数のセクションの低圧縮データを解凍して、関心領域データを生成することであって、前記ビデオフレームの前記1つまたは複数のセクションはイントラフレームとして符号化される、前記関心領域データを生成することと、
    d)前記アップスケーリングされたビデオフレームデータと前記関心領域データとを組み合わせて、組み合わされたフレームを生成することと、
    を含む、システム。
  27. d)は、前記組み合わされたフレームの前記1つまたは複数の関心領域に対応する前記ビデオフレームの前記1つまたは複数のセクションを配置する位置を決定することを含む、請求項26に記載のシステム。
  28. 前記方法は、視線追跡情報を使用して、前記組み合わされたフレームの前記1つまたは複数の関心領域に対応する前記ビデオフレームの前記1つまたは複数のセクションを配置する位置を決定することをさらに含む、請求項26に記載のシステム。
  29. 前記方法は、前記1つまたは複数の関心領域に対応する前記ビデオフレームの前記1つまたは複数のセクションにマスクを適用して、前記1つまたは複数の関心領域の縁部に、前記アップスケーリングされたビデオフレームに対応する前記組み合わされたフレームの部分と前記1つまたは複数の関心領域に対応する前記ビデオフレームの前記1つまたは複数のセクションとの間の解像度低下勾配を生成することをさらに含む、請求項26に記載のシステム。
  30. 前記方法は、前記アップスケーリングされたビデオフレームデータに第2のマスクを適用して、前記アップスケーリングされたビデオフレームをディミングすることをさらに含む、請求項29に記載のシステム。
  31. 前記マスクは、線形の低下勾配を生成する、請求項29に記載のシステム。
  32. 前記マスクは、非線形の低下勾配を生成する、請求項29に記載のシステム。
  33. 前記方法は、映像酔いに関連する反応に基づいて、前記1つまたは複数の関心領域のサイズを調節することをさらに含む、請求項26に記載のシステム。
  34. 前記映像酔いに関連する反応は、電気皮膚反応である、請求項33に記載のシステム。
  35. 前記映像酔いに関連する反応は、前記ビデオフレーム内の動きベクトルに関するユーザが決定した閾値である、請求項34に記載のシステム。
  36. コンピュータ実行可能命令を有する非一時的コンピュータ可読媒体であって、前記コンピュータ実行可能命令は、実行されると、コンピュータに方法を実施させ、前記方法は、
    a)ダウンスケーリングされたビデオフレームに対応する高圧縮フレームデータを解凍してダウンスケーリングされたビデオフレームデータを生成することであって、前記高圧縮フレームデータは予測フレームを含む、前記ダウンスケーリングされたビデオフレームデータを生成することと、
    b)前記ダウンスケーリングされたビデオフレームデータをアップスケーリングして、アップスケーリングされたビデオフレームデータを生成することと、
    c)1つまたは複数の関心領域に対応する前記ビデオフレームの1つまたは複数のセクションの低圧縮データを解凍して、関心領域データを生成することであって、前記ビデオフレームの前記1つまたは複数のセクションはイントラフレームとして符号化される、前記関心領域データを生成することと、
    d)前記アップスケーリングされたビデオフレームデータと前記関心領域データとを組み合わせて、組み合わされたフレームを生成することと、
    を含む、非一時的コンピュータ可読媒体。
JP2021119756A 2016-12-29 2021-07-20 視線追跡を用いたvrのためのフォービエイテッドビデオリンク Active JP7244584B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662440198P 2016-12-29 2016-12-29
US62/440,198 2016-12-29
JP2019535812A JP6945632B2 (ja) 2016-12-29 2017-12-13 視線追跡を用いたvr、低遅延、無線hmdビデオストリーミングのためのフォービエイテッドビデオリンク

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019535812A Division JP6945632B2 (ja) 2016-12-29 2017-12-13 視線追跡を用いたvr、低遅延、無線hmdビデオストリーミングのためのフォービエイテッドビデオリンク

Publications (2)

Publication Number Publication Date
JP2021192508A true JP2021192508A (ja) 2021-12-16
JP7244584B2 JP7244584B2 (ja) 2023-03-22

Family

ID=62710148

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019535812A Active JP6945632B2 (ja) 2016-12-29 2017-12-13 視線追跡を用いたvr、低遅延、無線hmdビデオストリーミングのためのフォービエイテッドビデオリンク
JP2021119756A Active JP7244584B2 (ja) 2016-12-29 2021-07-20 視線追跡を用いたvrのためのフォービエイテッドビデオリンク

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019535812A Active JP6945632B2 (ja) 2016-12-29 2017-12-13 視線追跡を用いたvr、低遅延、無線hmdビデオストリーミングのためのフォービエイテッドビデオリンク

Country Status (5)

Country Link
US (2) US11025918B2 (ja)
EP (1) EP3563570A4 (ja)
JP (2) JP6945632B2 (ja)
CN (1) CN110121885B (ja)
WO (1) WO2018125579A1 (ja)

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10962780B2 (en) * 2015-10-26 2021-03-30 Microsoft Technology Licensing, Llc Remote rendering for virtual images
US11284109B2 (en) * 2016-01-29 2022-03-22 Cable Television Laboratories, Inc. Visual coding for sensitivities to light, color and spatial resolution in human visual system
US10979721B2 (en) * 2016-11-17 2021-04-13 Dolby Laboratories Licensing Corporation Predicting and verifying regions of interest selections
CN110121885B (zh) 2016-12-29 2023-07-25 索尼互动娱乐股份有限公司 用于利用注视跟踪的vr、低等待时间无线hmd视频流传输的有凹视频链接
KR102623391B1 (ko) * 2017-01-10 2024-01-11 삼성전자주식회사 영상 출력 방법 및 이를 지원하는 전자 장치
US10565964B2 (en) * 2017-04-24 2020-02-18 Intel Corporation Display bandwidth reduction with multiple resolutions
CA3067345A1 (en) * 2017-06-14 2018-12-20 Hadal, Inc. Systems and methods for virtual reality motion sickness prevention
US10742704B2 (en) * 2017-07-05 2020-08-11 Cinova Media Method and apparatus for an adaptive video-aware streaming architecture with cloud-based prediction and elastic rate control
US11212536B2 (en) 2017-07-14 2021-12-28 Sony Interactive Entertainment Inc. Negative region-of-interest video coding
US10699663B2 (en) * 2018-02-27 2020-06-30 Tobii Ab Providing an image with a scaler chip in direct communication with an eye tracking device
CN108391133A (zh) * 2018-03-01 2018-08-10 京东方科技集团股份有限公司 显示数据的处理方法、处理设备和显示设备
US10636340B2 (en) * 2018-04-16 2020-04-28 Facebook Technologies, Llc Display with gaze-adaptive resolution enhancement
CN116980967A (zh) * 2018-09-28 2023-10-31 苹果公司 基于无线通信信道带宽条件的电子设备内容提供调节
US11818419B2 (en) 2018-09-28 2023-11-14 Apple Inc. Mobile device content provisioning adjustments based on wireless communication channel bandwidth condition
WO2020095728A1 (ja) * 2018-11-06 2020-05-14 ソニー株式会社 情報処理装置及び情報処理方法
CN111163306B (zh) * 2018-11-08 2022-04-05 华为技术有限公司 一种vr视频处理的方法及相关装置
US11212537B2 (en) * 2019-03-28 2021-12-28 Advanced Micro Devices, Inc. Side information for video data transmission
CN113906748A (zh) * 2019-05-29 2022-01-07 住友电气工业株式会社 影像传输系统、发送装置、接收装置、发布方法、发送方法、接收方法及计算机程序
US20200387217A1 (en) * 2019-06-07 2020-12-10 Eyetech Digital Systems, Inc. Devices and Methods For Reducing Computational and Transmission Latencies In Cloud Based Eye Tracking Systems
JP6655751B1 (ja) * 2019-07-25 2020-02-26 エヌ・ティ・ティ・コミュニケーションズ株式会社 映像表示制御装置、方法およびプログラム
CN112433599A (zh) * 2019-08-26 2021-03-02 株式会社理光 显示方法、装置和计算机可读存储介质
US11106039B2 (en) * 2019-08-26 2021-08-31 Ati Technologies Ulc Single-stream foveal display transport
US11106929B2 (en) * 2019-08-29 2021-08-31 Sony Interactive Entertainment Inc. Foveated optimization of TV streaming and rendering content assisted by personal devices
CN110650357B (zh) * 2019-09-27 2023-02-10 腾讯科技(深圳)有限公司 视频解码方法及装置
JP2021057769A (ja) * 2019-09-30 2021-04-08 株式会社ソニー・インタラクティブエンタテインメント 画像データ転送装置、画像表示システム、および画像圧縮方法
JP7440237B2 (ja) 2019-10-16 2024-02-28 トヨタ自動車株式会社 表示装置
US11164339B2 (en) 2019-11-12 2021-11-02 Sony Interactive Entertainment Inc. Fast region of interest coding using multi-segment temporal resampling
CN110855972B (zh) * 2019-11-21 2021-07-27 Oppo广东移动通信有限公司 图像处理方法以及电子设备和存储介质
KR20210103867A (ko) * 2020-02-14 2021-08-24 삼성전자주식회사 Vr 영상을 스트리밍하는 방법 및 장치
JP2023518421A (ja) * 2020-03-20 2023-05-01 マジック リープ, インコーポレイテッド 網膜結像および追跡のためのシステムおよび方法
WO2021200212A1 (ja) * 2020-03-30 2021-10-07 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム
WO2021199205A1 (ja) * 2020-03-30 2021-10-07 株式会社ソニー・インタラクティブエンタテインメント 画像データ転送装置、画像表示システム、および画像データ転送方法
CN116347183A (zh) * 2020-06-04 2023-06-27 腾讯科技(深圳)有限公司 一种沉浸媒体的数据处理方法及相关装置
CN111729283B (zh) * 2020-06-19 2021-07-06 杭州赛鲁班网络科技有限公司 一种基于混合现实技术的训练系统及其方法
CN111711811B (zh) * 2020-06-29 2022-09-13 京东方科技集团股份有限公司 Vr图像处理方法、装置、系统、vr设备及存储介质
KR102481528B1 (ko) * 2020-10-14 2022-12-26 주식회사 엔씨소프트 가상 현실 게임 방송 서비스 방법과 이를 수행하기 위한 장치 및 시스템
US11297332B1 (en) * 2020-10-30 2022-04-05 Capital One Services, Llc Gaze-tracking-based image downscaling for multi-party video communication
WO2022180684A1 (ja) * 2021-02-24 2022-09-01 日本電気株式会社 画像処理装置、画像表示システム、画像処理方法および記録媒体
CN113012501B (zh) * 2021-03-18 2023-05-16 深圳市天天学农网络科技有限公司 一种远程教学方法
CN113208766B (zh) * 2021-05-10 2022-08-05 江南大学 一种晕动症小鼠造模装置及造模方法
US20220383512A1 (en) * 2021-05-27 2022-12-01 Varjo Technologies Oy Tracking method for image generation, a computer program product and a computer system
GB2609013A (en) * 2021-07-16 2023-01-25 Sony Interactive Entertainment Inc Video recording and playback systems and methods
CN115793841A (zh) * 2021-09-09 2023-03-14 华为技术有限公司 一种显示方法与电子设备
TW202316179A (zh) * 2021-10-08 2023-04-16 日商半導體能源研究所股份有限公司 電子裝置
WO2023084950A1 (ja) * 2021-11-10 2023-05-19 ソニーセミコンダクタソリューションズ株式会社 表示装置、表示システム、および表示駆動方法
CN114339232B (zh) * 2021-12-16 2024-04-16 杭州当虹科技股份有限公司 自适应分辨率的编码方法及其对应的解码方法
CN114630182A (zh) * 2022-02-28 2022-06-14 海信视像科技股份有限公司 一种虚拟现实视频的播放方法及设备
WO2024009653A1 (ja) * 2022-07-04 2024-01-11 ソニーグループ株式会社 情報処理装置、情報処理方法、及び情報処理システム
US11898332B1 (en) 2022-08-22 2024-02-13 Caterpillar Inc. Adjusting camera bandwidth based on machine operation
US20240107086A1 (en) * 2022-09-23 2024-03-28 Apple Inc. Multi-layer Foveated Streaming

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001036901A (ja) * 1999-07-15 2001-02-09 Canon Inc 画像処理装置及び画像処理方法並びにメモリ媒体
US6252989B1 (en) * 1997-01-07 2001-06-26 Board Of The Regents, The University Of Texas System Foveated image coding system and method for image bandwidth reduction
JP2003284071A (ja) * 2002-01-05 2003-10-03 Samsung Electronics Co Ltd 人間の視覚特性を考慮した映像の符号化方法及び復号化方法並びにその装置
WO2005004062A2 (en) * 2003-07-03 2005-01-13 Baxall Limited Method and apparatus for compressing background and region of interest a digital image at different resolutions
JP2006332882A (ja) * 2005-05-24 2006-12-07 Mitsubishi Electric Corp 動画像符号化装置
JP2009027535A (ja) * 2007-07-20 2009-02-05 Sanyo Electric Co Ltd 画像処理装置およびそれを用いた撮像装置
WO2010137104A1 (ja) * 2009-05-25 2010-12-02 パイオニア株式会社 映像処理装置、映像処理方法、及び映像処理プログラム
JP2010537489A (ja) * 2007-08-15 2010-12-02 トムソン ライセンシング 関心のある領域の情報を使用した改善されたビデオ符号化の方法及び装置
JP2014060512A (ja) * 2012-09-14 2014-04-03 Fujitsu Ltd 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号化装置、動画像復号化方法、動画像復号化プログラム、及び動画像処理装置
US20140270553A1 (en) * 2013-03-13 2014-09-18 Disney Enterprises, Inc. Content-aware image compression method
US20150365687A1 (en) * 2013-01-18 2015-12-17 Canon Kabushiki Kaisha Method of displaying a region of interest in a video stream

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6623428B2 (en) 2001-10-11 2003-09-23 Eastman Kodak Company Digital image sequence display system and method
US20030189579A1 (en) * 2002-04-05 2003-10-09 Pope David R. Adaptive enlarging and/or sharpening of a digital image
US7809145B2 (en) 2006-05-04 2010-10-05 Sony Computer Entertainment Inc. Ultra small microphone array
US8947347B2 (en) 2003-08-27 2015-02-03 Sony Computer Entertainment Inc. Controlling actions in a video game unit
US7783061B2 (en) 2003-08-27 2010-08-24 Sony Computer Entertainment Inc. Methods and apparatus for the targeted sound detection
US20060062478A1 (en) * 2004-08-16 2006-03-23 Grandeye, Ltd., Region-sensitive compression of digital video
CN107483933A (zh) * 2009-11-04 2017-12-15 皇家飞利浦电子股份有限公司 用于提供媒体数据和元数据组合的方法和系统
KR20110065986A (ko) 2009-12-10 2011-06-16 삼성전자주식회사 연관된 마스크들을 이용하여 디더링된 비디오 디스플레이 방법 및 이를 적용한 비디오 디스플레이 장치
JP5355449B2 (ja) * 2010-02-24 2013-11-27 日本電信電話株式会社 マルチ解像度映像復号方法、マルチ解像度映像復号装置、及びプログラム
US20120249797A1 (en) 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
US9094681B1 (en) * 2012-02-28 2015-07-28 Google Inc. Adaptive segmentation
US20150312575A1 (en) * 2012-04-16 2015-10-29 New Cinema, LLC Advanced video coding method, system, apparatus, and storage medium
KR101987820B1 (ko) * 2012-10-05 2019-06-11 삼성전자주식회사 고 해상도 컨텐츠를 처리하는 컨텐츠 처리 장치 및 그 방법
US20140119456A1 (en) * 2012-11-01 2014-05-01 Microsoft Corporation Encoding video into lower resolution streams
US9158114B2 (en) * 2012-11-05 2015-10-13 Exelis Inc. Image display utilizing a variable mask to selectively block image data
CN103002283A (zh) * 2012-11-20 2013-03-27 南京邮电大学 多视角分布式视频压缩的边信息生成方法
CN103974071A (zh) * 2013-01-29 2014-08-06 富士通株式会社 基于感兴趣区域的视频编码方法和设备
CN104427337B (zh) * 2013-08-21 2018-03-27 杭州海康威视数字技术股份有限公司 基于目标检测的感兴趣区域视频编码方法及其装置
CN110121885B (zh) * 2016-12-29 2023-07-25 索尼互动娱乐股份有限公司 用于利用注视跟踪的vr、低等待时间无线hmd视频流传输的有凹视频链接

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6252989B1 (en) * 1997-01-07 2001-06-26 Board Of The Regents, The University Of Texas System Foveated image coding system and method for image bandwidth reduction
JP2001036901A (ja) * 1999-07-15 2001-02-09 Canon Inc 画像処理装置及び画像処理方法並びにメモリ媒体
JP2003284071A (ja) * 2002-01-05 2003-10-03 Samsung Electronics Co Ltd 人間の視覚特性を考慮した映像の符号化方法及び復号化方法並びにその装置
WO2005004062A2 (en) * 2003-07-03 2005-01-13 Baxall Limited Method and apparatus for compressing background and region of interest a digital image at different resolutions
JP2006332882A (ja) * 2005-05-24 2006-12-07 Mitsubishi Electric Corp 動画像符号化装置
JP2009027535A (ja) * 2007-07-20 2009-02-05 Sanyo Electric Co Ltd 画像処理装置およびそれを用いた撮像装置
JP2010537489A (ja) * 2007-08-15 2010-12-02 トムソン ライセンシング 関心のある領域の情報を使用した改善されたビデオ符号化の方法及び装置
WO2010137104A1 (ja) * 2009-05-25 2010-12-02 パイオニア株式会社 映像処理装置、映像処理方法、及び映像処理プログラム
JP2014060512A (ja) * 2012-09-14 2014-04-03 Fujitsu Ltd 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号化装置、動画像復号化方法、動画像復号化プログラム、及び動画像処理装置
US20150365687A1 (en) * 2013-01-18 2015-12-17 Canon Kabushiki Kaisha Method of displaying a region of interest in a video stream
US20140270553A1 (en) * 2013-03-13 2014-09-18 Disney Enterprises, Inc. Content-aware image compression method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JIHOON RYOO ET AL.: "Design and Evaluation of a Foveated Video Streaming Service for Commodity Client Devices", MMSYS'16, JPN7020001554, May 2016 (2016-05-01), pages 1 - 11, XP055523235, ISSN: 0004932237, DOI: 10.1145/2910017.2910592 *

Also Published As

Publication number Publication date
WO2018125579A1 (en) 2018-07-05
US20210266571A1 (en) 2021-08-26
EP3563570A4 (en) 2020-09-23
CN110121885A (zh) 2019-08-13
US20180192058A1 (en) 2018-07-05
US11546610B2 (en) 2023-01-03
JP7244584B2 (ja) 2023-03-22
JP6945632B2 (ja) 2021-10-13
US11025918B2 (en) 2021-06-01
JP2020504959A (ja) 2020-02-13
CN110121885B (zh) 2023-07-25
EP3563570A1 (en) 2019-11-06

Similar Documents

Publication Publication Date Title
JP7244584B2 (ja) 視線追跡を用いたvrのためのフォービエイテッドビデオリンク
EP3804307B1 (en) Fast region of interest coding using multi-segment resampling
US11727619B2 (en) Video pipeline
EP3535644B1 (en) Streaming virtual reality video
Illahi et al. Cloud gaming with foveated video encoding
US11164339B2 (en) Fast region of interest coding using multi-segment temporal resampling
JP6870080B2 (ja) 画像生成装置、画像表示システム、および画像生成方法
JP6909286B2 (ja) 画像生成装置、画像表示システム、および画像生成方法
JP2012095229A (ja) 画像表示装置及び画像表示装置用のコンピュータプログラム
JP6097919B2 (ja) 立体視映像のための画像表示システム及び3次元表示装置
Illahi et al. Cloud gaming with foveated graphics
US20240089423A1 (en) Head-Mounted Electronic Device with Adjustable Frame Rate
US20220094981A1 (en) Image Compression For Digital Reality
CN114047822A (zh) 近眼显示方法及系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210727

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230309

R150 Certificate of patent or registration of utility model

Ref document number: 7244584

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150