JP2020030827A - サッカード検出に基づいた動的グラフィックスレンダリングのための装置及び方法 - Google Patents

サッカード検出に基づいた動的グラフィックスレンダリングのための装置及び方法 Download PDF

Info

Publication number
JP2020030827A
JP2020030827A JP2019151193A JP2019151193A JP2020030827A JP 2020030827 A JP2020030827 A JP 2020030827A JP 2019151193 A JP2019151193 A JP 2019151193A JP 2019151193 A JP2019151193 A JP 2019151193A JP 2020030827 A JP2020030827 A JP 2020030827A
Authority
JP
Japan
Prior art keywords
saccade
computer
user
simulated scene
rendering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019151193A
Other languages
English (en)
Inventor
ソウル マリンソン、ドミニク
Saul Mallinson Dominic
ソウル マリンソン、ドミニク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment LLC
Original Assignee
Sony Interactive Entertainment LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment LLC filed Critical Sony Interactive Entertainment LLC
Publication of JP2020030827A publication Critical patent/JP2020030827A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3231Monitoring the presence, absence or movement of users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234345Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements the reformatting operation being performed only on part of the stream, e.g. a region of the image or a time segment
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Dermatology (AREA)
  • Neurology (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Neurosurgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Eye Examination Apparatus (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

【解決手段】サッカードの検出に基づいてコンピュータグラフィックスをレンダリングするための方法が提供される。方法の一実施形態は、ユーザに表示するためにコンピュータシミュレートシーンをレンダリングすることと、コンピュータシミュレートシーンを見ているユーザの眼球運動にサッカードマスキングを生じさせるサッカードの発現を検出することと、サッカードの持続期間の少なくとも一部においてコンピュータシミュレートシーンのフレームをレンダリングするために使用されるコンピューティングリソースを削減することとを含む。システムが同様のステップを実行し、1つまたは複数のコンピュータプログラムを各々記憶する非一時的コンピュータ可読ストレージ媒体もまた提供される。【選択図】図1

Description

[関連出願の相互参照]
本出願は、2015年9月4日に出願され、「APPARATUS AND METHOD FOR DYNAMIC GRAPHICS RENDERING BASED ON SACCADE DETECTION」と題する米国特許出願第14/845,862号の継続出願であり、そこからの利益を主張しており、その全内容及び開示はこれにより、その全体が参照により本明細書に十分に組み込まれている。
[発明の分野]
本発明は一般にコンピュータ生成された画像に関し、より具体的には、コンピュータ生成されたグラフィックスのリアルタイムのレンダリングに関する。
コンピュータ描画されたグラフィックスは、種々のユーザインターフェース及び媒体をユーザに提示するのに利用される。コンピュータグラフィックスのリアルタイムのレンダリングは、リアルタイムのユーザ入力及びソフトウェア状態の変化に応じてグラフィカルコンテンツをレンダリングすることを可能にする。
一実施形態は、コンピュータシミュレートシーンをユーザに表示するためにレンダリングすること、コンピュータシミュレートシーンを見ているユーザの眼球運動においてサッカードマスキングを生じさせるサッカードの発現を検出することと、このサッカードの持続期間の少なくとも一部においてコンピュータシミュレートシーンのフレームをレンダリングするために使用されるコンピューティングリソースを削減することとを含む方法を提供する。
別の実施形態は、眼球運動センサと、コンピュータシミュレートシーンをユーザに表示するための表示装置と、眼球運動センサ及び表示装置に通信可能に結合されたプロセッサとを提供する。プロセッサは、表示装置上に表示するためにコンピュータシミュレートシーンをレンダリングし、コンピュータシミュレートシーンを見ているユーザの眼球運動においてサッカードマスキングを生じさせるサッカードの発現を検出し、このサッカードの持続期間の少なくとも一部においてコンピュータシミュレートシーンのフレームをレンダリングするために使用されるコンピューティングリソースを削減するように構成される。
別の実施形態は、プロセッサベースのシステムに、コンピュータシミュレートシーンをユーザに表示するためにレンダリングすること、コンピュータシミュレートシーンを見ているユーザの眼球運動においてサッカードマスキングを生じさせるサッカードの発現を検出することと、このサッカードの持続期間の少なくとも一部においてコンピュータシミュレートシーンのフレームをレンダリングするために使用されるコンピューティングリソースを削減することとを含むステップを実行させるように構成された1つまたは複数のコンピュータプログラムを記憶する非一時的なコンピューティング可読記憶媒体を提供する。
本発明の実施形態の原理が利用される例示の実施形態を記載する以下の詳細な説明及び添付の図面を参照することによって、本発明の種々の実施形態の特徴及び利点の最適な理解が得られるであろう。
本発明の上記の及び他の態様、特徴及び利点は、以下の図面と併せて提示される、以下のより詳細なその説明からより明白になるであろう。
本発明の一部の実施形態によるサッカード検出に基づいた動的なグラフィックスレンダリングのためのシステムを例示するブロック図である。 本発明の一部の実施形態によるサッカード検出に基づいた動的なグラフィックスレンダリングのための方法を例示するフロー図である。 本発明の一部の実施形態によるサッカード検出によるコンピューティングリソースの削減の図である。 本発明の一部の実施形態による較正プロセスを例示するブロック図である。 本発明の一部の実施形態によるヘッドマウントデバイスの図である。 本発明の一部の実施形態によるヘッドマウントデバイスの図である。
人の視覚系は、1つの注視位置から別の位置への素早い動きであるサッカードと呼ばれる眼球運動を有する。サッカード中、脳は、それが視神経から受け取る信号を遮断(マスク)する。このマスキング作用は一般に、サッカードマスキングと呼ばれる。サッカードが終わり、目が安定した新たな固定位置に到達するとすぐに、視神経を経由して脳に送られた画像がこのとき使用されてサッカード中の知覚的なギャップを「埋める」。例えば空間的な更新作業及びサッカード前後の視覚統合などの他の知覚作用もまた、ヒトの脳がサッカード事象の前後にどのように画像を認識するかに影響を与える。空間的更新作業は、視覚的刺激をもはや見ることができないサッカード中及びサッカード後も、サッカード以前に見られた視覚的刺激がなおも脳によって認識される作用を指す。サッカード前後の視覚統合は、脳が、サッカードの前後の2つ以上の固定地点から視覚情報を統合する作用を指す。
サッカードマスキング時間は、数ミリ秒数だけ(例えばおおよそ30msなど)サッカードの眼球運動の前に始まる場合がある。眼球運動自体は、サッカードの規模に応じて少なくともおおよそ50〜75ms間継続することができる。眼球運動が停止した後、さらにおおよそ30msの脳の信号のマスキング作用が発生してよい。
コンピュータ描画仮想現実(VR)シーンでは、リアルタイムの画像のレンダリングは、多くの中央処理装置(CPU)及びグラフィックス処理ユニット(GPU)の電力を取りこみ、優れたVR知覚を提供するために画像が頻繁に生成される(一般に少なくとも60Hz)。したがってVRに関するレンダリングは、極めて多くの電力を消費することがある。
サッカード中、サッカードマスキングが原因で新たな画像(フレーム)がユーザによって知覚されない場合がある。サッカードマスキングの時間は一部のケースでは大抵100msから200ms前後であり得る。サッカードマスキング時間が生じていることを知ったシステムは、コンピューティングリソース及び電力消費を節約するために画像のフレームのレンダリングを回避することができる。例えば60Hzのレンダリング及び100msのサッカード時間では、サッカード中におおよそ6つのフレームを飛ばすことができる、またはより少ないコンピューティングリソースによってレンダリングすることができる。多くのVRシステムでは、より高いフレームレート、例えば90Hzまたは120Hzなどが利用される。そのようなシステムでは、典型的なサッカード時間においてより多くのフレームを節約することができる。このような技術の適用の全体の電力の節約は、サッカードマスキング時間によって取り込まれる全体のVRビューイングタイムのパーセンテージに関連し得る。
電力の節約に加えて、一部の実施形態では、「節約された」処理時間を使用して、例えば複雑な照明計算など、低頻度の更新データをレンダリングすることができる。典型的には3Dにおけるシーン照明は、比較的ゆっくりと変化し、そのため待ち時間に関してより大きな許容値を持って計算することができる。サッカードは任意の特定の割合で生じることは保証されないため、この技術は、サッカードに達する統計的な可能性が存在する長期の(数秒)計算に適している。この技術は、中心窩レンダリング及び視線追跡と併せて使用される場合もある。
サッカードを検出するための種々の技術を以下で考察する。例えばサッカードは、位置感知検出器(PSD)またはドップラー効果センサなどの高速センサを利用して光学式に検出することができる。一部の実施形態では、サッカードの発現は、目の筋肉に近い皮膚上の筋電計測法の(EMG)筋肉信号を測定することによって検出される場合もある。
より詳細な説明が以下に提供される。最初に図1を参照すると、本発明の一部の実施形態によって本明細書に示され記載される方法及び技術のいずれかを行う、実施する及び/または実行するのに使用され得るサッカード検出に基づいて画像をレンダリングするためのシステムが示されている。サッカード検出システム100は、プロセッサ101と、メモリ102と、ディスプレイ130と、センサ110とを含む。サッカード検出システム100は、ヘッドマウントディスプレイ(「HMD」)装置、拡張現実デバイス、仮想現実デバイス、ウエアラブルデバイス、携帯型ユーザデバイス、スマートフォン、パーソナルコンピュータ、テレビ、タブレットコンピュータ、ゲームコンソールなどのうちの1つまたは複数を含む、またはその中に含まれる場合がある。一般にサッカード検出システム100は、少なくとも1つのセンサを有する任意のプロセッサベースのデバイスを含んでよい。
メモリ102は、揮発性及び/または不揮発性コンピュータ可読メモリデバイスのうちの1つまたは複数を含んでよい。いくつかの実施形態において、メモリ102は、プロセッサ101に、サッカードの出現を自動的に検出し、サッカードの持続期間の少なくとも一部においてコンピュータシミュレートシーンのフレームをレンダリングするのに使用されるコンピューティングリソースを削減するようにさせるコンピュータ実行可能コードを記憶している。コンピュータ可読命令は、プロセッサに、センサ110からの情報に基づいてサッカードを検出するように命令することができる。メモリ102はさらに、検出された眼球運動が、サッカードマスキングを生じさせるサッカードを構成するかどうかを判定する、及び/または検出されたサッカードの持続期間を予測するのに使用される眼球運動モデルを記憶することができる。眼球運動モデルは、本明細書に記載される較正のプロセスうちの1つまたは複数を通して個々のユーザに対して較正されるパラメータを含むことができる。いくつかの実施形態において、メモリ102はさらに、プロセッサ101に、対話式の音声及びビデオコンテンツをユーザに提供するようにさせるコンピュータ実行可能コードを記憶している。例えば対話式ビデオコンテンツは、仮想現実または拡張現実コンテンツであってよい。ビデオコンテンツは、リアルタイムにレンダリングされたコンピュータ生成画像を含んでよい。いくつかの実施形態において、コンピュータ実行可能コードは、プロセッサ101に、以下で図2及び図4を参照して本明細書に記載される1つまたは複数のステップを実行するようにさせる。いくつかの実施形態において、メモリ102は、ローカル、リモート及びクラウドベースストレージのうちの1つまたは複数によって少なくとも部分的に実装されてよい。
センサ110は、カメラ、光学センサ、赤外線センサ、EMGセンサ、光学反射板センサ、距離センサ、光学流量センサ、ドップラーセンサ、マイクロフォンなどのうちの1つまたは複数を備えることができる。一般に、センサ110は、眼球運動の方向、加速及び速度の変化など素早い眼球運動を検出するように構成される。眼球運動は、取り込んだ画像のフレーム及び/またはユーザの頭部に対する一連の検出された視線位置に基づいて追跡されてよい。例えばセンサ110は、目の瞳の一連の画像を取り込むことができ、各々の注視位置は、取り込まれたフレームの中の瞳の中心の位置に基づいて判定されてよい。
EMGセンサは、筋肉細胞によって生成される電位を検出するセンサである。目の眼窩または眼窩周囲の領域に、またはその近傍に配置されたEMGは、眼球運動を制御する筋肉(例えば直筋、内直筋、下直筋、上直筋、下頭斜筋など)によって生成される電位に基づいて眼球運動の振幅及び/または方向を測定することができる。いくつかの実施形態において、EMGセンサは、センサが測定するように構成された筋肉を覆っているユーザの皮膚の上に直接配置される場合もある。いくつかの実施形態において、EMGはユーザの皮膚に接触していない。いくつかの実施形態において、EMGは、目のサッカード運動が始まる前に筋肉信号に基づいてサッカードの発現を検出する場合もある。
光学反射板センサは、眼球から反射される光の変化を検出することによって眼球運動を検出するセンサであってよい。例えば光学反射板センサは、光学トラックボールデバイスと同じ方法で機能することができる。距離センサは、ドップラーセンサ、受動光学センサ、赤外線センサ、ラダーなど、物理的な接触なしですぐ近くの物体の存在を検出するように構成された任意のセンサであってよい。ヒトの眼球は完全な球体ではないため、ユーザの頭蓋骨から固定された距離のところのセンサと、センサの直接の視線内にある眼球の一部との間の近さは眼球運動に伴って変化する。例えば目の角膜は、強膜に対して盛り上がっており、よってより短い検出範囲は、角膜がセンサの直接の視線内にあることを示すことができる。マイクロフォンは、眼球運動によって生成される音声信号を検出するのに使用されてよい。例えば、眼球運動によって生成される音の振幅は、眼球運動の振幅と一致し得る。指向性の眼球運動は、そのそれぞれの音プロファイルに基づいて検出される場合もある。
ディスプレイ130は、ディスプレイスクリーン、プロジェクションデバイス、拡張現実表示デバイス、仮想現実表示デバイス、HMDなどのうちの1つまたは複数であってよい、またはそのうちの1つまたは複数を備える場合がある。一般にディスプレイ130は、プロセッサ101からユーザにコンピュータ生成グラフィックスを示すように構成されている。ディスプレイ130はサッカード検出システム100の一部であるように示されているが、一部の実施形態では、ディスプレイ130はサッカード検出システム100とは別に実装される場合もある。例えばプロセッサは、生成されたグラフィックスを外部の表示デバイスに出力して、ユーザに表示する場合もある。サッカード検出システム100は、ユーザが、ディスプレイ130によって示されるコンピュータ生成グラフィックス及び/または実世界のシーンを見ているとき、ユーザの眼球運動を監視することができる。
いくつかの実施形態において、サッカード検出システム100はさらに、プロセッサ101と一体化された、またはそれとは別個である場合もあるグラフィックス処理ユニット(GPU)を含む。GPUは、ユーザに表示するためのグラフィックスを生成する際のレンダリング計算の少なくとも一部を行うことができる。一般に、コンピューティングリソースは、CPU処理リソースもしくはGPU処理リソースのいずれか、またはCPU処理リソースとGPU処理リソースの両方を指す場合がある。
いくつかの実施形態において、サッカード検出システム100はさらに、センサ110をユーザの眼球運動を感知するのに適した位置に保持する、支持する及び/または設置する物理的な構造体を含む。例えば一部の実施形態では、物理的構造体は、ユーザの目のわずかに前方にカメラを保持する、またはユーザの目の外側の角に直接、またはそれに近接してEMGセンサを保持することができる。一部の実施形態によるそのような物理的構造体の例が以下で図5A〜図5Bに提供される。いくつかの実施形態において、片方の目だけが監視されるが、他の実施形態では、システムは両方の目をセンサのセットを用いて監視する。いくつかの実施形態において、センサのうちの1つまたは複数は、複数のセンサ及び/またはセンサタイプを有する。
いくつかの実施形態において、ユーザの視線は、センサ110または第2のセンサ(図示せず)によって追跡されてよい。例えばシステムは、センサ110を利用してVRまたはARシステムへの入力としてユーザの視線の位置を追跡することができ、またサッカード検出のために視線追跡データを利用することもできる。いくつかの実施形態において、ユーザの視線は、カメラ及び/またはEMGセンサによって追跡されてよく、サッカード検出は、EMGセンサのみに基づいている、または視線追跡に使用されない別のセンサに基づいている。システムはさらに、サッカードの終わりを検出するためのセンサを含む場合がある。一例として、サッカードの終わりを検出するためのセンサは、センサ110、視線を追跡するのに使用されるセンサ、及び/または別個のセンサであってよい、またはそれらを有する場合がある。
いくつかの実施形態において、サッカード検出システム100は、例えばスピーカ、音声出力ポート、キイ、タッチパッド、タッチスクリーン、マイクロフォン、ジャイロスコープ、無線トランシーバなどのその他の入/出力デバイスを含む場合がある。いくつかの実施形態において、本明細書に記載される1つまたは複数の方法及び機能は、リモートデバイスによって実施され、有線または無線データ通信を介してサッカード検出システム100に伝達されてよい。いくつかの実施形態において、プロセッサ101は、追跡した眼球運動と、リモートソースから受信したデータを使用して、ディスプレイ130上でユーザに表示するためのコンテンツを決定するように構成される。例えばプロセッサ101は、ディスプレイ130に、ローカルまたは外部コンテンツをユーザの追跡した眼球運動に基づいて拡張現実または仮想現実方式で表示させることができる。プロセッサ101はさらに、検出したサッカードに基づいてコンテンツのフレームをレンダリングするのに使用されるコンピューティングリソースが削減されるかどうか、ならびにどのくらい削減されるかを判断することができる。
いくつかの実施形態において、図1に示される各々の構成要素は、例えばヘッドマウントデバイス(HMD)またはウエアラブルデバイスなどの携帯型の筐体に囲まれる及び/または携帯型筐体に取り付けられる。いくつかの実施形態において、図1に示される1つまたは複数の構成要素は別々に実装され、有線または無線接続を介してシステムと通信することができる。例えばセンサ110は、コンピュータモニタまたはテレビジョンセットの近くに配置されたセンサであってよく、図1に示されるメモリ102及びプロセッサ101は、パーソナルコンピュータシステム、ゲームコンソールまたはエンタテインメントシステムと一緒に実装される場合もある。
図2を参照すると、サッカード検出に基づいて画像をレンダリングするための方法200の一例が例示されている。いくつかの実施形態において、方法200のステップは、1つまたは複数のサーバデバイス、ユーザデバイスまたはサーバデバイスとユーザデバイスの組み合わせによって実行されてよい。一般に方法200のステップは、1つまたは複数のプロセッサベースのデバイス、例えばサッカード検出システム100のプロセッサ101及び/または他の制御回路などによって実行されてよい。
方法210において、システムは、ユーザに表示するためにコンピュータシミュレートシーンをレンダリングする。いくつかの実施形態において、コンピュータシミュレートシーンは、ユーザ入力及び/またはプログラム状態に基づいてリアルタイムにレンダリングされる。いくつかの実施形態において、コンピュータシミュレートシーンは、例えば60Hz、90Hz、120Hzなどの一定のフレームレートでレンダリングされる。一部の実施形態では、コンピュータシミュレートシーンは、可変のフレームレートでレンダリングされる。コンピュータシミュレートシーンは、VRシーン、ARシーン、3Dシーン、2Dシーンなどのうちの1つまたは複数を含むことができる。コンピュータシミュレートシーンのレンダリングは、2Dオブジェクト、3Dオブジェクト、バックグラウンド、影、照明効果、ユーザインターフェース要素などのレンダリングを含んでよい。いくつかの実施形態において、コンピュータシミュレートシーンは、対話型映画、ビデオゲーム、シミュレータソフトウェアなどの一部であってよい。
ステップ220において、システムは、サッカードマスキングを生じさせるサッカードの発現を検出する。サッカードは一般に、視線の固定の2つの局面の間での目の素早い運動を指す。サッカードは、例えば眼球トレモア、眼球ドリフト、及び円滑性追跡眼球運動などの他の種類の眼球運動とは区別される。十分な規模のサッカードは、脳の知覚にサッカードマスキングを生じさせる。システムは、サッカードマスキングを生じさせるサッカードを、小さな不随意眼球運動であるマイクロサッカードから区別することができる。サッカードは、眼球運動の方向、速度及び加速のうちの1つまたは複数における急な変化を検知することによって検出することができる。いくつかの実施形態において、EMGセンサを使用して、サッカードの発現に関連する筋肉信号を監視することができる。例えばサッカードは、眼球運動を制御する1つまたは複数の筋肉によって生成される電位におけるスパイクを検知することによって検出されてよい。いくつかの実施形態において、サッカードは、所定の閾値を超える眼球運動の加速が検知されたときに検出される。いくつかの実施形態において、サッカードの検出は、眼球運動モデルに基づく場合がある。例えばサッカード検出に使用される眼球運動の加速の閾値は、ユーザの人口統計学に基づく場合がある、または本明細書に記載される1つまたは複数の較正方法を利用して個々のユーザに対して較正される場合もある。一般に、サッカード検出の任意の既知の方法が、本開示の精神から逸脱することなく利用されてよい。
いくつかの実施形態において、サッカードの持続期間が、ステップ220の後に予測される。いくつかの実施形態において、サッカードの持続期間は、眼球運動モデルと、サッカードの発現を検出するのに使用された測定値の大きさのうちの少なくとも一方に基づいて予測されてよい。眼球運動モデルは、ヒトの目におけるサッカードの持続期間に関連する統計的データに基づくことができる、及び/または個々のユーザに対して較正される場合もある。ヒトの目におけるサッカードの持続期間に関連する統計的データは、大半の人の典型的なサッカード持続期間に関する情報を提供する一般集団の調査に基づくことができる。いくつかの実施形態において、サッカードの持続期間は、発現時のサッカードの規模に基づいて予測される。サッカードの持続期間は、発現時の眼球運動の加速の大きさに概ね相関する場合がある。したがってシステムは、サッカードの持続期間を予測するために、発現時の加速に関連するデータを測定することができる。いくつかの実施形態において、EMGセンサは、眼球運動を制御する筋肉によって生成される電位を測定し、サッカードの持続期間の予測は、測定された電位の値に基づくことができる。いくつかの実施形態において、サッカードを検出するために画像センサによって取り込まれた少なくとも2つの画像から眼球運動の速度が計算されてよい。サッカードの継続期間は、サッカードの発現直後の眼球運動の速度に基づいて予測されてよい。いくつかの実施形態において、システムは、サッカード中のピーク眼球運動速度及び/または眼球運動の減速を監視し、検出したピーク眼球運動速度及び/または眼球運動の減速に基づいてサッカードの終わりを予測する。
ステップ230において、システムは、サッカードの持続期間の少なくとも一部においてコンピュータシミュレートシーンのフレームをレンダリングするために使用されるコンピューティングリソースを削減する。いくつかの実施形態において、システムは、コンピュータシミュレートシーンの1つまたは複数のフレームを飛ばす、コンピュータシミュレートシーンの1つまたは複数のフレームを繰り返す、コンピュータシミュレートシーンの1つまたは複数のフレームのレンダリング詳細を低下させる、コンピュータシミュレートシーンの1つまたは複数のフレームのレンダリング解像度を低下させる、及び/またはコンピュータシミュレートシーンをレンダリングするための可変のフレームレートを調整することによって、フレームをレンダリングするために使用されるコンピューティングリソースを削減することができる。いくつかの実施形態において、システムは、削減時間の直前に生成されたフレームを繰り返すことで削減時間中にフレームに対して計算を行うことを回避する。例えば可変フレームレートGPUを含むシステムなどの可変フレームレートのレンダリングを伴うシステムでは、システムは、サッカードマスキング期間の終わりまでレンダリングを中止する、または削減時間中は、より低いフレームレートでレンダリングすることができる。いくつかの実施形態において、システムは、テクスチャマップにおける詳細を削減する、3Dモデルのポリゴン数を削減する、及び影、反射及び表面下散乱などの照明効果を低下させることによってレンダリング詳細を低下させる。いくつかの実施形態において、削減時間におけるフレームは、グループオブピクチャ(GOP)ビデオエンコーディングにおける再投影技術に似た技術によって生成されてよい。二方向投影の場合、そのフレームに先行する、及びその後に続くBフレーム基準画像は、基準となる2フレームに対して動きが補償された差分情報を包含する。
一般に削減時間中、システムは、要求するシステムのCPU及び/またはGPUによる計算がより少なくなるような方法でコンピュータシミュレートシーンをレンダリングする。サッカードマスキング、空間的な更新作業及び/またはサッカード前後の知覚、フレーム及び/または要因が原因で、フレームの詳細が観察者に知覚されずに削除される場合がある。
いくつかの実施形態において、フレームをレンダリングするために使用されるコンピューティングリソースの削減は、サッカードの予測される持続期間の少なくとも一部にわたって継続する。例えば60Hzのレンダリングの場合、サッカードが100ms継続すると予測された場合、削減は、1〜6フレーム継続してよい。いくつかの実施形態において、システムは、フレームが通常通りレンダリングされる、検出されたサッカード持続期間の始め及び/または終わりに「セーフ」ゾーンを残すように構成される場合がある。いくつかの実施形態において、システムは、サッカードマスキングが目のサッカード運動が終わった後もしばらくの間持続する効果を考慮し、削減時間がサッカード眼球運動の予期した持続期間を超えることを可能にする場合がある。いくつかの実施形態において、システムは、サッカードの持続期間を予測せず、削減時間は、全ての検出されたサッカードに関してデフォルトの最初の長さに設定される場合もある。例えば典型的に少なくとも100msの持続期間に相当する発現規模を有するサッカードがステップ220において検出された場合のみ、システムが各々の検出されたサッカードに関する持続期間を予測せずに、削減時間は全ての検出されたサッカードに関して90msに設定されてよい。
一部の実施形態では、ステップ220において、システムはまた、サッカードの発現の検出の確実性のレベルを判定する。確実性のレベルは、測定した信号の鮮明度及び/または眼球運動の方向、加速及び速度のうちの1つまたは複数における変化の大きさに基づく場合がある。いくつかの実施形態において、システムは、確実性のレベルに基づいて削減するコンピューティングリソースの量を判定する。削減するコンピューティングリソースの量は、どのくらいのフレームを飛ばすか、どのくらいのフレームを繰り返すか、レンダリング詳細、レンダリング解像度、レンダリングフレームレートなどをどのくらい低下させるかに基づいてよい。例えば高い確実性のレベルの場合、レンダリング解像度は、元のレンダリング解像度の1/4まで低下される場合があり、低い確実性のレベルの場合、レンダリング解像度は、元のレンダリング解像度の1/2まで低下される場合がある。いくつかの実施形態において、システムは、確実性のレベルに基づいてコンピュータシミュレートシーンのフレームのレンダリングのためのコンピューティングリソースを削減する2つ以上の方法から選択する。例えば高い確実性のレベルの場合、システムはフレームを飛ばすまたは繰り返してよく、低い確実性のレベルの場合、システムは、レンダリングされたフレームの詳細を低下させてよい。
いくつかの実施形態において、削減の量及びその方法は、サッカード時間の中でのフレームの一時的な場所に対応してよい。例えばより少量の削減は、サッカード時間の真ん中でのフレームと比較して、サッカード時間の始まり及び終わりにより近いフレームに対して行われてよい。
いくつかの実施形態において、システムはさらに、コンピュータシミュレートシーンをレンダリングするための低頻度の更新計算を行うように、ステップ230において節約されたコンピューティングリソースを再割り当てするように構成される。例えばシステムは、コンピューティングリソースを再割り当てすることで、コンピュータシミュレートシーンに関する複雑な照明計算を行うことができる。いくつかの実施形態において、自由になったコンピューティングリソースは、他の用途及びシステムプロセスによって使用することができる。
各々の個々の生理機能は変化するため、いくつかの実施形態では、図2に示されるプロセスの前に、システムは、ユーザに関して個別化された眼球運動モデルを生成または構成するために較正シーケンスを経由するようにユーザを導くことができる。例えばシステムは、ユーザに、特定の角度付きの位置から別の位置に自分の目を移動させるように命令することができる。システムはその後、センサによって得られた測定値を、予期した眼球運動と比較して、そのユーザに関する眼球運動モデルを構成することができる。眼球運動モデルはその後、サッカードマスキングを生じさせるサッカードを検出する、及び/またはサッカードの持続期間を予測するのに使用されてよい。
いくつかの実施形態において、較正シーケンスを実行するのに加えて、またはその代わりに、ステップ220の後に、システムは、較正の目的でサッカード時間の終わりを検出することができる。サッカード時間の終わりは、アイトラッキング法によって検出されてよく、例えば固視、眼球トレモア、眼球ドリフト及び円滑性追跡眼球運動などの他のタイプの眼球の運動状態に相当する眼球運動の速度またはパターンへの復帰に相当し得る。サッカード時間の終わりは、ステップ220においてサッカードの発現を検出するのに使用されたものと同一のまたはそれとは異なるセンサによって検出されてよい。測定されたサッカード時間の持続期間は、サッカードの持続期間を予測するのに使用された眼球運動モデルを較正するために、予測したサッカードの持続期間と比較されてもよい。較正プロセスのより詳細な説明は、以下で図4を参照して本明細書で提供される。
いくつかの実施形態において、図2におけるサッカード検出は、中心窩レンダリングと併せて使用されてよい。中心窩レンダリングは、画像の解像度または詳細の総数が固定地点に応じて画像全体にわたって変化する技術である。サッカードが検出された場合、システムは、サッカードの持続期間中は固定地点を全く想定せず、レンダリングされた画像における画像解像度または詳細の総数を画像全体にわたって基準値まで低下させることができる。
図3を参照すると、本発明の一部の実施形態によるサッカード検出によるコンピューティングリソースの削減の実例が示されている。図3では、目の速度または加速は、例えば図1におけるセンサ110などのセンサによって追跡されてよい。目の速度または加速が閾値を超えた場合、システムは、サッカードの発現310を検出することができる。いくつかの実施形態において、この発現は、目の速度または加速が増大する前の筋肉信号に基づいて検出されてよい。いくつかの実施形態において、サッカードの発現は、サッカード運動が実際に始まった直後に検出されてよい。
いくつかの実施形態において、システムはまた、サッカードの発現時の測定値に基づいてサッカード312の持続期間を予測する。いくつかの実施形態において、予測は、サッカードの発現310における加速の大きさに基づくことができる。サッカードマスキングを生じさせる特定の規模のサッカードが検出された場合、システムは、コンピュータシミュレートシーンの1つまたは複数のフレームを飛ばす、コンピュータシミュレートシーンの1つまたは複数のフレームを繰り返す、コンピュータシミュレートシーンの1つまたは複数のフレームのレンダリング詳細を低下させる、コンピュータシミュレートシーンの1つまたは複数のフレームのレンダリング解像度を低下させる、及び/またはコンピュータシミュレートシーンの1つまたは複数のフレームの可変のフレームレートを調整することによって、フレームをレンダリングするのに使用されるコンピューティングリソースを削減することができる。図3に示されるようにコンピュータシミュレートシーンのフレームをレンダリングするのに使用されるコンピューティングリソースは、予測されるサッカードの持続期間の一部において低下する。コンピューティングリソースラインは全体として、画像をレンダリングするためのCPU及び/またはGPUに対する負荷を表している。例えばコンピューティングリソースラインは、CPU/GPUによるミリ秒当たり行われる計算の数を表す場合がある。システムは、サッカード時間の予測される終わりの直前に通常の基準に戻るようにレンダリング方法を復帰させる。サッカード時間の予測される終わりは、サッカード運動の予測される終わりまたはサッカードマスキング知覚作用の予測される終わりに相当してよく、これはサッカード運動が終わった後しばらくの間持続する可能性がある。
図3は、概念のみの例示として提供されている。図3は、実際のサッカード検出またはコンピューティングリソース削減とは一致せず、必ずしも一定の基準ではない。
サッカード時間におけるコンピューティングリソースの削減は、レンダリングデバイスの全体の電力消費を削減することができる。電池を利用する携帯機器の場合、電力消費の削減は、充電までの間の電池寿命を延ばすようにすることができる。コンピューティングリソースはまた、コンピュータシミュレートシーンをレンダリングするための高レイテンシの更新など他の利用に割り当てられてもよい。コンピューティングリソースはまた、デバイス上で稼働中の他のアプリケーション及び/またはオペレーティングシステムプロセスによる使用のために解放される場合もある。
図4を参照すると、フィードバック較正によるサッカード持続期間予測の一例が例示されている。センサ420は、眼球運動の方向、速度及び加速のうちの1つまたは複数を測定し、この測定値をサッカード検出モジュール422に提供するように構成されている。センサ420は、図1に示されるセンサ110であってよい、及び/またはカメラ、光学センサ、光学画像センサ、赤外線センサ、光学流量センサ、EMGセンサ、位置感知デバイス、ドップラー効果センサなどのうちの1つまたは複数を備える場合もある。
サッカード検出モジュール422は、センサ420からのデータを分析して、サッカードマスキングを生じさせるサッカードが生じているか、またはもうすぐ生じようとしているかを判断する。いくつかの実施形態において、サッカード検出モジュール422は、その判断を、眼球運動モデル450または別のモデルに基づくことができる。例えば眼球運動モデルは、サッカードマスキングを生じさせるサッカードの発現を示す眼球運動の加速の大きさの閾値を含んでよい。EMGセンサを有する実施形態に関して、この閾値は筋肉信号電圧に相当し得る。
サッカードの発現が検出された後、サッカード持続期間予測モジュール425が、サッカードの持続期間を予測する。いくつかの実施形態において、サッカード持続期間予測モジュール425は、その予測を、サッカードの発現時の眼球運動の大きさと、サッカードの検出されたピーク加速または速度のうちの1つまたは複数に基づく。サッカード持続期間予測モジュール425はさらに、その予測を眼球運動モデル450に基づく。眼球運動モデル450は、検出されたサッカードの規模をサッカード持続期間に対応させてもよい。眼球運動モデル450は最初は、ヒトの目におけるサッカードの持続期間に関連する統計的データに基づいてよく、個々のユーザに対して較正されてよい。
またサッカードの発現が検出された後、サッカード持続期間測定モジュール430が、サッカード時間の終わりを監視し、サッカードの持続期間を計算する。サッカード時間の終わりは、アイトラッキング法によって検出されてよく、固定、眼球トレモア、眼球ドリフト及び円滑性追跡眼球運動などの他のタイプの眼球の運動状態に相当する眼球運動の速度またはパターンの復帰に相当し得る。サッカード時間の終わりは、センサ420によって、及び/または1つまたは複数の他のセンサによって検出されてよい。較正モジュール440は、サッカード持続期間予測モジュール425から予測されたサッカード持続期間と、サッカード持続期間測定モジュール430からの測定されたサッカード持続期間を比較して予測の精度を判定する。較正モジュール440は、この比較に基づいて眼球運動モデル450を更新することができる。例えばサッカード持続期間予測モジュール425が、サッカードの持続期間を短く見積もる傾向がある場合、較正モジュール440は、より長いサッカード持続期間を有するサッカードの発現時の測定値に対応するように、眼球運動モデル450を更新することができる。
眼球運動モデルは、いくつかの実施形態において、図4におけるサッカード持続期間予測モジュール425によって使用されるように示されているが、サッカード検出モジュール422もまた、同一のまたは異なる眼球運動モデル450を利用する。いくつかの実施形態において、較正モジュール440は、その較正を、複数のサッカード持続期間の予測に基づく場合があり、特定の傾向が観察された場合のみ眼球運動モデル450を更新する。
図5Aを参照すると、本明細書に開示される技術が履行され得る拡張現実タイプのHMDの実例が示されている。HMDデバイス500は、センサ513及び515を着用者の眼球運動を監視するのに適した位置に保持するフレーム510を含む。2つのセンサが図5Aに示されているが、本明細書に記載される技術は、第1のセンサ513または第2のセンサ515のみを有するHMDによって履行される場合もある。
いくつかの実施形態において、HMDデバイス500は、2つのセンサを含んでおり、一方のセンサは、サッカードの発現を検出するのに使用され、もう一方のセンサはサッカードの持続期間を測定するのに使用される。いくつかの実施形態では、一つのセンサが、サッカードの発現と、サッカードの終わりの両方を検出するのに使用される。いくつかの実施形態において、HMDはサッカードの終わりを検出するためのセンサを含まない。HMDデバイス500はまた、拡張現実シーンをユーザに提供するように構成された表示装置(図示せず)も含んでいる。第1のセンサ513は、ユーザの目の画像を捕らえるように位置決めされた光学センサであってよい。第2のセンサ515は、図5Aに示されるようにユーザのこめかみ領域に接触している、またはそこに近接しているEMGセンサであってよい。EMGセンサは、例えばユーザの目の下、目の内側の角の近くなど他の位置に配置される場合もある。いくつかの実施形態において、2つ以上のEMGセンサが異なる領域に配置される場合もある。第2のセンサ515は、低解像度の画像センサ、高フレームレートの画像センサ、光学反射板センサ、距離センサ及びマイクロフォンなど他のタイプのセンサを備えることができる。第2のセンサが画像または光学センサである実施形態では、第2のセンサ515は、第1のセンサ513の近くに配置されてよい。図5Aにおけるセンサの配置は、単なる一例として提供されている。一般に、センサの配置は、本開示の精神から逸脱することなく、センサのタイプ及びユーザの生理機能に基づいて様々に構成されてよい。
図5Bを参照すると、本明細書に開示される技術が履行され得る仮想現実型HMDデバイスの実例が示されている。HMDデバイス520は、ユーザの視野を囲んでいる。本明細書に記載されるセンサ(複数可)は、HMDのユーザに面する側に配置されてよい。例えば画像センサは、HMDデバイス520の内側の表示スクリーンのすぐ上に位置決めされてよく、EMGセンサは、ユーザの眼窩または眼窩周囲領域にもたれかかるようにしてHMDデバイス520の一部に位置決めされてよい。
図5A〜図5Bの両方において、検出されたサッカードは、ユーザに表示するためにコンピュータ生成グラフィックスをどのようにレンダリングするかを決定するためにHMDデバイス500及び520によって利用されてよい。サッカードが検出された場合、HMDデバイス500及び520のプロセッサは、コンピュータシミュレートシーンのフレームをレンダリングするのに使用されるコンピューティングリソースを削減することができる。決定され推定された注視位置はまた、この先の注視位置を予測するのに使用されてよく、これによりコンピュータが、中心窩レンダリングを促進するために、次のフレームが表示される際のユーザの固定位置を特定することを可能にする。
いくつかの実施形態において、上に記載した実施形態、方法、手法及び/または技術のうちの1つまたは複数は、プロセッサベースの装置またはシステムによって実行可能な1つまたは複数のコンピュータプログラムまたはソフトウェアアプリケーションにおいて実施されてよい。一例として、そのようなプロセッサベースの装置またはシステムは、コンピュータ、エンタテインメントシステム、ゲームコンソール、ワークステーション、グラフィックスワークステーション、サーバ、クライアント、携帯機器、パッド状デバイスなどを備えることができる。そのようなコンピュータプログラム(複数可)は、上に記載した方法及び/または技術の種々のステップ及び/または特徴を実行するために使用されてよい。すなわちコンピュータプログラム(複数可)は、プロセッサベースの装置またはシステムに、上に記載した機能を実行し達成するようにさせる、またはそのように構成するように適合されてよい。例えばそのようなコンピュータプログラム(複数可)は、上に記載した方法、ステップ、技術または特徴の任意の実施形態を実施するために使用されてよい。別の例として、そのようなコンピュータプログラム(複数可)は、上に記載した実施形態、方法、手法及び/または技術のうちの任意の1つまたは複数を利用する任意のタイプのツールまたは同様のユーティリティを実装するのに使用されてよい。いくつかの実施形態において、プログラムコードマクロ、モジュール、ループ、サブルーチン、コールなどが、コンピュータプログラム(複数可)において、またはそれなしで、上に記載した方法及び/または技術の種々のステップ及び/または特徴を実行するために使用されてよい。いくつかの実施形態において、コンピュータプログラム(複数可)は、本明細書に記載されるコンピュータ可読ストレージまたは1つの記録媒体もしくは複数の記録媒体のうちのいずれかなど、コンピュータ可読ストレージまたは1つの記録媒体もしくは複数の記録媒体に記憶される、またはそこに組み入れられてよい。
したがっていくつかの実施形態において、本発明は、コンピュータへの入力のためにコンピュータプログラムを組み入れるための媒体と、本明細書に記載される実施形態、方法、手法及び/または技術のうちの任意の1つまたは複数に包含されるステップのうちの任意の1つまたは複数を含むステップをコンピュータに実施させる、または実行させるためにこの媒体に組み入れられたコンピュータプログラムとを備えるコンピュータプログラム製品を提供する。例えばいくつかの実施形態において、本発明は、プロセッサベースの装置またはシステムに、ユーザに表示するためにコンピュータシミュレートシーンをレンダリングすることと、コンピュータシミュレートシーンを見ているユーザの眼球運動にサッカードマスキングを生じさせるサッカードの発現を検出することと、サッカードの持続期間の少なくとも一部においてコンピュータシミュレートシーンのフレームをレンダリングするために使用されるコンピューティングリソースを削減することとを含むステップを実行させるように適合されたまたはそのように構成された1つまたは複数のコンピュータプログラムを記憶する1つまたは複数の非一時的コンピュータ可読ストレージ媒体を提供する。
本明細書に開示される発明を特有の実施形態及びその用途を利用して説明してきたが、特許請求の範囲に記載される本発明の範囲から逸脱せずに、当業者によって多くの修正及び変更をそれに対して行うことができる。

Claims (35)

  1. コンピュータシミュレーションを見ているユーザの目におけるサッカードを検出することと、
    前記サッカードが終わる前に、前記ユーザの固定地点が前記サッカードの終わりにおいてコンピュータシミュレートシーン内のどこに位置するかを予測することと、
    予測された前記固定地点を前記コンピュータシミュレートシーンの他の部分よりも詳細にレンダリングすることとを含む方法。
  2. 予測された前記固定地点を前記コンピュータシミュレートシーンの他の部分よりも詳細にレンダリングすることが、予測された前記固定地点を前記コンピュータシミュレートシーンの他の部分よりも高い解像度でレンダリングすることを含む、請求項1に記載の方法。
  3. 前記ユーザの固定地点が前記サッカードの終わりにおいてコンピュータシミュレートシーン内のどこに位置するかを予測することは、前記ユーザの将来の注視位置を予測することを含む、請求項1に記載の方法。
  4. 前記ユーザの固定地点が前記サッカードの終わりにおいてコンピュータシミュレートシーン内のどこに位置するかを予測することは、前記サッカードの持続期間を予測することを含む、請求項1に記載の方法。
  5. 前記サッカードの持続期間を予測することが、ヒトの目におけるサッカードの持続期間に関連する統計的データと、前記サッカードの発現を検出するのに使用された測定値の大きさのうちの少なくとも一方に基づいている、請求項4に記載の方法。
  6. 前記サッカードの終わりを検出することと、
    少なくとも前記サッカードの検出された終わりに基づいて前記サッカードの持続期間を計算することとをさらに含む、請求項4に記載の方法。
  7. 前記サッカードの計算された持続期間と、前記サッカードの予測された持続期間を比較することと、
    前記比較の結果を利用して、前記サッカードの持続期間を予測するのに使用されるモデルを調整することとをさらに含む、請求項6に記載の方法。
  8. 前記サッカードが、光学センサ、光学流量センサ、筋電計測法(EMG)センサ、位置感知デバイス及びドップラー効果センサうちの1つまたは複数を利用して検出される、請求項1から7のいずれか一項に記載の方法。
  9. コンピュータシミュレーションを見ているユーザの目におけるサッカードを検出することが、前記目のサッカード運動が始まる前に前記サッカードの発現を検出することを含む、請求項1から7のいずれか一項に記載の方法。
  10. 前記コンピュータシミュレーションを見ている前記ユーザに対して個別化された眼球運動モデルを較正することをさらに含み、前記サッカードを検出することは、前記個別化された眼球運動モデルに基づいている、請求項1から7のいずれか一項に記載の方法。
  11. 前記サッカードの持続期間の少なくとも一部において前記コンピュータシミュレーションのフレームをレンダリングするために使用されるコンピューティングリソースを削減することをさらに含む、請求項1から7のいずれか一項に記載の方法。
  12. 前記サッカードの検出の確実性のレベルを判定することをさらに含む、請求項11に記載の方法。
  13. 前記確実性のレベルに基づいて削減する前記コンピューティングリソースの量を判定することをさらに含む、請求項12に記載の方法。
  14. 前記確実性のレベルに基づいて前記コンピュータシミュレーションのフレームのレンダリングのために使用される前記コンピューティングリソースを削減する2つ以上の方法から選択することをさらに含む、請求項12に記載の方法。
  15. 前記コンピュータシミュレーションのフレームをレンダリングするための低頻度の更新計算を行うように前記コンピューティングリソースを再割り当てすることをさらに含む、請求項11に記載の方法。
  16. 前記低頻度の更新計算が照明計算を含む、請求項15に記載の方法。
  17. 眼球運動センサと、
    コンピュータシミュレートシーンをユーザに表示するための表示装置と、
    前記眼球運動センサ及び前記表示装置に通信可能に結合されたプロセッサとを備え、
    前記プロセッサが、
    コンピュータシミュレートシーンを見ているユーザの目におけるサッカードを検出することと、
    前記サッカードが終わる前に、前記ユーザの固定地点が前記サッカードの終わりにおいてコンピュータシミュレートシーン内のどこに位置するかを予測することと、
    予測された前記固定地点を前記コンピュータシミュレートシーンの他の部分よりも詳細にレンダリングすることとを含むステップを実行するように構成されるシステム。
  18. 予測された前記固定地点を前記コンピュータシミュレートシーンの他の部分よりも詳細にレンダリングすることが、予測された前記固定地点を前記コンピュータシミュレートシーンの他の部分よりも高い解像度でレンダリングすることを含む、請求項17に記載のシステム。
  19. 前記ユーザの固定地点が前記サッカードの終わりにおいてコンピュータシミュレートシーン内のどこに位置するかを予測することは、前記ユーザの将来の注視位置を予測することを含む、請求項17に記載のシステム。
  20. 前記ユーザの固定地点が前記サッカードの終わりにおいてコンピュータシミュレートシーン内のどこに位置するかを予測することは、前記サッカードの持続期間を予測することを含む、請求項17に記載のシステム。
  21. 前記サッカードが、光学センサ、光学流量センサ、筋電計測法(EMG)センサ、位置感知デバイス及びドップラー効果センサうちの1つまたは複数を利用して検出される、請求項17から20のいずれか一項に記載のシステム。
  22. コンピュータシミュレートシーンを見ているユーザの目におけるサッカードを検出することが、前記目のサッカード運動が始まる前に前記サッカードの発現を検出することを含む、請求項17から20のいずれか一項に記載のシステム。
  23. 前記プロセッサが、
    前記コンピュータシミュレートシーンを見ている前記ユーザに対して個別化された眼球運動モデルを較正することを含むステップを実行するようにさらに構成され、前記サッカードを検出することは、前記個別化された眼球運動モデルに基づいている、請求項17から20のいずれか一項に記載のシステム。
  24. 前記プロセッサが、
    前記サッカードの持続期間の少なくとも一部において前記コンピュータシミュレートシーンのフレームをレンダリングするために使用されるコンピューティングリソースを削減することを含むステップを実行するようにさらに構成される、請求項17から20のいずれか一項に記載のシステム。
  25. 前記プロセッサが、
    前記サッカードの検出の確実性のレベルを判定することを含むステップを実行するようにさらに構成される、請求項24に記載のシステム。
  26. 前記プロセッサが、
    前記確実性のレベルに基づいて削減する前記コンピューティングリソースの量を判定することを含むステップを実行するようにさらに構成される、請求項25に記載のシステム。
  27. 前記プロセッサが、
    前記確実性のレベルに基づいて前記コンピュータシミュレートシーンのフレームのレンダリングのために使用される前記コンピューティングリソースを削減する2つ以上の方法から選択することを含むステップを実行するようにさらに構成される、請求項25に記載のシステム。
  28. プロセッサベースのシステムに、
    コンピュータシミュレーションを見ているユーザの目におけるサッカードを検出することと、
    前記サッカードが終わる前に、前記ユーザの固定地点が前記サッカードの終わりにおいてコンピュータシミュレートシーン内のどこに位置するかを予測することと、
    予測された前記固定地点を前記コンピュータシミュレートシーンの他の部分よりも詳細にレンダリングすることとを含むステップを実行させるように構成された1つまたは複数のコンピュータプログラムを記憶する非一時的コンピュータ可読ストレージ媒体。
  29. 予測された前記固定地点を前記コンピュータシミュレートシーンの他の部分よりも詳細にレンダリングすることが、予測された前記固定地点を前記コンピュータシミュレートシーンの他の部分よりも高い解像度でレンダリングすることを含む、請求項28に記載の非一時的コンピュータ可読ストレージ媒体。
  30. 前記ユーザの固定地点が前記サッカードの終わりにおいてコンピュータシミュレートシーン内のどこに位置するかを予測することは、前記ユーザの将来の注視位置を予測することを含む、請求項28に記載の非一時的コンピュータ可読ストレージ媒体。
  31. 前記ユーザの固定地点が前記サッカードの終わりにおいてコンピュータシミュレートシーン内のどこに位置するかを予測することは、前記サッカードの持続期間を予測することを含む、請求項28に記載の非一時的コンピュータ可読ストレージ媒体。
  32. コンピュータシミュレーションを見ているユーザの目におけるサッカードを検出することが、前記目のサッカード運動が始まる前に前記サッカードの発現を検出することを含む、請求項28から31のいずれか一項に記載の非一時的コンピュータ可読ストレージ媒体。
  33. 前記1つまたは複数のコンピュータプログラムが、前記プロセッサベースのシステムに、
    前記サッカードの持続期間の少なくとも一部において前記コンピュータシミュレーションのフレームをレンダリングするために使用されるコンピューティングリソースを削減することを含むステップを実行させるようにさらに構成される、請求項28から31のいずれか一項に記載の非一時的コンピュータ可読ストレージ媒体。
  34. 前記1つまたは複数のコンピュータプログラムが、前記プロセッサベースのシステムに、
    前記サッカードの検出の確実性のレベルを判定することを含むステップを実行させるようにさらに構成される、請求項33に記載の非一時的コンピュータ可読ストレージ媒体。
  35. 前記1つまたは複数のコンピュータプログラムが、前記プロセッサベースのシステムに、
    前記確実性のレベルに基づいて前記コンピュータシミュレーションのフレームのレンダリングのために使用される前記コンピューティングリソースを削減する2つ以上の方法から選択することを含むステップを実行させるようにさらに構成される、請求項34に記載の非一時的コンピュータ可読ストレージ媒体。
JP2019151193A 2015-09-04 2019-08-21 サッカード検出に基づいた動的グラフィックスレンダリングのための装置及び方法 Pending JP2020030827A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/845,862 US9857871B2 (en) 2015-09-04 2015-09-04 Apparatus and method for dynamic graphics rendering based on saccade detection
US14/845,862 2015-09-04

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018511414A Division JP6577137B2 (ja) 2015-09-04 2016-08-25 サッカード検出に基づいた動的グラフィックスレンダリングのための装置及び方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021036186A Division JP7050980B2 (ja) 2015-09-04 2021-03-08 サッカード検出に基づいた動的グラフィックスレンダリングのための装置及び方法

Publications (1)

Publication Number Publication Date
JP2020030827A true JP2020030827A (ja) 2020-02-27

Family

ID=58187983

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2018511414A Active JP6577137B2 (ja) 2015-09-04 2016-08-25 サッカード検出に基づいた動的グラフィックスレンダリングのための装置及び方法
JP2019151193A Pending JP2020030827A (ja) 2015-09-04 2019-08-21 サッカード検出に基づいた動的グラフィックスレンダリングのための装置及び方法
JP2021036186A Active JP7050980B2 (ja) 2015-09-04 2021-03-08 サッカード検出に基づいた動的グラフィックスレンダリングのための装置及び方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018511414A Active JP6577137B2 (ja) 2015-09-04 2016-08-25 サッカード検出に基づいた動的グラフィックスレンダリングのための装置及び方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021036186A Active JP7050980B2 (ja) 2015-09-04 2021-03-08 サッカード検出に基づいた動的グラフィックスレンダリングのための装置及び方法

Country Status (5)

Country Link
US (5) US9857871B2 (ja)
EP (2) EP3913468B1 (ja)
JP (3) JP6577137B2 (ja)
CN (2) CN107949819B (ja)
WO (1) WO2017040214A1 (ja)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10204658B2 (en) 2014-07-14 2019-02-12 Sony Interactive Entertainment Inc. System and method for use in playing back panorama video content
DE102015213769A1 (de) * 2015-07-22 2017-01-26 Robert Bosch Gmbh Verfahren und Vorrichtung zum Prädizieren einer Blickrichtung eines Fahrzeuginsassen
US9857871B2 (en) 2015-09-04 2018-01-02 Sony Interactive Entertainment Inc. Apparatus and method for dynamic graphics rendering based on saccade detection
EP3353630B1 (en) * 2015-09-24 2021-05-26 Tobii AB Eye-tracking enabled wearable devices
US10338677B2 (en) * 2015-10-28 2019-07-02 Microsoft Technology Licensing, Llc Adjusting image frames based on tracking motion of eyes
US9946073B2 (en) * 2015-12-31 2018-04-17 Oculus Vr, Llc Methods and systems for eliminating strobing by switching display modes in response to detecting saccades
US11284109B2 (en) 2016-01-29 2022-03-22 Cable Television Laboratories, Inc. Visual coding for sensitivities to light, color and spatial resolution in human visual system
US10110935B2 (en) 2016-01-29 2018-10-23 Cable Television Laboratories, Inc Systems and methods for video delivery based upon saccadic eye motion
US10169846B2 (en) 2016-03-31 2019-01-01 Sony Interactive Entertainment Inc. Selective peripheral vision filtering in a foveated rendering system
US10372205B2 (en) 2016-03-31 2019-08-06 Sony Interactive Entertainment Inc. Reducing rendering computation and power consumption by detecting saccades and blinks
US10192528B2 (en) 2016-03-31 2019-01-29 Sony Interactive Entertainment Inc. Real-time user adaptive foveated rendering
US10401952B2 (en) 2016-03-31 2019-09-03 Sony Interactive Entertainment Inc. Reducing rendering computation and power consumption by detecting saccades and blinks
CN109416572A (zh) 2016-04-29 2019-03-01 托比股份公司 启用眼睛跟踪的可穿戴设备
US11089280B2 (en) 2016-06-30 2021-08-10 Sony Interactive Entertainment Inc. Apparatus and method for capturing and displaying segmented content
US10068553B2 (en) * 2016-09-12 2018-09-04 Intel Corporation Enhanced rendering by a wearable display attached to a tethered computer
US10306180B2 (en) * 2016-10-21 2019-05-28 Liquidsky Software, Inc. Predictive virtual reality content streaming techniques
US10311641B2 (en) * 2016-12-12 2019-06-04 Intel Corporation Using saccadic eye movements to improve redirected walking
CN109716425B (zh) * 2017-01-08 2022-08-19 昆山云英谷电子科技有限公司 异步控制显示更新和发光
US10572764B1 (en) * 2017-06-05 2020-02-25 Google Llc Adaptive stereo rendering to reduce motion sickness
US10942564B2 (en) * 2018-05-17 2021-03-09 Sony Interactive Entertainment Inc. Dynamic graphics rendering based on predicted saccade landing point
US11262839B2 (en) 2018-05-17 2022-03-01 Sony Interactive Entertainment Inc. Eye tracking with prediction and late update to GPU for fast foveated rendering in an HMD environment
US10802585B2 (en) * 2018-07-12 2020-10-13 Apple Inc. Electronic devices with display operation based on eye activity
US11644897B2 (en) 2019-04-01 2023-05-09 Evolution Optiks Limited User tracking system using user feature location and method, and digital display device and digital image rendering system and method using same
EP3948402B1 (en) 2019-04-01 2023-12-06 Evolution Optiks Limited Pupil tracking system and method, and digital display device and digital image rendering system and method using same
US11307655B2 (en) * 2019-09-19 2022-04-19 Ati Technologies Ulc Multi-stream foveal display transport
US11353723B2 (en) * 2019-10-31 2022-06-07 Tectus Corporation Saccade detection and endpoint prediction for electronic contact lenses
CN112949370A (zh) 2019-12-10 2021-06-11 托比股份公司 眼睛事件检测
US11222394B2 (en) * 2020-03-19 2022-01-11 Arm Limited Devices and headsets
GB2595461B (en) * 2020-05-26 2023-06-07 Sony Interactive Entertainment Inc Gaze tracking apparatus and systems
TWI762996B (zh) * 2020-08-07 2022-05-01 國立臺北科技大學 工作計時系統及其方法
CN113852841A (zh) * 2020-12-23 2021-12-28 上海飞机制造有限公司 一种可视化场景建立方法、装置、设备、介质和系统
CN113362450B (zh) * 2021-06-02 2023-01-03 聚好看科技股份有限公司 一种三维重建方法、装置及系统
WO2023233207A1 (en) * 2022-06-02 2023-12-07 Evolution Optiks Limited User tracking system and method, and digital display device and digital image rendering system and method using same
US12118655B2 (en) * 2022-06-17 2024-10-15 Inseye Inc. Minimal latency apparatus and method for supporting foveated rendering
CN118264700B (zh) * 2024-04-17 2024-10-08 北京尺素科技有限公司 Ar渲染方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH099253A (ja) * 1995-06-19 1997-01-10 Toshiba Corp 画像圧縮通信装置
JP2005020729A (ja) * 2003-06-24 2005-01-20 Hewlett-Packard Development Co Lp ストリーミングメディアを処理する(servicing)方法およびシステム
WO2009142008A1 (ja) * 2008-05-20 2009-11-26 パナソニック株式会社 視線検出装置、撮像装置、視線検出方法、プログラム、及び集積回路
US20100056274A1 (en) * 2008-08-28 2010-03-04 Nokia Corporation Visual cognition aware display and visual data transmission architecture
JP2010257224A (ja) * 2009-04-24 2010-11-11 Seiko Epson Corp 動画像表示装置
US20140361971A1 (en) * 2013-06-06 2014-12-11 Pablo Luis Sala Visual enhancements based on eye tracking
JP2015520581A (ja) * 2012-05-14 2015-07-16 クゥアルコム・インコーポレイテッドQualcomm Incorporated インターコード化又はイントラコード化のための候補ブロックのプログラマブル且つスケーラブルな探索
JP2015152938A (ja) * 2014-02-10 2015-08-24 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2017526078A (ja) * 2014-05-09 2017-09-07 グーグル インコーポレイテッド 実在および仮想のオブジェクトと対話するための生体力学ベースの眼球信号のためのシステムおよび方法

Family Cites Families (87)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1019252A (en) 1910-05-09 1912-03-05 Daniel B Hill Motor-plow.
JPH0822385A (ja) * 1994-02-22 1996-01-23 Nippon Hoso Kyokai <Nhk> 視線対応表示方法及び装置
US6956582B2 (en) 2001-08-23 2005-10-18 Evans & Sutherland Computer Corporation System and method for auto-adjusting image filtering
US20030067476A1 (en) 2001-10-04 2003-04-10 Eastman Kodak Company Method and system for displaying an image
US7499594B2 (en) 2002-04-15 2009-03-03 At&T Intellectual Property 1, L.P. Multi-resolution predictive foveation for bandwidth reduction of moving images
US7809145B2 (en) 2006-05-04 2010-10-05 Sony Computer Entertainment Inc. Ultra small microphone array
US7783061B2 (en) 2003-08-27 2010-08-24 Sony Computer Entertainment Inc. Methods and apparatus for the targeted sound detection
US8947347B2 (en) 2003-08-27 2015-02-03 Sony Computer Entertainment Inc. Controlling actions in a video game unit
CA2579063A1 (en) * 2004-09-03 2006-03-09 Anatoly Kostin System and method for mental workload measurement based on rapid eye movement
JP5043038B2 (ja) 2005-12-14 2012-10-10 デジタル シグナル コーポレイション 眼球の動きを追跡するシステムおよび方法
US7809547B2 (en) 2005-12-29 2010-10-05 Guenthner Russell W Host computer system emulating target system legacy software and providing for incorporating more powerful application program elements into the flow of the legacy software
US20070198982A1 (en) 2006-02-21 2007-08-23 International Business Machines Corporation Dynamic resource allocation for disparate application performance requirements
US8793620B2 (en) 2011-04-21 2014-07-29 Sony Computer Entertainment Inc. Gaze-assisted computer interface
US20110298829A1 (en) 2010-06-04 2011-12-08 Sony Computer Entertainment Inc. Selecting View Orientation in Portable Device via Image Analysis
US20070271560A1 (en) 2006-05-18 2007-11-22 Microsoft Corporation Deploying virtual machine to host based on workload characterizations
US8462949B2 (en) * 2007-11-29 2013-06-11 Oculis Labs, Inc. Method and apparatus for secure display of visual content
CN101681201B (zh) 2008-01-25 2012-10-17 松下电器产业株式会社 脑波接口系统、脑波接口装置、方法
CN101599127B (zh) * 2009-06-26 2011-09-14 安徽大学 眼电信号的特征提取与识别方法
WO2011008793A1 (en) 2009-07-13 2011-01-20 Emsense Corporation Systems and methods for generating bio-sensory metrics
US8964298B2 (en) 2010-02-28 2015-02-24 Microsoft Corporation Video display modification based on sensor input for a see-through near-to-eye display
US8913004B1 (en) 2010-03-05 2014-12-16 Amazon Technologies, Inc. Action based device control
WO2012019114A1 (en) 2010-08-06 2012-02-09 Citrix Systems, Inc. Systems and methods for a para-virtualized driver in a multi-core virtual packet engine device
US9421460B2 (en) 2010-08-31 2016-08-23 Sony Interactive Entertainment Inc. Offline Progress of console game via portable device
US8941559B2 (en) 2010-09-21 2015-01-27 Microsoft Corporation Opacity filter for display device
US8786698B2 (en) 2010-09-23 2014-07-22 Sony Computer Entertainment Inc. Blow tracking user interface system and method
US9183683B2 (en) 2010-09-28 2015-11-10 Sony Computer Entertainment Inc. Method and system for access to secure resources
US20120086630A1 (en) 2010-10-12 2012-04-12 Sony Computer Entertainment Inc. Using a portable gaming device to record or modify a game or application in real-time running on a home gaming system
US8854298B2 (en) 2010-10-12 2014-10-07 Sony Computer Entertainment Inc. System for enabling a handheld device to capture video of an interactive application
US9044675B2 (en) 2010-11-17 2015-06-02 Sony Computer Entertainment Inc. Automated video game rating
US9690099B2 (en) 2010-12-17 2017-06-27 Microsoft Technology Licensing, Llc Optimized focal area for augmented reality displays
CN102073377B (zh) * 2010-12-31 2013-01-02 西安交通大学 基于人眼扫视信号的人机交互式二维定位方法
US8445878B2 (en) * 2011-03-16 2013-05-21 Controlrad Systems, Inc. Radiation control and minimization system and method
US9030425B2 (en) 2011-04-19 2015-05-12 Sony Computer Entertainment Inc. Detection of interaction with virtual object from finger color change
US10120438B2 (en) 2011-05-25 2018-11-06 Sony Interactive Entertainment Inc. Eye gaze to alter device behavior
US9897805B2 (en) 2013-06-07 2018-02-20 Sony Interactive Entertainment Inc. Image rendering responsive to user actions in head mounted display
US9323325B2 (en) 2011-08-30 2016-04-26 Microsoft Technology Licensing, Llc Enhancing an object of interest in a see-through, mixed reality display device
EP2587342A1 (en) 2011-10-28 2013-05-01 Tobii Technology AB Method and system for user initiated query searches based on gaze data
KR101891786B1 (ko) 2011-11-29 2018-08-27 삼성전자주식회사 아이 트래킹 기반의 사용자 기능 운용 방법 및 이를 지원하는 단말기
US8824779B1 (en) * 2011-12-20 2014-09-02 Christopher Charles Smyth Apparatus and method for determining eye gaze from stereo-optic views
CN104169838B (zh) 2012-04-12 2017-07-21 英特尔公司 基于人眼追踪而选择性地使显示器背光
US20130279724A1 (en) 2012-04-19 2013-10-24 Sony Computer Entertainment Inc. Auto detection of headphone orientation
US9934614B2 (en) 2012-05-31 2018-04-03 Microsoft Technology Licensing, Llc Fixed size augmented reality objects
US20140007097A1 (en) 2012-06-29 2014-01-02 Brocade Communications Systems, Inc. Dynamic resource allocation for virtual machines
ES2898981T3 (es) 2012-08-09 2022-03-09 Tobii Ab Activación rápida en un sistema de seguimiento de la mirada
US8437513B1 (en) 2012-08-10 2013-05-07 EyeVerify LLC Spoof detection for biometric authentication
US9380287B2 (en) * 2012-09-03 2016-06-28 Sensomotoric Instruments Gesellschaft Fur Innovative Sensorik Mbh Head mounted system and method to compute and render a stream of digital images using a head mounted display
US20140092006A1 (en) 2012-09-28 2014-04-03 Joshua Boelter Device and method for modifying rendering based on viewer focus area from eye tracking
US20150213634A1 (en) 2013-01-28 2015-07-30 Amit V. KARMARKAR Method and system of modifying text content presentation settings as determined by user states based on user eye metric data
US9727991B2 (en) 2013-03-01 2017-08-08 Microsoft Technology Licensing, Llc Foveated image rendering
US9665171B1 (en) 2013-03-04 2017-05-30 Tobii Ab Gaze and saccade based graphical manipulation
US9244527B2 (en) 2013-03-26 2016-01-26 Volkswagen Ag System, components and methodologies for gaze dependent gesture input control
EP2790126B1 (en) 2013-04-08 2016-06-01 Cogisen SRL Method for gaze tracking
GB2514603B (en) 2013-05-30 2020-09-23 Tobii Ab Gaze-controlled user interface with multimodal input
US10019057B2 (en) 2013-06-07 2018-07-10 Sony Interactive Entertainment Inc. Switching mode of operation in a head mounted display
US20140362110A1 (en) 2013-06-08 2014-12-11 Sony Computer Entertainment Inc. Systems and methods for customizing optical representation of views provided by a head mounted display based on optical prescription of a user
US9480397B2 (en) 2013-09-24 2016-11-01 Sony Interactive Entertainment Inc. Gaze tracking variations using visible lights or dots
US9781360B2 (en) 2013-09-24 2017-10-03 Sony Interactive Entertainment Inc. Gaze tracking variations using selective illumination
EP3048949B1 (en) 2013-09-24 2019-11-20 Sony Interactive Entertainment Inc. Gaze tracking variations using dynamic lighting position
CN105578954B (zh) 2013-09-25 2019-03-29 迈恩德玛泽控股股份有限公司 生理参数测量和反馈系统
US9630105B2 (en) 2013-09-30 2017-04-25 Sony Interactive Entertainment Inc. Camera based safety mechanisms for users of head mounted displays
WO2015054562A1 (en) 2013-10-11 2015-04-16 Interdigital Patent Holdings, Inc. Gaze-driven augmented reality
KR102180528B1 (ko) 2014-01-06 2020-11-18 삼성전자주식회사 색맹 교정을 위한 전자 장치 및 운영 방법
US9753288B2 (en) 2014-01-21 2017-09-05 Osterhout Group, Inc. See-through computer display systems
US10228562B2 (en) 2014-02-21 2019-03-12 Sony Interactive Entertainment Inc. Realtime lens aberration correction from eye tracking
WO2015130849A1 (en) 2014-02-25 2015-09-03 Eyeverify Eye gaze tracking
US9649558B2 (en) 2014-03-14 2017-05-16 Sony Interactive Entertainment Inc. Gaming device with rotatably placed cameras
WO2015139002A1 (en) 2014-03-14 2015-09-17 Sony Computer Entertainment Inc. Gaming device with volumetric sensing
US9836816B2 (en) 2014-04-05 2017-12-05 Sony Interactive Entertainment America Llc Varying effective resolution by screen location in graphics processing by approximating projection of vertices onto curved viewport
US9652882B2 (en) 2014-04-05 2017-05-16 Sony Interactive Entertainment America Llc Gradient adjustment for texture mapping for multiple render targets with resolution that varies by screen location
US20160025971A1 (en) 2014-07-25 2016-01-28 William M. Crow Eyelid movement as user input
US9746984B2 (en) 2014-08-19 2017-08-29 Sony Interactive Entertainment Inc. Systems and methods for providing feedback to a user while interacting with content
US9984505B2 (en) 2014-09-30 2018-05-29 Sony Interactive Entertainment Inc. Display of text information on a head-mounted display
US9584915B2 (en) 2015-01-19 2017-02-28 Microsoft Technology Licensing, Llc Spatial audio with remote speakers
US9614931B2 (en) 2015-01-20 2017-04-04 Sphere 3D Inc. Identifying a resource set require for a requested application and launching the resource set in a container for execution in a host operating system
US9733987B2 (en) 2015-02-20 2017-08-15 Intel Corporation Techniques to dynamically allocate resources of configurable computing resources
US10037312B2 (en) 2015-03-24 2018-07-31 Fuji Xerox Co., Ltd. Methods and systems for gaze annotation
US9704217B2 (en) 2015-04-20 2017-07-11 Intel Corporation Apparatus and method for non-uniform frame buffer rasterization
US9857871B2 (en) 2015-09-04 2018-01-02 Sony Interactive Entertainment Inc. Apparatus and method for dynamic graphics rendering based on saccade detection
US10338677B2 (en) 2015-10-28 2019-07-02 Microsoft Technology Licensing, Llc Adjusting image frames based on tracking motion of eyes
US10726619B2 (en) 2015-10-29 2020-07-28 Sony Interactive Entertainment Inc. Foveated geometry tessellation
US11106273B2 (en) 2015-10-30 2021-08-31 Ostendo Technologies, Inc. System and methods for on-body gestural interfaces and projection displays
US10643381B2 (en) 2016-01-12 2020-05-05 Qualcomm Incorporated Systems and methods for rendering multiple levels of detail
US10643296B2 (en) 2016-01-12 2020-05-05 Qualcomm Incorporated Systems and methods for rendering multiple levels of detail
US10372205B2 (en) 2016-03-31 2019-08-06 Sony Interactive Entertainment Inc. Reducing rendering computation and power consumption by detecting saccades and blinks
US10169846B2 (en) 2016-03-31 2019-01-01 Sony Interactive Entertainment Inc. Selective peripheral vision filtering in a foveated rendering system
US10401952B2 (en) 2016-03-31 2019-09-03 Sony Interactive Entertainment Inc. Reducing rendering computation and power consumption by detecting saccades and blinks
US10192528B2 (en) 2016-03-31 2019-01-29 Sony Interactive Entertainment Inc. Real-time user adaptive foveated rendering

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH099253A (ja) * 1995-06-19 1997-01-10 Toshiba Corp 画像圧縮通信装置
JP2005020729A (ja) * 2003-06-24 2005-01-20 Hewlett-Packard Development Co Lp ストリーミングメディアを処理する(servicing)方法およびシステム
WO2009142008A1 (ja) * 2008-05-20 2009-11-26 パナソニック株式会社 視線検出装置、撮像装置、視線検出方法、プログラム、及び集積回路
US20100056274A1 (en) * 2008-08-28 2010-03-04 Nokia Corporation Visual cognition aware display and visual data transmission architecture
JP2010257224A (ja) * 2009-04-24 2010-11-11 Seiko Epson Corp 動画像表示装置
JP2015520581A (ja) * 2012-05-14 2015-07-16 クゥアルコム・インコーポレイテッドQualcomm Incorporated インターコード化又はイントラコード化のための候補ブロックのプログラマブル且つスケーラブルな探索
US20140361971A1 (en) * 2013-06-06 2014-12-11 Pablo Luis Sala Visual enhancements based on eye tracking
JP2015152938A (ja) * 2014-02-10 2015-08-24 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2017526078A (ja) * 2014-05-09 2017-09-07 グーグル インコーポレイテッド 実在および仮想のオブジェクトと対話するための生体力学ベースの眼球信号のためのシステムおよび方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"レンダリング", レンダリング, JPN6020025300, 21 June 2013 (2013-06-21), ISSN: 0004404395 *
佐藤カフジ: "日本発のVRHMD「FOVE」が業界に革命を起こす!? アイトラッキング&アダプティブレンダリングがもたらす可", 佐藤カフジのVR GAMING TODAY!, JPN6020025299, 25 May 2015 (2015-05-25), ISSN: 0004404394 *
川上 隼斗 HAYATO KAWAKAMI: "インタラクション2014論文集 [online] サッケード追尾可能な視線計測カメラの開発とそれを用", インタラクション2014 [ONLINE], JPN6020025298, 1 March 2014 (2014-03-01), pages 49 - 56, ISSN: 0004404393 *

Also Published As

Publication number Publication date
US11416073B2 (en) 2022-08-16
US20220374077A1 (en) 2022-11-24
CN111399623A (zh) 2020-07-10
JP2021119456A (ja) 2021-08-12
CN107949819B (zh) 2020-03-27
US20180136722A1 (en) 2018-05-17
US10585475B2 (en) 2020-03-10
CN107949819A (zh) 2018-04-20
JP2018529162A (ja) 2018-10-04
JP6577137B2 (ja) 2019-09-18
EP3913468B1 (en) 2023-10-11
US9857871B2 (en) 2018-01-02
US20200201432A1 (en) 2020-06-25
EP3341817A1 (en) 2018-07-04
WO2017040214A1 (en) 2017-03-09
JP7050980B2 (ja) 2022-04-08
EP3913468A1 (en) 2021-11-24
EP3341817A4 (en) 2019-02-06
US11099645B2 (en) 2021-08-24
EP3341817B1 (en) 2021-08-11
US11703947B2 (en) 2023-07-18
US20210373661A1 (en) 2021-12-02
US20170068312A1 (en) 2017-03-09
CN111399623B (zh) 2023-12-26

Similar Documents

Publication Publication Date Title
JP7050980B2 (ja) サッカード検出に基づいた動的グラフィックスレンダリングのための装置及び方法
US11836289B2 (en) Use of eye tracking to adjust region-of-interest (ROI) for compressing images for transmission
Arabadzhiyska et al. Saccade landing position prediction for gaze-contingent rendering
US10775886B2 (en) Reducing rendering computation and power consumption by detecting saccades and blinks
US10859830B2 (en) Image adjustment for an eye tracking system
US12130964B2 (en) Use of eye tracking to adjust region-of-interest (ROI) for compressing images for transmission
US11579690B2 (en) Gaze tracking apparatus and systems

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190821

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200703

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200721

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200923

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201118

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201208