JP7374956B2 - グラフィカルユーザインタフェースに影響する情報の状態変化の不注意状態期間までの延期 - Google Patents

グラフィカルユーザインタフェースに影響する情報の状態変化の不注意状態期間までの延期 Download PDF

Info

Publication number
JP7374956B2
JP7374956B2 JP2021099153A JP2021099153A JP7374956B2 JP 7374956 B2 JP7374956 B2 JP 7374956B2 JP 2021099153 A JP2021099153 A JP 2021099153A JP 2021099153 A JP2021099153 A JP 2021099153A JP 7374956 B2 JP7374956 B2 JP 7374956B2
Authority
JP
Japan
Prior art keywords
frames
series
setup configuration
eye
rendered
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021099153A
Other languages
English (en)
Other versions
JP2021170114A (ja
Inventor
セバスチャン クノール
ダニエル クルツ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of JP2021170114A publication Critical patent/JP2021170114A/ja
Application granted granted Critical
Publication of JP7374956B2 publication Critical patent/JP7374956B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F1/00Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
    • G02F1/01Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour 
    • G02F1/13Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on liquid crystals, e.g. single liquid crystal display cells
    • G02F1/133Constructional arrangements; Operation of liquid crystal cells; Circuit arrangements
    • G02F1/1333Constructional arrangements; Manufacturing methods
    • G02F1/13338Input devices, e.g. touch panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10KORGANIC ELECTRIC SOLID-STATE DEVICES
    • H10K59/00Integrated devices, or assemblies of multiple devices, comprising at least one organic light-emitting element covered by group H10K50/00
    • H10K59/40OLEDs integrated with touch screens
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Nonlinear Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Chemical & Material Sciences (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

(関連出願の相互参照)
本出願は、2016年9月22日に出願された米国仮特許出願第62/398,438号に対し、米国特許法35U.S.C.第119条(e)に基づく優先権を主張し、その内容が全体として参照により本明細書に組み込まれる。
本開示は、一般にデジタル画像処理の分野に関し、より詳細にはグラフィカルユーザインタフェース(GUI)設計の分野に関する。具体的には、GUIに影響を及ぼす情報の状態変化を延期し、GUIのユーザの不注意状態の間に状態変化をトリガすることに関する。
現在の技術では、ユーザは多くの方法で自分たちの環境と対話できる。例として、ゲームソフトウェアでのGPSデバイスは、ユーザが革新的な方法で現実の世界環境と対話することを可能にする。仮想情報を現実環境内にブレンドさせる際の1つの問題は、グラフィカルユーザインタフェースに対して行われた変更が、ユーザには不意で煩わしくて、ユーザエクスペリエンスを損なう場合があることである。
一例として、GUI上の情報の状態変化は、ユーザがそれにフォーカスしている間に変化して混乱を引き起こすか、又はユーザがGUI内の近くの何かにフォーカスしているときに変化してユーザが気を散らす原因となるか、のいずれかの場合がある。コンピュータゲーム内の単語又はオブジェクトは、動的かつ急に現れる場合がある。画面上に表示される詳細レベルが突然変化して、ユーザに混乱を引き起こす場合がある。表示されているデータの状態変化に対処するために、改善されたユーザエクスペリエンスが必要とされる。
一実施形態では、状態変化をトリガするための方法が説明される。本方法は、第1のセットアップ構成に基づいて一連のフレームの第1のバージョンを表示すること、一連のフレームに対する第2のセットアップ構成を取得すること、第2のセットアップ構成を取得したことに応じて、目の状態の変化を監視すること、及び目の状態の変化を検出したことに応じて、第2のセットアップ構成に基づいて一連のフレームの第2のバージョンを表示すること、を含むことができる。別の実施形態では、本方法は、コンピュータ実行可能プログラムコードにおいて実施し、非一時的記憶装置に記憶することができる。更に別の実施形態では、本方法は、画像キャプチャ能力を有する電子デバイスによって実装することができる。
1つ以上の実施形態に係る、簡略化された多機能デバイスをブロック図形式で示す。 1つ以上の実施形態に係る、GUIに影響を及ぼす状態変化を管理するための方法をフローチャート形式で示す。 1つ以上の実施形態に係る、GUIに影響を及ぼす状態変化を管理するための別の方法をフローチャート形式で示す。 1つ以上の実施形態に係る、詳細レベルの状態変化を管理することを示す例示的なフロー図を示す。 1つ以上の実施形態に係る、更新されたキーフレームに基づいて状態変化を管理するための方法の例示的なフロー図を示す。 1つ以上の実施形態に係る、更新された詳細レベルに基づいて状態変化を管理するための方法の例示的なフロー図を示す。 1つ以上の実施形態に係る、更新された詳細レベルに基づいて状態変化を管理するための方法の例示的なフロー図を示す。 1つ以上の実施形態に係る、コンピューティングデバイスの例示的なシステム図を示す。
本開示は、不注意状態の間にグラフィカルユーザインタフェース(GUI)に影響を及ぼす情報の状態変化を延期するためのシステム、方法、及びコンピュータ可読媒体に関する。一般に、一連のフレームに対するセットアップ構成が検出されると、一連のフレームの新しいバージョンがレンダリングされ得るが、ユーザが不注意であると判定されるまでは表示されないように、GUI上の表示を管理するための技術が開示されている。例えば、1つ以上の実施形態によれば、ユーザがまばたき又は目をそらすと判定されるまで、フレームのセットの第1のバージョンが表示されてもよい。1つ以上の実施形態によれば、ユーザの不注意状態の間に表示を変更することは、ユーザに対する変更からの注意散漫を最小化するか、又はより軽減することができる。
1つ以上の実施形態によれば、新しいセットアップ構成を検出すると、システムは、第1の一連のフレームが表示されている間に、一連のフレームの第2のバージョンをレンダリングしてもよい。すなわち、一連のフレームの第1のバージョン及び一連のフレームの第2のバージョンが、並行してレンダリングされてもよい。いくつかの実施形態では、フレームの第2のバージョンが表示され得るまで、一連のフレームの両方のバージョンがレンダリングされてもよい。第2の一連のフレームは、目の状態の変化が検出されるまで、又は目の状態の変化が予測されるときは、レンダリングされなくてもよい。このように、一連のフレームのうちの2つのバージョンは、より短い期間に並行して生成されてもよい。
以下の記載では、説明を目的として、開示された概念に対する理解を深めるために、多くの具体的な詳細を説明している。この記載の一部として、本開示の図面のいくつかは、開示された実施形態の新規の態様が不明瞭になるのを避けるために、構造及び装置をブロック図の形態で表す。これに関連して、関連識別子のない番号(例えば、100)を付された図の要素の参照は、識別子を有する図の要素のすべてのインスタンス(例えば、100a及び100b)を参照することを理解されたい。更に、本記載の一部として、本開示の図のうちのいくつかは、フロー図の形式で提供されることがある。フロー図のボックスは、特定の順序で提示されてもよい。しかしながら、いずれのフロー図の特定のフローも、1つの実施形態を例示するためにのみ使用されることを理解されたい。他の実施形態では、フロー図に示された様々な構成要素のいずれも、削除され得、あるいは、これらの構成要素は、異なる順番で、又は同時にも、実行され得る。加えて、他の実施形態は、フロー図の一部として示されていない追加のステップを含み得る。本明細書において使用される文言は、専ら読みやすさ及び説明の目的で選択されたものであり、開示された主題を限定又は制限するために選択されたものではない。本開示において「1つの実施形態」又は「一実施形態」を言及することは、実施形態に関して述べる特定の特徴、構造又は特性が少なくとも1つの実施形態に含まれることを意味し、そして、「1つの実施形態」又は「一実施形態」を何度も言及することは、必ずしも全てが同じ実施形態を又は異なる実施形態を言及することとして理解されるべきではない。
(任意の開発プロジェクトの場合のような)任意の実際の具現化の開発では、開発者特有の目標(例えば、システム及びビジネス関連制約との適合)を達成するために多数の判断をしなければならず、かつ、これらの目標は、具現化ごとに変化し得ることが了解されよう。また、そのような開発努力は複雑で時間がかかることがあるが、それにもかかわらず、本開示の利益を有する画像キャプチャの当業者の日常行うべきものであることも了解されよう。
本開示の目的のため、用語「カメラ」は、センサ素子及び画像をキャプチャするために利用される他の回路と共に、単一のレンズアセンブリを指す。本開示の目的のため、2つ以上のカメラは、単一のセンサ素子及び他の回路を共有するが、2つの異なるレンズアセンブリを含んでもよい。しかしながら、1つ以上の実施形態では、2つ以上のカメラは、別個のセンサ素子並びに別個のレンズアセンブリ及び回路を含んでもよい。
図1を参照すると、本開示の1つ以上の実施形態に係る、電子デバイス100の簡略化されたブロック図が示されている。電子デバイス100は、携帯電話、タブレットコンピュータ、携帯情報端末、携帯音楽/ビデオプレーヤ、又はカメラシステム、ディスプレイ、及び様々な実施形態を実行するために利用される他の構成要素を含む任意の他の電子デバイスなどの、多機能デバイスの一部であってもよい。電子デバイス100は、モバイルデバイス、タブレットデバイス、デスクトップデバイス、並びにサーバなどのネットワーク記憶装置など、ネットワークを横断して他のネットワークデバイスに接続され得る。
電子デバイス100は、中央演算処理装置(central processing unit、CPU)130を含んでもよい。プロセッサ130は、例えば、モバイル機器に見られるようなシステムオンチップでもよく、1つ以上の専用グラフィック処理ユニット(graphics processing unit、GPU)を含んでもよい。更に、プロセッサ130は、同じタイプ又は異なるタイプの複数のプロセッサを含んでもよい。電子デバイス100はまた、メモリ140を含んでもよい。メモリ140は、CPU130と連動してデバイス機能を実行するために使用することができる、1つ以上の異なるタイプのメモリを含んでもよい。例えば、メモリ140は、キャッシュ、ROM、及び/又はRAMを含み得る。メモリ140は、目の状態モニタ155及びグラフィック表示モジュール160を含む、実行中の様々なプログラミングモジュールを記憶することができる。1つ以上の実施形態によれば、メモリ140は、動的セットアップ構成データに基づいてグラフィカルユーザインタフェースを生成及び管理するために利用される追加のアプリケーションを含み得る。例えば、メモリ140は、レンダリングエンジンを付加的に含んでもよい。
電子デバイス100はまた、前面カメラ110及び背面カメラ120などの1つ以上のカメラを含んでもよい。カメラ110及び120は、画像センサ、レンズスタック、及び画像をキャプチャするために使用することができる他の構成要素をそれぞれ含んでもよい。1つ以上の実施形態では、カメラは、電子デバイス内の異なる方向に向けられてもよい。例えば、前面カメラ110は、電子デバイス100の第1の面内又はその面上に配置されてもよく、背面カメラ120は、電子デバイス100の第2の面内又はその面上に配置されてもよい。1つ以上の実施形態では、第1及び第2の面は、電子デバイス100の向かい合う面であってもよい。別の例として、前面カメラ110は、ユーザの視点から現実環境の画像をキャプチャするように構成されていてもよいが、背面カメラ120は、ユーザの画像をキャプチャするように構成されている。以下で更に詳細に説明するように2つのカメラが示されているが、いくつかの実施形態では、電子デバイス100は単一のカメラを含んでもよい。更に他の実施形態では、電子デバイス100はまた、ディスプレイ150を含んでもよい。センサ175は、例えば、視線の方向、又は目が開いているか若しくは閉じているかどうかなどの、目の状態を判定する際に使用され得る任意の種類のセンサを含んでもよい。ディスプレイ150は、LCDディスプレイ、LEDディスプレイ、OLEDディスプレイなどの任意の種類の表示デバイスであってもよい。加えて、ディスプレイ150は、ヘッドアップディスプレイなどの半不透明ディスプレイであり得る。電子デバイス100は、上述した多数の構成要素を含むものとして示されているが、1つ以上の実施形態では、様々な構成要素は、複数のデバイスにわたって分散されてもよい。更に、追加の構成要素が使用されてもよく、構成要素のうちのいずれかの、機能性の一部の組み合わせが結び付けられてもよい。
1つ以上の実施形態によれば、目の状態モニタ155は目の状態を監視する。いくつかの実施形態では、目の状態は、ユーザの注意深さ又は不注意を示す。すなわち、目の状態モニタ155は、例えば、前面カメラ110から、又は様々なセンサ175から受信したデータに基づいて、ユーザが注意深いかどうかを判定してもよい。加えて、目の状態モニタ155は、目の状態の変化を予測することができる。例えば、前面カメラ110からの画像は、目が閉じられたか若しくは閉じているところか、又は目がディスプレイ150とは異なる方向を見ているかどうかを示すことができる。別の例として、目の周囲の筋肉を監視するセンサは、目がまばたきしようとしていることを検出し、それによって目の状態の変化を予測することができる。1つ以上の実施形態では、目の状態モニタ155は、目の状態を連続的に監視してもよく、又は定期的に若しくは必要なときに目の状態を監視してもよい。例えば、目の状態モニタ155は、新しいセットアップ構成が利用可能であると判定することに応じて、目の状態を監視してもよい。
1つ以上の実施形態によれば、グラフィック表示モジュール160は、所与のセットアップ構成に基づいて一連のフレームを生成するように構成されていてもよい。1つ以上の実施形態では、セットアップ構成は、例えば、センサ175、又はカメラ110及び120によってローカルに受信されたデータに基づいてもよい。加えて、又は代替的に、セットアップ構成に関するデータは、ネットワークデバイス又はサーバなどのリモートソースから受信されてもよい。一例として、電子デバイス100が地図上に方向を表示している場合、セットアップ構成はGPSユニット(図示せず)からのデータを含んでもよい。グラフィック表示モジュール160は、GUIのビューを一連のフレームとして変更する、更新されたセットアップ構成情報を時に受信してもよい。一例として、更新されたGPS情報が、ユーザが実際に、示される初期セットアップ構成データとは異なる道路又はレーン上にあることを示す場合に、一連のフレームの第2のバージョンがレンダリングされてもよい。1つ以上の実施形態では、グラフィック表示モジュール160は、複数の一連のフレームを同時に生成してもよい。実施例に戻ると、更新されたGPSデータが受信された場合、グラフィック表示モジュール160は、第1の一連のフレームが依然としてレンダリングされ、かつ、表示されている間に、一連のフレームの第2のバージョンをレンダリングし始めてもよい。このように、グラフィック表示モジュール160は、要求に応じて、一連のフレームの第1のバージョンから一連のフレームの第2のバージョンにトグルすることができる。1つ以上の実施形態によれば、グラフィック表示モジュール160は、目の状態モニタ155によって判定された目の状態の変化に基づいて、一連のフレームの第2のバージョンを表示し始めるときを判定してもよい。いくつかの実施形態では、グラフィック表示モジュール160は、ユーザが不注意であると判定されると、表示された構成情報のバージョンを切り替えることができる。別の言い方をすれば、グラフィック表示モジュール160は、不注意の条件が満たされるまで、GUI内のグラフィック表現の状態変化を延期することができる。
一例として、コンピュータゲームにおいて、新しいセットアップ構成は、ゲーム環境内に表示するために利用可能となる新しいオブジェクトを含むことができる。グラフィック表示モジュール160は、まばたきの後に新しいオブジェクトが表示されるように、新しいオブジェクトなしでゲーム環境を提示し続け、ユーザがまばたきしている間にゲーム環境を提示し続けてもよい。同様に、グラフィック表示モジュール160は、拡張現実アプリケーションにおいて、現実環境で表示するためのレンダリングされた仮想オブジェクトの変更を延期することができる。別の例として、プログレッシブJPEGは、より粗いブロックからより細かいブロックへ、又はより細かいブロックからより粗いブロックへ遷移してもよい。グラフィック表示モジュール160は、ユーザが不注意になるまで、更新された詳細レベルの表示を延期することができる。セットアップ構成は、他の方法で詳細レベルに適用することができる。例えば、地図へのズーム時には、ストリート名又は近隣などの情報が現れるか又は消失し得る。グラフィック表示モジュール160は、ユーザが不注意になるまで、地図上の表示された詳細レベルの変更を延期することができる。
図2は、1つ以上の実施形態に係る、GUIに影響を及ぼす状態変化を管理するための方法をフローチャート形式で示す。様々なアクションが特定の順序で示されているが、異なる実施形態では、様々なアクションが異なる順序で示されてもよい。更に、いくつかの実施形態では、2つ以上のアクションが同時に生じてもよい。他の実施形態では、アクションのいくつかは必要とされなくてもよく、又は他のアクションが含まれてもよい。明確にするため、フローチャートが、図1の様々な構成要素に関して説明される。しかしながら、様々なアクションが代替の構成要素によって取られてもよいことを理解されたい。
フローチャートは、グラフィック表示モジュール160がディスプレイ150上に一連のフレームの第1のバージョンを表示させる205で開始する。1つ以上の実施形態では、グラフィック表示モジュール160は、第1のセットアップ構成に基づいて、最初の一連のフレームを生成してもよい。第1のセットアップ構成は、一連のフレームをどのようにレンダリングすべきかを示す任意のデータであってもよい。1つ以上の他の実施形態では、グラフィック表示モジュール160は、背面カメラ120などのカメラによってキャプチャされた一連のフレームを提示してもよく、又は別の方法によって生成されるフレームを提示してもよい。更に、一連のフレームは、他のデータに基づいてレンダリングされる追加情報を含んでもよい。例えば、リモートサーバから、又はセンサ175から収集されたデータである。一例として、グラフィック表示モジュール160は、ディスプレイ150上に、背面カメラ120によってキャプチャされた現実環境のビュー内に仮想オブジェクトを提示してもよい。
フローチャートは210に続き、セットアップ構成における更新が識別されたかどうかに関する判定が行われる。上述のように、セットアップ構成における更新は、一連のフレームがどのようにレンダリングされるかを決定する任意の種類のデータであってもよい。例えば、より多くの又はより少ない詳細が利用可能であり得るか、又は他の要因に応じて、より大きい又はより少ないレベルの詳細を含むことが好ましい場合がある。更新が検出されない場合、フローチャートは205に続き、グラフィック表示モジュール160は、第1のセットアップ構成に基づいて一連のフレームの第1のバージョンを表示し続ける。210に戻ると、セットアップ構成における更新が識別されたと判定された場合、フローチャートは215に続き、グラフィック表示モジュール160は、更新されたセットアップ構成に基づいて一連のフレームの第2のバージョンをレンダリングする。
フローチャートは220に続き、目の状態モニタ155が目の状態の変化を監視する。1つ以上の実施形態によれば、目の状態モニタ155は、注視又はまばたきの変化を監視してもよく、これらのいずれかは、ユーザの不注意状態を示すことができる。いくつかの実施形態では、目の状態モニタ155は、例えば、前面カメラ110によって提供される目の画像を監視してもよい。更に、他の実施形態では、目の状態モニタ155は、目の状態の変化を判定するために、センサ175からの追加のセンサデータに依存してもよい。いくつかの実施形態によれば、目の状態モニタ155は、ユーザの目の状態を連続的に監視してもよく、又はセットアップ構成更新の識別に応じて、又はグラフィック表示モジュール160が、更新されたセットアップ構成に基づく一連のフレームの第2のバージョンをレンダリングしたことに応じて、目の状態を監視し始めてもよい。
フローチャートは225に続き、目の状態の変化が検出されたかどうかに関する判定が行われる。1つ以上の実施形態によれば、目の状態の変化は、ユーザが不注意であることを示してもよい。例えば、ユーザは、まばたきしているか、又はディスプレイから目をそらしている。他の実施形態では、ユーザの片目又は両目がまだ開いている場合に、目をそらすことが、ユーザが不注意であるとするのには十分ではない場合がある。むしろ、ユーザは、ユーザがディスプレイの変化を意識し得ないような方法で見ていなければならない。例えば、ユーザが依然としてGUIのグラフィックの急激な変更に気付く可能性がある場合、異なる場所を単に見ているだけでは不十分である場合がある。例えば、ユーザの周辺視力においてである。225において目の状態の変化が検出されない場合、フローチャートは220に続き、目の状態モニタ155が目の状態の変化を監視し続ける。225に戻ると、目の状態の変化が検出されたと判定された場合、フローチャートは230に続き、グラフィック表示モジュール160は、第2のセットアップ構成に基づいて一連のフレームの第2のバージョンを表示し始める。
図3は、1つ以上の実施形態に係る、GUIに影響を及ぼす状態変化を管理するための別の方法をフローチャート形式で示す。図3のフローチャートは、図2の実施形態に対する代替の実施形態を示すことができる。様々なアクションが特定の順序で示されているが、いくつかの実施形態では、様々なアクションが異なる順序で示されてもよい。その上、更に他の実施形態では、2つ以上のアクションが同時に生じてもよい。加えて、なおも他の実施形態によれば、アクションのいくつかは必要とされなくてもよく、又は他のアクションが含まれてもよい。明確にするため、フローチャートが、図1の様々な構成要素に関して説明される。しかしながら、1つ以上の実施形態によれば、様々なアクションが代替の構成要素によって取られてもよいことを理解されたい。
フローチャートは305において開始し、グラフィック表示モジュール160に、ディスプレイ150上に一連のフレームの第1のバージョンを表示させる。1つ以上の実施形態では、グラフィック表示モジュール160は、第1のセットアップ構成に基づいて、最初の一連のフレームを生成してもよい。第1のセットアップ構成は、一連のフレームをどのようにレンダリングすべきかを示す任意のデータであってもよい。他の実施形態では、グラフィック表示モジュール160は、背面カメラ120などのカメラによってキャプチャされた一連のフレームを提示してもよく、又は別の方法によって生成されるフレームを提示してもよい。更に、一連のフレームは、他のデータ、例えば、リモートサーバから又はセンサ175から収集されたデータに基づいてレンダリングされる追加情報を含んでもよい。一例として、グラフィック表示モジュール160は、ディスプレイ150上に、背面カメラ120によってキャプチャされた現実環境のビュー内に仮想オブジェクトを提示してもよい。
フローチャートは310に続き、セットアップ構成における更新が識別されたかどうかに関する判定が行われる。上述のように、セットアップ構成における更新は、一連のフレームがどのようにレンダリングされるべきかを決定する任意の種類のデータであってもよい。例えば、より多くの又はより少ない詳細が利用可能であり得るか、又は他の要因に応じて、より大きい又はより少ないレベルの詳細を含むことが好ましい場合がある。更新が検出されない場合、フローチャートは305に続き、グラフィック表示モジュール160は、第1のセットアップ構成に基づいて一連のフレームの第1のバージョンを表示し続ける。しかしながら、図2に示されるステップとは対照的に、310においてセットアップ構成における更新が識別された場合、フローチャートは315に続き、グラフィック表示モジュール160は、一連のフレームの第1のバージョンを表示し続けてもよい。
フローチャートは320に続き、目の状態モニタ155が目を監視して、目の状態の変化が予測されるかどうかを判定する。1つ以上の実施形態によれば、目の状態の変化は、例えば、正面カメラ110からの画像に基づいて予測され得る。他の実施形態では、画像は、例えば、目が閉じていることを示してもよい。別の例として、センサ175から他のセンサデータを収集して、目の状態の変化が予測されることを示すまばたき又は他の動きが生じているかどうかを判定することができる。例えば、センサデータは、まばたきが差し迫ったときを予測するために、目の周囲の筋肉の筋肉運動を監視してもよい。目の状態の変化が予測されるという判定に応じて、フローチャートは325に続き、グラフィック表示モジュール160は、更新されたセットアップ構成に基づいて、一連のフレームの第2のバージョンをレンダリングする。
フローチャートは330に続き、目の状態モニタ155が、目の状態の変化を監視する。1つ以上の実施形態によれば、目の状態モニタ155は、目の状態の変化を確認するために目を監視してもよい。一例として、まばたきを単に予測するのではなく、目の状態モニタ155は、まばたきを確認するために監視してもよい。フローチャートは335に続き、目の状態の変化が検出されたかどうかに関する判定が行われ得る。いくつかの実施形態によれば、目の状態の変化は、ユーザが不注意であることを示してもよい。例えば、ユーザは、まばたきしているか、又はディスプレイから目をそらしている。1つ以上の他の実施形態では、ユーザの片目又は両目がまだ開いている場合に、目をそらすことが、ユーザが不注意であると判定するのには十分ではない場合がある。むしろ、ユーザは、ユーザがディスプレイ150の変化を意識し得ないような方法で見ていなければならない。例えば、ユーザが依然として、例えばユーザの周辺視覚において、GUIのグラフィックの急激な変更に気付く可能性がある場合、異なる場所を単に見ているだけでは不十分である場合がある。335において目の状態の変化が検出されない場合、フローチャートは330に続き、目の状態モニタ155が目の状態の変化を監視し続ける。335に戻ると、目の状態の変化が検出されたと判定される場合、フローチャートは340に続き、グラフィック表示モジュール160は、第2のセットアップ構成に基づいて一連のフレームの第2のバージョンを表示し始める。
1つ以上の実施形態によれば、図2のフローチャートと図3のフローチャートとの間の差異は、フレームの第2のバージョンがレンダリングされ始めるときである。1つ以上の実施形態では、フレームの第1のバージョンの表示とフレームの第2のバージョンとの間の迅速な変更を行うために、図2に示すように、更新されたセットアップ構成が利用可能であるときに、フレームの第2のバージョンのレンダリングを開始することが好ましい場合がある。更に、他の実施形態によれば、目の状態における予測される変化に応じて、第2のバージョンのフレームをレンダリングし始めることが好ましい場合がある。例えば、リソースを節約するために、フレームの第2のバージョンのレンダリングを延期することが好ましい場合がある。更に他の実施形態によれば、グラフィック表示モジュール160がフレームの第2のバージョンをレンダリングし始める時間は、コンピューティングリソースが節約されるべきか、又はセットアップ構成の変化率などの他の要因に基づいて決定されてもよい。
図4は例示的なユースケースを示し、詳細レベルの変更が、ユーザが不注意になるまで延期される。本来、仮想オブジェクトをレンダリングするために使用されるべき詳細レベルは、仮想オブジェクトのカメラまでの距離に依存し得る。各詳細レベル、及び、例えば関連する3Dモデルは、特定の距離間隔に関連付けられてもよい。使用される詳細レベルの変化は、距離がある閾値を通過するときにトリガされ得る。一例として、距離が1つの間隔を離れて別の間隔に入ると、詳細レベルの変化がトリガされ得る。401において、球状物体がカメラの近くにあり、そのため高度にモザイク化されたモデルがレンダリングに使用される。モデルが(402のように)カメラから更に離れて移動すると、同じレベルの詳細が使用され得る。しかし、ある時点(421)では、オブジェクトがとても遠く離れているため、別の詳細レベルが選択され得る。421において閾値距離を通過することに応じて、413に示すように、球状物体はより低い詳細でレンダリングされてもよい。画像402から画像413への変化は、ユーザによって気付かれ得る。しかしながら、詳細レベルにおけるこの変化は、422においてユーザが不注意になるまで、再び延期される。このように、ユーザは、フレーム403及び404における、高度にモザイク化されたモデルを見続け得る。1つ以上の実施形態では、ユーザが422において不注意であった場合にのみ、フレーム415として実行及び表示される低解像度メッシュへ変更される。
図5は、仮想缶(551)が現実世界環境のカメラ画像(512~516)内にレンダリングされる拡張現実システムにおいて本方法が採用される、別の例示的なユースケースを示す。図5の例では、状態変化は、ポーズ判定アルゴリズムにおける選択されたキーフレームに対して延期される。このように、1つ以上の実施形態では、画像における仮想缶の(位置、スケール、又は向きなど)外観の急激な変化が、ユーザが変更に気付かないように延期される。
この例の目的では、仮想オブジェクトは缶(551)であり、セットアップ構成は、キャプチャされた画像のカメラのポーズを判定するために使用される特定のキーフレーム(例えば、502)であり、可視化構成は、仮想オブジェクトをレンダリングするために使用されるカメラ/オブジェクトの特定の決定されたポーズである。可視化フレームは、仮想オブジェクト(551)のレンダリングによって重ね合わされた現実世界環境のカメラ画像(例えば、512)を示す拡張画像(例えば、522)である。
現実世界環境は、現実テーブル(例えば、(541))のシーンからなってもよい。シーンのモデルは、それぞれがテーブルの画像(例えば502、503)及びキーポーズと呼ばれる、対応する既知6自由度カメラポーズからなるキーフレームとして利用可能であり得る。図5の例では、キーフレーム画像(502、503)は、異なる視点からのテーブル(541、542)を示す。
次いで、移動カメラを使用してシーンをキャプチャすることができる。例えば、モバイルデバイスのカメラである。図5の第2列(511)は、ライブビデオフレーム(511)などのキャプチャされた画像のシーケンスを示す。取得された各画像に対して、ポーズ決定方法は、キャプチャされた画像自体、シーンモデル、並びに潜在的に、以前にキャプチャされた画像及びポーズの履歴に基づいて、カメラポーズを決定することができる。
現実世界の第1の取得画像(512)に対して、アルゴリズムは、最良フィッティングキーフレーム502を見つけ、画像(512)、キーフレーム画像(502)、及びキーフレーム画像(502)の既知のキーポーズに基づいて、画像(512)のカメラポーズを決定することができる。キーフレーム(502)に基づく画像(512)のカメラポーズを使用して、画像(512)の上部上に仮想缶(551)をレンダリングし、それによって拡張画像(522)をもたらすことができる。
現実世界の第2の取得画像(513)に対して、アルゴリズムは、同じキーフレーム画像(502)を最良のフィッティングキーフレーム画像とみなし続けてもよい。例えば、キーフレーム画像は、最良フィッティングキーフレーム画像として決定されてもよく、又は最良のキーフレームを決定するためのアルゴリズムは、フレーム毎にトリガされなくてもよく、前のフレームに対して最良であると考えられるものを使用する。それゆえ、アルゴリズムは、画像(513)、キーフレーム画像(502)、及びキーフレーム画像(502)の既知のキーポーズに基づいて、画像(513)のポーズを決定することができる。あるいは、アルゴリズムは、画像(513)、画像(512)、及び以前に決定された画像のポーズ(512)に基づいて画像(513)のポーズを決定することができ、画像(512)は、キーフレーム画像(502)及びキーフレーム画像(502)の既知のキーポーズに基づいて決定されたものである。両方の場合において、決定されたポーズは本来、キーフレーム(502)に依存し得る。キーフレーム(502)に基づく画像(513)の決定されたカメラポーズを使用して、画像(513)の上部上に仮想缶(552)をレンダリングし、それによって拡張画像(523)をもたらすことができる。
現実の世界環境の第3の取得画像(514)に対して、アルゴリズムは、別のキーフレーム画像が、最良のフィッティング画像、すなわちキーフレーム(503)であると、ここで判定することができる。標準的なアプローチでは、画像(514)、キーフレーム画像(503)、及びキーフレーム画像(503)の既知のキーポーズに基づいて、画像(514)のポーズを決定するために、新たに決定された最良のフィッティングキーフレーム(503)を、ここで直接使用することができる。キーフレーム(503)に基づく画像(514)の決定されたカメラポーズを使用して、画像(514)の上部上に仮想缶(555)をレンダリングし、それによって拡張画像(534)をもたらすことができる。使用されたキーフレーム(すなわち、セットアップ構成)におけるこの変化は、潜在的に、ポーズ(可視化構成)において、それゆえ仮想オブジェクトのレンダリングに目に見える急激な変化をもたらす可能性があるため、それはユーザに気付かれるであろう。しかしながら、ユーザが不注意であった場合、新しいキーフレーム(503)を使用してポーズを決定することができ、最終的な拡張画像が画像(534)であり得る。しかしながら、描かれた例では、ユーザが注意深いため、キーボード(502)は依然として可視化のためのポーズを決定するために使用され、最終的な拡張画像は画像(524)である。追跡アルゴリズムの不正確さ、及びキーフレーム(502)から決定されたポーズにより、缶(553)は、テーブルの上部上に面一にレンダリングされなくてもよいが、テーブルの上方にわずかに浮かんでいてもよいことに注意すべきである。すなわち、キーフレーム(503)は、画像(534)内で目に見えるより正確なポーズを提供することができ、缶(555)はテーブルにより良好に位置合わせされる。フレームがフレーム追跡するのを可能にするために、新しいキーフレーム(503)によるポーズを決定することも可能であり得る。しかしながら、このポーズは、仮想オブジェクトの現在のレンダリングに使用されなくてもよい。
現実世界の第4の取得画像(515)に対して、アルゴリズムは、キーフレーム画像(503)を最良のフィッティングキーフレーム画像と再度みなしてもよい。これは、最良のキーフレームを決定するためのアルゴリズムが、全てのフレーム毎にトリガされなくてもよく、前のフレームから最良であると考えられるものを使用するからである場合がある。ユーザが不注意である場合、新しいキーフレーム(503)を使用して(直接的に、又はキーフレーム503に本来基づくフレームに対する前のポーズ追跡フレームに基づいて、のいずれかで)ポーズを決定することができ、最終的な拡張画像は画像(535)となり得る。しかしながら、描かれた例では、ユーザが再度注意深いため、キーフレーム(502)はポーズを決定するために使用され得て、最終的な拡張画像は画像(525)である。その上、追跡アルゴリズムの不正確さ、及びキーフレーム(502)から決定されたポーズにより、缶(554)は、テーブルの上部上に面一にレンダリングされなくてもよいが、テーブルの上方に浮いているか、又はテーブルと交差している。1つ以上の実施形態では、キーフレーム(503)は、画像(535)の場合のように、より正確なポーズを潜在的に配信することができ、缶(556)はテーブルにより良好に位置合わせされる。
図6は、ユーザ又はアプリケーション自体が都市の地図内にズームインする、別の例示的なユースケースを示す。最初にズームアウトすると(601)、都市の大部分が示され、粗い情報のみが表示される(主要ストリート(606)、都市名(607))。602においてズームインすると、大きなストリート(608)及び都市名(609)のみが表示され続ける。しかしながら、更にズームインすると、アプリケーションは、追加情報(より少ない主要ストリート(613)、関心点に対するラベル(611)、地下交通(614))と共に、604などの画像を表示しようとする場合がある。代わりに都市名は、もはや表示されなくてもよい(612)。追加情報が表示されるべきである場合、619は、例えば、動的にストリーミングされたコンテンツが完了したときに可用性に依存し得るか、又は、過度に多くのラベル/レイヤによってGUIが雑然としないようにするための仕様に依存する。
その上、提案される方法は、レンダリングのために古いセットアップ構成(目に見える主要ストリート及び都市名(610)のみ)を維持し、それによって画像603を得てもよい。「新しい」セットアップ構成(例えばより小さいストリートの視認性)への変更は、ユーザが不注意になるまで延期される(620)。ユーザが不注意であったことが検出された後、「新しい」/第2のセットアップ構成がレンダリングに使用され、それによって今、目に見えるより小さいストリート(616)、関心点に対するラベル(615)、地下交通(618)と共に画像605が得られ、都市名はもはや表示されない(617)。セットアップ構成(レイヤの視認性)が変更された間は、ユーザは不注意であったので、ユーザはその変更を見逃している可能性がある。
図7は、ユーザが都市の地図上でパニングしている、又はGPS位置が更新され、それに応じてアプリケーションが地図を中心に置く、別の例示的なユースケースを示す。地図の初期表示画像(701)には、ストリート(707)及び関心点のラベル(706)が表示されている。マップをスクロールダウンすることによって、次に表示された画像(702)において、マップの新たな部分が視認可能となる。これらの新しい部分(708)は、最初はいかなるラベルも有しない(例えば、「Residenz」は欠落している)。欠落しているラベルは、例えば、コンテンツの動的ストリーミングによって、又はクランプされたラベルを避けるための仕様によって、引き起こされる可能性がある。ユーザが(完全ダウンロードに起因するか仕様に起因するかのいずれかの)特定の時点(714)においてスクロールダウンすると、ラベル「Residenz」(709)が現れる画像704に示すように、新しい地図領域の新しいラベルが突然現れることがある。しかしながら、レンダリングのための古いセットアップ構成では、ラベル「Residenz」が依然として見えない(710)ままの画像703をもたらす。「新しい」セットアップ構成への変更(例えばResidenzが見える、新しいラベルを伴う)は、ユーザが不注意になるまで延期されてもよい。ユーザが不注意であることが検出されると(715)、「新しい」セットアップ構成がレンダリングに使用されて、今見える新しいラベル(711、712、713)を有する画像705を得ることができる。セットアップ構成(ラベルの視認性)が変更された間は、ユーザは不注意であったので、ユーザはその変更を見逃している可能性がある。
次に図8を参照すると、一実施形態による、例示的な多機能デバイス800の簡単な機能ブロック図が示される。多機能電子デバイス800は、プロセッサ805、ディスプレイ810、ユーザインタフェース815、グラフィックハードウェア820、デバイスセンサ825(例えば、近接センサ/環境光センサ、加速度計、及び/又はジャイロスコープ)、マイクロフォン830、オーディオコーデック(単数又は複数)835、スピーカ(単数又は複数)840、通信回路845、デジタル画像キャプチャ回路850(例えば、カメラシステム100を含む)、ビデオコーデック(単数又は複数)855(例えば、デジタル画像キャプチャユニット850をサポートしている)、メモリ860、記憶装置865、及び通信バス870を含んでもよい。多機能電子デバイス800は、例えば、デジタルカメラ、又はパーソナルデジタルアシスタント(PDA)、パーソナル音楽プレーヤ、携帯電話、若しくはタブレットコンピュータなどのパーソナル電子デバイスでもよい。
プロセッサ805は、デバイス800によって遂行される多数の機能の動作(例えば、本明細書に開示されているような画像の生成及び/又は処理、並びに単一及び複数カメラの較正など)を実行又は制御するのに必要な命令を実行することができる。プロセッサ805は、例えば、ディスプレイ810を駆動し、ユーザインタフェース815からユーザ入力を受信することができる。ユーザインタフェース815は、ユーザがデバイス800と対話することを可能にし得る。例えば、ユーザインタフェース815は、ボタン、キーパッド、ダイヤル、クリックホイール、キーボード、ディスプレイスクリーン、及び/又はタッチスクリーンなどの種々の形態をとることができる。プロセッサ805はまた、例えば、モバイル機器に見られるようなシステムオンチップでもよく、専用のグラフィック処理ユニット(GPU)を含むことができる。プロセッサ805は、縮小命令セットコンピュータ(RISC)若しくは複合命令セットコンピュータ(CISC)アーキテクチャ、又は任意の他の好適なアーキテクチャに基づくことができ、1つ以上の処理コアを含み得る。グラフィックハードウェア820は、グラフィックを処理するための専用の計算ハードウェアであり得て、及び/又はグラフィック情報を処理するようにプロセッサ805を支援し得る。一実施形態では、グラフィックハードウェア820は、プログラム可能なGPUを含み得る。
画像キャプチャ回路850は、1つ(又はそれより多くの)のレンズアセンブリ880を含んでもよく、各レンズアセンブリは別個の焦点距離を有してもよい。各レンズアセンブリは、別個の関連するセンサ素子890を有してもよい。あるいは、2つ以上のレンズアセンブリは、共通のセンサ素子を共有してもよい。画像キャプチャ回路850は、静止画像及び/又はビデオ画像をキャプチャすることができる。画像キャプチャ回路850からの出力は、少なくとも部分的に、ビデオコーデック(単数又は複数)855及び/若しくはプロセッサ805及び/若しくはグラフィックハードウェア820、並びに/又は回路850内に組み込まれた専用の画像処理ユニット若しくはパイプラインによって処理され得る。そのようにキャプチャされた画像は、メモリ860及び/又は記憶装置865に記憶され得る。
センサ及びカメラ回路850は、静止画像及びビデオ画像をキャプチャすることができ、それらはこの開示に従って、少なくとも一部分は、ビデオコーデック(単数又は複数)855及び/若しくはプロセッサ805及び/若しくはグラフィックハードウェア820、並びに/又は回路850内に組み込まれた専用の画像処理ユニットによって処理され得る。そのようにキャプチャされた画像は、メモリ860及び/又は記憶装置865に記憶され得る。メモリ860は、デバイスの機能を遂行するためにプロセッサ805及びグラフィックハードウェア820により使用される1つ以上の異なるタイプの媒体を含み得る。例えば、メモリ860は、メモリキャッシュ、リードオンリメモリ(ROM)、及び/又はランダムアクセスメモリ(RAM)を含み得る。記憶装置865は、媒体(例えば、オーディオファイル、画像ファイル、及びビデオファイル)、コンピュータプログラム命令又はソフトウェア、プリファレンス情報、デバイスプロファイル情報、並びに任意の他の好適なデータを記憶することができる。記憶装置865には、例えば、(固定、フロッピー、及び取り外し可能な)磁気ディスク及びテープ、CD-ROM及びデジタルビデオディスク(DVD)などの光学的媒体、並びに電気的にプログラム可能なリードオンリメモリ(EPROM)及び電気的に消去可能なプログラマブルリードオンリメモリ(EEPROM)などの半導体メモリデバイスを含む、1つ以上の永続的記憶媒体を含むことができる。メモリ860及び記憶装置865は、1つ以上のモジュールへと編成され、かつ、任意の所望のコンピュータプログラミング言語で書かれたコンピュータプログラム命令又はコードを有形に保持するために使用することができる。例えば、プロセッサ805によって実行されるとき、そのようなコンピュータプログラムコードは、本明細書中に記載される方法のうちの1つ以上を実行することができる。
したがって、開示された主題の範囲は、添付の特許請求の範囲を参照にし、そのような特許請求の範囲に対して与えられる均等物の全範囲も併せて判断されなければならない。付属の特許請求の範囲において、「including」及び「in which」という語は、それぞれ、「comprising」及び「wherein」という用語に相当する平易な英語として使用されている。

Claims (13)

  1. 電子デバイスにより実行される、状態変化をトリガするための方法であって、
    画像データ及び第1のセットアップ構成に基づいてレンダリングされる第1シリーズのフレームを表示することであって、前記第1のセットアップ構成は、前記第1シリーズのフレームがどのようにレンダリングされるかを決定するデータを含み、
    前記第1シリーズのフレームの表示中、
    前記画像データのために、第2のセットアップ構成を取得することであって、前記第2のセットアップ構成は、第2シリーズのフレームがどのようにレンダリングされるかを決定するデータを含み、
    前記第2のセットアップ構成を取得することに応じて、前記画像データ及び前記第2のセットアップ構成に基づいて前記第2シリーズのフレームをレンダリングすることとであって、前記第1シリーズのフレーム及び前記第2シリーズのフレームは並行してレンダリングされ、
    前記第2のセットアップ構成を取得することに応じて、前記第1シリーズのフレームが表示されている間に目の状態の変化を監視することであって、前記目の状態の変化はまばたきしているか、又は目をそらしているかを示しており、
    前記目の状態の変化を検出したことに応じて、前記第2シリーズのフレームを表示すること、
    を含む方法。
  2. 前記第1のセットアップ構成及び前記第2のセットアップ構成は、仮想コンテンツがどのようにレンダリングされるべきかを示す、請求項1に記載の方法。
  3. 目の状態の変化を監視することは、
    前記目の状態に対応する目に面するカメラから複数の画像フレームを取得すること、
    前記目のまばたきについて前記複数の画像フレームを監視することを含む、請求項1に記載の方法。
  4. 目の状態の変化を監視することは、前記目の状態に対応する目の視線方向を監視することを含む、請求項1に記載の方法。
  5. 表示デバイスと、
    1つ以上のプロセッサと、
    前記1つ以上のプロセッサに結合され、前記1つ以上のプロセッサによって実行可能なコンピュータコードを含むメモリと、
    を含むシステムであって、
    前記コンピュータコードは前記システムに、
    画像データ及び第1のセットアップ構成に基づいてレンダリングされる第1バージョンのシリーズのフレームを前記表示デバイス上に表示させ、前記第1のセットアップ構成は、前記第1バージョンのシリーズのフレームがどのようにレンダリングされるかを決定するデータを含み、
    前記第1バージョンの前記シリーズのフレームの表示中、
    前記画像データのために、第2のセットアップ構成を取得させ、前記第2のセットアップ構成は、第2バージョンのシリーズのフレームがどのようにレンダリングされるかを決定するデータを含み、
    前記画像データ及び前記第2のセットアップ構成に基づいて第2バージョンの前記シリーズのフレームをレンダリングさせることであって、前記第1バージョンの前記シリーズのフレーム及び前記第2バージョンの前記シリーズのフレームは並行してレンダリングされ、
    前記第2のセットアップ構成を取得したことに応じて、前記第1バージョンの前記シリーズのフレームが表示されている間に、目の状態の変化を監視させ、前記目の状態の変化はまばたきしているか、又は目をそらしているかを示しており、
    前記目の状態の変化を検出したことに応じて、前記第2バージョンの前記シリーズのフレームを表示させる、システム。
  6. 前記第1のセットアップ構成及び前記第2のセットアップ構成は、仮想コンテンツがどのようにレンダリングされるべきかを示す、請求項5に記載のシステム。
  7. 目の状態の変化を監視する前記コンピュータコードは、
    前記目の状態に対応する目に面するカメラから複数の画像フレームを取得し、
    前記目のまばたきについて前記複数の画像フレームを監視するコンピュータコードを含む、請求項5に記載のシステム。
  8. 目の状態の変化を監視することは、前記目の状態に対応する目の視線方向を監視することを含む、請求項5に記載のシステム。
  9. 1つ以上のプロセッサによって実行可能なコンピュータ可読コードを含むコンピュータ可読媒体であって、前記コンピュータ可読コードは、前記1つ以上のプロセッサに、
    画像データ及び第1のセットアップ構成に基づいてレンダリングされる第1シリーズのフレームを表示デバイス上に表示し、前記第1のセットアップ構成は、前記第1シリーズのフレームがどのようにレンダリングされるかを決定するデータを含み、
    前記第1シリーズのフレームの表示中、
    前記画像データのために、第2のセットアップ構成を取得し、前記第2のセットアップ構成は、第2シリーズのフレームがどのようにレンダリングされるかを決定するデータを含み、
    前記第2のセットアップ構成を取得することに応じて、前記画像データ及び前記第2のセットアップ構成に基づいて前記第2シリーズのフレームをレンダリングすることとであって、前記第1シリーズのフレーム及び前記第2シリーズのフレームは並行してレンダリングされ、
    前記第2のセットアップ構成を取得したことに応じて、前記第1シリーズのフレームが表示されている間に、目の状態の変化を監視し、前記目の状態の変化は不注意さを示しており、
    前記目の状態の変化を検出したことに応じて、前記第2シリーズのフレームを表示することを実行させる、コンピュータ可読媒体。
  10. 前記第1のセットアップ構成及び前記第2のセットアップ構成は、仮想コンテンツがどのようにレンダリングされるべきかを示す、請求項9に記載のコンピュータ可読媒体。
  11. 目の状態の変化を監視するための前記コンピュータ可読コードは、
    前記目の状態に対応する目に面するカメラから複数の画像フレームを取得し、
    前記目のまばたきについて前記複数の画像フレームを監視するコンピュータコードを含む、請求項9に記載のコンピュータ可読媒体。
  12. 目の状態の変化を監視するための前記コンピュータ可読コードは、
    目の状態の変化を監視することは、前記目の状態に対応する目の視線方向を監視することを含む、請求項9に記載のコンピュータ可読媒体。
  13. 状態変化をトリガするための方法であって、
    画像データ及び第1のセットアップ構成に基づいてレンダリングされる第1シリーズのフレームを表示することであって、前記第1のセットアップ構成は、前記第1シリーズのフレームがどのようにレンダリングされるかを決定するデータを含む、こと
    前記第1シリーズのフレームの表示中、前記画像データのために第2のセットアップ構成を取得することであって、前記第2のセットアップ構成は、第2シリーズのフレームがどのようにレンダリングされるかを決定するデータを含む、こと
    前記第2のセットアップ構成を取得することに応じて、ユーザの目の状態を監視して予想されるまばたき又は目のそらし状態を検出すること、
    前記予想されるまばたき又は目のそらし状態を検出することに応じて、前記画像データ及び前記第2のセットアップ構成に基づいて前記第2シリーズのフレームをレンダリングすること、
    前記予想されるまばたき又は目のそらし状態を検出することに応じて、前記第2シリーズのフレームが表示デバイス上に表示されるようにする、
    ことを含む方法。
JP2021099153A 2016-09-22 2021-06-15 グラフィカルユーザインタフェースに影響する情報の状態変化の不注意状態期間までの延期 Active JP7374956B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662398438P 2016-09-22 2016-09-22
US62/398,438 2016-09-22
JP2019515978A JP2019530928A (ja) 2016-09-22 2017-09-22 グラフィカルユーザインタフェースに影響する情報の状態変化の不注意状態期間までの延期

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019515978A Division JP2019530928A (ja) 2016-09-22 2017-09-22 グラフィカルユーザインタフェースに影響する情報の状態変化の不注意状態期間までの延期

Publications (2)

Publication Number Publication Date
JP2021170114A JP2021170114A (ja) 2021-10-28
JP7374956B2 true JP7374956B2 (ja) 2023-11-07

Family

ID=60037708

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019515978A Pending JP2019530928A (ja) 2016-09-22 2017-09-22 グラフィカルユーザインタフェースに影響する情報の状態変化の不注意状態期間までの延期
JP2021099153A Active JP7374956B2 (ja) 2016-09-22 2021-06-15 グラフィカルユーザインタフェースに影響する情報の状態変化の不注意状態期間までの延期

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019515978A Pending JP2019530928A (ja) 2016-09-22 2017-09-22 グラフィカルユーザインタフェースに影響する情報の状態変化の不注意状態期間までの延期

Country Status (7)

Country Link
US (3) US10671159B2 (ja)
EP (1) EP3504610A1 (ja)
JP (2) JP2019530928A (ja)
KR (3) KR102404118B1 (ja)
CN (2) CN109791432B (ja)
AU (1) AU2017330428B2 (ja)
WO (1) WO2018057910A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9858754B2 (en) 2012-06-14 2018-01-02 Bally Gaming, Inc. System and method for augmented reality gaming
US10810773B2 (en) * 2017-06-14 2020-10-20 Dell Products, L.P. Headset display control based upon a user's pupil state
JP7409184B2 (ja) * 2020-03-19 2024-01-09 マツダ株式会社 状態推定装置
US11941747B2 (en) * 2021-10-29 2024-03-26 Adobe Inc. Delivering a virtual environment with dynamic level of detail per object

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010540988A (ja) 2007-09-20 2010-12-24 アップル インコーポレイテッド 電力管理および/またはセキュリティを促進するためのグラフィック・ソース間の切り替え
US20160035320A1 (en) 2014-08-01 2016-02-04 Samsung Display Co., Ltd. Timing controller, display device including the same, and method for driving the same
JP6259003B2 (ja) 2016-04-15 2018-01-10 ヒロセ電機株式会社 回路基板用プラグ電気コネクタ
JP2019507509A (ja) 2015-12-22 2019-03-14 グーグル エルエルシー 仮想現実コンテンツのビデオレンダリング速度の調整および立体画像の処理

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06259003A (ja) * 1993-03-03 1994-09-16 Matsushita Electric Ind Co Ltd シュミレータ用画像制御システム
US7423686B2 (en) * 2002-03-14 2008-09-09 Canon Kabushiki Kaisha Image pickup apparatus having auto-focus control and image pickup method
US6927674B2 (en) * 2002-03-21 2005-08-09 Delphi Technologies, Inc. Vehicle instrument cluster having integrated imaging system
EP1815413A4 (en) * 2004-11-09 2009-10-21 Mobile Phone Applic Inc SYSTEM AND METHOD FOR PROVIDING CONTENT TO A MOBILE TELECOMMUNICATIONS DEVICE
JP2009294735A (ja) * 2008-06-03 2009-12-17 Nobunori Sano 関心調査装置
US8265607B2 (en) * 2008-08-07 2012-09-11 Research In Motion Limited System and method for providing an interactive content portal on a mobile device
JP2010118739A (ja) * 2008-11-11 2010-05-27 Sony Corp スイッチャ制御装置、スイッチャ制御方法および画像合成装置
US9600306B2 (en) * 2009-01-31 2017-03-21 International Business Machines Corporation Client-side simulated virtual universe environment
KR101051433B1 (ko) * 2009-09-30 2011-07-22 전자부품연구원 눈 영상을 통해 판단한 사용자 상태에 반응하는 게임기 및 그의 게임 제공방법
EP2539759A1 (en) 2010-02-28 2013-01-02 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
US8493390B2 (en) * 2010-12-08 2013-07-23 Sony Computer Entertainment America, Inc. Adaptive displays using gaze tracking
US8788711B2 (en) * 2011-06-14 2014-07-22 Google Inc. Redacting content and inserting hypertext transfer protocol (HTTP) error codes in place thereof
US9897805B2 (en) * 2013-06-07 2018-02-20 Sony Interactive Entertainment Inc. Image rendering responsive to user actions in head mounted display
US9383579B2 (en) * 2011-10-12 2016-07-05 Visteon Global Technologies, Inc. Method of controlling a display component of an adaptive display system
US9892535B1 (en) * 2012-01-05 2018-02-13 Google Inc. Dynamic mesh generation to minimize fillrate utilization
US9423994B2 (en) 2012-02-22 2016-08-23 Citrix Systems, Inc. Hierarchical display
JP5594850B2 (ja) * 2012-08-17 2014-09-24 独立行政法人理化学研究所 代替現実システム制御装置、代替現実システム、代替現実システム制御方法、プログラム、および記録媒体
US20150187098A1 (en) * 2012-09-14 2015-07-02 Google Inc. Method and apparatus for unobtrusively changing imagery supplementing a map display
JP5974809B2 (ja) * 2012-09-28 2016-08-23 大日本印刷株式会社 表示装置、表示制御方法及び表示制御プログラム
US9886177B2 (en) * 2012-10-11 2018-02-06 Industry-Academic Cooperation Foundation, Yonsei University Method for increasing GUI response speed of user device through data preloading, and said user device
US10216266B2 (en) * 2013-03-14 2019-02-26 Qualcomm Incorporated Systems and methods for device interaction based on a detected gaze
KR102081933B1 (ko) * 2013-08-28 2020-04-14 엘지전자 주식회사 헤드 마운트 디스플레이 및 제어 방법
US20150143234A1 (en) * 2013-10-22 2015-05-21 Forbes Holten Norris, III Ergonomic micro user interface display and editing
IL291010B2 (en) * 2013-11-27 2024-01-01 Magic Leap Inc Virtual and augmented reality systems and methods
CN106233328B (zh) * 2014-02-19 2020-05-12 埃弗加泽公司 用于改进、提高或增强视觉的设备和方法
WO2016018487A2 (en) * 2014-05-09 2016-02-04 Eyefluene, Inc. Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
KR20160036745A (ko) * 2014-09-25 2016-04-05 삼성디스플레이 주식회사 다시점 영상 표시 시스템 및 그 구동 방법
US20160180762A1 (en) * 2014-12-22 2016-06-23 Elwha Llc Systems, methods, and devices for controlling screen refresh rates
US9977909B1 (en) * 2015-01-13 2018-05-22 State Farm Mutual Automobile Insurance Company Selectively obscuring and/or revealing sensitive information in a display of a computing device
US20160227107A1 (en) * 2015-02-02 2016-08-04 Lenovo (Singapore) Pte. Ltd. Method and device for notification preview dismissal
CN104688251A (zh) * 2015-03-02 2015-06-10 西安邦威电子科技有限公司 一种多姿态下的疲劳及非正常姿态驾驶检测方法
US20160259405A1 (en) * 2015-03-03 2016-09-08 Microsoft Technology Licensing, Llc Eye Gaze for Automatic Paging
CN104834446B (zh) * 2015-05-04 2018-10-26 惠州Tcl移动通信有限公司 一种基于眼球追踪技术的显示屏多屏控制方法及系统
IN2015DE02924A (ja) * 2015-09-16 2015-10-23 Hcl Technologies Ltd
US11194398B2 (en) * 2015-09-26 2021-12-07 Intel Corporation Technologies for adaptive rendering using 3D sensors

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010540988A (ja) 2007-09-20 2010-12-24 アップル インコーポレイテッド 電力管理および/またはセキュリティを促進するためのグラフィック・ソース間の切り替え
US20160035320A1 (en) 2014-08-01 2016-02-04 Samsung Display Co., Ltd. Timing controller, display device including the same, and method for driving the same
JP2019507509A (ja) 2015-12-22 2019-03-14 グーグル エルエルシー 仮想現実コンテンツのビデオレンダリング速度の調整および立体画像の処理
JP6259003B2 (ja) 2016-04-15 2018-01-10 ヒロセ電機株式会社 回路基板用プラグ電気コネクタ

Also Published As

Publication number Publication date
EP3504610A1 (en) 2019-07-03
CN109791432A (zh) 2019-05-21
KR102404118B1 (ko) 2022-05-31
CN109791432B (zh) 2022-04-19
AU2017330428B2 (en) 2020-05-07
KR20210095747A (ko) 2021-08-02
US20210311550A1 (en) 2021-10-07
CN114706480A (zh) 2022-07-05
KR20220078715A (ko) 2022-06-10
WO2018057910A1 (en) 2018-03-29
US10671159B2 (en) 2020-06-02
KR20190049784A (ko) 2019-05-09
JP2019530928A (ja) 2019-10-24
AU2017330428A1 (en) 2019-03-14
US20180088667A1 (en) 2018-03-29
US11334156B2 (en) 2022-05-17
JP2021170114A (ja) 2021-10-28
KR102565402B1 (ko) 2023-08-08
US20200293109A1 (en) 2020-09-17
US11016565B2 (en) 2021-05-25

Similar Documents

Publication Publication Date Title
JP7374956B2 (ja) グラフィカルユーザインタフェースに影響する情報の状態変化の不注意状態期間までの延期
JP5732988B2 (ja) 画像処理装置、表示制御方法及びプログラム
JP6633220B2 (ja) 装置および関連する方法
US20190041651A1 (en) Transitioning into a vr environment and warning hmd users of real-world physical obstacles
CN113711175A (zh) 呈现计算机生成现实环境的可穿戴电子设备
US20130342569A1 (en) Method and apparatus for augmenting an index generated by a near eye display
CN103019536A (zh) 演示期间交互地缩放内容
KR20150059534A (ko) 파노라마 영상 생성 방법, 상기 방법을 기록한 컴퓨터 판독 가능 저장매체 및 파노라마 영상 생성 장치.
CN110622110A (zh) 提供沉浸式现实内容的方法和装置
CN112019891B (zh) 一种多媒体内容的显示方法及装置、终端、存储介质
US10789987B2 (en) Accessing a video segment
US11699412B2 (en) Application programming interface for setting the prominence of user interface elements
CN106970467B (zh) 信息显示方法及头戴式显示设备
CN114401362A (zh) 一种图像显示方法、装置和电子设备
JPWO2017037952A1 (ja) プログラム、記録媒体、コンテンツ提供装置及び制御方法
EP3510440B1 (en) Electronic device and operation method thereof
JP2017097854A (ja) プログラム、記録媒体、コンテンツ提供装置及び制御方法
WO2016044983A1 (zh) 一种图像处理方法、装置及电子设备
JP2020161163A (ja) プログラム、記録媒体、コンテンツ提供装置及び制御方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210706

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210706

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220620

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221220

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230802

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230925

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231025

R150 Certificate of patent or registration of utility model

Ref document number: 7374956

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150