JP2015525491A - フォーカス距離に基づいて表示情報の表現を決定する方法および装置 - Google Patents

フォーカス距離に基づいて表示情報の表現を決定する方法および装置 Download PDF

Info

Publication number
JP2015525491A
JP2015525491A JP2015511716A JP2015511716A JP2015525491A JP 2015525491 A JP2015525491 A JP 2015525491A JP 2015511716 A JP2015511716 A JP 2015511716A JP 2015511716 A JP2015511716 A JP 2015511716A JP 2015525491 A JP2015525491 A JP 2015525491A
Authority
JP
Japan
Prior art keywords
representation
focus
display
distance
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015511716A
Other languages
English (en)
Other versions
JP6336966B2 (ja
Inventor
ショーン ホワイト
ショーン ホワイト
マーティン シュレイダー
マーティン シュレイダー
トニ ヤルヴェンパー
トニ ヤルヴェンパー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nokia Oyj
Original Assignee
Nokia Oyj
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nokia Oyj filed Critical Nokia Oyj
Publication of JP2015525491A publication Critical patent/JP2015525491A/ja
Application granted granted Critical
Publication of JP6336966B2 publication Critical patent/JP6336966B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0075Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. increasing, the depth of field or depth of focus
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0127Head-up displays characterised by optical features comprising devices increasing the depth of field
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes

Abstract

フォーカス距離に基づいて表示情報の表現を決定することを促進する方法、装置、およびコンピュータ・プログラム製品が提供される。方法の文脈では、ユーザのフォーカス距離が求められる。方法はさらに、フォーカス距離に基づいてデータの表現を決定してもよい。方法はさらに、ディスプレイ上で表現を提示させてもよい。【選択図】図3

Description

本発明の例は、全般的に、ディスプレイ上に提供される情報の表現を決定することに関し、特に、ユーザのフォーカス距離(focus distance)に基づいて表示情報の表現を決定する方法、装置、およびコンピュータ・プログラム製品に関する。
背景
デバイスの製造業者は、魅力的なサービスおよびアプリケーションを消費者に提供するという課題を常に抱えている。開発分野の1つでは、拡張現実および電子ディスプレイ(例えばニア・アイ・ディスプレイ、頭部装着型ディスプレイなど)を用いて、より没入感の強い体験がもたらされてきた。例えば、拡張現実では、ディスプレイ上で物理的世界に仮想グラフィック(すなわち情報の視覚表現)が重ねられてユーザに提示される。さらに、このような拡張現実のユーザ・インターフェースは、前述の頭部装着型ディスプレイ(例えば眼鏡)からハンドヘルド・ディスプレイ(例えばモバイル電話またはデバイス)まで、様々なディスプレイ上でユーザに提示される。場合によっては、物理的世界の上に情報の表現を重ねることが、潜在的な視覚的誤り(visual miscue)(例えばフォーカスの不一致)を生じ得る。このような視覚的誤りは、例えば眼精疲労を引き起こして、劣悪なユーザ体験を生じる虞がある。それゆえ、デバイスの製造業者は、視覚的誤り、またはそのユーザへの影響を軽減または解消するという、大きな技術的課題に直面している。
摘要
したがって、表示情報の表現を決定する方法、装置、およびコンピュータ・プログラム製品が提供される。実施形態では、この方法、装置、およびコンピュータ・プログラム製品は、ユーザのフォーカス距離(例えば、ディスプレイ上に提供される視野内でユーザが見ているところ、またはユーザの注目が集中しているところに関連する距離)に基づいて、情報の表現(例えば表現の視覚特性またはレンダリング特性)を決定する。例として、求められたフォーカス距離に表現が一致するかどうかに基づいて、情報の表現に、ぼかし、陰影、色などが施されてもよい。このように、本発明の様々な例示の実施形態は、潜在的な視覚的誤りおよびユーザの眼精疲労を軽減し、その結果、様々なディスプレイに関連するユーザ体験を改善することができる。
実施形態によれば、方法は、ユーザのフォーカス距離を求めることを含む。本方法はさらに、フォーカス距離に基づいて情報の表現を決定することを含む。本方法は、ディスプレイ上で表現を提示させることをさらに含む。本方法の実施形態では、フォーカス距離は、視線追跡情報に基づいて求められてもよい。実施形態の方法はさらに、フォーカス距離の変化を判断することと;変化に基づいて表現を更新させることとを含んでもよい。
本方法はさらに、表現が関心対象であるかどうかに基づいて表現を決定してもよい。この実施形態では、本方法は、ユーザが表現を見ているかどうかに基づいて関心対象を判断してもよい。本方法はさらに、フォーカス距離からの表現距離(representational distance)に基づいて、表現に適用する少なくとも1つのレンダリング特性の度合いを決定してもよい。本方法はさらに、フォーカス距離に関係なく、表現距離に基づいて表現を決定してもよい。実施形態では、本方法はさらに、ディスプレイの、少なくとも1つの動的フォーカス光学コンポーネント(dynamic focus optical component)の焦点設定(focal point setting)を決定することを含んでもよい。この実施形態では、表現は、焦点設定にさらに基づく。
別の実施形態によれば、装置は、少なくとも1つのプロセッサと、1つ以上のコンピュータ・プログラムのコンピュータ・プログラム・コードを含む少なくとも1つのメモリとを有し、該少なくとも1つのメモリおよびコンピュータ・プログラム・コードは、該少なくとも1つのプロセッサとともに、装置に少なくとも、ユーザのフォーカス距離を求めることを行わせるよう構成される。該少なくとも1つのメモリおよびコンピュータ・プログラム・コードはさらに、該少なくとも1つのプロセッサとともに、装置に、ディスプレイ上で表現を提示させることを行わせるよう構成される。この装置の実施形態では、フォーカス距離は、視線追跡情報に基づいて求められてもよい。実施形態では、該少なくとも1つのメモリおよびコンピュータ・プログラム・コードはさらに、該少なくとも1つのプロセッサとともに、装置に、フォーカス距離の変化を判断することと;変化に基づいて表現を更新させることとを行わせるよう構成されてもよい。
該少なくとも1つのメモリおよびコンピュータ・プログラム・コードはさらに、該少なくとも1つのプロセッサとともに、装置に、表現が関心対象であるかどうかに基づいて表現を決定することを行わせるよう構成されてもよい。この実施形態では、該少なくとも1つのメモリおよびコンピュータ・プログラム・コードはさらに、該少なくとも1つのプロセッサとともに、装置に、ユーザが表現を見ているかどうかに基づいて関心対象を判断することを行わせるよう構成されてもよい。該少なくとも1つのメモリおよびコンピュータ・プログラム・コードはさらに、該少なくとも1つのプロセッサとともに、装置に、フォーカス距離からの表現距離に基づいて、表現に適用する少なくとも1つのレンダリング特性の度合いを決定することを行わせるよう構成されてもよい。該少なくとも1つのメモリおよびコンピュータ・プログラム・コードはさらに、該少なくとも1つのプロセッサとともに、装置に、フォーカス距離に関係なく、表現距離に基づいて表現を決定することを行わせるよう構成されてもよい。実施形態では、該少なくとも1つのメモリおよびコンピュータ・プログラム・コードは、該少なくとも1つのプロセッサとともに、装置に、ディスプレイの、少なくとも1つの動的フォーカス光学コンポーネントの焦点設定を決定することを行わせるよう構成される。この実施形態では、表現は、焦点設定にさらに基づく。
別の実施形態によれば、コンピュータ可読プログラム命令が記憶された少なくとも1つの非一時的コンピュータ可読ストレージ媒体を有するコンピュータ・プログラム製品が提供され、コンピュータ可読プログラム命令は、ユーザのフォーカス距離を求めるよう構成されたプログラム命令を含む。コンピュータ可読プログラム命令はさらに、フォーカス距離に基づいて情報の表現を決定するよう構成されたプログラム命令を含む。コンピュータ可読プログラム命令はさらに、ディスプレイ上で表現を提示させるよう構成されたプログラム命令を含む。実施形態では、コンピュータ可読プログラム命令はさらに、フォーカス距離を視線追跡情報に基づいて求めるよう構成されたプログラム命令を含んでもよい。実施形態では、コンピュータ可読プログラム命令はさらに、フォーカス距離の変化を判断するよう構成されたプログラム命令と;変化に基づいて表現を更新させるよう構成されたプログラム命令とを含んでもよい。実施形態では、コンピュータ可読プログラム命令はさらに、表現が関心対象であるかどうかに基づいて表現を決定するよう構成されたプログラム命令を含んでもよい。
さらに別の実施形態によれば、装置は、ユーザのフォーカス距離を求める手段を有する。装置はさらに、フォーカス距離に基づいて情報の表現を決定する手段を有する。装置は、ディスプレイ上で表現を提示させる手段をさらに有する。実施形態では、装置はさらに、視線追跡情報に基づいてフォーカス距離を求める手段を有してもよい。装置はさらに、フォーカス距離の変化を判断する手段と;変化に基づいて表現を更新させる手段とを有してもよい。装置はさらに、表現が関心対象であるかどうかに基づいて表現を決定する手段を有してもよい。
本発明の実施につき考えられる最良の形態を含むいくつかの特定の実施形態および実装を単に示すことによって、以下の詳細な説明から、本発明のさらに他の側面、機能および利点が容易に分かる。本発明は、他の様々な実施形態も可能であり、そのいくつかの細部は、種々の明白な点において変更可能であり、いずれも本発明の意図および範囲から逸脱するものではない。したがって、図面および記載は、限定的なものではなく、本質的に例示的なものであるとみなされるべきである。
本発明の実施形態は、限定としてではなく例として、添付図面の各図に示される。
本発明の少なくとも1つの例示の実施形態による、透過型ディスプレイを備える眼鏡によって具現化されたディスプレイの斜視図である。 本発明の少なくとも1つの例示の実施形態による、視覚的誤りを示す透過型ディスプレイの透視図である。 本発明の少なくとも1つの例示の実施形態による、動的フォーカス光学コンポーネントを備えるディスプレイの透視図である。 本発明の少なくとも1つの例示の実施形態による、多焦点面コンポーネントを備えるディスプレイの透視図である。 本発明の少なくとも1つの例示の実施形態による、フォーカス距離に基づいて表示情報の表現を決定する装置のブロック図である。 本発明の少なくとも1つの例示の実施形態による、フォーカス距離に基づいて表示情報の表現を決定する動作のブロック図である。 本発明の少なくとも1つの例示の実施形態による、関心対象の判断に基づいて表示情報の表現を決定する動作のブロック図である。 本発明の少なくとも1つの例示の実施形態による、ディスプレイを介したユーザの視界である。 本発明の少なくとも1つの例示の実施形態による、フォーカス距離に基づき、ディスプレイの動的フォーカス光学コンポーネントの焦点設定を決定する動作のブロック図である。 本発明の少なくとも1つの例示の実施形態による、動的フォーカス光学コンポーネントを使用してフォーカス補正を提供するディスプレイの透視図である。 本発明の少なくとも1つの例示の実施形態による、動的フォーカス光学コンポーネントを使用してフォーカス補正を提供するディスプレイの透視図である。 本発明の少なくとも1つの例示の実施形態による、動的フォーカス光学コンポーネントを使用してフォーカス補正を提供するディスプレイの透視図である。 本発明の少なくとも1つの例示の実施形態による、動的フォーカス光学コンポーネントを使用してフォーカス補正を提供するディスプレイの透視図である。 本発明の少なくとも1つの例示の実施形態を実装するために使用することができるチップ・セットの図である。 本発明の少なくとも1つの例示の実施形態を実装するために使用することができるモバイル端末(例えばハンドセット)の図である。
いくつかの実施形態の詳細説明
フォーカス距離に基づいて表示情報の表現を決定する方法、装置、およびコンピュータ・プログラム製品の例が開示される。説明のために、以下の記載では、本発明の実施形態が完全に理解されるよう多数の具体的な詳細事項を記載する。しかし、当業者には当然のことながら、本発明の実施形態はこうした具体的な詳細を伴わずに実践されても、または等価な構成を用いて実践されてもよい。他の場合には、本発明の実施形態を不必要に曖昧にすることを回避するために、周知の構造およびデバイスは、ブロック図の形式で示される。
図1Aは、少なくとも1つの例示の実施形態による、透過型ディスプレイを備える眼鏡によって具現化されたディスプレイの斜視図である。上述のように、透過型ディスプレイおよびその他電子ディスプレイは、仮想情報と、物理的な実世界情報とが組み合わさったものを提示するために使用され得る。すなわち、透過型ディスプレイは、情報、物体、シーンなどをユーザがディスプレイを介して視認する(view)ことを可能にしながら、仮想データ(例えばデータの視覚表現)の提示を可能にする。例えば、拡張現実アプリケーションは、生のシーンの上にグラフィック・オーバーレイを提供して、ディスプレイを介して視認可能なシーンを強化または補足する情報の表現を提示し得る。図1に示されているように、ディスプレイ101は、透過型ディスプレイを備える頭部装着型眼鏡として具現化されている。図で示した例では、ユーザは、ディスプレイ101を介して実世界の物体103(例えば球体)を視認している。少なくとも1つの例示の実施形態では、ディスプレイ101は、物体103の両眼視を提供するために、個別のサブディスプレイ105aおよび105bを表す2つのレンズを備える。サブディスプレイ105aおよび105bそれぞれを介して物体103が見える。この例では、さらに追加情報(例えば、集合的に表現107とも呼ばれる、スマイリーフェイスの表現107aおよび107b)が、拡張現実の表示を提供するために、物体103上のオーバーレイとして提示されている。
透過型ディスプレイの実施形態としては、例として、図1Aに示されている眼鏡が挙げられる。なお、本願明細書に記載される方法、装置、およびコンピュータ・プログラム製品の様々な実施形態はさらに、例としてヘッドアップ・ディスプレイ(HUD:heads−up display)ユニット、ゴーグル、バイザー、フロントガラス、窓などを含む、透過型ディスプレイの任意の実施形態に適用可能である。典型的には、ディスプレイ101のような透過型ディスプレイは、重ねられる情報の表現を提示するために、固定のフォーカス・ポイントを用いて実装されてきた。ディスプレイの固定フォーカスは決まっているのに、他の奥行き手がかり(例えば両眼連動、影など)が原因で、ユーザが、物体103と、表現107aおよび107bとを異なる奥行きで知覚する場合、このような実装は、矛盾または視覚的誤りを引き起こすことがある。例えば、両眼視では、ある距離をおいて物体103を見ることで、自動的に眼の両眼連動および調節が生じる。両眼連動とは、例えば、注目する物体103を網膜中心窩へと移動させるための両眼の動きである。調節とは、例えば、カメラレンズの合焦のように、フォーカスの合った明瞭な中心窩像をもたらすべく、眼が屈折力を変化させるプロセスである。
したがって、矛盾または視覚的誤りとは、調節を期待される奥行きとは異なる奥行きに眼が調節を行い、またはフォーカスを合わせる、両眼連動−調節の不一致(例えばフォーカスの不一致)である。これにより、眼の疲労または不快感が生じ得る。固定フォーカス・システムでは、一般に眼は、他の奥行き手がかりにかかわらず固定フォーカスで調節しようとするので、この問題が悪化する。
図1Bは、本発明の少なくとも1つの例示の実施形態による、視覚的誤りを示す透過型ディスプレイの透視図である。図1Bは、透過型ディスプレイに関する視覚的誤りを示すが、同様の視覚的誤りは、例えば組み込みディスプレイを含む他のタイプのディスプレイにおいて見られることもある。さらに、透過型ディスプレイの採用するレンダリング・システムによっては、ディスプレイは、下記と同じコンポーネントを有する必要はない。例えば、ディスプレイに使用されるレンダラー115によっては、ライトガイド117は存在してもしなくてもよい。この例で示されるように、図1Bは、ディスプレイ101の1つのサブディスプレイ105a(例えばディスプレイ101の眼鏡の一方のレンズ)を、上方視点から示す。上方視点から示されるように、サブディスプレイ105aが固定フォーカス・モードで動作している場合、物体距離109(例えばユーザの眼113から物体103までの知覚距離)と、表現距離111(例えば、ユーザの眼113から表現107aまでの知覚距離)とは一致しない。例えば、固定フォーカス・モードで動作するとき、サブディスプレイ105aは、表現107aを、表現距離111(例えば、典型的には、固定フォーカス・モードの場合は無限遠に設定される)でユーザにより知覚されるようにライトガイド117(例えばレンズ)を介して(例えばレンダラー115を用いて)投影し得る。しかし、この例において、表現距離111(例えば無限遠)は、知覚される物体距離109(例えば有限距離)と矛盾する。結果的に、表現107aは物体103上に表示されるよう意図されていることから、表現107aに対する無限距離での調節と、物体103に対する有限距離での調節との差が、ユーザの眼における視覚的誤りまたは矛盾をもたらし得る。
少なくともこれらの課題に対処するために、本願明細書に記載される方法、装置、およびコンピュータ・プログラム製品の様々な実施形態は、ディスプレイ101において表現107がどのように提示されるかをユーザのフォーカス距離に基づいて決定する能力を導入する。少なくとも1つの例示の実施形態では、表現107は、ユーザのフォーカス距離に一致するように提示される。例として、フォーカス距離は、ユーザの眼113から、ユーザがフォーカスを合わせ、または調節を行っている箇所までの距離を表現する。本発明の様々な実施形態は、光学技術、非光学技術、またはその組み合わせに基づいて、表現がディスプレイ101においてどのように提示されるべきかを決定することを可能にする。例として、光学技術および非光学技術を用いて、視覚的誤りまたは矛盾が軽減または解消され得るように表現が決定される。
少なくとも1つの例示の実施形態では、光学技術は、ユーザのフォーカス距離を求めることと、フォーカス距離に基づいて焦点設定を決定することと、続いて、決定された焦点設定を用いて、1つ以上の動的フォーカス光学要素を設定することとに基づく。少なくとも1つの例示の実施形態では、フォーカス距離は、視線追跡情報に基づいて求められる。例として、視線追跡器が、両眼の視軸がどこに向いているかを測定することができる。続いて視線追跡器は、視軸の交点を計算して、両眼の輻輳距離を求めることができる。視線追跡器の少なくとも1つの例示の実施形態では、次に、この輻輳距離が、両眼のフォーカス距離またはフォーカス・ポイントとして使用される。非光学手段を含む他の手段を、眼のフォーカス距離を求めるために使用することができると考えられる。
さらに、または代わりに、(例えば、入力デバイスを用いてディスプレイのユーザの視野における特定箇所を選択してフォーカス距離を示す)ユーザによるユーザ・インターフェース・インタラクションを用いて、フォーカス距離を求めることができる。本発明の少なくとも1つの例示の実施形態は、表現107がユーザのフォーカス距離に正しく一致するように、視線追跡を使用してユーザのフォーカスを判断して、情報の表現107をニア・アイ・ディスプレイの各レンズ上に表示する。例えば、ユーザが4フィート(約1.2メートル)の距離でレンダリングされるべき仮想物体にフォーカスを合わせているとすると、この距離に対するユーザのフォーカスを、視線追跡を使用して検出することができ、ディスプレイの光学素子の焦点設定が、4フィート(約1.2メートル)のフォーカスをもたらすよう動的に変更される。少なくとも1つの例示の実施形態では、ユーザのフォーカス距離が変化するのに伴い、ディスプレイの動的フォーカス光学コンポーネントの焦点設定も動的に変更されて、ユーザの視線または注目を受ける物体の距離に光学素子が合焦されてもよい。
図1Cは、表現107について決定されたフォーカス距離を表現するために動的フォーカス光学コンポーネントを採用するディスプレイ119の、少なくとも1つの例示の実施形態を示す。より具体的には、ディスプレイ119は、焦点設定を動的に変更してフォーカスを変更することができる、2つの動的フォーカス光学コンポーネント121aおよび121bを備える。動的フォーカス光学コンポーネント121aおよび121bは、流体工学、電気光学、またはその他任意の動的合焦技術などの技術を使用することができると考えられる。例えば、流体工学に基づく動的フォーカス・コンポーネントは、合焦要素の流体注入または収縮により焦点設定またはフォーカスを変更することができる、合焦要素を備えてもよい。電気光学に基づく動的フォーカス・コンポーネントは、電界の変化に応じて光学的特性(例えば複屈折)を変更することができる物質を採用する。その結果、光学的特性の変化を使用して、電気光学に基づく動的フォーカス・コンポーネントの焦点設定またはフォーカスを変更することができる。そのような動的フォーカス光学コンポーネントの利点の1つは、ある範囲の距離にわたって連続的なフォーカスをサポートする能力である。別の例として、レンズの圧電動作(piezoelectric movement)に基づく合焦能力を持つレンズ・システムが挙げられる。本願明細書に記載される合焦技術の例は、例として提供されるものであり、動的フォーカスを実現するために他の技術または手段を使用することを制限することは意図されていない。
図1Cに示されているように、ディスプレイ119は、視点位置(例えばユーザの眼113)と、表現107が提示されるライトガイド123との間に配置された、1つの動的フォーカス光学コンポーネント121aを備える透過型ディスプレイである。第2の動的フォーカス光学コンポーネント121bが、ライトガイド123と、ライトガイド123または透過型ディスプレイを介して視認される情報との間に配置され得る。このようにして、表現107のフォーカスを補正するための焦点設定を、情報が確実にディスプレイ119を介して視認されるようにするための焦点設定とは独立して制御することができる。少なくとも1つの例示の実施形態では、ディスプレイ119を介して視認される情報は、他の表現107または他の物体であってもよい。このように、複数のディスプレイ119を層状にすることで、表現107およびディスプレイを介して視認される情報両方のフォーカス制御の、より複雑な制御を提供することができる。
少なくとも1つの例示の実施形態では、ディスプレイは、物理的世界またはその他情報への透過表示の上に表現107を重ねることなくデータの表現107を提示する、非透過型ディスプレイであってもよい。この例では、ディスプレイは、不透明で、ディスプレイ上で表現107を視認するための焦点設定またはフォーカスを変更するためにディスプレイの前面に動的フォーカス光学要素を採用することになる。動的フォーカス光学要素、ライトガイド、ディスプレイなどの構成および数の記載は、例として提供され、限定するよう意図されてはいない。様々な実施形態において記載される任意数のコンポーネントが、任意の組み合わせで組み合わされること、または使用されることが可能であると考えられる。
図1Dは、複数の焦点面に基づく動的フォーカスのための光学技術を提供するディスプレイ125の、少なくとも1つの例示の実施形態を示す。図のように、ディスプレイ125は、データの表現107を各焦点設定またはフォーカス距離129a〜129cで表示するよう構成された、3つのライトガイド127a〜127c(例えば射出瞳拡大素子(EPE:exit pupil expander))を備える。この例では、各ライトガイド127a〜127cは、固定されているが異なる焦点設定または焦点面に関連する(例えば、近焦点面129a、中間焦点面129b、および無限遠焦点面129c)。所望のフォーカス距離に応じて、レンダラー115は、ライトガイド127a〜127cのうちのどれが所望のフォーカス距離に最も近い焦点設定を有するかを選択することができる。続いてレンダラー115は、選択されたライトガイドまたは焦点面を用いて表現107を提示することができる。少なくとも1つの例示の実施形態では、表現107と、ディスプレイ125を介して見られるデータ(例えば画像源)との間で、フォーカス距離をより厳密に一致させられるよう、ライトガイド127a〜127cは湾曲している。例として、湾曲したライトガイド127a〜127cは、複数の仮想画像距離のために積層され円柱状または球状に形成されたEPEとすることができる。図1Dの例は、3つの焦点面129a〜129cを提供する3つのライトガイド127a〜127cに関して記載されるが、少なくとも1つの例示の実施形態では、ディスプレイ125は、例えば別々の各焦点面間の焦点設定にどれだけ細かい粒度が望まれるかに応じて、任意数のライトガイドまたは焦点面を用いて構成することができる。
上述のとおり、少なくとも1つの例示の実施形態では、どのようにデータの表現107が提示されれば視覚的誤りまたは矛盾を軽減または回避できるかを判断するために、上記の光学技術に加えて、またはその代わりに、非光学技術を使用することができる。例えば、ディスプレイ(例えばディスプレイ101、ディスプレイ119、またはディスプレイ125)は、(1)ユーザのフォーカス距離、(2)表現107がユーザの関心対象であるかどうか、または(3)その組み合わせに基づいて、奥行き感およびフォーカスをもたらすように表現107を決定または生成することができる。少なくとも1つの例示の実施形態では、ディスプレイ101は、ユーザのフォーカス距離を求め、続いて、提示する表現107をフォーカス距離に基づいて決定する。ディスプレイ101は、例として、データの表現107がユーザの視線またはフォーカスの対象でなくぼやけているべきである場合に、フォーカスの合っていないデータの表現107をレンダリングすることができる。少なくとも1つの例示の実施形態では、表現をぼかすこと、またはピンぼけさせることに加えて、他のレンダリング特性(例えば陰影、両眼連動、色など)を、フォーカス距離に基づいて変更することができる。
少なくとも1つの例示の実施形態では、本発明の方法、装置、およびコンピュータ・プログラム製品の様々な実施形態を、奥行き感知情報を用いて強化することができる。例えば、ディスプレイ101は、ユーザの視界中の対象物の奥行きおよび外形を検出する、前方奥行き感知カメラ(forward facing depth sensing camera)またはその他同様の技術を備えてもよい。この場合、ディスプレイ101は、フォーカスの合っている特定の対象物の距離を検出して、確実に、その特定の対象物に関連するデータの任意の表現107が適切な焦点距離に位置し、かつそれに応じてフォーカスが調整されるようにすることができる。
フォーカス距離に基づいて表示情報の表現を決定する、本願明細書に記載されたプロセスは、ソフトウェア、ハードウェア、ファームウェア、またはソフトウェアおよび/またはファームウェアおよび/またはハードウェアの組み合わせによって実装することができ、有利である。例えば、本願明細書に記載されたプロセスは、プロセッサ(単数または複数)、デジタル信号処理(DSP:Digital Signal Processing)チップ、特定用途向け集積回路(ASIC:Application Specific Integrated Circuit)、フィールド・プログラマブル・ゲート・アレイ(FPGA:Field Programmable Gate Array)などによって実装でき、有利である。そのような、記載された機能を実行する例示のハードウェアについて、以下に詳述する。
図2は、本発明の少なくとも1つの例示の実施形態による、フォーカス距離に基づいて表示情報の表現を決定する装置200のブロック図である。少なくとも1つの例示の実施形態では、装置200は、図1に関して前述したディスプレイ101、ディスプレイ119、および/またはディスプレイ125に関連するか、またはそれに組み込まれる。なお、他のデバイスまたは装置が、図示されている装置200のハードウェアおよびコンポーネントの全部または一部を展開することができると考えられる。少なくとも1つの例示の実施形態では、装置200は、本願明細書に記載されたように、フォーカス距離に基づいて表示情報の表現を決定するよう(例えばコンピュータ・プログラム・コードまたは命令を用いて)プログラムされ、装置200の他の内部コンポーネントおよび外部コンポーネント間で情報を渡すためのバス210などの通信メカニズムを備える。情報(データとも呼ばれる)は、測定可能な現象の物理的表現として表され、この現象とは、典型的には電圧であるが、他の実施形態では、磁気、電磁気、圧力、化学、生物学、分子、原子、素粒子、および量子的な相互作用などの現象が含まれる。例えば、北および南の磁場、またはゼロおよび非ゼロの電圧は、バイナリ・デジット(ビット)の2つの状態(0,1)を表現する。その他の現象は、より大きい進数を表現することができる。測定前の複数の同時量子状態の重ね合わせは、量子ビット(キュビット)を表現する。1つ以上のデジットのシーケンスは、数または文字のコードを表現するために使用されるデジタル・データを構成する。少なくとも1つの例示の実施形態では、アナログ・データと呼ばれる情報が、特定の範囲内の測定可能な値の近似連続体によって表現される。装置200またはその一部は、本願明細書で説明される方法、装置、およびコンピュータ・プログラム製品の様々な実施形態に関して記載されるように、フォーカス距離に基づいて表示情報の表現を決定する1つ以上のステップを実行する手段を構成する。
バス210は、バス210に結合されたデバイス間で情報が迅速に転送されるように、情報の1つ以上の並列導体を備える。情報を処理する1つ以上のプロセッサ202が、バス210と結合されている。
プロセッサ(または複数のプロセッサ)202は、フォーカス距離に基づいて表示情報の表現を決定することに関係するコンピュータ・プログラム・コードによって指定されるとおりに、情報に対し一連の操作を実行する。コンピュータ・プログラム・コードは、指定の機能を実行するための、プロセッサおよび/またはコンピュータ・システムの動作に関する命令を提供する一連の命令またはステートメントである。コードは、例えば、コンピュータ・プログラミング言語で書かれてもよく、これは、プロセッサのネイティブ命令セットにコンパイルされる。さらに、コードは、ネイティブ命令セット(例えば機械語)を直接使用して書かれてもよい。一連の操作には、バス210から情報を取り込むこと、およびバス210に情報を載せることが含まれる。さらに、一連の操作には、典型的には、2つ以上の情報ユニットを比較すること、情報ユニットの位置をシフトすること、ならびに加算もしくは乗算、またはOR、排他的OR(XOR:exclusive OR)、およびANDなどの論理演算によって2つ以上の情報ユニットを結合することが含まれる。プロセッサによって実行可能な一連の操作の各操作は、1つ以上のデジットの操作コードなどの、命令と呼ばれる情報によってプロセッサに対して表される。操作コードのシーケンスなど、プロセッサ202によって実行される操作のシーケンスは、コンピュータ・システム命令とも、単にコンピュータ命令とも呼ばれる、プロセッサ命令を構成する。プロセッサは、特に、機械、電気、磁気、光学、化学、または量子コンポーネントとして、単体で、または組み合わせて実装され得る。
装置200は、バス210に結合されたメモリ204も備える。ランダム・アクセス・メモリ(RAM:random access memory)またはその他任意の動的ストレージ・デバイスなどのメモリ204は、フォーカス距離に基づいて表示情報の表現を決定するためのプロセッサ命令を含む情報を記憶する。動的メモリは、その中に記憶された情報が、装置200によって変更されることを可能にする。RAMは、メモリ・アドレスと呼ばれる位置に記憶された情報ユニットが、隣接したアドレスにある情報とは独立して記憶および取得されることを可能にする。メモリ204は、プロセッサ202によって、プロセッサ命令の実行中に一時的な値を記憶するためにも使用される。装置200は、読み取り専用メモリ(ROM:read only memory)206、またはその他、装置200によって変更されない命令を含む静的情報を記憶するための、バス210に結合された任意の静的ストレージ・デバイスも備える。一部のメモリは、電源を失うとそこに記憶された情報を失う揮発性ストレージから成る。装置200が電源を切られても、または他の形で電源を失っても永続する、命令を含む情報を記憶するための磁気ディスク、光ディスク、またはフラッシュ・カードなどの不揮発性(永続)ストレージ・デバイス208も、バス210に結合されている。
フォーカス距離に基づいて表示情報の表現を決定するための命令を含む情報は、人であるユーザによって操作される英数字キーを含むキーボードなどの外部入力デバイス212、またはカメラ/センサー294から、プロセッサによる使用のためにバス210に提供される。カメラ/センサー294は、付近の条件(例えば奥行き情報)を検出し、その検出を、装置200において情報を表現するために使用される測定可能な現象に適合する物理的な表現に変換する。センサー294の例としては、例えば、位置センサー(例えばGPS位置受信機)、ポジション・センサー(例えばコンパス、ジャイロスコープ、加速度計)、環境センサー(例えば奥行きセンサー、気圧計、温度センサー、光センサー、マイクロホン)、視線追跡センサーなどが挙げられる。
主として人とのやり取りに使用される、バス210に結合される他の外部デバイスとしては、テキストもしくは画像を提示するための、ニア・アイ・ディスプレイ、頭部装着型ディスプレイ、陰極線管(CRT:cathode ray tube)、液晶ディスプレイ(LCD:liquid crystal display)、発光ダイオード(LED:light emitting diode)ディスプレイ、有機LED(OLED:organic LED)ディスプレイ、プラズマ・スクリーン、またはプリンタなどのディスプレイ・デバイス214と、ディスプレイ214上に提示された小さなカーソル画像の位置を制御して、ディスプレイ214上に提示されたグラフィカル要素に関連するコマンドを発行するための、マウス、トラックボール、カーソル方向キー、またはモーション・センサーなどのポインティング・デバイス216とが挙げられる。少なくとも1つの例示の実施形態では、コマンドは、例としてフォーカス距離、関心対象などを指示することを含む。少なくとも1つの例示の実施形態、例えば、装置200が人による入力なしに自動的にすべての機能を実行する実施形態では、外部入力デバイス212、ディスプレイ・デバイス214、およびポインティング・デバイス216のうちの1つ以上が省かれる。
図で示した実施形態では、特定用途向け集積回路(ASIC)220などの特殊用途ハードウェアがバス210に結合されている。特殊用途ハードウェアは、プロセッサ202では特殊用途のため十分迅速に実行されない動作を実行するよう構成される。ASICの例としては、ディスプレイ214用の画像を生成するグラフィックス・アクセラレータ・カード、ネットワーク上で送信されるメッセージを暗号化および復号する暗号ボード、発話認識、ならびにハードウェアに実装した方がより効率的である何らかの複雑な動作のシーケンスを繰り返し実行する、ロボット・アームおよび医療用スキャン機器などの特殊な外部デバイスへのインターフェースが挙げられる。
装置200は、バス210に結合された通信インターフェース270の1つ以上のインスタンスも含む。通信インターフェース270は、外部ディスプレイなど、専用のプロセッサを用いて動作する様々な外部デバイスに対する一方向または双方向通信結合を提供する。一般に、この結合は、ローカル・ネットワーク280に接続されているネットワーク・リンク278との結合であり、ローカル・ネットワーク280には、専用のプロセッサを備える様々な外部デバイスが接続される。例えば、通信インターフェース270は、イーサネット(登録商標)などの対応するローカル・エリア・ネットワーク(LAN:local area network)へのデータ通信接続を提供するLANカードであってもよい。ワイヤレス・リンクも実装され得る。ワイヤレス・リンクに関しては、通信インターフェース270は、デジタル・データなどの情報ストリームを搬送する赤外線および光信号を含む、電気信号、音響信号、もしくは電磁信号の送信もしくは受信、または送受信両方を行う。例えば、セル方式の電話のようなモバイル電話などのワイヤレス・ハンドヘルド・デバイスでは、通信インターフェース270は、無線送受信機と呼ばれる無線帯域の電磁送信機および受信機を備える。少なくとも1つの例示の実施形態では、通信インターフェース270は、フォーカス距離に基づいて表示情報の表現を決定するために、ローカル・ネットワーク280、インターネット・サービス・プロバイダ284、および/またはインターネット290に接続することを可能にする。
本願明細書で使用される「コンピュータ可読媒体」という用語は、実行される命令を含む情報をプロセッサ202に提供することに関与する任意の媒体を指す。そのような媒体は、コンピュータ可読ストレージ媒体(例えば不揮発性媒体、揮発性媒体)および伝送媒体を含むがこれらに限定されない、多数の形態をとり得る。不揮発性媒体などの一時的でない媒体としては、例えば、ストレージ・デバイス208などの光ディスクまたは磁気ディスクが挙げられる。揮発性媒体としては、例えば、動的メモリ204が挙げられる。伝送媒体としては、例えば、ツイストペア線、同軸ケーブル、銅線、光ファイバ・ケーブル、ならびに電波、光波、および赤外線波を含む、音波および電磁波などのワイヤまたはケーブルなしに空間を進む搬送波が挙げられる。信号には、伝送媒体を介して伝送される振幅、周波数、位相、偏光、またはその他の物理的特性における人工の過渡変動が含まれる。コンピュータ可読媒体の形態としては、例えば、フレキシブル・ディスク、ハード・ディスク、磁気テープ、その他任意の磁気媒体、CD−ROM、CDRW、DVD、その他任意の光媒体、パンチカード、紙テープ、光学マークシート、穴もしくはその他光学的に認識可能な印のパターンを備えた他の任意の物理的媒体、RAM、PROM、EPROM、FLASH−EPROM、EEPROM、フラッシュ・メモリ、その他任意のメモリチップもしくはカートリッジ、搬送波、またはその他コンピュータが読み取りできる任意の媒体が挙げられる。コンピュータ可読ストレージ媒体という用語は、本願明細書において、伝送媒体以外の任意のコンピュータ可読媒体を指すよう使用される。
1つ以上の有形媒体に符号化された論理には、コンピュータ可読ストレージ媒体およびASIC220などの特殊用途ハードウェア上のプロセッサ命令の一方または両方が含まれる。
ネットワーク・リンク278は、典型的には、情報を使用または処理する他のデバイスへの、1つ以上のネットワークを通る伝送媒体を使用した情報通信を提供する。例えば、ネットワーク・リンク278は、ローカル・ネットワーク280を介して、ホスト・コンピュータ282、またはインターネット・サービス・プロバイダ(ISP:Internet Service Provider)により運用される機器284への接続を提供してもよい。次にISP機器284は、インターネット290と呼ばれているネットワークの世界的な公衆パケット交換通信ネットワークを介して、データ通信サービスを提供する。
インターネットに接続されたサーバ・ホスト292と呼ばれるコンピュータは、インターネット上で受信された情報に応答してサービスを提供するプロセスをホストする。例えば、サーバ・ホスト292は、ディスプレイ214において提示される情報を提供するプロセスをホストする。装置200のコンポーネントは、他のデバイスまたはコンポーネント内に、様々な構成で展開できると考えられる。
本発明の少なくとも1つの実施形態は、本願明細書に記載された技術の一部または全部を実装するための装置200の使用に関する。本発明の少なくとも1つの例示の実施形態によれば、これらの技術は、メモリ204に含まれる1つ以上のプロセッサ命令の1つ以上のシーケンスをプロセッサ202が実行するのに応答して、装置200によって実行される。コンピュータ命令、ソフトウェア、およびプログラム・コードとも呼ばれるそのような命令は、ストレージ・デバイス208またはネットワーク・リンク278などの別のコンピュータ可読媒体からメモリ204内へ読み込まれてもよい。メモリ204に含まれた命令のシーケンスの実行は、プロセッサ202に、本願明細書に記載された方法ステップのうちの1つ以上を実行させる。別の実施形態では、本発明を実装するために、ASIC220などのハードウェアが、ソフトウェアの代わりに、またはそれと組み合わせて使用され得る。したがって、本発明の実施形態は、本願明細書に別途明記されない限り、ハードウェアおよびソフトウェアのいかなる特定の組み合わせにも限定されない。
通信インターフェース270を介してネットワーク・リンク278およびその他ネットワーク上で伝送される信号は、装置200への情報および装置200からの情報を搬送する。装置200は、ネットワーク・リンク278および通信インターフェース270を介し、特にネットワーク280、290を経由して、プログラム・コードを含む情報を送受信することができる。インターネット290を使用する例では、サーバ・ホスト292が、装置200から送信されたメッセージによって要求された特定のアプリケーションのプログラム・コードを、インターネット290、ISP機器284、ローカル・ネットワーク280、および通信インターフェース270を介して伝送する。受信されたコードは、受信されるときにプロセッサ202によって実行されてもよく、または後から実行するためにメモリ204もしくはストレージ・デバイス208もしくはその他任意の不揮発性ストレージに記憶されてもよく、またはこの両方が行われてもよい。このように、装置200は、アプリケーション・プログラム・コードを搬送波上の信号という形態で獲得してもよい。
様々な形態のコンピュータ可読媒体が、命令またはデータまたは両方の1つ以上のシーケンスを、実行のためにプロセッサ202へ搬送することに関与し得る。例えば、命令およびデータは、当初、ホスト282などのリモート・コンピュータの磁気ディスク上に保持されていてもよい。リモート・コンピュータは、その動的メモリ内へ命令およびデータをロードし、命令およびデータを、モデムを使用して電話回線上で送信する。通信インターフェース270は、赤外線信号において搬送された命令およびデータを受信し、命令およびデータを表現する情報をバス210上に載せる。バス210は、メモリ204へ情報を搬送し、プロセッサ202は、メモリ204から命令を取得して、命令とともに送信されたデータの一部を使用して命令を実行する。メモリ204において受信された命令およびデータは、任意選択で、プロセッサ202による実行の前後いずれかに、ストレージ・デバイス208上に記憶されてもよい。
図3は、本発明の少なくとも1つの例示の実施形態による、フォーカス距離に基づいて表示情報の表現を決定する動作のブロック図である。少なくとも1つの例示の実施形態では、図2の装置200および/またはそのコンポーネント(例えばプロセッサ202、ディスプレイ214、カメラ/センサー294)が、図3のプロセス300に記載される動作のいずれかを実行し、かつ/またはその実行手段を提供する。さらに、または代わりに、図8に示されるプロセッサおよびメモリを備えるチップ・セット、および/または図9に示されるモバイル端末が、プロセス300の動作のいずれかを実行する手段を備えてもよい。なお、さらに、図3の動作301〜307は、本発明の少なくとも1つの実施形態の例として提供される。さらに、動作301〜307の順序は変更可能であり、動作301〜307の一部が組み合わされてもよい。例えば、動作307は、実行されてもされなくてもよく、または、動作301、もしくは他の動作303もしくは305のいずれかと組み合わされてもよい。
前述のとおり、光学技術および/または非光学技術により、潜在的な視覚的誤りおよび矛盾(例えばフォーカスの不一致)および/またはそのユーザへの影響を軽減または解消することができる。プロセス300の動作を実行する方法、装置、およびコンピュータ・プログラム製品は、ディスプレイ101上に表示されるデータの表現107を操作または決定するための非光学技術に関する。動作301において、装置200は、ユーザのフォーカス距離を求める手段(例えば、プロセッサ202、カメラ/センサー294、入力デバイス212、ポインティング・デバイス216など)を実行し、該手段を備える。例として、フォーカス距離は、ディスプレイ(例えばディスプレイ101、119、125、および/または214)の視野内の、ユーザの注目の対象である箇所までの距離を表現する。
少なくとも1つの例示の実施形態では、視野内の箇所およびフォーカス距離は、視線追跡情報を使用して求められる。したがって、装置200は、ユーザの視線を追跡することによって、注目されている箇所を判断し、視線追跡情報に基づいてフォーカス距離を求める手段(例えばカメラ/センサー294)を用いて構成されてもよい。少なくとも1つの例示の実施形態では、装置200は、ディスプレイ101の視野内の少なくとも1つのシーンに存在する情報、データ、および/または物体(例えば物理的および仮想両方)の奥行きバッファを保持する手段(例えばプロセッサ202、メモリ204、カメラ/センサー294)を用いて構成される。例えば、装置200は、奥行きバッファをもたらすために、前方奥行き感知カメラなどの手段を備えてもよい。その結果、例えば、視線追跡情報を奥行きバッファと照合してフォーカス距離を求めることができる。
少なくとも1つの例示の実施形態では、装置200は、ユーザ・インタラクション、入力、および/または感知された文脈情報に基づいて、ユーザが関心を持っているディスプレイの視野内の箇所を判断する手段(例えばプロセッサ202、入力デバイス212、ポインティング・デバイス216、カメラ/センサー294)を用いて構成されてもよい。例えば、装置200は、視線追跡情報に加えて、またはその代わりに、視野内のどの箇所がユーザにより(例えば入力デバイス212、ポインティング・デバイス216を介して)選択されるかを判断してもよい。別の例では、装置200は、注目されている箇所を示すために、感知された文脈情報(例えば加速度計データ、コンパス・データ、ジャイロスコープ・データなど)を処理して方向または動き方を求めてもよい。続いて、この箇所を奥行きバッファと比較して、フォーカス距離を求めることができる。
ユーザのフォーカス距離を求めた後、装置200は、フォーカス距離に基づいてディスプレイ101に提示されるデータの表現を決定する手段(例えばプロセッサ202)を実行し、該手段を用いて構成されてもよい(動作303)。少なくとも1つの例示の実施形態では、表現を決定することは、例として、ディスプレイ101を見るときの眼精疲労および/または劣悪なユーザ体験の一因となり得る潜在的な視覚的誤りまたは矛盾(例えばフォーカスの不一致)を軽減または解消する、表現の視覚特性を判断することを含む。
少なくとも1つの例示の実施形態では、装置200は、フォーカス距離に加えて、またはその代わりとして、他のパラメータに基づいて表現を決定するよう構成されてもよい。例えば、装置200は、データに関連する表現距離に基づいて表現を決定する手段(例えばプロセッサ202)を用いて構成されてもよい。表現距離とは、例えば、視野またはシーンにおいて表現107が提示されるべき距離である。例えば、ディスプレイ101内で視認可能な実世界の物体を表現107が拡張する例では、表現距離は、物体の距離と一致してもよいであろう。この表現距離に基づいて、装置200は、表現距離の関数(例えば線形または非線形)である様々なレンダリング特性を適用する手段(例えばプロセッサ202)を用いて構成されてもよい。
少なくとも1つの例示の実施形態では、ディスプレイ101は、フォーカスまたは焦点設定を光学調整する手段(例えば動的フォーカス光学コンポーネント121aおよび121b)を用いて構成されてもよい。このような実施形態では、装置200は、動的フォーカス光学コンポーネントの焦点設定に少なくとも部分的に基づいて表現107を決定する手段(例えばプロセッサ202)を用いて構成されてもよい。例えば、光学焦点設定によりぼかし効果が既にもたらされている場合、表現は、ぼかし効果を含むとしても、動的フォーカス光学コンポーネントなしのディスプレイ101と比較した場合ほどは含まなくてよい。他の場合には、表現107は、例としてディスプレイ101上での奥行きまたはフォーカス効果を付加または強化する追加効果を持つように決定されてもよい。
少なくとも1つの例示の実施形態では、装置200は、フォーカス距離から表現距離の差を求める手段(例えばプロセッサ202)を用いて構成されてもよい。すなわち、表現107の外観は、求められたフォーカス距離から表現距離が(例えば前景側または後景側いずれかに)どれだけ離れているかに応じてもよい。このように、装置200は、表現107に適用する少なくとも1つのレンダリング特性の度合いを、フォーカス距離からの表現距離に基づいて決定する手段(例えばプロセッサ202)を用いて構成されてもよい。例えば、レンダリング特性は、ぼかし、陰影、両眼連動(例えば両眼ディスプレイの場合)などを含んでもよい。フォーカス距離から遠い表現107ほど、強くぼかしてレンダリングされてもよく、両眼ディスプレイの左/右の画像が、その距離に適した両眼連動設定を用いてレンダリングされてもよい。任意のタイプのレンダリング特性(例えば色、彩度、サイズなど)が、表現距離に基づき変更され得ると考えられる。
表現107を決定した後、装置200は、ディスプレイ上で表現107を提示させる手段(例えばプロセッサ202、ディスプレイ214)を実行し、該手段を用いて構成されてもよい(動作305)。本願明細書に記載される方法、装置、およびコンピュータ・プログラム製品の様々な実施形態が、頭部装着型の透過型両眼ディスプレイに関して説明されるが、視覚的誤りが生じ得る任意のタイプのディスプレイ上での表現107の提示に、様々な実施形態を適用可能であると考えられる。例えば、他のディスプレイとしては、(例えば上記の)非透過型ディスプレイ、片眼のみに調節の不一致が起こり得る単眼ディスプレイなどが挙げられる。さらに、様々な実施形態は、(例えば生の光景を用いない)完全な仮想情報の表示に適用されてもよい。
動作307に示されているように、装置200は、フォーカス距離の変化を判断し、続いて、その変化に基づいて表現を更新させる手段(例えばプロセッサ202、カメラ/センサー294)を実行し、該手段を用いて構成することができる。少なくとも1つの例示の実施形態では、装置200は、実質的にリアルタイムで、継続的に、定期的に、スケジュールに従って、要求に応じてなどという形で、変化がないかどうかフォーカス距離を監視してもよい。このように、ユーザが視線またはフォーカスを変更するのに伴い、装置200は、新たなフォーカス距離に一致するよう、表現107を動的に調整することができる。
図4は、本発明の少なくとも1つの例示の実施形態による、関心対象の判断に基づいて表示情報の表現を決定する動作のブロック図である。少なくとも1つの例示の実施形態では、図2の装置200および/またはそのコンポーネント(例えばプロセッサ202、ディスプレイ214、カメラ/センサー294)が、図4のプロセス400に記載される動作のいずれかを実行し、かつ/または実行手段を提供する。さらに、または代わりに、図8に示されるプロセッサおよびメモリを備えるチップ・セット、および/または図9に示されるモバイル端末が、プロセス400の動作のいずれかを実行する手段を備えてもよい。
動作401に示されているように、装置200は、ディスプレイ101上のユーザの視野内の関心対象(例えば、ディスプレイ101に提示されているどの情報または物体にユーザが関心を持っているか)を判断する手段(例えばプロセッサ202、カメラ/センサー294)を実行し、該手段を用いて構成されてもよい。フォーカス距離を求めるのと同様に、視線追跡またはユーザ・インタラクション/入力が、関心対象の判断に使用されてもよい。少なくとも1つの例示の実施形態では、装置200は、ユーザが表現107を見ているかどうかに基づいて関心対象を判断する手段(例えばプロセッサ202、カメラ/センサー294)を用いて構成されてもよい。複数の表現107、情報、または物体がほぼ同じフォーカス距離で知覚される少なくとも1つの例示の実施形態では、装置200は、(例えば、視線追跡の精度またはユーザ・インタラクション情報に応じて)焦点面のどの項目にユーザの関心があるかをさらに判断してもよい。
動作403において、装置200は、関心対象に基づいて表現を決定する手段(例えばプロセッサ202)を実行し、該手段を用いて構成されてもよい。例えば、ユーザが表現107を見るとき、表現107は、ある外観を有してもよい(例えば明るくてフォーカスが合っている)。ユーザが表現107から目を離し、同じ焦点面の別の項目を見る状況では、表現は別の外観を有してもよい(例えば暗くてフォーカスが合っている)。ユーザが表現107から目を離し、別の焦点面または距離にある別の項目を見る状況では、表現は、さらに別の外観を有してもよい(例えば暗くてフォーカスが合っていない)。
図5は、本発明の少なくとも1つの例示の実施形態による、ディスプレイを介したユーザの視界である。少なくとも1つの例示の実施形態では、装置200は、ユーザのフォーカス距離に基づいてディスプレイ101を提示するためにデータの表現107を決定する手段を備えてもよい。図のように、ユーザは、ディスプレイ101の左レンズに対応するサブディスプレイ105aと、ディスプレイ101の右レンズに対応するサブディスプレイ105bとを有する透過型両眼ディスプレイであるディスプレイ101を介して物体103を視認している。したがって、装置は、ディスプレイ101に提示される両眼用のユーザ・インターフェースを生成する手段(例えばプロセッサ202、ディスプレイ214)を備えてもよい。
この例では、装置200は、ユーザのフォーカス距離を、物体103に対応するフォーカス距離501と判断した。図1Aに関して記載されたように、装置200は、判断されたフォーカス距離501にある物体103上のオーバーレイとして各サブディスプレイ105aおよび105bそれぞれに拡張表現503aおよび503bを提示している。図のように、装置200はさらに、表現距離509に位置する仮想物体507の表現505aおよび505b、表現距離515に位置する仮想物体513の表現511aおよび511bを提示している。
図5に示されているように、仮想物体507の表現距離509と、フォーカス距離501との差は、仮想物体513の表現距離515と、フォーカス距離501との差よりも大きい。したがって、装置200は、仮想物体513の表現511aおよび511bよりもぼかし効果が強くなるよう仮想物体507の表現505aおよび505bを決定する手段(例えばプロセッサ202)を用いて構成される。さらに、両眼ディスプレイであることから、表現503a〜503b、505a〜505b、および511a〜511bは、各表現ペアの両眼連動が、求められたフォーカス距離に対し適切となるように決定される。少なくとも1つの例示の実施形態では、装置200は、表現に関して、ぼかし効果と両眼連動とを別々に決定しても、または組み合わせて決定してもよい。
図6は、本発明の少なくとも1つの例示の実施形態による、フォーカス距離に基づき、ディスプレイの動的フォーカス光学コンポーネントの焦点設定を決定する動作のブロック図である。少なくとも1つの例示の実施形態では、図2の装置200および/またはそのコンポーネント(例えばプロセッサ202、ディスプレイ214、カメラ/センサー294)が、図6のプロセス600に記載される動作のいずれかを実行し、かつ/またはその実行手段を提供する。さらに、または代わりに、図8に示されるプロセッサおよびメモリを備えるチップ・セット、および/または図9に示されるモバイル端末が、プロセス600の動作のいずれかを実行する手段を備えてもよい。なお、図6の動作601〜607は、本発明の少なくとも1つの実施形態の例として提供される。さらに、動作601〜607の順序は変更可能であり、動作601〜607の一部が組み合わされてもよい。例えば、動作607は、実行されてもされなくてもよく、または動作601、もしくは他の動作603もしくは605のいずれかと組み合わされてもよい。
前述のとおり、光学技術および/または非光学技術により、潜在的な視覚的誤りおよび矛盾(例えばフォーカスの不一致)および/またはそのユーザへの潜在的な影響を、軽減または解消することができる。プロセス600の動作を実行する方法、装置、およびコンピュータ・プログラム製品は、視覚的誤りまたは矛盾を軽減または解消するために、ディスプレイ101の動的フォーカス光学コンポーネント121の焦点設定を決定するための光学技術に関する。動作601は、図3の動作301に関して記載されたフォーカス距離を求める動作に類似している。例えば、動作601において、装置200は、ユーザのフォーカス距離を求める手段(例えば、プロセッサ202、カメラ/センサー294、入力デバイス212、ポインティング・デバイス216など)を実行し、該手段を備える。例として、フォーカス距離は、ディスプレイ(例えばディスプレイ101、119、125、および/または214)の視野内の、ユーザの注目の対象である箇所までの距離を表現する。
少なくとも1つの例示の実施形態では、視野内の箇所およびフォーカス距離は、視線追跡情報を使用して求められる。したがって、装置200は、ユーザの視線を追跡することによって、注目されている箇所を判断し、視線追跡情報に基づいてフォーカス距離を求める手段(例えばカメラ/センサー294)を用いて構成されてもよい。少なくとも1つの例示の実施形態では、装置200は、ディスプレイ101の視野内の少なくとも1つのシーンに存在する情報、データ、および/または物体(例えば物理的および仮想両方)の奥行きバッファを保持する手段(例えばプロセッサ202、メモリ204、カメラ/センサー294)を用いて構成される。例えば、装置200は、奥行きバッファをもたらすために、前方奥行き感知カメラなどの手段を備えてもよい。奥行き感知カメラまたはその他類似のセンサーは、例として、ディスプレイ101を介して視認される表現107および情報、物体などの奥行き、外形、またはその組み合わせを判断する手段である。例えば、奥行きバッファは、ディスプレイ101の視野内の識別された画素または箇所のz軸値を記憶することができる。
奥行きおよび外形情報は、奥行きバッファに記憶すること、またはその他の形で奥行きバッファと関連付けることができる。このようにして、例えば、視線追跡情報を奥行きバッファと照合してフォーカス距離を求めることができる。少なくとも1つの例示の実施形態では、装置は、装置200にて奥行きバッファをローカルに記憶する手段(例えばプロセッサ202、メモリ204、ストレージ・デバイス208)を用いて構成することができる。さらに、または代わりに、装置200は、奥行きバッファおよび関連情報をリモートに、例としてサーバ292、ホスト282などに記憶する手段(例えば通信インターフェース270)を備えるよう構成されてもよい。
少なくとも1つの例示の実施形態では、装置200は、ユーザ・インタラクション、入力、および/または感知された文脈情報に基づいて、ユーザが関心を持つディスプレイの視野内の箇所を判断する手段(例えばプロセッサ202、入力デバイス212、ポインティング・デバイス216、カメラ/センサー294)を用いて構成されてもよい。例えば、装置200は、視線追跡情報に加えて、またはその代わりに、視野内のどの箇所がユーザにより(例えば入力デバイス212、ポインティング・デバイス216を介して)選択されるかを判断してもよい。別の例では、装置200は、感知された文脈情報(例えば加速度計データ、コンパス・データ、ジャイロスコープ・データなど)を処理して、注目されている箇所を示す、方向または動き方を求めてもよい。続いて、この箇所を奥行きバッファと比較して、フォーカス距離を求めることができる。
動作603において、装置200は、フォーカス距離に基づいて、ディスプレイ101の1つ以上の動的フォーカス光学コンポーネント121の、少なくとも1つの焦点設定を決定する手段(例えばプロセッサ202)を実行し、該手段を用いて構成されてもよい。少なくとも1つの例示の実施形態では、この少なくとも1つの焦点設定に関連するパラメータは、ディスプレイ101により採用される動的合焦システムのタイプによって決まってもよい。図1Cに関して記載されたように、動的フォーカス光学コンポーネントのタイプの1つは、流体工学または電気光学などの技術に基づく連続的フォーカス・システムである。流体工学に基づくシステムの場合、装置200は、所望の焦点を実現するために、流体膨張または収縮に関連するパラメータまたは焦点設定を決定する手段(例えばプロセッサ202)を用いて構成されてもよい。電気光学に基づくシステムの場合、装置200は、電気光学システムの光学的特性を変更するために電界を発生させるためのパラメータを決定する手段(例えばプロセッサ202)を備えるよう構成されてもよい。
図1Dは、複数の焦点面を備えるディスプレイに基づく動的合焦システムを図示する。このタイプのシステムの場合、装置200は、複数の焦点面のうちどれが、求められたフォーカス距離に最も近い焦点を有するかを示す、焦点設定を決定する手段(例えばプロセッサ202)を備えるよう構成されてもよい。上記の光学システムの説明は、例示のためのものと意図されており、方法、装置、およびコンピュータ・プログラム製品の様々な実施形態が適用される動的合焦システムを限定することは意図されていない。
少なくとも1つの例示の実施形態では、装置200は、ディスプレイ101上に提示されるデータの表現107と、ディスプレイ101を介して視認される情報との間のフォーカスの不一致に基づいて、少なくとも1つの焦点設定を決定する手段(例えばプロセッサ202、カメラ/センサー294)を用いて構成されてもよい。例として、装置200は、ディスプレイ101上での表現107の提示に関する奥行きと、ディスプレイを介した情報の視認に関する別の奥行きとを判断する。これら2つの奥行きに基づき、装置200は、潜在的なフォーカスの不一致またはその他視覚的誤りがあるかどうかを判断し、続いて、フォーカスの不一致を補正させるために該少なくとも1つの焦点設定を決定することができる。
ディスプレイ101が少なくとも2つの動的フォーカス光学コンポーネント121を備える少なくとも1つの例示の実施形態では、装置200は、動的フォーカス光学コンポーネント121のうちの1つに対して設定された第1セットの焦点設定から生じる、表現、ディスプレイを介して視認される情報、またはその組み合わせの知覚される奥行きのずれを判断することにより、フォーカスの不一致を判断する手段(例えばプロセッサ202、カメラ/センサー294)を用いて構成されてもよい。その結果、装置200は、ずれに基づいて、別の動的フォーカス光学コンポーネント121の別のセットの焦点設定を決定することができる。例として、ディスプレイ101に提示される表現107と、ディスプレイを介して視認される情報との間の任意のずれまたは誤りを補正するために、第2の、または別の動的フォーカス光学要素に、第2の、または別のセットの焦点設定を適用することができる。光学コンポーネントを使用したフォーカス補正のプロセスのさらなる説明が、図7A〜図7Dに関して下記で提供される。
少なくとも1つの例示の実施形態では、装置は、光学フォーカス調整に加えて、フォーカス距離に基づいて、該1つ以上の動的フォーカス光学コンポーネントの、少なくとも1つの両眼連動設定を決定する手段(例えばプロセッサ202)を用いて構成されてもよい。少なくとも1つの例示の実施形態では、両眼連動とは、両眼視を提供するために垂直軸の周りを両眼が回転するプロセスを指す。例えば、眼に近い物体ほど、典型的には、両眼がより大きく内側に回転することを要し、無限遠に向かって離れた物体に対しては、両眼が平行に近づく。したがって、装置200は、特定のフォーカス距離に対して適切なレベルの両眼連動に近づけるために、動的フォーカス光学コンポーネント121をどのような物理的構成とするかを決定してもよい。少なくとも1つの例示の実施形態では、該少なくとも1つの両眼連動設定は、該1つ以上の動的フォーカス光学要素の傾き設定を含む。両眼光学コンポーネントの傾き両眼連動設定の例示を、下記、図7Cおよび図7Dに関して提供する。様々な実施形態において記載されるようにフォーカスおよび両眼連動設定の調整を可能にすることにより、装置200が、眼精疲労につながり得る潜在的な視覚的誤りを軽減または解消することができる。
少なくとも1つの例示の実施形態では、装置200は、フォーカスまたはその他視覚的誤りの補正を決定するために、光学および非光学両方の技術の使用を組み合わせる手段(例えばプロセッサ202、カメラ/センサー294)を用いて構成することができる。したがって、動作605において、装置200は、動的フォーカス光学コンポーネントの焦点設定に少なくとも部分的に基づいて表現107を決定する手段(例えばプロセッサ202)を実行し、該手段を用いて構成されてもよい。例えば、光学焦点設定によりぼかし効果が既にもたらされている場合、表現は、ぼかし効果を含むとしても、動的フォーカス光学コンポーネントなしのディスプレイ101と比較した場合ほどは含まなくてよい。他の場合には、表現107は、例えば所与の焦点設定でディスプレイ101上での奥行きまたはフォーカス効果を付加または強化する追加効果を持つように決定されてもよい。
動作607に示されているように、装置200は、フォーカス距離の変化を判断し、続いて、その変化に基づいて動的フォーカス光学コンポーネント121の該少なくとも1つの焦点設定を更新させる手段(例えばプロセッサ202、カメラ/センサー294)を実行し、該手段を用いて構成することができる。少なくとも1つの例示の実施形態では、装置200は、実質的にリアルタイムで、継続的に、定期的に、スケジュールに従って、要求に応じてなどという形で、変化がないかどうかフォーカス距離を監視してもよい。このように、ユーザが視線またはフォーカスを変更するのに伴い、装置200は、新たなフォーカス距離に一致するよう、光学コンポーネントのフォーカスを動的に調整することができる。
図7A〜図7Dは、本発明の少なくとも1つの例示の実施形態による、動的フォーカス光学コンポーネントを使用してフォーカス補正を提供するディスプレイの透視図である。上記図1Bに関して説明したように、典型的なニア・アイ透過型ディスプレイ101は、固定フォーカスで、物理的世界の光景の上にデータの表現107(例えば仮想画像)を提示する。これは、典型的には無限遠のフォーカス距離に固定されている表現107と、ディスプレイを介して視認される実際の物体または情報との間のフォーカスの不一致をもたらし得る。図7Aに示されているように、少なくとも1つの例示の実施形態では、レンズ701が、眼113とライトガイド123との間に設けられる。例として、この単一のレンズ701は、仮想画像(例えば表現107)をより近くに引き寄せる効果を有する。透過型でないディスプレイ101の場合、単一のレンズで、ディスプレイ上に提示される仮想画像または表現107のフォーカス距離を有効に変更することができる。
一方、透過型ディスプレイ101の場合、ディスプレイを介して視認される物体103の画像の知覚される奥行きも近く引き寄せられ、その結果、潜在的なフォーカスの不一致は保持される。図7Bの実施形態では、第2のレンズ703がライトガイド123と物体103との間に配置され、物体103の知覚される奥行きを、その実際の奥行きに有効に変更する。したがって、単一のレンズは、ディスプレイが不透明または非透過型である場合に、ディスプレイ101上の表現107または画像のフォーカス距離を変更するのに有効となり得る。その一方で、デュアルレンズ・システムは、仮想物体(例えば表現107)と組み合わさった実際の物体(例えば物体103)をディスプレイ101が提示する場合に、視覚的誤りおよびフォーカスの不一致を補正するのに有効となり得る。
少なくとも1つの例示の実施形態では、図7Bのデュアルレンズ・システムが、レンズとして動的フォーカス光学コンポーネント121を用いて構成される場合、システムは、仮想画像と、ディスプレイを介して視認される情報とを組み合わせるにあたり、より高い柔軟性を提供することができる。図6の動作607に関して説明されるように、2つのレンズの焦点設定を調整して、フォーカスの不一致の調整を行うことができる。例えば、ユーザによって決定されたフォーカス距離にデータの表現107を提示するよう、第1のレンズ701の焦点設定を調整することができる。次に、ディスプレイ101を介して視認される情報の知覚される奥行きのずれを使用して、第2のレンズ703の焦点設定を決定することができる。少なくとも1つの例示の実施形態では、ディスプレイ101を介して視認されるとき、情報の意図されるまたは実際の奥行きに知覚距離を移動するべく、知覚距離の任意のずれを補正するように第2のレンズ703の焦点設定が決定される。
図7Cは、少なくとも1つの例示の実施形態による、ユーザの左眼および右眼709aおよび709bに対応する動的フォーカス光学要素707aおよび707bを備える両眼ディスプレイ705を示す。調節またはフォーカス矛盾に加え、両眼連動も、適切なフォーカス距離に整合していない場合に眼精疲労に影響を及ぼし得る。少なくとも1つの例示の実施形態では、動的フォーカス光学要素707aおよび707bは、輻輳を光学的に調整する手段である。図7Cに示されているように、物体711を視認するとき(特に、物体711がディスプレイ705に近いとき)、眼709aおよび709bは、典型的には、内側へ回転して、物体711を網膜の視野(例えば中心窩領域)内に持ってきて、物体711の整合のとれた両眼視を提供しなければならない。図7Cの例では、それぞれの動的フォーカス光学要素707aおよび707bを収容するサブディスプレイ713aおよび713bは、輻輳のための調整を行うよう物理的に回転する手段を備える。
図7Dは、少なくとも1つの例示の実施形態による、各動的フォーカス要素719aおよび719bを収容するサブディスプレイ717aおよび717b上に光が投射される角度を変更することによって輻輳のための調整を行うことができる、両眼ディスプレイ715を示す。例えば、ディスプレイ715は、サブディスプレイ717aおよび717bを物理的に回転させず、その代わりに、物体711に対して輻輳を行うために眼709aおよび709bが内側へ回転されるべき角度を表現する角度αを求める手段を備えてもよい。その結果、ディスプレイ715は、角度αに合わせてサブディスプレイ717aおよび717bに投射される光の角度を変更する手段(例えばレンダリング・エンジン721aおよび721b)を備えてもよい。このように、サブディスプレイ717aおよび717bは、上記図7Cに関して記載されたように物理的に回転しなくてもよい。
図8は、本発明の実施形態が実装され得るチップ・セットまたはチップ800を示す。チップ・セット800は、本願明細書に記載されたように、フォーカス距離に基づいて表示情報の表現を決定するようプログラムされており、例として、1つ以上の物理的パッケージ(例えばチップ)に組み込まれた、図2に関して記載されたプロセッサおよびメモリ・コンポーネントを備える。例として、物理的パッケージは、構造組立品(例えばベースボード)上の1つ以上の材料、コンポーネント、および/またはワイヤの配列を備え、物理的強度、サイズの節減、および/または電気的相互作用の制限などの1つ以上の特徴を提供する。少なくとも1つの例示の実施形態では、チップ・セット800は、単一のチップに実装できると考えられる。さらに、少なくとも1つの例示の実施形態では、チップ・セットまたはチップ800は、単一の「システム・オン・チップ」として実装することができると考えられる。さらに、少なくとも1つの例示の実施形態では、例えば別個のASICは使用されず、本願明細書において開示された関連機能はすべて、1つまたは複数のプロセッサによって実行されることになると考えられる。チップ・セットもしくはチップ800、またはその一部は、機能の利用可能性に関連するユーザ・インターフェース・ナビゲーション情報を提供する1つ以上のステップを実行する手段を構成する。チップ・セットもしくはチップ800、またはその一部は、フォーカス距離に基づいて表示情報の表現を決定する1つ以上のステップを実行する手段を構成する。
少なくとも1つの例示の実施形態では、チップ・セットまたはチップ800は、チップ・セット800のコンポーネント間で情報を渡すための、バス801などの通信メカニズムを備える。プロセッサ803は、命令を実行して、例えばメモリ805に記憶されている情報を処理するために、バス801への接続性を有する。プロセッサ803は、各コアが独立して実行するよう構成されている、1つ以上の処理コアを備えてもよい。マルチコア・プロセッサは、単一の物理的パッケージ内でのマルチプロセッシングを可能にする。マルチコア・プロセッサの例には、2つ、4つ、8つ、またはより多くの数の処理コアが含まれる。あるいは、またはさらに、プロセッサ803は、命令の独立した実行、パイプライン処理、マルチスレッディングを可能にするよう、バス801を介してタンデム構成された1つ以上のマイクロプロセッサを備えてもよい。さらに、プロセッサ803は、1つ以上のデジタル信号プロセッサ(DSP)807、または1つ以上の特定用途向け集積回路(ASIC)809など、特定の処理機能およびタスクを実行するための1つ以上の特殊コンポーネントを伴ってもよい。DSP807は、典型的には、プロセッサ803とは独立して、リアルタイムで実世界の信号(例えば音)を処理するよう構成される。同様に、ASIC809は、より汎用型のプロセッサでは容易に実行されない特殊機能を実行するよう構成可能である。本願明細書に記載された本発明の機能の実行を支援する他の特殊コンポーネントとしては、1つ以上のフィールド・プログラマブル・ゲート・アレイ(FPGA)、1つ以上のコントローラ、またはその他1つ以上の特殊用途コンピュータ・チップを挙げることができる。
少なくとも1つの例示の実施形態では、チップ・セットまたはチップ800は、1つ以上のプロセッサ、ならびに該1つ以上のプロセッサをサポートする、かつ/または該1つ以上のプロセッサに関係する、かつ/または該1つ以上のプロセッサのための、何らかのソフトウェアおよび/またはファームウェアのみを備える。
プロセッサ803および付随するコンポーネントは、バス801を介したメモリ805への接続性を有する。メモリ805には、実行されると、フォーカス距離に基づいて表示情報の表現を決定するための、本願明細書に記載された本発明のステップを実行する実行可能命令を記憶する、動的メモリ(例えばRAM、磁気ディスク、書き込み可能な光ディスクなど)および静的メモリ(例えばROM、CD−ROMなど)の両方がある。メモリ805は、本発明のステップの実行に関連する、またはそれによって生成されたデータも記憶する。
図9は、少なくとも1つの例示の実施形態による、図1のシステムにおいて動作できる通信用のモバイル端末(例えばハンドセット)の例示のコンポーネントの図である。少なくとも1つの例示の実施形態では、モバイル端末901、またはその一部は、フォーカス距離に基づいて表示情報の表現を決定する1つ以上のステップを実行する手段を構成する。一般に、無線受信機は、フロントエンドおよびバックエンドの特徴の観点から定義されることが多い。受信機のフロントエンドが、無線周波数(RF:Radio Frequency)回路全体を含むのに対し、バックエンドは、ベースバンド処理回路全体を含む。本願において使用される「回路」という用語は、(1)ハードウェアのみの実装(アナログ回路および/またはデジタル回路のみにおける実装など)、および(2)回路とソフトウェア(および/またはファームウェア)との組み合わせ(特定の文脈に当てはまる場合、モバイル電話またはサーバなどの装置に様々な機能を実行させるべく協働する、デジタル信号プロセッサ(単数または複数)を含むプロセッサ(単数または複数)、ソフトウェア、およびメモリ(単数または複数)の組み合わせなど)の両方を指す。「回路」のこの定義は、任意の特許請求の範囲を含め、本願におけるこの用語のすべての使用に当てはまる。さらなる例として、本願において使用され、かつ特定の文脈に当てはまる場合、「回路」という用語は、プロセッサ(または複数のプロセッサ)およびその(またはそれらの)付随するソフトウェアおよび/またはファームウェアのみの実装も対象とすると考えられる。「回路」という用語は、特定の文脈に当てはまる場合、例えば、モバイル電話内のベースバンド集積回路もしくはアプリケーション・プロセッサ集積回路、またはセルラー・ネットワーク・デバイスもしくはその他ネットワーク・デバイス内の同様の集積回路も対象とすると考えられる。
電話の関連内部コンポーネントには、主制御ユニット(MCU:Main Control Unit)903、デジタル信号プロセッサ(DSP)905、ならびにマイクロホン利得制御ユニットおよびスピーカ利得制御ユニットを含む受信機/送信機ユニットが含まれる。主ディスプレイ・ユニット907は、フォーカス距離に基づいて表示情報の表現を決定するステップを実行またはサポートする様々なアプリケーションおよびモバイル端末機能のサポートとして、ユーザに表示を提供する。ディスプレイ907は、モバイル端末(例えばモバイル電話)のユーザ・インターフェースの少なくとも一部を表示するよう構成されたディスプレイ回路を備える。さらに、ディスプレイ907およびディスプレイ回路は、モバイル端末の少なくとも一部の機能のユーザ制御を促進するよう構成されている。オーディオ機能回路909は、マイクロホン911、およびマイクロホン911から出力される発話信号を増幅するマイクロホン増幅器を備える。マイクロホン911から出力された増幅発話信号は、コーダ/デコーダ(CODEC:coder/decoder)913に供給される。
無線セクション915は、モバイル通信システムに含まれる基地局とアンテナ917を介して通信するために、電力を増幅し周波数を変換する。電力増幅器(PA:power amplifier)919および送信機/変調回路は、MCU903に動作応答し、PA919からの出力は、当該技術分野で周知のように、デュプレクサ921またはサーキュレータまたはアンテナ・スイッチに結合される。PA919は、バッテリ・インターフェースおよび電力制御ユニット920にも結合する。
使用中、モバイル端末901のユーザは、マイクロホン911に向かって発話し、その音声は、検出された任意の背景雑音とともにアナログ電圧に変換される。続いて、アナログ電圧は、アナログ・デジタル変換器(ADC:Analog to Digital Converter)923を介してデジタル信号に変換される。制御ユニット903は、DSP905内での、発話符号化、チャネル符号化、暗号化、およびインターリービングなどの処理のために、デジタル信号をDSP905内へ送る。少なくとも1つの例示の実施形態では、処理された音声信号は、例えばグローバル・エボリューションのための拡張データ・レート(EDGE:enhanced data rates for global evolution)、汎用パケット無線サービス(GPRS:general packet radio service)、GSM(登録商標)(global system for mobile communications)、インターネット・プロトコル・マルチメディア・サブシステム(IMS:Internet protocol multimedia subsystem)、ユニバーサル移動体通信システム(UMTS:universal mobile telecommunications system)などのセルラー伝送プロトコル、ならびにその他例えばマイクロ波アクセス(WiMAX)、ロング・ターム・エボリューション(LTE:Long Term Evolution)ネットワーク、符号分割多重アクセス(CDMA:code division multiple access)、WCDMA(登録商標)(wideband code division multiple access)、ワイヤレス・フィディリティ(WiFi:wireless fidelity)、衛星および同様のものなどの任意の適切なワイヤレス媒体、またはその任意の組み合わせを使用して、別個に示されていないユニットによって符号化される。
続いて、符号化信号は、位相および振幅歪みなど、空中を伝送する間に発生する任意の周波数依存減衰の補償のために、イコライザ925に送られる。ビット・ストリームを等化した後、モジュレータ927が、信号と、RFインターフェース929において生成されたRF信号とを組み合わせる。モジュレータ927は、周波数変調または位相変調によって正弦波を生成する。信号の伝送準備をするために、アップコンバータ931が、モジュレータ927からの正弦波出力と、シンセサイザ933によって生成された別の正弦波とを組み合わせて、所望の伝送周波数を達成する。続いて、信号は、信号を適切な電力レベルに増強させるために、PA919を通る。実際のシステムでは、PA919は、ネットワーク基地局から受信される情報からDSP905によって利得が制御される、可変利得増幅器として機能する。続いて、信号は、デュプレクサ921内でフィルタリングされ、任意選択で、最大電力転送を提供するためにインピーダンスを整合させるべく、アンテナ・カプラ935に送信される。最後に、信号はアンテナ917を介してローカル基地局へ伝送される。受信機の最終段階の利得を制御するために、自動利得制御(AGC:automatic gain control)が供給されることが可能である。信号は、そこから、別のセルラー電話、他の任意のモバイル電話、または公衆交換電話ネットワーク(PSTN:Public Switched Telephone Network)もしくはその他電話ネットワークに接続された固定電話であってもよいリモートの電話に転送されてもよい。
モバイル端末901に伝送された音声信号は、アンテナ917を介して受信され、低雑音増幅器(LNA:low noise amplifier)937によって直ちに増幅される。ダウンコンバータ939は、搬送周波数を低下させ、デモジュレータ941は、RFを除去してデジタル・ビット・ストリームのみを残す。続いて、信号は、イコライザ925を通過し、DSP905によって処理される。デジタル−アナログ変換器(DAC:Digital to Analog Converter)943は、信号を変換し、結果として生じる出力が、スピーカ945を介してユーザに伝えられる。これはすべて、中央処理ユニット(CPU:Central Processing Unit)として実装可能な主制御ユニット(MCU)903に制御される。
MCU903は、キーボード947からの入力信号を含む様々な信号を受領する。キーボード947および/またはMCU903は、他のユーザ入力コンポーネント(例えばマイクロホン911)とともに、ユーザ入力を管理するためのユーザ・インターフェース回路を構成する。MCU903は、ユーザ・インターフェース・ソフトウェアを実行して、フォーカス距離に基づいて表示情報の表現を決定するためのモバイル端末901の少なくとも一部の機能を、ユーザが制御することを促進する。さらに、MCU903は、ディスプレイ907および発話出力切り替えコントローラに、それぞれディスプレイ・コマンドおよび切り替えコマンドを配信する。さらに、MCU903は、DSP905と情報をやり取りし、任意選択で組み込まれたSIMカード949およびメモリ951にアクセスすることができる。さらにMCU903は、端末に必要な様々な制御機能を実行する。DSP905は、実装に応じて、音声信号に対し、従来の様々なデジタル処理機能のうちのいずれかを実行してもよい。さらに、DSP905は、マイクロホン911によって検出された信号から、ローカル環境の背景雑音レベルを決定し、モバイル端末901のユーザの自然な傾向を補償するように選択されたレベルに、マイクロホン911の利得を設定する。
CODEC913は、ADC923およびDAC943を備える。メモリ951は、電話着信音データを含む様々なデータを記憶し、さらに、例えば世界的なインターネットを介して受信される音楽データを含む他のデータを記憶できる。ソフトウェア・モジュールは、RAMメモリ、フラッシュ・メモリ、レジスタ、またはその他当該技術分野において周知の任意の形態の書き込み可能なストレージ媒体に存在することができるであろう。メモリ・デバイス951は、次に限定されるものではないが、単一のメモリ、CD、DVD、ROM、RAM、EEPROM、光学ストレージ、磁気ディスク・ストレージ、フラッシュ・メモリ・ストレージ、またはその他デジタル・データを記憶できる任意の不揮発性ストレージ媒体とされ得る。
任意選択で組み込まれたSIMカード949は、例えば、セルラー電話番号、サービスを供給するキャリア、加入詳細、およびセキュリティ情報などの重要情報を保持する。SIMカード949は、主として、無線ネットワーク上でモバイル端末901を識別する役割を果たす。さらに、カード949は、個人電話番号帳、テキスト・メッセージ、およびユーザ固有のモバイル端末設定を記憶するメモリを含む。
さらに、1つ以上のカメラ・センサー1053が、移動局1001上に組み入れられてもよく、該1つ以上のカメラ・センサーは、移動局上の1つ以上の位置に配置されてもよい。一般に、カメラ・センサーは、音声記録も含み得る1つ以上の静止画および/または動画(例えばビデオ、ムービーなど)を捕捉し、記録し、記憶させるために利用されてもよい。
本発明について、いくつかの実施形態および実装に関連して記載してきたが、本発明はそのように限定はされず、種々の明白な変更および等価な構成も対象としており、それらは添付の特許請求の範囲に記載の範囲内に入る。本発明の特徴は、特許請求の範囲の中で特定の組み合わせで表現されているが、こうした特徴は、任意の組み合わせおよび順序で構成することができると考えられる。

Claims (20)

  1. ユーザのフォーカス距離を求めることと;
    前記フォーカス距離に基づいてデータの表現を決定することと;
    ディスプレイ上で前記表現を提示させることと;
    を含む方法。
  2. 前記フォーカス距離を、視線追跡情報に基づいて求めること;
    をさらに含む、請求項1に記載の方法。
  3. 前記フォーカス距離の変化を判断することと;
    前記変化に基づいて前記表現を更新させることと;
    をさらに含む、請求項1に記載の方法。
  4. 前記表現が関心対象であるかどうかに基づいて前記表現を決定すること;
    をさらに含む、請求項1に記載の方法。
  5. 前記ユーザが前記表現を見ているかどうかに基づいて前記関心対象を判断すること;
    をさらに含む、請求項4に記載の方法。
  6. 前記フォーカス距離からの表現距離に基づいて、前記表現に適用する少なくとも1つのレンダリング特性の度合いを決定すること;
    をさらに含む、請求項1に記載の方法。
  7. 前記表現は、表現距離にさらに基づく、請求項1に記載の方法。
  8. 前記方法は、
    前記ディスプレイの、少なくとも1つの動的フォーカス光学コンポーネントの焦点設定を決定すること;
    をさらに含み、
    前記表現は、前記焦点設定にさらに基づく、
    請求項1に記載の方法。
  9. 少なくとも1つのプロセッサと;
    1つ以上のプログラムのコンピュータ・プログラム・コードを含む少なくとも1つのメモリと;
    を有する装置であって、
    前記少なくとも1つのメモリおよび前記コンピュータ・プログラム・コードは、前記少なくとも1つのプロセッサとともに、前記装置に少なくとも、
    ユーザのフォーカス距離を求めることと;
    前記フォーカス距離に基づいて情報の表現を決定することと;
    ディスプレイ上で前記表現を提示させることと;
    を行わせるよう構成される、装置。
  10. 前記少なくとも1つのメモリおよび前記コンピュータ・プログラム・コードは、前記少なくとも1つのプロセッサとともに、前記装置に、
    前記フォーカス距離を、視線追跡情報に基づいて求めること;
    を行わせるよう構成される、請求項9に記載の装置。
  11. 前記装置にはさらに、
    前記フォーカス距離の変化を判断することと;
    前記変化に基づいて前記表現を更新させることと;
    を行わせる、請求項9に記載の装置。
  12. 前記装置にはさらに、
    前記表現が関心対象であるかどうかに基づいて前記表現を決定すること;
    を行わせる、請求項9に記載の装置。
  13. 前記装置にはさらに、
    前記ユーザが前記表現を見ているかどうかに基づいて前記関心対象を判断すること;
    を行わせる、請求項12に記載の装置。
  14. 前記装置にはさらに、
    前記フォーカス距離からの表現距離に基づいて、前記表現に適用する少なくとも1つのレンダリング特性の度合いを決定すること;
    を行わせる、請求項9に記載の装置。
  15. 前記表現は、表現距離にさらに基づく、請求項9に記載の装置。
  16. 前記装置にはさらに、
    前記ディスプレイの、少なくとも1つの動的フォーカス光学コンポーネントの焦点設定を決定すること;
    を行わせ、
    前記表現は、前記焦点設定にさらに基づく、
    請求項9に記載の装置。
  17. コンピュータ可読プログラム命令が記憶されている少なくとも1つの非一時的コンピュータ可読ストレージ媒体を有するコンピュータ・プログラム製品であって、前記コンピュータ可読プログラム命令は、
    ユーザのフォーカス距離を求めるよう構成されたプログラム命令と;
    前記フォーカス距離に基づいて情報の表現を決定するよう構成されたプログラム命令と;
    ディスプレイ上で前記表現を提示させるよう構成されたプログラム命令と;
    を含む、コンピュータ・プログラム製品。
  18. 前記フォーカス距離を、視線追跡情報に基づいて求めるよう構成されたプログラム命令
    をさらに含む、請求項17に記載のコンピュータ・プログラム製品。
  19. 前記フォーカス距離の変化を判断するよう構成されたプログラム命令と;
    前記変化に基づいて前記表現を更新させるよう構成されたプログラム命令と;
    をさらに含む、請求項17に記載のコンピュータ・プログラム製品。
  20. 前記表現が関心対象であるかどうかに基づいて前記表現を決定するよう構成されたプログラム命令
    をさらに含む、請求項17に記載のコンピュータ・プログラム製品。
JP2015511716A 2012-05-09 2013-05-09 フォーカス距離に基づいて表示情報の表現を決定する方法および装置 Expired - Fee Related JP6336966B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/467,115 US20130300634A1 (en) 2012-05-09 2012-05-09 Method and apparatus for determining representations of displayed information based on focus distance
US13/467,115 2012-05-09
PCT/US2013/040409 WO2013170073A1 (en) 2012-05-09 2013-05-09 Method and apparatus for determining representations of displayed information based on focus distance

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018037034A Division JP6619831B2 (ja) 2012-05-09 2018-03-02 フォーカス距離に基づいて表示情報の表現を決定する方法および装置

Publications (2)

Publication Number Publication Date
JP2015525491A true JP2015525491A (ja) 2015-09-03
JP6336966B2 JP6336966B2 (ja) 2018-06-06

Family

ID=48576510

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015511716A Expired - Fee Related JP6336966B2 (ja) 2012-05-09 2013-05-09 フォーカス距離に基づいて表示情報の表現を決定する方法および装置
JP2018037034A Active JP6619831B2 (ja) 2012-05-09 2018-03-02 フォーカス距離に基づいて表示情報の表現を決定する方法および装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2018037034A Active JP6619831B2 (ja) 2012-05-09 2018-03-02 フォーカス距離に基づいて表示情報の表現を決定する方法および装置

Country Status (5)

Country Link
US (1) US20130300634A1 (ja)
EP (1) EP2839331A1 (ja)
JP (2) JP6336966B2 (ja)
CN (1) CN104641278B (ja)
WO (1) WO2013170073A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017516154A (ja) * 2014-03-05 2017-06-15 アリゾナ ボード オブ リージェンツ オン ビハーフ オブ ザ ユニバーシティ オブ アリゾナ 可変焦点および/または物体認識を備えたウェアラブル3d拡張現実ディスプレイ
JP2019508724A (ja) * 2016-01-07 2019-03-28 マジック リープ, インコーポレイテッドMagic Leap,Inc. 深度平面にわたって分配される等しくない数の成分色画像を有する仮想および拡張現実システムおよび方法
JP2020523628A (ja) * 2017-06-01 2020-08-06 ポゴテック インクPogoTec, Inc. アイウェア用の着脱可能な拡張現実システム
JP2022008883A (ja) * 2017-03-22 2022-01-14 マジック リープ, インコーポレイテッド 動的視野の可変焦点ディスプレイシステム
JP2022031270A (ja) * 2016-03-01 2022-02-18 マジック リープ, インコーポレイテッド 光の異なる波長を導波管に入力するための反射切替デバイス
JP2022097588A (ja) * 2016-03-25 2022-06-30 マジック リープ, インコーポレイテッド 仮想および拡張現実システムおよび方法
US11775062B2 (en) 2016-03-04 2023-10-03 Magic Leap, Inc. Current drain reduction in AR/VR display systems

Families Citing this family (111)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9158116B1 (en) 2014-04-25 2015-10-13 Osterhout Group, Inc. Temple and ear horn assembly for headworn computer
US8511827B2 (en) 2008-01-22 2013-08-20 The Arizona Board Of Regents On Behalf Of The University Of Arizona Head-mounted projection display using reflective microdisplays
US9400390B2 (en) 2014-01-24 2016-07-26 Osterhout Group, Inc. Peripheral lighting for head worn computing
US9366867B2 (en) 2014-07-08 2016-06-14 Osterhout Group, Inc. Optical systems for see-through displays
US9715112B2 (en) 2014-01-21 2017-07-25 Osterhout Group, Inc. Suppression of stray light in head worn computing
US9298007B2 (en) 2014-01-21 2016-03-29 Osterhout Group, Inc. Eye imaging in head worn computing
US9229233B2 (en) 2014-02-11 2016-01-05 Osterhout Group, Inc. Micro Doppler presentations in head worn computing
US20150277120A1 (en) 2014-01-21 2015-10-01 Osterhout Group, Inc. Optical configurations for head worn computing
US9952664B2 (en) 2014-01-21 2018-04-24 Osterhout Group, Inc. Eye imaging in head worn computing
US9965681B2 (en) 2008-12-16 2018-05-08 Osterhout Group, Inc. Eye imaging in head worn computing
US20150205111A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. Optical configurations for head worn computing
WO2010123934A1 (en) 2009-04-20 2010-10-28 The Arizona Board Of Regents On Behalf Of The University Of Arizona Optical see-through free-form head-mounted display
US20110075257A1 (en) 2009-09-14 2011-03-31 The Arizona Board Of Regents On Behalf Of The University Of Arizona 3-Dimensional electro-optical see-through displays
CN102782562B (zh) 2010-04-30 2015-07-22 北京理工大学 宽视场高分辨率拼接式头盔显示装置
KR101931406B1 (ko) 2012-01-24 2018-12-20 더 아리조나 보드 오브 리전츠 온 비핼프 오브 더 유니버시티 오브 아리조나 컴팩트한 시선추적 기능의 헤드 탑재형 디스플레이
IN2015DN02476A (ja) 2012-10-18 2015-09-11 Univ Arizona State
GB201310658D0 (en) * 2013-06-14 2013-07-31 Adlens Ltd Focal length adjustment
CN107315249B (zh) * 2013-11-27 2021-08-17 奇跃公司 虚拟和增强现实系统与方法
EP2887124A1 (en) * 2013-12-20 2015-06-24 Thomson Licensing Optical see-through glass type display device and corresponding optical unit
US11227294B2 (en) 2014-04-03 2022-01-18 Mentor Acquisition One, Llc Sight information collection in head worn computing
US9939934B2 (en) 2014-01-17 2018-04-10 Osterhout Group, Inc. External user interface for head worn computing
US10684687B2 (en) 2014-12-03 2020-06-16 Mentor Acquisition One, Llc See-through computer display systems
US9746686B2 (en) 2014-05-19 2017-08-29 Osterhout Group, Inc. Content position calibration in head worn computing
US20150277118A1 (en) 2014-03-28 2015-10-01 Osterhout Group, Inc. Sensor dependent content position in head worn computing
US10191279B2 (en) 2014-03-17 2019-01-29 Osterhout Group, Inc. Eye imaging in head worn computing
US9594246B2 (en) 2014-01-21 2017-03-14 Osterhout Group, Inc. See-through computer display systems
US9829707B2 (en) 2014-08-12 2017-11-28 Osterhout Group, Inc. Measuring content brightness in head worn computing
US10254856B2 (en) 2014-01-17 2019-04-09 Osterhout Group, Inc. External user interface for head worn computing
US9841599B2 (en) 2014-06-05 2017-12-12 Osterhout Group, Inc. Optical configurations for head-worn see-through displays
US9299194B2 (en) 2014-02-14 2016-03-29 Osterhout Group, Inc. Secure sharing in head worn computing
US9529195B2 (en) 2014-01-21 2016-12-27 Osterhout Group, Inc. See-through computer display systems
US10649220B2 (en) 2014-06-09 2020-05-12 Mentor Acquisition One, Llc Content presentation in head worn computing
US9575321B2 (en) 2014-06-09 2017-02-21 Osterhout Group, Inc. Content presentation in head worn computing
US11103122B2 (en) 2014-07-15 2021-08-31 Mentor Acquisition One, Llc Content presentation in head worn computing
US9448409B2 (en) 2014-11-26 2016-09-20 Osterhout Group, Inc. See-through computer display systems
US20160019715A1 (en) 2014-07-15 2016-01-21 Osterhout Group, Inc. Content presentation in head worn computing
US9671613B2 (en) 2014-09-26 2017-06-06 Osterhout Group, Inc. See-through computer display systems
US9810906B2 (en) 2014-06-17 2017-11-07 Osterhout Group, Inc. External user interface for head worn computing
US9366868B2 (en) 2014-09-26 2016-06-14 Osterhout Group, Inc. See-through computer display systems
US20150228119A1 (en) 2014-02-11 2015-08-13 Osterhout Group, Inc. Spatial location presentation in head worn computing
US9651788B2 (en) 2014-01-21 2017-05-16 Osterhout Group, Inc. See-through computer display systems
US11892644B2 (en) 2014-01-21 2024-02-06 Mentor Acquisition One, Llc See-through computer display systems
US11487110B2 (en) 2014-01-21 2022-11-01 Mentor Acquisition One, Llc Eye imaging in head worn computing
US20150206173A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. Eye imaging in head worn computing
US9310610B2 (en) 2014-01-21 2016-04-12 Osterhout Group, Inc. See-through computer display systems
US9494800B2 (en) 2014-01-21 2016-11-15 Osterhout Group, Inc. See-through computer display systems
US9651784B2 (en) 2014-01-21 2017-05-16 Osterhout Group, Inc. See-through computer display systems
US9766463B2 (en) 2014-01-21 2017-09-19 Osterhout Group, Inc. See-through computer display systems
US11737666B2 (en) 2014-01-21 2023-08-29 Mentor Acquisition One, Llc Eye imaging in head worn computing
US9532714B2 (en) 2014-01-21 2017-01-03 Osterhout Group, Inc. Eye imaging in head worn computing
US9836122B2 (en) 2014-01-21 2017-12-05 Osterhout Group, Inc. Eye glint imaging in see-through computer display systems
US9753288B2 (en) 2014-01-21 2017-09-05 Osterhout Group, Inc. See-through computer display systems
US11669163B2 (en) 2014-01-21 2023-06-06 Mentor Acquisition One, Llc Eye glint imaging in see-through computer display systems
US20150205135A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. See-through computer display systems
US9811152B2 (en) 2014-01-21 2017-11-07 Osterhout Group, Inc. Eye imaging in head worn computing
US9846308B2 (en) 2014-01-24 2017-12-19 Osterhout Group, Inc. Haptic systems for head-worn computers
US9401540B2 (en) 2014-02-11 2016-07-26 Osterhout Group, Inc. Spatial location presentation in head worn computing
US9852545B2 (en) 2014-02-11 2017-12-26 Osterhout Group, Inc. Spatial location presentation in head worn computing
US20160187651A1 (en) 2014-03-28 2016-06-30 Osterhout Group, Inc. Safety for a vehicle operator with an hmd
US9672210B2 (en) 2014-04-25 2017-06-06 Osterhout Group, Inc. Language translation with head-worn computing
US20150309534A1 (en) 2014-04-25 2015-10-29 Osterhout Group, Inc. Ear horn assembly for headworn computer
US9651787B2 (en) 2014-04-25 2017-05-16 Osterhout Group, Inc. Speaker assembly for headworn computer
US9423842B2 (en) 2014-09-18 2016-08-23 Osterhout Group, Inc. Thermal management for head-worn computer
US10853589B2 (en) 2014-04-25 2020-12-01 Mentor Acquisition One, Llc Language translation with head-worn computing
US20160137312A1 (en) 2014-05-06 2016-05-19 Osterhout Group, Inc. Unmanned aerial vehicle launch system
US10663740B2 (en) 2014-06-09 2020-05-26 Mentor Acquisition One, Llc Content presentation in head worn computing
US10067561B2 (en) * 2014-09-22 2018-09-04 Facebook, Inc. Display visibility based on eye convergence
KR20160059406A (ko) * 2014-11-18 2016-05-26 삼성전자주식회사 가상 이미지를 출력하기 위한 웨어러블 장치 및 방법
US9684172B2 (en) 2014-12-03 2017-06-20 Osterhout Group, Inc. Head worn computer display systems
USD743963S1 (en) 2014-12-22 2015-11-24 Osterhout Group, Inc. Air mouse
USD751552S1 (en) 2014-12-31 2016-03-15 Osterhout Group, Inc. Computer glasses
USD753114S1 (en) 2015-01-05 2016-04-05 Osterhout Group, Inc. Air mouse
US11263794B2 (en) * 2015-01-21 2022-03-01 Chengdu Idealsee Technology Co., Ltd. Binocular see-through AR head-mounted display device and information displaying method thereof
US10176961B2 (en) 2015-02-09 2019-01-08 The Arizona Board Of Regents On Behalf Of The University Of Arizona Small portable night vision system
US10878775B2 (en) 2015-02-17 2020-12-29 Mentor Acquisition One, Llc See-through computer display systems
US20160239985A1 (en) 2015-02-17 2016-08-18 Osterhout Group, Inc. See-through computer display systems
TWI569040B (zh) * 2015-05-07 2017-02-01 尚立光電股份有限公司 自動調焦頭戴式顯示裝置
WO2016203844A1 (ja) * 2015-06-16 2016-12-22 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
EP3113159A1 (en) * 2015-06-30 2017-01-04 Thomson Licensing Method and device for processing a part of an immersive video content according to the position of reference parts
US10139966B2 (en) 2015-07-22 2018-11-27 Osterhout Group, Inc. External user interface for head worn computing
US9709807B2 (en) * 2015-11-03 2017-07-18 Motorola Solutions, Inc. Out of focus notifications
US9984507B2 (en) * 2015-11-19 2018-05-29 Oculus Vr, Llc Eye tracking for mitigating vergence and accommodation conflicts
US10768772B2 (en) * 2015-11-19 2020-09-08 Microsoft Technology Licensing, Llc Context-aware recommendations of relevant presentation content displayed in mixed environments
US11006101B2 (en) 2016-01-29 2021-05-11 Hewlett-Packard Development Company, L.P. Viewing device adjustment based on eye accommodation in relation to a display
US10591728B2 (en) 2016-03-02 2020-03-17 Mentor Acquisition One, Llc Optical systems for head-worn computers
US10850116B2 (en) 2016-12-30 2020-12-01 Mentor Acquisition One, Llc Head-worn therapy device
US10667981B2 (en) 2016-02-29 2020-06-02 Mentor Acquisition One, Llc Reading assistance system for visually impaired
US9826299B1 (en) 2016-08-22 2017-11-21 Osterhout Group, Inc. Speaker systems for head-worn computer systems
US9880441B1 (en) 2016-09-08 2018-01-30 Osterhout Group, Inc. Electrochromic systems for head-worn computer systems
JP6632443B2 (ja) 2016-03-23 2020-01-22 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理システム、および情報処理方法
US9910284B1 (en) 2016-09-08 2018-03-06 Osterhout Group, Inc. Optical systems for head-worn computers
US10824253B2 (en) 2016-05-09 2020-11-03 Mentor Acquisition One, Llc User interface systems for head-worn computers
US10466491B2 (en) 2016-06-01 2019-11-05 Mentor Acquisition One, Llc Modular systems for head-worn computers
US10684478B2 (en) 2016-05-09 2020-06-16 Mentor Acquisition One, Llc User interface systems for head-worn computers
CN105866950A (zh) * 2016-04-26 2016-08-17 乐视控股(北京)有限公司 数据处理的方法及装置
KR20230133940A (ko) 2016-07-25 2023-09-19 매직 립, 인코포레이티드 증강 현실 및 가상 현실 안경류를 사용한 이미징 수정, 디스플레이 및 시각화
US10739578B2 (en) 2016-08-12 2020-08-11 The Arizona Board Of Regents On Behalf Of The University Of Arizona High-resolution freeform eyepiece design with a large exit pupil
US10690936B2 (en) 2016-08-29 2020-06-23 Mentor Acquisition One, Llc Adjustable nose bridge assembly for headworn computer
USD840395S1 (en) 2016-10-17 2019-02-12 Osterhout Group, Inc. Head-worn computer
USD864959S1 (en) 2017-01-04 2019-10-29 Mentor Acquisition One, Llc Computer glasses
US10360663B1 (en) * 2017-04-07 2019-07-23 Gopro, Inc. Systems and methods to create a dynamic blur effect in visual content
KR102044628B1 (ko) * 2017-05-27 2019-11-13 이문기 거울을 이용한 투명한 안경형 디스플레이
US10422995B2 (en) 2017-07-24 2019-09-24 Mentor Acquisition One, Llc See-through computer display systems with stray light management
US11409105B2 (en) 2017-07-24 2022-08-09 Mentor Acquisition One, Llc See-through computer display systems
US10578869B2 (en) 2017-07-24 2020-03-03 Mentor Acquisition One, Llc See-through computer display systems with adjustable zoom cameras
US10969584B2 (en) 2017-08-04 2021-04-06 Mentor Acquisition One, Llc Image expansion optic for head-worn computer
WO2019109323A1 (zh) * 2017-12-08 2019-06-13 深圳前海达闼云端智能科技有限公司 图像显示方法、穿戴式智能设备及存储介质
JP7287792B2 (ja) 2018-02-21 2023-06-06 日東電工株式会社 粘着性物品
JP7185331B2 (ja) 2018-03-22 2022-12-07 アリゾナ ボード オブ リージェンツ オン ビハーフ オブ ザ ユニバーシティ オブ アリゾナ インテグラルイメージング方式のライトフィールドディスプレイ用にライトフィールド画像をレンダリングする方法
US11966055B2 (en) 2018-07-19 2024-04-23 Magic Leap, Inc. Content interaction driven by eye metrics
US10627901B2 (en) * 2018-09-14 2020-04-21 Facebook Technologies, Llc Vergence determination

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09211374A (ja) * 1996-01-31 1997-08-15 Nikon Corp ヘッドマウントディスプレイ装置
JPH09274144A (ja) * 1996-04-02 1997-10-21 Canon Inc 画像表示装置
JPH10239634A (ja) * 1997-02-27 1998-09-11 Minolta Co Ltd 立体映像表示装置
JP2010139589A (ja) * 2008-12-10 2010-06-24 Konica Minolta Opto Inc 映像表示装置およびヘッドマウントディスプレイ
WO2012078410A1 (en) * 2010-12-08 2012-06-14 Microsoft Corporation Sympathetic optic adaptation for see-through display

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3478354B2 (ja) * 1994-10-20 2003-12-15 ミノルタ株式会社 方位検出機構付hmd
JPH09322199A (ja) * 1996-05-29 1997-12-12 Olympus Optical Co Ltd 立体映像ディスプレイ装置
US5731805A (en) * 1996-06-25 1998-03-24 Sun Microsystems, Inc. Method and apparatus for eyetrack-driven text enlargement
US6456262B1 (en) * 2000-05-09 2002-09-24 Intel Corporation Microdisplay with eye gaze detection
US6710927B2 (en) * 2000-06-26 2004-03-23 Angus Duncan Richards Multi-mode display device
US20020044152A1 (en) * 2000-10-16 2002-04-18 Abbott Kenneth H. Dynamic integration of computer generated and real world images
US7428001B2 (en) * 2002-03-15 2008-09-23 University Of Washington Materials and methods for simulating focal shifts in viewers using large depth of focus displays
US6879443B2 (en) * 2003-04-25 2005-04-12 The Microoptical Corporation Binocular viewing system
US7766479B2 (en) * 2006-03-31 2010-08-03 National University Corporation Shizuoka University View point detecting device
US20110075257A1 (en) * 2009-09-14 2011-03-31 The Arizona Board Of Regents On Behalf Of The University Of Arizona 3-Dimensional electro-optical see-through displays
WO2011110728A1 (en) * 2010-03-12 2011-09-15 Nokia Corporation Light-guiding structures
JP5434848B2 (ja) * 2010-08-18 2014-03-05 ソニー株式会社 表示装置
US9292973B2 (en) * 2010-11-08 2016-03-22 Microsoft Technology Licensing, Llc Automatic variable virtual focus for augmented reality displays
US8963956B2 (en) * 2011-08-19 2015-02-24 Microsoft Technology Licensing, Llc Location based skins for mixed reality displays
US9323325B2 (en) * 2011-08-30 2016-04-26 Microsoft Technology Licensing, Llc Enhancing an object of interest in a see-through, mixed reality display device
US20130088413A1 (en) * 2011-10-05 2013-04-11 Google Inc. Method to Autofocus on Near-Eye Display
US9734633B2 (en) * 2012-01-27 2017-08-15 Microsoft Technology Licensing, Llc Virtual environment generating system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09211374A (ja) * 1996-01-31 1997-08-15 Nikon Corp ヘッドマウントディスプレイ装置
JPH09274144A (ja) * 1996-04-02 1997-10-21 Canon Inc 画像表示装置
JPH10239634A (ja) * 1997-02-27 1998-09-11 Minolta Co Ltd 立体映像表示装置
JP2010139589A (ja) * 2008-12-10 2010-06-24 Konica Minolta Opto Inc 映像表示装置およびヘッドマウントディスプレイ
WO2012078410A1 (en) * 2010-12-08 2012-06-14 Microsoft Corporation Sympathetic optic adaptation for see-through display

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017516154A (ja) * 2014-03-05 2017-06-15 アリゾナ ボード オブ リージェンツ オン ビハーフ オブ ザ ユニバーシティ オブ アリゾナ 可変焦点および/または物体認識を備えたウェアラブル3d拡張現実ディスプレイ
US11500208B2 (en) 2016-01-07 2022-11-15 Magic Leap, Inc. Virtual and augmented reality systems and methods having unequal numbers of component color images distributed across depth planes
US10890773B2 (en) 2016-01-07 2021-01-12 Magic Leap, Inc. Virtual and augmented reality systems and methods having unequal numbers of component color images distributed across depth planes
JP2021152670A (ja) * 2016-01-07 2021-09-30 マジック リープ, インコーポレイテッドMagic Leap, Inc. 深度平面にわたって分配される等しくない数の成分色画像を有する仮想および拡張現実システムおよび方法
JP7145284B2 (ja) 2016-01-07 2022-09-30 マジック リープ, インコーポレイテッド 深度平面にわたって分配される等しくない数の成分色画像を有する仮想および拡張現実システムおよび方法
JP2019508724A (ja) * 2016-01-07 2019-03-28 マジック リープ, インコーポレイテッドMagic Leap,Inc. 深度平面にわたって分配される等しくない数の成分色画像を有する仮想および拡張現実システムおよび方法
JP2022031270A (ja) * 2016-03-01 2022-02-18 マジック リープ, インコーポレイテッド 光の異なる波長を導波管に入力するための反射切替デバイス
US11775062B2 (en) 2016-03-04 2023-10-03 Magic Leap, Inc. Current drain reduction in AR/VR display systems
JP2022097588A (ja) * 2016-03-25 2022-06-30 マジック リープ, インコーポレイテッド 仮想および拡張現実システムおよび方法
JP7398507B2 (ja) 2016-03-25 2023-12-14 マジック リープ, インコーポレイテッド 仮想および拡張現実システムおよび方法
US11966059B2 (en) 2016-03-25 2024-04-23 Magic Leap, Inc. Virtual and augmented reality systems and methods
JP2022008883A (ja) * 2017-03-22 2022-01-14 マジック リープ, インコーポレイテッド 動的視野の可変焦点ディスプレイシステム
JP2020523628A (ja) * 2017-06-01 2020-08-06 ポゴテック インクPogoTec, Inc. アイウェア用の着脱可能な拡張現実システム

Also Published As

Publication number Publication date
CN104641278A (zh) 2015-05-20
WO2013170073A1 (en) 2013-11-14
US20130300634A1 (en) 2013-11-14
JP6619831B2 (ja) 2019-12-11
EP2839331A1 (en) 2015-02-25
JP2018137760A (ja) 2018-08-30
CN104641278B (zh) 2018-01-19
JP6336966B2 (ja) 2018-06-06

Similar Documents

Publication Publication Date Title
JP6619831B2 (ja) フォーカス距離に基づいて表示情報の表現を決定する方法および装置
JP2015525365A (ja) 表示情報のフォーカス補正を行う方法および装置
US10621708B2 (en) Using pupil location to correct optical lens distortion
US10241470B2 (en) No miss cache structure for real-time image transformations with data compression
US20180157045A1 (en) Ocular Video Stabilization
CN107037587B (zh) 紧凑型增强现实/虚拟现实显示器
EP3552081B1 (en) Display synchronized image warping
KR102358932B1 (ko) 시선 위치에 기초한 안정 평면 결정
CN110249317B (zh) 用于实时图像变换的无未命中高速缓存结构
US11315215B2 (en) Movement within an environment
US11977676B2 (en) Adjusting content of a head mounted display
JP2022548346A (ja) ニアアイディスプレイにおける画像フレーム同期
US11900845B2 (en) System and method for optical calibration of a head-mounted display
WO2019017207A1 (en) IMAGE PROCESSOR AND METHOD FOR CONTROLLING IMAGE PROCESSOR
US20240107000A1 (en) Stereoscopic Floating Window Metadata
US20230077410A1 (en) Multi-View Video Codec
WO2023028284A1 (en) Variable world blur for occlusion and contrast enhancement via tunable lens elements
WO2022182668A1 (en) Digital assistant interactions in extended reality
WO2022256152A1 (en) Method and device for navigating windows in 3d

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20151112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160120

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160408

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160520

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170130

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20170207

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20170414

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180507

R150 Certificate of patent or registration of utility model

Ref document number: 6336966

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees