JP2021520517A - 仮想画像を生成するように適合されたヘッドマウントデバイスをカスタマイズするための方法 - Google Patents

仮想画像を生成するように適合されたヘッドマウントデバイスをカスタマイズするための方法 Download PDF

Info

Publication number
JP2021520517A
JP2021520517A JP2020554529A JP2020554529A JP2021520517A JP 2021520517 A JP2021520517 A JP 2021520517A JP 2020554529 A JP2020554529 A JP 2020554529A JP 2020554529 A JP2020554529 A JP 2020554529A JP 2021520517 A JP2021520517 A JP 2021520517A
Authority
JP
Japan
Prior art keywords
mount device
head mount
pupil position
wearer
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020554529A
Other languages
English (en)
Inventor
セシール・プティグノー
Original Assignee
エシロール・アンテルナシオナル
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エシロール・アンテルナシオナル filed Critical エシロール・アンテルナシオナル
Publication of JP2021520517A publication Critical patent/JP2021520517A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B27/0103Head-up displays characterised by optical features comprising holographic elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B27/0103Head-up displays characterised by optical features comprising holographic elements
    • G02B2027/0109Head-up displays characterised by optical features comprising holographic elements comprising details concerning the making of holograms
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • G02B2027/0174Head mounted characterised by optical features holographic
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B2027/0192Supplementary details
    • G02B2027/0198System for aligning or maintaining alignment of an image in a predetermined direction

Abstract

装着者のための仮想画像を生成するように適合されたヘッドマウントデバイスをカスタマイズするための方法であって、方法は、基準フレームにおける及び所定の凝視方向に対応する、装着者の3D瞳孔位置を取得することと、フォーカスエリア(EMB)の位置が所定の凝視方向において瞳孔位置と少なくとも部分的に一致するように、3D瞳孔位置に基づいてヘッドマウントデバイスをカスタマイズすることと、を含み、ヘッドマウントデバイスをカスタマイズすることは、基準フレームにおける3D瞳孔位置に基づいてホログラフィックミラーの記録を制御することを含む。

Description

本発明は、装着者のための仮想画像を生成するように適合されたヘッドマウントデバイスをカスタマイズするための方法、デバイス、及びコンピュータプログラム製品に関する。
既存の表示光学機器、特にシーアラウンド又はシースルー視覚を可能にする機器は、標準的な機器である。換言すれば、そのようなデバイスでは、調整の可能性は提供されていてもごくわずかである。特に、表示デバイスは、平均的なユーザに適合しても、特定のユーザには適合しない。
これに加えて、たとえユーザに表示される情報が異なる機器の同じ場所に現れる場合でも、機器がユーザに対してカスタマイズされていなければ、仮想画像の一部がユーザに完全には見えない場合があり、それによって仮想視野を制限してしまう。
従来の光学機器、特に眼科用機器に関して、標準的な表示光学デバイスを使用する際に、それぞれの個々のユーザは同じ視覚体験を有しない。
例えば、ユーザに表示される情報は、各ユーザに対する視野内の同じ場所に表示されない。典型的には、視野の側面上に現れるべき情報は、ユーザに応じて、ユーザの視野の中心に現れるか、又はユーザの視野内に現れない場合さえある。
したがって、そのような機器のユーザによりよく適合された表示光学機器を提供するための方法が必要とされている。
この目的のため、本発明は、装着者のための仮想画像を生成するように適合されたヘッドマウントデバイスをカスタマイズするための方法を提案するものであり、方法は、
− 基準フレームにおける、所定の凝視方向に対応する、装着者の3D瞳孔位置を取得することと、
− フォーカスエリア(EMB)の位置が所定の凝視方向において瞳孔位置と少なくとも部分的に一致するように、3D瞳孔位置に基づいてヘッドマウントデバイスをカスタマイズすることと、を含み、
ヘッドマウントデバイスをカスタマイズすることは、基準フレームにおける3D瞳孔位置に基づいてホログラフィックミラーの記録を制御することを含む。
有利にも、方法は、提供される3D瞳孔位置に基づいてヘッドマウントデバイスをカスタマイズすることにより、装着者の顔のアナトミーとは無関係に装着者が仮想画像を視認できるようにヘッドマウントデバイスをカスタマイズすることを可能にし、それによって装着者の瞳孔を通じた仮想画像の正確なフォーカスを確実にする。
方法の別の潜在的な利点は、特に特定のモードにおけるように、3D瞳孔位置を取得することにより装着者の快適さを向上させることであって、方法は、装着者の装着の好み、又は所与のアクティビティ若しくは所与の視覚タスクに最も適した装着状態とは無関係に、装着者が仮想画像を視認できるように、ヘッドマウントデバイスをカスタマイズすることを可能にする。更に、提供される3D瞳孔位置は、特定の所定の凝視方向に対応し、これによって、装着者が快適さを最大にするように選択することができる。
単独又は任意の可能な組み合わせで考慮できる更なる実施形態によれば、
− 3D瞳孔位置は、ヘッドマウントデバイスにリンクされた基準フレームにおいて取得され、及び/又は
− 方法は、3D瞳孔位置を取得する前に、ヘッドマウントデバイスにリンクされた基準フレームにおける3D瞳孔位置を判定することを更に含み、及び/又は
− カスタマイズされたヘッドマウントデバイスは、光ビームを放射するように構成された光源と、光ビームを受け取り、光ビームをフォーカスエリア(EMB)に向けてリダイレクトするように構成された反射要素とを備え、及び/又は
− 反射要素はホログラフィックミラーを備え、及び/又は
− ヘッドマウントデバイスは、光ビームを受け取り、受け取った光ビームを反射要素に向けて走査するように構成された走査要素を備え、及び/又は
− ヘッドマウントデバイスのカスタマイズの間に、光源、走査要素、及び/若しくは反射要素のうちの少なくとも1つは、基準フレームにおける3D瞳孔位置に基づいて適合され、並びに/又は
− ヘッドマウントデバイスのカスタマイズの間に、光源、走査要素、及び反射要素のうちの少なくとも1つの位置及び/若しくは向きは、基準フレームにおける3D瞳孔位置に基づいて調整され、並びに/又は
− ヘッドマウントデバイスのカスタマイズの間に、ホログラフィックミラーは、基準フレームにおける3D瞳孔位置に基づいて記録され、及び/又は
− 方法は、少なくとも1つのフィッティングパラメータを取得することを更に含み、3D瞳孔位置は、少なくとも1つのフィッティングパラメータに基づいて判定され、及び/又は
− 方法は、少なくとも1つのセンタリングパラメータを取得することを更に含み、3D瞳孔位置は、少なくとも1つのセンタリングパラメータに基づいて判定され、及び/又は
− 方法は、ヘッドマウントデバイスをカスタマイズする前に、基準フレームにおけるフォーカスエリアの位置に関連するヘッドマウントデバイスの少なくとも1つの設定パラメータ値を取得することを更に含み、及び/又は
− ヘッドマウントデバイスのカスタマイズの間に、取得された3D瞳孔位置に基づいて、少なくとも1つの設定パラメータがカスタマイズ及び更新され、及び/又は
− 3D瞳孔位置を取得すること、及び取得された3D瞳孔位置に基づいてヘッドマウントデバイスをカスタマイズすることが、経時的に繰り返され、及び/又は
− フォーカスエリア(EMB)の位置は、ポイントの位置を含み、及び/又は
− フォーカスエリア(EMB)の位置は、表面の位置を含み、及び/又は
− フォーカスエリア(EMB)の位置は、ボリュームの位置を含み、及び/又は
− 瞳孔の位置は、ポイントの位置を含み、及び/又は
− 瞳孔の位置は、表面の位置を含み、及び/又は
− ヘッドマウントデバイスは、フレームを含み、及び/又は
− 3D瞳孔位置は、ヘッドマウントデバイスのフレームにリンクされた基準フレームにおいて取得され、及び/又は
− 方法は、3D瞳孔位置を取得する前に、ヘッドマウントデバイスのフレームにリンクされた基準フレームにおける3D瞳孔位置を判定することを更に含み、及び/又は
− 方法は、ヘッドマウントデバイスを提供した後、ヘッドマウントデバイスを装着者に配置することを更に含み、及び/又は
− ヘッドマウントデバイスは、光ビームを放射するように構成された光源と、光ビームを受け取り、受け取った光ビームを反射するように構成された走査要素とを備え、及び/又は
− ヘッドマウントデバイスは、走査要素によって反射された光ビームを受け取り、フォーカスエリア(EMB)に向けてリダイレクトするように構成された反射要素を備え、及び/又は
− ヘッドマウントデバイスのカスタマイズの間に、走査要素によって反射された光ビームを受け取り、フォーカスエリア(EMB)に向けてリダイレクトするように構成された反射要素がヘッドマウントデバイスに追加される。
本発明は更に、装着者のための仮想画像を生成するように適合されたヘッドマウントデバイスをカスタマイズするための方法に関し、方法は、
− 光ビームをフォーカスエリア(EMB)に向けて導くように構成されたヘッドマウントデバイスが提供される、ヘッドマウントデバイス提供ステップと、
− 装着者の3D瞳孔位置が、ヘッドマウントデバイスにリンクされ、所定の凝視方向に対応する基準フレームに提供される、3D瞳孔位置提供ステップと、
− フォーカスエリア(EMB)の位置が所定の凝視方向において瞳孔位置と少なくとも部分的に一致するように、3D瞳孔位置に基づいてヘッドマウントデバイスをカスタマイズする、ヘッドマウントデバイスカスタマイズステップと、を含む。
有利にも、方法は、提供される3D瞳孔位置に基づいてカスタマイズが実行されるヘッドマウントデバイスカスタマイズステップにより、装着者の顔のアナトミーとは無関係に装着者が仮想画像を視認できるようにヘッドマウントデバイスをカスタマイズすることを可能にし、それによって装着者の瞳孔を通じた仮想画像の正確なフォーカスを確実にする。
その方法の別の潜在的な利点は、特に特定のモードにおけるように、3D瞳孔位置提供ステップにより、装着者の快適さを向上させることであって、方法は、装着者の装着の好み、又は所与のアクティビティ若しくは所与の視覚タスクに最も適した装着状態とは無関係に、装着者が仮想画像を視認できるように、ヘッドマウントデバイスをカスタマイズすることを可能にする。更に、提供される3D瞳孔位置は、特定の所定の凝視方向に対応し、これによって、装着者が快適さを最大にするように選択することができる。
単独又は任意の可能な組み合わせで考慮できる更なる実施形態によれば、
− フォーカスエリア(EMB)の位置は、ポイントの位置を含み、及び/又は
− フォーカスエリア(EMB)の位置は、表面の位置を含み、及び/又は
− フォーカスエリア(EMB)の位置は、ボリュームの位置を含み、及び/又は
− 瞳孔の位置は、ポイントの位置を含み、及び/又は
− 瞳孔の位置は、表面の位置を含み、及び/又は
− ヘッドマウントデバイスは、フレームを含み、及び/又は
− 3D瞳孔位置提供ステップの間、3D瞳孔位置は、ヘッドマウントデバイスのフレームにリンクされた基準フレームにおいて提供され、及び/又は
− 方法は、3D瞳孔位置提供ステップの前に、3D瞳孔位置がヘッドマウントデバイスにリンクされた基準フレームにおいて判定される3D瞳孔位置判定ステップを更に含み、及び/又は
− 方法は、ヘッドマウントデバイス提供ステップ後に、ヘッドマウントデバイスを装着者に配置するヘッドマウントデバイス配置ステップを更に含み、及び/又は
− ヘッドマウントデバイス提供ステップの間に提供されるヘッドマウントデバイスは、光ビームを放射するように構成された光源と、光ビームを受け取り、受け取った光ビームを反射するように構成された走査要素とを備え、及び/又は
− ヘッドマウントデバイス提供ステップの間に提供されるヘッドマウントデバイスは、走査要素によって反射された光ビームを受け取り、フォーカスエリア(EMB)に向けてリダイレクトするように構成された反射要素を備え、及び/又は
− ヘッドマウントデバイスカスタマイズステップの間に、走査要素によって反射された光ビームを受け取り、フォーカスエリア(EMB)に向けてリダイレクトするように構成された反射要素がヘッドマウントデバイスに追加され、及び/又は
− ヘッドマウントデバイスカスタマイズステップの間に、光源、走査要素、及び/若しくは反射要素のうちの少なくとも1つは、ヘッドマウントデバイスにリンクされた基準フレームにおける3D瞳孔位置に基づいて適合され、並びに/又は
− ヘッドマウントデバイスカスタマイズステップの間に、光源、走査要素、及び/若しくは反射要素のうちの少なくとも1つの位置は、ヘッドマウントデバイスにリンクされた基準フレームにおける3D瞳孔位置に基づいて調整され、並びに/又は
− ヘッドマウントデバイスカスタマイズステップの間に、光源、走査要素、及び/若しくは反射要素のうちの少なくとも1つの向きは、ヘッドマウントデバイスにリンクされた基準フレームにおける3D瞳孔位置に基づいて調整され、並びに/又は
− 反射要素はホログラフィックミラーを備え、及び/又は
− ヘッドマウントデバイスカスタマイズステップの間に、ホログラフィックミラーは、ヘッドマウントデバイスにリンクされた基準フレームにおける3D瞳孔位置に基づいて記録され、及び/又は
− 方法は、少なくとも1つのフィッティングパラメータが提供されるフィッティングパラメータ提供ステップを更に含み、及び/又は
− 3D瞳孔位置提供ステップの間に、3D瞳孔位置は、少なくとも1つのフィッティングパラメータに基づいて判定され、及び/又は
− 方法は、少なくとも1つのセンタリングパラメータが提供されるセンタリングパラメータ提供ステップを更に含み、及び/又は
− 3D瞳孔位置提供ステップの間に、3D瞳孔位置は、少なくとも1つのセンタリングパラメータに基づいて判定され、及び/又は
− 方法は、ヘッドマウントデバイスカスタマイズステップの前に、ヘッドマウントデバイスにリンクされた基準フレームにおけるフォーカスエリアの位置に関連するヘッドマウントデバイスの少なくとも1つの設定パラメータ値が提供される、設定パラメータ値提供ステップを更に含み、及び/又は
− ヘッドマウントデバイスカスタマイズステップの間に、提供された3D瞳孔位置に基づいて、少なくとも1つの設定パラメータがカスタマイズ及び更新され、及び/又は
− 3D瞳孔位置提供ステップ及びヘッドマウントデバイスカスタマイズステップが、経時的に繰り返される。
本発明は更に、光ビームをフォーカスエリア(EMB)に向けて、及び装着者の瞳孔に向けて導くように構成されたヘッドマウントデバイスの相対位置を判定するためのデバイスに関し、デバイスは、少なくとも1つの位置センサ、メモリ、及びそれぞれが互いに通信する処理ユニットを備え、
− 少なくとも1つの位置センサは、装着者がヘッドマウントデバイスを装着したときの瞳孔の3D位置と、装着者がヘッドマウントデバイスを装着したときのヘッドマウントデバイスの少なくとも一部の3D位置とを含む位置データを判定するように適合されており、
− メモリは、少なくとも1つの位置センサによって判定された位置データを記憶するように適合されており、
− 処理ユニットは、メモリに記憶された位置データに基づいて、ヘッドマウントデバイスにリンクされた基準フレームにおける瞳孔の3D位置を判定するように適合されている。
単独又は任意の可能な組み合わせで考慮できる更なる実施形態によれば、
− ヘッドマウントデバイスは、光ビームを放射するように構成された光源と、光ビームを受け取り、受け取った光ビームを反射するように構成された走査要素とを備え、及び/又は
− ヘッドマウントデバイスは、走査要素によって反射された光ビームを受け取り、フォーカスエリア(EMB)に向けてリダイレクトするように構成された反射要素を備え、及び/又は
− ヘッドマウントデバイスと装着者の瞳孔との相対位置を判定するためのデバイスは、ヘッドマウントデバイスを更に備える。
更なる態様によれば、本発明は、プロセッサにアクセス可能な1つ以上の記憶された命令シーケンスを含むコンピュータプログラム製品に関し、命令は、プロセッサによって実行されると、プロセッサに、本発明によるヘッドマウントデバイスをカスタマイズするための方法のステップを実行させる。
本発明は更に、本発明によるコンピュータプログラム製品の1つ以上の命令シーケンスを運ぶコンピュータ可読媒体に関する。
更に、本発明は、少なくとも本発明のヘッドマウントデバイスをカスタマイズするための方法をコンピュータに実行させるプログラムに関する。
本発明はまた、プログラムが記録されたコンピュータ可読記憶媒体に関し、このプログラムは、少なくとも本発明のヘッドマウントデバイスをカスタマイズするための方法をコンピュータに実行させる。
本発明は更に、1つ以上の命令シーケンスを記憶し、本発明による方法のステップの少なくとも1つを実行するように適合されたプロセッサを備えるデバイスに関する。
本発明は更に、装着者のための仮想画像を生成するように適合されたヘッドマウントデバイスをカスタマイズするためのデバイスに関し、デバイスは少なくともメモリと、互いに通信する少なくとも1つの処理ユニットとを備え、
− メモリは、装着者がヘッドマウントデバイスを装着したときの少なくとも1つの瞳孔の3D位置と、装着者がヘッドマウントデバイスを装着したときのヘッドマウントデバイスの少なくとも一部の3D位置とを含む位置データを記憶するように適合されており、
− 処理ユニットは、メモリに記憶された位置データに基づいて、基準フレームにおける装着者の3D瞳孔位置を判定するように適合されており、
− 処理ユニットは、フォーカスエリア(EMB)の位置が3D瞳孔位置と少なくとも部分的に一致するように、装着者の3D瞳孔位置に基づいてヘッドマウントデバイスをカスタマイズするためのデータを判定するように適合されている。
有利な実施形態では、処理ユニットは、基準フレームにおける3D瞳孔位置に基づいてホログラフィックミラーの記録を制御するように構成されている。
本発明は更に、光ビームをフォーカスエリア(EMB)に向けて導くように構成されたヘッドマウントデバイスに関し、ヘッドマウントデバイスは上述のデバイスを備える。
本発明は更に、プロセッサにアクセス可能な1つ以上の記憶された命令シーケンスを含むコンピュータプログラム製品に関し、命令は、プロセッサによって実行されると、プロセッサに、
− 基準フレームにおける、所定の凝視方向に対応する、装着者の3D瞳孔位置を取得させ、
− フォーカスエリア(EMB)の位置が3D瞳孔位置と少なくとも部分的に一致するように、装着者の3D瞳孔位置に基づいてヘッドマウントデバイスをカスタマイズさせる。
有利な実施形態では、1つ以上の記憶された命令シーケンスは、プロセッサによって実行されると、プロセッサに、基準フレームにおける3D瞳孔位置に基づいてホログラフィックミラーの記録を制御させる。
特に明記されていない限り、以下の検討から明らかなように、本明細書全体を通して、「コンピューティング」、「計算」などの用語を利用する検討では、コンピューティングシステムのメモリ、レジスタ、又は他のそのような情報ストレージ、送信若しくは表示デバイス内の物理量として同様に表される他のデータへの、コンピューティングシステムのレジスタ、及び/又はメモリ内の電子的な量などの、物理量として表されるデータを操作及び/又は変換する、コンピュータ若しくはコンピューティングシステム、又は同様の電子コンピューティングデバイスのアクション及び/又はプロセスを指すことを理解されたい。
本発明の実施形態は、本明細書の動作を実行するための装置を含んでもよい。この装置は、所望の目的のために特別に構築されてもよく、又はコンピュータに記憶されたコンピュータプログラムによって選択的にアクティブ化又は再構成された汎用コンピュータ又はデジタル信号プロセッサ(「DSP」)を備えてもよい。そのようなコンピュータプログラムは、フロッピーディスク、光ディスク、CD−ROM、光磁気ディスクなどの任意の種類のディスク、読み取り専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、電気的にプログラム可能な読み取り専用メモリ(EPROM)、電気的に消去及びプログラム可能な読み取り専用メモリ(EEPROM)、磁気若しくは光カード、又は電子命令を記憶するのに適しており、且つコンピュータシステムバスに結合できる任意の他のタイプの媒体、などであるがこれらに限定されない、コンピュータ可読記憶媒体に記憶してもよい。
プロセス及び表示は、特定のコンピュータ又は他の装置に本質的に関連するものではない。本明細書の教示に従って、様々な汎用システムをプログラムと共に使用してもよく、又は所望の方法を実行するためにより専門化された装置を構築することが好都合であるかも知れない。これらのシステムの様々な望ましい構造は、以下の説明から明らかになるであろう。加えて、本発明の実施形態は、任意の特定のプログラミング言語を参照して説明されてはいない。本明細書で説明する本発明の教示を実施するために、様々なプログラミング言語を使用できることが理解されよう。
ここで、本発明の非限定的な実施形態を、添付の図面を参照して説明する。
本発明の実施形態による方法に従ってカスタマイズされた、装着されたヘッドマウントデバイスの概略正面図、側面図及び上面図である。 本発明の実施形態による方法に従ってカスタマイズされた、装着されたヘッドマウントデバイスの概略正面図、側面図及び上面図である。 本発明の異なる実施形態による、ヘッドマウントデバイスをカスタマイズするための方法の異なるステップのフローチャートである。 本発明の異なる実施形態による、ヘッドマウントデバイスをカスタマイズするための方法の異なるステップのフローチャートである。 本発明の異なる実施形態による、ヘッドマウントデバイスをカスタマイズするための方法の異なるステップのフローチャートである。 本発明の実施形態による、ヘッドマウントデバイスをカスタマイズするための方法の異なるステップのフローチャートである。 本発明による、ヘッドマウントデバイスと装着者の瞳孔との相対位置を判定するためのデバイスの概略図である。 本発明の実施形態による、装着されたヘッドマウントデバイスの概略図であり、測定値及びパラメータが、ヘッドマウントデバイスの光学レンズにリンクされた基準フレームにおいて表されている。 本発明の実施形態による、装着されたヘッドマウントデバイスの概略図であり、測定値及びパラメータが、装着者の眼にリンクされた基準フレームにおいて表されている。
図面中の要素は、単純化及び明確化のために示されるもので、必ずしも縮尺通りに描かれていない。例えば、図面中の要素のいくつかの寸法は、本発明の実施形態の理解を改善するのを助けるために、他の要素に対して誇張されている場合がある。
本発明は、装着者のための仮想画像を生成するように適合されたヘッドマウントデバイスをカスタマイズするための方法に関する。
図1、図2A、及び図2Bに示されるように、方法は、装着者がヘッドマウントデバイス10を装着したときに、生成された仮想画像が装着者の瞳孔8を通してフォーカスするように、ヘッドマウントデバイス10をカスタマイズすることを目的とする。
図3A、図3B、及び図3Cに示されるように、方法は、
− 3D瞳孔位置取得ステップS6A及び/又は提供ステップS6Bと、
− ヘッドマウントデバイスカスタマイズステップS8と、を含む。
3D瞳孔位置取得ステップS6Aは、3D瞳孔位置を受け取ることを含んでもよい。
方法は、ヘッドマウントデバイス提供ステップS1を更に含んでもよい。ヘッドマウントデバイス提供ステップS1は、3D瞳孔位置取得ステップS6A及び/又は提供ステップS6Bの前、又はその後、又はそれと同時のいずれかに実行されてもよい。
ヘッドマウントデバイス10に対する瞳孔8の相対位置は、装着者によるヘッドマウントデバイスの使用法に依存し、これには、装着者の顔のアナトミー、及び/又は装着者の装着の好み、及び/又は装着者の特定の視覚タスク若しくはアクティビティに対応する装着状態が含まれ得る。
有利には、本開示による方法は、3D瞳孔位置取得ステップS6A及び/又は提供ステップS6Bに基づいて、ヘッドマウントデバイス10を装着者の使用法に対してカスタマイズすることを可能にする。
ヘッドマウントデバイス提供ステップS1の間に、光ビームをフォーカスエリア(EMB)に向けるように構成されたヘッドマウントデバイス10が提供される。
ヘッドマウントデバイス10は、拡張現実眼鏡、又は仮想現実ヘッドマウントデバイスであってもよい。ヘッドマウントデバイス10は、装着者に適合した眼鏡レンズ、プラノレンズ、単焦点眼科用レンズ、二焦点眼科用レンズ、累進眼科用レンズなどの、1つ以上の光学レンズ12を備えてもよい。ヘッドマウントデバイス10は、2つの眼鏡レンズが取り付けられるフレーム14を備えてもよい。
光ビームには、装着者に表示されることが意図された情報を含む。
ヘッドマウントデバイス10は、光ビームを放射するように構成された光源16、例えば切り替え可能な光源を備えてもよい。
ヘッドマウントデバイス10は、光ビームを受け取り、受け取った光ビームを走査するように構成された走査要素18を備えてもよい。光源及び/又は走査要素18は、ヘッドマウントデバイス10のフレーム14に取り付けられるか、又は一体化されてもよい。受け取った光ビームの走査は、受け取った光ビームの反射及び/又は屈折を含んでもよい。
ヘッドマウントデバイス10は、光源によって及び/又は走査要素18によって反射された光ビームを受け取り、フォーカスエリア(EMB)に向けてリダイレクトするように構成された反射要素20を備えてもよい。例えば、反射要素20は、ヘッドマウントデバイス10の光学レンズ12に埋め込まれてもよい。
図2に示されるように、光ビームは、走査要素18によって走査された全ビームの異なる光線に対応する異なる経路18A、18B、18Cをたどることができる。
反射要素20は、パッシブホログラフィックミラーを備えてもよい。ホログラフィックミラーは、ホログラフィプロセスを使用して記録されるものとして定義される。ミラーは、装着者による画像の視覚化を引き起こすために、画像源から生成された光ビームをリダイレクトするために使用される。ホログラフィックミラーは、(従来のホログラム視認の場合と同様に)記録されたホログラフィック画像の再構成には使用されない。記録により、ミラーには光学機能が与えられ、そのミラーによってリダイレクトされると、適用可能な場合には画像源から生じる光ビームの波面を修正することができる。これにより、ホログラフィックミラーを組み込んだ光学レンズ12が装着者の眼に画像を生成する光ビームを修正できるため、装着者の仮想視覚を矯正することを可能にする。
反射要素20は、電気活性ホログラフィックミラーを備えてもよい。ホログラフィックミラーは、1つ又は複数の屈折率の値、位相、反射率(値、角度、波長、又はスペクトル曲線)、透過率などの調整可能な光学特性のうちの1つ以上の領域で構成することができる。有利には、ヘッドマウントデバイス10の光学特性は、装着者のニーズに対してカスタマイズされてもよい。
フォーカスエリア(EMB)は、光ビームの収束スポットとして定義される眼のモーションボックスに関連している。換言すれば、フォーカスエリアは、光ビームによって運ばれる、表示された情報が人間の眼によって視認できる3Dビューイングコーンとして表すことができる。開示の意味において、フォーカスエリアの位置は、3Dビューイングコーンの軸に直交する3Dビューイングコーンの断面に対応する2D表面、又は3Dビューイングコーンの軸上に位置するポイントなどの、3Dビューイングコーン全体の位置、又は3Dビューイングコーンの一部の位置として理解され得る。
ヘッドマウントデバイス10の設定構成を考慮すれば、フォーカスエリアの位置はまた、ヘッドマウントデバイス10にリンクされた基準フレームにおいて設定される。
3D瞳孔位置取得ステップS6A及び/又は提供ステップS6Bの間、装着者の3D瞳孔位置は、基準フレームにおいて、例えば、ヘッドマウントデバイス10にリンクされた基準フレームにおいて提供される。基準フレームは、ヘッドマウントデバイス10のフレーム14にリンクされてもよい。3D瞳孔位置は、所定の凝視方向、好ましくは、仮想画像を視覚化するときに使用される方向に対応するように、装着者によって定義され、又は装着者上で測定された凝視方向に対応する。
本開示の意味において、瞳孔8は、装着者の眼の入射瞳孔として理解されるべきであり、ディスクとして表され得る。瞳孔8の3D位置は、ディスクの3D位置として、又はディスクの中心などのポイントの3D位置として理解され得る。
有利には、装着者の3D瞳孔位置は、眼のモーションボックス又はフォーカスエリアの位置と同じ基準フレームにおいて既知である。
ヘッドマウントデバイスカスタマイズステップS8の間、ヘッドマウントデバイス10は、フォーカスエリア(EMB)の位置が所定の凝視方向における瞳孔8の位置と少なくとも部分的に一致するように、3D瞳孔位置に基づいてカスタマイズされる。
有利には、ヘッドマウントデバイス10は、装着者のニーズに対してカスタマイズされ、装着者が視認することを意図された情報は、装着者の瞳孔8に向けて効果的に導かれる。
所定の凝視方向は、特定の視覚タスクに対応し得る。例えば、装着者は、所定の凝視方向に対応する、既知の位置にある物体を見るように促され得る。所定の凝視方向は、初期値又はデフォルト値に対応してもよい。
本開示の意味において、「フォーカスエリア(EMB)の位置は、瞳孔8の位置と少なくとも部分的に一致する」とは、光ビームに含まれ、装着者が視認することを意図される完全な情報が装着者の眼の入射瞳を通して導かれるように、両方の位置が重なるもの、と理解されるべきである。
ヘッドマウントデバイスカスタマイズステップS8の間に、走査要素18によって反射された光ビームを受け取り、フォーカスエリア(EMB)に向けてリダイレクトするように構成された反射要素20が、ヘッドマウントデバイス10に追加されてもよい。反射要素20は、ヘッドマウントデバイス10の光学レンズ12に一体化されてもよい。
ヘッドマウントデバイスカスタマイズステップS8の間に、光源16、走査要素18、及び/又は反射要素のうちの少なくとも1つは、提供された3D瞳孔位置に基づいて適合されてもよい。この適合は、光源16、走査要素18、及び/又は反射要素20の、位置及び/又は方向を調整して、光ビームを装着者の瞳孔8に向けて導くことを含んでもよい。
ヘッドマウントデバイスカスタマイズステップS8の間に、提供された3D瞳孔位置に基づいてホログラフィックミラーを記録してもよい。
光源は、ホログラフィックミラーが記録された後、記録ビームがホログラフィックミラーによって反射され、反射された記録ビームがフォーカスエリア(EMB)に向けて収束するように、記録ビームを放射してホログラフィックミラーを記録するように配置及び調整することができる。
有利には、方法は、特定の装着者に適合されたホログラフィックミラーを記録することによって、標準的なヘッドマウントデバイス10を装着者に対してカスタマイズすることを可能にする。
図4に示されるように、方法は、ヘッドマウントデバイス提供ステップS1後、ヘッドマウントデバイスを装着者に配置するステップS2を更に含んでもよい。ヘッドマウントデバイス10は、装着者の顔に対して調整することができる。
有利には、ヘッドマウントデバイス10は、装着者にとって最適位置に配置され、それによって装着者の快適さを改善する。
ヘッドマウントデバイスを配置するステップS2によって提供される別の利点は、装着されたヘッドマウントデバイス10に対する装着者の3D瞳孔位置を直接判定することが可能になることである。
図4に示されるように、方法は、3D瞳孔位置取得ステップS6A及び/又は提供ステップS6Bの前に、基準フレーム、例えば、ヘッドマウントデバイス10にリンクされた基準フレームにおける3D瞳孔位置を判定するステップS3を更に含んでもよい。
3D瞳孔位置を判定するステップS3の間に、ヘッドマウントデバイス10に対する瞳孔8の3D位置を直接測定してもよい。例えば、位置測定は、ヘッドマウントデバイスを配置するステップS2の間に、装着者にヘッドマウントデバイスを配置した後、装着者上で直接実行されてもよい。
あるいは、瞳孔8の3D位置は、測定値又はモデルから計算されてもよい。そのようなモデルは、好ましくは装着者の所定の使用法に従って、ヘッドマウントデバイスの仮想画像を装着者の顔の上に、又は装着者の顔の画像の上に重ねることを含んでもよい。
そのような測定値又はモデルは、光学レンズ12の主表面と装着者の眼との間の距離、並びに/又は光学レンズ12の主表面と装着者の眼の回転中心9との間の距離、並びに/又はパントスコピック角度及び/若しくはラップ角度、を含んでもよい。
パントスコピック角度は、眼鏡レンズの光軸と、主要な位置にある眼の視覚軸との間の垂直面内の角度であり、通常は水平と見なされる。
ラップ角度は、眼鏡レンズの光軸と、主要な位置にある眼の視覚軸との間の水平面内の角度であり、通常は水平と見なされる。
瞳孔の3D位置を判定するために専用の測定デバイスを使用する代わりに、瞳孔の2D位置を判定するように適合されたデバイスを使用し、位置判定の連続的な反復を実行することが可能である。
適切なデバイスの例は、EP2134249に記載されており、2Dカメラと、眼鏡に取り付けられたマークを有するクリップとを備える。
クリップは、眼鏡にリンクされた基準フレーム(Of、Xf、Yf、Zf)を定義する。2つの異なる頭の姿勢と、カメラに面して同じ凝視方向を有する2つの画像上の瞳孔位置を測定することにより、定義された基準フレームにおける眼の回転中心の位置を判定することが可能になる。
この基準フレーム(Of、Xf、Yf、Zf)における眼の回転中心の位置から、任意の凝視方向に対応するこの基準フレーム(Of、Xf、Yf、Zf)における瞳孔の位置を導出することが可能である。
図4に示されるように、方法は、少なくとも1つのフィッティングパラメータの取得ステップS4A及び/又は提供ステップS4Bを、更に含んでもよい。
フィッティングパラメータは、装着時の装着者の顔に対するフレーム14の位置に関連するパラメータを含んでもよい。
図6及び図7に示されるように、フィッティングパラメータは、ヘッドマウントデバイスの光学レンズと、装着者の眼の角膜頂点との間の距離に対応する距離DVOを含んでもよい。
フィッティングパラメータは、眼の回転中心9と、ヘッドマウントデバイスの光学レンズの眼球側面との間の距離に対応する距離D(ERC−レンズ)を含んでもよい。
フィッティングパラメータは、瞳孔8と、ヘッドマウントデバイスの光学レンズの眼球側面との間の距離に対応する距離D(EntPup−レンズ)を含んでもよい。
少なくとも1つのフィッティングパラメータは、2つの水平軸(図1のX及びZ)に沿って、装着されたヘッドマウントデバイスにリンクされた基準フレームにおけるヘッドマウントデバイスの光学レンズの位置によって特徴付けることができる。
少なくとも1つのフィッティングパラメータは、2つの水平軸(図1のX及びZ)に沿って、装着されたヘッドマウントデバイスにリンクされた基準フレームにおいて判定され得るヘッドマウントデバイスの光学レンズの位置によって特徴付けることができる。
有利にも、装着されたヘッドマウントデバイスにリンクされた基準フレームにおけるフォーカスエリア(EMB)の位置は、その2つの水平軸に沿って向上した精度で判定することができ、それによってフォーカスエリア(EMB)と瞳孔8との間のより良い一致を達成する。
図4に示されるように、方法は、少なくとも1つのセンタリングパラメータの取得ステップS5A及び/又は提供ステップS5Bを、更に含んでもよい。
センタリングパラメータは、装着者の顔に対するヘッドマウントデバイス10の光学レンズ12又は眼科用レンズの位置に関連するパラメータを含んでもよい。
センタリングパラメータは、鼻の中央と瞳孔との間の距離1/2PD、及び/又は瞳孔とフレームの下縁との間の距離に対応するフィッティング高さFHを含んでもよい。
この位置は、水平軸(図1のX)及び垂直軸(図1のY)に沿って、装着されたヘッドマウントデバイスにリンクされた基準フレームにおける光学レンズの位置によって特徴付けることができる。
図6及び7に示されるように、この方法によって取得及び/又は提供される、任意の測定値及び/若しくはモデル、並びに/又はフィッティングパラメータ及び/若しくはセンタリングパラメータは、基準フレームにおいて、例えば、図6上の(O、X、Y、Z)軸システムに対応する、ヘッドマウントデバイスにリンクされた基準フレームにおいて、直接判定されてもよい。
あるいは、測定値、モデル、及びパラメータは、図7上の(O、Xf、Yf、Zf)軸システムに対応する、装着者の眼にリンクされた基準フレームにおいて最初に提供され、その後、ヘッドマウントデバイスリンクされた基準フレームにおいて変換されてもよい。
更に、3D瞳孔位置取得ステップS6A及び/又は提供ステップS6Bの間、3D瞳孔位置は、少なくとも1つのフィッティングパラメータ及び/又は少なくとも1つのセンタリングパラメータに基づいて判定されてもよい。
有利にも、方法は、ヘッドマウントデバイス10を、より良い装着快適性、改善された視覚快適性、及び装着者にとっての最良の視覚矯正に対応する装着状態にカスタマイズすることを可能にする。
図4に示されるように、方法は、基準フレームにおいて、例えば、ヘッドマウントデバイス10にリンクされた基準フレームにおいて、フォーカスエリアの位置に関連するヘッドマウントデバイス10の少なくとも1つの設定パラメータ値取得ステップS7A及び/又は提供ステップS7Bを、更に含んでもよい。
そのような設定パラメータは、光ビームを装着者の瞳孔8に向けて導くことができるように、光源16、走査要素18、及び/又は反射要素20の位置、及び/又は向き、及び/又は作動状態を含んでもよい。
更に、ヘッドマウントデバイスカスタマイズステップS8の間に、提供された3D瞳孔位置に基づいて、少なくとも1つの設定パラメータをカスタマイズ及び更新してもよい。
有利にも、方法は、異なる装着者、異なる装着状態、又は異なる凝視方向を暗示する異なる視覚タスクに対して、単一のヘッドマウントデバイス10をカスタマイズすることを可能にする。
この方法の追加の利点は、特定の装着条件下でヘッドマウントデバイス10の特定の装着者に適合された設定パラメータを記憶できるため、これらの設定パラメータを後で読み出して、ヘッドマウントデバイス10に適用できることである。
一実施形態では、3D瞳孔位置取得ステップS6A及び/又は提供ステップS6B、並びにヘッドマウントデバイスカスタマイズステップS8が、経時的に繰り返される。
有利には、ヘッドマウントデバイス10を、装着者の様々なニーズに適合させてもよい。
図5に示されるように、本発明は更に、光ビームをフォーカスエリア(EMB)に向けて、及び装着者の瞳孔8に向けて導くように構成されたヘッドマウントデバイス10の相対位置を判定するためのデバイスに関し、このデバイスは、少なくとも1つの位置センサ2、メモリ4、及びそれぞれが互いに通信する処理ユニット6を備える。
本開示の意味において、センサ2、メモリ4、及びそれぞれが互いに通信する処理ユニット6は、有線又は無線通信のいずれかとして理解されるべきである。
実施形態では、処理ユニット6は、例えば、リモートコンピューティングシステムの一部であってもよい。
本明細書は、特定の規格及びプロトコルを参照して実施形態で実装される構成要素及び機能を説明しているが、本開示は、そのような規格及びプロトコルに限定されない。インターネット及び他のパケット交換ネットワーク伝送(例えば、TCP/IP、UDP/IP、HTML、HTTP)の各規格は、最新技術の例を表す。そのような規格は、本質的に同じ機能を有する、より高速又はより効率的な均等物に定期的に取って代わられる。無線規格(例えば、RFID)、短距離通信(例えば、Bluetooth、WiFi、Zigbee)、及び長距離通信(例えば、WiMAX、GSM、CDMAなど)は、ヘッドマウントデバイス10と装着者の瞳孔8との相対位置を判定するためのデバイスによる使用が想定されている。
少なくとも1つの位置センサ2は、所与の基準フレームにおける位置データを判定するように適合されている。位置データには、少なくとも、装着者がヘッドマウントデバイス10を装着したときの瞳孔8の3D位置と、装着者がヘッドマウントデバイス10を装着したときのヘッドマウントデバイス10の少なくとも一部の3D位置とが含まれる。
メモリ4は、少なくとも1つの位置センサ2によって判定された位置データを記憶するように適合されている。
処理ユニット6は、メモリに記憶された位置データに基づいて、ヘッドマウントデバイス10にリンクされた基準フレームにおける瞳孔8の3D位置を判定するように適合されている。
有利には、デバイスは、ヘッドマウントデバイス10にリンクされた基準フレームにおける装着者の瞳孔8の3D位置を判定することを可能にする。
実施形態では、メモリ4はまた、装着者の瞳孔8の判定された3D位置に基づいて、ヘッドマウントデバイス10をカスタマイズするための命令を含んでもよい。
有利には、デバイスは、装着者の3D瞳孔位置に基づいて、ヘッドマウントデバイス10をカスタマイズすることを可能にする。
ヘッドマウントデバイス10の相対位置を判定するためのデバイスは、それ自体がヘッドマウントデバイス10を備えてもよい。例えば、位置センサ2は、ヘッドマウントデバイス10上の自身の位置に対する装着者の瞳孔8の位置を判定するように適合されてもよい。
有利には、位置センサ2は、ヘッドマウントデバイス10にリンクされた基準フレームにおける固定位置を有するため、その結果、装着者の瞳孔8の3D位置を判定する際の誤差原因が1つ少なくなる。
ヘッドマウントデバイス10は、光ビームを放射するように構成された光源16と、光ビームを受け取り、受け取った光ビームを反射するように構成された走査要素18とを備えてもよい。
ヘッドマウントデバイス10は、走査要素18によって反射された光ビームを受け取り、フォーカスエリア(EMB)に向けてリダイレクトするように構成された反射要素20を備えてもよい。
実施形態では、位置センサ2によって判定され、メモリ4に記憶される位置データは、光源16、走査要素18、及び/又は反射要素20の位置及び/又は向きを含んでもよい。
実施形態では、メモリ4はまた、ヘッドマウントデバイス10にリンクされた基準フレームにおけるフォーカスエリアの位置に関連する、ヘッドマウントデバイス10の少なくとも1つの記憶された設定パラメータ値を含む。そのような設定パラメータは、光ビームを装着者の瞳孔8に向けて導くことができるように、光源16、走査要素18、及び/又は反射要素20の位置、及び/又は向き、及び/又は作動状態を含んでもよい。
実施形態では、メモリ4は、光源16、走査要素18、及び/若しくは反射要素20の位置、及び/若しくは向き、及び/若しくは作動状態をカスタマイズするための命令、並びに/又はメモリ4に記憶されたデータに基づいてホログラフィックミラーを記録するための手段を備えてもよい。
有利には、デバイスは、少なくとも1つの設定パラメータをカスタマイズ及び更新することによって、ヘッドマウントデバイス10のカスタマイズを実行することを可能にする。
本発明の別の目的は、プロセッサにアクセス可能な1つ以上の記憶された命令シーケンスを含むコンピュータプログラム製品であって、命令は、プロセッサによって実行されると、プロセッサに、本発明によるヘッドマウントデバイスをカスタマイズするための方法のステップを実行させる。
本発明の別の目的は、本発明によるコンピュータプログラム製品の1つ以上の命令シーケンスを運ぶコンピュータ可読媒体である。
本発明の別の目的は、少なくとも本発明のヘッドマウントデバイスをカスタマイズするための方法をコンピュータに実行させるプログラムである。
本発明の別の目的は、プログラムが記録されたコンピュータ可読記憶媒体であり、プログラムは、少なくとも本発明のヘッドマウントデバイスをカスタマイズするための方法をコンピュータに実行させる。
本発明の別の目的は、1つ以上の命令シーケンスを記憶し、本発明による方法のステップの少なくとも1つを実行するように適合されたプロセッサを備えるデバイスである。
本発明が、一般的な発明概念を限定することなく、実施形態を用いて上記で説明されてきた。
前述の例示的な実施形態を参照すると、多くの更なる修正及び変形が当業者に示唆されるが、これらは例としてのみ与えられ、本発明の範囲を限定することを意図するものではなく、添付の請求項によってのみ判定されるものである。
請求項において、「備える(comprising)」という語は他の要素又はステップを除外せず、不定冠詞「a」又は「an」は複数を除外しない。異なる特徴が相互に異なる従属請求項に列挙されているという単なる事実は、これらの特徴の組み合わせが有利に使用できないことを示してはいない。請求項におけるいかなる参照符号も、本発明の範囲を限定するものとして解釈されるべきではない。
2 位置センサ
4 メモリ
6 処理ユニット
8 瞳孔
9 回転中心
10 ヘッドマウントデバイス
12 光学レンズ
14 フレーム
16 光源
18 走査要素
20 反射要素

Claims (15)

  1. 装着者のための仮想画像を生成するように適合されたヘッドマウントデバイスをカスタマイズするための方法であって、
    − 基準フレームにおける、所定の凝視方向に対応する、前記装着者の3D瞳孔位置を取得することと、
    − フォーカスエリアEMBの位置が前記所定の凝視方向における前記3D瞳孔位置と少なくとも部分的に一致するように、前記3D瞳孔位置に基づいて前記ヘッドマウントデバイスをカスタマイズすることと、
    を含み、
    前記ヘッドマウントデバイスをカスタマイズすることが、前記基準フレームにおける前記3D瞳孔位置に基づいてホログラフィックミラーの記録を制御することを含む、方法。
  2. 前記3D瞳孔位置が、前記ヘッドマウントデバイスにリンクされた基準フレームにおいて取得される、請求項1に記載の方法。
  3. 前記3D瞳孔位置を取得する前に、前記ヘッドマウントデバイスにリンクされた基準フレームにおける前記3D瞳孔位置を判定することを更に含む、請求項1又は2に記載の方法。
  4. 前記カスタマイズされたヘッドマウントデバイスが、光ビームを放射するように構成された光源と、前記光ビームを受け取り、前記フォーカスエリアEMBに向けてリダイレクトするように構成された反射要素と、を備え、前記反射要素は前記ホログラフィックミラーを備える、請求項1〜3のいずれか一項に記載の方法。
  5. 前記ヘッドマウントデバイスが、前記光ビームを受け取り、前記受け取った光ビームを前記反射要素に向けて走査するように構成された走査要素を備える、請求項4に記載の方法。
  6. 前記ヘッドマウントデバイスのカスタマイズの間に、前記光源、前記走査要素、及び/又は前記反射要素のうちの少なくとも1つが、前記基準フレームにおける前記3D瞳孔位置に基づいて適合される、請求項1〜5のいずれか一項に記載の方法。
  7. 前記ヘッドマウントデバイスのカスタマイズの間に、前記光源、前記走査要素、及び前記反射要素のうちの少なくとも1つの位置及び/又は向きが、前記基準フレームにおける前記3D瞳孔位置に基づいて調整される、請求項6に記載の方法。
  8. 前記ヘッドマウントデバイスのカスタマイズの間に、前記ホログラフィックミラーが、前記基準フレームにおける前記3D瞳孔位置に基づいて記録される、請求項1〜7のいずれか一項に記載の方法。
  9. 少なくとも1つのフィッティングパラメータを取得することを更に含み、前記3D瞳孔位置が、前記少なくとも1つのフィッティングパラメータに基づいて判定される、請求項1〜8のいずれか一項に記載の方法。
  10. 少なくとも1つのセンタリングパラメータを取得することを更に含み、前記3D瞳孔位置が、前記少なくとも1つのセンタリングパラメータに基づいて判定される、請求項1〜9のいずれか一項に記載の方法。
  11. 前記ヘッドマウントデバイスをカスタマイズする前に、
    − 基準フレームにおける前記フォーカスエリアEMBの前記位置に関連する前記ヘッドマウントデバイスの少なくとも1つの設定パラメータ値を取得することを更に含み、
    前記ヘッドマウントデバイスのカスタマイズの間に、前記取得された3D瞳孔位置に基づいて、前記少なくとも1つの設定パラメータがカスタマイズ及び更新される、請求項1〜10のいずれか一項に記載の方法。
  12. 3D瞳孔位置を取得すること、及び前記取得された3D瞳孔位置に基づいて前記ヘッドマウントデバイスをカスタマイズすることが、経時的に繰り返される、請求項1〜11のいずれか一項に記載の方法。
  13. 装着者のための仮想画像を生成するように適合されたヘッドマウントデバイスをカスタマイズするためのデバイスであって、少なくともメモリと、互いに通信する少なくとも1つの処理ユニットと、を備え、
    − 前記メモリが、前記装着者が前記ヘッドマウントデバイスを装着したときの少なくとも1つの瞳孔の3D位置と、前記装着者が前記ヘッドマウントデバイスを装着したときの前記ヘッドマウントデバイスの少なくとも一部の3D位置とを含む位置データを記憶するように適合されており、
    − 前記少なくとも1つの処理ユニットが、前記メモリに記憶された前記位置データに基づいて、基準フレームにおける前記装着者の3D瞳孔位置を判定するように適合されており、
    − 前記少なくとも1つの処理ユニットが、フォーカスエリアEMBの位置が前記3D瞳孔位置と少なくとも部分的に一致するように、前記装着者の前記3D瞳孔位置に基づいて、前記ヘッドマウントデバイスをカスタマイズするためのデータを判定するように適合されている、デバイス。
  14. 光ビームをフォーカスエリアEMBに向けて導くように構成されたヘッドマウントデバイスであって、前記ヘッドマウントデバイスをカスタマイズするための請求項13に記載のデバイスを備える、ヘッドマウントデバイス。
  15. プロセッサにアクセス可能な1つ以上の記憶された命令シーケンスを含むコンピュータプログラム製品であって、前記命令シーケンスは、前記プロセッサによって実行されると、前記プロセッサに、
    − 基準フレームにおける及び所定の凝視方向に対応する、装着者の3D瞳孔位置を取得させ、
    − フォーカスエリアEMBの位置が前記3D瞳孔位置と少なくとも部分的に一致するように、前記装着者の前記3D瞳孔位置に基づいてヘッドマウントデバイスをカスタマイズさせる、コンピュータプログラム製品。
JP2020554529A 2018-04-06 2019-04-04 仮想画像を生成するように適合されたヘッドマウントデバイスをカスタマイズするための方法 Pending JP2021520517A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP18305410 2018-04-06
EP18305410.5 2018-04-06
PCT/EP2019/058561 WO2019193120A1 (en) 2018-04-06 2019-04-04 Method for customizing a head mounted device adapted to generate a virtual image

Publications (1)

Publication Number Publication Date
JP2021520517A true JP2021520517A (ja) 2021-08-19

Family

ID=61972463

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020554529A Pending JP2021520517A (ja) 2018-04-06 2019-04-04 仮想画像を生成するように適合されたヘッドマウントデバイスをカスタマイズするための方法

Country Status (6)

Country Link
US (1) US11243401B2 (ja)
EP (1) EP3776057A1 (ja)
JP (1) JP2021520517A (ja)
KR (1) KR20200140822A (ja)
CN (1) CN111971609B (ja)
WO (1) WO2019193120A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117642675A (zh) * 2021-07-12 2024-03-01 阿维甘特公司 用于眼镜的显示系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015012280A1 (ja) * 2013-07-24 2015-01-29 コニカミノルタ株式会社 視線検出装置
US20150061995A1 (en) * 2013-09-03 2015-03-05 Tobbi Technology Ab Portable eye tracking device
JP2015519606A (ja) * 2012-05-30 2015-07-09 エシロール アンテルナシオナル (コンパニー ジェネラル ドプティック) 着用者の個人用眼鏡レンズ光学系を提供するための方法
JP2016539363A (ja) * 2013-11-08 2016-12-15 エシロル アンテルナショナル(コンパーニュ ジェネラル ドプテーク) 累進眼科用レンズの少なくとも1つの光学的設計パラメータを判断する方法
US20180095279A1 (en) * 2015-04-03 2018-04-05 Essilor International (Compagnie Generale D'optique) Methods and systems for augmented reality

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6396461B1 (en) * 1998-08-05 2002-05-28 Microvision, Inc. Personal display with vision tracking
FR2914173B1 (fr) 2007-03-30 2010-02-26 Essilor Int Procede de mesure de la position suivant une direction horizontale du plan sagittal d'un point remarquable d'un oeil d'un sujet
CN101589329B (zh) 2007-11-21 2011-10-12 松下电器产业株式会社 显示装置
US9335604B2 (en) * 2013-12-11 2016-05-10 Milan Momcilo Popovich Holographic waveguide display
US8634119B2 (en) * 2010-07-09 2014-01-21 Tipd, Llc System for holography
CN102608789A (zh) * 2011-01-24 2012-07-25 照阳科技股份有限公司 可携式3d触控电子装置
KR101322910B1 (ko) * 2011-12-23 2013-10-29 한국과학기술연구원 다수의 관찰자에 적용가능한 동적 시역 확장을 이용한 다시점 3차원 영상표시장치 및 그 방법
US20130322683A1 (en) * 2012-05-30 2013-12-05 Joel Jacobs Customized head-mounted display device
CN108537628B (zh) 2013-08-22 2022-02-01 贝斯普客公司 用于创造定制产品的方法和系统
EP2886041A1 (en) * 2013-12-17 2015-06-24 ESSILOR INTERNATIONAL (Compagnie Générale d'Optique) Method for calibrating a head-mounted eye tracking device
TWI486631B (zh) * 2014-01-24 2015-06-01 Quanta Comp Inc 頭戴式顯示裝置及其控制方法
JP6424552B2 (ja) * 2014-10-02 2018-11-21 セイコーエプソン株式会社 画像表示装置
KR20170139509A (ko) * 2015-02-17 2017-12-19 탈믹 랩스 인크 웨어러블 헤드-업 디스플레이 내의 아이박스 확장을 위한 시스템, 장치, 및 방법
US9599761B1 (en) 2015-09-03 2017-03-21 3M Innovative Properties Company Thermoformed multilayer reflective polarizer
CN105353512B (zh) * 2015-12-10 2018-06-29 联想(北京)有限公司 一种图像显示方法和图像显示装置
US10674143B2 (en) * 2017-05-12 2020-06-02 Qualcomm Incorporated System for eye tracking
CN206906702U (zh) * 2017-05-15 2018-01-19 潍坊歌尔电子有限公司 一种头戴显示器
CN107462992B (zh) * 2017-08-14 2020-09-18 深圳创维新世界科技有限公司 一种头戴显示设备的调节方法、装置及头戴显示设备
WO2019143864A1 (en) * 2018-01-17 2019-07-25 Magic Leap, Inc. Display systems and methods for determining registration between a display and a user's eyes

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015519606A (ja) * 2012-05-30 2015-07-09 エシロール アンテルナシオナル (コンパニー ジェネラル ドプティック) 着用者の個人用眼鏡レンズ光学系を提供するための方法
WO2015012280A1 (ja) * 2013-07-24 2015-01-29 コニカミノルタ株式会社 視線検出装置
US20150061995A1 (en) * 2013-09-03 2015-03-05 Tobbi Technology Ab Portable eye tracking device
JP2016539363A (ja) * 2013-11-08 2016-12-15 エシロル アンテルナショナル(コンパーニュ ジェネラル ドプテーク) 累進眼科用レンズの少なくとも1つの光学的設計パラメータを判断する方法
US20180095279A1 (en) * 2015-04-03 2018-04-05 Essilor International (Compagnie Generale D'optique) Methods and systems for augmented reality

Also Published As

Publication number Publication date
US20210165223A1 (en) 2021-06-03
KR20200140822A (ko) 2020-12-16
WO2019193120A1 (en) 2019-10-10
US11243401B2 (en) 2022-02-08
CN111971609A (zh) 2020-11-20
CN111971609B (zh) 2023-03-14
EP3776057A1 (en) 2021-02-17

Similar Documents

Publication Publication Date Title
JP5539987B2 (ja) 眼鏡用システムの設定を最適化するための方法
WO2015051751A1 (en) Interactive projection display
EP3371781B1 (en) Systems and methods for generating and using three-dimensional images
US10775647B2 (en) Systems and methods for obtaining eyewear information
KR102511897B1 (ko) 가상 이미지에 대한 교정 광학 기능을 결정하는 방법
FR2950984A1 (fr) Procede et equipement de mesures pour la personnalisation et le montage de lentilles ophtalmiques correctrices
WO2018154272A1 (en) Systems and methods for obtaining information about the face and eyes of a subject
CN111971609B (zh) 用于定制被适配用于生成虚像的头戴式装置的方法
CN109716204B (zh) 用于对向光学系统使用者的图像显示进行管理的方法
AU2019262151B2 (en) System and method for obtaining and utilizing measurements to enable customized eyewear to be purchased online
EP4321923A1 (en) Augmented reality device and method for detecting gaze of user
JP5652973B1 (ja) 双眼ルーペの製作方法
JP6298231B2 (ja) 眼鏡レンズ設計方法および眼鏡レンズ製造方法
US11971246B2 (en) Image-based fitting of a wearable computing device
JP6364517B2 (ja) 眼鏡レンズ設計方法および眼鏡レンズ製造方法
EP4086693A1 (en) Method, processing device and system for determining at least one centration parameter for aligning spectacle lenses in a spectacle frame to eyes of a wearer
US20230020652A1 (en) Image-based fitting of a wearable computing device
KR102294822B1 (ko) 스테레오 비전을 이용한 안경 제작용 인체 데이터 측정장치
US20230004215A1 (en) Head-mounted display apparatus, image display system, and image display method
KR20230021551A (ko) 사용자의 시선을 검출하는 증강 현실 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230206

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230706

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231227

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20240110

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20240301