JP2022547893A - 視覚シーンを投影面上へマッピングする装置および方法 - Google Patents
視覚シーンを投影面上へマッピングする装置および方法 Download PDFInfo
- Publication number
- JP2022547893A JP2022547893A JP2022514721A JP2022514721A JP2022547893A JP 2022547893 A JP2022547893 A JP 2022547893A JP 2022514721 A JP2022514721 A JP 2022514721A JP 2022514721 A JP2022514721 A JP 2022514721A JP 2022547893 A JP2022547893 A JP 2022547893A
- Authority
- JP
- Japan
- Prior art keywords
- user
- head
- sensor
- orientation
- visual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 145
- 238000000034 method Methods 0.000 title claims abstract description 48
- 238000013507 mapping Methods 0.000 title abstract description 10
- 210000003128 head Anatomy 0.000 claims abstract description 159
- 230000003287 optical effect Effects 0.000 claims abstract description 104
- 210000001508 eye Anatomy 0.000 claims abstract description 59
- 210000001525 retina Anatomy 0.000 claims abstract description 20
- 238000004364 calculation method Methods 0.000 claims abstract description 9
- 230000000694 effects Effects 0.000 claims description 44
- 230000004438 eyesight Effects 0.000 claims description 42
- 238000012545 processing Methods 0.000 claims description 29
- 210000001747 pupil Anatomy 0.000 claims description 21
- 230000003595 spectral effect Effects 0.000 claims description 8
- 230000010287 polarization Effects 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 6
- 210000000695 crystalline len Anatomy 0.000 description 35
- 238000005259 measurement Methods 0.000 description 33
- 230000000875 corresponding effect Effects 0.000 description 22
- 239000011295 pitch Substances 0.000 description 16
- 208000001491 myopia Diseases 0.000 description 13
- 230000001133 acceleration Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 239000011521 glass Substances 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000013461 design Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000000750 progressive effect Effects 0.000 description 6
- 230000004424 eye movement Effects 0.000 description 5
- 230000004886 head movement Effects 0.000 description 5
- 239000007943 implant Substances 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 239000000523 sample Substances 0.000 description 5
- 238000007619 statistical method Methods 0.000 description 5
- 239000003826 tablet Substances 0.000 description 5
- 230000003190 augmentative effect Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 230000001419 dependent effect Effects 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 230000003945 visual behavior Effects 0.000 description 3
- 206010027646 Miosis Diseases 0.000 description 2
- 210000000744 eyelid Anatomy 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000004379 myopia Effects 0.000 description 2
- 201000010041 presbyopia Diseases 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 206010020675 Hypermetropia Diseases 0.000 description 1
- 206010062519 Poor quality sleep Diseases 0.000 description 1
- 230000004308 accommodation Effects 0.000 description 1
- 230000004480 accommodation of the lens Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 201000009310 astigmatism Diseases 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 210000004087 cornea Anatomy 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000005670 electromagnetic radiation Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000004418 eye rotation Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000004305 hyperopia Effects 0.000 description 1
- 201000006318 hyperopia Diseases 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000005043 peripheral vision Effects 0.000 description 1
- 230000010344 pupil dilation Effects 0.000 description 1
- 230000001179 pupillary effect Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000002207 retinal effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 238000012109 statistical procedure Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 208000029257 vision disease Diseases 0.000 description 1
- 230000004393 visual impairment Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/02—Subjective types, i.e. testing apparatus requiring the active assistance of the patient
- A61B3/024—Subjective types, i.e. testing apparatus requiring the active assistance of the patient for determining the visual field, e.g. perimeter types
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- G—PHYSICS
- G02—OPTICS
- G02C—SPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
- G02C13/00—Assembling; Repairing; Cleaning
- G02C13/003—Measuring during assembly or fitting of spectacles
- G02C13/005—Measuring geometric parameters required to locate ophtalmic lenses in spectacles frames
-
- G—PHYSICS
- G02—OPTICS
- G02C—SPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
- G02C7/00—Optical parts
- G02C7/02—Lenses; Lens systems ; Methods of designing lenses
- G02C7/024—Methods of designing ophthalmic lenses
- G02C7/027—Methods of designing ophthalmic lenses considering wearer's parameters
-
- G—PHYSICS
- G02—OPTICS
- G02C—SPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
- G02C7/00—Optical parts
- G02C7/02—Lenses; Lens systems ; Methods of designing lenses
- G02C7/06—Lenses; Lens systems ; Methods of designing lenses bifocal; multifocal ; progressive
- G02C7/061—Spectacle lenses with progressively varying focal power
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
Landscapes
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Human Computer Interaction (AREA)
- Geometry (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Eye Examination Apparatus (AREA)
- User Interface Of Digital Computer (AREA)
- Eyeglasses (AREA)
Abstract
【課題】視覚シーンを投影面上へマッピングする装置および方法が提供される。
【解決手段】システムは、視野センサを備える。視野センサは、ユーザの視野における特定の視作業に関連するユーザの視野を測定するように構成される。視野センサは、特定の視作業中のユーザの視線方向を決定するように更に構成される。このシステムは、頭部配向および/または位置センサを備える。頭部配向および/または位置センサは、特定の視作業中の視野に対するユーザの頭部の配向および/または位置を測定するように構成される。システムは、ユーザの視野と網膜との間の投影面での光学パラメータの分布を決定するために、ユーザの視線方向と、ユーザの頭部の配向および/または位置と、に基づいて、ユーザの頭部に対するユーザの眼の配向の計算を可能にするように構成される。
【選択図】図1
【解決手段】システムは、視野センサを備える。視野センサは、ユーザの視野における特定の視作業に関連するユーザの視野を測定するように構成される。視野センサは、特定の視作業中のユーザの視線方向を決定するように更に構成される。このシステムは、頭部配向および/または位置センサを備える。頭部配向および/または位置センサは、特定の視作業中の視野に対するユーザの頭部の配向および/または位置を測定するように構成される。システムは、ユーザの視野と網膜との間の投影面での光学パラメータの分布を決定するために、ユーザの視線方向と、ユーザの頭部の配向および/または位置と、に基づいて、ユーザの頭部に対するユーザの眼の配向の計算を可能にするように構成される。
【選択図】図1
Description
実施例は、光学的補助具およびその用途をカスタマイズするための概念に関し、特に、投影面での光学パラメータの分布を決定するシステムおよび方法に関する。
老眼は、眼の自然な老化に伴い、眼の水晶体を調節する能力の悪化として現れる状態である。典型的な発症は、35歳を超える時点である。この状態は、調節能力が完全に停止するまで次第に進行する。複数の解決策が、人類の歴史を通して開発されてきている。ここ数十年で、著しい進歩が達成されている。最も一般的な治療法は、近くの作業に使用される老眼鏡である。老眼鏡は、眼の調節範囲を人工的に広げるものである。(例えば、近視のために)遠方視にも視力矯正を必要とするユーザは、少なくとも2つの眼鏡を装着し、必要な作業に基づいてそれらを交換する必要がある。こうしことが、不便な場合がある。
したがって、ユーザは、複数の屈折力(optical power)を有する眼鏡を使用することができる。これは、二重焦点眼鏡および三重焦点眼鏡の場合のように、異なる屈折力のゾーンを幾何学的に分離することにより達成できる。このような眼鏡のユーザは、必要なゾーンを通して関心対象を見ることにより、必要な屈折率を選択するオプションを有する。各々のゾーンの位置は、作業と眼の角度との自然な相関関係に基づいて選択される。近方視の作業は、典型的には、対象を下部注視ゾーンに位置合わせすること(読み取り、スマートフォンなど)により実行される。そのため、より高い力は、典型的には、下部ゾーン(近方ゾーン)に配置される。これにより、上部ゾーンは、遠方視の作業(遠方ゾーン)のために留保される。三重焦点眼鏡では、近方ゾーンと遠方ゾーンとの間に中間ゾーンが存在し、中域における視力をサポートする。これに加えて、累進付加レンズが存在する。累進付加レンズには、各々の屈折力ゾーンを分離する眼に見える線がなく、それに代わって、あるゾーンから別のゾーンへとスムーズに移行する。
このような空間的に分離された矯正的な解決策は、人間の眼にとって自然でも直感的でもない。そのため、ユーザはそれに適応しなければならない。生涯を通して発達するユーザの視習慣が混乱する可能性を最小限に抑えるために、特に、特定のユーザの要件にゾーンを適合させることを考慮する。したがって、好適には、矯正的な解決策は、個々の視覚挙動に適合されなければならない。そのようなカスタマイズは、眼鏡などの光学的補助具の表面への屈折力および/または他の光学パラメータの最適なマッピングを含むことができる。さらに、カスタマイズ、個別化、およびパーソナライズという用語は、互換的に使用される。本明細書において、光学的補助具は、視覚補助具または視覚的補助具とも称することができる。光学的補助具は、眼鏡、コンタクトレンズ、拡張現実または仮想現実ヘッドセット、網膜インプラントまたは他の視覚インプラント、角膜インレーなどの、眼の天然の視覚系に対する追加的/強化型光学要素とすることができる。光学的補助具は、水晶体の代替物としての眼内レンズのような、視覚系の天然要素の代替物とすることができる。光学的補助は、角膜または水晶体に対して行われる屈折矯正手術のような、視覚系の要素の修正とすることができる。光学的補助具は、複数の光学的補助具の形態の組み合わせであってもよい。
カスタマイズに不可欠ではないにしても、完成した光学的補助具におけるレンズ位置をユーザの眼に対して理解することは重要である。それに加えて、ユーザの視覚挙動を理解することは、不可欠ではないにしても重要である。これには、ユーザが典型的に、(特定の視作業に関連する)対象を自分の視野内にどのように配置するか、およびユーザが、自分の体、頭部、および眼を特定の視作業に関連する対象に対してどのように配置するか、が含まれる。
例示的な視作業は、読み取りである。ハンドヘルドメディア(例えば、書籍または電子機器)は、典型的に、頭部が対象に対してほぼ半分傾斜し、一方残りの必要な傾斜角度は眼自体により調整されるように配置される。頭部の傾斜角度と眼の傾斜角度の差は、視野内のメディアの位置決めと同様に、個々に異なる。
したがって、光学的補助具での視覚ゾーンの分布をより良好にカスタマイズするために、ユーザの視線/眼/頭部の間の好適な角度を理解することが非常に重要である。
光学的補助具は、ユーザ固有の好みに関して最適化されなければならない場合がある。
このような要求を、請求項の主題により満たすことができる。
第1態様によれば、投影面での光学パラメータの分布を決定するシステムが提供される。このシステムは、視野センサを備える。視野センサは、特定の視作業に関連するユーザの視野を測定し、例えば、特定の視作業に関連するユーザの視野内の対象を識別するように構成される。視野センサは、特定の視作業中のユーザの視線方向を決定するように、更に構成される。このシステムは、頭部配向および/または位置センサを備える。頭部配向および/または位置センサは、特定の視作業中の視野に対するユーザの頭部の配向および/または位置を測定するように構成される。このシステムは、ユーザの視野と網膜との間の投影面での光学パラメータの分布を決定するために、ユーザの視線方向と、ユーザの頭部の配向および/または位置と、に基づいて、ユーザの頭部に対するユーザの眼の配向の計算を可能にするように構成される。
光学パラメータは、視作業に関連する対象までの距離とすることができる。これは、光学的補助具の屈折力に数学的にリンクさせることができる。光学パラメータは、視作業の対象の輝度とすることができる。これは、特定の視作業の間の眼の瞳孔サイズにリンクさせることができる。光学パラメータは、視作業に関連する対象から発生する光のスペクトルコンテンツとすることができる。光学パラメータは、視野から検出された光場の角度分布を含むことができる。光学パラメータは、視野から検出された光の偏光状態および偏光度を含むことができる。
したがって、ユーザの眼の動きを直接に監視し、特定の視作業のための方向を見る代わりに、頭部の動きに対するユーザの眼の動きを、頭部および視線角度から計算できる。眼の動きを直接に監視することは、ユーザの日課の馴染みのある設定で実行する必要があり、信頼できる推定値を取得するために、長期の連続測定で蓄積される十分な統計が必要になる場合がある。しかしながら、ユーザの眼の動きを長期間監視することは、既存の視線追跡ソリューションの煩わしさ、位置合わせの要件、および機器のバッテリ消費に起因して、不都合となる可能性がある。これを、第1態様によるシステムにより回避できる。
視野センサは、視野の少なくとも1つのパラメータを測定するように構成できる。視野のパラメータは、少なくとも一次元で測定できる。例えば、パラメータは、ピッチ角(傾斜、センサの水平軸を中心とした回転)、ヨー角(垂直軸を中心とした回転)、またはロール角(横軸を中心とした回転)など、少なくとも1つの回転角に沿った極座標系に分解できる。追加的または代替的に、視野のパラメータ、すなわち視野パラメータは、位置座標に沿ったデカルト座標系に分解できる。
追加的または代替的に、視野センサは、二次元または三次元で視野パラメータを測定するように構成できる。視野のパラメータは、以下のうちの少なくとも1つとすることができる。すなわち、視野の対象までの距離、強度、スペクトル特性、偏光パラメータ(例えば、偏光度、ストークスパラメータ)、および/または視野の対象により放出および/または反射された光のライトフィールドパラメータ。
視野センサは、視線方向の決定を可能にするように、更に構成できる。これは複数のやり方で達成できる。1つの簡単な例において、視野センサは、方向性センサを含む、または方向性センサとすることができる。この方向センサは、眼鏡に取り付けられ、前方に向けられ、眼鏡の光軸/光学軸と位置合わせされる。方向性光センサは、光学系または光に基づくことができる。方向性センサはまた、任意の種類の方向性距離センサ、例えば、レーダまたはライダとすることができる。方向性センサは、眼鏡と共に移動可能とすることができる。システムはまた、眼鏡または他の機器と位置合わせされた頭部配向センサを備えることができる。システムをその上に取り付けることができる。ユーザの自然な頭部の動きに起因して、方向性センサは、異なる方向の環境をサンプリング可能とすることができる。頭部配向センサと組み合わせることにより、システムは、照明条件の角度分解画像を所得可能とすることができる。
ユーザが、画面が照らされたハンドヘルド電子デバイス(例えば、スマートフォンまたはタブレット)上でコンテンツを読んでいるとき、方向性センサは、デバイスにより放出される光を検出するように構成できる。頭部のダイナミクスに起因して、方向性センサは、デバイスから放出される光を時折検出するように構成できる。対応する傾斜角度αは視線方向を示す。同時に、読み取り活動中、頭部の配向、例えば頭のピッチ角は、平均してβに等しくすることができる。角度βは、典型的に、視線角度αよりも絶対値で低くすることができる。眼の角度は、α-βとして見出すことができる。このようにして、視覚活動のタイプを知ることで、視覚活動の対象により、視線と頭部の配向から、眼の角度を推定可能とすることができる。
視野センサは、方向性センサ、すなわち眼鏡の光軸/光学軸と位置合わせされた方向性センサを使用できる。頭部/デバイス配向センサの測定値と組み合わせた自然な頭部の動きに起因して、周囲の対象までの距離のマップを作成できる。これは、以下に紹介するように、処理ユニットによっても実行できる。視作業のタイプを先験的に知ることにより、ユーザは、ハンドヘルドデバイスを、(例えば、ユーザ入力により)ユーザの近くに位置する対象として識別できる。上記の例と同様のやり方で、さらに分析を行うことができる。
方向性センサは、ハンドヘルドメディアからより多くの測定値を収集するために、眼鏡の光軸に対して下向きに傾けることができる。例えば、30°のハンドヘルドメディアの読み取り中の典型的な視線傾斜に対して、典型的な場合、視覚活動の対象(ハンドヘルドメディアまたはデバイス)からのサンプリング密度を増加させるために、方向性視野センサを同じ角度で下向きに傾けることが有利である。これは、視野センサを恒久的に下に向けることにより達成できる。代替的または追加的に、システムは、少なくとも2つの方向性センサを備えることができる。それらのうちの少なくとも1つのセンサは、必要な角度だけ下に向けることができる。システムは、識別された視覚活動に基づいて、方向性センサを有効または無効にするように構成できる。
代替的または追加的に、システムは、ユーザにより実行される視覚活動/作業に基づいてデータの密度を最適化するために、視野センサの方向を変更するように構成できる。一実施形態において、視野センサは、スキャナを使用して視野のパラメータを異なる方向でサンプリングするように構成できる。識別された活動に基づいて、サンプリングの密度を調整し、視覚活動の対象などである関心対象の、より多くのサンプルを取得できる。
特定の視作業は、視野の相対的な一貫性により特徴付けられる視覚に関連する活動として理解可能であり、例えば、読み取り、書き込み、運転、ハンドヘルドデバイスの使用、またはテレビの視聴などである。作業の実行中または後に、視作業を事前に選択することもできる。
システムは、読み取りなどの単一の活動の測定を実行するように構成できる。この場合、視野センサにより取得された対象は、読み取りメディア/資料(本またはハンドヘルドデバイスなど)として事前に既知とすることができる。したがって、センサ測定値の大部分は、読み取り資料に関連している。この例において、データの処理は、外れ値を破棄することを目的とした単純な統計方法を使用して、特にロバスト統計処理を使用して実行できる。同様の仕方で、頭部配向センサの測定値を、読み取り活動の頭部の配向に対応させることができる。したがって、単純な統計的方法などである複雑さを軽減した方法で、処理を実行できる。
システムは、ユーザ入力を含むことができる。このユーザ入力により、ユーザが、視作業および/または視作業に関連する対象を示すことが可能である。ユーザ入力は、デバイス自体上、または携帯電話またはモバイルコンピュータなどの付随するコンピューティングデバイス上で実行できる。さらに、ユーザ入力は、クラウドインターフェイス上で実行できる。
視野センサは、特定の視作業に関連するユーザの視野の対象を識別するように構成できる。さらに、視野センサは、視野の識別された対象に関連するユーザの視線方向を導出するように構成できる。
システムは、コンテキストセンサを含むことができる。コンテキストセンサは、ユーザの活動に関連する少なくとも1つのパラメータを測定するように構成できる。
システムは、統計的分類器を更に備えることができる。統計的分類器は、以下に記載するように、処理ユニットの一部とすることができる。統計的分類器は、視野センサ、頭部配向および/または位置センサ、ならびにコンテキストセンサのうちの少なくとも1つから、ユーザの視野の視作業および/または対象を識別するように構成できる。識別は、例えば、統計分析/モデリングの方法を用いて、少なくとも部分的に自動的に実行することができる。
コンテキストセンサは、ユーザの視作業に関連する少なくとも1つのコンテキストパラメータを測定するように適合できる。コンテキストセンサは、システムが、測定されるコンテキストパラメータの統計的特性を導出可能であり、特定の視作業に関連する署名コンテキストパラメータの統計的特性と比較可能であるように、適合させることができる。測定されるコンテキストパラメータのこれらの統計的特性は、メモリユニット上またはメモリユニット内に保存できる。メモリユニットは、(事前に保存される)コンテキストパラメータの署名統計的特性を含むこともできる。
システムは、前述のメモリユニットなどのメモリユニットを更に備えることができる。このメモリユニットは、共に特定の視作業に関連する、頭部の配向および/または位置、特に頭部角度と、視線方向、特に視線角度と、を保存するように構成できる。頭部角度および視線角度は、特定の視作業を実行している間に保存できる。保存される頭部の配向および/または位置、特に保存される頭部角度と、保存される視線方向、特に保存される視線角度と、は、ユーザの視野と網膜との間の投影面での光学パラメータの分布を決定するための基礎を形成することができる。
結果として、光学パラメータの分布に関する情報を、ユーザのために光学的補助具を後にカスタマイズするために、保存することができる。
システムは、処理ユニットを更に備えることができる。処理ユニットは、頭部の配向および/または位置、特に頭部角度と、視線方向、特に視線角度と、の間の対応する差を決定し、ユーザの視野と網膜との間の投影面での光学パラメータの分布を決定するように構成できる。
処理ユニットは、保存される頭部の配向および/または位置、特に頭部角度と、保存される視線方向、特に視線角度と、の間の対応する差を決定し、ユーザの視野と網膜との間の投影面での光学パラメータの分布を決定するように構成できる。
結果として、ユーザのための光学的補助具は、システムを簡単に使用した後にすぐにカスタマイズすることができる。
処理ユニットは、メモリユニットに接続することができる。さらに、処理ユニットがそれ自体の統合メモリを備えることができるように、メモリユニットをインターリーブさせることができる。次に、計算を、処理ユニット上で、直ちに、またはユーザにより測定セッションが実行された後に実行できる。したがって、ユーザには、自身の光学的補助具の迅速な適応/カスタマイズを提供できる。または、光学的補助具の最適なカスタマイズを提供するために、ユーザをより長く評価するためにデータを収集するオプション用に、結果を保存することができる。
コンテキストパラメータに関連するこれらの署名統計的特性は、コンテキストパラメータの測定中または測定後に、事前にメモリユニットに供給することができる。したがって、メモリユニットおよびコンテキストセンサは、互いに直接に通信できる。これは、各々の統計的特性の相関/比較を実行できる処理ユニットにも適用される。
コンテキストパラメータは、ユーザの動きの計量、例えば、運動強度、加速の量、加速の方向、回転の量および/または方向とすることができる。コンテキストパラメータは、また、光強度、方向、スペクトルコンテンツ、ちらつきの存在、およびその周波数などの照明条件とすることもできる。コンテキストパラメータは、グローバルポジショニングシステムおよびローカルポジショニングシステム、無線信号品質などの位置標定方法および測位方法で推定される、ユーザの位置および配向とすることができる。コンテキストセンサは、視野の画像だけでなく、ユーザの周囲および/またはユーザ自身の画像を取得するように構成された画像化システムを含むことができる。
コンテキストセンサは、ウェアラブルカメラとすることができる。代替的または追加的に、カメラは、ユーザの体の外側に取り付けられる。例えば、カメラは、携帯電話、ハンドヘルドコンピュータ、タブレット、ラップトップ、およびデスクトップコンピュータのようなデバイスのカメラとすることができる。またはカメラを、デスクトップ上に置かれた別のカメラモジュールとすることもできる。
コンテキストセンサは、ユーザの周囲の音響振動(音)を測定するように構成されたマイクロフォンとすることができる。強度、スペクトルコンテンツ、およびパターンを、コンテキストパラメータとして使用できる。コンテキストセンサは、無線周波数範囲の電磁放射の検出器を備えて、無線通信エミッタからの信号の検出を可能にすることができる。例えば、GSM、GPS、WiFi(登録商標)、ブルートゥース(登録商標)の電波を使用できる。
追加的または代替的に、システムは、無線エミッタの信号を検出するように構成できる。システムは、信号を受信するように構成された電磁受信機を備えることができる。このような信号を、電磁波(電波および/または光)および/または機械的な波を用いて伝達できる。システムは、周囲の装置から追加情報を要求すべく信号を送信するように構成された電磁送信機を装備することができる。例えば、車のブルートゥース通信モジュールを使用して、運転活動を識別できる。さらに、スマートフォンまたはタブレットのブルートゥースモジュールの放射を使用して、ハンドヘルドデバイスを使用する活動を識別できる。ブルートゥースモジュールは、典型的に、装置の数値(MACアドレス)およびテキスト識別子を放送する。そのため、データベースを使用して、装置を特定の活動と関連付けることができる。例えば、車は、車のモデルとメーカーのテキスト識別子を放送できる。一方、スマートフォンは、デフォルトで、電話のメーカーとモデルを放送できる。これを、活動と関連付けることができる。装置の識別子または装置の位置または装置のタイプなどの追加情報は、送信機により要求信号を送信することで、装置が要求することができる。信号強度、信号遅延、信号反射などの信号の特性を使用して、視覚活動の分類を改善することができる。
コンテキストセンサは、ユーザの位置と動き(速度、加速度および軌道)に関する情報を提供するように構成されたポジショニングセンサ/ロケーションセンサを備えることができる。ポジショニングセンサは、GPS、GLONASS、GNSS、またはローカルポジショニングシステムもしくは屋内ポジショニングシステムなどの、グローバルポジショニングシステムのうちの1つとすることができる。屋内ポジショニングシステムは、システム周辺の無線装置、例えばWLANまたはブルートゥース放射装置などをスキャンすることにより、実施できる。分類器は、ユーザの位置と動きを使用して、例えばユーザの歩行などの対応する活動を分類できる。この情報を特徴的な歩行パターンを示すモーションデータと組み合わせることで、分類器が、ユーザが歩いていると結論付けることができる。
視野センサと頭部配向/位置センサとを、コンテキストセンサとしても使用できる。
コンテキストセンサにより測定されるコンテキストパラメータは、最初のものとは異なるパラメータであって、同じまたは異なるコンテキストセンサで測定される少なくとも1つの他のコンテキストパラメータと組み合わせて、視作業の自動識別のために使用できる。同じまたは異なるコンテキストセンサからの少なくとも2つのコンテキストパラメータを共に使用して、活動/作業またはそれに関連する対象を識別することができる。
視野センサにより測定される視野パラメータ、特徴的な点群、頭部の配向、動きのパターン、照明条件、およびコンテキストセンサの読み取り値の少なくとも1つに基づいて、視作業を自動的に識別することができる。活動/作業の識別、または分類は、データの統計分析を使用して、例えば既知の/ラベル付きまたはタグ付きの活動中に測定されるデータに基づいて学習された分類器を使用する機械学習の方法により、実行できる。このような方法は、ロジスティック回帰、ナイーブベイズ分類器、フィッシャーの線形判別、サポートベクトルマシン、k近傍、決定木、ランダムフォレスト、ニューラルネットワーク、または他の既知の方法もしくは複数の方法の組み合わせを含むことができる。
視野センサのデータは、元来の次元および解像度で使用できる、または、基礎となる分類アルゴリズムの安定性を向上させるために低減させることもできる。例えば、方向性センサを利用する視野センサは、視野の対象のマップを構築できる。例えば本、タブレット、スマートフォンなどのハンドヘルド型の読み物は、二次元または三次元のマップにおいて既知のサイズの平面を形成する点群として認識することができる。特徴的な頭部の傾斜を伴う、形状およびサイズが合致する対象が検出されると、ハンドヘルドメディアの読み取りを検出することができる。
追加のセンサにより、分類の精度および特殊性を改善できる。例えば、反射光の偏光状態を検出できるセンサを使用して、ハンドヘルド電子デバイスの液晶ベースのディスプレイを、本などの紙ベースの媒体から区別できる。追加的または代替的に、方向性センサを使用して、電子装置により放出された光を検出して、同じことが達成できる。追加的または代替的に、モーションセンサは、ハンドヘルド素材の読み取りを、ハンドヘルド電子デバイス上の映画などのメディアコンテンツの視聴と区別するために、読み取りに関連する頭部の動きを検出するように構成できる。追加的または代替的に、映画などの動的メディアコンテンツにより引き起こされる光の時間的変化を検出可能な光センサを使用して、読み取り活動と視聴活動との区別を可能にすることができる。
システムは、既知の活動/作業中に実行される元来の測定値または統計的に処理された測定値のデータベースを含むことができる。したがって、未知の活動/作業は、測定値をデータベースからの測定値と比較することにより、識別できる。同様のやり方で、視野内の対象の識別は、統計分析/モデリングの方法を使用して自動的に実行できる。既知の対象の署名測定値のデータベースを構成することができる。未知の対象の測定値を、データベースに保存された既知の対象の測定値と比較することで、更なる対象の識別を実行することができる。
ユーザの視野は、ユーザの視界の範囲として画定できる。ユーザは、レンズ、眼鏡などの光学的補助具の患者または装着者、または眼の光学要素の修正または交換を受ける任意の人物とすることができる。光学的補助具はまた、その主な目的が、視覚の不十分さを補うためではなく、通常の人間の視覚の機能を超えた要素で視覚を強化するための装置とすることもできる。例えば、このような拡張機能は、仮想/拡張/複合現実ヘッドセットまたはスマートグラスで提供できる。これらは、グラフィカルユーザインターフェイスの要素の表示、視野内の対象の強調表示などの特別機能を提供するために、視野に人工的な対象を追加するなどして、通常の視野を変更する。そのような装置でも、近視、遠視、老眼、その他の視力障害の補償を依然として提供できる、と理解されたい。
視線方向は、共通の座標軸から眼で見る点への方向により画定される。視線方向は、視線角度としても理解できる。二次元視において、視覚的な作業/活動が左右対称であると想定できる場合、共通の座標軸は水平面であり、視線角度は単一のピッチ角により画定される。視線角度は、頭部の傾斜角度(頭部のピッチ角)と、頭部角度に対する眼の傾斜角度と、で構成することができる。
視線方向/角度は、一般的な座標系での視作業に関連する対象の位置から導出できる。この一般的な座標系は、球面座標系とすることができる。球面座標系は、ユーザの鼻の付け根または別の点に、その原点を有することができる。
投影面は、光学的補助具の機能に関連する面として画定できる。例えば、投影面は、後に使用される光学的補助具がユーザの眼に対して配置される面を画定することができる。投影面は、光学的補助具の体積の内部、ならびにその外側に画定できる。投影面は、平面、球面、トーリック面、またはユーザの網膜と視野との間のその他の面とすることができる。表面は、例えば、実体の表面と関連しない、仮想/仮想的とすることができる。
例えば、投影面が眼鏡のレンズが配置されている眼鏡面である場合、投影面を眼の外側に配置できる。または、表面を、仮想/拡張/複合現実ヘッドセットまたは眼鏡のスクリーン面または光学面とすることができる。それは、次いで、頭部の座標系に固定することができる。投影面は、眼の表面または眼の内部に配置することもできる。これは、コンタクトレンズまたは眼科用インプラントのための場合である。眼の表面上の投影面は、頭部の座標系にリンクさせることができる。一方、ユーザの眼は、投影面に対して動くことができる。これは、セグメント化された遠近両用または多焦点コンタクトレンズの場合である。これらは、ユーザの眼が動いても、所定の位置に留まる。
一例において、コンタクトレンズならびに眼科用インプラントは、眼と共に動くことができる。眼の投影面は、眼の座標系に固定されている。各々の眼に対して、個別の座標系をとることができる。そのため、投影面を、各々の眼に対して個別とすることができる。
さらに、投影プロセスは、頭部中心の投影面だけでなく、眼の中心の投影面にも、等しく適用することができる。
一例において、投影は、ユーザの個々の特性を考慮に入れることができる。これらは、瞳孔間距離、頭部上の眼鏡面の位置および角度に影響を与える可能性のある顔/鼻の形状、角膜の曲率、瞳孔サイズの範囲、水晶体の位置、眼の長さまたは他の寸法などの、眼の構造の形状およびパラメータを含むことができる。
追加的または代替的に、投影は、視野により影響を受ける可能性があるユーザの眼の更なる光学的パラメータを組み込むことができる。これらは、眼窩での眼球回転、視野の照明レベルに対する瞳孔サイズの調整、視野に焦点を合わせるための水晶体の調節、瞼の開閉を含むことができる。
視野の対象からの光の経路が、光伝搬の物理的規則に基づいて追跡される場合、投影は、光線追跡により実行できる。好適には、光は、ユーザの網膜に到達するまで、対象から追跡することができる。網膜に向かう途中の、投影面を通る対象からの光伝播は、投影面上の対象の軌跡を画定できる。投影は、網膜に到達し、網膜上に画像を形成する光により形成できる。
投影は、数学的および幾何学的変換の単純化された方法で実行することができる。
マッピングは、幾何学的投影により実行できる、すなわち、視覚シーンの座標を、投影面上の座標に対して関連付けるのである。例えば、視野内のスマートフォンディスプレイの中心の位置を、眼鏡面内の点の位置に変換できる。追加的または代替的に、制限光学系をマッピングのために考慮できる。例えば、瞳孔サイズは、コンタクトレンズ、角膜インプラント、および/または眼内レンズのアクティブ領域に影響を及ぼすことができる。瞳孔が収縮している場合、光は視覚的補助具の中央ゾーンからのみ網膜に到達できる。一方、瞳孔が拡張すると、視覚的補助具の開口が増加し、レンズの周辺光学ゾーンが関与する。この関係を、中心からの距離に応じて屈折力が変化する多焦点レンズのカスタマイズのために考慮することができる。例えば、ユーザは、十分に瞼を機能させて、屋外において遠方視を利用できる。一方、比較的限られた照明で、屋内で近方視を利用できる。近距離と遠距離の両方の活動で、光は中央ゾーンを通過する。そのため、瞳孔が収縮したマッピングは、視覚的補助具の中央ゾーンで、近距離と遠距離(および対応する屈折力)の混合を生成することができる。限られた照明に関連する近距離活動を、同心の周辺ゾーン上にマッピングすることもできる。
この場合、カスタマイズは、中心における遠方視を促進する光学系により、屋外の設定での収縮した瞳孔の状態に適合する光学系により、および瞳孔が低照明条件において拡張したときに近方ゾーンが開くように周辺部の近方視を促進する光学系を配置することで、達成できる。
カスタマイズでは、眼の光学システムの性能と、眼の形状に基づく焦点ぼけの許容誤差と、を考慮できる。瞳孔が収縮すると、焦点深度が増加させることができる。これにより、網膜で焦点が合って形成される距離の範囲を拡大させることができる。したがって、視覚的補助具の中央ゾーンにおける屈折力の精度の要件を、周辺ゾーンよりも低くすることができる。
マッピングは、複数の視作業/視覚活動中に実行される測定値を組み合わせることができる。ユーザが継続的に測定を実行し、典型的な日常の視作業を効果的に組み合わせることを想定できる。
システムは、ユーザにより装着されるように適合された頭部装着型ウェアラブルとすることができる。特に、ウェアラブルは、システムのすべての要素またはセンサデバイス/ユニットを備える単一のモジュールとすることができる。したがって、視野センサと、頭部配向および/または位置センサとは、同じハウジング内に存在できる。
したがって、システムの小型化および消費電力の削減も、期待できる。
各々の頭部配向および/または位置センサならびに各々の視野センサの座標系を、整列させることができる。その結果、座標変換を回避できる。その結果、計算ステップを削減できる。
各々の頭部配向および/または位置センサの座標系と、各々の視野センサの座標系とは、同じであっても、同じ基準点を有していてもよい。したがって、一方を他方に変換するために必要なのは、回転情報のみとすることができる。
視野センサと、頭部配向および/または位置センサとは、互いに分離させることができる。
結果として、システムはモジュール形式で提供することができる。例えば、視野センサは、机、棚、ボード、または別の保管場所で操作できる、または保管できる。それに代わって、頭部配向および/または位置センサを、頭部装着型にすることができる。したがって、かさばる装置を頭部で持たないようにするために、このようにモジュール式でシステムを提供することができる。
システムのモジュール実装では、視野センサは、頭部とは異なるユーザの身体部分、例えば胴部に取り付けることができる。一方、頭部配向および/または位置センサは、頭部に取り付けることができる。
視野センサと頭部配向および/または位置センサの測定値は、頭部の配向および/または位置を視野の対象に正しくリンクさせるために同期させることができる。同期は、両方のセンサの測定値を同時にトリガする、もしくは読み取ることにより、または(無視できるほど)小さくすることができる事前に定義された時間内に、測定値のリアルタイムで実行できる。同期は、両方のセンサの測定値を個別に記録することにより、しかしながら記録される測定値を時間にリンクできる情報を使用して、実行できる。例えば、モジュール式の実装において、視野センサと頭部配向および/または位置センサとは、共通の時点に関連付けることができるオンボードクロックを備えることができる。測定データは、対応するタイムスタンプと共に記録される。処理段階では、両方のセンサの測定値を、共通の時間システムにリンクさせることができる。
コンテキストセンサも同様である。コンテキストセンサは、他のセンサとリアルタイムで同期できる、または共通の時点に関連させることができる独立したクロックを持つこともできる。
頭部配向および/または位置センサは、視野センサに結合させることができる。頭部配向および/または位置センサは、視野センサの位置情報を提供し、頭部配向および/または位置センサの座標系から頭部配向および/または位置センサの座標系に変換するように適合させることができる。変換は、処理ユニットによって実行できる。したがって、処理ユニットと、頭部配向および/または位置センサとは、互いに通信することができる。この通信は、ケーブルを介して直接に、またはブルートゥースもしくは無線ローカルエリアネットワーク(WLAN)などのアンテナシステム駆動の短距離通信システムなどの通信手段を介して間接的に、行うこともできる。したがって、頭部配向および/または位置センサは、標準のWLAN装置に接続するためのインターフェイスを有することができる。このインターフェイスは、頭部配向および/または位置センサ、ならびに/または処理ユニットにより共有することができる。処理ユニットの位置は、少なくとも頭部配向および/または位置センサと共に単一の装置内とすることができる。単一の装置内に、視野センサを配置することもできる。しかしながら、処理ユニットを、別のユニットとして提供することもできる。例えば、処理ユニットを、(外部)サーバー上のネットワークまたはクラウドを介して提供できる。したがって、処理ユニットによる処理は、通信用または通信手段をシステムに接続するシステムのインターフェイスなどであるシステムの他の複数の要素の少なくとも1つの要素とのみ通信している装置上で実行することができる。
投影面は、光学的補助具に関連付ける、および/または連結させることができる。
例えば、投影面は、光学的補助具が後で配置または使用される平面とすることができる。したがって、投影面は、光学的補助具の平面とすることができる。光学的補助具は、例えば、眼鏡、レンズ、または眼の表面とすることができる。
結果として、ユーザの眼から特定の距離での屈折力および瞳孔径を考慮することができる。
第2態様によれば、第1態様によるシステムの使用が提供される。投影面上の光学パラメータの分布を、光学的補助具のカスタマイズのために使用する。光学パラメータは、屈折力、瞳孔径、焦点深度、光のスペクトルコンテンツ、光の角度分布、および光の偏光状態のうちの少なくとも1つとすることができる。光学パラメータの分布は、投影面上の光学パラメータの分布を含むことができる。
後に光学的補助具のために使用される投影面上の光学パラメータの分布は、瞳孔径および屈折力の両方の組み合わせを含むことができる。したがって、個人の照明要件および電力要件を、同時に考慮することができる。
瞳孔径/サイズは、実験式および/またはモデルを使用して、光の強度およびスペクトルコンテンツなどの照明条件から推定できる。このような式は、パーソナライズされた係数だけでなく、環境の他のパラメータも含むことができる。モデルは、一般的または個人的であってよい。瞳孔径/サイズを更に使用して、焦点深度を計算できる。焦点深度を使用して、光学的補助具のカスタマイズを最適化することができる。
焦点深度が異なる多様な屈折力を必要とするいくつかの活動が記録されている場合、屈折力と焦点深度とを組み合わせることにより、組み合わされた解決策を見つけることができる。例えば、活動Aは、明るい照明で1mの距離で実行される。これにより、1Dの屈折力要件と、0.5Dにすることができる収縮した瞳孔に対応する焦点深度が得られる。そのため、屈折力の範囲は0.75~1.25Dである。例えば、活動Bは、低照明において距離1.25mで実行されるため、必要な屈折力は0.8Dであり、収縮した眼に対応する焦点深度は、約0.1Dである。したがって、範囲は0.75~0.85Dである。光学的補助具のカスタマイズは、ほとんどの視覚活動のために最適な視界を提供可能とすべきである。そのため、許容可能な力の範囲は、0.75~0.85Dである。これは、活動AとBの両方の要件を満たす。
第3態様によれば、投影面での光学パラメータの分布を決定する方法が提供される。この方法は、視野センサにより、特定の視作業に関連するユーザの視野を測定するステップを含む。これは、視野センサにより、ユーザの視野内の特定の視作業に関連する対象を識別するステップを含むことができる。方法は、視野センサにより、特定の視作業中のユーザの視線方向を決定するステップを更に含む。方法は、頭部配向および/または位置センサにより、特定の視作業中の視野に対するユーザの頭部の配向および/または位置、例えば特定の視作業中の視線角度に関連するユーザの頭部角度を測定するステップを更に含む。方法は、ユーザの視野と網膜との間の投影面での光学パラメータの分布を決定するために、ユーザの視線方向と、ユーザの頭部の配向および/または位置と、に基づいて、ユーザの頭部に対するユーザの眼の配向の計算を可能にするステップを含むことができる。例えば、方法は、ユーザの視野と網膜との間の投影面での光学パラメータの分布を決定するために、頭部角度と視線角との間の対応する差の計算を可能にするステップを更に含む。
第4態様によれば、コンピュータプログラム製品が1つまたは複数の処理ユニット上で実行される場合に、第2態様による方法を実行するためのプログラムコード部分を備えるコンピュータプログラム製品が提供される。
第5態様によれば、1つまたは複数のコンピュータ可読記憶媒体に保存される第3態様によるコンピュータプログラム製品が提供される。
第6態様によれば、光学的補助具が提供される。光学的補助具は、調整可能な光学的補助具とすることができる。光学的補助具は、第3態様による方法に基づいて、または第1態様によるシステムを使用して、調整することができる/調整可能である。
上記の態様のいくつかがシステムを参照して説明されているとしても、それらの態様は、方法に対しても適用することができる。同様に、方法に関連して上記で説明された態様は、システムに対応するやり方で適用可能とすることができる。
ハードウェア回路、ソフトウェア手段、またはそれらの組み合わせを使用して本明細書に記載された陳述を実施できることは、当業者には明白である。ソフトウェア手段は、プログラムされたマイクロプロセッサ、または一般的なコンピュータ、ASIC(Application Specific Integrated Circuit/特定用途向け集積回路)、および/またはDSP(Digital Signal Processor/デジタル信号プロセッサ)に関連することができる。
例えば、頭部配向および/または位置センサ、視野センサ、処理ユニット、およびコンテキストセンサなどの本明細書中のセンサユニットは、部分的に以下のようなものとして実装することができる。すなわち、コンピュータ、論理回路、FPGA(Field Programmable Gate Array/フィールドプログラマブルゲートアレイ)、プロセッサ(例えば、マイクロプロセッサ、マイクロコントローラ(μC)、またはアレイプロセッサ)/コア/CPU(Central Processing Unit/中央処理装置)、FPU(Floating Point Unit/浮動小数点ユニット)、NPU(Numeric Processing Unit/数値処理ユニット)、ALU(Arithmetic Logical Unit/算術論理ユニット)、コプロセッサ(メインプロセッサ(CPU)をサポートするための更なるマイクロプロセッサ)、GPGPU(General Purpose Computation on Graphics Processing Unit/グラフィックス処理ユニットでの汎用計算)、マルチコアプロセッサ(複数のメインプロセッサおよび/もしくはグラフィックプロセッサで演算を同時に行うような並列計算のため)、またはDSP。
さらに、本明細書で記載される詳細が方法に関する記載である場合であっても、これらの詳細は、適切な装置、システム、コンピュータプロセッサ、またはプロセッサに接続されたメモリにおいて実装または実現されてもよいことは、当業者には明白である。その際、メモリは1つまたは複数のプログラムを備えることができる。このプログラムは、プロセッサにより実行される際に、方法を実行する。したがって、スワッピングおよびページングなどの方法を展開できる。
また、本明細書で使用される用語は個々の実施形態を記載するためのものであり、限定することを意図するものではないことを理解されたい。別段の定義がない限り、本明細書で使用されるすべての技術用語および科学用語は、本開示の関連する技術分野における当業者の一般的な理解に対応する意味を有する。それらは、あまりにも広くも狭くも理解されるべきではない。本開示において技術用語が誤って使用され、したがってその技術用語が本開示の技術思想を反映しない場合、これらは、本開示の関連する技術分野の当業者に正確な理解を伝える技術用語に置き換えられるべきである。本明細書で使用される一般的な用語は、辞書または文脈における定義に基づいて解釈されるべきである。狭すぎる解釈は避けるべきである。
例えば、「備える」、「含む」、または「有する」などの用語は、記載される特徴、数、操作、動作、構成要素、部分、またはそれらの組合せの存在を意味し、1つまたは複数の更なる特徴、数、操作、動作、構成要素、部分、またはそれらの組合せの存在または可能な追加を排除しないことを理解されたい。
用語「および/または」は、複数の関連する特徴の組み合わせ、ならびに記載される複数の特徴のその複数の任意の特徴の組み合わせの、両方を含む。
この場合、ある構成要素が別の構成要素に「接続されている」、またはそれと「通信している」場合、これは、構成要素が他の構成要素に直接に接続されている、またはそれに直接にアクセスしていることを意味することができる。しかしながら、別の構成要素がそれらの間に存在してもよいことに留意されたい。他方で、ある構成要素が別の構成要素に「直接に接続される」、またはそれに「直接にアクセスする」場合、更なる構成要素はそれらの間に存在しないことを理解されたい。
他の目的、特徴、利点、および適用は、添付の図面に関する非限定的な実施形態に関する以下の記載から明らかになる。同一または類似の構成要素には、常に同一または類似の参照符号が付されている。本開示の記載において、既知の関連する機能または構成に関する詳細な説明は、それらが本開示から不必要に逸脱する場合に限り、省略される。図面において、記載される、および/または図示されるすべての特徴は、単独で、または任意の組み合わせで、特許請求の範囲におけるそれらのグループ化、またはそれらの関係/参照にかかわらず、そこに開示される主題を形成する。図面に示される構成要素または部品の寸法および比率は、必ずしも縮尺通りではない。これらの寸法および比率は、図面の内容および実施される実施形態と異なる場合がある。特に、図面において、線、層、および/または領域の太さは、明確にするために誇張されている場合がある。
ここで、システムおよび方法を、実施形態に関連して説明する。特に、それに限定されることなく、本開示を完全に理解するために、特定の詳細が定められる。しかしながら、本開示を、以下に記載される詳細とは異なり得る他の実施形態において使用できることは、当業者にとって明らかである。
図1は、投影面での光学パラメータの分布を決定するシステムが使用されるシナリオ100を概略的に示す。システムの少なくとも一部は、装置110内に配置される。装置110は、頭部配向および/または位置センサを含むことができる。特に、図1における頭部配向および/または位置センサは、図示される頭部150の矢状面視に起因して、一次元とすることができる。頭部配向および/または位置センサは、図1に示されるように、矢状面における頭部150の配向を測定する。しかしながら、これは、装置110の頭部配向および/または位置センサ内部の、各々のセンサ装置を用いて、すべての平面に拡張することができる。したがって、頭部が水平に対して傾斜していないときに頭部角度β=0を測定するように、頭部配向および/または位置センサを校正することができる。これは、図1に具体的に示されている。
対象を見ることが、眼170の水平面の下の視線角度(α)を必要とする場合、頭部の傾斜(β)(本明細書では、頭部角度とも称される)は、視線角度(α)に部分的にのみ寄与する。残りの部分(γ)は、頭部の傾斜βに対して眼170(眼170の傾斜のみ)を再配向させることに由来する。これは、首160にかかる負荷を低減するために、体自体により実行される。頭部150と眼170との間の角度寄与の分布は、個々のものであり、また、対象130の個々の位置に依存する。これは、活動およびユーザに特有とすることができる。図1の対象130は、ハンドヘルドメディアであり、頭部150によって示されるユーザにより注視される。ユーザは、装置110を、特にユーザの頭部またはユーザのこめかみで装着できる。これに加えて、装置110は、頭部装着型ウェアラブルであってもよい。装置110は、眼鏡フレームに一体化されてもよいし、その上に取り付可能であってもよい。
頭部配向および/または位置センサに加えて、装置(例えば、ウェアラブルデバイス)は、視野120内の対象130までの距離を測定可能な、少なくとも1つの距離センサを組み込むことができる。視野120は、図1の矢印および星印で示される。距離センサは、本明細書に記載の視野センサの一部とすることができる。または、視野センサは、図1に関して記載された距離センサの形態とすることができる。健康な個人の頭部と体は、覚醒状態で完全に休むことはめったにない。そのため、観察期間中に、頭部の傾斜角度が分布することが予想される。距離センサが、時間的に分離された複数の測定を実行することで、観察点(頭部視)から様々な方向で、視野120内部の対象130までの距離を取得することが可能である。これは、頭部の座標系の参考とすることができる。
環境(視野120)のサンプリングは、少なくとも1つの指向性距離センサにより実行できる。距離センサは、ユーザの頭部と位置合わせされた、および/または装置110に統合されたウェアラブル距離センサとすることができる。距離センサは、走査手段、または角度/空間分解センサを有することができる。しかしながら、距離センサはまた、異なる方向で環境をサンプリングするためにユーザの自然な頭部の動きのみに依存することができる、または、異なる方向での異なるサンプリング手段の組み合わせとすることができる。距離測定値を装置110の配向または位置に関連付けることにより、ユーザの頭部の配向および位置に対する環境を表す二次元または三次元の点群を構築することが可能である。装置110の最初の配向または位置は、装置110に組み込まれた慣性センサ(例えば、加速度計、ジャイロスコープ、磁力計)、または位置センサから取得できる。
活動を自動的に識別するために、追加のコンテキストセンサを使用できる。例えば、モーションセンサは、ユーザの動き強度および統計的特性をサンプリングできる。例を挙げると、例えば読み取り中の頭部150の動きのような、特定の著しい動きを認識できる。コンテキストセンサも、装置110に含むことができる。
活動は、外部センサの助けで、またはウェアラブルの一部としてのユーザインターフェイス、および/またはシステム、および/または携帯電話またはインターネットインターフェイスなどの追加の装置を介して実行される直接のユーザ入力により、自動的に識別することができる。入力識別活動は、リアルタイムで、または後で実行できる。例えば、ユーザは、Webページまたはモバイルアプリケーションとして実装される双方向のインターフェイスを介して、測定の履歴を確認し、時系列を特定の活動にリンクさせることができる。
そのような入力の例として、10:00から10:30までの活動は読書、10:30から10:45までの活動はウォーキング、10:45から11:45までの活動は運転など、とすることができる。
活動の識別は、自動入力と手動入力との組み合わせとして実行することもできる。例えば、自動識別のパフォーマンスの信頼性またはその他の計量が特定の閾値を下回っている場合にのみ、システムは、ユーザ入力を要求できる。上記の例では、システムは読書と運転を自動的に(確信をもって)識別できる。しかしながら、システムが、ウォーキングに関しては何らかの懸念があるため、ユーザ入力を要求することができる。システムを、活動の単一のエピソードに対してユーザ入力を使用し、他のエピソードの自動識別は更新するように、更に構成できる。上記の例では、ユーザが、10:30から10:45までのウォーキングである単一のエピソードを手動で指定することができる。システムは、活動の分類子を自動的に更新して、残りのすべてのエピソードを再評価できる。
頭部配向および/または位置センサ、は、加速度計を備えることができる。最も単純なケースでは、単軸上の加速度ベクトルの投影が測定可能な単軸加速度計を使用することができる。加速度計の単軸は、ユーザが真正面を向いているとき(β=0)、ベクトルg(重力加速度:gravitational acceleration)の軸x上への投影がゼロ(gx=g sinβ=0、gはベクトルgの絶対値)であるので、加速度計がゼロ加速度を測定するように、装置110と水平に整列させることが可能である。使用者の頭部150が前方に傾斜している場合(β>0)、投影gxは正となる。頭部の傾斜角度βは、測定された投影から、β=arcsin gx/gと算出することができる。加速度センサは、装置110に作用する軸zに沿った加速度を測定することができる(頭部配向および/または位置センサの座標系)。動きにより引き起こされる装置110の著しい加速がない場合(これは、重要な視覚活動中に予想される)、加速度計は、重力、すなわち加速度gを測定する。
頭部の垂直角度(ピッチ)βは、頭部150(例えば、眼鏡またはユーザのこめかみ)の上に取り付けられた加速度計(少なくとも単軸)による重力の測定値から導出できる。より高度な構成では、頭部配向および/または位置センサは、3軸ジャイロスコープ、3軸加速度計および3軸磁力計(例えば、コンパス)を含むことができる。次に、頭部配向および/または位置センサがユーザの頭部150に固定されている場合、頭部配向および/または位置センサの絶対角度、および対応して、頭部150の絶対配向を推定することが可能である。
追加的または代替的に、頭部の位置センサは、視野または視野センサに対する頭部の位置を監視することができる。
関心対象130(特定の視覚活動に関連する物体)の位置は、視野センサで視野120を頭部150に対して観察することにより、見つけることができる。例えば、これは頭部装着型カメラにより実行できる。頭部装着型カメラは、視点(POV:point-of-view)カメラ、POV距離センサ、または空間分解距離センサ(3Dカメラ)とも称される。視野内の関心対象を検出することにより、視野内の対象の位置合わせの角度(α、β、γ)および位置(x、y、z)を間接的に導き出すことが可能である。
距離センサにより測定された距離と組み合わせて、点の位置を体の矢状面で取得し、視野120内の対象130の点群(視野120の図1の点)を形成することができる。さらに、視作業のタイプがすでに与えられている場合(例えば、ユーザがユーザインターフェイスを介して情報を提供した場合)、対象130の認識は、予想される視野120に基づいて実行することができる。または、(視野センサ/距離センサにより取得された)測定された距離の統計を、視覚活動の統計的特性(statistical signatures)のデータセットと比較することにより、活動のタイプを自動的に認識できる。
例えば、識別または認識された活動は、図1に示す例のように、ハンドヘルドデバイス130からの読み取りである。この場合、視覚活動の主な目的は、ハンドヘルドデバイス130の読み取りである。ハンドヘルドデバイス130は、平坦な表面を有するために、快適な腕の到達距離での矢状面の投影においては線として現れるであろう。このような定義に対応する点は、破線でマークされている(図1を参照)。主な視覚活動の対象130上の点に対応する角度は、対応する視作業を実行するためにユーザにより使用される視線角度αのセットを、さらに画定している。頭部の傾斜角度βは、頭部150に取り付けられた頭部配向および/または位置センサから既知である。そのため、眼170のシフト/角度、γ=α-βを推定することが可能である。
視野センサとは異なる配向および/または位置を有する更なる距離センサを追加する、または複数の方向でサンプルを取得できるセンサを使用することにより、点群の密度および走査範囲を増加させることができる。例えば、これらのセンサは、異なる方向の距離に対して異なる感度を有する、単一のエミッタおよび複数の感受性ゾーン/検出器を有することができる。これは、センサの設計により、または、例えばセンサが光学ベースである場合には光学要素などの追加要素を使用して、実現できる。
例えば、これは、単一光子アバランシェダイオード(SPAD:single-photon avalanche diodes)の16×16アレイを有し、必要な領域を選択できるように構成されたレーザ測距センサにより実装される。これにより、単一のエミッタと複数の検出器の戦略が実装される。
別の例では、異なる幾何学的位置または/および方向から来る光を検出するように配置されたカメラまたは検出器アレイを組み込むことができる。
更なる例において、距離センサは、異なる方向および/または位置に光を放出するように構成された少なくとも1つの検出器および複数のエミッタを有することができる。この場合、検出器は、少なくとも1つのエミッタにより放出され、視野120から反射される光を検出するように構成される。アクティブなエミッタの構成/配置は、ある時点から別の時点で変化することができる。これにより、空間的に分解された情報を収集することができる。
別の例において、異なる方向/位置で視野120をプローブするために、少なくとも1つのエミッタを、放出された光の方向を変えるように構成することができる。これは、例えば、走査鏡、走査プリズム、または異なる方向にプロービング光を放出するために放出された光の光路を変更するように構成された他の可動光学要素であり得る走査要素により、達成することができる。次に、検出器は、エミッタ放射によりプローブされた対象から反射された光を検出するように構成することができる。検出器の信号は、視野120を再構築するために、プローブされた方向/位置に関する情報にリンクさせることができる。これらの方向は、スキャナの設計から先験的に既知である、校正ステップで取得される、または追加的なフィードバック信号を使用してスキャン中に取得される。
代替的に、視野センサは、頭部配向および/または位置センサならびに頭部から物理的/機械的に分離されたときに、視野を監視できる。例えば、視野センサを、ユーザの体(例えば、胴部および/または胸に)に取り付けることができる。または、視野センサを、体の外側(例えば、机上または車のダッシュボード上)に取り付けることができる。頭部配向および/または位置センサおよび視野センサは、互いの座標系、特に互いの配向および/または位置を関連付ける手段を有することができる。例えば、これは、視野センサに機械的に結合された追加の配向および/または位置センサを用いて達成できる。
別のアプローチは、視野センサと頭部の相対的な動きの制限とすることができる。例えば、頭部とは異なる体の特定の部分、例えば胸に視野センサを取り付けることにより、視野センサと頭部の相対的な動きを、頭部の傾斜、例えばピッチ、ヨー、ロールによってのみ発生可能とする。これは、頭部配向および/または位置センサで監視できる。
上記または下記に記載される実施形態に関連して、詳細および態様が記載される。図1に示される実施形態は、提案される概念または以下(例えば、図2~8)に記載される1つまたは複数の実施形態に関連して言及される1つまたは複数の態様に対応する1つまたは複数の任意選択の追加的な機能を備えることができる。
図2は、投影面での光学パラメータの分布を決定する方法を概略的に示す。この方法は、第1ステップとして、視作業を分類するステップS210を含むことができる。その後、方法は、特定の視作業に関連するユーザの視野を、視野センサにより測定するステップS220を含む。このステップは、ユーザの視野内の特定の視作業に関連する対象を識別するステップを含むことができる。方法は、特定の視作業中にユーザの視線方向を決定するステップS230を更に含む。方法は、特定の視作業中の視野に対するユーザの頭部の配向および/または位置を、頭部配向および/または位置センサにより測定するステップS240を更に含む。方法は、ユーザの視野と網膜との間の投影面での光学パラメータの分布を決定するために、ユーザの視線方向と、ユーザの頭部の配向および/または位置とに基づいて、ユーザの頭部に対するユーザの眼の配向の計算を可能にするステップS250を更に含む。
特に、この方法は、2つの異なるやり方で実行することができる。第1のやり方は、図1に関して記載した距離センサのような機械的に結合された視野センサと、頭部配向および/または位置センサとに基づく。したがって、図2に示される方法は、方法を実行する第1のやり方にしたがって、以下の(追加の)ステップのうちの少なくとも1つのステップを含むことができる。
ユーザの視野内の1つまたは複数の対象の点群を取得するステップS205、
視作業のタイプを分類するステップS210、
視野センサにより、視野内の特定の視作業に関連する少なくとも1つの関連する対象を識別するステップS220、および
視作業の少なくとも1つの関連する対象に対応する視線角度の成分(共通の座標系におけるピッチ、ヨー、および/またはロール)の少なくとも1つを計算するステップS230、
頭部配向および/または位置センサにより、視覚活動中に頭部の配向を測定するステップS242(S240)、
頭部角度の少なくとも1つの成分(共通の座標系におけるピッチ、ヨー、および/またはロール)を計算するステップS244(S240)、および
視線方向と頭部の配向および/または位置との間の差として、頭部と対象との間の少なくとも1つの角度(眼の角度)を計算するステップS250。
ユーザの視野内の1つまたは複数の対象の点群を取得するステップS205、
視作業のタイプを分類するステップS210、
視野センサにより、視野内の特定の視作業に関連する少なくとも1つの関連する対象を識別するステップS220、および
視作業の少なくとも1つの関連する対象に対応する視線角度の成分(共通の座標系におけるピッチ、ヨー、および/またはロール)の少なくとも1つを計算するステップS230、
頭部配向および/または位置センサにより、視覚活動中に頭部の配向を測定するステップS242(S240)、
頭部角度の少なくとも1つの成分(共通の座標系におけるピッチ、ヨー、および/またはロール)を計算するステップS244(S240)、および
視線方向と頭部の配向および/または位置との間の差として、頭部と対象との間の少なくとも1つの角度(眼の角度)を計算するステップS250。
視覚活動の対象は、多くの場合、重力場に対して実空間に、例えば、机の上の紙、コンピューターディスプレイ、テレビの画面、車のダッシュボードなどに配置される。そのため、対象の認識は、地心座標系において実行するのが、より容易である。
第2のやり方は、機械的に分離された視野センサと、頭部配向および/または位置センサと、に基づく。したがって、図2に示される方法は、方法を実行する第2のやり方に従って、以下の(追加の)ステップのうちの少なくとも1つのステップを含むことができる。
視野センサにより、ユーザの視野内の1つまたは複数の対象を識別するステップS220、および(共通の座標系における)視線角度を計算するステップS230、
頭部配向および/または位置センサにより、視覚活動中に頭部の配向を測定するステップS240、および(共通の座標系における)頭部角度を計算するステップ、
視線角度と頭部角度との間の差として、頭部と対象との間の少なくとも1つの角度(眼の角度)を計算するステップS250。
視野センサにより、ユーザの視野内の1つまたは複数の対象を識別するステップS220、および(共通の座標系における)視線角度を計算するステップS230、
頭部配向および/または位置センサにより、視覚活動中に頭部の配向を測定するステップS240、および(共通の座標系における)頭部角度を計算するステップ、
視線角度と頭部角度との間の差として、頭部と対象との間の少なくとも1つの角度(眼の角度)を計算するステップS250。
上記または下記に記載される実施形態に関連して、詳細および態様が記載される。図2に示される実施形態は、提案される概念または上記(例えば、図1)または以下(例えば、図3~8)に記載される1つまたは複数の実施形態に関連して言及される1つまたは複数の態様に対応する1つまたは複数の任意選択の追加的な機能を備えることができる。
図3は、ユーザの頭部の座標系における点群を概略的に示す。特に、理解のために、矢状面が示される。点群は、少なくとも一方向の距離センサの測定値を、センサの配向および位置の測定値と組み合わせることにより、取得できる。複数の距離センサからの測定値(例えば、異なる方向のプロービング)は、1つのマップに結合できる、または複数のマップを形成できる。少なくとも頭部の傾斜ピッチ角が測定されると、二次元の矢状面に点群が画定される。ジャイロスコープおよび/または磁力計などの追加の方向センサを使用すると、頭部のヨー角とロール角を追加して、三次元空間に点群を画定できる。例えば、視作業または視覚活動を分類することにより、それに応じて視線角度を抽出できる。矢状面では、各々の視線角度に対応する点はすべて、視作業に応じて、特に、頭部Uから同じ距離にある。図3は、本を読む、またはスマートフォン上を見るなど、近方視(NV:near vision)の作業に対応する、この例では3D屈折に対応する約0.33mの距離にある点群を示す。別の群は、約1m(1D屈折)の中間視(IV:intermediate vision)ゾーンにある。これは、デスクトップコンピュータのディスプレイを見ることにできよう。また、テレビの視聴とすることができる、約2m(0.5D)の遠方視(FV:far vision)ゾーンにおける群を示す。
点群は、活動に特徴的なパターンを形成することができる。点群の形状および/または位置を使用して、視覚活動を自動的に分類できる。ユーザが行う視作業がどのようなタイプかというユーザの入力と組み合わせて、および/または視作業中に撮影されるビデオからのパターン認識と組み合わせて、および/または他のセンサの測定値と組み合わせて、分類できる。例えば、視野センサはカメラである。その処理には、2D画像から対象を検索すること、例えば本またはハンドヘルドデバイス(スマートフォンまたはタブレット)、コンピュータ画面を識別することを伴う。これには、カメラ画像によるユーザの活動の理解が伴う。
上記または下記に記載される実施形態に関連して、詳細および態様が記載される。図3に示される実施形態は、提案される概念または上記(例えば、図1~2)または以下(例えば、図4~8)に記載される1つまたは複数の実施形態に関連して言及される1つまたは複数の態様に対応する1つまたは複数の任意選択の追加的な機能を備えることができる。
図4は、頭部の座標系と、矢状面における対象の眼鏡面へのマッピングと、を概略的に示す。活動が左右対称である場合、矢状面に対象を配置することを想定できる。このような活動の例には、本などのハンドヘルドメディアの読み取り、デスクトップコンピュータ上の作業、作業台上の作業などが含まれる。この場合、ヨーおよびロールに関係なく、対象までの距離を頭部のピッチ角とともに監視できる。例として、図3に示す活動がある。
特定の視作業に関連付けられる点群(ここでは点A)の各々の座標は、頭部の座標系に対して再計算される。特に、屈折力などの光学パラメータは、眼鏡面とすることができる投影面に対してマッピングされる。
図4は、具体的に以下を示す。
Pxz 眼鏡面
Pyz 矢状面
Pxy PxzおよびPyzに対する垂直面
P 眼の瞳孔位置
A 対象の点
As 眼鏡面上の対象の点の画像
O 鼻根
Os 眼鏡面上のOの投影
OOs 頂点間距離
OP距離 輻輳に対して調整される単眼瞳孔間距離
Pxz 眼鏡面
Pyz 矢状面
Pxy PxzおよびPyzに対する垂直面
P 眼の瞳孔位置
A 対象の点
As 眼鏡面上の対象の点の画像
O 鼻根
Os 眼鏡面上のOの投影
OOs 頂点間距離
OP距離 輻輳に対して調整される単眼瞳孔間距離
さらに、パノスコピックチルト(レンズピッチ)、そり角(レンズヨー)を考慮し、特定の光学的補助具をカスタマイズすることができる。
より一般的な活動の場合、左右対称を仮定することはできない(例えば、車の運転中)。この場合、頭部の配向の監視は、3つの角寸法、すなわちピッチ、ヨー、ロールのすべてで実行できる。点群は、矢状面に限定されず、3D空間において画定される。図示された幾何学的モデルは、投影面への描写を可能にするために、更に拡張することができる。
上記または下記に記載される実施形態に関連して、詳細および態様が記載される。図4に示される実施形態は、提案される概念または上記(例えば、図1~3)または以下(例えば、図5~8)に記載される1つまたは複数の実施形態に関連して言及される1つまたは複数の態様に対応する1つまたは複数の任意選択の追加的な機能を備えることができる。
図5は、右眼に対応する光学的補助具の平面での、パワーマップの形式でのパワー分布に対する要件を概略的に示す。例えば、このような分布は、図4に示す幾何学的変換を使用して図3の点群から取得できる。この場合、近方視(NV)ゾーンは、ユーザが0.33mの距離にある対象を見るのを助けるために、光学的補助具に対して3Dの屈折力を有するゾーンを備える、という要件をもたらす。デスクトップディスプレイを見ていることとできる中間視(IV)ゾーンは、1D(距離1m)の屈折力のゼロピッチに対応するゾーンを作り出す。最後に、1D未満(1mから無限遠まで)の屈折力を持つ遠方視ゾーン(FV)は、IVゾーンの上方にある。
NVゾーンは、中央からわずかに右に示される。これは、読み取り(収束)時に、眼が、ユーザの鼻に向かう回転方向に回転するためである。したがって、図5は、老眼のユーザ向けの右眼眼鏡のレンズのカスタマイズを示す。ゾーンは、ユーザのニーズに合わせてカスタマイズできる。図5からわかるように、屈折力は、各々不均一に分布されてよい。それにより、ゾーンの移行もスムーズにすることができる。
その結果、個人の視覚挙動に基づく最適なレンズパワーのマッピングを提供することができる。
上記または下記に記載される実施形態に関連して、詳細および態様が記載される。図5に示される実施形態は、提案される概念または上記(例えば、図1~4)または以下(例えば、図6~8)に記載される1つまたは複数の実施形態に関連して言及される1つまたは複数の態様に対応する1つまたは複数の任意選択の追加的な機能を備えることができる。
図6は、累進付加眼鏡レンズの一例としての光学的補助具のパワー分布/プロファイルの可能な実施例を概略的に示す。図5の光学的補助具は、丸い形状を有するレンズである。このレンズから、破線に沿って、メガネに取り付けるためのレンズを切り出すことができる。図5に示す必要なパワーゾーンのプロファイルは、レンズでは実装できない。そのため、眼鏡レンズの光学的制限を考慮し、可及的に希望するプロファイルに近い実現可能な設計を見つけるために、カスタマイズするステップが必要である。最新の累進付加レンズは、非点収差が高いために良好な視力には使用できない混合領域(BR:brending regions)を備える。遠方視と近方視のためのレンズの屈折力を混合することが求められる。遠方視用の遠位基準点DRP(Distance Reference Point)から近方用の近位基準点NRP(Near Reference Point)へと、屈折力が累進帯に沿って徐々に変化する。この累進は、パワープロファイルにより画定される。パワープロファイルは、他のパラメータとともに、必要な分布に適合するように最適化することができる。
上記または下記に記載される実施形態に関連して、詳細および態様が記載される。図6に示される実施形態は、提案される概念または上記(例えば、図1~5)または以下(例えば、図7~8)に記載される1つまたは複数の実施形態に関連して言及される1つまたは複数の態様に対応する1つまたは複数の任意選択の追加的な機能を備えることができる。
図7は、図5からの設計適合要求パワーマップを、図6からの累進付加レンズのレイアウトで実装するパワープロファイルの例を概略的に示す。これらの測定値は、図3による矢状面における距離測定値に対応することができる。この場合の屈折力は、視作業の対象物までの距離の逆数として計算される。眼のピッチ角は、図3上の視線角と測定された頭部角度とから算出される。これらの測定値は、異なる平面に拡張することができる。この例では,-5度より小さいピッチ角は,DRPから始まる遠方視を実現する。0付近のピッチでは、パワーは1D(距離1m、図3のデスクトップディスプレイの例に相当)に等しい。さらにピッチ角を増加させると、プロファイルは、図3のハンドヘルドメディアに対応する+3D(0.33m)のパワーを有するNRPに達する。
上記または下記に記載される実施形態に関連して、詳細および態様が記載される。図7に示される実施形態は、提案される概念または上記(例えば、図1~6)または以下(例えば、図8)に記載される1つまたは複数の実施形態に関連して言及される1つまたは複数の態様に対応する1つまたは複数の任意選択の追加的な機能を備えることができる。
図8は、光学的補助具の平面での瞳孔径の投影を概略的に示す。特に、光強度/輝度および/または光のスペクトルコンテンツは、視野センサにより測定し、実験式およびモデルを使用してユーザの瞳孔サイズに変換することができる。したがって、光学的補助具は、ユーザの異なる光強度の露出に対しても設計できる。眼は、異なる照明条件に異なって適応することが既知である。例えば、特に暗い設定において、眼は、0.5メートルと2メートルとの間(対応して2~0.5D)にしか対応しない。焦点深度(十分な品質で網膜上に画像化される屈折力の範囲)は、瞳孔の直径に反比例する。つまり、高照度の設定では、瞳孔が収縮し、範囲が増加する。焦点深度は、0.1Dから0.5Dに変化する。これは、光学的補助具の設計において考慮することができる。図8の例では、瞳孔は下部ゾーンに対してより大きい。これは、これらのゾーンにおいて焦点深度が低減されることを意味する。これを使用して、図5に示すように、視覚的補助具の屈折力のマップに対する精度要件を画定できる。この例では、光学的補助具の設計により、(この例では近方視のために使用される)下部ゾーンに、高精度で屈折力を提供する必要がある。この例において、上部ゾーンは、典型的に、瞳孔サイズを低減させて使用する。そのため、焦点深度が増加される。これにより、この領域での焦点ぼけに対する耐性がより高くなる。したがって、この特定のケースでは、上部ゾーンに位置する遠距離の屈折力を選択する適応性がより高くなる。
上記または下記に記載される実施形態に関連して、詳細および態様が記載される。図8に示される実施形態は、提案される概念または上記(例えば、図1~7)に記載される1つまたは複数の実施形態に関連して言及される1つまたは複数の態様に対応する1つまたは複数の任意選択の追加的な機能を備えることができる。
図6の眼鏡面の例は、視覚的補助具が眼から分離されている場合を示す。したがって、眼の動きを、視覚的補助具の屈折力の変化に関連させることができる。
視覚的補助具の別の例は、眼と共に動いているコンタクトレンズ、角膜インプラント、および/または眼内レンズを説明することができる。この場合、投影面は常に視線と位置合わせされ、頭部の配向は無関係である。それにもかかわらず、方法により、周辺視野内の対象を投影面にマッピングすることが可能である。図2に示されるフローチャートは、様々なプロセス、操作、またはステップを表すことができる。それらは、例えばコンピュータ可読媒体において実質的に表され、そのようなコンピュータまたはプロセッサが明示的に示されているかどうかにかかわらず、コンピュータまたはプロセッサにより、そのように実行することができる。本明細書または特許請求の範囲に開示される方法は、これらの方法の各々の動作のそれぞれを実行する手段を有する装置により、実施することができる。
本明細書または特許請求の範囲において開示される複数の動作、プロセス、操作、ステップ、または機能の開示は、例えば技術的理由のために明示的または黙示的に別段の記載がない限り、特定の順序の範囲内にあるとは解釈されない、と理解されるべきである。したがって、複数の動作または機能の開示は、そのような動作または機能が技術的理由のために相互に交換可能でない場合を除き、これらを特定の順序に限定しない。さらに、いくつかの実施例において、単一の動作、機能、プロセス、操作、またはステップは各々、複数のサブ動作、複数のサブ機能、複数のサブプロセス、複数のサブ操作、または複数のサブステップを含む、またはそれらに分割することができる。そのようなサブ動作は、明示的に除外されない限り、この単一の動作の開示に含まれ、その一部とすることができる。
先に詳述した1つまたは複数の実施例および図と共に言及して説明した態様および特徴は、他の実施例の同様の特徴を置き換えるために、または他の実施例に特徴を追加的に導入するために、同様に、他の実施例の1つまたは複数と組み合わせることができる。
さらに、以下の特許請求の範囲は、本明細書により詳細な説明に組み込まれている。各特許請求の範囲は、それ自体で別個の実施例として理解することができる。各請求項が、それ自体で別個の実施例として理解される一方で、以下のことに留意されたい。すなわち、従属請求項は、特許請求の範囲において、1つまたは複数の他の請求項との特定の組合せを参照することができるが、他の実施例も、従属請求項と、互いに従属または独立する請求項の主題との組合せも含むことができる。そのような組み合わせは、特定の組合せを意図していないことが明記されていない限り、本明細書において明示的に提案される。さらに、たとえ請求項が独立請求項に直接に従属していなくても、当該クレームの特徴を任意の他の独立請求項にも含めることが意図されている。
Claims (15)
- 投影面での光学パラメータの分布を決定するシステムであって、
視野センサであって、特定の視作業に関連するユーザの視野を測定するように構成され、前記特定の視作業中の前記ユーザの視線方向を決定するように更に構成される視野センサと、
頭部配向および/または位置センサであって、前記特定の視作業中の前記視野に対する前記ユーザの頭部の配向および/または位置を測定するように構成される頭部配向および/または位置センサと、を備え、
前記システムは、前記ユーザの前記視野と網膜との間の投影面での光学パラメータの分布を決定するために、前記ユーザの前記視線方向と、前記ユーザの前記頭部の配向および/または位置と、に基づいて、前記ユーザの頭部に対する前記ユーザの眼の配向の計算を可能にするように構成される、システム。 - 請求項1に記載のシステムであって、前記視野センサは、前記特定の視作業に関連する前記ユーザの前記視野の対象を識別するように構成され、前記視野の識別された前記対象に関連する前記ユーザの視線方向を導出するように構成される、システム。
- 請求項1または2に記載のシステムであって、前記システムは、前記ユーザの活動に関連する少なくとも1つのパラメータを測定するように構成されるコンテキストセンサを更に備える、システム。
- 請求項1~3の何れか一項に記載のシステムであって、統計的分類器を更に備え、前記統計的分類器は、
前記視野センサ
前記頭部配向および/または位置センサ、ならびに
前記コンテキストセンサのうちの少なくとも1つから、前記ユーザの前記視野の視作業および/または対象を識別するように構成され、識別は少なくとも部分的に自動的に実行される、システム。 - 請求項1~4の何れか一項に記載のシステムであって、
共に前記特定の視作業に関連する、前記頭部の配向および/または位置と、前記視線方向と、を保存するように構成されるメモリユニットを更に備え、保存される前記頭部の配向および/または位置と、保存される前記視線方向と、は、前記ユーザの前記視野と前記網膜との間の前記投影面での前記光学パラメータの分布を決定するための基礎を形成する、システム。 - 請求項1~5の何れか一項に記載のシステムであって、
処理ユニットを更に備え、前記処理ユニットは、前記頭部の配向および/または位置と、前記視線方向と、の間の対応する差を決定し、前記ユーザの前記視野と前記網膜との間の前記投影面での前記光学パラメータの分布を決定するように構成される、システム。 - 請求項5又は6に記載のシステムであって、前記処理ユニットは、保存される前記頭部の配向および/または位置と、保存される前記視線方向と、の間の対応する差を決定し、前記ユーザの前記視野と前記網膜との間の前記投影面での前記光学パラメータの分布を決定するように構成される、システム。
- 請求項1~7の何れか一項に記載のシステムであって、前記システムは、前記ユーザにより装着されるように適合された頭部装着型ウェアラブルである、または前記ユーザにより装着されるように適合された頭部装着型ウェアラブルに配置される、システム。
- 請求項8に記載のシステムであって、前記ウェアラブルは、前記システムのすべての要素を備える単一のモジュールである、システム。
- 請求項8または9に記載のシステムであって、各々の前記頭部配向および/または位置センサならびに各々の前記視野センサの座標系は、整列されている、システム。
- 請求項1~10の何れか一項に記載のシステムであって、前記視野センサと、前記頭部配向および/または位置センサとは、互いに分離されている、および/または
前記投影面は、光学的補助具に関連付けられている、および/または連結されている、システム。 - 請求項1~11の何れか一項に記載のシステムの使用であって、前記投影面上の前記光学パラメータの分布を、光学的補助具のカスタマイズのために使用し、前記光学パラメータは、
屈折力
瞳孔径
焦点深度
光のスペクトルコンテンツ
光の角度分布、および
光の偏光状態のうちの少なくとも1つである、使用。 - 投影面での光学パラメータの分布を決定する方法であって、
特定の視作業に関連するユーザの視野を、視野センサにより測定するステップ(S220)と、
前記特定の視作業中に前記ユーザの視線方向を、前記視野センサにより決定するステップ(S230)と、
前記特定の視作業中の前記視野に対する前記ユーザの頭部の配向および/または位置を、頭部配向および/または位置センサにより測定するステップ(S240)と、
前記ユーザの前記視野と網膜との間の投影面での光学パラメータの分布を決定するために、前記ユーザの前記視線方向と、前記ユーザの前記頭部の配向および/または位置とに基づいて、前記ユーザの頭部に対する前記ユーザの眼の配向の計算を可能にするステップ(S250)と、を含む方法。 - コンピュータプログラム製品であって、前記コンピュータプログラム製品が1つまたは複数の処理ユニット上で実行される場合に、請求項13に記載の方法を実行するためのプログラムコード部分を備え、例えば、前記コンピュータプログラム製品は、1つまたは複数のコンピュータ可読記憶媒体に保存されている、コンピュータプログラム製品。
- 光学的補助具であって、前記光学的補助具は、請求項13に記載の方法に基づいて、または請求項1~11の何れか一項に記載のシステムを使用して、調整可能である、光学的補助具。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP19195656.4 | 2019-09-05 | ||
EP19195656.4A EP3789816A1 (en) | 2019-09-05 | 2019-09-05 | Device and method for mapping of visual scene onto projection surface |
PCT/EP2020/071539 WO2021043512A1 (en) | 2019-09-05 | 2020-07-30 | Device and method for mapping of visual scene onto projection surface |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022547893A true JP2022547893A (ja) | 2022-11-16 |
Family
ID=67874361
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022514721A Pending JP2022547893A (ja) | 2019-09-05 | 2020-07-30 | 視覚シーンを投影面上へマッピングする装置および方法 |
Country Status (7)
Country | Link |
---|---|
US (1) | US20220280035A1 (ja) |
EP (1) | EP3789816A1 (ja) |
JP (1) | JP2022547893A (ja) |
KR (1) | KR20220088678A (ja) |
CN (1) | CN114616512A (ja) |
IL (1) | IL290662A (ja) |
WO (1) | WO2021043512A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021192321A1 (en) * | 2020-03-27 | 2021-09-30 | Nec Corporation | Image processing device, image processing method, and storage medium |
EP4312716A1 (en) | 2021-03-30 | 2024-02-07 | Essilor International | A method and device for early detection of an ocular disease |
WO2023233809A1 (ja) * | 2022-05-30 | 2023-12-07 | ソニーグループ株式会社 | 情報処理装置及び情報処理方法 |
US20240012472A1 (en) * | 2022-07-08 | 2024-01-11 | Tencent America LLC | Vergence based gaze matching for mixed-mode immersive telepresence application |
CN116184427B (zh) * | 2022-12-21 | 2023-12-29 | 湖南迈克森伟电子科技有限公司 | 基于激光距离传感技术的距离探测系统 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ES2264848B1 (es) * | 2004-05-06 | 2008-01-01 | Indo Internacional, S.A. | Procedimiento y equipo para establecer el comportamiento visual de una persona, y procedimiento de personalizacion de una lente para montura. |
FR3021204A1 (fr) * | 2014-05-20 | 2015-11-27 | Essilor Int | Procede de determination d'au moins un parametre de comportement visuel d'un individu |
US11402661B2 (en) * | 2016-03-15 | 2022-08-02 | Essilor International | Method for determining an ophthalmic lens adapted to a locomotion parameter |
EP3228237B1 (en) * | 2016-04-08 | 2019-12-25 | Vivior AG | A device and method for measuring distances |
EP3563217A1 (en) * | 2016-09-27 | 2019-11-06 | Tobii AB | Portable eye tracking device |
CN107333121B (zh) * | 2017-06-27 | 2019-02-26 | 山东大学 | 曲面屏幕上移动视点的沉浸式立体渲染投影系统及其方法 |
EP3508882A1 (en) * | 2018-01-09 | 2019-07-10 | Vivior AG | An apparatus and a method for passive scanning of an object or a scene |
-
2019
- 2019-09-05 EP EP19195656.4A patent/EP3789816A1/en active Pending
-
2020
- 2020-07-30 WO PCT/EP2020/071539 patent/WO2021043512A1/en active Application Filing
- 2020-07-30 US US17/637,170 patent/US20220280035A1/en active Pending
- 2020-07-30 CN CN202080076179.2A patent/CN114616512A/zh active Pending
- 2020-07-30 KR KR1020227007382A patent/KR20220088678A/ko unknown
- 2020-07-30 JP JP2022514721A patent/JP2022547893A/ja active Pending
-
2022
- 2022-02-16 IL IL290662A patent/IL290662A/en unknown
Also Published As
Publication number | Publication date |
---|---|
EP3789816A1 (en) | 2021-03-10 |
US20220280035A1 (en) | 2022-09-08 |
IL290662A (en) | 2022-04-01 |
WO2021043512A1 (en) | 2021-03-11 |
KR20220088678A (ko) | 2022-06-28 |
CN114616512A (zh) | 2022-06-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12008723B2 (en) | Depth plane selection for multi-depth plane display systems by user categorization | |
US11883104B2 (en) | Eye center of rotation determination, depth plane selection, and render camera positioning in display systems | |
EP3740847B1 (en) | Display systems and methods for determining registration between a display and a user's eyes | |
US20220280035A1 (en) | Device and method for mapping of visual scene onto projection surface | |
US20210271091A1 (en) | Display systems and methods for determining registration between a display and eyes of a user | |
US8752963B2 (en) | See-through display brightness control | |
US11789262B2 (en) | Systems and methods for operating a head-mounted display system based on user identity | |
US20230210365A1 (en) | Eye tracking using aspheric cornea model | |
US20210181840A1 (en) | Display systems and methods for determining vertical alignment between left and right displays and a user's eyes | |
JP2018099174A (ja) | 瞳孔検出装置及び瞳孔検出方法 | |
US20230306781A1 (en) | Predicting display fit and ophthalmic fit measurements using a simulator | |
US11662574B2 (en) | Determining gaze depth using eye tracking functions | |
JP7512505B2 (ja) | ユーザカテゴリ化による多深度平面ディスプレイシステムのための深度平面選択 | |
US20230046950A1 (en) | Image based detection of fit for a head mounted wearable computing device | |
KR20240011791A (ko) | 웨어러블 컴퓨팅 디바이스의 이미지 기반 피팅 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230705 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240327 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240409 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20240617 |