JP6894845B2 - ウェアラブルコンピューティングデバイスの視力矯正を制御するための技術 - Google Patents

ウェアラブルコンピューティングデバイスの視力矯正を制御するための技術 Download PDF

Info

Publication number
JP6894845B2
JP6894845B2 JP2017554276A JP2017554276A JP6894845B2 JP 6894845 B2 JP6894845 B2 JP 6894845B2 JP 2017554276 A JP2017554276 A JP 2017554276A JP 2017554276 A JP2017554276 A JP 2017554276A JP 6894845 B2 JP6894845 B2 JP 6894845B2
Authority
JP
Japan
Prior art keywords
computing device
wearable computing
user
visual
visual port
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017554276A
Other languages
English (en)
Other versions
JP2018522258A (ja
Inventor
ティー. モラン、マイケル
ティー. モラン、マイケル
ラブ バロン、ケーシー
ラブ バロン、ケーシー
エム. コーレンベルグ、トビアス
エム. コーレンベルグ、トビアス
シー. チャドウィック、ステファン
シー. チャドウィック、ステファン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of JP2018522258A publication Critical patent/JP2018522258A/ja
Application granted granted Critical
Publication of JP6894845B2 publication Critical patent/JP6894845B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H5/00Exercisers for the eyes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0189Sight systems
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C7/00Optical parts
    • G02C7/10Filters, e.g. for facilitating adaptation of the eyes to the dark; Sunglasses
    • G02C7/101Filters, e.g. for facilitating adaptation of the eyes to the dark; Sunglasses having an electro-optical light valve
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C7/00Optical parts
    • G02C7/10Filters, e.g. for facilitating adaptation of the eyes to the dark; Sunglasses
    • G02C7/105Filters, e.g. for facilitating adaptation of the eyes to the dark; Sunglasses having inhomogeneously distributed colouring
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C7/00Optical parts
    • G02C7/16Shades; shields; Obturators, e.g. with pinhole, with slot
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/30ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Description

[関連特許出願の相互参照]
本願は、2015年6月25に出願された「ウェアラブルコンピューティングデバイスの視力矯正を制御するための技術」と題する米国特許出願第14/750,923号に基づく優先権を主張する。
様々な眼障害および/または疾患を患っている人々がいる。幼児を特に冒すことがあるそのような1つの眼障害は、弱視として知られ、時に非公式に「レイジーアイ」と呼ばれる。弱視は、冒された眼の視力の低下および/または制御の低下を引き起こし得る。もちろん、他の障害が同様の課題を引き起こす場合がある。
そのような眼障害に対する一般的な治療は、良い目をカバーするためのパッチの使用である。良い目をアイパッチでカバーすることは、患者が弱視または「悪い」目の使用を強いられるが、そのことは経時的に眼障害の改善をもたらす場合がある。残念ながら、アイパッチの使用は、とりわけ幼児に対して社会的不名誉を引き起こす場合があり、患者による処方治療に対する患者による支持を低減する場合がある。さらに、典型的なアイパッチは、経時的な挙動を調整する、または患者の経過に関するフィードバックを提供する能力がない。むしろ、治療の経過を判断すべく医師の往診が典型的には必要とされ、患者にとって損失時間および不都合になる。
本明細書において説明される概念は、添付の図において限定としてではなく例として示されている。説明を簡潔かつ明確にするために、図に示される要素は必ずしも縮尺通りに描かれてはいない。適切であると見なされる箇所では、対応する、または類似の要素を示すべく、参照符号が図の間で繰り返されている。
ウェアラブルコンピューティングデバイスの視力矯正を制御するためのシステムの少なくとも1つの実施形態の簡略ブロック図である。
図1のシステムのウェアラブルコンピューティングデバイスの少なくとも1つの実施形態の簡略ブロック図である。
図2のシステムのウェアラブルコンピューティングデバイスにより確立され得る環境の少なくとも1つの実施形態の簡略ブロック図である。
調整可能レンズの外部ディスプレイ上に画像を表示するための方法の少なくとも1つの実施形態の簡略フロー図であり、そのことは、図2および図3のウェアラブルコンピューティングデバイスにより実行され得る。
調整可能レンズの目視ポートを適応制御するための方法の少なくとも1つの実施形態の簡略フロー図であり、そのことは、図2および図3のウェアラブルコンピューティングデバイスにより実行され得る。
ユーザの眼球運動に基づき調整可能レンズの目視ポートを制御するための方法の少なくとも1つの実施形態の簡略フロー図であり、そのことは、図2および図3のウェアラブルコンピューティングデバイスにより実行され得る。
ユーザの目視状況に基づき調整可能レンズの目視ポートを制御するための方法の少なくとも1つの実施形態の簡略フロー図であり、そのことは、図2および図3のウェアラブルコンピューティングデバイスにより実行され得る。
図4の方法の実行中の図2および図3のウェアラブルコンピューティングデバイスの少なくとも1つの実施形態の簡略説明図である。
図5−7の方法の実行中の図2および図3のウェアラブルコンピューティングデバイスの様々な実施形態の簡略説明図である。 図5−7の方法の実行中の図2および図3のウェアラブルコンピューティングデバイスの様々な実施形態の簡略説明図である。 図5−7の方法の実行中の図2および図3のウェアラブルコンピューティングデバイスの様々な実施形態の簡略説明図である。
本開示の概念は、様々な変更形態および代替形態が可能であるが、それらの特定の実施形態が図面において例として示されており、本明細書に詳細に説明されるであろう。しかしながら、開示された特定の形態に本開示の概念を限定する意図はなく、逆に、本開示および添付の特許請求の範囲と一致する全ての変更形態、均等物、および代替形態を網羅することが意図されていることが理解されるべきである。
本明細書における「1つの実施形態」、「一実施形態」、「例示的な実施形態」などの記載は、説明される実施形態が特定の特徴、構造、または特性を含んでよいことを示すが、あらゆる実施形態は、当該特定の特徴、構造、または特性を含んでいても、または、必ずしも含んでいなくてもよい。その上、このような表現は必ずしも同一の実施形態を指すものではない。さらに、特定の特徴、構造、または特性がある実施形態に関連して説明される場合、明示的に説明されているかどうかに関わらず、他の実施形態に関連してこのような特徴、構造、または特性を達成することは、当業者の知識の範疇であると考えられる。さらに、「少なくとも1つのA、B、およびC」の形のリストに含まれる項目は、(A)、(B)、(C)、(AおよびB)、(AおよびC)、(BおよびC)、または(A、B、およびC)を意味し得ることが理解されるべきである。同様に、「A、BまたはCのうち少なくとも1つ」という形態のリストに含まれる項目は、(A)、(B)、(C)、(AおよびB)、(AおよびC)、(BおよびC)、または、(A、BおよびC)を意味し得る。
開示された実施形態は、場合によっては、ハードウェア、ファームウェア、ソフトウェア、またはそれらの任意の組み合わせで実装されてよい。開示された実施形態はまた、1または複数のプロセッサによって読み取られ、実行されてよい、一時的または非一時的機械可読(例えば、コンピュータ可読)記憶媒体によって保持された、または当該媒体に格納された命令として実装されてよい。機械可読ストレージ媒体は、機械が読み取り可能な形態の情報を格納または伝達するための、任意のストレージデバイス、メカニズム、または、他の物理的構造(例えば、揮発性もしくは不揮発性のメモリ、メディアディスク、または他のメディアデバイス)として具現化されてよい。
図面では、いくつかの構造上または方法上の特徴が特定の構成および/または順序で示されてよい。しかしながら、このような特定の構成および/または順序は必要とされなくてもよいことが理解されるべきである。むしろ、いくつかの実施形態において、このような特徴は、例示の図に示されたものとは異なる態様および/または順序で構成されてよい。さらに、特定の図において構造上または方法上の特徴を含むことによって、このような特徴が全ての実施形態において必要とされることを示唆するようには意図されておらず、いくつかの実施形態においては含まれなくてよいか、または、他の特徴と組み合わせられてよい。
ここで、図1を参照すると、視力矯正を制御するためのシステム100は、ウェアラブルコンピューティングデバイス102、ローカルコンピューティングデバイス104およびリモートサーバ106を含み、それらはネットワーク108を通じてウェアラブルコンピューティングデバイス102と通信し得る。使用中、ウェアラブルコンピューティングデバイス102は、ユーザにある量の視力矯正を提供すべくデバイス102の調整可能レンズ220を制御するように構成される。それを行うべく、以下により詳細に説明されるように、ウェアラブルコンピューティングデバイス102は、ユーザの対応する目のための別の不透明な調整可能レンズ220を通る目視ポート900(例えば、図9参照)を生成すべく、制御された調整可能レンズ220の不透明度を制御し得る。調整可能レンズ220を通る目視ポート900を画定することにより、ユーザの視界は、ユーザの目に対する矯正量を経時的に提供するための処方または予め規定されたルーチンによりフォーカスされ得、移動し得、または制御され得る。例えば、目視ポート900の場所、形状および/またはサイズを制御することにより、ウェアラブルコンピューティングデバイス102は、ユーザの目の動作を改善すべく意図された訓練セットによってユーザをステップさせ得る。そのような訓練または他の処方データは、ネットワーク108を通じてリモートサーバ106から受信され得る。さらに、ウェアラブルコンピューティングデバイス102は、ユーザの経時的に経過を追跡し得、医療提供者による評価のためにリモートサーバ106に経過データを送信する。医療提供者は、経過データに基づき訓練および/または処方を調整または修正し得る。リモートサーバ106は続いて、ウェアラブルコンピューティングデバイス102に任意の更新された訓練/処方を送信し得、それにより、更新された訓練および/または処方に基づき目視ポート900の制御を更新し得る。
いくつかの実施形態において、ウェアラブルコンピューティングデバイス102はまた、様々な基準に基づき経時的に目視ポート900を適応制御し得る。例えば、いくつかの実施形態において、ウェアラブルコンピューティングデバイス102は、ユーザの目の注視方向を判断し、判断された注視方向に基づき目視ポート900を制御するように構成され得る。そのような実施形態において、ウェアラブルコンピューティングデバイス102は、ユーザの現在の注視方向に基づき目視ポート900の場所、サイズおよび/または形状を調整し得る。同様に、ウェアラブルコンピューティングデバイス102は、ユーザの目のフォーカスの度合いまたは焦点に基づき目視ポート900を制御し得る。ユーザの注視方向およびフォーカスの度合いは、ウェアラブルコンピューティングデバイス102の1または複数のアイトラッキングセンサ222により生成されるアイトラッキングセンサデータに基づき判断され得る。
いくつかの実施形態において、ウェアラブルコンピューティングデバイス102は、さらに、または代替的に、ユーザの目視状況に基づき目視ポート900を適応制御し得る。それを行うべく、ウェアラブルコンピューティングデバイス102は、1または複数の外部に面するカメラ224により生成される画像に基づきユーザの目視状況を判断し得、判断された目視状況に基づき目視ポート900の場所、サイズおよび/または形状を制御し得る。例えば、ウェアラブルコンピューティングデバイス102が、外部に面するカメラ224により生成される画像の分析に基づきユーザが本を読んでいると判断した場合、ウェアラブルコンピューティングデバイス102は、間近の目視を容易にする、または矯正すべく目視ポート900を調整し得る。
さらに、いくつかの実施形態において、ウェアラブルコンピューティングデバイス102は、画像が表示され得る1または複数の外部表示面242を含み得る(例えば、図8参照)。以下に述べられるように、画像は、ウェアラブルコンピューティングデバイス102のローカルデータストレージから取得され得、ローカル通信リンク110を介してローカルコンピューティングデバイス104から受信され得る。画像は、例えば、ユーザに対して好ましい画像(例えば、子供ユーザに対して漫画のキャラクタ)などの任意のタイプの画像として具現化され得る。視力矯正治療と典型的に関連付けられる不快感は、外部表示面242上のこっけいな、または面白い画像を表示することにより低減され、それにより、処方されるルーチンおよび/または訓練により良くユーザが順守することになり得ることは、理解されるべきである。
ウェアラブルコンピューティングデバイス102は、視力矯正を制御し、そうでなければ本明細書に説明される機能を実行することが可能な任意のタイプのコンピューティングデバイスとして具現化され得る。例えば、ウェアラブルコンピューティングデバイス102は、限定なしで、スマートアイグラス、スマートアイパッチ、ヘッドマウント型ディスプレイ、スマートキャップまたはハット、ヘッド装着型コンピュータ、またはユーザの視力矯正を制御することが可能な任意の他のコンピューティングデバイスとして具現化され得、またはそれらを含み得る。図2に示されるように、例示的なウェアラブルコンピューティングデバイス102は、プロセッサ210、I/Oサブシステム212、メモリ214、1または複数の調整可能レンズ220、1または複数のアイトラッキングセンサ222、1または複数の外部に面するカメラ224、データストレージ226および通信回路228を含む。もちろん、ウェアラブルコンピューティングデバイス102は、他の実施形態において、コンピュータ(例えば、様々な入出力デバイス)に一般的に見られるものなどの他のまたは追加のコンポーネントを含み得る。さらに、いくつかの実施形態において、例示のコンポーネントの1または複数が、別のコンポーネントに組み込まれてよい、あるいは、別のコンポーネントの一部を形成してよい。例えば、いくつかの実施形態において、メモリ214、またはその一部は、プロセッサ210に組み込まれてよい。
ウェアラブルコンピューティングデバイス102のコンポーネントのいくつかまたは全ては、ユーザの目に近接して位置され得る。例えば、図1に示されるように、調整可能レンズ220は、ユーザの顔に装着されるように構成される眼鏡フレーム150によりサポートされ得る。アイトラッキングセンサ222の各々は、ユーザの目の目視および追跡を容易にすべく、眼鏡フレーム150の内側152に取り付けられ得る。さらに、外部に面するカメラ224の各々は、以下により詳細に説明されるように、ウェアラブルコンピューティングデバイス102の外部環境の目視を容易にすべく、眼鏡フレーム150の外側154に取り付けられ得る。プロセッサ210、I/Oサブシステム212、メモリ214およびデータストレージ226などのシステムの他のコンポーネントは、眼鏡フレーム150に配置され得、または眼鏡フレーム150に取り付けられるコンポーネントと無線または有線通信するウェアラブルハウジングに含まれ得る。他の実施形態において、ウェアラブルコンピューティングデバイス102は、既存のウェアラブルデバイスに適切なコンポーネントを結合することにより形成され得る。例えば、ウェアラブルコンピューティングデバイス102の個別のコンポーネントは、情報のヘッドアップディスプレイ用に設計されるヘッドマウント型ウェアラブルコンピューティングデバイス(例えば、「スマートグラス」)に結合または実装され得る。
プロセッサ210は、本明細書に説明されている機能を実行可能な任意のタイプのプロセッサとして具現化され得る。例えば、プロセッサ210は、シングルコアもしくはマルチコアプロセッサ、デジタル信号プロセッサ、マイクロコントローラ、または、他のプロセッサもしくは処理/制御回路として具現化されてよい。同様に、メモリ214は、本明細書に説明される機能を実行可能な任意のタイプの揮発性もしくは不揮発性のメモリまたはデータストレージとして具現化され得る。動作において、メモリ214は、オペレーティングシステム、アプリケーション、プログラム、ライブラリ、およびドライバなど、ウェアラブルコンピューティングデバイス102の動作中に使用される様々なデータおよびソフトウェアを格納し得る。メモリ214は、プロセッサ210、メモリ214、および、ウェアラブルコンピューティングデバイス102の他のコンポーネントとの入出力動作を容易にすべく、回路および/またはコンポーネントとして具現化され得るI/Oサブシステム212を介して、プロセッサ210と通信可能に結合する。例えば、I/Oサブシステム212は、メモリコントローラハブ、入出力制御ハブ、ファームウェアデバイス、通信リンク(すなわち、ポイントツーポイントリンク、バスリンク、ワイヤ、ケーブル、ライトガイド、プリント回路基板トレースなど)および/または、入出力動作を容易にする他のコンポーネントおよびサブシステムとして具現化され得る、あるいは、それらを含み得る。いくつかの実施形態において、I/Oサブシステム212は、システムオンチップ(SoC)の一部を形成し得、単一の集積回路チップ上に、プロセッサ210、メモリ214およびウェアラブルコンピューティングデバイス102の他のコンポーネントと共に組み込まれ得る。
調整可能レンズ220は、制御可能な不透明度を有する任意のタイプの眼鏡のレンズとして具現化され得る。例えば、例示的な実施形態において、各々の調整可能レンズ220は、電気的に制御可能な不透明度コントロール240を含み、それは、1または複数の電気信号に基づいて、対応する調整可能レンズ220の不透明度を調整するように構成される。さらに、調整可能レンズ220は、調整可能レンズ220の不透明度の局所性ベースの制御を可能にし、そのことは調整可能レンズ220を通る目視ポート900の生成を容易にする。すなわち、画定された目視ポート900の外側の調整可能レンズ220の領域の不透明度は、それらの領域が目視ポート900とは異なる不透明度を有し得るように個別に制御され得る(例えば,目視ポート900は、透明であり得るが、一方目視ポート900の外側の領域は、不透明であり得る。)。
いくつかの実施形態において、各々の調整可能レンズ220はまた、外部表示面242を含み得る。外部表示面242は、以下により詳細に述べられるように、調整可能レンズ220上の画像の表示を容易にする任意のタイプのディスプレイデバイスとして具現化され得る。いくつかの実施形態において、外部表示面242は、画像がその上に表示された場合、対応する調整可能レンズ220を不透明にさせるように不透明であり得る。代替的に、他の実施形態において、外部表示面242は、必要に応じて表示画像によって目視ポート900を容易にするように透明、または実質的に透明であり得る。
アイトラッキングセンサ222は、ユーザの注視が向けられる方向を判断することが可能である任意の1または複数のアクティブまたはパッシブセンサとして具現化され得る。例えば、いくつかの実施形態において、アイトラッキングセンサ222は、目視の経時的な眼球運動を追跡すべく、アクティブ赤外線発光器および赤外線検出器を使用し得る。アイトラッキングセンサ222は、目視の目の様々な内部および外部の機能の反射される赤外線光を取り込み得、それにより目視の注視の方向を計算し得る。他の実施形態において、アイトラッキングセンサ222は、ユーザの目の動きを記録することが可能なビデオカメラとして具現化され得る。複数のアイトラッキングセンサ222を含む実施形態において、センサ222は、追跡精度を改善すべくユーザの両目に対するアイトラッキングデータを収集し得る。さらに、いくつかの実施形態において、アイトラッキングセンサ222は、ユーザの目のフォーカスの度合いおよび/または焦点の判断を容易にし得る。フォーカスの度合いは、当該特定の時点でのユーザの目により示されるフォーカス量を示す。例えば、フォーカスの度合いは、ユーザの目の画像に基づき(例えば、ユーザの目の虹彩のサイズに基づき)判断され得る。他の実施形態において、アイトラッキングセンサ222は、3次元アイトラッキングを実行し得、そのことは、ユーザの目の合焦される距離と共にユーザの目の注視方向の両方を追跡するものである。例えば、アイトラッキングセンサ222は、ユーザの両目に対する目視角度を判断し得、対象に対する距離が計算され、フォーカスの度合いの量がそれに基づき判断されるのを可能にし得る。
外部に面するカメラ224は、ウェアラブルコンピューティングデバイス102の眼鏡フレーム150に取り付けられること、またはウェアラブルコンピューティングデバイス102に通信可能に結合されることが可能な任意のタイプのデジタルカメラまたは他のデジタル画像デバイスとして具現化され得る。外部に面するカメラ224は、アクティブ画素センサ(APS)、例えば、相補型金属酸化物半導体(CMOS)センサまたは電荷結合デバイス(CCD)のような電子画像センサを含み得る。外部に面するカメラ224は、静止画および/またはビデオ画像を含む、ウェアラブルコンピューティングデバイス102に関連した外部環境の画像を取り込むために使用され得る。
データストレージ226は、データの短期の保存または長期の保存のために構成された任意のタイプのデバイス、または複数のデバイスとして具現化され得る。例えば、データストレージ226は、任意の1または複数のメモリデバイスおよび回路、メモリカード、ハードディスクドライブ、ソリッドステートドライブ、または他のデータストレージデバイスを含み得る。データストレージ226は、動作中にウェアラブルコンピューティングデバイス102により使用される様々なデータを格納し得る。例えば、いくつかの実施形態において、データストレージ226は、調整可能レンズ220の外部表示面242上に表示され得る画像の集合を格納し得る。さらに、いくつかの実施形態において、データストレージ226は処方データを格納し得、処方データは、以下に述べられるように、目視ポート900の制御に基づき、ユーザにより実行されるべき目の訓練を規定し得る。
通信回路228は、任意の通信回路、デバイスまたはそれの集合として具現化され得、ネットワーク108を介した通信リンク110およびリモートサーバ106を通じて、ウェアラブルコンピューティングデバイス102と、ローカルコンピューティングデバイス104との間の通信を可能にすることができる。それを行うべく、通信回路228は、任意の1または複数の通信技術、および関連するプロトコル(例えば、Ethernet(登録商標)、Bluetooth(登録商標)、Wi−Fi(登録商標)、WiMAX(登録商標)など)を使用して、そのような通信を達成するように構成され得る。
いくつかの実施形態において、ウェアラブルコンピューティングデバイス102はまた、1または複数の周辺デバイス230を含み得る。周辺デバイス230は、例えば、様々な入出力デバイスなどの、ウェアラブルコンピュータに一般的に見られる任意のタイプの周辺デバイスを含み得る。例えば、周辺デバイス230は、表示回路、様々な入力ボタンおよびスイッチ、スピーカ、マイクおよび/または他の周辺デバイスを含み得る。
図1に戻り参照すると、ローカルコンピューティングデバイス104は、上記に述べられるように、通信リンク110を通じてウェアラブルコンピューティングデバイス102と通信するように構成される。例えば、ローカルコンピューティングデバイス104のユーザは、外部表示面242上に表示するための画像をアップロードし得る。ローカルコンピューティングデバイス104は、ウェアラブルコンピューティングデバイス102と通信し、本明細書に説明される機能を実行することが可能な任意のタイプのコンピューティングデバイスとして具現化され得る。例えば、ローカルコンピューティングデバイス104は、スマートフォン、タブレットコンピュータ、ラップトップコンピュータ、ノートブック、デスクトップコンピュータ、サーバ、分散コンピューティングシステム、マルチプロセッサシステム、マルチコンピュータシステムおよび/または他のコンピューティングデバイスとして具現化され得る。そのため、ローカルコンピューティングデバイス104は、コンピューティングデバイスにおいて一般的に見られるコンポーネントを含み得る。例えば、ローカルコンピューティングデバイス104は、1または複数のプロセッサ、メモリ、I/Oサブシステムおよび通信回路を含み得る。ローカルコンピューティングデバイス104のそれらのコンポーネントは、ウェアラブルコンピューティングデバイス102の対応するコンポーネントと同様であり得、それの説明は、ローカルコンピューティングデバイス104のコンポーネントに等しく適用可能であり、説明を明確にするために本明細書に繰り返されない。単一のローカルコンピューティングデバイス104が図1に示されているが、システム100は、他の実施形態において追加のローカルコンピューティングデバイス104を含み得ることが、理解されるべきである。
リモートサーバ106はまた、上記に述べられるようにネットワーク108を通じてウェアラブルコンピューティングデバイス102と通信するように構成される。例えば、リモートサーバ106は、ウェアラブルコンピューティングデバイスから利用データを受信し得、そのことは、ウェアラブルコンピューティングデバイス102の経時的なユーザの利用を示し得る。さらに、リモートサーバ106は、更新された処方データを送信し得、それは、ウェアラブルコンピューティングデバイス102の調整可能レンズ220の様々な訓練または制御パターンを規定し得る。リモートサーバ106は、ウェアラブルコンピューティングデバイス102と通信し、本明細書に説明される機能を実行することが可能な任意のタイプのコンピューティングデバイスとして具現化され得る。例えば、リモートサーバ106は、サーバ、ラックマウント型サーバ、ブレードサーバ、ネットワーク機器、ウェブ機器、分散コンピューティングシステム、プロセッサベースシステム、モバイルコンピューティングデバイス、スマートフォン、タブレットコンピュータ、コンピュータ、ラップトップコンピュータ、デスクトップコンピュータ、マルチプロセッサシステムおよび/または民生用電子デバイスとして具現化され得る。そのため、リモートサーバ106は、コンピューティングデバイスにおいて一般的に見られるコンポーネントを含み得る。例えば、リモートサーバ106は、1または複数のプロセッサ、メモリ、I/Oサブシステムおよび通信回路を含み得る。リモートサーバ106のそれらのコンポーネントは、ウェアラブルコンピューティングデバイス102の対応するコンポーネントと同様であり得、それの説明は、リモートサーバ106のコンポーネントに等しく適用可能であり、説明を明確にするために本明細書に繰り返されない。単一のリモートサーバ106が図1に示されているが、システム100は、他の実施形態において追加のリモートサーバ106を含み得ることが、理解されるべきである。
ネットワーク108は、ウェアラブルコンピューティングデバイス102とリモートサーバ106との間の通信を容易にするのを可能にする任意のタイプの通信ネットワークとして具現化され得る。そのため、ネットワーク108は、1または複数のネットワーク、ルータ、スイッチ、コンピュータおよび/または他の介在デバイスを含み得る。例えば、ネットワーク108は、1または複数のローカルまたはワイドエリアネットワーク、セルラネットワーク、公共の利用可能なグローバルネットワーク(例えば、インターネット)、アドホックネットワーク、短距離通信ネットワークまたはリンク、あるいはそれらの任意の組み合わせとして具現化され得る、あるいはそれらを含み得る。
ここで、図3を参照すると、使用中に、ウェアラブルコンピューティングデバイス102は環境300を確立する。例示的な環境300は、画像判断モジュール302、レンズ制御モジュール304、アイトラッキングモジュール306および状況判断モジュール308を含む。環境300のモジュールおよび他のコンポーネントの各々は、ファームウェア、ソフトウェア、ハードウェア、または、それらの組み合わせとして具現化され得る。例えば、環境300の様々なモジュール、ロジックおよび他のコンポーネントは、ウェアラブルコンピューティングデバイス102のプロセッサ210、I/Oサブシステム212、SoCまたは他のハードウェアコンポーネントの一部を構成し得、あるいはそれらにより確立され得る。そのため、いくつかの実施形態において、環境300のモジュールの任意の1または複数は、電気デバイスの回路または集合(例えば、画像判断回路、レンズ制御回路、アイトラッキング回路、状況判断回路など)として具現化され得る。
ウェアラブルコンピューティングデバイス102が、調整可能レンズ220の外部表示面242上に画像を表示するように構成されるそれらの実施形態において、画像判断モジュール302は、表示されるべき画像を判断するように構成される。それを行うべく、画像判断モジュール302は、画像をランダムに、またはユーザによる選択に基づき選択し得る。いくつかの実施形態において、画像判断モジュール302は、画像データベース350から画像を取得し得、それは、ウェアラブルコンピューティングデバイス102のデータストレージ226に格納され得る。他の実施形態において、画像判断モジュール302は、通信リンク110を介してローカルコンピューティングデバイス104から、表示されるべき画像を受信し得る。さらに他の実施形態において、ローカルコンピューティングデバイス104のユーザは、外部表示面242上の表示のために画像データベース350から1または複数の画像を選択すべく画像判断モジュール302とインタラクトし得る。さらに、いくつかの実施形態において、ユーザは、ウェアラブルコンピューティングデバイス102により表示されるべき複数の画像の表示ローテーションを定義し得る。
レンズ制御モジュール304は、調整可能レンズ220の動作を制御するように構成される。それを行うべく、レンズ制御モジュール304は、表示モジュール310および目視ポート制御モジュール312を含む。表示モジュール310は、画像の表示を容易にするそれらの実施形態において、調整可能レンズ220の外部表示面242上の画像の表示を制御するように構成される。上記に述べられるように、表示モジュール310は、ユーザ選択に基づき、単一の選択画像を表示し得、または画像ローテーションを表示し得る。
目視ポート制御モジュール312は、目視ポート900を生成すべく、調整可能レンズ220の不透明度コントロール240を制御するように構成される。例えば、目視ポート制御モジュール312は、目視ポート900の場所、ならびに目視ポート900のサイズおよび/または形状を制御し得る。それを行うべく、目視ポート制御モジュール312は、所望の場所において、所望のサイズおよび形状で目視ポートを画定すべく、調整可能レンズ220の不透明度を調整するように構成され得る。例えば、調整可能レンズ220が「通常は透明」である実施形態において、目視ポート制御モジュール312は、目視ポートが実質的に透明であるように目視ポートの不透明度を低くしたまま、目視ポート900により画定される領域外の調整可能レンズ220の領域の不透明度を増大し得る。代替的に、調整可能レンズ220が「通常は不透明」である実施形態において、目視ポート制御モジュール312は、調整可能レンズ220の残りの領域を不透明にしたまま、目視ポート900の不透明度を減少するように構成され得る。
目視ポート制御モジュール312は、様々な基準に基づき目視ポート900を調整、修正あるいは制御するように構成され得る。例えば、いくつかの実施形態において、目視ポート制御モジュール312は、処方データ352に基づき目視ポート900を制御し得、処方データ352は、データストレージ226に格納され得る。上記に述べられるように、処方データは、例えば、目視ポート900の態様、例えば、目視ポート900のサイズ、形状および/または場所、および/または(例えば、実行されるべき訓練に従って目視ポート900を移動または修正することにより)ユーザにより実行されるべき訓練の態様を規定し得る。さらに、または代替的に、いくつかの実施形態において、目視ポート制御モジュール312は、アイトラッキングモジュール306により判断されるユーザの目の動き、および/または状況判断モジュール308により判断されるユーザの目視状況に基づき目視ポート900を適応制御し得る。
アイトラッキングモジュール306は、ユーザの目の動きまたは注視を示すアイトラッキングデータを生成するように構成される。それを行うべく、アイトラッキングモジュールは、アイトラッキングセンサ222により生成されるアイトラッキングセンサデータに基づき、ユーザの目の注視方向を判断するように構成される注視判断モジュール320を含み得る。注視方向は、ユーザの対応する目が現在見ている方向を示す。同様に、フォーカスの度合い判断モジュール322は、アイトラッキングセンサ222により生成されるアイトラッキングセンサデータに基づき、ユーザの対応する目のフォーカス量を判断するように構成される。例えば、フォーカスの度合い判断モジュール322は、対応する目の虹彩のサイズに基づき、フォーカス量を判断し得る。フォーカスの度合いは、特定の実装例に応じて絶対値または相対値として具現化され得ることが、理解されるべきである。とにかく、アイトラッキングモジュール306は、レンズ制御モジュール304に注視方向データおよびフォーカスの度合いのデータを提供するように構成され、それにより、それに基づき調整可能レンズ220を制御(すなわち、目視ポート900を制御)し得る。
状況判断モジュール308は、外部に面するカメラ224により生成される1または複数の画像に基づきユーザの目視状況を判断するように構成される。それを行うべく、状況判断モジュール308は、生成される画像を分析する任意の好適な画像分析アルゴリズムを利用し得、それに基づきユーザの環境の状況を判断し得る。例えば、いくつかの実施形態において、状況判断モジュール308は、取り込まれる画像において物体を特定し、物体の識別情報に基づきユーザの状況を判断すべく、物体の検出または識別アルゴリズムを利用し得る。いくつかの実施形態において、状況判断モジュール308は、ユーザにより現在実行中のアクティビティを判断し得る。例えば、状況判断モジュール308は、外部に面するカメラ224により生成される画像から本を特定したことに基づき、ユーザは現在本を読んでいると判断し得る。状況判断モジュール308は、レンズ制御モジュール304にユーザの目視状況を示す状況データを提供するように構成され、それにより調整可能レンズ220をそれに基づき制御し得る(すなわち、目視ポート900を制御し得る)。
ここで、図4を参照すると、使用中に、ウェアラブルコンピューティングデバイス102は、調整可能レンズ220の外部表示面242上に画像を表示するための方法400を実行し得る。方法400は、ウェアラブルコンピューティングデバイス102が外部画像を表示するかどうかを判断するブロック402から開始する。上記に述べられるように、ウェアラブルコンピューティングデバイス102は、独立型の処理として、または図5−図7に関して以下に述べられるように目視ポート900の使用と併せて、調整可能レンズ220の外部表示面242上に画像を表示し得る。とにかく、ウェアラブルコンピューティングデバイス102が、画像が調整可能レンズ220上に表示されるべきであると判断した場合、方法400は、ウェアラブルコンピューティングデバイス102が、表示されるべき画像がデータストレージ226にローカルに格納されるか、またはローカルコンピューティングデバイス104から受信されるべきであるかを判断するブロック404に進む。表示されるべき画像がすでにローカルデータストレージ226に格納された場合、方法400は、ウェアラブルコンピューティングデバイス102がどの格納画像を表示すべきかを判断するブロック406に進む。いくつかの実施形態において、ウェアラブルコンピューティングデバイス102のユーザは、表示されるべき画像を(例えば、ウェアラブルコンピューティングデバイス102の好適な入力デバイスの起動によって)選択し得る。他の実施形態において、ローカルコンピューティングデバイス104のユーザは、表示のための格納画像を選択すべくウェアラブルコンピューティングデバイス102と通信し得る。さらに、または代替的に、ウェアラブルコンピューティングデバイス102は、データストレージ226に格納されるそれらの画像から表示されるべき画像をランダムに選択し得、またはなんらかの選択アルゴリズムに基づき(例えば、最近選択された画像、画像の新しさなどに基づき)画像を選択し得る。とにかく、ブロック408において、ウェアラブルコンピューティングデバイス102は、ローカルデータストレージ226から選択または判断された画像を取得する。方法400は続いて、ブロック414に進み、それは以下に述べられる。
ブロック404に戻り参照すると、ウェアラブルコンピューティングデバイス102は、表示されるべき画像が、ローカルコンピューティングデバイス104から受信されるべきであることを判断した場合、方法400は、ブロック410に進む。ブロック410で、ウェアラブルコンピューティングデバイス102は、ローカルコンピューティングデバイス104との通信リンク110を確立し、続いて、ブロック412で、ローカルコンピューティングデバイス104から表示されるべき画像を受信する。
調整可能レンズ220の外部表示面242上に表示されるべき画像が、ブロック408でローカルデータストレージ226から取得された、またはブロック412でローカルコンピューティングデバイス104から受信された後に、方法400はブロック414に進む。ブロック414で、ウェアラブルコンピューティングデバイス102が複数の調整可能レンズ220を含む実施形態において、ウェアラブルコンピューティングデバイス102は、どの調整可能レンズ220が画像を表示すべきかを判断する。画像を表示すべき調整可能レンズ220の選択は、処方データ352に基づき(例えば、「悪い目」および/または「良い目」の識別情報に基づき)得、または他の基準に基づき得る。例えば、いくつかの実施形態において、画像は、ユーザの「良い目」に対応する調整可能レンズ220上に表示され得る。そのような実施形態において、他の調整可能レンズ220は、ユーザの「悪い目」を訓練すべく目視ポート900を制御し得る(例えば、図5の方法500を参照)。もちろん、調整可能レンズ220の選択は、必要に応じて切り替え、または修正され得る。
所望の調整可能レンズ220が、一度ブロック414で判断されたならば、方法400は、選択された調整可能レンズ220の外部表示面242上に画像が表示されるブロック416に進む。表示される画像は、外部表示面242上に表示されることが可能な任意のタイプの画像として具現化され得る。例えば、図8の例示的な実施形態において、漫画のキャラクタの画像800は、ユーザの左の調整可能レンズ220の外部表示面242上に表示される。いくつかの実施形態において、外部表示面242は、実質的に不透明であり得、画像は、調整可能レンズ220の不透明度の調整なく外部表示面242に表示され得る。他の実施形態において、外部表示面242は、不透明でなくてよく、調整可能レンズ220の不透明度は、外部表示面242上の画像の表示を容易にすべくブロック418で調整され得る。例えば、調整可能レンズ220の不透明度は、外部表示面242上に画像をより良く表示すべく上昇され得る。
画像が調整可能レンズ220の外部表示面242上に表示された後、方法400はブロック420に進む。ブロック420で、ウェアラブルコンピューティングデバイス102は、画像を表示し続けるかどうかを判断する。例えば、ウェアラブルコンピューティングデバイス102は、一定期間の間またはなんらかの基準イベントが発生する(例えば、ウェアラブルコンピューティングデバイス102のパワーダウン)まで画像を表示するように構成され得る。その場合、方法400は、ウェアラブルコンピューティングデバイス102が画像を表示し続けるブロック416にループバックする。しかしながら、ウェアラブルコンピューティングデバイス102が画像の表示を続けないと判断した場合、方法400はブロック422に進む。ブロック422で、ウェアラブルコンピューティングデバイス102は、調整可能レンズ220の外部表示面242上に新たな画像を表示するかどうかを判断する。その場合、方法400は、ウェアラブルコンピューティングデバイス102が、新たな画像が、ローカルデータストレージ226に格納されるか、またはローカルコンピューティングデバイス104から受信されるべきかを判断するブロック404にループバックする。
ブロック422に戻り参照すると、ウェアラブルコンピューティングデバイス102は、新たな画像が表示されるべきではないと判断した場合、方法400は、画像が調整可能レンズ220の外部表示面242から除去されるブロック424に進む。さらに、いくつかの実施形態において、ウェアラブルコンピューティングデバイスは、調整可能レンズ220の不透明度を調整して、例えば、透明または不透明設定等の基準設定に戻す。
ここで、図5を参照すると、使用中、ウェアラブルコンピューティングデバイス102はまた、調整可能レンズ220を適応制御するための方法500を実行し得る。方法500は、ウェアラブルコンピューティングデバイス102が調整可能レンズ220の目視ポート900を制御するかどうかを判断するブロック502から開始する。その場合、方法500は、ウェアラブルコンピューティングデバイス102が目視ポート900のために最初の設定を判断するブロック504に進む。例えば、ブロック506で、ウェアラブルコンピューティングデバイス102は、どの調整可能レンズ220が目視ポート900を有するべきかを判断し得る。上記に述べられるように、どの調整可能レンズ220が目視ポート900を有するべきかの選択は、処方データ352に基づき(例えば、「悪い目」および/または「良い目」の識別情報に基づき)得、または他の基準に基づき得る。例えば、いくつかの実施形態において、目視ポート900は、目の訓練および治療を容易にすべく、ユーザの「悪い目」に対応する調整可能レンズ220上に生成される。
ブロック508で、ウェアラブルコンピューティングデバイス102は、目視ポート900の初期の場所、サイズおよび/または形状を判断する。目視ポート900の初期の場所、サイズおよび/または形状は、基準または予め規定された設定により定義され得、ウェアラブルコンピューティングデバイス102のユーザにより設定され得(例えば、ウェアラブルコンピューティングデバイス102の好適な入力デバイスの起動によって)、および/またはデータストレージに格納される、もしくはブロック510でリモートサーバ106から受信される処方データ352に基づき判断され得る。
目視ポート900の初期の設定がブロック504で判断された後、ウェアラブルコンピューティングデバイス102は、ブロック512で目視ポート900を画定すべく、対応する調整可能レンズ220の不透明度を制御する。それを行うべく、ウェアラブルコンピューティングデバイス102は、必要に応じて調整可能レンズ220の不透明度を調整すべく不透明度コントロール240を制御し得る。例えば、いくつかの実施形態において、ブロック514で、ウェアラブルコンピューティングデバイス102は、目視ポート900を画定するその領域を除いて、調整可能レンズ220の不透明度を最も不透明な設定に設定し得る。すなわち、図9に示されるように、目視ポート900は、特定の実装例に応じて、目視ポート900外の調整可能レンズ220の領域の不透明度を上昇することにより、または目視ポート900を画定する領域の不透明度を低下させることにより、対応する調整可能レンズ220において確立され得る。図9の例示的な実施形態において、目視ポート900は円形を有するが、他の実施形態において、他の形状およびサイズを有し、他の場所に配置され得る。さらに、図9の例示的な実施形態は、ユーザの左の調整可能レンズ220に確立される目視ポート900を示すが、目視ポート900は、上記に述べられる他の実施形態においてユーザの右の調整可能レンズ220に確立され得る。
目視ポート900が対応する調整可能レンズ220に確立された後、方法500は、ブロック516および518に進み、それらは図5に示されるように互いに並列に、または他の実施形態において連続的に実行され得る。ブロック516で、ウェアラブルコンピューティングデバイス102は、ウェアラブルコンピューティングデバイス102のユーザ利用に基づき利用データを生成する。例えば、ウェアラブルコンピューティングデバイス102は、経時的なユーザのフォーカスの度合いまたは焦点を監視し得る。そのような監視は、例えば、以下に述べられるようにウェアラブルコンピューティングデバイス102によって行われる処方された訓練中に生じ得る。さらに、ブロック522で、ウェアラブルコンピューティングデバイス102は、経時的なユーザの利用パターンを監視し得る。例えば、ウェアラブルコンピューティングデバイス102は、ユーザがウェアラブルコンピューティングデバイス102を着用した時刻、および/またはその継続時間、完了した具体的な訓練、および/またはウェアラブルコンピューティングデバイス102のユーザの利用を示す他のデータを判断し得る。そのような利用データは、治療に対するユーザの経過を示し得ることが理解されるべきである。そのため、ブロック524で、ウェアラブルコンピューティングデバイスは、リモートサーバ106に利用データを送信する。いくつかの実施形態において、ウェアラブルコンピューティングデバイス102は、利用データに基づきリモートサーバ106からウェアラブルコンピューティングデバイス102の動作に影響を及ぼす更新された処方、訓練または他のデータを受信し得る。例えば、医療提供者は、利用データを分析し得、ウェアラブルコンピューティングデバイス102の以前の処方、訓練セットまたは他の動作を修正し得、ブロック526で、ウェアラブルコンピューティングデバイス102に更新された処方または他のデータを送信し得る。とにかく、利用データがブロック524でリモートサーバ106に送信され、および/または更新された処方または他のデータがブロック526で受信された後、方法500は、ブロック516および518にループバックする。
ブロック518で、ウェアラブルコンピューティングデバイス102は、目視ポート900を適応制御する。それを行うべく、ウェアラブルコンピューティングデバイス102は、これらに限定されないが、目視ポート900の調整可能レンズ220上の場所、目視ポート900のサイズおよび/または目視ポート900の形状を含む目視ポート900のあらゆる態様を制御し得る。さらに、ウェアラブルコンピューティングデバイス102は、任意の好適な基準に基づき目視ポート900を制御し得る。例えば、ブロック528におけるいくつかの実施形態において、ウェアラブルコンピューティングデバイス102は、ローカルデータストレージ226に格納される処方データに基づき、ブロック526で受信される更新された処方データに基づき、および/または別の予め規定されたスケジュールに従って、目視ポート900を制御し得る。すなわち、ウェアラブルコンピューティングデバイス102は、例えば、ウェアラブルコンピューティングデバイス102のユーザにより完了されるべき訓練セット(例えば、目視ポート900が移動するにつれて、視覚的に目視ポート900を追いかけることをユーザに要求する訓練)を規定し得る処方データに基づき目視ポート900のあらゆる態様を調整または修正し得る。さらに、または代替的に、ブロック530におけるいくつかの実施形態において、ウェアラブルコンピューティングデバイス102は、ブロック516で判断される利用データに基づき目視ポート900を制御し得る。すなわち、ウェアラブルコンピューティングデバイス102は、ユーザが現在ウェアラブルコンピューティングデバイス102をどのように使用しているかに基づき(例えば、使用の長さ、ユーザの周期性などに基づき)目視ポートのあらゆる態様を調整または修正し得る。
いくつかの実施形態において、ブロック532で、ウェアラブルコンピューティングデバイス102は、ユーザの眼球運動に基づき、さらに、または代替的に目視ポート900を制御し得る。それを行うべく、ウェアラブルコンピューティングデバイス102は、図6に示されるように、方法600を実行し得る。方法600は、ウェアラブルコンピューティングデバイス102がユーザの対応する眼球の運動を追跡するブロック602から開始する。それを行うべく、ウェアラブルコンピューティングデバイス102は、アイトラッキングセンサ222からアイトラッキングセンサデータを受信し得る。ブロック606で、ウェアラブルコンピューティングデバイス102は、アイトラッキングセンサデータに基づきユーザの対応する目の注視方向を判断する。すなわち、ウェアラブルコンピューティングデバイス102は、ユーザの対応する目が現在どこを見ているかを判断する。ユーザの注視の方向は、任意の好都合な座標系または表示方法を用いて説明され得る。例えば、注視方向は、球状座標系(すなわち、(θ, φ))においてアジマス角および極角として具現化され得る。別の例として、注視方向は、基準面上に投影される注視方向に対応する2次元座標として具現化され得る。さらに、注視方向は、アイトラッキングセンサデータが、高頻度の眼球運動を取り除くべく、アイトラッキングセンサ222またはウェアラブルコンピューティングデバイス102によりフィルタされた後に判断され得る。人間の眼球運動は、サッケードと呼ばれる急速な運動によりリンクされる固定と呼ばれる短い休止により特徴付けられるので、ウェアラブルコンピューティングデバイス102の精度および/または有用性は、そのようなフィルタリングによって改善され得る。
いくつかの実施形態において、ウェアラブルコンピューティングデバイス102はまた、ブロック608におけるアイトラッキングセンサデータに基づき、対応するユーザの目のフォーカスの度合い、または焦点を判断し得る。上記に述べられるように、フォーカスの度合いは、特定の時点でのユーザの目のフォーカス量を示し得、例えば、ユーザの目の虹彩のサイズに基づき判断され得る。代替的に、例えば、アイトラッキングセンサ222が3次元のアイトラッキングセンサ222として具現化される実施形態などの他の実施形態において、ユーザの目の焦点は、3次元のアイトラッキングデータに基づき判断され得る。すなわち、上記に説明されるように、3次元のアイトラッキングデータは、ユーザの目がフォーカスされた距離を示すデータを含み得る。
続いて、ブロック610で、ウェアラブルコンピューティングデバイス102は、判断されたユーザの眼球運動データに基づき(例えば、ユーザの注視方向および/またはフォーカスの度合いに基づき)目視ポート900を更新または調整するかどうかを判断する。例えば、いくつかの実施形態において、ウェアラブルコンピューティングデバイス102は、眼球運動データにしきい値を適用し得、そのようなしきい値外の乖離に応答して、目視ポート900を調整するだけであり得る。この手法でのしきい値の使用により、最小限の眼球運動に応答して目視ポート900の所望されない調整を低減し得ることが理解されるべきである。
ウェアラブルコンピューティングデバイス102が目視ポート900を更新しないと判断した場合、方法600は、ウェアラブルコンピューティングデバイスがユーザの眼球運動を追跡し続けるブロック602にループバックする。代替的に、ウェアラブルコンピューティングデバイス102が、目視ポート900が更新または修正されるべきかを判断する場合、方法600は、ブロック612に進む。ブロック612で、ウェアラブルコンピューティングデバイス102は、ユーザの眼球運動に基づき目視ポートを更新する。それを行うべく、ブロック614で、ウェアラブルコンピューティングデバイス102は、ユーザの対応する目の注視方向に基づき目視ポート900を更新または修正し得る。例えば、ユーザが異なる方向を見る場合、ウェアラブルコンピューティングデバイス102は、ユーザの対応する目の新たな注視方向に基づき目視ポート900の場所を調整し得る。さらに、いくつかの実施形態において、ブロック618で、ウェアラブルコンピューティングデバイス102は、ユーザの対応する目のフォーカスの度合いまたは焦点に基づき目視ポート900を更新または修正し得る。例えば、ウェアラブルコンピューティングデバイス102は、ユーザが近くの物体に焦点を合わせている(例えば、本を読んでいる)と判断した場合、ウェアラブルコンピューティングデバイス102は、ユーザの対応する目を近くの物体に焦点を合わせるのに役立つべく目視ポート900のサイズを減少し得る。
ウェアラブルコンピューティングデバイス102は、ブロック612で目視ポート900のあらゆる態様を更新または修正し得ることが理解されるべきである。例えば、ウェアラブルコンピューティングデバイス102は、ブロック618で目視ポート900の場所を、ブロック620で目視ポート900のサイズを、および/またはブロック622で目視ポート900の形状を更新または修正し得る。図10の例示的な実施形態において、例えば、ウェアラブルコンピューティングデバイス102は、図9に示される初期の場所に関連する目視ポート900の場所を更新している。さらに、上記に述べられるように、ウェアラブルコンピューティングデバイス102は、図11に示されるように、調整可能レンズ220のどちらか、または調整可能レンズ220の両方において目視ポート900を確立および制御し得る。そのような実施形態において、調整可能レンズ220の目視ポート900は、ユーザの眼障害および/またはウェアラブルコンピューティングデバイス102の意図されるユーザに応じて同期的または非同期的に制御され得る。とにかく、ウェアラブルコンピューティングデバイス102は、図6のブロック612で目視ポートを更新した後、方法600は、ウェアラブルコンピューティングデバイス102がユーザの眼球運動を追跡し続けるブロック602にループバックする。
図5に戻り参照すると、いくつかの実施形態において、ウェアラブルコンピューティングデバイス102は、ブロック534でユーザの目視状況に基づき目視ポート900をさらに、または代替的に制御し得る。それを行うべく、ウェアラブルコンピューティングデバイス102は、図7に示されるように方法700を実行し得る。方法700は、ウェアラブルコンピューティングデバイス102がローカル外部環境の画像を生成するブロック702から開始する。それを行うべく、ウェアラブルコンピューティングデバイス102は、ブロック704で画像を生成すべく外部に面するカメラ224を制御し得る。ローカル外部環境の画像は、任意のタイプの画像および/または画像の集合(例えば、ビデオ)として具現化され得る。例えば、いくつかの実施形態において、外部に面するカメラ224により生成される画像は、3次元画像として具現化され得、関連付けられる深度データを含み得る。
続いて、ブロック706で、ウェアラブルコンピューティングデバイス102は、ブロック702で生成または取り込まれる画像に基づきユーザの目視状況を判断し得る。それを行うべく、ウェアラブルコンピューティングデバイス102は、任意の好適な画像分析アルゴリズムまたは技術を利用し得る。例えば、いくつかの実施形態において、ウェアラブルコンピューティングデバイス102は、生成される画像において物体を識別し、物体の識別情報に基づきユーザの状況を判断すべく、物体の検出または識別アルゴリズムを利用し得る。いくつかの実施形態において、ウェアラブルコンピューティングデバイス102は、ユーザがブロック708で生成される画像に基づき現在関わっているアクティビティを判断し得る。例えば、ウェアラブルコンピューティングデバイス102は、ユーザが現在本を見ていることを判断した場合、ウェアラブルコンピューティングデバイス102は、ユーザがブロック708で読んでいることを判断し得る。
ブロック710で、ウェアラブルコンピューティングデバイス102は、ユーザの目視状況に基づき目視ポート900を更新または調整するかどうかを判断する。例えば、ウェアラブルコンピューティングデバイス102は、特定の予め規定された目視状況(例えば、ユーザが車を運転している、ユーザが本を読んでいるなど)の特定に応答してのみ、目視ポート900を調整または修正するように構成され得る。ウェアラブルコンピューティングデバイス102が目視ポート900を更新しないように判断した場合、方法700は、ウェアラブルコンピューティングデバイス102が外部環境の画像を生成し続けるブロック702にループバックする。しかしながら、ウェアラブルコンピューティングデバイス102が、目視ポート900が更新されるべきではないと判断した場合、方法700は、ウェアラブルコンピューティングデバイス102がユーザの判断された目視状況に基づき目視ポート900を更新または修正するブロック712に進む。ウェアラブルコンピューティングデバイス102は、ブロック712で目視ポート900のあらゆる態様を更新または修正し得る。例えば、ウェアラブルコンピューティングデバイス102は、ブロック714で目視ポート900の場所、ブロック716で目視ポート900のサイズ、および/またはブロック718で目視ポート900の形状を更新または修正し得る。とにかく、目視ポート900がブロック712で更新または修正された後、方法700は、ウェアラブルコンピューティングデバイス102が外部環境の画像を生成し続けるブロック702にループバックする。
[例]
本明細書において開示された技術の例示的な例を以下で提供する。技術の実施形態は、以下に説明される例の任意の1または複数、および、任意の組み合わせを含んでよい。
例1は、視力矯正を制御するウェアラブルコンピューティングデバイスを含み、ウェアラブルコンピューティングデバイスは、
各々の調整可能レンズが電子的に調整可能である不透明度を有する1または複数の調整可能レンズと、
ユーザの目のアイトラッキングセンサデータを生成する1または複数のアイトラッキングセンサと、
アイトラッキングセンサデータに基づきユーザの目の注視方向を判断するアイトラッキングモジュールと、
(i)1または複数の調整可能レンズのうちの調整可能レンズを通る目視ポートを生成すべく調整可能レンズの不透明度を制御し、
(ii)ユーザの目の注視方向に基づき目視ポートを調整するレンズ制御モジュールと
を備え、
目視ポートにより画定される領域が、調整可能レンズの残りの領域より低い不透明度を有する。
例2は、例1の主題を含み、レンズ制御モジュールは、リモートサーバから受信される処方に基づき目視ポートを生成すべく調整可能レンズの不透明度を制御する。
例3は、例1および例2のいずれかの主題を含み、レンズ制御モジュールは、調整可能レンズの不透明度を制御することは、
目視ポートの初期の場所、初期のサイズまたは初期の形状のうちの少なくとも1つを判断することと、
初期の場所における初期のサイズを有する、または初期の形状を有する、目視ポートを生成すべく調整可能レンズの不透明度を制御することと
を含む。
例4は、例1から例3のいずれかの主題を含み、1または複数のアイトラッキングセンサは、ユーザの2つの目の各々の注視方向を示すアイトラッキングセンサデータを生成する。
例5は、例1から例4のいずれかの主題を含み、目視ポートを調整することは、経過時間に基づき目視ポートを調整することを含む。
例6は、例1から例5のいずれかの主題を含み、目視ポートを調整することは、目視ポートの場所、サイズまたは形状のうちの少なくとも1つを調整することを含む。
例7は、例1から例6のいずれかの主題を含み、アイトラッキングモジュールはさらに、アイトラッキングセンサデータに基づきユーザの目のフォーカスの度合いを判断し、フォーカスの度合いは、ユーザの目によって示されるフォーカス量を示し、レンズ制御モジュールは、ユーザの注視方向およびフォーカスの度合いに基づき目視ポートを調整する。
例8は、例1から例7のいずれかの主題を含み、ウェアラブルコンピューティングデバイスの外部環境の画像を生成するカメラと、
外部環境の画像に基づきユーザの目視状況を判断する状況判断モジュールと
をさらに含み、
目視ポートを調整することは、ユーザの注視方向およびユーザの目視状況に基づき目視ポートを調整すること含む。
例9は、例1から例8のいずれかの主題を含み、ユーザの目視状況を判断することは、ユーザにより実行される現在のアクティビティを判断すること
を含む。
例10は、例1から例9のいずれかの主題を含み、アイトラッキングモジュールはさらに、ある期間にわたるウェアラブルコンピューティングデバイスのユーザの利用を示す利用データを生成する。
例11は、例1から例10のいずれかの主題を含み、利用データを生成することは、期間にわたるユーザの目の注視方向を示す注視データを生成することを含む。
例12は、例1から例11のいずれかの主題を含み、利用データを生成することは、アイトラッキングセンサデータに基づきユーザの目のフォーカスの度合いを判断することと、期間にわたるユーザの目のフォーカスの度合いを示す焦点データを生成することとを含み、フォーカスの度合いは、ユーザの目により示されるフォーカス量を示す。
例13は、例1から例12のいずれかの主題を含み、レンズ制御モジュールはさらに、リモートサーバに利用データを送信し、利用データに基づきリモートサーバから更新された処方を受信し、目視ポートを調整することは、更新された処方に基づき目視ポートを調整することを含む。
例14は、例1から例13のいずれかの主題を含み、目視ポートを調整することは、利用データに基づき目視ポートを調整することを含む。
例15は、例1から例14のいずれかの主題を含み、レンズ制御モジュールはさらに、調整可能レンズの外部表示面上に画像を表示する。
例16は、例1から例15のいずれかの主題を含み、さらにデータストレージを含み、画像は、データストレージに格納され、レンズ制御モジュールはさらに、データストレージから画像を取得する。
例17は、例1から例16のいずれかの主題を含み、レンズ制御モジュールは、ローカルコンピューティングデバイスとの通信リンクを確立し、
通信リンクを介してローカルコンピューティングデバイスから画像を受信する。
例18は、例1から例17のいずれかの主題を含み、画像を表示することは、基準期間の間、画像を表示することを含む。
例19は、例1から例18のいずれかの主題を含み、レンズ制御モジュールはさらに、調整可能レンズの外部表示面上に新たな画像を表示するかどうかを判断し、新たな画像を表示すべく、判断に応答して調整可能レンズの外部表示面上に異なる画像を表示する。
例20は、例1から例19のいずれかの主題を含み、画像を表示することは、目視ポートなく、調整可能レンズ上に画像を表示することを含む。
例21は、視力矯正を制御するウェアラブルコンピューティングデバイスを含み、ウェアラブルコンピューティングデバイスは、
各々の調整可能レンズが、電子的に調整可能である不透明度を有し、外部表示面を含む1または複数の調整可能レンズと、
1または複数の調整可能レンズの調整可能レンズの外部表示面上に表示するための画像を判断する画像判断モジュールと、
調整可能レンズの不透明度を制御し、調整可能レンズの外部表示面上に画像を表示するレンズ制御モジュールと
を含む。
例22は、例21の主題を含み、データストレージをさらに含み、画像は、データストレージに格納され、レンズ制御モジュールはさらに、データストレージから画像を取得する。
例23は、例21および例22のいずれかの主題を含み、レンズ制御モジュールは、ローカルコンピューティングデバイスとの通信リンクを確立し、
通信リンクを介してローカルコンピューティングデバイスから画像を受信する。
例24は、例21から例23のいずれかの主題を含み、画像を表示することは、基準期間の間、画像を表示することを含む。
例25は、例21から例24のいずれかの主題を含み、レンズ制御モジュールはさらに、調整可能レンズの外部表示面上に新たな画像を表示するかどうかを判断し、新たな画像を表示すべく、判断に応答して調整可能レンズの外部表示面上に異なる画像を表示する。
例26は、ウェアラブルコンピューティングデバイスの視力矯正を制御するための方法であって、方法は、
ウェアラブルコンピューティングデバイスが、目視ポートにより画定される領域が、ウェアラブルコンピューティングデバイスの調整可能レンズの残りの領域より低い不透明度を有するように、調整可能レンズを通る目視ポートを生成すべく、調整可能レンズの不透明度を制御する工程と、
ウェアラブルコンピューティングデバイスが、ウェアラブルコンピューティングデバイスのアイトラッキングセンサからアイトラッキングセンサデータを受信する工程と、
ウェアラブルコンピューティングデバイスが、アイトラッキングセンサデータに基づきウェアラブルコンピューティングデバイスのユーザの目の注視方向を判断する工程と、
ウェアラブルコンピューティングデバイスが、ユーザの注視方向に基づき目視ポートを調整する工程と
を含む。
例27は、例26の主題を含み、調整可能レンズの不透明度を制御する工程は、リモートサーバから受信される処方に基づき目視ポートを生成すべく調整可能レンズの不透明度を制御する工程を含む。
例28は、例26および例27のいずれかの主題を含み、調整可能レンズの不透明度を制御する工程は、
目視ポートの初期の場所、初期のサイズまたは初期の形状のうちの少なくとも1つを判断する工程と、
初期の場所における初期のサイズを有する、または初期の形状を有する、目視ポートを生成すべく調整可能レンズの不透明度を制御する工程と
を含む。
例29は、例26から例28のいずれかの主題を含み、アイトラッキングセンサデータを受信する工程は、ユーザの2つの目の各々の注視方向を示すアイトラッキングセンサデータを受信する工程を含む。
例30は、例26から例29のいずれかの主題を含み、目視ポートを調整する工程は、ウェアラブルコンピューティングデバイスが、経過時間に基づき目視ポートを調整する工程を含む。
例31は、例26から例30のいずれかの主題を含み、目視ポートを調整する工程は、目視ポートの場所、サイズまたは形状のうちの少なくとも1つを調整する工程を含む。
例32は、例26から例31のいずれかの主題を含み、ウェアラブルコンピューティングデバイスが、アイトラッキングデータに基づきユーザの目のフォーカスの度合いを判断する工程であって、フォーカスの度合いは、ユーザの目によって示されるフォーカス量を示す、工程をさらに含み、
目視ポートを調整する工程は、ウェアラブルコンピューティングデバイスが、ユーザの注視方向およびフォーカスの度合いに基づき目視ポートを調整する工程を有する。
例33は、例26から例32のいずれかの主題を含み、ウェアラブルコンピューティングデバイスのカメラが、ウェアラブルコンピューティングデバイスの外部環境の画像を生成する工程と、
ウェアラブルコンピューティングデバイスが、外部環境の画像に基づきユーザの目視状況を判断する工程と
をさらに備え、
目視ポートを調整する工程は、ウェアラブルコンピューティングデバイスが、ユーザの注視方向およびユーザの目視状況に基づき目視ポートを調整する工程と
を有する。
例34は、例26から例33のいずれかの主題を含み、ユーザの目視状況を判断する工程は、ユーザにより現在実行されているアクティビティを判断する工程を含む。
例35は、例26から例34のいずれかの主題を含み、ある期間にわたるウェアラブルコンピューティングデバイスが、ウェアラブルコンピューティングデバイスのユーザの利用を示す利用データを生成する工程をさらに含む。
例36は、例26から例35のいずれかの主題を含み、利用データを生成する工程は、ウェアラブルコンピューティングデバイスが、期間にわたるユーザの目の注視方向を示す注視データを生成する工程を含む。
例37、例26から例36のいずれかの主題を含み、利用データを生成する工程は、ウェアラブルコンピューティングデバイスが、アイトラッキングデータに基づきユーザの目のフォーカスの度合いを判断する工程であって、フォーカスの度合いは、ユーザの目により示されるフォーカス量を示す、工程と、
ウェアラブルコンピューティングデバイスが、期間にわたるユーザの目のフォーカスの度合いを示す焦点データを生成する工程と
を含む。
例38は、例26から例37のいずれかの主題を含み、ウェアラブルコンピューティングデバイスが、リモートサーバに利用データを送信する工程と、ウェアラブルコンピューティングデバイスが、利用データに基づきリモートサーバから更新された処方を受信する工程とを含み、目視ポートを調整する工程は、ウェアラブルコンピューティングデバイスが、更新された処方に基づき目視ポートを調整する工程をさらに含む。
例39は、例26から例38のいずれかの主題を含み、目視ポートを調整する工程は、ウェアラブルコンピューティングデバイスが、利用データに基づき目視ポートを調整する工程を含む。
例40は、例26から例39のいずれかの主題を含み、調整可能レンズの外部表示面上に画像を表示する工程をさらに含む。
例41は、例26から例40のいずれかの主題を含み、ウェアラブルコンピューティングデバイスが、ウェアラブルコンピューティングデバイスのローカルデータストレージからの画像を取得する工程をさらに含む。
例42は、例26から例41のいずれかの主題を含み、ウェアラブルコンピューティングデバイスが、ローカルコンピューティングデバイスとの通信リンクを確立する工程と、ウェアラブルコンピューティングデバイスが、通信リンクを介してローカルコンピューティングデバイスから画像を受信する工程とをさらに含む。
例43は、例26ら例42のいずれかの主題を含み、画像を表示する工程は、基準期間の間、画像を表示する工程を含む。
例44は、例26から例43のいずれかの主題を含み、ウェアラブルコンピューティングデバイスが、調整可能レンズの外部表示面上に新たな画像を表示するかどうかを判断する工程と、ウェアラブルコンピューティングデバイスが、新たな画像を表示すべく、判断に応答して調整可能レンズの外部表示面上に異なる画像を表示する工程とをさらに含む。
例45は、例26から例44のいずれかの主題を含み、画像を表示する工程は、目視ポートなく、調整可能レンズ上に画像を表示する工程を含む。
例46は、ウェアラブルコンピューティングデバイスの視力矯正を制御するための方法を有し、方法は、
ウェアラブルコンピューティングデバイスが、ウェアラブルコンピューティングデバイスの調整可能レンズの外部表示面上に表示するための画像を判断する工程と、
ウェアラブルコンピューティングデバイスが、ウェアラブルコンピューティングデバイスのレンズの外部表示面上に画像を表示する工程と
を含み、
画像を表示する工程は、調整可能レンズの不透明度を電子的に制御する工程を含む。
例47は、例46の主題を含み、ウェアラブルコンピューティングデバイスが、ウェアラブルコンピューティングデバイスのローカルデータストレージからの画像を取得する工程をさらに含む。
例48は、例46および例47のいずれかの主題を含み、ウェアラブルコンピューティングデバイスが、ローカルコンピューティングデバイスとの通信リンクを確立する工程と、ウェアラブルコンピューティングデバイスが、通信リンクを介してローカルコンピューティングデバイスから画像を受信する工程とをさらに含む。
例49は、例46から例48のいずれかの主題を含み、画像を表示する工程は、基準期間の間、画像を表示する工程を含む。
例50は、例46から例49のいずれかの主題を含み、ウェアラブルコンピューティングデバイスが、調整可能レンズの外部表示面上に新たな画像を表示するかどうかを判断する工程と、ウェアラブルコンピューティングデバイスが、新たな画像を表示すべく、判断に応答して調整可能レンズの外部表示面上に異なる画像を表示する工程とをさらに含む。
例51は、実行された場合、例26から50のいずれかの方法をウェアラブルコンピューティングデバイスに実行させる複数の命令を格納する1または複数の機械可読ストレージ媒体を含む。
例52は、視力矯正を制御するウェアラブルコンピューティングデバイスを含み、ウェアラブルコンピューティングデバイスは、目視ポートにより画定される領域が、調整可能レンズの残りの領域より低い不透明度を有するように、調整可能レンズを通して目視ポートを生成すべく、ウェアラブルコンピューティングデバイスの調整可能レンズの不透明度を制御するための手段と、
ウェアラブルコンピューティングデバイスのアイトラッキングセンサからのアイトラッキングセンサデータを受信するための手段と、
アイトラッキングセンサデータに基づきウェアラブルコンピューティングデバイスのユーザの目の注視方向を判断するための手段と、
ユーザの注視方向に基づき目視ポートを調整するための手段と
を含む。
例53は、例52の主題を含み、調整可能レンズの不透明度を制御するための手段は、リモートサーバから受信される処方に基づき目視ポートを生成すべく調整可能レンズの不透明度を制御するための手段を含む。
例54は、例52および例53のいずれかの主題を含み、調整可能レンズの不透明度を制御するための手段は、
目視ポートの初期の場所、初期のサイズまたは初期の形状のうちの少なくとも1つを判断するための手段と、
初期の場所における初期のサイズを有する、または初期の形状を有する、目視ポートを生成すべく調整可能レンズの不透明度を制御するための手段と
を含む。
例55は、例52から例54のいずれかの主題を含み、アイトラッキングセンサデータを受信するための手段は、ユーザの2つの目の各々の注視方向を示すアイトラッキングセンサデータを受信するための手段を含む。
例56は、例52から例55のいずれかの主題を含み、目視ポートを調整するための手段は、経過時間に基づき目視ポートを調整するための手段を含む。
例57は、例52から例56のいずれかの主題を含み、目視ポートを調整するための手段は、目視ポートの場所、サイズまたは形状のうちの少なくとも1つを調整するための手段を含む。
例58は、例52から例57のいずれかの主題を含み、アイトラッキングデータに基づきユーザの目のフォーカスの度合いを判断するための手段であって、フォーカスの度合いは、ユーザの目によって示されるフォーカス量を示す、手段をさらに備え、
目視ポートを調整するための手段は、ユーザの注視方向およびフォーカスの度合いに基づき目視ポートを調整するための手段を有する。
例59は、例52から例58のいずれかの主題を含み、
ウェアラブルコンピューティングデバイスの外部環境の画像を生成するための手段と、
外部環境の画像に基づきユーザの目視状況を判断するための手段と
をさらに備え、
目視ポートを調整するための手段は、ユーザの注視方向およびユーザの目視状況に基づき目視ポートを調整するための手段を有する。
例60は、例52から例59のいずれかの主題を含み、ユーザの目視状況を判断するための手段は、ユーザにより現在実行されているアクティビティを判断するための手段を含む。
例61は、例52から例60のいずれかの主題を含み、ある期間にわたるウェアラブルコンピューティングデバイスのユーザの利用を示す利用データを生成するための手段をさらに含む。
例62は、例52から例61のいずれかの主題を含み、利用データを生成するための手段は、期間にわたるユーザの目の注視方向を示す注視データを生成するための手段をさらに含む。
例63は、例52から例62のいずれかの主題を含み、利用データを生成するための手段は、ウェアラブルコンピューティングデバイスが、アイトラッキングデータに基づきユーザの目のフォーカスの度合いを判断するための手段であって、フォーカスの度合いは、ユーザの目により示されるフォーカス量を示す、手段と、
ウェアラブルコンピューティングデバイスが、期間にわたるユーザの目のフォーカスの度合いを示す焦点データを生成するための手段と
を含む。
例64は、例52から例63のいずれかの主題を含み、リモートサーバに利用データを送信するための手段と、利用データに基づきリモートサーバから更新された処方を受信するための手段とを含み、目視ポートを調整するための手段は、更新された処方に基づき目視ポートを調整するための手段をさらに含む。
例65は、例52から例64のいずれかの主題を含み、目視ポートを調整するための手段は、利用データに基づき目視ポートを調整するための手段を含む。
例66は、例52から例65のいずれかの主題を含み、調整可能レンズの外部表示面上に画像を表示するための手段をさらに含む。
例67は、例52から例66のいずれかの主題を含み、ウェアラブルコンピューティングデバイスのローカルデータストレージからの画像を取得するための手段をさらに含む。
例68は、例52から例67のいずれかの主題を含み、ローカルコンピューティングデバイスとの通信リンクを確立するための手段と、ウェアラブルコンピューティングデバイスが、通信リンクを介してローカルコンピューティングデバイスから画像を受信するための手段とをさらに含む。
例69は、例52から例68のいずれかの主題を含み、画像を表示するための手段は、基準期間の間、画像を表示するための手段を含む。
例70は、例52から例69のいずれかの主題を含み、調整可能レンズの外部表示面上に新たな画像を表示するかどうかを判断するための手段と、新たな画像を表示すべく、判断に応答して調整可能レンズの外部表示面上に異なる画像を表示するための手段とをさらに含む。
例71は、例52から例70のいずれかの主題を含み、画像を表示するための手段は、目視ポートなく、調整可能レンズ上に画像を表示するための手段を含む。
例72は、視力矯正を制御するウェアラブルコンピューティングデバイスを含み、ウェアラブルコンピューティングデバイスは、
ウェアラブルコンピューティングデバイスの調整可能レンズの外部表示面上の表示のための画像を判断するための手段と、
ウェアラブルコンピューティングデバイスのレンズの外部表示面上に画像を表示するための手段と
を備え、
画像を表示するための手段は、調整可能レンズの不透明度を電子的に制御するための手段を有する。
例73は、例72の主題を含み、ウェアラブルコンピューティングデバイスのローカルデータストレージからの画像を取得するための手段をさらに含む。
例74は、例72および例73のいずれかの主題を含み、ローカルコンピューティングデバイスとの通信リンクを確立するための手段と、通信リンクを介してローカルコンピューティングデバイスから画像を受信するための手段とをさらに含む。
例75は、例72から例74のいずれかの主題を含み、画像を表示するための手段は、基準期間の間、画像を表示するための手段を含む。
例76は、例72から例75のいずれかの主題を含み、ウェアラブルコンピューティングデバイスが、調整可能レンズの外部表示面上に新たな画像を表示するかどうかを判断するための手段と、ウェアラブルコンピューティングデバイスが、新たな画像を表示すべく、判断に応答して調整可能レンズの外部表示面上に異なる画像を表示するための手段とをさらに含む。

Claims (20)

  1. 視力矯正を制御するウェアラブルコンピューティングデバイスであって、
    各々の調整可能レンズが電子的に調整可能である不透明度を有する1または複数の調整可能レンズと、
    ユーザの目のアイトラッキングセンサデータを生成する1または複数のアイトラッキングセンサと、
    前記アイトラッキングセンサデータに基づき前記ユーザの前記目の注視方向を判断するアイトラッキングモジュールと、
    (i)前記1または複数の調整可能レンズのうちの前記調整可能レンズを通る目視ポートを生成すべく前記1または複数の調整可能レンズのうちの調整可能レンズの不透明度を制御し、
    (ii)前記ユーザの前記目の前記注視方向に基づき前記目視ポートを調整するレンズ制御モジュールと
    を備え、
    前記目視ポートにより画定される領域が、前記調整可能レンズの残りの領域より低い不透明度を有し、
    前記レンズ制御モジュールは、リモートサーバから受信される処方に基づき前記目視ポートを生成すべく前記調整可能レンズの前記不透明度を制御し、前記処方は、前記目視ポートのサイズ、形状、及び/または場所を規定し、前記処方の規定に従い、前記レンズ制御モジュールは、前記調整可能レンズが通常透明である場合において前記目視ポートの不透明度を低くしたまま前記目視ポート外側の不透明度を増加させ、前記調整可能レンズが通常不透明である場合において前記目視ポート外側を不透明にしたまま前記目視ポートの不透明度を減少させるものであり、
    前記ウェアラブルコンピューティングデバイスは経時的な前記ユーザの利用に基づく利用データを生成し、前記リモートサーバは前記利用データに基づいて前記処方を更新し、前記レンズ制御モジュールは、更新された前記処方に基づき、前記調整可能レンズの前記不透明度、並びに、前記目視ポートのサイズ、形状、及び/または場所を制御する、
    ウェアラブルコンピューティングデバイス。
  2. 前記調整可能レンズの前記不透明度を制御することは、
    前記目視ポートの初期の場所、初期のサイズまたは初期の形状のうちの少なくとも1つを判断することと、
    前記初期の場所における目視ポート、前記初期のサイズを有する目視ポート、または前記初期の形状を有する目視ポートを生成すべく前記調整可能レンズの前記不透明度を制御することと
    を有する請求項1に記載のウェアラブルコンピューティングデバイス。
  3. 前記目視ポートを調整することは、前記目視ポートの場所、サイズまたは形状のうちの少なくとも1つを調整すること
    を有する請求項1に記載のウェアラブルコンピューティングデバイス。
  4. 前記ウェアラブルコンピューティングデバイスの外部環境の画像を生成するカメラと、
    前記外部環境の前記画像に基づき前記ユーザの目視状況を判断する状況判断モジュールと
    をさらに備え、
    前記目視ポートを調整することは、前記ユーザの前記注視方向および前記ユーザの前記目視状況に基づき前記目視ポートを調整すること
    を含む、
    請求項1から3のいずれか一項に記載のウェアラブルコンピューティングデバイス。
  5. 前記ユーザの目視状況を判断することは、前記ユーザにより実行される現在のアクティビティを判断すること
    を含む、
    請求項4に記載のウェアラブルコンピューティングデバイス。
  6. 前記アイトラッキングモジュールはさらに、ある期間にわたる前記ウェアラブルコンピューティングデバイスの前記ユーザの利用を示す利用データを生成する、
    請求項1から3のいずれか一項に記載のウェアラブルコンピューティングデバイス。
  7. 前記利用データを生成することは、前記期間にわたる前記ユーザの前記目の前記注視方向を示す注視データを生成することを含む、
    請求項6に記載のウェアラブルコンピューティングデバイス。
  8. 請求項1から7のいずれか一項に記載の視力矯正を制御するウェアラブルコンピューティングデバイスであって、
    前記1または複数の調整可能レンズの調整可能レンズの外部表示面上に表示するための画像を判断する画像判断モジュールと、をさらに備え、
    各々の前記調整可能レンズが、外部表示面を含み、
    前記レンズ制御モジュールは、前記調整可能レンズの前記外部表示面上に前記画像を表示する、
    ウェアラブルコンピューティングデバイス。
  9. 前記レンズ制御モジュールは、
    ローカルコンピューティングデバイスとの通信リンクを確立し、
    前記通信リンクを介して前記ローカルコンピューティングデバイスから前記画像を受信する、
    請求項8に記載のウェアラブルコンピューティングデバイス。
  10. ウェアラブルコンピューティングデバイスの視力矯正を制御するための方法であって、
    前記ウェアラブルコンピューティングデバイスが、目視ポートにより画定される領域が、前記ウェアラブルコンピューティングデバイスの調整可能レンズの残りの領域より低い不透明度を有するように、前記調整可能レンズを通る前記目視ポートを生成すべく、前記調整可能レンズの不透明度を制御する段階と、
    前記ウェアラブルコンピューティングデバイスが、前記ウェアラブルコンピューティングデバイスのアイトラッキングセンサからアイトラッキングセンサデータを受信する段階と、
    前記ウェアラブルコンピューティングデバイスが、前記アイトラッキングセンサデータに基づき前記ウェアラブルコンピューティングデバイスのユーザの目の注視方向を判断する段階と、
    前記ウェアラブルコンピューティングデバイスが、前記ユーザの前記注視方向に基づき前記目視ポートを調整する段階と
    を備え、
    前記調整可能レンズの前記不透明度を制御する段階は、リモートサーバから受信される処方に基づき目視ポートを生成すべく前記調整可能レンズの前記不透明度を制御する段階を備え、前記処方は、前記目視ポートのサイズ、形状、及び/または場所を規定し、前記処方の規定に従い、前記調整可能レンズが通常透明である場合において前記目視ポートの不透明度を低くしたまま前記目視ポート外側の不透明度を増加させ、前記調整可能レンズが通常不透明である場合において前記目視ポート外側を不透明にしたまま前記目視ポートの不透明度を減少させるものであり、
    前記調整可能レンズの前記不透明度を制御する段階は、経時的な前記ユーザの利用に基づく利用データを生成する段階と、前記利用データに基づいて前記処方を更新する段階と、更新された前記処方に基づき、前記調整可能レンズの前記不透明度、並びに、前記目視ポートのサイズ、形状、及び/または場所を制御する段階と、を含む、
    方法。
  11. 前記調整可能レンズの前記不透明度を制御する段階は、
    前記目視ポートの初期の場所、初期のサイズまたは初期の形状のうちの少なくとも1つを判断する段階と、
    前記初期の場所における目視ポート、前記初期のサイズを有する目視ポート、または前記初期の形状を有する目視ポートを生成すべく前記調整可能レンズの前記不透明度を制御する段階と
    を有する請求項10に記載の方法。
  12. 前記目視ポートを調整する段階は、前記目視ポートの場所、サイズまたは形状のうちの少なくとも1つを調整する段階
    を有する請求項10に記載の方法。
  13. ウェアラブルコンピューティングデバイスのカメラが、前記ウェアラブルコンピューティングデバイスの外部環境の画像を生成する段階と、
    前記ウェアラブルコンピューティングデバイスが、前記外部環境の前記画像に基づき前記ユーザの目視状況を判断する段階と
    をさらに備え、
    前記目視ポートを調整する段階は、前記ウェアラブルコンピューティングデバイスが、前記ユーザの前記注視方向および前記ユーザの前記目視状況に基づき前記目視ポートを調整する段階
    を有する請求項10に記載の方法。
  14. 前記ウェアラブルコンピューティングデバイスが、ある期間にわたる前記ウェアラブルコンピューティングデバイスの前記ユーザの利用を示す利用データを生成する段階
    をさらに備える請求項10に記載の方法。
  15. 利用データを生成する段階は、前記ウェアラブルコンピューティングデバイスが、前記期間にわたる前記ユーザの前記目の前記注視方向を示す注視データを生成する段階
    を含む請求項14に記載の方法。
  16. 前記ウェアラブルコンピューティングデバイスが、前記ウェアラブルコンピューティングデバイスの調整可能レンズの外部表示面上に表示するための画像を判断する段階と、
    前記ウェアラブルコンピューティングデバイスが、前記ウェアラブルコンピューティングデバイスの前記調整可能レンズの前記外部表示面上に前記画像を表示する段階と
    を備え、
    前記画像を表示する段階は、前記調整可能レンズの不透明度を電子的に制御する段階を有する、
    請求項10から15のいずれか一項に記載の方法。
  17. 前記ウェアラブルコンピューティングデバイスが、ローカルコンピューティングデバイスとの通信リンクを確立する段階と、
    前記ウェアラブルコンピューティングデバイスが、前記通信リンクを介して前記ローカルコンピューティングデバイスから前記画像を受信する段階と
    をさらに備える請求項16に記載の方法。
  18. 請求項10から17のいずれか一項に記載の方法をコンピュータに実行させるためのプログラム。
  19. 視力矯正を制御するウェアラブルコンピューティングデバイスであって、請求項10から17のいずれか一項に記載の方法を実行するための手段を備えるウェアラブルコンピューティングデバイス。
  20. 請求項18に記載のプログラムを格納する、コンピュータ可読ストレージ媒体。
JP2017554276A 2015-06-25 2016-05-25 ウェアラブルコンピューティングデバイスの視力矯正を制御するための技術 Active JP6894845B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/750,923 2015-06-25
US14/750,923 US9939644B2 (en) 2015-06-25 2015-06-25 Technologies for controlling vision correction of a wearable computing device
PCT/US2016/034115 WO2016209501A1 (en) 2015-06-25 2016-05-25 Technologies for controlling vision correction of a wearable computing device

Publications (2)

Publication Number Publication Date
JP2018522258A JP2018522258A (ja) 2018-08-09
JP6894845B2 true JP6894845B2 (ja) 2021-06-30

Family

ID=57586115

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017554276A Active JP6894845B2 (ja) 2015-06-25 2016-05-25 ウェアラブルコンピューティングデバイスの視力矯正を制御するための技術

Country Status (6)

Country Link
US (1) US9939644B2 (ja)
EP (1) EP3314373A4 (ja)
JP (1) JP6894845B2 (ja)
KR (1) KR20180012874A (ja)
CN (1) CN107690617B (ja)
WO (1) WO2016209501A1 (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9939644B2 (en) * 2015-06-25 2018-04-10 Intel Corporation Technologies for controlling vision correction of a wearable computing device
US11534066B2 (en) 2016-02-11 2022-12-27 Ara KESHISHIAN System and device for promoting eye alignment
US10175487B2 (en) * 2016-03-29 2019-01-08 Microsoft Technology Licensing, Llc Peripheral display for head mounted display device
WO2018165278A1 (en) 2017-03-07 2018-09-13 vGolf, LLC Mixed reality golf simulation and training system
US10525324B2 (en) 2017-03-07 2020-01-07 vSports, LLC Mixed-reality kick tracking and simulation
US10409363B1 (en) 2017-03-07 2019-09-10 vGolf, LLC Mixed-reality golf tracking and simulation
US10646767B2 (en) 2017-03-07 2020-05-12 vSports, LLC Mixed reality sport simulation and training system
EP3379325A1 (en) * 2017-03-21 2018-09-26 Essilor International Optical device adapted to be worn by a wearer
JP6957635B2 (ja) * 2017-03-22 2021-11-02 マジック リープ, インコーポレイテッドMagic Leap,Inc. 動的視野の可変焦点ディスプレイシステム
WO2018227011A1 (en) 2017-06-07 2018-12-13 vSports, LLC Mixed-reality sports tracking and simulation
WO2018231207A1 (en) * 2017-06-13 2018-12-20 Mario Iobbi Visibility enhancing eyewear
CN107290869A (zh) * 2017-08-16 2017-10-24 奇瑞汽车股份有限公司 一种智能眼镜
US10477298B2 (en) * 2017-09-08 2019-11-12 Immersion Corporation Rendering haptics on headphones with non-audio data
WO2019169553A1 (zh) * 2018-03-06 2019-09-12 陈佳进 弱视训练复健装置
WO2019169554A1 (zh) * 2018-03-06 2019-09-12 陈佳进 基于vr技术的弱视训练复健系统及方法
CN108732764A (zh) * 2018-06-06 2018-11-02 北京七鑫易维信息技术有限公司 一种智能眼镜、眼球轨迹的追踪方法、装置及存储介质
CN109613844B (zh) * 2018-10-31 2021-09-24 深圳前海冰寒信息科技有限公司 一种智能控制系统、智能控制方法及计算机存储介质
EP3653191A1 (en) * 2018-11-16 2020-05-20 Ara Keshishian System and device for promoting eye alignment
CN113692548B (zh) * 2019-06-21 2024-01-02 苹果公司 具有可移除透镜的显示和视力矫正系统
US11222615B2 (en) 2019-08-15 2022-01-11 International Business Machines Corporation Personalized optics-free vision correction
CN110600103B (zh) * 2019-09-25 2021-10-08 李牧什 一种提升视力的可穿戴智能服务系统
US11614797B2 (en) * 2019-11-05 2023-03-28 Micron Technology, Inc. Rendering enhancement based in part on eye tracking
CN112505930A (zh) * 2021-02-05 2021-03-16 宁波圻亿科技有限公司 一种光学矫正装置及穿戴装置
JP7245563B2 (ja) * 2021-07-16 2023-03-24 株式会社レーベン 視力訓練具
JP7070955B1 (ja) 2021-07-16 2022-05-18 株式会社レーベン 視力訓練具
WO2023042937A1 (ko) * 2021-09-16 2023-03-23 엘지전자 주식회사 무선 통신 시스템에서 메타렌즈 인공지능 시스템에 기초하여 신호를 송수신하는 방법 및 장치
US20230165460A1 (en) * 2021-11-30 2023-06-01 Heru Inc. Visual field map expansion

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN2509598Y (zh) * 2000-01-08 2002-09-04 杨忠亮 中亮眼镜
JP4411547B2 (ja) * 2006-03-20 2010-02-10 ソニー株式会社 画像表示装置
WO2008078320A2 (en) * 2006-12-22 2008-07-03 Yossi Gross Electronic transparency regulation element to enhance viewing through lens system
US7452067B2 (en) * 2006-12-22 2008-11-18 Yossi Gross Electronic transparency regulation element to enhance viewing through lens system
US8970452B2 (en) 2011-11-02 2015-03-03 Google Inc. Imaging method
US8752963B2 (en) 2011-11-04 2014-06-17 Microsoft Corporation See-through display brightness control
US8810600B2 (en) 2012-01-23 2014-08-19 Microsoft Corporation Wearable display device calibration
US9291823B2 (en) * 2012-03-30 2016-03-22 Google Inc. Wearable device with input and output structures
EP2693260A1 (en) * 2012-08-03 2014-02-05 ESSILOR INTERNATIONAL (Compagnie Générale d'Optique) Method for providing to an eye of a wearer a customizable ophthalmic lens and associated active system of vision
US9250445B2 (en) * 2012-08-08 2016-02-02 Carol Ann Tosaya Multiple-pixel-beam retinal displays
KR102044054B1 (ko) * 2012-09-12 2019-11-12 소니 주식회사 화상 제어 장치 및 화상 제어 방법
US10025379B2 (en) 2012-12-06 2018-07-17 Google Llc Eye tracking wearable devices and methods for use
EP2989502A1 (en) * 2013-04-25 2016-03-02 Essilor International (Compagnie Générale d'Optique) A method of controlling a head mounted electro-optical device adapted to a wearer
KR20140130321A (ko) * 2013-04-30 2014-11-10 (주)세이엔 착용형 전자 장치 및 그의 제어 방법
KR101515484B1 (ko) * 2013-05-31 2015-04-29 전자부품연구원 증강현실정보 제공 장치 및 그 방법
US9908048B2 (en) * 2013-06-08 2018-03-06 Sony Interactive Entertainment Inc. Systems and methods for transitioning between transparent mode and non-transparent mode in a head mounted display
US10520730B2 (en) * 2013-09-04 2019-12-31 Essilor International Methods and systems for augmented reality
JP6929644B2 (ja) * 2013-12-31 2021-09-01 グーグル エルエルシーGoogle LLC 注視によるメディア選択及び編集のためのシステム並びに方法
US9939644B2 (en) * 2015-06-25 2018-04-10 Intel Corporation Technologies for controlling vision correction of a wearable computing device

Also Published As

Publication number Publication date
KR20180012874A (ko) 2018-02-06
EP3314373A4 (en) 2019-02-20
EP3314373A1 (en) 2018-05-02
CN107690617B (zh) 2021-06-01
US20160377864A1 (en) 2016-12-29
CN107690617A (zh) 2018-02-13
WO2016209501A1 (en) 2016-12-29
JP2018522258A (ja) 2018-08-09
US9939644B2 (en) 2018-04-10

Similar Documents

Publication Publication Date Title
JP6894845B2 (ja) ウェアラブルコンピューティングデバイスの視力矯正を制御するための技術
KR102627452B1 (ko) 다중 모드 눈 추적
CN109803574B (zh) 具有显示器、透镜、照明器和图像传感器的可穿戴设备
US8736692B1 (en) Using involuntary orbital movements to stabilize a video
US10043281B2 (en) Apparatus and method for estimating eye gaze location
US9867532B2 (en) System for detecting optical parameter of eye, and method for detecting optical parameter of eye
US20150127132A1 (en) Method and system for generating custom-fit eye wear geometry for printing and fabrication
KR101613091B1 (ko) 시선 추적 장치 및 방법
US10859830B2 (en) Image adjustment for an eye tracking system
WO2019073689A1 (ja) 情報処理装置、情報処理方法、及びプログラム
Yang et al. Wearable eye-tracking system for synchronized multimodal data acquisition
JPWO2018155303A1 (ja) 情報処理装置、情報処理方法、及びプログラム
EP4217918A1 (en) Flexible illumination for imaging systems
US20230359273A1 (en) Retinal reflection tracking for gaze alignment
TWI830785B (zh) 眼鏡與程式
US20230309824A1 (en) Accommodation tracking based on retinal-imaging
US20230288985A1 (en) Adjusting image content to improve user experience
US20230324988A1 (en) Display calibration
US20230418372A1 (en) Gaze behavior detection
WO2023049066A1 (en) Identifying lens characteristics using reflections
WO2023049065A1 (en) Eye reflections using ir light sources on a transparent substrate

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180109

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190520

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200414

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200804

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210406

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210430

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210604

R150 Certificate of patent or registration of utility model

Ref document number: 6894845

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150