JP2016532218A - シースルー頭部装着型装置に基づいたナビゲーション方法 - Google Patents
シースルー頭部装着型装置に基づいたナビゲーション方法 Download PDFInfo
- Publication number
- JP2016532218A JP2016532218A JP2016539534A JP2016539534A JP2016532218A JP 2016532218 A JP2016532218 A JP 2016532218A JP 2016539534 A JP2016539534 A JP 2016539534A JP 2016539534 A JP2016539534 A JP 2016539534A JP 2016532218 A JP2016532218 A JP 2016532218A
- Authority
- JP
- Japan
- Prior art keywords
- wearer
- geo
- image
- image processing
- visual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 73
- 230000000007 visual effect Effects 0.000 claims abstract description 98
- 238000012800 visualization Methods 0.000 claims abstract description 47
- 230000004438 eyesight Effects 0.000 claims abstract description 24
- 230000006978 adaptation Effects 0.000 claims abstract description 20
- 238000012545 processing Methods 0.000 claims description 88
- 230000008859 change Effects 0.000 claims description 21
- 230000005540 biological transmission Effects 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 4
- 230000000295 complement effect Effects 0.000 claims description 3
- 230000006870 function Effects 0.000 description 66
- 238000012360 testing method Methods 0.000 description 15
- 230000015654 memory Effects 0.000 description 14
- 230000033001 locomotion Effects 0.000 description 13
- 238000004891 communication Methods 0.000 description 11
- 230000007547 defect Effects 0.000 description 11
- 230000035945 sensitivity Effects 0.000 description 10
- 230000007613 environmental effect Effects 0.000 description 9
- 241001393742 Simian endogenous retrovirus Species 0.000 description 7
- 201000009310 astigmatism Diseases 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 230000003190 augmentative effect Effects 0.000 description 4
- 210000003128 head Anatomy 0.000 description 4
- 230000006872 improvement Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 208000001491 myopia Diseases 0.000 description 2
- 201000010041 presbyopia Diseases 0.000 description 2
- 208000014733 refractive error Diseases 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 230000004304 visual acuity Effects 0.000 description 2
- 208000010415 Low Vision Diseases 0.000 description 1
- 206010034960 Photophobia Diseases 0.000 description 1
- 208000013521 Visual disease Diseases 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000004323 axial length Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000004456 color vision Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000001351 cycling effect Effects 0.000 description 1
- 230000004300 dark adaptation Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000009189 diving Effects 0.000 description 1
- 230000005684 electric field Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 230000004313 glare Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 208000013469 light sensitivity Diseases 0.000 description 1
- 230000004303 low vision Effects 0.000 description 1
- 230000004379 myopia Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000010344 pupil dilation Effects 0.000 description 1
- 230000001179 pupillary effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000004434 saccadic eye movement Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/365—Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0141—Head-up displays characterised by optical features characterised by the informative content of the display
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Optics & Photonics (AREA)
- Navigation (AREA)
- Controls And Circuits For Display Device (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
− 装用者視覚化パラメータ提供ステップであって、少なくとも1つの装用者視覚化パラメータが提供されるステップと、
− ジオ位置判定ステップであって、ルートに沿った装用者のジオ位置(geo−position)が判定されるステップと、
− ジオ位置比較ステップであって、ジオ位置判定ステップにおいて判定された装用者のジオ位置が、ルートに沿った保存されているジオ位置と比較されるステップと、
− ナビゲーション視覚支援機能適合ステップであって、装用者のジオ位置が保存されているジオ位置のうちの1つとマッチングした際に、特に、装用者のガイダンスを促進するべく、ナビゲーション視覚支援機能が装用者視力パラメータと装用者のジオ位置との両方に基づいて適合されるステップと
を有し、
− この場合に、ナビゲーション視覚支援は、シースルー頭部装着型装置によって提供される。
− 頭部装着型装置は、表示装置を有し、且つ、ナビゲーション視覚支援機能適合ステップは、
− 処理済み画像選択ステップであって、装用者のジオ位置が保存されているジオ位置のうちの1つとマッチングした際に、装用者のジオ位置にマッチングした保存されているジオ位置と関連付けられた処理済みの画像のうちの少なくとも1つが、装用者視覚化パラメータに従って選択されるステップと、
− 表示ステップであって、装用者の視覚環境の処理済みの画像が、シースルー頭部装着型表示装置により、装用者に対して表示されるステップと
を更に有し、
− 頭部装着型装置は、表示装置と、装用者の視覚環境の画像を取得するように適合されたカメラとを有し、且つ、ナビゲーション視覚支援機能適合ステップは、
− 画像取得ステップであって、装用者の視覚環境の少なくとも1つの画像が、カメラによって取得されるステップと、
− 画像処理選択ステップであって、装用者のジオ位置が保存されているジオ位置のうちの1つとマッチングした際に、装用者のジオ位置にマッチングした保存されているジオ位置と関連付けられた画像処理のうちの少なくとも1つが、装用者視覚化パラメータに従って選択されるステップと、
− 画像処理ステップであって、画像取得ステップにおいて取得された視覚環境の画像が、画像処理選択ステップにおいて選択された画像処理に従って処理されるステップと、
− 表示ステップであって、視覚環境の処理済みの画像が、シースルー頭部装着型表示装置により、装用者に対して表示されるステップと
を更に有し、且つ/又は、
− ナビゲーション視覚支援機能適合ステップは、
− 画像要素識別ステップであって、装用者の視覚環境の画像が、予め定義された要素リスト内において列挙されている少なくとも1つの予め定義された要素を識別するべく分析され、予め定義された要素のそれぞれは、少なくとも1つの画像処理と関連付けられているステップを更に有し、及び
− 画像処理選択ステップにおいて、予め定義された要素リスト内において列挙されている予め定義された要素のうちの1つに対応する装用者の視覚環境の画像の要素を識別する際に、装用者の視覚環境の画像内において識別された予め定義された要素と関連付けられた画像処理が選択され、且つ/又は、
− 方法は、
− 視覚環境パラメータ判定ステップであって、少なくとも1つの視覚環境パラメータが判定されるステップを更に有し、及び
− 画像処理選択ステップにおいて、画像処理が、視覚環境パラメータに従って選択され、且つ/又は、処理済み画像選択ステップにおいて、処理済みの画像が、視覚環境パラメータに従って選択され、且つ/又は、
− 方法は、
− 送信ステップであって、ジオ位置が、少なくとも1つの画像処理と関連付けられた保存されているジオ位置と比較されるべく、離れたエンティティに送信されるステップと、
− 受信ステップであって、選択された画像処理が、離れたエンティティから受信されるステップと
を更に有し、且つ/又は、
− 方法は、
− 送信ステップであって、ジオ位置が、少なくとも1つの画像処理と関連付けられた保存されているジオ位置と比較されるべく、離れたエンティティに送信され、且つ、装用者の視覚環境の取得された画像が、ジオ位置と関連付けられた画像処理に基づいて処理されるべく、離れたエンティティに送信されるステップと、
− 受信ステップであって、処理済みの画像が、離れたエンティティから受信されるステップと
を更に有し、且つ/又は、
− 離れたエンティティは、スマートフォン及び/又はスマートウォッチであり、且つ/又は、
− 方法は、装用者のジオ位置に基づいて、視覚環境の処理済みの画像に基づく補完的な視覚情報を表示するステップを更に有し、且つ/又は、
− 頭部装着型表示装置は、能動的機能と、能動的機能を制御するように構成された制御ユニットとを有し、且つ、能動的機能は、ナビゲーション視覚支援機能適合ステップにおいて適合され、且つ/又は、
− 方法は、装用者のジオ位置に基づいて装用者に対してオーディオ通知を提供するステップを更に有し、且つ/又は、
− 方法は、装用者識別子と前記装用者視覚化パラメータとの間の関連付けをデータベース内において事前登録するステップを更に有し、且つ/又は、
− 前記装用者視覚化パラメータのうちの少なくとも1つは、装用者識別子との関連において、ネットワークを介して頭部装着型装置に接続されたサーバー上の装用者データベース内に保存され、且つ/又は、
− 方法は、少なくともルートをデータベース内において事前登録する予備的ステップを更に有し、この予備的ステップは、
− 関連付けステップであって、ジオ位置判定ステップにおいて判定されたルートに沿ったジオ位置が、少なくとも1つのナビゲーション視覚支援機能変更と関連付けられるサブステップと、
− 保存ステップであって、ジオ位置及び関連付けられた少なくとも1つのナビゲーション視覚支援機能変更が保存されるサブステップと
を有し、且つ/又は、
− 予備的ステップは、
− 画像取得ステップであって、装用者の視覚環境の少なくとも1つの画像がカメラによって取得されるステップと、
− 画像処理選択ステップであって、画像処理のうちの少なくとも1つが、装用者視覚化パラメータに従って選択されるステップと、
− 画像処理ステップであって、画像取得ステップにおいて取得された視覚環境の画像が、画像処理選択ステップにおいて選択された画像処理に従って処理されるステップと
を更に有し、及び
− 関連付けステップにおいて、処理済みの画像が、ジオ位置と関連付けられ、且つ/又は、
− ナビゲーション視覚支援機能変更データは、任意選択により、アクセス権限に従って、前記装用者識別子に従って定義され、且つ/又は、
− 関連付けステップは、装用者によって実行され、且つ/又は、
− 方法は、ジオ位置比較ステップの前に、受信ステップであって、ナビゲーション視覚支援機能変更と関連付けられた保存されているジオ位置が、離れたエンティティから受信され、且つ、保存されるステップを更に有し、且つ/又は、
− 予備的ステップは、
− 画像選択ステップであって、少なくとも1つの画像が選択されるステップと、
− 画像処理選択ステップであって、画像処理の少なくとも1つが、装用者視覚化パラメータに従って選択されるステップと、
− 画像処理ステップであって、選択された画像が、画像処理選択ステップにおいて選択された画像処理に従って処理されるステップと
を更に有し、及び
− 関連付けにおいて、処理済みの画像は、ジオ位置と関連付けられる。
− 装用者視覚化パラメータ提供ステップS1と、
− ジオ位置判定ステップS2と、
− ジオ位置比較ステップと、
− シースルー頭部装着型装置機能適合ステップS3と
を有する。
− 画像取得ステップS31と、
− 画像処理選択ステップS33と、
− 画像処理ステップS34と、
− 表示ステップS35と
を更に有する。
− 画像の拡大、及び/又は、
− 画像の再マッピング、及び/又は、
− 色の極小化、及び/又は、
− 色の拡大、及び/又は、
− 色の再マッピング、及び/又は、
− 画像強度の改善、及び/又は、
− コントラストの改善、及び/又は、
− 輝度の改善、及び/又は、
− 視野の輝度調節、及び/又は、
− 画像の縮小、及び/又は、
− 輪郭の改善、及び/又は、
− 画像の二値化、
からなるリストから選択することができる。
− 画像取得ステップS31と、
− 取得された画像送信ステップS311と、
− 画像処理選択ステップS33と、
− 画像処理ステップS34と、
− 受信ステップS341と、
− 表示ステップS35と
を有する。
− 関連付けサブステップと、
− 保存サブステップと
を有する。
Claims (19)
- シースルー頭部装着型装置の装用者のためのナビゲーション方法であって、
− 装用者視覚化パラメータ提供ステップであって、前記装用者の眼の状態に関係した少なくとも1つの装用者視覚化パラメータが提供されるステップと、
− ジオ位置判定ステップであって、ルートに沿った前記装用者のジオ位置が判定されるステップと、
− ジオ位置比較ステップであって、前記ジオ位置判定ステップにおいて判定された前記装用者の前記ジオ位置が、前記ルートに沿った保存されているジオ位置と比較されるステップと、
− ナビゲーション視覚支援機能適合ステップであって、前記装用者の前記ジオ位置が前記保存されているジオ位置のうちの1つとマッチングした際に、ナビゲーション視覚支援機能が前記装用者視覚化パラメータと前記装用者の前記ジオ位置との両方に基づいて適合されるステップと
を有し、
− ナビゲーション視覚支援は、前記シースルー頭部装着型装置によって提供される、方法。 - 前記頭部装着型装置は、表示装置を有し、且つ、前記ナビゲーション視覚支援機能適合ステップは、
− 処理済み画像選択ステップであって、前記装用者の前記ジオ位置が前記保存されているジオ位置のうちの1つとマッチングした際に、前記装用者の前記ジオ位置にマッチングした前記保存されているジオ位置と関連付けられた処理済みの画像のうちの少なくとも1つが、前記装用者視覚化パラメータに従って選択されるステップと、
− 表示ステップであって、前記装用者の視覚環境の前記処理済みの画像が、前記シースルー頭部装着型表示装置により、前記装用者に対して表示されるステップと
を更に有する請求項1に記載のナビゲーション方法。 - 前記頭部装着型装置は、表示装置と、前記装用者の前記視覚環境の画像を取得するように適合されたカメラとを有し、且つ、前記ナビゲーション視覚支援機能適合ステップは、
− 画像取得ステップであって、前記装用者の前記視覚環境の少なくとも1つの画像が、前記カメラによって取得されるステップと、
− 画像処理選択ステップであって、前記装用者の前記ジオ位置が前記保存されているジオ位置のうちの1つとマッチングした際に、前記装用者の前記ジオ位置にマッチングした前記保存されているジオ位置と関連付けられた画像処理のうちの少なくとも1つが、前記装用者視覚化パラメータに従って選択されるステップと、
− 画像処理ステップであって、前記画像取得ステップにおいて取得された前記視覚環境の前記画像が、画像処理選択ステップにおいて選択された前記画像処理に従って処理されるステップと、
− 表示ステップであって、前記視覚環境の前記処理済みの画像が、前記シースルー頭部装着型表示装置により、前記装用者に対して表示されるステップと
を更に有する請求項1又は2に記載のナビゲーション方法。 - 前記ナビゲーション視覚支援機能適合ステップは、
− 画像要素識別ステップであって、前記装用者の前記視覚環境の前記画像が、予め定義された要素リスト内において列挙されている少なくとも1つの予め定義された要素を識別するべく分析され、前記予め定義された要素のそれぞれは、少なくとも1つの画像処理と関連付けられているステップを更に有し、及び
− 前記画像処理選択ステップにおいて、前記予め定義された要素リスト内において列挙されている前記予め定義された要素のうちの1つに対応する前記装用者の前記視覚環境の前記画像の要素を識別する際に、前記装用者の前記視覚環境の前記画像内において識別された前記予め定義された要素と関連付けられた画像処理が選択される請求項3に記載のナビゲーション方法。 - − 視覚環境パラメータ判定ステップであって、少なくとも1つの視覚環境パラメータが判定されるステップを更に有し、及び
− 前記画像処理選択ステップにおいて、前記画像処理が、前記視覚環境パラメータに従って選択され、且つ/又は、前記処理済み画像選択ステップにおいて、前記処理済みの画像が、前記視覚環境パラメータに従って選択される請求項3又は4に記載のナビゲーション方法。 - − 送信ステップであって、前記ジオ位置が、少なくとも1つの画像処理と関連付けられた保存されているジオ位置と比較されるべく、離れたエンティティに送信されるステップと、
− 受信ステップであって、前記選択された画像処理及び/又は前記処理済みの画像が、離れたエンティティから受信されるステップと
を更に有する請求項3〜5のいずれか一項に記載のナビゲーション方法。 - − 送信ステップであって、前記ジオ位置が、少なくとも1つの画像処理と関連付けられた保存されているジオ位置と比較されるべく、離れたエンティティに送信され、且つ、前記装用者の前記視覚環境の前記取得された画像が、前記ジオ位置と関連付けられた前記画像処理に基づいて処理されるべく、前記離れたエンティティに送信されるステップと、
− 受信ステップであって、前記処理済みの画像が、離れたエンティティから受信されるステップと
を更に有する請求項3〜5のいずれか一項に記載のナビゲーション方法。 - 前記装用者の前記ジオ位置に基づいて、前記視覚環境の前記処理済みの画像に基づく補完的な視覚情報を表示するステップを更に有する請求項2〜7のいずれか一項に記載のナビゲーション方法。
- 前記頭部装着型表示装置は、能動的機能と、前記能動的機能を制御するように構成された制御ユニットとを有し、且つ、前記能動的機能は、前記ナビゲーション視覚支援機能適合ステップにおいて適合される請求項1〜8のいずれか一項に記載のナビゲーション方法。
- 装用者識別子と前記装用者視覚パラメータとの間の関連付けをデータベース内において事前登録するステップを更に有する請求項1〜9のいずれか一項に記載のナビゲーション方法。
- 前記装用者視覚化パラメータのうちの少なくとも1つは、前記装用者識別子との関連において、ネットワークを介して前記頭部装着型装置に接続されたサーバー上の装用者データベース内に保存される請求項10に記載のナビゲーション方法。
- 少なくともルートをデータベース内において事前登録する予備的ステップを更に有し、前記予備的ステップは、
− 関連付けステップであって、前記ジオ位置判定ステップにおいて判定された前記ルートに沿ったジオ位置が、少なくとも1つのナビゲーション視覚支援機能変更と関連付けられるサブステップと、
− 保存ステップであって、前記ジオ位置及び前記関連付けられた少なくとも1つのナビゲーション視覚支援機能変更が保存されるサブステップと
を有する請求項1〜11のいずれか一項に記載のナビゲーション方法。 - 前記予備的ステップは、
− 画像取得ステップであって、前記装用者の前記視覚環境の少なくとも1つの画像が前記カメラによって取得されるステップと、
− 画像処理選択ステップであって、画像処理のうちの少なくとも1つが、前記装用者視覚化パラメータに従って選択されるステップと、
− 画像処理ステップであって、前記画像取得ステップにおいて取得された前記視覚環境の前記画像が、画像処理選択ステップにおいて選択された前記画像処理に従って処理されるステップと
を更に有し、及び
− 前記関連付けステップにおいて、前記処理済みの画像は、前記ジオ位置と関連付けられる請求項12に記載のナビゲーション方法。 - 前記予備的ステップは、
− 画像選択ステップであって、少なくとも1つの画像が選択されるステップと、
− 画像処理選択ステップであって、画像処理の少なくとも1つが、前記装用者視覚化パラメータに従って選択されるステップと、
− 画像処理ステップであって、前記選択された画像が、画像処理選択ステップにおいて選択された前記画像処理に従って処理されるステップと
を更に有し、及び
− 前記関連付けステップにおいて、前記処理済みの画像は、前記ジオ位置と関連付けられる請求項12に記載のナビゲーション方法。 - ナビゲーション視覚支援機能変更データは、任意選択により、アクセス権限に従って、前記装用者識別子に従って定義される請求項10〜14のいずれか一項に記載のナビゲーション方法。
- 前記関連付けステップは、前記装用者によって実行される請求項12〜14のいずれか一項に記載のナビゲーション方法。
- 前記ジオ位置比較ステップの前に、受信ステップであって、前記ナビゲーション視覚支援機能変更と関連付けられた前記保存されているジオ位置が、離れたエンティティから受信され、且つ、保存されるステップを更に有する請求項1〜16のいずれか一項に記載のナビゲーション方法。
- プロセッサからアクセス可能であると共に、前記プロセッサによって実行される際に前記プロセッサに請求項1〜17のいずれか一項に記載のステップを実行させる命令の1つ又は複数の保存されたシーケンスを有するコンピュータプログラムプロダクト。
- 請求項18に記載のコンピュータプログラムプロダクトの命令の1つ又は複数のシーケンスを保持するコンピュータ可読媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP13306209 | 2013-09-04 | ||
EP13306209.1 | 2013-09-04 | ||
PCT/EP2014/068763 WO2015032833A1 (en) | 2013-09-04 | 2014-09-03 | Navigation method based on a see-through head-mounted device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016532218A true JP2016532218A (ja) | 2016-10-13 |
JP6600310B2 JP6600310B2 (ja) | 2019-10-30 |
Family
ID=49209304
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016539534A Active JP6600310B2 (ja) | 2013-09-04 | 2014-09-03 | シースルー頭部装着型装置に基づいたナビゲーション方法 |
Country Status (8)
Country | Link |
---|---|
US (1) | US9976867B2 (ja) |
EP (1) | EP3042152B1 (ja) |
JP (1) | JP6600310B2 (ja) |
KR (1) | KR102263496B1 (ja) |
CN (1) | CN105518416B (ja) |
BR (1) | BR112016003445B1 (ja) |
CA (1) | CA2921104C (ja) |
WO (1) | WO2015032833A1 (ja) |
Families Citing this family (58)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140198034A1 (en) | 2013-01-14 | 2014-07-17 | Thalmic Labs Inc. | Muscle interface device and method for interacting with content displayed on wearable head mounted displays |
US10152082B2 (en) | 2013-05-13 | 2018-12-11 | North Inc. | Systems, articles and methods for wearable electronic devices that accommodate different user forms |
US20150124566A1 (en) | 2013-10-04 | 2015-05-07 | Thalmic Labs Inc. | Systems, articles and methods for wearable electronic devices employing contact sensors |
US10188309B2 (en) | 2013-11-27 | 2019-01-29 | North Inc. | Systems, articles, and methods for electromyography sensors |
US11921471B2 (en) | 2013-08-16 | 2024-03-05 | Meta Platforms Technologies, Llc | Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source |
US11426123B2 (en) | 2013-08-16 | 2022-08-30 | Meta Platforms Technologies, Llc | Systems, articles and methods for signal routing in wearable electronic devices that detect muscle activity of a user using a set of discrete and separately enclosed pod structures |
US10042422B2 (en) | 2013-11-12 | 2018-08-07 | Thalmic Labs Inc. | Systems, articles, and methods for capacitive electromyography sensors |
US9788789B2 (en) | 2013-08-30 | 2017-10-17 | Thalmic Labs Inc. | Systems, articles, and methods for stretchable printed circuit boards |
CA2921104C (en) * | 2013-09-04 | 2022-04-26 | Amandine DEBIEUVRE | Navigation method based on a see-through head-mounted device |
US10199008B2 (en) | 2014-03-27 | 2019-02-05 | North Inc. | Systems, devices, and methods for wearable electronic devices as state machines |
US20150325202A1 (en) * | 2014-05-07 | 2015-11-12 | Thalmic Labs Inc. | Systems, devices, and methods for wearable computers with heads-up displays |
US9880632B2 (en) | 2014-06-19 | 2018-01-30 | Thalmic Labs Inc. | Systems, devices, and methods for gesture identification |
US9477079B2 (en) | 2014-06-25 | 2016-10-25 | Thalmic Labs Inc. | Systems, devices, and methods for wearable heads-up displays |
US9807221B2 (en) | 2014-11-28 | 2017-10-31 | Thalmic Labs Inc. | Systems, devices, and methods effected in response to establishing and/or terminating a physical communications link |
US9958682B1 (en) | 2015-02-17 | 2018-05-01 | Thalmic Labs Inc. | Systems, devices, and methods for splitter optics in wearable heads-up displays |
JP6769974B2 (ja) | 2015-02-17 | 2020-10-14 | ノース インコーポレイテッドNorth Inc. | ウェアラブルヘッドアップディスプレイにおけるアイボックス拡張のためのシステム、機器、及び方法 |
CN104850138B (zh) * | 2015-04-22 | 2017-07-04 | 刘伟中 | 智能控制变焦训练设备 |
US10078435B2 (en) | 2015-04-24 | 2018-09-18 | Thalmic Labs Inc. | Systems, methods, and computer program products for interacting with electronically displayed presentation materials |
US10197805B2 (en) | 2015-05-04 | 2019-02-05 | North Inc. | Systems, devices, and methods for eyeboxes with heterogeneous exit pupils |
US10078219B2 (en) | 2015-05-28 | 2018-09-18 | Thalmic Labs Inc. | Wearable heads-up display with integrated eye tracker and different optical power holograms |
US10488662B2 (en) | 2015-09-04 | 2019-11-26 | North Inc. | Systems, articles, and methods for integrating holographic optical elements with eyeglass lenses |
CA3007196A1 (en) | 2015-10-01 | 2017-04-06 | Thalmic Labs Inc. | Systems, devices, and methods for interacting with content displayed on head-mounted displays |
US9904051B2 (en) | 2015-10-23 | 2018-02-27 | Thalmic Labs Inc. | Systems, devices, and methods for laser eye tracking |
US10802190B2 (en) | 2015-12-17 | 2020-10-13 | Covestro Llc | Systems, devices, and methods for curved holographic optical elements |
US10303246B2 (en) | 2016-01-20 | 2019-05-28 | North Inc. | Systems, devices, and methods for proximity-based eye tracking |
US10151926B2 (en) | 2016-01-29 | 2018-12-11 | North Inc. | Systems, devices, and methods for preventing eyebox degradation in a wearable heads-up display |
CN105867617B (zh) * | 2016-03-25 | 2018-12-25 | 京东方科技集团股份有限公司 | 增强现实设备、系统、图像处理方法及装置 |
CA3020631A1 (en) | 2016-04-13 | 2017-10-19 | Thalmic Labs Inc. | Systems, devices, and methods for focusing laser projectors |
US10496156B2 (en) * | 2016-05-17 | 2019-12-03 | Google Llc | Techniques to change location of objects in a virtual/augmented reality system |
US11216069B2 (en) | 2018-05-08 | 2022-01-04 | Facebook Technologies, Llc | Systems and methods for improved speech recognition using neuromuscular information |
EP3487395A4 (en) | 2016-07-25 | 2020-03-04 | CTRL-Labs Corporation | METHODS AND APPARATUS FOR PREDICTING MUSCULOSKELETAL POSITION INFORMATION USING PORTABLE SELF-CONTAINED SENSORS |
US10277874B2 (en) | 2016-07-27 | 2019-04-30 | North Inc. | Systems, devices, and methods for laser projectors |
WO2018027326A1 (en) | 2016-08-12 | 2018-02-15 | Thalmic Labs Inc. | Systems, devices, and methods for variable luminance in wearable heads-up displays |
CN106375448A (zh) * | 2016-09-05 | 2017-02-01 | 腾讯科技(深圳)有限公司 | 图像处理方法和装置及系统 |
US10215987B2 (en) | 2016-11-10 | 2019-02-26 | North Inc. | Systems, devices, and methods for astigmatism compensation in a wearable heads-up display |
US10409057B2 (en) | 2016-11-30 | 2019-09-10 | North Inc. | Systems, devices, and methods for laser eye tracking in wearable heads-up displays |
US10365492B2 (en) | 2016-12-23 | 2019-07-30 | North Inc. | Systems, devices, and methods for beam combining in wearable heads-up displays |
US10437073B2 (en) | 2017-01-25 | 2019-10-08 | North Inc. | Systems, devices, and methods for beam combining in laser projectors |
US10372207B2 (en) * | 2017-08-16 | 2019-08-06 | Disney Enterprises, Inc. | Adaptive VR/AR viewing based on a users eye condition profile |
US10438404B2 (en) | 2017-10-13 | 2019-10-08 | Disney Enterprises, Inc. | Ambient light characterization |
EP3697297A4 (en) | 2017-10-19 | 2020-12-16 | Facebook Technologies, Inc. | SYSTEMS AND METHODS FOR IDENTIFYING BIOLOGICAL STRUCTURES ASSOCIATED WITH NEUROMUSCULAR SOURCE SIGNALS |
WO2019079894A1 (en) | 2017-10-23 | 2019-05-02 | North Inc. | MULTIPLE LASER DIODE MODULES WITH FREE SPACES |
US10740938B2 (en) * | 2017-12-04 | 2020-08-11 | International Business Machines Corporation | Cognitive situation-aware vision deficiency remediation |
US11961494B1 (en) | 2019-03-29 | 2024-04-16 | Meta Platforms Technologies, Llc | Electromagnetic interference reduction in extended reality environments |
US10937414B2 (en) | 2018-05-08 | 2021-03-02 | Facebook Technologies, Llc | Systems and methods for text input using neuromuscular information |
US11907423B2 (en) | 2019-11-25 | 2024-02-20 | Meta Platforms Technologies, Llc | Systems and methods for contextualized interactions with an environment |
US11481030B2 (en) | 2019-03-29 | 2022-10-25 | Meta Platforms Technologies, Llc | Methods and apparatus for gesture detection and classification |
US11493993B2 (en) | 2019-09-04 | 2022-11-08 | Meta Platforms Technologies, Llc | Systems, methods, and interfaces for performing inputs based on neuromuscular control |
US11150730B1 (en) | 2019-04-30 | 2021-10-19 | Facebook Technologies, Llc | Devices, systems, and methods for controlling computing devices via neuromuscular signals of users |
US10592001B2 (en) | 2018-05-08 | 2020-03-17 | Facebook Technologies, Llc | Systems and methods for improved speech recognition using neuromuscular information |
EP4241661A1 (en) | 2018-08-31 | 2023-09-13 | Facebook Technologies, LLC | Camera-guided interpretation of neuromuscular signals |
WO2020061451A1 (en) | 2018-09-20 | 2020-03-26 | Ctrl-Labs Corporation | Neuromuscular text entry, writing and drawing in augmented reality systems |
US11797087B2 (en) | 2018-11-27 | 2023-10-24 | Meta Platforms Technologies, Llc | Methods and apparatus for autocalibration of a wearable electrode sensor system |
EP3686767B1 (en) * | 2019-01-25 | 2024-05-22 | Essilor International | Method, device and system for identifying a device |
US10621858B1 (en) | 2019-02-06 | 2020-04-14 | Toyota Research Institute, Inc. | Systems and methods for improving situational awareness of a user |
CN111426268B (zh) * | 2020-04-20 | 2021-09-24 | 武汉大学中南医院 | 一种双目视觉相机匹配方法 |
US11868531B1 (en) | 2021-04-08 | 2024-01-09 | Meta Platforms Technologies, Llc | Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof |
KR102321470B1 (ko) * | 2021-07-28 | 2021-11-03 | 주식회사 셀리코 | 전기변색층 기반의 시력 보조 장치 및 이를 포함하는 시력 보조 안경 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006146778A (ja) * | 2004-11-24 | 2006-06-08 | Konica Minolta Photo Imaging Inc | ヘッドマウントディスプレイ装置 |
JP2006171302A (ja) * | 2004-12-15 | 2006-06-29 | Konica Minolta Photo Imaging Inc | 映像表示装置及び情報提供システム |
JP2006217520A (ja) * | 2005-02-07 | 2006-08-17 | Konica Minolta Photo Imaging Inc | 映像表示装置、及び眼鏡型映像表示装置 |
JP2008185609A (ja) * | 2007-01-26 | 2008-08-14 | Sony Corp | 表示装置、表示方法 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8525874B2 (en) * | 2006-08-15 | 2013-09-03 | Koninklijke Philips N.V. | Assistance system for visually handicapped persons |
DE102008042397A1 (de) * | 2008-09-26 | 2010-04-01 | Robert Bosch Gmbh | Navigationssystem mit kontaktanaloger Anzeige |
KR101578721B1 (ko) * | 2008-12-15 | 2015-12-21 | 엘지전자 주식회사 | 네비게이션 단말기 및 네비게이션 단말기의 경로안내방법 |
US8130262B2 (en) * | 2009-01-15 | 2012-03-06 | International Business Machines Corporation | Apparatus and method for enhancing field of vision of the visually impaired |
US20140240313A1 (en) * | 2009-03-19 | 2014-08-28 | Real Time Companies | Computer-aided system for 360° heads up display of safety/mission critical data |
US8467133B2 (en) * | 2010-02-28 | 2013-06-18 | Osterhout Group, Inc. | See-through display with an optical assembly including a wedge-shaped illumination system |
WO2011106797A1 (en) * | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Projection triggering through an external marker in an augmented reality eyepiece |
US20120050144A1 (en) | 2010-08-26 | 2012-03-01 | Clayton Richard Morlock | Wearable augmented reality computing apparatus |
GB201103200D0 (en) * | 2011-02-24 | 2011-04-13 | Isis Innovation | An optical device for the visually impaired |
US9940901B2 (en) * | 2012-09-21 | 2018-04-10 | Nvidia Corporation | See-through optical image processing |
US20140128161A1 (en) * | 2012-11-06 | 2014-05-08 | Stephen Latta | Cross-platform augmented reality experience |
US9401048B2 (en) * | 2013-03-15 | 2016-07-26 | Qualcomm Incorporated | Methods and apparatus for augmented reality target detection |
CA2921104C (en) * | 2013-09-04 | 2022-04-26 | Amandine DEBIEUVRE | Navigation method based on a see-through head-mounted device |
US9798145B2 (en) * | 2014-05-23 | 2017-10-24 | Qualcomm Incorporated | Method and apparatus for see-through near eye display |
US9995933B2 (en) * | 2014-06-24 | 2018-06-12 | Microsoft Technology Licensing, Llc | Display devices with transmittance compensation mask |
-
2014
- 2014-09-03 CA CA2921104A patent/CA2921104C/en active Active
- 2014-09-03 EP EP14758575.6A patent/EP3042152B1/en active Active
- 2014-09-03 US US14/915,863 patent/US9976867B2/en active Active
- 2014-09-03 CN CN201480048501.5A patent/CN105518416B/zh active Active
- 2014-09-03 KR KR1020167004202A patent/KR102263496B1/ko active IP Right Grant
- 2014-09-03 WO PCT/EP2014/068763 patent/WO2015032833A1/en active Application Filing
- 2014-09-03 JP JP2016539534A patent/JP6600310B2/ja active Active
- 2014-09-03 BR BR112016003445-7A patent/BR112016003445B1/pt active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006146778A (ja) * | 2004-11-24 | 2006-06-08 | Konica Minolta Photo Imaging Inc | ヘッドマウントディスプレイ装置 |
JP2006171302A (ja) * | 2004-12-15 | 2006-06-29 | Konica Minolta Photo Imaging Inc | 映像表示装置及び情報提供システム |
JP2006217520A (ja) * | 2005-02-07 | 2006-08-17 | Konica Minolta Photo Imaging Inc | 映像表示装置、及び眼鏡型映像表示装置 |
JP2008185609A (ja) * | 2007-01-26 | 2008-08-14 | Sony Corp | 表示装置、表示方法 |
Also Published As
Publication number | Publication date |
---|---|
CA2921104A1 (en) | 2015-03-12 |
US20160202081A1 (en) | 2016-07-14 |
CA2921104C (en) | 2022-04-26 |
CN105518416B (zh) | 2019-05-21 |
CN105518416A (zh) | 2016-04-20 |
EP3042152A1 (en) | 2016-07-13 |
US9976867B2 (en) | 2018-05-22 |
EP3042152B1 (en) | 2022-11-09 |
US20170160093A9 (en) | 2017-06-08 |
JP6600310B2 (ja) | 2019-10-30 |
WO2015032833A1 (en) | 2015-03-12 |
BR112016003445A2 (ja) | 2017-08-01 |
KR20160048775A (ko) | 2016-05-04 |
BR112016003445A8 (pt) | 2018-08-14 |
KR102263496B1 (ko) | 2021-06-10 |
BR112016003445B1 (pt) | 2022-10-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6600310B2 (ja) | シースルー頭部装着型装置に基づいたナビゲーション方法 | |
US9898075B2 (en) | Visual stabilization system for head-mounted displays | |
CN106471419B (zh) | 管理信息显示 | |
CN114758406B (zh) | 用于使用神经网络的生物特征用户识别的设备、方法和系统 | |
US10690945B2 (en) | Method for optimizing an optical lens equipment for a wearer | |
KR101808852B1 (ko) | 가상현실 헤드셋을 이용한 안경 렌즈 비교 시뮬레이션 시스템 및 그 방법 | |
CN112835211B (zh) | 控制可编程镜片装置的方法 | |
CN107533375B (zh) | 场景图像分析模块 | |
KR20160000457A (ko) | 착용자에게 적응된 헤드 장착형 전자-광학 장치를 제어하는 방법 | |
JP2016130838A (ja) | 頭部装着型表示装置、表示方法 | |
US11243401B2 (en) | Method for customizing a head mounted device adapted to generate a virtual image | |
CN107111366A (zh) | 用于使感觉输出装置的感觉输出模式与使用者适配的方法 | |
CN109151446A (zh) | 控制方法和电子设备 | |
WO2023169857A1 (en) | System comprising an optical device and a controller | |
CN117597622A (zh) | 用于提供视力测量和视力校正的增强现实设备和方法 | |
CN113792724A (zh) | 一种助老眼镜的使用方法及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170807 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20180518 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180607 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180710 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180717 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181010 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190226 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190523 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190924 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191004 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6600310 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |