JP2019533824A - 拡張現実および仮想現実アイウェアを用いた結像修正、表示、および可視化 - Google Patents
拡張現実および仮想現実アイウェアを用いた結像修正、表示、および可視化 Download PDFInfo
- Publication number
- JP2019533824A JP2019533824A JP2019503537A JP2019503537A JP2019533824A JP 2019533824 A JP2019533824 A JP 2019533824A JP 2019503537 A JP2019503537 A JP 2019503537A JP 2019503537 A JP2019503537 A JP 2019503537A JP 2019533824 A JP2019533824 A JP 2019533824A
- Authority
- JP
- Japan
- Prior art keywords
- user
- image
- mounted display
- display
- head mounted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 122
- 238000003384 imaging method Methods 0.000 title description 31
- 238000012800 visualization Methods 0.000 title description 8
- 238000012937 correction Methods 0.000 title description 5
- 210000001508 eye Anatomy 0.000 claims abstract description 685
- 238000012545 processing Methods 0.000 claims abstract description 275
- 230000007613 environmental effect Effects 0.000 claims abstract description 106
- 230000008447 perception Effects 0.000 claims abstract description 46
- 238000004891 communication Methods 0.000 claims abstract description 38
- 230000002093 peripheral effect Effects 0.000 claims description 204
- 238000000034 method Methods 0.000 claims description 172
- 230000001965 increasing effect Effects 0.000 claims description 98
- 230000033001 locomotion Effects 0.000 claims description 79
- 230000008569 process Effects 0.000 claims description 73
- 210000003128 head Anatomy 0.000 claims description 62
- 230000003287 optical effect Effects 0.000 description 119
- 230000000007 visual effect Effects 0.000 description 112
- 238000002604 ultrasonography Methods 0.000 description 92
- 238000005286 illumination Methods 0.000 description 52
- 238000002595 magnetic resonance imaging Methods 0.000 description 48
- 230000004438 eyesight Effects 0.000 description 47
- 239000000835 fiber Substances 0.000 description 46
- 230000005043 peripheral vision Effects 0.000 description 46
- 230000008878 coupling Effects 0.000 description 45
- 238000010168 coupling process Methods 0.000 description 45
- 238000005859 coupling reaction Methods 0.000 description 45
- 210000001519 tissue Anatomy 0.000 description 44
- 210000003484 anatomy Anatomy 0.000 description 40
- 238000004422 calculation algorithm Methods 0.000 description 38
- 238000009877 rendering Methods 0.000 description 36
- 239000003086 colorant Substances 0.000 description 31
- 238000001356 surgical procedure Methods 0.000 description 30
- 238000002591 computed tomography Methods 0.000 description 28
- 210000001747 pupil Anatomy 0.000 description 27
- 230000004308 accommodation Effects 0.000 description 26
- 210000002216 heart Anatomy 0.000 description 25
- 210000001525 retina Anatomy 0.000 description 25
- 238000005259 measurement Methods 0.000 description 24
- 238000012831 peritoneal equilibrium test Methods 0.000 description 23
- 238000012636 positron electron tomography Methods 0.000 description 23
- 238000012877 positron emission topography Methods 0.000 description 23
- 238000013461 design Methods 0.000 description 20
- 230000002708 enhancing effect Effects 0.000 description 20
- 230000000694 effects Effects 0.000 description 17
- 238000012986 modification Methods 0.000 description 17
- 230000004048 modification Effects 0.000 description 17
- 206010028980 Neoplasm Diseases 0.000 description 16
- 230000036544 posture Effects 0.000 description 16
- 230000002829 reductive effect Effects 0.000 description 16
- 230000009471 action Effects 0.000 description 15
- 230000008859 change Effects 0.000 description 15
- 238000010968 computed tomography angiography Methods 0.000 description 15
- 239000003550 marker Substances 0.000 description 15
- 230000006870 function Effects 0.000 description 14
- 239000000463 material Substances 0.000 description 14
- 230000004304 visual acuity Effects 0.000 description 14
- 210000004369 blood Anatomy 0.000 description 13
- 239000008280 blood Substances 0.000 description 13
- 210000000746 body region Anatomy 0.000 description 13
- 210000003986 cell retinal photoreceptor Anatomy 0.000 description 13
- 230000007423 decrease Effects 0.000 description 13
- 210000003127 knee Anatomy 0.000 description 13
- 210000000988 bone and bone Anatomy 0.000 description 12
- 210000004556 brain Anatomy 0.000 description 11
- 238000010586 diagram Methods 0.000 description 11
- 238000012544 monitoring process Methods 0.000 description 11
- 210000000056 organ Anatomy 0.000 description 11
- 210000004027 cell Anatomy 0.000 description 10
- 238000010801 machine learning Methods 0.000 description 10
- 230000004044 response Effects 0.000 description 10
- 238000003745 diagnosis Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 9
- 239000000523 sample Substances 0.000 description 9
- 230000004296 scotopic vision Effects 0.000 description 9
- 230000008901 benefit Effects 0.000 description 8
- 230000017531 blood circulation Effects 0.000 description 8
- 238000002059 diagnostic imaging Methods 0.000 description 8
- 239000006185 dispersion Substances 0.000 description 8
- 230000036541 health Effects 0.000 description 8
- 238000007726 management method Methods 0.000 description 8
- 238000013459 approach Methods 0.000 description 7
- 230000009286 beneficial effect Effects 0.000 description 7
- 210000004204 blood vessel Anatomy 0.000 description 7
- 239000007943 implant Substances 0.000 description 7
- 230000003993 interaction Effects 0.000 description 7
- 230000001953 sensory effect Effects 0.000 description 7
- 238000005520 cutting process Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 6
- 210000002683 foot Anatomy 0.000 description 6
- 210000002414 leg Anatomy 0.000 description 6
- 238000013507 mapping Methods 0.000 description 6
- 230000004310 photopic vision Effects 0.000 description 6
- 108091008695 photoreceptors Proteins 0.000 description 6
- 230000009467 reduction Effects 0.000 description 6
- 230000035945 sensitivity Effects 0.000 description 6
- 230000002123 temporal effect Effects 0.000 description 6
- 210000001367 artery Anatomy 0.000 description 5
- 201000010099 disease Diseases 0.000 description 5
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 5
- 238000003708 edge detection Methods 0.000 description 5
- 239000012530 fluid Substances 0.000 description 5
- 210000004247 hand Anatomy 0.000 description 5
- 230000004886 head movement Effects 0.000 description 5
- 238000010422 painting Methods 0.000 description 5
- 238000013439 planning Methods 0.000 description 5
- 230000002207 retinal effect Effects 0.000 description 5
- 239000007787 solid Substances 0.000 description 5
- 238000003860 storage Methods 0.000 description 5
- 238000005406 washing Methods 0.000 description 5
- 230000005856 abnormality Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000003416 augmentation Effects 0.000 description 4
- 230000000740 bleeding effect Effects 0.000 description 4
- 201000011510 cancer Diseases 0.000 description 4
- 238000005253 cladding Methods 0.000 description 4
- 230000003247 decreasing effect Effects 0.000 description 4
- 201000010260 leiomyoma Diseases 0.000 description 4
- 238000003909 pattern recognition Methods 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 208000003098 Ganglion Cysts Diseases 0.000 description 3
- 206010025421 Macule Diseases 0.000 description 3
- 238000012879 PET imaging Methods 0.000 description 3
- 208000005400 Synovial Cyst Diseases 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 3
- 230000004075 alteration Effects 0.000 description 3
- 230000004087 circulation Effects 0.000 description 3
- 239000004020 conductor Substances 0.000 description 3
- 239000003814 drug Substances 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000004424 eye movement Effects 0.000 description 3
- 210000000744 eyelid Anatomy 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 3
- 238000003064 k means clustering Methods 0.000 description 3
- 210000004185 liver Anatomy 0.000 description 3
- 230000007774 longterm Effects 0.000 description 3
- 230000001902 propagating effect Effects 0.000 description 3
- 238000005549 size reduction Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000003325 tomography Methods 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 208000006820 Arthralgia Diseases 0.000 description 2
- 208000010392 Bone Fractures Diseases 0.000 description 2
- 206010009192 Circulatory collapse Diseases 0.000 description 2
- 208000037062 Polyps Diseases 0.000 description 2
- 208000025865 Ulcer Diseases 0.000 description 2
- 238000002583 angiography Methods 0.000 description 2
- 238000002399 angioplasty Methods 0.000 description 2
- 210000000617 arm Anatomy 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 208000003464 asthenopia Diseases 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 210000000038 chest Anatomy 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 239000002872 contrast media Substances 0.000 description 2
- 210000004087 cornea Anatomy 0.000 description 2
- 230000006378 damage Effects 0.000 description 2
- 206010012601 diabetes mellitus Diseases 0.000 description 2
- 230000010339 dilation Effects 0.000 description 2
- 229940079593 drug Drugs 0.000 description 2
- 210000000613 ear canal Anatomy 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 210000003414 extremity Anatomy 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 210000001097 facial muscle Anatomy 0.000 description 2
- 210000003811 finger Anatomy 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 230000005802 health problem Effects 0.000 description 2
- 238000003702 image correction Methods 0.000 description 2
- 238000010348 incorporation Methods 0.000 description 2
- 238000002347 injection Methods 0.000 description 2
- 239000007924 injection Substances 0.000 description 2
- 238000003780 insertion Methods 0.000 description 2
- 230000037431 insertion Effects 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 239000007788 liquid Substances 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 230000000873 masking effect Effects 0.000 description 2
- 230000003340 mental effect Effects 0.000 description 2
- 230000000399 orthopedic effect Effects 0.000 description 2
- 210000000608 photoreceptor cell Anatomy 0.000 description 2
- 210000003240 portal vein Anatomy 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 239000000047 product Substances 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 230000011514 reflex Effects 0.000 description 2
- 238000002271 resection Methods 0.000 description 2
- 206010040560 shock Diseases 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 210000004872 soft tissue Anatomy 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000000638 stimulation Effects 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 231100000397 ulcer Toxicity 0.000 description 2
- 238000012285 ultrasound imaging Methods 0.000 description 2
- 210000000689 upper leg Anatomy 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000004382 visual function Effects 0.000 description 2
- 230000016776 visual perception Effects 0.000 description 2
- 241000238876 Acari Species 0.000 description 1
- 208000037259 Amyloid Plaque Diseases 0.000 description 1
- 241000256837 Apidae Species 0.000 description 1
- 206010060965 Arterial stenosis Diseases 0.000 description 1
- 241000894006 Bacteria Species 0.000 description 1
- 206010007559 Cardiac failure congestive Diseases 0.000 description 1
- 208000002249 Diabetes Complications Diseases 0.000 description 1
- 206010012655 Diabetic complications Diseases 0.000 description 1
- 206010019280 Heart failures Diseases 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 208000012659 Joint disease Diseases 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 206010027646 Miosis Diseases 0.000 description 1
- 208000006670 Multiple fractures Diseases 0.000 description 1
- 208000006550 Mydriasis Diseases 0.000 description 1
- 208000000592 Nasal Polyps Diseases 0.000 description 1
- 208000028389 Nerve injury Diseases 0.000 description 1
- 208000002193 Pain Diseases 0.000 description 1
- 239000004983 Polymer Dispersed Liquid Crystal Substances 0.000 description 1
- 208000030633 Pulmonary arteriovenous malformation Diseases 0.000 description 1
- 208000001647 Renal Insufficiency Diseases 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 206010040943 Skin Ulcer Diseases 0.000 description 1
- 208000020339 Spinal injury Diseases 0.000 description 1
- 241000153282 Theope Species 0.000 description 1
- 206010046798 Uterine leiomyoma Diseases 0.000 description 1
- 206010057469 Vascular stenosis Diseases 0.000 description 1
- 206010047531 Visual acuity reduced Diseases 0.000 description 1
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 210000001015 abdomen Anatomy 0.000 description 1
- 238000002679 ablation Methods 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000004480 accommodation of the lens Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000003915 air pollution Methods 0.000 description 1
- 238000002266 amputation Methods 0.000 description 1
- 239000002246 antineoplastic agent Substances 0.000 description 1
- 229940041181 antineoplastic drug Drugs 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 208000013355 benign neoplasm of brain Diseases 0.000 description 1
- 210000000941 bile Anatomy 0.000 description 1
- 238000001574 biopsy Methods 0.000 description 1
- 239000002639 bone cement Substances 0.000 description 1
- 230000005821 brain abnormality Effects 0.000 description 1
- 230000007177 brain activity Effects 0.000 description 1
- 210000000481 breast Anatomy 0.000 description 1
- 230000001914 calming effect Effects 0.000 description 1
- 230000000747 cardiac effect Effects 0.000 description 1
- 210000000845 cartilage Anatomy 0.000 description 1
- 210000004534 cecum Anatomy 0.000 description 1
- 239000004568 cement Substances 0.000 description 1
- 208000016252 change in skin color Diseases 0.000 description 1
- 230000010109 chemoembolization Effects 0.000 description 1
- 210000003161 choroid Anatomy 0.000 description 1
- 239000000701 coagulant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000002316 cosmetic surgery Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000013154 diagnostic monitoring Methods 0.000 description 1
- 238000002405 diagnostic procedure Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 231100000317 environmental toxin Toxicity 0.000 description 1
- 230000004418 eye rotation Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000001105 femoral artery Anatomy 0.000 description 1
- 210000003754 fetus Anatomy 0.000 description 1
- 230000005057 finger movement Effects 0.000 description 1
- 239000006260 foam Substances 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000005021 gait Effects 0.000 description 1
- 210000000232 gallbladder Anatomy 0.000 description 1
- 230000012010 growth Effects 0.000 description 1
- 238000001631 haemodialysis Methods 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- 208000019622 heart disease Diseases 0.000 description 1
- 230000000322 hemodialysis Effects 0.000 description 1
- 210000002989 hepatic vein Anatomy 0.000 description 1
- 208000015181 infectious disease Diseases 0.000 description 1
- 230000036512 infertility Effects 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 210000003734 kidney Anatomy 0.000 description 1
- 201000006370 kidney failure Diseases 0.000 description 1
- 230000002147 killing effect Effects 0.000 description 1
- 238000013150 knee replacement Methods 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 210000003715 limbic system Anatomy 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 230000002503 metabolic effect Effects 0.000 description 1
- 230000003547 miosis Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 210000003928 nasal cavity Anatomy 0.000 description 1
- 230000008764 nerve damage Effects 0.000 description 1
- 210000000653 nervous system Anatomy 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000003565 oculomotor Effects 0.000 description 1
- 210000001328 optic nerve Anatomy 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 210000000496 pancreas Anatomy 0.000 description 1
- 230000001575 pathological effect Effects 0.000 description 1
- 238000000053 physical method Methods 0.000 description 1
- 230000035479 physiological effects, processes and functions Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 210000002307 prostate Anatomy 0.000 description 1
- 208000020016 psychiatric disease Diseases 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000007674 radiofrequency ablation Methods 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 210000003786 sclera Anatomy 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 238000002603 single-photon emission computed tomography Methods 0.000 description 1
- 231100000019 skin ulcer Toxicity 0.000 description 1
- 230000000391 smoking effect Effects 0.000 description 1
- 125000006850 spacer group Chemical group 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000011272 standard treatment Methods 0.000 description 1
- 210000002784 stomach Anatomy 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000011477 surgical intervention Methods 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 229940124597 therapeutic agent Drugs 0.000 description 1
- 238000002560 therapeutic procedure Methods 0.000 description 1
- 230000002537 thrombolytic effect Effects 0.000 description 1
- 210000002303 tibia Anatomy 0.000 description 1
- 210000003371 toe Anatomy 0.000 description 1
- 210000005010 torso Anatomy 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 238000012384 transportation and delivery Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000004614 tumor growth Effects 0.000 description 1
- 208000010579 uterine corpus leiomyoma Diseases 0.000 description 1
- 201000007954 uterine fibroid Diseases 0.000 description 1
- 230000006496 vascular abnormality Effects 0.000 description 1
- 210000005166 vasculature Anatomy 0.000 description 1
- 210000000857 visual cortex Anatomy 0.000 description 1
- 230000004393 visual impairment Effects 0.000 description 1
- 239000011800 void material Substances 0.000 description 1
- 230000021542 voluntary musculoskeletal movement Effects 0.000 description 1
- 210000004885 white matter Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/40—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/10—Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/21—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
- B60K35/22—Display screens
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/26—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using acoustic output
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/28—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/60—Instruments characterised by their location or relative disposition in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/80—Arrangements for controlling instruments
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/90—Calibration of instruments, e.g. setting initial or reference parameters; Testing of instruments, e.g. detecting malfunction
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00203—Electrical control of surgical instruments with speech control or speech recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00207—Electrical control of surgical instruments with hand gesture control or hand gesture recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00216—Electrical control of surgical instruments with eye tracking or head position tracking control
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2048—Tracking techniques using an accelerometer or inertia sensor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
- A61B2034/254—User interfaces for surgical systems being adapted depending on the stage of the surgical procedure
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
- A61B2034/258—User interfaces for surgical systems providing specific settings for specific users
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/365—Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/367—Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/368—Correlation of different images or relation of image positions in respect to the body changing the image on a display according to the operator's position
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/371—Surgical systems with images on a monitor during operation with simultaneous use of two cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/372—Details of monitor hardware
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/378—Surgical systems with images on a monitor during operation using ultrasound
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/50—Supports for surgical instruments, e.g. articulated arms
- A61B2090/502—Headgear, e.g. helmet, spectacles
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Chemical & Material Sciences (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Combustion & Propulsion (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Heart & Thoracic Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Biomedical Technology (AREA)
- Veterinary Medicine (AREA)
- Molecular Biology (AREA)
- Optics & Photonics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Pathology (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Robotics (AREA)
- Radiology & Medical Imaging (AREA)
- Gynecology & Obstetrics (AREA)
- Architecture (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Urology & Nephrology (AREA)
- Controls And Circuits For Display Device (AREA)
- Processing Or Creating Images (AREA)
- Eye Examination Apparatus (AREA)
- User Interface Of Digital Computer (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Abstract
Description
本願は、2016年7月25日に出願された米国仮出願第62/366,599号、2016年9月16日に出願された米国仮出願第62/396,071号、2016年12月29日に出願された米国仮出願第62/440,332号に対する35 U.S.C. 119(e)のもとでの優先権の利益を主張するものである。これらの優先権ドキュメントの各々の全体の開示は、参照により本明細書中に援用される。
本願は、
2016年7月25日に出願された米国仮出願第62/366,555号、2016年7月20日に出願された米国仮出願第62/352,539号、2016年5月9日に出願された米国仮出願第62/333,734号、2014年3月14日に出願された米国出願第14/212,961号、2014年7月14日に出願された米国出願第14/331,218号、2016年3月16日に出願された米国出願第15/072,290号、2016年2月11日に出願された米国仮出願第62/294,147号の各々の全体を参照により援用する。
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、頭部搭載型ディスプレイであって、該ディスプレイは、光を該ユーザの眼の中に投影し、ユーザの眼からの異なる距離から投影されるかのように、異なる発散量において拡張現実画像コンテンツをユーザの視野内に表示するように構成され、該ディスプレイの少なくとも一部は、透明部分が、ユーザの正面の環境の一部からの光をユーザの眼に伝送し、ユーザの正面の環境の該部分のビューを提供するように、透明であって、ユーザが該頭部搭載型ディスプレイを装着すると、ユーザの眼の正面の場所に配置される、頭部搭載型ディスプレイと、
ユーザの周囲を感知するように構成される、1つまたはそれを上回る環境センサと、
ディスプレイおよび1つまたはそれを上回る環境センサと通信する、処理電子機器であって、
増加されたユーザ注目を伴う状況を感知し、
少なくとも部分的に、増加された焦点の感知に基づいて、ユーザの視野内の実または仮想オブジェクトのユーザ知覚を改変する、
ように構成される、処理電子機器と、
を備える、頭部搭載型ディスプレイシステム。
2.処理電子機器は、オブジェクトを備える画像コンテンツを改変することによって、ユーザの視野内の仮想オブジェクトのユーザ知覚を改変するように構成される、実施例1に記載のディスプレイシステム。
3.処理電子機器は、オブジェクトを第1の場所から第2の場所に移動させることによって、オブジェクトのユーザ知覚を改変するように構成される、実施例1または2に記載のディスプレイシステム。
4.第1の場所は、周辺領域であって、第2の場所は、中心領域である、または第1の場所は、中心領域であって、第2の場所は、周辺領域である、実施例3に記載のディスプレイシステム。
5.画像コンテンツを改変することは、オブジェクトを備える画像コンテンツのコントラスト、不透明度、色、色飽和、カラーバランス、サイズ、明度、縁、または鮮明度のうちの少なくとも1つを改変することを含む、実施例2−4のいずれかに記載のディスプレイシステム。
6.アラートをユーザに提供するようにさらに構成される、実施例1−5のいずれかに記載のディスプレイシステム。
7.アラートは、視覚的アラートまたは聴覚的アラートである、実施例6に記載のディスプレイシステム。
8.1つまたはそれを上回る環境センサは、深度センサ、一対の両眼世界カメラ、地理位置センサ、近接度センサ、またはGPSを備える、実施例1−7のいずれかに記載のディスプレイシステム。
9.ユーザを感知するように構成される、1つまたはそれを上回るユーザセンサをさらに備え、該処理電子機器は、該1つまたはそれを上回るユーザセンサと通信する、実施例1−8のいずれかに記載のディスプレイシステム。
10.1つまたはそれを上回るユーザセンサは、1つまたはそれを上回るカメラを備える、実施例9に記載のディスプレイシステム。
11.頭部搭載型ディスプレイは、光を導波管から抽出することによって、光を出力するように構成される、回折光学要素を備える、導波管を備え、導波管は、導波管のスタックのうちの1つであって、導波管のスタックの異なる導波管は、異なる波面発散を伴って光を出力するように構成される、実施例1−10のいずれかに記載のディスプレイシステム。
12.処理電子機器はさらに、状況に対するユーザ意図を判定し、少なくとも部分的に、該判定された意図に基づいて、ユーザの視野内の実または仮想オブジェクトのユーザ知覚を改変するように構成される、実施例1−11のいずれかに記載のディスプレイシステム。
13.処理電子機器はさらに、少なくとも部分的に、増加された焦点の感知に基づいて、状況に対するユーザ意図を判定し、ユーザの視野内の実または仮想オブジェクトのユーザ知覚を改変するように構成される、実施例1−12のいずれかに記載のディスプレイシステム。
14.該環境センサは、無線信号を検出するように構成される、センサを備える、実施例1−13のいずれかに記載のディスプレイシステム。
15.該環境センサは、自動車からのBluetooth(登録商標)信号を検出するように構成される、センサを備える、実施例1−14のいずれかに記載のディスプレイシステム。
16.増加されたユーザ注目を伴う該状況は、自動車両を運転することを含む、実施例1−15のいずれかに記載のディスプレイシステム。
17.該処理電子機器は、少なくとも部分的に、ユーザに関する1つまたはそれを上回るデータ記録に基づいて、ユーザの視野内の実または仮想オブジェクトのユーザ知覚を改変するように構成され、該1つまたはそれを上回るデータ記録は、該ユーザの運転記録を含む、実施例16に記載のディスプレイシステム。
18.処理電子機器は、背景を改変することによって、ユーザの視野内の実または仮想オブジェクトのユーザ知覚を改変するように構成される、実施例1−17のいずれかに記載のディスプレイシステム。
19.背景を改変することは、背景の均質性を増加させ、それによって、背景内の可視特徴を低減させることを含む、実施例18に記載のディスプレイシステム。
20.背景の均質性を増加させることは、背景内の特徴をウォッシュアウトまたはペイントオーバーすることを含む、実施例19に記載のディスプレイシステム。
21.処理電子機器は、ユーザおよび頭部搭載型ディスプレイの正面の環境内の特徴がユーザにあまり目立たないように、背景内の光の強度を増加させることによって、背景を改変するように構成される、実施例18−20のいずれかに記載のディスプレイシステム。
22.処理電子機器は、ユーザおよび頭部搭載型ディスプレイの正面の環境内の特徴がユーザにあまり目立たないように、光の強度を増加させるように構成される、実施例1−21のいずれかに記載のディスプレイシステム。
23.ユーザの視野内のオブジェクトのユーザ知覚を改変することは、オブジェクトをハイライトすることを含む、実施例1−22のいずれかに記載のディスプレイシステム。
24.オブジェクトをハイライトすることは、部分的に透明な色をオブジェクトにわたって重畳することを含む、実施例23に記載のディスプレイシステム。
25.光を該ユーザの眼の中に指向し、画像を眼内に形成するように構成される、1つまたはそれを上回る光源をさらに備える、実施例1−24のいずれかに記載のディスプレイシステム。
26.透明であって、ユーザの眼の正面の場所に配置される、該ディスプレイの少なくとも該部分は、光をユーザに投影するように構成される、1つまたはそれを上回る導波管を備える、実施例1−25のいずれかに記載のディスプレイシステム。
27.該1つまたはそれを上回る光源は、光を該1つまたはそれを上回る導波管の中に指向するように構成される、実施例25に記載のディスプレイシステム。
28.該光源は、ファイバ走査プロジェクタを備える、実施例25−27のいずれかに記載のディスプレイシステム。
29.該1つまたはそれを上回る環境センサは、該環境を結像するように構成される、1つまたはそれを上回る外向きに面した画像捕捉システムを備える、実施例1−28のいずれかに記載のディスプレイシステム。
30.該環境センサは、1つまたはそれを上回る外向きに面したカメラを備える、実施例1−29に記載のディスプレイシステム。
31.1つまたはそれを上回る環境センサは、距離測定システムを備える、実施例1−30のいずれかに記載のディスプレイシステム。
32.該距離測定システムは、レーザ測距計を備える、実施例31に記載のディスプレイシステム。
33.該ユーザの眼の位置および/または移動を追跡するように構成される、眼追跡システムをさらに備える、実施例1−32のいずれかに記載のディスプレイシステム。
34.該ユーザの眼を結像するように構成される、1つまたはそれを上回る内向きに面した画像捕捉システムをさらに備える、実施例1−33のいずれかに記載のディスプレイシステム。
35.頭部搭載型ディスプレイシステムは、ユーザの視野の第2の部分に提示される画像コンテンツと比較して、ユーザの視野の少なくとも第1の部分に提示される画像コンテンツを異なるように処理するように構成される、実施例1−34のいずれかに記載のディスプレイシステム。
36.頭部搭載型ディスプレイシステムは、ユーザの視野の中心領域に提示される画像コンテンツと比較して、ユーザの視野の該周辺領域の少なくとも一部に提示される画像コンテンツを異なるように処理するように構成される、実施例1−35のいずれかに記載のディスプレイシステム。
37.該ユーザ知覚を改変することは、増強または強調解除することを含む、実施例1−37のいずれかに記載のディスプレイシステム。
38.該処理電子機器によって提供される増強は、画像コンテンツを拡大することを含む、実施例37に記載のディスプレイシステム。
39.該処理電子機器によって提供される増強または強調解除は、明度を改変することを含む、実施例37−38のいずれかに記載のディスプレイシステム。
40.該処理電子機器によって提供される増強は、明度を増加させることを含む、実施例37−39のいずれかに記載のディスプレイシステム。
41.該処理電子機器によって提供される強調解除は、明度を減少させることを含む、実施例37−40のいずれかに記載のディスプレイシステム。
42.該処理電子機器によって提供される強調解除は、明度を増加させることを含む、実施例37−41のいずれかに記載のディスプレイシステム。
43.該処理電子機器によって提供される増強または強調解除は、コントラストを改変することを含む、実施例37−42のいずれかに記載のディスプレイシステム。
44.該処理電子機器によって提供される増強は、コントラストを増加させることを含む、実施例37−43のいずれかに記載のディスプレイシステム。
45.該処理電子機器によって提供される強調解除は、コントラストを減少させることを含む、実施例37−44のいずれかに記載のディスプレイシステム。
46.該処理電子機器によって提供される増強または強調解除は、色飽和を改変することを含む、実施例37−45のいずれかに記載のディスプレイシステム。
47.該処理電子機器によって提供される増強は、色飽和を増加させることを含む、実施例37−46のいずれかに記載のディスプレイシステム。
48.該処理電子機器によって提供される強調解除は、色飽和を減少させることを含む、実施例37−47のいずれかに記載のディスプレイシステム。
49.該処理電子機器によって提供される増強または強調解除は、鮮明度を改変することを含む、実施例37−48のいずれかに記載のディスプレイシステム。
50.該処理電子機器によって提供される増強は、鮮明度を増加させることを含む、実施例37−49のいずれかに記載のディスプレイシステム。
51.該処理電子機器によって提供される強調解除は、鮮明度を減少させることを含む、実施例37−50のいずれかに記載のディスプレイシステム。
52.該処理電子機器によって提供される増強または強調解除は、不透明度を改変することを含む、実施例37−51のいずれかに記載のディスプレイシステム。
53.該処理電子機器によって提供される増強は、不透明度を増加させることを含む、実施例37−52のいずれかに記載のディスプレイシステム。
54.該処理電子機器によって提供される強調解除は、不透明度を減少させることを含む、実施例37−53のいずれかに記載のディスプレイシステム。
55.該処理電子機器によって提供される強調解除は、不透明度を増加させることを含む、実施例37−54のいずれかに記載のディスプレイシステム。
56.増強は、縁増強特徴を含む、実施例37−55のいずれかに記載のディスプレイシステム。
57.該処理電子機器によって提供される増強または強調解除は、カラーバランスを偏移させることを含む、実施例37−56のいずれかに記載のディスプレイシステム。
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、頭部搭載型ディスプレイであって、該ディスプレイは、画像コンテンツを該ユーザの視野に提示するように、光を該ユーザの眼の中に投影するように構成され、該ディスプレイの少なくとも一部は、透明部分が、ユーザおよび頭部搭載型ディスプレイの正面の環境の一部からの光をユーザの眼に伝送し、ユーザおよび頭部搭載型ディスプレイの正面の環境の該部分のビューを提供するように、透明であって、ユーザが該頭部搭載型ディスプレイシステムを装着すると、ユーザの眼の正面の場所に配置される、頭部搭載型ディスプレイと、
ユーザの環境内のオブジェクトを結像するように構成される、1つまたはそれを上回る外向きに面したカメラと、
ユーザの眼が視認している場所を判定するように構成される、1つまたはそれを上回る眼追跡センサと、
該ディスプレイ、該外向きに面したカメラ、および該眼追跡センサと通信し、該ディスプレイ上での画像コンテンツの提示を制御する、処理電子機器であって、
画像コンテンツを該ユーザの視野に表示し、
眼が指向されているオブジェクトを判定し、
眼が指向されているオブジェクトのレンダリングの増強または眼が指向されているオブジェクトを囲繞する1つまたはそれを上回る特徴の強調解除のうちの少なくとも1つを行う、
ように構成される、処理電子機器と、
を備える、頭部搭載型ディスプレイシステム。
2.処理電子機器は、オブジェクトをディスプレイ上に表示し、オブジェクトのレンダリングを増強させるように構成される、実施例1に記載のディスプレイシステム。
3.処理電子機器は、ディスプレイ上に、オブジェクトを囲繞する該1つまたはそれを上回る特徴を表示し、ディスプレイ上にレンダリングされるような眼が指向されているオブジェクトを囲繞する該1つまたはそれを上回る特徴を強調解除するように構成される、実施例1または2に記載のディスプレイシステム。
4.オブジェクトを囲繞する該1つまたはそれを上回る特徴は、ユーザおよび頭部搭載型ディスプレイシステムの正面の環境内の実特徴を備え、処理電子機器は、眼が指向されているオブジェクトを囲繞する該1つまたはそれを上回る実特徴を強調解除するように構成される、実施例1−3のいずれかに記載のディスプレイシステム。
5.処理電子機器は、ユーザおよび頭部搭載型ディスプレイの正面の環境内の該1つまたはそれを上回る実特徴がユーザにあまり目立たないように、眼の中に指向される光の強度を増加させることによって、眼が指向されているオブジェクトを囲繞する該1つまたはそれを上回る実特徴を強調解除するように構成される、実施例4に記載のディスプレイシステム。
6.処理電子機器は、ユーザおよび頭部搭載型ディスプレイの正面の環境内の特徴がユーザにあまり目立たないように、眼の中に投影される光の強度を増加させるように構成される、実施例1−4のいずれかに記載のディスプレイシステム。
7.該強調解除は、該透明部分を通した環境のビューの明度、可視性、鮮明度、またはコントラストの減少または該透明部分を通した環境の色の改変のうちの1つまたはそれを上回るものを含む、実施例1−6のいずれかに記載のディスプレイシステム。
8.処理電子機器は、画像を該ディスプレイ上に表示すること以外によって、ユーザおよび頭部搭載型ディスプレイの正面の環境内の特徴がユーザにあまり目立たないように、眼の中に投影される光の強度を増加させるように構成される、実施例1−7のいずれかに記載のディスプレイシステム。
9.該強調解除は、不透明度を増加させ、該透明部分を通した環境のビューを減衰させることを含む、実施例1−8のいずれかに記載のディスプレイシステム。
10.該強調解除は、画像を該ディスプレイ上に表示すること以外によって、該透明部分を通した環境のビューの明度、可視性、鮮明度、またはコントラストの減少または該透明部分を通した環境の色の改変のうちの1つまたはそれを上回るものを含む、実施例1−9のいずれかに記載のディスプレイシステム。
11.該強調解除は、画像を該ディスプレイ上に表示すること以外によって、不透明度を増加させ、該透明部分を通した環境のビューを減衰させることを含む、実施例1−10のいずれかに記載のディスプレイシステム。
12.処理電子機器は、背景を改変することによって、ユーザの視野内の実または仮想オブジェクトのユーザ知覚を改変するように構成される、実施例1−11のいずれかに記載のディスプレイシステム。
13.背景を改変することは、背景の均質性を増加させ、それによって、背景内の可視特徴を低減させることを含む、実施例12に記載のディスプレイシステム。
14.背景の均質性を増加させることは、背景内の特徴をウォッシュアウトまたはペイントオーバーすることを含む、実施例13に記載のディスプレイシステム。
15.処理電子機器は、ユーザおよび頭部搭載型ディスプレイの正面の環境内の特徴がユーザにあまり目立たないように、背景内の光の強度を増加させることによって、背景を改変するように構成される、実施例12−14のいずれかに記載のディスプレイシステム。
16.処理電子機器は、該ディスプレイによって表示される画像コンテンツのレンダリングを増強させるように構成される、実施例1−15のいずれかに記載のディスプレイシステム。
17.処理電子機器は、該ディスプレイによって表示される画像コンテンツのレンダリングを強調解除するように構成される、実施例1−16のいずれかに記載のディスプレイシステム。
18.光をユーザの眼に投影し、拡張現実画像コンテンツを該ユーザの視野内に表示するように構成される、ディスプレイシステムであって、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、頭部搭載型ディスプレイであって、該ディスプレイは、画像コンテンツを該ユーザの視野に提示するように、光を該ユーザの眼の中に投影するように構成され、該ディスプレイの少なくとも一部は、該透明部分が、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部からの光をユーザの眼に伝送し、ユーザおよび該頭部搭載型ディスプレイの正面の環境の該部分のビューを提供するように、透明であって、ユーザが該頭部搭載型ディスプレイシステムを装着すると、ユーザの眼の正面の場所に配置される、頭部搭載型ディスプレイと、
該ディスプレイと通信する、処理電子機器であって、
画像コンテンツを該ユーザの視野に表示し、
該ディスプレイによって表示される画像コンテンツのレンダリングの増強または画像コンテンツのレンダリングの強調解除のうちの少なくとも1つを行う、
ように構成され、
該増強は、コントラスト、色飽和、明度、縁可視性、不透明度、または鮮明度の増加、ハイライト、またはディスプレイによって表示される他の画像コンテンツに対するレンダリングされる画像コンテンツの色またはカラーバランスの改変のうちの1つまたはそれを上回るものを含み、
該強調解除は、コントラスト、色飽和、明度、縁可視性、不透明度、または鮮明度の減少、またはディスプレイによって表示される他の画像コンテンツに対するレンダリングされる画像コンテンツの色またはカラーバランスの改変のうちの1つまたはそれを上回るものを含む、
処理電子機器と、
を備える、頭部搭載型ディスプレイシステム。
19.処理電子機器は、該ディスプレイによって表示される画像コンテンツのレンダリングを増強させるように構成される、実施例18に記載のディスプレイシステム。
20.処理電子機器は、該ディスプレイによって表示される画像コンテンツのレンダリングを強調解除するように構成される、実施例18または19に記載のディスプレイシステム。
21.処理電子機器は、ディスプレイによって表示される周囲画像コンテンツに対して該ディスプレイによって表示される画像コンテンツのレンダリングを増強させるように構成される、実施例18−20のいずれかに記載のディスプレイシステム。
22.処理電子機器は、該強調解除された画像コンテンツによって囲繞されるディスプレイによって表示される画像コンテンツに対して該ディスプレイによって表示される画像コンテンツのレンダリングを強調解除するように構成される、実施例18−21のいずれかに記載のディスプレイシステム。
23.ユーザの環境内のオブジェクトを結像するように構成される、1つまたはそれを上回る外向きに面したカメラをさらに備える、実施例18−22のいずれかに記載のディスプレイシステム。
24.ユーザの眼が視認している場所を判定するように構成される、1つまたはそれを上回る眼追跡センサをさらに備える、実施例18−23のいずれかに記載のディスプレイシステム。
25.光をユーザの眼に投影し、拡張現実画像コンテンツを該ユーザの視野内に表示するように構成される、頭部搭載型ディスプレイシステムであって、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、頭部搭載型ディスプレイであって、該ディスプレイは、画像コンテンツを該ユーザの視野に提示するように、光を該ユーザの眼の中に投影するように構成され、該ディスプレイの少なくとも一部は、透明部分が、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部からの光をユーザの眼に伝送し、ユーザおよび該頭部搭載型ディスプレイの正面の環境の該部分のビューを提供するように、透明であって、ユーザが該頭部搭載型ディスプレイシステムを装着すると、ユーザの眼の正面の場所に配置される、頭部搭載型ディスプレイと、
ユーザの環境内のオブジェクトを結像するように構成される、1つまたはそれを上回る外向きに面したカメラと、
該ディスプレイおよび該外向きに面したカメラと通信する、処理電子機器であって、
画像コンテンツを該ユーザの視野に表示し、
オブジェクト認識を1つまたはそれを上回る外向きに面したカメラから受信された画像に適用することによって、ユーザの環境内の1つまたはそれを上回るオブジェクトを認識し、
該オブジェクト認識に基づいて、該ディスプレイによって表示される画像コンテンツのレンダリングの増強または画像コンテンツのレンダリングの強調解除のうちの少なくとも1つを行う、
ように構成され、
該増強は、コントラスト、色飽和、明度、縁可視性、不透明度、鮮明度、ハイライトの増加、またはレンダリングされる画像コンテンツの色またはカラーバランスの改変のうちの1つまたはそれを上回るものを含み、
該強調解除は、コントラスト、色飽和、明度、縁可視性、不透明度、または鮮明度の減少、またはレンダリングされる画像コンテンツの色またはカラーバランスの改変のうちの1つまたはそれを上回るものを含む、
処理電子機器と、
を備える、頭部搭載型ディスプレイシステム。
26.1つまたはそれを上回る外向きに面したカメラは、該フレーム上に配置される、実施例25に記載のディスプレイシステム。
27.処理電子機器は、該ディスプレイによって表示される画像コンテンツのレンダリングを増強させるように構成される、実施例25または26に記載のディスプレイシステム。
28.処理電子機器は、該ディスプレイによって表示される画像コンテンツのレンダリングを強調解除するように構成される、実施例25−27のいずれかに記載のディスプレイシステム。
29.光をユーザの眼に投影し、拡張現実画像コンテンツを該ユーザの視野内に表示するように構成される、頭部搭載型ディスプレイシステムであって、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、頭部搭載型ディスプレイであって、該ディスプレイは、画像コンテンツを該ユーザの視野に提示するように、光を該ユーザの眼の中に投影するように構成され、該ディスプレイの少なくとも一部は、透明部分が、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部からの光をユーザの眼に伝送し、ユーザおよび該頭部搭載型ディスプレイの正面の環境の該部分のビューを提供するように、透明であって、ユーザが該頭部搭載型ディスプレイシステムを装着すると、ユーザの眼の正面の場所に配置される、頭部搭載型ディスプレイと、
ユーザの環境内のオブジェクトを結像するように構成される、1つまたはそれを上回る外向きに面したカメラと、
該ディスプレイおよび該外向きに面したカメラと通信する、処理電子機器であって、
画像コンテンツを該ユーザの視野に表示し、
オブジェクト認識を1つまたはそれを上回る外向きに面したカメラから受信された画像に適用することによって、ユーザの環境内の1つまたはそれを上回るオブジェクトを認識し、
該オブジェクト認識に基づいて、該透明部分を通したユーザの眼へのユーザの正面の該環境のビューの少なくとも一部を強調解除する、
ように構成される、処理電子機器と、
を備える、頭部搭載型ディスプレイシステム。
30.該強調解除は、該透明部分を通した環境のビューの明度、可視性、鮮明度、またはコントラストの減少または該透明部分を通した環境の色の改変のうちの1つまたはそれを上回るものを含む、実施例29に記載のディスプレイシステム。
31.該強調解除は、不透明度を増加させ、該透明部分を通した環境のビューを減衰させることを含む、実施例29または30に記載のディスプレイシステム。
32.該強調解除は、画像を該ディスプレイ上に表示すること以外によって、該透明部分を通した環境のビューの明度、可視性、鮮明度、またはコントラストの減少または該透明部分を通した環境の色の改変のうちの1つまたはそれを上回るものを含む、実施例29−31のいずれかに記載のディスプレイシステム。
33.該強調解除は、画像を該ディスプレイ上に表示すること以外によって、不透明度を増加させ、該透明部分を通した環境のビューを減衰させることを含む、実施例29−32のいずれかに記載のディスプレイシステム。
34.処理電子機器は、背景を改変することによって、ユーザの視野内の実または仮想オブジェクトのユーザ知覚を改変するように構成される、実施例29−33のいずれかに記載のディスプレイシステム。
35.背景を改変することは、背景の均質性を増加させ、それによって、背景内の可視特徴を低減させることを含む、実施例34に記載のディスプレイシステム。
36.背景の均質性を増加させることは、背景内の特徴をウォッシュアウトまたはペイントオーバーすることを含む、実施例35に記載のディスプレイシステム。
37.処理電子機器は、ユーザおよび頭部搭載型ディスプレイの正面の環境内の特徴がユーザにあまり目立たないように、背景内の光の強度を増加させることによって、背景を改変するように構成される、実施例29−36のいずれかに記載のディスプレイシステム。
38.処理電子機器は、ユーザおよび頭部搭載型ディスプレイの正面の環境内の特徴がユーザにあまり目立たないように、光の強度を増加させるように構成される、実施例29−37のいずれかに記載のディスプレイシステム。
39.光をユーザの眼に投影し、拡張現実画像コンテンツを該ユーザの視野内に表示するように構成される、頭部搭載型ディスプレイシステムであって、
ユーザの頭部上に支持されるように構成される、フレームと、
ユーザの環境を感知するための1つまたはそれを上回る外向きに面したセンサと、
フレーム上に配置される、頭部搭載型ディスプレイであって、該ディスプレイは、画像コンテンツを該ユーザの視野に提示するように、光を該ユーザの眼の中に投影するように構成され、該ディスプレイの少なくとも一部は、透明部分が、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部からの光をユーザの眼に伝送し、ユーザおよび該頭部搭載型ディスプレイの正面の環境の該部分のビューを提供するように、透明であって、ユーザが該頭部搭載型ディスプレイシステムを装着すると、ユーザの眼の正面の場所に配置される、頭部搭載型ディスプレイと、
該ディスプレイおよびユーザに関するデータ記録を含む1つまたはそれを上回る記憶システムと通信する、処理電子機器であって、
画像コンテンツを該ユーザの視野に表示し、
該1つまたはそれを上回る外向きに面したセンサからの出力およびユーザに関する該1つまたはそれを上回るデータ記録に基づいて、ユーザの視野内の実または仮想オブジェクトのユーザ知覚を改変する、
ように構成される、処理電子機器と、
を備える、頭部搭載型ディスプレイシステム。
40.該1つまたはそれを上回る外向きに面したセンサは、フレーム上に配置される、1つまたはそれを上回る外向きに面したカメラを備える、実施例39に記載のディスプレイシステム。
41.該1つまたはそれを上回る外向きに面したカメラは、ユーザの環境内のオブジェクトを結像するように構成され、該処理電子機器は、オブジェクト認識を1つまたはそれを上回る外向きに面したカメラから受信された画像に適用することによって、ユーザの環境内の1つまたはそれを上回るオブジェクトを認識し、該オブジェクト認識に基づいて、ユーザの視野内の実または仮想オブジェクトのユーザ知覚を改変するように構成される、実施例39または40に記載のディスプレイシステム。
42.該処理電子機器は、ユーザ注目を伴う状況を感知し、状況に対するユーザ意図を判定し、少なくとも部分的に、該ユーザ意図に基づいて、ユーザの視野内の実または仮想オブジェクトのユーザ知覚を改変するように構成される、実施例39−41のいずれかに記載のディスプレイシステム。
43.ユーザの視野内の実または仮想オブジェクトのユーザ知覚を改変することは、ユーザの視野内の実または仮想オブジェクトのユーザ知覚の増強または強調解除のうちの少なくとも1つを行うことを含む、実施例39−42のいずれかに記載のディスプレイシステム。
44.該1つまたはそれを上回る外向きに面したカメラは、ユーザの環境内のオブジェクトを結像するように構成され、該処理電子機器は、オブジェクト認識を1つまたはそれを上回る外向きに面したカメラから受信された画像に適用することによって、ユーザの環境内の1つまたはそれを上回るオブジェクトを認識し、該オブジェクト認識に基づいて、ユーザの視野内の実または仮想オブジェクトのユーザ知覚の増強または強調解除のうちの少なくとも1つを行うように構成される、実施例39−43のいずれかに記載のディスプレイシステム。
45.該データ記録は、ユーザの運転記録を含む、実施例39−44のいずれかに記載のディスプレイシステム。
46.該データ記録は、ユーザが運転違反を行なったかどうかを含む、実施例45のいずれかに記載のディスプレイシステム。
47.該データ記録は、ユーザの年齢およびユーザが10代のドライバであるかどうかのうちの少なくとも1つを含む、実施例45または46のいずれかに記載のディスプレイシステム。
48.光をユーザの眼に投影し、拡張現実画像コンテンツを該ユーザの視野内に表示するように構成される、頭部搭載型ディスプレイシステムであって、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、頭部搭載型ディスプレイであって、該ディスプレイは、画像コンテンツを該ユーザの視野に提示するように、光を該ユーザの眼の中に投影するように構成され、該ディスプレイの少なくとも一部は、透明部分が、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部からの光をユーザの眼に伝送し、ユーザおよび該頭部搭載型ディスプレイの正面の環境の該部分のビューを提供するように、透明であって、ユーザが該頭部搭載型ディスプレイシステムを装着すると、ユーザの眼の正面の場所に配置される、頭部搭載型ディスプレイと、
ユーザの環境内のオブジェクトを結像するように構成される、1つまたはそれを上回る外向きに面したカメラと、
該ディスプレイおよび該外向きに面したカメラと通信する、処理電子機器であって、
画像コンテンツを該ユーザの視野に表示し、
オブジェクト認識を1つまたはそれを上回る外向きに面したカメラから受信された画像に適用することによって、ユーザの環境内の1つまたはそれを上回るオブジェクトを認識し、
該オブジェクト認識に基づいて、該透明部分を通したユーザの眼へのユーザの正面の該環境のビューの少なくとも一部をハイライトする、
ように構成される、処理電子機器と、
を備える、頭部搭載型ディスプレイシステム。
49.オブジェクトをハイライトすることは、部分的に透明な色をオブジェクトにわたって重畳することを含む、実施例48に記載の頭部搭載型ディスプレイシステム。
50.オブジェクトをハイライトすることは、該1つまたはそれを上回る外向きに面したカメラからの画像を表示すること以外によって、オブジェクトをハイライトすることを含む、実施例48または49に記載の頭部搭載型ディスプレイシステム。
フレーム上に配置される、頭部搭載型ディスプレイであって、該ディスプレイは、画像コンテンツを該ユーザの視野に提示するように、光を該ユーザの眼の中に投影するように構成され、該ディスプレイの少なくとも一部は、透明部分が、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部からの光をユーザの眼に伝送し、ユーザおよび該頭部搭載型ディスプレイの正面の環境の該部分のビューを提供するように、透明であって、ユーザが該頭部搭載型ディスプレイシステムを装着すると、ユーザの眼の正面の場所に配置される、頭部搭載型ディスプレイと、
ユーザの環境内のオブジェクトを結像するように構成される、外向きに面したカメラと、
該ディスプレイおよび該外向きに面したカメラと通信し、該ディスプレイ上での画像コンテンツの提示を制御する、処理電子機器であって、
ユーザが車両を動作中であることを判定し、
ユーザの視野内のオブジェクトを増強させる、
ように構成される、処理電子機器と、
を備える、頭部搭載型ディスプレイシステム。
52.ユーザの視野内のオブジェクトを増強させることは、オブジェクトの画像コンテンツをユーザの視野内の第1の場所から第2の場所に移動させることを含む、実施例51に記載のディスプレイシステム。
53.ユーザの視野内のオブジェクトを増強させることは、増強を伴わずに、オブジェクトのオリジナル色に対してオブジェクトの知覚される色を改変することを含む、実施例51または52に記載のディスプレイシステム。
54.ユーザの視野内のオブジェクトを増強させることは、表示される画像コンテンツのコントラスト、色飽和、明度、縁可視性、不透明度、または鮮明度の増加のうちの1つまたはそれを上回るものを含む、実施例51−53のいずれかに記載のディスプレイシステム。
55.ユーザの視野内のオブジェクトを増強させることは、部分的に透明な色をオブジェクトにわたって重畳することによって、オブジェクトをハイライトすることを含む、実施例51−54のいずれかに記載のディスプレイシステム。
56.光をユーザの眼に投影し、拡張現実画像コンテンツを該ユーザの視野内に表示するように構成される、頭部搭載型ディスプレイシステムであって、
ユーザの頭部上に支持されるように構成される、フレームと、
1つまたはそれを上回るユーザ記録を含有するように構成される、データベースと、
フレーム上に配置される、頭部搭載型ディスプレイであって、該ディスプレイは、画像コンテンツを該ユーザの視野に提示するように、光を該ユーザの眼の中に投影するように構成され、該ディスプレイの少なくとも一部は、透明部分が、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部からの光をユーザの眼に伝送し、ユーザおよび該頭部搭載型ディスプレイの正面の環境の該部分のビューを提供するように、透明であって、ユーザが該頭部搭載型ディスプレイシステムを装着すると、ユーザの眼の正面の場所に配置される、頭部搭載型ディスプレイと、
該ディスプレイおよび該データベースと通信する、処理電子機器であって、ユーザの1つまたはそれを上回る記録に基づいて、表示される画像コンテンツの量を低減させるように構成される、処理電子機器と、
を備える、頭部搭載型ディスプレイシステム。
57.1つまたはそれを上回るユーザ記録は、運転記録、事故記録、是正勧告記録、学業記録、犯罪記録、または逮捕記録のうちの少なくとも1つを含む、実施例56に記載のディスプレイシステム。
58.1つまたはそれを上回るユーザ記録は、ユーザの年齢を含む、実施例56または57に記載のディスプレイシステム。
59.ユーザの1つまたはそれを上回る記録に基づいて、表示される画像コンテンツの量を低減させることは、表示される画像コンテンツへのユーザアクセスを選択的に有効にすることを含む、実施例56−58のいずれかに記載のディスプレイシステム。
60.ユーザの1つまたはそれを上回る記録に基づいて、表示される画像コンテンツの量を低減させることは、画像コンテンツを表示しないことを含む、実施例56−59のいずれかに記載のディスプレイシステム。
61.ユーザの1つまたはそれを上回る記録に基づいて、表示される画像コンテンツの量を低減させることは、画像コンテンツを実質的に表示しないことを含む、実施例56−59のいずれかに記載のディスプレイシステム。
62.光をユーザの眼に投影し、拡張現実画像コンテンツを該ユーザの視野内に表示するように構成される、頭部搭載型ディスプレイシステムであって、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、頭部搭載型ディスプレイであって、該ディスプレイは、画像コンテンツを該ユーザの視野に提示するように、光を該ユーザの眼の中に投影するように構成され、該ディスプレイの少なくとも一部は、透明部分が、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部からの光をユーザの眼に伝送し、ユーザおよび該頭部搭載型ディスプレイの正面の環境の該部分のビューを提供するように、透明であって、ユーザが該頭部搭載型ディスプレイシステムを装着すると、ユーザの眼の正面の場所に配置される、頭部搭載型ディスプレイと、
該ディスプレイと通信する、処理電子機器であって、
少なくとも部分的に、車両のプロセッサとの確立された通信リンクに基づいて、ユーザが車両に近接していることを判定し、
確立された通信リンクに基づいて、表示される画像コンテンツの量を低減させる、
ように構成される、処理電子機器と、
を備える、頭部搭載型ディスプレイシステム。
63.ユーザが車両に近接していることを判定することは、無線周波数信号または赤外線信号の送信および/または受信のうちの少なくとも1つを含む、実施例62に記載の頭部搭載型ディスプレイシステム。
64.ユーザが車両に近接していることを判定することは、無線周波数信号の送信および/または受信のうちの少なくとも1つを含む、実施例62に記載の頭部搭載型ディスプレイシステム。
65.ユーザが車両に近接していることを判定することは、無線信号の送信および/または受信のうちの少なくとも1つを含む、実施例62に記載の頭部搭載型ディスプレイシステム。
66.ユーザが車両に近接していることを判定することは、Bluetooth(登録商標)信号の送信および/または受信のうちの少なくとも1つを含む、実施例62に記載の頭部搭載型ディスプレイシステム。
67.確立された通信リンクに基づいて、表示される画像コンテンツの量を低減させることは、任意の画像コンテンツを表示しないことを含む、実施例62または66のいずれかに記載の頭部搭載型ディスプレイシステム。
68.確立された通信リンクに基づいて、表示される画像コンテンツの量を低減させることは、実質的に任意の画像コンテンツを表示しないことを含む、実施例62または66のいずれかに記載の頭部搭載型ディスプレイシステム。
69.光をユーザの眼に投影し、拡張現実画像コンテンツを該ユーザの視野内に表示するように構成される、頭部搭載型ディスプレイシステムであって、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、頭部搭載型ディスプレイであって、該ディスプレイは、画像コンテンツを該ユーザの視野に提示するように、光を該ユーザの眼の中に投影するように構成され、該ディスプレイの少なくとも一部は、透明部分が、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部からの光をユーザの眼に伝送し、ユーザおよび該頭部搭載型ディスプレイの正面の環境の該部分のビューを提供するように、透明であって、ユーザが該頭部搭載型ディスプレイシステムを装着すると、ユーザの眼の正面の場所に配置される、頭部搭載型ディスプレイと、
ユーザの環境内のオブジェクトを結像するように構成される、外向きに面したカメラと、
オブジェクトの1つまたはそれを上回る位置を識別するように構成される、環境センサと、
該ディスプレイ、該外向きに面したカメラ、および該環境センサと通信する、処理電子機器であって、
ユーザが車両を動作中であるかどうかを判定し、
車両がオブジェクトと衝突するおよびオブジェクトが車両と衝突するリスクのうちの少なくとも1つを判定し、
判定されたリスクに基づいて、表示される画像コンテンツの量を低減させる、
ように構成される、処理電子機器と、
を備える、頭部搭載型ディスプレイシステム。
70.衝突リスクを判定することは、環境センサによって識別されるオブジェクトの1つまたはそれを上回る位置に基づいて、オブジェクトおよび車両が近づきつつある率を判定することを含む、実施例69に記載の頭部搭載型ディスプレイシステム。
71.該オブジェクトの1つまたはそれを上回る位置を識別するように構成される、環境センサは、レーザ測距計、LIDAR、レーダ距離計、または超音波測距デバイスのうちの少なくとも1つを備える、実施例69または70に記載の頭部搭載型ディスプレイシステム。
72.光をユーザの眼に投影し、拡張現実画像コンテンツを該ユーザの視野内に表示するように構成される、頭部搭載型ディスプレイシステムであって、
フレーム上に配置される、ディスプレイであって、該ディスプレイは、画像コンテンツを該ユーザの視野に提示するように、光を該ユーザの眼の中に投影するように構成され、該ディスプレイの少なくとも一部は、透明部分が、ユーザおよび該頭部搭載型ディスプレイの正面の環境の一部からの光をユーザの眼に伝送し、ユーザおよび該頭部搭載型ディスプレイの正面の環境の該部分のビューを提供するように、透明であって、ユーザが該頭部搭載型ディスプレイシステムを装着すると、ユーザの眼の正面の場所に配置される、ディスプレイと、
ユーザの環境内のオブジェクトを結像するように構成される、外向きに面したカメラと、
該ディスプレイおよび該外向きに面したカメラと通信し、該ディスプレイ上での画像コンテンツの提示を制御する、処理電子機器であって、
ユーザが車両を動作中であることを判定し、
ユーザの眼からの異なる距離から投影されるかのように、異なる発散量において画像コンテンツを該ユーザの視野に表示し、
ユーザが車両を動作中であることの判定に基づいて、表示される画像コンテンツの量を低減させる、
ように構成される、処理電子機器と、
を備える、頭部搭載型ディスプレイシステム。
73.処理電子機器は、オブジェクトを備える画像コンテンツを改変することによって、ユーザの視野内の仮想オブジェクトのユーザ知覚を改変するように構成されてもよい、実施例1−72のいずれかに記載のディスプレイシステム。
74.画像コンテンツを改変することは、オブジェクトを備える画像コンテンツのコントラスト、不透明度、色、色飽和、カラーバランス、サイズ、明度、縁、または鮮明度のうちの少なくとも1つを改変することを含む、実施例73に記載のディスプレイシステム。
75.処理電子機器は、オブジェクトを第1の場所から第2の場所に移動させることによって、オブジェクトのユーザ知覚を改変するように構成されてもよい、実施例1−74のいずれかに記載のディスプレイシステム。
76.第1の場所は、周辺領域であって、第2の場所は、中心領域である、または第1の場所は、中心領域であって、第2の場所は、周辺領域である、実施例75に記載のディスプレイシステム。
77.アラートをユーザに提供するようにさらに構成される、実施例1−76のいずれかに記載のディスプレイシステム。
78.アラートは、視覚的アラートまたは聴覚的アラートである、実施例77に記載のディスプレイシステム。
79.1つまたはそれを上回る環境センサをさらに備える、実施例1−78のいずれかに記載のディスプレイシステム。
80.1つまたはそれを上回る環境センサは、深度センサ、一対の両眼世界カメラ、地理位置センサ、近接度センサ、またはGPSを備える、実施例1−79のいずれかに記載のディスプレイシステム。
81.1つまたはそれを上回るユーザセンサをさらに備える、実施例1−79のいずれかに記載のディスプレイシステム。
82.1つまたはそれを上回るユーザセンサは、1つまたはそれを上回るカメラを備える、実施例1−81のいずれかに記載のディスプレイシステム。
83.頭部搭載型ディスプレイは、光を導波管から抽出することによって、光を出力するように構成される、回折光学要素を備える、導波管を備え、導波管は、導波管のスタックのうちの1つであって、導波管のスタックの異なる導波管は、異なる波面発散を伴って光を出力するように構成される、実施例1−82のいずれかに記載のディスプレイシステム。
84.処理電子機器はさらに、状況に対するユーザ意図を判定し、少なくとも部分的に、判定されたユーザ意図に基づいて、ユーザの視野内の実または仮想オブジェクトのユーザ知覚を改変するように構成される、実施例1−83のいずれかに記載のディスプレイシステム。
85.処理電子機器はさらに、少なくとも部分的に、増加された焦点の感知に基づいて、状況に対するユーザ意図を判定し、ユーザの視野内の実または仮想オブジェクトのユーザ知覚を改変するように構成される、実施例1−84のいずれかに記載のディスプレイシステム。
86.該環境センサは、無線信号を検出するように構成される、センサを備える、実施例1−85のいずれかに記載のディスプレイシステム。
87.該環境センサは、自動車からのBluetooth(登録商標)信号を検出するように構成される、センサを備える、実施例1−86のいずれかに記載のディスプレイシステム。
88.該処理電子機器は、ユーザが自動車両を運転中であるかどうかを判定するように構成される、実施例1−87のいずれかに記載のディスプレイシステム。
89.該処理電子機器は、少なくとも部分的に、ユーザに関する1つまたはそれを上回るデータ記録に基づいて、ユーザの視野内の実または仮想オブジェクトのユーザ知覚を改変するように構成され、該1つまたはそれを上回るデータ記録は、該ユーザの運転記録を含む、実施例1−88のいずれかに記載のディスプレイシステム。
90.処理電子機器は、背景を改変するように構成される、実施例1−89に記載のディスプレイシステム。
91.背景を改変することは、背景の均質性を増加させ、それによって、背景内の可視特徴を低減させることを含む、実施例90に記載のディスプレイシステム。
92.背景の均質性を増加させることは、背景をウォッシュアウトまたはペイントオーバーすることを含む、実施例91に記載のディスプレイシステム。
93.処理電子機器は、ユーザおよび頭部搭載型ディスプレイの正面の環境内の特徴がユーザにあまり目立たないように、背景内の光の強度を増加させることによって、背景を改変するように構成される、実施例1−92のいずれかに記載のディスプレイシステム。
94.処理電子機器は、ユーザおよび頭部搭載型ディスプレイの正面の環境内の特徴がユーザにあまり目立たないように、光の強度を増加させるように構成される、実施例1−93のいずれかに記載のディスプレイシステム。
95.処理電子機器は、オブジェクトをハイライトすることによって、ユーザの視野内のオブジェクトのユーザ知覚を改変するように構成される、実施例1−94のいずれかに記載のディスプレイシステム。
96.オブジェクトをハイライトすることは、部分的に透明な色をオブジェクトにわたって重畳することを含む、実施例95に記載のディスプレイシステム。
97.光を該ユーザの眼の中に指向し、画像を眼内に形成するように構成される、1つまたはそれを上回る光源をさらに備える、実施例1−96のいずれかに記載のディスプレイシステム。
98.該1つまたはそれを上回る光源は、光を1つまたはそれを上回る導波管の中に指向するように構成される、実施例97に記載のディスプレイシステム。
99.該1つまたはそれを上回る光源は、ファイバ走査プロジェクタを備える、実施例97または98のいずれかに記載のディスプレイシステム。
100.透明であって、ユーザの眼の正面の場所に配置される、該ディスプレイの少なくとも該部分は、光をユーザに投影するように構成される、1つまたはそれを上回る導波管を備える、実施例1−99のいずれかに記載のディスプレイシステム。
101.環境を監視するように構成される、1つまたはそれを上回るセンサをさらに備える、実施例1−100のいずれかに記載のディスプレイシステム。
102.該1つまたはそれを上回るセンサは、該環境を結像するように構成される、1つまたはそれを上回る外向きに面した画像捕捉システムを備える、実施例101に記載のディスプレイシステム。
103.該該環境を結像するように構成される、1つまたはそれを上回る外向きに面した画像捕捉システムは、1つまたはそれを上回る外向きに面したカメラを備える、実施例102に記載のディスプレイシステム。
104.1つまたはそれを上回るセンサは、距離測定システムを備える、実施例101−103のいずれかに記載のディスプレイシステム。
105.該距離測定システムは、レーザ測距計を備える、実施例104に記載のディスプレイシステム。
106.該ユーザの眼の位置および/または移動を追跡するように構成される、眼追跡システムをさらに備える、実施例1−105のいずれかに記載のディスプレイシステム。
107.該ユーザの眼を結像するように構成される、1つまたはそれを上回る内向きに面した画像捕捉システムをさらに備える、実施例1−106のいずれかに記載のディスプレイシステム。
108.頭部搭載型ディスプレイシステムは、ユーザの視野の第2の部分に提示される画像コンテンツと比較して、ユーザの視野の少なくとも第1の部分に提示される画像コンテンツを異なるように処理するように構成される、実施例1−107のいずれかに記載のディスプレイシステム。
109.頭部搭載型ディスプレイシステムは、ユーザの視野の中心領域に提示される画像コンテンツと比較して、ユーザの視野の該周辺領域の少なくとも一部に提示される画像コンテンツを異なるように処理するように構成される、実施例1−108のいずれかに記載のディスプレイシステム。
110.該処理電子機器によって提供される増強は、画像コンテンツを拡大することを含む、実施例1−109のいずれかに記載のディスプレイシステム。
111.該処理電子機器によって提供される増強または強調解除は、明度を改変することを含む、実施例1−110のいずれかに記載のディスプレイシステム。
112.該処理電子機器によって提供される増強は、明度を増加させることを含む、実施例1−111のいずれかに記載のディスプレイシステム。
113.該処理電子機器によって提供される強調解除は、明度を減少させることを含む、実施例1−112のいずれかに記載のディスプレイシステム。
114.該処理電子機器によって提供される強調解除は、明度を増加させることを含む、実施例1−113のいずれかに記載のディスプレイシステム。
115.該処理電子機器によって提供される増強または強調解除は、コントラストを改変することを含む、実施例1−114のいずれかに記載のディスプレイシステム。
116.該処理電子機器によって提供される増強は、コントラストを増加させることを含む、実施例1−115のいずれかに記載のディスプレイシステム。
117.該処理電子機器によって提供される強調解除は、コントラストを減少させることを含む、実施例1−116のいずれかに記載のディスプレイシステム。
118.該処理電子機器によって提供される増強または強調解除は、色飽和を改変することを含む、実施例1−117のいずれかに記載のディスプレイシステム。
119.該処理電子機器によって提供される増強は、色飽和を増加させることを含む、実施例1−118のいずれかに記載のディスプレイシステム。
120.該処理電子機器によって提供される強調解除は、色飽和を減少させることを含む、実施例1−119のいずれかに記載のディスプレイシステム。
121.該処理電子機器によって提供される増強または強調解除は、鮮明度を改変することを含む、実施例1−120のいずれかに記載のディスプレイシステム。
122.該処理電子機器によって提供される増強は、鮮明度を増加させることを含む、実施例1−121のいずれかに記載のディスプレイシステム。
123.該処理電子機器によって提供される強調解除は、鮮明度を減少させることを含む、実施例1−122のいずれかに記載のディスプレイシステム。
124.該処理電子機器によって提供される増強または強調解除は、不透明度を改変することを含む、実施例1−123のいずれかに記載のディスプレイシステム。
125.該処理電子機器によって提供される増強は、不透明度を増加させることを含む、実施例1−124のいずれかに記載のディスプレイシステム。
126.該処理電子機器によって提供される強調解除は、不透明度を減少させることを含む、実施例1−125のいずれかに記載のディスプレイシステム。
127.該処理電子機器によって提供される強調解除は、不透明度を増加させることを含む、実施例1−126のいずれかに記載のディスプレイシステム。
128.増強は、縁増強特徴を含む、実施例1−127のいずれかに記載のディスプレイシステム。
129.該処理電子機器によって提供される増強または強調解除は、カラーバランスを偏移させることを含む、実施例1−128のいずれかに記載のディスプレイシステム。
実施例セットIA
1.光をユーザの眼に投影し、拡張現実画像コンテンツを表示するように構成される、頭部搭載型ディスプレイシステムであって、該ユーザの眼は、中心領域と、該中心領域を中心として配置される周辺領域を有する、視野を有し、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、ディスプレイであって、該ディスプレイは、画像コンテンツを該ユーザの視野の中心領域に提示するように、光を該ユーザの眼の中に投影するように構成され、該ディスプレイの少なくとも一部は、透明部分が、ユーザの正面の環境の一部からの光をユーザの眼に伝送し、ユーザの正面の環境の該部分のビューを提供するように、透明であって、ユーザが該頭部搭載型ディスプレイシステムを装着すると、ユーザの眼の正面の場所に配置される、ディスプレイと、
該ディスプレイと通信し、該ディスプレイ上での画像コンテンツの提示を制御する、処理電子機器と、
を備え、該頭部搭載型ディスプレイシステムは、ユーザの視野の中心領域に提示される画像コンテンツと比較して増強された画像コンテンツをユーザの視野の該周辺領域に提示するように構成される、頭部搭載型ディスプレイシステム。
2.光を該ユーザの眼の中に指向し、画像を眼内に形成するように構成される、1つまたはそれを上回る光源をさらに備える、実施例1に記載のシステム。
3.透明であって、ユーザの眼の正面の場所に配置される、該ディスプレイの少なくとも該部分は、光をユーザに投影するように構成される、1つまたはそれを上回る導波管を備える、実施例1または2に記載のシステム。
4.該1つまたはそれを上回る光源は、光を該1つまたはそれを上回る導波管の中に指向するように構成される、実施例3に記載のシステム。
5.該光源は、ファイバ走査プロジェクタを備える、実施例2−4のいずれかに記載のシステム。
6.環境を監視するように構成される、1つまたはそれを上回るセンサをさらに備える、前述の実施例のいずれかに記載のシステム。
7.該1つまたはそれを上回るセンサは、該環境を結像するように構成される、1つまたはそれを上回る外向きに面した画像捕捉デバイスを備える、実施例6に記載のシステム。
8.該環境を結像するように構成される、該1つまたはそれを上回る外向きに面した画像捕捉デバイスは、1つまたはそれを上回る外向きに面したカメラを備える、実施例7に記載のシステム。
9.1つまたはそれを上回るセンサは、距離測定デバイスを備える、実施例6−8のいずれかに記載のシステム。
10.該距離測定システムは、レーザ測距計を備える、実施例9に記載のシステム。
11.該ユーザの眼の位置および/または移動を追跡するように構成される、眼追跡デバイスをさらに備える、前述の実施例のいずれかに記載のシステム。
12.該ユーザの眼を結像するように構成される、1つまたはそれを上回る内向きに面した画像捕捉デバイスをさらに備える、実施例1または11に記載のシステム。
13.頭部搭載型ディスプレイシステムは、ユーザの視野の中心領域に提示される画像コンテンツと比較して、ユーザの視野の該周辺領域の少なくとも一部に提示される画像コンテンツを異なるように処理するように構成される、前述の実施例のいずれかに記載のシステム。
14.頭部搭載型ディスプレイシステムは、ユーザの視野の中心領域に提示される画像コンテンツと比較して、ユーザの視野の該周辺領域の少なくとも一部に提示される画像コンテンツを拡大することによって、画像コンテンツを異なるように処理するように構成される、実施例13に記載のシステム。
15.頭部搭載型ディスプレイシステムは、ユーザの視野の中心領域に提示される画像コンテンツと比較して、ユーザの視野の該周辺領域の少なくとも一部に提示される画像コンテンツにおける明度を増加させることによって、画像コンテンツを異なるように処理するように構成される、実施例13−14のいずれかに記載のシステム。
16.頭部搭載型ディスプレイシステムは、ユーザの視野の中心領域に提示される画像コンテンツと比較して、ユーザの視野の該周辺領域の少なくとも一部に提示される画像コンテンツのコントラストを増加させることによって、画像コンテンツを異なるように処理するように構成される、実施例13−15のいずれかに記載のシステム。
17.頭部搭載型ディスプレイシステムは、ユーザの視野の中心領域に提示される画像コンテンツと比較して、ユーザの視野の該周辺領域の少なくとも一部に提示される画像コンテンツの色飽和を増加させることによって、画像コンテンツを異なるように処理するように構成される、実施例13−16のいずれかに記載のシステム。
18.頭部搭載型ディスプレイシステムは、ユーザの視野の中心領域に提示される画像コンテンツと比較して、ユーザの視野の該周辺領域の少なくとも一部に提示される画像コンテンツの鮮明化によって、画像コンテンツを異なるように処理するように構成される、実施例13−17のいずれかに記載のシステム。
19.鮮明化は、ユーザの視野の中心領域に提示される画像コンテンツと比較して、ユーザの視野の該周辺領域の少なくとも一部に提示される画像コンテンツにおける縁増強特徴を含む、実施例18に記載のシステム。
20.頭部搭載型ディスプレイシステムは、ユーザの視野の中心領域に提示される画像コンテンツと比較して、ユーザの視野の該周辺領域の少なくとも一部に提示される画像コンテンツのカラーバランスを偏移させることによって、画像コンテンツを異なるように処理するように構成される、実施例13−19のいずれかに記載のシステム。
21.光をユーザの眼に投影し、拡張現実画像コンテンツを表示するように構成される、頭部搭載型ディスプレイシステムであって、該ユーザの眼は、中心領域と、該中心領域を中心として配置される周辺領域を有する、視野を有し、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、ディスプレイであって、該ディスプレイは、画像コンテンツを該ユーザの視野の中心および周辺領域に提示するように、光を該ユーザの眼の中に投影するように構成され、該ディスプレイの少なくとも一部は、透明部分が、ユーザの正面の環境の一部からの光をユーザの眼に伝送し、ユーザの正面の環境の該部分のビューを提供するように、透明であって、ユーザが該頭部搭載型ディスプレイシステムを装着すると、ユーザの眼の正面の場所に配置される、ディスプレイと、
該ディスプレイと通信し、該ディスプレイ上での画像コンテンツの提示を制御する、処理電子機器と、
を備え、該頭部搭載型ディスプレイシステムは、ユーザの視野の周辺領域に提示される画像コンテンツと比較して強調解除された画像コンテンツをユーザの視野の中心領域に提示するように構成される、頭部搭載型ディスプレイシステム。
22.光をユーザの眼の中に指向し、画像を該眼内に形成するように構成される、1つまたはそれを上回る光源をさらに備える、実施例21に記載のシステム。
23.透明であって、ユーザの眼の正面の場所に配置される、該ディスプレイの少なくとも該部分は、光をユーザに投影するように構成される、1つまたはそれを上回る導波管を備える、実施例21または22に記載のシステム。
24.該1つまたはそれを上回る光源は、光を該1つまたはそれを上回る導波管の中に指向するように構成される、実施例23に記載のシステム。
25.該光源は、ファイバ走査プロジェクタを備える、実施例22−24のいずれかに記載のシステム。
26.環境を監視するように構成される、1つまたはそれを上回るセンサをさらに備える、実施例21−25のいずれかに記載のシステム。
27.該1つまたはそれを上回るセンサは、該環境を結像するように構成される、1つまたはそれを上回る外向きに面した画像捕捉デバイスを備える、実施例26に記載のシステム。
28.該環境を結像するように構成される、該1つまたはそれを上回る外向きに面した画像捕捉デバイスは、1つまたはそれを上回る外向きに面したカメラを備える、実施例27に記載のシステム。
29.1つまたはそれを上回るセンサは、距離測定デバイスを備える、実施例26−28のいずれかに記載のシステム。
30.該距離測定デバイスは、レーザ測距計を備える、実施例29に記載のシステム。
31.該ユーザの眼の位置および/または移動を追跡するように構成される、眼追跡デバイスをさらに備える、実施例21−30のいずれかに記載のシステム。
32.該ユーザの眼を結像するように構成される、1つまたはそれを上回る内向きに面した画像捕捉デバイスをさらに備える、実施例21−31に記載のシステム。
33.頭部搭載型ディスプレイシステムは、ユーザの視野の周辺領域に提示される画像コンテンツと比較して、ユーザの視野の中心領域の少なくとも一部に提示される画像コンテンツを異なるように処理するように構成される、実施例21−32のいずれかに記載のシステム。
34.頭部搭載型ディスプレイシステムは、ユーザの視野の周辺領域に提示される画像コンテンツと比較して、ユーザの視野の中心領域の少なくとも一部に提示される画像コンテンツをぼかすことによって、画像コンテンツを異なるように処理するように構成される、実施例33に記載のシステム。
35.頭部搭載型ディスプレイシステムは、ユーザの視野の周辺領域に提示される画像コンテンツと比較して、ユーザの視野の中心領域の少なくとも一部に提示される画像コンテンツを暗化または減衰させることによって、画像コンテンツを異なるように処理するように構成される、実施例33−34のいずれかに記載のシステム。
36.頭部搭載型ディスプレイシステムは、ユーザの視野の周辺領域に提示される画像コンテンツと比較して、ユーザの視野の中心領域の少なくとも一部に提示される画像コンテンツのコントラストを低減させることによって、画像コンテンツを異なるように処理するように構成される、実施例33−35のいずれかに記載のシステム。
37.頭部搭載型ディスプレイシステムは、ユーザの視野の周辺領域に提示される画像コンテンツと比較して、ユーザの視野の中心領域の少なくとも一部に提示される画像コンテンツの色飽和を低減させることによって、画像コンテンツを異なるように処理するように構成される、実施例33−36のいずれかに記載のシステム。
38.頭部搭載型ディスプレイシステムは、ユーザの視野の周辺領域に提示される画像コンテンツと比較して、ユーザの視野の中心領域の少なくとも一部に提示される画像コンテンツの鮮明度を低減させることによって、画像コンテンツを異なるように処理するように構成される、実施例33−37のいずれかに記載のシステム。
39.鮮明度を減少させることは、ユーザの視野の周辺領域に提示される画像コンテンツと比較して、ユーザの視野の中心領域の少なくとも一部に提示される画像コンテンツ内の特徴の縁を増強解除することを含む、実施例38に記載のシステム。
40.頭部搭載型ディスプレイシステムは、ユーザの視野の周辺領域に提示される画像コンテンツと比較して、ユーザの視野の中心領域の少なくとも一部に提示される画像コンテンツのカラーバランスを偏移させることによって、画像コンテンツを異なるように処理するように構成される、実施例33−39のいずれかに記載のシステム。
41.頭部搭載型ディスプレイシステムは、ユーザの視野の周辺領域に提示される画像コンテンツと比較して、ユーザの視野の中心領域の少なくとも一部に提示される画像コンテンツを収縮させることによって、画像コンテンツを異なるように処理するように構成される、実施例33−40のいずれかに記載のシステム。
42.該拡大は、少なくとも部分的に、眼の分解能に基づく、実施例14に記載のシステム。
43.該ぼかしは、同一色を使用して、該ユーザの視野の中心領域の少なくとも一部に提示される該画像コンテンツをぼかすことを含む、実施例34に記載のシステム。
44.該同一色は、該ユーザの視野の該周辺領域に提示される画像コンテンツ内の色と比較して、高コントラスト色を備える、実施例44に記載のシステム。
45.システムは、アラートをユーザに提供し、提示される画像が増強されたことを示すように構成される、実施例1−20または42のいずれかに記載のシステム。
46.システムは、アラートをユーザに提供し、提示される画像が強調解除されたことを示すように構成される、実施例21−41のいずれかまたは実施例43−44のいずれかに記載のシステム。
47.アラートは、視覚的アラートである、実施例45または46のいずれかに記載のシステム。
48.アラートは、聴覚的アラートである、実施例45または46のいずれかに記載のシステム。
49.該頭部搭載型ディスプレイシステムは、ユーザの正面の環境の少なくとも該部分の3D表現を構築し、環境の少なくとも該部分の表現を解釈するように構成され、該環境の該部分は、患者を含み、該頭部搭載型ディスプレイはさらに、患者と関連付けられた第1の構造を患者と関連付けられた第2の構造から区別するように構成される、前述の実施例のいずれかに記載のシステム。
50.透明であって、ユーザの眼の正面の場所に配置される、該ディスプレイの少なくとも該部分は、1つまたはそれを上回る導波管を備える、前述の実施例のいずれかに記載のシステム。
51.光を該1つまたはそれを上回る導波管の中に指向するように構成される、1つまたはそれを上回る光源を備え、導波管は、光をユーザの眼の中に指向するように構成される、実施例50に記載のシステム。
52.該1つまたはそれを上回る光源は、ファイバ走査プロジェクタを備える、実施例50−51のいずれかに記載のシステム。
53.環境を監視するように構成される、1つまたはそれを上回るセンサをさらに備える、前述の実施例のいずれかに記載のシステム。
54.該1つまたはそれを上回るセンサは、該環境を結像するように構成される、1つまたはそれを上回る外向きに面した画像捕捉デバイスを備える、実施例53に記載のシステム。
55.該環境を結像するように構成される、該1つまたはそれを上回る外向きに面した画像捕捉デバイスは、1つまたはそれを上回る外向きに面したカメラを備える、実施例54に記載のシステム。
56.距離測定デバイスをさらに備える、前述の実施例のいずれかに記載のシステム。
57.該ユーザの眼の位置および/または移動を追跡するように構成される、眼追跡デバイスをさらに備える、前述の実施例のいずれかに記載のシステム。
58.頭部搭載型ディスプレイは、ユーザの視野内のヒト組織の体積を推定するように構成される、前述の実施例のいずれかに記載のシステム。
59.頭部搭載型ディスプレイは、環境内の2つのオブジェクト間の距離を測定するように構成される、前述の実施例のいずれかに記載のシステム。
60.頭部搭載型ディスプレイは、ディスプレイ上に提示される第1の画像モダリティと第2の画像モダリティとの間でトグルするように構成される、前述の実施例のいずれかに記載のシステム。
61.第1の画像モダリティは、MRI走査を備える、実施例60に記載のシステム。
62.第2の画像モダリティは、超音波を備える、実施例60−61のいずれかに記載のシステム。
63.第1の画像モダリティは、X線走査を備える、実施例60−62のいずれかに記載のシステム。
64.超音波音波を生産するように適合される、電子エミッタをさらに備える、前述の実施例のいずれかに記載のシステム。
65.超音波音波を電気信号に変換するように適合される、センサをさらに備える、前述の実施例のいずれかに記載のシステム。
66.頭部搭載型ディスプレイは、ユーザが、仮想基準マーカをユーザの眼に対してユーザの正面の環境の一部上に設置することを可能にするように構成される、前述の実施例のいずれかに記載のシステム。
67.頭部搭載型ディスプレイは、画像が環境内の実世界オブジェクトに添付されて現れるように、画像をディスプレイ上に投影するように構成される、前述の実施例のいずれかに記載のシステム。
68.頭部搭載型ディスプレイは、仮想切断ガイドラインが切断されるべきヒト身体領域上にオーバーレイされるようにユーザに現れるように、仮想切断ガイドラインを表示するように構成される、または切断されるべき部分へのアクセスを与える、前述の実施例のいずれかに記載のシステム。
69.仮想切断ガイドラインの見掛け場所は、患者の身体部分の位置に関連するように現れる、実施例68に記載のシステム。
70.頭部搭載型ディスプレイは、信号を放出し、ユーザの正面の環境の一部内のオブジェクトの位置に関するデータを取得するように構成される、前述の実施例のいずれかに記載のシステム。
71.頭部搭載型ディスプレイは、オブジェクト場所のデータベースを使用して、ユーザの正面の環境の一部内のオブジェクトの位置を取得するように構成される、前述の実施例のいずれかに記載のシステム。
72.頭部搭載型ディスプレイは、該オブジェクト場所のデータベースに基づいて、基準点を設定し、画像が基準点に対して固定されて現れるように、画像をユーザの眼の中に投影するように構成される、実施例71に記載のシステム。
73.頭部搭載型ディスプレイは、ユーザ入力に基づいて、オブジェクトの3D画像のビューを軸を中心として回転させるように構成される、前述の実施例のいずれかに記載のシステム。
74.頭部搭載型ディスプレイは、ユーザ入力に基づいて、3Dオブジェクトの画像のビューを平行移動させるように構成される、前述の実施例のいずれかに記載のシステム。
75.頭部搭載型ディスプレイは、オブジェクトの3D画像の第1のスライスを表示するように構成される、前述の実施例のいずれかに記載のシステム。
76.頭部搭載型ディスプレイは、3D画像の第1のスライスの画像および第2のスライスの画像を通してシーケンス化するように構成される、実施例75に記載のシステム。
77.頭部搭載型ディスプレイは、頭部搭載型ディスプレイの第2のユーザが伝送される環境の該部分の該画像を視認し得るように、ユーザの正面の環境の一部の画像を伝送するように構成される、前述の実施例のいずれかに記載のシステム。
78.頭部搭載型ディスプレイは、ユーザに医療手技におけるステップをアラートするように構成される、前述の実施例のいずれかに記載のシステム。
79.頭部搭載型ディスプレイは、ユーザの医療パラメータを監視し、医療パラメータに基づいて、アラートを提供するように構成される、前述の実施例のいずれかに記載のシステム。
80.ユーザの医療パラメータは、バイタルサインを含む、実施例79に記載のシステム。
81.頭部搭載型ディスプレイは、超音波を放出し、該超音波から生じる信号を測定するように構成され、頭部搭載型ディスプレイはさらに、信号に基づいて、超音波画像を形成するように構成される、前述の実施例のいずれかに記載のシステム。
82.頭部搭載型ディスプレイは、ユーザにユーザの視野外のオブジェクトおよび/またはイベントをアラートするように構成される、前述の実施例のいずれかに記載のシステム。
83.光を該ユーザの眼の中に指向し、画像を眼内に形成するように構成される、1つまたはそれを上回る光源をさらに備える、前述の実施例のいずれかに記載のシステム。
84.該1つまたはそれを上回る光源は、ファイバ走査プロジェクタを備える、前述の実施例のいずれかに記載のシステム。
85.コントラストを増加させることは、該画像コンテンツの少なくとも1つの色の明度または暗度を調節することを含む、実施例16に記載のシステム。
86.コントラストを増加させることは、黒色、灰色、白色、または他の色を該画像コンテンツの少なくとも1つの色に追加することを含む、実施例16に記載のシステム。
87.頭部搭載型ディスプレイは、ある程度の不透明度を提示される画像コンテンツの少なくとも近傍に提供するように構成される、前述の実施例のいずれかに記載のシステム。
88.頭部搭載型ディスプレイは、第1の画像モダリティと第1の画像モダリティと異なる第2の画像モダリティを組み合わせるように構成される、前述の実施例のいずれかに記載のシステム。
89.第1の画像モダリティおよび第2の画像モダリティはそれぞれ、MRI、CT、PET、MRA、またはCTA走査からの画像を備える、実施例88に記載のシステム。
90.頭部搭載型ディスプレイは、第1および第2の画像モダリティの組み合わせられた画像を患者の実際の解剖学的構造にわたって整合させるように構成される、実施例88または89に記載のシステム。
1.光をユーザの眼に投影し、拡張現実画像コンテンツを表示するように構成される、頭部搭載型ディスプレイシステムであって、該ユーザの眼は、中心領域と、該中心領域を中心として配置される周辺領域を有する、視野を有し、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、ディスプレイであって、該ディスプレイは、画像コンテンツを該ユーザの視野の中心領域に提示するように、光を該ユーザの眼の中に投影するように構成され、該ディスプレイの少なくとも一部は、透明部分が、ユーザの正面の環境の一部からの光をユーザの眼に伝送し、ユーザの正面の環境の該部分のビューを提供するように、透明であって、ユーザが該頭部搭載型ディスプレイシステムを装着すると、ユーザの眼の正面の場所に配置される、ディスプレイと、
該ディスプレイと通信し、該ディスプレイ上での画像コンテンツの提示を制御する、処理電子機器と、
を備え、該頭部搭載型ディスプレイシステムは、ユーザの視野の中心領域に、ユーザの視野の周辺領域に提示される画像コンテンツと比較して増強された画像コンテンツを提示するように構成される、頭部搭載型ディスプレイシステム。
2.光を該ユーザの眼の中に指向し、画像を眼内に形成するように構成される、1つまたはそれを上回る光源をさらに備える、実施例1に記載のシステム。
3.透明であって、ユーザの眼の正面の場所に配置される、該ディスプレイの少なくとも該部分は、光をユーザに投影するように構成される、1つまたはそれを上回る導波管を備える、実施例1または2に記載のシステム。
4.該1つまたはそれを上回る光源は、光を該1つまたはそれを上回る導波管の中に指向するように構成される、実施例3に記載のシステム。
5.該光源は、ファイバ走査プロジェクタを備える、実施例2−4のいずれかに記載のシステム。
6.環境を監視するように構成される、1つまたはそれを上回るセンサをさらに備える、前述の実施例のいずれかに記載のシステム。
7.該1つまたはそれを上回るセンサは、該環境を結像するように構成される、1つまたはそれを上回る外向きに面した画像捕捉デバイスを備える、実施例6に記載のシステム。
8.該環境を結像するように構成される、該1つまたはそれを上回る外向きに面した画像捕捉デバイスは、1つまたはそれを上回る外向きに面したカメラを備える、実施例7に記載のシステム。
9.1つまたはそれを上回るセンサは、距離測定デバイスを備える、実施例6−8のいずれかに記載のシステム。
10.該距離測定デバイスは、レーザ測距計を備える、実施例9に記載のシステム。
11.該ユーザの眼の位置および/または移動を追跡するように構成される、眼追跡デバイスをさらに備える、前述の実施例のいずれかに記載のシステム。
12.該ユーザの眼を結像するように構成される、1つまたはそれを上回る内向きに面した画像捕捉デバイスをさらに備える、実施例1または11に記載のシステム。
13.頭部搭載型ディスプレイシステムは、ユーザの視野の周辺領域に提示される画像コンテンツと比較して、ユーザの視野の中心領域の少なくとも一部に提示される画像コンテンツを異なるように処理するように構成される、前述の実施例のいずれかに記載のシステム。
14.頭部搭載型ディスプレイシステムは、ユーザの視野の周辺領域に提示される画像コンテンツと比較して、ユーザの視野の中心領域の少なくとも一部に提示される画像コンテンツを拡大することによって、画像コンテンツを異なるように処理するように構成される、実施例13に記載のシステム。
15.頭部搭載型ディスプレイシステムは、ユーザの視野の周辺領域に提示される画像コンテンツと比較して、ユーザの視野の中心領域の少なくとも一部に提示される画像コンテンツにおける明度を増加させることによって、画像コンテンツを異なるように処理するように構成される、実施例13−14のいずれかに記載のシステム。
16.頭部搭載型ディスプレイシステムは、ユーザの視野の周辺領域に提示される画像コンテンツと比較して、ユーザの視野の中心領域の少なくとも一部に提示される画像コンテンツのコントラストを増加させることによって、画像コンテンツを異なるように処理するように構成される、実施例13−15のいずれかに記載のシステム。
17.頭部搭載型ディスプレイシステムは、ユーザの視野の周辺領域に提示される画像コンテンツと比較して、ユーザの視野の中心領域の少なくとも一部に提示される画像コンテンツの色飽和を増加させることによって、画像コンテンツを異なるように処理するように構成される、実施例13−16のいずれかに記載のシステム。
18.頭部搭載型ディスプレイシステムは、ユーザの視野の周辺領域に提示される画像コンテンツと比較して、ユーザの視野の中心領域の少なくとも一部に提示される画像コンテンツの鮮明化によって、画像コンテンツを異なるように処理するように構成される、実施例13−17のいずれかに記載のシステム。
19.鮮明化は、ユーザの視野の周辺領域に提示される画像コンテンツと比較して、ユーザの視野の中心領域の少なくとも一部に提示される画像コンテンツにおける縁増強特徴を含む、実施例18に記載のシステム。
20.頭部搭載型ディスプレイシステムは、ユーザの視野の周辺領域に提示される画像コンテンツと比較して、ユーザの視野の中心領域の少なくとも一部に提示される画像コンテンツのカラーバランスを偏移させることによって、画像コンテンツを異なるように処理するように構成される、実施例13−19のいずれかに記載のシステム。
21.光をユーザの眼に投影し、拡張現実画像コンテンツを表示するように構成される、頭部搭載型ディスプレイシステムであって、該ユーザの眼は、中心領域と、該中心領域を中心として配置される周辺領域を有する、視野を有し、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、ディスプレイであって、該ディスプレイは、画像コンテンツを該ユーザの視野の中心および周辺領域に提示するように、光を該ユーザの眼の中に投影するように構成され、該ディスプレイの少なくとも一部は、透明部分が、ユーザの正面の環境の一部からの光をユーザの眼に伝送し、ユーザの正面の環境の該部分のビューを提供するように、透明であって、ユーザが該頭部搭載型ディスプレイシステムを装着すると、ユーザの眼の正面の場所に配置される、ディスプレイと、
該ディスプレイと通信し、該ディスプレイ上での画像コンテンツの提示を制御する、処理電子機器と、
を備え、該頭部搭載型ディスプレイシステムは、ユーザの視野の中心領域に提示される画像コンテンツと比較して強調解除された画像コンテンツをユーザの視野の該周辺領域に提示するように構成される、頭部搭載型ディスプレイシステム。
22.光をユーザの眼の中に指向し、画像を該眼内に形成するように構成される、1つまたはそれを上回る光源をさらに備える、実施例21に記載のシステム。
23.透明であって、ユーザの眼の正面の場所に配置される、該ディスプレイの少なくとも該部分は、光をユーザに投影するように構成される、1つまたはそれを上回る導波管を備える、実施例21または22に記載のシステム。
24.該1つまたはそれを上回る光源は、光を該1つまたはそれを上回る導波管の中に指向するように構成される、実施例23に記載のシステム。
25.該光源は、ファイバ走査プロジェクタを備える、実施例22−24のいずれかに記載のシステム。
26.環境を監視するように構成される、1つまたはそれを上回るセンサをさらに備える、実施例21−25のいずれかに記載のシステム。
27.該1つまたはそれを上回るセンサは、該環境を結像するように構成される、1つまたはそれを上回る外向きに面した画像捕捉デバイスを備える、実施例26に記載のシステム。
28.該環境を結像するように構成される、該1つまたはそれを上回る外向きに面した画像捕捉デバイスは、1つまたはそれを上回る外向きに面したカメラを備える、実施例27に記載のシステム。
29.1つまたはそれを上回るセンサは、距離測定デバイスを備える、実施例26−28のいずれかに記載のシステム。
30.該距離測定デバイスは、レーザ測距計を備える、実施例29に記載のシステム。
31.該ユーザの眼の位置および/または移動を追跡するように構成される、眼追跡デバイスをさらに備える、実施例21−30のいずれかに記載のシステム。
32.該ユーザの眼を結像するように構成される、1つまたはそれを上回る内向きに面した画像捕捉デバイスをさらに備える、実施例21−31に記載のシステム。
33.頭部搭載型ディスプレイシステムは、ユーザの視野の中心領域に提示される画像コンテンツと比較して、ユーザの視野の該周辺領域の少なくとも一部に提示される画像コンテンツを異なるように処理するように構成される、実施例21−32のいずれかに記載のシステム。
34.頭部搭載型ディスプレイシステムは、ユーザの視野の中心領域に提示される画像コンテンツと比較して、ユーザの視野の該周辺領域の少なくとも一部に提示される画像コンテンツをぼかすことによって、画像コンテンツを異なるように処理するように構成される、実施例33に記載のシステム。
35.頭部搭載型ディスプレイシステムは、ユーザの視野の中心領域に提示される画像コンテンツと比較して、ユーザの視野の該周辺領域の少なくとも一部に提示される画像コンテンツを暗化または減衰させることによって、画像コンテンツを異なるように処理するように構成される、実施例33−34のいずれかに記載のシステム。
36.頭部搭載型ディスプレイシステムは、ユーザの視野の中心領域に提示される画像コンテンツと比較して、ユーザの視野の該周辺領域の少なくとも一部に提示される画像コンテンツのコントラストを低減させることによって、画像コンテンツを異なるように処理するように構成される、実施例33−35のいずれかに記載のシステム。
37.頭部搭載型ディスプレイシステムは、ユーザの視野の中心領域に提示される画像コンテンツと比較して、ユーザの視野の該周辺領域の少なくとも一部に提示される画像コンテンツの色飽和を低減させることによって、画像コンテンツを異なるように処理するように構成される、実施例33−36のいずれかに記載のシステム。
38.頭部搭載型ディスプレイシステムは、ユーザの視野の中心領域に提示される画像コンテンツと比較して、ユーザの視野の該周辺領域の少なくとも一部に提示される画像コンテンツの鮮明度を低減させることによって、画像コンテンツを異なるように処理するように構成される、実施例33−37のいずれかに記載のシステム。
39.鮮明度を減少させることは、ユーザの視野の中心領域に提示される画像コンテンツと比較して、ユーザの視野の該周辺領域の少なくとも一部に提示される画像コンテンツ内の特徴の縁を増強解除することを含む、実施例38に記載のシステム。
40.頭部搭載型ディスプレイシステムは、ユーザの視野の中心領域に提示される画像コンテンツと比較して、ユーザの視野の該周辺領域の少なくとも一部に提示される画像コンテンツのカラーバランスを偏移させることによって、画像コンテンツを異なるように処理するように構成される、実施例33−39のいずれかに記載のシステム。
41.頭部搭載型ディスプレイシステムは、ユーザの視野の中心領域に提示される画像コンテンツと比較して、ユーザの視野の該周辺領域の少なくとも一部に提示される画像コンテンツを収縮させることによって、画像コンテンツを異なるように処理するように構成される、実施例33−40のいずれかに記載のシステム。
42.該拡大は、少なくとも部分的に、眼の分解能に基づく、実施例14に記載のシステム。
43.該ぼかしは、同一色を使用して、該ユーザの視野の該周辺領域の少なくとも一部に提示される該画像コンテンツをぼかすことを含む、実施例34に記載のシステム。
44.該同一色は、ユーザの視野の中心領域に提示される該画像コンテンツ内の色と比較して高コントラスト色を備える、実施例44に記載のシステム。
45.システムは、アラートをユーザに提供し、提示される画像が増強されたことを示すように構成される、実施例1−20または42のいずれかに記載のシステム。
46.システムは、アラートをユーザに提供し、提示される画像が強調解除されたことを示すように構成される、実施例21−41のいずれかまたは実施例43−44のいずれかに記載のシステム。
47.アラートは、視覚的アラートである、実施例45または46のいずれかに記載のシステム。
48.アラートは、聴覚的アラートである、実施例45または46のいずれかに記載のシステム。
49.該頭部搭載型ディスプレイシステムは、ユーザの正面の環境の少なくとも該部分の3D表現を構築し、環境の少なくとも該部分の表現を解釈するように構成され、該環境の該部分は、患者を含み、該頭部搭載型ディスプレイはさらに、患者と関連付けられた第1の構造を患者と関連付けられた第2の構造から区別するように構成される、前述の実施例のいずれかに記載のシステム。
50.透明であって、ユーザの眼の正面の場所に配置される、該ディスプレイの少なくとも該部分は、1つまたはそれを上回る導波管を備える、前述の実施例のいずれかに記載のシステム。
51.光を該1つまたはそれを上回る導波管の中に指向するように構成される、1つまたはそれを上回る光源を備え、導波管は、光をユーザの眼の中に指向するように構成される、実施例50に記載のシステム。
52.該1つまたはそれを上回る光源は、ファイバ走査プロジェクタを備える、実施例50−51のいずれかに記載のシステム。
53.環境を監視するように構成される、1つまたはそれを上回るセンサをさらに備える、前述の実施例のいずれかに記載のシステム。
54.該1つまたはそれを上回るセンサは、該環境を結像するように構成される、1つまたはそれを上回る外向きに面した画像捕捉デバイスを備える、実施例53に記載のシステム。
55.該環境を結像するように構成される、該1つまたはそれを上回る外向きに面した画像捕捉デバイスは、1つまたはそれを上回る外向きに面したカメラを備える、実施例54に記載のシステム。
56.距離測定デバイスをさらに備える、前述の実施例のいずれかに記載のシステム。
57.該ユーザの眼の位置および/または移動を追跡するように構成される、眼追跡デバイスをさらに備える、前述の実施例のいずれかに記載のシステム。
58.頭部搭載型ディスプレイは、ユーザの視野内のヒト組織の体積を推定するように構成される、前述の実施例のいずれかに記載のシステム。
59.頭部搭載型ディスプレイは、環境内の2つのオブジェクト間の距離を測定するように構成される、前述の実施例のいずれかに記載のシステム。
60.頭部搭載型ディスプレイは、ディスプレイ上に提示される第1の画像モダリティと第2の画像モダリティとの間でトグルするように構成される、前述の実施例のいずれかに記載のシステム。
61.第1の画像モダリティは、MRI走査を備える、実施例60に記載のシステム。
62.第2の画像モダリティは、超音波を備える、実施例60−61のいずれかに記載のシステム。
63.第1の画像モダリティは、X線走査を備える、実施例60−61のいずれかに記載のシステム。
64.超音波音波を生産するように適合される、電子エミッタをさらに備える、前述の実施例のいずれかに記載のシステム。
65.超音波音波を電気信号に変換するように適合される、センサをさらに備える、前述の実施例のいずれかに記載のシステム。
66.頭部搭載型ディスプレイは、ユーザが、仮想基準マーカをユーザの眼に対してユーザの正面の環境の一部上に設置することを可能にするように構成される、前述の実施例のいずれかに記載のシステム。
67.頭部搭載型ディスプレイは、画像が環境内の実世界オブジェクトに添付されて現れるように、画像をディスプレイ上に投影するように構成される、前述の実施例のいずれかに記載のシステム。
68.頭部搭載型ディスプレイは、仮想切断ガイドラインが切断されるべきヒト身体領域上にオーバーレイされるようにユーザに現れるように、仮想切断ガイドラインを表示するように構成される、または切断されるべき部分へのアクセスを与える、前述の実施例のいずれかに記載のシステム。
69.仮想切断ガイドラインの見掛け場所は、患者の身体部分の位置に関連するように現れる、実施例68に記載のシステム。
70.頭部搭載型ディスプレイは、信号を放出し、ユーザの正面の環境の一部内のオブジェクトの位置に関するデータを取得するように構成される、前述の実施例のいずれかに記載のシステム。
71.頭部搭載型ディスプレイは、オブジェクト場所のデータベースを使用して、ユーザの正面の環境の一部内のオブジェクトの位置を取得するように構成される、前述の実施例のいずれかに記載のシステム。
72.頭部搭載型ディスプレイは、該オブジェクト場所のデータベースに基づいて、基準点を設定し、画像が基準点に対して固定されて現れるように、画像をユーザの眼の中に投影するように構成される、実施例71に記載のシステム。
73.頭部搭載型ディスプレイは、ユーザ入力に基づいて、オブジェクトの3D画像のビューを軸を中心として回転させるように構成される、前述の実施例のいずれかに記載のシステム。
74.頭部搭載型ディスプレイは、ユーザ入力に基づいて、3Dオブジェクトの画像のビューを平行移動させるように構成される、前述の実施例のいずれかに記載のシステム。
75.頭部搭載型ディスプレイは、オブジェクトの3D画像の第1のスライスを表示するように構成される、前述の実施例のいずれかに記載のシステム。
76.頭部搭載型ディスプレイは、3D画像の第1のスライスの画像および第2のスライスの画像を通してシーケンス化するように構成される、実施例76に記載のシステム。
77.頭部搭載型ディスプレイは、頭部搭載型ディスプレイの第2のユーザが伝送される環境の該部分の該画像を視認し得るように、ユーザの正面の環境の一部の画像を伝送するように構成される、前述の実施例のいずれかに記載のシステム。
78.頭部搭載型ディスプレイは、ユーザに医療手技におけるステップをアラートするように構成される、前述の実施例のいずれかに記載のシステム。
79.頭部搭載型ディスプレイは、ユーザの医療パラメータを監視し、医療パラメータに基づいて、アラートを提供するように構成される、前述の実施例のいずれかに記載のシステム。
80.ユーザの医療パラメータは、バイタルサインを含む、実施例79に記載のシステム。
81.頭部搭載型ディスプレイは、超音波を放出し、該超音波から生じる信号を測定するように構成され、頭部搭載型ディスプレイはさらに、信号に基づいて、超音波画像を形成するように構成される、前述の実施例のいずれかに記載のシステム。
82.頭部搭載型ディスプレイは、ユーザにユーザの視野外のオブジェクトおよび/またはイベントをアラートするように構成される、前述の実施例のいずれかに記載のシステム。
83.光を該ユーザの眼の中に指向し、画像を眼内に形成するように構成される、1つまたはそれを上回る光源をさらに備える、前述の実施例のいずれかに記載のシステム。
84.該1つまたはそれを上回る光源は、ファイバ走査プロジェクタを備える、前述の実施例のいずれかに記載のシステム。
85.コントラストを増加させることは、該画像コンテンツの少なくとも1つの色の明度または暗度を調節することを含む、実施例16に記載のシステム。
86.コントラストを増加させることは、黒色、灰色、白色、または他の色を該画像コンテンツの少なくとも1つの色に追加することを含む、実施例16に記載のシステム。
87.頭部搭載型ディスプレイは、ある程度の不透明度を提示される画像コンテンツの少なくとも近傍に提供するように構成される、前述の実施例のいずれかに記載のシステム。
88.頭部搭載型ディスプレイは、第1の画像モダリティと第1の画像モダリティと異なる第2の画像モダリティを組み合わせるように構成される、前述の実施例のいずれかに記載のシステム。
89.第1の画像モダリティおよび第2の画像モダリティはそれぞれ、MRI、CT、PET、MRA、またはCTA走査からの画像を備える、実施例88に記載のシステム。
90.頭部搭載型ディスプレイは、第1および第2の画像モダリティの組み合わせられた画像を患者の実際の解剖学的構造にわたって整合させるように構成される、実施例88または89に記載のシステム。
1.光をユーザの眼に投影し、拡張現実画像コンテンツを表示するように構成される、頭部搭載型ディスプレイシステムであって、該ユーザの眼は、中心領域と、該中心領域を中心として配置される周辺領域を有する、視野を有し、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、ディスプレイであって、該ディスプレイは、画像コンテンツを複数の深度平面上でユーザに提示するように、光を該ユーザの眼の中に投影するように構成され、該ディスプレイの少なくとも一部は、1つまたはそれを上回る導波管を備え、該1つまたはそれを上回る導波管は、透明部分が、ユーザの正面の環境の一部からの光をユーザの眼に伝送し、ユーザの正面の環境の該部分のビューを提供するように、透明であって、ユーザが該頭部搭載型ディスプレイシステムを装着すると、ユーザの眼の正面の場所に配置され、ユーザの眼の視野の中心領域は、ユーザの正面の環境内の中心領域に対応し、ユーザの眼の視野の周辺領域は、ユーザの正面の環境内の周辺領域に対応する、ディスプレイと、
少なくともユーザの正面の環境の該部分を結像するように構成される、外向きに面した画像捕捉デバイスと、
ユーザの正面の環境の少なくとも該部分内のオブジェクトまでの距離を測定するように構成される、1つまたはそれを上回るセンサと、
入力を該ユーザから受信するように構成される、1つまたはそれを上回る入力デバイスと、
該ディスプレイと通信し、該ディスプレイ上での画像コンテンツの提示を制御する、処理電子機器と、
を備え、該頭部搭載型ディスプレイシステムは、該1つまたはそれを上回る入力デバイスによって受信された入力に基づいて、ユーザの視野の周辺領域に対応する環境内のオブジェクトを選択するように構成され、該1つまたはそれを上回るセンサは、該選択後、該オブジェクトまでの距離を測定するように構成され、該外向きに面した画像捕捉デバイスは、該オブジェクトの画像を取得するように構成され、該ディスプレイは距離を測定するように構成される該1つまたはそれを上回るセンサによって測定された該距離に基づいて、該オブジェクトの増強された画像を判定された深度平面に提示するように構成され、該増強された画像は、視野の他の部分と比較して増強され、該増強された画像は、ユーザの視野の周辺領域内の場所に提示される、頭部搭載型ディスプレイシステム。
2.光を人物の眼の中に指向し、画像を眼内に形成するように構成される、1つまたはそれを上回る光源をさらに備える、実施例1に記載のシステム。
3.該1つまたはそれを上回る光源は、光を該1つまたはそれを上回る導波管の中に指向するように構成される、実施例2に記載のシステム。
4.該1つまたはそれを上回る光源は、ファイバ走査プロジェクタを備える、実施例2または3に記載のシステム。
5.該深度平面は、第1の遠深度平面と、第2の近深度平面とを備え、該第1の遠深度平面は、該頭部搭載型ディスプレイが該ユーザによって装着されるとき、該第2の近深度平面より該ユーザの眼から遠い、実施例1に記載のシステム。
6.該増強された画像は、該遠深度平面上に提示される、実施例5に記載のシステム。
7.該ディスプレイは、該眼の中に投影される光が該第2の近深度平面から画像コンテンツを提示するように発散するような屈折力を有する、光学要素を備える、実施例5または6に記載のシステム。
8.屈折力を有する、光学要素は、レンズを備える、実施例7に記載のシステム。
9.屈折力を有する、光学要素は、回折光学要素を備える、実施例7または8に記載のシステム。
10.該頭部搭載型ディスプレイシステムは、該増強された画像コンテンツを該オブジェクトが位置する環境内の周辺領域内の場所に対応するユーザの視野の該周辺領域内の場所に提示するように構成される、実施例1に記載のシステム。
11.該頭部搭載型ディスプレイシステムは、該増強された画像コンテンツを該オブジェクトが位置する環境内の周辺領域に対応しないユーザの視野の該周辺領域内の場所に移動させるように構成される、実施例1に記載のシステム。
12.該1つまたはそれを上回るセンサは、該環境を結像するように構成される、1つまたはそれを上回る外向きに面した画像捕捉デバイスを備える、実施例1に記載のシステム。
13.該環境を結像するように構成される、該1つまたはそれを上回る外向きに面した画像捕捉デバイスは、1つまたはそれを上回る外向きに面したカメラを備える、実施例12に記載のシステム。
14.1つまたはそれを上回るセンサは、距離測定デバイスを備える、実施例1のいずれかに記載のシステム。
15.距離測定デバイスは、レーザ測距計を備える、実施例14に記載のシステム。
16.入力を該ユーザから受信するように構成される、該1つまたはそれを上回る入力デバイスは、該ユーザの眼を結像し、その移動を追跡するように配置される、内向きに面した眼追跡カメラを備える、実施例1に記載のシステム。
17.該増強された画像を提示することは、該オブジェクトの画像が形成される該ユーザの視野の他の部分と比較して、該オブジェクトの画像を異なるように処理することを含む、前述の実施例のいずれかに記載のシステム。
18.該画像を異なるように処理することは、該オブジェクトの画像が形成される該ユーザの視野の他の部分と比較して、該オブジェクトの画像を拡大することを含む、実施例17に記載のシステム。
19.該画像を異なるように処理することは、該オブジェクトの画像が形成される該ユーザの視野の他の部分と比較して、該オブジェクトの画像内の明度を増加させることを含む、実施例17−18のいずれかに記載のシステム。
20.該画像を異なるように処理することは、該オブジェクトの画像が形成される該ユーザの視野の他の部分と比較して、該オブジェクトの画像のコントラストを増加させることを含む、実施例17−19のいずれかに記載のシステム。
21.該画像を異なるように処理することは、該オブジェクトの画像が形成される該ユーザの視野の他の部分と比較して、該オブジェクトの画像の色飽和を増加させることを含む、実施例17−20のいずれかに記載のシステム。
22.該画像を異なるように処理することは、該オブジェクトの画像が形成される該ユーザの視野の他の部分と比較して、該オブジェクトの画像を鮮明化することを含む、実施例17−21のいずれかに記載のシステム。
23.該鮮明化することは、該オブジェクトの画像が形成される該ユーザの視野の他の部分と比較して、該オブジェクトの画像の縁増強特徴を含む、実施例22に記載のシステム。
24.該画像を異なるように処理することは、該オブジェクトの画像が形成される該ユーザの視野の他の部分と比較して、該オブジェクトの画像のカラーバランスを偏移させることを含む、実施例17−23のいずれかに記載のシステム。
25.視野の該他の部分は、該視野の該周辺領域の他の部分を備える、前述の実施例のいずれかに記載のシステム。
26.視野の該他の部分は、該視野の該中心領域の少なくとも一部を備える、前述の実施例のいずれかに記載のシステム。
27.光をユーザの眼に投影し、拡張現実画像コンテンツを表示するように構成される、頭部搭載型ディスプレイシステムであって、該ユーザの眼は、中心領域と、該中心領域を中心として配置される周辺領域を有する、視野を有し、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、ディスプレイであって、該ディスプレイは、画像コンテンツを複数の深度平面上でユーザに提示するように、光を該ユーザの眼の中に投影するように構成され、該ディスプレイの少なくとも一部は、1つまたはそれを上回る導波管を備え、該1つまたはそれを上回る導波管は、透明部分が、ユーザの正面の環境の一部からの光をユーザの眼に伝送し、ユーザの正面の環境の該部分のビューを提供するように、透明であって、ユーザが該頭部搭載型ディスプレイシステムを装着すると、ユーザの眼の正面の場所に配置され、ユーザの眼の視野の中心領域は、ユーザの正面の環境内の中心領域に対応し、ユーザの眼の視野の周辺領域は、ユーザの正面の環境内の周辺領域に対応する、ディスプレイと、
ユーザの正面の環境の少なくとも該部分を結像するように構成される、外向きに面した画像捕捉デバイスと、
ユーザの正面の環境の少なくとも該部分内のオブジェクトまでの距離を測定するように構成される、1つまたはそれを上回るセンサと、
入力を該ユーザから受信するように構成される、1つまたはそれを上回る入力デバイスと、
該ディスプレイと通信し、該ディスプレイ上での画像コンテンツの提示を制御する、処理電子機器と、
を備え、該頭部搭載型ディスプレイシステムは、該1つまたはそれを上回る入力デバイスによって受信された入力に基づいて、ユーザの視野の周辺領域に対応する環境内のオブジェクトを選択するように構成され、該1つまたはそれを上回るセンサは、該選択後、該オブジェクトまでの距離を測定するように構成され、該外向きに面した画像捕捉デバイスは、該オブジェクトの画像を取得するように構成され、該ディスプレイは、該オブジェクトの画像を距離を測定するように構成される該1つまたはそれを上回るセンサによって測定された該距離に基づいて判定された深度平面に提示するように構成され、該オブジェクトの画像は、ユーザの視野の周辺領域内の場所に提示され、該ディスプレイは、該オブジェクトの画像と比較して、視野の他の部分内に形成される画像を強調解除するように構成される、頭部搭載型ディスプレイシステム。
28.光を人物の眼の中に指向し、画像を眼内に形成するように構成される、1つまたはそれを上回る光源をさらに備える、実施例27に記載のシステム。
29.該1つまたはそれを上回る光源は、光を該1つまたはそれを上回る導波管の中に指向するように構成される、実施例28に記載のシステム。
30.該1つまたはそれを上回る光源は、ファイバ走査プロジェクタを備える、実施例28または29に記載のシステム。
31.該深度平面は、第1の遠深度平面と、第2の近深度平面とを備え、該第1の遠深度平面は、該頭部搭載型ディスプレイが該ユーザによって装着されるとき、該第2の近深度平面より該ユーザの眼から遠い、実施例27に記載のシステム。
32.該オブジェクトの画像は、該遠深度平面上に提示される、実施例31に記載のシステム。
33.該ディスプレイは、該眼の中に投影される光が該第2の近深度平面から画像コンテンツを提示するように発散するような屈折力を有する、光学要素を備える、実施例31または32に記載のシステム。
34.屈折力を有する、光学要素は、レンズを備える、実施例33に記載のシステム。
35.屈折力を有する、光学要素は、回折光学要素を備える、実施例33または34に記載のシステム。
36.該頭部搭載型ディスプレイシステムは、該オブジェクトの画像を該オブジェクトが位置する環境内の周辺領域内の場所に対応するユーザの視野の該周辺領域内の場所に提示するように構成される、実施例27に記載のシステム。
37.該頭部搭載型ディスプレイシステムは、該オブジェクトの画像を該オブジェクトが位置する環境内の周辺領域に対応しないユーザの視野の該周辺領域内の場所に移動させるように構成される、実施例27に記載のシステム。
38.該1つまたはそれを上回るセンサは、該環境を結像するように構成される、1つまたはそれを上回る外向きに面した画像捕捉デバイスを備える、実施例27に記載のシステム。
39.該環境を結像するように構成される、該1つまたはそれを上回る外向きに面した画像捕捉デバイスは、1つまたはそれを上回る外向きに面したカメラを備える、実施例38に記載のシステム。
40.該1つまたはそれを上回るセンサは、距離測定デバイスを備える、実施例27のいずれかに記載のシステム。
41.該距離測定デバイスは、レーザ測距計を備える、実施例40に記載のシステム。
42.入力を該ユーザから受信するように構成される、該1つまたはそれを上回る入力デバイスは、該ユーザの眼を結像し、その移動を追跡するように配置される、内向きに面した眼追跡カメラを備える、実施例27に記載のシステム。
43.該頭部搭載型ディスプレイシステムは、該オブジェクトの画像と異なるように、該オブジェクトの画像が形成される場所以外の、該ユーザの視野の他の部分内に形成される画像を処理するように構成される、実施例27−42のいずれかに記載のシステム。
44.該頭部搭載型ディスプレイシステムは、該オブジェクトの画像と比較して、該オブジェクトの画像が形成される場所以外の該ユーザの視野の他の部分内に形成される画像のサイズを収縮または低減させることによって、画像を異なるように処理するように構成される、実施例43に記載のシステム。
45.該頭部搭載型ディスプレイシステムは、該オブジェクトの画像と比較して、該オブジェクトの画像が形成される場所以外の該ユーザの視野の他の部分内に形成される画像を暗化または減衰させることによって、画像を異なるように処理するように構成される、実施例43−44のいずれかに記載のシステム。
46.該頭部搭載型ディスプレイシステムは、該オブジェクトの画像と比較して、該オブジェクトの画像が形成される場所以外の該ユーザの視野の他の部分内に形成される画像のコントラストを低減させることによって、画像を異なるように処理するように構成される、実施例43−45のいずれかに記載のシステム。
47.該頭部搭載型ディスプレイシステムは、該オブジェクトの画像と比較して、該オブジェクトの画像が形成される場所以外の該ユーザの視野の他の部分内に形成される画像の色飽和を減少させることによって、画像を異なるように処理するように構成される、実施例43−46のいずれかに記載のシステム。
48.該頭部搭載型ディスプレイシステムは、該オブジェクトの画像と比較して、該オブジェクトの画像が形成される場所以外の該ユーザの視野の他の部分内に形成される画像の鮮明度を減少させることによって、画像を異なるように処理するように構成される、実施例43−47のいずれかに記載のシステム。
49.該鮮明度を減少させることは、該オブジェクトの画像と比較して、該オブジェクトの画像が形成される場所以外の該ユーザの視野の他の部分内に形成される画像内の特徴の縁を増強解除することを含む、実施例48に記載のシステム。
50.該鮮明度を減少させることは、該オブジェクトの画像と比較して、該オブジェクトの画像が形成される場所以外の該ユーザの視野の他の部分内に形成される画像をぼかすことを含む、実施例48または49に記載のシステム。
51.該頭部搭載型ディスプレイシステムは、該オブジェクトの画像と比較して、該オブジェクトの画像が形成される場所以外の該ユーザの視野の他の部分内に形成される画像のカラーバランスを偏移させることによって、画像を異なるように処理するように構成される、実施例48−50のいずれかに記載のシステム。
52.視野の該他の部分は、該視野の該周辺領域の他の部分を備える、実施例27−51のいずれかに記載のシステム。
53.視野の該他の部分は、該視野の該中心領域の少なくとも一部を備える、実施例27−52のいずれかに記載のシステム。
54.該増強された画像は、該近深度平面上に提示される、実施例5に記載のシステム。
55.該ディスプレイは、該眼の中に投影される光が画像コンテンツを該第1の遠深度平面から提示するように発散するような屈折力を有する、光学要素を備える、実施例5または54に記載のシステム。
56.該拡大は、少なくとも部分的に、眼の分解能に基づく、実施例18に記載のシステム。
57.該オブジェクトの画像は、該近深度平面上に提示される、実施例31に記載のシステム。
58.該ディスプレイは、該眼の中に投影される光が画像コンテンツを該第1の遠深度平面から提示するように発散するような屈折力を有する、光学要素を備える、実施例31または57に記載のシステム。
59.該ぼかしは、同一色を使用して、該ユーザの視野の他の部分内に形成される該画像をぼかすことを含む、実施例50に記載のシステム。
60.該同一色は、該オブジェクトの画像内の色と比較して高コントラスト色を備える、実施例59に記載のシステム。
61.システムは、アラートをユーザに提供し、提示される画像が増強されたことを示すように構成される、実施例1−26のいずれかまたは実施例54−56のいずれかに記載のシステム。
62.システムは、アラートをユーザに提供し、提示される画像が強調解除されたことを示すように構成される、実施例27−53のいずれかまたは実施例57−60のいずれかに記載のシステム。
63.アラートは、視覚的アラートである、実施例61または62のいずれかに記載のシステム。
64.アラートは、聴覚的アラートである、実施例61または62のいずれかに記載のシステム。
65.該頭部搭載型ディスプレイシステムは、ユーザの正面の環境の少なくとも該部分の3D表現を構築し、環境の少なくとも該部分の表現を解釈するように構成され、該環境の該部分は、患者を含み、該頭部搭載型ディスプレイはさらに、患者と関連付けられた第1の構造を患者と関連付けられた第2の構造から区別するように構成される、前述の実施例のいずれかに記載のシステム。
66.透明であって、ユーザの眼の正面の場所に配置される、該ディスプレイの少なくとも該部分は、1つまたはそれを上回る導波管を備える、前述の実施例のいずれかに記載のシステム。
67.光を該1つまたはそれを上回る導波管の中に指向するように構成される、1つまたはそれを上回る光源を備え、導波管は、光をユーザの眼の中に指向するように構成される、実施例66に記載のシステム。
68.該1つまたはそれを上回る光源は、ファイバ走査プロジェクタを備える、実施例66−67のいずれかに記載のシステム。
69.環境を監視するように構成される、1つまたはそれを上回るセンサをさらに備える、前述の実施例のいずれかに記載のシステム。
70.該1つまたはそれを上回るセンサは、該環境を結像するように構成される、1つまたはそれを上回る外向きに面した画像捕捉デバイスを備える、実施例69に記載のシステム。
71.該環境を結像するように構成される、該1つまたはそれを上回る外向きに面した画像捕捉デバイスは、1つまたはそれを上回る外向きに面したカメラを備える、実施例70に記載のシステム。
72.距離測定デバイスをさらに備える、前述の実施例のいずれかに記載のシステム。
73.該ユーザの眼の位置および/または移動を追跡するように構成される、眼追跡デバイスをさらに備える、前述の実施例のいずれかに記載のシステム。
74.頭部搭載型ディスプレイは、ユーザの視野内のヒト組織の体積を推定するように構成される、前述の実施例のいずれかに記載のシステム。
75.頭部搭載型ディスプレイは、環境内の2つのオブジェクト間の距離を測定するように構成される、前述の実施例のいずれかに記載のシステム。
76.頭部搭載型ディスプレイは、ディスプレイ上に提示される第1の画像モダリティと第2の画像モダリティとの間でトグルするように構成される、前述の実施例のいずれかに記載のシステム。
77.第1の画像モダリティは、MRI走査を備える、実施例76に記載のシステム。
78.第2の画像モダリティは、超音波を備える、実施例76−77のいずれかに記載のシステム。
79.第1の画像モダリティは、X線走査を備える、実施例76−78のいずれかに記載のシステム。
80.超音波音波を生産するように適合される、電子エミッタをさらに備える、前述の実施例のいずれかに記載のシステム。
81.超音波音波を電気信号に変換するように適合される、センサをさらに備える、前述の実施例のいずれかに記載のシステム。
82.頭部搭載型ディスプレイは、ユーザが、仮想基準マーカをユーザの眼に対してユーザの正面の環境の一部上に設置することを可能にするように構成される、前述の実施例のいずれかに記載のシステム。
83.頭部搭載型ディスプレイは、画像が環境内の実世界オブジェクトに添付されて現れるように、画像をディスプレイ上に投影するように構成される、前述の実施例のいずれかに記載のシステム。
84.頭部搭載型ディスプレイは、仮想切断ガイドラインが切断されるべきヒト身体領域上にオーバーレイされるようにユーザに現れるように、仮想切断ガイドラインを表示するように構成される、または切断されるべき部分へのアクセスを与える、前述の実施例のいずれかに記載のシステム。
85.仮想切断ガイドラインの見掛け場所は、患者の身体部分の位置に関連するように現れる、実施例84に記載のシステム。
86.頭部搭載型ディスプレイは、信号を放出し、ユーザの正面の環境の一部内のオブジェクトの位置に関するデータを取得するように構成される、前述の実施例のいずれかに記載のシステム。
87.頭部搭載型ディスプレイは、オブジェクト場所のデータベースを使用して、ユーザの正面の環境の一部内のオブジェクトの位置を取得するように構成される、前述の実施例のいずれかに記載のシステム。
88.頭部搭載型ディスプレイは、該オブジェクト場所のデータベースに基づいて、基準点を設定し、画像が基準点に対して固定されて現れるように、画像をユーザの眼の中に投影するように構成される、実施例87に記載のシステム。
89.頭部搭載型ディスプレイは、ユーザ入力に基づいて、オブジェクトの3D画像のビューを軸を中心として回転させるように構成される、前述の実施例のいずれかに記載のシステム。
90.頭部搭載型ディスプレイは、ユーザ入力に基づいて、3Dオブジェクトの画像のビューを平行移動させるように構成される、前述の実施例のいずれかに記載のシステム。
91.頭部搭載型ディスプレイは、オブジェクトの3D画像の第1のスライスを表示するように構成される、前述の実施例のいずれかに記載のシステム。
92.頭部搭載型ディスプレイは、3D画像の第1のスライスの画像および第2のスライスの画像を通してシーケンス化するように構成される、実施例91に記載のシステム。
93.頭部搭載型ディスプレイは、頭部搭載型ディスプレイの第2のユーザが伝送される環境の該部分の該画像を視認し得るように、ユーザの正面の環境の一部の画像を伝送するように構成される、前述の実施例のいずれかに記載のシステム。
94.頭部搭載型ディスプレイは、ユーザに医療手技におけるステップをアラートするように構成される、前述の実施例のいずれかに記載のシステム。
95.頭部搭載型ディスプレイは、ユーザの医療パラメータを監視し、医療パラメータに基づいて、アラートを提供するように構成される、前述の実施例のいずれかに記載のシステム。
96.ユーザの医療パラメータは、バイタルサインを含む、実施例95に記載のシステム。
97.頭部搭載型ディスプレイは、超音波を放出し、該超音波から生じる信号を測定するように構成され、頭部搭載型ディスプレイはさらに、信号に基づいて、超音波画像を形成するように構成される、前述の実施例のいずれかに記載のシステム。
98.頭部搭載型ディスプレイは、ユーザにユーザの視野外のオブジェクトおよび/またはイベントをアラートするように構成される、前述の実施例のいずれかに記載のシステム。
99.光を該ユーザの眼の中に指向し、画像を眼内に形成するように構成される、1つまたはそれを上回る光源をさらに備える、前述の実施例のいずれかに記載のシステム。
100.該1つまたはそれを上回る光源は、ファイバ走査プロジェクタを備える、前述の実施例のいずれかに記載のシステム。
101.コントラストを増加させることは、該画像コンテンツの少なくとも1つの色の明度または暗度を調節することを含む、実施例20に記載のシステム。
102.コントラストを増加させることは、黒色、灰色、白色、または他の色を該画像コンテンツの少なくとも1つの色に追加することを含む、実施例20に記載のシステム。
103.頭部搭載型ディスプレイは、ある程度の不透明度を提示される画像コンテンツの少なくとも近傍に提供するように構成される、前述の実施例のいずれかに記載のシステム。
104.頭部搭載型ディスプレイは、第1の画像モダリティと第1の画像モダリティと異なる第2の画像モダリティを組み合わせるように構成される、前述の実施例のいずれかに記載のシステム。
105.第1の画像モダリティおよび第2の画像モダリティはそれぞれ、MRI、CT、PET、MRA、またはCTA走査からの画像を備える、実施例104に記載のシステム。
106.頭部搭載型ディスプレイは、第1および第2の画像モダリティの組み合わせられた画像を患者の実際の解剖学的構造にわたって整合させるように構成される、実施例104または105に記載のシステム。
1.光をユーザの眼に投影し、拡張現実画像コンテンツを表示するように構成される、頭部搭載型ディスプレイシステムであって、該ユーザの眼は、中心領域と、該中心領域を中心として配置される周辺領域を有する、視野を有し、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、ディスプレイであって、該ディスプレイは、画像コンテンツを複数の深度平面上でユーザに提示するように、光を該ユーザの眼の中に投影するように構成され、該ディスプレイの少なくとも一部は、1つまたはそれを上回る導波管を備え、該1つまたはそれを上回る導波管は、透明部分が、ユーザの正面の環境の一部からの光をユーザの眼に伝送し、ユーザの正面の環境の該部分のビューを提供するように、透明であって、ユーザが該頭部搭載型ディスプレイシステムを装着すると、ユーザの眼の正面の場所に配置され、ユーザの眼の視野の中心領域は、ユーザの正面の環境内の中心領域に対応し、ユーザの眼の視野の周辺領域は、ユーザの正面の環境内の周辺領域に対応する、ディスプレイと、
少なくともユーザの正面の環境の該部分を結像するように構成される、外向きに面した画像捕捉デバイスと、
ユーザの正面の環境の少なくとも該部分内のオブジェクトまでの距離を測定するように構成される、1つまたはそれを上回るセンサと、
入力を該ユーザから受信するように構成される、1つまたはそれを上回る入力デバイスと、
該ディスプレイと通信し、該ディスプレイ上での画像コンテンツの提示を制御する、処理電子機器と、
を備え、該頭部搭載型ディスプレイシステムは、該1つまたはそれを上回る入力デバイスによって受信された入力に基づいて、ユーザの視野の中心領域に対応する環境内のオブジェクトを選択するように構成され、該1つまたはそれを上回るセンサは、該選択後、該オブジェクトまでの距離を測定するように構成され、該外向きに面した画像捕捉デバイスは、該オブジェクトの画像を取得するように構成され、該ディスプレイは、距離を測定するように構成される該1つまたはそれを上回るセンサによって測定された該距離に基づいて、該オブジェクトの増強された画像を判定された深度平面に提示するように構成され、該増強された画像は、視野の他の部分と比較して増強され、該増強された画像は、ユーザの視野の中心領域内の場所に提示される、頭部搭載型ディスプレイシステム。
2.光を人物の眼の中に指向し、画像を眼内に形成するように構成される、1つまたはそれを上回る光源をさらに備える、実施例1に記載のシステム。
3.該1つまたはそれを上回る光源は、光を該1つまたはそれを上回る導波管の中に指向するように構成される、実施例2に記載のシステム。
4.該1つまたはそれを上回る光源は、ファイバ走査プロジェクタを備える、実施例2または3に記載のシステム。
5.該深度平面は、第1の遠深度平面と、第2の近深度平面とを備え、該第1の遠深度平面は、該頭部搭載型ディスプレイが該ユーザによって装着されるとき、該第2の近深度平面より該ユーザの眼から遠い、実施例1に記載のシステム。
6.該増強された画像は、該遠深度平面上に提示される、実施例5に記載のシステム。
7.該ディスプレイは、該眼の中に投影される光が該第2の近深度平面から画像コンテンツを提示するように発散するような屈折力を有する、光学要素を備える、実施例5または6に記載のシステム。
8.屈折力を有する、光学要素は、レンズを備える、実施例7に記載のシステム。
9.屈折力を有する、光学要素は、回折光学要素を備える、実施例7または8に記載のシステム。
10.該頭部搭載型ディスプレイシステムは、該増強された画像コンテンツを該オブジェクトが位置する環境内の中心領域内の場所に対応するユーザの視野の中心領域内の場所に提示するように構成される、実施例1に記載のシステム。
11.該頭部搭載型ディスプレイシステムは、該増強された画像コンテンツを該オブジェクトが位置する環境内の中心領域に対応しないユーザの視野の中心領域内の場所に移動させるように構成される、実施例1に記載のシステム。
12.該1つまたはそれを上回るセンサは、該環境を結像するように構成される、1つまたはそれを上回る外向きに面した画像捕捉デバイスを備える、実施例1に記載のシステム。
13.該環境を結像するように構成される、該1つまたはそれを上回る外向きに面した画像捕捉デバイスは、1つまたはそれを上回る外向きに面したカメラを備える、実施例12に記載のシステム。
14.1つまたはそれを上回るセンサは、距離測定デバイスを備える、実施例1のいずれかに記載のシステム。
15.距離測定デバイスは、レーザ測距計を備える、実施例14に記載のシステム。
16.入力を該ユーザから受信するように構成される、該1つまたはそれを上回る入力デバイスは、該ユーザの眼を結像し、その移動を追跡するように配置される、内向きに面した眼追跡カメラを備える、実施例1に記載のシステム。
17.該増強された画像を提示することは、該オブジェクトの画像が形成される該ユーザの視野の他の部分と比較して、該オブジェクトの画像を異なるように処理することを含む、前述の実施例のいずれかに記載のシステム。
18.該画像を異なるように処理することは、該オブジェクトの画像が形成される該ユーザの視野の他の部分と比較して、該オブジェクトの画像を拡大することを含む、実施例17に記載のシステム。
19.該画像を異なるように処理することは、該オブジェクトの画像が形成される該ユーザの視野の他の部分と比較して、該オブジェクトの画像内の明度を増加させることを含む、実施例17−18のいずれかに記載のシステム。
20.該画像を異なるように処理することは、該オブジェクトの画像が形成される該ユーザの視野の他の部分と比較して、該オブジェクトの画像のコントラストを増加させることを含む、実施例17−19のいずれかに記載のシステム。
21.該画像を異なるように処理することは、該オブジェクトの画像が形成される該ユーザの視野の他の部分と比較して、該オブジェクトの画像の色飽和を増加させることを含む、実施例17−20のいずれかに記載のシステム。
22.該画像を異なるように処理することは、該オブジェクトの画像が形成される該ユーザの視野の他の部分と比較して、該オブジェクトの画像を鮮明化することを含む、実施例17−21のいずれかに記載のシステム。
23.該鮮明化することは、該オブジェクトの画像が形成される該ユーザの視野の他の部分と比較して、該オブジェクトの画像の縁増強特徴を含む、実施例22に記載のシステム。
24.該画像を異なるように処理することは、該オブジェクトの画像が形成される該ユーザの視野の他の部分と比較して、該オブジェクトの画像のカラーバランスを偏移させることを含む、実施例17−23のいずれかに記載のシステム。
25.視野の該他の部分は、該視野の該中心領域の他の部分を備える、前述の実施例のいずれかに記載のシステム。
26.視野の該他の部分は、該視野の該周辺領域の少なくとも一部を備える、前述の実施例のいずれかに記載のシステム。
27.光をユーザの眼に投影し、拡張現実画像コンテンツを表示するように構成される、頭部搭載型ディスプレイシステムであって、該ユーザの眼は、中心領域と、該中心領域を中心として配置される周辺領域を有する、視野を有し、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、ディスプレイであって、該ディスプレイは、画像コンテンツを複数の深度平面上でユーザに提示するように、光を該ユーザの眼の中に投影するように構成され、該ディスプレイの少なくとも一部は、1つまたはそれを上回る導波管を備え、該1つまたはそれを上回る導波管は、透明部分が、ユーザの正面の環境の一部からの光をユーザの眼に伝送し、ユーザの正面の環境の該部分のビューを提供するように、透明であって、ユーザが該頭部搭載型ディスプレイシステムを装着すると、ユーザの眼の正面の場所に配置され、ユーザの眼の視野の中心領域は、ユーザの正面の環境内の中心領域に対応し、ユーザの眼の視野の周辺領域は、ユーザの正面の環境内の周辺領域に対応する、ディスプレイと、
ユーザの正面の環境の少なくとも該部分を結像するように構成される、外向きに面した画像捕捉デバイスと、
ユーザの正面の環境の少なくとも該部分内のオブジェクトまでの距離を測定するように構成される、1つまたはそれを上回るセンサと、
入力を該ユーザから受信するように構成される、1つまたはそれを上回る入力デバイスと、
該ディスプレイと通信し、該ディスプレイ上での画像コンテンツの提示を制御する、処理電子機器と、
を備え、該頭部搭載型ディスプレイシステムは、該1つまたはそれを上回る入力デバイスによって受信された入力に基づいて、ユーザの視野の中心領域に対応する環境内のオブジェクトを選択するように構成され、該1つまたはそれを上回るセンサは、該選択後、該オブジェクトまでの距離を測定するように構成され、該外向きに面した画像捕捉デバイスは、該オブジェクトの画像を取得するように構成され、該ディスプレイは、該オブジェクトの画像を距離を測定するように構成される該1つまたはそれを上回るセンサによって測定された該距離に基づいて判定された深度平面に提示するように構成され、該オブジェクトの画像は、ユーザの視野の中心領域内の場所に提示され、該ディスプレイは、該オブジェクトの画像と比較して、視野の他の部分内に形成される画像を強調解除するように構成される、頭部搭載型ディスプレイシステム。
28.光を人物の眼の中に指向し、画像を眼内に形成するように構成される、1つまたはそれを上回る光源をさらに備える、実施例27に記載のシステム。
29.該1つまたはそれを上回る光源は、光を該1つまたはそれを上回る導波管の中に指向するように構成される、実施例28に記載のシステム。
30.該1つまたはそれを上回る光源は、ファイバ走査プロジェクタを備える、実施例28または29に記載のシステム。
31.該深度平面は、第1の遠深度平面と、第2の近深度平面とを備え、該第1の遠深度平面は、該頭部搭載型ディスプレイが該ユーザによって装着されるとき、該第2の近深度平面より該ユーザの眼から遠い、実施例27に記載のシステム。
32.該オブジェクトの画像は、該遠深度平面上に提示される、実施例31に記載のシステム。
33.該ディスプレイは、該眼の中に投影される光が該第2の近深度平面から画像コンテンツを提示するように発散するような屈折力を有する、光学要素を備える、実施例31または32に記載のシステム。
34.屈折力を有する、光学要素は、レンズを備える、実施例33に記載のシステム。
35.屈折力を有する、光学要素は、回折光学要素を備える、実施例33または34に記載のシステム。
36.該頭部搭載型ディスプレイシステムは、該オブジェクトの画像を該オブジェクトが位置する環境内の中心領域内の場所に対応するユーザの視野の中心領域内の場所に提示するように構成される、実施例27に記載のシステム。
37.該頭部搭載型ディスプレイシステムは、該オブジェクトの画像を該オブジェクトが位置する環境内の中心領域に対応しないユーザの視野の中心領域内の場所に移動させるように構成される、実施例27に記載のシステム。
38.該1つまたはそれを上回るセンサは、該環境を結像するように構成される、1つまたはそれを上回る外向きに面した画像捕捉デバイスを備える、実施例27に記載のシステム。
39.該環境を結像するように構成される、該1つまたはそれを上回る外向きに面した画像捕捉デバイスは、1つまたはそれを上回る外向きに面したカメラを備える、実施例38に記載のシステム。
40.該1つまたはそれを上回るセンサは、距離測定デバイスを備える、実施例27のいずれかに記載のシステム。
41.該距離測定デバイスは、レーザ測距計を備える、実施例40に記載のシステム。
42.入力を該ユーザから受信するように構成される、該1つまたはそれを上回る入力デバイスは、該ユーザの眼を結像し、その移動を追跡するように配置される、内向きに面した眼追跡カメラを備える、実施例27に記載のシステム。
43.該頭部搭載型ディスプレイシステムは、該オブジェクトの画像と異なるように、該オブジェクトの画像が形成される場所以外の、該ユーザの視野の他の部分内に形成される画像を処理するように構成される、実施例27−42のいずれかに記載のシステム。
44.該頭部搭載型ディスプレイシステムは、該オブジェクトの画像と比較して、該オブジェクトの画像が形成される場所以外の該ユーザの視野の他の部分内に形成される画像のサイズを収縮または低減させることによって、画像を異なるように処理するように構成される、実施例43に記載のシステム。
45.該頭部搭載型ディスプレイシステムは、該オブジェクトの画像と比較して、該オブジェクトの画像が形成される場所以外の該ユーザの視野の他の部分内に形成される画像を暗化または減衰させることによって、画像を異なるように処理するように構成される、実施例43−44のいずれかに記載のシステム。
46.該頭部搭載型ディスプレイシステムは、該オブジェクトの画像と比較して、該オブジェクトの画像が形成される場所以外の該ユーザの視野の他の部分内に形成される画像のコントラストを低減させることによって、画像を異なるように処理するように構成される、実施例43−45のいずれかに記載のシステム。
47.該頭部搭載型ディスプレイシステムは、該オブジェクトの画像と比較して、該オブジェクトの画像が形成される場所以外の該ユーザの視野の他の部分内に形成される画像の色飽和を減少させることによって、画像を異なるように処理するように構成される、実施例43−46のいずれかに記載のシステム。
48.該頭部搭載型ディスプレイシステムは、該オブジェクトの画像と比較して、該オブジェクトの画像が形成される場所以外の該ユーザの視野の他の部分内に形成される画像の鮮明度を減少させることによって、画像を異なるように処理するように構成される、実施例43−47のいずれかに記載のシステム。
49.該鮮明度を減少させることは、該オブジェクトの画像と比較して、該オブジェクトの画像が形成される場所以外の該ユーザの視野の他の部分内に形成される画像内の特徴の縁を増強解除することを含む、実施例48に記載のシステム。
50.該鮮明度を減少させることは、該オブジェクトの画像と比較して、該オブジェクトの画像が形成される場所以外の該ユーザの視野の他の部分内に形成される画像をぼかすことを含む、実施例48または49に記載のシステム。
51.該頭部搭載型ディスプレイシステムは、該オブジェクトの画像と比較して、該オブジェクトの画像が形成される場所以外の該ユーザの視野の他の部分内に形成される画像のカラーバランスを偏移させることによって、画像を異なるように処理するように構成される、実施例48−50のいずれかに記載のシステム。
52.視野の該他の部分は、該視野の該中心領域の他の部分を備える、実施例27−51のいずれかに記載のシステム。
53.視野の該他の部分は、該視野の該周辺領域の少なくとも一部を備える、実施例27−52のいずれかに記載のシステム。
54.該増強された画像は、該近深度平面上に提示される、実施例5に記載のシステム。
55.該ディスプレイは、該眼の中に投影される光が画像コンテンツを該第1の遠深度平面から提示するように発散するような屈折力を有する、光学要素を備える、実施例5または54に記載のシステム。
56.該拡大は、少なくとも部分的に、眼の分解能に基づく、実施例18に記載のシステム。
57.該オブジェクトの画像は、該近深度平面上に提示される、実施例31に記載のシステム。
58.該ディスプレイは、該眼の中に投影される光が画像コンテンツを該第1の遠深度平面から提示するように発散するような屈折力を有する、光学要素を備える、実施例31または57に記載のシステム。
59.該ぼかしは、同一色を使用して、該ユーザの視野の他の部分内に形成される該画像をぼかすことを含む、実施例50に記載のシステム。
60.該同一色は、該オブジェクトの画像内の色と比較して高コントラスト色を備える、実施例59に記載のシステム。
61.システムは、アラートをユーザに提供し、提示される画像が増強されたことを示すように構成される、実施例1−26のいずれかまたは実施例54−56のいずれかに記載のシステム。
62.システムは、アラートをユーザに提供し、提示される画像が強調解除されたことを示すように構成される、実施例27−53のいずれかまたは実施例57−60のいずれかに記載のシステム。
63.アラートは、視覚的アラートである、実施例61または62のいずれかに記載のシステム。
64.アラートは、聴覚的アラートである、実施例61または62のいずれかに記載のシステム。
65.該頭部搭載型ディスプレイシステムは、ユーザの正面の環境の少なくとも該部分の3D表現を構築し、環境の少なくとも該部分の表現を解釈するように構成され、該環境の該部分は、患者を含み、該頭部搭載型ディスプレイはさらに、患者と関連付けられた第1の構造を患者と関連付けられた第2の構造から区別するように構成される、前述の実施例のいずれかに記載のシステム。
66.透明であって、ユーザの眼の正面の場所に配置される、該ディスプレイの少なくとも該部分は、1つまたはそれを上回る導波管を備える、前述の実施例のいずれかに記載のシステム。
67.光を該1つまたはそれを上回る導波管の中に指向するように構成される、1つまたはそれを上回る光源を備え、導波管は、光をユーザの眼の中に指向するように構成される、実施例66に記載のシステム。
68.該1つまたはそれを上回る光源は、ファイバ走査プロジェクタを備える、実施例66−67のいずれかに記載のシステム。
69.環境を監視するように構成される、1つまたはそれを上回るセンサをさらに備える、前述の実施例のいずれかに記載のシステム。
70.該1つまたはそれを上回るセンサは、該環境を結像するように構成される、1つまたはそれを上回る外向きに面した画像捕捉デバイスを備える、実施例69に記載のシステム。
71.該環境を結像するように構成される、該1つまたはそれを上回る外向きに面した画像捕捉デバイスは、1つまたはそれを上回る外向きに面したカメラを備える、実施例70に記載のシステム。
72.距離測定デバイスをさらに備える、前述の実施例のいずれかに記載のシステム。
73.該ユーザの眼の位置および/または移動を追跡するように構成される、眼追跡デバイスをさらに備える、前述の実施例のいずれかに記載のシステム。
74.頭部搭載型ディスプレイは、ユーザの視野内のヒト組織の体積を推定するように構成される、前述の実施例のいずれかに記載のシステム。
75.頭部搭載型ディスプレイは、環境内の2つのオブジェクト間の距離を測定するように構成される、前述の実施例のいずれかに記載のシステム。
76.頭部搭載型ディスプレイは、ディスプレイ上に提示される第1の画像モダリティと第2の画像モダリティとの間でトグルするように構成される、前述の実施例のいずれかに記載のシステム。
77.第1の画像モダリティは、MRI走査を備える、実施例76に記載のシステム。
78.第2の画像モダリティは、超音波を備える、実施例76−77のいずれかに記載のシステム。
79.第1の画像モダリティは、X線走査を備える、実施例76−78のいずれかに記載のシステム。
80.超音波音波を生産するように適合される、電子エミッタをさらに備える、前述の実施例のいずれかに記載のシステム。
81.超音波音波を電気信号に変換するように適合される、センサをさらに備える、前述の実施例のいずれかに記載のシステム。
82.頭部搭載型ディスプレイは、ユーザが、仮想基準マーカをユーザの眼に対してユーザの正面の環境の一部上に設置することを可能にするように構成される、前述の実施例のいずれかに記載のシステム。
83.頭部搭載型ディスプレイは、画像が環境内の実世界オブジェクトに添付されて現れるように、画像をディスプレイ上に投影するように構成される、前述の実施例のいずれかに記載のシステム。
84.頭部搭載型ディスプレイは、仮想切断ガイドラインが切断されるべきヒト身体領域上にオーバーレイされるようにユーザに現れるように、仮想切断ガイドラインを表示するように構成される、または切断されるべき部分へのアクセスを与える、前述の実施例のいずれかに記載のシステム。
85.仮想切断ガイドラインの見掛け場所は、患者の身体部分の位置に関連するように現れる、実施例84に記載のシステム。
86.頭部搭載型ディスプレイは、信号を放出し、ユーザの正面の環境の一部内のオブジェクトの位置に関するデータを取得するように構成される、前述の実施例のいずれかに記載のシステム。
87.頭部搭載型ディスプレイは、オブジェクト場所のデータベースを使用して、ユーザの正面の環境の一部内のオブジェクトの位置を取得するように構成される、前述の実施例のいずれかに記載のシステム。
88.頭部搭載型ディスプレイは、該オブジェクト場所のデータベースに基づいて、基準点を設定し、画像が基準点に対して固定されて現れるように、画像をユーザの眼の中に投影するように構成される、実施例87に記載のシステム。
89.頭部搭載型ディスプレイは、ユーザ入力に基づいて、オブジェクトの3D画像のビューを軸を中心として回転させるように構成される、前述の実施例のいずれかに記載のシステム。
90.頭部搭載型ディスプレイは、ユーザ入力に基づいて、3Dオブジェクトの画像のビューを平行移動させるように構成される、前述の実施例のいずれかに記載のシステム。
91.頭部搭載型ディスプレイは、オブジェクトの3D画像の第1のスライスを表示するように構成される、前述の実施例のいずれかに記載のシステム。
92.頭部搭載型ディスプレイは、3D画像の第1のスライスの画像および第2のスライスの画像を通してシーケンス化するように構成される、実施例91に記載のシステム。
93.頭部搭載型ディスプレイは、頭部搭載型ディスプレイの第2のユーザが伝送される環境の該部分の該画像を視認し得るように、ユーザの正面の環境の一部の画像を伝送するように構成される、前述の実施例のいずれかに記載のシステム。
94.頭部搭載型ディスプレイは、ユーザに医療手技におけるステップをアラートするように構成される、前述の実施例のいずれかに記載のシステム。
95.頭部搭載型ディスプレイは、ユーザの医療パラメータを監視し、医療パラメータに基づいて、アラートを提供するように構成される、前述の実施例のいずれかに記載のシステム。
96.ユーザの医療パラメータは、バイタルサインを含む、実施例95に記載のシステム。
97.頭部搭載型ディスプレイは、超音波を放出し、該超音波から生じる信号を測定するように構成され、頭部搭載型ディスプレイはさらに、信号に基づいて、超音波画像を形成するように構成される、前述の実施例のいずれかに記載のシステム。
98.頭部搭載型ディスプレイは、ユーザにユーザの視野外のオブジェクトおよび/またはイベントをアラートするように構成される、前述の実施例のいずれかに記載のシステム。
99.光を該ユーザの眼の中に指向し、画像を眼内に形成するように構成される、1つまたはそれを上回る光源をさらに備える、前述の実施例のいずれかに記載のシステム。
100.該1つまたはそれを上回る光源は、ファイバ走査プロジェクタを備える、前述の実施例のいずれかに記載のシステム。
101.コントラストを増加させることは、該画像コンテンツの少なくとも1つの色の明度または暗度を調節することを含む、実施例20に記載のシステム。
102.コントラストを増加させることは、黒色、灰色、白色、または他の色を該画像コンテンツの少なくとも1つの色に追加することを含む、実施例20に記載のシステム。
103.頭部搭載型ディスプレイは、ある程度の不透明度を提示される画像コンテンツの少なくとも近傍に提供するように構成される、前述の実施例のいずれかに記載のシステム。
104.頭部搭載型ディスプレイは、第1の画像モダリティと第1の画像モダリティと異なる第2の画像モダリティを組み合わせるように構成される、前述の実施例のいずれかに記載のシステム。
105.第1の画像モダリティおよび第2の画像モダリティはそれぞれ、MRI、CT、PET、MRA、またはCTA走査からの画像を備える、実施例104に記載のシステム。
106.頭部搭載型ディスプレイは、第1および第2の画像モダリティの組み合わせられた画像を患者の実際の解剖学的構造にわたって整合させるように構成される、実施例104または105に記載のシステム。
1.光をユーザの眼に投影し、拡張現実画像コンテンツを表示するように構成される、頭部搭載型ディスプレイシステムであって、該ユーザの眼は、中心領域と、該中心領域を中心として配置される周辺領域を有する、視野を有し、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、ディスプレイであって、該ディスプレイは、画像コンテンツを複数の深度平面上でユーザに提示するように、光を該ユーザの眼の中に投影するように構成され、該ディスプレイの少なくとも一部は、1つまたはそれを上回る導波管を備え、該1つまたはそれを上回る導波管は、透明部分が、ユーザの正面の環境の一部からの光をユーザの眼に伝送し、ユーザの正面の環境の該部分のビューを提供するように、透明であって、ユーザが該頭部搭載型ディスプレイシステムを装着すると、ユーザの眼の正面の場所に配置され、ユーザの眼の視野の中心領域は、ユーザの正面の環境内の中心領域に対応し、ユーザの眼の視野の周辺領域は、ユーザの正面の環境内の周辺領域に対応する、ディスプレイと、
ユーザの正面の環境の少なくとも該部分を結像するように構成される、外向きに面した画像捕捉デバイスと、
入力を該ユーザから受信するように構成される、1つまたはそれを上回る入力デバイスと、
該ディスプレイと通信し、該ディスプレイ上での画像コンテンツの提示を制御する、処理電子機器と、
を備え、
該深度平面は、第1の深度平面と、第2の深度平面とを備え、該オブジェクトまでの該距離は、該頭部搭載型ディスプレイが該ユーザによって装着されるとき、該第2の深度平面より該第1の深度平面に対応し、
該頭部搭載型ディスプレイシステムは、該1つまたはそれを上回る入力デバイスによって受信された入力に基づいて、ユーザの視野内の環境内のオブジェクトを選択するように構成され、該外向きに面した画像捕捉デバイスは、該オブジェクトの画像を取得するように構成され、該ディスプレイは、該オブジェクトの画像を該第2の深度に提示するように構成される、
平面頭部搭載型ディスプレイシステム。
2.入力を該ユーザから受信するように構成される、該1つまたはそれを上回る入力デバイスは、該ユーザの眼を結像し、その移動を追跡するように配置される、内向きに面した眼追跡カメラを備える、実施例1に記載のシステム。
3.該1つまたはそれを上回るセンサは、該環境を結像するように構成される、1つまたはそれを上回る外向きに面した画像捕捉デバイスを備える、前述の実施例のいずれかに記載のシステム。
4.該環境を結像するように構成される、該1つまたはそれを上回る外向きに面した画像捕捉デバイスは、1つまたはそれを上回る外向きに面したカメラを備える、実施例3に記載のシステム。
5.ユーザの正面の環境の少なくとも該部分内のオブジェクトまでの距離を測定するように構成される、1つまたはそれを上回るセンサをさらに備える、前述の実施例のいずれかに記載のシステム。
6.該1つまたはそれを上回るセンサは、該オブジェクトの選択後、該オブジェクトまでの距離を測定するように構成される、実施例5に記載のシステム。
7.1つまたはそれを上回るセンサは、距離測定デバイスを備える、実施例5−6のいずれかに記載のシステム。
8.距離測定デバイスは、レーザ測距計を備える、実施例7に記載のシステム。
9.該第1の深度平面は、遠深度平面を備え、該第2の深度平面は、近深度平面を備え、該遠深度平面は、該頭部搭載型ディスプレイが該ユーザによって装着されるとき、該近深度平面より該ユーザの眼から遠い、前述の実施例のいずれかに記載のシステム。
10.該第1の深度平面は、近深度平面を備え、該第2の深度平面は、遠深度平面を備え、該遠深度平面は、該頭部搭載型ディスプレイが該ユーザによって装着されるとき、該近深度平面より該ユーザの眼から遠い、実施例1−8のいずれかに記載のシステム。
11.該ディスプレイは、付加的画像コンテンツを該第2の深度平面に提示するように構成される、前述の実施例のいずれかに記載のシステム。
12.該付加的画像は、選択されたオブジェクトである、実施例11に記載のシステム。
13.該第2の深度平面に提示される該オブジェクトの画像は、拡大される、前述の実施例のいずれかに記載のシステム。
14.該第2の深度平面に提示される該オブジェクトの画像は、拡大されない、前述の実施例のいずれかに記載のシステム。
15.該第2の深度平面に提示される該オブジェクトの画像は、サイズが低減される、実施例15に記載のシステム。
16.入力を該ユーザから受信するように構成される、該1つまたはそれを上回る入力デバイスは、頭部姿勢センサを備える、前述の実施例のいずれかに記載のシステム。
17.該頭部姿勢センサは、加速度計またはIMUを備える、実施例16に記載のシステム。
18.該頭部搭載型ディスプレイシステムは、該オブジェクトの画像を該中心領域内に提示するように構成される、前述の実施例のいずれかに記載のシステム。
19.該頭部搭載型ディスプレイシステムは、該オブジェクトの画像を該周辺領域内に提示するように構成される、前述の実施例のいずれかに記載のシステム。
20.該頭部搭載型ディスプレイシステムは、ユーザの正面の環境の少なくとも該部分の3D表現を構築し、環境の少なくとも該部分の表現を解釈するように構成され、該環境の該部分は、患者を含み、該頭部搭載型ディスプレイはさらに、患者と関連付けられた第1の構造を患者と関連付けられた第2の構造から区別するように構成される、前述の実施例のいずれかに記載のシステム。
21.透明であって、ユーザの眼の正面の場所に配置される、該ディスプレイの少なくとも該部分は、1つまたはそれを上回る導波管を備える、前述の実施例のいずれかに記載のシステム。
22.光を該1つまたはそれを上回る導波管の中に指向するように構成される、1つまたはそれを上回る光源を備え、導波管は、光をユーザの眼の中に指向するように構成される、実施例21に記載のシステム。
23.該1つまたはそれを上回る光源は、ファイバ走査プロジェクタを備える、実施例21−22のいずれかに記載のシステム。
24.環境を監視するように構成される、1つまたはそれを上回るセンサをさらに備える、前述の実施例のいずれかに記載のシステム。
25.該1つまたはそれを上回るセンサは、該環境を結像するように構成される、1つまたはそれを上回る外向きに面した画像捕捉デバイスを備える、実施例24に記載のシステム。
26.該環境を結像するように構成される、該1つまたはそれを上回る外向きに面した画像捕捉デバイスは、1つまたはそれを上回る外向きに面したカメラを備える、実施例25に記載のシステム。
27.距離測定デバイスをさらに備える、前述の実施例のいずれかに記載のシステム。
28.該ユーザの眼の位置および/または移動を追跡するように構成される、眼追跡デバイスをさらに備える、前述の実施例のいずれかに記載のシステム。
29.頭部搭載型ディスプレイは、ユーザの視野内のヒト組織の体積を推定するように構成される、前述の実施例のいずれかに記載のシステム。
30.頭部搭載型ディスプレイは、環境内の2つのオブジェクト間の距離を測定するように構成される、前述の実施例のいずれかに記載のシステム。
31.頭部搭載型ディスプレイは、ディスプレイ上に提示される第1の画像モダリティと第2の画像モダリティとの間でトグルするように構成される、前述の実施例のいずれかに記載のシステム。
32.第1の画像モダリティは、MRI走査を備える、実施例31に記載のシステム。
33.第2の画像モダリティは、超音波を備える、実施例31−32のいずれかに記載のシステム。
34.第1の画像モダリティは、X線走査を備える、実施例31−33のいずれかに記載のシステム。
35.超音波音波を生産するように適合される、電子エミッタをさらに備える、前述の実施例のいずれかに記載のシステム。
36.超音波音波を電気信号に変換するように適合される、センサをさらに備える、前述の実施例のいずれかに記載のシステム。
37.頭部搭載型ディスプレイは、ユーザが、仮想基準マーカをユーザの眼に対してユーザの正面の環境の一部上に設置することを可能にするように構成される、前述の実施例のいずれかに記載のシステム。
38.頭部搭載型ディスプレイは、画像が環境内の実世界オブジェクトに添付されて現れるように、画像をディスプレイ上に投影するように構成される、前述の実施例のいずれかに記載のシステム。
39.頭部搭載型ディスプレイは、仮想切断ガイドラインが切断されるべきヒト身体領域上にオーバーレイされるようにユーザに現れるように、仮想切断ガイドラインを表示するように構成される、または切断されるべき部分へのアクセスを与える、前述の実施例のいずれかに記載のシステム。
40.仮想切断ガイドラインの見掛け場所は、患者の身体部分の位置に関連するように現れる、実施例39に記載のシステム。
41.頭部搭載型ディスプレイは、信号を放出し、ユーザの正面の環境の一部内のオブジェクトの位置に関するデータを取得するように構成される、前述の実施例のいずれかに記載のシステム。
42.頭部搭載型ディスプレイは、オブジェクト場所のデータベースを使用して、ユーザの正面の環境の一部内のオブジェクトの位置を取得するように構成される、前述の実施例のいずれかに記載のシステム。
43.頭部搭載型ディスプレイは、該オブジェクト場所のデータベースに基づいて、基準点を設定し、画像が基準点に対して固定されて現れるように、画像をユーザの眼の中に投影するように構成される、実施例42に記載のシステム。
44.頭部搭載型ディスプレイは、ユーザ入力に基づいて、オブジェクトの3D画像のビューを軸を中心として回転させるように構成される、前述の実施例のいずれかに記載のシステム。
45.頭部搭載型ディスプレイは、ユーザ入力に基づいて、3Dオブジェクトの画像のビューを平行移動させるように構成される、前述の実施例のいずれかに記載のシステム。
46.頭部搭載型ディスプレイは、オブジェクトの3D画像の第1のスライスを表示するように構成される、前述の実施例のいずれかに記載のシステム。
47.頭部搭載型ディスプレイは、3D画像の第1のスライスの画像および第2のスライスの画像を通してシーケンス化するように構成される、実施例46に記載のシステム。
48.頭部搭載型ディスプレイは、頭部搭載型ディスプレイの第2のユーザが伝送される環境の該部分の該画像を視認し得るように、ユーザの正面の環境の一部の画像を伝送するように構成される、前述の実施例のいずれかに記載のシステム。
49.頭部搭載型ディスプレイは、ユーザに医療手技におけるステップをアラートするように構成される、前述の実施例のいずれかに記載のシステム。
50.頭部搭載型ディスプレイは、ユーザの医療パラメータを監視し、医療パラメータに基づいて、アラートを提供するように構成される、前述の実施例のいずれかに記載のシステム。
51.ユーザの医療パラメータは、バイタルサインを含む、実施例50に記載のシステム。
52.頭部搭載型ディスプレイは、超音波を放出し、該超音波から生じる信号を測定するように構成され、頭部搭載型ディスプレイはさらに、信号に基づいて、超音波画像を形成するように構成される、前述の実施例のいずれかに記載のシステム。
53.頭部搭載型ディスプレイは、ユーザにユーザの視野外のオブジェクトおよび/またはイベントをアラートするように構成される、前述の実施例のいずれかに記載のシステム。
54.光を該ユーザの眼の中に指向し、画像を眼内に形成するように構成される、1つまたはそれを上回る光源をさらに備える、前述の実施例のいずれかに記載のシステム。
55.該1つまたはそれを上回る光源は、ファイバ走査プロジェクタを備える、前述の実施例のいずれかに記載のシステム。
56.頭部搭載型ディスプレイは、第1の画像モダリティと第1の画像モダリティと異なる第2の画像モダリティを組み合わせるように構成される、前述の実施例のいずれかに記載のシステム。
57.第1の画像モダリティおよび第2の画像モダリティはそれぞれ、MRI、CT、PET、MRA、またはCTA走査からの画像を備える、実施例56に記載のシステム。
58.頭部搭載型ディスプレイは、第1および第2の画像モダリティの組み合わせられた画像を患者の実際の解剖学的構造にわたって整合させるように構成される、実施例56または57に記載のシステム。
1.光をユーザの眼に投影し、拡張現実画像コンテンツを表示するように構成される、頭部搭載型ディスプレイシステムであって、該ユーザの眼は、中心領域と、該中心領域を中心として配置される周辺領域を有する、視野を有し、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、ディスプレイであって、該ディスプレイは、画像コンテンツを該ユーザの視野の中心領域に提示するように、光を該ユーザの眼の中に投影するように構成され、該ディスプレイの少なくとも一部は、透明部分が、ユーザの正面の環境の一部からの光をユーザの眼に伝送し、ユーザの正面の環境の該部分のビューを提供するように、透明であって、ユーザが該頭部搭載型ディスプレイシステムを装着すると、ユーザの眼の正面の場所に配置される、ディスプレイと、
環境の照明条件を捕捉するように構成される、1つまたはそれを上回る捕捉デバイスと、
該ディスプレイと通信し、該ディスプレイ上での画像コンテンツの提示を制御する、処理電子機器と、
を備え、該頭部搭載型ディスプレイシステムは、少なくとも部分的に、環境の照明条件に基づいて増強される、画像コンテンツをユーザの視野に提示するように構成される、頭部搭載型ディスプレイシステム。
2.光を該ユーザの眼の中に指向し、画像を眼内に形成するように構成される、1つまたはそれを上回る光源をさらに備える、実施例1に記載のシステム。
3.透明であって、ユーザの眼の正面の場所に配置される、該ディスプレイの少なくとも該部分は、光をユーザに投影するように構成される、1つまたはそれを上回る導波管を備える、実施例1または2に記載のシステム。
4.該1つまたはそれを上回る光源は、光を該1つまたはそれを上回る導波管の中に指向するように構成される、実施例3に記載のシステム。
5.該光源は、ファイバ走査プロジェクタを備える、実施例2−4のいずれかに記載のシステム。
6.1つまたはそれを上回る捕捉デバイスは、1つまたはそれを上回る画像捕捉デバイスを備える、実施例1−5のいずれかに記載のシステム。
7.1つまたはそれを上回る画像捕捉デバイスは、1つまたはそれを上回るカメラを備える、実施例6に記載のシステム。
8.1つまたはそれを上回る捕捉デバイスは、1つまたはそれを上回る光センサを備える、実施例1−5のいずれかに記載のシステム。
9.1つまたはそれを上回る光センサは、1つまたはそれを上回る照度計を備える、実施例8に記載のシステム。
10.1つまたはそれを上回る捕捉デバイスは、環境の輝度を測定するように構成される、前述の実施例のいずれかに記載のシステム。
11.距離測定デバイスをさらに備える、前述の実施例のいずれかに記載のシステム。
12.該距離測定デバイスは、レーザ測距計を備える、実施例11に記載のシステム。
13.該ユーザの眼の位置および/または移動を追跡するように構成される、眼追跡デバイスをさらに備える、前述の実施例のいずれかに記載のシステム。
14.該ユーザの眼を結像するように構成される、1つまたはそれを上回る内向きに面した画像捕捉デバイスをさらに備える、実施例1−13のいずれかに記載のシステム。
15.頭部搭載型ディスプレイシステムは、少なくとも部分的に、環境の照明条件に基づいて、画像コンテンツを拡大するように構成される、前述の実施例のいずれかに記載のシステム。
16.該拡大は、少なくとも部分的に、眼の分解能に基づく、実施例15に記載のシステム。
17.頭部搭載型ディスプレイシステムは、少なくとも部分的に、環境の照明条件に基づいて、画像コンテンツ内の明度を増加させるように構成される、前述の実施例のいずれかに記載のシステム。
18.頭部搭載型ディスプレイシステムは、少なくとも部分的に、環境の照明条件に基づいて、画像コンテンツ内のコントラストを増加させるように構成される、前述の実施例のいずれかに記載のシステム。
19.頭部搭載型ディスプレイシステムは、少なくとも部分的に、環境の照明条件に基づいて、画像コンテンツ内の色飽和を増加させるように構成される、前述の実施例のいずれかに記載のシステム。
20.頭部搭載型ディスプレイシステムは、少なくとも部分的に、環境の照明条件に基づいて、画像コンテンツを鮮明化するように構成される、前述の実施例のいずれかに記載のシステム。
21.鮮明化することは、少なくとも部分的に、環境の照明条件に基づいて、縁増強特徴を画像コンテンツ内に追加することを含む、実施例20に記載のシステム。
22.頭部搭載型ディスプレイシステムは、少なくとも部分的に、環境の照明条件に基づいて、画像コンテンツのカラーバランスを偏移させるように構成される、前述の実施例のいずれかに記載のシステム。
23.システムは、アラートをユーザに提供し、画像コンテンツが増強されたことを示すように構成される、前述の実施例のいずれかに記載のシステム。
24.アラートは、視覚的アラートである、実施例23に記載のシステム。
25.アラートは、聴覚的アラートである、実施例23に記載のシステム。
26.光をユーザの眼に投影し、拡張現実画像コンテンツを表示するように構成される、頭部搭載型ディスプレイシステムであって、該ユーザの眼は、中心領域と、該中心領域を中心として配置される周辺領域を有する、視野を有し、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、ディスプレイであって、該ディスプレイは、画像コンテンツを該ユーザの視野の中心領域に提示するように、光を該ユーザの眼の中に投影するように構成され、該ディスプレイの少なくとも一部は、透明部分が、ユーザの正面の環境の一部からの光をユーザの眼に伝送し、ユーザの正面の環境の該部分のビューを提供するように、透明であって、ユーザが該頭部搭載型ディスプレイシステムを装着すると、ユーザの眼の正面の場所に配置される、ディスプレイと、
環境の照明条件を捕捉するように構成される、1つまたはそれを上回る捕捉デバイスと、
該ディスプレイと通信し、該ディスプレイ上での画像コンテンツの提示を制御する、処理電子機器と、
を備え、該頭部搭載型ディスプレイシステムは、少なくとも部分的に、環境の照明条件に基づいて強調解除される、画像コンテンツをユーザの視野に提示するように構成される、頭部搭載型ディスプレイシステム。
27.光を該ユーザの眼の中に指向し、画像を眼内に形成するように構成される、1つまたはそれを上回る光源をさらに備える、実施例26に記載のシステム。
28.透明であって、ユーザの眼の正面の場所に配置される、該ディスプレイの少なくとも該部分は、光をユーザに投影するように構成される、1つまたはそれを上回る導波管を備える、実施例26または27に記載のシステム。
29.該1つまたはそれを上回る光源は、光を該1つまたはそれを上回る導波管の中に指向するように構成される、実施例28に記載のシステム。
30.該光源は、ファイバ走査プロジェクタを備える、実施例27−29のいずれかに記載のシステム。
31.1つまたはそれを上回る捕捉デバイスは、1つまたはそれを上回る画像捕捉デバイスを備える、実施例26−30のいずれかに記載のシステム。
32.1つまたはそれを上回る画像捕捉デバイスは、1つまたはそれを上回るカメラを備える、実施例31に記載のシステム。
33.1つまたはそれを上回る捕捉デバイスは、1つまたはそれを上回る光センサを備える、実施例26−30のいずれかに記載のシステム。
34.1つまたはそれを上回る光センサは、1つまたはそれを上回る照度計を備える、実施例33に記載のシステム。
35.1つまたはそれを上回る捕捉デバイスは、環境の輝度を測定するように構成される、実施例26−34のいずれかに記載のシステム。
36.距離測定デバイスをさらに備える、実施例26−35のいずれかに記載のシステム。
37.該距離測定デバイスは、レーザ測距計を備える、実施例36に記載のシステム。
38.該ユーザの眼の位置および/または移動を追跡するように構成される、眼追跡デバイスをさらに備える、実施例26−37のいずれかに記載のシステム。
39.該ユーザの眼を結像するように構成される、1つまたはそれを上回る内向きに面した画像捕捉デバイスをさらに備える、実施例26−38のいずれかに記載のシステム。
40.頭部搭載型ディスプレイシステムは、少なくとも部分的に、環境の照明条件に基づいて、画像コンテンツのサイズを低減させるように構成される、実施例26−39のいずれかに記載のシステム。
41.該サイズ低減は、少なくとも部分的に、眼の分解能に基づく、実施例40に記載のシステム。
42.頭部搭載型ディスプレイシステムは、少なくとも部分的に、環境の照明条件に基づいて、画像コンテンツを暗化または減衰させるように構成される、実施例26−41のいずれかに記載のシステム。
43.頭部搭載型ディスプレイシステムは、少なくとも部分的に、環境の照明条件に基づいて、画像コンテンツ内のコントラストを低減させるように構成される、実施例26−42のいずれかに記載のシステム。
44.頭部搭載型ディスプレイシステムは、少なくとも部分的に、環境の照明条件に基づいて、画像コンテンツ内の色飽和を減少させるように構成される、実施例26−43のいずれかに記載のシステム。
45.頭部搭載型ディスプレイシステムは、少なくとも部分的に、環境の照明条件に基づいて、画像コンテンツの鮮明度を減少させるように構成される、実施例26−44のいずれかに記載のシステム。
46.鮮明度を減少させることは、少なくとも部分的に、環境の照明条件に基づいて、画像コンテンツ内の特徴の縁を増強解除することを含む、実施例45に記載のシステム。
47.頭部搭載型ディスプレイシステムは、少なくとも部分的に、環境の照明条件に基づいて、画像コンテンツのカラーバランスを偏移させるように構成される、実施例26−46のいずれかに記載のシステム。
48.頭部搭載型ディスプレイシステムは、少なくとも部分的に、環境の照明条件に基づいて、画像コンテンツをぼかすように構成される、実施例26−47のいずれかに記載のシステム。
49.該ぼかしは、同一色を使用して、該画像コンテンツをぼかすことを含む、実施例48に記載のシステム。
50.システムは、アラートをユーザに提供し、画像コンテンツが強調解除されたことを示すように構成される、実施例26−49のいずれかに記載のシステム。
51.アラートは、視覚的アラートである、実施例50に記載のシステム。
52.アラートは、聴覚的アラートである、実施例50に記載のシステム。
53.該頭部搭載型ディスプレイシステムは、ユーザの正面の環境の少なくとも該部分の3D表現を構築し、環境の少なくとも該部分の表現を解釈するように構成され、該環境の該部分は、患者を含み、該頭部搭載型ディスプレイはさらに、患者と関連付けられた第1の構造を患者と関連付けられた第2の構造から区別するように構成される、前述の実施例のいずれかに記載のシステム。
54.透明であって、ユーザの眼の正面の場所に配置される、該ディスプレイの少なくとも該部分は、1つまたはそれを上回る導波管を備える、前述の実施例のいずれかに記載のシステム。
55.光を該1つまたはそれを上回る導波管の中に指向するように構成される、1つまたはそれを上回る光源を備え、導波管は、光をユーザの眼の中に指向するように構成される、実施例54に記載のシステム。
56.該1つまたはそれを上回る光源は、ファイバ走査プロジェクタを備える、実施例54−55のいずれかに記載のシステム。
57.環境を監視するように構成される、1つまたはそれを上回るセンサをさらに備える、前述の実施例のいずれかに記載のシステム。
58.該1つまたはそれを上回るセンサは、該環境を結像するように構成される、1つまたはそれを上回る外向きに面した画像捕捉デバイスを備える、実施例57に記載のシステム。
59.該環境を結像するように構成される、該1つまたはそれを上回る外向きに面した画像捕捉デバイスは、1つまたはそれを上回る外向きに面したカメラを備える、実施例58に記載のシステム。
60.距離測定デバイスをさらに備える、前述の実施例のいずれかに記載のシステム。
61.該ユーザの眼の位置および/または移動を追跡するように構成される、眼追跡デバイスをさらに備える、前述の実施例のいずれかに記載のシステム。
62.頭部搭載型ディスプレイは、ユーザの視野内のヒト組織の体積を推定するように構成される、前述の実施例のいずれかに記載のシステム。
63.頭部搭載型ディスプレイは、環境内の2つのオブジェクト間の距離を測定するように構成される、前述の実施例のいずれかに記載のシステム。
64.頭部搭載型ディスプレイは、ディスプレイ上に提示される第1の画像モダリティと第2の画像モダリティとの間でトグルするように構成される、前述の実施例のいずれかに記載のシステム。
65.第1の画像モダリティは、MRI走査を備える、実施例64に記載のシステム。
66.第2の画像モダリティは、超音波を備える、実施例64−65のいずれかに記載のシステム。
67.第1の画像モダリティは、X線走査を備える、実施例64−66のいずれかに記載のシステム。
68.超音波音波を生産するように適合される、電子エミッタをさらに備える、前述の実施例のいずれかに記載のシステム。
69.超音波音波を電気信号に変換するように適合される、センサをさらに備える、前述の実施例のいずれかに記載のシステム。
70.頭部搭載型ディスプレイは、ユーザが、仮想基準マーカをユーザの眼に対してユーザの正面の環境の一部上に設置することを可能にするように構成される、前述の実施例のいずれかに記載のシステム。
71.頭部搭載型ディスプレイは、画像が環境内の実世界オブジェクトに添付されて現れるように、画像をディスプレイ上に投影するように構成される、前述の実施例のいずれかに記載のシステム。
72.頭部搭載型ディスプレイは、仮想切断ガイドラインが切断されるべきヒト身体領域上にオーバーレイされるようにユーザに現れるように、仮想切断ガイドラインを表示するように構成される、または切断されるべき部分へのアクセスを与える、前述の実施例のいずれかに記載のシステム。
73.仮想切断ガイドラインの見掛け場所は、患者の身体部分の位置に関連するように現れる、実施例72に記載のシステム。
74.頭部搭載型ディスプレイは、信号を放出し、ユーザの正面の環境の一部内のオブジェクトの位置に関するデータを取得するように構成される、前述の実施例のいずれかに記載のシステム。
75.頭部搭載型ディスプレイは、オブジェクト場所のデータベースを使用して、ユーザの正面の環境の一部内のオブジェクトの位置を取得するように構成される、前述の実施例のいずれかに記載のシステム。
76.頭部搭載型ディスプレイは、該オブジェクト場所のデータベースに基づいて、基準点を設定し、画像が基準点に対して固定されて現れるように、画像をユーザの眼の中に投影するように構成される、実施例75に記載のシステム。
77.頭部搭載型ディスプレイは、ユーザ入力に基づいて、オブジェクトの3D画像のビューを軸を中心として回転させるように構成される、前述の実施例のいずれかに記載のシステム。
78.頭部搭載型ディスプレイは、ユーザ入力に基づいて、3Dオブジェクトの画像のビューを平行移動させるように構成される、前述の実施例のいずれかに記載のシステム。
79.頭部搭載型ディスプレイは、オブジェクトの3D画像の第1のスライスを表示するように構成される、前述の実施例のいずれかに記載のシステム。
80.頭部搭載型ディスプレイは、3D画像の第1のスライスの画像および第2のスライスの画像を通してシーケンス化するように構成される、実施例79に記載のシステム。
81.頭部搭載型ディスプレイは、頭部搭載型ディスプレイの第2のユーザが伝送される環境の該部分の該画像を視認し得るように、ユーザの正面の環境の一部の画像を伝送するように構成される、前述の実施例のいずれかに記載のシステム。
82.頭部搭載型ディスプレイは、ユーザに医療手技におけるステップをアラートするように構成される、前述の実施例のいずれかに記載のシステム。
83.頭部搭載型ディスプレイは、ユーザの医療パラメータを監視し、医療パラメータに基づいて、アラートを提供するように構成される、前述の実施例のいずれかに記載のシステム。
84.ユーザの医療パラメータは、バイタルサインを含む、実施例83に記載のシステム。
85.頭部搭載型ディスプレイは、超音波を放出し、該超音波から生じる信号を測定するように構成され、頭部搭載型ディスプレイはさらに、信号に基づいて、超音波画像を形成するように構成される、前述の実施例のいずれかに記載のシステム。
86.頭部搭載型ディスプレイは、ユーザにユーザの視野外のオブジェクトおよび/またはイベントをアラートするように構成される、前述の実施例のいずれかに記載のシステム。
87.光を該ユーザの眼の中に指向し、画像を眼内に形成するように構成される、1つまたはそれを上回る光源をさらに備える、前述の実施例のいずれかに記載のシステム。
88.該1つまたはそれを上回る光源は、ファイバ走査プロジェクタを備える、前述の実施例のいずれかに記載のシステム。
89.コントラストを増加させることは、該画像コンテンツの少なくとも1つの色の明度または暗度を調節することを含む、実施例18に記載のシステム。
90.コントラストを増加させることは、黒色、灰色、白色、または他の色を該画像コンテンツの少なくとも1つの色に追加することを含む、実施例18に記載のシステム。
91.頭部搭載型ディスプレイは、ある程度の不透明度を提示される画像コンテンツの少なくとも近傍に提供するように構成される、前述の実施例のいずれかに記載のシステム。
92.頭部搭載型ディスプレイは、第1の画像モダリティと第1の画像モダリティと異なる第2の画像モダリティを組み合わせるように構成される、前述の実施例のいずれかに記載のシステム。
93.第1の画像モダリティおよび第2の画像モダリティはそれぞれ、MRI、CT、PET、MRA、またはCTA走査からの画像を備える、実施例92に記載のシステム。
94.頭部搭載型ディスプレイは、第1および第2の画像モダリティの組み合わせられた画像を患者の実際の解剖学的構造にわたって整合させるように構成される、実施例92または93に記載のシステム。
1.光をユーザの眼に投影し、拡張現実画像コンテンツを表示するように構成される、頭部搭載型ディスプレイシステムであって、該ユーザの眼は、中心領域と、該中心領域を中心として配置される周辺領域を有する、視野を有し、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、ディスプレイであって、該ディスプレイは、画像コンテンツを該ユーザの視野の中心領域に提示するように、光を該ユーザの眼の中に投影するように構成され、該ディスプレイの少なくとも一部は、透明部分が、ユーザの正面の環境の一部からの光をユーザの眼に伝送し、ユーザの正面の環境の該部分のビューを提供するように、透明であって、ユーザが該頭部搭載型ディスプレイシステムを装着すると、ユーザの眼の正面の場所に配置される、ディスプレイと、
環境の照明条件を捕捉するように構成される、1つまたはそれを上回る捕捉デバイスと、
該ディスプレイと通信し、該ディスプレイ上での画像コンテンツの提示を制御する、処理電子機器と、
を備え、該頭部搭載型ディスプレイシステムは、少なくとも部分的に、環境の照明条件に基づいて増強される、画像コンテンツをユーザの視野の中心領域の一部に提示するように、光をユーザの眼の場所に投影するように構成される、頭部搭載型ディスプレイシステム。
2.明所視照明条件下、画像コンテンツは、錐体の投影された光場所の密度に基づいて反比例して増強される、実施例1に記載のシステム。
3.環境の明所視照明条件は、輝度10cd/m2〜108cd/m2を有する、実施例2に記載のシステム。
4.暗所視照明条件下、画像コンテンツは、桿体の投影された光場所の密度に基づいて反比例して増強される、実施例1に記載のシステム。
5.環境の暗所視照明条件は、輝度10−3.5cd/m2〜10−6cd/m2を有する、実施例4に記載のシステム。
6.薄明視照明条件下、画像コンテンツは、少なくとも部分的に、薄明視照明条件下で費やされた時間に基づいて増強される、実施例1に記載のシステム。
7.環境の薄明視照明条件は、輝度10−3cd/m2〜100.5cd/m2を有する、実施例6に記載のシステム。
8.システムは、少なくとも部分的に、薄明視照明条件下で費やされた時間に基づいて、錐体または桿体がユーザの眼内で優勢であるかどうかを判定するように構成される、実施例6または7に記載のシステム。
9.画像コンテンツは、錐体がユーザの眼内で優勢であるとき、錐体の投影された光場所の密度に基づいて反比例して増強される、実施例6−8のいずれかに記載のシステム。
10.画像コンテンツは、桿体がユーザの眼内で優勢であるとき、ユーザの眼の桿体の投影された光場所の密度に基づいて反比例して増強される、実施例6−8のいずれかに記載のシステム。
11.システムは、照明条件下で費やされた時間を監視するためのタイマまたはクロックを備える、前述の実施例のいずれかに記載のシステム。
12.光を該ユーザの眼の中に指向し、画像を眼内に形成するように構成される、1つまたはそれを上回る光源をさらに備える、前述の実施例のいずれかに記載のシステム。
13.透明であって、ユーザの眼の正面の場所に配置される、該ディスプレイの少なくとも該部分は、光をユーザに投影するように構成される、1つまたはそれを上回る導波管を備える、前述の実施例のいずれかに記載のシステム。
14.該1つまたはそれを上回る光源は、光を該1つまたはそれを上回る導波管の中に指向するように構成される、実施例13に記載のシステム。
15.該光源は、ファイバ走査プロジェクタを備える、実施例12−14のいずれかに記載のシステム。
16.1つまたはそれを上回る捕捉デバイスは、1つまたはそれを上回る画像捕捉デバイスを備える、実施例1−15のいずれかに記載のシステム。
17.1つまたはそれを上回る画像捕捉デバイスは、1つまたはそれを上回るカメラを備える、実施例16に記載のシステム。
18.1つまたはそれを上回る捕捉デバイスは、1つまたはそれを上回る光センサを備える、実施例1−15のいずれかに記載のシステム。
19.1つまたはそれを上回る光センサは、1つまたはそれを上回る照度計を備える、実施例18に記載のシステム。
20.1つまたはそれを上回る捕捉デバイスは、環境の輝度を測定するように構成される、前述の実施例のいずれかに記載のシステム。
21.1つまたはそれを上回る捕捉デバイスは、ピクセルのアレイを備える、検出器アレイを備え、検出器アレイは、ピクセルにわたって光レベルを積分し、照明条件を捕捉するように構成される、前述の実施例のいずれかに記載のシステム。
22.1つまたはそれを上回る捕捉デバイスは、瞳孔サイズを検出し、照明条件を捕捉するように構成される、1つまたはそれを上回る内向きに面したカメラを備える、前述の実施例のいずれかに記載のシステム。
23.距離測定デバイスをさらに備える、前述の実施例のいずれかに記載のシステム。
24.該距離測定デバイスは、レーザ測距計を備える、実施例23に記載のシステム。
25.該ユーザの眼の位置および/または移動を追跡するように構成される、眼追跡デバイスをさらに備える、前述の実施例のいずれかに記載のシステム。
26.該ユーザの眼を結像するように構成される、1つまたはそれを上回る内向きに面した画像捕捉デバイスをさらに備える、実施例1−25のいずれかに記載のシステム。
27.頭部搭載型ディスプレイシステムは、少なくとも部分的に、環境の照明条件に基づいて、画像コンテンツを拡大するように構成される、前述の実施例のいずれかに記載のシステム。
28.該拡大は、少なくとも部分的に、眼の分解能に基づく、実施例27に記載のシステム。
29.頭部搭載型ディスプレイシステムは、少なくとも部分的に、環境の照明条件に基づいて、画像コンテンツ内の明度を増加させるように構成される、前述の実施例のいずれかに記載のシステム。
30.頭部搭載型ディスプレイシステムは、少なくとも部分的に、環境の照明条件に基づいて、画像コンテンツ内のコントラストを増加させるように構成される、前述の実施例のいずれかに記載のシステム。
31.頭部搭載型ディスプレイシステムは、少なくとも部分的に、眼のコントラスト感度に基づいて、コントラストを増加させるように構成される、実施例30に記載のシステム。
32.頭部搭載型ディスプレイシステムは、少なくとも部分的に、環境の照明条件に基づいて、画像コンテンツ内の色飽和を増加させるように構成される、前述の実施例のいずれかに記載のシステム。
33.頭部搭載型ディスプレイシステムは、少なくとも部分的に、環境の照明条件に基づいて、画像コンテンツを鮮明化するように構成される、前述の実施例のいずれかに記載のシステム。
34.鮮明化することは、少なくとも部分的に、環境の照明条件に基づいて、縁増強特徴を画像コンテンツ内に追加することを含む、実施例33に記載のシステム。
35.頭部搭載型ディスプレイシステムは、少なくとも部分的に、環境の照明条件に基づいて、画像コンテンツのカラーバランスを偏移させるように構成される、前述の実施例のいずれかに記載のシステム。
36.システムは、アラートをユーザに提供し、画像コンテンツが増強されたことを示すように構成される、前述の実施例のいずれかに記載のシステム。
37.アラートは、視覚的アラートである、実施例36に記載のシステム。
38.アラートは、聴覚的アラートである、実施例36に記載のシステム。
39.該頭部搭載型ディスプレイシステムは、ユーザの正面の環境の少なくとも該部分の3D表現を構築し、環境の少なくとも該部分の表現を解釈するように構成され、該環境の該部分は、患者を含み、該頭部搭載型ディスプレイはさらに、患者と関連付けられた第1の構造を患者と関連付けられた第2の構造から区別するように構成される、前述の実施例のいずれかに記載のシステム。
40.環境を監視するように構成される、1つまたはそれを上回るセンサをさらに備える、前述の実施例のいずれかに記載のシステム。
41.該1つまたはそれを上回るセンサは、該環境を結像するように構成される、1つまたはそれを上回る外向きに面した画像捕捉デバイスを備える、実施例40に記載のシステム。
42.該環境を結像するように構成される、該1つまたはそれを上回る外向きに面した画像捕捉デバイスは、1つまたはそれを上回る外向きに面したカメラを備える、実施例41に記載のシステム。
43.頭部搭載型ディスプレイは、ユーザの視野内のヒト組織の体積を推定するように構成される、前述の実施例のいずれかに記載のシステム。
44.頭部搭載型ディスプレイは、環境内の2つのオブジェクト間の距離を測定するように構成される、前述の実施例のいずれかに記載のシステム。
45.頭部搭載型ディスプレイは、ディスプレイ上に提示される第1の画像モダリティと第2の画像モダリティとの間でトグルするように構成される、前述の実施例のいずれかに記載のシステム。
46.第1の画像モダリティは、MRI走査を備える、実施例45に記載のシステム。
47.第2の画像モダリティは、超音波を備える、実施例45−46のいずれかに記載のシステム。
48.第1の画像モダリティは、X線走査を備える、実施例45−47のいずれかに記載のシステム。
49.超音波音波を生産するように適合される、電子エミッタをさらに備える、前述の実施例のいずれかに記載のシステム。
50.超音波音波を電気信号に変換するように適合される、センサをさらに備える、前述の実施例のいずれかに記載のシステム。
51.頭部搭載型ディスプレイは、ユーザが、仮想基準マーカをユーザの眼に対してユーザの正面の環境の一部上に設置することを可能にするように構成される、前述の実施例のいずれかに記載のシステム。
52.頭部搭載型ディスプレイは、画像が環境内の実世界オブジェクトに添付されて現れるように、画像をディスプレイ上に投影するように構成される、前述の実施例のいずれかに記載のシステム。
53.頭部搭載型ディスプレイは、仮想切断ガイドラインが切断されるべきヒト身体領域上にオーバーレイされるようにユーザに現れるように、仮想切断ガイドラインを表示するように構成される、または切断されるべき部分へのアクセスを与える、前述の実施例のいずれかに記載のシステム。
54.仮想切断ガイドラインの見掛け場所は、患者の身体部分の位置に関連するように現れる、実施例53に記載のシステム。
55.頭部搭載型ディスプレイは、信号を放出し、ユーザの正面の環境の一部内のオブジェクトの位置に関するデータを取得するように構成される、前述の実施例のいずれかに記載のシステム。
56.頭部搭載型ディスプレイは、オブジェクト場所のデータベースを使用して、ユーザの正面の環境の一部内のオブジェクトの位置を取得するように構成される、前述の実施例のいずれかに記載のシステム。
57.頭部搭載型ディスプレイは、該オブジェクト場所のデータベースに基づいて、基準点を設定し、画像が基準点に対して固定されて現れるように、画像をユーザの眼の中に投影するように構成される、実施例56に記載のシステム。
58.頭部搭載型ディスプレイは、ユーザ入力に基づいて、オブジェクトの3D画像のビューを軸を中心として回転させるように構成される、前述の実施例のいずれかに記載のシステム。
59.頭部搭載型ディスプレイは、ユーザ入力に基づいて、3Dオブジェクトの画像のビューを平行移動させるように構成される、前述の実施例のいずれかに記載のシステム。
60.頭部搭載型ディスプレイは、オブジェクトの3D画像の第1のスライスを表示するように構成される、前述の実施例のいずれかに記載のシステム。
61.頭部搭載型ディスプレイは、3D画像の第1のスライスの画像および第2のスライスの画像を通してシーケンス化するように構成される、実施例60に記載のシステム。
62.頭部搭載型ディスプレイは、頭部搭載型ディスプレイの第2のユーザが伝送される環境の該部分の該画像を視認し得るように、ユーザの正面の環境の一部の画像を伝送するように構成される、前述の実施例のいずれかに記載のシステム。
63.頭部搭載型ディスプレイは、ユーザに医療手技におけるステップをアラートするように構成される、前述の実施例のいずれかに記載のシステム。
64.頭部搭載型ディスプレイは、医療パラメータを監視し、医療パラメータに基づいて、アラートを提供するように構成される、前述の実施例のいずれかに記載のシステム。
65.医療パラメータは、バイタルサインを含む、実施例64に記載のシステム。
66.頭部搭載型ディスプレイは、超音波を放出し、該超音波から生じる信号を測定するように構成され、頭部搭載型ディスプレイはさらに、信号に基づいて、超音波画像を形成するように構成される、前述の実施例のいずれかに記載のシステム。
67.頭部搭載型ディスプレイは、ユーザにユーザの視野外のオブジェクトおよび/またはイベントをアラートするように構成される、前述の実施例のいずれかに記載のシステム。
68.検出器アレイは、環境を結像するように構成される、外向きに面したカメラを備える、実施例21に記載のシステム。
69.該頭部搭載型ディスプレイシステムは、周辺領域の一部に提示される画像コンテンツに対して増強される、画像コンテンツをユーザの視野の中心領域の一部に提示するように、光をユーザの眼の場所に投影するように構成される、前述の実施例のいずれかに記載のシステム。
70.該頭部搭載型ディスプレイシステムは、中心領域の別の部分に提示される画像コンテンツに対して増強される、画像コンテンツをユーザの視野の中心領域の一部に提示するように、光をユーザの眼の場所に投影するように構成される、前述の実施例のいずれかに記載のシステム。
71.前システムは、少なくとも部分的に、環境の照明条件の時間的側面に基づいて、画像コンテンツをユーザの眼内に提示する方法を判定するように構成される、述の実施例のいずれかに記載のシステム。
72.該ディスプレイは、該画像コンテンツが異なる深度から生じるかのように該画像コンテンツを提示するように、異なる発散量において光を該ユーザの眼の中に投影するように構成される、前述の実施例のいずれかに記載のシステム。
73.コントラストを増加させることは、該画像コンテンツの少なくとも1つの色の明度または暗度を調節することを含む、実施例30に記載のシステム。
74.コントラストを増加させることは、黒色、灰色、白色、または他の色を該画像コンテンツの少なくとも1つの色に追加することを含む、実施例30に記載のシステム。
75.頭部搭載型ディスプレイは、ある程度の不透明度を提示される画像コンテンツの少なくとも近傍に提供するように構成される、前述の実施例のいずれかに記載のシステム。
76.頭部搭載型ディスプレイは、第1の画像モダリティと第1の画像モダリティと異なる第2の画像モダリティを組み合わせるように構成される、前述の実施例のいずれかに記載のシステム。
77.第1の画像モダリティおよび第2の画像モダリティはそれぞれ、MRI、CT、PET、MRA、またはCTA走査からの画像を備える、実施例76に記載のシステム。
78.頭部搭載型ディスプレイは、第1および第2の画像モダリティの組み合わせられた画像を患者の実際の解剖学的構造にわたって整合させるように構成される、実施例76または77に記載のシステム。
1.光をユーザの眼に投影し、拡張現実画像コンテンツを表示するように構成される、頭部搭載型ディスプレイシステムであって、該ユーザの眼は、中心領域と、該中心領域を中心として配置される周辺領域を有する、視野を有し、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、ディスプレイであって、該ディスプレイは、画像コンテンツを該ユーザの視野の該周辺領域に提示するように、光を該ユーザの眼の中に投影するように構成され、該ディスプレイの少なくとも一部は、透明部分が、ユーザの正面の環境の一部からの光をユーザの眼に伝送し、ユーザの正面の環境の該部分のビューを提供するように、透明であって、ユーザが該頭部搭載型ディスプレイシステムを装着すると、ユーザの眼の正面の場所に配置される、ディスプレイと、
環境の照明条件を捕捉するように構成される、1つまたはそれを上回る捕捉デバイスと、
該ディスプレイと通信し、該ディスプレイ上での画像コンテンツの提示を制御する、処理電子機器と、
を備え、該頭部搭載型ディスプレイシステムは、少なくとも部分的に、環境の照明条件に基づいて増強される、画像コンテンツをユーザの視野の周辺領域の一部に提示するように、光をユーザの眼の場所に投影するように構成される、頭部搭載型ディスプレイシステム。
2.明所視照明条件下、画像コンテンツは、錐体の投影された光場所の密度に基づいて反比例して増強される、実施例1に記載のシステム。
3.環境の明所視照明条件は、輝度10cd/m2〜108cd/m2を有する、実施例2に記載のシステム。
4.暗所視照明条件下、画像コンテンツは、桿体の投影された光場所の密度に基づいて反比例して増強される、実施例1に記載のシステム。
5.環境の暗所視照明条件は、輝度10−3.5cd/m2〜10−6cd/m2を有する、実施例4に記載のシステム。
6.薄明視照明条件下、画像コンテンツは、少なくとも部分的に、薄明視照明条件下で費やされた時間に基づいて増強される、実施例1に記載のシステム。
7.環境の薄明視照明条件は、輝度10−3cd/m2〜100.5cd/m2を有する、実施例6に記載のシステム。
8.システムは、少なくとも部分的に、薄明視照明条件下で費やされた時間に基づいて、錐体または桿体がユーザの眼内で優勢であるかどうかを判定するように構成される、実施例6または7に記載のシステム。
9.画像コンテンツは、錐体がユーザの眼内で優勢であるとき、錐体の投影された光場所の密度に基づいて反比例して増強される、実施例6−8のいずれかに記載のシステム。
10.画像コンテンツは、桿体がユーザの眼内で優勢であるとき、ユーザの眼の桿体の投影された光場所の密度に基づいて反比例して増強される、実施例6−8のいずれかに記載のシステム。
11.システムは、照明条件下で費やされた時間を監視するためのタイマまたはクロックを備える、前述の実施例のいずれかに記載のシステム。
12.光を該ユーザの眼の中に指向し、画像を眼内に形成するように構成される、1つまたはそれを上回る光源をさらに備える、前述の実施例のいずれかに記載のシステム。
13.透明であって、ユーザの眼の正面の場所に配置される、該ディスプレイの少なくとも該部分は、光をユーザに投影するように構成される、1つまたはそれを上回る導波管を備える、前述の実施例のいずれかに記載のシステム。
14.該1つまたはそれを上回る光源は、光を該1つまたはそれを上回る導波管の中に指向するように構成される、実施例13に記載のシステム。
15.該光源は、ファイバ走査プロジェクタを備える、実施例12−14のいずれかに記載のシステム。
16.1つまたはそれを上回る捕捉デバイスは、1つまたはそれを上回る画像捕捉デバイスを備える、実施例1−15のいずれかに記載のシステム。
17.1つまたはそれを上回る画像捕捉デバイスは、1つまたはそれを上回るカメラを備える、実施例16に記載のシステム。
18.1つまたはそれを上回る捕捉デバイスは、1つまたはそれを上回る光センサを備える、実施例1−15のいずれかに記載のシステム。
19.1つまたはそれを上回る光センサは、1つまたはそれを上回る照度計を備える、実施例18に記載のシステム。
20.1つまたはそれを上回る捕捉デバイスは、環境の輝度を測定するように構成される、前述の実施例のいずれかに記載のシステム。
21.1つまたはそれを上回る捕捉デバイスは、ピクセルのアレイを備える、検出器アレイを備え、検出器アレイは、ピクセルにわたって光レベルを積分し、照明条件を捕捉するように構成される、前述の実施例のいずれかに記載のシステム。
22.1つまたはそれを上回る捕捉デバイスは、瞳孔サイズを検出し、照明条件を捕捉するように構成される、1つまたはそれを上回る内向きに面したカメラを備える、前述の実施例のいずれかに記載のシステム。
23.距離測定デバイスをさらに備える、前述の実施例のいずれかに記載のシステム。
24.該距離測定デバイスは、レーザ測距計を備える、実施例23に記載のシステム。
25.該ユーザの眼の位置および/または移動を追跡するように構成される、眼追跡デバイスをさらに備える、前述の実施例のいずれかに記載のシステム。
26.該ユーザの眼を結像するように構成される、1つまたはそれを上回る内向きに面した画像捕捉デバイスをさらに備える、実施例1−25のいずれかに記載のシステム。
27.頭部搭載型ディスプレイシステムは、少なくとも部分的に、環境の照明条件に基づいて、画像コンテンツを拡大するように構成される、前述の実施例のいずれかに記載のシステム。
28.該拡大は、少なくとも部分的に、眼の分解能に基づく、実施例27に記載のシステム。
29.頭部搭載型ディスプレイシステムは、少なくとも部分的に、環境の照明条件に基づいて、画像コンテンツ内の明度を増加させるように構成される、前述の実施例のいずれかに記載のシステム。
30.頭部搭載型ディスプレイシステムは、少なくとも部分的に、環境の照明条件に基づいて、画像コンテンツ内のコントラストを増加させるように構成される、前述の実施例のいずれかに記載のシステム。
31.頭部搭載型ディスプレイシステムは、少なくとも部分的に、眼のコントラスト感度に基づいて、コントラストを増加させるように構成される、実施例30に記載のシステム。
32.頭部搭載型ディスプレイシステムは、少なくとも部分的に、環境の照明条件に基づいて、画像コンテンツ内の色飽和を増加させるように構成される、前述の実施例のいずれかに記載のシステム。
33.頭部搭載型ディスプレイシステムは、少なくとも部分的に、環境の照明条件に基づいて、画像コンテンツを鮮明化するように構成される、前述の実施例のいずれかに記載のシステム。
34.鮮明化することは、少なくとも部分的に、環境の照明条件に基づいて、縁増強特徴を画像コンテンツ内に追加することを含む、実施例33に記載のシステム。
35.頭部搭載型ディスプレイシステムは、少なくとも部分的に、環境の照明条件に基づいて、画像コンテンツのカラーバランスを偏移させるように構成される、前述の実施例のいずれかに記載のシステム。
36.システムは、アラートをユーザに提供し、画像コンテンツが増強されたことを示すように構成される、前述の実施例のいずれかに記載のシステム。
37.アラートは、視覚的アラートである、実施例36に記載のシステム。
38.アラートは、聴覚的アラートである、実施例36に記載のシステム。
39.該頭部搭載型ディスプレイシステムは、ユーザの正面の環境の少なくとも該部分の3D表現を構築し、環境の少なくとも該部分の表現を解釈するように構成され、該環境の該部分は、患者を含み、該頭部搭載型ディスプレイはさらに、患者と関連付けられた第1の構造を患者と関連付けられた第2の構造から区別するように構成される、前述の実施例のいずれかに記載のシステム。
40.環境を監視するように構成される、1つまたはそれを上回るセンサをさらに備える、前述の実施例のいずれかに記載のシステム。
41.該1つまたはそれを上回るセンサは、該環境を結像するように構成される、1つまたはそれを上回る外向きに面した画像捕捉デバイスを備える、実施例40に記載のシステム。
42.該環境を結像するように構成される、該1つまたはそれを上回る外向きに面した画像捕捉デバイスは、1つまたはそれを上回る外向きに面したカメラを備える、実施例41に記載のシステム。
43.頭部搭載型ディスプレイは、ユーザの視野内のヒト組織の体積を推定するように構成される、前述の実施例のいずれかに記載のシステム。
44.頭部搭載型ディスプレイは、環境内の2つのオブジェクト間の距離を測定するように構成される、前述の実施例のいずれかに記載のシステム。
45.頭部搭載型ディスプレイは、ディスプレイ上に提示される第1の画像モダリティと第2の画像モダリティとの間でトグルするように構成される、前述の実施例のいずれかに記載のシステム。
46.第1の画像モダリティは、MRI走査を備える、実施例45に記載のシステム。
47.第2の画像モダリティは、超音波を備える、実施例45−46のいずれかに記載のシステム。
48.第1の画像モダリティは、X線走査を備える、実施例45−47のいずれかに記載のシステム。
49.超音波音波を生産するように適合される、電子エミッタをさらに備える、前述の実施例のいずれかに記載のシステム。
50.超音波音波を電気信号に変換するように適合される、センサをさらに備える、前述の実施例のいずれかに記載のシステム。
51.頭部搭載型ディスプレイは、ユーザが、仮想基準マーカをユーザの眼に対してユーザの正面の環境の一部上に設置することを可能にするように構成される、前述の実施例のいずれかに記載のシステム。
52.頭部搭載型ディスプレイは、画像が環境内の実世界オブジェクトに添付されて現れるように、画像をディスプレイ上に投影するように構成される、前述の実施例のいずれかに記載のシステム。
53.頭部搭載型ディスプレイは、仮想切断ガイドラインが切断されるべきヒト身体領域上にオーバーレイされるようにユーザに現れるように、仮想切断ガイドラインを表示するように構成される、または切断されるべき部分へのアクセスを与える、前述の実施例のいずれかに記載のシステム。
54.仮想切断ガイドラインの見掛け場所は、患者の身体部分の位置に関連するように現れる、実施例53に記載のシステム。
55.頭部搭載型ディスプレイは、信号を放出し、ユーザの正面の環境の一部内のオブジェクトの位置に関するデータを取得するように構成される、前述の実施例のいずれかに記載のシステム。
56.頭部搭載型ディスプレイは、オブジェクト場所のデータベースを使用して、ユーザの正面の環境の一部内のオブジェクトの位置を取得するように構成される、前述の実施例のいずれかに記載のシステム。
57.頭部搭載型ディスプレイは、該オブジェクト場所のデータベースに基づいて、基準点を設定し、画像が基準点に対して固定されて現れるように、画像をユーザの眼の中に投影するように構成される、実施例56に記載のシステム。
58.頭部搭載型ディスプレイは、ユーザ入力に基づいて、オブジェクトの3D画像のビューを軸を中心として回転させるように構成される、前述の実施例のいずれかに記載のシステム。
59.頭部搭載型ディスプレイは、ユーザ入力に基づいて、3Dオブジェクトの画像のビューを平行移動させるように構成される、前述の実施例のいずれかに記載のシステム。
60.頭部搭載型ディスプレイは、オブジェクトの3D画像の第1のスライスを表示するように構成される、前述の実施例のいずれかに記載のシステム。
61.頭部搭載型ディスプレイは、3D画像の第1のスライスの画像および第2のスライスの画像を通してシーケンス化するように構成される、実施例60に記載のシステム。
62.頭部搭載型ディスプレイは、頭部搭載型ディスプレイの第2のユーザが伝送される環境の該部分の該画像を視認し得るように、ユーザの正面の環境の一部の画像を伝送するように構成される、前述の実施例のいずれかに記載のシステム。
63.頭部搭載型ディスプレイは、ユーザに医療手技におけるステップをアラートするように構成される、前述の実施例のいずれかに記載のシステム。
64.頭部搭載型ディスプレイは、医療パラメータを監視し、医療パラメータに基づいて、アラートを提供するように構成される、前述の実施例のいずれかに記載のシステム。
65.医療パラメータは、バイタルサインを含む、実施例64に記載のシステム。
66.頭部搭載型ディスプレイは、超音波を放出し、該超音波から生じる信号を測定するように構成され、頭部搭載型ディスプレイはさらに、信号に基づいて、超音波画像を形成するように構成される、前述の実施例のいずれかに記載のシステム。
67.頭部搭載型ディスプレイは、ユーザにユーザの視野外のオブジェクトおよび/またはイベントをアラートするように構成される、前述の実施例のいずれかに記載のシステム。
68.検出器アレイは、環境を結像するように構成される、外向きに面したカメラを備える、実施例21に記載のシステム。
69.該頭部搭載型ディスプレイシステムは、中心領域の一部に提示される画像コンテンツに対して増強される、画像コンテンツをユーザの視野の周辺領域の一部に提示するように、光をユーザの眼の場所に投影するように構成される、前述の実施例のいずれかに記載のシステム。
70.該頭部搭載型ディスプレイシステムは、周辺領域の別の部分に提示される画像コンテンツに対して増強される、画像コンテンツをユーザの視野の周辺領域の一部に提示するように、光をユーザの眼の場所に投影するように構成される、前述の実施例のいずれかに記載のシステム。
71.システムは、少なくとも部分的に、環境の照明条件の時間的側面に基づいて、画像コンテンツをユーザの眼内に提示する方法を判定するように構成される、前述の実施例のいずれかに記載のシステム。
72.該ディスプレイは、該画像コンテンツが異なる深度から生じるかのように該画像コンテンツを提示するように、異なる発散量において光を該ユーザの眼の中に投影するように構成される、前述の実施例のいずれかに記載のシステム。
73.コントラストを増加させることは、該画像コンテンツの少なくとも1つの色の明度または暗度を調節することを含む、実施例30に記載のシステム。
74.コントラストを増加させることは、黒色、灰色、白色、または他の色を該画像コンテンツの少なくとも1つの色に追加することを含む、実施例30に記載のシステム。
75.頭部搭載型ディスプレイは、ある程度の不透明度を提示される画像コンテンツの少なくとも近傍に提供するように構成される、前述の実施例のいずれかに記載のシステム。
76.頭部搭載型ディスプレイは、第1の画像モダリティと第1の画像モダリティと異なる第2の画像モダリティを組み合わせるように構成される、前述の実施例のいずれかに記載のシステム。
77.第1の画像モダリティおよび第2の画像モダリティはそれぞれ、MRI、CT、PET、MRA、またはCTA走査からの画像を備える、実施例76に記載のシステム。
78.頭部搭載型ディスプレイは、第1および第2の画像モダリティの組み合わせられた画像を患者の実際の解剖学的構造にわたって整合させるように構成される、実施例76または77に記載のシステム。
1.光をユーザの眼に投影し、拡張現実画像コンテンツを表示するように構成される、頭部搭載型ディスプレイシステムであって、該ユーザの眼は、中心領域と、該中心領域を中心として配置される周辺領域を有する、視野を有し、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、ディスプレイであって、該ディスプレイは、画像コンテンツを該ユーザの視野に提示するように、光を該ユーザの眼の中に投影するように構成され、該ディスプレイの少なくとも一部は、透明部分が、ユーザの正面の環境の一部からの光をユーザの眼に伝送し、ユーザの正面の環境の該部分のビューを提供するように、透明であって、ユーザが該頭部搭載型ディスプレイシステムを装着すると、ユーザの眼の正面の場所に配置される、ディスプレイと、
環境の照明条件を捕捉するように構成される、1つまたはそれを上回る捕捉デバイスと、
該ディスプレイと通信し、該ディスプレイ上での画像コンテンツの提示を制御する、処理電子機器と、
を備え、該頭部搭載型ディスプレイシステムは、少なくとも部分的に、環境の照明条件に基づいて、画像コンテンツをユーザの視野の第1の部分からユーザの視野の第2の部分に提示するように構成され、環境の照明条件下、第2の部分は、第1の部分より高い視力を有するユーザの眼の場所に対応する、頭部搭載型ディスプレイシステム。
2.明所視照明条件下、第2の部分は、第1の部分より高い密度の錐体を有するユーザの眼の場所に対応する、実施例1に記載のシステム。
3.環境の明所視照明条件は、輝度10cd/m2〜108cd/m2を有する、実施例2に記載のシステム。
4.第1の部分は、周辺領域内の一部から成り、第2の部分は、中心領域内の一部から成る、実施例2または3に記載のシステム。
5.第1の部分は、中心領域内の一部から成り、第2の部分は、中心領域内の別の部分から成る、実施例2または3に記載のシステム。
6.第1の部分は、周辺領域内の一部から成り、第2の部分は、周辺領域内の別の部分から成る、実施例2または3に記載のシステム。
7.暗所視照明条件下、第2の部分は、第1の部分より高い密度の桿体を有するユーザの眼の場所に対応する、実施例1に記載のシステム。
8.環境の暗所視照明条件は、輝度10−3.5cd/m2〜10−6cd/m2を有する、実施例7に記載のシステム。
9.第1の部分は、中心領域内の一部から成り、第2の部分は、周辺領域内の領域から成る、実施例7または8に記載のシステム。
10.第1の部分は、周辺領域内の一部から成り、第2の部分は、周辺領域内の別の領域から成る、実施例7または8に記載のシステム。
11.薄明視照明条件下、システムは、少なくとも部分的に、薄明視照明条件下で費やされた時間に基づいて、画像コンテンツを第1の部分から第2の部分に提示するように構成される、実施例1に記載のシステム。
12.環境の薄明視照明条件は、輝度10−3cd/m2〜100.5cd/m2を有する、実施例11に記載のシステム。
13.システムは、少なくとも部分的に、薄明視照明条件下で費やされた時間に基づいて、錐体または桿体がユーザの眼内で優勢であるかどうかを判定するように構成される、実施例11または12に記載のシステム。
14.第2の部分は、錐体がユーザの眼内で優勢であるとき、第1の部分より高い密度の錐体を有するユーザの眼の場所に対応する、実施例11−13のいずれかに記載のシステム。
15.第1の部分は、周辺領域内の一部から成り、第2の部分は、中心領域内の一部から成る、実施例14に記載のシステム。
16.第1の部分は、中心領域内の一部から成り、第2の部分は、中心領域内の別の部分から成る、実施例14に記載のシステム。
17.第1の部分は、周辺領域内の一部から成り、第2の部分は、周辺領域内の別の部分から成る、実施例14に記載のシステム。
18.第2の部分は、桿体がユーザの眼内で優勢であるとき、第1の部分より高い密度の桿体を有するユーザの眼の場所に対応する、実施例11−13のいずれかに記載のシステム。
19.第1の部分は、中心領域内の一部から成り、第2の部分は、周辺領域内の一部から成る、実施例18に記載のシステム。
20.第1の部分は、周辺領域内の一部から成り、第2の部分は、周辺領域内の別の部分から成る、実施例18に記載のシステム。
21.システムは、照明条件下で費やされた時間を監視するためのタイマまたはクロックを備える、前述の実施例のいずれかに記載のシステム。
22.光を該ユーザの眼の中に指向し、画像を眼内に形成するように構成される、1つまたはそれを上回る光源をさらに備える、前述の実施例のいずれかに記載のシステム。
23.透明であって、ユーザの眼の正面の場所に配置される、該ディスプレイの少なくとも該部分は、光をユーザに投影するように構成される、1つまたはそれを上回る導波管を備える、前述の実施例のいずれかに記載のシステム。
24.該1つまたはそれを上回る光源は、光を該1つまたはそれを上回る導波管の中に指向するように構成される、実施例23に記載のシステム。
25.該光源は、ファイバ走査プロジェクタを備える、実施例22−24のいずれかに記載のシステム。
26.1つまたはそれを上回る捕捉デバイスは、1つまたはそれを上回る画像捕捉デバイスを備える、実施例1−25のいずれかに記載のシステム。
27.1つまたはそれを上回る画像捕捉デバイスは、1つまたはそれを上回るカメラを備える、実施例26に記載のシステム。
28.1つまたはそれを上回る捕捉デバイスは、1つまたはそれを上回る光センサを備える、実施例1−25のいずれかに記載のシステム。
29.1つまたはそれを上回る光センサは、1つまたはそれを上回る照度計を備える、実施例28に記載のシステム。
30.1つまたはそれを上回る捕捉デバイスは、環境の輝度を測定するように構成される、前述の実施例のいずれかに記載のシステム。
31.1つまたはそれを上回る捕捉デバイスは、ピクセルのアレイを備える、検出器アレイを備え、検出器アレイは、ピクセルにわたって光レベルを積分し、照明条件を捕捉するように構成される、前述の実施例のいずれかに記載のシステム。
32.1つまたはそれを上回る捕捉デバイスは、瞳孔サイズを検出し、照明条件を捕捉するように構成される、1つまたはそれを上回る内向きに面したカメラを備える、前述の実施例のいずれかに記載のシステム。
33.距離測定デバイスをさらに備える、前述の実施例のいずれかに記載のシステム。
34.該距離測定デバイスは、レーザ測距計を備える、実施例33に記載のシステム。
35.該ユーザの眼の位置および/または移動を追跡するように構成される、眼追跡デバイスをさらに備える、前述の実施例のいずれかに記載のシステム。
36.該ユーザの眼を結像するように構成される、1つまたはそれを上回る内向きに面した画像捕捉デバイスをさらに備える、実施例1−35のいずれかに記載のシステム。
37.システムは、アラートをユーザに提供し、画像コンテンツが第1の部分から第2の部分に変位されたことを示すように構成される、前述の実施例のいずれかに記載のシステム。
38.アラートは、視覚的アラートである、実施例37に記載のシステム。
39.アラートは、聴覚的アラートである、実施例37に記載のシステム。
40.該頭部搭載型ディスプレイシステムは、ユーザの正面の環境の少なくとも該部分の3D表現を構築し、環境の少なくとも該部分の表現を解釈するように構成され、該環境の該部分は、患者を含み、該頭部搭載型ディスプレイはさらに、患者と関連付けられた第1の構造を患者と関連付けられた第2の構造から区別するように構成される、前述の実施例のいずれかに記載のシステム。
41.環境を監視するように構成される、1つまたはそれを上回るセンサをさらに備える、前述の実施例のいずれかに記載のシステム。
42.該1つまたはそれを上回るセンサは、該環境を結像するように構成される、1つまたはそれを上回る外向きに面した画像捕捉デバイスを備える、実施例41に記載のシステム。
43.該環境を結像するように構成される、該1つまたはそれを上回る外向きに面した画像捕捉デバイスは、1つまたはそれを上回る外向きに面したカメラを備える、実施例42に記載のシステム。
44.頭部搭載型ディスプレイは、ユーザの視野内のヒト組織の体積を推定するように構成される、前述の実施例のいずれかに記載のシステム。
45.頭部搭載型ディスプレイは、環境内の2つのオブジェクト間の距離を測定するように構成される、前述の実施例のいずれかに記載のシステム。
46.頭部搭載型ディスプレイは、ディスプレイ上に提示される第1の画像モダリティと第2の画像モダリティとの間でトグルするように構成される、前述の実施例のいずれかに記載のシステム。
47.第1の画像モダリティは、MRI走査を備える、実施例46に記載のシステム。
48.第2の画像モダリティは、超音波を備える、実施例46−47のいずれかに記載のシステム。
49.第1の画像モダリティは、X線走査を備える、実施例46−48のいずれかに記載のシステム。
50.超音波音波を生産するように適合される、電子エミッタをさらに備える、前述の実施例のいずれかに記載のシステム。
51.超音波音波を電気信号に変換するように適合される、センサをさらに備える、前述の実施例のいずれかに記載のシステム。
52.頭部搭載型ディスプレイは、ユーザが、仮想基準マーカをユーザの眼に対してユーザの正面の環境の一部上に設置することを可能にするように構成される、前述の実施例のいずれかに記載のシステム。
53.頭部搭載型ディスプレイは、画像が環境内の実世界オブジェクトに添付されて現れるように、画像をディスプレイ上に投影するように構成される、前述の実施例のいずれかに記載のシステム。
54.頭部搭載型ディスプレイは、仮想切断ガイドラインが切断されるべきヒト身体領域上にオーバーレイされるようにユーザに現れるように、仮想切断ガイドラインを表示するように構成される、または切断されるべき部分へのアクセスを与える、前述の実施例のいずれかに記載のシステム。
55.仮想切断ガイドラインの見掛け場所は、患者の身体部分の位置に関連するように現れる、実施例54に記載のシステム。
56.頭部搭載型ディスプレイは、信号を放出し、ユーザの正面の環境の一部内のオブジェクトの位置に関するデータを取得するように構成される、前述の実施例のいずれかに記載のシステム。
57.頭部搭載型ディスプレイは、オブジェクト場所のデータベースを使用して、ユーザの正面の環境の一部内のオブジェクトの位置を取得するように構成される、前述の実施例のいずれかに記載のシステム。
58.頭部搭載型ディスプレイは、該オブジェクト場所のデータベースに基づいて、基準点を設定し、画像が基準点に対して固定されて現れるように、画像をユーザの眼の中に投影するように構成される、実施例57に記載のシステム。
59.頭部搭載型ディスプレイは、ユーザ入力に基づいて、オブジェクトの3D画像のビューを軸を中心として回転させるように構成される、前述の実施例のいずれかに記載のシステム。
60.頭部搭載型ディスプレイは、ユーザ入力に基づいて、3Dオブジェクトの画像のビューを平行移動させるように構成される、前述の実施例のいずれかに記載のシステム。
61.頭部搭載型ディスプレイは、オブジェクトの3D画像の第1のスライスを表示するように構成される、前述の実施例のいずれかに記載のシステム。
62.頭部搭載型ディスプレイは、3D画像の第1のスライスの画像および第2のスライスの画像を通してシーケンス化するように構成される、実施例61に記載のシステム。
63.頭部搭載型ディスプレイは、頭部搭載型ディスプレイの第2のユーザが伝送される環境の該部分の該画像を視認し得るように、ユーザの正面の環境の一部の画像を伝送するように構成される、前述の実施例のいずれかに記載のシステム。
64.頭部搭載型ディスプレイは、ユーザに医療手技におけるステップをアラートするように構成される、前述の実施例のいずれかに記載のシステム。
65.頭部搭載型ディスプレイは、医療パラメータを監視し、医療パラメータに基づいて、アラートを提供するように構成される、前述の実施例のいずれかに記載のシステム。
66.医療パラメータは、バイタルサインを含む、実施例65に記載のシステム。
67.頭部搭載型ディスプレイは、超音波を放出し、該超音波から生じる信号を測定するように構成され、頭部搭載型ディスプレイはさらに、信号に基づいて、超音波画像を形成するように構成される、前述の実施例のいずれかに記載のシステム。
68.頭部搭載型ディスプレイは、ユーザにユーザの視野外のオブジェクトおよび/またはイベントをアラートするように構成される、前述の実施例のいずれかに記載のシステム。
69.検出器アレイは、環境を結像するように構成される、外向きに面したカメラを備える、実施例31に記載のシステム。
70.システムは、少なくとも部分的に、環境の照明条件の時間的側面に基づいて、画像コンテンツをユーザの眼内に提示する方法を判定するように構成される、前述の実施例のいずれかに記載のシステム。
71.該ディスプレイは、該画像コンテンツが異なる深度から生じるかのように該画像コンテンツを提示するように、異なる発散量において光を該ユーザの眼の中に投影するように構成される、前述の実施例のいずれかに記載のシステム。
72.頭部搭載型ディスプレイは、第1の画像モダリティと第1の画像モダリティと異なる第2の画像モダリティを組み合わせるように構成される、前述の実施例のいずれかに記載のシステム。
73.第1の画像モダリティおよび第2の画像モダリティはそれぞれ、MRI、CT、PET、MRA、またはCTA走査からの画像を備える、実施例72に記載のシステム。
74.頭部搭載型ディスプレイは、第1および第2の画像モダリティの組み合わせられた画像を患者の実際の解剖学的構造にわたって整合させるように構成される、実施例72または73に記載のシステム。
1.光をユーザの眼に投影し、拡張現実画像コンテンツを表示するように構成される、頭部搭載型ディスプレイシステムであって、該ユーザの眼は、中心領域と、該中心領域を中心として配置される周辺領域を有する、視野を有し、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、ディスプレイであって、該ディスプレイは、画像コンテンツを該ユーザの視野に提示するように、光を該ユーザの眼の中に投影するように構成され、該ディスプレイの少なくとも一部は、透明部分が、ユーザの正面の環境の一部からの光をユーザの眼に伝送し、ユーザの正面の環境の該部分のビューを提供するように、透明であって、ユーザが該頭部搭載型ディスプレイシステムを装着すると、ユーザの眼の正面の場所に配置される、ディスプレイと、
環境の照明条件を捕捉するように構成される、1つまたはそれを上回る捕捉デバイスと、
該ディスプレイと通信し、該ディスプレイ上での画像コンテンツの提示を制御する、処理電子機器と、
を備え、該頭部搭載型ディスプレイシステムは、少なくとも部分的に、環境の照明条件に基づいて、画像コンテンツをユーザの視野の一部に提示するように、光をユーザの眼の場所に投影するように構成される、頭部搭載型ディスプレイシステム。
2.明所視照明条件下、投影された光場所は、錐体の投影された光場所の密度に基づく、実施例1に記載のシステム。
3.環境の明所視照明条件は、輝度10cd/m2〜108cd/m2を有する、実施例2に記載のシステム。
4.ユーザの視野の一部は、中心領域を備える、実施例2−3のいずれかに記載のシステム。
5.投影された光場所は、中心窩から0〜5度ずれた範囲内にある、実施例2−4のいずれかに記載のシステム。
6.暗所視照明条件下、投影された光場所は、桿体の投影された光場所の密度に基づく、実施例1に記載のシステム。
7.環境の暗所視照明条件は、輝度10−3.5cd/m2〜10−6cd/m2を有する、実施例6に記載のシステム。
8.ユーザの視野の一部は、周辺領域を備える、実施例6−7のいずれかに記載のシステム。
9.投影された光場所は、中心窩から15〜20度ずれた範囲内にある、実施例6−8のいずれかに記載のシステム。
10.投影された光場所は、中心窩から25〜35度ずれた範囲内にある、実施例6−8のいずれかに記載のシステム。
11.薄明視照明条件下、投影された光場所は、少なくとも部分的に、薄明視照明条件下で費やされた時間に基づく、実施例1に記載のシステム。
12.環境の薄明視照明条件は、輝度10−3cd/m2〜100.5cd/m2を有する、実施例11に記載のシステム。
13.システムは、少なくとも部分的に、薄明視照明条件下で費やされた時間に基づいて、錐体または桿体がユーザの眼内で優勢であるかどうかを判定するように構成される、実施例11または12に記載のシステム。
14.投影された光場所は、錐体がユーザの眼内で優勢であるとき、錐体の投影された光場所の密度に基づく、実施例11−13のいずれかに記載のシステム。
15.ユーザの視野の一部は、中心領域を備える、実施例14に記載のシステム。
16.投影された光場所は、中心窩から0〜5度ずれた範囲内にある、実施例14に記載のシステム。
17.投影された光場所は、桿体がユーザの眼内で優勢であるとき、ユーザの眼の桿体の投影された光場所の密度に基づく、実施例11−13のいずれかに記載のシステム。
18.ユーザの視野の一部は、周辺領域を備える、実施例17に記載のシステム。
19.投影された光場所は、中心窩から15〜20度ずれた範囲内にある、実施例17に記載のシステム。
20.投影された光場所は、中心窩から25〜35度ずれた範囲内にある、実施例17に記載のシステム。
21.システムは、照明条件下で費やされた時間を監視するためのタイマまたはクロックを備える、前述の実施例のいずれかに記載のシステム。
22.光を該ユーザの眼の中に指向し、画像を眼内に形成するように構成される、1つまたはそれを上回る光源をさらに備える、前述の実施例のいずれかに記載のシステム。
23.透明であって、ユーザの眼の正面の場所に配置される、該ディスプレイの少なくとも該部分は、光をユーザに投影するように構成される、1つまたはそれを上回る導波管を備える、前述の実施例のいずれかに記載のシステム。
24.該1つまたはそれを上回る光源は、光を該1つまたはそれを上回る導波管の中に指向するように構成される、実施例23に記載のシステム。
25.該光源は、ファイバ走査プロジェクタを備える、実施例22−24のいずれかに記載のシステム。
26.1つまたはそれを上回る捕捉デバイスは、1つまたはそれを上回る画像捕捉デバイスを備える、実施例1−25のいずれかに記載のシステム。
27.1つまたはそれを上回る画像捕捉デバイスは、1つまたはそれを上回るカメラを備える、実施例26に記載のシステム。
28.1つまたはそれを上回る捕捉デバイスは、1つまたはそれを上回る光センサを備える、実施例1−25のいずれかに記載のシステム。
29.1つまたはそれを上回る光センサは、1つまたはそれを上回る照度計を備える、実施例28に記載のシステム。
30.1つまたはそれを上回る捕捉デバイスは、環境の輝度を測定するように構成される、前述の実施例のいずれかに記載のシステム。
31.1つまたはそれを上回る捕捉デバイスは、ピクセルのアレイを備える、検出器アレイを備え、検出器アレイは、ピクセルにわたって光レベルを積分し、照明条件を捕捉するように構成される、前述の実施例のいずれかに記載のシステム。
32.1つまたはそれを上回る捕捉デバイスは、瞳孔サイズを検出し、照明条件を捕捉するように構成される、1つまたはそれを上回る内向きに面したカメラを備える、前述の実施例のいずれかに記載のシステム。
33.距離測定デバイスをさらに備える、前述の実施例のいずれかに記載のシステム。
34.該距離測定デバイスは、レーザ測距計を備える、実施例33に記載のシステム。
35.該ユーザの眼の位置および/または移動を追跡するように構成される、眼追跡デバイスをさらに備える、前述の実施例のいずれかに記載のシステム。
36.該ユーザの眼を結像するように構成される、1つまたはそれを上回る内向きに面した画像捕捉デバイスをさらに備える、実施例1−35のいずれかに記載のシステム。
37.システムは、アラートをユーザに提供し、画像コンテンツが提示されたことを示すように構成される、前述の実施例のいずれかに記載のシステム。
38.アラートは、視覚的アラートである、実施例37に記載のシステム。
39.アラートは、聴覚的アラートである、実施例37に記載のシステム。
40.該頭部搭載型ディスプレイシステムは、ユーザの正面の環境の少なくとも該部分の3D表現を構築し、環境の少なくとも該部分の表現を解釈するように構成され、該環境の該部分は、患者を含み、該頭部搭載型ディスプレイはさらに、患者と関連付けられた第1の構造を患者と関連付けられた第2の構造から区別するように構成される、前述の実施例のいずれかに記載のシステム。
41.環境を監視するように構成される、1つまたはそれを上回るセンサをさらに備える、前述の実施例のいずれかに記載のシステム。
42.該1つまたはそれを上回るセンサは、該環境を結像するように構成される、1つまたはそれを上回る外向きに面した画像捕捉デバイスを備える、実施例41に記載のシステム。
43.該環境を結像するように構成される、該1つまたはそれを上回る外向きに面した画像捕捉デバイスは、1つまたはそれを上回る外向きに面したカメラを備える、実施例42に記載のシステム。
44.頭部搭載型ディスプレイは、ユーザの視野内のヒト組織の体積を推定するように構成される、前述の実施例のいずれかに記載のシステム。
45.頭部搭載型ディスプレイは、環境内の2つのオブジェクト間の距離を測定するように構成される、前述の実施例のいずれかに記載のシステム。
46.頭部搭載型ディスプレイは、ディスプレイ上に提示される第1の画像モダリティと第2の画像モダリティとの間でトグルするように構成される、前述の実施例のいずれかに記載のシステム。
47.第1の画像モダリティは、MRI走査を備える、実施例46に記載のシステム。
48.第2の画像モダリティは、超音波を備える、実施例46−47のいずれかに記載のシステム。
49.第1の画像モダリティは、X線走査を備える、実施例46−48のいずれかに記載のシステム。
50.超音波音波を生産するように適合される、電子エミッタをさらに備える、前述の実施例のいずれかに記載のシステム。
51.超音波音波を電気信号に変換するように適合される、センサをさらに備える、前述の実施例のいずれかに記載のシステム。
52.頭部搭載型ディスプレイは、ユーザが、仮想基準マーカをユーザの眼に対してユーザの正面の環境の一部上に設置することを可能にするように構成される、前述の実施例のいずれかに記載のシステム。
53.頭部搭載型ディスプレイは、画像が環境内の実世界オブジェクトに添付されて現れるように、画像をディスプレイ上に投影するように構成される、前述の実施例のいずれかに記載のシステム。
54.頭部搭載型ディスプレイは、仮想切断ガイドラインが切断されるべきヒト身体領域上にオーバーレイされるようにユーザに現れるように、仮想切断ガイドラインを表示するように構成される、または切断されるべき部分へのアクセスを与える、前述の実施例のいずれかに記載のシステム。
55.仮想切断ガイドラインの見掛け場所は、患者の身体部分の位置に関連するように現れる、実施例54に記載のシステム。
56.頭部搭載型ディスプレイは、信号を放出し、ユーザの正面の環境の一部内のオブジェクトの位置に関するデータを取得するように構成される、前述の実施例のいずれかに記載のシステム。
57.頭部搭載型ディスプレイは、オブジェクト場所のデータベースを使用して、ユーザの正面の環境の一部内のオブジェクトの位置を取得するように構成される、前述の実施例のいずれかに記載のシステム。
58.頭部搭載型ディスプレイは、該オブジェクト場所のデータベースに基づいて、基準点を設定し、画像が基準点に対して固定されて現れるように、画像をユーザの眼の中に投影するように構成される、実施例57に記載のシステム。
59.頭部搭載型ディスプレイは、ユーザ入力に基づいて、オブジェクトの3D画像のビューを軸を中心として回転させるように構成される、前述の実施例のいずれかに記載のシステム。
60.頭部搭載型ディスプレイは、ユーザ入力に基づいて、3Dオブジェクトの画像のビューを平行移動させるように構成される、前述の実施例のいずれかに記載のシステム。
61.頭部搭載型ディスプレイは、オブジェクトの3D画像の第1のスライスを表示するように構成される、前述の実施例のいずれかに記載のシステム。
62.頭部搭載型ディスプレイは、3D画像の第1のスライスの画像および第2のスライスの画像を通してシーケンス化するように構成される、実施例61に記載のシステム。
63.頭部搭載型ディスプレイは、頭部搭載型ディスプレイの第2のユーザが伝送される環境の該部分の該画像を視認し得るように、ユーザの正面の環境の一部の画像を伝送するように構成される、前述の実施例のいずれかに記載のシステム。
64.頭部搭載型ディスプレイは、ユーザに医療手技におけるステップをアラートするように構成される、前述の実施例のいずれかに記載のシステム。
65.頭部搭載型ディスプレイは、医療パラメータを監視し、医療パラメータに基づいて、アラートを提供するように構成される、前述の実施例のいずれかに記載のシステム。
66.医療パラメータは、バイタルサインを含む、実施例65に記載のシステム。
67.頭部搭載型ディスプレイは、超音波を放出し、該超音波から生じる信号を測定するように構成され、頭部搭載型ディスプレイはさらに、信号に基づいて、超音波画像を形成するように構成される、前述の実施例のいずれかに記載のシステム。
68.頭部搭載型ディスプレイは、ユーザにユーザの視野外のオブジェクトおよび/またはイベントをアラートするように構成される、前述の実施例のいずれかに記載のシステム。
69.検出器アレイは、環境を結像するように構成される、外向きに面したカメラを備える、実施例31に記載のシステム。
70.システムは、少なくとも部分的に、環境の照明条件の時間的側面に基づいて、画像コンテンツをユーザの眼内に提示する方法を判定するように構成される、前述の実施例のいずれかに記載のシステム。
71.該頭部搭載型ディスプレイシステムは、少なくとも部分的に、光受容体の投影された光場所の密度に基づいて、画像コンテンツをユーザの視野の一部に提示するように、光をユーザの眼の場所に投影するように構成される、前述の実施例のいずれかに記載のシステム。
72.該ディスプレイは、該画像コンテンツが異なる深度から生じるかのように該画像コンテンツを提示するように、異なる発散量において光を該ユーザの眼の中に投影するように構成される、前述の実施例のいずれかに記載のシステム。
73.頭部搭載型ディスプレイは、第1の画像モダリティと第1の画像モダリティと異なる第2の画像モダリティを組み合わせるように構成される、前述の実施例のいずれかに記載のシステム。
74.第1の画像モダリティおよび第2の画像モダリティはそれぞれ、MRI、CT、PET、MRA、またはCTA走査からの画像を備える、実施例73に記載のシステム。
75.頭部搭載型ディスプレイは、第1および第2の画像モダリティの組み合わせられた画像を患者の実際の解剖学的構造にわたって整合させるように構成される、実施例73または74に記載のシステム。
1.光をユーザの眼に投影し、拡張現実画像コンテンツを表示するように構成される、頭部搭載型ディスプレイシステムであって、該ユーザの眼は、中心領域と、該中心領域を中心として配置される周辺領域を有する、視野を有し、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、ディスプレイであって、該ディスプレイは、画像コンテンツを該ユーザの視野の中心領域に提示するように、光を該ユーザの眼の中に投影するように構成され、該ディスプレイの少なくとも一部は、透明部分が、ユーザの正面の環境の一部からの光をユーザの眼に伝送し、ユーザの正面の環境の該部分のビューを提供するように、透明であって、ユーザが該頭部搭載型ディスプレイシステムを装着すると、ユーザの眼の正面の場所に配置される、ディスプレイと、
環境の照明条件を捕捉するように構成される、1つまたはそれを上回る捕捉デバイスと、
該ディスプレイと通信し、該ディスプレイ上での画像コンテンツの提示を制御する、処理電子機器と、
を備え、該頭部搭載型ディスプレイシステムは、少なくとも部分的に、環境の照明条件に基づいて強調解除される、画像コンテンツをユーザの視野の中心領域の一部に提示するように、光をユーザの眼の場所に投影するように構成される、頭部搭載型ディスプレイシステム。
2.明所視照明条件下、画像コンテンツは、錐体の投影された光場所の密度に基づいて、強調解除される、実施例1に記載のシステム。
3.環境の明所視照明条件は、輝度10cd/m2〜108cd/m2を有する、実施例2に記載のシステム。
4.暗所視照明条件下、画像コンテンツは、桿体の投影された光場所の密度に基づいて、強調解除される、実施例1に記載のシステム。
5.環境の暗所視照明条件は、輝度10−3.5cd/m2〜10−6cd/m2を有する、実施例4に記載のシステム。
6.薄明視照明条件下、画像コンテンツは、少なくとも部分的に、薄明視照明条件下で費やされた時間に基づいて、強調解除される、実施例1に記載のシステム。
7.環境の薄明視照明条件は、輝度10−3cd/m2〜100.5cd/m2を有する、実施例6に記載のシステム。
8.システムは、少なくとも部分的に、薄明視照明条件下で費やされた時間に基づいて、錐体または桿体がユーザの眼内で優勢であるかどうかを判定するように構成される、実施例6または7に記載のシステム。
9.画像コンテンツは、錐体がユーザの眼内で優勢であるとき、錐体の投影された光場所の密度に基づいて、強調解除される、実施例6−8のいずれかに記載のシステム。
10.画像コンテンツは、桿体がユーザの眼内で優勢であるとき、ユーザの眼の桿体の投影された光場所の密度に基づいて、強調解除される、実施例6−8のいずれかに記載のシステム。
11.システムは、照明条件下で費やされた時間を監視するためのタイマまたはクロックを備える、前述の実施例のいずれかに記載のシステム。
12.光を該ユーザの眼の中に指向し、画像を眼内に形成するように構成される、1つまたはそれを上回る光源をさらに備える、前述の実施例のいずれかに記載のシステム。
13.透明であって、ユーザの眼の正面の場所に配置される、該ディスプレイの少なくとも該部分は、光をユーザに投影するように構成される、1つまたはそれを上回る導波管を備える、前述の実施例のいずれかに記載のシステム。
14.該1つまたはそれを上回る光源は、光を該1つまたはそれを上回る導波管の中に指向するように構成される、実施例13に記載のシステム。
15.該光源は、ファイバ走査プロジェクタを備える、実施例12−14のいずれかに記載のシステム。
16.1つまたはそれを上回る捕捉デバイスは、1つまたはそれを上回る画像捕捉デバイスを備える、実施例1−15のいずれかに記載のシステム。
17.1つまたはそれを上回る画像捕捉デバイスは、1つまたはそれを上回るカメラを備える、実施例16に記載のシステム。
18.1つまたはそれを上回る捕捉デバイスは、1つまたはそれを上回る光センサを備える、実施例1−15のいずれかに記載のシステム。
19.1つまたはそれを上回る光センサは、1つまたはそれを上回る照度計を備える、実施例18に記載のシステム。
20.1つまたはそれを上回る捕捉デバイスは、環境の輝度を測定するように構成される、前述の実施例のいずれかに記載のシステム。
21.1つまたはそれを上回る捕捉デバイスは、ピクセルのアレイを備える、検出器アレイを備え、検出器アレイは、ピクセルにわたって光レベルを積分し、照明条件を捕捉するように構成される、前述の実施例のいずれかに記載のシステム。
22.1つまたはそれを上回る捕捉デバイスは、瞳孔サイズを検出し、照明条件を捕捉するように構成される、1つまたはそれを上回る内向きに面したカメラを備える、前述の実施例のいずれかに記載のシステム。
23.距離測定デバイスをさらに備える、前述の実施例のいずれかに記載のシステム。
24.該距離測定デバイスは、レーザ測距計を備える、実施例23に記載のシステム。
25.該ユーザの眼の位置および/または移動を追跡するように構成される、眼追跡デバイスをさらに備える、前述の実施例のいずれかに記載のシステム。
26.該ユーザの眼を結像するように構成される、1つまたはそれを上回る内向きに面した画像捕捉デバイスをさらに備える、実施例1−25のいずれかに記載のシステム。
27.頭部搭載型ディスプレイシステムは、少なくとも部分的に、環境の照明条件に基づいて、画像コンテンツのサイズを低減させるように構成される、前述の実施例のいずれかに記載のシステム。
28.該サイズの低減は、少なくとも部分的に、眼の分解能に基づく、実施例27に記載のシステム。
29.頭部搭載型ディスプレイシステムは、少なくとも部分的に、環境の照明条件に基づいて、画像コンテンツ内の明度を減少させるように構成される、前述の実施例のいずれかに記載のシステム。
30.頭部搭載型ディスプレイシステムは、少なくとも部分的に、環境の照明条件に基づいて、画像コンテンツ内のコントラストを減少させるように構成される、前述の実施例のいずれかに記載のシステム。
31.頭部搭載型ディスプレイシステムは、少なくとも部分的に、眼のコントラスト感度に基づいて、コントラストを減少させるように構成される、実施例30に記載のシステム。
32.頭部搭載型ディスプレイシステムは、少なくとも部分的に、環境の照明条件に基づいて、画像コンテンツ内の色飽和を減少させるように構成される、前述の実施例のいずれかに記載のシステム。
33.頭部搭載型ディスプレイシステムは、少なくとも部分的に、環境の照明条件に基づいて、画像コンテンツの鮮明度を低減させるように構成される、前述の実施例のいずれかに記載のシステム。
34.鮮明化することは、少なくとも部分的に、環境の照明条件に基づいて、画像コンテンツ内の特徴の縁を強調解除することを含む、実施例33に記載のシステム。
35.頭部搭載型ディスプレイシステムは、少なくとも部分的に、環境の照明条件に基づいて、画像コンテンツのカラーバランスを偏移させるように構成される、前述の実施例のいずれかに記載のシステム。
36.システムは、アラートをユーザに提供し、画像コンテンツが強調解除されたことを示すように構成される、前述の実施例のいずれかに記載のシステム。
37.アラートは、視覚的アラートである、実施例36に記載のシステム。
38.アラートは、聴覚的アラートである、実施例36に記載のシステム。
39.該頭部搭載型ディスプレイシステムは、ユーザの正面の環境の少なくとも該部分の3D表現を構築し、環境の少なくとも該部分の表現を解釈するように構成され、該環境の該部分は、患者を含み、該頭部搭載型ディスプレイはさらに、患者と関連付けられた第1の構造を患者と関連付けられた第2の構造から区別するように構成される、前述の実施例のいずれかに記載のシステム。
40.環境を監視するように構成される、1つまたはそれを上回るセンサをさらに備える、前述の実施例のいずれかに記載のシステム。
41.該1つまたはそれを上回るセンサは、該環境を結像するように構成される、1つまたはそれを上回る外向きに面した画像捕捉デバイスを備える、実施例40に記載のシステム。
42.該環境を結像するように構成される、該1つまたはそれを上回る外向きに面した画像捕捉デバイスは、1つまたはそれを上回る外向きに面したカメラを備える、実施例41に記載のシステム。
43.頭部搭載型ディスプレイは、ユーザの視野内のヒト組織の体積を推定するように構成される、前述の実施例のいずれかに記載のシステム。
44.頭部搭載型ディスプレイは、環境内の2つのオブジェクト間の距離を測定するように構成される、前述の実施例のいずれかに記載のシステム。
45.頭部搭載型ディスプレイは、ディスプレイ上に提示される第1の画像モダリティと第2の画像モダリティとの間でトグルするように構成される、前述の実施例のいずれかに記載のシステム。
46.第1の画像モダリティは、MRI走査を備える、実施例45に記載のシステム。
47.第2の画像モダリティは、超音波を備える、実施例45−46のいずれかに記載のシステム。
48.第1の画像モダリティは、X線走査を備える、実施例45−47のいずれかに記載のシステム。
49.超音波音波を生産するように適合される、電子エミッタをさらに備える、前述の実施例のいずれかに記載のシステム。
50.超音波音波を電気信号に変換するように適合される、センサをさらに備える、前述の実施例のいずれかに記載のシステム。
51.頭部搭載型ディスプレイは、ユーザが、仮想基準マーカをユーザの眼に対してユーザの正面の環境の一部上に設置することを可能にするように構成される、前述の実施例のいずれかに記載のシステム。
52.頭部搭載型ディスプレイは、画像が環境内の実世界オブジェクトに添付されて現れるように、画像をディスプレイ上に投影するように構成される、前述の実施例のいずれかに記載のシステム。
53.頭部搭載型ディスプレイは、仮想切断ガイドラインが切断されるべきヒト身体領域上にオーバーレイされるようにユーザに現れるように、仮想切断ガイドラインを表示するように構成される、または切断されるべき部分へのアクセスを与える、前述の実施例のいずれかに記載のシステム。
54.仮想切断ガイドラインの見掛け場所は、患者の身体部分の位置に関連するように現れる、実施例53に記載のシステム。
55.頭部搭載型ディスプレイは、信号を放出し、ユーザの正面の環境の一部内のオブジェクトの位置に関するデータを取得するように構成される、前述の実施例のいずれかに記載のシステム。
56.頭部搭載型ディスプレイは、オブジェクト場所のデータベースを使用して、ユーザの正面の環境の一部内のオブジェクトの位置を取得するように構成される、前述の実施例のいずれかに記載のシステム。
57.頭部搭載型ディスプレイは、該オブジェクト場所のデータベースに基づいて、基準点を設定し、画像が基準点に対して固定されて現れるように、画像をユーザの眼の中に投影するように構成される、実施例56に記載のシステム。
58.頭部搭載型ディスプレイは、ユーザ入力に基づいて、オブジェクトの3D画像のビューを軸を中心として回転させるように構成される、前述の実施例のいずれかに記載のシステム。
59.頭部搭載型ディスプレイは、ユーザ入力に基づいて、3Dオブジェクトの画像のビューを平行移動させるように構成される、前述の実施例のいずれかに記載のシステム。
60.頭部搭載型ディスプレイは、オブジェクトの3D画像の第1のスライスを表示するように構成される、前述の実施例のいずれかに記載のシステム。
61.頭部搭載型ディスプレイは、3D画像の第1のスライスの画像および第2のスライスの画像を通してシーケンス化するように構成される、実施例60に記載のシステム。
62.頭部搭載型ディスプレイは、頭部搭載型ディスプレイの第2のユーザが伝送される環境の該部分の該画像を視認し得るように、ユーザの正面の環境の一部の画像を伝送するように構成される、前述の実施例のいずれかに記載のシステム。
63.頭部搭載型ディスプレイは、ユーザに医療手技におけるステップをアラートするように構成される、前述の実施例のいずれかに記載のシステム。
64.頭部搭載型ディスプレイは、医療パラメータを監視し、医療パラメータに基づいて、アラートを提供するように構成される、前述の実施例のいずれかに記載のシステム。
65.医療パラメータは、バイタルサインを含む、実施例64に記載のシステム。
66.頭部搭載型ディスプレイは、超音波を放出し、該超音波から生じる信号を測定するように構成され、頭部搭載型ディスプレイはさらに、信号に基づいて、超音波画像を形成するように構成される、前述の実施例のいずれかに記載のシステム。
67.頭部搭載型ディスプレイは、ユーザにユーザの視野外のオブジェクトおよび/またはイベントをアラートするように構成される、前述の実施例のいずれかに記載のシステム。
68.検出器アレイは、環境を結像するように構成される、外向きに面したカメラを備える、実施例21に記載のシステム。
69.該頭部搭載型ディスプレイシステムは、周辺領域の一部に提示される画像コンテンツに対して強調解除される、画像コンテンツをユーザの視野の中心領域の一部に提示するように、光をユーザの眼の場所に投影するように構成される、前述の実施例のいずれかに記載のシステム。
70.該頭部搭載型ディスプレイシステムは、中心領域の別の部分に提示される画像コンテンツに対して強調解除される、画像コンテンツをユーザの視野の中心領域の一部に提示するように、光をユーザの眼の場所に投影するように構成される、前述の実施例のいずれかに記載のシステム。
71.システムは、少なくとも部分的に、環境の照明条件の時間的側面に基づいて、画像コンテンツをユーザの眼内に提示する方法を判定するように構成される、前述の実施例のいずれかに記載のシステム。
72.該ディスプレイは、該画像コンテンツが異なる深度から生じるかのように該画像コンテンツを提示するように、異なる発散量において光を該ユーザの眼の中に投影するように構成される、前述の実施例のいずれかに記載のシステム。
73.頭部搭載型ディスプレイは、ある程度の不透明度を提示される画像コンテンツの少なくとも近傍に提供するように構成される、前述の実施例のいずれかに記載のシステム。
74.頭部搭載型ディスプレイは、第1の画像モダリティと第1の画像モダリティと異なる第2の画像モダリティを組み合わせるように構成される、前述の実施例のいずれかに記載のシステム。
75.第1の画像モダリティおよび第2の画像モダリティはそれぞれ、MRI、CT、PET、MRA、またはCTA走査からの画像を備える、実施例74に記載のシステム。
76.頭部搭載型ディスプレイは、第1および第2の画像モダリティの組み合わせられた画像を患者の実際の解剖学的構造にわたって整合させるように構成される、実施例74または75に記載のシステム。
1.光をユーザの眼に投影し、拡張現実画像コンテンツを表示するように構成される、頭部搭載型ディスプレイシステムであって、該ユーザの眼は、中心領域と、該中心領域を中心として配置される周辺領域を有する、視野を有し、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、ディスプレイであって、該ディスプレイは、画像コンテンツを該ユーザの視野の該周辺領域に提示するように、光を該ユーザの眼の中に投影するように構成され、該ディスプレイの少なくとも一部は、透明部分が、ユーザの正面の環境の一部からの光をユーザの眼に伝送し、ユーザの正面の環境の該部分のビューを提供するように、透明であって、ユーザが該頭部搭載型ディスプレイシステムを装着すると、ユーザの眼の正面の場所に配置される、ディスプレイと、
環境の照明条件を捕捉するように構成される、1つまたはそれを上回る捕捉デバイスと、
該ディスプレイと通信し、該ディスプレイ上での画像コンテンツの提示を制御する、処理電子機器と、
を備え、該頭部搭載型ディスプレイシステムは、少なくとも部分的に、環境の照明条件に基づいて強調解除される、画像コンテンツをユーザの視野の周辺領域の一部に提示するように、光をユーザの眼の場所に投影するように構成される、頭部搭載型ディスプレイシステム。
2.明所視照明条件下、画像コンテンツは、錐体の投影された光場所の密度に基づいて、強調解除される、実施例1に記載のシステム。
3.環境の明所視照明条件は、輝度10cd/m2〜108cd/m2を有する、実施例2に記載のシステム。
4.暗所視照明条件下、画像コンテンツは、桿体の投影された光場所の密度に基づいて、強調解除される、実施例1に記載のシステム。
5.環境の暗所視照明条件は、輝度10−3.5cd/m2〜10−6cd/m2を有する、実施例4に記載のシステム。
6.薄明視照明条件下、画像コンテンツは、少なくとも部分的に、薄明視照明条件下で費やされた時間に基づいて、強調解除される、実施例1に記載のシステム。
7.環境の薄明視照明条件は、輝度10−3cd/m2〜100.5cd/m2を有する、実施例6に記載のシステム。
8.システムは、少なくとも部分的に、薄明視照明条件下で費やされた時間に基づいて、錐体または桿体がユーザの眼内で優勢であるかどうかを判定するように構成される、実施例6または7に記載のシステム。
9.画像コンテンツは、錐体がユーザの眼内で優勢であるとき、錐体の投影された光場所の密度に基づいて、強調解除される、実施例6−8のいずれかに記載のシステム。
10.画像コンテンツは、桿体がユーザの眼内で優勢であるとき、ユーザの眼の桿体の投影された光場所の密度に基づいて、強調解除される、実施例6−8のいずれかに記載のシステム。
11.システムは、照明条件下で費やされた時間を監視するためのタイマまたはクロックを備える、前述の実施例のいずれかに記載のシステム。
12.光を該ユーザの眼の中に指向し、画像を眼内に形成するように構成される、1つまたはそれを上回る光源をさらに備える、前述の実施例のいずれかに記載のシステム。
13.透明であって、ユーザの眼の正面の場所に配置される、該ディスプレイの少なくとも該部分は、光をユーザに投影するように構成される、1つまたはそれを上回る導波管を備える、前述の実施例のいずれかに記載のシステム。
14.該1つまたはそれを上回る光源は、光を該1つまたはそれを上回る導波管の中に指向するように構成される、実施例13に記載のシステム。
15.該光源は、ファイバ走査プロジェクタを備える、実施例12−14のいずれかに記載のシステム。
16.1つまたはそれを上回る捕捉デバイスは、1つまたはそれを上回る画像捕捉デバイスを備える、実施例1−15のいずれかに記載のシステム。
17.1つまたはそれを上回る画像捕捉デバイスは、1つまたはそれを上回るカメラを備える、実施例16に記載のシステム。
18.1つまたはそれを上回る捕捉デバイスは、1つまたはそれを上回る光センサを備える、実施例1−15のいずれかに記載のシステム。
19.1つまたはそれを上回る光センサは、1つまたはそれを上回る照度計を備える、実施例18に記載のシステム。
20.1つまたはそれを上回る捕捉デバイスは、環境の輝度を測定するように構成される、前述の実施例のいずれかに記載のシステム。
21.1つまたはそれを上回る捕捉デバイスは、ピクセルのアレイを備える、検出器アレイを備え、検出器アレイは、ピクセルにわたって光レベルを積分し、照明条件を捕捉するように構成される、前述の実施例のいずれかに記載のシステム。
22.1つまたはそれを上回る捕捉デバイスは、瞳孔サイズを検出し、照明条件を捕捉するように構成される、1つまたはそれを上回る内向きに面したカメラを備える、前述の実施例のいずれかに記載のシステム。
23.距離測定デバイスをさらに備える、前述の実施例のいずれかに記載のシステム。
24.該距離測定デバイスは、レーザ測距計を備える、実施例23に記載のシステム。
25.該ユーザの眼の位置および/または移動を追跡するように構成される、眼追跡デバイスをさらに備える、前述の実施例のいずれかに記載のシステム。
26.該ユーザの眼を結像するように構成される、1つまたはそれを上回る内向きに面した画像捕捉デバイスをさらに備える、実施例1−25のいずれかに記載のシステム。
27.頭部搭載型ディスプレイシステムは、少なくとも部分的に、環境の照明条件に基づいて、画像コンテンツのサイズを低減させるように構成される、前述の実施例のいずれかに記載のシステム。
28.該サイズの低減は、少なくとも部分的に、眼の分解能に基づく、実施例27に記載のシステム。
29.頭部搭載型ディスプレイシステムは、少なくとも部分的に、環境の照明条件に基づいて、画像コンテンツ内の明度を減少させるように構成される、前述の実施例のいずれかに記載のシステム。
30.頭部搭載型ディスプレイシステムは、少なくとも部分的に、環境の照明条件に基づいて、画像コンテンツ内のコントラストを減少させるように構成される、前述の実施例のいずれかに記載のシステム。
31.頭部搭載型ディスプレイシステムは、少なくとも部分的に、眼のコントラスト感度に基づいて、コントラストを減少させるように構成される、実施例30に記載のシステム。
32.頭部搭載型ディスプレイシステムは、少なくとも部分的に、環境の照明条件に基づいて、画像コンテンツ内の色飽和を減少させるように構成される、前述の実施例のいずれかに記載のシステム。
33.頭部搭載型ディスプレイシステムは、少なくとも部分的に、環境の照明条件に基づいて、画像コンテンツの鮮明度を低減させるように構成される、前述の実施例のいずれかに記載のシステム。
34.鮮明化することは、少なくとも部分的に、環境の照明条件に基づいて、画像コンテンツ内の特徴の縁を強調解除することを含む、実施例33に記載のシステム。
35.頭部搭載型ディスプレイシステムは、少なくとも部分的に、環境の照明条件に基づいて、画像コンテンツのカラーバランスを偏移させるように構成される、前述の実施例のいずれかに記載のシステム。
36.システムは、アラートをユーザに提供し、画像コンテンツが強調解除されたことを示すように構成される、前述の実施例のいずれかに記載のシステム。
37.アラートは、視覚的アラートである、実施例36に記載のシステム。
38.アラートは、聴覚的アラートである、実施例36に記載のシステム。
39.該頭部搭載型ディスプレイシステムは、ユーザの正面の環境の少なくとも該部分の3D表現を構築し、環境の少なくとも該部分の表現を解釈するように構成され、該環境の該部分は、患者を含み、該頭部搭載型ディスプレイはさらに、患者と関連付けられた第1の構造を患者と関連付けられた第2の構造から区別するように構成される、前述の実施例のいずれかに記載のシステム。
40.環境を監視するように構成される、1つまたはそれを上回るセンサをさらに備える、前述の実施例のいずれかに記載のシステム。
41.該1つまたはそれを上回るセンサは、該環境を結像するように構成される、1つまたはそれを上回る外向きに面した画像捕捉デバイスを備える、実施例40に記載のシステム。
42.該環境を結像するように構成される、該1つまたはそれを上回る外向きに面した画像捕捉デバイスは、1つまたはそれを上回る外向きに面したカメラを備える、実施例41に記載のシステム。
43.頭部搭載型ディスプレイは、ユーザの視野内のヒト組織の体積を推定するように構成される、前述の実施例のいずれかに記載のシステム。
44.頭部搭載型ディスプレイは、環境内の2つのオブジェクト間の距離を測定するように構成される、前述の実施例のいずれかに記載のシステム。
45.頭部搭載型ディスプレイは、ディスプレイ上に提示される第1の画像モダリティと第2の画像モダリティとの間でトグルするように構成される、前述の実施例のいずれかに記載のシステム。
46.第1の画像モダリティは、MRI走査を備える、実施例45に記載のシステム。
47.第2の画像モダリティは、超音波を備える、実施例45−46のいずれかに記載のシステム。
48.第1の画像モダリティは、X線走査を備える、実施例45−47のいずれかに記載のシステム。
49.超音波音波を生産するように適合される、電子エミッタをさらに備える、前述の実施例のいずれかに記載のシステム。
50.超音波音波を電気信号に変換するように適合される、センサをさらに備える、前述の実施例のいずれかに記載のシステム。
51.頭部搭載型ディスプレイは、ユーザが、仮想基準マーカをユーザの眼に対してユーザの正面の環境の一部上に設置することを可能にするように構成される、前述の実施例のいずれかに記載のシステム。
52.頭部搭載型ディスプレイは、画像が環境内の実世界オブジェクトに添付されて現れるように、画像をディスプレイ上に投影するように構成される、前述の実施例のいずれかに記載のシステム。
53.頭部搭載型ディスプレイは、仮想切断ガイドラインが切断されるべきヒト身体領域上にオーバーレイされるようにユーザに現れるように、仮想切断ガイドラインを表示するように構成される、または切断されるべき部分へのアクセスを与える、前述の実施例のいずれかに記載のシステム。
54.仮想切断ガイドラインの見掛け場所は、患者の身体部分の位置に関連するように現れる、実施例53に記載のシステム。
55.頭部搭載型ディスプレイは、信号を放出し、ユーザの正面の環境の一部内のオブジェクトの位置に関するデータを取得するように構成される、前述の実施例のいずれかに記載のシステム。
56.頭部搭載型ディスプレイは、オブジェクト場所のデータベースを使用して、ユーザの正面の環境の一部内のオブジェクトの位置を取得するように構成される、前述の実施例のいずれかに記載のシステム。
57.頭部搭載型ディスプレイは、該オブジェクト場所のデータベースに基づいて、基準点を設定し、画像が基準点に対して固定されて現れるように、画像をユーザの眼の中に投影するように構成される、実施例56に記載のシステム。
58.頭部搭載型ディスプレイは、ユーザ入力に基づいて、オブジェクトの3D画像のビューを軸を中心として回転させるように構成される、前述の実施例のいずれかに記載のシステム。
59.頭部搭載型ディスプレイは、ユーザ入力に基づいて、3Dオブジェクトの画像のビューを平行移動させるように構成される、前述の実施例のいずれかに記載のシステム。
60.頭部搭載型ディスプレイは、オブジェクトの3D画像の第1のスライスを表示するように構成される、前述の実施例のいずれかに記載のシステム。
61.頭部搭載型ディスプレイは、3D画像の第1のスライスの画像および第2のスライスの画像を通してシーケンス化するように構成される、実施例60に記載のシステム。
62.頭部搭載型ディスプレイは、頭部搭載型ディスプレイの第2のユーザが伝送される環境の該部分の該画像を視認し得るように、ユーザの正面の環境の一部の画像を伝送するように構成される、前述の実施例のいずれかに記載のシステム。
63.頭部搭載型ディスプレイは、ユーザに医療手技におけるステップをアラートするように構成される、前述の実施例のいずれかに記載のシステム。
64.頭部搭載型ディスプレイは、医療パラメータを監視し、医療パラメータに基づいて、アラートを提供するように構成される、前述の実施例のいずれかに記載のシステム。
65.医療パラメータは、バイタルサインを含む、実施例64に記載のシステム。
66.頭部搭載型ディスプレイは、超音波を放出し、該超音波から生じる信号を測定するように構成され、頭部搭載型ディスプレイはさらに、信号に基づいて、超音波画像を形成するように構成される、前述の実施例のいずれかに記載のシステム。
67.頭部搭載型ディスプレイは、ユーザにユーザの視野外のオブジェクトおよび/またはイベントをアラートするように構成される、前述の実施例のいずれかに記載のシステム。
68.検出器アレイは、環境を結像するように構成される、外向きに面したカメラを備える、実施例21に記載のシステム。
69.該頭部搭載型ディスプレイシステムは、中心領域の一部に提示される画像コンテンツに対して強調解除される、画像コンテンツをユーザの視野の周辺領域の一部に提示するように、光をユーザの眼の場所に投影するように構成される、前述の実施例のいずれかに記載のシステム。
70.該頭部搭載型ディスプレイシステムは、周辺領域の別の部分に提示される画像コンテンツに対して強調解除される、画像コンテンツをユーザの視野の周辺領域の一部に提示するように、光をユーザの眼の場所に投影するように構成される、前述の実施例のいずれかに記載のシステム。
71.システムは、少なくとも部分的に、環境の照明条件の時間的側面に基づいて、画像コンテンツをユーザの眼内に提示する方法を判定するように構成される、前述の実施例のいずれかに記載のシステム。
72.該ディスプレイは、該画像コンテンツが異なる深度から生じるかのように該画像コンテンツを提示するように、異なる発散量において光を該ユーザの眼の中に投影するように構成される、前述の実施例のいずれかに記載のシステム。
73.頭部搭載型ディスプレイは、ある程度の不透明度を提示される画像コンテンツの少なくとも近傍に提供するように構成される、前述の実施例のいずれかに記載のシステム。
74.頭部搭載型ディスプレイは、第1の画像モダリティと第1の画像モダリティと異なる第2の画像モダリティを組み合わせるように構成される、前述の実施例のいずれかに記載のシステム。
75.第1の画像モダリティおよび第2の画像モダリティはそれぞれ、MRI、CT、PET、MRA、またはCTA走査からの画像を備える、実施例74に記載のシステム。
76.頭部搭載型ディスプレイは、第1および第2の画像モダリティの組み合わせられた画像を患者の実際の解剖学的構造にわたって整合させるように構成される、実施例74または75に記載のシステム。
1.光をユーザの眼に投影し、拡張現実画像コンテンツを表示するように構成される、医療処置および/または診断において使用するための頭部搭載型ディスプレイシステムであって、該ユーザの眼は、中心領域と、該中心領域を中心として配置される周辺領域を有する、視野を有し、
ユーザの頭部上に支持されるように構成される、フレームと、
フレーム上に配置される、ディスプレイであって、該ディスプレイは、光を複数の深度平面上において該ユーザの眼の中に投影するように構成され、該ディスプレイの少なくとも一部は、透明部分が、ユーザの正面の環境の一部からの光をユーザの眼に伝送し、ユーザの正面の環境の該部分のビューを提供するように、透明であって、ユーザが該頭部搭載型ディスプレイを装着すると、ユーザの眼の正面の場所に配置される、ディスプレイと、
該ディスプレイと通信し、該ディスプレイ上での画像コンテンツの提示を制御する、処理電子機器と、
を備える、頭部搭載型ディスプレイ。
2.該頭部搭載型ディスプレイシステムは、ユーザの正面の環境の少なくとも該部分の3D表現を構築し、環境の少なくとも該部分の表現を解釈するように構成され、該環境の該部分は、患者を含み、該頭部搭載型ディスプレイはさらに、患者と関連付けられた第1の構造を患者と関連付けられた第2の構造から区別するように構成される、実施例1に記載のシステム。
3.透明であって、ユーザの眼の正面の場所に配置される、該ディスプレイの少なくとも該部分は、1つまたはそれを上回る導波管を備える、前述の実施例のいずれかに記載のシステム。
4.光を該1つまたはそれを上回る導波管の中に指向するように構成される、1つまたはそれを上回る光源を備え、導波管は、光をユーザの眼の中に指向するように構成される、実施例3に記載のシステム。
5.該1つまたはそれを上回る光源は、ファイバ走査プロジェクタを備える、実施例3−4のいずれかに記載のシステム。
6.環境を監視するように構成される、1つまたはそれを上回るセンサをさらに備える、前述の実施例のいずれかに記載のシステム。
7.該1つまたはそれを上回るセンサは、該環境を結像するように構成される、1つまたはそれを上回る外向きに面した画像捕捉デバイスを備える、実施例6に記載のシステム。
8.該環境を結像するように構成される、該1つまたはそれを上回る外向きに面した画像捕捉デバイスは、1つまたはそれを上回る外向きに面したカメラを備える、実施例7に記載のシステム。
9.距離測定デバイスをさらに備える、前述の実施例のいずれかに記載のシステム。
10.該ユーザの眼の位置および/または移動を追跡するように構成される、眼追跡デバイスをさらに備える、前述の実施例のいずれかに記載のシステム。
11.頭部搭載型ディスプレイは、ユーザの視野内のヒト組織の体積を推定するように構成される、前述の実施例のいずれかに記載のシステム。
12.頭部搭載型ディスプレイは、環境内の2つのオブジェクト間の距離を測定するように構成される、前述の実施例のいずれかに記載のシステム。
13.頭部搭載型ディスプレイは、ディスプレイ上に提示される第1の画像モダリティと第2の画像モダリティとの間でトグルするように構成される、前述の実施例のいずれかに記載のシステム。
14.第1の画像モダリティは、MRI走査を備える、実施例13に記載のシステム。
15.第2の画像モダリティは、超音波を備える、実施例13−14のいずれかに記載のシステム。
16.第1の画像モダリティは、X線走査を備える、実施例13−15のいずれかに記載のシステム。
17.超音波音波を生産するように適合される、電子エミッタをさらに備える、前述の実施例のいずれかに記載のシステム。
18.超音波音波を電気信号に変換するように適合される、センサをさらに備える、前述の実施例のいずれかに記載のシステム。
19.頭部搭載型ディスプレイは、ユーザが、仮想基準マーカをユーザの眼に対してユーザの正面の環境の一部上に設置することを可能にするように構成される、前述の実施例のいずれかに記載のシステム。
20.頭部搭載型ディスプレイは、画像が環境内の実世界オブジェクトに添付されて現れるように、画像をディスプレイ上に投影するように構成される、前述の実施例のいずれかに記載のシステム。
21.頭部搭載型ディスプレイは、仮想切断ガイドラインが切断されるべきヒト身体領域上にオーバーレイされるようにユーザに現れるように、仮想切断ガイドラインを表示するように構成される、または切断されるべき部分へのアクセスを与える、前述の実施例のいずれかに記載のシステム。
22.仮想切断ガイドラインの見掛け場所は、患者の身体部分の位置に関連するように現れる、実施例21に記載のシステム。
23.頭部搭載型ディスプレイは、信号を放出し、ユーザの正面の環境の一部内のオブジェクトの位置に関するデータを取得するように構成される、前述の実施例のいずれかに記載のシステム。
24.頭部搭載型ディスプレイは、オブジェクト場所のデータベースを使用して、ユーザの正面の環境の一部内のオブジェクトの位置を取得するように構成される、前述の実施例のいずれかに記載のシステム。
25.頭部搭載型ディスプレイは、該オブジェクト場所のデータベースに基づいて、基準点を設定し、画像が基準点に対して固定されて現れるように、画像をユーザの眼の中に投影するように構成される、実施例24に記載のシステム。
26.頭部搭載型ディスプレイは、ユーザ入力に基づいて、オブジェクトの3D画像のビューを軸を中心として回転させるように構成される、前述の実施例のいずれかに記載のシステム。
27.頭部搭載型ディスプレイは、ユーザ入力に基づいて、3Dオブジェクトの画像のビューを平行移動させるように構成される、前述の実施例のいずれかに記載のシステム。
28.頭部搭載型ディスプレイは、オブジェクトの3D画像の第1のスライスを表示するように構成される、前述の実施例のいずれかに記載のシステム。
29.頭部搭載型ディスプレイは、3D画像の第1のスライスの画像および第2のスライスの画像を通してシーケンス化するように構成される、実施例28に記載のシステム。
30.頭部搭載型ディスプレイは、頭部搭載型ディスプレイの第2のユーザが伝送される環境の該部分の該画像を視認し得るように、ユーザの正面の環境の一部の画像を伝送するように構成される、前述の実施例のいずれかに記載のシステム。
31.頭部搭載型ディスプレイは、ユーザに医療手技におけるステップをアラートするように構成される、前述の実施例のいずれかに記載のシステム。
32.頭部搭載型ディスプレイは、ユーザの医療パラメータを監視し、医療パラメータに基づいて、アラートを提供するように構成される、前述の実施例のいずれかに記載のシステム。
33.ユーザの医療パラメータは、バイタルサインを含む、実施例32に記載のシステム。
34.頭部搭載型ディスプレイは、超音波を放出し、該超音波から生じる信号を測定するように構成され、頭部搭載型ディスプレイはさらに、信号に基づいて、超音波画像を形成するように構成される、前述の実施例のいずれかに記載のシステム。
35.頭部搭載型ディスプレイは、ユーザにユーザの視野外のオブジェクトおよび/またはイベントをアラートするように構成される、前述の実施例のいずれかに記載のシステム。
36.光を該ユーザの眼の中に指向し、画像を眼内に形成するように構成される、1つまたはそれを上回る光源をさらに備える、前述の実施例のいずれかに記載のシステム。
37.該1つまたはそれを上回る光源は、ファイバ走査プロジェクタを備える、前述の実施例のいずれかに記載のシステム。
38.頭部搭載型ディスプレイは、エネルギーを患者に向かって放出し、返されるエネルギーを感知するように構成される、前述の実施例のいずれかに記載のシステム。
39.エネルギーは、超音波を備える、実施例38に記載のシステム。
40.頭部搭載型ディスプレイは、第1の画像モダリティと第1の画像モダリティと異なる第2の画像モダリティを組み合わせるように構成される、前述の実施例のいずれかに記載のシステム。
41.第1の画像モダリティおよび第2の画像モダリティはそれぞれ、MRI、CT、PET、MRA、またはCTA走査からの画像を備える、実施例40に記載のシステム。
42.頭部搭載型ディスプレイは、第1および第2の画像モダリティの組み合わせられた画像を患者の実際の解剖学的構造にわたって整合させるように構成される、実施例40または41に記載のシステム。
本明細書に開示されるように、外向きに面したカメラおよび/または光センサ等のユーザおよび/または環境センサを組み込む、ディスプレイシステムは、有利には、例えば、ユーザの周辺視野(例えば、ユーザの視野の周辺領域)内の環境の画像コンテンツの改善されたユーザビューを提供し得る。例えば、ある実施形態は、ユーザが、ユーザの中心視野(例えば、ユーザの視野の中心領域)内の1つのオブジェクトに合焦し、同時に、増加された可視性を伴って、ユーザの周辺視野内に位置する別のオブジェクトを視認することを可能にしてもよい。
ここで図12Aおよび12Bを参照すると、ユーザおよび/または環境センサを組み込む、ディスプレイシステムは、有利には、環境内のオブジェクトの画像修正を提供することができる。言い換えると、ある実施形態は、ユーザが、より良好な可視性を伴って、ユーザの視野内に位置するオブジェクトを視認することを可能にし得る。
本明細書に説明されるように、ある実施形態は、少なくとも部分的に、照明条件に基づいて、環境の画像コンテンツの少なくとも一部を修正してもよい(例えば、図11B参照)。また、本明細書に説明されるように、種々の実施形態は、環境内の着目オブジェクトを識別し、オブジェクトに対応する環境の画像の一部を修正してもよい(例えば、図12A−12Bに示されるように、オブジェクトの増強された画像を提示する、またはオブジェクトの画像を異なる場所に提示する)。画像の一部は、少なくとも部分的に、照明条件に基づいて、修正されてもよい。
多くの個人は、その人生におけるある時点において、診断および処置を要求する医学的状態または疾患を体験する。これらの状態は、とりわけ、例えば、心疾患、癌、脊柱疾患、および整形外科的傷害を含む、多数の形態をとり得る。有利には、いくつかの実施形態では、本明細書に開示される拡張現実(AR)ディスプレイシステムは、医療専門家のその患者の査定および処置を補助するように構成されてもよく、任意の治療段階において、それを行なってもよい。ARディスプレイシステムは、医療結像、医療表示、および/または医療可視化が有用である、任意の好適なコンテキストにおいて使用されてもよい。例えば、ARディスプレイシステムは、緊急処置室、手術室、医院、医師のオフィス、患者の自宅、および同等物において使用されてもよい。いくつかの実施形態では、ARディスプレイシステムは、結像し、画像を表示し、画像を操作し、疾患および異常を診断し、処置オプションを提供し、ある健康問題を防止し、および/または医療手技の間、補助を提供するように構成されてもよい。ARディスプレイシステムは、任意の好適な様式において、1人またはそれを上回る医療専門家を補助もしくは補完してもよいことを理解されるであろう。医療コンテキストでは、自宅における患者およびユーザもまた、種々の実施形態から利点を享受し得る。
前述のように、ディスプレイシステムは、種々の医療結像モダリティ(例えば、CT、MRI、PET、および/または超音波等)と組み合わせられ、例えば、骨、器官、軟骨、血液、癌性組織等を含む、種々の解剖学的特徴を可視化してもよい。例えば、いくつかの実施形態では、ディスプレイシステムは、組織体積(例えば、腫瘍体積)を測定し、健康対非健康組織の程度(例えば、健康対非健康組織の比率またはパーセンテージを取得する)を測定するように構成されてもよい。いくつかの実施形態では、可視化される組織の種々の側面が、分析および表示されてもよい。1つまたはそれを上回る医療結像モダリティと組み合わせられると、ディスプレイシステムは、有利には、医療用途のために、1つまたはそれを上回る3Dデータセットからのオブジェクトの3D仮想画像を生成し、それらをユーザに表示してもよい。これは、例えば、より現実的画像、視認者のためのより正確かつ自然な視認体験(例えば、オブジェクト画像が3Dで現れるため)、および医療手技における改善された正確度を可能にすることができる。例えば、いくつかのそのような組み合わせられた実施形態では、医師は、より精密な術前計画および手術のために、ディスプレイシステムを使用してもよい。手技精度の増加は、有利には、患者回復時間を低減させ、かつより多くの周囲健康組織を保存し得る。
前述のように、ディスプレイシステムは、例えば、複数の深度平面および導波管スタックを使用して、3次元画像を表示してもよい。これは、ユーザに、適切な遠近調節および輻輳・開散運動を用いて、眼からの種々の距離にあるかのようにレンダリングされるオブジェクトの画像に合焦する能力を与え得る。
上記に説明されるように、ディスプレイシステムは、ユーザが、種々の患者走査モダリティ(例えば、MRI、CT、PET等)のスライスを通してナビゲートし、各スライスが明確に見え得るように、画像を1つまたはそれを上回る深度平面として提供するように構成されてもよい。いくつかの実施形態では、ディスプレイシステムは、ユーザが、画像に適切に合焦し、それによって、疲労および/または眼精疲労を低減させることを可能にする、深度平面を用いて構成されてもよい、および/またはそれを使用するように構成されてもよい。異なる深度平面から生じるかのように異なる深度と関連付けられた異なる画像コンテンツの提示は、適切な遠近調節および輻輳・開散運動を助長し、それによって、眼精疲労および/または疲労を低減させることができる。付加的利点は、ユーザが、可能性として、患者走査の各スライスまたは少なくとも複数のスライスを通して「スライス毎」に通過させることによって、画像を操作可能であり得ることである。ユーザは、例えば、別個のスライスを、異なる時間、可能性として、異なる深度平面および/またはスライス角度において視認してもよい。ユーザは、スライスを順序通りまたは順序から外れて視認してもよい。いくつかの実施形態では、1つを上回る患者走査が、ディスプレイシステムに提示されることができる。ユーザは、1つまたはそれを上回る患者走査の種々のスライスを通して、ナビゲートおよびトグル可能であり得る。ユーザは、ある場合には、ユーザが3D画像の2Dスライスを通してスクロールすることが可能な3D画像を提示されてもよい。本特徴は、例えば、より正確なインプラントの位置付けを可能にし得る。本「スライス毎」アプローチは、例えば、複数の組織層を横断して腫瘍を視認する際、または種々の脳異常を視認するために有益であり得るが、任意の好適な用途が、理解される。
いくつかの実施形態では、ディスプレイシステムは、2Dおよび/または3D画像を患者の解剖学的構造の上方に表示してもよい。例えば、図12Bを参照されたい。いくつかの実施形態では、2Dおよび/または3D仮想画像は、世界(例えば、環境、不動患者等)を根拠としてもよい。仮想画像を患者の適切な解剖学的構造部位の上方に表示するために、ディスプレイシステム上の1つまたはそれを上回る外向きに面したカメラが、患者の解剖学的構造の種々の側面を結像するように構成されてもよく、処理電子機器が、画像処理を用いて、それを認識するように構成されてもよい。例えば、ディスプレイシステムは、上記に説明される結像モダリティ(例えば、CT、PET、MRI等)のうちの1つまたはそれを上回るものの補助の有無にかかわらず、種々の系(例えば、循環系、大脳辺縁系、神経系システム)、器官(例えば、肝臓、胃、心臓、肺、脳、胆嚢、膵臓、盲腸、腎臓等)、四肢(例えば、腕、脚)、組織(例えば、骨、筋肉、脂肪等)、または任意の他の好適な解剖学的特徴もしくは属性を識別可能であり得る。いくつかの実施形態では、ディスプレイシステムは、各身体部分、器官等が位置する場所を把握し、解剖学的構造、環境等に従って、仮想画像を正確に設置するように構成されてもよい。例えば、いくつかの実施形態では、ディスプレイシステムは、縁検出(例えば、1つまたはそれを上回るカメラまたは結像デバイスおよび/または処理電子機器のうちの1つまたはそれを上回るものと統合される)を含み、仮想画像を患者に対して(例えば、器官または関連する解剖学的構造の上方に)正しく位置付けてもよい。いくつかの実施形態では、1人またはそれを上回るユーザが、仮想画像をその視点の仮想画像に対して(例えば、各ユーザが立っている/画像を視認している場所から)視認してもよい。
ディスプレイシステムの種々の実施形態は、ユーザに、実オブジェクトのリアルタイム3D画像を提供することができる。前述のように、画像のための信号は、外向きに面したビデオカメラ、および/または電磁波または音波等の他のエネルギー源を利用して、ヒト身体の一部等の標的をプローブする、器具もしくはセンサから受信されてもよい。いくつかの実施形態では、ディスプレイシステムは、超音速または超音波情報に基づいて、オブジェクトの画像を提示してもよい。例えば、図10Bを参照されたい。超音波を生成する超音波源は、それらの超音波を結像されるべきオブジェクト上に指向するために配置されてもよい。超音波に敏感な変換器は、オブジェクトに指向された後、受信された超音波を検出および測定してもよい。本オブジェクトは、患者であってもよく、これらの超音波は、ヒト身体の解剖学的構造および/または生理学を結像するために採用されてもよい。例えば、いくつかの実施形態では、ディスプレイデバイスは、超音波技術を使用して、人物の血管を通る血流を感知することができる。ディスプレイデバイスは、したがって、人物の血流を結像するように構成されてもよい。その結果、ディスプレイは、潜在的に、ユーザが、人物に物理的に接触せずに、個人の脈を見るおよび/または測定することを可能にし得る。前述のように、ディスプレイデバイスは、3Dであるようにユーザに現れる、画像を提示するように構成されてもよい。本画像は、ある場合には、リアルタイム画像であってもよく、および/または患者上にオーバーレイされて現れてもよい。加えて、前述のように、ユーザは、潜在的に、画像を操作し、例えば、レンダリングされる画像の所望のビューを選択することができる。
ある実施形態では、ディスプレイデバイスによって受信された情報は、そのようなデバイスの他のユーザまたは非ユーザに伝送されることができる。いくつかの実施形態では、ディスプレイデバイスは、オブジェクトの画像(例えば、ディスプレイデバイス上の外向きに面したカメラまたは他のセンサもしくは結像システムを使用して)をレンダリングし、本画像を複数のユーザに同時に提供することができる。ある場合には、画像は、例えば、X線、MRI、CT技術から集められたもののような2D走査からコンパイルされた3D画像であってもよい。いくつかの実施形態では、各ディスプレイデバイスは、各ユーザがオブジェクトをオブジェクトに対して異なる位置から視認しているかのように、同一オブジェクトの画像を各ユーザに提示することができる。例えば、医師のグループは、画像がピクセルスティックを介して地面を根拠とされるであろうため、立っている場所からの視点から、そのデバイスのそれぞれにおいて、患者走査の仮想画像、解剖学的構造等を視認することができる。これは、複数の意見、教育/訓練補助、専門家助言、外科手術計画等を有することによって、診断を補助するであろう。いくつかの構成では、ユーザは、オブジェクトを視認している場所から、仮想場所をオブジェクトに対して選択することができる。例えば、ユーザは、ユーザが外科手術のために存在していない場合でも、手術を実施している外科医の直接背後またはその近傍からであるように、外科手術を視認し得る。さらに、そのような実施形態では、ユーザの仮想場所は、異なる視認角度を達成するように、ユーザの方向に変化され得る。種々の実施形態では、したがって、頭部搭載型ディスプレイは、相互に通信する、または他のコンポーネントを含む場合とそうではない場合がある、ネットワークに接続されてもよい。ユーザのディスプレイデバイスから取得される画像ならびに他の情報は、非ユーザにも同様に電子的に伝送され得る。例えば、1つまたはそれを上回る頭部搭載型ディスプレイ上に搭載される1つまたはそれを上回るカメラは、環境内のオブジェクトおよび場所のデータベースを構築するように、環境(例えば、手術室)を結像し、環境内のオブジェクト(手術台、器具、患者、周囲の人々等)の場所に関する情報を集めることができる(可能性として、測距計または距離測定システムを使用して)。例えば、頭部搭載型ディスプレイデバイスの既知の位置(例えば、GPSを使用して)およびオブジェクトから頭部搭載型ディスプレイまでの距離を用いて、3D空間(例えば、x、y、z座標)内のオブジェクトの場所が、把握され、データベース内に記憶されることができる。異なる頭部搭載型デバイスは、疎点のマップを送信し、環境の3Dマップを構築することができる。データベースは、環境内でより多くの時間が費やされるほど成長する。ある場合には、縁検出は、オブジェクト、例えば、手術台、器具トレイ、機器、または患者を判定することができる。
ある実施形態では、ディスプレイデバイスは、医療従事者が、画像下治療用の画像を視認および解釈することを補助することができる。例えば、いくつかの実施形態では、デバイスは、1つまたはそれを上回る結像モダリティ(例えば、CT、X線、MRI等)を使用して、手技の前または間、画像をディスプレイ上にレンダリングするように構成されることができる。種々の方法(例えば、機械学習、手動アルゴリズム)を使用して、いくつかの実施形態では、ディスプレイデバイスは、非健康または異常走査または画像と比較して、正常または健康患者、組織、器官、解剖学的構造等の走査または画像を適切に識別するように訓練されることができる。故に、種々の実施形態では、ディスプレイデバイスは、患者画像(例えば、走査)が異常であるかどうかを自動的に判定し、潜在的に、画像の医療および/または病理学的有意性を判定し、そこから結論または診断を引き出すことができる。例えば、ある実施形態では、デバイスは、断裂骨、腫瘍等の脳走査内の異常、およびX線に基づく余剰歯、または画像に基づく腫瘍増殖の場所を認識することができる。
オブジェクトは、種々の技法を使用して検出されることができる。例えば、オブジェクトは、コンピュータビジョン技法を使用して検出されることができる。例えば、ディスプレイデバイスは、外向きに面した結像システムによって入手された画像を分析し、場面再構成、イベント検出、ビデオ追跡、オブジェクト認識、オブジェクト姿勢推定、学習、インデックス化、運動推定、または画像復元等を実施することができる。1つまたはそれを上回るコンピュータビジョンアルゴリズムが、これらのタスクを実施するために使用されてもよい。コンピュータビジョンアルゴリズムの非限定的実施例は、スケール不変特徴変換(SIFT)、スピードアップロバスト特徴(SURF)、配向FASTおよび回転BRIEF(ORB)、バイナリロバスト不変スケーラブルキーポイント(BRISK)、高速網膜キーポイント(FREAK)、Viola−Jonesアルゴリズム、Eigenfacesアプローチ、Lucas−Kanadeアルゴリズム、Horn−Schunkアルゴリズム、Mean−shiftアルゴリズム、視覚的同時位置推定およびマッピング(vSLAM)技法、シーケンシャルベイズ推定器(例えば、カルマンフィルタ、拡張カルマンフィルタ等)、バンドル調節、適応閾値化(および他の閾値化技法)、反復最近傍点(ICP)、セミグローバルマッチング(SGM)、セミグローバルブロックマッチング(SGBM)、特徴点ヒストグラム、種々の機械学習アルゴリズム(例えば、サポートベクトルマシン、k最近傍アルゴリズム、単純ベイズ、ニューラルネットワーク(畳み込みまたは深層ニューラルネットワークを含む)、または他の教師あり/教師なしモデル等)等を含む。
種々の機械学習アルゴリズムは、いくつかの実施形態では、可能性として考えられる着目オブジェクト(例えば、ある値を下回る信号を有する心臓モニタ)を検出するために実装されることができる。いったん訓練されると、機械学習アルゴリズムは、デバイスによって記憶されることができる。機械学習アルゴリズムのいくつかの実施例は、回帰アルゴリズム(例えば、通常の最小2乗回帰等)、インスタンスベースのアルゴリズム(例えば、学習ベクトル量子化等)、決定ツリーアルゴリズム(例えば、分類および回帰ツリー等)、Bayesianアルゴリズム(例えば、Naive Bayes等)、クラスタ化アルゴリズム(例えば、k−平均クラスタ化等)、関連付けルール学習アルゴリズム(例えば、アプリオリアルゴリズム等)、人工ニューラルネットワークアルゴリズム(例えば、Perceptron等)、ディープ学習アルゴリズム(例えば、ディープBoltzmannマシン、またはディープニューラルネットワーク等)、次元削減アルゴリズム(例えば、主成分分析等)、アンサンブルアルゴリズム(例えば、スタック汎化等)、および/または他の機械学習アルゴリズムを含む、教師ありまたは教師なし機械学習アルゴリズムを含むことができる。いくつかの実施形態では、個々のモデルは、個々のデータセットのためにカスタマイズされることができる。例えば、ウェアラブルデバイスは、基本モデルを生成または記憶することができる。基本モデルは、データタイプ(例えば、特定のユーザ)、データセット(例えば、取得される付加的画像のセット)、条件付き状況、または他の変形例に特有の付加的モデルを生成する開始点として使用されてもよい。いくつかの実施形態では、ウェアラブルデバイスは、複数の技法を利用し、集約されたデータの分析のためのモデルを生成するように構成されてもよい。他の技法は、事前に定義された閾値またはデータ値を使用することを含んでもよい。
種々の実施形態では、ディスプレイシステムは、有利には、少なくとも部分的に、ユーザ意図に基づいて、実または仮想コンテンツのユーザ知覚を改変してもよい。例えば、ある実施形態は、ユーザが、画像コンテンツを増強させる(または強調解除する)、および/または画像コンテンツを異なる場所に提示することによって、状況またはタスクに合焦することを可能にし得る。
外科手術の間の別のユーザ意図は、周辺に位置する心臓モニタ上の医療画像の視認を含んでもよい(例えば、眼追跡に基づいて)。そのようなユーザ意図に基づいて、ある実施形態は、より容易な視認のために、医療画像の画像を外科手術部位のより近くに提示することができる。
図14におけるブロック図は、ユーザ注目を伴う状況を感知し、ユーザ意図を判定することを参照するが、これらのいずれかまたは両方とも、随意に、含まれてもよい、または両方とも、除外されてもよい。
前述のように、オブジェクト認識は、単に、オブジェクトおよび背景を判別することを含んでもよい。他の形態のオブジェクト認識は、オブジェクトの内容と、それと関連付けられた機能および/または特性とを識別することを含んでもよい。
強調解除もまた、潜在的に、提供されてもよい。そのような環境内の実オブジェクトの強調解除は、実オブジェクトがあまり可視ではないように、十分な明度の光を眼の中に指向することを含んでもよい。仮想オブジェクトの強調解除は、表示される仮想画像コンテンツのコントラスト、色飽和、明度、縁可視性、不透明度、または鮮明度を低減させることを含んでもよい。
故に、設計における様々な変形例が、可能性として考えられる。いくつかの設計では、例えば、1つまたはそれを上回るアプリケーション(例えば、ユーザアプリケーション、システムアプリケーション)の機能性および/またはそこへのアクセスならびに/もしくは表示される画像コンテンツの量は、アクセス管理システムによって管理されてもよい。アクセス管理システムは、1つまたはそれを上回るアプリケーションが使用され得る前に、および/または画像コンテンツが表示され得る前に、ログインおよび/またはパスワードを要求するように構成されてもよい。加えて、または代替として、アクセス管理システムは、システム設定に基づいて、ユーザへのアクセスを限定してもよい。アクセス管理システムは、異なるアクセス許可のセット(例えば、使用され得るアプリケーション、表示されるであろう画像コンテンツ)を与えるように構成されてもよい。アクセス許可は、「ホワイトリスト」(例えば、アプリケーションおよび/または表示される画像コンテンツが可能にされるリスト)および/または「ブラックリスト」(例えば、制限されるアプリケーションおよび/または表示される画像コンテンツのリスト)として提供されてもよい。設計に従って、アクセス管理システムは、変更されることができない、アクセス許可を有してもよい。アクセス許可は、より上位のアクセス許可によって上書きされてもよい。例えば、両親は、子供のアクセス許可を上書きしてもよい。代替として、アクセス許可は、上書き不能であってもよい。設計に応じて、緊急上書きは、あるアプリケーションおよび/または画像コンテンツへのユーザアクセス(例えば、限定されたアクセス)を可能にしてもよい。アクセス管理システムは、少なくとも部分的に、動作中の車両のタイプに基づいて、あるアプリケーションおよび/または画像コンテンツへのアクセスを付与してもよい。例えば、車の運転の間、可能にされないであろう、ある機能性は、ユーザがボートを運転するためには提供され得る。アクセス管理システムは、ユーザ記録(例えば、年齢、運転記録、学業平均値(GPA)、犯罪記録、DWD逮捕等)に基づいて、ユーザ特有のアクセス許可を付与してもよい。アクセス管理システムは、限定ではないが、車両タイプ、ユーザ、デバイス、地方管轄権の法律、上書き制御ポリシ、場所の人口密度、ユーザアクティビティの程度(例えば、ユーザが車を運転する代わりに、車内に着座している)等を含む、種々の要因に基づいて、アプリケーションおよび/または画像コンテンツへのアクセスを付与する場合とそうではない場合がある。
Claims (20)
- 光をユーザの眼に投影し、拡張現実画像コンテンツを前記ユーザの視野内に表示するように構成される、頭部搭載型ディスプレイシステムであって、前記頭部搭載型ディスプレイシステムは、
ユーザの頭部上に支持されるように構成されるフレームと、
前記フレーム上に配置される頭部搭載型ディスプレイであって、前記ディスプレイは、光を前記ユーザの眼の中に投影し、前記ユーザの眼からの異なる距離から投影されるかのように、異なる発散量において拡張現実画像コンテンツをユーザの視野内に表示するように構成され、前記ディスプレイの少なくとも一部分は、前記透明部分が、前記ユーザおよび前記頭部搭載型ディスプレイの正面の環境の一部分からの光をユーザの眼に伝送し、前記ユーザおよび前記頭部搭載型ディスプレイの正面の環境の前記一部分のビューを提供するように、透明であり、かつ、前記ユーザが前記頭部搭載型ディスプレイデバイスを装着すると、前記ユーザの眼の正面の場所に配置される、頭部搭載型ディスプレイと、
前記ユーザを感知するように構成される、1つまたはそれを上回るユーザセンサと、
前記ユーザの周囲を感知するように構成される、1つまたはそれを上回る環境センサと、
前記ディスプレイ、前記1つまたはそれを上回るユーザセンサ、および前記1つまたはそれを上回る環境センサと通信する処理電子機器であって、前記処理電子機器は、
増加されたユーザ注目を伴う状況を感知することと、
少なくとも部分的に、前記増加された焦点の感知に基づいて、前記ユーザの視野内の実または仮想オブジェクトのユーザ知覚を改変することと
を行うように構成される、処理電子機器と
を備える、頭部搭載型ディスプレイシステム。 - 前記処理電子機器は、前記オブジェクトを備える画像コンテンツを改変することによって、前記ユーザの視野内の実または仮想オブジェクトのユーザ知覚を改変するように構成される、請求項1に記載のディスプレイシステム。
- 画像コンテンツを改変することは、前記オブジェクトの画像コンテンツを第1の場所から第2の場所に移動させることを含む、請求項2に記載のディスプレイシステム。
- 前記第1の場所は、周辺領域であり、前記第2の場所は、中心領域である、または前記第1の場所は、前記中心領域であり、前記第2の場所は、前記周辺領域である、請求項3に記載のディスプレイシステム。
- 画像コンテンツを改変することは、前記オブジェクトを備える画像コンテンツのコントラスト、不透明度、色、色飽和、カラーバランス、サイズ、背景、明度、縁、または鮮明度のうちの少なくとも1つを改変することを含む、請求項2に記載のディスプレイシステム。
- 前記1つまたはそれを上回る環境センサは、深度センサ、一対の両眼世界カメラ、地理位置センサ、近接度センサ、またはGPSを備える、請求項1−7のいずれかに記載のディスプレイシステム。
- 前記1つまたはそれを上回るユーザセンサは、1つまたはそれを上回るカメラを備える、請求項1−6のいずれかに記載のディスプレイシステム。
- 前記処理電子機器はさらに、少なくとも部分的に、前記増加された焦点の感知に基づいて、前記状況に対するユーザ意図を判定し、前記ユーザの視野内の実または仮想オブジェクトのユーザ知覚を改変するように構成される、請求項1−7のいずれかに記載のディスプレイシステム。
- 増加されたユーザ注目を伴う前記状況は、自動車両を運転することを含む、請求項1−8のいずれかに記載のディスプレイシステム。
- 前記環境センサは、無線信号を検出するように構成されるセンサを備える、請求項9に記載のディスプレイシステム。
- 前記環境センサは、自動車からのBluetooth(登録商標)信号を検出するように構成されるセンサを備える、請求項10に記載のディスプレイシステム。
- 前記処理電子機器は、少なくとも部分的に、前記ユーザに関する1つまたはそれを上回るデータ記録に基づいて、前記ユーザの視野内の実または仮想オブジェクトのユーザ知覚を改変するように構成され、前記1つまたはそれを上回るデータ記録は、前記ユーザの運転記録を含む、請求項9に記載のディスプレイシステム。
- 光をユーザの眼に投影し、拡張現実画像コンテンツを表示するように構成される頭部搭載型ディスプレイシステムであって、前記ユーザの眼は、中心領域と、前記中心領域を中心として配置される周辺領域を有する、視野を有し、前記頭部搭載型ディスプレイシステムは、
ユーザの頭部上に支持されるように構成されるフレームと、
前記フレーム上に配置される頭部搭載型ディスプレイであって、前記ディスプレイは、画像コンテンツを前記ユーザの視野の中心領域に提示するように、光を前記ユーザの眼の中に投影するように構成され、前記ディスプレイの少なくとも一部分は、前記透明部分が、前記ユーザおよび前記頭部搭載型ディスプレイの正面の環境の一部分からの光をユーザの眼に伝送し、前記ユーザおよび前記頭部搭載型ディスプレイの正面の環境の前記一部分のビューを提供するように、透明であり、かつ、前記ユーザが前記頭部搭載型ディスプレイデバイスを装着すると、前記ユーザの眼の正面の場所に配置される、頭部搭載型ディスプレイと、
前記ディスプレイと通信し、前記ディスプレイ上での画像コンテンツの提示を制御する、処理電子機器と
を備え、
前記頭部搭載型ディスプレイシステムは、前記ユーザの視野の中心領域に、前記ユーザの視野の周辺領域に提示される画像コンテンツと比較して増強された画像コンテンツを提示するように構成される、頭部搭載型ディスプレイシステム。 - 前記環境を監視するように構成される1つまたはそれを上回るセンサをさらに備える、請求項10に記載のシステム。
- 前記1つまたはそれを上回るセンサは、前記環境を結像するように構成される1つまたはそれを上回る外向きに面した画像捕捉デバイスを備える、請求項11に記載のシステム。
- 1つまたはそれを上回るセンサは、距離測定デバイスを備える、請求項11または12に記載のシステム。
- 前記ユーザの眼の位置および/または移動を追跡するように構成される眼追跡デバイスをさらに備える、請求項10−13のいずれかに記載のシステム。
- 前記頭部搭載型ディスプレイデバイスは、前記ユーザの視野の周辺領域に提示される画像コンテンツと比較して、前記ユーザの視野の中心領域の少なくとも一部分に提示される画像コンテンツを異なるように処理するように構成される、請求項10−15のいずれかに記載のシステム。
- 前記頭部搭載型ディスプレイデバイスは、前記ユーザの視野の周辺領域に提示される画像コンテンツと比較して、前記ユーザの視野の中心領域の少なくとも一部分に提示される画像コンテンツを拡大することによって、画像コンテンツを異なるように処理するように構成される、請求項16に記載のシステム。
- 前記頭部搭載型ディスプレイデバイスは、前記ユーザの視野の周辺領域に提示される画像コンテンツと比較して、前記ユーザの視野の中心領域の少なくとも一部分に提示される画像コンテンツにおける明度を増加させることによって、画像コンテンツを異なるように処理するように構成される、請求項16または17に記載のシステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022039089A JP2022087104A (ja) | 2016-07-25 | 2022-03-14 | 拡張現実および仮想現実アイウェアを用いた結像修正、表示、および可視化 |
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662366599P | 2016-07-25 | 2016-07-25 | |
US62/366,599 | 2016-07-25 | ||
US201662396071P | 2016-09-16 | 2016-09-16 | |
US62/396,071 | 2016-09-16 | ||
US201662440332P | 2016-12-29 | 2016-12-29 | |
US62/440,332 | 2016-12-29 | ||
PCT/US2017/043555 WO2018022523A1 (en) | 2016-07-25 | 2017-07-24 | Imaging modification, display and visualization using augmented and virtual reality eyewear |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022039089A Division JP2022087104A (ja) | 2016-07-25 | 2022-03-14 | 拡張現実および仮想現実アイウェアを用いた結像修正、表示、および可視化 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019533824A true JP2019533824A (ja) | 2019-11-21 |
JP2019533824A5 JP2019533824A5 (ja) | 2020-09-03 |
JP7182538B2 JP7182538B2 (ja) | 2022-12-02 |
Family
ID=61016802
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019503537A Active JP7182538B2 (ja) | 2016-07-25 | 2017-07-24 | 拡張現実および仮想現実アイウェアを用いた結像修正、表示、および可視化 |
JP2022039089A Withdrawn JP2022087104A (ja) | 2016-07-25 | 2022-03-14 | 拡張現実および仮想現実アイウェアを用いた結像修正、表示、および可視化 |
JP2023111338A Pending JP2023126317A (ja) | 2016-07-25 | 2023-07-06 | 拡張現実および仮想現実アイウェアを用いた結像修正、表示、および可視化 |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022039089A Withdrawn JP2022087104A (ja) | 2016-07-25 | 2022-03-14 | 拡張現実および仮想現実アイウェアを用いた結像修正、表示、および可視化 |
JP2023111338A Pending JP2023126317A (ja) | 2016-07-25 | 2023-07-06 | 拡張現実および仮想現実アイウェアを用いた結像修正、表示、および可視化 |
Country Status (9)
Country | Link |
---|---|
US (4) | US10838210B2 (ja) |
EP (2) | EP4345831A3 (ja) |
JP (3) | JP7182538B2 (ja) |
KR (3) | KR20230133940A (ja) |
CN (1) | CN109791295A (ja) |
AU (3) | AU2017301435B2 (ja) |
CA (1) | CA3031771A1 (ja) |
IL (4) | IL298851B2 (ja) |
WO (1) | WO2018022523A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022153683A1 (ja) * | 2021-01-15 | 2022-07-21 | ソニーセミコンダクタソリューションズ株式会社 | 画像表示装置及び画像表示方法 |
JP2022133176A (ja) * | 2021-03-01 | 2022-09-13 | ヤフー株式会社 | 情報処理装置、情報処理方法、及び情報処理プログラム |
WO2022202860A1 (ja) * | 2021-03-23 | 2022-09-29 | 国立大学法人 東京大学 | 情報処理システム、情報処理方法及びプログラム |
Families Citing this family (164)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11918375B2 (en) * | 2014-09-05 | 2024-03-05 | Beijing Zitiao Network Technology Co., Ltd. | Wearable environmental pollution monitor computer apparatus, systems, and related methods |
EP3062142B1 (en) | 2015-02-26 | 2018-10-03 | Nokia Technologies OY | Apparatus for a near-eye display |
US9836895B1 (en) | 2015-06-19 | 2017-12-05 | Waymo Llc | Simulating virtual objects |
WO2017114834A1 (en) * | 2015-12-29 | 2017-07-06 | Koninklijke Philips N.V. | System, controller and method using virtual reality device for robotic surgery |
TWI589274B (zh) * | 2016-07-05 | 2017-07-01 | da-quan Ye | 心理臨床應用的虛擬實境系統 |
KR20230133940A (ko) | 2016-07-25 | 2023-09-19 | 매직 립, 인코포레이티드 | 증강 현실 및 가상 현실 안경류를 사용한 이미징 수정, 디스플레이 및 시각화 |
CN109478339A (zh) * | 2016-07-29 | 2019-03-15 | 三菱电机株式会社 | 显示装置、显示控制装置和显示控制方法 |
EP3512452A1 (en) * | 2016-09-16 | 2019-07-24 | Zimmer, Inc. | Augmented reality surgical technique guidance |
US10650552B2 (en) | 2016-12-29 | 2020-05-12 | Magic Leap, Inc. | Systems and methods for augmented reality |
EP4300160A3 (en) | 2016-12-30 | 2024-05-29 | Magic Leap, Inc. | Polychromatic light out-coupling apparatus, near-eye displays comprising the same, and method of out-coupling polychromatic light |
EP3343957B1 (en) * | 2016-12-30 | 2022-07-06 | Nokia Technologies Oy | Multimedia content |
US10242503B2 (en) | 2017-01-09 | 2019-03-26 | Snap Inc. | Surface aware lens |
RU2718167C1 (ru) | 2017-03-06 | 2020-03-30 | Е Инк Корпорэйшн | Способ и устройство для рендеринга цветных изображений |
CN116236282A (zh) | 2017-05-05 | 2023-06-09 | 史赛克欧洲运营有限公司 | 手术导航系统 |
US11221823B2 (en) * | 2017-05-22 | 2022-01-11 | Samsung Electronics Co., Ltd. | System and method for context-based interaction for electronic devices |
CN107272202A (zh) * | 2017-06-16 | 2017-10-20 | 北京灵犀微光科技有限公司 | 光学装置和波导显示装置 |
US10578870B2 (en) | 2017-07-26 | 2020-03-03 | Magic Leap, Inc. | Exit pupil expander |
CN110998674B (zh) * | 2017-08-09 | 2023-11-24 | 索尼公司 | 信息处理装置、信息处理方法和程序 |
US20190061617A1 (en) * | 2017-08-29 | 2019-02-28 | GM Global Technology Operations LLC | Audio Control Systems And Methods Based On Driver Helmet Use |
US11510741B2 (en) | 2017-10-30 | 2022-11-29 | Cilag Gmbh International | Method for producing a surgical instrument comprising a smart electrical system |
US10510812B2 (en) | 2017-11-09 | 2019-12-17 | Lockheed Martin Corporation | Display-integrated infrared emitter and sensor structures |
JP7282090B2 (ja) | 2017-12-10 | 2023-05-26 | マジック リープ, インコーポレイテッド | 光学導波管上の反射防止性コーティング |
US11266849B2 (en) * | 2017-12-12 | 2022-03-08 | Eb Neuro S.P.A. | Control device and a machine for interactive cerebral and bodily navigation with real-time anatomical display and control functions |
US11124136B2 (en) * | 2017-12-19 | 2021-09-21 | GM Global Technology Operations LLC | Controlling vehicle modules based on media content |
KR20200100720A (ko) | 2017-12-20 | 2020-08-26 | 매직 립, 인코포레이티드 | 증강 현실 뷰잉 디바이스용 인서트 |
US10665023B2 (en) * | 2017-12-26 | 2020-05-26 | Disney Enterprises, Inc. | System and method for providing improved augmented reality content |
US11612408B2 (en) | 2017-12-28 | 2023-03-28 | Cilag Gmbh International | Determining tissue composition via an ultrasonic system |
US11998193B2 (en) | 2017-12-28 | 2024-06-04 | Cilag Gmbh International | Method for usage of the shroud as an aspect of sensing or controlling a powered surgical device, and a control algorithm to adjust its default operation |
US11076921B2 (en) | 2017-12-28 | 2021-08-03 | Cilag Gmbh International | Adaptive control program updates for surgical hubs |
US11464559B2 (en) | 2017-12-28 | 2022-10-11 | Cilag Gmbh International | Estimating state of ultrasonic end effector and control system therefor |
US11257589B2 (en) | 2017-12-28 | 2022-02-22 | Cilag Gmbh International | Real-time analysis of comprehensive cost of all instrumentation used in surgery utilizing data fluidity to track instruments through stocking and in-house processes |
US11304763B2 (en) * | 2017-12-28 | 2022-04-19 | Cilag Gmbh International | Image capturing of the areas outside the abdomen to improve placement and control of a surgical device in use |
US12062442B2 (en) | 2017-12-28 | 2024-08-13 | Cilag Gmbh International | Method for operating surgical instrument systems |
US12096916B2 (en) | 2017-12-28 | 2024-09-24 | Cilag Gmbh International | Method of sensing particulate from smoke evacuated from a patient, adjusting the pump speed based on the sensed information, and communicating the functional parameters of the system to the hub |
US20190206569A1 (en) | 2017-12-28 | 2019-07-04 | Ethicon Llc | Method of cloud based data analytics for use with the hub |
US20190246946A1 (en) * | 2018-02-15 | 2019-08-15 | Covidien Lp | 3d reconstruction and guidance based on combined endobronchial ultrasound and magnetic tracking |
US11417071B1 (en) | 2018-02-23 | 2022-08-16 | Red Pacs, Llc | Virtual toolkit for radiologists |
US11337746B2 (en) | 2018-03-08 | 2022-05-24 | Cilag Gmbh International | Smart blade and power pulsing |
WO2019177711A1 (en) * | 2018-03-13 | 2019-09-19 | Intuitive Surgical Operations, Inc. | Methods of guiding manual movement of medical systems |
US10755676B2 (en) | 2018-03-15 | 2020-08-25 | Magic Leap, Inc. | Image correction due to deformation of components of a viewing device |
JP7381482B2 (ja) * | 2018-03-16 | 2023-11-15 | マジック リープ, インコーポレイテッド | ディスプレイシステムのための深度ベースの中心窩化レンダリング |
CN110324528A (zh) * | 2018-03-28 | 2019-10-11 | 富泰华工业(深圳)有限公司 | 摄像装置、影像处理系统及方法 |
US10922862B2 (en) * | 2018-04-05 | 2021-02-16 | Lenovo (Singapore) Pte. Ltd. | Presentation of content on headset display based on one or more condition(s) |
US10872470B2 (en) | 2018-04-05 | 2020-12-22 | Lenovo (Singapore) Pte. Ltd. | Presentation of content at headset display based on other display not being viewable |
US10565718B2 (en) * | 2018-04-18 | 2020-02-18 | Faro Technologies, Inc. | System and method of scanning an environment |
US10504290B2 (en) * | 2018-05-04 | 2019-12-10 | Facebook Technologies, Llc | User interface security in a virtual reality environment |
US10916065B2 (en) * | 2018-05-04 | 2021-02-09 | Facebook Technologies, Llc | Prevention of user interface occlusion in a virtual reality environment |
US11885871B2 (en) | 2018-05-31 | 2024-01-30 | Magic Leap, Inc. | Radar head pose localization |
US11422764B1 (en) | 2018-06-03 | 2022-08-23 | Epic Optix, Inc. | Multi-platform integrated display |
US20190377538A1 (en) | 2018-06-08 | 2019-12-12 | Curious Company, LLC | Information Presentation Through Ambient Sounds |
US11989836B2 (en) * | 2018-06-12 | 2024-05-21 | Current Lighting Solutions, Llc | Integrated management of sensitive controlled environments and items contained therein |
WO2019245550A1 (en) * | 2018-06-20 | 2019-12-26 | Hewlett-Packard Development Company, L.P. | Alerts of mixed reality devices |
US11450070B2 (en) | 2018-06-20 | 2022-09-20 | Hewlett-Packard Development Company, L.P. | Alerts of mixed reality devices |
JP7008220B2 (ja) * | 2018-06-21 | 2022-01-25 | パナソニックIpマネジメント株式会社 | 映像表示システム、映像表示方法、プログラム、及び移動体 |
JP7026325B2 (ja) * | 2018-06-21 | 2022-02-28 | パナソニックIpマネジメント株式会社 | 映像表示システム、映像表示方法、プログラム、及び移動体 |
WO2020010097A1 (en) | 2018-07-02 | 2020-01-09 | Magic Leap, Inc. | Pixel intensity modulation using modifying gain values |
US11856479B2 (en) | 2018-07-03 | 2023-12-26 | Magic Leap, Inc. | Systems and methods for virtual and augmented reality along a route with markers |
US10818088B2 (en) | 2018-07-10 | 2020-10-27 | Curious Company, LLC | Virtual barrier objects |
CN112740666A (zh) | 2018-07-19 | 2021-04-30 | 艾科缇弗外科公司 | 自动手术机器人视觉系统中多模态感测深度的系统和方法 |
US10679393B2 (en) | 2018-07-24 | 2020-06-09 | Snap Inc. | Conditional modification of augmented reality object |
US10795458B2 (en) | 2018-08-03 | 2020-10-06 | Magic Leap, Inc. | Unfused pose-based drift correction of a fused pose of a totem in a user interaction system |
US10991148B2 (en) * | 2018-08-13 | 2021-04-27 | Canon Medical Systems Corporation | Medical image rendering method and apparatus |
US11244509B2 (en) | 2018-08-20 | 2022-02-08 | Fisher-Rosemount Systems, Inc. | Drift correction for industrial augmented reality applications |
JP7487176B2 (ja) | 2018-08-22 | 2024-05-20 | マジック リープ, インコーポレイテッド | 患者視認システム |
AU2019325414A1 (en) * | 2018-08-24 | 2021-03-25 | David Byron Douglas | A virtual tool kit for radiologists |
US11030813B2 (en) | 2018-08-30 | 2021-06-08 | Snap Inc. | Video clip object tracking |
US10902678B2 (en) | 2018-09-06 | 2021-01-26 | Curious Company, LLC | Display of hidden information |
US20200082576A1 (en) * | 2018-09-11 | 2020-03-12 | Apple Inc. | Method, Device, and System for Delivering Recommendations |
US11508127B2 (en) * | 2018-11-13 | 2022-11-22 | Disney Enterprises, Inc. | Capturing augmented reality on a head mounted display |
CN114879840A (zh) * | 2018-11-23 | 2022-08-09 | 华为技术有限公司 | 根据眼球焦点控制显示屏的方法和头戴电子设备 |
US11176737B2 (en) | 2018-11-27 | 2021-11-16 | Snap Inc. | Textured mesh building |
US11055913B2 (en) | 2018-12-04 | 2021-07-06 | Curious Company, LLC | Directional instructions in an hybrid reality system |
US10963757B2 (en) | 2018-12-14 | 2021-03-30 | Industrial Technology Research Institute | Neural network model fusion method and electronic device using the same |
CN113330484A (zh) | 2018-12-20 | 2021-08-31 | 斯纳普公司 | 虚拟表面修改 |
CN113454507B (zh) | 2018-12-21 | 2024-05-07 | 奇跃公司 | 用于促进波导内的全内反射的气穴结构 |
US10970935B2 (en) * | 2018-12-21 | 2021-04-06 | Curious Company, LLC | Body pose message system |
US11023769B2 (en) * | 2019-01-16 | 2021-06-01 | Lenovo (Singapore) Pte. Ltd. | Modifying an image based on identifying a feature |
US11031128B2 (en) | 2019-01-25 | 2021-06-08 | Fresenius Medical Care Holdings, Inc. | Augmented reality-based training and troubleshooting for medical devices |
US10984575B2 (en) | 2019-02-06 | 2021-04-20 | Snap Inc. | Body pose estimation |
US11532132B2 (en) * | 2019-03-08 | 2022-12-20 | Mubayiwa Cornelious MUSARA | Adaptive interactive medical training program with virtual patients |
EP3939030A4 (en) | 2019-03-12 | 2022-11-30 | Magic Leap, Inc. | REGISTRATION OF LOCAL CONTENT BETWEEN FIRST AND SECOND VIEWERS OF AUGMENTED REALITY |
US10872584B2 (en) | 2019-03-14 | 2020-12-22 | Curious Company, LLC | Providing positional information using beacon devices |
DE112019007085T5 (de) | 2019-03-27 | 2022-01-20 | Intel Corporation | Intelligente Anzeigetafeleinrichtung und verwandte Verfahren |
US12053333B2 (en) * | 2019-04-04 | 2024-08-06 | The Board Of Regents Of The University Of Oklahoma | Surgical enhanced visualization system and method of use |
US11024096B2 (en) | 2019-04-29 | 2021-06-01 | The Board Of Trustees Of The Leland Stanford Junior University | 3D-perceptually accurate manual alignment of virtual content with the real world with an augmented reality device |
US11379016B2 (en) | 2019-05-23 | 2022-07-05 | Intel Corporation | Methods and apparatus to operate closed-lid portable computers |
CN110376737B (zh) * | 2019-05-28 | 2022-09-30 | 京东方科技集团股份有限公司 | 光学显示系统、显示控制装置和增强现实设备 |
US11265487B2 (en) * | 2019-06-05 | 2022-03-01 | Mediatek Inc. | Camera view synthesis on head-mounted display for virtual reality and augmented reality |
US10799090B1 (en) * | 2019-06-13 | 2020-10-13 | Verb Surgical Inc. | Method and system for automatically turning on/off a light source for an endoscope during a surgery |
CN110457990B (zh) * | 2019-06-19 | 2020-06-12 | 特斯联(北京)科技有限公司 | 一种机器学习的安防监控视频遮挡智能填补方法与系统 |
JP2022537092A (ja) | 2019-06-23 | 2022-08-24 | ルーマス リミテッド | 中心窩光学補正を用いるディスプレイ |
US10976816B2 (en) | 2019-06-25 | 2021-04-13 | Microsoft Technology Licensing, Llc | Using eye tracking to hide virtual reality scene changes in plain sight |
US11189098B2 (en) | 2019-06-28 | 2021-11-30 | Snap Inc. | 3D object camera customization system |
JP7198950B2 (ja) * | 2019-07-12 | 2023-01-04 | ニューラリンク コーポレーション | ロボット脳外科手術用の光コヒーレンストモグラフィ |
US11022972B2 (en) * | 2019-07-31 | 2021-06-01 | Bell Textron Inc. | Navigation system with camera assist |
CN110364096B (zh) * | 2019-08-12 | 2024-04-05 | 张枫 | 一种体三维显示装置 |
US20210065374A1 (en) * | 2019-08-26 | 2021-03-04 | Organize Everything Inc. | System and method for extracting outlines of physical objects |
US11462000B2 (en) * | 2019-08-26 | 2022-10-04 | Apple Inc. | Image-based detection of surfaces that provide specular reflections and reflection modification |
US11232646B2 (en) | 2019-09-06 | 2022-01-25 | Snap Inc. | Context-based virtual object rendering |
CN114730086B (zh) | 2019-10-23 | 2024-07-05 | 鲁姆斯有限公司 | 采用散光光学器件和像差补偿的显示器 |
WO2021081845A1 (zh) * | 2019-10-30 | 2021-05-06 | 未艾医疗技术(深圳)有限公司 | 一种基于vrds ai的肝脏肿瘤和血管分析方法及相关产品 |
US11733761B2 (en) | 2019-11-11 | 2023-08-22 | Intel Corporation | Methods and apparatus to manage power and performance of computing devices based on user presence |
CN110930811B (zh) * | 2019-11-11 | 2020-10-16 | 北京交通大学 | 一种适用于无人驾驶决策学习和训练的系统 |
US12033081B2 (en) | 2019-11-14 | 2024-07-09 | Magic Leap, Inc. | Systems and methods for virtual and augmented reality |
EP4058979A4 (en) | 2019-11-15 | 2023-01-11 | Magic Leap, Inc. | VIEWING SYSTEM FOR USE IN A SURGICAL ENVIRONMENT |
WO2021108327A1 (en) * | 2019-11-26 | 2021-06-03 | Magic Leap, Inc. | Enhanced eye tracking for augmented or virtual reality display systems |
CN110989203A (zh) * | 2019-11-28 | 2020-04-10 | 四川泛华航空仪表电器有限公司 | 一种360度视野的眼镜及其使用方法 |
US20210161596A1 (en) * | 2019-12-02 | 2021-06-03 | SG Devices LLC | Augmented reality display of surgical imaging |
US11227442B1 (en) | 2019-12-19 | 2022-01-18 | Snap Inc. | 3D captions with semantic graphical elements |
US11263817B1 (en) | 2019-12-19 | 2022-03-01 | Snap Inc. | 3D captions with face tracking |
US11886001B2 (en) * | 2019-12-20 | 2024-01-30 | Snap Inc. | Optical waveguide fabrication process |
US11809535B2 (en) | 2019-12-23 | 2023-11-07 | Intel Corporation | Systems and methods for multi-modal user device authentication |
US11360528B2 (en) | 2019-12-27 | 2022-06-14 | Intel Corporation | Apparatus and methods for thermal management of electronic user devices based on user activity |
US11983256B2 (en) * | 2019-12-31 | 2024-05-14 | Atlassian Pty Ltd. | Illumination-based user authentication |
US11687778B2 (en) | 2020-01-06 | 2023-06-27 | The Research Foundation For The State University Of New York | Fakecatcher: detection of synthetic portrait videos using biological signals |
CN114746715A (zh) * | 2020-01-10 | 2022-07-12 | 松下知识产权经营株式会社 | 三维模型生成方法、信息处理装置及程序 |
US11789688B1 (en) | 2020-03-26 | 2023-10-17 | Apple Inc. | Content presentation based on environmental data |
EP4135615A4 (en) * | 2020-04-17 | 2024-08-14 | Activ Surgical Inc | SYSTEMS AND METHODS FOR ENHANCING MEDICAL IMAGES |
US11641460B1 (en) | 2020-04-27 | 2023-05-02 | Apple Inc. | Generating a volumetric representation of a capture region |
US11922581B2 (en) | 2020-05-08 | 2024-03-05 | Coviden Lp | Systems and methods of controlling an operating room display using an augmented reality headset |
CN115461700A (zh) * | 2020-05-11 | 2022-12-09 | 直观外科手术操作公司 | 用于基于区域的呈现增强内容的系统和方法 |
US11317973B2 (en) * | 2020-06-09 | 2022-05-03 | Globus Medical, Inc. | Camera tracking bar for computer assisted navigation during surgery |
US20210390882A1 (en) * | 2020-06-16 | 2021-12-16 | Venu Iyengar | Blind assist eyewear with geometric hazard detection |
CN115803779A (zh) | 2020-06-29 | 2023-03-14 | 斯纳普公司 | 分析增强现实内容使用数据 |
CN111831118B (zh) * | 2020-07-10 | 2022-12-30 | 清华大学 | 一种基于增强现实的三维脑电显示方法及其显示系统 |
KR20220008118A (ko) * | 2020-07-13 | 2022-01-20 | 삼성전자주식회사 | 가상 객체들의 밝기를 다르게 표시하는 방법 및 장치 |
US11816887B2 (en) * | 2020-08-04 | 2023-11-14 | Fisher-Rosemount Systems, Inc. | Quick activation techniques for industrial augmented reality applications |
CN114114518A (zh) | 2020-08-28 | 2022-03-01 | 中强光电股份有限公司 | 光波导、光波导的制作方法以及头戴式显示装置 |
CN112037340A (zh) * | 2020-09-09 | 2020-12-04 | 中电建冀交高速公路投资发展有限公司 | 基于增强现实技术的隧道衬砌病害查看方法及穿戴式设备 |
JP7484613B2 (ja) * | 2020-09-23 | 2024-05-16 | セイコーエプソン株式会社 | 表示制御装置および表示制御プログラム |
US11660022B2 (en) | 2020-10-27 | 2023-05-30 | Snap Inc. | Adaptive skeletal joint smoothing |
US11615592B2 (en) | 2020-10-27 | 2023-03-28 | Snap Inc. | Side-by-side character animation from realtime 3D body motion capture |
US11450051B2 (en) | 2020-11-18 | 2022-09-20 | Snap Inc. | Personalized avatar real-time motion capture |
US11734894B2 (en) | 2020-11-18 | 2023-08-22 | Snap Inc. | Real-time motion transfer for prosthetic limbs |
US11748931B2 (en) | 2020-11-18 | 2023-09-05 | Snap Inc. | Body animation sharing and remixing |
TWI756944B (zh) * | 2020-11-27 | 2022-03-01 | 國立臺北科技大學 | 融合混增實境及虛擬實境之教學系統及其方法 |
CN114721497A (zh) * | 2020-12-22 | 2022-07-08 | 鸿富成精密电子(成都)有限公司 | 基于混合现实的培训方法、电子设备及存储介质 |
US12095975B2 (en) | 2020-12-23 | 2024-09-17 | Meta Platforms Technologies, Llc | Reverse pass-through glasses for augmented reality and virtual reality devices |
WO2022146169A1 (en) * | 2020-12-30 | 2022-07-07 | Ringcentral, Inc., (A Delaware Corporation) | System and method for noise cancellation |
US11831665B2 (en) | 2021-01-04 | 2023-11-28 | Bank Of America Corporation | Device for monitoring a simulated environment |
TW202229978A (zh) * | 2021-01-27 | 2022-08-01 | 美商菲絲博克科技有限公司 | 用於擴增實境和虛擬實境裝置的反向透視眼鏡 |
US11736679B2 (en) * | 2021-01-27 | 2023-08-22 | Meta Platforms Technologies, Llc | Reverse pass-through glasses for augmented reality and virtual reality devices |
US11669159B2 (en) | 2021-03-22 | 2023-06-06 | Microsoft Technology Licensing, Llc | Eye tracker illumination through a waveguide |
CN112734939A (zh) * | 2021-03-23 | 2021-04-30 | 济南浪潮高新科技投资发展有限公司 | 基于ar可穿戴设备和视觉拥挤神经机制的优化显示方法 |
CN113297723B (zh) * | 2021-04-22 | 2022-11-08 | 哈尔滨理工大学 | 基于均值漂移-灰色关联分析的电主轴温度测点优化方法 |
WO2022235886A1 (en) * | 2021-05-07 | 2022-11-10 | Snap Inc. | Virtual tastings and guided tours for augmented reality experiences |
CN113297789B (zh) * | 2021-05-17 | 2024-03-19 | 南京大学 | 一种基于机器学习的声涡旋分束器设计方法 |
CN115373064A (zh) | 2021-05-20 | 2022-11-22 | 中强光电股份有限公司 | 光波导 |
US20220374543A1 (en) * | 2021-05-24 | 2022-11-24 | Samsung Electronics Co., Ltd. | Method and apparatus for removing privacy sensitive objects in an augmented reality system |
KR20230007611A (ko) * | 2021-07-05 | 2023-01-13 | 삼성전자주식회사 | 시력 측정 및 시력 교정을 제공하는 증강 현실 장치 및 방법 |
KR102615906B1 (ko) * | 2021-07-16 | 2023-12-21 | 고려대학교 산학협력단 | 의료 환경의 가상 현실을 구현하기 위한 전자 장치 |
US12096112B2 (en) | 2021-07-29 | 2024-09-17 | Meta Platforms Technologies, Llc | User interface to select field of view of a camera in a smart glass |
WO2023009853A1 (en) * | 2021-07-29 | 2023-02-02 | Meta Platforms Technologies, Llc | User interface to select field of view of a camera in smart glasses |
JP7544001B2 (ja) * | 2021-08-23 | 2024-09-03 | トヨタ自動車株式会社 | 遠隔操作装置、遠隔運転システム、遠隔操作方法及び遠隔操作プログラム |
US11880947B2 (en) | 2021-12-21 | 2024-01-23 | Snap Inc. | Real-time upper-body garment exchange |
US12014465B2 (en) | 2022-01-06 | 2024-06-18 | Htc Corporation | Tracking system and method |
US12114180B2 (en) * | 2022-01-24 | 2024-10-08 | Qualcomm Incorporated | Wireless communication techniques employing beamforming based on spatial relationship to human tissue |
US11741861B1 (en) | 2022-02-08 | 2023-08-29 | Lumus Ltd. | Optical system including selectively activatable facets |
US12005919B2 (en) * | 2022-02-22 | 2024-06-11 | Toyota Research Institute, Inc. | Varying extended reality content based on risk level of a driving environment |
US20230306690A1 (en) * | 2022-03-22 | 2023-09-28 | Snap Inc. | Situational-risk-based ar display |
WO2023205145A1 (en) * | 2022-04-18 | 2023-10-26 | Mobeus Industries, Inc. | Interactive reality computing experience using multi-layer projections to create an illusion of depth |
WO2024145341A1 (en) * | 2022-12-29 | 2024-07-04 | Intuitive Surgical Operations, Inc. | Systems and methods for generating 3d navigation interfaces for medical procedures |
NL2034292B1 (en) * | 2023-03-08 | 2024-09-20 | Angstone B V | See-through device and method for enhanced visual perception |
CN117541471B (zh) * | 2023-11-09 | 2024-06-07 | 西安电子科技大学 | 基于sph启发的pg-spect图像超分辨重建方法 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5913079A (en) * | 1995-07-31 | 1999-06-15 | Canon Kabushiki Kaisha | Optical apparatus having a line of sight detection device |
JP2001013941A (ja) * | 1999-06-30 | 2001-01-19 | Toshiba Corp | 装着型情報呈示装置および方法および記憶媒体 |
JP2002041234A (ja) * | 2000-05-09 | 2002-02-08 | Intel Corp | 凝視の対象を検出する機能を有する微小表示システム |
JP2009288529A (ja) * | 2008-05-29 | 2009-12-10 | Keio Gijuku | 視野領域抽出装置、映像表示装置、視野領域抽出方法、映像表示方法、視野領域抽出プログラム、及び映像表示プログラム |
US20110134124A1 (en) * | 2009-12-03 | 2011-06-09 | International Business Machines Corporation | Vision-based computer control |
JP2014504413A (ja) * | 2010-12-16 | 2014-02-20 | マイクロソフト コーポレーション | 理解および意図に基づく拡張現実表示用コンテンツ |
US20140341473A1 (en) * | 2011-12-06 | 2014-11-20 | Kyungpook National University Industry-Academic Cooperation Foundation | Apparatus and method for enhancing user recognition |
WO2015081313A2 (en) * | 2013-11-27 | 2015-06-04 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
US9096920B1 (en) * | 2012-03-22 | 2015-08-04 | Google Inc. | User interface method |
JP2016509705A (ja) * | 2012-12-19 | 2016-03-31 | クアルコム,インコーポレイテッド | 視線追跡を使用して拡張現実を可能にする |
WO2016062642A1 (en) * | 2014-10-21 | 2016-04-28 | Philips Lighting Holding B.V. | System, method and computer program for hands-free configuration of a luminous distribution |
US20160203359A1 (en) * | 2015-01-12 | 2016-07-14 | BMT Business Meets Technology Holding AG | Wink Gesture Based Control System |
Family Cites Families (90)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6222525B1 (en) | 1992-03-05 | 2001-04-24 | Brad A. Armstrong | Image controllers with sheet connected sensors |
JP3058004B2 (ja) * | 1994-03-23 | 2000-07-04 | キヤノン株式会社 | 目視制御画像表示装置 |
US5670988A (en) | 1995-09-05 | 1997-09-23 | Interlink Electronics, Inc. | Trigger operated electronic device |
JP5904690B2 (ja) | 2003-06-30 | 2016-04-20 | イー インク コーポレイション | 電気光学ディスプレイを駆動するための方法 |
DE10331592A1 (de) * | 2003-07-08 | 2005-02-03 | Carl Zeiss Meditec Ag | Augenuntersuchungsgerät |
JP4281462B2 (ja) * | 2003-08-08 | 2009-06-17 | 日産自動車株式会社 | 車両用表示装置 |
US8778022B2 (en) | 2004-11-02 | 2014-07-15 | E-Vision Smart Optics Inc. | Electro-active intraocular lenses |
US8696113B2 (en) | 2005-10-07 | 2014-04-15 | Percept Technologies Inc. | Enhanced optical and perceptual digital eyewear |
US20070081123A1 (en) | 2005-10-07 | 2007-04-12 | Lewis Scott W | Digital eyewear |
US11428937B2 (en) | 2005-10-07 | 2022-08-30 | Percept Technologies | Enhanced optical and perceptual digital eyewear |
JP5036177B2 (ja) | 2005-12-12 | 2012-09-26 | オリンパス株式会社 | 情報表示装置 |
US20070248261A1 (en) * | 2005-12-31 | 2007-10-25 | Bracco Imaging, S.P.A. | Systems and methods for collaborative interactive visualization of 3D data sets over a network ("DextroNet") |
JP5228307B2 (ja) | 2006-10-16 | 2013-07-03 | ソニー株式会社 | 表示装置、表示方法 |
BRPI0822707A2 (pt) | 2008-07-11 | 2015-07-07 | Tele Atlas Bv | Aparelho para e método de visor de visão de entrocamento |
CN101943982B (zh) * | 2009-07-10 | 2012-12-12 | 北京大学 | 基于被跟踪的眼睛运动的图像操作 |
US8847972B2 (en) * | 2010-01-20 | 2014-09-30 | Intellectual Ventures Fund 83 Llc | Adapting display color for low luminance conditions |
US8482859B2 (en) | 2010-02-28 | 2013-07-09 | Osterhout Group, Inc. | See-through near-eye display glasses wherein image light is transmitted to and reflected from an optically flat film |
EP2383695A1 (en) * | 2010-04-28 | 2011-11-02 | Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V. | Apparent display resolution enhancement for moving images |
US9557812B2 (en) * | 2010-07-23 | 2017-01-31 | Gregory A. Maltz | Eye gaze user interface and calibration method |
US8941559B2 (en) | 2010-09-21 | 2015-01-27 | Microsoft Corporation | Opacity filter for display device |
US9292973B2 (en) * | 2010-11-08 | 2016-03-22 | Microsoft Technology Licensing, Llc | Automatic variable virtual focus for augmented reality displays |
US9304319B2 (en) | 2010-11-18 | 2016-04-05 | Microsoft Technology Licensing, Llc | Automatic focus improvement for augmented reality displays |
CA2822978C (en) | 2010-12-24 | 2019-02-19 | Hong Hua | An ergonomic head mounted display device and optical system |
US10156722B2 (en) | 2010-12-24 | 2018-12-18 | Magic Leap, Inc. | Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality |
DE102011015136A1 (de) * | 2011-03-25 | 2012-09-27 | Institut für Rundfunktechnik GmbH | Vorrichtung und Verfahren zum Bestimmen einer Darstellung digitaler Objekte in einem dreidimensionalen Darstellungsraum |
JP6316186B2 (ja) | 2011-05-06 | 2018-04-25 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 広範囲同時遠隔ディジタル提示世界 |
US8223088B1 (en) | 2011-06-09 | 2012-07-17 | Google Inc. | Multimode input field for a head-mounted display |
US8988474B2 (en) * | 2011-07-18 | 2015-03-24 | Microsoft Technology Licensing, Llc | Wide field-of-view virtual image projector |
US9323325B2 (en) * | 2011-08-30 | 2016-04-26 | Microsoft Technology Licensing, Llc | Enhancing an object of interest in a see-through, mixed reality display device |
US10795448B2 (en) | 2011-09-29 | 2020-10-06 | Magic Leap, Inc. | Tactile glove for human-computer interaction |
US9081177B2 (en) | 2011-10-07 | 2015-07-14 | Google Inc. | Wearable computer with nearby object response |
RU2017115669A (ru) | 2011-10-28 | 2019-01-28 | Мэджик Лип, Инк. | Система и способ для дополненной и виртуальной реальности |
KR102116697B1 (ko) | 2011-11-23 | 2020-05-29 | 매직 립, 인코포레이티드 | 3차원 가상 및 증강 현실 디스플레이 시스템 |
KR102028732B1 (ko) | 2012-04-05 | 2019-10-04 | 매직 립, 인코포레이티드 | 능동 포비에이션 능력을 갖는 와이드-fov(field of view) 이미지 디바이스들 |
US20130300634A1 (en) | 2012-05-09 | 2013-11-14 | Nokia Corporation | Method and apparatus for determining representations of displayed information based on focus distance |
EP2847648A4 (en) | 2012-05-09 | 2016-03-02 | Intel Corp | EYE PERSONALIZED SELECTIVE STRESSING OF PARTS OF AN INDICATION |
US9210413B2 (en) | 2012-05-15 | 2015-12-08 | Imagine Mobile Augmented Reality Ltd | System worn by a moving user for fully augmenting reality by anchoring virtual objects |
US10502876B2 (en) * | 2012-05-22 | 2019-12-10 | Microsoft Technology Licensing, Llc | Waveguide optics focus elements |
US9310559B2 (en) | 2012-06-11 | 2016-04-12 | Magic Leap, Inc. | Multiple depth plane three-dimensional display using a wave guide reflector array projector |
US9671566B2 (en) | 2012-06-11 | 2017-06-06 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
US9219901B2 (en) * | 2012-06-19 | 2015-12-22 | Qualcomm Incorporated | Reactive user interface for head-mounted display |
AU2013315607A1 (en) | 2012-09-11 | 2015-04-02 | Magic Leap, Inc | Ergonomic head mounted display device and optical system |
JP6040715B2 (ja) | 2012-11-06 | 2016-12-07 | ソニー株式会社 | 画像表示装置及び画像表示方法、並びにコンピューター・プログラム |
US9247779B1 (en) * | 2012-11-08 | 2016-02-02 | Peter Aloumanis | Enhanced global positioning system (GPS) based functionality for helmets |
US9812046B2 (en) * | 2013-01-10 | 2017-11-07 | Microsoft Technology Licensing, Llc | Mixed reality display accommodation |
US9395543B2 (en) * | 2013-01-12 | 2016-07-19 | Microsoft Technology Licensing, Llc | Wearable behavior-based vision system |
IL293789B2 (en) | 2013-01-15 | 2023-08-01 | Magic Leap Inc | A system for scanning electromagnetic imaging radiation |
JP6375591B2 (ja) * | 2013-01-15 | 2018-08-22 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、画像表示システム |
US9699433B2 (en) | 2013-01-24 | 2017-07-04 | Yuchen Zhou | Method and apparatus to produce re-focusable vision with detecting re-focusing event from human eye |
GB201301958D0 (en) * | 2013-02-04 | 2013-03-20 | Polyphotonix Ltd | Medical apparatus,system and method |
US9030103B2 (en) | 2013-02-08 | 2015-05-12 | Cree, Inc. | Solid state light emitting devices including adjustable scotopic / photopic ratio |
CN105188516B (zh) | 2013-03-11 | 2017-12-22 | 奇跃公司 | 用于增强和虚拟现实的系统与方法 |
US10109075B2 (en) * | 2013-03-15 | 2018-10-23 | Elwha Llc | Temporal element restoration in augmented reality systems |
KR102458124B1 (ko) | 2013-03-15 | 2022-10-21 | 매직 립, 인코포레이티드 | 디스플레이 시스템 및 방법 |
US9596508B2 (en) * | 2013-03-15 | 2017-03-14 | Sony Corporation | Device for acquisition of viewer interest when viewing content |
US9245388B2 (en) | 2013-05-13 | 2016-01-26 | Microsoft Technology Licensing, Llc | Interactions of virtual objects with surfaces |
US9965062B2 (en) | 2013-06-06 | 2018-05-08 | Microsoft Technology Licensing, Llc | Visual enhancements based on eye tracking |
US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
US9874749B2 (en) | 2013-11-27 | 2018-01-23 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
GB2517143A (en) * | 2013-08-07 | 2015-02-18 | Nokia Corp | Apparatus, method, computer program and system for a near eye display |
KR102165444B1 (ko) | 2013-08-28 | 2020-10-14 | 엘지전자 주식회사 | 증강현실 이미지를 디스플레이하는 포터블 디바이스 및 그 제어 방법 |
IL302408B2 (en) | 2013-10-16 | 2024-09-01 | Magic Leap Inc | An augmented or virtual reality head device with intrapupillary distance adjustment |
WO2015077766A1 (en) * | 2013-11-25 | 2015-05-28 | Pcms Holdings, Inc. | Systems and methods for providing augmenting reality information associated with signage |
US9857591B2 (en) | 2014-05-30 | 2018-01-02 | Magic Leap, Inc. | Methods and system for creating focal planes in virtual and augmented reality |
TWI516804B (zh) * | 2014-01-02 | 2016-01-11 | 廣達電腦股份有限公司 | 頭戴式顯示裝置及其背光調整方法 |
US9766463B2 (en) * | 2014-01-21 | 2017-09-19 | Osterhout Group, Inc. | See-through computer display systems |
US9651784B2 (en) * | 2014-01-21 | 2017-05-16 | Osterhout Group, Inc. | See-through computer display systems |
CN106461955B (zh) | 2014-01-31 | 2019-08-13 | 奇跃公司 | 显示增强现实的方法 |
NZ722903A (en) | 2014-01-31 | 2020-05-29 | Magic Leap Inc | Multi-focal display system and method |
US9639968B2 (en) * | 2014-02-18 | 2017-05-02 | Harman International Industries, Inc. | Generating an augmented view of a location of interest |
US10203762B2 (en) | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US10430985B2 (en) | 2014-03-14 | 2019-10-01 | Magic Leap, Inc. | Augmented reality systems and methods utilizing reflections |
US20160187651A1 (en) | 2014-03-28 | 2016-06-30 | Osterhout Group, Inc. | Safety for a vehicle operator with an hmd |
WO2015161307A1 (en) | 2014-04-18 | 2015-10-22 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
US20150317956A1 (en) * | 2014-04-30 | 2015-11-05 | International Business Machines Corporation | Head mounted display utilizing compressed imagery in the visual periphery |
WO2016018488A2 (en) | 2014-05-09 | 2016-02-04 | Eyefluence, Inc. | Systems and methods for discerning eye signals and continuous biometric identification |
CN113253476B (zh) | 2014-05-30 | 2022-12-27 | 奇跃公司 | 采用虚拟或增强现实装置生成虚拟内容显示的方法和系统 |
US9472023B2 (en) * | 2014-10-06 | 2016-10-18 | Toyota Jidosha Kabushiki Kaisha | Safety system for augmenting roadway objects on a heads-up display |
JP6277933B2 (ja) * | 2014-10-10 | 2018-02-14 | 株式会社デンソー | 表示制御装置、表示システム |
US20160131905A1 (en) | 2014-11-07 | 2016-05-12 | Kabushiki Kaisha Toshiba | Electronic apparatus, method and storage medium |
NZ773826A (en) | 2015-03-16 | 2022-07-29 | Magic Leap Inc | Methods and systems for diagnosing and treating health ailments |
USD758367S1 (en) | 2015-05-14 | 2016-06-07 | Magic Leap, Inc. | Virtual reality headset |
US10241350B1 (en) * | 2015-07-06 | 2019-03-26 | Peter Davis Poulsen | Mapping a central visual field onto a peripheral visual sensor |
AU2016341196B2 (en) | 2015-10-20 | 2021-09-16 | Magic Leap, Inc. | Selecting virtual objects in a three-dimensional space |
WO2017131770A1 (en) * | 2016-01-29 | 2017-08-03 | Hewlett-Packard Development Company, L.P | Viewing device adjustment based on eye accommodation in relation to a display |
CN115177208A (zh) | 2016-05-09 | 2022-10-14 | 奇跃公司 | 用于用户健康分析的增强现实系统和方法 |
US20170353714A1 (en) * | 2016-06-06 | 2017-12-07 | Navid Poulad | Self-calibrating display system |
JP7385993B2 (ja) | 2016-06-20 | 2023-11-24 | マジック リープ, インコーポレイテッド | 視覚的処理および知覚の疾患を含む神経学的疾患の評価および修正のための拡張現実ディスプレイシステム |
KR20230133940A (ko) | 2016-07-25 | 2023-09-19 | 매직 립, 인코포레이티드 | 증강 현실 및 가상 현실 안경류를 사용한 이미징 수정, 디스플레이 및 시각화 |
CN109788901B (zh) | 2016-07-25 | 2024-01-02 | 奇跃公司 | 光场处理器系统 |
-
2017
- 2017-07-24 KR KR1020237030543A patent/KR20230133940A/ko active Application Filing
- 2017-07-24 IL IL298851A patent/IL298851B2/en unknown
- 2017-07-24 CN CN201780059031.6A patent/CN109791295A/zh active Pending
- 2017-07-24 EP EP24157237.9A patent/EP4345831A3/en active Pending
- 2017-07-24 JP JP2019503537A patent/JP7182538B2/ja active Active
- 2017-07-24 US US15/657,589 patent/US10838210B2/en active Active
- 2017-07-24 IL IL292427A patent/IL292427B2/en unknown
- 2017-07-24 CA CA3031771A patent/CA3031771A1/en active Pending
- 2017-07-24 KR KR1020197005428A patent/KR102461953B1/ko active IP Right Grant
- 2017-07-24 KR KR1020227037695A patent/KR102577634B1/ko active IP Right Grant
- 2017-07-24 EP EP17835070.8A patent/EP3488283B1/en active Active
- 2017-07-24 AU AU2017301435A patent/AU2017301435B2/en active Active
- 2017-07-24 WO PCT/US2017/043555 patent/WO2018022523A1/en unknown
-
2019
- 2019-01-20 IL IL264350A patent/IL264350B/en unknown
-
2020
- 2020-02-13 US US16/790,576 patent/US11327312B2/en active Active
-
2021
- 2021-12-16 US US17/644,776 patent/US11808943B2/en active Active
-
2022
- 2022-03-14 JP JP2022039089A patent/JP2022087104A/ja not_active Withdrawn
- 2022-10-11 AU AU2022252723A patent/AU2022252723B2/en active Active
-
2023
- 2023-06-29 IL IL304145A patent/IL304145A/en unknown
- 2023-07-06 JP JP2023111338A patent/JP2023126317A/ja active Pending
- 2023-08-09 AU AU2023214273A patent/AU2023214273B2/en active Active
- 2023-09-27 US US18/475,688 patent/US20240053612A1/en active Pending
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5913079A (en) * | 1995-07-31 | 1999-06-15 | Canon Kabushiki Kaisha | Optical apparatus having a line of sight detection device |
JP2001013941A (ja) * | 1999-06-30 | 2001-01-19 | Toshiba Corp | 装着型情報呈示装置および方法および記憶媒体 |
JP2002041234A (ja) * | 2000-05-09 | 2002-02-08 | Intel Corp | 凝視の対象を検出する機能を有する微小表示システム |
JP2009288529A (ja) * | 2008-05-29 | 2009-12-10 | Keio Gijuku | 視野領域抽出装置、映像表示装置、視野領域抽出方法、映像表示方法、視野領域抽出プログラム、及び映像表示プログラム |
US20110134124A1 (en) * | 2009-12-03 | 2011-06-09 | International Business Machines Corporation | Vision-based computer control |
JP2014504413A (ja) * | 2010-12-16 | 2014-02-20 | マイクロソフト コーポレーション | 理解および意図に基づく拡張現実表示用コンテンツ |
US20140341473A1 (en) * | 2011-12-06 | 2014-11-20 | Kyungpook National University Industry-Academic Cooperation Foundation | Apparatus and method for enhancing user recognition |
US9096920B1 (en) * | 2012-03-22 | 2015-08-04 | Google Inc. | User interface method |
JP2016509705A (ja) * | 2012-12-19 | 2016-03-31 | クアルコム,インコーポレイテッド | 視線追跡を使用して拡張現実を可能にする |
WO2015081313A2 (en) * | 2013-11-27 | 2015-06-04 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
WO2016062642A1 (en) * | 2014-10-21 | 2016-04-28 | Philips Lighting Holding B.V. | System, method and computer program for hands-free configuration of a luminous distribution |
US20160203359A1 (en) * | 2015-01-12 | 2016-07-14 | BMT Business Meets Technology Holding AG | Wink Gesture Based Control System |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022153683A1 (ja) * | 2021-01-15 | 2022-07-21 | ソニーセミコンダクタソリューションズ株式会社 | 画像表示装置及び画像表示方法 |
JP2022133176A (ja) * | 2021-03-01 | 2022-09-13 | ヤフー株式会社 | 情報処理装置、情報処理方法、及び情報処理プログラム |
WO2022202860A1 (ja) * | 2021-03-23 | 2022-09-29 | 国立大学法人 東京大学 | 情報処理システム、情報処理方法及びプログラム |
JP2022147538A (ja) * | 2021-03-23 | 2022-10-06 | 国立大学法人 東京大学 | 情報処理システム、情報処理方法及びプログラム |
JP7345866B2 (ja) | 2021-03-23 | 2023-09-19 | 国立大学法人 東京大学 | 情報処理システム、情報処理方法及びプログラム |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11808943B2 (en) | Imaging modification, display and visualization using augmented and virtual reality eyewear | |
JP7549173B2 (ja) | 医療アシスタント | |
EP3258876B1 (en) | Operating room and surgical site awareness | |
US10197803B2 (en) | Augmented reality glasses for medical applications and corresponding augmented reality system | |
JP5887026B2 (ja) | ヘッドマウントシステム及びヘッドマウントシステムを用いてディジタル画像のストリームを計算しレンダリングする方法 | |
US20220240779A1 (en) | Telemedicine System With Dynamic Imaging | |
RU2642941C2 (ru) | Устройство обработки информации, способ обработки информации и система обработки информации | |
JP2022017422A (ja) | 拡張現実感手術ナビゲーション | |
WO2022219497A1 (en) | Customization of overlaid data and configuration | |
CN109478346A (zh) | 使用虚拟现实头戴式显示器增强的眼科手术体验 | |
EP3570771B1 (en) | Augmented reality for radiation dose monitoring | |
JP2018536933A (ja) | 身体上ジェスチャ・インターフェース及び投影表示のためのシステム及び方法 | |
JP2024155937A (ja) | 拡張現実および仮想現実アイウェアを用いた結像修正、表示、および可視化 | |
Gonzalez | Advanced imaging in head-mounted displays for patients with age-related macular degeneration |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200722 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200722 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210528 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210614 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210914 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211215 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220314 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220627 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220927 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221121 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7182538 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |