CN112955073A - 患者观察系统 - Google Patents
患者观察系统 Download PDFInfo
- Publication number
- CN112955073A CN112955073A CN201980069194.1A CN201980069194A CN112955073A CN 112955073 A CN112955073 A CN 112955073A CN 201980069194 A CN201980069194 A CN 201980069194A CN 112955073 A CN112955073 A CN 112955073A
- Authority
- CN
- China
- Prior art keywords
- tip
- motion
- patient
- image data
- catheter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 118
- 210000001525 retina Anatomy 0.000 claims abstract description 35
- 238000002591 computed tomography Methods 0.000 claims abstract description 26
- 230000033001 locomotion Effects 0.000 claims description 178
- 238000009877 rendering Methods 0.000 claims description 92
- 210000003128 head Anatomy 0.000 claims description 85
- 238000013500 data storage Methods 0.000 claims description 52
- 238000005259 measurement Methods 0.000 claims description 49
- 230000003287 optical effect Effects 0.000 claims description 46
- 238000001514 detection method Methods 0.000 claims description 41
- 238000012545 processing Methods 0.000 claims description 19
- 230000015654 memory Effects 0.000 claims description 18
- 230000008447 perception Effects 0.000 claims description 16
- 238000012937 correction Methods 0.000 claims description 8
- 230000000007 visual effect Effects 0.000 claims description 8
- 230000000694 effects Effects 0.000 claims description 7
- 230000003213 activating effect Effects 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 5
- 238000013480 data collection Methods 0.000 claims 6
- 230000010354 integration Effects 0.000 description 13
- 230000008859 change Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 9
- 210000004072 lung Anatomy 0.000 description 6
- 210000000621 bronchi Anatomy 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 210000001747 pupil Anatomy 0.000 description 5
- 230000029058 respiratory gaseous exchange Effects 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 210000001519 tissue Anatomy 0.000 description 4
- 208000027418 Wounds and injury Diseases 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 210000000038 chest Anatomy 0.000 description 3
- 230000006378 damage Effects 0.000 description 3
- 208000014674 injury Diseases 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000033764 rhythmic process Effects 0.000 description 3
- 238000001356 surgical procedure Methods 0.000 description 3
- 238000002679 ablation Methods 0.000 description 2
- 210000003484 anatomy Anatomy 0.000 description 2
- 230000001746 atrial effect Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 239000004020 conductor Substances 0.000 description 2
- 210000002216 heart Anatomy 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000037361 pathway Effects 0.000 description 2
- 230000036387 respiratory rate Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000001931 thermography Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 206010003658 Atrial Fibrillation Diseases 0.000 description 1
- 208000001034 Frostbite Diseases 0.000 description 1
- 206010047139 Vasoconstriction Diseases 0.000 description 1
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 210000001367 artery Anatomy 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 229910010272 inorganic material Inorganic materials 0.000 description 1
- 239000011147 inorganic material Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 230000005291 magnetic effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 210000004872 soft tissue Anatomy 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 210000000115 thoracic cavity Anatomy 0.000 description 1
- 238000011282 treatment Methods 0.000 description 1
- 230000025033 vasoconstriction Effects 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/54—Control of apparatus or devices for radiation diagnosis
- A61B6/547—Control of apparatus or devices for radiation diagnosis involving tracking of position of the device or parts of the device
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0033—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
- A61B5/0037—Performing a preliminary scan, e.g. a prescan for identifying a region of interest
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
- A61B5/061—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
- A61B5/065—Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
- A61B5/065—Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
- A61B5/066—Superposing sensor position on an image of the patient, e.g. obtained by ultrasound or x-ray imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6846—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive
- A61B5/6847—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive mounted on an invasive device
- A61B5/6852—Catheters
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
- A61B5/743—Displaying an image simultaneously with additional graphical information, e.g. symbols, charts, function plots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/022—Stereoscopic imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
- A61B6/032—Transmission computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/46—Arrangements for interfacing with the operator or the patient
- A61B6/461—Displaying means of special interest
- A61B6/464—Displaying means of special interest involving a plurality of displays
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/46—Arrangements for interfacing with the operator or the patient
- A61B6/461—Displaying means of special interest
- A61B6/466—Displaying means of special interest adapted to display 3D data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5205—Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2560/00—Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
- A61B2560/06—Accessories for medical measuring apparatus
- A61B2560/063—Devices specially adapted for delivering implantable medical measuring apparatus
- A61B2560/066—Devices specially adapted for delivering implantable medical measuring apparatus catheters therefor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2562/00—Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
- A61B2562/02—Details of sensors specially adapted for in-vivo measurements
- A61B2562/0219—Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B6/00—Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
- G02B6/0001—Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems
- G02B6/0011—Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being planar or of plate-like form
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Surgery (AREA)
- Public Health (AREA)
- Biophysics (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Pathology (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- High Energy & Nuclear Physics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Pulmonology (AREA)
- Gynecology & Obstetrics (AREA)
- Quality & Reliability (AREA)
- Computer Graphics (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Processing Or Creating Images (AREA)
- Endoscopes (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
描述了一种用于观察患者的方法,该方法包括插入导管以进行健康过程导航。在患者的身体部位上执行CT扫描。处理来自CT扫描的原始数据以创建三维图像数据,并将图像数据存储在数据存储器中。投影仪接收表示图像数据的图案中所生成的光,并且波导将光引导到观察者的眼睛的视网膜,而来自身体的外表面的光发送到眼睛的视网膜,以使得观察者看到用处理数据渲染的身体部位而增强的身体的外表面。
Description
相关申请的交叉引用
本申请要求于2018年8月22日提交的美国临时专利申请序列号62/721,516和于2018年11月26日提交的美国临时专利申请序列号62/771,534的优先权,其各自通过引用全部并入在此。
技术领域
本发明涉及患者观察系统。
背景技术
外科医生、医生和其他观察者使用内窥镜导管来捕获患者体内的身体部位的图像。例如,支气管镜是用于检查节段性支气管的内窥镜导管。导管还具有其它功能,诸如其它内窥镜观察功能,以治疗疾病或执行外科手术。
因为通过最少或没有侵入性手术将导管的尖端插入患者的身体内,所以观察者无法用肉眼看到导管的尖端的位置。为了帮助观察者,屏幕提供了图像的组合。这些图像通常包括术前和术中生成的计算机断层扫描(CT)图像,以及来自导管尖端中的导管相机的实况视频数据。这些图像通常在显示器的不同象限中提供。
就支气管而言,所有支气管隧道看起来都是相同的。结果,观察者经常猜测支气管当前正在导航到哪里。此类观察者在将支气管镜推过支气管时经常会进行多次CT扫描,以确定它们在肺中的位置。
发明内容
本发明提供了一种患者观察系统,其包括:具有内腔和尖端的导管,检测尖端运动的尖端跟踪设备,左投影仪和右投影仪,被连接到左投影仪和右投影仪的左光波导和右光波导,处理器,被连接到处理器的计算机可读介质,计算机可读介质上的数据存储器,以及存储在计算机可读介质上并且可由处理器执行的指令集。该指令集可以包括:1)导管跟踪系统,其被连接到尖端跟踪设备并且接收基于由尖端跟踪设备检测到的运动的测量,并且基于该测量确定尖端的位置并将尖端的位置存储在数据存储器中,以及2)连接到数据存储器以接收图像数据的立体分析器,该立体分析器确定左图像数据集和右图像数据集,左投影仪和右投影仪分别投影左图像数据集和右图像数据集,左图像数据集和右图像数据集彼此不同以对观察者提供三维渲染的感知。
本发明还提供一种观察患者的方法,该方法包括:将导管的尖端插入患者的身体内;用尖端跟踪设备检测尖端的运动;接收基于由尖端跟踪设备检测到的运动的测量;基于测量来确定尖端的位置;存储尖端的位置;基于尖端的位置确定左图像数据集和右图像数据集;使用分别投影左图像数据集和右图像数据集的左投影仪和右投影来生成仪表示尖端的位置的图案中的光作为光;以及将光引导至观察者的左眼和右眼的视网膜,以使得观察者看到尖端的位置,左图像数据集和右图像数据集彼此不同以对观察者提供三维渲染的感知。
本发明还提供了一种患者观察系统,其包括:具有内腔和尖端的导管,检测尖端运动的尖端跟踪设备,投影仪,连接到投影仪的光波导,处理器,连接到处理器的计算机可读介质,计算机可读介质上的数据存储器,以及存储在计算机可读介质上并且可由处理器执行的指令集。该指令集可以包括:1)导管跟踪系统,其被连接到尖端跟踪设备,并接收基于由尖端跟踪设备检测到的运动的测量,并且基于测量确定尖端的位置,并将尖端的位置存储在数据存储器中;2)过去路径计算器,其将尖端的过去路径存储在数据存储器中;以及3)导管显示集成器,该导管显示集成器将尖端的过去路径与尖端的位置一起显示。
本发明还提供一种观察患者的方法,该方法包括:将导管的尖端插入患者的身体内;用尖端跟踪设备检测尖端的运动;接收基于由尖端跟踪设备检测到的运动的测量;基于测量确定尖端的位置;存储尖端的位置;基于尖端的位置确定左图像数据集和右图像数据集;使用分别投影左图像数据集和右图像数据集的左投影仪和右投影来生成仪表示尖端的位置的图案中的光作为光;以及将光引导至观察者的左眼和右眼的视网膜,以使得观察者看到尖端的位置,左图像数据集和右图像数据集彼此不同以对观察者提供三维渲染的感知;将尖端的过去路径存储在数据存储器中;以及将尖端的过去路径与尖端的位置一起显示。
本发明还提供了一种患者观察系统,其包括:具有内腔和尖端的导管,检测尖端运动的尖端跟踪设备,投影仪,连接到投影仪的光波导,处理器,连接到处理器的计算机可读介质,计算机可读介质上的数据存储器,以及存储在计算机可读介质上并且可由处理器执行的指令集。该指令集可以包括:1)导管跟踪系统,其被连接到尖端跟踪设备并接收基于由尖端跟踪设备检测到的运动的测量,并且基于该测量确定尖端的位置并将尖端的位置存储在数据存储器中;2)预期路径计算器,其基于尖端的位置来计算尖端的未来路径,导管显示集成器显示该未来路径,以及3)导管显示集成器,该导管显示集成器将尖端的未来路径与尖端的位置一起显示。
本发明还提供一种观察患者的方法,该方法包括:将导管的尖端插入患者的身体内;用尖端跟踪设备检测尖端的运动;接收基于由尖端跟踪设备检测到的运动的测量;基于测量来确定尖端的位置;存储尖端的位置;基于尖端的位置来确定左图像数据集和右图像数据集;使用分别投影左图像数据集和右图像数据集的左投影仪和右投影来生成仪表示尖端的位置的图案中的光作为光;将光引导至观察者的左眼和右眼的视网膜,使得观察者看到尖端的位置,左图像数据集和右图像数据集彼此不同以对观察者提供三维渲染的感知;基于尖端的位置来计算尖端的未来路径;以及将尖端的未来路径与尖端的位置一起显示。
本发明还提供了一种患者观察系统,其包括:发射机;能量源,其被连接到发射机以激活发射机,患者的身体相对于发射机可定位,以使发射机在身体内的身体部位处生成前向波;接收机,其相对于身体可定位以检测来自身体部位的返回波,来自身体部位的返回波是对由发射机产生的前向波的响应,处理器;计算机可读介质,其被连接到处理器;数据存储器,其位于计算机可读介质上;以及指令集,其被存储在计算机可读介质上并且可由处理器执行。该指令集可以包括:1)原始数据接收单元,其接收由接收机检测的返回波的原始数据,并将原始数据存储在数据存储器中;2)图像生成单元,其被连接到数据存储器,以处理返回波的原始数据以创建表示图像的图像数据,并将图像数据存储在数据存储器中;3)图像数据接收单元,其从数据存储器接收图像数据;4)投影仪,其被连接到图像数据接收单元以接收图像数据,该投影仪生成表示图像数据的图案中的光,以及5)连接到投影仪的光波导,其将光引导到观察者的眼睛的视网膜,而来自身体的外表面的光发送到眼睛的视网膜,使得观察者看到通过渲染身体部位而增强的身体的外表面。
本发明还提供了一种观察患者的方法,该方法包括:激活发射机以在身体内的身体部位处生成前向波;用接收机检测来自身体部位的返回波,来自身体部位的返回波是对由发射机产生的前向波的响应;接收由接收机检测的返回波的原始数据;将原始数据存储在数据存储器中;处理返回波的原始数据以创建表示图像的图像数据;将图像数据存储在数据存储器中;从数据存储器接收图像数据;生成表示图像数据的图案中的光;以及将光引导至观察者的眼睛的视网膜,而来自身体的外表面的光发送到眼睛的视网膜,使得观察者看到通过渲染身体部位而增强的身体的外表面。
附图说明
参考附图,通过示例的方式还描述了本发明,在附图中:
图1是根据本发明的实施例的患者观察系统的框图;
图2是根据一些实施例的形成患者观察系统的一部分的CT扫描仪、数据接收单元、图像生成单元和数据存储器的局部透视图和局部框图;
图3是根据一些实施例的形成患者观察系统的一部分的显示系统、导管和数据存储器的局部透视图和局部框图;
图4是根据一些实施例的示出形成图3中的显示系统的一部分的导管集成系统的框图,并且还示出了导管;
图5是根据一些实施例的示出外科医生形式的观察者的透视图,该观察者看到患者的身体以及患者体内的身体部位的渲染,并且还看到导管尖端和尖端的过去路径的渲染;
图6是根据一些实施例的图5的顶视图;
图7是根据一些实施例的由观察者看到的视图;
图8是根据一些实施例的在观察者围绕患者的身体逆时针移动并且已经逆时针移动他们的头部以保持看到患者的身体之后的类似于图6的视图;
图9是示出根据一些实施例的如何在视图内修改患者的身体和渲染的类似于图7的视图;
图10根据一些实施例以放大的细节示出在图7和图9中向观察者示出的渲染;
图11是根据一些实施例的由图7和图9中的观察者看到的视图的一部分的放大图;
图12是根据一些实施例的由图7和图9的视图中的观察者看到的实况视频数据和网格的放大图;
图13是示出根据一些实施例的三个自由度的导管的尖端的运动以及从第一位置到第二位置运动了第一量的曲线图;
图14是根据一些实施例的处于第一位置的导管的尖端的视图;
图15是根据一些实施例的处于第二位置的导管的视图;
图16是示出根据一些实施例的延伸穿过内腔的路径和不延伸穿过内腔以避免伤害的路径的类似于图16的视图;
图17是示出根据一些实施例的尖端的计算出的未来路径的类似于图16的视图,该尖端的未来路径被显示为向观察者的三维渲染;
图18是根据本发明的一个实施例的可以在本发明的系统中找到应用的计算机形式的机器的框图;以及
图19示出根据本发明的一个实施例的根据患者观察到的位置变化来调节医疗器械输入的时序关系。
具体实施方式
附图中的图1示出根据本发明的实施例的患者观察系统20,其包括CT扫描仪22、数据存储器24、导管26和显示系统28。
数据存储器24被连接到CT扫描仪22。来自CT扫描仪22的原始数据可以被存储在数据存储器24中。数据存储器24还存储基于原始数据的图像数据。
显示系统28被连接到数据存储器24,以能够从数据存储器24取得图像数据。导管26被连接到显示系统28,以使得显示系统28可以从导管26中取得测量和视频数据,以进行进一步处理或显示给观察者。
在使用中,患者位于CT扫描仪22的工作站(station)32处。用CT扫描仪22扫描患者的身体30,以获得CT扫描仪22存储在数据存储器24中的原始数据。然后处理原始数据以获得3D图像数据。
将患者从CT扫描仪22处的工作站32转移到显示系统28处的工作站34。观察者使用显示系统28来观察患者的身体30。显示系统28还从数据存储器24取得图像数据。观察者使用显示系统28以3D渲染患者的身体30的形式来观察图像。观察者将导管26插入身体30。显示系统28从导管26的尖端取得数据,以进行进一步处理或显示给观察者。
图2示出根据一些实施例的患者观察系统20的组件,包括CT扫描仪22、数据存储器24、能量源36、数据接收单元38和图像生成单元40。
CT扫描仪22包括基座42、平台44、转子46、x射线发射机48和多个x射线检测器50。
平台44通过允许平台44相对于基座42平移运动的机构(未示出)被固定至基座42。诸如步进电机(未示出)的致动器可操作以引起平台44相对于基座42的平移运动。
转子46具有开口52。x射线发射机48在开口52的一侧上被固定到转子46,并且x射线检测器50在开口52的相对侧上被固定到转子46。转子46围绕平台44被安装到基座42。平台44在其平移运动期间相对于开口52移动。马达(未示出)被连接在基座42与转子46之间,并且可操作以使转子46围绕平台44旋转。
能量源36可以通过开关54被连接到x射线发射机48。x射线检测器50可以连接到数据接收单元38。数据接收单元38可以是驻留在计算机的计算机可读介质上的软件单元。数据存储器24驻留在计算机可读介质上。计算机可读介质可以是单个计算机可读介质,或者可以在一个个人计算机或在网络上彼此连接的多个个人计算机内分开。数据接收单元38直接或通过网络连接到数据存储器24。
图像生成单元40可以是驻留在计算机可读介质上的计算机程序。图像生成单元40直接地或通过网络连接到数据存储器24。
在使用中,CT扫描仪22的操作者将患者的身体30放在平台44上。然后,接通连接在基座42与转子46之间的马达,使得转子46围绕平台44和患者的身体30在方向58上旋转。操作者还接通马达,该马达使平台44相对于基座42在平移方向上移动,使得平台44相对于转子46在方向60上移动。然后,操作者连接能量源36与x射线发射机48之间的开关54,以激活x射线发射机48。然后,x射线发射机生成前向x射线波62。
患者的身体30相对于x射线发射机48定位,使得前向x射线波62穿透身体30到达身体30内的身体部位(未示出)。出于本示例的目的,被扫描的身体部位是患者的肺部。肺部有许多支气管,导管可以行进通过该支气管。导管也可能行进通过血液循环系统的心脏、动脉和静脉等中的中空通道。在此所述的系统也可用于观察内部身体部位,而无需使用导管进行视觉、手术或干预,例如观察腹部内的生长情况,分析膝盖的内部功能等。身体部位降低前向x射线波62的能量。身体部位内的不同材料以不同的量来降低能量。x射线检测器50之一相对于身体30定位,以检测从身体部位返回x射线波64。来自身体部位的返回x射线波64响应于前向x射线波62而被检测到,并且实质上是由于被身体部位减小功率而具有减小的功率的前向x射线波62。还示出了进一步前向x射线波66。进一步x射线波在前向x射线波62与66之间生成,并由x射线检测器50中的相应的x射线检测器检测。以该方式,从身体部位的不同部分接收返回x射线波。
x射线发射机48和x射线检测器50与转子46一起围绕患者的身体30内的身体部位旋转。以该方式,可以从不同角度扫描身体部位以创建解剖结构的二维“切片”。CT扫描能够示出骨骼、器官、软组织。通过在方向60上移动平台44来获取随后的切片。因此,每个切片表示二维数据,并且这些切片一起表示身体部位的三维数据。
数据接收单元38从x射线检测器50接收返回x射线波64的原始数据。原始数据包括x射线发射机48相对于患者的身体30内身体部位的角度、每个x射线检测器50所检测到的能量、每个x射线检测器50的位置、以及平台44的位置之间的时间顺序相关性。数据接收单元38将原始数据存储为由x射线检测器50检测到的返回x射线波的原始数据68。
当收集到足够的身体部位的原始数据68时,操作者断开开关54并停止平台44。然后,操作者停止转子46并将患者从平台44移开。
图像生成单元40从数据存储器24中取得原始数据68。图像生成单元40基于原始数据68生成图像数据。图像数据包括身体部位的三维渲染。然后,图像生成单元40将图像数据作为图像数据70存储在数据存储器24中。数据存储器24可以是单个数据存储器,或者可以在平台之间分布,并且因此,原始数据68和图像数据70可以位于个人计算机内的单个数据存储器中,或位于多个个人计算机内的多个数据存储器内。
图3根据一些实施例更详细地示出患者观察系统20的组件,并且示出数据存储器24(保存图像数据70)、导管26和显示系统28。
导管26包括内腔76和附接到内腔76的端部的尖端78。内腔是形成导管26的大部分长度的细长构件(例如,管状部分的腔)。内腔76包括机构(未示出),该机构可操作以在至少四个正交方向和正交方向之间的所有方向上移动尖端78。因此,尖端78可利用内腔76中的机构来操纵。内腔具有足够大的中空孔(bore),以容纳用于将尖端与可以通过内腔76将来自尖端的信号中继到显示系统28所需的任何电缆和/或光纤一起操纵的机构。
导管26还包括固定到尖端78的导管惯性运动单元(IMU)80和导管相机82。导管IMU80可以例如是半导体芯片,该半导体芯片具有形成在其中的多个测量设备。测量设备包括一个或多个陀螺仪以及一个或多个加速度计。来自陀螺仪和加速度计的测量单独或组合地提供指示尖端78运动的数据。可以在六个自由度中跟踪此类运动,例如,在x、y和z方向上的平移以及围绕x、y和z轴的旋转。
导管相机82在尖端78的与内腔76相对的一侧上具有透镜(未示出)。导管相机82被定位成在尖端78前面的区域中(即在与内腔76相对的一侧)捕获实况视频数据形式的图像。在相机尖端的不同侧可能有多个光源和多个相机,但是为便于讨论,我们假设只有单个相机,例如导管远端上的内置相机和光源。
显示系统28包括头戴式框架86、左投影仪88A和右投影仪88B、左波导90A和右波导90B、检测设备92和视觉算法94。左投影仪88A和右投影仪88B、左波导90A和右波导90B以及检测设备92被固定到头戴式框架86。头戴式框架86被成形为安装到观察者的头部。头戴式框架86的组件可例如包括围绕观察者的头部的后部缠绕的带子(未示出)。
左投影仪88A和右投影仪88B连接到电源。每个投影仪88A或88B具有用于将图像数据提供给相应的投影仪88A或88B的相应输入。相应的投影仪88A或88B在通电时生成二维图案中的光并从中发出光。左波导90A和右波导90B被定位成分别接收来自左投影仪88A和右投影仪88B的光。左波导90A和右波导90B是透明波导。
检测设备92包括头部单元IMU 100和一个或多个头部单元相机102。头部单元IMU100包括一个或多个陀螺仪和一个或多个加速度计。陀螺仪和加速度计通常形成在半导体芯片中,并且能够检测头部单元IMU 100和头戴式框架86的运动,包括沿三个正交轴的运动以及围绕三个正交轴的旋转。
头部单元相机102从头戴式框架86周围的环境连续捕获图像。可以将图像彼此比较以检测头戴式框架86和观察者的头部的运动。
视觉算法94包括图像数据接收单元106、显示定位算法108、导管集成系统110、显示调节算法112、图像处理系统114和立体分析器116。图像数据接收单元106通过直接连接或通过网络连接到数据存储器24。视觉算法94的组件通过子例程或调用彼此链接。通过此类子例程和调用,图像数据接收单元106经由显示定位算法108链接到立体分析器116。
导管集成系统110可以通过内腔76中的导体连接到导管IMU 80和导管相机82。本领域的普通技术人员将理解,视觉算法94驻留在计算系统上,并且导管集成系统110从导管相机82和导管IMU 80接收信号,并且该信号可以从模拟或数字数据转换为计算机软件数据。导管集成系统110可以通过子例程或调用连接到立体分析器116。
显示调节算法112和图像处理系统114分别连接到头部单元IMU 100和头部单元相机102。此类连接是通过导体,并且如果适用,还可以通过将模拟或数字数据转换为计算机软件数据的转换器(inverter)进行。显示调节算法112可以通过子例程和调用连接到显示定位算法108。图像处理系统114可以通过调用和子例程被连接到显示调节算法112。
在使用中,观察者将头戴式框架86安装到他们的头部。左波导90A和右波导90B然后位于观察者的左眼120A和右眼120B的前面。
图像数据接收单元106从数据存储器24中取得图像数据70,并将图像数据70提供给显示定位算法108。显示定位算法108将图像数据70输入到立体分析器116中。图像数据70是如上所述的身体部位的三维图像数据。立体分析器116分析图像数据70,以基于图像数据70确定左图像数据集和右图像数据集。左图像数据集和右图像数据集是表示彼此略有不同以对观察者提供三维渲染的感知的二维图像的数据集。图像数据70是不随时间推移变化的静态数据集。
立体分析器116将左图像数据集和右图像数据集输入到左投影仪88A和右投影仪88B。然后,左投影仪88A和右投影仪88B创建左光图案122A和右光图案122B。在平面图中示出了显示系统28的组件,并且在正视图中示出左光图案122A和右光图案122B。每个光图案122A和122B包括多个像素。为了说明的目的,示出了来自像素中的两个像素的光线124A和126A离开左投影仪88A并进入左波导90A。光线124A和126A从左波导90A的侧面反射。示出了光线124A和126A通过内部反射在左波导90A内从左向右传播,但是应当理解,光线124A和126A也使用折射和反射系统沿一定方向传播到纸面中。光线124A和126A通过光瞳(pupil)128A离开左光波导90A,并且然后通过左眼的瞳孔130A进入左眼120A。然后,光线124A和126A落在左眼120A的视网膜132A上。以该方式,左光图案122A落在左眼120A的视网膜132A上。给观察者的感觉是,形成在视网膜132A上的像素是观察者感知到的位于左波导90A的与左眼120A相对的一侧上的某个距离处的像素134A和136A。
以类似的方式,立体分析器116将右图像数据集输入到右投影仪88B中。右投影仪88B发送右光图案122B,该右光图案122B由光线124B和126B形式的像素表示。光线124B和126B在右波导90B内反射并通过光瞳128B离开。光线124B和126B然后通过右眼120B的瞳孔130B进入并且落在右眼120B的视网膜132B上。光线124B和126B的像素被感知为右光波导90B后面的像素134B和136B。
在视网膜132A和132B上创建的图案被分别感知为在正视图前面示出的左图像140A和右图像140B。由于立体分析器116的功能,左图像140A和右图像140B彼此略有不同。在观察者的头脑中,左图像140A和右图像140B被视为三维渲染。
如上所述,左波导90A和右波导90B是透明的。来自左波导90A和右波导90B的与眼睛120A和120B相对的一侧上的真实对象的光可以穿过左波导90A和右波导90B投射并落在视网膜132A和132B上。特别地,来自患者的身体30的表面的光落在视网膜132A和132B上,使得观察者可以看到患者的身体30的表面。创建增强现实,其中,由于由观察者组合感知的左图像140A和右图像140B,因此观察者看到的患者的身体30的表面被观察者感知的三维渲染增强。
头部单元IMU 100检测观察者的头部的每一个运动。例如,如果观察者围绕患者的身体30逆时针移动并同时逆时针旋转其头部以继续观察患者的身体30,则此类运动将被头部单元IMU 100中的陀螺仪和加速度计检测到。头部单元IMU 100将来自陀螺仪和加速度计的测量提供给显示调节算法112。显示调节算法112计算放置值,并将该放置值提供给显示定位算法108。显示定位算法108修改图像数据70以补偿观察者的头部的运动。显示定位算法108将修改的图像数据70提供给立体分析器116以显示给观察者。
头部单元相机102随着观察者移动其头部而连续捕获图像。图像处理系统114通过识别图像内的对象的图像来分析图像。图像处理系统114分析对象的运动以确定头戴式框架86的姿势位置。图像处理系统114将姿势位置提供给显示调节算法112。显示调节算法112使用姿势位置来进一步细化显示调节算法112提供给显示定位算法108的放置值。显示定位算法108因此基于头部单元IMU 100中的运动传感器与由头部单元相机102拍摄的图像的组合来修改图像数据70。
在观察者将尖端78插入患者的身体30中之前,导管集成系统110可以检测导管26的尖端78的位置。观察者随后将尖端78插入患者的身体30中。然后,尖端78对于观察者是不可见的。导管IMU 80向导管集成系统110提供指示尖端78的每个运动的信号。导管集成系统110因此可以使用导管IMU 80中的运动传感器来跟踪尖端78的位置。与静态的图像数据70不同,尖端78的位置随时间推移变化。导管集成系统110将尖端78的位置提供给立体分析器116。尖端78的位置可以是动态的,因为其随时间推移变化并且在三维上移动。立体分析器116将尖端78定位在插入左投影仪88A和右投影仪88B中的左图像数据集和右图像数据集中。观察者因此可以看到在左图像140A和右图像140B内的尖端78的位置。尖端78的位置在左图像140A和右图像140B内略有变化,使得观察者以三维感知尖端78的位置。当尖端78穿过患者的身体30时,由左图像140A和右图像140B提供的尖端78的位置的渲染随时间推移改变。尖端78的位置的此类运动随着三维中渲染变化,使得观察者将尖端78的渲染感知为在三维上移动,即向左、向右、向上、向下、向前、向后等。
导管相机82继续捕获视频数据并将视频数据提供给导管集成系统110。导管集成系统110将视频数据提供给立体分析器116。除非或直到检测到指示位置应当改变的用户交互事件,否则立体分析器116将视频数据放置在观察者的视野内的固定位置。视频数据随时间推移而变化,因为导管相机82会捕获不同的图像。
视觉算法94是与数据存储器24一起存储在计算机可读介质上的指令集。指令集可由处理器执行以执行上述方法。存储视觉算法94的计算机可读介质可以位于观察者佩戴的腰包上。
图4更详细地示出患者观察系统20的组件,特别是导管集成系统110的组件,以及它们与尖端78中的导管IMU 80和导管相机82以及立体分析器116的关系。
导管集成系统110包括导管跟踪系统150、过去路径计算器152、网格生成器154、预期路径计算器156、视频数据接收单元158和导管显示集成器160。导管跟踪系统150被连接到导管IMU 80。导管跟踪系统150基于由导管IMU 80检测的运动来计算尖端78的位置。导管IMU 80包括多个尖端跟踪设备,包括多个陀螺仪和加速计,以在六个自由度中跟踪其运动。导管跟踪系统150将尖端78的当前位置作为位置162存储在数据存储器24中。导管跟踪系统150继续监控导管IMU 80,继续计算尖端78的当前位置,并继续将尖端78的当前位置作为当前位置162存储在数据存储器24中。
导管显示集成器160从数据存储器24接收当前位置162,并将当前位置162提供给立体分析器116。立体分析器116向观察者显示尖端78的当前位置162作为渲染,使得观察者可以看到尖端78的位置作为三维渲染。
过去路径计算器152在每个时间点从数据存储器24中取得每个位置162。过去路径计算器152以三维计算尖端78的过去路径,并且将过去路径作为过去路径164存储在数据存储器24中。导管显示集成器160从数据存储器24接收过去路径164,并将过去路径164提供给立体分析器116。立体分析器116将过去路径164作为三维渲染显示给观察者。
网格生成器154从数据存储器中取得过去路径164,并围绕过去路径164生成三维网格。网格生成器154然后将网格作为网格166存储在数据存储器24中。导管显示集成器160从数据存储器24取得网格166,并将网格166提供给立体分析器116。立体分析器116将网格166显示给观察者。立体分析器116创建网格166的三维渲染,在一些实施例中,网格166覆盖过去路径164。
预期路径计算器156从数据存储器24取得尖端78的每个位置162,并基于从数据存储器24取得的位置162和过去位置来计算尖端78的未来路径。预期路径计算器156然后将未来路径作为未来路径168存储在数据存储器24中。导管显示集成器160从数据存储器24中取得未来路径168,并将未来路径168提供给立体分析器116。立体分析器116向观察者显示未来路径168作为三维渲染。
视频数据接收单元158从导管相机82接收实况视频。视频数据接收单元158将实况视频数据提供给导管显示集成器160。导管显示集成器160将实况视频数据提供给立体分析器116。立体分析器116将实况视频数据显示给观察者。实况视频数据是二维显示,该二维显示在三维空间中以某些预定距离显示给观察者。导管显示集成器还将网格166与来自视频数据接收单元158的视频数据集成在一起,使得将网格166显示在视频数据上。随着视频数据改变,随着导管26在患者的身体30内的位置的改变,网格166也相应地改变。
图5示出根据一些实施例的由观察者172以外科医生的形式在上文中描述的患者观察系统20的使用,该外科医生使用导管26作为支气管镜,目的是检查包括患者肺部中段性支气管的身体部位174。
观察者172可以通过左波导90A和右波导90B看到患者的身体30。身体部位174在患者的身体30内侧,因此观察者看不到真实的(即物理的)身体部位174。
观察者172还看到基于如上所述的图像数据70的三维渲染176。在特定实施例中,渲染176位于患者的身体30旁边。渲染176包括在图中以示出观察者172相对于患者的身体30感知渲染176的位置,但是应当理解,从该文档的阅读者的角度来看,渲染176确实在真实世界中不存在。插入180示出观察者172可以看到身体部位174的三维渲染182作为渲染176的一部分。
观察者172将导管26的尖端78插入患者的嘴中。然后,观察者172使尖端78前进到身体部位174中。如上所述,在时间上紧密间隔的情况下,监控尖端78的位置,并且其过去路径被存储为三维。采样时间可取决于使用情况而变化,并且可能会进行优化,诸如仅在内窥镜位于患者身体内部时或在用户激活“开始记录/采样”功能后才捕获数据。插入184示出渲染176包括三维的尖端78的位置的渲染186和三维的尖端78的过去路径的渲染188。渲染182、186和188可以同时显示给观察者172,使得观察者看到渲染182内的渲染186和188。
图6是示出根据一些实施例的观察者172相对于患者的身体30的位置的顶视图,并且还示出渲染176在观察者172的视野内的位置。基于用户偏好、预编程的默认设置或任何其它合适的手段,可以将渲染176放置在相对于患者的身体30的任何位置。患者的身体30在图6中相对于渲染176的特定相对位置仅出于说明的目的,绝不应认为是限制性的。
图7根据一些实施例示出由图6中的观察者172看到的视图192。观察者172可以看到患者的实际身体30和渲染176。视图192还包括基于由图4中的导管相机82捕获的视频数据的实况视频。视图192还示出覆盖视频194的网格196。网格196是图4中网格166的显示。
根据一些实施例,在图8中,观察者172已围绕患者身体30逆时针移动,并且还逆时针旋转其头部以继续观察患者的身体30。显示调节算法112检测观察者172的头部的运动并相应地调节渲染176的位置,使得渲染176在观察者172的视野内看起来相对于患者的身体30保持静止。
根据一些实施例中,在图9中,患者的身体30已经相对于图7顺时针旋转。渲染176还已经顺时针旋转,使得它相对于患者的身体30保持静止。然而,实况视频194的位置并未从图7中的视图192改变为图9中的视图192。因此,观察者172在相同位置中看到实况视频194和网格196,并且这些部件不会在观察者172的头部运动时移动。因此,观察者172可以从不同侧和角度观察患者的身体30和渲染176,而不会忽略实况视频194和网格196。网格196的目的可以是当在网格产生之后在观察者172第二次将尖端78插入身体部位174的通道中时,或者在随着导管在相反方向上移动通过相同路径而移除导管期间,协助观察者引导导管26的尖端78。一些实施例对于虚拟内容(例如,网格196、实况视频194、渲染176)可以具有不同的观察配置,其中一些或全部虚拟内容相对于真实世界坐标是固定的,或者相对于观察者是固定的。
图10根据一些实施例示出显示给观察者的渲染176的部件太小而无法在图7和图9的视图中看到。观察者172看到身体部位174、尖端78和尖端的过去路径的渲染182、186和188。观察者还看到了网格196的三维渲染。出于说明的目的,网格196被示出为与渲染182、186和188分离,但是应当理解网格196可以覆盖身体部位174的渲染182。
如图11和图12中所示,在一些实施例中,观察者172在两个位置中看到网格196,即作为渲染176(图11)的一部分并覆盖实况视频194(图12)。
图13示出根据一些实施例的图4中的预期路径计算器156的功能。该曲线图示出导管26的尖端78随时间推移围绕x-y轴和x轴旋转。可以在短时间量内分析围绕每个轴的旋转,以确定从第一位置202到第二位置204的第一运动量200。第一运动量200可以用于计算对尖端78的运动的预测。
图14示出根据一些实施例的处于第一位置202的尖端78。根据一些实施例,在图15中,尖端78已经从第一位置202移动到第二位置204达第一量200。图15中示出的第一量200是围绕所有轴并且在所有平移方向上的所有运动的所有矢量的总和。
在图14中,可以假设,如果将尖端78进一步插入身体部位174中,则尖端78将遵循的方向沿着内腔76的延伸206。图16示出根据一些实施例在内腔76已经移动了第一量200之后的内腔76的延伸208。观察者通常将不会沿着延伸208的路径推进尖端78,因为它将与身体部位174接触并造成伤害。取而代之的是,观察者172将更喜欢沿着路径210以便避免伤害。路径210从第二位置204到第三位置214移位了第二量212。为了便于参考,在相同方向上测量了第一量200和第二量212。
图17示出根据一些实施例的尖端78将可能遵循的实际路径218。当观察者将尖端78进一步插入身体部位174中时,路径218离开路径208并接近路径214。立体分析器116以三维向观察者172显示路径218。
图18示出根据一些实施例的计算机系统900的示例性形式的机器的示意图,在该机器内可以执行一组指令以使该机器执行在此所讨论的方法中的任何一个或多个方法。在替代实施例中,该机器作为独立设备操作,或者可以连接(例如,联网)到其它机器。此外,虽然仅示出了单个机器,但是术语“机器”也应被理解为包括机器的任何集合,该机器单独地或共同地执行一组(或多组)指令以执行在此所讨论的方法中的任何一个或多个方法。
示例性计算机系统900包括经由总线908彼此通信的处理器902(例如,中央处理单元(CPU)、图形处理单元(GPU)或两者)、主存储器904(例如,只读存储器(ROM)、闪存、诸如同步DRAM(SDRAM)或Rambus DRAM(RDRAM)等的动态随机存取存储器(DRAM)),以及静态存储器906(例如闪存、静态随机存取存储器(SRAM)等)。
计算机系统900可以还包括磁盘驱动器单元916和网络接口设备920。
磁盘驱动器单元916包括机器可读介质922,其上存储着体现在此所述方法或功能中的任何一个或多个的一组或多组指令924(例如,软件)。在计算机系统900执行软件期间,软件还可以全部或至少部分地驻留在主存储器904内和/或处理器902内,主存储器904和处理器902也构成机器可读介质。
可以经由网络接口设备920在网络928上进一步发送或接收软件。
计算机系统900包括用于驱动投影仪以生成激光的激光驱动器芯片950。激光驱动器芯片950包括其自己的数据存储器和其自己的处理器962。
尽管在示例性实施例中将机器可读介质922示出为单个介质,但是术语“机器可读介质”应被认为包括存储一组或多组指令的单个介质或多个介质(例如,集中式或分布式数据库,和/或关联的缓存和服务器)。术语“机器可读介质”也应被认为包括能够存储、编码或携带一组指令以供机器执行并且使机器执行以下本发明的方法中任何一种或多种方法的任何介质。因此,术语“机器可读介质”应被认为包括但不限于固态存储器、光学和磁介质以及载波信号。
上面描述的实现方式使用CT扫描仪22来扫描身体部位174。CT扫描仪具有x射线发射机形式的发射机,x射线检测器形式的接收机,并发送和接收x射线波形式的波。可能会使用其它扫描设备,该其它设备使用其它发射机和接收机并发送和检测不同的波。例如,声纳系统使用声音发送器发送声波,并使用声音接收机接收声波。视觉系统可以包括被插入身体部位内的发送光波的光源并且具有位于身体部位内的相机,该相机捕获从身体部位反射的光波。
然而,CT扫描仪比其它扫描设备更可取,因为CT扫描仪可以在三维中提供非常详细的身体部位的原始数据,并且可以很容易地用图像生成单元转换此类数据以创建三维图像数据。CT数据的另一个优势是它可以包含有关特定物质、材料和材料密度的数据。所描述的实现方式在观察者172的视图192中示出了放置在患者的身体30旁边的渲染176。也可以将渲染与患者的身体30进行匹配,使得身体部位的渲染位于实际身体部位的地方,并且导管尖端的渲染位于导管尖端的实际位置所处的地方。
本发明的各方面也可以在没有导管的情况下实现。例如,可以扫描患者的身体以确定生长,并且观察者可以使用显示系统来将生长的渲染以三维覆盖在患者的实际身体上。以该方式,观察者可以“看到”患者实际身体“内”的生长情况。
在某些方面和实施例中,代替或除了所描述的导管,通常使用侵入性手术工具。例如,参考图14至图17,尖端78可以指示热成像相机的前端,该热成像相机耦合至导管以通过其穿过的解剖学通道收集温度数据。然后可以根据黑白热图像来转换热数据,并通过图像接收单元106将其向操作者显示为可变颜色覆盖图。将意识到,并非每个显示器都需要每个用户共同的图像。第一操作者或观察者(本地或远程)可能希望某些信息显示,诸如指示动脉血与静脉血或冻伤组织的温度数据,而第二操作者或观察者可能希望某些信息,诸如指示手术工具的位置的信息。换句话说,信息的显示不必限于工具在患者体内的位置的图像,而也可以是从工具收集的图像。在一些热成像实施例中,可以为每个用户选择温度梯度;第一操作者可能想要从无机材料中辨别出有机组织,并将基本温度设置为98.6华氏度,而第二操作者可能旨在专门跟踪手术工具,并将成像的基本温度设置为预设温度,而不是绝对温度。
在一些实施例中,实现操作包络(envelope)。返回图14-17,在导航解剖通道的同时,患者的特殊处置可能会改变器械的操作负载。例如,如果患者成像指示器械附近的敏感组织,则可以按比例调节负载。为了进一步说明,如果对房颤患者的成像指示左心房壁薄,则可在靠近左心房壁操作时将标准轴向负载为0.1N的消融(ablation)导管拉至0.01或0.05N的范围内。在一些实施例中,可以结合诸如位置或收集的图像的器械图像向操作者显示作为位置的函数的加载范例,该加载范例是绝对的并且是相对于解剖标记(诸如敏感组织)的。因此,可以提供视觉反馈,指示作为位置的函数的器械上的负载上限,以告知操作者该时刻的设备功能或限制。另外,对于给定的过程,附加操作者或观察者可以立即识别出器械何时未处于正确位置或超出患者参数。尽管此类反馈被描述为视觉反馈,但是反馈可以采用其它形式,诸如音频或触觉(器械控件上的阻力或摩擦增加)。
在一些实施例中,可观察到的运动伪像为器械提供了位置调节。头部单元相机102可以对患者的位置数据成像,并向器械提供实时的位置调节。在一些实施例中,观察患者的呼吸节律并且修改器械控件以适应呼吸状态。头部单元相机102可以例如通过在操作环境或已知尺寸的固定机器内的基准标记来记录位置数据,以在呼气和吸气期间比较胸部位置并关联尺寸变化。在一些实施例中,当肺部在吸气期间膨胀并且周围的解剖结构在反应中压缩时,器械运动可以相应地减慢并且然后恢复正常的操作参数,因为在呼气期间肺部收缩,或者进行x-y-z调节以匹配胸腔的上升和下降,使得器械就可以绝对地在解剖通道中移动,但是相对于该解剖参考是稳定的。其它观察到的触发因素也可以提供操作调节,并且心率和预期的血管收缩/扩张可以为器械提供位置更新。
在一些实施例中,在时间Tl至T2至T3时由头部单元相机102在三个单独的时间收集对患者活动(例如,呼吸节律、心跳)的反馈控制,并图像在时间T4被分析以确定患者位置的变化(由于患者的运动、他们的呼吸节律、心跳等)。在时间T0(即,在T1之前或与之同时)为可操作地耦接至头部单元相机102的器械提供控制输入,并在时间T5基于时间T1至T3内观察到的患者位置的变化对控制输入进行调节。在一些实施例中,控制输入的变化是所测量的患者位置变化的一部分。
图19示出所测量的患者位置数据与控制反馈调节之间的示例性关系。如图所示,曲线1901表示由于呼吸而胸部扩张引起的患者位置理论上在y方向上的变化。在时间T1、T2和T3收集观察到的患者位置数据,分别对应于胸部位置y1、y2和y3。优选地,进行三个收集时间以提供用于目标测量的趋势分析。例如,人的平均呼吸速率是每分钟15次呼吸,为任何给定的吸气或呼气分配大约2秒的时间。为了避免对基于测量的吸气但在呼气期间所应用的器械位置进行校正,至少要进行三个测量以提供趋势分析。给定人类的平均呼吸速率,两次测量之间的时间间隔至少优选为0.667秒或1.5Hz。此类频率不必是T0与T5之间的每个时间的时间,并且优选的是使在T4和T5处的相关动作尽可能快地被应用。
返回到图19,位置y1到y2到y3的变化在T4的分析期间向系统指示了在接近T3结束吸气。这样,在T5的反馈控制可以不提供调节,以避免在呼气期间应用“吸气校正”,或者可以基于T5与T3的时间关系和外推的y位置变化来提供负的y位置调节。例如,如果T3和T5之间的时间类似于T2和T3之间的时间,并且系统根据y1与y2之间的变化(与y2与y3相比较)中识别出患者正在y方向上经历变化,则该调节可以小于或等于如从T2到T3所测量的变化。可以将其描述为以下逻辑关系:
如果(T5-T3=T3-T2)∩(y3-y2)<(y2-y1),则在T5<(y3-y2)处进行校正。
尽管已经描述并在附图中示出了某些示例性实施例,但是应当理解,这些实施例仅是示例性的,而不是对本发明的限制,并且本发明不限于所示出和描述的具体结构和布置,因为本领域普通技术人员可以进行修改。
Claims (183)
1.一种患者观察系统,包括:
导管,其具有内腔和尖端;
尖端跟踪设备,其检测所述尖端的运动;
左投影仪和右投影仪;
左光波导和右光波导,所述左光波导被连接到所述左投影仪以及所述右光波导被连接到所述右投影仪;
处理器;
计算机可读介质,其被连接到所述处理器;
数据存储器,其位于所述计算机可读介质上;
图像数据,其被存储在所述数据存储器上;
指令集,其被存储在所述计算机可读介质上并且由所述处理器执行,包括:
导管跟踪系统,其被连接到所述尖端跟踪设备,其中,所述导管跟踪系统接收基于由所述尖端跟踪设备检测到的运动的测量,基于所述测量来确定所述尖端的位置,并将所述尖端的所述位置存储在所述数据存储器中;以及
立体分析器,其被连接到所述数据存储器以接收所述图像数据,所述立体分析器确定左图像数据集和右图像数据集,所述左投影仪和所述右投影仪分别投影所述左图像数据集和所述右图像数据集,所述左图像数据集和所述右图像数据集彼此不同以对观察者提供三维渲染的感知。
2.根据权利要求1所述的患者观察系统,还包括:
头戴式框架,所述光波导被固定到所述头戴式框架。
3.根据权利要求2所述的患者观察系统,其中,所述光波导是被定位在眼睛与身体的外表面之间的透明光波导。
4.根据权利要求2所述的患者观察系统,还包括:
头部单元检测设备,其检测所述头戴式框架的运动,
所述指令集,其包括:
显示调节算法,其被连接到所述头部单元检测设备,并接收基于由所述头部单元检测设备检测到的运动的测量,并计算放置值;以及
显示定位算法,其基于所述放置值来修改身体部位在所述眼睛的视野内的位置。
5.根据权利要求4所述的患者观察系统,其中,所述头部单元检测设备包括:
头部单元惯性测量单元IMU,其被安装到所述头戴式框架,所述头部单元IMU包括检测所述头戴式框架的运动的运动传感器。
6.根据权利要求4所述的患者观察系统,其中,所述头部单元检测设备包括:
头部单元相机,其被安装到所述头戴式框架,所述头部单元相机通过拍摄在所述头部单元相机的视野内的对象的图像来检测所述头戴式框架的运动。
7.根据权利要求6所述的患者观察系统,其中,所述指令集包括:
图像处理系统,其分析所述图像以检测所述头戴式框架的姿势位置。
8.根据权利要求1所述的患者观察系统,还包括:
发射机;
能量源,其被连接到所述发射机以激活所述发射机,患者的身体相对于所述发射机可定位,以使所述发射机在所述身体内的身体部位处生成前向波;
接收机,其相对于所述身体可定位以检测来自所述身体部位的返回波,来自所述身体部位的所述返回波是对由所述发射机产生的所述前向波的响应,
所述指令集,其包括:
原始数据接收单元,其接收由所述接收机检测的所述返回波的原始数据,并将所述原始数据存储在所述数据存储器中;
图像生成单元,其被连接到所述数据存储器以处理所述返回波的所述原始数据以创建表示图像的图像数据,并将所述图像数据存储在所述数据存储器中;
图像数据接收单元,其从所述数据存储器接收所述图像数据;以及
导管显示集成器,其将所述尖端的所述位置与所述图像数据结合,由所述投影仪产生的光图案包括表示所述图像数据的图案和所述尖端的所述位置。
9.根据权利要求8所述的患者观察系统,包括:
计算机断层扫描CT扫描仪,其包括:
基座;
用于所述患者的平台;以及
转子,其被安装到所述基座以围绕所述患者旋转,其中,所述发射机是被固定到所述转子并发射x射线波的x射线发射机,所述接收机是被固定到所述转子以检测所述x射线波的x射线检测器,所述平台相对于所述基座的运动允许所述患者相对于从所述x射线发射机延伸到所述x射线检测器的平面的运动。
10.根据权利要求1所述的患者观察系统,其中,所述指令集包括:
过去路径计算器,其将所述尖端的过去路径存储在所述数据存储器中,所述导管显示集成器将所述尖端的所述过去路径与所述尖端的位置一起显示。
11.根据权利要求1所述的患者观察系统,其中,所述指令集包括:
过去路径计算器,其存储所述尖端的过去路径;以及
网格生成器,其生成围绕所述尖端的所述过去路径的三维网格,并将所述网格存储在所述数据存储器中,所述导管显示集成器将所述网格与所述尖端的位置一起显示。
12.根据权利要求11所述的患者观察系统,还包括:
所述尖端中的导管相机,所述导管相机捕获视频数据,
所述指令集,其包括:
视频数据接收单元,其被连接到所述尖端中的所述导管相机以接收所述视频数据,所述导管显示集成器基于所述视频数据来显示实况视频。
13.根据权利要求1所述的患者观察系统,其中,所述指令集包括:
预期路径计算器,其基于所述尖端的所述位置来计算所述尖端的未来路径,所述导管显示集成器显示所述未来路径。
14.根据权利要求13所述的患者观察系统,其中,所述未来路径是基于由所述尖端跟踪设备检测的所述运动来计算的。
15.根据权利要求14所述的患者观察系统,其中,由所述尖端跟踪设备检测的所述运动是在所选方向上通过第一角度从第一位置到第二位置的第一运动量,并且所述未来路径是在所选方向上通过第二角度从所述第二位置到第三位置的第二运动量。
16.根据权利要求1所述的患者观察系统,还包括:
在所述尖端上的侵入性手术工具。
17.根据权利要求1所述的患者观察系统,还包括:
在所述尖端上的相机;以及
至少一个显示器,其向操作者显示由所述相机捕获的图像。
18.根据权利要求17所述的患者观察系统,其中,第一显示器向第一操作者显示所述三维渲染和由所述相机捕获的图像。
19.根据权利要求17所述的患者观察系统,其中,第一显示器向第一操作者显示所述三维渲染,还包括:
第二显示器,其向第二操作者显示由所述相机捕获的图像。
20.根据权利要求1所述的患者观察系统,还包括:
第一显示器,其向第一操作者显示所述三维渲染;
数据收集系统,其在没有所述导管的情况下收集数据;以及
第二显示器,其向第二操作者显示用所述数据收集系统收集的数据。
21.根据权利要求1所述的患者观察系统,还包括:
负载检测系统,其被连接到所述尖端以确定所述尖端上的操作负载;以及
警告系统,其被连接到所述负载检测系统,以便如果所述尖端上的负载超过预定极限,则警告操作者。
22.根据权利要求21所述的患者观察系统,其中,所述警告是以下中的一种:视觉警告,音频警告,以及触觉警告。
23.根据权利要求1所述的患者观察系统,还包括:
运动检测系统,其观察运动伪像;以及
位置调节系统,其被连接到所述运动检测系统以基于所述运动伪像来对所述尖端进行位置调节。
24.根据权利要求23所述的患者观察系统,其中,所述运动检测系统在时间T1至时间T2至时间T3的三个单独时间收集患者活动的反馈控制图像,所述图像在时间T4被分析以确定患者位置的变化,并在时间T5基于在所述时间T1至所述时间T3上观察到的患者位置的变化来对控制输入进行调节。
25.根据权利要求24所述的患者观察系统,其中:
如果(T5-T3=T3-T2)∩(y3-y2)<(y2-y1),则在T5<(y3-y2)处进行校正。
26.一种观察患者的方法,包括:
将导管的尖端插入患者的身体内;
用尖端跟踪设备检测所述尖端的运动;
接收基于由所述尖端跟踪设备检测到的运动的测量;
基于所述测量来确定所述尖端的位置;
存储所述尖端的位置;
基于所述尖端的位置来确定左图像数据集和右图像数据集;
使用分别投影所述左图像数据集和右图像数据集的左投影仪和右投影仪来生成表示所述尖端的位置的图案中的光作为光;以及
将所述光引导到观察者的左眼和右眼的视网膜,以使得所述观察者看到所述尖端的位置,所述左图像数据集和所述右图像数据集彼此不同以对所述观察者提供三维渲染的感知。
27.根据权利要求26所述的方法,还包括:
将头戴式框架安装到观察者的头部,光波导被固定到所述头戴式框架。
28.根据权利要求27所述的方法,其中,所述光波导是被定位在所述眼睛与所述身体的外表面之间的透明光波导。
29.根据权利要求27所述的方法,还包括:
检测所述头戴式框架的运动;
基于所检测的运动来计算放置值;以及
基于所述放置值,修改身体部位在所述眼睛的视野内的位置。
30.根据权利要求29所述的方法,其中,用被安装到所述头戴式框架的头部单元惯性测量单元IMU的运动传感器来检测所述运动。
31.根据权利要求29所述的方法,其中,用被安装到所述头戴式框架的头部单元相机来检测所述运动,所述头部单元相机通过拍摄在所述头部单元相机的视野内的对象的图像来检测所述头戴式框架的运动。
32.根据权利要求31所述的方法,还包括:
分析所述图像以检测所述头戴式框架的姿势位置。
33.根据权利要求26所述的方法,还包括:
激活发射机以在所述身体内的身体部位处生成前向波;
用接收机检测来自所述身体部位的返回波,来自所述身体部位的所述返回波是对由所述发射机产生的所述前向波的响应;
接收由所述接收机检测的所述返回波的原始数据;
将所述原始数据存储在数据存储器中;
处理所述返回波的所述原始数据以创建表示图像的图像数据;
将所述图像数据存储在所述数据存储器中;
从所述数据存储器接收所述图像数据;以及
将所述尖端的所述位置与所述图像数据结合,所产生的光图案包括表示所述图像数据的图案和所述尖端的位置。
34.根据权利要求33所述的方法,其中,所述发射机是被固定到转子并发射x射线波的x射线发射机,并且所述接收机是被固定到所述转子以检测x射线波的x射线检测器,平台相对于基座的运动允许所述患者相对于从所述x射线发射机延伸到所述x射线检测器的平面的运动。
35.根据权利要求26所述的方法,还包括:
将所述尖端的过去路径存储在所述数据存储器中;以及
将所述尖端的所述过去路径与所述尖端的位置一起显示。
36.根据权利要求26所述的方法,还包括:
生成围绕所述尖端的所述过去路径的三维网格;
将所述网格存储在所述数据存储器中;以及
所述导管显示集成器将所述网格与所述尖端的位置一起显示。
37.根据权利要求36所述的方法,还包括:
用所述尖端中的导管相机捕获视频数据;
接收所述视频数据,所述导管显示集成器基于所述视频数据来显示实况视频;以及
基于所述视频数据来显示实况视频。
38.根据权利要求26所述的方法,其中,所述指令集包括:
基于所述尖端的所述位置来计算所述尖端的未来路径;以及
显示所述未来路径。
39.根据权利要求38所述的方法,其中,所述未来路径是基于由所述尖端跟踪设备检测的运动来计算的。
40.根据权利要求39所述的方法,其中,由所述尖端跟踪设备检测的所述运动是在所选方向上通过第一角度从第一位置到第二位置的第一运动量,并且所述未来路径是在所选方向上通过第二角度从所述第二位置到第三位置的第二运动量。
41.根据权利要求26所述的方法,还包括:
用所述尖端上的侵入性手术工具执行侵入性手术。
42.根据权利要求26所述的方法,还包括:
用所述尖端上的相机捕获图像;以及
向操作者显示由所述相机捕获的图像。
43.根据权利要求42所述的方法,还包括:
向第一操作者显示所述三维渲染和由所述相机捕获的图像。
44.根据权利要求42所述的方法,还包括:
向第一操作者显示所述三维渲染;以及
向第二操作者显示由所述相机捕获的图像。
45.根据权利要求26所述的方法,还包括:
向第一操作者显示所述三维渲染;
在没有所述导管的情况下收集数据;以及
向第二操作者显示在没有所述导管的情况下收集的数据。
46.根据权利要求26所述的方法,还包括:
确定所述尖端上的操作负载;以及
如果所述尖端上的负载超过预定极限,则警告操作者。
47.根据权利要求46所述的方法,其中,所述警告是以下中的一种:视觉警告,音频警告,以及触觉警告。
48.根据权利要求26所述的方法,还包括:
观察运动伪像;以及
基于所述运动伪像来对所述尖端进行位置调节。
49.根据权利要求48所述的方法,其中,运动检测系统在时间T1至时间T2至时间T3的三个单独时间收集患者活动的反馈控制图像,并且所述图像在时间T4被分析以确定患者位置的变化,并在时间T5基于在所述时间T1至所述时间T3上观察到的患者位置的变化来对所述控制输入进行调节。
50.根据权利要求49所述的方法,其中:
如果(T5-T3=T3-T2)∩(y3-y2)<(y2-y1),则在T5<(y3-y2)处进行校正。
51.一种患者观察系统,包括:
导管,其具有内腔和尖端;
尖端跟踪设备,其检测所述尖端的运动;
投影仪;
光波导,其被连接到所述投影仪;
处理器;
计算机可读介质,其被连接到所述处理器;
数据存储器,其位于所述计算机可读介质上;
指令集,其被存储在所述计算机可读介质上并且由所述处理器执行,包括:
导管跟踪系统,其被连接到所述尖端跟踪设备,并接收基于由所述尖端跟踪设备检测到的运动的测量,以及基于所述测量来确定所述尖端的位置,并将所述尖端的所述位置存储在所述数据存储器中;
过去路径计算器,其将所述尖端的过去路径存储在所述数据存储器中;以及
导管显示集成器,所述导管显示集成器将所述尖端的所述过去路径与所述尖端的位置一起显示。
52.根据权利要求51所述的患者观察系统,其中,所述指令集包括:
网格生成器,其生成围绕所述尖端的所述过去路径的三维网格并将所述网格存储在所述数据存储器中,所述导管显示集成器将所述网格与所述尖端的位置一起显示。
53.根据权利要求51所述的患者观察系统,还包括:
所述尖端中的导管相机,所述导管相机捕获视频数据,
所述指令集,其包括:
视频数据接收单元,其被连接到所述尖端中的所述导管相机以接收所述视频数据,并且所述导管显示集成器基于所述视频数据来显示实况视频。
54.根据权利要求51所述的患者观察系统,其中,所述指令集包括:
预期路径计算器,其基于所述尖端的所述位置来计算所述尖端的未来路径,所述导管显示集成器显示所述未来路径。
55.根据权利要求54所述的患者观察系统,其中,所述未来路径是基于由所述尖端跟踪设备检测的所述运动来计算的。
56.根据权利要求55所述的患者观察系统,其中,由所述尖端跟踪设备检测的所述运动是在所选方向上通过第一角度从第一位置到第二位置的第一运动量,并且所述未来路径是在所选方向上通过第二角度从所述第二位置到第三位置的第二运动量。
57.根据权利要求51所述的患者观察系统,还包括:
头戴式框架,所述光波导被固定到所述头戴式框架。
58.根据权利要求57所述的患者观察系统,其中,所述光波导是被定位在眼睛与身体的外表面之间的透明光波导。
59.根据权利要求57所述的患者观察系统,其中,所述投影仪是左投影仪,所述光波导是左光波导,并且所述眼睛是所述观察者的左眼,还包括:
右投影仪,其被连接到图像数据接收单元以接收图像数据,所述右投影仪生成表示所述图像数据的图案中的光;以及
右光波导,其被连接到所述右投影仪以将来自所述右投影仪的所述光引导到所述观察者的右眼的视网膜,而来自所述身体的所述外表面的光发送到所述右眼的所述视网膜,以使得所述观察者用所述右眼看到通过渲染所述身体部位而增强的所述身体的所述外表面。
60.根据权利要求59所述的患者观察系统,其中,所述指令集包括:
立体分析器,其被连接到所述数据接收单元以接收所述图像数据,所述立体分析器确定左图像数据集和右图像数据集,所述左投影仪和所述右投影仪分别投影所述左图像数据集和所述右图像数据集,所述左图像数据集和所述右图像数据集彼此不同以对观察者提供三维渲染的感知。
61.根据权利要求57所述的患者观察系统,还包括:
头部单元检测设备,其检测所述头戴式框架的运动,
所述指令集,其包括:
显示调节算法,其被连接到所述头部单元检测设备,并接收基于由所述头部单元检测设备检测到的运动的测量,并计算放置值;以及
显示定位算法,其基于所述放置值来修改所述身体部位在所述眼睛的视野内的位置。
62.根据权利要求61所述的患者观察系统,其中,所述头部单元检测设备包括:
头部单元惯性测量单元IMU,其被安装到所述头戴式框架,所述头部单元IMU包括检测所述头戴式框架的运动的运动传感器。
63.根据权利要求61所述的患者观察系统,其中,所述头部单元检测设备包括:
头部单元相机,其被安装到所述头戴式框架,所述头部单元相机通过拍摄在所述头部单元相机的视野内的对象的图像来检测所述头戴式框架的运动,
所述指令集,其包括:
图像处理系统,其分析所述图像以检测所述头戴式框架的姿势位置。
64.根据权利要求31所述的患者观察系统,还包括:
发射机;
能量源,其被连接到所述发射机以激活所述发射机,患者的身体相对于所述发射机可定位,以使所述发射机在所述身体内的身体部位处生成前向波;
接收机,其相对于所述身体可定位以检测来自所述身体部位的返回波,来自所述身体部位的所述返回波是对由所述发射机产生的所述前向波的响应,
所述指令集,其包括:
原始数据接收单元,其接收由所述接收机检测的所述返回波的原始数据,并将所述原始数据存储在所述数据存储器中;
图像生成单元,其被连接到所述数据存储器以处理所述返回波的所述原始数据以创建表示图像的图像数据,并将所述图像数据存储在所述数据存储器中;
图像数据接收单元,其从所述数据存储器接收所述图像数据;以及
导管显示集成器,其将所述尖端的所述位置与所述图像数据结合,由所述投影仪产生的光图案包括表示所述图像数据的图案和所述尖端的位置。
65.根据权利要求64所述的患者观察系统,包括:
计算机断层扫描CT扫描仪,其包括:
基座;
用于所述患者的平台;以及
转子,其被安装到所述基座以围绕所述患者旋转,其中,所述发射机是被固定到所述转子并发射x射线波的x射线发射机,并且所述接收机是被固定到所述转子以检测所述x射线波的x射线检测器,所述平台相对于所述基座的运动允许所述患者相对于从所述x射线发射机延伸到所述x射线检测器的平面的运动。
66.根据权利要求51所述的患者观察系统,还包括:
所述尖端上的侵入性手术工具。
67.根据权利要求51所述的患者观察系统,还包括:
在所述尖端上的相机;以及
至少一个显示器,其向操作者显示由所述相机捕获的图像。
68.根据权利要求67所述的患者观察系统,其中,第一显示器向第一操作者显示所述三维渲染和由所述相机捕获的图像。
69.根据权利要求67所述的患者观察系统,其中,第一显示器向第一操作者显示所述三维渲染,还包括:
第二显示器,其向第二操作者显示由所述相机捕获的图像。
70.根据权利要求51所述的患者观察系统,还包括:
第一显示器,其向第一操作者显示所述三维渲染;
数据收集系统,其在没有所述导管的情况下收集数据;以及
第二显示器,其向第二操作者显示用所述数据收集系统收集的所述数据。
71.根据权利要求51所述的患者观察系统,还包括:
负载检测系统,其被连接到所述尖端以确定所述尖端上的操作负载;以及
警告系统,其被连接到所述负载检测系统,以便如果所述尖端上的负载超过预定极限,则警告操作者。
72.根据权利要求71所述的患者观察系统,其中,所述警告是以下中的一种:视觉警告,音频警告,和触觉警告。
73.根据权利要求51所述的患者观察系统,还包括:
运动检测系统,其观察运动伪像;以及
位置调节系统,其被连接到所述运动检测系统以基于所述运动伪像来对所述尖端进行位置调节。
74.根据权利要求73所述的患者观察系统,其中,所述运动检测系统在时间T1至时间T2至时间T3的三个单独时间收集患者活动的反馈控制图像,并且所述图像在时间T4被分析以确定患者位置的变化,并在时间T5基于在所述时间T1至所述时间T3上观察到的患者位置的变化来对所述控制输入进行调节。
75.根据权利要求74所述的患者观察系统,其中:
如果(T5-T3=T3-T2)∩(y3-y2)<(y2-y1),则在T5<(y3-y2)处进行校正。
76.一种观察患者的方法,包括:
将导管的尖端插入患者的身体内;
用尖端跟踪设备检测所述尖端的运动;
接收基于由所述尖端跟踪设备检测到的运动的测量;
基于所述测量来确定所述尖端的位置;
存储所述尖端的位置;
基于所述尖端的位置来确定左图像数据集和右图像数据集;
使用分别投影所述左图像数据集和所述右图像数据集的左投影仪和右投影仪来生成表示所述尖端的位置的图案中的光作为光;以及
将所述光引导至观察者的左眼和右眼的视网膜,以使得所述观察者看到所述尖端的位置,所述左图像数据集和所述右图像数据集彼此不同以对所述观察者提供三维渲染的感知;
将所述尖端的过去路径存储在所述数据存储器中;以及
将所述尖端的所述过去路径与所述尖端的位置一起显示。
77.根据权利要求76所述的方法,还包括:
生成围绕所述尖端的所述过去路径的三维网格;
将所述网格存储在所述数据存储器中;以及
所述导管显示集成器将所述网格与所述尖端的位置一起显示。
78.根据权利要求76所述的方法,还包括:
用所述尖端中的导管相机捕获视频数据;
接收所述视频数据,所述导管显示集成器基于所述视频数据来显示实况视频;以及
基于所述视频数据来显示实况视频。
79.根据权利要求76所述的方法,其中,所述指令集包括:
基于所述尖端的位置来计算所述尖端的未来路径;以及
显示所述未来路径。
80.根据权利要求79所述的方法,其中,所述未来路径是基于由所述尖端跟踪设备检测的运动来计算的。
81.根据权利要求80所述的方法,其中,由所述尖端跟踪设备检测的所述运动是在所选方向上通过第一角度从第一位置到第二位置的第一运动量,并且所述未来路径是在所选方向上通过第二角度从所述第二位置到第三位置的第二运动量。
82.根据权利要求76所述的方法,还包括:
将头戴式框架安装到观察者的头部,光波导被固定到所述头戴式框架。
83.根据权利要求82所述的方法,其中,所述光波导是被定位在眼睛与身体的外表面之间的透明光波导。
84.根据权利要求82所述的方法,其中,所述眼睛是所述观察者的左眼,还包括:
将所述光引导到所述观察者的右眼的视网膜,而来自所述身体的所述外表面的光发送到所述右眼的所述视网膜,以使得所述观察者用所述右眼看到通过渲染所述身体部位而增强的所述身体的所述外表面。
85.根据权利要求84所述的方法,还包括:
确定左图像数据集和右图像数据集,所述左图像数据集和所述右图像数据集彼此不同以对所述观察者提供三维渲染的感知。
86.根据权利要求82所述的方法,还包括:
检测所述头戴式框架的运动;
基于所检测的运动来计算放置值;以及
基于所述放置值,修改所述身体部位在所述眼睛的视野内的位置。
87.根据权利要求86所述的方法,其中,用被安装到所述头戴式框架的头部单元惯性测量单元IMU的运动传感器来检测所述运动。
88.根据权利要求86所述的方法,其中,用被安装到所述头戴式框架的头部单元相机来检测所述运动,所述头部单元相机通过拍摄在所述头部单元相机的视野内的对象的图像来检测所述头戴式框架的运动,所述方法还包括:
分析所述图像以检测所述头戴式框架的姿势位置。
89.根据权利要求76所述的方法,还包括:
激活发射机以在所述身体内的身体部位处生成前向波;
用接收机检测来自所述身体部位的返回波,来自所述身体部位的所述返回波是对由所述发射机产生的所述前向波的响应;
接收由所述接收机检测的所述返回波的原始数据;
将所述原始数据存储在数据存储器中;
处理所述返回波的所述原始数据以创建表示图像的图像数据;
将所述图像数据存储在所述数据存储器中;
从所述数据存储器接收所述图像数据;以及
将所述尖端的所述位置与所述图像数据结合,所产生的光图案包括表示所述图像数据的图案和所述尖端的位置。
90.根据权利要求89所述的方法,其中,所述发射机是被固定到转子并发射x射线波的x射线发射机,并且所述接收机是被固定到所述转子以检测x射线波的x射线检测器,所述平台相对于基座的运动允许所述患者相对于从所述x射线发射机延伸到所述x射线检测器的平面的运动。
91.根据权利要求76所述的方法,还包括:
用所述尖端上的侵入性手术工具执行侵入性手术。
92.根据权利要求76所述的方法,还包括:
用所述尖端上的相机捕获图像;以及
向操作者显示由所述相机捕获的图像。
93.根据权利要求92所述的方法,还包括:
向第一操作者显示所述三维渲染和由所述相机捕获的图像。
94.根据权利要求92所述的方法,还包括:
向第一操作者显示所述三维渲染;以及
向第二操作者显示由所述相机捕获的图像。
95.根据权利要求76所述的方法,还包括:
向第一操作者显示所述三维渲染;
在没有所述导管的情况下收集数据;以及
向第二操作者显示在没有所述导管的情况下收集的所述数据。
96.根据权利要求76所述的方法,还包括:
确定所述尖端上的操作负载;以及
如果所述尖端上的负载超过预定极限,则警告操作者。
97.根据权利要求96所述的方法,其中,所述警告是以下中的一种:视觉警告,音频警告,和触觉警告。
98.根据权利要求76所述的方法,还包括:
观察运动伪像;以及
基于所述运动伪像来对所述尖端进行位置调节。
99.根据权利要求98所述的方法,其中,所述运动检测系统在时间T1至时间T2至时间T3的三个单独时间收集患者活动的反馈控制图像,并且所述图像在时间T4被分析以确定患者位置的变化,并在时间T5基于在所述时间T1至所述时间T3上观察到的患者位置的变化来对所述控制输入进行调节。
100.根据权利要求99所述的方法,其中:
如果(T5-T3=T3-T2)∩(y3-y2)<(y2-y1),则在T5<(y3-y2)处进行校正。
101.一种患者观察系统,包括:
导管,其具有内腔和尖端;
尖端跟踪设备,其检测所述尖端的运动;
投影仪;
光波导,其被连接到所述投影仪;
处理器;
计算机可读介质,其被连接到所述处理器;
数据存储器,其位于所述计算机可读介质上;
指令集,其被存储在所述计算机可读介质上并且由所述处理器执行,包括:
导管跟踪系统,其被连接到所述尖端跟踪设备,并接收基于由所述尖端跟踪设备检测到的运动的测量,并且基于所述测量来确定所述尖端的位置,并将所述尖端的位置存储在所述数据存储器中;
预期路径计算器,其基于所述尖端的位置来计算所述尖端的未来路径,导管显示集成器显示所述未来路径;以及
导管显示集成器,所述导管显示集成器将所述尖端的过去路径与所述尖端的位置一起显示。
102.根据权利要求101所述的患者观察系统,其中,由所述尖端跟踪设备检测的所述运动是在所选方向上通过第一角度从第一位置到第二位置的第一运动量,并且所述未来路径是在所选方向上通过第二角度从所述第二位置到第三位置的第二运动量。
103.根据权利要求101所述的患者观察系统,其中,所述未来路径是基于由所述尖端跟踪设备检测的所述运动来计算的。
104.根据权利要求101所述的患者观察系统,还包括:
所述尖端中的导管相机,所述导管相机捕获视频数据,
所述指令集,其包括:
视频数据接收单元,其被连接到所述尖端中的所述导管相机以接收所述视频数据,所述导管显示集成器基于所述视频数据来显示实况视频。
105.根据权利要求101所述的患者观察系统,其中,所述指令集包括:
过去路径计算器,其基于所述尖端的所述位置来计算所述尖端的过去路径,所述导管显示集成器显示所述未来路径。
106.根据权利要求105所述的患者观察系统,其中,所述指令集包括:
网格生成器,其生成围绕所述尖端的所述过去路径的三维网格并将所述网格存储在所述数据存储器中,所述导管显示集成器将所述网格与所述尖端的位置一起显示。
107.根据权利要求106所述的患者观察系统,其中,由所述尖端跟踪设备检测的所述运动是在所选方向上通过第一角度从第一位置到第二位置的第一运动量,并且所述未来路径是在所选方向上通过第二角度从所述第二位置到第三位置的第二运动量。
108.根据权利要求101所述的患者观察系统,还包括:
头戴式框架,所述光波导被固定到所述头戴式框架。
109.根据权利要求108所述的患者观察系统,其中,所述光波导是被定位在眼睛与身体的外表面之间的透明光波导。
110.根据权利要求108所述的患者观察系统,其中,所述投影仪是左投影仪,所述光波导是左光波导,并且所述眼睛是所述观察者的左眼,还包括:
右投影仪,其被连接到图像数据接收单元以接收图像数据,所述右投影仪生成表示所述图像数据的图案中的光;以及
右光波导,其被连接到所述右投影仪以将来自所述右投影仪的所述光引导到所述观察者的右眼的视网膜,而来自所述身体的所述外表面的光发送到所述右眼的所述视网膜,以使得所述观察者用所述右眼看到通过渲染所述身体部位而增强的所述身体的所述外表面。
111.根据权利要求110所述的患者观察系统,其中,所述指令集包括:
立体分析器,其被连接到所述数据接收单元以接收所述图像数据,所述立体分析器确定左图像数据集和右图像数据集,所述左投影仪和所述右投影仪分别投影所述左图像数据集和所述右图像数据集,所述左图像数据集和所述右图像数据集彼此不同以对观察者提供三维渲染的感知。
112.根据权利要求108所述的患者观察系统,还包括:
头部单元检测设备,其检测所述头戴式框架的运动,
所述指令集,其包括:
显示调节算法,其被连接到所述头部单元检测设备,并接收基于由所述头部单元检测设备检测到的运动的测量,并计算放置值;以及
显示定位算法,其基于所述放置值来修改身体部位在所述眼睛的视野内的位置。
113.根据权利要求112所述的患者观察系统,其中,所述头部单元检测设备包括:
头部单元惯性测量单元IMU,其被安装到所述头戴式框架,所述头部单元IMU包括检测所述头戴式框架的运动的运动传感器。
114.根据权利要求112所述的患者观察系统,其中,所述头部单元检测设备包括:
头部单元相机,其被安装到所述头戴式框架,所述头部单元相机通过拍摄在所述头部单元相机的视野内的对象的图像来检测所述头戴式框架的运动,
所述指令集,其包括:
图像处理系统,其分析所述图像以检测所述头戴式框架的姿势位置。
115.根据权利要求1011所述的患者观察系统,还包括
发射机;
能量源,其被连接到所述发射机以激活所述发射机,患者的身体相对于所述发射机可定位,以使所述发射机在所述身体内的身体部位处生成前向波;
接收机,其相对于所述身体可定位以检测来自所述身体部位的返回波,来自所述身体部位的所述返回波是对由所述发射机产生的所述前向波的响应,
所述指令集,其包括:
原始数据接收单元,其接收由所述接收机检测的所述返回波的原始数据,并将所述原始数据存储在所述数据存储器中;
图像生成单元,其被连接到所述数据存储器以处理所述返回波的所述原始数据以创建表示图像的图像数据,并将所述图像数据存储在所述数据存储器中;
图像数据接收单元,其从所述数据存储器接收所述图像数据;以及
导管显示集成器,其将所述尖端的所述位置与所述图像数据结合,由所述投影仪产生的光图案包括表示所述图像数据的图案和所述尖端的位置。
116.根据权利要求115所述的患者观察系统,其中,包括:
计算机断层扫描CT扫描仪,其包括:
基座;
用于所述患者的平台;以及
转子,其被安装到所述基座以围绕所述患者旋转,其中,所述发射机是被固定到所述转子并发射x射线波的x射线发射机,并且所述接收机是被固定到所述转子以检测所述x射线波的x射线检测器,所述平台相对于所述基座的运动允许所述患者相对于从所述x射线发射机延伸到所述x射线检测器的平面的运动。
117.根据权利要求101所述的患者观察系统,还包括:
在所述尖端上的相机;以及
至少一个显示器,其向操作者显示由所述相机捕获的图像。
118.根据权利要求118所述的患者观察系统,其中,第一显示器向第一操作者显示所述三维渲染和由所述相机捕获的图像。
119.根据权利要求118所述的患者观察系统,其中,第一显示器向第一操作者显示所述三维渲染,还包括:
第二显示器,其向第二操作者显示由所述相机捕获的图像。
120.根据权利要求101所述的患者观察系统,还包括:
第一显示器,其向第一操作者显示所述三维渲染;
数据收集系统,其在没有所述导管的情况下收集数据;以及
第二显示器,其向第二操作者显示用所述数据收集系统收集的所述数据。
121.根据权利要求101所述的患者观察系统,还包括:
负载检测系统,其被连接到所述尖端以确定所述尖端上的操作负载;以及
警告系统,其被连接到所述负载检测系统,以便如果所述尖端上的负载超过预定极限,则警告操作者。
122.根据权利要求122所述的患者观察系统,其中,所述警告是以下中的一种:视觉警告,音频警告,以及触觉警告。
123.根据权利要求101所述的患者观察系统,还包括:
运动检测系统,其观察运动伪像;以及
位置调节系统,其被连接到所述运动检测系统以基于所述运动伪像来对所述尖端进行位置调节。
124.根据权利要求124所述的患者观察系统,其中,所述运动检测系统在时间T1至时间T2至时间T3的三个单独时间收集患者活动的反馈控制图像,并且所述图像在时间T4被分析以确定患者位置的变化,并在时间T5基于在所述时间T1至所述时间T3上观察到的患者位置的变化来对控制输入进行调节。
125.根据权利要求125所述的患者观察系统,其中:
如果(T5-T3=T3-T2)∩(y3-y2)<(y2-y1),则在T5<(y3-y2)处进行校正。
126.一种观察患者的方法,包括:
将导管的尖端插入患者的身体内;
用尖端跟踪设备检测所述尖端的运动;
接收基于由所述尖端跟踪设备检测到的运动的测量;
基于所述测量来确定所述尖端的位置;
存储所述尖端的位置;
基于所述尖端的位置来确定左图像数据集和右图像数据集;
使用分别投影所述左图像数据集和右图像数据集的左投影仪和右投影来生成仪表示所述尖端的位置的图案中的光作为光;
将所述光引导到观察者的左眼和右眼的视网膜,使得所述观察者看到所述尖端的位置,所述左图像数据集和所述右图像数据集彼此不同以对所述观察者提供三维渲染的感知;
基于所述尖端的所述位置来计算所述尖端的未来路径;以及
将所述尖端的所述未来路径与所述尖端的位置一起显示。
127.根据权利要求127所述的方法,其中,由所述尖端跟踪设备检测的所述运动是在所选方向上通过第一角度从第一位置到第二位置的第一运动量,并且所述未来路径是在所选方向上通过第二角度从所述第二位置到第三位置的第二运动量。
128.根据权利要求127所述的方法,其中,所述未来路径是基于由所述尖端跟踪设备检测的所述运动来计算的。
129.根据权利要求127所述的方法,还包括:
用所述尖端中的导管相机捕获视频数据;
接收所述视频数据,所述导管显示集成器基于所述视频数据来显示实况视频;以及
基于所述视频数据来显示实况视频。
130.根据权利要求127所述的方法,其中,所述指令集包括:
将所述尖端的过去路径存储在所述数据存储器中;以及
将所述尖端的所述过去路径与所述尖端的位置一起显示。
131.根据权利要求131所述的方法,还包括:
生成围绕所述尖端的所述过去路径的三维网格;
将所述网格存储在所述数据存储器中;以及
所述导管显示集成器将所述网格与所述尖端的位置一起显示。
132.根据权利要求132所述的方法,其中,由所述尖端跟踪设备检测的所述运动是在所选方向上通过第一角度从第一位置到第二位置的第一运动量,并且所述未来路径是在所选方向上通过第二角度从所述第二位置到第三位置的第二运动量。
133.根据权利要求127所述的方法,还包括:
将头戴式框架安装到观察者的头部,光波导被固定到所述头戴式框架。
134.根据权利要求134所述的方法,其中,所述光波导是被定位在眼睛与身体的外表面之间的透明光波导。
135.根据权利要求134所述的方法,其中,所述眼睛是观察者的左眼,还包括:
将所述光引导到所述观察者的右眼的视网膜,而来自所述身体的所述外表面的光发送到所述右眼的所述视网膜,以使得所述观察者用所述右眼看到通过渲染所述身体部位而增强的所述身体的所述外表面。
136.根据权利要求136所述的方法,还包括:
确定左图像数据集和右图像数据集,所述左图像数据集和所述右图像数据集彼此不同以对所述观察者提供三维渲染的感知。
137.根据权利要求134所述的方法,还包括:
检测所述头戴式框架的运动;
基于所检测的运动来计算放置值;以及
基于所述放置值,修改身体部位在所述眼睛的视野内的位置。
138.根据权利要求138所述的方法,其中,用被安装到所述头戴式框架的头部单元惯性测量单元IMU的运动传感器来检测所述运动。
139.根据权利要求138所述的方法,其中,用被安装到所述头戴式框架的头部单元相机来检测所述运动,所述头部单元相机通过拍摄在所述头部单元相机的视野内的对象的图像来检测所述头戴式框架的运动,
还包括:
分析所述图像以检测所述头戴式框架的姿势位置。
140.根据权利要求127所述的方法,还包括:
激活发射机以在所述身体内的身体部位处生成前向波;
用接收机检测来自所述身体部位的返回波,来自所述身体部位的所述返回波是对由所述发射机产生的所述前向波的响应;
接收由所述接收机检测的所述返回波的原始数据;
将所述原始数据存储在数据存储器中;
处理所述返回波的所述原始数据以创建表示图像的图像数据;
将所述图像数据存储在所述数据存储器中;
从所述数据存储器接收所述图像数据;以及
将所述尖端的所述位置与所述图像数据结合,所产生的光图案包括表示所述图像数据的图案和所述尖端的位置。
141.根据权利要求141所述的方法,其中,所述发射机是被固定到转子并发射x射线波的x射线发射机,并且所述接收机是被固定到所述转子以检测x射线波的x射线检测器,平台相对于基座的运动允许所述患者相对于从所述x射线发射机延伸到所述x射线检测器的平面的运动。
142.根据权利要求127所述的方法,还包括:
用所述尖端上的侵入性手术工具执行侵入性手术。
143.根据权利要求127所述的方法,还包括:
用所述尖端上的相机捕获图像;以及
向操作者显示由所述相机捕获的图像。
144.根据权利要求144所述的方法,还包括:
向第一操作者显示所述三维渲染和由所述相机捕获的图像。
145.根据权利要求144所述的方法,还包括:
向第一操作者显示所述三维渲染;以及
向第二操作者显示由所述相机捕获的图像。
146.根据权利要求127所述的方法,还包括:
向第一操作者显示所述三维渲染;
在没有所述导管的情况下收集数据;以及
向第二操作者显示在没有所述导管的情况下收集的所述数据。
147.根据权利要求127所述的方法,还包括:
确定所述尖端上的操作负载;以及
如果所述尖端上的负载超过预定极限,则警告操作者。
148.根据权利要求148所述的方法,其中,所述警告是以下中的一种:视觉警告,音频警告,以及触觉警告。
149.根据权利要求127所述的方法,还包括:
观察运动伪像;以及
基于所述运动伪像对所述尖端进行位置调节。
150.根据权利要求150所述的方法,其中,运动检测系统在时间T1至时间T2至时间T3的三个单独时间收集患者活动的反馈控制图像,并且所述图像在时间T4被分析以确定患者位置的变化,并在时间T5基于在所述时间T1至所述时间T3上观察到的患者位置的变化来对所述控制输入进行调节。
151.根据权利要求151所述的方法,其中:
如果(T5-T3=T3-T2)∩(y3-y2)<(y2-y1),则在T5<(y3-y2)处进行校正。
152.一种患者观察系统,包括:
发射机;
能量源,其被连接到所述发射机以激活所述发射机,患者的身体相对于所述发射机可定位,以使所述发射机在所述身体内的身体部位处生成前向波;
接收机,其相对于所述身体可定位以检测来自所述身体部位的返回波,来自所述身体部位的所述返回波是对由所述发射机产生的所述前向波的响应于,
处理器;
计算机可读介质,其被连接到所述处理器;
数据存储器,其位于所述计算机可读介质上;
指令集,其被存储在所述计算机可读介质上并且由所述处理器执行,包括:
原始数据接收单元,其接收由所述接收机检测的所述返回波的原始数据,并将所述原始数据存储在所述数据存储器中;
图像生成单元,其被连接到所述数据存储器以处理所述返回波的所述原始数据以创建表示图像的图像数据,并将所述图像数据存储在所述数据存储器中;
图像数据接收单元,其从所述数据存储器接收所述图像数据;
投影仪,其被连接到所述图像数据接收单元以接收所述图像数据,所述投影仪生成表示所述图像数据的图案中的光;以及
光波导,其被连接到所述投影仪以将所述光引导到观察者的眼睛的视网膜,而来自所述身体的外表面的光发送到所述眼睛的所述视网膜,以使得所述观察者看到通过渲染所述身体部位而增强的所述身体的所述外表面。
153.根据权利要求153所述的患者观察系统,还包括:
头戴式框架,所述光波导被固定到所述头戴式框架。
154.根据权利要求154所述的患者观察系统,其中,所述光波导是被定位在所述眼睛与所述身体的所述外表面之间的透明光波导。
155.根据权利要求154所述的患者观察系统,其中,所述投影仪是左投影仪,所述光波导是左光波导,并且所述眼睛是所述观察者的左眼,还包括:
右投影仪,其被连接到所述图像数据接收单元以接收所述图像数据,所述右投影仪生成表示所述图像数据的图案中的光;以及
右光波导,其被连接到所述右投影仪以将来自所述右投影仪的所述光引导到所述观察者的右眼的视网膜,而来自所述身体的所述外表面的光发送到所述右眼的所述视网膜,以使得所述观察者用所述右眼看到通过渲染所述身体部位而增强的所述身体的所述外表面。
156.根据权利要求156所述的患者观察系统,其中,所述指令集包括:
立体分析器,其被连接到所述数据接收单元以接收所述图像数据,所述立体分析器确定左图像数据集和右图像数据集,所述左投影仪和所述右投影仪分别投影所述左图像数据集和所述右图像数据集,所述左图像数据集和所述右图像数据集彼此不同以对所述观察者提供三维渲染的感知。
157.根据权利要求154所述的患者观察系统,还包括:
头部单元检测设备,其检测所述头戴式框架的运动,
所述指令集,其包括:
显示调节算法,其被连接到所述头部单元检测设备,并接收基于由所述头部单元检测设备检测到的运动的测量,并计算放置值;以及
显示定位算法,其基于所述放置值来修改所述身体部位在所述眼睛的视野内的位置。
158.根据权利要求158所述的患者观察系统,其中,所述头部单元检测设备包括:
头部单元惯性测量单元IMU,其被安装到所述头戴式框架,所述头部单元IMU包括检测所述头戴式框架的运动的运动传感器。
159.根据权利要求158所述的患者观察系统,其中,所述头部单元检测设备包括:
头部单元相机,其被安装到所述头戴式框架,所述头部单元相机通过拍摄在所述头部单元相机的视野内的对象的图像来检测所述头戴式框架的运动,
所述指令集,其包括:
图像处理系统,其分析所述图像以检测所述头戴式框架的姿势位置。
160.根据权利要求158所述的患者观察系统,其中,包括:
计算机断层扫描CT扫描仪,其包括:
基座;
用于所述患者的平台;以及
转子,其被安装到所述基座以围绕所述患者旋转,其中,所述发射机是被固定到所述转子并发射x射线波的x射线发射机,并且所述接收机是被固定到所述转子以检测所述x射线波的x射线检测器,所述平台相对于所述基座的运动允许所述患者相对于从所述x射线发射机延伸到所述x射线检测器的平面的运动。
161.根据权利要求153所述的患者观察系统,还包括:
导管,其具有内腔和尖端;以及
尖端跟踪设备,其检测所述尖端的运动;
所述指令集,其包括:
导管跟踪系统,其被连接到所述尖端跟踪设备,并接收基于由所述尖端跟踪设备检测到的运动的测量,并基于所述测量来确定所述尖端的位置;以及
导管显示集成器,其将所述尖端的所述位置与所述图像数据结合,由所述投影仪产生的光图案包括表示所述图像数据的图案和所述尖端的位置。
162.根据权利要求162所述的患者观察系统,其中,所述指令集包括:
过去路径计算器,其将所述尖端的过去路径存储在所述数据存储器中,所述导管显示集成器将所述尖端的所述过去路径与所述尖端的位置一起显示。
163.根据权利要求162所述的患者观察系统,其中,所述指令集包括:
过去路径计算器,其存储所述尖端的过去路径;以及
网格生成器,其生成围绕所述尖端的所述过去路径的三维网格并将所述网格存储在所述数据存储器中,所述导管显示集成器将所述网格与所述尖端的位置一起显示。
164.根据权利要求164所述的患者观察系统,还包括:
所述尖端中的导管相机,所述导管相机捕获视频数据,
所述指令集,其包括:
视频数据接收单元,其被连接到所述尖端中的所述导管相机以接收所述视频数据,所述导管显示集成器基于所述视频数据来显示实况视频。
165.根据权利要求162所述的患者观察系统,其中,所述指令集包括:
预期路径计算器,其基于所述尖端的所述位置来计算所述尖端的未来路径,所述导管显示集成器显示所述未来路径。
166.根据权利要求166所述的患者观察系统,其中,所述未来路径是基于由所述尖端跟踪设备检测的所述运动来计算的。
167.根据权利要求167所述的患者观察系统,其中,由所述尖端跟踪设备检测的所述运动是在所选方向上通过第一角度从第一位置到第二位置的第一运动量,并且所述未来路径是在所选方向上通过第二角度从所述第二位置到第三位置的第二运动量。
168.一种观察患者的方法,包括:
激活发射机以在身体内的身体部位处生成前向波;
用接收机检测来自所述身体部位的返回波,来自所述身体部位的所述返回波是对由所述发射机产生的所述前向波的响应;
接收由所述接收机检测的所述返回波的原始数据;
将所述原始数据存储在数据存储器中;
处理所述返回波的所述原始数据以创建表示图像的图像数据;
将所述图像数据存储在所述数据存储器中;
从所述数据存储器接收所述图像数据;以及
将所述光引导到观察者的右眼的视网膜,而来自所述身体的外表面的光发送到所述右眼的所述视网膜,以使得所述观察者看到通过渲染所述身体部位而增强的所述身体的所述外表面。
169.根据权利要求169所述的方法,还包括:
将头戴式框架安装到观察者的头部,所述光波导被固定到所述头戴式框架。
170.根据权利要求170所述的方法,其中,所述光波导是被定位在所述眼睛与所述身体的所述外表面之间的透明光波导。
171.根据权利要求170所述的方法,其中,所述眼睛是所述观察者的左眼,还包括:
将所述光引导到所述观察者的右眼的视网膜,而来自所述身体的所述外表面的光发送到所述右眼的所述视网膜,以使得所述观察者用所述右眼看到通过渲染所述身体部位而增强的所述身体的所述外表面。
172.根据权利要求172所述的方法,还包括:
确定左图像数据集和右图像数据集,所述左图像数据集和所述右图像数据集彼此不同以对所述观察者提供三维渲染的感知。
173.根据权利要求170所述的方法,还包括:
检测所述头戴式框架的运动;
基于所检测的运动来计算放置值;以及
基于所述放置值,修改所述身体部位在所述眼睛视野内的位置。
174.根据权利要求174所述的方法,其中,用被安装到所述头戴式框架的头部单元惯性测量单元IMU的运动传感器来检测所述运动。
175.根据权利要求174所述的方法,其中,用被安装到所述头戴式框架的头部单元相机来检测所述运动,所述头部单元相机通过拍摄在所述头部单元相机的视野内的对象的图像来检测所述头戴式框架的运动,
所述方法还包括:
分析所述图像以检测所述头戴式框架的姿势位置。
176.根据权利要求174所述的方法,其中,所述发射机是被固定到转子并发射x射线波的x射线发射机,并且所述接收机是被固定到所述转子以检测x射线波的x射线检测器,所述平台相对于基座的运动允许所述患者相对于从所述x射线发射机延伸到所述x射线检测器的平面的运动。
177.根据权利要求179所述的方法,还包括:
将导管的尖端插入患者的身体内;
用尖端跟踪设备检测所述尖端的运动;
接收基于由所述尖端跟踪设备检测到的运动的测量;
基于所述测量来确定所述尖端的位置;以及
将所述尖端的所述位置与所述图像数据结合,所产生的光图案包括表示所述图像数据的图案和所述尖端的位置。
178.根据权利要求178所述的方法,还包括:
将所述尖端的过去路径存储在所述数据存储器中;以及
将所述尖端的所述过去路径与所述尖端的位置一起显示。
179.根据权利要求178所述的方法,还包括:
生成围绕所述尖端的所述过去路径的三维网格;
将所述网格存储在所述数据存储器中;以及
所述导管显示集成器将所述网格与所述尖端的位置一起显示。
180.根据权利要求180所述的方法,还包括:
用所述尖端中的导管相机捕获视频数据;
接收所述视频数据,所述导管显示集成器基于所述视频数据来显示实况视频;以及
基于所述视频数据来显示实况视频。
181.根据权利要求178所述的方法,其中,所述指令集包括:
基于所述尖端的所述位置来计算所述尖端的未来路径;以及
显示所述未来路径。
182.根据权利要求182所述的方法,其中,所述未来路径是基于由所述尖端跟踪设备检测的所述运动来计算的。
183.根据权利要求183所述的方法,其中,由所述尖端跟踪设备检测的所述运动是在所选方向上通过第一角度从第一位置到第二位置的第一运动量,并且所述未来路径是在所选方向上通过第二角度从所述第二位置到第三位置的第二运动量。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862721516P | 2018-08-22 | 2018-08-22 | |
US62/721,516 | 2018-08-22 | ||
US201862771534P | 2018-11-26 | 2018-11-26 | |
US62/771,534 | 2018-11-26 | ||
PCT/US2019/047746 WO2020041615A1 (en) | 2018-08-22 | 2019-08-22 | Patient viewing system |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112955073A true CN112955073A (zh) | 2021-06-11 |
Family
ID=69591341
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980069194.1A Pending CN112955073A (zh) | 2018-08-22 | 2019-08-22 | 患者观察系统 |
Country Status (5)
Country | Link |
---|---|
US (2) | US12016719B2 (zh) |
EP (1) | EP3840645A4 (zh) |
JP (2) | JP7487176B2 (zh) |
CN (1) | CN112955073A (zh) |
WO (1) | WO2020041615A1 (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11648081B2 (en) * | 2019-04-02 | 2023-05-16 | Intuitive Surgical Operations, Inc. | System and method for image detection during instrument grasping and stapling |
US11510750B2 (en) | 2020-05-08 | 2022-11-29 | Globus Medical, Inc. | Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications |
US12064191B2 (en) * | 2020-06-03 | 2024-08-20 | Covidien Lp | Surgical tool navigation using sensor fusion |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020082498A1 (en) * | 2000-10-05 | 2002-06-27 | Siemens Corporate Research, Inc. | Intra-operative image-guided neurosurgery with augmented reality visualization |
US20070078334A1 (en) * | 2005-10-04 | 2007-04-05 | Ascension Technology Corporation | DC magnetic-based position and orientation monitoring system for tracking medical instruments |
US20080146942A1 (en) * | 2006-12-13 | 2008-06-19 | Ep Medsystems, Inc. | Catheter Position Tracking Methods Using Fluoroscopy and Rotational Sensors |
CN101530325A (zh) * | 2008-02-29 | 2009-09-16 | 韦伯斯特生物官能公司 | 具有虚拟触摸屏的定位系统 |
CN101677778A (zh) * | 2007-01-25 | 2010-03-24 | 华沙整形外科股份有限公司 | 带有自动手术辅助和控制设备的手术导航和神经监视集成系统 |
US20110230758A1 (en) * | 2008-12-03 | 2011-09-22 | Uzi Eichler | System and method for determining the position of the tip of a medical catheter within the body of a patient |
WO2015194597A1 (ja) * | 2014-06-17 | 2015-12-23 | 日本電産コパル電子株式会社 | 感圧センサと感圧カテーテル |
US20160015470A1 (en) * | 2014-07-15 | 2016-01-21 | Osterhout Group, Inc. | Content presentation in head worn computing |
CN106415364A (zh) * | 2014-04-29 | 2017-02-15 | 微软技术许可有限责任公司 | 立体渲染至眼睛位置 |
WO2017049163A1 (en) * | 2015-09-18 | 2017-03-23 | Auris Surgical Robotics, Inc. | Navigation of tubular networks |
WO2018057564A1 (en) * | 2016-09-22 | 2018-03-29 | Medtronic Navigation, Inc. | System for guided procedures |
WO2018085287A1 (en) * | 2016-11-02 | 2018-05-11 | Intuitive Surgical Operations, Inc. | Systems and methods of continuous registration for image-guided surgery |
Family Cites Families (566)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6541736B1 (en) | 2001-12-10 | 2003-04-01 | Usun Technology Co., Ltd. | Circuit board/printed circuit board having pre-reserved conductive heating circuits |
US4344092A (en) | 1980-10-21 | 1982-08-10 | Circon Corporation | Miniature video camera means for video system |
US4652930A (en) | 1984-11-19 | 1987-03-24 | Rca Corporation | Television camera structure |
US4810080A (en) | 1987-09-03 | 1989-03-07 | American Optical Corporation | Protective eyewear with removable nosepiece and corrective spectacle |
US5142684A (en) | 1989-06-23 | 1992-08-25 | Hand Held Products, Inc. | Power conservation in microprocessor controlled devices |
US4997268A (en) | 1989-07-24 | 1991-03-05 | Dauvergne Hector A | Corrective lens configuration |
US5074295A (en) | 1989-08-03 | 1991-12-24 | Jamie, Inc. | Mouth-held holder |
JPH0712944Y2 (ja) | 1989-08-24 | 1995-03-29 | 株式会社アドバンテスト | 電子部品実装基板の温度保護構造 |
US5007727A (en) | 1990-02-26 | 1991-04-16 | Alan Kahaney | Combination prescription lens and sunglasses assembly |
US5396635A (en) | 1990-06-01 | 1995-03-07 | Vadem Corporation | Power conservation apparatus having multiple power reduction levels dependent upon the activity of the computer system |
US5240220A (en) | 1990-09-12 | 1993-08-31 | Elbex Video Ltd. | TV camera supporting device |
EP0697614A2 (en) | 1991-03-22 | 1996-02-21 | Nikon Corporation | Optical apparatus for correcting image deviation |
WO1993001743A1 (en) | 1991-07-22 | 1993-02-04 | Adair Edwin Lloyd | Sterile video microscope holder for operating room |
US5251635A (en) | 1991-09-03 | 1993-10-12 | General Electric Company | Stereoscopic X-ray fluoroscopy system using radiofrequency fields |
US5224198A (en) | 1991-09-30 | 1993-06-29 | Motorola, Inc. | Waveguide virtual image display |
CA2061117C (en) | 1991-12-02 | 1998-09-29 | Neta J. Amit | Apparatus and method for distributed program stack |
US5497463A (en) | 1992-09-25 | 1996-03-05 | Bull Hn Information Systems Inc. | Ally mechanism for interconnecting non-distributed computing environment (DCE) and DCE systems to operate in a network system |
US5937202A (en) | 1993-02-11 | 1999-08-10 | 3-D Computing, Inc. | High-speed, parallel, processor architecture for front-end electronics, based on a single type of ASIC, and method use thereof |
US5410763A (en) | 1993-02-11 | 1995-05-02 | Etablissments Bolle | Eyeshield with detachable components |
US5682255A (en) | 1993-02-26 | 1997-10-28 | Yeda Research & Development Co. Ltd. | Holographic optical devices for the transmission of optical signals of a plurality of channels |
US6023288A (en) | 1993-03-31 | 2000-02-08 | Cairns & Brother Inc. | Combination head-protective helmet and thermal imaging apparatus |
EP0632360A1 (en) | 1993-06-29 | 1995-01-04 | Xerox Corporation | Reducing computer power consumption by dynamic voltage and frequency variation |
US5455625A (en) | 1993-09-23 | 1995-10-03 | Rosco Inc. | Video camera unit, protective enclosure and power circuit for same, particularly for use in vehicles |
US5689669A (en) | 1994-04-29 | 1997-11-18 | General Magic | Graphical user interface for navigating between levels displaying hallway and room metaphors |
US6016147A (en) | 1995-05-08 | 2000-01-18 | Autodesk, Inc. | Method and system for interactively determining and displaying geometric relationships between three dimensional objects based on predetermined geometric constraints and position of an input device |
US5835061A (en) | 1995-06-06 | 1998-11-10 | Wayport, Inc. | Method and apparatus for geographic-based communications service |
CA2180899A1 (en) | 1995-07-12 | 1997-01-13 | Yasuaki Honda | Synchronous updating of sub objects in a three dimensional virtual reality space sharing system and method therefore |
US5826092A (en) | 1995-09-15 | 1998-10-20 | Gateway 2000, Inc. | Method and apparatus for performance optimization in power-managed computer systems |
US5737533A (en) | 1995-10-26 | 1998-04-07 | Wegener Internet Projects Bv | System for generating a virtual reality scene in response to a database search |
US6219045B1 (en) | 1995-11-13 | 2001-04-17 | Worlds, Inc. | Scalable virtual world chat client-server system |
US5864365A (en) | 1996-01-26 | 1999-01-26 | Kaman Sciences Corporation | Environmentally controlled camera housing assembly |
US6064749A (en) | 1996-08-02 | 2000-05-16 | Hirota; Gentaro | Hybrid tracking for augmented reality using both camera motion detection and landmark tracking |
US5854872A (en) | 1996-10-08 | 1998-12-29 | Clio Technologies, Inc. | Divergent angle rotator system and method for collimating light beams |
US8005254B2 (en) | 1996-11-12 | 2011-08-23 | Digimarc Corporation | Background watermark processing |
US6012811A (en) | 1996-12-13 | 2000-01-11 | Contour Optik, Inc. | Eyeglass frames with magnets at bridges for attachment |
JP3651204B2 (ja) | 1996-12-18 | 2005-05-25 | トヨタ自動車株式会社 | 立体画像表示装置、立体画像表示方法及び記録媒体 |
JP3465528B2 (ja) | 1997-04-22 | 2003-11-10 | 三菱瓦斯化学株式会社 | 新規な光学材料用樹脂 |
JPH10309381A (ja) | 1997-05-13 | 1998-11-24 | Yoshimasa Tanaka | 移動体用遊戯装置 |
US6271843B1 (en) | 1997-05-30 | 2001-08-07 | International Business Machines Corporation | Methods systems and computer program products for transporting users in three dimensional virtual reality worlds using transportation vehicles |
ES2280096T3 (es) | 1997-08-29 | 2007-09-01 | Kabushiki Kaisha Sega Doing Business As Sega Corporation | Sistema de procesamiento de imagen y metodo de procesamiento de imagen. |
JPH11142783A (ja) | 1997-11-12 | 1999-05-28 | Olympus Optical Co Ltd | 画像表示装置 |
US6243091B1 (en) | 1997-11-21 | 2001-06-05 | International Business Machines Corporation | Global history view |
US6385735B1 (en) | 1997-12-15 | 2002-05-07 | Intel Corporation | Method and apparatus for limiting processor clock frequency |
US6079982A (en) | 1997-12-31 | 2000-06-27 | Meader; Gregory M | Interactive simulator ride |
US6191809B1 (en) | 1998-01-15 | 2001-02-20 | Vista Medical Technologies, Inc. | Method and apparatus for aligning stereo images |
US6362817B1 (en) | 1998-05-18 | 2002-03-26 | In3D Corporation | System for creating and viewing 3D environments using symbolic descriptors |
US6076927A (en) | 1998-07-10 | 2000-06-20 | Owens; Raymond L. | Adjustable focal length eye glasses |
US6119147A (en) | 1998-07-28 | 2000-09-12 | Fuji Xerox Co., Ltd. | Method and system for computer-mediated, multi-modal, asynchronous meetings in a virtual space |
JP2000099332A (ja) | 1998-09-25 | 2000-04-07 | Hitachi Ltd | 遠隔手続き呼び出し最適化方法とこれを用いたプログラム実行方法 |
US6414679B1 (en) | 1998-10-08 | 2002-07-02 | Cyberworld International Corporation | Architecture and methods for generating and displaying three dimensional representations |
US6415388B1 (en) | 1998-10-30 | 2002-07-02 | Intel Corporation | Method and apparatus for power throttling in a microprocessor using a closed loop feedback system |
US6918667B1 (en) | 1998-11-02 | 2005-07-19 | Gary Martin Zelman | Auxiliary eyewear attachment apparatus |
US6487319B1 (en) | 1998-11-18 | 2002-11-26 | Sarnoff Corporation | Apparatus and method for identifying the location of a coding unit |
US7111290B1 (en) | 1999-01-28 | 2006-09-19 | Ati International Srl | Profiling program execution to identify frequently-executed portions and to assist binary translation |
US6556245B1 (en) | 1999-03-08 | 2003-04-29 | Larry Allan Holmberg | Game hunting video camera |
US6396522B1 (en) | 1999-03-08 | 2002-05-28 | Dassault Systemes | Selection navigator |
US7119819B1 (en) | 1999-04-06 | 2006-10-10 | Microsoft Corporation | Method and apparatus for supporting two-dimensional windows in a three-dimensional environment |
WO2000060444A1 (en) | 1999-04-06 | 2000-10-12 | Microsoft Corporation | Method and apparatus for supporting two-dimensional windows in a three-dimensional environment |
US6375369B1 (en) | 1999-04-22 | 2002-04-23 | Videolarm, Inc. | Housing for a surveillance camera |
GB9930850D0 (en) | 1999-12-24 | 2000-02-16 | Koninkl Philips Electronics Nv | 3D environment labelling |
US6621508B1 (en) | 2000-01-18 | 2003-09-16 | Seiko Epson Corporation | Information processing system |
US6757068B2 (en) | 2000-01-28 | 2004-06-29 | Intersense, Inc. | Self-referenced tracking |
JP4921634B2 (ja) | 2000-01-31 | 2012-04-25 | グーグル インコーポレイテッド | 表示装置 |
US9129034B2 (en) | 2000-02-04 | 2015-09-08 | Browse3D Corporation | System and method for web browsing |
KR20000030430A (ko) | 2000-02-29 | 2000-06-05 | 김양신 | 3차원 그래픽 가상공간을 이용한 인터넷 광고시스템 |
JP4479051B2 (ja) | 2000-04-28 | 2010-06-09 | ソニー株式会社 | 情報処理装置および方法、並びに記録媒体 |
US6784901B1 (en) | 2000-05-09 | 2004-08-31 | There | Method, system and computer program product for the delivery of a chat message in a 3D multi-user environment |
JP4733809B2 (ja) * | 2000-05-23 | 2011-07-27 | 株式会社東芝 | 放射線治療計画装置 |
KR100487543B1 (ko) | 2000-09-01 | 2005-05-03 | 엘지전자 주식회사 | 시피유 스케쥴링 방법 |
US7788323B2 (en) | 2000-09-21 | 2010-08-31 | International Business Machines Corporation | Method and apparatus for sharing information in a virtual environment |
JP4646374B2 (ja) | 2000-09-29 | 2011-03-09 | オリンパス株式会社 | 画像観察光学系 |
US7168051B2 (en) | 2000-10-10 | 2007-01-23 | Addnclick, Inc. | System and method to configure and provide a network-enabled three-dimensional computing environment |
TW522256B (en) | 2000-12-15 | 2003-03-01 | Samsung Electronics Co Ltd | Wearable display system |
US6715089B2 (en) | 2001-01-22 | 2004-03-30 | Ati International Srl | Reducing power consumption by estimating engine load and reducing engine clock speed |
US20020108064A1 (en) | 2001-02-07 | 2002-08-08 | Patrick Nunally | System and method for optimizing power/performance in network-centric microprocessor-controlled devices |
US6807352B2 (en) | 2001-02-11 | 2004-10-19 | Georgia Tech Research Corporation | Optical waveguides with embedded air-gap cladding layer and methods of fabrication thereof |
US6931596B2 (en) | 2001-03-05 | 2005-08-16 | Koninklijke Philips Electronics N.V. | Automatic positioning of display depending upon the viewer's location |
US7176942B2 (en) | 2001-03-23 | 2007-02-13 | Dassault Systemes | Collaborative design |
US20020140848A1 (en) | 2001-03-30 | 2002-10-03 | Pelco | Controllable sealed chamber for surveillance camera |
EP1249717A3 (en) | 2001-04-10 | 2005-05-11 | Matsushita Electric Industrial Co., Ltd. | Antireflection coating and optical element using the same |
GB2393294B (en) | 2001-04-27 | 2005-04-06 | Ibm | Method and apparatus for controlling operation speed of processor |
US6961055B2 (en) | 2001-05-09 | 2005-11-01 | Free Radical Design Limited | Methods and apparatus for constructing virtual environments |
JP4682470B2 (ja) | 2001-07-16 | 2011-05-11 | 株式会社デンソー | スキャン型ディスプレイ装置 |
US6622253B2 (en) | 2001-08-02 | 2003-09-16 | Scientific-Atlanta, Inc. | Controlling processor clock rate based on thread priority |
US6762845B2 (en) | 2001-08-23 | 2004-07-13 | Zygo Corporation | Multiple-pass interferometry |
DE60124961T2 (de) | 2001-09-25 | 2007-07-26 | Cambridge Flat Projection Displays Ltd., Fenstanton | Flachtafel-Projektionsanzeige |
US6833955B2 (en) | 2001-10-09 | 2004-12-21 | Planop Planar Optics Ltd. | Compact two-plane optical device |
AU2002361572A1 (en) * | 2001-10-19 | 2003-04-28 | University Of North Carolina At Chape Hill | Methods and systems for dynamic virtual convergence and head mountable display |
JP3805231B2 (ja) | 2001-10-26 | 2006-08-02 | キヤノン株式会社 | 画像表示装置及びその方法並びに記憶媒体 |
JP3834615B2 (ja) | 2001-11-02 | 2006-10-18 | 独立行政法人産業技術総合研究所 | 画像表示方法及びシステム |
US7076674B2 (en) | 2001-12-19 | 2006-07-11 | Hewlett-Packard Development Company L.P. | Portable computer having dual clock mode |
JP2003329873A (ja) | 2001-12-27 | 2003-11-19 | Fujikura Ltd | 位置決め機構を備えた光ファイバ把持具、光ファイバアダプタ、及び光ファイバ加工装置 |
US6592220B1 (en) | 2002-01-30 | 2003-07-15 | Lak Cheong | Eyeglass frame with removably mounted lenses |
US7305020B2 (en) | 2002-02-04 | 2007-12-04 | Vizionware, Inc. | Method and system of reducing electromagnetic interference emissions |
US7038694B1 (en) | 2002-03-11 | 2006-05-02 | Microsoft Corporation | Automatic scenery object generation |
US6999087B2 (en) | 2002-03-12 | 2006-02-14 | Sun Microsystems, Inc. | Dynamically adjusting sample density in a graphics system |
EP1351117A1 (en) | 2002-04-03 | 2003-10-08 | Hewlett-Packard Company | Data processing system and method |
WO2003091914A1 (en) | 2002-04-25 | 2003-11-06 | Arc International | Apparatus and method for managing integrated circuit designs |
US6849558B2 (en) | 2002-05-22 | 2005-02-01 | The Board Of Trustees Of The Leland Stanford Junior University | Replication and transfer of microstructures and nanostructures |
KR100382232B1 (en) | 2002-05-31 | 2003-05-09 | Palm Palm Tech | Mobile terminal having enhanced power managing function and power managing method thereof |
US7046515B1 (en) | 2002-06-06 | 2006-05-16 | Raytheon Company | Method and apparatus for cooling a circuit component |
US7155617B2 (en) | 2002-08-01 | 2006-12-26 | Texas Instruments Incorporated | Methods and systems for performing dynamic power management via frequency and voltage scaling |
US6714157B2 (en) | 2002-08-02 | 2004-03-30 | The Boeing Company | Multiple time-interleaved radar operation using a single radar at different angles |
US20040113887A1 (en) | 2002-08-27 | 2004-06-17 | University Of Southern California | partially real and partially simulated modular interactive environment |
KR100480786B1 (ko) | 2002-09-02 | 2005-04-07 | 삼성전자주식회사 | 커플러를 가지는 집적형 광 헤드 |
AU2003265891A1 (en) | 2002-09-04 | 2004-03-29 | Mentor Graphics (Holdings) Ltd. | Polymorphic computational system and method in signals intelligence analysis |
US8458028B2 (en) | 2002-10-16 | 2013-06-04 | Barbaro Technologies | System and method for integrating business-related content into an electronic game |
EP1573490A2 (en) | 2002-12-04 | 2005-09-14 | Koninklijke Philips Electronics N.V. | Software-based control of microprocessor power dissipation |
US20050128212A1 (en) | 2003-03-06 | 2005-06-16 | Edecker Ada M. | System and method for minimizing the amount of data necessary to create a virtual three-dimensional environment |
US7306337B2 (en) | 2003-03-06 | 2007-12-11 | Rensselaer Polytechnic Institute | Calibration-free gaze tracking under natural head movement |
DE10311972A1 (de) | 2003-03-18 | 2004-09-30 | Carl Zeiss | HMD-Vorrichtung |
AU2003901272A0 (en) | 2003-03-19 | 2003-04-03 | Martin Hogan Pty Ltd | Improvements in or relating to eyewear attachments |
US7294360B2 (en) | 2003-03-31 | 2007-11-13 | Planar Systems, Inc. | Conformal coatings for micro-optical elements, and method for making the same |
US20040205757A1 (en) | 2003-04-09 | 2004-10-14 | Pering Trevor A. | Performance scheduling using multiple constraints |
CN100416340C (zh) * | 2003-04-25 | 2008-09-03 | 微型光学公司 | 双目镜观察系统 |
EP1639394A2 (en) | 2003-06-10 | 2006-03-29 | Elop Electro-Optics Industries Ltd. | Method and system for displaying an informative image against a background image |
US20040268159A1 (en) | 2003-06-30 | 2004-12-30 | Microsoft Corporation | Power profiling |
US7467356B2 (en) | 2003-07-25 | 2008-12-16 | Three-B International Limited | Graphical user interface for 3d virtual display browser using virtual display windows |
US7134031B2 (en) | 2003-08-04 | 2006-11-07 | Arm Limited | Performance control within a multi-processor system |
JP3931336B2 (ja) | 2003-09-26 | 2007-06-13 | マツダ株式会社 | 車両用情報提供装置 |
US7434083B1 (en) | 2004-01-06 | 2008-10-07 | Apple Inc. | Method and apparatus for the generation and control of clock signals |
JP4699699B2 (ja) | 2004-01-15 | 2011-06-15 | 株式会社東芝 | ビーム光走査装置及び画像形成装置 |
US7269590B2 (en) | 2004-01-29 | 2007-09-11 | Yahoo! Inc. | Method and system for customizing views of information associated with a social network user |
EP1731943B1 (en) | 2004-03-29 | 2019-02-13 | Sony Corporation | Optical device and virtual image display device |
JP4364047B2 (ja) | 2004-04-14 | 2009-11-11 | オリンパス株式会社 | 表示装置、撮像装置 |
CN100350792C (zh) | 2004-04-14 | 2007-11-21 | 奥林巴斯株式会社 | 摄像装置 |
US7219245B1 (en) | 2004-06-03 | 2007-05-15 | Advanced Micro Devices, Inc. | Adaptive CPU clock management |
US20060019723A1 (en) | 2004-06-29 | 2006-01-26 | Pieter Vorenkamp | Automatic control of power save operation in a portable communication device utilizing historical usage information |
US7382288B1 (en) | 2004-06-30 | 2008-06-03 | Rockwell Collins, Inc. | Display of airport signs on head-up display |
GB0416038D0 (en) | 2004-07-16 | 2004-08-18 | Portland Press Ltd | Document display system |
EP1769275A1 (en) | 2004-07-22 | 2007-04-04 | Pirelli & C. S.p.A. | Integrated wavelength selective grating-based filter |
US7542040B2 (en) | 2004-08-11 | 2009-06-02 | The United States Of America As Represented By The Secretary Of The Navy | Simulated locomotion method and apparatus |
EP1850731A2 (en) | 2004-08-12 | 2007-11-07 | Elop Electro-Optical Industries Ltd. | Integrated retinal imager and method |
US9030532B2 (en) | 2004-08-19 | 2015-05-12 | Microsoft Technology Licensing, Llc | Stereoscopic image display |
US7029114B2 (en) | 2004-09-03 | 2006-04-18 | E'lite Optik U.S. L.P. | Eyewear assembly with auxiliary frame and lens assembly |
WO2006030848A1 (ja) | 2004-09-16 | 2006-03-23 | Nikon Corporation | 非晶質酸化珪素バインダを有するMgF2光学薄膜、及びそれを備える光学素子、並びにそのMgF2光学薄膜の製造方法 |
US20060090092A1 (en) | 2004-10-25 | 2006-04-27 | Verhulst Anton H | Clock timing adjustment |
US7536567B2 (en) | 2004-12-10 | 2009-05-19 | Hewlett-Packard Development Company, L.P. | BIOS-based systems and methods of processor power management |
US20060126181A1 (en) | 2004-12-13 | 2006-06-15 | Nokia Corporation | Method and system for beam expansion in a display device |
US8619365B2 (en) | 2004-12-29 | 2013-12-31 | Corning Incorporated | Anti-reflective coating for optical windows and elements |
GB0502453D0 (en) | 2005-02-05 | 2005-03-16 | Cambridge Flat Projection | Flat panel lens |
US7573640B2 (en) | 2005-04-04 | 2009-08-11 | Mirage Innovations Ltd. | Multi-plane optical apparatus |
US20060250322A1 (en) | 2005-05-09 | 2006-11-09 | Optics 1, Inc. | Dynamic vergence and focus control for head-mounted displays |
US7948683B2 (en) | 2006-05-14 | 2011-05-24 | Holochip Corporation | Fluidic lens with manually-adjustable focus |
US7644148B2 (en) | 2005-05-16 | 2010-01-05 | Hewlett-Packard Development Company, L.P. | Historical data based workload allocation |
WO2006132614A1 (en) | 2005-06-03 | 2006-12-14 | Nokia Corporation | General diffractive optics method for expanding and exit pupil |
US7364306B2 (en) | 2005-06-20 | 2008-04-29 | Digital Display Innovations, Llc | Field sequential light source modulation for a digital display system |
US7746343B1 (en) | 2005-06-27 | 2010-06-29 | Google Inc. | Streaming and interactive visualization of filled polygon data in a geographic information system |
JP4776285B2 (ja) | 2005-07-01 | 2011-09-21 | ソニー株式会社 | 照明光学装置及びこれを用いた虚像表示装置 |
JP4660787B2 (ja) | 2005-08-25 | 2011-03-30 | 隆広 西岡 | 眼鏡 |
US7739524B2 (en) | 2005-08-29 | 2010-06-15 | The Invention Science Fund I, Inc | Power consumption management |
US20070058248A1 (en) | 2005-09-14 | 2007-03-15 | Nguyen Minh T | Sport view binocular-zoom lens focus system |
US20080043334A1 (en) | 2006-08-18 | 2008-02-21 | Mirage Innovations Ltd. | Diffractive optical relay and method for manufacturing the same |
US7869128B2 (en) | 2005-09-27 | 2011-01-11 | Konica Minolta Holdings, Inc. | Head mounted display |
US20100232016A1 (en) | 2005-09-28 | 2010-09-16 | Mirage Innovations Ltd. | Stereoscopic Binocular System, Device and Method |
US7817150B2 (en) | 2005-09-30 | 2010-10-19 | Rockwell Automation Technologies, Inc. | Three-dimensional immersive system for representing an automation control environment |
US8696113B2 (en) | 2005-10-07 | 2014-04-15 | Percept Technologies Inc. | Enhanced optical and perceptual digital eyewear |
US11428937B2 (en) | 2005-10-07 | 2022-08-30 | Percept Technologies | Enhanced optical and perceptual digital eyewear |
US20070081123A1 (en) | 2005-10-07 | 2007-04-12 | Lewis Scott W | Digital eyewear |
US9658473B2 (en) | 2005-10-07 | 2017-05-23 | Percept Technologies Inc | Enhanced optical and perceptual digital eyewear |
KR101193331B1 (ko) | 2005-10-14 | 2012-10-19 | 엘지전자 주식회사 | 그래픽장치의 전력소모를 관리하는 시스템 및 방법 |
EP1943556B1 (en) | 2005-11-03 | 2009-02-11 | Mirage Innovations Ltd. | Binocular optical relay device |
US8092723B2 (en) | 2005-11-18 | 2012-01-10 | Nanocomp Oy Ltd | Method of producing a diffraction grating element |
EP1952189B1 (en) | 2005-11-21 | 2016-06-01 | Microvision, Inc. | Display with image-guiding substrate |
US7917573B2 (en) | 2005-11-30 | 2011-03-29 | International Business Machines Corporation | Measuring and reporting processor capacity and processor usage in a computer system with processors of different speed and/or architecture |
JP2007199841A (ja) | 2006-01-24 | 2007-08-09 | Seiko Epson Corp | 電子機器のコントローラ、バス制御装置 |
WO2007085682A1 (en) | 2006-01-26 | 2007-08-02 | Nokia Corporation | Eye tracker device |
KR20060059992A (ko) | 2006-01-31 | 2006-06-02 | 닛토덴코 가부시키가이샤 | 간섭 광학필터 |
JP2007219106A (ja) | 2006-02-16 | 2007-08-30 | Konica Minolta Holdings Inc | 光束径拡大光学素子、映像表示装置およびヘッドマウントディスプレイ |
US7461535B2 (en) | 2006-03-01 | 2008-12-09 | Memsic, Inc. | Multi-temperature programming for accelerometer |
IL174170A (en) | 2006-03-08 | 2015-02-26 | Abraham Aharoni | Device and method for two-eyed tuning |
US7353134B2 (en) | 2006-03-09 | 2008-04-01 | Dean A. Cirielli | Three-dimensional position and motion telemetry input |
CN101449270B (zh) | 2006-03-15 | 2011-11-16 | 谷歌公司 | 自动显示尺寸调整后的图像 |
JP2007273733A (ja) | 2006-03-31 | 2007-10-18 | Tdk Corp | 固体電解コンデンサの製造方法 |
WO2007141587A1 (en) | 2006-06-02 | 2007-12-13 | Nokia Corporation | Color distribution in exit pupil expanders |
EP1868149B1 (en) | 2006-06-14 | 2019-08-07 | Dassault Systèmes | Improved computerized collaborative work |
US7692855B2 (en) | 2006-06-28 | 2010-04-06 | Essilor International Compagnie Generale D'optique | Optical article having a temperature-resistant anti-reflection coating with optimized thickness ratio of low index and high index layers |
US9015501B2 (en) | 2006-07-13 | 2015-04-21 | International Business Machines Corporation | Structure for asymmetrical performance multi-processors |
US7724980B1 (en) | 2006-07-24 | 2010-05-25 | Adobe Systems Incorporated | System and method for selective sharpening of images |
US8214660B2 (en) | 2006-07-26 | 2012-07-03 | International Business Machines Corporation | Structure for an apparatus for monitoring and controlling heat generation in a multi-core processor |
KR100809479B1 (ko) | 2006-07-27 | 2008-03-03 | 한국전자통신연구원 | 혼합 현실 환경을 위한 얼굴 착용형 디스플레이 장치 |
US20080030429A1 (en) | 2006-08-07 | 2008-02-07 | International Business Machines Corporation | System and method of enhanced virtual reality |
US7640449B2 (en) | 2006-08-17 | 2009-12-29 | Via Technologies, Inc. | Systems and methods for dynamic clock frequencies for low power design |
US9582060B2 (en) | 2006-08-31 | 2017-02-28 | Advanced Silicon Technologies Llc | Battery-powered device with reduced power consumption based on an application profile data |
JP4861105B2 (ja) | 2006-09-15 | 2012-01-25 | 株式会社エヌ・ティ・ティ・ドコモ | 空間掲示板システム |
US20080068557A1 (en) | 2006-09-20 | 2008-03-20 | Gilbert Menduni | Lens holding frame |
US20080125218A1 (en) | 2006-09-20 | 2008-05-29 | Kelly James Collins | Method of use for a commercially available portable virtual reality system |
WO2008038058A1 (en) | 2006-09-28 | 2008-04-03 | Nokia Corporation | Beam expansion with three-dimensional diffractive elements |
US20090300528A1 (en) | 2006-09-29 | 2009-12-03 | Stambaugh Thomas M | Browser event tracking for distributed web-based processing, spatial organization and display of information |
CN105445835B (zh) | 2006-10-31 | 2021-07-27 | 莫迪里斯控股有限责任公司 | 照明装置及照明系统 |
EP2095171A4 (en) | 2006-12-14 | 2009-12-30 | Nokia Corp | DISPLAY DEVICE HAVING TWO OPERATING MODES |
JP4847351B2 (ja) | 2007-01-11 | 2011-12-28 | キヤノン株式会社 | 回折光学素子及びそれを用いた回折格子 |
US7418368B2 (en) | 2007-01-18 | 2008-08-26 | International Business Machines Corporation | Method and system for testing processor cores |
JP4348441B2 (ja) | 2007-01-22 | 2009-10-21 | 国立大学法人 大阪教育大学 | 位置検出装置、位置検出方法、データ判定装置、データ判定方法、コンピュータプログラム及び記憶媒体 |
US8726681B2 (en) | 2007-01-23 | 2014-05-20 | Hewlett-Packard Development Company, L.P. | Method and system of cooling components of a computer system |
US20090017910A1 (en) | 2007-06-22 | 2009-01-15 | Broadcom Corporation | Position and motion tracking of an object |
JP5194530B2 (ja) | 2007-04-09 | 2013-05-08 | 凸版印刷株式会社 | 画像表示装置及び画像表示方法 |
US7733439B2 (en) | 2007-04-30 | 2010-06-08 | Qualcomm Mems Technologies, Inc. | Dual film light guide for illuminating displays |
WO2008148927A1 (en) | 2007-06-04 | 2008-12-11 | Nokia Corporation | A diffractive beam expander and a virtual display based on a diffractive beam expander |
US8060759B1 (en) | 2007-06-29 | 2011-11-15 | Emc Corporation | System and method of managing and optimizing power consumption in a storage system |
US9387402B2 (en) | 2007-09-18 | 2016-07-12 | Disney Enterprises, Inc. | Method and system for converting a computer virtual environment into a real-life simulation environment |
JP2009090689A (ja) | 2007-10-03 | 2009-04-30 | Calsonic Kansei Corp | ヘッドアップディスプレイ |
US8368721B2 (en) | 2007-10-06 | 2013-02-05 | Mccoy Anthony | Apparatus and method for on-field virtual reality simulation of US football and other sports |
US7844724B2 (en) | 2007-10-24 | 2010-11-30 | Social Communications Company | Automated real-time data stream switching in a shared virtual area communication environment |
US20110041083A1 (en) | 2007-12-12 | 2011-02-17 | Oz Gabai | System and methodology for providing shared internet experience |
US8508848B2 (en) | 2007-12-18 | 2013-08-13 | Nokia Corporation | Exit pupil expanders with wide field-of-view |
DE102008005817A1 (de) | 2008-01-24 | 2009-07-30 | Carl Zeiss Ag | Optisches Anzeigegerät |
WO2009101238A1 (en) | 2008-02-14 | 2009-08-20 | Nokia Corporation | Device and method for determining gaze direction |
JP2009244869A (ja) | 2008-03-11 | 2009-10-22 | Panasonic Corp | 表示装置、表示方法、眼鏡型ヘッドマウントディスプレイ、及び自動車 |
US8296196B2 (en) | 2008-05-15 | 2012-10-23 | International Business Machines Corporation | Tag along shopping |
US9400212B2 (en) | 2008-06-13 | 2016-07-26 | Barco Inc. | Smart pixel addressing |
JP5181860B2 (ja) | 2008-06-17 | 2013-04-10 | セイコーエプソン株式会社 | パルス幅変調信号生成装置およびそれを備えた画像表示装置、並びにパルス幅変調信号生成方法 |
JP5027746B2 (ja) | 2008-07-01 | 2012-09-19 | 株式会社トプコン | 位置測定方法、位置測定装置、およびプログラム |
US8250389B2 (en) | 2008-07-03 | 2012-08-21 | International Business Machines Corporation | Profiling an application for power consumption during execution on a plurality of compute nodes |
US10885471B2 (en) | 2008-07-18 | 2021-01-05 | Disney Enterprises, Inc. | System and method for providing location-based data on a wireless portable device |
GB2462589B (en) | 2008-08-04 | 2013-02-20 | Sony Comp Entertainment Europe | Apparatus and method of viewing electronic documents |
US7850306B2 (en) | 2008-08-28 | 2010-12-14 | Nokia Corporation | Visual cognition aware display and visual data transmission architecture |
US8229800B2 (en) | 2008-09-13 | 2012-07-24 | At&T Intellectual Property I, L.P. | System and method for an enhanced shopping experience |
US7885506B2 (en) | 2008-09-26 | 2011-02-08 | Nokia Corporation | Device and a method for polarized illumination of a micro-display |
JP5805537B2 (ja) | 2008-10-14 | 2015-11-04 | オブロング・インダストリーズ・インコーポレーテッド | マルチプロセス・インタラクティブ・システムおよび方法 |
JP2010139575A (ja) | 2008-12-09 | 2010-06-24 | Brother Ind Ltd | シースルー型ヘッドマウント表示装置 |
US20100153934A1 (en) | 2008-12-12 | 2010-06-17 | Peter Lachner | Prefetch for systems with heterogeneous architectures |
US8325088B2 (en) | 2009-02-04 | 2012-12-04 | Google Inc. | Mobile device battery management |
US8539359B2 (en) | 2009-02-11 | 2013-09-17 | Jeffrey A. Rapaport | Social network driven indexing system for instantly clustering people with concurrent focus on same topic into on-topic chat rooms and/or for generating on-topic search results tailored to user preferences regarding topic |
US8411086B2 (en) | 2009-02-24 | 2013-04-02 | Fuji Xerox Co., Ltd. | Model creation using visual markup languages |
US8699141B2 (en) | 2009-03-13 | 2014-04-15 | Knowles Electronics, Llc | Lens assembly apparatus and method |
JP5121764B2 (ja) | 2009-03-24 | 2013-01-16 | 株式会社東芝 | 固体撮像装置 |
JP5380122B2 (ja) * | 2009-03-24 | 2014-01-08 | テルモ株式会社 | 医療用デバイス |
US9095436B2 (en) | 2009-04-14 | 2015-08-04 | The Invention Science Fund I, Llc | Adjustable orthopedic implant and method for treating an orthopedic condition in a subject |
US20100274567A1 (en) | 2009-04-22 | 2010-10-28 | Mark Carlson | Announcing information about payment transactions of any member of a consumer group |
US20100274627A1 (en) | 2009-04-22 | 2010-10-28 | Mark Carlson | Receiving an announcement triggered by location data |
US8839121B2 (en) | 2009-05-06 | 2014-09-16 | Joseph Bertolami | Systems and methods for unifying coordinate systems in augmented reality applications |
US9383823B2 (en) | 2009-05-29 | 2016-07-05 | Microsoft Technology Licensing, Llc | Combining gestures beyond skeletal |
US20110010636A1 (en) | 2009-07-13 | 2011-01-13 | International Business Machines Corporation | Specification of a characteristic of a virtual universe establishment |
KR20110006408A (ko) | 2009-07-14 | 2011-01-20 | 권소망 | 안경과 클립의 결합방법 및 그 결합구조 |
US20110022870A1 (en) | 2009-07-21 | 2011-01-27 | Microsoft Corporation | Component power monitoring and workload optimization |
US8758125B2 (en) | 2009-07-24 | 2014-06-24 | Wms Gaming, Inc. | Controlling event-driven behavior of wagering game objects |
JP2011033993A (ja) | 2009-08-05 | 2011-02-17 | Sharp Corp | 情報提示装置、および情報提示方法 |
JP5316391B2 (ja) | 2009-08-31 | 2013-10-16 | ソニー株式会社 | 画像表示装置及び頭部装着型ディスプレイ |
US8738949B2 (en) | 2009-08-31 | 2014-05-27 | Empire Technology Development Llc | Power management for processor |
US20110050640A1 (en) | 2009-09-03 | 2011-03-03 | Niklas Lundback | Calibration for a Large Scale Multi-User, Multi-Touch System |
US8170283B2 (en) | 2009-09-17 | 2012-05-01 | Behavioral Recognition Systems Inc. | Video surveillance system configured to analyze complex behaviors using alternating layers of clustering and sequencing |
US11320571B2 (en) | 2012-11-16 | 2022-05-03 | Rockwell Collins, Inc. | Transparent waveguide display providing upper and lower fields of view with uniform light extraction |
US8719839B2 (en) | 2009-10-30 | 2014-05-06 | Intel Corporation | Two way communication support for heterogenous processors of a computer platform |
US8305502B2 (en) | 2009-11-11 | 2012-11-06 | Eastman Kodak Company | Phase-compensated thin-film beam combiner |
US8605209B2 (en) | 2009-11-24 | 2013-12-10 | Gregory Towle Becker | Hurricane damage recording camera system |
US8909962B2 (en) | 2009-12-16 | 2014-12-09 | Qualcomm Incorporated | System and method for controlling central processing unit power with guaranteed transient deadlines |
US9244533B2 (en) | 2009-12-17 | 2016-01-26 | Microsoft Technology Licensing, Llc | Camera navigation for presentations |
US8751854B2 (en) | 2009-12-21 | 2014-06-10 | Empire Technology Development Llc | Processor core clock rate selection |
US8565554B2 (en) | 2010-01-09 | 2013-10-22 | Microsoft Corporation | Resizing of digital images |
KR101099137B1 (ko) | 2010-01-29 | 2011-12-27 | 주식회사 팬택 | 이동 통신 시스템에서 증강 현실 정보를 제공하기 위한 장치 및 방법 |
US8549339B2 (en) | 2010-02-26 | 2013-10-01 | Empire Technology Development Llc | Processor core communication in multi-core processor |
US8467133B2 (en) | 2010-02-28 | 2013-06-18 | Osterhout Group, Inc. | See-through display with an optical assembly including a wedge-shaped illumination system |
US11275482B2 (en) | 2010-02-28 | 2022-03-15 | Microsoft Technology Licensing, Llc | Ar glasses with predictive control of external device based on event input |
US9753297B2 (en) | 2010-03-04 | 2017-09-05 | Nokia Corporation | Optical apparatus and method for expanding an exit pupil |
US9547910B2 (en) | 2010-03-04 | 2017-01-17 | Honeywell International Inc. | Method and apparatus for vision aided navigation using image registration |
JP5499854B2 (ja) | 2010-04-08 | 2014-05-21 | ソニー株式会社 | 頭部装着型ディスプレイにおける光学的位置調整方法 |
US8118499B2 (en) | 2010-05-19 | 2012-02-21 | LIR Systems, Inc. | Infrared camera assembly systems and methods |
US20110291964A1 (en) | 2010-06-01 | 2011-12-01 | Kno, Inc. | Apparatus and Method for Gesture Control of a Dual Panel Electronic Device |
JP5923696B2 (ja) | 2010-06-08 | 2016-05-25 | アキム株式会社 | 角速度センサ検査用テーブル装置 |
JP2012015774A (ja) | 2010-06-30 | 2012-01-19 | Toshiba Corp | 立体視映像処理装置および立体視映像処理方法 |
US8560876B2 (en) | 2010-07-06 | 2013-10-15 | Sap Ag | Clock acceleration of CPU core based on scanned result of task for parallel execution controlling key word |
US8601288B2 (en) | 2010-08-31 | 2013-12-03 | Sonics, Inc. | Intelligent power controller |
US8854594B2 (en) | 2010-08-31 | 2014-10-07 | Cast Group Of Companies Inc. | System and method for tracking |
KR101479262B1 (ko) | 2010-09-02 | 2015-01-12 | 주식회사 팬택 | 증강현실 정보 이용 권한 부여 방법 및 장치 |
JP5632693B2 (ja) | 2010-09-28 | 2014-11-26 | 任天堂株式会社 | 情報処理プログラム、情報処理装置、情報処理方法および情報処理システム |
US20120081392A1 (en) | 2010-09-30 | 2012-04-05 | Apple Inc. | Electronic device operation adjustment based on face detection |
US8688926B2 (en) | 2010-10-10 | 2014-04-01 | Liqid Inc. | Systems and methods for optimizing data storage among a plurality of solid state memory subsystems |
KR101260576B1 (ko) | 2010-10-13 | 2013-05-06 | 주식회사 팬택 | Ar 서비스를 제공하기 위한 사용자 단말기 및 그 방법 |
US8947784B2 (en) | 2010-10-26 | 2015-02-03 | Optotune Ag | Variable focus lens having two liquid chambers |
WO2012062681A1 (de) | 2010-11-08 | 2012-05-18 | Seereal Technologies S.A. | Anzeigegerät, insbesondere ein head-mounted display, basierend auf zeitlichen und räumlichen multiplexing von hologrammkacheln |
US20120113235A1 (en) | 2010-11-08 | 2012-05-10 | Sony Corporation | 3d glasses, systems, and methods for optimized viewing of 3d video content |
JP5854593B2 (ja) | 2010-11-17 | 2016-02-09 | キヤノン株式会社 | 積層型回折光学素子 |
US9304319B2 (en) | 2010-11-18 | 2016-04-05 | Microsoft Technology Licensing, Llc | Automatic focus improvement for augmented reality displays |
US9213405B2 (en) | 2010-12-16 | 2015-12-15 | Microsoft Technology Licensing, Llc | Comprehension and intent-based content for augmented reality displays |
US10391277B2 (en) * | 2011-02-18 | 2019-08-27 | Voxel Rad, Ltd. | Systems and methods for 3D stereoscopic angiovision, angionavigation and angiotherapeutics |
US20160187654A1 (en) | 2011-02-28 | 2016-06-30 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses with a light transmissive wedge shaped illumination system |
US8949637B2 (en) | 2011-03-24 | 2015-02-03 | Intel Corporation | Obtaining power profile information with low overhead |
KR101591579B1 (ko) | 2011-03-29 | 2016-02-18 | 퀄컴 인코포레이티드 | 증강 현실 시스템들에서 실세계 표면들에의 가상 이미지들의 앵커링 |
KR101210163B1 (ko) | 2011-04-05 | 2012-12-07 | 엘지이노텍 주식회사 | 광학 시트 및 이를 포함하는 표시장치 |
US8856571B2 (en) | 2011-04-05 | 2014-10-07 | Apple Inc. | Adjusting device performance over multiple time domains |
US8856355B2 (en) | 2011-05-09 | 2014-10-07 | Samsung Electronics Co., Ltd. | Systems and methods for facilitating communication between mobile devices and display devices |
JP2012235036A (ja) | 2011-05-09 | 2012-11-29 | Shimadzu Corp | 発熱部品搭載用の厚銅箔プリント配線基板およびその製造方法 |
US20150077312A1 (en) | 2011-05-13 | 2015-03-19 | Google Inc. | Near-to-eye display having adaptive optics |
US9245307B2 (en) | 2011-06-01 | 2016-01-26 | Empire Technology Development Llc | Structured light projection for motion detection in augmented reality |
US10606066B2 (en) | 2011-06-21 | 2020-03-31 | Gholam A. Peyman | Fluidic light field camera |
US20120326948A1 (en) | 2011-06-22 | 2012-12-27 | Microsoft Corporation | Environmental-light filter for see-through head-mounted display device |
EP2723240B1 (en) | 2011-06-27 | 2018-08-08 | Koninklijke Philips N.V. | Live 3d angiogram using registration of a surgical tool curve to an x-ray image |
US9100587B2 (en) | 2011-07-22 | 2015-08-04 | Naturalpoint, Inc. | Hosted camera remote control |
US8548290B2 (en) | 2011-08-23 | 2013-10-01 | Vuzix Corporation | Dynamic apertured waveguide for near-eye display |
US10670876B2 (en) | 2011-08-24 | 2020-06-02 | Digilens Inc. | Waveguide laser illuminator incorporating a despeckler |
US9400395B2 (en) | 2011-08-29 | 2016-07-26 | Vuzix Corporation | Controllable waveguide for near-eye display applications |
US9025252B2 (en) | 2011-08-30 | 2015-05-05 | Microsoft Technology Licensing, Llc | Adjustment of a mixed reality display for inter-pupillary distance alignment |
US9213163B2 (en) | 2011-08-30 | 2015-12-15 | Microsoft Technology Licensing, Llc | Aligning inter-pupillary distance in a near-eye display system |
KR101407670B1 (ko) | 2011-09-15 | 2014-06-16 | 주식회사 팬택 | 증강현실 기반 모바일 단말과 서버 및 그 통신방법 |
US8998414B2 (en) | 2011-09-26 | 2015-04-07 | Microsoft Technology Licensing, Llc | Integrated eye tracking and display system |
US9835765B2 (en) | 2011-09-27 | 2017-12-05 | Canon Kabushiki Kaisha | Optical element and method for manufacturing the same |
US8847988B2 (en) | 2011-09-30 | 2014-09-30 | Microsoft Corporation | Exercising applications for personal audio/visual system |
US9125301B2 (en) | 2011-10-18 | 2015-09-01 | Integrated Microwave Corporation | Integral heater assembly and method for carrier or host board of electronic package assembly |
US8782454B2 (en) | 2011-10-28 | 2014-07-15 | Apple Inc. | System and method for managing clock speed based on task urgency |
US9678102B2 (en) | 2011-11-04 | 2017-06-13 | Google Inc. | Calibrating intertial sensors using an image sensor |
US8891918B2 (en) | 2011-11-17 | 2014-11-18 | At&T Intellectual Property I, L.P. | Methods, systems, and products for image displays |
JP6189854B2 (ja) * | 2011-12-03 | 2017-08-30 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 半自動経路プランニングのための自動奥行きスクローリング及びオリエンテーション調整 |
US20130162940A1 (en) | 2011-12-27 | 2013-06-27 | Zoom Focus Eyeware, LLC | Spectacles With Removable Optics |
US8608309B2 (en) | 2011-12-30 | 2013-12-17 | A New Vision Llc | Eyeglass system |
WO2013101273A1 (en) * | 2011-12-30 | 2013-07-04 | St. Jude Medical, Atrial Fibrillation Division, Inc. | System and method for detection and avoidance of collisions of robotically-controlled medical devices |
WO2013115829A2 (en) | 2012-02-04 | 2013-08-08 | Empire Technology Development Llc | Core-level dynamic voltage and frequency scaling in a chip multiprocessor |
JP5942456B2 (ja) | 2012-02-10 | 2016-06-29 | ソニー株式会社 | 画像処理装置、画像処理方法及びプログラム |
GB2499635B (en) | 2012-02-23 | 2014-05-14 | Canon Kk | Image processing for projection on a projection screen |
US9704220B1 (en) | 2012-02-29 | 2017-07-11 | Google Inc. | Systems, methods, and media for adjusting one or more images displayed to a viewer |
EP2688060A4 (en) | 2012-03-22 | 2015-08-05 | Sony Corp | DISPLAY DEVICE, IMAGE PROCESSING DEVICE AND IMAGE PROCESSING PROCESS AND COMPUTER PROGRAM THEREFOR |
JP5966510B2 (ja) | 2012-03-29 | 2016-08-10 | ソニー株式会社 | 情報処理システム |
US10013511B2 (en) | 2012-04-09 | 2018-07-03 | Purdue Research Foundation | System and method for energy usage accounting in software applications |
US20130278633A1 (en) | 2012-04-20 | 2013-10-24 | Samsung Electronics Co., Ltd. | Method and system for generating augmented reality scene |
EP2834698B1 (en) | 2012-05-03 | 2021-06-23 | Nokia Technologies Oy | Image providing apparatus, method and computer program |
US9495308B2 (en) | 2012-05-22 | 2016-11-15 | Xockets, Inc. | Offloading of computation for rack level servers and corresponding methods and systems |
US8989535B2 (en) | 2012-06-04 | 2015-03-24 | Microsoft Technology Licensing, Llc | Multiple waveguide imaging structure |
US9671566B2 (en) | 2012-06-11 | 2017-06-06 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
US9113291B2 (en) | 2012-06-18 | 2015-08-18 | Qualcomm Incorporated | Location detection within identifiable pre-defined geographic areas |
US8848741B2 (en) | 2012-06-21 | 2014-09-30 | Breakingpoint Systems, Inc. | High-speed CLD-based TCP segmentation offload |
US9767720B2 (en) | 2012-06-25 | 2017-09-19 | Microsoft Technology Licensing, Llc | Object-centric mixed reality space |
US9696547B2 (en) | 2012-06-25 | 2017-07-04 | Microsoft Technology Licensing, Llc | Mixed reality system learned input and functions |
US9645394B2 (en) | 2012-06-25 | 2017-05-09 | Microsoft Technology Licensing, Llc | Configured virtual environments |
JP5538483B2 (ja) | 2012-06-29 | 2014-07-02 | 株式会社ソニー・コンピュータエンタテインメント | 映像処理装置、映像処理方法、および映像処理システム |
TW201403299A (zh) | 2012-07-04 | 2014-01-16 | Acer Inc | 中央處理器控制方法 |
US8605764B1 (en) | 2012-07-09 | 2013-12-10 | Microvision, Inc. | Laser diode junction temperature compensation |
US9031283B2 (en) | 2012-07-12 | 2015-05-12 | Qualcomm Incorporated | Sensor-aided wide-area localization on mobile devices |
US9860522B2 (en) | 2012-08-04 | 2018-01-02 | Paul Lapstun | Head-mounted light field display |
US9841563B2 (en) | 2012-08-04 | 2017-12-12 | Paul Lapstun | Shuttered waveguide light field display |
WO2014031540A1 (en) | 2012-08-20 | 2014-02-27 | Cameron Donald Kevin | Processing resource allocation |
CN102829880B (zh) | 2012-08-23 | 2014-04-16 | 江苏物联网研究发展中心 | 基于黒硅的高性能mems热电堆红外探测器及其制备方法 |
US9380287B2 (en) | 2012-09-03 | 2016-06-28 | Sensomotoric Instruments Gesellschaft Fur Innovative Sensorik Mbh | Head mounted system and method to compute and render a stream of digital images using a head mounted display |
US9798144B2 (en) | 2012-09-12 | 2017-10-24 | Sony Corporation | Wearable image display device to control display of image |
KR101923723B1 (ko) | 2012-09-17 | 2018-11-29 | 한국전자통신연구원 | 사용자 간 상호작용이 가능한 메타버스 공간을 제공하기 위한 메타버스 클라이언트 단말 및 방법 |
US9177404B2 (en) | 2012-10-31 | 2015-11-03 | Qualcomm Incorporated | Systems and methods of merging multiple maps for computer vision based tracking |
US9576183B2 (en) | 2012-11-02 | 2017-02-21 | Qualcomm Incorporated | Fast initialization for monocular visual SLAM |
US9584382B2 (en) | 2012-11-28 | 2017-02-28 | At&T Intellectual Property I, L.P. | Collecting and using quality of experience information |
US20140168260A1 (en) | 2012-12-13 | 2014-06-19 | Paul M. O'Brien | Waveguide spacers within an ned device |
US8988574B2 (en) | 2012-12-27 | 2015-03-24 | Panasonic Intellectual Property Corporation Of America | Information communication method for obtaining information using bright line image |
US20150355481A1 (en) | 2012-12-31 | 2015-12-10 | Esight Corp. | Apparatus and method for fitting head mounted vision augmentation systems |
US10716469B2 (en) | 2013-01-25 | 2020-07-21 | Wesley W. O. Krueger | Ocular-performance-based head impact measurement applied to rotationally-centered impact mitigation systems and methods |
US9336629B2 (en) | 2013-01-30 | 2016-05-10 | F3 & Associates, Inc. | Coordinate geometry augmented reality process |
GB201301764D0 (en) | 2013-01-31 | 2013-03-20 | Adlens Ltd | Actuation of fluid-filled lenses |
US20160004102A1 (en) | 2013-02-15 | 2016-01-07 | Adlens Limited | Adjustable Lens and Article of Eyewear |
US8884663B2 (en) | 2013-02-25 | 2014-11-11 | Advanced Micro Devices, Inc. | State machine for low-noise clocking of high frequency clock |
US10437591B2 (en) | 2013-02-26 | 2019-10-08 | Qualcomm Incorporated | Executing an operating system on processors having different instruction set architectures |
US9600068B2 (en) | 2013-03-13 | 2017-03-21 | Sony Interactive Entertainment Inc. | Digital inter-pupillary distance adjustment |
US9854014B2 (en) | 2013-03-14 | 2017-12-26 | Google Inc. | Motion data sharing |
US9779517B2 (en) | 2013-03-15 | 2017-10-03 | Upskill, Inc. | Method and system for representing and interacting with augmented reality content |
MX351873B (es) | 2013-03-15 | 2017-11-01 | Immy Inc | Pantalla montada en la cabeza que tiene alineación mantenida mediante montura estructural. |
JP6337418B2 (ja) | 2013-03-26 | 2018-06-06 | セイコーエプソン株式会社 | 頭部装着型表示装置および頭部装着型表示装置の制御方法 |
KR101845350B1 (ko) | 2013-03-26 | 2018-05-18 | 세이코 엡슨 가부시키가이샤 | 두부 장착형 표시 장치 및 두부 장착형 표시 장치의 제어 방법 |
JP2014191718A (ja) | 2013-03-28 | 2014-10-06 | Sony Corp | 表示制御装置、表示制御方法および記録媒体 |
US9079399B2 (en) | 2013-05-16 | 2015-07-14 | Océ-Technologies B.V. | Method for operating a printing system |
US9235395B2 (en) | 2013-05-30 | 2016-01-12 | National Instruments Corporation | Graphical development and deployment of parallel floating-point math functionality on a system with heterogeneous hardware components |
JP6232763B2 (ja) * | 2013-06-12 | 2017-11-22 | セイコーエプソン株式会社 | 頭部装着型表示装置および頭部装着型表示装置の制御方法 |
WO2014203440A1 (ja) | 2013-06-19 | 2014-12-24 | パナソニックIpマネジメント株式会社 | 画像表示装置および画像表示方法 |
US9256987B2 (en) | 2013-06-24 | 2016-02-09 | Microsoft Technology Licensing, Llc | Tracking head movement when wearing mobile device |
JP6252004B2 (ja) * | 2013-07-16 | 2017-12-27 | セイコーエプソン株式会社 | 情報処理装置、情報処理方法、および、情報処理システム |
US9998863B2 (en) | 2013-08-19 | 2018-06-12 | Estimote Polska Sp. Z O. O. | System and method for providing content using beacon systems |
WO2015031511A1 (en) | 2013-08-27 | 2015-03-05 | Frameri Inc. | Removable eyeglass lens and frame platform |
EP3049886A4 (en) | 2013-09-27 | 2017-05-17 | Intel Corporation | Techniques for tracing wakelock usage |
US9256072B2 (en) | 2013-10-02 | 2016-02-09 | Philip Scott Lyren | Wearable electronic glasses that detect movement of a real object copies movement of a virtual object |
US20150123966A1 (en) | 2013-10-03 | 2015-05-07 | Compedia - Software And Hardware Development Limited | Interactive augmented virtual reality and perceptual computing platform |
US20150097719A1 (en) | 2013-10-03 | 2015-04-09 | Sulon Technologies Inc. | System and method for active reference positioning in an augmented reality environment |
US9996797B1 (en) | 2013-10-31 | 2018-06-12 | Leap Motion, Inc. | Interactions with virtual objects for machine control |
KR102189115B1 (ko) | 2013-11-11 | 2020-12-09 | 삼성전자주식회사 | 대칭형 다중 프로세서를 구비한 시스템 온-칩 및 이를 위한 최대 동작 클럭 주파수 결정 방법 |
US9286725B2 (en) | 2013-11-14 | 2016-03-15 | Nintendo Co., Ltd. | Visually convincing depiction of object interactions in augmented reality images |
CN105706028B (zh) | 2013-11-19 | 2018-05-29 | 麦克赛尔株式会社 | 投影型影像显示装置 |
JP6465030B2 (ja) | 2013-11-26 | 2019-02-06 | ソニー株式会社 | ヘッドマウントディスプレイ |
CN107329259B (zh) | 2013-11-27 | 2019-10-11 | 奇跃公司 | 虚拟和增强现实系统与方法 |
WO2015100714A1 (en) | 2014-01-02 | 2015-07-09 | Empire Technology Development Llc | Augmented reality (ar) system |
US9524580B2 (en) | 2014-01-06 | 2016-12-20 | Oculus Vr, Llc | Calibration of virtual reality systems |
US10228562B2 (en) | 2014-02-21 | 2019-03-12 | Sony Interactive Entertainment Inc. | Realtime lens aberration correction from eye tracking |
US9383630B2 (en) | 2014-03-05 | 2016-07-05 | Mygo, Llc | Camera mouth mount |
US9871741B2 (en) | 2014-03-10 | 2018-01-16 | Microsoft Technology Licensing, Llc | Resource management based on device-specific or user-specific resource usage profiles |
US9251598B2 (en) | 2014-04-10 | 2016-02-02 | GM Global Technology Operations LLC | Vision-based multi-camera factory monitoring with dynamic integrity scoring |
US11137601B2 (en) | 2014-03-26 | 2021-10-05 | Mark D. Wieczorek | System and method for distanced interactive experiences |
US20170123775A1 (en) | 2014-03-26 | 2017-05-04 | Empire Technology Development Llc | Compilation of application into multiple instruction sets for a heterogeneous processor |
JP6442149B2 (ja) | 2014-03-27 | 2018-12-19 | オリンパス株式会社 | 画像表示装置 |
US20150301955A1 (en) | 2014-04-21 | 2015-10-22 | Qualcomm Incorporated | Extending protection domains to co-processors |
US10424103B2 (en) | 2014-04-29 | 2019-09-24 | Microsoft Technology Licensing, Llc | Display device viewer gaze attraction |
US9626802B2 (en) | 2014-05-01 | 2017-04-18 | Microsoft Technology Licensing, Llc | Determining coordinate frames in a dynamic environment |
US10620700B2 (en) | 2014-05-09 | 2020-04-14 | Google Llc | Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects |
CN106662754B (zh) | 2014-05-30 | 2021-05-25 | 奇跃公司 | 用于采用虚拟或增强现实装置生成虚拟内容显示的方法和系统 |
EP2952850A1 (en) | 2014-06-03 | 2015-12-09 | Optotune AG | Optical device, particularly for tuning the focal length of a lens of the device by means of optical feedback |
JP6917710B2 (ja) | 2014-07-01 | 2021-08-11 | ソニーグループ株式会社 | 情報処理装置および方法 |
RU2603238C2 (ru) | 2014-07-15 | 2016-11-27 | Самсунг Электроникс Ко., Лтд. | Световодная структура, голографическое оптическое устройство и система формирования изображений |
US9865089B2 (en) | 2014-07-25 | 2018-01-09 | Microsoft Technology Licensing, Llc | Virtual reality environment with real world objects |
JP6683127B2 (ja) | 2014-08-01 | 2020-04-15 | ソニー株式会社 | 情報処理装置、および情報処理方法、並びにプログラム |
US9615806B2 (en) * | 2014-08-20 | 2017-04-11 | David Byron Douglas | Method and apparatus for creation and display of artifact-corrected three dimentional (3D) volumetric data from biplane fluoroscopic image acquisition |
US10543414B2 (en) | 2014-08-28 | 2020-01-28 | Sony Corporation | Image processing device and image processing system |
US20160077338A1 (en) | 2014-09-16 | 2016-03-17 | Steven John Robbins | Compact Projection Light Engine For A Diffractive Waveguide Display |
US9494799B2 (en) | 2014-09-24 | 2016-11-15 | Microsoft Technology Licensing, Llc | Waveguide eye tracking employing switchable diffraction gratings |
US10176625B2 (en) | 2014-09-25 | 2019-01-08 | Faro Technologies, Inc. | Augmented reality camera for use with 3D metrology equipment in forming 3D images from 2D camera images |
US20160093269A1 (en) | 2014-09-26 | 2016-03-31 | Pixtronix, Inc. | Laser-Pumped Phosphor Backlight and Methods |
KR102688893B1 (ko) | 2014-09-29 | 2024-07-29 | 매직 립, 인코포레이티드 | 상이한 파장의 광을 도파관 밖으로 출력하기 위한 아키텍쳐 및 방법 |
US9612722B2 (en) | 2014-10-31 | 2017-04-04 | Microsoft Technology Licensing, Llc | Facilitating interaction between users and their environments using sounds |
US10371936B2 (en) | 2014-11-10 | 2019-08-06 | Leo D. Didomenico | Wide angle, broad-band, polarization independent beam steering and concentration of wave energy utilizing electronically controlled soft matter |
US20170243403A1 (en) | 2014-11-11 | 2017-08-24 | Bent Image Lab, Llc | Real-time shared augmented reality experience |
IL235642B (en) | 2014-11-11 | 2021-08-31 | Lumus Ltd | A compact head-up display system is protected by an element with a super-thin structure |
KR20160059406A (ko) | 2014-11-18 | 2016-05-26 | 삼성전자주식회사 | 가상 이미지를 출력하기 위한 웨어러블 장치 및 방법 |
US10794728B2 (en) | 2014-12-19 | 2020-10-06 | Invensense, Inc. | Device and method for sensor calibration |
WO2016106220A1 (en) | 2014-12-22 | 2016-06-30 | Dimensions And Shapes, Llc | Headset vision system for portable devices |
JP2016126134A (ja) | 2014-12-26 | 2016-07-11 | シャープ株式会社 | 表示装置およびウェアラブルデバイス |
US10154239B2 (en) * | 2014-12-30 | 2018-12-11 | Onpoint Medical, Inc. | Image-guided surgery with surface reconstruction and augmented reality visualization |
US10018844B2 (en) | 2015-02-09 | 2018-07-10 | Microsoft Technology Licensing, Llc | Wearable image display system |
US9696795B2 (en) | 2015-02-13 | 2017-07-04 | Leap Motion, Inc. | Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments |
US10180734B2 (en) | 2015-03-05 | 2019-01-15 | Magic Leap, Inc. | Systems and methods for augmented reality |
KR102358110B1 (ko) | 2015-03-05 | 2022-02-07 | 삼성디스플레이 주식회사 | 표시 장치 |
WO2016146963A1 (en) | 2015-03-16 | 2016-09-22 | Popovich, Milan, Momcilo | Waveguide device incorporating a light pipe |
US9955862B2 (en) | 2015-03-17 | 2018-05-01 | Raytrx, Llc | System, method, and non-transitory computer-readable storage media related to correction of vision defects using a visual display |
US20160287337A1 (en) | 2015-03-31 | 2016-10-06 | Luke J. Aram | Orthopaedic surgical system and method for patient-specific surgical procedure |
EP3078994B1 (en) | 2015-04-07 | 2020-07-29 | Magic Leap, Inc. | Method of manufacture of a diffraction grating |
US9779554B2 (en) | 2015-04-10 | 2017-10-03 | Sony Interactive Entertainment Inc. | Filtering and parental control methods for restricting visual activity on a head mounted display |
EP3578507B1 (en) | 2015-04-20 | 2022-10-12 | SZ DJI Technology Co., Ltd. | Systems and methods for thermally regulating sensor operation |
EP3292432B1 (en) | 2015-04-23 | 2023-06-28 | LEIA Inc. | Dual light guide grating-based backlight and electronic display using same |
EP3289430B1 (en) | 2015-04-27 | 2019-10-23 | Snap-Aid Patents Ltd. | Estimating and using relative head pose and camera field-of-view |
US10909464B2 (en) | 2015-04-29 | 2021-02-02 | Microsoft Technology Licensing, Llc | Semantic locations prediction |
US9664569B2 (en) | 2015-05-15 | 2017-05-30 | Google Inc. | Circuit board configurations facilitating operation of heat sensitive sensor components |
KR20160139727A (ko) | 2015-05-28 | 2016-12-07 | 엘지전자 주식회사 | 글래스타입 단말기 및 이의 제어방법 |
GB2539009A (en) | 2015-06-03 | 2016-12-07 | Tobii Ab | Gaze detection method and apparatus |
WO2016205396A1 (en) | 2015-06-15 | 2016-12-22 | Black Eric J | Methods and systems for communication with beamforming antennas |
US10832479B2 (en) | 2015-06-15 | 2020-11-10 | Sony Corporation | Information processing apparatus, information processing method, and program |
FR3037672B1 (fr) | 2015-06-16 | 2017-06-16 | Parrot | Drone comportant des moyens perfectionnes de compensation du biais de la centrale inertielle en fonction de la temperature |
US9519084B1 (en) | 2015-06-18 | 2016-12-13 | Oculus Vr, Llc | Securing a fresnel lens to a refractive optical element |
WO2017004695A1 (en) | 2015-07-06 | 2017-01-12 | Frank Jones | Methods and devices for demountable head mounted displays |
US11190681B1 (en) | 2015-07-10 | 2021-11-30 | Snap Inc. | Systems and methods for DSP fast boot |
US20170100664A1 (en) | 2015-10-12 | 2017-04-13 | Osterhout Group, Inc. | External user interface for head worn computing |
US20170038607A1 (en) | 2015-08-04 | 2017-02-09 | Rafael Camara | Enhanced-reality electronic device for low-vision pathologies, and implant procedure |
KR20170017243A (ko) | 2015-08-06 | 2017-02-15 | 강경득 | 보조 안경테 |
US9781246B2 (en) | 2015-08-28 | 2017-10-03 | Qualcomm Incorporated | Augmenting reality using a small cell |
WO2017039308A1 (en) | 2015-08-31 | 2017-03-09 | Samsung Electronics Co., Ltd. | Virtual reality display apparatus and display method thereof |
US9489027B1 (en) | 2015-08-31 | 2016-11-08 | Wave Resource Strategies, Inc. | System and method for the accurate recordation of power consumption in a computing device utilizing power profiles |
US9880611B2 (en) | 2015-08-31 | 2018-01-30 | Google Llc | Energy saving mode for electronic devices |
JP6615541B2 (ja) | 2015-09-02 | 2019-12-04 | 株式会社バンダイナムコアミューズメント | 投影システム |
US20150378407A1 (en) | 2015-09-04 | 2015-12-31 | Mediatek Inc. | Loading-Based Dynamic Voltage And Frequency Scaling |
AU2016319754B2 (en) | 2015-09-11 | 2019-02-21 | Amazon Technologies, Inc. | System, method and computer-readable storage medium for customizable event-triggered computation at edge locations |
WO2017051595A1 (ja) | 2015-09-25 | 2017-03-30 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
US10082865B1 (en) | 2015-09-29 | 2018-09-25 | Rockwell Collins, Inc. | Dynamic distortion mapping in a worn display |
GB2542853B (en) | 2015-10-02 | 2021-12-15 | Cambridge Consultants | Processing apparatus and methods |
US10241332B2 (en) | 2015-10-08 | 2019-03-26 | Microsoft Technology Licensing, Llc | Reducing stray light transmission in near eye display using resonant grating filter |
US10067346B2 (en) | 2015-10-23 | 2018-09-04 | Microsoft Technology Licensing, Llc | Holographic display |
US9983709B2 (en) | 2015-11-02 | 2018-05-29 | Oculus Vr, Llc | Eye tracking using structured light |
WO2017079329A1 (en) | 2015-11-04 | 2017-05-11 | Magic Leap, Inc. | Dynamic display calibration based on eye-tracking |
US9671615B1 (en) | 2015-12-01 | 2017-06-06 | Microsoft Technology Licensing, Llc | Extended field of view in near-eye display using wide-spectrum imager |
US10025060B2 (en) | 2015-12-08 | 2018-07-17 | Oculus Vr, Llc | Focus adjusting virtual reality headset |
US10445860B2 (en) | 2015-12-08 | 2019-10-15 | Facebook Technologies, Llc | Autofocus virtual reality headset |
DE102015122055B4 (de) | 2015-12-17 | 2018-08-30 | Carl Zeiss Ag | Optisches System sowie Verfahren zum Übertragen eines Quellbildes |
US20170185261A1 (en) | 2015-12-28 | 2017-06-29 | Htc Corporation | Virtual reality device, method for virtual reality |
US10838116B2 (en) | 2016-01-06 | 2020-11-17 | University Of Utah Research Foundation | Low-power large aperture adaptive lenses for smart eyeglasses |
EP3190447B1 (en) | 2016-01-06 | 2020-02-05 | Ricoh Company, Ltd. | Light guide and virtual image display device |
US9978180B2 (en) | 2016-01-25 | 2018-05-22 | Microsoft Technology Licensing, Llc | Frame projection for augmented reality environments |
WO2017127897A1 (en) | 2016-01-27 | 2017-08-03 | Paul Lapstun | Shuttered waveguide light field display |
US10429639B2 (en) | 2016-01-31 | 2019-10-01 | Paul Lapstun | Head-mounted light field display |
US9891436B2 (en) | 2016-02-11 | 2018-02-13 | Microsoft Technology Licensing, Llc | Waveguide-based displays with anti-reflective and highly-reflective coating |
JP6686505B2 (ja) | 2016-02-15 | 2020-04-22 | セイコーエプソン株式会社 | 頭部装着型画像表示装置 |
JP6686504B2 (ja) | 2016-02-15 | 2020-04-22 | セイコーエプソン株式会社 | 頭部装着型画像表示装置 |
WO2017141566A1 (ja) | 2016-02-18 | 2017-08-24 | 富士電機株式会社 | 信号伝達装置 |
US10667981B2 (en) | 2016-02-29 | 2020-06-02 | Mentor Acquisition One, Llc | Reading assistance system for visually impaired |
US9880441B1 (en) | 2016-09-08 | 2018-01-30 | Osterhout Group, Inc. | Electrochromic systems for head-worn computer systems |
US20170256096A1 (en) | 2016-03-07 | 2017-09-07 | Google Inc. | Intelligent object sizing and placement in a augmented / virtual reality environment |
CN111329553B (zh) | 2016-03-12 | 2021-05-04 | P·K·朗 | 用于手术的装置与方法 |
US10223605B2 (en) | 2016-03-18 | 2019-03-05 | Colorvision International, Inc. | Interactive virtual aquarium simulation system and associated methods |
WO2017173213A1 (en) | 2016-03-31 | 2017-10-05 | Zoll Medical Corporation | Systems and methods of tracking patient movement |
JP7055751B2 (ja) | 2016-04-07 | 2022-04-18 | マジック リープ, インコーポレイテッド | 拡張現実のためのシステムおよび方法 |
EP3236211A1 (en) | 2016-04-21 | 2017-10-25 | Thomson Licensing | Method and apparatus for estimating a pose of a rendering device |
US10197804B2 (en) | 2016-04-25 | 2019-02-05 | Microsoft Technology Licensing, Llc | Refractive coating for diffractive optical elements |
US10261162B2 (en) | 2016-04-26 | 2019-04-16 | Magic Leap, Inc. | Electromagnetic tracking with augmented reality systems |
US20170312032A1 (en) | 2016-04-27 | 2017-11-02 | Arthrology Consulting, Llc | Method for augmenting a surgical field with virtual guidance content |
CN109476175B (zh) | 2016-05-06 | 2021-07-30 | 奇跃公司 | 具有用于重定向光的非对称光栅的超表面及其制造方法 |
US10241346B2 (en) | 2016-05-07 | 2019-03-26 | Microsoft Technology Licensing, Llc | Degrees of freedom for diffraction elements in wave expander |
US10215986B2 (en) | 2016-05-16 | 2019-02-26 | Microsoft Technology Licensing, Llc | Wedges for light transformation |
US11228770B2 (en) | 2016-05-16 | 2022-01-18 | Qualcomm Incorporated | Loop sample processing for high dynamic range and wide color gamut video coding |
GB201609027D0 (en) | 2016-05-23 | 2016-07-06 | Bae Systems Plc | Waveguide manufacturing method |
US10078377B2 (en) | 2016-06-09 | 2018-09-18 | Microsoft Technology Licensing, Llc | Six DOF mixed reality input by fusing inertial handheld controller with hand tracking |
US9939647B2 (en) | 2016-06-20 | 2018-04-10 | Microsoft Technology Licensing, Llc | Extended field of view in near-eye display using optically stitched imaging |
US10114440B2 (en) | 2016-06-22 | 2018-10-30 | Razer (Asia-Pacific) Pte. Ltd. | Applying power management based on a target time |
US10372184B2 (en) | 2016-06-28 | 2019-08-06 | Renesas Electronics America Inc. | Method and apparatus for implementing power modes in microcontrollers using power profiles |
US11030975B2 (en) | 2016-07-04 | 2021-06-08 | Sony Corporation | Information processing apparatus and information processing method |
CN109417608B (zh) | 2016-07-07 | 2021-02-02 | 日立乐金光科技株式会社 | 影像显示装置 |
TW201803289A (zh) | 2016-07-11 | 2018-01-16 | 原相科技股份有限公司 | 可利用較小電路面積並同時考量節能省電以偵測空氣中之干擾訊號之功率來控制放大器之增益值的無線收發機裝置及方法 |
IL298851B2 (en) | 2016-07-25 | 2023-12-01 | Magic Leap Inc | Change, display and visualization of imaging using augmented and virtual reality glasses |
CA3032812A1 (en) | 2016-08-04 | 2018-02-08 | Reification Inc. | Methods for simultaneous localization and mapping (slam) and related apparatus and systems |
US10943359B2 (en) | 2016-08-04 | 2021-03-09 | Dolby Laboratories Licensing Corporation | Single depth tracked accommodation-vergence solutions |
US10278167B2 (en) | 2016-08-12 | 2019-04-30 | Qualcomm Incorporated | Downlink control channel structure for low latency applications |
US10676345B2 (en) | 2016-08-15 | 2020-06-09 | Y-Sensors Ltd. | Temperature stabilized MEMS device |
WO2018039277A1 (en) | 2016-08-22 | 2018-03-01 | Magic Leap, Inc. | Diffractive eyepiece |
US10690936B2 (en) | 2016-08-29 | 2020-06-23 | Mentor Acquisition One, Llc | Adjustable nose bridge assembly for headworn computer |
US20180067779A1 (en) | 2016-09-06 | 2018-03-08 | Smartiply, Inc. | AP-Based Intelligent Fog Agent |
US20180082480A1 (en) | 2016-09-16 | 2018-03-22 | John R. White | Augmented reality surgical technique guidance |
CA3036709A1 (en) | 2016-09-26 | 2018-03-29 | Magic Leap, Inc. | Calibration of magnetic and optical sensors in a virtual reality or augmented reality display system |
US10134192B2 (en) | 2016-10-17 | 2018-11-20 | Microsoft Technology Licensing, Llc | Generating and displaying a computer generated image on a future pose of a real world object |
US10373297B2 (en) | 2016-10-26 | 2019-08-06 | Valve Corporation | Using pupil location to correct optical lens distortion |
US10735691B2 (en) | 2016-11-08 | 2020-08-04 | Rockwell Automation Technologies, Inc. | Virtual reality and augmented reality for industrial automation |
EP3320829A1 (en) | 2016-11-10 | 2018-05-16 | E-Health Technical Solutions, S.L. | System for integrally measuring clinical parameters of visual function |
KR102573744B1 (ko) | 2016-11-23 | 2023-09-01 | 삼성디스플레이 주식회사 | 표시 장치 및 그 구동 방법 |
JP7076447B2 (ja) * | 2016-11-24 | 2022-05-27 | ユニヴァーシティ オブ ワシントン | ヘッドマウントディスプレイのための光照射野キャプチャおよびレンダリング |
JP6917701B2 (ja) | 2016-11-30 | 2021-08-11 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法及びプログラム |
US11272600B2 (en) | 2016-12-01 | 2022-03-08 | Sony Corporation | Information processing apparatus and information processing method |
US10185151B2 (en) | 2016-12-20 | 2019-01-22 | Facebook Technologies, Llc | Waveguide display with a small form factor, a large field of view, and a large eyebox |
CN108885533B (zh) | 2016-12-21 | 2021-05-07 | 杰创科科技有限公司 | 组合虚拟现实和增强现实 |
US10203252B2 (en) | 2016-12-29 | 2019-02-12 | Industrial Technology Research Institute | Microelectromechanical apparatus having a measuring range selector |
US11138436B2 (en) | 2016-12-29 | 2021-10-05 | Magic Leap, Inc. | Automatic control of wearable display device based on external conditions |
JP7268879B2 (ja) | 2017-01-02 | 2023-05-08 | ガウス サージカル,インコーポレイテッド | 重複撮像を予測した手術アイテムの追跡 |
US10489975B2 (en) | 2017-01-04 | 2019-11-26 | Daqri, Llc | Environmental mapping system |
US10436594B2 (en) | 2017-01-17 | 2019-10-08 | Blind InSites, LLC | Devices, systems, and methods for navigation and usage guidance in a navigable space using wireless communication |
US9978118B1 (en) | 2017-01-25 | 2018-05-22 | Microsoft Technology Licensing, Llc | No miss cache structure for real-time image transformations with data compression |
AU2018212570B2 (en) | 2017-01-27 | 2023-03-16 | Magic Leap, Inc. | Antireflection coatings for metasurfaces |
US20180218545A1 (en) | 2017-01-31 | 2018-08-02 | Daqri, Llc | Virtual content scaling with a hardware controller |
JP6878028B2 (ja) * | 2017-02-07 | 2021-05-26 | キヤノンメディカルシステムズ株式会社 | 医用画像診断システム及び複合現実画像生成装置 |
US20180255285A1 (en) | 2017-03-06 | 2018-09-06 | Universal City Studios Llc | Systems and methods for layered virtual features in an amusement park environment |
US20180260218A1 (en) | 2017-03-07 | 2018-09-13 | Vinodh Gopal | Instruction set architectures for fine-grained heterogeneous processing |
EP3376279B1 (en) | 2017-03-13 | 2022-08-31 | Essilor International | Optical device for a head-mounted display, and head-mounted device incorporating it for augmented reality |
US10452123B2 (en) | 2017-03-30 | 2019-10-22 | Google Llc | Predictive power saving and screen dimming for computing devices |
US10642045B2 (en) | 2017-04-07 | 2020-05-05 | Microsoft Technology Licensing, Llc | Scanner-illuminated LCOS projector for head mounted display |
US10241545B1 (en) | 2017-06-01 | 2019-03-26 | Facebook Technologies, Llc | Dynamic distortion correction for optical compensation |
US11132533B2 (en) | 2017-06-07 | 2021-09-28 | David Scott Dreessen | Systems and methods for creating target motion, capturing motion, analyzing motion, and improving motion |
US11236993B1 (en) | 2017-06-08 | 2022-02-01 | Facebook Technologies, Llc | Depth sensing using a time of flight system including a scanning beam in combination with a single photon avalanche diode array |
GB201709199D0 (en) | 2017-06-09 | 2017-07-26 | Delamont Dean Lindsay | IR mixed reality and augmented reality gaming system |
WO2018235075A1 (en) | 2017-06-18 | 2018-12-27 | Moovit App Global Ltd. | SYSTEM AND METHOD FOR DETERMINING TRANSIT STOP LOCATION |
US10022192B1 (en) * | 2017-06-23 | 2018-07-17 | Auris Health, Inc. | Automatically-initialized robotic systems for navigation of luminal networks |
US20190196690A1 (en) | 2017-06-23 | 2019-06-27 | Zyetric Virtual Reality Limited | First-person role playing interactive augmented reality |
US10578870B2 (en) | 2017-07-26 | 2020-03-03 | Magic Leap, Inc. | Exit pupil expander |
US20190056591A1 (en) | 2017-08-18 | 2019-02-21 | Microsoft Technology Licensing, Llc | Optical waveguide with multiple antireflective coatings |
WO2019040493A1 (en) * | 2017-08-21 | 2019-02-28 | The Trustees Of Columbia University In The City Of New York | SYSTEMS AND METHODS FOR AUGMENTED REALITY GUIDANCE |
US9948612B1 (en) | 2017-09-27 | 2018-04-17 | Citrix Systems, Inc. | Secure single sign on and conditional access for client applications |
US10437065B2 (en) | 2017-10-03 | 2019-10-08 | Microsoft Technology Licensing, Llc | IPD correction and reprojection for accurate mixed reality object placement |
US20190137788A1 (en) | 2017-11-08 | 2019-05-09 | Interstol Trading Co. Inc. | Lens assembly including magnet assembly components for mounting onto an eye glass frame |
US10317680B1 (en) | 2017-11-09 | 2019-06-11 | Facebook Technologies, Llc | Optical aberration correction based on user eye position in head mounted displays |
EP3482802B1 (de) | 2017-11-13 | 2021-01-13 | VR Coaster GmbH & Co. KG | Vorrichtung zum erleben einer virtual reality simulation in einer unterwasserwelt |
US10599259B2 (en) | 2017-11-20 | 2020-03-24 | Google Llc | Virtual reality / augmented reality handheld controller sensing |
KR102411287B1 (ko) | 2017-11-22 | 2022-06-22 | 삼성전자 주식회사 | 미디어 출력 제어 장치 및 방법 |
WO2019108651A1 (en) | 2017-12-01 | 2019-06-06 | Rhodan Marine Systems Of Florida, Llc | Dynamic augmented reality headset system |
US10916059B2 (en) | 2017-12-06 | 2021-02-09 | Universal City Studios Llc | Interactive video game system having an augmented virtual representation |
US10636198B2 (en) | 2017-12-28 | 2020-04-28 | Beijing Jingdong Shangke Information Technology Co., Ltd. | System and method for monocular simultaneous localization and mapping |
US10620430B2 (en) | 2018-01-12 | 2020-04-14 | Microsoft Technology Licensing, Llc | Geometrically multiplexed RGB lasers in a scanning MEMS display system for HMDS |
US10773169B2 (en) | 2018-01-22 | 2020-09-15 | Google Llc | Providing multiplayer augmented reality experiences |
US11348257B2 (en) | 2018-01-29 | 2022-05-31 | Philipp K. Lang | Augmented reality guidance for orthopedic and other surgical procedures |
US11386572B2 (en) | 2018-02-03 | 2022-07-12 | The Johns Hopkins University | Calibration system and method to align a 3D virtual scene and a 3D real world for a stereoscopic head-mounted display |
US10422989B2 (en) | 2018-02-06 | 2019-09-24 | Microsoft Technology Licensing, Llc | Optical systems including a single actuator and multiple fluid-filled optical lenses for near-eye-display devices |
GB201805301D0 (en) | 2018-03-29 | 2018-05-16 | Adlens Ltd | Improvements In Or Relating To Variable Focusing Power Optical Devices |
US10997746B2 (en) | 2018-04-12 | 2021-05-04 | Honda Motor Co., Ltd. | Feature descriptor matching |
US10504288B2 (en) | 2018-04-17 | 2019-12-10 | Patrick Piemonte & Ryan Staake | Systems and methods for shared creation of augmented reality |
JP6779939B2 (ja) | 2018-04-19 | 2020-11-04 | グリー株式会社 | ゲーム装置、制御方法及び制御プログラム |
US10969486B2 (en) | 2018-04-26 | 2021-04-06 | SCRRD, Inc. | Augmented reality platform and method for use of same |
US12062249B2 (en) | 2018-05-04 | 2024-08-13 | Northeastern University | System and method for generating image landmarks |
US10740966B2 (en) | 2018-05-14 | 2020-08-11 | Microsoft Technology Licensing, Llc | Fake thickness on a two-dimensional object |
EP3804306B1 (en) | 2018-06-05 | 2023-12-27 | Magic Leap, Inc. | Homography transformation matrices based temperature calibration of a viewing system |
WO2019245869A1 (en) | 2018-06-19 | 2019-12-26 | Tornier, Inc. | Closed-loop tool control for orthopedic surgical procedures |
US11510027B2 (en) | 2018-07-03 | 2022-11-22 | Magic Leap, Inc. | Systems and methods for virtual and augmented reality |
CN109223121A (zh) * | 2018-07-31 | 2019-01-18 | 广州狄卡视觉科技有限公司 | 基于医学影像模型重建、定位的脑出血穿刺手术导航系统 |
US10854004B2 (en) | 2018-08-24 | 2020-12-01 | Facebook, Inc. | Multi-device mapping and collaboration in augmented-reality environments |
US10902678B2 (en) | 2018-09-06 | 2021-01-26 | Curious Company, LLC | Display of hidden information |
CN110942518B (zh) | 2018-09-24 | 2024-03-29 | 苹果公司 | 上下文计算机生成现实(cgr)数字助理 |
US11017217B2 (en) | 2018-10-09 | 2021-05-25 | Midea Group Co., Ltd. | System and method for controlling appliances using motion gestures |
US10838488B2 (en) | 2018-10-10 | 2020-11-17 | Plutovr | Evaluating alignment of inputs and outputs for virtual environments |
US10678323B2 (en) | 2018-10-10 | 2020-06-09 | Plutovr | Reference frames for virtual environments |
US10516853B1 (en) | 2018-10-10 | 2019-12-24 | Plutovr | Aligning virtual representations to inputs and outputs |
US10776933B2 (en) | 2018-12-06 | 2020-09-15 | Microsoft Technology Licensing, Llc | Enhanced techniques for tracking the movement of real-world objects for improved positioning of virtual objects |
US10970547B2 (en) | 2018-12-07 | 2021-04-06 | Microsoft Technology Licensing, Llc | Intelligent agents for managing data associated with three-dimensional objects |
US11216150B2 (en) | 2019-06-28 | 2022-01-04 | Wen-Chieh Geoffrey Lee | Pervasive 3D graphical user interface with vector field functionality |
WO2021007581A1 (en) | 2019-07-11 | 2021-01-14 | Elo Labs, Inc. | Interactive personal training system |
US11174153B2 (en) | 2019-08-21 | 2021-11-16 | Invensense, Inc. | Package level thermal gradient sensing |
US11182612B2 (en) | 2019-10-28 | 2021-11-23 | The Chinese University Of Hong Kong | Systems and methods for place recognition based on 3D point cloud |
US11209656B1 (en) | 2020-10-05 | 2021-12-28 | Facebook Technologies, Llc | Methods of driving light sources in a near-eye display |
-
2019
- 2019-08-22 US US17/268,376 patent/US12016719B2/en active Active
- 2019-08-22 EP EP19851373.1A patent/EP3840645A4/en active Pending
- 2019-08-22 WO PCT/US2019/047746 patent/WO2020041615A1/en unknown
- 2019-08-22 CN CN201980069194.1A patent/CN112955073A/zh active Pending
- 2019-08-22 JP JP2021509779A patent/JP7487176B2/ja active Active
-
2023
- 2023-07-21 JP JP2023118968A patent/JP2023133406A/ja active Pending
-
2024
- 2024-05-14 US US18/663,682 patent/US20240293096A1/en active Pending
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020082498A1 (en) * | 2000-10-05 | 2002-06-27 | Siemens Corporate Research, Inc. | Intra-operative image-guided neurosurgery with augmented reality visualization |
US20070078334A1 (en) * | 2005-10-04 | 2007-04-05 | Ascension Technology Corporation | DC magnetic-based position and orientation monitoring system for tracking medical instruments |
US20080146942A1 (en) * | 2006-12-13 | 2008-06-19 | Ep Medsystems, Inc. | Catheter Position Tracking Methods Using Fluoroscopy and Rotational Sensors |
CN101677778A (zh) * | 2007-01-25 | 2010-03-24 | 华沙整形外科股份有限公司 | 带有自动手术辅助和控制设备的手术导航和神经监视集成系统 |
CN101530325A (zh) * | 2008-02-29 | 2009-09-16 | 韦伯斯特生物官能公司 | 具有虚拟触摸屏的定位系统 |
US20110230758A1 (en) * | 2008-12-03 | 2011-09-22 | Uzi Eichler | System and method for determining the position of the tip of a medical catheter within the body of a patient |
CN106415364A (zh) * | 2014-04-29 | 2017-02-15 | 微软技术许可有限责任公司 | 立体渲染至眼睛位置 |
WO2015194597A1 (ja) * | 2014-06-17 | 2015-12-23 | 日本電産コパル電子株式会社 | 感圧センサと感圧カテーテル |
US20160015470A1 (en) * | 2014-07-15 | 2016-01-21 | Osterhout Group, Inc. | Content presentation in head worn computing |
WO2017049163A1 (en) * | 2015-09-18 | 2017-03-23 | Auris Surgical Robotics, Inc. | Navigation of tubular networks |
WO2018057564A1 (en) * | 2016-09-22 | 2018-03-29 | Medtronic Navigation, Inc. | System for guided procedures |
WO2018085287A1 (en) * | 2016-11-02 | 2018-05-11 | Intuitive Surgical Operations, Inc. | Systems and methods of continuous registration for image-guided surgery |
Also Published As
Publication number | Publication date |
---|---|
EP3840645A4 (en) | 2021-10-20 |
JP2021533919A (ja) | 2021-12-09 |
US20210177370A1 (en) | 2021-06-17 |
EP3840645A1 (en) | 2021-06-30 |
US12016719B2 (en) | 2024-06-25 |
WO2020041615A1 (en) | 2020-02-27 |
JP2023133406A (ja) | 2023-09-22 |
US20240293096A1 (en) | 2024-09-05 |
JP7487176B2 (ja) | 2024-05-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11652971B2 (en) | Image-guided surgery with surface reconstruction and augmented reality visualization | |
Bichlmeier et al. | The virtual mirror: a new interaction paradigm for augmented reality environments | |
US20240293096A1 (en) | Patient viewing system | |
JP6242569B2 (ja) | 医用画像表示装置及びx線診断装置 | |
WO2019181632A1 (en) | Surgical assistance apparatus, surgical method, non-transitory computer readable medium and surgical assistance system | |
JP6116754B2 (ja) | 低侵襲手術において画像データを立体視表示するための装置およびその装置の作動方法 | |
JP2010517632A (ja) | 内視鏡の継続的案内のためのシステム | |
US11737832B2 (en) | Viewing system for use in a surgical environment | |
CN110584782B (zh) | 医学图像处理方法、装置、医学系统、计算机及存储介质 | |
JP2021509987A (ja) | 血管特徴を使用して異常な組織を検出するためのシステム及び方法 | |
US11832883B2 (en) | Using real-time images for augmented-reality visualization of an ophthalmology surgical tool | |
KR20220019353A (ko) | 증강현실 의료영상을 제공하기 위한 사용자 단말기 및 증강현실 의료영상 제공 방법 | |
KR101529659B1 (ko) | 수술전 호흡 레벨과 수술장 호흡 레벨을 비교하는 방법 | |
KR20200132189A (ko) | 증강현실을 이용한 의료 기구 자세 추적 시스템 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |