CN112955073A - 患者观察系统 - Google Patents

患者观察系统 Download PDF

Info

Publication number
CN112955073A
CN112955073A CN201980069194.1A CN201980069194A CN112955073A CN 112955073 A CN112955073 A CN 112955073A CN 201980069194 A CN201980069194 A CN 201980069194A CN 112955073 A CN112955073 A CN 112955073A
Authority
CN
China
Prior art keywords
tip
motion
patient
image data
catheter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201980069194.1A
Other languages
English (en)
Inventor
N·U·罗柏纳
P·鲍布杰德
D·C·伦德马克
A·伊利克
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magic Leap Inc
Original Assignee
Magic Leap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Magic Leap Inc filed Critical Magic Leap Inc
Publication of CN112955073A publication Critical patent/CN112955073A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • A61B6/547Control of apparatus or devices for radiation diagnosis involving tracking of position of the device or parts of the device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/0037Performing a preliminary scan, e.g. a prescan for identifying a region of interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/065Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/065Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
    • A61B5/066Superposing sensor position on an image of the patient, e.g. obtained by ultrasound or x-ray imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6846Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive
    • A61B5/6847Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive mounted on an invasive device
    • A61B5/6852Catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/743Displaying an image simultaneously with additional graphical information, e.g. symbols, charts, function plots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/022Stereoscopic imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/464Displaying means of special interest involving a plurality of displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5205Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/06Accessories for medical measuring apparatus
    • A61B2560/063Devices specially adapted for delivering implantable medical measuring apparatus
    • A61B2560/066Devices specially adapted for delivering implantable medical measuring apparatus catheters therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • G02B6/0001Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems
    • G02B6/0011Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being planar or of plate-like form

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Pulmonology (AREA)
  • Gynecology & Obstetrics (AREA)
  • Quality & Reliability (AREA)
  • Computer Graphics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Processing Or Creating Images (AREA)
  • Endoscopes (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

描述了一种用于观察患者的方法,该方法包括插入导管以进行健康过程导航。在患者的身体部位上执行CT扫描。处理来自CT扫描的原始数据以创建三维图像数据,并将图像数据存储在数据存储器中。投影仪接收表示图像数据的图案中所生成的光,并且波导将光引导到观察者的眼睛的视网膜,而来自身体的外表面的光发送到眼睛的视网膜,以使得观察者看到用处理数据渲染的身体部位而增强的身体的外表面。

Description

患者观察系统
相关申请的交叉引用
本申请要求于2018年8月22日提交的美国临时专利申请序列号62/721,516和于2018年11月26日提交的美国临时专利申请序列号62/771,534的优先权,其各自通过引用全部并入在此。
技术领域
本发明涉及患者观察系统。
背景技术
外科医生、医生和其他观察者使用内窥镜导管来捕获患者体内的身体部位的图像。例如,支气管镜是用于检查节段性支气管的内窥镜导管。导管还具有其它功能,诸如其它内窥镜观察功能,以治疗疾病或执行外科手术。
因为通过最少或没有侵入性手术将导管的尖端插入患者的身体内,所以观察者无法用肉眼看到导管的尖端的位置。为了帮助观察者,屏幕提供了图像的组合。这些图像通常包括术前和术中生成的计算机断层扫描(CT)图像,以及来自导管尖端中的导管相机的实况视频数据。这些图像通常在显示器的不同象限中提供。
就支气管而言,所有支气管隧道看起来都是相同的。结果,观察者经常猜测支气管当前正在导航到哪里。此类观察者在将支气管镜推过支气管时经常会进行多次CT扫描,以确定它们在肺中的位置。
发明内容
本发明提供了一种患者观察系统,其包括:具有内腔和尖端的导管,检测尖端运动的尖端跟踪设备,左投影仪和右投影仪,被连接到左投影仪和右投影仪的左光波导和右光波导,处理器,被连接到处理器的计算机可读介质,计算机可读介质上的数据存储器,以及存储在计算机可读介质上并且可由处理器执行的指令集。该指令集可以包括:1)导管跟踪系统,其被连接到尖端跟踪设备并且接收基于由尖端跟踪设备检测到的运动的测量,并且基于该测量确定尖端的位置并将尖端的位置存储在数据存储器中,以及2)连接到数据存储器以接收图像数据的立体分析器,该立体分析器确定左图像数据集和右图像数据集,左投影仪和右投影仪分别投影左图像数据集和右图像数据集,左图像数据集和右图像数据集彼此不同以对观察者提供三维渲染的感知。
本发明还提供一种观察患者的方法,该方法包括:将导管的尖端插入患者的身体内;用尖端跟踪设备检测尖端的运动;接收基于由尖端跟踪设备检测到的运动的测量;基于测量来确定尖端的位置;存储尖端的位置;基于尖端的位置确定左图像数据集和右图像数据集;使用分别投影左图像数据集和右图像数据集的左投影仪和右投影来生成仪表示尖端的位置的图案中的光作为光;以及将光引导至观察者的左眼和右眼的视网膜,以使得观察者看到尖端的位置,左图像数据集和右图像数据集彼此不同以对观察者提供三维渲染的感知。
本发明还提供了一种患者观察系统,其包括:具有内腔和尖端的导管,检测尖端运动的尖端跟踪设备,投影仪,连接到投影仪的光波导,处理器,连接到处理器的计算机可读介质,计算机可读介质上的数据存储器,以及存储在计算机可读介质上并且可由处理器执行的指令集。该指令集可以包括:1)导管跟踪系统,其被连接到尖端跟踪设备,并接收基于由尖端跟踪设备检测到的运动的测量,并且基于测量确定尖端的位置,并将尖端的位置存储在数据存储器中;2)过去路径计算器,其将尖端的过去路径存储在数据存储器中;以及3)导管显示集成器,该导管显示集成器将尖端的过去路径与尖端的位置一起显示。
本发明还提供一种观察患者的方法,该方法包括:将导管的尖端插入患者的身体内;用尖端跟踪设备检测尖端的运动;接收基于由尖端跟踪设备检测到的运动的测量;基于测量确定尖端的位置;存储尖端的位置;基于尖端的位置确定左图像数据集和右图像数据集;使用分别投影左图像数据集和右图像数据集的左投影仪和右投影来生成仪表示尖端的位置的图案中的光作为光;以及将光引导至观察者的左眼和右眼的视网膜,以使得观察者看到尖端的位置,左图像数据集和右图像数据集彼此不同以对观察者提供三维渲染的感知;将尖端的过去路径存储在数据存储器中;以及将尖端的过去路径与尖端的位置一起显示。
本发明还提供了一种患者观察系统,其包括:具有内腔和尖端的导管,检测尖端运动的尖端跟踪设备,投影仪,连接到投影仪的光波导,处理器,连接到处理器的计算机可读介质,计算机可读介质上的数据存储器,以及存储在计算机可读介质上并且可由处理器执行的指令集。该指令集可以包括:1)导管跟踪系统,其被连接到尖端跟踪设备并接收基于由尖端跟踪设备检测到的运动的测量,并且基于该测量确定尖端的位置并将尖端的位置存储在数据存储器中;2)预期路径计算器,其基于尖端的位置来计算尖端的未来路径,导管显示集成器显示该未来路径,以及3)导管显示集成器,该导管显示集成器将尖端的未来路径与尖端的位置一起显示。
本发明还提供一种观察患者的方法,该方法包括:将导管的尖端插入患者的身体内;用尖端跟踪设备检测尖端的运动;接收基于由尖端跟踪设备检测到的运动的测量;基于测量来确定尖端的位置;存储尖端的位置;基于尖端的位置来确定左图像数据集和右图像数据集;使用分别投影左图像数据集和右图像数据集的左投影仪和右投影来生成仪表示尖端的位置的图案中的光作为光;将光引导至观察者的左眼和右眼的视网膜,使得观察者看到尖端的位置,左图像数据集和右图像数据集彼此不同以对观察者提供三维渲染的感知;基于尖端的位置来计算尖端的未来路径;以及将尖端的未来路径与尖端的位置一起显示。
本发明还提供了一种患者观察系统,其包括:发射机;能量源,其被连接到发射机以激活发射机,患者的身体相对于发射机可定位,以使发射机在身体内的身体部位处生成前向波;接收机,其相对于身体可定位以检测来自身体部位的返回波,来自身体部位的返回波是对由发射机产生的前向波的响应,处理器;计算机可读介质,其被连接到处理器;数据存储器,其位于计算机可读介质上;以及指令集,其被存储在计算机可读介质上并且可由处理器执行。该指令集可以包括:1)原始数据接收单元,其接收由接收机检测的返回波的原始数据,并将原始数据存储在数据存储器中;2)图像生成单元,其被连接到数据存储器,以处理返回波的原始数据以创建表示图像的图像数据,并将图像数据存储在数据存储器中;3)图像数据接收单元,其从数据存储器接收图像数据;4)投影仪,其被连接到图像数据接收单元以接收图像数据,该投影仪生成表示图像数据的图案中的光,以及5)连接到投影仪的光波导,其将光引导到观察者的眼睛的视网膜,而来自身体的外表面的光发送到眼睛的视网膜,使得观察者看到通过渲染身体部位而增强的身体的外表面。
本发明还提供了一种观察患者的方法,该方法包括:激活发射机以在身体内的身体部位处生成前向波;用接收机检测来自身体部位的返回波,来自身体部位的返回波是对由发射机产生的前向波的响应;接收由接收机检测的返回波的原始数据;将原始数据存储在数据存储器中;处理返回波的原始数据以创建表示图像的图像数据;将图像数据存储在数据存储器中;从数据存储器接收图像数据;生成表示图像数据的图案中的光;以及将光引导至观察者的眼睛的视网膜,而来自身体的外表面的光发送到眼睛的视网膜,使得观察者看到通过渲染身体部位而增强的身体的外表面。
附图说明
参考附图,通过示例的方式还描述了本发明,在附图中:
图1是根据本发明的实施例的患者观察系统的框图;
图2是根据一些实施例的形成患者观察系统的一部分的CT扫描仪、数据接收单元、图像生成单元和数据存储器的局部透视图和局部框图;
图3是根据一些实施例的形成患者观察系统的一部分的显示系统、导管和数据存储器的局部透视图和局部框图;
图4是根据一些实施例的示出形成图3中的显示系统的一部分的导管集成系统的框图,并且还示出了导管;
图5是根据一些实施例的示出外科医生形式的观察者的透视图,该观察者看到患者的身体以及患者体内的身体部位的渲染,并且还看到导管尖端和尖端的过去路径的渲染;
图6是根据一些实施例的图5的顶视图;
图7是根据一些实施例的由观察者看到的视图;
图8是根据一些实施例的在观察者围绕患者的身体逆时针移动并且已经逆时针移动他们的头部以保持看到患者的身体之后的类似于图6的视图;
图9是示出根据一些实施例的如何在视图内修改患者的身体和渲染的类似于图7的视图;
图10根据一些实施例以放大的细节示出在图7和图9中向观察者示出的渲染;
图11是根据一些实施例的由图7和图9中的观察者看到的视图的一部分的放大图;
图12是根据一些实施例的由图7和图9的视图中的观察者看到的实况视频数据和网格的放大图;
图13是示出根据一些实施例的三个自由度的导管的尖端的运动以及从第一位置到第二位置运动了第一量的曲线图;
图14是根据一些实施例的处于第一位置的导管的尖端的视图;
图15是根据一些实施例的处于第二位置的导管的视图;
图16是示出根据一些实施例的延伸穿过内腔的路径和不延伸穿过内腔以避免伤害的路径的类似于图16的视图;
图17是示出根据一些实施例的尖端的计算出的未来路径的类似于图16的视图,该尖端的未来路径被显示为向观察者的三维渲染;
图18是根据本发明的一个实施例的可以在本发明的系统中找到应用的计算机形式的机器的框图;以及
图19示出根据本发明的一个实施例的根据患者观察到的位置变化来调节医疗器械输入的时序关系。
具体实施方式
附图中的图1示出根据本发明的实施例的患者观察系统20,其包括CT扫描仪22、数据存储器24、导管26和显示系统28。
数据存储器24被连接到CT扫描仪22。来自CT扫描仪22的原始数据可以被存储在数据存储器24中。数据存储器24还存储基于原始数据的图像数据。
显示系统28被连接到数据存储器24,以能够从数据存储器24取得图像数据。导管26被连接到显示系统28,以使得显示系统28可以从导管26中取得测量和视频数据,以进行进一步处理或显示给观察者。
在使用中,患者位于CT扫描仪22的工作站(station)32处。用CT扫描仪22扫描患者的身体30,以获得CT扫描仪22存储在数据存储器24中的原始数据。然后处理原始数据以获得3D图像数据。
将患者从CT扫描仪22处的工作站32转移到显示系统28处的工作站34。观察者使用显示系统28来观察患者的身体30。显示系统28还从数据存储器24取得图像数据。观察者使用显示系统28以3D渲染患者的身体30的形式来观察图像。观察者将导管26插入身体30。显示系统28从导管26的尖端取得数据,以进行进一步处理或显示给观察者。
图2示出根据一些实施例的患者观察系统20的组件,包括CT扫描仪22、数据存储器24、能量源36、数据接收单元38和图像生成单元40。
CT扫描仪22包括基座42、平台44、转子46、x射线发射机48和多个x射线检测器50。
平台44通过允许平台44相对于基座42平移运动的机构(未示出)被固定至基座42。诸如步进电机(未示出)的致动器可操作以引起平台44相对于基座42的平移运动。
转子46具有开口52。x射线发射机48在开口52的一侧上被固定到转子46,并且x射线检测器50在开口52的相对侧上被固定到转子46。转子46围绕平台44被安装到基座42。平台44在其平移运动期间相对于开口52移动。马达(未示出)被连接在基座42与转子46之间,并且可操作以使转子46围绕平台44旋转。
能量源36可以通过开关54被连接到x射线发射机48。x射线检测器50可以连接到数据接收单元38。数据接收单元38可以是驻留在计算机的计算机可读介质上的软件单元。数据存储器24驻留在计算机可读介质上。计算机可读介质可以是单个计算机可读介质,或者可以在一个个人计算机或在网络上彼此连接的多个个人计算机内分开。数据接收单元38直接或通过网络连接到数据存储器24。
图像生成单元40可以是驻留在计算机可读介质上的计算机程序。图像生成单元40直接地或通过网络连接到数据存储器24。
在使用中,CT扫描仪22的操作者将患者的身体30放在平台44上。然后,接通连接在基座42与转子46之间的马达,使得转子46围绕平台44和患者的身体30在方向58上旋转。操作者还接通马达,该马达使平台44相对于基座42在平移方向上移动,使得平台44相对于转子46在方向60上移动。然后,操作者连接能量源36与x射线发射机48之间的开关54,以激活x射线发射机48。然后,x射线发射机生成前向x射线波62。
患者的身体30相对于x射线发射机48定位,使得前向x射线波62穿透身体30到达身体30内的身体部位(未示出)。出于本示例的目的,被扫描的身体部位是患者的肺部。肺部有许多支气管,导管可以行进通过该支气管。导管也可能行进通过血液循环系统的心脏、动脉和静脉等中的中空通道。在此所述的系统也可用于观察内部身体部位,而无需使用导管进行视觉、手术或干预,例如观察腹部内的生长情况,分析膝盖的内部功能等。身体部位降低前向x射线波62的能量。身体部位内的不同材料以不同的量来降低能量。x射线检测器50之一相对于身体30定位,以检测从身体部位返回x射线波64。来自身体部位的返回x射线波64响应于前向x射线波62而被检测到,并且实质上是由于被身体部位减小功率而具有减小的功率的前向x射线波62。还示出了进一步前向x射线波66。进一步x射线波在前向x射线波62与66之间生成,并由x射线检测器50中的相应的x射线检测器检测。以该方式,从身体部位的不同部分接收返回x射线波。
x射线发射机48和x射线检测器50与转子46一起围绕患者的身体30内的身体部位旋转。以该方式,可以从不同角度扫描身体部位以创建解剖结构的二维“切片”。CT扫描能够示出骨骼、器官、软组织。通过在方向60上移动平台44来获取随后的切片。因此,每个切片表示二维数据,并且这些切片一起表示身体部位的三维数据。
数据接收单元38从x射线检测器50接收返回x射线波64的原始数据。原始数据包括x射线发射机48相对于患者的身体30内身体部位的角度、每个x射线检测器50所检测到的能量、每个x射线检测器50的位置、以及平台44的位置之间的时间顺序相关性。数据接收单元38将原始数据存储为由x射线检测器50检测到的返回x射线波的原始数据68。
当收集到足够的身体部位的原始数据68时,操作者断开开关54并停止平台44。然后,操作者停止转子46并将患者从平台44移开。
图像生成单元40从数据存储器24中取得原始数据68。图像生成单元40基于原始数据68生成图像数据。图像数据包括身体部位的三维渲染。然后,图像生成单元40将图像数据作为图像数据70存储在数据存储器24中。数据存储器24可以是单个数据存储器,或者可以在平台之间分布,并且因此,原始数据68和图像数据70可以位于个人计算机内的单个数据存储器中,或位于多个个人计算机内的多个数据存储器内。
图3根据一些实施例更详细地示出患者观察系统20的组件,并且示出数据存储器24(保存图像数据70)、导管26和显示系统28。
导管26包括内腔76和附接到内腔76的端部的尖端78。内腔是形成导管26的大部分长度的细长构件(例如,管状部分的腔)。内腔76包括机构(未示出),该机构可操作以在至少四个正交方向和正交方向之间的所有方向上移动尖端78。因此,尖端78可利用内腔76中的机构来操纵。内腔具有足够大的中空孔(bore),以容纳用于将尖端与可以通过内腔76将来自尖端的信号中继到显示系统28所需的任何电缆和/或光纤一起操纵的机构。
导管26还包括固定到尖端78的导管惯性运动单元(IMU)80和导管相机82。导管IMU80可以例如是半导体芯片,该半导体芯片具有形成在其中的多个测量设备。测量设备包括一个或多个陀螺仪以及一个或多个加速度计。来自陀螺仪和加速度计的测量单独或组合地提供指示尖端78运动的数据。可以在六个自由度中跟踪此类运动,例如,在x、y和z方向上的平移以及围绕x、y和z轴的旋转。
导管相机82在尖端78的与内腔76相对的一侧上具有透镜(未示出)。导管相机82被定位成在尖端78前面的区域中(即在与内腔76相对的一侧)捕获实况视频数据形式的图像。在相机尖端的不同侧可能有多个光源和多个相机,但是为便于讨论,我们假设只有单个相机,例如导管远端上的内置相机和光源。
显示系统28包括头戴式框架86、左投影仪88A和右投影仪88B、左波导90A和右波导90B、检测设备92和视觉算法94。左投影仪88A和右投影仪88B、左波导90A和右波导90B以及检测设备92被固定到头戴式框架86。头戴式框架86被成形为安装到观察者的头部。头戴式框架86的组件可例如包括围绕观察者的头部的后部缠绕的带子(未示出)。
左投影仪88A和右投影仪88B连接到电源。每个投影仪88A或88B具有用于将图像数据提供给相应的投影仪88A或88B的相应输入。相应的投影仪88A或88B在通电时生成二维图案中的光并从中发出光。左波导90A和右波导90B被定位成分别接收来自左投影仪88A和右投影仪88B的光。左波导90A和右波导90B是透明波导。
检测设备92包括头部单元IMU 100和一个或多个头部单元相机102。头部单元IMU100包括一个或多个陀螺仪和一个或多个加速度计。陀螺仪和加速度计通常形成在半导体芯片中,并且能够检测头部单元IMU 100和头戴式框架86的运动,包括沿三个正交轴的运动以及围绕三个正交轴的旋转。
头部单元相机102从头戴式框架86周围的环境连续捕获图像。可以将图像彼此比较以检测头戴式框架86和观察者的头部的运动。
视觉算法94包括图像数据接收单元106、显示定位算法108、导管集成系统110、显示调节算法112、图像处理系统114和立体分析器116。图像数据接收单元106通过直接连接或通过网络连接到数据存储器24。视觉算法94的组件通过子例程或调用彼此链接。通过此类子例程和调用,图像数据接收单元106经由显示定位算法108链接到立体分析器116。
导管集成系统110可以通过内腔76中的导体连接到导管IMU 80和导管相机82。本领域的普通技术人员将理解,视觉算法94驻留在计算系统上,并且导管集成系统110从导管相机82和导管IMU 80接收信号,并且该信号可以从模拟或数字数据转换为计算机软件数据。导管集成系统110可以通过子例程或调用连接到立体分析器116。
显示调节算法112和图像处理系统114分别连接到头部单元IMU 100和头部单元相机102。此类连接是通过导体,并且如果适用,还可以通过将模拟或数字数据转换为计算机软件数据的转换器(inverter)进行。显示调节算法112可以通过子例程和调用连接到显示定位算法108。图像处理系统114可以通过调用和子例程被连接到显示调节算法112。
在使用中,观察者将头戴式框架86安装到他们的头部。左波导90A和右波导90B然后位于观察者的左眼120A和右眼120B的前面。
图像数据接收单元106从数据存储器24中取得图像数据70,并将图像数据70提供给显示定位算法108。显示定位算法108将图像数据70输入到立体分析器116中。图像数据70是如上所述的身体部位的三维图像数据。立体分析器116分析图像数据70,以基于图像数据70确定左图像数据集和右图像数据集。左图像数据集和右图像数据集是表示彼此略有不同以对观察者提供三维渲染的感知的二维图像的数据集。图像数据70是不随时间推移变化的静态数据集。
立体分析器116将左图像数据集和右图像数据集输入到左投影仪88A和右投影仪88B。然后,左投影仪88A和右投影仪88B创建左光图案122A和右光图案122B。在平面图中示出了显示系统28的组件,并且在正视图中示出左光图案122A和右光图案122B。每个光图案122A和122B包括多个像素。为了说明的目的,示出了来自像素中的两个像素的光线124A和126A离开左投影仪88A并进入左波导90A。光线124A和126A从左波导90A的侧面反射。示出了光线124A和126A通过内部反射在左波导90A内从左向右传播,但是应当理解,光线124A和126A也使用折射和反射系统沿一定方向传播到纸面中。光线124A和126A通过光瞳(pupil)128A离开左光波导90A,并且然后通过左眼的瞳孔130A进入左眼120A。然后,光线124A和126A落在左眼120A的视网膜132A上。以该方式,左光图案122A落在左眼120A的视网膜132A上。给观察者的感觉是,形成在视网膜132A上的像素是观察者感知到的位于左波导90A的与左眼120A相对的一侧上的某个距离处的像素134A和136A。
以类似的方式,立体分析器116将右图像数据集输入到右投影仪88B中。右投影仪88B发送右光图案122B,该右光图案122B由光线124B和126B形式的像素表示。光线124B和126B在右波导90B内反射并通过光瞳128B离开。光线124B和126B然后通过右眼120B的瞳孔130B进入并且落在右眼120B的视网膜132B上。光线124B和126B的像素被感知为右光波导90B后面的像素134B和136B。
在视网膜132A和132B上创建的图案被分别感知为在正视图前面示出的左图像140A和右图像140B。由于立体分析器116的功能,左图像140A和右图像140B彼此略有不同。在观察者的头脑中,左图像140A和右图像140B被视为三维渲染。
如上所述,左波导90A和右波导90B是透明的。来自左波导90A和右波导90B的与眼睛120A和120B相对的一侧上的真实对象的光可以穿过左波导90A和右波导90B投射并落在视网膜132A和132B上。特别地,来自患者的身体30的表面的光落在视网膜132A和132B上,使得观察者可以看到患者的身体30的表面。创建增强现实,其中,由于由观察者组合感知的左图像140A和右图像140B,因此观察者看到的患者的身体30的表面被观察者感知的三维渲染增强。
头部单元IMU 100检测观察者的头部的每一个运动。例如,如果观察者围绕患者的身体30逆时针移动并同时逆时针旋转其头部以继续观察患者的身体30,则此类运动将被头部单元IMU 100中的陀螺仪和加速度计检测到。头部单元IMU 100将来自陀螺仪和加速度计的测量提供给显示调节算法112。显示调节算法112计算放置值,并将该放置值提供给显示定位算法108。显示定位算法108修改图像数据70以补偿观察者的头部的运动。显示定位算法108将修改的图像数据70提供给立体分析器116以显示给观察者。
头部单元相机102随着观察者移动其头部而连续捕获图像。图像处理系统114通过识别图像内的对象的图像来分析图像。图像处理系统114分析对象的运动以确定头戴式框架86的姿势位置。图像处理系统114将姿势位置提供给显示调节算法112。显示调节算法112使用姿势位置来进一步细化显示调节算法112提供给显示定位算法108的放置值。显示定位算法108因此基于头部单元IMU 100中的运动传感器与由头部单元相机102拍摄的图像的组合来修改图像数据70。
在观察者将尖端78插入患者的身体30中之前,导管集成系统110可以检测导管26的尖端78的位置。观察者随后将尖端78插入患者的身体30中。然后,尖端78对于观察者是不可见的。导管IMU 80向导管集成系统110提供指示尖端78的每个运动的信号。导管集成系统110因此可以使用导管IMU 80中的运动传感器来跟踪尖端78的位置。与静态的图像数据70不同,尖端78的位置随时间推移变化。导管集成系统110将尖端78的位置提供给立体分析器116。尖端78的位置可以是动态的,因为其随时间推移变化并且在三维上移动。立体分析器116将尖端78定位在插入左投影仪88A和右投影仪88B中的左图像数据集和右图像数据集中。观察者因此可以看到在左图像140A和右图像140B内的尖端78的位置。尖端78的位置在左图像140A和右图像140B内略有变化,使得观察者以三维感知尖端78的位置。当尖端78穿过患者的身体30时,由左图像140A和右图像140B提供的尖端78的位置的渲染随时间推移改变。尖端78的位置的此类运动随着三维中渲染变化,使得观察者将尖端78的渲染感知为在三维上移动,即向左、向右、向上、向下、向前、向后等。
导管相机82继续捕获视频数据并将视频数据提供给导管集成系统110。导管集成系统110将视频数据提供给立体分析器116。除非或直到检测到指示位置应当改变的用户交互事件,否则立体分析器116将视频数据放置在观察者的视野内的固定位置。视频数据随时间推移而变化,因为导管相机82会捕获不同的图像。
视觉算法94是与数据存储器24一起存储在计算机可读介质上的指令集。指令集可由处理器执行以执行上述方法。存储视觉算法94的计算机可读介质可以位于观察者佩戴的腰包上。
图4更详细地示出患者观察系统20的组件,特别是导管集成系统110的组件,以及它们与尖端78中的导管IMU 80和导管相机82以及立体分析器116的关系。
导管集成系统110包括导管跟踪系统150、过去路径计算器152、网格生成器154、预期路径计算器156、视频数据接收单元158和导管显示集成器160。导管跟踪系统150被连接到导管IMU 80。导管跟踪系统150基于由导管IMU 80检测的运动来计算尖端78的位置。导管IMU 80包括多个尖端跟踪设备,包括多个陀螺仪和加速计,以在六个自由度中跟踪其运动。导管跟踪系统150将尖端78的当前位置作为位置162存储在数据存储器24中。导管跟踪系统150继续监控导管IMU 80,继续计算尖端78的当前位置,并继续将尖端78的当前位置作为当前位置162存储在数据存储器24中。
导管显示集成器160从数据存储器24接收当前位置162,并将当前位置162提供给立体分析器116。立体分析器116向观察者显示尖端78的当前位置162作为渲染,使得观察者可以看到尖端78的位置作为三维渲染。
过去路径计算器152在每个时间点从数据存储器24中取得每个位置162。过去路径计算器152以三维计算尖端78的过去路径,并且将过去路径作为过去路径164存储在数据存储器24中。导管显示集成器160从数据存储器24接收过去路径164,并将过去路径164提供给立体分析器116。立体分析器116将过去路径164作为三维渲染显示给观察者。
网格生成器154从数据存储器中取得过去路径164,并围绕过去路径164生成三维网格。网格生成器154然后将网格作为网格166存储在数据存储器24中。导管显示集成器160从数据存储器24取得网格166,并将网格166提供给立体分析器116。立体分析器116将网格166显示给观察者。立体分析器116创建网格166的三维渲染,在一些实施例中,网格166覆盖过去路径164。
预期路径计算器156从数据存储器24取得尖端78的每个位置162,并基于从数据存储器24取得的位置162和过去位置来计算尖端78的未来路径。预期路径计算器156然后将未来路径作为未来路径168存储在数据存储器24中。导管显示集成器160从数据存储器24中取得未来路径168,并将未来路径168提供给立体分析器116。立体分析器116向观察者显示未来路径168作为三维渲染。
视频数据接收单元158从导管相机82接收实况视频。视频数据接收单元158将实况视频数据提供给导管显示集成器160。导管显示集成器160将实况视频数据提供给立体分析器116。立体分析器116将实况视频数据显示给观察者。实况视频数据是二维显示,该二维显示在三维空间中以某些预定距离显示给观察者。导管显示集成器还将网格166与来自视频数据接收单元158的视频数据集成在一起,使得将网格166显示在视频数据上。随着视频数据改变,随着导管26在患者的身体30内的位置的改变,网格166也相应地改变。
图5示出根据一些实施例的由观察者172以外科医生的形式在上文中描述的患者观察系统20的使用,该外科医生使用导管26作为支气管镜,目的是检查包括患者肺部中段性支气管的身体部位174。
观察者172可以通过左波导90A和右波导90B看到患者的身体30。身体部位174在患者的身体30内侧,因此观察者看不到真实的(即物理的)身体部位174。
观察者172还看到基于如上所述的图像数据70的三维渲染176。在特定实施例中,渲染176位于患者的身体30旁边。渲染176包括在图中以示出观察者172相对于患者的身体30感知渲染176的位置,但是应当理解,从该文档的阅读者的角度来看,渲染176确实在真实世界中不存在。插入180示出观察者172可以看到身体部位174的三维渲染182作为渲染176的一部分。
观察者172将导管26的尖端78插入患者的嘴中。然后,观察者172使尖端78前进到身体部位174中。如上所述,在时间上紧密间隔的情况下,监控尖端78的位置,并且其过去路径被存储为三维。采样时间可取决于使用情况而变化,并且可能会进行优化,诸如仅在内窥镜位于患者身体内部时或在用户激活“开始记录/采样”功能后才捕获数据。插入184示出渲染176包括三维的尖端78的位置的渲染186和三维的尖端78的过去路径的渲染188。渲染182、186和188可以同时显示给观察者172,使得观察者看到渲染182内的渲染186和188。
图6是示出根据一些实施例的观察者172相对于患者的身体30的位置的顶视图,并且还示出渲染176在观察者172的视野内的位置。基于用户偏好、预编程的默认设置或任何其它合适的手段,可以将渲染176放置在相对于患者的身体30的任何位置。患者的身体30在图6中相对于渲染176的特定相对位置仅出于说明的目的,绝不应认为是限制性的。
图7根据一些实施例示出由图6中的观察者172看到的视图192。观察者172可以看到患者的实际身体30和渲染176。视图192还包括基于由图4中的导管相机82捕获的视频数据的实况视频。视图192还示出覆盖视频194的网格196。网格196是图4中网格166的显示。
根据一些实施例,在图8中,观察者172已围绕患者身体30逆时针移动,并且还逆时针旋转其头部以继续观察患者的身体30。显示调节算法112检测观察者172的头部的运动并相应地调节渲染176的位置,使得渲染176在观察者172的视野内看起来相对于患者的身体30保持静止。
根据一些实施例中,在图9中,患者的身体30已经相对于图7顺时针旋转。渲染176还已经顺时针旋转,使得它相对于患者的身体30保持静止。然而,实况视频194的位置并未从图7中的视图192改变为图9中的视图192。因此,观察者172在相同位置中看到实况视频194和网格196,并且这些部件不会在观察者172的头部运动时移动。因此,观察者172可以从不同侧和角度观察患者的身体30和渲染176,而不会忽略实况视频194和网格196。网格196的目的可以是当在网格产生之后在观察者172第二次将尖端78插入身体部位174的通道中时,或者在随着导管在相反方向上移动通过相同路径而移除导管期间,协助观察者引导导管26的尖端78。一些实施例对于虚拟内容(例如,网格196、实况视频194、渲染176)可以具有不同的观察配置,其中一些或全部虚拟内容相对于真实世界坐标是固定的,或者相对于观察者是固定的。
图10根据一些实施例示出显示给观察者的渲染176的部件太小而无法在图7和图9的视图中看到。观察者172看到身体部位174、尖端78和尖端的过去路径的渲染182、186和188。观察者还看到了网格196的三维渲染。出于说明的目的,网格196被示出为与渲染182、186和188分离,但是应当理解网格196可以覆盖身体部位174的渲染182。
如图11和图12中所示,在一些实施例中,观察者172在两个位置中看到网格196,即作为渲染176(图11)的一部分并覆盖实况视频194(图12)。
图13示出根据一些实施例的图4中的预期路径计算器156的功能。该曲线图示出导管26的尖端78随时间推移围绕x-y轴和x轴旋转。可以在短时间量内分析围绕每个轴的旋转,以确定从第一位置202到第二位置204的第一运动量200。第一运动量200可以用于计算对尖端78的运动的预测。
图14示出根据一些实施例的处于第一位置202的尖端78。根据一些实施例,在图15中,尖端78已经从第一位置202移动到第二位置204达第一量200。图15中示出的第一量200是围绕所有轴并且在所有平移方向上的所有运动的所有矢量的总和。
在图14中,可以假设,如果将尖端78进一步插入身体部位174中,则尖端78将遵循的方向沿着内腔76的延伸206。图16示出根据一些实施例在内腔76已经移动了第一量200之后的内腔76的延伸208。观察者通常将不会沿着延伸208的路径推进尖端78,因为它将与身体部位174接触并造成伤害。取而代之的是,观察者172将更喜欢沿着路径210以便避免伤害。路径210从第二位置204到第三位置214移位了第二量212。为了便于参考,在相同方向上测量了第一量200和第二量212。
图17示出根据一些实施例的尖端78将可能遵循的实际路径218。当观察者将尖端78进一步插入身体部位174中时,路径218离开路径208并接近路径214。立体分析器116以三维向观察者172显示路径218。
图18示出根据一些实施例的计算机系统900的示例性形式的机器的示意图,在该机器内可以执行一组指令以使该机器执行在此所讨论的方法中的任何一个或多个方法。在替代实施例中,该机器作为独立设备操作,或者可以连接(例如,联网)到其它机器。此外,虽然仅示出了单个机器,但是术语“机器”也应被理解为包括机器的任何集合,该机器单独地或共同地执行一组(或多组)指令以执行在此所讨论的方法中的任何一个或多个方法。
示例性计算机系统900包括经由总线908彼此通信的处理器902(例如,中央处理单元(CPU)、图形处理单元(GPU)或两者)、主存储器904(例如,只读存储器(ROM)、闪存、诸如同步DRAM(SDRAM)或Rambus DRAM(RDRAM)等的动态随机存取存储器(DRAM)),以及静态存储器906(例如闪存、静态随机存取存储器(SRAM)等)。
计算机系统900可以还包括磁盘驱动器单元916和网络接口设备920。
磁盘驱动器单元916包括机器可读介质922,其上存储着体现在此所述方法或功能中的任何一个或多个的一组或多组指令924(例如,软件)。在计算机系统900执行软件期间,软件还可以全部或至少部分地驻留在主存储器904内和/或处理器902内,主存储器904和处理器902也构成机器可读介质。
可以经由网络接口设备920在网络928上进一步发送或接收软件。
计算机系统900包括用于驱动投影仪以生成激光的激光驱动器芯片950。激光驱动器芯片950包括其自己的数据存储器和其自己的处理器962。
尽管在示例性实施例中将机器可读介质922示出为单个介质,但是术语“机器可读介质”应被认为包括存储一组或多组指令的单个介质或多个介质(例如,集中式或分布式数据库,和/或关联的缓存和服务器)。术语“机器可读介质”也应被认为包括能够存储、编码或携带一组指令以供机器执行并且使机器执行以下本发明的方法中任何一种或多种方法的任何介质。因此,术语“机器可读介质”应被认为包括但不限于固态存储器、光学和磁介质以及载波信号。
上面描述的实现方式使用CT扫描仪22来扫描身体部位174。CT扫描仪具有x射线发射机形式的发射机,x射线检测器形式的接收机,并发送和接收x射线波形式的波。可能会使用其它扫描设备,该其它设备使用其它发射机和接收机并发送和检测不同的波。例如,声纳系统使用声音发送器发送声波,并使用声音接收机接收声波。视觉系统可以包括被插入身体部位内的发送光波的光源并且具有位于身体部位内的相机,该相机捕获从身体部位反射的光波。
然而,CT扫描仪比其它扫描设备更可取,因为CT扫描仪可以在三维中提供非常详细的身体部位的原始数据,并且可以很容易地用图像生成单元转换此类数据以创建三维图像数据。CT数据的另一个优势是它可以包含有关特定物质、材料和材料密度的数据。所描述的实现方式在观察者172的视图192中示出了放置在患者的身体30旁边的渲染176。也可以将渲染与患者的身体30进行匹配,使得身体部位的渲染位于实际身体部位的地方,并且导管尖端的渲染位于导管尖端的实际位置所处的地方。
本发明的各方面也可以在没有导管的情况下实现。例如,可以扫描患者的身体以确定生长,并且观察者可以使用显示系统来将生长的渲染以三维覆盖在患者的实际身体上。以该方式,观察者可以“看到”患者实际身体“内”的生长情况。
在某些方面和实施例中,代替或除了所描述的导管,通常使用侵入性手术工具。例如,参考图14至图17,尖端78可以指示热成像相机的前端,该热成像相机耦合至导管以通过其穿过的解剖学通道收集温度数据。然后可以根据黑白热图像来转换热数据,并通过图像接收单元106将其向操作者显示为可变颜色覆盖图。将意识到,并非每个显示器都需要每个用户共同的图像。第一操作者或观察者(本地或远程)可能希望某些信息显示,诸如指示动脉血与静脉血或冻伤组织的温度数据,而第二操作者或观察者可能希望某些信息,诸如指示手术工具的位置的信息。换句话说,信息的显示不必限于工具在患者体内的位置的图像,而也可以是从工具收集的图像。在一些热成像实施例中,可以为每个用户选择温度梯度;第一操作者可能想要从无机材料中辨别出有机组织,并将基本温度设置为98.6华氏度,而第二操作者可能旨在专门跟踪手术工具,并将成像的基本温度设置为预设温度,而不是绝对温度。
在一些实施例中,实现操作包络(envelope)。返回图14-17,在导航解剖通道的同时,患者的特殊处置可能会改变器械的操作负载。例如,如果患者成像指示器械附近的敏感组织,则可以按比例调节负载。为了进一步说明,如果对房颤患者的成像指示左心房壁薄,则可在靠近左心房壁操作时将标准轴向负载为0.1N的消融(ablation)导管拉至0.01或0.05N的范围内。在一些实施例中,可以结合诸如位置或收集的图像的器械图像向操作者显示作为位置的函数的加载范例,该加载范例是绝对的并且是相对于解剖标记(诸如敏感组织)的。因此,可以提供视觉反馈,指示作为位置的函数的器械上的负载上限,以告知操作者该时刻的设备功能或限制。另外,对于给定的过程,附加操作者或观察者可以立即识别出器械何时未处于正确位置或超出患者参数。尽管此类反馈被描述为视觉反馈,但是反馈可以采用其它形式,诸如音频或触觉(器械控件上的阻力或摩擦增加)。
在一些实施例中,可观察到的运动伪像为器械提供了位置调节。头部单元相机102可以对患者的位置数据成像,并向器械提供实时的位置调节。在一些实施例中,观察患者的呼吸节律并且修改器械控件以适应呼吸状态。头部单元相机102可以例如通过在操作环境或已知尺寸的固定机器内的基准标记来记录位置数据,以在呼气和吸气期间比较胸部位置并关联尺寸变化。在一些实施例中,当肺部在吸气期间膨胀并且周围的解剖结构在反应中压缩时,器械运动可以相应地减慢并且然后恢复正常的操作参数,因为在呼气期间肺部收缩,或者进行x-y-z调节以匹配胸腔的上升和下降,使得器械就可以绝对地在解剖通道中移动,但是相对于该解剖参考是稳定的。其它观察到的触发因素也可以提供操作调节,并且心率和预期的血管收缩/扩张可以为器械提供位置更新。
在一些实施例中,在时间Tl至T2至T3时由头部单元相机102在三个单独的时间收集对患者活动(例如,呼吸节律、心跳)的反馈控制,并图像在时间T4被分析以确定患者位置的变化(由于患者的运动、他们的呼吸节律、心跳等)。在时间T0(即,在T1之前或与之同时)为可操作地耦接至头部单元相机102的器械提供控制输入,并在时间T5基于时间T1至T3内观察到的患者位置的变化对控制输入进行调节。在一些实施例中,控制输入的变化是所测量的患者位置变化的一部分。
图19示出所测量的患者位置数据与控制反馈调节之间的示例性关系。如图所示,曲线1901表示由于呼吸而胸部扩张引起的患者位置理论上在y方向上的变化。在时间T1、T2和T3收集观察到的患者位置数据,分别对应于胸部位置y1、y2和y3。优选地,进行三个收集时间以提供用于目标测量的趋势分析。例如,人的平均呼吸速率是每分钟15次呼吸,为任何给定的吸气或呼气分配大约2秒的时间。为了避免对基于测量的吸气但在呼气期间所应用的器械位置进行校正,至少要进行三个测量以提供趋势分析。给定人类的平均呼吸速率,两次测量之间的时间间隔至少优选为0.667秒或1.5Hz。此类频率不必是T0与T5之间的每个时间的时间,并且优选的是使在T4和T5处的相关动作尽可能快地被应用。
返回到图19,位置y1到y2到y3的变化在T4的分析期间向系统指示了在接近T3结束吸气。这样,在T5的反馈控制可以不提供调节,以避免在呼气期间应用“吸气校正”,或者可以基于T5与T3的时间关系和外推的y位置变化来提供负的y位置调节。例如,如果T3和T5之间的时间类似于T2和T3之间的时间,并且系统根据y1与y2之间的变化(与y2与y3相比较)中识别出患者正在y方向上经历变化,则该调节可以小于或等于如从T2到T3所测量的变化。可以将其描述为以下逻辑关系:
如果(T5-T3=T3-T2)∩(y3-y2)<(y2-y1),则在T5<(y3-y2)处进行校正。
尽管已经描述并在附图中示出了某些示例性实施例,但是应当理解,这些实施例仅是示例性的,而不是对本发明的限制,并且本发明不限于所示出和描述的具体结构和布置,因为本领域普通技术人员可以进行修改。

Claims (183)

1.一种患者观察系统,包括:
导管,其具有内腔和尖端;
尖端跟踪设备,其检测所述尖端的运动;
左投影仪和右投影仪;
左光波导和右光波导,所述左光波导被连接到所述左投影仪以及所述右光波导被连接到所述右投影仪;
处理器;
计算机可读介质,其被连接到所述处理器;
数据存储器,其位于所述计算机可读介质上;
图像数据,其被存储在所述数据存储器上;
指令集,其被存储在所述计算机可读介质上并且由所述处理器执行,包括:
导管跟踪系统,其被连接到所述尖端跟踪设备,其中,所述导管跟踪系统接收基于由所述尖端跟踪设备检测到的运动的测量,基于所述测量来确定所述尖端的位置,并将所述尖端的所述位置存储在所述数据存储器中;以及
立体分析器,其被连接到所述数据存储器以接收所述图像数据,所述立体分析器确定左图像数据集和右图像数据集,所述左投影仪和所述右投影仪分别投影所述左图像数据集和所述右图像数据集,所述左图像数据集和所述右图像数据集彼此不同以对观察者提供三维渲染的感知。
2.根据权利要求1所述的患者观察系统,还包括:
头戴式框架,所述光波导被固定到所述头戴式框架。
3.根据权利要求2所述的患者观察系统,其中,所述光波导是被定位在眼睛与身体的外表面之间的透明光波导。
4.根据权利要求2所述的患者观察系统,还包括:
头部单元检测设备,其检测所述头戴式框架的运动,
所述指令集,其包括:
显示调节算法,其被连接到所述头部单元检测设备,并接收基于由所述头部单元检测设备检测到的运动的测量,并计算放置值;以及
显示定位算法,其基于所述放置值来修改身体部位在所述眼睛的视野内的位置。
5.根据权利要求4所述的患者观察系统,其中,所述头部单元检测设备包括:
头部单元惯性测量单元IMU,其被安装到所述头戴式框架,所述头部单元IMU包括检测所述头戴式框架的运动的运动传感器。
6.根据权利要求4所述的患者观察系统,其中,所述头部单元检测设备包括:
头部单元相机,其被安装到所述头戴式框架,所述头部单元相机通过拍摄在所述头部单元相机的视野内的对象的图像来检测所述头戴式框架的运动。
7.根据权利要求6所述的患者观察系统,其中,所述指令集包括:
图像处理系统,其分析所述图像以检测所述头戴式框架的姿势位置。
8.根据权利要求1所述的患者观察系统,还包括:
发射机;
能量源,其被连接到所述发射机以激活所述发射机,患者的身体相对于所述发射机可定位,以使所述发射机在所述身体内的身体部位处生成前向波;
接收机,其相对于所述身体可定位以检测来自所述身体部位的返回波,来自所述身体部位的所述返回波是对由所述发射机产生的所述前向波的响应,
所述指令集,其包括:
原始数据接收单元,其接收由所述接收机检测的所述返回波的原始数据,并将所述原始数据存储在所述数据存储器中;
图像生成单元,其被连接到所述数据存储器以处理所述返回波的所述原始数据以创建表示图像的图像数据,并将所述图像数据存储在所述数据存储器中;
图像数据接收单元,其从所述数据存储器接收所述图像数据;以及
导管显示集成器,其将所述尖端的所述位置与所述图像数据结合,由所述投影仪产生的光图案包括表示所述图像数据的图案和所述尖端的所述位置。
9.根据权利要求8所述的患者观察系统,包括:
计算机断层扫描CT扫描仪,其包括:
基座;
用于所述患者的平台;以及
转子,其被安装到所述基座以围绕所述患者旋转,其中,所述发射机是被固定到所述转子并发射x射线波的x射线发射机,所述接收机是被固定到所述转子以检测所述x射线波的x射线检测器,所述平台相对于所述基座的运动允许所述患者相对于从所述x射线发射机延伸到所述x射线检测器的平面的运动。
10.根据权利要求1所述的患者观察系统,其中,所述指令集包括:
过去路径计算器,其将所述尖端的过去路径存储在所述数据存储器中,所述导管显示集成器将所述尖端的所述过去路径与所述尖端的位置一起显示。
11.根据权利要求1所述的患者观察系统,其中,所述指令集包括:
过去路径计算器,其存储所述尖端的过去路径;以及
网格生成器,其生成围绕所述尖端的所述过去路径的三维网格,并将所述网格存储在所述数据存储器中,所述导管显示集成器将所述网格与所述尖端的位置一起显示。
12.根据权利要求11所述的患者观察系统,还包括:
所述尖端中的导管相机,所述导管相机捕获视频数据,
所述指令集,其包括:
视频数据接收单元,其被连接到所述尖端中的所述导管相机以接收所述视频数据,所述导管显示集成器基于所述视频数据来显示实况视频。
13.根据权利要求1所述的患者观察系统,其中,所述指令集包括:
预期路径计算器,其基于所述尖端的所述位置来计算所述尖端的未来路径,所述导管显示集成器显示所述未来路径。
14.根据权利要求13所述的患者观察系统,其中,所述未来路径是基于由所述尖端跟踪设备检测的所述运动来计算的。
15.根据权利要求14所述的患者观察系统,其中,由所述尖端跟踪设备检测的所述运动是在所选方向上通过第一角度从第一位置到第二位置的第一运动量,并且所述未来路径是在所选方向上通过第二角度从所述第二位置到第三位置的第二运动量。
16.根据权利要求1所述的患者观察系统,还包括:
在所述尖端上的侵入性手术工具。
17.根据权利要求1所述的患者观察系统,还包括:
在所述尖端上的相机;以及
至少一个显示器,其向操作者显示由所述相机捕获的图像。
18.根据权利要求17所述的患者观察系统,其中,第一显示器向第一操作者显示所述三维渲染和由所述相机捕获的图像。
19.根据权利要求17所述的患者观察系统,其中,第一显示器向第一操作者显示所述三维渲染,还包括:
第二显示器,其向第二操作者显示由所述相机捕获的图像。
20.根据权利要求1所述的患者观察系统,还包括:
第一显示器,其向第一操作者显示所述三维渲染;
数据收集系统,其在没有所述导管的情况下收集数据;以及
第二显示器,其向第二操作者显示用所述数据收集系统收集的数据。
21.根据权利要求1所述的患者观察系统,还包括:
负载检测系统,其被连接到所述尖端以确定所述尖端上的操作负载;以及
警告系统,其被连接到所述负载检测系统,以便如果所述尖端上的负载超过预定极限,则警告操作者。
22.根据权利要求21所述的患者观察系统,其中,所述警告是以下中的一种:视觉警告,音频警告,以及触觉警告。
23.根据权利要求1所述的患者观察系统,还包括:
运动检测系统,其观察运动伪像;以及
位置调节系统,其被连接到所述运动检测系统以基于所述运动伪像来对所述尖端进行位置调节。
24.根据权利要求23所述的患者观察系统,其中,所述运动检测系统在时间T1至时间T2至时间T3的三个单独时间收集患者活动的反馈控制图像,所述图像在时间T4被分析以确定患者位置的变化,并在时间T5基于在所述时间T1至所述时间T3上观察到的患者位置的变化来对控制输入进行调节。
25.根据权利要求24所述的患者观察系统,其中:
如果(T5-T3=T3-T2)∩(y3-y2)<(y2-y1),则在T5<(y3-y2)处进行校正。
26.一种观察患者的方法,包括:
将导管的尖端插入患者的身体内;
用尖端跟踪设备检测所述尖端的运动;
接收基于由所述尖端跟踪设备检测到的运动的测量;
基于所述测量来确定所述尖端的位置;
存储所述尖端的位置;
基于所述尖端的位置来确定左图像数据集和右图像数据集;
使用分别投影所述左图像数据集和右图像数据集的左投影仪和右投影仪来生成表示所述尖端的位置的图案中的光作为光;以及
将所述光引导到观察者的左眼和右眼的视网膜,以使得所述观察者看到所述尖端的位置,所述左图像数据集和所述右图像数据集彼此不同以对所述观察者提供三维渲染的感知。
27.根据权利要求26所述的方法,还包括:
将头戴式框架安装到观察者的头部,光波导被固定到所述头戴式框架。
28.根据权利要求27所述的方法,其中,所述光波导是被定位在所述眼睛与所述身体的外表面之间的透明光波导。
29.根据权利要求27所述的方法,还包括:
检测所述头戴式框架的运动;
基于所检测的运动来计算放置值;以及
基于所述放置值,修改身体部位在所述眼睛的视野内的位置。
30.根据权利要求29所述的方法,其中,用被安装到所述头戴式框架的头部单元惯性测量单元IMU的运动传感器来检测所述运动。
31.根据权利要求29所述的方法,其中,用被安装到所述头戴式框架的头部单元相机来检测所述运动,所述头部单元相机通过拍摄在所述头部单元相机的视野内的对象的图像来检测所述头戴式框架的运动。
32.根据权利要求31所述的方法,还包括:
分析所述图像以检测所述头戴式框架的姿势位置。
33.根据权利要求26所述的方法,还包括:
激活发射机以在所述身体内的身体部位处生成前向波;
用接收机检测来自所述身体部位的返回波,来自所述身体部位的所述返回波是对由所述发射机产生的所述前向波的响应;
接收由所述接收机检测的所述返回波的原始数据;
将所述原始数据存储在数据存储器中;
处理所述返回波的所述原始数据以创建表示图像的图像数据;
将所述图像数据存储在所述数据存储器中;
从所述数据存储器接收所述图像数据;以及
将所述尖端的所述位置与所述图像数据结合,所产生的光图案包括表示所述图像数据的图案和所述尖端的位置。
34.根据权利要求33所述的方法,其中,所述发射机是被固定到转子并发射x射线波的x射线发射机,并且所述接收机是被固定到所述转子以检测x射线波的x射线检测器,平台相对于基座的运动允许所述患者相对于从所述x射线发射机延伸到所述x射线检测器的平面的运动。
35.根据权利要求26所述的方法,还包括:
将所述尖端的过去路径存储在所述数据存储器中;以及
将所述尖端的所述过去路径与所述尖端的位置一起显示。
36.根据权利要求26所述的方法,还包括:
生成围绕所述尖端的所述过去路径的三维网格;
将所述网格存储在所述数据存储器中;以及
所述导管显示集成器将所述网格与所述尖端的位置一起显示。
37.根据权利要求36所述的方法,还包括:
用所述尖端中的导管相机捕获视频数据;
接收所述视频数据,所述导管显示集成器基于所述视频数据来显示实况视频;以及
基于所述视频数据来显示实况视频。
38.根据权利要求26所述的方法,其中,所述指令集包括:
基于所述尖端的所述位置来计算所述尖端的未来路径;以及
显示所述未来路径。
39.根据权利要求38所述的方法,其中,所述未来路径是基于由所述尖端跟踪设备检测的运动来计算的。
40.根据权利要求39所述的方法,其中,由所述尖端跟踪设备检测的所述运动是在所选方向上通过第一角度从第一位置到第二位置的第一运动量,并且所述未来路径是在所选方向上通过第二角度从所述第二位置到第三位置的第二运动量。
41.根据权利要求26所述的方法,还包括:
用所述尖端上的侵入性手术工具执行侵入性手术。
42.根据权利要求26所述的方法,还包括:
用所述尖端上的相机捕获图像;以及
向操作者显示由所述相机捕获的图像。
43.根据权利要求42所述的方法,还包括:
向第一操作者显示所述三维渲染和由所述相机捕获的图像。
44.根据权利要求42所述的方法,还包括:
向第一操作者显示所述三维渲染;以及
向第二操作者显示由所述相机捕获的图像。
45.根据权利要求26所述的方法,还包括:
向第一操作者显示所述三维渲染;
在没有所述导管的情况下收集数据;以及
向第二操作者显示在没有所述导管的情况下收集的数据。
46.根据权利要求26所述的方法,还包括:
确定所述尖端上的操作负载;以及
如果所述尖端上的负载超过预定极限,则警告操作者。
47.根据权利要求46所述的方法,其中,所述警告是以下中的一种:视觉警告,音频警告,以及触觉警告。
48.根据权利要求26所述的方法,还包括:
观察运动伪像;以及
基于所述运动伪像来对所述尖端进行位置调节。
49.根据权利要求48所述的方法,其中,运动检测系统在时间T1至时间T2至时间T3的三个单独时间收集患者活动的反馈控制图像,并且所述图像在时间T4被分析以确定患者位置的变化,并在时间T5基于在所述时间T1至所述时间T3上观察到的患者位置的变化来对所述控制输入进行调节。
50.根据权利要求49所述的方法,其中:
如果(T5-T3=T3-T2)∩(y3-y2)<(y2-y1),则在T5<(y3-y2)处进行校正。
51.一种患者观察系统,包括:
导管,其具有内腔和尖端;
尖端跟踪设备,其检测所述尖端的运动;
投影仪;
光波导,其被连接到所述投影仪;
处理器;
计算机可读介质,其被连接到所述处理器;
数据存储器,其位于所述计算机可读介质上;
指令集,其被存储在所述计算机可读介质上并且由所述处理器执行,包括:
导管跟踪系统,其被连接到所述尖端跟踪设备,并接收基于由所述尖端跟踪设备检测到的运动的测量,以及基于所述测量来确定所述尖端的位置,并将所述尖端的所述位置存储在所述数据存储器中;
过去路径计算器,其将所述尖端的过去路径存储在所述数据存储器中;以及
导管显示集成器,所述导管显示集成器将所述尖端的所述过去路径与所述尖端的位置一起显示。
52.根据权利要求51所述的患者观察系统,其中,所述指令集包括:
网格生成器,其生成围绕所述尖端的所述过去路径的三维网格并将所述网格存储在所述数据存储器中,所述导管显示集成器将所述网格与所述尖端的位置一起显示。
53.根据权利要求51所述的患者观察系统,还包括:
所述尖端中的导管相机,所述导管相机捕获视频数据,
所述指令集,其包括:
视频数据接收单元,其被连接到所述尖端中的所述导管相机以接收所述视频数据,并且所述导管显示集成器基于所述视频数据来显示实况视频。
54.根据权利要求51所述的患者观察系统,其中,所述指令集包括:
预期路径计算器,其基于所述尖端的所述位置来计算所述尖端的未来路径,所述导管显示集成器显示所述未来路径。
55.根据权利要求54所述的患者观察系统,其中,所述未来路径是基于由所述尖端跟踪设备检测的所述运动来计算的。
56.根据权利要求55所述的患者观察系统,其中,由所述尖端跟踪设备检测的所述运动是在所选方向上通过第一角度从第一位置到第二位置的第一运动量,并且所述未来路径是在所选方向上通过第二角度从所述第二位置到第三位置的第二运动量。
57.根据权利要求51所述的患者观察系统,还包括:
头戴式框架,所述光波导被固定到所述头戴式框架。
58.根据权利要求57所述的患者观察系统,其中,所述光波导是被定位在眼睛与身体的外表面之间的透明光波导。
59.根据权利要求57所述的患者观察系统,其中,所述投影仪是左投影仪,所述光波导是左光波导,并且所述眼睛是所述观察者的左眼,还包括:
右投影仪,其被连接到图像数据接收单元以接收图像数据,所述右投影仪生成表示所述图像数据的图案中的光;以及
右光波导,其被连接到所述右投影仪以将来自所述右投影仪的所述光引导到所述观察者的右眼的视网膜,而来自所述身体的所述外表面的光发送到所述右眼的所述视网膜,以使得所述观察者用所述右眼看到通过渲染所述身体部位而增强的所述身体的所述外表面。
60.根据权利要求59所述的患者观察系统,其中,所述指令集包括:
立体分析器,其被连接到所述数据接收单元以接收所述图像数据,所述立体分析器确定左图像数据集和右图像数据集,所述左投影仪和所述右投影仪分别投影所述左图像数据集和所述右图像数据集,所述左图像数据集和所述右图像数据集彼此不同以对观察者提供三维渲染的感知。
61.根据权利要求57所述的患者观察系统,还包括:
头部单元检测设备,其检测所述头戴式框架的运动,
所述指令集,其包括:
显示调节算法,其被连接到所述头部单元检测设备,并接收基于由所述头部单元检测设备检测到的运动的测量,并计算放置值;以及
显示定位算法,其基于所述放置值来修改所述身体部位在所述眼睛的视野内的位置。
62.根据权利要求61所述的患者观察系统,其中,所述头部单元检测设备包括:
头部单元惯性测量单元IMU,其被安装到所述头戴式框架,所述头部单元IMU包括检测所述头戴式框架的运动的运动传感器。
63.根据权利要求61所述的患者观察系统,其中,所述头部单元检测设备包括:
头部单元相机,其被安装到所述头戴式框架,所述头部单元相机通过拍摄在所述头部单元相机的视野内的对象的图像来检测所述头戴式框架的运动,
所述指令集,其包括:
图像处理系统,其分析所述图像以检测所述头戴式框架的姿势位置。
64.根据权利要求31所述的患者观察系统,还包括:
发射机;
能量源,其被连接到所述发射机以激活所述发射机,患者的身体相对于所述发射机可定位,以使所述发射机在所述身体内的身体部位处生成前向波;
接收机,其相对于所述身体可定位以检测来自所述身体部位的返回波,来自所述身体部位的所述返回波是对由所述发射机产生的所述前向波的响应,
所述指令集,其包括:
原始数据接收单元,其接收由所述接收机检测的所述返回波的原始数据,并将所述原始数据存储在所述数据存储器中;
图像生成单元,其被连接到所述数据存储器以处理所述返回波的所述原始数据以创建表示图像的图像数据,并将所述图像数据存储在所述数据存储器中;
图像数据接收单元,其从所述数据存储器接收所述图像数据;以及
导管显示集成器,其将所述尖端的所述位置与所述图像数据结合,由所述投影仪产生的光图案包括表示所述图像数据的图案和所述尖端的位置。
65.根据权利要求64所述的患者观察系统,包括:
计算机断层扫描CT扫描仪,其包括:
基座;
用于所述患者的平台;以及
转子,其被安装到所述基座以围绕所述患者旋转,其中,所述发射机是被固定到所述转子并发射x射线波的x射线发射机,并且所述接收机是被固定到所述转子以检测所述x射线波的x射线检测器,所述平台相对于所述基座的运动允许所述患者相对于从所述x射线发射机延伸到所述x射线检测器的平面的运动。
66.根据权利要求51所述的患者观察系统,还包括:
所述尖端上的侵入性手术工具。
67.根据权利要求51所述的患者观察系统,还包括:
在所述尖端上的相机;以及
至少一个显示器,其向操作者显示由所述相机捕获的图像。
68.根据权利要求67所述的患者观察系统,其中,第一显示器向第一操作者显示所述三维渲染和由所述相机捕获的图像。
69.根据权利要求67所述的患者观察系统,其中,第一显示器向第一操作者显示所述三维渲染,还包括:
第二显示器,其向第二操作者显示由所述相机捕获的图像。
70.根据权利要求51所述的患者观察系统,还包括:
第一显示器,其向第一操作者显示所述三维渲染;
数据收集系统,其在没有所述导管的情况下收集数据;以及
第二显示器,其向第二操作者显示用所述数据收集系统收集的所述数据。
71.根据权利要求51所述的患者观察系统,还包括:
负载检测系统,其被连接到所述尖端以确定所述尖端上的操作负载;以及
警告系统,其被连接到所述负载检测系统,以便如果所述尖端上的负载超过预定极限,则警告操作者。
72.根据权利要求71所述的患者观察系统,其中,所述警告是以下中的一种:视觉警告,音频警告,和触觉警告。
73.根据权利要求51所述的患者观察系统,还包括:
运动检测系统,其观察运动伪像;以及
位置调节系统,其被连接到所述运动检测系统以基于所述运动伪像来对所述尖端进行位置调节。
74.根据权利要求73所述的患者观察系统,其中,所述运动检测系统在时间T1至时间T2至时间T3的三个单独时间收集患者活动的反馈控制图像,并且所述图像在时间T4被分析以确定患者位置的变化,并在时间T5基于在所述时间T1至所述时间T3上观察到的患者位置的变化来对所述控制输入进行调节。
75.根据权利要求74所述的患者观察系统,其中:
如果(T5-T3=T3-T2)∩(y3-y2)<(y2-y1),则在T5<(y3-y2)处进行校正。
76.一种观察患者的方法,包括:
将导管的尖端插入患者的身体内;
用尖端跟踪设备检测所述尖端的运动;
接收基于由所述尖端跟踪设备检测到的运动的测量;
基于所述测量来确定所述尖端的位置;
存储所述尖端的位置;
基于所述尖端的位置来确定左图像数据集和右图像数据集;
使用分别投影所述左图像数据集和所述右图像数据集的左投影仪和右投影仪来生成表示所述尖端的位置的图案中的光作为光;以及
将所述光引导至观察者的左眼和右眼的视网膜,以使得所述观察者看到所述尖端的位置,所述左图像数据集和所述右图像数据集彼此不同以对所述观察者提供三维渲染的感知;
将所述尖端的过去路径存储在所述数据存储器中;以及
将所述尖端的所述过去路径与所述尖端的位置一起显示。
77.根据权利要求76所述的方法,还包括:
生成围绕所述尖端的所述过去路径的三维网格;
将所述网格存储在所述数据存储器中;以及
所述导管显示集成器将所述网格与所述尖端的位置一起显示。
78.根据权利要求76所述的方法,还包括:
用所述尖端中的导管相机捕获视频数据;
接收所述视频数据,所述导管显示集成器基于所述视频数据来显示实况视频;以及
基于所述视频数据来显示实况视频。
79.根据权利要求76所述的方法,其中,所述指令集包括:
基于所述尖端的位置来计算所述尖端的未来路径;以及
显示所述未来路径。
80.根据权利要求79所述的方法,其中,所述未来路径是基于由所述尖端跟踪设备检测的运动来计算的。
81.根据权利要求80所述的方法,其中,由所述尖端跟踪设备检测的所述运动是在所选方向上通过第一角度从第一位置到第二位置的第一运动量,并且所述未来路径是在所选方向上通过第二角度从所述第二位置到第三位置的第二运动量。
82.根据权利要求76所述的方法,还包括:
将头戴式框架安装到观察者的头部,光波导被固定到所述头戴式框架。
83.根据权利要求82所述的方法,其中,所述光波导是被定位在眼睛与身体的外表面之间的透明光波导。
84.根据权利要求82所述的方法,其中,所述眼睛是所述观察者的左眼,还包括:
将所述光引导到所述观察者的右眼的视网膜,而来自所述身体的所述外表面的光发送到所述右眼的所述视网膜,以使得所述观察者用所述右眼看到通过渲染所述身体部位而增强的所述身体的所述外表面。
85.根据权利要求84所述的方法,还包括:
确定左图像数据集和右图像数据集,所述左图像数据集和所述右图像数据集彼此不同以对所述观察者提供三维渲染的感知。
86.根据权利要求82所述的方法,还包括:
检测所述头戴式框架的运动;
基于所检测的运动来计算放置值;以及
基于所述放置值,修改所述身体部位在所述眼睛的视野内的位置。
87.根据权利要求86所述的方法,其中,用被安装到所述头戴式框架的头部单元惯性测量单元IMU的运动传感器来检测所述运动。
88.根据权利要求86所述的方法,其中,用被安装到所述头戴式框架的头部单元相机来检测所述运动,所述头部单元相机通过拍摄在所述头部单元相机的视野内的对象的图像来检测所述头戴式框架的运动,所述方法还包括:
分析所述图像以检测所述头戴式框架的姿势位置。
89.根据权利要求76所述的方法,还包括:
激活发射机以在所述身体内的身体部位处生成前向波;
用接收机检测来自所述身体部位的返回波,来自所述身体部位的所述返回波是对由所述发射机产生的所述前向波的响应;
接收由所述接收机检测的所述返回波的原始数据;
将所述原始数据存储在数据存储器中;
处理所述返回波的所述原始数据以创建表示图像的图像数据;
将所述图像数据存储在所述数据存储器中;
从所述数据存储器接收所述图像数据;以及
将所述尖端的所述位置与所述图像数据结合,所产生的光图案包括表示所述图像数据的图案和所述尖端的位置。
90.根据权利要求89所述的方法,其中,所述发射机是被固定到转子并发射x射线波的x射线发射机,并且所述接收机是被固定到所述转子以检测x射线波的x射线检测器,所述平台相对于基座的运动允许所述患者相对于从所述x射线发射机延伸到所述x射线检测器的平面的运动。
91.根据权利要求76所述的方法,还包括:
用所述尖端上的侵入性手术工具执行侵入性手术。
92.根据权利要求76所述的方法,还包括:
用所述尖端上的相机捕获图像;以及
向操作者显示由所述相机捕获的图像。
93.根据权利要求92所述的方法,还包括:
向第一操作者显示所述三维渲染和由所述相机捕获的图像。
94.根据权利要求92所述的方法,还包括:
向第一操作者显示所述三维渲染;以及
向第二操作者显示由所述相机捕获的图像。
95.根据权利要求76所述的方法,还包括:
向第一操作者显示所述三维渲染;
在没有所述导管的情况下收集数据;以及
向第二操作者显示在没有所述导管的情况下收集的所述数据。
96.根据权利要求76所述的方法,还包括:
确定所述尖端上的操作负载;以及
如果所述尖端上的负载超过预定极限,则警告操作者。
97.根据权利要求96所述的方法,其中,所述警告是以下中的一种:视觉警告,音频警告,和触觉警告。
98.根据权利要求76所述的方法,还包括:
观察运动伪像;以及
基于所述运动伪像来对所述尖端进行位置调节。
99.根据权利要求98所述的方法,其中,所述运动检测系统在时间T1至时间T2至时间T3的三个单独时间收集患者活动的反馈控制图像,并且所述图像在时间T4被分析以确定患者位置的变化,并在时间T5基于在所述时间T1至所述时间T3上观察到的患者位置的变化来对所述控制输入进行调节。
100.根据权利要求99所述的方法,其中:
如果(T5-T3=T3-T2)∩(y3-y2)<(y2-y1),则在T5<(y3-y2)处进行校正。
101.一种患者观察系统,包括:
导管,其具有内腔和尖端;
尖端跟踪设备,其检测所述尖端的运动;
投影仪;
光波导,其被连接到所述投影仪;
处理器;
计算机可读介质,其被连接到所述处理器;
数据存储器,其位于所述计算机可读介质上;
指令集,其被存储在所述计算机可读介质上并且由所述处理器执行,包括:
导管跟踪系统,其被连接到所述尖端跟踪设备,并接收基于由所述尖端跟踪设备检测到的运动的测量,并且基于所述测量来确定所述尖端的位置,并将所述尖端的位置存储在所述数据存储器中;
预期路径计算器,其基于所述尖端的位置来计算所述尖端的未来路径,导管显示集成器显示所述未来路径;以及
导管显示集成器,所述导管显示集成器将所述尖端的过去路径与所述尖端的位置一起显示。
102.根据权利要求101所述的患者观察系统,其中,由所述尖端跟踪设备检测的所述运动是在所选方向上通过第一角度从第一位置到第二位置的第一运动量,并且所述未来路径是在所选方向上通过第二角度从所述第二位置到第三位置的第二运动量。
103.根据权利要求101所述的患者观察系统,其中,所述未来路径是基于由所述尖端跟踪设备检测的所述运动来计算的。
104.根据权利要求101所述的患者观察系统,还包括:
所述尖端中的导管相机,所述导管相机捕获视频数据,
所述指令集,其包括:
视频数据接收单元,其被连接到所述尖端中的所述导管相机以接收所述视频数据,所述导管显示集成器基于所述视频数据来显示实况视频。
105.根据权利要求101所述的患者观察系统,其中,所述指令集包括:
过去路径计算器,其基于所述尖端的所述位置来计算所述尖端的过去路径,所述导管显示集成器显示所述未来路径。
106.根据权利要求105所述的患者观察系统,其中,所述指令集包括:
网格生成器,其生成围绕所述尖端的所述过去路径的三维网格并将所述网格存储在所述数据存储器中,所述导管显示集成器将所述网格与所述尖端的位置一起显示。
107.根据权利要求106所述的患者观察系统,其中,由所述尖端跟踪设备检测的所述运动是在所选方向上通过第一角度从第一位置到第二位置的第一运动量,并且所述未来路径是在所选方向上通过第二角度从所述第二位置到第三位置的第二运动量。
108.根据权利要求101所述的患者观察系统,还包括:
头戴式框架,所述光波导被固定到所述头戴式框架。
109.根据权利要求108所述的患者观察系统,其中,所述光波导是被定位在眼睛与身体的外表面之间的透明光波导。
110.根据权利要求108所述的患者观察系统,其中,所述投影仪是左投影仪,所述光波导是左光波导,并且所述眼睛是所述观察者的左眼,还包括:
右投影仪,其被连接到图像数据接收单元以接收图像数据,所述右投影仪生成表示所述图像数据的图案中的光;以及
右光波导,其被连接到所述右投影仪以将来自所述右投影仪的所述光引导到所述观察者的右眼的视网膜,而来自所述身体的所述外表面的光发送到所述右眼的所述视网膜,以使得所述观察者用所述右眼看到通过渲染所述身体部位而增强的所述身体的所述外表面。
111.根据权利要求110所述的患者观察系统,其中,所述指令集包括:
立体分析器,其被连接到所述数据接收单元以接收所述图像数据,所述立体分析器确定左图像数据集和右图像数据集,所述左投影仪和所述右投影仪分别投影所述左图像数据集和所述右图像数据集,所述左图像数据集和所述右图像数据集彼此不同以对观察者提供三维渲染的感知。
112.根据权利要求108所述的患者观察系统,还包括:
头部单元检测设备,其检测所述头戴式框架的运动,
所述指令集,其包括:
显示调节算法,其被连接到所述头部单元检测设备,并接收基于由所述头部单元检测设备检测到的运动的测量,并计算放置值;以及
显示定位算法,其基于所述放置值来修改身体部位在所述眼睛的视野内的位置。
113.根据权利要求112所述的患者观察系统,其中,所述头部单元检测设备包括:
头部单元惯性测量单元IMU,其被安装到所述头戴式框架,所述头部单元IMU包括检测所述头戴式框架的运动的运动传感器。
114.根据权利要求112所述的患者观察系统,其中,所述头部单元检测设备包括:
头部单元相机,其被安装到所述头戴式框架,所述头部单元相机通过拍摄在所述头部单元相机的视野内的对象的图像来检测所述头戴式框架的运动,
所述指令集,其包括:
图像处理系统,其分析所述图像以检测所述头戴式框架的姿势位置。
115.根据权利要求1011所述的患者观察系统,还包括
发射机;
能量源,其被连接到所述发射机以激活所述发射机,患者的身体相对于所述发射机可定位,以使所述发射机在所述身体内的身体部位处生成前向波;
接收机,其相对于所述身体可定位以检测来自所述身体部位的返回波,来自所述身体部位的所述返回波是对由所述发射机产生的所述前向波的响应,
所述指令集,其包括:
原始数据接收单元,其接收由所述接收机检测的所述返回波的原始数据,并将所述原始数据存储在所述数据存储器中;
图像生成单元,其被连接到所述数据存储器以处理所述返回波的所述原始数据以创建表示图像的图像数据,并将所述图像数据存储在所述数据存储器中;
图像数据接收单元,其从所述数据存储器接收所述图像数据;以及
导管显示集成器,其将所述尖端的所述位置与所述图像数据结合,由所述投影仪产生的光图案包括表示所述图像数据的图案和所述尖端的位置。
116.根据权利要求115所述的患者观察系统,其中,包括:
计算机断层扫描CT扫描仪,其包括:
基座;
用于所述患者的平台;以及
转子,其被安装到所述基座以围绕所述患者旋转,其中,所述发射机是被固定到所述转子并发射x射线波的x射线发射机,并且所述接收机是被固定到所述转子以检测所述x射线波的x射线检测器,所述平台相对于所述基座的运动允许所述患者相对于从所述x射线发射机延伸到所述x射线检测器的平面的运动。
117.根据权利要求101所述的患者观察系统,还包括:
在所述尖端上的相机;以及
至少一个显示器,其向操作者显示由所述相机捕获的图像。
118.根据权利要求118所述的患者观察系统,其中,第一显示器向第一操作者显示所述三维渲染和由所述相机捕获的图像。
119.根据权利要求118所述的患者观察系统,其中,第一显示器向第一操作者显示所述三维渲染,还包括:
第二显示器,其向第二操作者显示由所述相机捕获的图像。
120.根据权利要求101所述的患者观察系统,还包括:
第一显示器,其向第一操作者显示所述三维渲染;
数据收集系统,其在没有所述导管的情况下收集数据;以及
第二显示器,其向第二操作者显示用所述数据收集系统收集的所述数据。
121.根据权利要求101所述的患者观察系统,还包括:
负载检测系统,其被连接到所述尖端以确定所述尖端上的操作负载;以及
警告系统,其被连接到所述负载检测系统,以便如果所述尖端上的负载超过预定极限,则警告操作者。
122.根据权利要求122所述的患者观察系统,其中,所述警告是以下中的一种:视觉警告,音频警告,以及触觉警告。
123.根据权利要求101所述的患者观察系统,还包括:
运动检测系统,其观察运动伪像;以及
位置调节系统,其被连接到所述运动检测系统以基于所述运动伪像来对所述尖端进行位置调节。
124.根据权利要求124所述的患者观察系统,其中,所述运动检测系统在时间T1至时间T2至时间T3的三个单独时间收集患者活动的反馈控制图像,并且所述图像在时间T4被分析以确定患者位置的变化,并在时间T5基于在所述时间T1至所述时间T3上观察到的患者位置的变化来对控制输入进行调节。
125.根据权利要求125所述的患者观察系统,其中:
如果(T5-T3=T3-T2)∩(y3-y2)<(y2-y1),则在T5<(y3-y2)处进行校正。
126.一种观察患者的方法,包括:
将导管的尖端插入患者的身体内;
用尖端跟踪设备检测所述尖端的运动;
接收基于由所述尖端跟踪设备检测到的运动的测量;
基于所述测量来确定所述尖端的位置;
存储所述尖端的位置;
基于所述尖端的位置来确定左图像数据集和右图像数据集;
使用分别投影所述左图像数据集和右图像数据集的左投影仪和右投影来生成仪表示所述尖端的位置的图案中的光作为光;
将所述光引导到观察者的左眼和右眼的视网膜,使得所述观察者看到所述尖端的位置,所述左图像数据集和所述右图像数据集彼此不同以对所述观察者提供三维渲染的感知;
基于所述尖端的所述位置来计算所述尖端的未来路径;以及
将所述尖端的所述未来路径与所述尖端的位置一起显示。
127.根据权利要求127所述的方法,其中,由所述尖端跟踪设备检测的所述运动是在所选方向上通过第一角度从第一位置到第二位置的第一运动量,并且所述未来路径是在所选方向上通过第二角度从所述第二位置到第三位置的第二运动量。
128.根据权利要求127所述的方法,其中,所述未来路径是基于由所述尖端跟踪设备检测的所述运动来计算的。
129.根据权利要求127所述的方法,还包括:
用所述尖端中的导管相机捕获视频数据;
接收所述视频数据,所述导管显示集成器基于所述视频数据来显示实况视频;以及
基于所述视频数据来显示实况视频。
130.根据权利要求127所述的方法,其中,所述指令集包括:
将所述尖端的过去路径存储在所述数据存储器中;以及
将所述尖端的所述过去路径与所述尖端的位置一起显示。
131.根据权利要求131所述的方法,还包括:
生成围绕所述尖端的所述过去路径的三维网格;
将所述网格存储在所述数据存储器中;以及
所述导管显示集成器将所述网格与所述尖端的位置一起显示。
132.根据权利要求132所述的方法,其中,由所述尖端跟踪设备检测的所述运动是在所选方向上通过第一角度从第一位置到第二位置的第一运动量,并且所述未来路径是在所选方向上通过第二角度从所述第二位置到第三位置的第二运动量。
133.根据权利要求127所述的方法,还包括:
将头戴式框架安装到观察者的头部,光波导被固定到所述头戴式框架。
134.根据权利要求134所述的方法,其中,所述光波导是被定位在眼睛与身体的外表面之间的透明光波导。
135.根据权利要求134所述的方法,其中,所述眼睛是观察者的左眼,还包括:
将所述光引导到所述观察者的右眼的视网膜,而来自所述身体的所述外表面的光发送到所述右眼的所述视网膜,以使得所述观察者用所述右眼看到通过渲染所述身体部位而增强的所述身体的所述外表面。
136.根据权利要求136所述的方法,还包括:
确定左图像数据集和右图像数据集,所述左图像数据集和所述右图像数据集彼此不同以对所述观察者提供三维渲染的感知。
137.根据权利要求134所述的方法,还包括:
检测所述头戴式框架的运动;
基于所检测的运动来计算放置值;以及
基于所述放置值,修改身体部位在所述眼睛的视野内的位置。
138.根据权利要求138所述的方法,其中,用被安装到所述头戴式框架的头部单元惯性测量单元IMU的运动传感器来检测所述运动。
139.根据权利要求138所述的方法,其中,用被安装到所述头戴式框架的头部单元相机来检测所述运动,所述头部单元相机通过拍摄在所述头部单元相机的视野内的对象的图像来检测所述头戴式框架的运动,
还包括:
分析所述图像以检测所述头戴式框架的姿势位置。
140.根据权利要求127所述的方法,还包括:
激活发射机以在所述身体内的身体部位处生成前向波;
用接收机检测来自所述身体部位的返回波,来自所述身体部位的所述返回波是对由所述发射机产生的所述前向波的响应;
接收由所述接收机检测的所述返回波的原始数据;
将所述原始数据存储在数据存储器中;
处理所述返回波的所述原始数据以创建表示图像的图像数据;
将所述图像数据存储在所述数据存储器中;
从所述数据存储器接收所述图像数据;以及
将所述尖端的所述位置与所述图像数据结合,所产生的光图案包括表示所述图像数据的图案和所述尖端的位置。
141.根据权利要求141所述的方法,其中,所述发射机是被固定到转子并发射x射线波的x射线发射机,并且所述接收机是被固定到所述转子以检测x射线波的x射线检测器,平台相对于基座的运动允许所述患者相对于从所述x射线发射机延伸到所述x射线检测器的平面的运动。
142.根据权利要求127所述的方法,还包括:
用所述尖端上的侵入性手术工具执行侵入性手术。
143.根据权利要求127所述的方法,还包括:
用所述尖端上的相机捕获图像;以及
向操作者显示由所述相机捕获的图像。
144.根据权利要求144所述的方法,还包括:
向第一操作者显示所述三维渲染和由所述相机捕获的图像。
145.根据权利要求144所述的方法,还包括:
向第一操作者显示所述三维渲染;以及
向第二操作者显示由所述相机捕获的图像。
146.根据权利要求127所述的方法,还包括:
向第一操作者显示所述三维渲染;
在没有所述导管的情况下收集数据;以及
向第二操作者显示在没有所述导管的情况下收集的所述数据。
147.根据权利要求127所述的方法,还包括:
确定所述尖端上的操作负载;以及
如果所述尖端上的负载超过预定极限,则警告操作者。
148.根据权利要求148所述的方法,其中,所述警告是以下中的一种:视觉警告,音频警告,以及触觉警告。
149.根据权利要求127所述的方法,还包括:
观察运动伪像;以及
基于所述运动伪像对所述尖端进行位置调节。
150.根据权利要求150所述的方法,其中,运动检测系统在时间T1至时间T2至时间T3的三个单独时间收集患者活动的反馈控制图像,并且所述图像在时间T4被分析以确定患者位置的变化,并在时间T5基于在所述时间T1至所述时间T3上观察到的患者位置的变化来对所述控制输入进行调节。
151.根据权利要求151所述的方法,其中:
如果(T5-T3=T3-T2)∩(y3-y2)<(y2-y1),则在T5<(y3-y2)处进行校正。
152.一种患者观察系统,包括:
发射机;
能量源,其被连接到所述发射机以激活所述发射机,患者的身体相对于所述发射机可定位,以使所述发射机在所述身体内的身体部位处生成前向波;
接收机,其相对于所述身体可定位以检测来自所述身体部位的返回波,来自所述身体部位的所述返回波是对由所述发射机产生的所述前向波的响应于,
处理器;
计算机可读介质,其被连接到所述处理器;
数据存储器,其位于所述计算机可读介质上;
指令集,其被存储在所述计算机可读介质上并且由所述处理器执行,包括:
原始数据接收单元,其接收由所述接收机检测的所述返回波的原始数据,并将所述原始数据存储在所述数据存储器中;
图像生成单元,其被连接到所述数据存储器以处理所述返回波的所述原始数据以创建表示图像的图像数据,并将所述图像数据存储在所述数据存储器中;
图像数据接收单元,其从所述数据存储器接收所述图像数据;
投影仪,其被连接到所述图像数据接收单元以接收所述图像数据,所述投影仪生成表示所述图像数据的图案中的光;以及
光波导,其被连接到所述投影仪以将所述光引导到观察者的眼睛的视网膜,而来自所述身体的外表面的光发送到所述眼睛的所述视网膜,以使得所述观察者看到通过渲染所述身体部位而增强的所述身体的所述外表面。
153.根据权利要求153所述的患者观察系统,还包括:
头戴式框架,所述光波导被固定到所述头戴式框架。
154.根据权利要求154所述的患者观察系统,其中,所述光波导是被定位在所述眼睛与所述身体的所述外表面之间的透明光波导。
155.根据权利要求154所述的患者观察系统,其中,所述投影仪是左投影仪,所述光波导是左光波导,并且所述眼睛是所述观察者的左眼,还包括:
右投影仪,其被连接到所述图像数据接收单元以接收所述图像数据,所述右投影仪生成表示所述图像数据的图案中的光;以及
右光波导,其被连接到所述右投影仪以将来自所述右投影仪的所述光引导到所述观察者的右眼的视网膜,而来自所述身体的所述外表面的光发送到所述右眼的所述视网膜,以使得所述观察者用所述右眼看到通过渲染所述身体部位而增强的所述身体的所述外表面。
156.根据权利要求156所述的患者观察系统,其中,所述指令集包括:
立体分析器,其被连接到所述数据接收单元以接收所述图像数据,所述立体分析器确定左图像数据集和右图像数据集,所述左投影仪和所述右投影仪分别投影所述左图像数据集和所述右图像数据集,所述左图像数据集和所述右图像数据集彼此不同以对所述观察者提供三维渲染的感知。
157.根据权利要求154所述的患者观察系统,还包括:
头部单元检测设备,其检测所述头戴式框架的运动,
所述指令集,其包括:
显示调节算法,其被连接到所述头部单元检测设备,并接收基于由所述头部单元检测设备检测到的运动的测量,并计算放置值;以及
显示定位算法,其基于所述放置值来修改所述身体部位在所述眼睛的视野内的位置。
158.根据权利要求158所述的患者观察系统,其中,所述头部单元检测设备包括:
头部单元惯性测量单元IMU,其被安装到所述头戴式框架,所述头部单元IMU包括检测所述头戴式框架的运动的运动传感器。
159.根据权利要求158所述的患者观察系统,其中,所述头部单元检测设备包括:
头部单元相机,其被安装到所述头戴式框架,所述头部单元相机通过拍摄在所述头部单元相机的视野内的对象的图像来检测所述头戴式框架的运动,
所述指令集,其包括:
图像处理系统,其分析所述图像以检测所述头戴式框架的姿势位置。
160.根据权利要求158所述的患者观察系统,其中,包括:
计算机断层扫描CT扫描仪,其包括:
基座;
用于所述患者的平台;以及
转子,其被安装到所述基座以围绕所述患者旋转,其中,所述发射机是被固定到所述转子并发射x射线波的x射线发射机,并且所述接收机是被固定到所述转子以检测所述x射线波的x射线检测器,所述平台相对于所述基座的运动允许所述患者相对于从所述x射线发射机延伸到所述x射线检测器的平面的运动。
161.根据权利要求153所述的患者观察系统,还包括:
导管,其具有内腔和尖端;以及
尖端跟踪设备,其检测所述尖端的运动;
所述指令集,其包括:
导管跟踪系统,其被连接到所述尖端跟踪设备,并接收基于由所述尖端跟踪设备检测到的运动的测量,并基于所述测量来确定所述尖端的位置;以及
导管显示集成器,其将所述尖端的所述位置与所述图像数据结合,由所述投影仪产生的光图案包括表示所述图像数据的图案和所述尖端的位置。
162.根据权利要求162所述的患者观察系统,其中,所述指令集包括:
过去路径计算器,其将所述尖端的过去路径存储在所述数据存储器中,所述导管显示集成器将所述尖端的所述过去路径与所述尖端的位置一起显示。
163.根据权利要求162所述的患者观察系统,其中,所述指令集包括:
过去路径计算器,其存储所述尖端的过去路径;以及
网格生成器,其生成围绕所述尖端的所述过去路径的三维网格并将所述网格存储在所述数据存储器中,所述导管显示集成器将所述网格与所述尖端的位置一起显示。
164.根据权利要求164所述的患者观察系统,还包括:
所述尖端中的导管相机,所述导管相机捕获视频数据,
所述指令集,其包括:
视频数据接收单元,其被连接到所述尖端中的所述导管相机以接收所述视频数据,所述导管显示集成器基于所述视频数据来显示实况视频。
165.根据权利要求162所述的患者观察系统,其中,所述指令集包括:
预期路径计算器,其基于所述尖端的所述位置来计算所述尖端的未来路径,所述导管显示集成器显示所述未来路径。
166.根据权利要求166所述的患者观察系统,其中,所述未来路径是基于由所述尖端跟踪设备检测的所述运动来计算的。
167.根据权利要求167所述的患者观察系统,其中,由所述尖端跟踪设备检测的所述运动是在所选方向上通过第一角度从第一位置到第二位置的第一运动量,并且所述未来路径是在所选方向上通过第二角度从所述第二位置到第三位置的第二运动量。
168.一种观察患者的方法,包括:
激活发射机以在身体内的身体部位处生成前向波;
用接收机检测来自所述身体部位的返回波,来自所述身体部位的所述返回波是对由所述发射机产生的所述前向波的响应;
接收由所述接收机检测的所述返回波的原始数据;
将所述原始数据存储在数据存储器中;
处理所述返回波的所述原始数据以创建表示图像的图像数据;
将所述图像数据存储在所述数据存储器中;
从所述数据存储器接收所述图像数据;以及
将所述光引导到观察者的右眼的视网膜,而来自所述身体的外表面的光发送到所述右眼的所述视网膜,以使得所述观察者看到通过渲染所述身体部位而增强的所述身体的所述外表面。
169.根据权利要求169所述的方法,还包括:
将头戴式框架安装到观察者的头部,所述光波导被固定到所述头戴式框架。
170.根据权利要求170所述的方法,其中,所述光波导是被定位在所述眼睛与所述身体的所述外表面之间的透明光波导。
171.根据权利要求170所述的方法,其中,所述眼睛是所述观察者的左眼,还包括:
将所述光引导到所述观察者的右眼的视网膜,而来自所述身体的所述外表面的光发送到所述右眼的所述视网膜,以使得所述观察者用所述右眼看到通过渲染所述身体部位而增强的所述身体的所述外表面。
172.根据权利要求172所述的方法,还包括:
确定左图像数据集和右图像数据集,所述左图像数据集和所述右图像数据集彼此不同以对所述观察者提供三维渲染的感知。
173.根据权利要求170所述的方法,还包括:
检测所述头戴式框架的运动;
基于所检测的运动来计算放置值;以及
基于所述放置值,修改所述身体部位在所述眼睛视野内的位置。
174.根据权利要求174所述的方法,其中,用被安装到所述头戴式框架的头部单元惯性测量单元IMU的运动传感器来检测所述运动。
175.根据权利要求174所述的方法,其中,用被安装到所述头戴式框架的头部单元相机来检测所述运动,所述头部单元相机通过拍摄在所述头部单元相机的视野内的对象的图像来检测所述头戴式框架的运动,
所述方法还包括:
分析所述图像以检测所述头戴式框架的姿势位置。
176.根据权利要求174所述的方法,其中,所述发射机是被固定到转子并发射x射线波的x射线发射机,并且所述接收机是被固定到所述转子以检测x射线波的x射线检测器,所述平台相对于基座的运动允许所述患者相对于从所述x射线发射机延伸到所述x射线检测器的平面的运动。
177.根据权利要求179所述的方法,还包括:
将导管的尖端插入患者的身体内;
用尖端跟踪设备检测所述尖端的运动;
接收基于由所述尖端跟踪设备检测到的运动的测量;
基于所述测量来确定所述尖端的位置;以及
将所述尖端的所述位置与所述图像数据结合,所产生的光图案包括表示所述图像数据的图案和所述尖端的位置。
178.根据权利要求178所述的方法,还包括:
将所述尖端的过去路径存储在所述数据存储器中;以及
将所述尖端的所述过去路径与所述尖端的位置一起显示。
179.根据权利要求178所述的方法,还包括:
生成围绕所述尖端的所述过去路径的三维网格;
将所述网格存储在所述数据存储器中;以及
所述导管显示集成器将所述网格与所述尖端的位置一起显示。
180.根据权利要求180所述的方法,还包括:
用所述尖端中的导管相机捕获视频数据;
接收所述视频数据,所述导管显示集成器基于所述视频数据来显示实况视频;以及
基于所述视频数据来显示实况视频。
181.根据权利要求178所述的方法,其中,所述指令集包括:
基于所述尖端的所述位置来计算所述尖端的未来路径;以及
显示所述未来路径。
182.根据权利要求182所述的方法,其中,所述未来路径是基于由所述尖端跟踪设备检测的所述运动来计算的。
183.根据权利要求183所述的方法,其中,由所述尖端跟踪设备检测的所述运动是在所选方向上通过第一角度从第一位置到第二位置的第一运动量,并且所述未来路径是在所选方向上通过第二角度从所述第二位置到第三位置的第二运动量。
CN201980069194.1A 2018-08-22 2019-08-22 患者观察系统 Pending CN112955073A (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862721516P 2018-08-22 2018-08-22
US62/721,516 2018-08-22
US201862771534P 2018-11-26 2018-11-26
US62/771,534 2018-11-26
PCT/US2019/047746 WO2020041615A1 (en) 2018-08-22 2019-08-22 Patient viewing system

Publications (1)

Publication Number Publication Date
CN112955073A true CN112955073A (zh) 2021-06-11

Family

ID=69591341

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980069194.1A Pending CN112955073A (zh) 2018-08-22 2019-08-22 患者观察系统

Country Status (5)

Country Link
US (2) US12016719B2 (zh)
EP (1) EP3840645A4 (zh)
JP (2) JP7487176B2 (zh)
CN (1) CN112955073A (zh)
WO (1) WO2020041615A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11648081B2 (en) * 2019-04-02 2023-05-16 Intuitive Surgical Operations, Inc. System and method for image detection during instrument grasping and stapling
US11510750B2 (en) 2020-05-08 2022-11-29 Globus Medical, Inc. Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications
US12064191B2 (en) * 2020-06-03 2024-08-20 Covidien Lp Surgical tool navigation using sensor fusion

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020082498A1 (en) * 2000-10-05 2002-06-27 Siemens Corporate Research, Inc. Intra-operative image-guided neurosurgery with augmented reality visualization
US20070078334A1 (en) * 2005-10-04 2007-04-05 Ascension Technology Corporation DC magnetic-based position and orientation monitoring system for tracking medical instruments
US20080146942A1 (en) * 2006-12-13 2008-06-19 Ep Medsystems, Inc. Catheter Position Tracking Methods Using Fluoroscopy and Rotational Sensors
CN101530325A (zh) * 2008-02-29 2009-09-16 韦伯斯特生物官能公司 具有虚拟触摸屏的定位系统
CN101677778A (zh) * 2007-01-25 2010-03-24 华沙整形外科股份有限公司 带有自动手术辅助和控制设备的手术导航和神经监视集成系统
US20110230758A1 (en) * 2008-12-03 2011-09-22 Uzi Eichler System and method for determining the position of the tip of a medical catheter within the body of a patient
WO2015194597A1 (ja) * 2014-06-17 2015-12-23 日本電産コパル電子株式会社 感圧センサと感圧カテーテル
US20160015470A1 (en) * 2014-07-15 2016-01-21 Osterhout Group, Inc. Content presentation in head worn computing
CN106415364A (zh) * 2014-04-29 2017-02-15 微软技术许可有限责任公司 立体渲染至眼睛位置
WO2017049163A1 (en) * 2015-09-18 2017-03-23 Auris Surgical Robotics, Inc. Navigation of tubular networks
WO2018057564A1 (en) * 2016-09-22 2018-03-29 Medtronic Navigation, Inc. System for guided procedures
WO2018085287A1 (en) * 2016-11-02 2018-05-11 Intuitive Surgical Operations, Inc. Systems and methods of continuous registration for image-guided surgery

Family Cites Families (566)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6541736B1 (en) 2001-12-10 2003-04-01 Usun Technology Co., Ltd. Circuit board/printed circuit board having pre-reserved conductive heating circuits
US4344092A (en) 1980-10-21 1982-08-10 Circon Corporation Miniature video camera means for video system
US4652930A (en) 1984-11-19 1987-03-24 Rca Corporation Television camera structure
US4810080A (en) 1987-09-03 1989-03-07 American Optical Corporation Protective eyewear with removable nosepiece and corrective spectacle
US5142684A (en) 1989-06-23 1992-08-25 Hand Held Products, Inc. Power conservation in microprocessor controlled devices
US4997268A (en) 1989-07-24 1991-03-05 Dauvergne Hector A Corrective lens configuration
US5074295A (en) 1989-08-03 1991-12-24 Jamie, Inc. Mouth-held holder
JPH0712944Y2 (ja) 1989-08-24 1995-03-29 株式会社アドバンテスト 電子部品実装基板の温度保護構造
US5007727A (en) 1990-02-26 1991-04-16 Alan Kahaney Combination prescription lens and sunglasses assembly
US5396635A (en) 1990-06-01 1995-03-07 Vadem Corporation Power conservation apparatus having multiple power reduction levels dependent upon the activity of the computer system
US5240220A (en) 1990-09-12 1993-08-31 Elbex Video Ltd. TV camera supporting device
EP0697614A2 (en) 1991-03-22 1996-02-21 Nikon Corporation Optical apparatus for correcting image deviation
WO1993001743A1 (en) 1991-07-22 1993-02-04 Adair Edwin Lloyd Sterile video microscope holder for operating room
US5251635A (en) 1991-09-03 1993-10-12 General Electric Company Stereoscopic X-ray fluoroscopy system using radiofrequency fields
US5224198A (en) 1991-09-30 1993-06-29 Motorola, Inc. Waveguide virtual image display
CA2061117C (en) 1991-12-02 1998-09-29 Neta J. Amit Apparatus and method for distributed program stack
US5497463A (en) 1992-09-25 1996-03-05 Bull Hn Information Systems Inc. Ally mechanism for interconnecting non-distributed computing environment (DCE) and DCE systems to operate in a network system
US5937202A (en) 1993-02-11 1999-08-10 3-D Computing, Inc. High-speed, parallel, processor architecture for front-end electronics, based on a single type of ASIC, and method use thereof
US5410763A (en) 1993-02-11 1995-05-02 Etablissments Bolle Eyeshield with detachable components
US5682255A (en) 1993-02-26 1997-10-28 Yeda Research & Development Co. Ltd. Holographic optical devices for the transmission of optical signals of a plurality of channels
US6023288A (en) 1993-03-31 2000-02-08 Cairns & Brother Inc. Combination head-protective helmet and thermal imaging apparatus
EP0632360A1 (en) 1993-06-29 1995-01-04 Xerox Corporation Reducing computer power consumption by dynamic voltage and frequency variation
US5455625A (en) 1993-09-23 1995-10-03 Rosco Inc. Video camera unit, protective enclosure and power circuit for same, particularly for use in vehicles
US5689669A (en) 1994-04-29 1997-11-18 General Magic Graphical user interface for navigating between levels displaying hallway and room metaphors
US6016147A (en) 1995-05-08 2000-01-18 Autodesk, Inc. Method and system for interactively determining and displaying geometric relationships between three dimensional objects based on predetermined geometric constraints and position of an input device
US5835061A (en) 1995-06-06 1998-11-10 Wayport, Inc. Method and apparatus for geographic-based communications service
CA2180899A1 (en) 1995-07-12 1997-01-13 Yasuaki Honda Synchronous updating of sub objects in a three dimensional virtual reality space sharing system and method therefore
US5826092A (en) 1995-09-15 1998-10-20 Gateway 2000, Inc. Method and apparatus for performance optimization in power-managed computer systems
US5737533A (en) 1995-10-26 1998-04-07 Wegener Internet Projects Bv System for generating a virtual reality scene in response to a database search
US6219045B1 (en) 1995-11-13 2001-04-17 Worlds, Inc. Scalable virtual world chat client-server system
US5864365A (en) 1996-01-26 1999-01-26 Kaman Sciences Corporation Environmentally controlled camera housing assembly
US6064749A (en) 1996-08-02 2000-05-16 Hirota; Gentaro Hybrid tracking for augmented reality using both camera motion detection and landmark tracking
US5854872A (en) 1996-10-08 1998-12-29 Clio Technologies, Inc. Divergent angle rotator system and method for collimating light beams
US8005254B2 (en) 1996-11-12 2011-08-23 Digimarc Corporation Background watermark processing
US6012811A (en) 1996-12-13 2000-01-11 Contour Optik, Inc. Eyeglass frames with magnets at bridges for attachment
JP3651204B2 (ja) 1996-12-18 2005-05-25 トヨタ自動車株式会社 立体画像表示装置、立体画像表示方法及び記録媒体
JP3465528B2 (ja) 1997-04-22 2003-11-10 三菱瓦斯化学株式会社 新規な光学材料用樹脂
JPH10309381A (ja) 1997-05-13 1998-11-24 Yoshimasa Tanaka 移動体用遊戯装置
US6271843B1 (en) 1997-05-30 2001-08-07 International Business Machines Corporation Methods systems and computer program products for transporting users in three dimensional virtual reality worlds using transportation vehicles
ES2280096T3 (es) 1997-08-29 2007-09-01 Kabushiki Kaisha Sega Doing Business As Sega Corporation Sistema de procesamiento de imagen y metodo de procesamiento de imagen.
JPH11142783A (ja) 1997-11-12 1999-05-28 Olympus Optical Co Ltd 画像表示装置
US6243091B1 (en) 1997-11-21 2001-06-05 International Business Machines Corporation Global history view
US6385735B1 (en) 1997-12-15 2002-05-07 Intel Corporation Method and apparatus for limiting processor clock frequency
US6079982A (en) 1997-12-31 2000-06-27 Meader; Gregory M Interactive simulator ride
US6191809B1 (en) 1998-01-15 2001-02-20 Vista Medical Technologies, Inc. Method and apparatus for aligning stereo images
US6362817B1 (en) 1998-05-18 2002-03-26 In3D Corporation System for creating and viewing 3D environments using symbolic descriptors
US6076927A (en) 1998-07-10 2000-06-20 Owens; Raymond L. Adjustable focal length eye glasses
US6119147A (en) 1998-07-28 2000-09-12 Fuji Xerox Co., Ltd. Method and system for computer-mediated, multi-modal, asynchronous meetings in a virtual space
JP2000099332A (ja) 1998-09-25 2000-04-07 Hitachi Ltd 遠隔手続き呼び出し最適化方法とこれを用いたプログラム実行方法
US6414679B1 (en) 1998-10-08 2002-07-02 Cyberworld International Corporation Architecture and methods for generating and displaying three dimensional representations
US6415388B1 (en) 1998-10-30 2002-07-02 Intel Corporation Method and apparatus for power throttling in a microprocessor using a closed loop feedback system
US6918667B1 (en) 1998-11-02 2005-07-19 Gary Martin Zelman Auxiliary eyewear attachment apparatus
US6487319B1 (en) 1998-11-18 2002-11-26 Sarnoff Corporation Apparatus and method for identifying the location of a coding unit
US7111290B1 (en) 1999-01-28 2006-09-19 Ati International Srl Profiling program execution to identify frequently-executed portions and to assist binary translation
US6556245B1 (en) 1999-03-08 2003-04-29 Larry Allan Holmberg Game hunting video camera
US6396522B1 (en) 1999-03-08 2002-05-28 Dassault Systemes Selection navigator
US7119819B1 (en) 1999-04-06 2006-10-10 Microsoft Corporation Method and apparatus for supporting two-dimensional windows in a three-dimensional environment
WO2000060444A1 (en) 1999-04-06 2000-10-12 Microsoft Corporation Method and apparatus for supporting two-dimensional windows in a three-dimensional environment
US6375369B1 (en) 1999-04-22 2002-04-23 Videolarm, Inc. Housing for a surveillance camera
GB9930850D0 (en) 1999-12-24 2000-02-16 Koninkl Philips Electronics Nv 3D environment labelling
US6621508B1 (en) 2000-01-18 2003-09-16 Seiko Epson Corporation Information processing system
US6757068B2 (en) 2000-01-28 2004-06-29 Intersense, Inc. Self-referenced tracking
JP4921634B2 (ja) 2000-01-31 2012-04-25 グーグル インコーポレイテッド 表示装置
US9129034B2 (en) 2000-02-04 2015-09-08 Browse3D Corporation System and method for web browsing
KR20000030430A (ko) 2000-02-29 2000-06-05 김양신 3차원 그래픽 가상공간을 이용한 인터넷 광고시스템
JP4479051B2 (ja) 2000-04-28 2010-06-09 ソニー株式会社 情報処理装置および方法、並びに記録媒体
US6784901B1 (en) 2000-05-09 2004-08-31 There Method, system and computer program product for the delivery of a chat message in a 3D multi-user environment
JP4733809B2 (ja) * 2000-05-23 2011-07-27 株式会社東芝 放射線治療計画装置
KR100487543B1 (ko) 2000-09-01 2005-05-03 엘지전자 주식회사 시피유 스케쥴링 방법
US7788323B2 (en) 2000-09-21 2010-08-31 International Business Machines Corporation Method and apparatus for sharing information in a virtual environment
JP4646374B2 (ja) 2000-09-29 2011-03-09 オリンパス株式会社 画像観察光学系
US7168051B2 (en) 2000-10-10 2007-01-23 Addnclick, Inc. System and method to configure and provide a network-enabled three-dimensional computing environment
TW522256B (en) 2000-12-15 2003-03-01 Samsung Electronics Co Ltd Wearable display system
US6715089B2 (en) 2001-01-22 2004-03-30 Ati International Srl Reducing power consumption by estimating engine load and reducing engine clock speed
US20020108064A1 (en) 2001-02-07 2002-08-08 Patrick Nunally System and method for optimizing power/performance in network-centric microprocessor-controlled devices
US6807352B2 (en) 2001-02-11 2004-10-19 Georgia Tech Research Corporation Optical waveguides with embedded air-gap cladding layer and methods of fabrication thereof
US6931596B2 (en) 2001-03-05 2005-08-16 Koninklijke Philips Electronics N.V. Automatic positioning of display depending upon the viewer's location
US7176942B2 (en) 2001-03-23 2007-02-13 Dassault Systemes Collaborative design
US20020140848A1 (en) 2001-03-30 2002-10-03 Pelco Controllable sealed chamber for surveillance camera
EP1249717A3 (en) 2001-04-10 2005-05-11 Matsushita Electric Industrial Co., Ltd. Antireflection coating and optical element using the same
GB2393294B (en) 2001-04-27 2005-04-06 Ibm Method and apparatus for controlling operation speed of processor
US6961055B2 (en) 2001-05-09 2005-11-01 Free Radical Design Limited Methods and apparatus for constructing virtual environments
JP4682470B2 (ja) 2001-07-16 2011-05-11 株式会社デンソー スキャン型ディスプレイ装置
US6622253B2 (en) 2001-08-02 2003-09-16 Scientific-Atlanta, Inc. Controlling processor clock rate based on thread priority
US6762845B2 (en) 2001-08-23 2004-07-13 Zygo Corporation Multiple-pass interferometry
DE60124961T2 (de) 2001-09-25 2007-07-26 Cambridge Flat Projection Displays Ltd., Fenstanton Flachtafel-Projektionsanzeige
US6833955B2 (en) 2001-10-09 2004-12-21 Planop Planar Optics Ltd. Compact two-plane optical device
AU2002361572A1 (en) * 2001-10-19 2003-04-28 University Of North Carolina At Chape Hill Methods and systems for dynamic virtual convergence and head mountable display
JP3805231B2 (ja) 2001-10-26 2006-08-02 キヤノン株式会社 画像表示装置及びその方法並びに記憶媒体
JP3834615B2 (ja) 2001-11-02 2006-10-18 独立行政法人産業技術総合研究所 画像表示方法及びシステム
US7076674B2 (en) 2001-12-19 2006-07-11 Hewlett-Packard Development Company L.P. Portable computer having dual clock mode
JP2003329873A (ja) 2001-12-27 2003-11-19 Fujikura Ltd 位置決め機構を備えた光ファイバ把持具、光ファイバアダプタ、及び光ファイバ加工装置
US6592220B1 (en) 2002-01-30 2003-07-15 Lak Cheong Eyeglass frame with removably mounted lenses
US7305020B2 (en) 2002-02-04 2007-12-04 Vizionware, Inc. Method and system of reducing electromagnetic interference emissions
US7038694B1 (en) 2002-03-11 2006-05-02 Microsoft Corporation Automatic scenery object generation
US6999087B2 (en) 2002-03-12 2006-02-14 Sun Microsystems, Inc. Dynamically adjusting sample density in a graphics system
EP1351117A1 (en) 2002-04-03 2003-10-08 Hewlett-Packard Company Data processing system and method
WO2003091914A1 (en) 2002-04-25 2003-11-06 Arc International Apparatus and method for managing integrated circuit designs
US6849558B2 (en) 2002-05-22 2005-02-01 The Board Of Trustees Of The Leland Stanford Junior University Replication and transfer of microstructures and nanostructures
KR100382232B1 (en) 2002-05-31 2003-05-09 Palm Palm Tech Mobile terminal having enhanced power managing function and power managing method thereof
US7046515B1 (en) 2002-06-06 2006-05-16 Raytheon Company Method and apparatus for cooling a circuit component
US7155617B2 (en) 2002-08-01 2006-12-26 Texas Instruments Incorporated Methods and systems for performing dynamic power management via frequency and voltage scaling
US6714157B2 (en) 2002-08-02 2004-03-30 The Boeing Company Multiple time-interleaved radar operation using a single radar at different angles
US20040113887A1 (en) 2002-08-27 2004-06-17 University Of Southern California partially real and partially simulated modular interactive environment
KR100480786B1 (ko) 2002-09-02 2005-04-07 삼성전자주식회사 커플러를 가지는 집적형 광 헤드
AU2003265891A1 (en) 2002-09-04 2004-03-29 Mentor Graphics (Holdings) Ltd. Polymorphic computational system and method in signals intelligence analysis
US8458028B2 (en) 2002-10-16 2013-06-04 Barbaro Technologies System and method for integrating business-related content into an electronic game
EP1573490A2 (en) 2002-12-04 2005-09-14 Koninklijke Philips Electronics N.V. Software-based control of microprocessor power dissipation
US20050128212A1 (en) 2003-03-06 2005-06-16 Edecker Ada M. System and method for minimizing the amount of data necessary to create a virtual three-dimensional environment
US7306337B2 (en) 2003-03-06 2007-12-11 Rensselaer Polytechnic Institute Calibration-free gaze tracking under natural head movement
DE10311972A1 (de) 2003-03-18 2004-09-30 Carl Zeiss HMD-Vorrichtung
AU2003901272A0 (en) 2003-03-19 2003-04-03 Martin Hogan Pty Ltd Improvements in or relating to eyewear attachments
US7294360B2 (en) 2003-03-31 2007-11-13 Planar Systems, Inc. Conformal coatings for micro-optical elements, and method for making the same
US20040205757A1 (en) 2003-04-09 2004-10-14 Pering Trevor A. Performance scheduling using multiple constraints
CN100416340C (zh) * 2003-04-25 2008-09-03 微型光学公司 双目镜观察系统
EP1639394A2 (en) 2003-06-10 2006-03-29 Elop Electro-Optics Industries Ltd. Method and system for displaying an informative image against a background image
US20040268159A1 (en) 2003-06-30 2004-12-30 Microsoft Corporation Power profiling
US7467356B2 (en) 2003-07-25 2008-12-16 Three-B International Limited Graphical user interface for 3d virtual display browser using virtual display windows
US7134031B2 (en) 2003-08-04 2006-11-07 Arm Limited Performance control within a multi-processor system
JP3931336B2 (ja) 2003-09-26 2007-06-13 マツダ株式会社 車両用情報提供装置
US7434083B1 (en) 2004-01-06 2008-10-07 Apple Inc. Method and apparatus for the generation and control of clock signals
JP4699699B2 (ja) 2004-01-15 2011-06-15 株式会社東芝 ビーム光走査装置及び画像形成装置
US7269590B2 (en) 2004-01-29 2007-09-11 Yahoo! Inc. Method and system for customizing views of information associated with a social network user
EP1731943B1 (en) 2004-03-29 2019-02-13 Sony Corporation Optical device and virtual image display device
JP4364047B2 (ja) 2004-04-14 2009-11-11 オリンパス株式会社 表示装置、撮像装置
CN100350792C (zh) 2004-04-14 2007-11-21 奥林巴斯株式会社 摄像装置
US7219245B1 (en) 2004-06-03 2007-05-15 Advanced Micro Devices, Inc. Adaptive CPU clock management
US20060019723A1 (en) 2004-06-29 2006-01-26 Pieter Vorenkamp Automatic control of power save operation in a portable communication device utilizing historical usage information
US7382288B1 (en) 2004-06-30 2008-06-03 Rockwell Collins, Inc. Display of airport signs on head-up display
GB0416038D0 (en) 2004-07-16 2004-08-18 Portland Press Ltd Document display system
EP1769275A1 (en) 2004-07-22 2007-04-04 Pirelli & C. S.p.A. Integrated wavelength selective grating-based filter
US7542040B2 (en) 2004-08-11 2009-06-02 The United States Of America As Represented By The Secretary Of The Navy Simulated locomotion method and apparatus
EP1850731A2 (en) 2004-08-12 2007-11-07 Elop Electro-Optical Industries Ltd. Integrated retinal imager and method
US9030532B2 (en) 2004-08-19 2015-05-12 Microsoft Technology Licensing, Llc Stereoscopic image display
US7029114B2 (en) 2004-09-03 2006-04-18 E'lite Optik U.S. L.P. Eyewear assembly with auxiliary frame and lens assembly
WO2006030848A1 (ja) 2004-09-16 2006-03-23 Nikon Corporation 非晶質酸化珪素バインダを有するMgF2光学薄膜、及びそれを備える光学素子、並びにそのMgF2光学薄膜の製造方法
US20060090092A1 (en) 2004-10-25 2006-04-27 Verhulst Anton H Clock timing adjustment
US7536567B2 (en) 2004-12-10 2009-05-19 Hewlett-Packard Development Company, L.P. BIOS-based systems and methods of processor power management
US20060126181A1 (en) 2004-12-13 2006-06-15 Nokia Corporation Method and system for beam expansion in a display device
US8619365B2 (en) 2004-12-29 2013-12-31 Corning Incorporated Anti-reflective coating for optical windows and elements
GB0502453D0 (en) 2005-02-05 2005-03-16 Cambridge Flat Projection Flat panel lens
US7573640B2 (en) 2005-04-04 2009-08-11 Mirage Innovations Ltd. Multi-plane optical apparatus
US20060250322A1 (en) 2005-05-09 2006-11-09 Optics 1, Inc. Dynamic vergence and focus control for head-mounted displays
US7948683B2 (en) 2006-05-14 2011-05-24 Holochip Corporation Fluidic lens with manually-adjustable focus
US7644148B2 (en) 2005-05-16 2010-01-05 Hewlett-Packard Development Company, L.P. Historical data based workload allocation
WO2006132614A1 (en) 2005-06-03 2006-12-14 Nokia Corporation General diffractive optics method for expanding and exit pupil
US7364306B2 (en) 2005-06-20 2008-04-29 Digital Display Innovations, Llc Field sequential light source modulation for a digital display system
US7746343B1 (en) 2005-06-27 2010-06-29 Google Inc. Streaming and interactive visualization of filled polygon data in a geographic information system
JP4776285B2 (ja) 2005-07-01 2011-09-21 ソニー株式会社 照明光学装置及びこれを用いた虚像表示装置
JP4660787B2 (ja) 2005-08-25 2011-03-30 隆広 西岡 眼鏡
US7739524B2 (en) 2005-08-29 2010-06-15 The Invention Science Fund I, Inc Power consumption management
US20070058248A1 (en) 2005-09-14 2007-03-15 Nguyen Minh T Sport view binocular-zoom lens focus system
US20080043334A1 (en) 2006-08-18 2008-02-21 Mirage Innovations Ltd. Diffractive optical relay and method for manufacturing the same
US7869128B2 (en) 2005-09-27 2011-01-11 Konica Minolta Holdings, Inc. Head mounted display
US20100232016A1 (en) 2005-09-28 2010-09-16 Mirage Innovations Ltd. Stereoscopic Binocular System, Device and Method
US7817150B2 (en) 2005-09-30 2010-10-19 Rockwell Automation Technologies, Inc. Three-dimensional immersive system for representing an automation control environment
US8696113B2 (en) 2005-10-07 2014-04-15 Percept Technologies Inc. Enhanced optical and perceptual digital eyewear
US11428937B2 (en) 2005-10-07 2022-08-30 Percept Technologies Enhanced optical and perceptual digital eyewear
US20070081123A1 (en) 2005-10-07 2007-04-12 Lewis Scott W Digital eyewear
US9658473B2 (en) 2005-10-07 2017-05-23 Percept Technologies Inc Enhanced optical and perceptual digital eyewear
KR101193331B1 (ko) 2005-10-14 2012-10-19 엘지전자 주식회사 그래픽장치의 전력소모를 관리하는 시스템 및 방법
EP1943556B1 (en) 2005-11-03 2009-02-11 Mirage Innovations Ltd. Binocular optical relay device
US8092723B2 (en) 2005-11-18 2012-01-10 Nanocomp Oy Ltd Method of producing a diffraction grating element
EP1952189B1 (en) 2005-11-21 2016-06-01 Microvision, Inc. Display with image-guiding substrate
US7917573B2 (en) 2005-11-30 2011-03-29 International Business Machines Corporation Measuring and reporting processor capacity and processor usage in a computer system with processors of different speed and/or architecture
JP2007199841A (ja) 2006-01-24 2007-08-09 Seiko Epson Corp 電子機器のコントローラ、バス制御装置
WO2007085682A1 (en) 2006-01-26 2007-08-02 Nokia Corporation Eye tracker device
KR20060059992A (ko) 2006-01-31 2006-06-02 닛토덴코 가부시키가이샤 간섭 광학필터
JP2007219106A (ja) 2006-02-16 2007-08-30 Konica Minolta Holdings Inc 光束径拡大光学素子、映像表示装置およびヘッドマウントディスプレイ
US7461535B2 (en) 2006-03-01 2008-12-09 Memsic, Inc. Multi-temperature programming for accelerometer
IL174170A (en) 2006-03-08 2015-02-26 Abraham Aharoni Device and method for two-eyed tuning
US7353134B2 (en) 2006-03-09 2008-04-01 Dean A. Cirielli Three-dimensional position and motion telemetry input
CN101449270B (zh) 2006-03-15 2011-11-16 谷歌公司 自动显示尺寸调整后的图像
JP2007273733A (ja) 2006-03-31 2007-10-18 Tdk Corp 固体電解コンデンサの製造方法
WO2007141587A1 (en) 2006-06-02 2007-12-13 Nokia Corporation Color distribution in exit pupil expanders
EP1868149B1 (en) 2006-06-14 2019-08-07 Dassault Systèmes Improved computerized collaborative work
US7692855B2 (en) 2006-06-28 2010-04-06 Essilor International Compagnie Generale D'optique Optical article having a temperature-resistant anti-reflection coating with optimized thickness ratio of low index and high index layers
US9015501B2 (en) 2006-07-13 2015-04-21 International Business Machines Corporation Structure for asymmetrical performance multi-processors
US7724980B1 (en) 2006-07-24 2010-05-25 Adobe Systems Incorporated System and method for selective sharpening of images
US8214660B2 (en) 2006-07-26 2012-07-03 International Business Machines Corporation Structure for an apparatus for monitoring and controlling heat generation in a multi-core processor
KR100809479B1 (ko) 2006-07-27 2008-03-03 한국전자통신연구원 혼합 현실 환경을 위한 얼굴 착용형 디스플레이 장치
US20080030429A1 (en) 2006-08-07 2008-02-07 International Business Machines Corporation System and method of enhanced virtual reality
US7640449B2 (en) 2006-08-17 2009-12-29 Via Technologies, Inc. Systems and methods for dynamic clock frequencies for low power design
US9582060B2 (en) 2006-08-31 2017-02-28 Advanced Silicon Technologies Llc Battery-powered device with reduced power consumption based on an application profile data
JP4861105B2 (ja) 2006-09-15 2012-01-25 株式会社エヌ・ティ・ティ・ドコモ 空間掲示板システム
US20080068557A1 (en) 2006-09-20 2008-03-20 Gilbert Menduni Lens holding frame
US20080125218A1 (en) 2006-09-20 2008-05-29 Kelly James Collins Method of use for a commercially available portable virtual reality system
WO2008038058A1 (en) 2006-09-28 2008-04-03 Nokia Corporation Beam expansion with three-dimensional diffractive elements
US20090300528A1 (en) 2006-09-29 2009-12-03 Stambaugh Thomas M Browser event tracking for distributed web-based processing, spatial organization and display of information
CN105445835B (zh) 2006-10-31 2021-07-27 莫迪里斯控股有限责任公司 照明装置及照明系统
EP2095171A4 (en) 2006-12-14 2009-12-30 Nokia Corp DISPLAY DEVICE HAVING TWO OPERATING MODES
JP4847351B2 (ja) 2007-01-11 2011-12-28 キヤノン株式会社 回折光学素子及びそれを用いた回折格子
US7418368B2 (en) 2007-01-18 2008-08-26 International Business Machines Corporation Method and system for testing processor cores
JP4348441B2 (ja) 2007-01-22 2009-10-21 国立大学法人 大阪教育大学 位置検出装置、位置検出方法、データ判定装置、データ判定方法、コンピュータプログラム及び記憶媒体
US8726681B2 (en) 2007-01-23 2014-05-20 Hewlett-Packard Development Company, L.P. Method and system of cooling components of a computer system
US20090017910A1 (en) 2007-06-22 2009-01-15 Broadcom Corporation Position and motion tracking of an object
JP5194530B2 (ja) 2007-04-09 2013-05-08 凸版印刷株式会社 画像表示装置及び画像表示方法
US7733439B2 (en) 2007-04-30 2010-06-08 Qualcomm Mems Technologies, Inc. Dual film light guide for illuminating displays
WO2008148927A1 (en) 2007-06-04 2008-12-11 Nokia Corporation A diffractive beam expander and a virtual display based on a diffractive beam expander
US8060759B1 (en) 2007-06-29 2011-11-15 Emc Corporation System and method of managing and optimizing power consumption in a storage system
US9387402B2 (en) 2007-09-18 2016-07-12 Disney Enterprises, Inc. Method and system for converting a computer virtual environment into a real-life simulation environment
JP2009090689A (ja) 2007-10-03 2009-04-30 Calsonic Kansei Corp ヘッドアップディスプレイ
US8368721B2 (en) 2007-10-06 2013-02-05 Mccoy Anthony Apparatus and method for on-field virtual reality simulation of US football and other sports
US7844724B2 (en) 2007-10-24 2010-11-30 Social Communications Company Automated real-time data stream switching in a shared virtual area communication environment
US20110041083A1 (en) 2007-12-12 2011-02-17 Oz Gabai System and methodology for providing shared internet experience
US8508848B2 (en) 2007-12-18 2013-08-13 Nokia Corporation Exit pupil expanders with wide field-of-view
DE102008005817A1 (de) 2008-01-24 2009-07-30 Carl Zeiss Ag Optisches Anzeigegerät
WO2009101238A1 (en) 2008-02-14 2009-08-20 Nokia Corporation Device and method for determining gaze direction
JP2009244869A (ja) 2008-03-11 2009-10-22 Panasonic Corp 表示装置、表示方法、眼鏡型ヘッドマウントディスプレイ、及び自動車
US8296196B2 (en) 2008-05-15 2012-10-23 International Business Machines Corporation Tag along shopping
US9400212B2 (en) 2008-06-13 2016-07-26 Barco Inc. Smart pixel addressing
JP5181860B2 (ja) 2008-06-17 2013-04-10 セイコーエプソン株式会社 パルス幅変調信号生成装置およびそれを備えた画像表示装置、並びにパルス幅変調信号生成方法
JP5027746B2 (ja) 2008-07-01 2012-09-19 株式会社トプコン 位置測定方法、位置測定装置、およびプログラム
US8250389B2 (en) 2008-07-03 2012-08-21 International Business Machines Corporation Profiling an application for power consumption during execution on a plurality of compute nodes
US10885471B2 (en) 2008-07-18 2021-01-05 Disney Enterprises, Inc. System and method for providing location-based data on a wireless portable device
GB2462589B (en) 2008-08-04 2013-02-20 Sony Comp Entertainment Europe Apparatus and method of viewing electronic documents
US7850306B2 (en) 2008-08-28 2010-12-14 Nokia Corporation Visual cognition aware display and visual data transmission architecture
US8229800B2 (en) 2008-09-13 2012-07-24 At&T Intellectual Property I, L.P. System and method for an enhanced shopping experience
US7885506B2 (en) 2008-09-26 2011-02-08 Nokia Corporation Device and a method for polarized illumination of a micro-display
JP5805537B2 (ja) 2008-10-14 2015-11-04 オブロング・インダストリーズ・インコーポレーテッド マルチプロセス・インタラクティブ・システムおよび方法
JP2010139575A (ja) 2008-12-09 2010-06-24 Brother Ind Ltd シースルー型ヘッドマウント表示装置
US20100153934A1 (en) 2008-12-12 2010-06-17 Peter Lachner Prefetch for systems with heterogeneous architectures
US8325088B2 (en) 2009-02-04 2012-12-04 Google Inc. Mobile device battery management
US8539359B2 (en) 2009-02-11 2013-09-17 Jeffrey A. Rapaport Social network driven indexing system for instantly clustering people with concurrent focus on same topic into on-topic chat rooms and/or for generating on-topic search results tailored to user preferences regarding topic
US8411086B2 (en) 2009-02-24 2013-04-02 Fuji Xerox Co., Ltd. Model creation using visual markup languages
US8699141B2 (en) 2009-03-13 2014-04-15 Knowles Electronics, Llc Lens assembly apparatus and method
JP5121764B2 (ja) 2009-03-24 2013-01-16 株式会社東芝 固体撮像装置
JP5380122B2 (ja) * 2009-03-24 2014-01-08 テルモ株式会社 医療用デバイス
US9095436B2 (en) 2009-04-14 2015-08-04 The Invention Science Fund I, Llc Adjustable orthopedic implant and method for treating an orthopedic condition in a subject
US20100274567A1 (en) 2009-04-22 2010-10-28 Mark Carlson Announcing information about payment transactions of any member of a consumer group
US20100274627A1 (en) 2009-04-22 2010-10-28 Mark Carlson Receiving an announcement triggered by location data
US8839121B2 (en) 2009-05-06 2014-09-16 Joseph Bertolami Systems and methods for unifying coordinate systems in augmented reality applications
US9383823B2 (en) 2009-05-29 2016-07-05 Microsoft Technology Licensing, Llc Combining gestures beyond skeletal
US20110010636A1 (en) 2009-07-13 2011-01-13 International Business Machines Corporation Specification of a characteristic of a virtual universe establishment
KR20110006408A (ko) 2009-07-14 2011-01-20 권소망 안경과 클립의 결합방법 및 그 결합구조
US20110022870A1 (en) 2009-07-21 2011-01-27 Microsoft Corporation Component power monitoring and workload optimization
US8758125B2 (en) 2009-07-24 2014-06-24 Wms Gaming, Inc. Controlling event-driven behavior of wagering game objects
JP2011033993A (ja) 2009-08-05 2011-02-17 Sharp Corp 情報提示装置、および情報提示方法
JP5316391B2 (ja) 2009-08-31 2013-10-16 ソニー株式会社 画像表示装置及び頭部装着型ディスプレイ
US8738949B2 (en) 2009-08-31 2014-05-27 Empire Technology Development Llc Power management for processor
US20110050640A1 (en) 2009-09-03 2011-03-03 Niklas Lundback Calibration for a Large Scale Multi-User, Multi-Touch System
US8170283B2 (en) 2009-09-17 2012-05-01 Behavioral Recognition Systems Inc. Video surveillance system configured to analyze complex behaviors using alternating layers of clustering and sequencing
US11320571B2 (en) 2012-11-16 2022-05-03 Rockwell Collins, Inc. Transparent waveguide display providing upper and lower fields of view with uniform light extraction
US8719839B2 (en) 2009-10-30 2014-05-06 Intel Corporation Two way communication support for heterogenous processors of a computer platform
US8305502B2 (en) 2009-11-11 2012-11-06 Eastman Kodak Company Phase-compensated thin-film beam combiner
US8605209B2 (en) 2009-11-24 2013-12-10 Gregory Towle Becker Hurricane damage recording camera system
US8909962B2 (en) 2009-12-16 2014-12-09 Qualcomm Incorporated System and method for controlling central processing unit power with guaranteed transient deadlines
US9244533B2 (en) 2009-12-17 2016-01-26 Microsoft Technology Licensing, Llc Camera navigation for presentations
US8751854B2 (en) 2009-12-21 2014-06-10 Empire Technology Development Llc Processor core clock rate selection
US8565554B2 (en) 2010-01-09 2013-10-22 Microsoft Corporation Resizing of digital images
KR101099137B1 (ko) 2010-01-29 2011-12-27 주식회사 팬택 이동 통신 시스템에서 증강 현실 정보를 제공하기 위한 장치 및 방법
US8549339B2 (en) 2010-02-26 2013-10-01 Empire Technology Development Llc Processor core communication in multi-core processor
US8467133B2 (en) 2010-02-28 2013-06-18 Osterhout Group, Inc. See-through display with an optical assembly including a wedge-shaped illumination system
US11275482B2 (en) 2010-02-28 2022-03-15 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US9753297B2 (en) 2010-03-04 2017-09-05 Nokia Corporation Optical apparatus and method for expanding an exit pupil
US9547910B2 (en) 2010-03-04 2017-01-17 Honeywell International Inc. Method and apparatus for vision aided navigation using image registration
JP5499854B2 (ja) 2010-04-08 2014-05-21 ソニー株式会社 頭部装着型ディスプレイにおける光学的位置調整方法
US8118499B2 (en) 2010-05-19 2012-02-21 LIR Systems, Inc. Infrared camera assembly systems and methods
US20110291964A1 (en) 2010-06-01 2011-12-01 Kno, Inc. Apparatus and Method for Gesture Control of a Dual Panel Electronic Device
JP5923696B2 (ja) 2010-06-08 2016-05-25 アキム株式会社 角速度センサ検査用テーブル装置
JP2012015774A (ja) 2010-06-30 2012-01-19 Toshiba Corp 立体視映像処理装置および立体視映像処理方法
US8560876B2 (en) 2010-07-06 2013-10-15 Sap Ag Clock acceleration of CPU core based on scanned result of task for parallel execution controlling key word
US8601288B2 (en) 2010-08-31 2013-12-03 Sonics, Inc. Intelligent power controller
US8854594B2 (en) 2010-08-31 2014-10-07 Cast Group Of Companies Inc. System and method for tracking
KR101479262B1 (ko) 2010-09-02 2015-01-12 주식회사 팬택 증강현실 정보 이용 권한 부여 방법 및 장치
JP5632693B2 (ja) 2010-09-28 2014-11-26 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理方法および情報処理システム
US20120081392A1 (en) 2010-09-30 2012-04-05 Apple Inc. Electronic device operation adjustment based on face detection
US8688926B2 (en) 2010-10-10 2014-04-01 Liqid Inc. Systems and methods for optimizing data storage among a plurality of solid state memory subsystems
KR101260576B1 (ko) 2010-10-13 2013-05-06 주식회사 팬택 Ar 서비스를 제공하기 위한 사용자 단말기 및 그 방법
US8947784B2 (en) 2010-10-26 2015-02-03 Optotune Ag Variable focus lens having two liquid chambers
WO2012062681A1 (de) 2010-11-08 2012-05-18 Seereal Technologies S.A. Anzeigegerät, insbesondere ein head-mounted display, basierend auf zeitlichen und räumlichen multiplexing von hologrammkacheln
US20120113235A1 (en) 2010-11-08 2012-05-10 Sony Corporation 3d glasses, systems, and methods for optimized viewing of 3d video content
JP5854593B2 (ja) 2010-11-17 2016-02-09 キヤノン株式会社 積層型回折光学素子
US9304319B2 (en) 2010-11-18 2016-04-05 Microsoft Technology Licensing, Llc Automatic focus improvement for augmented reality displays
US9213405B2 (en) 2010-12-16 2015-12-15 Microsoft Technology Licensing, Llc Comprehension and intent-based content for augmented reality displays
US10391277B2 (en) * 2011-02-18 2019-08-27 Voxel Rad, Ltd. Systems and methods for 3D stereoscopic angiovision, angionavigation and angiotherapeutics
US20160187654A1 (en) 2011-02-28 2016-06-30 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a light transmissive wedge shaped illumination system
US8949637B2 (en) 2011-03-24 2015-02-03 Intel Corporation Obtaining power profile information with low overhead
KR101591579B1 (ko) 2011-03-29 2016-02-18 퀄컴 인코포레이티드 증강 현실 시스템들에서 실세계 표면들에의 가상 이미지들의 앵커링
KR101210163B1 (ko) 2011-04-05 2012-12-07 엘지이노텍 주식회사 광학 시트 및 이를 포함하는 표시장치
US8856571B2 (en) 2011-04-05 2014-10-07 Apple Inc. Adjusting device performance over multiple time domains
US8856355B2 (en) 2011-05-09 2014-10-07 Samsung Electronics Co., Ltd. Systems and methods for facilitating communication between mobile devices and display devices
JP2012235036A (ja) 2011-05-09 2012-11-29 Shimadzu Corp 発熱部品搭載用の厚銅箔プリント配線基板およびその製造方法
US20150077312A1 (en) 2011-05-13 2015-03-19 Google Inc. Near-to-eye display having adaptive optics
US9245307B2 (en) 2011-06-01 2016-01-26 Empire Technology Development Llc Structured light projection for motion detection in augmented reality
US10606066B2 (en) 2011-06-21 2020-03-31 Gholam A. Peyman Fluidic light field camera
US20120326948A1 (en) 2011-06-22 2012-12-27 Microsoft Corporation Environmental-light filter for see-through head-mounted display device
EP2723240B1 (en) 2011-06-27 2018-08-08 Koninklijke Philips N.V. Live 3d angiogram using registration of a surgical tool curve to an x-ray image
US9100587B2 (en) 2011-07-22 2015-08-04 Naturalpoint, Inc. Hosted camera remote control
US8548290B2 (en) 2011-08-23 2013-10-01 Vuzix Corporation Dynamic apertured waveguide for near-eye display
US10670876B2 (en) 2011-08-24 2020-06-02 Digilens Inc. Waveguide laser illuminator incorporating a despeckler
US9400395B2 (en) 2011-08-29 2016-07-26 Vuzix Corporation Controllable waveguide for near-eye display applications
US9025252B2 (en) 2011-08-30 2015-05-05 Microsoft Technology Licensing, Llc Adjustment of a mixed reality display for inter-pupillary distance alignment
US9213163B2 (en) 2011-08-30 2015-12-15 Microsoft Technology Licensing, Llc Aligning inter-pupillary distance in a near-eye display system
KR101407670B1 (ko) 2011-09-15 2014-06-16 주식회사 팬택 증강현실 기반 모바일 단말과 서버 및 그 통신방법
US8998414B2 (en) 2011-09-26 2015-04-07 Microsoft Technology Licensing, Llc Integrated eye tracking and display system
US9835765B2 (en) 2011-09-27 2017-12-05 Canon Kabushiki Kaisha Optical element and method for manufacturing the same
US8847988B2 (en) 2011-09-30 2014-09-30 Microsoft Corporation Exercising applications for personal audio/visual system
US9125301B2 (en) 2011-10-18 2015-09-01 Integrated Microwave Corporation Integral heater assembly and method for carrier or host board of electronic package assembly
US8782454B2 (en) 2011-10-28 2014-07-15 Apple Inc. System and method for managing clock speed based on task urgency
US9678102B2 (en) 2011-11-04 2017-06-13 Google Inc. Calibrating intertial sensors using an image sensor
US8891918B2 (en) 2011-11-17 2014-11-18 At&T Intellectual Property I, L.P. Methods, systems, and products for image displays
JP6189854B2 (ja) * 2011-12-03 2017-08-30 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 半自動経路プランニングのための自動奥行きスクローリング及びオリエンテーション調整
US20130162940A1 (en) 2011-12-27 2013-06-27 Zoom Focus Eyeware, LLC Spectacles With Removable Optics
US8608309B2 (en) 2011-12-30 2013-12-17 A New Vision Llc Eyeglass system
WO2013101273A1 (en) * 2011-12-30 2013-07-04 St. Jude Medical, Atrial Fibrillation Division, Inc. System and method for detection and avoidance of collisions of robotically-controlled medical devices
WO2013115829A2 (en) 2012-02-04 2013-08-08 Empire Technology Development Llc Core-level dynamic voltage and frequency scaling in a chip multiprocessor
JP5942456B2 (ja) 2012-02-10 2016-06-29 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
GB2499635B (en) 2012-02-23 2014-05-14 Canon Kk Image processing for projection on a projection screen
US9704220B1 (en) 2012-02-29 2017-07-11 Google Inc. Systems, methods, and media for adjusting one or more images displayed to a viewer
EP2688060A4 (en) 2012-03-22 2015-08-05 Sony Corp DISPLAY DEVICE, IMAGE PROCESSING DEVICE AND IMAGE PROCESSING PROCESS AND COMPUTER PROGRAM THEREFOR
JP5966510B2 (ja) 2012-03-29 2016-08-10 ソニー株式会社 情報処理システム
US10013511B2 (en) 2012-04-09 2018-07-03 Purdue Research Foundation System and method for energy usage accounting in software applications
US20130278633A1 (en) 2012-04-20 2013-10-24 Samsung Electronics Co., Ltd. Method and system for generating augmented reality scene
EP2834698B1 (en) 2012-05-03 2021-06-23 Nokia Technologies Oy Image providing apparatus, method and computer program
US9495308B2 (en) 2012-05-22 2016-11-15 Xockets, Inc. Offloading of computation for rack level servers and corresponding methods and systems
US8989535B2 (en) 2012-06-04 2015-03-24 Microsoft Technology Licensing, Llc Multiple waveguide imaging structure
US9671566B2 (en) 2012-06-11 2017-06-06 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
US9113291B2 (en) 2012-06-18 2015-08-18 Qualcomm Incorporated Location detection within identifiable pre-defined geographic areas
US8848741B2 (en) 2012-06-21 2014-09-30 Breakingpoint Systems, Inc. High-speed CLD-based TCP segmentation offload
US9767720B2 (en) 2012-06-25 2017-09-19 Microsoft Technology Licensing, Llc Object-centric mixed reality space
US9696547B2 (en) 2012-06-25 2017-07-04 Microsoft Technology Licensing, Llc Mixed reality system learned input and functions
US9645394B2 (en) 2012-06-25 2017-05-09 Microsoft Technology Licensing, Llc Configured virtual environments
JP5538483B2 (ja) 2012-06-29 2014-07-02 株式会社ソニー・コンピュータエンタテインメント 映像処理装置、映像処理方法、および映像処理システム
TW201403299A (zh) 2012-07-04 2014-01-16 Acer Inc 中央處理器控制方法
US8605764B1 (en) 2012-07-09 2013-12-10 Microvision, Inc. Laser diode junction temperature compensation
US9031283B2 (en) 2012-07-12 2015-05-12 Qualcomm Incorporated Sensor-aided wide-area localization on mobile devices
US9860522B2 (en) 2012-08-04 2018-01-02 Paul Lapstun Head-mounted light field display
US9841563B2 (en) 2012-08-04 2017-12-12 Paul Lapstun Shuttered waveguide light field display
WO2014031540A1 (en) 2012-08-20 2014-02-27 Cameron Donald Kevin Processing resource allocation
CN102829880B (zh) 2012-08-23 2014-04-16 江苏物联网研究发展中心 基于黒硅的高性能mems热电堆红外探测器及其制备方法
US9380287B2 (en) 2012-09-03 2016-06-28 Sensomotoric Instruments Gesellschaft Fur Innovative Sensorik Mbh Head mounted system and method to compute and render a stream of digital images using a head mounted display
US9798144B2 (en) 2012-09-12 2017-10-24 Sony Corporation Wearable image display device to control display of image
KR101923723B1 (ko) 2012-09-17 2018-11-29 한국전자통신연구원 사용자 간 상호작용이 가능한 메타버스 공간을 제공하기 위한 메타버스 클라이언트 단말 및 방법
US9177404B2 (en) 2012-10-31 2015-11-03 Qualcomm Incorporated Systems and methods of merging multiple maps for computer vision based tracking
US9576183B2 (en) 2012-11-02 2017-02-21 Qualcomm Incorporated Fast initialization for monocular visual SLAM
US9584382B2 (en) 2012-11-28 2017-02-28 At&T Intellectual Property I, L.P. Collecting and using quality of experience information
US20140168260A1 (en) 2012-12-13 2014-06-19 Paul M. O'Brien Waveguide spacers within an ned device
US8988574B2 (en) 2012-12-27 2015-03-24 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information using bright line image
US20150355481A1 (en) 2012-12-31 2015-12-10 Esight Corp. Apparatus and method for fitting head mounted vision augmentation systems
US10716469B2 (en) 2013-01-25 2020-07-21 Wesley W. O. Krueger Ocular-performance-based head impact measurement applied to rotationally-centered impact mitigation systems and methods
US9336629B2 (en) 2013-01-30 2016-05-10 F3 & Associates, Inc. Coordinate geometry augmented reality process
GB201301764D0 (en) 2013-01-31 2013-03-20 Adlens Ltd Actuation of fluid-filled lenses
US20160004102A1 (en) 2013-02-15 2016-01-07 Adlens Limited Adjustable Lens and Article of Eyewear
US8884663B2 (en) 2013-02-25 2014-11-11 Advanced Micro Devices, Inc. State machine for low-noise clocking of high frequency clock
US10437591B2 (en) 2013-02-26 2019-10-08 Qualcomm Incorporated Executing an operating system on processors having different instruction set architectures
US9600068B2 (en) 2013-03-13 2017-03-21 Sony Interactive Entertainment Inc. Digital inter-pupillary distance adjustment
US9854014B2 (en) 2013-03-14 2017-12-26 Google Inc. Motion data sharing
US9779517B2 (en) 2013-03-15 2017-10-03 Upskill, Inc. Method and system for representing and interacting with augmented reality content
MX351873B (es) 2013-03-15 2017-11-01 Immy Inc Pantalla montada en la cabeza que tiene alineación mantenida mediante montura estructural.
JP6337418B2 (ja) 2013-03-26 2018-06-06 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
KR101845350B1 (ko) 2013-03-26 2018-05-18 세이코 엡슨 가부시키가이샤 두부 장착형 표시 장치 및 두부 장착형 표시 장치의 제어 방법
JP2014191718A (ja) 2013-03-28 2014-10-06 Sony Corp 表示制御装置、表示制御方法および記録媒体
US9079399B2 (en) 2013-05-16 2015-07-14 Océ-Technologies B.V. Method for operating a printing system
US9235395B2 (en) 2013-05-30 2016-01-12 National Instruments Corporation Graphical development and deployment of parallel floating-point math functionality on a system with heterogeneous hardware components
JP6232763B2 (ja) * 2013-06-12 2017-11-22 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
WO2014203440A1 (ja) 2013-06-19 2014-12-24 パナソニックIpマネジメント株式会社 画像表示装置および画像表示方法
US9256987B2 (en) 2013-06-24 2016-02-09 Microsoft Technology Licensing, Llc Tracking head movement when wearing mobile device
JP6252004B2 (ja) * 2013-07-16 2017-12-27 セイコーエプソン株式会社 情報処理装置、情報処理方法、および、情報処理システム
US9998863B2 (en) 2013-08-19 2018-06-12 Estimote Polska Sp. Z O. O. System and method for providing content using beacon systems
WO2015031511A1 (en) 2013-08-27 2015-03-05 Frameri Inc. Removable eyeglass lens and frame platform
EP3049886A4 (en) 2013-09-27 2017-05-17 Intel Corporation Techniques for tracing wakelock usage
US9256072B2 (en) 2013-10-02 2016-02-09 Philip Scott Lyren Wearable electronic glasses that detect movement of a real object copies movement of a virtual object
US20150123966A1 (en) 2013-10-03 2015-05-07 Compedia - Software And Hardware Development Limited Interactive augmented virtual reality and perceptual computing platform
US20150097719A1 (en) 2013-10-03 2015-04-09 Sulon Technologies Inc. System and method for active reference positioning in an augmented reality environment
US9996797B1 (en) 2013-10-31 2018-06-12 Leap Motion, Inc. Interactions with virtual objects for machine control
KR102189115B1 (ko) 2013-11-11 2020-12-09 삼성전자주식회사 대칭형 다중 프로세서를 구비한 시스템 온-칩 및 이를 위한 최대 동작 클럭 주파수 결정 방법
US9286725B2 (en) 2013-11-14 2016-03-15 Nintendo Co., Ltd. Visually convincing depiction of object interactions in augmented reality images
CN105706028B (zh) 2013-11-19 2018-05-29 麦克赛尔株式会社 投影型影像显示装置
JP6465030B2 (ja) 2013-11-26 2019-02-06 ソニー株式会社 ヘッドマウントディスプレイ
CN107329259B (zh) 2013-11-27 2019-10-11 奇跃公司 虚拟和增强现实系统与方法
WO2015100714A1 (en) 2014-01-02 2015-07-09 Empire Technology Development Llc Augmented reality (ar) system
US9524580B2 (en) 2014-01-06 2016-12-20 Oculus Vr, Llc Calibration of virtual reality systems
US10228562B2 (en) 2014-02-21 2019-03-12 Sony Interactive Entertainment Inc. Realtime lens aberration correction from eye tracking
US9383630B2 (en) 2014-03-05 2016-07-05 Mygo, Llc Camera mouth mount
US9871741B2 (en) 2014-03-10 2018-01-16 Microsoft Technology Licensing, Llc Resource management based on device-specific or user-specific resource usage profiles
US9251598B2 (en) 2014-04-10 2016-02-02 GM Global Technology Operations LLC Vision-based multi-camera factory monitoring with dynamic integrity scoring
US11137601B2 (en) 2014-03-26 2021-10-05 Mark D. Wieczorek System and method for distanced interactive experiences
US20170123775A1 (en) 2014-03-26 2017-05-04 Empire Technology Development Llc Compilation of application into multiple instruction sets for a heterogeneous processor
JP6442149B2 (ja) 2014-03-27 2018-12-19 オリンパス株式会社 画像表示装置
US20150301955A1 (en) 2014-04-21 2015-10-22 Qualcomm Incorporated Extending protection domains to co-processors
US10424103B2 (en) 2014-04-29 2019-09-24 Microsoft Technology Licensing, Llc Display device viewer gaze attraction
US9626802B2 (en) 2014-05-01 2017-04-18 Microsoft Technology Licensing, Llc Determining coordinate frames in a dynamic environment
US10620700B2 (en) 2014-05-09 2020-04-14 Google Llc Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
CN106662754B (zh) 2014-05-30 2021-05-25 奇跃公司 用于采用虚拟或增强现实装置生成虚拟内容显示的方法和系统
EP2952850A1 (en) 2014-06-03 2015-12-09 Optotune AG Optical device, particularly for tuning the focal length of a lens of the device by means of optical feedback
JP6917710B2 (ja) 2014-07-01 2021-08-11 ソニーグループ株式会社 情報処理装置および方法
RU2603238C2 (ru) 2014-07-15 2016-11-27 Самсунг Электроникс Ко., Лтд. Световодная структура, голографическое оптическое устройство и система формирования изображений
US9865089B2 (en) 2014-07-25 2018-01-09 Microsoft Technology Licensing, Llc Virtual reality environment with real world objects
JP6683127B2 (ja) 2014-08-01 2020-04-15 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
US9615806B2 (en) * 2014-08-20 2017-04-11 David Byron Douglas Method and apparatus for creation and display of artifact-corrected three dimentional (3D) volumetric data from biplane fluoroscopic image acquisition
US10543414B2 (en) 2014-08-28 2020-01-28 Sony Corporation Image processing device and image processing system
US20160077338A1 (en) 2014-09-16 2016-03-17 Steven John Robbins Compact Projection Light Engine For A Diffractive Waveguide Display
US9494799B2 (en) 2014-09-24 2016-11-15 Microsoft Technology Licensing, Llc Waveguide eye tracking employing switchable diffraction gratings
US10176625B2 (en) 2014-09-25 2019-01-08 Faro Technologies, Inc. Augmented reality camera for use with 3D metrology equipment in forming 3D images from 2D camera images
US20160093269A1 (en) 2014-09-26 2016-03-31 Pixtronix, Inc. Laser-Pumped Phosphor Backlight and Methods
KR102688893B1 (ko) 2014-09-29 2024-07-29 매직 립, 인코포레이티드 상이한 파장의 광을 도파관 밖으로 출력하기 위한 아키텍쳐 및 방법
US9612722B2 (en) 2014-10-31 2017-04-04 Microsoft Technology Licensing, Llc Facilitating interaction between users and their environments using sounds
US10371936B2 (en) 2014-11-10 2019-08-06 Leo D. Didomenico Wide angle, broad-band, polarization independent beam steering and concentration of wave energy utilizing electronically controlled soft matter
US20170243403A1 (en) 2014-11-11 2017-08-24 Bent Image Lab, Llc Real-time shared augmented reality experience
IL235642B (en) 2014-11-11 2021-08-31 Lumus Ltd A compact head-up display system is protected by an element with a super-thin structure
KR20160059406A (ko) 2014-11-18 2016-05-26 삼성전자주식회사 가상 이미지를 출력하기 위한 웨어러블 장치 및 방법
US10794728B2 (en) 2014-12-19 2020-10-06 Invensense, Inc. Device and method for sensor calibration
WO2016106220A1 (en) 2014-12-22 2016-06-30 Dimensions And Shapes, Llc Headset vision system for portable devices
JP2016126134A (ja) 2014-12-26 2016-07-11 シャープ株式会社 表示装置およびウェアラブルデバイス
US10154239B2 (en) * 2014-12-30 2018-12-11 Onpoint Medical, Inc. Image-guided surgery with surface reconstruction and augmented reality visualization
US10018844B2 (en) 2015-02-09 2018-07-10 Microsoft Technology Licensing, Llc Wearable image display system
US9696795B2 (en) 2015-02-13 2017-07-04 Leap Motion, Inc. Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments
US10180734B2 (en) 2015-03-05 2019-01-15 Magic Leap, Inc. Systems and methods for augmented reality
KR102358110B1 (ko) 2015-03-05 2022-02-07 삼성디스플레이 주식회사 표시 장치
WO2016146963A1 (en) 2015-03-16 2016-09-22 Popovich, Milan, Momcilo Waveguide device incorporating a light pipe
US9955862B2 (en) 2015-03-17 2018-05-01 Raytrx, Llc System, method, and non-transitory computer-readable storage media related to correction of vision defects using a visual display
US20160287337A1 (en) 2015-03-31 2016-10-06 Luke J. Aram Orthopaedic surgical system and method for patient-specific surgical procedure
EP3078994B1 (en) 2015-04-07 2020-07-29 Magic Leap, Inc. Method of manufacture of a diffraction grating
US9779554B2 (en) 2015-04-10 2017-10-03 Sony Interactive Entertainment Inc. Filtering and parental control methods for restricting visual activity on a head mounted display
EP3578507B1 (en) 2015-04-20 2022-10-12 SZ DJI Technology Co., Ltd. Systems and methods for thermally regulating sensor operation
EP3292432B1 (en) 2015-04-23 2023-06-28 LEIA Inc. Dual light guide grating-based backlight and electronic display using same
EP3289430B1 (en) 2015-04-27 2019-10-23 Snap-Aid Patents Ltd. Estimating and using relative head pose and camera field-of-view
US10909464B2 (en) 2015-04-29 2021-02-02 Microsoft Technology Licensing, Llc Semantic locations prediction
US9664569B2 (en) 2015-05-15 2017-05-30 Google Inc. Circuit board configurations facilitating operation of heat sensitive sensor components
KR20160139727A (ko) 2015-05-28 2016-12-07 엘지전자 주식회사 글래스타입 단말기 및 이의 제어방법
GB2539009A (en) 2015-06-03 2016-12-07 Tobii Ab Gaze detection method and apparatus
WO2016205396A1 (en) 2015-06-15 2016-12-22 Black Eric J Methods and systems for communication with beamforming antennas
US10832479B2 (en) 2015-06-15 2020-11-10 Sony Corporation Information processing apparatus, information processing method, and program
FR3037672B1 (fr) 2015-06-16 2017-06-16 Parrot Drone comportant des moyens perfectionnes de compensation du biais de la centrale inertielle en fonction de la temperature
US9519084B1 (en) 2015-06-18 2016-12-13 Oculus Vr, Llc Securing a fresnel lens to a refractive optical element
WO2017004695A1 (en) 2015-07-06 2017-01-12 Frank Jones Methods and devices for demountable head mounted displays
US11190681B1 (en) 2015-07-10 2021-11-30 Snap Inc. Systems and methods for DSP fast boot
US20170100664A1 (en) 2015-10-12 2017-04-13 Osterhout Group, Inc. External user interface for head worn computing
US20170038607A1 (en) 2015-08-04 2017-02-09 Rafael Camara Enhanced-reality electronic device for low-vision pathologies, and implant procedure
KR20170017243A (ko) 2015-08-06 2017-02-15 강경득 보조 안경테
US9781246B2 (en) 2015-08-28 2017-10-03 Qualcomm Incorporated Augmenting reality using a small cell
WO2017039308A1 (en) 2015-08-31 2017-03-09 Samsung Electronics Co., Ltd. Virtual reality display apparatus and display method thereof
US9489027B1 (en) 2015-08-31 2016-11-08 Wave Resource Strategies, Inc. System and method for the accurate recordation of power consumption in a computing device utilizing power profiles
US9880611B2 (en) 2015-08-31 2018-01-30 Google Llc Energy saving mode for electronic devices
JP6615541B2 (ja) 2015-09-02 2019-12-04 株式会社バンダイナムコアミューズメント 投影システム
US20150378407A1 (en) 2015-09-04 2015-12-31 Mediatek Inc. Loading-Based Dynamic Voltage And Frequency Scaling
AU2016319754B2 (en) 2015-09-11 2019-02-21 Amazon Technologies, Inc. System, method and computer-readable storage medium for customizable event-triggered computation at edge locations
WO2017051595A1 (ja) 2015-09-25 2017-03-30 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US10082865B1 (en) 2015-09-29 2018-09-25 Rockwell Collins, Inc. Dynamic distortion mapping in a worn display
GB2542853B (en) 2015-10-02 2021-12-15 Cambridge Consultants Processing apparatus and methods
US10241332B2 (en) 2015-10-08 2019-03-26 Microsoft Technology Licensing, Llc Reducing stray light transmission in near eye display using resonant grating filter
US10067346B2 (en) 2015-10-23 2018-09-04 Microsoft Technology Licensing, Llc Holographic display
US9983709B2 (en) 2015-11-02 2018-05-29 Oculus Vr, Llc Eye tracking using structured light
WO2017079329A1 (en) 2015-11-04 2017-05-11 Magic Leap, Inc. Dynamic display calibration based on eye-tracking
US9671615B1 (en) 2015-12-01 2017-06-06 Microsoft Technology Licensing, Llc Extended field of view in near-eye display using wide-spectrum imager
US10025060B2 (en) 2015-12-08 2018-07-17 Oculus Vr, Llc Focus adjusting virtual reality headset
US10445860B2 (en) 2015-12-08 2019-10-15 Facebook Technologies, Llc Autofocus virtual reality headset
DE102015122055B4 (de) 2015-12-17 2018-08-30 Carl Zeiss Ag Optisches System sowie Verfahren zum Übertragen eines Quellbildes
US20170185261A1 (en) 2015-12-28 2017-06-29 Htc Corporation Virtual reality device, method for virtual reality
US10838116B2 (en) 2016-01-06 2020-11-17 University Of Utah Research Foundation Low-power large aperture adaptive lenses for smart eyeglasses
EP3190447B1 (en) 2016-01-06 2020-02-05 Ricoh Company, Ltd. Light guide and virtual image display device
US9978180B2 (en) 2016-01-25 2018-05-22 Microsoft Technology Licensing, Llc Frame projection for augmented reality environments
WO2017127897A1 (en) 2016-01-27 2017-08-03 Paul Lapstun Shuttered waveguide light field display
US10429639B2 (en) 2016-01-31 2019-10-01 Paul Lapstun Head-mounted light field display
US9891436B2 (en) 2016-02-11 2018-02-13 Microsoft Technology Licensing, Llc Waveguide-based displays with anti-reflective and highly-reflective coating
JP6686505B2 (ja) 2016-02-15 2020-04-22 セイコーエプソン株式会社 頭部装着型画像表示装置
JP6686504B2 (ja) 2016-02-15 2020-04-22 セイコーエプソン株式会社 頭部装着型画像表示装置
WO2017141566A1 (ja) 2016-02-18 2017-08-24 富士電機株式会社 信号伝達装置
US10667981B2 (en) 2016-02-29 2020-06-02 Mentor Acquisition One, Llc Reading assistance system for visually impaired
US9880441B1 (en) 2016-09-08 2018-01-30 Osterhout Group, Inc. Electrochromic systems for head-worn computer systems
US20170256096A1 (en) 2016-03-07 2017-09-07 Google Inc. Intelligent object sizing and placement in a augmented / virtual reality environment
CN111329553B (zh) 2016-03-12 2021-05-04 P·K·朗 用于手术的装置与方法
US10223605B2 (en) 2016-03-18 2019-03-05 Colorvision International, Inc. Interactive virtual aquarium simulation system and associated methods
WO2017173213A1 (en) 2016-03-31 2017-10-05 Zoll Medical Corporation Systems and methods of tracking patient movement
JP7055751B2 (ja) 2016-04-07 2022-04-18 マジック リープ, インコーポレイテッド 拡張現実のためのシステムおよび方法
EP3236211A1 (en) 2016-04-21 2017-10-25 Thomson Licensing Method and apparatus for estimating a pose of a rendering device
US10197804B2 (en) 2016-04-25 2019-02-05 Microsoft Technology Licensing, Llc Refractive coating for diffractive optical elements
US10261162B2 (en) 2016-04-26 2019-04-16 Magic Leap, Inc. Electromagnetic tracking with augmented reality systems
US20170312032A1 (en) 2016-04-27 2017-11-02 Arthrology Consulting, Llc Method for augmenting a surgical field with virtual guidance content
CN109476175B (zh) 2016-05-06 2021-07-30 奇跃公司 具有用于重定向光的非对称光栅的超表面及其制造方法
US10241346B2 (en) 2016-05-07 2019-03-26 Microsoft Technology Licensing, Llc Degrees of freedom for diffraction elements in wave expander
US10215986B2 (en) 2016-05-16 2019-02-26 Microsoft Technology Licensing, Llc Wedges for light transformation
US11228770B2 (en) 2016-05-16 2022-01-18 Qualcomm Incorporated Loop sample processing for high dynamic range and wide color gamut video coding
GB201609027D0 (en) 2016-05-23 2016-07-06 Bae Systems Plc Waveguide manufacturing method
US10078377B2 (en) 2016-06-09 2018-09-18 Microsoft Technology Licensing, Llc Six DOF mixed reality input by fusing inertial handheld controller with hand tracking
US9939647B2 (en) 2016-06-20 2018-04-10 Microsoft Technology Licensing, Llc Extended field of view in near-eye display using optically stitched imaging
US10114440B2 (en) 2016-06-22 2018-10-30 Razer (Asia-Pacific) Pte. Ltd. Applying power management based on a target time
US10372184B2 (en) 2016-06-28 2019-08-06 Renesas Electronics America Inc. Method and apparatus for implementing power modes in microcontrollers using power profiles
US11030975B2 (en) 2016-07-04 2021-06-08 Sony Corporation Information processing apparatus and information processing method
CN109417608B (zh) 2016-07-07 2021-02-02 日立乐金光科技株式会社 影像显示装置
TW201803289A (zh) 2016-07-11 2018-01-16 原相科技股份有限公司 可利用較小電路面積並同時考量節能省電以偵測空氣中之干擾訊號之功率來控制放大器之增益值的無線收發機裝置及方法
IL298851B2 (en) 2016-07-25 2023-12-01 Magic Leap Inc Change, display and visualization of imaging using augmented and virtual reality glasses
CA3032812A1 (en) 2016-08-04 2018-02-08 Reification Inc. Methods for simultaneous localization and mapping (slam) and related apparatus and systems
US10943359B2 (en) 2016-08-04 2021-03-09 Dolby Laboratories Licensing Corporation Single depth tracked accommodation-vergence solutions
US10278167B2 (en) 2016-08-12 2019-04-30 Qualcomm Incorporated Downlink control channel structure for low latency applications
US10676345B2 (en) 2016-08-15 2020-06-09 Y-Sensors Ltd. Temperature stabilized MEMS device
WO2018039277A1 (en) 2016-08-22 2018-03-01 Magic Leap, Inc. Diffractive eyepiece
US10690936B2 (en) 2016-08-29 2020-06-23 Mentor Acquisition One, Llc Adjustable nose bridge assembly for headworn computer
US20180067779A1 (en) 2016-09-06 2018-03-08 Smartiply, Inc. AP-Based Intelligent Fog Agent
US20180082480A1 (en) 2016-09-16 2018-03-22 John R. White Augmented reality surgical technique guidance
CA3036709A1 (en) 2016-09-26 2018-03-29 Magic Leap, Inc. Calibration of magnetic and optical sensors in a virtual reality or augmented reality display system
US10134192B2 (en) 2016-10-17 2018-11-20 Microsoft Technology Licensing, Llc Generating and displaying a computer generated image on a future pose of a real world object
US10373297B2 (en) 2016-10-26 2019-08-06 Valve Corporation Using pupil location to correct optical lens distortion
US10735691B2 (en) 2016-11-08 2020-08-04 Rockwell Automation Technologies, Inc. Virtual reality and augmented reality for industrial automation
EP3320829A1 (en) 2016-11-10 2018-05-16 E-Health Technical Solutions, S.L. System for integrally measuring clinical parameters of visual function
KR102573744B1 (ko) 2016-11-23 2023-09-01 삼성디스플레이 주식회사 표시 장치 및 그 구동 방법
JP7076447B2 (ja) * 2016-11-24 2022-05-27 ユニヴァーシティ オブ ワシントン ヘッドマウントディスプレイのための光照射野キャプチャおよびレンダリング
JP6917701B2 (ja) 2016-11-30 2021-08-11 キヤノン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
US11272600B2 (en) 2016-12-01 2022-03-08 Sony Corporation Information processing apparatus and information processing method
US10185151B2 (en) 2016-12-20 2019-01-22 Facebook Technologies, Llc Waveguide display with a small form factor, a large field of view, and a large eyebox
CN108885533B (zh) 2016-12-21 2021-05-07 杰创科科技有限公司 组合虚拟现实和增强现实
US10203252B2 (en) 2016-12-29 2019-02-12 Industrial Technology Research Institute Microelectromechanical apparatus having a measuring range selector
US11138436B2 (en) 2016-12-29 2021-10-05 Magic Leap, Inc. Automatic control of wearable display device based on external conditions
JP7268879B2 (ja) 2017-01-02 2023-05-08 ガウス サージカル,インコーポレイテッド 重複撮像を予測した手術アイテムの追跡
US10489975B2 (en) 2017-01-04 2019-11-26 Daqri, Llc Environmental mapping system
US10436594B2 (en) 2017-01-17 2019-10-08 Blind InSites, LLC Devices, systems, and methods for navigation and usage guidance in a navigable space using wireless communication
US9978118B1 (en) 2017-01-25 2018-05-22 Microsoft Technology Licensing, Llc No miss cache structure for real-time image transformations with data compression
AU2018212570B2 (en) 2017-01-27 2023-03-16 Magic Leap, Inc. Antireflection coatings for metasurfaces
US20180218545A1 (en) 2017-01-31 2018-08-02 Daqri, Llc Virtual content scaling with a hardware controller
JP6878028B2 (ja) * 2017-02-07 2021-05-26 キヤノンメディカルシステムズ株式会社 医用画像診断システム及び複合現実画像生成装置
US20180255285A1 (en) 2017-03-06 2018-09-06 Universal City Studios Llc Systems and methods for layered virtual features in an amusement park environment
US20180260218A1 (en) 2017-03-07 2018-09-13 Vinodh Gopal Instruction set architectures for fine-grained heterogeneous processing
EP3376279B1 (en) 2017-03-13 2022-08-31 Essilor International Optical device for a head-mounted display, and head-mounted device incorporating it for augmented reality
US10452123B2 (en) 2017-03-30 2019-10-22 Google Llc Predictive power saving and screen dimming for computing devices
US10642045B2 (en) 2017-04-07 2020-05-05 Microsoft Technology Licensing, Llc Scanner-illuminated LCOS projector for head mounted display
US10241545B1 (en) 2017-06-01 2019-03-26 Facebook Technologies, Llc Dynamic distortion correction for optical compensation
US11132533B2 (en) 2017-06-07 2021-09-28 David Scott Dreessen Systems and methods for creating target motion, capturing motion, analyzing motion, and improving motion
US11236993B1 (en) 2017-06-08 2022-02-01 Facebook Technologies, Llc Depth sensing using a time of flight system including a scanning beam in combination with a single photon avalanche diode array
GB201709199D0 (en) 2017-06-09 2017-07-26 Delamont Dean Lindsay IR mixed reality and augmented reality gaming system
WO2018235075A1 (en) 2017-06-18 2018-12-27 Moovit App Global Ltd. SYSTEM AND METHOD FOR DETERMINING TRANSIT STOP LOCATION
US10022192B1 (en) * 2017-06-23 2018-07-17 Auris Health, Inc. Automatically-initialized robotic systems for navigation of luminal networks
US20190196690A1 (en) 2017-06-23 2019-06-27 Zyetric Virtual Reality Limited First-person role playing interactive augmented reality
US10578870B2 (en) 2017-07-26 2020-03-03 Magic Leap, Inc. Exit pupil expander
US20190056591A1 (en) 2017-08-18 2019-02-21 Microsoft Technology Licensing, Llc Optical waveguide with multiple antireflective coatings
WO2019040493A1 (en) * 2017-08-21 2019-02-28 The Trustees Of Columbia University In The City Of New York SYSTEMS AND METHODS FOR AUGMENTED REALITY GUIDANCE
US9948612B1 (en) 2017-09-27 2018-04-17 Citrix Systems, Inc. Secure single sign on and conditional access for client applications
US10437065B2 (en) 2017-10-03 2019-10-08 Microsoft Technology Licensing, Llc IPD correction and reprojection for accurate mixed reality object placement
US20190137788A1 (en) 2017-11-08 2019-05-09 Interstol Trading Co. Inc. Lens assembly including magnet assembly components for mounting onto an eye glass frame
US10317680B1 (en) 2017-11-09 2019-06-11 Facebook Technologies, Llc Optical aberration correction based on user eye position in head mounted displays
EP3482802B1 (de) 2017-11-13 2021-01-13 VR Coaster GmbH & Co. KG Vorrichtung zum erleben einer virtual reality simulation in einer unterwasserwelt
US10599259B2 (en) 2017-11-20 2020-03-24 Google Llc Virtual reality / augmented reality handheld controller sensing
KR102411287B1 (ko) 2017-11-22 2022-06-22 삼성전자 주식회사 미디어 출력 제어 장치 및 방법
WO2019108651A1 (en) 2017-12-01 2019-06-06 Rhodan Marine Systems Of Florida, Llc Dynamic augmented reality headset system
US10916059B2 (en) 2017-12-06 2021-02-09 Universal City Studios Llc Interactive video game system having an augmented virtual representation
US10636198B2 (en) 2017-12-28 2020-04-28 Beijing Jingdong Shangke Information Technology Co., Ltd. System and method for monocular simultaneous localization and mapping
US10620430B2 (en) 2018-01-12 2020-04-14 Microsoft Technology Licensing, Llc Geometrically multiplexed RGB lasers in a scanning MEMS display system for HMDS
US10773169B2 (en) 2018-01-22 2020-09-15 Google Llc Providing multiplayer augmented reality experiences
US11348257B2 (en) 2018-01-29 2022-05-31 Philipp K. Lang Augmented reality guidance for orthopedic and other surgical procedures
US11386572B2 (en) 2018-02-03 2022-07-12 The Johns Hopkins University Calibration system and method to align a 3D virtual scene and a 3D real world for a stereoscopic head-mounted display
US10422989B2 (en) 2018-02-06 2019-09-24 Microsoft Technology Licensing, Llc Optical systems including a single actuator and multiple fluid-filled optical lenses for near-eye-display devices
GB201805301D0 (en) 2018-03-29 2018-05-16 Adlens Ltd Improvements In Or Relating To Variable Focusing Power Optical Devices
US10997746B2 (en) 2018-04-12 2021-05-04 Honda Motor Co., Ltd. Feature descriptor matching
US10504288B2 (en) 2018-04-17 2019-12-10 Patrick Piemonte & Ryan Staake Systems and methods for shared creation of augmented reality
JP6779939B2 (ja) 2018-04-19 2020-11-04 グリー株式会社 ゲーム装置、制御方法及び制御プログラム
US10969486B2 (en) 2018-04-26 2021-04-06 SCRRD, Inc. Augmented reality platform and method for use of same
US12062249B2 (en) 2018-05-04 2024-08-13 Northeastern University System and method for generating image landmarks
US10740966B2 (en) 2018-05-14 2020-08-11 Microsoft Technology Licensing, Llc Fake thickness on a two-dimensional object
EP3804306B1 (en) 2018-06-05 2023-12-27 Magic Leap, Inc. Homography transformation matrices based temperature calibration of a viewing system
WO2019245869A1 (en) 2018-06-19 2019-12-26 Tornier, Inc. Closed-loop tool control for orthopedic surgical procedures
US11510027B2 (en) 2018-07-03 2022-11-22 Magic Leap, Inc. Systems and methods for virtual and augmented reality
CN109223121A (zh) * 2018-07-31 2019-01-18 广州狄卡视觉科技有限公司 基于医学影像模型重建、定位的脑出血穿刺手术导航系统
US10854004B2 (en) 2018-08-24 2020-12-01 Facebook, Inc. Multi-device mapping and collaboration in augmented-reality environments
US10902678B2 (en) 2018-09-06 2021-01-26 Curious Company, LLC Display of hidden information
CN110942518B (zh) 2018-09-24 2024-03-29 苹果公司 上下文计算机生成现实(cgr)数字助理
US11017217B2 (en) 2018-10-09 2021-05-25 Midea Group Co., Ltd. System and method for controlling appliances using motion gestures
US10838488B2 (en) 2018-10-10 2020-11-17 Plutovr Evaluating alignment of inputs and outputs for virtual environments
US10678323B2 (en) 2018-10-10 2020-06-09 Plutovr Reference frames for virtual environments
US10516853B1 (en) 2018-10-10 2019-12-24 Plutovr Aligning virtual representations to inputs and outputs
US10776933B2 (en) 2018-12-06 2020-09-15 Microsoft Technology Licensing, Llc Enhanced techniques for tracking the movement of real-world objects for improved positioning of virtual objects
US10970547B2 (en) 2018-12-07 2021-04-06 Microsoft Technology Licensing, Llc Intelligent agents for managing data associated with three-dimensional objects
US11216150B2 (en) 2019-06-28 2022-01-04 Wen-Chieh Geoffrey Lee Pervasive 3D graphical user interface with vector field functionality
WO2021007581A1 (en) 2019-07-11 2021-01-14 Elo Labs, Inc. Interactive personal training system
US11174153B2 (en) 2019-08-21 2021-11-16 Invensense, Inc. Package level thermal gradient sensing
US11182612B2 (en) 2019-10-28 2021-11-23 The Chinese University Of Hong Kong Systems and methods for place recognition based on 3D point cloud
US11209656B1 (en) 2020-10-05 2021-12-28 Facebook Technologies, Llc Methods of driving light sources in a near-eye display

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020082498A1 (en) * 2000-10-05 2002-06-27 Siemens Corporate Research, Inc. Intra-operative image-guided neurosurgery with augmented reality visualization
US20070078334A1 (en) * 2005-10-04 2007-04-05 Ascension Technology Corporation DC magnetic-based position and orientation monitoring system for tracking medical instruments
US20080146942A1 (en) * 2006-12-13 2008-06-19 Ep Medsystems, Inc. Catheter Position Tracking Methods Using Fluoroscopy and Rotational Sensors
CN101677778A (zh) * 2007-01-25 2010-03-24 华沙整形外科股份有限公司 带有自动手术辅助和控制设备的手术导航和神经监视集成系统
CN101530325A (zh) * 2008-02-29 2009-09-16 韦伯斯特生物官能公司 具有虚拟触摸屏的定位系统
US20110230758A1 (en) * 2008-12-03 2011-09-22 Uzi Eichler System and method for determining the position of the tip of a medical catheter within the body of a patient
CN106415364A (zh) * 2014-04-29 2017-02-15 微软技术许可有限责任公司 立体渲染至眼睛位置
WO2015194597A1 (ja) * 2014-06-17 2015-12-23 日本電産コパル電子株式会社 感圧センサと感圧カテーテル
US20160015470A1 (en) * 2014-07-15 2016-01-21 Osterhout Group, Inc. Content presentation in head worn computing
WO2017049163A1 (en) * 2015-09-18 2017-03-23 Auris Surgical Robotics, Inc. Navigation of tubular networks
WO2018057564A1 (en) * 2016-09-22 2018-03-29 Medtronic Navigation, Inc. System for guided procedures
WO2018085287A1 (en) * 2016-11-02 2018-05-11 Intuitive Surgical Operations, Inc. Systems and methods of continuous registration for image-guided surgery

Also Published As

Publication number Publication date
EP3840645A4 (en) 2021-10-20
JP2021533919A (ja) 2021-12-09
US20210177370A1 (en) 2021-06-17
EP3840645A1 (en) 2021-06-30
US12016719B2 (en) 2024-06-25
WO2020041615A1 (en) 2020-02-27
JP2023133406A (ja) 2023-09-22
US20240293096A1 (en) 2024-09-05
JP7487176B2 (ja) 2024-05-20

Similar Documents

Publication Publication Date Title
US11652971B2 (en) Image-guided surgery with surface reconstruction and augmented reality visualization
Bichlmeier et al. The virtual mirror: a new interaction paradigm for augmented reality environments
US20240293096A1 (en) Patient viewing system
JP6242569B2 (ja) 医用画像表示装置及びx線診断装置
WO2019181632A1 (en) Surgical assistance apparatus, surgical method, non-transitory computer readable medium and surgical assistance system
JP6116754B2 (ja) 低侵襲手術において画像データを立体視表示するための装置およびその装置の作動方法
JP2010517632A (ja) 内視鏡の継続的案内のためのシステム
US11737832B2 (en) Viewing system for use in a surgical environment
CN110584782B (zh) 医学图像处理方法、装置、医学系统、计算机及存储介质
JP2021509987A (ja) 血管特徴を使用して異常な組織を検出するためのシステム及び方法
US11832883B2 (en) Using real-time images for augmented-reality visualization of an ophthalmology surgical tool
KR20220019353A (ko) 증강현실 의료영상을 제공하기 위한 사용자 단말기 및 증강현실 의료영상 제공 방법
KR101529659B1 (ko) 수술전 호흡 레벨과 수술장 호흡 레벨을 비교하는 방법
KR20200132189A (ko) 증강현실을 이용한 의료 기구 자세 추적 시스템 및 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination