CN106648077A - 基于实时跟踪和多源信息融合的自适应动态立体增强现实作业导航系统 - Google Patents

基于实时跟踪和多源信息融合的自适应动态立体增强现实作业导航系统 Download PDF

Info

Publication number
CN106648077A
CN106648077A CN201611093641.1A CN201611093641A CN106648077A CN 106648077 A CN106648077 A CN 106648077A CN 201611093641 A CN201611093641 A CN 201611093641A CN 106648077 A CN106648077 A CN 106648077A
Authority
CN
China
Prior art keywords
real
time
tracking
augmented reality
operating apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201611093641.1A
Other languages
English (en)
Inventor
周正东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Aeronautics and Astronautics
Original Assignee
Nanjing University of Aeronautics and Astronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Aeronautics and Astronautics filed Critical Nanjing University of Aeronautics and Astronautics
Priority to CN201611093641.1A priority Critical patent/CN106648077A/zh
Publication of CN106648077A publication Critical patent/CN106648077A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了基于实时跟踪和多源信息融合的自适应动态立体增强现实作业导航系统,该系统由头部姿态跟踪单元、实时成像单元、作业器械、作业器械跟踪定位单元、图形工作站和显示器构成。头部姿态跟踪单元由多对摄像机、立体眼镜及头部姿态信号采集与处理模块组成;作业器械跟踪定位单元,由位姿传感器、数据采集与处理模块组成;实时成像系统由成像传感器、图像采集与处理模块组成;图形工作站将作业对象三维模型或作业前作业对象图像、实时影像及作业器械的实时姿态进行配准与融合,生成立体增强现实场景,并对其进行自适应动态调整。该发明使作业者可从不同视角便捷观察作业立体场景,使作业器械灵活易控,提高了认知能力及作业质量和效率。

Description

基于实时跟踪和多源信息融合的自适应动态立体增强现实作 业导航系统
技术领域
本发明涉及图像处理领域,确切地说是涉及基于实时跟踪和自适应动态立体增强现实作业导航系统,为精确作业提供高质、高效的手段。
背景技术
传统的作业导航利用工作站在二维显示屏上显示三维作业场景,缺乏景深信息、实时影像信息及便利的人机交互能力,作业用户需要通过想象建立三维作业场景,难以对作业器械进行灵活有效的控制,不利于精确高效作业。
发明内容
本发明提供一种基于实时跟踪和多源信息融合的自适应动态立体增强现实作业导航系统,通过作业用户头部姿态实时跟踪、实时成像、实时作业器械位姿跟踪及立体显示生成立体增强现实场景并进行自适应动态调整,使作业用户可从不同视角便捷地观察实时作业立体场景,提高了肉眼对不可见作业场景的认知能力,使得作业器械灵活易控,可使得作业高质量、高效率完成。
本发明采取了以下的技术方案:一种基于实时跟踪和多源信息融合的自适应动态立体增强现实作业导航系统,由头部姿态跟踪单元、实时成像单元、作业器械、作业器械跟踪定位单元、图形工作站和显示器构成。所述头部姿态跟踪单元由多目摄像机、立体眼镜及头部姿态信号采集与处理模块组成,用于跟踪作业用户的头部姿态;所述多目摄像机由一对或多对摄像机组成,用来获取头部姿态变化数据;所述立体眼镜携带3个或3个以上的标志点,用于立体场景观察及头部姿态跟踪;所述实时成像单元由成像传感器、图像采集与处理模块组成,用于获取作业对象的实时影像;所述作业器械携带成像传感器和位姿传感器;所述作业器械跟踪定位单元,由位姿传感器、数据采集与处理模块组成,用于实时跟踪作业器械并获取其空间坐标。
所述头部姿态跟踪单元由多目摄像机、携带标志点的立体眼镜及头部姿态信号采集与处理模块组成,用于跟踪作业用户的头部姿态。立体眼镜携带3个或3个以上的标志点;多目摄像机由一对或多对摄像机组成,多目摄像机安装于显示器上,用来跟踪立体眼镜上的标志点;头部姿态信号采集和处理模块对多目摄像机跟踪立体眼镜上标志点获得的信息进行分析和处理,获得作业用户的头部姿态。
所述立体眼镜携带3个或3个以上的标志点,作业用户利用它观察显示屏上的左右眼视差图像,从而在人脑中形成具有景深的作业立体场景;同时,立体眼镜携带的标志点也被用于头部姿态的实时跟踪。
所述实时成像单元由成像传感器、图像采集与处理模块组成,它通过成像传感器采集作业器械当前位姿处的实时影像信号,经处理后生成实时影像并保存于图形工作站。
所述作业器械携带有成像传感器和位姿传感器,用于作业、实时影像信息及位姿信息获取。
所述作业器械跟踪定位单元由位姿传感器、定位单元信号采集与处理模块组成,它通过位姿传感器采集作业器械及成像传感器的位姿信号,经处理后得到作业器械及成像传感器的位姿信息,并保存于图形工作站;作业前,通过标定操作获得作业前作业对象成像坐标系与作业器械跟踪定位坐标系之间的空间变换矩阵T1
所述图形工作站通过对多源信息(作业前影像及其三维模型、作业规划路径、作业姿态、实时影像、实际作业路径等)进行融合,利用虚拟摄像机产生左右眼视差图像并显示在显示屏上,作业用户利用立体眼睛观察显示屏,从而在人脑中形成具有景深的作业立体场景,并根据作业规划及观察到的实时作业场景对作业器械进行实时调整和控制。作业前,根据作业对象的几何结构或者断层成像数据,利用图形工作站进行三维建模及作业路径规划,并建立虚拟摄像机,对作业对象三维模型、作业规划路径进行融合生成左右眼视差图像;作业中,作业器械跟踪定位单元获取作业器械及成像传感器在定位坐标系中的实时位姿;实时成像系统获取作业路径上的实时影像,实时影像被传送到图形工作站进行处理和分析,获取当前作业路径周边的关键信息,为后继作业提供数据;图形工作站根据上述位姿信息及变换矩阵T1进行计算形成实际作业路径,将实时影像、作业规划路径、实际作业路径、作业前作业对象影像及其三维模型进行融合,利用虚拟摄像机生成左右眼视差图像。
与现有技术相比,本发明具有如下有益效果:
本发明通过作业用户头部姿态实时跟踪、实时成像、实时作业器械位姿跟踪及立体显示形成立体增强现实场景并进行自适应动态调整,使作业用户可从不同视角便捷地观察实时作业立体场景,提高了肉眼对不可见作业场景的认知能力,使得作业器械灵活易控,可有效提高作业质量与效率。
附图说明
图1为实时跟踪自适应动态立体增强现实导航系统原理图
具体实施方式
下面结合图1说明采用本发明的系统实施作业导航的实例。
实施例1:微创脊柱外科手术
(1)在患者病变周边布置多个标志点,标志点数目n不少于3个;然后对患者进行断层成像,利用图形工作站对断层图像进行处理获取所有标记点在成像系统中的坐标P=[P1,P2,...,Pn]T以及脊柱、血管、神经等组织的三维模型,并进行手术路径规划,手术路径应尽可能避开重要组织或器官;
(2)将患者置于手术床上,利用作业器械跟踪定位单元获取忠者体部布置的所有标记点在定位坐标系统中的坐标P’=[P1’,P2’,...,Pn’]T
(3)根据患者体部布置的标记点在成像系统和作业器械跟踪定位坐标系统中的坐标P和P’,利用如下公式(1)进行坐标变换计算,获取作业器械跟踪定位坐标系与成像坐标系之间的坐标变换矩阵T1
P=T1 P’ (1)
(4)利用图形工作站建立虚拟摄像机,对术前患者影像及其三维模型及手术计划路径进行融合生成左右眼视差图像;启动头部姿态跟踪单元,手术医生戴上立体眼睛观察具有景深的虚拟现实立体场景,对手术计划进行评估和调整;头部姿态跟踪单元跟踪立体眼睛上的标志点获得头部姿态参数,传送给图形工作站,图形工作站根据该头部姿态参数对虚拟场景进行坐标变换,使手术医生可从不同姿态便捷地观察具有景深的虚拟立体手术场景。
(5)启动作业器械跟踪定位单元、实时成像单元、头部姿态跟踪单元,手术医生戴上立体眼睛开始手术,将作业器械按照手术计划路径逐步置入患者体内,抵达病变位置后进行病变手术作业。在作业过程中,作业器械跟踪定位单元获取作业器械及成像传感器在定位坐标系中的实时位姿;实时成像单元获取手术路径上的实时影像,实时影像被传送到图形工作站进行处理和分析,获取当前手术路径周边的关键信息,为后继作业提供支持;图形工作站根据上述位姿信息及变换矩阵T1进行计算形成实际作业路径,并对实时影像、作业前作业对象影像及其三维模型、手术计划路径、实际作业路径进行融合,利用虚拟摄像机生成左右眼视差图像;手术医生利用立体眼睛实时观察具有景深的立体增强现实手术场景及实时影像的处理分析结果,对手术过程进行控制和调整,避开重要器官,提高手术精度;头部姿态跟踪单元实时跟踪手术医生的头部姿态,图形工作站根据头部姿态参数对虚拟场景进行调整,使得手术医生可从不同姿态随时观察具有景深的虚拟立体场景,避免对重要组织的损伤,提高手术质量和效率。
实施例2:发动机缺陷检测
(1)根据发动机的机械结构,建立检测坐标系统及其三维模型,确定其表面n个角点在该坐标系下的坐标P=[P1,P2,...,Pn]T,n不小于3,并对缺陷检测路径进行规划;
(2)利用作业器械跟踪定位单元获取上述发动机表面n个角点在定位坐标系统中的坐标P’=[P1’,P2’,...,Pn’]T
(3)根据检测坐标系和作业器械跟踪定位坐标系统中的坐标P和P’,利用上述公式(1)进行坐标变换计算,获取作业器械跟踪定位坐标系与成像坐标系之间的坐标变换矩阵T1
(4)利用图形工作站建立虚拟摄像机,对发动机三维模型及缺陷检测规划路径进行融合生成左右眼视差图像;启动头部姿态跟踪系统,手术医生戴上立体眼睛观察具有景深的虚拟现实立体场景,对缺陷检测路径进行评估和调整;头部姿态跟踪系统跟踪立体眼睛上的标志点获得头部姿态参数并传送给图形工作站,图形工作站根据该头部姿态参数对虚拟场景进行坐标变换,作业者可从不同姿态便捷地观察具有景深的虚拟立体检测场景。
(5)启动作业器械跟踪定位单元、实时成像单元、头部姿态跟踪单元,作业者戴上立体眼睛开始进行缺陷检测,将作业器械按照缺陷检测规划路径逐步置入发动机内。在作业过程中,作业器械跟踪定位单元获取作业器械及成像传感器在定位坐标系中的实时位姿;实时成像系统获取检测路径上的实时影像,实时影像被传送到图形工作站进行处理和分析,提取图像特征,判断当前检测路径周边发动机是否存在可疑缺陷;图形工作站根据上述位姿信息及变换矩阵T1进行计算形成实际作业路径,并对实时影像、作业前作业对象影像及其三维模型、手术计划路径、实际作业路径进行融合,利用虚拟摄像机生成左右眼视差图像;作业者利用立体眼睛观察具有景深的立体增强现实缺陷检测场景及实时影像的处理分析结果,对缺陷检测作业过程进行控制和调整,对可疑缺陷区域,进行仔细检查和分析,及时获取缺陷的位置、种类及定量定性参数;头部姿态跟踪系统实时跟踪作业者的头部姿态,图形工作站根据头部姿态参数对虚拟场景进行调整,使得作业者可从不同姿态随时观察具有景深的虚拟立体场景,可有效提高缺陷检测水平和效率。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下还可以作出若干改进,这些改进也应视为本发明的保护范围。

Claims (10)

1.一种基于实时跟踪和多源信息融合的自适应动态立体增强现实作业导航系统,该系统由头部姿态跟踪单元、实时成像单元、作业器械、作业器械跟踪定位单元、图形工作站和显示器构成。头部姿态跟踪单元由多目摄像机、立体眼镜及头部姿态信号采集与处理模块组成,用于跟踪作业用户的头部姿态;多目摄像机由一对或多对摄像机组成,用来获取头部姿态变化数据;立体眼镜携带标志点,用于立体场景观察及头部姿态跟踪;实时成像单元由成像传感器、图像采集与处理模块组成,用于获取作业对象的实时影像;作业器械携带成像传感器和位姿传感器;作业器械跟踪定位单元,由位姿传感器、数据采集与处理模块组成,用于实时跟踪作业器械并获取其空间坐标;图形工作站将作业对象三维模型、作业前作业对象图像(如有)、实时影像及作业器械的实时姿态进行配准与融合,生成立体增强现实场景,并根据多目摄像机实时跟踪获得的作业用户头部姿态对立体增强现实场景进行自适应动态调整。作业对象三维模型可根据作业对象的几何参数直接建模获得,或者通过对作业前获取的作业对象图像进行分割和三维重建获得。该发明通过作业用户头部姿态实时跟踪、实时成像、实时作业器械位姿跟踪及立体显示生成立体增强现实场景并进行自适应动态调整,使作业用户可从不同视角观察实时作业场景,提高了肉眼对不可见作业场景的认知能力,使得作业器械灵活易控,可确保作业高质量、高效率完成。
2.如权利要求1所述的基于实时跟踪和多源信息融合的自适应动态立体增强现实作业导航系统,其特征是:利用图形工作站建立作业对象的三维模型,可根据作业对象的几何参数建立作业对象的三维模型,或者根据作业前获取的作业对象图像对其进行分割和三维重建形成作业对象的三维模型,并根据作业要求进行作业规划。
3.如权利要求1所述的基于实时跟踪和多源信息融合的自适应动态立体增强现实作业导航系统,其特征是:作业器械携带有成像传感器和位姿传感器。
4.如权利要求1所述的基于实时跟踪和多源信息融合的自适应动态立体增强现实作业导航系统,其特征是:作业器械定位单元由位姿传感器、定位单元数据采集与处理模块组成,它通过位姿传感器采集作业器械及成像传感器的位姿信号,经处理后得到作业器械及成像传感器的位姿信息,并保存于图形工作站。
5.如权利要求1所述的基于实时跟踪和多源信息融合的自适应动态立体增强现实作业导航系统,其特征是:利用作业器械定位单元和图形工作站,通过对成像对象上标志点的标定,建立作业器械定位坐标系及作业前成像坐标系之间的空间变换矩阵T1
6.如权利要求1所述的基于实时跟踪和多源信息融合的自适应动态立体增强现实作业导航系 统,其特征是:实时成像系统由成像传感器、图像采集与处理模块组成,它通过成像传感器采集作业器械当前位姿处的实时影像信号,经处理后生成实时影像并保存于图形工作站。
7.如权利要求1所述的基于实时跟踪和多源信息融合的自适应动态立体增强现实作业导航系统,其特征是:立体眼镜携带3个或3个以上的标志点。
8.如权利要求1所述的基于实时跟踪和多源信息融合的自适应动态立体增强现实作业导航系统,其特征是:多目摄像机由一对或多对摄像机组成,多目摄像机安装于立体显示器上;头部姿态跟踪单元利用多目摄像机和立体眼镜携带的标志点,实现对头部姿态的跟踪。
9.如权利要求1所述的基于实时跟踪和多源信息融合的自适应动态立体增强现实作业导航系统,其特征是:作业前,利用工作站建立虚拟摄像机,对作业前作业对象影像及其三维模型、作业器械三维模型及作业规划路径进行融合生成左右眼视差图像。
10.如权利要求1所述的基于实时跟踪和多源信息融合的自适应动态立体增强现实作业导航系统,其特征是:作业中,作业器械跟踪定位单元获取作业器械及成像传感器在定位坐标系中的实时位姿;实时成像系统获取作业路径上的实时影像,实时影像被传送到图形工作站进行处理和分析,获取当前作业路径周边的关键信息,为后继作业提供数据;图形工作站根据上述位姿信息及变换矩阵T1进行计算形成实际作业路径,将实时影像、作业规划路径、实际作业路径、作业前作业对象影像及其三维模型进行融合,利用虚拟摄像机生成左右眼视差图像,左右眼视差图像显示于显示屏上,作业用户利用立体眼睛观察显示屏,从而在人脑中形成有景深的作业立体场景,并根据作业规划及观察到的实时作业情况对作业进行实时调整和控制。
CN201611093641.1A 2016-11-30 2016-11-30 基于实时跟踪和多源信息融合的自适应动态立体增强现实作业导航系统 Pending CN106648077A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611093641.1A CN106648077A (zh) 2016-11-30 2016-11-30 基于实时跟踪和多源信息融合的自适应动态立体增强现实作业导航系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611093641.1A CN106648077A (zh) 2016-11-30 2016-11-30 基于实时跟踪和多源信息融合的自适应动态立体增强现实作业导航系统

Publications (1)

Publication Number Publication Date
CN106648077A true CN106648077A (zh) 2017-05-10

Family

ID=58814922

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611093641.1A Pending CN106648077A (zh) 2016-11-30 2016-11-30 基于实时跟踪和多源信息融合的自适应动态立体增强现实作业导航系统

Country Status (1)

Country Link
CN (1) CN106648077A (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107970060A (zh) * 2018-01-11 2018-05-01 上海联影医疗科技有限公司 手术机器人系统及其控制方法
CN109758230A (zh) * 2019-02-26 2019-05-17 中国电子科技集团公司信息科学研究院 一种基于增强现实技术的神经外科手术导航方法和系统
CN109833092A (zh) * 2017-11-29 2019-06-04 上海复拓知达医疗科技有限公司 体内导航系统和方法
CN109948192A (zh) * 2019-02-22 2019-06-28 江苏徐工工程机械研究院有限公司 一种吊装作业空间建模方法及系统
CN109961477A (zh) * 2017-12-25 2019-07-02 深圳超多维科技有限公司 一种空间定位方法、装置及设备
CN110047591A (zh) * 2019-04-23 2019-07-23 吉林大学 一种针对外科手术过程中医生姿态评估方法
CN111047713A (zh) * 2019-12-30 2020-04-21 复旦大学 一种基于多目视觉定位的增强现实交互系统
CN113229941A (zh) * 2021-03-08 2021-08-10 上海交通大学 基于增强现实的介入机器人无接触遥操系统及标定方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101797182A (zh) * 2010-05-20 2010-08-11 北京理工大学 一种基于增强现实技术的鼻内镜微创手术导航系统
CN103735312A (zh) * 2013-12-11 2014-04-23 中国科学院深圳先进技术研究院 多模影像超声引导手术导航系统
CN104887314A (zh) * 2015-04-21 2015-09-09 长春理工大学 用于立体内窥镜手术导航的虚拟立体内窥镜显示方法及设备
CN105395252A (zh) * 2015-12-10 2016-03-16 哈尔滨工业大学 具有人机交互的可穿戴式血管介入手术三维立体图像导航装置
CN105704468A (zh) * 2015-08-31 2016-06-22 深圳超多维光电子有限公司 用于虚拟和现实场景的立体显示方法、装置及电子设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101797182A (zh) * 2010-05-20 2010-08-11 北京理工大学 一种基于增强现实技术的鼻内镜微创手术导航系统
CN103735312A (zh) * 2013-12-11 2014-04-23 中国科学院深圳先进技术研究院 多模影像超声引导手术导航系统
CN104887314A (zh) * 2015-04-21 2015-09-09 长春理工大学 用于立体内窥镜手术导航的虚拟立体内窥镜显示方法及设备
CN105704468A (zh) * 2015-08-31 2016-06-22 深圳超多维光电子有限公司 用于虚拟和现实场景的立体显示方法、装置及电子设备
CN105395252A (zh) * 2015-12-10 2016-03-16 哈尔滨工业大学 具有人机交互的可穿戴式血管介入手术三维立体图像导航装置

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109833092A (zh) * 2017-11-29 2019-06-04 上海复拓知达医疗科技有限公司 体内导航系统和方法
CN109961477A (zh) * 2017-12-25 2019-07-02 深圳超多维科技有限公司 一种空间定位方法、装置及设备
CN107970060A (zh) * 2018-01-11 2018-05-01 上海联影医疗科技有限公司 手术机器人系统及其控制方法
CN109948192A (zh) * 2019-02-22 2019-06-28 江苏徐工工程机械研究院有限公司 一种吊装作业空间建模方法及系统
CN109948192B (zh) * 2019-02-22 2023-08-04 江苏徐工工程机械研究院有限公司 一种吊装作业空间建模方法及系统
CN109758230A (zh) * 2019-02-26 2019-05-17 中国电子科技集团公司信息科学研究院 一种基于增强现实技术的神经外科手术导航方法和系统
CN110047591A (zh) * 2019-04-23 2019-07-23 吉林大学 一种针对外科手术过程中医生姿态评估方法
CN111047713A (zh) * 2019-12-30 2020-04-21 复旦大学 一种基于多目视觉定位的增强现实交互系统
CN111047713B (zh) * 2019-12-30 2023-05-30 复旦大学 一种基于多目视觉定位的增强现实交互系统及其操作方法
CN113229941A (zh) * 2021-03-08 2021-08-10 上海交通大学 基于增强现实的介入机器人无接触遥操系统及标定方法
CN113229941B (zh) * 2021-03-08 2023-05-26 上海交通大学 基于增强现实的介入机器人无接触遥操系统及标定方法

Similar Documents

Publication Publication Date Title
CN106648077A (zh) 基于实时跟踪和多源信息融合的自适应动态立体增强现实作业导航系统
CN110033465B (zh) 一种应用于双目内窥镜医学图像的实时三维重建方法
CN109758230B (zh) 一种基于增强现实技术的神经外科手术导航方法和系统
CN107456278B (zh) 一种内窥镜手术导航方法和系统
US9066086B2 (en) Methods for generating stereoscopic views from monoscopic endoscope images and systems using the same
US7774044B2 (en) System and method for augmented reality navigation in a medical intervention procedure
JP6242569B2 (ja) 医用画像表示装置及びx線診断装置
US11961193B2 (en) Method for controlling a display, computer program and mixed reality display device
CN109925057A (zh) 一种基于增强现实的脊柱微创手术导航方法及系统
US20160295194A1 (en) Stereoscopic vision system generatng stereoscopic images with a monoscopic endoscope and an external adapter lens and method using the same to generate stereoscopic images
WO2017179350A1 (ja) 画像表示制御装置および方法並びにプログラム
US20150215614A1 (en) Imaging system and method
CN107854142B (zh) 医用超声增强现实成像系统
CN103948432A (zh) 术中立体内窥视频与超声图像增强现实算法
Hu et al. Head-mounted augmented reality platform for markerless orthopaedic navigation
Wang et al. Autostereoscopic augmented reality visualization for depth perception in endoscopic surgery
US8902305B2 (en) System and method for managing face data
WO2017055352A1 (en) Apparatus and method for augmented visualization employing x-ray and optical data
CN206649468U (zh) 基于实时跟踪和多源信息融合的自适应动态立体增强现实作业导航系统
EP3075342B1 (en) Microscope image processing device and medical microscope system
CN104887314A (zh) 用于立体内窥镜手术导航的虚拟立体内窥镜显示方法及设备
CN111658142A (zh) 一种基于mr的病灶全息导航方法及系统
CN104887316A (zh) 基于主动立体显示技术的虚拟立体内窥镜显示方法
CN115954096B (zh) 一种基于图像数据处理的腔镜vr成像系统
EP3130273B1 (en) Stereoscopic visualization system and method for endoscope using shape-from-shading algorithm

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20170510

WD01 Invention patent application deemed withdrawn after publication