CN112367941A - 用于增强现实引导的外科手术的方法和系统 - Google Patents

用于增强现实引导的外科手术的方法和系统 Download PDF

Info

Publication number
CN112367941A
CN112367941A CN201980045190.XA CN201980045190A CN112367941A CN 112367941 A CN112367941 A CN 112367941A CN 201980045190 A CN201980045190 A CN 201980045190A CN 112367941 A CN112367941 A CN 112367941A
Authority
CN
China
Prior art keywords
implant
patient
handpiece
image
planned
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201980045190.XA
Other languages
English (en)
Other versions
CN112367941B (zh
Inventor
J·乔
J·拉加齐尼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dunsborough Girona Ltd
Original Assignee
Dunsborough Girona Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dunsborough Girona Ltd filed Critical Dunsborough Girona Ltd
Publication of CN112367941A publication Critical patent/CN112367941A/zh
Application granted granted Critical
Publication of CN112367941B publication Critical patent/CN112367941B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/51Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for dentistry
    • A61B6/512Intraoral means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C1/00Dental machines for boring or cutting ; General features of dental machines or apparatus, e.g. hand-piece design
    • A61C1/08Machine parts specially adapted for dentistry
    • A61C1/082Positioning or guiding, e.g. of drills
    • A61C1/084Positioning or guiding, e.g. of drills of implanting tools
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C13/00Dental prostheses; Making same
    • A61C13/0003Making bridge-work, inlays, implants or the like
    • A61C13/0004Computer-assisted sizing or machining of dental prostheses
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C8/00Means to be fixed to the jaw-bone for consolidating natural teeth or for fixing dental prostheses thereon; Dental implants; Implanting tools
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C8/00Means to be fixed to the jaw-bone for consolidating natural teeth or for fixing dental prostheses thereon; Dental implants; Implanting tools
    • A61C8/0089Implanting tools or instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • A61C9/0053Optical means or methods, e.g. scanning the teeth by a laser or light beam
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/30ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/108Computer aided selection or customisation of medical implants or cutting guides
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/51Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for dentistry
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Surgery (AREA)
  • Epidemiology (AREA)
  • Medical Informatics (AREA)
  • Dentistry (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Robotics (AREA)
  • Optics & Photonics (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Primary Health Care (AREA)
  • Pathology (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Architecture (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Gynecology & Obstetrics (AREA)
  • Physical Education & Sports Medicine (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
  • Dental Prosthetics (AREA)

Abstract

一种用于使用增强现实来便利牙种植体设备的放置,并且同时捕获放置结果以用于后续规划过程的方法和系统。通过使用患者的一个或多个术前图像来规划期望的牙种植体位置,并且通过虚拟现实装置将规划的牙种植体位置和所述一个或多个术前图像覆盖在患者上,可以向临床医生提供术前图像与规划的种植体位置之间的位置关系的认识。

Description

用于增强现实引导的外科手术的方法和系统
相关申请的引用
本国际申请要求于2018年7月5日提交的美国临时申请No.62/694,127和于2018年8月23日提交的对应美国专利申请No.16/110,511的权益,这些申请针对所有目的通过引用包含在本文中。
技术领域
本申请总体上涉及用于图像引导的外科手术的方法和系统,更具体地,涉及用于在牙科手术期间使用增强现实来引导放置牙种植体,并同时捕获放置结果以用于后续规划过程的方法和系统。
背景技术
存在用于治疗牙齿缺陷的各种选择,比如通过使用修复物,以及使用物理引导件/套筒和修复物来放置牙种植体以恢复牙齿功能。另一种选择是使用机器人外科手术来放置牙种植体。
临床医生可以使用计算机和数字图像或扫描,比如CBCT或x射线,数字地可视化和操纵牙种植体相对于骨和神经组织可以位于的位置。然而,实现理想的种植体位置可能需要物理引导件或机器人外科手术形式的辅助。物理引导件需要制造和运输时间,而机器人外科手术价格昂贵。
使用物理引导件的牙种植体的放置通常涉及患者和临床医生在锥束计算机断层摄影(CBCT)扫描和种植体放置手术之间等待数日,使得可以设计/制造和/或运输物理引导件。这可能需要单独预约扫描和种植体放置,这可能耗时且价格昂贵。
对于现有的种植体放置技术,最终种植体位置相对于规划的种植体位置的误差可以在200~1000微米之间。精确修复设计所允许的可变性小得多,要求<100微米的精度。由于无法对于可靠的修复设计足够精确地放置种植体,因此在种植体放置之后可以获取印模作为修复设计处理的输入。该印模可以精度足够地提供种植体相对于相邻齿列的位置的数字表示,以设计和制作修复体。然而,该过程可能在手术期间需要额外的扫描设备、需要使用口内扫描标记或传统的印模组件/材料、以及可能需要患者额外拜访临床医生以进行数字或物理印模获取。通过捕获引导的种植体放置的几何细节/结果,对于修复体设计可以不需要额外的印模,从而消除了对口内扫描标记、种植体放置期间或之后的口内扫描、或用于印模获取的额外预约的需要。
美国专利申请No.2017202633公开了一种用于引导医疗介入的成像和显示系统,该系统包括供用户观察的可穿戴式显示器,其中所述显示器呈现包括术前手术导航图像、术中图像和体内显微图像或感测数据的合成或组合图像。诸如显微镜探针或感测探针之类的探针可用于从患者获取体内成像/感测数据,并且可以使用跟踪和配准技术来获取术中和体内图像,以将它们与术前图像和患者对准,从而形成显示用合成图像。
美国专利申请No.20020082498公开了一种用于图像引导的外科手术的方法,包括捕获患者的一部分的3维(3D)体数据,处理所述体数据以便提供该数据的图形表示,捕获包括所述患者的一部分的场景的立体视频视图,以混合方式呈现所述图形表示和立体视频视图,以便提供立体增强图像,以及在视频透视显示器中显示所述立体增强图像。
美国专利申请公开No.20160191887描述了一种实时外科手术导航方法和设备,用于从外科医生的静态或动态视点显示患者的增强视图。可以使用表面图像、从术前或术中图像处理的患者的内部解剖结构的图形表示、以及几何配准两个图像的计算机。响应于几何配准图像,头戴式显示器可以向外科医生呈现患者的增强视图。
发明内容
与前述关联的现有限制以及其他限制可以通过一种方法和系统来克服,所述方法和系统用于在牙科手术期间使用增强现实来引导放置牙种植体,并同时捕获放置结果以用于后续规划过程。
在本文中的一个方面,本发明可提供一种利用增强可视化的方法,所述方法包括:获得患者的一个或多个术前图像;基于所述一个或多个术前图像中的共同特征或参考点,将所述一个或多个术前图像几何配准到一起;提供包括规划的种植体位置的治疗计划;将几何配准的术前图像和/或规划的种植体位置覆盖在患者上,使得它们看起来直接叠加在患者的目标区域上;以及基于所覆盖的几何配准的术前图像与规划的种植体位置之间的位置关系,提供用于创建钻孔和/或插入种植体的导航指令。
在本文中的另一个方面,所述方法还可以包括以下步骤中的一个或多个:(i)还包括确定种植体的最终位置,和基于最终种植体位置设计修复体,(ii)还包括基于(a)手持件、所述手持件的组件和/或种植体的几何数据和/或(b)治疗区域的术后图像来确定种植体的最终位置,(iii)还包括通过(a)跟踪患者的临床环境;(b)跟踪相对于临床环境的手持件位置;(c)跟踪相对于手持件位置的钻头位置;(d)获得相对于临床环境的钻头位置;和(e)获得用于将种植体驱动到最终位置中的种植体驱动器的维度,确定种植体的最终位置,(iv)其中所述术前图像包括X射线扫描数据、口内扫描数据和/或面部扫描数据,(v)其中所述几何配准是手动的或自主的,(vi)其中所述共同特征或参考点包括预定标记、咬合平面和/或牙齿解剖特征,(vii)其中关于规划的种植体位置的信息包括用于种植体的最佳钻孔,(viii)还包括使用跟踪装置更新规划的种植体位置和/或几何配准的术前图像的位置,(ix)其中所述导航指令是视觉/数字、听觉和/或触觉的形式。
在另一个方面,可提供一种系统,所述系统利用增强可视化,所述系统包括:至少一个处理器,所述处理器被配置成:获得患者的一个或多个术前图像;基于所述一个或多个术前图像中的共同特征或参考点,将所述一个或多个术前图像几何配准到一起;提供包括规划的种植体位置的治疗计划;将几何配准的术前图像和/或规划的种植体位置覆盖在患者上,使得它们看起来直接叠加在患者的目标区域上;以及基于所覆盖的几何配准的术前图像与规划的种植体位置之间的位置关系,提供用于创建钻孔和/或插入种植体的导航指令。
在另一个方面,所述系统可包括以下配置中的一个或多个:(i)所述系统还包括配置成接收图像以用于所述覆盖的显示设备,(ii)所述系统还包括配置成提供用于图像及对象在公共坐标系中的精确位置及定向的实时位置数据的跟踪装置,(iii)其中所述跟踪装置是基于传感器和/或基于视觉的系统,(iv)其中所述处理器还被配置成以下的系统:确定种植体的最终位置,和基于最终种植体位置设计修复体,(v)其中所述处理器还被配置成以下的系统:基于(a)手持件、所述手持件的组件和/或种植体的几何数据和/或(b)治疗区域的术后图像来确定种植体的最终位置,(vi)其中所述处理器还被配置成以下的系统:通过(a)跟踪患者的临床环境;(b)跟踪相对于临床环境的手持件位置;(c)跟踪相对于手持件位置的钻头位置;(d)获得相对于临床环境的钻头位置;和(e)获得用于将种植体驱动到最终位置中的种植体驱动器的维度,来确定种植体的最终位置,(vii)其中所述术前图像包括X射线扫描数据、口内扫描数据和/或面部扫描数据的系统,(viii)其中所述几何配准是手动的或自主的系统,(ix)其中所述共同特征或参考点包括预定标记、咬合平面和/或牙齿解剖特征的系统,(x)其中关于规划的种植体位置的信息包括用于种植体的最佳钻孔的系统,(xi)其中所述处理器还被配置成以视觉/数字、听觉和/或触觉的形式提供导航指令的系统。
附图说明
根据下面给出的详细说明和附图,将更充分地理解示例实施例,附图中相同的元件用相同的附图标记表示,附图只是为了举例说明而给出的,从而不是本文中的示例实施例的限制,附图中:
图1是图解说明按照本发明的实施例的系统的示图。
图2图解说明按照本发明的实施例的示例性计算机系统的方框图。
图3是表示按照本发明的实施例的方法的示图。
图4图解说明表示按照本发明的实施例的另一种方法的另一个示图。
不同的附图可能具有至少一些可能相同的附图标记,以便识别相同的组件,不过下文可能不针对每个附图提供每个这种组件的详细说明。
具体实施方式
按照记载在本文中的示例方面,可以提供一种方法和系统,用于使用多个数字和/或物理数据输入,以使用增强现实入口来提供和便利牙种植体设备4的放置,并且同时允许捕获放置的结果以用于诸如修复体设计之类的后续规划过程。通过使用患者的一个或多个术前图像来规划期望的牙种植体位置32,并且通过虚拟现实装置将规划的牙种植体位置/规划的外科手术部位32和所述一个或多个术前图像覆盖在患者上,可以向临床医生提供术前图像与规划的外科手术部位32之间的位置关系的认识,于是可以引导临床医生进行种植体钻孔过程。所述覆盖可以意味着(但不限于)(i)在显示器上提供图像,使得当通过显示器看时,它们看起来好像直接位于患者上,和/或(ii)使用投影仪将图像直接投影到患者的目标部位14a上。此外,通过在手术之后记录或捕获种植体34的最终位置(最终种植体位置34包括与规划的种植体位置32的任何偏差),并且将最终种植体位置34信息与患者的参考扫描组合,可以基于最终种植体位置34设计牙齿修复体,从而消除对通常在修复体设计之前获取的牙印模的需要。
用于增强现实引导的外科手术的系统
图1图解说明了系统1,系统1包括显示设备12,比如头戴式增强现实眼镜、HUD显示器或能够接收立体视频图像的立体显示器,或者其他显示设备12,显示设备12可以用于在患者14坐在治疗椅24上时,将图像(比如CBCT或MRI图像18、口内图像20、面部图像(未图示)或其他图像)覆盖在患者14上或患者14的立体视频上。CBCT或MRI数据可以显示现有的牙齿解剖结构,包括齿列、骨和神经几何形状,口内扫描数据可以显示软组织和形貌表面/齿列几何形状,而面部的3D面部扫描和/或常规照片可以显示嘴/牙齿相对于其他面部特征(比如鼻子或外科手术标记)的位置。
显示设备12可以连接到计算机系统100或构成计算机系统100的一部分。计算机系统100(也在图2中示出)可包括跟踪装置2和处理器122。跟踪装置2可替代地可以形成本文中讨论的任何设备、组件和/或系统的至少一部分。跟踪装置2可以电连接到处理器122,并且可以提供图像和对象在公共坐标系中的精确位置及定向的实时位置数据。在本文中的示例性实施例中,跟踪装置可以是基于传感器的(例如,作为手持件16中的嵌入式传感器26或标记器,比如压力、触摸、接近、超声、红外、旋转和陀螺传感器及加速度计,以跟踪手持件的位置或手持件16中的钻头24的旋转周期,作为陀螺仪和/或加速度计,以跟踪患者14和/或临床医生10的移动,等等)。在另一个实施例中,跟踪装置可以是基于视觉的,例如作为用于(i)患者14或(ii)患者14上的标记(未图示)的视觉跟踪的摄像头。在又一个实施例中,跟踪装置可以是基于传感器和基于视觉的跟踪装置的融合。此外,无线协议可以用于发送已知的标记位置以进行跟踪。
该系统还可以包括用于获得治疗部位的术前CBCT/MRI扫描的X射线扫描仪28(CBCT/MRI扫描仪)、用于获得患者口腔的术前3D图像的口内扫描仪30和/或用于获得面部的3D扫描的3D面部扫描仪36。诸如3D光学跟踪系统和/或立体摄像头系统之类的摄像头系统3可以包括在计算机系统中,并且可以形成跟踪装置2或作为其一部分,或者,摄像头系统3可以嵌入临床医生10的显示设备12中,或者可以是跟踪装置2的一部分。
处理器122可被配置成接收CTCB/MRI数据18、口内图像20和/或面部扫描,并将它们几何配准到一起,以通过例如透视增强现实眼镜/HUD显示器覆盖到患者14上,或者使用例如通过头戴式立体显示器覆盖到患者的立体视频上。包括规划的种植体位置32(规划的种植体位置可选地包括规划/期望的钻孔深度)的治疗计划也可以与CBCT/MRI 18和口内20图像和/或2D/3D面部扫描几何配准,并覆盖到治疗部位14a上。在另一个实施例中,治疗计划/规划的种植体位置32可以可选地在从临床医生接收到请求之后和/或在术前图像已被单独配准到一起之后覆盖在治疗部位14a上。在本文中的实施例中,在下面讨论的种植体钻孔过程之前或期间,临床医生10可以通过计算机系统100的用户接口126(比如手势识别系统和/或语音识别系统等)来调整几何配准的图像。
为了执行某一过程,处理器122可以载入存储在存储设备上的适当指令,然后执行载入的指令。通过显示器在患者14上的CBCT/MRI和/或口内图像的覆盖可以动态且实时地进行,并且可以由与跟踪装置2协同工作的处理器122来实现,其中由跟踪装置2捕获的(i)患者14和(ii)临床医生10的位置的变化可被转换成覆盖的图像的位置的对应变化,使得覆盖的图像看起来直接叠加在患者14的目标区域/部位14a(例如,口腔)上。这里,响应于临床医生10来回移动其头部,以从不同的位置查看覆盖的图像中所显示的患者的内部结构之间的空间关系,处理器可被配置成提供CBCT数据18和口内数据20之间的配准,从而使临床医生10可以直接且精确地访问与种植体钻孔过程相关的患者特定术前图像信息。所述种植体钻孔过程的指令可由处理器122控制,并且可选地显示在显示器12上,可以包括但不限于(i)当手持件16的钻头24偏离覆盖的规划种植体位置32时激活视觉/数字或听觉提示,(ii)当手持件16的钻头24偏离覆盖的规划种植体位置32时停用手持件16,(iii)在显示器中显示钻头24与重要神经22(例如牙槽神经)的距离以及用于种植体放置的最佳骨质量和骨量的区域,所述距离是根据术前图像和来自跟踪装置2的运动数据(例如钻头旋转数据)计算的。种植体钻孔过程的结果可以由跟踪装置2和/或摄像头系统3捕获为术后图像,用于如在下文讨论的方法中所述的进一步设计。
用于增强现实引导的外科手术的计算机系统
在说明了用于使用增强现实入口来便利牙种植体设备4的放置,并且同时捕获结果以用于后续规划过程的系统1之后,现在将参考图2,图2表示按照本文中的至少一些示例实施例可采用的计算机系统100的方框图。尽管这里可以利用本示例性计算机系统100来说明各个实施例,不过在阅读本说明之后,对相关领域的技术人员来说如何使用其他计算机系统和/或体系结构来实现本公开将变得清楚。
在本文中的一个示例实施例中,计算机系统100可包括至少一个计算机处理器122,并且可包括跟踪装置2、用户接口126和输入单元130。输入单元130可以连同显示单元128(比如监视器)一起由计算机系统100的用户用于向计算机处理器122发送信息。在本文中的一个示例性实施例中,输入单元130是在触摸屏界面21上使用的手指或指示笔。输入单元130可替代地可以是手势/语音识别设备、跟踪球、鼠标或其他输入设备,比如键盘或指示笔。在一个例子中,显示单元128、输入单元130和计算机处理器122可共同形成用户接口126。
计算机处理器122可包括例如中央处理器、多处理单元、专用集成电路(“ASIC”)、现场可编程门阵列(“FPGA”)等。处理器122可以连接到通信基础设施124(例如,通信总线或网络)。在本文中的实施例中,处理器122可以接收需要术前图像的配准或者需要种植体钻孔过程的治疗计划的请求,并且可以从建模系统152的存储器和/或从计算机系统100的一个或多个存储单元获得关于该请求的指令。处理器122随后可以载入指令并执行载入的指令,诸如通过临床医生10的显示器12将几何配准的图像覆盖在治疗部位上。在备选实施例中,计算机系统可以使用基于投影的增强现实系统,其中,例如,投影仪和深度传感器,连同跟踪装置2和/或患者14上的标记(例如,隐藏的标记)一起可以将术前图像以及规划的治疗位置直接投影到患者的目标部位14a(例如,口腔)上。这里,可以不需要诸如增强现实眼镜之类的显示器12。
用户接口(或其他输入接口)126可以转发来自通信基础设施124(或来自帧缓冲器(未图示))的视频图形、文本和其他数据,以便在显示单元128(在一个示例实施例中,显示单元128可以形成或包含在临床医生的显示器12中)上显示。例如,用户接口126可包括具有图形处理单元的视频卡。
用于覆盖图像的一个或多个步骤可以以计算机可读程序指令的形式存储在非临时性存储设备上。为了执行某一过程,处理器122将存储在存储设备上的适当指令载入存储器中,然后执行载入的指令。
图2的计算机系统还可包括主存储器132,主存储器132可以是随机存取存储器(“RAM”),并且还可以包括辅助存储器134。辅助存储器134可包括例如硬盘驱动器136和/或可拆卸存储驱动器138(例如,软盘驱动器、磁带驱动器、光盘驱动器、闪存驱动器等)。可拆卸存储驱动器138可以用公知的方式读取和/或写入可拆卸存储单元140。可拆卸存储单元140例如可以是可由可拆卸存储驱动器138写入和读取的软盘、磁带、光盘、闪存设备等。可拆卸存储单元140可包括存储计算机可执行软件指令和/或数据的非临时性计算机可读存储介质。
在另外的备选实施例中,辅助存储器134可包括存储要载入计算机系统100中的计算机可执行程序或其他指令的其他计算机可读介质。这样的设备可包括可拆卸存储单元144和接口142(例如,程序盒和盒式接口);可拆卸存储芯片(例如,可擦可编程只读存储器(“EPROM”)或可编程只读存储器(“PROM”))和关联的存储器插槽;以及允许软件和数据从可拆卸存储单元144传送到计算机系统100的其他部分的其他可拆卸存储单元144和接口142。
计算机系统100还可以包括使软件和数据能够在计算机系统100和外部设备之间传送的通信接口146。这样的接口可包括调制解调器、网络接口(例如以太网卡或IEEE802.11无线LAN接口)、通信端口(例如通用串行总线(“USB”)端口或火线
Figure BDA0002883351720000091
端口)、个人计算机存储卡国际协会(“PCMCIA”)接口、蓝牙
Figure BDA0002883351720000092
,等等。通过通信接口146传送的软件和数据可以是信号的形式,信号可以是电子的、电磁的、光学的或能够被通信接口146发送和/或接收的其他类型的信号。信号可以通过通信路径148(例如,信道)提供给通信接口146。通信路径148运送信号,可以利用电线或电缆、光纤、电话线、蜂窝链路、射频(“RF”)链路等来实现。通信接口146可用于在计算机系统100与远程服务器或基于云的存储装置(未图示)之间传送软件或数据或其他信息。
一个或多个计算机程序或计算机控制逻辑可以存储在主存储器132和/或辅助存储器134中。计算机程序也可以通过通信接口146接收。计算机程序可包括当由计算机处理器122执行时,使计算机系统100进行如下所述的方法的计算机可执行指令。
在另一个实施例中,软件可以存储在非临时性计算机可读存储介质中,并通过使用可拆卸存储驱动器138、硬盘驱动器136和/或通信接口146载入到计算机系统100的主存储器132和/或辅助存储器134中。当由处理器122执行时,控制逻辑(软件)使计算机系统100,更一般地是用于增强现实引导的外科手术的系统,进行本文中所述的一些方法的全部或者部分。
鉴于本说明,对相关领域的技术人员来说,为进行本文中所述功能的其他硬件安排的实现将是清楚的。
用于增强现实引导的外科手术的方法
在描述了图2的计算机系统100后,现在将结合图3-4进一步描述用于增强现实引导的外科手术的方法,图3-4表示使用增强现实来便利牙种植体设备4的放置,并且同时捕获放置结果以用于诸如修复体设计之类的后续规划过程的方法。
所述方法可包括使用多个数字和物理数据输入来提供和便利牙种植体4的放置。
在图3的步骤S100中可以获得第一术前图像。该图像可以是患者14的特定牙齿解剖结构或目标部位14a的x射线扫描18。在该扫描内捕获的可以是关于骨密度、骨质量、骨孔隙度、相关神经22的位置、相邻牙齿的解剖结构、以及为确定牙种植体4的理想位置(规划的种植体位置32)所需的其他标志的数据。该数据可以使用容积扫描方法(比如CBCT、MRI和/或2-D X射线成像)来捕获。
在步骤S200中可以获得第二术前图像。该图像可以是可选的,并且可以包括一组参考表面,比如牙齿和牙龈的口内扫描20,其可以与X射线18几何配准。
在实施例中,在步骤S300中可以获得又一个术前图像(第三输入)。该图像可以是二维或三维面部图像,在处理步骤,步骤S400中,该图像可以与第一输入和第二输入几何配准。必要时可以利用参考点来获取该图像,其中通过跟踪装置2或摄像头系统3对3D对象(例如,眼睛、鼻子、下巴等)或2D图案(例如,来自外科手术皮肤标记的标记)的识别可以用作手术期间的附加导航路径点。几何配准可以通过检测不同医学图像类型中的共同特征(例如CBCT和口内扫描数据中的近似咬合平面、牙弓咬合、齿龈/牙齿解剖特征、面部2D或3D图像中的嘴唇之间的分割等),使用检测到的特征将图像拼接在一起,和/或通过最佳拟合算法(比如迭代最近点算法)迭代地修正配准,来手动或自主地实现。此外,预定的参考标记可以在患者上(比如在皮肤上或在嘴中)用作用于几何配准的辅助校准参考点。所得到的完全配准的医学图像/术前图像的“堆栈”可以用作用于进一步规划和执行种植体放置过程的参考模型。
处理器122可被配置成基于几何配准提供患者特定的种植体放置方案。这里,可以使术前图像相关,并且在步骤S450,可以基于x射线扫描18和/或口内扫描20中包含的信息(例如,牙槽神经的位置、骨密度、邻近牙齿的表面的相对位置等)来确定在规划的种植体位置32的牙种植体4的最佳钻孔。所述确定可能需要的其他信息可包括种植体设计/几何形状、种植体位置(高度、角度、旋转)、以及诸如理想切口部位和钻孔方案之类的外科手术细节。一个或多个信息可以是预先知道的或者被提供给处理器122。此外,处理器122可以利用本文中描述的任何设备,例如摄像头系统3、嵌入式传感器26等来确定所述确定所需的一个或多个信息。在备选实施例中,临床医生10可改变或确定规划的种植体位置32。
在外科手术期间,处理器可被配置成在步骤S500将几何配准的图像显示在显示器12上。从临床医生的角度来看,图像可被覆盖到目标部位14a上。可以使用跟踪装置来更新该覆盖,使得即使在患者移动时,图像看起来也直接叠加在患者的目标部位上。这可以允许临床医生10实时导航,并使用规划的种植体位置32引导牙种植体4。这还可以消除对任何物理引导设备的需要,或者消除配准标志(比如导航外科手术中通常使用的那些配准标志)在外科手术期间的使用。
在示例性实施例中,为了提高钻头的精确度,嵌入式传感器26可以被集成到手持件16中,以将种植体相对于钻头24的定向转换为种植体相对于牙齿环境的定向,以用于工具导航,如在下文中更详细所述。另外,可由摄像头系统3检测的视觉标记和特征可被集成到手持件16中,以测量手持件16相对于患者的齿列的绝对定向。为了在插入之后确认牙种植体的位置,可以在牙种植体4的愈合基台(未图示)的咬合面上包括预定特征。通过使用增强现实摄像头,可以获得与规划的位置32相对的最终种植体的最终位置34,以用于修复体的设计。
如在步骤S600和图4中所示,通过如下操作,可以获得给临床医生10的用于(a)创建钻孔以插入牙种植体4和(b)插入种植体的导航指令:(i)使用例如摄像头系统3(例如,3D光学跟踪系统)和面部特征点(比如鼻子、嘴等)和/或预定标记(比如口腔的软组织上的墨水标记,附着到牙齿上的标记等),在步骤S602中跟踪临床环境(患者的头/脸/嘴等),(ii)如在步骤S604中所示,跟踪手持件26和钻头24,其中在步骤S606中可跟踪手持件16相对于患者14的位置,在步骤S608中可获得钻头24相对于手持件的位置,并与手持件相对于临床环境的位置结合,以获得钻头24相对于临床环境的位置,步骤S610,(iii)提供用于导航钻头24和放置种植体4的指令(步骤S612)。这里,一旦已知钻头24相对于临床环境的位置,就可以以一种或多种形式向用户提供导航建议,所述一种或多种形式包括:(a)其中例如可在显示器12上显示红-黄-绿灯、彩色灯或指示钻孔深度的精度(与规划的种植体位置32处的种植体的深度相比)的其他灯的视觉形式,(b)其中例如激活语言队列或者其他可听声音,以指示将钻头24移动到哪里,何时开始/停止钻孔的听觉形式,(c)其中例如随着工具接近预定钻深,增大或降低振动元件(未图示)的振动强度的触觉形式。在本文中的实施例中,如果钻孔的位置偏离规划的种植体位置32预定量(例如,0.5-2mm),或者如果钻头接近不该被损坏的神经22,那么可以使手持件16停止工作。
在钻孔之后,通过将种植体4附接到种植体驱动器工具,将种植体驱动器附接到手持件,并将种植体4钻孔到位,可以将种植体4插入钻孔中。从步骤S610,处理器可利用种植体驱动器的长度/维度来确定种植体相对于手持件的位置。通过对患者和手持件的持续跟踪,手持件相对于临床环境的位置也是已知的。此外,通过驱动器的种植体-接口几何形状,种植体的内部配合几何形状的旋转定向与种植体驱动器的旋转定向相关。同样地,利用例如手持件16中的旋转电位计,可以监测和记录种植体驱动器的旋转位置。结合所得到的临床数据、手持件/组件几何数据、驱动器几何数据和/或来自摄像头系统3的术后图像,提供了在患者的齿列内定义最终种植体位置34的信息,步骤S700(图3)。与相邻齿列和软组织的初始口内扫描数据20相结合,该位置数据可以用作用于设计牙齿修复体的输入,比如最终或临时的基台、牙冠、愈合基台、牙桥以及可能需要知道种植体的位置以便将其与周围的牙齿解剖结构关联,从而达到修复或美容目的的任何其他设备(步骤S800)。这里,可不再需要否则会需要的物理印模来确定最终种植体位置,从而可以减少在临床医生办公室所花费的时间。
在又一个实施例中,几何配准的图像可不覆盖在患者14上。相反,临床医生10可通过例如常规方式插入种植体4,通过使用跟踪装置2/摄像头系统3,可以获得插入的种植体4的最终位置,其中例如可采用手持件16中的嵌入式传感器26和/或术后图像。在知道种植体的最终位置之后,可以在不需要获取物理印模的情况下,实现诸如修复体的设计之类的规划/设计处理。
鉴于上面所述,可以意识到在本文中描述的示例实施例提供了一种方法和系统,所述方法和系统用于使用增强现实来便利牙种植体设备4的放置,并同时捕获放置结果以用于诸如修复体设计之类的后续规划过程。
除非另有定义,否则本文中使用的所有技术和科学术语具有与本发明所属领域的普通技术人员通常理解的相同含义。尽管在本公开的实践或测试中可以使用与本文中所述的方法和材料类似或等效的方法和材料,不过上面描述了适当的方法和材料。本文中提到的所有出版物,专利申请,专利和其他参考文献在适用法律法规所允许的范围内通过引用整体包含在本文中。本公开可以以其他特定形式具体体现,而不脱离本公开的精神或基本属性,于是可取的是本实施例在所有方面都被认为是说明性的而非限制性的。说明书内使用的任何标题只是为了方便起见,并不具有法律或限制作用。

Claims (24)

1.一种利用增强可视化的方法,所述方法包括:
获得患者的一个或多个术前图像;
基于所述一个或多个术前图像中的共同特征或参考点,将所述一个或多个术前图像几何配准到一起;
提供包括规划的种植体位置的治疗计划;
将几何配准的术前图像和/或规划的种植体位置覆盖在患者上,使得它们看起来直接叠加在患者的目标区域上;以及
基于所覆盖的几何配准的术前图像与规划的种植体位置之间的位置关系,提供用于创建钻孔和/或插入种植体的导航指令。
2.按照权利要求1所述的方法,其中所述覆盖是通过显示器完成的。
3.按照权利要求1所述的方法,还包括:
确定种植体的最终位置,以及
基于最终种植体位置设计修复体。
4.按照权利要求3所述的方法,其中基于(i)手持件、所述手持件的组件和/或种植体的几何数据和/或(ii)治疗区域的术后图像,来确定种植体的最终位置。
5.按照权利要求3所述的方法,其中通过如下操作来确定种植体的最终位置:(i)跟踪患者的临床环境;(ii)跟踪相对于临床环境的手持件位置;(iii)跟踪相对于手持件位置的钻头位置;(iv获得相对于临床环境的钻头位置;以及(v)获得用于将种植体驱动到最终位置中的种植体驱动器的维度。
6.按照权利要求1所述的方法,其中所述术前图像包括X射线扫描数据、口内扫描数据和/或面部扫描数据。
7.按照权利要求1所述的方法,其中所述几何配准是手动的或自主的。
8.按照权利要求1所述的方法,其中所述共同特征或参考点包括预定标记、咬合平面和/或牙齿解剖特征。
9.按照权利要求1所述的方法,其中关于规划的种植体位置的信息包括用于种植体的最佳钻孔。
10.按照权利要求1所述的方法,还包括:使用跟踪装置来更新规划的种植体位置和/或几何配准的术前图像的位置。
11.按照权利要求1所述的方法,其中所述导航指令是视觉、听觉和/或触觉的形式。
12.一种利用增强可视化的系统,所述系统包括:
至少一个处理器,所述处理器被配置成:
获得患者的一个或多个术前图像;
基于所述一个或多个术前图像中的共同特征或参考点,将所述一个或多个术前图像几何配准到一起;
提供包括规划的种植体位置的治疗计划;
将几何配准的术前图像和/或规划的种植体位置覆盖在患者上,使得它们看起来直接叠加在患者的目标区域上;以及
基于所覆盖的几何配准的术前图像与规划的种植体位置之间的位置关系,提供用于创建钻孔和/或插入种植体的导航指令。
13.按照权利要求12所述的系统,还包括:配置成接收图像以用于所述覆盖的显示设备。
14.按照权利要求12所述的系统,还包括:配置成提供用于图像和对象在公共坐标系中的精确位置和定向的实时位置数据的跟踪装置。
15.按照权利要求14所述的系统,其中所述跟踪装置是基于传感器和/或基于视觉的。
16.按照权利要求12所述的系统,其中所述处理器还被配置成:
确定种植体的最终位置,以及
基于最终种植体位置设计修复体。
17.按照权利要求12所述的系统,其中所述处理器还被配置成基于(i)手持件、所述手持件的组件和/或种植体的几何数据和/或(ii)治疗区域的术后图像,来确定种植体的最终位置。
18.按照权利要求17所述的系统,其中所述处理器还被配置成通过以下操作来确定种植体的最终位置:(i)跟踪患者的临床环境;(ii)跟踪相对于临床环境的手持件位置;(iii)跟踪相对于手持件位置的钻头位置;(iv)获得相对于临床环境的钻头位置;以及(v)获得用于将种植体驱动到最终位置中的种植体驱动器的维度。
19.按照权利要求12所述的系统,其中所述术前图像包括X射线扫描数据、口内扫描数据和/或面部扫描数据。
20.按照权利要求12所述的系统,其中所述几何配准是手动的或自主的。
21.按照权利要求12所述的系统,其中所述共同特征或参考点包括预定标记、咬合平面和/或牙齿解剖特征。
22.按照权利要求12所述的系统,其中关于规划的种植体位置的信息包括用于种植体的最佳钻孔。
23.按照权利要求12所述的系统,其中所述处理器还被配置成以视觉、听觉和/或触觉的形式提供导航指令。
24.一种利用增强可视化的方法,所述方法包括:
获得患者的一个或多个术前图像;
基于所述一个或多个术前图像中的共同特征或参考点,将所述一个或多个术前图像几何配准到一起;
提供包括规划的种植体位置的治疗计划;
基于几何配准的术前图像与规划的种植体位置之间的位置关系,创建钻孔和/或插入种植体;以及
基于(i)手持件、所述手持件的组件和/或种植体的几何数据和/或(ii)治疗区域的术后图像,来确定种植体的最终位置。
CN201980045190.XA 2018-07-05 2019-07-02 用于增强现实引导的牙齿种植的方法和系统 Active CN112367941B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862694127P 2018-07-05 2018-07-05
US62/694,127 2018-07-05
US16/110,511 US11357576B2 (en) 2018-07-05 2018-08-23 Method and system for augmented reality guided surgery
US16/110,511 2018-08-23
PCT/US2019/040220 WO2020010034A1 (en) 2018-07-05 2019-07-02 Method and system for augmented reality guided surgery

Publications (2)

Publication Number Publication Date
CN112367941A true CN112367941A (zh) 2021-02-12
CN112367941B CN112367941B (zh) 2023-03-31

Family

ID=67439423

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980045190.XA Active CN112367941B (zh) 2018-07-05 2019-07-02 用于增强现实引导的牙齿种植的方法和系统

Country Status (7)

Country Link
US (1) US11357576B2 (zh)
EP (1) EP3817684B1 (zh)
JP (1) JP7336504B2 (zh)
KR (1) KR20210029196A (zh)
CN (1) CN112367941B (zh)
BR (1) BR112020026114B1 (zh)
WO (1) WO2020010034A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112885436A (zh) * 2021-02-25 2021-06-01 刘春煦 一种基于增强现实三维成像的牙科手术实时辅助系统
CN113855288A (zh) * 2021-11-01 2021-12-31 杭州柳叶刀机器人有限公司 图像生成方法、装置、电子设备及存储介质
WO2023205008A1 (en) * 2022-04-20 2023-10-26 Dentsply Sirona Inc. Camera-based guidance of dental instruments

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2955481B1 (fr) 2010-01-27 2013-06-14 Tornier Sa Dispositif et procede de caracterisation glenoidienne d'une omoplate a protheser ou a resurfacer
JP6138566B2 (ja) * 2013-04-24 2017-05-31 川崎重工業株式会社 部品取付作業支援システムおよび部品取付方法
US11227509B2 (en) 2014-12-29 2022-01-18 Help Me See Inc. Surgical simulator systems and methods
CN105395295B (zh) * 2015-11-24 2017-05-10 张海钟 一种用于口腔和牙齿治疗的机器人系统
EP3810008A2 (en) 2018-06-19 2021-04-28 Tornier, Inc. Mixed reality-aided depth tracking in orthopedic surgical procedures
US10980612B2 (en) * 2018-08-13 2021-04-20 Align Technology, Inc. Face tracking and reproduction with post-treatment smile
US10810416B2 (en) * 2018-12-14 2020-10-20 Palo Alto Reseach Center Incorporated Method and system for facilitating dynamic materialization for real-world interaction with virtual reality
DE102020201070A1 (de) * 2020-01-29 2021-07-29 Siemens Healthcare Gmbh Darstellungsvorrichtung
US20220168044A1 (en) * 2020-12-01 2022-06-02 August de Oliveira Augmented Reality Dental Display System and Method
CN113349927B (zh) * 2021-05-19 2022-11-22 上海交通大学 面部自体脂肪移植手术导航系统及虚拟刻度提示方法
CN114098964A (zh) * 2021-11-19 2022-03-01 四川大学 一种无牙颌导航系统及方法
CN113855291B (zh) * 2021-12-01 2022-02-22 极限人工智能有限公司 种植体辅助规划方法、装置、电子设备及存储介质
CN113925633B (zh) * 2021-12-17 2022-02-25 极限人工智能有限公司 一种车针辅助导航及预警方法、装置、手术机器人
WO2023159104A2 (en) * 2022-02-16 2023-08-24 Monogram Orthopaedics Inc. Implant placement guides and methods
TWI777902B (zh) * 2022-03-11 2022-09-11 柯百俞 植牙之工作角度導引裝置及其方法
EP4342415A3 (en) * 2022-09-20 2024-05-29 Dentium Co., Ltd. Method and system for guiding of dental implantation

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010259497A (ja) * 2009-04-30 2010-11-18 Osaka Univ 網膜投影型ヘッドマウントディスプレイ装置を用いた手術ナビゲーションシステムおよびシミュレーションイメージの重ね合わせ方法
WO2012090211A1 (en) * 2010-12-29 2012-07-05 Santiago Jeevan Kumar Augmented reality computer model facebow system for use in dentistry
US20160324598A1 (en) * 2014-01-21 2016-11-10 Trophy Method for implant surgery using augmented visualization
CN106255473A (zh) * 2014-02-21 2016-12-21 特里斯佩拉牙科公司 增强现实牙科设计方法及系统
CN108135677A (zh) * 2015-08-14 2018-06-08 Nt-贸易两合公司 用于制造解剖学的牙种植体的方法
US20180168780A1 (en) * 2016-12-16 2018-06-21 Align Technology, Inc. Augmented reality enhancements for dental practitioners
CN108210098A (zh) * 2018-01-16 2018-06-29 浙江工业大学 基于增强现实的人机协作机器人种牙方法及人机协作机器人种牙系统

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1356413A2 (en) 2000-10-05 2003-10-29 Siemens Corporate Research, Inc. Intra-operative image-guided neurosurgery with augmented reality visualization
US7813591B2 (en) * 2006-01-20 2010-10-12 3M Innovative Properties Company Visual feedback of 3D scan parameters
CA2727585C (en) 2008-03-21 2018-09-25 Atsushi Takahashi Three-dimensional digital magnifier operation supporting system
US8867800B2 (en) 2009-05-27 2014-10-21 James R. Glidewell Dental Ceramics, Inc. Method of designing and fabricating patient-specific restorations from intra-oral scanning of a digital impression
EP2322114A1 (en) * 2009-11-16 2011-05-18 Nobel Biocare Services AG System and method for planning a first and a second dental restoration
US10849710B2 (en) 2014-02-21 2020-12-01 The University Of Akron Imaging and display system for guiding medical interventions
US10154239B2 (en) 2014-12-30 2018-12-11 Onpoint Medical, Inc. Image-guided surgery with surface reconstruction and augmented reality visualization
WO2017144934A1 (en) * 2016-02-26 2017-08-31 Trophy Guided surgery apparatus and method
JP6063599B1 (ja) * 2016-08-01 2017-01-18 林 俊輔 インプラント手術補助システムおよびインプラント手術補助方法
EP3554376A1 (en) * 2016-12-13 2019-10-23 Ormco Corporation Methods and systems for registering multiple dental imageries

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010259497A (ja) * 2009-04-30 2010-11-18 Osaka Univ 網膜投影型ヘッドマウントディスプレイ装置を用いた手術ナビゲーションシステムおよびシミュレーションイメージの重ね合わせ方法
WO2012090211A1 (en) * 2010-12-29 2012-07-05 Santiago Jeevan Kumar Augmented reality computer model facebow system for use in dentistry
US20160324598A1 (en) * 2014-01-21 2016-11-10 Trophy Method for implant surgery using augmented visualization
CN106255473A (zh) * 2014-02-21 2016-12-21 特里斯佩拉牙科公司 增强现实牙科设计方法及系统
CN108135677A (zh) * 2015-08-14 2018-06-08 Nt-贸易两合公司 用于制造解剖学的牙种植体的方法
US20180168780A1 (en) * 2016-12-16 2018-06-21 Align Technology, Inc. Augmented reality enhancements for dental practitioners
CN108210098A (zh) * 2018-01-16 2018-06-29 浙江工业大学 基于增强现实的人机协作机器人种牙方法及人机协作机器人种牙系统

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112885436A (zh) * 2021-02-25 2021-06-01 刘春煦 一种基于增强现实三维成像的牙科手术实时辅助系统
CN112885436B (zh) * 2021-02-25 2021-11-30 刘春煦 一种基于增强现实三维成像的牙科手术实时辅助系统
CN113855288A (zh) * 2021-11-01 2021-12-31 杭州柳叶刀机器人有限公司 图像生成方法、装置、电子设备及存储介质
WO2023205008A1 (en) * 2022-04-20 2023-10-26 Dentsply Sirona Inc. Camera-based guidance of dental instruments

Also Published As

Publication number Publication date
US11357576B2 (en) 2022-06-14
JP7336504B2 (ja) 2023-08-31
JP2021529618A (ja) 2021-11-04
KR20210029196A (ko) 2021-03-15
EP3817684B1 (en) 2023-06-07
BR112020026114B1 (pt) 2022-12-27
BR112020026114A2 (pt) 2021-03-16
EP3817684A1 (en) 2021-05-12
US20200008877A1 (en) 2020-01-09
CN112367941B (zh) 2023-03-31
WO2020010034A1 (en) 2020-01-09

Similar Documents

Publication Publication Date Title
CN112367941B (zh) 用于增强现实引导的牙齿种植的方法和系统
US20210338107A1 (en) Systems, devices and methods for enhancing operative accuracy using inertial measurement units
JP7154392B2 (ja) 歯科インプラントシステムとナビゲーション方法
US10631935B2 (en) Head registration using a personalized gripper
US9675419B2 (en) System and method for automating medical procedures
US9936166B2 (en) Method for planning a dental treatment
EP3903724B1 (en) Calibration method and device for dental implantology navigation surgeries
US20140221819A1 (en) Apparatus, system and method for surgical navigation
EP3689218B1 (en) Method and system for guiding an intra-oral scan
US20170231718A1 (en) System and Method for Guiding Medical Instruments
US7367801B2 (en) Method for precisely-positioned production of a cavity, especially a bone cavity and instrument therefor
KR101678910B1 (ko) 드릴링 가이드 장치
EP3689287B1 (en) System for proposing and visualizing dental treatments
KR101086865B1 (ko) 표준화된 가이드 스탠트와 이를 이용한 임플란트 시스템 및 그 제어방법
KR102434755B1 (ko) 구강 스텐트와 일체로 형성된 마커
EP4091567A1 (en) Technique of providing user guidance for obtaining a registration between patient image data and a surgical tracking system
KR102486198B1 (ko) 실시간 영상유도를 이용한 임플란트 식립 가이드시스템

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant