CN112367941A - 用于增强现实引导的外科手术的方法和系统 - Google Patents
用于增强现实引导的外科手术的方法和系统 Download PDFInfo
- Publication number
- CN112367941A CN112367941A CN201980045190.XA CN201980045190A CN112367941A CN 112367941 A CN112367941 A CN 112367941A CN 201980045190 A CN201980045190 A CN 201980045190A CN 112367941 A CN112367941 A CN 112367941A
- Authority
- CN
- China
- Prior art keywords
- implant
- patient
- handpiece
- image
- planned
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 62
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 21
- 238000001356 surgical procedure Methods 0.000 title description 12
- 239000007943 implant Substances 0.000 claims abstract description 120
- 230000001815 facial effect Effects 0.000 claims description 12
- 230000002980 postoperative effect Effects 0.000 claims description 8
- 230000000007 visual effect Effects 0.000 claims description 7
- 238000012800 visualization Methods 0.000 claims description 5
- 238000003780 insertion Methods 0.000 claims description 2
- 230000037431 insertion Effects 0.000 claims description 2
- 239000004053 dental implant Substances 0.000 abstract description 22
- 230000008569 process Effects 0.000 abstract description 12
- 238000004891 communication Methods 0.000 description 13
- 238000007408 cone-beam computed tomography Methods 0.000 description 12
- 238000013461 design Methods 0.000 description 12
- 238000005553 drilling Methods 0.000 description 12
- 238000002595 magnetic resonance imaging Methods 0.000 description 8
- 210000000214 mouth Anatomy 0.000 description 8
- 210000000988 bone and bone Anatomy 0.000 description 6
- 210000004513 dentition Anatomy 0.000 description 6
- 210000005036 nerve Anatomy 0.000 description 6
- 230000036346 tooth eruption Effects 0.000 description 6
- 210000003484 anatomy Anatomy 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000004590 computer program Methods 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 239000003550 marker Substances 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 230000008439 repair process Effects 0.000 description 3
- 238000002432 robotic surgery Methods 0.000 description 3
- 239000000523 sample Substances 0.000 description 3
- 210000004872 soft tissue Anatomy 0.000 description 3
- 230000037182 bone density Effects 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 230000000875 corresponding effect Effects 0.000 description 2
- 238000012938 design process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000035876 healing Effects 0.000 description 2
- 238000002675 image-guided surgery Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 239000002537 cosmetic Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000001727 in vivo Methods 0.000 description 1
- 238000011503 in vivo imaging Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000001000 micrograph Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000002601 radiography Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/50—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
- A61B6/51—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for dentistry
- A61B6/512—Intraoral means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C1/00—Dental machines for boring or cutting ; General features of dental machines or apparatus, e.g. hand-piece design
- A61C1/08—Machine parts specially adapted for dentistry
- A61C1/082—Positioning or guiding, e.g. of drills
- A61C1/084—Positioning or guiding, e.g. of drills of implanting tools
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C13/00—Dental prostheses; Making same
- A61C13/0003—Making bridge-work, inlays, implants or the like
- A61C13/0004—Computer-assisted sizing or machining of dental prostheses
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C8/00—Means to be fixed to the jaw-bone for consolidating natural teeth or for fixing dental prostheses thereon; Dental implants; Implanting tools
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C8/00—Means to be fixed to the jaw-bone for consolidating natural teeth or for fixing dental prostheses thereon; Dental implants; Implanting tools
- A61C8/0089—Implanting tools or instruments
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C9/00—Impression cups, i.e. impression trays; Impression methods
- A61C9/004—Means or methods for taking digitized impressions
- A61C9/0046—Data acquisition means or methods
- A61C9/0053—Optical means or methods, e.g. scanning the teeth by a laser or light beam
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/30—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/107—Visualisation of planned trajectories or target regions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/108—Computer aided selection or customisation of medical implants or cutting guides
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/365—Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/50—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
- A61B6/51—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for dentistry
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0132—Head-up displays characterised by optical features comprising binocular systems
- G02B2027/0134—Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30036—Dental; Teeth
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Surgery (AREA)
- Epidemiology (AREA)
- Medical Informatics (AREA)
- Dentistry (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Robotics (AREA)
- Optics & Photonics (AREA)
- Radiology & Medical Imaging (AREA)
- General Physics & Mathematics (AREA)
- Primary Health Care (AREA)
- Pathology (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Architecture (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Gynecology & Obstetrics (AREA)
- Physical Education & Sports Medicine (AREA)
- High Energy & Nuclear Physics (AREA)
- Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
- Dental Prosthetics (AREA)
Abstract
一种用于使用增强现实来便利牙种植体设备的放置,并且同时捕获放置结果以用于后续规划过程的方法和系统。通过使用患者的一个或多个术前图像来规划期望的牙种植体位置,并且通过虚拟现实装置将规划的牙种植体位置和所述一个或多个术前图像覆盖在患者上,可以向临床医生提供术前图像与规划的种植体位置之间的位置关系的认识。
Description
相关申请的引用
本国际申请要求于2018年7月5日提交的美国临时申请No.62/694,127和于2018年8月23日提交的对应美国专利申请No.16/110,511的权益,这些申请针对所有目的通过引用包含在本文中。
技术领域
本申请总体上涉及用于图像引导的外科手术的方法和系统,更具体地,涉及用于在牙科手术期间使用增强现实来引导放置牙种植体,并同时捕获放置结果以用于后续规划过程的方法和系统。
背景技术
存在用于治疗牙齿缺陷的各种选择,比如通过使用修复物,以及使用物理引导件/套筒和修复物来放置牙种植体以恢复牙齿功能。另一种选择是使用机器人外科手术来放置牙种植体。
临床医生可以使用计算机和数字图像或扫描,比如CBCT或x射线,数字地可视化和操纵牙种植体相对于骨和神经组织可以位于的位置。然而,实现理想的种植体位置可能需要物理引导件或机器人外科手术形式的辅助。物理引导件需要制造和运输时间,而机器人外科手术价格昂贵。
使用物理引导件的牙种植体的放置通常涉及患者和临床医生在锥束计算机断层摄影(CBCT)扫描和种植体放置手术之间等待数日,使得可以设计/制造和/或运输物理引导件。这可能需要单独预约扫描和种植体放置,这可能耗时且价格昂贵。
对于现有的种植体放置技术,最终种植体位置相对于规划的种植体位置的误差可以在200~1000微米之间。精确修复设计所允许的可变性小得多,要求<100微米的精度。由于无法对于可靠的修复设计足够精确地放置种植体,因此在种植体放置之后可以获取印模作为修复设计处理的输入。该印模可以精度足够地提供种植体相对于相邻齿列的位置的数字表示,以设计和制作修复体。然而,该过程可能在手术期间需要额外的扫描设备、需要使用口内扫描标记或传统的印模组件/材料、以及可能需要患者额外拜访临床医生以进行数字或物理印模获取。通过捕获引导的种植体放置的几何细节/结果,对于修复体设计可以不需要额外的印模,从而消除了对口内扫描标记、种植体放置期间或之后的口内扫描、或用于印模获取的额外预约的需要。
美国专利申请No.2017202633公开了一种用于引导医疗介入的成像和显示系统,该系统包括供用户观察的可穿戴式显示器,其中所述显示器呈现包括术前手术导航图像、术中图像和体内显微图像或感测数据的合成或组合图像。诸如显微镜探针或感测探针之类的探针可用于从患者获取体内成像/感测数据,并且可以使用跟踪和配准技术来获取术中和体内图像,以将它们与术前图像和患者对准,从而形成显示用合成图像。
美国专利申请No.20020082498公开了一种用于图像引导的外科手术的方法,包括捕获患者的一部分的3维(3D)体数据,处理所述体数据以便提供该数据的图形表示,捕获包括所述患者的一部分的场景的立体视频视图,以混合方式呈现所述图形表示和立体视频视图,以便提供立体增强图像,以及在视频透视显示器中显示所述立体增强图像。
美国专利申请公开No.20160191887描述了一种实时外科手术导航方法和设备,用于从外科医生的静态或动态视点显示患者的增强视图。可以使用表面图像、从术前或术中图像处理的患者的内部解剖结构的图形表示、以及几何配准两个图像的计算机。响应于几何配准图像,头戴式显示器可以向外科医生呈现患者的增强视图。
发明内容
与前述关联的现有限制以及其他限制可以通过一种方法和系统来克服,所述方法和系统用于在牙科手术期间使用增强现实来引导放置牙种植体,并同时捕获放置结果以用于后续规划过程。
在本文中的一个方面,本发明可提供一种利用增强可视化的方法,所述方法包括:获得患者的一个或多个术前图像;基于所述一个或多个术前图像中的共同特征或参考点,将所述一个或多个术前图像几何配准到一起;提供包括规划的种植体位置的治疗计划;将几何配准的术前图像和/或规划的种植体位置覆盖在患者上,使得它们看起来直接叠加在患者的目标区域上;以及基于所覆盖的几何配准的术前图像与规划的种植体位置之间的位置关系,提供用于创建钻孔和/或插入种植体的导航指令。
在本文中的另一个方面,所述方法还可以包括以下步骤中的一个或多个:(i)还包括确定种植体的最终位置,和基于最终种植体位置设计修复体,(ii)还包括基于(a)手持件、所述手持件的组件和/或种植体的几何数据和/或(b)治疗区域的术后图像来确定种植体的最终位置,(iii)还包括通过(a)跟踪患者的临床环境;(b)跟踪相对于临床环境的手持件位置;(c)跟踪相对于手持件位置的钻头位置;(d)获得相对于临床环境的钻头位置;和(e)获得用于将种植体驱动到最终位置中的种植体驱动器的维度,确定种植体的最终位置,(iv)其中所述术前图像包括X射线扫描数据、口内扫描数据和/或面部扫描数据,(v)其中所述几何配准是手动的或自主的,(vi)其中所述共同特征或参考点包括预定标记、咬合平面和/或牙齿解剖特征,(vii)其中关于规划的种植体位置的信息包括用于种植体的最佳钻孔,(viii)还包括使用跟踪装置更新规划的种植体位置和/或几何配准的术前图像的位置,(ix)其中所述导航指令是视觉/数字、听觉和/或触觉的形式。
在另一个方面,可提供一种系统,所述系统利用增强可视化,所述系统包括:至少一个处理器,所述处理器被配置成:获得患者的一个或多个术前图像;基于所述一个或多个术前图像中的共同特征或参考点,将所述一个或多个术前图像几何配准到一起;提供包括规划的种植体位置的治疗计划;将几何配准的术前图像和/或规划的种植体位置覆盖在患者上,使得它们看起来直接叠加在患者的目标区域上;以及基于所覆盖的几何配准的术前图像与规划的种植体位置之间的位置关系,提供用于创建钻孔和/或插入种植体的导航指令。
在另一个方面,所述系统可包括以下配置中的一个或多个:(i)所述系统还包括配置成接收图像以用于所述覆盖的显示设备,(ii)所述系统还包括配置成提供用于图像及对象在公共坐标系中的精确位置及定向的实时位置数据的跟踪装置,(iii)其中所述跟踪装置是基于传感器和/或基于视觉的系统,(iv)其中所述处理器还被配置成以下的系统:确定种植体的最终位置,和基于最终种植体位置设计修复体,(v)其中所述处理器还被配置成以下的系统:基于(a)手持件、所述手持件的组件和/或种植体的几何数据和/或(b)治疗区域的术后图像来确定种植体的最终位置,(vi)其中所述处理器还被配置成以下的系统:通过(a)跟踪患者的临床环境;(b)跟踪相对于临床环境的手持件位置;(c)跟踪相对于手持件位置的钻头位置;(d)获得相对于临床环境的钻头位置;和(e)获得用于将种植体驱动到最终位置中的种植体驱动器的维度,来确定种植体的最终位置,(vii)其中所述术前图像包括X射线扫描数据、口内扫描数据和/或面部扫描数据的系统,(viii)其中所述几何配准是手动的或自主的系统,(ix)其中所述共同特征或参考点包括预定标记、咬合平面和/或牙齿解剖特征的系统,(x)其中关于规划的种植体位置的信息包括用于种植体的最佳钻孔的系统,(xi)其中所述处理器还被配置成以视觉/数字、听觉和/或触觉的形式提供导航指令的系统。
附图说明
根据下面给出的详细说明和附图,将更充分地理解示例实施例,附图中相同的元件用相同的附图标记表示,附图只是为了举例说明而给出的,从而不是本文中的示例实施例的限制,附图中:
图1是图解说明按照本发明的实施例的系统的示图。
图2图解说明按照本发明的实施例的示例性计算机系统的方框图。
图3是表示按照本发明的实施例的方法的示图。
图4图解说明表示按照本发明的实施例的另一种方法的另一个示图。
不同的附图可能具有至少一些可能相同的附图标记,以便识别相同的组件,不过下文可能不针对每个附图提供每个这种组件的详细说明。
具体实施方式
按照记载在本文中的示例方面,可以提供一种方法和系统,用于使用多个数字和/或物理数据输入,以使用增强现实入口来提供和便利牙种植体设备4的放置,并且同时允许捕获放置的结果以用于诸如修复体设计之类的后续规划过程。通过使用患者的一个或多个术前图像来规划期望的牙种植体位置32,并且通过虚拟现实装置将规划的牙种植体位置/规划的外科手术部位32和所述一个或多个术前图像覆盖在患者上,可以向临床医生提供术前图像与规划的外科手术部位32之间的位置关系的认识,于是可以引导临床医生进行种植体钻孔过程。所述覆盖可以意味着(但不限于)(i)在显示器上提供图像,使得当通过显示器看时,它们看起来好像直接位于患者上,和/或(ii)使用投影仪将图像直接投影到患者的目标部位14a上。此外,通过在手术之后记录或捕获种植体34的最终位置(最终种植体位置34包括与规划的种植体位置32的任何偏差),并且将最终种植体位置34信息与患者的参考扫描组合,可以基于最终种植体位置34设计牙齿修复体,从而消除对通常在修复体设计之前获取的牙印模的需要。
用于增强现实引导的外科手术的系统
图1图解说明了系统1,系统1包括显示设备12,比如头戴式增强现实眼镜、HUD显示器或能够接收立体视频图像的立体显示器,或者其他显示设备12,显示设备12可以用于在患者14坐在治疗椅24上时,将图像(比如CBCT或MRI图像18、口内图像20、面部图像(未图示)或其他图像)覆盖在患者14上或患者14的立体视频上。CBCT或MRI数据可以显示现有的牙齿解剖结构,包括齿列、骨和神经几何形状,口内扫描数据可以显示软组织和形貌表面/齿列几何形状,而面部的3D面部扫描和/或常规照片可以显示嘴/牙齿相对于其他面部特征(比如鼻子或外科手术标记)的位置。
显示设备12可以连接到计算机系统100或构成计算机系统100的一部分。计算机系统100(也在图2中示出)可包括跟踪装置2和处理器122。跟踪装置2可替代地可以形成本文中讨论的任何设备、组件和/或系统的至少一部分。跟踪装置2可以电连接到处理器122,并且可以提供图像和对象在公共坐标系中的精确位置及定向的实时位置数据。在本文中的示例性实施例中,跟踪装置可以是基于传感器的(例如,作为手持件16中的嵌入式传感器26或标记器,比如压力、触摸、接近、超声、红外、旋转和陀螺传感器及加速度计,以跟踪手持件的位置或手持件16中的钻头24的旋转周期,作为陀螺仪和/或加速度计,以跟踪患者14和/或临床医生10的移动,等等)。在另一个实施例中,跟踪装置可以是基于视觉的,例如作为用于(i)患者14或(ii)患者14上的标记(未图示)的视觉跟踪的摄像头。在又一个实施例中,跟踪装置可以是基于传感器和基于视觉的跟踪装置的融合。此外,无线协议可以用于发送已知的标记位置以进行跟踪。
该系统还可以包括用于获得治疗部位的术前CBCT/MRI扫描的X射线扫描仪28(CBCT/MRI扫描仪)、用于获得患者口腔的术前3D图像的口内扫描仪30和/或用于获得面部的3D扫描的3D面部扫描仪36。诸如3D光学跟踪系统和/或立体摄像头系统之类的摄像头系统3可以包括在计算机系统中,并且可以形成跟踪装置2或作为其一部分,或者,摄像头系统3可以嵌入临床医生10的显示设备12中,或者可以是跟踪装置2的一部分。
处理器122可被配置成接收CTCB/MRI数据18、口内图像20和/或面部扫描,并将它们几何配准到一起,以通过例如透视增强现实眼镜/HUD显示器覆盖到患者14上,或者使用例如通过头戴式立体显示器覆盖到患者的立体视频上。包括规划的种植体位置32(规划的种植体位置可选地包括规划/期望的钻孔深度)的治疗计划也可以与CBCT/MRI 18和口内20图像和/或2D/3D面部扫描几何配准,并覆盖到治疗部位14a上。在另一个实施例中,治疗计划/规划的种植体位置32可以可选地在从临床医生接收到请求之后和/或在术前图像已被单独配准到一起之后覆盖在治疗部位14a上。在本文中的实施例中,在下面讨论的种植体钻孔过程之前或期间,临床医生10可以通过计算机系统100的用户接口126(比如手势识别系统和/或语音识别系统等)来调整几何配准的图像。
为了执行某一过程,处理器122可以载入存储在存储设备上的适当指令,然后执行载入的指令。通过显示器在患者14上的CBCT/MRI和/或口内图像的覆盖可以动态且实时地进行,并且可以由与跟踪装置2协同工作的处理器122来实现,其中由跟踪装置2捕获的(i)患者14和(ii)临床医生10的位置的变化可被转换成覆盖的图像的位置的对应变化,使得覆盖的图像看起来直接叠加在患者14的目标区域/部位14a(例如,口腔)上。这里,响应于临床医生10来回移动其头部,以从不同的位置查看覆盖的图像中所显示的患者的内部结构之间的空间关系,处理器可被配置成提供CBCT数据18和口内数据20之间的配准,从而使临床医生10可以直接且精确地访问与种植体钻孔过程相关的患者特定术前图像信息。所述种植体钻孔过程的指令可由处理器122控制,并且可选地显示在显示器12上,可以包括但不限于(i)当手持件16的钻头24偏离覆盖的规划种植体位置32时激活视觉/数字或听觉提示,(ii)当手持件16的钻头24偏离覆盖的规划种植体位置32时停用手持件16,(iii)在显示器中显示钻头24与重要神经22(例如牙槽神经)的距离以及用于种植体放置的最佳骨质量和骨量的区域,所述距离是根据术前图像和来自跟踪装置2的运动数据(例如钻头旋转数据)计算的。种植体钻孔过程的结果可以由跟踪装置2和/或摄像头系统3捕获为术后图像,用于如在下文讨论的方法中所述的进一步设计。
用于增强现实引导的外科手术的计算机系统
在说明了用于使用增强现实入口来便利牙种植体设备4的放置,并且同时捕获结果以用于后续规划过程的系统1之后,现在将参考图2,图2表示按照本文中的至少一些示例实施例可采用的计算机系统100的方框图。尽管这里可以利用本示例性计算机系统100来说明各个实施例,不过在阅读本说明之后,对相关领域的技术人员来说如何使用其他计算机系统和/或体系结构来实现本公开将变得清楚。
在本文中的一个示例实施例中,计算机系统100可包括至少一个计算机处理器122,并且可包括跟踪装置2、用户接口126和输入单元130。输入单元130可以连同显示单元128(比如监视器)一起由计算机系统100的用户用于向计算机处理器122发送信息。在本文中的一个示例性实施例中,输入单元130是在触摸屏界面21上使用的手指或指示笔。输入单元130可替代地可以是手势/语音识别设备、跟踪球、鼠标或其他输入设备,比如键盘或指示笔。在一个例子中,显示单元128、输入单元130和计算机处理器122可共同形成用户接口126。
计算机处理器122可包括例如中央处理器、多处理单元、专用集成电路(“ASIC”)、现场可编程门阵列(“FPGA”)等。处理器122可以连接到通信基础设施124(例如,通信总线或网络)。在本文中的实施例中,处理器122可以接收需要术前图像的配准或者需要种植体钻孔过程的治疗计划的请求,并且可以从建模系统152的存储器和/或从计算机系统100的一个或多个存储单元获得关于该请求的指令。处理器122随后可以载入指令并执行载入的指令,诸如通过临床医生10的显示器12将几何配准的图像覆盖在治疗部位上。在备选实施例中,计算机系统可以使用基于投影的增强现实系统,其中,例如,投影仪和深度传感器,连同跟踪装置2和/或患者14上的标记(例如,隐藏的标记)一起可以将术前图像以及规划的治疗位置直接投影到患者的目标部位14a(例如,口腔)上。这里,可以不需要诸如增强现实眼镜之类的显示器12。
用户接口(或其他输入接口)126可以转发来自通信基础设施124(或来自帧缓冲器(未图示))的视频图形、文本和其他数据,以便在显示单元128(在一个示例实施例中,显示单元128可以形成或包含在临床医生的显示器12中)上显示。例如,用户接口126可包括具有图形处理单元的视频卡。
用于覆盖图像的一个或多个步骤可以以计算机可读程序指令的形式存储在非临时性存储设备上。为了执行某一过程,处理器122将存储在存储设备上的适当指令载入存储器中,然后执行载入的指令。
图2的计算机系统还可包括主存储器132,主存储器132可以是随机存取存储器(“RAM”),并且还可以包括辅助存储器134。辅助存储器134可包括例如硬盘驱动器136和/或可拆卸存储驱动器138(例如,软盘驱动器、磁带驱动器、光盘驱动器、闪存驱动器等)。可拆卸存储驱动器138可以用公知的方式读取和/或写入可拆卸存储单元140。可拆卸存储单元140例如可以是可由可拆卸存储驱动器138写入和读取的软盘、磁带、光盘、闪存设备等。可拆卸存储单元140可包括存储计算机可执行软件指令和/或数据的非临时性计算机可读存储介质。
在另外的备选实施例中,辅助存储器134可包括存储要载入计算机系统100中的计算机可执行程序或其他指令的其他计算机可读介质。这样的设备可包括可拆卸存储单元144和接口142(例如,程序盒和盒式接口);可拆卸存储芯片(例如,可擦可编程只读存储器(“EPROM”)或可编程只读存储器(“PROM”))和关联的存储器插槽;以及允许软件和数据从可拆卸存储单元144传送到计算机系统100的其他部分的其他可拆卸存储单元144和接口142。
计算机系统100还可以包括使软件和数据能够在计算机系统100和外部设备之间传送的通信接口146。这样的接口可包括调制解调器、网络接口(例如以太网卡或IEEE802.11无线LAN接口)、通信端口(例如通用串行总线(“USB”)端口或火线端口)、个人计算机存储卡国际协会(“PCMCIA”)接口、蓝牙,等等。通过通信接口146传送的软件和数据可以是信号的形式,信号可以是电子的、电磁的、光学的或能够被通信接口146发送和/或接收的其他类型的信号。信号可以通过通信路径148(例如,信道)提供给通信接口146。通信路径148运送信号,可以利用电线或电缆、光纤、电话线、蜂窝链路、射频(“RF”)链路等来实现。通信接口146可用于在计算机系统100与远程服务器或基于云的存储装置(未图示)之间传送软件或数据或其他信息。
一个或多个计算机程序或计算机控制逻辑可以存储在主存储器132和/或辅助存储器134中。计算机程序也可以通过通信接口146接收。计算机程序可包括当由计算机处理器122执行时,使计算机系统100进行如下所述的方法的计算机可执行指令。
在另一个实施例中,软件可以存储在非临时性计算机可读存储介质中,并通过使用可拆卸存储驱动器138、硬盘驱动器136和/或通信接口146载入到计算机系统100的主存储器132和/或辅助存储器134中。当由处理器122执行时,控制逻辑(软件)使计算机系统100,更一般地是用于增强现实引导的外科手术的系统,进行本文中所述的一些方法的全部或者部分。
鉴于本说明,对相关领域的技术人员来说,为进行本文中所述功能的其他硬件安排的实现将是清楚的。
用于增强现实引导的外科手术的方法
在描述了图2的计算机系统100后,现在将结合图3-4进一步描述用于增强现实引导的外科手术的方法,图3-4表示使用增强现实来便利牙种植体设备4的放置,并且同时捕获放置结果以用于诸如修复体设计之类的后续规划过程的方法。
所述方法可包括使用多个数字和物理数据输入来提供和便利牙种植体4的放置。
在图3的步骤S100中可以获得第一术前图像。该图像可以是患者14的特定牙齿解剖结构或目标部位14a的x射线扫描18。在该扫描内捕获的可以是关于骨密度、骨质量、骨孔隙度、相关神经22的位置、相邻牙齿的解剖结构、以及为确定牙种植体4的理想位置(规划的种植体位置32)所需的其他标志的数据。该数据可以使用容积扫描方法(比如CBCT、MRI和/或2-D X射线成像)来捕获。
在步骤S200中可以获得第二术前图像。该图像可以是可选的,并且可以包括一组参考表面,比如牙齿和牙龈的口内扫描20,其可以与X射线18几何配准。
在实施例中,在步骤S300中可以获得又一个术前图像(第三输入)。该图像可以是二维或三维面部图像,在处理步骤,步骤S400中,该图像可以与第一输入和第二输入几何配准。必要时可以利用参考点来获取该图像,其中通过跟踪装置2或摄像头系统3对3D对象(例如,眼睛、鼻子、下巴等)或2D图案(例如,来自外科手术皮肤标记的标记)的识别可以用作手术期间的附加导航路径点。几何配准可以通过检测不同医学图像类型中的共同特征(例如CBCT和口内扫描数据中的近似咬合平面、牙弓咬合、齿龈/牙齿解剖特征、面部2D或3D图像中的嘴唇之间的分割等),使用检测到的特征将图像拼接在一起,和/或通过最佳拟合算法(比如迭代最近点算法)迭代地修正配准,来手动或自主地实现。此外,预定的参考标记可以在患者上(比如在皮肤上或在嘴中)用作用于几何配准的辅助校准参考点。所得到的完全配准的医学图像/术前图像的“堆栈”可以用作用于进一步规划和执行种植体放置过程的参考模型。
处理器122可被配置成基于几何配准提供患者特定的种植体放置方案。这里,可以使术前图像相关,并且在步骤S450,可以基于x射线扫描18和/或口内扫描20中包含的信息(例如,牙槽神经的位置、骨密度、邻近牙齿的表面的相对位置等)来确定在规划的种植体位置32的牙种植体4的最佳钻孔。所述确定可能需要的其他信息可包括种植体设计/几何形状、种植体位置(高度、角度、旋转)、以及诸如理想切口部位和钻孔方案之类的外科手术细节。一个或多个信息可以是预先知道的或者被提供给处理器122。此外,处理器122可以利用本文中描述的任何设备,例如摄像头系统3、嵌入式传感器26等来确定所述确定所需的一个或多个信息。在备选实施例中,临床医生10可改变或确定规划的种植体位置32。
在外科手术期间,处理器可被配置成在步骤S500将几何配准的图像显示在显示器12上。从临床医生的角度来看,图像可被覆盖到目标部位14a上。可以使用跟踪装置来更新该覆盖,使得即使在患者移动时,图像看起来也直接叠加在患者的目标部位上。这可以允许临床医生10实时导航,并使用规划的种植体位置32引导牙种植体4。这还可以消除对任何物理引导设备的需要,或者消除配准标志(比如导航外科手术中通常使用的那些配准标志)在外科手术期间的使用。
在示例性实施例中,为了提高钻头的精确度,嵌入式传感器26可以被集成到手持件16中,以将种植体相对于钻头24的定向转换为种植体相对于牙齿环境的定向,以用于工具导航,如在下文中更详细所述。另外,可由摄像头系统3检测的视觉标记和特征可被集成到手持件16中,以测量手持件16相对于患者的齿列的绝对定向。为了在插入之后确认牙种植体的位置,可以在牙种植体4的愈合基台(未图示)的咬合面上包括预定特征。通过使用增强现实摄像头,可以获得与规划的位置32相对的最终种植体的最终位置34,以用于修复体的设计。
如在步骤S600和图4中所示,通过如下操作,可以获得给临床医生10的用于(a)创建钻孔以插入牙种植体4和(b)插入种植体的导航指令:(i)使用例如摄像头系统3(例如,3D光学跟踪系统)和面部特征点(比如鼻子、嘴等)和/或预定标记(比如口腔的软组织上的墨水标记,附着到牙齿上的标记等),在步骤S602中跟踪临床环境(患者的头/脸/嘴等),(ii)如在步骤S604中所示,跟踪手持件26和钻头24,其中在步骤S606中可跟踪手持件16相对于患者14的位置,在步骤S608中可获得钻头24相对于手持件的位置,并与手持件相对于临床环境的位置结合,以获得钻头24相对于临床环境的位置,步骤S610,(iii)提供用于导航钻头24和放置种植体4的指令(步骤S612)。这里,一旦已知钻头24相对于临床环境的位置,就可以以一种或多种形式向用户提供导航建议,所述一种或多种形式包括:(a)其中例如可在显示器12上显示红-黄-绿灯、彩色灯或指示钻孔深度的精度(与规划的种植体位置32处的种植体的深度相比)的其他灯的视觉形式,(b)其中例如激活语言队列或者其他可听声音,以指示将钻头24移动到哪里,何时开始/停止钻孔的听觉形式,(c)其中例如随着工具接近预定钻深,增大或降低振动元件(未图示)的振动强度的触觉形式。在本文中的实施例中,如果钻孔的位置偏离规划的种植体位置32预定量(例如,0.5-2mm),或者如果钻头接近不该被损坏的神经22,那么可以使手持件16停止工作。
在钻孔之后,通过将种植体4附接到种植体驱动器工具,将种植体驱动器附接到手持件,并将种植体4钻孔到位,可以将种植体4插入钻孔中。从步骤S610,处理器可利用种植体驱动器的长度/维度来确定种植体相对于手持件的位置。通过对患者和手持件的持续跟踪,手持件相对于临床环境的位置也是已知的。此外,通过驱动器的种植体-接口几何形状,种植体的内部配合几何形状的旋转定向与种植体驱动器的旋转定向相关。同样地,利用例如手持件16中的旋转电位计,可以监测和记录种植体驱动器的旋转位置。结合所得到的临床数据、手持件/组件几何数据、驱动器几何数据和/或来自摄像头系统3的术后图像,提供了在患者的齿列内定义最终种植体位置34的信息,步骤S700(图3)。与相邻齿列和软组织的初始口内扫描数据20相结合,该位置数据可以用作用于设计牙齿修复体的输入,比如最终或临时的基台、牙冠、愈合基台、牙桥以及可能需要知道种植体的位置以便将其与周围的牙齿解剖结构关联,从而达到修复或美容目的的任何其他设备(步骤S800)。这里,可不再需要否则会需要的物理印模来确定最终种植体位置,从而可以减少在临床医生办公室所花费的时间。
在又一个实施例中,几何配准的图像可不覆盖在患者14上。相反,临床医生10可通过例如常规方式插入种植体4,通过使用跟踪装置2/摄像头系统3,可以获得插入的种植体4的最终位置,其中例如可采用手持件16中的嵌入式传感器26和/或术后图像。在知道种植体的最终位置之后,可以在不需要获取物理印模的情况下,实现诸如修复体的设计之类的规划/设计处理。
鉴于上面所述,可以意识到在本文中描述的示例实施例提供了一种方法和系统,所述方法和系统用于使用增强现实来便利牙种植体设备4的放置,并同时捕获放置结果以用于诸如修复体设计之类的后续规划过程。
除非另有定义,否则本文中使用的所有技术和科学术语具有与本发明所属领域的普通技术人员通常理解的相同含义。尽管在本公开的实践或测试中可以使用与本文中所述的方法和材料类似或等效的方法和材料,不过上面描述了适当的方法和材料。本文中提到的所有出版物,专利申请,专利和其他参考文献在适用法律法规所允许的范围内通过引用整体包含在本文中。本公开可以以其他特定形式具体体现,而不脱离本公开的精神或基本属性,于是可取的是本实施例在所有方面都被认为是说明性的而非限制性的。说明书内使用的任何标题只是为了方便起见,并不具有法律或限制作用。
Claims (24)
1.一种利用增强可视化的方法,所述方法包括:
获得患者的一个或多个术前图像;
基于所述一个或多个术前图像中的共同特征或参考点,将所述一个或多个术前图像几何配准到一起;
提供包括规划的种植体位置的治疗计划;
将几何配准的术前图像和/或规划的种植体位置覆盖在患者上,使得它们看起来直接叠加在患者的目标区域上;以及
基于所覆盖的几何配准的术前图像与规划的种植体位置之间的位置关系,提供用于创建钻孔和/或插入种植体的导航指令。
2.按照权利要求1所述的方法,其中所述覆盖是通过显示器完成的。
3.按照权利要求1所述的方法,还包括:
确定种植体的最终位置,以及
基于最终种植体位置设计修复体。
4.按照权利要求3所述的方法,其中基于(i)手持件、所述手持件的组件和/或种植体的几何数据和/或(ii)治疗区域的术后图像,来确定种植体的最终位置。
5.按照权利要求3所述的方法,其中通过如下操作来确定种植体的最终位置:(i)跟踪患者的临床环境;(ii)跟踪相对于临床环境的手持件位置;(iii)跟踪相对于手持件位置的钻头位置;(iv获得相对于临床环境的钻头位置;以及(v)获得用于将种植体驱动到最终位置中的种植体驱动器的维度。
6.按照权利要求1所述的方法,其中所述术前图像包括X射线扫描数据、口内扫描数据和/或面部扫描数据。
7.按照权利要求1所述的方法,其中所述几何配准是手动的或自主的。
8.按照权利要求1所述的方法,其中所述共同特征或参考点包括预定标记、咬合平面和/或牙齿解剖特征。
9.按照权利要求1所述的方法,其中关于规划的种植体位置的信息包括用于种植体的最佳钻孔。
10.按照权利要求1所述的方法,还包括:使用跟踪装置来更新规划的种植体位置和/或几何配准的术前图像的位置。
11.按照权利要求1所述的方法,其中所述导航指令是视觉、听觉和/或触觉的形式。
12.一种利用增强可视化的系统,所述系统包括:
至少一个处理器,所述处理器被配置成:
获得患者的一个或多个术前图像;
基于所述一个或多个术前图像中的共同特征或参考点,将所述一个或多个术前图像几何配准到一起;
提供包括规划的种植体位置的治疗计划;
将几何配准的术前图像和/或规划的种植体位置覆盖在患者上,使得它们看起来直接叠加在患者的目标区域上;以及
基于所覆盖的几何配准的术前图像与规划的种植体位置之间的位置关系,提供用于创建钻孔和/或插入种植体的导航指令。
13.按照权利要求12所述的系统,还包括:配置成接收图像以用于所述覆盖的显示设备。
14.按照权利要求12所述的系统,还包括:配置成提供用于图像和对象在公共坐标系中的精确位置和定向的实时位置数据的跟踪装置。
15.按照权利要求14所述的系统,其中所述跟踪装置是基于传感器和/或基于视觉的。
16.按照权利要求12所述的系统,其中所述处理器还被配置成:
确定种植体的最终位置,以及
基于最终种植体位置设计修复体。
17.按照权利要求12所述的系统,其中所述处理器还被配置成基于(i)手持件、所述手持件的组件和/或种植体的几何数据和/或(ii)治疗区域的术后图像,来确定种植体的最终位置。
18.按照权利要求17所述的系统,其中所述处理器还被配置成通过以下操作来确定种植体的最终位置:(i)跟踪患者的临床环境;(ii)跟踪相对于临床环境的手持件位置;(iii)跟踪相对于手持件位置的钻头位置;(iv)获得相对于临床环境的钻头位置;以及(v)获得用于将种植体驱动到最终位置中的种植体驱动器的维度。
19.按照权利要求12所述的系统,其中所述术前图像包括X射线扫描数据、口内扫描数据和/或面部扫描数据。
20.按照权利要求12所述的系统,其中所述几何配准是手动的或自主的。
21.按照权利要求12所述的系统,其中所述共同特征或参考点包括预定标记、咬合平面和/或牙齿解剖特征。
22.按照权利要求12所述的系统,其中关于规划的种植体位置的信息包括用于种植体的最佳钻孔。
23.按照权利要求12所述的系统,其中所述处理器还被配置成以视觉、听觉和/或触觉的形式提供导航指令。
24.一种利用增强可视化的方法,所述方法包括:
获得患者的一个或多个术前图像;
基于所述一个或多个术前图像中的共同特征或参考点,将所述一个或多个术前图像几何配准到一起;
提供包括规划的种植体位置的治疗计划;
基于几何配准的术前图像与规划的种植体位置之间的位置关系,创建钻孔和/或插入种植体;以及
基于(i)手持件、所述手持件的组件和/或种植体的几何数据和/或(ii)治疗区域的术后图像,来确定种植体的最终位置。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862694127P | 2018-07-05 | 2018-07-05 | |
US62/694,127 | 2018-07-05 | ||
US16/110,511 US11357576B2 (en) | 2018-07-05 | 2018-08-23 | Method and system for augmented reality guided surgery |
US16/110,511 | 2018-08-23 | ||
PCT/US2019/040220 WO2020010034A1 (en) | 2018-07-05 | 2019-07-02 | Method and system for augmented reality guided surgery |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112367941A true CN112367941A (zh) | 2021-02-12 |
CN112367941B CN112367941B (zh) | 2023-03-31 |
Family
ID=67439423
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980045190.XA Active CN112367941B (zh) | 2018-07-05 | 2019-07-02 | 用于增强现实引导的牙齿种植的方法和系统 |
Country Status (7)
Country | Link |
---|---|
US (1) | US11357576B2 (zh) |
EP (1) | EP3817684B1 (zh) |
JP (1) | JP7336504B2 (zh) |
KR (1) | KR20210029196A (zh) |
CN (1) | CN112367941B (zh) |
BR (1) | BR112020026114B1 (zh) |
WO (1) | WO2020010034A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112885436A (zh) * | 2021-02-25 | 2021-06-01 | 刘春煦 | 一种基于增强现实三维成像的牙科手术实时辅助系统 |
CN113855288A (zh) * | 2021-11-01 | 2021-12-31 | 杭州柳叶刀机器人有限公司 | 图像生成方法、装置、电子设备及存储介质 |
WO2023205008A1 (en) * | 2022-04-20 | 2023-10-26 | Dentsply Sirona Inc. | Camera-based guidance of dental instruments |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2955481B1 (fr) | 2010-01-27 | 2013-06-14 | Tornier Sa | Dispositif et procede de caracterisation glenoidienne d'une omoplate a protheser ou a resurfacer |
JP6138566B2 (ja) * | 2013-04-24 | 2017-05-31 | 川崎重工業株式会社 | 部品取付作業支援システムおよび部品取付方法 |
US11227509B2 (en) | 2014-12-29 | 2022-01-18 | Help Me See Inc. | Surgical simulator systems and methods |
CN105395295B (zh) * | 2015-11-24 | 2017-05-10 | 张海钟 | 一种用于口腔和牙齿治疗的机器人系统 |
EP3810008A2 (en) | 2018-06-19 | 2021-04-28 | Tornier, Inc. | Mixed reality-aided depth tracking in orthopedic surgical procedures |
US10980612B2 (en) * | 2018-08-13 | 2021-04-20 | Align Technology, Inc. | Face tracking and reproduction with post-treatment smile |
US10810416B2 (en) * | 2018-12-14 | 2020-10-20 | Palo Alto Reseach Center Incorporated | Method and system for facilitating dynamic materialization for real-world interaction with virtual reality |
DE102020201070A1 (de) * | 2020-01-29 | 2021-07-29 | Siemens Healthcare Gmbh | Darstellungsvorrichtung |
US20220168044A1 (en) * | 2020-12-01 | 2022-06-02 | August de Oliveira | Augmented Reality Dental Display System and Method |
CN113349927B (zh) * | 2021-05-19 | 2022-11-22 | 上海交通大学 | 面部自体脂肪移植手术导航系统及虚拟刻度提示方法 |
CN114098964A (zh) * | 2021-11-19 | 2022-03-01 | 四川大学 | 一种无牙颌导航系统及方法 |
CN113855291B (zh) * | 2021-12-01 | 2022-02-22 | 极限人工智能有限公司 | 种植体辅助规划方法、装置、电子设备及存储介质 |
CN113925633B (zh) * | 2021-12-17 | 2022-02-25 | 极限人工智能有限公司 | 一种车针辅助导航及预警方法、装置、手术机器人 |
WO2023159104A2 (en) * | 2022-02-16 | 2023-08-24 | Monogram Orthopaedics Inc. | Implant placement guides and methods |
TWI777902B (zh) * | 2022-03-11 | 2022-09-11 | 柯百俞 | 植牙之工作角度導引裝置及其方法 |
EP4342415A3 (en) * | 2022-09-20 | 2024-05-29 | Dentium Co., Ltd. | Method and system for guiding of dental implantation |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010259497A (ja) * | 2009-04-30 | 2010-11-18 | Osaka Univ | 網膜投影型ヘッドマウントディスプレイ装置を用いた手術ナビゲーションシステムおよびシミュレーションイメージの重ね合わせ方法 |
WO2012090211A1 (en) * | 2010-12-29 | 2012-07-05 | Santiago Jeevan Kumar | Augmented reality computer model facebow system for use in dentistry |
US20160324598A1 (en) * | 2014-01-21 | 2016-11-10 | Trophy | Method for implant surgery using augmented visualization |
CN106255473A (zh) * | 2014-02-21 | 2016-12-21 | 特里斯佩拉牙科公司 | 增强现实牙科设计方法及系统 |
CN108135677A (zh) * | 2015-08-14 | 2018-06-08 | Nt-贸易两合公司 | 用于制造解剖学的牙种植体的方法 |
US20180168780A1 (en) * | 2016-12-16 | 2018-06-21 | Align Technology, Inc. | Augmented reality enhancements for dental practitioners |
CN108210098A (zh) * | 2018-01-16 | 2018-06-29 | 浙江工业大学 | 基于增强现实的人机协作机器人种牙方法及人机协作机器人种牙系统 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1356413A2 (en) | 2000-10-05 | 2003-10-29 | Siemens Corporate Research, Inc. | Intra-operative image-guided neurosurgery with augmented reality visualization |
US7813591B2 (en) * | 2006-01-20 | 2010-10-12 | 3M Innovative Properties Company | Visual feedback of 3D scan parameters |
CA2727585C (en) | 2008-03-21 | 2018-09-25 | Atsushi Takahashi | Three-dimensional digital magnifier operation supporting system |
US8867800B2 (en) | 2009-05-27 | 2014-10-21 | James R. Glidewell Dental Ceramics, Inc. | Method of designing and fabricating patient-specific restorations from intra-oral scanning of a digital impression |
EP2322114A1 (en) * | 2009-11-16 | 2011-05-18 | Nobel Biocare Services AG | System and method for planning a first and a second dental restoration |
US10849710B2 (en) | 2014-02-21 | 2020-12-01 | The University Of Akron | Imaging and display system for guiding medical interventions |
US10154239B2 (en) | 2014-12-30 | 2018-12-11 | Onpoint Medical, Inc. | Image-guided surgery with surface reconstruction and augmented reality visualization |
WO2017144934A1 (en) * | 2016-02-26 | 2017-08-31 | Trophy | Guided surgery apparatus and method |
JP6063599B1 (ja) * | 2016-08-01 | 2017-01-18 | 林 俊輔 | インプラント手術補助システムおよびインプラント手術補助方法 |
EP3554376A1 (en) * | 2016-12-13 | 2019-10-23 | Ormco Corporation | Methods and systems for registering multiple dental imageries |
-
2018
- 2018-08-23 US US16/110,511 patent/US11357576B2/en active Active
-
2019
- 2019-07-02 JP JP2021500050A patent/JP7336504B2/ja active Active
- 2019-07-02 CN CN201980045190.XA patent/CN112367941B/zh active Active
- 2019-07-02 KR KR1020217000656A patent/KR20210029196A/ko unknown
- 2019-07-02 EP EP19745012.5A patent/EP3817684B1/en active Active
- 2019-07-02 BR BR112020026114-9A patent/BR112020026114B1/pt active IP Right Grant
- 2019-07-02 WO PCT/US2019/040220 patent/WO2020010034A1/en unknown
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010259497A (ja) * | 2009-04-30 | 2010-11-18 | Osaka Univ | 網膜投影型ヘッドマウントディスプレイ装置を用いた手術ナビゲーションシステムおよびシミュレーションイメージの重ね合わせ方法 |
WO2012090211A1 (en) * | 2010-12-29 | 2012-07-05 | Santiago Jeevan Kumar | Augmented reality computer model facebow system for use in dentistry |
US20160324598A1 (en) * | 2014-01-21 | 2016-11-10 | Trophy | Method for implant surgery using augmented visualization |
CN106255473A (zh) * | 2014-02-21 | 2016-12-21 | 特里斯佩拉牙科公司 | 增强现实牙科设计方法及系统 |
CN108135677A (zh) * | 2015-08-14 | 2018-06-08 | Nt-贸易两合公司 | 用于制造解剖学的牙种植体的方法 |
US20180168780A1 (en) * | 2016-12-16 | 2018-06-21 | Align Technology, Inc. | Augmented reality enhancements for dental practitioners |
CN108210098A (zh) * | 2018-01-16 | 2018-06-29 | 浙江工业大学 | 基于增强现实的人机协作机器人种牙方法及人机协作机器人种牙系统 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112885436A (zh) * | 2021-02-25 | 2021-06-01 | 刘春煦 | 一种基于增强现实三维成像的牙科手术实时辅助系统 |
CN112885436B (zh) * | 2021-02-25 | 2021-11-30 | 刘春煦 | 一种基于增强现实三维成像的牙科手术实时辅助系统 |
CN113855288A (zh) * | 2021-11-01 | 2021-12-31 | 杭州柳叶刀机器人有限公司 | 图像生成方法、装置、电子设备及存储介质 |
WO2023205008A1 (en) * | 2022-04-20 | 2023-10-26 | Dentsply Sirona Inc. | Camera-based guidance of dental instruments |
Also Published As
Publication number | Publication date |
---|---|
US11357576B2 (en) | 2022-06-14 |
JP7336504B2 (ja) | 2023-08-31 |
JP2021529618A (ja) | 2021-11-04 |
KR20210029196A (ko) | 2021-03-15 |
EP3817684B1 (en) | 2023-06-07 |
BR112020026114B1 (pt) | 2022-12-27 |
BR112020026114A2 (pt) | 2021-03-16 |
EP3817684A1 (en) | 2021-05-12 |
US20200008877A1 (en) | 2020-01-09 |
CN112367941B (zh) | 2023-03-31 |
WO2020010034A1 (en) | 2020-01-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112367941B (zh) | 用于增强现实引导的牙齿种植的方法和系统 | |
US20210338107A1 (en) | Systems, devices and methods for enhancing operative accuracy using inertial measurement units | |
JP7154392B2 (ja) | 歯科インプラントシステムとナビゲーション方法 | |
US10631935B2 (en) | Head registration using a personalized gripper | |
US9675419B2 (en) | System and method for automating medical procedures | |
US9936166B2 (en) | Method for planning a dental treatment | |
EP3903724B1 (en) | Calibration method and device for dental implantology navigation surgeries | |
US20140221819A1 (en) | Apparatus, system and method for surgical navigation | |
EP3689218B1 (en) | Method and system for guiding an intra-oral scan | |
US20170231718A1 (en) | System and Method for Guiding Medical Instruments | |
US7367801B2 (en) | Method for precisely-positioned production of a cavity, especially a bone cavity and instrument therefor | |
KR101678910B1 (ko) | 드릴링 가이드 장치 | |
EP3689287B1 (en) | System for proposing and visualizing dental treatments | |
KR101086865B1 (ko) | 표준화된 가이드 스탠트와 이를 이용한 임플란트 시스템 및 그 제어방법 | |
KR102434755B1 (ko) | 구강 스텐트와 일체로 형성된 마커 | |
EP4091567A1 (en) | Technique of providing user guidance for obtaining a registration between patient image data and a surgical tracking system | |
KR102486198B1 (ko) | 실시간 영상유도를 이용한 임플란트 식립 가이드시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |