CN113768619A - 路径定位方法、信息显示装置、存储介质及集成电路芯片 - Google Patents
路径定位方法、信息显示装置、存储介质及集成电路芯片 Download PDFInfo
- Publication number
- CN113768619A CN113768619A CN202110129401.7A CN202110129401A CN113768619A CN 113768619 A CN113768619 A CN 113768619A CN 202110129401 A CN202110129401 A CN 202110129401A CN 113768619 A CN113768619 A CN 113768619A
- Authority
- CN
- China
- Prior art keywords
- image
- knife
- surgical
- virtual
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000001514 detection method Methods 0.000 claims description 29
- 238000010276 construction Methods 0.000 claims description 7
- 230000003902 lesion Effects 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 claims 2
- 230000002349 favourable effect Effects 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 7
- 210000003128 head Anatomy 0.000 description 6
- 230000003190 augmentative effect Effects 0.000 description 5
- 210000004556 brain Anatomy 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 4
- 238000002591 computed tomography Methods 0.000 description 4
- 208000003906 hydrocephalus Diseases 0.000 description 4
- 238000012285 ultrasound imaging Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000002595 magnetic resonance imaging Methods 0.000 description 2
- 238000001356 surgical procedure Methods 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000003325 tomography Methods 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/102—Modelling of surgical devices, implants or prosthesis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/102—Modelling of surgical devices, implants or prosthesis
- A61B2034/104—Modelling the effect of the tool, e.g. the effect of an implanted prosthesis or for predicting the effect of ablation or burring
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/105—Modelling of the patient, e.g. for ligaments or bones
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/107—Visualisation of planned trajectories or target regions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/108—Computer aided selection or customisation of medical implants or cutting guides
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/365—Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/372—Details of monitor hardware
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Veterinary Medicine (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Robotics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Pathology (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Wire Bonding (AREA)
- User Interface Of Digital Computer (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提供一种路径定位方法、信息显示装置、存储介质及集成电路芯片,该方法根据一信息显示装置提供的与一实际手术对象相关的多个影像图片找出一呈现一病灶的目标影像图片并在病灶上决定一手术目标点,且建构出呈现该手术目标点的一三维虚拟影像,并将该三维虚拟影像叠合在该实际手术对象影像上以显示一叠合后影像,且于该叠合后影像上产生一对应于该实际手术对象的表面的一实际入刀点的虚拟入刀点,并使该虚拟入刀点与该手术目标点连成一入刀路径,并显示由该手术目标点朝该虚拟入刀点方向沿着该入刀路径从该入刀点向外直线延伸的一入刀导引路径。由此,可协助手术操作者规划手术路径,而有助于手术的顺利进行并提高手术成功率。
Description
技术领域
本发明涉及一种外科手术定位方法,特别是涉及一种手术路径定位方法、信息显示装置、计算机可读取的存储介质及专用集成电路芯片。
背景技术
目前要进行脑部手术,都会先拍摄脑部断层扫描影像,以确认手术目标(病灶),例如脑部积水处,而要确认手术目标,目前的做法主要有:1、通过计算机断层扫描(CT)、磁振造影(MRI)、超声波摄影(Ultrasound imaging)等取得的DICOM影像图片,找到手术目标的大概位置;2、利用光学导航系统即时显示DICOM影像图片,以找寻手术目标位置;3、利用扩增实境(AR)或混合实境(MR)技术直接将DICOM影像图片重叠于手术对象上。但是当找出手术目标后,由于现行系统并无法即时显示DICOM影像的量化信息,因此医师仍需凭借自身的开刀经验自行找出入刀点以及由入刀点前进至手术目标的入刀路径。
发明内容
本发明的目的是提供一种至少能解决上述问题的手术路径定位方法以及实现该方法的信息显示装置、计算机可读取的存储介质和专用集成电路芯片,其能将手术对象的三维虚拟影像重叠于手术对象上,并自动根据手术对象上的一手术目标点决定一入刀点以及产生一由入刀点前进至手术目标点的入刀路径以及由入刀点向外延伸的一入刀导引路径,让操作者可依循该入刀导引路径使手术器械从入刀点进入手术对象并保持手术器械往正确的入刀路径移动至手术目标点,而有助于手术的顺利进行。
本发明的手术路径定位方法,包括:(A)一信息显示装置提供与一实际手术对象相关的多个影像图片,以供从该等影像图片中找出一目标影像图片并显示该目标影像图片,该目标影像图片呈现出位于该实际手术对象内部的一病灶,且该目标影像图片可供点选以在该病灶上决定一手术目标点;(B)该信息显示装置的一三维影像建构模块根据呈现该病灶及该手术目标点的该目标影像图片与该等影像图片,建构出呈现该手术目标点且与该实际手术对象对应的一三维虚拟影像;(C)该信息显示装置的一影像叠合模块在该信息显示装置拍摄该实际手术对象并显示所拍摄的该实际手术对象影像时,将该三维虚拟影像叠合在该实际手术对象影像上而产生一呈现该手术目标点的叠合后影像,且令该信息显示装置显示该叠合后影像;及(D)该信息显示装置的一入刀路径产生模块根据该叠合后影像上呈现的该手术目标点及该等影像图片,于该叠合后影像上产生一对应于该实际手术对象的表面的一实际入刀点的虚拟入刀点,并使该虚拟入刀点与该手术目标点连成一直线,并显示由该手术目标点朝该虚拟入刀点方向沿着该直线从该虚拟入刀点向外直线延伸的一入刀导引路径。
在本发明的一些实施态样中,该三维虚拟影像包含与该实际手术对象对应的一第一三维虚拟影像和与该手术目标点对应的一第二三维虚拟影像,该影像叠合模块将该第一三维虚拟影像及该第二三维虚拟影像叠合在该实际手术对象影像上而产生呈现该手术目标点的该叠合后影像,且令该显示器显示该叠合后影像以显示该手术目标点的实际位置。
在本发明的一些实施态样中,该信息显示装置的一入刀侦测模块侦测一手术器械是否出现在该信息显示装置显示的该叠合后影像画面中,且判断该手术器械的一尖端点与该虚拟入刀点是否相叠合、判断该手术器械的一尖端点与该手术目标点是否相叠合、判断该手术器械与该入刀导引路径是否相叠合及/或判断该手术器械的空间角度与该入刀导引路径的空间角度是否相叠合,并根据判断结果输出一反馈信息。
在本发明的一些实施态样中,该信息显示装置的一入刀侦测模块侦测到一手术器械出现在该信息显示装置显示的该叠合后影像画面时,该入刀侦测模块即时产生与该手术器械对应的一虚拟手术器械,并根据该手术器械在该叠合后影像画面中的位置,对应显示该虚拟手术器械于该叠合后影像画面中;且该入刀侦测模块判断该虚拟手术器械的一尖端点是否与该虚拟入刀点相叠合、判断该虚拟手术器械的一尖端点与该手术目标点是否相叠合、判断该虚拟手术器械与该入刀导引路径是否相叠合及/或判断该虚拟手术器械的空间角度与该入刀导引路径的空间角度是否相叠合,并根据判断结果输出一反馈信息。
在本发明的一些实施态样中,该反馈信息包含影像反馈、声音反馈、触觉反馈至少其中之一,影像反馈包含产生颜色变化及出现新信息至少其中之一,声音反馈包含声音提示,触觉反馈是该信息显示装置通过传送一反馈信号至一穿戴式电子装置,使该穿戴式电子装置产生震动。
再者,本发明实现上述方法的信息显示装置,包括一储存单元、一显示器、一影像撷取单元及一处理器;其中该储存单元储存与一实际手术对象相关的多个影像图片;该处理器与该储存单元、该显示器及该影像撷取单元电连接,并可供操作以从该储存单元储存的该等影像图片中找出一目标影像图片并令该显示器显示该目标影像图片,该目标影像图片呈现出位于该实际手术对象内部的一病灶,且该处理器令该目标影像图片可供点选以在该病灶上决定一手术目标点;且该处理器包含一三维影像建构模块、一影像叠合模块及一入刀路径产生模块,其中,该三维影像建构模块根据呈现该手术目标点的该目标影像图片与该等影像图片,建构出呈现该手术目标点且与该实际手术对象对应的一三维虚拟影像;该影像叠合模块判断该显示器显示该影像撷取单元所拍摄的该实际手术对象的一实际手术对象影像时,将该三维虚拟影像叠合在该实际手术对象影像上而产生一呈现该手术目标点的叠合后影像,且令该显示器显示该叠合后影像;该入刀路径产生模块根据该叠合后影像上呈现的该手术目标点及该储存单元储存的该等影像图片,于该叠合后影像上产生一对应于该实际手术对象的表面的一实际入刀点的虚拟入刀点,并使该虚拟入刀点与该手术目标点连成一直线,并令该显示器显示由该手术目标点朝该虚拟入刀点方向沿着该直线从该虚拟入刀点向外直线延伸的一入刀导引路径。
在本发明的一些实施态样中,该处理器还包含一入刀侦测模块,该入刀侦测模块判断该影像撷取单元拍摄到一手术器械,且判断该手术器械的一尖端点与该虚拟入刀点是否相叠合、判断该手术器械的一尖端点与该手术目标点是否相叠合、判断该手术器械与该入刀导引路径是否相叠合及/或判断该手术器械的空间角度与该入刀导引路径的空间角度是否相叠合,并根据判断结果输出一反馈信息。
在本发明的一些实施态样中,该处理器还包含一入刀侦测模块,该入刀侦测模块判断该影像撷取单元拍摄到一手术器械时,该入刀侦测模块即时产生与该手术器械对应的一虚拟手术器械,并根据该手术器械在空间中的位置,对应显示该虚拟手术器械于该叠合后影像画面中;且该入刀侦测模块判断该虚拟手术器械的一尖端点与该虚拟入刀点是否相叠合、判断该虚拟手术器械的一尖端点与该手术目标点是否相叠合、判断该虚拟手术器械与该入刀导引路径是否相叠合及/或判断该虚拟手术器械的空间角度与该入刀导引路径的空间角度是否相叠合,并根据判断结果输出一反馈信息。
在本发明的一些实施态样中,该反馈信息包含影像反馈、声音反馈、触觉反馈至少其中之一,影像反馈包含产生颜色变化及出现新信息至少其中之一,声音反馈包含声音提示,触觉反馈是该处理器通过有线或无线方式传送一反馈信号至一穿戴式电子装置,使该穿戴式电子装置产生震动。
此外,本发明实现上述方法的计算机可读取的存储介质,其中储存一包含一三维影像建构模块、一影像叠合模块、一入刀路径产生模块及一入刀侦测模块的软件程序,且该软件程序被一电子装置载入并执行时,该电子装置能完成如上所述的手术路径定位方法。
另外,本发明实现上述方法的专用集成电路芯片,其中整合有一三维影像建构模块、一影像叠合模块、一入刀路径产生模块及一入刀侦测模块,且该专用集成电路芯片被应用于一电子装置时,能使该电子装置完成如上所述的手术路径定位方法。
本发明的有益效果在于:通过将实际手术对象的三维虚拟影像重叠于实际手术对象影像上,并自动根据该目标影像图片呈现的该病灶及该手术目标点决定该入刀点并产生由该入刀点前进至该手术目标点的该直线(入刀路径)以及由该入刀点向外直线延伸的该入刀导引路径,让手术操作者可事先得知最佳的手术入刀路径,以在手术中能依循该入刀导引路径使手术器械的尖端点准确定位在该入刀点,再由该入刀点依循该入刀路径进入实际手术对象内部并导引手术器械的尖端点往正确的入刀路径移动至该手术目标点,由此,协助手术操作者规划手术路径,而有助于手术的顺利进行并提高手术成功率。
附图说明
图1是本发明手术路径定位方法的一实施例的主要流程图;
图2是本实施例侦测手术器械的位置及移动路径是否与规划的入刀点及入刀路径相叠合的流程图;
图3是本发明信息显示装置的一实施例的主要硬件方块及模块方块示意图;
图4是本实施例的一目标影像图片示意图;
图5是本实施例产生的对应于该实际手术对象且呈现该手术目标点位置的三维虚拟影像示意图;
图6是说明本实施例将图5显示的三维虚拟影像叠合在该实际手术对象影像上而产生的一叠合后影像的示意图;
图7是说明本实施例还在该叠合后影像上产生一沿该直线从该虚拟入刀点向外直线延伸的一入刀导引路径的示意图;
图8是说明本实施例侦测一手术器械的尖端点是否与该实际入刀点相叠合的示意图;
图9是说明本实施例侦测到手术器械偏离入刀导引路径时会以影像反馈方式显示一反馈信息的示意图;
图10是说明本实施例侦测到手术器械与入刀导引路径相叠合时会以影像反馈方式显示一反馈信息的示意图。
具体实施方式
下面结合附图及实施例对本发明进行详细说明:
在本发明被详细描述之前,应当注意在以下的说明内容中,类似的元件是以相同的编号来表示。
参阅图1及图2,是本发明手术路径定位方法的一实施例的主要流程步骤,且如图3所示,本实施例的方法是通过本发明的一信息显示装置3来实现;该信息显示装置3可以是但不限于桌上型个人计算机、平板计算机、智能手机或头戴式显示装置(例如扩增实境(AR)眼镜、扩增实境(AR)头戴装置(AR headset)等),且其主要包括一显示器31、一储存单元32、一与该显示器31及该储存单元32电连接的处理器33以及一与该处理器33电连接的影像撷取单元34,例如摄影镜头。
该处理器33主要包括一三维影像建构模块331、一影像叠合模块332、一入刀路径产生模块333及一入刀侦测模块334,且前述的该些模块331~334可以是软件程序而能被该处理器33载入并执行,以完成图1及图2所示的方法流程;或者,上述该些模块331~334也可以被整合在一或多个专用集成电路(Application-specific integrated circuit,缩写为ASIC)芯片或一可编程逻辑装置(Programmable Logic Device,缩写为PLD)中,而使包含该(该等)专用集成电路芯片或该可编程逻辑装置的该处理器33能完成图1及图2所示的方法流程。又或者,上述该些模块331~334也可以是被烧录在该处理器33中的一固件,该处理器33执行该固件而能完成图1及图2所示的方法流程。
由此,当医师要对一病患的一实际手术对象1(参见图6),例如病患的头部进行手术,比如病患的脑部有一病灶,例如脑积水而必须针对脑部的病灶(脑积水)部分进行手术以抽取积水时,如图1的步骤S1,该信息显示装置3的该处理器33能根据使用者的操作读取预先载入且储存于该储存单元32中的与该实际手术对象(头部)1相关的多个影像图片,并令该显示器31根据使用者的操作显示该等影像图片。且该等影像图片例如是该实际手术对象(头部)1经由计算机断层扫描(CT)、磁振造影(MRI)、超声波摄影(Ultrasound imaging)等取得的二维切面DICOM(Digital Imaging and Communications in Medicine(医疗数字影像传输协定),简称DICOM)影像,所以该等影像图片可同时或分别包含血管、神经、骨头等信息。
因此,医师可从该信息显示装置3显示的该等影像图片中找出如图4所示的一目标影像图片,该目标影像图片呈现出位于该实际手术对象1内部(脑部)的一病灶(积水处)41,且该信息显示装置3的该处理器33令该目标影像图片可供点选以在该病灶41上决定一手术目标点42,亦即该处理器33会判断该病灶41上是否被设定一目标点,若是,则判定该目标点为该手术目标点42并将该手术目标点42显示在该病灶上。此外,该处理器33也可利用事先训练好的人工智能模块(图未示),例如类神经网路从该等影像图片中自动找出呈现出位于该实际手术对象1内部(脑部)的一病灶(积水处)41的该目标影像图片,并自动地设定该手术目标点42,然后,医师可以决定是否接受人工智能模块设定的该手术目标点42或者对该手术目标点42进行微调。
接着,如图1的步骤S2,该处理器33中的该三维影像建构模块331根据图4所示的呈现该病灶41及该手术目标点42的该目标影像图片与储存于该储存单元32中的该等影像图片,建构出呈现该手术目标点42且与该实际手术对象1对应的一三维虚拟影像5,如图5所示。例如该三维影像建构模块331可以应用(但不限于)Unity软件先根据该等影像图片建构出与该实际手术对象1对应的一初始三维虚拟影像,且该初始三维虚拟影像中呈现该病灶41的位置,然后该三维影像建构模块331再根据该目标影像图片上呈现的该病灶41及该手术目标点42的位置,将该手术目标点42呈现在该初始三维虚拟影像中,而产生呈现该手术目标点42的该三维虚拟影像5。
接着,如图1的步骤S3,当该处理器33中的该影像叠合模块332发现该信息显示装置3的该影像撷取单元34拍摄到该实际手术对象1并显示所拍摄的该实际手术对象影像1’时,如图6所示,该影像叠合模块332将该三维虚拟影像5叠合在该实际手术对象影像1’上,而产生一呈现该手术目标点42的叠合后影像6,且令该信息显示装置3的该显示器31显示该叠合后影像6。具体而言,该三维虚拟影像包含与该实际手术对象1对应的一第一三维虚拟影像和与该手术目标点42对应的一第二三维虚拟影像,且该影像叠合模块332将该第一三维虚拟影像及该第二三维虚拟影像叠合在该实际手术对象影像1’上而产生呈现该手术目标点42的该叠合后影像6,且令该显示器31显示该叠合后影像6,以让外科手术医师从显示的该叠合后影像6得知该手术目标点42的实际位置。
具体而言,该影像叠合模块332可以(但不限于)应用一光学定位系统来实现影像叠合,且该光学定位系统可采用NDI Polaris Vicra optical tracking systems、NDIPolaris Spectra optical tracking systems,ART tracking systems,ClaroNavMicronTracker等等,但不以此为限。
此外,该影像叠合模块332也可以应用例如Vuforia扩增实境平台所开发的一影像定位系统来替代该光学定位系统,且由于影像叠合方法已是扩增实境(AR)和混合实境(MR)领域的已知技术,故于此不予详述。
然后,如图1的步骤S4及图6所示,该处理器33中的该入刀路径产生模块333会根据该叠合后影像6上呈现的该手术目标点42及该等影像图片,于该叠合后影像6的虚拟头皮上产生一对应于该实际手术对象1的表面(例如头部的头皮表面)的一实际入刀点43的虚拟入刀点43’,并使该虚拟入刀点43’与该手术目标点42连成一直线44,并且如图7所示,产生并显示由该手术目标点42朝该虚拟入刀点43’方向沿着该直线44从该虚拟入刀点43’向外直线延伸的一入刀导引路径45。其中该直线44是一入刀路径,且该入刀导引路径45可以是一细长直线或一圆柱(圆筒)状、圆锥状延伸的粗直线。
其中,该虚拟入刀点43’的产生方式如下。外科手术医师可在病人头部表面,直接根据习惯或判断决定一个实际入刀点43,或者参考该信息显示装置3显示的该叠合后影像6中的该手术目标点42之后,决定一个实际入刀点43;在上述实际入刀点43决定后,如图6所示,外科手术医师使用一手术器械7的尖端71点上述的实际入刀点43时,该入刀路径产生模块333于该叠合后影像6的虚拟头皮上产生一对应于上述的实际入刀点43的虚拟入刀点43’。然后,该入刀路径产生模块333即可根据该手术目标点42与该虚拟入刀点43’产生该入刀导引路径45;外科手术医师可以根据该入刀导引路径45,考虑是否要更改入刀点,若是,则重新决定一入刀点,让该入刀路径产生模块333重新根据该手术目标点42与新的该实际入刀点43重新产生一条入刀导引路径45。值得一提的是,本实施例的该入刀路径产生模块333亦可引入人工智能,以预先建构的一人工智能模型自动产生该虚拟入刀点43’。此外,该信息显示装置3还会记录上述步骤中产生的该三维虚拟影像5、该叠合后影像6以及在该叠合后影像6上产生的入刀导引路径45等信息。
由此,如图2的步骤S21所示,当该信息显示装置3的该显示器31显示如图7所示的该叠合后影像6及位于该叠合后影像6上的直线(入刀路径)44以及由该直线(入刀路径)44向外延伸的该入刀导引路径45时,如图2的步骤S22及图8所示,该处理器33的该入刀侦测模块334会通过该影像撷取单元34所撷取的影像画面判断(侦测)是否有一手术器械7出现在该显示器31显示的该叠合后影像6画面中,若是,则如图2的步骤S23及图9所示,该入刀侦测模块334进一步判断出现在该叠合后影像6画面中的该手术器械影像7’的一尖端点71’(对应该手术器械7的尖端点71)与该虚拟入刀点43’是否相叠合,以及/或者判断该手术器械影像7’(对应该手术器械7)与该入刀导引路径45是否相叠合,以及/或者判断该手术器械影像7’(对应该手术器械7)的空间角度与该入刀导引路径45的空间角度是否相叠合,以及/或者判断该手术器械影像7’的该尖端点71’(对应该手术器械7的尖端点71)是否已沿着该直线44(入刀路径)接近该手术目标点42并与该手术目标点42相叠合,并执行步骤S24,根据判断结果输出一反馈信息。
具体而言,该入刀侦测模块334可通过上述的该光学定位系统或影像定位系统即时取得外科手术医师或相关人员操作的该手术器械7的一空间坐标信息,而得知该手术器械7在空间中的位置,进而判断该手术器械影像7’的该尖端点71’是否与该虚拟入刀点43’或该手术目标点42相叠合,以及判断该手术器械影像7’的路径或空间角度是否与该入刀导引路径45或其空间角度相叠合,并根据判断结果适时输出相对应的该反馈信息。
此外,值得一提的是,该三维影像建构模块331也可配合该入刀侦测模块334,在该入刀侦测模块334侦测到该手术器械7出现在该显示器31显示的该叠合后影像6画面内时,该三维影像建构模块331可立即建构一与该手术器械7相对应的虚拟手术器械(虚拟物件,图未示),且该入刀侦测模块334根据该手术器械7相对于该实际手术目标1的一相对坐标,将该虚拟手术器械显示在该叠合后影像6画面,因此,该虚拟手术器械在影像画面中的形态及位置相当于上述的该手术器械影像7’,进而使该显示器31即时显示该虚拟手术器械的尖端点是否与该虚拟入刀点43’或该手术目标点42相叠合,以及即时显示该虚拟手术器械的路径或空间角度是否与该入刀导引路径45或其空间角度相叠合,而以虚拟视觉化的方式呈现手术器械7与开刀目标及入刀路径之间的叠合关系。
其中,该反馈信息包含但不限于影像反馈、声音反馈、触觉反馈至少其中之一,且影像反馈包含但不限于产生颜色变化及出现新信息至少其中之一;以图9为例,当该手术器械影像7’的尖端点71’与该虚拟入刀点43’相叠合,且该入刀侦测模块334判断该手术器械影像7’与该入刀导引路径45是否相叠合时,在该显示器31显示画面的右上方会出现一圆形9且在圆形9的正中央具有一中心点91,当该入刀侦测模块334判断该手术器械影像7’与该入刀导引路径45并未相叠合时,该圆形9内会出现一条偏离该中心点91的线段92,该线段92的长度代表该手术器械7偏离该入刀导引路径45的距离,亦即此长度的大小代表该手术器械7的空间方位与该入刀导引路径45的空间方位的偏差大小。该线段92的偏斜方向则代表该手术器械7偏离该入刀导引路径45的偏斜方向。
反之,如图10所示,当该入刀侦测模块334判断该手术器械影像7’与该入刀导引路径45的空间方位相叠合时,该圆形9内即不会出现偏离该中心点91的线段92,而只会显示该中心点91,代表该手术器械7与该入刀导引路径45的空间方位相叠合而未偏离该入刀导引路径45。由此,手持该手术器械7的医师即能够通过同步观察该圆形9内的线段92的变化调整该手术器械7,以使该手术器械7处于正确的手术方位上。
而声音反馈则包含声音提示,例如将上述以视觉化表示该手术器械7的尖端点71是否与该实际入刀点43或该手术目标点42相叠合,以及该手术器械7是否与该入刀导引路径45或其空间角度相叠合等,以发出声音信息的形式表示,例如该处理器33令该信息显示装置3的扬声器输出“手术器械已偏离入刀导引路径”、“手术器械接近入刀导引路径”、“手术器械与入刀导引路径相叠合”等语音,而通过即时输出语音方式导引手持该手术器械7的医师能够随时调整该手术器械7,以使该手术器械7处于正确的手术方位或位置上。
触觉反馈则是例如该处理器33通过该信息显示装置3的一信号传输界面以有线或无线方式传送一反馈信号至一供手术医师穿戴的穿戴式电子装置,使该穿戴式电子装置产生震动,而让穿载该穿戴式电子装置的医师能够更直觉地查觉该手术器械7是否处于正确的手术入刀方位、位置及/或路径上。其中,该穿戴式电子装置可以是但不限于放在医师口袋的智能手机、戴在手上的智能手表、智能手环或穿戴式Beacon(信标),医师另一只手(左手)拿的遥控棒(类似电玩Wii的遥控棒)、挂在医师脖子上的智能项链、戴在医师头上的智能眼镜等。
综上所述,上述实施例通过将实际手术对象1的三维虚拟影像5重叠于实际手术对象影像1’上,并根据该目标影像图片呈现的该手术目标点42及于该实际手术对象1的表面决定的一实际入刀点43产生该虚拟入刀点43’,以及产生一由该虚拟入刀点43前进至手术目标点42的该入刀路径(直线)44以及由该虚拟入刀点43向外直线延伸的该入刀导引路径45,让手术操作者可事先得知最佳的手术入刀路径,以在手术中能依循该入刀导引路径45使手术器械7的尖端点71准确定位在该实际入刀点43,再由该实际入刀点43依循该入刀路径44进入实际手术对象1内部并导引手术器械7的尖端点71往正确的入刀路径移动至该手术目标点42,由此,协助手术操作者规划手术路径,而有助于手术的顺利进行并提高手术成功率,确实达到本发明的功效与目的。
以上所述仅为本发明较佳实施例,然其并非用以限定本发明的范围,任何熟悉本项技术的人员,在不脱离本发明的精神和范围内,可在此基础上做进一步的改进和变化,因此本发明的保护范围当以本申请的权利要求书所界定的范围为准。
Claims (13)
1.一种手术路径定位方法,其特征在于,包含:
A:信息显示装置提供与实际手术对象相关的多个影像图片,以供从该多个影像图片中找出目标影像图片并显示该目标影像图片,该目标影像图片呈现出位于该实际手术对象内部的病灶,且该目标影像图片能够供点选以在该病灶上决定手术目标点;
B:该信息显示装置的三维影像建构模块根据呈现该病灶及该手术目标点的该目标影像图片与该多个影像图片,建构出呈现该手术目标点且与该实际手术对象对应的三维虚拟影像;
C:该信息显示装置的影像叠合模块在该信息显示装置拍摄该实际手术对象并显示所拍摄的该实际手术对象影像时,将该三维虚拟影像叠合在该实际手术对象影像上而产生呈现该手术目标点的叠合后影像,且令该信息显示装置显示该叠合后影像;及
D:该信息显示装置的入刀路径产生模块根据该叠合后影像上呈现的该手术目标点及该多个影像图片,于该叠合后影像上产生对应于该实际手术对象的表面的实际入刀点的虚拟入刀点,并使该虚拟入刀点与该手术目标点连成直线,并显示由该手术目标点朝该虚拟入刀点方向沿着该直线从该虚拟入刀点向外直线延伸的入刀导引路径。
2.如权利要求1所述的手术路径定位方法,其特征在于,该三维虚拟影像包含与该实际手术对象对应的第一三维虚拟影像和与该手术目标点对应的第二三维虚拟影像,该影像叠合模块将该第一三维虚拟影像及该第二三维虚拟影像叠合在该实际手术对象影像上而产生呈现该手术目标点的该叠合后影像,且令该信息显示装置显示该叠合后影像以显示该手术目标点的实际位置。
3.如权利要求1所述的手术路径定位方法,其特征在于,该信息显示装置的入刀侦测模块侦测手术器械是否出现在该信息显示装置显示的该叠合后影像画面中,且判断该手术器械的尖端点与该虚拟入刀点是否相叠合、判断该手术器械的尖端点与该手术目标点是否相叠合、判断该手术器械与该入刀导引路径是否相叠合及/或判断该手术器械的空间角度与该入刀导引路径的空间角度是否相叠合,并根据判断结果输出反馈信息。
4.如权利要求1所述的手术路径定位方法,其特征在于,该信息显示装置的入刀侦测模块侦测到手术器械出现在该信息显示装置显示的该叠合后影像画面时,该入刀侦测模块即时产生与该手术器械对应的虚拟手术器械,并根据该手术器械在该叠合后影像画面中的位置,对应显示该虚拟手术器械于该叠合后影像画面中;且该入刀侦测模块判断该虚拟手术器械的尖端点是否与该虚拟入刀点相叠合、判断该虚拟手术器械的尖端点与该手术目标点是否相叠合、判断该虚拟手术器械与该入刀导引路径是否相叠合及/或判断该虚拟手术器械的空间角度与该入刀导引路径的空间角度是否相叠合,并根据判断结果输出反馈信息。
5.如权利要求3或4所述的手术路径定位方法,其特征在于,该反馈信息包含影像反馈、声音反馈、触觉反馈至少其中之一,影像反馈包含产生颜色变化及出现新信息至少其中之一,声音反馈包含声音提示,触觉反馈是该信息显示装置通过传送反馈信号至穿戴式电子装置,使该穿戴式电子装置产生震动。
6.一种信息显示装置,其特征在于,包含:
储存单元,其中储存与实际手术对象相关的多个影像图片;
显示器;
影像撷取单元;及
处理器,其与该储存单元、该显示器及该影像撷取单元电连接,并能够供操作以从该储存单元储存的该多个影像图片中找出目标影像图片并令该显示器显示该目标影像图片,该目标影像图片呈现出位于该实际手术对象内部的病灶,且该处理器令该目标影像图片能够供点选以在该病灶上决定手术目标点;且该处理器包含三维影像建构模块、影像叠合模块及入刀路径产生模块,其中
该三维影像建构模块根据呈现该病灶及该手术目标点的该目标影像图片与该多个影像图片,建构出呈现该手术目标点且与该实际手术对象对应的三维虚拟影像;
该影像叠合模块判断该显示器显示该影像撷取单元所拍摄的该实际手术对象的实际手术对象影像时,将该三维虚拟影像叠合在该实际手术对象影像上而产生呈现该手术目标点的叠合后影像,且令该显示器显示该叠合后影像;
该入刀路径产生模块根据该叠合后影像上呈现的该手术目标点及该储存单元储存的该多个影像图片,于该叠合后影像上产生对应于该实际手术对象的表面的实际入刀点的虚拟入刀点,并使该虚拟入刀点与该手术目标点连成直线,并令该显示器显示由该手术目标点朝该虚拟入刀点方向沿着该直线从该虚拟入刀点向外直线延伸的入刀导引路径。
7.如权利要求6所述的信息显示装置,其特征在于,该三维虚拟影像包含与该实际手术对象对应的第一三维虚拟影像和与该手术目标点对应的第二三维虚拟影像,该影像叠合模块将该第一三维虚拟影像及该第二三维虚拟影像叠合在该实际手术对象影像上而产生呈现该手术目标点的该叠合后影像,且令该显示器显示该叠合后影像以显示该手术目标点的实际位置。
8.如权利要求6所述的信息显示装置,其特征在于,该处理器还包含入刀侦测模块,该入刀侦测模块判断该影像撷取单元拍摄到手术器械,且判断该手术器械的尖端点与该虚拟入刀点是否相叠合、判断该手术器械的尖端点与该手术目标点是否相叠合、判断该手术器械与该入刀导引路径是否相叠合及/或判断该手术器械的空间角度与该入刀导引路径的空间角度是否相叠合,并根据判断结果输出反馈信息。
9.如权利要求6所述的信息显示装置,其特征在于,该处理器还包含入刀侦测模块,该入刀侦测模块判断该影像撷取单元拍摄到手术器械时,该入刀侦测模块即时产生与该手术器械对应的虚拟手术器械,并根据该手术器械在空间中的位置,对应显示该虚拟手术器械于该叠合后影像画面中;且该入刀侦测模块判断该虚拟手术器械的尖端点与该虚拟入刀点是否相叠合、判断该虚拟手术器械的尖端点与该手术目标点是否相叠合、判断该虚拟手术器械与该入刀导引路径是否相叠合及/或判断该虚拟手术器械的空间角度与该入刀导引路径的空间角度是否相叠合,并根据判断结果输出反馈信息。
10.如权利要求8或9所述的信息显示装置,其特征在于,该反馈信息包含影像反馈、声音反馈、触觉反馈至少其中之一,影像反馈包含产生颜色变化及出现新信息至少其中之一,声音反馈包含声音提示,触觉反馈是该处理器通过有线或无线方式传送反馈信号至穿戴式电子装置,使该穿戴式电子装置产生震动。
11.一种计算机可读取的存储介质,其存储用于使计算机执行如权利要求1至5中任一项所述的手术路径定位方法的程序。
12.一种专用集成电路芯片,其中整合有三维影像建构模块、影像叠合模块及入刀路径产生模块,且该专用集成电路芯片被应用于电子装置时,能使该电子装置完成如权利要求1或2所述的手术路径定位方法。
13.如权利要求12所述的专用集成电路芯片,其特征在于,该专用集成电路芯片还整合入刀侦测模块,使得该专用集成电路芯片被应用于所述电子装置时,能使该电子装置完成如权利要求3至5其中任一项所述的手术路径定位方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW109119432 | 2020-06-10 | ||
TW109119432A TWI790447B (zh) | 2020-06-10 | 2020-06-10 | 手術路徑定位方法、資訊顯示裝置、電腦可讀取的記錄媒體及特殊應用積體電路晶片 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113768619A true CN113768619A (zh) | 2021-12-10 |
CN113768619B CN113768619B (zh) | 2024-07-02 |
Family
ID=78824077
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110129401.7A Active CN113768619B (zh) | 2020-06-10 | 2021-01-29 | 路径定位方法、信息显示装置、存储介质及集成电路芯片 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11806088B2 (zh) |
CN (1) | CN113768619B (zh) |
TW (1) | TWI790447B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116343538A (zh) * | 2023-03-20 | 2023-06-27 | 中山大学附属第六医院 | 基于可穿戴设备的手术教学实现方法及装置 |
CN116919599A (zh) * | 2023-09-19 | 2023-10-24 | 中南大学 | 一种基于增强现实的触觉可视化手术导航系统 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022146996A1 (en) * | 2020-12-30 | 2022-07-07 | Intuitive Surgical Operations, Inc. | Systems for updating a graphical user interface based upon intraoperative imaging |
Citations (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW381008B (en) * | 1998-05-07 | 2000-02-01 | Tzeng Ching Shiou | Guiding system for head surgical operation and the method thereof |
US6671538B1 (en) * | 1999-11-26 | 2003-12-30 | Koninklijke Philips Electronics, N.V. | Interface system for use with imaging devices to facilitate visualization of image-guided interventional procedure planning |
CN101410066A (zh) * | 2006-03-30 | 2009-04-15 | 皇家飞利浦电子股份有限公司 | 定标方法、定标设备、计算机可读介质及程序单元 |
CN102525660A (zh) * | 2012-02-17 | 2012-07-04 | 南通爱普医疗器械有限公司 | 具有颅脑部病灶自动识别功能的手术导航仪 |
US20140081127A1 (en) * | 2012-09-19 | 2014-03-20 | The Regents Of The University Of Michigan | Advanced Intraoperative Neural Targeting System and Method |
CN106974730A (zh) * | 2017-04-01 | 2017-07-25 | 上海术理智能科技有限公司 | 基于虚拟现实和医学影像的手术模拟方法、装置和设备 |
CN107928791A (zh) * | 2017-12-07 | 2018-04-20 | 上海钛米机器人科技有限公司 | 一种机器人辅助穿刺方法、系统及装置 |
CN108135563A (zh) * | 2016-09-20 | 2018-06-08 | 桑托沙姆·罗伊 | 光和阴影引导的针定位系统和方法 |
CN108210073A (zh) * | 2016-12-15 | 2018-06-29 | 神农资讯股份有限公司 | 手术导引系统及其器械导引方法 |
CN108294814A (zh) * | 2018-04-13 | 2018-07-20 | 首都医科大学宣武医院 | 一种基于混合现实的颅内穿刺定位方法 |
CN108784831A (zh) * | 2018-04-14 | 2018-11-13 | 深圳市图智能科技有限公司 | 一种基于三维影像的穿刺参数生成方法 |
CN109549689A (zh) * | 2018-08-21 | 2019-04-02 | 池嘉昌 | 一种穿刺辅助引导装置、系统及方法 |
CN109925053A (zh) * | 2019-03-04 | 2019-06-25 | 杭州三坛医疗科技有限公司 | 手术路径的确定方法、装置和系统、可读存储介质 |
CN109925057A (zh) * | 2019-04-29 | 2019-06-25 | 苏州大学 | 一种基于增强现实的脊柱微创手术导航方法及系统 |
US10383692B1 (en) * | 2018-04-13 | 2019-08-20 | Taiwan Main Orthopaedic Biotechnology Co., Ltd. | Surgical instrument guidance system |
CN110537960A (zh) * | 2018-05-29 | 2019-12-06 | 上海联影医疗科技有限公司 | 穿刺路径的确定方法、存储设备及机器人辅助手术系统 |
US20190380792A1 (en) * | 2018-06-19 | 2019-12-19 | Tornier, Inc. | Virtual guidance for orthopedic surgical procedures |
US20200060767A1 (en) * | 2016-03-12 | 2020-02-27 | Philipp K. Lang | Augmented Reality System Configured for Coordinate Correction or Re-Registration Responsive to Spinal Movement for Spinal Procedures, Including Intraoperative Imaging, CT Scan or Robotics |
US20200085511A1 (en) * | 2017-05-05 | 2020-03-19 | Scopis Gmbh | Surgical Navigation System And Method |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2797302C (en) * | 2010-04-28 | 2019-01-15 | Ryerson University | System and methods for intraoperative guidance feedback |
MY179739A (en) * | 2013-03-15 | 2020-11-12 | Synaptive Medical Inc | Planning, navigation and simulation systems and methods for minimally invasive therapy |
US11227427B2 (en) * | 2014-08-11 | 2022-01-18 | Covidien Lp | Treatment procedure planning system and method |
EP3720354A4 (en) * | 2017-12-04 | 2021-07-28 | Covidien LP | AUTOMATIC SEGMENTATION OF ABLATION ANTENNAS FROM CT IMAGES |
TWI741196B (zh) * | 2018-06-26 | 2021-10-01 | 華宇藥品股份有限公司 | 整合擴增實境之手術導航方法及系統 |
IL297302A (en) * | 2020-04-19 | 2022-12-01 | Xact Robotics Ltd | Methods and systems based on information analysis for optimizing the insertion of a medical device |
-
2020
- 2020-06-10 TW TW109119432A patent/TWI790447B/zh active
-
2021
- 2021-01-29 CN CN202110129401.7A patent/CN113768619B/zh active Active
- 2021-03-30 US US17/217,419 patent/US11806088B2/en active Active
Patent Citations (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW381008B (en) * | 1998-05-07 | 2000-02-01 | Tzeng Ching Shiou | Guiding system for head surgical operation and the method thereof |
US6671538B1 (en) * | 1999-11-26 | 2003-12-30 | Koninklijke Philips Electronics, N.V. | Interface system for use with imaging devices to facilitate visualization of image-guided interventional procedure planning |
CN101410066A (zh) * | 2006-03-30 | 2009-04-15 | 皇家飞利浦电子股份有限公司 | 定标方法、定标设备、计算机可读介质及程序单元 |
CN102525660A (zh) * | 2012-02-17 | 2012-07-04 | 南通爱普医疗器械有限公司 | 具有颅脑部病灶自动识别功能的手术导航仪 |
US20140081127A1 (en) * | 2012-09-19 | 2014-03-20 | The Regents Of The University Of Michigan | Advanced Intraoperative Neural Targeting System and Method |
US20200060767A1 (en) * | 2016-03-12 | 2020-02-27 | Philipp K. Lang | Augmented Reality System Configured for Coordinate Correction or Re-Registration Responsive to Spinal Movement for Spinal Procedures, Including Intraoperative Imaging, CT Scan or Robotics |
CN108135563A (zh) * | 2016-09-20 | 2018-06-08 | 桑托沙姆·罗伊 | 光和阴影引导的针定位系统和方法 |
CN108210073A (zh) * | 2016-12-15 | 2018-06-29 | 神农资讯股份有限公司 | 手术导引系统及其器械导引方法 |
CN106974730A (zh) * | 2017-04-01 | 2017-07-25 | 上海术理智能科技有限公司 | 基于虚拟现实和医学影像的手术模拟方法、装置和设备 |
US20200085511A1 (en) * | 2017-05-05 | 2020-03-19 | Scopis Gmbh | Surgical Navigation System And Method |
CN107928791A (zh) * | 2017-12-07 | 2018-04-20 | 上海钛米机器人科技有限公司 | 一种机器人辅助穿刺方法、系统及装置 |
CN108294814A (zh) * | 2018-04-13 | 2018-07-20 | 首都医科大学宣武医院 | 一种基于混合现实的颅内穿刺定位方法 |
US10383692B1 (en) * | 2018-04-13 | 2019-08-20 | Taiwan Main Orthopaedic Biotechnology Co., Ltd. | Surgical instrument guidance system |
CN108784831A (zh) * | 2018-04-14 | 2018-11-13 | 深圳市图智能科技有限公司 | 一种基于三维影像的穿刺参数生成方法 |
CN110537960A (zh) * | 2018-05-29 | 2019-12-06 | 上海联影医疗科技有限公司 | 穿刺路径的确定方法、存储设备及机器人辅助手术系统 |
US20190380792A1 (en) * | 2018-06-19 | 2019-12-19 | Tornier, Inc. | Virtual guidance for orthopedic surgical procedures |
CN109549689A (zh) * | 2018-08-21 | 2019-04-02 | 池嘉昌 | 一种穿刺辅助引导装置、系统及方法 |
CN109925053A (zh) * | 2019-03-04 | 2019-06-25 | 杭州三坛医疗科技有限公司 | 手术路径的确定方法、装置和系统、可读存储介质 |
CN109925057A (zh) * | 2019-04-29 | 2019-06-25 | 苏州大学 | 一种基于增强现实的脊柱微创手术导航方法及系统 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116343538A (zh) * | 2023-03-20 | 2023-06-27 | 中山大学附属第六医院 | 基于可穿戴设备的手术教学实现方法及装置 |
CN116919599A (zh) * | 2023-09-19 | 2023-10-24 | 中南大学 | 一种基于增强现实的触觉可视化手术导航系统 |
CN116919599B (zh) * | 2023-09-19 | 2024-01-09 | 中南大学 | 一种基于增强现实的触觉可视化手术导航系统 |
Also Published As
Publication number | Publication date |
---|---|
TW202145970A (zh) | 2021-12-16 |
CN113768619B (zh) | 2024-07-02 |
US20210386483A1 (en) | 2021-12-16 |
US11806088B2 (en) | 2023-11-07 |
TWI790447B (zh) | 2023-01-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2740259C2 (ru) | Позиционирование датчика ультразвуковой визуализации | |
US20190239850A1 (en) | Augmented/mixed reality system and method for the guidance of a medical exam | |
CN113768619B (zh) | 路径定位方法、信息显示装置、存储介质及集成电路芯片 | |
JP6698824B2 (ja) | 画像表示制御装置および方法並びにプログラム | |
JP2022017422A (ja) | 拡張現実感手術ナビゲーション | |
TWI678181B (zh) | 手術導引系統 | |
US9681925B2 (en) | Method for augmented reality instrument placement using an image based navigation system | |
EP4131165A1 (en) | Augmented reality patient positioning using an atlas | |
WO2019238214A1 (en) | Visualization of medical data depending on viewing-characteristics | |
JP2008005923A (ja) | 医用ガイドシステム | |
CN110638525B (zh) | 整合扩增实境的手术导航系统 | |
US20230114385A1 (en) | Mri-based augmented reality assisted real-time surgery simulation and navigation | |
EP4388734A1 (en) | Stereoscopic display and digital loupe for augmented-reality near-eye display | |
CN114667538A (zh) | 用于在外科手术环境中使用的观看系统 | |
US11822089B2 (en) | Head wearable virtual image module for superimposing virtual image on real-time image | |
JP6493885B2 (ja) | 画像位置合せ装置、画像位置合せ装置の作動方法および画像位置合せプログラム | |
Eom et al. | NeuroLens: Augmented reality-based contextual guidance through surgical tool tracking in neurosurgery | |
CN112955073A (zh) | 患者观察系统 | |
KR101988531B1 (ko) | 증강현실 기술을 이용한 간병변 수술 내비게이션 시스템 및 장기 영상 디스플레이 방법 | |
US10854005B2 (en) | Visualization of ultrasound images in physical space | |
JP2011050583A (ja) | 医療用診断装置 | |
US10049480B2 (en) | Image alignment device, method, and program | |
JP7417337B2 (ja) | 情報処理システム、情報処理方法及びプログラム | |
EP4364668A1 (en) | A device, computer program product and method for assisting in positioning at least one body part of a patent for an x-ray acquisition | |
US11771506B2 (en) | Method and system for controlling dental machines |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |