CN113768619A - 路径定位方法、信息显示装置、存储介质及集成电路芯片 - Google Patents

路径定位方法、信息显示装置、存储介质及集成电路芯片 Download PDF

Info

Publication number
CN113768619A
CN113768619A CN202110129401.7A CN202110129401A CN113768619A CN 113768619 A CN113768619 A CN 113768619A CN 202110129401 A CN202110129401 A CN 202110129401A CN 113768619 A CN113768619 A CN 113768619A
Authority
CN
China
Prior art keywords
image
knife
surgical
virtual
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110129401.7A
Other languages
English (en)
Other versions
CN113768619B (zh
Inventor
邱锡彦
陈品元
刘浩澧
魏国珍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chang Gung University CGU
Chang Gung Medical Foundation Chang Gung Memorial Hospital at Keelung
Original Assignee
Chang Gung University CGU
Chang Gung Medical Foundation Chang Gung Memorial Hospital at Keelung
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chang Gung University CGU, Chang Gung Medical Foundation Chang Gung Memorial Hospital at Keelung filed Critical Chang Gung University CGU
Publication of CN113768619A publication Critical patent/CN113768619A/zh
Application granted granted Critical
Publication of CN113768619B publication Critical patent/CN113768619B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • A61B2034/104Modelling the effect of the tool, e.g. the effect of an implanted prosthesis or for predicting the effect of ablation or burring
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/108Computer aided selection or customisation of medical implants or cutting guides
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/372Details of monitor hardware

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Robotics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Wire Bonding (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明提供一种路径定位方法、信息显示装置、存储介质及集成电路芯片,该方法根据一信息显示装置提供的与一实际手术对象相关的多个影像图片找出一呈现一病灶的目标影像图片并在病灶上决定一手术目标点,且建构出呈现该手术目标点的一三维虚拟影像,并将该三维虚拟影像叠合在该实际手术对象影像上以显示一叠合后影像,且于该叠合后影像上产生一对应于该实际手术对象的表面的一实际入刀点的虚拟入刀点,并使该虚拟入刀点与该手术目标点连成一入刀路径,并显示由该手术目标点朝该虚拟入刀点方向沿着该入刀路径从该入刀点向外直线延伸的一入刀导引路径。由此,可协助手术操作者规划手术路径,而有助于手术的顺利进行并提高手术成功率。

Description

路径定位方法、信息显示装置、存储介质及集成电路芯片
技术领域
本发明涉及一种外科手术定位方法,特别是涉及一种手术路径定位方法、信息显示装置、计算机可读取的存储介质及专用集成电路芯片。
背景技术
目前要进行脑部手术,都会先拍摄脑部断层扫描影像,以确认手术目标(病灶),例如脑部积水处,而要确认手术目标,目前的做法主要有:1、通过计算机断层扫描(CT)、磁振造影(MRI)、超声波摄影(Ultrasound imaging)等取得的DICOM影像图片,找到手术目标的大概位置;2、利用光学导航系统即时显示DICOM影像图片,以找寻手术目标位置;3、利用扩增实境(AR)或混合实境(MR)技术直接将DICOM影像图片重叠于手术对象上。但是当找出手术目标后,由于现行系统并无法即时显示DICOM影像的量化信息,因此医师仍需凭借自身的开刀经验自行找出入刀点以及由入刀点前进至手术目标的入刀路径。
发明内容
本发明的目的是提供一种至少能解决上述问题的手术路径定位方法以及实现该方法的信息显示装置、计算机可读取的存储介质和专用集成电路芯片,其能将手术对象的三维虚拟影像重叠于手术对象上,并自动根据手术对象上的一手术目标点决定一入刀点以及产生一由入刀点前进至手术目标点的入刀路径以及由入刀点向外延伸的一入刀导引路径,让操作者可依循该入刀导引路径使手术器械从入刀点进入手术对象并保持手术器械往正确的入刀路径移动至手术目标点,而有助于手术的顺利进行。
本发明的手术路径定位方法,包括:(A)一信息显示装置提供与一实际手术对象相关的多个影像图片,以供从该等影像图片中找出一目标影像图片并显示该目标影像图片,该目标影像图片呈现出位于该实际手术对象内部的一病灶,且该目标影像图片可供点选以在该病灶上决定一手术目标点;(B)该信息显示装置的一三维影像建构模块根据呈现该病灶及该手术目标点的该目标影像图片与该等影像图片,建构出呈现该手术目标点且与该实际手术对象对应的一三维虚拟影像;(C)该信息显示装置的一影像叠合模块在该信息显示装置拍摄该实际手术对象并显示所拍摄的该实际手术对象影像时,将该三维虚拟影像叠合在该实际手术对象影像上而产生一呈现该手术目标点的叠合后影像,且令该信息显示装置显示该叠合后影像;及(D)该信息显示装置的一入刀路径产生模块根据该叠合后影像上呈现的该手术目标点及该等影像图片,于该叠合后影像上产生一对应于该实际手术对象的表面的一实际入刀点的虚拟入刀点,并使该虚拟入刀点与该手术目标点连成一直线,并显示由该手术目标点朝该虚拟入刀点方向沿着该直线从该虚拟入刀点向外直线延伸的一入刀导引路径。
在本发明的一些实施态样中,该三维虚拟影像包含与该实际手术对象对应的一第一三维虚拟影像和与该手术目标点对应的一第二三维虚拟影像,该影像叠合模块将该第一三维虚拟影像及该第二三维虚拟影像叠合在该实际手术对象影像上而产生呈现该手术目标点的该叠合后影像,且令该显示器显示该叠合后影像以显示该手术目标点的实际位置。
在本发明的一些实施态样中,该信息显示装置的一入刀侦测模块侦测一手术器械是否出现在该信息显示装置显示的该叠合后影像画面中,且判断该手术器械的一尖端点与该虚拟入刀点是否相叠合、判断该手术器械的一尖端点与该手术目标点是否相叠合、判断该手术器械与该入刀导引路径是否相叠合及/或判断该手术器械的空间角度与该入刀导引路径的空间角度是否相叠合,并根据判断结果输出一反馈信息。
在本发明的一些实施态样中,该信息显示装置的一入刀侦测模块侦测到一手术器械出现在该信息显示装置显示的该叠合后影像画面时,该入刀侦测模块即时产生与该手术器械对应的一虚拟手术器械,并根据该手术器械在该叠合后影像画面中的位置,对应显示该虚拟手术器械于该叠合后影像画面中;且该入刀侦测模块判断该虚拟手术器械的一尖端点是否与该虚拟入刀点相叠合、判断该虚拟手术器械的一尖端点与该手术目标点是否相叠合、判断该虚拟手术器械与该入刀导引路径是否相叠合及/或判断该虚拟手术器械的空间角度与该入刀导引路径的空间角度是否相叠合,并根据判断结果输出一反馈信息。
在本发明的一些实施态样中,该反馈信息包含影像反馈、声音反馈、触觉反馈至少其中之一,影像反馈包含产生颜色变化及出现新信息至少其中之一,声音反馈包含声音提示,触觉反馈是该信息显示装置通过传送一反馈信号至一穿戴式电子装置,使该穿戴式电子装置产生震动。
再者,本发明实现上述方法的信息显示装置,包括一储存单元、一显示器、一影像撷取单元及一处理器;其中该储存单元储存与一实际手术对象相关的多个影像图片;该处理器与该储存单元、该显示器及该影像撷取单元电连接,并可供操作以从该储存单元储存的该等影像图片中找出一目标影像图片并令该显示器显示该目标影像图片,该目标影像图片呈现出位于该实际手术对象内部的一病灶,且该处理器令该目标影像图片可供点选以在该病灶上决定一手术目标点;且该处理器包含一三维影像建构模块、一影像叠合模块及一入刀路径产生模块,其中,该三维影像建构模块根据呈现该手术目标点的该目标影像图片与该等影像图片,建构出呈现该手术目标点且与该实际手术对象对应的一三维虚拟影像;该影像叠合模块判断该显示器显示该影像撷取单元所拍摄的该实际手术对象的一实际手术对象影像时,将该三维虚拟影像叠合在该实际手术对象影像上而产生一呈现该手术目标点的叠合后影像,且令该显示器显示该叠合后影像;该入刀路径产生模块根据该叠合后影像上呈现的该手术目标点及该储存单元储存的该等影像图片,于该叠合后影像上产生一对应于该实际手术对象的表面的一实际入刀点的虚拟入刀点,并使该虚拟入刀点与该手术目标点连成一直线,并令该显示器显示由该手术目标点朝该虚拟入刀点方向沿着该直线从该虚拟入刀点向外直线延伸的一入刀导引路径。
在本发明的一些实施态样中,该处理器还包含一入刀侦测模块,该入刀侦测模块判断该影像撷取单元拍摄到一手术器械,且判断该手术器械的一尖端点与该虚拟入刀点是否相叠合、判断该手术器械的一尖端点与该手术目标点是否相叠合、判断该手术器械与该入刀导引路径是否相叠合及/或判断该手术器械的空间角度与该入刀导引路径的空间角度是否相叠合,并根据判断结果输出一反馈信息。
在本发明的一些实施态样中,该处理器还包含一入刀侦测模块,该入刀侦测模块判断该影像撷取单元拍摄到一手术器械时,该入刀侦测模块即时产生与该手术器械对应的一虚拟手术器械,并根据该手术器械在空间中的位置,对应显示该虚拟手术器械于该叠合后影像画面中;且该入刀侦测模块判断该虚拟手术器械的一尖端点与该虚拟入刀点是否相叠合、判断该虚拟手术器械的一尖端点与该手术目标点是否相叠合、判断该虚拟手术器械与该入刀导引路径是否相叠合及/或判断该虚拟手术器械的空间角度与该入刀导引路径的空间角度是否相叠合,并根据判断结果输出一反馈信息。
在本发明的一些实施态样中,该反馈信息包含影像反馈、声音反馈、触觉反馈至少其中之一,影像反馈包含产生颜色变化及出现新信息至少其中之一,声音反馈包含声音提示,触觉反馈是该处理器通过有线或无线方式传送一反馈信号至一穿戴式电子装置,使该穿戴式电子装置产生震动。
此外,本发明实现上述方法的计算机可读取的存储介质,其中储存一包含一三维影像建构模块、一影像叠合模块、一入刀路径产生模块及一入刀侦测模块的软件程序,且该软件程序被一电子装置载入并执行时,该电子装置能完成如上所述的手术路径定位方法。
另外,本发明实现上述方法的专用集成电路芯片,其中整合有一三维影像建构模块、一影像叠合模块、一入刀路径产生模块及一入刀侦测模块,且该专用集成电路芯片被应用于一电子装置时,能使该电子装置完成如上所述的手术路径定位方法。
本发明的有益效果在于:通过将实际手术对象的三维虚拟影像重叠于实际手术对象影像上,并自动根据该目标影像图片呈现的该病灶及该手术目标点决定该入刀点并产生由该入刀点前进至该手术目标点的该直线(入刀路径)以及由该入刀点向外直线延伸的该入刀导引路径,让手术操作者可事先得知最佳的手术入刀路径,以在手术中能依循该入刀导引路径使手术器械的尖端点准确定位在该入刀点,再由该入刀点依循该入刀路径进入实际手术对象内部并导引手术器械的尖端点往正确的入刀路径移动至该手术目标点,由此,协助手术操作者规划手术路径,而有助于手术的顺利进行并提高手术成功率。
附图说明
图1是本发明手术路径定位方法的一实施例的主要流程图;
图2是本实施例侦测手术器械的位置及移动路径是否与规划的入刀点及入刀路径相叠合的流程图;
图3是本发明信息显示装置的一实施例的主要硬件方块及模块方块示意图;
图4是本实施例的一目标影像图片示意图;
图5是本实施例产生的对应于该实际手术对象且呈现该手术目标点位置的三维虚拟影像示意图;
图6是说明本实施例将图5显示的三维虚拟影像叠合在该实际手术对象影像上而产生的一叠合后影像的示意图;
图7是说明本实施例还在该叠合后影像上产生一沿该直线从该虚拟入刀点向外直线延伸的一入刀导引路径的示意图;
图8是说明本实施例侦测一手术器械的尖端点是否与该实际入刀点相叠合的示意图;
图9是说明本实施例侦测到手术器械偏离入刀导引路径时会以影像反馈方式显示一反馈信息的示意图;
图10是说明本实施例侦测到手术器械与入刀导引路径相叠合时会以影像反馈方式显示一反馈信息的示意图。
具体实施方式
下面结合附图及实施例对本发明进行详细说明:
在本发明被详细描述之前,应当注意在以下的说明内容中,类似的元件是以相同的编号来表示。
参阅图1及图2,是本发明手术路径定位方法的一实施例的主要流程步骤,且如图3所示,本实施例的方法是通过本发明的一信息显示装置3来实现;该信息显示装置3可以是但不限于桌上型个人计算机、平板计算机、智能手机或头戴式显示装置(例如扩增实境(AR)眼镜、扩增实境(AR)头戴装置(AR headset)等),且其主要包括一显示器31、一储存单元32、一与该显示器31及该储存单元32电连接的处理器33以及一与该处理器33电连接的影像撷取单元34,例如摄影镜头。
该处理器33主要包括一三维影像建构模块331、一影像叠合模块332、一入刀路径产生模块333及一入刀侦测模块334,且前述的该些模块331~334可以是软件程序而能被该处理器33载入并执行,以完成图1及图2所示的方法流程;或者,上述该些模块331~334也可以被整合在一或多个专用集成电路(Application-specific integrated circuit,缩写为ASIC)芯片或一可编程逻辑装置(Programmable Logic Device,缩写为PLD)中,而使包含该(该等)专用集成电路芯片或该可编程逻辑装置的该处理器33能完成图1及图2所示的方法流程。又或者,上述该些模块331~334也可以是被烧录在该处理器33中的一固件,该处理器33执行该固件而能完成图1及图2所示的方法流程。
由此,当医师要对一病患的一实际手术对象1(参见图6),例如病患的头部进行手术,比如病患的脑部有一病灶,例如脑积水而必须针对脑部的病灶(脑积水)部分进行手术以抽取积水时,如图1的步骤S1,该信息显示装置3的该处理器33能根据使用者的操作读取预先载入且储存于该储存单元32中的与该实际手术对象(头部)1相关的多个影像图片,并令该显示器31根据使用者的操作显示该等影像图片。且该等影像图片例如是该实际手术对象(头部)1经由计算机断层扫描(CT)、磁振造影(MRI)、超声波摄影(Ultrasound imaging)等取得的二维切面DICOM(Digital Imaging and Communications in Medicine(医疗数字影像传输协定),简称DICOM)影像,所以该等影像图片可同时或分别包含血管、神经、骨头等信息。
因此,医师可从该信息显示装置3显示的该等影像图片中找出如图4所示的一目标影像图片,该目标影像图片呈现出位于该实际手术对象1内部(脑部)的一病灶(积水处)41,且该信息显示装置3的该处理器33令该目标影像图片可供点选以在该病灶41上决定一手术目标点42,亦即该处理器33会判断该病灶41上是否被设定一目标点,若是,则判定该目标点为该手术目标点42并将该手术目标点42显示在该病灶上。此外,该处理器33也可利用事先训练好的人工智能模块(图未示),例如类神经网路从该等影像图片中自动找出呈现出位于该实际手术对象1内部(脑部)的一病灶(积水处)41的该目标影像图片,并自动地设定该手术目标点42,然后,医师可以决定是否接受人工智能模块设定的该手术目标点42或者对该手术目标点42进行微调。
接着,如图1的步骤S2,该处理器33中的该三维影像建构模块331根据图4所示的呈现该病灶41及该手术目标点42的该目标影像图片与储存于该储存单元32中的该等影像图片,建构出呈现该手术目标点42且与该实际手术对象1对应的一三维虚拟影像5,如图5所示。例如该三维影像建构模块331可以应用(但不限于)Unity软件先根据该等影像图片建构出与该实际手术对象1对应的一初始三维虚拟影像,且该初始三维虚拟影像中呈现该病灶41的位置,然后该三维影像建构模块331再根据该目标影像图片上呈现的该病灶41及该手术目标点42的位置,将该手术目标点42呈现在该初始三维虚拟影像中,而产生呈现该手术目标点42的该三维虚拟影像5。
接着,如图1的步骤S3,当该处理器33中的该影像叠合模块332发现该信息显示装置3的该影像撷取单元34拍摄到该实际手术对象1并显示所拍摄的该实际手术对象影像1’时,如图6所示,该影像叠合模块332将该三维虚拟影像5叠合在该实际手术对象影像1’上,而产生一呈现该手术目标点42的叠合后影像6,且令该信息显示装置3的该显示器31显示该叠合后影像6。具体而言,该三维虚拟影像包含与该实际手术对象1对应的一第一三维虚拟影像和与该手术目标点42对应的一第二三维虚拟影像,且该影像叠合模块332将该第一三维虚拟影像及该第二三维虚拟影像叠合在该实际手术对象影像1’上而产生呈现该手术目标点42的该叠合后影像6,且令该显示器31显示该叠合后影像6,以让外科手术医师从显示的该叠合后影像6得知该手术目标点42的实际位置。
具体而言,该影像叠合模块332可以(但不限于)应用一光学定位系统来实现影像叠合,且该光学定位系统可采用NDI Polaris Vicra optical tracking systems、NDIPolaris Spectra optical tracking systems,ART tracking systems,ClaroNavMicronTracker等等,但不以此为限。
此外,该影像叠合模块332也可以应用例如Vuforia扩增实境平台所开发的一影像定位系统来替代该光学定位系统,且由于影像叠合方法已是扩增实境(AR)和混合实境(MR)领域的已知技术,故于此不予详述。
然后,如图1的步骤S4及图6所示,该处理器33中的该入刀路径产生模块333会根据该叠合后影像6上呈现的该手术目标点42及该等影像图片,于该叠合后影像6的虚拟头皮上产生一对应于该实际手术对象1的表面(例如头部的头皮表面)的一实际入刀点43的虚拟入刀点43’,并使该虚拟入刀点43’与该手术目标点42连成一直线44,并且如图7所示,产生并显示由该手术目标点42朝该虚拟入刀点43’方向沿着该直线44从该虚拟入刀点43’向外直线延伸的一入刀导引路径45。其中该直线44是一入刀路径,且该入刀导引路径45可以是一细长直线或一圆柱(圆筒)状、圆锥状延伸的粗直线。
其中,该虚拟入刀点43’的产生方式如下。外科手术医师可在病人头部表面,直接根据习惯或判断决定一个实际入刀点43,或者参考该信息显示装置3显示的该叠合后影像6中的该手术目标点42之后,决定一个实际入刀点43;在上述实际入刀点43决定后,如图6所示,外科手术医师使用一手术器械7的尖端71点上述的实际入刀点43时,该入刀路径产生模块333于该叠合后影像6的虚拟头皮上产生一对应于上述的实际入刀点43的虚拟入刀点43’。然后,该入刀路径产生模块333即可根据该手术目标点42与该虚拟入刀点43’产生该入刀导引路径45;外科手术医师可以根据该入刀导引路径45,考虑是否要更改入刀点,若是,则重新决定一入刀点,让该入刀路径产生模块333重新根据该手术目标点42与新的该实际入刀点43重新产生一条入刀导引路径45。值得一提的是,本实施例的该入刀路径产生模块333亦可引入人工智能,以预先建构的一人工智能模型自动产生该虚拟入刀点43’。此外,该信息显示装置3还会记录上述步骤中产生的该三维虚拟影像5、该叠合后影像6以及在该叠合后影像6上产生的入刀导引路径45等信息。
由此,如图2的步骤S21所示,当该信息显示装置3的该显示器31显示如图7所示的该叠合后影像6及位于该叠合后影像6上的直线(入刀路径)44以及由该直线(入刀路径)44向外延伸的该入刀导引路径45时,如图2的步骤S22及图8所示,该处理器33的该入刀侦测模块334会通过该影像撷取单元34所撷取的影像画面判断(侦测)是否有一手术器械7出现在该显示器31显示的该叠合后影像6画面中,若是,则如图2的步骤S23及图9所示,该入刀侦测模块334进一步判断出现在该叠合后影像6画面中的该手术器械影像7’的一尖端点71’(对应该手术器械7的尖端点71)与该虚拟入刀点43’是否相叠合,以及/或者判断该手术器械影像7’(对应该手术器械7)与该入刀导引路径45是否相叠合,以及/或者判断该手术器械影像7’(对应该手术器械7)的空间角度与该入刀导引路径45的空间角度是否相叠合,以及/或者判断该手术器械影像7’的该尖端点71’(对应该手术器械7的尖端点71)是否已沿着该直线44(入刀路径)接近该手术目标点42并与该手术目标点42相叠合,并执行步骤S24,根据判断结果输出一反馈信息。
具体而言,该入刀侦测模块334可通过上述的该光学定位系统或影像定位系统即时取得外科手术医师或相关人员操作的该手术器械7的一空间坐标信息,而得知该手术器械7在空间中的位置,进而判断该手术器械影像7’的该尖端点71’是否与该虚拟入刀点43’或该手术目标点42相叠合,以及判断该手术器械影像7’的路径或空间角度是否与该入刀导引路径45或其空间角度相叠合,并根据判断结果适时输出相对应的该反馈信息。
此外,值得一提的是,该三维影像建构模块331也可配合该入刀侦测模块334,在该入刀侦测模块334侦测到该手术器械7出现在该显示器31显示的该叠合后影像6画面内时,该三维影像建构模块331可立即建构一与该手术器械7相对应的虚拟手术器械(虚拟物件,图未示),且该入刀侦测模块334根据该手术器械7相对于该实际手术目标1的一相对坐标,将该虚拟手术器械显示在该叠合后影像6画面,因此,该虚拟手术器械在影像画面中的形态及位置相当于上述的该手术器械影像7’,进而使该显示器31即时显示该虚拟手术器械的尖端点是否与该虚拟入刀点43’或该手术目标点42相叠合,以及即时显示该虚拟手术器械的路径或空间角度是否与该入刀导引路径45或其空间角度相叠合,而以虚拟视觉化的方式呈现手术器械7与开刀目标及入刀路径之间的叠合关系。
其中,该反馈信息包含但不限于影像反馈、声音反馈、触觉反馈至少其中之一,且影像反馈包含但不限于产生颜色变化及出现新信息至少其中之一;以图9为例,当该手术器械影像7’的尖端点71’与该虚拟入刀点43’相叠合,且该入刀侦测模块334判断该手术器械影像7’与该入刀导引路径45是否相叠合时,在该显示器31显示画面的右上方会出现一圆形9且在圆形9的正中央具有一中心点91,当该入刀侦测模块334判断该手术器械影像7’与该入刀导引路径45并未相叠合时,该圆形9内会出现一条偏离该中心点91的线段92,该线段92的长度代表该手术器械7偏离该入刀导引路径45的距离,亦即此长度的大小代表该手术器械7的空间方位与该入刀导引路径45的空间方位的偏差大小。该线段92的偏斜方向则代表该手术器械7偏离该入刀导引路径45的偏斜方向。
反之,如图10所示,当该入刀侦测模块334判断该手术器械影像7’与该入刀导引路径45的空间方位相叠合时,该圆形9内即不会出现偏离该中心点91的线段92,而只会显示该中心点91,代表该手术器械7与该入刀导引路径45的空间方位相叠合而未偏离该入刀导引路径45。由此,手持该手术器械7的医师即能够通过同步观察该圆形9内的线段92的变化调整该手术器械7,以使该手术器械7处于正确的手术方位上。
而声音反馈则包含声音提示,例如将上述以视觉化表示该手术器械7的尖端点71是否与该实际入刀点43或该手术目标点42相叠合,以及该手术器械7是否与该入刀导引路径45或其空间角度相叠合等,以发出声音信息的形式表示,例如该处理器33令该信息显示装置3的扬声器输出“手术器械已偏离入刀导引路径”、“手术器械接近入刀导引路径”、“手术器械与入刀导引路径相叠合”等语音,而通过即时输出语音方式导引手持该手术器械7的医师能够随时调整该手术器械7,以使该手术器械7处于正确的手术方位或位置上。
触觉反馈则是例如该处理器33通过该信息显示装置3的一信号传输界面以有线或无线方式传送一反馈信号至一供手术医师穿戴的穿戴式电子装置,使该穿戴式电子装置产生震动,而让穿载该穿戴式电子装置的医师能够更直觉地查觉该手术器械7是否处于正确的手术入刀方位、位置及/或路径上。其中,该穿戴式电子装置可以是但不限于放在医师口袋的智能手机、戴在手上的智能手表、智能手环或穿戴式Beacon(信标),医师另一只手(左手)拿的遥控棒(类似电玩Wii的遥控棒)、挂在医师脖子上的智能项链、戴在医师头上的智能眼镜等。
综上所述,上述实施例通过将实际手术对象1的三维虚拟影像5重叠于实际手术对象影像1’上,并根据该目标影像图片呈现的该手术目标点42及于该实际手术对象1的表面决定的一实际入刀点43产生该虚拟入刀点43’,以及产生一由该虚拟入刀点43前进至手术目标点42的该入刀路径(直线)44以及由该虚拟入刀点43向外直线延伸的该入刀导引路径45,让手术操作者可事先得知最佳的手术入刀路径,以在手术中能依循该入刀导引路径45使手术器械7的尖端点71准确定位在该实际入刀点43,再由该实际入刀点43依循该入刀路径44进入实际手术对象1内部并导引手术器械7的尖端点71往正确的入刀路径移动至该手术目标点42,由此,协助手术操作者规划手术路径,而有助于手术的顺利进行并提高手术成功率,确实达到本发明的功效与目的。
以上所述仅为本发明较佳实施例,然其并非用以限定本发明的范围,任何熟悉本项技术的人员,在不脱离本发明的精神和范围内,可在此基础上做进一步的改进和变化,因此本发明的保护范围当以本申请的权利要求书所界定的范围为准。

Claims (13)

1.一种手术路径定位方法,其特征在于,包含:
A:信息显示装置提供与实际手术对象相关的多个影像图片,以供从该多个影像图片中找出目标影像图片并显示该目标影像图片,该目标影像图片呈现出位于该实际手术对象内部的病灶,且该目标影像图片能够供点选以在该病灶上决定手术目标点;
B:该信息显示装置的三维影像建构模块根据呈现该病灶及该手术目标点的该目标影像图片与该多个影像图片,建构出呈现该手术目标点且与该实际手术对象对应的三维虚拟影像;
C:该信息显示装置的影像叠合模块在该信息显示装置拍摄该实际手术对象并显示所拍摄的该实际手术对象影像时,将该三维虚拟影像叠合在该实际手术对象影像上而产生呈现该手术目标点的叠合后影像,且令该信息显示装置显示该叠合后影像;及
D:该信息显示装置的入刀路径产生模块根据该叠合后影像上呈现的该手术目标点及该多个影像图片,于该叠合后影像上产生对应于该实际手术对象的表面的实际入刀点的虚拟入刀点,并使该虚拟入刀点与该手术目标点连成直线,并显示由该手术目标点朝该虚拟入刀点方向沿着该直线从该虚拟入刀点向外直线延伸的入刀导引路径。
2.如权利要求1所述的手术路径定位方法,其特征在于,该三维虚拟影像包含与该实际手术对象对应的第一三维虚拟影像和与该手术目标点对应的第二三维虚拟影像,该影像叠合模块将该第一三维虚拟影像及该第二三维虚拟影像叠合在该实际手术对象影像上而产生呈现该手术目标点的该叠合后影像,且令该信息显示装置显示该叠合后影像以显示该手术目标点的实际位置。
3.如权利要求1所述的手术路径定位方法,其特征在于,该信息显示装置的入刀侦测模块侦测手术器械是否出现在该信息显示装置显示的该叠合后影像画面中,且判断该手术器械的尖端点与该虚拟入刀点是否相叠合、判断该手术器械的尖端点与该手术目标点是否相叠合、判断该手术器械与该入刀导引路径是否相叠合及/或判断该手术器械的空间角度与该入刀导引路径的空间角度是否相叠合,并根据判断结果输出反馈信息。
4.如权利要求1所述的手术路径定位方法,其特征在于,该信息显示装置的入刀侦测模块侦测到手术器械出现在该信息显示装置显示的该叠合后影像画面时,该入刀侦测模块即时产生与该手术器械对应的虚拟手术器械,并根据该手术器械在该叠合后影像画面中的位置,对应显示该虚拟手术器械于该叠合后影像画面中;且该入刀侦测模块判断该虚拟手术器械的尖端点是否与该虚拟入刀点相叠合、判断该虚拟手术器械的尖端点与该手术目标点是否相叠合、判断该虚拟手术器械与该入刀导引路径是否相叠合及/或判断该虚拟手术器械的空间角度与该入刀导引路径的空间角度是否相叠合,并根据判断结果输出反馈信息。
5.如权利要求3或4所述的手术路径定位方法,其特征在于,该反馈信息包含影像反馈、声音反馈、触觉反馈至少其中之一,影像反馈包含产生颜色变化及出现新信息至少其中之一,声音反馈包含声音提示,触觉反馈是该信息显示装置通过传送反馈信号至穿戴式电子装置,使该穿戴式电子装置产生震动。
6.一种信息显示装置,其特征在于,包含:
储存单元,其中储存与实际手术对象相关的多个影像图片;
显示器;
影像撷取单元;及
处理器,其与该储存单元、该显示器及该影像撷取单元电连接,并能够供操作以从该储存单元储存的该多个影像图片中找出目标影像图片并令该显示器显示该目标影像图片,该目标影像图片呈现出位于该实际手术对象内部的病灶,且该处理器令该目标影像图片能够供点选以在该病灶上决定手术目标点;且该处理器包含三维影像建构模块、影像叠合模块及入刀路径产生模块,其中
该三维影像建构模块根据呈现该病灶及该手术目标点的该目标影像图片与该多个影像图片,建构出呈现该手术目标点且与该实际手术对象对应的三维虚拟影像;
该影像叠合模块判断该显示器显示该影像撷取单元所拍摄的该实际手术对象的实际手术对象影像时,将该三维虚拟影像叠合在该实际手术对象影像上而产生呈现该手术目标点的叠合后影像,且令该显示器显示该叠合后影像;
该入刀路径产生模块根据该叠合后影像上呈现的该手术目标点及该储存单元储存的该多个影像图片,于该叠合后影像上产生对应于该实际手术对象的表面的实际入刀点的虚拟入刀点,并使该虚拟入刀点与该手术目标点连成直线,并令该显示器显示由该手术目标点朝该虚拟入刀点方向沿着该直线从该虚拟入刀点向外直线延伸的入刀导引路径。
7.如权利要求6所述的信息显示装置,其特征在于,该三维虚拟影像包含与该实际手术对象对应的第一三维虚拟影像和与该手术目标点对应的第二三维虚拟影像,该影像叠合模块将该第一三维虚拟影像及该第二三维虚拟影像叠合在该实际手术对象影像上而产生呈现该手术目标点的该叠合后影像,且令该显示器显示该叠合后影像以显示该手术目标点的实际位置。
8.如权利要求6所述的信息显示装置,其特征在于,该处理器还包含入刀侦测模块,该入刀侦测模块判断该影像撷取单元拍摄到手术器械,且判断该手术器械的尖端点与该虚拟入刀点是否相叠合、判断该手术器械的尖端点与该手术目标点是否相叠合、判断该手术器械与该入刀导引路径是否相叠合及/或判断该手术器械的空间角度与该入刀导引路径的空间角度是否相叠合,并根据判断结果输出反馈信息。
9.如权利要求6所述的信息显示装置,其特征在于,该处理器还包含入刀侦测模块,该入刀侦测模块判断该影像撷取单元拍摄到手术器械时,该入刀侦测模块即时产生与该手术器械对应的虚拟手术器械,并根据该手术器械在空间中的位置,对应显示该虚拟手术器械于该叠合后影像画面中;且该入刀侦测模块判断该虚拟手术器械的尖端点与该虚拟入刀点是否相叠合、判断该虚拟手术器械的尖端点与该手术目标点是否相叠合、判断该虚拟手术器械与该入刀导引路径是否相叠合及/或判断该虚拟手术器械的空间角度与该入刀导引路径的空间角度是否相叠合,并根据判断结果输出反馈信息。
10.如权利要求8或9所述的信息显示装置,其特征在于,该反馈信息包含影像反馈、声音反馈、触觉反馈至少其中之一,影像反馈包含产生颜色变化及出现新信息至少其中之一,声音反馈包含声音提示,触觉反馈是该处理器通过有线或无线方式传送反馈信号至穿戴式电子装置,使该穿戴式电子装置产生震动。
11.一种计算机可读取的存储介质,其存储用于使计算机执行如权利要求1至5中任一项所述的手术路径定位方法的程序。
12.一种专用集成电路芯片,其中整合有三维影像建构模块、影像叠合模块及入刀路径产生模块,且该专用集成电路芯片被应用于电子装置时,能使该电子装置完成如权利要求1或2所述的手术路径定位方法。
13.如权利要求12所述的专用集成电路芯片,其特征在于,该专用集成电路芯片还整合入刀侦测模块,使得该专用集成电路芯片被应用于所述电子装置时,能使该电子装置完成如权利要求3至5其中任一项所述的手术路径定位方法。
CN202110129401.7A 2020-06-10 2021-01-29 路径定位方法、信息显示装置、存储介质及集成电路芯片 Active CN113768619B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW109119432 2020-06-10
TW109119432A TWI790447B (zh) 2020-06-10 2020-06-10 手術路徑定位方法、資訊顯示裝置、電腦可讀取的記錄媒體及特殊應用積體電路晶片

Publications (2)

Publication Number Publication Date
CN113768619A true CN113768619A (zh) 2021-12-10
CN113768619B CN113768619B (zh) 2024-07-02

Family

ID=78824077

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110129401.7A Active CN113768619B (zh) 2020-06-10 2021-01-29 路径定位方法、信息显示装置、存储介质及集成电路芯片

Country Status (3)

Country Link
US (1) US11806088B2 (zh)
CN (1) CN113768619B (zh)
TW (1) TWI790447B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116343538A (zh) * 2023-03-20 2023-06-27 中山大学附属第六医院 基于可穿戴设备的手术教学实现方法及装置
CN116919599A (zh) * 2023-09-19 2023-10-24 中南大学 一种基于增强现实的触觉可视化手术导航系统

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022146996A1 (en) * 2020-12-30 2022-07-07 Intuitive Surgical Operations, Inc. Systems for updating a graphical user interface based upon intraoperative imaging

Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW381008B (en) * 1998-05-07 2000-02-01 Tzeng Ching Shiou Guiding system for head surgical operation and the method thereof
US6671538B1 (en) * 1999-11-26 2003-12-30 Koninklijke Philips Electronics, N.V. Interface system for use with imaging devices to facilitate visualization of image-guided interventional procedure planning
CN101410066A (zh) * 2006-03-30 2009-04-15 皇家飞利浦电子股份有限公司 定标方法、定标设备、计算机可读介质及程序单元
CN102525660A (zh) * 2012-02-17 2012-07-04 南通爱普医疗器械有限公司 具有颅脑部病灶自动识别功能的手术导航仪
US20140081127A1 (en) * 2012-09-19 2014-03-20 The Regents Of The University Of Michigan Advanced Intraoperative Neural Targeting System and Method
CN106974730A (zh) * 2017-04-01 2017-07-25 上海术理智能科技有限公司 基于虚拟现实和医学影像的手术模拟方法、装置和设备
CN107928791A (zh) * 2017-12-07 2018-04-20 上海钛米机器人科技有限公司 一种机器人辅助穿刺方法、系统及装置
CN108135563A (zh) * 2016-09-20 2018-06-08 桑托沙姆·罗伊 光和阴影引导的针定位系统和方法
CN108210073A (zh) * 2016-12-15 2018-06-29 神农资讯股份有限公司 手术导引系统及其器械导引方法
CN108294814A (zh) * 2018-04-13 2018-07-20 首都医科大学宣武医院 一种基于混合现实的颅内穿刺定位方法
CN108784831A (zh) * 2018-04-14 2018-11-13 深圳市图智能科技有限公司 一种基于三维影像的穿刺参数生成方法
CN109549689A (zh) * 2018-08-21 2019-04-02 池嘉昌 一种穿刺辅助引导装置、系统及方法
CN109925053A (zh) * 2019-03-04 2019-06-25 杭州三坛医疗科技有限公司 手术路径的确定方法、装置和系统、可读存储介质
CN109925057A (zh) * 2019-04-29 2019-06-25 苏州大学 一种基于增强现实的脊柱微创手术导航方法及系统
US10383692B1 (en) * 2018-04-13 2019-08-20 Taiwan Main Orthopaedic Biotechnology Co., Ltd. Surgical instrument guidance system
CN110537960A (zh) * 2018-05-29 2019-12-06 上海联影医疗科技有限公司 穿刺路径的确定方法、存储设备及机器人辅助手术系统
US20190380792A1 (en) * 2018-06-19 2019-12-19 Tornier, Inc. Virtual guidance for orthopedic surgical procedures
US20200060767A1 (en) * 2016-03-12 2020-02-27 Philipp K. Lang Augmented Reality System Configured for Coordinate Correction or Re-Registration Responsive to Spinal Movement for Spinal Procedures, Including Intraoperative Imaging, CT Scan or Robotics
US20200085511A1 (en) * 2017-05-05 2020-03-19 Scopis Gmbh Surgical Navigation System And Method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2797302C (en) * 2010-04-28 2019-01-15 Ryerson University System and methods for intraoperative guidance feedback
MY179739A (en) * 2013-03-15 2020-11-12 Synaptive Medical Inc Planning, navigation and simulation systems and methods for minimally invasive therapy
US11227427B2 (en) * 2014-08-11 2022-01-18 Covidien Lp Treatment procedure planning system and method
EP3720354A4 (en) * 2017-12-04 2021-07-28 Covidien LP AUTOMATIC SEGMENTATION OF ABLATION ANTENNAS FROM CT IMAGES
TWI741196B (zh) * 2018-06-26 2021-10-01 華宇藥品股份有限公司 整合擴增實境之手術導航方法及系統
IL297302A (en) * 2020-04-19 2022-12-01 Xact Robotics Ltd Methods and systems based on information analysis for optimizing the insertion of a medical device

Patent Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW381008B (en) * 1998-05-07 2000-02-01 Tzeng Ching Shiou Guiding system for head surgical operation and the method thereof
US6671538B1 (en) * 1999-11-26 2003-12-30 Koninklijke Philips Electronics, N.V. Interface system for use with imaging devices to facilitate visualization of image-guided interventional procedure planning
CN101410066A (zh) * 2006-03-30 2009-04-15 皇家飞利浦电子股份有限公司 定标方法、定标设备、计算机可读介质及程序单元
CN102525660A (zh) * 2012-02-17 2012-07-04 南通爱普医疗器械有限公司 具有颅脑部病灶自动识别功能的手术导航仪
US20140081127A1 (en) * 2012-09-19 2014-03-20 The Regents Of The University Of Michigan Advanced Intraoperative Neural Targeting System and Method
US20200060767A1 (en) * 2016-03-12 2020-02-27 Philipp K. Lang Augmented Reality System Configured for Coordinate Correction or Re-Registration Responsive to Spinal Movement for Spinal Procedures, Including Intraoperative Imaging, CT Scan or Robotics
CN108135563A (zh) * 2016-09-20 2018-06-08 桑托沙姆·罗伊 光和阴影引导的针定位系统和方法
CN108210073A (zh) * 2016-12-15 2018-06-29 神农资讯股份有限公司 手术导引系统及其器械导引方法
CN106974730A (zh) * 2017-04-01 2017-07-25 上海术理智能科技有限公司 基于虚拟现实和医学影像的手术模拟方法、装置和设备
US20200085511A1 (en) * 2017-05-05 2020-03-19 Scopis Gmbh Surgical Navigation System And Method
CN107928791A (zh) * 2017-12-07 2018-04-20 上海钛米机器人科技有限公司 一种机器人辅助穿刺方法、系统及装置
CN108294814A (zh) * 2018-04-13 2018-07-20 首都医科大学宣武医院 一种基于混合现实的颅内穿刺定位方法
US10383692B1 (en) * 2018-04-13 2019-08-20 Taiwan Main Orthopaedic Biotechnology Co., Ltd. Surgical instrument guidance system
CN108784831A (zh) * 2018-04-14 2018-11-13 深圳市图智能科技有限公司 一种基于三维影像的穿刺参数生成方法
CN110537960A (zh) * 2018-05-29 2019-12-06 上海联影医疗科技有限公司 穿刺路径的确定方法、存储设备及机器人辅助手术系统
US20190380792A1 (en) * 2018-06-19 2019-12-19 Tornier, Inc. Virtual guidance for orthopedic surgical procedures
CN109549689A (zh) * 2018-08-21 2019-04-02 池嘉昌 一种穿刺辅助引导装置、系统及方法
CN109925053A (zh) * 2019-03-04 2019-06-25 杭州三坛医疗科技有限公司 手术路径的确定方法、装置和系统、可读存储介质
CN109925057A (zh) * 2019-04-29 2019-06-25 苏州大学 一种基于增强现实的脊柱微创手术导航方法及系统

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116343538A (zh) * 2023-03-20 2023-06-27 中山大学附属第六医院 基于可穿戴设备的手术教学实现方法及装置
CN116919599A (zh) * 2023-09-19 2023-10-24 中南大学 一种基于增强现实的触觉可视化手术导航系统
CN116919599B (zh) * 2023-09-19 2024-01-09 中南大学 一种基于增强现实的触觉可视化手术导航系统

Also Published As

Publication number Publication date
TW202145970A (zh) 2021-12-16
CN113768619B (zh) 2024-07-02
US20210386483A1 (en) 2021-12-16
US11806088B2 (en) 2023-11-07
TWI790447B (zh) 2023-01-21

Similar Documents

Publication Publication Date Title
RU2740259C2 (ru) Позиционирование датчика ультразвуковой визуализации
US20190239850A1 (en) Augmented/mixed reality system and method for the guidance of a medical exam
CN113768619B (zh) 路径定位方法、信息显示装置、存储介质及集成电路芯片
JP6698824B2 (ja) 画像表示制御装置および方法並びにプログラム
JP2022017422A (ja) 拡張現実感手術ナビゲーション
TWI678181B (zh) 手術導引系統
US9681925B2 (en) Method for augmented reality instrument placement using an image based navigation system
EP4131165A1 (en) Augmented reality patient positioning using an atlas
WO2019238214A1 (en) Visualization of medical data depending on viewing-characteristics
JP2008005923A (ja) 医用ガイドシステム
CN110638525B (zh) 整合扩增实境的手术导航系统
US20230114385A1 (en) Mri-based augmented reality assisted real-time surgery simulation and navigation
EP4388734A1 (en) Stereoscopic display and digital loupe for augmented-reality near-eye display
CN114667538A (zh) 用于在外科手术环境中使用的观看系统
US11822089B2 (en) Head wearable virtual image module for superimposing virtual image on real-time image
JP6493885B2 (ja) 画像位置合せ装置、画像位置合せ装置の作動方法および画像位置合せプログラム
Eom et al. NeuroLens: Augmented reality-based contextual guidance through surgical tool tracking in neurosurgery
CN112955073A (zh) 患者观察系统
KR101988531B1 (ko) 증강현실 기술을 이용한 간병변 수술 내비게이션 시스템 및 장기 영상 디스플레이 방법
US10854005B2 (en) Visualization of ultrasound images in physical space
JP2011050583A (ja) 医療用診断装置
US10049480B2 (en) Image alignment device, method, and program
JP7417337B2 (ja) 情報処理システム、情報処理方法及びプログラム
EP4364668A1 (en) A device, computer program product and method for assisting in positioning at least one body part of a patent for an x-ray acquisition
US11771506B2 (en) Method and system for controlling dental machines

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant