CN107669340A - 3d影像手术导航机器人及其控制方法 - Google Patents
3d影像手术导航机器人及其控制方法 Download PDFInfo
- Publication number
- CN107669340A CN107669340A CN201711027808.9A CN201711027808A CN107669340A CN 107669340 A CN107669340 A CN 107669340A CN 201711027808 A CN201711027808 A CN 201711027808A CN 107669340 A CN107669340 A CN 107669340A
- Authority
- CN
- China
- Prior art keywords
- doctor
- mechanical arm
- display device
- eye
- lesion region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2063—Acoustic tracking systems, e.g. using ultrasound
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
Landscapes
- Health & Medical Sciences (AREA)
- Surgery (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Robotics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
Abstract
本发明公开一种3D影像手术导航机器人及其控制方法,该3D影像手术导航机器人包括第一机械手臂、第二机械手臂和机器人本体,第一机械手臂上设置有超声波探头,第二机械手臂上设置有3D显示器,超声波探头的外表面设置有红外定位器,机器人本体的外表面设置有传感器单元,机器人本体内设置有微控制器和存储器。本发明所述机器人通过超声波探头获取手术过程中目标组织器官的超声波图像,通过红外定位器跟踪定位目标组织器官的病变区域,方便医生手术并提高手术效率;通过传感器单元自由追踪医生的眼睛位置自动将3D显示器移动到医生所需的位置,并将超声波图像显示在3D显示器上供医生手术参考,提高手术的准确性和安全性。
Description
技术领域
本发明涉及医疗器械技术领域,尤其涉及一种3D影像手术导航机器人及其控制方法。
背景技术
手术是指使用医疗设备进行切割或切入或其它方式操作患者的皮肤、黏膜或其它组织,以处理病理状况的过程。诸如切开皮肤并且处理、重构或切除内部器官等的剖腹手术等的手术过程可能会存在失血、副作用、疼痛以及疤痕的问题,因此,手术机器人的使用目前被认为是一种受欢迎的替代方式。
目前,手术机器人不能自动识别出组织器官的病变区域,也不能自动指引医生找到病变区域,从而无法保证手术的准确性和安全性。此外,当使用手术机器人进行机器人手术时,医生可以观看显示器上显示的手术图像的同时为患者身体内部进行手术操作。然而,由于显示器的位置一般是固定的,例如在医生坐着或站立进行机器人手术的过程中,因此显示器不能根据医生的眼睛移动位置而移动,从而为医生在手术过程中观看显示器上的手术图像带来不便。
发明内容
本发明的主要目的在于提供一种3D影像手术导航机器人及其控制方法,旨在解决现有手术机器人不能自动识别组织器官的病变区域,且获取的手术图像不能根据医生的眼睛移动位置自动显示在医生眼睛前面的技术问题。
为实现上述目的,本发明提供了一种3D影像手术导航机器人,包括第一机械手臂、第二机械手臂以及机器人本体,所述第一机械手臂上设置有超声波探头,所述第二机械手臂上设置有3D显示器,所述超声波探头的外表面设置有红外定位器,所述机器人本体的外表面设置有传感器单元,所述机器人本体内设置有适于实现各种程序指令的微控制器以及适于存储多条程序指令的存储器,所述程序指令由微控制器加载并执行如下步骤:控制所述第一机械手臂的超声波探头实时摄取病人手术过程中目标组织器官的超声波图像;将目标组织器官的超声波图像与正常组织器官的参考图像作比较定位出目标组织器官的病变区域;产生一个照射在所述病变区域的手术导航指令,并控制所述红外定位器产生红外导光点;根据所述手术导航指令驱动第一机械手臂移动方向使所述红外导光点照射在所述病变区域,并控制超声波探头摄取病变区域图像;开启所述传感器单元获取医生的眼睛图像,并基于眼睛图像利用人体眼睛瞳孔分析法计算出医生的眼睛位置坐标;根据医生的眼睛位置坐标产生驱动第二机械手臂上的3D显示器移动到医生眼睛前方的驱动信号;根据驱动信号驱动所述第二机械手臂移动使3D显示器移动至医生的眼睛前方;将目标组织器官的超声波图像和病变区域图像显示显示在3D显示器上。
优选的,所述将目标组织器官的超声波图像与正常组织器官的参考图像作比较定位出目标组织器官的病变区域的步骤包括如下步骤:从所述存储器读取正常组织器官的参考图像;比较目标组织器官的超声波图像与正常组织器官的参考图像确定两者的纹理分布差异;根据两者的纹理分布差异定位出目标组织器官的病变区域,所述纹理分布差异包括人体组织器官发生病变的组织结构差异、尺寸大小差异以及外形轮廓差异。
优选的,所述根据医生的眼睛位置坐标产生驱动第二机械手臂上的3D显示器移动到医生眼睛前方的驱动信号的步骤包括如下步骤:根据医生的眼睛位置坐标计算出3D显示器将要移动到的最终位置,所述3D显示器的最终位置通过如下步骤计算得到:利用人体眼睛瞳孔分析法从眼睛图像中识别出眼睛瞳孔位置,并将眼睛瞳孔位置与病变区域位置的两点连接成一条线段;以眼睛瞳孔位置和病变区域位置作为三角形的两个顶点,并以眼睛瞳孔位置与病变区域位置两点之间连接成的线段作为三角形的一条边,形成一个正三角;将该正三角形的第三个顶点作为3D显示器的最终位置;通过3D显示器的最终位置计算第二机械手臂将要被驱动的角度,产生并传输以所计算的角度驱动第二机械手臂移动的驱动信号。
优选的,所述产生一个照射在所述病变区域的手术导航指令的步骤包括如下步骤:以病人平躺的手术台为水平面并以所述超声波探头的位置和方向建立空间坐标系;基于该空间坐标系计算病变区域的位置坐标,并根据所述病变区域的位置坐标产生所述手术导航指令。
优选的,所述超声波探头、红外定位器、传感器单元、3D显示器和存储器均电连接至微控制器上。
本发明还提供一种3D影像手术导航机器人的控制方法,该3D影像手术导航机器人包括第一机械手臂、第二机械手臂以及机器人本体,所述第一机械手臂上设置有超声波探头,所述第二机械手臂上设置有3D显示器,所述超声波探头的外表面设置有红外定位器,所述机器人本体的外表面设置有传感器单元,所述3D影像手术导航机器人的控制方法包括步骤:控制所述第一机械手臂的超声波探头实时摄取病人手术过程中目标组织器官的超声波图像;将目标组织器官的超声波图像与正常组织器官的参考图像作比较定位出目标组织器官的病变区域;产生一个照射在所述病变区域的手术导航指令,并控制所述红外定位器产生红外导光点;根据所述手术导航指令驱动第一机械手臂移动方向使所述红外导光点照射在所述病变区域,并控制超声波探头摄取病变区域图像;开启所述传感器单元获取医生的眼睛图像,并根据眼睛图像计算出医生的眼睛位置坐标;根据医生的眼睛位置坐标产生驱动第二机械手臂上的3D显示器移动到医生眼睛前方的驱动信号;根据驱动信号驱动所述第二机械手臂移动使3D显示器移动至医生的眼睛前方;将目标组织器官的超声波图像和病变区域图像显示显示在3D显示器上。
优选的,所述将目标组织器官的超声波图像与正常组织器官的参考图像作比较定位出目标组织器官的病变区域的步骤包括如下步骤:从存储器读取正常组织器官的参考图像;比较目标组织器官的超声波图像与正常组织器官的参考图像确定两者的纹理分布差异;根据所述纹理分布差异定位出目标组织器官的病变区域,所述纹理分布差异包括人体组织器官发生病变的组织结构差异、尺寸大小差异以及外形轮廓差异。
优选的,所述根据医生的眼睛位置坐标产生驱动第二机械手臂上的3D显示器移动到医生眼睛前方的驱动信号的步骤包括如下步骤:根据医生的眼睛位置坐标计算出3D显示器将要移动到的最终位置,所述3D显示器的最终位置通过如下步骤计算得到:利用人体眼睛瞳孔分析法从眼睛图像中识别出眼睛瞳孔位置,并将眼睛瞳孔位置与病变区域位置的两点连接成一条线段;以眼睛瞳孔位置和病变区域位置作为三角形的两个顶点,并以眼睛瞳孔位置与病变区域位置两点之间连接成的线段作为三角形的一条边,形成一个正三角;将该正三角形的第三个顶点作为3D显示器的最终位置;通过3D显示器的最终位置计算第二机械手臂将要被驱动的角度,产生并传输以所计算的角度驱动第二机械手臂移动的驱动信号。
优选的,所述产生一个照射在所述病变区域的手术导航指令的步骤包括如下步骤:以病人平躺的手术台为水平面并以所述超声波探头的位置和方向建立空间坐标系;基于该空间坐标系计算病变区域的位置坐标,并根据所述病变区域的位置坐标产生所述手术导航指令。
优选的,所述手术导航指令包括所述第一机械手臂与目标组织器官的病变区域之间的距离与方向信息,所述红外导光点为一种在病人手术过程中指引医生找出组织器官病变位置的可视红外圆点。
相较于现有技术,本发明所述3D影像手术导航机器人及其控制方法采用上述技术方案,达到了如下技术效果:通过设置在第一机械手臂上的超声波探头获取手术过程中目标组织器官的超声波图像,通过红外定位器实时跟踪定位目标组织器官的病变区域,使病变区域的位置清晰可见并自动导航到病变区域指引医生手术,从而方便医生手术并提高了手术的效率。此外,通过传感器单元自由追踪医生的眼睛位置,根据医生的眼睛位置驱动第二机械手臂自动地将3D显示器移动到医生所需的位置,并将超声波图像显示在3D显示器上供医生在手术过程作手术参考,从而提高了手术的准确性和安全性。
附图说明
图1是本发明3D影像手术导航机器人优选实施例的应用环境示意图;
图2是本发明3D影像手术导航机器人的内部电路连接示意图;
图3是本发明3D影像手术导航机器人的控制方法优选实施例的流程图。
本发明目的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
为更进一步阐述本发明为达成上述目的所采取的技术手段及功效,以下结合附图及较佳实施例,对本发明的具体实施方式、结构、特征及其功效进行详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
参照图1所示,图1是本发明3D影像手术导航机器人优选实施例的应用环境示意图。在本实施例中,所述3D影像手术导航机器人01可以放置在手术室内,所述手术室内还放置有供病人平躺进行手术的手术台02。所述医疗机器人01包括,但不仅限于,第一机械手臂1、第二机械手臂2以及机器人本体3。所述机器人本体3内设置有微控制器30、存储器31以及充电装置33,所述机器人本体01的外表面设置有传感器单元32,所述存储器31、传感器单元32以及充电装置33分别电连接至微控制器30上。
在本实施例中,所述第一机械手臂1上设置有超声波探头11,该超声波探头11电连接至微控制器30,用于在病人手术过程中通过超声波实时摄取病人组织器官的超声波图像,该超声波图像为组织器官的三维(3D)超声波图像。所述超声波探头11的外表面设置有红外定位器12,用于在病人手术过程中产生一个指引医生找出组织器官病变位置的红外导光点。
在本实施例中,所述第二机械手臂2上设置有3D显示器21,该3D显示器21电连接至微控制器30。本发明实施例将3D显示器21设置在第二机械手臂2上,从而使得3D显示器21可以随着第二机械手臂2自由地移动。在现有技术中,3D显示器21是一种能够使医生感受到立体虚拟感觉的3D显示系统,向医生提供立体观感的3D显示图像,从而提供3D显示效果。在本实施例中,所述3D显示器21可以实现为小型、轻型的3D显示模块。本发明所述的3D显示器21与具有一定移动自由度的第二机械手臂2联结,从而使得医生可以按所需移动3D显示器21。例如,在医生坐着或站立进行机器人手术的过程中,3D显示器21可以根据医生的姿势和位置需要而自动移动,第二机械手臂2可以将3D显示器21移动到医生的眼睛前方,从而为医生观看3D显示器21的图像提供最大便利的位置。
本实施例的微控制器30可以驱动第一机械手臂1和第二机械手臂2按照一定的角度和方向自由移动。所述微控制器30可以为嵌入机器人本体3中的微处理器、微控制器单元(MCU)等,该微控制器30可以接收来自传感器单元32感测到医生眼睛的位置信息,根据医生眼睛的位置信息确定3D显示器21将要移动到的最终位置。如果3D显示器21将要移动到的最终位置,则微控制器30可以根据医生眼睛的位置信息计算第二机械手臂2将要被驱动的角度,然后可以产生并传输以所计算的角度驱动第二机械手臂2移动的驱动信号。在本实施例中,通过3D显示器21与第二机械手臂2联结,3D显示器21可以移动到医生所需的位置,从而使医生可以采取任意的姿势进行手术并能观看到手术过程中所需的3D超声波图像,以观看3D超声波图像来辅助医生准确完成手术。
所述传感器单元32以感测医生眼睛的位置信息,并将医生眼睛的位置信息发送至微控制器30。所述微控制器30根据医生眼睛的位置信息产生驱动第二机械手臂2移动的驱动信号,第二机械手臂2自动将3D显示器21移动到医生眼睛的前方。在这种情形中,检测医生眼睛的传感器单元32可以连接到微控制器30,并且由于传感器单元32感测医生眼睛的位置并且传输相应的驱动信号,因此微控制器30可以接收所述驱动信号并驱动机第二机械手臂2。
所述传感器单元32可以为用于检测医生眼睛位置的传感器,例如,如果图像传感器用于确定医生眼睛的位置,则微控制器30可以分析图像传感器所获得的图像以计算医生眼睛所处的位置坐标,而后微控制器30可以驱动第二机械手臂2将3D显示器21移动到医生眼睛的位置。
此外,本实施例的传感器单元32不需要必须感测医生的眼睛,也可以通过检测医生的面部或不同身体部分来确定医生眼睛的位置,或者如果医生佩戴特殊的装置,则可以通过检测所述装置来确定医生眼睛的位置,然后将相应的信号传输到微控制器30。例如,医生可以在其身体的特定位置佩戴标记的同时进行机器人手术,所述标记专门用于被传感器单元32检测。然后,传感器单元32可以检测所述标记,微控制器30根据标记位置计算医生眼睛的位置,然后产生和传输的驱动信号。本实施例所述传感器单元32可以检测医生的位置或移动,微控制器30根据医生的位置追踪医生眼睛的同时在特定的范围内自动地移动3D显示器21。
参照图2所示,图2是本发明3D影像手术导航机器人的内部电路连接示意图。在本实施例中,所述超声波探头11、红外定位器12、3D显示器21、存储器31、传感器单元32和充电装置33均电连接至微控制器30。本实施例所述电连接是指各个电气元器件通过导电线、信号线、控制线的一种或多种连接至微控制器30,从而使得微控制器30能够控制上述各个电气元器件能够完成相应的功能。
在本实施例中,所述微控制器30可以为一种中央处理器(CPU)、微处理器、微控制单元芯片(MCU)、数据处理芯片、或者具有数据处理功能的控制单元。所述存储器31可以为一种只读存储单元ROM,电可擦写存储单元EEPROM或快闪存储单元FLASH等存储器。所述存储器31存储有人体正常组织器官的参考图像,以及存储预先编制的计算机程序指令,微控制器30能够从存储器31读取加载计算机程序指令并执行,以便3D影像手术导航机器人01能够为病人手术过程中提供手术指引。
在本实施例中,所述电源装置33包括可充电的锂电池331以及充电座332,所述锂电池331电连接至所述微控制器30上,用于为所述机器人01提供工作电源。所述充电座332电连接至所述锂电池331上,用于接插外部电源为所述锂电池331进行充电。
本发明还提供了一种基于3D显示功能的3D影像手术导航机器人的控制方法,应用于3D影像手术导航机器人01中。参考图3所示,图3是本发明3D影像手术导航机器人的控制方法优选实施例的流程图。在本实施例中,所述健康监护方法的各种方法步骤通过计算机软件程序来实现,该计算机软件程序以计算机程序指令的形式并存储于计算机可读存储介质(例如存储器31)中,存储介质可以包括:只读存储器、随机存储器、磁盘或光盘等,所述计算机程序指令能够被处理器加载并执行如下步骤S31至步骤S41。
步骤S31,控制第一机械手臂的超声波探头实时摄取病人手术过程中目标组织器官的超声波图像;具体地,微控制器30控制第一机械手臂1移动到病人的手术台02附近,并启动超声波探头11实时摄取手术台02上的病人手术过程中目标组织器官的超声波图像。在本实施例中,所述超声波探头11可以采用三维超声波探头,其通过发射金字塔型容积超声束,实时获取目标组织器官的三维超声波图像,并将三维超声波图像发送至微控制器30上。
步骤S32,将目标组织器官的超声波图像与正常组织器官的参考图像作比较定位出目标组织器官的病变区域;具体地,微控制器30从存储器31读取正常组织器官的参考图像,并将目标组织器官的超声波图像与正常组织器官的参考图像作比较定位出目标组织器官的病变区域。在本实施例中,所述微控制器30通过比较目标组织器官的超声波图像与正常组织器官的参考图像确定两者的纹理分布差异,以根据两者的纹理分布差异定位出目标组织器官的病变区域,所述纹理分布差异包括人体组织器官发生病变的组织结构差异、尺寸大小差异及外形轮廓差异。
步骤S33,以患者平躺的手术台为水平面并以超声波探头的位置和方向建立空间坐标系;具体地,微控制器30以病人平躺的手术台02为水平面并以超声波探头11的位置和方向建立空间坐标系。在本实施例中,所述病变区域的位置坐标包括病变区域相对于超声波探头11的位置和方向。参考图1所示,所述病理定位模块102根据病人平躺的手术台02为水平面并以超声波探头11的位置和方向建立空间坐标系XYZ。
步骤S34,基于空间坐标系计算出病变区域的位置坐标;具体地,微控制器30通过超声波探头11在空间坐标系XYZ下的位置和方向计算出超声波图像中任意一点在空间坐标系XYZ下的位置坐标,进而可以知道目标组织器官相对于超声波探头11的位置和方向。
步骤S35,根据病变区域的位置坐标产生手术导航指令;具体地,微控制器30根据所述病变区域的位置坐标产生手术导航指令。在本实施例中,所述手术导航指令包括第一机械手臂1与目标组织器官的病变区域之间的距离与方向信息。
步骤S36,控制超声波探头内的红外定位器产生红外导光点;具体地,微控制器30控制超声波探头11内的红外定位器12产生红外导光点。在本实施例中,所述红外导光点为一种用于在病人手术过程中指引医生找出组织器官病变位置的可视红外圆点。
步骤S37,根据手术导航指令驱动第一机械手臂移动方向使红外导光点照射在病变区域,并控制超声波探头摄取病变区域图像;具体地,微控制器30根据所述手术导航指令控制第一机械手臂1移动方向使红外导光点照射在目标组织器官的病变区域,进而能够辅助医生快速准确地找到目标组织器官的病变位置,从而方便医生手术并提高了手术的效率。
步骤S38,开启传感器单元32获取医生的眼睛图像,并根据眼睛图像计算出医生的眼睛位置坐标。本实施例中,医生首先用眼睛正视一次传感器单元32,以便传感器单元32感测医生的眼睛图像,微控制器30根据现有技术中的人体眼睛瞳孔分析法分析传感器单元32所获得的眼睛图像,从眼睛图像中识别出眼睛瞳孔位置并计算医生眼睛所处的位置坐标。所述人体眼睛瞳孔分析法以程序指令的形式写入存储器31中,由微控制器30读取并执行以计算出医生眼睛所处的位置坐标。
步骤S39,根据医生的眼睛位置坐标产生驱动第二机械手臂上的3D显示器移动到医生眼睛前方的驱动信号。在本实施例中,微控制器30根据眼睛位置坐标产生驱动第二机械手臂2移动到医生眼睛前方的驱动信号。具体地,微控制器30根据医生的眼睛位置坐标计算出3D显示器21将要移动到的最终位置,通过3D显示器21的最终位置计算第二机械手臂2将要被驱动的角度,然后产生并传输以所计算的角度驱动第二机械手臂2移动的驱动信号。进一步地,所述3D显示器21的最终位置通过如下步骤计算得到:利用人体眼睛瞳孔分析法从眼睛图像中识别出眼睛瞳孔位置,将眼睛瞳孔位置与病变区域位置的两点连接成一条线段,分别以眼睛瞳孔位置和病变区域的位置作为三角形的两个顶点,并以眼睛瞳孔位置与病变区域位置两点之间连接成的线段作为三角形的一条边,形成一个正三角,将该正三角形的第三个顶点作为3D显示器的最终位置。
步骤S40,根据驱动信号驱动第二机械手臂2移动使3D显示器21移动至医生的眼睛前方。具体地,微控制器30根据驱动信号驱动第二机械手臂2移动,带动设置在第二机械手臂2的3D显示器21移动至医生的眼睛前方,从而为医生观看3D显示器21的超声波图像提供最大便利的位置,方便医生参照3D显示器21上显示的超声波图像进行手术作业。
步骤S40,将目标组织器官的超声波图像和病变区域图像显示在3D显示器21上;由于3D显示器21可以移动到医生所需的位置,从而使医生可以采取任意的姿势进行手术并能观看到手术过程中所需的超声波图像,以供医生在手术过程中作手术参考,从而提高手术的准确性和安全性。因此,在利用3D影像手术导航机器人01辅助手术时,可以根据医生可以根据医生的姿势和位置需要而移动3D显示器21的位置,以方便医生一边手术一边观看目标组织器官的超声波图像,从而辅助医生准确完成手术。
本发明所述3D影像手术导航机器人通过设置在第一机械手臂1上的超声波探头11获取手术过程中目标组织器官的超声波图像,通过红外定位器12实时跟踪定位目标组织器官的病变区域,使病变区域的位置清晰可见并自动导航到病变区域指引医生手术,从而方便医生手术并提高了手术的效率。此外,本发明所述3D影像手术导航机器人能够通过传感器单元32终追踪医生的眼睛位置,根据医生的眼睛位置通过设置在第二机械手臂2上可以自动地将3D显示器21移动到医生所需的位置,并将目标组织器官的超声波图像和病变区域显示在3D显示器21上供医生在手术过程作手术参考,从而提高了手术的准确性和安全性。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效功能变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种3D影像手术导航机器人,包括第一机械手臂、第二机械手臂以及机器人本体,其特征在于,所述第一机械手臂上设置有超声波探头,所述第二机械手臂上设置有3D显示器,所述超声波探头的外表面设置有红外定位器,所述机器人本体的外表面设置有传感器单元,所述机器人本体内设置有适于实现各种程序指令的微控制器以及适于存储多条程序指令的存储器,所述程序指令由微控制器加载并执行如下步骤:
控制所述第一机械手臂的超声波探头实时摄取病人手术过程中目标组织器官的超声波图像;
将目标组织器官的超声波图像与正常组织器官的参考图像作比较定位出目标组织器官的病变区域;
产生一个照射在所述病变区域的手术导航指令,并控制所述红外定位器产生红外导光点;
根据所述手术导航指令驱动第一机械手臂移动方向使所述红外导光点照射在所述病变区域,并控制超声波探头摄取病变区域图像;
开启所述传感器单元获取医生的眼睛图像,并基于眼睛图像利用人体眼睛瞳孔分析法计算出医生的眼睛位置坐标;
根据医生的眼睛位置坐标产生驱动第二机械手臂上的3D显示器移动到医生眼睛前方的驱动信号;
根据驱动信号驱动所述第二机械手臂移动使3D显示器移动至医生的眼睛前方;
将目标组织器官的超声波图像和病变区域图像显示显示在3D显示器上。
2.如权利要求1所述的3D影像手术导航机器人,其特征在于,所述将目标组织器官的超声波图像与正常组织器官的参考图像作比较定位出目标组织器官的病变区域的步骤包括如下步骤:
从所述存储器读取正常组织器官的参考图像;
比较目标组织器官的超声波图像与正常组织器官的参考图像确定两者的纹理分布差异;
根据两者的纹理分布差异定位出目标组织器官的病变区域,所述纹理分布差异包括人体组织器官发生病变的组织结构差异、尺寸大小差异以及外形轮廓差异。
3.如权利要求1所述的3D影像手术导航机器人,其特征在于,所述根据医生的眼睛位置坐标产生驱动第二机械手臂上的3D显示器移动到医生眼睛前方的驱动信号的步骤包括如下步骤:
根据医生的眼睛位置坐标计算出3D显示器将要移动到的最终位置,所述3D显示器的最终位置通过如下步骤计算得到:利用人体眼睛瞳孔分析法从眼睛图像中识别出眼睛瞳孔位置,并将眼睛瞳孔位置与病变区域位置的两点连接成一条线段;以眼睛瞳孔位置和病变区域位置作为三角形的两个顶点,并以眼睛瞳孔位置与病变区域位置两点之间连接成的线段作为三角形的一条边,形成一个正三角;将正三角形的第三个顶点作为3D显示器的最终位置;
通过3D显示器的最终位置计算第二机械手臂将要被驱动的角度,产生并传输以所计算的角度驱动第二机械手臂移动的驱动信号。
4.如权利要求1项所述的3D影像手术导航机器人,其特征在于,所述产生一个照射在所述病变区域的手术导航指令的步骤包括如下步骤:
以病人平躺的手术台为水平面并以所述超声波探头的位置和方向建立空间坐标系;
基于该空间坐标系计算病变区域的位置坐标,并根据所述病变区域的位置坐标产生所述手术导航指令。
5.如权利要求1至4任一项所述的3D影像手术导航机器人,其特征在于,所述超声波探头、红外定位器、传感器单元、3D显示器和存储器均电连接至微控制器上。
6.一种3D影像手术导航机器人的控制方法,该3D影像手术导航机器人包括第一机械手臂、第二机械手臂以及机器人本体,其特征在于,所述第一机械手臂上设置有超声波探头,所述第二机械手臂上设置有3D显示器,所述超声波探头的外表面设置有红外定位器,所述机器人本体的外表面设置有传感器单元,其中,所述3D影像手术导航机器人的控制方法包括步骤:
控制所述第一机械手臂的超声波探头实时摄取病人手术过程中目标组织器官的超声波图像;
将目标组织器官的超声波图像与正常组织器官的参考图像作比较定位出目标组织器官的病变区域;
产生一个照射在所述病变区域的手术导航指令,并控制所述红外定位器产生红外导光点;
根据所述手术导航指令驱动第一机械手臂移动方向使所述红外导光点照射在所述病变区域,并控制超声波探头摄取病变区域图像;
开启所述传感器单元获取医生的眼睛图像,并基于眼睛图像利用人体眼睛瞳孔分析法计算出医生的眼睛位置坐标;
根据医生的眼睛位置坐标产生驱动第二机械手臂上的3D显示器移动到医生眼睛前方的驱动信号;
根据驱动信号驱动所述第二机械手臂移动使3D显示器移动至医生的眼睛前方;
将目标组织器官的超声波图像和病变区域图像显示显示在3D显示器上。
7.如权利要求6所述的3D影像手术导航机器人的控制方法,其特征在于,所述将目标组织器官的超声波图像与正常组织器官的参考图像作比较定位出目标组织器官的病变区域的步骤包括如下步骤:
从存储器读取正常组织器官的参考图像;
比较目标组织器官的超声波图像与正常组织器官的参考图像确定两者的纹理分布差异;
根据所述纹理分布差异定位出目标组织器官的病变区域,所述纹理分布差异包括人体组织器官发生病变的组织结构差异、尺寸大小差异以及外形轮廓差异。
8.如权利要求6所述的3D影像手术导航机器人的控制方法,其特征在于,所述根据医生的眼睛位置坐标产生驱动第二机械手臂上的3D显示器移动到医生眼睛前方的驱动信号的步骤包括如下步骤:
根据医生的眼睛位置坐标计算出3D显示器将要移动到的最终位置,所述3D显示器的最终位置通过如下步骤计算得到:利用人体眼睛瞳孔分析法从眼睛图像中识别出眼睛瞳孔位置,并将眼睛瞳孔位置与病变区域位置的两点连接成一条线段;以眼睛瞳孔位置和病变区域位置作为三角形的两个顶点,并以眼睛瞳孔位置与病变区域位置两点之间连接成的线段作为三角形的一条边,形成一个正三角;将正三角形的第三个顶点作为3D显示器的最终位置;
通过3D显示器的最终位置计算第二机械手臂将要被驱动的角度,产生并传输以所计算的角度驱动第二机械手臂移动的驱动信号。
9.如权利要求6所述的3D影像手术导航机器人的控制方法,其特征在于,所述产生一个照射在所述病变区域的手术导航指令的步骤包括如下步骤:
以病人平躺的手术台为水平面并以所述超声波探头的位置和方向建立空间坐标系;
基于该空间坐标系计算病变区域的位置坐标,并根据所述病变区域的位置坐标产生所述手术导航指令。
10.如权利要求6至9任一项所述的3D影像手术导航机器人的控制方法,其特征在于,所述手术导航指令包括所述第一机械手臂与目标组织器官的病变区域之间的距离与方向信息,所述红外导光点为一种在病人手术过程中指引医生找出组织器官病变位置的可视红外圆点。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711027808.9A CN107669340A (zh) | 2017-10-28 | 2017-10-28 | 3d影像手术导航机器人及其控制方法 |
PCT/CN2017/120169 WO2019080358A1 (zh) | 2017-10-28 | 2017-12-29 | 3d影像手术导航机器人及其控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711027808.9A CN107669340A (zh) | 2017-10-28 | 2017-10-28 | 3d影像手术导航机器人及其控制方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107669340A true CN107669340A (zh) | 2018-02-09 |
Family
ID=61141975
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711027808.9A Pending CN107669340A (zh) | 2017-10-28 | 2017-10-28 | 3d影像手术导航机器人及其控制方法 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN107669340A (zh) |
WO (1) | WO2019080358A1 (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109758233A (zh) * | 2019-01-21 | 2019-05-17 | 上海益超医疗器械有限公司 | 一种诊疗一体化手术机器人系统及其导航定位方法 |
CN109925057A (zh) * | 2019-04-29 | 2019-06-25 | 苏州大学 | 一种基于增强现实的脊柱微创手术导航方法及系统 |
CN114067361A (zh) * | 2021-11-16 | 2022-02-18 | 西北民族大学 | 一种spect成像的非病变热区切分方法与系统 |
CN114098818A (zh) * | 2021-11-22 | 2022-03-01 | 邵靓 | 一种超声原始影像数据的模拟成像方法 |
CN116196111A (zh) * | 2023-05-05 | 2023-06-02 | 北京衔微医疗科技有限公司 | 一种眼科手术机器人系统及其控制方法 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021134160A1 (en) * | 2019-12-30 | 2021-07-08 | Fresenius Medical Care Deutschland Gmbh | Method for driving a display, tracking monitor and storage medium |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB0222265D0 (en) * | 2002-09-25 | 2002-10-30 | Imp College Innovations Ltd | Control of robotic manipulation |
EP1578290B1 (en) * | 2002-12-06 | 2012-03-28 | Koninklijke Philips Electronics N.V. | Apparatus and method for automated positioning of a device |
KR100998182B1 (ko) * | 2008-08-21 | 2010-12-03 | (주)미래컴퍼니 | 수술용 로봇의 3차원 디스플레이 시스템 및 그 제어방법 |
CN106921857A (zh) * | 2015-12-25 | 2017-07-04 | 珠海明医医疗科技有限公司 | 立体显示系统及立体显示方法 |
CN105943161A (zh) * | 2016-06-04 | 2016-09-21 | 深圳市前海康启源科技有限公司 | 基于医疗机器人的手术导航系统及方法 |
-
2017
- 2017-10-28 CN CN201711027808.9A patent/CN107669340A/zh active Pending
- 2017-12-29 WO PCT/CN2017/120169 patent/WO2019080358A1/zh active Application Filing
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109758233A (zh) * | 2019-01-21 | 2019-05-17 | 上海益超医疗器械有限公司 | 一种诊疗一体化手术机器人系统及其导航定位方法 |
CN109758233B (zh) * | 2019-01-21 | 2024-02-02 | 上海益超医疗器械有限公司 | 一种诊疗一体化手术机器人系统及其导航定位方法 |
CN109925057A (zh) * | 2019-04-29 | 2019-06-25 | 苏州大学 | 一种基于增强现实的脊柱微创手术导航方法及系统 |
CN114067361A (zh) * | 2021-11-16 | 2022-02-18 | 西北民族大学 | 一种spect成像的非病变热区切分方法与系统 |
CN114067361B (zh) * | 2021-11-16 | 2022-08-23 | 西北民族大学 | 一种spect成像的非病变热区切分方法与系统 |
CN114098818A (zh) * | 2021-11-22 | 2022-03-01 | 邵靓 | 一种超声原始影像数据的模拟成像方法 |
CN114098818B (zh) * | 2021-11-22 | 2024-03-26 | 邵靓 | 一种超声原始影像数据的模拟成像方法 |
CN116196111A (zh) * | 2023-05-05 | 2023-06-02 | 北京衔微医疗科技有限公司 | 一种眼科手术机器人系统及其控制方法 |
CN116196111B (zh) * | 2023-05-05 | 2023-10-31 | 北京衔微医疗科技有限公司 | 一种眼科手术机器人系统及其控制方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2019080358A1 (zh) | 2019-05-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107669340A (zh) | 3d影像手术导航机器人及其控制方法 | |
US11911214B2 (en) | System and methods for at home ultrasound imaging | |
US20230293153A1 (en) | Ultrasound imaging system having automatic image presentation | |
US20240180647A1 (en) | Robotic Port Placement Guide and Method of Use | |
CN105934215B (zh) | 具有光学形状感测的成像设备的机器人控制 | |
US20170296292A1 (en) | Systems and Methods for Surgical Imaging | |
US11602403B2 (en) | Robotic tool control | |
CN107157512A (zh) | 超声波诊断装置以及超声波诊断支援装置 | |
JP7469120B2 (ja) | ロボット手術支援システム、ロボット手術支援システムの作動方法、及びプログラム | |
CN113057734A (zh) | 一种手术系统 | |
EP2233099B1 (en) | Computer-assisted system for guiding a surgical instrument during percutaneous diagnostic or therapeutic operations | |
US20210386397A1 (en) | Ultrasound probe with an integrated needle assembly and a computer program product, a method and a system for providing a path for inserting a needle of the ultrasound probe | |
CN106659541A (zh) | 集成眼球凝视跟踪用于立体观看器的医疗装置、系统和方法 | |
CN105943161A (zh) | 基于医疗机器人的手术导航系统及方法 | |
CN108245122B (zh) | 磁引导式胶囊内窥镜系统及轨迹规划方法 | |
CN103417301A (zh) | 外科手术导航系统 | |
JP2015528713A (ja) | 手術ロボットプラットフォーム | |
CN107714178A (zh) | 手术导航定位机器人及其控制方法 | |
WO2021158328A1 (en) | System and methods for suturing guidance | |
CN109674519A (zh) | 一种人工引导自动穿刺装置 | |
EP4351409A1 (en) | Ultrasound probe | |
Escoto et al. | A multi-sensory mechatronic device for localizing tumors in minimally invasive interventions | |
CN115770108A (zh) | 双机械臂超声引导自动穿刺手术机器人及方法 | |
Mansouri et al. | Feasibility of infrared tracking of beating heart motion for robotic assisted beating heart surgery | |
EP3392862B1 (en) | Medical simulations |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20180209 |