CN110464468A - 手术机器人及其末端器械的控制方法、控制装置 - Google Patents
手术机器人及其末端器械的控制方法、控制装置 Download PDFInfo
- Publication number
- CN110464468A CN110464468A CN201910854094.1A CN201910854094A CN110464468A CN 110464468 A CN110464468 A CN 110464468A CN 201910854094 A CN201910854094 A CN 201910854094A CN 110464468 A CN110464468 A CN 110464468A
- Authority
- CN
- China
- Prior art keywords
- information
- image
- end instrument
- motion
- station
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000004590 computer program Methods 0.000 claims description 12
- 230000006399 behavior Effects 0.000 claims description 11
- 238000001356 surgical procedure Methods 0.000 claims description 9
- 230000001960 triggered effect Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 15
- 230000002045 lasting effect Effects 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000004888 barrier function Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000002324 minimally invasive surgery Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- VAYOSLLFUXYJDT-RDTXWAMCSA-N Lysergic acid diethylamide Chemical compound C1=CC(C=2[C@H](N(C)C[C@@H](C=2)C(=O)N(CC)CC)C2)=C3C2=CNC3=C1 VAYOSLLFUXYJDT-RDTXWAMCSA-N 0.000 description 1
- 235000013290 Sagittaria latifolia Nutrition 0.000 description 1
- 230000003466 anti-cipated effect Effects 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 235000015246 common arrowhead Nutrition 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 230000009885 systemic effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/00234—Surgical instruments, devices or methods, e.g. tourniquets for minimally invasive surgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B34/37—Master-slave robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
- A61B34/74—Manipulators with manual electric input means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B2034/302—Surgical robots specifically adapted for manipulations within body cavities, e.g. within abdominal or thoracic cavities
Landscapes
- Health & Medical Sciences (AREA)
- Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Robotics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Pathology (AREA)
- Manipulator (AREA)
Abstract
本发明涉及一种手术机器人中末端器械的控制方法,包括:接收图像末端器械输入的图像数据并根据图像数据生成图像;接收运动输入设备输入的运动信息并识别运动信息获得运动信息对应的操作指令;根据操作指令在图像上进行操作从而产生操作信息;解析操作信息获得用于调整受控末端器械的位置及/或姿态的控制信息。本发明还提供一种手术机器人及其末端器械的控制装置、计算机可读存储介质。本发明能够更直观、准确及便捷地调整末端器械,以辅助手术的实施。
Description
技术领域
本发明涉及医疗器械领域,特别是涉及一种手术机器人及其末端器械的控制方法、控制装置。
背景技术
微创手术是指利用腹腔镜、胸腔镜等现代医疗器械及相关设备在人体腔体内部施行手术的一种手术方式。相比传统手术方式微创手术具有创伤小、疼痛轻、恢复快等优势。
随着科技的进步,微创手术机器人技术逐渐成熟,并被广泛应用。微创手术机器人通常包括主操作台及从操作设备,主操作台包括手柄,医生通过操作手柄向从操作设备发送控制命令,从操作设备包括多个操作臂,操作臂具有末端器械,在工作状态时,末端器械跟随手柄移动,以实现远程手术操作。
末端器械包括执行手术操作的操作末端器械和提供手术视野的图像末端器械,随着手术的进行,经常需要实时地对如视野等进行重新调整,这就需要反复地在操作末端器械和图像末端器械之间进行切换,其调整过程不准确,且操作繁琐,延长了手术时间,增大了患者风险。
发明内容
基于此,有必要提供一种能够直观、准确且便捷地调整末端器械的手术机器人及其末端器械的控制方法、控制装置。
一方面,提供一种手术机器人中末端器械的控制方法,包括如下步骤:接收图像末端器械输入的图像数据并根据图像数据生成图像;接收运动输入设备输入的运动信息并识别运动信息获得运动信息对应的操作指令;根据操作指令在图像上进行操作从而产生操作信息;解析操作信息获得用于调整受控末端器械的位置及/或姿态的控制信息。
其中,所述接收运动输入设备输入的运动信息并识别所述运动信息获得所述运动信息对应的操作指令的步骤之前,包括:根据操作人员的选择指令选择所述受控末端器械。
其中,所述解析所述操作信息获得用于调整受控末端器械的位置及/或姿态的控制信息的步骤中,包括:解析所述操作信息获得用于调整所述受控末端器械在所述图像的景深方向的目标增量距离、及/或在垂直于所述景深方向的平面运动的目标位置信息或目标姿态信息。
其中,所述图像上生成有两个指示所述图像的景深方向上相反方向的指示符号,所述操作信息是所述运动输入设备接收到的针对其中一指示符号的点击次数信息或点击持续时长信息;所述解析所述操作信息获得用于调整受控末端器械的位置及/或姿态的控制信息的步骤中,包括:解析所述操作信息获得所述受控末端器械在所述图像相应景深方向移动的目标增量距离。
其中,所述操作信息是所述运动输入设备接收到的针对所述图像的点击信息,所述图像上被点击的目标点关联于与所述图像相应的实际场景中的一目标特征点的位置;所述解析所述操作信息获得用于调整受控末端器械的位置及/或姿态的控制信息的步骤中,包括:解析所述操作信息获得所述受控末端器械在垂直于所述景深方向的平面运动的目标位置信息或目标姿态信息。
其中,所述操作信息包括所述运动输入设备接收到的针对所述图像绘制出的图案的图形信息,所述图案的中心点的位置关联于与所述图像相应的实际场景中的一目标特征点的位置;所述解析所述操作信息获得用于调整受控末端器械的位置及/或姿态的控制信息的步骤中,包括:解析所述操作信息获得所述受控末端器械在垂直于所述景深方向的平面运动的目标位置信息或目标姿态信息、及在所述图像相应景深方向移动的目标增量距离。
其中,所述解析所述操作信息获得所述受控末端器械在垂直于所述景深方向的平面运动的目标位置信息或目标姿态信息、及在所述图像相应景深方向移动的目标增量距离的步骤中,包括:根据所述图案的图形信息获得所述图案的中心点在所述图像上的位置信息,并根据所述图案的中心点在所述图像上的位置信息获得与实际场景中相应的目标特征点的位置信息;根据所述目标特征点的位置信息获得所述受控末端器械在垂直于所述景深方向的平面运动的目标位置信息或目标姿态信息;根据所述图案的图形信息获得所述图案的类型信息或绘制所述图案的笔画顺序信息,根据所述图案的类型信息或绘制所述图案的笔画顺序信息获得所述受控末端器械在所述图像景深方向的移动方向;根据所述图案的图形信息获得所述图案的大小信息,根据所述图案的大小信息获得所述受控末端器械在所述图像相应景深方向移动的目标增量距离。
其中,所述操作信息包括所述运动输入设备接收到的针对所述图案点击产生的点击次数信息或点击持续时长信息;所述解析所述操作信息获得用于调整受控末端器械的位置及/或姿态的控制信息的步骤中,包括:解析所述操作信息获得所述受控末端器械在所述图像相应景深方向移动的目标增量距离。
其中,所述图案为封闭的图案。
其中,所述图案为规则且封闭的图案。
其中,所述操作信息是所述运动输入设备接收到的针对所述图像的一次持续点击并在持续点击期间移动产生的路径信息;所述解析所述操作信息获得用于调整受控末端器械的位置及/或姿态的控制信息的步骤中,包括:解析所述操作信息获得所述受控末端器械在垂直于所述景深方向的平面内,跟随所述路径信息进行运动的目标位置增量信息。
其中,所述运动输入设备是磁导航定位传感器、光学定位传感器、连杆式主操作手、鼠标及触摸屏中的一种或两种以上的组合。
其中,所述运动输入设备是磁导航定位传感器、光学定位传感器、连杆式主操作手或鼠标时,所述图像上生成有用于在所述图像上进行定位的定位符号,所述定位符号的运动关联于运动信息;所述根据所述操作指令在所述图像上进行操作从而产生操作信息的步骤中,包括:根据与所述运动信息对应的所述操作指令控制所述定位符号在所述图像上进行操作从而产生操作信息。
其中,所述定位符号是光标。
其中,所述运动输入设备是触摸屏时,所述操作信息是所述运动输入设备接收到的针对所述图像的两个触摸点的位置信息;所述解析所述操作信息获得用于调整受控末端器械的位置及/或姿态的控制信息的步骤中,包括:解析所述操作信息获得所述受控末端器械在所述图像相应景深方向移动的目标增量距离。
其中,所述解析所述操作信息获得所述受控末端器械在所述图像相应景深方向移动的目标增量距离的步骤中,包括:根据各所述触摸点的位置信息计算前一时刻及后一时刻两个所述触摸点之间的距离;根据前一时刻及后一时刻两个所述触摸点之间的距离计算前后时刻两个所述触摸点之间的距离差;根据所述距离差获得所述受控末端器械在所述图像景深方向的移动方向及目标增量距离。
其中,所述图像是2D图像或3D图像。另一方面,提供一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序被配置为由处理器加载并执行实现如权利要求上述任一项实施例的控制方法的步骤。
另一方面,提供一种手术机器人中末端器械的控制装置包括:存储器,用于存储计算机程序;及处理器,用于加载并执行计算机程序;其中,计算机程序被配置为由处理器加载并执行实现如权利要求上述任一项实施例的控制方法的步骤。
另一方面,提供另一种手术机器人,包括:从操作设备,具有两个以上的末端器械,一末端器械是用于采集图像数据的图像末端器械,其余末端器械是用于执行手术操作的操作末端器械;及主操作台,具有控制装置、显示器及运动输入设备;其中,显示器用于显示图像,运动输入设备用于输入操作人员的运动信息,控制装置用于执行实现如上述任一项实施例的控制方法的步骤。
另一方面,提供一种手术机器人,包括:从操作设备,具有两个以上的末端器械,一末端器械是用于采集图像数据的图像末端器械,其余末端器械是用于执行手术操作的操作末端器械;主操作台,具有控制装置、分别与控制装置连接的显示器及运动输入设备;及从操作台,具有分别与主操作台的控制装置连接的显示器及运动输入设备;其中,主操作台的显示器与从操作台的显示器显示相同的图像,主操作台的运动输入设备与从操作台的运动输入设备用于输入不同操作人员的运动信息;主操作台的控制装置被触发产生控制权限切换指令时,用于禁用主操作台的运动输入设备并使能从操作台的运动输入设备,同时用于执行实现如上述任一项实施例的控制方法的步骤。
另一方面,提供一种手术机器人,包括:从操作设备,具有两个以上的末端器械,一末端器械是用于采集图像数据的图像末端器械,其余末端器械是用于执行手术操作的操作末端器械;主操作台,具有控制装置、分别与主操作台的控制装置连接的显示器及运动输入设备;及从操作台,具有控制装置、分别与从操作台的控制装置连接的显示器及运动输入设备;其中,且主操作台的控制装置与从操作台的控制装置之间可相互通讯,第一主操作台的显示器与第二操作台的显示器显示相同的图像,第一主操作台的运动输入设备与第二操作台的运动输入设备用于输入不同操作人员的运动信息;主操作台的控制装置被触发产生控制权限切换指令时,主操作台的控制装置用于禁用主操作台的运动输入设备并使能从操作台的运动输入设备、控制装置,从操作台的控制装置用于执行实现如上述任一项实施例的控制方法的步骤。
本发明的手术机器人及其末端器械控制方法、控制装置,具有如下有益效果:
通过在图像上直接操作而实现对末端器械的调整,该调整更直观、更准确及更便捷,有助于节约手术时间,减少患者风险。
附图说明
图1为本发明手术机器人一实施例的结构示意图;
图2为图1所示手术机器人的局部示意图;
图3为图1所示手术机器人的局部示意图;
图4为手术机器人的图像末端器械控制方法一实施例的流程图;
图5为本发明手术机器人一实施例使用状态下的简易示意图;
图6为图像上生成有光标和调节景深的指示符号的示意图;
图7为对图6所示的图像进行操作的一实施例的图像显示示意图;
图8为对图6所示的图像进行操作的一实施例的图像显示示意图;
图9为图像上生成有光标的示意图;
图10为对图9所示的图像进行操作的一实施例的图像显示示意图;
图11为对图6所示的图像进行操作的一实施例的图像显示示意图;
图12为对图6所示的图像进行操作的一实施例的图像显示示意图;
图13为对图6所示的图像进行操作的一实施例的图像显示示意图;
图14为本发明手术机器人另一实施例的结构示意图。
具体实施方式
为了便于理解本发明,下面将参照相关附图对本发明进行更全面的描述。附图中给出了本发明的较佳实施方式。但是,本发明可以以许多不同的形式来实现,并不限于本文所描述的实施方式。相反地,提供这些实施方式的目的是使对本发明的公开内容理解的更加透彻全面。
需要说明的是,当元件被称为“设置于”另一个元件,它可以直接在另一个元件上或者也可以存在居中的元件。当一个元件被认为是“连接”另一个元件,它可以是直接连接到另一个元件或者可能同时存在居中元件。当一个元件被认为是“耦合”另一个元件,它可以是直接耦合到另一个元件或者可能同时存在居中元件。本文所使用的术语“垂直的”、“水平的”、“左”、“右”以及类似的表述只是为了说明的目的,并不表示是唯一的实施方式。本文所使用的术语“远端”、“近端”作为方位词,该方位词为介入医疗器械领域惯用术语,其中“远端”表示手术过程中远离操作者的一端,“近端”表示手术过程中靠近操作者的一端。在本发明中,“各”包括一个及以上。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施方式的目的,不是旨在于限制本发明。本文所使用的术语“及/或”包括一个或多个相关的所列项目的任意的和所有的组合。
如图1至图3所示,其分别为本发明手术机器人一实施例的结构示意图,及其局部示意图。
手术机器人包括主操作台2及从操作设备3。主操作台2具有运动输入设备21及显示器22,医生通过操作运动输入设备21向从操作设备3发送控制命令,以令从操作设备3根据医生操作运动输入设备21的控制命令执行相应操作,并通过显示器22观察手术区域。其中,从操作设备3具有臂体机构,臂体机构具有机械臂30及可拆卸地装设于机械臂30远端的操作臂31。机械臂30包括依次连接的基座及连接组件,连接组件具有多个关节组件。操作臂31包括依次连接的连杆32、连接组件33及末端器械34,其中,连接组件33具有多个关节组件,通过调节操作臂31的关节组件调节末端器械34的姿态;末端器械34具有图像末端器械34A及操作末端器械34B。图像末端器械34A用于采集视野内的图像41,显示器22用于显示该图像41,运动输入设备可以用于在图像41上进行操作以令机械臂30及/或操作臂31运动。此外,运动输入设备21还可直接令机械臂30及/或操作臂31运动。
如图4所示,提供一种手术机器人中末端器械的控制方法,该控制方法包括如下步骤:
步骤S1,接收图像末端器械输入的图像数据并根据图像数据生成图像。
该步骤S1所生成的图像可以是2D图像或3D图像。
步骤S2,接收运动输入设备输入的运动信息并识别运动信息获得运动信息对应的操作指令。
其中,运动输入设备21输入的运动信息包括二维的位置信息(XY坐标系平面内的位置信息)和点击信息。在该步骤S2之前,常可获取操作人员的选择指令并根据该选择指令从多个末端器械34中选择一个以上作为该受控末端器械,该受控末端器械34可以选择自图像末端器械34A及/或操作末端器械34B中的一个以上。
步骤S3,根据操作指令在图像上进行操作从而产生操作信息。
步骤S4,解析操作信息获得用于调整受控末端器械的位置及/或姿态的控制信息。
其中,在该步骤S4之中,主要为解析操作信息获得用于调整受控末端器械34在图像41的景深方向的目标增量距离、及/或在垂直于该景深方向的平面运动的目标位置信息或目标姿态信息。控制信息即包括目标增量距离、目标位置信息及目标姿态信息中的一种或两种以上。
一实施例中,该步骤S4之后,包括:
步骤S5,根据获得的控制信息控制对应的受控末端器械运动。
该步骤S5具体根据获得的控制信息控制机械臂30及/或具有该受控末端器械34的操作臂31运动以实现对该受控末端器械34的控制。更具体地,通常根据获得的控制信息并运用机器人学中的正逆运动学控制机械臂30及/或操作臂31运动以实现对该受控末端器械34的控制。
也即步骤S5可以根据配置通过控制信息控制机械臂30单独运动、或控制相应的操作臂31单独运动、或控制机械臂30和相应的操作臂31协同运动以实现上述控制目的。
如图5所示,一实施例中,步骤S4中先解析操作信息获得受控末端器械34在第一坐标系(B)的目标位姿信息,再将该受控末端器械34在第一坐标系的目标位姿信息分解成机械臂30远端在第一坐标系的目标位姿信息及受控末端器械34在第二坐标系(T)的目标位姿信息这样一组目标位姿信息集合。该第一坐标系指机械臂的基坐标系,该第二坐标系指机械臂的工具坐标系。
可以按一定的优先级顺序来对受控末端器械34在第一坐标系的目标位姿信息进行分解。比如,将其优先分解为受控末端器械34在第二坐标系的目标位姿信息时,举例而言,在机械臂30远端保持于当前位姿的条件下通过换算受控末端器械34在第一坐标系的目标位姿信息以优先获得受控末端器械34在第二坐标系的目标位姿信息,然后再在受控末端器械34到达其在第二坐标系的目标位姿信息对应的目标位姿的条件下换算受控末端器械34在第一坐标系的目标位姿信息获得机械臂30远端在第一坐标系的目标位姿信息。如果机械臂30远端在第一坐标系的目标位姿信息与当前位姿信息相同时,步骤S5则控制相应的操作臂31根据其目标位姿信息进行单独运动以使受控末端器械34到达目标位姿;如果机械臂30远端在第一坐标系的目标位姿信息与当前位姿信息不同时,步骤S5则控制机械臂30远端及相应的操作臂31根据其各自的目标位姿信息协同运动以使受控末端器械34到达目标位姿。又比如,可以将其优先分解为机械臂30远端在第一坐标系的目标位姿信息(分解原理与前述相同,此处不再重复赘述),以控制机械臂30的单独运动以使受控末端器械34到达目标位姿。
值得注意的是,在某些使用场景下,控制机械臂30单独运动、或控制机械臂30和相应的操作臂31协同运动时,需要确保机械臂30运动时使机械臂30远端绕不动点(远端运动中心,Remote Center of Motion)运动,即做RCM约束运动,具体可以通过对机械臂远端的任务自由度进行设置来确保实现,该任务自由度仅与姿态自由度相关。
该不动点与机械臂远端具有一个相对固定的位置关系。根据具体的控制目的,一些实施例中第二坐标系的原点可以是该不动点,其他实施例中第二坐标系的原点也可以是机械臂远端上的某一点。
另外,根据设定,操作臂31远端也可以具有不动点,操作臂31的不动点不同于机械臂21的不动点,操作臂31所具有的末端器械34经配置也可以绕操作臂31的不动点运动,即进行RCM约束运动。
根据对机械臂远端及/或操作臂远端任务自由度的配置,可以对机械臂远端及/或操作臂远端进行RCM约束控制,以适用于多种使用场景。
本文举例以受控末端器械34被配置为一个的情况来进行详细说明。
由于图像41难以表达景深信息即Z轴的深度信息,因而为了受控末端器械34基于图像41的景深信息进行的运动容易被实现,一实施例中,图像上生成有两个指示图像的景深方向上相反方向的指示符号43。易于理解地,该两个指示符号43举例可表现为一个双箭头符号或两个箭头方向相反的单箭头符号。可以利用运动输入设备21针对其中一指示符号43进行间歇性点击或持续点击的操作指令来控制受控末端器械34在相应景深方向的移动对应的距离,其中,可以采用不同形式的定位符号例如光标42来针对其中一指示符号43进行点击,比如用“+”形式的光标来进行点击。
此时,该操作指令对应的操作信息是运动输入设备21接收到的针对其中一指示符号43的点击次数信息或点击持续时长信息。
进一步地,步骤S4具体为解析操作信息获得受控末端器械34在图像41的相应景深方向移动的目标增量距离。
其中,该目标增量距离的获得举例可以这样实现:对于操作信息是针对其中一指示符号的点击次数信息的情况,可预先定义在指示符号43上点击一次使受控末端器械34在图像41的景深方向上的移动距离为d1,则在该操作信息中点击次数信息为n时,计算获得目标增量距离d2=n×d1;对于操作信息是针对其中一指示符号的点击持续时长信息的情况,可预先定义在指示符号43上点击一段时长t1使受控末端器械34在图像41的景深方向上的移动距离为d1,则在该操作信息中点击持续时长信息为t2时,计算获得目标增量距离d2=(t2/t1)d1。
该实施例中,步骤S5则根据获得的受控末端器械34在图像41相应景深方向上移动的目标增量距离控制机械臂30及/或操作臂31运动以使受控末端器械34在图像41的平面内保持视野中心不变的同时在相应的景深方向移动相应距离。
以受控末端器械是图像末端器械34A为例说明,该图像末端器械34A在景深方向上的移动可以理解为图像末端器械34A在景深方向的前进或后退,观感上,图像末端器械34A的前进或后退表现为对图像41内某一实际场景的放大或者缩小,从而实现了对视野范围的调整。如图6所示,图像41上生成有定位符号如光标42和指示景深方向的指示符号43,点A、点B及点C是在图像41上标记的作为参考点的三个点,点A是图像41的中心(即点A是图像末端器械34A当前对准的点)。通过控制光标42点击其中一指示符号43进而控制图像末端器械34A在对应的方向(此处为景深方向的前方)移动相应的距离,可以生成如图7所示的图像41,变化后的图像41相较于之前的图像41,图像41的范围变小了,但标记点A、B、C得到了放大,当然,点A仍是图像41的中心。通过控制光标42点击另一指示符号43进而控制图像末端器械34A在相反的方向(此处为景深方向的后方)移动相应的距离,可以生成如图8所示的图像41,变化后的图像41相较于之前的图像41,虽然标记点A、B、C相当于被缩小了,但图像41的范围变大了(可见到位于之前图像41范围之外的标记点D了),当然,点A仍是图像41的中心。图6中,光标42在位于指示符号43上相应位置时可以是如图7及图8所示意的“+”的形式。
一实施例中,为了受控末端器械34基于图像41的二维位置信息(即XY轴的信息)进行的运动容易被实现,可以利用运动输入设备21针对图像41中某处进行点击的操作指令来表达末端器械34进行对准与该点关联的目标特征点的运动。通常需要在图像41上非指示符号覆盖的区域进行点击以避免其点击在指示符号43上时解析出现矛盾的问题。
此时,该操作指令对应的操作信息是运动输入设备21接收到的针对图像41的点击信息,图像41上被点击的目标点关联于与图像41相应的实际场景中的一目标特征点的位置。其中,通过在图像41上确定目标点,进而可以确定实际场景中与该目标点对应的目标特征点,示例性地,可以根据在图像41上确定的点对应的二维位置信息并结合双目视差原理获得该点在实际场景中对应的目标特征点位于图像末端器械34A的坐标系的三维位置信息。
进一步地,步骤S4具体为解析操作信息获得受控末端器械34在垂直于景深方向的平面运动的目标位置信息或目标姿态信息。示例性地,可以通过结合相机成像模型、目标特征点的三维位置信息及图像末端器械34A的当前位姿信息计算出该目标位置信息或目标姿态信息。
该实施例中,步骤S5则根据获得的受控末端器械34在垂直于景深方向的平面运动的目标位置信息控制机械臂30及/或操作臂31运动以使受控末端器械34进行平移运动(X轴方向及/或Y轴方向)以保持景深方向距离不变的同时对准目标特征点,或根据获得的受控末端器械34在垂直于景深方向的平面运动的目标姿态信息控制机械臂30及/或操作臂31运动以使受控末端器械34进行偏转运动(相对于X轴的偏航及/或相对于Y轴的俯仰)以保持景深方向距离不变的同时对准目标特征点。
其中,受控末端器械34在垂直于景深方向的平面内做平移运动还是做偏转运动通常只能择一而取。具体可以在进行上述的控制之前,通过配置文件来默认设定或由操作人员自由地设置,比如,可以在图像41上生成可供配置的控件以供选择,进一步地,当选择的控件对应的是做平移运动时,步骤S4解析获得的是目标位置信息;当选择的控件对应的是做偏转运动时,步骤S4解析获得的是目标姿态信息。
仍以受控末端器械是图像末端器械34A为例说明,如图9所示,图像41上生成有定位符号如光标42,与图6相同的,点A、点B及点C是在图像41上标记的作为参考点的三个点,点A是图像41的中心(即点A是图像末端器械34A当前对准的点)。通过控制光标42点击图像41中的点B,由于图像末端器械34A进行了在图像41平面对准点B(实际上是对准点B关联的实际场景中的目标特征点)的运动,可以生成如图10所示的图像41,变化后的图像41相较于之前的图像41,图像41中心即视野中心发生了向B点方向(左上方)的迁移,即图像41中心从点A改变为点B,此时,点C从视野范围内移除了,而视野范围内之前不可见的点E变得可见了,可以通过在图像41上不断重复该操作而调整视野范围。
在该实施例中,举例可以设定受控末端器械34做平移运动以对准目标特征点为高优先级、受控末端器械34做偏转运动以对准目标特征点为低优先级。步骤S4中,可以解析操作信息同时获得受控末端器械34在垂直于景深方向的平面运动的目标位置信息和目标姿态信息。在进行步骤S5之前,可以判断与高优先级对应的目标位置信息是否有效,如果目标位置信息有效,则在步骤S5之中,根据获得的目标位姿信息控制对应的受控末端器械34做平移运动以保持景深方向距离不变的同时对准目标特征点;如果无效,进一步判断与低优先级对应的目标姿态信息是否有效,如果目标姿态信息有效,则在步骤S5之中,根据获得的目标姿态信息控制对应的受控末端器械34做偏转运动以保持景深方向距离不变的同时对准目标特征点。当然,也可以设定受控末端器械34做偏转运动以对准目标特征点为高优先级、受控末端器械34做平移运动以对准目标特征点为低优先级。
该实施例中,对于目标位置信息是否有效的判断及对于目标姿态信息是否有效的判断,通常可以将目标位置信息及目标姿态信息分别转换为机械臂30及/或操作臂31中各关节组件的目标运动状态参数,然后将该目标运动状态参数分别与相应关节组件的运动状态阈值进行比较,如果目标运动状态参数均没有超过相应关节组件的运动状态阈值,表明该目标位置信息或目标姿态信息是有效的。
结合上述实施例,可以异步控制受控末端器械34在图像41的景深方向及垂直于景深方向的平面内运动对准目标位置。
一实施例中,为了同步控制受控末端器械34在图像41的景深方向及垂直于景深方向的平面内运动对准目标位置,可以利用运动输入设备21针对图像41进行绘制(绘图)的操作指令来控制受控末端器械34在图像41的景深方向及垂直于景深方向的平面内运动。根据该操作指令可以绘制出系统预设或操作人员自定义的图案44。
此时,该操作指令对应的操作信息即包括运动输入设备21接收到的针对图像41绘制出的图案44的图形信息,图案44的中心点的位置关联于与图像41相应的实际场景中的一目标特征点的位置。可自该图案44的图形信息中解析获得目标特征点的位置信息及景深方向的目标增量距离。
进而,步骤S4具体为解析操作信息获得受控末端器械34在垂直于景深方向的平面运动的目标位置信息或目标姿态信息、及在图像34的相应景深方向移动的目标增量距离。
该实施例中,步骤S5则根据获得的受控末端器械34在垂直于景深方向的平面运动的目标位置信息或目标姿态信息控制机械臂30及/或操作臂31运动以使受控末端器械34对准目标特征点,同时根据获得的受控末端器械34在图像41的相应景深方向移动的目标增量距离控制机械臂30及/或操作臂31运动以使受控末端器械34在相应的景深方向移动相应距离。
在一些实施例中,也可以控制受控末端器械34在垂直于景深方向的平面内的运动及在景深方向的运动异步进行,两者的先后顺序可以根据需要来进行设定。
以受控末端器械是图像末端器械34A为例说明,如图11所示,可以利用运动输入设备21如控制定位符号如光标42在图像41上绘制(框选)图案44,图像41上仍标记有如图6所示的点A、点B及点C,点A仍为图像41中心,示例该图案44的形状能够表达朝向景深方向远端(前方)运动,由于图像末端器械34A进行了景深方向的运动及进行了在图像41平面对准图案44中心(点P1)的运动,生成了如图12所示的图像41,变化后的图像41相较于之前的图像41,其图像41中心从A变化成了P1,且得到了放大。
绘制出的图案44优选为封闭的图案,更优选为规则且封闭的图案,如矩形、圆形、三角形等框选图案。这样容易识别出图案的图形信息并对图形信息进行解析。具体而言,该实施例中,步骤S4包括:
根据图案的图形信息获得图案的中心点在图像上的位置信息,并根据图案的中心点在图像上的位置信息获得与实际场景中相应的目标特征点的位置信息。
根据目标特征点的位置信息获得受控末端器械在垂直于景深方向的平面运动的目标位置信息或目标姿态信息。具体的,可以通过获得该目标特征点在图像末端器械34A的坐标系的三维位置信息,并结合相机成像模型、目标特征点的三维位置信息及图像末端器械34A的当前位姿信息来获得受控末端器械34在垂直于景深方向的平面运动的目标位置信息或目标姿态信息。
根据图案的图形信息获得图案的类型信息或绘制图案的笔画顺序信息,并根据图案的类型信息或绘制图案的笔画顺序信息获得受控末端器械在图像景深方向的移动方向。举例而言,可以用矩形图案代表在图像41景深方向上前进,圆形图案代表在图像41景深方向上后退;绘制同一类型图案时,比如,该图案的绘制方向为从上到下代表前进,绘制方向从下到上代表后退。
根据图案的图形信息获得图案的大小信息,并根据图案的大小信息获得受控末端器械在图像相应景深方向移动的目标增量距离。举例而言,可以根据如下公式计算出受控末端器械34在相应景深方向的目标增量距离。
d2=(S2/S1)d1
其中,S1表示预定义的基准单元的大小,d1表示基准单元的大小所对应受控末端器械34在图像41相应的景深方向移动的目标增量距离,S2表示图案44的大小,d2表示图案44的大小所对应受控末端器械34在图像41相应的景深方向移动的目标增量距离。
更进一步地,可以利用运动输入设备21如控制光标42针对图像41中图案44区域内(包括图案44的边界)进行点击的操作指令来持续控制受控末端器械34在景深方向移动,而不需要重复绘制上述的图案44。该实施例中,该操作指令对应的操作信息是针对图案44点击产生的点击次数信息或点击持续时长信息。步骤S4则解析操作信息获得受控末端器械34在图像41的相应景深方向移动的目标增量距离。
其中,通过多次点击或持续点击图案44区域所解析获得的受控末端器械34在图像41相应景深方向上移动的目标增量距离,相当于绘制相应次数且相同图案44时,受控末端器械34在图像41相应景深方向上移动的总的目标增量距离。一实施例中,可以控制光标42点击图案44区域的不同位置体现期望受控末端器械34在图像41景深方向上移动的方向,比如可以控制光标42点击图案44区域内的上方或左侧被解析为前进,而点击图案44区域内的下方或右侧被解析为后退,或者,也可以选择不同形式的光标42在图案44区域内进行点击体现受控末端器械34在图像41景深方向上移动的方向,如可用“+”形式的光标42表示前进、用“-”形式的光标42表示后退。再结合上述的点击次数信息或点击持续时长信息确定其在相应景深方向移动的目标增量距离。
一实施例中,可以利用运动输入设备21针对图像41的一次持续点击并在持续点击期间进行移动的操作指令来控制受控末端器械34跟随移动产生的路径进行平移运动。该实施例中,该操作指令对应的操作信息是针对图像41的一次持续点击并在持续点击期间移动产生的路径信息。步骤S4则解析操作信息获得受控末端器械34在垂直于景深方向的平面内跟随路径信息进行运动的目标位置增量信息,该目标位置增量信息可以通过计算前后时刻的位置信息之间的差值而获得。进而步骤S5则根据该目标位置增量信息控制机械臂30及/或操作臂31运动以使受控末端器械34沿着该路径移动。
该实施例中,受控末端器械34基于当前位置,根据该目标位置增量信息进行调整,它不一定会对准路径移动,但它移动的趋势与在图像41上持续点击并移动的趋势是保持一致的。以受控末端器械是图像末端器械34A为例说明,这样的控制方式可以使图像末端器械34A跟随路径进行平移运动进而实时调整视野中心,这从感受上相当于对图像41进行拖拽移动,但实际上是由于对图像末端器械34A的调整而导致的图像41的变化。
图13示意了在标记有如图6所示的点A(仍为图像41A中心)、点B及点C的图像41A上持续点击并移动定位符号如光标42形成了光标42的移动路径45,该移动路径45中具有三个采样点451~453,可以理解为光标42先后进行了向左(方向①)的平移和向下(方向②)的平移,图像末端器械34A跟随采样点451和采样点452的移动路径进行平移运动产生了图像41B,然后图像末端器械34A继续跟随采样点452和采样点453的移动路径进行平移运动产生了图像41C,可见图像中心实时都在发生变化,具体由图像41A的点A依次变化为图像41B的点P2、再变化为图像41C的点P3,同样方便了对视野范围的调整。
上述实施例中,图像末端器械34A可以采用双目内窥镜,以提供3D图像从而呈现更逼真的手术场景。其中,可以利用双目内窥镜采集的两幅图像并利用视差计算等方法确定图像末端器械34A远端与障碍物(即患者体内器官或组织)之间的距离,该距离实际上可反应图像末端器械34A可以在景深方向的最大移动距离。可以在图像41上实时地显示该距离以供操作人员判断是否继续向景深方向的前方移动该图像末端器械34A。一实施例中,可以预设一个碰撞阈值,当检测到图像末端器械34A向景深方向的前方移动与障碍物之间的距离达到该碰撞阈值时,可以通过在运动输入设备21中产生如振动这样的触觉反馈以提醒操作人员,也可以通过在图像41上生成提示信息包括但不限于文字提醒信息、图形提醒信息如将上述的指示符号变色或闪烁以提醒操作人员,另外,也可以产生语音提醒信息以提醒操作人员。
提供给操作人员的运动输入设备21可以跟踪手部、头部或眼部的运动并采集这些运动信息。该运动输入设备21可以是磁导航定位传感器、光学定位传感器、或者连杆式主操作手;该运动输入设备21也可以是方便易用的鼠标及/或触摸屏。
一实施例中,除前述的主操作台2之外,可以为其他操作人员提供一个以上的从操作台,主操作台2与从操作台结构相同,区别是主操作台2的控制权限高于从操作台,从操作台在主操作台2授予控制权限后才能进行相应的控制,具体通过主操作台2产生控制权限切换指令后相应一个从操作台被使能控制功能。
另一实施例中,除前述的主操作台2之外,可以为其他操作人员提供一个以上的另一种类型的从操作台,该从操作台自身不具有控制装置而需要与主操作台2共用一个控制装置,其包括与主操作台的控制装置连接的显示器及运动输入设备,从操作台的显示器与主操作台的显示器22显示的图像41相同,以便于另一操作人员对显示于从操作台的显示器中的图像41进行操作以辅助控制受控末端器械34。
对于触摸屏作为运动输入设备21而言,在触摸屏所显示的图像上生成或不生成定位符号均可以实现上述各实施例的功能。操作人员的手指可在触摸屏上点击或滑动,手指与触摸屏接触的地方即可实现定位等功能。一实施例中,触摸屏输入的操作指令对应的操作信息可以是针对图像的两个触摸点的位置信息。该实施例中,步骤S4则解析操作信息获得受控末端器械在图像相应景深方向移动的目标增量距离。该步骤S4中,包括:根据各触摸点的位置信息计算前一时刻及后一时刻两个触摸点之间的距离;根据前一时刻及后一时刻两个触摸点之间的距离计算前后时刻两个触摸点之间的距离差;根据距离差获得受控末端器械在图像景深方向的移动方向及目标增量距离。具体的,根据该距离差的正负符号确定在景深方向是前进还是后退,通常,对应于正的符号代表前进,负的符号代表后退,并利用距离差的值确定在景深方向的目标增量距离。进而,步骤S5则根据获得的在相应景深方向的目标增量距离控制机械臂及/或操作臂运动以使受控末端器械在相应景深方向移动对应的距离。以受控末端器械为图像末端器械34A为例,该操作对应了图像的放大或缩小。
通过在图像上直接操作而实现对末端器械的调整,该调整更直观、更准确及更便捷,有助于节约手术时间,减少患者风险,尤其适用于一操作人员(如助手)辅助控制受控末端器械以减轻另一操作人员(如医生)的负担。
上述实施例中,可以控制优先调整操作臂31或优先调整机械臂30,在操作臂31或机械臂30不足已调整受控末端器械34至目标位置时,再结合两者一起调整。进一步地,在机械臂30远端装设有包括具有图像末端器械34A的操作臂31及具有操作末端器械的操作臂31时,如果对机械臂30进行了调整,可以在调整受控末端器械34时控制其它非受控末端器械保持位姿(包括位置及/或姿态)不变,以避免非受控末端器械产生非期望的运动而对患者造成伤害。
上述各实施例中对图像末端器械34A进行控制对应的操作及由该操作产生的操作信息,均可以适用于对操作末端器械34B进行的控制。区别仅在于对图像末端器械34A的控制目的主要在于调整图像视野,而对于操作末端器械34B的控制目的不在于此,而是让其到达的位置或姿态即可。在对操作末端器械34B进行控制时,仍需要使用到图像末端器械34A来提供操作及观察用的图像41,且在通过对图像41进行操作以控制操作末端器械34B时,一般需要保持图像末端器械34A的视野范围不变化。
上述实施例适用于对如图1所示类型的手术机器人中的末端器械进行控制。该类型的手术机器人包括一个机械臂21及装设于该机械臂21远端的一个以上的具有末端器械34的操作臂31,该机械臂21及操作臂31均具有若干自由度。
上述实施例同样适用于对如图14所示类型的手术机器人中的末端器械进行控制。该类型的手术机器人包括一个主臂32’、装设于主臂32’远端的一个以上的调整臂30’及装设于调整臂30’远端的一个以上的具有末端器械的操作臂31’,该主臂32’、调整臂30’及操作臂31’均具有若干自由度。如图14所示,该手术机器人中,调整臂30’可以设置为四个,每个调整臂30’可以仅设置一个操作臂31’。根据实际使用场景,可以将如图14所示类型的手术机器人的三段式臂体结构配置为如图1所示类型的手术机器人的两段式臂体结构从而实现控制。一实施例中,在该两种类型的手术机器人中的操作臂的概念为一致的情况下,例如,根据配置,可以将如图14所示类型的手术机器人中的各调整臂30’视为如图1所示类型的手术机器人中的机械臂21进行控制;又例如,根据配置,也可以将如图14所示类型的手术机器人中的任一调整臂30’及主臂32’的整体视为如图1所示类型的手术机器人中的机械臂21进行控制。一实施例中,可以将如图14所示类型的手术机器人中的主臂32’视为如图1所示类型的手术机器人中的机械臂21、并将如图14所示类型的手术机器人中的调整臂30’及其对应的操作臂31’的整体视为如图1所示类型的手术机器人中的操作臂31进行控制。
一实施例中,上述手术机器人中末端器械的控制方法通常被配置为由手术机器人的控制装置中来实现,该控制装置具有存储器及处理器,存储器用于存储计算机程序;处理器用于加载并执行计算机程序,计算机程序被配置为由处理器加载并执行实现如上述任一项实施例的控制方法的步骤。
一实施例中,提供一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,该计算机程序被配置为由一个以上的处理器执行实现上述任一项实施例的控制方法的步骤。
本发明的手术机器人及其末端器械的控制方法、控制装置,具有如下有益效果:
通过对图像41进行直接操作而调整末端器械(如调整图像末端器械34A的视野范围),其调整更直观、更准确、更便捷,以辅助手术的实施,有助于节约手术时间,减少患者风险。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种手术机器人中末端器械的控制方法,其特征在于,包括如下步骤:
接收图像末端器械输入的图像数据并根据所述图像数据生成图像;
接收运动输入设备输入的运动信息并识别所述运动信息获得所述运动信息对应的操作指令;
根据所述操作指令在所述图像上进行操作从而产生操作信息;
解析所述操作信息获得用于调整受控末端器械的位置及/或姿态的控制信息。
2.根据权利要求1的控制方法,其特征在于,所述解析所述操作信息获得用于调整受控末端器械的位置及/或姿态的控制信息的步骤中,包括:
解析所述操作信息获得用于调整所述受控末端器械在所述图像的景深方向的目标增量距离、及/或在垂直于所述景深方向的平面运动的目标位置信息或目标姿态信息。
3.根据权利要求2的控制方法,其特征在于:
所述图像上生成有两个指示所述图像的景深方向上相反方向的指示符号,所述操作信息是所述运动输入设备接收到的针对其中一指示符号的点击次数信息或点击持续时长信息;
所述解析所述操作信息获得用于调整受控末端器械的位置及/或姿态的控制信息的步骤中,包括:
解析所述操作信息获得所述受控末端器械在所述图像相应景深方向移动的目标增量距离。
4.根据权利要求2的控制方法,其特征在于:
所述操作信息是所述运动输入设备接收到的针对所述图像的点击信息,所述图像上被点击的目标点关联于与所述图像相应的实际场景中的一目标特征点的位置;
所述解析所述操作信息获得用于调整受控末端器械的位置及/或姿态的控制信息的步骤中,包括:
解析所述操作信息获得所述受控末端器械在垂直于所述景深方向的平面运动的目标位置信息或目标姿态信息。
5.根据权利要求2的控制方法,其特征在于:
所述操作信息包括所述运动输入设备接收到的针对所述图像绘制出的图案的图形信息,所述图案的中心点的位置关联于与所述图像相应的实际场景中的一目标特征点的位置;
所述解析所述操作信息获得用于调整受控末端器械的位置及/或姿态的控制信息的步骤中,包括:
解析所述操作信息获得所述受控末端器械在垂直于所述景深方向的平面运动的目标位置信息或目标姿态信息、及在所述图像相应景深方向移动的目标增量距离。
6.根据权利要求5的控制方法,其特征在于,所述解析所述操作信息获得所述受控末端器械在垂直于所述景深方向的平面运动的目标位置信息或目标姿态信息、及在所述图像相应景深方向移动的目标增量距离的步骤中,包括:
根据所述图案的图形信息获得所述图案的中心点在所述图像上的位置信息,并根据所述图案的中心点在所述图像上的位置信息获得与实际场景中相应的目标特征点的位置信息;
根据所述目标特征点的位置信息获得所述受控末端器械在垂直于所述景深方向的平面运动的目标位置信息或目标姿态信息;
根据所述图案的图形信息获得所述图案的类型信息或绘制所述图案的笔画顺序信息,根据所述图案的类型信息或绘制所述图案的笔画顺序信息获得所述受控末端器械在所述图像景深方向的移动方向;
根据所述图案的图形信息获得所述图案的大小信息,根据所述图案的大小信息获得所述受控末端器械在所述图像相应景深方向移动的目标增量距离。
7.一种手术机器人中末端器械的控制装置,其特征在于,包括:
存储器,用于存储计算机程序;
及处理器,用于加载并执行计算机程序;
其中,所述计算机程序被配置为由处理器加载并执行实现如权利要求1~6任一项所述的控制方法的步骤。
8.一种手术机器人,其特征在于,包括:
从操作设备,具有两个以上的末端器械,一所述末端器械是用于采集图像数据的图像末端器械,其余所述末端器械是用于执行手术操作的操作末端器械;
及主操作台,具有控制装置、显示器及运动输入设备;
其中,所述显示器用于显示图像,所述运动输入设备用于输入操作人员的运动信息,所述控制装置用于执行实现如权利要求1~6任一项所述的控制方法的步骤。
9.一种手术机器人,其特征在于,包括:
从操作设备,具有两个以上的末端器械,一所述末端器械是用于采集图像数据的图像末端器械,其余所述末端器械是用于执行手术操作的操作末端器械;
主操作台,具有控制装置、分别与所述控制装置连接的显示器及运动输入设备;
及从操作台,具有分别与所述主操作台的控制装置连接的显示器及运动输入设备;
其中,所述主操作台的显示器与所述从操作台的显示器显示相同的图像,所述主操作台的运动输入设备与所述从操作台的运动输入设备用于输入不同操作人员的运动信息;
所述主操作台的控制装置被触发产生控制权限切换指令时,用于禁用所述主操作台的运动输入设备并使能所述从操作台的运动输入设备,同时用于执行实现如权利要求1~6任一项所述的控制方法的步骤。
10.一种手术机器人,其特征在于,包括:
从操作设备,具有两个以上的末端器械,一所述末端器械是用于采集图像数据的图像末端器械,其余所述末端器械是用于执行手术操作的操作末端器械;
主操作台,具有控制装置、分别与所述主操作台的控制装置连接的显示器及运动输入设备;
及从操作台,具有控制装置、分别与所述从操作台的控制装置连接的显示器及运动输入设备;
其中,且所述主操作台的控制装置与所述从操作台的控制装置之间可相互通讯,所述第一主操作台的显示器与所述第二操作台的显示器显示相同的图像,所述第一主操作台的运动输入设备与所述第二操作台的运动输入设备用于输入不同操作人员的运动信息;
所述主操作台的控制装置被触发产生控制权限切换指令时,所述主操作台的控制装置用于禁用所述主操作台的运动输入设备并使能所述从操作台的运动输入设备、控制装置,所述从操作台的控制装置用于执行实现如权利要求1~6任一项所述的控制方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910854094.1A CN110464468B (zh) | 2019-09-10 | 2019-09-10 | 手术机器人及其末端器械的控制方法、控制装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910854094.1A CN110464468B (zh) | 2019-09-10 | 2019-09-10 | 手术机器人及其末端器械的控制方法、控制装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110464468A true CN110464468A (zh) | 2019-11-19 |
CN110464468B CN110464468B (zh) | 2020-08-11 |
Family
ID=68515383
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910854094.1A Active CN110464468B (zh) | 2019-09-10 | 2019-09-10 | 手术机器人及其末端器械的控制方法、控制装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110464468B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112043397A (zh) * | 2020-10-08 | 2020-12-08 | 深圳市精锋医疗科技有限公司 | 手术机器人及其运动错误检测方法、检测装置 |
CN112472298A (zh) * | 2020-12-15 | 2021-03-12 | 深圳市精锋医疗科技有限公司 | 手术机器人及其控制装置、控制方法 |
CN112603546A (zh) * | 2020-12-24 | 2021-04-06 | 哈尔滨思哲睿智能医疗设备有限公司 | 一种基于腹腔镜手术机器人的远程手术系统及控制方法 |
CN112618028A (zh) * | 2021-01-06 | 2021-04-09 | 深圳市精锋医疗科技有限公司 | 手术机器人及其引导手术臂移动的方法、控制装置 |
CN113180827A (zh) * | 2021-04-16 | 2021-07-30 | 北京图灵微创医疗科技有限公司 | 一种用于腹腔手术的视觉导航方法及装置 |
CN114452003A (zh) * | 2020-11-10 | 2022-05-10 | 重庆金山医疗机器人有限公司 | 一种手术机器人控制方法 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030109957A1 (en) * | 2001-12-07 | 2003-06-12 | Dan Sanchez | Microwrist system for surgical procedures |
CN101193603A (zh) * | 2005-06-06 | 2008-06-04 | 直观外科手术公司 | 腹腔镜的超声机器人外科手术系统 |
EP1131004B1 (en) * | 1998-11-20 | 2009-10-28 | Intuitive Surgical, Inc. | Cooperative minimally invasive telesurgical system |
US20100198218A1 (en) * | 2001-04-19 | 2010-08-05 | Intuitive Surgical Operations, Inc. | Replaceable end-effector cartridges with cam mechanisms |
WO2011046874A1 (en) * | 2009-10-12 | 2011-04-21 | Corindus Inc. | Catheter system with percutaneous device movement algorithm |
US20110238083A1 (en) * | 2005-07-01 | 2011-09-29 | Hansen Medical, Inc. | Robotic catheter system and methods |
CN104546138A (zh) * | 2012-04-27 | 2015-04-29 | 库卡实验仪器有限公司 | 机器人手术系统和手术器械 |
CN104858876A (zh) * | 2014-02-25 | 2015-08-26 | 通用汽车环球科技运作有限责任公司 | 机器人任务的可视调试 |
JP6117922B2 (ja) * | 2013-06-13 | 2017-04-19 | テルモ株式会社 | 医療用マニピュレータおよびその作動方法 |
CN108024836A (zh) * | 2015-09-25 | 2018-05-11 | 柯惠Lp公司 | 手术机器人组合件和其器械适配器 |
CN108601627A (zh) * | 2016-02-04 | 2018-09-28 | 精准视线公司 | 手术主-从机器人 |
CN109689310A (zh) * | 2016-09-13 | 2019-04-26 | Abb瑞士股份有限公司 | 对工业机器人编程的方法 |
CN110099649A (zh) * | 2016-12-19 | 2019-08-06 | 爱惜康有限责任公司 | 具有用于工具致动的虚拟控制面板的机器人外科系统 |
-
2019
- 2019-09-10 CN CN201910854094.1A patent/CN110464468B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1131004B1 (en) * | 1998-11-20 | 2009-10-28 | Intuitive Surgical, Inc. | Cooperative minimally invasive telesurgical system |
US20100198218A1 (en) * | 2001-04-19 | 2010-08-05 | Intuitive Surgical Operations, Inc. | Replaceable end-effector cartridges with cam mechanisms |
US20030109957A1 (en) * | 2001-12-07 | 2003-06-12 | Dan Sanchez | Microwrist system for surgical procedures |
CN101193603A (zh) * | 2005-06-06 | 2008-06-04 | 直观外科手术公司 | 腹腔镜的超声机器人外科手术系统 |
US20110238083A1 (en) * | 2005-07-01 | 2011-09-29 | Hansen Medical, Inc. | Robotic catheter system and methods |
WO2011046874A1 (en) * | 2009-10-12 | 2011-04-21 | Corindus Inc. | Catheter system with percutaneous device movement algorithm |
CN104546138A (zh) * | 2012-04-27 | 2015-04-29 | 库卡实验仪器有限公司 | 机器人手术系统和手术器械 |
JP6117922B2 (ja) * | 2013-06-13 | 2017-04-19 | テルモ株式会社 | 医療用マニピュレータおよびその作動方法 |
CN104858876A (zh) * | 2014-02-25 | 2015-08-26 | 通用汽车环球科技运作有限责任公司 | 机器人任务的可视调试 |
CN108024836A (zh) * | 2015-09-25 | 2018-05-11 | 柯惠Lp公司 | 手术机器人组合件和其器械适配器 |
CN108601627A (zh) * | 2016-02-04 | 2018-09-28 | 精准视线公司 | 手术主-从机器人 |
CN109689310A (zh) * | 2016-09-13 | 2019-04-26 | Abb瑞士股份有限公司 | 对工业机器人编程的方法 |
CN110099649A (zh) * | 2016-12-19 | 2019-08-06 | 爱惜康有限责任公司 | 具有用于工具致动的虚拟控制面板的机器人外科系统 |
Non-Patent Citations (1)
Title |
---|
郭云鹏: "导管介入手术中虚拟现实技术与主从控制研究", 《导管介入手术中虚拟现实技术与主从控制研究-郭云鹏》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112043397A (zh) * | 2020-10-08 | 2020-12-08 | 深圳市精锋医疗科技有限公司 | 手术机器人及其运动错误检测方法、检测装置 |
WO2022073342A1 (zh) * | 2020-10-08 | 2022-04-14 | 深圳市精锋医疗科技有限公司 | 手术机器人及其运动错误检测方法、检测装置 |
CN114452003A (zh) * | 2020-11-10 | 2022-05-10 | 重庆金山医疗机器人有限公司 | 一种手术机器人控制方法 |
CN114452003B (zh) * | 2020-11-10 | 2024-03-12 | 重庆金山医疗机器人有限公司 | 一种手术机器人 |
CN112472298A (zh) * | 2020-12-15 | 2021-03-12 | 深圳市精锋医疗科技有限公司 | 手术机器人及其控制装置、控制方法 |
CN112603546A (zh) * | 2020-12-24 | 2021-04-06 | 哈尔滨思哲睿智能医疗设备有限公司 | 一种基于腹腔镜手术机器人的远程手术系统及控制方法 |
CN112618028A (zh) * | 2021-01-06 | 2021-04-09 | 深圳市精锋医疗科技有限公司 | 手术机器人及其引导手术臂移动的方法、控制装置 |
WO2022148336A1 (zh) * | 2021-01-06 | 2022-07-14 | 深圳市精锋医疗科技有限公司 | 手术机器人及其引导手术臂移动的方法、控制装置 |
CN113180827A (zh) * | 2021-04-16 | 2021-07-30 | 北京图灵微创医疗科技有限公司 | 一种用于腹腔手术的视觉导航方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN110464468B (zh) | 2020-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110464468A (zh) | 手术机器人及其末端器械的控制方法、控制装置 | |
CN110559083B (zh) | 手术机器人及其末端器械的控制方法、控制装置 | |
CN106296805B (zh) | 一种基于实时反馈的增强现实人体定位导航方法及装置 | |
KR102501099B1 (ko) | 원격조작 의료 시스템에서 기구의 스크린상 식별정보를 렌더링하기 위한 시스템 및 방법 | |
CN107049492B (zh) | 手术机器人系统及手术器械位置的显示方法 | |
EP2755194B1 (en) | 3d virtual training system and method | |
CN107296650A (zh) | 基于虚拟现实和增强现实的智能手术辅助系统 | |
US20230000565A1 (en) | Systems and methods for autonomous suturing | |
CN114601564B (zh) | 手术机器人及其图形化控制装置、图形化显示方法 | |
KR20170083091A (ko) | 통합된 사용자 환경 | |
CN110215285A (zh) | 手术导航的纠偏方法及系统 | |
CN112618020B (zh) | 手术机器人及其控制方法、控制装置 | |
CN110464470A (zh) | 手术机器人及其臂体的控制方法、控制装置 | |
CN110464473A (zh) | 手术机器人及其控制方法、控制装置 | |
JP2014095953A (ja) | 操作対象装置の操作システム、操作入力装置 | |
CN111991084B (zh) | 手术机器人及其虚拟成像控制方法、虚拟成像控制装置 | |
CN112906205A (zh) | 一种用于全髋关节置换手术的虚拟学习方法 | |
CN112957125B (zh) | 一种腔镜手术机器人的手术臂初始位姿规划方法及装置 | |
CN114533263B (zh) | 机械臂碰撞提示方法、可读存储介质、手术机器人及系统 | |
Moustris et al. | Shared control for motion compensation in robotic beating heart surgery | |
CN116869770A (zh) | 一种双机协作上肢康复机器人的控制方法及系统 | |
WO2021173044A1 (ru) | Способ управления камерой в роботохирургическом комплексе | |
Zhou et al. | The study of using eye movements to control the laparoscope under a haptically-enabled laparoscopic surgery simulation environment | |
CN117103286B (zh) | 一种机械手手眼标定方法、系统和可读存储介质 | |
US20230341932A1 (en) | Two-way communication between head-mounted display and electroanatomic system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |