WO2013105738A1 - 수술용 로봇제어 장치 및 그 제어방법 - Google Patents

수술용 로봇제어 장치 및 그 제어방법 Download PDF

Info

Publication number
WO2013105738A1
WO2013105738A1 PCT/KR2012/010634 KR2012010634W WO2013105738A1 WO 2013105738 A1 WO2013105738 A1 WO 2013105738A1 KR 2012010634 W KR2012010634 W KR 2012010634W WO 2013105738 A1 WO2013105738 A1 WO 2013105738A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
robot arm
needling
feature points
coordinates
Prior art date
Application number
PCT/KR2012/010634
Other languages
English (en)
French (fr)
Inventor
최건
이상호
김호
김종원
맹철수
김성현
유정미
Original Assignee
한국보건산업진흥원
의료법인 우리들의료재단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국보건산업진흥원, 의료법인 우리들의료재단 filed Critical 한국보건산업진흥원
Publication of WO2013105738A1 publication Critical patent/WO2013105738A1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/04Surgical instruments, devices or methods, e.g. tourniquets for suturing wounds; Holders or packages for needles or suture materials
    • A61B17/06Needles ; Sutures; Needle-suture combinations; Holders or packages for needles or suture materials
    • A61B17/062Needle manipulators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/37Master-slave robots
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/02Programme-controlled manipulators characterised by movement of the arms, e.g. cartesian coordinate type
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • A61B2017/3405Needle locating or guiding means using mechanical guide means
    • A61B2017/3409Needle locating or guiding means using mechanical guide means including needle or instrument drives
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]

Definitions

  • the present invention relates to a surgical robot control apparatus and a control method thereof, and more particularly, to the position of the patient at the time of taking an image of X-ray, CT, MRI, etc. in order to confirm the location of the patient to operate the lesion
  • the present invention relates to a surgical robot control apparatus and a control method capable of accurately performing a surgery by finding a patient's lesion position even when the patient's posture is changed.
  • surgery refers to the act of cutting, slitting, or manipulating skin, mucous membranes, or other breakfasts using medical devices to heal a disease.
  • the surgical method using a robot takes X-rays, CT (Computed Tomography), and MRI (Magnetic Resonance Imaging) images of the patient's surgical site before starting the operation. Set the coordinates for and operate the robot according to the set coordinates.
  • the posture when the patient takes an image of X-ray, CT, MRI, etc. and the posture when taking a posture to receive the operation may be different, accordingly
  • an error may occur in a coordinate value set on the basis of an image.
  • the nerve or blood vessel of the patient may be damaged during the operation due to an error of a coordinate value set based on the captured image.
  • the present invention has been made to solve the above-described problems, the position of the patient at the time of imaging of X-ray, CT, MRI, etc. to confirm the location of the lesion to be operated on the patient and the patient at the time of performing the surgery It is an object of the present invention to provide a surgical robot control apparatus and a control method capable of performing a surgery by accurately finding a lesion location of a patient even if a posture is changed.
  • Surgical robot control apparatus for achieving the above object, to set the coordinates of the lesion position on the basis of the pre-recorded image, the needling of the robot arm (Robot Arm) according to the set coordinates
  • a robot arm driver configured to designate a target, thereby driving the robot arm
  • a current image capturing unit configured to capture a current image corresponding to a lesion position in a current posture of the patient; Extracts a plurality of feature points from the captured image, searches for positions corresponding to the feature points of the captured image in the current image, and changes the coordinates set by the robot arm driver based on the positional change of the feature points from the captured image to the current image.
  • a coordinate change calculator for calculating; And a driving control unit for correcting the needling target of the robot arm according to the change calculated by the coordinate change calculator, and controlling the driving of the robot arm driving unit according to the corrected needling target of the robot arm.
  • the coordinate change calculator comprises: a feature point distance calculator configured to extract each protrusion of the bone as a feature point from the photographed image and calculate a distance between the extracted feature points; And a corresponding position search unit for searching for positions corresponding to the feature points of the photographed image from the current image based on the distance ratio between the feature points calculated by the feature point distance calculator.
  • the above-described surgical robot control apparatus generates a virtual needling image corresponding to the robot arm driver, and virtually corrects the needling target of the robot arm with respect to the generated virtual needling image to virtually display the current image. It further comprises an image display unit.
  • the coordinate change calculator may extract each protrusion of the bone as a feature point from the photographed image photographed using the X-ray.
  • the coordinate change calculator may calculate the coordinates of the lesion position in the pre-photographed captured image by using at least one of computed tomography (CT) and magnetic resonance imaging (MRI).
  • CT computed tomography
  • MRI magnetic resonance imaging
  • Surgical robot control method for achieving the above object, setting the coordinates of the lesion position on the basis of the pre-recorded image, and setting the needling target of the robot arm; Designating a needling target of the robot arm according to the set coordinates; Photographing a current image corresponding to a lesion position in a current posture of the patient; Extracting a plurality of feature points from the captured image and searching for positions corresponding to the feature points of the captured image in the current image; Calculating a change in coordinates set based on a change in position of feature points from the captured image to the current image; Correcting the needling target of the robot arm according to the change in the calculated coordinates; And driving control of the robot arm according to the needling target of the corrected robot arm.
  • the above-described surgical robot control method further comprises: extracting each protrusion of the bone as a feature point in the photographed image, and calculating a distance between the extracted feature points; and further comprising: calculating the distance ratio between the feature points.
  • a position corresponding to the feature points of the captured image may be searched based on the current image.
  • the above-described surgical robot control method generates a virtual needling image corresponding to the needling target of the set robot arm, corrects the needling target of the robot arm with respect to the generated virtual needling image, and virtualizes the current image. Displaying as; may further include.
  • each protrusion of the bone is extracted as a feature point from the pre-photographed captured image using X-ray.
  • the coordinates of the lesion position are calculated in the photographed image by using at least one of the CT and the MRI.
  • the lesion of the patient accurately You will be able to locate and perform the surgery.
  • FIG. 1 is a view schematically showing a surgical robot control apparatus according to an embodiment of the present invention.
  • FIG. 2 is a diagram illustrating an example of a robot arm.
  • FIG. 3 is a diagram illustrating an example of a C-arm apparatus as an example of a current image capturing unit.
  • FIG. 4 is a diagram illustrating an example of extracting feature points from an X-ray image.
  • FIG. 5 is a diagram illustrating an example of searching for a position corresponding to a feature point in a current image.
  • FIG. 6 is a diagram illustrating an example of extracting feature points from an MRI image.
  • FIG. 7 is a diagram illustrating an example of displaying a virtual needling image on a current image.
  • FIG. 8 is a flowchart illustrating a surgical robot control method according to an embodiment of the present invention.
  • FIG. 1 is a view schematically showing a surgical robot control apparatus according to an embodiment of the present invention.
  • the surgical robot control apparatus 100 is a robot arm driving unit 110, the current image taking unit 120, the coordinate change calculation unit 130, the drive control unit 140 And a virtual image display unit 150.
  • the robot arm driver 110 sets the coordinates of the lesion position based on the pre-recorded photographed image, and specifies a needling target of the robot arm according to the coordinates of the set lesion position. Drive the robot arm. That is, the robot arm driving unit 110 checks the position of the lesion from a captured image such as a pre-recorded X-ray image, a computed tomography (CT) image, a magnetic resonance imaging (MRI) image, and specifies a reference point in the captured image. And set the coordinates of the lesion position with respect to the designated reference point.
  • a captured image such as a pre-recorded X-ray image, a computed tomography (CT) image, a magnetic resonance imaging (MRI) image.
  • the robot arm driving unit 110 is a needling target point of the robot arm from the patient's reference point corresponding to the reference point of the pre-recorded captured image spaced a predetermined distance according to the enlargement / reduction ratio of the pre-recorded captured image
  • the robot arm is driven to be targeted to the designated needling target point.
  • the robot arm is a device for performing an operation such as cutting or suturing tissue in vivo
  • Figure 2 shows an example of the robot arm. That is, the robot arm 200 includes a plurality of joints 210, and a needle 220 is installed at the tip of the robot arm 200 to penetrate into the skin to perform cutting and suturing of the tissue. At this time, the robot arm 200 can be rotated up and down and angle adjustment using the joint 210, as well as the left and right rotation, and also using the height adjusting unit 230 between the robot arm 200 and the needle 220. The height of the needle 220 may be adjusted. In this case, a surgical tool such as a laser beam device may be mounted at the tip of the needle 220, or drugs may be directly injected through the needle 220.
  • the driving method for the robot arm 200 may follow various known methods, and a detailed description thereof will be omitted herein.
  • the shape of the robot arm 200 is not limited to the shape shown in FIG. 2, and various known types of robot arms may be used.
  • the current image capturing unit 120 captures a current image corresponding to the lesion position in the current posture at the time of surgery of the patient.
  • the current image capturing unit 120 may take an image of the current posture of the patient in the operating room using the C-arm device as shown in FIG.
  • the C-cancer device is a device for photographing the operation history of a patient before or during surgery using X-ray during surgery in neurosurgery, orthopedics, urology, etc. It is an important device of the operating room to observe the state of the affected area in real time.
  • an X-ray generator 310 generating X-rays and an X-ray detector 320 detecting X-rays generated by the X-ray generator 310 have a 'C' shape. Is connected to the C-arm support 330 of the. In addition, the C-arm support 330 is connected to the rotary block 351 of the main body 350 through the rotary shaft 353, the main body 350 and the monitor 340 is connected via a cable. At this time, the rotation shaft 353 can be rotated at any angle from the reference position.
  • the X-ray generator 310 radiates X-rays to an object such as a patient or an animal body, and the X-ray detector 320 detects X-rays passing through the object.
  • the main body 350 processes the video signal, and the monitor 340 displays the video signal processed by the main body 350 as an image.
  • the C-arm apparatus is illustrated and described as an example of the current image capturing unit 120, but the current image capturing unit 120 is not limited to the C-arm apparatus, and is used by an O-arm apparatus or another device. May be
  • robot arm 200 and the current image capturing unit 120 are illustrated and described in FIG. 2 and FIG. 3 as being implemented as separate and independent devices, the robot arm 200 and the current image capturing unit 120 are illustrated. May be integrally formed into one device.
  • the coordinate change calculation unit 130 extracts a plurality of feature points from the pre-recorded captured image by using X-ray, CT, MRI, etc., and corresponds to the feature points in the current image captured by the current image capture unit 120. Search for a location. At this time, the posture of the patient at the time of taking the image using X-ray, CT, MRI and the like and the posture of the patient at the time of surgery is different, the coordinate of the lesion position set by the robot arm driver 110 is present in the operating room The current image photographed by the image capturing unit 120 is changed to another value.
  • the coordinate change calculator 130 may calculate a change in the coordinate of the lesion position set by the robot arm driver 110 based on the position change of the feature points from the captured image to the current image.
  • the coordinate change calculation unit 130 is preferably extracted as a feature point of each protrusion of the bone that does not change its shape, such as spine, pelvis, etc. in the pre-recorded captured image.
  • the coordinate change calculation unit 130 in order to increase the accuracy of the coordinate change calculation of the lesion position, as shown in Figure 4, (a) the spine image of the side, (b) the front of the same lesion of the patient Each feature point may be extracted for a plurality of captured images such as a spine image.
  • the coordinate change calculator 130 may include a feature point distance calculator 132 and a corresponding location searcher 134.
  • the feature point distance calculator 132 calculates the distance between each of the extracted feature points in each protrusion of the bone in the pre-recorded captured image. For example, as shown in (a) and (b) of FIG. 4, the photographed image is divided at predetermined intervals, the inflection point of the outline of the bone is extracted as a feature point, and the distance between each feature point. Can be calculated.
  • the corresponding location search unit 134 may store the feature points of the photographed image photographed from the current image photographed by the current image photographing unit 120 based on the distance ratio between the feature points calculated by the feature point distance calculator 132. Search for the location corresponding to.
  • the feature point distance calculating unit 132 extracts the feature points as shown in FIG. You can calculate the distance between them. For ease of explanation, it is shown that the point of inflection is greater than or equal to the set value from the pre-recorded photographed image as a feature point and the distance between the feature points is calculated.
  • the current image at the time of surgery by the current image capturing unit 120 is the same as that of FIG.
  • the position corresponding to each feature point can be retrieved from. That is, even when the position of the patient is changed, the shape of each bone node is kept constant, so that the corresponding position search unit 134 may search for positions corresponding to each feature point from the current image according to the ratio between the feature points.
  • the coordinate change calculator 130 determines the position of the lesion in the current image photographed by the current image capturing unit 120 according to the coordinate of the lesion position and the distance ratio between the respective feature points in the photographed image. The change may be calculated by comparing the coordinates of the detected lesion position with the coordinates of the lesion position set by the robot arm driver 110.
  • the X-ray image may be used to extract each protrusion of the bone as a feature point
  • the CT image or the MRI image may be used to calculate the location of the lesion near the bone and the distance ratio of each feature point.
  • the location ratio of the location of each lesion and the distance ratio of each feature point may be calculated as a feature point far from the feature point closest to the location of the lesion, and only a number set sequentially.
  • Surgical robot control apparatus as shown in Figure 6 (a) MRI image around the neck bone, (b) MRI image around the hip bone, as well as X-ray image, CT image, etc.
  • the feature point can be extracted by using the A, and the change in the position of the lesion can be accurately calculated in comparison with the current image photographed by the current image capturing unit 120 during surgery.
  • the position of the affected part is not limited to the neck or the waist shown in FIG. 6, and feature points for various parts can be extracted.
  • the driving controller 140 corrects the needling target point of the robot arm 200 according to the change of the coordinate calculated by the coordinate change calculator 130, and the robot arm driver 110 according to the corrected needling target point. Drive control.
  • the virtual image display unit 150 generates a virtual needling image corresponding to the robot arm driver 110 and corrects the needling target point of the robot arm 200 with respect to the generated virtual needling image to the current image. It can be displayed virtually. That is, as illustrated in FIG. 7, the virtual image display unit 150 needles virtual needles that need to be coordinated by the robot arm driver 110 with respect to the current image photographed by the current image photographing unit 120. By displaying an image and displaying a virtual needling image corresponding to the robot arm driver 110 corrected by the driving controller 150, it is possible to confirm whether the correction is normal before attempting the surgery.
  • FIG. 8 is a flowchart illustrating a surgical robot control method according to an embodiment of the present invention.
  • the robot arm driving unit 110 checks the position of the lesion from a photographed image such as a pre-recorded X-ray image, a CT image, an MRI image, and designates a reference point in the photographed image. Set the coordinates of the lesion position with respect to the designated reference point (S802). At this time, the robot arm driving unit 110 is a needling target point of the robot arm from the patient's reference point corresponding to the reference point of the pre-recorded captured image spaced a predetermined distance according to the enlargement / reduction ratio of the pre-recorded captured image It is specified as (S804).
  • the current image capturing unit 120 captures the current image corresponding to the lesion position in the current posture at the time of surgery of the patient (S806).
  • the coordinate change calculator 130 extracts a plurality of feature points from the pre-photographed captured image using X-ray, CT, MRI, and the like (S808). In this case, the coordinate change calculator 130 extracts each protrusion of the bone as a feature point from the pre-recorded captured image, and the feature point distance calculator 132 may calculate the distance between the extracted feature points (S810). .
  • the corresponding location search unit 134 may store the feature points of the photographed image photographed from the current image photographed by the current image photographing unit 120 based on the distance ratio between the feature points calculated by the feature point distance calculator 132. Search for a location corresponding to the (S812).
  • the coordinate change calculator 130 may search for the location of the lesion in the current image captured by the current image capturing unit 120 according to the coordinates of the location of the lesion in the pre-recorded image and the distance ratio between the respective feature points. And, the coordinates of the retrieved lesion position and the coordinates of the lesion position set by the robot arm driver 110 are compared to calculate the change (S814).
  • the driving controller 140 corrects the needling target point of the robot arm 200 according to the change of the coordinate calculated by the coordinate change calculator 130 (S816).
  • the virtual image display unit 150 generates a virtual needling image corresponding to the robot arm driver 110 and corrects the needling target point of the robot arm 200 with respect to the generated virtual needling image to the current image. It can be displayed virtually (S818).
  • the driving controller 140 controls the robot arm driver 110 according to the corrected needling target point. Operation can be started by driving control (S822).
  • the lesion of the patient accurately You will be able to locate and perform the surgery.

Abstract

수술용 로봇제어 장치 및 그 제어방법이 개시된다. 본 발명에 따른 수술용 로봇제어 장치는, 기 촬영된 촬영영상에 기초하여 병변 위치의 좌표를 설정하고, 설정된 좌표에 따라 로봇암(Robot Arm)의 니들링 타겟(Needling Target)을 지정하며, 그에 따라 로봇암을 구동하는 로봇암구동부; 환자의 현재의 자세에서 병변 위치에 대응하는 현재영상을 촬영하는 현재영상촬영부; 촬영영상에서 복수의 특징점을 추출하며, 현재영상에서 촬영영상의 특징점들에 대응하는 위치를 검색하고, 촬영영상에서 현재영상으로의 특징점들의 위치변화에 기초하여 로봇암구동부에 의해 설정된 좌표의 변화를 계산하는 좌표변화계산부; 및 좌표변화계산부에 의해 계산된 변화에 따라 로봇암의 니들링 타겟을 보정하며, 보정된 로봇암의 니들링 타겟에 따라 로봇암구동부를 구동제어하는 구동제어부를 포함하는 것을 특징으로 한다.

Description

수술용 로봇제어 장치 및 그 제어방법
본 발명은 수술용 로봇제어 장치 및 그 제어방법에 관한 것으로서, 보다 상세하게는, 환자의 수술할 병변의 위치를 확인하기 위해 X-ray, CT, MRI 등의 영상의 촬영할 당시의 환자의 자세와 수술을 실행할 당시의 환자의 자세가 달라지더라도 정확하게 환자의 병변위치를 찾아 수술을 수행할 수 있는 수술용 로봇제어 장치 및 그 제어방법에 관한 것이다.
의학적으로 수술이란 피부나 점막, 기타 조식을 의료 기계를 사용하여 자르거나 째거나 조작을 가하여 병을 고치는 행위를 말한다.
전통적인 외과수술 방식은 일반적으로 의사의 의료기술에 전적으로 의존하여 이루어지기 때문에, 동일한 수술에 대해서도 의사의 경험치, 전문지식 등에 따라 수술 결과에 차이가 발생할 수 있다.
이와 같은 문제점을 해소하기 위하여, 최근에는 로봇(robot)을 이용하여 환자의 수술부위를 절개하고, 그 내부에 있는 기관 등을 치료, 성형하거나 제거하는 수술방법이 개발되었다. 로봇을 이용한 수술방법은 일반적으로 수술을 시작하기 전에 환자의 수술부위에 대한 X-ray, CT(Computed Tomography), MRI(Magnetic Resonance Imaging) 등의 영상을 촬영하고, 촬영된 영상에 기초하여 수술부위에 대한 좌표를 설정하며, 설정된 좌표에 따라 로봇을 동작시켜 수술을 시행한다.
그런데, 종래의 기술에 따른 로봇을 이용한 수술방법은, 환자가 X-ray, CT, MRI 등의 영상을 촬영할 때의 자세와 수술을 받기 위한 자세를 취했을 때의 자세가 달라질 수 있으며, 그에 따라 촬영된 영상에 기초하여 설정된 좌표값에 오차가 발생할 수 있다는 문제점이 있다. 특히, 척추와 같이 신경 및 혈관이 집중되어 있는 부위를 수술하는 경우, 촬영된 영상에 기초하여 설정된 좌표값의 오차로 인해 수술도중에 환자의 신경이나 혈관을 손상시킬 수 있다는 문제점이 있다.
본 발명은 전술한 문제점을 해결하기 위하여 창안된 것으로서, 환자의 수술할 병변의 위치를 확인하기 위해 X-ray, CT, MRI 등의 영상의 촬영할 당시의 환자의 자세와 수술을 실행할 당시의 환자의 자세가 달라지더라도 정확하게 환자의 병변위치를 찾아 수술을 수행할 수 있는 수술용 로봇제어 장치 및 그 제어방법을 제공하는 것을 목적으로 한다.
전술한 목적을 달성하기 위한 본 발명의 실시예에 따른 수술용 로봇제어 장치는, 기 촬영된 촬영영상에 기초하여 병변 위치의 좌표를 설정하고, 설정된 좌표에 따라 로봇암(Robot Arm)의 니들링 타겟(Needling Target)을 지정하며, 그에 따라 상기 로봇암을 구동하는 로봇암구동부; 환자의 현재의 자세에서 병변 위치에 대응하는 현재영상을 촬영하는 현재영상촬영부; 촬영영상에서 복수의 특징점을 추출하며, 현재영상에서 촬영영상의 특징점들에 대응하는 위치를 검색하고, 촬영영상에서 현재영상으로의 특징점들의 위치변화에 기초하여 로봇암구동부에 의해 설정된 좌표의 변화를 계산하는 좌표변화계산부; 및 좌표변화계산부에 의해 계산된 변화에 따라 로봇암의 니들링 타겟을 보정하며, 보정된 로봇암의 니들링 타겟에 따라 로봇암구동부를 구동제어하는 구동제어부;를 포함하는 것을 특징으로 한다.
좌표변화계산부는, 촬영영상에서 뼈의 각각의 돌출부위를 특징점으로 추출하며, 추출된 특징점들 사이의 거리를 계산하는 특징점거리계산부; 및 특징점거리계산부에 의해 계산된 특징점들 사이의 거리비율에 기초하여 현재영상으로부터 촬영영상의 특징점들에 대응하는 위치를 검색하는 대응위치검색부;를 포함한다.
전술한 수술용 로봇제어 장치는, 로봇암구동부에 대응하는 가상의 니들링영상을 생성하며, 생성된 가상의 니들링영상에 대해 로봇암의 니들링 타겟을 보정하여 현재영상에 가상으로 표시하는 가상영상표시부;를 더 포함한다.
좌표변화계산부는, X-ray를 이용하여 기 촬영된 촬영영상으로부터 뼈의 각각의 돌출부위를 특징점으로 추출할 수 있다.
좌표변화계산부는, CT(Computed Tomography) 및 MRI(Magnetic Resonance Imaging) 중의 적어도 하나를 이용하여 기 촬영된 촬영영상에서 병변 위치의 좌표를 계산할 수 있다.
전술한 목적을 달성하기 위한 본 발명의 실시예에 따른 수술용 로봇 제어방법은, 기 촬영된 촬영영상에 기초하여 병변 위치의 좌표를 설정하고, 로봇암의 니들링 타겟을 설정하는 단계; 설정된 좌표에 따라 로봇암의 니들링 타겟을 지정하는 단계; 환자의 현재의 자세에서 병변 위치에 대응하는 현재영상을 촬영하는 단계; 촬영영상에서 복수의 특징점을 추출하며, 현재영상에서 촬영영상의 특징점들에 대응하는 위치를 검색하는 단계; 촬영영상에서 현재영상으로의 특징점들의 위치변화에 기초하여 설정된 좌표의 변화를 계산하는 단계; 계산된 좌표의 변화에 따라 로봇암의 니들링 타겟을 보정하는 단계; 및 보정된 로봇암의 니들링 타겟에 따라 로봇암을 구동제어하는 단계;를 포함하는 것을 특징으로 한다.
전술한 수술용 로봇 제어방법은, 촬영영상에서 뼈의 각각의 돌출부위를 특징점으로 추출하며, 추출된 특징점들 사이의 거리를 계산하는 단계;를 더 포함하며, 계산된 특징점들 사이의 거리비율에 기초하여 현재영상으로부터 촬영영상의 특징점들에 대응하는 위치를 검색할 수 있다.
전술한 수술용 로봇 제어방법은, 설정된 로봇암의 니들링 타겟에 대응하는 가상의 니들링영상을 생성하며, 생성된 가상의 니들링영상에 대해 로봇암의 니들링 타겟을 보정하여 현재영상에 가상으로 표시하는 단계;를 더 포함할 수 있다.
위치검색 단계는, X-ray를 이용하여 기 촬영된 촬영영상으로부터 뼈의 각각의 돌출부위를 특징점으로 추출한다.
또한, 위치검색 단계는, CT 및 MRI 중의 적어도 하나를 이용하여 기 촬영된 촬영영상에서 병변 위치의 좌표를 계산한다.
본 발명에 따르면, 환자의 수술할 병변의 위치를 확인하기 위해 X-ray, CT, MRI 등의 영상의 촬영할 당시의 환자의 자세와 수술을 실행할 당시의 환자의 자세가 달라지더라도 정확하게 환자의 병변위치를 찾아 수술을 수행할 수 있게 된다.
도 1은 본 발명의 실시예에 따른 수술용 로봇제어 장치를 개략적으로 도시한 도면이다.
도 2는 로봇암의 예를 나타낸 도면이다.
도 3은 현재영상 촬영부의 예로서 C-암 장치의 예를 나타낸 도면이다.
도 4는 X-ray 영상에서 특징점을 추출하는 예를 나타낸 도면이다.
도 5는 현재영상에서 특징점에 대응하는 위치를 검색하는 예를 나타낸 도면이다.
도 6은 MRI 영상에서 특징점을 추출하는 예를 나타낸 도면이다.
도 7은 현재영상에 가상의 니들링영상을 표시하는 예를 나타낸 도면이다.
도 8은 본 발명의 실시예에 따른 수술용 로봇 제어방법을 나타낸 흐름도이다.
이하, 첨부도면을 참조하여 본 발명의 실시예에 따른 수술용 로봇장치 및 그 수술방법을 상세하게 설명한다. 도 1은 본 발명의 실시예에 따른 수술용 로봇제어 장치를 개략적으로 도시한 도면이다.
도 1을 참조하면, 본 발명의 실시예에 따른 수술용 로봇제어 장치(100)은 로봇암구동부(110), 현재영상촬영부(120), 좌표변화계산부(130), 구동제어부(140) 및 가상영상표시부(150)를 포함한다.
로봇암구동부(110)는 기 촬영된 촬영영상에 기초하여 병변 위치의 좌표를 설정하고, 설정된 병변 위치의 좌표에 따라 로봇암(Robot Arm)의 니들링 타겟(Needling Target)을 지정하며, 그에 따라 로봇암을 구동한다. 즉, 로봇암구동부(110)는 기 촬영된 X-ray 영상, CT(Computed Tomography) 영상, MRI(Magnetic Resonance Imaging) 영상 등의 촬영영상으로부터 병변의 위치를 확인하며, 해당 촬영영상에서 기준점을 지정하고, 지정된 기준점에 대한 병변 위치의 좌표를 설정한다. 이때, 로봇암구동부(110)는 기 촬영된 촬영영상의 기준지점에 대응하는 환자의 기준지점으로부터 기 촬영된 촬영영상의 확대/축소 비율에 따라 소정 거리 이격된 지점을 로봇암의 니들링 타겟지점으로 지정하며, 지정된 니들링 타겟지점으로 타게팅(Targeting)되도록 로봇암을 구동한다.
여기서, 로봇암은 생체 내에서 조직을 절개하거나 봉합하는 등의 작업을 수행하는 기기로서, 도 2는 로봇암의 일 예를 나타낸다. 즉, 로봇암(200)은 복수의 관절(210)을 포함하며, 그 선단에는 피부 속에 침투하여 조직의 절개, 봉합 등의 작업을 수행하는 니들(220)이 설치된다. 이때, 로봇암(200)은 좌우의 회전뿐만 아니라, 관절(210)을 이용한 상하회전 및 각도조절이 가능하며, 또한 로봇암(200)과 니들(220) 사이의 높이조절부(230)를 이용하여 니들(220)의 높낮이를 조절할 수도 있다. 이때, 니들(220)의 선단에는 레이저빔(laser beam) 장치와 같은 수술도구가 장착되거나, 니들(220)을 통하여 약물을 직접 투입할 수도 있다. 로봇암(200)에 대한 구동방법은 공지된 다양한 방법을 따를 수 있으며, 여기서는 그 상세한 설명을 생략한다. 또한, 로봇암(200)의 형태는 도 2에 도시된 형태에 한정되는 것은 아니며, 공지된 다양한 형태의 로봇암이 이용될 수도 있다.
현재영상촬영부(120)는 환자의 수술시의 현재의 자세에서 병변 위치에 대응하는 현재영상을 촬영한다. 이때, 현재영상촬영부(120)는 도 3에 도시한 바와 같은 C-암 장치를 이용하여 수술실에서의 환자의 현재의 자세에서의 영상을 촬영할 수 있다.
일반적으로, C-암 장치는 신경외과, 정형외과, 비뇨기과 등에서 수술시에 X선을 이용하여 수술 전, 중의 환자의 수술경과를 사진촬영하거나 또는 모니터를 통해 영상으로 표시하는 장치로서, 수술 전, 중의 환부의 상태를 실시간으로 관찰할 수 있도록 하는 수술실의 중요한 장치이다.
도 3에 도시한 바와 같이, C-암 장치는 X선을 발생하는 X선 발생기(310), X선 발생기(310)에서 발생된 X선을 검출하는 X선 검출기(320)가 'C'모양의 C-암 지지대(330)에 연결된다. 또한, C-암 지지대(330)는 회전샤프트(353)를 통해 본체(350)의 회전블록(351)에 연결되며, 본체(350)와 모니터(340)가 케이블을 통해 연결된다. 이때, 회전샤프트(353)는 기준 위치로부터 임의의 각도로 회전이 가능하다. 이와 같은 구성을 통하여, C-암 장치는, X선 발생기(310)가 환자나 동물 몸체 등과 같은 검사체에 X선을 방사시키며, 검사체를 통과한 X선을 X선 검출기(320)가 검출하여 본체(350)에서 영상신호로 처리하고, 모니터(340)가 본체(350)에 의해 처리된 영상신호를 영상으로 디스플레이한다.
도 3에서는 현재영상촬영부(120)의 예로서 C-암 장치를 도시하고 설명하였지만, 현재영상촬영부(120)는 C-암 장치에 한정되지 않으며, O-암 장치 또는 기타 다른 장치가 이용될 수도 있다.
또한, 도 2 및 도 3에서 로봇암(200) 및 현재영상촬영부(120)는 각각 별개의 독립적인 장치로 구현되는 것으로 도시하고 설명하였지만, 로봇암(200)과 현재영상촬영부(120)는 하나의 장치로 일체화되어 형성될 수도 있다.
좌표변화계산부(130)는 X-ray, CT, MRI 등을 이용하여 기 촬영된 촬영영상에서 복수의 특징점을 추출하며, 현재영상촬영부(120)에 의해 촬영된 현재영상에서 특징점들에 대응하는 위치를 검색한다. 이때, X-ray, CT, MRI 등을 이용하여 영상을 촬영할 당시의 환자의 자세와 수술시의 환자의 자세는 다르므로, 로봇암구동부(110)에 의해 설정된 병변 위치의 좌표는, 수술실에서 현재영상촬영부(120)에 의해 촬영된 현재영상에 대하여 다른 값으로 변경된다. 이를 위하여, 좌표변화계산부(130)는 촬영영상에서 현재영상으로의 특징점들의 위치변화에 기초하여 로봇암구동부(110)에 의해 설정된 병변 위치의 좌표의 변화를 계산할 수 있다. 이때, 좌표변화계산부(130)는 기 촬영된 촬영영상에서 척추, 골반 등과 같이 그 형태의 변화가 없는 뼈의 각각의 돌출부위를 특징점으로 추출하는 것이 바람직하다. 이 경우, 좌표변화계산부(130)는 병변 위치의 좌표변화 계산의 정확성을 높이기 위하여, 도 4에 도시한 바와 같이 환자의 동일한 환부에 대하여 (a) 측면의 척추 촬영영상, (b) 정면의 척추 촬영영상 등과 같은 복수의 촬영영상에 대해 각각의 특징점을 추출할 수 있다.
좌표변화계산부(130)는 특징점거리계산부(132) 및 대응위치검색부(134)를 구비할 수 있다.
특징점거리계산부(132)는 기 촬영된 촬영영상에서 뼈의 각각의 돌출부위를 하며, 추출된 특징점들 사이의 거리를 계산한다. 예를 들어, 도 4의 (a) 및 (b)에 도시한 바와 같이, 기 촬영된 촬영영상을 소정 간격으로 분할하며, 뼈의 외곽선의 변곡점을 특징점으로 추출하고, 각각의 특징점들 사이의 거리를 계산할 수 있다.
대응위치검색부(134)는 특징점거리계산부(132)에 의해 계산된 특징점들 사이의 거리비율에 기초하여 현재영상촬영부(120)에 의해 촬영된 현재영상으로부터 기 촬영된 촬영영상의 특징점들에 대응하는 위치를 검색한다.
예를 들어, 병변의 위치가 목뼈 부근이라고 가정하면, 특징점거리계산부(132)는 목뼈 부근의 기 촬영된 촬영영상으로부터 도 5의 (a)에 도시한 바와 같은 특징점들을 추출하며, 각 특징점들 사이의 거리를 계산할 수 있다. 여기서는 설명을 용이하게 하기 위하여 기 촬영된 촬영영상으로부터 변곡률이 설정 값 이상인 지점을 특징점으로 추출하고 각 특징점들 사이의 거리를 계산하는 것으로 도시하였다.
또한, 현재영상촬영부(120)에 의해 수술시의 현재영상이 도 5의 (b)와 같다고 가정하면, 대응위치검색부(134)는 목뼈의 각각의 특징점들의 거리의 비율에 기초하여 현재영상으로부터 각각의 특징점에 대응하는 위치를 검색할 수 있다. 즉, 환자의 자세가 바뀌더라도 각각의 뼈마디의 형태는 일정하게 유지되므로, 대응위치검색부(134)는 특징점들 사이의 비율에 따라 현재영상으로부터 각 특징점들에 대응하는 위치를 검색할 수 있다.
이때, 뼈마디와 뼈마디 사이에 있는 병변의 위치는 도 5에 도시한 바와 같이, 환자의 자세가 변경됨에 따라 촬영영상에서의 위치와 수술시의 위치가 달라지게 된다. 이 경우, 좌표변화계산부(130)는 기 촬영된 촬영영상에서 병변 위치의 좌표와 각 특징점들 사이의 거리비율에 따라, 현재영상촬영부(120)에 의해 촬영된 현재영상에서 병변의 위치를 검색할 수 있으며, 검색된 병변 위치의 좌표와 로봇암구동부(110)에 의해 설정된 병변 위치의 좌표를 비교하여 그 변화를 계산할 수 있다.
이때, X-ray 영상은 뼈의 각각의 돌출부위를 특징점으로 추출하는 데에 이용될 수 있으며, CT 영상 또는 MRI 영상은 뼈 부근의 병변의 위치와 각 특징점들의 거리비율을 계산하는데 이용될 수 있다. 이 경우, 병변의 위치와 각 특징점들의 거리비율은 병변의 위치로부터 가장 가까운 특징점에서 먼 특징점으로, 순차적으로 설정된 개수만큼만 계산될 수도 있다.
본 발명의 실시예에 따른 수술용 로봇제어 장치는 도 6의 (a)에 도시한 바와 같이 목뼈 부근의 MRI 영상, (b) 허리뼈 부근의 MRI 영상뿐만 아니라, X-ray 영상, CT 영상 등을 활용하여 특징점을 추출할 수 있으며, 수술시의 현재영상촬영부(120)에 의해 촬영되는 현재영상과 비교하여 병변 위치의 변화를 정확하게 계산할 수 있다. 또한, 환부의 위치는 도 6에 도시한 목이나 허리에 한정되는 것이 아니며, 다양한 부위에 대한 특징점의 추출이 가능하다.
구동제어부(140)는 좌표변화계산부(130)에 의해 계산된 좌표의 변화에 따라 로봇암(200)의 니들링 타겟 지점을 보정하며, 보정된 니들링 타겟 지점에 따라 로봇암구동부(110)를 구동 제어한다.
가상영상표시부(150)는 로봇암구동부(110)에 대응하는 가상의 니들링영상을 생성하며, 생성된 가상의 니들링영상에 대해 로봇암(200)의 니들링 타겟 지점을 보정하여 현재영상에 가상으로 표시할 수 있다. 즉, 가상영상표시부(150)는 도 7에 도시한 바와 같이, 현재영상촬영부(120)에 의해 촬영된 현재영상에 대하여 로봇암구동부(110)에 의해 설정된 좌표로 니들링하는 가상의 니들링영상을 표시하며, 그에 대해 구동제어부(150)에 의해 보정된 로봇암구동부(110)에 대응하는 가상의 니들링영상을 표시함으로써 수술을 시도하기 전에 보정이 정상적으로 되었는지를 확인할 수 있다.
도 8은 본 발명의 실시예에 따른 수술용 로봇 제어방법을 나타낸 흐름도이다.
도 1 내지 도 8을 참조하면, 로봇암구동부(110)는 기 촬영된 X-ray 영상, CT 영상, MRI 영상 등의 촬영영상으로부터 병변의 위치를 확인하며, 해당 촬영영상에서 기준점을 지정하고, 지정된 기준점에 대한 병변 위치의 좌표를 설정한다(S802). 이때, 로봇암구동부(110)는 기 촬영된 촬영영상의 기준지점에 대응하는 환자의 기준지점으로부터 기 촬영된 촬영영상의 확대/축소 비율에 따라 소정 거리 이격된 지점을 로봇암의 니들링 타겟지점으로 지정한다(S804).
현재영상촬영부(120)는 환자의 수술시의 현재의 자세에서 병변 위치에 대응하는 현재영상을 촬영한다(S806).
좌표변화계산부(130)는 X-ray, CT, MRI 등을 이용하여 기 촬영된 촬영영상에서 복수의 특징점을 추출한다(S808). 이때, 좌표변화계산부(130)는 기 촬영된 촬영영상에서 뼈의 각각의 돌출부위를 특징점으로 추출하며, 특징점거리계산부(132)는 추출된 특징점들 사이의 거리를 계산할 수 있다(S810).
대응위치검색부(134)는 특징점거리계산부(132)에 의해 계산된 특징점들 사이의 거리비율에 기초하여 현재영상촬영부(120)에 의해 촬영된 현재영상으로부터 기 촬영된 촬영영상의 특징점들에 대응하는 위치를 검색한다(S812).
좌표변화계산부(130)는 기 촬영된 촬영영상에서 병변 위치의 좌표와 각 특징점들 사이의 거리비율에 따라, 현재영상촬영부(120)에 의해 촬영된 현재영상에서 병변의 위치를 검색할 수 있으며, 검색된 병변 위치의 좌표와 로봇암구동부(110)에 의해 설정된 병변 위치의 좌표를 비교하여 그 변화를 계산한다(S814).
구동제어부(140)는 좌표변화계산부(130)에 의해 계산된 좌표의 변화에 따라 로봇암(200)의 니들링 타겟 지점을 보정한다(S816).
가상영상표시부(150)는 로봇암구동부(110)에 대응하는 가상의 니들링영상을 생성하며, 생성된 가상의 니들링영상에 대해 로봇암(200)의 니들링 타겟 지점을 보정하여 현재영상에 가상으로 표시할 수 있다(S818).
가상영상표시부(150)에 의해 표시되는 가상의 니들링영상이 병변 위치의 타겟으로 정확하게 니들링되면(S820), 구동제어부(140)는 보정된 니들링 타겟 지점에 따라 로봇암구동부(110)를 구동 제어하여 수술을 시작할 수 있다(S822).
이로써, 로봇암(200)을 구동하여 수술을 실행하기 이전에 가상의 니들링영상을 통하여 보정이 정확하게 이루어졌는지 확인할 수 있으며, 그에 따라 환자의 수술시의 자세가 바뀌더라도 정확하게 병변위치를 보정하여 수술을 실행할 수 있게 된다.
[부호의 설명]
100: 수술용 로봇제어 장치
110: 로봇암구동부
120: 현재영상촬영부
130: 좌표변화계산부
132: 특징점거리계산부
134: 대응위치검색부
140: 구동제어부
150: 가상영상표시부
본 발명에 따르면, 환자의 수술할 병변의 위치를 확인하기 위해 X-ray, CT, MRI 등의 영상의 촬영할 당시의 환자의 자세와 수술을 실행할 당시의 환자의 자세가 달라지더라도 정확하게 환자의 병변위치를 찾아 수술을 수행할 수 있게 된다.

Claims (10)

  1. 수술용 로봇제어 장치에 있어서,
    기 촬영된 촬영영상에 기초하여 병변 위치의 좌표를 설정하고, 설정된 상기 좌표에 따라 로봇암(Robot Arm)의 니들링 타겟(Needling Target)을 지정하며, 그에 따라 상기 로봇암을 구동하는 로봇암구동부;
    환자의 현재의 자세에서 상기 병변 위치에 대응하는 현재영상을 촬영하는 현재영상촬영부;
    상기 촬영영상에서 복수의 특징점을 추출하며, 상기 현재영상에서 상기 촬영영상의 특징점들에 대응하는 위치를 검색하고, 상기 촬영영상에서 상기 현재영상으로의 특징점들의 위치변화에 기초하여 상기 로봇암구동부에 의해 설정된 좌표의 변화를 계산하는 좌표변화계산부; 및
    상기 좌표변화계산부에 의해 계산된 변화에 따라 상기 로봇암의 니들링 타겟을 보정하며, 보정된 상기 로봇암의 니들링 타겟에 따라 상기 로봇암구동부를 구동제어하는 구동제어부;
    를 포함하는 것을 특징으로 하는 수술용 로봇제어 장치.
  2. 제1항에 있어서, 상기 좌표변화계산부는,
    상기 촬영영상에서 뼈의 각각의 돌출부위를 특징점으로 추출하며, 추출된 특징점들 사이의 거리를 계산하는 특징점거리계산부; 및
    상기 특징점거리계산부에 의해 계산된 특징점들 사이의 거리비율에 기초하여 상기 현재영상으로부터 상기 촬영영상의 특징점들에 대응하는 위치를 검색하는 대응위치검색부;
    를 포함하는 것을 특징으로 하는 수술용 로봇제어 장치.
  3. 제2항에 있어서,
    상기 로봇암구동부에 대응하는 가상의 니들링영상을 생성하며, 생성된 상기 가상의 니들링영상에 대해 상기 로봇암의 니들링 타겟을 보정하여 상기 현재영상에 가상으로 표시하는 가상영상표시부;
    를 더 포함하는 것을 특징으로 하는 수술용 로봇제어 장치.
  4. 제2항에 있어서, 상기 좌표변화계산부는,
    X-ray를 이용하여 기 촬영된 상기 촬영영상으로부터 뼈의 각각의 돌출부위를 특징점으로 추출하는 것을 특징으로 하는 수술용 로봇제어 장치.
  5. 제2항에 있어서, 상기 좌표변화계산부는,
    CT(Computed Tomography) 및 MRI(Magnetic Resonance Imaging) 중의 적어도 하나를 이용하여 기 촬영된 상기 촬영영상에서 병변 위치의 좌표를 계산하는 것을 특징으로 하는 수술용 로봇제어 장치.
  6. 수술용 로봇 제어방법에 있어서,
    기 촬영된 촬영영상에 기초하여 병변 위치의 좌표를 설정하고, 로봇암의 니들링 타겟을 설정하는 단계;
    설정된 상기 좌표에 따라 로봇암의 니들링 타겟을 지정하는 단계;
    환자의 현재의 자세에서 상기 병변 위치에 대응하는 현재영상을 촬영하는 단계;
    상기 촬영영상에서 복수의 특징점을 추출하며, 상기 현재영상에서 상기 촬영영상의 특징점들에 대응하는 위치를 검색하는 단계;
    상기 촬영영상에서 상기 현재영상으로의 특징점들의 위치변화에 기초하여 설정된 상기 좌표의 변화를 계산하는 단계;
    계산된 상기 좌표의 변화에 따라 상기 로봇암의 니들링 타겟을 보정하는 단계; 및
    보정된 상기 로봇암의 니들링 타겟에 따라 상기 로봇암을 구동제어하는 단계;
    를 포함하는 것을 특징으로 하는 수술용 로봇 제어방법.
  7. 제6항에 있어서,
    상기 촬영영상에서 뼈의 각각의 돌출부위를 특징점으로 추출하며, 추출된 특징점들 사이의 거리를 계산하는 단계;
    를 더 포함하며,
    계산된 특징점들 사이의 거리비율에 기초하여 상기 현재영상으로부터 상기 촬영영상의 특징점들에 대응하는 위치를 검색하는 것을 특징으로 하는 수술용 로봇 제어방법.
  8. 제7항에 있어서,
    설정된 상기 로봇암의 니들링 타겟에 대응하는 가상의 니들링영상을 생성하며, 생성된 상기 가상의 니들링영상에 대해 상기 로봇암의 니들링 타겟을 보정하여 상기 현재영상에 가상으로 표시하는 단계;
    를 더 포함하는 것을 특징으로 하는 수술용 로봇 제어방법.
  9. 제7항에 있어서, 상기 위치검색 단계는,
    X-ray를 이용하여 기 촬영된 상기 촬영영상으로부터 뼈의 각각의 돌출부위를 특징점으로 추출하는 것을 특징으로 하는 수술용 로봇 제어방법.
  10. 제7항에 있어서, 상기 위치검색 단계는,
    CT 및 MRI 중의 적어도 하나를 이용하여 기 촬영된 상기 촬영영상에서 병변 위치의 좌표를 계산하는 것을 특징으로 하는 수술용 로봇 제어방법.
PCT/KR2012/010634 2012-01-12 2012-12-07 수술용 로봇제어 장치 및 그 제어방법 WO2013105738A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2012-0003693 2012-01-12
KR1020120003693A KR101334007B1 (ko) 2012-01-12 2012-01-12 수술용 로봇제어 시스템 및 그 제어방법

Publications (1)

Publication Number Publication Date
WO2013105738A1 true WO2013105738A1 (ko) 2013-07-18

Family

ID=48781651

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2012/010634 WO2013105738A1 (ko) 2012-01-12 2012-12-07 수술용 로봇제어 장치 및 그 제어방법

Country Status (2)

Country Link
KR (1) KR101334007B1 (ko)
WO (1) WO2013105738A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110109421A (zh) * 2018-02-01 2019-08-09 天津工业大学 一种针刺机器人路径规划方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101529243B1 (ko) * 2013-12-23 2015-06-16 재단법인 아산사회복지재단 바늘 삽입형 중재 시술 로봇
KR101570857B1 (ko) 2014-04-29 2015-11-24 큐렉소 주식회사 로봇 수술 계획 조정 장치
KR102371053B1 (ko) 2015-06-04 2022-03-10 큐렉소 주식회사 수술로봇 시스템
KR102272294B1 (ko) * 2019-12-23 2021-07-02 주식회사 코아로봇 가상축 인터페이스를 갖는 로봇제어장치 및 그 장치의 구동방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030004610A1 (en) * 1999-04-07 2003-01-02 Intuitive Surgical, Inc. Camera referenced control in a minimally invasive surgical apparatus
US20030120283A1 (en) * 2001-11-08 2003-06-26 Dan Stoianovici System and method for robot targeting under fluoroscopy based on image servoing
KR20100112310A (ko) * 2009-04-09 2010-10-19 의료법인 우리들의료재단 수술용 로봇의 제어 방법 및 그 시스템
KR20110004496A (ko) * 2009-07-08 2011-01-14 주식회사 이턴 수술용 로봇 및 그 세팅방법

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0015683D0 (en) * 2000-06-28 2000-08-16 Depuy Int Ltd Apparatus for positioning a surgical instrument
AU2006297217B2 (en) 2005-09-30 2010-07-15 Restoration Robotics, Inc. Automated systems and methods for harvesting and implanting follicular units

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030004610A1 (en) * 1999-04-07 2003-01-02 Intuitive Surgical, Inc. Camera referenced control in a minimally invasive surgical apparatus
US20030120283A1 (en) * 2001-11-08 2003-06-26 Dan Stoianovici System and method for robot targeting under fluoroscopy based on image servoing
KR20100112310A (ko) * 2009-04-09 2010-10-19 의료법인 우리들의료재단 수술용 로봇의 제어 방법 및 그 시스템
KR20110004496A (ko) * 2009-07-08 2011-01-14 주식회사 이턴 수술용 로봇 및 그 세팅방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110109421A (zh) * 2018-02-01 2019-08-09 天津工业大学 一种针刺机器人路径规划方法

Also Published As

Publication number Publication date
KR101334007B1 (ko) 2013-11-27
KR20130083130A (ko) 2013-07-22

Similar Documents

Publication Publication Date Title
EP2925250B1 (en) Operation support system
US20230190244A1 (en) Biopsy apparatus and system
US9232982B2 (en) System for orientation assistance and display of an instrument in an object under examination particularly for use in human body
JP7094727B2 (ja) カテーテルアブレーション治療中の視野角の自動追跡及び調節
WO2013105738A1 (ko) 수술용 로봇제어 장치 및 그 제어방법
US11576746B2 (en) Light and shadow guided needle positioning system and method
US20140031668A1 (en) Surgical and Medical Instrument Tracking Using a Depth-Sensing Device
WO2010093153A2 (ko) 수술용 항법 장치 및 그 방법
WO2017043926A1 (ko) 의료영상을 사용하는 중재시술 가이드 방법 및 이를 위한 중재시술 시스템
JP7469120B2 (ja) ロボット手術支援システム、ロボット手術支援システムの作動方法、及びプログラム
US8512323B2 (en) Devices and methods for computer-assisted surgery
WO2017043924A1 (ko) 의료영상을 사용하는 중재시술 가이드 방법 및 이를 위한 중재시술 시스템
US20180286287A1 (en) System and methods for training physicians to perform ablation procedures
WO2012033739A2 (en) Surgical and medical instrument tracking using a depth-sensing device
US11051781B2 (en) Medical diagnostic imaging apparatus
WO2021045546A2 (ko) 로봇의 위치 가이드 장치, 이의 방법 및 이를 포함하는 시스템
US20200170731A1 (en) Systems and methods for point of interaction displays in a teleoperational assembly
WO2022199650A1 (zh) 计算机可读存储介质、电子设备及手术机器人系统
WO2019132166A1 (ko) 수술보조 영상 표시방법 및 프로그램
WO2020064924A1 (en) Guidance in lung intervention procedures
US20220233256A1 (en) Assistive surgical robot for distal hole localization in intramedullary nail
US20230029184A1 (en) Robotic arm system, method and computer program
WO2016056838A1 (ko) 의료용 항법 장치
WO2022225132A1 (ko) 랜드마크를 이용한 증강현실 기반의 의료정보 시각화 시스템 및 그 방법
CN114099005B (zh) 器械是否在视野内、是否被遮挡的判断法及能量显示方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12865295

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12865295

Country of ref document: EP

Kind code of ref document: A1