KR101334007B1 - Surgical Robot Control System and Method therefor - Google Patents
Surgical Robot Control System and Method therefor Download PDFInfo
- Publication number
- KR101334007B1 KR101334007B1 KR1020120003693A KR20120003693A KR101334007B1 KR 101334007 B1 KR101334007 B1 KR 101334007B1 KR 1020120003693 A KR1020120003693 A KR 1020120003693A KR 20120003693 A KR20120003693 A KR 20120003693A KR 101334007 B1 KR101334007 B1 KR 101334007B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- robot arm
- needling
- feature points
- coordinates
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/34—Trocars; Puncturing needles
- A61B17/3403—Needle locating or guiding means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/04—Surgical instruments, devices or methods, e.g. tourniquets for suturing wounds; Holders or packages for needles or suture materials
- A61B17/06—Needles ; Sutures; Needle-suture combinations; Holders or packages for needles or suture materials
- A61B17/062—Needle manipulators
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B34/37—Master-slave robots
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/02—Programme-controlled manipulators characterised by movement of the arms, e.g. cartesian coordinate type
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/34—Trocars; Puncturing needles
- A61B17/3403—Needle locating or guiding means
- A61B2017/3405—Needle locating or guiding means using mechanical guide means
- A61B2017/3409—Needle locating or guiding means using mechanical guide means including needle or instrument drives
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/376—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
- A61B2090/3762—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Robotics (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- Heart & Thoracic Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Veterinary Medicine (AREA)
- Mechanical Engineering (AREA)
- Pathology (AREA)
- Human Computer Interaction (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Manipulator (AREA)
Abstract
수술용 로봇제어 시스템 및 그 제어방법이 개시된다. 본 발명에 따른 수술용 로봇제어 시스템은, 기 촬영된 촬영영상에 기초하여 병변 위치의 좌표를 설정하고, 설정된 좌표에 따라 로봇암(Robot Arm)의 니들링 타겟(Needling Target)을 지정하며, 그에 따라 로봇암을 구동하는 로봇암구동부; 환자의 현재의 자세에서 병변 위치에 대응하는 현재영상을 촬영하는 현재영상촬영부; 촬영영상에서 복수의 특징점을 추출하며, 현재영상에서 촬영영상의 특징점들에 대응하는 위치를 검색하고, 촬영영상에서 현재영상으로의 특징점들의 위치변화에 기초하여 로봇암구동부에 의해 설정된 좌표의 변화를 계산하는 좌표변화계산부; 및 좌표변화계산부에 의해 계산된 변화에 따라 로봇암의 니들링 타겟을 보정하며, 보정된 로봇암의 니들링 타겟에 따라 로봇암구동부를 구동제어하는 구동제어부;를 포함하는 것을 특징으로 한다.Disclosed are a surgical robot control system and a control method thereof. The surgical robot control system according to the present invention sets the coordinates of the lesion position on the basis of the photographed image, and designates a needling target of the robot arm according to the set coordinates. Robot arm driving unit for driving the robot arm along; A current image capturing unit configured to capture a current image corresponding to a lesion position in a current posture of the patient; Extracts a plurality of feature points from the captured image, searches for positions corresponding to the feature points of the captured image in the current image, and changes the coordinates set by the robot arm driver based on the positional change of the feature points from the captured image to the current image. A coordinate change calculator for calculating; And a driving control unit for correcting the needling target of the robot arm according to the change calculated by the coordinate change calculator, and controlling the driving of the robot arm driving unit according to the corrected needling target of the robot arm.
Description
본 발명은 수술용 로봇제어 시스템 및 그 제어방법에 관한 것으로서, 보다 상세하게는, 환자의 수술할 병변의 위치를 확인하기 위해 X-ray, CT, MRI 등의 영상의 촬영할 당시의 환자의 자세와 수술을 실행할 당시의 환자의 자세가 달라지더라도 정확하게 환자의 병변위치를 찾아 수술을 수행할 수 있는 수술용 로봇제어 시스템 및 그 제어방법에 관한 것이다.The present invention relates to a surgical robot control system and a control method thereof, and more particularly, to the position of the patient at the time of taking an image of X-ray, CT, MRI, etc. in order to confirm the location of the lesion to be operated by the patient. The present invention relates to a surgical robot control system and a method of controlling the same, which can accurately locate a patient's lesion and perform the surgery even when the patient's posture is changed.
의학적으로 수술이란 피부나 점막, 기타 조식을 의료 기계를 사용하여 자르거나 째거나 조작을 가하여 병을 고치는 행위를 말한다.Medically, surgery refers to the act of cutting, slitting, or manipulating skin, mucous membranes, or other breakfasts using medical devices to heal a disease.
전통적인 외과수술 방식은 일반적으로 의사의 의료기술에 전적으로 의존하여 이루어지기 때문에, 동일한 수술에 대해서도 의사의 경험치, 전문지식 등에 따라 수술 결과에 차이가 발생할 수 있다.Since traditional surgical procedures are generally completely dependent on the doctor's medical skills, the same surgical results may vary depending on the doctor's experience, expertise, and the like.
이와 같은 문제점을 해소하기 위하여, 최근에는 로봇(robot)을 이용하여 환자의 수술부위를 절개하고, 그 내부에 있는 기관 등을 치료, 성형하거나 제거하는 수술방법이 개발되었다. 로봇을 이용한 수술방법은 일반적으로 수술을 시작하기 전에 환자의 수술부위에 대한 X-ray, CT(Computed Tomography), MRI(Magnetic Resonance Imaging) 등의 영상을 촬영하고, 촬영된 영상에 기초하여 수술부위에 대한 좌표를 설정하며, 설정된 좌표에 따라 로봇을 동작시켜 수술을 시행한다.In order to solve such a problem, recently, a surgical method for dissecting a surgical site of a patient using a robot and treating, shaping or removing an organ therein has been developed. In general, the surgical method using a robot takes X-rays, CT (Computed Tomography), and MRI (Magnetic Resonance Imaging) images of the patient's surgical site before starting the operation. Set the coordinates for and operate the robot according to the set coordinates.
그런데, 종래의 기술에 따른 로봇을 이용한 수술방법은, 환자가 X-ray, CT, MRI 등의 영상을 촬영할 때의 자세와 수술을 받기 위한 자세를 취했을 때의 자세가 달라질 수 있으며, 그에 따라 촬영된 영상에 기초하여 설정된 좌표값에 오차가 발생할 수 있다는 문제점이 있다. 특히, 척추와 같이 신경 및 혈관이 집중되어 있는 부위를 수술하는 경우, 촬영된 영상에 기초하여 설정된 좌표값의 오차로 인해 수술도중에 환자의 신경이나 혈관을 손상시킬 수 있다는 문제점이 있다.By the way, in the surgical method using a robot according to the prior art, the posture when the patient takes an image of X-ray, CT, MRI, etc. and the posture when taking a posture to receive the operation may be different, accordingly There is a problem that an error may occur in a coordinate value set on the basis of an image. In particular, in the case of surgery on a region where nerves and blood vessels are concentrated, such as the spine, there is a problem that the nerve or blood vessel of the patient may be damaged during the operation due to an error of a coordinate value set based on the captured image.
본 발명은 전술한 문제점을 해결하기 위하여 창안된 것으로서, 환자의 수술할 병변의 위치를 확인하기 위해 X-ray, CT, MRI 등의 영상의 촬영할 당시의 환자의 자세와 수술을 실행할 당시의 환자의 자세가 달라지더라도 정확하게 환자의 병변위치를 찾아 수술을 수행할 수 있는 수술용 로봇제어 시스템 및 그 제어방법을 제공하는 것을 목적으로 한다.The present invention has been made to solve the above-described problems, the position of the patient at the time of imaging of X-ray, CT, MRI, etc. to confirm the location of the lesion to be operated on the patient and the patient at the time of performing the surgery It is an object of the present invention to provide a surgical robot control system and a method of controlling the same, which can accurately locate a patient's lesion and perform surgery.
전술한 목적을 달성하기 위한 본 발명의 실시예에 따른 수술용 로봇제어 시스템는, 기 촬영된 촬영영상에 기초하여 병변 위치의 좌표를 설정하고, 설정된 좌표에 따라 로봇암(Robot Arm)의 니들링 타겟(Needling Target)을 지정하며, 그에 따라 상기 로봇암을 구동하는 로봇암구동부; 환자의 현재의 자세에서 병변 위치에 대응하는 현재영상을 촬영하는 현재영상촬영부; 촬영영상에서 복수의 특징점을 추출하며, 현재영상에서 촬영영상의 특징점들에 대응하는 위치를 검색하고, 촬영영상에서 현재영상으로의 특징점들의 위치변화에 기초하여 로봇암구동부에 의해 설정된 좌표의 변화를 계산하는 좌표변화계산부; 및 좌표변화계산부에 의해 계산된 변화에 따라 로봇암의 니들링 타겟을 보정하며, 보정된 로봇암의 니들링 타겟에 따라 로봇암구동부를 구동제어하는 구동제어부;를 포함하는 것을 특징으로 한다.Surgical robot control system according to an embodiment of the present invention for achieving the above object, setting the coordinates of the lesion position based on the pre-recorded image, and the needling target of the robot arm according to the set coordinates A robot arm driver configured to specify a (Needling Target) and thereby driving the robot arm; A current image capturing unit configured to capture a current image corresponding to a lesion position in a current posture of the patient; Extracts a plurality of feature points from the captured image, searches for positions corresponding to the feature points of the captured image in the current image, and changes the coordinates set by the robot arm driver based on the positional change of the feature points from the captured image to the current image. A coordinate change calculator for calculating; And a driving control unit for correcting the needling target of the robot arm according to the change calculated by the coordinate change calculator, and controlling the driving of the robot arm driving unit according to the corrected needling target of the robot arm.
좌표변화계산부는, 촬영영상에서 뼈의 각각의 돌출부위를 특징점으로 추출하며, 추출된 특징점들 사이의 거리를 계산하는 특징점거리계산부; 및 특징점거리계산부에 의해 계산된 특징점들 사이의 거리비율에 기초하여 현재영상으로부터 촬영영상의 특징점들에 대응하는 위치를 검색하는 대응위치검색부;를 포함한다.The coordinate change calculator comprises: a feature point distance calculator configured to extract each protrusion of the bone as a feature point from the photographed image and calculate a distance between the extracted feature points; And a corresponding position search unit for searching for positions corresponding to the feature points of the photographed image from the current image based on the distance ratio between the feature points calculated by the feature point distance calculator.
전술한 수술용 로봇제어 시스템는, 로봇암구동부에 대응하는 가상의 니들링영상을 생성하며, 생성된 가상의 니들링영상에 대해 로봇암의 니들링 타겟을 보정하여 현재영상에 가상으로 표시하는 가상영상표시부;를 더 포함한다.The above-described surgical robot control system generates a virtual needling image corresponding to the robot arm driver, and virtually displays the virtual image on the current image by correcting the needling target of the robot arm with respect to the generated virtual needling image. It further includes a display unit.
좌표변화계산부는, X-ray를 이용하여 기 촬영된 촬영영상으로부터 뼈의 각각의 돌출부위를 특징점으로 추출할 수 있다.The coordinate change calculator may extract each protrusion of the bone as a feature point from the photographed image photographed using the X-ray.
좌표변화계산부는, CT(Computed Tomography) 및 MRI(Magnetic Resonance Imaging) 중의 적어도 하나를 이용하여 기 촬영된 촬영영상에서 병변 위치의 좌표를 계산할 수 있다.The coordinate change calculator may calculate the coordinates of the lesion position in the pre-photographed captured image by using at least one of computed tomography (CT) and magnetic resonance imaging (MRI).
전술한 목적을 달성하기 위한 본 발명의 실시예에 따른 수술용 로봇 제어방법은, 기 촬영된 촬영영상에 기초하여 병변 위치의 좌표를 설정하고, 로봇암의 니들링 타겟을 설정하는 단계; 설정된 좌표에 따라 로봇암의 니들링 타겟을 지정하는 단계; 환자의 현재의 자세에서 병변 위치에 대응하는 현재영상을 촬영하는 단계; 촬영영상에서 복수의 특징점을 추출하며, 현재영상에서 촬영영상의 특징점들에 대응하는 위치를 검색하는 단계; 촬영영상에서 현재영상으로의 특징점들의 위치변화에 기초하여 설정된 좌표의 변화를 계산하는 단계; 계산된 좌표의 변화에 따라 로봇암의 니들링 타겟을 보정하는 단계; 및 보정된 로봇암의 니들링 타겟에 따라 로봇암을 구동제어하는 단계;를 포함하는 것을 특징으로 한다.Surgical robot control method according to an embodiment of the present invention for achieving the above object, setting the coordinates of the lesion position on the basis of the pre-recorded image, and setting the needling target of the robot arm; Designating a needling target of the robot arm according to the set coordinates; Photographing a current image corresponding to a lesion position in a current posture of the patient; Extracting a plurality of feature points from the captured image and searching for positions corresponding to the feature points of the captured image in the current image; Calculating a change in coordinates set based on a change in position of feature points from the captured image to the current image; Correcting the needling target of the robot arm according to the change in the calculated coordinates; And driving control of the robot arm according to the needling target of the corrected robot arm.
전술한 수술용 로봇 제어방법은, 촬영영상에서 뼈의 각각의 돌출부위를 특징점으로 추출하며, 추출된 특징점들 사이의 거리를 계산하는 단계;를 더 포함하며, 계산된 특징점들 사이의 거리비율에 기초하여 현재영상으로부터 촬영영상의 특징점들에 대응하는 위치를 검색할 수 있다.The above-described surgical robot control method further comprises: extracting each protrusion of the bone as a feature point in the photographed image, and calculating a distance between the extracted feature points; and further comprising: calculating the distance ratio between the feature points. A position corresponding to the feature points of the captured image may be searched based on the current image.
전술한 수술용 로봇 제어방법은, 설정된 로봇암의 니들링 타겟에 대응하는 가상의 니들링영상을 생성하며, 생성된 가상의 니들링영상에 대해 로봇암의 니들링 타겟을 보정하여 현재영상에 가상으로 표시하는 단계;를 더 포함할 수 있다.The above-described surgical robot control method generates a virtual needling image corresponding to the needling target of the set robot arm, corrects the needling target of the robot arm with respect to the generated virtual needling image, and virtualizes the current image. Displaying as; may further include.
위치검색 단계는, X-ray를 이용하여 기 촬영된 촬영영상으로부터 뼈의 각각의 돌출부위를 특징점으로 추출한다.In the location retrieval step, each protrusion of the bone is extracted as a feature point from the pre-photographed captured image using X-ray.
또한, 위치검색 단계는, CT 및 MRI 중의 적어도 하나를 이용하여 기 촬영된 촬영영상에서 병변 위치의 좌표를 계산한다.In the location retrieval step, the coordinates of the lesion position are calculated in the photographed image by using at least one of the CT and the MRI.
본 발명에 따르면, 환자의 수술할 병변의 위치를 확인하기 위해 X-ray, CT, MRI 등의 영상의 촬영할 당시의 환자의 자세와 수술을 실행할 당시의 환자의 자세가 달라지더라도 정확하게 환자의 병변위치를 찾아 수술을 수행할 수 있게 된다.According to the present invention, even if the posture of the patient at the time of taking the image of X-ray, CT, MRI, etc. and the posture of the patient at the time of performing the surgery to confirm the location of the patient to operate the lesion, the lesion of the patient accurately You will be able to locate and perform the surgery.
도 1은 본 발명의 실시예에 따른 수술용 로봇제어 시스템을 개략적으로 도시한 도면이다.
도 2는 로봇암의 예를 나타낸 도면이다.
도 3은 현재영상 촬영부의 예로서 C-암 장치의 예를 나타낸 도면이다.
도 4는 X-ray 영상에서 특징점을 추출하는 예를 나타낸 도면이다.
도 5는 현재영상에서 특징점에 대응하는 위치를 검색하는 예를 나타낸 도면이다.
도 6은 MRI 영상에서 특징점을 추출하는 예를 나타낸 도면이다.
도 7은 현재영상에 가상의 니들링영상을 표시하는 예를 나타낸 도면이다.
도 8은 본 발명의 실시예에 따른 수술용 로봇 제어방법을 나타낸 흐름도이다.1 is a view schematically showing a surgical robot control system according to an embodiment of the present invention.
2 is a diagram illustrating an example of a robot arm.
3 is a diagram illustrating an example of a C-arm apparatus as an example of a current image capturing unit.
4 is a diagram illustrating an example of extracting feature points from an X-ray image.
5 is a diagram illustrating an example of searching for a position corresponding to a feature point in a current image.
6 is a diagram illustrating an example of extracting feature points from an MRI image.
7 is a diagram illustrating an example of displaying a virtual needling image on a current image.
8 is a flowchart illustrating a surgical robot control method according to an embodiment of the present invention.
이하, 첨부도면을 참조하여 본 발명의 실시예에 따른 수술용 로봇장치 및 그 수술방법을 상세하게 설명한다. 도 1은 본 발명의 실시예에 따른 수술용 로봇제어 시스템을 개략적으로 도시한 도면이다.Hereinafter, with reference to the accompanying drawings will be described in detail the surgical robot device and the surgical method according to an embodiment of the present invention. 1 is a view schematically showing a surgical robot control system according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 실시예에 따른 수술용 로봇제어 시스템(100)은 로봇암구동부(110), 현재영상촬영부(120), 좌표변화계산부(130), 구동제어부(140) 및 가상영상표시부(150)를 포함한다. Referring to FIG. 1, a surgical
로봇암구동부(110)는 기 촬영된 촬영영상에 기초하여 병변 위치의 좌표를 설정하고, 설정된 병변 위치의 좌표에 따라 로봇암(Robot Arm)의 니들링 타겟(Needling Target)을 지정하며, 그에 따라 로봇암을 구동한다. 즉, 로봇암구동부(110)는 기 촬영된 X-ray 영상, CT(Computed Tomography) 영상, MRI(Magnetic Resonance Imaging) 영상 등의 촬영영상으로부터 병변의 위치를 확인하며, 해당 촬영영상에서 기준점을 지정하고, 지정된 기준점에 대한 병변 위치의 좌표를 설정한다. 이때, 로봇암구동부(110)는 기 촬영된 촬영영상의 기준지점에 대응하는 환자의 기준지점으로부터 기 촬영된 촬영영상의 확대/축소 비율에 따라 소정 거리 이격된 지점을 로봇암의 니들링 타겟지점으로 지정하며, 지정된 니들링 타겟지점으로 타게팅(Targeting)되도록 로봇암을 구동한다. The
여기서, 로봇암은 생체 내에서 조직을 절개하거나 봉합하는 등의 작업을 수행하는 기기로서, 도 2는 로봇암의 일 예를 나타낸다. 즉, 로봇암(200)은 복수의 관절(210)을 포함하며, 그 선단에는 피부 속에 침투하여 조직의 절개, 봉합 등의 작업을 수행하는 니들(220)이 설치된다. 이때, 로봇암(200)은 좌우의 회전뿐만 아니라, 관절(210)을 이용한 상하회전 및 각도조절이 가능하며, 또한 로봇암(200)과 니들(220) 사이의 높이조절부(230)를 이용하여 니들(220)의 높낮이를 조절할 수도 있다. 이때, 니들(220)의 선단에는 레이저빔(laser beam) 장치와 같은 수술도구가 장착되거나, 니들(220)을 통하여 약물을 직접 투입할 수도 있다. 로봇암(200)에 대한 구동방법은 공지된 다양한 방법을 따를 수 있으며, 여기서는 그 상세한 설명을 생략한다. 또한, 로봇암(200)의 형태는 도 2에 도시된 형태에 한정되는 것은 아니며, 공지된 다양한 형태의 로봇암이 이용될 수도 있다.Here, the robot arm is a device for performing an operation such as cutting or suturing tissue in vivo, Figure 2 shows an example of the robot arm. That is, the
현재영상촬영부(120)는 환자의 수술시의 현재의 자세에서 병변 위치에 대응하는 현재영상을 촬영한다. 이때, 현재영상촬영부(120)는 도 3에 도시한 바와 같은 C-암 장치를 이용하여 수술실에서의 환자의 현재의 자세에서의 영상을 촬영할 수 있다.The current
일반적으로, C-암 장치는 신경외과, 정형외과, 비뇨기과 등에서 수술시에 X선을 이용하여 수술 전, 중의 환자의 수술경과를 사진촬영하거나 또는 모니터를 통해 영상으로 표시하는 장치로서, 수술 전, 중의 환부의 상태를 실시간으로 관찰할 수 있도록 하는 수술실의 중요한 장치이다. In general, the C-cancer device is a device for photographing the operation history of a patient before or during surgery using X-ray during surgery in neurosurgery, orthopedics, urology, etc. It is an important device of the operating room to observe the state of the affected area in real time.
도 3에 도시한 바와 같이, C-암 장치는 X선을 발생하는 X선 발생기(310), X선 발생기(310)에서 발생된 X선을 검출하는 X선 검출기(320)가 'C'모양의 C-암 지지대(330)에 연결된다. 또한, C-암 지지대(330)는 회전샤프트(353)를 통해 본체(350)의 회전블록(351)에 연결되며, 본체(350)와 모니터(340)가 케이블을 통해 연결된다. 이때, 회전샤프트(353)는 기준 위치로부터 임의의 각도로 회전이 가능하다. 이와 같은 구성을 통하여, C-암 장치는, X선 발생기(310)가 환자나 동물 몸체 등과 같은 검사체에 X선을 방사시키며, 검사체를 통과한 X선을 X선 검출기(320)가 검출하여 본체(350)에서 영상신호로 처리하고, 모니터(340)가 본체(350)에 의해 처리된 영상신호를 영상으로 디스플레이한다.As shown in FIG. 3, in the C-arm apparatus, an
도 3에서는 현재영상촬영부(120)의 예로서 C-암 장치를 도시하고 설명하였지만, 현재영상촬영부(120)는 C-암 장치에 한정되지 않으며, O-암 장치 또는 기타 다른 장치가 이용될 수도 있다. In FIG. 3, the C-arm apparatus is illustrated and described as an example of the current
또한, 도 2 및 도 3에서 로봇암(200) 및 현재영상촬영부(120)는 각각 별개의 독립적인 장치로 구현되는 것으로 도시하고 설명하였지만, 로봇암(200)과 현재영상촬영부(120)는 하나의 장치로 일체화되어 형성될 수도 있다.In addition, although the
좌표변화계산부(130)는 X-ray, CT, MRI 등을 이용하여 기 촬영된 촬영영상에서 복수의 특징점을 추출하며, 현재영상촬영부(120)에 의해 촬영된 현재영상에서 특징점들에 대응하는 위치를 검색한다. 이때, X-ray, CT, MRI 등을 이용하여 영상을 촬영할 당시의 환자의 자세와 수술시의 환자의 자세는 다르므로, 로봇암구동부(110)에 의해 설정된 병변 위치의 좌표는, 수술실에서 현재영상촬영부(120)에 의해 촬영된 현재영상에 대하여 다른 값으로 변경된다. 이를 위하여, 좌표변화계산부(130)는 촬영영상에서 현재영상으로의 특징점들의 위치변화에 기초하여 로봇암구동부(110)에 의해 설정된 병변 위치의 좌표의 변화를 계산할 수 있다. 이때, 좌표변화계산부(130)는 기 촬영된 촬영영상에서 척추, 골반 등과 같이 그 형태의 변화가 없는 뼈의 각각의 돌출부위를 특징점으로 추출하는 것이 바람직하다. 이 경우, 좌표변화계산부(130)는 병변 위치의 좌표변화 계산의 정확성을 높이기 위하여, 도 4에 도시한 바와 같이 환자의 동일한 환부에 대하여 (a) 측면의 척추 촬영영상, (b) 정면의 척추 촬영영상 등과 같은 복수의 촬영영상에 대해 각각의 특징점을 추출할 수 있다. The coordinate
좌표변화계산부(130)는 특징점거리계산부(132) 및 대응위치검색부(134)를 구비할 수 있다.The coordinate
특징점거리계산부(132)는 기 촬영된 촬영영상에서 뼈의 각각의 돌출부위를 하며, 추출된 특징점들 사이의 거리를 계산한다. 예를 들어, 도 4의 (a) 및 (b)에 도시한 바와 같이, 기 촬영된 촬영영상을 소정 간격으로 분할하며, 뼈의 외곽선의 변곡점을 특징점으로 추출하고, 각각의 특징점들 사이의 거리를 계산할 수 있다.The feature
대응위치검색부(134)는 특징점거리계산부(132)에 의해 계산된 특징점들 사이의 거리비율에 기초하여 현재영상촬영부(120)에 의해 촬영된 현재영상으로부터 기 촬영된 촬영영상의 특징점들에 대응하는 위치를 검색한다. The corresponding
예를 들어, 병변의 위치가 목뼈 부근이라고 가정하면, 특징점거리계산부(132)는 목뼈 부근의 기 촬영된 촬영영상으로부터 도 5의 (a)에 도시한 바와 같은 특징점들을 추출하며, 각 특징점들 사이의 거리를 계산할 수 있다. 여기서는 설명을 용이하게 하기 위하여 기 촬영된 촬영영상으로부터 변곡률이 설정 값 이상인 지점을 특징점으로 추출하고 각 특징점들 사이의 거리를 계산하는 것으로 도시하였다. For example, assuming that the location of the lesion is near the neck bone, the feature point
또한, 현재영상촬영부(120)에 의해 수술시의 현재영상이 도 5의 (b)와 같다고 가정하면, 대응위치검색부(134)는 목뼈의 각각의 특징점들의 거리의 비율에 기초하여 현재영상으로부터 각각의 특징점에 대응하는 위치를 검색할 수 있다. 즉, 환자의 자세가 바뀌더라도 각각의 뼈마디의 형태는 일정하게 유지되므로, 대응위치검색부(134)는 특징점들 사이의 비율에 따라 현재영상으로부터 각 특징점들에 대응하는 위치를 검색할 수 있다. In addition, assuming that the current image at the time of surgery by the current
이때, 뼈마디와 뼈마디 사이에 있는 병변의 위치는 도 5에 도시한 바와 같이, 환자의 자세가 변경됨에 따라 촬영영상에서의 위치와 수술시의 위치가 달라지게 된다. 이 경우, 좌표변화계산부(130)는 기 촬영된 촬영영상에서 병변 위치의 좌표와 각 특징점들 사이의 거리비율에 따라, 현재영상촬영부(120)에 의해 촬영된 현재영상에서 병변의 위치를 검색할 수 있으며, 검색된 병변 위치의 좌표와 로봇암구동부(110)에 의해 설정된 병변 위치의 좌표를 비교하여 그 변화를 계산할 수 있다.At this time, the location of the lesion between the bone node and the bone node, as shown in Figure 5, the position in the photographed image and the position during surgery is changed as the patient's posture is changed. In this case, the coordinate
이때, X-ray 영상은 뼈의 각각의 돌출부위를 특징점으로 추출하는 데에 이용될 수 있으며, CT 영상 또는 MRI 영상은 뼈 부근의 병변의 위치와 각 특징점들의 거리비율을 계산하는데 이용될 수 있다. 이 경우, 병변의 위치와 각 특징점들의 거리비율은 병변의 위치로부터 가장 가까운 특징점에서 먼 특징점으로, 순차적으로 설정된 개수만큼만 계산될 수도 있다.In this case, the X-ray image may be used to extract each protrusion of the bone as a feature point, and the CT image or the MRI image may be used to calculate the location of the lesion near the bone and the distance ratio of each feature point. . In this case, the location ratio of the location of each lesion and the distance ratio of each feature point may be calculated as a feature point far from the feature point closest to the location of the lesion, and only a number set sequentially.
본 발명의 실시예에 따른 수술용 로봇제어 시스템은 도 6의 (a)에 도시한 바와 같이 목뼈 부근의 MRI 영상, (b) 허리뼈 부근의 MRI 영상뿐만 아니라, X-ray 영상, CT 영상 등을 활용하여 특징점을 추출할 수 있으며, 수술시의 현재영상촬영부(120)에 의해 촬영되는 현재영상과 비교하여 병변 위치의 변화를 정확하게 계산할 수 있다. 또한, 환부의 위치는 도 6에 도시한 목이나 허리에 한정되는 것이 아니며, 다양한 부위에 대한 특징점의 추출이 가능하다.Surgical robot control system according to an embodiment of the present invention, as shown in Figure 6 (a) MRI image around the neck bone, (b) MRI image around the hip bone, as well as X-ray image, CT image, etc. The feature point can be extracted by using the A, and the change in the position of the lesion can be accurately calculated in comparison with the current image photographed by the current
구동제어부(140)는 좌표변화계산부(130)에 의해 계산된 좌표의 변화에 따라 로봇암(200)의 니들링 타겟 지점을 보정하며, 보정된 니들링 타겟 지점에 따라 로봇암구동부(110)를 구동 제어한다.The driving
가상영상표시부(150)는 로봇암구동부(110)에 대응하는 가상의 니들링영상을 생성하며, 생성된 가상의 니들링영상에 대해 로봇암(200)의 니들링 타겟 지점을 보정하여 현재영상에 가상으로 표시할 수 있다. 즉, 가상영상표시부(150)는 도 7에 도시한 바와 같이, 현재영상촬영부(120)에 의해 촬영된 현재영상에 대하여 로봇암구동부(110)에 의해 설정된 좌표로 니들링하는 가상의 니들링영상을 표시하며, 그에 대해 구동제어부(150)에 의해 보정된 로봇암구동부(110)에 대응하는 가상의 니들링영상을 표시함으로써 수술을 시도하기 전에 보정이 정상적으로 되었는지를 확인할 수 있다.The virtual
도 8은 본 발명의 실시예에 따른 수술용 로봇 제어방법을 나타낸 흐름도이다. 8 is a flowchart illustrating a surgical robot control method according to an embodiment of the present invention.
도 1 내지 도 8을 참조하면, 로봇암구동부(110)는 기 촬영된 X-ray 영상, CT 영상, MRI 영상 등의 촬영영상으로부터 병변의 위치를 확인하며, 해당 촬영영상에서 기준점을 지정하고, 지정된 기준점에 대한 병변 위치의 좌표를 설정한다(S802). 이때, 로봇암구동부(110)는 기 촬영된 촬영영상의 기준지점에 대응하는 환자의 기준지점으로부터 기 촬영된 촬영영상의 확대/축소 비율에 따라 소정 거리 이격된 지점을 로봇암의 니들링 타겟지점으로 지정한다(S804).1 to 8, the robot
현재영상촬영부(120)는 환자의 수술시의 현재의 자세에서 병변 위치에 대응하는 현재영상을 촬영한다(S806). The current
좌표변화계산부(130)는 X-ray, CT, MRI 등을 이용하여 기 촬영된 촬영영상에서 복수의 특징점을 추출한다(S808). 이때, 좌표변화계산부(130)는 기 촬영된 촬영영상에서 뼈의 각각의 돌출부위를 특징점으로 추출하며, 특징점거리계산부(132)는 추출된 특징점들 사이의 거리를 계산할 수 있다(S810). The coordinate
대응위치검색부(134)는 특징점거리계산부(132)에 의해 계산된 특징점들 사이의 거리비율에 기초하여 현재영상촬영부(120)에 의해 촬영된 현재영상으로부터 기 촬영된 촬영영상의 특징점들에 대응하는 위치를 검색한다(S812). The corresponding
좌표변화계산부(130)는 기 촬영된 촬영영상에서 병변 위치의 좌표와 각 특징점들 사이의 거리비율에 따라, 현재영상촬영부(120)에 의해 촬영된 현재영상에서 병변의 위치를 검색할 수 있으며, 검색된 병변 위치의 좌표와 로봇암구동부(110)에 의해 설정된 병변 위치의 좌표를 비교하여 그 변화를 계산한다(S814).The coordinate
구동제어부(140)는 좌표변화계산부(130)에 의해 계산된 좌표의 변화에 따라 로봇암(200)의 니들링 타겟 지점을 보정한다(S816).The driving
가상영상표시부(150)는 로봇암구동부(110)에 대응하는 가상의 니들링영상을 생성하며, 생성된 가상의 니들링영상에 대해 로봇암(200)의 니들링 타겟 지점을 보정하여 현재영상에 가상으로 표시할 수 있다(S818). The virtual
가상영상표시부(150)에 의해 표시되는 가상의 니들링영상이 병변 위치의 타겟으로 정확하게 니들링되면(S820), 구동제어부(140)는 보정된 니들링 타겟 지점에 따라 로봇암구동부(110)를 구동 제어하여 수술을 시작할 수 있다(S822).When the virtual needling image displayed by the virtual
이로써, 로봇암(200)을 구동하여 수술을 실행하기 이전에 가상의 니들링영상을 통하여 보정이 정확하게 이루어졌는지 확인할 수 있으며, 그에 따라 환자의 수술시의 자세가 바뀌더라도 정확하게 병변위치를 보정하여 수술을 실행할 수 있게 된다.As a result, before the operation is performed by driving the
100: 수술용 로봇제어 시스템
110: 로봇암구동부
120: 현재영상촬영부
130: 좌표변화계산부
132: 특징점거리계산부
134: 대응위치검색부
140: 구동제어부
150: 가상영상표시부100: surgical robot control system
110: robot arm drive unit
120: current video recording unit
130: coordinate change calculation unit
132: feature point distance calculating unit
134: corresponding position search unit
140: drive control unit
150: virtual image display unit
Claims (10)
기 촬영된 촬영영상에 기초하여 병변 위치의 좌표를 설정하고, 설정된 상기 좌표에 따라 로봇암(Robot Arm)의 니들링 타겟(Needling Target)을 지정하며, 그에 따라 상기 로봇암을 구동하는 로봇암구동부;
환자의 현재의 자세에서 상기 병변 위치에 대응하는 현재영상을 촬영하는 현재영상촬영부;
상기 촬영영상에서 복수의 특징점을 추출하며, 상기 현재영상에서 상기 촬영영상의 특징점들에 대응하는 위치를 검색하고, 상기 촬영영상에서 상기 현재영상으로의 특징점들의 위치변화에 기초하여 상기 로봇암구동부에 의해 설정된 좌표의 변화를 계산하는 좌표변화계산부; 및
상기 좌표변화계산부에 의해 계산된 변화에 따라 상기 로봇암의 니들링 타겟을 보정하며, 보정된 상기 로봇암의 니들링 타겟에 따라 상기 로봇암구동부를 구동제어하는 구동제어부;
를 포함하는 것을 특징으로 하는 수술용 로봇제어 시스템.In the robot control system for surgery,
The robot arm driver sets coordinates of the lesion position based on the photographed image, and designates a needling target of the robot arm according to the set coordinates, and drives the robot arm accordingly. ;
A current image photographing unit configured to capture a current image corresponding to the lesion position in a current posture of a patient;
Extracting a plurality of feature points from the captured image, searching for a position corresponding to the feature points of the captured image in the current image, and based on the positional change of the feature points from the captured image to the current image, the robot arm driving unit. A coordinate change calculator for calculating a change of coordinates set by the coordinate change; And
A driving control unit correcting a needling target of the robot arm according to the change calculated by the coordinate change calculator, and controlling the driving of the robot arm driving unit according to the corrected needling target of the robot arm;
Surgical robot control system comprising a.
상기 촬영영상에서 뼈의 각각의 돌출부위를 특징점으로 추출하며, 추출된 특징점들 사이의 거리를 계산하는 특징점거리계산부; 및
상기 특징점거리계산부에 의해 계산된 특징점들 사이의 거리비율에 기초하여 상기 현재영상으로부터 상기 촬영영상의 특징점들에 대응하는 위치를 검색하는 대응위치검색부;
를 포함하는 것을 특징으로 하는 수술용 로봇제어 시스템.The method of claim 1, wherein the coordinate change calculation unit,
A feature point distance calculator for extracting each protrusion of the bone from the photographed image as a feature point and calculating a distance between the extracted feature points; And
A corresponding position search unit for searching for positions corresponding to the feature points of the photographed image from the current image based on a distance ratio between the feature points calculated by the feature point distance calculator;
Surgical robot control system comprising a.
상기 로봇암구동부에 대응하는 가상의 니들링영상을 생성하며, 생성된 상기 가상의 니들링영상에 대해 상기 로봇암의 니들링 타겟을 보정하여 상기 현재영상에 가상으로 표시하는 가상영상표시부;
를 더 포함하는 것을 특징으로 하는 수술용 로봇제어 시스템.3. The method of claim 2,
A virtual image display unit for generating a virtual needling image corresponding to the robot arm driver and correcting a needling target of the robot arm with respect to the generated virtual needling image and displaying the virtual image on the current image;
Surgical robot control system further comprising.
X-ray를 이용하여 기 촬영된 상기 촬영영상으로부터 뼈의 각각의 돌출부위를 특징점으로 추출하는 것을 특징으로 하는 수술용 로봇제어 시스템.The method of claim 2, wherein the coordinate change calculation unit,
Surgical robot control system, characterized in that for extracting each protrusion of the bone as a feature point from the photographed image taken by using X-ray.
CT(Computed Tomography) 및 MRI(Magnetic Resonance Imaging) 중의 적어도 하나를 이용하여 기 촬영된 상기 촬영영상에서 병변 위치의 좌표를 계산하는 것을 특징으로 하는 수술용 로봇제어 시스템.The method of claim 2, wherein the coordinate change calculation unit,
Surgical robot control system, characterized in that for calculating the coordinates of the lesion position in the pre-recorded image using at least one of CT (Computed Tomography) and MRI (Magnetic Resonance Imaging).
기 촬영된 촬영영상에 기초하여 병변 위치의 좌표를 설정하고, 로봇암의 니들링 타겟을 설정하는 단계;
설정된 상기 좌표에 따라 로봇암의 니들링 타겟을 지정하는 단계;
환자의 현재의 자세에서 상기 병변 위치에 대응하는 현재영상을 촬영하는 단계;
상기 촬영영상에서 복수의 특징점을 추출하며, 상기 현재영상에서 상기 촬영영상의 특징점들에 대응하는 위치를 검색하는 단계;
상기 촬영영상에서 상기 현재영상으로의 특징점들의 위치변화에 기초하여 설정된 상기 좌표의 변화를 계산하는 단계;
계산된 상기 좌표의 변화에 따라 상기 로봇암의 니들링 타겟을 보정하는 단계; 및
보정된 상기 로봇암의 니들링 타겟에 따라 상기 로봇암을 구동제어하는 단계;
를 포함하는 것을 특징으로 하는 수술용 로봇 제어방법.In the surgical robot control method,
Setting coordinates of the lesion position based on the photographed image and setting a needling target of the robot arm;
Designating a needling target of the robot arm according to the set coordinates;
Photographing a current image corresponding to the lesion position in a current posture of a patient;
Extracting a plurality of feature points from the captured image and searching for positions corresponding to the feature points of the captured image in the current image;
Calculating a change in the coordinate set based on a change in position of feature points from the captured image to the current image;
Correcting a needling target of the robot arm according to the calculated change in the coordinates; And
Driving control of the robot arm according to the corrected needling target of the robot arm;
Surgical robot control method comprising a.
상기 촬영영상에서 뼈의 각각의 돌출부위를 특징점으로 추출하며, 추출된 특징점들 사이의 거리를 계산하는 단계;
를 더 포함하며,
계산된 특징점들 사이의 거리비율에 기초하여 상기 현재영상으로부터 상기 촬영영상의 특징점들에 대응하는 위치를 검색하는 것을 특징으로 하는 수술용 로봇 제어방법.The method according to claim 6,
Extracting each protrusion of the bone as a feature point from the photographed image, and calculating a distance between the extracted feature points;
More,
And a position corresponding to the feature points of the photographed image is searched from the current image based on the calculated distance ratio between the feature points.
설정된 상기 로봇암의 니들링 타겟에 대응하는 가상의 니들링영상을 생성하며, 생성된 상기 가상의 니들링영상에 대해 상기 로봇암의 니들링 타겟을 보정하여 상기 현재영상에 가상으로 표시하는 단계;
를 더 포함하는 것을 특징으로 하는 수술용 로봇 제어방법.The method of claim 7, wherein
Generating a virtual needling image corresponding to the set needling target of the robot arm, and correcting the needling target of the robot arm on the generated virtual needling image and displaying the virtual needling image on the current image;
Surgical robot control method comprising a further.
X-ray를 이용하여 기 촬영된 상기 촬영영상으로부터 뼈의 각각의 돌출부위를 특징점으로 추출하는 것을 특징으로 하는 수술용 로봇 제어방법.The method of claim 7, wherein the location search step,
Surgical robot control method, characterized in that for extracting each protrusion of the bone as a feature point from the pre-image taken by using the X-ray.
CT 및 MRI 중의 적어도 하나를 이용하여 기 촬영된 상기 촬영영상에서 병변 위치의 좌표를 계산하는 것을 특징으로 하는 수술용 로봇 제어방법.The method of claim 7, wherein the location search step,
Surgical robot control method characterized in that for calculating the coordinates of the lesion position in the pre-photographed image using at least one of the CT and MRI.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120003693A KR101334007B1 (en) | 2012-01-12 | 2012-01-12 | Surgical Robot Control System and Method therefor |
PCT/KR2012/010634 WO2013105738A1 (en) | 2012-01-12 | 2012-12-07 | Surgical robot control apparatus and method for controlling same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120003693A KR101334007B1 (en) | 2012-01-12 | 2012-01-12 | Surgical Robot Control System and Method therefor |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20130083130A KR20130083130A (en) | 2013-07-22 |
KR101334007B1 true KR101334007B1 (en) | 2013-11-27 |
Family
ID=48781651
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120003693A KR101334007B1 (en) | 2012-01-12 | 2012-01-12 | Surgical Robot Control System and Method therefor |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR101334007B1 (en) |
WO (1) | WO2013105738A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101570857B1 (en) | 2014-04-29 | 2015-11-24 | 큐렉소 주식회사 | Apparatus for adjusting robot surgery plans |
WO2016195265A1 (en) * | 2015-06-04 | 2016-12-08 | 현대중공업 주식회사 | Surgical path setting device, surgical robot system comprising same and surgical path setting method for surgical robot |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101529243B1 (en) * | 2013-12-23 | 2015-06-16 | 재단법인 아산사회복지재단 | Interventional procedure robot having needle insertion type |
CN110109421B (en) * | 2018-02-01 | 2023-03-14 | 天津工业大学 | Path planning method for acupuncture robot |
KR102272294B1 (en) * | 2019-12-23 | 2021-07-02 | 주식회사 코아로봇 | Robot Control Apparatus Having Virtual Axis Interface and Driving Method Thereof |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20030018008A (en) * | 2000-06-28 | 2003-03-04 | 드파이 인터내셔널 리미티드 | Apparatus for positioning a surgical instrument |
KR20100112310A (en) * | 2009-04-09 | 2010-10-19 | 의료법인 우리들의료재단 | Method and system for controlling microsurgery robot |
KR20110004496A (en) * | 2009-07-08 | 2011-01-14 | 주식회사 이턴 | Surgical robot and setting method thereof |
KR101015670B1 (en) | 2005-09-30 | 2011-02-22 | 레스토레이션 로보틱스, 인코포레이티드 | Automated apparatus for harvesting and implanting follicular units |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6424885B1 (en) * | 1999-04-07 | 2002-07-23 | Intuitive Surgical, Inc. | Camera referenced control in a minimally invasive surgical apparatus |
AU2002343552B2 (en) * | 2001-11-08 | 2006-04-27 | The Johns Hopkins University | System and method for robot targeting under flouroscopy based on image servoing |
-
2012
- 2012-01-12 KR KR1020120003693A patent/KR101334007B1/en active IP Right Grant
- 2012-12-07 WO PCT/KR2012/010634 patent/WO2013105738A1/en active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20030018008A (en) * | 2000-06-28 | 2003-03-04 | 드파이 인터내셔널 리미티드 | Apparatus for positioning a surgical instrument |
KR101015670B1 (en) | 2005-09-30 | 2011-02-22 | 레스토레이션 로보틱스, 인코포레이티드 | Automated apparatus for harvesting and implanting follicular units |
KR20100112310A (en) * | 2009-04-09 | 2010-10-19 | 의료법인 우리들의료재단 | Method and system for controlling microsurgery robot |
KR20110004496A (en) * | 2009-07-08 | 2011-01-14 | 주식회사 이턴 | Surgical robot and setting method thereof |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101570857B1 (en) | 2014-04-29 | 2015-11-24 | 큐렉소 주식회사 | Apparatus for adjusting robot surgery plans |
WO2016195265A1 (en) * | 2015-06-04 | 2016-12-08 | 현대중공업 주식회사 | Surgical path setting device, surgical robot system comprising same and surgical path setting method for surgical robot |
US10631940B2 (en) | 2015-06-04 | 2020-04-28 | Curexo, Inc. | Surgical path setting device, surgical robot system comprising same and surgical path setting method for surgical robot |
Also Published As
Publication number | Publication date |
---|---|
WO2013105738A1 (en) | 2013-07-18 |
KR20130083130A (en) | 2013-07-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11911118B2 (en) | Apparatus and methods for use with skeletal procedures | |
US11622815B2 (en) | Systems and methods for providing proximity awareness to pleural boundaries, vascular structures, and other critical intra-thoracic structures during electromagnetic navigation bronchoscopy | |
US11452567B2 (en) | Dynamic planning method for needle insertion | |
KR101334007B1 (en) | Surgical Robot Control System and Method therefor | |
CN110192917B (en) | System and method for performing percutaneous navigation procedures | |
CN107550566A (en) | By operating theater instruments with respect to the robot assisted device that patient body is positioned | |
US11666386B2 (en) | Surgical site displacement tracking | |
US20180286287A1 (en) | System and methods for training physicians to perform ablation procedures | |
EP3398552A1 (en) | Medical image viewer control from surgeon's camera | |
WO2022199650A1 (en) | Computer-readable storage medium, electronic device, and surgical robot system | |
US20190090960A1 (en) | Tubular body structure imaging and locating system | |
CN115444523A (en) | Automatic puncture control method and system | |
US20220409291A1 (en) | Planning and real-time updating a 3d trajectory of a medical instrument | |
CN113729940A (en) | Operation auxiliary positioning system and control method thereof | |
JP2014135974A (en) | X-ray diagnostic apparatus | |
JP7182126B2 (en) | Robotic surgery support device, robotic surgery support method, and program | |
CN113303824B (en) | Data processing method, module and system for in-vivo target positioning | |
CN114418960A (en) | Image processing method, system, computer device and storage medium | |
CN117462253A (en) | Medical navigation equipment and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20161115 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20171010 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20181002 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20190923 Year of fee payment: 7 |