KR101334007B1 - Surgical Robot Control System and Method therefor - Google Patents

Surgical Robot Control System and Method therefor Download PDF

Info

Publication number
KR101334007B1
KR101334007B1 KR1020120003693A KR20120003693A KR101334007B1 KR 101334007 B1 KR101334007 B1 KR 101334007B1 KR 1020120003693 A KR1020120003693 A KR 1020120003693A KR 20120003693 A KR20120003693 A KR 20120003693A KR 101334007 B1 KR101334007 B1 KR 101334007B1
Authority
KR
South Korea
Prior art keywords
image
robot arm
needling
feature points
coordinates
Prior art date
Application number
KR1020120003693A
Other languages
Korean (ko)
Other versions
KR20130083130A (en
Inventor
최건
이상호
김호
김종원
맹철수
김성현
유정미
Original Assignee
의료법인 우리들의료재단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 의료법인 우리들의료재단 filed Critical 의료법인 우리들의료재단
Priority to KR1020120003693A priority Critical patent/KR101334007B1/en
Priority to PCT/KR2012/010634 priority patent/WO2013105738A1/en
Publication of KR20130083130A publication Critical patent/KR20130083130A/en
Application granted granted Critical
Publication of KR101334007B1 publication Critical patent/KR101334007B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/04Surgical instruments, devices or methods, e.g. tourniquets for suturing wounds; Holders or packages for needles or suture materials
    • A61B17/06Needles ; Sutures; Needle-suture combinations; Holders or packages for needles or suture materials
    • A61B17/062Needle manipulators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/37Master-slave robots
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/02Programme-controlled manipulators characterised by movement of the arms, e.g. cartesian coordinate type
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • A61B2017/3405Needle locating or guiding means using mechanical guide means
    • A61B2017/3409Needle locating or guiding means using mechanical guide means including needle or instrument drives
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Robotics (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Mechanical Engineering (AREA)
  • Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Manipulator (AREA)

Abstract

수술용 로봇제어 시스템 및 그 제어방법이 개시된다. 본 발명에 따른 수술용 로봇제어 시스템은, 기 촬영된 촬영영상에 기초하여 병변 위치의 좌표를 설정하고, 설정된 좌표에 따라 로봇암(Robot Arm)의 니들링 타겟(Needling Target)을 지정하며, 그에 따라 로봇암을 구동하는 로봇암구동부; 환자의 현재의 자세에서 병변 위치에 대응하는 현재영상을 촬영하는 현재영상촬영부; 촬영영상에서 복수의 특징점을 추출하며, 현재영상에서 촬영영상의 특징점들에 대응하는 위치를 검색하고, 촬영영상에서 현재영상으로의 특징점들의 위치변화에 기초하여 로봇암구동부에 의해 설정된 좌표의 변화를 계산하는 좌표변화계산부; 및 좌표변화계산부에 의해 계산된 변화에 따라 로봇암의 니들링 타겟을 보정하며, 보정된 로봇암의 니들링 타겟에 따라 로봇암구동부를 구동제어하는 구동제어부;를 포함하는 것을 특징으로 한다.Disclosed are a surgical robot control system and a control method thereof. The surgical robot control system according to the present invention sets the coordinates of the lesion position on the basis of the photographed image, and designates a needling target of the robot arm according to the set coordinates. Robot arm driving unit for driving the robot arm along; A current image capturing unit configured to capture a current image corresponding to a lesion position in a current posture of the patient; Extracts a plurality of feature points from the captured image, searches for positions corresponding to the feature points of the captured image in the current image, and changes the coordinates set by the robot arm driver based on the positional change of the feature points from the captured image to the current image. A coordinate change calculator for calculating; And a driving control unit for correcting the needling target of the robot arm according to the change calculated by the coordinate change calculator, and controlling the driving of the robot arm driving unit according to the corrected needling target of the robot arm.

Description

수술용 로봇제어 시스템 및 그 제어방법{Surgical Robot Control System and Method therefor}Surgical Robot Control System and Method therefor}

본 발명은 수술용 로봇제어 시스템 및 그 제어방법에 관한 것으로서, 보다 상세하게는, 환자의 수술할 병변의 위치를 확인하기 위해 X-ray, CT, MRI 등의 영상의 촬영할 당시의 환자의 자세와 수술을 실행할 당시의 환자의 자세가 달라지더라도 정확하게 환자의 병변위치를 찾아 수술을 수행할 수 있는 수술용 로봇제어 시스템 및 그 제어방법에 관한 것이다.The present invention relates to a surgical robot control system and a control method thereof, and more particularly, to the position of the patient at the time of taking an image of X-ray, CT, MRI, etc. in order to confirm the location of the lesion to be operated by the patient. The present invention relates to a surgical robot control system and a method of controlling the same, which can accurately locate a patient's lesion and perform the surgery even when the patient's posture is changed.

의학적으로 수술이란 피부나 점막, 기타 조식을 의료 기계를 사용하여 자르거나 째거나 조작을 가하여 병을 고치는 행위를 말한다.Medically, surgery refers to the act of cutting, slitting, or manipulating skin, mucous membranes, or other breakfasts using medical devices to heal a disease.

전통적인 외과수술 방식은 일반적으로 의사의 의료기술에 전적으로 의존하여 이루어지기 때문에, 동일한 수술에 대해서도 의사의 경험치, 전문지식 등에 따라 수술 결과에 차이가 발생할 수 있다.Since traditional surgical procedures are generally completely dependent on the doctor's medical skills, the same surgical results may vary depending on the doctor's experience, expertise, and the like.

이와 같은 문제점을 해소하기 위하여, 최근에는 로봇(robot)을 이용하여 환자의 수술부위를 절개하고, 그 내부에 있는 기관 등을 치료, 성형하거나 제거하는 수술방법이 개발되었다. 로봇을 이용한 수술방법은 일반적으로 수술을 시작하기 전에 환자의 수술부위에 대한 X-ray, CT(Computed Tomography), MRI(Magnetic Resonance Imaging) 등의 영상을 촬영하고, 촬영된 영상에 기초하여 수술부위에 대한 좌표를 설정하며, 설정된 좌표에 따라 로봇을 동작시켜 수술을 시행한다.In order to solve such a problem, recently, a surgical method for dissecting a surgical site of a patient using a robot and treating, shaping or removing an organ therein has been developed. In general, the surgical method using a robot takes X-rays, CT (Computed Tomography), and MRI (Magnetic Resonance Imaging) images of the patient's surgical site before starting the operation. Set the coordinates for and operate the robot according to the set coordinates.

그런데, 종래의 기술에 따른 로봇을 이용한 수술방법은, 환자가 X-ray, CT, MRI 등의 영상을 촬영할 때의 자세와 수술을 받기 위한 자세를 취했을 때의 자세가 달라질 수 있으며, 그에 따라 촬영된 영상에 기초하여 설정된 좌표값에 오차가 발생할 수 있다는 문제점이 있다. 특히, 척추와 같이 신경 및 혈관이 집중되어 있는 부위를 수술하는 경우, 촬영된 영상에 기초하여 설정된 좌표값의 오차로 인해 수술도중에 환자의 신경이나 혈관을 손상시킬 수 있다는 문제점이 있다.By the way, in the surgical method using a robot according to the prior art, the posture when the patient takes an image of X-ray, CT, MRI, etc. and the posture when taking a posture to receive the operation may be different, accordingly There is a problem that an error may occur in a coordinate value set on the basis of an image. In particular, in the case of surgery on a region where nerves and blood vessels are concentrated, such as the spine, there is a problem that the nerve or blood vessel of the patient may be damaged during the operation due to an error of a coordinate value set based on the captured image.

본 발명은 전술한 문제점을 해결하기 위하여 창안된 것으로서, 환자의 수술할 병변의 위치를 확인하기 위해 X-ray, CT, MRI 등의 영상의 촬영할 당시의 환자의 자세와 수술을 실행할 당시의 환자의 자세가 달라지더라도 정확하게 환자의 병변위치를 찾아 수술을 수행할 수 있는 수술용 로봇제어 시스템 및 그 제어방법을 제공하는 것을 목적으로 한다.The present invention has been made to solve the above-described problems, the position of the patient at the time of imaging of X-ray, CT, MRI, etc. to confirm the location of the lesion to be operated on the patient and the patient at the time of performing the surgery It is an object of the present invention to provide a surgical robot control system and a method of controlling the same, which can accurately locate a patient's lesion and perform surgery.

전술한 목적을 달성하기 위한 본 발명의 실시예에 따른 수술용 로봇제어 시스템는, 기 촬영된 촬영영상에 기초하여 병변 위치의 좌표를 설정하고, 설정된 좌표에 따라 로봇암(Robot Arm)의 니들링 타겟(Needling Target)을 지정하며, 그에 따라 상기 로봇암을 구동하는 로봇암구동부; 환자의 현재의 자세에서 병변 위치에 대응하는 현재영상을 촬영하는 현재영상촬영부; 촬영영상에서 복수의 특징점을 추출하며, 현재영상에서 촬영영상의 특징점들에 대응하는 위치를 검색하고, 촬영영상에서 현재영상으로의 특징점들의 위치변화에 기초하여 로봇암구동부에 의해 설정된 좌표의 변화를 계산하는 좌표변화계산부; 및 좌표변화계산부에 의해 계산된 변화에 따라 로봇암의 니들링 타겟을 보정하며, 보정된 로봇암의 니들링 타겟에 따라 로봇암구동부를 구동제어하는 구동제어부;를 포함하는 것을 특징으로 한다.Surgical robot control system according to an embodiment of the present invention for achieving the above object, setting the coordinates of the lesion position based on the pre-recorded image, and the needling target of the robot arm according to the set coordinates A robot arm driver configured to specify a (Needling Target) and thereby driving the robot arm; A current image capturing unit configured to capture a current image corresponding to a lesion position in a current posture of the patient; Extracts a plurality of feature points from the captured image, searches for positions corresponding to the feature points of the captured image in the current image, and changes the coordinates set by the robot arm driver based on the positional change of the feature points from the captured image to the current image. A coordinate change calculator for calculating; And a driving control unit for correcting the needling target of the robot arm according to the change calculated by the coordinate change calculator, and controlling the driving of the robot arm driving unit according to the corrected needling target of the robot arm.

좌표변화계산부는, 촬영영상에서 뼈의 각각의 돌출부위를 특징점으로 추출하며, 추출된 특징점들 사이의 거리를 계산하는 특징점거리계산부; 및 특징점거리계산부에 의해 계산된 특징점들 사이의 거리비율에 기초하여 현재영상으로부터 촬영영상의 특징점들에 대응하는 위치를 검색하는 대응위치검색부;를 포함한다.The coordinate change calculator comprises: a feature point distance calculator configured to extract each protrusion of the bone as a feature point from the photographed image and calculate a distance between the extracted feature points; And a corresponding position search unit for searching for positions corresponding to the feature points of the photographed image from the current image based on the distance ratio between the feature points calculated by the feature point distance calculator.

전술한 수술용 로봇제어 시스템는, 로봇암구동부에 대응하는 가상의 니들링영상을 생성하며, 생성된 가상의 니들링영상에 대해 로봇암의 니들링 타겟을 보정하여 현재영상에 가상으로 표시하는 가상영상표시부;를 더 포함한다.The above-described surgical robot control system generates a virtual needling image corresponding to the robot arm driver, and virtually displays the virtual image on the current image by correcting the needling target of the robot arm with respect to the generated virtual needling image. It further includes a display unit.

좌표변화계산부는, X-ray를 이용하여 기 촬영된 촬영영상으로부터 뼈의 각각의 돌출부위를 특징점으로 추출할 수 있다.The coordinate change calculator may extract each protrusion of the bone as a feature point from the photographed image photographed using the X-ray.

좌표변화계산부는, CT(Computed Tomography) 및 MRI(Magnetic Resonance Imaging) 중의 적어도 하나를 이용하여 기 촬영된 촬영영상에서 병변 위치의 좌표를 계산할 수 있다.The coordinate change calculator may calculate the coordinates of the lesion position in the pre-photographed captured image by using at least one of computed tomography (CT) and magnetic resonance imaging (MRI).

전술한 목적을 달성하기 위한 본 발명의 실시예에 따른 수술용 로봇 제어방법은, 기 촬영된 촬영영상에 기초하여 병변 위치의 좌표를 설정하고, 로봇암의 니들링 타겟을 설정하는 단계; 설정된 좌표에 따라 로봇암의 니들링 타겟을 지정하는 단계; 환자의 현재의 자세에서 병변 위치에 대응하는 현재영상을 촬영하는 단계; 촬영영상에서 복수의 특징점을 추출하며, 현재영상에서 촬영영상의 특징점들에 대응하는 위치를 검색하는 단계; 촬영영상에서 현재영상으로의 특징점들의 위치변화에 기초하여 설정된 좌표의 변화를 계산하는 단계; 계산된 좌표의 변화에 따라 로봇암의 니들링 타겟을 보정하는 단계; 및 보정된 로봇암의 니들링 타겟에 따라 로봇암을 구동제어하는 단계;를 포함하는 것을 특징으로 한다.Surgical robot control method according to an embodiment of the present invention for achieving the above object, setting the coordinates of the lesion position on the basis of the pre-recorded image, and setting the needling target of the robot arm; Designating a needling target of the robot arm according to the set coordinates; Photographing a current image corresponding to a lesion position in a current posture of the patient; Extracting a plurality of feature points from the captured image and searching for positions corresponding to the feature points of the captured image in the current image; Calculating a change in coordinates set based on a change in position of feature points from the captured image to the current image; Correcting the needling target of the robot arm according to the change in the calculated coordinates; And driving control of the robot arm according to the needling target of the corrected robot arm.

전술한 수술용 로봇 제어방법은, 촬영영상에서 뼈의 각각의 돌출부위를 특징점으로 추출하며, 추출된 특징점들 사이의 거리를 계산하는 단계;를 더 포함하며, 계산된 특징점들 사이의 거리비율에 기초하여 현재영상으로부터 촬영영상의 특징점들에 대응하는 위치를 검색할 수 있다.The above-described surgical robot control method further comprises: extracting each protrusion of the bone as a feature point in the photographed image, and calculating a distance between the extracted feature points; and further comprising: calculating the distance ratio between the feature points. A position corresponding to the feature points of the captured image may be searched based on the current image.

전술한 수술용 로봇 제어방법은, 설정된 로봇암의 니들링 타겟에 대응하는 가상의 니들링영상을 생성하며, 생성된 가상의 니들링영상에 대해 로봇암의 니들링 타겟을 보정하여 현재영상에 가상으로 표시하는 단계;를 더 포함할 수 있다.The above-described surgical robot control method generates a virtual needling image corresponding to the needling target of the set robot arm, corrects the needling target of the robot arm with respect to the generated virtual needling image, and virtualizes the current image. Displaying as; may further include.

위치검색 단계는, X-ray를 이용하여 기 촬영된 촬영영상으로부터 뼈의 각각의 돌출부위를 특징점으로 추출한다.In the location retrieval step, each protrusion of the bone is extracted as a feature point from the pre-photographed captured image using X-ray.

또한, 위치검색 단계는, CT 및 MRI 중의 적어도 하나를 이용하여 기 촬영된 촬영영상에서 병변 위치의 좌표를 계산한다.In the location retrieval step, the coordinates of the lesion position are calculated in the photographed image by using at least one of the CT and the MRI.

본 발명에 따르면, 환자의 수술할 병변의 위치를 확인하기 위해 X-ray, CT, MRI 등의 영상의 촬영할 당시의 환자의 자세와 수술을 실행할 당시의 환자의 자세가 달라지더라도 정확하게 환자의 병변위치를 찾아 수술을 수행할 수 있게 된다.According to the present invention, even if the posture of the patient at the time of taking the image of X-ray, CT, MRI, etc. and the posture of the patient at the time of performing the surgery to confirm the location of the patient to operate the lesion, the lesion of the patient accurately You will be able to locate and perform the surgery.

도 1은 본 발명의 실시예에 따른 수술용 로봇제어 시스템을 개략적으로 도시한 도면이다.
도 2는 로봇암의 예를 나타낸 도면이다.
도 3은 현재영상 촬영부의 예로서 C-암 장치의 예를 나타낸 도면이다.
도 4는 X-ray 영상에서 특징점을 추출하는 예를 나타낸 도면이다.
도 5는 현재영상에서 특징점에 대응하는 위치를 검색하는 예를 나타낸 도면이다.
도 6은 MRI 영상에서 특징점을 추출하는 예를 나타낸 도면이다.
도 7은 현재영상에 가상의 니들링영상을 표시하는 예를 나타낸 도면이다.
도 8은 본 발명의 실시예에 따른 수술용 로봇 제어방법을 나타낸 흐름도이다.
1 is a view schematically showing a surgical robot control system according to an embodiment of the present invention.
2 is a diagram illustrating an example of a robot arm.
3 is a diagram illustrating an example of a C-arm apparatus as an example of a current image capturing unit.
4 is a diagram illustrating an example of extracting feature points from an X-ray image.
5 is a diagram illustrating an example of searching for a position corresponding to a feature point in a current image.
6 is a diagram illustrating an example of extracting feature points from an MRI image.
7 is a diagram illustrating an example of displaying a virtual needling image on a current image.
8 is a flowchart illustrating a surgical robot control method according to an embodiment of the present invention.

이하, 첨부도면을 참조하여 본 발명의 실시예에 따른 수술용 로봇장치 및 그 수술방법을 상세하게 설명한다. 도 1은 본 발명의 실시예에 따른 수술용 로봇제어 시스템을 개략적으로 도시한 도면이다.Hereinafter, with reference to the accompanying drawings will be described in detail the surgical robot device and the surgical method according to an embodiment of the present invention. 1 is a view schematically showing a surgical robot control system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시예에 따른 수술용 로봇제어 시스템(100)은 로봇암구동부(110), 현재영상촬영부(120), 좌표변화계산부(130), 구동제어부(140) 및 가상영상표시부(150)를 포함한다. Referring to FIG. 1, a surgical robot control system 100 according to an exemplary embodiment of the present invention includes a robot arm driver 110, a current image photographing unit 120, a coordinate change calculator 130, and a drive controller 140. And a virtual image display unit 150.

로봇암구동부(110)는 기 촬영된 촬영영상에 기초하여 병변 위치의 좌표를 설정하고, 설정된 병변 위치의 좌표에 따라 로봇암(Robot Arm)의 니들링 타겟(Needling Target)을 지정하며, 그에 따라 로봇암을 구동한다. 즉, 로봇암구동부(110)는 기 촬영된 X-ray 영상, CT(Computed Tomography) 영상, MRI(Magnetic Resonance Imaging) 영상 등의 촬영영상으로부터 병변의 위치를 확인하며, 해당 촬영영상에서 기준점을 지정하고, 지정된 기준점에 대한 병변 위치의 좌표를 설정한다. 이때, 로봇암구동부(110)는 기 촬영된 촬영영상의 기준지점에 대응하는 환자의 기준지점으로부터 기 촬영된 촬영영상의 확대/축소 비율에 따라 소정 거리 이격된 지점을 로봇암의 니들링 타겟지점으로 지정하며, 지정된 니들링 타겟지점으로 타게팅(Targeting)되도록 로봇암을 구동한다. The robot arm driver 110 sets the coordinates of the lesion position based on the pre-recorded photographed image, and specifies a needling target of the robot arm according to the coordinates of the set lesion position. Drive the robot arm. That is, the robot arm driving unit 110 checks the position of the lesion from a captured image such as a pre-recorded X-ray image, a computed tomography (CT) image, a magnetic resonance imaging (MRI) image, and specifies a reference point in the captured image. And set the coordinates of the lesion position with respect to the designated reference point. At this time, the robot arm driving unit 110 is a needling target point of the robot arm from the patient's reference point corresponding to the reference point of the pre-recorded captured image spaced a predetermined distance according to the enlargement / reduction ratio of the pre-recorded captured image The robot arm is driven to be targeted to the designated needling target point.

여기서, 로봇암은 생체 내에서 조직을 절개하거나 봉합하는 등의 작업을 수행하는 기기로서, 도 2는 로봇암의 일 예를 나타낸다. 즉, 로봇암(200)은 복수의 관절(210)을 포함하며, 그 선단에는 피부 속에 침투하여 조직의 절개, 봉합 등의 작업을 수행하는 니들(220)이 설치된다. 이때, 로봇암(200)은 좌우의 회전뿐만 아니라, 관절(210)을 이용한 상하회전 및 각도조절이 가능하며, 또한 로봇암(200)과 니들(220) 사이의 높이조절부(230)를 이용하여 니들(220)의 높낮이를 조절할 수도 있다. 이때, 니들(220)의 선단에는 레이저빔(laser beam) 장치와 같은 수술도구가 장착되거나, 니들(220)을 통하여 약물을 직접 투입할 수도 있다. 로봇암(200)에 대한 구동방법은 공지된 다양한 방법을 따를 수 있으며, 여기서는 그 상세한 설명을 생략한다. 또한, 로봇암(200)의 형태는 도 2에 도시된 형태에 한정되는 것은 아니며, 공지된 다양한 형태의 로봇암이 이용될 수도 있다.Here, the robot arm is a device for performing an operation such as cutting or suturing tissue in vivo, Figure 2 shows an example of the robot arm. That is, the robot arm 200 includes a plurality of joints 210, and a needle 220 is installed at the tip of the robot arm 200 to penetrate into the skin to perform cutting and suturing of the tissue. At this time, the robot arm 200 can be rotated up and down and angle adjustment using the joint 210, as well as the left and right rotation, and also using the height adjusting unit 230 between the robot arm 200 and the needle 220. The height of the needle 220 may be adjusted. In this case, a surgical tool such as a laser beam device may be mounted at the tip of the needle 220, or drugs may be directly injected through the needle 220. The driving method for the robot arm 200 may follow various known methods, and a detailed description thereof will be omitted herein. In addition, the shape of the robot arm 200 is not limited to the shape shown in FIG. 2, and various known types of robot arms may be used.

현재영상촬영부(120)는 환자의 수술시의 현재의 자세에서 병변 위치에 대응하는 현재영상을 촬영한다. 이때, 현재영상촬영부(120)는 도 3에 도시한 바와 같은 C-암 장치를 이용하여 수술실에서의 환자의 현재의 자세에서의 영상을 촬영할 수 있다.The current image capturing unit 120 captures a current image corresponding to the lesion position in the current posture at the time of surgery of the patient. In this case, the current image capturing unit 120 may take an image of the current posture of the patient in the operating room using the C-arm device as shown in FIG.

일반적으로, C-암 장치는 신경외과, 정형외과, 비뇨기과 등에서 수술시에 X선을 이용하여 수술 전, 중의 환자의 수술경과를 사진촬영하거나 또는 모니터를 통해 영상으로 표시하는 장치로서, 수술 전, 중의 환부의 상태를 실시간으로 관찰할 수 있도록 하는 수술실의 중요한 장치이다. In general, the C-cancer device is a device for photographing the operation history of a patient before or during surgery using X-ray during surgery in neurosurgery, orthopedics, urology, etc. It is an important device of the operating room to observe the state of the affected area in real time.

도 3에 도시한 바와 같이, C-암 장치는 X선을 발생하는 X선 발생기(310), X선 발생기(310)에서 발생된 X선을 검출하는 X선 검출기(320)가 'C'모양의 C-암 지지대(330)에 연결된다. 또한, C-암 지지대(330)는 회전샤프트(353)를 통해 본체(350)의 회전블록(351)에 연결되며, 본체(350)와 모니터(340)가 케이블을 통해 연결된다. 이때, 회전샤프트(353)는 기준 위치로부터 임의의 각도로 회전이 가능하다. 이와 같은 구성을 통하여, C-암 장치는, X선 발생기(310)가 환자나 동물 몸체 등과 같은 검사체에 X선을 방사시키며, 검사체를 통과한 X선을 X선 검출기(320)가 검출하여 본체(350)에서 영상신호로 처리하고, 모니터(340)가 본체(350)에 의해 처리된 영상신호를 영상으로 디스플레이한다.As shown in FIG. 3, in the C-arm apparatus, an X-ray generator 310 generating X-rays and an X-ray detector 320 detecting X-rays generated by the X-ray generator 310 have a 'C' shape. Is connected to the C-arm support 330 of the. In addition, the C-arm support 330 is connected to the rotary block 351 of the main body 350 through the rotary shaft 353, the main body 350 and the monitor 340 is connected via a cable. At this time, the rotation shaft 353 can be rotated at any angle from the reference position. Through such a configuration, in the C-cancer device, the X-ray generator 310 radiates X-rays to an object such as a patient or an animal body, and the X-ray detector 320 detects X-rays passing through the object. The main body 350 processes the video signal, and the monitor 340 displays the video signal processed by the main body 350 as an image.

도 3에서는 현재영상촬영부(120)의 예로서 C-암 장치를 도시하고 설명하였지만, 현재영상촬영부(120)는 C-암 장치에 한정되지 않으며, O-암 장치 또는 기타 다른 장치가 이용될 수도 있다. In FIG. 3, the C-arm apparatus is illustrated and described as an example of the current image capturing unit 120, but the current image capturing unit 120 is not limited to the C-arm apparatus, and is used by an O-arm apparatus or another device. May be

또한, 도 2 및 도 3에서 로봇암(200) 및 현재영상촬영부(120)는 각각 별개의 독립적인 장치로 구현되는 것으로 도시하고 설명하였지만, 로봇암(200)과 현재영상촬영부(120)는 하나의 장치로 일체화되어 형성될 수도 있다.In addition, although the robot arm 200 and the current image capturing unit 120 are illustrated and described in FIG. 2 and FIG. 3 as being implemented as separate and independent devices, the robot arm 200 and the current image capturing unit 120 are illustrated. May be integrally formed into one device.

좌표변화계산부(130)는 X-ray, CT, MRI 등을 이용하여 기 촬영된 촬영영상에서 복수의 특징점을 추출하며, 현재영상촬영부(120)에 의해 촬영된 현재영상에서 특징점들에 대응하는 위치를 검색한다. 이때, X-ray, CT, MRI 등을 이용하여 영상을 촬영할 당시의 환자의 자세와 수술시의 환자의 자세는 다르므로, 로봇암구동부(110)에 의해 설정된 병변 위치의 좌표는, 수술실에서 현재영상촬영부(120)에 의해 촬영된 현재영상에 대하여 다른 값으로 변경된다. 이를 위하여, 좌표변화계산부(130)는 촬영영상에서 현재영상으로의 특징점들의 위치변화에 기초하여 로봇암구동부(110)에 의해 설정된 병변 위치의 좌표의 변화를 계산할 수 있다. 이때, 좌표변화계산부(130)는 기 촬영된 촬영영상에서 척추, 골반 등과 같이 그 형태의 변화가 없는 뼈의 각각의 돌출부위를 특징점으로 추출하는 것이 바람직하다. 이 경우, 좌표변화계산부(130)는 병변 위치의 좌표변화 계산의 정확성을 높이기 위하여, 도 4에 도시한 바와 같이 환자의 동일한 환부에 대하여 (a) 측면의 척추 촬영영상, (b) 정면의 척추 촬영영상 등과 같은 복수의 촬영영상에 대해 각각의 특징점을 추출할 수 있다. The coordinate change calculation unit 130 extracts a plurality of feature points from the pre-recorded captured image by using X-ray, CT, MRI, etc., and corresponds to the feature points in the current image captured by the current image capture unit 120. Search for a location. At this time, the posture of the patient at the time of taking the image using X-ray, CT, MRI and the like and the posture of the patient at the time of surgery is different, the coordinate of the lesion position set by the robot arm driver 110 is present in the operating room The current image photographed by the image capturing unit 120 is changed to another value. To this end, the coordinate change calculator 130 may calculate a change in the coordinate of the lesion position set by the robot arm driver 110 based on the position change of the feature points from the captured image to the current image. At this time, the coordinate change calculation unit 130 is preferably extracted as a feature point of each protrusion of the bone that does not change its shape, such as spine, pelvis, etc. in the pre-recorded captured image. In this case, the coordinate change calculation unit 130, in order to increase the accuracy of the coordinate change calculation of the lesion position, as shown in Figure 4, (a) the spine image of the side, (b) the front of the same lesion of the patient Each feature point may be extracted for a plurality of captured images such as a spine image.

좌표변화계산부(130)는 특징점거리계산부(132) 및 대응위치검색부(134)를 구비할 수 있다.The coordinate change calculator 130 may include a feature point distance calculator 132 and a corresponding location searcher 134.

특징점거리계산부(132)는 기 촬영된 촬영영상에서 뼈의 각각의 돌출부위를 하며, 추출된 특징점들 사이의 거리를 계산한다. 예를 들어, 도 4의 (a) 및 (b)에 도시한 바와 같이, 기 촬영된 촬영영상을 소정 간격으로 분할하며, 뼈의 외곽선의 변곡점을 특징점으로 추출하고, 각각의 특징점들 사이의 거리를 계산할 수 있다.The feature point distance calculator 132 calculates the distance between each of the extracted feature points in each protrusion of the bone in the pre-recorded captured image. For example, as shown in (a) and (b) of FIG. 4, the photographed image is divided at predetermined intervals, the inflection point of the outline of the bone is extracted as a feature point, and the distance between each feature point. Can be calculated.

대응위치검색부(134)는 특징점거리계산부(132)에 의해 계산된 특징점들 사이의 거리비율에 기초하여 현재영상촬영부(120)에 의해 촬영된 현재영상으로부터 기 촬영된 촬영영상의 특징점들에 대응하는 위치를 검색한다. The corresponding location search unit 134 may store the feature points of the photographed image photographed from the current image photographed by the current image photographing unit 120 based on the distance ratio between the feature points calculated by the feature point distance calculator 132. Search for the location corresponding to.

예를 들어, 병변의 위치가 목뼈 부근이라고 가정하면, 특징점거리계산부(132)는 목뼈 부근의 기 촬영된 촬영영상으로부터 도 5의 (a)에 도시한 바와 같은 특징점들을 추출하며, 각 특징점들 사이의 거리를 계산할 수 있다. 여기서는 설명을 용이하게 하기 위하여 기 촬영된 촬영영상으로부터 변곡률이 설정 값 이상인 지점을 특징점으로 추출하고 각 특징점들 사이의 거리를 계산하는 것으로 도시하였다. For example, assuming that the location of the lesion is near the neck bone, the feature point distance calculating unit 132 extracts the feature points as shown in FIG. You can calculate the distance between them. For ease of explanation, it is shown that the point of inflection is greater than or equal to the set value from the pre-recorded photographed image as a feature point and the distance between the feature points is calculated.

또한, 현재영상촬영부(120)에 의해 수술시의 현재영상이 도 5의 (b)와 같다고 가정하면, 대응위치검색부(134)는 목뼈의 각각의 특징점들의 거리의 비율에 기초하여 현재영상으로부터 각각의 특징점에 대응하는 위치를 검색할 수 있다. 즉, 환자의 자세가 바뀌더라도 각각의 뼈마디의 형태는 일정하게 유지되므로, 대응위치검색부(134)는 특징점들 사이의 비율에 따라 현재영상으로부터 각 특징점들에 대응하는 위치를 검색할 수 있다. In addition, assuming that the current image at the time of surgery by the current image capturing unit 120 is the same as that of FIG. The position corresponding to each feature point can be retrieved from. That is, even when the position of the patient is changed, the shape of each bone node is kept constant, so that the corresponding position search unit 134 may search for positions corresponding to each feature point from the current image according to the ratio between the feature points.

이때, 뼈마디와 뼈마디 사이에 있는 병변의 위치는 도 5에 도시한 바와 같이, 환자의 자세가 변경됨에 따라 촬영영상에서의 위치와 수술시의 위치가 달라지게 된다. 이 경우, 좌표변화계산부(130)는 기 촬영된 촬영영상에서 병변 위치의 좌표와 각 특징점들 사이의 거리비율에 따라, 현재영상촬영부(120)에 의해 촬영된 현재영상에서 병변의 위치를 검색할 수 있으며, 검색된 병변 위치의 좌표와 로봇암구동부(110)에 의해 설정된 병변 위치의 좌표를 비교하여 그 변화를 계산할 수 있다.At this time, the location of the lesion between the bone node and the bone node, as shown in Figure 5, the position in the photographed image and the position during surgery is changed as the patient's posture is changed. In this case, the coordinate change calculator 130 determines the position of the lesion in the current image photographed by the current image capturing unit 120 according to the coordinate of the lesion position and the distance ratio between the respective feature points in the photographed image. The change may be calculated by comparing the coordinates of the detected lesion position with the coordinates of the lesion position set by the robot arm driver 110.

이때, X-ray 영상은 뼈의 각각의 돌출부위를 특징점으로 추출하는 데에 이용될 수 있으며, CT 영상 또는 MRI 영상은 뼈 부근의 병변의 위치와 각 특징점들의 거리비율을 계산하는데 이용될 수 있다. 이 경우, 병변의 위치와 각 특징점들의 거리비율은 병변의 위치로부터 가장 가까운 특징점에서 먼 특징점으로, 순차적으로 설정된 개수만큼만 계산될 수도 있다.In this case, the X-ray image may be used to extract each protrusion of the bone as a feature point, and the CT image or the MRI image may be used to calculate the location of the lesion near the bone and the distance ratio of each feature point. . In this case, the location ratio of the location of each lesion and the distance ratio of each feature point may be calculated as a feature point far from the feature point closest to the location of the lesion, and only a number set sequentially.

본 발명의 실시예에 따른 수술용 로봇제어 시스템은 도 6의 (a)에 도시한 바와 같이 목뼈 부근의 MRI 영상, (b) 허리뼈 부근의 MRI 영상뿐만 아니라, X-ray 영상, CT 영상 등을 활용하여 특징점을 추출할 수 있으며, 수술시의 현재영상촬영부(120)에 의해 촬영되는 현재영상과 비교하여 병변 위치의 변화를 정확하게 계산할 수 있다. 또한, 환부의 위치는 도 6에 도시한 목이나 허리에 한정되는 것이 아니며, 다양한 부위에 대한 특징점의 추출이 가능하다.Surgical robot control system according to an embodiment of the present invention, as shown in Figure 6 (a) MRI image around the neck bone, (b) MRI image around the hip bone, as well as X-ray image, CT image, etc. The feature point can be extracted by using the A, and the change in the position of the lesion can be accurately calculated in comparison with the current image photographed by the current image capturing unit 120 during surgery. In addition, the position of the affected part is not limited to the neck or the waist shown in FIG. 6, and feature points for various parts can be extracted.

구동제어부(140)는 좌표변화계산부(130)에 의해 계산된 좌표의 변화에 따라 로봇암(200)의 니들링 타겟 지점을 보정하며, 보정된 니들링 타겟 지점에 따라 로봇암구동부(110)를 구동 제어한다.The driving controller 140 corrects the needling target point of the robot arm 200 according to the change of the coordinate calculated by the coordinate change calculator 130, and the robot arm driver 110 according to the corrected needling target point. Drive control.

가상영상표시부(150)는 로봇암구동부(110)에 대응하는 가상의 니들링영상을 생성하며, 생성된 가상의 니들링영상에 대해 로봇암(200)의 니들링 타겟 지점을 보정하여 현재영상에 가상으로 표시할 수 있다. 즉, 가상영상표시부(150)는 도 7에 도시한 바와 같이, 현재영상촬영부(120)에 의해 촬영된 현재영상에 대하여 로봇암구동부(110)에 의해 설정된 좌표로 니들링하는 가상의 니들링영상을 표시하며, 그에 대해 구동제어부(150)에 의해 보정된 로봇암구동부(110)에 대응하는 가상의 니들링영상을 표시함으로써 수술을 시도하기 전에 보정이 정상적으로 되었는지를 확인할 수 있다.The virtual image display unit 150 generates a virtual needling image corresponding to the robot arm driver 110 and corrects the needling target point of the robot arm 200 with respect to the generated virtual needling image to the current image. It can be displayed virtually. That is, as illustrated in FIG. 7, the virtual image display unit 150 needles virtual needles that need to be coordinated by the robot arm driver 110 with respect to the current image photographed by the current image photographing unit 120. By displaying an image and displaying a virtual needling image corresponding to the robot arm driver 110 corrected by the driving controller 150, it is possible to confirm whether the correction is normal before attempting the surgery.

도 8은 본 발명의 실시예에 따른 수술용 로봇 제어방법을 나타낸 흐름도이다. 8 is a flowchart illustrating a surgical robot control method according to an embodiment of the present invention.

도 1 내지 도 8을 참조하면, 로봇암구동부(110)는 기 촬영된 X-ray 영상, CT 영상, MRI 영상 등의 촬영영상으로부터 병변의 위치를 확인하며, 해당 촬영영상에서 기준점을 지정하고, 지정된 기준점에 대한 병변 위치의 좌표를 설정한다(S802). 이때, 로봇암구동부(110)는 기 촬영된 촬영영상의 기준지점에 대응하는 환자의 기준지점으로부터 기 촬영된 촬영영상의 확대/축소 비율에 따라 소정 거리 이격된 지점을 로봇암의 니들링 타겟지점으로 지정한다(S804).1 to 8, the robot arm driving unit 110 checks the position of the lesion from a photographed image such as a pre-recorded X-ray image, a CT image, an MRI image, and designates a reference point in the photographed image. Set the coordinates of the lesion position with respect to the designated reference point (S802). At this time, the robot arm driving unit 110 is a needling target point of the robot arm from the patient's reference point corresponding to the reference point of the pre-recorded captured image spaced a predetermined distance according to the enlargement / reduction ratio of the pre-recorded captured image It is specified as (S804).

현재영상촬영부(120)는 환자의 수술시의 현재의 자세에서 병변 위치에 대응하는 현재영상을 촬영한다(S806). The current image capturing unit 120 captures the current image corresponding to the lesion position in the current posture at the time of surgery of the patient (S806).

좌표변화계산부(130)는 X-ray, CT, MRI 등을 이용하여 기 촬영된 촬영영상에서 복수의 특징점을 추출한다(S808). 이때, 좌표변화계산부(130)는 기 촬영된 촬영영상에서 뼈의 각각의 돌출부위를 특징점으로 추출하며, 특징점거리계산부(132)는 추출된 특징점들 사이의 거리를 계산할 수 있다(S810). The coordinate change calculator 130 extracts a plurality of feature points from the pre-photographed captured image using X-ray, CT, MRI, and the like (S808). In this case, the coordinate change calculator 130 extracts each protrusion of the bone as a feature point from the pre-recorded captured image, and the feature point distance calculator 132 may calculate the distance between the extracted feature points (S810). .

대응위치검색부(134)는 특징점거리계산부(132)에 의해 계산된 특징점들 사이의 거리비율에 기초하여 현재영상촬영부(120)에 의해 촬영된 현재영상으로부터 기 촬영된 촬영영상의 특징점들에 대응하는 위치를 검색한다(S812). The corresponding location search unit 134 may store the feature points of the photographed image photographed from the current image photographed by the current image photographing unit 120 based on the distance ratio between the feature points calculated by the feature point distance calculator 132. Search for a location corresponding to the (S812).

좌표변화계산부(130)는 기 촬영된 촬영영상에서 병변 위치의 좌표와 각 특징점들 사이의 거리비율에 따라, 현재영상촬영부(120)에 의해 촬영된 현재영상에서 병변의 위치를 검색할 수 있으며, 검색된 병변 위치의 좌표와 로봇암구동부(110)에 의해 설정된 병변 위치의 좌표를 비교하여 그 변화를 계산한다(S814).The coordinate change calculator 130 may search for the location of the lesion in the current image captured by the current image capturing unit 120 according to the coordinates of the location of the lesion in the pre-recorded image and the distance ratio between the respective feature points. And, the coordinates of the retrieved lesion position and the coordinates of the lesion position set by the robot arm driver 110 are compared to calculate the change (S814).

구동제어부(140)는 좌표변화계산부(130)에 의해 계산된 좌표의 변화에 따라 로봇암(200)의 니들링 타겟 지점을 보정한다(S816).The driving controller 140 corrects the needling target point of the robot arm 200 according to the change of the coordinate calculated by the coordinate change calculator 130 (S816).

가상영상표시부(150)는 로봇암구동부(110)에 대응하는 가상의 니들링영상을 생성하며, 생성된 가상의 니들링영상에 대해 로봇암(200)의 니들링 타겟 지점을 보정하여 현재영상에 가상으로 표시할 수 있다(S818). The virtual image display unit 150 generates a virtual needling image corresponding to the robot arm driver 110 and corrects the needling target point of the robot arm 200 with respect to the generated virtual needling image to the current image. It can be displayed virtually (S818).

가상영상표시부(150)에 의해 표시되는 가상의 니들링영상이 병변 위치의 타겟으로 정확하게 니들링되면(S820), 구동제어부(140)는 보정된 니들링 타겟 지점에 따라 로봇암구동부(110)를 구동 제어하여 수술을 시작할 수 있다(S822).When the virtual needling image displayed by the virtual image display unit 150 is correctly needled as the target of the lesion position (S820), the driving controller 140 controls the robot arm driver 110 according to the corrected needling target point. Operation can be started by driving control (S822).

이로써, 로봇암(200)을 구동하여 수술을 실행하기 이전에 가상의 니들링영상을 통하여 보정이 정확하게 이루어졌는지 확인할 수 있으며, 그에 따라 환자의 수술시의 자세가 바뀌더라도 정확하게 병변위치를 보정하여 수술을 실행할 수 있게 된다.As a result, before the operation is performed by driving the robot arm 200, it is possible to confirm whether the correction is made correctly through the virtual needling image, and thus correct the lesion position even if the posture of the patient is changed. You can then run

100: 수술용 로봇제어 시스템
110: 로봇암구동부
120: 현재영상촬영부
130: 좌표변화계산부
132: 특징점거리계산부
134: 대응위치검색부
140: 구동제어부
150: 가상영상표시부
100: surgical robot control system
110: robot arm drive unit
120: current video recording unit
130: coordinate change calculation unit
132: feature point distance calculating unit
134: corresponding position search unit
140: drive control unit
150: virtual image display unit

Claims (10)

수술용 로봇제어 시스템에 있어서,
기 촬영된 촬영영상에 기초하여 병변 위치의 좌표를 설정하고, 설정된 상기 좌표에 따라 로봇암(Robot Arm)의 니들링 타겟(Needling Target)을 지정하며, 그에 따라 상기 로봇암을 구동하는 로봇암구동부;
환자의 현재의 자세에서 상기 병변 위치에 대응하는 현재영상을 촬영하는 현재영상촬영부;
상기 촬영영상에서 복수의 특징점을 추출하며, 상기 현재영상에서 상기 촬영영상의 특징점들에 대응하는 위치를 검색하고, 상기 촬영영상에서 상기 현재영상으로의 특징점들의 위치변화에 기초하여 상기 로봇암구동부에 의해 설정된 좌표의 변화를 계산하는 좌표변화계산부; 및
상기 좌표변화계산부에 의해 계산된 변화에 따라 상기 로봇암의 니들링 타겟을 보정하며, 보정된 상기 로봇암의 니들링 타겟에 따라 상기 로봇암구동부를 구동제어하는 구동제어부;
를 포함하는 것을 특징으로 하는 수술용 로봇제어 시스템.
In the robot control system for surgery,
The robot arm driver sets coordinates of the lesion position based on the photographed image, and designates a needling target of the robot arm according to the set coordinates, and drives the robot arm accordingly. ;
A current image photographing unit configured to capture a current image corresponding to the lesion position in a current posture of a patient;
Extracting a plurality of feature points from the captured image, searching for a position corresponding to the feature points of the captured image in the current image, and based on the positional change of the feature points from the captured image to the current image, the robot arm driving unit. A coordinate change calculator for calculating a change of coordinates set by the coordinate change; And
A driving control unit correcting a needling target of the robot arm according to the change calculated by the coordinate change calculator, and controlling the driving of the robot arm driving unit according to the corrected needling target of the robot arm;
Surgical robot control system comprising a.
제1항에 있어서, 상기 좌표변화계산부는,
상기 촬영영상에서 뼈의 각각의 돌출부위를 특징점으로 추출하며, 추출된 특징점들 사이의 거리를 계산하는 특징점거리계산부; 및
상기 특징점거리계산부에 의해 계산된 특징점들 사이의 거리비율에 기초하여 상기 현재영상으로부터 상기 촬영영상의 특징점들에 대응하는 위치를 검색하는 대응위치검색부;
를 포함하는 것을 특징으로 하는 수술용 로봇제어 시스템.
The method of claim 1, wherein the coordinate change calculation unit,
A feature point distance calculator for extracting each protrusion of the bone from the photographed image as a feature point and calculating a distance between the extracted feature points; And
A corresponding position search unit for searching for positions corresponding to the feature points of the photographed image from the current image based on a distance ratio between the feature points calculated by the feature point distance calculator;
Surgical robot control system comprising a.
제2항에 있어서,
상기 로봇암구동부에 대응하는 가상의 니들링영상을 생성하며, 생성된 상기 가상의 니들링영상에 대해 상기 로봇암의 니들링 타겟을 보정하여 상기 현재영상에 가상으로 표시하는 가상영상표시부;
를 더 포함하는 것을 특징으로 하는 수술용 로봇제어 시스템.
3. The method of claim 2,
A virtual image display unit for generating a virtual needling image corresponding to the robot arm driver and correcting a needling target of the robot arm with respect to the generated virtual needling image and displaying the virtual image on the current image;
Surgical robot control system further comprising.
제2항에 있어서, 상기 좌표변화계산부는,
X-ray를 이용하여 기 촬영된 상기 촬영영상으로부터 뼈의 각각의 돌출부위를 특징점으로 추출하는 것을 특징으로 하는 수술용 로봇제어 시스템.
The method of claim 2, wherein the coordinate change calculation unit,
Surgical robot control system, characterized in that for extracting each protrusion of the bone as a feature point from the photographed image taken by using X-ray.
제2항에 있어서, 상기 좌표변화계산부는,
CT(Computed Tomography) 및 MRI(Magnetic Resonance Imaging) 중의 적어도 하나를 이용하여 기 촬영된 상기 촬영영상에서 병변 위치의 좌표를 계산하는 것을 특징으로 하는 수술용 로봇제어 시스템.
The method of claim 2, wherein the coordinate change calculation unit,
Surgical robot control system, characterized in that for calculating the coordinates of the lesion position in the pre-recorded image using at least one of CT (Computed Tomography) and MRI (Magnetic Resonance Imaging).
수술용 로봇 제어방법에 있어서,
기 촬영된 촬영영상에 기초하여 병변 위치의 좌표를 설정하고, 로봇암의 니들링 타겟을 설정하는 단계;
설정된 상기 좌표에 따라 로봇암의 니들링 타겟을 지정하는 단계;
환자의 현재의 자세에서 상기 병변 위치에 대응하는 현재영상을 촬영하는 단계;
상기 촬영영상에서 복수의 특징점을 추출하며, 상기 현재영상에서 상기 촬영영상의 특징점들에 대응하는 위치를 검색하는 단계;
상기 촬영영상에서 상기 현재영상으로의 특징점들의 위치변화에 기초하여 설정된 상기 좌표의 변화를 계산하는 단계;
계산된 상기 좌표의 변화에 따라 상기 로봇암의 니들링 타겟을 보정하는 단계; 및
보정된 상기 로봇암의 니들링 타겟에 따라 상기 로봇암을 구동제어하는 단계;
를 포함하는 것을 특징으로 하는 수술용 로봇 제어방법.
In the surgical robot control method,
Setting coordinates of the lesion position based on the photographed image and setting a needling target of the robot arm;
Designating a needling target of the robot arm according to the set coordinates;
Photographing a current image corresponding to the lesion position in a current posture of a patient;
Extracting a plurality of feature points from the captured image and searching for positions corresponding to the feature points of the captured image in the current image;
Calculating a change in the coordinate set based on a change in position of feature points from the captured image to the current image;
Correcting a needling target of the robot arm according to the calculated change in the coordinates; And
Driving control of the robot arm according to the corrected needling target of the robot arm;
Surgical robot control method comprising a.
제6항에 있어서,
상기 촬영영상에서 뼈의 각각의 돌출부위를 특징점으로 추출하며, 추출된 특징점들 사이의 거리를 계산하는 단계;
를 더 포함하며,
계산된 특징점들 사이의 거리비율에 기초하여 상기 현재영상으로부터 상기 촬영영상의 특징점들에 대응하는 위치를 검색하는 것을 특징으로 하는 수술용 로봇 제어방법.
The method according to claim 6,
Extracting each protrusion of the bone as a feature point from the photographed image, and calculating a distance between the extracted feature points;
More,
And a position corresponding to the feature points of the photographed image is searched from the current image based on the calculated distance ratio between the feature points.
제7항에 있어서,
설정된 상기 로봇암의 니들링 타겟에 대응하는 가상의 니들링영상을 생성하며, 생성된 상기 가상의 니들링영상에 대해 상기 로봇암의 니들링 타겟을 보정하여 상기 현재영상에 가상으로 표시하는 단계;
를 더 포함하는 것을 특징으로 하는 수술용 로봇 제어방법.
The method of claim 7, wherein
Generating a virtual needling image corresponding to the set needling target of the robot arm, and correcting the needling target of the robot arm on the generated virtual needling image and displaying the virtual needling image on the current image;
Surgical robot control method comprising a further.
제7항에 있어서, 상기 위치검색 단계는,
X-ray를 이용하여 기 촬영된 상기 촬영영상으로부터 뼈의 각각의 돌출부위를 특징점으로 추출하는 것을 특징으로 하는 수술용 로봇 제어방법.
The method of claim 7, wherein the location search step,
Surgical robot control method, characterized in that for extracting each protrusion of the bone as a feature point from the pre-image taken by using the X-ray.
제7항에 있어서, 상기 위치검색 단계는,
CT 및 MRI 중의 적어도 하나를 이용하여 기 촬영된 상기 촬영영상에서 병변 위치의 좌표를 계산하는 것을 특징으로 하는 수술용 로봇 제어방법.
The method of claim 7, wherein the location search step,
Surgical robot control method characterized in that for calculating the coordinates of the lesion position in the pre-photographed image using at least one of the CT and MRI.
KR1020120003693A 2012-01-12 2012-01-12 Surgical Robot Control System and Method therefor KR101334007B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020120003693A KR101334007B1 (en) 2012-01-12 2012-01-12 Surgical Robot Control System and Method therefor
PCT/KR2012/010634 WO2013105738A1 (en) 2012-01-12 2012-12-07 Surgical robot control apparatus and method for controlling same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120003693A KR101334007B1 (en) 2012-01-12 2012-01-12 Surgical Robot Control System and Method therefor

Publications (2)

Publication Number Publication Date
KR20130083130A KR20130083130A (en) 2013-07-22
KR101334007B1 true KR101334007B1 (en) 2013-11-27

Family

ID=48781651

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120003693A KR101334007B1 (en) 2012-01-12 2012-01-12 Surgical Robot Control System and Method therefor

Country Status (2)

Country Link
KR (1) KR101334007B1 (en)
WO (1) WO2013105738A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101570857B1 (en) 2014-04-29 2015-11-24 큐렉소 주식회사 Apparatus for adjusting robot surgery plans
WO2016195265A1 (en) * 2015-06-04 2016-12-08 현대중공업 주식회사 Surgical path setting device, surgical robot system comprising same and surgical path setting method for surgical robot

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101529243B1 (en) * 2013-12-23 2015-06-16 재단법인 아산사회복지재단 Interventional procedure robot having needle insertion type
CN110109421B (en) * 2018-02-01 2023-03-14 天津工业大学 Path planning method for acupuncture robot
KR102272294B1 (en) * 2019-12-23 2021-07-02 주식회사 코아로봇 Robot Control Apparatus Having Virtual Axis Interface and Driving Method Thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030018008A (en) * 2000-06-28 2003-03-04 드파이 인터내셔널 리미티드 Apparatus for positioning a surgical instrument
KR20100112310A (en) * 2009-04-09 2010-10-19 의료법인 우리들의료재단 Method and system for controlling microsurgery robot
KR20110004496A (en) * 2009-07-08 2011-01-14 주식회사 이턴 Surgical robot and setting method thereof
KR101015670B1 (en) 2005-09-30 2011-02-22 레스토레이션 로보틱스, 인코포레이티드 Automated apparatus for harvesting and implanting follicular units

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6424885B1 (en) * 1999-04-07 2002-07-23 Intuitive Surgical, Inc. Camera referenced control in a minimally invasive surgical apparatus
AU2002343552B2 (en) * 2001-11-08 2006-04-27 The Johns Hopkins University System and method for robot targeting under flouroscopy based on image servoing

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030018008A (en) * 2000-06-28 2003-03-04 드파이 인터내셔널 리미티드 Apparatus for positioning a surgical instrument
KR101015670B1 (en) 2005-09-30 2011-02-22 레스토레이션 로보틱스, 인코포레이티드 Automated apparatus for harvesting and implanting follicular units
KR20100112310A (en) * 2009-04-09 2010-10-19 의료법인 우리들의료재단 Method and system for controlling microsurgery robot
KR20110004496A (en) * 2009-07-08 2011-01-14 주식회사 이턴 Surgical robot and setting method thereof

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101570857B1 (en) 2014-04-29 2015-11-24 큐렉소 주식회사 Apparatus for adjusting robot surgery plans
WO2016195265A1 (en) * 2015-06-04 2016-12-08 현대중공업 주식회사 Surgical path setting device, surgical robot system comprising same and surgical path setting method for surgical robot
US10631940B2 (en) 2015-06-04 2020-04-28 Curexo, Inc. Surgical path setting device, surgical robot system comprising same and surgical path setting method for surgical robot

Also Published As

Publication number Publication date
WO2013105738A1 (en) 2013-07-18
KR20130083130A (en) 2013-07-22

Similar Documents

Publication Publication Date Title
US11911118B2 (en) Apparatus and methods for use with skeletal procedures
US11622815B2 (en) Systems and methods for providing proximity awareness to pleural boundaries, vascular structures, and other critical intra-thoracic structures during electromagnetic navigation bronchoscopy
US11452567B2 (en) Dynamic planning method for needle insertion
KR101334007B1 (en) Surgical Robot Control System and Method therefor
CN110192917B (en) System and method for performing percutaneous navigation procedures
CN107550566A (en) By operating theater instruments with respect to the robot assisted device that patient body is positioned
US11666386B2 (en) Surgical site displacement tracking
US20180286287A1 (en) System and methods for training physicians to perform ablation procedures
EP3398552A1 (en) Medical image viewer control from surgeon's camera
WO2022199650A1 (en) Computer-readable storage medium, electronic device, and surgical robot system
US20190090960A1 (en) Tubular body structure imaging and locating system
CN115444523A (en) Automatic puncture control method and system
US20220409291A1 (en) Planning and real-time updating a 3d trajectory of a medical instrument
CN113729940A (en) Operation auxiliary positioning system and control method thereof
JP2014135974A (en) X-ray diagnostic apparatus
JP7182126B2 (en) Robotic surgery support device, robotic surgery support method, and program
CN113303824B (en) Data processing method, module and system for in-vivo target positioning
CN114418960A (en) Image processing method, system, computer device and storage medium
CN117462253A (en) Medical navigation equipment and method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161115

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20171010

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20181002

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190923

Year of fee payment: 7