KR20130083130A - 수술용 로봇제어 시스템 및 그 제어방법 - Google Patents

수술용 로봇제어 시스템 및 그 제어방법 Download PDF

Info

Publication number
KR20130083130A
KR20130083130A KR1020120003693A KR20120003693A KR20130083130A KR 20130083130 A KR20130083130 A KR 20130083130A KR 1020120003693 A KR1020120003693 A KR 1020120003693A KR 20120003693 A KR20120003693 A KR 20120003693A KR 20130083130 A KR20130083130 A KR 20130083130A
Authority
KR
South Korea
Prior art keywords
image
robot arm
needling
feature points
unit
Prior art date
Application number
KR1020120003693A
Other languages
English (en)
Other versions
KR101334007B1 (ko
Inventor
최건
이상호
김호
김종원
맹철수
김성현
유정미
Original Assignee
의료법인 우리들의료재단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 의료법인 우리들의료재단 filed Critical 의료법인 우리들의료재단
Priority to KR1020120003693A priority Critical patent/KR101334007B1/ko
Priority to PCT/KR2012/010634 priority patent/WO2013105738A1/ko
Publication of KR20130083130A publication Critical patent/KR20130083130A/ko
Application granted granted Critical
Publication of KR101334007B1 publication Critical patent/KR101334007B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/04Surgical instruments, devices or methods, e.g. tourniquets for suturing wounds; Holders or packages for needles or suture materials
    • A61B17/06Needles ; Sutures; Needle-suture combinations; Holders or packages for needles or suture materials
    • A61B17/062Needle manipulators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/37Master-slave robots
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/02Programme-controlled manipulators characterised by movement of the arms, e.g. cartesian coordinate type
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • A61B2017/3405Needle locating or guiding means using mechanical guide means
    • A61B2017/3409Needle locating or guiding means using mechanical guide means including needle or instrument drives
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Robotics (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Mechanical Engineering (AREA)
  • Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Manipulator (AREA)

Abstract

수술용 로봇제어 시스템 및 그 제어방법이 개시된다. 본 발명에 따른 수술용 로봇제어 시스템은, 기 촬영된 촬영영상에 기초하여 병변 위치의 좌표를 설정하고, 설정된 좌표에 따라 로봇암(Robot Arm)의 니들링 타겟(Needling Target)을 지정하며, 그에 따라 로봇암을 구동하는 로봇암구동부; 환자의 현재의 자세에서 병변 위치에 대응하는 현재영상을 촬영하는 현재영상촬영부; 촬영영상에서 복수의 특징점을 추출하며, 현재영상에서 촬영영상의 특징점들에 대응하는 위치를 검색하고, 촬영영상에서 현재영상으로의 특징점들의 위치변화에 기초하여 로봇암구동부에 의해 설정된 좌표의 변화를 계산하는 좌표변화계산부; 및 좌표변화계산부에 의해 계산된 변화에 따라 로봇암의 니들링 타겟을 보정하며, 보정된 로봇암의 니들링 타겟에 따라 로봇암구동부를 구동제어하는 구동제어부;를 포함하는 것을 특징으로 한다.

Description

수술용 로봇제어 시스템 및 그 제어방법{Surgical Robot Control System and Method therefor}
본 발명은 수술용 로봇제어 시스템 및 그 제어방법에 관한 것으로서, 보다 상세하게는, 환자의 수술할 병변의 위치를 확인하기 위해 X-ray, CT, MRI 등의 영상의 촬영할 당시의 환자의 자세와 수술을 실행할 당시의 환자의 자세가 달라지더라도 정확하게 환자의 병변위치를 찾아 수술을 수행할 수 있는 수술용 로봇제어 시스템 및 그 제어방법에 관한 것이다.
의학적으로 수술이란 피부나 점막, 기타 조식을 의료 기계를 사용하여 자르거나 째거나 조작을 가하여 병을 고치는 행위를 말한다.
전통적인 외과수술 방식은 일반적으로 의사의 의료기술에 전적으로 의존하여 이루어지기 때문에, 동일한 수술에 대해서도 의사의 경험치, 전문지식 등에 따라 수술 결과에 차이가 발생할 수 있다.
이와 같은 문제점을 해소하기 위하여, 최근에는 로봇(robot)을 이용하여 환자의 수술부위를 절개하고, 그 내부에 있는 기관 등을 치료, 성형하거나 제거하는 수술방법이 개발되었다. 로봇을 이용한 수술방법은 일반적으로 수술을 시작하기 전에 환자의 수술부위에 대한 X-ray, CT(Computed Tomography), MRI(Magnetic Resonance Imaging) 등의 영상을 촬영하고, 촬영된 영상에 기초하여 수술부위에 대한 좌표를 설정하며, 설정된 좌표에 따라 로봇을 동작시켜 수술을 시행한다.
그런데, 종래의 기술에 따른 로봇을 이용한 수술방법은, 환자가 X-ray, CT, MRI 등의 영상을 촬영할 때의 자세와 수술을 받기 위한 자세를 취했을 때의 자세가 달라질 수 있으며, 그에 따라 촬영된 영상에 기초하여 설정된 좌표값에 오차가 발생할 수 있다는 문제점이 있다. 특히, 척추와 같이 신경 및 혈관이 집중되어 있는 부위를 수술하는 경우, 촬영된 영상에 기초하여 설정된 좌표값의 오차로 인해 수술도중에 환자의 신경이나 혈관을 손상시킬 수 있다는 문제점이 있다.
본 발명은 전술한 문제점을 해결하기 위하여 창안된 것으로서, 환자의 수술할 병변의 위치를 확인하기 위해 X-ray, CT, MRI 등의 영상의 촬영할 당시의 환자의 자세와 수술을 실행할 당시의 환자의 자세가 달라지더라도 정확하게 환자의 병변위치를 찾아 수술을 수행할 수 있는 수술용 로봇제어 시스템 및 그 제어방법을 제공하는 것을 목적으로 한다.
전술한 목적을 달성하기 위한 본 발명의 실시예에 따른 수술용 로봇제어 시스템는, 기 촬영된 촬영영상에 기초하여 병변 위치의 좌표를 설정하고, 설정된 좌표에 따라 로봇암(Robot Arm)의 니들링 타겟(Needling Target)을 지정하며, 그에 따라 상기 로봇암을 구동하는 로봇암구동부; 환자의 현재의 자세에서 병변 위치에 대응하는 현재영상을 촬영하는 현재영상촬영부; 촬영영상에서 복수의 특징점을 추출하며, 현재영상에서 촬영영상의 특징점들에 대응하는 위치를 검색하고, 촬영영상에서 현재영상으로의 특징점들의 위치변화에 기초하여 로봇암구동부에 의해 설정된 좌표의 변화를 계산하는 좌표변화계산부; 및 좌표변화계산부에 의해 계산된 변화에 따라 로봇암의 니들링 타겟을 보정하며, 보정된 로봇암의 니들링 타겟에 따라 로봇암구동부를 구동제어하는 구동제어부;를 포함하는 것을 특징으로 한다.
좌표변화계산부는, 촬영영상에서 뼈의 각각의 돌출부위를 특징점으로 추출하며, 추출된 특징점들 사이의 거리를 계산하는 특징점거리계산부; 및 특징점거리계산부에 의해 계산된 특징점들 사이의 거리비율에 기초하여 현재영상으로부터 촬영영상의 특징점들에 대응하는 위치를 검색하는 대응위치검색부;를 포함한다.
전술한 수술용 로봇제어 시스템는, 로봇암구동부에 대응하는 가상의 니들링영상을 생성하며, 생성된 가상의 니들링영상에 대해 로봇암의 니들링 타겟을 보정하여 현재영상에 가상으로 표시하는 가상영상표시부;를 더 포함한다.
좌표변화계산부는, X-ray를 이용하여 기 촬영된 촬영영상으로부터 뼈의 각각의 돌출부위를 특징점으로 추출할 수 있다.
좌표변화계산부는, CT(Computed Tomography) 및 MRI(Magnetic Resonance Imaging) 중의 적어도 하나를 이용하여 기 촬영된 촬영영상에서 병변 위치의 좌표를 계산할 수 있다.
전술한 목적을 달성하기 위한 본 발명의 실시예에 따른 수술용 로봇 제어방법은, 기 촬영된 촬영영상에 기초하여 병변 위치의 좌표를 설정하고, 로봇암의 니들링 타겟을 설정하는 단계; 설정된 좌표에 따라 로봇암의 니들링 타겟을 지정하는 단계; 환자의 현재의 자세에서 병변 위치에 대응하는 현재영상을 촬영하는 단계; 촬영영상에서 복수의 특징점을 추출하며, 현재영상에서 촬영영상의 특징점들에 대응하는 위치를 검색하는 단계; 촬영영상에서 현재영상으로의 특징점들의 위치변화에 기초하여 설정된 좌표의 변화를 계산하는 단계; 계산된 좌표의 변화에 따라 로봇암의 니들링 타겟을 보정하는 단계; 및 보정된 로봇암의 니들링 타겟에 따라 로봇암을 구동제어하는 단계;를 포함하는 것을 특징으로 한다.
전술한 수술용 로봇 제어방법은, 촬영영상에서 뼈의 각각의 돌출부위를 특징점으로 추출하며, 추출된 특징점들 사이의 거리를 계산하는 단계;를 더 포함하며, 계산된 특징점들 사이의 거리비율에 기초하여 현재영상으로부터 촬영영상의 특징점들에 대응하는 위치를 검색할 수 있다.
전술한 수술용 로봇 제어방법은, 설정된 로봇암의 니들링 타겟에 대응하는 가상의 니들링영상을 생성하며, 생성된 가상의 니들링영상에 대해 로봇암의 니들링 타겟을 보정하여 현재영상에 가상으로 표시하는 단계;를 더 포함할 수 있다.
위치검색 단계는, X-ray를 이용하여 기 촬영된 촬영영상으로부터 뼈의 각각의 돌출부위를 특징점으로 추출한다.
또한, 위치검색 단계는, CT 및 MRI 중의 적어도 하나를 이용하여 기 촬영된 촬영영상에서 병변 위치의 좌표를 계산한다.
본 발명에 따르면, 환자의 수술할 병변의 위치를 확인하기 위해 X-ray, CT, MRI 등의 영상의 촬영할 당시의 환자의 자세와 수술을 실행할 당시의 환자의 자세가 달라지더라도 정확하게 환자의 병변위치를 찾아 수술을 수행할 수 있게 된다.
도 1은 본 발명의 실시예에 따른 수술용 로봇제어 시스템을 개략적으로 도시한 도면이다.
도 2는 로봇암의 예를 나타낸 도면이다.
도 3은 현재영상 촬영부의 예로서 C-암 장치의 예를 나타낸 도면이다.
도 4는 X-ray 영상에서 특징점을 추출하는 예를 나타낸 도면이다.
도 5는 현재영상에서 특징점에 대응하는 위치를 검색하는 예를 나타낸 도면이다.
도 6은 MRI 영상에서 특징점을 추출하는 예를 나타낸 도면이다.
도 7은 현재영상에 가상의 니들링영상을 표시하는 예를 나타낸 도면이다.
도 8은 본 발명의 실시예에 따른 수술용 로봇 제어방법을 나타낸 흐름도이다.
이하, 첨부도면을 참조하여 본 발명의 실시예에 따른 수술용 로봇장치 및 그 수술방법을 상세하게 설명한다. 도 1은 본 발명의 실시예에 따른 수술용 로봇제어 시스템을 개략적으로 도시한 도면이다.
도 1을 참조하면, 본 발명의 실시예에 따른 수술용 로봇제어 시스템(100)은 로봇암구동부(110), 현재영상촬영부(120), 좌표변화계산부(130), 구동제어부(140) 및 가상영상표시부(150)를 포함한다.
로봇암구동부(110)는 기 촬영된 촬영영상에 기초하여 병변 위치의 좌표를 설정하고, 설정된 병변 위치의 좌표에 따라 로봇암(Robot Arm)의 니들링 타겟(Needling Target)을 지정하며, 그에 따라 로봇암을 구동한다. 즉, 로봇암구동부(110)는 기 촬영된 X-ray 영상, CT(Computed Tomography) 영상, MRI(Magnetic Resonance Imaging) 영상 등의 촬영영상으로부터 병변의 위치를 확인하며, 해당 촬영영상에서 기준점을 지정하고, 지정된 기준점에 대한 병변 위치의 좌표를 설정한다. 이때, 로봇암구동부(110)는 기 촬영된 촬영영상의 기준지점에 대응하는 환자의 기준지점으로부터 기 촬영된 촬영영상의 확대/축소 비율에 따라 소정 거리 이격된 지점을 로봇암의 니들링 타겟지점으로 지정하며, 지정된 니들링 타겟지점으로 타게팅(Targeting)되도록 로봇암을 구동한다.
여기서, 로봇암은 생체 내에서 조직을 절개하거나 봉합하는 등의 작업을 수행하는 기기로서, 도 2는 로봇암의 일 예를 나타낸다. 즉, 로봇암(200)은 복수의 관절(210)을 포함하며, 그 선단에는 피부 속에 침투하여 조직의 절개, 봉합 등의 작업을 수행하는 니들(220)이 설치된다. 이때, 로봇암(200)은 좌우의 회전뿐만 아니라, 관절(210)을 이용한 상하회전 및 각도조절이 가능하며, 또한 로봇암(200)과 니들(220) 사이의 높이조절부(230)를 이용하여 니들(220)의 높낮이를 조절할 수도 있다. 이때, 니들(220)의 선단에는 레이저빔(laser beam) 장치와 같은 수술도구가 장착되거나, 니들(220)을 통하여 약물을 직접 투입할 수도 있다. 로봇암(200)에 대한 구동방법은 공지된 다양한 방법을 따를 수 있으며, 여기서는 그 상세한 설명을 생략한다. 또한, 로봇암(200)의 형태는 도 2에 도시된 형태에 한정되는 것은 아니며, 공지된 다양한 형태의 로봇암이 이용될 수도 있다.
현재영상촬영부(120)는 환자의 수술시의 현재의 자세에서 병변 위치에 대응하는 현재영상을 촬영한다. 이때, 현재영상촬영부(120)는 도 3에 도시한 바와 같은 C-암 장치를 이용하여 수술실에서의 환자의 현재의 자세에서의 영상을 촬영할 수 있다.
일반적으로, C-암 장치는 신경외과, 정형외과, 비뇨기과 등에서 수술시에 X선을 이용하여 수술 전, 중의 환자의 수술경과를 사진촬영하거나 또는 모니터를 통해 영상으로 표시하는 장치로서, 수술 전, 중의 환부의 상태를 실시간으로 관찰할 수 있도록 하는 수술실의 중요한 장치이다.
도 3에 도시한 바와 같이, C-암 장치는 X선을 발생하는 X선 발생기(310), X선 발생기(310)에서 발생된 X선을 검출하는 X선 검출기(320)가 'C'모양의 C-암 지지대(330)에 연결된다. 또한, C-암 지지대(330)는 회전샤프트(353)를 통해 본체(350)의 회전블록(351)에 연결되며, 본체(350)와 모니터(340)가 케이블을 통해 연결된다. 이때, 회전샤프트(353)는 기준 위치로부터 임의의 각도로 회전이 가능하다. 이와 같은 구성을 통하여, C-암 장치는, X선 발생기(310)가 환자나 동물 몸체 등과 같은 검사체에 X선을 방사시키며, 검사체를 통과한 X선을 X선 검출기(320)가 검출하여 본체(350)에서 영상신호로 처리하고, 모니터(340)가 본체(350)에 의해 처리된 영상신호를 영상으로 디스플레이한다.
도 3에서는 현재영상촬영부(120)의 예로서 C-암 장치를 도시하고 설명하였지만, 현재영상촬영부(120)는 C-암 장치에 한정되지 않으며, O-암 장치 또는 기타 다른 장치가 이용될 수도 있다.
또한, 도 2 및 도 3에서 로봇암(200) 및 현재영상촬영부(120)는 각각 별개의 독립적인 장치로 구현되는 것으로 도시하고 설명하였지만, 로봇암(200)과 현재영상촬영부(120)는 하나의 장치로 일체화되어 형성될 수도 있다.
좌표변화계산부(130)는 X-ray, CT, MRI 등을 이용하여 기 촬영된 촬영영상에서 복수의 특징점을 추출하며, 현재영상촬영부(120)에 의해 촬영된 현재영상에서 특징점들에 대응하는 위치를 검색한다. 이때, X-ray, CT, MRI 등을 이용하여 영상을 촬영할 당시의 환자의 자세와 수술시의 환자의 자세는 다르므로, 로봇암구동부(110)에 의해 설정된 병변 위치의 좌표는, 수술실에서 현재영상촬영부(120)에 의해 촬영된 현재영상에 대하여 다른 값으로 변경된다. 이를 위하여, 좌표변화계산부(130)는 촬영영상에서 현재영상으로의 특징점들의 위치변화에 기초하여 로봇암구동부(110)에 의해 설정된 병변 위치의 좌표의 변화를 계산할 수 있다. 이때, 좌표변화계산부(130)는 기 촬영된 촬영영상에서 척추, 골반 등과 같이 그 형태의 변화가 없는 뼈의 각각의 돌출부위를 특징점으로 추출하는 것이 바람직하다. 이 경우, 좌표변화계산부(130)는 병변 위치의 좌표변화 계산의 정확성을 높이기 위하여, 도 4에 도시한 바와 같이 환자의 동일한 환부에 대하여 (a) 측면의 척추 촬영영상, (b) 정면의 척추 촬영영상 등과 같은 복수의 촬영영상에 대해 각각의 특징점을 추출할 수 있다.
좌표변화계산부(130)는 특징점거리계산부(132) 및 대응위치검색부(134)를 구비할 수 있다.
특징점거리계산부(132)는 기 촬영된 촬영영상에서 뼈의 각각의 돌출부위를 하며, 추출된 특징점들 사이의 거리를 계산한다. 예를 들어, 도 4의 (a) 및 (b)에 도시한 바와 같이, 기 촬영된 촬영영상을 소정 간격으로 분할하며, 뼈의 외곽선의 변곡점을 특징점으로 추출하고, 각각의 특징점들 사이의 거리를 계산할 수 있다.
대응위치검색부(134)는 특징점거리계산부(132)에 의해 계산된 특징점들 사이의 거리비율에 기초하여 현재영상촬영부(120)에 의해 촬영된 현재영상으로부터 기 촬영된 촬영영상의 특징점들에 대응하는 위치를 검색한다.
예를 들어, 병변의 위치가 목뼈 부근이라고 가정하면, 특징점거리계산부(132)는 목뼈 부근의 기 촬영된 촬영영상으로부터 도 5의 (a)에 도시한 바와 같은 특징점들을 추출하며, 각 특징점들 사이의 거리를 계산할 수 있다. 여기서는 설명을 용이하게 하기 위하여 기 촬영된 촬영영상으로부터 변곡률이 설정 값 이상인 지점을 특징점으로 추출하고 각 특징점들 사이의 거리를 계산하는 것으로 도시하였다.
또한, 현재영상촬영부(120)에 의해 수술시의 현재영상이 도 5의 (b)와 같다고 가정하면, 대응위치검색부(134)는 목뼈의 각각의 특징점들의 거리의 비율에 기초하여 현재영상으로부터 각각의 특징점에 대응하는 위치를 검색할 수 있다. 즉, 환자의 자세가 바뀌더라도 각각의 뼈마디의 형태는 일정하게 유지되므로, 대응위치검색부(134)는 특징점들 사이의 비율에 따라 현재영상으로부터 각 특징점들에 대응하는 위치를 검색할 수 있다.
이때, 뼈마디와 뼈마디 사이에 있는 병변의 위치는 도 5에 도시한 바와 같이, 환자의 자세가 변경됨에 따라 촬영영상에서의 위치와 수술시의 위치가 달라지게 된다. 이 경우, 좌표변화계산부(130)는 기 촬영된 촬영영상에서 병변 위치의 좌표와 각 특징점들 사이의 거리비율에 따라, 현재영상촬영부(120)에 의해 촬영된 현재영상에서 병변의 위치를 검색할 수 있으며, 검색된 병변 위치의 좌표와 로봇암구동부(110)에 의해 설정된 병변 위치의 좌표를 비교하여 그 변화를 계산할 수 있다.
이때, X-ray 영상은 뼈의 각각의 돌출부위를 특징점으로 추출하는 데에 이용될 수 있으며, CT 영상 또는 MRI 영상은 뼈 부근의 병변의 위치와 각 특징점들의 거리비율을 계산하는데 이용될 수 있다. 이 경우, 병변의 위치와 각 특징점들의 거리비율은 병변의 위치로부터 가장 가까운 특징점에서 먼 특징점으로, 순차적으로 설정된 개수만큼만 계산될 수도 있다.
본 발명의 실시예에 따른 수술용 로봇제어 시스템은 도 6의 (a)에 도시한 바와 같이 목뼈 부근의 MRI 영상, (b) 허리뼈 부근의 MRI 영상뿐만 아니라, X-ray 영상, CT 영상 등을 활용하여 특징점을 추출할 수 있으며, 수술시의 현재영상촬영부(120)에 의해 촬영되는 현재영상과 비교하여 병변 위치의 변화를 정확하게 계산할 수 있다. 또한, 환부의 위치는 도 6에 도시한 목이나 허리에 한정되는 것이 아니며, 다양한 부위에 대한 특징점의 추출이 가능하다.
구동제어부(140)는 좌표변화계산부(130)에 의해 계산된 좌표의 변화에 따라 로봇암(200)의 니들링 타겟 지점을 보정하며, 보정된 니들링 타겟 지점에 따라 로봇암구동부(110)를 구동 제어한다.
가상영상표시부(150)는 로봇암구동부(110)에 대응하는 가상의 니들링영상을 생성하며, 생성된 가상의 니들링영상에 대해 로봇암(200)의 니들링 타겟 지점을 보정하여 현재영상에 가상으로 표시할 수 있다. 즉, 가상영상표시부(150)는 도 7에 도시한 바와 같이, 현재영상촬영부(120)에 의해 촬영된 현재영상에 대하여 로봇암구동부(110)에 의해 설정된 좌표로 니들링하는 가상의 니들링영상을 표시하며, 그에 대해 구동제어부(150)에 의해 보정된 로봇암구동부(110)에 대응하는 가상의 니들링영상을 표시함으로써 수술을 시도하기 전에 보정이 정상적으로 되었는지를 확인할 수 있다.
도 8은 본 발명의 실시예에 따른 수술용 로봇 제어방법을 나타낸 흐름도이다.
도 1 내지 도 8을 참조하면, 로봇암구동부(110)는 기 촬영된 X-ray 영상, CT 영상, MRI 영상 등의 촬영영상으로부터 병변의 위치를 확인하며, 해당 촬영영상에서 기준점을 지정하고, 지정된 기준점에 대한 병변 위치의 좌표를 설정한다(S802). 이때, 로봇암구동부(110)는 기 촬영된 촬영영상의 기준지점에 대응하는 환자의 기준지점으로부터 기 촬영된 촬영영상의 확대/축소 비율에 따라 소정 거리 이격된 지점을 로봇암의 니들링 타겟지점으로 지정한다(S804).
현재영상촬영부(120)는 환자의 수술시의 현재의 자세에서 병변 위치에 대응하는 현재영상을 촬영한다(S806).
좌표변화계산부(130)는 X-ray, CT, MRI 등을 이용하여 기 촬영된 촬영영상에서 복수의 특징점을 추출한다(S808). 이때, 좌표변화계산부(130)는 기 촬영된 촬영영상에서 뼈의 각각의 돌출부위를 특징점으로 추출하며, 특징점거리계산부(132)는 추출된 특징점들 사이의 거리를 계산할 수 있다(S810).
대응위치검색부(134)는 특징점거리계산부(132)에 의해 계산된 특징점들 사이의 거리비율에 기초하여 현재영상촬영부(120)에 의해 촬영된 현재영상으로부터 기 촬영된 촬영영상의 특징점들에 대응하는 위치를 검색한다(S812).
좌표변화계산부(130)는 기 촬영된 촬영영상에서 병변 위치의 좌표와 각 특징점들 사이의 거리비율에 따라, 현재영상촬영부(120)에 의해 촬영된 현재영상에서 병변의 위치를 검색할 수 있으며, 검색된 병변 위치의 좌표와 로봇암구동부(110)에 의해 설정된 병변 위치의 좌표를 비교하여 그 변화를 계산한다(S814).
구동제어부(140)는 좌표변화계산부(130)에 의해 계산된 좌표의 변화에 따라 로봇암(200)의 니들링 타겟 지점을 보정한다(S816).
가상영상표시부(150)는 로봇암구동부(110)에 대응하는 가상의 니들링영상을 생성하며, 생성된 가상의 니들링영상에 대해 로봇암(200)의 니들링 타겟 지점을 보정하여 현재영상에 가상으로 표시할 수 있다(S818).
가상영상표시부(150)에 의해 표시되는 가상의 니들링영상이 병변 위치의 타겟으로 정확하게 니들링되면(S820), 구동제어부(140)는 보정된 니들링 타겟 지점에 따라 로봇암구동부(110)를 구동 제어하여 수술을 시작할 수 있다(S822).
이로써, 로봇암(200)을 구동하여 수술을 실행하기 이전에 가상의 니들링영상을 통하여 보정이 정확하게 이루어졌는지 확인할 수 있으며, 그에 따라 환자의 수술시의 자세가 바뀌더라도 정확하게 병변위치를 보정하여 수술을 실행할 수 있게 된다.
100: 수술용 로봇제어 시스템
110: 로봇암구동부
120: 현재영상촬영부
130: 좌표변화계산부
132: 특징점거리계산부
134: 대응위치검색부
140: 구동제어부
150: 가상영상표시부

Claims (10)

  1. 수술용 로봇제어 시스템에 있어서,
    기 촬영된 촬영영상에 기초하여 병변 위치의 좌표를 설정하고, 설정된 상기 좌표에 따라 로봇암(Robot Arm)의 니들링 타겟(Needling Target)을 지정하며, 그에 따라 상기 로봇암을 구동하는 로봇암구동부;
    환자의 현재의 자세에서 상기 병변 위치에 대응하는 현재영상을 촬영하는 현재영상촬영부;
    상기 촬영영상에서 복수의 특징점을 추출하며, 상기 현재영상에서 상기 촬영영상의 특징점들에 대응하는 위치를 검색하고, 상기 촬영영상에서 상기 현재영상으로의 특징점들의 위치변화에 기초하여 상기 로봇암구동부에 의해 설정된 좌표의 변화를 계산하는 좌표변화계산부; 및
    상기 좌표변화계산부에 의해 계산된 변화에 따라 상기 로봇암의 니들링 타겟을 보정하며, 보정된 상기 로봇암의 니들링 타겟에 따라 상기 로봇암구동부를 구동제어하는 구동제어부;
    를 포함하는 것을 특징으로 하는 수술용 로봇제어 시스템.
  2. 제1항에 있어서, 상기 좌표변화계산부는,
    상기 촬영영상에서 뼈의 각각의 돌출부위를 특징점으로 추출하며, 추출된 특징점들 사이의 거리를 계산하는 특징점거리계산부; 및
    상기 특징점거리계산부에 의해 계산된 특징점들 사이의 거리비율에 기초하여 상기 현재영상으로부터 상기 촬영영상의 특징점들에 대응하는 위치를 검색하는 대응위치검색부;
    를 포함하는 것을 특징으로 하는 수술용 로봇제어 시스템.
  3. 제2항에 있어서,
    상기 로봇암구동부에 대응하는 가상의 니들링영상을 생성하며, 생성된 상기 가상의 니들링영상에 대해 상기 로봇암의 니들링 타겟을 보정하여 상기 현재영상에 가상으로 표시하는 가상영상표시부;
    를 더 포함하는 것을 특징으로 하는 수술용 로봇제어 시스템.
  4. 제2항에 있어서, 상기 좌표변화계산부는,
    X-ray를 이용하여 기 촬영된 상기 촬영영상으로부터 뼈의 각각의 돌출부위를 특징점으로 추출하는 것을 특징으로 하는 수술용 로봇제어 시스템.
  5. 제2항에 있어서, 상기 좌표변화계산부는,
    CT(Computed Tomography) 및 MRI(Magnetic Resonance Imaging) 중의 적어도 하나를 이용하여 기 촬영된 상기 촬영영상에서 병변 위치의 좌표를 계산하는 것을 특징으로 하는 수술용 로봇제어 시스템.
  6. 수술용 로봇 제어방법에 있어서,
    기 촬영된 촬영영상에 기초하여 병변 위치의 좌표를 설정하고, 로봇암의 니들링 타겟을 설정하는 단계;
    설정된 상기 좌표에 따라 로봇암의 니들링 타겟을 지정하는 단계;
    환자의 현재의 자세에서 상기 병변 위치에 대응하는 현재영상을 촬영하는 단계;
    상기 촬영영상에서 복수의 특징점을 추출하며, 상기 현재영상에서 상기 촬영영상의 특징점들에 대응하는 위치를 검색하는 단계;
    상기 촬영영상에서 상기 현재영상으로의 특징점들의 위치변화에 기초하여 설정된 상기 좌표의 변화를 계산하는 단계;
    계산된 상기 좌표의 변화에 따라 상기 로봇암의 니들링 타겟을 보정하는 단계; 및
    보정된 상기 로봇암의 니들링 타겟에 따라 상기 로봇암을 구동제어하는 단계;
    를 포함하는 것을 특징으로 하는 수술용 로봇 제어방법.
  7. 제6항에 있어서,
    상기 촬영영상에서 뼈의 각각의 돌출부위를 특징점으로 추출하며, 추출된 특징점들 사이의 거리를 계산하는 단계;
    를 더 포함하며,
    계산된 특징점들 사이의 거리비율에 기초하여 상기 현재영상으로부터 상기 촬영영상의 특징점들에 대응하는 위치를 검색하는 것을 특징으로 하는 수술용 로봇 제어방법.
  8. 제7항에 있어서,
    설정된 상기 로봇암의 니들링 타겟에 대응하는 가상의 니들링영상을 생성하며, 생성된 상기 가상의 니들링영상에 대해 상기 로봇암의 니들링 타겟을 보정하여 상기 현재영상에 가상으로 표시하는 단계;
    를 더 포함하는 것을 특징으로 하는 수술용 로봇 제어방법.
  9. 제7항에 있어서, 상기 위치검색 단계는,
    X-ray를 이용하여 기 촬영된 상기 촬영영상으로부터 뼈의 각각의 돌출부위를 특징점으로 추출하는 것을 특징으로 하는 수술용 로봇 제어방법.
  10. 제7항에 있어서, 상기 위치검색 단계는,
    CT 및 MRI 중의 적어도 하나를 이용하여 기 촬영된 상기 촬영영상에서 병변 위치의 좌표를 계산하는 것을 특징으로 하는 수술용 로봇제어 시스템.
KR1020120003693A 2012-01-12 2012-01-12 수술용 로봇제어 시스템 및 그 제어방법 KR101334007B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020120003693A KR101334007B1 (ko) 2012-01-12 2012-01-12 수술용 로봇제어 시스템 및 그 제어방법
PCT/KR2012/010634 WO2013105738A1 (ko) 2012-01-12 2012-12-07 수술용 로봇제어 장치 및 그 제어방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120003693A KR101334007B1 (ko) 2012-01-12 2012-01-12 수술용 로봇제어 시스템 및 그 제어방법

Publications (2)

Publication Number Publication Date
KR20130083130A true KR20130083130A (ko) 2013-07-22
KR101334007B1 KR101334007B1 (ko) 2013-11-27

Family

ID=48781651

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120003693A KR101334007B1 (ko) 2012-01-12 2012-01-12 수술용 로봇제어 시스템 및 그 제어방법

Country Status (2)

Country Link
KR (1) KR101334007B1 (ko)
WO (1) WO2013105738A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101529243B1 (ko) * 2013-12-23 2015-06-16 재단법인 아산사회복지재단 바늘 삽입형 중재 시술 로봇
KR20210080868A (ko) * 2019-12-23 2021-07-01 주식회사 코아로봇 가상축 인터페이스를 갖는 로봇제어장치 및 그 장치의 구동방법

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101570857B1 (ko) 2014-04-29 2015-11-24 큐렉소 주식회사 로봇 수술 계획 조정 장치
KR102371053B1 (ko) 2015-06-04 2022-03-10 큐렉소 주식회사 수술로봇 시스템
CN110109421B (zh) * 2018-02-01 2023-03-14 天津工业大学 一种针刺机器人路径规划方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6424885B1 (en) * 1999-04-07 2002-07-23 Intuitive Surgical, Inc. Camera referenced control in a minimally invasive surgical apparatus
GB0015683D0 (en) * 2000-06-28 2000-08-16 Depuy Int Ltd Apparatus for positioning a surgical instrument
EP1450683A4 (en) * 2001-11-08 2009-11-11 Univ Johns Hopkins Med SYSTEM AND METHOD FOR ROBOT TARGETING BY FLUOROSCOPY BASED ON IMAGE ENHANCEMENT
CN101926678B (zh) 2005-09-30 2012-06-20 修复型机器人公司 用于采集和植入毛囊单位的自动化系统和方法
KR101057702B1 (ko) * 2009-04-09 2011-08-18 의료법인 우리들의료재단 수술용 로봇의 제어 방법 및 그 시스템
KR101114227B1 (ko) * 2009-07-08 2012-03-05 주식회사 이턴 수술용 로봇 및 그 세팅방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101529243B1 (ko) * 2013-12-23 2015-06-16 재단법인 아산사회복지재단 바늘 삽입형 중재 시술 로봇
KR20210080868A (ko) * 2019-12-23 2021-07-01 주식회사 코아로봇 가상축 인터페이스를 갖는 로봇제어장치 및 그 장치의 구동방법

Also Published As

Publication number Publication date
KR101334007B1 (ko) 2013-11-27
WO2013105738A1 (ko) 2013-07-18

Similar Documents

Publication Publication Date Title
US11911118B2 (en) Apparatus and methods for use with skeletal procedures
US11622815B2 (en) Systems and methods for providing proximity awareness to pleural boundaries, vascular structures, and other critical intra-thoracic structures during electromagnetic navigation bronchoscopy
JP6872802B2 (ja) 医療器具の挿入を誘導するためのシステム及び方法
CN106062822B (zh) 用于针插入的动态规划方法
US20100022874A1 (en) Image Guided Navigation System and Method Thereof
KR101334007B1 (ko) 수술용 로봇제어 시스템 및 그 제어방법
CN110192917B (zh) 用于执行经皮导航规程的系统和方法
EP3515311A1 (en) Light and shadow guided needle positioning system and method
US20180286287A1 (en) System and methods for training physicians to perform ablation procedures
US20210186616A1 (en) Surgical Site Displacement Tracking
EP3398552A1 (en) Medical image viewer control from surgeon's camera
WO2022199650A1 (zh) 计算机可读存储介质、电子设备及手术机器人系统
JP7182126B2 (ja) ロボット手術支援装置、ロボット手術支援方法、及びプログラム
US20190090960A1 (en) Tubular body structure imaging and locating system
CN115462885A (zh) 一种经皮穿刺方法及系统
CN115444523A (zh) 一种自动穿刺控制方法及系统
CN113729940A (zh) 手术辅助定位系统及其控制方法
JP2014135974A (ja) X線診断装置
IL293126A (en) Planning and real-time updating of a three-dimensional trajectory of a medical device
CN113303824B (zh) 用于体内目标定位的数据处理方法、模块与系统
US11452492B2 (en) System and method for positioning an imaging device
CN114418960A (zh) 图像处理方法、系统、计算机设备和存储介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161115

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20171010

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20181002

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190923

Year of fee payment: 7