KR20150125069A - 로봇 수술 계획 조정 장치 - Google Patents

로봇 수술 계획 조정 장치 Download PDF

Info

Publication number
KR20150125069A
KR20150125069A KR1020140051464A KR20140051464A KR20150125069A KR 20150125069 A KR20150125069 A KR 20150125069A KR 1020140051464 A KR1020140051464 A KR 1020140051464A KR 20140051464 A KR20140051464 A KR 20140051464A KR 20150125069 A KR20150125069 A KR 20150125069A
Authority
KR
South Korea
Prior art keywords
image
robot
unit
control unit
plan
Prior art date
Application number
KR1020140051464A
Other languages
English (en)
Other versions
KR101570857B1 (ko
Inventor
박영배
송창훈
이재준
Original Assignee
큐렉소 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 큐렉소 주식회사 filed Critical 큐렉소 주식회사
Priority to KR1020140051464A priority Critical patent/KR101570857B1/ko
Priority to US14/697,840 priority patent/US20150305828A1/en
Publication of KR20150125069A publication Critical patent/KR20150125069A/ko
Application granted granted Critical
Publication of KR101570857B1 publication Critical patent/KR101570857B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/56Surgical instruments or methods for treatment of bones or joints; Devices specially adapted therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/252User interfaces for surgical systems indicating steps of a surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/256User interfaces for surgical systems having a database of accessory information, e.g. including context sensitive help or scientific articles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/258User interfaces for surgical systems providing specific settings for specific users
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/372Details of monitor hardware
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Abstract

로봇 수술 계획 조정 장치 및 로봇 수술 계획 조정 방법이 개시된다. 본 발명의 일 측면에 따른 로봇 수술 계획 조정 장치는, 기 입력된 로봇 수술계획 및 수술의 대상이 되는 뼈와 관련한 기 파악된 제1 영상을 저장하는 수술정보 저장부, 술술장에서 환부 관련 제2 영상을 실시간으로 획득하는 현장영상 획득부, 상기 환부 관련 제1 영상의 좌표 및 상기 환부 관련 제2 영상의 좌표를 정합하는 영상 정합부, 상기 환부 관련 제1 영상, 상기 환부 관련 제2 영상을 디스플레이하는 사용자 인터페이스부 및 실시간으로 입력되는 제2 영상에 상기 제1 영상을 중첩하여 디스플레이하도록 상기 사용자 인터페이스부를 제어하는 수술 제어부를 포함한다.

Description

로봇 수술 계획 조정 장치{APPARATUS FOR ADJUSTING ROBOT SURGERY PLANS}
본 발명은 로봇 수술에 관한 것으로, 더욱 상세하게는 로봇 수술 계획 조정 장치에 관한 것이다.
저출산, 고령화 구조의 심화는 로봇 산업 성장의 촉매 역할을 하고 있다. 사람의 일을 대신해주는 똑똑한 로봇의 필요성이 커지면서 세계 로봇 시장이 급격히 확대되고 있다. 로봇의 활용 분야는 매우 다양한데, 화재 현장 등 생물학적 위험 지역에서의 작업, 전쟁터에서의 정찰, 장시간의 외과수술 등이 그것이다.
이 중 의료용 로봇의 경우 사용자 편의성을 가장 중심에 두고 개발되고 있는데, 의사가 사용하기에 편리해야 하고 환자가 불편하지 않아야 하며, 최소침습과 고통의 최소화 등을 주요 원칙으로 한다. 의료용 로봇 기술은 BT(Bio-Tech), NT(Nano-Tech), RT(Robot-Tech), 및 MT(Medical Tech) 기술이 융합되는 기술분야이다.
로봇을 이용한 정형외과 수술은 정교하고 정확한 뼈의 절삭을 가능하게 하는 장점이 있으나, 로봇 장비를 사용하는 데 따른 수술 시간이나 비용의 증가가 문제점으로 지적되어 왔다. 또한, 로봇 수술 시에 로봇이 어떻게 뼈를 절삭할 것인지를 결정하여야 하는데, 수술 전에 이런 결정을 하는 경우 수술 외에 의료 시간이 추가되는 문제점과, 또한 수술 중에 발견할 수 있는 해부학적 정보를 반영하기 어려운 문제점이 있다. 반면에 수술 중에 이러한 결정을 하는 경우 수술 시간이 증가되는 문제점이 있다.
비록 수술 전에 의료 영상 및 환자의 상태를 보고 수술 방향을 결정할 수 있기는 하여도, 수술중에 실제로 노출된 환자의 해부학적 정보와 병변을 보고 의사가 바람직한 뼈 성형 목표를 변경할 수 있으므로 수술 중에 수술 계획의 변경은 필요하다. 이러한 수술 계획의 변경은 가능한 빠른 속도로 또한 안전하게 이루어져야 할 것이다. 현재 상용 시스템이나 알려진 시스템 중에는 이러한 방법이 고려된 제품이 없거나 매우 미비하다. 알려진 정형외과용 로봇 시스템는 수술 전에 수술 계획을 수립하고 수술 중에는 이를 미세하게 조정하는 정도만 가능하며, 이 때 사용자 인터페이스는 수술 전에 세우는 수술 계획과 동일한 인터페이스가 사용된다.
예를 들어, ROBODOC (Curexo Technology Corp, USA, California)의 경우 수술 전 환자 뼈의 CT 영상을 기준으로 인공 관절의 위치를 수술 전에 결정하고, 수술실에서는 사전에 결정된 위치에 인공관절이 삽입될 수 있도록 뼈를 절삭하는 방법을 제시하고 있다(미국특허 6430434 등). 그러나, 이 경우 수술 중에 발견한 환자의 병변을 고려해 수술 중에 임플란트의 위치를 변경하거나, 로봇의 접근 방향을 수술 중에 변경하기는 곤란한 문제점이 있다.
또한, MAKOplasty (Mako surgical, USA, Floria)의 경우에는, 수술 직전에 수술실에서 인공관절의 위치를 결정할 수 있으며 수술실에서 환부를 절개한 후에 수술 계획을 변경할 수도 있다. 또한, 로봇의 환부에의 접근 방향은 로봇이 결정지 않고 의사가 손으로 로봇을 끌어당겨 결정하는 장점이 있다. 그러나, 이 경우에도 역시 수술 계획은 뼈의 CT영상을 보고 결정하며, CT영상에는 뼈의 형상만 나오기 때문에 만약 CT영상에 나오지 않은 환자의 병변을 보고 수술 계획을 변경하기 위해서는 의사가 환부를 육안으로 관찰한 후 다시 로봇 제어기 디스플레이의 CT영상을 보면서 환부의 상태를 바탕으로 수술 계획을 변경해야 하므로 불편함이 있다.
따라서, 수술 중 발생할 수 있는 수술 계획의 변경을 적절히 반영할 수 있는 로봇 시스템에 대한 필요성이 존재한다.
상술한 문제점을 극복하기 위한 본 발명의 목적은 능동적이고 유연한 수술 계획의 변경이 가능한 로봇 수술 계획 조정 장치를 제공하는 데 있다.
상술한 본 발명의 목적을 달성하기 위한 본 발명의 일 측면에 따른 로봇 수술 계획 조정 장치는, 기 입력된 로봇 수술계획 및 수술의 대상이 되는 뼈와 관련한 기 파악된 제1 영상을 저장하는 수술정보 저장부, 수술장에서 환부 관련 제2 영상을 실시간으로 획득하는 현장영상 획득부, 상기 기 파악된 제1 영상의 좌표 및 상기 환부 관련 제2 영상의 좌표를 정합하는 영상 정합부, 상기 기 파악된 제1 영상 및 상기 환부 관련 제2 영상을 디스플레이하는 사용자 인터페이스부, 및 실시간으로 입력되는 상기 환부 관련 제2 영상 위에 상기 제1 영상을 중첩하여 디스플레이하도록 상기 사용자 인터페이스부를 제어하는 수술 제어부를 포함한다.
상기 수술정보 저장부는 상기 로봇 수술계획의 단계별 절삭 옵션 및 관련 영상을 더 포함할 수 있다.
상기 수술제어부는 상기 사용자 인터페이스부를 통해 입력되는 수술 계획 변경 요청에 따라 해당 수술 단계에 적용가능한 적어도 하나의 절삭 옵션 관련 영상을 제공한다.
상기 수술 제어부는, 상기 적어도 하나의 절삭 옵션 관련 영상을 상기 환부 관련 제2 영상 위에 중첩하여 디스플레이하되, 상기 상기 환부 관련 제2 영상과 구분되도록 상기 적어도 하나의 절삭 옵션 관련 영상을 디스플레이하도록 상기 사용자 인터페이스부를 제어한다.
상기 현장영상 획득부는, 광학식 카메라 및 상기 광학식 카메라에 부착되어 상기 광학식 카메라의 이동을 지원하는 기계식 암을 포함한다.
본 발명의 일 실시예에 따르면, 상기 현장영상 획득부 및 상기 사용자 인터페이스부는 서로 부착되어 일체로 이동 가능한 형태로 구현된다.
상기 수술 제어부는, 상기 환부 관련 제2 영상 위에 상기 제1 영상의 윤곽선을 중첩하여 디스플레이하도록 상기 사용자 인터페이스부를 제어한다.
상기 수술 제어부는, 증강 현실 기술을 활용하여 상기 환부 관련 제2 영상 위에 상기 제1 영상의 윤곽선을 중첩하여 디스플레이한다.
상기 수술 제어부는 선택된 절삭 옵션을 반영하여 로봇 수술 계획을 변경한다.
상기 로봇 수술 계획 조정 장치는, 상기 수술 제어부로부터 입력되는 변경된 로봇 수술 계획에 따라 절삭을 수행하는 절삭 로봇을 더 포함한다.
상술한 바와 같은 로봇 수술 계획 조정 장치에 따르면 기 입력된 순서에 따르 시행되는 로봇 수술 중 발생하는 다양한 계획 변경 요구들에 대해 능동적이고 신속하게 대응할 수 있다는 장점이 있다.
도 1은 본 발명에 따른 로봇 수술계획 조정 장치의 블록 구성도이다.
도 2는 본 발명에 따른 현장 영상 획득부 및 사용자 인터페이스의 일 실시예를 나타낸 도면이다.
도 3은 본 발명에 따른 현장 영상 획득부 및 사용자 인터페이스부의 다른 실시예를 나타낸 도면이다.
도 4는 본 발명에 따른 로봇 수술계획 조정 장치가 제공하는 수술 중 절삭 옵션 제공 화면의 일 실시예를 나타낸 도면이다.
도 5는 본 발명에 따른 로봇 수술계획 조정 방법의 동작 순서도이다.
도 6은 본 발명이 적용될 수 있는 사용자 인터페이스 화면의 일 실시예를 나타낸 도면이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다.
그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는 데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.
인간의 신체 조직은 뼈, 피부, 근육 등을 포함한다. 본 명세서에서 조직은 신체의 일부 조직을 의미하며 "연조직"은 신체 조직 중 뼈를 제외한 피부, 근육 등의 조직을 의미한다. 또한, 본 명세서에서 사용되는 용어 "영상"은 정지영상 및 동영상을 포함한다.
본 발명은 로봇을 이용한 수술 계획을 세웠다가 수술 계획을 변경해야 하는 경우 발생하는 곤란한 문제점들을 고려한다.
예를 들어, 수술 계획의 변경시에, 절단할 뼈의 위치와 각도를 변경하는 경우도 있을 수 있지만, 절단할 뼈의 위치와 각도는 유지하되 로봇이 뼈에 접근하는 방향과 각도를 변경하거나, 연조직으로 인해 접근이 곤란하여 로봇 대신 손으로 마무리하고자 하는 경우도 있을 수 있다.
따라서, 본 발명에서는 수술 중에 실제 환부의 영상과 더불어 변경하고자 하는 가공 계획과 관련한 영상을 중첩하여 디스플레이함으로써, 신속한 의사 결정이 필요한 수술장에서 시술자의 판단을 효과적으로 보조할 수 있다. 본 발명에서는 이를 위해, 증강현실 기술을 활용하여 수술 계획의 변경에 필요한 옵션 영상들을 제공함으로써 빠르고 안전한 수술 계획 변경을 가능토록 한다.
도 1은 본 발명에 따른 로봇 수술계획 조정 장치의 블록 구성도이다.
이하 도 1을 통해 상술할 본 발명에 따른 구성요소들은 물리적인 구분이 아니라 기능적인 구분에 의해서 정의되는 구성요소들로서 각각이 수행하는 기능들에 의해서 정의될 수 있다. 각각의 구성요소들은 하드웨어 및/또는 각각의 기능을 수행하는 프로그램 코드 및 프로세싱 유닛으로 구현될 수 있을 것이며, 두 개 이상의 구성요소의 기능이 하나의 구성요소에 포함되어 구현될 수도 있을 것이다. 따라서, 이하의 실시예에서 구성요소에 부여되는 명칭은 각각의 구성요소를 물리적으로 구분하기 위한 것이 아니라 각각의 구성요소가 수행하는 대표적인 기능을 암시하기 위해서 부여된 것이며, 구성요소의 명칭에 의해서 본 발명의 기술적 사상이 한정되지 않는 것임에 유의하여야 한다.
도 1에 도시된 바와 같이 본 발명에 따른 로봇 수술계획 조정 장치는, 정형외과용 수술 로봇으로 뼈를 자를 수 있는 수술 기구가 부착된 절삭 로봇(100), 뼈의 위치를 측정하는 위치 측정부(200), 뼈의 위치를 파악하고 절삭 경로를 결정하는 수술 제어부(300), 현장 영상 획득부(330)(예를 들어, 카메라), 영상 정합부(310), 사용자 인터페이스부(320), 및 수술정보 저장부(340)를 포함한다.
위치 측정부(200)는 실제 시술시 피부 및 살점 조직을 절개하여 노출된 뼈의 위치를 측정하는 역할을 수행한다. 뼈의 위치 측정에는 디지타이저, 적외선 장치, 레이저 장치 등이 활용될 수 있다.
수술 제어부(300)는 수술 전 컴퓨터 단층촬영기기(CT) 등을 통해 획득한 뼈의 3차원 형상 데이터와 위치 측정부(200)를 통해 획득한 3차원 위치 데이터를 매칭하여 실제 뼈의 위치 정보를 판단함으로써 절삭 로봇(100)으로 하여금 정확한 절삭 위치, 절삭 경로를 설정할 수 있도록 한다.
여기서, 수술 전 컴퓨터 단층촬영기기(CT) 등을 통해 획득한 뼈의 3차원 형상 데이터와 위치 측정부(200)를 통해 획득한 3차원 위치 데이터를 매칭하는 절차를 정합이라 부른다.
로봇 수술에서의 위치 정합은 해부학적 위치 확인 장치와 수술 로봇에서 뼈의 해부학적 위치를 측정하여 바람직한 수술 위치를 계산하는 과정이다. 정합 방법에는 다양한 방법들이 있으나, 가장 대표적인 정합 방법을 설명하면 아래와 같다.
로봇 수술에 있어 좌표계는 기준 좌표계{F}, 로봇에 프로그램된 경로에 대한 로봇 좌표계{R}, 실제 수술에 있어 환자의 뼈에 대한 뼈 좌표계{B}로 구분될 수 있다. 정합을 위해서는 로봇 좌표계{R}를 기준 좌표계{F}에 대한 상대 좌표계로 변환하고, 뼈 좌표계{B}를 동일한 기준 좌표계{F}에 대한 상대 좌표계로 변환함으로써 일차적으로 로봇 좌표계{R}와 뼈 좌표계{B}를 동일한 기준 좌표계{F}에 대해 변환한다. 이후, 변환된 로봇 좌표계{R}와 변환된 뼈 좌표계{B} 간의 변환 행렬(T)를 구하여 변환된 로봇 좌표계{R}에 적용함으로써, 로봇의 가공 경로를 실제 뼈의 위치에 맞게 적용할 수 있다.
여기서, 변환행렬(T)를 구하기 위한 정합 방법으로는 핀 기준 정합과 영상 기준 정합 방법 등이 있다.
핀 기준 정합은 수술전 환자의 뼈까지 삽입되는 복수의 핀을 해당 뼈 위의 환부로부터 박은 상태에서 CT 영상을 촬영한 후 CT 영상을 기준으로 로봇의 가공 경로를 설정하는데, 이때 로봇의 가공 경로상의 기준 좌표계는 CT 영상에 존재하는 복수의 핀에 의해 설정된다.
가공 경로의 설계가 완료되면, 실제 수술시 환자의 수술 부위에 박혀 있는 핀들을 CT 영상속의 핀들, 즉 로봇의 가공 경로의 기준이 되는 핀들과 일치시킴으로써 정합을 수행한다. 이러한 핀 기준 정합은 수술전 환부에 복수의 핀을 삽입하고 수술시까지 핀을 환부에 삽입하고 있어야 해서 환자에게 고통과 불편함을 발생시킨다.
한편, 영상 기준 정합은 수술 전에 환자의 대퇴골의 CT 영상을 획득하여 이 영상을 기준으로 가공 경로를 설정한다. 초기에는 CT 영상으로부터 획득한 3차원 영상과 실제 수술 시 환자 뼈의 2차원 X-ray 영상을 일치시킴으로써 정합을 수행하는 방법이 사용되었다. 이러한 방법의 경우 뼈 조직과 인대, 등 다른 조직과의 구분 과정 및 에지 검출 과정에서 수많은 오차가 발생한다.
이와 같은 오차 발생을 줄이기 위해 최근에는 수술 전 CT 영상의 특정 지점과 수술시 디지타이저로 측정한 특정 지점을 일치시키는 정합을 수행하는 기술이 사용되고 있다. 디지타이저를 활용한 정합의 경우에는 수술시 디지타이저의 측정핀으로 뼈 조직의 특정 지점을 측정하기 위해서는 측정핀의 첨두의 팁을 대퇴골 표면에 일정한 하중으로 눌러주어야 하는데, 이때 누르는 하중에 적으면 측정점의 오차가 발생하고 하중이 너무 큰 경우에는 뼈 표면에 홈이 발생하는 문제가 있다. 또한, 오차를 줄이기 위해 측정해야 하는 측정점이 많아 불편하며, 수술 장비에 부착된 모니터를 통하여 안내되는 측정점에 시술자가 측정핀을 정확하게 대응시키기 어렵다는 문제가 있다.
한편, 시술자는 수술 전 컴퓨터 단층촬영기기(CT) 등을 통해 획득한 뼈의 3차원 형상 데이터 및 환자의 상태 등을 고려하여 로봇 수술 계획을 설정하는데, 설정된 로봇 수술 계획은 본 발명에 따른 수술 제어부(300)에 의해 수술정보 저장부(340)에 저장된다.
이때, 본 발명에 적용되는 로봇 수술계획은 다단계로 이루어질 수 있으며, 수술 단계별로 적용할 수 있는 다양한 절삭 옵션들이 존재한다. 본 발명에 따른 수술정보 저장부(340)는 이러한 수술 단계별 다양한 절삭 옵션들과 관련한 라이브러리를 저장한다.
수술정보 저장부(340)는 데이터베이스의 형태로 구현될 수도 있으며, 본 발명에서 사용되는 데이터베이스(database)라는 용어는 관계형(relational), 객체지향형(objected-oriented) 데이터베이스와 같이 엄밀한 형태의 데이터베이스를 의미하는 것이 아니라 정보를 저장하는 기능적 구성요소를 의미하는 것으로, 다양한 형태로 구현될 수 있다. 예컨대, 본 발명에서 사용되는 파일 베이스(file-base) 형태의 간단한 정보 저장 구성요소로서 구성될 수도 있다.
본 발명에 따른 수술 제어부(300)는 그에 따라, 수술 중 시술자가 수술계획 변경에 필요한 추가 정보를 필요로 하는 단계에서 수술정보 저장부(340)가 보유하는 정보 중 적당한 옵션들을 선택하여 제공한다.
구체적으로 수술 제어부(300)는, 시술자의 수술 계획 변경 요청에 따라 해당 수술 단계에 적용가능한 적어도 하나의 절삭 옵션 관련 영상을 제공하고, 적어도 하나의 절삭 옵션 관련 영상을 환부 관련 실시간 영상 위에 중첩하여 디스플레이하되, 두 영상이 서로 구분되도록 디스플레이할 수 있다. 예를 들어, 환부 관련 실시간 영상은 입력되는 그대로 디스플레이하되, 절삭 옵션 관련 영상은 윤곽선만 디스플레이하거나 반투명한 그레이 스케일로 디스플레이하는 방식으로 나타내 주는 방식을 이용해 두 영상이 구분되도록 디스플레이한다. 이때, 수술 제어부(300)가 두 영상을 디스플레이하는 데 증가현실 기술을 활용할 수 있다.
본 발명에 따른 수술 제어부(300)는 또한, 시술자에 의해 선택된 절삭 옵션을 반영하여 기 설정되어 있던 로봇 수술 계획을 변경하고, 변경된 수술 계획에 따라 절삭 로봇(100)을 제어한다.
한편, 현장영상 획득부(330)는 수술 대상이 되는 환부 관련 이미지를 실제 현장에서 촬영하여 현장 영상을 획득한다. 현장영상 획득부(330)의 바람직한 일 실시예로는 광학식 카메라를 들 수 있다.
영상 정합부(310)는, 현장영상 획득부(330), 예를 들어, 광학식 카메라와 절삭 로봇(100) 사이의 위치 관계를 파악하고 현장의 환부 영상과 로봇이 기 보유하고 있는 영상 간의 좌표 매칭을 수행하여 제공한다.
사용자 인터페이스부(320)는 현장영상 획득부(330)를 통해 획득한 현장의 영상을 디스플레이하고 수술 제어부(300)의 제어에 따라 수술정보 저장부(340)에 저장된 기 파악된 뼈의 위치를 중첩하여 디스플레이한다.
이때, 사용자 인터페이스부(320)는 영상 정합부(310)가 제공하는 현장의 영상과 로봇이 기 보유하고 있던 영상 간의 매칭 관계를 고려하여 두 영상을 중첩하여 디스플레이한다.
도 2는 본 발명에 따른 현장 영상 획득부 및 사용자 인터페이스의 일 실시예를 나타낸다.
도 2의 실시예에서는 현장 영상 획득부(330)의 일 실시예로서 광학식 카메라를 도시하고 있으며, 사용자 인터페이스부(340)의 일 실시예로서 광학식 카메라를 뒤쪽에 부착한 디스플레이 화면을 보여주고 있다.
즉, 도 2의 실시예는 카메라와 사용자 인터페이스부(340)가 일체화된 경우를 나타낸다. 또한, 도 2의 실시예에서 카메라는 기계식 암(331)과 연결되어 있으며, 사용자는 기계식 암(331)을 움직여 카메라(330)와 사용자 인터페이스부(340)를 동시에 이동시킬 수 있다.
한편, 본 실시예에서는 기계식 암(331)에 포함된 센서가 카메라의 위치를 파악할 수 있는데, 이렇게 파악된 카메라의 위치는 본 발명에 따른 영상 정합부(310)의 영상 정합에 사용된다. 한편, 카메라 및 디스플레이의 위치는 기계식 암에 포함된 센서를 이용하는 방법 외에 적외선 등 무선 방식을 활용해 파악할 수도 있다.
도 2에 도시된 실시예의 경우 사용자 인터페이스부(340)가 카메라(330)와 동일한 위치에 있으므로 육안으로 디스플레이를 보았을 때 사용자가 공간 상으로 파악하기가 용이하다.
도 2의 A는 광학식 카메라가 부착된 디스플레이 화면의 정면도이고, 도 2의 B는 광학식 카메라가 부착된 디스플레이 화면의 측면도이다. 또한, 도 2의 C는 광학식 카메라가 부착된 디스플레이 화면의 배면도이다.
수술 중에 시술자가 광학식 카메라를 원하는 위치로 위치시키면 로봇에 부착된 컴퓨터는 광학식 카메라로 얻어진 영상 위에, 로봇이 가공할 형상을 중첩시켜 디스플레이하는데 도 2의 A에 디스플레이된 화면을 통해 이를 확인할 수 있다.
시술자는 카메라를 원하는 위치로 옮겨가면서 로봇이 가공할 형상이 연조직과 충돌할 위험이 없는지 판단할 수 있으며, 사용자 인터페이스부를 통해 중첩하여 도시되는 수술계획 상의 형상 중 일부를 제거하여 문제가 될 수 있는 절삭을 생략하거나, 원하는 만큼 절삭량을 추가할 수도 있다.
본 발명에 따른 로봇 수술계획 조정 장치는 또한, 가능한 여러 절삭 경로 라이브러리를 제공하여 시술자가 이 중 원하는 옵션을 선택하면 현재 보여지는 숫술장의 실제 영상 위로 선택된 라이브러리로 가공될 형상을 중첩하여 디스플레이해 줌으로써 시술자의 선택을 도와줄 수 있다.
본 발명에 따른 로봇 수술계획 조정 장치는 또한, 수술 전에 뼈의 위치를 미리 파악하고 있기 때문에, 미리 파악된 뼈의 위치를 카메라 통해 입력되는 수술장의 실제 뼈의 위치와 정합시켜 중첩하여 디스플레이할 수 있다. 예를 들면, 미리 파악된 뼈의 위치에서 미리 파악된 뼈의 윤곽선을 현재 보이는 뼈 영상 위에 덮어 씌워 보여주면, 미리 파악된 뼈의 위치가 정확한지 여부를 쉽게 파악할 수 있다.
한편, 앞서 본 발명에서는, 수술 현장에서 실제 보이는 뼈 영상 위에 로봇 수술 계획상의 절삭 관련 영상을 중첩하여 디스플레이 함에 있어 증강현실 기술을 활용할 수 있음을 언급하였다.
증강현실 기술은 사용자가 눈으로 보는 현실세계에 가상 물체를 겹쳐 보여주는 기술이다. 현실세계에 실시간으로 부가정보를 갖는 가상세계를 합쳐 하나의 영상으로 보여주므로 혼합현실(Mixed Reality, MR)이라고도 한다. 현실환경과 가상환경을 융합하는 복합형 가상현실 시스템(hybrid VR system)으로 1990년대 후반부터 미국·일본을 중심으로 연구·개발이 진행되고 있다.
현실세계를 가상세계로 보완해주는 개념인 증강현실은 컴퓨터 그래픽으로 만들어진 가상환경을 사용하지만 주역은 현실환경이다. 컴퓨터 그래픽은 현실환경에 필요한 정보를 추가 제공하는 역할을 한다. 사용자가 보고 있는 실사 영상에 3차원 가상 영상을 겹침(overlap)으로써 현실환경과 가상화면과의 구분이 모호해지도록 한다는 뜻이다.
즉, 본 발명에 따르면 실제 현장에서 펼쳐지고 있는 시술 대상인 현실 세계의 환부 영상 위에 가상 세계의 데이터인 설정된 수술계획 상의 절삭 관련 영상을 덧붙여 표현해 줌으로써 증강현실 기술을 실현하게 된다.
한편, 본 실시예에서는 본 발명에 따른 로봇 수술 계획 조정 장치를 이용하여 카메라(330)가 로봇 또는 로봇에 부착된 센서를 향하도록 조정하고, 카메라를 통해 입력되는 실제 로봇의 이미지 위에 기 파악하고 있던 로봇의 윤곽선을 중첩하여 보여주면, 현재 측정된 로봇과 카메라 사이의 위치 관계가 정확한지 여부 역시 쉽게 판단할 수 있다.
도 3은 본 발명에 따른 현장 영상 획득부 및 사용자 인터페이스부의 다른 실시예를 나타낸다.
도 3의 실시예 역시 현장 영상 획득부의 일 실시예로서 기계식 암(331)과 연결되어 이동이 지원되는 광학식 카메라(330)를 도시하고 있다. 도 2의 실시예와 다른 점은 사용자 인터페이스부(340)가 광학식 카메라와 부착되어 있지 않고 시술자가 보기 편한 장소에 떨어져 위치한다는 점이다.
광학식 카메라(330) 및 사용자 인터페이스부(340) 간의 통신은 유선 또는 무선을 통해 이루어질 수 있다.
이 경우에서도 기계식 암(331)에 포함된 센서가 카메라의 위치를 파악할 수 있는데, 이렇게 파악된 카메라의 위치는 영상 정합부(310)의 영상 정합에 사용된다. 한편, 카메라의 위치는 기계식 암에 포함된 센서를 이용하는 방법 외에 적외선 등 무선 방식을 활용해 파악할 수도 있다.
도 4는 본 발명에 따른 로봇 수술계획 조정 장치가 제공하는 수술 중 절삭 옵션 제공 화면의 일 실시예를 나타낸다.
도 4의 A에 도시된 바와 같이 수술 중에 시술자가 광학식 카메라(330)를 원하는 위치, 즉 수술이 행해지는 도중 노출된 뼈 위로 위치시키면 본 발명에 따른 로봇수술 계획 조정 장치는 광학식 카메라를 통해 획득한 뼈 영상 위에, 로봇이 가공할 형상을 중첩시켜 사용자 인터페이스부(340)를 통해 디스플레이한다.
도 4의 B를 참조하면, 기 설정되어 있던 수술계획이 중단된 단계에서 선택 가능한 절삭 옵션들(410, 420, 430)을 사용자 인터페이스부(340)의 메인 화면(400) 상단에 디스플레이하고 있다.
절삭 옵션들은 현재 노출된 뼈 영상 위에 중첩되어 디스플레이되고, 디스플레이된 여러 절삭 옵션들 중 하나를 선택하면, 메인 화면(400)에서는 선택된 절삭 옵션을 실제 환부 영상 위에 중첩시켜 디스플레이한다. 도 4의 메인 화면(400)에는 3개의 옵션 중 옵션 1이 선택된 경우의 관련 영상을 도시하고 있다.
이때, 가능한 여러 절삭 경로 라이브러리는 본 발명에 따른 수술 정보 저장부가 저장하고 있으며, 본 발명에서는 시술자에게 다양한 절삭 경로 라이브러리를 제공하여 시술자의 선택을 도와줄 수 있다.
도 5는 본 발명에 따른 로봇 수술계획 조정 방법의 동작 순서도이다.
이하의 실시예 설명에서 본 발명에 따른 로봇 수술계획 조정 방법을 구성하는 각 단계들이 도 1을 통하여 설명된 본 발명의 로봇 수술계획 조정 장치의 대응되는 구성요소에서 수행되는 동작으로 이해될 수 있으나, 방법을 구성하는 각 단계들은 각 단계를 정의하는 기능 자체로서 한정되어야 한다. 즉, 각 단계를 수행하는 것으로 예시된 구성요소의 명칭에 의해서 각 단계의 수행주체가 한정되지 않음에 유의하여야 한다.
본 발명에 따른 로봇 수술계획 조정 방법에 따르면, 광학식 카메라 등에 의해 획득한 수술장의 환부 관련 영상을 디스플레이한다(S510). 수술장의 환부 관련 영상을 획득하면 수술의 대상이 되는 뼈와 관련하여 CT 등을 통해 이미 확보하고 있던 영상과의 좌표 정합을 수행한다(S520). 정합이 완료되면, 수술 대상인 뼈와 관련한 기 파악된 영상을 수술장의 실시간 환부 영상과 중첩시켜 디스플레이한다(S530).
이후, 시술자로부터 수술계획의 변경 요청을 수신하면(S540), 해당 수술 단계에 적용가능한 적어도 하나의 절삭 옵션 관련 영상을 제공한다(S550). 적용할 옵션에 대한 선택이 입력되면(S560), 선택된 절삭 옵션을 수술장의 환부 관련 영상 위에 중첩하여 디스플레이한다(S570). 선택된 절삭 옵션이 확정되면 확정된 절삭 옵션을 반영하여 로봇 수술 계획을 변경한다(S580).
도 6은 본 발명이 적용될 수 있는 사용자 인터페이스 화면의 일 실시예를 나타낸다.
도 6의 사용자 인터페이스 화면은 환자의 실제 뼈를 절삭하고 인공뼈를 이식하는 수술의 영우 적용될 수 있는 이식 수술의 다양한 가공 옵션들을 제공하고, 선택된 옵션을 실제 뼈 영상 위에 중첩하여 디스플레이하는 화면의 일 실시예를 나타낸다.
도 6에서는, 본 발명에 따른 가공 옵션 관련 영상들(411, 421, 431)을 화면의 상단에 디스플레이해 주고 있다. 또한, 도 6의 사용자 디스플레이 화면 상단 우측에서는 적용할 옵션 선택 메뉴(341)를 제공하여 시술자가 로봇 수술에 적용하고자 하는 가공 옵션을 선택할 수 있도록 한다.
도 6의 사용자 인터페이스 화면의 하단 좌측(610)에서는 실제 환부를 촬영한 영상을 보여주고 있으며, 하단 우측(620)에는 실제 환부 영상에 더하여 선택된 가공 옵션의 영상을 추가적으로 디스플레이 주고 있다. 즉, 하단 우측(620)에서는 증강 현실 기술을 활용해 선택된 사이즈 5의 가공 옵션을 실제 환부 영상에 중첩하여 표현함으로써, 실제 사이즈 5의 가공 옵션을 적용하여 뼈 이식을 시행했을 때 예측되는 환부의 모습을 시술자에게 제공한다. 시술자는 사이즈 5의 이식 모델이 실제 환부의 뼈 상태와 적절히 대응하지 않는다고 판단되면, 다른 옵션의 사이즈 선택을 통해 가장 적절한 사이즈의 가공 옵션을 선택할 수 있다.
본 발명에 따르면, 시술자가 본 발명에 따라 제공되는 가공 옵션들을 실제 환부에 적용했을 경우의 이식 프리뷰(preview implant)를 가상으로 미리 확인한 후 가장 적당한 사이즈를 갖는 가공 옵션을 선택, 확정하여 수술 계획을 변경함으로써, 변경된 수술 계획에 따라 로봇 수술이 행해질 수 있도록 조정할 수 있다.
이상 실시예들을 통해 설명한 본 발명에 따르면 기 입력된 순서에 따라 시행되는 로봇 수술 도중 발생하는 다양한 계획 변경 요구들에 대해 능동적이고 신속하게 대응할 수 있다는 장점이 있다.
이상 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
100: 절삭 로봇 200: 위치 측정부
300: 수술 제어부 310: 영상 정합부
320: 사용자 인터페이스부 330: 현장영상 획득부
340: 수술정보 저장부

Claims (10)

  1. 기 입력된 로봇 수술계획 및 수술의 대상이 되는 뼈와 관련한 기 파악된 제1 영상을 저장하는 수술정보 저장부;
    수술장에서 환부 관련 제2 영상을 실시간으로 획득하는 현장영상 획득부;
    상기 기 파악된 제1 영상의 좌표 및 상기 환부 관련 제2 영상의 좌표를 정합하는 영상 정합부;
    상기 기 파악된 제1 영상 및 상기 환부 관련 제2 영상을 디스플레이하는 사용자 인터페이스부; 및
    실시간으로 입력되는 상기 환부 관련 제2 영상 위에 상기 제1 영상을 중첩하여 디스플레이하도록 상기 사용자 인터페이스부를 제어하는 수술 제어부를 포함하는, 로봇 수술 계획 조정 장치.
  2. 청구항 1에 있어서,
    상기 수술정보 저장부는 상기 로봇 수술계획의 단계별 절삭 옵션 및 관련 영상을 더 포함하는, 로봇 수술 계획 조정 장치.
  3. 청구항 2에 있어서,
    상기 수술 제어부는 상기 사용자 인터페이스부를 통해 입력되는 수술 계획 변경 요청에 따라 해당 수술 단계에 적용가능한 적어도 하나의 절삭 옵션 관련 영상을 제공하는, 로봇 수술 계획 조정 장치.
  4. 청구항 3에 있어서,
    상기 수술 제어부는,
    상기 적어도 하나의 절삭 옵션 관련 영상을 상기 환부 관련 제2 영상 위에 중첩하여 디스플레이하되, 상기 환부 관련 제2 영상과 구분되도록 상기 적어도 하나의 절삭 옵션 관련 영상을 디스플레이하도록 상기 사용자 인터페이스부를 제어하는, 로봇 수술 계획 조정 장치.
  5. 청구항 1에 있어서,
    상기 현장영상 획득부는,
    광학식 카메라 및 상기 광학식 카메라에 부착되어 상기 광학식 카메라의 이동을 지원하는 기계식 암을 포함하는, 로봇 수술 계획 조정 장치.
  6. 청구항 1에 있어서,
    상기 현장영상 획득부 및 상기 사용자 인터페이스부는 서로 부착되어 일체로 이동 가능한 것을 특징으로 하는, 로봇 수술 계획 조정 장치.
  7. 청구항 1에 있어서,
    상기 수술 제어부는,
    상기 환부 관련 제2 영상 위에 상기 제1 영상의 윤곽선을 중첩하여 디스플레이하도록 상기 사용자 인터페이스부를 제어하는, 로봇 수술 계획 조정 장치.
  8. 청구항 7에 있어서,
    상기 수술 제어부는,
    증강 현실 기술을 활용하여 상기 환부 관련 제2 영상 위에 상기 제1 영상의 윤곽선을 중첩하여 디스플레이하는, 로봇 수술 계획 조정 장치.
  9. 청구항 3에 있어서,
    상기 수술 제어부는 선택된 절삭 옵션을 반영하여 로봇 수술 계획을 변경하는 것을 특징으로 하는, 로봇 수술 계획 조정 장치.
  10. 청구항 9에 있어서,
    상기 수술 제어부로부터 입력되는 변경된 로봇 수술 계획에 따라 시술 대상이 되는 뼈의 가공을 수행하는 절삭 로봇을 더 포함하는, 로봇 수술 계획 조정 장치.
KR1020140051464A 2014-04-29 2014-04-29 로봇 수술 계획 조정 장치 KR101570857B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020140051464A KR101570857B1 (ko) 2014-04-29 2014-04-29 로봇 수술 계획 조정 장치
US14/697,840 US20150305828A1 (en) 2014-04-29 2015-04-28 Apparatus for adjusting a robotic surgery plan

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140051464A KR101570857B1 (ko) 2014-04-29 2014-04-29 로봇 수술 계획 조정 장치

Publications (2)

Publication Number Publication Date
KR20150125069A true KR20150125069A (ko) 2015-11-09
KR101570857B1 KR101570857B1 (ko) 2015-11-24

Family

ID=54333686

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140051464A KR101570857B1 (ko) 2014-04-29 2014-04-29 로봇 수술 계획 조정 장치

Country Status (2)

Country Link
US (1) US20150305828A1 (ko)
KR (1) KR101570857B1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019032828A3 (en) * 2017-08-11 2019-04-18 Think Surgical, Inc. SYSTEM AND METHOD FOR VERIFYING IMPLANT
WO2021153973A1 (ko) * 2020-01-31 2021-08-05 큐렉소 주식회사 관절치환 로봇수술 정보 제공 장치 및 제공 방법
US11517394B2 (en) 2016-12-29 2022-12-06 Kyungpook National University Industry-Academic Cooperation Foundation Method for calibration of laser targeting projector and C-arm image, recording medium for performing the same and laser surgical guidance system including calibration tool
WO2024063539A1 (ko) * 2022-09-23 2024-03-28 큐렉소 주식회사 수술 로봇의 절삭 경로 플래닝 장치 및 그 방법

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11871901B2 (en) 2012-05-20 2024-01-16 Cilag Gmbh International Method for situational awareness for surgical network or surgical network connected device capable of adjusting function based on a sensed situation or usage
CN107822690B (zh) * 2012-05-25 2020-10-02 外科手术室公司 具有不用手的控制的混合图像/场景再现器
JP6138566B2 (ja) * 2013-04-24 2017-05-31 川崎重工業株式会社 部品取付作業支援システムおよび部品取付方法
CN105578983B (zh) * 2013-09-24 2021-01-22 皇家飞利浦有限公司 计算外科手术介入规划的方法
KR101570856B1 (ko) * 2014-05-16 2015-11-24 큐렉소 주식회사 조직 위치 검출 방법 및 이를 이용하는 장치
US10013808B2 (en) 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
GB2536650A (en) * 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
WO2017115212A1 (en) * 2015-12-29 2017-07-06 Koninklijke Philips N.V. Image guided robotic convergent ablation
EP3260255B1 (de) * 2016-06-24 2019-08-21 Zünd Systemtechnik Ag System zum schneiden von schneidgut
US10499997B2 (en) 2017-01-03 2019-12-10 Mako Surgical Corp. Systems and methods for surgical navigation
EP3569182A4 (en) * 2017-01-11 2020-01-22 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS, PROGRAM, SCREEN AND INFORMATION MARKING SYSTEM
CN107221032B (zh) * 2017-06-28 2020-11-20 华中科技大学鄂州工业技术研究院 虚拟腹腔镜肝囊肿切除开窗手术教学方法和系统
CA2983780C (en) 2017-10-25 2020-07-14 Synaptive Medical (Barbados) Inc. Surgical imaging sensor and display unit, and surgical navigation system associated therewith
US10980560B2 (en) 2017-10-30 2021-04-20 Ethicon Llc Surgical instrument systems comprising feedback mechanisms
US11911045B2 (en) 2017-10-30 2024-02-27 Cllag GmbH International Method for operating a powered articulating multi-clip applier
US11801098B2 (en) 2017-10-30 2023-10-31 Cilag Gmbh International Method of hub communication with surgical instrument systems
US11864728B2 (en) 2017-12-28 2024-01-09 Cilag Gmbh International Characterization of tissue irregularities through the use of mono-chromatic light refractivity
US11786251B2 (en) 2017-12-28 2023-10-17 Cilag Gmbh International Method for adaptive control schemes for surgical network control and interaction
US11013563B2 (en) 2017-12-28 2021-05-25 Ethicon Llc Drive arrangements for robot-assisted surgical platforms
US11672605B2 (en) 2017-12-28 2023-06-13 Cilag Gmbh International Sterile field interactive control displays
US11109866B2 (en) 2017-12-28 2021-09-07 Cilag Gmbh International Method for circular stapler control algorithm adjustment based on situational awareness
US11832899B2 (en) 2017-12-28 2023-12-05 Cilag Gmbh International Surgical systems with autonomously adjustable control programs
US11132462B2 (en) 2017-12-28 2021-09-28 Cilag Gmbh International Data stripping method to interrogate patient records and create anonymized record
US11896322B2 (en) 2017-12-28 2024-02-13 Cilag Gmbh International Sensing the patient position and contact utilizing the mono-polar return pad electrode to provide situational awareness to the hub
US11166772B2 (en) 2017-12-28 2021-11-09 Cilag Gmbh International Surgical hub coordination of control and communication of operating room devices
US11844579B2 (en) 2017-12-28 2023-12-19 Cilag Gmbh International Adjustments based on airborne particle properties
US11896443B2 (en) 2017-12-28 2024-02-13 Cilag Gmbh International Control of a surgical system through a surgical barrier
US11771487B2 (en) 2017-12-28 2023-10-03 Cilag Gmbh International Mechanisms for controlling different electromechanical systems of an electrosurgical instrument
US11969216B2 (en) 2017-12-28 2024-04-30 Cilag Gmbh International Surgical network recommendations from real time analysis of procedure variables against a baseline highlighting differences from the optimal solution
US11389164B2 (en) 2017-12-28 2022-07-19 Cilag Gmbh International Method of using reinforced flexible circuits with multiple sensors to optimize performance of radio frequency devices
US11857152B2 (en) 2017-12-28 2024-01-02 Cilag Gmbh International Surgical hub spatial awareness to determine devices in operating theater
US10758310B2 (en) 2017-12-28 2020-09-01 Ethicon Llc Wireless pairing of a surgical device with another device within a sterile surgical field based on the usage and situational awareness of devices
US11969142B2 (en) 2017-12-28 2024-04-30 Cilag Gmbh International Method of compressing tissue within a stapling device and simultaneously displaying the location of the tissue within the jaws
US20190201130A1 (en) * 2017-12-28 2019-07-04 Ethicon Llc Communication of data where a surgical network is using context of the data and requirements of a receiving system / user to influence inclusion or linkage of data and metadata to establish continuity
US11744604B2 (en) 2017-12-28 2023-09-05 Cilag Gmbh International Surgical instrument with a hardware-only control circuit
US11818052B2 (en) 2017-12-28 2023-11-14 Cilag Gmbh International Surgical network determination of prioritization of communication, interaction, or processing based on system or device needs
US20190254753A1 (en) 2018-02-19 2019-08-22 Globus Medical, Inc. Augmented reality navigation systems for use with robotic surgical systems and methods of their use
WO2019163906A1 (ja) * 2018-02-21 2019-08-29 オリンパス株式会社 医療システムおよび医療システムの作動方法
US11399858B2 (en) 2018-03-08 2022-08-02 Cilag Gmbh International Application of smart blade technology
US11090047B2 (en) 2018-03-28 2021-08-17 Cilag Gmbh International Surgical instrument comprising an adaptive control system
WO2019211741A1 (en) 2018-05-02 2019-11-07 Augmedics Ltd. Registration of a fiducial marker for an augmented reality system
US11766296B2 (en) 2018-11-26 2023-09-26 Augmedics Ltd. Tracking system for image-guided surgery
US10939977B2 (en) 2018-11-26 2021-03-09 Augmedics Ltd. Positioning marker
US11298130B2 (en) 2019-02-19 2022-04-12 Cilag Gmbh International Staple cartridge retainer with frangible authentication key
US11382712B2 (en) 2019-12-22 2022-07-12 Augmedics Ltd. Mirroring in image guided surgery
US11464581B2 (en) 2020-01-28 2022-10-11 Globus Medical, Inc. Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums
US11382699B2 (en) 2020-02-10 2022-07-12 Globus Medical Inc. Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery
US11207150B2 (en) 2020-02-19 2021-12-28 Globus Medical, Inc. Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment
KR102107019B1 (ko) * 2020-02-24 2020-05-28 대구보건대학교산학협력단 치아조각 실습시스템 및 이를 이용한 치아조각 실습방법
US11607277B2 (en) 2020-04-29 2023-03-21 Globus Medical, Inc. Registration of surgical tool with reference array tracked by cameras of an extended reality headset for assisted navigation during surgery
US11382700B2 (en) 2020-05-08 2022-07-12 Globus Medical Inc. Extended reality headset tool tracking and control
US11510750B2 (en) 2020-05-08 2022-11-29 Globus Medical, Inc. Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications
US11153555B1 (en) 2020-05-08 2021-10-19 Globus Medical Inc. Extended reality headset camera system for computer assisted navigation in surgery
CN111563932B (zh) * 2020-05-18 2022-03-11 常州市第二人民医院 一种交叠共轴外科手术控制方法、系统及可读存储介质
US11389252B2 (en) 2020-06-15 2022-07-19 Augmedics Ltd. Rotating marker for image guided surgery
US11737831B2 (en) 2020-09-02 2023-08-29 Globus Medical Inc. Surgical object tracking template generation for computer assisted navigation during surgical procedure

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002085421A (ja) * 2000-09-20 2002-03-26 Takahiro Ochi 外科手術支援システム
US8010180B2 (en) * 2002-03-06 2011-08-30 Mako Surgical Corp. Haptic guidance system and method
WO2008103383A1 (en) * 2007-02-20 2008-08-28 Gildenberg Philip L Videotactic and audiotactic assisted surgical methods and procedures
KR101334007B1 (ko) 2012-01-12 2013-11-27 의료법인 우리들의료재단 수술용 로봇제어 시스템 및 그 제어방법
KR101711358B1 (ko) * 2012-05-02 2017-02-28 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 의학적 애플리케이션들에서 증강 현실을 위한 동적 모델을 이용한 4 차원 이미지 등록
JP6252004B2 (ja) * 2013-07-16 2017-12-27 セイコーエプソン株式会社 情報処理装置、情報処理方法、および、情報処理システム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11517394B2 (en) 2016-12-29 2022-12-06 Kyungpook National University Industry-Academic Cooperation Foundation Method for calibration of laser targeting projector and C-arm image, recording medium for performing the same and laser surgical guidance system including calibration tool
WO2019032828A3 (en) * 2017-08-11 2019-04-18 Think Surgical, Inc. SYSTEM AND METHOD FOR VERIFYING IMPLANT
US11786379B2 (en) 2017-08-11 2023-10-17 Think Surgical, Inc. System and method for implant verification
WO2021153973A1 (ko) * 2020-01-31 2021-08-05 큐렉소 주식회사 관절치환 로봇수술 정보 제공 장치 및 제공 방법
US11701189B2 (en) 2020-01-31 2023-07-18 Curexo, Inc. Device for providing joint replacement robotic surgery information and method for providing same
WO2024063539A1 (ko) * 2022-09-23 2024-03-28 큐렉소 주식회사 수술 로봇의 절삭 경로 플래닝 장치 및 그 방법

Also Published As

Publication number Publication date
KR101570857B1 (ko) 2015-11-24
US20150305828A1 (en) 2015-10-29

Similar Documents

Publication Publication Date Title
KR101570857B1 (ko) 로봇 수술 계획 조정 장치
US11844574B2 (en) Patient-specific preoperative planning simulation techniques
US20220346889A1 (en) Graphical user interface for use in a surgical navigation system with a robot arm
JP6919106B2 (ja) 術中画像分析のためのシステム及び方法
JP7216768B2 (ja) 三次元のエクステンデットリアリティアプリケーションでの医療画像における二次元のデジタル撮像の活用および通信
US11806085B2 (en) Guidance for placement of surgical ports
US7643862B2 (en) Virtual mouse for use in surgical navigation
JP2021090753A (ja) ナビゲートされるロボット外科手術のための変動する不透明性を有する拡張現実ヘッドセット
JP2020511239A (ja) ナビゲーション手術における拡張現実ディスプレイのためのシステム及び方法
US20210169581A1 (en) Extended reality instrument interaction zone for navigated robotic surgery
US20070073133A1 (en) Virtual mouse for use in surgical navigation
US20070016008A1 (en) Selective gesturing input to a surgical navigation system
JP2021186683A (ja) ナビゲートされた脊椎手術のための機械学習システム
JP6643362B2 (ja) ロボット手術中に更新された患者画像を供給するための方法および装置
EP3868324A1 (en) Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment
US20210228282A1 (en) Methods of guiding manual movement of medical systems
CA3141156A1 (en) A system and method for interaction and definition of tool pathways for a robotic cutting tool
EP3861956A1 (en) Extended reality instrument interaction zone for navigated robotic surgery
KR20190088419A (ko) 수술 시뮬레이션 정보 생성방법 및 프로그램
US20230074630A1 (en) Surgical systems and methods for positioning objects using augmented reality navigation
Raczkowsky et al. Karlsruhe Surgical Robotics Research
CN116830212A (zh) 用于生成和评估医疗程序的系统和方法
Thomas Real-time Navigation Procedure for Robot-assisted Surgery

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180921

Year of fee payment: 4