KR20120126679A - 수술 상황 판단 및 대응을 위한 수술 로봇 시스템의 제어 방법과 이를 기록한 기록매체 및 수술 로봇 시스템 - Google Patents

수술 상황 판단 및 대응을 위한 수술 로봇 시스템의 제어 방법과 이를 기록한 기록매체 및 수술 로봇 시스템 Download PDF

Info

Publication number
KR20120126679A
KR20120126679A KR1020110044676A KR20110044676A KR20120126679A KR 20120126679 A KR20120126679 A KR 20120126679A KR 1020110044676 A KR1020110044676 A KR 1020110044676A KR 20110044676 A KR20110044676 A KR 20110044676A KR 20120126679 A KR20120126679 A KR 20120126679A
Authority
KR
South Korea
Prior art keywords
surgical
region
image information
image
situation
Prior art date
Application number
KR1020110044676A
Other languages
English (en)
Other versions
KR101795720B1 (ko
Inventor
최재순
최승욱
김희찬
박준우
이민규
류지원
Original Assignee
주식회사 이턴
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 이턴 filed Critical 주식회사 이턴
Priority to KR1020110044676A priority Critical patent/KR101795720B1/ko
Publication of KR20120126679A publication Critical patent/KR20120126679A/ko
Application granted granted Critical
Publication of KR101795720B1 publication Critical patent/KR101795720B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions

Abstract

복강경 영상으로부터 현재의 수술 상황을 판단하고 이 상황에 대응하기 위한 소정의 동작이 수행됨으로써, 수술 로봇을 이용한 수술 중의 안전성을 향상시키는 수술 로봇 시스템의 제어 방법과 이를 기록한 기록매체 및 수술 로봇 시스템를 제공하기 위하여, 본 발명은 복강경 영상으로부터, 상기 복강경 영상의 픽셀 정보를 표현하는 RGB 값 또는 HSV 값 중 적어도 하나를 포함하는 이미지 정보가 생성되는 단계; 상기 생성된 이미지 정보로부터 상기 복강경 영상 내에서의 관심 영역이 추출되는 단계; 상기 추출된 관심 영역의 시간의 흐름에 따른 변화로부터 현재의 수술 상황이 판단되는 단계; 및 상기 판단된 수술 상황에 대응하는 소정의 동작이 수행되는 단계;를 포함하는 수술 로봇 시스템의 제어 방법을 제공한다.

Description

수술 상황 판단 및 대응을 위한 수술 로봇 시스템의 제어 방법과 이를 기록한 기록매체 및 수술 로봇 시스템{Control method of surgical robot system, recording medium thereof, and surgical robot system}
본 발명은 수술 로봇 시스템의 제어 방법과 이를 기록한 기록매체 및 수술 로봇 시스템에 관한 것으로, 상세하게는 복강경 영상으로부터 현재의 수술 상황을 판단하고 이 상황에 대응하기 위한 소정의 동작이 수행됨으로써, 수술 로봇을 이용한 수술 중의 안전성을 향상시키는 수술 로봇 시스템의 제어 방법과 이를 기록한 기록매체 및 수술 로봇 시스템에 관한 것이다.
수술 로봇은 외과의사에 의해 시행되던 수술 행위를 대신할 수 있는 기능을 가지는 로봇을 말한다. 이러한 수술 로봇은 사람에 비하여 정확하고 정밀한 동작을 할 수 있으며 원격 수술이 가능하다는 장점을 가진다.
현재 전 세계적으로 개발되고 있는 수술 로봇은 뼈 수술 로봇, 복강경(復腔鏡) 수술 로봇, 정위 수술 로봇 등이 있다. 여기서 복강경 수술 로봇은 복강경과 소형 수술 도구를 이용하여 최소 침습적 수술을 시행하는 로봇이다.
복강경 수술은 배꼽 부위에 1cm 정도의 구멍을 뚫고 배 안을 들여다보기 위한 내시경인 복강경을 집어넣은 후 수술하는 첨단 수술기법으로서 향후 많은 발전이 기대되는 분야이다. 최근의 복강경은 컴퓨터칩이 장착되어 육안으로 보는 것보다도 더 선명하면서도 확대된 영상을 얻을 수 있으며, 또 모니터를 통해 화면을 보면서 특별히 고안된 복강경용 수술 기구들을 사용하면 어떠한 수술도 가능할 정도로 발전하고 있다. 더욱이 복강경 수술은 그 수술 범위가 개복 수술과 거의 같으면서도, 개복수술에 비해 합병증이 적고, 시술 후 훨씬 이른 시간 안에 치료를 시작할 수 있으며, 수술 환자의 체력이나 면역기능을 유지시키는 능력이 우수한 이점이 있다.
한편, 수술 로봇 시스템은 일반적으로 마스터 로봇과 슬레이브 로봇으로 구성된다. 수술자가 마스터 로봇에 구비된 조종 레버(예를 들어 핸들)를 조작하면, 슬레이브 로봇의 로봇 암에 결합되거나 로봇 암이 파지하고 있는 수술 도구가 조작되어 수술이 수행된다.
전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.
본 발명은 복강경 영상으로부터 현재의 수술 상황을 판단하고 이 상황에 대응하기 위한 소정의 동작이 수행됨으로써, 수술 로봇을 이용한 수술 중의 안전성을 향상시키는 수술 로봇 시스템의 제어 방법과 이를 기록한 기록매체 및 수술 로봇 시스템를 제공하는 것을 목적으로 한다.
본 발명은 복강경 영상으로부터, 상기 복강경 영상의 픽셀 정보를 표현하는 RGB 값 또는 HSV 값 중 적어도 하나를 포함하는 이미지 정보가 생성되는 단계; 상기 생성된 이미지 정보로부터 상기 복강경 영상 내에서의 관심 영역이 추출되는 단계; 상기 추출된 관심 영역의 시간의 흐름에 따른 변화로부터 현재의 수술 상황이 판단되는 단계; 및 상기 판단된 수술 상황에 대응하는 소정의 동작이 수행되는 단계;를 포함하는 수술 로봇 시스템의 제어 방법을 제공한다.
본 발명에 있어서, 상기 관심 영역은 상기 복강경 영상 내에서 수술 도구가 위치하는 수술 도구 영역일 수 있다.
본 발명에 있어서, 상기 생성된 이미지 정보로부터 상기 복강경 영상 내에서의 관심 영역이 추출되는 단계는, 상기 생성된 이미지 정보에 K-평균 군집화 방법(K-means clustering method)을 적용하여, 상기 이미지 정보를 유사한 명도를 갖는 복수 개의 영역으로 그루핑을 수행하는 단계; 및 상기 K-평균 군집화 방법(K-means clustering method)을 통해 구해진 그룹 중 수술 도구 그룹만을 남겨둔 후 이를 이진화(Binarization)하는 단계;를 포함할 수 있다.
여기서, 상기 이진화 단계 이후, 상기 이진화를 수행한 이미지 정보에 칼만 필터(Kalman filter)를 적용하여, 상기 이진화를 수행한 이미지 정보에 대한 일시적 오류를 제거하는 단계를 더 포함할 수 있다.
본 발명에 있어서, 상기 추출된 관심 영역의 시간의 흐름에 따른 변화로부터 현재의 수술 상황이 판단되는 단계는, 상기 추출된 수술 도구 영역이 기 설정된 소정의 제한 영역을 침범하는지 여부가 판단되는 단계일 수 있다.
여기서, 상기 기 설정된 소정의 제한 영역은 피시술자의 혈관, 조직, 장기 중 하나 이상을 포함할 수 있다.
여기서, 상기 수술 도구 영역이 상기 기 설정된 소정의 제한 영역과 소정의 거리 이내로 근접하는지 여부 또는, 상기 수술 도구 영역이 상기 기 설정된 소정의 제한 영역과 접촉하는지 여부 또는, 상기 수술 도구 영역이 상기 기 설정된 소정의 제한 영역 내부로 인입되는지 여부가 판단될 수 있다.
본 발명에 있어서, 상기 판단된 수술 상황에 대응하는 소정의 동작이 수행되는 단계는, 시각 또는 청각 정보 등을 통한 알람(alarm) 메시지가 발산될 수 있다.
본 발명에 있어서, 상기 판단된 수술 상황에 대응하는 소정의 동작이 수행되는 단계는, 사용자 조작부의 조작에 대해, 상기 수술 도구에서 감지된 반력을 일정 정도 변형 또는 증강시킨 소정의 반력을 가하는 포스 피드백(force feedback) 기능이 수행될 수 있다.
본 발명에 있어서, 상기 관심 영역은 상기 복강경 영상 내에서 출혈이 발생한 출혈 영역일 수 있다.
여기서, 상기 생성된 이미지 정보로부터 상기 복강경 영상 내에서의 관심 영역이 추출되는 단계는, 상기 이미지 정보에 대해 히스토그램 평탄화가 수행되는 단계; 및 상기 히스토그램 평탄화가 수행된 이미지 정보에 Mutually inclusive RGB thresholding이 수행되는 단계;를 포함할 수 있다.
여기서, 상기 Mutually inclusive RGB thresholding은, R,G,B의 각각의 공간(space) 상에서 소정의 임계값(threshold)을 부여하여 이진화를 수행한 후, 상기 이진화가 수행된 R,G,B 공간들의 교집합을 계산하여, 같은 값을 갖는 영역만을 출력할 수 있다.
여기서, 상기 Mutually inclusive RGB thresholding이 수행되는 단계 이후, 상기 Mutually inclusive RGB thresholding이 수행된 이미지 정보에 캐니 에지 필터(Canny edge filter)가 적용되어 출혈 영역의 테두리가 검출되는 단계; 및 상기 캐니 에지 필터가 적용된 이미지 정보에 엔트로피 필터(Entropy filter)가 적용되어 상기 이미지 정보를 부드럽게(smoothing) 처리하는 단계(S220f 단계)를 더 포함할 수 있다.
여기서, 상기 엔트로피 필터(Entropy filter)가 적용는 단계 이후, 상기 엔트로피 필터가 적용된 이미지 정보에서 상기 테두리가 검출된 부분을 기반으로 상기 이미지 정보에 소정의 임계값(threshold)을 적용하여 잡음을 제거하는 이진 에지 검출(Binary edge detection) 단계를 더 포함할 수 있다.
본 발명에 있어서, 상기 추출된 관심 영역의 시간의 흐름에 따른 변화로부터 현재의 수술 상황이 판단되는 단계는, 상기 출혈 영역이 새롭게 추출되었는지 여부, 또는 상기 추출된 출혈 영역의 면적이 증가 또는 감소하는지 여부, 또는 상기 출혈 영역이 소멸되었는지 여부가 판단될 수 있다.
본 발명에 있어서, 상기 추출된 관심 영역의 시간의 흐름에 따른 변화로부터 현재의 수술 상황이 판단되는 단계는, 어느 한 시점의 제1 영상에서 추출한 제1 영역을 다른 시점의 제2 영상의 다수 개의 영역과 차례로 비교하여, 두 대상 간의 픽셀 값의 차이가 제일 작은 위치를 찾는 템플릿 매칭(template matching)에 의해 수행될 수 있다.
본 발명에 있어서, 상기 추출된 관심 영역의 시간의 흐름에 따른 변화로부터 현재의 수술 상황이 판단되는 단계는, 서브(Sub) 칼만 필터에서 사용되는 센서 자체의 값들의 노이즈를 제거하고, 출력된 여러 센서의 위치에 또다시 메인(Main) 칼만 필터를 적용한 연합형 칼만 필터(Federated Kalman filter)를 적용하여 수행될 수 있다.
본 발명에 있어서, 상기 판단된 수술 상황에 대응하는 소정의 동작이 수행되는 단계는, 시각 또는 청각 정보 등을 통한 알람(alarm) 메시지가 발산될 수 있다.
본 발명에 있어서, 상기 관심 영역은 상기 복강경 영상 내에서 연기(smoke)가 발생한 연기 발생 영역일 수 있다.
본 발명에 있어서, 상기 생성된 이미지 정보로부터 상기 복강경 영상 내에서의 관심 영역이 추출되는 단계는, RGB 이미지 정보를 HSV 이미지 정보로 변환하는 단계; 상기 HSV 이미지 정보의 H 히스토그램 분석을 통해 연기 발생 상황 여부가 판단되는 단계; 상기 HSV 이미지 정보의 S 히스토그램 분석을 통해 연기 발생 상황 여부가 판단되는 단계; 및 상기 H 히스토그램 분석과 상기 S 히스토그램 분석 결과를 조합하여 연기 발생 상황 여부가 최종적으로 판단되는 단계;를 포함할 수 있다.
여기서, 상기 HSV 이미지 정보의 H 히스토그램 분석을 통해 연기 발생 상황 여부가 판단되는 단계는, H 히스토그램 분포에서 특정 구간의 H에 대한 도수가 소정의 임계값(threshold)보다 높으면 연기 발생 상황으로 판단할 수 있다.
여기서, 상기 HSV 이미지 정보의 S 히스토그램 분석을 통해 연기 발생 상황 여부가 판단되는 단계는, S 히스토그램 분포에서 특정 구간의 S에 대한 도수가 소정의 임계값(threshold)보다 낮으면 연기 발생 상황으로 판단할 수 있다.
여기서, 상기 H 히스토그램 분석과 상기 S 히스토그램 분석 결과를 조합하여 연기 발생 상황 여부가 최종적으로 판단되는 단계는, 상기 HSV 이미지 정보의 H 히스토그램 분석을 통해 연기 발생 상황 여부가 판단되는 단계와 상기 HSV 이미지 정보의 S 히스토그램 분석을 통해 연기 발생 상황 여부가 판단되는 단계의 판단 결과가 모두 연기 발생 상황인 경우를 최종적인 연기 발생 상황으로 판단할 수 있다.
본 발명에 있어서, 상기 추출된 관심 영역의 시간의 흐름에 따른 변화로부터 현재의 수술 상황이 판단되는 단계는, 상기 연기 발생이 시작되었는지 여부, 또는 연기 발생이 지속 되는지 여부, 또는 연기가 소멸되었는지 여부가 판단될 수 있다.
본 발명에 있어서, 상기 판단된 수술 상황에 대응하는 소정의 동작이 수행되는 단계는, 시각 또는 청각 정보 등을 통한 알람(alarm) 메시지가 발산될 수 있다.
본 발명에 있어서, 상기 판단된 수술 상황에 대응하는 소정의 동작이 수행되는 단계는, 가스 배출을 위한 제어 신호가 발생될 수 있다.
본 발명에 있어서, 상기 수술 도구는 수술용 바늘 또는 수술용 스테플러를 포함할 수 있다.
여기서, 상기 추출된 관심 영역의 시간의 흐름에 따른 변화로부터 현재의 수술 상황이 판단되는 단계는, 상기 수술용 바늘 또는 수술용 스테플러가 고정된 소정의 위치로부터 이동되었는지 여부가 판단될 수 있다.
여기서, 상기 판단된 수술 상황에 대응하는 소정의 동작이 수행되는 단계는, 상기 수술용 바늘 또는 수술용 스테플러의 상기 이동 경로가 디스플레이될 수 있다.
다른 측면에 관한 본 발명은 상기 어느 하나에 기재된 수술 로봇 시스템의 제어 방법을 수행하기 위하여 디지털 처리 장치에 의해 실행될 수 있는 명령어들의 프로그램이 유형적으로 구현되어 있으며 디지털 처리 장치에 의해 판독될 수 있는 프로그램을 기록한 기록매체를 제공한다.
다른 측면에 관한 본 발명은 수술 부위를 조영하는 수술용 내시경; 및 다자유도를 가지며 구동하는 로봇 암;을 포함하는 슬레이브 로봇과, 상기 수술용 내시경을 통해 촬영되는 영상을 디스플레이하는 디스플레이 부재; 및 상기 수술용 내시경을 통해 촬영되는 복강경 영상으로부터 상기 복강경 영상의 픽셀 정보를 표현하는 RGB 값 또는 HSV 값 중 적어도 하나를 포함하는 이미지 정보를 생성하고, 상기 생성된 이미지 정보로부터 상기 복강경 영상 내에서의 관심 영역을 추출하고, 상기 추출된 관심 영역의 시간의 흐름에 따른 변화로부터 현재의 수술 상황을 판단하고, 상기 판단된 수술 상황에 대응하는 소정의 동작이 수행되도록 제어하는 수술상황 판단부;를 포함하는 마스터 로봇을 포함하는 수술 로봇 시스템을 제공한다.
이와 같은 본 발명에 의해서, 수술 로봇을 이용한 수술 중, 복강경 영상으로부터 현재의 수술 상황을 실시간으로 판단하고 이 상황에 대응하기 위한 소정의 동작이 자동으로 수행됨으로써, 수술 로봇을 이용한 수술 중의 안전성을 향상시키는 효과를 얻을 수 있다.
도 1은 본 발명의 일 실시예에 따른 수술 로봇 시스템의 전체 구조를 나타낸 평면도이다.
도 2는 도 1의 수술 로봇 시스템의 마스터 로봇을 나타낸 사시도이다.
도 3은 본 발명의 일 실시예에 따른 마스터 로봇과 슬레이브 로봇의 구성을 개략적으로 나타낸 블록 구성도이다.
도 4는 본 발명의 일 실시예에 따른 수술 로봇 시스템의 제어 방법을 나타내는 흐름도이다.
도 5는 도 4의 수술 로봇 시스템의 제어 방법의 제1 실시예를 나타내는 흐름도이다.
도 6a 내지 도 6d 및 도 7은 도 5의 수술 로봇 시스템의 제어 방법의 제1 실시예의 각 단계를 나타내는 도면이다.
도 8은 도 4의 수술 로봇 시스템의 제어 방법의 제2 실시예를 나타내는 흐름도이다.
도 9a 내지 도 9k 및 도 10a 내지 도 10d는 도 8의 수술 로봇 시스템의 제어 방법의 제2 실시예의 각 단계를 나타내는 도면이다.
도 11a 내지 도 11c는 본 발명의 일 비교예에 따른 수술 로봇 시스템의 제어 방법에 의해 추출된 출혈 영역을 나타내는 도면이다.
도 12a 내지 도 12d는 본 발명의 일 실시예에 따른 수술 로봇 시스템의 제어 방법에 의해 추출된 출혈 영역을 나타내는 도면이다.
도 13은 도 4의 수술 로봇 시스템의 제어 방법의 제3 실시예를 나타내는 흐름도이다.
도 14a 및 도 14b는 연기가 발생했을 때의 복강경 영상 및 이에 대한 H 히스토그램이다.
도 15a 및 도 15b는 연기가 발생하지 않았을 때의 복강경 영상 및 이에 대한 H 히스토그램이다.
도 16a 및 도 16b는 연기가 발생했을 때의 복강경 영상 및 이에 대한 S 히스토그램이다.
도 17a 및 도 17b는 연기가 발생하지 않았을 때의 복강경 영상 및 이에 대한 S 히스토그램이다.
도 18a, 도 18b 및 도 18c는 실제로 연기가 발생하지 않았을 때의 복강경 영상, 이에 대한 H 히스토그램 및 S 히스토그램이다.
도 19a, 도 19b 및 도 19c는 실제로 연기가 발생했을 때의 복강경 영상, 이에 대한 H 히스토그램 및 S 히스토그램이다.
도 20a, 도 20b 및 도 20c는 실제로 연기가 발생하지 않았을 때의 복강경 영상과, 이에 대한 H 히스토그램 및 S 히스토그램이다.
이하, 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.
여기서, 본 발명은 수술용 내시경(예를 들어, 복강경, 흉강경, 관절경, 비경 등)이 이용되는 수술들에 범용적으로 사용될 수 있는 기술적 사상이지만, 본 발명의 실시예를 설명함에 있어 설명의 편의를 위해 복강경이 이용되는 경우를 예로 들어 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 수술 로봇 시스템의 전체 구조를 나타낸 평면도이고, 도 2는 도 1의 수술 로봇 시스템의 마스터 로봇을 나타낸 사시도이다.
도 1 및 도 2를 참조하면, 수술 로봇 시스템(1)은 수술대에 누워있는 환자에게 수술을 행하는 슬레이브 로봇(200)과, 상기 슬레이브 로봇(200)을 수술자가 원격 조종하도록 하는 마스터 로봇(100)을 포함한다. 마스터 로봇(100)과 슬레이브 로봇(200)이 반드시 물리적으로 독립된 별도의 장치로 분리되어야 하는 것은 아니며, 하나로 통합되어 일체형으로 구성될 수 있다.
마스터 로봇(100)은 조작 레버(110) 및 디스플레이 부재(120)를 포함하고, 슬레이브 로봇(200)은 로봇 암(210) 및 복강경(220)을 포함한다.
상세히, 마스터 로봇(100)은 수술자가 양손에 각각 파지하여 조작할 수 있도록 조작 레버(110)를 구비한다. 조작 레버(110)는 도 1 및 도 2에 예시된 바와 같이 두 개 또는 그 이상의 수량의 핸들로 구현될 수 있으며, 수술자의 핸들 조작에 따른 조작 신호가 슬레이브 로봇(200)으로 유선 또는 무선 통신망을 통해 전송되어 로봇 암(210)이 제어된다. 즉, 수술자의 핸들 조작에 의해 로봇 암(210)의 위치 이동, 회전, 절단 작업 등의 수술 동작이 수행될 수 있다.
예를 들어, 수술자는 핸들 형태의 조작 레버를 이용하여 슬레이브 로봇 암(210)이나 복강경(220) 등을 조작할 수 있다. 이와 같은 조작 레버는 그 조작방식에 따라 다양한 기구적 구성을 가질 수 있으며, 슬레이브 로봇 암(210)이나 복강경(220) 등의 동작을 조작하는 마스터 핸들과, 전체 시스템의 기능을 조작하기 위해 마스터 로봇(100)에 부가된 조이스틱, 키패드, 트랙볼, 터치스크린과 같은 각종 입력도구와 같이, 슬레이브 로봇(200)의 로봇 암(210) 및/또는 기타 수술 장비를 작동시키기 위한 다양한 형태로 구비될 수 있다. 여기서, 조작 레버(110)는 핸들의 형상으로 제한되지 않으며, 유선 또는 무선 통신망과 같은 네트워크를 통해 로봇 암(210)의 동작을 제어할 수 있는 형태이면 아무런 제한 없이 적용될 수 있다.
마스터 로봇(100)의 디스플레이 부재(120)에는 복강경(220)을 통해 촬영되는 영상이 화상 이미지로 표시된다. 또한 디스플레이 부재(120)는 터치스크린 기능을 구비할 수도 있다. 나아가, 디스플레이 부재(120)는 입체 디스플레이 장치로 구비되어, 관찰자가 3차원의 생동감과 현실감을 느낄 수 있게 할 수도 있다.
여기서, 디스플레이 부재(120)는 하나 이상의 모니터들로 구성될 수 있으며, 각 모니터에 수술시 필요한 정보들이 개별적으로 표시되도록 할 수 있다. 도 1 및 도 2에는 디스플레이 부재(120)가 세 개의 모니터를 포함하는 경우가 예시되었으나, 모니터의 수량은 표시를 요하는 정보의 유형이나 종류 등에 따라 다양하게 결정될 수 있다.
한편, 슬레이브 로봇(200)은 하나 이상의 로봇 암(210)을 포함할 수 있다. 일반적으로 로봇 암은 인간의 팔 및/또는 손목과 유사한 기능을 가지고 있으며 손목 부위에 소정의 도구를 부착시킬 수 있는 장치를 의미한다. 본 명세서에서 로봇 암(210)이란 상박, 하박, 손목, 팔꿈치 등의 구성 요소 및 상기 손목 부위에 결합되는 수술용 인스트루먼트 등을 모두 포괄하는 개념으로 정의할 수 있다. 이와 같은 슬레이브 로봇(200)의 로봇 암(210)은 다자유도를 가지며 구동되도록 구현될 수 있다. 로봇 암(210)은 예를 들어 환자의 수술 부위에 삽입되는 수술기구, 수술기구를 수술 위치에 따라 요(yaw)방향으로 회전시키는 요동 구동부, 요동 구동부의 회전 구동과 직교하는 피치(pitch) 방향으로 수술기구를 회전시키는 피치 구동부, 수술기구를 길이 방향으로 이동시키는 이송 구동부와, 수술기구를 회전시키는 회전 구동부, 수술기구의 끝단에 설치되어 수술 병변을 절개 또는 절단하는 수술기구 구동부를 포함하여 구성될 수 있다. 다만, 로봇 암(210)의 구성이 이에 제한되지는 않으며, 이러한 예시가 본 발명의 권리범위를 제한하지 않는 것으로 이해되어야 한다. 여기서, 수술자가 조작 레버(110)를 조작함에 의해 로봇 암(210)이 상응하는 방향으로 회전, 이동하는 등의 실제 제어 과정에 대한 구체적인 설명은 생략한다.
슬레이브 로봇(200)은 환자를 수술하기 위하여 하나 이상으로 이용될 수 있으며, 수술 부위가 디스플레이 부재(120)를 통해 화상 이미지로 표시되도록 하기 위한 복강경(220)은 독립된 슬레이브 로봇(200)으로 구현될 수도 있다. 또한, 앞서 설명된 바와 같이, 본 발명의 실시예들은 복강경 이외의 다양한 수술용 내시경(예를 들어 흉강경, 관절경, 비경 등)이 이용되는 수술에 범용적으로 사용될 수 있다.
도 3은 본 발명의 일 실시예에 따른 마스터 로봇과 슬레이브 로봇의 구성을 개략적으로 나타낸 블록 구성도이다.
도 3을 참조하면, 마스터 로봇(100)은 영상 입력부(130), 화면 표시부(140), 사용자 조작부(150), 조작신호 생성부(160), 수술상황 판단부(170) 및 제어부(180)를 포함한다. 슬레이브 로봇(200)은 로봇 암(210) 및 복강경(220)을 포함한다.
영상 입력부(130)는 슬레이브 로봇(200)의 복강경(220)에 구비된 카메라를 통해 촬영된 영상을 유선 또는 무선 통신망을 통해 수신한다.
화면 표시부(140)는 영상 입력부(130)를 통해 수신된 영상에 상응하는 화상 이미지를 시각(視覺)적 정보로 출력한다. 또한, 화면 표시부(140)는 슬레이브 로봇(200)으로부터 피시술자의 생체 정보가 입력되는 경우, 이에 상응하는 정보를 더 출력할 수 있다. 또한, 화면 표시부(140)는 수술 부위에 대한 환자의 관련 이미지 데이터(예를 들어, 엑스-레이(X-Ray) 영상, 컴퓨터단층촬영(CT) 영상, 자기공명영상촬영(MRI) 영상 및 상기 컴퓨터단층촬영(CT) 영상 데이터에 기반하여 재구성된 3차원 영상 자료 또는 수치화된 모델 등)를 더 출력할 수도 있다. 여기서, 화면 표시부(140)는 디스플레이 부재(도 2의 120 참조) 등의 형태로 구현될 수 있으며, 수신된 영상이 화면 표시부(140)를 통해 화상 이미지로 출력되도록 하기 위한 영상 처리 프로세스가 제어부(180), 수술상황 판단부(170) 또는 영상 처리부(도시되지 않음)에 의해 수행될 수 있다.
여기서, 화면 표시부(140)(즉, 도 2의 디스플레이 부재(120))는 입체 디스플레이 장치로 구비될 수도 있다. 상세히, 입체 디스플레이 장치는 스테레오스코픽(stereoscopic) 기술을 적용하여 2차원 영상에 깊이(depth) 정보를 부가하고, 이 깊이 정보를 이용하여 관찰자가 3차원의 생동감과 현실감을 느낄 수 있게 하는 화상표시장치를 지칭한다. 여기서, 본 발명의 일 실시예에 따른 수술 로봇 시스템(1)은 화면 표시부로 입체 디스플레이 장치를 구비하여 사용자에게 보다 실제적인 가상환경을 제공할 수 있다.
사용자 조작부(150)는 슬레이브 로봇(200)의 로봇 암(210)의 위치 및 기능을 수술자가 조작할 수 있도록 하는 수단이다. 사용자 조작부(150)는 도 2에 예시된 바와 같이 핸들 형상의 조작 부재(도 2의 110 참조) 형태로 형성될 수 있으나, 그 형상이 이에 제한되지 않으며 동일한 목적 달성을 위한 다양한 형상으로 변형 구현될 수 있다. 또한, 예를 들어 일부는 핸들 형상으로, 다른 일부는 클러치 버튼 등의 상이한 형상으로 형성될 수도 있으며, 수술도구의 조작을 용이하도록 하기 위해 수술자의 손가락을 삽입 고정할 수 있도록 하는 손가락 삽입관 또는 삽입 고리가 더 형성될 수도 있다.
또한, 사용자 조작부(150)는 수술상황 판단부(170) 및 이와 연결된 제어부(180)의 제어 하에, 사용자로부터 입력되는 조작에 대해 소정의 반력을 제공할 수 있다. 예를 들어, 사용자가 사용자 조작부(150)를 파지한 상태에서 사용자 조작부(150)를 일정 방향으로 밀 경우, 사용자 조작부(150)는 상기 사용자가 미는 방향의 반대 방향으로 일정한 크기의 반력을 제공할 수 있다. 결과적으로 사용자는 사용자 조작부(150)를 조작하기 위하여 평소보다 더 큰 힘을 가하여야 하며, 이를 통해 사용자의 오작동 가능성에 대한 주의를 환기시킬 수 있는 것이다.
또는 사용자 조작부(150)는 수술상황 판단부(170) 및 이와 연결된 제어부(180)의 제어 하에, 사용자로부터 입력되는 조작에 대한 소정의 알람(alarm) 메시지를 발산할 수도 있다. 예를 들어, 사용자가 사용자 조작부(150)를 파지한 상태에서 사용자 조작부(150)를 조작하여 로봇 암(210)이 소정의 침범 제한 영역 내로 침입하게 될 경우, 사용자 조작부(150)는 소정의 알람(alarm) 메시지를 발산할 수 있으며, 이를 통해 사용자의 오작동 가능성에 대한 주의를 환기시킬 수 있는 것이다.
조작신호 생성부(160)는 로봇 암(210) 및/또는 복강경(220)의 위치 이동 또는 수술 동작에 대한 조작을 위해 수술자가 사용자 조작부(150)를 조작하는 경우, 이에 상응하는 조작신호를 생성하여 슬레이브 로봇(200)으로 전송한다. 조작신호는 유선 또는 무선 통신망을 통해 송수신될 수 있음은 앞서 설명한 바와 같다.
수술상황 판단부(170)는 복강경 영상으로부터 복강경 영상의 픽셀 정보를 표현하는 RGB 값 또는 HSV 값 중 적어도 하나를 포함하는 이미지 정보를 생성하고, 생성된 이미지 정보로부터 복강경 영상 내에서의 관심 영역을 추출하고, 추출된 관심 영역의 시간의 흐름에 따른 변화로부터 현재의 수술 상황을 판단하고, 판단된 수술 상황에 대응하는 소정의 동작을 수행하도록 제어하는 기능을 수행한다. 수술상황 판단부(170)의 구체적인 기능과 같은 제어 방법은 이후 관련 도면을 참조하여 상세히 설명한다.
제어부(180)는 상술한 기능이 수행될 수 있도록 각 구성 요소들의 동작을 제어한다. 제어부(180)는 영상 입력부(130)를 통해 입력되는 영상이 화면 표시부(140)를 통해 표시될 화상 이미지로 변환하는 기능을 수행할 수도 있다. 또한, 제어부(180)는 영상 입력부(130)에서 입력되는 영상을 수술상황 판단부(170)에 전달하고, 수술상황 판단부(170)에서 생성된 동작 구현 신호를 실행하는 역할을 수행할 수도 있다.
이하에서는 본 발명의 일 실시예에 따른 수술 로봇 시스템의 제어 방법에 대해서 상세히 설명한다. 도 4는 본 발명의 일 실시예에 따른 수술 로봇 시스템의 제어 방법을 나타내는 흐름도이다. 도 4를 참조하면, 본 발명의 일 실시예에 따른 수술 로봇 시스템의 제어 방법은 복강경 영상으로부터, 상기 복강경 영상의 픽셀 정보를 표현하는 RGB 값 또는 HSV 값 중 적어도 하나를 포함하는 이미지 정보가 생성되는 단계(S10 단계), 상기 생성된 이미지 정보로부터 상기 복강경 영상 내에서의 관심 영역이 추출되는 단계(S20 단계), 추출된 관심 영역의 시간의 흐름에 따른 변화로부터 현재의 수술 상황이 판단되는 단계(S30 단계) 및 상기 판단된 수술 상황에 대응하는 소정의 동작이 수행되는 단계(S40 단계)를 포함한다.
여기서, 본 발명의 일 실시예에 따른 수술 로봇 시스템의 제어 방법은 관심 영역이 복강경 화면상의 수술 도구 영역일 경우와, 관심 영역이 복강경 화면상의 출혈 영역일 경우와, 관심 영역이 복강경 화면상의 연기(smoke) 발생 영역일 경우의 세 가지 경우에 대표적으로 적용되는바, 이하에서는 상기 각각의 경우로 나누어서 설명하도록 한다.
먼저, 복강경 화면상의 수술 도구의 검출 및 제어와 관련된 본 발명의 제1 실시예에 대해서 설명한다. 도 5는 도 4의 수술 로봇 시스템의 제어 방법의 제1 실시예를 나타내는 흐름도이다. 그리고, 도 6a 내지 도 6d 및 도 7은 도 5의 수술 로봇 시스템의 제어 방법의 제1 실시예의 각 단계를 나타내는 도면이다.
도 5, 도 6a 내지 도 6d 및 도 7을 참조하면, 본 발명의 수술 로봇 시스템의 제어 방법의 제1 실시예는, 복강경 영상으로부터 이미지 정보가 생성되는 단계(S110 단계), 상기 생성된 이미지 정보로부터 상기 복강경 영상 내에서의 관심 영역이 추출되는 단계(S120 단계), 수술 도구 영역이 기 설정된 소정의 제한 영역을 침범하는지 여부가 판단되는 단계(S130 단계), 및 수술 도구 영역이 기 설정된 소정의 제한 영역을 침범하였을 경우 사용자 조작부의 조작에 대해 소정의 동작이 수행되는 단계(S140 단계)를 포함한다.
그리고, 상기 생성된 이미지 정보로부터 상기 복강경 영상 내에서의 관심 영역이 추출되는 단계(S120 단계)는, 이미지 정보에 K-평균 군집화 방법(K-means clustering method)을 적용하는 단계(S121 단계), K-평균 군집화 방법(K-means clustering method)을 통해 구해진 그룹 중 수술 도구 그룹만을 남겨둔 후 이를 이진화(Binarization)하는 단계(S122 단계), 및 추출된 수술 도구 영역의 중심점을 추출하는 단계(S123 단계)를 포함한다.
이를 더욱 상세히 설명하면 다음과 같다.
먼저, 복강경 영상을 이용하여 복강경 영상의 픽셀 정보를 표현하는 RGB 값 및 HSV 값 중의 적어도 하나를 포함하는 이미지 정보를 생성(S110 단계)한다. 즉, 제공된 복강경 영상을 이용하여 RGB 값으로 표현되는 영상 정보를 포함하는 이미지 정보를 생성하거나, 제공된 복강경 영상을 이용하여 HSV 값으로 표현되는 영상 정보를 포함하는 이미지 정보를 생성하거나, 상기 RGB 값 및 HSV 값을 모두 포함하는 이미지 정보가 생성될 수 있다.
여기에서 R은 빨간색(Red), G는 초록색(Green) 및 B는 파란색(Blue)을 표현하는 것으로 각각의 성분을 수치화하여 나타낸 것으로 수치 범위는 자유롭게 정할 수 있으며, 일반적으로 정규화(normalization)하여 0 내지 1 사이의 값을 가지도록 수치 범위를 정하거나, 0 내지 255 사이의 값을 가지도록 정할 수 있다.
또한, H는 색상(Hue), S는 채도(Saturation), V는 명도(Value, Brightness)를 표현하는 것으로, HSV 값은 RGB 값이 0 내지 1 사이의 값을 가질 때, 상기 RGB 값으로부터 소정의 계산식에 의하여 연산될 수 있다. 이때, RGB 값과 마찬가지로 수치 범위는 자유롭게 정할 수 있으나, 일반적으로 H는 0° 내지 360°의 각도(degree) 값으로 표현될 수 있으며, S는 하얀색이 100%인 0에서 하얀색이 전혀 섞이지 않은 1 사이의 값으로 표현될 수 있으며, V는 검은색인 0 내지 하얀색인 1의 값을 가지는 것으로 표현될 수 있다. 즉, H(색상)는 관측자에 의하여 인지되는 지배적인 색이고, S(채도)는 색의 순수도 또는 순수한 색이 흰 빛에 의해 희석된 정도이고, V(명도)는 색의 밝기의 척도에 해당한다.
다음으로, 생성된 이미지 정보로부터 상기 복강경 영상 내에서의 관심 영역이 추출된다(S120 단계). 이를 더욱 상세히 설명하면 다음과 같다.
먼저, 이미지 정보에 K-평균 군집화 방법(K-means clustering method)을 적용한다(S121 단계). 여기서, K-평균 군집화 방법(K-means clustering method)이란, 복강경 영상으로부터 얻은 이미지 정보를 분석하여 수술 도구에 해당하는 영역을 구분하는 일 방법이다.
상세히, 복강경 수술 영상에서 수술 도구를 인식하기 위해서는 화소의 밝기 정보가 가장 유의미하며, 따라서 이 밝기 정보를 여하한 방법으로 복수 개의 영역으로 구분처리하면 원하는 결과(즉, 수술 도구 영역 추출)를 용이하게 얻을 수 있다. 이를 위해 이미지 정보를 그레이스케일로 변환하여, 각 화소의 밝기 정보에 대해 K-평균 군집화 방법(k-means clustering)과 같은 자율 군집화(unsupervised clustering) 방법을 사용하여 자동으로 영역 구분을 수행하면, 수술 도구 부위는 정보의 유사성으로 인해 하나의 클러스터로 용이하게 자동 구분이 될 수 있다. 여기서, 자율 군집화(Unsupervised clustering)란, 관리자의 개입이 없이 연산 알고리즘이 자동으로 데이터의 군집을 분류해 내도록 설계된 연산 알고리즘의 총칭을 말한다. 그리고, K-평균 군집화 방법(K-means clustering method)은 영상 내에 명도(intensity)를 사용하여 서로의 거리에 기반을 두어 기준점에 가까운 곳의 데이터를 군집하여 그루핑(grouping) 하는 기법을 의미한다.
즉, 도 6a에 도시된 바와 같은 복강경 영상을 그레이스케일로 변환하여, 각 화소의 밝기 정보에 대해 K-평균 군집화 방법(k-means clustering)을 수행하되, 예를 들어 전체를 세 개의 영역으로 클러스터링(군집화)하도록 인수를 설정하면, 도 6b, 도 6c 및 도 6d에 도시된 바와 같은 세 개의 군집으로 분류된다. 이 중 수술 도구가 속하는 영역은 도 6b에서 밝은 색 영역(검은색이 아닌 영역)(B)이 된다. 이와 같은 방법으로 복강경 영상을 각 화소의 밝기 정보에 대해 클러스터링(군집화) 함으로써, 수술 도구 영역이 하나의 영역으로 분류될 수 있다.
다음으로, K-평균 군집화 방법(K-means clustering method)을 통해 구해진 그룹 중 수술 도구 그룹만을 남겨둔 후, 상기 수술 도구에 해당하는 영역의 경계선을 확정하기 위하여 영상을 이진화(Binarization)(S122 단계)한다.
즉, 상술한 S121 단계를 통해 분류된 복수 개의 영역(예를 들어, 도 6b ~ 도 6d에 각각 도시된 세 개의 영역) 중에서, 수술 도구에 해당하는 영역(예를 들어, 도 6b에 도시된 영역)만을 남겨 둔다. 그리고, 상기 수술 도구에 해당하는 영역에 대해 이진화(binarization)를 수행한다. 여기서 이진화(binarization)란, 영상을 어떠한 임계값(threshold)에 의해 흑백화하는 것을 의미한다.
다음으로, 추출된 수술 도구 영역의 기하학적 중심점을 추출(S123 단계) 하여, 추출된 수술 도구 영역의 대표 좌표로 상정한다. 이와 같이 추출된 수술 도구 영역의 기하학적 중심점이 도 7에 도시되어 있다.(도 7의 C 참조)
한편, 도 5에는 도시되지 않았지만, 생성된 이미지 정보로부터 상기 복강경 영상 내에서의 관심 영역이 추출되는(S120 단계) 단계는, 수술 도구의 위치 검출 결과에 대한 일시적 오류를 제거하는 단계를 더 포함할 수 있다.
상세히, 수술 도구가 존재하는 영역이 다른 부위에 의해 일시적으로 겹쳐서 영상 면적이 줄어들거나, 전기 소작기에서 발생하는 연기 등으로 인해 색상 정보의 분포가 일시적으로 변화하는 것과 같이, 복강경 영상 내에서 수술 도구 영역을 추출하는데 있어서 일시적 오류가 발생할 수 있다. 이와 같이 복강경 영상 내의 잡음 및 불규칙한 일과성 오류 요인에 의해 발생하는 논리적으로 무시 가능한 원인에 의한 일시적 오류를 제거하는 방법으로서, 칼만 필터(Kalman filter)와 같은 시스템의 이전 시간에서의 특성에 기반하여 출력 결과를 예측하고 비정상적인 출력을 임의로 제외하는 방법을 사용하여, 수술 도구의 위치의 동적 검출 결과의 안정성을 높일 수 있다. 여기서, 칼만 필터(Kalman filter)는 시스템의 과거 양태를 기록한 데이터를 기반으로 통계적으로 일반적인 특성을 공유할 것임을 전제로 현재의 출력을 예측하고 다시 측정된 현재 출력 값으로 시스템의 특성 모델을 보정하는 작업을 반복적으로 수행하면서 시스템의 출력을 예측하는 방법을 의미한다. 이와 같은 칼만 필터(Kalman filter)는 잡음이나 교란에 의한 일시적인 이상 신호를 걸러내는 필터로서도 견실한 역할을 하므로 여러 분야에서 응용되고 있다.
다음으로, 수술 도구 영역이 기 설정된 소정의 제한 영역을 침범하는지 여부가 판단(S130 단계)된다. 여기서, 기 설정된 소정의 제한 영역은 피시술자의 혈관, 조직, 장기와 같이 수술 중 수술 도구에 의해 손상될 수 있는 영역일 수 있다. 이 경우, 복강경 화면상에서 혈관/조직/장기 형상 등의 템플릿을 사용하여 이와 동일한 패턴의 영역을 찾아내고, 이를 소정의 제한 영역으로 설정할 수 있다. 또는 기 설정된 소정의 제한 영역은 디스플레이 부재 상에서 사용자가 터치 스크린을 터치하는 등의 방법으로 사용자에 의해 임의로 선택된 영역일 수도 있다.
그리고, 수술 도구 영역이 기 설정된 소정의 제한 영역을 침범하는지 여부는, 시간의 흐름에 따른 수술 도구 영역의 위치를 파악하면서, 수술 도구 영역이 기 설정된 소정의 제한 영역과 소정의 거리 이내로 근접하는지, 수술 도구 영역이 기 설정된 소정의 제한 영역과 접촉하는지, 수술 도구 영역이 기 설정된 소정의 제한 영역 내부로 인입되는지 여부 등을 통해 판단할 수 있다.
다음으로, 수술 도구 영역이 기 설정된 소정의 제한 영역을 침범할 경우, 사용자 조작부의 조작에 대해 소정의 동작이 수행(S140 단계)된다.
여기서, 소정의 동작은 사용자에게 소정의 알람(alarm) 메시지를 발산하는 동작일 수 있다. 즉, 수술 도구 영역이 소정의 제한 영역을 침범하였거나 제한 물체에 근접한 경우, 사용자에게 시각 또는 청각 정보 등을 통해 알람(alarm) 메시지를 전달할 수 있다.
또는, 수술 도구 영역이 기 설정된 소정의 제한 영역을 침범할 경우, 사용자 조작부의 조작에 대해, 상기 수술 도구에서 감지된 반력을 일정 정도 변형 또는 증강시킨 소정의 반력을 가하는 포스 피드백(force feedback) 기능이 수행될 수도 있다.
상세히, 마스터-슬레이브 구조의 수술 로봇 시스템에서는, 작업 중인 슬레이브 로봇의 움직임 중 의도되지 아니한 움직임에 의해 조직 및 장기가 손상되는 위험이 발생할 수 있다. 이와 같이 시술자의 의도하지 않은 동작을 예방하기 위해, 가상 고정벽 (Virtual Fixture) 개념 및 원격 현시(telepresence)를 위한 포스 피드백(force feedback) 개념이 제안되었다.
여기서, 포스 피드백 제어(force-feedback control)의 기본 개념은, 슬레이브 로봇의 로봇 암의 첨부 또는 그 인근에서 센서 등으로 감지된 반력 값과 로봇 암의 첨부의 현재 위치 값을 마스터 로봇 측에 피드백하고, 마스터 로봇 측에서는 그 자체의 기구학적 구조를 감안하여 사용자가 상호작용하는 가장 말단에서 느끼게 되는 반력감이 슬레이브 로봇으로부터 피드백된 값과 최대한 유사하도록 제어하는 것이다. 즉, 기구를 조작하는 측에 그 조작 결과를 힘의 정보로 되돌려 보내는 기능이나 그 기능을 이용한 시스템을 의미하며, 이와 같은 포스 피드백(force feedback) 기능을 이용하여 마치 의사가 직접 손으로 시술하는 것과 같은 느낌이 재현되도록 할 수 있다.
여기서, 본 발명의 일 실시예에 따른 수술 로봇 시스템은 수술 도구 영역이기 설정된 소정의 제한 영역을 침범할 경우, 사용자 조작부의 조작에 대해 소정의 반력을 가하는 포스 피드백(force feedback) 기능을 수행할 수 있다. 여기서, 소정의 반력이란 로봇 암에서 감지된 실제의 반력이 아니라, 로봇 암에서 감지된 반력을 일정 정도 변형 또는 증강시킨 반력을 의미하며, 이와 같이 일정 정도 변형 또는 증강된 반력이 사용자에게 주어짐으로써, 사용자의 주의를 환기하여 수술 중 안전성을 향상시키는 것이다.
한편, 도면에는 도시되지 않았지만, 본 발명의 수술 로봇 시스템의 제어 방법의 제1 실시예에서, 수술 도구는 도 6a 등에 도시된 수술용 인스트루먼트 뿐만이 아니라, 수술용 바늘 또는 수술용 스테플러 등을 더 포함할 수도 있다. 즉, 본 명세서에서의 수술 로봇 시스템을 이용하여 수술을 시행하는 도중 사용자의 체내에 삽입될 수 있는 각종 수술 기구들까지 포함할 수 있다. 이와 같은 수술용 바늘 또는 수술용 스테플러 등은 도 6a 등에 도시된 수술용 인스트루먼트와 같이 금속 재질로 형성되기 때문에, 상술한 수술용 인스트루먼트를 검출하는 방법과 유사한 방법으로 복강경 영상으로부터 검출될 수 있다. 그리고, 이와 같이 검출된 수술용 바늘 또는 수술용 스테플러가 의도하지 않게 수술 부위 이외의 다른 곳으로 사라질 경우, 수술용 바늘 또는 수술용 스테플러의 이동 궤적을 사용자에게 디스플레이해 줌으로써, 사용자가 당황하지 않고 분실된 수술용 바늘 또는 수술용 스테플러를 용이하게 찾을 수 있도록 할 수 있다.
다음으로, 복강경 화면상의 출혈 영역의 검출 및 제어와 관련된 본 발명의 제2 실시예에 대해서 설명한다. 도 8은 도 4의 수술 로봇 시스템의 제어 방법의 제2 실시예를 나타내는 흐름도이다. 그리고, 도 9a 내지 도 9k 및 도 10a 내지 도 10d는 도 8의 수술 로봇 시스템의 제어 방법의 제2 실시예의 각 단계를 나타내는 도면이다.
도 8, 도 9a 내지 도 9k 및 도 10a 내지 도 10d를 참조하면, 본 발명의 수술 로봇 시스템의 제어 방법의 제2 실시예는, 복강경 영상으로부터 이미지 정보가 생성되는 단계(S210 단계), 상기 생성된 이미지 정보로부터 상기 복강경 영상 내에서의 관심 영역이 추출되는 단계(S220 단계), 추출된 관심 영역의 시간의 흐름에 따른 변화로부터 현재의 수술 상황이 판단되는 단계(S230 단계) 및 상기 판단된 수술 상황에 대응하는 소정의 동작이 수행되는 단계(S240 단계)를 포함한다.
그리고, 상기 생성된 이미지 정보로부터 상기 복강경 영상 내에서의 관심 영역이 추출되는 단계(S220 단계)는, 상기 생성된 이미지 정보가 리사이즈(resize) 되고 경계 영역이 절단되는 단계(S220b 단계), 상기 이미지 정보에 대해 히스토그램 평탄화가 수행되는 단계(S220c 단계), 상기 히스토그램 평탄화가 수행된 이미지 정보에 Mutually inclusive RGB thresholding이 수행되는 단계(S220d 단계), 상기 Mutually inclusive RGB thresholding이 수행된 이미지 정보에 캐니 에지 필터가 적용되는 단계(S220e 단계), 상기 캐니 에지 필터가 적용된 이미지 정보에 엔트로피 필터가 적용되는 단계(S220f 단계), 상기 엔트로피 필터가 적용된 이미지 정보에서 배경이 제거되는 단계(S220g 단계), 상기 배경이 제거된 이미지 정보에서 출혈 영역이 추출되는 단계(S220h 단계), 상기 이미지 정보에서 상기 추출된 출혈 영역의 내부를 채우는 단계(S220i 단계), 상기 출혈 영역의 내부가 채워진 상기 이미지 정보에서 상기 출혈 영역의 경계가 추출되는 단계(S220j 단계), 원본 이미지 정보에 상기 추출된 출혈 영역의 경계가 오버랩되어 디스플레이되는 단계(S220k 단계), 추출된 출혈 영역의 중심점이 추출되는 단계(S220l 단계)를 포함한다. 이를 더욱 상세히 설명하면 다음과 같다.
먼저, 도 9a에 도시된 바와 같은 원본 이미지 정보는, 도 9b에 도시된 바와 같이 크기가 재조정되며(resize), 경계 영역이 절단(S220b 단계)된다.
다음으로, 상기 이미지 정보에 대해 히스토그램 평탄화가 수행(S220c 단계)된다. 상세히, 이미지 정보의 색상 정보를 분석하기 위한 전처리 단계로서 RGB 히스토그램의 평탄화(Histogram equalization)가 수행되며, 여기서, RGB 히스토그램 평탄화란, 영상의 명도 히스토그램(intensity histogram)을 R,G,B 공간(space) 각각에 대해 0~255로 넓게 펴주어 콘트라스트(contrast)가 심하게 나타나도록 하는 처리를 의미한다. 이와 같이, RGB 히스토그램의 평탄화가 수행된 이미지 정보가 도 9c에 도시되어 있다.
다음으로, 상기 히스토그램 평탄화가 수행된 이미지 정보에 Mutually inclusive RGB thresholding이 수행(S220d 단계)된다. 상세히, Mutually inclusive RGB thresholding이란, R,G,B의 각각의 공간(space) 상에서 소정의 임계값(threshold)을 부여하여 이진화를 수행한 후, 이진화가 수행된 R,G,B 공간들의 교집합을 계산하여, 같은 값을 갖는 영역만을 출력하는 처리를 의미한다. 즉, 도 10a는 RGB 히스토그램의 평탄화가 수행된 도 9c의 영상을 R 공간상에서 소정의 임계값(threshold)을 부여하여 이진화를 수행한 화면을 나타내고, 도 10b는 RGB 히스토그램의 평탄화가 수행된 도 9c의 영상을 G 공간상에서 소정의 임계값(threshold)을 부여하여 이진화를 수행한 화면을 나타내고, 도 10c는 RGB 히스토그램의 평탄화가 수행된 도 9c의 영상을 G 공간상에서 소정의 임계값(threshold)을 부여하여 이진화를 수행한 화면을 나타낸다. 그리고, 도 10d(및 도 9d)는 도 10a와 도 10b와 도 10c의 교집합 영역을 추출한 화면을 나타낸다.
다음으로, 도 9e에 도시된 바와 같이, 상기 Mutually inclusive RGB thresholding이 수행된 이미지 정보에 캐니 에지 필터가 적용(S220e 단계)되어, 출혈 영역의 테두리를 개략적으로 검출한다. 여기서, 캐니 에지 필터(Canny edge filter)란, 최적의 에지 검출(edge detection) 기법의 일 예로써, 경사 강도가 큰 부분을 구하여 에지(edge)를 검출하는 필터를 말한다.
다음으로, 도 9f에 도시된 바와 같이, 상기 캐니 에지 필터가 적용된 이미지 정보에 엔트로피 필터가 적용(S220f 단계) 되어, 출혈 영역의 테두리를 부드럽게 연결한다. 여기서, 엔트로피 필터(Entropy filter)는 영상을 부드럽게(smoothing) 하는 기법의 일 예로써, 화소마다 그 화소의 값을 주변 일정 영역 (예를 들어 그 화소를 중심으로 이를 둘러싼 9화소 x 9화소 영역)의 엔트로피 값으로 대치함으로써, 일부러 초점을 흐리게 한 듯한 효과를 내는 필터를 의미한다.
다음으로, 도 9g에 도시된 바와 같이, 상기 엔트로피 필터가 적용된 이미지 정보에서 배경이 제거(S220g 단계)된다. 여기서, 배경이 제거되기 위해 이진 에지 검출(Binary edge detection) 방법이 적용될 수 있다. 이진 에지 검출이란, 흑백화 된 영상에서 에지(edge)가 검출된 부분을 기반으로 영상에 소정의 임계값(threshold)을 적용하여 small island(즉, 잡음)을 제거하는 방법을 의미한다. 즉, 캐니 에지 필터를 적용한 결과와 엔트로피 필터를 적용한 결과를 조합하여, 이진 에지 검출(Binary edge detection) 방법을 적용함으로써, 경계 부분이 단절되지 않고 정확하게 검출될 수 있는 것이다.
이와 같이 캐니 에지 필터(Canny edge filter), 엔트로피 필터(Entropy filter)와 이진 에지 검출(Binary edge detection) 방법을 적용함으로써, 보다 안정적으로 출혈 영역의 경계를 검출하는 효과를 얻을 수 있다.
다음으로, 도 9h에 도시된 바와 같이 상기 배경이 제거된 이미지 정보에서 출혈 영역이 추출(S220h 단계)된 후, 도 9i에 도시된 바와 같이 상기 이미지 정보에서 상기 추출된 출혈 영역의 내부가 채워진다(S220i 단계). 그리고나서 도 9j에 도시된 바와 같이, 상기 출혈 영역의 내부가 채워진 상기 이미지 정보에서 상기 출혈 영역의 경계가 추출(S220j 단계)되는 것이다.
이와 같이 추출된 출혈 영역의 경계(B)는, 도 9k에 도시된 바와 같이 원본 이미지 정보에 오버랩되어 디스플레이(S220k 단계)될 수 있다. 그리고, 추출된 출혈 영역의 기하학적 중심점을 추출(S220l 단계) 하여, 추출된 출혈 영역의 대표 좌표로 상정한다.
도 11a 내지 도 11c는 본 발명의 일 비교예에 따른 수술 로봇 시스템의 제어 방법에 의해 추출된 출혈 영역을 나타내는 도면이다. 도 11a 내지 도 11c를 참조하면, 본 발명의 일 비교예에 따른 수술 로봇 시스템의 제어 방법에 의해 추출된 출혈 영역의 경우, 실제 출혈 영역보다 크거나(도 11a의 C1), 실제 출혈 영역보다 작거나(도 11b의 C2), 또는 실제 출혈 영역 외에 수술 도구와 장기까지 포함하는 것을 볼 수 있다(도 11c의 C3).
이에 비해, 도 12a 내지 도 12d는 본 발명의 일 실시예에 따른 수술 로봇 시스템의 제어 방법에 의해 추출된 출혈 영역을 나타내는 도면이다. 도 12a 내지 도 12d를 참조하면, 본 발명의 일 실시예에 따른 수술 로봇 시스템의 제어 방법에 의해 추출된 출혈 영역의 경우, 실제 출혈 영역과 완전히 동일함을 알 수 있으며(도 12a의 D1, 도 12b의 D2, 도 12c의 D3), 복강경 영상 내에 출혈 영역이 없을 경우, 출혈 영역을 추출하지 아니함을 볼 수 있다(도 12d).
다음으로, 추출된 관심 영역의 시간의 흐름에 따른 변화로부터 현재의 수술 상황이 판단(S230 단계)된다.
상세히, 수술 로봇 시스템을 이용하여 수술을 진행하는 도중 출혈이 발생할 경우, 이와 같은 출혈이 발생한 장소가 어디인지, 출혈이 일시적으로 발생하였는지 아니면 지속적으로 발생하는지, 출혈량이 증가하는지 또는 감소하는지 여부 등은 수술의 진행에 큰 영향을 줄 수 있다. 그러므로, 이와 같은 출혈의 양상을 파악하는 것이 매우 중요할 수 있다. 따라서, 본 발명에서는 시간의 흐름에 따른 상기 출혈 영역의 변화로부터 출혈의 양상을 파악하여, 이를 사용자에게 전달하는 것을 일 특징으로 한다.
추출된 관심 영역의 시간의 흐름에 따른 변화로부터 현재의 수술 상황을 판단하는 방법은 크게 두 가지로 구분할 수 있다.
이중 첫 번째 방법은 템플릿 매칭(template matching) 방법이다.
기본적인 템플릿 매칭(template matching)은, 형태 지각을 기본 개념으로 한 것으로, 어느 한 시점의 제1 영상에서 추출한 제1 영역을 다른 시점의 제2 영상의 다수 개의 영역과 차례로 비교하여, 두 대상 간의 픽셀 값의 차이가 제일 작은 위치를 찾는 방법을 의미한다. 즉, 제1 영역을 제2 영상 전체에 대해 이동시키면서 비교하는 방법을 의미한다. 다만, 이 방법은 제2 영상 전체에 제1 영역을 비교해야 하므로, 처리속도가 느리고, 계산량이 많다는 단점이 존재한다.
이와 같은 단점을 해결하기 위해 개량된 템플릿 매칭(template matching)의 한 종류인 SSD(Sum of Squared Difference)는 일종의 블록 매칭 기법으로, 제1 영상의 제1 영역과 제2 영상의 차이에 대해 오차를 계산하고, 오차가 제일 작은 값을 가지는 영역을 찾는 방법이다. SSD는 고속 푸리에 변환(Fast Fourier Transform) 기반에서의 블록 매칭을 사용하며, 오차가 가장 작은 부분이 가장 유사한 영역이라 예상한다는 가정에서 출발한다. 기본적인 템플릿 매칭(template matching) 기법에 대비한 SSD의 장점은, 기본 화소(pixel)의 명도(intensity) 뿐만이 아닌 상 요소(phase component)로 계산을 하기 때문에, 명도(intensity) 및 외부 환경에 대해 덜 민감하다는 것이다. 다만, 이 방법은 조명(Illumination) 및 영상 빛에 대해 높은 변화율이 있다는 문제점이 존재한다.
이와 같은 단점을 해결하기 위해 제안된 방안이 NCC(Normalized Cross Correlation)이다. 이는 제1 영상의 제1 영역과 제2 영상의 밝기의 선형적인 차이와 독립적으로 제1 영상의 제1 영역과 제2 영상 간의 기하학적인 유사도를 측정하는 방법을 의미한다.(SSD를 전개하면 NCC의 Formula가 도출됨) NCC를 사용하여, 제1 영상의 제1 영역과 제2 영상을 비교하는 중에, NCC 값이 가장 큰 위치를 출력하면 제2 영상 내에서 제1 영상의 제1 영역의 이미지 위치를 찾을 수 있다. 고속 푸리에 변환(Fast Fourier Transform) 기반 NCC(Normalized Cross Correlation)의 장점은, 조명등과 같은 주위 환경에 의한 영향이 비교되기 전의 정규화 과정으로 주위환경에 영향을 덜 받으며, 계산량이 적고 빠르며, 이미지 크기가 클수록 빠르다는 것이다.
한편, 두 번째 방법은 연합형 칼만 필터(Federated Kalman filter)를 적용하는 방법이다. 상술한 바와 같이, 칼만 필터(Kalman Filter)란 저장된 위치를 사용하여 통계적으로 그 다음의 위치를 예측하는 방법이다. 여기서 발전하여, 연합형 칼만 필터(Federated Kalman Filter)란, 서브(Sub) 칼만 필터와 메인(Main) 칼만 필터가 존재함으로써, 서브(Sub) 칼만 필터에서 사용되는 센서 자체의 값들의 노이즈를 제거하고, 출력된 여러 센서의 위치에 또다시 메인(Main) 칼만 필터를 적용해 줌으로써 더욱 더 정확한 위치를 예측할 수 있는 방법을 의미한다.
나아가, 상기 두 가지 방법을 병용하는 것도 가능하다 할 것이다. 즉, 템플릿 매칭(template matching) 방법을 통해 특정 영역의 중심값의 이동이 검출되었을 때, 연합형 칼만 필터(Federated Kalman filter)를 적용하여 검출된 중심값과 실제 중심값 사이에 발생하는 오차를 보정하는 것이다.
이와 같은 방법들을 사용하여, 추출된 관심 영역의 시간의 흐름에 따른 변화로부터 현재의 수술 상황이 판단된다. 즉, 출혈이 시작되는지, 계속 출혈량이 증가하는지, 출혈이 증가하다가 어느 정도로 유지되는지, 또는 출혈이 중단되었는지 등의 상황을, 영상으로부터 추출된 출혈 영역의 시간적/공간적 변화를 분석함으로써 파악할 수 있는 것이다.
마지막으로, 상기 판단된 수술 상황에 대응하는 소정의 동작이 수행(S240 단계)된다. 상세히, 소정의 동작은 사용자에게 소정의 알람(alarm) 메시지를 발산하는 동작일 수 있다. 즉, 출혈이 시작되었거나, 출혈량이 증가하고 있는 등의 위험 상황이 발생하였다고 판단될 경우, 사용자에게 시각 또는 청각 정보 등을 통해 알람(alarm) 메시지를 전달할 수 있다. 더불어, 출혈의 근원을 확인하기 위해 출혈 (의심) 영역의 하부 또는 근위부의 의학 영상 정보를 복강경 영상에 더하여 제공할 수도 있다.
이와 같은 본 발명에 의해서, 출혈의 발생 여부 및 출혈의 발생 위치를 신속하게 파악할 수 있게 됨으로써, 수술시의 비상 상황 발생에 대한 신속한 대처가 가능하게 되어, 수술 중 안전성을 향상시킬 수 있다.
다음으로, 복강경 화면상의 연기 발생 영역의 검출 및 제어와 관련된 본 발명의 제3 실시예에 대해서 설명한다. 도 13은 도 4의 수술 로봇 시스템의 제어 방법의 제3 실시예를 나타내는 흐름도이다. 그리고, 도 14a 및 도 14b는 연기가 발생했을 때의 복강경 영상 및 이에 대한 H 히스토그램이고, 도 15a 및 도 15b는 연기가 발생하지 않았을 때의 복강경 영상 및 이에 대한 H 히스토그램이다. 한편, 도 16a 및 도 16b는 연기가 발생했을 때의 복강경 영상 및 이에 대한 S 히스토그램이고, 도 17a 및 도 17b는 연기가 발생하지 않았을 때의 복강경 영상 및 이에 대한 S 히스토그램이다.
도 13등을 참조하면, 본 발명의 수술 로봇 시스템의 제어 방법의 제3 실시예는, 복강경 영상으로부터 이미지 정보가 생성되는 단계(S310 단계), 상기 생성된 이미지 정보로부터 상기 복강경 영상 내에서의 관심 영역이 추출되는 단계(S320 단계), 연기의 발생, 유지, 증가, 감소 및 소멸 여부가 판단되는 단계(S330 단계) 및 상기 판단된 수술 상황에 대응하는 알람 및/또는 가스 배출을 위한 제어 신호가 발생하는 단계(S340 단계)를 포함한다.
그리고, 상기 생성된 이미지 정보로부터 상기 복강경 영상 내에서의 관심 영역이 추출되는 단계(S320 단계)는, RGB 이미지 정보를 HSV 이미지 정보로 변환하는 단계(S321 단계), H 히스토그램 분석을 통한 연기 발생 상황 여부 판단 단계(S322 단계), S 히스토그램 분석을 통한 연기 발생 상황 여부 판단 단계(S323 단계) 및 H 히스토그램 분석과 S 히스토그램 분석 결과를 조합하여 연기 발생 상황 여부를 판단하는 단계(S324 단계)를 포함한다. 이를 더욱 상세히 설명하면 다음과 같다.
먼저, RGB 이미지 정보를 HSV 이미지 정보로 변환(S321 단계)한다. 상세히, 복강경 화면상에서 연기(smoke)의 검출을 위해서는 RGB 이미지 데이터를 HSV 이미지 데이터로 변환해야 한다. 상술한 바와 같이, R은 빨간색(Red), G는 초록색(Green) 및 B는 파란색(Blue)을 수치화하여 나타낸 것이다. 그리고, H는 색상(Hue), S는 채도(Saturation), V는 명도(Value, Brightness)를 표현하는 것으로, HSV 값은 RGB 값이 0 내지 1 사이의 값을 가질 때, 상기 RGB 값으로부터 다음의 수학식 1에 의하여 연산될 수 있다.
Figure pat00001
Figure pat00002
Figure pat00003
다음으로, H 히스토그램 분석을 통해 연기 발생 상황 여부를 판단(S322 단계)한다. 다시 말하면, H 히스토그램 분포에서 특정 구간의 H에 대한 도수가 미리 정한 임계값(threshold)보다 높거나, 이미지 데이터의 전체 또는 일부 관심영역의 H값의 (가중)평균이 미리 정한 임계값(threshold)보다 높으면 연기 발생 상황으로, 그렇지 않으면 연기가 발생하지 않은 상황으로 판단하는 것이다.
상세히, 도 14a 및 도 14b는 연기가 발생했을 때의 복강경 영상 및 이에 대한 H 히스토그램이고, 도 15a 및 도 15b는 연기가 발생하지 않았을 때의 복강경 영상 및 이에 대한 H 히스토그램이다. 도 14a 및 도 14b를 참조하면, 연기가 발생했을 때의 H 히스토그램의 우측의 H1 영역에는 다수의 히스토그램 값들이 분포하고 있음을 알 수 있다. 반면, 도 15a 및 도 15b를 참조하면, 연기가 발생하지 않았을 때의 H 히스토그램의 우측의 H2 영역에는 히스토그램 값들이 거의 분포하고 있지 않음을 알 수 있다. 이로부터, 복강경 영상의 HSV 이미지 정보로부터 H 히스토그램을 추출하였을 때, H 히스토그램의 우측 영역에 다수의 히스토그램 값들이 분포하고 있으면 연기가 발생한 것으로 판단할 수 있고, H 히스토그램의 우측 영역에 히스토그램 값들이 거의 분포하고 있지 않으면 연기가 발생하지 않은 것으로 판단할 수 있다.
다음으로, S 히스토그램 분석을 통해 연기 발생 상황 여부를 판단(S323 단계)한다. 다시 말하면, S 히스토그램 분포에서, 특정 구간의 S에 대한 도수가 미리 정한 임계값(threshold)보다 낮거나, 이미지 데이터의 전체 또는 일부 관심 영역의 S값의 (가중)평균이 미리 정한 임계값(threshold)보다 낮으면 연기 발생 상황으로, 그렇지 않으면 연기가 발생하지 않은 상황으로 판단하는 것이다.
상세히, 도 16a 및 도 16b는 연기가 발생했을 때의 복강경 영상 및 이에 대한 S 히스토그램이고, 도 17a 및 도 17b는 연기가 발생하지 않았을 때의 복강경 영상 및 이에 대한 S 히스토그램이다. 도 16a 및 도 16b를 참조하면, 연기가 발생했을 때의 S 히스토그램의 우측의 S1 영역에는 히스토그램 값들이 거의 분포하고 있지 않음을 알 수 있다. 반면, 도 17a 및 도 17b를 참조하면, 연기가 발생하지 않았을 때의 S 히스토그램의 우측의 S2 영역에는 다수의 히스토그램 값들이 분포하고 있음을 알 수 있다. 이로부터, 복강경 영상의 HSV 이미지 정보로부터 S 히스토그램을 추출하였을 때, S 히스토그램의 우측 영역에 다수의 히스토그램 값들이 분포하고 있으면 연기가 발생하지 않은 것으로 판단할 수 있고, S 히스토그램의 우측 영역에 히스토그램 값들이 거의 분포하고 있지 않으면 연기가 발생한 것으로 판단할 수 있다.
다음으로, H 히스토그램 분석과 S 히스토그램 분석 결과를 조합하여 최종적으로 연기 발생 상황 여부를 판단(S324 단계)한다. 즉, 안정적으로 연기 발생 상황 을 판단하기 위해, 위 두 항목이 모두 만족될 때를 연기 발생 상황으로 최종 판단하는 것이다.
상세히, 도 18a, 도 18b 및 도 18c는 실제로 연기가 발생하지 않았을 때의 복강경 영상, 이에 대한 H 히스토그램 및 S 히스토그램이다. 도 19a, 도 19b 및 도 19c는 실제로 연기가 발생했을 때의 복강경 영상, 이에 대한 H 히스토그램 및 S 히스토그램이다. 도 20a, 도 20b 및 도 20c는 실제로 연기가 발생하지 않았을 때의 복강경 영상과, 이에 대한 H 히스토그램 및 S 히스토그램이다.
도 18a, 도 18b 및 도 18c를 참조하면, 실제로 연기가 발생하지 않았을 때의 복강경 영상을 HSV 이미지 정보로 변환하여, H 히스토그램 및 S 히스토그램을 추출하였다. 먼저, 도 18b에 도시된 H 히스토그램을 보면, H 히스토그램의 우측의 H3 영역에는 히스토그램 값들이 거의 분포하고 있지 않고 있음을 알 수 있으며, 이로부터 현재 상황이 연기가 발생하지 않은 상황이라고 판단할 수 있다. 한편, 도 18c에 도시된 S 히스토그램을 보면, S 히스토그램의 우측의 S3 영역에는 다수의 히스토그램 값들이 분포하고 있음을 알 수 있으며, 이로부터 현재 상황이 연기가 발생하지 않은 상황이라고 판단할 수 있다. 그리고, 이와 같이 H 히스토그램의 분석 결과와 S 히스토그램의 분석 결과가 일치하므로, 현재 상황은 연기가 발생하지 않은 상황이라고 최종적으로 판단할 수 있는 것이다.
한편, 도 19a, 도 19b 및 도 19c를 참조하면, 실제로 연기가 발생했을 때의 복강경 영상을 HSV 이미지 정보로 변환하여, H 히스토그램 및 S 히스토그램을 추출하였다. 먼저, 도 19b에 도시된 H 히스토그램을 보면, H 히스토그램의 우측의 H4 영역에는 다수의 히스토그램 값들이 분포하고 있음을 알 수 있으며, 이로부터 현재 상황이 연기가 발생하고 있는 상황이라고 판단할 수 있다. 한편, 도 19c에 도시된 S 히스토그램을 보면, S 히스토그램의 우측의 S4 영역에는 히스토그램 값들이 분포하고 있지 않음을 알 수 있으며, 이로부터 현재 상황이 연기가 발생하고 있는 상황이라고 판단할 수 있다. 그리고, 이와 같이 H 히스토그램의 분석 결과와 S 히스토그램의 분석 결과가 일치하므로, 현재 상황은 연기가 발생하고 있는 상황이라고 최종적으로 판단할 수 있는 것이다.
한편, 도 20a, 도 20b 및 도 20c를 참조하면, 실제로 연기가 발생하지 않았을 때의 복강경 영상을 HSV 이미지 정보로 변환하여, H 히스토그램 및 S 히스토그램을 추출하였다. 먼저, 도 20b에 도시된 H 히스토그램을 보면, H 히스토그램의 우측의 H5 영역에는 다수의 히스토그램 값들이 분포하고 있음을 알 수 있으며, 이로부터 현재 상황이 연기가 발생하고 있는 상황이라고 판단할 수 있다. 반면, 도 20c에 도시된 S 히스토그램을 보면, S 히스토그램의 우측의 S5 영역에는 다수의 히스토그램 값들이 분포하고 있음을 알 수 있으며, 이로부터 현재 상황이 연기가 발생하지 않고 있는 상황이라고 판단할 수 있다. 그리고, 이와 같이 H 히스토그램의 분석 결과와 S 히스토그램의 분석 결과가 일치하지 않을 경우, 현재 상황은 연기가 발생하고 있지 않은 상황이라고 최종적으로 판단할 수 있는 것이다. 즉, H 히스토그램의 분석 결과와 S 히스토그램의 분석 결과가 모두 연기 발생 상황인 것으로 나올 때에만, 최종적으로 연기가 발생하고 있는 상황이라고 판단할 수 있는 것이다.
이와 같은 본 발명에 의해서, 더욱 안정적으로 연기 발생 상황을 판단할 수 있게 되는 것이다.
다음으로, 연기의 발생, 유지, 증가, 감소 및 소멸 여부가 판단(S330 단계)된다. 즉, 영상 정보의 히스토그램 분포로부터 얻어진 정보의 시간적/공간적 변화를 바탕으로 연기가 발생했는지, 연기가 지속되고 있는지, 또는 연기가 감소하고 있는지 등의 상황 정보를 파악할 수 있는 것이다.
마지막으로, 상기 판단된 수술 상황에 대응하는 알람 및/또는 가스 배출을 위한 제어 신호가 발생(S340 단계)한다. 즉, 연기 발생이 시작되었거나, 연기가 증가하고 있는 등의 위험 상황이 발생하였다고 판단될 경우, 사용자에게 시각 또는 청각 정보 등을 통해 알람(alarm) 메시지를 전달할 수 있다. 더불어, 가스 배출을 위한 제어 신호를 제어부에 전달하여, 가스 배출 기기가 작동되도록 할 수도 있다.
본 명세서에서는 본 발명을 한정된 실시예를 중심으로 설명하였으나, 본 발명의 범위 내에서 다양한 실시예가 가능하다. 또한 설명되지는 않았으나, 균등한 수단도 또한 본 발명에 그대로 결합되는 것이라 할 것이다. 따라서 본 발명의 진정한 보호범위는 아래의 특허청구범위에 의하여 정해져야 할 것이다.
1: 수술 로봇 시스템 100: 마스터 로봇
110: 조작 레버 120: 디스플레이 부재
200: 슬레이브 로봇 210: 로봇 암
220: 복강경

Claims (31)

  1. 복강경 영상으로부터, 상기 복강경 영상의 픽셀 정보를 표현하는 RGB 값 또는 HSV 값 중 적어도 하나를 포함하는 이미지 정보가 생성되는 단계;
    상기 생성된 이미지 정보로부터 상기 복강경 영상 내에서의 관심 영역이 추출되는 단계;
    상기 추출된 관심 영역의 시간의 흐름에 따른 변화로부터 현재의 수술 상황이 판단되는 단계; 및
    상기 판단된 수술 상황에 대응하는 소정의 동작이 수행되는 단계;를 포함하는 수술 로봇 시스템의 제어 방법.
  2. 제 1 항에 있어서,
    상기 관심 영역은 상기 복강경 영상 내에서 수술 도구가 위치하는 수술 도구 영역인 것을 특징으로 하는 수술 로봇 시스템의 제어 방법.
  3. 제 2 항에 있어서,
    상기 생성된 이미지 정보로부터 상기 복강경 영상 내에서의 관심 영역이 추출되는 단계는,
    상기 생성된 이미지 정보에 K-평균 군집화 방법(K-means clustering method)을 적용하여, 상기 이미지 정보를 유사한 명도를 갖는 복수 개의 영역으로 그루핑을 수행하는 단계; 및
    상기 K-평균 군집화 방법(K-means clustering method)을 통해 구해진 그룹 중 수술 도구 그룹만을 남겨둔 후 이를 이진화(Binarization)하는 단계;를 포함하는 수술 로봇 시스템의 제어 방법.
  4. 제 3 항에 있어서,
    상기 이진화 단계 이후,
    상기 이진화를 수행한 이미지 정보에 칼만 필터(Kalman filter)를 적용하여, 상기 이진화를 수행한 이미지 정보에 대한 일시적 오류를 제거하는 단계를 더 포함하는 수술 로봇 시스템의 제어 방법.
  5. 제 2 항에 있어서,
    상기 추출된 관심 영역의 시간의 흐름에 따른 변화로부터 현재의 수술 상황이 판단되는 단계는,
    상기 추출된 수술 도구 영역이 기 설정된 소정의 제한 영역을 침범하는지 여부가 판단되는 단계인 것을 특징으로 하는 수술 로봇 시스템의 제어 방법.
  6. 제 5 항에 있어서,
    상기 기 설정된 소정의 제한 영역은 피시술자의 혈관, 조직, 장기 중 하나 이상을 포함하는 것을 특징으로 하는 수술 로봇 시스템의 제어 방법.
  7. 제 5 항에 있어서,
    상기 수술 도구 영역이 상기 기 설정된 소정의 제한 영역과 소정의 거리 이내로 근접하는지 여부 또는, 상기 수술 도구 영역이 상기 기 설정된 소정의 제한 영역과 접촉하는지 여부 또는, 상기 수술 도구 영역이 상기 기 설정된 소정의 제한 영역 내부로 인입되는지 여부가 판단되는 것을 특징으로 하는 수술 로봇 시스템의 제어 방법.
  8. 제 2 항에 있어서,
    상기 판단된 수술 상황에 대응하는 소정의 동작이 수행되는 단계는,
    시각 또는 청각 정보 등을 통한 알람(alarm) 메시지가 발산되는 것을 특징으로 하는 수술 로봇 시스템의 제어 방법.
  9. 제 2 항에 있어서,
    상기 판단된 수술 상황에 대응하는 소정의 동작이 수행되는 단계는,
    사용자 조작부의 조작에 대해, 상기 수술 도구에서 감지된 반력을 일정 정도 변형 또는 증강시킨 소정의 반력을 가하는 포스 피드백(force feedback) 기능이 수행되는 것을 특징으로 하는 수술 로봇 시스템의 제어 방법.
  10. 제 1 항에 있어서,
    상기 관심 영역은 상기 복강경 영상 내에서 출혈이 발생한 출혈 영역인 것을 특징으로 하는 수술 로봇 시스템의 제어 방법.
  11. 제 10 항에 있어서,
    상기 생성된 이미지 정보로부터 상기 복강경 영상 내에서의 관심 영역이 추출되는 단계는,
    상기 이미지 정보에 대해 히스토그램 평탄화가 수행되는 단계; 및
    상기 히스토그램 평탄화가 수행된 이미지 정보에 Mutually inclusive RGB thresholding이 수행되는 단계;를 포함하는 수술 로봇 시스템의 제어 방법.
  12. 제 11 항에 있어서,
    상기 Mutually inclusive RGB thresholding은, R,G,B의 각각의 공간(space) 상에서 소정의 임계값(threshold)을 부여하여 이진화를 수행한 후, 상기 이진화가 수행된 R,G,B 공간들의 교집합을 계산하여, 같은 값을 갖는 영역만을 출력하는 것을 특징으로 하는 수술 로봇 시스템의 제어 방법.
  13. 제 11 항에 있어서,
    상기 Mutually inclusive RGB thresholding이 수행되는 단계 이후,
    상기 Mutually inclusive RGB thresholding이 수행된 이미지 정보에 캐니 에지 필터(Canny edge filter)가 적용되어 출혈 영역의 테두리가 검출되는 단계; 및
    상기 캐니 에지 필터가 적용된 이미지 정보에 엔트로피 필터(Entropy filter)가 적용되어 상기 이미지 정보를 부드럽게(smoothing) 처리하는 단계(S220f 단계)를 더 포함하는 특징으로 하는 수술 로봇 시스템의 제어 방법.
  14. 제 13 항에 있어서,
    상기 엔트로피 필터(Entropy filter)가 적용는 단계 이후,
    상기 엔트로피 필터가 적용된 이미지 정보에서 상기 테두리가 검출된 부분을 기반으로 상기 이미지 정보에 소정의 임계값(threshold)을 적용하여 잡음을 제거하는 이진 에지 검출(Binary edge detection) 단계를 더 포함하는 수술 로봇 시스템의 제어 방법.
  15. 제 10 항에 있어서,
    상기 추출된 관심 영역의 시간의 흐름에 따른 변화로부터 현재의 수술 상황이 판단되는 단계는,
    상기 출혈 영역이 새롭게 추출되었는지 여부, 또는 상기 추출된 출혈 영역의 면적이 증가 또는 감소하는지 여부, 또는 상기 출혈 영역이 소멸되었는지 여부가 판단되는 것을 특징으로 하는 수술 로봇 시스템의 제어 방법.
  16. 제 10 항에 있어서,
    상기 추출된 관심 영역의 시간의 흐름에 따른 변화로부터 현재의 수술 상황이 판단되는 단계는,
    어느 한 시점의 제1 영상에서 추출한 제1 영역을 다른 시점의 제2 영상의 다수 개의 영역과 차례로 비교하여, 두 대상 간의 픽셀 값의 차이가 제일 작은 위치를 찾는 템플릿 매칭(template matching)에 의해 수행되는 것을 특징으로 하는 수술 로봇 시스템의 제어 방법.
  17. 제 10 항에 있어서,
    상기 추출된 관심 영역의 시간의 흐름에 따른 변화로부터 현재의 수술 상황이 판단되는 단계는,
    서브(Sub) 칼만 필터에서 사용되는 센서 자체의 값들의 노이즈를 제거하고, 출력된 여러 센서의 위치에 또다시 메인(Main) 칼만 필터를 적용한 연합형 칼만 필터(Federated Kalman filter)를 적용하여 수행되는 것을 특징으로 하는 수술 로봇 시스템의 제어 방법.
  18. 제 10 항에 있어서,
    상기 판단된 수술 상황에 대응하는 소정의 동작이 수행되는 단계는,
    시각 또는 청각 정보 등을 통한 알람(alarm) 메시지가 발산되는 것을 특징으로 하는 수술 로봇 시스템의 제어 방법.
  19. 제 1 항에 있어서,
    상기 관심 영역은 상기 복강경 영상 내에서 연기(smoke)가 발생한 연기 발생 영역인 것을 특징으로 하는 수술 로봇 시스템의 제어 방법.
  20. 제 19 항에 있어서,
    상기 생성된 이미지 정보로부터 상기 복강경 영상 내에서의 관심 영역이 추출되는 단계는,
    RGB 이미지 정보를 HSV 이미지 정보로 변환하는 단계;
    상기 HSV 이미지 정보의 H 히스토그램 분석을 통해 연기 발생 상황 여부가 판단되는 단계;
    상기 HSV 이미지 정보의 S 히스토그램 분석을 통해 연기 발생 상황 여부가 판단되는 단계; 및
    상기 H 히스토그램 분석과 상기 S 히스토그램 분석 결과를 조합하여 연기 발생 상황 여부가 최종적으로 판단되는 단계;를 포함하는 수술 로봇 시스템의 제어 방법.
  21. 제 20 항에 있어서,
    상기 HSV 이미지 정보의 H 히스토그램 분석을 통해 연기 발생 상황 여부가 판단되는 단계는,
    H 히스토그램 분포에서 특정 구간의 H에 대한 도수가 소정의 임계값(threshold)보다 높으면 연기 발생 상황으로 판단하는 것을 특징으로 하는 수술 로봇 시스템의 제어 방법.
  22. 제 20 항에 있어서,
    상기 HSV 이미지 정보의 S 히스토그램 분석을 통해 연기 발생 상황 여부가 판단되는 단계는,
    S 히스토그램 분포에서 특정 구간의 S에 대한 도수가 소정의 임계값(threshold)보다 낮으면 연기 발생 상황으로 판단하는 것을 특징으로 하는 수술 로봇 시스템의 제어 방법.
  23. 제 20 항에 있어서,
    상기 H 히스토그램 분석과 상기 S 히스토그램 분석 결과를 조합하여 연기 발생 상황 여부가 최종적으로 판단되는 단계는,
    상기 HSV 이미지 정보의 H 히스토그램 분석을 통해 연기 발생 상황 여부가 판단되는 단계와 상기 HSV 이미지 정보의 S 히스토그램 분석을 통해 연기 발생 상황 여부가 판단되는 단계의 판단 결과가 모두 연기 발생 상황인 경우를 최종적인 연기 발생 상황으로 판단하는 것을 특징으로 하는 수술 로봇 시스템의 제어 방법.
  24. 제 19 항에 있어서,
    상기 추출된 관심 영역의 시간의 흐름에 따른 변화로부터 현재의 수술 상황이 판단되는 단계는,
    상기 연기 발생이 시작되었는지 여부, 또는 연기 발생이 지속 되는지 여부, 또는 연기가 소멸 되었는지 여부가 판단되는 것을 특징으로 하는 수술 로봇 시스템의 제어 방법.
  25. 제 19 항에 있어서,
    상기 판단된 수술 상황에 대응하는 소정의 동작이 수행되는 단계는,
    시각 또는 청각 정보 등을 통한 알람(alarm) 메시지가 발산되는 것을 특징으로 하는 수술 로봇 시스템의 제어 방법.
  26. 제 19 항에 있어서,
    상기 판단된 수술 상황에 대응하는 소정의 동작이 수행되는 단계는,
    가스 배출을 위한 제어 신호가 발생되는 것을 특징으로 하는 수술 로봇 시스템의 제어 방법.
  27. 제 2 항에 있어서,
    상기 수술 도구는 수술용 바늘 또는 수술용 스테플러를 포함하는 것을 특징으로 하는 수술 로봇 시스템의 제어 방법.
  28. 제 27 항에 있어서,
    상기 추출된 관심 영역의 시간의 흐름에 따른 변화로부터 현재의 수술 상황이 판단되는 단계는,
    상기 수술용 바늘 또는 수술용 스테플러가 고정된 소정의 위치로부터 이동되었는지 여부가 판단되는 것을 특징으로 하는 수술 로봇 시스템의 제어 방법.
  29. 제 28 항에 있어서,
    상기 판단된 수술 상황에 대응하는 소정의 동작이 수행되는 단계는,
    상기 수술용 바늘 또는 수술용 스테플러의 상기 이동 경로가 디스플레이되는 것을 특징으로 하는 수술 로봇 시스템의 제어 방법.
  30. 제 1 항 내지 제 29 항 중 어느 하나에 기재된 수술 로봇 시스템의 제어 방법을 수행하기 위하여 디지털 처리 장치에 의해 실행될 수 있는 명령어들의 프로그램이 유형적으로 구현되어 있으며 디지털 처리 장치에 의해 판독될 수 있는 프로그램을 기록한 기록매체.
  31. 수술 부위를 조영하는 수술용 내시경; 및
    다자유도를 가지며 구동하는 로봇 암;을 포함하는 슬레이브 로봇과,
    상기 수술용 내시경을 통해 촬영되는 영상을 디스플레이하는 디스플레이 부재; 및
    상기 수술용 내시경을 통해 촬영되는 복강경 영상으로부터 상기 복강경 영상의 픽셀 정보를 표현하는 RGB 값 또는 HSV 값 중 적어도 하나를 포함하는 이미지 정보를 생성하고, 상기 생성된 이미지 정보로부터 상기 복강경 영상 내에서의 관심 영역을 추출하고, 상기 추출된 관심 영역의 시간의 흐름에 따른 변화로부터 현재의 수술 상황을 판단하고, 상기 판단된 수술 상황에 대응하는 소정의 동작이 수행되도록 제어하는 수술상황 판단부;를 포함하는 마스터 로봇을 포함하는 수술 로봇 시스템.
KR1020110044676A 2011-05-12 2011-05-12 수술 상황 판단 및 대응을 위한 수술 로봇 시스템의 제어 방법과 이를 기록한 기록매체 및 수술 로봇 시스템 KR101795720B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110044676A KR101795720B1 (ko) 2011-05-12 2011-05-12 수술 상황 판단 및 대응을 위한 수술 로봇 시스템의 제어 방법과 이를 기록한 기록매체 및 수술 로봇 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110044676A KR101795720B1 (ko) 2011-05-12 2011-05-12 수술 상황 판단 및 대응을 위한 수술 로봇 시스템의 제어 방법과 이를 기록한 기록매체 및 수술 로봇 시스템

Publications (2)

Publication Number Publication Date
KR20120126679A true KR20120126679A (ko) 2012-11-21
KR101795720B1 KR101795720B1 (ko) 2017-11-09

Family

ID=47511957

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110044676A KR101795720B1 (ko) 2011-05-12 2011-05-12 수술 상황 판단 및 대응을 위한 수술 로봇 시스템의 제어 방법과 이를 기록한 기록매체 및 수술 로봇 시스템

Country Status (1)

Country Link
KR (1) KR101795720B1 (ko)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140109670A (ko) * 2013-03-06 2014-09-16 삼성전자주식회사 수술 로봇 시스템 및 그 제어방법
WO2014152694A1 (en) * 2013-03-14 2014-09-25 Curexo Technology Corporation Systems and methods for monitoring a surgical procedure with critical regions
WO2015005623A1 (ko) * 2013-07-08 2015-01-15 인하대학교 산학협력단 수술 영상의 실시간 시각적 노이즈 자동 제거 장치, 방법 및 시스템
WO2016159726A1 (ko) * 2015-04-01 2016-10-06 고려대학교 산학협력단 의료 영상으로부터 병변의 위치를 자동으로 감지하는 장치 및 그 방법
KR20170104553A (ko) * 2015-02-18 2017-09-15 소니 주식회사 해부학적 수술 동안 연기 검출을 위한 시스템 및 방법
KR101864411B1 (ko) * 2017-12-28 2018-06-04 (주)휴톰 수술보조 영상 표시방법 및 프로그램
KR101880246B1 (ko) * 2017-12-28 2018-07-19 (주)휴톰 수술영상 재생제어 방법, 장치 및 프로그램
WO2019132165A1 (ko) * 2017-12-28 2019-07-04 (주)휴톰 수술결과에 대한 피드백 제공방법 및 프로그램
KR20190080705A (ko) * 2018-05-23 2019-07-08 (주)휴톰 수술결과에 대한 피드백 제공방법 및 프로그램
KR20190080706A (ko) * 2018-05-29 2019-07-08 (주)휴톰 수술보조 영상 표시방법, 프로그램 및 수술보조 영상 표시장치
KR102014377B1 (ko) * 2018-02-20 2019-08-26 (주)휴톰 학습 기반 수술동작 인식 방법 및 장치
WO2019164278A1 (ko) * 2018-02-20 2019-08-29 (주)휴톰 수술영상을 이용한 수술정보 제공 방법 및 장치
WO2019164276A1 (ko) * 2018-02-20 2019-08-29 (주)휴톰 수술동작 인식 방법 및 장치
WO2019164279A1 (ko) * 2018-02-20 2019-08-29 (주)휴톰 수술영상의 인식도 평가 방법 및 장치
KR20190106628A (ko) * 2018-03-06 2019-09-18 (주)휴톰 수술영상 재생제어 방법, 장치 및 프로그램
WO2021206518A1 (ko) * 2020-04-10 2021-10-14 (주)휴톰 수술 후 수술과정 분석 방법 및 시스템

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022106990A1 (en) * 2020-11-20 2022-05-27 Auris Health, Inc. Ai-based triggering of automated actions

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2986403B2 (ja) * 1996-03-18 1999-12-06 鐘紡株式会社 病室内患者監視装置
JP3145342B2 (ja) 1997-10-09 2001-03-12 マルチメディアシステム事業協同組合 医療用画像データの処理装置

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140109670A (ko) * 2013-03-06 2014-09-16 삼성전자주식회사 수술 로봇 시스템 및 그 제어방법
WO2014152694A1 (en) * 2013-03-14 2014-09-25 Curexo Technology Corporation Systems and methods for monitoring a surgical procedure with critical regions
US9901356B2 (en) 2013-03-14 2018-02-27 Think Surgical, Inc. Systems and methods for monitoring a surgical procedure with critical regions
US10888337B2 (en) 2013-03-14 2021-01-12 Think Surgical, Inc. Systems and methods for monitoring a surgical procedure with critical regions
WO2015005623A1 (ko) * 2013-07-08 2015-01-15 인하대학교 산학협력단 수술 영상의 실시간 시각적 노이즈 자동 제거 장치, 방법 및 시스템
KR20170104553A (ko) * 2015-02-18 2017-09-15 소니 주식회사 해부학적 수술 동안 연기 검출을 위한 시스템 및 방법
WO2016159726A1 (ko) * 2015-04-01 2016-10-06 고려대학교 산학협력단 의료 영상으로부터 병변의 위치를 자동으로 감지하는 장치 및 그 방법
WO2019132165A1 (ko) * 2017-12-28 2019-07-04 (주)휴톰 수술결과에 대한 피드백 제공방법 및 프로그램
WO2019132169A1 (ko) * 2017-12-28 2019-07-04 (주)휴톰 수술영상 재생제어 방법, 장치 및 프로그램
WO2019132166A1 (ko) * 2017-12-28 2019-07-04 (주)휴톰 수술보조 영상 표시방법 및 프로그램
KR101880246B1 (ko) * 2017-12-28 2018-07-19 (주)휴톰 수술영상 재생제어 방법, 장치 및 프로그램
US11636940B2 (en) 2017-12-28 2023-04-25 Hutom Co., Ltd. Method and program for providing feedback on surgical outcome
KR101864411B1 (ko) * 2017-12-28 2018-06-04 (주)휴톰 수술보조 영상 표시방법 및 프로그램
WO2019164279A1 (ko) * 2018-02-20 2019-08-29 (주)휴톰 수술영상의 인식도 평가 방법 및 장치
KR102014385B1 (ko) * 2018-02-20 2019-08-26 (주)휴톰 수술영상 학습 및 학습 기반 수술동작 인식 방법 및 장치
WO2019164278A1 (ko) * 2018-02-20 2019-08-29 (주)휴톰 수술영상을 이용한 수술정보 제공 방법 및 장치
WO2019164276A1 (ko) * 2018-02-20 2019-08-29 (주)휴톰 수술동작 인식 방법 및 장치
KR102014377B1 (ko) * 2018-02-20 2019-08-26 (주)휴톰 학습 기반 수술동작 인식 방법 및 장치
KR20190106628A (ko) * 2018-03-06 2019-09-18 (주)휴톰 수술영상 재생제어 방법, 장치 및 프로그램
KR20190080705A (ko) * 2018-05-23 2019-07-08 (주)휴톰 수술결과에 대한 피드백 제공방법 및 프로그램
KR20190080706A (ko) * 2018-05-29 2019-07-08 (주)휴톰 수술보조 영상 표시방법, 프로그램 및 수술보조 영상 표시장치
WO2021206518A1 (ko) * 2020-04-10 2021-10-14 (주)휴톰 수술 후 수술과정 분석 방법 및 시스템

Also Published As

Publication number Publication date
KR101795720B1 (ko) 2017-11-09

Similar Documents

Publication Publication Date Title
KR101795720B1 (ko) 수술 상황 판단 및 대응을 위한 수술 로봇 시스템의 제어 방법과 이를 기록한 기록매체 및 수술 로봇 시스템
US11213361B2 (en) Robotic surgical systems with mechanisms for scaling surgical tool motion according to tissue proximity
US11471229B2 (en) Robotic surgical systems with selectively lockable end effectors
US20220336078A1 (en) System and method for tracking a portion of the user as a proxy for non-monitored instrument
US20200289205A1 (en) Robotic surgical systems with mechanisms for scaling camera magnification according to proximity of surgical tool to tissue
CA2831618A1 (en) Gesture operated control for medical information systems
US20140316252A1 (en) Marker and method of estimating surgical instrument pose using the same
JP2022186872A (ja) 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理装置の作動方法、及びプログラム
US11771518B2 (en) Method of graphically tagging and recalling identified structures under visualization for robotic surgery
US20220215539A1 (en) Composite medical imaging systems and methods
US20220117662A1 (en) Systems and methods for facilitating insertion of a surgical instrument into a surgical space
US9349048B2 (en) Method of tracking moving object, method of determining display state of moving object, and control apparatus for tracking moving object
KR101114232B1 (ko) 수술 로봇 시스템 및 그 동작 제한 방법
Chhatkuli et al. Live image parsing in uterine laparoscopy
KR101683057B1 (ko) 수술 로봇 시스템 및 그 동작 제한 방법
EP4216793A1 (en) Detecting, localizing, assessing, and visualizing bleeding in a surgical field
US20220409300A1 (en) Systems and methods for providing surgical assistance based on operational context
US11779412B2 (en) Robotically-assisted surgical device, robotically-assisted surgery method, and system
KR101715026B1 (ko) 수술 로봇 시스템 및 그 동작 제한 방법
US20230277035A1 (en) Anatomical scene visualization systems and methods
Vasilkovski Real-time solution for long-term tracking of soft tissue deformations in surgical robots
US20230225804A1 (en) Systems and methods for tag-based instrument control
KR20110059828A (ko) 수술용 영상 처리 장치 및 그 방법
Rahbar Visual Intelligence for Robotic and Laparoscopic Surgery: A Real-Time System for Bleeding Detection and Prediction
WO2024058965A1 (en) Determination of a contour physical distance within a subject based on a deformable three-dimensional model

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant