KR20210082688A - 증강 현실을 이용한 모의 수술 시스템 및 방법 - Google Patents

증강 현실을 이용한 모의 수술 시스템 및 방법 Download PDF

Info

Publication number
KR20210082688A
KR20210082688A KR1020190174879A KR20190174879A KR20210082688A KR 20210082688 A KR20210082688 A KR 20210082688A KR 1020190174879 A KR1020190174879 A KR 1020190174879A KR 20190174879 A KR20190174879 A KR 20190174879A KR 20210082688 A KR20210082688 A KR 20210082688A
Authority
KR
South Korea
Prior art keywords
image
module
augmented reality
signal
coordinates
Prior art date
Application number
KR1020190174879A
Other languages
English (en)
Other versions
KR102347471B1 (ko
Inventor
이원석
Original Assignee
(의료)길의료재단
가천대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (의료)길의료재단, 가천대학교 산학협력단 filed Critical (의료)길의료재단
Priority to KR1020190174879A priority Critical patent/KR102347471B1/ko
Publication of KR20210082688A publication Critical patent/KR20210082688A/ko
Application granted granted Critical
Publication of KR102347471B1 publication Critical patent/KR102347471B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • A61B2034/104Modelling the effect of the tool, e.g. the effect of an implanted prosthesis or for predicting the effect of ablation or burring
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/254User interfaces for surgical systems being adapted depending on the stage of the surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/256User interfaces for surgical systems having a database of accessory information, e.g. including context sensitive help or scientific articles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image

Landscapes

  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Robotics (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Processing Or Creating Images (AREA)

Abstract

증강 현실을 이용한 모의 수술 시스템을 제공한다. 본 출원의 실시예에 따른 모의 수술 시스템은 수술 대상 부위를 촬영하는 촬영부(110), 상기 촬영부(110)에 의해 촬영된 제1 영상(I1)에 포함된 복수의 장기 각각에 대해 그에 상응하는 명칭을 부여하는 명칭 부여 모듈(140), 상기 제1 영상(I1)에 상기 명칭 부여 모듈(140)에 의해 부여된 명칭이 표시된 제2 영상(I2)을 생성하는 제2 영상 생성 모듈(150), 상기 제2 영상(I2)을 출력하는 헤드셋(220), 상기 헤드셋(220)을 착용한 착용자의 움직임을 감지하여 상기 헤드셋(220)에 출력되는 제2 영상(I2)에 오브젝트(object)를 생성하는 오브젝트 생성 모듈(241) 및 상기 제2 영상(I2)에 생성된 오브젝트의 종류와 좌표를 감지하여 기 설정된 방법에 따라 신호를 생성하는 신호 생성 모듈(244)을 포함할 수 있다.

Description

증강 현실을 이용한 모의 수술 시스템 및 방법{Simulated Surgery System and Method using Augmented Reality}
본 출원은 증강 현실을 이용한 모의 수술 시스템 및 방법에 관한 것이다.
의학의 발전에 따라 과거에는 치료가 불가능했던 질병에 대해 외과적 수술 등의 수술 기법을 이용하여 치료가 가능하게 되었다.
이러한 외과 수술의 숙달을 위해서는 많은 임상 경험이 필요하나, 환자들은 간단한 수술이라도 숙련된 전문의에게 수술을 받기 희망하며, 경험이 적은 전공의들에게는 수술을 받기 꺼리는 경향이 있다.
수술 숙련도 향상을 위한 다양한 장치나 방법들이 제공된 바 있으나, 단순히 가상 현실에서 모의 수술 시뮬레이션을 수행하는 것 정도에 그치고 있어 그 효과가 떨어짐이 보고된 바 있다.
따라서, 실제 수술을 집도하는 느낌을 부여하면서도, 간편하게 모의 수술을 진행할 수 있는 시스템에 대한 필요성이 증가하고 있는 실정이다.
한국공개특허문헌 제10-2013-0128673호 (2013.11.27) 한국등록특허문헌 제10-1839891호 (2018.03.13)
본 출원은 헤드셋에서 출력되는 영상에 각 장기의 명칭이 나타나 교육 효과가 향상되며, 헤드셋 착용자의 움직임을 감지하여 술기 프로세스에 따라 모의 수술을 제대로 진행하고 있는지 판단까지도 가능한 모의 수술 시스템 및 방법을 제공하고자 한다.
상기와 같은 과제를 해결하기 위한 본 출원의 일 실시예는, 수술 대상 부위를 촬영하는 촬영부(110), 상기 촬영부(110)에 의해 촬영된 제1 영상(I1)에 포함된 복수의 장기 각각에 대해 그에 상응하는 명칭을 부여하는 명칭 부여 모듈(140), 상기 제1 영상(I1)에 상기 명칭 부여 모듈(140)에 의해 부여된 명칭이 표시된 제2 영상(I2)을 생성하는 제2 영상 생성 모듈(150), 상기 제2 영상(I2)을 출력하는 헤드셋(220), 상기 헤드셋(220)을 착용한 착용자의 움직임을 감지하여 상기 헤드셋(220)에 출력되는 제2 영상(I2)에 오브젝트(object)를 생성하는 오브젝트 생성 모듈(241), 및 상기 제2 영상(I2)에 생성된 오브젝트의 종류와 좌표를 감지하여 기 설정된 방법에 따라 신호를 생성하는 신호 생성 모듈(244)을 포함하는, 증강 현실을 이용한 모의 수술 시스템을 제공한다.
일 실시예에 있어서, 상기 착용자의 양 손에 파지되며 복수의 센서(S)가 구비된 모션 검출기(230) 및 상기 복수의 센서(S)가 감지하는 좌표가 변화함에 따라 상기 오브젝트 생성 모듈(241)에 의해 생성된 오브젝트의 좌표를 변화시키는 오브젝트 이동 모듈(242)을 더 포함할 수 있다.
일 실시예에 있어서, 상기 제2 영상(I2)에 오브젝트 선택 메뉴(M)를 생성하는 오브젝트 선택 모듈(243)을 더 포함하며, 상기 모션 검출기(230) 조작에 의해 상기 오브젝트 선택 메뉴(M)에서 선택된 오브젝트가 상기 제2 영상(I2)에 생성될 수 있다.
일 실시예에 있어서, 상기 오브젝트 선택 메뉴(M)에는 수술 겸자 선택 메뉴(243a), 집게 선택 메뉴(243b), 봉합사 선택 메뉴(243c), 트로카 선택 메뉴(243d) 및 절제 기구 선택 메뉴(243e)가 포함될 수 있다.
일 실시예에 있어서, 각각 복수의 단계로 이루어진 술기 프로세스를 포함하는 복수의 모의 수술 시뮬레이션 정보가 저장된 메모리(245)를 더 포함하며, 상기 신호 생성 모듈(244)은 상기 제2 영상(I2)에 생성된 오브젝트의 종류와 좌표가 선택된 모의 수술 시뮬레이션 정보에 포함된 술기 프로세스의 어느 하나의 단계에 상응하는지 여부를 판단하여 신호를 생성할 수 있다.
일 실시예에 있어서, 상기 술기 프로세스는, 선택된 모의 수술 시뮬레이션 정보마다 시간의 흐름에 따라 결정된 오브젝트 및 결정된 오브젝트와 수술 대상 부위에 포함된 복수의 장기의 상대적인 좌표를 이용하여 각각의 단계가 결정되는 것일 수 있다.
일 실시예에 있어서, 상기 신호 생성 모듈(244)은 상기 제2 영상(I2)에 생성된 오브젝트의 종류와, 생성된 오브젝트와 수술 대상 부위 사이의 거리가 선택된 모의 수술 시뮬레이션 정보에 포함된 술기 프로세스에 상응하는 경우 일치 신호를 생성하여 상기 제2 영상(I2)에 출력하고, 상응하지 않는 경우 불일치 신호를 생성하여 상기 제2 영상(I2)에 출력할 수 있다.
또한 본 출원은 (a) 촬영부(110)에 의해 수술 대상 부위가 촬영되는 단계, (b) 명칭 부여 모듈(140)이 상기 촬영부(110)에 의해 촬영된 제1 영상(I1)에 포함된 복수의 장기 각각에 대해 그에 상응하는 명칭을 부여하는 단계, (c) 제2 영상 생성 모듈(150)이 상기 제1 영상(I1)에 상기 명칭 부여 모듈(140)에 의해 부여된 명칭이 표시된 제2 영상(I2)을 생성하는 단계, (d) 헤드셋(220)이 상기 제2 영상(I2)을 출력하는 단계, (e) 오브젝트 생성 모듈(241)이 상기 헤드셋(220)을 착용한 착용자의 움직임을 감지하여 상기 제2 영상(I2)에 오브젝트(object)를 생성하는 단계, (f) 오브젝트 이동 모듈(242)이 착용자의 양 손에 파지되는 모션 검출기(230)에 구비된 복수의 센서(S)가 감지하는 좌표가 변화함에 따라 상기 오브젝트의 좌표를 변화시키는 단계 및 (g) 신호 생성 모듈(244)이 상기 제2 영상(I2)에 생성된 오브젝트의 종류와 좌표를 감지하여 기 설정된 방법에 따라 신호를 생성하는 단계를 포함하는, 증강 현실을 이용한 모의 수술 방법을 제공한다.
일 실시예에 있어서, 상기 제2 영상(I2)에 오브젝트 선택 메뉴(M)를 생성하는 오브젝트 선택 모듈(243)을 더 포함하며, 상기 (e) 단계는, 상기 오브젝트 생성 모듈(241)이 상기 모션 검출기(230) 조작에 의해 상기 오브젝트 선택 메뉴(M)에서 선택된 오브젝트를 상기 제2 영상(I2)에 생성하는 단계를 더 포함할 수 있다.
일 실시예에 있어서, 상기 (g) 단계는, 상기 신호 생성 모듈(244)이 메모리(245)에 저장되며 각각 복수의 단계로 이루어진 술기 프로세스를 포함하는 복수의 모의 수술 시뮬레이션 정보와, 상기 제2 영상(I2)에 생성된 오브젝트의 종류와 좌표가 서로 상응하는지 여부를 판단하여 신호를 생성하는 단계를 더 포함할 수 있다.
일 실시예에 있어서, 상기 복수의 술기 프로세스는, (a) 복강경이 투관창에 삽입되는 단계, (b) 절제 대상 개체를 확인하는 단계, (c) 집게를 이용하여 상기 절제 대상 개체를 잡는 단계, (d) 절제 기구를 이용하여 상기 절제 대상 개체의 주변 조직을 박리하는 단계, (e) 클리핑 기구를 이용하여 상기 절제 대상 개체의 주변 혈관을 결찰하는 단계 및 (f) 상기 절제 기구를 이용하여 상기 절제 대상 개체를 절제하는 단계를 포함하며, 상기 (g) 단계는, 상기 신호 생성 모듈은 상기 제2 영상에 생성된 오브젝트의 종류와 좌표가 상기 (a) 내지 (f) 단계 중 어느 하나의 단계에 상응하는지 여부를 판단하여 신호를 생성하는 단계를 포함할 수 있다.
일 실시예에 있어서, 상기 복수의 술기 프로세스는 상기 (f) 단계 이후, (g) 상기 집게를 이용하여 절제된 개체를 수집 백에 투입하는 단계, (h) 절제된 부위를 확인하는 단계, (i) 상기 집게를 이용하여 상기 절제된 개체가 투입된 수집 백을 상기 투관창으로 배출하는 단계 및 (j) 봉합사를 이용하여 상기 절제된 부위를 봉합하는 단계를 더 포함할 수 있다.
일 실시예에 있어서, 상기 복수의 모의 수술 시뮬레이션 정보는 충수돌기절제술 정보 및 담낭절제술 정보를 포함할 수 있다.
또한, 본 출원은 상기한 모의 수술 방법이 수행되도록 컴퓨터 판독가능 기록매체에 저장된, 증강 현실을 이용한 모의 수술 프로그램을 제공한다.
본 출원에 따르면, 수술 과정을 단순히 참관하는 것이 아닌 수술 영상인 제1 영상에 각각의 장기의 명칭이 표시된 제2 영상을 관찰하면서 수술 과정을 참관하므로 실습 교육의 효과가 증대된다.
또한, 단순히 제2 영상을 관찰하는 것이 아닌, 제2 영상에 대해 증강 현실로서 모의 수술이 가능하므로 임상 경험이 부족한 이들에게 모의 임상 경험을 제공해줄 수 있다는 장점을 갖는다.
또한, 가상 현실이 아닌 실제 수술 부위를 대상으로 증강 현실로서 모의 수술을 진행하기 때문에 그 학습의 효과가 높은 장점을 갖는다.
도 1은 본 출원의 실시예에 따른 모의 수술 시스템이 수행되는 모습이 간략히 나타난 도면이다.
도 2는 본 출원의 실시예에 따른 모의 수술 시스템을 이루는 구성 요소를 설명하기 위한 블록도이다.
도 3은 헤드셋을 착용한 착용자에게 보여지는 영상을 설명하기 위한 개략도이다.
도 4는 본 출원의 실시예에 따른 모의 수술 방법을 설명하기 위한 순서도이다.
도 5는 메모리에 저장된 술기 프로세스의 일 실시예를 설명하기 위한 순서도이다.
첨부된 도면을 참조하여, 본 출원의 실시예에 따른 모의 수술 시스템 및 방법에 대해 구체적으로 설‘t안다.
1. 모의 수술 시스템
먼저, 도 1을 참조하여, 본 출원의 실시예에 따른 모의 수술 시스템을 간략히 설명한다.
도 1을 참조하면, 제1 장소(R1)에서 집도의는 수술 대상 환자에게 수술을 집도하게 된다.
촬영부(110)는 수술 대상 부위를 촬영하는 부분인데, 도 1에는 집도의의 머리에 장착되는 것으로 도시되나, 복강경 또는 내시경 등의 기구부(120)의 말단에 위치하여 수술 부위를 촬영하는 것일 수 있으며, 또는 수술실인 제1 장소(R1)에 설치되어 수술 대상 부위를 촬영하는 것일 수 있다.
기구부(120)는 집도의의 손에 파지되어 조작에 의해 실제로 수술을 행하는 부분이다. 수술 겸자, 집게, 봉합사, 트로카, 절제 기구 등의 일련의 수술 기구가 여기에 해당할 수 있으며, 이 외에도 외과적 수술을 위한 모든 수술 기구가 포함될 수 있다.
디스플레이(130)는 제1 장소(R1)에 마련되어 내시경 및 복강경 수술을 집도하는 집도의는 디스플레이(130)를 관찰하면서 수술을 진행할 수 있다.
이렇게, 촬영부(110)에 의해 촬영된 영상은 제2 장소(R2)에 위치한 헤드셋(220)에 전송된다. 헤드셋(220)을 착용한 착용자는 전송된 영상을 관찰할 수 있으며, 양 손에 파지된 모션 검출기(230)를 조작하여 헤드셋(220)에 출력되는 영상에 오브젝트를 이동시켜 모의 수술을 진행할 수 있게 된다.
다음, 도 2 및 도 3을 참조하여, 본 출원의 실시예에 따른 모의 수술 시스템을 보다 구체적으로 설명한다.
명칭 부여 모듈(140)은 촬영부(110)가 촬영한 제1 영상(I1)에 포함된 복수의 장기 각각에 대해 그에 상응하는 명칭을 부여한다.
여기서 제1 영상(I1)이란, 온전히 촬영부(110)가 촬영한 영상을 말하며 그 어떠한 수정 내지 가공이 이루어지지 않은 영상을 의미한다.
명칭 부여 모듈(140)은 데이터베이스(160)에 미리 저장되어 있는 정보들을 이용하는데, 데이터베이스(160)에는 장기의 형상, 종류, 위치마다 그에 상응하는 명칭이 저장되어 있다. 명칭 부여 모듈(140)은 데이터베이스(160)에 미리 저장된 정보와 제1 영상(I1)에 포함된 복수의 장기를 각각 비교하여 그에 상응하는 명칭을 부여하게 된다. 도 3에는 충수돌기절제술을 위해 촬영부(110)가 해당 수술 부위를 관찰한 제1 영상에 대장, 맹장, 충수, 충수간막, 충수동맥, 회장, 회결장동맥 등의 명칭이 부여된 제2 영상(I2)의 일 실시예가 도시된다. 이렇듯, 명칭 부여 모듈(140)에 의해 각각의 장기마다 명칭이 부여됨으로써, 집도의가 어떤 부위에 술기를 진행하고 있는지 명확히 파악할 수 있으며, 헤드셋(220) 착용자 입장에서 보다 향상된 교육 효과가 체감될 수 있다.
제2 영상 생성 모듈(150)은 촬영부(110)가 촬영한 제1 영상(I1)에 명칭 부여 모듈(140)에 의해 부여된 명칭이 표시된 제2 영상(I2)을 생성하는 부분이다. 즉, 제1 영상(I1)과 명칭 부여 모듈(140)이 부여한 명칭을 합성하는 부분이며, 각 장기의 식별을 위해 각 장기의 명칭이 해당 위치에 표시되도록 합성하는 것이 바람직하다. 이렇게 제2 영상 생성 모듈(150)에 의해 생성된 제2 영상(I2)은 송신부(170)에 의해 제2 장소(R2)에 위치한 수신부(210)를 통하여 헤드셋(220)에 송신된다. 도 2에는 수신부(210)와 헤드셋(220)이 별도의 구성인 것으로 도시되나, 수신부(210)는 헤드셋(220) 내부에 구비되어 일체 형성된 것일 수 있다.
헤드셋(220)은 제2 장소(R2)에 위치하며, 구체적으로 수술 참관인의 머리에 착용된다. 헤드셋(220)의 내부에는 헤드셋(220) 착용자가 관찰할 수 있도록 별도의 디스플레이가 구비되며, 이를 통하여 헤드셋(220) 착용자가 송신된 제2 영상(I2)을 관찰할 수 있게 된다.
장기 각각에 명칭이 부여된 제2 영상(I2)이 헤드셋(220)에 송신되는 것만으로도, 헤드셋(220) 착용자는 수술 장면을 단순 참관하는 것보다 보다 많은 정보를 획득할 수 있다. 하지만, 본 출원의 실시예에 따른 모의 수술 시스템은 단순 관찰에 그치지 않고, 모의 수술까지도 가능하게끔 구성하였다. 이에 대해 구체적으로 설명한다.
모션 검출기(230)는 헤드셋 착용자(220)의 양 손에 파지되는 부분으로서, 복수의 센서(S)가 구비되며, 후술할 바와 같이 모션 검출기(230)의 조작에 의해 제2 영상(I2)에 생성되는 오브젝트의 좌표가 변화하게 된다.
오브젝트 생성 모듈(241)은 후술할 오브젝트 선택 모듈(M)에 표시된 오브젝트 메뉴의 선택에 따라 제2 영상(I2)에 오브젝트를 생성하는 부분이다. 오브젝트는 모의 수술에 필요한 수술 도구들인 수술 겸자, 집게, 봉합사, 트로카 및 절제 기구 등이 포함될 수 있으며, 이 외에도 외과적 수술을 위한 모든 수술 기구가 포함될 수 있다. 도 3에는 그 예시로서, 수술 겸자 및 봉합사가 도시된다. 만일, 어떠한 오브젝트도 선택되지 않은 경우, 일반 마우스 커서 형태의 오브젝트가 제2 영상(I2)에 생성될 수 있으며, 오브젝트를 선택하는 경우 이 마우스 커서 형태는 선택된 오브젝트의 형태로 변화하게 된다.
오브젝트 이동 모듈(242)은 모션 검출기(230)에 구비된 복수의 센서(S)가 감지하는 좌표가 변화함에 따라 제2 영상(I2)에 생성된 오브젝트의 좌표를 변화시키게 된다. 즉, 헤드셋(220) 착용자 입장에서는 양 손에 파지된 모션 검출기(230)를 움직이는 방향으로 오브젝트가 이동하게 되는 것이다.
오브젝트 선택 모듈(243)은 제2 영상(I2)에 오브젝트 선택 메뉴(M)를 생성하는 부분이다. 오브젝트 선택 메뉴(M)에는 오브젝트의 종류가 포함되며, 도 3을 예로 들면, 수술 겸자 선택 메뉴(243a), 집게 선택 메뉴(243b), 봉합사 선택 메뉴(243c), 트로카 선택 메뉴(243d) 및 절제 기구 선택 메뉴(243e)가 포함될 수 있다. 헤드셋(220) 착용자는 모션 검출기(230)를 조작하여 원하는 오브젝트를 선택하여 제2 영상(I2)에 이를 생성할 수 있게 된다. 오브젝트 선택 메뉴(M)에는 도 3에 나타난 바와 같이 일치 신호가 출력되는 메뉴(244a) 및 불일치 신호가 출력되는 메뉴(244b)를 더 포함될 수 있다.
신호 생성 모듈(244)은 제2 영상(I2)에 생성된 오브젝트의 종류와 좌표를 감지하고, 기 설정된 방법에 따라 일치 신호 또는 불일치 신호를 생성하는 부분이다. 이하에서, 이를 구체적으로 설명한다.
시뮬레이션부(240)의 메모리(245)에는 복수의 모의 수술 시뮬레이션 정보가 저장된다. 즉, 메모리(245)에는 각 수술의 종류마다 복수의 단계로 이루어진 술기 프로세스가 저장되어 있는 것이다.
여기서 술기 프로세스란, 선택된 모의 수술 시뮬레이션(즉, 선택된 수술 종류)마다 시간의 흐름에 따라 결정된 오브젝트 및 결정된 오브젝트와 수술 대상 부위에 포함된 복수의 장기 사이의 거리(상대적인 좌표)를 이용하여 결정되는 복수의 단계로 이루어진다.
예를 들어, 선택된 모의 수술 시뮬레이션이 충수돌기절제술이고, 충수돌기절제술에는 충수돌기를 절제하기 전에 그 주변 조직을 박리하는 단계가 포함된다. 즉, 주변 조직 박리를 위해 절제 기구가 이용되며, 박리를 위해서는 절제 기구와 충수 돌기 주변 조직이 접촉(근접)하여야 하므로, 주변 조직 박리 단계의 경우, 절제 기구 이용 및 절제 기구와 주변 조직 사이의 거리가 소정 거리 이하, 바람직하게는 주변 조직과 접촉이라는 정보를 이용하여 그 단계가 결정되는 것이라 할 수 있다. 각 수술의 종류마다 시간의 흐름에 따라 적합한 단계가 미리 결정되어 있으므로, 이러한 정보가 메모리(245)에 미리 저장되어 있는 것이다.
신호 생성 모듈(244)은 제2 영상(I2)에 생성된 오브젝트의 종류와 좌표를 감지하여, 감지된 정보가 선택된 모의 수술 시뮬레이션의 술기 프로세스에 포함된 복수의 단계 중 어느 하나의 단계에 상응하는지 여부를 판단하여 상응하는 경우 일치 신호를 생성하고, 상응하지 않은 경우 불일치 신호를 생성하게 된다. 수술은 시간의 흐름에 따라 그에 적합한 단계로 이루어져야 하므로, 단순히 술기 프로세스에 포함된 복수의 단계 중 어느 하나의 단계에 상응하는지 여부만을 판단하는 것이 아닌, 시간의 흐름까지도 고려하여 감지된 오브젝트의 종류와 좌표가 해당 시간에 상응하는 단계인지도 판단하여 신호를 생성하는 것이 바람직하다.
일치 신호가 생성되는 경우, 오브젝트 선택 메뉴(M)의 일치 신호 표시 메뉴(244a)가 활성화될 수 있으며, 불일치 신호가 생성되는 경우 불일치 신호 표시 메뉴(244b)가 활성화될 수 있다. 대안적으로, 일치 신호가 생성되는 경우 소정의 제1 시간 동안 모션 검출기(230)가 진동함으로써 헤드셋(220) 착용자에게 이를 알릴 수 있고, 불일치 신호가 생성되는 경우 상기 제1 시간보다 긴 시간인 제2 시간 동안 모션 검출기(230)가 진동함으로써 헤드셋(220) 착용자에게 이를 알릴 수도 있다.
이렇듯, 본 출원의 실시예에 따른 모의 수술 시스템은 촬영부(110)에서 촬영되는 영상에서 수술 대상 부위에 포함된 복수의 장기 각각의 명칭이 표시되어 교육의 효과가 증대될뿐만 아니라, 이에 대하여 모의 수술까지도 가능하여 수술 숙련도 향상에 큰 도움이 된다.
2. 모의 수술 방법
다음, 도 4 및 도 5를 참조하여 본 출원의 실시예에 따른 모의 수술 방법을 구체적으로 설명한다.
먼저, 촬영부(110)가 수술 대상 부위를 촬영하는 단계가 선행된다(S100). 촬영부(110)에 의해 촬영된 영상을 제1 영상(I1)이라 하며, 제1 영상(I1)은 가공되지 않은 이미지를 의미한다.
다음, 명칭 부여 모듈(140)이 제1 영상(I1)에 포함된 복수의 장기 각각에 대해 그에 상응하는 명칭을 부여하게 된다(S110). 구체적으로, 데이터베이스(160)에 미리 저장된 정보들을 이용하며, 제1 영상(I1)에 포함된 복수의 장기의 위치, 형상을 데이터베이스(160)에 미리 저장된 정보들과 비교하여 그에 상응하는 명칭을 부여하게 된다.
다음, 제2 영상 생성 모듈(150)이 제1 영상(I1)에 명칭 부여 모듈(140)이 부여한 명칭이 표시된 제2 영상(I2)을 생성한다(S120). 제2 영상 생성 모듈(150)에 의해 각각의 장기마다 그에 상응한 명칭이 표시되며, 이렇게 생성된 제2 영상(I2)은 헤드셋(220)에 전송되어, 헤드셋(220)은 제2 영상(I2)을 출력하게 된다.
다음, 오브젝트 생성 모듈(241)이 헤드셋(220)을 착용한 착용자의 움직임을 감지하여 제2 영상(I2)에 오브젝트(object)를 생성하게 된다(S210). 구체적으로, 오브젝트 선택 메뉴(M)에서 선택된 오브젝트(object)가 제2 영상(I2)에 생성되며, 좌측 및 우측의 2개의 오브젝트가 생성될 수 있으나, 생성되는 오브젝트의 개수는 제한되지 않는다.
다음, 오브젝트 이동 모듈(242)이 모션 검출기(230)에 구비된 복수의 센서(S)가 감지하는 좌표가 변화함에 따라 제2 영상(I2)에 생성된 오브젝트의 좌표를 변화시키게 된다(S220). 헤드셋(220) 착용자는 모션 검출기(230)를 조작하여 제2 영상(I2)에 생성된 오브젝트의 좌표를 변화시킬 수 있으며, 오브젝트 선택 메뉴(M)에서의 선택에 따라 오브젝트를 변경할 수도 있다.
다음, 신호 생성 모듈(244)이 제2 영상(I2)에 출력된 오브젝트의 종류와 좌표를 감지하고, 이를 선택된 모의 수술 시뮬레이션 정보에 포함된 복수의 술기 프로세스와 비교하여 상응하는지 여부를 판단하고, 판단 결과에 따라 신호를 생성한다(S300). 신호 생성 모듈(244)이 일치 신호와 불일치 신호를 생성하는 방법에 대해서는 전술하였으므로, 중복되는 내용에 대한 자세한 설명은 생략하기로 한다.
상기 모의 수술 시뮬레이션 정보는 충수돌기절제술 정보 및 담낭절제술 정보를 포함할 수 있다.
먼저, 선택된 모의 수술 시뮬레이션 정보가 충수돌기절제술인 경우를 예로 들어 술기 프로세스를 설명한다.
먼저, (a) 복강경을 투관창에 삽입하고, (b) 절제 대상 개체인 우하복부의 충수돌기를 확인하게 된다. 다음, (c) 집게로 충수돌기를 잡아(포획하여) 충수돌기를 고정하며, (d) 절제 기구로 충수돌기 주변 조직을 박리하게 된다. 다음, 출혈 과다를 방지하기 위해 (e) 클리핑 기구를 이용하여 충수돌기 주변 동맥 및 정맥의 혈관을 결찰하고 (f) 충수돌기를 루프를 이용하여 결찰하며 (g) 절제 기구를 이용하여 충수돌기를 절제하게 된다. 다음, (h) 집게로 절제된 충수돌기를 수집 백에 투입하고 (i) 충수돌기 절제면을 확인하고 출혈여부를 확인하며, (j) 집게를 이용하여 수집 백을 투관창으로 배출하고, (k) 봉합사로 절제된 부위를 봉합하는 순서로 이루어진다. 신호 생성 모듈(244)은 제2 영상(I2)에 생성된 오브젝트의 종류와 좌표가 상기 (a) 내지 (k) 중 어느 하나에 상응하는지, 그리고 해당 모의 술기들이 (a) 내지 (k) 순서에 맞도록 수행되었는지 여부를 판단하여 신호를 생성하게 된다.
다음, 선택된 모의 수술 시뮬레이션 정보가 담낭절제술인 경우를 예로 들어 술기 프로세스를 설명한다.
먼저, (a) 복강경을 투관창에 삽입하고, (b) 절제 대상 개체인 우상복부의 담낭을 확인하게 된다. 다음, (c) 집게로 담낭을 잡아(포획하여) 담낭을 고정하며, (d) 절제 기구로 담낭 주위 조직을 박리하며, 총담관(common bile duct) 및 쓸개관(cystic duct)를 확인한다. 다음, 출혈 과다를 방지하기 위해 (e) 클리핑 기구를 이용하여 쓸개관(cystic duct)을 결찰하고, 절제 기구를 이용하여 이를 절제하게 된다. 다음, (f) 클리핑 기구를 이용하여 총담관(common bile duct)의 동맥 및 정맥을 결찰하고, 절제 기구를 이용하여 이를 절제하게 된다. 다음, (g) 왼쪽 집게로 담낭을 잡고 오른쪽 집게로 담낭을 간으로부터 박리하며, (h) 집게를 이용하여 박리된 담낭을 수집 백에 투입하게 된다. 다음, (i) 간 절제면을 확인하고 출혈여부를 확인하며, (j) 집게를 이용하여 수집 백을 투관창으로 배출하고, (k) 봉합사로 절제된 부위를 봉합하는 순서로 이루어진다. 신호 생성 모듈(244)은 제2 영상(I2)에 생성된 오브젝트의 종류와 좌표가 상기 (a) 내지 (k) 중 어느 하나에 상응하는지, 그리고 해당 모의 술기들이 (a) 내지 (k) 순서에 맞도록 수행되었는지 여부를 판단하여 신호를 생성하게 된다.
3. 컴퓨터 저장 기록 매체
본 출원은, 상기한 모의 수술 방법이 수행되도록 컴퓨터 판독가능 기록매체에 저장된 모의 수술 프로그램을 제공한다. 상기 모의 수술 방법은 (a) 촬영부(110)에 의해 수술 대상 부위가 촬영되는 단계, (b) 명칭 부여 모듈(140)이 상기 촬영부(110)에 의해 촬영된 제1 영상(I1)에 포함된 복수의 장기 각각에 대해 그에 상응하는 명칭을 부여하는 단계, (c) 제2 영상 생성 모듈(150)이 상기 제1 영상(I1)에 상기 명칭 부여 모듈(140)에 의해 부여된 명칭이 표시된 제2 영상(I2)을 생성하는 단계, (d) 헤드셋(220)이 상기 제2 영상(I2)을 출력하는 단계, (e) 오브젝트 생성 모듈(241)이 상기 헤드셋(220)을 착용한 착용자의 움직임을 감지하여 상기 제2 영상(I2)에 오브젝트(object)를 생성하는 단계 및 (f) 오브젝트 이동 모듈(242)이 착용자의 양 손에 파지되는 모션 검출기(230)에 구비된 복수의 센서(S)가 감지하는 좌표가 변화함에 따라 상기 오브젝트의 좌표를 변화시키는 단계, (g) 신호 생성 모듈(244)이 상기 제2 영상(I2)에 출력된 오브젝트의 종류와 좌표를 감지하여 기 설정된 방법에 따라 신호를 생성하는 단계를 포함할 수 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프린터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상, 본 명세서에는 본 출원을 당업자가 용이하게 이해하고 재현할 수 있도록 도면에 도시한 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 당업자라면 본 출원의 실시예로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 출원의 보호범위는 청구범위에 의해서 정해져야 할 것이다.
110: 촬영부
120: 기구부
130: 디스플레이
140: 명칭 부여 모듈
150: 제2 영상 생성 모듈
160: 데이터베이스
170: 송신부
210: 수신부
220: 헤드셋
230: 모션 검출기
240: 시뮬레이션부
241: 오브젝트 생성 모듈
242: 오브젝트 이동 모듈
243: 오브젝트 선택 모듈
244: 신호 생성 모듈
245: 메모리

Claims (14)

  1. 수술 대상 부위를 촬영하는 촬영부(110);
    상기 촬영부(110)에 의해 촬영된 제1 영상(I1)에 포함된 복수의 장기 각각에 대해 그에 상응하는 명칭을 부여하는 명칭 부여 모듈(140);
    상기 제1 영상(I1)에 상기 명칭 부여 모듈(140)에 의해 부여된 명칭이 표시된 제2 영상(I2)을 생성하는 제2 영상 생성 모듈(150);
    상기 제2 영상(I2)을 출력하는 헤드셋(220);
    상기 헤드셋(220)을 착용한 착용자의 움직임을 감지하여 상기 헤드셋(220)에 출력되는 제2 영상(I2)에 오브젝트(object)를 생성하는 오브젝트 생성 모듈(241); 및
    상기 제2 영상(I2)에 생성된 오브젝트의 종류와 좌표를 감지하여 기 설정된 방법에 따라 신호를 생성하는 신호 생성 모듈(244);을 포함하는,
    증강 현실을 이용한 모의 수술 시스템.
  2. 제1항에 있어서,
    상기 착용자의 양 손에 파지되며 복수의 센서(S)가 구비된 모션 검출기(230); 및
    상기 복수의 센서(S)가 감지하는 좌표가 변화함에 따라 상기 오브젝트 생성 모듈(241)에 의해 생성된 오브젝트의 좌표를 변화시키는 오브젝트 이동 모듈(242);을 더 포함하는,
    증강 현실을 이용한 모의 수술 시스템.
  3. 제2항에 있어서,
    상기 제2 영상(I2)에 오브젝트 선택 메뉴(M)를 생성하는 오브젝트 선택 모듈(243);을 더 포함하며,
    상기 모션 검출기(230) 조작에 의해 상기 오브젝트 선택 메뉴(M)에서 선택된 오브젝트가 상기 제2 영상(I2)에 생성되는,
    증강 현실을 이용한 모의 수술 시스템.
  4. 제3항에 있어서,
    상기 오브젝트 선택 메뉴(M)에는 수술 겸자 선택 메뉴(243a), 집게 선택 메뉴(243b), 봉합사 선택 메뉴(243c), 트로카 선택 메뉴(243d) 및 절제 기구 선택 메뉴(243e)가 포함된,
    증강 현실을 이용한 모의 수술 시스템.
  5. 제3항에 있어서,
    각각 복수의 단계로 이루어진 술기 프로세스를 포함하는 복수의 모의 수술 시뮬레이션 정보가 저장된 메모리(245);를 더 포함하며,
    상기 신호 생성 모듈(244)은 상기 제2 영상(I2)에 생성된 오브젝트의 종류와 좌표가 선택된 모의 수술 시뮬레이션 정보에 포함된 술기 프로세스의 어느 하나의 단계에 상응하는지 여부를 판단하여 신호를 생성하는,
    증강 현실을 이용한 모의 수술 시스템.
  6. 제5항에 있어서,
    상기 술기 프로세스는, 선택된 모의 수술 시뮬레이션 정보마다 시간의 흐름에 따라 결정된 오브젝트 및 결정된 오브젝트와 수술 대상 부위에 포함된 복수의 장기의 상대적인 좌표를 이용하여 각각의 단계가 결정되는 것인,
    증강 현실을 이용한 모의 수술 시스템.
  7. 제6항에 있어서,
    상기 신호 생성 모듈(244)은 상기 제2 영상(I2)에 생성된 오브젝트의 종류와, 생성된 오브젝트와 수술 대상 부위 사이의 거리가 선택된 모의 수술 시뮬레이션 정보에 포함된 술기 프로세스에 상응하는 경우 일치 신호를 생성하여 상기 제2 영상(I2)에 출력하고, 상응하지 않는 경우 불일치 신호를 생성하여 상기 제2 영상(I2)에 출력하는,
    증강 현실을 이용한 모의 수술 시스템.
  8. (a) 촬영부(110)에 의해 수술 대상 부위가 촬영되는 단계;
    (b) 명칭 부여 모듈(140)이 상기 촬영부(110)에 의해 촬영된 제1 영상(I1)에 포함된 복수의 장기 각각에 대해 그에 상응하는 명칭을 부여하는 단계;
    (c) 제2 영상 생성 모듈(150)이 상기 제1 영상(I1)에 상기 명칭 부여 모듈(140)에 의해 부여된 명칭이 표시된 제2 영상(I2)을 생성하는 단계;
    (d) 헤드셋(220)이 상기 제2 영상(I2)을 출력하는 단계;
    (e) 오브젝트 생성 모듈(241)이 상기 헤드셋(220)을 착용한 착용자의 움직임을 감지하여 상기 제2 영상(I2)에 오브젝트(object)를 생성하는 단계;
    (f) 오브젝트 이동 모듈(242)이 착용자의 양 손에 파지되는 모션 검출기(230)에 구비된 복수의 센서(S)가 감지하는 좌표가 변화함에 따라 상기 오브젝트의 좌표를 변화시키는 단계; 및
    (g) 신호 생성 모듈(244)이 상기 제2 영상(I2)에 생성된 오브젝트의 종류와 좌표를 감지하여 기 설정된 방법에 따라 신호를 생성하는 단계;를 포함하는,
    증강 현실을 이용한 모의 수술 방법.
  9. 제8항에 있어서,
    상기 제2 영상(I2)에 오브젝트 선택 메뉴(M)를 생성하는 오브젝트 선택 모듈(243);을 더 포함하며,
    상기 (e) 단계는, 상기 오브젝트 생성 모듈(241)이 상기 모션 검출기(230) 조작에 의해 상기 오브젝트 선택 메뉴(M)에서 선택된 오브젝트를 상기 제2 영상(I2)에 생성하는 단계를 더 포함하는,
    증강 현실을 이용한 모의 수술 방법.
  10. 제9항에 있어서,
    상기 (g) 단계는,
    상기 신호 생성 모듈(244)이 메모리(245)에 저장되며 각각 복수의 단계로 이루어진 술기 프로세스를 포함하는 복수의 모의 수술 시뮬레이션 정보와, 상기 제2 영상(I2)에 생성된 오브젝트의 종류와 좌표가 서로 상응하는지 여부를 판단하여 신호를 생성하는 단계;를 더 포함하는,
    증강 현실을 이용한 모의 수술 방법.
  11. 제9항에 있어서,
    상기 복수의 술기 프로세스는,
    (a) 복강경이 투관창에 삽입되는 단계;
    (b) 절제 대상 개체를 확인하는 단계;
    (c) 집게를 이용하여 상기 절제 대상 개체를 잡는 단계;
    (d) 절제 기구를 이용하여 상기 절제 대상 개체의 주변 조직을 박리하는 단계;
    (e) 클리핑 기구를 이용하여 상기 절제 대상 개체의 주변 혈관을 결찰하는 단계; 및
    (f) 상기 절제 기구를 이용하여 상기 절제 대상 개체를 절제하는 단계;를 포함하며,
    상기 (g) 단계는, 상기 신호 생성 모듈은 상기 제2 영상에 생성된 오브젝트의 종류와 좌표가 상기 (a) 내지 (f) 단계 중 어느 하나의 단계에 상응하는지 여부를 판단하여 신호를 생성하는 단계를 포함하는,
    증강 현실을 이용한 모의 수술 방법.
  12. 제11항에 있어서,
    상기 복수의 술기 프로세스는 상기 (f) 단계 이후,
    (g) 상기 집게를 이용하여 절제된 개체를 수집 백에 투입하는 단계;
    (h) 절제된 부위를 확인하는 단계;
    (i) 상기 집게를 이용하여 상기 절제된 개체가 투입된 수집 백을 상기 투관창으로 배출하는 단계; 및
    (j) 봉합사를 이용하여 상기 절제된 부위를 봉합하는 단계;를 더 포함하는,
    증강 현실을 이용한 모의 수술 방법.
  13. 제8항 내지 제12중 어느 한 항에 있어서,
    상기 복수의 모의 수술 시뮬레이션 정보는 충수돌기절제술 정보 및 담낭절제술 정보를 포함하는,
    증강 현실을 이용한 모의 수술 방법.
  14. 제8항 내지 제12항 중 어느 한 항의 방법이 수행되도록 컴퓨터 판독가능 기록매체에 저장된,
    증강 현실을 이용한 모의 수술 프로그램.
KR1020190174879A 2019-12-26 2019-12-26 증강 현실을 이용한 모의 수술 시스템 및 방법 KR102347471B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190174879A KR102347471B1 (ko) 2019-12-26 2019-12-26 증강 현실을 이용한 모의 수술 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190174879A KR102347471B1 (ko) 2019-12-26 2019-12-26 증강 현실을 이용한 모의 수술 시스템 및 방법

Publications (2)

Publication Number Publication Date
KR20210082688A true KR20210082688A (ko) 2021-07-06
KR102347471B1 KR102347471B1 (ko) 2022-01-06

Family

ID=76861190

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190174879A KR102347471B1 (ko) 2019-12-26 2019-12-26 증강 현실을 이용한 모의 수술 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR102347471B1 (ko)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100957470B1 (ko) * 2009-08-28 2010-05-17 주식회사 래보 증강현실을 이용한 수술 로봇 시스템 및 그 제어 방법
KR20130128673A (ko) 2012-05-17 2013-11-27 주식회사 엔티리서치 힘센서를 이용한 수술 훈련 시뮬레이터 및 그 제어방법
KR20160102464A (ko) * 2013-12-20 2016-08-30 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 의료 절차 훈련을 위한 시뮬레이터 시스템
KR101839891B1 (ko) 2015-06-24 2018-03-19 지멘스 헬스케어 게엠베하 의료 이미지 프로세싱 방법 및 이미지 프로세싱 시스템
WO2018061014A1 (en) * 2016-09-29 2018-04-05 Simbionix Ltd. Method and system for medical simulation in an operating room in a virtual reality or augmented reality environment
WO2019161477A1 (en) * 2018-02-26 2019-08-29 Precisionos Technology Inc. Medical virtual reality, mixed reality or augmented reality surgical system with medical information
US20190380792A1 (en) * 2018-06-19 2019-12-19 Tornier, Inc. Virtual guidance for orthopedic surgical procedures

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100957470B1 (ko) * 2009-08-28 2010-05-17 주식회사 래보 증강현실을 이용한 수술 로봇 시스템 및 그 제어 방법
KR20130128673A (ko) 2012-05-17 2013-11-27 주식회사 엔티리서치 힘센서를 이용한 수술 훈련 시뮬레이터 및 그 제어방법
KR20160102464A (ko) * 2013-12-20 2016-08-30 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 의료 절차 훈련을 위한 시뮬레이터 시스템
KR101839891B1 (ko) 2015-06-24 2018-03-19 지멘스 헬스케어 게엠베하 의료 이미지 프로세싱 방법 및 이미지 프로세싱 시스템
WO2018061014A1 (en) * 2016-09-29 2018-04-05 Simbionix Ltd. Method and system for medical simulation in an operating room in a virtual reality or augmented reality environment
WO2019161477A1 (en) * 2018-02-26 2019-08-29 Precisionos Technology Inc. Medical virtual reality, mixed reality or augmented reality surgical system with medical information
US20190380792A1 (en) * 2018-06-19 2019-12-19 Tornier, Inc. Virtual guidance for orthopedic surgical procedures

Also Published As

Publication number Publication date
KR102347471B1 (ko) 2022-01-06

Similar Documents

Publication Publication Date Title
KR102013837B1 (ko) 수술영상 제공 방법 및 장치
JP7308936B2 (ja) インジケータシステム
Melfi et al. Early experience with robotic technology for thoracoscopic surgery
US20190325574A1 (en) Surgical simulator providing labeled data
US20140046128A1 (en) Surgical robot system and control method thereof
JP2000189441A (ja) 医療技術的装置
JP7153974B2 (ja) コンピュータプログラム、学習モデルの生成方法、及び画像処理装置
Pötscher et al. Robot-assisted esophageal surgery using the da Vinci® Xi system: operative technique and initial experiences
WO2022158451A1 (ja) コンピュータプログラム、学習モデルの生成方法、及び支援装置
WO2017126313A1 (ja) 生体質感臓器を用いる手術トレーニング及びシミュレーションシステム
Zeng et al. Holographic reconstruction technology used for intraoperative real-time navigation in robot-assisted partial nephrectomy in patients with renal tumors: a single center study
KR102347471B1 (ko) 증강 현실을 이용한 모의 수술 시스템 및 방법
Howard et al. Improving precision in navigating laparoscopic surgery instruments toward a planar target using haptic and visual feedback
JP7190448B2 (ja) 解剖学的モデルの仮想拡張
Dubrovin et al. Choice of surgical access for retroperitoneoscopic ureterolithotomy according to the results of 3D reconstruction of operational zone agreed with the patient: initial experience
US20220409300A1 (en) Systems and methods for providing surgical assistance based on operational context
Tai et al. Integrating virtual reality and haptics for renal puncture surgical simulator
KR20190130777A (ko) 복강경 수술 시뮬레이션 장치
Ho et al. Comprehensive evaluation of liver resection procedures: surgical mind development through cognitive task analysis
CN111741729A (zh) 手术最优化方法以及装置
Berlage et al. Simulation and planning of minimally invasive coronary artery bypass surgery
WO2024122027A1 (ja) 画像処理装置、手術支援システム、画像処理方法及びプログラム
KR102099563B1 (ko) 최소 침습 수술을 위한 수술로봇 시스템 및 이를 이용한 충돌방지 방법
Popek et al. Minimally Invasive Surgery (MIS) in Colorectal Surgery
KR20190100010A (ko) 최적화된 수술도구 제공 방법 및 장치

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right