KR20130104097A - 의료수술 시뮬레이션 장치 및 그 방법 - Google Patents

의료수술 시뮬레이션 장치 및 그 방법 Download PDF

Info

Publication number
KR20130104097A
KR20130104097A KR1020120025279A KR20120025279A KR20130104097A KR 20130104097 A KR20130104097 A KR 20130104097A KR 1020120025279 A KR1020120025279 A KR 1020120025279A KR 20120025279 A KR20120025279 A KR 20120025279A KR 20130104097 A KR20130104097 A KR 20130104097A
Authority
KR
South Korea
Prior art keywords
image
patient
surgical
unit
surgical tool
Prior art date
Application number
KR1020120025279A
Other languages
English (en)
Other versions
KR101403968B1 (ko
Inventor
박효영
국윤조
김호
Original Assignee
박효영
국윤조
김호
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 박효영, 국윤조, 김호 filed Critical 박효영
Priority to KR1020120025279A priority Critical patent/KR101403968B1/ko
Publication of KR20130104097A publication Critical patent/KR20130104097A/ko
Application granted granted Critical
Publication of KR101403968B1 publication Critical patent/KR101403968B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B23/00Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
    • G09B23/28Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
    • G09B23/285Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine for injections, endoscopy, bronchoscopy, sigmoidscopy, insertion of contraceptive devices or enemas
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • G09B7/02Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • A61B2034/104Modelling the effect of the tool, e.g. the effect of an implanted prosthesis or for predicting the effect of ablation or burring

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Business, Economics & Management (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Algebra (AREA)
  • Robotics (AREA)
  • Chemical & Material Sciences (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Medicinal Chemistry (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pulmonology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

의료수술 시뮬레이션 시스템 및 그 방법이 개시된다. 본 발명에 따른 의료수술 시뮬레이션 시스템은, 환자의 신장, 몸무게, 체격을 포함하는 신체조건을 반영하여 3차원의 환자영상을 생성하는 환자영상생성부; 환자에 대해 기 촬영된 영상에 기초하여 병변위치의 좌표 및 병변위치의 좌표에 대응하는 수술시행 루트를 설정하고, 설정된 병변위치의 좌표 및 수술시행 루트를 환자영상생성부에 의해 생성된 환자영상에 표시하는 수술루트설정부; 의료진의 수술용 장갑에 설치된 움직임측정센서에 기초하여 의료진의 손 및 손가락 중의 적어도 하나에 대한 움직임을 측정하는 움직임측정부; 및 수술도구의 영상을 생성하며, 움직임측정부에 의해 측정된 움직임에 따라 수술도구에 대응하는 수술시행영상을 환자영상생성부에 의해 생성된 환자영상에 표시하는 수술영상표시부;를 포함하는 것을 특징으로 한다.

Description

의료수술 시뮬레이션 시스템 및 그 방법{Medical Surgery Simulation System and Method therefor}
본 발명은 의료수술 시뮬레이션 시스템 및 그 방법에 관한 것으로서, 보다 상세하게는 의료진에게 환자의 신체조건에 따라 적응적인 시뮬레이션 환경을 제공하며, 실제 수술에서와 같은 시뮬레이션 환경을 제공함으로써 의료진이 고난도의 경험을 충분히 쌓을 수 있도록 하며 환자에 대한 실제 수술의 성공확률을 높일 수 있는 의료수술 시뮬레이션 시스템 및 그 방법에 관한 것이다.
가상현실은 실제로는 존재하지 않는 특정한 환경 또는 상황을 컴퓨터를 이용한 모의실험을 통하여 인간의 오감에 의도된 착오를 가져오게 해서 마치 실제 세계에 놓여있는 것처럼 하는 인간-컴퓨터 간의 인터페이스를 지칭하며, 사용자로 하여금 인공적으로 창조된 세계에 몰입되도록 함으로써 사용자 자신이 그곳에 있는 듯한 착각에 빠지게 하는 사는 사이버 스페이스하고 할 수 있다.
최근에는 이와 같은 가상현실을 의료수술 시뮬레이션 분야에 적용하고자 하는 연구가 활발히 진행되고 있다.
의료수술은 개복수술(open surgery), 최소침습수술(MIS: Minimally Invasive Surgery), 방사선수술(radio surgery) 등으로 분류할 수 있다. 개복수술은 치료되어야 할 부분을 의료진이 직접 보고 만지며 시행하는 수술을 말하며, 최소침습수술은 키홀 수술(keyhole surgery)이라고도 하는데 복강경 수술이 가장 대표적이다. 복강경 수술은 개복을 하지 않고 필요한 부분에 작은 구멍을 내어 특수 카메라가 부착된 복강경과 수술 도구를 몸속에 삽입하여 비디오 모니터를 통해서 관측하며 레이저나 특수기구를 이용하여 미세수술을 한다. 나아가 방사선수술은 체외에서 방사선이나 레이저 광으로 수술 치료를 하는 것을 말한다.
수술에 관련되어 현재 가상현실 기술이 적용되는 분야로는 가상내시경(Virtual Endoscopy), 영상가이드 수술(Image Guided Surgery), 수술전 계획(Preoperative Planning)을 들 수 있다. 가상내시경은 MRI(Magnetic Resonance Imaging)나 CT(Computed Tomography)와 같은 촬영을 통하여 볼륨영상으로 받은 인체 내부를 가상공간에서 가상적으로 탐험하면서 해당 부위를 살펴보는 것을 말한다. 내시경이 가장 많이 적용되는 곳은 위장과 대장인데, 가상내시경은 실제 내시경에 비하여 영상의 질이 낮지 않으며 무엇보다도 환자의 고통이 전혀 없는 가상공간에서 이루어진다. 더욱이 실제로 탐험할 수 없는 혈관 속이나 뇌수 공동에도 적용이 가능하여 앞으로 진단에 많이 활용될 것으로 기대되는 분야이다. 영상가이드 수술은 가상현실이라기보다는 증강현실 기법을 활용한 것이라고 할 수 있는데, 수술하고자 하는 부분 주위의 내부를 실제 부위에 정합하여 보여줌으로써 정확하게 시술할 수 있도록 해 주는 기술이다. 수술전 계획은 시술을 하기 이전에 가상공간에서 환자의 기관이나 조직들을 구분하여 가시화하고 조작해 봄으로써 어떤 방법으로 시술을 하는 것이 가장 효과적인지 미리 계획을 할 수 있도록 도와주는 기술이다.
수술에서 빼 놓을 수 없는 부분은 바로 교육과 연습(training)이다. 이는 의료 시뮬레이션을 통하여 이루어질 수 있는데, 전술한 최소침습수술의 경우에 특히 많이 요구되는 부분이라고 할 수 있다. 즉, 개복수술의 경우에는 의사가 직접 환부를 보고 만질 수 있으나 복강경 수술인 경우에는 카메라를 이용하여 제한된 부분만을 볼 수 있고 또한 도구를 이용하여 시술을 하기 때문에, 환자를 보호하고 의료진에게 고난도의 경험을 제공하기 위하여 수술을 시행하기 전에 의료수술 시뮬레이션을 충분히 시행하여야 할 필요가 있다.
일반적으로 의료 시뮬레이션은 동물이나 사체를 사용한다. 그런데, 동물은 사람과 다른 해부학적인 구조를 가지고 있으며, 사체는 생리학(physiology)적인 성질이 다르기 때문에 효과적이라고 할 수 없다. 특히, 환자의 신체조건은 사람마다 다르며, 신체조건에 따라 주변의 혈관, 신경, 장기 등의 위치도 달라질 수 있기 때문에, 잘못된 의료 시뮬레이션의 실행은 실제 수술을 시행할 때 의료진에게 혼동을 줄 수 있다는 문제점이 있다.
본 발명은 전술한 문제점을 해결하기 위하여 창안된 것으로서, 의료진에게 환자의 신체조건에 따라 적응적인 시뮬레이션 환경을 제공하며, 실제 수술에서와 같은 시뮬레이션 환경을 제공함으로써 의료진이 고난도의 경험을 충분히 쌓을 수 있도록 하며 환자에 대한 실제 수술의 성공확률을 높일 수 있는 의료수술 시뮬레이션 시스템 및 그 방법을 제공하는 것을 목적으로 한다.
전술한 목적을 달성하기 위한 본 발명의 실시예에 따른 의료수술 시뮬레이션 시스템은, 환자의 신장, 몸무게, 체격을 포함하는 신체조건을 반영하여 3차원의 환자영상을 생성하는 환자영상생성부; 환자에 대해 기 촬영된 영상에 기초하여 병변위치의 좌표 및 병변위치의 좌표에 대응하는 수술시행 루트를 설정하고, 설정된 병변위치의 좌표 및 수술시행 루트를 환자영상생성부에 의해 생성된 환자영상에 표시하는 수술루트설정부; 의료진의 수술용 장갑에 설치된 움직임측정센서에 기초하여 의료진의 손 및 손가락 중의 적어도 하나에 대한 움직임을 측정하는 움직임측정부; 및 수술도구의 영상을 생성하며, 움직임측정부에 의해 측정된 움직임에 따라 수술도구에 대응하는 수술시행영상을 환자영상생성부에 의해 생성된 환자영상에 표시하는 수술영상표시부;를 포함하는 것을 특징으로 한다.
전술한 의료수술 시뮬레이션 시스템은, 수술도구명칭 및 그에 대응하는 수술도구의 영상을 데이터베이스로 저장하는 수술도구저장부; 및 수술도구명칭의 음성호출을 인식하며, 수술도구저장부로부터 인식된 수술도구명칭에 대응하는 수술도구의 영상을 호출하여 수술영상표시부에 전송하는 음성인식부;를 더 포함할 수 있다.
전술한 의료수술 시뮬레이션 시스템은, 수술루트설정부에 의해 설정된 병변위치의 좌표 및 수술시행 루트와 수술영상표시부에 의해 표시되는 수술시행영상의 위치를 비교하는 수술위치비교부; 및 수술위치비교된 결과에 따라 메시지를 출력하는 메시지출력부;를 더 포함할 수도 있다.
전술한 의료수술 시뮬레이션 시스템은, 환자의 신체조건에 대응하는 인체모형;을 더 포함할 수 있다.
전술한 의료수술 시뮬레이션 시스템은, 설정된 병변위치의 좌표 및 수술시행 루트에 대응하여 인체모형에 설치되며, 인체모형 상에서의 의료진의 신체 또는 수술도구의 접촉을 감지하는 감지센서; 및 감지센서에 의해 감지된 결과에 따라 메시지를 출력하는 메시지출력부;를 더 포함할 수도 있다.
전술한 목적을 달성하기 위한 본 발명의 실시예에 따른 의료수술 시뮬레이션 방법은, 환자의 신장, 몸무게, 체격을 포함하는 신체조건을 반영하여 3차원의 환자영상을 생성하는 단계; 환자에 대해 기 촬영된 영상에 기초하여 병변위치의 좌표 및 병변위치의 좌표에 대응하는 수술시행 루트를 설정하는 단계; 설정된 병변위치의 좌표 및 수술시행 루트를 환자영상 생성단계에 의해 생성된 환자영상에 표시하는 단계; 수술도구의 영상을 환자영상에 표시하는 단계; 의료진의 손 및 손가락 중의 적어도 하나에 대한 움직임을 측정하는 단계; 및 움직임측정단계에 의해 측정된 움직임에 따라 수술도구의 영상에 대응하는 수술시행영상을 환자영상에 표시하는 단계;를 포함하는 것을 특징으로 한다.
전술한 의료수술 시뮬레이션 방법은, 수술도구명칭 및 그에 대응하는 수술도구의 영상을 데이터베이스로 저장하는 단계; 및 수술도구명칭의 음성호출을 인식하는 단계;를 더 포함할 수 있다. 이 경우, 수술도구의 영상 표시단계는 인식된 수술도구명칭에 대응하는 수술도구의 영상을 호출하여 환자영상에 표시한다.
전술한 의료수술 시뮬레이션 방법은, 설정된 병변위치의 좌표 및 수술시행 루트와 표시되는 수술시행영상의 위치를 비교하는 단계; 및 수술위치 비교단계에 의해 비교된 결과에 따라 메시지를 출력하는 단계;를 더 포함할 수 있다.
움직임 측정단계는, 환자의 신체조건에 대응하는 인체모형에서의 의료진의 손 및 손가락 중 적어도 하나에 대한 움직임을 측정한다.
전술한 의료수술 시뮬레이션 방법은, 설정된 병변위치의 좌표 및 수술시행 루트에 대응하여 인체모형에 설치된 감지센서를 통하여 의료진의 신체 또는 수술도구의 접촉을 감지하는 단계; 및 감지센서에 의해 감지된 결과에 따라 메시지를 출력하는 단계;를 더 포함할 수 있다.
본 발명에 따르면, 의료진에게 환자의 신체조건과 같은 시뮬레이션 환경을 제공할 수 있게 되며, 그에 따라 의료진이 실제 수술을 하기 전에 환자의 조건에 따른 훈련을 충분히 수행할 수 있도록 한다.
또한, 본 발명에 따르면, 실제 수술을 수행하기 이전에 의료진이 고난도의 경험을 충분히 쌓을 수 있도록 하며, 그에 따라 환자에 대한 실제 수술의 성공확률을 높일 수 있게 된다.
도 1은 본 발명의 일 실시예에 따른 의료수술 시뮬레이션 시스템을 개략적으로 도시한 도면이다.
도 2는 환자영상의 일 예를 나타낸 도면이다.
도 3은 환자영상의 다른 예를 나타낸 도면이다.
도 4는 의료진의 수술용 장갑 및 움직임측정부의 설치 예를 나타낸 도면이다.
도 5는 수술시행영상의 예를 나타낸 도면이다.
도 6은 본 발명의 다른 실시예에 따른 의료수술 시뮬레이션 시스템을 개략적으로 도시한 도면이다.
도 7은 인체모형의 예를 나타낸 도면이다.
도 8은 본 발명의 실시예에 따른 의료수술 시뮬레이션 방법을 나타낸 흐름도이다.
이하, 첨부된 도면을 참조하여 본 발명에 따른 의료수술 시뮬레이션 시스템 및 그 방법을 상세하게 설명한다.
도 1은 본 발명의 일 실시예에 따른 의료수술 시뮬레이션 시스템을 개략적으로 도시한 도면이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 의료수술 시뮬레이션 시스템(100)은 환자영상생성부(110), 수술루트설정부(120), 움직임측정부(130), 수술영상표시부(140), 수술도구저장부(150), 음성인식부(160), 수술위치비교부(170) 및 메시지출력부(180)를 포함할 수 있다.
환자영상생성부(110)는 환자의 신장, 몸무게, 체격 등의 신체조건을 반영하여 3차원의 환자영상을 생성한다. 예를 들어, 환자영상생성부(110)는 도 2에 도시한 바와 같이 환자의 성별에 따라 남성 또는 여성의 환자영상을 생성할 수 있으며, 환자의 신장, 나이, 몸무게 등에 따라 생성된 환자영상을 조절할 수 있다. 또한, 환자에 대하여 MRI, CT, X-ray 등의 기 촬영된 영상이 있는 경우, 실제 수술이 시행되는 부위에 대응하여 기 촬영된 영상으로부터 도 3에 도시한 바와 같이 근육조직(310), 기관(320), 골격(330), 혈관(340), 신경(350) 등을 분리하며, 분리된 근육조직(310), 기관(320), 골격(330), 혈관(340), 신경(350) 중의 적어도 하나를 환자영상으로 생성할 수도 있다. 여기서, 도면에는 환자영상생성부(110)는 신체 전체에 대한 환자영상을 생성하는 것으로 도시하였지만, 환자영상생성부(110)는 환자의 수술이 시행되는 신체부분에 대한 환자영상을 생성할 수도 있다.
수술루트설정부(120)는 환자에 대해 기 촬영된 영상에 기초하여 병변위치의 좌표 및 병변위치의 좌표에 대응하는 수술시행루트를 설정하고, 설정된 병변위치의 좌표 및 수술시행루트를 환자영상생성부(110)에 의해 생성된 환자영상에 표시한다. 예를 들어 척추수술이 시행되는 환자의 경우, 수술루트설정부(120)는 환자에 대한 MRI, CT, X-ray 등의 기 촬영된 영상에 기초하여 병변위치의 좌표를 설정하고, 설정된 병변위치의 좌표에 대하여 환자의 부담을 최소화하면서 최적의 수술을 수행할 수 있는 수술시행루트를 설정하며, 설정된 병변위치의 좌표 및 수술시행루트를 환자영상생성부(110)에 의해 생성된 환자영상에 표시한다. 이때, 수술루트설정부(120)는 환자영상생성부(110)에 의해 생성된 환자영상에 대해 기준위치를 설정하고, 해당 환자영상에 표시된 병변위치의 좌표 및 수술시행루트에 대한 위치를 인식할 수 있다.
움직임측정부(130)는 도 4에 도시한 바와 같이 의료진의 수술용 장갑(400)에 설치된 움직임측정센서(410)에 기초하여, 의료진의 손 및 손가락 중의 적어도 하나에 대한 움직임을 측정한다. 즉, 의료수술 시뮬레이션을 수행하는 의료진의 수술용 장갑(400)에는 복수의 움직임측정센서(410)가 설치될 수 있다. 이때, 각각의 움직임측정센서(410)는 대응하는 위치의 손가락의 움직임에 따라 서로 다른 신호를 출력하며, 움직임측정부(130)는 각각의 움직임측정센서(410)로부터 출력된 신호를 무선으로 수신하여 적어도 하나의 손가락이나 손의 움직임을 측정할 수 있다. 도 4에는 움직임측정센서(410)가 수술용 장갑(400)의 손가락 끝에 설치된 것으로 도시하였으나, 이것은 움직임측정센서(410)의 설치 예를 도시한 것뿐이며, 움직임측정센서(410)는 수술용 장갑(400)의 다양한 위치에 설치될 수 있다.
수술영상표시부(140)는 수술도구의 영상을 생성하며, 움직임측정부(130)에 의해 측정된 움직임에 따라 수술도구에 대응하는 수술시행영상을 환자영상생성부(110)에 의해 생성된 환자영상에 표시한다. 즉, 수술영상표시부(140)는 도 5에 도시한 바와 같이, 환자영상생성부(110)에 의해 생성된 환자영상에 대하여 수술루트설정부(120)에 의해 설정된 병변위치의 좌표 근처에서 의료진의 수술용 장갑의 영상(400)에 대한 기준위치를 정하고, 해당 수술용 장갑의 영상(400)에 수술도구의 영상(500)을 생성한다. 또한, 수술영상표시부(140)는 움직임측정부(130)에 의해 측정된 움직임에 따라 기준위치로부터 수술용 장갑의 영상(400) 및 수술도구의 영상(500)에 대응하는 수술시행영상을 환자영상에 표시한다.
한편, 수술도구저장부(150)는 수술도구명칭 및 그에 대응하는 수술도구의 영상을 데이터베이스로 저장한다. 즉, 수술도구저장부(150)는 수술도구의 종류에 대응하는 이미지를 해당 수술도구의 명칭에 매칭시켜 데이터베이스로 저장한다.
음성인식부(160)는 수술도구명칭의 음성호출을 인식하며, 수술도구저장부(150)로부터 인식된 수술도구명칭에 대응하는 수술도구의 영상을 호출하여 수술영상표시부(140)에 전송한다. 즉, 의료진이 수술도구의 명칭을 음성으로 호출하면, 음식인식부(160)는 호출된 수술도구명칭을 인식하며, 수술도구저장부(150)로부터 인식된 수술도구명칭에 대응하는 수술도구의 영상을 호출하여 수술영상표시부(140)에 전송한다.
수술위치비교부(170)는 환자영상에 표시된 병변위치의 좌표 및 수술시행루트와, 수술영상표시부(140)에 의해 환자영상에 표시되는 수술시행영상의 위치를 비교한다. 즉, 수술위치비교부(170)는 환자영상에 표시된 병변위치의 좌표 및 수술시행루트의 위치를 인식하며, 움직임측정부(130)에 의해 측정된 움직임에 따라 변위되는 수술시행영상의 위치를 인식하고, 인식된 각각의 위치를 비교한다.
메시지출력부(180)는 수술위치비교부(170)에 의해 비교된 결과에 따라 메시지를 출력할 수 있다. 예를 들어, 움직임측정부(130)에 의해 측정된 움직임에 따라 변위되는 수술시행영상의 위치가 병변위치의 좌표 또는 수술시행루트의 위치로부터 설정된 범위 이상 벗어나는 경우, 메시지출력부(180)는 그에 대한 경고메시지를 음성으로 출력할 수 있다. 또한, 움직임측정부(130)에 의해 측정된 움직임에 따라 변위되는 수술시행영상의 위치가 특정 혈관 또는 특정 신경으로부터 설정된 범위 이내인 경우, 메시지출력부(180)는 그에 대한 주의메시지를 음성으로 출력할 수 있다. 그러나, 메시지출력부(180)에 의해 출력되는 메시지는 음성메시지에 한정되지 않으며, 환자영상이 표시되는 화면에 문자메시지로 출력되거나, 알람 등의 경고음향으로 출력될 수도 있다.
도 6은 본 발명의 다른 실시예에 따른 의료수술 시뮬레이션 시스템을 개략적으로 도시한 도면이다.
도 6을 참조하면, 본 발명의 다른 실시예에 따른 의료수술 시뮬레이션 시스템(600)은 환자영상생성부(110), 수술루트설정부(120), 움직임측정부(130), 수술영상표시부(140), 메시지출력부(180), 인체모형(610) 및 감지센서(620)를 포함할 수 있다. 여기서, 환자영상생성부(110), 수술루트설정부(120), 움직임측정부(130), 수술영상표시부(140) 및 메시지출력부(180)의 기능 및 동작은 도 1의 환자영상생성부(110), 수술루트설정부(120), 움직임측정부(130), 수술영상표시부(140) 및 메시지출력부(180)의 기능 및 동작과 동일 또는 유사하므로 동일한 참조번호를 부여하였으며, 여기서는 그 상세한 설명은 생략한다.
인체모형(610)은 환자의 신장, 몸무게, 체격 등의 신체조건에 따라 제작되며, 도 7에 도시한 바와 같이 수술이 시행되는 특정부분만이 제작될 수도 있다.
감지센서(620)는 수술루트설정부(120)에 의해 설정된 병변위치의 좌표 및 수술시행루트에 대응하여 인체모형(610)에 설치되며, 인체모형(610)에 대해 수술 시뮬레이션을 시행하는 의료진의 신체 또는 수술도구의 접촉을 감지한다. 즉, 감지센서(620)는 의료진이 해당 인체모형(610)에 대하여 수술도구를 이용하여 직접 수술 시뮬레이션을 수행하는 경우, 의료진의 손이나 수술도구의 접촉을 감지할 수 있다.
이 경우, 수술영상표시부(140)는 움직임측정부(130)에 의해 측정된 움직임에 따라 수술도구에 대응하는 수술시행영상을 환자영상생성부(110)에 의해 생성된 환자영상에 표시하며, 메시지출력부(180)는 감지센서(620)에 의해 감지된 결과에 따라 메시지를 출력한다.
도 8은 본 발명의 실시예에 따른 의료수술 시뮬레이션 방법을 나타낸 흐름도이다.
도 1 내지 도 8을 참조하면, 수술도구저장부(150)는 수술도구명칭 및 그에 대응하는 수술도구의 영상을 데이터베이스로 저장한다(S802). 즉, 수술도구저장부(150)는 수술도구의 종류에 대응하는 이미지를 해당 수술도구의 명칭에 매칭시켜 데이터베이스로 저장한다.
환자영상생성부(110)는 디스플레이(도시하지 않음)의 화면에 환자의 신장, 몸무게, 체격 등의 신체조건을 반영하여 3차원의 환자영상을 생성한다(S804).
수술루트설정부(120)는 환자에 대해 기 촬영된 영상에 기초하여 병변위치의 좌표 및 병변위치의 좌표에 대응하는 수술시행루트를 설정하고(S806), 설정된 병변위치의 좌표 및 수술시행루트를 환자영상생성부(110)에 의해 생성된 환자영상에 표시한다(S808). 이때, 수술루트설정부(120)는 환자영상생성부(110)에 의해 생성된 환자영상에 대해 기준위치를 설정하고, 해당 환자영상에 표시된 병변위치의 좌표 및 수술시행루트에 대한 위치를 인식할 수 있다.
음성인식부(160)는 수술도구명칭의 음성호출을 인식하며(S810), 수술도구저장부(150)로부터 인식된 수술도구명칭에 대응하는 수술도구의 영상을 호출하여 수술영상표시부(140)에 전송하여 환자영상에 표시시킨다(S812). 즉, 음식인식부(160)는 의료진에 의해 호출된 수술도구명칭을 인식하며, 수술도구저장부(150)로부터 인식된 수술도구명칭에 대응하는 수술도구의 영상을 호출하여 수술영상표시부(140)에 전송함으로써 환자영상에 함께 표시시킨다.
움직임측정부(130)는 의료진의 수술용 장갑(400)에 설치된 움직임측정센서(410)에 기초하여, 의료진의 손 및 손가락 중의 적어도 하나에 대한 움직임을 측정한다(S814). 이때, 각각의 움직임측정센서(410)는 대응하는 위치의 손가락의 움직임에 따라 서로 다른 신호를 출력하며, 움직임측정부(130)는 각각의 움직임측정센서(410)로부터 출력된 신호를 무선으로 수신하여 적어도 하나의 손가락이나 손의 움직임을 측정할 수 있다.
감지센서(620)는 수술루트설정부(120)에 의해 설정된 병변위치의 좌표 및 수술시행루트에 대응하여 인체모형(610)에 설치되며, 수술도구를 이용하여 직접 수술 시뮬레이션을 수행하는 의료진의 손이나 수술도구의 접촉을 감지할 수 있다(S816).
수술영상표시부(140)는 수술도구의 영상을 생성하며, 움직임측정부(130)에 의해 측정된 움직임에 따라 수술도구에 대응하는 수술시행영상을 환자영상생성부(110)에 의해 생성된 환자영상에 표시한다(S818). 즉, 수술영상표시부(140)는 움직임측정부(130)에 의해 측정된 움직임에 따라 기준위치로부터 수술용 장갑의 영상(400) 및 수술도구의 영상(500)에 대응하는 수술시행영상을 환자영상에 표시한다.
수술위치비교부(170)는 환자영상에 표시된 병변위치의 좌표 및 수술시행루트와, 수술영상표시부(140)에 의해 환자영상에 표시되는 수술시행영상의 위치를 비교한다(S820). 즉, 수술위치비교부(170)는 환자영상에 표시된 병변위치의 좌표 및 수술시행루트의 위치를 인식하며, 움직임측정부(130)에 의해 측정된 움직임에 따라 변위되는 수술시행영상의 위치를 인식하고, 인식된 각각의 위치를 비교한다.
메시지출력부(180)는 감지센서(620)에 의해 감지된 결과에 따라 메시지를 출력하거나, 수술위치비교부(170)에 의해 비교된 결과에 따라 메시지를 출력한다(S822). 예를 들어, 움직임측정부(130)에 의해 측정된 움직임에 따라 변위되는 수술시행영상의 위치가 병변위치의 좌표 또는 수술시행루트의 위치로부터 설정된 범위 이상 벗어나거나 의료진의 손 또는 수술도구가 특정 감지센서(620)에 접촉하는 경우, 메시지출력부(180)는 그에 대한 경고메시지를 음성으로 출력할 수 있다.
100, 600: 의료수술 시뮬레이션 시스템
110: 환자영상생성부 120: 수술루트설정부
130: 움직임측정부 140: 수술영상표시부
150: 수술도구저장부 160: 음성인식부
170: 수술위치비교부 180: 메시지출력부
610: 인체모형 620: 감지센서

Claims (10)

  1. 환자의 신장, 몸무게, 체격을 포함하는 신체조건을 반영하여 3차원의 환자영상을 생성하는 환자영상생성부;
    상기 환자에 대해 기 촬영된 영상에 기초하여 병변위치의 좌표 및 상기 병변위치의 좌표에 대응하는 수술시행 루트를 설정하고, 설정된 상기 병변위치의 좌표 및 상기 수술시행 루트를 상기 환자영상생성부에 의해 생성된 환자영상에 표시하는 수술루트설정부;
    의료진의 수술용 장갑에 설치된 움직임측정센서에 기초하여 상기 의료진의 손 및 손가락 중의 적어도 하나에 대한 움직임을 측정하는 움직임측정부; 및
    수술도구의 영상을 생성하며, 상기 움직임측정부에 의해 측정된 움직임에 따라 상기 수술도구에 대응하는 수술시행영상을 상기 환자영상생성부에 의해 생성된 환자영상에 표시하는 수술영상표시부;
    를 포함하는 것을 특징으로 하는 의료수술 시뮬레이션 시스템.
  2. 제1항에 있어서,
    수술도구명칭 및 그에 대응하는 수술도구의 영상을 데이터베이스로 저장하는 수술도구저장부; 및
    수술도구명칭의 음성호출을 인식하며, 상기 수술도구저장부로부터 인식된 수술도구명칭에 대응하는 수술도구의 영상을 호출하여 상기 수술영상표시부에 전송하는 음성인식부;
    를 더 포함하는 것을 특징으로 하는 의료수술 시뮬레이션 시스템.
  3. 제1항에 있어서,
    상기 수술루트설정부에 의해 설정된 상기 병변위치의 좌표 및 상기 수술시행 루트와 상기 수술영상표시부에 의해 표시되는 수술시행영상의 위치를 비교하는 수술위치비교부; 및
    상기 수술위치비교된 결과에 따라 메시지를 출력하는 메시지출력부;
    를 더 포함하는 것을 특징으로 하는 의료수술 시뮬레이션 시스템.
  4. 제1항에 있어서,
    상기 환자의 신체조건에 대응하는 인체모형;
    을 더 포함하는 것을 특징으로 하는 의료수술 시뮬레이션 시스템.
  5. 제4항에 있어서,
    설정된 상기 병변위치의 좌표 및 상기 수술시행 루트에 대응하여 상기 인체모형에 설치되며, 상기 인체모형 상에서의 상기 의료진의 신체 또는 수술도구의 접촉을 감지하는 감지센서; 및
    상기 감지센서에 의해 감지된 결과에 따라 메시지를 출력하는 메시지출력부;
    를 더 포함하는 것을 특징으로 하는 의료수술 시뮬레이션 시스템.
  6. 환자의 신장, 몸무게, 체격을 포함하는 신체조건을 반영하여 3차원의 환자영상을 생성하는 단계;
    상기 환자에 대해 기 촬영된 영상에 기초하여 병변위치의 좌표 및 상기 병변위치의 좌표에 대응하는 수술시행 루트를 설정하는 단계;
    설정된 상기 병변위치의 좌표 및 상기 수술시행 루트를 상기 환자영상 생성단계에 의해 생성된 환자영상에 표시하는 단계;
    수술도구의 영상을 상기 환자영상에 표시하는 단계;
    의료진의 손 및 손가락 중의 적어도 하나에 대한 움직임을 측정하는 단계; 및
    상기 움직임측정단계에 의해 측정된 움직임에 따라 상기 수술도구의 영상에 대응하는 수술시행영상을 상기 환자영상에 표시하는 단계;
    를 포함하는 것을 특징으로 하는 의료수술 시뮬레이션 방법.
  7. 제6항에 있어서,
    수술도구명칭 및 그에 대응하는 수술도구의 영상을 데이터베이스로 저장하는 단계; 및
    상기 수술도구명칭의 음성호출을 인식하는 단계;
    를 더 포함하며,
    상기 수술도구의 영상 표시단계는 인식된 상기 수술도구명칭에 대응하는 수술도구의 영상을 호출하여 상기 환자영상에 표시하는 것을 특징으로 하는 의료수술 시뮬레이션 방법.
  8. 제6항에 있어서,
    설정된 상기 병변위치의 좌표 및 상기 수술시행 루트와 표시되는 상기 수술시행영상의 위치를 비교하는 단계; 및
    상기 수술위치 비교단계에 의해 비교된 결과에 따라 메시지를 출력하는 단계;
    를 더 포함하는 것을 특징으로 하는 의료수술 시뮬레이션 방법.
  9. 제6항에 있어서, 상기 움직임 측정단계는,
    상기 환자의 신체조건에 대응하는 인체모형에서의 상기 의료진의 손 및 손가락 중 적어도 하나에 대한 움직임을 측정하는 것을 특징으로 하는 의료수술 시뮬레이션 방법.
  10. 제9항에 있어서,
    설정된 상기 병변위치의 좌표 및 상기 수술시행 루트에 대응하여 상기 인체모형에 설치된 감지센서를 통하여 상기 의료진의 신체 또는 수술도구의 접촉을 감지하는 단계; 및
    상기 감지센서에 의해 감지된 결과에 따라 메시지를 출력하는 단계;
    를 더 포함하는 것을 특징으로 하는 의료수술 시뮬레이션 방법.
KR1020120025279A 2012-03-13 2012-03-13 의료수술 시뮬레이션 장치 및 그 방법 KR101403968B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120025279A KR101403968B1 (ko) 2012-03-13 2012-03-13 의료수술 시뮬레이션 장치 및 그 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120025279A KR101403968B1 (ko) 2012-03-13 2012-03-13 의료수술 시뮬레이션 장치 및 그 방법

Publications (2)

Publication Number Publication Date
KR20130104097A true KR20130104097A (ko) 2013-09-25
KR101403968B1 KR101403968B1 (ko) 2014-06-10

Family

ID=49452997

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120025279A KR101403968B1 (ko) 2012-03-13 2012-03-13 의료수술 시뮬레이션 장치 및 그 방법

Country Status (1)

Country Link
KR (1) KR101403968B1 (ko)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101480251B1 (ko) * 2013-10-14 2015-01-09 중앙대학교 산학협력단 수술계획 수립용 표준 골격 모형 및 수술계획 수립용 전자기기
WO2018155894A1 (ko) * 2017-02-21 2018-08-30 주식회사 고영테크놀러지 영상 정합 장치 및 영상 정합 방법
KR20190109351A (ko) 2019-09-16 2019-09-25 주식회사 테크인모션 Vr 교육 시스템
KR20200095084A (ko) * 2019-01-31 2020-08-10 한국기술교육대학교 산학협력단 경막외강 내시경술 훈련 장치
WO2021049761A3 (ko) * 2019-09-09 2021-05-20 주식회사 미래컴퍼니 서브 블록 단위의 수술 데이터 획득 방법 및 그 장치
KR20220016724A (ko) 2020-08-03 2022-02-10 (주)휴톰 수술영상 내 단위동작의 서술정보 생성 시스템 및 그 방법
US20220076824A1 (en) * 2020-09-10 2022-03-10 Jerome Canady Research Institute for Advanced Biological and Technological Sciences System and method for voice-control of electrosurgical system

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101869826B1 (ko) 2016-08-31 2018-06-22 주식회사 코렌텍 환자 맞춤형 인공어깨관절 수술시뮬레이션 시스템 및 방법
KR20220122000A (ko) 2021-02-26 2022-09-02 충남대학교산학협력단 가상현실 기반의 양방향 척추 내시경 수술 트레이닝 시스템
KR102464735B1 (ko) 2021-04-21 2022-11-09 충남대학교산학협력단 가상현실 기반의 양방향 척추 내시경 수술 트레이닝 시스템

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100551201B1 (ko) * 2004-06-19 2006-02-10 한국과학기술연구원 볼륨 모델 기반의 햅틱 인터페이스를 이용한 치과 치료훈련 및 평가 시스템
KR101092372B1 (ko) * 2009-09-15 2011-12-09 한국과학기술연구원 하이브리드 의료 시뮬레이션 시스템 및 방법
KR101816172B1 (ko) * 2009-12-07 2018-01-08 광주과학기술원 의료 훈련 시뮬레이션 시스템 및 방법
KR20120008292A (ko) * 2010-07-16 2012-01-30 주식회사 프라임비엠텍 가상 관절경 수술 시스템

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101480251B1 (ko) * 2013-10-14 2015-01-09 중앙대학교 산학협력단 수술계획 수립용 표준 골격 모형 및 수술계획 수립용 전자기기
WO2018155894A1 (ko) * 2017-02-21 2018-08-30 주식회사 고영테크놀러지 영상 정합 장치 및 영상 정합 방법
US11141225B2 (en) 2017-02-21 2021-10-12 Koh Young Technology Inc. Image matching device and image matching method
KR20200095084A (ko) * 2019-01-31 2020-08-10 한국기술교육대학교 산학협력단 경막외강 내시경술 훈련 장치
WO2021049761A3 (ko) * 2019-09-09 2021-05-20 주식회사 미래컴퍼니 서브 블록 단위의 수술 데이터 획득 방법 및 그 장치
KR20190109351A (ko) 2019-09-16 2019-09-25 주식회사 테크인모션 Vr 교육 시스템
KR20220016724A (ko) 2020-08-03 2022-02-10 (주)휴톰 수술영상 내 단위동작의 서술정보 생성 시스템 및 그 방법
KR20230031273A (ko) 2020-08-03 2023-03-07 (주)휴톰 수술영상 내 단위동작의 서술정보 생성 시스템 및 그 방법
US20220076824A1 (en) * 2020-09-10 2022-03-10 Jerome Canady Research Institute for Advanced Biological and Technological Sciences System and method for voice-control of electrosurgical system
US11967425B2 (en) * 2020-09-10 2024-04-23 Jerome Canady Research Institute System and method for voice-control of electrosurgical system

Also Published As

Publication number Publication date
KR101403968B1 (ko) 2014-06-10

Similar Documents

Publication Publication Date Title
KR101403968B1 (ko) 의료수술 시뮬레이션 장치 및 그 방법
US11883118B2 (en) Using augmented reality in surgical navigation
KR102014355B1 (ko) 수술도구의 위치 정보 산출 방법 및 장치
US20140031668A1 (en) Surgical and Medical Instrument Tracking Using a Depth-Sensing Device
JP2018516718A (ja) 拡張リアリティの形態学的診断法
JP7188970B2 (ja) ロボット手術支援装置、ロボット手術支援装置の作動方法、及びプログラム
Lahanas et al. Surgical simulation training systems: box trainers, virtual reality and augmented reality simulators
JPH11197159A (ja) 手術支援システム
KR101862359B1 (ko) 수술 시뮬레이션 정보 생성방법 및 프로그램
EP3413774A1 (en) Database management for laparoscopic surgery
WO2012033739A2 (en) Surgical and medical instrument tracking using a depth-sensing device
WO2019110135A1 (en) Augmented reality assistance in medical procedure preparation
KR20190080706A (ko) 수술보조 영상 표시방법, 프로그램 및 수술보조 영상 표시장치
JP7182126B2 (ja) ロボット手術支援装置、ロボット手術支援方法、及びプログラム
CA3239159A1 (en) Surgery assisting system, surgery assisting method, and surgery assisting program
Roessel et al. A systematic literature review of practical virtual and augmented reality solutions in surgery
Traub et al. Advanced display and visualization concepts for image guided surgery
Behringer et al. Some usability issues of augmented and mixed reality for e-health applications in the medical domain
WO2018160955A1 (en) Systems and methods for surgical tracking and visualization of hidden anatomical features
KR101864411B1 (ko) 수술보조 영상 표시방법 및 프로그램
US10854005B2 (en) Visualization of ultrasound images in physical space
KR20140140205A (ko) 인체모형을 이용한 척추수술 시뮬레이션 시스템 및 그 방법
JP7264689B2 (ja) 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム
KR20140047999A (ko) 인체모형을 이용한 척추수술 시뮬레이션 시스템 및 그 방법
Buettner et al. A Systematic Literature Review of Computer Support for Surgical Interventions

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170522

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180515

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190627

Year of fee payment: 6

R401 Registration of restoration